_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
100047 | من با آمار جدید هستم و فرصتی برای شرکت در این دوره در دانشگاه نداشتم. با این حال من باید تفاوت بین شبکه های بیزی و فرآیندهای مارکوف را بدانم. من مطالب خوبی برای هر دوی آنها پیدا کردم: شبکه بیزی فرآیند مارکوف من معتقد بودم که اصول هر دو را درک می کنم، اما اکنون که نیاز به مقایسه این دو دارم احساس می کنم گم شده ام. آنها برای من تقریباً همین معنی را دارند. حتما نیستند. کسی میتونه به من بگه فرق این دو چیه؟ پیوندها نیز قدردانی می شوند. | تفاوت بین شبکه های بیزی و فرآیند مارکوف |
46850 | من روی یک پروژه برای پروژه کارشناسی ارشد کار می کنم. شهری که من به آن نگاه میکنم، در 1 فوریه 2011 به سیستم Fareless تغییر مکان داد. من  زیر را برای دادهها دارم و از سال 2008 تا کنون حتی به تعداد دوچرخهسواران در هر ساعت در روز کاهش یافته است. اما من این کار را ندارم. فکر می کنم که جزئیات اطلاعات مورد نیاز است، من فکر می کنم هفته ها نگاه می کنم. مسئله این است که شهر و پایگاه دانشجویی شهر با سرعت فوق العاده در حال رشد است. در سال 2011، 400 دانشجوی جدید به پردیس اضافه شد، اما 1200 دانشجوی ادامه دار وجود داشت، بنابراین سود خالص 1600 دانشجو بود. این شهر تنها 54000 نفر جمعیت دارد و کالج تنها حدود 26000 نفر است (تا پاییز 2012). راهی که میخواستم ببینم آیا سیستم جدید Fareless طبق برنامهریزی کار میکند یا نه، استفاده از پیشبینی سریهای زمانی و استفاده از دادههای pre-freeless و پیشبینی اعداد مورد انتظار بود. آنها را با دادههای «بعد از سفر» مقایسه کنید و ببینید آیا در فواصل اطمینان دادههای «قبل از سفر» قرار میگیرد یا خیر. اگر خارج از آن باشد، تغییر در کرایه موفقیت آمیز بوده است؟ رشد دانشآموزان از سال 2008 تقریباً ثابت بوده است، اگر نه در سالهای 2009/2010 قویتر و سپس در سالهای 2011 و 2012 کاهش یافت. من دسترسی R/SPSS/STATA/Excel دارم. من کاملاً با SPSS مهارت دارم و در R و STATA بسیار جدید هستم. همه کمک / مشاوره عالی خواهد بود. پیشاپیش از شما متشکرم. ویرایش: تاکنون به نظر می رسد که ARIMA روشی است که برای تجزیه و تحلیل این داده ها استفاده می شود. هنوز هم دوست دارم افکار و ایده های دیگران را در مورد موارد دیگری که ممکن است به غیر از رشد جمعیت از دست داده باشم بشنوم. | روش تحقیق بر روی سیستم اتوبوس بدون تردد |
46851 | فرض کنید متغیرهای ترتیبی $4$ و یک متغیر کمکی ($\log_{10}(x)$) دارم. وقتی یک مدل پروبیت ترتیبی را اجرا می کنم، سه ضریب آستانه و یک شیب پروبیت دریافت می کنم. ضرایب آستانه $b_1، \dots،b_3$ و شیب پروبیت را $b_4$ صدا بزنید. بنابراین می توانیم 10^{b_1/b_4}$ برای دسته 1، 10$^{b_{2}/b_{4}}$ برای دسته 2 و 10$^{b_{3}/b_{4}}$ برای دسته 1 دریافت کنیم. دسته 3. اما چگونه این مقدار را برای دسته $4$ محاسبه کنیم؟ برای دسته 4 ضریب وجود ندارد. | ضرایب در مدل پروبیت مرتب |
46855 | من سعی می کنم ماشین های بردار پشتیبانی را با استفاده از این منبع کشف کنم. در صفحه 2 بیان شده است که برای داده های قابل جداسازی خطی، مشکل SVM انتخاب یک ابر صفحه است به گونه ای که $\vec{x}_i\vec{w} + b \geq 1$ برای $y_i \in 1$ و $\vec {x}_i\vec{w} + b \leq -1$ برای $y_i \in -1$. من در درک این مشکل دارم که سمت راست محدودیت ها از کجا آمده است؟ P.S سوال بعدی این است که چگونه می توان نشان داد که حاشیه SVM برابر با $\frac{1}{||\vec{w}||}$ است. | تعریف هایپرپلن در یک SVM ساده از کجا می آید؟ |
112928 | ارزیابی یک شی صاف با «smoothCon»، علاوه بر چندین چیز دیگر، پایه های spline معمولی «دست نخورده» objx <- te(x,bs=ps,k=4) Con.mgcv.x <- smoothCon(objx, dat,knots=NULL,scale.penalty=FALSE) Mx.mgcv <- Con.mgcv.x[[1]]$margin[[1]] Mx.mgcv$X نسخه بازسازی شده $\boldsymbol{X}\prime$ Con.mgcv.x[[1]]$X که مطابق با پارامتر صاف از نظر مقادیر تابع در مجموعه ای از گره ها: $f_x(x) = \boldsymbol{X}\boldsymbol{\alpha}$، مجموعه $\boldsymbol{\alpha}\prime=\boldsymbol{\Gamma}\boldsymbol{\alpha}$ جایی که $\Gamma_{ij} = \text{b}_i\left(x=x_j\right)$, $\ boldsymbol{X}\prime = \boldsymbol{X}\boldsymbol{\Gamma}^{-1}$ $\boldsymbol{\Gamma}^{-1}$ Matrix Con.mgcv.x[[1]]$XP[[1]] اکنون در کتابهای درسی مانند Wood، مدلهای افزودنی تعمیمیافته: مقدمهای با R ماتریس جریمه $ \boldsymbol{S}$ نیز باید مجدداً به صورت $\boldsymbol{S}\prime = تنظیم شود \boldsymbol{\Gamma}^{-T}\boldsymbol{S}\boldsymbol{\Gamma}^{-1}$. اگر به سادگی خروجی «smoothCon» را بررسی کنیم و اگر خود ماتریس $\boldsymbol{\Gamma}$ را بسازیم و محاسبه کنیم $\boldsymbol{S}\prime$، نتایج متفاوت خواهد بود، هرچند $\boldsymbol{X}\prime $ در اصل برابر است. دلیل آن چیست؟ آیا مقیاس مجدد بیشتری انجام شده است زیرا ماتریس $\boldsymbol{S}\prime$ تقریباً 10000$-برابر بزرگتر از چیزی است که توسط «smoothCon» ارائه شده است. | در عمل، ماتریس جریمه برای splines که توسط smoothCon (بسته mgcv) ایجاد شده است، چگونه مشخص می شود؟ |
49889 | چرا رتبه ماتریس طراحی $\boldsymbol X$ برابر با رتبه $\boldsymbol{X'X}$ است؟ آیا این در همه شرایط درست است؟ اگر X مستقل خطی نباشد، رتبه X'X چقدر خواهد بود؟ | چرا رتبه ماتریس طراحی X با رتبه X'X برابر است؟ |
48687 | من سعی می کنم آزمایشی را تحلیل کنم که در آن از هر موضوعی در شرایط مختلف سؤال مشابهی پرسیده می شود. سپس هر یک از پاسخهای آنها را در دستههایی توضیح میدهم که پاسخهای آنها را به تفصیل شرح میدهم. من سعی می کنم روابط بین دسته های مختلف را پیدا کنم. به عنوان مثال، چندین کاربر که پاسخهایشان را میتوان بر اساس دسته A توصیف کرد، اغلب میتوانند با دسته B توصیف شوند، اما اصلاً با دسته C مرتبط نیستند. من فکر میکردم که تحلیل عاملی میتواند روابط بین دستهها را پیدا کند، اما به نظر میرسد که برای غیر داده های عددی، تجزیه و تحلیل مکاتبات مناسب تر است، آیا این درست است؟ متشکرم. | رابطه بین دسته ها |
58046 | من کمی در مورد تجزیه و تحلیل بقا می خوانم و بیشتر کتاب های درسی بیان می کنند که $h(t)= \lim_{ \Delta t \rightarrow 0} \frac{P(t < T \leq t+\Delta t |T \geq t )} {\Delta t} =\frac{f(t)}{1-F(t)} (1)$ که در آن $h(t)$ نرخ خطر است، $f(t)=\lim_{\Delta t \rightarrow 0} \frac{P(t < T \leq t+\Delta t)}{ \Delta t}(2)$ تابع چگالی، $F(t) =Pr(T<t) (3)$ and $S(t)=Pr(T>t)=1-F(t) (4)$ همچنین بیان می کنند که $S(t)= e^{- \int_0^t h(s)ds } (5)$ اکثر کتابهای درسی (حداقل آنهایی که من دارم) برای هیچکدام از (1) یا (5) مدرکی ارائه نمی کنند. فکر میکنم توانستم از طریق (1) به صورت زیر $h(t)= \lim_{ \Delta t \rightarrow 0} \frac{P(t < T \leq t+\Delta t |T \geq t )}{ \Delta t}=$ $\lim_{ \Delta t \rightarrow 0} \frac{P(T \geq t |t < T \leq t+\Delta t ) P(t < T \leq t+\Delta t)}{ P(T \geq t)\Delta t}$ که به دلیل (2) و (4) می شود $\lim_{ \Delta t \rightarrow 0} \frac{P(T \geq t |t < T \leq t+\Delta t )f(t)}{S(t)\Delta t}$ اما $P(T \geq t |t < T \leq t+\Delta t )=1$ بنابراین $h(t)=\frac{f(t)}{1-F(t)}$ چگونه می توان (5) را ثابت کرد؟ | اثبات رابطه بین نرخ خطر، چگالی احتمال، تابع بقا |
11829 | آیا می توان لاگ یک متغیر مستقل را در رگرسیون پواسون گرفت؟ هنگام انجام این کار باید از چه چیزهایی آگاه باشم؟ (با فرض اینکه متغیر مستقل با log link باشد، نتایج بهتر می شوند.) | گزارش یک متغیر مستقل را در رگرسیون پواسون در نظر بگیرید |
14854 | من یک متغیر مستقل مقوله ای دارم (دو سطح: شرط 1؛ شرط 2) و متغیرهای وابسته ترتیبی(؟) (تغییرهای بزرگی عددی (به عنوان مثال -3 اگر در بزرگی عدد از 4 به 1 کاهش داشت). اکنون می خواهم ارزیابی کنم. آیا این شرط تغییر در متغیر وابسته را پیشبینی میکند، اکنون من سؤالات زیر را دارم: رگرسیون خطی برای DV = ترتیبی (طبقه ای) 2. آیا می توانم یک رگرسیون خطی برای طراحی اندازه گیری های مکرر انجام دهم؟ | چگونه می توان تأثیر شرط را بر نمرات تغییر برای یک متغیر وابسته احتمالاً ترتیبی آزمایش کرد؟ |
112923 | من یک سوال دارم که مربوط به سری های زمانی یا به احتمال زیاد فقط مربوط به ریاضیات ساده است. فرض کنید که من تعداد بازدیدکنندگان آنلاین 5 وب سایت را به صورت ماهانه اندازه گیری می کنم، بنابراین این داده ها را برای ماه های ژانویه تا دسامبر در اختیار دارم. چیزی که می خواهم بفهمم این است که متوسط نرخ رشد **سالانه** برای چقدر است وب سایت ها؟ یعنی تصور کنید من دارم با این وب سایت ها کاری انجام می دهم و می خواهم به کسی بگویم که این 5 وب سایت که نماینده برخی از جمعیت هستند به طور متوسط به یک وب سایت x% **سالانه** نرخ رشد بازدیدکنندگان در سال اول از آنجایی که من این را برای 12 ماه برای هر وب سایت اندازه گیری کرده ام، یافتن نرخ رشد بازدیدکنندگان برای یک وب سایت استاندارد خواهد بود (t(month12) - t(month 1))/t(month 1). اگر بخواهم میانگین نرخ رشد **سالانه** را در تمام 5 وب سایت پیدا کنم، چه کار می کنم؟ آیا میانگین نرخ رشد **سالانه** بی خطر است؟ من به دنبال یک روش بسیار رسمی برای این نیستم. من فقط میخواستم بدانم آیا هنگام تلاش برای دریافت بازتابی کلی از نرخ رشد **سالانه** در وبسایت 5، انجام این کار با خطرات شدیدی مواجه است یا خیر. امیدوارم که منطقی باشد. با تشکر | میانگین نرخ رشد برای سال 1 در 5 گروه |
100045 | مشکل الگوریتم های نزولی گرادیان، به عنوان مثال. الگوریتم لونبرگ-مارکوارت به این صورت است که آنها به حداقل حدس اولیه نزدیک میشوند، بنابراین وقتی از موقعیتهای مختلف شروع میکنید به حداقلهای متفاوتی میرسید. آیا یک الگوریتم مبتنی بر گرادیان وجود دارد که بدون توجه به اینکه از کجا شروع می شود، نتایج مشابهی را ارائه می دهد؟ به عنوان مثال حداقلی که از حداقل سطحی فرار می کند و بنابراین احتمال بیشتری دارد که به یک حداقل جهانی یا حداقل یک حداقل محلی شبیه به جهانی همگرا شود. این را می توان با دادن اینرسی به شیب نزولی به دست آورد، بنابراین همانطور که جایگزین به سمت پایین مشتقات جزئی حرکت می کند، شتاب به دست می آورد، و سپس هنگامی که تمام مشتقات جزئی برابر با صفر (یعنی حداقل)، الگوریتم به حرکت در جهت ادامه می دهد. قبلاً می رفت، اما شروع به کند شدن می کند، زیرا اکنون به سمت مشتقات جزئی بالا می رود. این به آن کمک می کند تا از حداقل محلی فرار کند و حداقل جهانی را پیدا کند. آیا چنین الگوریتمی وجود دارد؟ (این یک الگوریتم بهینه سازی جهانی مانند الگوریتم ژنتیک یا بهینه سازی ازدحام ذرات نیست) | الگوریتم کمینه سازی مبتنی بر شیب نزولی که برای نزدیک به بهینه جهانی نیازی به حدس اولیه ندارد |
62306 | چرا ما نمودار باقیمانده را در تحلیل رگرسیون تحلیل می کنیم و نه بین دو متغیر منفرد؟ به عنوان مثال، هنگام بررسی نرمال بودن، ناهمسانی و غیره، ما دو متغیر مجزا را تجزیه و تحلیل نمیکنیم، بلکه نمودار باقیمانده را تجزیه و تحلیل میکنیم، چرا چنین است؟ | تجزیه و تحلیل نمودار باقیمانده در مقابل نمودار متغیرهای مستقل |
62305 | من در حال بررسی فصل 4 (تستها) در کتاب دیویسون و هینکلی (D&H) با عنوان روشهای بوت استرپ و کاربردهای آنها هستم و در مورد یکی از نمونههای آنها سوالی دارم. ## تست پیشنهادی دیویسون و هینکلی مثال 4.1 یک آزمون جایگشت برای فرضیه (جایگزین) شیب غیرصفر در یک رگرسیون لجستیک ساده پیشنهاد میکند. به نقل از صفحه 141: > **مثال 4.1 (رگرسیون لجستیک)** فرض کنید $y_1، \ldots، y_n$ > نتایج باینری مستقل هستند، با مقادیر متغیر کمکی اسکالر متناظر > $x_1، \ldots، x_n$ و ما آرزو می کنیم برای آزمایش اینکه آیا $x$ روی > $y$ تأثیر می گذارد یا نه. اگر مدل انتخابی ما مدل رگرسیون لجستیک باشد $$ \log > \frac{\Pr(Y_j = 1 | x_j)}{\Pr(Y_j = 0 | x_j} = \lambda + \psi x_j, \quad > j= 1,\ldots,n, $$ سپس فرضیه صفر $H_0 است : \psi=0.$ زیر $H_0$، > آمار کافی برای $\lambda$ است $S=\sum Y_j$ و $T=\sum x_j Y_j$ است > آمار آزمون طبیعی > > [... متن بریده شده...] > > توزیع تهی $Y_1،\ ldots، Y_n$ با توجه به $S = s$ یکنواخت است بیش از $n > جایگشت s$ از $y_1، \ldots، y_n$ را انتخاب کنید به جای محاسبه همه آنها جایگشتها برای بدست آوردن توزیع دقیق $T$، آنها پیشنهاد میکنند که $x_i$ ثابت بماند و جایگشتهای $R$ از $y_i$ تولید شود تا توزیع دقیق $T$ ## به نظر برسد. اما فکر من این بود که یک توزیع تهی کمی متفاوت را شبیه سازی کنم، با توجه به اینکه $\psi = 0$ تحت فرضیه صفر، $$ \Pr(Y_j =). 1| من مجموعههای $R$ از $y^*_1، \ldots، y^*_n$ را با هر $y^*_i \sim تولید میکنم. \textrm{برنولی}(\frac{e^{\lambda}}{e^{\lambda} + 1})$. به جای (اما احتمالاً معادل) D&H's $T=\sum x_j Y_j$، من تخمین $\psi$ را از یک رگرسیون لجستیک برازش نمونه بوت استرپ به عنوان آمار آزمایشی خود در نظر میگیرم. ## سوالات دو تست بالا به توزیع های مختلف نمونه های بوت استرپ بستگی دارد. به عنوان مثال، مال من ممکن است نمونه هایی تولید کند که در آنها همه $y^*_i$ برابر با 1 باشد، در حالی که همه نمونه های D&H دارای همان تعداد 1 هستند. به نظر می رسد تفاوت برجسته این است که توزیع نمونه D&H مشروط به $S=\sum Y_j$ است در حالی که توزیع من مشروط است. آیا یکی از این رویکردها در همه شرایط بر دیگری ارجحیت دارد؟ به نظر می رسد که آنها فرآیندهای مختلف تولید داده را در جمعیت های نمونه اولیه فرض می کنند/مدل می کنند. آیا این درست است؟ اگر چنین است، چه زمانی باید یک رویکرد را بر دیگری انتخاب کنم؟ | (چرا) توزیع نمونه بوت استرپ برای شیب رگرسیون لجستیک باید مشروط به $S=\sum Y_j$ باشد؟ |
62304 | من یک مدل ترکیبی را با «lmer()» برازش دادهام و با 4 اصطلاح تعامل قابل توجه باقی ماندهام. با حذف عبارت تعامل و مقایسه با مدل کامل با استفاده از «anova(fm1, fm2)» یافت شد. اصطلاحات تک را هم در مدل گذاشته ام. وقتی میآیم با حذف کردن آنها و استفاده از «anova(fm1, fm2) chi-square را گزارش کنم. به من میگویند 0 df و chi-square 0 است. من نمیدانم چگونه این امکان وجود دارد: آیا مدل من بیش از حد مناسب است؟ | بیش از حد در GLMM |
13089 | اخیراً در مورد تجزیه و تحلیل متوالی به ویژه آزمون های نسبت احتمال متوالی (بعد از اینکه با تجمع خطاهای آلفا دست و پنجه نرم کردم) یاد گرفتم. این سوال را نیز ببینید: آزمون فرضیه های متوالی در علوم پایه. سوال من این است: اشتقاق یا توضیح آستانه های قاعده توقف چیست (دوباره نگاه کنید به آزمون های نسبت احتمال متوالی - نظریه)؟ چگونه این آستانه ها از تجمع خطاها جلوگیری می کنند؟ من در مورد این طرح صحبت می کنم: $a < S_i < b$ که $S_i$ نسبت احتمال است و $a:=\frac{\beta}{1-\alpha}$ و $b:=\frac{1 -\beta}{\alpha}$. چرا a و b به این صورت تنظیم می شوند؟ من یک توضیح شهودی را ترجیح میدهم، اما یک توضیح ریاضی با استفاده از مفاهیم نادر بسیار نادر نیز خوب است. | توضیح آستانه ها در آزمون نسبت احتمال متوالی |
14856 | من به دنبال انجام طبقه بندی بر روی داده های متنی هستم. من «300 کلاس»، 200 مدرک آموزشی در هر کلاس دارم (بنابراین «در مجموع 60000 مدرک») و این احتمالاً منجر به **دادههای ابعادی بسیار بالا میشود (ممکن است بیش از **1 میلیون ابعاد را جستجو کنیم** ). من میخواهم مراحل زیر را در خط لوله انجام دهم (فقط برای اینکه بفهمید نیازهای من چیست): 1. تبدیل هر سند به بردار ویژگی («tf-idf» یا «مدل فضای برداری») 2. «ویژگی» انتخاب (ترجیحاً مبتنی بر «اطلاعات متقابل» یا هر نوع استاندارد دیگری) 3. آموزش طبقه بندی کننده («SVM»، «Naive Bayes»، «رگرسیون لجستیک» یا جنگل تصادفی) 4. پیش بینی داده های دیده نشده بر اساس مدل طبقه بندی آموزش دیده. بنابراین سوال این است که از چه ابزار/چارچوبی برای مدیریت چنین داده های با ابعاد بالا استفاده کنم؟ من از مظنونین معمولی (R، WEKA...) آگاه هستم، اما تا جایی که می دانم (ممکن است اشتباه کنم) احتمالاً هیچ یک از آنها نمی توانند داده های به این بزرگی را مدیریت کنند. آیا ابزار دیگری وجود دارد که بتوانم به آن نگاه کنم؟ اگر بخواهم آن را موازی کنم، آیا باید به آپاچی ماهوت نگاه کنم؟ به نظر می رسد ممکن است هنوز کاملاً عملکرد مورد نیاز من را ارائه ندهد. پیشاپیش از همه ممنونم * * * به روز رسانی: من به اطراف این وب سایت، لیست پستی R و به طور کلی اینترنت نگاه کردم. به نظر من مشکلات زیر ممکن است در موقعیت من ظاهر شود: (1) پیش پردازش داده های من با استفاده از R (به ویژه بسته tm) می تواند غیرعملی باشد، زیرا tm به شدت کند خواهد بود. (2) از آنجایی که من نیاز به استفاده از مجموعه ای از بسته های R (پیش پردازش، ماتریس های پراکنده، طبقه بندی کننده ها و غیره) دارم، قابلیت همکاری بین بسته ها ممکن است مشکل ساز شود و ممکن است در تبدیل داده ها از یک فرمت به فرمت دیگر هزینه های اضافی را متحمل شوم. . به عنوان مثال، اگر من پیش پردازش خود را با استفاده از «tm» (یا ابزار خارجی مانند WEKA) انجام دهم، باید راهی برای تبدیل این داده ها به فرمی پیدا کنم که کتابخانه های HPC در R بتوانند بخوانند. و باز هم برای من روشن نیست که آیا بسته های طبقه بندی کننده مستقیماً داده هایی را که توسط کتابخانه های HPC ارائه شده است دریافت می کنند. آیا من در مسیر درست هستم؟ و مهمتر از آن، آیا من منطقی هستم :-)؟ * * * | طبقه بندی متن در مقیاس بزرگ |
13085 | من میخواهم مقدار عدم قطعیت را در یک پیام معین اندازهگیری کنم، اما سیگنالی که با آن کار میکنم غیر ثابت و غیر خطی است. آیا امکان اعمال آنتروپی شانون برای چنین سیگنالی وجود دارد؟ | آنتروپی شانون برای سیگنال غیر ثابت و غیر خطی |
11821 | فرض کنید که یک رگرسیون با مجموعه کاملی از متغیرها دارید و می دانید که باقیمانده ها توزیع نرمال نیستند. بنابراین شما فقط یک رگرسیون را با استفاده از OLS برای یافتن بهترین تناسب خطی تخمین می زنید. برای این منظور شما از فرض شرایط خطای توزیع شده عادی خودداری می کنید. پس از تخمین شما 2 ضریب معنادار دارید. اما چگونه کسی می تواند این ضرایب را تفسیر کند؟ بنابراین هیچ راهی برای گفتن این ضرایب وجود ندارد، اگرچه فرضیه $\beta=0$ را می توان با یک آماره t بالا (به دلیل رد فرض خطای عادی) رد کرد. اما در این صورت چه باید کرد؟ چگونه می خواهید بحث کنید؟ | زمانی که توزیع نرمال عبارت خطا را فرض نمی کنیم، مقادیر t را تفسیر کنید |
14850 | آیا کسی می داند چگونه یک اعتبارسنجی متقاطع ترتیب دهد تا بتوانم دو مدل (دوجمله ای منفی با شبه پواسون) را با هم مقایسه کنم؟ من برخی از نظریهها را فراتر از اعتبارسنجی متقاطع میدانم، اما نمیدانم چه نوع اعتبارسنجی متقاطع منطقی است (یکی را کنار بگذارید، اعتبارسنجی متقاطع ساده، k-fold) هنگام مقایسه دو glms با حدود 1000 مشاهده. و چگونه با استفاده از R این کار را انجام دهیم؟ با تشکر از کمک شما! | مقایسه دو GLM با استفاده از اعتبارسنجی متقابل |
94578 | داده های من (n> 4000) حاوی نتایج دو آزمون جداگانه (ابزار) است. من یک پروفیل از ترازو لیکرت برای یکی از سازها (S1, S2, ... S20) دارم. من می خواهم مشخصات مربوط به ساز دوم را پیدا کنم که کاملاً (یا تقریباً کاملاً) با ساز اول مرتبط باشد. به نظر می رسد باید جایگشتی وجود داشته باشد که این نمایه ناشناخته را پیدا کند. | همبستگی نیمرخ نظری |
112927 | فرض کنید من دو مدل ARIMA زیر را دارم: 1. ARIMA(7,1,1) (بدون فصلی) 2. ARIMA(6,1,1)(1,0,0)7 (فصلی بودن دوره 7). آیا آنها از نظر مفهومی یکسان هستند؟ اگر چنین است، چرا وقتی آنها را با استفاده از R مدل میکنم، مدلهای مختلف و تناسبهای متفاوتی دریافت میکنم؟ | ضرایب فصلی در مقابل غیر فصلی در R ARIMA |
48681 | من سعی می کنم یک HMM را به مجموعه داده ای شبیه به: id0: A، A، A، C، B، A، C، B id1: C، B، A، A، C، C id2: B، A، A، تنظیم کنم. C، B، B، A در مجموع سه کاراکتر (A، B، C) و حدود 40k از این ردیف وجود دارد. من از «HMMFit» R از بسته «RHmm» استفاده می کنم. بهعنوان ورودی «HMMFit» باید تعداد حالتهای پنهان مورد نظر را انتخاب کرد، بنابراین من میتوانم مدلهای مختلفی را برای تعداد مختلف حالتهای پنهان تولید کنم. علاوه بر مدل، «HMMFit» احتمال ورود، معیار BIC و معیار AIC را گزارش میکند. چگونه می توان کفایت چنین مدلی را ارزیابی کرد؟ آیا باید مدل را از داده های آموزشی به جای کل مجموعه داده استنباط کرد که من اکنون انجام می دهم؟ اگر بله، چگونه می توان بررسی کرد که آیا مدل آموزش دیده داده های آزمون را توصیف می کند؟ با توجه به مدلهای مختلف بالقوه کافی که برای تعداد متفاوتی از حالتهای پنهان تولید شدهاند، کدام یک را باید ترجیح دهم؟ | ارزیابی کفایت مدل های مارکوف پنهان |
62300 | بگویید من یک دسته سکه وزنی دارم که 90 درصد مواقع باید سرها را نشان دهند. من یک دسته از آنها را می گیرم، آنها را در جعبه می اندازم و درصد سکه هایی را که روی سرها فرود آمده است محاسبه می کنم. من این کار را چندین بار انجام می دهم و انحراف معیار 5% و میانگین 90% را محاسبه می کنم. با فرض توزیع نرمال، سپس (به طور ناآگاهانه) تصمیم میگیرم در اجراهای بعدی برنامهریزی کنم: * 34.1٪ (1 STD DEV) از 90٪ تا 95٪ هدها * 13.6٪ (2 STD DEV) از زمانها من 95% تا 100% هدها را می بینم * **2.1% (3 STD DEV) از زمان ها 100% را می بینم تا 105% سر ** این آخرین ورود، البته، غیرممکن است. من فرض می کنم که کل تحلیل اساساً اشتباه است. راه صحیح برای تفسیر انحراف معیار هنگام برخورد با موقعیت هایی مانند موارد فوق چیست؟ (بالاخره، من یک نوبت آماری هستم، بنابراین اگر در میدان سمت چپ قرار گرفتم، با خیال راحت من را صاف کنید!) | انحراف معیار درصدها |
10773 | اگرچه با خواندن تعداد زیادی کتاب، هنوز مطمئن نیستم که از کدام روش و نحوه اجرای آن استفاده کنم، بنابراین از هر کمکی قدردانی می کنم! من 4 گروه مختلف (درمان) با 50 شرکت کننده دارم. عمل هر شرکت کننده 5 بار در شرایط یکسان مشاهده می شود. 5 مقدار مختلف در یک دور جمع آوری می شوند، جایی که هر شرکت کننده باید 5 مورد را در یک زمان دلخواه انتخاب کند. بنابراین می دانم که ارزش های مختلف برای هر شرکت کننده مستقل از یکدیگر نیستند. با این حال، اثرات زمانی برای من جالب نیست و تصور نمیکنم اثرات یادگیری آشکار باشد. من فقط 5 مقدار برای هر شرکت کننده جمع آوری می کنم تا داده های بیشتری به دست بیاورم. سپس تمام دادههای درون یک گروه (برای همه کاربران و انتخابهای آنها) با هم جمعآوری میشود و یک معیار جمعآوری پیچیده (عددی) برای همه گروهها محاسبه میشود. حال سوال این است که آیا تفاوت معناداری برای این معیار بین گروه ها وجود دارد؟ از آنجایی که برآوردگر بی طرفی برای اندازه گیری وجود ندارد و از آنجایی که داده های من عادی نیستند، می دانم که به نوعی از نمونه گیری نیاز دارم. بنابراین، برای مثال، تستهای ولش یا لوین در اینجا کار نمیکنند. من فقط مطمئن نیستم که آیا تست های bootstrapping یا permutation مناسب تر به نظر می رسند. دوم، آیا میتوانم اقدامات مکرر را نادیده بگیرم و همه مقادیر را بدون توجه به شرکتکنندگانی که آن را ارائه کردهاند، با هم جابجا کنم؟ اگر نه، آیا قرار است بردارهایی را برای هر شرکت کننده ایجاد کنم و آنها را جایگزین کنم؟ اگر طراحی نامتعادل داشته باشم (در صورت عدم وجود برخی مشاهدات) چه اتفاقی می افتد؟ آیا نرم افزاری می شناسید که چنین روشی قبلاً در آن پیاده سازی شده باشد؟ | تست های جایگشت با اندازه گیری های مکرر |
10778 | من درک کلی از تفاوت بین یک جامعه (مجموعه ای از نهادهای مورد مطالعه) و یک نمونه (یک زیربخش انتخاب شده از جامعه) دارم. با این حال، اخیراً در PPC (پرداخت به ازای کلیک) و AdWords کار کردهام و به نظر نمیرسد که تفاوت جمعیت/نمونه در این زمینه را درک کنم. به عنوان مثال، فرض کنید دو تبلیغ گوگل ادوردز وجود دارد. کاربران روی تبلیغ کلیک می کنند و آنها را به فرمی می برد که در صورت تمایل می توانند آن را پر کنند. بنابراین، من اطلاعاتی در مورد تعداد کلیک ها و تعداد فرم های پر شده دارم. سوالی که میخواهم به آن پاسخ دهم این است که کدام تبلیغ در دریافت کلیکها و پر کردن فرمهای بیشتر مؤثرتر بوده است. فرمهای کلیک Ad1 - 300 105 Ad2 - 320 100 در ابتدا، فکر میکردم که نمونه من دو تبلیغ (Ad1 و Ad2) است، اما این درست نیست زیرا من واقعاً تعداد کلیکها و فرمهای پر شده را بررسی میکنم. بنابراین به نظر می رسد جمعیتی که من بررسی می کنم، کلیک ها و فرم های مرتبط با دو آگهی (Ad1 و Ad2) است و نمونه من تعداد کلیک ها و تعداد فرم های پر شده خواهد بود. آیا این درست/اشتباه است؟ بنابراین، آیا کلیکها و فرمها دو نمونه جدا از یک جامعه در نظر گرفته میشوند؟ یا جمعیت من با نمونه من در این مورد یکی است؟ | تفاوت بین جامعه و نمونه |
13084 | من دو لیست قیمت تاریخی با ستون های زیر دارم > **داده - قیمت** حالا باید نسبت بین قیمت های این لیست ها را ایجاد کنم: > **لیست A:** 01/01/2011 10.50 > > ** لیست B:** 01/01/2011 23.89 من تاریخ لیست ها را مقایسه می کنم، اگر روز یکسان باشد نسبت را پیدا می کنم، انجام می دهم: > **نسبت** = 10.50 / 23.89 خوب... من این تقسیم را برای هر قیمت لیست انجام می دهم. نتیجه باید این باشد: 0.4395 0.4400 0.4289 0.4361 حال سوال این است: **چگونه می توانم بررسی کنم که آیا این سری (نسبت ها) به معنای برگرداندن است؟** | چگونه بفهمیم که لیست قیمت ها معکوس کننده هستند؟ |
94421 | به دنبال مقاله هوفرت و همکاران استنتاج احتمال برای جفت های ارشمیدسی در ابعاد بالا تحت حاشیه های شناخته شده (http://dl.acm.org/citation.cfm?id=2263953) من یک فیلمنامه در Matlab نوشتم تا تخمین بزنم. کوپولهای ارشمیدسی در ابعاد بالا. روش موجود در مقاله آنها امکان محاسبه مشتقات توابع مولد را بدون توسل به روشهای تکراری فراهم می کند. فقط فرم های بسته بنابراین فکر کردم که استفاده از آن بهعنوان جایگزینی برای استفاده از کوپولهای بیضوی برای برخی مدلسازیهای چند متغیره ایده خوبی است. من از آن برای نمایش داده هایی با وابستگی شدید با استفاده از کوپول های Gumbel استفاده کردم. با این حال، زمانی که من از آن برای نشان دادن بیش از چهار متغیر استفاده کردم، برآوردها به خوبی کوپول های بیضوی نبودند! در مقالهای که متعاقباً نوشتم، یک بازبین متوجه شد که دلیل آن این است که _Gumbel copula تنها یک پارامتر دارد، که نشان میدهد برای نمایش دادههای با ابعاد بالا بیفایده است. من باید استفاده کنم، او در آن موارد (با پیچیدگی بیشتر) یک کوپال انگور گفت. یک کوپول یکپارمتری نیست. پس از آن سوال من این است که آیا کوپول های Archimidean واقعا برای نمایش داده های با ابعاد بالا مفید هستند؟ آیا آنها به جز ساختارهای وابستگی شاید همگن، که در آن وابستگی ممکن است بین جفت متغیرها برابر باشد، بی فایده هستند؟ آیا نمونه ای از نمایش _good_ داده های چند متغیره وجود دارد؟ | آیا کوپول های ارشمیدسی برای نمایش داده های چند متغیره بی فایده هستند؟ |
10191 | گفته میشود که اگر طرحهای پاسخهای فرضی موازی نباشند، بلکه متقاطع باشند، تعامل وجود دارد. فرض کنید دو عامل داریم. آیا ممکن است که طرح ها به هم برسند اما تعامل نداشته باشیم؟ این زمانی معقول تر است که طرح ها به هم نزدیک باشند. متوجه شدم که برعکسش درسته حتی اگر منحنی های عامل A روی عامل B و فاکتور B روی عامل A با هم تلاقی نداشته باشند، ممکن است تعامل داشته باشیم. در کتابی که خواندهام، این زمانی اتفاق میافتد که تعامل قابل حذف باشد، به این معنی که متغیر مستقل همزاد دیگری وجود دارد. | مثال متقابل برای برهم کنش و منحنی های موازی؟ |
29759 | من اخیراً در مورد بیز تجربی (مقدمه ای توسط Cassella؟) مطالعه کردم و بسیار شبیه به مدل جلوه های تصادفی بود. از این نظر که هر دو تخمینها به میانگین جهانی کاهش یافتهاند... اما من آن را کامل نخواندهام... آیا کسی درباره شباهتها و تفاوتهای بین آنها بینشی دارد؟ | بیز تجربی و اثرات تصادفی؟ |
59798 | چه زمانی باید از کاپا وزنی درجه دوم یا کاپا وزنی خطی استفاده کنم؟ من دو ناظر دارم که کلاس های تعدادی از اشیاء را ارزیابی می کنند. کلاس ها شکست خورده، pass1، pass2 و عالی (مقیاس ترتیبی) هستند. خطاهای طبقهبندی بین «شکست» یا «عالی» و درجات مختلف «گذر» شدیدتر از خطاهای بین کلاسهای پاس (پاس ۱ و ۲) است. آیا می توانم مقادیر کلاس ها را به صورت fail = 1، pass1=20، pass2=25، excellent=40 تعریف کنم و از کاپا وزنی خطی استفاده کنم (مجازات بالاتر در افراط به روشی شهودی / ذهنی) ? یا باید از کاپا وزنی درجه دوم استفاده کنم؟ چرا باید یک نوع را بر دیگری ترجیح دهم؟ | کاپا وزنی درجه دوم در مقابل کاپا وزنی خطی |
29756 | من سعی می کنم یک نقطه شکست را روی $x$ از چندین هزار $(x,y)$ محاسبه کنم. با توجه به توزیع چگالی مطابق هیستوگرام دو بعدی زیر، روش حداقل مربعات نامناسب است. رگرسیون متعامد برای محور پایینتر $x$ مناسبتر است، اما آیا میتوان یک رگرسیون متعامد تکهای انجام داد؟ چگونه می توانم این کار را انجام دهم، ترجیحاً در R؟  | رگرسیون متعامد تکه ای |
1525 | بگو من سال هاست که هر سه شنبه همبرگر می خوردم. می توان گفت که من 14 درصد مواقع همبرگر می خورم، یا اینکه احتمال اینکه در یک هفته یک همبرگر بخورم 14 درصد است. تفاوت های اصلی بین احتمالات و نسبت ها چیست؟ آیا یک احتمال نسبت مورد انتظار است؟ آیا احتمالات نامشخص هستند و نسبت ها تضمین شده است؟ | تفاوت بین احتمال و نسبت چیست؟ |
94572 | عکس اول سوال و کلید پاسخ آن است:  عکس دوم راه حل من است:  من می دانم که $S^2=\frac{\sum(x_i-\bar x)^2}{n-1}$ اما در کلید پاسخ، $s^2$ را نمی توان به این شکل پیدا کرد. من حدس می زنم، اینجا یک اشتباه وجود دارد. یا آیا قانونی وجود دارد که من نمی دانم؟ لطفا در این مورد شفاف سازی کنید. متشکرم. | محاسبه واریانس استاندارد $s^2$ |
86154 | **سوال** من یک مجموعه داده دارم که فکر می کنم به یک تحلیل چند سطحی چند متغیره نیاز دارد. من هم در مورد مدل مناسب و هم اینکه چگونه آن را با «R» تطبیق دهم مطمئن نیستم. من به یک مدل آزمایشی رسیدهام، اما درک من از ریاضیات آنقدر سطحی است که نمیتوانم بگویم تحلیل من «درست» است یا شامل خطاهای آشکار است. من از هرگونه بینشی در مورد طراحی مدل یا مشخصات مدل در `R` سپاسگزارم. **طراحی مطالعه** سوال این است که آیا طراحی معماری یک کلینیک بر نتیجه آسیب شناسی برای ساکنین دائمی این کلینیک تاثیر خواهد داشت؟ ما اطلاعات 13 علامت را برای 8 بیمار در هر کلینیک در 21 کلینیک جمع آوری کرده ایم. یک «دارو» در سطح بیمار و یک «معماری» IV در سطح کلینیک وجود دارد. همه متغیرها پیوسته هستند. 13 علامت به طور متوسط +.20 همبستگی دارند، که فکر می کنم نشان دهنده مناسب بودن تحلیل چند متغیره چند متغیره است. **داده** برای اجرای تجزیه و تحلیل چند متغیره با nlme من DV های خود را استاندارد کرده ام، این 13 DV را در یک ستون منفرد انباشته کرده ام و یک متغیر ساختگی طبقه بندی را اضافه کرده ام تا علامت گذاری کنم که کدام ردیف با کدام علامت مطابقت دارد. به نظر می رسد: امتیاز علائم بیمار کلینیک معماری دارو 1 1 EP1 0.12 1 3.2 1 1 EP2 0.11 1 3.2 1 1 EP3 0.13 1 3.2 1 2 EP1 0.56 4 3.224 3.221. EP3 0.23 4 3.2 2 3 EP1 0.22 3 5.1 2 3 EP2 0.25 3 5.1 2 3 EP3 0.14 3 5.1 2 4 EP1 0.78 6 5.1 2 4 EP2 6 5.1 2 4 EP2 0.25 0.25 5.1 **طراحی مدل** * برای اجرای تجزیه و تحلیل به صورت چند متغیره، من از هر دو «علامت» و «نشانه:معماری» به عنوان IV استفاده میکنم و وقفه را در هر دو بخش ثابت و تصادفی مدل حذف میکنم. من جلوه اصلی «معماری» را به عنوان IV درج نمی کنم. * اثر دارو باید در همه کلینیک ها یکسان باشد، بنابراین هیچ اثر تصادفی برای این متغیر وجود ندارد. * من نمیخواهم برابری را بین تأثیر «معماری» بر «نشانههای» مختلف محدود کنم. * با توجه به ماهیت چند متغیره تجزیه و تحلیل، من انتظار دارم که باقیمانده ها با همبستگی های مختلف بین 13 علامت مختلف مرتبط باشند. بنابراین، ساختار کوواریانس باقیماندهها را بهعنوان «corSymm» مشخص میکنم (غیرصفر اما بدون ساختار، اگر این را درست دریافت کنم). * من همچنین انتظار دارم که بین علائم مختلف ناهمگونی وجود داشته باشد (باید واریانس بیشتری در علائم خاص وجود داشته باشد)، بنابراین گزینه وزن را به عنوان (~ 1|علائم) اضافه می کنم. **نتیجه نهایی** این مدلی است که من به آن می پردازم: model1 = lme(ثابت = امتیاز ~ علامت + دارو: علامت + معماری: علامت + دارو: معماری: علامت - 1، + تصادفی = ~ علامت - 1 | بیمار/کلینیک، + همبستگی = corSymm، + وزن=varIdent(شکل= ~ 1|علائم) + روش = ML) برای آزمایش تأثیر متغیرهای معماری، سپس این مدل را با مدل محدود زیر مقایسه میکنم و تمام اصطلاحات مربوط به معماری را حذف میکنم: model2 = lme(ثابت = امتیاز ~ علامت + دارو: علامت - 1 ، + تصادفی = ~ علامت - 1 | بیمار/کلینیک، + همبستگی = corSymm، + وزن = varIdent 1|علائم) + روش = ML) سپس این مقایسه را با دستور 'anova(model1, model2)' اجرا می کنم و احتمال ورود به سیستم را در دو مدل مقایسه می کنم. به طور کلی، آیا این طراحی مدل و مشخصات r به نظر شما درست است؟ از کمک شما بسیار سپاسگزارم | تجزیه و تحلیل چند سطحی چند متغیره در nlme |
20281 | من می خواهم داده های عملکردی MRI (fMRI) را به شرح زیر تجزیه و تحلیل کنم: 1. من شبکه های مغزی دو گروه از افراد (بیماران و همسان) را با هم مقایسه می کنم. 2. برای هر موضوع من یک ماتریس همبستگی (پیرسون) با همبستگی بین چندین ناحیه مغز (بالاتر از 50000 همبستگی) دارم. 3. من می خواهم یک معیار واحد برای نشان دادن هر موضوع (شاید میانگین همبستگی های هر شبکه موضوعی) بدست بیاورم. **مناسب ترین معیار چیست؟** آیا باید از تبدیل فیشر برای میانگین ماتریس همبستگی استفاده کنم؟ 4. من فرض می کنم که واریانس دو گروه متفاوت است و واریانس در هر گروه مشابه است: ** چگونه می توان بدون انجام چندین مقایسه آن را بررسی کرد؟** | بهترین معیار شبکه های مغز بر اساس داده های عملکردی MRI چیست؟ |
13086 | میخواهم بدانم که آیا یک نوع باکس پلات سازگار با دادههای توزیعشده پواسون (یا احتمالاً سایر توزیعها) وجود دارد؟ با توزیع گاوسی، سبیل هایی که در L = Q1 - 1.5 IQR و U = Q3 + 1.5 IQR قرار می گیرند، نمودار جعبه این ویژگی را دارد که تقریباً به همان تعداد نقاط پرت پایین (نقاط زیر L) به اندازه پرت بالا (نقاط بالای U) وجود خواهد داشت. ). با این حال، اگر دادهها پواسون توزیع شده باشند، به دلیل چولگی مثبت، دیگر پابرجا نمیماند. آیا روش جایگزینی برای قرار دادن سبیل ها به گونه ای وجود دارد که با توزیع پواسون «مناسب» شود؟ با تشکر از کمک شما! | آیا یک نوع باکس پلات برای داده های توزیع شده پواسون وجود دارد؟ |
94570 | من مدلی از شهرهای آمریکا با متغیر Y دوگانه با استفاده از رگرسیون لجستیک ایجاد کرده ام. من دلایل نظری دارم که معتقدم این مدل بین شهرهای بزرگتر و کوچکتر تفاوت قابل توجهی خواهد داشت. من این را با استفاده از نقاط شکست دلخواه نشان دادم، اما میخواستم بدانم که آیا یک استراتژی رگرسیون بخشبندی شده (تکهای) میتواند نقطه شکست را برای من در مدلی با متغیر وابسته باینری شناسایی کند. (من از دستور nl با موفقیت در Stata برای پروژه دیگری در زمانی که Y پیوسته بود استفاده کردم.) آیا می توانم از این استراتژی برای شناسایی آماری نقطه شکست استفاده کنم؟ یا باید برای عددی که در غیر این صورت انتخاب می کنم کیس بسازم؟ با تشکر فراوان. | آیا رگرسیون قطعه بندی شده (تکه ای) با یک متغیر وابسته دوگانه امکان پذیر است؟ |
97909 | من پیشینه ریاضی قوی ندارم، بنابراین در تلاش برای درک نحوه عملکرد RBM هستم. در صفحه ویکیپدیا در مورد RBM، من میتوانم فرمولها را به صورت مجزا درک کنم، با این حال، مطمئن نیستم که چگونه این فرمولها به یکدیگر متصل هستند. به طور خاص، آیا وابستگی چرخهای بین تابع انرژی، توابع احتمال و فرآیند نمونهبرداری وجود ندارد؟ در الگوریتم آموزشی، بیان میکند که از نمونهگیری گیبس همراه با چیزهای دیگر برای ساخت/آموزش W استفاده شود. با این حال، نمونهبرداری به P بستگی دارد، و P طبق تعریف به E، و E به W بستگی دارد، بنابراین در چشم نوب من پس این وابستگی چرخه ای است. لطفاً کسی می تواند با یک مثال کوتاه توضیح دهد که چگونه می توانم این حلقه را بشکنم؟ با تشکر http://en.wikipedia.org/wiki/Restricted_Boltzmann_machine | ماشین های محدود بولتزمن چگونه کار می کنند؟ |
97901 | من یک سوال در مورد استفاده از R برای متناسب کردن یک مدل AR دارم. اگر بخواهیم مدل AR(p) را متناسب کنیم، معادله $Y_t = φ_1Y_{t-1} + φ_2Y_{t-2} + ... + φ_pY_{t-p} + Z_t$ خواهد بود. در مورد من فقط می خواهم مدلی مانند $Y_t = φ_1Y_{t-1} + φ_{11}Y_{t-11} + Z_t$ را متناسب کنم؟ ($Z_t$ نویز سفید است). کسی میدونه چطوری میشه این مدل رو در R قرار داد؟ | R برازش مدل AR (p) محدود شده |
23171 | من درک می کنم که چگونه EM به معنای تخمین مدل گاوسی که زیربنای مجموعه ای از داده ها است استفاده می شود، اما مشخص نیست که چگونه این مورد قابل اجرا است. من سعی می کنم بفهمم که چگونه EM ممکن است برای انجام داده کاوی در هر نوع کار پردازش بینایی / تصویر رایانه ای استفاده شود. این دامنه ای است که من بیشتر با آن آشنا هستم، بنابراین هنگام یادگیری الگوریتم های جدید، چارچوب بندی آنها در یک چارچوب آشنا مفید است. بنابراین بار دیگر، چگونه و کجا از حداکثر سازی انتظارات در تصاویر داده کاوی استفاده می شود؟ متشکرم | چگونه از EM به معنای داده کاوی روی تصاویر استفاده می شود؟ |
97908 | آیا منطقی است که از **نمونه برداری پیشرو** برای محاسبه احتمال P(X_1=x_1, ..., X_N=x_n) در HMM استفاده کنیم که در آن متغیر مشاهده است؟ آیا الگوریتم نمونه برداری به جلو با الگوریتم فوروارد برای HMM مرتبط است؟ | نمونه برداری به جلو برای HMM |
94573 | من برای خواندن این جدول ساده گیج شده ام و در تقلا هستم.  من سعی می کنم نمایه ای از دانلودکنندگان ایجاد کنم. یکی از مشخصات جمعیتی که من به آن نگاه می کنم سن است. آیا باید درصد درون سن را ببینم یا درصد درون نوع دانلودر؟ به عنوان مثال، دانلود کننده های ترکیبی به احتمال زیاد 18-21 (50٪) هستند؟ یا باید به احتمال زیاد 18-21 (68.4٪) باشند؟ کسی میتونه راهنمایی کنه لطفا ممنون | خواندن یک جدول متقاطع |
29758 | سوال اصلی من این بود: چگونه نسبت گونه ها را در یک جمعیت از روی داده های شمارش اعضای بدن آنها تخمین می زنید، مشروط بر اینکه بتوانید هر قسمت را به عنوان متعلق به یک گونه خاص تشخیص دهید. **آیا فقط در نظر گرفتن میانگین تعداد اعضای بدن یافت شده در هر گونه کافی است؟** (در نظر داشته باشید که برخی از گونه ها ممکن است فرکانس بیشتری در قسمت خاصی از بدن نسبت به سایرین داشته باشند). این مربوط به موارد زیر است: برآورد تنوع انواع اپرون با استفاده از HMM ها در متاژنوم ها: Mann-Whitney؟ کروسکال-والیس؟ یا دیگر؟ ویرایش: توضیح بیشتر **مثال 1** - از حیواناتی که تکه تکه بیرون می آیند نمونه برداری می کنید. یک حیوان معمولی به نام گونه 1 دارای 1 پا، 1 بینی و 1 چشم است که هر یک از این صفات را می توانید ببینید و بشمارید. گونه 2 دارای 2 ویژگی است که می توانید آنها را شناسایی کنید: گوش ها (که فقط 1 مورد را دارد) و بال ها (همچنین فقط 1). (فرض کنید این برای K گونه، با صفات K_y صادق است) هر بار که صفات را می شمارید، 1 نمونه از x مکان ها می گیرید. نمونه زیر از 1 مکان است: 1 پا، 5 بینی، 12 چشم، 6 گوش و 8 بال... که به این معنی است که تعداد گونه های 1 ممکن زیر است: حداقل 12 فرد. حداکثر 18 نفر (1+5+12): تعداد گونه های 2 ممکن است: حداقل 8 نفر. حداکثر 14 نفر (8+6). بنابراین در یک کیسه با 1 چشم و 1 گوش می دانم که از هر گونه 1 فرد دارم (بدون تغییر)، در کیسه ای با 1 گوش 1 چشم 2 بال و 5 پا می دانم که حداکثر 6 فرد (5+1) دارم. گونه 1 و یک دقیقه از 5. گونه 2، حداکثر 4 دقیقه از 3. بنابراین در اینجا ما محدودیت های ممکن برای گونه 1 و گونه 2 در محل نمونه داریم. x1. روش صحیح تخمین و مقایسه نسبت هر حیوان چیست؟ ما هر قسمت را به عنوان متعلق به یک گونه خاص شناسایی می کنیم. چشمها، بینیها و پاها (هر بینی چشمی یا پاهای یافت شده) متعلق به گونه 1 هستند، بالاترین تعداد صفات فردی به این معنی است که تعداد احتمالی بیشتری از افراد متعلق به گونه 1 را دارم، هر چه صفات بیشتر به این معنی است که محدوده وسیعتری برای پیشبینی دارم. تعداد افراد **مثال 2** همچنین می توانید آنها را به عنوان حیوانات واقعی تصور کنید، مثلاً جوجه، بره، خوکچه با قطعاتی در یک کیسه. شما به راحتی می توانید تفاوت بین سه اندام حیوان را تشخیص دهید، می دانید که اگر 18 بال مرغ و فقط 3 چوب طبل بگیرید، حداکثر تعداد مرغ ذبح شده (با فرض اینکه چوب طبل و بال ها همه از حیوانات مختلف باشد) 18+3 است. . در جایی که حداقل تعداد ممکن مرغ ذبح شده جایی است که بال ها 18/2 (9 نفر) جفت می شوند و چوب های طبل 3/2 (بنابراین فقط 2 عدد کامل) در هر مرغ جفت می شوند، **و** بالها و چوبهای طبل از همان جوجهها میآیند (و برخی از اندامها بدیهی است که گم شدهاند). بنابراین، حداقل تعداد افراد، حداقل تعداد جفت [۹ مرغ کامل] است، و محتملتر #افراد ممکن، مجموع همه جفتها [۹+۲ جوجه] است، (اما نه لزوماً؟؟؟) بنابراین تا میتوانید محدودیتهای احتمالی جوجهها را که با محاسبه تک تک آنها یافت میشوند، ببینید: حداقل 9 جوجه و حداکثر 21 جوجه…… تعداد واقعی احتمالاً جایی در وسط است (این چیزی است که من میخواهم با درجه بالایی از اطمینان محاسبه کنید، می تواند 11 باشد، اما من از این مطمئن نیستم. حالا بیایید تعداد گوشت خوک و سر خوک را بشماریم…. و غیره به جز در مثال اول سوال ساده تر است، **زیرا هر صفت منحصر به فرد است و فقط یک بار برای گونه ها رخ می دهد. گونه های مختلف نیز ویژگی های متفاوتی خواهند داشت** (شما نمی توانید گوشت خوک و بره را بشمارید و آنها را از یک گونه در نظر بگیرید.) آیا باید: -- یک نقطه میانی/میانگین را به صورت (( حداکثر - حداقل )/(تعداد صفات) محاسبه کنم. )) + حداقل برای هر گونه. انحراف استاندارد (برای هر کدام) را محاسبه کنید و ضریب واریانس در هر نمونه را مقایسه کنید؟ - نقطه میانی/میانگین محاسبهشده در بالا را بگیرید، آنها را رتبهبندی کنید و مقایسههای زوجی غیر پارامتری xهای من را انجام دهید - حداکثر یکبار و حداقل یکبار را بگیرید، هر مرحله را یک بار غیر پارامتریک برای حد بالا یک بار برای حد پایین رتبهبندی کنید. --- احتمالاً راهی برای یافتن دقیق تر عدد واقعی (یا چیزی نزدیک به آن) افراد در هر گونه وجود دارد... اگر نظری دارید، لطفاً به من اطلاع دهید. (من متوجه شدم که 1 نمونه تقریبا کافی نیست، اگر اطلاعات بیشتری می خواهید به لینک مراجعه کنید، من فقط می توانم 1 نمونه در هر مکان دریافت کنم، من می خواهم هر صفت را به عنوان یک واحد نمونه برداری جداگانه در نظر بگیرم، این ویژگی ها واقعاً از حیوانات و غیره..) | روش صحیح تخمین نسبت افراد در یک جمعیت از روی شماری از اجزای آنها چیست؟ |
62307 | من از رگرسیون لجستیک منظم در مجموعه داده خود استفاده کردم و چند بازدید قابل توجه دریافت کردم. با این حال، از آنجایی که دادهها 1:1 دادههای همسان مورد شاهدی هستند، تصمیم گرفتم از رگرسیون لجستیک شرطی («clogit()» در بسته «بقا» «R» استفاده کنم. با این حال، هیچ یک از نتایج دیگر قابل توجه نیست. آیا این طبیعی است؟ من امیدوار بودم که با روی آوردن به رگرسیون لجستیک مشروط، قدرت به دست بیاورم. m<-clogit(PHENO==2 ~ x + as.factor (COVAR[,1]) + لایه (COVAR[,2]) ) این یک GWAS (مطالعه ارتباط گسترده ژنوم) است. PHENO یا 1 (کنترل) یا 2 (مورد) است. «x» تعداد کپیهای آلل فرعی (0، 1 یا 2) در SNP مورد علاقه است، «COVAR[,1]» یک متغیر نژادی است و «COVAR[,2]» متغیر کمکی منطبق است. این آزمایش برای هر SNP (~300000) انجام می شود و مقادیر p حاصل برای FDR تنظیم می شود. شاید تطبیق موارد و کنترل ها خیلی خوب نبود؟ تطبیق: جفت مورد و شاهد: 1) همجنس بودند. 2) BMI > آستانه. 3) همان قومیت خود گزارش شده. 4) در 50 مایلی محل تدارکات زندگی می کرد. شاید باید از GLMM استفاده کنم؟ | یافته های کمتر معنی دار با استفاده از رگرسیون لجستیک شرطی |
97902 | ما در حال ساختن سیستمی هستیم که به دانشگاه و دانشجویان بالقوه آن کمک می کند تا رشته تحصیلی مناسب را انتخاب کنند. متقاضیان رشته های زیادی برای انتخاب دارند (نه تعداد رشته های یکسان برای هر دانش آموز). دسترسی به برخی از رشته ها بر اساس برخی شرایط است (که بسته به رشته و تحصیلات قبلی متقاضیان نیز متفاوت است). ما برای تعیین عادلانه ترین راه برای دادن رشته مناسب به هر دانش آموز به کمک نیاز داریم. یک راه حل آماری، راهنمایی، کلمات کلیدی برای جستجو... و غیره یک مثال می تواند مفید باشد: فرض کنید گزینه های field1، field2 و field3 را داریم. برای دسترسی به فیلد 1، متقاضی باید پیشین1، پیشین2، یا قبلی3 را مطالعه کرده باشد که بیشتر مشروط به داشتن نمره A است. field2 برای هر متقاضی در دسترس است. فیلد3 برای پیشین1 با درجه B یا بیشتر قابل دسترسی است. متقاضیان باید بسته به دستاوردهای تحصیلی قبلی و شرایط رشته های مورد مطالعه، انتخاب های خود را به ترتیب اولویت ارسال کنند. هر کمکی قابل تقدیر است. و ما آماده هرگونه توضیح بیشتر هستیم. | انتساب دانش آموزان به تخصص های مختلف |
11823 | من استحکام چارچوب رگرسیون را در برابر نویز آزمایش کردهام و در برخی موارد متوجه شدهام که افزودن نویز عملکرد پیشبینی را بهبود میبخشد و در موارد دیگر عملکرد را کاهش میدهد. دلایل این امر چه می تواند باشد؟ اگر دلایل متعددی وجود دارد، چگونه می توانم علت را تشخیص دهم؟ ویرایش: برخی جزئیات بیشتر در مورد کاری که انجام می دهم. چارچوب از رگرسیون خطی استفاده می کند. ورودی ها بردار ویژگی های تصویر استخراج شده هستند. خروجی ها بردار زوایای (در درجه، 180- تا 180) هستند. برای تست استحکام در برابر نویز، من 3 سطح نویز (نویز گاوسی افزودنی سفید) را به زوایا (هدف ها) متناسب با واریانس های زاویه فردی (2، 5، و 10 درصد از واریانس هر زاویه) اعمال می کنم. من متوجه شده ام که در برخی از مشاهدات، اضافه کردن مقدار کمی نویز (2-5٪) منجر به بهبود کمی در عملکرد می شود و در یک مورد، تمام سطوح نویز باعث بهبود می شود. در آزمایشهای من، عبارت منظمسازی در تمام سطوح نویز ثابت است و من هر آزمایش سطح نویز را چندین بار انجام دادهام تا نوسانات نویز تصادفی را در نظر بگیرم. همچنین، من دو مجموعه گسترده از داده های مشاهداتی دارم. مجموعه اول نسبتاً دقیق مشاهده شد، با این حال مجموعه دوم پیچیده تر بود (به طور قابل توجهی ناهمگن تر، که منجر به کاهش قابل توجه عملکرد نسبت به مجموعه اول شد) و به دلیل محدودتر بودن تکنیک مشاهده، تعدادی خطای جزئی از خود نشان داد. با ست اول استفاده شد در ست اول پدیده عملکرد بهتر از طریق افزودن نویز رخ نداد. با این حال، گاهی اوقات صدای بیشتر بهتر از نویز کمتر بود. اگر برای پاسخ بهتر به سوال به اطلاعات بیشتری نیاز است، خوشحال می شوم آن را ارائه دهم. | چرا داده های پر سر و صدا باعث عملکرد بهتر پیش بینی می شود؟ |
97906 | من یک مجموعه داده دو بعدی دارم که می خواهم آن را به عنوان حاصل ضرب بیرونی دو بردار (یا دو بردار واحد ضربدر یک ثابت) مدل کنم. من باید راهی پیدا کنم که الف) بفهمم این دو بردار چیست و ب) چقدر داده ها با مدل مطابقت دارند. اخطار این است که من باید این کار را در حضور مقادیر گمشده احتمالی انجام دهم. میدانم که میتوانم از PCA برای یافتن یک ماتریس رتبه یک که دادههای من را تقریب میکند و همچنین در صورت کامل بودن ماتریس، این تقریب خوب است استفاده کنم. من مطمئن نیستم که چگونه آن را با مقادیر از دست رفته انجام دهم. این به نظر من نوعی شکل انحطاطی از فیلتر کردن مشارکتی است، با تنها یک پارامتر در هر سطر/ستون. من فکر می کنم باید راه آسان تری برای حل آن وجود داشته باشد. | تقریب یک ماتریس به عنوان حاصلضرب بیرونی دو بردار |
59796 | من متغیرهای زیر را در مجموعه داده خود دارم: 1. ساعت کاری (عددی: ترتیبی) 2. اثربخشی (رده: ترتیبی؛ 4 مقدار-> (ضعیف، متوسط، خوب، بهترین)) 3. رضایت (رده: ترتیبی؛ 4 مقدار- > (ضعیف، متوسط، خوب، بهترین)) من میخواهم دادهها را بر اساس اینکه چقدر خوب هستند، خوشهبندی کنم. کارگر من انتظار دارم 4-5 خوشه موثر باشد. من fastclus را در sas بعد از نرمالسازی دادههایم اجرا کردم (mean=0 std=1) اما بعید میدانم میانگین k روی متغیرهای طبقهبندی کار کند. من وقتی 5 خوشه دارم، مقدار Rsqaure 62٪ را دریافت می کنم. هیچ کمکی در مورد چگونگی حل این مشکل دارید؟ | خوشه بندی متغیرهای مختلط در SAS |
96738 | آیا همیشه باید انتظار داشت که تمایل مرکزی (یعنی میانگین و/یا میانه) نمونه بوت استرپ مشابه مقدار مشاهده شده باشد؟ در این مورد خاص، من پاسخ هایی دارم که به صورت نمایی برای آزمودنی ها در دو شرایط توزیع می شوند (من آزمایش را اجرا نکردم، فقط داده ها را دارم). به من وظیفه داده شده است که اندازه اثر را تسمه دهم (از نظر d کوهن، فرمول یک نمونه، یعنی $\bar{M_D}\over{s_D}$ که در آن تخمین نمونه انحراف استاندارد جمعیت است. انجمن برای این در Rosenthal & Rosnow (2008) در صفحه 398، معادله 13.27 ارائه شده است مخرج چون از نظر تاریخی درست است، با این حال، رویه استاندارد d را بهعنوان استفاده از $s$ به اشتباه تعریف کرده است، و بنابراین من این خطا را در محاسبه بالا دنبال میکنم، هر دو را در شرکتکنندگان تصادفی کردهام (یعنی یک شرکتکننده RT ممکن است بیش از یک بار نمونهبرداری شود). و از بین آزمودنی ها (از شرکت کنندگان ممکن است بیش از یک بار نمونه برداری شود) به طوری که حتی اگر از شرکت کننده 1 دو بار نمونه برداری شود، میانگین RT آنها در هر دو نمونه بعید است دقیقاً باشد. برای هر مجموعه داده تصادفی شده مجدداً d را محاسبه می کنم. تا صدک 2.5 مقادیر مشاهده شده شبیه سازی شده. همچنین تمایل دارد به 0 نزدیکتر از میانه بوت استرپ (با 5% تا 10% چگالی توزیع شبیه سازی شده) باشد. چه چیزی می تواند دلیل این امر باشد (با در نظر گرفتن بزرگی اثری که مشاهده می کنم)؟ آیا بدست آوردن واریانسهای شدیدتر از آنهایی که نسبت به حد متوسط در نمونهگیری مجدد مشاهده میشوند، به دلیل «آسانتر» بودن آن هنگام نمونهگیری مجدد است؟ ممکن است این انعکاس دادههایی باشد که بیش از حد ماساژ داده شده یا به طور انتخابی کوتاه شده است؟ آیا این روش نمونه برداری مجدد مانند یک بوت استرپ است؟ اگر نه، چه کارهای دیگری باید انجام شود تا یک CI ارائه شود؟ | چه زمانی/چرا گرایش مرکزی یک شبیهسازی نمونهگیری مجدد به طور قابل توجهی با مقدار مشاهده شده متفاوت است؟ |
8511 | نوشته کریستوفر منینگ در مورد رگرسیون لجستیک در R یک رگرسیون لجستیک را در R به شرح زیر نشان می دهد: ced.logr <- glm(ced.del ~ cat + follows + factor(class)، خانواده = دوجمله ای) برخی از خروجی ها: > summary(ced.logr ) تماس بگیرید: glm(formula = ced.del ~ cat + follows + factor(class)، خانواده = دوجمله ای (logit)) Deviance Residuals: Min 1Q Median 3Q Max -3.24384 -1.34325 0.04954 1.01488 6.40094 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) -1.31827 0.12221 -10.787 < 2e-16 catd -0.16931 0.10032 -1.688 0.091459 catm 0.17855 0.17855 0.049 0.049 catn 0.66672 0.09651 6.908 4.91e-12 catv -0.76754 0.21844 -3.514 0.000442 followsP 0.95255 0.07400 12.8016 0.07400 12.8016 < s2e دنبال کنید 0.05660 9.436 < 2e-16 ضریب(کلاس)2 1.27045 0.10320 12.310 < 2e-16 ضریب(کلاس)3 1.04805 0.10355 10.122 10.122 < 2e-16 ضریب (کلاس) 122 13.532 < 2e-16 (پارامتر پراکندگی برای خانواده دوجمله ای 1 در نظر گرفته شده است) انحراف صفر: 958.66 در 51 درجه آزادی انحراف باقیمانده: 198.63 در 42 درجه آزادی AIC: 446.10 تعداد انحرافات Fisher Scoring بعد از آن به 4 iتر می رسد. در مورد نحوه تفسیر ضرایب، مقایسه کنید مدل های مختلف و غیره کاملا مفید. با این حال، مدل چقدر واریانس را محاسبه می کند؟ یک صفحه Stata در مورد رگرسیون لجستیک می گوید: > از نظر فنی، R2 را نمی توان به همان روشی که در رگرسیون OLS محاسبه می شود، در رگرسیون لجستیک محاسبه کرد. شبه R2، در رگرسیون لجستیک، به صورت > (1 - L1)/L0 تعریف می شود، که در آن L0 نشان دهنده احتمال ورود به سیستم برای مدل فقط ثابت > و L1 احتمال ورود به سیستم برای مدل کامل با ثابت و > است. پیش بینی کننده ها من این را در سطح بالا درک می کنم. مدل فقط ثابت بدون هیچ یک از پارامترها (فقط عبارت رهگیری) خواهد بود. احتمال ورود به سیستم اندازه گیری میزان تناسب پارامترها با داده ها است. در واقع، منینگ به نوعی اشاره میکند که انحراف ممکن است -2 log L باشد. با این حال، من در مورد آن کاملا واضح نیستم. آیا کسی می تواند بررسی کند که چگونه با استفاده از این مثال، شبه R^2 را در R محاسبه می کند؟ | چگونه شبه$R^2$ را از رگرسیون لجستیک R محاسبه کنیم؟ |
10193 | من مجموعهای از جلسات و آدرسهای اینترنتی دارم که در هر یک از این جلسات و فرکانسهایی که به آنها دسترسی پیدا کردهاند، دسترسی پیدا کردهاند. من آنها را در یک نمایش ماتریس مانند قرار داده ام. تصور کنید من ماتریس مشاهده صفحه زیر را دارم: سرفصل های ستون منابع قرار دادن کتاب ها br aca هر ردیف نشان دهنده یک جلسه است. در اینجا نمونه ای از رکوردها آمده است: 4 5 0 2 2 1 2 1 7 3 1 3 6 1 6 ذخیره شده در یک فایل «.txt» آیا می توانم این را به عنوان ورودی به یک برنامه k-means بدهم و بر اساس بیشترین فراوانی وقوع؟ چگونه از آن استفاده کنم؟ اگر k-means نیست، از چه روش خوشهای دیگری میتوانم استفاده کنم؟ | خوشه بندی عناصر بر اساس تعداد دسترسی در جلسات |
8512 | فرض کنید من مقداری فرآیند تصادفی X_t$ دارم. در هر زمان $t$، من یک توزیع احتمال تخمینی برای $x_t$ دریافت میکنم، به دنبال آن یک مشاهده $x_t$. پس از دریافت مجموعهای از مشاهدات ${x_1، \ldots، x_n}$، میخواهم به عقب برگردم و توزیع احتمال را برای هر $x_t$، $1 \le t \le n$ دوباره تخمین بزنم. چند راه برای انجام این کار چیست؟ بیایید فرض کنیم که توزیعهای احتمال تخمین زده شده «بسیار خوب» هستند، بنابراین میخواهیم از اطلاعات موجود در آنها استفاده کنیم. به چه فرضیات دیگری نیاز دارم تا بتوانم این مسئله را به یک مشکل جالب/قابل حل تبدیل کنم؟ به عنوان مثال، برخی از افکار (به طور بالقوه کاملاً نادرست) من این بودند: 1. فرض کنید $X_t$ یک مدل مستمر مرتبه اول است: $x_t$ فقط به $x_{t-1}$ بستگی دارد، و اگر $x_{ t-1}، x_{s-1}$ نسبتاً نزدیک هستند، سپس توزیعهای احتمال برای $x_t، x_s$ نیز باید نسبتاً نزدیک باشند. سپس برای تجدید نظر در تخمین خود از توزیع احتمال برای $x_t$، می توانم از نوعی نمونه بوت استرپ چگالی هسته استفاده کنم و آن را با تخمین اصلی ترکیب کنم: تمام نقاط $x_s$ را طوری بگیرید که $x_{s-1}$ نزدیک باشد. تا $x_{t-1}$، از این نقاط $x_s$ به شکلی وزنی برای تشکیل تخمین چگالی هسته $K$ و میانگین K$$ با احتمال تخمینی اولیه استفاده کنید. توزیع برای بدست آوردن یک توزیع احتمال جدید برای x_t$. 2. فرض کنید $X_t$ یک مدل گاوسی خطی است (به طوری که مفروضات یک فیلتر استاندارد کالمن را برآورده می کند). میتوانم نوع دیگری از نمونه راهانداز را ایجاد کنم: برای هر $x_t$، از پنجرهای در اطراف توزیع احتمال تخمینی آن برای نمونهبرداری از یک مشاهده جدید $x'_t$ استفاده کنید، و سپس از صاف کردن Kalman روی مشاهدات ${x'_t} استفاده کنید. $ برای دریافت مجموعه ای از مشاهدات هموار $\tilde{x_t}$. از این نمونههای بوت استرپ برای تولید توزیعهای احتمال تخمینی جدید استفاده کنید. این یک سؤال عمدتاً تصادفی است که دوستی چندی پیش از من پرسید و من دوباره به آن فکر کردم، بنابراین برنامه خاصی ندارم (و از این رو چرا مجموعه ای مشخص از فرضیات در مورد فرآیند ندارم). | به روز رسانی مجموعه ای از پیش بینی های تخمینی |
107897 | من به نحوه تجزیه و تحلیل داده ها در آموزش علاقه مند هستم. در انگلستان، نتایج آزمون گزارش شده دانش آموزان با نتایج آزمون ملی با استفاده از آزمون z مقایسه می شود. سپس از این نتایج برای قضاوت در مورد اثربخشی مدارس استفاده می شود. فرضیه من این است که دانشآموزان در یک مدرسه IID نیستند، و بنابراین تجزیه و تحلیل با استفاده از آزمونهای مبتنی بر قضیه حد مرکزی که به دنبال قضاوت در مورد «اثر مدرسه» به جای «تأثیر دانشآموز» است، موجه نیست. آیا منطقی است که فرض کنیم دانش آموزان و در نتیجه نمرات آزمون آنها مستقل و به طور یکسان توزیع شده است؟ | آیا دانش آموزان یک مدرسه در مقایسه با جمعیت ملی مستقل و به طور یکسان توزیع شده اند؟ |
23177 | من در حال انجام پروژه ای در تجزیه و تحلیل احساسات (در داده های توییتر) با استفاده از رویکرد یادگیری ماشین هستم. برای یافتن بهترین راه برای این کار، من با استفاده از یونیگرام، بیگرام و یونیگرام و بیگرام با هم، طبقهبندیکننده بیزی ساده و حداکثر آنتروپی را آزمایش کردهام. من از کتابخانه SharpEntropy برای ME و یک پیاده سازی شخصی برای NB استفاده می کنم. سوال من مربوط به طبقه بندی ME است. در یکی از تستهایم، آن را با استفاده از یونیگرامها و بیگرامها آموزش دادهام، زیرا این راهحلها از راهحلهای فقط یونیگرام و تنها بیگرام بهتر عمل میکنند. من از 100 تکرار و بدون قطع (= حداقل ظاهر برای استفاده از آن در آموزش) استفاده کردم. پس از آموزش اولیه، اعتبارسنجی را شروع کردم و چیز عجیبی که با آن مواجه شدم این است: اگر داده های آزمون به نمایش unigram-bigram تبدیل نشود، طبقه بندی کننده من 4٪ دقیق تر (73٪ -> 77٪) از موردی که من تحول را انجام دادم. بنابراین اساساً طبقهبندیکننده من با استفاده از uni- و bigrams آموزش داده شده است، اما دادههای تست در نمایش unigram باقی ماندند و من نتایج بهتری گرفتم. (آموزش یونیگرام - داده های تست یونیگرام منجر به دقت 58 درصد شد، فقط آموزش بیگرام - تست فقط بیگرام منجر به دقت 68 درصد شد) دلیل این رفتار چه می تواند باشد؟ من به دنبال کمکی برای به دست آوردن درک عمیق تر برای این هستم. | طبقه بندی کننده حداکثر آنتروپی و تجزیه و تحلیل احساسات |
8515 | توزیع های پایدار مثبت با چهار پارامتر توصیف می شوند: پارامتر چولگی $\beta\in[-1,1]$، پارامتر مقیاس $\sigma>0$، پارامتر مکان $\mu\in(-\infty,\infty )$، و به اصطلاح پارامتر شاخص $\alpha\in(0,2]$. وقتی $\beta$ صفر باشد، توزیع در حدود $\mu$ متقارن است. مثبت است (مثلاً منفی) توزیع به سمت راست منحرف می شود (وضعیت به سمت چپ) هنگامی که $\alpha $ کاهش می یابد و $\beta=1 است $ پشتیبانی از توزیع به $(\mu,\infty)$ محدود می شود. $\alpha<1$، $\beta=1$، و $\sigma=\alpha$ است (فرمول (4.4) را اینجا ببینید): $f(y) = -\frac{1}{\pi y} \sum_{k=1}^{\infty} \frac{\Gamma(k\alpha+1)}{k!} (-y^{-\alpha})^k \sin(\alpha k \pi) $ دارد میانگین و واریانس بی نهایت **سوال** من می خواهم از آن چگالی در R استفاده کنم. pm=1) که در آن تابع dstable با بسته fBasics همراه است. آیا می توانید تأیید کنید که این روش صحیح برای محاسبه آن چگالی در R است؟ پیشاپیش از شما متشکرم **ویرایش** یکی از دلایل مشکوک بودن من این است که در خروجی، مقدار _delta_ با مقدار ورودی متفاوت است. مثال: > library(fBasics) > آلفا <- 0.4 > dstable(4، آلفا=آلفا، بتا=1، گاما=آلفا، دلتا=0، pm=1) [1] 0.02700602 attr(control) dist alpha بتا گاما دلتا pm پایدار 0.4 1 0.4 0.290617 1 | توزیع پایدار مثبت در R |
1126 | جاشوا اپستاین مقاله ای با عنوان چرا مدل؟ موجود در http://www.santafe.edu/media/workingpapers/08-09-040.pdf که در آن 16 دلیل آورده شده است: 1. توضیح دهید (بسیار متمایز از پیش بینی) 2. راهنمای جمع آوری داده ها 3. روشن کردن پویایی هسته 4. پیشنهاد تشبیهات پویا 5. کشف سوالات جدید 6. ترویج یک عادت علمی ذهنی 7. محدود (پرانتز) نتایج به محدوده های قابل قبول 8. عدم قطعیت های اصلی را روشن کنید. 9. ارائه گزینه های بحران در زمان تقریباً واقعی 10. نشان دادن معاوضه / پیشنهاد کارآمدی 11. به چالش کشیدن استحکام نظریه غالب از طریق آشفتگی ها 12. افشای خرد غالب به عنوان ناسازگار با داده های موجود 13. آموزش پزشکان 14. انضباط دادن به گفت و گوهای خط مشی. عموم مردم 16. آشکار کردن ظاهراً ساده (پیچیده) تا پیچیده (ساده) (اپستاین در مقاله خود در مورد بسیاری از دلایل با جزئیات بیشتر توضیح می دهد.) من می خواهم از جامعه بپرسم: * آیا دلایل دیگری وجود دارد که اپشتین آنها را فهرست نکرده است؟ * آیا راه ظریف تری برای مفهوم سازی (شاید گروه بندی متفاوت) این دلایل وجود دارد؟ * آیا هیچ یک از دلایل اپشتین ناقص است یا ناقص؟ * آیا توضیح واضح تری از این دلایل دارند؟ | دلایلی غیر از پیش بینی برای ساخت مدل ها؟ |
40933 | روش های کلاسیک خوشه بندی سلسله مراتبی تجمعی بر اساس یک الگوریتم حریصانه است. این بدان معنی است که آنها (بسیاری از آنها) مستعد ارائه راه حل های کمتر از حد بهینه به جای نتیجه بهینه جهانی هستند، به خصوص در مراحل بعدی تراکم. برای روشن شدن: هر یک از روشهای انباشته بهترین انتخاب را انجام میدهد که کدام دو خوشه را در یک مرحله $q$ ادغام کنند، انتخابی که ضریب تلفیق $\delta$ در مرحله را به حداقل میرساند (برای ارزش گذاری $\delta_q$). با این حال، غیرممکن نیست که اگر الگوریتم انتخاب _نه بهترین، بلکه کمی بدتر_ را در _برخی از مراحل قبلی_ انتخاب کرده بود، می توانست ضریب را در مرحله $q$ به حداقل برساند تا مقدار آن کمتر از $\delta_q باشد. $ با حفظ رشد یکنواخت $\delta$. راه حل بهینه جهانی در مرحله $q$ با حداقل مقدار قابل دستیابی $\delta_q$ مطابقت دارد با این محدودیت که $\delta_q \ge \delta_{q-1} \ge \delta_{q-2} \cdots$ . ریسک زیر بهینه بودن دلیل اصلی این است که چرا خوشه بندی سلسله مراتبی معمولاً با مقادیر زیاد شی (مثلاً بیش از 300) توصیه نمی شود: محقق معمولاً خوشه های کمی می خواهد و بنابراین به مراحل بعدی نگاه می کند، اما اگر مرحله بعدی باشد، مثلاً 1000 امین، گمراه شدن از پارتیشن بهینه جهانی ممکن در گام 1000 مشکوک تر است تا مثلاً 100 گام از پارتیشن بهینه جهانی در 100 گام ممکن است. به نظر می رسد این موضوع حکمی است. سوال من این است که نظر شما در مورد **که از بین روش های انباشتگی معروف ** - پیوند تک، پیوند کامل، پیوند متوسط (در گروه ها)، پیوند متوسط (بین گروه ها)، مرکز، میانه، مجموع مربعات وارد چیست؟ - من آنهایی را در SPSS ذکر می کنم، اما انواع مشابه دیگری نیز وجود دارد - **بیشتر هستند و کمتر مستعد نقص زیربهینه هستند** به عنوان شماره مرحله رشد می کند. شهود به من پیشنهاد میکند که پیوندهای منفرد یا کامل به هیچ وجه مستعد نیستند و همیشه بهترین راهحلهای جهانی خود را ارائه میدهند، زیرا این روشها در محاسبه هیچ آماری مشتقشده از فواصل خام (مثلاً سانتروئیدها) شرکت نمیکنند. شاید هم درست می گویم و هم نه. در مورد بقیه روش ها چیست؟ آیا کسی در اینجا می تواند تلاش کند تا درجه (نسبی) ریسک بهینه محلی الگوریتم های حریص بتن بالا را تجزیه و تحلیل کند؟ **تصویر.** خوشبختانه، برای روش _Ward_ سرنخ هایی برای مشاهده اینکه چگونه با افزایش $q$ جمع می شود، داریم. زیرا یک روش تکراری شناخته شده وجود دارد که سعی می کند دقیقاً همان تابع $\delta$ را بهینه کند که Ward انجام می دهد. این خوشه بندی _K-means_ است: هر دو سعی می کنند مجموع مربعات درون خوشه ای را به حداقل برسانند. ما میتوانیم خوشهبندی Ward را انجام دهیم و در هر مرحله مراکز خوشهای را ذخیره کنیم و از آنها به عنوان مراکز اولیه در روش K-means استفاده کنیم. آیا K-means راه حل های بخش را از نظر مجموع مربعات بهبود می بخشد؟ توجه داشته باشید. این تصویر مقادیر $\delta_q$ مشاهده شده وارد را آزمایش میکند نه در برابر مقادیر بهینه جهانی _خودش که نمیتوانیم بدانیم زیرا نمیتوانیم برای هر مرحله، تمام بازسازیهای جایگزین بیشمار مراحل قبلی را امتحان کنیم تا حداقل $ ممکن را پیدا کنیم. \delta_q$; آن را در برابر بهینه بودن _K-means_ آزمایش می کند (که در اینجا تقریباً جهانی است زیرا مراکز اولیه ارائه شده توسط Ward می توانند شروع مناسبی برای تکرارها در نظر گرفته شوند). در اینجا برخی از داده ها (5 خوشه به خوبی جدا نشده، 183 امتیاز). همانطور که توضیح داده شد، داده ها تحت هر دو جلسه خوشه بندی Ward و جلسات خوشه بندی K-means قرار گرفتند.  نتایج (مقدار $\delta$) برای خوشه های 50 تا 2 در زیر نشان داده شده است. اگرچه 2 منحنی به هم نزدیک هستند، اما مقادیر K-means تا حدودی بهتر است. یعنی K-means بهینه تر از Ward است.  آخرین تصویر $\delta^{Ward}/\delta^{Kmeans}$ را ترسیم میکند. روند به وضوح مشاهده می شود: با کاهش تعداد خوشه ها (یعنی مرحله $q$ برای Ward رشد می کند)، Ward نسبت به K-means کمتر بهینه می شود.  یک سوال وسوسه انگیز این است که آیا زیربهینه بودن نسبی Ward (مقدار $\delta^{Ward}/\) delta^{Kmeans}$) در این آخرین 49 مرحله تراکم، اگر من به همان روش 1830 نقطه داده را به جای فقط 183 تجزیه و تحلیل کنم، بیشتر خواهد بود. | آیا می توان بهینه بودن روش های مختلف خوشه بندی سلسله مراتبی را ارزیابی یا رتبه بندی کرد؟ |
108506 | در این رشته، دو لحظه اول GPD دو پارامتری داده شده است، جایی که توزیع ممکن است به صورت $G(y)= \begin{cases} 1-\left(1+ \frac{\xi y}{\ تعریف شود. beta} \right)^{-\frac{1}{\xi}} & \xi \neq 0 \\ 1-\exp\left(-\frac{y}{\beta}\right) و \xi=0 \end{cases}$ حالا من به فرمول چهار لحظه اول نیاز دارم و شرایطی که تحت آن وجود دارند / متناهی هستند. ویکیپدیا کمکی نکرد زیرا فقط انواع دیگر GPD در اینجا مورد بحث قرار میگیرد. همین امر برای این صفحه نیز صادق است. | لحظاتی از توزیع پارتو تعمیم یافته دو پارامتری (GPD) مورد نیاز است |
1123 | در بسیاری از مقالات، داده هایی را می بینم که نشان دهنده نرخ موفقیت (یعنی عددی بین 0 و 1) است که به عنوان یک گاوسی مدل شده است. این به وضوح یک گناه است (محدوده تغییرات گاوسی همه R است)، اما این گناه چقدر بد است؟ با چه مفروضاتی می گویید قابل تحمل است؟ | نرخ موفقیت مدلسازی با توزیع گاوسی |
97905 | من مقالات زیادی را با استفاده از CV 10 برابر (CV 10-pool) دیدهام، اما فکر میکنم دقت بهدستآمده از این طریق میتواند گاهی اوقات به طرز خوشبینانهای نادرست باشد زیرا در هر مرحله زمانی معین **t** مجموع پرس و جوهای متمایز از همه چین ها ممکن است بزرگتر از **t** باشد. **t** معمولاً در نمودارها به عنوان تعداد پرس و جوها (نمونه های مشاهده شده) استفاده می شود. مشکل دیگر عدم امکان دانستن تعداد پرسوجوهای مورد استفاده است، انتظار میرود با میانگینگیری در میان تاها. روش دیگری که معمولا استفاده می شود Holdout 50/50، 70/30 و غیره است. Hold-out آن مشکلات خاص را ندارد، اما برای مجموعه داده های کوچک ناکافی است. | روش آزمون فعلی برای یادگیری فعال مبتنی بر استخر کدام است؟ |
8513 | فرض کنید $y$ یک تابع خطی از $x$ و یک $d$ ساختگی است. فرضیه من این است که $d$ خود مانند یک شاخص لذتگرایانه از بردار متغیرهای دیگر، $Z$ است. من برای این در $MANOVA$ از $Z$ (یعنی $z_1$، $z_2$، ...، $z_n$) در $d$ پشتیبانی دارم. آیا راهی برای تست _Equivalence_ این دو مدل وجود دارد: مدل 1: $y = b_0 + b_1 \cdot x + b_2\cdot d + e_1$ مدل 2: $y = g_0 + Z\cdot G + e_2$ که $ G$ بردار ستون پارامترها است. | هم ارزی تست مدل های غیر تودرتو |
115356 | من در آمار مبتدی هستم و باید رگرسیون لجستیک چند سطحی را اجرا کنم. من با نتایج گیج شده ام زیرا آنها با رگرسیون لجستیک تنها با یک سطح متفاوت هستند. من نمی دانم چگونه واریانس و همبستگی متغیرهای تصادفی را تفسیر کنم. و من تعجب می کنم که چگونه ICC را محاسبه کنم. به عنوان مثال: من یک متغیر وابسته در مورد حمایتی که پیوندهای دوستی به افراد می دهد دارم (1 برای افرادی است که می توانند خیلی به دوستان خود تکیه کنند، 0 برای دیگران است). 50 خوشه جغرافیایی پاسخگو و یک متغیر تصادفی وجود دارد که عاملی برای وضعیت اجتماعی محله است. طبقه بالا/متوسط مرجع است، روش های دیگر طبقه کارگر و محله های محروم هستند. من این نتایج را دریافت میکنم: > خلاصه (RLM3) مدل ترکیبی خطی تعمیمیافته متناسب با حداکثر احتمال (تقریبا لاپلاس) ['glmerMod'] خانواده: دوجملهای (logit) فرمول: Arp ~ Densite2 + جنسیت + سن + اتودها + pcs1 + Enfants + Origine3 + Sante + مذهب + LPO + جنس * نوزادان + Rev + (1 + استراتژی |. یک چهارم) داده: وزن LPE: کنترل PONDERATION: glmerControl(بهینه ساز = bobyqa) انحراف AIC BIC logLik df.resid 3389.9 3538.3 -1669.9 3339.9 2778 - MaximQ30.21. -0.3601 0.8794 2.7833 اثرات تصادفی: نام گروه ها Variance Std.Dev. کور همسایه. (Intercept) 0.2021 0.4495 Working Cl. 0.2021 0.4495 -1.00 Underpriv. 0.2021 0.4495 -1.00 1.00 تعداد obs: 2803، گروهها: Neigh., 50 جلوههای ثابت: تفاوتها با قسمت تماس به این دلیل است که من برخی از کلمات را ترجمه کردم. فکر میکنم رابطه بین رگرسیون تصادفی و شیب تصادفی را برای رگرسیونهای خطی درک میکنم، اما برای رگرسیونهای لجستیکی دشوارتر است. حدس میزنم وقتی همبستگی مثبت باشد، میتوانم نتیجه بگیرم که نوع محله (بافت اجتماعی) تأثیر مثبتی بر محافظت از پیوندهای دوستی دارد و بالعکس. اما چگونه می توانم آن را کمیت کنم؟ علاوه بر این، به نظر من این عجیب است که همبستگی 1 یا -1 را بدست بیاورم و چیزی متوسط تر از آن نباشد. در مورد ICC من متحیر هستم زیرا پستی در مورد رگرسیون lmer دیده ام که نشان می دهد همبستگی درون کلاسی را می توان با تقسیم واریانس قطع تصادفی بر واریانس برش تصادفی به اضافه واریانس متغیرهای تصادفی به اضافه باقیمانده ها محاسبه کرد. . اما هیچ باقیمانده ای در نتایج گلمر وجود ندارد. من در کتابی خواندهام که ICC باید با تقسیم واریانس قطع تصادفی بر واریانس قطع تصادفی به اضافه 2.36 (pi²/3) محاسبه شود. اما در کتاب دیگری، 2.36 با واریانس بین گروهی (فکر میکنم واریانس سطح اول) جایگزین شد. راه حل خوب چیست؟ امیدوارم این سوالات زیاد گیج نشده باشند. از توجه شما متشکرم! | نحوه تفسیر نتایج گلمر (واریانس، همبستگی و ICC) |
64970 | نشانگر بدون بعد چیست؟ من فرض میکنم به این واقعیت اشاره دارد که به گونهای سازگار است که در تغییرات عواملش به طور نامتناسبی تغییر نمیکند. | نشانگر بدون بعد چیست؟ |
40934 | فرض کنید نمونه ${(x_i)}_{i=1}^{n_1} \sim_{\text{iid}} {\cal N}(\mu, \sigma_1^2)$ مستقل از نمونه ${ (y_i)}_{i=1}^{n_2} \sim_{\text{iid}} {\cal N}(\mu, \sigma_2^2)$. روش های موجود برای به دست آوردن فاصله اطمینان در مورد میانگین رایج $\mu$ چیست؟ در مورد من $n_1=n_2$ دارم. من با پاسخ دادن به این مورد قانع می شوم اما به حالت کلی نیز علاقه مند هستم. **ویرایش:** اوه.. بالاخره این مقاله را با گوگل پیدا کردم. متاسفم | واریانس های نابرابر اما میانگین های برابر |
97907 | متغیر پاسخی که من با آن سروکار دارم، نسبت کل مساحتی است که زیستگاه مناسبی برای گونه های مورد علاقه است. بنابراین اگرچه متغیر پاسخ بین 0 و 1 محدود شده است، اما شهود من این است که مناسب نیست آن را دوجمله ای بنامیم زیرا صورت و مخرج نسبت غیر صحیح هستند. توزیع بتا به ذهنم می رسد، اما در مورد عملکرد پیوند مناسب و اینکه آیا ابزارهایی در R برای مقابله با بتا وجود دارد یا خیر مطمئن نیستم. پیشینه ای در مورد هدف نهایی من: احتمالاً یک مدل خودبازگشتی مشروط را برای توضیح خودهمبستگی فضایی دنبال خواهم کرد. از آنجایی که با یک سیستم رودخانه سروکار دارم، فضا را یک بعدی میدانم، و بنابراین هر واحد رصدی فقط دو همسایه دارد: یکی بالادست و پایین دست. اگر تصمیم بگیرم بیزی بروم، در R و JAGS/BUGS کار خواهم کرد. | GLM مناسب زمانی که متغیر پاسخ نسبت است، اما دو جمله ای نیست |
50467 | فرض کنید من یک متغیر تصادفی $X$ و نمونه ای از آن با اندازه $N$ دارم. من شمارش می کنم که چند عنصر از نمونه در یک محدوده خاص $a<x<b$ قرار می گیرد و ورودی $n$ پیدا کردم، بنابراین اگر از آمار پواسون استفاده کنم می توانم بگویم که خطا در $n$ $\sqrt{n است. }$. حالا فرض کنید من یک تابع $f$ دارم، کاملا نزدیک به تابع واحد، و یک متغیر تصادفی جدید $X'=f(X)$ تعریف می کنم. اکنون تعداد ورودیهای $a<x<b$ $n'=n+\delta n$ است. من تحلیلی از $f$ ندارم. من فقط در حال حاضر $n$ و $n'$. خطای $n'-n$ چیست؟ چگونه می توان ارتباط بین آنها را در نظر گرفت؟ دشوارتر: فرض کنید $f$ به پارامتر $\lambda$ با خطای $\delta\lambda$ بستگی دارد. | خطای آماری در تفاوت f(x) - x |
12845 | این عجیب به نظر می رسد، اما من سعی می کنم چیزی را محاسبه کنم که نام آن را نمی دانم. من میخواهم محاسبه کنم که یک متغیر نسبت به بقیه چقدر بزرگ/پایین است. همانطور که ابزار وب مستر گوگل می گوید: سایت شما در 3 ثانیه بارگیری می شود، این سرعت کمتر از 59٪ سایت ها است. چگونه می توانم این را محاسبه کنم؟ مثلاً امتیازهایی که یک بازیکن دارد. او 4440 امتیاز دارد و در رتبه 437 از 16801 بازیکن قرار دارد. میانگین امتیازات در 976 و بازیکن برتر 30076 امتیاز است. | محاسبه کنید که یک متغیر نسبت به دیگران چقدر بزرگ است |
40939 | من مطمئن نیستم که از کدام آزمون های آماری برای پیگیری تعامل سه جانبه خود استفاده کنم. من قبلاً پرونده خود را تقسیم می کردم و تجزیه و تحلیل را دو بار در هر گروه اجرا می کردم، اما همانطور که در مقاله Hayes & Matthes، 2009، _ روش های تحقیق رفتاری_ خواندم، این رویکرد خوبی نیست. من یک متغیر پیوسته متمرکز (نمره پرسشنامه)، یک متغیر دوگانه و یک متغیر به نام facetype با سه دسته دارم. من 6 کارآزمایی به ازای هر شرایط چهره به ازای هر شرکتکننده دارم، بنابراین هر شرکتکننده چندین خط در فایل SPSS من دارد. متغیر وابسته من باینری است. من از مدل خطی تعمیم یافته برای تجزیه و تحلیل این داده ها استفاده می کنم. اثرات ثابت یک تعامل سه طرفه قابل توجه را نشان می دهد، و من می خواهم تعامل را با آزمایش اهمیت یک شیب تفسیر کنم. من نمی دانم چگونه این کار را با داده های چند سطحی انجام دهم. GENLINMIXED /DATA_STRUCTURE SUBJECTS=id*trial /FIELDS TARGET=in_team_yes_no TRIALS=NONE OFFSET=NONE /TARGET_OPTIONS REFERENCE=0 DISTRIBUTION=BINOMIAL LINK=LOGITTScoreceementeats نمره پرسشنامه*نمره پرسشنامه درمان*درمان صورت*نوع چهره **نمره پرسشنامه*درمان*چهره**نوع USE_INTERCEPT=TRUE /RANDOM USE_INTERCEPT=TRUE SUBJECTS=id COVARIANCE_TYPE=VARIANCE_COMPFOENTS /COMPONAL USE_INTERCEPT=نادرست COVARIANCE_TYPE=VARIANCE_COMPONENTS /BUILD_OPTIONS TARGET_CATEGORY_ORDER=صعودی INPUTS_CATEGORY_ORDER=صعود MAX_ITERATIONS=100 CONFIDENCE_LEVEL_METHVEL=95 D. | چگونه یک تعامل سه طرفه را در یک مدل چند سطحی تعمیم یافته ارزیابی می کنید؟ |
8514 | من به هیچ وجه در آمار خوب نیستم، اما فکر می کنم به جای درستی آمده ام. سوال من ساده است: مشکل من مقایسه جمعیت چندین ایالت در یک کشور کوچک است، اما برخی از ایالت ها 3000000 نفر و برخی 2000 نفر جمعیت دارند. من آن را روی نقشه نقاشی می کنم، و شدت رنگ بستگی به این دارد که جمعیت هر ایالت با جمعیت کل کشور مقایسه شود. مشکل این است که ایالت های با جمعیت زیاد با رنگ های واقعاً تند نشان داده می شوند و ایالت های کوچک به سختی رنگی دارند. آیا راه آسانی برای عادی سازی یا قابل مقایسه کردن داده ها وجود دارد؟ نمی دانم درست توضیح می دهم یا نه اما امیدوارم یکی بتواند به من کمک کند. لطفا اگر سوالم واضح نیست کامنت بزارید و توضیح میدم. از کمک شما متشکرم! | چگونه یک مقیاس شدت رنگ خوب بسازیم؟ |
12842 | من از کتاب درسی خود خواندم که $\text{cov}(X,Y)=0$ تضمین نمی کند که X و Y مستقل باشند. اما اگر مستقل باشند، کوواریانس آنها باید 0 باشد. کسی می تواند یکی را ارائه دهد؟ | کوواریانس و استقلال؟ |
66556 | من در حال بررسی یک سری زمانی هستم که دارای یک چرخه روزانه بسیار قوی است. با این حال، علاوه بر داشتن یک چرخه روزانه در مقادیر واقعی سری های زمانی، یک چرخه واریانس روزانه بسیار قوی نیز دارد. نمیدانم آیا میتوانم بهطور معنیداری «روند واریانس» را از سریهای زمانی خود حذف کنم. من می توانم «واریانس متوسط» را برای یک ساعت معین محاسبه کنم و سپس بر آن تقسیم کنم، اما مطمئن نیستم که اگر این کار را انجام دهم، کار مفیدی انجام می دهم؟ واریانس بزرگ با مقادیر زیاد در چرخه روزانه نیز مرتبط است، اما به نظر نمی رسد که گرفتن گزارش کمک چندانی کند. ویرایش: اطلاعات اضافی همانطور که در نظرات اشاره شد، این مشکل تقریباً تعریف نشده است. متأسفانه، این یک علامت است که من نیز با آن دست و پنجه نرم می کنم و بنابراین نمی توانم آن را برطرف کنم. با این حال، سعی می کنم اطلاعات بیشتری ارائه کنم. **هدف** داشتن مدلی از سری زمانی است که بتوان از آن پی برد. داده های سری زمانی معیاری از غلظت در طول زمان، با چرخه های روزانه و سالانه واضح و روند خطی است. سری های زمانی متغییر زیادی وجود دارد که حداقل از چرخه های روزانه و سالانه یکسانی پیروی می کنند. من در حال حاضر فقط سعی می کنم تکنیک های سری های زمانی مختلف را کشف و یاد بگیرم. من به یک راه حل امیدوار نبودم، بلکه به دنبال کمی جهت بودم، زیرا نتوانسته بودم اطلاعات زیادی در مورد روند واریانس پیدا کنم. | حذف یک روند در واریانس از یک سری زمانی |
95227 | من دادههایی در لحظههای اول تا چهارم یک متغیر تصادفی پیوسته دارم و سعی میکنم تا ببینم کدام توزیع به بهترین وجه با دادهها مطابقت دارد. ویکیپدیا فهرستی از حدود 20 توزیع دارد که میتواند با دادهها مطابقت داشته باشد و من میخواهم هر کدام از آنها را امتحان کنم تا ببینم کدام بهترین است. برخی از این توزیع ها دارای یک پارامتر، برخی دارای دو یا سه پارامتر هستند. آیا آزمایشی وجود دارد که بتوانم از آن برای مقایسه تناسب هر توزیع استفاده کنم؟ یا حداقل آزمایشی برای مقایسه توزیع ها با همان تعداد پارامتر؟ | برازش لحظات برای توزیع |
22626 | فرض کنید یک متغیر تصادفی $X$ دارید (مثلاً کیلومترها رانده شده). دریافت واریانس آن ساده است. اما اگر میخواهید بگویید، درصد $A$ از واریانس در $X$ به دلیل $\text{Var}(X)$ برای رانندههای زن است و $B$% بقیه است، یعنی $\text. {Var}(X)$ برای رانندگان مرد؟ $A + B$ باید 100 درصد باشد. آیا این امکان پذیر است؟ آیا فرضیاتی وجود دارد که میتوان برای سادهسازی کارها انجام داد؟ استقلال رانندگان زن و مرد؟ [سوال در اینجا نیز پرسیده شد http://mathoverflow.net/questions/88185/variance-decomposition-anova اما متوجه شدم که بهتر است به جای آن این کار را در Stats انجام دهم.] | تجزیه واریانس با استفاده از ANOVA |
95229 | من مجموعه ای از اندازه گیری ها با فواصل اطمینان 95 درصد پواسون دارم و می خواهم آنها را کم و ضرب کنم و خطا را منتشر کنم. به عنوان مثال، من تعداد کپی یک قطعه DNA را در یک نمونه بیولوژیکی 0.0268، 95% CI = 0.308-0.227 اندازهگیری کردم. من می دانم که سوگیری های سیستماتیک در اندازه گیری من وجود دارد، یعنی مسائل مربوط به حساسیت و ویژگی، که من به طور مستقل تعیین کردم. به عنوان مثال، برای اندازهگیری حساسیت، غلظت مشخصی از کپیهای DNA، 467 کپی در UL، و 251 کپی در UL، 95% فاصله اطمینان (CI 255-248)، یعنی حدود 54% اندازهگیری کردم. برای اندازهگیری ویژگی، از یک نمونه DNA منفی شناخته شده استفاده کردم، بنابراین انتظار میرفت که عدد 0 کپی باشد، اما 0.00162، 95% فاصله اطمینان (CI): 0.0023-0.000936 اندازهگیری شد. من میخواهم تعداد کپی اندازهگیریشده را در ویژگی ضرب کنم، که مقدار ~.496 را به دست میدهد، سپس ویژگی را کم میکنم، که تخمین شماره نسخه نهایی ~.494 به دست میآید. چگونه می توانم خطاها را در این مورد منتشر کنم؟ با تشکر برای هر گونه کمک! | انتشار فواصل اطمینان پواسون |
66551 | من میخواهم مجموعهای از فرضیهها را روی ترکیبهای خطی ضرایب برای رگرسیون لجستیک روی دادههای شمارش طبقهای که بهعنوان یک مدل GLM پیادهسازی شدهاند، آزمایش کنم. من می دانم که چگونه ترکیبات خطی را در حالت عادی انجام دهم، و می دانم چگونه فواصل اطمینان اولیه و آزمون های اهمیت را برای مدل های لجستیک انجام دهم. اما من با کمی خجالت متوجه شدم که دانستن این دو چیز به دانستن چگونگی ساخت آزمونهای معناداری و فواصل اطمینان بر روی ترکیبهای خطی ضرایب رگرسیون لجستیک نمیشود. ** چگونه آزمون های معناداری و فواصل اطمینان را روی ترکیب های خطی ضرایب رگرسیون لجستیک ایجاد می کنید؟** | چگونه فواصل اطمینان را برای ترکیب خطی ضرایب یک رگرسیون لجستیک محاسبه کنم؟ |
61026 | **زمینه:** مقاله ای را خواندم که در آن نویسندگان همبستگی پیرسون را 0.754 از حجم نمونه 878 گزارش کردند. مقدار p-مقدار برای آزمون همبستگی دو ستاره معنادار است (یعنی p <0.01). با این حال، من فکر می کنم که با چنین اندازه نمونه بزرگ، مقدار p متناظر باید کمتر از 0.001 باشد (یعنی سه ستاره معنی دار). * **آیا می توان مقادیر p برای این آزمون را فقط از روی ضریب همبستگی پیرسون و حجم نمونه محاسبه کرد؟** * **اگر بله، چگونه می توان این کار را در R انجام داد؟** | آیا می توان مقادیر p برای آزمون همبستگی پیرسون را فقط از روی ضریب همبستگی و حجم نمونه محاسبه کرد؟ |
61028 | در کالجم آزمایش های زیادی انجام می دهم، مانند تست همبستگی خودکار، سفید، DW، $t$، $F$ و غیره. با این حال، همیشه باید به دنبال آن باشم، چه زمانی رد کنم و چه زمانی مثلاً H_0 $ را بپذیرم. $ از این رو، من نمیخواستم تعمیمی برای تفسیر یک آزمون آماری وجود داشته باشد، مانند: وقتی $value$ بزرگتر از $value$ است همیشه _رد_ H0. آیا از نظر تجربه حرفه ای شما در همه آزمون های آماری الگویی وجود دارد؟ | تعمیم برای تفسیر یک آزمون؟ |
50463 | در فصل بازگشت به متوسط از تفکر، سریع و آهسته نوشته دانیل کانمن، یک مثال آورده شده است و از خواننده خواسته می شود تا فروش فروشگاه های فردی را با توجه به پیش بینی فروش کلی و اعداد فروش از سال قبل پیش بینی کند. . به عنوان مثال (مثال کتاب دارای 4 فروشگاه است، من از 2 در اینجا برای سادگی استفاده می کنم): Store 2011 2012 1 100 ? 2500؟ مجموع 600 660 پیش بینی ساده 110 و 550 برای فروشگاه های 1 و 2 خواهد بود، 10 درصد افزایش برای هر کدام. با این حال، نویسنده ادعا می کند که این رویکرد ساده لوحانه اشتباه است. به احتمال زیاد فروشگاه با عملکرد ضعیف تر بیش از 10٪ افزایش می یابد و فروشگاه با عملکرد بهتر کمتر از 10٪ افزایش (یا حتی کاهش) دارد. بنابراین شاید پیشبینی ۱۱۵ (۱۵ درصد افزایش) و ۵۳۵ (۷ درصد افزایش) «درستتر» از پیشبینی سادهلوحانه باشد. چیزی که من نمی فهمم این است که چگونه می توانیم نتیجه بگیریم که فروش 100 عدد از فروشگاه 1 لزوماً فروشگاهی با عملکرد ضعیف تر است؟ شاید به دلیل تفاوتهای مکان، میانگین سریهای زمانی واقعی فروشگاههای 1 و 2 10 و 550 باشد، و فروشگاه 1 در سال 2011 یک سال فوقالعاده و فروشگاه 2 سال فاجعهباری در سال 2011 داشته است. پس آیا منطقی نیست. برای پیش بینی کاهش برای فروشگاه 1 و افزایش برای فروشگاه 2؟ من می دانم که اطلاعات سری زمانی در مثال اصلی ارائه نشده است، اما من این تصور را دارم که رگرسیون به میانگین به میانگین مقطعی اشاره دارد و بنابراین اطلاعات سری زمانی اهمیتی ندارد. من چی رو اشتباه میفهمم | بازگشت به پازل متوسط |
12843 | من سعی می کنم نمونه های تصادفی را از یک pdf سفارشی با استفاده از R ایجاد کنم. پی دی اف من این است: $$f_{X}(x) = \frac{3}{2} (1-x^2), 0 \le x \le 1$$ من نمونه های یکنواخت تولید کردم و سپس سعی کردم آن را به توزیع سفارشی خود تبدیل کنم. من این کار را با پیدا کردن cdf توزیع خود ($F_{X}(x)$) و تنظیم آن بر روی نمونه یکنواخت ($u$) و حل برای $x$ انجام دادم. $$ F_{X}(x) = \Pr[X \le x] = \int_{0}^{x} \frac{3}{2} (1-y^2) dy = \frac{3} {2} (x - \frac{x^3}{3}) $$ برای ایجاد یک نمونه تصادفی با توزیع فوق، یک نمونه یکنواخت $u \in[0,1]$ بگیرید و برای $x$ در آن حل کنید $$\frac{3}{2} (x - \frac{x^3}{3}) = u $$ من آن را در `R` پیادهسازی کردم و توزیع مورد انتظار را دریافت نکردم. آیا کسی می تواند به نقص درک من اشاره کند؟ nsamples <- 1000; x <- runif(nsamples); f <- تابع (x, u) { return(3/2*(x-x^3/3) - u); } z <- c(); برای (i در 1:nsamples) { # ریشه را در (0,1) پیدا کنید r <- uniroot(f, c(0,1), tol = 0.0001, u = x[i])$root; z <- c(z, r); } | تولید نمونه های تصادفی از یک توزیع سفارشی |
52828 | من سعی می کنم راهی پیدا کنم تا اندازه گیری کنم که یک متغیر چقدر مجموعه کاملی از متغیرهای پیوسته را خلاصه می کند. به عنوان مثال، در یک PCA اولین جزء اصلی درصد معینی از تنوع کل را در یک مجموعه چند متغیره توضیح می دهد. بنابراین، چگونه می توانم اندازه گیری مشابهی را برای یک متغیر از پیش موجود (تبدیل نشده) بدست بیاورم؟ به عنوان مثال، ارتفاع (تک متغیر) چقدر تغییرات آب و هوایی کلی را توضیح می دهد (مثلاً متغیرهای متعدد: میانگین بارش؛ میانگین دما ...)؟ من به ویژه به اندازه گیری علاقه مند هستم که مستقیماً با واریانس توضیح داده شده توسط PCA قابل مقایسه باشد. اگر پیشنهادی دارید به من اطلاع دهید. | تغییرات با تک متغیر توضیح داده شده است |
95228 | این مرحله بعدی از سوالی است که قبلا پرسیدم. من دو فریم داده دارم: یکی متمرکز بر داده های تولد، و دیگری متمرکز بر رویدادهای آب و هوایی زمستان. هدف پروژه من این است که کشف کنم آیا یک همبستگی ساده بین رویدادهای شدید آب و هوایی زمستانی (به عنوان مثال طوفان های زمستانی) و افزایش تعداد تولدها در 9 ماه بعد (به دلیل گیرکردن افراد در درها در طول طوفان) وجود دارد یا خیر. چندین زمینه وجود دارد که من با آنها دست و پنجه نرم می کنم: 1. من باید رویدادهای آب و هوایی کمتر شدید زمستانی را از combination.weather.birth$EVENT_TYPE در نظر بگیرم. عواملی که در حال حاضر شامل «یخبندان/یخ زدگی»، «تگرگ»، «برف سنگین»، «طوفان یخ»، «طوفان زمستانی»، «آب و هوای زمستان» و «کولاک» هستند. **از این موارد، میخواهم سرما/یخ زدگی و تگرگ را حذف کنم.** 2. من در اجرای تابع ()cff روی این داده با مشکل مواجه هستم. همانطور که در بالا توضیح داده شد، من می خواهم همبستگی های بالقوه بین این مجموعه داده ها را کشف و تجزیه و تحلیل کنم. من فقط داده های سال های 2007-2011 در ماساچوست را مقایسه می کنم. این چیزی است که من تاکنون امتحان کردهام: correlation1 <- ccf(birth.data$DATE, combination.weather.birth$DATE, lag.max = NULL, type=correlation, plot=TRUE) correlation2 <- ccf( birth.data$DATE، combined.weather.birth$DATE+combined.weather$EVENT_TYPE، lag.max = NULL، type=correlation, plot=TRUE) **من باید این داده ها را 9 ماه جبران کنم تا بارداری بعد از رویدادهای آب و هوایی زمستان را در نظر بگیرم. نکته ای دارید؟** در اینجا اطلاعاتی در مورد داده هایی که با آنها کار می کنم وجود دارد: str(combined.weather.birth) <- 'data.frame': 966 obs. از 8 متغیر: $ EVENT_ID : int 9620 9619 9623 5391 13835 13845 13844 13847 13846 13836 ... $ STATE : Factor w/ 1 level MASSACHUSETTS11111: $ YEAR : int 2007 2007 2007 2007 2007 2007 2007 2007 2007 2007 ... $ MONTH_NAME : Factor w/ 12 level April, August،...: 5 4 4 5 44 $ EVENT_TYPE: فاکتور w/ 7 سطح یخ زدگی/یخ زدگی،...: 6 6 4 4 5 5 5 5 5 5 ... $ INJURIES_DIRECT: int 0 0 0 1 0 0 0 0 0 0 ... $ DEATHS_DIRECT : int 0 0 0 0 0 0 0 0 0 0 ... $ تاریخ : POSIXct، قالب: 2007-01-01 2007-01-01 2007-01-01 2007-01-01 ... str(birth.data) <- 'data.frame': 60 obs. از 4 متغیر: $ YEAR : int 2007 2007 2007 2007 2007 2007 2007 2007 2007 2007 ... $ MONTH : Factor w/ 12 level April, August ..: 7: 1219 ... دلار BIRTH_TOTAL: num 6250 5833 6570 6227 6858 ... $ DATE : POSIXct، قالب: 2007-01-01 2007-02-01 2007-03-01 2007-04-01IT باید اضافه کنم که من با استفاده از cff() ازدواج نکرده ام اینجا اگر تابع بهتری برای یافتن همبستگی مشخص شده وجود داشته باشد، من آماده یادگیری در مورد آن هستم. من کمی در مورد cor() خواندهام، اما در اینجا مناسب به نظر نمیرسد زیرا فقط برای کار با ماتریس طراحی شده است. | استفاده از ccf() برای یافتن همبستگی بین دو فریم داده که نه ماه جبران شده است |
22620 | من در این سایت خواندم که ظاهرا کینکت به نوعی از الگوریتم جنگل های تصادفی برای یادگیری ماشین استفاده می کند. آیا کسی می تواند توضیح دهد که برای چه چیزی از جنگل های تصادفی استفاده می کند و رویکرد آنها چگونه کار می کند؟ | چگونه کینکت از جنگل های تصادفی استفاده می کند؟ |
28086 | Emerson, J. D. (1991) Graphical Display as aid to Analysis, in _Fundamentals of Exploratory Analysis of Variance_ (ویراستار D. C. Hoaglin, F. Mosteller and J. W. Tukey), John Wiley & Sons, Inc., Hoboken, NJ, USA. doi: 10.1002/9780470316832.ch8 نمودارهای کنار هم از افکت ها و باقیمانده ها را شرح می دهد... فکر می کنم ایده خوبی برای تحلیل اکتشافی است، اما نمی دانم چگونه آن را ترسیم کنم. باکسپلات جانبی برای تحلیل یک طرفه خوب است، اما وقتی به دوطرفه میرسد، برای دیدن جلوههای اصلی بسیار پیچیده است. تعاملات...) آیا کسی می داند چگونه؟ اینم چند نمونه از کتاب عالی یک دوره اول در طراحی و تجزیه و تحلیل تجربیات که در وب موجود است!!!   | نحوه ترسیم یک طرح کنار هم که در نمایش گرافیکی به عنوان کمکی برای تجزیه و تحلیل ذکر شده است. |
66550 | کار با سنسور دو بعدی یک ردیف از 4096 نمونه تشکیل شده است که از این تعداد 16 نمونه _مرجع_ وجود دارد (بقیه _فعال_ هستند). نمونههای مرجع سیگنال را اندازهگیری نمیکنند، اما برای تخمین افست اندازهگیری منحصربهفرد که بر کل ردیف تأثیر میگذارد استفاده میشوند. اندازهگیریها باید قبل از پردازش بیشتر با این افست ردیف تصحیح شوند. این افست ردیف بین ردیف های متوالی و همچنین در طول زمان متفاوت است. هر نمونه به طور مستقل تحت تأثیر نویز اندازه گیری قرار می گیرد که به نظر می رسد از توزیع گاوسی پیروی می کند. بنابراین یک اندازه گیری داده شده $M$ توسط سیگنال در آن مکان $S$ به اضافه ردیف $O$ به اضافه مقداری نویز گاوسی $G$ داده می شود، بنابراین: $$M_{xy} = S_{xy} + O_{y } + G_{xy}$$ رویه معمولی استفاده از میانگین این اندازهگیریهای مرجع برای تخمین این افست و کم کردن آن از اندازهگیریهای فعال (نمونههای باقیمانده در آن ردیف) برای به دست آوردن یک اندازهگیری اصلاحشده: $$O_{y} = \Sigma M_{ref}/N$$ وقتی $N=16، S=0$ (در نمونههای مرجع). البته، وقتی $S=0$، $M=O_{y} + G_{xy}$، بنابراین ما هنوز باید نویز را فیلتر کنیم تا جبران شود. در حال حاضر، با استفاده از میانگین، میتوانیم نویز (stddev) را بسیار کم دریافت کنیم، اما همچنان نویز کافی وجود دارد که آثار هنری قابل توجهی در نتایج وجود دارد. بنابراین ما به دنبال روشی قوی تر (نسبت به میانگین یا میانه) برای تخمین افست از این نمونه ها هستیم. اگر کمک کند، در طول فرآیند کالیبراسیون، میتوانیم سطح صفر را از کل ردیف به دست آوریم. بنابراین در شرایط آزمایشگاهی (و _نه_ در میدان)، میتوانیم سطح صفر را از کل ردیف بخوانیم. بنابراین سؤال این است: * چگونه میتوانید میانگین مقدار یک مجموعه کوچک ($N=16$) از نمونههای پر سر و صدا را که نماینده جمعیت بسیار بزرگتری هستند، به طور قوی تخمین بزنید؟ و سوال جایزه: * آیا راهی برای بهره برداری از اندازه گیری های صفر فقط در حین کالیبراسیون وجود دارد؟ به نظر میرسد این پاسخ به این سؤال نزدیکتر است، اما تاکنون روشهای توصیفشده پیشرفت قابلتوجهی نداشتهاند: * دوره تصادف در برآورد میانگین قوی | تخمین قوی میانگین با حجم نمونه کوچک |
22625 | من یک مبتدی برای تحلیل سری های زمانی هستم. من مدل زیر را دارم y فروش محصول و x نرخ توییت است: $y_t=ay_{t-1}+by_{t-2}+...+cy_{t-m}+dx_t+ex_{t-1}+... +fx_{t-n}$ 1. اسم این مدل چیه؟ حدس میزنم به آن یک مدل AR میگویند، اما مطمئن نیستم زیرا متغیر وابسته y نیز روی R.H.S است. 2. چگونه می توانم دوره تاخیر، $m$ و $n$ را برطرف کنم؟ آیا $x$ و $y$ می توانند تاخیرهای متفاوتی داشته باشند؟ 3. چگونه می توانم از پایتون برای ساخت این مدل استفاده کنم و همچنین فروش را برای $t+1\ldots t+n$ پیش بینی کنم؟ هر راه حلی برای این کار بدون استفاده از rpy. | تجزیه و تحلیل سری های زمانی در پایتون |
28087 | در یک زمینه چند متغیره، یعنی حداقل X یا Y که یک بردار تصادفی است، آیا فرمول ها یا قضایایی وجود دارد که (حتی از راه دور) رگرسیون رو به جلو و معکوس، $\text{E}(X|Y)$ و $\ را به هم مرتبط می کند. متن{E}(Y|X)$ ? یا $\text{E}(X_i|Y)$ و $\text{E}(Y|X_i)$، که $X_i$ جزء معینی از $X$ است. به طور مشابه، آیا می توان چیزی در مورد $\text{var}[\text{E}(X|Y)]$ و $\text{var}[\text{E}(Y|X)]$ گفت؟ یا $\text{var}[\text{E}(X_i|Y)]$ و $\text{var}[\text{E}(Y|X_i)]$، که در آن $X_i$ یک جزء داده شده است از X$. هر دو $X$ و $Y$ قرار است تصادفی باشند. مورد معمول کاربرد این است که $X$ از یک توزیع انتخاب شده (مثلاً یک multigaussian) پیروی می کند و $Y$ تابعی از $X$ است. تابع پیوند برای استفاده یا حتی ناشناخته بسیار پیچیده است (معمولاً یک مدل عددی است). توزیع X$، با این حال، کنترل می شود. بنابراین، در صورت نیاز باید فرضیه ای بر روی X$ فرموله کرد. *توجه: این سوال به کاهش ابعاد از طریق تکنیک رگرسیون معکوس برش مربوط می شود. همچنین به تجزیه و تحلیل حساسیت مربوط می شود، زیرا $\text{var}[\text{E}(Y|X)]$ شمارهگذار شاخص Sobol است (به طور شگفتانگیزی، برچسب «تجزیه و تحلیل حساسیت» وجود ندارد -- اگر کسی با شهرت کافی این را بخواند، ممکن است بخواهد آن را بسازد.* | پیوند بین رگرسیون رو به جلو و معکوس ($\text{E}(X|Y)$ و $\text{E}(Y|X)$ ;$ \text{var}[\text{E}(X|Y) ]$ و $\text{var}[\text{E}(Y|X)]$) |
77507 | من یک سوال کلی دارم، احتمالاً ساده، اما تا به حال نتوانستم پاسخ قاطعی پیدا کنم. فرض کنید من یک مورد ساده از یک مدل خطی عمومی با یک متغیر پیشبینی کننده طبقهبندی دارم که دارای 3 سطح است. این مربوط به یک ANOVA یک طرفه با 3 گروه است. سپس مدل خطی خواهد بود: $Y_i = \beta_0 + \beta_1X_1 + \beta_2X_2$ من از کدهای کنتراست استاندارد هلمرت زیر (I, II) برای سه گروه A, B, C استفاده می کنم: A B C I -2 1 1 II 0 - 1 1 بر اساس این کدهای کنتراست، **آیا وقفه مدل خطی نشان دهنده میانگین تمام میانگین های گروه خواهد بود؟ به طور کلی تر، آیا این همیشه در مورد متغیرهای کد کنتراست Helmert، ** صرف نظر از تعداد متغیرهای پیش بینی کننده یا سطوح متغیر، صدق می کند؟ بدیهی است که رهگیری مقدار پیشبینیشده را نشان میدهد، زمانی که همه متغیرهای پیشبینیکننده (در این مورد X_1$ و $X_2$) برابر با صفر باشند، اما من نمیتوانم بفهمم که آیا این میانگین میانگین گروه را نشان میدهد یا خیر. | تفسیر رهگیری در کدگذاری هلمرت |
61025 | من شنیده ام که می گویند مطالعات طولی و مقطعی اشکالی از مطالعات مشاهده ای هستند. **چرا نمی توان مطالعات طولی و مقطعی را «مطالعات کنترل شده» در نظر گرفت؟** با تعاریفی که دارند، فکر می کنم می توانند. | آیا می توان مطالعات طولی و مقطعی را «کنترل» کرد؟ |
95226 | این یک سری از داده هایی است که من مشاهده می کنم: 1، 1، 1، 1، 0، 1، 1، 1، 1، 0، 1، 1، 1، 1، 1، 0، 1، 1، 1، 1، 1، 1 چگونه می توانم از ریاضیات برای پیش بینی اینکه آیا عدد بعدی در سری یک یا 0 خواهد بود استفاده کنم؟ | چگونه از ریاضی برای پیش بینی عدد بعدی در سری استفاده کنم؟ |
26539 | این فقط یک مثال است که من چندین بار با آن برخورد کرده ام، بنابراین هیچ داده نمونه ای ندارم. اجرای یک مدل رگرسیون خطی در R: a.lm = lm(Y ~ x1 + x2) `x1` یک متغیر پیوسته است. «x2» مقولهای است و دارای سه مقدار است. کم، متوسط و بالا. با این حال خروجی داده شده توسط R چیزی شبیه به: summary(a.lm) Estimate Std. خطای t مقدار Pr(>|t|) (فاصله) 0.521 0.20 1.446 0.19 x1 -0.61 0.11 1.451 0.17 x2Low -0.78 0.22 -2.34 0.005 x2Medium -0.50 -0.50 I نوعی کدگذاری ساختگی را بر روی چنین عواملی معرفی می کند ('x2' یک عامل است). من فقط میپرسم، چگونه مقدار x2 بالا را تفسیر کنم؟ به عنوان مثال، x2 های بالا چه تاثیری بر متغیر پاسخ در مثال ارائه شده در اینجا دارد؟ من نمونه هایی از این را در جای دیگری دیده ام (مثلاً اینجا) اما توضیحی پیدا نکرده ام که بتوانم آن را بفهمم. | مقدار متغیر طبقه بندی رگرسیون خطی R مخفی. |
50466 | خوب، بنابراین من یک کد کار میکنم تا کاری را که میخواهم انجام دهم، اما من در R جدید هستم و احساس میکنم راهحل من بسیار بد است و احتمالاً راه کارآمدتری برای به دست آوردن همان نتیجه وجود دارد. من مجموعه ای از داده ها را دارم که حاوی رکوردهایی با تاریخ، شهر و امتیاز کیفیت است. برای هر شهر و هر تاریخ، میخواهم یک میانگین وزنی نمایی از امتیازهای کیفی قبلی آن شهر ایجاد کنم. (تاریخ اول برای هر شهر هیچ داده قبلی ندارد، بنابراین همیشه NA خواهد بود.) راه حل من چارچوب داده اصلی را گسترش می دهد و میانگین را در یک پاس محاسبه می کند. کار می کند اما من آن را کمی ناکارآمد می بینم و گسترش چارچوب داده می تواند با داده های بزرگ مشکل ساز باشد. از آنجایی که من در R جدید هستم، دوست دارم رویکردهای دیگری را بشنوم که نتیجه نهایی یکسانی داشته باشند. کد من اینجاست: #load در data mydata <- structure(list(date = structure(c(15513, 15507, 15476, 15439, 15442, 15435, 15419, 15410, 15508, 154464, = class )، شهر = ساختار (c(2L، 2L، 2L، 2L، 3L، 3L، 3L، 3L، 1L، 1L، 1L)، .Label = c(MIA، PHX، POR) class = factor کیفیت = c(3.5، 6.7، 5.2، 3.9، 2.6، 7.7، 2.4، 4.7، 3.5، 2.6، 1.8))، .Names = c(تاریخ، شهر، کیفیت)، row.names = c(NA، -11L)، کلاس = data.frame) #تثبیت تاریخ data mydata$date <- as.Date(mydata$date, %d%b%Y) #ایجاد شناسه منحصر به فرد برای هر رکورد mydata$id <- paste(mydata$city, as.numeric(mydata$date), sep='_') #expand the data mydata_expanded <- expand.grid(x=mydata$id, y=mydata$id) mydata_expanded$cityX <- substr (mydata_expanded$x,start=1,stop=3) mydata_expanded$cityY <- substr(mydata_expanded$y,start=1,stop=3) mydata_expanded <- mydata_expanded[mydata_expanded$cityX==mydata_expanded$cityY,] mydata_expanded$dateX <- substr(mydata_expanded=0,stop=1) mydata_expanded$dateY <- substr(mydata_expanded$y,start=5,stop=10) mydata_expanded <- merge(mydata_expanded، mydata، by.x=c(y)، by.y=c(id)) mydata_expanded$dateX <- as.Date(as.numeric(mydata_expanded$dateX), origin=1970-01-01) mydata_expanded$dateY <- as.Date(as.numeric(mydata_expanded$dateY), origin=1970-01-01 ) mydata_expanded <- mydata_expanded[mydata_expanded[,5]>mydata_expanded[,6],] mydata_expanded <- mydata_expanded[order(-as.numeric(mydata_expanded$dateX))،] #ایجاد متغیرهای مورد نیاز برای محاسبه نمایی <mepanansedda$ta_day - mydata_expanded$dateX - mydata_expanded$date mydata_expanded$w <- exp(-as.numeric(mydata_expanded$dayssince)/60) mydata_expanded$wQuality <- mydata_expanded$quality * mydata_expand_ed aggregate(mydata_expanded$w,by=data.frame(mydata_expanded$dateX, mydata_expanded$city),sum,na.rm=T); sum_wQuality <- aggregate(mydata_expanded$wQuality,by=data.frame(mydata_expanded$dateX, mydata_expanded$city),sum,na.rm=T) mydata_quality <- merge(sum_w,sum_wQuality,datadateex(edmy ، mydata_expanded.city)) #محاسبه میانگین وزنی نمایی واقعی mydata_quality$ewQuality <- mydata_quality$x.y/mydata_quality$x.x #ادغام داده ها به دیتافریم اصلی و پاکسازی داده های ما <- merge(mydata,mydatax_quality_. =c(تاریخ، شهر)، by.y=c(mydata_expanded.dateX,mydata_expanded.city),all.x=TRUE) mydata$id <- NULL mydata$x.x <- NULL mydata$x.y <- NULL mydata$ewQuality <- signif( mydata$ewQuality,digits=4) mydata <- mydata[with(mydata, سفارش (شهر))، ] | آیا راه حل دقیق تری برای میانگین وزنی نمایی در R وجود دارد؟ |
111579 | من سعی میکنم مدلی را با استفاده از رگرسیون دوجملهای منفی تخمین بزنم، اما مطمئن نیستم که چگونه خوب بودن تناسب را برای مدل خود ارزیابی کنم. من می خواهم مدل دوجمله ای منفی را با مدل پواسون مقایسه کنم. من تقریباً 4000 دلار نقاط داده دارم. پیشنهادی دارید؟ با تشکر | نحوه ارزیابی خوبی تناسب برای رگرسیون دو جمله ای منفی |
52829 | چرا آمار آزمون یک آزمون نسبت درستنمایی توزیع شده کای دو است؟ $2(\ln \text{ L}_{\rm alt\ model} - \ln \text{ L}_{\rm null\ model} ) \sim \chi^{2}_{df_{\rm alt} -df_{\rm null}}$ | چرا یک آزمون نسبت درستنمایی توزیع شده کای دو است؟ |
22628 | من در مورد ساختار پایگاه داده طرحواره ستاره ای (یا ابعادی) مطالعه کرده ام، که تمام اندازه گیری ها را در جدول حقایق اصلی، و تمام زمینه آن اندازه گیری ها را در جدول بعد مرتبط با جدول حقایق قرار می دهد (من کار وحشتناکی انجام می دهم. شغلی که این را توضیح می دهد)، به طوری که می توانید هر اندازه گیری را با شرطی کردن بعد جستجو کنید. وقتی در مورد این مطلب خواندم، به نظرم راهی عالی برای جمعآوری فایلهای csv مختلف با ستونهای مختلف در یک فروشگاه بود... به عنوان مثال، دادههای سهام، کالاها و گزینهها در فایلهای مختلف در یک db با طرح ستارهای قرار میگیرند. یک جدول حقایق حاوی باز/بستن/بالا/کم/حجم، با پیوندهای کلیدی خارجی به ابعادی مانند زمان، شرکت، مبادله، و شجره نامه به طوری که ما بدانیم هر ورودی از کجا می آید این به شما این امکان را میدهد که مثلاً برای شرکتهای استخراج چینی در سه ماهه اول با یک عبارت sql نسبتاً ساده پرس و جو کنید. با این حال، به نظر میرسد که تمام ادبیات مربوط به این موضوع برای استقرار «شرکتی» در مقیاس بزرگ باشد و نه تحلیل دادههای کوچک یا مشاغل تحقیقاتی. آیا کسی تجربه ای در سازماندهی داده های خود به این روش دارد؟ آیا راه ساده تری وجود دارد؟ | آیا کسی از پایگاه داده های ستاره-شما برای جمع آوری و سازماندهی داده های خود استفاده می کند؟ |
77503 | من تست Box را برای برابری ماتریس های کوواریانس انجام می دهم و باید log(det(S1)) و log(det(S2)) را محاسبه کنم، که در آن S1، S2 نمونه های ماتریس کوواریانس با تعیین کننده تقریباً صفر هستند. چگونه می توانم S1 و S2 را برای به دست آوردن تعیین کننده غیر صفر بهبود دهم؟ من داده های 24 بعدی با 14 مشاهده دارم. متشکرم | چگونه لگاریتم تعیین کننده صفر ماتریس کوواریانس را محاسبه کنیم؟ |
26537 | تأیید اعتبار بوت استرپ/نمونهگیری مجدد اعتبارسنجی متقابل برای من جدید است، اما با پاسخ به این سوال مورد بحث قرار گرفت. من جمعآوری میکنم که شامل 2 نوع داده است: دادههای واقعی و دادههای شبیهسازی شده، که در آن مجموعه دادهای از دادههای شبیهسازی شده از دادههای واقعی با نمونهگیری مجدد با جایگزینی تولید میشود تا زمانی که دادههای شبیهسازیشده به اندازه دادههای واقعی باشند. من می توانم به دو رویکرد برای استفاده از این نوع داده ها فکر کنم: (1) مدل را یک بار برازش دهید، آن را بارها در بسیاری از مجموعه داده های شبیه سازی شده ارزیابی کنید. (2) با استفاده از هر یک از مجموعه داده های شبیه سازی شده، مدل را چندین بار برازش دهید، هر بار آن را با داده های واقعی ارزیابی کنید. کدام (اگر یکی) بهترین است؟ | رویه «تأیید اعتبار بوت استرپ» (معروف به «نمونهگیری مجدد اعتبارسنجی متقابل») چیست؟ |
61023 | آیا $||Y-X\beta||_2^2 + \lambda\beta^T K\beta$، تابع ضرر استاندارد در رگرسیون ریج هسته است یا متفاوت است؟ همچنین، آیا هسته گاوسی یک انتخاب استاندارد برای هسته است، در عمل؟ اگر نه، کدام هسته ها بیشتر از نه استفاده می شوند؟ همچنین، آیا $\lambda$ تنها پارامتری است که از طریق اعتبارسنجی متقاطع تنظیم می شود یا پارامتر هسته مانند $\sigma$ در هسته گاوسی، در عمل نیز از طریق اعتبارسنجی متقاطع تنظیم می شود؟ لطفاً درک من از رگرسیون کرنل ریج را تأیید و/یا تصحیح کنید! | ضرر برای رگرسیون کرنل ریج |
66554 | من کارهای مرتبط با NLP را انجام می دادم که شامل آموزش یک مدل مخفی مارکوف و استفاده از مدل برای تقسیم جملات است. برای هر جمله، نشانه ها را به بردارهای ویژگی ترجمه می کنم. ویژگی ها به صورت دستی توسط من انتخاب می شوند و من فقط می توانم به 20 ویژگی به طور موقت فکر کنم. همه ویژگی ها باینری هستند. بنابراین یک نمونه بردار ویژگی در مورد من اینگونه خواهد بود: [0، 0، 1، 1، 0…] هنگام آموزش HMM (یادگیری نظارت شده با تخمین حداکثر احتمال)، من بردار ویژگی باینری را به عدد صحیح تبدیل می کنم و از اعداد صحیح استفاده می کنم. به عنوان مشاهدات در HMM. سوال من این است که اگر ابعاد بیشتری از ویژگیها داشته باشم، مثلاً 100 ویژگی، ممکن است هنگام آموزش HMM، نگاشت بردارهای ویژگی به اعداد صحیح ممکن یا کارآمد نباشد. اگر ویژگی ها باینری نباشند چه می شود. راه حل ها/بهترین روش های رایج برای این مشکلات چیست؟ P.S. من تحقیقاتی انجام دادم و متوجه شدم که یک راه حل این است که از K-Means برای یافتن خوشه هایی از بردارهای ویژگی استفاده کنیم و هر خوشه را به عنوان یک مشاهده واحد در HMM در نظر بگیریم (همچنین به عنوان کوانتیزاسیون برداری نیز شناخته می شود). اما به نظر من بهترین راه حل نیست. | چگونه بردار ویژگی با ابعاد بالا را در مدل نمودار احتمال مدیریت کنیم؟ |
66555 | من روی دو مدل زیر کار میکنم Logit: نتیجه باینری $y$ ($y=1$ اگر برای برنده شدن آیتم بیشتر از مقدار مورد پرداخت شود، در غیر این صورت $y=0$) $$ y=b_0+x_1b_1+x_2b_2+x_3b_3. $$ OLS: متغیر وابسته پیوسته $z$ (میزان اضافه پرداخت) $$ z=b_0+x_1b_1+x_2b_2+x_3b_3+e. $$ سوالات من: 1. آیا لازم است این دو مدل را به طور مشترک (به جای جداگانه) تخمین بزنم زیرا متغیرهای وابسته به نظر مرتبط هستند؟ 2. اگر تخمین مشترک ضروری است، از کدام روش (یا بسته در Stata) باید استفاده کنم؟ رگرسیون به ظاهر نامرتبط suest؟ 3. نظر دیگری از نظر روش شناسی وجود دارد؟ | روشی برای تخمین مشترک مدل های Logit و OLS |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.