_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
31632 | متون فراوانی در مورد مدلهای VAR وجود دارد که نحوه آزمایش پیششرطها، مشخص کردن و تخمین مدلهای VAR را برای سریهای زمانی ثابت و همچنین همانباشته میآموزد. با این حال، من هنوز در مورد معنای پارامترهای مدل کمی گیج هستم. یعنی ضرایب $\phi_{ijk}$ فی-ماتریس در مدل استاندارد VAR(p): $\boldsymbol{x}_t = \Phi_1 \boldsymbol{x}_{t-1} + \dots + \Phi_k \boldsymbol{x}_{t-k} + \dots + \Phi_p \boldsymbol{x}_{t-p}+ \boldsymbol{\epsilon}_t$ از آنچه من میدانم، در حالت تک متغیره، ضریب $\phi_{11,k}$ تخمینی از PAC ارائه میکند (همبستگی خودکار جزئی) از $k$-th تاخیر $x_t$. من میدانم که این همبستگی (خودکار) x_t$ با $k$-th تاخیر $x_{t-k}$ آن است، در حالی که همه همبستگیهای دیگر $\phi_{11,t-l}$ با $l \ne k$ برای کنترل می شوند. 1. چیزی که من در مورد آن واضح نیستم این است که چگونه ضرایب $\phi_{ijk}$ را در حالت چند متغیره کلی تر تفسیر کنم: با در نظر گرفتن یک مدل VAR(p) دو متغیره، آیا $\phi_{11k}$ همچنان یکسان است. تفسیری که در حالت تک متغیره وجود دارد یا اکنون انجام می دهد، در واقع نشان دهنده همبستگی جزئی (خودکار) x_t$ با $k$-th تاخیر آن است. $x_{t-k}$، زمانی که همه همبستگیهای دیگر $\phi_{11,l}$, $\phi_{12,l}$ و $\phi_{21,l}$ ($l \ne k$) هستند کنترل شده برای؟ اگر واقعاً، آن همبستگیهای دیگر برای تأخیرهای $l \ne k$ کنترل میشوند، در مورد همبستگی $\phi_{12,k}$ با تأخیر مشابه $\phi_{11k}$، آیا برای آن کنترل میشود. خوب 2. همچنین به همبستگی های جزئی بین همه اجزای $\boldsymbol{x}_t$ بدون تاخیر زمانی علاقه مند هستم، بنابراین در حالت دو متغیره بین $x_{1,t}$ و $x_{2,t}$ پس از کنترل همه همبستگی های عقب افتاده. این در اصل باید توسط $\Sigma_{\boldsymbol{\epsilon}}=\text{Cov}(\boldsymbol{\epsilon}_t)$ داده شود. اینجا چیزی از دست دادم؟ 3. یک روش خوب (استاندارد) برای تعیین اهمیت همبستگی های جزئی در این تنظیمات (با و بدون تاخیر زمانی) چیست؟ پیشینه سوالات من این است که من مجموعه داده ای از 12 سری زمانی دارم که از تعاملات زوجی (6 سری برای هر نفر) نشات می گیرد. من می خواهم سری ها را بررسی کنم (طول کل = 180)، که نشان دهنده متغیرهای عاطفی هستند که به طور فرضی با یکدیگر مرتبط هستند. یک راه ساده برای به دست آوردن یک نمای کلی از ساختار دینامیکی سیستم دوتایی به عنوان یک کل، تخمین همبستگی جزئی بین سری ها (با و بدون تاخیر) است. برای جلوگیری از همبستگی های جعلی، من در واقع از تکنیک های هم انباشتگی استفاده می کنم، بنابراین یک ECM(p) به دست می آوریم، که سپس می تواند به عنوان VAR(p) فرموله شود. من فرض می کنم که $p=2$ برای سیستم مورد نظر کافی باشد. | چند سوال در مورد مدلهای VAR، ضرایب ماتریس $\Phi$ و همبستگیهای جزئی (خودکار) |
103734 | در R، معمولاً یک مدل افزایشی تعمیم یافته مانند این را انجام می دهید: library(mgcv) x <- gam(depvar ~ s(indvar1) + s(indvar2) + parametricvar) بگویید من می خواهم تعامل ناپارامتریک «indvar1» را بررسی کنم. و indvar2. آیا کوشر زیر است؟ آیا در پیاده سازی چنین مدلی مسائلی از نظر اعتبار آماری وجود دارد؟ x <- gam(depvar ~ s(indvar,indvar2) + parametricvar) | آیا نگرانی هایی در مورد انجام یک مدل افزایشی تعمیم یافته با عبارت هموارسازی متغیرهای متعدد وجود دارد؟ |
31636 | چگونه تعیین می کنید که آیا درصد رشد بین دو دوره زمانی از نظر آماری معنادار است؟ به عنوان مثال، کل جمعیت در سال 2000، 180000 نفر بود. ده سال بعد به 220000 افزایش یافت. چگونه تشخیص می دهید که این رشد 22 درصدی قابل توجه بوده است؟ به همین ترتیب، گروه A (6000 نفر) در سال گذشته 50000 پوند درآمد کسب کردند. گروه B (9000 نفر) 65000 پوند درآمد کسب کرد. آیا سود 50 درصدی گروه B نسبت به گروه A از نظر آماری معنادار است؟ | اهمیت آماری تغییر جمعیت |
39194 | صبح بخیر، با مقایسه دندروگرام های تولید شده توسط شی **clustergram** و رویکرد دستی یعنی **pdist** -> **linkage** -> **dendrogram** متوجه شدم که آنها متفاوت هستند، اما نمی توانند توضیحی برای این تفاوت پیدا کنید. مستندات Clustergram میگوید که فاصله پیشفرض استفاده شده **'Euclidean'** و روش پیوند پیشفرض **'Average'** است، همان پارامترهایی که برای توابع **pdist** و **linkage** استفاده کردم. من فکر کردم که ممکن است با **استانداردسازی** انجام شده توسط **clustergram** مرتبط باشد، بنابراین از zscore برای استانداردسازی ابتدا ماتریس خود و سپس هر ستون به طور جداگانه استفاده کردم، اما دندروگرام ها هنوز در مقایسه با آنچه توسط * تولید می شود متفاوت است. *کلاسترگرام**. آیا کسی می تواند دلیل این تفاوت را توضیح دهد، و چگونه می توانم از رویکرد دستی برای گرفتن همان دندروگرام استفاده کنم؟ پیشاپیش سپاس فراوان ویرایش: نتایج به دست آمده از روش دستی را با نتایج **SPSS** مقایسه کردم و آنها یکسان هستند. همچنین همه گزینههای مختلف ** 'پردازش داده'** را با **clustergram** آزمایش کردم، اما دندروگرام همچنان متفاوت است. | دندروگرام ها با استفاده از کلاسترگرام در مقابل روش های سنتی در Matlab |
88470 | من در حال حاضر به SPSS حمله می کنم، و من فقط در حال تست نرمال بودن هستم... در آزمون آماری Shapiro-Wilk، متغیرهای وابسته من دارای طیف گسترده ای از سطوح معنی داری هستند. بدیهی است که من می دانم که نشانه. باید >0.05 باشد که اکثر متغیرها به غیر از 1 متغیر هستند. **آیا این بدان معنی است که همه داده های من ناپارامتریک هستند و باید از آزمایش دیگری استفاده کنم؟** * داده های من در زیر آمده است: **0.077**، 0.400، 0.169، 0.157. _به صورت پررنگ متغیری است که نرمال نیست_ | آیا همه متغیرهای وابسته من باید برای یک فرض ناپارامتریک نرمال باشند؟ |
40695 | من درگیر یک مطالعه تودرتو مورد-شاهدی هستم که شامل گروههایی از موارد و کنترلهایی است که وارد یک برنامه میشوند، با نتیجه شکست تا شش ماه. موارد و کنترل ها به صورت جداگانه در ماه / سال ورود مطابقت دارند. من تعداد زیادی (بیش از 10000) از هر دو را دارم. یک عامل خطر اولیه مورد علاقه دریافت تشخیص پزشکی (روانی، اسکلتی عضلانی، تنفسی) پس از ورود و قبل از 6 ماهگی است. من زمان فرد را در معرض خطر برای موارد و کنترل برای ایجاد این عامل خطر دارم، و می توانم به طور مستقیم تراکم بروز شروع عامل خطر را در هر گروه اندازه گیری کنم. **اکنون، برای پسزمینه:** خطر نسبی (RR) به این صورت تعریف میشود: $$ \frac{\left(\frac{N_\text{Cases exposur}}{N_\text{population exposur}}\right) }{\left(\frac{N_\text{cases unexposed}}{N_\text{population unexposed}}\right)}. $$ نسبت نرخ بروز (IRR) به صورت زیر تعریف میشود: $$ \frac{{\left(\frac{N_\text{Cases exposur}}{\text{Person-time Exposur}}\right)}}{\ left(\frac{N_\text{cases unexposed}}{\text{Person-time unexposed}}\right)}. $$ نسبت شانس (OR) به این صورت تعریف میشود: $$ \frac{N_\text{cases exposur}*N_\text{controls unexposed}}{N_\text{controls exposur}*N_\text{cases unexposed}} . $$ تحت فرض بیماری نادر OR تقریبی RR است. **سؤالات من:** آیا می توانم به طور معتبری نسبت شانس را با استفاده از زمان فرد گسترش دهم: $$ \frac{N_\text{cases exposur}*\text{Person-time unexposed}}{N_\text{controls exposur} *\text{Person-time Exposur}} $$ * برای تقریبی IRR؟ * اگر نه، چرا که نه و چه جایگزینی را پیشنهاد می کنید؟ * اگر بتوانم این کار را انجام دهم، آیا رگرسیون لجستیک مناسب خواهد بود؟ * چه رویکردهای تحلیلی دیگری را پیشنهاد می کنید؟ | آیا می توانم به طور معتبر نسبت شانس را به طور مشابه به رابطه بین خطر نسبی و نسبت نرخ بروز گسترش دهم؟ |
35820 | چگونه این را ثابت کنیم: **گزاره** اگر $F_n$ تابع توزیع یک متغیر تصادفی $\textrm{Bin}(n,p)$ باشد، برای هر $t$ ثابت واقعی، دنباله $\ \{F_n(t)\\}_{n=1}^\infty$ غیر افزایشی است. P.S. اینجا یک ویرایش سنگین بود. | توزیع تجمعی متغیر تصادفی دو جمله ای |
103862 | من روی یک مشکل پیشبینی کار میکنم که از مجموعه دادههای بالینی کم استفاده میکند. نرخ داده از دست رفته در محدوده 80٪ است. 1- من نمی دانم که آیا نمونه ای از کاربرد تکمیل ماتریس در مجموعه داده های بالینی یا سایر داده ها با چنین نرخ های گمشده وجود دارد؟ 2- Currenlty کاوش glmnet، pcaMethods و بسته های SoftImpute. من همچنین به دنبال بستههای R/روتینهای SAS هستم که بتواند چنین ماتریس دادههای بالینی پراکنده را مدیریت کرده و تکمیل ماتریس را انجام دهد. 3- میخواهم قابلیت اطمینان مقادیر تکمیلشدهام را ارزیابی کنم، آیا معیار یا امتیازی برای ارزیابی کیفیت تکمیل ماتریس وجود دارد؟ پیشاپیش متشکرم | رویکردهای تکمیل ماتریس برای کلان داده های مراقبت های بهداشتی |
4146 | هنگام توسعه یک نرم افزار سری زمانی با هدف عمومی، آیا ایده خوبی است که آن را در مقیاس ثابت کنیم؟ چگونه می توان این کار را انجام داد؟ من یک سری زمانی حدود 40 امتیاز گرفتم و سپس در فاکتورهای 10E-9 تا 10E3 ضرب کردم و سپس عملکردهای ARIMA Forecast Pro و Minitab را اجرا کردم. در Forecast Pro، همه به یک پاسخ (مدلسازی خودکار) منجر شدند، در حالی که در Minitab اینطور نبود. مطمئن نیستم که Forecast Pro چه کاری انجام می دهد، اما ممکن است قبل از اجرای مدل، تمام اعداد را تا یک مقیاس خاص (مثلا 100 ثانیه) افزایش یا کاهش دهند. آیا این ایده به طور کلی خوب است؟ | تحلیل متغیر مقیاس سری های زمانی |
4140 | من احساس میکنم که در این زمینه کاملاً تازه کار هستم، زیرا مدتی از آخرین تکلیف آماری من گذشته است، بنابراین لطفاً مرا تحمل کنید. من در حال تجزیه و تحلیل نتایج یک آزمایش بیولوژیکی هستم. اساسا، من به یک نمودار روی یک ژنوم نگاه می کنم، که در آن هر موقعیت در ژنوم یک مقدار دارد، و من به دنبال حداقل های محلی (قله ها) هستم. اکنون، من باید مقداری آستانه تعیین کنم زیرا حداقل های محلی نسبتاً بالا نیز به طور تصادفی رخ می دهند. من میتوانم آزمایش را به صورت محاسباتی شبیهسازی کنم و دادههای جدیدی دریافت کنم، اما این کاملاً نیازمند منابع است (من نمیتوانم 1000 شبیهسازی، شاید 100 یا حتی فقط 20 شبیهسازی را اجرا کنم). کاری که من در حال حاضر انجام می دهم اجرای برخی شبیه سازی ها است. برای هر شبیه سازی: تمام مینیمم های محلی را پیدا کنید، یک CDF برای حداقل های محلی بسازید. سپس تمام CDF های شبیه سازی را بر روی همه شبیه سازی ها میانگین می کنم، بنابراین یک CDF «متوسط» دارم (CDF_simulations) که قرار است نشان دهد اگر همه چیز در ژنوم من تصادفی باشد، حداقل های محلی چگونه توزیع می شوند. من همین کار را برای دادههای واقعی انجام میدهم: حداقلها را پیدا میکنم و برای مقادیرشان CDF میسازم، بنابراین اکنون دو CDF دارم - یکی برای دادههای واقعی و دیگری برای میانگین شبیهسازیها. من اکنون حداکثر x را جستجو می کنم به طوری که CDF_simulations(x) / CDF_realdata(x) < 10٪ باشد. من تمام حداقل های موجود در داده های واقعی را با مقدار < x به عنوان درست گزارش می کنم. من فکر می کنم این روش باید من را به نرخ FP 10٪ برساند. * آیا این منطقی است؟ * نام این روش چیست و از کجا می توانم اطلاعات بیشتری در مورد آن پیدا کنم؟ * چگونه باید CDF ها را اسکن کنم تا x مناسب را پیدا کنم؟ گاهی اوقات برای x کم CDF_simulations(x) > CDF_realdata(x). * تعداد شبیه سازی ها از کجا وارد بازی می شود؟ آیا ساختن یک CDF متوسط مانند من منطقی است؟ فکر میکنم این کاملاً رایج است، و نام FDR نیز به ذهنم خطور میکند، اما وقتی در مورد FDR مطالعه میکردم دقیقاً نمیتوانستم بفهمم که چگونه آن را در موقعیتم اعمال کنم. هر گونه نظر و مرجع (امیدوارم آنهایی که کاربر پسند) قدردانی خواهد شد! ممنون دیو | چگونه می توانم نرخ مثبت کاذب را کنترل کنم؟ |
39199 | من از یادداشت های سخنرانی خود خواندم که همبستگی پیرسون را می توان به صورت $\frac{s_{xy}}{s_xs_y}$ محاسبه کرد. اگر مقدار محدودی از نقاط داده $(x_i,y_i),i=1,\ldots,n$ به من داده شده است، چگونه می توانم همبستگی پیرسون را با استفاده از فرمول $\tfrac{s_{xy}}{s_xs_y}$ محاسبه کنم ? من موفق شدم که $s_{xy}=\dfrac{\sum_{i=1}^n (x_i-\bar{x})(y_i-\bar{y})}{n-1}$ را پیدا کنم، اما من فرمول مشابهی برای $s_x$ و $s_y$ پیدا نکرد. | $s_x$ در همبستگی پیرسون چیست؟ |
103798 | من می خواهم یک GAM را در R قرار دهم. داده های من دوجمله ای منفی هستند. به علاوه آنها یک خودهمبستگی زمانی دارند. m1 <- gam(Y~s(X,Day), s(fDate, bs=re), family=negbin(c(1,10), link = log), data=data) Resid <- resid( m1) acf(Resid) با تابع acf() یک خودهمبستگی زمانی را شناسایی کردم. آیا می توانم یک ساختار همبستگی را در `gam()` اعمال کنم، یا باید از `gamm()` استفاده کنم، زیرا در `gamm()` نمی توانم از یک تابع دوجمله ای منفی استفاده کنم، یا آیا با آن کار اشتباهی انجام می دهم. ? آیا اساساً می توان یک خانواده دوجمله ای منفی را در «gamm()» به این شکل اعمال کرد؟ m2 <- گام (Y~s(X,Day)، تصادفی=لیست(تاریخ=~1)، خانواده=negbin(c(1,10)، پیوند = گزارش)، همبستگی=corAR1(شکل=~روز)، داده=داده) | GAM با خودهمبستگی دوجمله ای و زمانی منفی |
103866 | ما در حال جمعآوری آماری از سیستم صفبندی و پردازش هستیم که بخشی از کسبوکار ما را تامین میکند. ما چندین سرور داریم که موارد را در یک صف پردازش می کنند. ما اخیراً سرورهای جدیدی اضافه کردهایم و میخواهیم بدانیم که آیا در حال پردازش سریعتر هستیم یا خیر. منظور من از پردازش سریعتر چیزی شبیه به این است: > هفته گذشته، همه سرورهای ما میانگین ترکیبی X فایل در دقیقه > را در زمان اوج بار ما پردازش کردند. این هفته، همه سرورهای ما ترکیبی > میانگین فایل Y در دقیقه را در زمان اوج بار پردازش کردند. آیا X و Y به اندازه کافی متفاوت هستند که از نظر آماری معنی دار باشند؟ داده هایی که من به آنها دسترسی دارم چیزی شبیه به این نمودار است که تعداد فایل های پردازش شده در هر ثانیه را برای یک دوره زمانی یک ساعته نشان می دهد. من به حدود 3 ماه از این نوع داده ها دسترسی دارم.  من در آمار مینور دارم، اما 10 سال از تحصیل خارج شده ام. پس لطفا مهربان باشید :-) خیلی ممنون! آلن | آیا پردازش صف ما سرعت بیشتری دارد؟ |
100441 | من یک چند جمله ای به شکل $K^2((a-i)^2 + (b-j)^2 + c^2) = (ct)^2$ دارم که $a,b,c,t$ مجهول هستند. من چندین نقطه مشاهده برای مقادیر $i,j,\&\ K$ دارم. * آیا می توانم از تکنیکی برای یادگیری مقادیر $a,b,c,\&\ t$ از اینها استفاده کنم؟ * آیا برخی از تکنیک های یادگیری ماشین می تواند در این مورد به من کمک کند؟ * آیا رگرسیون غیرخطی در اینجا کمک کننده خواهد بود؟ من در یادگیری ماشینی تازه کار هستم و درک عمیقی از آن ندارم. با تشکر | آموزش یک چند جمله ای چند متغیره با ضرایب وابسته |
31633 | من آزمایشی را برای بررسی پاسخ یک مخمر (که حاوی 5000 ژن است) به استرس ناشی از شوک گرمایی انجام داده ام. من یک لیست از 48 ژن دارم که در دمای 37 درجه سانتیگراد بیش از حد بیان می شوند و لیست دیگری از 145 ژن که در دمای 42 درجه سانتیگراد بیش از حد بیان می شوند. 38 ژن وجود دارد که در هر دوی آنها بیش از حد بیان می شود. به طور تصادفی من انتظار داشتم که فقط 1 ژن در هر دوی آنها بیش از حد بیان شود، چگونه می توانم محاسبه کنم که همپوشانی که به دست آورده ام به طور قابل توجهی است؟ چگونه می توانم مقدار $p$ را بدست بیاورم؟ من چیزی در مورد آمار زیستی یا نرم افزار ریاضی نمی دانم. خیلی ممنون!!! هر کمکی بسیار استقبال خواهد شد :) | آیا همپوشانی بین دو نمونه بیان ژن قابل توجه است؟ |
87712 | **مقدمه کوتاه** در یک مسئله طبقه بندی، هدف این است که بر اساس مجموعه ای از مثال ها که عضویت در دسته بندی آنها مشخص است، یک مشاهده جدید به کدام یک از دسته بندی ها تعلق دارد. نکته اصلی هر راهحلی برای این مشکل، یافتن مجموعهای از ویژگیها است که طبقهبندی نمونهها را به دستههای مربوطه (فرضیه) توصیف میکند. وقتی اندازه مجموعه دستهها بزرگ است، به اطلاعات بیشتری برای تمایز بین دستههای مختلف نیاز داریم (به عنوان مثال، میتوانیم به دنبال ویژگیهای بیشتری باشیم). همچنین، اگر نمونههای یک دسته خاص دارای واریانس بالایی باشند (واریانس درون کلاسی)، به دلیل وجود برخورد بین اعضای طبقات مختلف، یافتن ممیز دشوارتر است. **سوال** میخواهم بدانم آیا روش اکتشافی سریعی برای ارزیابی مشکل یادگیری وجود دارد یا خیر. به عنوان مثال، من می خواهم تعداد برخوردهای بین دسته های مختلف را ارزیابی کنم. مشکل آموزش طبقه بندی کننده و انجام نوعی اعتبارسنجی متقابل این است که راه حل به انتخاب مدل یادگیری بستگی دارد. | ارزیابی برخوردها در مسائل طبقه بندی |
103869 | آیا معیاری آماری برای دادههای سری زمانی غیرخطی وجود دارد که با مقدار $R^2$ در رگرسیون خطی قابل مقایسه باشد (که ایده خوبی از تناسب ارائه میدهد)؟ داده ها یکنواخت نیستند، بنابراین من نمی توانم از $\rho$ اسپیرمن استفاده کنم. و خطی نیست، بنابراین $\rho$ پیرسون در اینجا نیز معتبر نیست. داده ها به شکل زیر به نظر می رسند (اغلب کاهش یکنواخت است. اما از آنجایی که در سال یازدهم افزایش یافته است، کاملاً یکنواخت نیست):  در اینجا منحنی نمایی متناسب (به رنگ آبی) و داده اصلی (قرمز) آمده است Qqplot اینجاست: (به نظر نمی رسد مناسب باشد اگرچه باید خوب باشد یکی به خاطر تصویر بالا؟)  | مطابقت $R^2$ برای سری های زمانی غیرخطی |
100448 | ماشین های بردار پشتیبان طبقه بندی باینری را انجام می دهند. اگر بیش از دو کلاس وجود داشته باشد، می توان به جای یک کلاس چند کلاسیفایر آموزش داد. دو رویکرد متداول عبارتند از آموزش طبقهبندیهای _one در مقابل یک_ (هر کلاس در برابر همدیگر) و _one در مقابل همه_ (هر کلاس در برابر همه کلاسهای دیگر). بگویید که من حجم نمونه نسبتاً کوچکی دارم، به عنوان مثال. N=200. آیا من داده ها را به مجموعه های آموزشی و آزمایشی به طور جداگانه برای هر طبقه بندی کننده تقسیم می کنم؟ | مجموعه آموزشی برای SVM های چند کلاسه چگونه ساخته می شود؟ |
35824 | لطفاً یک پاسخ واضح، ساده و توضیحی بدهید که هر 7 ساله بتواند آن را بفهمد. همچنین می توانید به یک راهنمای رگرسیون که بسیار خوب و ساده است پیوند دهید. در تمام طول مسیر باید کاملاً توضیحی باشد. این چیزی است که باعث می شود یک نوشته خوب، نه بد، از آن یاد بگیریم. برخی از سؤالات فرعی در سؤال اصلی من عبارتند از: * هدف از رگرسیون چیست؟ * چرا به آن نیاز داریم؟ * چه کار می کند؟ * اگر وجود دارد، در کدام دسته بندی ریاضی قرار می گیرد؟ * آیا می توانید از یک ماشین حساب در وب برای محاسبه خودکار رگرسیون استفاده کنید؟ چه سایت خوبی است که این ماشین حساب یا نرم افزار را برای دانلود و انجام این عملکرد داشته باشد * نتیجه یک رگرسیون به شما چه می گوید؟ یا فرض کنید به شما بگویم؟ سؤالات پرسیده شده که مستقیماً با این سؤال اصلی مرتبط هستند: * تحلیل رگرسیون چگونه به درک چگونگی تغییر مقدار معمولی متغیر وابسته کمک می کند؟ * http://stats.stackexchange.com/questions/35831/what-does-it-mean-when-it-seys-with-respect-to-a-conditional-probability-distri * تحلیل رگرسیون دقیقاً چه چیزی را تخمین می زند؟ | رگرسیون به 7 سالگی را توضیح دهید |
35823 | اجازه دهید $g(x)=1$ اگر $x \leq c$ و $g(x)=(1-x)/(1-c)$، که $0 \leq x \leq 1$ و $0 <c < 1 دلار بنابراین $g$ یک تابع غیرافزاینده است. $g^{-1}(y)=\inf\\{0 \leq x \leq 1 \mid g(x) \leq y\\}$ را تعریف کنید. اکنون $X$ یک متغیر تصادفی است که مقادیر $0، 0.1، 0.2، \ldots، 1$ را می گیرد. آیا درست است که $$ \mathbb P(g(X) \leq b) = \mathbb P(g^{-1} g(X) \geq g^{-1}(b)) \leq \mathbb P (X \geq g^{-1}(b)) \,? $$ | توزیع احتمال برای تبدیل یک متغیر تصادفی |
103867 | اول، کمی پیش زمینه: من در حال حاضر روی پروژه ای کار می کنم که داده های عرض متغیر تولید می کند. در طول صلاحیت عملیات، من مجموعه ای از داده ها را در سطوح پایین، اسمی و بالا جمع آوری کردم. همه دادهها مستقل هستند و من هیچ دلیلی ندارم که انتظار داشته باشم چیزی جز توزیعهای یکسان از بخش به قسمت وجود داشته باشد، زیرا فرآیند با تغییرات جزئی پارامتر (مثلاً فشار و سرعت) یکسان است. اکثریت (15 از 18 جمعیت نمونه) اندرسون-دارلینگ را قبول کردند، اما تعداد کمی از مجموعه داده ها این کار را نکردند. مهندس کیفیت من از من می خواهد که یکی از این مجموعه داده ها را تغییر دهم و از توزیع Weibull (که مقدار P 0.079 را نشان می دهد) استفاده کنم فقط به این دلیل که یک همبستگی جزئی وجود دارد. برای روشن شدن، هدف انجام تجزیه و تحلیل قابلیت فرآیند برای هر مجموعه داده است. سوال(های) من: آیا تغییر کورکورانه داده ها با وجود اینکه من دلیلی ندارم اشکالی ندارد؟ همیشه به من آموختهاند که اگر دادههای مستقل و یکسانی داشته باشید که قضیه حد مرکزی به شما امکان میدهد تحلیل قابلیت روی دادهها را به گونهای عادی انجام دهید، آیا این نادرست است؟ | آیا برای تبدیل داده های غیر عادی نیاز به توجیه دارید؟ |
39192 | آیا مطالعات آماری یا اقتصادسنجی قبل از سال 2008 وجود دارد که بحران مالی 2008 را پیش بینی کرده باشد؟ توجه داشته باشید که برخی از نشریات وجود دارند که سعی در پیش بینی سرایت بین بازارها با استفاده از مفهوم copula از نظریه احتمال دارند. | آیا آمارگران بحران مالی 2008 را پیش بینی کرده بودند؟ |
103865 | این ممکن است کمی ابتدایی و احمقانه به نظر برسد، اما من در سراسر اینترنت جستجو کردم تا ببینم طول تاخیر IS چقدر است. من می خواهم یک تست EG ADF انجام دهم، اما برای ADF، همیشه از شما می خواهد که یک تاخیر مشخص شود. به نظر من هر زمان که طول تاخیر را بررسی می کنم، اکثر مردم فقط در تعیین اینکه چه چیزی باید باشد مشکل دارند. می خواهم بدانم طول تاخیر چیست؟ به چه معناست | طول تاخیر چیست؟ |
4142 | من دو آزمون آماری دارم که معکوس یکدیگر هستند، به این معنی که فرضیه صفر معکوس است. من می خواهم از هر دو آزمون برای تصمیم گیری استفاده کنم. برای این منظور قصد دارم موارد زیر را انجام دهم: * اگر هر دو آزمون به یک نتیجه اشاره می کنند (مثلاً با رد فرضیه صفر در آزمون A و رد نکردن فرضیه صفر در آزمون B یا برعکس)، آنگاه من ادامه دهید و آن تصمیم را بگیرید * از طرف دیگر، اگر نتایج دو آزمون متناقض باشند، من تفاوت p-value را از آلفا (مثلا 0.05) برای هر آزمون اندازه میگیرم و با یکی که بیشترین انحراف را دارد (من برخی از قوانین جداکننده دارم، اما اجازه دهید آن را اینجا بگذاریم) به نظر من منطقی است، اما آیا زمینه آماری در تفسیر مقادیر p مانند این وجود دارد؟ من مطمئناً قبلاً برنامه مشابهی ندیده ام (در مواجهه محدود من). ویرایش: اجازه دهید سوال را با زمینه و تست های واقعی بیشتر توضیح دهم. من در حال آزمایش ریشه های واحد در سری های زمانی هستم تا مشخص کنم که آیا سری نیاز به تفکیک دارد تا بتوان آن را میانگین-ایستا نشان داد. تست های خاص عبارتند از تست KPSS، با تهی بودن بدون ریشه واحد، و تست ADF با تهی بودن ریشه واحد وجود دارد. اگرچه فرضیه های صفر به هم مرتبط هستند (و معکوس هم هستند)، اما رگرسیون آزمون و آمار به نظر من کاملاً متفاوت است. | |
103868 | بنابراین در هر چیزی که من پیدا کردم، آنها به شما می گویند که باید $\rho$ را محاسبه کنید، یا چگونه فاصله اطمینان را برای آن آزمایش کنید. چیزی که من سعی می کنم بفهمم این است که چگونه SE را محاسبه کنیم که ارزش بحرانی ما را به دست می آورد، یعنی اگر $\rho$ 0.8 دریافت کنید. برای آزمایش آن، باید $(\rho-1)/(\text{SE}(\rho))$ را انجام دهید. برای روشن شدن، rho ضریب اصلی ما در مدل AR است، متغیر $(\rho-1)$ تبدیل شده نیست. در ادامه، چگونه می توان این $\text{SE}(\rho)$ را به صورت دستی دریافت کرد؟ | چگونه خطای استاندارد را در آزمون دیکی-فولر محاسبه می کنید؟ |
100030 | من یک سوال در مورد خوشه هایی دارم که در نظر دارم با رویکرد مخلوط ناپارامتریک آنها را درمان کنم (فکر می کنم). من روی توضیح رفتار انسان کار می کنم. هر ردیف از پایگاه داده من شامل: 1. شناسه شخصی 2. برخی از پارامترهای محیط _X_ (مثال: دما، باد و غیره) 3. یک متغیر باینری _Y_ که نشان دهنده واکنش فرد به پارامترها است (مثال: get بیمار است یا به دلیل آب و هوا بیمار نمی شود). ایده من (بر اساس شهود و نه بر اساس داده ها) این است که ما می توانیم افراد را در تعداد محدودی از گروه ها جمع آوری کنیم تا در یک گروه، افراد واکنش مشابهی نسبت به دما داشته باشند (بعضی به راحتی بیمار می شوند، برخی دیگر هرگز مریض نمی شوند...) . در یک گروه معین، به طور رسمی تر، قانون _Y_ مشروط به پارامترهای _X_ یکسان است. من هیچ ایده ای از قانون _Y_ مشروط به _X_ ندارم. برای پارامترهای _X_، در صورت لزوم می توانم فرضیه ای را انجام دهم. من می خواهم خوشه ای از افراد ایجاد کنم که کم و بیش واکنش مشابهی به پارامتر دارند. علاوه بر این، من می خواهم واکنش یک فرد معین را به مقدار معینی از پارامترها پیش بینی کنم (حتی اگر این رویداد هرگز در پایگاه داده اتفاق نیفتاده باشد). به نظر من میتوانیم با مشکل مانند یک مدل مخلوط ناپارامتریک برخورد کنیم. از آنجایی که من فرضیه ای در مورد قانون شرطی _Y_ ندارم، فکر می کنم باید آن را برای مثال با متد کرنل ایجاد کنم. من این مقاله را پیدا کرده ام. علاوه بر این، به نظر من در این مورد، هر ردیف از مشاهده $(X_i، Y_i)$ یک تحقق ساده از یک متغیر تصادفی نیست، اما $X_i$ تحقق یک متغیر تصادفی است، و $Y_i$ است. تحقق یک متغیر تصادفی مشروط به $X_i$. نمی دانم فرقی می کند یا نه. من حدود 100000 ردیف دارم. بردار $X_i$ دارای مولفه های گسسته است و برخی دیگر پیوسته هستند. من تعجب می کنم: * آیا رویکرد من صحیح است؟ * دیدگاه دیگری برای این مشکل پیشنهاد می کنید؟ من بسیار علاقه مند به هر مرجع در مورد آن هستم. دریغ نکنید که از من بخواهید بیانیه مشکل را دوباره فرموله کنم. | مدل مخلوط ناپارامتریک و خوشه ها |
100771 | من جدول زیر را دارم و میخواهم درجات آزادی این دادهها را پیدا کنم. آیا مقدار $k$ من از فرمول $n-k-1$ شامل متغیرهای ساختگی و «DIST^2» می شود. یعنی $k=7$ یا $3$، $4$، $5$، یا $6$؟ متغیر وابسته: روش LFARE: حداقل مربعات تاریخ: 02/28/13 زمان: 11:12 نمونه: 1 4596 مشاهدات شامل: 4596 Variable Coefficient Std. خطای C 4.770507 0.049427 LPASSEN -0.080157 0.005603 BMKTSHR 0.301573 0.029724 DIST 0.000719 3.27E-05 DIST^2 -9.6-2E 0.023120 0.013783 Y99 0.042357 0.013785 Y00 0.105950 0.013790 R-squared 0.428079 R-squared تنظیم شده 0.427206 | در این مدل از چند درجه آزادی استفاده شده است؟ |
91315 | با استفاده از تجزیه و تحلیل PCA، من توانستم 23 متغیر اولیه را به 10 جزء اصلی کاهش دهم. اما من نمی فهمم با این بینش چه کنم. منظورم این است که چگونه می توانم این اطلاعات را روی مجموعه دیگری از داده ها تأیید کنم؟ آیا راهی برای تشخیص اینکه کدام یک از مجموعه 23 متغیر اصلی مهمتر هستند وجود دارد تا در آینده مجبور به اندازه گیری آن متغیرها و در نتیجه کاهش اضافه بار داده ها نباشم؟ | مرحله تجزیه و تحلیل پس از PCA |
79243 | وضعیت به شرح زیر است: بگویید، من به پیشنهاد دو دوستم به یک سوال چند گزینه ای پاسخ خواهم داد. یکی 60 درصد مواقع جواب درست می دهد و دیگری 40 درصد مواقع جواب درست می دهد. آیا راهی وجود دارد که بتوانم در بیش از 60 درصد مواقع به یک سوال پاسخ صحیح بدهم؟ (در یک میانگین بلند مدت با کنار گذاشتن تنوع طبیعی) | اطمینان آشکارساز |
51755 | اجازه دهید $S$ مجموعه همه توزیعهای احتمال در $\mathbb{R}$ باشد و $S_n=\\{p_\theta\\}$ یک زیرمنیفولد بعدی $n$ از خانواده پارامتری توزیعهای احتمال در $\mathbb باشد. {R}$ که در آن $\theta=(\theta_1,\dots, \theta_n)\in \Theta$ پارامترهای چگالی احتمال نامیده میشوند. $p_\theta(x)$ و $\Theta$ یک مجموعه باز همومورف به $\mathbb{R}^n$ است. همچنین فرض می شود که $p_\theta(x)>0$ برای همه $x$. برای مثال، $$p_{\theta=(\mu,\sigma)}(x)=\frac{1}{\sqrt{2\pi}\sigma}e^{\frac{-(x-\mu )^2}{2\sigma^2}}$$ که $\mu\in \mathbb{R}،\sigma>0$ یک زیرمنیفولد $2$-بعدی را تشکیل میدهد. در این منیفولد، یک متریک ریمانی با موارد زیر تعریف می شود که متریک اطلاعات فیشر نامیده می شود. \begin{eqnarray*} g_{i,j}(\partial_i,\partial_j) &=&\int \partial_i \log p_\theta(x) ~\partial_j \log p_\theta(x) ~p_\theta( x)~ dx\\\ &=& \int \partial_i p_\theta(x) ~\partial_j \log p_\theta(x)~ dx \end{eqnarray*} که در آن $\partial_i=\frac{\partial}{\partial \theta_i}$. سوال من در مورد نکته ای در صفحه 384 از این Ann است. آمار مقاله از آماری در مقاله فوق، وقتی منحنی $\\{q_t(x)\\}$ را در $S$ میگوید، جایی که $q_0(x)=p_\theta(x)$ به صورت متعامد $S_n$ را در $q_0 قطع میکند. (x)=p_\theta(x)$، منظور او $$\int \partial_i \log p_\theta(x) ~\frac{d}{dt} \log است q_t(x)\lvert_{t=0} ~q_0(x)~dx=0$$. یعنی $$\int \partial_i p_\theta(x) ~\frac{d}{dt} \log q_t(x)\lvert_{t=0} ~dx=0$$. چرا؟ آیا کسی می تواند با توضیح شهودی این مفاهیم به من بفهماند؟ | تقاطع متعامد در منیفولد ریمانی |
43575 | من N سطل دارم که از 1 تا N شماره گذاری شده اند. من k اعداد صحیح تصادفی را که به طور یکنواخت در محدوده 1 تا N توزیع شده اند، با جایگزینی ترسیم می کنم و برای هر عدد صحیح یک توپ را در سطل مربوطه می اندازم. k می تواند هر اندازه ای باشد. به طور خاص می تواند هر مقداری از 2 تا N یا بزرگتر از N باشد. * ویژگی های آماری (توزیع احتمال و غیره) تعداد توپ ها در هر سطل در پایان چیست؟ * ویژگی های آماری تعداد سطل های با توپ های 0،1،...k چیست؟ این سوال از نیاز به اندازه گیری «خوبی» (به نوعی) یک الگوریتم هش ناشی می شود. با توجه به نمونهای از توزیع کلیدها در بین سطلها، من به اندازهای نیاز دارم که کجا قرار دارد در مقیاسی از «خیلی خوب» تا «بسیار بد»، و بتوانم مواردی مانند «شانس بیش از x چقدر است». توپ در یک سطل داده شده k و N؟ بدیهی است که از روشی که من این را نوشته ام و از اسامی تصادفی که به متغیرهای خود اختصاص داده ام، مطلقاً هیچ پیچیدگی آماری ندارم. لطفا ملایم باشید؛ من می خواهم یاد بگیرم. برای مثال، لطفاً نام متغیرها را به چیزی معمولی تر یا هر چیز دیگری تغییر دهید. | توپ های تصادفی در سطل های تصادفی: ویژگی های توزیع چیست؟ |
43577 | من قصد دارم برخی از فرآیندهای تشخیص ناهنجاری را در داده های خود داشته باشم اما Weka، Rapidminer یا Knime از الگوریتم های تشخیص ناهنجاری پشتیبانی نمی کنند. چگونه می توانم از روند مراقبت کنم؟ | کدام بسته های داده کاوی از تشخیص ناهنجاری پشتیبانی می کنند؟ |
99238 | اجازه دهید $A$، $B$ و $C$ رویدادهایی در فضای احتمال یکسان باشند. آیا $$\begin{align} \mathbb P(A\,|\,B\cup C) \ge \mathbb P(A\,|\,B) \end{align}$$ نگه میدارد؟ | با توجه به اطلاعات بیشتر، آیا احتمال کاهش می یابد؟ |
16146 | من یک مدل را از طریق تحلیل رگرسیون لجستیک چند نامی ساختم. مدل نهایی شامل سه پیش بینی است. همه پیش بینی کننده ها زمانی مهم هستند که تنها پیش بینی کننده باشند. با این حال، ضریب یکی از پیشبینیکنندهها زمانی معنادار نیست که هر سه پیشبینیکننده در مدل گنجانده شوند. آیا باید این پیش بینی کننده را در معادله رگرسیون لجستیک چند جمله ای نهایی قرار دهم؟ | آیا یک پیشبینیکننده، به تنهایی مهم اما نه با سایر پیشبینیکنندهها، باید در یک رگرسیون لجستیک چند جملهای کلی گنجانده شود؟ |
100440 | اجازه دهید $\Phi$ CDF معمولی استاندارد باشد، و $\Phi^{-1}$ تابع کمیت معمولی باشد، من به دنبال بسط سری تیلور $$ \Phi^{-1}\ هستم. left(\Phi\left(x\right) + \epsilon\right). $$ با استفاده از بسط سری تیلور تابع خطای معکوس، فکر میکنم چیزی شبیه $$ \Phi^{-1}\left(\Phi\left(x\right) + \epsilon\right) = x + \ دریافت میکنم. sqrt{\frac{\pi}{2}}\left[2\epsilon + \frac{\pi}{12}\left(3\left(2\Phi\left(x\right)-1\right)^2 2\epsilon \+ 3\left(2\Phi\left(x\ راست)-1\راست) 4\epsilon^2 + 8\epsilon^3\right) + \ldots \right]. $$ این برای سلیقه من کمی زشت است و ترجیح می دهم شرایط را در توان $\epsilon$ جمع آوری کنم. آیا این یک گسترش شناخته شده است؟ (FWIW، من $\epsilon$ را از بسط Edgeworth دریافت می کنم.) | آیا یک بسط خوب(r) تیلور برای تابع چندک نرمال وجود دارد؟ |
16141 | من در مورد اینکه چگونه یک چند جملهای محلی را با نتایج باینری تطبیق دهم، اگر ترجیح میدهم شاخص زیربنایی (در یک تابع پیوند) را تقریب بزنم، کمی گیج شدم. (اصولاً به همان دلیلی که کسی یک لاجیت یا یک پروبیت را به جای یک مدل احتمال خطی تخمین می زند.) البته، من می خواهم متغیر را در معکوس تابع پیوند --- وصل کنم اما البته 0 و 1 به من $-\infty$ و $+\infty$ در توابع پیوند مشترک می دهد. برای روشن شدن موضوع، مشکل من این است که به طور انعطاف پذیر $y(x)$ را پیش بینی کنم، جایی که $x \in [-1,1]$ اما $y \in \\{0,1\\}$ است. من به splines فکر نمی کردم، زیرا اگر پیش بینی $\hat{y}=g(f(x))$ با تابع پیوند g باشد، بیشتر به پیش بینی صاف شاخص $f(x)$ علاقه مند می شدم. . من پیش از ترتیب خطوط و محل نقاط شکست ندارم. من علاقه مند به مشاوره کلی در مورد رویکرد مناسب هستم. به عنوان خلاصه، 0 را با $\frac{1}{N}$ و 1 را با $\frac{N-1}{N}$ جایگزین کردم و شاخص را با اینها ایجاد کردم. (با استفاده از یک پیوند logit، بنابراین من $f(x)=\Lambda(\frac{1}{N})$ را صاف میکردم/پیشبینی میکردم اگر y(x)=0، به عنوان مثال.) اما من از این بابت ناراحتم. من برای انتخاب پهنای باند مناسب برای هموارسازی f با عقربه کوتاه f، برای انتخاب پهنای باند مناسب برای هموارسازی f و حتی از روش دلتا برای بازگشت به فواصل اطمینان متغیر باینری اصلی از هموارسازی ایندکس به فواصل اطمینان متقابل باینری اصلی استفاده کردم. اما اگر در وهله اول اشتباه به پیش بینی نزدیک شوم، ممکن است این پیچیدگی جعلی باشد. با تشکر برای هر گونه فکر در این مورد! | رگرسیون چند جمله ای (خطی) محلی داده های باینری --- تبدیل لاجیت؟ |
14679 | در R، eigen() مقادیر ویژه مرتب شده نزولی را برمی گرداند. با این حال، بردارهای ویژه با این مقادیر ویژه مرتب شده مطابقت ندارند. چگونه می توانم بردار ویژه مربوط به مقدار ویژه مرتب شده i را شناسایی کنم؟ یک روش ممکن است مرتب سازی بر اساس هنجار بردارهای ویژه باشد (آیا رویه ای در R وجود دارد که بتواند این کار را انجام دهد). فکر می کنم یک روش ساده وجود دارد که من از دست می دهم. | بردارهای ویژه مربوط به مقادیر ویژه |
74881 | من برخی از دادههای نتیجه مرکز تماس دارم: هر فرد چندین بار تماس گرفته میشود و نتیجه تماس به عنوان یکی از چند نتیجه مجزا ثبت میشود (بدون پاسخ، شماره اشتباه، شخص ثالث، شخص صحیح و غیره). هدف از تجزیه و تحلیل این است که سعی کنید قبل از تسلیم شدن چند بار تماس بگیرید. برنامه فعلی من این است که نتایج را به عنوان یک زنجیره مارکوف در نظر بگیرم. اگر فرض کنم که داده ها حالت ثابتی را نشان می دهند، به راحتی می توان احتمالات انتقال را بدست آورد. مشکل این است که من فکر نمیکنم که آنها ثابت باشند: 20 بار بدون پاسخ بودن با یک بار بدون پاسخ موقعیت متفاوتی دارد. اگر دادههای شما ثابت نیستند، چگونه احتمالات انتقال را محاسبه میکنید؟ برای امتیاز جایزه، آیا تابعی در R برای انجام این کار وجود دارد؟ | تخمین احتمالات انتقال زنجیره مارکوف غیر ثابت از داده ها |
79247 | این یک سوال در مورد استفاده از تابع وزن در lmer است. مشابه رویکرد وزن دار مورد بحث در اینجا برای استفاده در رگرسیون های خطی: http://www.stat.cmu.edu/~cshalizi/uADA/13/lectures/ch07.pdf من می خواستم از تابع وزن در lmer استفاده کنم. (با استفاده از بسته lme4) برای محاسبه واریانس اندازه گیری های فردی در مجموعه داده من (به عنوان مثال وزن = 1/SEofY^2). با این حال، من مطمئن نیستم که آیا این درست است یا خیر و می خواستم ببینم آیا کسی در این مورد نظری دارد یا خیر. خیلی ممنون از وقتی که گذاشتید. | استفاده از وزن در lmer برای ترکیب واریانس نقاط داده فردی؟ |
99239 | من سعی می کنم بفهمم که چگونه ضرایب را هنگام استفاده از چندین متغیر مستقل کیفی که برخی از آنها بیش از دو دسته دارند، تفسیر کنم. من این مقاله کوتاه را پیدا کردم که به آن موضوع می پردازد (پیش نمایش یک صفحه برای درک منظور من کافی است، اما در اینجا نیز توضیح خواهم داد). مقاله می گوید که در این مورد تفسیر به هم ریخته است. اجازه دهید از متغیرهای مثال مقاله استفاده کنم تا منظورم را روشن کنم. دستمزد متغیر وابسته من است. متغیرهای مستقل همگی ساختگیهایی هستند که میتوان آنها را در گروهبندی کرد: _ دستاورد تحصیلی_ E1 = فوق لیسانس (مقدار 1 در صورت تحصیلات تکمیلی، 0 در غیر این صورت) E2 = لیسانس (مقدار 1 اگر مدرک لیسانس، 0 در غیر این صورت) E3 = دبیرستان (مقدار 1 در صورت دبیرستان، 0 در غیر این صورت) _وضعیت تاهل_ R1 = متاهل/در رابطه (مقدار 1 در صورت ازدواج، 0 در غیر این صورت) R2 = مطلقه (مقدار 1 در صورت طلاق، 0 در غیر این صورت) R3 = مجرد (مقدار 1 اگر مجرد، 0 در غیر این صورت) _جنس_ M = مذکر (مقدار 1 اگر مرد، 0 در غیر این صورت) F = زن (مقدار 1 اگر زن، 0 در غیر این صورت) اکنون، به اجتناب از تله ساختگی من E3، R3 و F را حذف می کنم. معادله رگرسیون من به این صورت خواهد بود: دستمزد = b0 + b1 * E1 + b2 * E2 + b3*R1 + b4*R2 + b5*M این مقاله بیان میکند که مبنای مقایسه با آن یک زن مجرد است که به دبیرستان رفته و تفسیر ضرایب ساختگی فردی را مختل میکند. سوالات من: 1. آیا من به درستی متوجه شدم که استفاده از چندین متغیر کیفی که بیش از 2 دسته دارند (در این مورد میزان تحصیلات و وضعیت تأهل هر کدام 3 دسته هستند) است که تفسیر را به هم می زند؟ من دریافتم که اگر من برای مثال فقط از آدمکهای وضعیت تاهل استفاده کنم (دوباره R3 را برای مواجه نشدن با دام ساختگی حذف کنم)، به راحتی میتوانم بگویم که افراد متاهل (R1) در مقایسه با افراد مجرد (R3) بیشتر یا کمتر درآمد دارند. اما آیا این دیگر امکان پذیر نیست به محض اینکه من الگوهای پیشرفت تحصیلی را نیز در رگرسیون خود وارد کنم؟ 2. آیا متغیرهای ساختگی که فقط 2 دسته دارند و بنابراین در معادله رگرسیون فقط با 1 ساختگی نشان داده می شوند (مثلاً متغیر جنسی من -> M در معادله) اصلاً تحت تأثیر این قرار می گیرند یا هنوز می توانم بگویم که مردان بیشتر یا کمتر درآمد دارند. در مقایسه با زنان، با وجود داشتن سطح تحصیلی و وضعیت تأهل در معادله من؟ از وقتی که گذاشتید متشکرم، از هر بازخوردی بسیار سپاسگزارم. | تفسیر آدمک ها (چند متغیر و دسته!) |
100033 | من از Lasso برای کاهش تعداد متغیرهایم استفاده می کنم و مشخص کرده ام که کدام متغیرها پس از اجرای تجزیه و تحلیل من حفظ شده اند (مانند yrseduc، سن). با این حال، من نمی دانم چه اعدادی را باید در یک مقاله علمی گزارش کنم. من سعی کردم نمونه هایی را پیدا کنم، اما نمی توانم پاسخ کاملی پیدا کنم. من نمی دانم که آیا من فقط باید تخمین پارامترهای همه متغیرهایی را که معنی دار شده اند گزارش کنم؟ آیا باید آنها را فقط در یک جدول گزارش کنم یا در متن؟ اگر در متن، این اعداد واقعا به چه معنا هستند؟  پیشاپیش از شما متشکرم، من واقعاً در اینجا گم شده ام. | چگونه نتایج Lasso را در یک مقاله گزارش کنم؟ |
74886 | آیا برای متغیرهای تصادفی $Y$ و $X$، $f(Y | X)$ در یک خانواده با $f(Y)$ است؟ اگر بله چگونه می توانم آن را ثابت کنم؟ اگر نه، آیا شرایطی (برخی از خانواده های توزیع) وجود دارد که می توانند یکسان باشند؟ یا مربوط به تابع(های) پیوند است؟ با تشکر | آیا $f(Y | X)$ با $f(Y)$ هم خانواده است؟ |
55237 | من به دنبال توصیه های کتاب در مورد امتیازدهی اعتباری هستم. من به تمام جنبه های این مشکل علاقه دارم، اما بیشتر به موارد زیر علاقه مند هستم: 1) ویژگی های خوب. چگونه آنها را بسازیم؟ خوب بودن کدومشون ثابت شده؟ 2) شبکه های عصبی کاربرد آنها برای مشکل امتیازدهی اعتباری. 3) من شبکه های عصبی را انتخاب کرده ام، اما به روش های دیگر نیز علاقه مند هستم. | کتاب/مقالات خوب در مورد امتیازدهی اعتباری |
17557 | آزمایش فرضیه صفر $H_0: \theta = 0$ در برابر جایگزین $H_1: \theta \neq 0$ معادل ایجاد یک فاصله اطمینان و بررسی اینکه آیا صفر به آن تعلق دارد یا خیر. اما در مورد جایگزین $H_1 چطور: \theta > 0$. فاصله اطمینان معادل چیست؟ | فاصله اطمینان معادل برای یک فرضیه جهت دار چقدر است؟ |
17552 | من یک مجموعه داده بیان ژن با مقادیر بیان log2 تبدیل شده (بدون NA) برای 495 ژن برای 59 نمونه دارم که مقادیر متغیر پاسخ پیوسته (r) نیز شناخته شده است (بدون NA). من میخواهم از اعتبارسنجی متقاطع ترک یک خروجی برای آزمایش اینکه آیا r نمونه آزمایشی را میتوان از بیان ژن نمونه پیشبینی کرد، استفاده کنم. برای این منظور، من قصد دارم از بسته samr R برای تجزیه و تحلیل اهمیت ریزآرایهها برای شناسایی ژنهای مهم مرتبط با r در مجموعه آموزشی نمونهها استفاده کنم. سپس، من می خواهم یک مدل خطی با استفاده از ژن های مهم به عنوان متغیر ایجاد کنم، که سپس برای پیش بینی r نمونه آزمایشی استفاده می شود. من کد زیر را برای شروع امتحان کردم، اما وقتی مدل را تولید می کنم و آن را بررسی می کنم، تعداد زیادی NA را در خلاصه مدل می بینم که باعث می شود مشکوک شوم که دارم کار اشتباهی انجام می دهم. آیا کسی می تواند به من بگوید ممکن است چه اشتباهی انجام دهم؟ ثانیاً، من از هر نظری در مورد استفاده از nperms (در SAM) با مقدار 100 قدردانی خواهم کرد. آیا برای مجموعه داده بیان برای 495 ژن بسیار کم است. # rVals با مقادیر r به عنوان یک بردار از یک ردیف جدول برای دادههای فنوتیپی خوانده میشود که از یک فایل جدا شده با برگهها با نامهای نمونه به عنوان نام ستون و ویژگیهای فنوتیپ به عنوان نام ردیف خوانده میشود # geneVals بیان ژن تبدیلشده با log2 است. مجموعه داده به عنوان یک ماتریس از یک فایل جدا شده با برگه با نام های نمونه به عنوان نام ستون و نام ژن به عنوان نام ردیف خوانده می شود. # SAM را با FDR 5% انجام دهید و لیستی از ژنهای قابل توجه sam را بدست آورید <- SAM(x=geneVals, y=rVals, resp.type=c(کمی)، testStatistic=c(استاندارد)، regression.method =c(استاندارد)، loged2=TRUE، fdr.output=0.05، eigengene.number=1، knn.neighbors=10, nperms=100, genenames=as.vector(rownames(geneVals))) sigGenes <- rbind(sam$siggenes.table$genes.up, sam$siggenes.table$genes.lo) # ایجاد خطی model toModel <- data.frame(t(rbind(rVals, geneVals))، check.names=FALSE) myModel <- lm(toModel[c('r', sigGenes[,c(Gene ID)])]) # بررسی خلاصه مدل (myModel) ... خروجی... تماس: lm (formula = toModel[c(rVals, sigGenes[, c(Gene ID)])]) باقیمانده ها: ALL 59 باقیمانده هستند 0: بدون درجات آزادی باقیمانده! ضرایب: (58 به دلیل تکینگی ها تعریف نشده است) Estimate Std. خطای t مقدار Pr(>|t|) (برق) -18.29363 NA NA NA `let-7e` -1.70545 NA NA NA `miR-125a-5p` 2.43177 NA NA NA `miR-151-5p` 2.6743 NA ... | NA در خلاصه مدل خطی تولید شده از ژن های مهم برای متغیر پاسخ پیوسته با استفاده از SAM شناسایی شده است |
103425 | بسته gbm در R فرمول انحراف زیر را برای مدلهای CoxPH مستند میکند http://gradientboostedmodels.googlecode.com/git/gbm/inst/doc/gbm.pdf $-2 \sum w_i \delta_i (f(x_i) - \log (R_i / w_i)$، که $w_i$ وزنی برای مشاهده است، $\delta_i$ نشانگر سانسور مناسب است. و $R_i = \sum_{j=1}^N 1(t_j >= t_i) e^{f(x_i)}$ خطر کل مجموعه ریسک است اما به نظر نمی رسد این فرمول با اجرای نویسنده موافق باشد. https://github.com/harrysouthworth/gbm/issues/22 من تعجب می کنم که چگونه این استخراج شده است تا بتوانم بفهمم که آیا اشکالی در پیاده سازی وجود دارد یا وجود دارد اشتباه در نحوه نگارش فرمول | این فرمول انحراف برای خطر متناسب کاکس چگونه استخراج شد؟ |
91312 | چرا یافتن تفاوت معنیدار در یک معیار معین، مثلاً توانایی ریاضی، بین دو گروه (مثلاً از طریق یک آزمون t نمونههای مستقل) باید معادل دو گروه باشد که از جمعیتهای زیربنایی مختلف میآیند - آیا واقعاً میتوان «جمعیت» را تعریف کرد. به همان سادگی «جمعیت افراد خوب در ریاضیات» و «جمعیت افرادی که در ریاضیات بی ارزش هستند»؟ و با فرض اینکه دو گروه مورد آزمایش، مثلاً دو نیمه یک کلاس درس را نشان دهند، به چه معناست که تفاوت قابل توجهی بین گروه ها وجود دارد؟ اینکه جمعیت هایی که هر یک از دو نیمه از آنها نمونه برداری شده اند، از نظر نحوه توزیع نمرات ریاضی در آن جامعه متفاوت هستند، یا از جهات دیگر متفاوت هستند؟ | نتیجه جمعیت های مختلف از آزمون t گروه معنی دار دقیقاً به چه معناست؟ |
5960 | من میدانم که وقتی مقادیر را بهعنوان نمودار رسم میکنیم، میتوانیم یک توزیع دووجهی را با مشاهده قلههای دوقلو شناسایی کنیم، اما چگونه میتوان آن را از طریق برنامهریزی پیدا کرد؟ (من دنبال یک الگوریتم هستم.) | چگونه یک توزیع دووجهی را شناسایی کنیم؟ |
13197 | * تفاوت بین ANOVA اندازه گیری های مکرر بر روی برخی از عوامل (مثلاً شرایط تجربی) و MANOVA چیست؟ * بهویژه یک وبسایت که تصادفاً با آن برخورد کردم، پیشنهاد کرد که MANOVA همان فرض کروی بودن را ندارد که اندازهگیریهای مکرر ANOVA انجام میدهد، آیا این درست است؟ * اگر چنین است، چرا همیشه نباید از MANOVA استفاده کرد؟ * من سعی می کنم یک ANOVA اندازه گیری های مکرر با DV های متعدد انجام دهم، رویکرد مناسب چیست؟ متشکرم. | تفاوت بین MANOVA و Repeated Measure ANOVA؟ |
43570 | من سعی می کنم با استفاده از الگوریتم Viterbi محتمل ترین مسیر (یعنی دنباله ای از حالت ها) را در یک HMM پیدا کنم. با این حال، ماتریسهای انتقال و انتشار را نمیدانم، که باید از روی مشاهدات (دادهها) تخمین بزنم. برای تخمین این ماتریس ها، از کدام الگوریتم استفاده کنم: الگوریتم Baum-Welch یا الگوریتم Viterbi Training؟ چرا؟ اگر من باید از الگوریتم آموزشی Viterbi استفاده کنم، آیا کسی می تواند یک شبه کد خوب به من ارائه دهد (پیدا کردن آن آسان نیست)؟ | آموزش ویتربی در مقابل الگوریتم Baum-Welch |
19655 | من اقلامی برای خرید دارم و آماری دارم که هر کدام چقدر خریداری شده است. من می خواهم از این مقدار برای رتبه بندی آنها استفاده کنم. حدس ساده این است که «Log(2 + num_purchased)» را انجام دهید. من به فرمول بهتری برای آن فکر می کنم، و مهمتر از همه، می خواهم پیشینه احتمالی و معنایی پشت آن داشته باشم. | بهترین راه برای درمان محبوبیت برای رتبه بندی چیست؟ |
46436 | من به دنبال جمع آوری اطلاعات در مورد اینکه آیا شرکت کنندگانی که یک بازی آموزشی را در یک موضوع خاص انجام می دهند، در مقایسه با شرکت کنندگانی که آن موضوع را بدون بازی (فقط سخنرانی) یاد می گیرند، بین نمرات پیش آزمون/پس آزمون به دستاوردهای کمتر/قابل مقایسه/ برتری دست خواهند یافت. بنابراین، من قصد دارم شرکت کنندگان را به طور تصادفی به یکی از دو گروه اختصاص دهم: بازی یا بدون بازی. هر شرکت کننده در یک پیش آزمون و پس آزمون شرکت خواهد کرد. فرض کنید نتایج به شرح زیر است: همه شرکت کنندگان از هر دو گروه به طور میانگین 50٪ در پیش آزمون امتیاز می گیرند، شرکت کنندگانی که بازی را انجام می دهند میانگین نمره پس آزمون 90٪ دارند و شرکت کنندگانی که بازی را انجام نمی دهند. فقط سخنرانی) دارای میانگین نمره پس آزمون 70٪ است. با تکنیک آماری صحیح و شرکت کنندگان به اندازه کافی، ممکن است نشان دهد که بازی تفاوت ایجاد کرده است. علاوه بر این، من همچنین قصد دارم بررسی کنم که آیا جنسیت بر نمرات پیش آزمون/پس آزمون تأثیر می گذارد (بنابراین، آیا باید چهار گروه داشته باشم؟ مرد/بازی، مرد/بدون بازی، زن/بازی، زن/بدون بازی) احتمالاً به سایر اطلاعات جمعیتی مانند سن (دسته هایی که باید تعیین شوند، اما فرض کنید: سن 20-40/بازی، 20-40/بدون بازی، 41-60/بازی و...) متأسفانه بیش از 20 سال است که دوره آمار گذرانده ام. برای این نوع محاسبات (ANOVA؟) از چه تکنیکی استفاده می کنم و برای معتبر بودن نتایج در هر دسته به چند شرکت کننده نیاز دارم؟ علاوه بر این، چه فاصله اطمینانی معمولاً معتبر در نظر گرفته می شود؟ 95 درصد؟ 99 درصد؟ | چه نوع آزمونی و چند شرکت کننده؟ |
19650 | من آزمایشی را با 12 شرکت کننده انجام دادم. از آنها خواسته شد تا 3 محرک را با 3 پاسخ احتمالی زیر رتبه بندی کنند: افزایش یافته، کاهش یافته، بدون تفاوت. در نتیجه این جدول را دارم: افزایش محرک بدون تفاوت A 10 1 1 StimulusB 12 0 0 StimulusC 8 2 2 حالا اگر بخواهم در یک عکس بفهمم که آیا پاسخ افزایش به طور قابل توجهی بیشتر از دو پاسخ دیگر در کل انتخاب شده است. محرک، آیا درست است که من به سادگی از توزیع دوجمله ای استفاده کنم که موفقیت ها را در امتداد هر 3 محرک جمع کند؟ منظورم این است که آیا انجام این کار درست است؟ > prop.test(30,36) آزمون نسبتهای 1 نمونه با دادههای تصحیح پیوستگی: 30 از 36، احتمال صفر 0.5 X-squared = 14.6944، df = 1، p-value = 0.0001264 فرضیه جایگزین: p واقعی برابر نیست تا 0.5 95 درصد فاصله اطمینان: 0.6652978 0.9303666 تخمین نمونه: p 0.8333333 یا بهتر است به جای آن از تابع به این صورت استفاده کنیم؟ > prop.test(c(10،12،8)،c(12،12،12)،c(0.5،0.5،0.5)) تست 3 نمونه برای نسبت های داده شده بدون داده های تصحیح پیوستگی: c(10، 12، 8) از c(12، 12، 12)، احتمالات صفر c(0.5، 0.5، 0.5) X-squared = 18.6667، df = 3، p-value = 0.0003204 فرضیه جایگزین: مقادیر تهی دو طرفه: prop 1 prop 2 prop 3 0.5 0.5 0.5 تخمین نمونه: prop 1 prop 2 prop 3 0.83333333 1.0066060.0000 | چگونه باید از تابع prop.test استفاده کنم؟ |
19653 | هر بار که به صفحه نتایج SAS نگاه می کنم در بین اعداد گم می شوم. آیا مطالب آنلاینی وجود دارد که بتواند به درک صفحه نتیجه SAS کمک کند؟ | منابع آنلاین برای کمک به درک نتایج SAS |
18550 | بر اساس پاسخ به سوال قبلی، پارامترهای BUGS و R برای کدام توزیع ها متفاوت است؟ من پارامترهای R را به پارامترهای JAGS تبدیل کرده ام، اما خطاهایی دریافت می کنم، بنابراین یک سوال جداگانه می پرسم تا روشن کنم که تبدیل صحیح است. «?dweibull» R pdf را بیان می کند (با $a = \text{shape}$ و $b = \text{scale}$): $$(^a/_b)(^x/_b)^{a-1 } \text{exp}(- (^x/_b)^a)$$ و دفترچه راهنمای JAGS pdf را به صورت زیر بیان میکند: $$\nu \lambda x^{\nu-1}\text{exp}(-\lambda x^\nu)$$ میتوانم ببینم که پارامتری که R استفاده میکند، $f(b)^a$ دارد، اما پارامتر JAGS دارای یک معادل $f(\lambda)^\nu$. اما وقتی این همه قدرت محاسباتی در دستانم است، نمی توانم خودم را مجبور به بیرون آوردن یک مداد کنم. بنابراین من تظاهرات تجربی زیر را انجام دادم که پارامترسازی JAGS به این صورت نیست که شکل را به صورت $\text{rate} =1/b$ به سادگی تبدیل کند: نمودار زیر دو نمونه (کد زیر)، * R (قرمز) از $ را نشان میدهد. \small{Y\sim\text{Weibull}(a = 2، b = 50)}$ * JAGS (آبی) از $\small{Y\sim\text{Weibull}(\lambda = 2, \nu = 1/50)}$  library(rjags) shape <- 2 rate <- 50 set.seed(0) model.string <- writeLines(paste(\nmodel{\nbeta ~ dweib (2،1/rate,)\nY <- beta\n})، con = 'weibulltest.bug') j.model <- jags.model(file = weibulltest.bug, data = list(x=NA)) #hack mcmc.object <- coda.samples(model = j.model, variable.names = c('Y'), n.iter = ( چگالی (Y.jags)، col = 'آبی') | چگونه می توانم توزیع Weibull را در JAGS / BUGS پارامتر کنم؟ |
101424 | من می دانم که احتمال یک نقطه در یک نقشه دو بعدی از توزیع نرمال dnorm(x) پیروی می کند، که در آن x فاصله تا نقطه دیگر است. اجازه دهید آن را A بنامیم. بنابراین x با یک تابع فاصله محاسبه می شود A = c(2,1) dist = function(mypoint){sqrt((mypoint[1]-A[1])^2+(mypoint[2]- A[2])^2) } من می خواهم احتمال قرار گرفتن در منطقه خاصی از نقشه را محاسبه کنم. برای مثال $X=(x,y)$ و $S\in[S_{x1},S_{x2}]*[S_{y1},S_{y2}] $P(X\in S) = P (S_{x1}<X_x<S_{x2} \cap S_{y1}<X_y<S_{y2})$P(X\in S) = \int_{min(S_{x})}^{max(S_{x})}\int_{min(S_{y})}^{max(S_{y})} dnorm(dist([x,y ]))dx.dy$ که در آن $dnorm$ چگالی نرمال است. من دو سوال دارم: 1. آیا این معنی دارد؟ آیا راه دیگری (بهتر) برای رسیدن به این هدف وجود دارد؟ 2. چگونه می توانم چنین احتمالی را با R محاسبه کنم؟ | احتمال قرار گرفتن در ناحیه فضایی را محاسبه کنید |
13428 | به عنوان یک غیر آمارگیر، من یک مشکل آماری/احتمالی در دنیای واقعی دارم که در قالب بندی آن مشکل دارم. نرم افزاری که من در مدیریت موجودی بر آن تکیه می کنم «حرکات» (تعداد دفعات استفاده از موجودی) را به شیوه ای عجیب تفسیر می کند. تعداد ماه هایی از 24 ماه که مورد استفاده شده است را ارائه می دهد. به عنوان مثال، یک کد متحرک 20 به این معنی است که آیتم حداقل یک بار برای 20 ماه از 24 ماه استفاده شده است. کاری که باید انجام دهم این است که آن را ترجمه کنم تا **محتمل ترین تعداد حرکات در آن 24 ماه را پیدا کنم. دوره.** اگر حرکات به طور تصادفی در 20 ماه از 24 ماه بدون محدودیت قرار گیرند، بدیهی است که تعداد حرکاتی که واقعاً رخ می دهد احتمالاً بسیار بیشتر از 20 خواهد بود. چقدر بیشتر؟ با عرض پوزش، این سوال بسیار چالش برانگیز است زیرا من هیچ ایده ای در مورد چگونگی شروع مقابله با آن ندارم. هر گونه کمک بسیار قدردانی می شود. | احتمال وقوع کل رویدادها با توجه به اینکه یک یا چند رویداد در چند ماه مشخص اتفاق میافتد |
13421 | به طور کلی توزیع های مشترک زیادی وجود دارد $P(X_1 = x_1، X_2 = x_2، ...، X_n = x_n)$ مطابق با یک مجموعه شناخته شده توزیع های حاشیه ای $f_i(x_i) = P(X_i = x_i)$. آیا از میان این توزیع های مشترک، حاصلضرب با گرفتن حاصل ضرب حاشیه های $\prod_i f_i(x_i)$ با بالاترین آنتروپی تشکیل می شود؟ من مطمئناً معتقدم که این درست است، اما واقعاً دوست دارم یک مدرک ببینم. من بیشتر به مواردی علاقه مند هستم که همه متغیرها گسسته باشند، اما همچنین علاقه مند به تفسیر در مورد آنتروپی نسبت به معیارهای محصول در حالت پیوسته هستم. | آیا حداکثر توزیع آنتروپی با توزیع های حاشیه ای داده شده با توزیع محصول حاشیه ها سازگار است؟ |
45168 | من برای یک پروژه در پایتون کدنویسی می کنم. من تمام داده های خود را دارم و یک optimize.leastsq را اجرا می کنم. من عدم قطعیت در cov[1,1] و cov[0,0] را میخواهم. آیا فقط جذر این عناصر ماتریس است یا بیشتر دخیل است؟ تصویر پیوست شده در زیر   | درباره کوواریانس |
20628 | اگر فرض کنیم که نقاط داده ما از سطح یک کره (با مقداری اغتشاش) نمونه برداری شده است، چگونه می توانیم مرکز آن کره را بازیابی کنیم؟ در جستجوی خود، مقالاتی را در مورد چیزی با عنوان رگرسیون کروی پیدا کردم، اما به نظر نمیرسید که این کار همان کار را انجام دهد. شاید من فقط متوجه نشدم آیا یک فرمول ساده، مشابه رگرسیون خطی، وجود دارد که یک نقطه مرکزی کره و شعاع پیدا کند که فاصله مجموع مجذور مجموعه ای از نقاط داده را از سطح کره به حداقل برساند؟ * * * ویرایش 1: می توانیم فرض کنیم که نویز 2 یا 3 مرتبه قدر کوچکتر از شعاع کره و به طور یکنواخت کروی گوسی خواهد بود. با این حال، خود نمونهها قطعاً به طور یکنواخت از سطح کره کشیده نمیشوند، بلکه احتمالاً در چند تکه روی سطح، احتمالاً همه در یک نیمکره، جمع میشوند. راه حلی که برای داده ها در $\mathbb R^3$ کار می کند خوب است، اما یک راه حل کلی برای ابعاد دلخواه نیز عالی است. * * * ویرایش 2: اگر بخواهم از رگرسیون خطی $y = X\beta + \epsilon$ در فضای 7 بعدی استفاده کنم و وانمود کنیم که اجزای مربع مستقل از سایر پارامترها: $\begin{align} X &= \begin{array}{cccccc}[-2x& -2y&-2z&1&1&1&-1]\end{آرایه}\\\ \بتا &= \begin{آرایه}ccccccc}[x_0 & y_0 & z_0 & x_0^2 & y_0^2 & z_0^2 & r^2] '\end{array}\\\ y &= x^2+y^2+z^2\end{align}$ در بهترین حالت، فکر میکنم که معیار خطای من کمی عجیب و غریب خواهد بود. در بدترین حالت، راه حل حتی نزدیک به سازگاری نخواهد بود. ... یا احمقانه است زیرا با چهار ستون یکسان، زمانی که می خواهیم رگرسیون انجام دهیم، یک ماتریس تکی به دست می آوریم. * * * ویرایش 3: بنابراین، به نظر می رسد این گزینه های من هستند: 1. بهینه سازی عددی غیر خطی با استفاده از تابع هزینه: $f(x_0,y_0,z_0,r|X) = \frac{1}{2} \sum_{i=1}^n \left(r - \sqrt{(x_i-x_0)^2+(y_i-y_0)^2+(z_i-z_0)^2}\right)^2$ 2. Hough-transform: گسسته سازی فضای قابل قبول یا مراکز و شعاع های ممکن در اطراف نقاط داده هر نقطه به مراکز بالقوه ای که می تواند بخشی از آن در هر گسسته شعاع خاص باشد رأی می دهد. بیشترین آرا برنده می شود. اگر تعداد بالقوه ناشناختهای از کرهها وجود داشته باشد، ممکن است مشکلی نداشته باشد، اما تنها با یکی از آنها، راهحل آشفتهای است. 3. به طور تصادفی (یا سیستماتیک) گروه های 4 نقطه ای را انتخاب کنید و مرکز را به صورت تحلیلی محاسبه کنید. نمونه برداری را در صورت شرایط نامناسب رد کنید (نقاط تقریباً همسطح هستند). نقاط پرت را رد کنید و مرکز متوسط را پیدا کنید. از آن ما می توانیم شعاع میانگین را پیدا کنیم. کسی روش بهتری سراغ داره؟ | مرکز و شعاع یک کره را از نقاط روی سطح تخمین بزنید |
45167 | در اینجا یک ایده غیر متعارف اما ظاهرا قابل اجرا است. نمی دانم که آیا کسی چیزی شبیه به آن را امتحان کرده است یا خیر، به ویژه به دنبال منابع، نمونه ها یا کارهای مرتبط نزدیک باشد. من روی یک مسئله استقرایی ریاضی با دنبالهای از رشتههای $x_i$ کار میکنم که اندازه آنها معمولاً افزایش مییابد زیرا $i$ به بینهایت میرود. از بازرسی، تابع به طور ضعیفی با دنباله فیبوناچی مرتبط است. این رشتهها را میتوان به اعداد پایه-N چند رقمی بسیار بزرگ تبدیل کرد (یعنی با چیزی در محدوده دهها رقم یا بیشتر) و میتوان با استفاده از الگوریتمهای استاندارد مانند الگوریتم حداقل مربعات غیرخطی مارکوارت-لوونبورگ، الگوریتم پاول، و غیره، یک منحنی برازش داد. البته بهتر است یک منحنی _exact_ به دست آورید به طوری که برای مقداری $i \leq k$ متناهی مطابقت داشته باشد. و سپس به داده های دیده نشده $i>k$ تعمیم می یابد. یعنی _القاء_. > پس برخی از بزرگترین اعداد بزرگی که برازش منحنی > برای آنها اعمال شده است، و به ویژه مواردی که فرمول های دقیق به دست آمده اند، کدامند؟ آیا برخی از محققان، داوران یا نرم افزارهایی وجود دارند که در این زمینه تخصص دارند؟ و غیره سوال من نباید در مورد مجموعه داده هایی با نقاط داده زیاد باشد. این سوال یک رژیم مورد علاقه بسیار متفاوت است که در آن ممکن است نقاط داده چندان زیادی وجود نداشته باشد، اما هر نقطه داده دارای قدر عددی بسیار بزرگ با ارقام زیاد است. بنابراین داده های بزرگ آن به یک معنا اما با یک چرخش کلیدی. اما توجه داشته باشید که به طور معادل این سوال _ است_ با برازش مقادیر ممیز شناور با درجات بسیار بالایی از دقت و تناسب تنگ دلخواه نیست، بلکه به نوعی برای مشکل معنادار است. (این سوال تا حدی از مرجع AMS در ریاضیات تجربی الهام گرفته شده است. | برازش منحنی با اعداد بسیار بزرگ. |
43571 | من به دنبال چند کتابخانه ماتریسی هستم که بتواند PCA را انجام دهد و بتواند با ماتریس بزرگی که نمی تواند یکباره در حافظه قرار بگیرد کار کند. آیا چنین کتابخانه ای وجود دارد؟ | PCA برای ماتریس بزرگ که در حافظه جا نمی شود |
74882 | من یک رگرسیون لجستیک به این صورت دارم: Y = a1 + b1* (تعداد نمرات مثبت) + b2* (تعداد نمرات منفی) + b3*Z + b4*Z*(تعداد نمرات مثبت) + b5*Z*(تعداد نمرات منفی ) + اصطلاحات غیر متقابل اضافی «Y» احتمال نتیجه ای است که مقادیر باینری (0،1) به خود می گیرد. Z یک متغیر پیوسته است. من سعی میکنم معنیدار بودن آن را تعیین کنم. b1 و b4 مثبت هستند در حالی که b2 و b5 منفی هستند. من می خواهم در مورد اینکه آیا Z در واقع یک عامل مهم در متغیر نتیجه از طریق تعاملات b4 و b5 است، نتیجه گیری کنم، اما می دانم که در یک رگرسیون لجستیک، همه ضرایب و به ویژه تعاملات باید در زمینه مقادیر خاص ارزیابی شوند. متغیر مستقل x. بنابراین این کاری است که من تاکنون انجام دادهام: فرض کنید bhat بردار تخمینی ضرایب «b=(a1,b1,b2,b3,b4,b5...)» و «xhat» میانگین نمونه «x» است. =(تعداد امتیازات پوز، تعداد امتیازات منفی،Z،Z*تعداد امتیازات پوس، Z*تعداد امتیازات منفی)`. همچنین بگویید که bi_sigma خطای استاندارد تخمین زده شده در عنصر ith bhat و `xi_sigma` نمونه انحراف استاندارد عنصر ith از x است. فرض کنید L(bx) cdf لجستیکی است که در bx ارزیابی می شود. آیا من حق دارم نسبت شانس exp(bhat*xhat-bi_sigma*xi_hat) و exp(bhat*xhat+bi_sigma*xi_hat) را ارزیابی کنم، سپس تعیین کنم که آیا هر عنصر bi_hat بر اساس دامنه این شانس ها مهم است یا خیر؟ نسبت ها به شدت بزرگتر یا کمتر از یک است؟ به عبارت دیگر، فکر من این است که اگر نسبتهای شانس شامل یک نباشد، به طور قابل توجهی شانس را بهبود یا کاهش میدهند. به عنوان مثال، محدوده نسبت شانس (1.3،2) یک bi را منعکس می کند که شانس برای سطوح متوسط x را بهبود می بخشد. بله؟ ثانیاً، آیا درست است که تفاوت های اول را ارزیابی کنم، L(bhat*xhat)-L(bhat*xhat-bi*xi_sigma) و L(bhat*xhat+bi*xi_sigma)-L(b*xhat) به عنوان دو معیار اندازه تأثیر هر «xi». آیا می توانم این کار را برای تعامل نیز انجام دهم؟ برای هر راهنمایی یا کمکی بسیار متشکرم. اگر منابعی وجود دارد که شما برای این موضوع پیشنهاد می کنید، من نیز از آن استفاده می کنم. تمام نمونههایی که به صورت آنلاین پیدا کردهام، فقط شامل متغیرهای باینری یا طبقهای هستند و هیچ متغیر پیوستهای ندارند. | تفسیر رگرسیون لاجیت با متغیرهای پیوسته و مقوله ای |
46434 | تابع 'summary.rq' از خط کوانترگ انتخاب های زیادی برای تخمین خطای استاندارد ضرایب رگرسیون چندک ارائه می دهد. سناریوهای خاصی که هر یک از اینها بهینه/مطلوب می شوند کدامند؟ * رتبه که فواصل اطمینان را برای پارامترهای برآورد شده با معکوس کردن یک آزمون رتبه همانطور که در کونکر (1994) توضیح داده شده است، ایجاد می کند. گزینه پیش فرض فرض می کند که خطاها iid هستند، در حالی که گزینه iid = FALSE پیشنهاد Koenker Machado (1999) را اجرا می کند. برای آرگومان های اضافی به مستندات rq.fit.br مراجعه کنید. * iid که فرض می کند که خطاها iid هستند و تخمینی از ماتریس کوواریانس مجانبی را مانند KB (1978) محاسبه می کند. * nid که خطی بودن محلی (در تاو) را (در x) از توابع چندک شرطی فرض میکند و یک تخمین ساندویچ هوبر را با استفاده از تخمین محلی پراکندگی محاسبه میکند. * ker که از تخمین هسته ساندویچ استفاده می کند که توسط پاول (1990) پیشنهاد شده است. * boot که یکی از چندین گزینه راهاندازی ممکن را برای تخمین خطاهای استاندارد پیادهسازی میکند. من حداقل 20 مقاله تجربی را خوانده ام که این مورد در بعد سری زمانی یا مقطعی اعمال می شود و اشاره ای به انتخاب خطای استاندارد ندیده ام. | رگرسیون چندکی: کدام خطاهای استاندارد؟ |
95137 | من 56 آیتم با مقیاس لیکرت برای IV و 28 آیتم با مقیاس لیکرت برای dv دارم. برای تحقق این فرض برای EFA، نقاط پرت و خطی باید بررسی شوند. آیا کسی می تواند به من بگوید که کدام روش/تحلیل برای شناسایی نقاط پرت و خطی بهترین است؟ برای موارد پرت، آیا می توانم از امتیازهای Z استفاده کنم؟ | نقاط پرت و خطی برای EFA |
83444 | X، Y دو R.V. مستقل هستند که به طور یکنواخت در بازه [0،1] 1)Z = Max[X,Y] توزیع شده اند. C.D.F را پیدا کنید و چگالی 2)W = Min[X,Y]. C.D.F و چگالی را پیدا کنید 3) بررسی کنید که چگالی مشترک (W,Z) 2 برای 0 باشد، فکر میکردم میدانم چگونه این کار را انجام دهم، اما از آنجایی که چگالی اتصال برابر است با 2، فکر نمیکنم این کار را درست انجام دهم. برای 1، من x^2 را به عنوان C.D.F گرفتم. و 2 برابر برای P.D.F. | یافتن حداکثر، حداقل، و چگالی مشترک حداکثر و حداقل |
17559 | من سعی می کنم دو نوع شی را طبقه بندی کنم که متأسفانه با نمونه های کمی دارای ویژگی های ابعادی بالایی هستند. (230 شامل 12 نمونه از هر گروه). به عنوان اولین گام: برای کاهش ابعاد، من سه رویکرد مختلف PCA (هر کدام با پارامترهای کمی متفاوت) را آزمایش کردهام و از امتیازات 3 رایانه اول بهعنوان ویژگی به جای 230 ویژگی اصلی استفاده کردم. به عنوان مرحله دوم: به منظور طبقه بندی آن اشیا، من سه طبقه بندی کننده مختلف (SVM، 3-NN، Naive Bayes) را آزمایش کرده ام که در آن از روش ترک one out استفاده می کنم، به عنوان مثال: آموزش طبقه بندی کننده بر روی 23 شی و آن را روی یکی ترک، برای تست. خلاصه: من از 3 روش کاهش ابعاد مختلف و سه روش از طبقه بندی کننده های مختلف استفاده کرده ام (در کل نه ترکیب). در یک ترکیب (از 9)، من عملکرد عالی طبقه بندی کردم. سوال من: آیا روش آماری وجود دارد که بتوانم در اینجا استفاده کنم تا ثابت کنم این گزینه واقعاً قوی و صحیح بوده و تصادفی رخ نداده است؟ | من روش های کاهش 3 بعدی و 3 طبقه بندی کننده دارم، چگونه بهترین ترکیب را انتخاب کنم؟ |
74887 | آیا اعتبار متقاطع تکنیک مناسبی برای انتخاب متغیر و انقباض ضریب رگرسیون است؟ یکی از همکاران سابق من از CV 10 برابری برای مقایسه ضرایب رگرسیون از 10 مدل آموزشی استفاده کرد. اگر علامت ضرایب تغییر کند، متغیرها حذف میشوند. سپس از مقادیر متوسط ضرایب برای متغیرهای باقیمانده برای تخمین ضرایب مدل نهایی استفاده شد. آیا این روش خانگی شبیه یک تکنیک معتبر به نظر می رسد؟ | اعتبار متقاطع برای انتخاب متغیر و انقباض ضریب؟ |
48689 | با توجه به توزیع برنولی با احتمال موفقیت 0.02 = p. فرض کنید N=3000 نمونه داریم. چگونه می توانم فواصل اطمینان را برای تعداد موفقیت های مورد انتظار محاسبه کنم (مثلاً با سطح اهمیت 5٪)؟ | یک فاصله اطمینان برای توزیع برنولی را محاسبه کنید |
81901 | این در مورد فوتبال نوع قرعه کشی است. از 14 بازی تشکیل شده است. 13 نفر از آنها 3 نتیجه ممکن دارند: برد تیم میزبان، تساوی، یا برد تیم میهمان. بازی چهاردهم تقریباً 1 بازی از 13 بازی است که در آن فرد انتخاب می کند کدام تیم اول گل بزند (یا بدون گل) و در چه کوارتری. بنابراین میتواند امتیازات تیم میزبان در 1q، 2q، 3q یا 4q باشد، و برای تیم میهمان هم به همین ترتیب، یا اصلاً امتیازی نداشته باشد. بنابراین در این بازی 9 نتیجه ممکن وجود دارد. من قبلاً با استفاده از توزیع دوجمله ای احتمال برنده شدن 1 بازی، 2 بازی، 3 بازی و غیره را محاسبه کردم. من می خواهم همان را محاسبه کنم اما با یک روش بازی جایگزین. شما می توانید با انتخاب دو و سه گانه در قرعه کشی شرکت کنید (این گزینه فقط برای 13 بازی اول معتبر است). دوبلها به شما امکان میدهند 2 مورد از 3 نتیجه را انتخاب کنید و سهگانه به شما امکان میدهد هر سه را انتخاب کنید و نتیجه را تضمین کنید. سوالات. اگر از 3 دوبل و 1 سه تایی استفاده کنم: از چند ترکیب استفاده می کنم؟ و احتمال انتخاب صحیح 0 بازی، 1 بازی، 2 بازی و غیره چقدر است؟ (2 سوال شامل انتخاب 1 نتیجه از بازی چهاردهم است). بخش دیگری از مشکل. من داده های 500 قرعه کشی گذشته (فقط برای 13 بازی اول) را دارم و جدول فراوانی هر نتیجه، میانگین محاسبه شده و انحرافات استاندارد را انجام دادم. من می خواهم احتمال نتایج را بر اساس فرکانس آنها بدانم. من یک توزیع معمولی انجام دادم اما نمی دانم راه درستی است یا نه، زیرا دقیقاً جمع نمی شود. به عنوان مثال، احتمال بسیار کمی از 15 برد خانگی را نشان می دهد و این باید صفر باشد زیرا فقط 13 بازی وجود دارد. و همچنین احتمالات هر نتیجه به 1 نمی رسد، بسیار نزدیک است، اما باید دقیقاً 1 باشد. بر اساس فرکانس ها، رایج ترین نتایج 5 برد خانگی، 5 تساوی و 3 برد خارج از خانه است. سوال آخر با آن آرایه چند ترکیب می توان ساخت؟ همچنین شامل 1 نتیجه از بازی چهاردهم. | احتمال نتایج قرعه کشی نوع بازی |
80059 | من می خواهم یک رتبه بندی از ژانرهای موسیقی ایجاد کنم. من فهرستی از هنرمندان و ژانرهای برتر با مقدار (1 تا 100) دارم که نشان می دهد موسیقی آنها چقدر از آن سبک است. اکنون باید ژانرها را سازماندهی کنم تا محبوب ترین آنها در صدر باشد. در زیر ژانرهایی از 4 هنرمند (3 ژانر در هر کدام) دارم. میتوانیم ببینیم که «راک» و «متال» هر دو در 3 گروه هستند، اما وقتی به ارزش نگاه میکنیم، واضح است که «راک» از «متال» محبوبتر است. من به جمعآوری مقادیر از ژانرها فکر میکردم و بر اساس جمع مرتب میکردم، اما فکر میکنم در آمار باید الگوریتمی باشد که هنگام انجام رتبه نتیجه بهتری بدهد. سوال این است که چگونه ژانرها را مرتب کنیم (btw، من از PHP استفاده می کنم). * * * * فلز (71) * صنعتی (65) * راک (36) * * * * راک (100) * آلترناتیو (67) * فلز (36) * * * * فلز (100) * ملودیک دث متال (72) ) * فلز مدرن (68) * * * * آلترناتیو راک (100) * راک (78) * آلترناتیو (63) * * * | لیست ها را با استفاده از آمار مرتب کنید |
87965 | خیلی ممنون از وقتی که گذاشتید من در حال حاضر روی یک مطالعه تصویربرداری عصبی کار می کنم که شاخص های جانبی سازی بین دو نیمکره را در سه گروه مختلف مقایسه می کند. من 4 شاخص جانبی سازی دارم (دو پارامتر مستقل متفاوت برای دو مسیر فیبر متفاوت) و اکنون به این فکر می کنم که آیا بهتر است از MANOVA استفاده کنم یا ANOVA با اندازه گیری های مکرر. در ادبیات، من برخی از مطالعات را یافتم که به دنبال تفاوت در شاخص های جانبی متنوع از طریق اندازه گیری های مکرر ANOVA بودند، اما من کاملاً مطمئن نیستم که آیا این رویکرد صحیح است زیرا این دو شاخص مستقل هستند و مجرای فیبری یکسانی را توصیف نمی کنند. از کمک شما در این زمینه بسیار سپاسگزارم! | MANOVA یا ANOVA با اندازه گیری های مکرر؟ |
101423 | چگونه می توانم آلفای کرونباخ را برای دو آزمونی که برای 165 نفر انجام داده ام محاسبه کنم؟ یک آزمون شامل 110 مورد و دیگری شامل 67 ماده است. نمره گذاری بر روی نسخه های چاپی انجام می شود و امتیازات هر خرده مقیاس به جای موارد جداگانه برای محاسبات بیشتر وارد می شود. در مقیاس 110 گویه ای 11 خرده مقیاس و در 67 گویه ای 4 خرده مقیاس وجود دارد. احتمالاً، زیرمقیاسها از نظر ساختاری تک بعدی هستند، بنابراین باید آلفا را برای آنها محاسبه کنم. منظورم این است که اگر آلفا را برای دادههایم پیدا نکنم، نتایج نامعتبر میشوند. آیا راه عملی دیگری برای اطمینان از سازگاری داخلی وجود دارد یا مقادیر آلفای اصلی ارائه شده توسط توسعه دهندگان مقیاس کافی است؟ وظیفه امتیاز دهی 165 نفر برای 177 مورد عملی نیست. جداول من نمرات هر خرده مقیاس (نه آیتم ها) را برای همه شرکت کنندگان نشان می دهد. لطفا به من کمک کنید تا بفهمم بهترین راه برای انجام آن چیست. | اندازه گیری آلفای کرونباخ برای تعداد بسیار زیاد آیتم ها |
101420 | من یک تجزیه و تحلیل مکاتبات چندگانه بر اساس 10 عامل انجام داده ام: هر عامل یک سوال بله یا خیر است. عامل اول 22.3 درصد از کل واریانس و عامل دوم 13.6 درصد است. من به تجزیه و تحلیل اجزای اصلی (PCA) و داشتن درصد بالا (بیش از 70٪) عادت دارم. سوال 1: آیا درصد کل 35% (22+13) برای MCA کافی است؟ سوال 2: بر اساس تصویر پیوست شده، آیا زمانی که متغیرها نزدیک به محور دوم هستند، مفهومی وجود دارد؟ هر نظر دیگری در مورد MCA که من انجام داده ام قدردانی می شود.  | درصد تجزیه و تحلیل مکاتبات چندگانه و نقاط نزدیک به یک محور |
20623 | معانی «وابسته تصادفی» و «وابسته عملکردی» چیست؟ تفاوت در چیست؟ (من استفاده از اصطلاحات بالا را در مقاله نمونه برداری حداکثر آنتروپی و طراحی آزمایشی بیزی بهینه دیدم) با تشکر فراوان. | معانی «وابسته تصادفی» و «وابسته عملکردی» چیست؟ |
20620 | من می خواهم بدانم چگونه می توانم به شکل dlm ( dlm PAckage by Petris ) یک معادله حالت مانند این بنویسم: $$a(t+1) = k(t) + F*a(t) + T(t)w (t)$$ که در آن $w$ $N(0,1)$ است. برای سهولت کار می توانم $k$ و $T$ را ثابت فرض کنم. سوال من این است که چگونه می توانم آن را به روشی که توسط یک بسته R برای مدل های خطی پویا توضیح داده شده است دوباره مرتب کنم؟ با تشکر | بسته DLM، معادله حالت |
80050 | من دو افکت اصلی دارم، V1 و V2. اثرات V1 و V2 بر روی متغیرهای پاسخ منفی است. با این حال، به دلایلی من ضریب مثبت را برای عبارت تعامل V1 * V2 دریافت می کنم. چگونه می توانم این را تفسیر کنم؟ آیا چنین وضعیتی امکان پذیر است؟ متشکرم | دو اثر اصلی منفی اما اثر متقابل مثبت؟ |
13427 | من می خواهم کار انجام شده توسط تابع loess در R را دستکاری کنم. با این حال، کار اصلی این تابع در C نوشته شده است. آیا پیاده سازی R خالص از کد وجود دارد؟ با تشکر | آیا اجرای «R خالص» برای لس وجود دارد؟ (بدون کد C؟) |
20624 | من زمان های بین ورود وسایل نقلیه را دارم که توسط یک الگوریتم تشخیص وسیله نقلیه ثبت شده است. من میخواهم نزدیکترین توزیع (به عنوان مثال، پواسون یا موارد دیگر) این دادهها را پیدا کنم. چگونه می توانم این کار را انجام دهم؟ در اینجا نموداری از زمان های بین ورود از یک crosspost در SO آمده است.  | چگونه می توان نزدیک ترین توزیع یک داده را پیدا کرد؟ |
20622 | من عبارات مختلف (به ظاهر) متناقضی را خوانده ام که آیا AdaBoost (یا سایر تکنیک های تقویت کننده) در مقایسه با سایر روش های یادگیری کمتر یا بیشتر مستعد بیش از حد مناسب هستند یا خیر. آیا دلایل خوبی برای باور یکی یا دیگری وجود دارد؟ اگر بستگی دارد، به چه چیزی بستگی دارد؟ دلایلی که AdaBoost کمتر/بیشتر مستعد بیش از حد برازش است چیست؟ | آیا AdaBoost کمتر یا بیشتر مستعد بیش از حد برازش است؟ |
102747 | من مجموعه داده ای از مشاهدات دارم که اثر مشاهده شده را پس از آموزش نشان می دهد. من یک موقعیت پایه دارم (که قبل از آموزش گرفته شده است) که نشان می دهد تعداد دانش آموزانی که دانش خاصی را نشان می دهند و سپس پس از آموزش تعداد افزایش یافته دانش آموزانی که دانش خاصی را نشان می دهند. چگونه نشان دهم که سود قابل توجه است؟ متأسفانه حجم نمونه نسبتاً کوچک است (60 دانشجو). همچنین من اطلاعاتی در مورد جنسیت دانش آموزان دارم. با نگاهی به دادههایی که دارم، میتوانم بگویم که تأثیر جنسیت مرتبط نیست، اما چگونه نشان دهم که درست است؟ متشکرم | بهبود قابل توجه در آموزش - آیا می توانم آن را نشان دهم؟ |
6076 | من یک تازه کار آماری (دانشجوی پزشکی) هستم که شانس خود را با رگرسیون کاکس برای تجزیه و تحلیل بقا در مورد نتیجه یک نوع عمل خاص امتحان می کنم. و من سعی می کنم تعیین کنم که کدام متغیرها را کنترل کنم. و نحوه رسیدگی به سن بیمار در زمان عمل (اندازه گیری-شروع)... در حال حاضر من موارد زیر را به عنوان متغیرهای کمکی در تجزیه و تحلیل خود تنظیم کرده ام (PASW/SPSS): جنس خطر (کم/بالا) (زن/مرد) ) شانت مورد استفاده در عمل (نادرست/درست) تنگی شریان (نادرست/درست) سن در هنگام عمل (مقدار صحیح) من 4 متغیر اول را تنظیم کردم به عنوان دسته (کد ساختگی با 0 و 1) و اولین مقدار (0) را به عنوان مقدار مرجع مشخص کرد. اما در مورد سن بیماران در عمل چطور؟ من فرض می کنم این باید کنترل شود؟ اما سن در شروع اندازه گیری (عملیات) به زمان بستگی ندارد (آیا؟)، اما همیشه یک مقدار هستند، درست است؟ آیا این بدان معناست که باید سن واقعی بیماران را نیز کنترل کنم؟ و آیا این بدان معناست که باید از تابع COX با متغیرهای وابسته به زمان به جای رگرسیون COX معمولی استفاده کنم؟ با تشکر برای هر گونه کمک! با احترام الکس | چگونه سن را در شروع اندازه گیری در رگرسیون کاکس کنترل کنیم؟ |
101427 | من با داده های نظرسنجی خانوارها کار می کنم که در آن خانوارها هزینه های خود را برای محصولات مختلف گزارش می کنند. هدف بررسی کشش های درآمدی برای محصولات مختلف است، بنابراین در اصل من به مخارج خانوارها با توجه به درآمد آنها علاقه مند هستم. مشکل این است که یک رویکرد ثابت در تعیین اینکه کدام دسته از محصولات برای این نوع تجزیه و تحلیل نامعتبر هستند پیدا کنید. منظور من از نامعتبر موارد زیر است: فرض کنید ما دو محصول داریم - شیر و خرچنگ. کاملاً منطقی است که فرض کنیم از آنجایی که خانوارها شیر بسیار بیشتری نسبت به خرچنگ ها مصرف می کنند، نمونه داده شده به احتمال زیاد رفتار خانوارها را نسبت به خرید شیرشان به جای خرچنگ در سراسر طیف درآمد نشان می دهد. من میتوانم سعی کنم با تحلیل ضرایب تغییرات به تغییر در هزینهها در میان خانوارها برای یک محصول معین نگاه کنم یا به نوعی به واریانس متغیر وابسته در رگرسیون خطی مانند «هزینه ~ درآمد» نگاه کنم یا حتی سادهتر میتوانم به نمونه نگاه کنم. اندازه برای هر دسته محصول (یعنی چند خانوار گزارش کرده اند که یک کالای خاص را خریداری کرده اند). با این حال، نمیدانم که آیا رویکرد آماری ثابتی برای این نوع مشکل در تعیین «اعتبار» دستههای محصول وجود دارد؟ هر گونه پیشنهاد یا مرجع بسیار مفید خواهد بود. با تشکر | داده های نظرسنجی خانوارها - دسته بندی محصولات معتبر را تعیین کنید |
80055 | تلاش من با یک نتیجه ناخوشایند به پایان رسید. من فکر کردم بهتر است از تکنیک تابع تولید لحظه (MGF) استفاده کنم. ما می توانیم MGF $W_n$ را به صورت زیر استخراج کنیم: $$ E \left[ e^{tZ /n^2} \right]= \left(1-\frac{2t}{n^2} \right)^ {-n/2}$$ از MGF مجذور کای. اما مشکل این است که محدودیت آن به عنوان $n \to \infty$ $1$ باقی میماند و من در گیج ماندهام که آیا همه کارها را درست انجام دادهام. آیا چیزی را از دست داده ام؟ با تشکر | توزیع محدود $W_n=\frac{Z_n}{n^2}$ , $Z_n \sim \chi ^2 (n)$ |
6077 | یک سوال تازه کار دیگر در اینجا (احتمالا یک تکه کیک برای شما بچه ها). هنگامی که من یک رگرسیون کاکس را اجرا می کنم و یکی از متغیرهای کمکی من قابل توجه است: 95.0% CI برای Exp(B) B SE Wald df Sig. Exp(B) Lower Upper risk 2,224 1,107 4,036 1,045 9,244 1,056 80,950 <5 متغیر کمکی برای وضوح حذف شد> اما تست های Omnibus من از ضرایب مدل (a) مهم نیست. تغییر نسبت به مرحله قبل: Chi-square=10290. df=6. Sig.=0,113. آیا این به این معنی است که مدل من برای هر چیزی خیلی بد است؟ آیا می توانم پس از اجرای این تجزیه و تحلیل، در مورد داده هایم چیزی معتبر بگویم؟ با تشکر از هر سرنخ که مرا به زیبایی آمار کاربردی نزدیکتر می کند... ;) با احترام الکس | تفسیر احتمال ورود به سیستم و اهمیت متغیرهای کمکی در رگرسیون کاکس |
19654 | این مشکل از کتاب است: > اجازه دهید $X = \min(U,V)$ و $Y = \max(U,V)$ برای متغیرهای مستقل > $\text{uniform}(0,1)$ $ U$ و $V$. توزیع های a) > $X$; ب) $1-Y$؛ ج) $Y-X$. من می دانم که هر کدام دارای چگالی $2(1-x)$ برای $0<x<1$ هستند. آنچه من امیدوار هستم توضیحی بصری در مورد چگونگی درک این مشکل و رسیدن به آن راه حل بدون اطلاع از توزیع بتا است. | مشکلات با اکستریم دو متغیر تصادفی یکنواخت |
10021 | با توجه به توزیع گاوسی $N(\mu_1,\sigma_1^2)$، میخواهم میانگین دیگر $\mu_2$ را انتخاب کنم که $2\sigma_1$ از $\mu_1$ فاصله دارد. در این مورد، میانگین جدید ما $\mu_2=\mu_1\pm 2\sigma_1$ است. چگونه میانگین جدید ($\mu_2$) را در حالت چند متغیره محاسبه کنیم؟ منظورم این است که بگویم، وقتی توزیع گاوسی چند متغیره شما $N(\mu_1،\Sigma_1)$ است و $\Sigma_1$ من ماتریس قطعی مثبت متقارن است. یعنی $\left[ \begin{array}{cc} \sigma_x^2 & \sigma_{xy} \\\ \sigma_{yx} & \sigma_y^2 \end{array} \right]$. | محاسبه میانگین جدید در گاوسی چند متغیره |
7348 | من دریافتم که R می تواند زمان زیادی برای ایجاد نمودارها در زمانی که میلیون ها نقطه وجود داشته باشد - با توجه به اینکه نقاط به صورت جداگانه ترسیم می شوند، تعجب آور نیست. بسیاری از نقاط با هم همپوشانی دارند و یک توده سیاه را تشکیل می دهند و زمان زیادی صرف ترسیم نقاط بیشتری در آن جرم می شود. آیا توابع ترسیمی وجود دارد که زمان پردازش را برای تعیین از قبل تعیین تکلیف غیرضروری جایگزین کند؟ من به دنبال نمودار چگالی نیستم (اگرچه این نمودارها اغلب مفید هستند)، من همان خروجی یک فراخوان نمودار ساده را میخواهم، اما در صورت امکان بسیار سریعتر از میلیونها طرح اضافه. | توابع نمودار کارآمدتر در R هنگامی که میلیون ها نقطه وجود دارد؟ |
114485 | من به محاسبه شانس سهام علاقه مند هستم. برای مثال، شانس های ورزشی مانند این است: ترکیه در مقابل اوکراین hwin، قرعه کشی، awin 2.20 3.40 3.20 2.20 برای برد ترکیه، 3.40 برای تساوی و 3.20 برای پیروزی اوکراین. من علاقه مند به محاسبه شانس در چنین قالبی هستم اما برای سهام در این مورد. آیا می توانید به من اشاره کنید یا راهی برای رسیدن به این هدف به من نشان دهید که: GOOGLE 1.20 4.50 3.51 یعنی: 1.20 برای افزایش ارزش، 4.50 برای ثابت ماندن ارزش و 3.51 برای افزایش ارزش سهام. برای محاسبه چنین شانس هایی چه چیزی لازم است؟ تاریخچه قیمت سهم و غیره؟ | محاسبه شانس سهام / سهام |
70432 | بسیار خوب، من یک جنگل تصادفی ایجاد کرده ام، من یک پیش بینی بسیار خوبی از پاسخ دریافت می کنم. بعدش چی؟ چگونه می توانم آن را بیشتر بهبود بخشم؟ من این را میپرسم زیرا اغلب مسابقاتی را در Kaggle میبینم، جایی که RF به عنوان معیار استفاده میشود و بسیاری از افراد موفق میشوند نمرات بسیار بالاتری نسبت به راهحل مبتنی بر RF کسب کنند. در برخی موارد، داده ها نیز بدون برچسب هستند، و شما را از اعمال قضاوت دستی باز می دارد. چگونه آنها RF را با چنین حاشیه مناسبی شکست می دهند؟ | یک پیش بینی جنگل تصادفی خوب دریافت کردم. بعدش چی؟ |
19659 | با توجه به مجموعه ای مرتب شده از نقاط داده، که در آن هر نقطه نشان دهنده طول یک زیررشته مشترک بین دو فایل است، من می خواهم به طور سیستماتیک یک نقطه برش را تعیین کنم که بتوانم آنها را به عنوان کوتاه در نظر بگیرم و دیگر به آنها اهمیت ندهم. اساساً هدف من حذف نقاط داده ای است که نشان دهنده اشتراکات بین دو فایل موجود است، زیرا ما به زیر رشته های کوچکی نگاه می کنیم که احتمال تکرار آنها زیاد است، نه اینکه آنها زیررشته های مشترک واقعی هستند. تلاش من برای حل این مشکل این بود که ابتدا یک هیستوگرام ساده با استفاده از قانون Freedman-Diaconis برای انتخاب پهنای bin ایجاد کنم. یک مثال در اینجا شماره سطل را در سمت چپ و فرکانس را در سمت راست نشان می دهد. 0 : 68 1 : 14 2 : 5 3 : 6 4 : 1 5 : 0 6 : 1 7 : 1 8 : 1 9 : 1 10 : 2 11 : 2 از بالا می بینید که دو سطل اول پر از این ها هستند. مشترکات کوچکی که می خواهم از آنها اجتناب کنم. من نمیخواهم یک نقطه برش «کد سخت» داشته باشم، اما میخواهم برای هر مجموعه داده تصمیم بگیرم. هیچ ایده یا اشاره ای بر اساس آنچه که تا اینجا ذکر کردم برای حل این مشکل وجود دارد؟ همچنین میخواهم در مورد ایدهام برای استفاده از هیستوگرام برای حل این موضوع اطلاعاتی داشته باشم. اگر هر روش دیگری بهتر/عملیتر است یا هر گونه پیشرفتی در آنچه نوشتم، دوست دارم بشنوم. | ایجاد یک آستانه پویا برای پارتیشن بندی داده ها |
17231 | فرض کنید من یک ماتریس کوواریانس $N\times N$ دارم که توزیع مشترک نرمال چند متغیره را توصیف می کند. اکنون 100000 رسم از ماتریس کوواریانس را در نظر بگیرید. من واریانس مقادیر را برای هر ترسیم اندازه گیری می کنم - این را پراکندگی مقطعی می نامیم. اگر میانگین نتیجه پراکندگی مقطعی در سراسر رسم ها را محاسبه کنم، بیان تحلیلی میانگین و واریانس این پراکندگی چیست؟ اگر میخواهید با آن بازی کنید یا ایده خود را آزمایش کنید، در اینجا چند کد وجود دارد: # ایجاد ماتریس کوواریانس 3x3 m1 <- c( 0.1، 0.15، 0) S1 <- ماتریس (c(.1، 0.05، . 02، 0.05، 0.1، 0.03، 0.02، 0.03، 0.1)، نزدیک = 3 ) # 10000 بار از ماتریس کوواریانس بکشید set.seed(1000) library(MASS) <- MASS::mvrnorm(10000,mu=m1,Sigma=S1) # پراکندگی مقطعی را در هر ردیف اندازه بگیرید rowDispersion <- application( draws , 1 , var ) # میانگین را اندازه گیری کنید میانگین پراکندگی مقطعی ( rowDispersion ) # اندازه گیری واریانس پراکندگی مقطعی var ( rowDispersion ) | لحظه دوم ترسیم از یک ماتریس کوواریانس نرمال چند متغیره |
6071 | من مطمئن نیستم که آیا این دقیقاً یک مدل خطای اندازه گیری است یا نه. من روی انجام متاآنالیز کار می کنم و مدلی که با آن شروع می کنم نسبتاً ابتدایی است. \begin{aligned} X_i &= \mu_i + e_i \\\ Y_i &= \beta \mu_i + g_i + \delta_i \end{aligned} اجزای تصادفی $e_i$، $g_i$، و $\delta_i$ هستند، و واریانس برای $e_i$ و $\delta_i$ شناخته شده است. این تحت یک مدل خطای اندازه گیری با اندازه گیری در هر دو پیش بینی و پاسخ قرار می گیرد. چگونه این مدل را در R قرار دهم؟ | مدل کلاسیک خطای اندازه گیری در R |
6074 | زمینه: من یک برنامه نویس هستم با تجربه (نیمه فراموش شده) آمار در دوره های دانشگاه. اخیراً به http://akinator.com برخورد کردم و مدتی را صرف تلاش کردم تا آن را شکست دهم. و چه کسی نبود؟ :) من تصمیم گرفته ام که بدانم چگونه می تواند کار کند. پس از جستجو و خواندن پستهای وبلاگ مرتبط و افزودن مقداری از دانش (محدود) خود به ترکیب حاصل، به مدل زیر میرسم (مطمئن هستم که از نماد اشتباه استفاده خواهم کرد، لطفاً مرا به خاطر آن نکشید): موضوعات (S) و سؤالات (Q) وجود دارد. هدف پیش بینی کننده این است که موضوعی S را انتخاب کند که با توجه به سؤالات و پاسخ هایی که تاکنون جمع آوری شده است، بیشترین احتمال پسین را دارد تا موضوعی باشد که کاربر به آن فکر می کند. اجازه دهید بازی G مجموعهای از سوالات پرسیده شده و پاسخهای داده شده باشد: $\\{q_1, a_1\\}, \\{q_2, a_2\\} ... \\{q_n, a_n\\}$. سپس پیش بینی کننده به دنبال $P(S|G) = \frac{P(G|S) * P(S)}{P(G)}$ است. قبل از سوژه ها ($P(S)$) می توان فقط تعداد دفعاتی که موضوع حدس زده شده است تقسیم بر تعداد کل بازی ها. با این فرض که همه پاسخها مستقل هستند، میتوانیم احتمال موضوع S را با توجه به بازی G به این صورت محاسبه کنیم: $P(G|S) = \prod_{i=1..n} P(\\{q_i, a_i \\} |. S)$ میتوانیم $P(\\{q_i, a_i\\} | S)$ را محاسبه کنیم اگر دنبال کنیم که کدام سؤالات و پاسخها در هنگام استفاده از موضوع داده شده داده شده است: $P({q, a} | S) = \frac{پاسخ\ a\ داده شد\ به\ سوال\ q\ در\ the\ game\ وقتی\ S\\ the\ موضوع {تعداد\ از\ بود times\ q\ was\ ask\ in\ the\ games\ involving\ S}$ حال، $P(S|G)$ توزیع احتمال را بر روی موضوعات تعریف می کند و زمانی که باید سوال بعدی را انتخاب کنیم، باید یکی را انتخاب کنیم. که برای آن تغییر مورد انتظار در آنتروپی از این توزیع حداکثر است: $argmax_j (H[P(S|G)] - \sum_{a=yes,no, maybe...} H[P(S|G \vee \\{q_j, a\\} )]$ من سعی کردم این را پیاده سازی کنم و کار می کند، اما، بدیهی است که با افزایش تعداد سوژه ها، به دلیل نیاز به محاسبه مجدد P(S|G)$ پس از هر حرکت و محاسبه، عملکرد کاهش می یابد. توزیع به روز $P(S|G \vee \\{q_j, a\\})$ برای انتخاب سوال. من گمان میکنم که مدل اشتباهی را انتخاب کردهام، زیرا محدودیتهای دانشم محدود شده است. یا، شاید، یک خطا در ریاضی وجود دارد. لطفاً مرا روشن کنید: با چه چیزی باید خود را آشنا کنم یا چگونه پیش بینی کننده را تغییر دهم تا بتواند با میلیون ها موضوع و هزاران سؤال کنار بیاید؟ | طبقه بندی کننده Akinator.com و Naive Bayes |
80054 | من باید واریانس شرطی $Y_t$ اطلاعات داده شده را تا زمان t پیدا کنم. $Y_t$ = $\mu $ + $\phi_1$$Y_{t-1}$ + $\phi_2$$Y_{t-2}$ +$\epsilon_{t+1}$ نیاز به یافتن واریانس شرطی از این معادله من باید پیش بینی سه گام جلوتر را پیدا کنم. توانست اولین را انجام دهد، اما در مرحله دوم گیر کرد. Var($Y_{t+1}$|$\Omega_t)$ = $\sigma^2$ اما آیا باید Var($Y_{t+2}$|$\Omega_t)$ را پیدا کنید؟ نیاز به راهنمایی | چگونه واریانس شرطی مدل AR(2) را محاسبه کنیم؟ |
111853 | من در حال ارزیابی آزمایشی هستم که در آن آزمودنی ها باید کیفیت فایل های صوتی را ارزیابی می کردند. طراحی آزمایش به صورت تکراری است. بنابراین من سعی می کنم بفهمم کدام عوامل بر کیفیت تأثیر دارند. من از تابع lme برای کنترل واریانس موضوع استفاده می کنم. دامنه و تعداد دو عامل من برای پیش بینی کیفیت هستند. lme(کیفیت ~ دامنه*عدد، داده = مقداری_داده، تصادفی = ~ 1 | موضوع) این نتیجه است: همبستگی: (Intr) دامنه تعداد -0.246 عدد -0.234 - 0.331 دامنه: عدد 0.165 - 0.706 - نه من 0.706 -0. خواستن اگر فروم را به کیفیت ~ دامنه*عدد تغییر دهم، همبستگی: (Intr) کیفیت -0.845 را دریافت می کنم که همان چیزی است که می خواستم. من گیج شدهام زیرا به نظر میرسد که مقادیر پیشبینی در سمت راست فرمول هستند، اما فکر کردم که باید فرمول را مانند «y ~factor1*factor2» مشخص کنم، اما بدیهی است که «factor1*factor2 ~y» درست است. من اینجا چه غلطی می کنم؟ | دریافت نتایج غیرمنتظره lme |
29888 | دو حرف به طور تصادفی از کلمه SENSATION با جایگزینی گرفته شده است. احتمال یکسان بودن حروف چقدر است؟ تلاش برای پاسخ: 9 حرف وجود دارد که می توان حرف S و N را دو بار رسم کرد که احتمال هر S را می دهد: 2/9، N:2/9 حالا من حدس می زنم که احتمال اینکه حروف ترسیم شده یکسان باشند. 2/9*2/9 = 4/81 است آیا درست است؟ | احتمال ترسیم حروف از یک کلمه |
90928 | من یک بار با یک مجموعه آموزشی به سؤال زیر برخورد کردم، آیا می توان برچسب زدن خودکار را انجام داد؟ علاوه بر این، اگر این مجموعه آموزشی از فایل های متنی ساده تشکیل شده باشد، آیا می توان دانست که بهترین توصیف کلاس مثبت و بهترین توصیف کلاس منفی چیست؟ احساس من این است که برچسب زدن خودکار را می توان به عنوان یک یادگیری بدون نظارت تلقی کرد. یافتن بهترین توصیف از مجموعه ای از اسناد متنی را می توان به عنوان یک مشکل استخراج اطلاعات در نظر گرفت. اما می خواهم بدانم آیا روش یا مقاله رسمی برای بحث در مورد این مشکل وجود دارد؟ چه وضعیتی برای این موضوع وجود دارد؟ | برچسب زدن خودکار مجموعه آموزشی |
6079 | من یک رگرسیون خطی در R انجام دادم و نتیجه زیر را گرفتم: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 192116.40 6437.27 29.844 < 2e-16 *** cdd 272.74 26.94 10.123 1.56e-09 *** pmax(hdd - 45.2 2.738 0.0123 * --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقی مانده: 16500 در 21 درجه آزادی چندگانه R-squared: 0.8454، R-squared تنظیم شده: 0.8307 آمار: 57.41 در 2 و 21 DF، p-value: 3.072e-09 سوال من به مقدار مربع R، 0.83 مربوط می شود و اگر بخواهم درصد سهم تقریبی هر متغیر (ماهانه) را مشخص کنم، به چه معناست. ویرایش: داده ها را در زیر ببینید. بگویید من 12 نقطه داده اول hdd و cdd را میگیرم و مجموع 12 پیشبینی (یعنی کل پیشبینی سال اول) را با استفاده از ضرایب بالا محاسبه میکنم. سهم پایه (برق) در سال تقریباً 12 * 192116.40 = 2305397 خواهد بود، درست است؟ به طور مشابه، سهم cdd در سال تقریباً 1608 * 272.74 = 438565.9 خواهد بود و hdd (بعد از عملکرد لولای دست ساز من) تقریباً 1329 * 61.73 = 82039.17 خواهد بود. از مجموع این سه مقدار، 2826002 حاصل می شود که در حدود 1.3٪ از کل استفاده واقعی است (2862840، مجموع 12 انتخاب اول). آیا می توانم بگویم که cdd 438565.9/2826002 = 0.1551895 یا تقریباً 16٪ از کل سالانه را تشکیل می دهد؟ یا باید آن را بگیرم و R-squared تعدیل شده را جبران کنم: 0.1551895*0.8307= 0.1289159 (یعنی ضرب در R-squared تعدیل شده)، تقریباً 13٪ از کل؟ یا هیچ کدام از این استدلال درست نیست؟ دادههای من عبارتند از: elec hdd cdd 1 235940 880 3 2 205380 772 4 3 211780 551 9 4 192220 281 68 5 221440 165 119 6406 304 4 434 8 300440 11 339 9 272900 42 214 10 204220 322 44 11 201060 592 8 12 229460 784 2 13 210454071 2 15 186660 618 15 16 195340 332 88 17 241200 109 159 18 260700 18 282 19 299940 29 367 20 2934246 159 22 208380 319 36 23 183820 452 7 24 231360 903 0 (چرخه صورتحساب ماهانه برای elec می تواند از 29 تا 32 روز باشد، به طوری که واریانس زیادی تزریق می کند. من هنوز تمام طول دوچرخه را ندارم. به یک روز معاملاتی نوعی تعدیل.) | نتیجه مربع R در رگرسیون خطی و واریانس غیر قابل توضیح |
64697 | بگویید من یک نظرسنجی از 100 نفر انجام دادم و پرسیدم که آیا آنها روزانه سبزیجات می خورند یا خیر. از جامعه نمونه من، 60 نفر می گویند که دارند، 40 نفر می گویند که ندارند. الان هم تفکیک نر و ماده دارم. از 60 نفری که روزانه سبزیجات می خورند، 45 نفر زن و 15 نفر مرد هستند. از 40 نفری که روزانه سبزیجات نمی خورند، 15 نفر زن و 25 نفر مرد هستند. اکنون، مطالعه اولیه من جنسیت را کنترل نکرد، اما اکنون میخواهم ببینم که آیا جنسیت تأثیری بر مصرف روزانه سبزیجات دارد یا خیر. آیا می توانم از آزمون دقیق Chi-Squared/Fischer با [45,15;15,25] به عنوان جدول احتمالی خود استفاده کنم؟ یا باید از آزمون مک نمار استفاده کنم و تطبیق جفتی انجام دهم؟ همچنین اگر من chi-square انجام دهم، آیا این یک تست خوب تناسب اندام Chi-Square یا یک Test Independence Chi-Square در نظر گرفته می شود؟ | آیا باید از آزمون Chi Squared/Fisher's Exact Test یا McNemar's Test استفاده کنم؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.