_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
31632
متون فراوانی در مورد مدل‌های VAR وجود دارد که نحوه آزمایش پیش‌شرط‌ها، مشخص کردن و تخمین مدل‌های VAR را برای سری‌های زمانی ثابت و همچنین هم‌انباشته می‌آموزد. با این حال، من هنوز در مورد معنای پارامترهای مدل کمی گیج هستم. یعنی ضرایب $\phi_{ijk}$ فی-ماتریس در مدل استاندارد VAR(p): $\boldsymbol{x}_t = \Phi_1 \boldsymbol{x}_{t-1} + \dots + \Phi_k \boldsymbol{x}_{t-k} + \dots + \Phi_p \boldsymbol{x}_{t-p}+ \boldsymbol{\epsilon}_t$ از آنچه من می‌دانم، در حالت تک متغیره، ضریب $\phi_{11,k}$ تخمینی از PAC ارائه می‌کند (همبستگی خودکار جزئی) از $k$-th تاخیر $x_t$. من می‌دانم که این همبستگی (خودکار) x_t$ با $k$-th تاخیر $x_{t-k}$ آن است، در حالی که همه همبستگی‌های دیگر $\phi_{11,t-l}$ با $l \ne k$ برای کنترل می شوند. 1. چیزی که من در مورد آن واضح نیستم این است که چگونه ضرایب $\phi_{ijk}$ را در حالت چند متغیره کلی تر تفسیر کنم: با در نظر گرفتن یک مدل VAR(p) دو متغیره، آیا $\phi_{11k}$ همچنان یکسان است. تفسیری که در حالت تک متغیره وجود دارد یا اکنون انجام می دهد، در واقع نشان دهنده همبستگی جزئی (خودکار) x_t$ با $k$-th تاخیر آن است. $x_{t-k}$، زمانی که همه همبستگی‌های دیگر $\phi_{11,l}$, $\phi_{12,l}$ و $\phi_{21,l}$ ($l \ne k$) هستند کنترل شده برای؟ اگر واقعاً، آن همبستگی‌های دیگر برای تأخیرهای $l \ne k$ کنترل می‌شوند، در مورد همبستگی $\phi_{12,k}$ با تأخیر مشابه $\phi_{11k}$، آیا برای آن کنترل می‌شود. خوب 2. همچنین به همبستگی های جزئی بین همه اجزای $\boldsymbol{x}_t$ بدون تاخیر زمانی علاقه مند هستم، بنابراین در حالت دو متغیره بین $x_{1,t}$ و $x_{2,t}$ پس از کنترل همه همبستگی های عقب افتاده. این در اصل باید توسط $\Sigma_{\boldsymbol{\epsilon}}=\text{Cov}(\boldsymbol{\epsilon}_t)$ داده شود. اینجا چیزی از دست دادم؟ 3. یک روش خوب (استاندارد) برای تعیین اهمیت همبستگی های جزئی در این تنظیمات (با و بدون تاخیر زمانی) چیست؟ پیشینه سوالات من این است که من مجموعه داده ای از 12 سری زمانی دارم که از تعاملات زوجی (6 سری برای هر نفر) نشات می گیرد. من می خواهم سری ها را بررسی کنم (طول کل = 180)، که نشان دهنده متغیرهای عاطفی هستند که به طور فرضی با یکدیگر مرتبط هستند. یک راه ساده برای به دست آوردن یک نمای کلی از ساختار دینامیکی سیستم دوتایی به عنوان یک کل، تخمین همبستگی جزئی بین سری ها (با و بدون تاخیر) است. برای جلوگیری از همبستگی های جعلی، من در واقع از تکنیک های هم انباشتگی استفاده می کنم، بنابراین یک ECM(p) به دست می آوریم، که سپس می تواند به عنوان VAR(p) فرموله شود. من فرض می کنم که $p=2$ برای سیستم مورد نظر کافی باشد.
چند سوال در مورد مدل‌های VAR، ضرایب ماتریس $\Phi$ و همبستگی‌های جزئی (خودکار)
103734
در R، معمولاً یک مدل افزایشی تعمیم یافته مانند این را انجام می دهید: library(mgcv) x <- gam(depvar ~ s(indvar1) + s(indvar2) + parametricvar) بگویید من می خواهم تعامل ناپارامتریک «indvar1» را بررسی کنم. و indvar2. آیا کوشر زیر است؟ آیا در پیاده سازی چنین مدلی مسائلی از نظر اعتبار آماری وجود دارد؟ x <- gam(depvar ~ s(indvar,indvar2) + parametricvar)
آیا نگرانی هایی در مورد انجام یک مدل افزایشی تعمیم یافته با عبارت هموارسازی متغیرهای متعدد وجود دارد؟
31636
چگونه تعیین می کنید که آیا درصد رشد بین دو دوره زمانی از نظر آماری معنادار است؟ به عنوان مثال، کل جمعیت در سال 2000، 180000 نفر بود. ده سال بعد به 220000 افزایش یافت. چگونه تشخیص می دهید که این رشد 22 درصدی قابل توجه بوده است؟ به همین ترتیب، گروه A (6000 نفر) در سال گذشته 50000 پوند درآمد کسب کردند. گروه B (9000 نفر) 65000 پوند درآمد کسب کرد. آیا سود 50 درصدی گروه B نسبت به گروه A از نظر آماری معنادار است؟
اهمیت آماری تغییر جمعیت
39194
صبح بخیر، با مقایسه دندروگرام های تولید شده توسط شی **clustergram** و رویکرد دستی یعنی **pdist** -> **linkage** -> **dendrogram** متوجه شدم که آنها متفاوت هستند، اما نمی توانند توضیحی برای این تفاوت پیدا کنید. مستندات Clustergram می‌گوید که فاصله پیش‌فرض استفاده شده **'Euclidean'** و روش پیوند پیش‌فرض **'Average'** است، همان پارامترهایی که برای توابع **pdist** و **linkage** استفاده کردم. من فکر کردم که ممکن است با **استانداردسازی** انجام شده توسط **clustergram** مرتبط باشد، بنابراین از zscore برای استانداردسازی ابتدا ماتریس خود و سپس هر ستون به طور جداگانه استفاده کردم، اما دندروگرام ها هنوز در مقایسه با آنچه توسط * تولید می شود متفاوت است. *کلاسترگرام**. آیا کسی می تواند دلیل این تفاوت را توضیح دهد، و چگونه می توانم از رویکرد دستی برای گرفتن همان دندروگرام استفاده کنم؟ پیشاپیش سپاس فراوان ویرایش: نتایج به دست آمده از روش دستی را با نتایج **SPSS** مقایسه کردم و آنها یکسان هستند. همچنین همه گزینه‌های مختلف ** 'پردازش داده'** را با **clustergram** آزمایش کردم، اما دندروگرام همچنان متفاوت است.
دندروگرام ها با استفاده از کلاسترگرام در مقابل روش های سنتی در Matlab
88470
من در حال حاضر به SPSS حمله می کنم، و من فقط در حال تست نرمال بودن هستم... در آزمون آماری Shapiro-Wilk، متغیرهای وابسته من دارای طیف گسترده ای از سطوح معنی داری هستند. بدیهی است که من می دانم که نشانه. باید >0.05 باشد که اکثر متغیرها به غیر از 1 متغیر هستند. **آیا این بدان معنی است که همه داده های من ناپارامتریک هستند و باید از آزمایش دیگری استفاده کنم؟** * داده های من در زیر آمده است: **0.077**، 0.400، 0.169، 0.157. _به صورت پررنگ متغیری است که نرمال نیست_
آیا همه متغیرهای وابسته من باید برای یک فرض ناپارامتریک نرمال باشند؟
40695
من درگیر یک مطالعه تودرتو مورد-شاهدی هستم که شامل گروه‌هایی از موارد و کنترل‌هایی است که وارد یک برنامه می‌شوند، با نتیجه شکست تا شش ماه. موارد و کنترل ها به صورت جداگانه در ماه / سال ورود مطابقت دارند. من تعداد زیادی (بیش از 10000) از هر دو را دارم. یک عامل خطر اولیه مورد علاقه دریافت تشخیص پزشکی (روانی، اسکلتی عضلانی، تنفسی) پس از ورود و قبل از 6 ماهگی است. من زمان فرد را در معرض خطر برای موارد و کنترل برای ایجاد این عامل خطر دارم، و می توانم به طور مستقیم تراکم بروز شروع عامل خطر را در هر گروه اندازه گیری کنم. **اکنون، برای پس‌زمینه:** خطر نسبی (RR) به این صورت تعریف می‌شود: $$ \frac{\left(\frac{N_\text{Cases exposur}}{N_\text{population exposur}}\right) }{\left(\frac{N_\text{cases unexposed}}{N_\text{population unexposed}}\right)}. $$ نسبت نرخ بروز (IRR) به صورت زیر تعریف می‌شود: $$ \frac{{\left(\frac{N_\text{Cases exposur}}{\text{Person-time Exposur}}\right)}}{\ left(\frac{N_\text{cases unexposed}}{\text{Person-time unexposed}}\right)}. $$ نسبت شانس (OR) به این صورت تعریف می‌شود: $$ \frac{N_\text{cases exposur}*N_\text{controls unexposed}}{N_\text{controls exposur}*N_\text{cases unexposed}} . $$ تحت فرض بیماری نادر OR تقریبی RR است. **سؤالات من:** آیا می توانم به طور معتبری نسبت شانس را با استفاده از زمان فرد گسترش دهم: $$ \frac{N_\text{cases exposur}*\text{Person-time unexposed}}{N_\text{controls exposur} *\text{Person-time Exposur}} $$ * برای تقریبی IRR؟ * اگر نه، چرا که نه و چه جایگزینی را پیشنهاد می کنید؟ * اگر بتوانم این کار را انجام دهم، آیا رگرسیون لجستیک مناسب خواهد بود؟ * چه رویکردهای تحلیلی دیگری را پیشنهاد می کنید؟
آیا می توانم به طور معتبر نسبت شانس را به طور مشابه به رابطه بین خطر نسبی و نسبت نرخ بروز گسترش دهم؟
35820
چگونه این را ثابت کنیم: **گزاره** اگر $F_n$ تابع توزیع یک متغیر تصادفی $\textrm{Bin}(n,p)$ باشد، برای هر $t$ ثابت واقعی، دنباله $\ \{F_n(t)\\}_{n=1}^\infty$ غیر افزایشی است. P.S. اینجا یک ویرایش سنگین بود.
توزیع تجمعی متغیر تصادفی دو جمله ای
103862
من روی یک مشکل پیش‌بینی کار می‌کنم که از مجموعه داده‌های بالینی کم استفاده می‌کند. نرخ داده از دست رفته در محدوده 80٪ است. 1- من نمی دانم که آیا نمونه ای از کاربرد تکمیل ماتریس در مجموعه داده های بالینی یا سایر داده ها با چنین نرخ های گمشده وجود دارد؟ 2- Currenlty کاوش glmnet، pcaMethods و بسته های SoftImpute. من همچنین به دنبال بسته‌های R/روتین‌های SAS هستم که بتواند چنین ماتریس داده‌های بالینی پراکنده را مدیریت کرده و تکمیل ماتریس را انجام دهد. 3- می‌خواهم قابلیت اطمینان مقادیر تکمیل‌شده‌ام را ارزیابی کنم، آیا معیار یا امتیازی برای ارزیابی کیفیت تکمیل ماتریس وجود دارد؟ پیشاپیش متشکرم
رویکردهای تکمیل ماتریس برای کلان داده های مراقبت های بهداشتی
4146
هنگام توسعه یک نرم افزار سری زمانی با هدف عمومی، آیا ایده خوبی است که آن را در مقیاس ثابت کنیم؟ چگونه می توان این کار را انجام داد؟ من یک سری زمانی حدود 40 امتیاز گرفتم و سپس در فاکتورهای 10E-9 تا 10E3 ضرب کردم و سپس عملکردهای ARIMA Forecast Pro و Minitab را اجرا کردم. در Forecast Pro، همه به یک پاسخ (مدل‌سازی خودکار) منجر شدند، در حالی که در Minitab اینطور نبود. مطمئن نیستم که Forecast Pro چه کاری انجام می دهد، اما ممکن است قبل از اجرای مدل، تمام اعداد را تا یک مقیاس خاص (مثلا 100 ثانیه) افزایش یا کاهش دهند. آیا این ایده به طور کلی خوب است؟
تحلیل متغیر مقیاس سری های زمانی
4140
من احساس می‌کنم که در این زمینه کاملاً تازه کار هستم، زیرا مدتی از آخرین تکلیف آماری من گذشته است، بنابراین لطفاً مرا تحمل کنید. من در حال تجزیه و تحلیل نتایج یک آزمایش بیولوژیکی هستم. اساسا، من به یک نمودار روی یک ژنوم نگاه می کنم، که در آن هر موقعیت در ژنوم یک مقدار دارد، و من به دنبال حداقل های محلی (قله ها) هستم. اکنون، من باید مقداری آستانه تعیین کنم زیرا حداقل های محلی نسبتاً بالا نیز به طور تصادفی رخ می دهند. من می‌توانم آزمایش را به صورت محاسباتی شبیه‌سازی کنم و داده‌های جدیدی دریافت کنم، اما این کاملاً نیازمند منابع است (من نمی‌توانم 1000 شبیه‌سازی، شاید 100 یا حتی فقط 20 شبیه‌سازی را اجرا کنم). کاری که من در حال حاضر انجام می دهم اجرای برخی شبیه سازی ها است. برای هر شبیه سازی: تمام مینیمم های محلی را پیدا کنید، یک CDF برای حداقل های محلی بسازید. سپس تمام CDF های شبیه سازی را بر روی همه شبیه سازی ها میانگین می کنم، بنابراین یک CDF «متوسط» دارم (CDF_simulations) که قرار است نشان دهد اگر همه چیز در ژنوم من تصادفی باشد، حداقل های محلی چگونه توزیع می شوند. من همین کار را برای داده‌های واقعی انجام می‌دهم: حداقل‌ها را پیدا می‌کنم و برای مقادیرشان CDF می‌سازم، بنابراین اکنون دو CDF دارم - یکی برای داده‌های واقعی و دیگری برای میانگین شبیه‌سازی‌ها. من اکنون حداکثر x را جستجو می کنم به طوری که CDF_simulations(x) / CDF_realdata(x) < 10٪ باشد. من تمام حداقل های موجود در داده های واقعی را با مقدار < x به عنوان درست گزارش می کنم. من فکر می کنم این روش باید من را به نرخ FP 10٪ برساند. * آیا این منطقی است؟ * نام این روش چیست و از کجا می توانم اطلاعات بیشتری در مورد آن پیدا کنم؟ * چگونه باید CDF ها را اسکن کنم تا x مناسب را پیدا کنم؟ گاهی اوقات برای x کم CDF_simulations(x) > CDF_realdata(x). * تعداد شبیه سازی ها از کجا وارد بازی می شود؟ آیا ساختن یک CDF متوسط ​​مانند من منطقی است؟ فکر می‌کنم این کاملاً رایج است، و نام FDR نیز به ذهنم خطور می‌کند، اما وقتی در مورد FDR مطالعه می‌کردم دقیقاً نمی‌توانستم بفهمم که چگونه آن را در موقعیتم اعمال کنم. هر گونه نظر و مرجع (امیدوارم آنهایی که کاربر پسند) قدردانی خواهد شد! ممنون دیو
چگونه می توانم نرخ مثبت کاذب را کنترل کنم؟
39199
من از یادداشت های سخنرانی خود خواندم که همبستگی پیرسون را می توان به صورت $\frac{s_{xy}}{s_xs_y}$ محاسبه کرد. اگر مقدار محدودی از نقاط داده $(x_i,y_i),i=1,\ldots,n$ به من داده شده است، چگونه می توانم همبستگی پیرسون را با استفاده از فرمول $\tfrac{s_{xy}}{s_xs_y}$ محاسبه کنم ? من موفق شدم که $s_{xy}=\dfrac{\sum_{i=1}^n (x_i-\bar{x})(y_i-\bar{y})}{n-1}$ را پیدا کنم، اما من فرمول مشابهی برای $s_x$ و $s_y$ پیدا نکرد.
$s_x$ در همبستگی پیرسون چیست؟
103798
من می خواهم یک GAM را در R قرار دهم. داده های من دوجمله ای منفی هستند. به علاوه آنها یک خودهمبستگی زمانی دارند. m1 <- gam(Y~s(X,Day), s(fDate, bs=re), family=negbin(c(1,10), link = log), data=data) Resid <- resid( m1) acf(Resid) با تابع acf() یک خودهمبستگی زمانی را شناسایی کردم. آیا می توانم یک ساختار همبستگی را در `gam()` اعمال کنم، یا باید از `gamm()` استفاده کنم، زیرا در `gamm()` نمی توانم از یک تابع دوجمله ای منفی استفاده کنم، یا آیا با آن کار اشتباهی انجام می دهم. ? آیا اساساً می توان یک خانواده دوجمله ای منفی را در «gamm()» به این شکل اعمال کرد؟ m2 <- گام (Y~s(X,Day)، تصادفی=لیست(تاریخ=~1)، خانواده=negbin(c(1,10)، پیوند = گزارش)، همبستگی=corAR1(شکل=~روز)، داده=داده)
GAM با خودهمبستگی دوجمله ای و زمانی منفی
103866
ما در حال جمع‌آوری آماری از سیستم صف‌بندی و پردازش هستیم که بخشی از کسب‌وکار ما را تامین می‌کند. ما چندین سرور داریم که موارد را در یک صف پردازش می کنند. ما اخیراً سرورهای جدیدی اضافه کرده‌ایم و می‌خواهیم بدانیم که آیا در حال پردازش سریع‌تر هستیم یا خیر. منظور من از پردازش سریعتر چیزی شبیه به این است: > هفته گذشته، همه سرورهای ما میانگین ترکیبی X فایل در دقیقه > را در زمان اوج بار ما پردازش کردند. این هفته، همه سرورهای ما ترکیبی > میانگین فایل Y در دقیقه را در زمان اوج بار پردازش کردند. آیا X و Y به اندازه کافی متفاوت هستند که از نظر آماری معنی دار باشند؟ داده هایی که من به آنها دسترسی دارم چیزی شبیه به این نمودار است که تعداد فایل های پردازش شده در هر ثانیه را برای یک دوره زمانی یک ساعته نشان می دهد. من به حدود 3 ماه از این نوع داده ها دسترسی دارم. ![تعداد فایل های پردازش شده در هر ثانیه](http://i.stack.imgur.com/Fyqxk.png) من در آمار مینور دارم، اما 10 سال از تحصیل خارج شده ام. پس لطفا مهربان باشید :-) خیلی ممنون! آلن
آیا پردازش صف ما سرعت بیشتری دارد؟
100441
من یک چند جمله ای به شکل $K^2((a-i)^2 + (b-j)^2 + c^2) = (ct)^2$ دارم که $a,b,c,t$ مجهول هستند. من چندین نقطه مشاهده برای مقادیر $i,j,\&\ K$ دارم. * آیا می توانم از تکنیکی برای یادگیری مقادیر $a,b,c,\&\ t$ از اینها استفاده کنم؟ * آیا برخی از تکنیک های یادگیری ماشین می تواند در این مورد به من کمک کند؟ * آیا رگرسیون غیرخطی در اینجا کمک کننده خواهد بود؟ من در یادگیری ماشینی تازه کار هستم و درک عمیقی از آن ندارم. با تشکر
آموزش یک چند جمله ای چند متغیره با ضرایب وابسته
31633
من آزمایشی را برای بررسی پاسخ یک مخمر (که حاوی 5000 ژن است) به استرس ناشی از شوک گرمایی انجام داده ام. من یک لیست از 48 ژن دارم که در دمای 37 درجه سانتیگراد بیش از حد بیان می شوند و لیست دیگری از 145 ژن که در دمای 42 درجه سانتیگراد بیش از حد بیان می شوند. 38 ژن وجود دارد که در هر دوی آنها بیش از حد بیان می شود. به طور تصادفی من انتظار داشتم که فقط 1 ژن در هر دوی آنها بیش از حد بیان شود، چگونه می توانم محاسبه کنم که همپوشانی که به دست آورده ام به طور قابل توجهی است؟ چگونه می توانم مقدار $p$ را بدست بیاورم؟ من چیزی در مورد آمار زیستی یا نرم افزار ریاضی نمی دانم. خیلی ممنون!!! هر کمکی بسیار استقبال خواهد شد :)
آیا همپوشانی بین دو نمونه بیان ژن قابل توجه است؟
87712
**مقدمه کوتاه** در یک مسئله طبقه بندی، هدف این است که بر اساس مجموعه ای از مثال ها که عضویت در دسته بندی آنها مشخص است، یک مشاهده جدید به کدام یک از دسته بندی ها تعلق دارد. نکته اصلی هر راه‌حلی برای این مشکل، یافتن مجموعه‌ای از ویژگی‌ها است که طبقه‌بندی نمونه‌ها را به دسته‌های مربوطه (فرضیه) توصیف می‌کند. وقتی اندازه مجموعه دسته‌ها بزرگ است، به اطلاعات بیشتری برای تمایز بین دسته‌های مختلف نیاز داریم (به عنوان مثال، می‌توانیم به دنبال ویژگی‌های بیشتری باشیم). همچنین، اگر نمونه‌های یک دسته خاص دارای واریانس بالایی باشند (واریانس درون کلاسی)، به دلیل وجود برخورد بین اعضای طبقات مختلف، یافتن ممیز دشوارتر است. **سوال** می‌خواهم بدانم آیا روش اکتشافی سریعی برای ارزیابی مشکل یادگیری وجود دارد یا خیر. به عنوان مثال، من می خواهم تعداد برخوردهای بین دسته های مختلف را ارزیابی کنم. مشکل آموزش طبقه بندی کننده و انجام نوعی اعتبارسنجی متقابل این است که راه حل به انتخاب مدل یادگیری بستگی دارد.
ارزیابی برخوردها در مسائل طبقه بندی
103869
آیا معیاری آماری برای داده‌های سری زمانی غیرخطی وجود دارد که با مقدار $R^2$ در رگرسیون خطی قابل مقایسه باشد (که ایده خوبی از تناسب ارائه می‌دهد)؟ داده ها یکنواخت نیستند، بنابراین من نمی توانم از $\rho$ اسپیرمن استفاده کنم. و خطی نیست، بنابراین $\rho$ پیرسون در اینجا نیز معتبر نیست. داده ها به شکل زیر به نظر می رسند (اغلب کاهش یکنواخت است. اما از آنجایی که در سال یازدهم افزایش یافته است، کاملاً یکنواخت نیست): ![بیشتر کاهش یکنواخت. اما از آنجایی که چندین سنبله وجود دارد، یکنواخت نیست](http://i.stack.imgur.com/AJgys.png) در اینجا منحنی نمایی متناسب (به رنگ آبی) و داده اصلی (قرمز) آمده است![enter توضیحات تصویر در اینجا](http://i.stack.imgur.com/DOToR.png) Qqplot اینجاست: (به نظر نمی رسد مناسب باشد اگرچه باید خوب باشد یکی به خاطر تصویر بالا؟) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/LsPkb.png)
مطابقت $R^2$ برای سری های زمانی غیرخطی
100448
ماشین های بردار پشتیبان طبقه بندی باینری را انجام می دهند. اگر بیش از دو کلاس وجود داشته باشد، می توان به جای یک کلاس چند کلاسیفایر آموزش داد. دو رویکرد متداول عبارتند از آموزش طبقه‌بندی‌های _one در مقابل یک_ (هر کلاس در برابر همدیگر) و _one در مقابل همه_ (هر کلاس در برابر همه کلاس‌های دیگر). بگویید که من حجم نمونه نسبتاً کوچکی دارم، به عنوان مثال. N=200. آیا من داده ها را به مجموعه های آموزشی و آزمایشی به طور جداگانه برای هر طبقه بندی کننده تقسیم می کنم؟
مجموعه آموزشی برای SVM های چند کلاسه چگونه ساخته می شود؟
35824
لطفاً یک پاسخ واضح، ساده و توضیحی بدهید که هر 7 ساله بتواند آن را بفهمد. همچنین می توانید به یک راهنمای رگرسیون که بسیار خوب و ساده است پیوند دهید. در تمام طول مسیر باید کاملاً توضیحی باشد. این چیزی است که باعث می شود یک نوشته خوب، نه بد، از آن یاد بگیریم. برخی از سؤالات فرعی در سؤال اصلی من عبارتند از: * هدف از رگرسیون چیست؟ * چرا به آن نیاز داریم؟ * چه کار می کند؟ * اگر وجود دارد، در کدام دسته بندی ریاضی قرار می گیرد؟ * آیا می توانید از یک ماشین حساب در وب برای محاسبه خودکار رگرسیون استفاده کنید؟ چه سایت خوبی است که این ماشین حساب یا نرم افزار را برای دانلود و انجام این عملکرد داشته باشد * نتیجه یک رگرسیون به شما چه می گوید؟ یا فرض کنید به شما بگویم؟ سؤالات پرسیده شده که مستقیماً با این سؤال اصلی مرتبط هستند: * تحلیل رگرسیون چگونه به درک چگونگی تغییر مقدار معمولی متغیر وابسته کمک می کند؟ * http://stats.stackexchange.com/questions/35831/what-does-it-mean-when-it-seys-with-respect-to-a-conditional-probability-distri * تحلیل رگرسیون دقیقاً چه چیزی را تخمین می زند؟
رگرسیون به 7 سالگی را توضیح دهید
35823
اجازه دهید $g(x)=1$ اگر $x \leq c$ و $g(x)=(1-x)/(1-c)$، که $0 \leq x \leq 1$ و $0 <c < 1 دلار بنابراین $g$ یک تابع غیرافزاینده است. $g^{-1}(y)=\inf\\{0 \leq x \leq 1 \mid g(x) \leq y\\}$ را تعریف کنید. اکنون $X$ یک متغیر تصادفی است که مقادیر $0، 0.1، 0.2، \ldots، 1$ را می گیرد. آیا درست است که $$ \mathbb P(g(X) \leq b) = \mathbb P(g^{-1} g(X) \geq g^{-1}(b)) \leq \mathbb P (X \geq g^{-1}(b)) \,? $$
توزیع احتمال برای تبدیل یک متغیر تصادفی
103867
اول، کمی پیش زمینه: من در حال حاضر روی پروژه ای کار می کنم که داده های عرض متغیر تولید می کند. در طول صلاحیت عملیات، من مجموعه ای از داده ها را در سطوح پایین، اسمی و بالا جمع آوری کردم. همه داده‌ها مستقل هستند و من هیچ دلیلی ندارم که انتظار داشته باشم چیزی جز توزیع‌های یکسان از بخش به قسمت وجود داشته باشد، زیرا فرآیند با تغییرات جزئی پارامتر (مثلاً فشار و سرعت) یکسان است. اکثریت (15 از 18 جمعیت نمونه) اندرسون-دارلینگ را قبول کردند، اما تعداد کمی از مجموعه داده ها این کار را نکردند. مهندس کیفیت من از من می خواهد که یکی از این مجموعه داده ها را تغییر دهم و از توزیع Weibull (که مقدار P 0.079 را نشان می دهد) استفاده کنم فقط به این دلیل که یک همبستگی جزئی وجود دارد. برای روشن شدن، هدف انجام تجزیه و تحلیل قابلیت فرآیند برای هر مجموعه داده است. سوال(های) من: آیا تغییر کورکورانه داده ها با وجود اینکه من دلیلی ندارم اشکالی ندارد؟ همیشه به من آموخته‌اند که اگر داده‌های مستقل و یکسانی داشته باشید که قضیه حد مرکزی به شما امکان می‌دهد تحلیل قابلیت روی داده‌ها را به گونه‌ای عادی انجام دهید، آیا این نادرست است؟
آیا برای تبدیل داده های غیر عادی نیاز به توجیه دارید؟
39192
آیا مطالعات آماری یا اقتصادسنجی قبل از سال 2008 وجود دارد که بحران مالی 2008 را پیش بینی کرده باشد؟ توجه داشته باشید که برخی از نشریات وجود دارند که سعی در پیش بینی سرایت بین بازارها با استفاده از مفهوم copula از نظریه احتمال دارند.
آیا آمارگران بحران مالی 2008 را پیش بینی کرده بودند؟
103865
این ممکن است کمی ابتدایی و احمقانه به نظر برسد، اما من در سراسر اینترنت جستجو کردم تا ببینم طول تاخیر IS چقدر است. من می خواهم یک تست EG ADF انجام دهم، اما برای ADF، همیشه از شما می خواهد که یک تاخیر مشخص شود. به نظر من هر زمان که طول تاخیر را بررسی می کنم، اکثر مردم فقط در تعیین اینکه چه چیزی باید باشد مشکل دارند. می خواهم بدانم طول تاخیر چیست؟ به چه معناست
طول تاخیر چیست؟
4142
من دو آزمون آماری دارم که معکوس یکدیگر هستند، به این معنی که فرضیه صفر معکوس است. من می خواهم از هر دو آزمون برای تصمیم گیری استفاده کنم. برای این منظور قصد دارم موارد زیر را انجام دهم: * اگر هر دو آزمون به یک نتیجه اشاره می کنند (مثلاً با رد فرضیه صفر در آزمون A و رد نکردن فرضیه صفر در آزمون B یا برعکس)، آنگاه من ادامه دهید و آن تصمیم را بگیرید * از طرف دیگر، اگر نتایج دو آزمون متناقض باشند، من تفاوت p-value را از آلفا (مثلا 0.05) برای هر آزمون اندازه می‌گیرم و با یکی که بیشترین انحراف را دارد (من برخی از قوانین جداکننده دارم، اما اجازه دهید آن را اینجا بگذاریم) به نظر من منطقی است، اما آیا زمینه آماری در تفسیر مقادیر p مانند این وجود دارد؟ من مطمئناً قبلاً برنامه مشابهی ندیده ام (در مواجهه محدود من). ویرایش: اجازه دهید سوال را با زمینه و تست های واقعی بیشتر توضیح دهم. من در حال آزمایش ریشه های واحد در سری های زمانی هستم تا مشخص کنم که آیا سری نیاز به تفکیک دارد تا بتوان آن را میانگین-ایستا نشان داد. تست های خاص عبارتند از تست KPSS، با تهی بودن بدون ریشه واحد، و تست ADF با تهی بودن ریشه واحد وجود دارد. اگرچه فرضیه های صفر به هم مرتبط هستند (و معکوس هم هستند)، اما رگرسیون آزمون و آمار به نظر من کاملاً متفاوت است.
103868
بنابراین در هر چیزی که من پیدا کردم، آنها به شما می گویند که باید $\rho$ را محاسبه کنید، یا چگونه فاصله اطمینان را برای آن آزمایش کنید. چیزی که من سعی می کنم بفهمم این است که چگونه SE را محاسبه کنیم که ارزش بحرانی ما را به دست می آورد، یعنی اگر $\rho$ 0.8 دریافت کنید. برای آزمایش آن، باید $(\rho-1)/(\text{SE}(\rho))$ را انجام دهید. برای روشن شدن، rho ضریب اصلی ما در مدل AR است، متغیر $(\rho-1)$ تبدیل شده نیست. در ادامه، چگونه می توان این $\text{SE}(\rho)$ را به صورت دستی دریافت کرد؟
چگونه خطای استاندارد را در آزمون دیکی-فولر محاسبه می کنید؟
100030
من یک سوال در مورد خوشه هایی دارم که در نظر دارم با رویکرد مخلوط ناپارامتریک آنها را درمان کنم (فکر می کنم). من روی توضیح رفتار انسان کار می کنم. هر ردیف از پایگاه داده من شامل: 1. شناسه شخصی 2. برخی از پارامترهای محیط _X_ (مثال: دما، باد و غیره) 3. یک متغیر باینری _Y_ که نشان دهنده واکنش فرد به پارامترها است (مثال: get بیمار است یا به دلیل آب و هوا بیمار نمی شود). ایده من (بر اساس شهود و نه بر اساس داده ها) این است که ما می توانیم افراد را در تعداد محدودی از گروه ها جمع آوری کنیم تا در یک گروه، افراد واکنش مشابهی نسبت به دما داشته باشند (بعضی به راحتی بیمار می شوند، برخی دیگر هرگز مریض نمی شوند...) . در یک گروه معین، به طور رسمی تر، قانون _Y_ مشروط به پارامترهای _X_ یکسان است. من هیچ ایده ای از قانون _Y_ مشروط به _X_ ندارم. برای پارامترهای _X_، در صورت لزوم می توانم فرضیه ای را انجام دهم. من می خواهم خوشه ای از افراد ایجاد کنم که کم و بیش واکنش مشابهی به پارامتر دارند. علاوه بر این، من می خواهم واکنش یک فرد معین را به مقدار معینی از پارامترها پیش بینی کنم (حتی اگر این رویداد هرگز در پایگاه داده اتفاق نیفتاده باشد). به نظر من می‌توانیم با مشکل مانند یک مدل مخلوط ناپارامتریک برخورد کنیم. از آنجایی که من فرضیه ای در مورد قانون شرطی _Y_ ندارم، فکر می کنم باید آن را برای مثال با متد کرنل ایجاد کنم. من این مقاله را پیدا کرده ام. علاوه بر این، به نظر من در این مورد، هر ردیف از مشاهده $(X_i، Y_i)$ یک تحقق ساده از یک متغیر تصادفی نیست، اما $X_i$ تحقق یک متغیر تصادفی است، و $Y_i$ است. تحقق یک متغیر تصادفی مشروط به $X_i$. نمی دانم فرقی می کند یا نه. من حدود 100000 ردیف دارم. بردار $X_i$ دارای مولفه های گسسته است و برخی دیگر پیوسته هستند. من تعجب می کنم: * آیا رویکرد من صحیح است؟ * دیدگاه دیگری برای این مشکل پیشنهاد می کنید؟ من بسیار علاقه مند به هر مرجع در مورد آن هستم. دریغ نکنید که از من بخواهید بیانیه مشکل را دوباره فرموله کنم.
مدل مخلوط ناپارامتریک و خوشه ها
100771
من جدول زیر را دارم و می‌خواهم درجات آزادی این داده‌ها را پیدا کنم. آیا مقدار $k$ من از فرمول $n-k-1$ شامل متغیرهای ساختگی و «DIST^2» می شود. یعنی $k=7$ یا $3$، $4$، $5$، یا $6$؟ متغیر وابسته: روش LFARE: حداقل مربعات تاریخ: 02/28/13 زمان: 11:12 نمونه: 1 4596 مشاهدات شامل: 4596 Variable Coefficient Std. خطای C 4.770507 0.049427 LPASSEN -0.080157 0.005603 BMKTSHR 0.301573 0.029724 DIST 0.000719 3.27E-05 DIST^2 -9.6-2E 0.023120 0.013783 Y99 0.042357 0.013785 Y00 0.105950 0.013790 R-squared 0.428079 R-squared تنظیم شده 0.427206
در این مدل از چند درجه آزادی استفاده شده است؟
91315
با استفاده از تجزیه و تحلیل PCA، من توانستم 23 متغیر اولیه را به 10 جزء اصلی کاهش دهم. اما من نمی فهمم با این بینش چه کنم. منظورم این است که چگونه می توانم این اطلاعات را روی مجموعه دیگری از داده ها تأیید کنم؟ آیا راهی برای تشخیص اینکه کدام یک از مجموعه 23 متغیر اصلی مهمتر هستند وجود دارد تا در آینده مجبور به اندازه گیری آن متغیرها و در نتیجه کاهش اضافه بار داده ها نباشم؟
مرحله تجزیه و تحلیل پس از PCA
79243
وضعیت به شرح زیر است: بگویید، من به پیشنهاد دو دوستم به یک سوال چند گزینه ای پاسخ خواهم داد. یکی 60 درصد مواقع جواب درست می دهد و دیگری 40 درصد مواقع جواب درست می دهد. آیا راهی وجود دارد که بتوانم در بیش از 60 درصد مواقع به یک سوال پاسخ صحیح بدهم؟ (در یک میانگین بلند مدت با کنار گذاشتن تنوع طبیعی)
اطمینان آشکارساز
51755
اجازه دهید $S$ مجموعه همه توزیع‌های احتمال در $\mathbb{R}$ باشد و $S_n=\\{p_\theta\\}$ یک زیرمنیفولد بعدی $n$ از خانواده پارامتری توزیع‌های احتمال در $\mathbb باشد. {R}$ که در آن $\theta=(\theta_1,\dots, \theta_n)\in \Theta$ پارامترهای چگالی احتمال نامیده می‌شوند. $p_\theta(x)$ و $\Theta$ یک مجموعه باز همومورف به $\mathbb{R}^n$ است. همچنین فرض می شود که $p_\theta(x)>0$ برای همه $x$. برای مثال، $$p_{\theta=(\mu,\sigma)}(x)=\frac{1}{\sqrt{2\pi}\sigma}e^{\frac{-(x-\mu )^2}{2\sigma^2}}$$ که $\mu\in \mathbb{R}،\sigma>0$ یک زیرمنیفولد $2$-بعدی را تشکیل می‌دهد. در این منیفولد، یک متریک ریمانی با موارد زیر تعریف می شود که متریک اطلاعات فیشر نامیده می شود. \begin{eqnarray*} g_{i,j}(\partial_i,\partial_j) &=&\int \partial_i \log p_\theta(x) ~\partial_j \log p_\theta(x) ~p_\theta( x)~ dx\\\ &=& \int \partial_i p_\theta(x) ~\partial_j \log p_\theta(x)~ dx \end{eqnarray*} که در آن $\partial_i=\frac{\partial}{\partial \theta_i}$. سوال من در مورد نکته ای در صفحه 384 از این Ann است. آمار مقاله از آماری در مقاله فوق، وقتی منحنی $\\{q_t(x)\\}$ را در $S$ می‌گوید، جایی که $q_0(x)=p_\theta(x)$ به صورت متعامد $S_n$ را در $q_0 قطع می‌کند. (x)=p_\theta(x)$، منظور او $$\int \partial_i \log p_\theta(x) ~\frac{d}{dt} \log است q_t(x)\lvert_{t=0} ~q_0(x)~dx=0$$. یعنی $$\int \partial_i p_\theta(x) ~\frac{d}{dt} \log q_t(x)\lvert_{t=0} ~dx=0$$. چرا؟ آیا کسی می تواند با توضیح شهودی این مفاهیم به من بفهماند؟
تقاطع متعامد در منیفولد ریمانی
43575
من N سطل دارم که از 1 تا N شماره گذاری شده اند. من k اعداد صحیح تصادفی را که به طور یکنواخت در محدوده 1 تا N توزیع شده اند، با جایگزینی ترسیم می کنم و برای هر عدد صحیح یک توپ را در سطل مربوطه می اندازم. k می تواند هر اندازه ای باشد. به طور خاص می تواند هر مقداری از 2 تا N یا بزرگتر از N باشد. * ویژگی های آماری (توزیع احتمال و غیره) تعداد توپ ها در هر سطل در پایان چیست؟ * ویژگی های آماری تعداد سطل های با توپ های 0،1،...k چیست؟ این سوال از نیاز به اندازه گیری «خوبی» (به نوعی) یک الگوریتم هش ناشی می شود. با توجه به نمونه‌ای از توزیع کلیدها در بین سطل‌ها، من به اندازه‌ای نیاز دارم که کجا قرار دارد در مقیاسی از «خیلی خوب» تا «بسیار بد»، و بتوانم مواردی مانند «شانس بیش از x چقدر است». توپ در یک سطل داده شده k و N؟ بدیهی است که از روشی که من این را نوشته ام و از اسامی تصادفی که به متغیرهای خود اختصاص داده ام، مطلقاً هیچ پیچیدگی آماری ندارم. لطفا ملایم باشید؛ من می خواهم یاد بگیرم. برای مثال، لطفاً نام متغیرها را به چیزی معمولی تر یا هر چیز دیگری تغییر دهید.
توپ های تصادفی در سطل های تصادفی: ویژگی های توزیع چیست؟
43577
من قصد دارم برخی از فرآیندهای تشخیص ناهنجاری را در داده های خود داشته باشم اما Weka، Rapidminer یا Knime از الگوریتم های تشخیص ناهنجاری پشتیبانی نمی کنند. چگونه می توانم از روند مراقبت کنم؟
کدام بسته های داده کاوی از تشخیص ناهنجاری پشتیبانی می کنند؟
99238
اجازه دهید $A$، $B$ و $C$ رویدادهایی در فضای احتمال یکسان باشند. آیا $$\begin{align} \mathbb P(A\,|\,B\cup C) \ge \mathbb P(A\,|\,B) \end{align}$$ نگه می‌دارد؟
با توجه به اطلاعات بیشتر، آیا احتمال کاهش می یابد؟
16146
من یک مدل را از طریق تحلیل رگرسیون لجستیک چند نامی ساختم. مدل نهایی شامل سه پیش بینی است. همه پیش بینی کننده ها زمانی مهم هستند که تنها پیش بینی کننده باشند. با این حال، ضریب یکی از پیش‌بینی‌کننده‌ها زمانی معنادار نیست که هر سه پیش‌بینی‌کننده در مدل گنجانده شوند. آیا باید این پیش بینی کننده را در معادله رگرسیون لجستیک چند جمله ای نهایی قرار دهم؟
آیا یک پیش‌بینی‌کننده، به تنهایی مهم اما نه با سایر پیش‌بینی‌کننده‌ها، باید در یک رگرسیون لجستیک چند جمله‌ای کلی گنجانده شود؟
100440
اجازه دهید $\Phi$ CDF معمولی استاندارد باشد، و $\Phi^{-1}$ تابع کمیت معمولی باشد، من به دنبال بسط سری تیلور $$ \Phi^{-1}\ هستم. left(\Phi\left(x\right) + \epsilon\right). $$ با استفاده از بسط سری تیلور تابع خطای معکوس، فکر می‌کنم چیزی شبیه $$ \Phi^{-1}\left(\Phi\left(x\right) + \epsilon\right) = x + \ دریافت می‌کنم. sqrt{\frac{\pi}{2}}\left[2\epsilon + \frac{\pi}{12}\left(3\left(2\Phi\left(x\right)-1\right)^2 2\epsilon \+ 3\left(2\Phi\left(x\ راست)-1\راست) 4\epsilon^2 + 8\epsilon^3\right) + \ldots \right]. $$ این برای سلیقه من کمی زشت است و ترجیح می دهم شرایط را در توان $\epsilon$ جمع آوری کنم. آیا این یک گسترش شناخته شده است؟ (FWIW، من $\epsilon$ را از بسط Edgeworth دریافت می کنم.)
آیا یک بسط خوب(r) تیلور برای تابع چندک نرمال وجود دارد؟
16141
من در مورد اینکه چگونه یک چند جمله‌ای محلی را با نتایج باینری تطبیق دهم، اگر ترجیح می‌دهم شاخص زیربنایی (در یک تابع پیوند) را تقریب بزنم، کمی گیج شدم. (اصولاً به همان دلیلی که کسی یک لاجیت یا یک پروبیت را به جای یک مدل احتمال خطی تخمین می زند.) البته، من می خواهم متغیر را در معکوس تابع پیوند --- وصل کنم اما البته 0 و 1 به من $-\infty$ و $+\infty$ در توابع پیوند مشترک می دهد. برای روشن شدن موضوع، مشکل من این است که به طور انعطاف پذیر $y(x)$ را پیش بینی کنم، جایی که $x \in [-1,1]$ اما $y \in \\{0,1\\}$ است. من به splines فکر نمی کردم، زیرا اگر پیش بینی $\hat{y}=g(f(x))$ با تابع پیوند g باشد، بیشتر به پیش بینی صاف شاخص $f(x)$ علاقه مند می شدم. . من پیش از ترتیب خطوط و محل نقاط شکست ندارم. من علاقه مند به مشاوره کلی در مورد رویکرد مناسب هستم. به عنوان خلاصه، 0 را با $\frac{1}{N}$ و 1 را با $\frac{N-1}{N}$ جایگزین کردم و شاخص را با اینها ایجاد کردم. (با استفاده از یک پیوند logit، بنابراین من $f(x)=\Lambda(\frac{1}{N})$ را صاف می‌کردم/پیش‌بینی می‌کردم اگر y(x)=0، به عنوان مثال.) اما من از این بابت ناراحتم. من برای انتخاب پهنای باند مناسب برای هموارسازی f با عقربه کوتاه f، برای انتخاب پهنای باند مناسب برای هموارسازی f و حتی از روش دلتا برای بازگشت به فواصل اطمینان متغیر باینری اصلی از هموارسازی ایندکس به فواصل اطمینان متقابل باینری اصلی استفاده کردم. اما اگر در وهله اول اشتباه به پیش بینی نزدیک شوم، ممکن است این پیچیدگی جعلی باشد. با تشکر برای هر گونه فکر در این مورد!
رگرسیون چند جمله ای (خطی) محلی داده های باینری --- تبدیل لاجیت؟
14679
در R، eigen() مقادیر ویژه مرتب شده نزولی را برمی گرداند. با این حال، بردارهای ویژه با این مقادیر ویژه مرتب شده مطابقت ندارند. چگونه می توانم بردار ویژه مربوط به مقدار ویژه مرتب شده i را شناسایی کنم؟ یک روش ممکن است مرتب سازی بر اساس هنجار بردارهای ویژه باشد (آیا رویه ای در R وجود دارد که بتواند این کار را انجام دهد). فکر می کنم یک روش ساده وجود دارد که من از دست می دهم.
بردارهای ویژه مربوط به مقادیر ویژه
74881
من برخی از داده‌های نتیجه مرکز تماس دارم: هر فرد چندین بار تماس گرفته می‌شود و نتیجه تماس به عنوان یکی از چند نتیجه مجزا ثبت می‌شود (بدون پاسخ، شماره اشتباه، شخص ثالث، شخص صحیح و غیره). هدف از تجزیه و تحلیل این است که سعی کنید قبل از تسلیم شدن چند بار تماس بگیرید. برنامه فعلی من این است که نتایج را به عنوان یک زنجیره مارکوف در نظر بگیرم. اگر فرض کنم که داده ها حالت ثابتی را نشان می دهند، به راحتی می توان احتمالات انتقال را بدست آورد. مشکل این است که من فکر نمی‌کنم که آنها ثابت باشند: 20 بار بدون پاسخ بودن با یک بار بدون پاسخ موقعیت متفاوتی دارد. اگر داده‌های شما ثابت نیستند، چگونه احتمالات انتقال را محاسبه می‌کنید؟ برای امتیاز جایزه، آیا تابعی در R برای انجام این کار وجود دارد؟
تخمین احتمالات انتقال زنجیره مارکوف غیر ثابت از داده ها
79247
این یک سوال در مورد استفاده از تابع وزن در lmer است. مشابه رویکرد وزن دار مورد بحث در اینجا برای استفاده در رگرسیون های خطی: http://www.stat.cmu.edu/~cshalizi/uADA/13/lectures/ch07.pdf من می خواستم از تابع وزن در lmer استفاده کنم. (با استفاده از بسته lme4) برای محاسبه واریانس اندازه گیری های فردی در مجموعه داده من (به عنوان مثال وزن = 1/SEofY^2). با این حال، من مطمئن نیستم که آیا این درست است یا خیر و می خواستم ببینم آیا کسی در این مورد نظری دارد یا خیر. خیلی ممنون از وقتی که گذاشتید.
استفاده از وزن در lmer برای ترکیب واریانس نقاط داده فردی؟
99239
من سعی می کنم بفهمم که چگونه ضرایب را هنگام استفاده از چندین متغیر مستقل کیفی که برخی از آنها بیش از دو دسته دارند، تفسیر کنم. من این مقاله کوتاه را پیدا کردم که به آن موضوع می پردازد (پیش نمایش یک صفحه برای درک منظور من کافی است، اما در اینجا نیز توضیح خواهم داد). مقاله می گوید که در این مورد تفسیر به هم ریخته است. اجازه دهید از متغیرهای مثال مقاله استفاده کنم تا منظورم را روشن کنم. دستمزد متغیر وابسته من است. متغیرهای مستقل همگی ساختگی‌هایی هستند که می‌توان آنها را در گروه‌بندی کرد: _ دستاورد تحصیلی_ E1 = فوق لیسانس (مقدار 1 در صورت تحصیلات تکمیلی، 0 در غیر این صورت) E2 = لیسانس (مقدار 1 اگر مدرک لیسانس، 0 در غیر این صورت) E3 = دبیرستان (مقدار 1 در صورت دبیرستان، 0 در غیر این صورت) _وضعیت تاهل_ R1 = متاهل/در رابطه (مقدار 1 در صورت ازدواج، 0 در غیر این صورت) R2 = مطلقه (مقدار 1 در صورت طلاق، 0 در غیر این صورت) R3 = مجرد (مقدار 1 اگر مجرد، 0 در غیر این صورت) _جنس_ M = مذکر (مقدار 1 اگر مرد، 0 در غیر این صورت) F = زن (مقدار 1 اگر زن، 0 در غیر این صورت) اکنون، به اجتناب از تله ساختگی من E3، R3 و F را حذف می کنم. معادله رگرسیون من به این صورت خواهد بود: دستمزد = b0 + b1 * E1 + b2 * E2 + b3*R1 + b4*R2 + b5*M این مقاله بیان می‌کند که مبنای مقایسه با آن یک زن مجرد است که به دبیرستان رفته و تفسیر ضرایب ساختگی فردی را مختل می‌کند. سوالات من: 1. آیا من به درستی متوجه شدم که استفاده از چندین متغیر کیفی که بیش از 2 دسته دارند (در این مورد میزان تحصیلات و وضعیت تأهل هر کدام 3 دسته هستند) است که تفسیر را به هم می زند؟ من دریافتم که اگر من برای مثال فقط از آدمک‌های وضعیت تاهل استفاده کنم (دوباره R3 را برای مواجه نشدن با دام ساختگی حذف کنم)، به راحتی می‌توانم بگویم که افراد متاهل (R1) در مقایسه با افراد مجرد (R3) بیشتر یا کمتر درآمد دارند. اما آیا این دیگر امکان پذیر نیست به محض اینکه من الگوهای پیشرفت تحصیلی را نیز در رگرسیون خود وارد کنم؟ 2. آیا متغیرهای ساختگی که فقط 2 دسته دارند و بنابراین در معادله رگرسیون فقط با 1 ساختگی نشان داده می شوند (مثلاً متغیر جنسی من -> M در معادله) اصلاً تحت تأثیر این قرار می گیرند یا هنوز می توانم بگویم که مردان بیشتر یا کمتر درآمد دارند. در مقایسه با زنان، با وجود داشتن سطح تحصیلی و وضعیت تأهل در معادله من؟ از وقتی که گذاشتید متشکرم، از هر بازخوردی بسیار سپاسگزارم.
تفسیر آدمک ها (چند متغیر و دسته!)
100033
من از Lasso برای کاهش تعداد متغیرهایم استفاده می کنم و مشخص کرده ام که کدام متغیرها پس از اجرای تجزیه و تحلیل من حفظ شده اند (مانند yrseduc، سن). با این حال، من نمی دانم چه اعدادی را باید در یک مقاله علمی گزارش کنم. من سعی کردم نمونه هایی را پیدا کنم، اما نمی توانم پاسخ کاملی پیدا کنم. من نمی دانم که آیا من فقط باید تخمین پارامترهای همه متغیرهایی را که معنی دار شده اند گزارش کنم؟ آیا باید آنها را فقط در یک جدول گزارش کنم یا در متن؟ اگر در متن، این اعداد واقعا به چه معنا هستند؟ ![مثال](http://i.stack.imgur.com/8WQ3n.png) پیشاپیش از شما متشکرم، من واقعاً در اینجا گم شده ام.
چگونه نتایج Lasso را در یک مقاله گزارش کنم؟
74886
آیا برای متغیرهای تصادفی $Y$ و $X$، $f(Y | X)$ در یک خانواده با $f(Y)$ است؟ اگر بله چگونه می توانم آن را ثابت کنم؟ اگر نه، آیا شرایطی (برخی از خانواده های توزیع) وجود دارد که می توانند یکسان باشند؟ یا مربوط به تابع(های) پیوند است؟ با تشکر
آیا $f(Y | X)$ با $f(Y)$ هم خانواده است؟
55237
من به دنبال توصیه های کتاب در مورد امتیازدهی اعتباری هستم. من به تمام جنبه های این مشکل علاقه دارم، اما بیشتر به موارد زیر علاقه مند هستم: 1) ویژگی های خوب. چگونه آنها را بسازیم؟ خوب بودن کدومشون ثابت شده؟ 2) شبکه های عصبی کاربرد آنها برای مشکل امتیازدهی اعتباری. 3) من شبکه های عصبی را انتخاب کرده ام، اما به روش های دیگر نیز علاقه مند هستم.
کتاب/مقالات خوب در مورد امتیازدهی اعتباری
17557
آزمایش فرضیه صفر $H_0: \theta = 0$ در برابر جایگزین $H_1: \theta \neq 0$ معادل ایجاد یک فاصله اطمینان و بررسی اینکه آیا صفر به آن تعلق دارد یا خیر. اما در مورد جایگزین $H_1 چطور: \theta > 0$. فاصله اطمینان معادل چیست؟
فاصله اطمینان معادل برای یک فرضیه جهت دار چقدر است؟
17552
من یک مجموعه داده بیان ژن با مقادیر بیان log2 تبدیل شده (بدون NA) برای 495 ژن برای 59 نمونه دارم که مقادیر متغیر پاسخ پیوسته (r) نیز شناخته شده است (بدون NA). من می‌خواهم از اعتبارسنجی متقاطع ترک یک خروجی برای آزمایش اینکه آیا r نمونه آزمایشی را می‌توان از بیان ژن نمونه پیش‌بینی کرد، استفاده کنم. برای این منظور، من قصد دارم از بسته samr R برای تجزیه و تحلیل اهمیت ریزآرایه‌ها برای شناسایی ژن‌های مهم مرتبط با r در مجموعه آموزشی نمونه‌ها استفاده کنم. سپس، من می خواهم یک مدل خطی با استفاده از ژن های مهم به عنوان متغیر ایجاد کنم، که سپس برای پیش بینی r نمونه آزمایشی استفاده می شود. من کد زیر را برای شروع امتحان کردم، اما وقتی مدل را تولید می کنم و آن را بررسی می کنم، تعداد زیادی NA را در خلاصه مدل می بینم که باعث می شود مشکوک شوم که دارم کار اشتباهی انجام می دهم. آیا کسی می تواند به من بگوید ممکن است چه اشتباهی انجام دهم؟ ثانیاً، من از هر نظری در مورد استفاده از nperms (در SAM) با مقدار 100 قدردانی خواهم کرد. آیا برای مجموعه داده بیان برای 495 ژن بسیار کم است. # rVals با مقادیر r به عنوان یک بردار از یک ردیف جدول برای داده‌های فنوتیپی خوانده می‌شود که از یک فایل جدا شده با برگه‌ها با نام‌های نمونه به عنوان نام ستون و ویژگی‌های فنوتیپ به عنوان نام ردیف خوانده می‌شود # geneVals بیان ژن تبدیل‌شده با log2 است. مجموعه داده به عنوان یک ماتریس از یک فایل جدا شده با برگه با نام های نمونه به عنوان نام ستون و نام ژن به عنوان نام ردیف خوانده می شود. # SAM را با FDR 5% انجام دهید و لیستی از ژنهای قابل توجه sam را بدست آورید <- SAM(x=geneVals, y=rVals, resp.type=c(کمی)، testStatistic=c(استاندارد)، regression.method =c(استاندارد)، loged2=TRUE، fdr.output=0.05، eigengene.number=1، knn.neighbors=10, nperms=100, genenames=as.vector(rownames(geneVals))) sigGenes <- rbind(sam$siggenes.table$genes.up, sam$siggenes.table$genes.lo) # ایجاد خطی model toModel <- data.frame(t(rbind(rVals, geneVals))، check.names=FALSE) myModel <- lm(toModel[c('r', sigGenes[,c(Gene ID)])]) # بررسی خلاصه مدل (myModel) ... خروجی... تماس: lm (formula = toModel[c(rVals, sigGenes[, c(Gene ID)])]) باقیمانده ها: ALL 59 باقیمانده هستند 0: بدون درجات آزادی باقیمانده! ضرایب: (58 به دلیل تکینگی ها تعریف نشده است) Estimate Std. خطای t مقدار Pr(>|t|) (برق) -18.29363 NA NA NA `let-7e` -1.70545 NA NA NA `miR-125a-5p` 2.43177 NA NA NA `miR-151-5p` 2.6743 NA ...
NA در خلاصه مدل خطی تولید شده از ژن های مهم برای متغیر پاسخ پیوسته با استفاده از SAM شناسایی شده است
103425
بسته gbm در R فرمول انحراف زیر را برای مدل‌های CoxPH مستند می‌کند http://gradientboostedmodels.googlecode.com/git/gbm/inst/doc/gbm.pdf $-2 \sum w_i \delta_i (f(x_i) - \log (R_i / w_i)$، که $w_i$ وزنی برای مشاهده است، $\delta_i$ نشانگر سانسور مناسب است. و $R_i = \sum_{j=1}^N 1(t_j >= t_i) e^{f(x_i)}$ خطر کل مجموعه ریسک است اما به نظر نمی رسد این فرمول با اجرای نویسنده موافق باشد. https://github.com/harrysouthworth/gbm/issues/22 من تعجب می کنم که چگونه این استخراج شده است تا بتوانم بفهمم که آیا اشکالی در پیاده سازی وجود دارد یا وجود دارد اشتباه در نحوه نگارش فرمول
این فرمول انحراف برای خطر متناسب کاکس چگونه استخراج شد؟
91312
چرا یافتن تفاوت معنی‌دار در یک معیار معین، مثلاً توانایی ریاضی، بین دو گروه (مثلاً از طریق یک آزمون t نمونه‌های مستقل) باید معادل دو گروه باشد که از جمعیت‌های زیربنایی مختلف می‌آیند - آیا واقعاً می‌توان «جمعیت» را تعریف کرد. به همان سادگی «جمعیت افراد خوب در ریاضیات» و «جمعیت افرادی که در ریاضیات بی ارزش هستند»؟ و با فرض اینکه دو گروه مورد آزمایش، مثلاً دو نیمه یک کلاس درس را نشان دهند، به چه معناست که تفاوت قابل توجهی بین گروه ها وجود دارد؟ اینکه جمعیت هایی که هر یک از دو نیمه از آنها نمونه برداری شده اند، از نظر نحوه توزیع نمرات ریاضی در آن جامعه متفاوت هستند، یا از جهات دیگر متفاوت هستند؟
نتیجه جمعیت های مختلف از آزمون t گروه معنی دار دقیقاً به چه معناست؟
5960
من می‌دانم که وقتی مقادیر را به‌عنوان نمودار رسم می‌کنیم، می‌توانیم یک توزیع دووجهی را با مشاهده قله‌های دوقلو شناسایی کنیم، اما چگونه می‌توان آن را از طریق برنامه‌ریزی پیدا کرد؟ (من دنبال یک الگوریتم هستم.)
چگونه یک توزیع دووجهی را شناسایی کنیم؟
13197
* تفاوت بین ANOVA اندازه گیری های مکرر بر روی برخی از عوامل (مثلاً شرایط تجربی) و MANOVA چیست؟ * به‌ویژه یک وب‌سایت که تصادفاً با آن برخورد کردم، پیشنهاد کرد که MANOVA همان فرض کروی بودن را ندارد که اندازه‌گیری‌های مکرر ANOVA انجام می‌دهد، آیا این درست است؟ * اگر چنین است، چرا همیشه نباید از MANOVA استفاده کرد؟ * من سعی می کنم یک ANOVA اندازه گیری های مکرر با DV های متعدد انجام دهم، رویکرد مناسب چیست؟ متشکرم.
تفاوت بین MANOVA و Repeated Measure ANOVA؟
43570
من سعی می کنم با استفاده از الگوریتم Viterbi محتمل ترین مسیر (یعنی دنباله ای از حالت ها) را در یک HMM پیدا کنم. با این حال، ماتریس‌های انتقال و انتشار را نمی‌دانم، که باید از روی مشاهدات (داده‌ها) تخمین بزنم. برای تخمین این ماتریس ها، از کدام الگوریتم استفاده کنم: الگوریتم Baum-Welch یا الگوریتم Viterbi Training؟ چرا؟ اگر من باید از الگوریتم آموزشی Viterbi استفاده کنم، آیا کسی می تواند یک شبه کد خوب به من ارائه دهد (پیدا کردن آن آسان نیست)؟
آموزش ویتربی در مقابل الگوریتم Baum-Welch
19655
من اقلامی برای خرید دارم و آماری دارم که هر کدام چقدر خریداری شده است. من می خواهم از این مقدار برای رتبه بندی آنها استفاده کنم. حدس ساده این است که «Log(2 + num_purchased)» را انجام دهید. من به فرمول بهتری برای آن فکر می کنم، و مهمتر از همه، می خواهم پیشینه احتمالی و معنایی پشت آن داشته باشم.
بهترین راه برای درمان محبوبیت برای رتبه بندی چیست؟
46436
من به دنبال جمع آوری اطلاعات در مورد اینکه آیا شرکت کنندگانی که یک بازی آموزشی را در یک موضوع خاص انجام می دهند، در مقایسه با شرکت کنندگانی که آن موضوع را بدون بازی (فقط سخنرانی) یاد می گیرند، بین نمرات پیش آزمون/پس آزمون به دستاوردهای کمتر/قابل مقایسه/ برتری دست خواهند یافت. بنابراین، من قصد دارم شرکت کنندگان را به طور تصادفی به یکی از دو گروه اختصاص دهم: بازی یا بدون بازی. هر شرکت کننده در یک پیش آزمون و پس آزمون شرکت خواهد کرد. فرض کنید نتایج به شرح زیر است: همه شرکت کنندگان از هر دو گروه به طور میانگین 50٪ در پیش آزمون امتیاز می گیرند، شرکت کنندگانی که بازی را انجام می دهند میانگین نمره پس آزمون 90٪ دارند و شرکت کنندگانی که بازی را انجام نمی دهند. فقط سخنرانی) دارای میانگین نمره پس آزمون 70٪ است. با تکنیک آماری صحیح و شرکت کنندگان به اندازه کافی، ممکن است نشان دهد که بازی تفاوت ایجاد کرده است. علاوه بر این، من همچنین قصد دارم بررسی کنم که آیا جنسیت بر نمرات پیش آزمون/پس آزمون تأثیر می گذارد (بنابراین، آیا باید چهار گروه داشته باشم؟ مرد/بازی، مرد/بدون بازی، زن/بازی، زن/بدون بازی) احتمالاً به سایر اطلاعات جمعیتی مانند سن (دسته هایی که باید تعیین شوند، اما فرض کنید: سن 20-40/بازی، 20-40/بدون بازی، 41-60/بازی و...) متأسفانه بیش از 20 سال است که دوره آمار گذرانده ام. برای این نوع محاسبات (ANOVA؟) از چه تکنیکی استفاده می کنم و برای معتبر بودن نتایج در هر دسته به چند شرکت کننده نیاز دارم؟ علاوه بر این، چه فاصله اطمینانی معمولاً معتبر در نظر گرفته می شود؟ 95 درصد؟ 99 درصد؟
چه نوع آزمونی و چند شرکت کننده؟
19650
من آزمایشی را با 12 شرکت کننده انجام دادم. از آنها خواسته شد تا 3 محرک را با 3 پاسخ احتمالی زیر رتبه بندی کنند: افزایش یافته، کاهش یافته، بدون تفاوت. در نتیجه این جدول را دارم: افزایش محرک بدون تفاوت A 10 1 1 StimulusB 12 0 0 StimulusC 8 2 2 حالا اگر بخواهم در یک عکس بفهمم که آیا پاسخ افزایش به طور قابل توجهی بیشتر از دو پاسخ دیگر در کل انتخاب شده است. محرک، آیا درست است که من به سادگی از توزیع دوجمله ای استفاده کنم که موفقیت ها را در امتداد هر 3 محرک جمع کند؟ منظورم این است که آیا انجام این کار درست است؟ > prop.test(30,36) آزمون نسبت‌های 1 نمونه با داده‌های تصحیح پیوستگی: 30 از 36، احتمال صفر 0.5 X-squared = 14.6944، df = 1، p-value = 0.0001264 فرضیه جایگزین: p واقعی برابر نیست تا 0.5 95 درصد فاصله اطمینان: 0.6652978 0.9303666 تخمین نمونه: p 0.8333333 یا بهتر است به جای آن از تابع به این صورت استفاده کنیم؟ > prop.test(c(10،12،8)،c(12،12،12)،c(0.5،0.5،0.5)) تست 3 نمونه برای نسبت های داده شده بدون داده های تصحیح پیوستگی: c(10، 12، 8) از c(12، 12، 12)، احتمالات صفر c(0.5، 0.5، 0.5) X-squared = 18.6667، df = 3، p-value = 0.0003204 فرضیه جایگزین: مقادیر تهی دو طرفه: prop 1 prop 2 prop 3 0.5 0.5 0.5 تخمین نمونه: prop 1 prop 2 prop 3 0.83333333 1.0066060.0000
چگونه باید از تابع prop.test استفاده کنم؟
19653
هر بار که به صفحه نتایج SAS نگاه می کنم در بین اعداد گم می شوم. آیا مطالب آنلاینی وجود دارد که بتواند به درک صفحه نتیجه SAS کمک کند؟
منابع آنلاین برای کمک به درک نتایج SAS
18550
بر اساس پاسخ به سوال قبلی، پارامترهای BUGS و R برای کدام توزیع ها متفاوت است؟ من پارامترهای R را به پارامترهای JAGS تبدیل کرده ام، اما خطاهایی دریافت می کنم، بنابراین یک سوال جداگانه می پرسم تا روشن کنم که تبدیل صحیح است. «?dweibull» R pdf را بیان می کند (با $a = \text{shape}$ و $b = \text{scale}$): $$(^a/_b)(^x/_b)^{a-1 } \text{exp}(- (^x/_b)^a)$$ و دفترچه راهنمای JAGS pdf را به صورت زیر بیان می‌کند: $$\nu \lambda x^{\nu-1}\text{exp}(-\lambda x^\nu)$$ می‌توانم ببینم که پارامتری که R استفاده می‌کند، $f(b)^a$ دارد، اما پارامتر JAGS دارای یک معادل $f(\lambda)^\nu$. اما وقتی این همه قدرت محاسباتی در دستانم است، نمی توانم خودم را مجبور به بیرون آوردن یک مداد کنم. بنابراین من تظاهرات تجربی زیر را انجام دادم که پارامترسازی JAGS به این صورت نیست که شکل را به صورت $\text{rate} =1/b$ به سادگی تبدیل کند: نمودار زیر دو نمونه (کد زیر)، * R (قرمز) از $ را نشان می‌دهد. \small{Y\sim\text{Weibull}(a = 2، b = 50)}$ * JAGS (آبی) از $\small{Y\sim\text{Weibull}(\lambda = 2, \nu = 1/50)}$ ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/CiPMy.png ) library(rjags) shape <- 2 rate <- 50 set.seed(0) model.string <- writeLines(paste(\nmodel{\nbeta ~ dweib (2،1/rate,)\nY <- beta\n})، con = 'weibulltest.bug') j.model <- jags.model(file = weibulltest.bug, data = list(x=NA)) #hack mcmc.object <- coda.samples(model = j.model, variable.names = c('Y'), n.iter = ( چگالی (Y.jags)، col = 'آبی')
چگونه می توانم توزیع Weibull را در JAGS / BUGS پارامتر کنم؟
101424
من می دانم که احتمال یک نقطه در یک نقشه دو بعدی از توزیع نرمال dnorm(x) پیروی می کند، که در آن x فاصله تا نقطه دیگر است. اجازه دهید آن را A بنامیم. بنابراین x با یک تابع فاصله محاسبه می شود A = c(2,1) dist = function(mypoint){sqrt((mypoint[1]-A[1])^2+(mypoint[2]- A[2])^2) } من می خواهم احتمال قرار گرفتن در منطقه خاصی از نقشه را محاسبه کنم. برای مثال $X=(x,y)$ و $S\in[S_{x1},S_{x2}]*[S_{y1},S_{y2}] $P(X\in S) = P (S_{x1}<X_x<S_{x2} \cap S_{y1}<X_y<S_{y2})$P(X\in S) = \int_{min(S_{x})}^{max(S_{x})}\int_{min(S_{y})}^{max(S_{y})} dnorm(dist([x,y ]))dx.dy$ که در آن $dnorm$ چگالی نرمال است. من دو سوال دارم: 1. آیا این معنی دارد؟ آیا راه دیگری (بهتر) برای رسیدن به این هدف وجود دارد؟ 2. چگونه می توانم چنین احتمالی را با R محاسبه کنم؟
احتمال قرار گرفتن در ناحیه فضایی را محاسبه کنید
13428
به عنوان یک غیر آمارگیر، من یک مشکل آماری/احتمالی در دنیای واقعی دارم که در قالب بندی آن مشکل دارم. نرم افزاری که من در مدیریت موجودی بر آن تکیه می کنم «حرکات» (تعداد دفعات استفاده از موجودی) را به شیوه ای عجیب تفسیر می کند. تعداد ماه هایی از 24 ماه که مورد استفاده شده است را ارائه می دهد. به عنوان مثال، یک کد متحرک 20 به این معنی است که آیتم حداقل یک بار برای 20 ماه از 24 ماه استفاده شده است. کاری که باید انجام دهم این است که آن را ترجمه کنم تا **محتمل ترین تعداد حرکات در آن 24 ماه را پیدا کنم. دوره.** اگر حرکات به طور تصادفی در 20 ماه از 24 ماه بدون محدودیت قرار گیرند، بدیهی است که تعداد حرکاتی که واقعاً رخ می دهد احتمالاً بسیار بیشتر از 20 خواهد بود. چقدر بیشتر؟ با عرض پوزش، این سوال بسیار چالش برانگیز است زیرا من هیچ ایده ای در مورد چگونگی شروع مقابله با آن ندارم. هر گونه کمک بسیار قدردانی می شود.
احتمال وقوع کل رویدادها با توجه به اینکه یک یا چند رویداد در چند ماه مشخص اتفاق می‌افتد
13421
به طور کلی توزیع های مشترک زیادی وجود دارد $P(X_1 = x_1، X_2 = x_2، ...، X_n = x_n)$ مطابق با یک مجموعه شناخته شده توزیع های حاشیه ای $f_i(x_i) = P(X_i = x_i)$. آیا از میان این توزیع های مشترک، حاصلضرب با گرفتن حاصل ضرب حاشیه های $\prod_i f_i(x_i)$ با بالاترین آنتروپی تشکیل می شود؟ من مطمئناً معتقدم که این درست است، اما واقعاً دوست دارم یک مدرک ببینم. من بیشتر به مواردی علاقه مند هستم که همه متغیرها گسسته باشند، اما همچنین علاقه مند به تفسیر در مورد آنتروپی نسبت به معیارهای محصول در حالت پیوسته هستم.
آیا حداکثر توزیع آنتروپی با توزیع های حاشیه ای داده شده با توزیع محصول حاشیه ها سازگار است؟
45168
من برای یک پروژه در پایتون کدنویسی می کنم. من تمام داده های خود را دارم و یک optimize.leastsq را اجرا می کنم. من عدم قطعیت در cov[1,1] و cov[0,0] را می‌خواهم. آیا فقط جذر این عناصر ماتریس است یا بیشتر دخیل است؟ تصویر پیوست شده در زیر ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/VHSxj.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/pChXM.png )
درباره کوواریانس
20628
اگر فرض کنیم که نقاط داده ما از سطح یک کره (با مقداری اغتشاش) نمونه برداری شده است، چگونه می توانیم مرکز آن کره را بازیابی کنیم؟ در جستجوی خود، مقالاتی را در مورد چیزی با عنوان رگرسیون کروی پیدا کردم، اما به نظر نمی‌رسید که این کار همان کار را انجام دهد. شاید من فقط متوجه نشدم آیا یک فرمول ساده، مشابه رگرسیون خطی، وجود دارد که یک نقطه مرکزی کره و شعاع پیدا کند که فاصله مجموع مجذور مجموعه ای از نقاط داده را از سطح کره به حداقل برساند؟ * * * ویرایش 1: می توانیم فرض کنیم که نویز 2 یا 3 مرتبه قدر کوچکتر از شعاع کره و به طور یکنواخت کروی گوسی خواهد بود. با این حال، خود نمونه‌ها قطعاً به طور یکنواخت از سطح کره کشیده نمی‌شوند، بلکه احتمالاً در چند تکه روی سطح، احتمالاً همه در یک نیمکره، جمع می‌شوند. راه حلی که برای داده ها در $\mathbb R^3$ کار می کند خوب است، اما یک راه حل کلی برای ابعاد دلخواه نیز عالی است. * * * ویرایش 2: اگر بخواهم از رگرسیون خطی $y = X\beta + \epsilon$ در فضای 7 بعدی استفاده کنم و وانمود کنیم که اجزای مربع مستقل از سایر پارامترها: $\begin{align} X &= \begin{array}{cccccc}[-2x& -2y&-2z&1&1&1&-1]\end{آرایه}\\\ \بتا &= \begin{آرایه}ccccccc}[x_0 & y_0 & z_0 & x_0^2 & y_0^2 & z_0^2 & r^2] '\end{array}\\\ y &= x^2+y^2+z^2\end{align}$ در بهترین حالت، فکر می‌کنم که معیار خطای من کمی عجیب و غریب خواهد بود. در بدترین حالت، راه حل حتی نزدیک به سازگاری نخواهد بود. ... یا احمقانه است زیرا با چهار ستون یکسان، زمانی که می خواهیم رگرسیون انجام دهیم، یک ماتریس تکی به دست می آوریم. * * * ویرایش 3: بنابراین، به نظر می رسد این گزینه های من هستند: 1. بهینه سازی عددی غیر خطی با استفاده از تابع هزینه: $f(x_0,y_0,z_0,r|X) = \frac{1}{2} \sum_{i=1}^n \left(r - \sqrt{(x_i-x_0)^2+(y_i-y_0)^2+(z_i-z_0)^2}\right)^2$ 2. Hough-transform: گسسته سازی فضای قابل قبول یا مراکز و شعاع های ممکن در اطراف نقاط داده هر نقطه به مراکز بالقوه ای که می تواند بخشی از آن در هر گسسته شعاع خاص باشد رأی می دهد. بیشترین آرا برنده می شود. اگر تعداد بالقوه ناشناخته‌ای از کره‌ها وجود داشته باشد، ممکن است مشکلی نداشته باشد، اما تنها با یکی از آن‌ها، راه‌حل آشفته‌ای است. 3. به طور تصادفی (یا سیستماتیک) گروه های 4 نقطه ای را انتخاب کنید و مرکز را به صورت تحلیلی محاسبه کنید. نمونه برداری را در صورت شرایط نامناسب رد کنید (نقاط تقریباً همسطح هستند). نقاط پرت را رد کنید و مرکز متوسط ​​را پیدا کنید. از آن ما می توانیم شعاع میانگین را پیدا کنیم. کسی روش بهتری سراغ داره؟
مرکز و شعاع یک کره را از نقاط روی سطح تخمین بزنید
45167
در اینجا یک ایده غیر متعارف اما ظاهرا قابل اجرا است. نمی دانم که آیا کسی چیزی شبیه به آن را امتحان کرده است یا خیر، به ویژه به دنبال منابع، نمونه ها یا کارهای مرتبط نزدیک باشد. من روی یک مسئله استقرایی ریاضی با دنباله‌ای از رشته‌های $x_i$ کار می‌کنم که اندازه آنها معمولاً افزایش می‌یابد زیرا $i$ به بی‌نهایت می‌رود. از بازرسی، تابع به طور ضعیفی با دنباله فیبوناچی مرتبط است. این رشته‌ها را می‌توان به اعداد پایه-N چند رقمی بسیار بزرگ تبدیل کرد (یعنی با چیزی در محدوده ده‌ها رقم یا بیشتر) و می‌توان با استفاده از الگوریتم‌های استاندارد مانند الگوریتم حداقل مربعات غیرخطی مارکوارت-لوونبورگ، الگوریتم پاول، و غیره، یک منحنی برازش داد. البته بهتر است یک منحنی _exact_ به دست آورید به طوری که برای مقداری $i \leq k$ متناهی مطابقت داشته باشد. و سپس به داده های دیده نشده $i>k$ تعمیم می یابد. یعنی _القاء_. > پس برخی از بزرگترین اعداد بزرگی که برازش منحنی > برای آنها اعمال شده است، و به ویژه مواردی که فرمول های دقیق به دست آمده اند، کدامند؟ آیا برخی از محققان، داوران یا نرم افزارهایی وجود دارند که در این زمینه تخصص دارند؟ و غیره سوال من نباید در مورد مجموعه داده هایی با نقاط داده زیاد باشد. این سوال یک رژیم مورد علاقه بسیار متفاوت است که در آن ممکن است نقاط داده چندان زیادی وجود نداشته باشد، اما هر نقطه داده دارای قدر عددی بسیار بزرگ با ارقام زیاد است. بنابراین داده های بزرگ آن به یک معنا اما با یک چرخش کلیدی. اما توجه داشته باشید که به طور معادل این سوال _ است_ با برازش مقادیر ممیز شناور با درجات بسیار بالایی از دقت و تناسب تنگ دلخواه نیست، بلکه به نوعی برای مشکل معنادار است. (این سوال تا حدی از مرجع AMS در ریاضیات تجربی الهام گرفته شده است.
برازش منحنی با اعداد بسیار بزرگ.
43571
من به دنبال چند کتابخانه ماتریسی هستم که بتواند PCA را انجام دهد و بتواند با ماتریس بزرگی که نمی تواند یکباره در حافظه قرار بگیرد کار کند. آیا چنین کتابخانه ای وجود دارد؟
PCA برای ماتریس بزرگ که در حافظه جا نمی شود
74882
من یک رگرسیون لجستیک به این صورت دارم: Y = a1 + b1* (تعداد نمرات مثبت) + b2* (تعداد نمرات منفی) + b3*Z + b4*Z*(تعداد نمرات مثبت) + b5*Z*(تعداد نمرات منفی ) + اصطلاحات غیر متقابل اضافی «Y» احتمال نتیجه ای است که مقادیر باینری (0،1) به خود می گیرد. Z یک متغیر پیوسته است. من سعی می‌کنم معنی‌دار بودن آن را تعیین کنم. b1 و b4 مثبت هستند در حالی که b2 و b5 منفی هستند. من می خواهم در مورد اینکه آیا Z در واقع یک عامل مهم در متغیر نتیجه از طریق تعاملات b4 و b5 است، نتیجه گیری کنم، اما می دانم که در یک رگرسیون لجستیک، همه ضرایب و به ویژه تعاملات باید در زمینه مقادیر خاص ارزیابی شوند. متغیر مستقل x. بنابراین این کاری است که من تاکنون انجام داده‌ام: فرض کنید bhat بردار تخمینی ضرایب «b=(a1,b1,b2,b3,b4,b5...)» و «xhat» میانگین نمونه «x» است. =(تعداد امتیازات پوز، تعداد امتیازات منفی،Z،Z*تعداد امتیازات پوس، Z*تعداد امتیازات منفی)`. همچنین بگویید که bi_sigma خطای استاندارد تخمین زده شده در عنصر ith bhat و `xi_sigma` نمونه انحراف استاندارد عنصر ith از x است. فرض کنید L(bx) cdf لجستیکی است که در bx ارزیابی می شود. آیا من حق دارم نسبت شانس exp(bhat*xhat-bi_sigma*xi_hat) و exp(bhat*xhat+bi_sigma*xi_hat) را ارزیابی کنم، سپس تعیین کنم که آیا هر عنصر bi_hat بر اساس دامنه این شانس ها مهم است یا خیر؟ نسبت ها به شدت بزرگتر یا کمتر از یک است؟ به عبارت دیگر، فکر من این است که اگر نسبت‌های شانس شامل یک نباشد، به طور قابل توجهی شانس را بهبود یا کاهش می‌دهند. به عنوان مثال، محدوده نسبت شانس (1.3،2) یک bi را منعکس می کند که شانس برای سطوح متوسط ​​x را بهبود می بخشد. بله؟ ثانیاً، آیا درست است که تفاوت های اول را ارزیابی کنم، L(bhat*xhat)-L(bhat*xhat-bi*xi_sigma) و L(bhat*xhat+bi*xi_sigma)-L(b*xhat) به عنوان دو معیار اندازه تأثیر هر «xi». آیا می توانم این کار را برای تعامل نیز انجام دهم؟ برای هر راهنمایی یا کمکی بسیار متشکرم. اگر منابعی وجود دارد که شما برای این موضوع پیشنهاد می کنید، من نیز از آن استفاده می کنم. تمام نمونه‌هایی که به صورت آنلاین پیدا کرده‌ام، فقط شامل متغیرهای باینری یا طبقه‌ای هستند و هیچ متغیر پیوسته‌ای ندارند.
تفسیر رگرسیون لاجیت با متغیرهای پیوسته و مقوله ای
46434
تابع 'summary.rq' از خط کوانترگ انتخاب های زیادی برای تخمین خطای استاندارد ضرایب رگرسیون چندک ارائه می دهد. سناریوهای خاصی که هر یک از اینها بهینه/مطلوب می شوند کدامند؟ * رتبه که فواصل اطمینان را برای پارامترهای برآورد شده با معکوس کردن یک آزمون رتبه همانطور که در کونکر (1994) توضیح داده شده است، ایجاد می کند. گزینه پیش فرض فرض می کند که خطاها iid هستند، در حالی که گزینه iid = FALSE پیشنهاد Koenker Machado (1999) را اجرا می کند. برای آرگومان های اضافی به مستندات rq.fit.br مراجعه کنید. * iid که فرض می کند که خطاها iid هستند و تخمینی از ماتریس کوواریانس مجانبی را مانند KB (1978) محاسبه می کند. * nid که خطی بودن محلی (در تاو) را (در x) از توابع چندک شرطی فرض می‌کند و یک تخمین ساندویچ هوبر را با استفاده از تخمین محلی پراکندگی محاسبه می‌کند. * ker که از تخمین هسته ساندویچ استفاده می کند که توسط پاول (1990) پیشنهاد شده است. * boot که یکی از چندین گزینه راه‌اندازی ممکن را برای تخمین خطاهای استاندارد پیاده‌سازی می‌کند. من حداقل 20 مقاله تجربی را خوانده ام که این مورد در بعد سری زمانی یا مقطعی اعمال می شود و اشاره ای به انتخاب خطای استاندارد ندیده ام.
رگرسیون چندکی: کدام خطاهای استاندارد؟
95137
من 56 آیتم با مقیاس لیکرت برای IV و 28 آیتم با مقیاس لیکرت برای dv دارم. برای تحقق این فرض برای EFA، نقاط پرت و خطی باید بررسی شوند. آیا کسی می تواند به من بگوید که کدام روش/تحلیل برای شناسایی نقاط پرت و خطی بهترین است؟ برای موارد پرت، آیا می توانم از امتیازهای Z استفاده کنم؟
نقاط پرت و خطی برای EFA
83444
X، Y دو R.V. مستقل هستند که به طور یکنواخت در بازه [0،1] 1)Z = Max[X,Y] توزیع شده اند. C.D.F را پیدا کنید و چگالی 2)W = Min[X,Y]. C.D.F و چگالی را پیدا کنید 3) بررسی کنید که چگالی مشترک (W,Z) 2 برای 0 باشد، فکر می‌کردم می‌دانم چگونه این کار را انجام دهم، اما از آنجایی که چگالی اتصال برابر است با 2، فکر نمی‌کنم این کار را درست انجام دهم. برای 1، من x^2 را به عنوان C.D.F گرفتم. و 2 برابر برای P.D.F.
یافتن حداکثر، حداقل، و چگالی مشترک حداکثر و حداقل
17559
من سعی می کنم دو نوع شی را طبقه بندی کنم که متأسفانه با نمونه های کمی دارای ویژگی های ابعادی بالایی هستند. (230 شامل 12 نمونه از هر گروه). به عنوان اولین گام: برای کاهش ابعاد، من سه رویکرد مختلف PCA (هر کدام با پارامترهای کمی متفاوت) را آزمایش کرده‌ام و از امتیازات 3 رایانه اول به‌عنوان ویژگی به جای 230 ویژگی اصلی استفاده کردم. به عنوان مرحله دوم: به منظور طبقه بندی آن اشیا، من سه طبقه بندی کننده مختلف (SVM، 3-NN، Naive Bayes) را آزمایش کرده ام که در آن از روش ترک one out استفاده می کنم، به عنوان مثال: آموزش طبقه بندی کننده بر روی 23 شی و آن را روی یکی ترک، برای تست. خلاصه: من از 3 روش کاهش ابعاد مختلف و سه روش از طبقه بندی کننده های مختلف استفاده کرده ام (در کل نه ترکیب). در یک ترکیب (از 9)، من عملکرد عالی طبقه بندی کردم. سوال من: آیا روش آماری وجود دارد که بتوانم در اینجا استفاده کنم تا ثابت کنم این گزینه واقعاً قوی و صحیح بوده و تصادفی رخ نداده است؟
من روش های کاهش 3 بعدی و 3 طبقه بندی کننده دارم، چگونه بهترین ترکیب را انتخاب کنم؟
74887
آیا اعتبار متقاطع تکنیک مناسبی برای انتخاب متغیر و انقباض ضریب رگرسیون است؟ یکی از همکاران سابق من از CV 10 برابری برای مقایسه ضرایب رگرسیون از 10 مدل آموزشی استفاده کرد. اگر علامت ضرایب تغییر کند، متغیرها حذف می‌شوند. سپس از مقادیر متوسط ​​ضرایب برای متغیرهای باقیمانده برای تخمین ضرایب مدل نهایی استفاده شد. آیا این روش خانگی شبیه یک تکنیک معتبر به نظر می رسد؟
اعتبار متقاطع برای انتخاب متغیر و انقباض ضریب؟
48689
با توجه به توزیع برنولی با احتمال موفقیت 0.02 = p. فرض کنید N=3000 نمونه داریم. چگونه می توانم فواصل اطمینان را برای تعداد موفقیت های مورد انتظار محاسبه کنم (مثلاً با سطح اهمیت 5٪)؟
یک فاصله اطمینان برای توزیع برنولی را محاسبه کنید
81901
این در مورد فوتبال نوع قرعه کشی است. از 14 بازی تشکیل شده است. 13 نفر از آنها 3 نتیجه ممکن دارند: برد تیم میزبان، تساوی، یا برد تیم میهمان. بازی چهاردهم تقریباً 1 بازی از 13 بازی است که در آن فرد انتخاب می کند کدام تیم اول گل بزند (یا بدون گل) و در چه کوارتری. بنابراین می‌تواند امتیازات تیم میزبان در 1q، 2q، 3q یا 4q باشد، و برای تیم میهمان هم به همین ترتیب، یا اصلاً امتیازی نداشته باشد. بنابراین در این بازی 9 نتیجه ممکن وجود دارد. من قبلاً با استفاده از توزیع دوجمله ای احتمال برنده شدن 1 بازی، 2 بازی، 3 بازی و غیره را محاسبه کردم. من می خواهم همان را محاسبه کنم اما با یک روش بازی جایگزین. شما می توانید با انتخاب دو و سه گانه در قرعه کشی شرکت کنید (این گزینه فقط برای 13 بازی اول معتبر است). دوبل‌ها به شما امکان می‌دهند 2 مورد از 3 نتیجه را انتخاب کنید و سه‌گانه به شما امکان می‌دهد هر سه را انتخاب کنید و نتیجه را تضمین کنید. سوالات. اگر از 3 دوبل و 1 سه تایی استفاده کنم: از چند ترکیب استفاده می کنم؟ و احتمال انتخاب صحیح 0 بازی، 1 بازی، 2 بازی و غیره چقدر است؟ (2 سوال شامل انتخاب 1 نتیجه از بازی چهاردهم است). بخش دیگری از مشکل. من داده های 500 قرعه کشی گذشته (فقط برای 13 بازی اول) را دارم و جدول فراوانی هر نتیجه، میانگین محاسبه شده و انحرافات استاندارد را انجام دادم. من می خواهم احتمال نتایج را بر اساس فرکانس آنها بدانم. من یک توزیع معمولی انجام دادم اما نمی دانم راه درستی است یا نه، زیرا دقیقاً جمع نمی شود. به عنوان مثال، احتمال بسیار کمی از 15 برد خانگی را نشان می دهد و این باید صفر باشد زیرا فقط 13 بازی وجود دارد. و همچنین احتمالات هر نتیجه به 1 نمی رسد، بسیار نزدیک است، اما باید دقیقاً 1 باشد. بر اساس فرکانس ها، رایج ترین نتایج 5 برد خانگی، 5 تساوی و 3 برد خارج از خانه است. سوال آخر با آن آرایه چند ترکیب می توان ساخت؟ همچنین شامل 1 نتیجه از بازی چهاردهم.
احتمال نتایج قرعه کشی نوع بازی
80059
من می خواهم یک رتبه بندی از ژانرهای موسیقی ایجاد کنم. من فهرستی از هنرمندان و ژانرهای برتر با مقدار (1 تا 100) دارم که نشان می دهد موسیقی آنها چقدر از آن سبک است. اکنون باید ژانرها را سازماندهی کنم تا محبوب ترین آنها در صدر باشد. در زیر ژانرهایی از 4 هنرمند (3 ژانر در هر کدام) دارم. می‌توانیم ببینیم که «راک» و «متال» هر دو در 3 گروه هستند، اما وقتی به ارزش نگاه می‌کنیم، واضح است که «راک» از «متال» محبوب‌تر است. من به جمع‌آوری مقادیر از ژانرها فکر می‌کردم و بر اساس جمع مرتب می‌کردم، اما فکر می‌کنم در آمار باید الگوریتمی باشد که هنگام انجام رتبه نتیجه بهتری بدهد. سوال این است که چگونه ژانرها را مرتب کنیم (btw، من از PHP استفاده می کنم). * * * * فلز (71) * صنعتی (65) * راک (36) * * * * راک (100) * آلترناتیو (67) * فلز (36) * * * * فلز (100) * ملودیک دث متال (72) ) * فلز مدرن (68) * * * * آلترناتیو راک (100) * راک (78) * آلترناتیو (63) * * *
لیست ها را با استفاده از آمار مرتب کنید
87965
خیلی ممنون از وقتی که گذاشتید من در حال حاضر روی یک مطالعه تصویربرداری عصبی کار می کنم که شاخص های جانبی سازی بین دو نیمکره را در سه گروه مختلف مقایسه می کند. من 4 شاخص جانبی سازی دارم (دو پارامتر مستقل متفاوت برای دو مسیر فیبر متفاوت) و اکنون به این فکر می کنم که آیا بهتر است از MANOVA استفاده کنم یا ANOVA با اندازه گیری های مکرر. در ادبیات، من برخی از مطالعات را یافتم که به دنبال تفاوت در شاخص های جانبی متنوع از طریق اندازه گیری های مکرر ANOVA بودند، اما من کاملاً مطمئن نیستم که آیا این رویکرد صحیح است زیرا این دو شاخص مستقل هستند و مجرای فیبری یکسانی را توصیف نمی کنند. از کمک شما در این زمینه بسیار سپاسگزارم!
MANOVA یا ANOVA با اندازه گیری های مکرر؟
101423
چگونه می توانم آلفای کرونباخ را برای دو آزمونی که برای 165 نفر انجام داده ام محاسبه کنم؟ یک آزمون شامل 110 مورد و دیگری شامل 67 ماده است. نمره گذاری بر روی نسخه های چاپی انجام می شود و امتیازات هر خرده مقیاس به جای موارد جداگانه برای محاسبات بیشتر وارد می شود. در مقیاس 110 گویه ای 11 خرده مقیاس و در 67 گویه ای 4 خرده مقیاس وجود دارد. احتمالاً، زیرمقیاس‌ها از نظر ساختاری تک بعدی هستند، بنابراین باید آلفا را برای آنها محاسبه کنم. منظورم این است که اگر آلفا را برای داده‌هایم پیدا نکنم، نتایج نامعتبر می‌شوند. آیا راه عملی دیگری برای اطمینان از سازگاری داخلی وجود دارد یا مقادیر آلفای اصلی ارائه شده توسط توسعه دهندگان مقیاس کافی است؟ وظیفه امتیاز دهی 165 نفر برای 177 مورد عملی نیست. جداول من نمرات هر خرده مقیاس (نه آیتم ها) را برای همه شرکت کنندگان نشان می دهد. لطفا به من کمک کنید تا بفهمم بهترین راه برای انجام آن چیست.
اندازه گیری آلفای کرونباخ برای تعداد بسیار زیاد آیتم ها
101420
من یک تجزیه و تحلیل مکاتبات چندگانه بر اساس 10 عامل انجام داده ام: هر عامل یک سوال بله یا خیر است. عامل اول 22.3 درصد از کل واریانس و عامل دوم 13.6 درصد است. من به تجزیه و تحلیل اجزای اصلی (PCA) و داشتن درصد بالا (بیش از 70٪) عادت دارم. سوال 1: آیا درصد کل 35% (22+13) برای MCA کافی است؟ سوال 2: بر اساس تصویر پیوست شده، آیا زمانی که متغیرها نزدیک به محور دوم هستند، مفهومی وجود دارد؟ هر نظر دیگری در مورد MCA که من انجام داده ام قدردانی می شود. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/SAlzm.png)
درصد تجزیه و تحلیل مکاتبات چندگانه و نقاط نزدیک به یک محور
20623
معانی «وابسته تصادفی» و «وابسته عملکردی» چیست؟ تفاوت در چیست؟ (من استفاده از اصطلاحات بالا را در مقاله نمونه برداری حداکثر آنتروپی و طراحی آزمایشی بیزی بهینه دیدم) با تشکر فراوان.
معانی «وابسته تصادفی» و «وابسته عملکردی» چیست؟
20620
من می خواهم بدانم چگونه می توانم به شکل dlm ( dlm PAckage by Petris ) یک معادله حالت مانند این بنویسم: $$a(t+1) = k(t) + F*a(t) + T(t)w (t)$$ که در آن $w$ $N(0,1)$ است. برای سهولت کار می توانم $k$ و $T$ را ثابت فرض کنم. سوال من این است که چگونه می توانم آن را به روشی که توسط یک بسته R برای مدل های خطی پویا توضیح داده شده است دوباره مرتب کنم؟ با تشکر
بسته DLM، معادله حالت
80050
من دو افکت اصلی دارم، V1 و V2. اثرات V1 و V2 بر روی متغیرهای پاسخ منفی است. با این حال، به دلایلی من ضریب مثبت را برای عبارت تعامل V1 * V2 دریافت می کنم. چگونه می توانم این را تفسیر کنم؟ آیا چنین وضعیتی امکان پذیر است؟ متشکرم
دو اثر اصلی منفی اما اثر متقابل مثبت؟
13427
من می خواهم کار انجام شده توسط تابع loess در R را دستکاری کنم. با این حال، کار اصلی این تابع در C نوشته شده است. آیا پیاده سازی R خالص از کد وجود دارد؟ با تشکر
آیا اجرای «R خالص» برای لس وجود دارد؟ (بدون کد C؟)
20624
من زمان های بین ورود وسایل نقلیه را دارم که توسط یک الگوریتم تشخیص وسیله نقلیه ثبت شده است. من می‌خواهم نزدیک‌ترین توزیع (به عنوان مثال، پواسون یا موارد دیگر) این داده‌ها را پیدا کنم. چگونه می توانم این کار را انجام دهم؟ در اینجا نموداری از زمان های بین ورود از یک crosspost در SO آمده است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/gxQwj.jpg)
چگونه می توان نزدیک ترین توزیع یک داده را پیدا کرد؟
20622
من عبارات مختلف (به ظاهر) متناقضی را خوانده ام که آیا AdaBoost (یا سایر تکنیک های تقویت کننده) در مقایسه با سایر روش های یادگیری کمتر یا بیشتر مستعد بیش از حد مناسب هستند یا خیر. آیا دلایل خوبی برای باور یکی یا دیگری وجود دارد؟ اگر بستگی دارد، به چه چیزی بستگی دارد؟ دلایلی که AdaBoost کمتر/بیشتر مستعد بیش از حد برازش است چیست؟
آیا AdaBoost کمتر یا بیشتر مستعد بیش از حد برازش است؟
102747
من مجموعه داده ای از مشاهدات دارم که اثر مشاهده شده را پس از آموزش نشان می دهد. من یک موقعیت پایه دارم (که قبل از آموزش گرفته شده است) که نشان می دهد تعداد دانش آموزانی که دانش خاصی را نشان می دهند و سپس پس از آموزش تعداد افزایش یافته دانش آموزانی که دانش خاصی را نشان می دهند. چگونه نشان دهم که سود قابل توجه است؟ متأسفانه حجم نمونه نسبتاً کوچک است (60 دانشجو). همچنین من اطلاعاتی در مورد جنسیت دانش آموزان دارم. با نگاهی به داده‌هایی که دارم، می‌توانم بگویم که تأثیر جنسیت مرتبط نیست، اما چگونه نشان دهم که درست است؟ متشکرم
بهبود قابل توجه در آموزش - آیا می توانم آن را نشان دهم؟
6076
من یک تازه کار آماری (دانشجوی پزشکی) هستم که شانس خود را با رگرسیون کاکس برای تجزیه و تحلیل بقا در مورد نتیجه یک نوع عمل خاص امتحان می کنم. و من سعی می کنم تعیین کنم که کدام متغیرها را کنترل کنم. و نحوه رسیدگی به سن بیمار در زمان عمل (اندازه گیری-شروع)... در حال حاضر من موارد زیر را به عنوان متغیرهای کمکی در تجزیه و تحلیل خود تنظیم کرده ام (PASW/SPSS): جنس خطر (کم/بالا) (زن/مرد) ) شانت مورد استفاده در عمل (نادرست/درست) تنگی شریان (نادرست/درست) سن در هنگام عمل (مقدار صحیح) من 4 متغیر اول را تنظیم کردم به عنوان دسته (کد ساختگی با 0 و 1) و اولین مقدار (0) را به عنوان مقدار مرجع مشخص کرد. اما در مورد سن بیماران در عمل چطور؟ من فرض می کنم این باید کنترل شود؟ اما سن در شروع اندازه گیری (عملیات) به زمان بستگی ندارد (آیا؟)، اما همیشه یک مقدار هستند، درست است؟ آیا این بدان معناست که باید سن واقعی بیماران را نیز کنترل کنم؟ و آیا این بدان معناست که باید از تابع COX با متغیرهای وابسته به زمان به جای رگرسیون COX معمولی استفاده کنم؟ با تشکر برای هر گونه کمک! با احترام الکس
چگونه سن را در شروع اندازه گیری در رگرسیون کاکس کنترل کنیم؟
101427
من با داده های نظرسنجی خانوارها کار می کنم که در آن خانوارها هزینه های خود را برای محصولات مختلف گزارش می کنند. هدف بررسی کشش های درآمدی برای محصولات مختلف است، بنابراین در اصل من به مخارج خانوارها با توجه به درآمد آنها علاقه مند هستم. مشکل این است که یک رویکرد ثابت در تعیین اینکه کدام دسته از محصولات برای این نوع تجزیه و تحلیل نامعتبر هستند پیدا کنید. منظور من از نامعتبر موارد زیر است: فرض کنید ما دو محصول داریم - شیر و خرچنگ. کاملاً منطقی است که فرض کنیم از آنجایی که خانوارها شیر بسیار بیشتری نسبت به خرچنگ ها مصرف می کنند، نمونه داده شده به احتمال زیاد رفتار خانوارها را نسبت به خرید شیرشان به جای خرچنگ در سراسر طیف درآمد نشان می دهد. من می‌توانم سعی کنم با تحلیل ضرایب تغییرات به تغییر در هزینه‌ها در میان خانوارها برای یک محصول معین نگاه کنم یا به نوعی به واریانس متغیر وابسته در رگرسیون خطی مانند «هزینه ~ درآمد» نگاه کنم یا حتی ساده‌تر می‌توانم به نمونه نگاه کنم. اندازه برای هر دسته محصول (یعنی چند خانوار گزارش کرده اند که یک کالای خاص را خریداری کرده اند). با این حال، نمی‌دانم که آیا رویکرد آماری ثابتی برای این نوع مشکل در تعیین «اعتبار» دسته‌های محصول وجود دارد؟ هر گونه پیشنهاد یا مرجع بسیار مفید خواهد بود. با تشکر
داده های نظرسنجی خانوارها - دسته بندی محصولات معتبر را تعیین کنید
80055
تلاش من با یک نتیجه ناخوشایند به پایان رسید. من فکر کردم بهتر است از تکنیک تابع تولید لحظه (MGF) استفاده کنم. ما می توانیم MGF $W_n$ را به صورت زیر استخراج کنیم: $$ E \left[ e^{tZ /n^2} \right]= \left(1-\frac{2t}{n^2} \right)^ {-n/2}$$ از MGF مجذور کای. اما مشکل این است که محدودیت آن به عنوان $n \to \infty$ $1$ باقی می‌ماند و من در گیج مانده‌ام که آیا همه کارها را درست انجام داده‌ام. آیا چیزی را از دست داده ام؟ با تشکر
توزیع محدود $W_n=\frac{Z_n}{n^2}$ , $Z_n \sim \chi ^2 (n)$
6077
یک سوال تازه کار دیگر در اینجا (احتمالا یک تکه کیک برای شما بچه ها). هنگامی که من یک رگرسیون کاکس را اجرا می کنم و یکی از متغیرهای کمکی من قابل توجه است: 95.0% CI برای Exp(B) B SE Wald df Sig. Exp(B) Lower Upper risk 2,224 1,107 4,036 1,045 9,244 1,056 80,950 <5 متغیر کمکی برای وضوح حذف شد> اما تست های Omnibus من از ضرایب مدل (a) مهم نیست. تغییر نسبت به مرحله قبل: Chi-square=10290. df=6. Sig.=0,113. آیا این به این معنی است که مدل من برای هر چیزی خیلی بد است؟ آیا می توانم پس از اجرای این تجزیه و تحلیل، در مورد داده هایم چیزی معتبر بگویم؟ با تشکر از هر سرنخ که مرا به زیبایی آمار کاربردی نزدیکتر می کند... ;) با احترام الکس
تفسیر احتمال ورود به سیستم و اهمیت متغیرهای کمکی در رگرسیون کاکس
19654
این مشکل از کتاب است: > اجازه دهید $X = \min(U,V)$ و $Y = \max(U,V)$ برای متغیرهای مستقل > $\text{uniform}(0,1)$ $ U$ و $V$. توزیع های a) > $X$; ب) $1-Y$؛ ج) $Y-X$. من می دانم که هر کدام دارای چگالی $2(1-x)$ برای $0<x<1$ هستند. آنچه من امیدوار هستم توضیحی بصری در مورد چگونگی درک این مشکل و رسیدن به آن راه حل بدون اطلاع از توزیع بتا است.
مشکلات با اکستریم دو متغیر تصادفی یکنواخت
10021
با توجه به توزیع گاوسی $N(\mu_1,\sigma_1^2)$، می‌خواهم میانگین دیگر $\mu_2$ را انتخاب کنم که $2\sigma_1$ از $\mu_1$ فاصله دارد. در این مورد، میانگین جدید ما $\mu_2=\mu_1\pm 2\sigma_1$ است. چگونه میانگین جدید ($\mu_2$) را در حالت چند متغیره محاسبه کنیم؟ منظورم این است که بگویم، وقتی توزیع گاوسی چند متغیره شما $N(\mu_1،\Sigma_1)$ است و $\Sigma_1$ من ماتریس قطعی مثبت متقارن است. یعنی $\left[ \begin{array}{cc} \sigma_x^2 & \sigma_{xy} \\\ \sigma_{yx} & \sigma_y^2 \end{array} \right]$.
محاسبه میانگین جدید در گاوسی چند متغیره
7348
من دریافتم که R می تواند زمان زیادی برای ایجاد نمودارها در زمانی که میلیون ها نقطه وجود داشته باشد - با توجه به اینکه نقاط به صورت جداگانه ترسیم می شوند، تعجب آور نیست. بسیاری از نقاط با هم همپوشانی دارند و یک توده سیاه را تشکیل می دهند و زمان زیادی صرف ترسیم نقاط بیشتری در آن جرم می شود. آیا توابع ترسیمی وجود دارد که زمان پردازش را برای تعیین از قبل تعیین تکلیف غیرضروری جایگزین کند؟ من به دنبال نمودار چگالی نیستم (اگرچه این نمودارها اغلب مفید هستند)، من همان خروجی یک فراخوان نمودار ساده را می‌خواهم، اما در صورت امکان بسیار سریعتر از میلیون‌ها طرح اضافه.
توابع نمودار کارآمدتر در R هنگامی که میلیون ها نقطه وجود دارد؟
114485
من به محاسبه شانس سهام علاقه مند هستم. برای مثال، شانس های ورزشی مانند این است: ترکیه در مقابل اوکراین hwin، قرعه کشی، awin 2.20 3.40 3.20 2.20 برای برد ترکیه، 3.40 برای تساوی و 3.20 برای پیروزی اوکراین. من علاقه مند به محاسبه شانس در چنین قالبی هستم اما برای سهام در این مورد. آیا می توانید به من اشاره کنید یا راهی برای رسیدن به این هدف به من نشان دهید که: GOOGLE 1.20 4.50 3.51 یعنی: 1.20 برای افزایش ارزش، 4.50 برای ثابت ماندن ارزش و 3.51 برای افزایش ارزش سهام. برای محاسبه چنین شانس هایی چه چیزی لازم است؟ تاریخچه قیمت سهم و غیره؟
محاسبه شانس سهام / سهام
70432
بسیار خوب، من یک جنگل تصادفی ایجاد کرده ام، من یک پیش بینی بسیار خوبی از پاسخ دریافت می کنم. بعدش چی؟ چگونه می توانم آن را بیشتر بهبود بخشم؟ من این را می‌پرسم زیرا اغلب مسابقاتی را در Kaggle می‌بینم، جایی که RF به عنوان معیار استفاده می‌شود و بسیاری از افراد موفق می‌شوند نمرات بسیار بالاتری نسبت به راه‌حل مبتنی بر RF کسب کنند. در برخی موارد، داده ها نیز بدون برچسب هستند، و شما را از اعمال قضاوت دستی باز می دارد. چگونه آنها RF را با چنین حاشیه مناسبی شکست می دهند؟
یک پیش بینی جنگل تصادفی خوب دریافت کردم. بعدش چی؟
19659
با توجه به مجموعه ای مرتب شده از نقاط داده، که در آن هر نقطه نشان دهنده طول یک زیررشته مشترک بین دو فایل است، من می خواهم به طور سیستماتیک یک نقطه برش را تعیین کنم که بتوانم آنها را به عنوان کوتاه در نظر بگیرم و دیگر به آنها اهمیت ندهم. اساساً هدف من حذف نقاط داده ای است که نشان دهنده اشتراکات بین دو فایل موجود است، زیرا ما به زیر رشته های کوچکی نگاه می کنیم که احتمال تکرار آنها زیاد است، نه اینکه آنها زیررشته های مشترک واقعی هستند. تلاش من برای حل این مشکل این بود که ابتدا یک هیستوگرام ساده با استفاده از قانون Freedman-Diaconis برای انتخاب پهنای bin ایجاد کنم. یک مثال در اینجا شماره سطل را در سمت چپ و فرکانس را در سمت راست نشان می دهد. 0 : 68 1 : 14 2 : 5 3 : 6 4 : 1 5 : 0 6 : 1 7 : 1 8 : 1 9 : 1 10 : 2 11 : 2 از بالا می بینید که دو سطل اول پر از این ها هستند. مشترکات کوچکی که می خواهم از آنها اجتناب کنم. من نمی‌خواهم یک نقطه برش «کد سخت» داشته باشم، اما می‌خواهم برای هر مجموعه داده تصمیم بگیرم. هیچ ایده یا اشاره ای بر اساس آنچه که تا اینجا ذکر کردم برای حل این مشکل وجود دارد؟ همچنین می‌خواهم در مورد ایده‌ام برای استفاده از هیستوگرام برای حل این موضوع اطلاعاتی داشته باشم. اگر هر روش دیگری بهتر/عملی‌تر است یا هر گونه پیشرفتی در آنچه نوشتم، دوست دارم بشنوم.
ایجاد یک آستانه پویا برای پارتیشن بندی داده ها
17231
فرض کنید من یک ماتریس کوواریانس $N\times N$ دارم که توزیع مشترک نرمال چند متغیره را توصیف می کند. اکنون 100000 رسم از ماتریس کوواریانس را در نظر بگیرید. من واریانس مقادیر را برای هر ترسیم اندازه گیری می کنم - این را پراکندگی مقطعی می نامیم. اگر میانگین نتیجه پراکندگی مقطعی در سراسر رسم ها را محاسبه کنم، بیان تحلیلی میانگین و واریانس این پراکندگی چیست؟ اگر می‌خواهید با آن بازی کنید یا ایده خود را آزمایش کنید، در اینجا چند کد وجود دارد: # ایجاد ماتریس کوواریانس 3x3 m1 <- c( 0.1، 0.15، 0) S1 <- ماتریس (c(.1، 0.05، . 02، 0.05، 0.1، 0.03، 0.02، 0.03، 0.1)، نزدیک = 3 ) # 10000 بار از ماتریس کوواریانس بکشید set.seed(1000) library(MASS) <- MASS::mvrnorm(10000,mu=m1,Sigma=S1) # پراکندگی مقطعی را در هر ردیف اندازه بگیرید rowDispersion <- application( draws , 1 , var ) # میانگین را اندازه گیری کنید میانگین پراکندگی مقطعی ( rowDispersion ) # اندازه گیری واریانس پراکندگی مقطعی var ( rowDispersion )
لحظه دوم ترسیم از یک ماتریس کوواریانس نرمال چند متغیره
6071
من مطمئن نیستم که آیا این دقیقاً یک مدل خطای اندازه گیری است یا نه. من روی انجام متاآنالیز کار می کنم و مدلی که با آن شروع می کنم نسبتاً ابتدایی است. \begin{aligned} X_i &= \mu_i + e_i \\\ Y_i &= \beta \mu_i + g_i + \delta_i \end{aligned} اجزای تصادفی $e_i$، $g_i$، و $\delta_i$ هستند، و واریانس برای $e_i$ و $\delta_i$ شناخته شده است. این تحت یک مدل خطای اندازه گیری با اندازه گیری در هر دو پیش بینی و پاسخ قرار می گیرد. چگونه این مدل را در R قرار دهم؟
مدل کلاسیک خطای اندازه گیری در R
6074
زمینه: من یک برنامه نویس هستم با تجربه (نیمه فراموش شده) آمار در دوره های دانشگاه. اخیراً به http://akinator.com برخورد کردم و مدتی را صرف تلاش کردم تا آن را شکست دهم. و چه کسی نبود؟ :) من تصمیم گرفته ام که بدانم چگونه می تواند کار کند. پس از جستجو و خواندن پست‌های وبلاگ مرتبط و افزودن مقداری از دانش (محدود) خود به ترکیب حاصل، به مدل زیر می‌رسم (مطمئن هستم که از نماد اشتباه استفاده خواهم کرد، لطفاً مرا به خاطر آن نکشید): موضوعات (S) و سؤالات (Q) وجود دارد. هدف پیش بینی کننده این است که موضوعی S را انتخاب کند که با توجه به سؤالات و پاسخ هایی که تاکنون جمع آوری شده است، بیشترین احتمال پسین را دارد تا موضوعی باشد که کاربر به آن فکر می کند. اجازه دهید بازی G مجموعه‌ای از سوالات پرسیده شده و پاسخ‌های داده شده باشد: $\\{q_1, a_1\\}, \\{q_2, a_2\\} ... \\{q_n, a_n\\}$. سپس پیش بینی کننده به دنبال $P(S|G) = \frac{P(G|S) * P(S)}{P(G)}$ است. قبل از سوژه ها ($P(S)$) می توان فقط تعداد دفعاتی که موضوع حدس زده شده است تقسیم بر تعداد کل بازی ها. با این فرض که همه پاسخ‌ها مستقل هستند، می‌توانیم احتمال موضوع S را با توجه به بازی G به این صورت محاسبه کنیم: $P(G|S) = \prod_{i=1..n} P(\\{q_i, a_i \\} |. S)$ می‌توانیم $P(\\{q_i, a_i\\} | S)$ را محاسبه کنیم اگر دنبال کنیم که کدام سؤالات و پاسخ‌ها در هنگام استفاده از موضوع داده شده داده شده است: $P({q, a} | S) = \frac{پاسخ\ a\ داده شد\ به\ سوال\ q\ در\ the\ game\ وقتی\ S\\ the\ موضوع {تعداد\ از\ بود times\ q\ was\ ask\ in\ the\ games\ involving\ S}$ حال، $P(S|G)$ توزیع احتمال را بر روی موضوعات تعریف می کند و زمانی که باید سوال بعدی را انتخاب کنیم، باید یکی را انتخاب کنیم. که برای آن تغییر مورد انتظار در آنتروپی از این توزیع حداکثر است: $argmax_j (H[P(S|G)] - \sum_{a=yes,no, maybe...} H[P(S|G \vee \\{q_j, a\\} )]$ من سعی کردم این را پیاده سازی کنم و کار می کند، اما، بدیهی است که با افزایش تعداد سوژه ها، به دلیل نیاز به محاسبه مجدد P(S|G)$ پس از هر حرکت و محاسبه، عملکرد کاهش می یابد. توزیع به روز $P(S|G \vee \\{q_j, a\\})$ برای انتخاب سوال. من گمان می‌کنم که مدل اشتباهی را انتخاب کرده‌ام، زیرا محدودیت‌های دانشم محدود شده است. یا، شاید، یک خطا در ریاضی وجود دارد. لطفاً مرا روشن کنید: با چه چیزی باید خود را آشنا کنم یا چگونه پیش بینی کننده را تغییر دهم تا بتواند با میلیون ها موضوع و هزاران سؤال کنار بیاید؟
طبقه بندی کننده Akinator.com و Naive Bayes
80054
من باید واریانس شرطی $Y_t$ اطلاعات داده شده را تا زمان t پیدا کنم. $Y_t$ = $\mu $ + $\phi_1$$Y_{t-1}$ + $\phi_2$$Y_{t-2}$ +$\epsilon_{t+1}$ نیاز به یافتن واریانس شرطی از این معادله من باید پیش بینی سه گام جلوتر را پیدا کنم. توانست اولین را انجام دهد، اما در مرحله دوم گیر کرد. Var($Y_{t+1}$|$\Omega_t)$ = $\sigma^2$ اما آیا باید Var($Y_{t+2}$|$\Omega_t)$ را پیدا کنید؟ نیاز به راهنمایی
چگونه واریانس شرطی مدل AR(2) را محاسبه کنیم؟
111853
من در حال ارزیابی آزمایشی هستم که در آن آزمودنی ها باید کیفیت فایل های صوتی را ارزیابی می کردند. طراحی آزمایش به صورت تکراری است. بنابراین من سعی می کنم بفهمم کدام عوامل بر کیفیت تأثیر دارند. من از تابع lme برای کنترل واریانس موضوع استفاده می کنم. دامنه و تعداد دو عامل من برای پیش بینی کیفیت هستند. lme(کیفیت ~ دامنه*عدد، داده = مقداری_داده، تصادفی = ~ 1 | موضوع) این نتیجه است: همبستگی: (Intr) دامنه تعداد -0.246 عدد -0.234 - 0.331 دامنه: عدد 0.165 - 0.706 - نه من 0.706 -0. خواستن اگر فروم را به کیفیت ~ دامنه*عدد تغییر دهم، همبستگی: (Intr) کیفیت -0.845 را دریافت می کنم که همان چیزی است که می خواستم. من گیج شده‌ام زیرا به نظر می‌رسد که مقادیر پیش‌بینی در سمت راست فرمول هستند، اما فکر کردم که باید فرمول را مانند «y ~factor1*factor2» مشخص کنم، اما بدیهی است که «factor1*factor2 ~y» درست است. من اینجا چه غلطی می کنم؟
دریافت نتایج غیرمنتظره lme
29888
دو حرف به طور تصادفی از کلمه SENSATION با جایگزینی گرفته شده است. احتمال یکسان بودن حروف چقدر است؟ تلاش برای پاسخ: 9 حرف وجود دارد که می توان حرف S و N را دو بار رسم کرد که احتمال هر S را می دهد: 2/9، N:2/9 حالا من حدس می زنم که احتمال اینکه حروف ترسیم شده یکسان باشند. 2/9*2/9 = 4/81 است آیا درست است؟
احتمال ترسیم حروف از یک کلمه
90928
من یک بار با یک مجموعه آموزشی به سؤال زیر برخورد کردم، آیا می توان برچسب زدن خودکار را انجام داد؟ علاوه بر این، اگر این مجموعه آموزشی از فایل های متنی ساده تشکیل شده باشد، آیا می توان دانست که بهترین توصیف کلاس مثبت و بهترین توصیف کلاس منفی چیست؟ احساس من این است که برچسب زدن خودکار را می توان به عنوان یک یادگیری بدون نظارت تلقی کرد. یافتن بهترین توصیف از مجموعه ای از اسناد متنی را می توان به عنوان یک مشکل استخراج اطلاعات در نظر گرفت. اما می خواهم بدانم آیا روش یا مقاله رسمی برای بحث در مورد این مشکل وجود دارد؟ چه وضعیتی برای این موضوع وجود دارد؟
برچسب زدن خودکار مجموعه آموزشی
6079
من یک رگرسیون خطی در R انجام دادم و نتیجه زیر را گرفتم: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 192116.40 6437.27 29.844 < 2e-16 *** cdd 272.74 26.94 10.123 1.56e-09 *** pmax(hdd - 45.2 2.738 0.0123 * --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقی مانده: 16500 در 21 درجه آزادی چندگانه R-squared: 0.8454، R-squared تنظیم شده: 0.8307 آمار: 57.41 در 2 و 21 DF، p-value: 3.072e-09 سوال من به مقدار مربع R، 0.83 مربوط می شود و اگر بخواهم درصد سهم تقریبی هر متغیر (ماهانه) را مشخص کنم، به چه معناست. ویرایش: داده ها را در زیر ببینید. بگویید من 12 نقطه داده اول hdd و cdd را می‌گیرم و مجموع 12 پیش‌بینی (یعنی کل پیش‌بینی سال اول) را با استفاده از ضرایب بالا محاسبه می‌کنم. سهم پایه (برق) در سال تقریباً 12 * 192116.40 = 2305397 خواهد بود، درست است؟ به طور مشابه، سهم cdd در سال تقریباً 1608 * 272.74 = 438565.9 خواهد بود و hdd (بعد از عملکرد لولای دست ساز من) تقریباً 1329 * 61.73 = 82039.17 خواهد بود. از مجموع این سه مقدار، 2826002 حاصل می شود که در حدود 1.3٪ از کل استفاده واقعی است (2862840، مجموع 12 انتخاب اول). آیا می توانم بگویم که cdd 438565.9/2826002 = 0.1551895 یا تقریباً 16٪ از کل سالانه را تشکیل می دهد؟ یا باید آن را بگیرم و R-squared تعدیل شده را جبران کنم: 0.1551895*0.8307= 0.1289159 (یعنی ضرب در R-squared تعدیل شده)، تقریباً 13٪ از کل؟ یا هیچ کدام از این استدلال درست نیست؟ داده‌های من عبارتند از: elec hdd cdd 1 235940 880 3 2 205380 772 4 3 211780 551 9 4 192220 281 68 5 221440 165 119 6406 304 4 434 8 300440 11 339 9 272900 42 214 10 204220 322 44 11 201060 592 8 12 229460 784 2 13 210454071 2 15 186660 618 15 16 195340 332 88 17 241200 109 159 18 260700 18 282 19 299940 29 367 20 2934246 159 22 208380 319 36 23 183820 452 7 24 231360 903 0 (چرخه صورتحساب ماهانه برای elec می تواند از 29 تا 32 روز باشد، به طوری که واریانس زیادی تزریق می کند. من هنوز تمام طول دوچرخه را ندارم. به یک روز معاملاتی نوعی تعدیل.)
نتیجه مربع R در رگرسیون خطی و واریانس غیر قابل توضیح
64697
بگویید من یک نظرسنجی از 100 نفر انجام دادم و پرسیدم که آیا آنها روزانه سبزیجات می خورند یا خیر. از جامعه نمونه من، 60 نفر می گویند که دارند، 40 نفر می گویند که ندارند. الان هم تفکیک نر و ماده دارم. از 60 نفری که روزانه سبزیجات می خورند، 45 نفر زن و 15 نفر مرد هستند. از 40 نفری که روزانه سبزیجات نمی خورند، 15 نفر زن و 25 نفر مرد هستند. اکنون، مطالعه اولیه من جنسیت را کنترل نکرد، اما اکنون می‌خواهم ببینم که آیا جنسیت تأثیری بر مصرف روزانه سبزیجات دارد یا خیر. آیا می توانم از آزمون دقیق Chi-Squared/Fischer با [45,15;15,25] به عنوان جدول احتمالی خود استفاده کنم؟ یا باید از آزمون مک نمار استفاده کنم و تطبیق جفتی انجام دهم؟ همچنین اگر من chi-square انجام دهم، آیا این یک تست خوب تناسب اندام Chi-Square یا یک Test Independence Chi-Square در نظر گرفته می شود؟
آیا باید از آزمون Chi Squared/Fisher's Exact Test یا McNemar's Test استفاده کنم؟