_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
34895
من سعی می کنم کتابی را پیدا کنم که یک بار تا حدی بدون شانس خوانده ام. موضوع اصلی کتاب، اگر درست یادم باشد، فرآیندهای تصادفی است. فکر می‌کنم این یک کتاب نه چندان سنگین آبی/آبی روشن بود. کلمه شاه به نوعی مرتبط به نظر می رسد، اما مطمئن نیستم که نویسنده آن بوده یا شاید در کالج کینگ نوشته شده باشد. من همچنین فکر می کنم که در اواسط دهه 1980 نوشته شده است، اما مطمئن نیستم. از آنچه به یاد دارم، فصل اول یا دوم یک نمای کلی در سطح بسیار بالایی از فرآیندهای تصادفی ارائه کرد و نشان داد که چگونه توزیع‌های منظم، مانند برنولی، به فرآیندهای تصادفی تعمیم می‌یابند. همچنین نشان می دهد که بسیاری از فرآیندها با فرآیند پواسون مرتبط هستند. روشی که توضیح داده شد چیزی شبیه به (نه از لحاظ فنی) است، یک فرآیند تصادفی به گونه‌ای است که در فضای بزرگ‌تری تعریف می‌شود و هر زیرفضای متناهی از یک توزیع منظم منشا می‌گیرد.
آیا کسی می تواند این کتاب را شناسایی کند؟
85545
من یک مشکل طراحی آزمایشی دارم و مطمئن نیستم که بهترین راه برای ادامه چیست. ما یک آزمایش ریز آرایه داریم که در آن پروفایل های بیان ژن را بین 2 گروه از بیماران مقایسه می کنیم. هر گروه دارای 12 تکرار بیولوژیکی مستقل است. اجازه دهید این گروه ها را CT و EXP بنامیم. هدف از این آزمایش شناسایی ژن های بیان شده متفاوت بین CT و EXP است. دو مجموعه هیبریداسیون انجام شد: اول و دوم. هیبریداسیون اول مشکل بزرگی داشت: نمونه‌های CT در یک نقطه زمانی و EXP چند ماه بعد پردازش شدند و یک اثر دسته‌ای کاملاً مخدوش ایجاد کردند. هیبریداسیون دوم این مشکل را نداشت - همه نمونه ها به طور همزمان پردازش شدند. من هر دو مجموعه را به طور جداگانه تجزیه و تحلیل کردم و به 2 لیست از ژن های بیان شده متفاوت رسیدم. سوال من این است که آیا باید نتایج هیبریداسیون اول را به طور کامل کنار بگذارم و به دومی بچسبم زیرا مشکل طراحی واضحی نداشت؟ یا باید از هر دو مجموعه هیبریداسیون استفاده کنم و فقط ژن هایی را انتخاب کنم که در هر مورد به صورت متفاوت بیان می شوند (2900 ژن از این نوع وجود دارد)؟ از کمک شما قدردانی می کنیم!
انتخاب لیست ژن برای تجزیه و تحلیل بعدی در آزمایش ریزآرایه مشکل ساز
81844
_یک شرکت با کارت های مغناطیسی و رمز عبور، دسترسی کارمندان خود به یک منطقه ممنوعه را کنترل می کند. هر یک از کارمندان $k$ یک کارت ناشناس دریافت کردند و یک رمز عبور عددی $n$ رقمی را برای مرتبط کردن با کارت خود انتخاب کردند. فرض کنید کارت ها مخلوط شده و به طور تصادفی توزیع شده اند، و اجازه دهید $A$ یک کارمند باشد._ _a) احتمال اینکه $A$ با استفاده از رمز عبور خود و کارتی که بعد از زدن به دست آورده وارد منطقه محدود شده شود چقدر است؟_ _b) اگر $ A$ توانست با رمز عبور خود وارد شود، احتمال اینکه قبل و بعد از زدن همان کارت را دریافت کرده باشد چقدر است؟ گذرواژه انتخاب شده $p=10^{-n}$ است. حالا اجازه دهید $L$ تعداد کارت‌های $k$ باشد که به رمز عبور $A$ مرتبط هستند، یعنی چند کارمند (از جمله $A$) رمز عبور $A$ را انتخاب کرده‌اند. سپس احتمال $L/k$ است. * * * ب) اجازه دهید $E_1$ رویداد $A$ وارد منطقه ممنوعه شد و $E_2$ $A$ کارت خود را پس از زدن به هم زد. $E_1$ فقط رویدادی است که در _a_ درخواست شده است، و از آنجایی که $E_2\subset E_1$، این احتمال $$\mathbb P(E_2\,|\,E_1)=\frac{\mathbb P(E_2\cap E_1) است. }{\mathbb P(E_1)}=\frac{\mathbb P(E_2)}{\mathbb P(E_1)} =\frac{1/k}{L/k} =\frac1L\quad.$$ * * * واضح است که تنها چیزی که باقی می‌ماند محاسبه L$ است. چگونه می توانم آن را قطعی دریافت کنم؟ تنها چیزی که می دانم چگونه توزیع می شود: $$\begin{align} \mathbb P(L=l\,|\,L\ge1) &=\frac{\mathbb P(L=l\wedge L\ge1)} {\mathbb P(L\ge1)} =\\\ &=\frac{\displaystyle{\binom kl}p^l(1-p)^{k-l}I_{\\{1,...,k\\}}(l)} {\mathbb P(L\neq0)} =\\\\\ ,\\\\\,\\\ &=\frac{\ldots} {1-\displaystyle{\binom k0}p^0(1-p)^{k-0}} =\\\\\،\\\\\،\\\ &=\frac{\ldots}{1-(1-p)^k}\quad، \end{align}$$ و به همین ترتیب $$\ mathbb P(L=l)=\frac1{1-(1-10^{-n})^k}\binom kl10^{-nl}(1-10^{-n})^{k-l}I_{\\{1،...،k\\}}(l)\چهار.$$
احتمالاً اطلاعات ناکافی در مورد مشکل درهم ریختن
86818
من یک سوال تکلیف آمار بیزی دارم که از آن مطمئن نیستم: با اجرای این در R، خطوط کاملاً مسطح در 0 و 1 دریافت کردم، بنابراین فکر می کردم این بدان معنی است که احتمال موفقیت با این تغییر نمی کند. قبل خاص آیا کسی می تواند این مشکل را بیشتر روشن کند؟ mu0 = 0 sig2_0 = 100 n = 10000 b0 = rnorm(n، میانگین=mu0، sd=sqrt(sig2_0)) x = seq(از=0، تا=10، طول.out=100) res = ماتریس (0، طول (x)، 3) برای (i در 1: طول (x)){ z = b0 z1 = exp(z) / (1+exp(z)) res[i,] = quantile(z1, c(0.025, 0.5, 0.975)) } plot(x, res[,2], type='l', ylim =range(res)، ylab='احتمال موفقیت', xlab='Covariate') خطوط (x, res[,1], lty=3) خطوط (x, res[,3], lty=3)
رگرسیون لجستیک و احتمال موفقیت: آمار بیزی
33259
من باید زمین جنگلی را برای داروهای ضد فشار خون آماده کنم. تا به حال، من زمین های جنگلی را دیده ام که از نسبت شانس استفاده می کردند. اختلاف میانگین فشار خون در 2 گروه با محدودیت اطمینان 95% دارم. آیا کسی می تواند به من پیشنهاد دهد که چگونه با استفاده از تفاوت میانگین ها، خطای استاندارد و محدودیت های اطمینان، نقشه جنگل را ترسیم کنم؟
چگونه قطعه جنگلی را با تفاوت در میانگین و CI درست می کنید؟
85544
من به سؤالات کتابی پاسخ می دهم که صاحب آن هستم و سرم را می خارم زیرا یکی از پاسخ های من با پاسخ ارائه شده در کتاب مطابقت ندارد. یا کتاب دارای اشتباه تایپی است یا من به سادگی کار اشتباهی انجام داده ام. کتاب خوبی است و از نویسندگانی با کیفیت است، بنابراین فکر می‌کنم این مورد دوم است و به همین دلیل است که این سوال را می‌پرسم. در مواردی از این دست، من معمولاً بررسی می‌کنم که آیا کتاب دارای خطا است یا خیر، اما در وب‌سایت کتاب وجود ندارد. از ابتدا، این یک دوره آموزشی نیست. من به اندازه کافی ممتاز نیستم که در یک دوره شرکت کنم! **سوال در کتاب** مدل زیر از قیمت دارایی ها را در نظر بگیرید، $p_{t}$، که معمولاً در ادبیات اقتصاد سنجی مالی اتخاذ شده است $$ \ln p_{t} - \ln p_{t-1} = \ alpha + u_{t}~, ~~~~u_{t} \sim iid ~ N(0,\sigma^2) ~, $$ که در آن $\theta = \\{\alpha، \sigma^2\\}$ پارامترهای ناشناخته هستند. از تکنیک تبدیل متغیر استفاده کنید تا نشان دهید که توزیع شرطی $p_{t}$ توزیع log-normal است $$ f(p_{t}|p_{t-1};\theta) = \frac{1} {\sqrt{2\pi\sigma^2}p_{t}}\exp \left[-\frac{\ln p_{t}-\ln p_{t-1}-\alpha}{2\sigma^2}\right]~~. $$ **پاسخ من** \begin{align} f(u_{t}) &= \frac{1}{\sigma\sqrt{2\pi}}\exp \left[-\frac{(\frac {u_{t}}{\sigma})^2}{2}\right]~~~~(\text{طبق تعریف } N(0,\sigma^2))\\\ &= \frac{1}{\sqrt{2\pi\sigma^2}}\exp \left[-\frac{u_{t}^2}{2\sigma^2}\right]~~~~~( \text{براساس قوانین توانها})\\\ \end{align} با اعمال تغییر تکنیک متغیر، $$ f(p_{t}|p_{t-1};\theta) = f(u_{t})\left|\frac{\partial u_{t}}{\partial p_{t}}\right| ~، $$ و تشخیص اینکه $u_{t} = \ln p_{t} - \ln p_{t-1} - \alpha$، \begin{align} f(p_{t}|p_{t- 1};\theta) &= \frac{1}{\sqrt{2\pi\sigma^2}}\exp \left[-\frac{(\ln p_{t} - \ln p_{t-1} - \alpha)^2}{2\sigma^2}\right]\left|\frac{1}{p_{t}}\right| \\\ &= \frac{1}{\sqrt{2\pi\sigma^2}p_{t}}\exp \left[-\frac{(\ln p_{t} - \ln p_{t- 1} - \alpha)^2}{2\sigma^2}\right] ,\\\ \end{align} که در آن توجه می کنیم که تعیین کننده ماتریس 1x1 تنها آن است ورود **مشکل** با مقایسه اصطلاحات، می توان متوجه شد که پاسخ من با پاسخ کتاب از نظر عددی در نمایان متفاوت است - پاسخ من شامل یک عبارت مربع است در حالی که پاسخ در کتاب چنین نیست. لطفا به اشتباه فاحش من اشاره کنید و به سرم استراحت بدهید. به سلامتی
تبدیل متغیر تصادفی - توزیع لگ نرمال
4585
داشتم در مورد هموارسازی نمایی در ویکی پدیا می خواندم. جمله ای دیدم که می گفت با استفاده از روش حداقل مربعات می توانم پارامتر بهینه $\alpha$ را پیدا کنم. چگونه می توانم این کار را انجام دهم؟ آیا راه های دیگری وجود دارد که بتوانم $\alpha$ مناسب را پیدا کنم؟ **ویرایش:** همچنین، در صورت امکان، من راهی برای مدیریت مقادیر از دست رفته می خواهم.
پارامتر بهینه $\alpha$ برای هموارسازی نمایی با استفاده از حداقل مربعات
38470
من از Random Forests در Matlab برای رگرسیون استفاده می کنم. پس از آموزش مدل خود در مورد داده های قطار، می خواهم MSE را بر روی داده های آزمایشی که در آموزش استفاده نمی شود، دریافت کنم. من این کار را به دو روش انجام می‌دهم: 1. «پیش‌بینی» را فراخوانی کرده و مستقیماً MSE را با استفاده از مقادیر پیش‌بینی‌شده و واقعی محاسبه می‌کنم. در حالت اول 10 برابر بیشتر نتیجه می‌گیرم. چرا؟ تنها توضیحی که دارم این است که توابع ساخته شده به نحوی در پیش‌بینی موارد پرت را کاهش می‌دهد، اما مطمئن نیستم دقیقاً چگونه انجام می‌شود. میشه لطفا یکی همه اینا رو برام توضیح بده
محاسبه خطای پیش‌بینی RandomForest Matlab
11186
فرض کنید سری زمانی $ X_t $ داریم و تجزیه زیر را دارد $$X_t=\mu + \varepsilon_t,$$ که $\mu$ میانگین و $\varepsilon_t$ - عبارت خطا است. اگر این سری زمانی را به چند بخش، مثلا $k$، تقسیم کنیم و روند بالا را تکرار کنیم، پیچیدگی مدل افزایش خواهد یافت. با افزایش پیچیدگی مدل، دقت تقریب نیز افزایش می یابد. بنابراین می‌خواهم در اینجا یک اصطلاح منظم‌سازی را معرفی کنم که به تصمیم‌گیری در مورد تعداد بخش‌هایی که در آن‌ها باید سری‌های زمانی را تقسیم کنیم کمک می‌کند. خطا در تقریب را می توان به صورت $$ \epsilon_t= \frac{1}{k} \sum_{i=1}^k (\mu_{1}-X_{i})+\frac{1}{n-k تعریف کرد } \sum_{i=n-k}^n (\mu_{2}-X_{i})، $$ در اینجا من سری‌های زمانی را به ۲ بخش و $\mu_{1} تقسیم کرده‌ام، \mu_{2}$ ابزار مربوط به آنها هستند. اکنون می خواهم تعداد بهینه بخش ها را به طور کلی پیدا کنم. لطفاً توجه داشته باشید که در اینجا من می خواهم یک اصطلاح قانونی را معرفی کنم که به تصمیم گیری تعداد بهینه بخش ها کمک می کند.
تعداد قطعات برای تقسیم یک سری زمانی
87031
## مشکل من یک مجموعه داده دقیق از 6 متغیر دارم، اما برای همه به جز یک سال، من فقط توزیع حاشیه ای از 5 متغیر دارم، بقیه از دست رفته است. از آن، من می خواهم یک مجموعه داده کامل به دست بیاورم. برای نشان دادن مشکلم، حالتی را تصور کنید که من مجموعه داده ای از 3 متغیر (سن، سطح، سال) داشته باشم و فقط 2 حاشیه برای همه به جز یک سال داشته باشم. 2011 (سال کامل) Lvl1 Lvl2 Lvl3 Lvl4 Lvl5 ​​Lvl6 Lvl7 Lvl1-7 1-20 2758 3531 2759 1472 963 1025 790 13298 21-40 24121313135 1376 720 13120 41-60 3497 3322 1818 1276 710 562 240 11425 61-80 4122 5554 2754 1786 1180 1276 496 1180 11424+ 3050 2333 1889 656 334 16118 Sum 15538 21053 12752 8450 5861 4115 2366 70135 2010 (فقط 2 عدد حاشیه) Lvl1 Lvl4 Lvl7 Lvl5 1-20 13197 21-40 12922 41-60 11369 61-80 16353 80+ 15774 Sum 15151 21643 12611 8273 5586 4026 26915 mars Lvl1 Lvl2 Lvl3 Lvl4 Lvl5 ​​Lvl6 Lvl7 Lvl1-7 1-20 12684 21-40 12477 41-60 10844 61-80 16022 80+ 14911 Sum 14367 12367 20991 12367 20911 2263 66938 در این مثال، چالش پر کردن مقادیر از دست رفته داده های 2010 و 2009، با استفاده از توزیع 2011 برای ایجاد تمام فرضیات لازم در مورد توزیع های حاشیه ای چند متغیره است. _توجه کنید که مشکل من تا حدودی پیچیده تر است. من دارای 5 بعد (سن، سطح، منطقه، جنسیت، سال) و سه جدول توزیع حاشیه ای 4 بعدی (جنس، سطح، منطقه، سال)، (سن، جنسیت، منطقه، سال) و (جنس، سن، سطح، سال) - اما مشکل اساساً یکسان است (من فکر می کنم ...؟)._ ## چگونه می توان این کار را انجام داد؟ در اینجا نظریه من است. _آمار نظرسنجی_ در مورد اینکه چگونه می توان هر داده (نمونه) داده شده را با حاشیه جمعیت مطابقت داد، تحقیقات زیادی انجام داده است، می توانم از روش های آنها استفاده کنم. آنها این کار را با وزن دهی مجدد مشاهدات انجام می دهند. برای بدست آوردن مجموعه ای از این وزن ها می توان از **رتبه** استفاده کرد. تابع 'rake' در بسته 'بررسی' امکان رتبه بندی با توزیع های مشترک چند بعدی را فراهم می کند. ایده من این بود که از داده های کامل به عنوان نمونه استفاده کنم و به تابع rake اجازه دهیم وزن هایی را محاسبه کند که باعث می شود داده ها با توزیع های حاشیه ای مطابقت داشته باشند. ** سوال 1: ** آیا این ایده خوبی است؟ آیا ایده بهتری دارید؟ همانطور که می توانید تصور کنید، چندین مشکل دیگر وجود دارد که باید حل شوند. اولین مورد این است که روش‌های نظرسنجی همیشه فرض می‌کنند که داده‌های «نمونه» داده‌های فردی است، من _ شمارش_ دارم، و هیچ ویژگی دیگری از افراد به جز متغیرهای طبقه‌بندی وجود ندارد. کاری که من سعی کردم انجام دهم این است که شمارش ها را به عنوان وزن های نظرسنجی پیش از رتبه بندی مشخص کنم. من آن را امتحان کردم اما رتبه بندی منجر به وزن های غیرقابل قبول می شود، یعنی اکثر وزن ها 0 و برخی از آنها Inf هستند. امکان دیگر تکرار هر ورودی از data.frame جمعیت بسته به تعداد مشاهدات است، اما این کار به طور قابل توجهی باعث می شود که data.frame به طور قابل توجهی متورم شود (به جای 24480 ردیف فعلی، تقریباً 18000000 سطر خواهد داشت. همه اندازه‌ها) و باعث مشکلات حافظه می‌شوند، اگر وزنی را مشخص نکنم (همه احتمالات 1 هستند)، پس از رتبه‌بندی وزن‌ها توزیع زیر را دریافت می‌کنم: mean(lpg.rake$prob) [1] 0.1289419 > median(lpg.rake$prob) [1] 0.01700375 > quantile(lpg.rake$prob,c(.075,.1،.5،.9،.95 ,.99,.999)) 7.5% 10% 50% 90% 95% 99% 99.9% 0.001274434 0.001697273 0.017003749 0.155742479 0.322445467 1.597854446 11.710 در هر سال برای من یک مجموعه داده کامل حدود 700 است، من انتظار دارم که میانگین وزن ها باشد **سوال 2:** چگونه باید با این واقعیت برخورد کنم که روش های نظرسنجی فرض می کنند مشاهدات فردی هستند، در حالی که من برای هر ردیف یک ردیف دارم. ترکیبی از متغیرهای طبقه بندی به اضافه یک متغیر شمار؟ ## یک مثال کاربردی از آنجایی که مشکل من بسیار پیچیده است و با بسته نظرسنجی آشنا نیستم، تولید یک نمونه حداقلی که مشکل من را بازتولید کند برایم دشوار است. به نوعی پیچیدگی مشکل اصلی است. داده‌های نمونه در بسته «نظرسنجی» وجود دارد، می‌توانید به آن نگاهی بیندازید (لینک). با این حال، از آنجایی که داده‌های من محرمانه نیستند، نمی‌دانم چرا نتوانستم مجموعه داده کامل را به شما ارائه دهم و آنچه را تاکنون امتحان کرده‌ام. اینجاست. رمز عبور فایل فشرده این است: xB2KzbuK منبع: وزارت امور اجتماعی (1995-2012): Pflegevorsorgebericht / Bericht des Arbeitskreises
از Raking برای نسبت دادن توزیع چند متغیره استفاده کنید
85547
من یک آمار $\hat{\theta}$ برای پارامتر $\theta$ دارم. که ممکن است مغرضانه باشد. فرض کنید $\mathbb{E}[(\hat{\theta}-\theta)^2]=\textit{ecm}^2$ and $\mathbb{V}[\hat{\theta}]=\sigma^ 2$ شناخته شده است، اما توزیع $\hat{\theta}$ ناشناخته است. من می خواهم با استفاده از بوت استرپ یک فاصله اطمینان برای $\theta$ پیدا کنم. من در اینترنت دریافتم که معمولاً می توان از بوت استرپ برای پیدا کردن $k_\alpha$ استفاده کرد، به طوری که $P( \frac{(\hat{\theta}-\theta)^2}{\sigma^2} \leq k_\ alpha^2) = 1-\alpha$. من می‌دانم که این امر منطقی است، زیرا آنالوگ با فواصل اطمینان عادی است و در این صورت یک آمار محوری است. سوال من این است که آیا باید به جای $\sigma^2$ از $\textit{ecm}^2$ در مخرج استفاده کنم؟ اگر برآوردگر بی طرف باشد، هر دو گزینه یکسان هستند زیرا ($\sigma^2=\textit{ecm}^2$) اما علاقه من به برآوردگرهای مغرضانه است. همچنین، اگر به جای دانستن $\sigma^2$ و $\textit{ecm}^2$، تخمین بوت استرپ آنها را داشته باشم، چه اتفاقی می افتد؟ هر اشاره یا اشاره ای در مورد این موضوع عالی خواهد بود. با تشکر
فاصله اطمینان بوت استرپ برای یک برآوردگر مغرضانه
17918
من برخی از داده های بیش از حد پراکنده دارم و سعی می کنم تصمیم بگیرم که کدام مدل مناسب ترین داده ها است. داده ها معمولاً تعداد علائم یا تعداد موارد صحیح در برخی از وظایف شناختی هستند. به عنوان مثال: set.seed(69) g1<-rnorm(700,30,9); g2<-rnorm(100,25,7); g3<-rnorm(100،20،5) gt<-data.frame(امتیاز=c(g1، g2، g3)، fac1=factor(rep(c(a، b، c)، c(700، 100، 100)))، fac2=ordered(rep(c(0،1،2)، c(3،13،4)))) gt$score<-with(gt, ifelse(fac2 == 0, score, score-rnorm(1, 0.5, 2))) gt$score<-with(gt, ifelse(fac2 == 2, score-rnorm( 1، 0.5، 2)، امتیاز)) gt$score<-round(with(gt، ifelse(score>=30، 30, امتیاز))) gt$cov1<-with(gt, score + rnorm(900, sd=40))/40 gt$score.30<-with(gt, 30-score) مدل هایی که در مورد آنها فکر می کنم استفاده از عبارتند از: glmnb1<-glm.nb(امتیاز.30~cov1 + fac1*fac2، داده=gt) hur1<-hurdle(score.30~cov1 + fac1*fac2, dist=negbin, data=gt) quasi1<-glm(cbind(score, score.30)~cov1+fac1*fac2, family=quasibinomial , data=gt) 1. چگونه بین دو جمله ای منفی و شبه دو جمله ای تصمیم گیری کنیم؟ 2. در این مثال، مدل مانع در مقایسه با دوجمله ای منفی برازش بهتری دارد. با این حال، اگر شبه‌جمله‌ای در مقایسه با دوجمله‌ای منفی (به صورت فرضی یا غیر آن) بهتر بود، چگونه مانع و شبه‌جمله‌ای را مقایسه می‌کنید؟ آیا شبه‌بینومیال مانعی وجود دارد؟
شبه دوجمله ای در مقابل دو جمله ای منفی و موانع
71005
در تخمین و استنتاج در اقتصاد سنجی، توسط دیویدسون و مک کینون، صفحه 671، آنها ادعا می کنند که $R^2$ از رگرسیون $Y_t$ در $X_t$، که در آن هر دو سری زمانی روند ثابت هستند، به 1 به عنوان $n تمایل دارد. $ تمایل به بی نهایت دارد. کسی میتونه یه جواب ریاضی به این موضوع بده؟ مدل‌های $Y_t$ و $X_t$ عبارتند از: $Y_t = \delta_0 + \delta_1t + u_t$ و $X_t = \gamma_0 + \gamma_1t + v_t$، که $u_t$ و $v_t$ ثابت هستند.
$R^2$ از رگرسیون دو فرآیند ثابت روند، $Y_t$ و $X_t$
87037
با استفاده از این داده ها: head(USArrests) nrow(USArrests) من می توانم یک PCA را به این ترتیب انجام دهم: plot(USArrests) otherPCA <- princomp(USArrests) می توانم مؤلفه های جدید را در سایر امتیازاتPCA$ و نسبت واریانس توضیح داده شده توسط مؤلفه ها با خلاصه (otherPCA) اما اگر بخواهم بدانم کدام متغیرها با چه محوری بیشتر توضیح داده می شوند چه می شود. یعنی PCA1 یا PCA2 بیشتر با قتل توضیح داده می شود، چگونه می توان این کار را انجام داد؟ آیا می توانم بگویم برای مثال PCA1 80٪ با قتل یا حمله توضیح داده شده است؟ فکر می‌کنم بارگذاری‌ها در اینجا به من کمک می‌کنند، اما جهت‌گیری را نشان می‌دهند نه واریانس توضیح داده شده آنطور که من آن را درک می‌کنم، به عنوان مثال. otherPCA$loadings بارگیری: Comp.1 Comp.2 Comp.3 Comp.4 Murder 0.995 Assault -0.995 UrbanPop -0.977 -0.201 Rape -0.201 0.974
چه متغیرهایی کدام اجزای PCA را توضیح می دهند؟
47892
من اکنون با یکی از همکلاسی‌هایم روی تخمین یک سیستم تقاضای تقریبا ایده‌آل برای مصرف تنباکو کار می‌کنم. ما انتخاب کرده‌ایم که رگرسیون ایدز را با استفاده از تنباکو و الکل و شاخص قیمت CPI انجام دهیم. هنگامی که برنامه را بر روی SAS مدل کردیم، خطایی دریافت کردیم که می‌گوید **ERROR: روش تکراری به دلیل تکینگی تخمین کوواریانس واریانس متوقف شد. ** چگونه می‌توانم این مشکل را حل کنم؟ چه چیزی را می توانستیم نادیده بگیریم یا اشتباهی انجام دهیم؟ آیا باید داده های بیشتری را جستجو کنیم (چیزی که می خواهیم از آن اجتناب کنیم زیرا پروژه فوری است؟)؟ هر کمکی واقعا قدردانی خواهد شد!
خطای SAS: ماتریس کوواریانس واریانس مفرد
45933
من از رگرسیون بردار پشتیبانی (نه طبقه بندی) برای یک مشکل استفاده می کنم و به خوبی کار می کند. با این حال، در روش قدیمی‌تری که اعضای سابق آزمایشگاه توسعه دادند (یک مدل خطی پایه، با وزن‌ها که فقط از OLS تعیین می‌شود)، کدهای زیادی برای تعیین کارایی فردی هر متغیر سمت راست متفاوت از OLS استفاده می‌شود. من چندان تحت تأثیر این آمارهای اثربخشی قرار نگرفتم (آنها عمدتاً آمار خلاصه همبستگی ها، آمارهای t، و غیره هستند) اما به شما اجازه می دهند تا تصور کنید که کدام متغیرهای RHS بیشتر آموزنده هستند. در مورد من، برای هر داده جداگانه، من از متغیرهای سمت راست کل ردیف به عنوان بردار ویژگی برای رگرسیون بردار پشتیبان استفاده می کنم. بنابراین من نمی‌پرسم آیا آنالوگ معمولی وجود دارد، شاید معیاری از نظریه اطلاعات یا چیزی دیگر، که نشان دهد چگونه هر جزء حاشیه‌ای از بردار ویژگی کلی به عملکرد نهایی کمک می‌کند. چیزی که به نظر نمی رسد کار کند، آموزش N رگرسیون مختلف است که هر کدام تنها از یکی از اجزای ویژگی به عنوان تنها پیش بینی کننده استفاده می کنند. این مقداری مطابقت بین اثربخشی رگرسیون تک متغیره و اثربخشی بردار پشتیبان تک متغیره را نشان می‌دهد، اما تعاملات بین پیش‌بینی‌کننده‌های مختلف را نشان نمی‌دهد، و (به عنوان مثال) کدام پیش‌بینی‌کننده «دومین بهترین» پیش‌بینی‌کننده در میان تمام اجزای ویژگی است. بردار فکر می‌کنم می‌توانم به عقب کار کنم و نتایج حذف یک جزء را در یک زمان آزمایش کنم، تا ببینم کدامیک بیشترین افت در عملکرد را ایجاد می‌کند... اما من چیزی را ترجیح می‌دهم که به‌صورت موقتی کمتر باشد و احتمالاً با دقت آماری یا شهودی پشتیبانی شود. .
شناسایی عملکرد اجزای ویژگی منفرد در دقت روش‌های بردار پشتیبان
44041
من در حال انجام آزمایش‌هایی با RBM هستم و توجه داشته باشم که آنها از وزن‌های متقارن بین لایه ورودی و پنهان استفاده می‌کنند. چرا این است؟ من به خصوص به شهود پشت این تصمیم طراحی علاقه مند هستم - به عنوان مثال چرا وزنه های نامتقارن کار نمی کنند؟
چرا RBM ها متقارن هستند؟
87034
من یک مجموعه داده با طول توالی های مختلف دارم و می خواهم توصیفی اندازه گیری شده برای آن را محاسبه کنم. دلیل اصلی طول های متفاوت این است که برخی از موارد به درستی سانسور می شوند و هنگام تعریف دنباله از طریق آرگومان right=DEL در seqdef TraMineR به درستی با آنها برخورد می شود. سوالات من عبارتند از: 1. آیا آنتروپی توزیع حالت محاسبه شده توسط seqstatd با گزینه with.missing=FALSE، weighted=FALSE و norm=TRUE تحت تاثیر تغییر طول قرار می گیرد؟ 2. آیا آشفتگی دنباله محاسبه شده توسط «seqST» تحت تأثیر تغییر طول قرار خواهد گرفت؟ 3. آیا شاخص پیچیدگی محاسبه‌شده با «seqici()» با گزینه «with.missing=FALSE» تحت تأثیر طول‌های مختلف دنباله قرار می‌گیرد؟
آنتروپی توزیع حالت، شاخص پیچیدگی و آشفتگی برای دنباله هایی با طول های مختلف
14355
من یک مجموعه داده با پاسخ های کد شده به صورت 0 و 1 دارم. سعی می کنم 3 مدل از پاسخ ها را مشخص کنم و آن را با نتایج مشاهده شده مقایسه کنم. بنابراین من می خواهم یک مقایسه بین دو توزیع باینری انجام دهم. آیا راهی برای این کار وجود دارد؟ اساساً چیزی که می‌خواهم این است که نتایج مشاهده‌شده را برای 16 سؤال برای هر شرکت‌کننده با مدلی که برای هر 16 سؤال پیش‌بینی دارد، مقایسه کنم. من می خواهم ببینم این پیش بینی ها چقدر با پاسخ های مشاهده شده واقعی مطابقت دارند.
مقایسه دو توزیع باینری
45938
آیا کسی می‌تواند من را به اثباتی در دسترس برای موارد زیر نشان دهد یا راهنمایی کند: برای سلول به معنای مدل: $$ y_{ij} = \mu_{i} + \epsilon_{ij}،\ \text{ برای }\ i = 1 , \ldots, r\ \text{ و }\ j = 1, \ldots, n_{i}.$$ نشان دهید که: $$ \sum_{i=1}^{r}\sum_{j=1}^{n_{i}}(y_{ij}-\bar{y}_{\cdot\cdot})^{2} = \ sum_{i=1}^{r}\sum_{j=1}^{n_{i}}(y_{ij}-\bar{y}_{i\cdot})^{2} + \sum_{i=1}^{r}n_{i}(\bar{y}_{i\cdot}-\bar{y}_{\cdot\cdot})^{2} $$ اولین مورد عبارت $\text{SS}_{\text{TO}}$ است، دومی $\text{SS}_{\text{E}}$ و سومی $\text{SS}_{\text{TR است }}$. (من یک امتحان آینده در مدل های خطی دارم و این مدرک برای یکی از امتحانات سال قبل مورد نیاز بود، اما، تا کنون، موفقیت زیادی در یافتن مدرک نداشته ام.)
سلول به معنای ویژگی مدل است
87032
من مجموعه داده‌ای از نمونه‌های $P$ با اندازه $N$ دارم، و متوجه شدم که مقادیر ویژه ماتریس‌های همبستگی $A^TA$، وقتی به ترتیب نزولی ارائه می‌شوند، در بسیاری از موارد می‌توانند به عنوان یک تابع فروپاشی نمایی توصیف شوند. یعنی یک خطی مناسب از $i=1..N$ تا $\log|\lambda_i|$ وجود دارد. علاوه بر این، برای چندین مجموعه داده دریافتم که توان فروپاشی نسبتاً ثابت است. آیا این یک واقعیت شناخته شده است یا فقط تمایل فرد برای یافتن الگوها؟ بدیهی است که از PCA / SVD چیزی در مورد توانایی تقریبی داده ها با استفاده از ماتریس کم بعدی به من می گوید. آیا نتایج ریاضی محکمی در مورد اندازه توان این واپاشی وجود دارد؟
مقادیر ویژه ماتریس های همبستگی فروپاشی نمایی را نشان می دهند
1908
مهم ترین کنفرانس های سالانه یادگیری ماشین کدامند؟ قوانین: 1. یک کنفرانس در هر پاسخ 2. شامل یک لینک به کنفرانس
کنفرانس های یادگیری ماشین؟
71001
من می خواهم یک فرضیه خطی را در یک مدل رگرسیون میانه مشابه مثال زیر آزمایش کنم. نیاز(AER);require(car);require(quantreg) data(CPS1985) #مدل خطی منظم. .lmسن + سن:جنس زن = 0) #مدل رگرسیون کمی. کوانت <- rq(دستمزد ~ قومیت + سن * جنسیت، tau=0.5، داده = CPS1985) با این حال، مطمئن نیستم که چگونه یک فرضیه خطی برای model.quant اجرا کنم تا مجموع ضرایب سن را آزمایش کنم. و سن:جنس برابر با صفر است.
فرضیه خطی برای رگرسیون چندکی در r
4580
کدام یک از شما در این انجمن از >R با چند هسته، بسته های برفی یا CUDA استفاده می کند، بنابراین برای محاسبات پیشرفته که به قدرت بیشتری نسبت به یک CPU ایستگاه کاری نیاز دارند؟ این اسکریپت ها را روی کدام سخت افزار محاسبه می کنید؟ در خانه/کار یا دارید؟ دسترسی به مرکز داده در جایی پیشینه این سوالات به شرح زیر است: من در حال حاضر در حال نوشتن پایان نامه کارشناسی ارشد خود در مورد R و محاسبات با عملکرد بالا هستم و نیاز به دانش قوی در مورد اینکه چه کسی واقعاً از R استفاده می کند که R در سال 2008 1 میلیون کاربر داشت، اما این کم و بیش تنها آمار کاربری است که من می توانم در مورد این موضوع پیدا کنم - بنابراین با احترام هاینریش به پاسخ شما امیدوار هستم
چه کسی از R با بسته چند هسته ای، SNOW یا CUDA برای محاسبات شدید منابع استفاده می کند؟
115303
ما مجموعه ای از iid RV داریم: $(X_i، Y_i)، \; i=1،\ldots n$. ما معتقدیم که هر کدام به صورت $P(X_i، Y_i | \theta)$ توزیع می‌شوند. به طوری که $$ P(X,Y | \theta) = \prod_i P_i(X_i, Y_i | \theta) $$ اکنون با استفاده از قانون Baye: $$ P(\theta|X,Y) = \frac{P(X ,Y|\theta)P(\theta)}{P(X,Y)} = \frac{P(\theta)\prod_i P_i(X_i، Y_i | \theta)}{P(X,Y)} $$ همانطور که می‌دانم، MLE، MAP، و MLE شرطی همگی تلاش می‌کنند تا بهترین پارامترها، $\theta$ را پیدا کنند، داده‌ها را با به حداکثر رساندن سمت چپ با حداکثر کردن زیر مجموعه ای از اصطلاحات در سمت راست برای MLE، عبارت احتمال را به حداکثر می‌رسانیم، $\prod_i P_i(X_i، Y_i | \theta)$. برای MAP، ما همه شمارنده را به حداکثر می‌رسانیم، $P(\theta)\prod_i P_i(X_i، Y_i | \theta)$. برای MLE شرطی (مانند رگرسیون لجستیک)، $$ \frac{P(\theta)\prod_i P_i(X_i, Y_i | \theta)}{P(X,Y)} = \frac{P(\theta) داریم ) \left( \prod_i P_i(Y_i | X_i، \theta) \right) \left( \prod_i P(X_i|\theta) \right) }{P(X,Y)} $$ MLE شرطی فقط عبارت $\prod_i P_i(Y_i | X_i، \theta)$ را به حداکثر می‌رساند. آیا این درست است؟ من رگرسیون لجستیک منظمی را دیده ام که معادل به حداکثر رساندن قبلی، $P(\theta)$ است. آیا مدل سازی توزیع سوم برای MLE شرطی، $\prod_i P(X_i|\theta)$، کاملاً متفاوت خواهد بود؟ من درک می کنم که رگرسیون لجستیک یک مدل تبعیض آمیز است. آیا این نتیجه این است؟ آیا مدل سازی $P(X_i|\theta)$ یک مدل مولد به ما می دهد؟ با تشکر از هر گونه اشاره
MLE در مقابل MAP در مقابل MLE شرطی با توجه به رگرسیون لجستیک
11189
من سؤال زیر را از طریق ایمیل دریافت کردم: > می‌خواستم هنگام انجام تحلیل‌های رگرسیون (یا هر تحلیلی برای آن موضوع) به جای استفاده از [برخی استراتژی جایگزینی مقادیر دیگر از دست رفته، از گزینه تیک برای حذف زوجی > داده‌های از دست رفته استفاده کنم. ]. > جولی پالانت توصیه می کند که داده های از دست رفته را در کتاب درسی > SPSS خود به صورت زوجی حذف کنید. من چند تا فکر دارم، اما علاقه مند بودم که ابتدا نظر شما را بشنوم.
چه زمانی از حذف زوجی در رگرسیون چندگانه استفاده کنیم؟
41723
من از مدل رگرسیون پواسون برای داده‌های شمارش استفاده می‌کنم و نمی‌دانم که آیا دلایلی برای استفاده از خطای استاندارد قوی برای تخمین‌های پارامتر وجود دارد؟ من به ویژه نگران هستم زیرا برخی از تخمین‌های من بدون استحکام معنی‌دار نیستند (به عنوان مثال، p=0.13) اما با robust معنی‌دار هستند (p<0.01). در SAS با استفاده از عبارت تکراری در «proc genmod» (به عنوان مثال، «repeated subject=patid;») در دسترس است. من از http://www.ats.ucla.edu/stat/sas/dae/poissonreg.htm به عنوان مثال استفاده کرده ام که مقاله کامرون و تریودی (2009) را در حمایت از استفاده از خطاهای استاندارد قوی ذکر می کند.
چه زمانی از خطاهای استاندارد قوی در رگرسیون پواسون استفاده کنیم؟
45939
وقتی سعی می‌کنم از داده‌ها و مثال‌هایی برای HLR از این مجموعه داده‌های نمونه گرفته‌شده از این پست در سری آموزش R در رگرسیون خطی سلسله مراتبی استفاده کنم، وقتی سعی می‌کنم از همان روش در SPSS استفاده کنم، نتایج مطابقت ندارند. آیا به این دلیل است که SPSS از نوع دیگری از مجموع مربع ها (III) استفاده می کند؟ مقادیر F برای مدل نهایی مطابقت دارد، اما نه دومی و مقداری از مجموع مربعات به نظر می رسد. url روش #R <- http://dl.dropbox.com/u/10246536/Web/RTutorialSeries/dataset_hlr.csv datavar <- read.csv(url, header=T) #ایجاد سه مدل خطی با استفاده از lm( FORMULA، DATAVAR) #یک مدل پیش بینی کننده onePredictorModel <- lm(ROLL ~ UNEM، datavar) #دو پیش‌بینی‌کننده مدل twoPredictorModel <- lm(ROLL ~ UNEM + HGRAD، datavar) # مدل سه پیش‌بینی‌کننده threePredictorModel <- lm(ROLL ~ UNEM + HGRAD + INC، datavar) #داده‌های خلاصه برای هر مدل با استفاده از خلاصه( OBJECT) خلاصه (onePredictorModel) summary(twoPredictorModel) summary(threePredictorModel) #مقایسه مدل های متوالی با استفاده از آزمون anova(MODEL1، MODEL2، MODELi)<- anova(onePredictorModel، twoPredictorModel، threePredictorModel) در زیر کد SPSS آمده است. *لیست داده‌های روش SPSS رایگان / YEAR ROLL UNEM HGRAD INC. داده‌های شروع 1 5501 8.1 9552 1923 2 5945 7 9680 1961 3 6629 7.3 9731 1979 4 75016 60658 7.5 14675 2112 6 9369 6.4 15265 2192 7 9920 6.5 15484 2235 8 10167 6.4 15723 2351 9 11084 6.3 161274 161501. 16890 2475 11 13746 8.2 17203 2524 12 13656 7.5 17707 2674 13 13850 7.4 18108 2833 14 141148 8.628 8.4 10.1 19308 2839 16 14991 9.2 18224 2898 17 14836 7.7 18997 3123 18 14478 5.7 19505 3195 19 145039 3195 19 14539 14395 7.5 19546 3129 21 14599 7.3 19117 3100 22 14969 9.2 18774 3008 23 15107 10.1 17813 21813 2183 2183 29813 25 15081 8.8 16756 3151 26 15127 9.1 16749 3127 27 15856 8.8 16925 3179 28 15938 7.8 17231 31738 32061 31738 32071 داده های پایانی رگرسیون /فقدان فهرست /ضریب آماری خروجی R ANOVA تغییر /CRITERIA=PIN (0.05) POUT(0.10) /NOORIGIN / DEPENDENT ROLL /METHOD=ورود UNEM /METHOD=ورود HGRAD /METHOD=Enter HGRAD /METHOD=ENTER. در مراحل SPSS هستید؟
چرا این نتایج رگرسیون خطی سلسله مراتبی در R و SPSS متفاوت است؟
47890
در تابع 'survival::coxph' R، آیا می توانم یک متغیر کمکی که نسبت ها را نشان می دهد (در محدوده 0.0-0.5) با یک متغیر کمکی صحیح (در محدوده 1-15) مخلوط کنم، یا باید اولین مورد را نیز به اعداد صحیح تبدیل کنم (0) -50)؟
آیا می توانید از نسبت ها به عنوان متغیر کمکی در مدل خطرات متناسب کاکس استفاده کنید؟
17917
چه روش هایی برای انتخاب مدل در این تنظیمات قابل اجرا هستند؟ آیا می توان AIC یا BIC را با خروجی Surveyreg SAS محاسبه کرد؟
انتخاب مدل در تجزیه و تحلیل نقشه برداری SAS از نظرسنجی های پیچیده
87036
مقداری دارم که توسط حسگرهای فیزیکی خوانده می شود. دو تا از مقادیر از خطوط زیبا که بسیار واضح هستند، اما سومی در همه جا وجود دارد. مشکل محاسبه یک متریک برای نشان دادن اینکه داده ها تقریبا غیرقابل استفاده هستند است. من نمی توانم از واریانس مجموعه داده استفاده کنم، زیرا واریانس تقریباً مشابه سایر قرائت ها است، فقط بسیار بیشتر می پرد. برای درک بهتر آنچه می‌خواهم بگویم اینجا را ببینید: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/I6XWR.png)
نحوه اندازه گیری واریانس از خواندن به خواندن
44044
من اخیراً به مشکل دنیای واقعی زیر در مورد تمدید مجوز یک محصول نرم افزاری رسیده ام. من اطلاعات ابتدایی در مورد اصول اولیه در این زمینه دارم و بیشتر به حل این مشکل علاقه دارم، اما دوست دارم در این راه چیزی یاد بگیرم. ورودی بردار مجوزهای تمدید شده $(r_i)_{i=1}^n$ است که بر اساس روز نمایه شده است و یک بردار مجوزهای منقضی شده برای هر روز $(e_i)_{i=1}^{n+k}$. یعنی $r_i$ تعداد مجوزهای تمدید شده در روز $i$ و $e_i$ تعداد مجوزهای منقضی شده در روز $i$ است. تمدیدها بسیار به روزهای هفته بستگی دارد. به عنوان مثال روزهای دوشنبه و یکشنبه تمدیدهای زیادی وجود دارد و پنجشنبه ها زیاد نیست. مشکل پیش‌بینی یا برون‌یابی بردار تجدید $(r_i)$ برای $i=n+1، \ldots، k$ است. چیزی که در مورد این مشکل به نظر من جالب است این واقعیت است که $r_i$ تنها به $e_i$ بستگی ندارد بلکه به مقادیر همسایه نیز بستگی دارد زیرا مردم اغلب تصمیم می‌گیرند مجوز را قبل از انقضا یا پس از انقضای آن تمدید کنند. در واقع، شما می دانید که به طور متوسط ​​95٪ از مردم مجوز را در 60 روز تمدید می کنند، در مرکز روز انقضای مجوز آنها و حتی بیشتر - شما یک هیستوگرام از این تمدیدها دارید $(h_j)_{j=-30}^{30 }$. اگر داده ها را به درستی درک کرده باشم، مقدار $h_j$ نشان دهنده بخشی از تمدیدهایی است که به طور متوسط ​​$j$ روز قبل از (یا بعد از بسته به علامت $j$) منقضی می شود مجوز برای $j=-30،\ldots، 30$ و مقادیر $j=-30,30$ تمدیدهایی را پوشش می‌دهد که بیش از یک ماه پس از انقضا یا قبل از انقضا رخ داده است. به ویژه $\sum_{j=-31}^{31} h_j = 1$. ** Q1: ** بهترین رویکرد برای این نوع مشکلات چیست؟ بعد از کمی فکر به موارد زیر رسیدم. اجازه دهید $c_{ij}$ نسبت مجوزهایی باشد که در روز $j$ منقضی می‌شوند و در روز $i$ تمدید می‌شوند به تعداد کل مجوزهایی که در روز $j$ منقضی می‌شوند. سپس $$ r_i = \sum_{j=1}^n c_{ij}e_j $$ یا به شکل ماتریسی $r = Ce$. علاوه بر این، $$ h_j \approx \frac{1}{n} \sum_{i=1}^n \frac{c_{i+j,i}}{t_i}، $$ داریم که $t_i = \sum_{ j=1}^n c_{ji}$ ضریب مجوزهای تمدید شده برای همه مجوزهای منقضی شده در روز $j$ است. این معادلات $n+60$ برای متغیرهای $n^2$ به من می دهد. **Q2:** آیا مدل پنهان مارکوف رویکرد درستی است؟ من چیزی در مورد آنها نمی دانم، بنابراین اگر این رویکرد درست باشد، از برخی پیوندها به موادی که می توانم تئوری و همچنین پیوندهایی به پیاده سازی ها را از آنها یاد بگیرم، قدردانی می کنم. می‌توانیم تعداد متغیرها را با تنظیم $c_{ij} = 0$ برای $|i-j| کاهش دهیم. > 30 دلار اما هنوز هم سیستم بسیار نامشخصی برای ما باقی می گذارد. در حال حاضر من می خواهم جایگزین $c_{ij}$ با $h_{i-j}t_j$ را امتحان کنم. این به من معادلات $n$ برای مجهولات $n$ می دهد. که امیدوارم بتوانم آن را حل کنم و سپس فقط مقادیر $p_i$ را برای $i=n+1، \ldots، k$ برون یابی می کنم و تجدیدها را با $r_i = \sum_{j=-30}^{30} h_ تخمین می زنم. {i-j}t_je_j$. _Update:_ راه حل ها به سمت $i\ به n$ نوسان می کنند. سلب مسئولیت: ارسال شده در math.stackexchange
پیش بینی تمدید مجوزها
12984
من می خواهم از مثال های مالی و اقتصادی دوری کنم زیرا آنها برای درک من بیش از حد انتزاعی هستند. آیا نمونه های «دنیای واقعی» مانند مراقبت های بهداشتی، نمرات امتحانی، علوم محیطی و غیره وجود دارد؟ از دیدگاه مدیریتی، من می‌خواهم درک اساسی از این که چگونه VAR می‌تواند به طور بالقوه برای مدل‌سازی پدیده دنیای واقعی مورد استفاده قرار گیرد، داشته باشم.
چند نمونه از مسائل «دنیای واقعی» که می‌توان با استفاده از مدل‌های خودرگرسیون برداری مدل‌سازی کرد چیست؟
41726
مجموعه ای از کتاب های علمی عامه پسند واقعاً خوب در اطراف وجود دارد که به علم واقعی و همچنین تاریخچه و دلایل پشت نظریه های فعلی می پردازند، در حالی که خواندن آنها بسیار لذت بخش است. به عنوان مثال، «آشوب» اثر جیمز گلیک (آشوب، فراکتال، غیرخطی)، «تاریخ مختصر زمان» اثر استیون هاوکینگ (فیزیک، منشأ جهان، زمان، سیاهچاله‌ها) یا «ژن خودخواه» اثر ریچارد داوکینز. تکامل و انتخاب طبیعی). برخی از این کتاب‌ها استدلال‌هایی را ارائه می‌کنند (داوکینز)، و برخی نه (گلیک). اما همه آنها برای کسانی از ما که آموزش های علمی عمیقی ندارند درک مفاهیم دشوار را آسان می کنند. آیا چنین کتاب هایی وجود دارد که عمدتاً بر روی آمار یا یادگیری ماشین تمرکز دارند؟ **لطفاً خلاصه ای از آنچه را که هر کتاب پوشش می دهد درج کنید.**
آیا کتاب علمی محبوب خوبی در مورد آمار یا یادگیری ماشین وجود دارد؟
100119
من قانون چبیچف (ضعیف) اعداد بزرگ (LLN) را با LLN کولموگروف (قوی) در یک کتاب درسی اقتصاد سنجی مقایسه می کنم و هر دو تعریف متفاوت شروع می شوند. Chebychev LLN با If $x_i، i = 1، شروع می شود. . . ، n$ نمونه ای از مشاهدات است که . . . در حالی که Kolmogorov LLN با If $x_i، i = 1، شروع می شود. . . ، n$ دنباله ای از متغیر تصادفی توزیع شده مستقل است به طوری که . . . می دانم که آنها به ترتیب به همگرایی در احتمال و همگرایی اشاره دارند، اما اهمیت استفاده از یک نمونه در یکی و یک دنباله در دیگری چیست؟ آیا اثبات همگرایی در یک دنباله در مقابل یک نمونه دشوارتر است؟
تفاوت بین نمونه و دنباله در قانون اعداد بزرگ
29262
یک محقق می داند که احتمال اینکه یک شخص به نامه خود پاسخ دهد 10٪ است اگر محقق یک نامه پس از پرداخت ارسال کند، احتمال پاسخ گیرنده 40٪ است. محقق 5 نامه پس پرداخت و 5 نامه بدون پرداخت ارسال می کند. احتمال اینکه کمتر از 3 پاسخ دریافت کند چقدر است؟ پاسخ باید این باشد: 0,5193 چگونه می توانید این را محاسبه کنید؟
پارادوکس محقق دو جمله ای احتمال
87035
مقاله ویکی‌پدیا در مورد برآورد جکنیف بایاس و واریانس تخمین‌گر $\theta$ شامل فرمول‌های زیر است: **واریانس** $\theta$: $ \operatorname {Var}(\theta )=\sigma ^{2 }={\frac {n-1}{n}}\sum _{{i=1}}^{n}({\bar {\theta }}_{i}-{\bar {\theta }}_{{\mathrm {Jack}}})^{2}$ where ${\bar {\theta }}_{{Jack}}={\ frac {1}{n}}\sum _{{i=1}}^{n}({\bar {\theta }}_{i})$ برآوردگر jacknife است. **تصحیح تعصب** $\theta$: $ {\bar {\theta }}_{{\mathrm {BiasCorrected}}}=N{\bar {\theta }}-(N-1){\ bar {\theta }}_{{Jack}} $ * * * سوال من این است: فرمول های مربوط به bootstrap چیست؟ آیا آنها متفاوت هستند؟
بایاس و تخمین واریانس با بوسترپ
47698
من در R مبتدی هستم. در ادبیات دریافته بودم که قبل از اجرای کریجینگ روی داده ها، توزیع باید بررسی شود تا بررسی شود که آیا گاوسی است یا خیر. بنابراین، برای بررسی اینکه آیا داده‌ها از گاوسی پیروی می‌کنند یا نه، نمودار چندک-کمی بارندگی را برای تمام روزها با استفاده از داده‌های 50 ایستگاه ترسیم کردم. بنابراین، برای بررسی اینکه آیا داده‌ها از گاوسی پیروی می‌کنند یا نه، نمودار چندک-چندک بارندگی را برای تمام روزها با استفاده از **N=50 ایستگاه** ترسیم کردم. در زیر نمودار q-q برای **روز بارانی خوب** نشان داده شده است. ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/M1flG.png) نمودار q-q **log با استفاده از تابع تبدیل تبدیل شده است: log(x+1)** ![توضیح تصویر را اینجا وارد کنید ](http://i.stack.imgur.com/aazRE.png) طرح Q-Q برای **روز بارانی بد(کم)** و قطعه تغییر یافته آن در جهت صرفه جویی در فضا ارائه شده است.. http://s20.postimage.org/a3kocwfgd/image.png http://s20.postimage.org/4qvtyrrjx/image.png من چند سوال اساسی دارم: 1. گرچه تناسب داده‌های تبدیل‌شده log به خوبی خوب است. روزهای بارانی، در روزهایی که بارندگی کم است اینطور نیست. 2. چگونه می توان داده ها را پس از درون یابی به عقب تبدیل کرد؟ 3. چگونه اندازه بلوک را در کریجینگ بلوک انتخاب کنیم؟ هر دستورالعمل من می خواهم مقدار کریگ شده را در برابر بارندگی شبکه ای از TRMM (25 کیلومتر در 25 کیلومتر) مقایسه کنم؟
کریجینگ بر روی گزارش، داده‌های بارندگی را تغییر داد
104321
داده های من مجموعه ای از $N$ مشاهدات $y_i$ است. من می‌خواهم $\mu$ و $\sigma$ را در مدل زیر تخمین بزنم: $y_i \sim \mathrm{Normal}(\theta, \sigma)$ $\theta \sim \mathrm{Normal}(\mu, \frac{\sigma}{N})$ $\mu \sim \mathrm{Normal}(??, ??)$$\sigma \sim ???(??,??)$ من می خواهم یک تحلیل تجربی بیز انجام دهم. آیا کسی می تواند به من کمک کند و توضیح دهد که چگونه می توانم در مورد پارامترهای پیشین برای بیزهای تجربی اقدام کنم؟
نحوه اجرای یک تحلیل تجربی بیز در BUGS/JAGS/Stan
71003
اجازه دهید ماتریس داده $\pmb X$ مجموعه‌ای از $n$ $p$-بردارهای $x_i\sim\mathcal{E}_p(\mu,\pmb \varSigma)$ باشد که در آن $\mathcal{E}_p( \mu,\pmb \varSigma)$ یک چگالی بیضوی پیوسته و قابل انتگرال مربع در $\mathbb{R}^p$ با بردار مکان $\mu$ و ماتریس پراکندگی $\pmb\varSigma$ و $n>p$. سپس اجازه دهید $\\{S_m\\}_{m=1}^M$ نمایه‌های $p$ باشند که از $\\{1:n\\}$ با $M=\binom{n}{p}$ گرفته شده‌اند. . سپس اجازه دهید $A_m=\\{x_i|i\in S_m\\}$ و $y_m\in\mathbb{R}^p:\pmb A_m'y_m=1_p$ ($1_p$ نشان دهنده یک $p$-بردار است از یکی). $$\underset{1\le m\le M}{\max}\;\underset{1\le i\le n}{\max}\;(x_i'y_m-1)^2||y_m|| ^{-2}\text{ محدود شده است}$$ من به دنبال مرجعی برای اثبات (احتمالاً یک نوع کلی تر) از (یا مثال متقابل) این عبارت هستم. # EDIT1: «شاخص $p$» زیرمجموعه‌ای از عناصر $p$ از $\\{1:n\\}$ است که به‌طور تصادفی و بدون جایگزینی ترسیم شده‌اند. زیر مجموعه‌های $\binom{n}{p}$ متمایز از این $p$-$\\{1:n\\}$ وجود دارد. $m\in\\{1,\ldots,M\\}$. $x_i$ در واقع یک ردیف از $\pmb X$ است. $\pmb A_m$ یک ماتریس $p$ در $p$ است که از ردیف‌های $p$ $\pmb X$ با نمایه‌های $S_m$ تشکیل شده است. # EDIT2: دنبال سوال مایک مک کوی. برای $y_m$ معین، محصول داخلی $x_i'y_m=1$ فقط برای $x_i$ با شاخص $i\in S_m$. در اینجا یک کد R کوتاه برای نشان دادن آمده است. n<-20 p<-3 X<-ماتریس(rnorm(n*p)،nc=p) S_m<-نمونه(1:n،p) A_m<-X[S_m،] y_m<-حل(A_m, rep(1,p)) #معادله ابر صفحه از طریق اعضای S_m dis<-tcrossprod(X%*%y_m-1)/as.numeric(crossprod(y_m)) در غیر این صورت بیان کرد، ادعا این است که $\max$ (در تمام زیر مجموعه‌های $M$ ممکن $S_m$) از sup هنجار dis هر زمان که $\pmb X$ از یک چگالی یکپارچه و پیوسته مربعی ترسیم شود، محدود می شود. # EDIT3: برای رسیدگی به سوالات مایک مک کوی. منظور من از محدود شده این است که $$\exists U(\mu, \pmb \varSigma):\underset{1\le m\le M}{\max}\;\underset{1\le i\le n}{ \max}\;(x_i'y_m-1)^2||y_m||^{-2}\le U(\mu, \pmb \varSigma)\;a.s.$$ برای مقداری اسکالر مثبت $U(\mu, \pmb \varSigma)$ که فقط به $\pmb \varSigma$ و $\mu$ بستگی دارد. باز هم، من گمان می کنم که این قضیه (یا حتی یک نسخه کلی تر از آن) ثابت شده است. من فقط نمی توانم مرجع را پیدا کنم.
به دنبال اثبات این گفته
41496
من در حال حاضر به داده های پیوسته نگاه می کنم و به دنبال ارتباطی با وجود (و شدت، یعنی طبیعی، خفیف، متوسط، شدید) یک موجود بیماری هستم. در حال حاضر، تا کنون، با اجرای Spearman در SPSS، R از 0.370، p<0.001 دریافت کرده ام. من در یکی دو مورد به کمک نیاز دارم. آیا می توانم/آیا باید تحلیل رگرسیون چند جمله ای انجام دهم؟ همچنین، من می‌خواهم یک ROC ایجاد کنم و مقادیر برش مربوطه را که ممکن است به شدت بیماری مربوط باشد، پیدا کنم، به عنوان مثال، نرمال، خفیف، متوسط، شدید. لطفا در مورد نحوه انجام این کار راهنمایی کنید. هر ورودی بسیار قدردانی می شود.
راهنمای تجزیه و تحلیل رگرسیون (ROC، چند جمله ای)
41727
آیا روشی تحلیلی برای بررسی میانگین هندسی وجود دارد که به فرد اجازه دهد آن را به اجزای مختلفش تجزیه کند؟ تمرکز این سوال بیشتر برای بازده های مرتبط با مالی است، اما من آماده هستم تا زمینه های دیگر را نیز در نظر بگیرم تا ببینم آیا قابل اجرا است یا خیر. بنابراین هدف سوال بدست آوردن نوعی از نتایج در امتداد خطوط میانگین هندسی = f (میانگین حسابی، X، Y، Z) است که در آن $X,Y,Z$ همه عوامل/متغیرهایی هستند که به تعیین مقدار کمک می‌کنند. میانگین هندسی من می دانم که تفاوتی در نحوه محاسبه آن و غیره وجود دارد، اما حدس می زنم آنچه من به دنبال آن هستم این است که چه عامل خاصی باعث تفاوت بین میانگین حسابی و هندسی می شود. اغلب اوقات، در زمینه‌های مالی مرتبط، میانگین حسابی به دلیل متغیر بودن مقادیر بازگشتی، از نظر بزرگی بیشتر از میانگین هندسی است، یعنی در جایی که $x_i$ برابر با $x_j$ نیست که در آن میانگین حسابی $\sum \limits_ است. {i=1}^n\frac{x_i}{n}$، و میانگین هندسی $\prod است \limits_{i}^n {(x_i+1)}^{\frac{1}{n}} - 1$، اما فقط گفتن اینکه همه بازده‌ها یکسان نیستند باعث می‌شود تفاوت کاملاً دقیق نباشد. به اندازه کافی آیا چیزی وجود دارد که بهتر باشد که دقیقاً به من نشان دهد که چه چیزی باعث شکاف بین معنای هندسی و حسابی می شود؟ تقریب ها با استفاده از سری تیلور هم خوبه...
چارچوبی تحلیلی برای در نظر گرفتن میانگین هندسی
17910
دو چیز همیشه در مورد آزمون فرضیه ها مرا آزار می داد: 1. شانس اینکه میانگین جامعه دقیقاً هر عدد معینی باشد (به شرطی که متغیر تصادفی مورد نظر پیوسته باشد) همیشه صفر باشد، اینطور نیست؟ بنابراین، همیشه باید فرضیه صفر را رد کنیم... 2. اگر نتیجه آزمون رد یا قبول فرضیه صفر باشد، چه فرقی می کند که فرضیه جایگزین بیان کند؟ لطفا، هر کسی می تواند کمی روشن کند؟
مشکلات تفسیری با آزمون فرضیه
41728
من در حال ساخت یک پیاده سازی UKF با ریشه مربع هستم. من همچنین از تابع cholupdate در Matlab استفاده می کنم. با این حال «cholupdate» به یک ماتریس قطعی مثبت نیاز دارد. قطعیت مثبت با استفاده از «[R,p] = chol(A)» آزمایش می‌شود که در آن «p» «0» را تولید می‌کند. سپس پس از اجرای «cholupdate»، خطایی ایجاد می‌کند که «A» قطعی مثبت نیست. مشکل من این است. 1. آیا «[R,p] = chol(A)» بازگشت «p=0» به این معنی است که «A» همیشه مثبت-معین است؟ 2. بهترین روش برای ساخت ماتریس قطعی مثبت چیست؟ توجه داشته باشید که در اینجا «A» یک ماتریس ریشه مربعی است که $AA^T$ یک ماتریس کوواریانس می دهد. هر گونه کمکی بسیار قدردانی می شود.
دریافت ماتریس قطعی مثبت برای به روز رسانی chol
47764
تحقیق در مورد پواسون دو متغیره در وب کار آسانی نیست مگر اینکه بتوانید نمادهای یونانی را درک کنید. من با پواسون آشنا هستم و درک عمیقی از آن دارم. بنابراین آیا کسی می تواند پواسون دو متغیره را با فرمولش توضیح دهد تا من بتوانم آن را درک کنم. به نظر می رسد کل مدل من باید بر اساس پواسون دو متغیره باشد نه پواسون. من این مقاله را مفید یافتم، اما هنوز در حال مبارزه هستم: تحلیل بیزی و غیر بیزی داده های فوتبال با استفاده از مدل های رگرسیون پواسون دو متغیره توسط D. Karlis و J. Ntzoufras. من درک می کنم که مدل تک متغیره به ثمر رساندن گل هر تیم به عنوان یک فرآیند مستقل مستقل برخورد می کند. بنابراین، احتمال اینکه تیم میزبان ($\text{HG}$) 1 گل به ثمر برساند، چه تیم میهمان ($\text{AG}$) 0،1،2 یا 10 گل بزند، یکسان است، یعنی: $$ p(\text{HG}=\alpha، \text{AG}=x) = p(\text{HG}=\alpha، \text{AG}=y) \quad \text{برای همه $\alpha$، $x$ و $y$}$$ بنابراین عبارت بالا مستقل از $x$ است: $$p(\text{HG}=\alpha,\text{AG}= x)=f(\alpha) \quad \text{برای همه $x$}$$ با توزیع دو متغیره، تابع احتمال تابعی از امتیازات میزبان و خارج از خانه است. این اجازه می دهد تا یک وابستگی بین امتیازات میزبان و خارج از خانه در مدل لحاظ شود. اما اگر کسی مثال کاملی را با تمرین بیاورد قدردانی می کنم زیرا به درک کامل پواسون دو متغیره کمک می کند.
درک توزیع دو متغیره پواسون
87039
آرایه تأثیر در زمان 0 است: 1/3، 1/3 1/3 1/2، 1/2، 0 0، 0.25، 0.75 فرض می شود به آرایه همگرا شود: 3/11 4/11 4/11 3/11 4/11 4/11 3/11 4/11 4/11 فرضاً شما می توانید آرایه همگرایی را با گرفتن بردار واحد سمت چپ (lhs) آرایه در زمان 0 بدست آورید. جبر خطی من ممکن است گاهی زنگ زده باشد و می خواهم این را در پایتون امتحان کنم: import numpy به عنوان np از scipy.linalg import eig np .set_printoptions(دقت=4) limT = np.array([(0.33,0.33,0.33),(0.5,0.5,0.0),(0.0,0.25,0.75)]) w, vl, vr = eig(limT, left=True) lhs = vl.conj( ).T.dot(limT) >>> آرایه lhs([[-0.0678, 0.0335، 0.0335]، [-0.4669، 0.6231-، 0.6231-]، [-0.2958، 0.1006-، 0.3904]]) آرایه lhs/np.linalg.det(lhs(lhs)([7[9،5،1،1.3) [-16.4266، -21.9221، -21.9221]، [-10.4052، -3.5378، 13.7349]]) آرایه نهایی بدیهی است که نیست: 3/11 4/11 4/11 3/11 4/11 4/11 4/11 4/11 من می توانستم داشته باشم چندین موضوع را اشتباه متوجه شدم و از کمک تشکر می کنم.
بردارهای ویژه lhs در پایتون برای مدل DeGroot همگرایی برای مشکلات شبکه های اجتماعی
41493
من در حال خواندن چند یادداشت سخنرانی در مورد رگرسیون خطی ساده بودم که در آن یک بخش گفت که وقتی شیب 0 است (بنابراین، $H_0: \beta = 0$ در واقع درست است)، $\frac{(SSY - SSE)}{(DFY - DFE)}$ تخمین سیگما مجذور. این برای من منطقی نیست اگر بتا در واقع 0 باشد، آیا SSY و SSE نباید یک مقدار باشند؟ $$SSY = ∑(Y-\bar{Y})^2$$ $$SSE = ∑(Y-\hat{Y})^2$$ با این حال، اگر $\beta = 0$، این به معنای بهترین است برآورد ($\widehat{\text{Y}}$) اساساً $\overline{\text{Y}}$ است، که به نوبه خود به معنای $$SSY = SSE = ∑(Y-\bar{Y})^2$$ به عبارت دیگر $$\frac{SSY - SSE}{DFY - DFE} = \frac{0}{DFY - DFE}$$ آیا چیزی هست که من هستم گم شده؟ امیدوارم کسی اینجا بتواند در این مورد توضیح دهد.
تخمین $\sigma^2$ در یک رگرسیون خطی ساده زمانی که $H_0: \beta = 0$ درست است
82129
ما یک مجموعه داده داریم که زمان و درمان به عنوان متغیر مستقل و حجم رشد به عنوان متغیر وابسته است. آزمایش در سه نوبت، با نقاط زمانی متعدد و مشاهدات متعدد در هر ترکیب از عوامل برای هر نمونه آزمایش تکرار شد (بنابراین 8 مشاهده در زمان = 12، درمان = 1، آزمایش 1، و غیره). یک زیرمجموعه از عوامل مشترک برای نقاط زمانی و درمان بین تمام آزمایش‌هایی که من روی آنها تمرکز می‌کنم وجود دارد. توجه داشته باشید که نمونه‌ها نمونه‌های فیزیکی یکسانی در بین آزمایش‌ها نبودند (بنابراین این طرح صرفاً یک اندازه‌گیری تکراری نیست؟). **می‌خواهیم بفهمیم که آیا می‌توانیم داده‌های آزمایش‌های فردی را با هم ترکیب کنیم یا اینکه تفاوت بین دسته‌ها برای ادغام آن‌ها بسیار مهم است. ** در ابتدا این یک طراحی برای MANOVA به نظر می‌رسید، اما وقتی همه موارد را قرار دادم. داده‌ها در قالبی که من فکر کردم برای R نیاز دارم، به نظر می‌رسد که در واقع فقط یک متغیر وابسته (حجم رشد) وجود دارد، اگر آزمایش را به عنوان یک متغیر مستقل در نظر بگیریم. همچنین در برخی از پاسخ‌های CrossValidated دیگر خواندم که روش‌های رگرسیون وجود دارد که امروزه به MANOVA ارجحیت دارند، اما مطمئن نبودم که از کجا شروع کنم.
تعیین اینکه آیا می توان داده های آزمایش را از چندین آزمایش جمع کرد یا خیر
47765
من از بسته نرم افزاری GelCompar برای تجزیه و تحلیل برخی از تصاویر DGGE از نمونه های شیر فرآوری شده از یک مطالعه منطقی روی 30 گوسفند استفاده می کنم. تکنیک DGGE با جداسازی DNA باکتری در هر نمونه شیر هنگام مهاجرت از طریق ژل پلی‌آسیلامید در میدان الکتریکی کار می‌کند. این باعث ایجاد مجموعه ای از نوارها در هر نمونه می شود زیرا جنس های مختلف باکتری به مناطق مختلف ژل بر اساس تفاوت در توالی DNA آنها مهاجرت می کنند. سپس تصویری از تنوع جامعه ارائه می دهد. به طور معمول، ممکن است انتظار داشته باشید که از یک متغیر باینری یعنی باند موجود/غایب برای تجزیه و تحلیل این نوع داده ها استفاده کنید. با این حال، زمانی که شما الگوهای نواربندی پیچیده ای دارید، مانند من با تصاویر DGGE، این موضوع بسیار ذهنی می شود. بنابراین، من تحلیل خود را بر اساس روشی مبتنی بر منحنی قرار می‌دهم. به نظر می رسد پروتکل استاندارد از ادبیات، از یک همبستگی پیرسون و به دنبال آن UPGMA برای خوشه بندی برای این نوع داده استفاده می کند. با این حال، من گزینه استفاده از ضریب کسینوس را نیز دارم. من در نظر داشتم که آیا ضریب کسینوس ممکن است برای داده‌های من مناسب‌تر از پیرسون باشد، زیرا قبل از تجزیه‌وتحلیل آن نوعی تبدیل لاگ انجام می‌دهد. آیا کسی می تواند دیگر در مورد کسینوس و تفاوت های آن با پیرسون به من بگوید زیرا من سعی می کنم ببینم چه چیزی برای داده های من در حال حاضر مناسب است! با تشکر
استفاده از شباهت کسینوس در داده های DGGE
8127
من دو متغیر و 1000 مورد دارم. چگونه می توانم بر اساس ویژگی های آماری هر دو متغیر و همبستگی بین آنها، از مجموع 1000 مورد نماینده از نظر آماری پیدا کنم. شاید چیزی مبتنی بر آزمون T و فاصله 95٪ (یا 99٪) اما برای هر دو متغیر باشد؟ می‌خواهم بدانم کدام روش آماری می‌تواند مواردی را بیابد که هر دو مقدار (به طور همزمان) از نظر آماری مهم‌ترین باشند. می دانم که این به توزیع نمونه و تخمین نسبت ها می پردازد.
چگونه یک نمونه معرف در مجموعه داده با دو متغیر ایجاد کنیم؟
45930
من یک ماتریس متقارن 30x30 دارم که می‌خواهم از آن به عنوان ماتریس هزینه جایگزینی در TraMineR برای تجزیه و تحلیل دنباله‌هایی به طول 10 با الفبای 30 استفاده کنم. اما وقتی می‌خواهم OM را با این ماتریس انجام دهم، با خطای مثلث مواجه می‌شوم. نابرابری (به زیر مراجعه کنید). ماتریس های دیگری که من با دست ساخته ام به نظر می رسد خوب کار می کنند (نمونه زیر را ببینید). من فکر می‌کردم که ماتریس زیرهزینه را می‌توان به هر نحوی که می‌خواهم تنظیم کرد، به شرطی که متقارن باشد و ابعاد آن اندازه الفبا را منعکس کند. آیا محدودیت هایی در مورد نحوه تنظیم هزینه های فرعی وجود دارد؟ یا شاید چیز دیگری باعث این مشکل شده است؟ با تشکر > diss1vs <- seqdist(bhpsfup.seqw، روش = OM، indel = 0.1*maxsub، sm = هزینه های بالا) [>] 536 دنباله با 30 رویداد/حالت متمایز خطا در checktriangleineq(sm, warn = FALSE, indices = TRUE، tol = tol) : REAL() می تواند فقط برای یک «عددی» اعمال شود، نه یک «عدد صحیح» ماتریس مثالی که صفر بلوک را کار می کند <- diag(6) zeroblock[zeroblock == 1] <- 0 zeroblock twoblock <- diag(6) twoblock[twoblock == 0] <- 2 twoblock[twoblock == 1] <- 2 twoblock submat.up1 <- cbind(zeroblock,twoblock,twoblock,twoblock,twoblock) submat.up2 <- cbind(twoblock,zeroblock,twoblock,twoblock,twoblock) submat.up3 <- cbind(twoblock,twoblock,zeroblock,twoblock,twoblock,twoblock<4) - cbind(twoblock,twoblock,twoblock,zeroblock,twoblock) submat.up5 <- cbind(twoblock,twoblock,twoblock,twoblock,zeroblock) submat.up <- rbind(submat.up1, submat.up2, submat.up3, submat. up4, submat.up5) submat.up
ماتریس هزینه جایگزینی تعریف شده توسط کاربر
113514
من سعی می کنم میانگین زمان انتظار را برای یکی از پروژه هایی که روی آن کار می کنم محاسبه کنم. روش کار پروژه به این صورت است که مسیرهایی وجود دارد که دانش آموزان از آنها پیروی می کنند و هر مسیر چندین مرحله دارد. در هر مرحله دانش‌آموزان یک چالش یا مجموعه‌های چالشی دریافت می‌کنند یا یک نشان کسب می‌کنند. دانش‌آموزان می‌توانند چندین نشان (در مراحل مختلف) در یک مسیر کسب کنند. وظیفه من این است که میانگین زمانی را که دانش آموزان در یک مسیر برای کسب نشان باید منتظر بمانند محاسبه کنم و بفهمم که آیا تأثیری در موفقیت مسیر دارد یا خیر. در زیر مثالی است که به درک سوال من کمک می کند. PathwayID TotalSteps BadgeEarned@Step 1 4 2 4 2 7 3 5 7 3 5 2 4 4 9 4 6 8 در حال حاضر میانگین زمان انتظار را با تقسیم میانگین BadgeEarned@ بر تعداد کل مراحل انجام می دهم. آن مسیر بنابراین با توجه به این محاسبات، میانگین زمان انتظار برای مسیرها در زیر خواهد بود. PathwayID AvgWaitTime 1 0.75 2 0.71 3 0.60 4 0.67 به نظر می رسد زمان انتظار برای Pathway 4 کمتر از زمان انتظار برای Pathway 1 است، که در واقع اینطور نیست، زیرا در مسیر 4، دانش آموزان باید بیشتر منتظر بمانند تا اولین نشان خود را کسب کنند. . در حال حاضر به روشی که من میانگین زمان انتظار را محاسبه می‌کنم، نسبت به مسیرهایی با تعداد مراحل بیشتر تعصب وجود دارد. اگر کسی بتواند ایده ای برای محاسبه میانگین زمان انتظار به من بدهد، متشکر می شوم، که با طول مسیر مغرضانه نیست.
محاسبه میانگین زمان انتظار
15407
من آزمایشی با 3 عامل بیولوژیکی دارم ('dev', dev_stage; 'reg', brain_region؛ 'gen', gen_type) به اضافه یک فاکتور دسته ای ('bat', batch). متأسفانه من فقط درک سطحی از ANOVA یا آمارهای دیگر دارم، بنابراین مطمئن نیستم که فرمول مناسب برای داده‌های من چیست (من هر 3 عامل بیولوژیکی به اضافه تعاملات بالاتر آنها با اثر دسته‌ای را به عنوان یک عامل افزایشی در نظر می‌گیرم.). بنابراین امیدوارم با فرمول ANOVA مناسب در اینجا موفق باشید :) همانطور که در زیر می بینید، 1. «dev» را نمی توان از «bat» جدا کرد. 2. در «dev» P28، «gen» و «bat» نامتعادل هستند. بنابراین بر اساس بسیاری از بحث‌ها در میان سایر مواردی که در وب مشاهده می‌شود (عمدتاً در اینجا)، من حدس می‌زنم که خفاش باید به عنوان یک اثر تصادفی در نظر گرفته شود، و فرمول aov (x ~ dev * reg * gen, random = ~1|bat) است. ، به نظر می رسد که random = ~1|bat کار نمی کند زیرا R یک پیام هشدار هشدار داده است: در lm.fit(x, y, offset = offset, singular.ok = singular.ok، ...) : آرگومان های اضافی تصادفی صرفاً نادیده گرفته می شوند. علاوه بر این، من مطمئن نیستم که چگونه با عدم تعادل بین «gen» و «bat» در «dev» P28 مقابله کنم... همچنین، مطمئن نیستم که آیا عوامل «gen» و «reg» می‌توانند/باید به عنوان اقدامات مکرر از هر دسته مقصود از اقدامات مکرر از یک موضوع است، اما به نظر من موضوع و دسته شبیه به یکدیگر هستند به این معنا که هر دو اقدامات را به روشی سیستماتیک تغییر می دهند، اگرچه عوامل پنهان در درون موضوع کنترل می شوند و تعصب در بین دسته ها اما مطمئن نیستم که آیا مقایسه سطوح مختلف «ژن» در «خفاش» معقول است یا خیر. به هر حال، من این فرمول را امتحان کردم: aov( x ~ dev*reg*gen + خطا( bat / (reg*gen))) سپس 'dev' در مقایسه با 'aov( x ~ dev * reg * gen) بسیار کم اهمیت شد. ، تصادفی = ~1|bat) یا aov( x ~ dev * reg * gen + bat)، و ژن های کمتری را نسبت به reg تحت تاثیر قرار داد. اما طبق نمودار PCA، dev قوی ترین عامل است، بسیار قوی تر از bat، و reg دومین عامل است. همچنین نمی‌دانم در این مورد چگونه مقایسه‌های چندگانه انجام دهم، زیرا HSD Tuckey نمی‌تواند مقادیر بازگشتی «aov» را هنگام استفاده از «خطا» کنترل کند. ..........منطقه_مغزی.ژن_نوع.dev_stage....بچ .تالاموس_آنترومدیال........1.....E15.5.11/17/06 .تالاموس_آنترومدیال..... ..22.....E15.5.11/17/06 ........قشر_ فرونتال........1.....E15.5.11/17/06 ........قشر_ فرونتال.......22.....E15.5.11/17/06 ..قشر_سوماتوسنسوری........1.....E15.5.11/ 17/06 ..سوماتوسنسوری_قشر......22.....E15.5.11/17/06 ..ventrobasal_thalamus.........1.....E15.5.11/17/06 ..ventrobasal_thalamus.......22.....E15.5.11/17/06 .anteromedial_thalamus. .......1.....E15.5..5/10/07 .تالاموس_آنترومدیال.......22.....E15.5..5/10/07 ........قشر_ فرونتال.........1.....E15.5..5/10/07 ........قشر_پیشانی.......22 .....E15.5..5/10/07 ..قشر_سوماتوسنسوری.........1.....E15.5..5/10/07 ..قشر_سوماتوسنسوری ..... ..22.....E15.5..5/10/07 ..ventrobasal_thalamus........1.....E15.5..5/10/07 ..ventrobasal_thalamus.......22.....E15.5..5/ 10/07 .anteromedial_thalamus........1.....E15.5...6/1/07 .anteromedial_thalamus.......22.....E15.5.. .6/1/07 ........قشر_ فرونتال........1.....E15.5...6/1/07 ........قشر_پیشانی....... 22.....E15.5...6/1/07 ..قشر_سوماتوسنسوری........1.....E15.5...6/1/07 ..قشر_سوماتوسنسوری.. .....22.....E15.5...6/1/07 ..ventrobasal_thalamus.........1.....E15.5...6/1/07 ..ventrobasal_thalamus.......22.....E15.5... 6/1/07 .anteromedial_thalamus........1.......P28.10/19/07 .anteromedial_thalamus.......22.......P28.10 /19/07 .تالاموس_آنترومدیال.......22......P28.10/19/07 ........قشر_پیشانی........1.......P28 .10/19/07 ........قشر_پیشانی.......22.......P28.10/19/07 ........قشر_پیشانی .... ...22......P28.10/19/07 ..قشر_حساس_تنی.........1......P28.10/19/07 ..قشر_حساس_تنی.......22.......P28.10/19/ 07 ..قشر_حساس_تنی......22.......P28.10/19/07 ..ventrobasal_thalamus........1.......P28.10/19/07 ..ventrobasal_thalamus.......22.......P28.10/19/ 07 ..تالاموس_ventrobasal.......22.......P28.10/19/07 .anteromedial_thalamus........1.......P28.11/30/ 07 .تالاموس_آنترومدیال........1.......P28.11/30/07 .anteromedial_thalamus.......22.......P28.11/30/07 . .......قشر_پیشانی.........1......P28.11/30/07 ........قشر_پیشانی.........1. ......P28.11/30/07 ........قشر_پیشانی.......22.......P28.11/30/07 ..قشر_حساس_تنی........1....... P28.11/30/07 ..قشر_سوماتوسنسوری........1.......P28.11/30/07 ..قشر_حساس_تنی.......22...... .P28.11/30/07 ..ventrobasal_thalamus........1.......P28.11/30/07 ..ventrobasal_thalamus........1.......P28.11/30 /07 ..ventrobasal_thalamus.......22.......P28.11/30/07. من مشتاقانه منتظر کمک شما هستم!
چگونه با این طراحی برخورد کنیم؟
47760
سوال من در مورد برازش GAMها با یک اثر تصادفی در mgcv با استفاده از s(x, bs=re) است. من می‌دانم که تعیین ساختار اثرات تصادفی باید قبل از تعیین ساختار اثرات ثابت در انتخاب مدل اتفاق بیفتد، بنابراین من با یک GAM با تمام نرم‌افزارهای ممکن و اصطلاحات پارامتریک شروع می‌کنم: SBall.gam2<-gam(count~offset(vol_offset) +s( logdepth، by=StageF،bs=cs، fx=FALSE،k=-1) +s(logdepth,by=StnF,bs=cs, fx=FALSE,k=-1) +StageF*StnF, family=Tweedie(p=1.1), data=SBall,method=ML) این مدل هنگامی که آنها در برابر StnF رسم می شوند، ناهمگنی را در باقیمانده ها نشان می دهد. در این مطالعه، من هیچ فرضیه اصلی در مورد StnF ندارم، بنابراین ترجیح می دهم از آن به عنوان یک اثر تصادفی استفاده کنم: SBall.gam2a<-gam(count~offset(vol_offset) +s(logdepth, by=StageF,bs= cs، fx=FALSE,k=-1) +s(logdepth,by=StnF,bs=cs, fx=FALSE,k=-1) +StageF+s(StnF, bs=re), family=Tweedie(p=1.1), data=SBall,method=ML) این مدل (SBall.gam2a) بطور قابل توجهی هنگامی که در برابر StnF رسم می شود، همگنی باقیمانده ها را بهبود می بخشد. با این حال، وقتی دو مدل را با استفاده از AIC مقایسه می‌کنم (آیا باید این کار را انجام دهم؟ و آیا استفاده از ML در مقابل REML مناسب است؟)، مدل اول بهتر است: > AIC(SBall.gam2, SBall.gam2a) df AIC SBall. gam2 83.08053 2401.317 SBall.gam2a 47.59405 2799.378 به نظر من، بهتر است از مدل دوم که شامل اثر تصادفی است، استفاده شود، زیرا بهتر با فرض همگنی باقیمانده ها مطابقت دارد، و سپس با انتخاب مدل بیشتر از اصطلاحات هموارتر و پارامتریک اقدام کنیم. آیا این درست است؟ بخشی (یک ایستگاه از 9) از مجموعه داده در زیر ارائه شده است. با تشکر فراوان، Raeanne از <- ساختار(list(SBall.StnF = ساختار(c(9L, 9L, 9L, 9L, 9L, 9L, 9L, 9L, 9L, 9L, 9L, 9L, 9L, 9L, 9L, 9L, 9L, 9L, 9L, 9L ، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9L، 9L، 9L، 9L، 9L، 9L، 9L، 9L)، .Label = c(1، 2، 3، 4، 5، 6، 7، 8، 9)، کلاس = عامل)، SBall.StageF = ساختار (c(1L، 2L، 3L، 4L، 5L، 1L، 2L، 3L، 4 لیتر، 5 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر)، «2»، «3»، «4»، «5»، «6»، «7»)، کلاس = عامل)، SBall.count = c(0، 0، 19، 0، 0، 0، 0، 20، 10، 0، 0، 0، 30، 0، 5، 10، 50، 10، 0، 0 ، 100، 150، 225، 175، 0، 50، 150، 50، 100، 0)، SBall.vol_offset = c(1.59591002173839، 1.59591002173839، 1.59591002173839، 1.59591002173839، 1.5959، 1.595 1.5945614038671, 1.5945614038671, 1.5945614038671, 1.5945614038671, 1.5945614038671, 1.6193657910 1.61955021036791، 1.61955021036791، 1.61955021036791، 1.61955021036791، 1.61526331179942، 1.61955021036791، 1.61526331179942، 1.619550. 1.61526331179942, 1.61526331179942, 1.61526331179942, 1.64905470098532, 1.64905470098532, 1.649.1. 1.64905470098532، 1.64905470098532، 1.61691429450892، 1.61691429450892، 1.61691429450892، 1.61691429450892، 1.61691429450892، 1.622949 1.61691429450892)، SBall.logdepth = c(1.90308998699194، 1.90308998699194، 1.90308998699194، 1.9030899986919991. 1.77815125038364, 1.77815125038364, 1.77815125038364, 1.77815125038364, 1.77815125038364, 1.696920. 1.60205999132796، 1.60205999132796، 1.60205999132796، 1.60205999132796، 1.30102999566398، 1.3996، 1.3096 1.30102999566398, 1.30102999566398, 1.30102999566398, 1, 1, 1, 1, 1, 0.698970004336019, 0.6943970 0.698970004336019، 0.698970004336019، 0.698970004336019 ))، .Names = c(SBall.StnF، SBall.StageF، SBall.StageF، SBall.S_th، SBall. row.names = c(NA، 30L)، کلاس = data.frame)
انتخاب GAM با/بدون اثرات تصادفی - نمودارهای باقیمانده در مقابل AIC
44046
من روی یک مشکل کلاسیک پیش‌بینی ریزش با استفاده از تعداد بازدیدهای یک کاربر معین از یک سایت کار می‌کنم و فکر می‌کردم که رگرسیون پواسون ابزار مناسبی برای مدل‌سازی تعامل آینده آن کاربر است. وقتی در آن زمان به کتابی در مورد تجزیه و تحلیل بقا و مدل سازی خطر برخوردم و نمی دانم کدام تکنیک بهترین است. من نمی‌خواهم همزمان در مورد هر دو موضوع تحقیق کنم، بنابراین چه چیزی برای مدل‌سازی تعامل کاربر با استفاده از داده‌های گذشته و آمار جمعیتی بهتر است؟
تفاوت بین تحلیل بقا و رگرسیون پواسون چیست؟
12988
یک مثال در اینجا آمده است: http://www.reddit.com/r/askscience/comments/ine4x/regarding_the_recent_lapse_of_global_warming_in/c2554al من مطمئن هستم که به آمارهای قوی مربوط می شود. اما من مطمئن هستم که یک برچسب خاص تر از آن وجود دارد. == بسیار خوب، بنابراین من سعی کردم تجزیه و تحلیل رگرسیون را روی مجموعه داده های گرمایش جهانی در 10 سال گذشته اجرا کنم. چیزی که می خواستم نشان دهم این بود که طی 10 سال گذشته روند گرمایش قابل توجهی وجود نداشته است. با این حال، از آنجایی که سال‌های غیرعادی خاصی وجود دارد، می‌خواستم استدلال قانع‌کننده‌تر باشد، بنابراین مقادیر _مختلف_سال شروع را امتحان کردم. هدف من نشان دادن این بود که پیش‌فرض پشت مقاله (http://www.physorg.com/news/2011-07-global-linked-sulfur-china.html) اساساً درست است. من به هیچ وجه منکر تغییرات آب و هوا نیستم زیرا خودم با دانشمندان آب و هوا کار می کنم (من از انکارکنندگان تغییرات آب و هوایی به اندازه هر دانشمند دیگری متنفرم) - با این حال - نکته این است که چین آنقدر گوگرد در جو منتشر کرده است که آب و هوا تغییر عملاً طی 10 سال گذشته متوقف شده بود (که گفته شد، من شک ندارم زمانی که چین میزان زغال سنگ حاوی گوگرد مصرفی خود را کاهش دهد، دوباره از سر گرفته خواهد شد) من از مجموعه داده از http://www.ncdc.noaa.gov/cmb-faq/anomalies.php \- و به ویژه - ftp://ftp.ncdc.noaa.gov/pub/data/anomalies/annual.land_ocean.90S مجموعه داده .90N.df_1901-2000mean.dat (ناهنجاری های زمین+اقیانوس)، که از نظر علمی دقیق تر است == به هر حال با انجام تحلیل های رگرسیونی روی این داده ها... برای دوره 1997-2010 برای ضریب x مقدار 0.00722 درجه در سال به دست می آید. این از نظر آماری معنی‌دار نیست، زیرا p-value 0.13 1998-2010: 0.00515 درجه در سال/p-value 0.19 است. از نظر آماری معنی دار نیست. برای دوره 1999-2010، برای ضریب x، مقدار 0.01182 درجه در سال دریافت می کنم. این به سختی اهمیت آماری را برآورده می کند، زیرا p-value 0.0457 2000-2010: 0.0089 درجه در سال / p-value 0.17 است. از نظر آماری معنی دار نیست 2001-2010: 0.0016 درجه در سال/p-value 0.759. از نظر آماری معنی دار نیست 2002-2010: -0.00167 درجه در سال/p-value 0.784. اما در اینجا ما یک شیب منفی 2003-2010 داریم: -0.00141 درجه در سال/p-value 0.86. باز هم شیب منفی
دقیقاً نام نوع تحلیل رگرسیون چیست که در آن سعی می‌کنید ببینید آیا مدل بیش از مقادیر شروع/پایان *چندین* معنادار است؟
41724
در TraMineR من ممکن است تفاوت‌ها را به این صورت محاسبه کنم: خواص <- ماتریس(c(# سمت چپ، متاهل، فرزند، طلاق گرفته شده 0، 0، 0، 0، # والد 1، 0، 0، 0، # سمت چپ 0، 1، 0.5 , 0, # marr 1, 1, 0, 0, # left+marr 0, 0, 1, 0, # فرزند 1, 0, 1, 0, # left+child 1, 1, 1, 0, # left+marr+child .5, 1, 0.5, 1 # طلاق گرفته ), 8, 4, byrow=TRUE) sm <- as. matrix(dist(properties)) indel <- .5*max(sm) dOM <- seqdist(biofam.seq, method=OM, indel=indel، sm=sm) چرا هم هزینه های indel (indel) و هم ماتریس هزینه جایگزینی (sm) را ارائه می کنم؟ من فکر کردم آنها یکی هستند؟ لطفاً به من کمک کنید تا رابطه بین ماتریس هزینه جایگزینی و هزینه های ورودی را درک کنم.
رابطه بین ماتریس هزینه جایگزینی و هزینه های ایندل چیست؟
15406
من می بینم که $E(X)$ و $\mu_x$ برای اشاره به میانگین برخی توزیع ها یا تغییرات استفاده می شوند، اما من روشن نیستم که هر کدام در چه شرایطی مناسب هستند. به نظر می رسد $E(X)$ همیشه بیشتر در زمینه یک متغیر تصادفی $\mu_x$ ظاهر می شود که به میانگین برخی از توزیع ها اشاره می شود. برای مثال کتاب‌های من فرمول‌های همه توزیع‌های استاندارد را فهرست می‌کنند. مثلاً میانگین دوجمله‌ای: $\mu_x=np$ بعضی اوقات به نظر می‌رسد که تمایز این است که آیا موضوع مورد علاقه است یا فقط به عنوان یک متغیر با ارزش استفاده می‌شود. به عنوان مثال $$E(T_z) = \mu_T(1+\beta t)$$ در این حالت هر دو $E(T_z)$ و $\mu_T$ هر دو نشان دهنده انتظار متغیر هستند. حدس می‌زنم از این نظر یکی تابعی است که آرگومان می‌گیرد و دیگری متغیری است که باید به آن اختصاص داده شود و از آن خوانده شود.
چه زمانی باید از $E(X)$ استفاده کنم و چه زمانی از $\mu$ برای میانگین استفاده کنم؟
110038
من می‌دانم که اگر دو مدل A و B داشته باشم و A در B تو در تو باشد، با توجه به برخی داده‌ها، می‌توانم پارامترهای A و B را با استفاده از MLE جاسازی کنم و آزمون نسبت درستنمایی گزارش تعمیم‌یافته را اعمال کنم. به طور خاص، توزیع آزمون باید $\chi^2$ با $n$ درجه آزادی باشد که $n$ تفاوت در تعداد پارامترهایی است که $A$ و $B$ دارند. با این حال، اگر $A$ و $B$ تعداد پارامترهای یکسانی داشته باشند اما مدل ها تو در تو نباشند، چه اتفاقی می افتد؟ یعنی آنها به سادگی مدل های متفاوتی هستند. آیا راهی برای اعمال آزمون نسبت احتمال وجود دارد یا می توان کار دیگری انجام داد؟
تست نسبت احتمال ورود به سیستم تعمیم یافته برای مدل های غیر تودرتو
24580
> **تکراری احتمالی:** > رگرسیون روی یک متغیر وابسته غیر عادی اگر متغیر وابسته در یک رگرسیون چندگانه به طور معمول توزیع نشده باشد، برای اصلاح آن چه کاری می توان انجام داد؟
اگر متغیر وابسته در یک رگرسیون چندگانه به طور معمول توزیع نشده باشد
12262
من یه سوال عجیب دارم فرض کنید که شما یک نمونه کوچک دارید که در آن متغیر وابسته ای که می خواهید با یک مدل خطی ساده آنالیز کنید، بسیار کج شده است. بنابراین شما فرض می کنید که $u$ به طور معمول توزیع نشده است، زیرا این امر منجر به توزیع نرمال $y$ می شود. اما وقتی نمودار QQ-Normal را محاسبه می کنید، شواهدی وجود دارد که نشان می دهد باقیمانده ها به طور معمول توزیع شده اند. بنابراین هر کسی می تواند فرض کند که عبارت خطا به طور معمول توزیع شده است، اگرچه $y$ نیست. بنابراین، وقتی عبارت خطا به نظر می رسد به طور معمول توزیع شده است، اما $y$ اینطور نیست، به چه معناست؟
اگر باقیمانده ها به طور معمول توزیع شوند، اما y توزیع نشده باشند، چه؟
82126
من مطمئن نیستم که آیا اینجا جای مناسبی برای پرسیدن این سوال است یا خیر، اما در اینجا آمده است: گاهی اوقات دو یا چند ورودی از یک شبکه عصبی اغلب می توانند به یک موجودیت دنیای واقعی مرتبط باشند. به عنوان مثال: قد و وزن یک فرد برای پیش بینی احتمال بیماری در جمعیت یا قیمت و حجم یک سهام برای پیش بینی بازار. هنگامی که یک مجموعه آموزشی منفرد حاوی داده هایی در مورد تعدادی از این موجودات است، چگونه می توانیم به یک شبکه عصبی بفهمانیم که دو ورودی (یا بیشتر) به یک موجودیت مرتبط هستند؟ در بین تمام افرادی که از من پرسیده ام، به نظر می رسد اجماع کلی این است: * شبکه های عصبی به این شکل کار نمی کنند * ممکن نیست * چنین گروه بندی داده ها لازم نیست * شبکه های عصبی قرار است رابطه بین ورودی ها را پیدا کنند، شما قرار نیست روابط را به آن تغذیه کنند * مجموعه داده های آموزشی باید دوباره کار شود / پیکربندی مجدد شود * من هرگز در مورد چنین چیزی نشنیده ام بنابراین، بدیهی است که این در جریان اصلی نیست. آیا کسی تحقیقی در این زمینه شنیده است؟ **ص**. اگر با نظر فوق موافق هستید (نمی توان/نباید انجام داد) لطفاً دلیل آن را ارائه دهید.
چگونه به یک شبکه عصبی بفهمانیم که چندین ورودی (به یک موجودیت) مرتبط هستند؟
82127
من مجموعه ای از انتساب ها را دارم که بر اساس آنها از PROC GLIMMIX برای ساخت یک مدل رگرسیون برای یک نتیجه باینری استفاده می کنم. من از PROC MIANALYZE برای جمع کردن خروجی استفاده می کنم، که بخشی از آن شامل حد اطمینان بالایی و پایینی است که می تواند برای بدست آوردن یک فاصله اطمینان برای نسبت شانس افزایش یابد. GLIMMIX همچنین آزمایش های نوع III F را از اثرات مدل ارائه می دهد، اما به طور کلی پذیرفته شده است که تست های مربع کای برای این مدل ها مناسب تر هستند. تقریب خوبی را می توان با ضرب مقدار F در درجه آزادی صورتگر به دست آورد. این در نمونه من قابل قبول است زیرا بسیار بزرگ است. برای من جمع کردن تست‌های F در MIANALYZE مشکل بود، بنابراین از یک گام داده برای محاسبه مجذور کای و میانگین بیش از 10 انتساب استفاده کردم، و سپس به سادگی به‌عنوان یک مربع کای در درجه‌های آزادی عددی آزمایش کردم. نتیجه این است: چند تا از اثرات مدل من وقتی که مربع کای را بالا می‌برم مهم هستند، اما نسبت‌های شانس یک را به دام می‌اندازند. من نمی دانم چگونه پارادوکس را حل کنم. آیا مقداری واریانس به دلیل انتساب وجود دارد که در جمع آوری تست های کای اسکوئر لحاظ نشده است؟ چگونه می توانم این مشکل را دور بزنم؟
نسبت شانس زمانی که مقدار p معنی دار باشد 1 را به دام می اندازد
51794
من دو متغیر غیر عادی دارم (یکی DV، یکی IV) و چند IV مقیاس لیکرت 7 درجه ای (به طور معمول توزیع شده است). متغیرهای غیر عادی امتیازات مرکزیت از تحلیل شبکه هستند - DV از ماتریس همکاری است. IV از ماتریس دوستی است. متأسفانه تغییر داده ها نتیجه ای نداشت. این چیزی است که می‌خواهم آزمایش کنم: DV: امتیاز مرکزی - همکاری IV: امتیاز مرکزی - دوستی تعداد بودجه سالانه کارکنان سال‌های فعالیت فکر می‌کنم باید با یک آزمون ناپارامتریک بروم. مشکل - حداقل برای من - این است که 2 متغیر غیر نرمال پیوسته هستند و دامنه های متفاوتی دارند. من در مورد اختصاص رتبه به جای نمرات مرکزی فکر کردم، اما مطمئن نیستم که از کدام آزمون استفاده کنم. من این احساس را دارم که از یک چیز بسیار ساده چشم پوشی می کنم.
داده های غیر نرمال و آزمون های ناپارامتریک
8126
من می خواهم ماتریس کلاه را مستقیماً در R برای یک مدل لاجیت محاسبه کنم. با توجه به لانگ (1997) ماتریس کلاه برای مدل های لاجیت به این صورت تعریف می شود: $$H = VX(X'VX)^{-1} X'V$$ X بردار متغیرهای مستقل است و V یک ماتریس مورب است. با $\sqrt{\pi(1-\pi)}$ در مورب. من از تابع 'optim' برای به حداکثر رساندن احتمال و استخراج هسین استفاده می کنم. بنابراین حدس می‌زنم سوال من این است: چگونه $V$ را در R محاسبه کنم؟ _نکته:_ تابع احتمال من به این شکل است: loglik <- تابع(تتا، x، y){ y <- y x <- as.matrix(x) بتا <- theta[1:ncol(x)] loglik <- مجموع (-y*log(1 + exp(-(x%*%beta))) - (1-y)*log(1 + exp(x%*%beta))) return(-loglik) } و من این را به تابع optim به صورت زیر تغذیه می کنم: logit <- optim(c(1,1),loglik, y = y, x = x, hessian = T) جایی که x ماتریسی از متغیرهای مستقل است و y بردار با متغیر وابسته _توجه:_ می‌دانم که روش‌های کنسرویی برای انجام این کار وجود دارد، اما باید آن را از ابتدا انجام دهم.
چگونه ماتریس کلاه را برای رگرسیون لجستیک در R محاسبه کنیم؟
6939
فرض کنید من توزیع ساده شده زیر را دارم: زمان | مقدار 1 | 2 2 | 4 3 | 8 4 | 16 1 | 1 2 | 3 3 | 9 4 | 27 1 | 40 2 | 20 3 | 10 4 | 5 1 | 12 2 | 1 3 | 99 4 | 23423 اینها همه بخشی از یک مجموعه داده هستند (بنابراین یک x می تواند در اینجا چندین مقدار داشته باشد، به عنوان مثال زمان = 1 با مقدار = 2،1،40،12 مطابقت دارد). من آنها را جدا کردم زیرا 3 اولی دارای الگوی واضح در شیب خود هستند (2 و 3 و 0.5) و آخری در شیب خود الگوی ندارد. زمان بر حسب روز است و مقادیر یک کمیت را نشان می دهند. حال، چگونه می توانم از SPSS برای یافتن عناصر یک توزیع استفاده کنم که با هم یک الگو (هر نوع الگو) را در شیب خود تشکیل می دهند؟ و چگونه می توانم آن را نیز شامل عناصری کنم که تقریباً از این الگو پیروی می کنند، اما تغییرات جزئی دارند (تغییری که می توانم تنظیم کنم)؟ هر گونه بازخورد قدردانی می شود. با تشکر **به روز رسانی:** به نظر می رسد SPSS بهترین ابزار برای این کار نیست. من به زبان R علاقه مند هستم. اگر کسی بتواند کتابی را در مورد این زمینه از تشخیص الگو در R توصیه کند، عالی است.
چگونه الگوهای بین فیلدهای یک توزیع را در SPSS تشخیص دهیم؟
82128
تعدادی برآوردگر قوی مقیاس وجود دارد. یک مثال قابل توجه انحراف مطلق میانه است که به انحراف استاندارد به صورت $\sigma = \mathrm{MAD}\cdot1.4826$ مربوط می شود. در چارچوب بیزی راه‌هایی برای تخمین مستحکم موقعیت مکانی یک توزیع تقریباً نرمال وجود دارد (مثلاً یک نرمال آلوده به نقاط پرت)، برای مثال، می‌توان فرض کرد که داده‌ها به صورت توزیع t یا توزیع لاپلاس توزیع شده‌اند. حال سوال من: **یک مدل بیزی برای اندازه گیری _مقیاس_ یک توزیع تقریباً نرمال به روشی قوی چگونه خواهد بود، به همان مفهومی که MAD یا برآوردگرهای قوی مشابه دارد؟** همانطور که در مورد MAD نیز وجود دارد، چنین خواهد بود اگر مدل بیزی بتواند به SD یک توزیع نرمال نزدیک شود، در صورتی که توزیع داده ها واقعاً به طور معمول توزیع شده باشد. _edit 1:_ یک مثال معمولی از مدلی که با فرض اینکه داده $y_i$ تقریباً نرمال است در برابر آلودگی/موارد پرت مقاوم است، از توزیع t مانند $$y_i \sim \mathrm{t}(m, s,\nu) استفاده می‌کند. )$$ جایی که $m$ میانگین است، $s$ مقیاس، و $\nu$ درجه آزادی است. با پیشین‌های مناسب روی $m، s$ و $\nu$، $m$ تخمینی از میانگین $y_i$ خواهد بود که در برابر مقادیر پرت قوی خواهد بود. با این حال، $s$ تخمین ثابتی از SD $y_i$ نخواهد بود زیرا $s$ به $\nu$ بستگی دارد. برای مثال، اگر $\nu$ روی 4.0 ثابت شود و مدل بالا به تعداد زیادی نمونه از توزیع $\mathrm{Norm}(\mu=0,\sigma=1)$ برازش داده شود، آنگاه $s دلار حدود 0.82 خواهد بود. چیزی که من به دنبال آن هستم مدلی است که مانند مدل t قوی باشد، اما برای SD به جای (یا علاوه بر) میانگین. _edit 2:_ در اینجا یک مثال کدگذاری شده در R و JAGS وجود دارد که نشان می دهد چگونه مدل t که در بالا ذکر شد نسبت به میانگین قوی تر است. # تولید برخی داده های آلوده y <- c( rnorm(100, mean=10, sd=10), rnorm(10, mean=100, sd= 100)) #### یک مدل عادی استاندارد #### model_string <- model{ for(i in 1:length(y)) { y[i] ~ dnorm(mu, inv_sigma2) } mu ~ dnorm(0, 0.00001) inv_sigma2 ~ dgamma(0.0001، 0.0001) سیگما <- 1 / sqrt(inv_sigma2) } model <- jags.model(model)(texty_C) mcmc_samples <- coda.samples(model, mu, n.iter=10000) خلاصه (mcmc_samples) ### چندکهای خلفی mu ## 2.5% 25% 50% 75% 97.5% ## 9.8 14.3 19.2 24.1 #### A (بیشتر) t-model قوی #### library(rjags) model_string <- model{ for(i in 1:length(y)) { y[i] ~ dt(mu, inv_s2, nu) } mu ~ dnorm (0، 0.00001) inv_s2 ~ dgamma(0.0001،0.0001) s <- 1 / sqrt(inv_s2) nu ~ dexp(1/30) } model <- jags.model(textConnection(model_string), list(y = y)) mcmc_samples <- coda.samples(model, mu, n. iter=1000) خلاصه (mcmc_samples) ### چندک های خلفی mu ## 2.5% 25% 50% 75% 97.5% ##8.03 9.35 9.99 10.71 12.14
یک مدل بیزی قوی برای تخمین مقیاس توزیع تقریباً نرمال چه خواهد بود؟
19186
من سوالات یک آزمون آماری سال گذشته را مرور می کردم. یک سوال با تابع چگالی احتمال زیر $$\displaystyle f(x,\theta) = \frac 1{2\theta^3}x^2e^{-\frac x\theta}$$ وجود دارد که در آن $\displaystyle0 <x<\infty$ و $\displaystyle0<\theta<\infty$. سوال به شرح زیر است: الف) برآوردگر حداکثر درستنمایی را برای $\displaystyle\theta$ پیدا کنید. ب) برآوردگر حداقل واریانس $\widehat{\theta}$ را برای pdf داده شده پیدا کنید. ج) آیا برآوردگر حداکثر درستنمایی در الف) کارآمد و سازگار است؟ من پاسخ a) را به صورت $\widehat\theta=\frac {1} {3n}\sum x_n$ پیدا کرده‌ام. با این حال، من نتوانستم کران پایین Cramer-Rao را تا انتها پیدا کنم. من معادله را در زیر $$\displaystyle \frac {d^2\log(f(x,\theta))} {d\theta^2} = \frac 3 {\theta^2}-2\frac نشان داده‌ام x {\theta^3}$$ باید انتظار این را داشته باشم، اما مطمئن نیستم که $E[x]$ را با چه چیزی جایگزین کنم. آیا باید آن را برابر با $\displaystyle \theta$ کنم و راه حل را بیشتر کنم؟ به هر حال، می توانید به من هم راهنمایی کنید که چگونه می توانم واریانس برآوردگر حداکثر درستنمایی بالا را برای c) پیدا کنم؟ من از آن متشکرم پیشاپیش
سوالات کرامر-رائو با کران پایین
28925
آیا بازی هایی وجود دارد که باعث می شود بازیکن مثل یک آماردان فکر کند؟ برای مثال، لایت بات شما را وادار می کند که «مثل یک برنامه نویس فکر کنید» (به روشی بسیار ابتدایی). آیا بازی هایی وجود دارد - که برای سرگرمی یا آموزش طراحی شده اند - که می تواند به راحت شدن فرد با مفاهیم اساسی مانند همبستگی، مقادیر p، حداقل مربعات، واریانس، انواع مختلف توزیع احتمال، رگرسیون به میانگین کمک کند... یک مثال می تواند این باشد. بازی همبستگی - حدس زدن (من می پرسم زیرا به توسعه چنین برنامه ای فکر می کنم و سعی می کنم دید گسترده ای از آنچه کار قبلی وجود دارد به دست بیاورم)
بازی های خوبی برای یادگیری تفکر آماری؟
110702
جایی شنیدم که در اخترفیزیک تعداد بیزی ها بیشتر از مکرر گرایان است (البته به طور کلی فکر می کنم جامعه بیزی کوچکتر است). آیا چیز خاصی در مورد داده های astro وجود دارد که آن را برای روش های بیزی مناسب تر می کند؟ **ویرایش**: انگیزه سوال من نیز همین رقابت کگل بود، جایی که رویکرد بیزی از دیگران بهتر بود. بنابراین به نظر می رسد که می تواند چیز خاصی در مورد داده های اختر وجود داشته باشد.
چرا تعداد بیزی ها بیشتر از مکرر گرایان در اخترفیزیک است؟
7701
من داده هایی از شرکت کنندگان انسانی در یک مطالعه دارم. تعداد زنان در مطالعه بیشتر است (60%) و مردان مسن تر هستند. من یک متغیر دسته بندی باینری $O$ دارم. اگر کسانی که $True$ برای $O$ هستند بزرگتر هستند، آیا باید جنسیت و/یا سن را اصلاح کنم؟ شاید آن $True$ برای $O$ شامل مردان بیشتری باشد. برای تعیین این موضوع از چه مفاهیم یا روش هایی استفاده کنم؟ من از R استفاده می کنم.
تنظیم برای متغیرهای مخدوش کننده
11256
من باید یک رگرسیون با یک DV غیر عادی انجام دهم که هیچ تبدیل غیرخطی مناسبی (که من از آن اطلاع دارم) وجود ندارد: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/7fPjE. png) امتیازی است از 10 تا 50، با اوج بالای 10، افت در 11 و کاهش منظم از 11 به 50. توزیع باقیمانده طبیعی نیست ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/pSjZ3.png) کم و بیش 500 موضوع در این مطالعه وجود دارد و متغیرهای کمکی همه دوگانه هستند. من به استفاده از n-کاشی و انجام یک رگرسیون ترتیبی روی متغیر حاصل فکر کردم، اما سپس با نسبت بالایی از سلول‌های خالی مواجه شدم - نه به دلیل حجم نمونه کم، بلکه به دلیل چندین متغیر کمکی که باید وجود داشته باشند. در مدل بهترین کاری که در حال حاضر می توانم انجام دهم این است که متغیرهای کمکی را حذف کنم و از یک سوم (مثلاً به جای پنجک) استفاده کنم تا تعداد سلول های خالی را به حداقل برسانم. با این حال، مطمئن نیستم که اجتناب از سلول های خالی تا چه حد مهم است. در مقایسه با تجزیه و تحلیل اصلی در یک امتیاز خام، رگرسیون بر روی یک سوم با متغیرهای کمکی کمتر فداکاری زیادی به نظر می رسد. بر اساس حجم نمونه مناسب، و با توجه به این واقعیت که توزیع باقیمانده‌ها چندان دور از حالت عادی نیست، نمی‌دانم که آیا نتایج رگرسیون آنطور که هستند قابل اعتماد هستند یا خیر.
رگرسیون بر روی یک متغیر وابسته غیر نرمال
110704
اجازه دهید $F$ یک تابع توزیع در $(\Omega,\, \mathfrak{F},\, P)=\left((0,1),\ \mathfrak{B}(0,1),\ \ باشد lambda\right)$ که در آن $\lambda$ نشان دهنده اندازه Lebesgue است. $X:\Omega \به \mathbb{R}$ را با $X(\omega) = \sup(y \in \mathbb{R}: F(y) < \omega)$ تعریف کنید. 1 نشان دهید که $\forall x \in \mathbb{R}، (\omega: X(\omega) \leq x) = (\omega: \omega \leq F(x))$ 2 نشان دهید که $X$ است یک RV در $(\Omega، \mathfrak{F}، P)$ و آن $F_X = F$. تلاش من: LHS = $(\omega: X(\omega) \leq x)$ = $(\omega: X(\omega) \in (-\infty, x])$ = $(\omega: \sup (y \in \mathbb{R}: F(y) < \omega) \in (\infty, x])$ RHS = $(\omega: \omega \leq F(x))$ = $(\omega: \omega \in (-\infty, F(x)])$ = $(\omega: \omega \in (-\infty, P(X^{-1}( \ (-\infty ,x] \ ))))$ = $(\omega: \omega \in (-\infty, P(LHS)))$ من گیر کرده ام :( Cross posted : http://math.stackexchange.com/questions/888054/let-f-be-a- distribution-function-prove-that-x-is-a-rv
فرض کنید F یک تابع توزیع باشد. ثابت کنید که X یک RV است
103141
من تعدادی سری زمانی نسبتا کوتاه دارم (حدود 4 تا 100 مشاهده) که باید در آینده پیش بینی کنم. من تصمیم گرفتم از استنتاج بیزی استفاده کنم، زیرا اطلاعات خارجی در مورد هر سری زمانی وجود دارد (سری های زمانی متقابل مشابه هستند)، و احتمالات پیش بینی بسیار مطلوب است. من انتخاب کردم که یک مدل بیزی شبیه مدل AR کلاسیک ایجاد کنم: $$ y_{i+1} = b_0 + b_1 y_i $$ قبلی برای $y_i$ در آینده باید یک توزیع نرمال مشتق شده از تمام سری های زمانی باشد. با این حال، من در ترکیب این دو منبع اطلاعاتی (از مدل اتورگرسیو و قبلی) با هم در یک مدل OpenBUGS (از طریق _BRugs_) مشکل دارم. این یک مدل نسبتاً ساده است که فقط مدل خودرگرسیون را اجرا می کند: model { b0 ~ dunif(-20,20) b1 ~ dunif(-20,20) sd ~ dunif(0, 10) tau <- 1/(sd*sd) برای (i در 2:N) { mu[i] <- b0 + b1*y[i-1] y[i] ~ dnorm(mu[i]، tau) z[i] <- y[i] } برای (i در (N+1):(N+K)) { mu[i] <- b0 + b1*z[i -1] z[i] ~ dnorm(mu[i]، tau) } } که در آن «N» تعداد مشاهدات، «K» تعداد مقادیر پیش‌بینی‌شده است، و z[(N+K):(N+K)] مقادیر پیش‌بینی‌شده هستند. با سری های زمانی ساده مانند (1،2،4،8،16) بسیار خوب کار می کند، اما با سری های زمان واقعی شکست می خورد، زیرا تمایل به رشد تصاعدی دارد (پایدار نیست). من معتقدم که محدود کردن y به یک توزیع قبلی معمولی مشکل را کاهش می دهد، اما نمی دانم چگونه برای انجام این کار به مدل بسط دهم. باید چیزی شبیه به آن باشد: z[i] ~ dnorm(mu0, tau0) که در آن «mu0» و «tau0» به صورت خارجی تعریف می‌شوند، اما در اینجا ممکن نیست، زیرا «z[i]» قبلاً تعریف شده است. . چگونه می توان چنین مدلی را ساخت؟
پیش بینی سری های زمانی با OpenBUGS
2891
من به دنبال یک راه ساده برای ذخیره نسبت ها هستم. برای یک جزء زمان، من باید میانگین نسبت بین دو رفتار را ذخیره کنم. برای مثال تعداد افرادی که به چپ می‌پیچند در مقایسه با تعداد افرادی که به راست می‌پیچند. من باید رفتار غیرعادی را تشخیص دهم (افرادی که به طور غیرعادی به راست می پیچند). چگونه باید نسبت متوسط ​​را با نسبت تحلیل شده از نظر ریاضی مقایسه کنم و چگونه باید تفاوت را در نمودار نمایش دهم؟ پیشاپیش خیلی ممنون
بهترین ارزش برای ذخیره داده های نسبت و مقایسه آن با میانگین دوره زمانی
28921
در حال حاضر، من در حال انجام پایان نامه خود هستم که از روش یادگیری پرسپترون چند لایه برای آموزش یک مدل استفاده می کند. چیزی که من از کلاسم یاد گرفتم هدف تقسیم کردن داده هایی است که می توان آنها را به 3 گروه تقسیم کرد * مجموعه داده آموزشی - این مجموعه برای آموزش مدل است. * مجموعه داده اعتبارسنجی - این مجموعه برای یافتن بهترین پارامترهای مدل است. * مجموعه داده آزمایشی - این مجموعه برای ارزیابی عملکرد مدل است. اما مشکل اینجاست که نمی‌توانم مرجعی را برای پشتیبانی از اینکه چرا باید نمونه‌های پایان‌نامه‌ام را با نسبت معینی تقسیم کنم، پیدا کنم. من سعی می کنم آن را در گوگل جستجو کنم اما آن مقالات را پیدا نمی کنم. احتمالاً به این دلیل است که من آن را با اصطلاحات فنی نادرست در گوگل جستجو کردم. بازگشت به این سوال، آیا کسی در اینجا می‌تواند مقالاتی را پیشنهاد کند که بهترین نسبت را با شواهد پشتیبانی شده مورد بحث قرار می‌دهند؟
از کجا می توانم مقالاتی را پیدا کنم که در مورد نسبت پارتیشن بندی داده های آموزشی پیشنهادی بحث می کنند؟
69928
همبستگی اغلب اعمال می‌شود، اما در واقع اغلب علاقه‌ی آزمایش‌گر به‌اندازه یافتن همبستگی معنی‌دار نیست، بلکه وابستگی معنادار متغیرهاست، و به وضوح استقلال با عدم همبستگی یکی نیست. برای ارائه یک مثال خاص، دو ژن و بیان آنها در تعدادی از افراد را در نظر بگیرید. اگر ژن ها با هم تنظیم شوند (و بنابراین احتمالاً از نظر عملکردی مرتبط هستند)، مقادیر بیان آنها مستقل نخواهد بود. با این حال، اینکه آنها با هم مرتبط خواهند بود یا خیر، موضوع دیگری است. اکنون، تست‌هایی وجود دارند که می‌توانند به عنوان جایگزینی برای یک آزمون برای یک همبستگی معنی‌دار در نظر گرفته شوند - آزمون استقلال متغیر برای متغیرهای پیوسته، مانند آزمون استقلال متوالی طولانی‌ترین افزایش (R بسته LIStest) یا یک آزمون ناپارامتریک. در اینجا شرح داده شده است. من سابقه بسیار کمی دارم و تجربه ای در مورد این تست ها ندارم. سوال من این است: آیا این تست ها از نظر قدرت با آزمون های همبستگی قابل مقایسه هستند؟ آیا تجربه عملی دارید؟ چه چیزی را توصیه می کنید؟
همبستگی در مقابل استقلال: قدرت آماری، آزمون های موجود
7706
اگر مجموعه داده من متشکل از چند متغیر سانسور شده باشد (<1%) و من رگرسیون OLS را با استفاده از یک تخمین‌گر مقاوم ناهمسان (Heteroscedastic) برازش می‌دهم (باقیمانده‌ها برای شروع خیلی ناهمسان نیستند) - آیا نتایج معتبر هستند؟
هنگام اعمال OLS، میزان سوگیری در رگرسیون سانسور شده چقدر است؟
82124
من می خواهم ابزاری بسازم که به کاربران اجازه دهد نمونه های داده را خودشان برچسب گذاری کنند. بنابراین کاربر برخی از نمونه ها را انتخاب می کند و سپس یک طبقه بندی کننده را آموزش می دهد. پس از آن، کاربر ممکن است نمونه های بیشتری را انتخاب کند. با این حال، من نمی‌خواهم طبقه‌بندی‌کننده دوباره ساخته شود، زیرا این یک فرآیند زمان‌بر است. آیا استراتژی خوبی برای ساختن چنین ابزار طبقه بندی افزایشی وجود دارد؟ یکی از ایده هایی که در ذهن دارم این است که دسته بندی کننده های زیادی بسازم و سپس آنها را در یک دسته بندی کنم. بنابراین در اولین تکرار کاربر چند نمونه را انتخاب می کند و طبقه بندی کننده ساخته می شود. سپس در یک تکرار دیگر نمونه های دیگری را انتخاب می کند و طبقه بندی کننده _new_ ساخته می شود. حالا فرض کنید یک نمونه جدید برای طبقه بندی نیاز است، من اجازه می دهم نمونه از تمام طبقه بندی کننده ها عبور کند و رای اکثریت را بگیرد. من حدس می زنم به این می گویند کیسه کشی. اما با توجه به اینکه در هر تکرار تعداد متفاوتی از نمونه‌ها انتخاب می‌شوند، این تکنیک چقدر معتبر است؟ به‌جای تعداد دقیق نمونه‌ها در بسته‌بندی.
چگونه یک استراتژی طبقه بندی افزایشی بسازیم؟
82784
آیا کسی می تواند توضیح دهد که چرا انتگرال در چگالی خلفی ممکن است از نظر تحلیلی قابل حمل نباشد، اگر قبلی که انتخاب می کنیم غیر مزدوج باشد؟
قبلی غیر مزدوج
52291
من در مورد استفاده از تکنیک های فاکتورسازی ماتریس برای انجام فیلترینگ مشارکتی مطالعه کرده ام. به نظر می رسد یکی از محبوب ترین کارها اضافه کردن تعصبات کاربر و اقلام به پیش بینی رتبه بندی است. چیزی که من نمی فهمم این است که چرا در برخی از مقالات (مانند Factorization meets the Neighbourhood, Koren, Y., 2008) این پارامترها آموخته شده اند. آیا سوگیری ها نباید در حین آموزش مدل ثابت باشند؟ آنها گرایش هایی را در رتبه بندی های واقعی نشان می دهند، درست است؟ با تشکر
فاکتورسازی ماتریس و نزول گرادیان برای سیستم های توصیه گر. تعصب کاربر؟
69925
_**وضعیت را تصور کنید:_** سخنرانی یک دانشمند مشهور در سالن وجود دارد که در - مثلا ساعت 9:00 شروع می شود. اگر دانش آموزان به موقع نرسند - درب سالن بسته خواهد شد و به کسی اجازه ورود داده نمی شود. سبک های زیادی از ورود وجود دارد (_تصادفی، موج مانند، تجمعی..._). _با مهارت هایم فقط می توانم بین الگوی تجمعی و تصادفی با اندازه گیری فاصله زمانی بین ورودهای بعدی تمایز قائل شوم. در الگوی تجمعی، شکاف‌ها با نزدیک شدن به زمان سخنرانی کوچک‌تر خواهند بود. در الگوی تصادفی هیچ ارتباطی بین طول فاصله زمانی و زمان باقی مانده وجود ندارد. _ ** چگونه الگوهای مختلف (پیچیده تر) را آزمایش کنم؟ (مثلاً چگونه ثابت کنم که الگوی موج مانند است و از نظر آماری تصادفی نیست). رویکرد اندازه گیری زمان بین ورودهای بعدی کارساز نخواهد بود، زیرا چندین بار منبسط و منقبض می شود.** **آیا آزمون های آماری وجود دارد که بتواند با چنین داده هایی کار کند؟** ![هر خط ورود یک دانش آموز است]( http://i.stack.imgur.com/3C53k.jpg) # داده نمونه # الگوی موج مانند موج .like.data<-c(wave.pat, c(wave.pat+28.5)، c(c(wave.pat+28.5)+28.5)، c(c(c(wave.pat+28.5)+28.5)+28.5) # الگوی تجمعی cum.pat <- numeric(84) cum.pat[1] <- 5 for (i در 2:7) cum.pat[i] <- cum.pat[i - 1]+2 برای (i در 8:17) cum.pat[i] <- cum.pat[i - 1]+1.5 برای (i در 18:30) cum.pat[i] <- cum.pat[ i - 1]+1 برای (i در 31:55) cum.pat[i] <- cum.pat[i - 1]+0.5 برای (i در 55:84) cum.pat[i] <- cum.pat[i - 1]+0.25 cum.pat[83]<-64.25 cum.pat[84] <- 64.50 cum.pat.data<-c(cum.pat + 44.5 ) # الگوی تصادفی my.ch<-seq(0,109, 0.125) random.pat.data<-sample(my.ch, 84, replace=FALSE) # SOURCE DATA FRAME my.data<-data.frame(timing=c(wave.like.data,cum.pat.data,random. pat.data)، type=rep(c(wave.like، cumm.like، random)، every=84)) # رسم کتابخانه داده (شبکه) stripchart(timeing ~ type, data=my.data, pch=|, ylim=c(0,4))
چگونه الگوهای دوره ای رویدادها را در یک جدول زمانی آزمایش کنیم
69929
من روی مجموعه داده های نامتعادل کار می کنم که دو کلاس دارند: اکثریت و کلاس اقلیت. در اینجا می‌خواهم بفهمم که آیا نمونه‌های کلاس اقلیت، کلاس اکثریت هستند یا خیر. چگونه می توانم این کار را انجام دهم؟ من کدی را پیاده سازی کرده ام که k نزدیکترین همسایه را برای کلاس اقلیت پیدا می کند. این کد من است: A=[1 2 1;3 4 1;5 6 1;]; B=[1 2 2; 3 14 2; 15 16 2; 17 18 2; 1 2 1; 3 4 1; 5 6 1;]; %A=A1;B=B1; [row,col]=size(A); [row1,col1]=size(B); dist=صفر(ردیف،ردیف1); نزدیک آرایه = صفر (ردیف، ردیف 1)؛ neararray1 = صفر (ردیف، k); k=5; برای i=1 برای j=1: row1 dist(i,j)=sqrt(sum((A(1,1)-B(j,:)).^2));% برای هر عنصر انتهای [y, index]=sort(dist(1,:)); neararray(i,:)=index'; برای k=1:5 neararray1(i,k)=neararray(i,k); ورودی پایانی: A عبارت است از: feature1,feature2,clas 1 2 1 3 4 1 5 6 1 B: feature1,feature2, class 1 2 2 3 14 2 15 16 2 17 18 2 1 2 1 3 4 1 5 6 1 شک من آیا این رویکرد درست است؟ به عنوان مثال A(1،1) نزدیکترین همسایگان را به صورت: 1،5،6،7،2 دریافت خواهم کرد، اما چگونه می توانم بگویم که A(1،1) متعلق به کدام کلاس است؟
چگونه بفهمیم k نزدیکترین همسایه یک نمونه به همان کلاس تعلق دارد یا خیر؟
52293
من این را پس از انجام تست نرمال Shapiro-Wilk ترسیم کردم. آزمایش نشان داد که به احتمال زیاد جمعیت به طور معمول توزیع شده است. با این حال، چگونه می توان این رفتار را در این طرح مشاهده کرد؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/NpI0O.png) **به روز رسانی** یک هیستوگرام ساده از داده ها: ![توضیح تصویر را اینجا وارد کنید](http://i. stack.imgur.com/3nOTu.png) **به روز رسانی** تست Shapiro-Wilk می گوید: ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/39ABw.png)
R - QQPlot: نحوه مشاهده اینکه آیا داده ها به طور معمول توزیع شده اند یا خیر
69920
من تخمین مدل $ARX(1)$ زیر را مورد بحث قرار می دهم: $Y_t=α+βX_t+u_t$ که در آن $u_t=ρu_{t-1}+ε_t$ جایگزین کردن مقدار $u_t$ در معادله اول دوم، ما داریم که: $Y_t-α- βX_t =ρ(Y_{t-1}-α-βX_{t-1})+ε_t$ با تنظیم مجدد، داریم: $Y_t=α(1-ρ)+ρY_{t-1}+ βX_t-ρβX_{t- 1}+ε_t$ آیا می‌توانیم با استفاده از OLS تخمین‌هایی را برای پارامترهای معادله 2 بدست آوریم؟ خوب، بله. با این حال، توجه داشته باشید که اگر این کار را انجام دادیم، این واقعیت را نادیده می‌گیریم که پارامترهای مدل محدود شده‌اند، به ویژه پارامتر $X_{t-1}$، $-ρβ$، حاصل ضرب ضرایب است. در $Y_{t-1}$ و $X_{t}$. ما باید از این اطلاعات استفاده کنیم. تخمین‌گر OLS بی‌طرف‌دار، سازگار و آبی (بهترین تخمین‌گر بی‌طرف خطی) خواهد بود، اما با استفاده از اطلاعات مربوط به محدودیت پارامترها، می‌توانیم تخمین‌گر بهتری نسبت به OLS پیدا کنیم. به عبارت دیگر، برآوردگر غیر خطی تولید شده توسط الگوریتم مارکوارت نسبت به OLS برتری خواهد داشت. جای تعجب نیست که EViews تمام مدل‌های ARMAX را با استفاده از الگوریتم مارکوارت تخمین می‌زند. 3 موقعیت زیر را در نظر بگیرید: $1.$ اگر $ρ=0$، آنگاه مدل ما می شود: $Y_t=α+ βX_t+ε_t$ بهترین کار در این مورد نادیده گرفتن $Y_{t-1}$ و $X_{t-1}$، زیرا می دانیم، در تئوری، آنها در توضیح $Y_{t}$ بی ربط هستند. الگوریتم مارکوارت ضروری نیست. $2.$ اگر $β=0$ و $ρ ≠1$، آنگاه مدل ما becom$Y_t=α(1-ρ)+ρY_{t-1}+ε_t$ بهترین کار در این مورد نادیده گرفتن است. $X_t$ و $X_{t-1}$ زیرا می دانیم که متغیرهای نامربوطی هستند. $3.$ اگر در جامعه، $X_{t-1}$ با دیگر رگرسیون‌ها، به‌ویژه $X_{t}$ همبستگی ندارد، آنگاه می‌توانیم فقط $Y_t$ را روی یک ثابت، $Y_{t- پس‌رویم کنیم. 1}$، $X_{t}$. باز هم، این بسیار بعید است. به خصوص به این دلیل که ما با متغیرهای سری زمانی سروکار داریم که در همه موارد به جز نادرترین شرایط همبستگی خودکار دارند. اگر در نمونه، $X_{t-1}$ با دیگر رگرسیورها همبستگی نداشته باشد، یک سناریوی بسیار بعید است، آنگاه OLS $α(1-ρ)$، $ρ$ و $β$ را تخمین می زند. نادیده گرفتن $X_{t-1}$ دقیقاً مشابه الگوریتم مارکوارت، توسط قضیه Frisch-Waugh-Lovell هستند، تا زمانی که تخمین $ρ$ باشد. دقیقاً صفر نیست (که در هر صورت بعید است). ما می توانیم تخمین $α$ را از الگوریتم مارکوارت به سادگی با ضرب تخمین OLS ثابت در 1 منهای تخمین OLS $ρ$ بدست آوریم. این خیلی سوال نیست. در مورد اینکه آیا به نظر شما ادعاهای من درست است یا خیر، از تخصص شما می خواهم. یافتن پاسخ آنلاین برای این موضوع بسیار دشوار است. همچنین یک مشکل کاملاً جالب است. کمک شما بسیار قابل قدردانی است. متشکرم. مسیحی
چگونه EViews یک مدل AR(1) را با OLS تطبیق دهم؟
58868
من یک تخمین تجربی از یک منحنی ROC دارم، یعنی نموداری از حساسیت در مقابل ویژگی 1 بر روی تمام مقادیر قطع ممکن نشانگر. بر اساس یک منحنی ROC تجربی، من می‌خواهم نقطه برش بهینه را تعیین کنم که مبادله بهتری بین حساسیت و ویژگی را نشان می‌دهد. من خوانده ام که می توان از شاخص Youden برای این منظور استفاده کرد. در اینجا یک مثال وجود دارد: oneMinusSpecificity <- c(1.00000000, 0.636363636, 0.436363636, 0.315151515, 0.163636364, 0.096969697, 0.096969697, 0.0706, 0.0706, 0.0706, 0.0706, 0.0706, 0.076363636. 0.000000000) حساسیت <- c(1.00000000، 0.91566265، 0.77108434، 0.66265060، 0.39759036، 0.33734940، 0.33734940، 0.33734940، 0.23734940، 0.23734940، 0.238، 0.2366265 0.00000000) که منجر به منحنی ROC زیر می شود. خط عمودی نمایانگر شاخص Youden = بزرگترین فاصله بین 1 - ویژگی و حساسیت است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/FpnOk.png) > youden <- max(sensitivity - oneMinusSpecificity) > youden [1] 0.3474991 **چگونه می توانم بهینه را محاسبه کنم قطع با استفاده از این اطلاعات؟**
محاسبه دستی مقدار آستانه بهینه برای یک نشانگر زیستی با استفاده از شاخص Youden
69927
من وضعیت زیر را دارم: من چندین منحنی داده از گروهی از بیماران (16 منحنی برای هر بیمار) را با روش‌های مختلف تجزیه و تحلیل تجزیه و تحلیل کرده‌ام و می‌خواهم مطابقت روش‌ها را آزمایش کنم. تا کنون، من از همبستگی بالقوه در بیماران غفلت کرده ام و بنابراین قادر به محاسبه مقادیر ICC (موافقت) بودم که نتایج بسیار معقولی به همراه داشت. متأسفانه، دلیلی برای این باور دارم که داده ها با بیماران همبستگی دارند. من اکنون به دنبال مدل های خطی مختلط و معادلات برآورد تعمیم یافته هستم که هر دو با این وضعیت داده های خوشه ای سروکار دارند. سوال من این است: آیا راهی برای محاسبه چیزی شبیه به ICC (یا CCC) وجود دارد که توافقنامه آزمایش‌ها را انجام می‌دهد یا از چه چیزی به عنوان اندازه‌گیری تطابق بین روش‌ها استفاده می‌کنید؟ حدس می‌زنم می‌توانم مقادیر بتا را دریافت کنم، اما چیزی قوی‌تر خوب است، که در واقع می‌توانید به آن اهمیت آماری بدهید.
توافق داده های خوشه ای
94395
مقاله ای خواندم که می گوید متغیرهای وابسته در یک مدل رگرسیون باید به طور معمول توزیع شوند. روشی که من آن را درک می کنم این است که مشاهدات برای مدل رگرسیون باید به طور معمول توزیع شوند. یا به عبارت دیگر اگر داده های نمونه را از یک جامعه انتخاب کنم، نمونه باید به طور معمول توزیع شود. اما سپس پاسخ‌های یک سوال مشابه را در انجمن دیگری خواندم و ظاهراً مشاهدات یا متغیرهای وابسته نیازی به توزیع عادی ندارند، فقط عبارت‌های خطا پس از پیاده‌سازی مدل باید به طور عادی توزیع شوند. بنابراین اکنون مطمئن نیستم که آیا مشاهدات (متغیرهای وابسته) باید به طور معمول و همچنین عبارت های خطا توزیع شوند یا فقط عبارت های خطا هستند.
مشاهدات غیر عادی در مدل سازی رگرسیون
92110
من رویه هایی مانند Tamhanes T2، Dunnets T3 و رویه Games & Howell را پیدا کرده ام که با واریانس های نابرابر در مدل یک طرفه سروکار دارند. با این حال، من یک طرح بلوک کامل تصادفی دارم که در اصل یک مدل دو طرفه است. و واریانس ها در گروه درمان بسیار متفاوت است، از 2 تا 6. در SAS برای مدل های مختلط ویرایش دوم. (ص 369) Ramon C. Litell et. al.، از یک مدل واریانس نابرابر، proc mixed data=TV ic استفاده می کند. جنس سن کلاس؛ مدل زمان=جنس|سن/DDFM=KR OUTP=R; تکراری / گروه=سن; ls به معنای سن جنسیت / diff adjust=Tukey; اجرا؛ با این حال، من مطمئن نیستم که این درست باشد، زیرا آزمون مقایسه چندگانه (Tukey)، از یک تخمین ترکیبی برای واریانس استفاده می‌کند و زمانی که واریانس‌ها نابرابر هستند، مقادیر p کاهش می‌یابد. آیا این روش صحیح انجام مقایسه چندگانه تحت واریانس نابرابر است؟
مقایسه چندگانه در مورد واریانس نابرابر
5792
چگونه می توانم R-square را از یک مدل fit rpart استخراج کنم؟ `rsq.rpart(fit)` دو نمودار را رسم می کند، اما من به سادگی می خواهم مقدار R-square را برای درخت کامل استخراج کنم. من فرض می‌کنم که این نسبتاً واضح است، اما جستجوهای متعدد واقعاً چیز مفیدی به همراه نداشت. هر کمکی که بتوانید ارائه دهید بسیار قدردانی خواهد شد.
R-square از مدل rpart
13764
### زمینه من در حال جمع آوری مجموعه ای از داده ها هستم که به نظر می رسد: 1. من حدود پنجاه حیوان منفرد دارم (50=n) که در حال مطالعه آنها هستم، مثلاً یک سال 2. هر سه ماه یا بیشتر، من هر یک را اندازه گیری می کرد و در مورد سلامتی آنها نمره می داد. بنابراین در پایان سال من از نظر تئوری چهار اندازه گیری/نمونه انجام می دادم. 3. نمرات 0،1،2،3،4 است که 0 بهترین و 4 بدترین است. یعنی فکر می کنم داده های گسسته رتبه بندی کرده ام؟ 4. با این حال، هر بار که من فقط می توانم حدود 30 نفر از 50 نفر را اندازه گیری کنم. بنابراین در پایان سال، برخی از حیوانات ممکن است هر بار اندازه گیری شده باشند، در حالی که برخی دیگر ممکن است فقط یک یا دو بار اندازه گیری شده باشند. ### سوال بر اساس موارد فوق، چه آزمون آماری خوبی برای مشاهده اینکه آیا کل گروه 50 نفره در طول چهار اندازه گیری تغییر کرده اند، چیست؟ حدس می زنم نوعی اندازه گیری مکرر، آزمون ناپارامتریک رتبه بندی شده ممکن است مناسب باشد؟
چگونه می توان تغییر در چهار نقطه زمانی را در یک متغیر ترتیبی مدل کرد که در آن برخی از شرکت کنندگان در برخی از مقاطع زمانی داده های گم شده دارند؟
60380
بگویید من یک دسته اندازه‌گیری در محدوده‌ای از متغیر مستقل خود دارم (داده‌های مثال در پایان) و می‌خواهم آنها را با معادله‌ای مانند منحنی مهار دارویی کلاسیک منطبق کنم: $Y=B+\frac{M-B}{1+ \exp{\left( \ln{X} - \ln{IC_{50}}\right)}}$ من نمی‌توانم از داده‌هایی با $X=0$ برای تعیین استفاده کنم پارامترهای با NLR به عنوان $\ln{0}$ تعریف نشده است، اما از نظر تئوری به صورت $X\rightarrow 0$، $Y\rightarrow M$ است. از نظر تجربی، اغلب با داشتن یک گروه درمان نشده، ترکیب یک کنترل منفی و یک خط پایه در یک درمان آسان تر است. چگونه می توانم از این گروه درمان نشده در تعیین $M$ در یک تجزیه و تحلیل NLR استفاده کنم؟ من به طور خاص از SPSS استفاده می کنم، اما هر توصیه ای با توضیح تئوری بیشتر خوب است. توجه 1: من می دانم که می توانم فقط یک مقدار کوچک دلخواه را با $X=0$ جایگزین کنم، مانند $X=10^{-20}$، اما به نظر می رسد کمی ... فریبنده است. همچنین، من احساس می‌کنم که تعریف من از «خودسرانه کوچک» می‌تواند بر نتیجه رگرسیون تأثیر بگذارد، به‌ویژه اگر رگرسیون وزنی در میان باشد. آیا راهی کمتر دلخواه وجود دارد؟ نکته 2: اگر کار را آسان‌تر می‌کند، نیازی نیست که در مورد NLR باشد، بلکه می‌تواند در مورد هر تابع پیوند مستقل مجانبی در GLM باشد. ویرایش: شاید مثال بدی را انتخاب کردم. این هم یکی دیگر: $B+\frac{M-B}{1+\exp{\left(H\left( \ln{X} - \ln{IC_{50}} \right) \right)}}$ که نیست به راحتی ساده شده است. معادله مهم نیست - چیزی که من می خواهم بدانم این است: آیا می توانم برخی از داده ها را مشخص کنم که در تعیین یک پارامتر استفاده شوند در حالی که داده های دیگر برای یافتن پارامترهای دیگر استفاده می شود، در حالی که همه اینها شامل عدم قطعیت موجود در همه اندازه گیری ها در مدل نهایی من است. مناسب؟ ویرایش 2: تا اینجا همه روی معادلات مثالی متمرکز شده‌اند که واقعاً برای سوال من مهم نیستند. برای افرادی که در آنجا هستند، این معادله را در نظر بگیرید: $A+\frac{B}{1+C\left( \ln{\left(X \right)} - ​​D \right)}$ * * * در اینجا یک مجموعه داده نمونه وجود دارد: X Y 0 0.9732462 0 0.9857081 0 1.00479 0.001 0.9811251 0.001 0.982346 0.001 1.028089 0.003 0.9731305 0.003 0.9784695 0.003 0.9815493 0.009 0.9250313090.925483090. 0.9448794 0.027 0.8100319 0.027 0.7948713 0.027 0.7979656 0.081 0.5945458 0.081 0.5938009 0.01320.01309. . 0.1432508 2.187 0.1508913
چگونه داده های جداگانه را برای پارامتر رگرسیون در رگرسیون غیرخطی کدنویسی کنیم؟
19189
به طور معمول، زمانی که فردی با معیارهای پیامد پیوسته اما کج‌رو در یک طرح طولی (مثلاً با یک اثر بین موضوعات) مواجه می‌شود، رویکرد رایج تبدیل نتیجه به حالت عادی است. اگر وضعیت افراطی باشد، مانند مشاهدات کوتاه، ممکن است فرد خیال پردازی کند و از یک مدل منحنی رشد توبیت یا برخی از این موارد استفاده کند. اما وقتی نتایجی را می بینم که به طور معمول در مقاطع زمانی معینی توزیع می شوند و سپس به شدت در سایر نقاط منحرف می شوند، دچار ضرر می شوم. تغییر شکل ممکن است یک نشتی را مسدود کند اما نشتی دیگر را بهار کند. در چنین حالتی چه پیشنهادی می توانید بکنید؟ آیا نسخه‌های «ناپارامتریک» مدل‌های جلوه‌های ترکیبی وجود دارد که من از آنها بی‌اطلاع هستم؟ توجه: یک مثال کاربردی نمرات آزمون دانش قبل/پس از یک سری مداخلات آموزشی است. نمرات نرمال شروع می شوند، اما بعداً در انتهای بالاترین مقیاس خوشه می شوند.
وقتی برخی از نقاط زمانی پاسخ‌های بسیار منحرف دارند و برخی در مطالعه اندازه‌گیری‌های مکرر این کار را نمی‌کنند، چه باید کرد؟
81476
من خیلی مطمئن نیستم که چگونه خطای اندازه گیری را به درستی تفسیر کنم: به عنوان یک ثابت، به عنوان یک سوگیری یا به عنوان یک عامل تعدیل کننده؟ آیا فرض می شود که خطای اندازه گیری شامل اثرات تعدیل کننده است؟ اجازه دهید در چارچوب متاآنالیز اندازه اثر باشد.
آیا خطای اندازه گیری شامل اثرات متغیرهای تعدیل کننده می شود؟
82782
آیا کسی می‌داند، با توجه به مدل ARIMAX که برازش یک فرآیند ثابت Y دارد، آیا اجزای برون‌زا برای مدل باید (ضعیف) ثابت باشند؟ من فکر می کنم اجزای برون زا می توانند هر فرآیندی باشند، حتی مولفه های غیر قطعی، درست است؟
اجزای برون زا مدل ARIMAX؟
5797
با توجه به «درمان‌های» احتمالی $K$ از نوعی، و مشاهدات مستقل برخی از پاسخ‌ها تحت آن درمان‌ها، برای $i=1,\ldots,n_k$ و $k=1,\ldots بگویید $X_{i,k}$ K$، من با معضل کلاسیک داده کاوی روبرو هستم. وظیفه این است که به طور همزمان: 1. درمان را پیدا کنید، بگویید $k^*$، که اثر را به حداکثر می‌رساند، و 2. اندازه اثر درمان را $k^*$ تخمین بزنید. در اینجا می توانید اندازه افکت را به عنوان معیاری برای موقعیت مکانی در نظر بگیرید، مثلاً میانگین. رویکرد ساده لوحانه به این مشکل به شرح زیر است: 1. اندازه اثر هر درمان را تخمین بزنید. به عنوان مثال، اگر اندازه اثر میانگین است، اجازه دهید $\bar{X_k} = (\sum_i X_{i,k}) / n_k$. 2. درمانی را انتخاب کنید که اثر تخمینی را به حداکثر می‌رساند، _یعنی_ اجازه دهید $k^* = \arg\max_k \bar{X_k}$. 3. اندازه اثر $k^*$ را با $\bar{X_{k^*}}$ برآورد کنید. البته مشکل این است که تخمین اندازه اثر بهینه دارای سوگیری مثبت است، زیرا انتخاب درمان بهینه مستقل از اندازه‌های اثر تخمینی نیست، که بدون قید و شرط بی‌طرف هستند. علاوه بر این، اهداف اغلب تا حدودی گسترده‌تر هستند: به جای انتخاب درمانی که اثر را به حداکثر می‌رساند، ما وظیفه داریم درمان‌ها را با اندازه اثر تخمینی و تخمین اندازه اثر مرتب کنیم. به همین دلیل، من به دنبال نوعی تابع $f$ هستم که اندازه‌های اثر تخمینی را بی طرفانه کند، اما یکنواختی را حفظ کند. یعنی $f$ یک بردار $K$ را به یک بردار $K$ می برد و 1. $f$ یکنواختی را حفظ می کند: اگر $\bar{X_{i_1}} \le \bar{X_{i_2}} \le \ldots \le \bar{X_{i_K}}$ و $(Y_1,Y_2,\ldots,Y_K) = f(\bar{X_1}،\bar{X_2}،\ldots،\bar{X_K})$، سپس $Y_{i_1} \le Y_{i_2} \le \ldots \le Y_{i_K}$. 2. $f$ (تقریباً، احتمالاً تحت فرضیات عجیب و غریب) تخمین‌های اندازه اثر را بی‌طرف می‌کند: اگر $(Y_1,Y_2,\ldots,Y_K) = f(\bar{X_1},\bar{X_2},\ldots,\ نوار{X_K})$ و $Y_{i_1} \le Y_{i_2} \le \ldots \le Y_{i_K}$، سپس $Y_{i_j}$ تخمینی (تقریباً) بی‌طرفانه از اندازه تأثیر کوچکترین تأثیر $j$th است. احتمالاً چنین تابعی باید از برخی اطلاعات اضافی مانند تعداد مشاهدات $n_k$ و مقداری از میزان گسترش پاسخ تحت هر درمان آگاه باشد. اگر خطاهای استاندارد تخمین اثر به شدت متفاوت باشد، احتمالاً شرط یکنواختی مشکوک است. در صورت امکان آن را زیر فرش بکشید. من همچنین به رویکردهایی برای این مشکل علاقه مند هستم، زمانی که مشاهدات پاسخ مستقل نیستند، بلکه آنها جفت هستند.
آیا تصحیح سوگیری برای اندازه اثر در زمینه داده کاوی وجود دارد؟
96341
من قصد دارم یک تحلیل مقرون به صرفه (CEA) از معرفی یک واکسن جدید برای HPV (ویروس پاپیلومای انسانی) در یک کشور در حال توسعه انجام دهم (من فکر می کنم این کار از دیدگاه اجتماعی انجام خواهد شد) من مجموعه داده ای از یک بررسی شیوع ملی (اجتماعی جمعیت شناختی، عادات، غذاهای خورده شده، متغیری که نشان می دهد زنان مبتلا به HPV هستند یا نه...) من عوامل خطر و عوامل خطر را تعیین کرده ام. شیوع بیماری با توجه به این مجموعه داده، اما مجموعه داده هیچ ارتباطی با واکسن ندارد. با توجه به آنچه خوانده ام، فکر می کنم که باید اثربخشی واکسن (QALY)، کل هزینه را داشته باشم... من واقعاً در این زمینه تجزیه و تحلیل تازه وارد هستم. سوالات من در مورد مراحل اولیه CEA است: تمام داده هایی که نیاز دارم چیست؟ چگونه می توانم آنها را با توجه به مجموعه داده هایم تخمین بزنم؟ اگر از مجموعه داده خود استفاده نکنم، از کجا می توانم اطلاعات مورد نیاز را دریافت کنم؟
داده های مورد نیاز برای انجام تجزیه و تحلیل اثربخشی هزینه چیست؟
94274
من سعی می کنم یک مدل ترکیبی پیوند تجمعی clmm() را در Rstudio قرار دهم. من در حال حاضر با تشخیص مشکل مدل من از خروجی ای که دریافت می کنم، مشکل دارم. خروجی ای که از مدل خود گرفتم نام متغیرها را تغییر می دهد. این فقط برای متغیرهای ساختگی اتفاق می افتد، اما نه برای متغیرهای مقیاس. آیا کسی می داند که این نشان دهنده چیست، یا آیا باید نگران آن باشم؟ نام ها نیز اولین بار متناسب با مدل تغییر کردند. من این مشکل را با تغییر کنتراست برخی از پارامترها برطرف کردم. اکنون به نظر می رسد این متغیرها نام های مناسبی دارند. با این حال، همگروهی و جنسیت اینطور نیستند. با احترام، اسکار ویرایش: مشکلات واردات رفع شد. اخطارهای باقی مانده را می توان با توجه به پاسخ های پست های دیگر نادیده گرفت. لینک خروجی دوم اضافه شد دسته های آموزشی را کمی ویرایش کردم. به نظر می رسد این روی روند تکرار تأثیر زیادی گذاشته است، اکنون من هشدارهای بسیار بیشتری از clmm دارم. من دوباره به توزیع متغیرهای آموزش نگاه خواهم کرد تا ببینم آیا می توانم توزیع مساوی بیشتری در بین دسته ها داشته باشم. لینک خروجی: https://www.dropbox.com/s/a2qrf5yvxpid9ct/Rquestions.docx لینک خروجی 2: https://www.dropbox.com/s/8tah94zr4dw0xs1/Rquestions.rtf
مدل ترکیبی تجمعی در نام متغیرهای R
65605
من می‌خواهم خطای استاندارد ناحیه زیر منحنی محاسبه‌شده با آزمون من ویتنی U-Test (MWUT) را محاسبه کنم. هانلی و مک نیل 1982 فرمولی برای آن ارائه می دهند (آنها AUC محاسبه شده با MWUT را W می نامند). با این حال، پیاده‌سازی آن برایم سخت است، بنابراین می‌خواهم آن را بوت‌استرپ کنم تا کارم را بررسی/جایگزین کنم. سوال من این است که چگونه از دو توزیع برای اجرای بوت استرپ نمونه برداری کنم؟ آیا باید از آنها به طور مستقل نمونه‌گیری مجدد کنم یا از کل مجموعه با هم نمونه‌برداری مجدد کنم و برچسب‌های کیس را پیگیری کنم؟ نگرانی دیگری که من دارم این است که چگونه نمونه‌گیری مجدد بر MWUT تأثیر می‌گذارد، با توجه به اینکه رتبه‌های مساوی وجود دارد.
نحوه بوت استرپ برای خطای استاندارد یک تست دو نمونه
82875
اگر $X^\dagger$ معکوس کاذب $X$ باشد، $\beta = X^\dagger y$ راه حل حداقل مربعات برای $\beta$ زمانی است که $y=X\beta$ است. در حالتی که بیش از حد تعیین شده است، اعمال $X^{\dagger,L} = (X^TX)^{-1}X^T$ مربوط به حداقل هنجار باقیمانده است (بالا $L$ برای نشان دادن معکوس سمت چپ استفاده می شود). در حالت نامشخص، اعمال $X^{\dagger,R} = X^T(XX^T)^{-1}$ مطابق با حداقل هنجار $\beta$ است (بالا $R$ برای نشان دادن معکوس راست استفاده می شود) . اگر من برای $\beta$ در یک سیستم نامشخص با استفاده از $X^{\dagger,L}$ به جای $X^{\dagger,R}$ حل کنم، راه حل از نظر مفهومی با چه چیزی مطابقت دارد؟
تفسیر ضرایب رگرسیون به دست آمده از اعمال معکوس چپ ماتریس رگرسیون در یک سیستم نامشخص؟