_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
112618
این یک مشکل واقعی کسب و کار کوچک است، نه یک مشکل تکلیف. هدف تولید ماهانه 60000 است. ما می خواهیم مطمئن باشیم که مثلاً 95 درصد ماه ها این هدف را برآورده می کنند. هدف حداقل است، بنابراین می‌خواهیم مطمئن باشیم که تحت این شرایط نیستیم، اما برایمان مهم نیست که چقدر به پایان رسیده‌ایم. ما می‌خواهیم از تولید روزانه به عنوان بررسی در مورد اینکه آیا احتمال دارد به هدف تولید ماهانه برسیم یا خیر استفاده کنیم. ما واقعاً اهمیتی نمی‌دهیم که تولید یک روزه چقدر کم است تا زمانی که روزهای دیگر آن را جبران کنند، اما اگر یک روز خیلی کم باشیم، باید سیگنالی باشد که در رسیدن به هدف تولید ماهانه مشکلی وجود خواهد داشت. چگونه تعیین کنیم چه چیزی برای تولید روزانه خیلی کم است؟ ساده ترین روش این است که تولید ماهانه را بر تعداد روزهای کاری (مثلا 16) تقسیم کنید تا به اهداف تولید روزانه برسید. این کار به این معنا است که اگر شما به هر هدف تولید روزانه برسید، هدف تولید ماهانه را برآورده خواهید کرد، اما تنوع طبیعی در تولید روزانه را نادیده می گیرد. خیلی شدید است. ما باید بتوانیم تولید روزانه داشته باشیم که مقداری کمتر از این مقدار باشد بدون اینکه نگران باشیم. شما می توانید توزیع نرمال تولید روزانه را با خطاهایی که از روز به روز مستقل هستند فرض کنید، و اینکه ما یک تاریخچه تولید روزانه داریم که از آن می توانیم واریانس تولید روزانه را تخمین بزنیم. با تشکر از کمک شما.
از تولید روزانه به عنوان بررسی احتمال تحقق هدف تولید ماهانه استفاده کنید
51296
من تعجب می کنم که چگونه می توان با استفاده از یک ماتریس سردرگمی برای یک مسئله طبقه بندی چند طبقه، دقت را محاسبه کرد و به یاد آورد. به طور خاص، یک مشاهده فقط می تواند با محتمل ترین کلاس / برچسب اختصاص داده شود. من می خواهم * Precision = TP / (TP+FP) * Recall = TP / (TP+FN) را برای هر کلاس محاسبه کنم و سپس میانگین F-Measure را محاسبه کنم.
چگونه می توان دقت و فراخوانی را برای طبقه بندی چند کلاسه با استفاده از ماتریس سردرگمی محاسبه کرد؟
85488
با توجه به پست (1) و پست (2)، تعداد زیادی از نقاط توزیع شده به طور یکنواخت در داخل توپ به شعاع $R$ با استفاده از $\frac{R_s U^{1/3}}{\sqrt{X_1^ ایجاد کردم. 2 + X_2^2 + X_3^2}} (X_1، X_2، X_3)$، که در آن $U$ به طور یکنواخت بین 0 و 1 توزیع شده است، و $X_1، X_2، X_3$ متغیرهای تصادفی عادی مستقل با میانگین 0 و واریانس 1 هستند. شکل زیر یک توزیع کروی یکنواخت را نشان می دهد که با این روش با استفاده از 10000 ترسیم مستقل در کره ای به شعاع 10 به دست آمده است. ![شرح تصویر را اینجا وارد کنید](http://i. .stack.imgur.com/kzBDU.png) با محاسبه فاصله نزدیکترین همسایه $d_i$ از هر نقطه، مشاهده کردم که نمودار تشخیصی فاصله نزدیکترین همسایه از توزیع یکنواخت پیروی نمی کند. آیا این توزیع غیر یکنواخت به این معنی است که می توان نقاط را خوشه بندی کرد؟ آیا به این معنی است که نقاط تصادفی فضایی ندارند؟ اگر چنین است، پس چگونه می توانم نقاط تصادفی را با فاصله نزدیکترین همسایه یکسان ایجاد کنم. * * * تصاویر موقت برای در نظر گرفتن @Anony-Mousse: ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/txV1K.png) ![شرح تصویر را اینجا وارد کنید](http://i. stack.imgur.com/1wLfB.png)
نحوه ایجاد نقاط تصادفی در حجم یک کره با فاصله نزدیکترین همسایه یکنواخت
74468
فرض کنید کیسه‌ای با کاشی‌های $n$ داشتید که روی هر کدام یک حرف وجود داشت. کاشی های $n_A$ با حرف A، $n_B$ با B و غیره، و $n_*$ کاشی های wildcard وجود دارد (ما $n = n_A + n_B + \ldots + n_Z + n_* داریم. دلار). فرض کنید یک فرهنگ لغت با تعداد محدود کلمات دارید. کاشی‌های $k$ را بدون تعویض از کیسه انتخاب می‌کنید. **احتمال اینکه بتوانید یک کلمه معین به طول $l$ (با 1 <$l$ =<$k$) را از فرهنگ لغت با توجه به کاشی‌های $k$ انتخاب شده محاسبه کنید (یا تخمین بزنید) را چگونه محاسبه می‌کنید؟* * برای کسانی که با Scrabble (TM) آشنایی ندارند، می توان از کاراکتر wildcard برای مطابقت با هر حرفی استفاده کرد. بنابراین کلمه BOOT می تواند املا با کاشی های B، *، O، T باشد. ترتیب ترسیم حروف مهم نیست. پیشنهاد: برای ساده‌نویسی پاسخ‌ها، شاید بهتر باشد فقط به این سؤال پاسخ دهید: پس از کشیدن 7 حرف از یک کیف تازه، احتمال وجود کلمه BOOT در بین حرکات احتمالی شما چقدر است. _(مقدمه مشکل از همین سوال مشابه کپی شده است)_
احتمال رسم یک کلمه داده شده از یک کیسه حروف در Scrabble
77279
به عنوان مثال، انحراف معیار دارای بایاس است که به تعداد نمونه های مشاهده شده بستگی دارد. اگر من بخواهم استنتاج بیزی را روی SD نمونه‌های دو جامعه انجام دهم، و از هر کدام اندازه‌های نمونه نابرابر داشته باشم، آیا استنتاج حاصل این سوگیری را در نظر می‌گیرد؟ (بله، من می دانم که سوگیری در انحراف معیار واقعاً به طور قابل تشخیص آشکار نمی شود مگر اینکه N بسیار کوچک داشته باشید، اما من بیشتر به سؤال نظری علاقه مند هستم. به علاوه، من داده های سلسله مراتبی با تعداد زیادی واحد دارم. مشاهده، اما مشاهدات اندک در هر واحد و یک سوگیری سیستماتیک برای مشاهدات بیشتر در یک شرایط آزمایشی خاص نسبت به شرایط دیگر، که باعث ایجاد ترس در تجزیه و تحلیل مورد نظر من از SD در داخل می شود. هر سطح از واحد متقاطع-با-شرایط.)
آیا تجزیه و تحلیل داده های بیزی سوگیری برآوردها را در نظر می گیرد؟
81368
من نمونه ای از مدل های تعمیم یافته، خطی و ترکیبی را بازتولید می کنم. MWE من در زیر است: Dilution <- c(1/128، 1/64، 1/32، 1/16، 1/8، 1/4، 1/2، 1، 2، 4) NoofPlates <- rep(x =5، بار = 10) بدون مثبت <- c(0، 0، 2، 2، 3، 4، 5، 5، 5، 5) داده <- data.frame(رقت، NoofPlates، NoPositive) fm1 <- glm(formula=NoPositive/NoofPlates~log(رقیق)، خانواده=دوجمله ای(logit)، داده=داده) خلاصه (object=fm1) * * * **خروجی** * * * تماس: glm(فرمول = NoPositive/NoofPlates ~ log(رقیق)، خانواده = دوجمله ای (logit)، داده = داده) Deviance Residuals: Min 1Q Median 3Q Max -0.38326 -0.20019 0.00871 0.15607 0.48505 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) 4.174 2.800 1.491 0.136 log(رقیق) 1.623 1.022 1.587 0.112 (پارامتر پراکندگی برای خانواده دو جمله ای 1 گرفته شده است) انحراف تهی 24 درجه آزادی: 18 0.64658 در 8 درجه آزادی AIC: 6.8563 تعداد تکرارهای امتیازدهی فیشر: 6 * * * **کد** * * * anova(object=fm1, test=Chisq) * * * **خروجی** * * * تجزیه و تحلیل مدل جدول انحراف: دو جمله ای، پیوند: logit پاسخ: NoPositive/NoofPlates شرایط اضافه شده است به صورت متوالی (اول تا آخرین) Df Deviance Resid. دی اف رزید. Dev Pr(>Chi) NULL 9 8.2424 log(Dilution) 1 7.5958 8 0.6466 0.00585 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 * * * **Code** * * * library(aod) wald.test(b=coef(object= fm1)، Sigma=vcov(object=fm1)، Terms=2) * * * **خروجی** * * * تست Wald: ---------- آزمون مجذور کای: X2 = 2.5، df = 1، P(> X2) = 0.11 ضرایب تخمینی کاملاً با نتایج ارائه شده در کتاب مطابقت دارند، اما ضرایب SE با یکدیگر فاصله زیادی دارند. بر اساس آزمون LRT شیب معنی دار است اما بر اساس ضریب شیب والد و Z-test ناچیز است. نمی‌خواهم چیزی اساسی را از دست بدهم. پیشاپیش از کمک شما سپاسگزارم
آزمون نسبت درستنمایی و آزمون والد نتیجه‌گیری متفاوتی را برای glm در R ارائه می‌دهند
101089
من با scikit-learn بازی می کنم تا مقادیر tf-idf را پیدا کنم. من مجموعه ای از اسناد دارم مانند: D1 = آسمان آبی است. D2 = خورشید روشن است. D3 = خورشید در آسمان روشن است. من می‌خواهم ماتریسی به این صورت ایجاد کنم: Docs آبی روشن آسمان خورشید D1 tf-idf 0.0000000 tf-idf 0.0000000 D2 0.0000000 tf-idf 0.0000000 tf-idf D3 0.00000000 tf-idf، کد من tf-idf `Python` عبارت است از: import nltk import string from sklearn.feature_extraction.text import TfidfVetorizer from nltk.corpus import stopwords train_set = [آسمان آبی است، خورشید روشن است، خورشید در آسمان روشن است] stop_words = stopwords .words('english') transformer = TfidfVetorizer(stop_words=stop_words) t1 = transformer.fit_transform(train_set).todense() print t1 ماتریس نتیجه ای که دریافت می کنم این است: [[ 0.79596054 0. 0.60534851 0. ] [ 0. 13.847] [0. 0.694.2] 0. 0.57735027 0.57735027 0.57735027]] اگر من یک محاسبه دستی انجام دهم، ماتریس باید این باشد: Docs آبی روشن آسمان خورشید خورشید D1 0.2385 0.0000000 0.0880 0.000000000000000 0.0000000 0.0880 D3 0.0000000 0.058 0.058 0.058 من مانند «آبی» به عنوان «tf» = «1/2 = 0.5» و «idf» به عنوان «log(3/1) = 0.4772» محاسبه می‌کنم. بنابراین «tf-idf = tf*idf = 0.5*0.477 = 0.2385». به این ترتیب، من مقادیر دیگر «tf-idf» را محاسبه می‌کنم. حالا من تعجب می کنم که چرا در ماتریس محاسبه دست و در ماتریس پایتون نتایج متفاوتی می گیرم؟ کدام نتایج صحیح را می دهد؟ آیا در محاسبه دستی کار اشتباهی انجام می دهم یا در کد پایتون من مشکلی وجود دارد؟
تفاوت در مقادیر ماتریس tf-idf با استفاده از scikit-learn و محاسبه دستی
85734
من یک سرویس کوتاه کردن آدرس اینترنتی دارم. من می خواهم فقط آمار قانونی را به مشتریان خود ارائه دهم. سناریوهای احتمالی وجود دارد که یک کاربر خاص یک اسکریپت بنویسد تا به طور خودکار URL کوتاه شده را باز کند و در نتیجه آمار بد به نظر برسد. برای تشخیص قانونی بودن یا نبودن کلیک چه رویکردهایی را می توان دنبال کرد؟ لطفاً منابع مناسبی مانند ابزارها یا مقالات تحقیقاتی را به من معرفی کنید. رویکرد بسیار اساسی که می توانم به آن فکر کنم این است که آدرس IP کاربر را زیر نظر بگیرم و اگر تعداد درخواست ها از یک آستانه فراتر رفت مسدود کنیم.
الگوریتم هایی برای تشخیص ربات هایی که روی یک URL کوتاه شده کلیک می کنند چیست؟
73798
فرض کنید $a_1 = b + c_1$ و $a_2 = 2b + c_2$ که $b، c_1، c_2$ همه $N(0,1)$ هستند $E[b|a_1,a_2]$ را پیدا کنید تلاش من: به عنوان $ E[b] = 0$، فرض می‌کنم $E[b|a_1، a_2] = 0$. آیا این یک فرض منطقی است؟
یافتن مقدار مورد انتظار دو متغیر تصادفی عادی
74463
من یک متغیر توضیحی دارم که همانطور که در پانوشت 25 مقاله پیشنهاد شده است به صورت زیر تبدیل می شود (متغیر توضیحی پیوسته است و می تواند مقادیر منفی، صفر یا مثبت بگیرد) \begin{equation}y=\text{sign}(x)\ ,\log{(|x|+1)} \end{equation} که در آن $\text{sign}(x)$ مقدار $1$ می گیرد اگر $x>0$، $0$ اگر $x=0$، و $-1$ اگر $x<0$. فرض کنید متغیر وابسته من $y$ باشد (تبدیل نشده است). اکنون باید مشتق $y$ را با توجه به $x$ بگیرم تا اثر حاشیه ای و کشش را پیدا کنم. من این کار را به صورت زیر انجام دادم: \begin{equation} \frac{\partial y}{\partial x}=\text{sign}(x)\,\frac {1}{(|x|+1)}\, \frac{\partial|x|}{\partial x} \end{equation} تا جایی که من متوجه شدم $\frac{\partial|x|}{\partial x} =1$ اگر $x>0$ و $\frac{\partial|x|}{\partial x} =-1$ اگر $x<0$، و برای $x=0$ تعریف نشده است. سوال من این است که چگونه اثر حاشیه ای مشاهده را با مقدار $x=0$ با این تبدیل محاسبه کنم.
مشتق متغیر توضیحی تبدیل شده
58664
اخیراً، مرور تصادفی سؤالات، خاطره ای از اظهار نظر غیرمجاز را از سوی یکی از اساتید من در چند سال پیش ایجاد کرد که در مورد استفاده از نسبت ها در مدل های رگرسیون هشدار داده بود. بنابراین من شروع به خواندن در این مورد کردم و در نهایت به Kronmal 1993 منتهی شدم. 1. برای مدلی با نسبتی با مخرج یکسان در هر دو طرف وابسته و مستقل: $ Z^{-1}Y = Z^{-1}1_n\beta_0 + Z^{-1}X\beta_X + \ beta_Z + Z^{-1}\epsilon $ * نسبت وابسته به رگرسیون به متغیر مخرج (معکوس) علاوه بر نسبت‌های دیگر * وزن با (معکوس) متغیر مخرج 2. برای مدلی با متغیر وابسته به عنوان نسبت: $ Y = \beta_0 + \beta_XX + Z1_n\alpha_0 + ZX\alpha_X + Z^{-1}\epsilon $ * رگرسیون کسر بر اساس متغیرهای اصلی، مخرج، و مخرج بار متغیرهای اصلی [متغیرهای طبقه بندی چطور؟] * وزن بر مخرج (معکوس) 3. برای مدل فقط با نسبت متغیر مستقل: $ Y = \beta_0 + X\beta_X + Z^{-1}1_n\beta_{Z^{-1}} + W\beta_W + Z^{-1}W\ beta_{Z^{-1}W} + \epsilon $ * شامل شمارنده و مخرج (معکوس) به عنوان اثرات اصلی، نسبت به عنوان عبارت تعامل. آیا تفسیرهای من در اینجا درست است؟ با تشکر
نسبت ها در رگرسیون، با نام مستعار سؤالات در مورد کرونمال
84328
هنگام تخمین محاسبات توان برای یک مطالعه موردی شاهد، واقعاً قرار گرفتن در معرض کنترل ها به چه معناست؟ من اطلاعات زیادی در مورد نحوه محاسبه قرار گرفتن در معرض برای مواردی پیدا کردم که از قبل میزان نوردهی را در کنترل‌ها می‌دانید - اما هیچ چیز درباره نحوه محاسبه تعداد واقعی برای کنترل‌ها نیست. لطفا منو روشن کن!
قرار گرفتن در معرض در محاسبات قدرت
74460
بگذارید X، Y، Z i.i.d باشند. متغیرهای تصادفی گاما توزیع شده است. حالت بردار $(X, X+Y, X+Y+Z)$ چگونه می تواند باشد؟ آیا حالت یک بردار تصادفی با ترکیب حالت های حاشیه ای برابر است؟
حالت توزیع گاما چند متغیره
84289
من کمی تازه وارد شبکه عصبی هستم. من دو سوال دارم: 1. آیا می توانیم از شبکه عصبی در موقعیت کوچک $n$ بزرگ $p$ استفاده کنیم؟ 2. آیا روشهای منظم سازی برای حذف پارامترها طراحی شده است؟ (مقداری $\omega$ را به 0 کوچک کنید). به عنوان مثال تنظیم کننده $L_1$ را به عنوان کمند اضافه کنید؟ من روش هایی را برای جلوگیری از تناسب بیش از حد می شناسم (کاهش وزن، توقف زودهنگام و غیره) اما هیچ کدام از آنها پارامترها را به 0 کاهش نمی دهند.
حذف پارامتر وزن در شبکه عصبی
85483
من با بسته R muhaz کار می کنم تا تخمین هسته تابع خطر را بدست بیاورم. اگر مثال زیر را داشته باشیم که نمونه داده های بدون سانسور است: x =c(0.001409591, 0.008451294, 0.019719245, 0.046626865 , 0.244813744, 0.41003249, 0.41003214 0.697342699، 0.731541987، 0.954493031) fit = muhaz(x, rep(1, length(x))، bw.method=local، b.cor=both، n.min.grid=51، n.est. grid=101, kern=epanechnikov) دو سوال دارم: 1) چگونه می توانم تابع خطر تخمینی را به عنوان فرمول بر حسب نتیجه تناسب بنویسید؟ چگونه می‌توانیم تابع خطر تخمینی را برای هر مقدار تمایل و نه فقط برای نقاط شبکه (نقاط fit$est.grid) بدست آوریم؟ 2) آیا می توان تابع چگالی تخمینی را بدست آورد؟ زیرا تا آنجا که من می دانم نتیجه آن را فراهم نمی کند. چگونه می توانیم تابع چگالی تخمین زده شده را برای هر مقدار میل بدست آوریم؟ نه فقط برای نقاط شبکه (fit$est.grid points).
تخمین کرنل خطر یا تابع چگالی
77278
تقریباً در تمام متونی که قضایای یادگیری آماری را مورد بحث قرار می دهند، تحلیل توزیع ناشناخته دلخواه (بدترین حالت) را فرض می کنند. اما در عمل مسائل مختلف (داده‌های مختلف) دارای سطوح سختی متفاوتی هستند، برای مثال داده‌های جداسازی‌پذیر خطی آسان‌تر از داده‌هایی که کمتر (یا نه) قابل تفکیک توسط ابرصفحه‌ها هستند، قابل یادگیری است. آیا کارهایی در مورد رسمی کردن سختی داده ها وجود دارد (مشابه کارهایی که در نظریه پیچیدگی انجام می شود) توجه: مطمئن نیستم که آیا همان تجزیه و تحلیل VC-dimension است یا نه، اما فکر می کنم اینطور نیست.
در مورد سختی داده ها برای یادگیری
43955
من به دنبال منابع (مقالات، کتاب ها یا فقط پیشنهادات) در مورد تخمین پارامترهای سری زمانی چرخه ثابت هستم. من یک سیگنال 2 بعدی از آن نوع دارم که یک شبکه را تشکیل می دهد.
تخمین پارامتر سری زمانی چرخه ایستایی
85486
من یک رگرسیون OLS پانل را با استفاده از gretl روی یک پانل متعادل با حدود 25 منطقه و 10 دوره زمانی انجام دادم. من می خواهم از مدل برای پیش بینی مقادیر آتی y (متغیر وابسته)، با توجه به تغییرات آتی شناخته شده x (متغیر توضیحی) استفاده کنم. من می خواهم بپرسم: چگونه با (الف) ثابت، (ب) آدمک های واحد برخورد کنیم. (ج) زمان‌های ساختگی زمانی که نوبت به پیش‌بینی می‌شود. آیا باید یکی/همه موارد فوق را در محاسبه y-hat لحاظ کنم یا به سادگی از ضریب برای ترم x استفاده کنم؟
استفاده از ضرایب OLS پانل برای پیش بینی - gretl
33377
من مجموعه داده‌هایی از بازده دو شاخص در یک بازار دارم (دو مجموعه مختلف سهام که هر شاخص را تشکیل می‌دهند)، با 496 مشاهده برای هر کدام. من می خواهم مقایسه کنم که آیا میانگین ها از نظر آماری متفاوت است. من معتقدم واریانس ها متفاوت هستند، بنابراین فکر می کنم باید ابتدا بررسی کنم که آیا واریانس ها از نظر آماری متفاوت هستند یا خیر. چگونه این کارها را انجام دهم؟
مقایسه میانگین دو سری زمانی
85487
فرض کنید من $X,Y$ دارم که متغیرهای تصادفی مستقل هستند. چرا $E(\frac{X}{Y}) = E(X)E(\frac{1}{Y})$ است؟ همچنین، چرا $E(X^2Y^2)=E(X^2)E(Y^2)$ است؟ چگونه است که مربع یک متغیر تصادفی مستقل در رابطه با $Y$ یا $Y^2$ نیز مستقل است؟ با تشکر
انتظار تقسیم یک متغیر تصادفی بر دیگری (هر دو مستقل) چیست؟
41081
من دو ستون داده دارم و می خواهم تفاوت های آنها را از طریق رویکرد تجسم نشان دهم. مسئله فعلی این است که این دو ستون در واقع بسیار نزدیک به یکدیگر هستند. به عبارت دیگر، من می خواهم تفاوت های جزئی را که وجود دارد با استفاده از روش گرافیکی بزرگنمایی کنم. آیا پیشنهادی وجود دارد؟ با تشکر در اینجا بخشی از مجموعه داده است. ستون سوم تفاوت بین ستون اول و ستون دوم است. 0.999998295 0.999998331 -3.56E-08 0.99999381 0.999986678 7.13E-06 0.999997682 0.999998494 0.999998494 -8.10999389 0.999989062 3.67E-07 0.999998877 0.999998505 3.72E-07 0.999995327 0.999996709 -1.38E-06 0.999999959 0.999999595 6.33E-07 0.999997484 0.999996701 7.83E-07 0.999998829 0.999998076 7.53E-07 0.999997523 0.999999678 0.999998829 0.999998287 0.999996964 1.32E-06 0.999983543 0.999989135 -5.59E-06 0.999992705 0.999994249 0.999994249 -1.5994249 -1.59983569-1.5969 0.999998168 -2.50E-06 0.999997263 0.999999195 -1.93E-06 0.999994474 0.999996713 -2.24E-06 0.999999930 -1.00E-06 0.999998295 0.999996262 2.03E-06 0.99999736 0.999998185 -8.25E-07 0.999983507 0.9999996207 0.9999997500 0.999996339 0.999996597 -2.58E-07
تجسم دو متغیر که مقادیر بسیار مشابهی دارند
41086
چگونه می توانم یک جفت را برای بردار دو متغیره دو جمله ای منفی و حاشیه برنولی برازم؟ من کوپال فرانک یا کلایتون را ترجیح می دهم.
برازش کوپول برای حاشیه های گسسته
85732
جدول زیر را ارائه دهید مرد | زن | تعداد لایک ها 10 | 3 | 13 بی تفاوت 20 | 20 | 40 دوست نداشتن 10 | 9 | 19 مجموع 40 32 72 در اینجا متغیر مستقل جنسیت است که اسمی است. متغیر وابسته که ترتیبی است یا دوست دارند، بی تفاوت یا دوست ندارند. من می‌توانم از آزمون Chi Square یا Exact Fisher استفاده کنم تا مشخص کنم آیا H0 مانند _مردان و زنان به یک اندازه لایکر هستند_ باید رد شود. با این حال، سوالی که می‌خواهم بعد از این به آن پاسخ دهم این است: **کدام جنسیت به طور قابل توجهی بیشتر از دیگری ممکن است دوست داشته باشد؟ و چقدر؟** برای مثال: مردان x% به طور قابل توجهی بیشتر از زنان احتمال لایک دارند. فکر می‌کردم مرحله بعدی انجام آزمایشی بین لایک‌کننده و هر گروه است: یعنی مردها و لایک‌ها. اما من گیج شدم زیرا فکر می کردم باید مردها را با زن ها با توجه به لایک ها مقایسه کنم. آیا روش استانداردی برای نزدیک شدن به این سوال وجود دارد؟
کدام گروه از یک متغیر مستقل بیشتر و به چه میزان بر متغیر وابسته تأثیر می گذارد
84287
من مشکلی دارم که به نظر نمی‌رسد آن را حل کنم: قبلی: $\beta_h \sim \mathcal{N}(\bar{\beta},D)$. به نوعی قسمت عقبی $\beta_h \sim \mathcal{N}(M, \Omega)$ است که $M=(D^{-1}+X'X)^{-1}(D^{-1} \bar{\beta}+X'p)$ و $\Omega=(D^{-1}+X'X')^{-1}$، که $X$ یک ماتریس داده است و $p$ یک داده بردار چگونه می توانم ثابت کنم که $M$ و $\Omega$ چنین هستند؟ تابع احتمال چه خواهد بود؟ من 7 سوال مشابه دارم که برای من بی معنی است.
استخراج توزیع خلفی نرمال چند متغیره
41089
من در حال آزمایش یک سیستم توصیه برای مقالات (اخبار، مجلات و غیره) هستم. آیا مجموعه داده ای برای همان داده موجود است که شامل اطلاعات جمعیت شناختی کاربران نیز باشد؟ من در واقع سعی می‌کنم اطلاعات جمعیت‌شناختی را نیز در توصیه‌ها بگنجانم، از این رو به دنبال چنین مجموعه داده‌ای هستم. من واقعاً نمی‌خواهم چنین داده‌هایی را شبیه‌سازی کنم، زیرا فکر می‌کنم داده‌های واقعی بینش‌های بسیار جالب‌تری نسبت به شبیه‌سازی‌شده ارائه می‌دهند. کسی از چنین چیزی مطلع است؟ من یکی از http://contest.plista.com/ را پیدا کردم، اما متأسفانه به نظر می‌رسد که مجموعه داده‌های آلمانی و اطلاعات جمعیت‌شناختی آن وجود ندارد. از هرگونه اطلاعاتی در اینجا قدردانی می کنیم.
مجموعه داده برای توصیه مقاله با داده های جمعیت شناختی
85730
من می دانم که این ممکن است از نظر آماری کمی بد باشد، اما این مشکل من است. من داده های محدوده زیادی دارم، یعنی حداقل، حداکثر و اندازه نمونه یک متغیر. برای برخی از این داده ها من نیز یک میانگین دارم، اما نه تعداد زیادی. من می‌خواهم این محدوده‌ها را با یکدیگر مقایسه کنم تا تغییرپذیری هر محدوده و همچنین میانگین‌ها را مقایسه کنم. من دلیل خوبی برای این فرض دارم که توزیع حول میانگین متقارن است و داده ها دارای یک توزیع گاوسی خواهند بود. به همین دلیل، فکر می‌کنم می‌توانم استفاده از نقطه میانی توزیع را به‌عنوان نماینده‌ای برای میانگین، زمانی که وجود ندارد، توجیه کنم. کاری که من می خواهم انجام دهم این است که یک توزیع برای هر محدوده بازسازی کنم و سپس از آن برای ارائه یک انحراف استاندارد یا خطای استاندارد برای آن توزیع استفاده کنم. تنها اطلاعاتی که من در اختیار دارم حداکثر و حداقل مشاهده شده از یک نمونه و نقطه میانی به عنوان پروکسی برای میانگین است. به این ترتیب امیدوارم بتوانم میانگین های وزنی را برای هر گروه محاسبه کنم و همچنین ضریب تغییرات را برای هر گروه بر اساس داده های دامنه ای که دارم و فرضیاتم (از یک توزیع متقارن و نرمال) محاسبه کنم. من قصد دارم از R برای انجام این کار استفاده کنم، بنابراین هر کمکی برای کد نیز قابل قدردانی خواهد بود.
آیا می توانم توزیع نرمال را از روی حجم نمونه و مقادیر حداقل و حداکثر بازسازی کنم؟ من می توانم از نقطه میانی برای پراکسی میانگین استفاده کنم
59850
من یک مدل HLM با واریانس معنی‌دار در سطح 1 بین گروه‌ها دارم، اما واریانس معنی‌داری در شیب‌های سطح 1 در گروه‌ها وجود ندارد و اثرات تعدیل سطح متقاطع قابل‌توجهی را پیدا می‌کنم. آیا تفسیر اینها منطقی است یا شیب های تصادفی شرط لازم برای بررسی اثرات متقابل سطح متقابل هستند؟
آیا می توانم تعاملات سطح متقابل را بدون شیب تصادفی در یک مدل خطی سلسله مراتبی بررسی کنم؟
108772
من در تلاش برای درک مفروضات پارامترهای مختلف در یک شبکه مارکوف هستم. در این مورد، من سعی می کنم مفروضات (و اثرات) ناشی از پارامترسازی پتانسیل های زوجی با فرکانس های زوجی (یعنی $\psi_{(a, b)} = p(a, b)$) را درک کنم. نویسندگان در: Mitrofanova، A. et al. پیش بینی توابع پروتئین با هستی شناسی ژن و داده های همسانی پروتئین بین گونه ای. IEEE/ACM Trans. محاسبه کنید. Biol. و Bioinf.، 8، 775-784. فرض کنید یک شبکه 3 گره (a)-(b)-(c) داریم که RV ها برنولی هستند. طبق قانون زنجیره ای احتمال (و استقلال)، در همه موارد، $p(a, b, c) = p(a) p(b|a) p(c|b)$. ابتدا، اگر $p(a, b, c) = \psi_{a, b}(a,b) \psi_{b, c}(b,c)$ را تعریف کنیم که $\psi_{a, b} = p(a, b)$ و $\psi_{b, c} = p(b, c)$، سپس به نظر می رسد که $p(b)$ باید برابر با 1 (یا 0) باشد. در شبکه های بزرگتر و لوپی چه اتفاقی می افتد؟ دوم، اگر از تعداد یکسانی از پارامترهای آزاد استفاده کنیم، به طوری که هر پتانسیل محلی به یک مجموع شود، و پارامترها را یاد بگیریم (اما پتانسیل ها نباید حاشیه باشند)، آنگاه محاسبه می کنم که $p(b) = \psi_1(b) \psi_2(b)$، که $\psi_1(b) = \Sigma_a\psi_{b,c}$. تا زمانی که $\psi_1(b) = \psi_2(b) = p(b)$ را فرض نکنم، آیا این یک پارامتر معتبر و مفید است؟ آیا فرضیاتی وجود دارد؟ سوم، اجازه دهید اکنون محدودیت پتانسیل های محلی را حذف کنیم و به جای آن یک ثابت عادی سازی جهانی اضافه کنیم. اگر $p(a) p(b|a) p(c|b)$ را با $\frac{1}{Z} p(a,b) p(c,b)$ مقایسه کنم، می‌توانم ببینم که $ Z = p(b)$. این خوب است. با این حال، اگر بخواهم $Z$ را با جمع کردن تمام ترکیبات $a, b, c$ محاسبه کنم، آنگاه دریافتم که Z برابر است $\Sigma_b{p(b)p(b)}$. چه اتفاقی افتاد؟
مفروضات ضمنی با پارامترسازی جفتی حاشیه ای MRF
77270
من روی یک پروژه کار می کنم و می خواهم بدانم آیا استراتژی زیر خوب است یا خیر. ببخشید اگر این یک ایده اولیه/احمقانه است (من تازه وارد این کار هستم). ورودی یک مجموعه داده با 2500 ویژگی و 1000 نمونه است. من باید یک ویژگی انتخاب در این مجموعه اعمال کنم. در ابتدا من به طور تصادفی یک مجموعه آموزشی (که شامل 70٪ داده های اصلی است) و یک مجموعه تست (با 30٪ باقیمانده) می سازم. اکنون مجموعه یادگیری را به 10 برابر تقسیم می کنم (برای انجام اعتبارسنجی متقابل)، بنابراین مجموعه یادگیری را به 10 قسمت (کم و بیش مساوی) تقسیم می کنیم و اکنون 9 قسمت از 10 را برای رتبه بندی ویژگی (با استفاده از) تقسیم می کنیم. مجذور chi)، سپس بهترین 10 ویژگی (بالاترین رتبه) را برای ارزیابی مدل (با استفاده از SVM) روی بخش باقی مانده از «مجموعه یادگیری تقسیم شده» (و این کار را انجام می دهیم) انتخاب می کنیم. 10 بار، بنابراین هر بخش به عنوان مجموعه تست استفاده می شود). انجام این آرگومان «10 برابر» به ما 10 رتبه بندی ویژگی (با 10 ارزیابی/دقت مدل) می دهد. از بین این 10 نتیجه، می‌توانیم بهترین رتبه‌بندی ویژگی را بگیریم (با توجه به دقت آن بر اساس مدل یا جمع‌بندی رتبه‌بندی ویژگی‌ها) و در نهایت آن را از ابتدا روی مجموعه تست 30 درصد آزمایش کنیم. لطفا نظرتون رو بگید که خوبه یا واقعا احمقانه...
انتخاب ویژگی و اعتبار سنجی متقابل
85737
از کتابچه راهنمای epiR برای عملکرد **_epi.2by2_**: > واحدها: ضریب برای برآورد شیوع و بروز. در مثال‌ها روی 100، «واحد=100» تنظیم شده است. یعنی چی؟ **توجه:** من روی ~5K مورد ~5K داده های کنترل کار می کنم، بدون لایه، نتیجه در مقابل قرار گرفتن در معرض - جداول 2 در 2. **به روز رسانی:** این PDF ممکن است مرتبط باشد.
واحدها در بسته epiR به چه معناست؟
41621
من با استفاده از ابزارهایی مانند SVM و درخت تصمیم برای مسائل طبقه بندی گسسته آشنا هستم. اما یکی از جزئیاتی که من در آن حوزه با آن مواجه نشده ام این است: اگر طبقه بندی کننده شما باید مقداری را در هنگام پیش بینی نتایج برای داده های ورودی جدید حفظ کند، چه کار می کنید؟ برای مثال، فرض کنید که همه تیم‌ها را در NFL انتخاب کرده‌اید و آنها را به پنجک (20 درصد سطل) بر اساس یاردهای سریعشان در هر بازی تقسیم کرده‌اید (یا بگوییم که تیم‌هایی را از EPL انتخاب کرده‌اید و بر اساس زمان آنها به پنجک‌ها تقسیم کرده‌اید. - مالکیت یا آمار دیگری). علاوه بر این، فرض کنید این کار را به صورت هفتگی انجام می دهید، بنابراین هر هفته آمار خود را جمع آوری می کنید و سپس تیم ها را از 1 تا N رتبه بندی می کنید، آنها را به پنجک تقسیم می کنید، و برچسب کلاس هر تیم پنجک آن است. حالا فرض کنید برای هر تیم یک سری ویژگی ایجاد کرده اید که فکر می کنید پنجک تیم را برای هفته آینده پیش بینی می کند. این می تواند پنجک تاریخی تیم، تغییرات مربیگری، مصدومیت بازیکنان کلیدی، هر چه باشد. اما نکته اینجاست که می‌توانید برای هر تیم یک بردار ویژگی بسازید و می‌خواهید طبقه‌بندی‌کننده‌ای را آموزش دهید که بر اساس ویژگی‌ها، برچسب کلاس (۱ تا ۵) را پیش‌بینی کند. چند راه متداول یا از نظر تجربی مؤثر برای محدود کردن طبقه‌بندی‌کننده به‌گونه‌ای که خروجی منطقی باشد چیست؟ یعنی فقط باید 20 درصد تیم‌ها را در هر پنجک خاص طبقه‌بندی کرد و طبقه‌بندی‌کننده نباید بتواند با قرار دادن تیم‌های بیشتر در پنجک از 20 درصد کل، به طور منطقی با خودش مخالفت کند. (یعنی، نظریه پشت طبقه‌بندی‌کننده باید نشان دهد که چگونه می‌توانیم از قبل بدانیم که طبقه‌بندی کننده تناقض ایجاد نمی‌کند). من به‌دنبال راه‌های هک پس‌هک برای گرد کردن یا هر چیز دیگری نیستم، و همچنین به طور خاص سعی می‌کنم از موقعیتی اجتناب کنم که شما یک مدل رگرسیونی از کمیت پیوسته زیربنایی بسازید و سپس فقط کمیت را پیش‌بینی کنید و خودتان پنجک‌ها را به صورت دستی اختصاص دهید. من می‌خواهم طبقه‌بندی‌کننده به طور گسسته پنجک‌ها را برای هر بردار ویژگی انتخاب کند و در عین حال به محدودیت‌های خارجی روی برچسب‌های کلاس احترام بگذارد. به طور کلی تر، شما می توانید تعجب کنید که چگونه یک طبقه بندی کننده SVM-مانند را طوری آموزش می دهید که دارای قوانین داخلی باشد مانند فقط M از N شیء می تواند برچسب L را دریافت کند، و من باید همیشه آن را برای برچسب _every other_ در نظر بگیرم که من هم تخصیص می دهم...» **برخی افکار:** (1) از چیزی مانند بازپخت شبیه سازی شده برای به هم زدن نقاط مرزی پنجک پس از پیش بینی استفاده کنید. یعنی از طبقه‌بندی‌کننده آموزش‌دیده برای طبقه‌بندی پنجک هر تیم استفاده کنید. از فاصله از حاشیه به‌عنوان «تابع انرژی» برای به حداقل رساندن استفاده کنید و سپس به‌طور تصادفی اعضای پنجک‌های پرجمعیت را به پنجک‌های کم‌جمعیت نزدیک شروع کنید. شما بر اساس میزانی که فاصله کلی از حاشیه را بدتر می کند، چنین درهم ریختگی را می پذیرید یا رد می کنید. من این راه حل را دوست ندارم زیرا احتمالاً بعد از اینکه مشکل بهینه سازی SVM را حل کردید، از نظر محاسباتی ناکارآمد خواهد بود. همچنین، به نظر می‌رسد که در واقع فقط از فاصله حاشیه به‌عنوان یک کمیت پیوسته برای تعیین طبقه‌بندی استفاده می‌کنید، در این مرحله ممکن است سعی کنید یک کمیت پیوسته مبتنی بر مدل یا از نظر فیزیکی قابل قبول‌تر استخراج کنید و فقط رگرسیون یا چیزی دیگر را انجام دهید. خروجی پیش‌بینی‌شده را در پایان به پنجک‌ها خرد کنید، چیزی که می‌خواستم از آن اجتناب کنم.
طبقه بندی کننده هایی با محدودیت های پس از آموزش در فضای پیش بینی
5483
به عنوان مثال، یک کلاس از دانش آموزان و نمرات آنها مجموعه داده است. فرض کنید حدود 35 دانش آموز وجود دارد. در اینجا چیزی است که می دانید: نمره شما میانگین کلاس نمره میانه انحراف معیار آیا با توجه به این اطلاعات نتیجه دیگری در مورد این داده وجود دارد؟ با تشکر
چه چیز دیگری را می توان از اطلاعات خلاصه کلاس زیر استنباط کرد؟
5487
من باید حجم نمونه مورد نیاز برای یک مطالعه مشاهده ای را محاسبه کنم که در آن بروز بیماری 19-29٪ است. جمعیت آسیب دیده 600000 نفر است. این مطالعه دارای دو نمونه مشابه از نظر ویژگی های پایه است که با دو داروی مختلف درمان شده اند. تجزیه و تحلیل آماری از آزمون کای اسکوئر و فیشر خواهد بود. من باید عدم حقارت یکی از داروها را نسبت به دیگری نشان دهم. من هیچ اطلاعات دیگری ندارم آیا کسی می تواند به من کمک کند تا اندازه های نمونه مورد نیاز را برای بدست آوردن توان 0.80 با آلفا 0.05 محاسبه کنم؟ پیشاپیش خیلی ممنون
محاسبه حجم نمونه برای مطالعه با هدف نشان دادن عدم حقارت یک دارو
87395
من با R جدید هستم و lmer را در lme4 اجرا کرده ام. در خلاصه مدل، هیچ پیام هشداری وجود ندارد، اما زمانی که من confint(lmer) را می‌پرسم، R این پیام را در پایین خروجی به من می‌دهد: پیام‌های هشدار: 1: در profile.merMod(object, signames = oldNames, ...) : non-monotonic profile 2: in profile.merMod(object, signames = oldNames, ...) : non-monotonic profile 3: in profile.merMod(object, signames = oldNames, ...) : نمایه غیر یکنواخت به چه معناست؟ و باید چیکار کنم
نمایه غیر یکنواخت: هنگام اجرای confint(lmer) هنگام دریافت آن چه کاری باید انجام دهم؟
108867
من یک مجموعه داده سری زمانی دارم که بازدید ساعتی از صفحه و اشتراک رسانه های اجتماعی اخبار آنلاین را گزارش می کند. آنچه من امیدوارم به دست بیاورم رابطه بین دو متغیر است. تصور می‌کنم هرچه اشتراک‌گذاری‌های یک داستان بیشتر باشد، بازدیدهای بیشتری از صفحه را جذب می‌کند و بالعکس. این بدان معناست که دو متغیر منحنی رشد سریع/آهسته مشابهی را نشان خواهند داد. از نظر یک داستان، می توانم از مدل VAR (خودرگرسیون برداری) برای تخمین ضرایب استفاده کنم. با این حال، چگونه می توانم از صدها داستان برای ساختن یک مدل کلی تر استفاده کنم؟ چیزی که تا به حال به آن فکر کرده ام این است که هر داستان را با همان مدل تطبیق دهم و سپس توزیع ضرایب را مشاهده کنم. آیا روش مناسبی خواهد بود؟ اگر بتوانید با مهربانی به برخی از مقالات و/یا بسته های R که الهام بخش راه حل های بالقوه است، استناد کنید، عالی خواهد بود. متشکرم
منابع پیشنهادی برای تحلیل چند متغیره چندین سری زمانی مشابه
83885
من دو نمونه _finite_ $s_1$ و $s_2$ و دو توزیع $p_1(s_1)$ و $p_2(s_2)$ دارم که به این نمونه‌ها مرتبط هستند. من اساساً علاقه مند به اندازه گیری فاصله یا شباهت بین این دو توزیع هستم. من در حال حاضر از فاصله Jensen-Shannon (JS) استفاده می کنم که شامل محاسبه آنتروپی های دو توزیع جداگانه و مشترک است. من باید داده ها را برای محاسبه توابع اصلی آنتروپی بن کنم و به نظر می رسد که فاصله JS حاصل نیز تابعی از استراتژی binning داده است که من استفاده می کنم. کاملاً خودسرانه به نظر می رسد و نمی دانم چقدر می توانم به نتایج اعتماد کنم. آیا راهی برای دور زدن این موضوع وجود دارد؟ چگونه می توانم فاصله بین $p_1(s_1)$ و $p_2(s_2)$ را به روشی دقیق تری اندازه گیری کنم که نیازی به جمع کردن داده یا هر نوع خودسری دیگری ندارد؟
واگرایی جنسن-شانون برای نمونه های محدود
14237
اول از همه، من اطلاعات کمی در مورد آمار دارم، بنابراین برخی از این سوال ممکن است ساده به نظر برسد. من سعی می کنم رگرسیون خطی را برای مدل کردن رابطه بین x و y انجام دهم که در آن: -x حجم سهام روزانه یک شرکت در یک تاریخ است -y متغیری است که از همان تاریخ گرفته شده است، اما چیزی غیرمرتبط با حجم سهام است. این حجم فعالیت در آن ویکی پدیا برای آن شرکت است. من فرض می کنم که متغیرها نیاز به نرمال سازی دارند. به طور خاص، x باید نرمال شود زیرا حجم شاخص کلی در نوسان است. اولین فکر من این بود که حجم روزانه را بر حجم کل شاخص تقسیم کنم. من همین کار را با متغیر y انجام خواهم داد. من فقط تعجب کردم که آیا این معقول به نظر می رسد؟ با تشکر ویرایش: من به تازگی متوجه اشتباه تایپی در سوال شده ام، توضیحات متغیر Y تغییر کرده است.
عادی سازی برای رگرسیون
72956
فرض کنید، داده‌های زیر میانگین زمان پاسخ‌دهی به یک کار را برای پاسخ‌دهندگان در میان چهار گروه مختلف نشان می‌دهد: A B C D 1.2 2.3 4.5 6.7 به منظور ارزیابی اینکه کدام یک از میانگین‌ها با یکدیگر متفاوت هستند، یک آزمون مقایسه چندگانه (پس از یک ANOVA همه‌گیر) انجام می‌دهم. تست پاک شد) و آزمون مقایسه چندگانه به من می گوید که میانگین گروه D به طور قابل توجهی با میانگین گروه های A و B متفاوت است و هیچ جفت دیگری وجود ندارد. تفاوت ها به طور قابل توجهی متفاوت است. بهترین راه برای ارائه این اطلاعات به صورت تصویری چیست؟
نمایش بصری تست مقایسه چندگانه
108861
می ترسم که سوالات مرتبط جواب من را ندهد. ما عملکرد بیش از 2 طبقه بندی کننده (یادگیری ماشین) را ارزیابی می کنیم. فرضیه صفر ما این است که عملکردها تفاوتی ندارند. برای ارزیابی این فرضیه، آزمون های پارامتریک (ANOVA) و ناپارامتریک (فریدمن) را انجام می دهیم. اگر مهم هستند، می‌خواهیم بفهمیم کدام دسته‌بندی‌کننده‌ها در یک جست‌وجوی پس‌هوک متفاوت هستند. سوال من دوگانه است: 1) آیا اصلاً اصلاح مقادیر p بعد از آزمایش مقایسه های چندگانه ضروری است؟ سایت ویکی‌پدیای آلمانی در «Alphafehler Kumulierung» می‌گوید که این مشکل تنها زمانی رخ می‌دهد که چندین فرضیه بر روی داده‌های یکسان آزمایش شوند. هنگام مقایسه طبقه بندی کننده ها (1،2)، (1،3)، (2،3)، داده ها فقط تا حدی همپوشانی دارند. آیا باز هم اصلاح مقادیر p لازم است؟ 2) تصحیح P-value اغلب پس از تست زوجی با آزمون t استفاده می شود. آیا هنگام انجام تست های تخصصی پس از آن مانند تست Nemenyi (ناپارامتریک) یا تست HSD Tukey نیز لازم است؟ این پاسخ می‌گوید نه برای HSD Tukey: آیا تست Tukey HSD برای مقایسه‌های چندگانه درست است؟ آیا قانونی وجود دارد یا باید برای هر آزمون احتمالی پس از آن به دنبال آن باشم؟ با تشکر
چه زمانی مقادیر p را در مقایسه های چندگانه تصحیح کنیم؟
44109
من به دنبال استفاده از یک رگرسیون چند متغیره برای پیش‌بینی هستم، اما از برآوردهای برتر (احتمالاً) واریانس برای متغیرهای مستقل و خارجی استفاده می‌کنم. رویکرد من استانداردسازی متغیرهای وابسته و خارجی است (با تقسیم انحراف استاندارد مربوطه آنها که از تاریخچه داده کامل به دست می‌آیند). هنگامی که ضرایب رگرسیون استاندارد شده را داشته باشم، از این ضرایب به همراه برآوردهای واریانس با منبع جداگانه خود استفاده می کنم تا به معادله ای برگردم که برای تولید پیش بینی ها استفاده می شود. آیا من به سادگی هر ضریب را در برآورد واریانس منبع جداگانه خود ضرب کنم؟ اما در مورد برآورد واریانس متغیر وابسته چطور؟ به عنوان اطلاعات پس‌زمینه، منبع جداگانه تخمین‌های واریانس من به این دلیل است که معتقدم تخمین‌های بهتری (به‌روزتر) نسبت به تاریخچه کامل داده‌های موجود دارم (مثلاً چون واریانس‌ها در طول زمان پایدار نیستند، می‌توانم تخمین بزنم. اندازه گیری به موقع واریانس با استفاده از داده های فرکانس بالاتر در یک دوره کوتاه تر و اخیر). * آیا این رویکرد یک رویه استاندارد معقول است؟ * چگونه با استفاده از تخمین‌های واریانس فرکانس بالا از بتای استاندارد شده به نسخه‌های غیراستاندارد شده برویم؟ من اینجا (http://stats.stackexchange.com/questions/29781/when-should-you- center-your-data-when-should-you-standardize) را در مورد WHEN برای استانداردسازی خواندم، اما برای من روشن نیست که آیا این مورد استانداردسازی متغیرهای وابسته و خارجی را پوشش می دهد. متشکرم
تخمین رگرسیون چند متغیره زمانی که واریانس متغیرها به طور پیشینی شناخته شده باشند/منبع جداگانه باشند.
24799
با توجه به یک مدل سلسله مراتبی $p(x|\phi,\theta)$، من یک فرآیند دو مرحله‌ای می‌خواهم تا با مدل مطابقت داشته باشد. ابتدا تعدادی ابرپارامتر $\theta$ را اصلاح کنید و سپس استنتاج بیزی روی بقیه پارامترهای $\phi$ انجام دهید. برای رفع هایپرپارامترها دو گزینه را در نظر دارم. 1. از **تجربی بیز (EB)** استفاده کنید و احتمال حاشیه ای را به حداکثر برسانید. 2. از تکنیک‌های **Cross Validation (CV)** مانند اعتبارسنجی متقاطع $k$-fold برای انتخاب $\theta$ استفاده کنید که احتمال $p(\mbox{تست داده‌ها}|\mbox{داده‌های آموزشی}، \ را به حداکثر می‌رساند. تتا) دلار. مزیت EB این است که می توانم از همه داده ها به طور همزمان استفاده کنم، در حالی که برای CV باید (به طور بالقوه) احتمال مدل را چندین بار محاسبه کنم و $\theta$ را جستجو کنم. عملکرد EB و CV در بسیاری از موارد قابل مقایسه هستند و اغلب EB سریعتر برآورد می شود. سوال: آیا مبنای نظری وجود دارد که این دو را به هم مرتبط کند (مثلاً EB و CV در حد داده های بزرگ یکسان هستند)؟ یا EB را به برخی از معیارهای تعمیم پذیری مانند ریسک تجربی مرتبط می کند؟ آیا کسی می تواند به یک ماده مرجع خوب اشاره کند؟
اعتبار سنجی متقابل در مقابل بیز تجربی برای تخمین فراپارامترها
83884
فرض کنید من در حال انجام طبقه بندی جنگل تصادفی برچسب های $A$,$B$,$C$,$D$ هستم. مقداری ترتیب نظری برای این خروجی وجود دارد، به طوری که وقتی $A$ احتمال بیشتری از $B$ دارد، $B$ نیز از $C$ و غیره محتمل تر است. همچنین، اگر $P(D) > P(C)$ ، ما همچنین داریم که $P(C) > P(B) > P(A)$. چنین شرایط دیگری نیز وجود دارد که باید رعایت شود. مسئله این است که یک جنگل تصادفی واقعی ممکن است چیز احمقانه ای را ارائه دهد که کاملاً محدودیت های فوق را نقض کند، _حتی اگر_ بتواند محتمل ترین نتیجه را با موفقیت پیش بینی کند. برای مورد استفاده من، سفارش مهم است، زیرا تصمیمات نه تنها در مورد محتمل ترین نتیجه گرفته می شود. همچنین شهودی به نظر می رسد که اگر بتوانم به نحوی این دانش قبلی را در مدل اعمال کنم، باید بتوانم تعمیم را بهبود بخشم. چگونه این را در جنگل تصمیم حساب کنم؟ با وجود این ساختار خروجی، من فکر نمی‌کنم که بتوان یک متغیر پاسخ با ارزش واقعی ایجاد کرد، زیرا آنها برچسب‌های _هنوز کلاسی هستند که ارزش واقعی طبیعی ندارند، حتی اگر نوعی ترتیب برای آنها وجود داشته باشد.
چگونه می توان محدودیت ها را در خروجی جنگل تصادفی گنجاند
87393
من با توابع امتیاز در محاسبه احتمال مشکل دارم. من در آمار یا احتمال خوب نیستم، بنابراین هنوز در فرمالیسم و ​​زبان ریاضی-احتمالی سردرگم هستم. **برخی پیشینه:** من روی فیلتر ذرات هستم، بنابراین استنباط pdf که از نظر تحلیلی با نمونه گیری مونت کارلو قابل حل نیست: چند ذره تصادفی قرار دهید، آنها را با یک تابع احتمال ارزیابی کنید، و مجموعه ذرات با وزن نرمال می تواند تقریبی از pdf من باید به هر ذره وزن بدهم و احتمال را با یک تابع درستنمایی یا تابع امتیاز محاسبه کنم. اگر حالت پنهان من که با این pdf دشوار توصیف شده است، به عنوان $X$ نشان داده شود، و من مقداری مشاهده $z$ داشته باشم، احتمال را می توان به صورت زیر رسمیت داد: $$ p( X | z ) = \text{likelihood } $$ **آنچه اکنون دارم:** یک تابع فاصله خوب که فاصله بین ذره و هدف را به من می دهد. کار می کند. این فاصله Bhattacharyya است (من با تصاویر کار می کنم و هیستوگرام رنگی یک ویژگی مرتبط است). به طوری که: $$ d = \text{Bhattacharyya(ذره، هدف)} $$ این $d$ یک فاصله است، و برای یک تابع احتمال به یک احتمال نیاز دارم، بنابراین آن را در یک گاوسی با میانگین صفر قرار می‌دهم و واریانس = 0.4: $$ \text{relihood} = \frac{e^{-\frac{(d-\mu)^2}{2 \sigma^2}}}{\sqrt[2]{ \pi \sigma}} $$ **چیزی که می‌خواهم:** اکنون می‌خواهم آزمایش‌هایم را بهبود ببخشم و به طور مشابه تابع امتیاز دیگری را اضافه کنم تا احتمال کل با دو تابع امتیاز (مثلاً فاصله شکل یا چیز دیگری) $s_1$ و $s_2$ محاسبه می شود. من از مدرسه به یاد دارم (اما دقیقاً یادم نیست چرا) که اگر می خواهید 2 احتمال را با هم ترکیب کنید، فقط باید ضرب کنید نه جمع. بنابراین می دانم که: $$ \text{likelihood} \propto s_1 s_2 $$ که $s_1$ گاوسی با Bhattacharyya با هیستوگرام رنگی است و $s_2$ فاصله شکل است. دو تابع امتیاز گاوسی هستند و مستقل نیستند (به یک حالت پنهان وابسته هستند). **سوال 1**: آیا درست است که باید آنها را ضرب کنم؟ چرا؟ بنابراین فرمول نهایی من این خواهد بود: $$ \text{likelihood} = \frac{e^{-\frac{(d_1-\mu)^2}{2 \sigma^2}}}{\sqrt[2] { \pi \sigma}} \frac{e^{-\frac{(d_2-\mu)^2}{2 \sigma^2}}}{\sqrt[2]{ \pi \sigma}} $$ **سوال 2:** اگر بخواهم به صورت تجربی به یکی از این دو امتیاز اهمیت بیشتری بدهم، زیرا فکر می کنم بیشتر توصیفی از داده های من است، چه؟ دوست داشتن: $$ \text{احتمال} = \alpha s_1 (1-\alpha)s_2 $$
تابع امتیاز احتمال 101
84284
آیا ویژگی های زیادی در Eviews وجود دارد که R آنها را از دست می دهد؟ من شنیده ام که مخصوصاً وقتی که با سری های زمانی سروکار داریم R نسبت به Eviews گسترده تر است. آیا این حقیقت دارد؟ کدام یک از دو بسته حاوی بیشترین ابزارهای آماری است (یا قابل مقایسه هستند؟)؟
Eviews در مقابل R (نرم افزار آماری)
14234
من واقعاً انگیزه ای برای این کار ندارم - اما به این فکر می کردم و نتوانستم آن را حل کنم. فرض کنید من یک متغیر تصادفی $X$ و $Y$ دارم که همبستگی دارند. آیا ممکن است همبستگی جزئی بین $X$ و $X\cdot Y$ پس از در نظر گرفتن Y صفر باشد؟ به عبارت دیگر، آیا رگرسیون $X$ در $Y$ و $X\cdot Y$ احتمالاً منجر به ضریب صفر در $X\cdot Y$ می‌شود؟
ضریب رگرسیون صفر زمانی که همبستگی ها صفر نیستند
41624
در رگرسیون پانل با استفاده از جلوه های ثابت، آیا استفاده از ابزاری که در سال تغییر نمی کند صحیح است؟ برای استفاده از یک مثال قدیمی اما ساده، آنگریست و کروگر 1991 از یک چهارم تولد به عنوان ابزاری برای آموزش استفاده کردند. اگر کسی به داده های مشابهی دسترسی داشت که به صورت پانل بود، آیا استفاده از سه ماهه تولد (برای هر کدام یکسان است) درست است (و منظورم به طور خاص سه ماهه تولد نیست، می دانم که اعتبار این IV مشکلاتی دارد. پاسخ دهنده بدون توجه به موج پانل) به عنوان ابزاری در رگرسیون پانل IV؟ چرا یا چرا نه؟
IV قانونی برای پانل؟
28622
من برخی از داده ها را دارم که به خوبی با تجزیه و تحلیل تفکیک کننده خطی کنسرو شده (LDA) JMP کار می کند، اما پس از مطالعه در مورد LDA مطمئن نیستم که آیا آنالیز معتبر است یا خیر. مقاله ویکی به یک فرض اساسی LDA اشاره می کند که متغیرهای مستقل معمولاً توزیع می شوند. آیا این همچنین به این معنی است که اگر متغیرهای من هر گونه همبستگی داشته باشند، نمی توانم از LDA استفاده کنم؟ همچنین، با فرض اینکه متغیرهای مستقل را دارم یا به آنها تبدیل می‌کنم، باید آزمایش کنم که آیا آنها به طور معمول توزیع شده‌اند (مثلاً آزمون Shapiro-Wilk) و فقط از آنهایی استفاده کنم که در LDA قبول شده‌اند؟ با تشکر
چگونه می توانم آزمایش کنم که آیا می توانم LDA را به درستی اعمال کنم؟
44102
من سعی می کنم مدل های سری زمانی ضریب پراکنده بسازم اما منبع/کتاب خوبی برای یادگیری پیدا نکردم. آیا کسی می تواند یک منبع/کتاب خوب را با من به اشتراک بگذارد؟ اگر با کدهای R همراه باشد عالی می شود. آیا کسی می تواند از این مدل مهربان استفاده کند؟ با تشکر
مدل های سری زمانی ضریب پراکنده
84286
از آنچه من می‌دانم، انتساب عرشه داغ شامل 2 بخش است. 1) انتخاب استخر اهداکننده: این بر اساس متغیرهای مربوط به متغیر گمشده است. شاید از تکنیک رگرسیون برای آزمایش ارتباط استفاده کنید یا فقط از یک متخصص موضوع بپرسید. 2) انتخاب مقداری که باید از مجموعه اهداکننده بر اساس ویژگی هایی مانند فاصله یا از طریق تکنیک های نمونه گیری تصادفی نسبت داده شود. برای انتساب تصادفی منفرد، فرآیند به این صورت است: 1) توزیع مجموعه داده را پس از حذف لیستی واحدهای بدون پاسخ آیتم تعیین کنید. 2) از تکنیک های تصادفی برای انتخاب یک مقدار از توزیع استفاده کنید. هر دوی این فرآیندها به نظر من بسیار شبیه هستند. دقیقاً تفاوت این دو چیست؟ با تشکر
تفاوت بین Hot Deck و Imputation تک تصادفی چیست؟
14231
فرض کنید من 1 موفقیت در 4 آزمایش برنولی دارم و می‌خواهم توزیع پارامتر $p$ توزیع دوجمله‌ای مربوطه را رسم کنم. من از R استفاده می کنم. احتمال مشاهده 1 موفقیت و 3 شکست در 4 تست برای $p=0.25$ برای این پارامترها است: > n <- 4 > p <- 0.25 > dbinom(1, n, p) [ 1] 0.421875 برای بدست آوردن توزیع پارامتر، از توزیع بتا $Beta(k+1, n-k+1)$ استفاده می کنم. اما وقتی سعی می کنم مقدار $p=0.25$ را محاسبه کنم، نتیجه متفاوتی دریافت می کنم: > k <- 1 > dbeta(p, k+1, n-k+1) > [1] 2.109375 سعی کردم تقسیم کنم که توسط تابع beta $B(k+1, n-k+1)$، اما این نیز کار نمی کند: > dbeta(p, k+1, n-k+1)/beta(k+1, n-k+1) > [1] 42.1875 این دقیقاً 100 برابر نتیجه ای است که انتظار داشتم. من مطمئناً چیزی را از دست می دهم - شاید یک چیز اساسی، من متخصص نیستم. چیز دیگری که من را مجذوب خود می‌کند: منطقه «dbeta» بدون تقسیم بر تابع بتا به 1 می‌رسد.
هنگام استفاده از توزیع بتا به عنوان توزیع قبلی برای دوجمله ای، چرا نتایج توزیع با احتمال محاسبه شده مطابقت ندارند؟
72955
سعی می کنم با استفاده از کتاب بیومتری نوشته سوکال و روهلف (3e) آماری را یاد بگیرم. این تمرین در فصل پنجم است که احتمال، توزیع دو جمله ای و توزیع پواسون را پوشش می دهد. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/T0Tth.jpg) من متوجه شدم که فرمولی برای پاسخ به این سوال وجود دارد: $$ n = \frac 4 {( \sqrt{ p} - \sqrt{q} )^2} $$ اما این معادله در این متن نیست. من می خواهم بدانم چگونه اندازه نمونه را فقط با دانستن احتمال، سطح اطمینان مطلوب و توزیع دوجمله ای محاسبه کنم. آیا منابعی در مورد این موضوع وجود دارد که بتوان به آن اشاره کرد؟ من گوگل را امتحان کرده‌ام، اما آنچه تاکنون دیده‌ام نیازمند اطلاعاتی است که در این مشکل به آنها دسترسی ندارم.
تعیین حجم نمونه با نسبت و توزیع دو جمله ای
44100
من می خواهم داده های یک جامعه از گونه ها را بین دو سال مقایسه کنم. من قبلاً جوامع را بر اساس سطوح مختلف یک عامل (مثلاً یک درمان) مقایسه می کردم. مورد یک درمان آسان است زیرا هر محل دارای سطح مربوط به درمان است. با این حال، اگر فاکتور یک سال باشد، با طراحی جفتی با هر سایت دو بار نمونه‌برداری مواجه می‌شویم. در این مورد من نمی توانم فقط یک سال را به یک سایت اختصاص دهم و بنابراین، نمی دانم از کدام روش برای تجزیه و تحلیل تفاوت های جامعه بین دو سال استفاده کنم.
چگونه جوامع گونه ای را بین دو سال مقایسه کنیم؟
44105
من سعی می‌کنم سرم را در مورد مدل‌سازی مخلوط بپیچم، و به یک اسکریپت متلب کوچک برخوردم که مرتبط به نظر می‌رسد. برای اینکه با Pymix آشنا شوم، تصمیم گرفتم اسکریپت matlab را در پایتون بازنویسی کنم. به نظر می‌رسد که با موفقیت داده‌ها را با الگوریتم حداکثرسازی انتظار تطبیق/تجزیه کرده‌ام، اما مطمئن نیستم که ماهیت خروجی روش را درک کرده باشم. سوال من به شرح زیر است: 1. چگونه می توانم شکل دوم را از کد متلب (زیر) با خروجی `pymix.MixtureModel.EM` تکرار کنم؟ 2. کسی میتونه خروجی روش بالا رو توضیح بده؟ لازم به ذکر است که من به طرز وحشتناکی در زمینه آمار و ریاضیات به طور کلی کم آموزش هستم (من روی آن کار می کنم!)، بنابراین لطفاً فرض کنید من هیچ چیز نمی دانم =) در هر صورت، اسکریپت متلب این است: % تولید برخی از داده های گرفته شده از دو داده گاوسی = [0.4+randn(100,1).*0.15; 1+ randn(200,1).*0.25]'; داده (داده < 0.05) = 0.05; [n,x] = hist(data); نوار (x,n); % مدل مخلوط را pdf مخلوط کنیدGauss = ... @(x,m1,s1,m2,s2,theta) (تتا*normpdf(x,m1,s1) + (1-تتا)*normpdf(x,m2,s2 ))؛ % تنظیم پارامترها برای گزینه های تابع MLE = statset('mlecustom'); options.MaxIter = 20000; options.MaxFunEvals = 20000; % حداکثر پارامترهای احتمال را برای مدل مخلوط ما دریافت کنید (با چند درصد حدس های منطقی در مورد پارامترها شروع کنید) p = mle (داده، 'pdf'، mixGauss، 'شروع'، [0.5 0.1 0.5 0.1 0.5]، ... 'کاهش پایین' , [-Inf 0 -Inf 0 0], 'Upperbound', [Inf Inf Inf Inf 1]، ... 'گزینه ها'، گزینه ها); % اطلاعات طرح و چاپ را نگه دارید. x = linspace(min(داده)، max(data)،100)؛ plot(x، mixGauss(x,p(1)،p(2)،p(3)،p(4)،p(5))*max(n)، 'r', 'LineWidth', 2); fprintf('Gauss 1: %0.2f (+/- %0.2f)\n', p(1), p(2)); fprintf('Gauss 2: %0.2f (+/- %0.2f)\n', p(3), p(4)); fprintf('Mix: %0.2f نسبت اول گوسی\n', p(5)); و این چیزی است که من تاکنون در پایتون انجام داده ام. توجه داشته باشید که من این کد را در iPython با گزینه \--pylab=inline اجرا می‌کنم، بنابراین pyplot را به فضای کاری اصلی خود وارد می‌کنم: numpy را به‌عنوان مخلوط واردات np وارد کنید # برخی از داده‌های گرفته‌شده از دو داده گاوسی تولید کنید = np.concatenate( (0.4 + np.random.randn(100) * 0.15، 1 + np.random.randn(200) * 0.25)) data[np.nonzero(data <.05)] = 0.05 نوع چاپ (داده)، len(data) plt = شکل() hist(data, bins=50) show() # ایجاد شی DataSet mixdat = mix.DataSet() mixdat.fromArray(data) # مخلوط با حدس منطقی، شبیه به نقطه شروع تصادفی در K-Means n1 = مخلوط. NormalDistribution(-2, 0.4) n2 = mix.NormalDistribution(2, 0.6) # مدل مخلوط و EM clustering mix = mix.MixtureModel(2, [ 0.5، 0.5]، [n1، n2]) postmat، _ = mix.EM(mixdat, 40, 0.1) fig = Figure() hist(data, bins=50) x = np.linspace(np.min(data), np.max(data), 100) # حالا چی؟ show() از هرگونه نظر، انتقاد یا توضیح دیگری استقبال می شود. ممنون از تحمل نادانی من ;-)
چگونه می توانم اجزای یک مدل مخلوط به دست آمده از pymix را رسم کنم؟
41088
فرض کنید من باید 3 مدل را تخمین بزنم: $y_1 = y_2\beta_1 + y_3\beta_2 + X\beta_3 + u_1$y_2 = y_1\alpha_1 + y_3\alpha_2 + X\alpha_3 + u_2$ $y_3 = y_1\gamma_1 \gamma_2 + X\gamma_3 + u_3$ من درون‌زایی $y_1، y_2$ و $y_3$ را با رویکردی که یک متغیر اضافی ایجاد می‌کند که به من امکان می‌دهد هیچ رگرسیون دیگری را حذف نکنم، حساب می‌کنم. فرض کنید این رگرسیورهای اضافی $c_1$ برای $y_1$، $c_2$ برای $y_2$ و $c_3$ برای $y_3$ هستند. اکنون مدل‌ها عبارتند از: $y_1 = y_2\beta_1 + y_3\beta_2 + X\beta_3 + c_2\beta_4 + c_3\beta_5 + u_1$y_2 = y_1\alpha_1 + y_3\alpha_2 + X\alpha_3 + c_1\alpha_4 + c_3\alpha_5 + u_2$ $y_3 = y_1\gamma_1 + y_2\gamma_2 + X\gamma_3 + c_1\gamma_4 + c_2\gamma_5 + u_2$ با توجه به اینکه تأثیر $c_i$ در هر معادله قابل توجه است، شناسایی حاصل می‌شود. دلیل آن این است که در هر معادله یک $c_i$ وجود ندارد (برای مثال $c_1$ در معادله $y_1$). به نظر می رسد که من نمی توانم $c_1$ را در رابطه با $y_1$ از معادله خارج کنم (همانطور برای تمام معادلات دیگر). اگر بخواهم، مدل به طور جدی مغرضانه خواهد بود. سوال من این است: وقتی مدل کامل را تخمین می زنم، یعنی تمام $c_i$ در هر معادله گنجانده می شود و برخی از رگرسیون های موجود در $X$ معنی دار نیستند و این رگرسیورها همه برای هر معادله متفاوت هستند، آیا شناسایی حاصل می شود؟ من می گویم بله. اما این رویکرد تنها از طریق بی اهمیت بودن یک پسرفت کننده به شناسایی دست می یابد. من کاملا مطمئن نیستم که آیا این زاویه مناسب با آن است یا خیر.
آیا شناسایی مبتنی بر داده در یک مدل معادله همزمان امکان پذیر است؟
59852
اگر سوال نسبتاً ساده است، پیشاپیش عذرخواهی می کنم، اما در پی بردن به آن مشکل داشتم. من یک دانشمند تجربی هستم و علاقه مند به مدل سازی بیماری های انسانی با سلول های بنیادی پرتوان القایی هستم. این بیماری نسبتاً شایع است، اما مبنای ژنتیکی مشترکی ندارد. این بیماری عمدتاً توسط انواع ژنتیکی نادر با نفوذ بالا اما در تعداد کمی از افراد ایجاد می شود. برای (مثلاً) 5 بیمار از 1000 مورد مبتلا غربالگری شده، می‌توانیم جهش‌های یک ژن را به شدت با این بیماری مرتبط کنیم. این جهش ها در یک جمعیت شاهد 5000 نفری به طور کامل وجود ندارند. ما سلول‌های بنیادی را از 2 نفر از این افراد ساخته‌ایم تا مشخص کنیم که آیا این جهش‌ها در مقایسه با گروه شاهد منجر به اختلال عملکرد سلولی می‌شوند (به این فنوتیپ A می‌گویند). ما برای هر فرد چندین خط سلول بنیادی داریم. در این شرایط، فنوتیپ A یک فنوتیپ میانی است. سوال مفهومی بزرگ برای من این است: آیا من بیماری را مدل می کنم یا فقط اثر جهش های مرتبط با بیماری را بر عملکرد سلولی مدل می کنم؟ چگونه می توانم اندازه نمونه را تعیین کنم تا ادعای قبلی را مثلاً با توان 80٪ آزمایش کنم؟
محاسبه توان برای مدل‌سازی بیماری در سلول‌های iPS
71146
من یک نظرسنجی انجام داده‌ام که از پاسخ‌دهندگان می‌خواهد منابع اطلاعاتی مربوط به یک محصول را مشخص کنند. 8 منبع اطلاعاتی (به عنوان مثال، اینترنت، روزنامه، بروشور و غیره) وجود دارد و افراد می توانند بیش از یک منبع را انتخاب کنند. من می خواهم از منبع اطلاعات یک متغیر پیش بینی کننده در یک رگرسیون چندگانه استفاده کنم. با این حال، از آنجایی که افراد می توانند بیش از یک منبع اطلاعاتی را انتخاب کنند، به نظر نمی رسد که بتوان آن را به عنوان یک متغیر طبقه بندی واحد در نظر گرفت. ** چگونه می توان یک متغیر طبقه بندی که در آن پاسخ دهندگان می توانند بیش از یک پاسخ را انتخاب کنند به عنوان پیش بینی کننده در رگرسیون چندگانه استفاده شود؟**
چگونه می توان یک متغیر طبقه بندی که در آن پاسخ دهندگان می توانند بیش از یک پاسخ را انتخاب کنند به عنوان پیش بینی کننده در رگرسیون چندگانه استفاده شود؟
83778
در حال حاضر مشغول بررسی چند کار هستم و به موارد زیر برخوردم که به نظر من اشتباه است. دو مدل مخلوط (در R) با استفاده از lmer نصب می شوند. مدل‌ها غیر تودرتو هستند و با آزمون‌های نسبت احتمال مقایسه می‌شوند. به طور خلاصه، در اینجا یک مثال قابل تکرار از آنچه من دارم آورده شده است: set.seed(105) Resp = rnorm(100) A = factor(rep(1:5، هر = 20)) B = factor(rep(1:2، بار = 50)) C = تکرار (1:4، بار = 25) m1 = lmer(Resp ~ A + (1|C)، REML = TRUE) m2 = lmer(Resp ~ B + (1|C)، REML = TRUE) anova(m1,m2) تا آنجا که من می بینم، «lmer» برای محاسبه log-relihood استفاده می شود و عبارت «anova» تفاوت بین مدل‌هایی که از مربع کای با درجات آزادی معمول استفاده می‌کنند. این به نظر من درست نیست. اگر درست است کسی مرجعی می شناسد که این را توجیه کند؟ من از روش‌های متکی بر شبیه‌سازی‌ها (مقاله لوئیس و همکاران، 2011) و رویکرد توسعه‌یافته توسط Vuong (1989) آگاه هستم، اما فکر نمی‌کنم که این چیزی باشد که در اینجا تولید می‌شود. من فکر نمی کنم استفاده از عبارت «anova» درست باشد.
تست نسبت درستنمایی - lmer R - مدلهای غیر تودرتو
33372
آیا می توان آنالیز تفکیک کننده با اثرات تصادفی انجام داد؟ آیا پکیج R برای این کار وجود دارد؟ زمینه: من داده‌های استفاده از زیستگاه دو گونه قورباغه را از تله‌متری رادیویی دارم، اما داده‌های تودرتو در «گونه‌ها» برای افرادی است که داده‌های همبستگی بالایی دارند. به عنوان مثال، من 280 جابجایی برای گونه 1 دارم، با میانگین 20 جابجایی برای هر فرد، و ~ 210 جابجایی برای گونه 2، با میانگین 13 جابجایی به ازای هر حیوان. جابجایی به ازای هر حیوان به شدت همبسته است. در هر جابجایی، داده‌های زیستگاه ساختاری را جمع‌آوری کردم، و می‌خواهم شناسایی کنم که کدام پارامترها با هر گونه قوی‌تر هستند. ترجیح من این است که این خودهمبستگی در تجزیه و تحلیل لحاظ شود، اما من فکر می کنم گزینه های من با DA عبارتند از: 1. استفاده از مقادیر میانگین برای هر فرد، اما در این صورت فرضیات اندازه نمونه را زیر پا می گذارم زیرا نمونه های کمتری دارم. از متغیرها (بنابراین جایگزین مناسبی نیست). یا 2. جابجایی افراد با نقاط داده زیادی را کاهش دهید. من مقداری جستجو در CranR، اسناد و غیره انجام داده ام، اما موفقیت چندانی نداشته ام. بسته MASS تجزیه و تحلیل متمایز و اثرات تصادفی انجام می دهد، اما RE در DA؟ ممنون می شوم که مسیر درست را به من نشان دهند (یا به من بگویند که برای ناهار کاملاً بیرون هستم!)
تجزیه و تحلیل متمایز با اثرات تصادفی
41628
من در حال انجام چندین انتساب در پایگاه داده مشاهدات بیماران بیمارستانی هستم. یک مشاهده از بسیاری از متغیرهای کمکی در هر بیمار وجود دارد. 2 متغیر نتیجه باینری وجود دارد: 1. زنده/مرده بعد از 30 روز 2. فوت در بیمارستان، یا زنده ماندن/ترخیص دو مدل تجزیه و تحلیل مجزا (رگرسیون لجستیک)، با متغیرهای کمکی یکسان، اجرا می شود، که هر کدام یکی از این نتایج را دارند. پاسخ در مدل های تحلیل 7 متغیر کمکی وجود دارد. در متغیرهای کمکی و پیامدها، داده های گمشده بین 3 تا 11 درصد وجود دارد. علاوه بر این، 7 متغیر کمکی دیگر وجود دارد که باید در مدل انتساب برای پیش‌بینی فقدان متغیرهای کمکی و پیامدها استفاده شوند. سؤالات من مربوط به انتساب دو متغیر نتیجه است. طبق رویه استاندارد، آنها باید به عنوان پیش‌بینی‌کننده‌های کمبود در متغیرهای کمکی مورد استفاده قرار گیرند، اما آنها به شدت با یکدیگر هم خط هستند. آیا این یک نگرانی برای مدل انتساب است؟ آیا اعتبار/توصیه می‌شود که هر دو را در یک مدل نسبت دهیم (برای تولید چندین مجموعه داده کامل که همگی حاوی هر دو نتیجه هستند) یا باید برای هر یک از نتایج انتساب جداگانه انجام شود (برای تولید دو مجموعه مجزا از مجموعه داده‌های کامل، که هر مجموعه مجزا دارای یک است. از نتایج)؟ هر گونه پیشنهاد دیگری برای نحوه ادامه کار استقبال می شود.
انتساب متغیرهای پاسخ از دست رفته
44108
می خواستم بدانم آیا می توانید تجربه خود را در گزارش تست های مجذور کای برای داده های نظرسنجی پیچیده در نشریات مجلات به اشتراک بگذارید. معمولاً آزمون‌های Chi-square به صورت $\chi^2_1(2,\text{N} = 90)= 0.89، \text{ p} = 0.35$ گزارش می‌شوند. (به عنوان مثال، اگرچه من حدس می‌زنم که می‌تواند تغییراتی داشته باشد). با این حال، مفهوم N با طراحی پیمایش پیچیده بسیار دشوار می شود، و من مطمئن نیستم که آیا باید اندازه نمونه وزنی احتمالی را گزارش کنم یا فقط اندازه نمونه را. من همچنین به این موضوع علاقه دارم که اگر نمونه، N های متفاوتی را گزارش کنند یا خیر. صرفاً تابع وزن‌دهی احتمال (مثلاً اگر متأسفانه اطلاعات اقشار یا خوشه‌ای وجود نداشت) یا وزن‌دهی احتمال با خوشه‌بندی و طبقه‌بندی. و اگر حجم نمونه در قالب بالا گزارش شده باشد، آیا باید به جای N به عنوان n گزارش شود؟ فقط برای مثال: بسته R Lumley موارد زیر را برمی گرداند: data(api) dclus1<-svydesign(id=~dnum, weights=~pw, data=apiclus1, fpc=~fpc) svychisq(~sch.wide+type, dclus1, statistic=Chisq) Pearson's X^2: Rao & Scott data adjustment: svychisq(~sch.wide + نوع، dclus1، آمار = Chisq) X-squared = 11.94، df = 2، p-value = 0.005553 آیا به عنوان N sum (xtabs(~sch.wide+type, data= apiclus1)) #یا sum(svytable(~sch.wide+type, dclus1)) برای جزئیات در مورد محاسبات و اصلاحات رائو اسکات در آزمون پیرسون chisquared به این صفحه مراجعه کنید. خیلی به نظر شما علاقه مندم با تشکر فراوان
گزارش تست های مجذور کای برای داده های وزنی
71144
من یک مجموعه داده سری زمانی از زمان رسیدن فوتون از یک آشکارساز دارم و باید بدانم آیا زمان رسیدن یکنواخت است یا خیر. توزیع پیوسته است؟ من حداکثر $D$ را بین CDF نرمال شده زمان رسیدن فوتون محاسبه کرده ام. بعد باید چیکار کنم؟ یک $Pr(k\le x)$ در پیوند ویکی وجود دارد. در سوال من چه معنایی دارد؟ آیا کسی می تواند تعریف اولیه ks-test را به من بگوید؟ در واقع، من می توانم احتمال ks-test را از طریق scipy.stats.kstest محاسبه کنم. آیا کسی معنی ارگ را برای توزیع یکنواخت می داند؟ و دو مقدار خروجی؟ >>> stats.kstest(sample, 'uniform',args=(1,2,3,4,5,6)) (1.0, 0.0) >>> stats.kstest(sample, 'uniform',args=( 0.1،0.2،0.3،0.4،0.5،0.6)) (1.0، 0.0) >>> stats.kstest(نمونه، 'uniform',args=(0.1,0.2)) (1.0، 0.0) >>> stats.kstest(sample, 'uniform',args=(1,2)) (0.98999999999999999، 0.0) >>> stats.kstest( نمونه، 'یکنواخت',args=(1.1،2.1)) (0.98499999999999999، 0.0) **درباره یکنواخت** فکر می کنم باید دو cdf را با هم مقایسه کنم: داده های واقعی نرمال شده و cdf توزیع یکنواختی که فوتون ها به طور یکنواخت می رسند. لطفا به طرح من نگاهی بیندازید. نقاط سبز از داده های واقعی هستند. صدها نقطه سبز وجود دارد. هر نقطه سبز به معنای ورود یک فوتون جدید است. محور x زمان است و محور y نرمال شده است، در واقع، آن درصد (فوتون های ورود تجمعی / تعداد فوتون کل) است. خط مستقیم قرمز مخفف cdf توزیع یکنواخت است. stats.uniform هر بار مقادیر تصادفی را انتخاب می کند. آیا stats.uniform مناسب است؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/yvUBz.png) **درباره ks-test** من یک تصویر از نسخه 2 Numerical Recipes در C گرفتم. چه رابطه ای بین 14.3.9 و Pr(k<=x) ویکی پدیا؟ فقط یک تقریب است، درست است؟ اهمیت باید تنها با دو مقدار max(D) و اندازه نمونه تعیین شود، درست است؟ Pr(k<=x) cdf از D است؟ چگونه x را تعریف کنیم؟ من نمی توانم یک نتیجه سازگار با stats.kstest (). منظورتان این است که اگر از داده های زمان واقعی استفاده کنم که نرمال سازی نشده اند، باید از دو نمونه ks-test استفاده کنم، درست است؟ ![NumerialRecipes2rdCh14](http://i.stack.imgur.com/hGMz5.jpg)
تعریف آزمون تک نمونه ای کولموگروف – اسمیرنوف چیست؟
41622
من می دانم که فاصله پیش بینی، همانطور که در اکثر کتاب های درسی در مورد مدل های خطی تعریف شده است، بر عدم قطعیت در مناسب بودن مدل متمرکز است و برای تخمین محدوده پیش بینی خروجی برای ورودی های دقیق استفاده می شود. با این حال، همانطور که معمولاً اتفاق می‌افتد، در مورد موقعیت‌هایی که ورودی دقیق نیست، چطور؟ چگونه یک «فاصله پیش‌بینی» را محاسبه می‌کنید که هم عدم قطعیت در مدل و هم عدم قطعیت در داده‌های ورودی را محاسبه می‌کند؟ به عنوان مثال، فرض کنید مدل این است: `y = a0 + (a1 * x1) + (a2 * x2)` که در آن `y`، `x1` و `x2` بردارهای سری زمانی هستند. من فقط یک مشاهده از سری زمانی «y» با سری زمانی «x1» و «x2» مرتبط آن دارم. از این داده ها برای برازش مدل استفاده می شود. با این حال، من همچنین 1000 مشاهده اضافی برای «x1» و «x2» دارم. من به راحتی می‌توانم «فاصله‌های پیش‌بینی» را با استفاده از مدل و هر جفت «x1» «x2» محاسبه کنم، اما می‌خواهم یک «فاصله پیش‌بینی» را تخمین بزنم که همه مشاهدات «x1» و «x2» را امکان‌پذیر می‌کند. برای دقیق تر، مثال زیر را ایجاد کردم. کد مشکوک زیر خط نظر «#======» است. اساسا، من از «lm(..)» برای جا دادن بردار «y» با بردارهای «x1» و «x2» استفاده کردم. سپس، من از «predict.lm(...interval=prediction, level=alpha) استفاده کردم تا بردارهای fit، lwr و upr معمولی آن را برای هر جفت x1 اضافی x2 ایجاد کنم. (نمودار 1 را ببینید، مطابق خط ثابت است، upr و lwr خطوط چین برای دو مشاهده هستند). سپس این بردارها را برای همه جفت‌های «x1» «x2» جمع‌آوری کردم و از «آلفا» برای استخراج دنباله‌های بالا و پایین همه بردارهای «lwr» و «upr» استفاده کردم (نمودار 2 را ببینید). آیا این طرح معتبر است؟ آیا «آلفا» که در «predict.lm(... level=alpha)» استفاده شد، مستقیماً برای شمارش/مرتب‌سازی نتایج برای ایجاد «فاصله پیش‌بینی» اعمال می‌شود که به همه جفت‌های «x1» «x2» اجازه می‌دهد. ? آیا می‌توان محدوده 5 درصدی را از یک مدل رقیب (مثلاً مدل ARIMA) با این «فاصله پیش‌بینی» 5 درصد مقایسه کرد؟ من نسبتاً مطمئن هستم که طرح زیر درست نیست، اما تا کنون، متوجه نشده ام که باید چه چیزی را اصلاح کنم. set.seed(1) numpoi <- 10 #تعداد نقاط داده در یک بردار سری زمانی #اولین متغیر مستقل x1، اولین مشاهده x1mea <- 0.03 x1sta <- 0.05 x1 <- cumsum(rnorm(numpoi, mean=x1mea , sd=x1sta)) #متغیر مستقل دوم x2، مشاهده اول x2mea <- -0.01 x2sta <- 0.1 x2 <- cumsum(rnorm(numpoi، mean=x2mea، sd=x2sta)) #متغیر وابسته y، مشاهده اول a0 <- 3 a1 <- 2 a2 <- 1 noimea <- 0.0 noista <- 0.1 y <- a0 + (a1 * x1) + (a2 * x2) + rnorm(numpoi, mean=noimea, sd=noista) #فریم داده ای از داده های نظاره اول را بسازید datfra <- data.frame(y=y, x1=x1, x2=x2) #براساس مدل برای حالت نخستین مشاهده <- lm(y ~ x1 + x2, data=datfra) خلاصه (mod) #تنظیم مقدار آلفای دلخواه alpha <- 0.95 onetai <- (1 - alpha)/2 #تبدیل دو دنباله alpha به یک مقدار یک دنباله برای استفاده در آینده #تولید برخی داده های جدید a برای مشاهده دوم x1 و x2 . x1a <- cumsum(rnorm(numpoi, mean=x1mea, sd=x1sta)) x2a <- cumsum(rnorm(numpoi, mean=x2mea, sd=x2sta)) datfraa <- data.frame(y=rep(NA, numpoi )، x1=x1a، x2=x2a) modprea <- پیش بینی (mod, newdata=datfraa, interval=prediction, level=alpha) #برای مشاهده سوم از x1 و x2 مقداری داده جدید b تولید کنید. x1b <- cumsum(rnorm(numpoi, mean=x1mea, sd=x1sta)) x2b <- cumsum(rnorm(numpoi, mean=x2mea, sd=x2sta)) datfrab <- data.frame(y=rep(NA, numpoi )، x1=x1b، x2=x2b) modpreb <- پیش بینی (mod، newdata=datfrab, interval=prediction, level=alpha) #نتایج را برای نمودارهای جدید a و b ترسیم کنید(modprea[, 1], type=l, ylim=c(min(modprea , modpreb), max(modprea, modpreb)), main=نمودار 1 - مشاهدات دوم و سوم برای x1 و x2، lwd=2، col=red) خطوط (modprea[, 2], lwd=2, lty=2, col=red) خطوط (modprea[, 3], lwd=2, lty=2, col=red) خطوط (modpreb[, 1], lwd=2, col=green) خطوط (modpreb[, 2], lwd=2, lty=2، col=green) خطوط (modpreb[, 3]، lwd=2، lty=2، col=green) #================================================= ========================== # کد زیر همان جایی است که سوال من نهفته است. آیا این روش مناسب #برای حساب کردن همه مشاهدات است؟ #طرح محاسبه فوق را روی همه مشاهدات اجرا کنید. numtri <- 1000 #همه مشاهدات modprecfit <- matrix(0, nrow=numpoi, ncol = numtri) #ماتریس برای نگه داشتن همه بردارهای fit modpreclwr <- matrix(0, nrow=numpoi, ncol = numtri) #ماتریس برای نگهداری همه بردارهای lwr modprecupr <- ماتریس(0, nrow=numpoi، ncol = numtri) #ماتریس برای نگه داشتن همه بردارهای upr #ماتریس‌های modprecfit، modpreclwr و modprecupr را پر کنید. for (i در 1:numtri) { #داده های جدید را تولید کنید و آن را در یک دیتافریم x1c قرار دهید <- cumsum(rnorm(numpoi, mean=x1mea, sd=x1sta)) x2c <- cumsum(rnorm(numpoi, mean=x2mea ، sd=x2sta)) datfrac <- data.frame(y=rep(NA، numpoi)، x1=x1c، x2
چگونه یک فاصله پیش بینی برای بسیاری از مشاهدات ورودی ایجاد می شود؟
41625
من در حال حاضر روی تخمین زیست توده با استفاده از تصاویر ماهواره ای کار می کنم. من به سرعت پیشینه سوالم را تعریف می کنم و سپس سوال آماری را که روی آن کار می کنم توضیح می دهم. **زمینه** _مشکل_ من سعی می کنم زیست توده را در منطقه ای در فرانسه تخمین بزنم. پاسخ من چگالی حجمی چوب بخار (در متر ^ 3/ هکتار) است که کم و بیش متناسب با زیست توده است (بسته به تراکم چوب...). متغیرهای مستقلی که من دارم، شاخص‌های پوشش گیاهی هستند که از بازتاب‌های اندازه‌گیری شده در این منطقه به دست می‌آیند (ماهواره مورد استفاده در این مطالعه برای کسانی که آن را می‌شناسند MODIS است). این شاخص ها به عنوان مثال NDVI، EVI و غیره هستند. من نقشه های شاخص ها را دارم و وضوح نقشه ها 250 متر است. همبستگی قوی بین این شاخص ها و حجم در یک نوع جنگل (زیست و آب و هوا) وجود دارد. بنابراین من سعی می‌کنم چگالی حجم را در برابر این شاخص‌ها (در واقع سری زمانی آن‌ها) در نمودارهای موجودی که حجم را می‌دانم، پس بزنم. _ موجودی های جنگلی _ حجم در این کرت ها با روش نمونه گیری زیر برآورد می شود: 1. گره های موجودی بر روی یک شبکه منظم که منطقه را پوشش می دهد قرار می گیرند. 2. یک نمودار به هر گره متصل می شود و فرآیند موجودی (انواع درختان، حجم ها، ارتفاع تاج پوشش و ...) در این نمودار انجام می شود. البته من فقط به نمودار موجودی علاقه دارم و مقادیر شاخص های گیاهی من مقدار پیکسل حاوی نمودار است. 3. فرآیند موجودی در یک نمودار به شرح زیر است: ![http://i.stack.imgur.com/DeHdC.png](http://i.stack.imgur.com/qcHtu.png) * اندازه گیری درختانی که دارای قطر > 37.5 سانتی متر در دایره شعاع 15 متری هستند * اندازه گیری درختانی که قطر آنها > 22.5 سانتی متر در دایره شعاع 9 متر است * اندازه گیری درختانی که قطر آنها بیش از 7.5 سانتی متر در دایره شعاع 6 متر است، سپس چگالی حجمی با استفاده از ضرایب انبساط محاسبه می شود. برای هر قطعه من به داده های تمام درختان اندازه گیری شده دسترسی دارم. علاوه بر این، برای هر درخت منفرد، به دلیل استفاده از معادلات آلومتریک (مثلاً 10٪) عدم قطعیت در حجم دارم. **جایی که آمار مهم است...** برای اینکه رگرسیون های من دقیق تر باشد، برای هر تخمین حجم به واریانس/CI این معیار نیاز دارم. IMO به تعداد درختان نمونه برداری شده و تراکم حجم یافت شده بستگی دارد. بنابراین من دو مشکل دارم: 1. چگونه می توان این واقعیت را در نظر گرفت که شاخص های پوشش گیاهی من بیش از یک پیکسل 250 متر اندازه گیری می شود؟ > می توانم فرض کنم که چگالی حجم روی یک پیکسل ثابت است، و من > از این پیکسل با یک نمودار موجودی نمونه برداری می کنم. 2. چگونه می توان تغییرپذیری تراکم حجم خود را تخمین زد؟ > فکر می کنم بتوانم از بوت استرپینگ روی جمعیت درختی استفاده کنم. اما تعداد کل > درختان اندازه گیری شده من می تواند بسیار کم باشد (از 7 تا 20 ...). علاوه بر این، > چگونه می توانم این واقعیت را در نظر بگیرم که من درختان را در > دایره های مختلف بسته به اندازه آنها اندازه گیری می کنم؟ و اگر من کل یک پیکسل را نگاه می کنم، تغییرپذیری > چگونه باید تغییر کند؟ > من همچنین به این فکر می کردم که می توانم از شبیه سازی مونت کارلو برای شبیه سازی یک جنگل > استفاده کنم و سپس به صورت تصادفی از این جنگل با نمودارها نمونه برداری کنم تا ببینم چه اتفاقی می افتد > ... من پیشینه آماری قوی ندارم، بنابراین من یک کمی گم شده!
آیا می توانم از تقویت کننده استفاده کنم، چرا یا چرا که نه؟
28620
من اخیراً مقاله جالبی را خواندم که روش‌های خوشه‌بندی داده‌ها را بدون فرض تعداد ثابتی از خوشه‌ها توصیف می‌کرد. این مقاله حتی شامل برخی کدهای نمونه، در ترکیبی از روبی، پایتون و R است. با این حال، تجزیه و تحلیل با استفاده از مدل مخلوط فرایند دیریکلت گاوسی scikit-learn انجام می‌شود تا در واقع خوشه‌ها را در برخی از داده‌های نمونه گرفته‌شده از منوی مک‌دونالد پیدا کند. بدیهی است که این یک بهانه عالی برای یادگیری بیشتر پایتون است، اما من تنبل هستم و می‌خواهم یک بسته R آماده پیدا کنم که بتواند یک دیتافریم بگیرد و خوشه‌ها را برگرداند، به روشی شبیه به تابع kmeans. یک جستجوی سریع در CRAN بسته های dpmixsim و profdpm را نشان می دهد. پیشنهادی برای بهترین مکان برای شروع دارید؟
فرآیند دیریکله/فرایند رستوران چینی برای خوشه بندی در R
87648
من سعی می کنم آزمایشی را همانطور که در مقاله ای در R توضیح داده شده است پیاده سازی کنم. هدف محاسبه غنی سازی برای نوع خاصی از جهش است که در یک پایگاه داده شده در یک زمینه توالی مشخص رخ می دهد. من نقل قول می کنم > ارزیابی آماری نشان دادن بیش از حد امضای APOBEC > جهش ها در هر نمونه با استفاده از آزمون دقیق فیشر یک طرفه انجام شد > با مقایسه نسبت تعداد سیتوزین به تیمین یا سیتوزین به جایگزینی گوانین و گوانین به آدنین یا گوانین به سیتوزین > جانشینی هایی که در و خارج از موتیف هدف APOBEC (TCW یا > WGA) به نسبتی مشابه برای همه سیتوزین‌ها و گوانین‌ها که در داخل و خارج از موتیف TCW یا WGA در بخش نمونه‌ای از ژنوم قرار دارند. مرجع - http://www.nature.com/ng/journal/v45/n9/full/ng.2702.html این بدان معنی است که آنها غنی سازی را با مقایسه جهش های CtoT یا CtoG در زمینه پایه TCW با جهش های خارج از آن زمینه محاسبه می کنند. تعداد سیتوزین های موجود در داخل و خارج از بافت TCW در ژنوم. بنابراین ما مقادیر زیر را داریم. TCW.mutations = تعداد جهش های C به T یا G در زمینه TCW non.TCW.CtoTG.mutations = تعداد جهش های C به T یا G خارج از زمینه TCW TCW.cytosines = تعداد سیتوزین ها در زمینه پایه TCW در اگزوم انسان nonTCW.cytosines = تعداد سیتوزین ها خارج از بافت پایه TCW. من باید یک آزمایش دقیق فیشر یک طرفه انجام دهم و موارد زیر را با استفاده از تابع fisher.test در R TCW.mutations/non.TCW.CtoTG.mutations به TCW.cytosines/nonTCW.cytosines مقایسه کنم، ماتریس ورودی من چگونه به نظر می رسد؟
ساخت یک ماتریس ورودی در R برای تست دقیق فیشر. ترتیب متغیرها
41626
اگر اشتباه نکنم، توابع احتمال به اندازه نمونه حساس هستند، یعنی هر چه نمونه بزرگتر باشد، مقدار احتمال کمتر است. با توجه به یک نمونه $x$ از یک متغیر تصادفی $X \sim f(\theta)$، و یک تخمین پارامتر $\hat\theta$، فرض کنید می‌خواهم این فرضیه را آزمایش کنم که احتمالات زیرنمونه‌های مختلف $x$، اجازه دهید آنها را $x_a$ بنامیم و $x_b$ برابر هستند. مشکل این است که $x_a$ و $x_b$ دارای تعداد متفاوتی از عناصر هستند، مثلاً $n_a$ و $n_b$ به ترتیب، و $n_a \neq n_b$، بنابراین من فرض می‌کنم احتمالات باید به نحوی عادی شوند. آیا تقسیم بر حجم نمونه کافی است؟ به عنوان مثال، آیا می توانم از یک آمار آزمایشی مانند $T = \frac{\ell(\hat\theta|x_a)}{n_a} - \frac{\ell(\hat\theta|x_b)}{n_b}$ استفاده کنم و سپس این فرضیه را آزمایش کنید که $T = 0 $. یک سوال مرتبط این است که چگونه توزیع احتمال آمار بالا را پیدا کنم، اما این داستان دیگری است.
عادی سازی احتمال
33379
من در حال توسعه یک آزمایش فیزیولوژیکی با استفاده از R هستم که به برخی پارامترها بهینه شده نیاز دارد. در مقایسه روش جدید با روش موجود، مقادیر خوانش‌های فردی به صورت خطی همبستگی دارند اما بسیار ناهمسان هستند - واریانس تقریباً متناسب با میانگین. من می خواهم با بررسی برازش خوب مدل های خطی در مقایسه با یکدیگر، اثرات تغییرات پارامترهای مختلف را با هم مقایسه کنم. فواصل اطمینان در اطراف پارامترهای مدل خطی مورد نیاز نیست. مقایسه مربعات R با توجه به ناهمگونی مناسب به نظر نمی رسد. آیا همبستگی فاصله یا مجذور R پس از تصحیح HCCM روشهای مناسبی برای آزمایش برتری یک روش بر روش دیگر است؟
مقایسه برازش مدل با داده های ناهمسان
87649
من 6000 نقطه دارم که همه فواصل زوجی را در یک ماتریس فاصله دارم. من می‌خواهم ایده‌ای داشته باشم که آیا این داده‌ها توسط مخلوطی از توزیع‌های گاوسی ایجاد شده‌اند، بنابراین سعی می‌کنم تصویرسازی را به دست بیاورم. من سعی می کنم با استفاده از sklearn در پایتون مقیاس گذاری چند بعدی را در 2 بعد اعمال کنم. من چهار سوال دارم: 1. در تمام نمونه هایی که پیدا کردم، تعداد امتیازات بسیار محدود بود (حدود 20). آیا با 6000 امتیاز می توان MDS را اعمال کرد؟ 2. اگر نه، آیا راهی وجود دارد که بتوانم ایده بهتری داشته باشم که آیا داده های من توسط مخلوطی از گاوس ها تولید شده اند؟ (من می خواهم این داده ها را با استفاده از GMM خوشه بندی کنم.) 3. sklearn از تابع manifold.MDS استفاده می کند. یکی از پارامترهای این تابع 'حالت تصادفی' است. چه چیزی را نشان می دهد؟ 4. در این مثال، ماتریس استفاده شده (X_true) دارای ابعاد 20x2 است. آیا MDS نباید یک ماتریس فاصله (یعنی ماتریس مربع) بگیرد؟
مقیاس بندی چند بعدی با استفاده از پایتون
71142
من در حال توسعه روشی برای انجام کاری با آزمایش جایگشت هستم. من دو طرح جایگشت / تصادفی سازی دارم و نمی دانم کدام یک بهتر از دیگری است. آیا می توانم فاصله اطمینان برای هر طرح جایگشت را پیدا کنم؟ اگر چنین است، آیا منطقه ای با منطقه اطمینان باریک تر بهتر است؟
فاصله(های) اطمینان برای طراحی تصادفی
87645
من توانستم جدول 3.1 را از ESL بازتولید کنم. با این حال، زمانی که سعی کردم جدول 3.2 را بازتولید کنم، ضرایب تخمینی من بسیار دور بود (در زیر نشان داده شده است): [,1] [1,] 0.4292 [2،] 0.5765 [3،] 0.6140 [4،] -0.0190 [5،] 0.1448 [6،] 0.7372 [7،] -0.2063 [8،] -0.0295 [9,] 0.0095 نتایج جدول 3.2 در ESL به شرح زیر است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/epSz4.png) من کد خود را در اینجا پیوست کرده ام: res <- read.table(prostate.data, sep = ) fix(res) XTraining = زیر مجموعه (res, train) XTesting = زیر مجموعه (res, train == FALSE) nrow = dim( XTraining )[1] p = dim( XTraining )[2] - 1 # آخرین ستون پاسخ D = XTraining[,1:p-1] # دریافت داده‌های پیش‌بینی‌کننده # این داده‌های خام جدول 3.1 را از کتاب نشان می‌دهد: # print(cor(D),digts=3) library(xtable) xtable( cor(D), caption=تکثیر مقادیر جدول 3.1 از کتاب, اعداد=3 ) # # Duplicate Table 3.2 from the book # # یک ستون از یک ها اضافه کنید: # Dp = cbind( ماتریس(1) ,nrow,1), as.matrix(D ) ) lpsa = XTraining[,p] library(MASS) betaHat = ginv(t(Dp) %*% Dp ) %*% t(Dp) %*% as.matrix(lpsa) # این اساساً اولین ستون در جدول 3.2 است: # print('stute first: beta'soveres') print (betaHat,digits=2) آیا کسی مشکلات مشابهی دارد؟ می خواهم بدانم چه مشکلی در خروجی من رخ داده است.
بازتولید جدول 3.2 از عناصر یادگیری آماری
83771
من به سوالات متعددی در این سایت در مورد بوت استرپینگ و فواصل اطمینان نگاه کرده ام، اما هنوز گیج هستم. بخشی از دلیل سردرگمی من احتمالاً این است که در دانش آماری خود به اندازه کافی پیشرفته نیستم که بتوانم بسیاری از پاسخ ها را بفهمم. من تقریباً در نیمه راه یک دوره آمار مقدماتی هستم و سطح ریاضی من فقط در اواسط جبر II است، بنابراین هر چیزی که از آن سطح گذشته باشد فقط من را گیج می کند. اگر یکی از افراد آگاه در این سایت بتواند این موضوع را در سطح من توضیح دهد، بسیار مفید خواهد بود. ما در کلاس یاد می‌گرفتیم که چگونه با استفاده از روش بوت استرپ نمونه‌برداری مجدد کنیم و از آن‌ها برای ایجاد فاصله اطمینان برای آماری که می‌خواهیم اندازه‌گیری کنیم، استفاده کنیم. به عنوان مثال، فرض کنید که از یک جمعیت بزرگ نمونه برداری می کنیم و متوجه می شویم که 40٪ می گویند که به نامزد A رای می دهند. ما فرض می کنیم که این نمونه انعکاس بسیار دقیقی از جمعیت اصلی است، در این صورت می توانیم نمونه های مجدد را از جامعه بگیریم. برای کشف چیزی در مورد جمعیت. بنابراین نمونه‌های مجدد را می‌گیریم و (با استفاده از سطح اطمینان 95٪) دریافتیم که فاصله اطمینان حاصل از 35٪ تا 45٪ متغیر است. سوال من این است که این فاصله اطمینان در واقع به چه معناست؟ من مدام می خوانم که بین فواصل اطمینان (تکرارگرا) و فواصل معتبر (بیزی) تفاوت وجود دارد. اگر درست متوجه شده باشم، یک بازه معتبر می گوید که به احتمال 95٪ در موقعیت _ما_ پارامتر واقعی در بازه داده شده (35٪ -45٪) وجود دارد، در حالی که یک فاصله اطمینان می گوید که 95٪ در _این وجود دارد. نوع موقعیت_ (اما نه لزوماً در موقعیت ما به طور خاص) روشی که ما استفاده می کنیم به طور دقیق گزارش می دهد که پارامتر واقعی در بازه داده شده است. با فرض درستی این تعریف، سوال من این است: پارامتر واقعی که در استفاده از فواصل اطمینان ایجاد شده با استفاده از روش بوت استرپ در مورد آن صحبت می کنیم چیست؟ آیا ما به (الف) پارامتر واقعی جمعیت اصلی_، یا (ب) پارامتر واقعی _نمونه_ اشاره می کنیم؟ اگر (الف)، می‌گوییم که در 95 درصد مواقع، روش بوت استرپ به‌طور دقیق عبارات درستی را درباره جمعیت اصلی گزارش می‌کند. اما چگونه می توانیم این را بدانیم؟ آیا کل روش بوت استرپ بر این _فرض_ استوار نیست که نمونه اصلی بازتاب دقیق جامعه ای است که از آن گرفته شده است؟ اگر (ب) پس من اصلاً معنی فاصله اطمینان را نمی فهمم. آیا ما از قبل پارامتر واقعی نمونه را نمی دانیم؟ این یک اندازه گیری ساده است! من این موضوع را با معلمم در میان گذاشتم و او بسیار مفید بود. اما من هنوز گیج هستم.
معنای فاصله اطمینان گرفته شده از نمونه های مجدد بوت استرپ چیست؟
47662
من بردارهای دقت دو طبقه بندی را دارم. چگونه می توانم یک تست t برای آنها در متلب بسازم و آیا نوع طرح خوبی برای نشان دادن آن وجود دارد؟
چگونه آزمون t را در متلب اعمال کنیم؟
41620
من سعی می کنم تفاوت بین دو الگوریتم را ارزیابی کنم. آنها تصادفی هستند، بنابراین من آنها را چندین بار روی یک فایل ورودی اجرا کرده ام و نتایج آنها را یادداشت کرده ام. من می‌خواهم تعیین کنم که آیا الگوریتم من نسبت به رویکرد قبلی پیشرفت قابل‌توجهی از نظر آماری ارائه می‌دهد یا خیر. از درک من (بالقوه ناقص) این نوع موقعیت جایی است که باید (یا بهتر بگوییم می‌توانم) از آزمون رتبه علامت ویلکاکسون استفاده کنم. داده‌ها به طور طبیعی جفت می‌شوند، بنابراین من می‌توانم خروجی‌های هر دو الگوریتم را با مشکل ورودی خاصی که آنها استفاده می‌کنند به هم بپیوندم. از آنجایی که می‌خواهم آزمایش کنم که الگوریتم من نه تنها متفاوت است، بلکه در واقع بهتر است (در این مورد مقادیر کمتری را برمی‌گرداند) از الگوریتم دیگر، به نظر می‌رسد یک فرضیه یک طرفه باشد. من از تابع R `wilcox.test` برای انجام آزمایش استفاده می کنم و در مورد نحوه تفسیر نتایج کمی سردرگم هستم. من صفحه راهنمای wilcox.test را خوانده ام و به نظر نمی رسد اطلاعات زیادی در مورد نتایج ارائه دهد، تمرکز بیشتری روی آرگومان های تابع است. من یک نمونه کار حداقلی با زیرمجموعه کوچکی از داده‌هایم ساخته‌ام: x <- ساختار(فهرست(مثلا = ساختار(c(1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L) .Label = c(competition01, competition02, competition03, competition04, competition05, «competition06»، «competition07»، «competition08»، «competition09»، «competition10»، «competition11»، «competition12»، «competition13»، «competition14»، «competition15»، «competition16»، «competition17»، «competition18» ، competition19، competition20)، class = factor)، nhoods = ساختار(c(1L، 1L، 1L، 1L، 1L، 1L، 1L، 1L، 1L، 1L)، .Label = c(nhoods1، nhoods2، nhoods3، nhoods4، nhoods5) , class = factor)، run.no = ساختار (c(1L, 1L, 2L, 2L, 3L, 3L، 4L، 4L، 5L، 5L)، .Label = c(1، 2، 3، 4، 5)، class = factor)، پارتیشن = ساختار(c( 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر)، .Label = c(سخت-نرم، کامل)، کلاس = ضریب)، VNS = c(984L، 1445L، 1033L، 1445L، 1035L، 1318L، 1058L، 1445L، 913L، 1445L)، «VNS-Skip» = c(1083L، 39،1، 1083L، 39L، 14 1077L، 1363L، 1102L، 1442L، 1093L، 1252L))، .Names = c(instance، nhoods، run.no، partition، VNS، VNS-Skip)، ردیف. names = c(NA, 10L)، class = data.frame) wilcox.test(x[,5], x[,6], paired = TRUE, conf.int = TRUE, alternative = بیشتر) نتایج الگوریتم من در ستون 6 و نتایج اصلی در ستون 5 قرار دارند. از آنجایی که می‌خواهم ارزیابی کنم که آیا الگوریتم من بهتر است یا خیر، از گزینه جایگزین = بزرگتر استفاده کرده‌ام که به این معنی است که آزمون 1st arg > 2nd arg را بررسی می‌کند. این نتیجه به خروجی می‌دهد: داده‌های آزمون رتبه‌بندی امضا شده توسط Wilcoxon: x[، 5] و x[، 6] V = 22، p-value = 0.7217 فرضیه جایگزین: تغییر مکان واقعی بیشتر از 0 95 درصد فاصله اطمینان: -72 Inf برآوردهای نمونه: (شبه)میانگین -21 در این مورد مقدار p کمتر از 0.05 نیست، بنابراین شواهد کافی برای اثبات وجود ندارد. فرضیه صفر را کنار بگذارید داشتن بی نهایت به عنوان حد بالایی فاصله اطمینان به چه معناست؟ آیا این به این دلیل است که من از نسخه یک دم آزمون استفاده می کنم؟ تمام تست‌هایی که روی داده‌هایم انجام داده‌ام، همیشه فاصله اطمینان بالایی به عنوان Inf دارند. اگر مقدار p کمتر از 0.05 بود، آیا این بدان معناست که من می‌توانم بگویم با اطمینان 95٪، میانگین x[,5] در 72- از x[,6] خواهد بود؟ مقدار V با توجه به داده های من به چه معناست؟ از آنچه من می توانم ببینم تفاوت بین «میانگین (x[,5])» و «میانگین (x[,6]» است، اما چگونه می توان آن را در نثر توصیف کرد؟ آیا کسی واقعاً از مقدار V استفاده می کند بحث اوست. تجزیه و تحلیل داده ها؟
خروجی آزمون رتبه علامت ویلکاکسون یک دم در R
94436
> فرض کنید $X$ یک متغیر تصادفی از یک توزیع با pdf باشد $$ f(x) = \theta > x^{\theta-1}, \quad 0< x < 1. $$ > > a) توزیع را نام ببرید از $U=-\ln(X)$ ابتدا با پیدا کردن چگالی آن > > b) اجازه دهید $X_1, X_2, \ldots,X_n$ مستقل و به طور یکسان توزیع شوند > تصادفی متغیرهای با pdf که قبلاً با $\theta$= 3 داده شده است. با استفاده از نتیجه > از a) و با قضیه حد مرکزی (CLT) > > i) تقریبی به $P(X_1 \cdot X_2 \cdot \ldots\) پیدا کنید. cdot X_{30} \leq > 1.85 \cdot 10^{-5})$ یعنی برای احتمال حاصلضرب r.v's. **تلاش من** قسمت a) را با انجام تبدیل پیدا کردم و یک نمایی با پارامتر $\theta$ دریافت کردم که pdf من این است: $$ f(x)=\theta e^{-u\theta}. $$ اکنون جایی که من در حال مبارزه هستم قسمت I) است که در آن قرار است با استفاده از CLT و به همراه میانگین معادل $1/3$ و واریانس برابر با $1/9$، تقریبی پیدا کنم. من می توانم نشان دهم که با مشاهده 30، ما فقط حاصلضرب هر میانگین و واریانس را از هر مشاهده جداگانه می گیریم: میانگین = $(\frac{1}{3})^{30}$ واریانس = $(\frac {1}{9})^{30}$ و سپس می‌توانیم آنها را با استفاده از قضیه حد مرکزی $$ P(X_1 \cdot X_2 \cdot \ldots) در نمره z جایگزین کنیم \cdot X_{30} \leq 1.85 \cdot 10^{-5}) = P\left(\frac{X -\mu }{\sigma}\leq \frac {1.85 \cdot 10^{-5} - (\frac{1}{3})^{30}}{(\frac{1}{9})^{15}} \right) $$ بنابراین به من پاسخ داد $ P(Z \leq 3,808,985,943)$ که قطعاً نمی تواند صحیح باشد. ممنون میشم اگه کسی بتونه به اشتباه من اشاره کنه **تلاش مجدد:** با استفاده از راهنمایی که دریافت کردم، توانستم $P(X_1 \cdot X_2 \cdot \ldots \cdot X_{30} \leq 1.85 \cdot 10^{-5}) $P( log X_1 \cdot log X_2 \cdot \ldots \cdot log X_{30} \leq log 1.85 \cdot 10^{-5})$ P($\sum_{k=1}^{30} log X_i \leq log 1.85 \cdot 10^{-5})$ و از آنجایی که متغیر تصادفی X می‌تواند به طور معمول توزیع شود X~ N( $\frac{1}{3}$ , $\frac{1}{9}$) جایگزینی با امتیاز Z $ P(\frac{ log X -\mu }{\frac{\sigma}{\sqrt(n)}})\leq \frac { \frac{log1.85 \cdot 10^{-5}}{30} - (\frac{1}{3})}{(\frac{\frac{1}{3}}{\sqrt(n)})} $P(Z \leq 11.45)$ مسیر درست؟ آیا استفاده از $\mu$ = $\frac{1}{3}$ و $\sigma$ = $\frac{1}{3}$ در امتیاز z صحیح است؟
استفاده از قضیه حد مرکزی برای تقریب
48905
فرض کنید من یک ماتریس متقارن تصادفی W به اندازه $n\times n$ دارم، با i.i.d. ضرایب به طور یکنواخت در [0,1] توزیع شدند و من $W_{ii} = 0$ را تنظیم کردم. سپس یک مقیاس چند بعدی با بعد $k$ اعمال می کنم، که آن را به عنوان کمینه کردن کمیت تعریف می کنم: $H=n^{-2}\sum_{i,j} (W_{ij} - ||x_i-x_j||^ 2)^2$ با توجه به $n$ امتیاز $x_i \در R^k$. بگویید من نشان دهنده $H^*$ حداقل است. سوال این است: رفتار $\mathbb{E}[H^*]$ به عنوان تابعی از $k$ و $n$ چیست؟ آیا مقاله ریاضی وجود دارد که به این سوال بپردازد؟ یا این یک سوال باز است؟ با تشکر
مقیاس بندی چند بعدی ماتریس تصادفی
44103
من از بسته «R» و «e1071» برای تنظیم یک SVM طبقه‌بندی C استفاده می‌کنم. سوال من این است: صرف نظر از نوع هسته (خطی، چند جمله ای، پایه شعاعی یا سیگموئیدی)، آیا معیار خوبی برای انتخاب محدوده ای وجود دارد که در آن پارامترهای هزینه و $\gamma$ باید در محدوده آن قرار گیرند و/یا انتخاب کنید که دانه بندی باید چه چیزی باشد. باشد (یعنی به عنوان مثال «گاما = 10 ^ (1:2)» یا «گاما = 1:2» یا «گاما = 100 ^ (1:2)`)؟ من یک سوال دوم اضافه می کنم: آیا tune.svm() می تواند بهترین نوع هسته را نیز برگرداند؟ با تشکر
درباره هزینه SVM و تنظیم پارامترهای گاما
89594
من یک بردار $v=(v_1,...,v_J)$ دارم که به طور مشترک طبیعی است. سپس باید انتظارات این بردار را در نظر بگیرم. این باید چیزی شبیه این به من بدهد: 1)$$E(v)=(E(v_1),...,E(v_J))$$ با این حال، من می خواهم انتگرال را برای این انتظار بنویسم، اما من' من مطمئن نیستم که چگونه این کار را انجام دهم. حدس من چیزی شبیه به این است: $$E(v)=\int v \phi(v)dv$$ چه ارتباطی با انتظاراتی که در 1 دارم؟ $\phi(.)$ پی دی اف مشترک است، اما برای محاسبه چیزی مانند $(E(v_1)،...،E(v_J))=$، حدس می‌زنم به توزیع حاشیه‌ای نیاز دارم: $$E(v_1، ...,v_J)=(\int v_1 \phi(v_1),\int v_2 \phi(v_2),...,\int v_J \phi(v_J))$$ با تشکر
انتظار مشترک از توزیع نرمال
83772
در اینجا یک مورد مثال است: * من جمعیتی بالغ بر 10000 مورد دارم. هر مورد یک شناسه منحصر به فرد دارد. * من به طور تصادفی 100 مورد را انتخاب می کنم و شناسه ها را ثبت می کنم * 100 مورد را دوباره در جمعیت قرار می دهم * دوباره به طور تصادفی 100 مورد را انتخاب می کنم، شناسه ها را ثبت می کنم و جایگزین می کنم. * در مجموع، این نمونه گیری تصادفی را 5 بار تکرار می کنم، احتمال اینکه تعداد X$$ آیتم ها در هر 5 نمونه تصادفی ظاهر شوند چقدر است؟ من در آمار زیاد بلد نیستم. آیا این برای X $ = 10 $ درست است؟ * برای هر نمونه‌برداری، تعداد ترکیب‌های ممکن از 100 مورد از 10000 مورد، ${\rm binom}(10000، 100)$ است * از همه ترکیب‌های ممکن از 100 مورد، ${\rm binom}(9990، 90) * {\rm binom}(100، 10)$ ترکیبات حاوی 10 مورد خاص هستند * احتمال داشتن 10 مورد خاص $({\rm binom}(9990, 90) * {\rm binom}(100, 10)) / {\rm binom}(10000, 100)$ * احتمال محاسبه شده به توان 5 نشان دهنده 5 نمونه گیری مستقل است . بنابراین اساساً ما فقط 5 احتمال فرا هندسی مستقل را محاسبه می کنیم و سپس آنها را با هم ضرب می کنیم؟ احساس می‌کنم در جایی قدمی را گم کرده‌ام.
احتمال تقاطع از نمونه گیری چندگانه از یک جامعه
86114
من دو متغیر دارم که به طور همزمان در 3 نقطه زمانی اندازه گیری شده اند، بیایید آنها را ثروت (W1، W2، W3) و اضطراب (A1، A2، A3) بنامیم. فرض کنید ثروت و اضطراب با هم ارتباطی ندارند. اکنون، من علاقه مندم که آیا تغییر در اضطراب با تغییر در ثروت مرتبط است؟ روش توصیه شده برای آزمایش این چیست؟ ساده لوحانه من فقط 4 متغیر جدید W2-W1، W3-W2، A2-A1 و A3-A2 ایجاد می کنم و به ضرایب همبستگی بین W2-W1 در مقابل A2-A1 و بین «W3-W2» در مقابل «A3-A2». به نوعی این رویکرد احمقانه به نظر می رسد، زیرا من یک مدل واحد می خواهم که به تغییر کلی نگاه کند. آیا باید به مدل های ترکیبی/چندسطحی نگاه کنم؟ به طور مشخص کدام مدل؟ با تشکر
تجزیه و تحلیل تغییر بین دو متغیر در 3 نقطه اندازه گیری شده است
47661
من مجموعه‌ای از مجموعه‌های داده سری زمانی دارم: {$(1،22)، (2، 25)، (3، 18)، (4، 26)، ...$ و به همین ترتیب} می‌خواهم Y_{t $ را تخمین بزنم. +1}$ با استفاده از تکنیک رگرسیون ماشین بردار پشتیبانی. من نشریات متعددی پیدا کرده ام که بیشتر به مقاله اسمولا مراجعه می کنند. من می خواهم تکنیک پیاده سازی آن را در برنامه نویسی خود بدانم. مثال‌های متعددی برای تکنیک‌های رگرسیون ساده وجود دارد، اما آیا مثال ساده‌ای وجود دارد که مشکل یافتن رگرسیون را با ماشین بردار پشتیبان در یک مجموعه داده معین با استفاده از معادلات حل کند و مراحل را نیز نشان دهد؟
رگرسیون با استفاده از SVM
95883
من تازه وارد PCA هستم و می‌خواستم کمی روی مجموعه داده‌هایم آزمایش کنم تا ببینم چه شکلی است (با استفاده از R). من نمی توانم به داده های اینجا دسترسی داشته باشم زیرا محرمانه است. با این حال، اگر نوع دیگری از آمار/تجسم وجود دارد که می‌خواهید ببینید که به شما کمک می‌کند به سؤالات من پاسخ دهید، لطفاً به من اطلاع دهید و من آن را ارائه خواهم داد. من اطلاعات زیر را در مورد واریانس توضیح داده شده پیدا کردم: Component Prop.Var 1 0.911804348 2 0.033618098 3 0.020827269 4 0.011772988 5 0.006611746 6 0.0772 6 0.077 0.004464788 8 0.003436401 9 0.002091589 این سؤالات زیر را ایجاد می کند: 1. آیا حذف 8 مؤلفه اصلی دیگر موجه است؟ 2. چگونه می توانم 91% واریانس توضیح داده شده در یک جزء را تفسیر کنم؟ 3. اگر فقط یک جزء را نگه دارم بهترین راه برای تجسم داده ها چیست؟ در زیر نمودار دو جزء اصلی اول چگونه به نظر می رسد. با توجه به اینکه چقدر واریانس در مؤلفه دوم وجود دارد، گسترش داده‌هایی مانند این تعجب آور نیست. ![Principal Components 1 and 2] (http://i.stack.imgur.com/g9wXP.png) همانطور که اشاره کردم، من تازه وارد PCA هستم، بنابراین واقعاً نمی دانم که آیا حتی اطلاعات مفیدی وجود دارد یا خیر. از این نوع کاهش ابعاد. هر گونه بینش قدردانی خواهد شد.
PCA: 91% واریانس توضیح داده شده در یک جزء اصلی
15548
من یک داده دارم که شامل چندین ستون است که بعداً با استفاده از یک الگوریتم PCA به دو جزء مختلف کاهش دادم. سپس الگوریتم‌های k-means را روی داده‌ها اعمال کردم. حال، چگونه می توانم تأیید کنم که داده های من در هر گروه به خوبی خوشه بندی شده اند؟ یا چگونه نرخ طبقه بندی اشتباه را تعیین کنم؟ برای مثال، با استفاده از R، اگر بردار خوشه را بررسی کنم و بگویم k$cluster در برابر برچسب های داده هایی که قبلاً قبل از خوشه بندی داشتم، می توانم فقط یک ماتریس سردرگمی از آن رسم کنم و فرض کنم که 1 در بردار خوشه ای معادل 1 در من است. برچسب ها؟ col3 col2 Col1 lables 123 2.32 2.50 0 124 2.81 3.10 1 125 2.72 3.09 2 126 2.92 3.03 3 127 2.32 2.95 4 لطفاً توجه داشته باشید که این یک داده فرضی است؛ اطلاعات من خیلی بزرگتر از این است
اعتبارسنجی نتایج خوشه بندی
29932
من از rjags برای اجرای MCMC روی مدلی استفاده کرده ام که در زبان JAGS مشخص شده است. آیا راه خوبی برای استخراج آن مدل و انجام پیش بینی با آن (با استفاده از توزیع های پسین پارامترهای من) وجود دارد؟ من می توانم مدل را دوباره در R مشخص کنم و حالت های پارامترهای خلفی خود را وصل کنم. من فقط به این فکر می کنم که آیا روشی کمتر زائد برای انجام این کار وجود دارد. من معتقدم http://sourceforge.net/p/mcmc-jags/discussion/610037/thread/0ecab41c همین سوال را می پرسد.
چگونه با jags پیش بینی تولید کنیم؟
44816
من در حال انجام مطالعه ای در مورد چگونگی ارتباط نیاز قانونی با تعدادی از پیش بینی کننده ها هستم. متغیر نتیجه: نیاز قانونی (بله یا خیر) پیش بینی کننده های احتمالی: سن، جنسیت، نژاد، قومیت، زبان، درمانگاه، وضعیت بیمه. پیش بینی بر اساس تجزیه و تحلیل دو متغیره: سن، زبان، درمانگاه، وضعیت بیمه. همه OR ها حدود 1.6 بودند و معنی دار بودند، 95CI معمولی بین 1.2-2.0. تعداد آزمودنی ها: 8803 من گمان می کنم که تنها متغیری که قرار است از تحلیل رگرسیون چندگانه خارج شود، کلینیک باشد، زیرا کلینیک آسم (در مقایسه با کلینیک پر بازدید) به طور کلی کودکان بزرگتری دارد که انگلیسی صحبت نمی کنند. و بیشتر در مورد Medicaid (سایر پیش بینی کننده های تجزیه و تحلیل دو متغیره) هستند. با دانستن همه اینها، هنوز نمی توانم نحوه اجرای رگرسیون چندگانه در اکسل را بفهمم. من به ضرایب پیرسون مانند 0.06 ادامه می‌دهم که بعداً می‌گوید معنی‌دار است. در هر صورت فکر می کنم باید فراتر از این بروم، شاید یک تحلیل گام به گام به جلو یا عقب؟ درک زمانی که نتیجه 0 (نه) یا 1 (بله) است برای من دشوار است، وقتی که درصد بله معمولاً در محدوده 15 تا 30٪ باشد، این واقعاً به چیزی خطی منجر نمی شود. آیا من چیزی را از دست داده ام؟ علاوه بر سالها آموزش آمار؟
چگونه با تجربه محدود و (امیدوارم) اکسل رگرسیون چندگانه انجام دهیم؟
8260
من می دانستم که در چرخش متعامد، اگر ماتریس چرخش دارای تعیین کننده 1- باشد، بازتاب وجود دارد. در غیر این صورت دترمینان 1+ است و چرخش خالص داریم. آیا می توانم این قانون علامت تعیین کننده را برای چرخش های غیر متعامد گسترش دهم؟ مانند محورهای متعامد به مایل یا چرخش محورهای مورب به متعامد؟ به عنوان مثال، این ماتریس 0.9427 .2544 .1665 .1377 -.0451 -.0902 -.9940 -.0421.3325.3900.1600.8437.4052.8702 .2249. چرخش (من فکر می کنم، زیرا مجموع مربع ها در ردیف ها، نه در ستون ها، 1 هستند). تعیین کننده آن -0.524 است. آیا می توانم بگویم که چرخش حاوی یک بازتاب است؟ پیشاپیش ممنون
تشخیص انعکاس در چرخش غیر متعامد
86116
من 20 سال داده از مشاهده دلفین ها دارم. هنگامی که یک گروه دیده می شود، یک شماره منحصر به فرد دریافت می کند که آن را شناسایی می کند، و همه دلفین های شناسایی شده (علامت گذاری شده) نیز ثبت شده اند. بنابراین من یک میز مانند گروه دلفین 1 1 1 10 1 14 2 10 2 23 داشتم که حدود 20000 گروه و 500 دلفین به دست آوردم. من یک ماتریس با گروه‌ها در ردیف‌ها و دلفین‌ها در ستون‌ها، با 1 که دلفین در یک گروه است، 0 جایی که نیست، ساختم. بنابراین من یک تجزیه و تحلیل چند متغیره (prcomp در R) اجرا کردم و دو بلوک کاملاً متمایز به من داد. ![PCA](http://i.stack.imgur.com/CjplT.png) من می دانم که محور عمودی (PC2) با اندازه گروه مرتبط است، گروه های کوچک در زیر، در پایین گروه قرار دارند. مثلث ها اما این دو بلوک در محور افقی (PC1) از هم جدا شده اند و من هنوز نفهمیدم در مورد چیست. فکر می‌کنم جمعیت دلفین‌ها ممکن است به دو «طایفه» یا چیزی شبیه به آن تقسیم شوند، اما هنوز نمی‌توان آن را کشف کرد. من نقاط را با توجه به اندازه گروه، سطح آب، محل دید رنگ آمیزی کردم، اما همه الگوها در هر دو طرف به یک اندازه ظاهر می شوند. بلوک سمت راست حدود 2400 نقطه دارد. سوال من این است: چنین جدایی باید معنایی داشته باشد، درست است؟ از چه ابزار دیگری می توانم برای درک آنچه در حال وقوع است استفاده کنم؟ خیلی ممنون
چگونه روابط اجتماعی پیچیده را در داده های جمعیتی عظیم درک کنیم؟
89595
فرض کنید که یک مدل رگرسیون خطی با نتیجه $Y$ و متغیرهای توضیحی $X_1$ و $X_2$ را اجرا می کنید. شما همچنین یک مدل رگرسیون خطی با تبدیل درجه دوم $X_1$ اجرا می‌کنید: $$E[Y] = \beta_0 + \beta_{1}X_{1}+\beta_{2}X_{1}^{2} + \beta_{3}X_{2}$$ If $|\beta_2| \تقریبا 0$ آیا می‌توانیم آن را از مدل خود حذف کنیم؟
ضرایب بسیار کوچک
44813
من سعی می کنم به یک سازمان غیرانتفاعی کمک کنم و خطایی را مرتکب شدم که سعی می کنم آن را برطرف کنم. آنها چندین سال است که یک بررسی غیرعلمی از هیئت مدیره خود در رابطه با مشارکت هیئت مدیره انجام می دهند. آنها از من خواستند که به آنها کمک کنم تا فرمت نظرسنجی را از یک فایل اکسل غیر دوستانه به چیزی مبتنی بر وب تبدیل کنند، نتایج را مدیریت کرده و برای آنها تجزیه و تحلیل انجام دهم. در سال‌های گذشته، آنها از چیزی که من آن را مقیاس وزنی می‌نامم استفاده کرده‌اند (بسیار خوب = 5، خوب = 3، منصفانه = 2، ضعیف = -1). امسال به اشتباه سطح اضافی را با اجازه دادن به پاسخ 5، 4، 3، 2 یا 1 درج کردیم. (یعنی پرسشنامه های قبلی 4 گزینه داشتند، اما این یکی 5 گزینه دارد.) من سعی می کنم بفهمم چگونه می توان مقیاس ها را تقریباً معادل هم تطبیق داد. من فکر می کردم که می توانم به 5 = 5، 4 = 3، 3 = 2.5، 2 = 2 و 1 = -1 اجازه دهم. با این حال، من متوجه هستم که این کار نمی کند و همه چیز را به سمت پایین تر منحرف می کند. آیا کسی می تواند یک راه خوب برای مدیریت این موضوع را توصیه کند؟
چگونه می توان پرسشنامه ها را با مقیاس های پاسخ های مختلف معادل سازی کرد
72950
من در حال تلاش برای ایجاد مدلی برای پیش‌بینی حضور در یک هفته معین در سال جاری بر اساس مقادیر حضور و غیاب امسال تا کنون و داده‌های دو سال قبل هستم. داده های من به این صورت است: هفته 11-12 ADA تجمعی 12-13 ADA تجمعی 13-14 تجمعی ADA 1 0.9941 0.9941 0.9914 2 0.9907 0.991 0.989 3 0.98888800.98940. 0.9877 0.987 0.9869 5 0.9869 0.9865 0.9867 6 0.9862 0.985 0.9859 7 0.9856 0.9842 0.9857 0.9857 8 0.9985 0.9986 NA 0.9839 NA 10 0.9848 0.9834 NA هرگونه راهنمایی در مورد چگونگی پیش بینی سه NA بر اساس داده های دو سال گذشته و مقادیر امسال بسیار قابل قدردانی خواهد بود. با تشکر
ساخت یک مدل پیش بینی بر اساس داده های سال گذشته در R
15541
من سعی می کنم بررسی کنم که آیا رابطه ای بین **ساعت بازی** و **تعداد دوستان** وجود دارد یا خیر. من دو زمینه برای مطالعه دارم: در مدرسه و در مکانی غیر از مدرسه. مجموعه داده های من به زمینه در مدرسه و همبستگی r=0.8766 (معنی دار) مربوط می شود. اکنون بخش دشوار .... همانطور که می خواهم بر روی **همان گروه دانش آموزان** برای زمینه در مکانی غیر از مدرسه تمرکز کنم، سؤالی پرسیده ام که پاسخ دهندگان من را فیلتر می کند و آنها را در فهرست قرار می دهد. در مکانی غیر از بافت مدرسه. سوال این است: آیا در سه هفته گذشته دوستی پیدا کردید؟ پاسخ می تواند بله یا خیر باشد. اگر بله، پس از آنها خواسته ام که مشخص کنند آیا دوستان را «در مدرسه»، «در جایی غیر از مدرسه» یا «در هر دو مکان» پیدا کرده اند. بنابراین من چهار مجموعه داده به شرح زیر دارم: 1. کسانی که هیچ دوستی پیدا نکردند 2. کسانی که یک یا چند دوست در مدرسه پیدا کردند 3. کسانی که یک یا چند دوست در مکانی غیر از مدرسه پیدا کردند. یک یا چند دوست در هر دو مکان پیدا کردم (یعنی مدرسه و مکانی غیر از مدرسه) من مجموعه داده 1 را نادیده گرفتم زیرا بدیهی است که هیچ رابطه ای بین ساعات بازی و تعداد دوستان وجود ندارد زیرا هیچ دوست جدیدی پیدا نمی شود. من همچنین مجموعه داده 2 را نادیده گرفته ام زیرا قبلاً این یافته را داشتم (در همبستگی بالا که در مدرسه بود) مجموعه داده 4 را نیز نادیده گرفتم زیرا بین در مدرسه و در مکانی غیر از مدرسه. من از مجموعه داده 3 استفاده کرده‌ام و همبستگی آن 0.7687 (معنی‌دار) است. تفسیر من از این یافته این است که رابطه بین ساعات بازی و تعداد دوستان در مدرسه و همچنین خارج از مدرسه وجود دارد. آیا این منطقی است؟
چگونه می توان ارزیابی کرد که آیا همبستگی بین بازی و تعداد دوستان در زمینه های مختلف وجود دارد؟
95884
من با آمار R و بیزی تازه کار هستم و مشکلی دارم که در آن یک پیش از توزیع معمولی دارم که باعث ایجاد میانگین و انحراف معیار می شود. تابع درستنمایی معرفی‌شده نیز معمولاً با میانگین و انحراف معیاری که می‌توان از یک نمونه استخراج کرد توزیع می‌شود. اکنون می فهمم که یک پسین تشکیل شده است که به طور معمول توزیع می شود. از من خواسته شده است که این را در R ایجاد کنم، اما من نمی توانم نمونه ای از کد R را پیدا کنم که در آن پسین از یک تابع پیشین و احتمال توزیع معمولی تشکیل شده باشد. کسی میتونه لطفا من رو در جهت درست راهنمایی کنه با تشکر
محاسبه یک پسین گاوسی از یک تابع پیشینی و احتمال گاوسی در R
47668
من به مسئله نمونه گیری زیر علاقه مند هستم که سعی می کنم با یک مثال انگیزشی آن را شرح دهم. فرض کنید می‌خواهیم تخمین بزنیم چند نفر در یک منطقه خاص، چشم‌های آبی دارند، چند نفر چشم‌های قهوه‌ای دارند و غیره. 100 رنگ). سپس نمونه‌ها را به‌طور متوالی مشاهده می‌کنیم - در یک زمینه انگیزشی، فرض کنید هر ماه یک سفر دریایی از آن منطقه می‌آید. آن مسافران را به هم می زنیم و رنگ چشم هر کدام را بررسی می کنیم. کشتی کروز همیشه شامل تعداد یکسانی از مسافران نیست، و ما قانون تصمیم گیری در مورد قرار دادن آن افراد در آن سفر دریایی را نمی دانیم. یک فرض معقول این است که هر فرد شانس برابری (p) برای حضور در آن سفر را دارد و به طور منطقی تمایل داریم افرادی را با رنگ چشم مشترک بیشتر ببینیم. مشکل این است 1. آیا می توانیم تعداد کل افراد ساکن در منطقه را تخمین بزنیم؟ 2. آیا می توانیم نسبت یا شانس p را تخمین بزنیم؟
تخمین اندازه و نسبت جمعیت
89591
من می خواهم آزمون t Student دو داده توزیع نرمال را محاسبه کنم. با این حال، من اصلا داده ها را ندارم، بلکه فقط میانگین و انحراف معیار هر جمعیت را در اختیار دارم. بنابراین، چگونه می توانم آن داده ها را در R شبیه سازی کنم و t.test را در بین هر دو محاسبه کنم؟ این مقادیر (میانگین و SD): جمعیت 1: 6،62 +- 0.52 سال جمعیت 2: 6.31 +- 0.49 سال پیشاپیش متشکرم Mario
t.test در R بین دو توزیع نرمال به دست آمده با استفاده از تابع dnorm
83773
این یک سوال تکلیف است و من به پیشنهاد نحوه برخورد با آن نیاز دارم. ما انتقال‌ها را 1 داده‌ایم. $\ i\rightarrow i+1$ با نرخ $\lambda(i)$ که $\ i \ge 1$ 2. $\ i\rightarrow i-1$ با نرخ $\mu( i)(i-1)$ که در آن $\ i \ge 2$ من معادله رو به جلو را اینگونه شروع می کنم: $$\ p_j(t) = [1-(\lambda_jh+\mu_jh +o(h))p(t)]+ \lambda(j-1)p(j-1)(t)h + ...$$ و من واقعا نمی توانم از اینجا ادامه دهم. من باید به نقطه ای برسم که بتوانم نشان دهم که $$\ G(z, t) = \sum P(N(t)= j|N(0) = a) z^j $$ $$\frac را برآورده می کند {\ partial G}{\partial t} = z \left( z-1\right) \left(\lambda\frac{\partial G}{\partial z}- \mu\frac{\partial^2 G} {\ جزئی z^2}\right)$$
زمان پیوسته معادله رو به جلو زنجیره مارکوف
95888
من به دو جامعه نگاه می کنم که 4 متغیر مستقل ($X_1$، $X_2$، $X_3$، $X_4$) و یک متغیر وابسته ($Y$) را همراه با هر اندازه گیری یا مشاهده اندازه گیری کرده ام. من گمان می‌کنم که دو جمعیت متفاوت هستند به این معنا که $Y$ جمعیت دوم وابستگی به یک عامل در نظر گرفته‌نشده اضافی را نشان می‌دهد (من انتظار دارم $Y$ بطور سیستماتیک کمتر باشد، در واقع). با توجه به اینکه: * متغیرهای وابسته دارای همبستگی بالایی هستند. * وابستگی $Y$ به $X$ ناشناخته و احتمالاً ناپارامتریک است. * تعداد قابل مشاهده ها/اندازه گیری ها کم است (~100 برای گروه اول،~~30 برای گروه دوم). من احساس می‌کنم که رگرسیون چند خطی نوعی ساختار زیربنایی را به خود می‌گیرد و تحلیل من را مغرضانه می‌کند، بنابراین می‌خواهم از آن اجتناب کنم. من سعی کردم از PCA در هر دو استفاده کنم و رایانه های شخصی را با هم مقایسه کنم: هیچ چیز قابل توجهی از نظر ابعاد ظاهر نمی شود. آیا می‌توانید آزمایشی را پیشنهاد کنید که بررسی کند آیا این دو جمعیت واقعاً از نظر $Y$ متفاوت هستند و در عین حال حداقل تعداد مفروضات مربوط به وابستگی عملکردی آن را حفظ می‌کند؟ خیلی ممنون، پ.
مقایسه دو جمعیت با تحلیل وابستگی یک متغیر وابسته به چند متغیر مستقل
48907
من می‌خواهم آزمایش کنم که داده‌های من چقدر می‌توانند توسط توزیع گاوسی اصلاح‌شده نمایی (ویکی‌پدیا) یا توزیع گاما نمایی عادی (NEG) مدل‌سازی شوند. با این حال، تخمین پارامتر (که شامل Skewness می‌شود) زمانی که مقادیر پرت در مجموعه داده‌ها وجود دارد، چندان قوی نیست. من تجربیات خوبی با تخمین پارامترهای مبتنی بر میانه در این مجموعه داده دارم (به سوال مرتبط برآورد پارامترهای توزیع نرمال: میانه به جای میانگین مراجعه کنید؟). آیا تخمین پارامتر مبتنی بر میانه یا مشابه آن را برای توزیع های ExGaussian / NEG می شناسید؟ من قبلاً سعی کردم مجموعه داده‌هایم را کوتاه کنم، نتایج به وضوح بعد از آن بهتر بود. با این حال، این بدیهی است که یک سوگیری ایجاد می کند، که باید به نحوی آن را اصلاح کنم.
تخمین پارامتر قوی برای توزیع گاوسی اصلاح شده نمایی
15540
من از آزمون Wilcoxon برای مقایسه دو مجموعه داده جفت شده برای اینکه آیا میانگین آنها متفاوت است استفاده می کنم. علاوه بر p-value، من می خواهم قدرت این تست را نیز بدانم. چگونه آن را در R محاسبه کنیم؟ پیشاپیش از شما متشکرم.
چگونه توان تست ویلکاکسون را محاسبه کنیم؟
48903
من یک شکل موج دارم که اکثر مردم دامنه پیک یا شیب را اندازه گیری می کنند. من ناحیه زیر منحنی و چندین معیار دیگر را که شامل همان شکل موج اصلی هستند، گنجانده ام. من در حال حاضر 10 اندازه گیری روی چنین شکل موج هایی دارم (و من این شکل موج ها را در 500 بیمار اندازه گیری کرده ام). آیا قرار دادن همه این اقدامات در کنار هم در یک تجزیه و تحلیل مولفه اصلی (PCA) برای تقطیر مجموعه کوچکتری از اجزای اصلی مشروع است؟ نگرانی من در مورد این واقعیت است که برخی از معیارها ذاتاً به یکدیگر وابسته هستند (به عنوان مثال، دامنه پیک ذاتاً با سطح زیر منحنی همبستگی خواهد داشت)، بنابراین می ترسیدم که ممکن است برخی از مفروضات پشت PCA، مانند استقلال، برآورده نشود. از اقدامات آیا روش تحلیل دیگری وجود دارد که به جای PCA از آن استفاده کنم؟ تجزیه و تحلیل مؤلفه های مستقل؟ یکی دیگر از روش های مقیاس بندی چند بعدی؟ تحلیل خوشه ای؟ خیلی ممنون کمی جزئیات بیشتر: در مورد من، من 9 اندازه خام، _x1_ .. _x9_، در هر بیمار ساخته ام. من قبلاً می‌دانم که _x2_ و _x4_ همبستگی بالایی دارند، اما تفاوت آنها پیامدهای پیش‌آگهی مهمی دارد. از یک طرف، می ترسم که PCA نتواند این تفاوت را یادداشت کند (زیرا _x2_ و _x4_ بسیار همبسته هستند)، بنابراین من می خواهم _x2-x4_ را به عنوان معیار دهم لحاظ کنم. با این حال، من از این واقعیت آزارم می‌دهد که به این ترتیب همبستگی بی‌اهمیت را معرفی می‌کنم، که اهمیت _x2_ و _x4_ و هرگونه نویز در آنها را افزایش می‌دهد. بازم ممنون
تجزیه و تحلیل مؤلفه های اصلی: معیارهای ورودی چقدر باید مستقل باشند؟
7579
من سعی می کنم تعداد بیماری های هفتگی را در 25 منطقه مختلف در یک کشور در یک دوره ده ساله تحت تأثیر دما مدل کنم. داده ها صفر و بیش از حد پراکنده هستند. من بیشتر با Stata آشنا هستم، اما فکر نمی‌کنم در میان دستورات «gee»، «xtmixed»، «xtmepoisson» و غیره گزینه‌ای وجود داشته باشد که به من اجازه دهد تورم صفر و مسائل پراکندگی بیش از حد را در نظر بگیرم. خود همبستگی من داده‌های بروز را تغییر دادم و از مدل SARIMA استفاده کردم، اما باقی‌مانده‌ها کاملاً عادی نیستند. من فکر می کنم که نسخه هایی از مدل ARIMA برای داده های عدد صحیح مانند شمارش بیماری ها وجود دارد، اما نمی توانم برنامه ای برای آن پیدا کنم. من همچنین به این فکر می‌کردم که بتوانم یک مدل سلسله مراتبی با برش‌های تصادفی برای هر منطقه و اثرات تصادفی دما در هر منطقه ایجاد کنم، در حالی که چرخه بیماری‌های فصلی منظم را نیز در نظر بگیرم. من معتقدم که می‌توانم این را در R با استفاده از بسته‌ای مانند glmm.admb مدل کنم، اما به دلیل دانش آماری و R محدودم، کاملاً مطمئن نیستم که چگونه از آن استفاده کنم. من عمدتاً در مورد حسابداری بخش خود همبستگی و چرخه فصلی داده ها با استفاده از برنامه ای مانند این سردرگم هستم. توصیه ای در مورد اینکه چگونه این کار را به بهترین نحو انجام دهیم؟
چگونه سری زمانی پواسون پراکنده و بادشده صفر را مدل کنیم؟
44814
به عنوان یک آزمایش کوچک، من یک رابطه خوب و قابل تفسیر AR/MA را بین یک امنیت $r$ گسترش می‌دهم که به‌طور متغیر تحت‌تاثیر نقاط زمانی $k$ قبلی بر روی یک امنیت دیگر $f$ قرار می‌گیرد. این روابط (تاخر) با $l$ نشان داده می شود. من می‌خواهم «واقع‌گرایی» را با حرکت دادن هر دو اوراق بهادار با نوسانات تصادفی تقویت کنم: $ \begin{bmatrix} r_t \\ f_t \end{bmatrix} = \begin{bmatrix} l_{r,1} و ... و l_{r,k} \\ l_{f,1} & ... & l_{f,k} \end{bmatrix} \Theta_t + \Sigma_t u $u \sim N(0,1)$ $ \log(\Sigma_t) = \begin{bmatrix} \log(\sigma_{r,t}) \\ \log(\sigma_{f, t}) \end{bmatrix} = \begin{bmatrix} 1 & \phi_r \\ 1 & \phi_t \end{bmatrix} \begin{bmatrix} \omega_r & \omega_f \\ \log(\sigma_{r,t-1}) & \log(\sigma_{r,t-1}) \end{bmatrix} + \begin{bmatrix} \eta_{r,t} \\ \eta_{f,t}) \end{bmatrix} $\eta_{i,t} \sim N(0,\sigma_{\eta_i})$ $ \Theta_t = \begin{bmatrix} f_t \\ f_{t-1} \\ ... \\ f_{t-k} \end{bmatrix} = من \شروع {bmatrix} f_{t-1} \\ f_{t-2} \\ ... \\ f_{t-k-1} \end{bmatrix} + \begin{bmatrix} \sigma_{f,t-1} \\ \sigma_{f,t-2} \\ ... \\ \sigma_{f,t-k-1} \end{bmatrix} $ 1. آیا قبل از اینکه یک نمونه اولیه را تولید کنم، این نگاه به چشمان آموزش دیده بهتر است؟ به خصوص، پیشنهاداتی در مورد پارامترهایی که ممکن است ارزش تلفیق را داشته باشند (یعنی پارامترهایی که ارزش توضیحی زیادی اضافه نمی کنند)؟ 2. پیشنهادی برای نحوه برخورد دقیق‌تر به انتخاب «تاخیر» (به عنوان مثال، روش انتخاب مدل) دارید؟ 3. آیا کسی میانبرهایی برای ادغام دو معادله انتقال ($\log(\Sigma_t)$ و $\Theta_t$) در نمایش فضای حالت معمولی، یعنی $\Theta$، $F$، $G می‌بیند. $، $V$، $W$ در ادبیات اشاره شده است. برای برخی موارد خاص، معادلات را می توان به طور قابل ملاحظه ای ساده کرد: به عنوان مثال، مدل های نوسانات لگاریتم MA سنتی، یک تبدیل لاگ معادله اصلی آن عبارت تصادفی مزاحم $u$ را ساده می کند.
نقد، لطفا: مدل فضای حالت ساده