_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
112618
|
این یک مشکل واقعی کسب و کار کوچک است، نه یک مشکل تکلیف. هدف تولید ماهانه 60000 است. ما می خواهیم مطمئن باشیم که مثلاً 95 درصد ماه ها این هدف را برآورده می کنند. هدف حداقل است، بنابراین میخواهیم مطمئن باشیم که تحت این شرایط نیستیم، اما برایمان مهم نیست که چقدر به پایان رسیدهایم. ما میخواهیم از تولید روزانه به عنوان بررسی در مورد اینکه آیا احتمال دارد به هدف تولید ماهانه برسیم یا خیر استفاده کنیم. ما واقعاً اهمیتی نمیدهیم که تولید یک روزه چقدر کم است تا زمانی که روزهای دیگر آن را جبران کنند، اما اگر یک روز خیلی کم باشیم، باید سیگنالی باشد که در رسیدن به هدف تولید ماهانه مشکلی وجود خواهد داشت. چگونه تعیین کنیم چه چیزی برای تولید روزانه خیلی کم است؟ ساده ترین روش این است که تولید ماهانه را بر تعداد روزهای کاری (مثلا 16) تقسیم کنید تا به اهداف تولید روزانه برسید. این کار به این معنا است که اگر شما به هر هدف تولید روزانه برسید، هدف تولید ماهانه را برآورده خواهید کرد، اما تنوع طبیعی در تولید روزانه را نادیده می گیرد. خیلی شدید است. ما باید بتوانیم تولید روزانه داشته باشیم که مقداری کمتر از این مقدار باشد بدون اینکه نگران باشیم. شما می توانید توزیع نرمال تولید روزانه را با خطاهایی که از روز به روز مستقل هستند فرض کنید، و اینکه ما یک تاریخچه تولید روزانه داریم که از آن می توانیم واریانس تولید روزانه را تخمین بزنیم. با تشکر از کمک شما.
|
از تولید روزانه به عنوان بررسی احتمال تحقق هدف تولید ماهانه استفاده کنید
|
51296
|
من تعجب می کنم که چگونه می توان با استفاده از یک ماتریس سردرگمی برای یک مسئله طبقه بندی چند طبقه، دقت را محاسبه کرد و به یاد آورد. به طور خاص، یک مشاهده فقط می تواند با محتمل ترین کلاس / برچسب اختصاص داده شود. من می خواهم * Precision = TP / (TP+FP) * Recall = TP / (TP+FN) را برای هر کلاس محاسبه کنم و سپس میانگین F-Measure را محاسبه کنم.
|
چگونه می توان دقت و فراخوانی را برای طبقه بندی چند کلاسه با استفاده از ماتریس سردرگمی محاسبه کرد؟
|
85488
|
با توجه به پست (1) و پست (2)، تعداد زیادی از نقاط توزیع شده به طور یکنواخت در داخل توپ به شعاع $R$ با استفاده از $\frac{R_s U^{1/3}}{\sqrt{X_1^ ایجاد کردم. 2 + X_2^2 + X_3^2}} (X_1، X_2، X_3)$، که در آن $U$ به طور یکنواخت بین 0 و 1 توزیع شده است، و $X_1، X_2، X_3$ متغیرهای تصادفی عادی مستقل با میانگین 0 و واریانس 1 هستند. شکل زیر یک توزیع کروی یکنواخت را نشان می دهد که با این روش با استفاده از 10000 ترسیم مستقل در کره ای به شعاع 10 به دست آمده است.  با محاسبه فاصله نزدیکترین همسایه $d_i$ از هر نقطه، مشاهده کردم که نمودار تشخیصی فاصله نزدیکترین همسایه از توزیع یکنواخت پیروی نمی کند. آیا این توزیع غیر یکنواخت به این معنی است که می توان نقاط را خوشه بندی کرد؟ آیا به این معنی است که نقاط تصادفی فضایی ندارند؟ اگر چنین است، پس چگونه می توانم نقاط تصادفی را با فاصله نزدیکترین همسایه یکسان ایجاد کنم. * * * تصاویر موقت برای در نظر گرفتن @Anony-Mousse:  
|
نحوه ایجاد نقاط تصادفی در حجم یک کره با فاصله نزدیکترین همسایه یکنواخت
|
74468
|
فرض کنید کیسهای با کاشیهای $n$ داشتید که روی هر کدام یک حرف وجود داشت. کاشی های $n_A$ با حرف A، $n_B$ با B و غیره، و $n_*$ کاشی های wildcard وجود دارد (ما $n = n_A + n_B + \ldots + n_Z + n_* داریم. دلار). فرض کنید یک فرهنگ لغت با تعداد محدود کلمات دارید. کاشیهای $k$ را بدون تعویض از کیسه انتخاب میکنید. **احتمال اینکه بتوانید یک کلمه معین به طول $l$ (با 1 <$l$ =<$k$) را از فرهنگ لغت با توجه به کاشیهای $k$ انتخاب شده محاسبه کنید (یا تخمین بزنید) را چگونه محاسبه میکنید؟* * برای کسانی که با Scrabble (TM) آشنایی ندارند، می توان از کاراکتر wildcard برای مطابقت با هر حرفی استفاده کرد. بنابراین کلمه BOOT می تواند املا با کاشی های B، *، O، T باشد. ترتیب ترسیم حروف مهم نیست. پیشنهاد: برای سادهنویسی پاسخها، شاید بهتر باشد فقط به این سؤال پاسخ دهید: پس از کشیدن 7 حرف از یک کیف تازه، احتمال وجود کلمه BOOT در بین حرکات احتمالی شما چقدر است. _(مقدمه مشکل از همین سوال مشابه کپی شده است)_
|
احتمال رسم یک کلمه داده شده از یک کیسه حروف در Scrabble
|
77279
|
به عنوان مثال، انحراف معیار دارای بایاس است که به تعداد نمونه های مشاهده شده بستگی دارد. اگر من بخواهم استنتاج بیزی را روی SD نمونههای دو جامعه انجام دهم، و از هر کدام اندازههای نمونه نابرابر داشته باشم، آیا استنتاج حاصل این سوگیری را در نظر میگیرد؟ (بله، من می دانم که سوگیری در انحراف معیار واقعاً به طور قابل تشخیص آشکار نمی شود مگر اینکه N بسیار کوچک داشته باشید، اما من بیشتر به سؤال نظری علاقه مند هستم. به علاوه، من داده های سلسله مراتبی با تعداد زیادی واحد دارم. مشاهده، اما مشاهدات اندک در هر واحد و یک سوگیری سیستماتیک برای مشاهدات بیشتر در یک شرایط آزمایشی خاص نسبت به شرایط دیگر، که باعث ایجاد ترس در تجزیه و تحلیل مورد نظر من از SD در داخل می شود. هر سطح از واحد متقاطع-با-شرایط.)
|
آیا تجزیه و تحلیل داده های بیزی سوگیری برآوردها را در نظر می گیرد؟
|
81368
|
من نمونه ای از مدل های تعمیم یافته، خطی و ترکیبی را بازتولید می کنم. MWE من در زیر است: Dilution <- c(1/128، 1/64، 1/32، 1/16، 1/8، 1/4، 1/2، 1، 2، 4) NoofPlates <- rep(x =5، بار = 10) بدون مثبت <- c(0، 0، 2، 2، 3، 4، 5، 5، 5، 5) داده <- data.frame(رقت، NoofPlates، NoPositive) fm1 <- glm(formula=NoPositive/NoofPlates~log(رقیق)، خانواده=دوجمله ای(logit)، داده=داده) خلاصه (object=fm1) * * * **خروجی** * * * تماس: glm(فرمول = NoPositive/NoofPlates ~ log(رقیق)، خانواده = دوجمله ای (logit)، داده = داده) Deviance Residuals: Min 1Q Median 3Q Max -0.38326 -0.20019 0.00871 0.15607 0.48505 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) 4.174 2.800 1.491 0.136 log(رقیق) 1.623 1.022 1.587 0.112 (پارامتر پراکندگی برای خانواده دو جمله ای 1 گرفته شده است) انحراف تهی 24 درجه آزادی: 18 0.64658 در 8 درجه آزادی AIC: 6.8563 تعداد تکرارهای امتیازدهی فیشر: 6 * * * **کد** * * * anova(object=fm1, test=Chisq) * * * **خروجی** * * * تجزیه و تحلیل مدل جدول انحراف: دو جمله ای، پیوند: logit پاسخ: NoPositive/NoofPlates شرایط اضافه شده است به صورت متوالی (اول تا آخرین) Df Deviance Resid. دی اف رزید. Dev Pr(>Chi) NULL 9 8.2424 log(Dilution) 1 7.5958 8 0.6466 0.00585 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 * * * **Code** * * * library(aod) wald.test(b=coef(object= fm1)، Sigma=vcov(object=fm1)، Terms=2) * * * **خروجی** * * * تست Wald: ---------- آزمون مجذور کای: X2 = 2.5، df = 1، P(> X2) = 0.11 ضرایب تخمینی کاملاً با نتایج ارائه شده در کتاب مطابقت دارند، اما ضرایب SE با یکدیگر فاصله زیادی دارند. بر اساس آزمون LRT شیب معنی دار است اما بر اساس ضریب شیب والد و Z-test ناچیز است. نمیخواهم چیزی اساسی را از دست بدهم. پیشاپیش از کمک شما سپاسگزارم
|
آزمون نسبت درستنمایی و آزمون والد نتیجهگیری متفاوتی را برای glm در R ارائه میدهند
|
101089
|
من با scikit-learn بازی می کنم تا مقادیر tf-idf را پیدا کنم. من مجموعه ای از اسناد دارم مانند: D1 = آسمان آبی است. D2 = خورشید روشن است. D3 = خورشید در آسمان روشن است. من میخواهم ماتریسی به این صورت ایجاد کنم: Docs آبی روشن آسمان خورشید D1 tf-idf 0.0000000 tf-idf 0.0000000 D2 0.0000000 tf-idf 0.0000000 tf-idf D3 0.00000000 tf-idf، کد من tf-idf `Python` عبارت است از: import nltk import string from sklearn.feature_extraction.text import TfidfVetorizer from nltk.corpus import stopwords train_set = [آسمان آبی است، خورشید روشن است، خورشید در آسمان روشن است] stop_words = stopwords .words('english') transformer = TfidfVetorizer(stop_words=stop_words) t1 = transformer.fit_transform(train_set).todense() print t1 ماتریس نتیجه ای که دریافت می کنم این است: [[ 0.79596054 0. 0.60534851 0. ] [ 0. 13.847] [0. 0.694.2] 0. 0.57735027 0.57735027 0.57735027]] اگر من یک محاسبه دستی انجام دهم، ماتریس باید این باشد: Docs آبی روشن آسمان خورشید خورشید D1 0.2385 0.0000000 0.0880 0.000000000000000 0.0000000 0.0880 D3 0.0000000 0.058 0.058 0.058 من مانند «آبی» به عنوان «tf» = «1/2 = 0.5» و «idf» به عنوان «log(3/1) = 0.4772» محاسبه میکنم. بنابراین «tf-idf = tf*idf = 0.5*0.477 = 0.2385». به این ترتیب، من مقادیر دیگر «tf-idf» را محاسبه میکنم. حالا من تعجب می کنم که چرا در ماتریس محاسبه دست و در ماتریس پایتون نتایج متفاوتی می گیرم؟ کدام نتایج صحیح را می دهد؟ آیا در محاسبه دستی کار اشتباهی انجام می دهم یا در کد پایتون من مشکلی وجود دارد؟
|
تفاوت در مقادیر ماتریس tf-idf با استفاده از scikit-learn و محاسبه دستی
|
85734
|
من یک سرویس کوتاه کردن آدرس اینترنتی دارم. من می خواهم فقط آمار قانونی را به مشتریان خود ارائه دهم. سناریوهای احتمالی وجود دارد که یک کاربر خاص یک اسکریپت بنویسد تا به طور خودکار URL کوتاه شده را باز کند و در نتیجه آمار بد به نظر برسد. برای تشخیص قانونی بودن یا نبودن کلیک چه رویکردهایی را می توان دنبال کرد؟ لطفاً منابع مناسبی مانند ابزارها یا مقالات تحقیقاتی را به من معرفی کنید. رویکرد بسیار اساسی که می توانم به آن فکر کنم این است که آدرس IP کاربر را زیر نظر بگیرم و اگر تعداد درخواست ها از یک آستانه فراتر رفت مسدود کنیم.
|
الگوریتم هایی برای تشخیص ربات هایی که روی یک URL کوتاه شده کلیک می کنند چیست؟
|
73798
|
فرض کنید $a_1 = b + c_1$ و $a_2 = 2b + c_2$ که $b، c_1، c_2$ همه $N(0,1)$ هستند $E[b|a_1,a_2]$ را پیدا کنید تلاش من: به عنوان $ E[b] = 0$، فرض میکنم $E[b|a_1، a_2] = 0$. آیا این یک فرض منطقی است؟
|
یافتن مقدار مورد انتظار دو متغیر تصادفی عادی
|
74463
|
من یک متغیر توضیحی دارم که همانطور که در پانوشت 25 مقاله پیشنهاد شده است به صورت زیر تبدیل می شود (متغیر توضیحی پیوسته است و می تواند مقادیر منفی، صفر یا مثبت بگیرد) \begin{equation}y=\text{sign}(x)\ ,\log{(|x|+1)} \end{equation} که در آن $\text{sign}(x)$ مقدار $1$ می گیرد اگر $x>0$، $0$ اگر $x=0$، و $-1$ اگر $x<0$. فرض کنید متغیر وابسته من $y$ باشد (تبدیل نشده است). اکنون باید مشتق $y$ را با توجه به $x$ بگیرم تا اثر حاشیه ای و کشش را پیدا کنم. من این کار را به صورت زیر انجام دادم: \begin{equation} \frac{\partial y}{\partial x}=\text{sign}(x)\,\frac {1}{(|x|+1)}\, \frac{\partial|x|}{\partial x} \end{equation} تا جایی که من متوجه شدم $\frac{\partial|x|}{\partial x} =1$ اگر $x>0$ و $\frac{\partial|x|}{\partial x} =-1$ اگر $x<0$، و برای $x=0$ تعریف نشده است. سوال من این است که چگونه اثر حاشیه ای مشاهده را با مقدار $x=0$ با این تبدیل محاسبه کنم.
|
مشتق متغیر توضیحی تبدیل شده
|
58664
|
اخیراً، مرور تصادفی سؤالات، خاطره ای از اظهار نظر غیرمجاز را از سوی یکی از اساتید من در چند سال پیش ایجاد کرد که در مورد استفاده از نسبت ها در مدل های رگرسیون هشدار داده بود. بنابراین من شروع به خواندن در این مورد کردم و در نهایت به Kronmal 1993 منتهی شدم. 1. برای مدلی با نسبتی با مخرج یکسان در هر دو طرف وابسته و مستقل: $ Z^{-1}Y = Z^{-1}1_n\beta_0 + Z^{-1}X\beta_X + \ beta_Z + Z^{-1}\epsilon $ * نسبت وابسته به رگرسیون به متغیر مخرج (معکوس) علاوه بر نسبتهای دیگر * وزن با (معکوس) متغیر مخرج 2. برای مدلی با متغیر وابسته به عنوان نسبت: $ Y = \beta_0 + \beta_XX + Z1_n\alpha_0 + ZX\alpha_X + Z^{-1}\epsilon $ * رگرسیون کسر بر اساس متغیرهای اصلی، مخرج، و مخرج بار متغیرهای اصلی [متغیرهای طبقه بندی چطور؟] * وزن بر مخرج (معکوس) 3. برای مدل فقط با نسبت متغیر مستقل: $ Y = \beta_0 + X\beta_X + Z^{-1}1_n\beta_{Z^{-1}} + W\beta_W + Z^{-1}W\ beta_{Z^{-1}W} + \epsilon $ * شامل شمارنده و مخرج (معکوس) به عنوان اثرات اصلی، نسبت به عنوان عبارت تعامل. آیا تفسیرهای من در اینجا درست است؟ با تشکر
|
نسبت ها در رگرسیون، با نام مستعار سؤالات در مورد کرونمال
|
84328
|
هنگام تخمین محاسبات توان برای یک مطالعه موردی شاهد، واقعاً قرار گرفتن در معرض کنترل ها به چه معناست؟ من اطلاعات زیادی در مورد نحوه محاسبه قرار گرفتن در معرض برای مواردی پیدا کردم که از قبل میزان نوردهی را در کنترلها میدانید - اما هیچ چیز درباره نحوه محاسبه تعداد واقعی برای کنترلها نیست. لطفا منو روشن کن!
|
قرار گرفتن در معرض در محاسبات قدرت
|
74460
|
بگذارید X، Y، Z i.i.d باشند. متغیرهای تصادفی گاما توزیع شده است. حالت بردار $(X, X+Y, X+Y+Z)$ چگونه می تواند باشد؟ آیا حالت یک بردار تصادفی با ترکیب حالت های حاشیه ای برابر است؟
|
حالت توزیع گاما چند متغیره
|
84289
|
من کمی تازه وارد شبکه عصبی هستم. من دو سوال دارم: 1. آیا می توانیم از شبکه عصبی در موقعیت کوچک $n$ بزرگ $p$ استفاده کنیم؟ 2. آیا روشهای منظم سازی برای حذف پارامترها طراحی شده است؟ (مقداری $\omega$ را به 0 کوچک کنید). به عنوان مثال تنظیم کننده $L_1$ را به عنوان کمند اضافه کنید؟ من روش هایی را برای جلوگیری از تناسب بیش از حد می شناسم (کاهش وزن، توقف زودهنگام و غیره) اما هیچ کدام از آنها پارامترها را به 0 کاهش نمی دهند.
|
حذف پارامتر وزن در شبکه عصبی
|
85483
|
من با بسته R muhaz کار می کنم تا تخمین هسته تابع خطر را بدست بیاورم. اگر مثال زیر را داشته باشیم که نمونه داده های بدون سانسور است: x =c(0.001409591, 0.008451294, 0.019719245, 0.046626865 , 0.244813744, 0.41003249, 0.41003214 0.697342699، 0.731541987، 0.954493031) fit = muhaz(x, rep(1, length(x))، bw.method=local، b.cor=both، n.min.grid=51، n.est. grid=101, kern=epanechnikov) دو سوال دارم: 1) چگونه می توانم تابع خطر تخمینی را به عنوان فرمول بر حسب نتیجه تناسب بنویسید؟ چگونه میتوانیم تابع خطر تخمینی را برای هر مقدار تمایل و نه فقط برای نقاط شبکه (نقاط fit$est.grid) بدست آوریم؟ 2) آیا می توان تابع چگالی تخمینی را بدست آورد؟ زیرا تا آنجا که من می دانم نتیجه آن را فراهم نمی کند. چگونه می توانیم تابع چگالی تخمین زده شده را برای هر مقدار میل بدست آوریم؟ نه فقط برای نقاط شبکه (fit$est.grid points).
|
تخمین کرنل خطر یا تابع چگالی
|
77278
|
تقریباً در تمام متونی که قضایای یادگیری آماری را مورد بحث قرار می دهند، تحلیل توزیع ناشناخته دلخواه (بدترین حالت) را فرض می کنند. اما در عمل مسائل مختلف (دادههای مختلف) دارای سطوح سختی متفاوتی هستند، برای مثال دادههای جداسازیپذیر خطی آسانتر از دادههایی که کمتر (یا نه) قابل تفکیک توسط ابرصفحهها هستند، قابل یادگیری است. آیا کارهایی در مورد رسمی کردن سختی داده ها وجود دارد (مشابه کارهایی که در نظریه پیچیدگی انجام می شود) توجه: مطمئن نیستم که آیا همان تجزیه و تحلیل VC-dimension است یا نه، اما فکر می کنم اینطور نیست.
|
در مورد سختی داده ها برای یادگیری
|
43955
|
من به دنبال منابع (مقالات، کتاب ها یا فقط پیشنهادات) در مورد تخمین پارامترهای سری زمانی چرخه ثابت هستم. من یک سیگنال 2 بعدی از آن نوع دارم که یک شبکه را تشکیل می دهد.
|
تخمین پارامتر سری زمانی چرخه ایستایی
|
85486
|
من یک رگرسیون OLS پانل را با استفاده از gretl روی یک پانل متعادل با حدود 25 منطقه و 10 دوره زمانی انجام دادم. من می خواهم از مدل برای پیش بینی مقادیر آتی y (متغیر وابسته)، با توجه به تغییرات آتی شناخته شده x (متغیر توضیحی) استفاده کنم. من می خواهم بپرسم: چگونه با (الف) ثابت، (ب) آدمک های واحد برخورد کنیم. (ج) زمانهای ساختگی زمانی که نوبت به پیشبینی میشود. آیا باید یکی/همه موارد فوق را در محاسبه y-hat لحاظ کنم یا به سادگی از ضریب برای ترم x استفاده کنم؟
|
استفاده از ضرایب OLS پانل برای پیش بینی - gretl
|
33377
|
من مجموعه دادههایی از بازده دو شاخص در یک بازار دارم (دو مجموعه مختلف سهام که هر شاخص را تشکیل میدهند)، با 496 مشاهده برای هر کدام. من می خواهم مقایسه کنم که آیا میانگین ها از نظر آماری متفاوت است. من معتقدم واریانس ها متفاوت هستند، بنابراین فکر می کنم باید ابتدا بررسی کنم که آیا واریانس ها از نظر آماری متفاوت هستند یا خیر. چگونه این کارها را انجام دهم؟
|
مقایسه میانگین دو سری زمانی
|
85487
|
فرض کنید من $X,Y$ دارم که متغیرهای تصادفی مستقل هستند. چرا $E(\frac{X}{Y}) = E(X)E(\frac{1}{Y})$ است؟ همچنین، چرا $E(X^2Y^2)=E(X^2)E(Y^2)$ است؟ چگونه است که مربع یک متغیر تصادفی مستقل در رابطه با $Y$ یا $Y^2$ نیز مستقل است؟ با تشکر
|
انتظار تقسیم یک متغیر تصادفی بر دیگری (هر دو مستقل) چیست؟
|
41081
|
من دو ستون داده دارم و می خواهم تفاوت های آنها را از طریق رویکرد تجسم نشان دهم. مسئله فعلی این است که این دو ستون در واقع بسیار نزدیک به یکدیگر هستند. به عبارت دیگر، من می خواهم تفاوت های جزئی را که وجود دارد با استفاده از روش گرافیکی بزرگنمایی کنم. آیا پیشنهادی وجود دارد؟ با تشکر در اینجا بخشی از مجموعه داده است. ستون سوم تفاوت بین ستون اول و ستون دوم است. 0.999998295 0.999998331 -3.56E-08 0.99999381 0.999986678 7.13E-06 0.999997682 0.999998494 0.999998494 -8.10999389 0.999989062 3.67E-07 0.999998877 0.999998505 3.72E-07 0.999995327 0.999996709 -1.38E-06 0.999999959 0.999999595 6.33E-07 0.999997484 0.999996701 7.83E-07 0.999998829 0.999998076 7.53E-07 0.999997523 0.999999678 0.999998829 0.999998287 0.999996964 1.32E-06 0.999983543 0.999989135 -5.59E-06 0.999992705 0.999994249 0.999994249 -1.5994249 -1.59983569-1.5969 0.999998168 -2.50E-06 0.999997263 0.999999195 -1.93E-06 0.999994474 0.999996713 -2.24E-06 0.999999930 -1.00E-06 0.999998295 0.999996262 2.03E-06 0.99999736 0.999998185 -8.25E-07 0.999983507 0.9999996207 0.9999997500 0.999996339 0.999996597 -2.58E-07
|
تجسم دو متغیر که مقادیر بسیار مشابهی دارند
|
41086
|
چگونه می توانم یک جفت را برای بردار دو متغیره دو جمله ای منفی و حاشیه برنولی برازم؟ من کوپال فرانک یا کلایتون را ترجیح می دهم.
|
برازش کوپول برای حاشیه های گسسته
|
85732
|
جدول زیر را ارائه دهید مرد | زن | تعداد لایک ها 10 | 3 | 13 بی تفاوت 20 | 20 | 40 دوست نداشتن 10 | 9 | 19 مجموع 40 32 72 در اینجا متغیر مستقل جنسیت است که اسمی است. متغیر وابسته که ترتیبی است یا دوست دارند، بی تفاوت یا دوست ندارند. من میتوانم از آزمون Chi Square یا Exact Fisher استفاده کنم تا مشخص کنم آیا H0 مانند _مردان و زنان به یک اندازه لایکر هستند_ باید رد شود. با این حال، سوالی که میخواهم بعد از این به آن پاسخ دهم این است: **کدام جنسیت به طور قابل توجهی بیشتر از دیگری ممکن است دوست داشته باشد؟ و چقدر؟** برای مثال: مردان x% به طور قابل توجهی بیشتر از زنان احتمال لایک دارند. فکر میکردم مرحله بعدی انجام آزمایشی بین لایککننده و هر گروه است: یعنی مردها و لایکها. اما من گیج شدم زیرا فکر می کردم باید مردها را با زن ها با توجه به لایک ها مقایسه کنم. آیا روش استانداردی برای نزدیک شدن به این سوال وجود دارد؟
|
کدام گروه از یک متغیر مستقل بیشتر و به چه میزان بر متغیر وابسته تأثیر می گذارد
|
84287
|
من مشکلی دارم که به نظر نمیرسد آن را حل کنم: قبلی: $\beta_h \sim \mathcal{N}(\bar{\beta},D)$. به نوعی قسمت عقبی $\beta_h \sim \mathcal{N}(M, \Omega)$ است که $M=(D^{-1}+X'X)^{-1}(D^{-1} \bar{\beta}+X'p)$ و $\Omega=(D^{-1}+X'X')^{-1}$، که $X$ یک ماتریس داده است و $p$ یک داده بردار چگونه می توانم ثابت کنم که $M$ و $\Omega$ چنین هستند؟ تابع احتمال چه خواهد بود؟ من 7 سوال مشابه دارم که برای من بی معنی است.
|
استخراج توزیع خلفی نرمال چند متغیره
|
41089
|
من در حال آزمایش یک سیستم توصیه برای مقالات (اخبار، مجلات و غیره) هستم. آیا مجموعه داده ای برای همان داده موجود است که شامل اطلاعات جمعیت شناختی کاربران نیز باشد؟ من در واقع سعی میکنم اطلاعات جمعیتشناختی را نیز در توصیهها بگنجانم، از این رو به دنبال چنین مجموعه دادهای هستم. من واقعاً نمیخواهم چنین دادههایی را شبیهسازی کنم، زیرا فکر میکنم دادههای واقعی بینشهای بسیار جالبتری نسبت به شبیهسازیشده ارائه میدهند. کسی از چنین چیزی مطلع است؟ من یکی از http://contest.plista.com/ را پیدا کردم، اما متأسفانه به نظر میرسد که مجموعه دادههای آلمانی و اطلاعات جمعیتشناختی آن وجود ندارد. از هرگونه اطلاعاتی در اینجا قدردانی می کنیم.
|
مجموعه داده برای توصیه مقاله با داده های جمعیت شناختی
|
85730
|
من می دانم که این ممکن است از نظر آماری کمی بد باشد، اما این مشکل من است. من داده های محدوده زیادی دارم، یعنی حداقل، حداکثر و اندازه نمونه یک متغیر. برای برخی از این داده ها من نیز یک میانگین دارم، اما نه تعداد زیادی. من میخواهم این محدودهها را با یکدیگر مقایسه کنم تا تغییرپذیری هر محدوده و همچنین میانگینها را مقایسه کنم. من دلیل خوبی برای این فرض دارم که توزیع حول میانگین متقارن است و داده ها دارای یک توزیع گاوسی خواهند بود. به همین دلیل، فکر میکنم میتوانم استفاده از نقطه میانی توزیع را بهعنوان نمایندهای برای میانگین، زمانی که وجود ندارد، توجیه کنم. کاری که من می خواهم انجام دهم این است که یک توزیع برای هر محدوده بازسازی کنم و سپس از آن برای ارائه یک انحراف استاندارد یا خطای استاندارد برای آن توزیع استفاده کنم. تنها اطلاعاتی که من در اختیار دارم حداکثر و حداقل مشاهده شده از یک نمونه و نقطه میانی به عنوان پروکسی برای میانگین است. به این ترتیب امیدوارم بتوانم میانگین های وزنی را برای هر گروه محاسبه کنم و همچنین ضریب تغییرات را برای هر گروه بر اساس داده های دامنه ای که دارم و فرضیاتم (از یک توزیع متقارن و نرمال) محاسبه کنم. من قصد دارم از R برای انجام این کار استفاده کنم، بنابراین هر کمکی برای کد نیز قابل قدردانی خواهد بود.
|
آیا می توانم توزیع نرمال را از روی حجم نمونه و مقادیر حداقل و حداکثر بازسازی کنم؟ من می توانم از نقطه میانی برای پراکسی میانگین استفاده کنم
|
59850
|
من یک مدل HLM با واریانس معنیدار در سطح 1 بین گروهها دارم، اما واریانس معنیداری در شیبهای سطح 1 در گروهها وجود ندارد و اثرات تعدیل سطح متقاطع قابلتوجهی را پیدا میکنم. آیا تفسیر اینها منطقی است یا شیب های تصادفی شرط لازم برای بررسی اثرات متقابل سطح متقابل هستند؟
|
آیا می توانم تعاملات سطح متقابل را بدون شیب تصادفی در یک مدل خطی سلسله مراتبی بررسی کنم؟
|
108772
|
من در تلاش برای درک مفروضات پارامترهای مختلف در یک شبکه مارکوف هستم. در این مورد، من سعی می کنم مفروضات (و اثرات) ناشی از پارامترسازی پتانسیل های زوجی با فرکانس های زوجی (یعنی $\psi_{(a, b)} = p(a, b)$) را درک کنم. نویسندگان در: Mitrofanova، A. et al. پیش بینی توابع پروتئین با هستی شناسی ژن و داده های همسانی پروتئین بین گونه ای. IEEE/ACM Trans. محاسبه کنید. Biol. و Bioinf.، 8، 775-784. فرض کنید یک شبکه 3 گره (a)-(b)-(c) داریم که RV ها برنولی هستند. طبق قانون زنجیره ای احتمال (و استقلال)، در همه موارد، $p(a, b, c) = p(a) p(b|a) p(c|b)$. ابتدا، اگر $p(a, b, c) = \psi_{a, b}(a,b) \psi_{b, c}(b,c)$ را تعریف کنیم که $\psi_{a, b} = p(a, b)$ و $\psi_{b, c} = p(b, c)$، سپس به نظر می رسد که $p(b)$ باید برابر با 1 (یا 0) باشد. در شبکه های بزرگتر و لوپی چه اتفاقی می افتد؟ دوم، اگر از تعداد یکسانی از پارامترهای آزاد استفاده کنیم، به طوری که هر پتانسیل محلی به یک مجموع شود، و پارامترها را یاد بگیریم (اما پتانسیل ها نباید حاشیه باشند)، آنگاه محاسبه می کنم که $p(b) = \psi_1(b) \psi_2(b)$، که $\psi_1(b) = \Sigma_a\psi_{b,c}$. تا زمانی که $\psi_1(b) = \psi_2(b) = p(b)$ را فرض نکنم، آیا این یک پارامتر معتبر و مفید است؟ آیا فرضیاتی وجود دارد؟ سوم، اجازه دهید اکنون محدودیت پتانسیل های محلی را حذف کنیم و به جای آن یک ثابت عادی سازی جهانی اضافه کنیم. اگر $p(a) p(b|a) p(c|b)$ را با $\frac{1}{Z} p(a,b) p(c,b)$ مقایسه کنم، میتوانم ببینم که $ Z = p(b)$. این خوب است. با این حال، اگر بخواهم $Z$ را با جمع کردن تمام ترکیبات $a, b, c$ محاسبه کنم، آنگاه دریافتم که Z برابر است $\Sigma_b{p(b)p(b)}$. چه اتفاقی افتاد؟
|
مفروضات ضمنی با پارامترسازی جفتی حاشیه ای MRF
|
77270
|
من روی یک پروژه کار می کنم و می خواهم بدانم آیا استراتژی زیر خوب است یا خیر. ببخشید اگر این یک ایده اولیه/احمقانه است (من تازه وارد این کار هستم). ورودی یک مجموعه داده با 2500 ویژگی و 1000 نمونه است. من باید یک ویژگی انتخاب در این مجموعه اعمال کنم. در ابتدا من به طور تصادفی یک مجموعه آموزشی (که شامل 70٪ داده های اصلی است) و یک مجموعه تست (با 30٪ باقیمانده) می سازم. اکنون مجموعه یادگیری را به 10 برابر تقسیم می کنم (برای انجام اعتبارسنجی متقابل)، بنابراین مجموعه یادگیری را به 10 قسمت (کم و بیش مساوی) تقسیم می کنیم و اکنون 9 قسمت از 10 را برای رتبه بندی ویژگی (با استفاده از) تقسیم می کنیم. مجذور chi)، سپس بهترین 10 ویژگی (بالاترین رتبه) را برای ارزیابی مدل (با استفاده از SVM) روی بخش باقی مانده از «مجموعه یادگیری تقسیم شده» (و این کار را انجام می دهیم) انتخاب می کنیم. 10 بار، بنابراین هر بخش به عنوان مجموعه تست استفاده می شود). انجام این آرگومان «10 برابر» به ما 10 رتبه بندی ویژگی (با 10 ارزیابی/دقت مدل) می دهد. از بین این 10 نتیجه، میتوانیم بهترین رتبهبندی ویژگی را بگیریم (با توجه به دقت آن بر اساس مدل یا جمعبندی رتبهبندی ویژگیها) و در نهایت آن را از ابتدا روی مجموعه تست 30 درصد آزمایش کنیم. لطفا نظرتون رو بگید که خوبه یا واقعا احمقانه...
|
انتخاب ویژگی و اعتبار سنجی متقابل
|
85737
|
از کتابچه راهنمای epiR برای عملکرد **_epi.2by2_**: > واحدها: ضریب برای برآورد شیوع و بروز. در مثالها روی 100، «واحد=100» تنظیم شده است. یعنی چی؟ **توجه:** من روی ~5K مورد ~5K داده های کنترل کار می کنم، بدون لایه، نتیجه در مقابل قرار گرفتن در معرض - جداول 2 در 2. **به روز رسانی:** این PDF ممکن است مرتبط باشد.
|
واحدها در بسته epiR به چه معناست؟
|
41621
|
من با استفاده از ابزارهایی مانند SVM و درخت تصمیم برای مسائل طبقه بندی گسسته آشنا هستم. اما یکی از جزئیاتی که من در آن حوزه با آن مواجه نشده ام این است: اگر طبقه بندی کننده شما باید مقداری را در هنگام پیش بینی نتایج برای داده های ورودی جدید حفظ کند، چه کار می کنید؟ برای مثال، فرض کنید که همه تیمها را در NFL انتخاب کردهاید و آنها را به پنجک (20 درصد سطل) بر اساس یاردهای سریعشان در هر بازی تقسیم کردهاید (یا بگوییم که تیمهایی را از EPL انتخاب کردهاید و بر اساس زمان آنها به پنجکها تقسیم کردهاید. - مالکیت یا آمار دیگری). علاوه بر این، فرض کنید این کار را به صورت هفتگی انجام می دهید، بنابراین هر هفته آمار خود را جمع آوری می کنید و سپس تیم ها را از 1 تا N رتبه بندی می کنید، آنها را به پنجک تقسیم می کنید، و برچسب کلاس هر تیم پنجک آن است. حالا فرض کنید برای هر تیم یک سری ویژگی ایجاد کرده اید که فکر می کنید پنجک تیم را برای هفته آینده پیش بینی می کند. این می تواند پنجک تاریخی تیم، تغییرات مربیگری، مصدومیت بازیکنان کلیدی، هر چه باشد. اما نکته اینجاست که میتوانید برای هر تیم یک بردار ویژگی بسازید و میخواهید طبقهبندیکنندهای را آموزش دهید که بر اساس ویژگیها، برچسب کلاس (۱ تا ۵) را پیشبینی کند. چند راه متداول یا از نظر تجربی مؤثر برای محدود کردن طبقهبندیکننده بهگونهای که خروجی منطقی باشد چیست؟ یعنی فقط باید 20 درصد تیمها را در هر پنجک خاص طبقهبندی کرد و طبقهبندیکننده نباید بتواند با قرار دادن تیمهای بیشتر در پنجک از 20 درصد کل، به طور منطقی با خودش مخالفت کند. (یعنی، نظریه پشت طبقهبندیکننده باید نشان دهد که چگونه میتوانیم از قبل بدانیم که طبقهبندی کننده تناقض ایجاد نمیکند). من بهدنبال راههای هک پسهک برای گرد کردن یا هر چیز دیگری نیستم، و همچنین به طور خاص سعی میکنم از موقعیتی اجتناب کنم که شما یک مدل رگرسیونی از کمیت پیوسته زیربنایی بسازید و سپس فقط کمیت را پیشبینی کنید و خودتان پنجکها را به صورت دستی اختصاص دهید. من میخواهم طبقهبندیکننده به طور گسسته پنجکها را برای هر بردار ویژگی انتخاب کند و در عین حال به محدودیتهای خارجی روی برچسبهای کلاس احترام بگذارد. به طور کلی تر، شما می توانید تعجب کنید که چگونه یک طبقه بندی کننده SVM-مانند را طوری آموزش می دهید که دارای قوانین داخلی باشد مانند فقط M از N شیء می تواند برچسب L را دریافت کند، و من باید همیشه آن را برای برچسب _every other_ در نظر بگیرم که من هم تخصیص می دهم...» **برخی افکار:** (1) از چیزی مانند بازپخت شبیه سازی شده برای به هم زدن نقاط مرزی پنجک پس از پیش بینی استفاده کنید. یعنی از طبقهبندیکننده آموزشدیده برای طبقهبندی پنجک هر تیم استفاده کنید. از فاصله از حاشیه بهعنوان «تابع انرژی» برای به حداقل رساندن استفاده کنید و سپس بهطور تصادفی اعضای پنجکهای پرجمعیت را به پنجکهای کمجمعیت نزدیک شروع کنید. شما بر اساس میزانی که فاصله کلی از حاشیه را بدتر می کند، چنین درهم ریختگی را می پذیرید یا رد می کنید. من این راه حل را دوست ندارم زیرا احتمالاً بعد از اینکه مشکل بهینه سازی SVM را حل کردید، از نظر محاسباتی ناکارآمد خواهد بود. همچنین، به نظر میرسد که در واقع فقط از فاصله حاشیه بهعنوان یک کمیت پیوسته برای تعیین طبقهبندی استفاده میکنید، در این مرحله ممکن است سعی کنید یک کمیت پیوسته مبتنی بر مدل یا از نظر فیزیکی قابل قبولتر استخراج کنید و فقط رگرسیون یا چیزی دیگر را انجام دهید. خروجی پیشبینیشده را در پایان به پنجکها خرد کنید، چیزی که میخواستم از آن اجتناب کنم.
|
طبقه بندی کننده هایی با محدودیت های پس از آموزش در فضای پیش بینی
|
5483
|
به عنوان مثال، یک کلاس از دانش آموزان و نمرات آنها مجموعه داده است. فرض کنید حدود 35 دانش آموز وجود دارد. در اینجا چیزی است که می دانید: نمره شما میانگین کلاس نمره میانه انحراف معیار آیا با توجه به این اطلاعات نتیجه دیگری در مورد این داده وجود دارد؟ با تشکر
|
چه چیز دیگری را می توان از اطلاعات خلاصه کلاس زیر استنباط کرد؟
|
5487
|
من باید حجم نمونه مورد نیاز برای یک مطالعه مشاهده ای را محاسبه کنم که در آن بروز بیماری 19-29٪ است. جمعیت آسیب دیده 600000 نفر است. این مطالعه دارای دو نمونه مشابه از نظر ویژگی های پایه است که با دو داروی مختلف درمان شده اند. تجزیه و تحلیل آماری از آزمون کای اسکوئر و فیشر خواهد بود. من باید عدم حقارت یکی از داروها را نسبت به دیگری نشان دهم. من هیچ اطلاعات دیگری ندارم آیا کسی می تواند به من کمک کند تا اندازه های نمونه مورد نیاز را برای بدست آوردن توان 0.80 با آلفا 0.05 محاسبه کنم؟ پیشاپیش خیلی ممنون
|
محاسبه حجم نمونه برای مطالعه با هدف نشان دادن عدم حقارت یک دارو
|
87395
|
من با R جدید هستم و lmer را در lme4 اجرا کرده ام. در خلاصه مدل، هیچ پیام هشداری وجود ندارد، اما زمانی که من confint(lmer) را میپرسم، R این پیام را در پایین خروجی به من میدهد: پیامهای هشدار: 1: در profile.merMod(object, signames = oldNames, ...) : non-monotonic profile 2: in profile.merMod(object, signames = oldNames, ...) : non-monotonic profile 3: in profile.merMod(object, signames = oldNames, ...) : نمایه غیر یکنواخت به چه معناست؟ و باید چیکار کنم
|
نمایه غیر یکنواخت: هنگام اجرای confint(lmer) هنگام دریافت آن چه کاری باید انجام دهم؟
|
108867
|
من یک مجموعه داده سری زمانی دارم که بازدید ساعتی از صفحه و اشتراک رسانه های اجتماعی اخبار آنلاین را گزارش می کند. آنچه من امیدوارم به دست بیاورم رابطه بین دو متغیر است. تصور میکنم هرچه اشتراکگذاریهای یک داستان بیشتر باشد، بازدیدهای بیشتری از صفحه را جذب میکند و بالعکس. این بدان معناست که دو متغیر منحنی رشد سریع/آهسته مشابهی را نشان خواهند داد. از نظر یک داستان، می توانم از مدل VAR (خودرگرسیون برداری) برای تخمین ضرایب استفاده کنم. با این حال، چگونه می توانم از صدها داستان برای ساختن یک مدل کلی تر استفاده کنم؟ چیزی که تا به حال به آن فکر کرده ام این است که هر داستان را با همان مدل تطبیق دهم و سپس توزیع ضرایب را مشاهده کنم. آیا روش مناسبی خواهد بود؟ اگر بتوانید با مهربانی به برخی از مقالات و/یا بسته های R که الهام بخش راه حل های بالقوه است، استناد کنید، عالی خواهد بود. متشکرم
|
منابع پیشنهادی برای تحلیل چند متغیره چندین سری زمانی مشابه
|
83885
|
من دو نمونه _finite_ $s_1$ و $s_2$ و دو توزیع $p_1(s_1)$ و $p_2(s_2)$ دارم که به این نمونهها مرتبط هستند. من اساساً علاقه مند به اندازه گیری فاصله یا شباهت بین این دو توزیع هستم. من در حال حاضر از فاصله Jensen-Shannon (JS) استفاده می کنم که شامل محاسبه آنتروپی های دو توزیع جداگانه و مشترک است. من باید داده ها را برای محاسبه توابع اصلی آنتروپی بن کنم و به نظر می رسد که فاصله JS حاصل نیز تابعی از استراتژی binning داده است که من استفاده می کنم. کاملاً خودسرانه به نظر می رسد و نمی دانم چقدر می توانم به نتایج اعتماد کنم. آیا راهی برای دور زدن این موضوع وجود دارد؟ چگونه می توانم فاصله بین $p_1(s_1)$ و $p_2(s_2)$ را به روشی دقیق تری اندازه گیری کنم که نیازی به جمع کردن داده یا هر نوع خودسری دیگری ندارد؟
|
واگرایی جنسن-شانون برای نمونه های محدود
|
14237
|
اول از همه، من اطلاعات کمی در مورد آمار دارم، بنابراین برخی از این سوال ممکن است ساده به نظر برسد. من سعی می کنم رگرسیون خطی را برای مدل کردن رابطه بین x و y انجام دهم که در آن: -x حجم سهام روزانه یک شرکت در یک تاریخ است -y متغیری است که از همان تاریخ گرفته شده است، اما چیزی غیرمرتبط با حجم سهام است. این حجم فعالیت در آن ویکی پدیا برای آن شرکت است. من فرض می کنم که متغیرها نیاز به نرمال سازی دارند. به طور خاص، x باید نرمال شود زیرا حجم شاخص کلی در نوسان است. اولین فکر من این بود که حجم روزانه را بر حجم کل شاخص تقسیم کنم. من همین کار را با متغیر y انجام خواهم داد. من فقط تعجب کردم که آیا این معقول به نظر می رسد؟ با تشکر ویرایش: من به تازگی متوجه اشتباه تایپی در سوال شده ام، توضیحات متغیر Y تغییر کرده است.
|
عادی سازی برای رگرسیون
|
72956
|
فرض کنید، دادههای زیر میانگین زمان پاسخدهی به یک کار را برای پاسخدهندگان در میان چهار گروه مختلف نشان میدهد: A B C D 1.2 2.3 4.5 6.7 به منظور ارزیابی اینکه کدام یک از میانگینها با یکدیگر متفاوت هستند، یک آزمون مقایسه چندگانه (پس از یک ANOVA همهگیر) انجام میدهم. تست پاک شد) و آزمون مقایسه چندگانه به من می گوید که میانگین گروه D به طور قابل توجهی با میانگین گروه های A و B متفاوت است و هیچ جفت دیگری وجود ندارد. تفاوت ها به طور قابل توجهی متفاوت است. بهترین راه برای ارائه این اطلاعات به صورت تصویری چیست؟
|
نمایش بصری تست مقایسه چندگانه
|
108861
|
می ترسم که سوالات مرتبط جواب من را ندهد. ما عملکرد بیش از 2 طبقه بندی کننده (یادگیری ماشین) را ارزیابی می کنیم. فرضیه صفر ما این است که عملکردها تفاوتی ندارند. برای ارزیابی این فرضیه، آزمون های پارامتریک (ANOVA) و ناپارامتریک (فریدمن) را انجام می دهیم. اگر مهم هستند، میخواهیم بفهمیم کدام دستهبندیکنندهها در یک جستوجوی پسهوک متفاوت هستند. سوال من دوگانه است: 1) آیا اصلاً اصلاح مقادیر p بعد از آزمایش مقایسه های چندگانه ضروری است؟ سایت ویکیپدیای آلمانی در «Alphafehler Kumulierung» میگوید که این مشکل تنها زمانی رخ میدهد که چندین فرضیه بر روی دادههای یکسان آزمایش شوند. هنگام مقایسه طبقه بندی کننده ها (1،2)، (1،3)، (2،3)، داده ها فقط تا حدی همپوشانی دارند. آیا باز هم اصلاح مقادیر p لازم است؟ 2) تصحیح P-value اغلب پس از تست زوجی با آزمون t استفاده می شود. آیا هنگام انجام تست های تخصصی پس از آن مانند تست Nemenyi (ناپارامتریک) یا تست HSD Tukey نیز لازم است؟ این پاسخ میگوید نه برای HSD Tukey: آیا تست Tukey HSD برای مقایسههای چندگانه درست است؟ آیا قانونی وجود دارد یا باید برای هر آزمون احتمالی پس از آن به دنبال آن باشم؟ با تشکر
|
چه زمانی مقادیر p را در مقایسه های چندگانه تصحیح کنیم؟
|
44109
|
من به دنبال استفاده از یک رگرسیون چند متغیره برای پیشبینی هستم، اما از برآوردهای برتر (احتمالاً) واریانس برای متغیرهای مستقل و خارجی استفاده میکنم. رویکرد من استانداردسازی متغیرهای وابسته و خارجی است (با تقسیم انحراف استاندارد مربوطه آنها که از تاریخچه داده کامل به دست میآیند). هنگامی که ضرایب رگرسیون استاندارد شده را داشته باشم، از این ضرایب به همراه برآوردهای واریانس با منبع جداگانه خود استفاده می کنم تا به معادله ای برگردم که برای تولید پیش بینی ها استفاده می شود. آیا من به سادگی هر ضریب را در برآورد واریانس منبع جداگانه خود ضرب کنم؟ اما در مورد برآورد واریانس متغیر وابسته چطور؟ به عنوان اطلاعات پسزمینه، منبع جداگانه تخمینهای واریانس من به این دلیل است که معتقدم تخمینهای بهتری (بهروزتر) نسبت به تاریخچه کامل دادههای موجود دارم (مثلاً چون واریانسها در طول زمان پایدار نیستند، میتوانم تخمین بزنم. اندازه گیری به موقع واریانس با استفاده از داده های فرکانس بالاتر در یک دوره کوتاه تر و اخیر). * آیا این رویکرد یک رویه استاندارد معقول است؟ * چگونه با استفاده از تخمینهای واریانس فرکانس بالا از بتای استاندارد شده به نسخههای غیراستاندارد شده برویم؟ من اینجا (http://stats.stackexchange.com/questions/29781/when-should-you- center-your-data-when-should-you-standardize) را در مورد WHEN برای استانداردسازی خواندم، اما برای من روشن نیست که آیا این مورد استانداردسازی متغیرهای وابسته و خارجی را پوشش می دهد. متشکرم
|
تخمین رگرسیون چند متغیره زمانی که واریانس متغیرها به طور پیشینی شناخته شده باشند/منبع جداگانه باشند.
|
24799
|
با توجه به یک مدل سلسله مراتبی $p(x|\phi,\theta)$، من یک فرآیند دو مرحلهای میخواهم تا با مدل مطابقت داشته باشد. ابتدا تعدادی ابرپارامتر $\theta$ را اصلاح کنید و سپس استنتاج بیزی روی بقیه پارامترهای $\phi$ انجام دهید. برای رفع هایپرپارامترها دو گزینه را در نظر دارم. 1. از **تجربی بیز (EB)** استفاده کنید و احتمال حاشیه ای را به حداکثر برسانید. 2. از تکنیکهای **Cross Validation (CV)** مانند اعتبارسنجی متقاطع $k$-fold برای انتخاب $\theta$ استفاده کنید که احتمال $p(\mbox{تست دادهها}|\mbox{دادههای آموزشی}، \ را به حداکثر میرساند. تتا) دلار. مزیت EB این است که می توانم از همه داده ها به طور همزمان استفاده کنم، در حالی که برای CV باید (به طور بالقوه) احتمال مدل را چندین بار محاسبه کنم و $\theta$ را جستجو کنم. عملکرد EB و CV در بسیاری از موارد قابل مقایسه هستند و اغلب EB سریعتر برآورد می شود. سوال: آیا مبنای نظری وجود دارد که این دو را به هم مرتبط کند (مثلاً EB و CV در حد داده های بزرگ یکسان هستند)؟ یا EB را به برخی از معیارهای تعمیم پذیری مانند ریسک تجربی مرتبط می کند؟ آیا کسی می تواند به یک ماده مرجع خوب اشاره کند؟
|
اعتبار سنجی متقابل در مقابل بیز تجربی برای تخمین فراپارامترها
|
83884
|
فرض کنید من در حال انجام طبقه بندی جنگل تصادفی برچسب های $A$,$B$,$C$,$D$ هستم. مقداری ترتیب نظری برای این خروجی وجود دارد، به طوری که وقتی $A$ احتمال بیشتری از $B$ دارد، $B$ نیز از $C$ و غیره محتمل تر است. همچنین، اگر $P(D) > P(C)$ ، ما همچنین داریم که $P(C) > P(B) > P(A)$. چنین شرایط دیگری نیز وجود دارد که باید رعایت شود. مسئله این است که یک جنگل تصادفی واقعی ممکن است چیز احمقانه ای را ارائه دهد که کاملاً محدودیت های فوق را نقض کند، _حتی اگر_ بتواند محتمل ترین نتیجه را با موفقیت پیش بینی کند. برای مورد استفاده من، سفارش مهم است، زیرا تصمیمات نه تنها در مورد محتمل ترین نتیجه گرفته می شود. همچنین شهودی به نظر می رسد که اگر بتوانم به نحوی این دانش قبلی را در مدل اعمال کنم، باید بتوانم تعمیم را بهبود بخشم. چگونه این را در جنگل تصمیم حساب کنم؟ با وجود این ساختار خروجی، من فکر نمیکنم که بتوان یک متغیر پاسخ با ارزش واقعی ایجاد کرد، زیرا آنها برچسبهای _هنوز کلاسی هستند که ارزش واقعی طبیعی ندارند، حتی اگر نوعی ترتیب برای آنها وجود داشته باشد.
|
چگونه می توان محدودیت ها را در خروجی جنگل تصادفی گنجاند
|
87393
|
من با توابع امتیاز در محاسبه احتمال مشکل دارم. من در آمار یا احتمال خوب نیستم، بنابراین هنوز در فرمالیسم و زبان ریاضی-احتمالی سردرگم هستم. **برخی پیشینه:** من روی فیلتر ذرات هستم، بنابراین استنباط pdf که از نظر تحلیلی با نمونه گیری مونت کارلو قابل حل نیست: چند ذره تصادفی قرار دهید، آنها را با یک تابع احتمال ارزیابی کنید، و مجموعه ذرات با وزن نرمال می تواند تقریبی از pdf من باید به هر ذره وزن بدهم و احتمال را با یک تابع درستنمایی یا تابع امتیاز محاسبه کنم. اگر حالت پنهان من که با این pdf دشوار توصیف شده است، به عنوان $X$ نشان داده شود، و من مقداری مشاهده $z$ داشته باشم، احتمال را می توان به صورت زیر رسمیت داد: $$ p( X | z ) = \text{likelihood } $$ **آنچه اکنون دارم:** یک تابع فاصله خوب که فاصله بین ذره و هدف را به من می دهد. کار می کند. این فاصله Bhattacharyya است (من با تصاویر کار می کنم و هیستوگرام رنگی یک ویژگی مرتبط است). به طوری که: $$ d = \text{Bhattacharyya(ذره، هدف)} $$ این $d$ یک فاصله است، و برای یک تابع احتمال به یک احتمال نیاز دارم، بنابراین آن را در یک گاوسی با میانگین صفر قرار میدهم و واریانس = 0.4: $$ \text{relihood} = \frac{e^{-\frac{(d-\mu)^2}{2 \sigma^2}}}{\sqrt[2]{ \pi \sigma}} $$ **چیزی که میخواهم:** اکنون میخواهم آزمایشهایم را بهبود ببخشم و به طور مشابه تابع امتیاز دیگری را اضافه کنم تا احتمال کل با دو تابع امتیاز (مثلاً فاصله شکل یا چیز دیگری) $s_1$ و $s_2$ محاسبه می شود. من از مدرسه به یاد دارم (اما دقیقاً یادم نیست چرا) که اگر می خواهید 2 احتمال را با هم ترکیب کنید، فقط باید ضرب کنید نه جمع. بنابراین می دانم که: $$ \text{likelihood} \propto s_1 s_2 $$ که $s_1$ گاوسی با Bhattacharyya با هیستوگرام رنگی است و $s_2$ فاصله شکل است. دو تابع امتیاز گاوسی هستند و مستقل نیستند (به یک حالت پنهان وابسته هستند). **سوال 1**: آیا درست است که باید آنها را ضرب کنم؟ چرا؟ بنابراین فرمول نهایی من این خواهد بود: $$ \text{likelihood} = \frac{e^{-\frac{(d_1-\mu)^2}{2 \sigma^2}}}{\sqrt[2] { \pi \sigma}} \frac{e^{-\frac{(d_2-\mu)^2}{2 \sigma^2}}}{\sqrt[2]{ \pi \sigma}} $$ **سوال 2:** اگر بخواهم به صورت تجربی به یکی از این دو امتیاز اهمیت بیشتری بدهم، زیرا فکر می کنم بیشتر توصیفی از داده های من است، چه؟ دوست داشتن: $$ \text{احتمال} = \alpha s_1 (1-\alpha)s_2 $$
|
تابع امتیاز احتمال 101
|
84284
|
آیا ویژگی های زیادی در Eviews وجود دارد که R آنها را از دست می دهد؟ من شنیده ام که مخصوصاً وقتی که با سری های زمانی سروکار داریم R نسبت به Eviews گسترده تر است. آیا این حقیقت دارد؟ کدام یک از دو بسته حاوی بیشترین ابزارهای آماری است (یا قابل مقایسه هستند؟)؟
|
Eviews در مقابل R (نرم افزار آماری)
|
14234
|
من واقعاً انگیزه ای برای این کار ندارم - اما به این فکر می کردم و نتوانستم آن را حل کنم. فرض کنید من یک متغیر تصادفی $X$ و $Y$ دارم که همبستگی دارند. آیا ممکن است همبستگی جزئی بین $X$ و $X\cdot Y$ پس از در نظر گرفتن Y صفر باشد؟ به عبارت دیگر، آیا رگرسیون $X$ در $Y$ و $X\cdot Y$ احتمالاً منجر به ضریب صفر در $X\cdot Y$ میشود؟
|
ضریب رگرسیون صفر زمانی که همبستگی ها صفر نیستند
|
41624
|
در رگرسیون پانل با استفاده از جلوه های ثابت، آیا استفاده از ابزاری که در سال تغییر نمی کند صحیح است؟ برای استفاده از یک مثال قدیمی اما ساده، آنگریست و کروگر 1991 از یک چهارم تولد به عنوان ابزاری برای آموزش استفاده کردند. اگر کسی به داده های مشابهی دسترسی داشت که به صورت پانل بود، آیا استفاده از سه ماهه تولد (برای هر کدام یکسان است) درست است (و منظورم به طور خاص سه ماهه تولد نیست، می دانم که اعتبار این IV مشکلاتی دارد. پاسخ دهنده بدون توجه به موج پانل) به عنوان ابزاری در رگرسیون پانل IV؟ چرا یا چرا نه؟
|
IV قانونی برای پانل؟
|
28622
|
من برخی از داده ها را دارم که به خوبی با تجزیه و تحلیل تفکیک کننده خطی کنسرو شده (LDA) JMP کار می کند، اما پس از مطالعه در مورد LDA مطمئن نیستم که آیا آنالیز معتبر است یا خیر. مقاله ویکی به یک فرض اساسی LDA اشاره می کند که متغیرهای مستقل معمولاً توزیع می شوند. آیا این همچنین به این معنی است که اگر متغیرهای من هر گونه همبستگی داشته باشند، نمی توانم از LDA استفاده کنم؟ همچنین، با فرض اینکه متغیرهای مستقل را دارم یا به آنها تبدیل میکنم، باید آزمایش کنم که آیا آنها به طور معمول توزیع شدهاند (مثلاً آزمون Shapiro-Wilk) و فقط از آنهایی استفاده کنم که در LDA قبول شدهاند؟ با تشکر
|
چگونه می توانم آزمایش کنم که آیا می توانم LDA را به درستی اعمال کنم؟
|
44102
|
من سعی می کنم مدل های سری زمانی ضریب پراکنده بسازم اما منبع/کتاب خوبی برای یادگیری پیدا نکردم. آیا کسی می تواند یک منبع/کتاب خوب را با من به اشتراک بگذارد؟ اگر با کدهای R همراه باشد عالی می شود. آیا کسی می تواند از این مدل مهربان استفاده کند؟ با تشکر
|
مدل های سری زمانی ضریب پراکنده
|
84286
|
از آنچه من میدانم، انتساب عرشه داغ شامل 2 بخش است. 1) انتخاب استخر اهداکننده: این بر اساس متغیرهای مربوط به متغیر گمشده است. شاید از تکنیک رگرسیون برای آزمایش ارتباط استفاده کنید یا فقط از یک متخصص موضوع بپرسید. 2) انتخاب مقداری که باید از مجموعه اهداکننده بر اساس ویژگی هایی مانند فاصله یا از طریق تکنیک های نمونه گیری تصادفی نسبت داده شود. برای انتساب تصادفی منفرد، فرآیند به این صورت است: 1) توزیع مجموعه داده را پس از حذف لیستی واحدهای بدون پاسخ آیتم تعیین کنید. 2) از تکنیک های تصادفی برای انتخاب یک مقدار از توزیع استفاده کنید. هر دوی این فرآیندها به نظر من بسیار شبیه هستند. دقیقاً تفاوت این دو چیست؟ با تشکر
|
تفاوت بین Hot Deck و Imputation تک تصادفی چیست؟
|
14231
|
فرض کنید من 1 موفقیت در 4 آزمایش برنولی دارم و میخواهم توزیع پارامتر $p$ توزیع دوجملهای مربوطه را رسم کنم. من از R استفاده می کنم. احتمال مشاهده 1 موفقیت و 3 شکست در 4 تست برای $p=0.25$ برای این پارامترها است: > n <- 4 > p <- 0.25 > dbinom(1, n, p) [ 1] 0.421875 برای بدست آوردن توزیع پارامتر، از توزیع بتا $Beta(k+1, n-k+1)$ استفاده می کنم. اما وقتی سعی می کنم مقدار $p=0.25$ را محاسبه کنم، نتیجه متفاوتی دریافت می کنم: > k <- 1 > dbeta(p, k+1, n-k+1) > [1] 2.109375 سعی کردم تقسیم کنم که توسط تابع beta $B(k+1, n-k+1)$، اما این نیز کار نمی کند: > dbeta(p, k+1, n-k+1)/beta(k+1, n-k+1) > [1] 42.1875 این دقیقاً 100 برابر نتیجه ای است که انتظار داشتم. من مطمئناً چیزی را از دست می دهم - شاید یک چیز اساسی، من متخصص نیستم. چیز دیگری که من را مجذوب خود میکند: منطقه «dbeta» بدون تقسیم بر تابع بتا به 1 میرسد.
|
هنگام استفاده از توزیع بتا به عنوان توزیع قبلی برای دوجمله ای، چرا نتایج توزیع با احتمال محاسبه شده مطابقت ندارند؟
|
72955
|
سعی می کنم با استفاده از کتاب بیومتری نوشته سوکال و روهلف (3e) آماری را یاد بگیرم. این تمرین در فصل پنجم است که احتمال، توزیع دو جمله ای و توزیع پواسون را پوشش می دهد.  من متوجه شدم که فرمولی برای پاسخ به این سوال وجود دارد: $$ n = \frac 4 {( \sqrt{ p} - \sqrt{q} )^2} $$ اما این معادله در این متن نیست. من می خواهم بدانم چگونه اندازه نمونه را فقط با دانستن احتمال، سطح اطمینان مطلوب و توزیع دوجمله ای محاسبه کنم. آیا منابعی در مورد این موضوع وجود دارد که بتوان به آن اشاره کرد؟ من گوگل را امتحان کردهام، اما آنچه تاکنون دیدهام نیازمند اطلاعاتی است که در این مشکل به آنها دسترسی ندارم.
|
تعیین حجم نمونه با نسبت و توزیع دو جمله ای
|
44100
|
من می خواهم داده های یک جامعه از گونه ها را بین دو سال مقایسه کنم. من قبلاً جوامع را بر اساس سطوح مختلف یک عامل (مثلاً یک درمان) مقایسه می کردم. مورد یک درمان آسان است زیرا هر محل دارای سطح مربوط به درمان است. با این حال، اگر فاکتور یک سال باشد، با طراحی جفتی با هر سایت دو بار نمونهبرداری مواجه میشویم. در این مورد من نمی توانم فقط یک سال را به یک سایت اختصاص دهم و بنابراین، نمی دانم از کدام روش برای تجزیه و تحلیل تفاوت های جامعه بین دو سال استفاده کنم.
|
چگونه جوامع گونه ای را بین دو سال مقایسه کنیم؟
|
44105
|
من سعی میکنم سرم را در مورد مدلسازی مخلوط بپیچم، و به یک اسکریپت متلب کوچک برخوردم که مرتبط به نظر میرسد. برای اینکه با Pymix آشنا شوم، تصمیم گرفتم اسکریپت matlab را در پایتون بازنویسی کنم. به نظر میرسد که با موفقیت دادهها را با الگوریتم حداکثرسازی انتظار تطبیق/تجزیه کردهام، اما مطمئن نیستم که ماهیت خروجی روش را درک کرده باشم. سوال من به شرح زیر است: 1. چگونه می توانم شکل دوم را از کد متلب (زیر) با خروجی `pymix.MixtureModel.EM` تکرار کنم؟ 2. کسی میتونه خروجی روش بالا رو توضیح بده؟ لازم به ذکر است که من به طرز وحشتناکی در زمینه آمار و ریاضیات به طور کلی کم آموزش هستم (من روی آن کار می کنم!)، بنابراین لطفاً فرض کنید من هیچ چیز نمی دانم =) در هر صورت، اسکریپت متلب این است: % تولید برخی از داده های گرفته شده از دو داده گاوسی = [0.4+randn(100,1).*0.15; 1+ randn(200,1).*0.25]'; داده (داده < 0.05) = 0.05; [n,x] = hist(data); نوار (x,n); % مدل مخلوط را pdf مخلوط کنیدGauss = ... @(x,m1,s1,m2,s2,theta) (تتا*normpdf(x,m1,s1) + (1-تتا)*normpdf(x,m2,s2 ))؛ % تنظیم پارامترها برای گزینه های تابع MLE = statset('mlecustom'); options.MaxIter = 20000; options.MaxFunEvals = 20000; % حداکثر پارامترهای احتمال را برای مدل مخلوط ما دریافت کنید (با چند درصد حدس های منطقی در مورد پارامترها شروع کنید) p = mle (داده، 'pdf'، mixGauss، 'شروع'، [0.5 0.1 0.5 0.1 0.5]، ... 'کاهش پایین' , [-Inf 0 -Inf 0 0], 'Upperbound', [Inf Inf Inf Inf 1]، ... 'گزینه ها'، گزینه ها); % اطلاعات طرح و چاپ را نگه دارید. x = linspace(min(داده)، max(data)،100)؛ plot(x، mixGauss(x,p(1)،p(2)،p(3)،p(4)،p(5))*max(n)، 'r', 'LineWidth', 2); fprintf('Gauss 1: %0.2f (+/- %0.2f)\n', p(1), p(2)); fprintf('Gauss 2: %0.2f (+/- %0.2f)\n', p(3), p(4)); fprintf('Mix: %0.2f نسبت اول گوسی\n', p(5)); و این چیزی است که من تاکنون در پایتون انجام داده ام. توجه داشته باشید که من این کد را در iPython با گزینه \--pylab=inline اجرا میکنم، بنابراین pyplot را به فضای کاری اصلی خود وارد میکنم: numpy را بهعنوان مخلوط واردات np وارد کنید # برخی از دادههای گرفتهشده از دو داده گاوسی تولید کنید = np.concatenate( (0.4 + np.random.randn(100) * 0.15، 1 + np.random.randn(200) * 0.25)) data[np.nonzero(data <.05)] = 0.05 نوع چاپ (داده)، len(data) plt = شکل() hist(data, bins=50) show() # ایجاد شی DataSet mixdat = mix.DataSet() mixdat.fromArray(data) # مخلوط با حدس منطقی، شبیه به نقطه شروع تصادفی در K-Means n1 = مخلوط. NormalDistribution(-2, 0.4) n2 = mix.NormalDistribution(2, 0.6) # مدل مخلوط و EM clustering mix = mix.MixtureModel(2, [ 0.5، 0.5]، [n1، n2]) postmat، _ = mix.EM(mixdat, 40, 0.1) fig = Figure() hist(data, bins=50) x = np.linspace(np.min(data), np.max(data), 100) # حالا چی؟ show() از هرگونه نظر، انتقاد یا توضیح دیگری استقبال می شود. ممنون از تحمل نادانی من ;-)
|
چگونه می توانم اجزای یک مدل مخلوط به دست آمده از pymix را رسم کنم؟
|
41088
|
فرض کنید من باید 3 مدل را تخمین بزنم: $y_1 = y_2\beta_1 + y_3\beta_2 + X\beta_3 + u_1$y_2 = y_1\alpha_1 + y_3\alpha_2 + X\alpha_3 + u_2$ $y_3 = y_1\gamma_1 \gamma_2 + X\gamma_3 + u_3$ من درونزایی $y_1، y_2$ و $y_3$ را با رویکردی که یک متغیر اضافی ایجاد میکند که به من امکان میدهد هیچ رگرسیون دیگری را حذف نکنم، حساب میکنم. فرض کنید این رگرسیورهای اضافی $c_1$ برای $y_1$، $c_2$ برای $y_2$ و $c_3$ برای $y_3$ هستند. اکنون مدلها عبارتند از: $y_1 = y_2\beta_1 + y_3\beta_2 + X\beta_3 + c_2\beta_4 + c_3\beta_5 + u_1$y_2 = y_1\alpha_1 + y_3\alpha_2 + X\alpha_3 + c_1\alpha_4 + c_3\alpha_5 + u_2$ $y_3 = y_1\gamma_1 + y_2\gamma_2 + X\gamma_3 + c_1\gamma_4 + c_2\gamma_5 + u_2$ با توجه به اینکه تأثیر $c_i$ در هر معادله قابل توجه است، شناسایی حاصل میشود. دلیل آن این است که در هر معادله یک $c_i$ وجود ندارد (برای مثال $c_1$ در معادله $y_1$). به نظر می رسد که من نمی توانم $c_1$ را در رابطه با $y_1$ از معادله خارج کنم (همانطور برای تمام معادلات دیگر). اگر بخواهم، مدل به طور جدی مغرضانه خواهد بود. سوال من این است: وقتی مدل کامل را تخمین می زنم، یعنی تمام $c_i$ در هر معادله گنجانده می شود و برخی از رگرسیون های موجود در $X$ معنی دار نیستند و این رگرسیورها همه برای هر معادله متفاوت هستند، آیا شناسایی حاصل می شود؟ من می گویم بله. اما این رویکرد تنها از طریق بی اهمیت بودن یک پسرفت کننده به شناسایی دست می یابد. من کاملا مطمئن نیستم که آیا این زاویه مناسب با آن است یا خیر.
|
آیا شناسایی مبتنی بر داده در یک مدل معادله همزمان امکان پذیر است؟
|
59852
|
اگر سوال نسبتاً ساده است، پیشاپیش عذرخواهی می کنم، اما در پی بردن به آن مشکل داشتم. من یک دانشمند تجربی هستم و علاقه مند به مدل سازی بیماری های انسانی با سلول های بنیادی پرتوان القایی هستم. این بیماری نسبتاً شایع است، اما مبنای ژنتیکی مشترکی ندارد. این بیماری عمدتاً توسط انواع ژنتیکی نادر با نفوذ بالا اما در تعداد کمی از افراد ایجاد می شود. برای (مثلاً) 5 بیمار از 1000 مورد مبتلا غربالگری شده، میتوانیم جهشهای یک ژن را به شدت با این بیماری مرتبط کنیم. این جهش ها در یک جمعیت شاهد 5000 نفری به طور کامل وجود ندارند. ما سلولهای بنیادی را از 2 نفر از این افراد ساختهایم تا مشخص کنیم که آیا این جهشها در مقایسه با گروه شاهد منجر به اختلال عملکرد سلولی میشوند (به این فنوتیپ A میگویند). ما برای هر فرد چندین خط سلول بنیادی داریم. در این شرایط، فنوتیپ A یک فنوتیپ میانی است. سوال مفهومی بزرگ برای من این است: آیا من بیماری را مدل می کنم یا فقط اثر جهش های مرتبط با بیماری را بر عملکرد سلولی مدل می کنم؟ چگونه می توانم اندازه نمونه را تعیین کنم تا ادعای قبلی را مثلاً با توان 80٪ آزمایش کنم؟
|
محاسبه توان برای مدلسازی بیماری در سلولهای iPS
|
71146
|
من یک نظرسنجی انجام دادهام که از پاسخدهندگان میخواهد منابع اطلاعاتی مربوط به یک محصول را مشخص کنند. 8 منبع اطلاعاتی (به عنوان مثال، اینترنت، روزنامه، بروشور و غیره) وجود دارد و افراد می توانند بیش از یک منبع را انتخاب کنند. من می خواهم از منبع اطلاعات یک متغیر پیش بینی کننده در یک رگرسیون چندگانه استفاده کنم. با این حال، از آنجایی که افراد می توانند بیش از یک منبع اطلاعاتی را انتخاب کنند، به نظر نمی رسد که بتوان آن را به عنوان یک متغیر طبقه بندی واحد در نظر گرفت. ** چگونه می توان یک متغیر طبقه بندی که در آن پاسخ دهندگان می توانند بیش از یک پاسخ را انتخاب کنند به عنوان پیش بینی کننده در رگرسیون چندگانه استفاده شود؟**
|
چگونه می توان یک متغیر طبقه بندی که در آن پاسخ دهندگان می توانند بیش از یک پاسخ را انتخاب کنند به عنوان پیش بینی کننده در رگرسیون چندگانه استفاده شود؟
|
83778
|
در حال حاضر مشغول بررسی چند کار هستم و به موارد زیر برخوردم که به نظر من اشتباه است. دو مدل مخلوط (در R) با استفاده از lmer نصب می شوند. مدلها غیر تودرتو هستند و با آزمونهای نسبت احتمال مقایسه میشوند. به طور خلاصه، در اینجا یک مثال قابل تکرار از آنچه من دارم آورده شده است: set.seed(105) Resp = rnorm(100) A = factor(rep(1:5، هر = 20)) B = factor(rep(1:2، بار = 50)) C = تکرار (1:4، بار = 25) m1 = lmer(Resp ~ A + (1|C)، REML = TRUE) m2 = lmer(Resp ~ B + (1|C)، REML = TRUE) anova(m1,m2) تا آنجا که من می بینم، «lmer» برای محاسبه log-relihood استفاده می شود و عبارت «anova» تفاوت بین مدلهایی که از مربع کای با درجات آزادی معمول استفاده میکنند. این به نظر من درست نیست. اگر درست است کسی مرجعی می شناسد که این را توجیه کند؟ من از روشهای متکی بر شبیهسازیها (مقاله لوئیس و همکاران، 2011) و رویکرد توسعهیافته توسط Vuong (1989) آگاه هستم، اما فکر نمیکنم که این چیزی باشد که در اینجا تولید میشود. من فکر نمی کنم استفاده از عبارت «anova» درست باشد.
|
تست نسبت درستنمایی - lmer R - مدلهای غیر تودرتو
|
33372
|
آیا می توان آنالیز تفکیک کننده با اثرات تصادفی انجام داد؟ آیا پکیج R برای این کار وجود دارد؟ زمینه: من دادههای استفاده از زیستگاه دو گونه قورباغه را از تلهمتری رادیویی دارم، اما دادههای تودرتو در «گونهها» برای افرادی است که دادههای همبستگی بالایی دارند. به عنوان مثال، من 280 جابجایی برای گونه 1 دارم، با میانگین 20 جابجایی برای هر فرد، و ~ 210 جابجایی برای گونه 2، با میانگین 13 جابجایی به ازای هر حیوان. جابجایی به ازای هر حیوان به شدت همبسته است. در هر جابجایی، دادههای زیستگاه ساختاری را جمعآوری کردم، و میخواهم شناسایی کنم که کدام پارامترها با هر گونه قویتر هستند. ترجیح من این است که این خودهمبستگی در تجزیه و تحلیل لحاظ شود، اما من فکر می کنم گزینه های من با DA عبارتند از: 1. استفاده از مقادیر میانگین برای هر فرد، اما در این صورت فرضیات اندازه نمونه را زیر پا می گذارم زیرا نمونه های کمتری دارم. از متغیرها (بنابراین جایگزین مناسبی نیست). یا 2. جابجایی افراد با نقاط داده زیادی را کاهش دهید. من مقداری جستجو در CranR، اسناد و غیره انجام داده ام، اما موفقیت چندانی نداشته ام. بسته MASS تجزیه و تحلیل متمایز و اثرات تصادفی انجام می دهد، اما RE در DA؟ ممنون می شوم که مسیر درست را به من نشان دهند (یا به من بگویند که برای ناهار کاملاً بیرون هستم!)
|
تجزیه و تحلیل متمایز با اثرات تصادفی
|
41628
|
من در حال انجام چندین انتساب در پایگاه داده مشاهدات بیماران بیمارستانی هستم. یک مشاهده از بسیاری از متغیرهای کمکی در هر بیمار وجود دارد. 2 متغیر نتیجه باینری وجود دارد: 1. زنده/مرده بعد از 30 روز 2. فوت در بیمارستان، یا زنده ماندن/ترخیص دو مدل تجزیه و تحلیل مجزا (رگرسیون لجستیک)، با متغیرهای کمکی یکسان، اجرا می شود، که هر کدام یکی از این نتایج را دارند. پاسخ در مدل های تحلیل 7 متغیر کمکی وجود دارد. در متغیرهای کمکی و پیامدها، داده های گمشده بین 3 تا 11 درصد وجود دارد. علاوه بر این، 7 متغیر کمکی دیگر وجود دارد که باید در مدل انتساب برای پیشبینی فقدان متغیرهای کمکی و پیامدها استفاده شوند. سؤالات من مربوط به انتساب دو متغیر نتیجه است. طبق رویه استاندارد، آنها باید به عنوان پیشبینیکنندههای کمبود در متغیرهای کمکی مورد استفاده قرار گیرند، اما آنها به شدت با یکدیگر هم خط هستند. آیا این یک نگرانی برای مدل انتساب است؟ آیا اعتبار/توصیه میشود که هر دو را در یک مدل نسبت دهیم (برای تولید چندین مجموعه داده کامل که همگی حاوی هر دو نتیجه هستند) یا باید برای هر یک از نتایج انتساب جداگانه انجام شود (برای تولید دو مجموعه مجزا از مجموعه دادههای کامل، که هر مجموعه مجزا دارای یک است. از نتایج)؟ هر گونه پیشنهاد دیگری برای نحوه ادامه کار استقبال می شود.
|
انتساب متغیرهای پاسخ از دست رفته
|
44108
|
می خواستم بدانم آیا می توانید تجربه خود را در گزارش تست های مجذور کای برای داده های نظرسنجی پیچیده در نشریات مجلات به اشتراک بگذارید. معمولاً آزمونهای Chi-square به صورت $\chi^2_1(2,\text{N} = 90)= 0.89، \text{ p} = 0.35$ گزارش میشوند. (به عنوان مثال، اگرچه من حدس میزنم که میتواند تغییراتی داشته باشد). با این حال، مفهوم N با طراحی پیمایش پیچیده بسیار دشوار می شود، و من مطمئن نیستم که آیا باید اندازه نمونه وزنی احتمالی را گزارش کنم یا فقط اندازه نمونه را. من همچنین به این موضوع علاقه دارم که اگر نمونه، N های متفاوتی را گزارش کنند یا خیر. صرفاً تابع وزندهی احتمال (مثلاً اگر متأسفانه اطلاعات اقشار یا خوشهای وجود نداشت) یا وزندهی احتمال با خوشهبندی و طبقهبندی. و اگر حجم نمونه در قالب بالا گزارش شده باشد، آیا باید به جای N به عنوان n گزارش شود؟ فقط برای مثال: بسته R Lumley موارد زیر را برمی گرداند: data(api) dclus1<-svydesign(id=~dnum, weights=~pw, data=apiclus1, fpc=~fpc) svychisq(~sch.wide+type, dclus1, statistic=Chisq) Pearson's X^2: Rao & Scott data adjustment: svychisq(~sch.wide + نوع، dclus1، آمار = Chisq) X-squared = 11.94، df = 2، p-value = 0.005553 آیا به عنوان N sum (xtabs(~sch.wide+type, data= apiclus1)) #یا sum(svytable(~sch.wide+type, dclus1)) برای جزئیات در مورد محاسبات و اصلاحات رائو اسکات در آزمون پیرسون chisquared به این صفحه مراجعه کنید. خیلی به نظر شما علاقه مندم با تشکر فراوان
|
گزارش تست های مجذور کای برای داده های وزنی
|
71144
|
من یک مجموعه داده سری زمانی از زمان رسیدن فوتون از یک آشکارساز دارم و باید بدانم آیا زمان رسیدن یکنواخت است یا خیر. توزیع پیوسته است؟ من حداکثر $D$ را بین CDF نرمال شده زمان رسیدن فوتون محاسبه کرده ام. بعد باید چیکار کنم؟ یک $Pr(k\le x)$ در پیوند ویکی وجود دارد. در سوال من چه معنایی دارد؟ آیا کسی می تواند تعریف اولیه ks-test را به من بگوید؟ در واقع، من می توانم احتمال ks-test را از طریق scipy.stats.kstest محاسبه کنم. آیا کسی معنی ارگ را برای توزیع یکنواخت می داند؟ و دو مقدار خروجی؟ >>> stats.kstest(sample, 'uniform',args=(1,2,3,4,5,6)) (1.0, 0.0) >>> stats.kstest(sample, 'uniform',args=( 0.1،0.2،0.3،0.4،0.5،0.6)) (1.0، 0.0) >>> stats.kstest(نمونه، 'uniform',args=(0.1,0.2)) (1.0، 0.0) >>> stats.kstest(sample, 'uniform',args=(1,2)) (0.98999999999999999، 0.0) >>> stats.kstest( نمونه، 'یکنواخت',args=(1.1،2.1)) (0.98499999999999999، 0.0) **درباره یکنواخت** فکر می کنم باید دو cdf را با هم مقایسه کنم: داده های واقعی نرمال شده و cdf توزیع یکنواختی که فوتون ها به طور یکنواخت می رسند. لطفا به طرح من نگاهی بیندازید. نقاط سبز از داده های واقعی هستند. صدها نقطه سبز وجود دارد. هر نقطه سبز به معنای ورود یک فوتون جدید است. محور x زمان است و محور y نرمال شده است، در واقع، آن درصد (فوتون های ورود تجمعی / تعداد فوتون کل) است. خط مستقیم قرمز مخفف cdf توزیع یکنواخت است. stats.uniform هر بار مقادیر تصادفی را انتخاب می کند. آیا stats.uniform مناسب است؟  **درباره ks-test** من یک تصویر از نسخه 2 Numerical Recipes در C گرفتم. چه رابطه ای بین 14.3.9 و Pr(k<=x) ویکی پدیا؟ فقط یک تقریب است، درست است؟ اهمیت باید تنها با دو مقدار max(D) و اندازه نمونه تعیین شود، درست است؟ Pr(k<=x) cdf از D است؟ چگونه x را تعریف کنیم؟ من نمی توانم یک نتیجه سازگار با stats.kstest (). منظورتان این است که اگر از داده های زمان واقعی استفاده کنم که نرمال سازی نشده اند، باید از دو نمونه ks-test استفاده کنم، درست است؟ 
|
تعریف آزمون تک نمونه ای کولموگروف – اسمیرنوف چیست؟
|
41622
|
من می دانم که فاصله پیش بینی، همانطور که در اکثر کتاب های درسی در مورد مدل های خطی تعریف شده است، بر عدم قطعیت در مناسب بودن مدل متمرکز است و برای تخمین محدوده پیش بینی خروجی برای ورودی های دقیق استفاده می شود. با این حال، همانطور که معمولاً اتفاق میافتد، در مورد موقعیتهایی که ورودی دقیق نیست، چطور؟ چگونه یک «فاصله پیشبینی» را محاسبه میکنید که هم عدم قطعیت در مدل و هم عدم قطعیت در دادههای ورودی را محاسبه میکند؟ به عنوان مثال، فرض کنید مدل این است: `y = a0 + (a1 * x1) + (a2 * x2)` که در آن `y`، `x1` و `x2` بردارهای سری زمانی هستند. من فقط یک مشاهده از سری زمانی «y» با سری زمانی «x1» و «x2» مرتبط آن دارم. از این داده ها برای برازش مدل استفاده می شود. با این حال، من همچنین 1000 مشاهده اضافی برای «x1» و «x2» دارم. من به راحتی میتوانم «فاصلههای پیشبینی» را با استفاده از مدل و هر جفت «x1» «x2» محاسبه کنم، اما میخواهم یک «فاصله پیشبینی» را تخمین بزنم که همه مشاهدات «x1» و «x2» را امکانپذیر میکند. برای دقیق تر، مثال زیر را ایجاد کردم. کد مشکوک زیر خط نظر «#======» است. اساسا، من از «lm(..)» برای جا دادن بردار «y» با بردارهای «x1» و «x2» استفاده کردم. سپس، من از «predict.lm(...interval=prediction, level=alpha) استفاده کردم تا بردارهای fit، lwr و upr معمولی آن را برای هر جفت x1 اضافی x2 ایجاد کنم. (نمودار 1 را ببینید، مطابق خط ثابت است، upr و lwr خطوط چین برای دو مشاهده هستند). سپس این بردارها را برای همه جفتهای «x1» «x2» جمعآوری کردم و از «آلفا» برای استخراج دنبالههای بالا و پایین همه بردارهای «lwr» و «upr» استفاده کردم (نمودار 2 را ببینید). آیا این طرح معتبر است؟ آیا «آلفا» که در «predict.lm(... level=alpha)» استفاده شد، مستقیماً برای شمارش/مرتبسازی نتایج برای ایجاد «فاصله پیشبینی» اعمال میشود که به همه جفتهای «x1» «x2» اجازه میدهد. ? آیا میتوان محدوده 5 درصدی را از یک مدل رقیب (مثلاً مدل ARIMA) با این «فاصله پیشبینی» 5 درصد مقایسه کرد؟ من نسبتاً مطمئن هستم که طرح زیر درست نیست، اما تا کنون، متوجه نشده ام که باید چه چیزی را اصلاح کنم. set.seed(1) numpoi <- 10 #تعداد نقاط داده در یک بردار سری زمانی #اولین متغیر مستقل x1، اولین مشاهده x1mea <- 0.03 x1sta <- 0.05 x1 <- cumsum(rnorm(numpoi, mean=x1mea , sd=x1sta)) #متغیر مستقل دوم x2، مشاهده اول x2mea <- -0.01 x2sta <- 0.1 x2 <- cumsum(rnorm(numpoi، mean=x2mea، sd=x2sta)) #متغیر وابسته y، مشاهده اول a0 <- 3 a1 <- 2 a2 <- 1 noimea <- 0.0 noista <- 0.1 y <- a0 + (a1 * x1) + (a2 * x2) + rnorm(numpoi, mean=noimea, sd=noista) #فریم داده ای از داده های نظاره اول را بسازید datfra <- data.frame(y=y, x1=x1, x2=x2) #براساس مدل برای حالت نخستین مشاهده <- lm(y ~ x1 + x2, data=datfra) خلاصه (mod) #تنظیم مقدار آلفای دلخواه alpha <- 0.95 onetai <- (1 - alpha)/2 #تبدیل دو دنباله alpha به یک مقدار یک دنباله برای استفاده در آینده #تولید برخی داده های جدید a برای مشاهده دوم x1 و x2 . x1a <- cumsum(rnorm(numpoi, mean=x1mea, sd=x1sta)) x2a <- cumsum(rnorm(numpoi, mean=x2mea, sd=x2sta)) datfraa <- data.frame(y=rep(NA, numpoi )، x1=x1a، x2=x2a) modprea <- پیش بینی (mod, newdata=datfraa, interval=prediction, level=alpha) #برای مشاهده سوم از x1 و x2 مقداری داده جدید b تولید کنید. x1b <- cumsum(rnorm(numpoi, mean=x1mea, sd=x1sta)) x2b <- cumsum(rnorm(numpoi, mean=x2mea, sd=x2sta)) datfrab <- data.frame(y=rep(NA, numpoi )، x1=x1b، x2=x2b) modpreb <- پیش بینی (mod، newdata=datfrab, interval=prediction, level=alpha) #نتایج را برای نمودارهای جدید a و b ترسیم کنید(modprea[, 1], type=l, ylim=c(min(modprea , modpreb), max(modprea, modpreb)), main=نمودار 1 - مشاهدات دوم و سوم برای x1 و x2، lwd=2، col=red) خطوط (modprea[, 2], lwd=2, lty=2, col=red) خطوط (modprea[, 3], lwd=2, lty=2, col=red) خطوط (modpreb[, 1], lwd=2, col=green) خطوط (modpreb[, 2], lwd=2, lty=2، col=green) خطوط (modpreb[, 3]، lwd=2، lty=2، col=green) #================================================= ========================== # کد زیر همان جایی است که سوال من نهفته است. آیا این روش مناسب #برای حساب کردن همه مشاهدات است؟ #طرح محاسبه فوق را روی همه مشاهدات اجرا کنید. numtri <- 1000 #همه مشاهدات modprecfit <- matrix(0, nrow=numpoi, ncol = numtri) #ماتریس برای نگه داشتن همه بردارهای fit modpreclwr <- matrix(0, nrow=numpoi, ncol = numtri) #ماتریس برای نگهداری همه بردارهای lwr modprecupr <- ماتریس(0, nrow=numpoi، ncol = numtri) #ماتریس برای نگه داشتن همه بردارهای upr #ماتریسهای modprecfit، modpreclwr و modprecupr را پر کنید. for (i در 1:numtri) { #داده های جدید را تولید کنید و آن را در یک دیتافریم x1c قرار دهید <- cumsum(rnorm(numpoi, mean=x1mea, sd=x1sta)) x2c <- cumsum(rnorm(numpoi, mean=x2mea ، sd=x2sta)) datfrac <- data.frame(y=rep(NA، numpoi)، x1=x1c، x2
|
چگونه یک فاصله پیش بینی برای بسیاری از مشاهدات ورودی ایجاد می شود؟
|
41625
|
من در حال حاضر روی تخمین زیست توده با استفاده از تصاویر ماهواره ای کار می کنم. من به سرعت پیشینه سوالم را تعریف می کنم و سپس سوال آماری را که روی آن کار می کنم توضیح می دهم. **زمینه** _مشکل_ من سعی می کنم زیست توده را در منطقه ای در فرانسه تخمین بزنم. پاسخ من چگالی حجمی چوب بخار (در متر ^ 3/ هکتار) است که کم و بیش متناسب با زیست توده است (بسته به تراکم چوب...). متغیرهای مستقلی که من دارم، شاخصهای پوشش گیاهی هستند که از بازتابهای اندازهگیری شده در این منطقه به دست میآیند (ماهواره مورد استفاده در این مطالعه برای کسانی که آن را میشناسند MODIS است). این شاخص ها به عنوان مثال NDVI، EVI و غیره هستند. من نقشه های شاخص ها را دارم و وضوح نقشه ها 250 متر است. همبستگی قوی بین این شاخص ها و حجم در یک نوع جنگل (زیست و آب و هوا) وجود دارد. بنابراین من سعی میکنم چگالی حجم را در برابر این شاخصها (در واقع سری زمانی آنها) در نمودارهای موجودی که حجم را میدانم، پس بزنم. _ موجودی های جنگلی _ حجم در این کرت ها با روش نمونه گیری زیر برآورد می شود: 1. گره های موجودی بر روی یک شبکه منظم که منطقه را پوشش می دهد قرار می گیرند. 2. یک نمودار به هر گره متصل می شود و فرآیند موجودی (انواع درختان، حجم ها، ارتفاع تاج پوشش و ...) در این نمودار انجام می شود. البته من فقط به نمودار موجودی علاقه دارم و مقادیر شاخص های گیاهی من مقدار پیکسل حاوی نمودار است. 3. فرآیند موجودی در یک نمودار به شرح زیر است:  * اندازه گیری درختانی که دارای قطر > 37.5 سانتی متر در دایره شعاع 15 متری هستند * اندازه گیری درختانی که قطر آنها > 22.5 سانتی متر در دایره شعاع 9 متر است * اندازه گیری درختانی که قطر آنها بیش از 7.5 سانتی متر در دایره شعاع 6 متر است، سپس چگالی حجمی با استفاده از ضرایب انبساط محاسبه می شود. برای هر قطعه من به داده های تمام درختان اندازه گیری شده دسترسی دارم. علاوه بر این، برای هر درخت منفرد، به دلیل استفاده از معادلات آلومتریک (مثلاً 10٪) عدم قطعیت در حجم دارم. **جایی که آمار مهم است...** برای اینکه رگرسیون های من دقیق تر باشد، برای هر تخمین حجم به واریانس/CI این معیار نیاز دارم. IMO به تعداد درختان نمونه برداری شده و تراکم حجم یافت شده بستگی دارد. بنابراین من دو مشکل دارم: 1. چگونه می توان این واقعیت را در نظر گرفت که شاخص های پوشش گیاهی من بیش از یک پیکسل 250 متر اندازه گیری می شود؟ > می توانم فرض کنم که چگالی حجم روی یک پیکسل ثابت است، و من > از این پیکسل با یک نمودار موجودی نمونه برداری می کنم. 2. چگونه می توان تغییرپذیری تراکم حجم خود را تخمین زد؟ > فکر می کنم بتوانم از بوت استرپینگ روی جمعیت درختی استفاده کنم. اما تعداد کل > درختان اندازه گیری شده من می تواند بسیار کم باشد (از 7 تا 20 ...). علاوه بر این، > چگونه می توانم این واقعیت را در نظر بگیرم که من درختان را در > دایره های مختلف بسته به اندازه آنها اندازه گیری می کنم؟ و اگر من کل یک پیکسل را نگاه می کنم، تغییرپذیری > چگونه باید تغییر کند؟ > من همچنین به این فکر می کردم که می توانم از شبیه سازی مونت کارلو برای شبیه سازی یک جنگل > استفاده کنم و سپس به صورت تصادفی از این جنگل با نمودارها نمونه برداری کنم تا ببینم چه اتفاقی می افتد > ... من پیشینه آماری قوی ندارم، بنابراین من یک کمی گم شده!
|
آیا می توانم از تقویت کننده استفاده کنم، چرا یا چرا که نه؟
|
28620
|
من اخیراً مقاله جالبی را خواندم که روشهای خوشهبندی دادهها را بدون فرض تعداد ثابتی از خوشهها توصیف میکرد. این مقاله حتی شامل برخی کدهای نمونه، در ترکیبی از روبی، پایتون و R است. با این حال، تجزیه و تحلیل با استفاده از مدل مخلوط فرایند دیریکلت گاوسی scikit-learn انجام میشود تا در واقع خوشهها را در برخی از دادههای نمونه گرفتهشده از منوی مکدونالد پیدا کند. بدیهی است که این یک بهانه عالی برای یادگیری بیشتر پایتون است، اما من تنبل هستم و میخواهم یک بسته R آماده پیدا کنم که بتواند یک دیتافریم بگیرد و خوشهها را برگرداند، به روشی شبیه به تابع kmeans. یک جستجوی سریع در CRAN بسته های dpmixsim و profdpm را نشان می دهد. پیشنهادی برای بهترین مکان برای شروع دارید؟
|
فرآیند دیریکله/فرایند رستوران چینی برای خوشه بندی در R
|
87648
|
من سعی می کنم آزمایشی را همانطور که در مقاله ای در R توضیح داده شده است پیاده سازی کنم. هدف محاسبه غنی سازی برای نوع خاصی از جهش است که در یک پایگاه داده شده در یک زمینه توالی مشخص رخ می دهد. من نقل قول می کنم > ارزیابی آماری نشان دادن بیش از حد امضای APOBEC > جهش ها در هر نمونه با استفاده از آزمون دقیق فیشر یک طرفه انجام شد > با مقایسه نسبت تعداد سیتوزین به تیمین یا سیتوزین به جایگزینی گوانین و گوانین به آدنین یا گوانین به سیتوزین > جانشینی هایی که در و خارج از موتیف هدف APOBEC (TCW یا > WGA) به نسبتی مشابه برای همه سیتوزینها و گوانینها که در داخل و خارج از موتیف TCW یا WGA در بخش نمونهای از ژنوم قرار دارند. مرجع - http://www.nature.com/ng/journal/v45/n9/full/ng.2702.html این بدان معنی است که آنها غنی سازی را با مقایسه جهش های CtoT یا CtoG در زمینه پایه TCW با جهش های خارج از آن زمینه محاسبه می کنند. تعداد سیتوزین های موجود در داخل و خارج از بافت TCW در ژنوم. بنابراین ما مقادیر زیر را داریم. TCW.mutations = تعداد جهش های C به T یا G در زمینه TCW non.TCW.CtoTG.mutations = تعداد جهش های C به T یا G خارج از زمینه TCW TCW.cytosines = تعداد سیتوزین ها در زمینه پایه TCW در اگزوم انسان nonTCW.cytosines = تعداد سیتوزین ها خارج از بافت پایه TCW. من باید یک آزمایش دقیق فیشر یک طرفه انجام دهم و موارد زیر را با استفاده از تابع fisher.test در R TCW.mutations/non.TCW.CtoTG.mutations به TCW.cytosines/nonTCW.cytosines مقایسه کنم، ماتریس ورودی من چگونه به نظر می رسد؟
|
ساخت یک ماتریس ورودی در R برای تست دقیق فیشر. ترتیب متغیرها
|
41626
|
اگر اشتباه نکنم، توابع احتمال به اندازه نمونه حساس هستند، یعنی هر چه نمونه بزرگتر باشد، مقدار احتمال کمتر است. با توجه به یک نمونه $x$ از یک متغیر تصادفی $X \sim f(\theta)$، و یک تخمین پارامتر $\hat\theta$، فرض کنید میخواهم این فرضیه را آزمایش کنم که احتمالات زیرنمونههای مختلف $x$، اجازه دهید آنها را $x_a$ بنامیم و $x_b$ برابر هستند. مشکل این است که $x_a$ و $x_b$ دارای تعداد متفاوتی از عناصر هستند، مثلاً $n_a$ و $n_b$ به ترتیب، و $n_a \neq n_b$، بنابراین من فرض میکنم احتمالات باید به نحوی عادی شوند. آیا تقسیم بر حجم نمونه کافی است؟ به عنوان مثال، آیا می توانم از یک آمار آزمایشی مانند $T = \frac{\ell(\hat\theta|x_a)}{n_a} - \frac{\ell(\hat\theta|x_b)}{n_b}$ استفاده کنم و سپس این فرضیه را آزمایش کنید که $T = 0 $. یک سوال مرتبط این است که چگونه توزیع احتمال آمار بالا را پیدا کنم، اما این داستان دیگری است.
|
عادی سازی احتمال
|
33379
|
من در حال توسعه یک آزمایش فیزیولوژیکی با استفاده از R هستم که به برخی پارامترها بهینه شده نیاز دارد. در مقایسه روش جدید با روش موجود، مقادیر خوانشهای فردی به صورت خطی همبستگی دارند اما بسیار ناهمسان هستند - واریانس تقریباً متناسب با میانگین. من می خواهم با بررسی برازش خوب مدل های خطی در مقایسه با یکدیگر، اثرات تغییرات پارامترهای مختلف را با هم مقایسه کنم. فواصل اطمینان در اطراف پارامترهای مدل خطی مورد نیاز نیست. مقایسه مربعات R با توجه به ناهمگونی مناسب به نظر نمی رسد. آیا همبستگی فاصله یا مجذور R پس از تصحیح HCCM روشهای مناسبی برای آزمایش برتری یک روش بر روش دیگر است؟
|
مقایسه برازش مدل با داده های ناهمسان
|
87649
|
من 6000 نقطه دارم که همه فواصل زوجی را در یک ماتریس فاصله دارم. من میخواهم ایدهای داشته باشم که آیا این دادهها توسط مخلوطی از توزیعهای گاوسی ایجاد شدهاند، بنابراین سعی میکنم تصویرسازی را به دست بیاورم. من سعی می کنم با استفاده از sklearn در پایتون مقیاس گذاری چند بعدی را در 2 بعد اعمال کنم. من چهار سوال دارم: 1. در تمام نمونه هایی که پیدا کردم، تعداد امتیازات بسیار محدود بود (حدود 20). آیا با 6000 امتیاز می توان MDS را اعمال کرد؟ 2. اگر نه، آیا راهی وجود دارد که بتوانم ایده بهتری داشته باشم که آیا داده های من توسط مخلوطی از گاوس ها تولید شده اند؟ (من می خواهم این داده ها را با استفاده از GMM خوشه بندی کنم.) 3. sklearn از تابع manifold.MDS استفاده می کند. یکی از پارامترهای این تابع 'حالت تصادفی' است. چه چیزی را نشان می دهد؟ 4. در این مثال، ماتریس استفاده شده (X_true) دارای ابعاد 20x2 است. آیا MDS نباید یک ماتریس فاصله (یعنی ماتریس مربع) بگیرد؟
|
مقیاس بندی چند بعدی با استفاده از پایتون
|
71142
|
من در حال توسعه روشی برای انجام کاری با آزمایش جایگشت هستم. من دو طرح جایگشت / تصادفی سازی دارم و نمی دانم کدام یک بهتر از دیگری است. آیا می توانم فاصله اطمینان برای هر طرح جایگشت را پیدا کنم؟ اگر چنین است، آیا منطقه ای با منطقه اطمینان باریک تر بهتر است؟
|
فاصله(های) اطمینان برای طراحی تصادفی
|
87645
|
من توانستم جدول 3.1 را از ESL بازتولید کنم. با این حال، زمانی که سعی کردم جدول 3.2 را بازتولید کنم، ضرایب تخمینی من بسیار دور بود (در زیر نشان داده شده است): [,1] [1,] 0.4292 [2،] 0.5765 [3،] 0.6140 [4،] -0.0190 [5،] 0.1448 [6،] 0.7372 [7،] -0.2063 [8،] -0.0295 [9,] 0.0095 نتایج جدول 3.2 در ESL به شرح زیر است:  من کد خود را در اینجا پیوست کرده ام: res <- read.table(prostate.data, sep = ) fix(res) XTraining = زیر مجموعه (res, train) XTesting = زیر مجموعه (res, train == FALSE) nrow = dim( XTraining )[1] p = dim( XTraining )[2] - 1 # آخرین ستون پاسخ D = XTraining[,1:p-1] # دریافت دادههای پیشبینیکننده # این دادههای خام جدول 3.1 را از کتاب نشان میدهد: # print(cor(D),digts=3) library(xtable) xtable( cor(D), caption=تکثیر مقادیر جدول 3.1 از کتاب, اعداد=3 ) # # Duplicate Table 3.2 from the book # # یک ستون از یک ها اضافه کنید: # Dp = cbind( ماتریس(1) ,nrow,1), as.matrix(D ) ) lpsa = XTraining[,p] library(MASS) betaHat = ginv(t(Dp) %*% Dp ) %*% t(Dp) %*% as.matrix(lpsa) # این اساساً اولین ستون در جدول 3.2 است: # print('stute first: beta'soveres') print (betaHat,digits=2) آیا کسی مشکلات مشابهی دارد؟ می خواهم بدانم چه مشکلی در خروجی من رخ داده است.
|
بازتولید جدول 3.2 از عناصر یادگیری آماری
|
83771
|
من به سوالات متعددی در این سایت در مورد بوت استرپینگ و فواصل اطمینان نگاه کرده ام، اما هنوز گیج هستم. بخشی از دلیل سردرگمی من احتمالاً این است که در دانش آماری خود به اندازه کافی پیشرفته نیستم که بتوانم بسیاری از پاسخ ها را بفهمم. من تقریباً در نیمه راه یک دوره آمار مقدماتی هستم و سطح ریاضی من فقط در اواسط جبر II است، بنابراین هر چیزی که از آن سطح گذشته باشد فقط من را گیج می کند. اگر یکی از افراد آگاه در این سایت بتواند این موضوع را در سطح من توضیح دهد، بسیار مفید خواهد بود. ما در کلاس یاد میگرفتیم که چگونه با استفاده از روش بوت استرپ نمونهبرداری مجدد کنیم و از آنها برای ایجاد فاصله اطمینان برای آماری که میخواهیم اندازهگیری کنیم، استفاده کنیم. به عنوان مثال، فرض کنید که از یک جمعیت بزرگ نمونه برداری می کنیم و متوجه می شویم که 40٪ می گویند که به نامزد A رای می دهند. ما فرض می کنیم که این نمونه انعکاس بسیار دقیقی از جمعیت اصلی است، در این صورت می توانیم نمونه های مجدد را از جامعه بگیریم. برای کشف چیزی در مورد جمعیت. بنابراین نمونههای مجدد را میگیریم و (با استفاده از سطح اطمینان 95٪) دریافتیم که فاصله اطمینان حاصل از 35٪ تا 45٪ متغیر است. سوال من این است که این فاصله اطمینان در واقع به چه معناست؟ من مدام می خوانم که بین فواصل اطمینان (تکرارگرا) و فواصل معتبر (بیزی) تفاوت وجود دارد. اگر درست متوجه شده باشم، یک بازه معتبر می گوید که به احتمال 95٪ در موقعیت _ما_ پارامتر واقعی در بازه داده شده (35٪ -45٪) وجود دارد، در حالی که یک فاصله اطمینان می گوید که 95٪ در _این وجود دارد. نوع موقعیت_ (اما نه لزوماً در موقعیت ما به طور خاص) روشی که ما استفاده می کنیم به طور دقیق گزارش می دهد که پارامتر واقعی در بازه داده شده است. با فرض درستی این تعریف، سوال من این است: پارامتر واقعی که در استفاده از فواصل اطمینان ایجاد شده با استفاده از روش بوت استرپ در مورد آن صحبت می کنیم چیست؟ آیا ما به (الف) پارامتر واقعی جمعیت اصلی_، یا (ب) پارامتر واقعی _نمونه_ اشاره می کنیم؟ اگر (الف)، میگوییم که در 95 درصد مواقع، روش بوت استرپ بهطور دقیق عبارات درستی را درباره جمعیت اصلی گزارش میکند. اما چگونه می توانیم این را بدانیم؟ آیا کل روش بوت استرپ بر این _فرض_ استوار نیست که نمونه اصلی بازتاب دقیق جامعه ای است که از آن گرفته شده است؟ اگر (ب) پس من اصلاً معنی فاصله اطمینان را نمی فهمم. آیا ما از قبل پارامتر واقعی نمونه را نمی دانیم؟ این یک اندازه گیری ساده است! من این موضوع را با معلمم در میان گذاشتم و او بسیار مفید بود. اما من هنوز گیج هستم.
|
معنای فاصله اطمینان گرفته شده از نمونه های مجدد بوت استرپ چیست؟
|
47662
|
من بردارهای دقت دو طبقه بندی را دارم. چگونه می توانم یک تست t برای آنها در متلب بسازم و آیا نوع طرح خوبی برای نشان دادن آن وجود دارد؟
|
چگونه آزمون t را در متلب اعمال کنیم؟
|
41620
|
من سعی می کنم تفاوت بین دو الگوریتم را ارزیابی کنم. آنها تصادفی هستند، بنابراین من آنها را چندین بار روی یک فایل ورودی اجرا کرده ام و نتایج آنها را یادداشت کرده ام. من میخواهم تعیین کنم که آیا الگوریتم من نسبت به رویکرد قبلی پیشرفت قابلتوجهی از نظر آماری ارائه میدهد یا خیر. از درک من (بالقوه ناقص) این نوع موقعیت جایی است که باید (یا بهتر بگوییم میتوانم) از آزمون رتبه علامت ویلکاکسون استفاده کنم. دادهها به طور طبیعی جفت میشوند، بنابراین من میتوانم خروجیهای هر دو الگوریتم را با مشکل ورودی خاصی که آنها استفاده میکنند به هم بپیوندم. از آنجایی که میخواهم آزمایش کنم که الگوریتم من نه تنها متفاوت است، بلکه در واقع بهتر است (در این مورد مقادیر کمتری را برمیگرداند) از الگوریتم دیگر، به نظر میرسد یک فرضیه یک طرفه باشد. من از تابع R `wilcox.test` برای انجام آزمایش استفاده می کنم و در مورد نحوه تفسیر نتایج کمی سردرگم هستم. من صفحه راهنمای wilcox.test را خوانده ام و به نظر نمی رسد اطلاعات زیادی در مورد نتایج ارائه دهد، تمرکز بیشتری روی آرگومان های تابع است. من یک نمونه کار حداقلی با زیرمجموعه کوچکی از دادههایم ساختهام: x <- ساختار(فهرست(مثلا = ساختار(c(1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L) .Label = c(competition01, competition02, competition03, competition04, competition05, «competition06»، «competition07»، «competition08»، «competition09»، «competition10»، «competition11»، «competition12»، «competition13»، «competition14»، «competition15»، «competition16»، «competition17»، «competition18» ، competition19، competition20)، class = factor)، nhoods = ساختار(c(1L، 1L، 1L، 1L، 1L، 1L، 1L، 1L، 1L، 1L)، .Label = c(nhoods1، nhoods2، nhoods3، nhoods4، nhoods5) , class = factor)، run.no = ساختار (c(1L, 1L, 2L, 2L, 3L, 3L، 4L، 4L، 5L، 5L)، .Label = c(1، 2، 3، 4، 5)، class = factor)، پارتیشن = ساختار(c( 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 2 لیتر)، .Label = c(سخت-نرم، کامل)، کلاس = ضریب)، VNS = c(984L، 1445L، 1033L، 1445L، 1035L، 1318L، 1058L، 1445L، 913L، 1445L)، «VNS-Skip» = c(1083L، 39،1، 1083L، 39L، 14 1077L، 1363L، 1102L، 1442L، 1093L، 1252L))، .Names = c(instance، nhoods، run.no، partition، VNS، VNS-Skip)، ردیف. names = c(NA, 10L)، class = data.frame) wilcox.test(x[,5], x[,6], paired = TRUE, conf.int = TRUE, alternative = بیشتر) نتایج الگوریتم من در ستون 6 و نتایج اصلی در ستون 5 قرار دارند. از آنجایی که میخواهم ارزیابی کنم که آیا الگوریتم من بهتر است یا خیر، از گزینه جایگزین = بزرگتر استفاده کردهام که به این معنی است که آزمون 1st arg > 2nd arg را بررسی میکند. این نتیجه به خروجی میدهد: دادههای آزمون رتبهبندی امضا شده توسط Wilcoxon: x[، 5] و x[، 6] V = 22، p-value = 0.7217 فرضیه جایگزین: تغییر مکان واقعی بیشتر از 0 95 درصد فاصله اطمینان: -72 Inf برآوردهای نمونه: (شبه)میانگین -21 در این مورد مقدار p کمتر از 0.05 نیست، بنابراین شواهد کافی برای اثبات وجود ندارد. فرضیه صفر را کنار بگذارید داشتن بی نهایت به عنوان حد بالایی فاصله اطمینان به چه معناست؟ آیا این به این دلیل است که من از نسخه یک دم آزمون استفاده می کنم؟ تمام تستهایی که روی دادههایم انجام دادهام، همیشه فاصله اطمینان بالایی به عنوان Inf دارند. اگر مقدار p کمتر از 0.05 بود، آیا این بدان معناست که من میتوانم بگویم با اطمینان 95٪، میانگین x[,5] در 72- از x[,6] خواهد بود؟ مقدار V با توجه به داده های من به چه معناست؟ از آنچه من می توانم ببینم تفاوت بین «میانگین (x[,5])» و «میانگین (x[,6]» است، اما چگونه می توان آن را در نثر توصیف کرد؟ آیا کسی واقعاً از مقدار V استفاده می کند بحث اوست. تجزیه و تحلیل داده ها؟
|
خروجی آزمون رتبه علامت ویلکاکسون یک دم در R
|
94436
|
> فرض کنید $X$ یک متغیر تصادفی از یک توزیع با pdf باشد $$ f(x) = \theta > x^{\theta-1}, \quad 0< x < 1. $$ > > a) توزیع را نام ببرید از $U=-\ln(X)$ ابتدا با پیدا کردن چگالی آن > > b) اجازه دهید $X_1, X_2, \ldots,X_n$ مستقل و به طور یکسان توزیع شوند > تصادفی متغیرهای با pdf که قبلاً با $\theta$= 3 داده شده است. با استفاده از نتیجه > از a) و با قضیه حد مرکزی (CLT) > > i) تقریبی به $P(X_1 \cdot X_2 \cdot \ldots\) پیدا کنید. cdot X_{30} \leq > 1.85 \cdot 10^{-5})$ یعنی برای احتمال حاصلضرب r.v's. **تلاش من** قسمت a) را با انجام تبدیل پیدا کردم و یک نمایی با پارامتر $\theta$ دریافت کردم که pdf من این است: $$ f(x)=\theta e^{-u\theta}. $$ اکنون جایی که من در حال مبارزه هستم قسمت I) است که در آن قرار است با استفاده از CLT و به همراه میانگین معادل $1/3$ و واریانس برابر با $1/9$، تقریبی پیدا کنم. من می توانم نشان دهم که با مشاهده 30، ما فقط حاصلضرب هر میانگین و واریانس را از هر مشاهده جداگانه می گیریم: میانگین = $(\frac{1}{3})^{30}$ واریانس = $(\frac {1}{9})^{30}$ و سپس میتوانیم آنها را با استفاده از قضیه حد مرکزی $$ P(X_1 \cdot X_2 \cdot \ldots) در نمره z جایگزین کنیم \cdot X_{30} \leq 1.85 \cdot 10^{-5}) = P\left(\frac{X -\mu }{\sigma}\leq \frac {1.85 \cdot 10^{-5} - (\frac{1}{3})^{30}}{(\frac{1}{9})^{15}} \right) $$ بنابراین به من پاسخ داد $ P(Z \leq 3,808,985,943)$ که قطعاً نمی تواند صحیح باشد. ممنون میشم اگه کسی بتونه به اشتباه من اشاره کنه **تلاش مجدد:** با استفاده از راهنمایی که دریافت کردم، توانستم $P(X_1 \cdot X_2 \cdot \ldots \cdot X_{30} \leq 1.85 \cdot 10^{-5}) $P( log X_1 \cdot log X_2 \cdot \ldots \cdot log X_{30} \leq log 1.85 \cdot 10^{-5})$ P($\sum_{k=1}^{30} log X_i \leq log 1.85 \cdot 10^{-5})$ و از آنجایی که متغیر تصادفی X میتواند به طور معمول توزیع شود X~ N( $\frac{1}{3}$ , $\frac{1}{9}$) جایگزینی با امتیاز Z $ P(\frac{ log X -\mu }{\frac{\sigma}{\sqrt(n)}})\leq \frac { \frac{log1.85 \cdot 10^{-5}}{30} - (\frac{1}{3})}{(\frac{\frac{1}{3}}{\sqrt(n)})} $P(Z \leq 11.45)$ مسیر درست؟ آیا استفاده از $\mu$ = $\frac{1}{3}$ و $\sigma$ = $\frac{1}{3}$ در امتیاز z صحیح است؟
|
استفاده از قضیه حد مرکزی برای تقریب
|
48905
|
فرض کنید من یک ماتریس متقارن تصادفی W به اندازه $n\times n$ دارم، با i.i.d. ضرایب به طور یکنواخت در [0,1] توزیع شدند و من $W_{ii} = 0$ را تنظیم کردم. سپس یک مقیاس چند بعدی با بعد $k$ اعمال می کنم، که آن را به عنوان کمینه کردن کمیت تعریف می کنم: $H=n^{-2}\sum_{i,j} (W_{ij} - ||x_i-x_j||^ 2)^2$ با توجه به $n$ امتیاز $x_i \در R^k$. بگویید من نشان دهنده $H^*$ حداقل است. سوال این است: رفتار $\mathbb{E}[H^*]$ به عنوان تابعی از $k$ و $n$ چیست؟ آیا مقاله ریاضی وجود دارد که به این سوال بپردازد؟ یا این یک سوال باز است؟ با تشکر
|
مقیاس بندی چند بعدی ماتریس تصادفی
|
44103
|
من از بسته «R» و «e1071» برای تنظیم یک SVM طبقهبندی C استفاده میکنم. سوال من این است: صرف نظر از نوع هسته (خطی، چند جمله ای، پایه شعاعی یا سیگموئیدی)، آیا معیار خوبی برای انتخاب محدوده ای وجود دارد که در آن پارامترهای هزینه و $\gamma$ باید در محدوده آن قرار گیرند و/یا انتخاب کنید که دانه بندی باید چه چیزی باشد. باشد (یعنی به عنوان مثال «گاما = 10 ^ (1:2)» یا «گاما = 1:2» یا «گاما = 100 ^ (1:2)`)؟ من یک سوال دوم اضافه می کنم: آیا tune.svm() می تواند بهترین نوع هسته را نیز برگرداند؟ با تشکر
|
درباره هزینه SVM و تنظیم پارامترهای گاما
|
89594
|
من یک بردار $v=(v_1,...,v_J)$ دارم که به طور مشترک طبیعی است. سپس باید انتظارات این بردار را در نظر بگیرم. این باید چیزی شبیه این به من بدهد: 1)$$E(v)=(E(v_1),...,E(v_J))$$ با این حال، من می خواهم انتگرال را برای این انتظار بنویسم، اما من' من مطمئن نیستم که چگونه این کار را انجام دهم. حدس من چیزی شبیه به این است: $$E(v)=\int v \phi(v)dv$$ چه ارتباطی با انتظاراتی که در 1 دارم؟ $\phi(.)$ پی دی اف مشترک است، اما برای محاسبه چیزی مانند $(E(v_1)،...،E(v_J))=$، حدس میزنم به توزیع حاشیهای نیاز دارم: $$E(v_1، ...,v_J)=(\int v_1 \phi(v_1),\int v_2 \phi(v_2),...,\int v_J \phi(v_J))$$ با تشکر
|
انتظار مشترک از توزیع نرمال
|
83772
|
در اینجا یک مورد مثال است: * من جمعیتی بالغ بر 10000 مورد دارم. هر مورد یک شناسه منحصر به فرد دارد. * من به طور تصادفی 100 مورد را انتخاب می کنم و شناسه ها را ثبت می کنم * 100 مورد را دوباره در جمعیت قرار می دهم * دوباره به طور تصادفی 100 مورد را انتخاب می کنم، شناسه ها را ثبت می کنم و جایگزین می کنم. * در مجموع، این نمونه گیری تصادفی را 5 بار تکرار می کنم، احتمال اینکه تعداد X$$ آیتم ها در هر 5 نمونه تصادفی ظاهر شوند چقدر است؟ من در آمار زیاد بلد نیستم. آیا این برای X $ = 10 $ درست است؟ * برای هر نمونهبرداری، تعداد ترکیبهای ممکن از 100 مورد از 10000 مورد، ${\rm binom}(10000، 100)$ است * از همه ترکیبهای ممکن از 100 مورد، ${\rm binom}(9990، 90) * {\rm binom}(100، 10)$ ترکیبات حاوی 10 مورد خاص هستند * احتمال داشتن 10 مورد خاص $({\rm binom}(9990, 90) * {\rm binom}(100, 10)) / {\rm binom}(10000, 100)$ * احتمال محاسبه شده به توان 5 نشان دهنده 5 نمونه گیری مستقل است . بنابراین اساساً ما فقط 5 احتمال فرا هندسی مستقل را محاسبه می کنیم و سپس آنها را با هم ضرب می کنیم؟ احساس میکنم در جایی قدمی را گم کردهام.
|
احتمال تقاطع از نمونه گیری چندگانه از یک جامعه
|
86114
|
من دو متغیر دارم که به طور همزمان در 3 نقطه زمانی اندازه گیری شده اند، بیایید آنها را ثروت (W1، W2، W3) و اضطراب (A1، A2، A3) بنامیم. فرض کنید ثروت و اضطراب با هم ارتباطی ندارند. اکنون، من علاقه مندم که آیا تغییر در اضطراب با تغییر در ثروت مرتبط است؟ روش توصیه شده برای آزمایش این چیست؟ ساده لوحانه من فقط 4 متغیر جدید W2-W1، W3-W2، A2-A1 و A3-A2 ایجاد می کنم و به ضرایب همبستگی بین W2-W1 در مقابل A2-A1 و بین «W3-W2» در مقابل «A3-A2». به نوعی این رویکرد احمقانه به نظر می رسد، زیرا من یک مدل واحد می خواهم که به تغییر کلی نگاه کند. آیا باید به مدل های ترکیبی/چندسطحی نگاه کنم؟ به طور مشخص کدام مدل؟ با تشکر
|
تجزیه و تحلیل تغییر بین دو متغیر در 3 نقطه اندازه گیری شده است
|
47661
|
من مجموعهای از مجموعههای داده سری زمانی دارم: {$(1،22)، (2، 25)، (3، 18)، (4، 26)، ...$ و به همین ترتیب} میخواهم Y_{t $ را تخمین بزنم. +1}$ با استفاده از تکنیک رگرسیون ماشین بردار پشتیبانی. من نشریات متعددی پیدا کرده ام که بیشتر به مقاله اسمولا مراجعه می کنند. من می خواهم تکنیک پیاده سازی آن را در برنامه نویسی خود بدانم. مثالهای متعددی برای تکنیکهای رگرسیون ساده وجود دارد، اما آیا مثال سادهای وجود دارد که مشکل یافتن رگرسیون را با ماشین بردار پشتیبان در یک مجموعه داده معین با استفاده از معادلات حل کند و مراحل را نیز نشان دهد؟
|
رگرسیون با استفاده از SVM
|
95883
|
من تازه وارد PCA هستم و میخواستم کمی روی مجموعه دادههایم آزمایش کنم تا ببینم چه شکلی است (با استفاده از R). من نمی توانم به داده های اینجا دسترسی داشته باشم زیرا محرمانه است. با این حال، اگر نوع دیگری از آمار/تجسم وجود دارد که میخواهید ببینید که به شما کمک میکند به سؤالات من پاسخ دهید، لطفاً به من اطلاع دهید و من آن را ارائه خواهم داد. من اطلاعات زیر را در مورد واریانس توضیح داده شده پیدا کردم: Component Prop.Var 1 0.911804348 2 0.033618098 3 0.020827269 4 0.011772988 5 0.006611746 6 0.0772 6 0.077 0.004464788 8 0.003436401 9 0.002091589 این سؤالات زیر را ایجاد می کند: 1. آیا حذف 8 مؤلفه اصلی دیگر موجه است؟ 2. چگونه می توانم 91% واریانس توضیح داده شده در یک جزء را تفسیر کنم؟ 3. اگر فقط یک جزء را نگه دارم بهترین راه برای تجسم داده ها چیست؟ در زیر نمودار دو جزء اصلی اول چگونه به نظر می رسد. با توجه به اینکه چقدر واریانس در مؤلفه دوم وجود دارد، گسترش دادههایی مانند این تعجب آور نیست. ![Principal Components 1 and 2] (http://i.stack.imgur.com/g9wXP.png) همانطور که اشاره کردم، من تازه وارد PCA هستم، بنابراین واقعاً نمی دانم که آیا حتی اطلاعات مفیدی وجود دارد یا خیر. از این نوع کاهش ابعاد. هر گونه بینش قدردانی خواهد شد.
|
PCA: 91% واریانس توضیح داده شده در یک جزء اصلی
|
15548
|
من یک داده دارم که شامل چندین ستون است که بعداً با استفاده از یک الگوریتم PCA به دو جزء مختلف کاهش دادم. سپس الگوریتمهای k-means را روی دادهها اعمال کردم. حال، چگونه می توانم تأیید کنم که داده های من در هر گروه به خوبی خوشه بندی شده اند؟ یا چگونه نرخ طبقه بندی اشتباه را تعیین کنم؟ برای مثال، با استفاده از R، اگر بردار خوشه را بررسی کنم و بگویم k$cluster در برابر برچسب های داده هایی که قبلاً قبل از خوشه بندی داشتم، می توانم فقط یک ماتریس سردرگمی از آن رسم کنم و فرض کنم که 1 در بردار خوشه ای معادل 1 در من است. برچسب ها؟ col3 col2 Col1 lables 123 2.32 2.50 0 124 2.81 3.10 1 125 2.72 3.09 2 126 2.92 3.03 3 127 2.32 2.95 4 لطفاً توجه داشته باشید که این یک داده فرضی است؛ اطلاعات من خیلی بزرگتر از این است
|
اعتبارسنجی نتایج خوشه بندی
|
29932
|
من از rjags برای اجرای MCMC روی مدلی استفاده کرده ام که در زبان JAGS مشخص شده است. آیا راه خوبی برای استخراج آن مدل و انجام پیش بینی با آن (با استفاده از توزیع های پسین پارامترهای من) وجود دارد؟ من می توانم مدل را دوباره در R مشخص کنم و حالت های پارامترهای خلفی خود را وصل کنم. من فقط به این فکر می کنم که آیا روشی کمتر زائد برای انجام این کار وجود دارد. من معتقدم http://sourceforge.net/p/mcmc-jags/discussion/610037/thread/0ecab41c همین سوال را می پرسد.
|
چگونه با jags پیش بینی تولید کنیم؟
|
44816
|
من در حال انجام مطالعه ای در مورد چگونگی ارتباط نیاز قانونی با تعدادی از پیش بینی کننده ها هستم. متغیر نتیجه: نیاز قانونی (بله یا خیر) پیش بینی کننده های احتمالی: سن، جنسیت، نژاد، قومیت، زبان، درمانگاه، وضعیت بیمه. پیش بینی بر اساس تجزیه و تحلیل دو متغیره: سن، زبان، درمانگاه، وضعیت بیمه. همه OR ها حدود 1.6 بودند و معنی دار بودند، 95CI معمولی بین 1.2-2.0. تعداد آزمودنی ها: 8803 من گمان می کنم که تنها متغیری که قرار است از تحلیل رگرسیون چندگانه خارج شود، کلینیک باشد، زیرا کلینیک آسم (در مقایسه با کلینیک پر بازدید) به طور کلی کودکان بزرگتری دارد که انگلیسی صحبت نمی کنند. و بیشتر در مورد Medicaid (سایر پیش بینی کننده های تجزیه و تحلیل دو متغیره) هستند. با دانستن همه اینها، هنوز نمی توانم نحوه اجرای رگرسیون چندگانه در اکسل را بفهمم. من به ضرایب پیرسون مانند 0.06 ادامه میدهم که بعداً میگوید معنیدار است. در هر صورت فکر می کنم باید فراتر از این بروم، شاید یک تحلیل گام به گام به جلو یا عقب؟ درک زمانی که نتیجه 0 (نه) یا 1 (بله) است برای من دشوار است، وقتی که درصد بله معمولاً در محدوده 15 تا 30٪ باشد، این واقعاً به چیزی خطی منجر نمی شود. آیا من چیزی را از دست داده ام؟ علاوه بر سالها آموزش آمار؟
|
چگونه با تجربه محدود و (امیدوارم) اکسل رگرسیون چندگانه انجام دهیم؟
|
8260
|
من می دانستم که در چرخش متعامد، اگر ماتریس چرخش دارای تعیین کننده 1- باشد، بازتاب وجود دارد. در غیر این صورت دترمینان 1+ است و چرخش خالص داریم. آیا می توانم این قانون علامت تعیین کننده را برای چرخش های غیر متعامد گسترش دهم؟ مانند محورهای متعامد به مایل یا چرخش محورهای مورب به متعامد؟ به عنوان مثال، این ماتریس 0.9427 .2544 .1665 .1377 -.0451 -.0902 -.9940 -.0421.3325.3900.1600.8437.4052.8702 .2249. چرخش (من فکر می کنم، زیرا مجموع مربع ها در ردیف ها، نه در ستون ها، 1 هستند). تعیین کننده آن -0.524 است. آیا می توانم بگویم که چرخش حاوی یک بازتاب است؟ پیشاپیش ممنون
|
تشخیص انعکاس در چرخش غیر متعامد
|
86116
|
من 20 سال داده از مشاهده دلفین ها دارم. هنگامی که یک گروه دیده می شود، یک شماره منحصر به فرد دریافت می کند که آن را شناسایی می کند، و همه دلفین های شناسایی شده (علامت گذاری شده) نیز ثبت شده اند. بنابراین من یک میز مانند گروه دلفین 1 1 1 10 1 14 2 10 2 23 داشتم که حدود 20000 گروه و 500 دلفین به دست آوردم. من یک ماتریس با گروهها در ردیفها و دلفینها در ستونها، با 1 که دلفین در یک گروه است، 0 جایی که نیست، ساختم. بنابراین من یک تجزیه و تحلیل چند متغیره (prcomp در R) اجرا کردم و دو بلوک کاملاً متمایز به من داد.  من می دانم که محور عمودی (PC2) با اندازه گروه مرتبط است، گروه های کوچک در زیر، در پایین گروه قرار دارند. مثلث ها اما این دو بلوک در محور افقی (PC1) از هم جدا شده اند و من هنوز نفهمیدم در مورد چیست. فکر میکنم جمعیت دلفینها ممکن است به دو «طایفه» یا چیزی شبیه به آن تقسیم شوند، اما هنوز نمیتوان آن را کشف کرد. من نقاط را با توجه به اندازه گروه، سطح آب، محل دید رنگ آمیزی کردم، اما همه الگوها در هر دو طرف به یک اندازه ظاهر می شوند. بلوک سمت راست حدود 2400 نقطه دارد. سوال من این است: چنین جدایی باید معنایی داشته باشد، درست است؟ از چه ابزار دیگری می توانم برای درک آنچه در حال وقوع است استفاده کنم؟ خیلی ممنون
|
چگونه روابط اجتماعی پیچیده را در داده های جمعیتی عظیم درک کنیم؟
|
89595
|
فرض کنید که یک مدل رگرسیون خطی با نتیجه $Y$ و متغیرهای توضیحی $X_1$ و $X_2$ را اجرا می کنید. شما همچنین یک مدل رگرسیون خطی با تبدیل درجه دوم $X_1$ اجرا میکنید: $$E[Y] = \beta_0 + \beta_{1}X_{1}+\beta_{2}X_{1}^{2} + \beta_{3}X_{2}$$ If $|\beta_2| \تقریبا 0$ آیا میتوانیم آن را از مدل خود حذف کنیم؟
|
ضرایب بسیار کوچک
|
44813
|
من سعی می کنم به یک سازمان غیرانتفاعی کمک کنم و خطایی را مرتکب شدم که سعی می کنم آن را برطرف کنم. آنها چندین سال است که یک بررسی غیرعلمی از هیئت مدیره خود در رابطه با مشارکت هیئت مدیره انجام می دهند. آنها از من خواستند که به آنها کمک کنم تا فرمت نظرسنجی را از یک فایل اکسل غیر دوستانه به چیزی مبتنی بر وب تبدیل کنند، نتایج را مدیریت کرده و برای آنها تجزیه و تحلیل انجام دهم. در سالهای گذشته، آنها از چیزی که من آن را مقیاس وزنی مینامم استفاده کردهاند (بسیار خوب = 5، خوب = 3، منصفانه = 2، ضعیف = -1). امسال به اشتباه سطح اضافی را با اجازه دادن به پاسخ 5، 4، 3، 2 یا 1 درج کردیم. (یعنی پرسشنامه های قبلی 4 گزینه داشتند، اما این یکی 5 گزینه دارد.) من سعی می کنم بفهمم چگونه می توان مقیاس ها را تقریباً معادل هم تطبیق داد. من فکر می کردم که می توانم به 5 = 5، 4 = 3، 3 = 2.5، 2 = 2 و 1 = -1 اجازه دهم. با این حال، من متوجه هستم که این کار نمی کند و همه چیز را به سمت پایین تر منحرف می کند. آیا کسی می تواند یک راه خوب برای مدیریت این موضوع را توصیه کند؟
|
چگونه می توان پرسشنامه ها را با مقیاس های پاسخ های مختلف معادل سازی کرد
|
72950
|
من در حال تلاش برای ایجاد مدلی برای پیشبینی حضور در یک هفته معین در سال جاری بر اساس مقادیر حضور و غیاب امسال تا کنون و دادههای دو سال قبل هستم. داده های من به این صورت است: هفته 11-12 ADA تجمعی 12-13 ADA تجمعی 13-14 تجمعی ADA 1 0.9941 0.9941 0.9914 2 0.9907 0.991 0.989 3 0.98888800.98940. 0.9877 0.987 0.9869 5 0.9869 0.9865 0.9867 6 0.9862 0.985 0.9859 7 0.9856 0.9842 0.9857 0.9857 8 0.9985 0.9986 NA 0.9839 NA 10 0.9848 0.9834 NA هرگونه راهنمایی در مورد چگونگی پیش بینی سه NA بر اساس داده های دو سال گذشته و مقادیر امسال بسیار قابل قدردانی خواهد بود. با تشکر
|
ساخت یک مدل پیش بینی بر اساس داده های سال گذشته در R
|
15541
|
من سعی می کنم بررسی کنم که آیا رابطه ای بین **ساعت بازی** و **تعداد دوستان** وجود دارد یا خیر. من دو زمینه برای مطالعه دارم: در مدرسه و در مکانی غیر از مدرسه. مجموعه داده های من به زمینه در مدرسه و همبستگی r=0.8766 (معنی دار) مربوط می شود. اکنون بخش دشوار .... همانطور که می خواهم بر روی **همان گروه دانش آموزان** برای زمینه در مکانی غیر از مدرسه تمرکز کنم، سؤالی پرسیده ام که پاسخ دهندگان من را فیلتر می کند و آنها را در فهرست قرار می دهد. در مکانی غیر از بافت مدرسه. سوال این است: آیا در سه هفته گذشته دوستی پیدا کردید؟ پاسخ می تواند بله یا خیر باشد. اگر بله، پس از آنها خواسته ام که مشخص کنند آیا دوستان را «در مدرسه»، «در جایی غیر از مدرسه» یا «در هر دو مکان» پیدا کرده اند. بنابراین من چهار مجموعه داده به شرح زیر دارم: 1. کسانی که هیچ دوستی پیدا نکردند 2. کسانی که یک یا چند دوست در مدرسه پیدا کردند 3. کسانی که یک یا چند دوست در مکانی غیر از مدرسه پیدا کردند. یک یا چند دوست در هر دو مکان پیدا کردم (یعنی مدرسه و مکانی غیر از مدرسه) من مجموعه داده 1 را نادیده گرفتم زیرا بدیهی است که هیچ رابطه ای بین ساعات بازی و تعداد دوستان وجود ندارد زیرا هیچ دوست جدیدی پیدا نمی شود. من همچنین مجموعه داده 2 را نادیده گرفته ام زیرا قبلاً این یافته را داشتم (در همبستگی بالا که در مدرسه بود) مجموعه داده 4 را نیز نادیده گرفتم زیرا بین در مدرسه و در مکانی غیر از مدرسه. من از مجموعه داده 3 استفاده کردهام و همبستگی آن 0.7687 (معنیدار) است. تفسیر من از این یافته این است که رابطه بین ساعات بازی و تعداد دوستان در مدرسه و همچنین خارج از مدرسه وجود دارد. آیا این منطقی است؟
|
چگونه می توان ارزیابی کرد که آیا همبستگی بین بازی و تعداد دوستان در زمینه های مختلف وجود دارد؟
|
95884
|
من با آمار R و بیزی تازه کار هستم و مشکلی دارم که در آن یک پیش از توزیع معمولی دارم که باعث ایجاد میانگین و انحراف معیار می شود. تابع درستنمایی معرفیشده نیز معمولاً با میانگین و انحراف معیاری که میتوان از یک نمونه استخراج کرد توزیع میشود. اکنون می فهمم که یک پسین تشکیل شده است که به طور معمول توزیع می شود. از من خواسته شده است که این را در R ایجاد کنم، اما من نمی توانم نمونه ای از کد R را پیدا کنم که در آن پسین از یک تابع پیشین و احتمال توزیع معمولی تشکیل شده باشد. کسی میتونه لطفا من رو در جهت درست راهنمایی کنه با تشکر
|
محاسبه یک پسین گاوسی از یک تابع پیشینی و احتمال گاوسی در R
|
47668
|
من به مسئله نمونه گیری زیر علاقه مند هستم که سعی می کنم با یک مثال انگیزشی آن را شرح دهم. فرض کنید میخواهیم تخمین بزنیم چند نفر در یک منطقه خاص، چشمهای آبی دارند، چند نفر چشمهای قهوهای دارند و غیره. 100 رنگ). سپس نمونهها را بهطور متوالی مشاهده میکنیم - در یک زمینه انگیزشی، فرض کنید هر ماه یک سفر دریایی از آن منطقه میآید. آن مسافران را به هم می زنیم و رنگ چشم هر کدام را بررسی می کنیم. کشتی کروز همیشه شامل تعداد یکسانی از مسافران نیست، و ما قانون تصمیم گیری در مورد قرار دادن آن افراد در آن سفر دریایی را نمی دانیم. یک فرض معقول این است که هر فرد شانس برابری (p) برای حضور در آن سفر را دارد و به طور منطقی تمایل داریم افرادی را با رنگ چشم مشترک بیشتر ببینیم. مشکل این است 1. آیا می توانیم تعداد کل افراد ساکن در منطقه را تخمین بزنیم؟ 2. آیا می توانیم نسبت یا شانس p را تخمین بزنیم؟
|
تخمین اندازه و نسبت جمعیت
|
89591
|
من می خواهم آزمون t Student دو داده توزیع نرمال را محاسبه کنم. با این حال، من اصلا داده ها را ندارم، بلکه فقط میانگین و انحراف معیار هر جمعیت را در اختیار دارم. بنابراین، چگونه می توانم آن داده ها را در R شبیه سازی کنم و t.test را در بین هر دو محاسبه کنم؟ این مقادیر (میانگین و SD): جمعیت 1: 6،62 +- 0.52 سال جمعیت 2: 6.31 +- 0.49 سال پیشاپیش متشکرم Mario
|
t.test در R بین دو توزیع نرمال به دست آمده با استفاده از تابع dnorm
|
83773
|
این یک سوال تکلیف است و من به پیشنهاد نحوه برخورد با آن نیاز دارم. ما انتقالها را 1 دادهایم. $\ i\rightarrow i+1$ با نرخ $\lambda(i)$ که $\ i \ge 1$ 2. $\ i\rightarrow i-1$ با نرخ $\mu( i)(i-1)$ که در آن $\ i \ge 2$ من معادله رو به جلو را اینگونه شروع می کنم: $$\ p_j(t) = [1-(\lambda_jh+\mu_jh +o(h))p(t)]+ \lambda(j-1)p(j-1)(t)h + ...$$ و من واقعا نمی توانم از اینجا ادامه دهم. من باید به نقطه ای برسم که بتوانم نشان دهم که $$\ G(z, t) = \sum P(N(t)= j|N(0) = a) z^j $$ $$\frac را برآورده می کند {\ partial G}{\partial t} = z \left( z-1\right) \left(\lambda\frac{\partial G}{\partial z}- \mu\frac{\partial^2 G} {\ جزئی z^2}\right)$$
|
زمان پیوسته معادله رو به جلو زنجیره مارکوف
|
95888
|
من به دو جامعه نگاه می کنم که 4 متغیر مستقل ($X_1$، $X_2$، $X_3$، $X_4$) و یک متغیر وابسته ($Y$) را همراه با هر اندازه گیری یا مشاهده اندازه گیری کرده ام. من گمان میکنم که دو جمعیت متفاوت هستند به این معنا که $Y$ جمعیت دوم وابستگی به یک عامل در نظر گرفتهنشده اضافی را نشان میدهد (من انتظار دارم $Y$ بطور سیستماتیک کمتر باشد، در واقع). با توجه به اینکه: * متغیرهای وابسته دارای همبستگی بالایی هستند. * وابستگی $Y$ به $X$ ناشناخته و احتمالاً ناپارامتریک است. * تعداد قابل مشاهده ها/اندازه گیری ها کم است (~100 برای گروه اول،~~30 برای گروه دوم). من احساس میکنم که رگرسیون چند خطی نوعی ساختار زیربنایی را به خود میگیرد و تحلیل من را مغرضانه میکند، بنابراین میخواهم از آن اجتناب کنم. من سعی کردم از PCA در هر دو استفاده کنم و رایانه های شخصی را با هم مقایسه کنم: هیچ چیز قابل توجهی از نظر ابعاد ظاهر نمی شود. آیا میتوانید آزمایشی را پیشنهاد کنید که بررسی کند آیا این دو جمعیت واقعاً از نظر $Y$ متفاوت هستند و در عین حال حداقل تعداد مفروضات مربوط به وابستگی عملکردی آن را حفظ میکند؟ خیلی ممنون، پ.
|
مقایسه دو جمعیت با تحلیل وابستگی یک متغیر وابسته به چند متغیر مستقل
|
48907
|
من میخواهم آزمایش کنم که دادههای من چقدر میتوانند توسط توزیع گاوسی اصلاحشده نمایی (ویکیپدیا) یا توزیع گاما نمایی عادی (NEG) مدلسازی شوند. با این حال، تخمین پارامتر (که شامل Skewness میشود) زمانی که مقادیر پرت در مجموعه دادهها وجود دارد، چندان قوی نیست. من تجربیات خوبی با تخمین پارامترهای مبتنی بر میانه در این مجموعه داده دارم (به سوال مرتبط برآورد پارامترهای توزیع نرمال: میانه به جای میانگین مراجعه کنید؟). آیا تخمین پارامتر مبتنی بر میانه یا مشابه آن را برای توزیع های ExGaussian / NEG می شناسید؟ من قبلاً سعی کردم مجموعه دادههایم را کوتاه کنم، نتایج به وضوح بعد از آن بهتر بود. با این حال، این بدیهی است که یک سوگیری ایجاد می کند، که باید به نحوی آن را اصلاح کنم.
|
تخمین پارامتر قوی برای توزیع گاوسی اصلاح شده نمایی
|
15540
|
من از آزمون Wilcoxon برای مقایسه دو مجموعه داده جفت شده برای اینکه آیا میانگین آنها متفاوت است استفاده می کنم. علاوه بر p-value، من می خواهم قدرت این تست را نیز بدانم. چگونه آن را در R محاسبه کنیم؟ پیشاپیش از شما متشکرم.
|
چگونه توان تست ویلکاکسون را محاسبه کنیم؟
|
48903
|
من یک شکل موج دارم که اکثر مردم دامنه پیک یا شیب را اندازه گیری می کنند. من ناحیه زیر منحنی و چندین معیار دیگر را که شامل همان شکل موج اصلی هستند، گنجانده ام. من در حال حاضر 10 اندازه گیری روی چنین شکل موج هایی دارم (و من این شکل موج ها را در 500 بیمار اندازه گیری کرده ام). آیا قرار دادن همه این اقدامات در کنار هم در یک تجزیه و تحلیل مولفه اصلی (PCA) برای تقطیر مجموعه کوچکتری از اجزای اصلی مشروع است؟ نگرانی من در مورد این واقعیت است که برخی از معیارها ذاتاً به یکدیگر وابسته هستند (به عنوان مثال، دامنه پیک ذاتاً با سطح زیر منحنی همبستگی خواهد داشت)، بنابراین می ترسیدم که ممکن است برخی از مفروضات پشت PCA، مانند استقلال، برآورده نشود. از اقدامات آیا روش تحلیل دیگری وجود دارد که به جای PCA از آن استفاده کنم؟ تجزیه و تحلیل مؤلفه های مستقل؟ یکی دیگر از روش های مقیاس بندی چند بعدی؟ تحلیل خوشه ای؟ خیلی ممنون کمی جزئیات بیشتر: در مورد من، من 9 اندازه خام، _x1_ .. _x9_، در هر بیمار ساخته ام. من قبلاً میدانم که _x2_ و _x4_ همبستگی بالایی دارند، اما تفاوت آنها پیامدهای پیشآگهی مهمی دارد. از یک طرف، می ترسم که PCA نتواند این تفاوت را یادداشت کند (زیرا _x2_ و _x4_ بسیار همبسته هستند)، بنابراین من می خواهم _x2-x4_ را به عنوان معیار دهم لحاظ کنم. با این حال، من از این واقعیت آزارم میدهد که به این ترتیب همبستگی بیاهمیت را معرفی میکنم، که اهمیت _x2_ و _x4_ و هرگونه نویز در آنها را افزایش میدهد. بازم ممنون
|
تجزیه و تحلیل مؤلفه های اصلی: معیارهای ورودی چقدر باید مستقل باشند؟
|
7579
|
من سعی می کنم تعداد بیماری های هفتگی را در 25 منطقه مختلف در یک کشور در یک دوره ده ساله تحت تأثیر دما مدل کنم. داده ها صفر و بیش از حد پراکنده هستند. من بیشتر با Stata آشنا هستم، اما فکر نمیکنم در میان دستورات «gee»، «xtmixed»، «xtmepoisson» و غیره گزینهای وجود داشته باشد که به من اجازه دهد تورم صفر و مسائل پراکندگی بیش از حد را در نظر بگیرم. خود همبستگی من دادههای بروز را تغییر دادم و از مدل SARIMA استفاده کردم، اما باقیماندهها کاملاً عادی نیستند. من فکر می کنم که نسخه هایی از مدل ARIMA برای داده های عدد صحیح مانند شمارش بیماری ها وجود دارد، اما نمی توانم برنامه ای برای آن پیدا کنم. من همچنین به این فکر میکردم که بتوانم یک مدل سلسله مراتبی با برشهای تصادفی برای هر منطقه و اثرات تصادفی دما در هر منطقه ایجاد کنم، در حالی که چرخه بیماریهای فصلی منظم را نیز در نظر بگیرم. من معتقدم که میتوانم این را در R با استفاده از بستهای مانند glmm.admb مدل کنم، اما به دلیل دانش آماری و R محدودم، کاملاً مطمئن نیستم که چگونه از آن استفاده کنم. من عمدتاً در مورد حسابداری بخش خود همبستگی و چرخه فصلی داده ها با استفاده از برنامه ای مانند این سردرگم هستم. توصیه ای در مورد اینکه چگونه این کار را به بهترین نحو انجام دهیم؟
|
چگونه سری زمانی پواسون پراکنده و بادشده صفر را مدل کنیم؟
|
44814
|
به عنوان یک آزمایش کوچک، من یک رابطه خوب و قابل تفسیر AR/MA را بین یک امنیت $r$ گسترش میدهم که بهطور متغیر تحتتاثیر نقاط زمانی $k$ قبلی بر روی یک امنیت دیگر $f$ قرار میگیرد. این روابط (تاخر) با $l$ نشان داده می شود. من میخواهم «واقعگرایی» را با حرکت دادن هر دو اوراق بهادار با نوسانات تصادفی تقویت کنم: $ \begin{bmatrix} r_t \\ f_t \end{bmatrix} = \begin{bmatrix} l_{r,1} و ... و l_{r,k} \\ l_{f,1} & ... & l_{f,k} \end{bmatrix} \Theta_t + \Sigma_t u $u \sim N(0,1)$ $ \log(\Sigma_t) = \begin{bmatrix} \log(\sigma_{r,t}) \\ \log(\sigma_{f, t}) \end{bmatrix} = \begin{bmatrix} 1 & \phi_r \\ 1 & \phi_t \end{bmatrix} \begin{bmatrix} \omega_r & \omega_f \\ \log(\sigma_{r,t-1}) & \log(\sigma_{r,t-1}) \end{bmatrix} + \begin{bmatrix} \eta_{r,t} \\ \eta_{f,t}) \end{bmatrix} $\eta_{i,t} \sim N(0,\sigma_{\eta_i})$ $ \Theta_t = \begin{bmatrix} f_t \\ f_{t-1} \\ ... \\ f_{t-k} \end{bmatrix} = من \شروع {bmatrix} f_{t-1} \\ f_{t-2} \\ ... \\ f_{t-k-1} \end{bmatrix} + \begin{bmatrix} \sigma_{f,t-1} \\ \sigma_{f,t-2} \\ ... \\ \sigma_{f,t-k-1} \end{bmatrix} $ 1. آیا قبل از اینکه یک نمونه اولیه را تولید کنم، این نگاه به چشمان آموزش دیده بهتر است؟ به خصوص، پیشنهاداتی در مورد پارامترهایی که ممکن است ارزش تلفیق را داشته باشند (یعنی پارامترهایی که ارزش توضیحی زیادی اضافه نمی کنند)؟ 2. پیشنهادی برای نحوه برخورد دقیقتر به انتخاب «تاخیر» (به عنوان مثال، روش انتخاب مدل) دارید؟ 3. آیا کسی میانبرهایی برای ادغام دو معادله انتقال ($\log(\Sigma_t)$ و $\Theta_t$) در نمایش فضای حالت معمولی، یعنی $\Theta$، $F$، $G میبیند. $، $V$، $W$ در ادبیات اشاره شده است. برای برخی موارد خاص، معادلات را می توان به طور قابل ملاحظه ای ساده کرد: به عنوان مثال، مدل های نوسانات لگاریتم MA سنتی، یک تبدیل لاگ معادله اصلی آن عبارت تصادفی مزاحم $u$ را ساده می کند.
|
نقد، لطفا: مدل فضای حالت ساده
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.