_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
89886
من سعی می کنم یک مدل رگرسیون خطی تولید کنم، اما فقط 25 مشاهده و 34 پیش بینی دارم. من در حال تلاش برای انتخاب ویژگی، کتابخانه (MASS) full.m <- lm(fmla، data=mydata) fsel.m <- step(full.m، جهت = هر دو) هستم، اما این خطا را دریافت می کنم، خطا در مرحله (full.m، جهت = هر دو) : AIC برای این مدل بی نهایت است، بنابراین گام نمی تواند ادامه یابد، خوب، سپس PCA و تحلیل عاملی را امتحان کردم اما این تصویر عجیب را از PCA. r <- prcomp(formula=pca.fmla, mydata, scale=FALSE) ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/gg45b.png) در تحلیل عاملی، f <- factanal( x=pca.fmla، mydata، factor=2) دریافت می‌کنم، خطا در solve.default(cv): سیستم از نظر محاسباتی مفرد است: متقابل شماره شرط = 1.09137e-18 کمکی دارید لطفا؟ ویرایش: من می توانم به این پاسخ بدهم.
خطا در تلاش برای کاهش ابعاد داده‌های من
12360
جدول 18.1 در عناصر یادگیری آماری عملکرد چندین طبقه‌بندی کننده را بر روی یک مجموعه داده 14 کلاسه خلاصه می‌کند. من یک الگوریتم جدید را با شبکه کمند و الاستیک برای چنین مسائل طبقه بندی چند کلاسه مقایسه می کنم. با استفاده از «glmnet» نسخه 1.5.3 (R 2.13.0) من نمی توانم نقطه 7. (چندجمله ای $L_1$-جریمه شده) را در جدول بازتولید کنم، جایی که تعداد ژن های استفاده شده 269 و آزمایش گزارش شده است. خطا 13 از 54 است. داده های مورد استفاده این مجموعه داده ریزآرایه 14 سرطانی است. هرچه سعی کردم، بهترین مدل را با استفاده از همسایگی 170-180 ژن با خطای آزمایشی 16 از 54 دریافت کردم. توجه داشته باشید که در ابتدای بخش 18.3، در صفحه 654، برخی از پیش پردازش داده ها توضیح داده شده است. . من با نویسندگان تماس گرفته‌ام - تا کنون بدون پاسخ - و می‌پرسم که آیا کسی می‌تواند تأیید کند که در بازتولید جدول مشکلی وجود دارد یا راه‌حلی برای نحوه بازتولید جدول ارائه دهد.
بازتولید جدول 18.1 از عناصر یادگیری آماری
46824
من مطالعه ای دارم که در آن هدف این است که ببینم آیا یک ابزار تشخیصی جدید اضافه ای به روش قدیمی ارائه می دهد یا خیر. مجموعه‌ای از بیماران تشخیص داده شده و به 7 دسته طبقه‌بندی شده‌اند که هر کدام مربوط به یک درمان خاص است. سپس از ابزار تشخیصی جدید استفاده می شود و بیماران مجدداً تشخیص داده می شوند و طبقه بندی می شوند. سپس بیماران به دو دسته تقسیم می شوند: 1. درمان پیشنهادی ثابت می ماند. یا 2. درمان پیشنهادی تغییر کند. به نظر می رسد که این باید یک سوال ساده باشد، اما هنوز نمی توانم بفهمم که از چه نوع آزمایشی می توانم استفاده کنم تا ببینم آیا ابزار تشخیصی اطلاعات اضافی منجر به تجدید نظر در درمان را ارائه می دهد یا خیر. با توجه به اینکه آزمونی وجود دارد، می‌خواهم برای بخش بعدی مطالعه مقداری محاسبات حجم نمونه را نیز انجام دهم.
آزمایش تغییر درمان
9214
به نظر می رسد نمایه سازی معنایی پنهان به خوبی کار می کند. به عنوان مثال مستقل از زبان و غیره است. با این حال، به نظر می رسد از تشابه فراوانی اصطلاحات در مجموعه برای دسته بندی آنها استفاده می کند. اگر این درک درست باشد، آیا راهی برای اندازه گیری اندازه مجموعه داده وجود دارد که عملکرد مطلوبی را ارائه دهد؟
برآورد حجم نمونه مورد نیاز برای عملکرد بهینه نمایه سازی معنایی نهفته؟
49835
بسته رسم R ggplot2 دارای یک تابع عالی به نام stat_smooth برای رسم یک خط رگرسیون (یا منحنی) با باند اطمینان مرتبط است. با این حال، برای هر زمان خط رگرسیون (یا روش) به سختی می توانم بفهمم این باند اطمینان دقیقا چگونه ایجاد می شود. چگونه می توانم این اطلاعات را پیدا کنم؟
چگونه ggplot فواصل اطمینان را برای رگرسیون محاسبه می کند؟
9213
قبلاً من پرسیده بودم که چگونه برخی از احتمالات شرطی را محاسبه کنم، اما این مورد خاص را از دست داده ام: فرض کنید اکنون 3 متغیر داریم: $T$, $L$, $E$: T L \ / E بنابراین $E$ به $ بستگی دارد T$ و $E$ به $L$ بستگی دارد من این احتمالات را دارم: $P(T) =$0.0104$P(L) =$0.055$P(E) =$ 0.0648 $P(E|L,T) =$ 1.0 $P(E|L،\lnot T) =$ 1.0 $P(E|\lنه L,T) =$ 1.0 $P(E|\lnot) L،\lnot T) = $ 0.0 چگونه احتمال $T$ و $L$ اصلاح می شود وقتی مشاهده می کنیم که $P(E)$ = 1 است؟
متغیر بسته به 2 متغیر احتمال شرطی
63393
تحت چه شرایطی MLE (تخمین حداکثر احتمال) برابر با LSE (تخمین حداقل مربعات) خواهد بود؟ این تصور را داشتم که تحت هنجار 2 ($L_{2}$)، MLE و LSE برابر هستند. برای مثال، فرآیند حل $\mathrm{min}||y−Ax||_{2}$ در واقع تخمین MLE پارامتر $A$ برای متغیر تصادفی $y=Ax+\epsilon$ است که در آن $x$ و $\epsilon$ طبیعی است. با این حال، آیا این به طور کلی درست است که مشکل به حداقل رساندن تحت نرم افزار $L_{2}$ همان تخمین حداکثر احتمال است؟ برای مثال، یک تابع درجه دوم $f(X) = XAX$ را در نظر بگیرید، آیا می‌توان به حداقل رساندن فاصله بین $f(X)$ و مقداری $Y$ زیر $L_{2}$ توسط MLE حل کرد؟
چه زمانی برآوردهای حداکثر احتمال برابر با حداقل مربعات برآورد می شوند؟
63397
در معماری یکپارچه برای کاغذ NLP شبکه عصبی با تاخیر زمانی به عنوان راهی برای مقابله با ورودی طول متغیر پیشنهاد شده است. پنجره ورودی روی ترتیب اسلاید می شود و هر خروجی را با زمان برچسب گذاری می کند، سپس لایه بعدی در طول زمان حداکثر طول می کشد. اما هیچ توضیحی ارائه نشده است که چگونه می توان خطا را از طریق این لایه حداکثر منتشر کرد. ما می‌توانیم خطا را فقط برای «زمان» خاص محاسبه کنیم، که بالقوه برای هر گره خروجی لایه حداکثر متفاوت است. خواندن مقاله اصلی برای TDNN چیزی را روشن نکرد. برای من به نظر می رسد معماری کاملاً متفاوت NN بدون ذکر لایه حداکثر. آیا کسی می تواند توضیح دهد یا به توضیح اشاره کند؟ مهارت های گوگل من شکست خورد.
شبکه های عصبی با تأخیر زمانی - یادگیری لایه max.
52420
من می‌خواستم بررسی کنم که خطای نسبی یک تابع چگالی N(0، 1) چقدر است. منظور من از خطای نسبی: $$\alpha(x) = E \bigg ( \frac{f(x|\hat{\mu}, \hat{\sigma})}{f(x|0,1)} \bigg ) - 1$$ که $f(\cdot, \mu, \sigma)$ pdf معمولی است. برای به دست آوردن تخمینی از $\alpha(x)$ من نقاط داده 10^3$ را از یک N(0,1) شبیه سازی کردم، میانگین نمونه و واریانس تخمین زده شده و خطای نسبی را در 100 نقطه $x\in (-6، 6) دلار. من این مراحل را $reps$ بارها تکرار کردم تا میانگین خطای نسبی را محاسبه کنم. این کد R است: nX = 100 تکرار <- 1000 X <- seq(-6, 6, length.out = nX) myM <- ماتریس(NA, reps, nX) for(ii in 1:reps) { data <- rnorm(1000) myM[ii، ] <- dnorm(X، mean = mean(داده)، sd = sd(data))/dnorm(X) - 1} plot(X, colMeans(myM), type = 'l', ylab = express(hat(alpha)), xlab = x) انتظار داشتم خطای نسبی به برای هر x$ نزدیک به 0 باشد، اما در کمال تعجب به نظر می رسد که نرمال تخمین زده شده دارای دم های چاق تری نسبت به چیز واقعی است. بنابراین سؤالات من این است: 1) آیا این رفتار دنباله به دلیل نابرابری جنسن اتفاق می افتد (از آنجایی که $f()$ غیر خطی است)؟ 2) فرض کنید من می خواهم از تخمینگر تراکم دیگری استفاده کنم و می خواهم بررسی کنم که از نظر خطای نسبی چقدر خوب عمل می کند. من فکر می کردم که برای یک نرمال فقط می توانم میانگین و واریانس را محاسبه کنم و از چگالی به دست آمده به عنوان یک استاندارد طلایی استفاده کنم که می توانم با سایر برآوردگرهای چگالی مقایسه کنم. آیا روش معقولی برای مقایسه میزان عملکرد تخمین‌گرهای چگالی مختلف برای مقادیر مختلف x$ وجود دارد؟ با تشکر
چگالی نرمال تخمینی دم چربی است؟
90354
آیا راهی برای آموزش شبکه عصبی به روش زیر وجود دارد: شما $n$ مشاهدات در مجموعه آموزشی دارید. شبکه عصبی با وزن های تصادفی شروع می شود و خروجی های $n$ تولید می کند. سپس می‌خواهم یک تابع $f$ را روی این خروجی‌های $n$ اعمال کنم. $f$ یک عدد با ارزش واقعی $\alpha$ را خروجی خواهد کرد. هدف شبکه عصبی به حداکثر رساندن $\alpha$ است. یعنی برای من مهم نیست که شبکه عصبی برای هر رصد واحدی چه خروجی می دهد. می‌خواهم برخی از ویژگی‌های خروجی‌ها را به‌عنوان یک کل به حداکثر برساند (مثلاً می‌خواهم واریانس خروجی‌ها را به حداکثر برسانم). آیا شبکه های عصبی مانند این یا تکنیک های دیگری برای آنچه من به دنبال آن هستم وجود دارد؟ هر بینش قابل قدردانی است!
شبکه عصبی، وابستگی بین خروجی ها؟
54867
من در حال انجام یک مطالعه برای تجزیه و تحلیل اثرات از بین بردن یک ژن خاص بر روی یک رفتار خاص در مگس هستم. پس از یک تبدیل log، مشاهدات من توزیع نرمال دارند، بنابراین من می خواهم یک ANOVA سه طرفه را انجام دهم، با سن به عنوان اولین، جنس به عنوان دومین و ژنوتیپ (جهش در مقابل نوع وحشی) به عنوان متغیر سوم، همچنین به نظر می رسد. در تعاملات مشکل این است که جهش‌یافته‌های من از دو سویه کمی متفاوت می‌آیند که هرگز نشان داده نشده است که از نظر رفتاری با هم تفاوت دارند، اما من هنوز باید ابتدا بررسی کنم که آیا لازم است بین این دو در تجزیه و تحلیل بعدی تمایز قائل شوم یا خیر. من نمی‌دانم که آیا می‌توان این کار را با ANOVA تودرتو انجام داد (همه نمونه‌هایی از ANOVAهای تودرتو که من دیده‌ام کاملاً متفاوت از آنچه من دیده‌ام به نظر می‌رسند، به همین دلیل است که آن را امتحان نکرده‌ام، اما احتمالاً نمی‌توانم دریافت کنم. آن). تاکنون، کاری که من انجام داده‌ام این است که یک ANOVA سه‌طرفه (نوع III ss) را فقط روی جهش‌یافته‌ها، با سن به عنوان اول، جنس به عنوان دوم و ژنوتیپ (سویه جهش یافته 1 در مقابل سویه جهش یافته 2) به عنوان متغیر سوم اجرا کردم. . سن، جنس و اثر متقابل سن و جنس هر دو مهم هستند، در حالی که سویه جهش یافته مهم نیست، و همچنین هیچ یک از اصطلاحات متقابل حاوی آن نیستند. سوال من این است که آیا می توانم فقط این واقعیت را گزارش کنم که سویه جهش یافته تأثیر قابل توجهی ندارد و سپس فقط نگران سن و جنسیت زمانی باشم که ANOVA را روی همه مگس هایم اجرا می کنم (این بار بدون تمایز بین دو سویه جهش یافته). ) یا الان باید گزارش بدم و حساب کنم؟ و اگر سویه جهش یافته قابل توجه بود چه؟ آیا این تغییری در مورد اینکه آیا باید اهمیت سن و جنس را در این مرحله گزارش کنم یا خیر، تغییر می‌دهد؟ من فقط یک تست t انجام می دادم تا دو سویه جهش یافته را مقایسه کنم، اما می ترسیدم اثری وجود داشته باشد که با سن یا جنسیت پوشانده شده باشد، زیرا به نظر می رسد هر دو بر رفتاری که من به آن نگاه می کنم تأثیر می گذارد. پیشاپیش از شما بسیار متشکرم، می‌دانم که این یک سؤال تازه‌کار است (این اولین تحلیل آماری واقعی من است، اما از هر ثانیه آن لذت می‌برم) اما اگر هر یک از شما لحظه‌ای برای پاسخ دادن داشت، بسیار ممنون می‌شوم.
متغیر سلسله مراتبی: بررسی اینکه آیا دو زیر گروه باید از هم متمایز شوند یا می توانند با هم ترکیب شوند
9217
من قصد دارم یک مطالعه تحقیقاتی در مورد طراحان تعامل انجام دهم. قبل از شروع روش‌های نمونه‌گیری، به سختی می‌توانم به برخی از آمار و اطلاعات جمعیتی دست پیدا کنم، به عنوان مثال. چند نفر برای استخدام به عنوان طراحان تعامل، طراحان تجربه کاربری و غیره در یک منطقه خاص (در مورد من انگلستان) ثبت نام کرده اند. هر گونه کمک در این زمینه بسیار قدردانی خواهد شد.
تخمین تعداد طراحان تعامل ثبت شده در یک قلمرو مشخص
46829
در رگرسیون لجستیک مبتنی بر GAM، داده‌های شبه عدم وجود برای برازش مدل با داده‌های حضور متناظر ضروری است. در بسیاری از موارد، داده های شبه غیبت 10 برابر بیشتر از سوابق حضور تولید می شوند تا از تنوع چشم انداز کافی در شبه غیبت ها اطمینان حاصل شود. برای اطمینان از اینکه حضور و شبه غیاب به طور یکسان در مدل نقش دارند و از سوگیری جلوگیری می‌کنند، می‌خواهم بدانم که این گزینه وزن‌دهی موردی را چگونه می‌توان با R بدست آورد. برای مثال، من می‌خواهم هر شبه غیبت را n/1000 وزن کنم. که در آن n تعداد سایت های حضور و 10000 سایت شبه غیبت است که به طور تصادفی ایجاد شده اند.
مورد کاهش وزن برای تقلید حضور و غیاب برابر است
62956
1. چه نوع توزیعی به عنوان تابعی از انتظار واریانس دارد، یعنی اجازه دهید $X$ یک متغیر تصادفی از یک توزیع باشد، $Var(X) = f(E(X))$ برای برخی از تابع $f$؟ شرایط کافی از جمله نمونه‌های معمولی توزیع (مانند توزیع‌های خانواده نمایی، یا حتی توزیع‌های خانواده نمایی طبیعی)، و/یا شرایط ضروری خوب خواهند بود. من دیدم که این در معادلات برآورد تعمیم یافته فرض شده است. به ویژه، در خانواده نمایی پراکنده طبیعی با pdf $f (y; θ, φ) = \exp\left(\frac{yθ - b(θ)}{a(φ)}+ c(y, φ)\ راست)$، آیا همیشه یک تابع $V( · )$ وجود دارد که $Var(X) = V(E(X))a(φ)$؟ این یادداشت را ببینید. 2. آیا ساختار واریانس یا تابع واریانس به این اشاره دارد که واریانس را می توان به عنوان تابعی از میانگین نوشت؟ 3. اگر $E(X) = f(\theta)$، و $Var(X) = f'(\theta)$، آیا $Var(X)$ تابعی از $E(X)$ است؟ یک مثال که شرط را برآورده می کند، توزیع خانواده نمایی متعارف است.
چه زمانی می توان واریانس را به عنوان تابعی از انتظار نوشت؟
52421
من یک مجموعه داده دارم که شبیه این است. test.takers item1 item2 item3 item4 item5 item6 item7 item8 item9 item10 item11 item12 item13 item14 item16 item17 item18 total_score tt1 1 1 0 1 0 1 1 1 0 NA 1 1 1 1 2 NA 1 1 1 0 NA 0 0 0 0 NA 1 1 NA 0 1 0 NA 1 0 6 tt3 1 1 1 1 0 0 NA 1 NA NA 1 1 1 NA 0 NA 0 8 tt4 1 1 1 0 1 NA 1 1 0 0 NA 1 0 NA 8 tt5 0 1 1 0 1 1 NA 0 1 1 1 NA 0 0 1 1 9 tt6 0 0 0 1 1 1 1 NA 1 1 1 NA 1 1 NA 0 0 9 tt7 1 0 0 1 1 1 1 1 1 NA 0 1 1 1 NA 11 مجموعه داده شامل 3000 شرکت کننده در آزمون با پاسخ های خود در یک آزمون توانایی. همه شرکت کنندگان در آزمون نمی توانند به همه 18 مورد پاسخ دهند. بنابراین برخی از شرکت کنندگان فقط 10 مورد را مشاهده کردند، برخی دیگر فقط 12 مورد، و غیره. نتیجه یک چارچوب داده با تعداد زیادی NA است. اکنون می خواهم پارامترهای آیتم را با استفاده از مدل 2pl irt کالیبره کنم. و بعد از آن می‌خواهم توانایی‌های آزمایش‌کننده را روی همان مجموعه داده کالیبره کنم. مشکلی که من با آن روبرو هستم این است که نمی توانم بسته R را پیدا کنم که بتواند کالیبراسیون را روی یک قاب داده با داده های از دست رفته انجام دهد. آیا کسی بسته R یا تابع R را می شناسد که بتواند این کار را برای من انجام دهد یا می داند که چگونه با این مشکل به روشی خلاقانه دیگر مقابله کنم؟
IRT در R: آیا کسی تابع کالیبراسیون آیتم IRT را می شناسد که بتواند با NA مقابله کند؟
73899
یک متغیر تصادفی $X$ را در نظر بگیرید که دارای توزیع نمایی چهارگانه است: $$X \sim P(x)=\frac{1}{Z}e^{ax + bx^2 + cx^3 + dx^4}$$ چگونه می توان $Z$ یا لحظه های غیر مرکزی $E X^k$ را با توجه به وجود آنها محاسبه کرد؟ تا آنجا که من متوجه شدم، هیچ فرمول بسته ای برای این مقادیر وجود ندارد، اما آیا روش عددی خوبی برای تخمین آنها وجود دارد؟ از آنجایی که من از داشتن هر نوع متخصصی در ادغام عددی بسیار دور هستم، آماده هرگونه پیشنهادی هستم که کار را با دقت معقول انجام دهد.
محاسبه گشتاورهای غیر مرکزی و نرمال ساز توزیع نمایی کوارتیک
113168
من سعی می کنم یک سیستم معادلات غیر خطی را با استفاده از بسته systemfit در R تخمین بزنم. من با آن مشکل داشتم. این دو معادله پارامترهای یکسانی دارند، یعنی سیگما، ال و ae. من انتظار دارم که آنها مقادیر یکسانی را در دو معادله بگیرند. از نظر تئوری، من انتظار دارم «سیگما» یکسان باشد. اگرچه، من مقادیر متفاوتی برای ضرایب دریافت می کنم. من می دانم که systemfit به شما اجازه می دهد تا محدودیت های خطی را روی ضرایب اعمال کنید، اما انجام این کار با nlsystemfit غیرممکن به نظر می رسد. gammae=exp(-0.7) gamma0=exp(-0.7) #beta=0.6 quale=q*e mod1=lsesv ~ log(gammae)+((sigma-1)/sigma)*(ae*trend1620-0.6*al*trend1620+log(quale)-0.6*log(labour)-(0.4)*log(kapital)) mod2=loutput~log(gamma0)+(sigma/(sigma-1))*log(((exp(al*trend1620)*labour^0.6)*(kap ital^(0.4)))^((سیگما-1)/سیگما)+گاما*((exp(ae*trend1620)*quale)^((سیگما-1)/سیگما))) eqSys=list(mod1,mod2) start.values=c(ae=0.0016,al=0.0016, sigma=0.1) model.ols=nlsystemfit(OLS,eqSys,start.values,data=uk,maxiter=1000) # ضرایب تخمینی >model.ols$b*1 ae al sigma 0.01647120 0.04431699 0.50860670 >model.ols$b*2 ae al sigma 0.03294239 0.08863398 1.01721341 در نتیجه فوق، اگر ضریب 1 معادل نصف معادله باشد، برآورد می شود. رویه‌ای که به من امکان می‌دهد تخمین‌های ضریب مربوطه را از طریق محدودیت‌ها یا رویه‌های جایگزین معادل‌سازی کنم. متشکرم، mrrox
بسته systemfit و سیستم های معادلات غیر خطی / رگرسیون
99488
من با آمار نسبتاً تازه کار هستم و به طور رسمی آموزش ندیده ام، اما مشکل پیچیده ای برای حل آن به من داده شده است و به راهنمایی نیاز دارم. من متوجه می شوم که در اینجا کمی از عمق خودم خارج شده ام، اما از هر کمکی که می توانم به خاطر داشته باشم که بودجه ای برای این کار وجود ندارد و در نتیجه خرید نرم افزار یا استخدام مشاور امکان پذیر نیست، قدردانی خواهم کرد. **مشکل** کسب و کاری که من برای آن کار می کنم تعداد زیادی نماینده موبایل دارد که می توانند به مشاغل مختلف اعزام شوند. 100 نوع شغل مختلف وجود دارد و هر شغل را می توان به 4 نتیجه نهایی مختلف تقسیم کرد. هر یک از این 400 نتیجه نیاز به تخصیص ساعت های انسانی برای تکمیل دارد. من تعداد دفعاتی که هر یک از این پیامدها در هر باند ساعتی در 5 سال گذشته رخ داده است، دارم. از من خواسته شده است که پیش بینی کنم چه تعداد از هر نتیجه در هر باند ساعتی برای 28 روز از زمان حال رخ می دهد. پیش‌بینی حاصل برای پیش‌بینی نیازهای کارکنان به صورت ساعت به ساعت استفاده خواهد شد. در نتیجه پیش‌بینی‌ها برای هر باند ساعتی باید نسبتاً دقیق باشد. **عوامل** در داده های من به وضوح برخی از اثرات فصلی سالانه، هفتگی و روزانه وجود دارد. به طور کلی، هر نتیجه ای در زمان های خاصی از روز در روزهای خاصی از هفته و با برخی روندهای سالانه احتمال بیشتری دارد. هر پیامد متفاوت احتمالاً به فراوانی تعدادی از پیامدهای مختلف مرتبط است. یعنی اگر _x_ اتفاق بیفتد، _y_ و/یا _z_ محتمل است اما _a_ و/یا _b_ نه. تعداد زیادی از عوامل محیطی وجود دارد که در فراوانی هر پیامد نقش دارند. اینها می تواند شامل، اما نه محدود به آب و هوا، روندهای اجتماعی سیاسی، مالی، و رویدادهای یکباره باشد. **چیزی که من امتحان کردم** تا کنون با استفاده از پیش بینی های ساده auto.arima، holtwinters و ets امتحان کرده ام. holtwinters در نهایت یک خط صاف تولید کردند (یعنی 5 و ساعت برای 672 ساعت آینده). ets کار نمی کند زیرا فصل ها بیش از 24 بازه زمانی هستند. auto.arima بهترین نتایج را ایجاد کرد، اما هنوز تا دقیق بودن فاصله زیادی داشت. سپس پیشنهاد شد که tbats() را امتحان کنم و چندین طول فصلی برای آن فراهم کنم. من با دادن طول فصلی 8760 (1 سال) و 168 (1 هفته) به بهترین نتایج رسیدم. به طرز ناامیدکننده ای، این نتایج زمانی که به عنوان مجموع تمام باندهای ساعتی در یک بلوک 1 ماهه در نظر گرفته می شوند، در 1٪ هستند، اما در صورت در نظر گرفتن هر باند ساعتی مجزا، تا 300٪ (متوسط ​​20٪) کاهش می یابد. هر دوی این رویکردها به جای در نظر گرفتن همه پیامدهای ممکن (و همبستگی آنها با یکدیگر) بر روی یک نتیجه فردی به کار گرفته شده اند. **افکار من تاکنون** در این مرحله احساس می‌کنم دو گزینه من این است که یا راهی برای استفاده از چیزی شبیه به tbats() بیابم که به روابط بین چندین پیامد مختلف و همچنین فصلی بودن و پیش‌بینی نگاه می‌کند. بر اساس آن اطلاعات یا آن رویکرد را برای مدل شبکه عصبی رها کنید. درک من (محدود) این است که با استفاده از رویکرد شبکه عصبی، ممکن است بتوانم برای بسیاری از عوامل محیطی ناشناخته، بدون نیاز به شناسایی واقعی آنها، عامل کنم. می دانم که تنبلی است، اما احساس من نسبت به داده ها این است که تعداد کمی از عوامل ناشناخته برای شناسایی وجود دارد و پیش بینی آنها ممکن است به خودی خود یک شغل باشد (یعنی شرایط آب و هوایی) **سوال** (در نهایت) چیزی که من دنبالش هستم راهنمایی است. با توجه به اطلاعات بالا و این واقعیت که من تقریبا به R محدود هستم، بهترین رویکرد چیست؟ و مراحل اساسی که باید دنبال کنم چیست؟ در حالی که نمی‌توانم اطلاعاتم را به صورت آنلاین پست کنم (به دلیل محدودیت‌های کارفرمایان)، می‌توانم آن‌ها را یک یا دو نفر بفرستم اگر کسی مایل بود به ما کمک کند تا راه حلی پیدا کنیم.
چگونه می توان سری های زمانی چند متغیره را «دقیق» با تعداد زیادی از عوامل ناشناخته با استفاده از R پیش بینی کرد؟
99480
اگر کسی علاقه مند است، این سوال توسط نتایج اخیر قرعه کشی NBA ایجاد شده است. در 20 سال گذشته، تیمی که بدترین رکورد را در NBA دارد، دقیقاً 3 بار در قرعه کشی برنده شده است. تیمی که هر سال بدترین رکورد را دارد، 25 درصد شانس برنده شدن در انتخاب شماره یک کلی دارد. البته بسیاری از افراد در مورد نحوه تقلب در قرعه کشی صحبت خواهند کرد و این آمار را مثال می زنند. با این حال، به نظر نمی رسد که این یک انحراف آماری معنی دار از مقدار مورد انتظار 5 برد باشد. آیا کسی می‌داند که از چه آزمونی استفاده کنم تا بفهمم که آیا بدترین تیم که در 20 سال گذشته تنها 3 بار یا کمتر برنده شده است، از نظر آماری به طور قابل توجهی بعید است؟ بیشتر به فرآیند اینجا علاقه مند هستم، زیرا باید با آن آشنا باشم. اولین غریزه من به من می گوید که از تابع احتمال دو جمله ای استفاده کنم و بنابراین، $\sum_{x=0}^3 {n \choose x} (0.25)^3 (0.75)^{(20-x)}$, که بازدهی حدود 22.5% دارد که از $\alpha$ مثلاً 0.05 بیشتر است، بنابراین این از نظر آماری معنی دار نیست. با این حال، من احساس می کنم راه بهتری برای انجام این کار وجود دارد که شامل مقدار مورد انتظار 5 باشد. آیا کسی سرنخی از آنچه من در اینجا به دنبال آن هستم دارد؟
25 درصد شانس برنده شدن، اما فقط 3 برد در 20 رویداد گذشته
12365
وقتی مقدار p '3.2531E-129' را در تابع 'CHIINV' اکسل وارد می کنم، در نتیجه NOMBRE را دریافت می کنم. اگر این کار نمی کند چگونه می توانم مقدار chi-square را پیدا یا گزارش کنم؟ زمانی که مقدار «6.1203E-05» به «00000061203» بود، شخصی به من پیشنهاد داد که 0 را بنویسم. بنابراین، چگونه می توانم «3.2531E-129» را به «0.000000......32531» تغییر دهم؟ از کمک شما متشکرم.
p-value گزارش شده به عنوان 3.2531E-129 در اکسل در تابع CHIINV کار نمی کند.
102925
در حال حاضر یک مدل خطی داریم که شامل 3 متغیر مستقل و متغیر وابسته Y است که مقادیر پیش‌بینی‌شده (از 0.5- تا 2000) از مدل است. اکنون می‌خواهیم با حذف یکی از پیش‌بینی‌کننده‌ها از همان مدل استفاده کنیم (بیایید آن را X1 بنامیم). یکی از همکارانم پیشنهاد کرد که یک مدل را با یک وابسته جدید به عنوان (Y-X1) در برابر دو پیش بینی کننده اجرا کنیم. آیا این یک رویکرد صحیح است یا راه بهتری مانند تکنیک offset برای متغیر وابسته پیوسته وجود دارد؟ من واقعاً از کمک شما پیشاپیش سپاسگزارم.
مدل رگرسیون - مجبور کردن ضریب/اثر 1
63391
امروز متوجه این سوال شدم، و فکر کردم اگر موضوعی داشته باشیم که منابعی را فهرست کند که افراد بتوانند به راحتی برای تجزیه و تحلیل توان/محاسبات اندازه نمونه به آن دسترسی داشته باشند، مفید خواهد بود، شاید مشابه این موضوع: منابعی برای یادگیری R.
اینترنت رایگان یا منابع قابل دانلود برای محاسبات اندازه نمونه
19216
در چه شرایطی می خواهید، یا نمی خواهید یک متغیر را قبل از برازش مدل، مقیاس یا استاندارد کنید؟ و مزایا / معایب مقیاس بندی یک متغیر چیست؟
متغیرها اغلب قبل از ساخت یک مدل تنظیم می شوند (به عنوان مثال استاندارد می شوند) - چه زمانی این ایده خوب است و چه زمانی ایده بد است؟
49837
من روی یک پروژه تحقیقاتی کار می کنم که در آن سعی می کنیم بهبود تناسب مدل مدل LDA خود را ارزیابی کنیم (رویکرد پایه Blie و همکاران، 2003 LDA). من به دنبال کدی هستم که به ما امکان می‌دهد گیجی مدل LDA خود را هنگام تنظیم آن ارزیابی کنیم. من می دانم که بسته R topicmodls یک تابع گیجی دارد اما PI من گزینه های دیگری خارج از R می خواهد. توصیه ای دارید؟ با تشکر از همه
کد برای ارزیابی سرگشتگی یک مدل موضوعی LDA
45731
من سعی می کنم از رگرسیون جنگل تصادفی در scikits-learn استفاده کنم. مشکل این است که من یک خطای تست بسیار بالا دریافت می‌کنم: `train MSE, 4.64, test MSE: 252.25.` داده‌های من اینگونه به نظر می‌رسند: (آبی: داده‌های واقعی، سبز:پیش‌بینی شده): ![بازرگانی جنگل پاک شد](http ://i.stack.imgur.com/qmhbs.png) من از 90% برای آموزش و 10% برای تست استفاده می کنم. این کدی است که من بعد از آزمایش چندین ترکیب پارامتر استفاده می‌کنم: rf = rf = RandomForestRegressor(n_estimators=10, max_features=2, max_depth=1000, min_samples_leaf=1, min_samples_split=2, n_jobs=-1, test_sy_red = me rf.predict(X_test)) train_mse = mean_squared_error(y_train, rf.predict(X_train)) print(train MSE, %.4f, test MSE: %.4f % (train_mse, test_mse)) plot(rf.predict( X)) طرح (y) راهبردهای ممکن برای بهبود تناسب من چیست؟ آیا کار دیگری برای استخراج مدل اصلی وجود دارد؟ برای من باورنکردنی به نظر می رسد که بعد از این همه تکرار از همان الگو، مدل با داده های جدید بسیار بد رفتار می کند. آیا اصلاً امیدی دارم که این داده ها را منطبق کنم؟
جنگل تصادفی بیش از حد مناسب است
62958
من با یک نمونه تصادفی سر و کار دارم و در مورد وزن های پس قشربندی آن سوال دارم. فرض کنید: * این یک نمونه تصادفی از آدرس‌ها است، اما وزن‌های پس از طبقه‌بندی محاسبه شده است (با استفاده از برآوردهای سرشماری) زیرا نمونه با توجه به برخی از متغیرهای مهم با جامعه هدف مطابقت ندارد. * هیچ مشکل عمده ای برای عدم پاسخ وجود ندارد. آیا وزن‌های پس از طبقه‌بندی باید استفاده شوند: 1. به عنوان وزن‌های احتمال (مثلاً استفاده از [pweight] در Stata یا بسته بررسی Lumley در R) هنگام تخمین واریانس، SE و غیره... **OR** 2. آیا باید به سادگی برای تنظیم مجدد نمونه (تغییر توزیع اما نه اندازه کل نمونه) استفاده شود که سپس می توان با روش های تخمین واریانس نمونه تصادفی تجزیه و تحلیل کرد؟ من گزینه اول را انتخاب می کنم (وزن های احتمال، اما ممکن است اشتباه کنم). بیشتر بحث هایی که می بینم در مورد نمونه های خوشه ای یا به طور کلی نمونه هایی است که در وهله اول به صورت تصادفی طراحی نشده اند. بحث‌های دیگر نشان می‌دهد که چگونه وزن‌های پس از طبقه‌بندی با انواع دیگر وزن‌ها (به عنوان مثال، برای تصحیح داده‌های از دست رفته) ترکیب می‌شوند تا وزن‌های احتمالی نهایی را تولید کنند، اما آنها به خودی خود درباره پس طبقه‌بندی بحث نمی‌کنند. در یک نظرسنجی با نرخ پاسخ خوب، من پس قشربندی را راهی برای تصحیح سوگیری بدون پاسخ می‌دانم، زمانی که این امر به وضوح توسط برخی ویژگی‌ها هدایت نمی‌شود و به‌عنوان نماینده جمعیت در همان زمان، دو چیز که فکر می‌کنم اغلب هستند. تشخیص در برخی از نظرسنجی ها نسبتاً دشوار است. به عبارت دیگر حتی زمانی که آنها فقط به عنوان وزن های پس از طبقه بندی صادر می شوند و مشکل عمده عدم پاسخگویی ذکر نشده است، باید به عنوان وزن های احتمالی در برآورد خطاهای استاندارد و غیره استفاده شوند.
تخمین واریانس صحیح برای وزن‌های نمونه تصادفی پس از طبقه‌بندی
68427
من یک مدل رگرسیون خطی با مقداری ورودی xs و خروجی ys یاد گرفتم. ys من همیشه مثبت است. با این حال، اکنون وقتی مدل را روی داده های آزمایشی خود آزمایش می کنم، مقادیر منفی برای ys دریافت می کنم. من می دانم که می توانم مقدار مطلق ys را بگیرم یا آنها را 0 کنم. اما این راه درستی برای انجام آن نیست. رویکرد صحیح برای مقابله با این وضعیت چیست؟
سردرگمی مربوط به رگرسیون خطی
62953
23 بیمار مبتلا به دندان قروچه ( دندان قروچه ) تحت درمان قرار گرفتند. دندان قروچه پایه آنها به مدت سه شب اندازه گیری شده است، سپس به مدت 23 شب تحت درمان قرار گرفتند، سپس دوباره خط پایه پس از به مدت سه شب اندازه گیری شد. داده‌های خام به این صورت است: نمره شب بیمار دقیقه‌های خواب 1 1 20 25 480 1 2 28 67 480 مقادیر عبارتند از: * بیمار = تعداد بیمار * شب = شب (1 تا 26) * امتیاز = تعداد کل حملات دندان قروچه در طول آن شب * مدت زمان = کل ثانیه های دندان قروچه (مجموع تمام حملات) برای آن شب * دقیقه خواب = بازه زمانی مشاهده شده (گرد) تا یک ربع ساعت) در مجموع، 598 مجموعه داده، 26 شب متوالی برای 23 بیمار مختلف وجود دارد. متغیرهای جالب به این صورت تعریف شده است: nph = تعداد حملات دندان قروچه در ساعت (امتیاز * 60 / دقیقه خواب) sph = مدت زمان دندان قروچه بر حسب ثانیه در ساعت (مدت مدت * 60 / دقیقه خواب) میانگین شبانه بیش از همه بیماران است. : nph <- c(8.808858, 8.364923, 11.932373, 9.108704، 8.135258، 6.886013، 6.379688، 6.034062، 5.731728، 5.823831، 5.128421، 4.526408، 5.1458، 5.145 7.691637، 5.645240، 5.151750، 7.496109، 5.375605، 5.994595، 5.650951، 6.459269، 4.490204، 7.8746، 7.8919 7.583042) sph <- c(23.528665، 16.382689، 29.492815، 23.752084، 19.966185، 16.104159، 15.135591، 15.135591، 15.1352618، 15.16، 15. 11.321739، 13.418337، 8.391212، 9.062977، 10.665424، 9.535756، 9.925929، 9.040313، 14.635182، 14.635182، 14.635185، 14.635182، 14.635182، 14.635184، 14.635182، 14.635182، 14.635184، 14.635185، 11.321739. 9.742318، 16.437902، 7.443140، 14.204343، 12.648306، 13.401150) اینها میانگین تعداد حملات دندان قروچه در ساعت (nph) و مدت کل دندان قروچه در هر ساعت (nph) و مدت کل دندان قروچه از 2 ثانیه تا 2 شب در هر ساعت است. نمودار این دو متغیر نشان می دهد که پیشرفت آنها در طول 26 شب تقریباً موازی است، که نشان می دهد هر دو تقریباً به یک روش به درمان واکنش نشان می دهند. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/M2OJG.png) دایره های پر شده سه شب قبل و سه شب بعد از درمان هستند. به دلیل مقیاس بندی، حداکثر مقدار برای هر دو متغیر در یک نقطه قرار می گیرد (شب سوم). سوال من این است: چگونه می توانم تحلیل کنم که این دو منحنی چقدر موازی هستند؟
چگونه موازی دو توزیع را آزمایش کنیم؟
10295
من سعی می کنم یک بسته داده کاوی برای سایت های StackExchange جمع آوری کنم و به ویژه در تلاش برای تعیین جالب ترین سؤالات گیر کرده ام. من می خواهم از نمره سوال استفاده کنم، اما به دلیل تعداد بازدیدها، تعصب را حذف کنم، اما نمی دانم چگونه به این موضوع به شدت برخورد کنم. در دنیای ایده‌آل، می‌توانم سؤالات را با محاسبه $\frac{v}{n}$ مرتب کنم، که $v$ مجموع آرا و $n$ تعداد بازدیدها است. از این گذشته، درصد افرادی را که به سؤال رأی مثبت می دهند، منهای درصد افرادی که به سؤال رأی منفی می دهند، اندازه گیری می کند. متأسفانه، الگوی رأی گیری بسیار پیچیده تر است. آرا تا حد معینی تمایل به «فلات» دارند و این تأثیری دارد که سؤالات بسیار محبوب را به شدت دست کم می گیرد. در عمل، سوالی با 1 بازدید و 1 رای موافق، مطمئناً از هر سوال دیگری با 10000 بازدید، اما کمتر از 10000 رای، امتیاز و مرتب‌سازی بالاتری خواهد داشت. من در حال حاضر از $\frac{v}{\log{n}+1}$ به عنوان یک فرمول تجربی استفاده می کنم، اما می خواهم دقیق باشم. چگونه می توانم با دقت ریاضی به این مسئله نزدیک شوم؟ برای پرداختن به برخی از نظرات، سعی می کنم دوباره مشکل را به روشی بهتر بیان کنم: فرض کنید من یک سوال با کل آرا $v_0$ و $n_0$ بازدید دارم. من می‌خواهم بتوانم تخمین بزنم که کل آرا $v_1$ زمانی که بازدیدها به $n_1$ می‌رسند، محتمل‌تر است. به این ترتیب من به سادگی می‌توانم یک مقدار اسمی برای $n_1$ انتخاب کنم و همه سوال را بر اساس کل $v_1$ مورد انتظار سفارش دهم. * * * من دو پرس و جو در datadump SO ایجاد کرده ام تا اثری را که در مورد آن صحبت می کنم بهتر نشان دهم: میانگین بازدید بر اساس امتیاز نتیجه: ![نمایش بر اساس امتیاز](http://i.stack.imgur.com/AjwgO. png) میانگین امتیاز بر اساس بازدیدها (100 بازدید سطل) نتیجه: ![امتیاز توسط بازدیدها](http://i.stack.imgur.com/2dVzr.png) * * * دو فرمول نتایج را با هم مقایسه کردند، مطمئن نیستم که آیا صاف‌تر بهتر است یا نه: ($\frac{v}{n}$ به رنگ آبی، $ \frac{v}{log{n}+1}$ به رنگ قرمز) ![Formulas](http://i.stack.imgur.com/v8RVc.png)
تابع جالب بودن برای سوالات StackExchange
62957
من یک مجموعه داده بزرگ دارم (400000 متغیر از 1000 نمونه). من می خواهم مشخص کنم که بهترین مجموعه از این متغیرها برای گرفتن بیشتر واریانس بین نمونه ها چیست. بهترین راه برای انجام یک تجزیه و تحلیل مؤلفه اصلی تکراری چیست که شاید هر بار X راند بین متغیرهای Y و Z را طی کند و به فهرستی منجر شود که کدام دور منجر به کمترین تعداد رایانه‌های شخصی برای گرفتن درصد مشخصی از واریانس می‌شود؟
تکراری PCA R
9218
str(test) 'data.frame': 767 obs. از 2 متغیر: $ datefield: Ord.factor w/ 59 level 1984-04-01<1984-07-01<..: 1 2 3 4 5 6 7 8 9 10 $ somevar : num 43.7 55.6 43.5 54.1 42.8 ... > str(Italy) 'data.frame': 1008 obs. از 2 متغیر: سال $: Ord.factor w/ 48 سطح 1951<1952<..: 1 1 1 1 1 1 1 1 1 1 ... $ gdp : num 8.56 12.26 9.59 8.12 5.54 ... من فیلد تاریخ را به یک فاکتور مرتب تبدیل کردم زیرا سعی می کنم یک مثال را با داده های خود بازتولید کنم. حالا می‌پرسم تفاوت بین چیست، یا به عبارت دیگر، 1 2 3 4 5 6 7 8 9 10 در مقابل 1 1 1 1 1 1 1 1 1 1 1 ... یعنی چه؟
تفاوت بین این عوامل مرتب شده چیست؟
63398
آزمون F و آزمون t در مدل های رگرسیونی انجام می شود. در خروجی مدل خطی در R، مقادیر برازش و مقادیر مورد انتظار متغیر پاسخ را دریافت می کنیم. فرض کنید من قد را به عنوان متغیر توضیحی و وزن بدن را به عنوان متغیر پاسخ برای 100 نقطه داده دارم. هر متغیر (متغیر توضیحی یا مستقل، اگر مدل رگرسیون چندگانه داشته باشیم) ضریب در مدل خطی با یک مقدار t (به همراه مقدار p آن) همراه است؟ این مقدار t چگونه محاسبه می شود؟ همچنین یک تست F در پایان وجود دارد. دوباره کنجکاو هستم که در مورد محاسبه آن بدانم؟ همچنین در ANOVA بعد از مدل خطی، من یک آزمون F را دیده ام. اگرچه من تازه یادگیرنده آمار هستم و سابقه آماری ندارم، اما آموزش های زیادی را در این زمینه پشت سر گذاشته ام. لطفاً برای رفتن به من با آموزش های اولیه پیشنهاد نکنید زیرا قبلاً این کار را انجام داده ام. من فقط کنجکاو هستم که در مورد محاسبات آزمون T و F با استفاده از چند مثال اساسی بدانم. ممنون!!
آزمون F و آزمون t در مدل رگرسیون خطی
45733
من یک سوال در مورد داده کاوی علمی دارم. 1. آیا مطالعات موردی موفقی را در مورد استفاده از تکنیک های داده کاوی / یادگیری ماشین در هیدرودینامیک می دانید؟ 2. به طور کلی، آیا واقعاً منطقی است که سعی کنیم تکنیک‌های DM/ML را برای سیستم‌های قطعی مانند جریان‌های گاز/سیال که توسط معادلات ناویر-استوکس توصیف می‌شوند، اعمال کنیم؟ من حدس می‌زنم که در مورد جریان‌های بسیار ساده، پاسخ «نه» است. اما شاید منطقی باشد اگر ما با داده های پیچیده از جریان های آشفته / چند فاز / ... معامله کنیم؟ 1. فرمول مشکل در این زمینه چه می تواند باشد؟ من از نظر شما، پیوند به مقالات و صفحات وب قدردانی خواهم کرد.
کاربردهای داده کاوی / ML در هیدرودینامیک؟
9215
داده کاوی و تجزیه و تحلیل آماری یک بحث کلی در مورد آمار در مقابل داده کاوی دارد. اگر ممکن است، سؤال را کمی محدودتر کنید - آیا مرزبندی کلی وجود دارد که به شما امکان می دهد تصمیم بگیرید کدام رویکرد برای استفاده مناسب تر است - LDA یا ARM؟ (به غیر از قدردانی از ریاضیات قبلی)
انتخاب بین تخصیص دیریکله پنهان و استخراج قانون انجمن
2918
آیا منحنی های لورنز و طرح های QQ یکسان هستند؟ اگر نه، تفاوت ها کجاست؟ من در مورد هر دوی آنها مطالعه کردم و به نظر می رسد که آنها دو اصطلاح برای یک نوع نمودار / تکنیک آماری برای مقایسه توزیع ها هستند. من نتوانستم هیچ منبع تایید کننده ای برای این موضوع پیدا کنم. شاید شما می دانید؟
آیا منحنی لورنز همان QQ-plot است؟
46821
من در حال تولید یک اسکریپت برای ایجاد نمونه های بوت استرپ از مجموعه داده «cats» هستم (از بسته «-MASS-». به دنبال کتاب درسی دیویدسون و هینکلی [1] من یک رگرسیون خطی ساده را اجرا کردم و یک روش ناپارامتریک اساسی را برای راه‌اندازی از مشاهدات iid اتخاذ کردم، یعنی **نمونه‌گیری مجدد جفتی**. نمونه اصلی به این شکل است: Bwt Hwt 2.0 7.0 2.1 7.2 ... 1.9 6.8 از طریق یک مدل خطی تک متغیره می‌خواهیم وزن کانون گربه‌ها را از طریق وزن مغزشان توضیح دهیم. کد این است: library(MASS) library(boot) ################## # CATS MODEL # ################ ## cats.lm <- glm(Hwt ~ Bwt، data=cats) cats.diag <- glm.diag.plots(cats.lm، ret=T) ####################### # نمونه‌گیری مجدد مورد ####################### cats.fit <- تابع(داده) coef(glm(data$Hwt ~ data$Bwt)) statistic.coef <- تابع(داده، i) cats.fit(داده[i،]) bootl <- boot(data=cats, statistic=statistic.coef, R=999) اکنون فرض کنید که یک متغیر خوشه بندی 'cluster = 1, 2,..., 24' وجود دارد (به عنوان مثال، هر گربه به یک معین تعلق دارد. بستر). برای سادگی، فرض کنید که داده ها متعادل هستند: برای هر خوشه 6 مشاهده داریم. بنابراین، هر یک از 24 بستر از 6 گربه تشکیل شده است (یعنی «n_cluster = 6» و «n = 144»). می توان یک متغیر خوشه جعلی ایجاد کرد: q <- rep(1:24, times=6) cluster <- sample(q) c.data <- cbind(cats,cluster) من دو سوال مرتبط دارم: چگونه می توان نمونه ها را مطابق با ساختار داده (خوشه ای) شبیه سازی کرد؟ یعنی **چگونه در سطح خوشه نمونه‌گیری مجدد کنیم؟** می‌خواهم از خوشه‌ها با جایگزینی نمونه‌برداری کنم و مشاهدات را در هر خوشه انتخابی مانند مجموعه داده اصلی تنظیم کنم (یعنی نمونه‌برداری با جایگزینی خوشه‌ها و بدون جایگزینی مشاهدات در هر خوشه). این استراتژی پیشنهاد شده توسط دیویدسون (ص 100) است. فرض کنید ما نمونه های 'B = 100' را ترسیم می کنیم. هر یک از آنها باید توسط 24 خوشه احتمالاً مکرر تشکیل شده باشد (به عنوان مثال خوشه = 3، 3، 1، 4، 12، 11، 12، 5، 6، 8، 17، 19، 10، 9، 7، 7، 16، 18، 24، 23، 11، 15، 20، 1`)، و هر خوشه باید شامل همان 6 مشاهدات مجموعه داده اصلی باشد. چگونه این کار را در R انجام دهیم؟ (چه با بسته «-boot-» یا بدون آن.) آیا پیشنهاد جایگزینی برای ادامه دارید؟ سوال دوم مربوط به مدل رگرسیون اولیه است. فرض کنید من یک **مدل جلوه های ثابت** را با وقفه های سطح خوشه اتخاذ می کنم. **آیا روش نمونه گیری مجدد را تغییر می دهد** اتخاذ شده؟ [1] دیویدسون، A. C.، Hinkley، D. V. (1997). _روش های بوت استرپ و کاربردهای آنها_. انتشارات دانشگاه کمبریج
بوت استرپ داده های سلسله مراتبی/چندسطحی (نمونه گیری مجدد خوشه ها)
63396
4 گروه وجود دارد که هر یک دارای دو متغیر X و Y است. من سعی می کنم رگرسیون بین آنها را درک کنم. برای متغیر X من 2 دسته مثبت و منفی دارم. من درک نمی کنم که چگونه شیب ها و فاصله های بین X (مثبت و منفی) و Y را مقایسه کنم. آیا باید مقادیر منفی را معکوس کنم؟
شیب ها و فاصله های بین 2 متغیر را در SPSS مقایسه کنید
24300
در R، اگر من set.seed()، و سپس از تابع نمونه برای تصادفی کردن یک لیست استفاده کنم، آیا می توانم تضمین کنم که جایگشت مشابه ایجاد نمی کنم؟ به عنوان مثال... set.seed(25) limit <- 3 myindex <- seq(0,limit) for (x in seq(1,factorial(limit))) { permutations <- sample(myindex) print(permutations) } این [1] 1 2 0 3 [1] 0 2 1 3 [1] 0 3 2 1 [1] 3 1 2 0 [1] 2 تولید می کند 3 0 1 [1] 0 1 3 2 آیا همه جایگشت های چاپ شده جایگشت منحصر به فرد خواهند بود؟ یا بر اساس روشی که این مورد اجرا می شود، شانسی وجود دارد که بتوانم چند بار تکرار کنم؟ من می خواهم بتوانم این کار را بدون تکرار، تضمینی انجام دهم. چگونه این کار را انجام دهم؟ (همچنین می‌خواهم از استفاده از تابعی مانند permn پرهیز کنم، که یک روش بسیار مکانیکی برای تولید همه جایگشت‌ها دارد--- تصادفی به نظر نمی‌رسد.) همچنین، sidenote--- به نظر می‌رسد این مشکل O است. ((ن!)!)، اگر اشتباه نکنم.
چگونه در R بدون تکرار جایگشت نمونه برداری کنیم؟
68425
من سه سری زمانی داده های اقتصادی بر اساس مشاهدات فصلی دارم. A، B و C، و من می‌خواهم همبستگی (یا نه) بین A و C و همچنین همبستگی بین B و S را مشخص کنم. سری زمانی متفاوت مرتبه 1 B آزمایش‌های ADF و KPSS را برای ایستایی با موفقیت پشت سر می‌گذارد. سری A و C حتی پس از تلاش برای کاهش روند (بر اساس رگرسیون خطی و میانگین‌های متحرک متمرکز مرتبه 4) و همچنین تفاضل مرتبه 1 و 2 در تست‌های ثابت با شکست مواجه می‌شوند. بهترین راه برای تعیین میزان همبستگی بین A & C و بین B & C در این شرایط چیست؟ در زیر داده‌های سری زمانی وجود دارد (تبلیغ جدا شده): A 13,603 15,062 (22,984) 14,704 14,285 15,585 (17,460) 21,145 20,926 28,117 (6,511) 32,511 (21,376) 14,140 3,416 26,526 (21,159) 30,874 51,579 50,426 (19,874) 52,980 30,338 B (92,345) 19,4015 19,4015 (39,180) (29,979) 112,499 5,914 60,787 92,253 124,716 23,638 362,566 (66,896) 209,127 103,986 (13,986) (13,814) 177,945 (36,645) 148,722 189,477 C 819,019 716,641 767,830 1,177,339 1,254,122 1,254,122 9816,3826 806,222 819,019 844,613 1,018,655 1,108,235 1,261,801 1,474,234 1,412,807 1,678,988 1,638,021,037,237,000 1,279,717 1,279,717 1,023,773
نحوه تعیین همبستگی بین سری های زمانی ثابت و غیر ایستا
49832
در یک مدل چند سطحی، پیامدهای عملی و مرتبط با تفسیر تخمین در مقابل برآورد نکردن پارامترهای همبستگی اثر تصادفی چیست؟ دلیل عملی این سوال این است که در چارچوب lmer در R، زمانی که تخمین‌ها در مدل همبستگی‌های بین پارامترها انجام می‌شود، هیچ روشی برای تخمین مقادیر p از طریق تکنیک‌های MCMC وجود ندارد. برای مثال، با نگاهی به این مثال (بخش‌هایی که در زیر ذکر شده است)، مفاهیم عملی M2 در مقابل M3 چیست. بدیهی است که در یک مورد P5 برآورد نمی شود و در مورد دیگر برآورد می شود. سوالات 1. به دلایل عملی (میل به بدست آوردن یک مقدار p از طریق تکنیک های MCMC) ممکن است بخواهید مدلی را بدون همبستگی بین اثرات تصادفی تطبیق دهید حتی اگر P5 اساساً غیر صفر باشد. اگر کسی این کار را انجام دهد و سپس مقادیر p را از طریق تکنیک MCMC تخمین بزند، آیا نتایج قابل تفسیر هستند؟ (من می دانم که @ Ben Bolker قبلاً اشاره کرده است که ترکیب تست معنی داری با MCMC از نظر آماری کمی نامنسجم است، اگرچه من اصرار برای انجام این کار را درک می کنم (دریافت فواصل اطمینان بیشتر قابل پشتیبانی است)، بنابراین اگر باعث می شود بهتر بخوابید. در شب وانمود کنید که فواصل اطمینان را گفتم.) 2. اگر کسی نتواند P5 را تخمین بزند، آیا این همان ادعایی است که 0 است؟ 3. اگر P5 واقعاً غیر صفر است، پس از چه جهت مقادیر تخمینی P1-P4 تحت تأثیر قرار می گیرند؟ 4. اگر P5 واقعاً غیر صفر است، پس برآورد خطا برای P1-P4 به چه صورت تحت تأثیر قرار می گیرد؟ 5. اگر P5 واقعاً غیر صفر است، پس از چه جهاتی تفسیرهای مدلی که P5 را شامل نمی شود ناقص است؟ با قرض گرفتن از پاسخ مایک لارنس (کسانی که از من آگاه‌تر هستند آزادند که آن را با نماد مدل کامل جایگزین کنند، من کاملاً مطمئن نیستم که بتوانم این کار را با وفاداری معقول انجام دهم): M2: `V1 ~ (1|V2) + V3 + (0+V3|V2)` (تخمین P1 - P4) M3: `V1 ~ (1+V3|V2) + V3` (تخمین P1-P5) _پارامترهایی که ممکن است تخمین زده شوند:_ **P1**: یک رهگیری جهانی **P2**: وقفه های اثر تصادفی برای V2 (یعنی برای هر سطح از V2، انحراف رهگیری آن سطح از رهگیری جهانی) ** P3**: یک تخمین کلی برای اثر (شیب) V3 **P4**: تأثیر V3 در هر سطح از V2 (بیشتر به طور خاص، میزان انحراف اثر V3 در یک سطح معین از اثر کلی V3)، در حالی که یک همبستگی صفر بین انحرافات رهگیری و انحرافات اثر V3 در سطوح V2 برقرار می‌کند. **P5**: همبستگی بین انحرافات رهگیری و انحرافات V3 در سطوح پاسخ های V2 حاصل از یک شبیه سازی به اندازه کافی بزرگ و گسترده همراه با کد همراه در R با استفاده از lmer قابل قبول است.
در یک مدل چند سطحی، پیامدهای عملی تخمین در مقابل برآورد نکردن پارامترهای همبستگی اثر تصادفی چیست؟
49830
آیا من اشتباه می کنم یا روش استاندارد بهینه سازی یک مدل یادگیری ماشینی این است که الگوریتم را بر روی مجموعه داده (اولیه) برای همه ترکیبات ممکن از پارامترها ارزیابی کنیم و سپس یکی را انتخاب کنیم که بهترین امتیاز ارزیابی را می دهد؟ اگر هنوز نمره قابل قبولی کسب نکردیم، باید مجموعه داده (اولیه) را برش داده و تاس کنیم و فرآیند را از ابتدا شروع کنیم، اما این بار آن را روی مجموعه داده جدید اعمال کنیم؟ آیا این به نظر شما درست است یا من اینجا چیزی را گم کرده ام؟
چگونه معمولاً بهترین ترکیب از پارامترهای یک مدل یادگیری ماشینی (برای یک مجموعه داده معین) را انتخاب می کنیم؟
46826
ابتدا باید بگویم که برای پاسخ در این سایت جستجو کردم. من یا سوالی پیدا نکردم که جواب سوالم را بدهد یا سطح دانشم آنقدر پایین است که متوجه نشدم قبلا جواب را خوانده ام. من در حال مطالعه برای آزمون آمار AP هستم. من باید رگرسیون خطی را یاد بگیرم و یکی از مباحث باقیمانده است. من یک نسخه از _مقدمه ای بر آمار و تجزیه و تحلیل داده ها_ در صفحه 253 دارم. > نقاط غیرمعمول در یک مجموعه داده دو متغیره، آنهایی هستند که از بیشتر > سایر نقاط در نمودار پراکندگی در جهت $x$ یا جهت $y$ > > > یک مشاهده به طور بالقوه یک **مشاهده تأثیرگذار** است. اگر یک مقدار > $x$ داشته باشد که از بقیه داده ها بسیار دور باشد (از بقیه داده ها در جهت $x$ جدا شده است). برای تعیین اینکه آیا مشاهده در واقع تاثیرگذار است یا خیر، ارزیابی می کنیم که آیا حذف این مشاهدات تاثیر زیادی بر مقدار شیب یا قطع حداقل مربعات دارد یا خیر. > > اگر یک مشاهده باقیمانده زیادی داشته باشد، **پرت** است. مشاهده Outlier > از خط حداقل مربع در جهت $y$ فاصله زیادی دارد. Stattreck.com چهار روش را برای تعیین نقطه پرت از باقیمانده ها بیان می کند: > نقاط داده ای که به میزان زیادی از الگوی کلی جدا می شوند، > پرت نامیده می شوند. چهار راه وجود دارد که یک نقطه داده را می‌توان یک > پرت در نظر گرفت. > > 1. می تواند در مقایسه با سایر نقاط داده دارای یک مقدار X شدید باشد. > 2. در مقایسه با سایر نقاط داده می تواند یک مقدار Y شدید داشته باشد. > 3. می تواند مقادیر X و Y شدید داشته باشد. > 4. ممکن است از بقیه داده ها دور باشد، حتی بدون مقادیر شدید X > یا Y. > به نظر می رسد این دو منبع با یکدیگر تضاد دارند. کسی میتونه کمک کنه تا ابهاممو برطرف کنم همچنین، چگونه می توان افراط را تعریف کرد. اگر نقطه داده خارج از (Q1-1.5IQR,Q3+1.5IQR) باشد، اگر نقطه داده خارج از آن باشد، آمار AP از قانون استفاده می کند. من نمی دانم چگونه می توان آن را فقط از یک نمودار از باقیمانده ها اعمال کرد.
باقیمانده تأثیرگذار در مقابل پرت
112992
بگویید من 16 روز کاری در ماه دارم و 16 روز داده تولید دارم تا میانگین و واریانس این داده روزانه داشته باشم (مثلاً میانگین 3750 و واریانس 500 است). من می توانم یک فاصله اطمینان برای داده های روزانه ایجاد کنم، اما چگونه می توانم عرض بازه را افزایش دهم تا یک فاصله اطمینان با همان سطح اطمینان برای میانگین تولید ماهانه ایجاد کنم؟ یعنی اگر من یک فاصله اطمینان 95% برای میانگین روزانه ایجاد کنم، یک فاصله اطمینان 95% برای میانگین ماهانه نیز می خواهم. [شما می توانید یک CI بسیار بزرگ را در حدود یک تاریخ تولید ماهانه ایجاد کنید، اما این چیزی نیست که من به آن علاقه دارم.] متشکرم!
CI برای تولید ماهانه بر اساس داده های تولید روزانه
24302
من یک تصویرسازی از محصولات مرتبط آمازون انجام دادم. هر پیوند در تجسم به این معنی است که دو محصول اغلب با هم خریداری می شوند. اکنون از تکنیک های مختلف تجزیه و تحلیل گراف استفاده می کنم و مجذوب نتایج هستم. با این حال، بزرگترین مشکل ترجمه اصطلاحات علمی به زبان انسانی است (لطفاً من را ببخشید اگر به نظر پوچ به نظر می رسد). به عنوان مثال، من مرکزیت درجه گره ها را محاسبه کردم و آن را «چه چیزی در اینجا محبوب است» نامیدم. پس از همه، گره متصل ترین به این معنی است که اغلب با تمام محصولات دیگر در یک نمودار مشخص خریداری می شود. در حال حاضر من روی _بین مرکزیت_ کار می کنم و نتایج بسیار جالبی به دست می دهد که اغلب با _مرکزیت درجه تناقض دارند. اما چگونه این نتایج را تفسیر می کنید؟ مهمترین محصولات؟ به عنوان مثال، نمودار کتاب های هنر برنامه نویسی R دارای 3 گره برتر زیر است: **مرکزیت درجه:** 1. هنر برنامه نویسی R \- 18 لبه خروجی 2. R Cookbook (کتاب آشپزی O'Reilly) \- 14 لبه های خروجی 3. انجام تجزیه و تحلیل داده های بیزی: آموزش با R و BUGS \- 10 لبه خروجی ** مرکزیت بین:** 1. هنر برنامه نویسی R \- مقدار مرکزیت 1210 2. به هر حال یک مقدار p چیست؟ \- مقدار مرکزیت 896 3. تجسم این \- مقدار مرکزیت 784 خود نمودار به این صورت است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/m3X1J.png)
مرکزیت بین در نمودار کتاب های آمازون اعمال شد
44469
من در حال انجام یک مطالعه گذشته نگر هستم که نشان می دهد چگونه مرگ و میر خوکچه ها با افزایش سن خوک ها متفاوت است. از آنجایی که داده‌های من برای هر گاو بیش از هفت سال است و هر خروس ممکن است تنها در یک یا دو سال تلفات داشته باشد، من با آمار توصیفی با مشکل زیادی روبرو هستم. آزمون فریدمن من در طول هفت سال اهمیت داشت، اما انحرافات استاندارد من در همه جا وجود دارد! من کمی در مورد فواصل اطمینان Cousineau در طراحی های درون موضوعی خوانده ام، اما نمی توانم اشاره ای به استفاده از آن در چیزی جز مطالعات روانشناسی پیدا کنم. آیا هنوز در اینجا کاربرد دارد و اگر نه، آیا کسی پیشنهادی در مورد اینکه چه کاری باید انجام شود دارد؟ من نمی توانم بفهمم چگونه نوارهای خطا را دریافت کنم که داده های من را بی اهمیت جلوه نمی دهد!
آمار توصیفی در یک مطالعه اندازه گیری مکرر
114099
من این خطا را هنگام اجرای fisher.test() در R دریافت می کنم: freqTable = 1 2 3 4 5 6 7 1 14 0 2 0 0 0 0 2 0 0 0 9 0 0 0 3 0 6 0 0 0 0 0 4 0 0 0 0 6 0 0 5 0 0 0 0 0 0 10 0 6 0 0 10 0 0 0 0 7 2 4 9 1 0 0 30 > fisher.test(freqTable, workspace=2e+07,hybrid=TRUE)$p.value خطا در fisher.test(freqTable, workspace = 2e +07، ترکیبی = درست) : خطای FEXACT 30. پشته طول در f3xact بیشتر شد. این مشکل نباید پیش بیاید. Chi-square نیز مشکل ساز است: chisq.test(freqTable) داده های تست Chi-squared پیرسون: freqTable X-squared = 466.81، df = 36، p-value < 2.2e-16 پیام هشدار: در chisq.test (freqTable): تقریب مجذور کای ممکن است نادرست باشد به نظر می رسد یک باز وجود دارد گزارش اشکال: https://bugs.r-project.org/bugzilla/show_bug.cgi?id=1662 می‌دانم آیا کسی راه‌حل مناسبی برای این موارد پیدا کرده است؟ با تشکر
fisher.test() و اشکال Chi-square در R
45737
اول: من با اصطلاحات آماری آشنا نیستم، لطفاً مرا ببخشید - سعی می کنم تا حد امکان در مورد مشکلم پرحرف باشم. این مشکلی است که قبلاً خیلی ساده لوحانه آن را حل کرده بودم. من به دنبال اعمال تئوری آماری استاندارد بیشتری برای این مشکل هستم تا به نتایج دقیق‌تری دست پیدا کنم. هر گونه کمکی در مورد اعتبارسنجی رویکرد یا (رد کردن آن) و روش‌هایی که بتوانم استفاده کنم، قدردانی می‌شود (حتی شرایط صحیح). مشکل مربوط به تجارت است: من مجموعه ای از محصولات (مثلا 100) دارم که دارای ویژگی های متنوعی هستند. برای این مثال، من 3 مورد از آنها را انتخاب می کنم: 1. درصد تخفیف (قیمت فعلی / RRP) * 100 2. بازدید (تعداد دفعات مشاهده شده) 3. سطح سهام با استفاده از این ویژگی ها می خواهم بتوانم قوانین مرتب سازی مختلف را در برای قرار دادن این محصولات در یک سفارش. قوانین مرتب سازی جایی است که پیکربندی اتفاق می افتد - اما بخش آماری مشکل من قبل از آن است. برای مقایسه این ویژگی های محصولات به درستی باید موارد زیر را انجام دهم: ## Standardize & Normalize. بنابراین مقادیر و توزیع این ویژگی ها: 1. درصد تخفیف: 0 تا 100 با توزیعی که اکثر محصولات دارای مقادیر 0 (50% محصولات)، 20 (25%)، 30 (10%)، 50 (15%) هستند. ) 2. بازدید: 0 تا 30000 با توزیع نسبتاً یکنواخت 3. سطح موجودی: 0 تا 40 با توزیع نسبتاً یکنواخت (اما متفاوت از توزیع برای بازدیدها) کل جمعیت را برای هر ویژگی می‌گیرم، و با استفاده از مقادیر حداکثر و حداقل، هر مقدار را بازنشانی می‌کنم تا در مقیاسی بین 0 تا 10 قرار دهم - جایی که حداکثر مقدار 0 و حداقل مقدار 10 است. هر یک از اعضا را بررسی می کنم اگر در صدک 0-10٪، صدک 10-20 و غیره باشد و به آن نمره 1 تا 10 می دهم. با این حال فکر می کنم این یک راه حل بسیار ساده لوحانه است زیرا اینطور نیست. توزیع را در نظر بگیرید برای برخی ویژگی‌ها، من 99 عضو از جمعیت را با امتیاز 10 و 1 عضو را با امتیاز 0 دریافت می‌کنم. من توزیع یکنواخت‌تری را می‌خواهم که در آن نقاط پرت نتوانند نتیجه نهایی را به شدت تغییر دهند (به این می‌گویند هموارسازی؟). من می‌توانم این کار را بعد از مرحله بالا انجام دهم - اما داده‌های زیادی در این نقطه (imo) از بین می‌رود تا کار خوبی در اینجا انجام شود. آیا تکنیکی برای انجام همزمان این دو مرحله وجود دارد (آیا این نام دارد؟). آیا من درست فکر می کنم که روش عادی سازی برای هر ویژگی ممکن است در نهایت متفاوت باشد؟ آیا باید از آزمون و خطا روی داده‌هایم استفاده کنم تا زمانی که به چیزی که رضایت‌بخش می‌دانم برسم یا می‌توانم بدون نیاز به تغییر دستی این فرآیند به توزیع یکسان‌تر دست پیدا کنم؟ من می خواهم طیفی از نمرات بین 0 و 1 (به جای 0 و 10) داشته باشم. من احتمالاً در نهایت از R برای کمک به من استفاده می کنم زیرا در همه حساب ها به نظر می رسد بهترین ابزار برای این کار است. من مطمئن نیستم که برای چیزی که من آن را یک مشکل نسبتاً ساده می‌دانم، زیاده‌روی است یا خیر - اما پیچیدگی موجود در فرآیند عادی‌سازی «صحیح» ممکن است فراتر از آن چیزی باشد که من به راحتی می‌توانم در زبان برنامه‌نویسی خود انجام دهم. قبل از اینکه به آن بپردازم، می‌خواهم فرضیات/نظریه‌ام را تأیید کنم. ## وزن دهی پس از انجام مراحل فوق، به متخصصان دانش دامنه اجازه می دهم وزن این ویژگی های مختلف را برای تعیین ترتیب مرتب سازی پیکربندی کنند (مثلاً ممکن است بخواهند بگویند تعداد بازدیدها 3 برابر مهمتر از آن زمان است. سطح سهام، در این صورت من رقم نماهای نرمال شده را در 3 ضرب می کنم و سپس قبل از مرتب سازی کل جمعیت، آن را به بقیه اضافه می کنم). من خوانده ام که گاهی اوقات این دانش می تواند در فرآیند استانداردسازی گنجانده شود - به طوری که خود ارقام اهمیت آنها را نسبت به سایر ویژگی ها در نظر می گیرند. من نمی خواهم این کار را انجام دهم. در مثال بالا در مورد جمعیت 100 نفر صحبت کردم. جمعیت واقعی من بین 1000 تا 50000 است، اما هنوز فکر می کنم این به اندازه کافی کوچک است تا بتوانم به جای نمونه برداری با کل مجموعه داده ها کار کنم. هر اشاره‌ای قدردانی می‌شود زیرا ساعت‌ها را صرف خواندن کرده‌ام و اکنون احساس می‌کنم که دارم دایره‌ای می‌روم. -ممنون
فرآیند استانداردسازی و عادی سازی داده ها
68424
فرض کنید مدل رگرسیون خطی نرمال کلاسیک زیر را داریم: $$y_i = \beta_1 x_{1i} + \beta_2x_{2i} + \beta_3x_{3i} + e_i$$ که $e_{i} \sim iid.N(0 ، \sigma^2)$ برای همه $i = 1، 2، \cdots، n$ و $x_{1i} = 1$ برای همه $i = 1، 2، \cdots، n$. فرض کنید که ما مقادیر داده ای را برای $x_{2i}$ و $x_{3i}$ برای همه $i = 1, 2, \cdots, n$ می شناسیم. تعریف $\boldsymbol{\beta} = (\beta_1, \beta_2, \beta_3)'$ و با فرض یک ماقبل غیر اطلاعاتی به شکل $p(\boldsymbol{\beta}, \sigma) \propto \frac{1 }{\sigma}$، سپس می‌توانیم نشان دهیم که pdf شرطی پسین برای $\boldsymbol{\beta}$ و $\sigma$، یعنی: $p(\boldsymbol{\beta}|\sigma، \mathbf{y})$ و $p(\sigma|\boldsymbol{\beta}،\mathbf{y})$ به ترتیب گامای عادی و معکوس هستند. سوال این است: از یک نمونه‌گیر گیبس استفاده کنید و pdf بعدی تابع پارامتر را تخمین بزنید: $\displaystyle \psi = \frac{\beta_2 + \beta_3}{\sigma^2}$. اکنون یک نمونه‌گر گیبس (در R) اجرا کرده‌ام و پس از سوختن در دوره 100 قرعه‌کشی، 1000 قرعه‌کشی $(\boldsymbol{\beta}^{(i)}، \sigma^{(i)} به دست آوردم. )$، یعنی من نمونه ای از $(\beta_1^{(i)}، \beta_2^{(i)}، \beta_3^{(i)} دارم، \sigma^{(i)})$ برای $i = 1، 2، \cdots، 1000$، چگونه می توانم از این ترسیم ها برای تولید تخمینی از pdf بعدی $\psi$ استفاده کنم؟ به عبارت دیگر، چگونه می توانم $p(\psi|\mathbf{y})$ را تخمین بزنم؟ * * * ویرایش: من تازه وارد لگاریتم MCMC هستم. من منظور شما را درک می کنم، اما هنوز مطمئن نیستم که چگونه از آن در زمینه این سوال استفاده کنم. با توجه به آنچه تاکنون آموخته ام، بگوییم که $\boldsymbol{\theta} = (\theta_1, \theta_2)'$ و $p(\boldsymbol{\theta}|\mathbf{y}) = p(\) داریم theta_1، \theta_2|\boldsymbol{y})$ قسمت خلفی مشترک است، سپس خلفی حاشیه ای $\theta_1$ توسط $p(\theta_1|\mathbf{y}) = \int_{\theta_1} p(\theta_1|\theta_2,\mathbf{y})p(\theta_2|\mathbf{y})d\theta_2$، اکنون بگو من نمونه ای از $M$ قرعه کشی $(\theta_1^{(i)}، \theta_2^{(i)})$ از $p(\theta_1، \theta_2|\boldsymbol{y})$، سپس برای تخمین $p(\theta_1|\mathbf{y})$، از میانگین نمونه زیر استفاده می‌کنیم: $\widehat{p(\theta_1| \mathbf{y})} = \frac{1}{M} \sum_{i=1}^M p(\theta_1|\theta_2^{(i)}، \mathbf{y}) $، یعنی چگالی حاشیه ای را با میانگین گیری از چگالی های شرطی تخمین می زنیم. چگونه می توانم آن را در اینجا پیاده سازی کنم؟ * * * EDIT2: پس از کمک @Tomas و @BabakP، من سعی کردم خودم مشکل را در R کدنویسی کنم (من کاملاً در R جدید هستم، فقط در چند هفته گذشته زبان را یاد گرفتم). کد زیر من است: (توجه: فقط برای تمرین، من عمداً مسیر دیگری را برای ترسیم از هر شرطی به جای تجزیه کارآمدتر @BabakP رفتم) ################## ############################################### نسل از داده = y ############################################## ################# true_beta = ماتریس(c(2,0.5,0.7),3,1) ## مقدار واقعی بتا (بردار) مورد استفاده در فرآیند تولید داده ( dgp) true_sig = 0.3 ## مقدار واقعی sig استفاده شده در فرآیند تولید داده (dgp) ## تنظیم اعداد تصادفی seed set.seed(123456, kind = NULL, normal.kind = NULL) ## تعداد مشاهدات nobs=20 # # ایجاد مقادیر x1، x2، x3 و y. استفاده از توزیع گاوسی در اینجا برای راحتی. x1 = ماتریس (1، نوب، 1) x2 = ماتریس (c(rnorm(nobs،0،1))، نوب، 1) x3 = ماتریس(c(rnorm(nobs،0،1)، نوب، 1) u = ماتریس(c(rnorm(nobs,0,1)),nobs,1)%*%true_sig x = cbind(x1,x2,x3) y = x%*%true_beta + u ############################################################# #################### مشخصات آمار نمونه ############################################### ######### invxx = حل(t(x)%*%x) betahat = invxx%*%t(x)%*%y df = nobs - 3 Sighat = sqrt((t(y-x%*%betahat)%*%(y-x%*%betahat))/df) ######################## ########################################## نسل قرعه کشی بتا/سیگما/psi از طریق نمونه گیری گیبس ### ############################################################# ############################## B = 100+1 ## +1 اضافی از آنجایی که نمونه‌گر گیبس کد شده در زیر از j=2 شروع می‌شود، بنابراین دوره سوختن از j=2 تا j=101 M = 1000 ## تعداد قرعه کشی ها پس از سوختن در دوره است. repl = B+M ## تعداد کل تکرارهای گیبس از جمله رایت در و تعداد تساوی بعد از رایت در دوره. ## اندازه‌گیری ماتریس بتا/سیگما/psi رسم می‌کند ## betav = ماتریس(0,repl,3) sigv = ماتریس(0,repl,1) psiv = ماتریس(0,repl,1) ## ایجاد تصادفی عادی زیربنایی ترسیم برای استفاده در الگوریتم گیبس stnbeta = ماتریس(c(rnorm((repl*3),0,1)),repl,3) ## تعیین مقدار شروع برای زنجیره گیبس sigv[1] = true_sig ## نمونه برداری گیبس برای (j در 2:repl){ # # تولید بتا (بردار) از طریق میانگین چند متغیره معمولی شرطی شناخته شده آن = betahat varb
نمونه برداری گیبس برای تولید پی دی اف پسین
68426
من سعی می کنم دو سری زمانی صفحه گسترده اکسل خود را (به لینک زیر مراجعه کنید) در یک جدول احتمالی قرار دهم. https://www.dropbox.com/s/2f96oylxj97fuih/example.xls سری اول تعداد اشتراک در هر ساعت به مدت 24 ساعت است. سری دوم شامل ساعاتی است که تبلیغات برای ایستگاه های رادیویی مختلف نمایش داده می شود (مثلاً تبلیغ برای کانال 1 در ساعت 14:00). من در مورد امکان سنجی قرار دادن این 2 سری زمانی در جدول احتمالی تردید دارم. آیا این معقول است؟
جدول احتمالی با 2 سری زمانی مختلف
79138
من با آزمون log-rank برای مقایسه چندین منحنی Kaplan-Meier آشنا هستم، اما به دنبال آزمونی هستم که بین گروه های مرتب شده (یک متغیر ترتیبی) مقایسه کند. نتیجه معنی دار از آزمون رتبه بندی ورود به سیستم نشان می دهد که حداقل یکی از گروه ها دارای منحنی بقا متفاوت از بقیه است. من آزمایشی می خواهم که در آن یک آزمون معنی دار نشان دهد که یک روند یکنواخت در منحنی های بقا در سطوح متغیر گروه بندی ترتیبی وجود دارد. به عنوان مثال ملموس تر، منحنی های بقا را برای سرطان در مراحل مختلف در نظر بگیرید، و من می خواهم نشان دهم که نه تنها منحنی ها متفاوت هستند، بلکه با افزایش مرحله، بقا بدتر می شود. به عنوان یک امتیاز، اشاره گرها به پیاده سازی الگوریتم در R قدردانی می شوند. * * * ویرایش به آدرس «@dardisco» نظر: وقتی سعی کردم یک آزمایش مناسب پیدا کنم، مرجعی پیدا کردم که در مستندات نرم افزار MedCalc در http://www.medcalc.org/manual/ مناسب به نظر می رسید. kaplan-meier.php. دو نقل قول که شبیه آنچه من از آن می خواستم به نظر می رسید عبارتند از > گزینه ها: روند خطی برای سطوح فاکتور: آزمایش روند خطی > در سطوح فاکتور را امکان پذیر می کند. اگر سطوح فاکتور دارای نظم طبیعی > باشند، مناسب است (به عنوان مثال، کدهای عامل دوزهای اعمال شده برای > گروه های مختلف را نشان می دهند). کاپلان-مایر فرض می کند که سطوح عامل به طور مساوی > فاصله دارند. و > تست Logrank برای روند: اگر بیش از دو منحنی بقا مقایسه شود، و > ترتیب طبیعی گروه ها وجود داشته باشد، آنگاه MedCalc می تواند تست > logrank را نیز برای روند انجام دهد. این احتمال وجود یک روند در > نمرات بقا در گروه ها را آزمایش می کند. اما الگوریتم خاصی برای این تست بیان نشده است.
مقایسه منحنی های Kaplan-Meier در گروه های مرتب شده
112997
من در مدل‌سازی داده‌های درصدی تازه کار هستم، و برای مشاوره بسیار خوشحال خواهم شد. من داده‌های نسبتی دارم (0,1] درصدی از پول ارسال شده توسط بازیکن B به بازیکن A. شرکت‌کنندگان مقداری پول دریافت کردند و می‌توانستند تصمیم بگیرند که چه درصدی را پس خواهند فرستاد. من دو پیش‌بینی کننده طبقه‌بندی دارم (اول با 3 عامل، 2 با یک پیش بینی پیوسته و یک ضریب تودرتو (کلاس) ، من متوجه شدم که بهترین گزینه رگرسیون بتا است سعی کردم از بسته hglm استفاده کنم که به خوبی منطبق شد، با این حال، از آنجایی که داده ها یک بار متورم هستند (بسیاری از افراد تصمیم گرفتند مقدار کامل را ارسال کنند)، من به دنبال گزینه های دیگری هستم، همانطور که به نظر می رسد مناسب ترین بسته gamls باشد. که می‌تواند از توزیع BEOI (بتا یک بادشده) استفاده کند. family=BEOI, data=dat, mix=gq, K=1) از آنچه من از فایل های راهنمای بسته می فهمم، این باید ساده ترین گزینه باشد، با این حال، نتایج بسیار متفاوتی از دستور 'hglm' ایجاد می کند خطاهای استاندارد بالاتر از ضرایب بتا است که منجر به نتایج غیر قابل توجهی می شود. من سعی کردم توابع دیگر را در مدل مشخص کنم (به عنوان مثال، K، sigma.formula، nu.formula، مخلوط و غیره)، اما اینها خارج از درک من هستند، و من واقعا مطمئن نیستم که در آنجا چه کار کردم. من بسیار قدردان هر گونه پیشنهادی در مورد چگونگی تعیین بهتر مدل یا توضیحات ساده عملکرد «gamlss» هستم.
یک رگرسیون بتای متورم با اثرات تصادفی با استفاده از GAMLSS
44464
من داده های دو بعدی دارم (میانگین داده های نرمال شده صفر دارم). من ماتریس کوواریانس، مقادیر ویژه و بردارهای ویژه آن را می دانم. من می خواهم تصمیم بگیرم که آیا بعد را به 1 کاهش دهم یا خیر (من از تجزیه و تحلیل مؤلفه اصلی، PCA استفاده می کنم). چگونه می توانم تصمیم بگیرم؟ آیا روش شناسی برای آن وجود دارد؟ من دارم به دنبالش هستم اگر به این نسبت نگاه کنید و اگر این نسبت زیاد است، منطقی است که با کاهش ابعاد ادامه دهید. **PS 1:** آیا PoV (نسبت تغییرات) مخفف آن است؟ ** PS 2: ** در اینجا یک پاسخ وجود دارد: PCA و نسبت واریانس توضیح داده شده است آیا معیاری برای آزمایش آن است؟ ** PS 3: ** آیا معیار قیصر برای آن است؟ ** PS 4: ** اگر می خواهید درگیر این سؤال شوید، نظرات زیر را نخوانید فقط سؤال را بخوانید اشکالی ندارد.
تصمیم گیری در مورد کاهش ابعاد با PCA
79131
من محدوده هایی از مقادیر و فرکانس های هر محدوده را دارم. شرکت کنندگان در صورت درخواست، یک محدوده کامل را انتخاب کردند، نه یک مقدار خاص. مثال: محدوده [0,20] : فرکانس = 20 محدوده (20,60]، فرکانس = 10 محدوده (60، 100]، فرکانس = 15 من سعی می کنم بفهمم که چگونه یک فاصله اطمینان به دست بیاورم، چیزی شبیه به یک میانگین فاصله مقادیری که من دارم، با داشتن سطح اطمینان 95 درصد، با فرض اینکه محدوده ها نشان دهنده چند دقیقه در صف سوپرمارکت هستند، من می خواهم برای گفتن هی ... با توجه به داده ها، اگر به سوپرمارکت بروید احتمالاً 30-40 دقیقه در صف خواهید ماند.
فاصله اطمینان محاسباتی برای محدوده، سطح اطمینان 0.95
2910
ما اغلب در مورد الگوهای مدیریت پروژه و طراحی در علوم کامپیوتر می شنویم، اما کمتر در تحلیل های آماری. با این حال، به نظر می رسد که گامی تعیین کننده در جهت طراحی یک پروژه آماری موثر و بادوام، سازماندهی امور است. من اغلب از استفاده از R و سازماندهی ثابت فایل ها در پوشه های جداگانه (فایل داده خام، فایل داده تبدیل شده، اسکریپت های R، شکل ها، یادداشت ها و غیره) حمایت می کنم. دلیل اصلی این رویکرد این است که ممکن است بعداً تحلیل خود را آسان‌تر انجام دهید (مثلاً وقتی فراموش کردید که چگونه یک طرح مشخص را تولید کرده‌اید). **بهترین شیوه ها برای مدیریت پروژه آماری**، یا توصیه هایی که می خواهید از تجربه خودتان ارائه دهید چیست؟ البته این در مورد هر نرم افزار آماری صدق می کند. (_یک پاسخ در هر پست لطفا_ )
چگونه یک پروژه تحلیل آماری را به طور کارآمد مدیریت کنیم؟
24304
من همان کد را در R و R-studio اجرا کردم، اما دو نتیجه متفاوت گرفتم. آیا کسی می داند چرا این اتفاق می افتد و آیا راه حلی برای آن وجود دارد؟ اگر راه حلی وجود ندارد، کدام برنامه صحیح برای استفاده است؟ برخی از اطلاعات در مورد کدی که اجرا می کنم: من از smooth.spline() به عنوان تنها تابع r-function ساخته شده استفاده می کنم (و بقیه کد من است که از یک برنامه به برنامه دیگر کپی/پیست شده است). من اعداد تصادفی تولید نمی‌کنم (مگر اینکه smooth.spline() جایی در نحوه عملکرد آن انجام دهد)، و وقتی کد را چندین بار در یک برنامه اجرا می‌کنم، همان نتایج را دریافت می‌کنم. همچنین، نتایج در رایانه های مختلف در یک برنامه یکسان است. خیلی برای نتایج تکرارپذیر! **ویرایش:** تنها تفاوتی که می توانم پیدا کنم این است که RStudio 64 بیتی است و R 32 بیتی است. این کدی است که من اجرا می کنم. پس زمینه بیشتر، این وظیفه کدگذاری الگوریتم ACE خودمان برای حداکثر همبستگی است. من می دانم که در حال حاضر یک تابع r وجود دارد (و مطمئن هستم که کارآمدتر از این است). my.ace <- تابع(x, y, tol=1e-6, maxiter=500) { # ورودی: # # x # - بردار عددی با طول n # y # - بردار عددی با طول n # tol # - حداکثر تحمل برای همگرایی (> 0) # ماکسیتر # - حداکثر تعداد تکرار (> 1) # # خروجی: # # fx # - تبدیل بهینه x # gy # - تبدیل بهینه y # maxcor # - همبستگی بین fx و gy # iter # - تعداد تکرارهای انجام شده # بررسی ورودی if(!is.numeric(x) || !is.numeric(y) || length( x) != length(y)) { stop('x و y باید بردارهای عددی با طول یکسان باشند') } if(tol <= 0 || maxiter < 2) { stop('tol باید بزرگتر از 0 و maxiter باید بزرگتر از 1' باشد) } # متغیرهای setup fx <- x-mean(x) fx <- fx/sqrt(sum(fx^2)) gy < - y corOld <- -100 corNew <- sum(fx*gy) تکرار <- 0 # اجرای الگوریتم ace while(abs(corNew-corOld) >= tol && iter < maxiter) { iter <- iter + 1 corOld <- corNew gy <- smoother(fx,gy) gy <- gy-mean(gy) gy <- gy/ sqrt(sum(gy^2)) fx <- smoother(gy,fx) fx <- fx-mean(fx) fx <- fx/sqrt(sum(fx^2)) corNew <- sum(fx*gy) } # نتیجه بازگشت (list(fx=fx,gy=gy,maxcor=corNew,iter=iter)) }
تفاوت های خروجی R در مقابل R Studio
112996
من یک پروژه تحقیقاتی در مورد پیدا کردن تعامل کاربر در توییتر دارم. اگر بخواهم اطلاعات متقابل بین دو کاربر A,B: I(A,B) را محاسبه کنم تا احتمال حضور A و B در یک بحث را بدانم. پس چگونه می توانم این را محاسبه کنم؟ p(A)، p(B) و p(A,B) در این مورد چه می تواند باشد؟ همانطور که فکر می کردم p(A) (تعداد بحث ها دارای A)/(تعداد کل بحث ها) p(A,B) است (تعداد اگر بحث ها دارای A و B باشند)/(تعداد کل بحث ها) صحیح است؟ من در یادگیری آماری خیلی خوب نیستم بنابراین امیدوارم بتوانید کمی واضح و با جزئیات برای من توضیح دهید. با تشکر
محاسبه اطلاعات متقابل از تعاملات کاربران توییتر
109593
من می‌خواهم یک **مدل طولی** را برای جایی که _چند سوژه در طول زمان نتایج باینری را تجربه می‌کنند_ مناسب کنم. برای انجام این کار، می‌خواهم از یک اثر تصادفی افزایشی برای هر موضوع و یک فرآیند خطای خودبازگشت برای مدل‌سازی ثبات زمانی در «احتمال موفقیت» استفاده کنم. برای نشان دادن، من داده‌ها را از مدل زیر شبیه‌سازی می‌کنم: $\text{logit}(\mu_{it}) = \alpha_i + \beta x_i + \epsilon_{it}$ where $\alpha_i \sim \text{N }(0, \sigma_{\alpha}^2), \quad \epsilon_{it} \sim \rho \, \epsilon_{i, t-1} + \nu_t, \quad \nu_t \sim \text{N}(0, \sigma_{\nu}^2)$ و مشاهده می‌کنیم: $Y_{it} \sim \text{برنولی}(\ mu_{it})، $ برای موضوعات $i = 1، \ldots، N$ و دوره های زمانی $t = 1، \ldots، T$. این یک مدل طولی ضعیف است زیرا هیچ شرایط رشد ثابتی وجود ندارد (مثلاً تابع زمان)، اما فکر می‌کنم برای اهداف این بحث کافی باشد. بسته lme4 در R با همه چیز در این مشکل کار بسیار خوبی انجام می دهد به جز مشکل پایداری زمانی. بنابراین من به **nlme** رفتم، اما فکر نمی‌کنم هیچ‌وقت کار کند، حداقل به روشی که سعی می‌کنم از آن استفاده کنم. من می خواهم بدانم چه اشتباهی رخ داده است، و هر راهبردی برای تحقق این امر وجود دارد. _فرایند تولید داده_ N <- 500 n <- 15 ar = 0.8 dat.list <- list() ids.list <- list() fixed.list <- list() ran.effs <- 0.75 * rnorm(N) x <- rnorm(N) برای (i در 1:N) {lin.pred <- 0 + ran.effs[i] + 0.7 * x[i] + arima.sim(n = n، list(ar = ar، sd = 0.5)) dat.list[[i]] <- as.numeric(runif(n) <= plogis(lin. pred)) ids.list[[i]] <- rep(i, n) fixed.list[[i]] <- rep(x[i], n)} longit.df <- data.frame(id = unlist(ids.list)، x = unlist(fixed.list)، y = unlist(dat.list)) _Model Fitting_ (انبوه خطا) library(nlme) my.nlme <- lme(y ~ x، داده = longit.df، تصادفی = ~ 1 | وزن = varPower(form = ~ fitted(.)*(1-fitted(.))، ثابت = 1)، cor = corAR1(0.6، فرم = ~ 1 | id))
نحوه برازش یک مدل طولی با نتایج باینری
2914
وقتی شما هستید که کار را انجام می دهید، با آگاهی از کاری که انجام می دهید، این حس را در خود ایجاد می کنید که چه زمانی بیش از حد با مدل تناسب دارید. برای یک چیز، می توانید روند یا زوال را در مربع R تنظیم شده مدل دنبال کنید. شما همچنین می توانید یک بدتر شدن مشابه را در مقادیر p ضرایب رگرسیون متغیرهای اصلی دنبال کنید. اما وقتی مطالعه شخص دیگری را می خوانید و هیچ بینشی در مورد فرآیند توسعه مدل داخلی آنها ندارید، چگونه می توانید به وضوح تشخیص دهید که آیا یک مدل بیش از حد مناسب است یا خیر.
چگونه تشخیص دهیم که یک مدل رگرسیون بیش از حد مناسب است؟
80123
فرض کنید، من انجام داده ام: * $n_1$ کارآزمایی مستقل با نرخ موفقیت ناشناخته $p_1$ و مشاهده $k_1$ موفقیت. * $n_2$ کارآزمایی مستقل با نرخ موفقیت نامشخص $p_2$ و مشاهده $k_2$ موفقیت. اگر اکنون $p_1 = p_2 =: p$ اما هنوز ناشناخته است، احتمال $p(k_2)$ برای مشاهده $k_2$ برای $k_1$ معین (یا برعکس) با $\int_0^1 B(n_1) متناسب است. ,p,k_1) B(n_2, p, k_2) \text{d}p = \frac{1}{n_1+n_2+1}\binom{n_1}{k_1}\binom{n_2}{k_2}\binom{n_1+n_2}{k_1+k_2}^{-1}$، بنابراین اگر من می‌خواهم برای $p_1 \neq p_2$ آزمایش کنم، فقط باید ببینم مشاهدات من در کدام چندک از توزیع مربوطه قرار دارند. تاکنون برای اختراع مجدد چرخ. اکنون مشکل من این است که نمی توانم این را در ادبیات پیدا کنم، و بنابراین می خواهم بدانم: اصطلاح فنی برای این آزمون یا چیزی مشابه چیست؟
تست کنید که آیا دو نمونه از توزیع های دوجمله ای با p یکسان مطابقت دارند یا خیر
81295
مشکلی که من روی آن کار می‌کنم نه تنها از من می‌خواهد از چندین سطح استفاده کنم، بلکه از مجموعه‌ای از ویژگی‌ها نیز مشخص کنم که کدام یک را می‌توان به عنوان سطح در نظر گرفت. منبع خوبی برای درک مدل های ترکیبی چیست؟ همچنین، قبل از استفاده از چنین مدل هایی، چه مفاهیمی باید درک شود؟ و چه مدل های دیگری می تواند در چنین تنظیمات سلسله مراتبی مفید باشد.
چه منابع خوبی برای درک مدل های آماری سلسله مراتبی مانند مدل های ترکیبی وجود دارد؟
45738
من آزمایشی دارم که مشاهداتی از زمان تا زمانی که یک رویداد رخ دهد تولید می کند. برخی از ویژگی های اساسی عبارتند از 1. ما تعداد رویدادهایی را که در نقطه ای از $t_1،...,t_n$ رخ داده اند، می شماریم. 2. زمان‌های رویداد با فاصله سانسور می‌شوند، بین $(t-1,t]$، 3. افراد آزمایشی را بین $t_1،...t_n$ ترک نمی‌کنند، یعنی یک فرد یا رویداد را با $t_1$ تجربه می‌کند یا نمی کند، در این مرحله آنها سانسور می شوند. به نظر می رسد که این یک برنامه طبیعی برای تجزیه و تحلیل بقا باشد $m_{1,...,s}$ شمارش رویدادها (که در آن $s$ تعداد نمونه ها است) برای هر زمان مشاهده $t_i$ من نسبتاً تازه وارد آمار هستم من در تلاش هستم تا ببینم چگونه می توان تجزیه و تحلیل بقا را برای این داده ها اعمال کرد (اگر حتی قابل اجرا باشد و روش های مناسب تری برای اندازه گیری این نوع داده های زمان تا رویداد وجود نداشته باشد، تمایل من به ساخت تابع بقا در اطراف است). میانگین تعداد رویدادهای مشاهده شده در هر بازه (یعنی $\bar{m}_{1,...,n}$)، که بهتر است تعداد رویدادهای مورد انتظار در هر بازه زمانی در جمعیت را تقریب بزند، با این حال من نمی دانم که آیا این مناسب است یا پیامدهای آن. من در Google Scholar جستجوی فایده ای نداشتم، اگر کسی می تواند مطالب بیشتری را به من نشان دهد (یا نامگذاری صحیح کاری را که می خواهم انجام دهم به من بدهد)، ممنون می شود. ### ویرایش با توجه به اینکه بازه‌های $(t-1, t]$ در همه نمونه‌ها یکنواخت هستند، بگویید که من ماتریس زیر را داشتم که تعداد تجمعی افراد را توصیف می‌کند که یک رویداد در هر بازه برای آنها رخ داده است $M = \left. (\begin{array}{ccc} 0 & 24 & 35 & 52 & 60 & 71 \\\ 0 & 22 & 38 & 57 & 64 & 75 \\\ 0 & 26 & 34 & 55 & 62 & 72 \\\ 0 & 21 & 32 & 52 & 61 & 73 \end{array}\right)$ جایی که هر ردیف تعداد رویداد را برای مجموعه یکسانی از افراد در معرض خطر در $t=0$ در تمام نمونه ها (یعنی چندین نمونه آزمایش) و هر ستون یک بازه مشاهده فرض می کنم که با گرفتن میانگین تعداد رویدادها برای هر بازه، می توانم تخمین بهتری از بقای مورد انتظار جمعیت داشته باشم، بنابراین اجازه دهید $n$ نشان دهنده تعداد بازه های زمانی باشد، $s$ نشان دهنده تعداد نمونه ها باشد. نمونه‌های آزمایش)، سپس بردار $\bar{M} = \left[ {{\sum_{i=1}^{s}M_{it}}\over{s}} \right]_{t=1...n}$ میانگین تعداد رویدادهای مشاهده شده برای هر بازه زمانی خواهد بود، پس هدف من استفاده از آن به عنوان ورودی تخمین بقا است. اجازه دهید $f$ تعداد افراد در معرض خطر زمانی که $t=0$ باشد. با استفاده از برآوردگر ساده لوح (در حال حاضر، با توجه به اینکه فواصل رویداد در همه نمونه ها یکنواخت است و تا $t_n$ سانسور وجود ندارد)، تابع survivor را می توان به صورت زیر تخمین زد: $S(t) = {{f - \bar{ M}_t}\over{f}}$ که (امیدواریم) تخمین بهتری از بقای جمعیت نسبت به هر نمونه فردی باشد (یک ردیف از $M$). برای فرمول بندی مجدد سوالم: 1. آیا $\bar{M}$ ورودی مناسبی برای تخمین تابع بقا است؟ من این رویکرد را در هیچ یک از مطالبی که خوانده ام ندیده ام. 2. از آنجایی که من واقعاً به طرز دردناکی در آمار مبتدی هستم، آیا کسی می تواند به من برخی مطالب (مقالات دانشگاهی، کتاب های درسی، ویکی ها و غیره) را در مورد تخمین فاصله اطمینان و واریانس برای این تخمین تابع بقا به من نشان دهد؟ من فرض می کنم که با فرمول های استاندارد یکسان نخواهد بود. پوزش می طلبم اگر سوال اصلی من گیج کننده بود، احتمالاً اطلاعات کافی درج نکردم.
کاربرد مناسب تجزیه و تحلیل بقا
94508
اگر بخواهم بفهمم که یک متغیر وابسته چقدر با متغیرهای وابسته دیگر در یک مطالعه مرتبط است، آیا از رگرسیون چندگانه استفاده می کنم؟ دلیلی که می‌پرسم این است که کتاب ذکر می‌کند که برای مثال برای انجام یک رگرسیون استاندارد، باید تمام متغیرهای مستقل و متغیر وابسته مربوطه را در SPSS وارد کنم. در صورت نیاز به یافتن رابطه بین دو یا چند متغیر وابسته، روش مطمئن نیستم. لطفا شفاف سازی کنید با تشکر
چگونه می توان همبستگی بین متغیرهای وابسته را پیدا کرد؟
112990
چه رویکردهایی برای مشخص کردن میزان خرابی از داده‌های استفاده و تعمیر و نگهداری یک ناوگان از واحدهای قابل تعمیر وجود دارد؟ داده‌های استفاده شامل شاخص‌های خطر (معمولاً سطوح ارتعاش یا تجاوز از حد عملیات)، مدت زمان عملیاتی، شرایط عملیاتی، و زمان‌های ضبط است. داده های تعمیر و نگهداری شامل رویدادهای تعمیر و نگهداری، زمان شروع / پایان است. برای ارزیابی سه مدل برای سیستم‌های قابل تعمیر برنامه‌ریزی کنید: مدل نرخ تعمیر ثابت (HPP/نمایی)، مدل قانون توان (دوان) و مدل قانون نمایی (مراجعه به بخش 8.4.5). چگونه مدل‌های نرخ تعمیر سیستم را متناسب می‌کنید؟ ://www.itl.nist.gov/div898/handbook/toolaids/pff/apr.pdf
میزان خرابی واحدهای قابل تعمیر از داده‌های استفاده و نگهداری
79687
زمینه: من مجبور شدم برای یک موکل (نوعی وکیل) که در آمار مبتدی مطلق بود، تجزیه و تحلیل داده انجام دهم. او از من پرسید که اصطلاح اهمیت آماری به چه معناست و من واقعاً سعی کردم آن را توضیح دهم ... اما از آنجایی که من در توضیح چیزها خوب نیستم شکست خوردم ;)
چگونه اهمیت آماری را برای افراد بدون پیشینه آماری توضیح می دهید؟
62044
من دو مجموعه داده $X$ و $Y$ دارم که داده های جفت شده دارند، اما یکی از مجموعه ها بزرگتر از دیگری است. من به خطای استاندارد تفاوت $Z = X - Y$ علاقه مند هستم. حدس می‌زنم می‌توانم از روشی که در اینجا توضیح داده شد استفاده کنم، اما همچنین می‌خواهم انحراف استاندارد را با توجه به اندازه‌های نمونه وزن کنم. بنابراین من به این فرمول برخوردم: $$ s^2_{pooled} = \frac{(n_1-1)s^2_1 + (n_2-1)s^2_2}{n_1+n_2-2} $$ که مشترک را می دهد انحراف استاندارد $Z$. حال سوال: در فرمول بالا، آیا می توانم فقط $s^2$ را با خطای استاندارد مربوطه X و Y جایگزین کنم و در پایان جذر آن را بگیرم؟ یا باید ابتدا $s^2_{pooled}$ و تقسیم بر $\sqrt{n}$ را محاسبه کنم؟ و اگر دومی، کدام $n$ را برای آن بگیرم؟ آیا خوب است که یک N متوسط را استخراج کنیم، به عنوان مثال. $(n_1 + n_2) / 2$؟ با تشکر
محاسبه خطای استاندارد تفاوت بین گروه های با N متفاوت
13018
من به دنبال یک روال بهینه سازی هستم که بتواند یک تابع هدف غیرخطی را با محدودیت های عدد صحیح بهینه کند. NuOPT برای S-Plus، CPLEX یا Matlab شامل بسته های بهینه سازی قدرتمند برای این نوع بهینه سازی ها می شود؟ آیا بسته مشابهی برای R وجود دارد؟ یا یک روش بهینه سازی (شاید الگوریتم ژنتیک) وجود دارد که بتواند این مشکل را حل کند؟ برای آنچه ارزش دارد، من یک بهینه سازی میانگین واریانس نمونه کارها را انجام می دهم. با تشکر
آیا بسته بهینه سازی R وجود دارد که بتواند محدودیت های عدد صحیح و توابع هدف غیر خطی را مدیریت کند؟
13019
من می خواهم داده کاوی را یاد بگیرم. آیا سخنرانی های ویدیویی رایگانی وجود دارد که فرآیند داده کاوی را به طور عمیق توضیح دهد؟
سخنرانی های ویدیویی در مورد داده کاوی؟
58700
من در اجرای Anova بر روی متغیرهای طبقه بندی شده در R و مطابقت با خروجی SPSS مشکل دارم. کاری که من باید انجام دهم این است که یک anova را روی مجموعه داده زیر اجرا کنم (مجموعه داده های ساخته شده است). اما، باید بدانم که آیا میانگین هر دسته به طور قابل توجهی از میانگین کل همه نژادها است. مسابقه رضایت 3 آسیایی 4 کاکاسیون 5 سیاهپوست آمریکایی 2 دیگر 5 آفریقایی آمریکایی 3 آمریکایی آفریقایی تبار 4 آفریقایی آمریکایی 5 آفریقایی آمریکایی 2 آسیایی 3 آفریقایی آمریکایی 1 کاکاسیون 1 کاکاسیون 1 کاکاسیون 5 دیگر 5 دیگر 5 دیگر 5 آفریقایی آمریکایی 5 آسیایی 4 آسیایی 5 دیگر 5 Other 5 Other 1 Cacasion 4 Cacasion به عنوان مثال، میانگین همه نژادها 3.5 است : > mean(test$Satisfaction) [1] 3.5 آنچه من می خواهم بدانم این است که آیا میانگین امتیاز برای هر مسابقه به طور قابل توجهی با میانگین کل 3.5 و p-value متفاوت است. من یک Anova را در R با مدل زیر اجرا کردم، اما R یک رده را به عنوان مرجع تنظیم می کند و تست در برابر بقیه است: > lm.test <- lm(test$Satisfaction ~ test$Race) > summary(lm.test) تماس: lm (فرمول = test$ Satisfaction ~ test$ Race) باقیمانده ها: حداقل 1Q Median 3Q Max -2.5714 -1.0000 0.4286 0.8482 2.0000 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 3.8571 0.5023 7.679 2.18e-07 *** test$RaceAsian -0.6071 0.8330 -0.729 0.4745 test$RaceCacasion -1.8514 -1.7020 * test$RaceOther 0.7143 0.7103 1.006 0.3266 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقیمانده: 1.329 در 20 درجه آزادی چندگانه R-squared: 0.391، تنظیم شده R-squared: 0.2997 F آمار: 4.28 در 3 و 20 DF، p-value: 0.01732 خروجی به من می گوید که میانگین برای آمریکایی آفریقایی تبار 3.8571 است و به طور قابل توجهی با میانگین گروه قفقازی متفاوت است. تفاوتی با میانگین گروه آسیایی و سایرین ندارد. آیا راهی وجود دارد که بتوانم وقفه را روی 3.5 در R قرار دهم و در مقایسه با میانگین و نه گروه مرجع، معنی دار شوم. یا اصلا باید از تست دیگری استفاده کنم؟ آمار من چندان عالی نیست، بنابراین اگر تست دیگری داشته باشد، توضیح مختصری در مورد کدام تست و نحوه اجرای آن در R عالی خواهد بود.
کمک به Anova از متغیر طبقه بندی و پیوسته در خروجی R و SPSS
58708
من اطلاعاتی در مورد دمای دریا در اعماق مختلف دارم. با این داده ها باید نوسانات فصلی و غیرفصلی را با برازش تابعی که از دو سینوسی با دوره های 12 و 6 ساعت بر روی داده های دما (برای هر عمق) تشکیل شده است، حذف کنم. تابع باید در نمودار فصلی قرار داده شود. و این تنظیم باید با روش حداقل مربع انجام شود.
حذف نوسانات فصلی و غیر فصلی با روش حداقل مربعات
51508
اگر من 3 متغیر، $X$، $Y$ و $Z$ داشته باشم، از چه رویکرد آماری می توانم برای پرسیدن این سوال استفاده کنم آیا در جمعیت X با $Y$ همبستگی دارد اما با $Z$ همبستگی ندارد؟ بدیهی است که من می توانم ارزیابی کنم که آیا $X$ با $Y$ همبستگی دارد و به طور جداگانه اگر $X$ با $Z$ همبستگی دارد و دارای دو مقدار p است: p1 <- cor.test(X,Y)$p.value p2 <- cor.test(X,Z)$p.value اما من مطمئن نیستم که چگونه این دو نتیجه را به نوعی ترکیب کنم **در یک p-value** از ترکیب من فرضیه یا شاید رویکرد کاملا متفاوتی برای این سوال وجود دارد؟
فرضیه ترکیبی X با Y همبستگی و با Z غیر همبسته است را آزمایش کنید.
58706
من بردارهایی با طول یکسان دارم که از 1 و 0 تشکیل شده است. سعی می کنم بفهمم چقدر شبیه هم هستند. تا اینجا من از فاصله همینگ استفاده می کنم که مجموع یک بردار و سپس مجموع بردار دوم را محاسبه می کنم و تفاوت بین این تفاوت روزها است. با 1 و 0 خیلی خوب کار می کند. مشکل من این است که به هیچ وجه نشان نمی دهد که تفاوت بردارها کجاست و واریانس خطا چقدر است. من به این فکر کرده ام که تعداد 1 را به 1 بردار بعدی و چند عدد 0 را نادرست بشمارم. اطلاعات کمی بیشتر می دهد اما هنوز چیزی در مورد واریانس خطا نمی گوید. بردارها برای نشان دادن اشغال خانه در زمان استفاده می شوند، که هر 1 نشان می دهد که خانه اشغال شده است و 0 نشان می دهد که نیست. از این رو سعی می کنم پیش بینی کنم که روز بعد چگونه خواهد بود.
معیارهای فاصله برای بردارهای باینری
13010
من چندین تست Chi-square انجام داده ام و می خواهم اندازه اثر را اندازه گیری کنم. من تعدادی جدول 1x2، جدول 1x4، 4x9، و 3x4 جدول داده های فرکانس دارم. اگر هر سلول فرکانس مورد انتظار متفاوتی داشته باشد، از چه معیار اندازه اثر می توانم در این جداول فرکانس مستطیلی استفاده کنم؟ (من می خواهم از چیزی مانند Cramer's V استفاده کنم، اما فقط برای جداول با فرکانس های مورد انتظار یکسان اعمال می شود.) داده های نمونه: دو گروه، نادرست مشاهده 535 (مورد انتظار: 3/4)، درست مشاهده 222 (مورد انتظار) : 1/4).
اندازه اثر برای جدول فرکانس مستطیلی
79130
در R من از بسته های plyr، stringr، Hmisc و ggplot2 زیاد استفاده می کنم. هر یک از این بسته‌ها کد پایه را می‌گیرند و عملکردهایی را ایجاد می‌کنند که بصری‌تر و کار کردن با آن‌ها آسان‌تر است. هر یک از این بسته‌ها تمایل دارند بر روی جنبه‌های جمع‌آوری داده‌ها و اکتشاف تجزیه و تحلیل داده‌ها تمرکز کنند. آیا بسته هایی وجود دارد که کار با مدل های خطی را آسان تر و شهودی تر کند؟
بهترین بسته های مدل سازی در R؟
44461
من در مورد روش های بیزی برای انجام تجزیه و تحلیل بقا مطالعه کرده ام. یکی از چیزهایی که به من توجه می کند این است که در حدود سه کتابی که خوانده ام هیچ اشاره ای به دست دادن کراوات نشده است. افرون، برسلو، یا دقیق. آیا این عارضه محدود به درمان های آماری مکرر است؟
پیوندها در تحلیل بقای بیزی
76988
چنین مشکلی وجود دارد: ما باید طبقه‌بندی چند برچسبی (تخصیص برچسب‌ها) مقالات متنی را با استفاده از مجموعه آموزشی از پیش برچسب‌گذاری شده پردازش کنیم. اما برای بسیاری از متون در مجموعه آموزشی باید تگ های بیشتری نسبت داده شود که توسط نویسندگان آنها انجام شده است. به عنوان مثال، متنی در مورد طب جنگ وجود دارد و فقط متن جنگ به آن اختصاص داده شده است و برچسب پزشکی حذف شده است. آیا هیچ روش متداول و مرسومی برای مقابله با چنین داده هایی وجود دارد؟
طبقه بندی داده ها با مجموعه برچسب های ناقص
115174
فرض کنید می خواهید قد ($y$) را بر اساس سن ($x$) پیش بینی کنید. یک رگرسیون خطی مستقیم به خوبی کار نخواهد کرد، زیرا رشد انسان در سن خاصی متوقف می شود. این نشان می‌دهد که در عوض سعی کنید ارتفاع را به‌عنوان چیزی شبیه‌سازی کنید: $y = w\cdot \mathrm{squash}(x, a, b) + w_0$ که در آن $\mathrm{squash}(x,a,b) = \max( a, \min(x,b))$ به طور کلی، هنگام تلاش برای پیش‌بینی مقداری متغیر وابسته $y$ از متغیرهای وابسته $x_1، x_2، ...، x_n$، برخی از آنها انتظار داشته باشید که ویژگی‌های اسکواش را مانند این نمایش دهید، به نظر می‌رسد ایده خوبی است که $y$ را با چیزی شبیه به این مدل کنید: $y = w_0 + \sum_{i=1}^n w_i\cdot\mathrm{squash(x_i , a_i, b_i)}$ من نمی دانم چه تکنیک های منظمی برای تخمین $\vec{w}, \vec{a}, \vec{b}$ وجود دارد.
تکنیک های رگرسیون برای متغیرهای مستقل محدود شده
79684
تلاش برای برازش یک مدل اثرات مختلط خطی با 2 پیش بینی کننده طبقه بندی شده (گروه و کارگر) که در آن کارگر یک اثر تصادفی و گروه یک اثر ثابت است. من سعی می کنم بفهمم 1) آیا باید intercept=0 را مشخص کنم و 2) چرا به نظر می رسد این 2 نتیجه مدل نتایج متفاوتی در مورد تأثیر گروه ارائه می دهند. Model1: tps ~ گروه + (1 | کارگر) Model2: tps ~ گروه + (1 | کارگر) + 0 خلاصه (Model1): مدل مخلوط خطی متناسب با REML ['merModLmerTest'] فرمول: tps ~ گروه + (1 | کارگر) ) داده ها: mydata معیار REML در همگرایی: 3489.872 اثرات تصادفی: واریانس نام گروه ها Std.Dev. worker (Intercept) 1866 43.20 Residual 3165 56.26 تعداد obs: 318, group: worker, 18 Fixed effect: Estimate Std. خطای df t مقدار Pr(>|t|) (Intercept) 70.15 15.59 11.27 4.501 0.000848 *** تلفن گروه -20.85 21.75 10.83 -0.959 0.358586 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 همبستگی جلوه های ثابت: تلفن گروهی (Intr) -0.717 خلاصه (Model2): مدل خطی ترکیبی متناسب با REML [' merModLmerTest'] فرمول: tps ~ گروه + (1 | کارگر) + 0 داده: معیار mydata REML در همگرایی: 3489.872 اثرات تصادفی: نام گروه ها Variance Std.Dev. worker (Intercept) 1866 43.20 Residual 3165 56.26 تعداد obs: 318, group: worker, 18 Fixed effect: Estimate Std. خطا df t مقدار Pr(>|t|) گروه کامپیوتر 70.15 15.59 11.27 4.501 0.000848 *** گروه تلفن 49.30 15.17 10.40 3.251 0.008291 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 همبستگی جلوه های ثابت: تلفن گروه grpcmp 0.000 در مدل اول افکت 'تلفن' برابر است با تفاوت بین اثرات دو گروه در مدل 2 (این منطقی است زیرا در مدل 1 گروه رایانه خط پایه است). در مدل 2، اثرات هر دو گروه معنی دار است، در حالی که در مدل 1 تنها رهگیری معنادار است. کدام مدل درست برای موقعیتی است که پیش بینی گروه باینری است؟ باید فقط یکی یا دیگری باشد (به نظر می رسد نشان می دهد که model1 درست است، زیرا در آنجا رهگیری همان است گروه کامپیوتر است، درست است؟ Model2 مقدار صفر را برای گروه مجاز می کند که معنی ندارد). آیا در این مورد حق دارم؟ و چگونه می توان این واقعیت را تفسیر کرد که در model1 رهگیری قابل توجه است اما تلفن اینطور نیست؟
تفسیر رهگیری ها در مدل اثر مختلط با پیش بینی کننده های طبقه بندی
79133
من از بسته R Penalized (0.9-42) در مدل Cox PH استفاده می کنم. من از L2 (Ridge) به این دلیل استفاده می کنم که نمی خواهم ضرایب خود را به 0 کاهش دهم. نمی فهمم چرا وقتی درخواست می کنم: fit <- penalized(Surv(ttocomplete2, event)~ x1 + x2 + as.factor(x3), lamda2=15.96)) print(ضرایب(مناسب، همه)) ضرایب برای خط مبنا/ref دریافت می کنم سطح متغیرهای طبقه‌بندی من که البته هنگام استفاده از «coxph{survival}» یا «cph{rms}» نمی‌توانم آن را دریافت کنم.
ضرایب از یک کاکس جریمه شده PH
79688
من تازه اینجا هستم و شک دارم. من با مجموعه داده های بزرگی از کیفیت آب کار می کنم و می خواهم تفاوت بین ایستگاه های هیدرولوژیکی و بین بخش های رودخانه را آزمایش کنم. تنوع داخلی زیادی در عوامل طبقاتی وجود دارد. برای این منظور، من قصد دارم تحلیل های زیر را انجام دهم: Exploratory PCA: برای انتخاب متغیرهایی که تغییرپذیری در مجموعه داده را توضیح می دهند. DA: برای مرتب سازی و تجسم گروه های پیشینی. Manova (داده های تبدیل شده) یا ANOSIM: برای تشخیص اهمیت آماری بین گروه های پیشینی. در این تحلیل شک اصلی من نهفته است، زیرا من اغلب از ANOSIM یا PERMANOVA برای داده‌های فراوانی گونه‌ها استفاده می‌کنم. آیا می توانم از این تجزیه و تحلیل ها برای داده های غیر زنده استفاده کنم؟ شک دیگر: وقتی از PERMANOVA یا ANOSIM استفاده می‌کنم، آنالیز SIMPER را با یک مکمل انجام می‌دهم تا ببینم چه متغیرهایی (گونه‌هایی) که باعث تفاوت شناسایی شده‌اند. آیا می توانم از این تحلیل (SIMPER) نیز استفاده کنم؟ یا باید هر متغیر را به طور جداگانه با تجزیه و تحلیل تک متغیره به عنوان Kruskal-Wallis یا ANOVA آزمایش کنم؟
استفاده از ANOSIM یا PERMANOVA برای داده های غیر زیستی؟
94379
من میانگین و واریانس دو متغیر پنهان را از طریق دو گروه داده برآورد کردم. من نمی توانم از داده ها برای انجام آزمایش فرضیه استفاده کنم، زیرا به متغیر پنهان علاقه دارم. آیا راهی برای آزمایش این موضوع وجود دارد که آیا دو متغیر پنهان به طور قابل توجهی متفاوت هستند؟
آیا می توانم فرضیه را بر اساس پارامترهای تخمین زده آزمایش کنم؟
62048
پس از کاهش ابعاد یک ماتریس با استفاده از PCA، من می‌خواهم مولفه‌های بزرگ (یعنی آنها به طور تجمعی 90٪ از واریانس را تشکیل می‌دهند) هر ردیف را به یک مقدار تبدیل کنم. ارزش لازم نیست منحصر به فرد باشد، فقط نسبی باشد تا بتوان آنها را با هم مقایسه کرد. آیا تکنیک آماری وجود دارد که به من این امکان را می دهد (به ویژه در R)؟ مزایا و معایب مفید خواهد بود. من عذرخواهی می کنم اگر جمله من غیرفعال است--من تازه وارد آمار هستم.
کاهش ابعاد به یک مقدار نسبی واحد پس از PCA در R؟
102900
دانشجوی دکتری علوم اجتماعی اینجا به دنبال کمک کوچکی است. من تصمیم گرفتم حدود 300 نظرسنجی آنلاین را برای مطالعه جمع آوری کنم، اما در نهایت به بیش از 4000 رسید. در آن حجم نمونه، آیا باید از نتایج خود نمونه فرعی بگیرم، زیرا احتمال اینکه نتایج قابل توجهی به دلیل حجم نمونه پیدا شود، بیشتر است؟ با تشکر
آیا امکان داشتن داده های بیش از حد وجود دارد؟ چه زمانی باید نمونه فرعی کنم؟
2516
در مقاله اخیر _Amstat News_، نویسندگان (مارک ون درلان و شری رز) اظهار داشتند که ما می دانیم که برای اندازه های نمونه به اندازه کافی بزرگ، هر مطالعه - از جمله مطالعاتی که در آنها فرضیه صفر عدم تاثیر درست است - یک اثر آماری معنی دار. خب من اصلا نمیدونستم آیا این حقیقت دارد؟ آیا به این معنی است که آزمون فرضیه برای مجموعه داده های بزرگ بی ارزش است؟
آیا مجموعه داده های بزرگ برای آزمون فرضیه نامناسب هستند؟
67671
هنگامی که یک پارامتر شکل اضافی در توزیع اضافه می شود، یک عبارت به نفع این پارامتر نوشته می شود پارامتر اضافی می تواند هم وزن دم را کنترل کند و هم آنتروپی را به مرکز تابع چگالی اضافه کند. من در مورد وزن دم کاملاً واضح هستم، اما نمی‌توانم اضافه کردن آنتروپی به مرکز و چگونگی اثبات این پارامتر شکل اضافی اضافه کردن آنتروپی به مرکز را درک کنم. همچنین با افزودن آنتروپی چه مزایایی به دست می آید.
پارامتر اضافی آنتروپی را به مرکز تابع چگالی اضافه می کند
51501
من در حال پیاده سازی الگوریتم های HMM هستم که در آموزش رابینر توضیح داده شده است. اما هنگامی که HMM را برای مشکلات واقعی اعمال می کنیم، چندین مسئله وجود دارد که باید در نظر گرفته شود. یکی از این مشکلات نحوه در نظر گرفتن مشاهدات جدید است که احتمال انتشار ندارند. کسی راهی برای در نظر گرفتن توزیع برای مشاهدات جدید می داند؟ من معتقدم که اطلاعات مربوط به وضعیت قبلی می تواند برای استنباط وضعیت مشاهده جدید مفید باشد.
چگونه می توان مشاهدات جدید در رمزگشایی HMM را مدیریت کرد؟
112991
با استفاده از مقیاس پنج درجه ای لیکرت در حال طراحی پرسشنامه هستم. مزیت مقیاس لیکرت پنج درجه ای نسبت به مقیاس لیکرت هفت درجه ای چیست؟ متشکرم.
مقیاس لیکرت پنج درجه ای یا هفت درجه ای؟
94504
در رگرسیون خطی ساده، کوواریانس بین جمله خطا و باقیمانده چقدر است؟ مدل: $y_i = \beta_0 +\beta_1 x_i + \varepsilon_i$ $\rm {cov}(\varepsilon_i,\ e_i)$ چه خواهد بود، جایی که $e_i = y_i - \hat y_i$؟
در رگرسیون خطی ساده، کوواریانس بین جمله خطا و باقیمانده چقدر است؟
13014
ابتدا اجازه دهید بگویم که من 38 سال پیش یک دوره آمار در دانشکده مهندسی داشتم. بنابراین من در اینجا کور پرواز می کنم. من نتایج 18 آزمایش تشخیصی جداگانه برای یک بیماری را دریافت کردم. هر تست باینری است -- بله/خیر، بدون آستانه ای که می تواند برای تنظیم تست تنظیم شود. برای هر آزمون، من داده‌های ظاهراً معتبری در مورد مثبت/کاذب مثبت/منفی در مقایسه با «استاندارد طلا» دارم، که اعداد ویژگی و حساسیت را به دست می‌دهد (و هر چیز دیگری که می‌توانید از آن داده‌ها استخراج کنید). البته، هیچ آزمایشی دارای ویژگی/حساسیت کافی برای استفاده به تنهایی نیست، و هنگامی که نتایج همه آزمایش‌ها را چشم می‌کنید، اغلب هیچ روند آشکاری وجود ندارد. من در تعجبم که بهترین راه برای ترکیب این اعداد به نحوی که نمره نهایی را به دست آورد که (امیدوارم) قابل اعتمادتر از هر آزمون باشد چیست. من تاکنون به تکنیک ترکیب ویژگی‌های تست‌های TRUE با استفاده از spec_combined = 1 - (1 - spec_1) * (1 - spec_2) * ... (1 - spec_N) و ترکیب حساسیت‌های تست‌های FALSE دست یافته‌ام. به همین ترتیب نسبت (1 - sens_combined) / (1 - spec_combined) سپس به نظر می‌رسد که یک نمره نهایی نسبتاً خوب به دست می‌دهد، با مقدار بیش از 10 یا بیشتر، یک TRUE قابل اعتماد و مقدار کمتر از 0.1 یا بیشتر که یک FALSE قابل اعتماد است. اما این طرح فاقد هرگونه دقت واقعی است، و به نظر می‌رسد برای برخی از ترکیب‌های نتایج آزمایش، پاسخی خلاف شهود ایجاد می‌کند. آیا راه بهتری برای ترکیب نتایج آزمایش های چندگانه با توجه به ویژگی ها و حساسیت های آنها وجود دارد؟ (برخی از تست ها دارای ویژگی 85 و حساسیت 15 هستند، تست های دیگر دقیقا برعکس هستند.) ## باشه، سرم درد می کند! فرض کنید تست های 1-4 را با حساسیت ها/ویژگی ها (در درصد) گرفته ام: 1. 65/50 2. 25/70 3. 30/60 4. 85/35 تست های 1 و 2 مثبت، 3 و 4 منفی هستند. . احتمال فرضی مثبت کاذب بودن 1 خواهد بود (1 - 0.5) و برای 2 (1 - 0.7)، بنابراین احتمال اینکه هر دو مثبت کاذب باشند 0.5 x 0.3 = 0.15 خواهد بود. احتمال فرضی اینکه 3 و 4 منفی کاذب هستند (1 - 0.3) و (1 - 0.85) یا 0.7 x 0.15 = 0.105 خواهد بود. (در حال حاضر این واقعیت را نادیده می گیریم که اعداد با هم جمع نمی شوند.) اما احتمالات فرضی که 1 و 2 مثبت واقعی هستند 0.65 و 0.25 = 0.1625 هستند، در حالی که احتمالات فرضی که 3 و 4 منفی واقعی هستند 0.6 و 0.35 = 0.21. اکنون می‌توانیم دو سؤال بپرسیم: 1. چرا **_نباید_** اعداد جمع می‌شوند (یا حتی نزدیک می‌شوند). (اعداد sens/spec که استفاده کردم از زندگی واقعی هستند.) 2. چگونه باید تصمیم بگیرم که کدام فرضیه (به احتمال زیاد) درست است (در این مثال به نظر می رسد برای هر دو حساب منفی است، اما من اینطور نیستم. مطمئناً همیشه همینطور است)، و از چه چیزی می توانم برای شخصیت شایستگی استفاده کنم تا تصمیم بگیرم که آیا نتیجه مهم است؟ ## اطلاعات بیشتر این تلاشی است برای اصلاح و گسترش یک طرح وزن دادن موجود که ماهیت آن کاملاً هنرمندانه است (یعنی فقط از a** کسی خارج شده است). طرح فعلی اساساً بر روی خطوط اگر هر دو از سه مورد اول مثبت هستند، و اگر دو تا از چهار مورد بعدی، و هر یک از دو مورد بعدی، مثبت هستند است. (البته این یک مثال تا حدودی ساده شده است.) آمارهای موجود از این طرح وزنی پشتیبانی نمی کند - حتی با یک الگوریتم وزن گیری خام بر اساس آمارهای اندازه گیری شده، به پاسخ های بسیار متفاوتی می رسم. اما، بدون وجود روشی دقیق برای ارزیابی آمار، من هیچ اعتباری ندارم. همچنین، طرح فعلی فقط مثبت/منفی را تعیین می‌کند، و من باید یک مورد (از نظر آماری معتبر) مبهم در وسط ایجاد کنم، بنابراین مقداری شایستگی لازم است. ## آخرین، من یک الگوریتم استنتاج بیزی کم و بیش «خالص» را پیاده‌سازی کرده‌ام، و پس از دور و بر روی چندین موضوع، به نظر می‌رسد که به خوبی کار می‌کند. به‌جای اینکه از ویژگی‌ها و حساسیت‌ها کار کنم، ورودی‌های فرمول را مستقیماً از اعداد مثبت/کاذب واقعی استخراج می‌کنم. متأسفانه، این بدان معنی است که من نمی توانم از برخی از داده های با کیفیت بهتر استفاده کنم که به گونه ای ارائه نشده اند که این اعداد استخراج شوند، اما الگوریتم بسیار تمیزتر است، اجازه می دهد تا ورودی ها را با محاسبه دستی بسیار کمتر تغییر دهیم. و بسیار پایدار به نظر می رسد و نتایج به خوبی با شهود مطابقت دارد. من همچنین با یک الگوریتم (به معنای صرفا برنامه نویسی) برای مدیریت تعاملات بین مشاهدات وابسته به هم آمده ام. اساساً، به جای اینکه به دنبال یک فرمول فراگیر باشم، در عوض برای هر مشاهده یک ضریب احتمال حاشیه ای را نگه می دارم که با پردازش مشاهدات قبلی، بر اساس یک جدول ساده، اصلاح می شود - اگر مشاهده A درست است، احتمال حاشیه ای مشاهده B را با یک تغییر دهید. ضریب 1.2 اینچ به عنوان مثال. به هیچ وجه زیبا نیست، اما قابل استفاده است، و به نظر می رسد در طیف وسیعی از ورودی ها به طور معقولی پایدار باشد. (من این جایزه را به پستی که فکر می کنم مفیدترین پست در چند ساعت بوده است اهدا می کنم، بنابراین اگر کسی می خواهد چند لیس بزند، آن را انجام دهد.)
چگونه نتایج چندین آزمایش باینری را ترکیب کنیم؟
67677
من مجموعه بزرگی از متغیرها را دارم که در مقیاس‌ها/واحدهای مختلف اندازه‌گیری شده‌اند، و می‌خواهم آنها را در همان مقیاس با میانگین 0 و انحراف استاندارد 1 استاندارد کنم تا بتوانم یک PCA روی آنها اجرا کنم. من شنیده ام که تابع NORM.S.DIST در اکسل مناسب است - آیا کسی می تواند این را تأیید کند؟
نحوه استاندارد کردن داده ها در اکسل (میانگین = 0، SD = 1)
62045
من داده های سری زمانی طولانی (چند سال اجرا) دارم. من داده ها را به چندین سری تقسیم کرده ام که هر کدام یک ماه طول می کشد. سپس برخی از محاسبات سفارشی را روی هر یک از سری‌های زمانی «کوتاه‌شده» انجام می‌دهم و چند آمار خلاصه قوی (حالت، MAD و غیره را روی داده‌های محاسبه‌شده‌ام) جمع‌بندی می‌کنم. سپس می‌خواهم ببینم که آیا تفاوت آماری معنی‌داری بین آمارهای محاسبه‌شده برای سری کوتاه‌شده وجود دارد یا خیر - بنابراین می‌توانم به سؤالاتی مانند: 1. آیا حالت در طول زمان تغییر می‌کند 2. آیا MAD در طول زمان تغییر می‌کند ... و غیره؟ من کمی زنگ زده هستم، اما فکر می کنم این همان چیزی است که به داده های پانل گفته می شود؟ سؤال من این است که کدام آزمون آماری برای بررسی اینکه آیا آمار خلاصه در طول زمان تغییر می‌کند یا نه، مناسب‌تر است. اگر کسی بتواند یک قطعه/شبه کد کوچک در R برای نشان دادن نحوه انجام این کار پست کند، سپاسگزار خواهم بود.
نحوه آزمایش پایداری/تغییرپذیری آمار در طول زمان با استفاده از R
65831
هنگامی که افراد برای مقایسه یک نمونه واحد در برابر میانگین، آزمایش‌های جایگشت را اجرا می‌کنند (به عنوان مثال، همانطور که ممکن است با آزمون t جایگشت انجام دهید)، میانگین چگونه مدیریت می‌شود؟ من پیاده‌سازی‌هایی را دیده‌ام که میانگین و نمونه‌ای را برای آزمایش جایگشت می‌گیرند، اما مشخص نیست که آنها واقعاً در زیر هود چه می‌کنند. آیا حتی یک روش معنادار برای انجام تست جایگشت (به عنوان مثال، آزمون t) برای یک نمونه در مقابل میانگین فرضی وجود دارد؟ یا، در عوض، آیا آنها فقط به یک آزمایش غیر جایگشتی در زیر کاپوت پیش‌فرض می‌پردازند؟ (به عنوان مثال، علیرغم فراخوانی یک تابع جایگشت یا تنظیم یک پرچم آزمایش جایگشت، پیش‌فرض بودن یک آزمون t استاندارد یا تابع مشابه) در یک آزمون جایگشت دو نمونه‌ای استاندارد، یکی دو گروه دارد و تخصیص برچسب‌ها را تصادفی می‌کند. با این حال، هنگامی که یک گروه یک میانگین فرضی است، چگونه این موضوع مدیریت می شود؟ بدیهی است که میانگین فرضی به خودی خود حجم نمونه ندارد. بنابراین، روش معمولی برای کار کردن میانگین در قالب جایگشت چیست؟ آیا نمونه «میانگین» یک نقطه فرض شده است؟ نمونه ای هم اندازه با گروه نمونه؟ یک نمونه با اندازه بی نهایت؟ با توجه به اینکه یک میانگین فرضی، خوب، فرضی است- من می‌توانم بگویم که از نظر فنی یا پشتیبانی بی‌نهایت یا هر پشتیبانی که می‌خواهید برای آن در نظر بگیرید، دارد. با این حال، هیچ یک از اینها برای یک محاسبه واقعی بسیار مفید نیستند. به نظر می‌رسد یک نمونه با اندازه مساوی با مقادیر همگی برابر با میانگین، چیزی است که گاهی با برخی آزمایش‌ها انجام می‌شود (به عنوان مثال، شما فقط نیمی دیگر از جفت‌ها را با مکان فرضی پر می‌کنید). این کمی منطقی است، زیرا این نمونه با طول مساوی است که می‌بینید آیا میانگین فرضی شما بدون واریانس صحیح است یا خیر. بنابراین سوال من این است: در عمل، آیا مردم واقعاً از تصادفی‌سازی برچسب سبک آزمون جایگزینی تقلید می‌کنند، وقتی که مجموعه دوم میانگین (یا مقدار فرضی انتزاعی مشابه) باشد؟ اگر چنین است، چگونه افراد هنگام انجام این کار، تصادفی سازی برچسب را مدیریت می کنند؟
تست جایگشتی که یک نمونه واحد را با میانگین مقایسه می کند
67679
با توجه به این سوال برای درک اثبات یک لم مورد استفاده در نابرابری هوفدینگ، سعی می کنم مراحلی را که منجر به نابرابری هوفدینگ می شود، درک کنم. آنچه که برای من در اثبات بیشترین رمز و راز را دارد، بخشی است که در آن گشتاورهای نمایی برای مجموع متغیرهای i.d محاسبه می‌شوند و بعد از آن نابرابری مارکوف اعمال می‌شود. هدف من این است که بفهمم: چرا این تکنیک یک نابرابری فشرده ایجاد می کند، و آیا این سخت ترین چیزی است که می توانیم به دست آوریم؟ یک توضیح معمولی به خواص مولد گشتاور توان اشاره دارد. با این حال، من این را خیلی مبهم می دانم. یک پست در وبلاگ تائو، http://terrytao.wordpress.com/2010/01/03/254a-notes-1-concentration-of-meter/#hoeff، ممکن است پاسخ هایی را در خود داشته باشد. با در نظر گرفتن این هدف، سوال من در مورد سه نکته در پست تائو است که من در آن گیر کرده‌ام و امیدوارم بتوانم یک بار توضیح بدهم. 1. تائو نابرابری زیر را با استفاده از لحظه k-ام $$\displaystyle {\bf P}( |S_n| \geq \lambda \sqrt{n} ) \leq 2 (\frac{\sqrt{ek/2} به دست می‌آورد. }{\lambda})^k. \ \ \ \ \ (7)$$ اگر این برای هر k صادق باشد، او یک کران نمایی نتیجه می گیرد. اینجاست که من گم شده ام $$\displaystyle {\bf P}( |S_n| \geq \lambda \sqrt{n} ) \leq C \exp( - c \lambda^2 ) \ \ \ \ \ (8)$$ 2. لم Hoeffding ارائه شده است: لم 1 (لم هوفدینگ) اجازه دهید ${X}$ یک متغیر اسکالر باشد که مقادیر را در یک بازه می گیرد ${[a,b]}$. سپس برای هر ${t>0}$, $$\displaystyle {\bf E} e^{tX} \leq e^{t {\bf E} X} (1 + O( t^2 {\bf Var }(X) \exp( O( t (b-a) ) ) ) ) به طور خاص $$\displaystyle {\bf E} e^{tX} \leq e^{t). {\bf E} X} \exp( O(t^2 (b-a)^2) . ^{tX} = 1 + tX + O( t^2 X^2 \exp( O(t) ) )$ .چرا می توان بسط را با آن محدود کرد عبارت درجه دوم و چگونه معادله 10 را دنبال می کند. در نهایت یک تمرین داده می شود: تمرین 1 نشان می دهد که عامل ${O(t^2(b-a)^2)}$ را می توان با ${ جایگزین کرد؟ t^2 (b-a)^2/8}$، و این واضح است که این مدرک بسیار کوتاه‌تر از اثبات درک لم مورد استفاده در Hoeffding است. نابرابری، اما من نمی‌دانم چگونه این را حل کنم، هر گونه شهود/توضیحات بیشتر در مورد اثبات نابرابری یا دلیلی که نمی‌توانیم حد محدودتری استخراج کنیم، قطعاً خوش آمدید.
درک اندازه گیری نابرابری های تمرکز
81557
به عنوان مثال، من مدلی را با حدود 5 میلیون مشاهده با استفاده از رگرسیون خطی یا MLE تخمین می زنم. با توجه به اینکه تخمین‌ها منسجم هستند، استفاده از قانون استاندارد رد صفر در سطح معنی‌داری 5% تقریباً هرگز من را مجاز به رد صفر (که پارامتر برابر با صفر است) نمی‌کند، یعنی همه چیز مهم است. احتمالاً باید از سطح معناداری دیگری استفاده کنم که کوچکتر از 5٪ است و سؤال من این است که آیا ادبیاتی در مورد انتخاب سطح معنی‌داری مناسب وجود دارد یا بچه‌ها چگونه با این مشکل برخورد می‌کنید؟ آیا باید به سادگی به سطح معناداری 5% پایبند باشم؟ با تشکر
سوال در مورد سطح معناداری
65835
من اخیراً شروع به تجزیه و تحلیل داده‌های یک نظرسنجی کرده‌ام که در آن شرکت‌کنندگان 64 تصویر از مدل‌ها را در مقیاس لیکرت رتبه‌بندی کردند و سپس انتخاب کردند که آیا مدل را درون گروهی یا برون گروهی در نظر می‌گیرند. من سعی می‌کنم تشخیص دهم که آیا این واقعیت که شرکت‌کنندگان مدل را درون گروهی یا برون گروهی در نظر می‌گیرند، بر رتبه‌بندی شرکت‌کنندگان برای هر تصویر تأثیر دارد. بنابراین مجموعه داده‌های من شامل 64 سؤال به سبک لیکرت با رتبه 1-7 برای هر شرکت‌کننده و 64 سؤال طبقه‌بندی شده (داخل گروهی یا برون گروهی) است و من کاملاً مطمئن نیستم که چگونه آنها را تجزیه و تحلیل کنم. کدام نوع آزمون برای این شکل از داده ها مناسب است؟
تجزیه و تحلیل تأثیر احتمالی پاسخ طبقه ای بر پاسخ ترتیبی؟
13011
من فقط در مورد فرآیند کشف پشت تابع همبستگی خودکار بسیار کنجکاو هستم. * چه زمانی اختراع شد؟ * آیا به طور مستقل چندین بار اختراع شده است؟ * انگیزه آن چه بود؟
تابع همبستگی خودکار چه زمانی اختراع شد؟ و انگیزه آن چه بوده است؟
62043
اگر من یک توزیع نرمال با میانگین و واریانس معین داشته باشم و یک تبدیل لجستیک برای آن اعمال کنم، میانگین و واریانس متغیر تبدیل شده من چقدر است؟ این به نظر می رسد که باید یک مشکل شناخته شده باشد، اما من نتوانستم یک مرجع سریع پیدا کنم.
توزیع یک تبدیل لاجیت یک متغیر نرمال
23547
من از شبکه عصبی و SVM برای پیش‌بینی سیگنال‌های خرید و نگه‌داری – فروش استفاده می‌کنم. من nn و SVM را در R آموزش داده ام. از تابع nnet برای آموزش NN و svm برای آموزش SVM استفاده کردم. من 20000 نقطه داده برای آموزش و 2000 نقطه داده برای آزمایش فراهم کردم. مجموعه داده های آموزشی شامل فهرستی از 10 تا 15 شاخص فنی و سیگنال های خرید و فروش نگه دارید. مشکلی که من دارم این است که سیگنال های خرید - فروش - نگه داشتن را با دقت خوبی روی داده های تست پیش بینی نمی کند. من از تابع سیگموئید در nnet و تابع شعاعی در SVM استفاده کرده ام. هر گونه پیشنهادی، چگونه می توان دقت پیش بینی را بهبود بخشید؟
آموزش NN یا SVM برای طبقه بندی سیگنال های سهام
13015
در یک سوال قبلی در مورد تاریخچه همبستگی خودکار پرسیدم. در این سوال من به فرآیند کشف پشت همبستگی متقابل علاقه مند هستم. * چه زمانی اختراع شد؟ * آیا به طور مستقل چندین بار اختراع شد؟ * انگیزه اختراع آن چه بود؟
تابع همبستگی متقابل چه زمانی اختراع شد؟ و انگیزه پشت آن چه بود؟
59074
من سعی می‌کنم نحوه استفاده از یادگیری ماشینی برای پیش‌بینی سری‌های زمانی مالی ۱ یا بیشتر در آینده را درک کنم. من یک سری زمانی مالی با برخی داده های توصیفی دارم و می خواهم یک مدل تشکیل دهم و سپس از مدل برای پیش بینی n مرحله پیش رو استفاده کنم. کاری که من تاکنون انجام داده ام این است: getSymbols(GOOG) GOOG$sma <- SMA(Cl(GOOG)) GOOG$range <- GOOG$GOOG.High-GOOG$GOOG.Low tail(GOOG) GOOG.Open GOOG.GOOG بالا.GOOG کم.بستن GOOG.Volume GOOG.محدوده sma تنظیم شده 2013-05-07 863.01 863.87 850.67 857.23 1959000 857.23 828.214 13.20 2013-05-08 8857. 873.63 2468300 873.63 834.232 20.97 2013-05-09 870.84 879.66 868.23 871.48 2200600 871.48 82013-81013-810.4 875.31 880.54 872.16 880.23 1897700 880.23 848.351 8.38 2013-05-13 878.89 882.47 873.38 874.858.531 874.878.531 9.09 2013-05-14 877.50 888.69 877.14 887.10 1579300 887.10 860.451 11.55 سپس یک مدل Forest تصادفی را به این داده ها برازش کردم. fit <- randomForest(GOOG$GOOG.Close ~ GOOG$sma + GOOG$range, GOOG) که به نظر می رسد به طرز شگفت آوری مناسب است: > fit Call: randomForest(formula = GOOG$GOOG.Close ~ GOOG$sma + GOOG$range، داده = GOOG) نوع جنگل تصادفی: رگرسیون تعداد درختان: 500 تعداد متغیرهای امتحان شده در هر تقسیم: 1 میانگین مجذور باقیمانده ها: 353.9844 % Var توضیح داد: 97.28 و سعی شد از آن برای پیش بینی استفاده شود: predict(fit, GOOG, n.ahead=2) اما این پیش بینی ofc جواب نداد. من سعی می‌کنم Close را پیش‌بینی کنم، آیا باید قبل از برازش مدل، به اندازه‌ای که پیش‌بینی را می‌خواهم، متغیرهای دیگر را عقب بینم؟ احتمالاً خیلی چیزهای دیگر را نیز باید در نظر بگیرم، اما اینها واقعاً اولین گام‌های من در تلاش برای یادگیری ماشینی هستند. ممنون از هر راهنمایی!
گام های اولیه یادگیری برای پیش بینی سری های زمانی مالی با استفاده از یادگیری ماشین
51505
من سعی می کنم ابزاری بنویسم که شامل اجرای رگرسیون لجستیک است. با روش نزول گرادیان دسته ای، همگرایی تضمین می شود زیرا یک مشکل محدب است. با این حال، من متوجه شدم که با روش گرادیان تصادفی، روش مناسب معمولاً به برخی از نقاط تصادفی همگرا می شود (یعنی خیلی نزدیک به حداقل نقطه حاصل از روش دسته ای نیست). من راه های مختلف کاهش نرخ یادگیری و نقاط شروع وزنه های مختلف را امتحان کرده ام. با این حال، عملکرد (به عنوان مثال، دقت، دقت / فراخوان، ...) قابل مقایسه (با روش دسته ای) است. من می دانم که این امکان پذیر است، زیرا SGD (نزول گرادیان تصادفی) از تقریبی به هزینه واقعی هر مرحله استفاده می کند. حدس می‌زنم این مهم باشد، زیرا در غیر این صورت، تفسیر وزن‌ها چندان منطقی نخواهد بود، حتی دقت آن قابل مقایسه است. * آیا اهمیتی دارد که SGD در هر مرحله از هزینه واقعی تقریبی استفاده کند؟ * اگر مهم است، چگونه می توان آن را به نقطه بهینه جهانی همگرا یا نزدیک کرد؟
چگونه می توان SGD را به نقطه بهینه جهانی در رگرسیون لجستیک رساند؟