_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
89886 | من سعی می کنم یک مدل رگرسیون خطی تولید کنم، اما فقط 25 مشاهده و 34 پیش بینی دارم. من در حال تلاش برای انتخاب ویژگی، کتابخانه (MASS) full.m <- lm(fmla، data=mydata) fsel.m <- step(full.m، جهت = هر دو) هستم، اما این خطا را دریافت می کنم، خطا در مرحله (full.m، جهت = هر دو) : AIC برای این مدل بی نهایت است، بنابراین گام نمی تواند ادامه یابد، خوب، سپس PCA و تحلیل عاملی را امتحان کردم اما این تصویر عجیب را از PCA. r <- prcomp(formula=pca.fmla, mydata, scale=FALSE)  در تحلیل عاملی، f <- factanal( x=pca.fmla، mydata، factor=2) دریافت میکنم، خطا در solve.default(cv): سیستم از نظر محاسباتی مفرد است: متقابل شماره شرط = 1.09137e-18 کمکی دارید لطفا؟ ویرایش: من می توانم به این پاسخ بدهم. | خطا در تلاش برای کاهش ابعاد دادههای من |
12360 | جدول 18.1 در عناصر یادگیری آماری عملکرد چندین طبقهبندی کننده را بر روی یک مجموعه داده 14 کلاسه خلاصه میکند. من یک الگوریتم جدید را با شبکه کمند و الاستیک برای چنین مسائل طبقه بندی چند کلاسه مقایسه می کنم. با استفاده از «glmnet» نسخه 1.5.3 (R 2.13.0) من نمی توانم نقطه 7. (چندجمله ای $L_1$-جریمه شده) را در جدول بازتولید کنم، جایی که تعداد ژن های استفاده شده 269 و آزمایش گزارش شده است. خطا 13 از 54 است. داده های مورد استفاده این مجموعه داده ریزآرایه 14 سرطانی است. هرچه سعی کردم، بهترین مدل را با استفاده از همسایگی 170-180 ژن با خطای آزمایشی 16 از 54 دریافت کردم. توجه داشته باشید که در ابتدای بخش 18.3، در صفحه 654، برخی از پیش پردازش داده ها توضیح داده شده است. . من با نویسندگان تماس گرفتهام - تا کنون بدون پاسخ - و میپرسم که آیا کسی میتواند تأیید کند که در بازتولید جدول مشکلی وجود دارد یا راهحلی برای نحوه بازتولید جدول ارائه دهد. | بازتولید جدول 18.1 از عناصر یادگیری آماری |
46824 | من مطالعه ای دارم که در آن هدف این است که ببینم آیا یک ابزار تشخیصی جدید اضافه ای به روش قدیمی ارائه می دهد یا خیر. مجموعهای از بیماران تشخیص داده شده و به 7 دسته طبقهبندی شدهاند که هر کدام مربوط به یک درمان خاص است. سپس از ابزار تشخیصی جدید استفاده می شود و بیماران مجدداً تشخیص داده می شوند و طبقه بندی می شوند. سپس بیماران به دو دسته تقسیم می شوند: 1. درمان پیشنهادی ثابت می ماند. یا 2. درمان پیشنهادی تغییر کند. به نظر می رسد که این باید یک سوال ساده باشد، اما هنوز نمی توانم بفهمم که از چه نوع آزمایشی می توانم استفاده کنم تا ببینم آیا ابزار تشخیصی اطلاعات اضافی منجر به تجدید نظر در درمان را ارائه می دهد یا خیر. با توجه به اینکه آزمونی وجود دارد، میخواهم برای بخش بعدی مطالعه مقداری محاسبات حجم نمونه را نیز انجام دهم. | آزمایش تغییر درمان |
9214 | به نظر می رسد نمایه سازی معنایی پنهان به خوبی کار می کند. به عنوان مثال مستقل از زبان و غیره است. با این حال، به نظر می رسد از تشابه فراوانی اصطلاحات در مجموعه برای دسته بندی آنها استفاده می کند. اگر این درک درست باشد، آیا راهی برای اندازه گیری اندازه مجموعه داده وجود دارد که عملکرد مطلوبی را ارائه دهد؟ | برآورد حجم نمونه مورد نیاز برای عملکرد بهینه نمایه سازی معنایی نهفته؟ |
49835 | بسته رسم R ggplot2 دارای یک تابع عالی به نام stat_smooth برای رسم یک خط رگرسیون (یا منحنی) با باند اطمینان مرتبط است. با این حال، برای هر زمان خط رگرسیون (یا روش) به سختی می توانم بفهمم این باند اطمینان دقیقا چگونه ایجاد می شود. چگونه می توانم این اطلاعات را پیدا کنم؟ | چگونه ggplot فواصل اطمینان را برای رگرسیون محاسبه می کند؟ |
9213 | قبلاً من پرسیده بودم که چگونه برخی از احتمالات شرطی را محاسبه کنم، اما این مورد خاص را از دست داده ام: فرض کنید اکنون 3 متغیر داریم: $T$, $L$, $E$: T L \ / E بنابراین $E$ به $ بستگی دارد T$ و $E$ به $L$ بستگی دارد من این احتمالات را دارم: $P(T) =$0.0104$P(L) =$0.055$P(E) =$ 0.0648 $P(E|L,T) =$ 1.0 $P(E|L،\lnot T) =$ 1.0 $P(E|\lنه L,T) =$ 1.0 $P(E|\lnot) L،\lnot T) = $ 0.0 چگونه احتمال $T$ و $L$ اصلاح می شود وقتی مشاهده می کنیم که $P(E)$ = 1 است؟ | متغیر بسته به 2 متغیر احتمال شرطی |
63393 | تحت چه شرایطی MLE (تخمین حداکثر احتمال) برابر با LSE (تخمین حداقل مربعات) خواهد بود؟ این تصور را داشتم که تحت هنجار 2 ($L_{2}$)، MLE و LSE برابر هستند. برای مثال، فرآیند حل $\mathrm{min}||y−Ax||_{2}$ در واقع تخمین MLE پارامتر $A$ برای متغیر تصادفی $y=Ax+\epsilon$ است که در آن $x$ و $\epsilon$ طبیعی است. با این حال، آیا این به طور کلی درست است که مشکل به حداقل رساندن تحت نرم افزار $L_{2}$ همان تخمین حداکثر احتمال است؟ برای مثال، یک تابع درجه دوم $f(X) = XAX$ را در نظر بگیرید، آیا میتوان به حداقل رساندن فاصله بین $f(X)$ و مقداری $Y$ زیر $L_{2}$ توسط MLE حل کرد؟ | چه زمانی برآوردهای حداکثر احتمال برابر با حداقل مربعات برآورد می شوند؟ |
63397 | در معماری یکپارچه برای کاغذ NLP شبکه عصبی با تاخیر زمانی به عنوان راهی برای مقابله با ورودی طول متغیر پیشنهاد شده است. پنجره ورودی روی ترتیب اسلاید می شود و هر خروجی را با زمان برچسب گذاری می کند، سپس لایه بعدی در طول زمان حداکثر طول می کشد. اما هیچ توضیحی ارائه نشده است که چگونه می توان خطا را از طریق این لایه حداکثر منتشر کرد. ما میتوانیم خطا را فقط برای «زمان» خاص محاسبه کنیم، که بالقوه برای هر گره خروجی لایه حداکثر متفاوت است. خواندن مقاله اصلی برای TDNN چیزی را روشن نکرد. برای من به نظر می رسد معماری کاملاً متفاوت NN بدون ذکر لایه حداکثر. آیا کسی می تواند توضیح دهد یا به توضیح اشاره کند؟ مهارت های گوگل من شکست خورد. | شبکه های عصبی با تأخیر زمانی - یادگیری لایه max. |
52420 | من میخواستم بررسی کنم که خطای نسبی یک تابع چگالی N(0، 1) چقدر است. منظور من از خطای نسبی: $$\alpha(x) = E \bigg ( \frac{f(x|\hat{\mu}, \hat{\sigma})}{f(x|0,1)} \bigg ) - 1$$ که $f(\cdot, \mu, \sigma)$ pdf معمولی است. برای به دست آوردن تخمینی از $\alpha(x)$ من نقاط داده 10^3$ را از یک N(0,1) شبیه سازی کردم، میانگین نمونه و واریانس تخمین زده شده و خطای نسبی را در 100 نقطه $x\in (-6، 6) دلار. من این مراحل را $reps$ بارها تکرار کردم تا میانگین خطای نسبی را محاسبه کنم. این کد R است: nX = 100 تکرار <- 1000 X <- seq(-6, 6, length.out = nX) myM <- ماتریس(NA, reps, nX) for(ii in 1:reps) { data <- rnorm(1000) myM[ii، ] <- dnorm(X، mean = mean(داده)، sd = sd(data))/dnorm(X) - 1} plot(X, colMeans(myM), type = 'l', ylab = express(hat(alpha)), xlab = x) انتظار داشتم خطای نسبی به برای هر x$ نزدیک به 0 باشد، اما در کمال تعجب به نظر می رسد که نرمال تخمین زده شده دارای دم های چاق تری نسبت به چیز واقعی است. بنابراین سؤالات من این است: 1) آیا این رفتار دنباله به دلیل نابرابری جنسن اتفاق می افتد (از آنجایی که $f()$ غیر خطی است)؟ 2) فرض کنید من می خواهم از تخمینگر تراکم دیگری استفاده کنم و می خواهم بررسی کنم که از نظر خطای نسبی چقدر خوب عمل می کند. من فکر می کردم که برای یک نرمال فقط می توانم میانگین و واریانس را محاسبه کنم و از چگالی به دست آمده به عنوان یک استاندارد طلایی استفاده کنم که می توانم با سایر برآوردگرهای چگالی مقایسه کنم. آیا روش معقولی برای مقایسه میزان عملکرد تخمینگرهای چگالی مختلف برای مقادیر مختلف x$ وجود دارد؟ با تشکر | چگالی نرمال تخمینی دم چربی است؟ |
90354 | آیا راهی برای آموزش شبکه عصبی به روش زیر وجود دارد: شما $n$ مشاهدات در مجموعه آموزشی دارید. شبکه عصبی با وزن های تصادفی شروع می شود و خروجی های $n$ تولید می کند. سپس میخواهم یک تابع $f$ را روی این خروجیهای $n$ اعمال کنم. $f$ یک عدد با ارزش واقعی $\alpha$ را خروجی خواهد کرد. هدف شبکه عصبی به حداکثر رساندن $\alpha$ است. یعنی برای من مهم نیست که شبکه عصبی برای هر رصد واحدی چه خروجی می دهد. میخواهم برخی از ویژگیهای خروجیها را بهعنوان یک کل به حداکثر برساند (مثلاً میخواهم واریانس خروجیها را به حداکثر برسانم). آیا شبکه های عصبی مانند این یا تکنیک های دیگری برای آنچه من به دنبال آن هستم وجود دارد؟ هر بینش قابل قدردانی است! | شبکه عصبی، وابستگی بین خروجی ها؟ |
54867 | من در حال انجام یک مطالعه برای تجزیه و تحلیل اثرات از بین بردن یک ژن خاص بر روی یک رفتار خاص در مگس هستم. پس از یک تبدیل log، مشاهدات من توزیع نرمال دارند، بنابراین من می خواهم یک ANOVA سه طرفه را انجام دهم، با سن به عنوان اولین، جنس به عنوان دومین و ژنوتیپ (جهش در مقابل نوع وحشی) به عنوان متغیر سوم، همچنین به نظر می رسد. در تعاملات مشکل این است که جهشیافتههای من از دو سویه کمی متفاوت میآیند که هرگز نشان داده نشده است که از نظر رفتاری با هم تفاوت دارند، اما من هنوز باید ابتدا بررسی کنم که آیا لازم است بین این دو در تجزیه و تحلیل بعدی تمایز قائل شوم یا خیر. من نمیدانم که آیا میتوان این کار را با ANOVA تودرتو انجام داد (همه نمونههایی از ANOVAهای تودرتو که من دیدهام کاملاً متفاوت از آنچه من دیدهام به نظر میرسند، به همین دلیل است که آن را امتحان نکردهام، اما احتمالاً نمیتوانم دریافت کنم. آن). تاکنون، کاری که من انجام دادهام این است که یک ANOVA سهطرفه (نوع III ss) را فقط روی جهشیافتهها، با سن به عنوان اول، جنس به عنوان دوم و ژنوتیپ (سویه جهش یافته 1 در مقابل سویه جهش یافته 2) به عنوان متغیر سوم اجرا کردم. . سن، جنس و اثر متقابل سن و جنس هر دو مهم هستند، در حالی که سویه جهش یافته مهم نیست، و همچنین هیچ یک از اصطلاحات متقابل حاوی آن نیستند. سوال من این است که آیا می توانم فقط این واقعیت را گزارش کنم که سویه جهش یافته تأثیر قابل توجهی ندارد و سپس فقط نگران سن و جنسیت زمانی باشم که ANOVA را روی همه مگس هایم اجرا می کنم (این بار بدون تمایز بین دو سویه جهش یافته). ) یا الان باید گزارش بدم و حساب کنم؟ و اگر سویه جهش یافته قابل توجه بود چه؟ آیا این تغییری در مورد اینکه آیا باید اهمیت سن و جنس را در این مرحله گزارش کنم یا خیر، تغییر میدهد؟ من فقط یک تست t انجام می دادم تا دو سویه جهش یافته را مقایسه کنم، اما می ترسیدم اثری وجود داشته باشد که با سن یا جنسیت پوشانده شده باشد، زیرا به نظر می رسد هر دو بر رفتاری که من به آن نگاه می کنم تأثیر می گذارد. پیشاپیش از شما بسیار متشکرم، میدانم که این یک سؤال تازهکار است (این اولین تحلیل آماری واقعی من است، اما از هر ثانیه آن لذت میبرم) اما اگر هر یک از شما لحظهای برای پاسخ دادن داشت، بسیار ممنون میشوم. | متغیر سلسله مراتبی: بررسی اینکه آیا دو زیر گروه باید از هم متمایز شوند یا می توانند با هم ترکیب شوند |
9217 | من قصد دارم یک مطالعه تحقیقاتی در مورد طراحان تعامل انجام دهم. قبل از شروع روشهای نمونهگیری، به سختی میتوانم به برخی از آمار و اطلاعات جمعیتی دست پیدا کنم، به عنوان مثال. چند نفر برای استخدام به عنوان طراحان تعامل، طراحان تجربه کاربری و غیره در یک منطقه خاص (در مورد من انگلستان) ثبت نام کرده اند. هر گونه کمک در این زمینه بسیار قدردانی خواهد شد. | تخمین تعداد طراحان تعامل ثبت شده در یک قلمرو مشخص |
46829 | در رگرسیون لجستیک مبتنی بر GAM، دادههای شبه عدم وجود برای برازش مدل با دادههای حضور متناظر ضروری است. در بسیاری از موارد، داده های شبه غیبت 10 برابر بیشتر از سوابق حضور تولید می شوند تا از تنوع چشم انداز کافی در شبه غیبت ها اطمینان حاصل شود. برای اطمینان از اینکه حضور و شبه غیاب به طور یکسان در مدل نقش دارند و از سوگیری جلوگیری میکنند، میخواهم بدانم که این گزینه وزندهی موردی را چگونه میتوان با R بدست آورد. برای مثال، من میخواهم هر شبه غیبت را n/1000 وزن کنم. که در آن n تعداد سایت های حضور و 10000 سایت شبه غیبت است که به طور تصادفی ایجاد شده اند. | مورد کاهش وزن برای تقلید حضور و غیاب برابر است |
62956 | 1. چه نوع توزیعی به عنوان تابعی از انتظار واریانس دارد، یعنی اجازه دهید $X$ یک متغیر تصادفی از یک توزیع باشد، $Var(X) = f(E(X))$ برای برخی از تابع $f$؟ شرایط کافی از جمله نمونههای معمولی توزیع (مانند توزیعهای خانواده نمایی، یا حتی توزیعهای خانواده نمایی طبیعی)، و/یا شرایط ضروری خوب خواهند بود. من دیدم که این در معادلات برآورد تعمیم یافته فرض شده است. به ویژه، در خانواده نمایی پراکنده طبیعی با pdf $f (y; θ, φ) = \exp\left(\frac{yθ - b(θ)}{a(φ)}+ c(y, φ)\ راست)$، آیا همیشه یک تابع $V( · )$ وجود دارد که $Var(X) = V(E(X))a(φ)$؟ این یادداشت را ببینید. 2. آیا ساختار واریانس یا تابع واریانس به این اشاره دارد که واریانس را می توان به عنوان تابعی از میانگین نوشت؟ 3. اگر $E(X) = f(\theta)$، و $Var(X) = f'(\theta)$، آیا $Var(X)$ تابعی از $E(X)$ است؟ یک مثال که شرط را برآورده می کند، توزیع خانواده نمایی متعارف است. | چه زمانی می توان واریانس را به عنوان تابعی از انتظار نوشت؟ |
52421 | من یک مجموعه داده دارم که شبیه این است. test.takers item1 item2 item3 item4 item5 item6 item7 item8 item9 item10 item11 item12 item13 item14 item16 item17 item18 total_score tt1 1 1 0 1 0 1 1 1 0 NA 1 1 1 1 2 NA 1 1 1 0 NA 0 0 0 0 NA 1 1 NA 0 1 0 NA 1 0 6 tt3 1 1 1 1 0 0 NA 1 NA NA 1 1 1 NA 0 NA 0 8 tt4 1 1 1 0 1 NA 1 1 0 0 NA 1 0 NA 8 tt5 0 1 1 0 1 1 NA 0 1 1 1 NA 0 0 1 1 9 tt6 0 0 0 1 1 1 1 NA 1 1 1 NA 1 1 NA 0 0 9 tt7 1 0 0 1 1 1 1 1 1 NA 0 1 1 1 NA 11 مجموعه داده شامل 3000 شرکت کننده در آزمون با پاسخ های خود در یک آزمون توانایی. همه شرکت کنندگان در آزمون نمی توانند به همه 18 مورد پاسخ دهند. بنابراین برخی از شرکت کنندگان فقط 10 مورد را مشاهده کردند، برخی دیگر فقط 12 مورد، و غیره. نتیجه یک چارچوب داده با تعداد زیادی NA است. اکنون می خواهم پارامترهای آیتم را با استفاده از مدل 2pl irt کالیبره کنم. و بعد از آن میخواهم تواناییهای آزمایشکننده را روی همان مجموعه داده کالیبره کنم. مشکلی که من با آن روبرو هستم این است که نمی توانم بسته R را پیدا کنم که بتواند کالیبراسیون را روی یک قاب داده با داده های از دست رفته انجام دهد. آیا کسی بسته R یا تابع R را می شناسد که بتواند این کار را برای من انجام دهد یا می داند که چگونه با این مشکل به روشی خلاقانه دیگر مقابله کنم؟ | IRT در R: آیا کسی تابع کالیبراسیون آیتم IRT را می شناسد که بتواند با NA مقابله کند؟ |
73899 | یک متغیر تصادفی $X$ را در نظر بگیرید که دارای توزیع نمایی چهارگانه است: $$X \sim P(x)=\frac{1}{Z}e^{ax + bx^2 + cx^3 + dx^4}$$ چگونه می توان $Z$ یا لحظه های غیر مرکزی $E X^k$ را با توجه به وجود آنها محاسبه کرد؟ تا آنجا که من متوجه شدم، هیچ فرمول بسته ای برای این مقادیر وجود ندارد، اما آیا روش عددی خوبی برای تخمین آنها وجود دارد؟ از آنجایی که من از داشتن هر نوع متخصصی در ادغام عددی بسیار دور هستم، آماده هرگونه پیشنهادی هستم که کار را با دقت معقول انجام دهد. | محاسبه گشتاورهای غیر مرکزی و نرمال ساز توزیع نمایی کوارتیک |
113168 | من سعی می کنم یک سیستم معادلات غیر خطی را با استفاده از بسته systemfit در R تخمین بزنم. من با آن مشکل داشتم. این دو معادله پارامترهای یکسانی دارند، یعنی سیگما، ال و ae. من انتظار دارم که آنها مقادیر یکسانی را در دو معادله بگیرند. از نظر تئوری، من انتظار دارم «سیگما» یکسان باشد. اگرچه، من مقادیر متفاوتی برای ضرایب دریافت می کنم. من می دانم که systemfit به شما اجازه می دهد تا محدودیت های خطی را روی ضرایب اعمال کنید، اما انجام این کار با nlsystemfit غیرممکن به نظر می رسد. gammae=exp(-0.7) gamma0=exp(-0.7) #beta=0.6 quale=q*e mod1=lsesv ~ log(gammae)+((sigma-1)/sigma)*(ae*trend1620-0.6*al*trend1620+log(quale)-0.6*log(labour)-(0.4)*log(kapital)) mod2=loutput~log(gamma0)+(sigma/(sigma-1))*log(((exp(al*trend1620)*labour^0.6)*(kap ital^(0.4)))^((سیگما-1)/سیگما)+گاما*((exp(ae*trend1620)*quale)^((سیگما-1)/سیگما))) eqSys=list(mod1,mod2) start.values=c(ae=0.0016,al=0.0016, sigma=0.1) model.ols=nlsystemfit(OLS,eqSys,start.values,data=uk,maxiter=1000) # ضرایب تخمینی >model.ols$b*1 ae al sigma 0.01647120 0.04431699 0.50860670 >model.ols$b*2 ae al sigma 0.03294239 0.08863398 1.01721341 در نتیجه فوق، اگر ضریب 1 معادل نصف معادله باشد، برآورد می شود. رویهای که به من امکان میدهد تخمینهای ضریب مربوطه را از طریق محدودیتها یا رویههای جایگزین معادلسازی کنم. متشکرم، mrrox | بسته systemfit و سیستم های معادلات غیر خطی / رگرسیون |
99488 | من با آمار نسبتاً تازه کار هستم و به طور رسمی آموزش ندیده ام، اما مشکل پیچیده ای برای حل آن به من داده شده است و به راهنمایی نیاز دارم. من متوجه می شوم که در اینجا کمی از عمق خودم خارج شده ام، اما از هر کمکی که می توانم به خاطر داشته باشم که بودجه ای برای این کار وجود ندارد و در نتیجه خرید نرم افزار یا استخدام مشاور امکان پذیر نیست، قدردانی خواهم کرد. **مشکل** کسب و کاری که من برای آن کار می کنم تعداد زیادی نماینده موبایل دارد که می توانند به مشاغل مختلف اعزام شوند. 100 نوع شغل مختلف وجود دارد و هر شغل را می توان به 4 نتیجه نهایی مختلف تقسیم کرد. هر یک از این 400 نتیجه نیاز به تخصیص ساعت های انسانی برای تکمیل دارد. من تعداد دفعاتی که هر یک از این پیامدها در هر باند ساعتی در 5 سال گذشته رخ داده است، دارم. از من خواسته شده است که پیش بینی کنم چه تعداد از هر نتیجه در هر باند ساعتی برای 28 روز از زمان حال رخ می دهد. پیشبینی حاصل برای پیشبینی نیازهای کارکنان به صورت ساعت به ساعت استفاده خواهد شد. در نتیجه پیشبینیها برای هر باند ساعتی باید نسبتاً دقیق باشد. **عوامل** در داده های من به وضوح برخی از اثرات فصلی سالانه، هفتگی و روزانه وجود دارد. به طور کلی، هر نتیجه ای در زمان های خاصی از روز در روزهای خاصی از هفته و با برخی روندهای سالانه احتمال بیشتری دارد. هر پیامد متفاوت احتمالاً به فراوانی تعدادی از پیامدهای مختلف مرتبط است. یعنی اگر _x_ اتفاق بیفتد، _y_ و/یا _z_ محتمل است اما _a_ و/یا _b_ نه. تعداد زیادی از عوامل محیطی وجود دارد که در فراوانی هر پیامد نقش دارند. اینها می تواند شامل، اما نه محدود به آب و هوا، روندهای اجتماعی سیاسی، مالی، و رویدادهای یکباره باشد. **چیزی که من امتحان کردم** تا کنون با استفاده از پیش بینی های ساده auto.arima، holtwinters و ets امتحان کرده ام. holtwinters در نهایت یک خط صاف تولید کردند (یعنی 5 و ساعت برای 672 ساعت آینده). ets کار نمی کند زیرا فصل ها بیش از 24 بازه زمانی هستند. auto.arima بهترین نتایج را ایجاد کرد، اما هنوز تا دقیق بودن فاصله زیادی داشت. سپس پیشنهاد شد که tbats() را امتحان کنم و چندین طول فصلی برای آن فراهم کنم. من با دادن طول فصلی 8760 (1 سال) و 168 (1 هفته) به بهترین نتایج رسیدم. به طرز ناامیدکننده ای، این نتایج زمانی که به عنوان مجموع تمام باندهای ساعتی در یک بلوک 1 ماهه در نظر گرفته می شوند، در 1٪ هستند، اما در صورت در نظر گرفتن هر باند ساعتی مجزا، تا 300٪ (متوسط 20٪) کاهش می یابد. هر دوی این رویکردها به جای در نظر گرفتن همه پیامدهای ممکن (و همبستگی آنها با یکدیگر) بر روی یک نتیجه فردی به کار گرفته شده اند. **افکار من تاکنون** در این مرحله احساس میکنم دو گزینه من این است که یا راهی برای استفاده از چیزی شبیه به tbats() بیابم که به روابط بین چندین پیامد مختلف و همچنین فصلی بودن و پیشبینی نگاه میکند. بر اساس آن اطلاعات یا آن رویکرد را برای مدل شبکه عصبی رها کنید. درک من (محدود) این است که با استفاده از رویکرد شبکه عصبی، ممکن است بتوانم برای بسیاری از عوامل محیطی ناشناخته، بدون نیاز به شناسایی واقعی آنها، عامل کنم. می دانم که تنبلی است، اما احساس من نسبت به داده ها این است که تعداد کمی از عوامل ناشناخته برای شناسایی وجود دارد و پیش بینی آنها ممکن است به خودی خود یک شغل باشد (یعنی شرایط آب و هوایی) **سوال** (در نهایت) چیزی که من دنبالش هستم راهنمایی است. با توجه به اطلاعات بالا و این واقعیت که من تقریبا به R محدود هستم، بهترین رویکرد چیست؟ و مراحل اساسی که باید دنبال کنم چیست؟ در حالی که نمیتوانم اطلاعاتم را به صورت آنلاین پست کنم (به دلیل محدودیتهای کارفرمایان)، میتوانم آنها را یک یا دو نفر بفرستم اگر کسی مایل بود به ما کمک کند تا راه حلی پیدا کنیم. | چگونه می توان سری های زمانی چند متغیره را «دقیق» با تعداد زیادی از عوامل ناشناخته با استفاده از R پیش بینی کرد؟ |
99480 | اگر کسی علاقه مند است، این سوال توسط نتایج اخیر قرعه کشی NBA ایجاد شده است. در 20 سال گذشته، تیمی که بدترین رکورد را در NBA دارد، دقیقاً 3 بار در قرعه کشی برنده شده است. تیمی که هر سال بدترین رکورد را دارد، 25 درصد شانس برنده شدن در انتخاب شماره یک کلی دارد. البته بسیاری از افراد در مورد نحوه تقلب در قرعه کشی صحبت خواهند کرد و این آمار را مثال می زنند. با این حال، به نظر نمی رسد که این یک انحراف آماری معنی دار از مقدار مورد انتظار 5 برد باشد. آیا کسی میداند که از چه آزمونی استفاده کنم تا بفهمم که آیا بدترین تیم که در 20 سال گذشته تنها 3 بار یا کمتر برنده شده است، از نظر آماری به طور قابل توجهی بعید است؟ بیشتر به فرآیند اینجا علاقه مند هستم، زیرا باید با آن آشنا باشم. اولین غریزه من به من می گوید که از تابع احتمال دو جمله ای استفاده کنم و بنابراین، $\sum_{x=0}^3 {n \choose x} (0.25)^3 (0.75)^{(20-x)}$, که بازدهی حدود 22.5% دارد که از $\alpha$ مثلاً 0.05 بیشتر است، بنابراین این از نظر آماری معنی دار نیست. با این حال، من احساس می کنم راه بهتری برای انجام این کار وجود دارد که شامل مقدار مورد انتظار 5 باشد. آیا کسی سرنخی از آنچه من در اینجا به دنبال آن هستم دارد؟ | 25 درصد شانس برنده شدن، اما فقط 3 برد در 20 رویداد گذشته |
12365 | وقتی مقدار p '3.2531E-129' را در تابع 'CHIINV' اکسل وارد می کنم، در نتیجه NOMBRE را دریافت می کنم. اگر این کار نمی کند چگونه می توانم مقدار chi-square را پیدا یا گزارش کنم؟ زمانی که مقدار «6.1203E-05» به «00000061203» بود، شخصی به من پیشنهاد داد که 0 را بنویسم. بنابراین، چگونه می توانم «3.2531E-129» را به «0.000000......32531» تغییر دهم؟ از کمک شما متشکرم. | p-value گزارش شده به عنوان 3.2531E-129 در اکسل در تابع CHIINV کار نمی کند. |
102925 | در حال حاضر یک مدل خطی داریم که شامل 3 متغیر مستقل و متغیر وابسته Y است که مقادیر پیشبینیشده (از 0.5- تا 2000) از مدل است. اکنون میخواهیم با حذف یکی از پیشبینیکنندهها از همان مدل استفاده کنیم (بیایید آن را X1 بنامیم). یکی از همکارانم پیشنهاد کرد که یک مدل را با یک وابسته جدید به عنوان (Y-X1) در برابر دو پیش بینی کننده اجرا کنیم. آیا این یک رویکرد صحیح است یا راه بهتری مانند تکنیک offset برای متغیر وابسته پیوسته وجود دارد؟ من واقعاً از کمک شما پیشاپیش سپاسگزارم. | مدل رگرسیون - مجبور کردن ضریب/اثر 1 |
63391 | امروز متوجه این سوال شدم، و فکر کردم اگر موضوعی داشته باشیم که منابعی را فهرست کند که افراد بتوانند به راحتی برای تجزیه و تحلیل توان/محاسبات اندازه نمونه به آن دسترسی داشته باشند، مفید خواهد بود، شاید مشابه این موضوع: منابعی برای یادگیری R. | اینترنت رایگان یا منابع قابل دانلود برای محاسبات اندازه نمونه |
19216 | در چه شرایطی می خواهید، یا نمی خواهید یک متغیر را قبل از برازش مدل، مقیاس یا استاندارد کنید؟ و مزایا / معایب مقیاس بندی یک متغیر چیست؟ | متغیرها اغلب قبل از ساخت یک مدل تنظیم می شوند (به عنوان مثال استاندارد می شوند) - چه زمانی این ایده خوب است و چه زمانی ایده بد است؟ |
49837 | من روی یک پروژه تحقیقاتی کار می کنم که در آن سعی می کنیم بهبود تناسب مدل مدل LDA خود را ارزیابی کنیم (رویکرد پایه Blie و همکاران، 2003 LDA). من به دنبال کدی هستم که به ما امکان میدهد گیجی مدل LDA خود را هنگام تنظیم آن ارزیابی کنیم. من می دانم که بسته R topicmodls یک تابع گیجی دارد اما PI من گزینه های دیگری خارج از R می خواهد. توصیه ای دارید؟ با تشکر از همه | کد برای ارزیابی سرگشتگی یک مدل موضوعی LDA |
45731 | من سعی می کنم از رگرسیون جنگل تصادفی در scikits-learn استفاده کنم. مشکل این است که من یک خطای تست بسیار بالا دریافت میکنم: `train MSE, 4.64, test MSE: 252.25.` دادههای من اینگونه به نظر میرسند: (آبی: دادههای واقعی، سبز:پیشبینی شده):  من از 90% برای آموزش و 10% برای تست استفاده می کنم. این کدی است که من بعد از آزمایش چندین ترکیب پارامتر استفاده میکنم: rf = rf = RandomForestRegressor(n_estimators=10, max_features=2, max_depth=1000, min_samples_leaf=1, min_samples_split=2, n_jobs=-1, test_sy_red = me rf.predict(X_test)) train_mse = mean_squared_error(y_train, rf.predict(X_train)) print(train MSE, %.4f, test MSE: %.4f % (train_mse, test_mse)) plot(rf.predict( X)) طرح (y) راهبردهای ممکن برای بهبود تناسب من چیست؟ آیا کار دیگری برای استخراج مدل اصلی وجود دارد؟ برای من باورنکردنی به نظر می رسد که بعد از این همه تکرار از همان الگو، مدل با داده های جدید بسیار بد رفتار می کند. آیا اصلاً امیدی دارم که این داده ها را منطبق کنم؟ | جنگل تصادفی بیش از حد مناسب است |
62958 | من با یک نمونه تصادفی سر و کار دارم و در مورد وزن های پس قشربندی آن سوال دارم. فرض کنید: * این یک نمونه تصادفی از آدرسها است، اما وزنهای پس از طبقهبندی محاسبه شده است (با استفاده از برآوردهای سرشماری) زیرا نمونه با توجه به برخی از متغیرهای مهم با جامعه هدف مطابقت ندارد. * هیچ مشکل عمده ای برای عدم پاسخ وجود ندارد. آیا وزنهای پس از طبقهبندی باید استفاده شوند: 1. به عنوان وزنهای احتمال (مثلاً استفاده از [pweight] در Stata یا بسته بررسی Lumley در R) هنگام تخمین واریانس، SE و غیره... **OR** 2. آیا باید به سادگی برای تنظیم مجدد نمونه (تغییر توزیع اما نه اندازه کل نمونه) استفاده شود که سپس می توان با روش های تخمین واریانس نمونه تصادفی تجزیه و تحلیل کرد؟ من گزینه اول را انتخاب می کنم (وزن های احتمال، اما ممکن است اشتباه کنم). بیشتر بحث هایی که می بینم در مورد نمونه های خوشه ای یا به طور کلی نمونه هایی است که در وهله اول به صورت تصادفی طراحی نشده اند. بحثهای دیگر نشان میدهد که چگونه وزنهای پس از طبقهبندی با انواع دیگر وزنها (به عنوان مثال، برای تصحیح دادههای از دست رفته) ترکیب میشوند تا وزنهای احتمالی نهایی را تولید کنند، اما آنها به خودی خود درباره پس طبقهبندی بحث نمیکنند. در یک نظرسنجی با نرخ پاسخ خوب، من پس قشربندی را راهی برای تصحیح سوگیری بدون پاسخ میدانم، زمانی که این امر به وضوح توسط برخی ویژگیها هدایت نمیشود و بهعنوان نماینده جمعیت در همان زمان، دو چیز که فکر میکنم اغلب هستند. تشخیص در برخی از نظرسنجی ها نسبتاً دشوار است. به عبارت دیگر حتی زمانی که آنها فقط به عنوان وزن های پس از طبقه بندی صادر می شوند و مشکل عمده عدم پاسخگویی ذکر نشده است، باید به عنوان وزن های احتمالی در برآورد خطاهای استاندارد و غیره استفاده شوند. | تخمین واریانس صحیح برای وزنهای نمونه تصادفی پس از طبقهبندی |
68427 | من یک مدل رگرسیون خطی با مقداری ورودی xs و خروجی ys یاد گرفتم. ys من همیشه مثبت است. با این حال، اکنون وقتی مدل را روی داده های آزمایشی خود آزمایش می کنم، مقادیر منفی برای ys دریافت می کنم. من می دانم که می توانم مقدار مطلق ys را بگیرم یا آنها را 0 کنم. اما این راه درستی برای انجام آن نیست. رویکرد صحیح برای مقابله با این وضعیت چیست؟ | سردرگمی مربوط به رگرسیون خطی |
62953 | 23 بیمار مبتلا به دندان قروچه ( دندان قروچه ) تحت درمان قرار گرفتند. دندان قروچه پایه آنها به مدت سه شب اندازه گیری شده است، سپس به مدت 23 شب تحت درمان قرار گرفتند، سپس دوباره خط پایه پس از به مدت سه شب اندازه گیری شد. دادههای خام به این صورت است: نمره شب بیمار دقیقههای خواب 1 1 20 25 480 1 2 28 67 480 مقادیر عبارتند از: * بیمار = تعداد بیمار * شب = شب (1 تا 26) * امتیاز = تعداد کل حملات دندان قروچه در طول آن شب * مدت زمان = کل ثانیه های دندان قروچه (مجموع تمام حملات) برای آن شب * دقیقه خواب = بازه زمانی مشاهده شده (گرد) تا یک ربع ساعت) در مجموع، 598 مجموعه داده، 26 شب متوالی برای 23 بیمار مختلف وجود دارد. متغیرهای جالب به این صورت تعریف شده است: nph = تعداد حملات دندان قروچه در ساعت (امتیاز * 60 / دقیقه خواب) sph = مدت زمان دندان قروچه بر حسب ثانیه در ساعت (مدت مدت * 60 / دقیقه خواب) میانگین شبانه بیش از همه بیماران است. : nph <- c(8.808858, 8.364923, 11.932373, 9.108704، 8.135258، 6.886013، 6.379688، 6.034062، 5.731728، 5.823831، 5.128421، 4.526408، 5.1458، 5.145 7.691637، 5.645240، 5.151750، 7.496109، 5.375605، 5.994595، 5.650951، 6.459269، 4.490204، 7.8746، 7.8919 7.583042) sph <- c(23.528665، 16.382689، 29.492815، 23.752084، 19.966185، 16.104159، 15.135591، 15.135591، 15.1352618، 15.16، 15. 11.321739، 13.418337، 8.391212، 9.062977، 10.665424، 9.535756، 9.925929، 9.040313، 14.635182، 14.635182، 14.635185، 14.635182، 14.635182، 14.635184، 14.635182، 14.635182، 14.635184، 14.635185، 11.321739. 9.742318، 16.437902، 7.443140، 14.204343، 12.648306، 13.401150) اینها میانگین تعداد حملات دندان قروچه در ساعت (nph) و مدت کل دندان قروچه در هر ساعت (nph) و مدت کل دندان قروچه از 2 ثانیه تا 2 شب در هر ساعت است. نمودار این دو متغیر نشان می دهد که پیشرفت آنها در طول 26 شب تقریباً موازی است، که نشان می دهد هر دو تقریباً به یک روش به درمان واکنش نشان می دهند.  دایره های پر شده سه شب قبل و سه شب بعد از درمان هستند. به دلیل مقیاس بندی، حداکثر مقدار برای هر دو متغیر در یک نقطه قرار می گیرد (شب سوم). سوال من این است: چگونه می توانم تحلیل کنم که این دو منحنی چقدر موازی هستند؟ | چگونه موازی دو توزیع را آزمایش کنیم؟ |
10295 | من سعی می کنم یک بسته داده کاوی برای سایت های StackExchange جمع آوری کنم و به ویژه در تلاش برای تعیین جالب ترین سؤالات گیر کرده ام. من می خواهم از نمره سوال استفاده کنم، اما به دلیل تعداد بازدیدها، تعصب را حذف کنم، اما نمی دانم چگونه به این موضوع به شدت برخورد کنم. در دنیای ایدهآل، میتوانم سؤالات را با محاسبه $\frac{v}{n}$ مرتب کنم، که $v$ مجموع آرا و $n$ تعداد بازدیدها است. از این گذشته، درصد افرادی را که به سؤال رأی مثبت می دهند، منهای درصد افرادی که به سؤال رأی منفی می دهند، اندازه گیری می کند. متأسفانه، الگوی رأی گیری بسیار پیچیده تر است. آرا تا حد معینی تمایل به «فلات» دارند و این تأثیری دارد که سؤالات بسیار محبوب را به شدت دست کم می گیرد. در عمل، سوالی با 1 بازدید و 1 رای موافق، مطمئناً از هر سوال دیگری با 10000 بازدید، اما کمتر از 10000 رای، امتیاز و مرتبسازی بالاتری خواهد داشت. من در حال حاضر از $\frac{v}{\log{n}+1}$ به عنوان یک فرمول تجربی استفاده می کنم، اما می خواهم دقیق باشم. چگونه می توانم با دقت ریاضی به این مسئله نزدیک شوم؟ برای پرداختن به برخی از نظرات، سعی می کنم دوباره مشکل را به روشی بهتر بیان کنم: فرض کنید من یک سوال با کل آرا $v_0$ و $n_0$ بازدید دارم. من میخواهم بتوانم تخمین بزنم که کل آرا $v_1$ زمانی که بازدیدها به $n_1$ میرسند، محتملتر است. به این ترتیب من به سادگی میتوانم یک مقدار اسمی برای $n_1$ انتخاب کنم و همه سوال را بر اساس کل $v_1$ مورد انتظار سفارش دهم. * * * من دو پرس و جو در datadump SO ایجاد کرده ام تا اثری را که در مورد آن صحبت می کنم بهتر نشان دهم: میانگین بازدید بر اساس امتیاز نتیجه:  میانگین امتیاز بر اساس بازدیدها (100 بازدید سطل) نتیجه:  * * * دو فرمول نتایج را با هم مقایسه کردند، مطمئن نیستم که آیا صافتر بهتر است یا نه: ($\frac{v}{n}$ به رنگ آبی، $ \frac{v}{log{n}+1}$ به رنگ قرمز)  | تابع جالب بودن برای سوالات StackExchange |
62957 | من یک مجموعه داده بزرگ دارم (400000 متغیر از 1000 نمونه). من می خواهم مشخص کنم که بهترین مجموعه از این متغیرها برای گرفتن بیشتر واریانس بین نمونه ها چیست. بهترین راه برای انجام یک تجزیه و تحلیل مؤلفه اصلی تکراری چیست که شاید هر بار X راند بین متغیرهای Y و Z را طی کند و به فهرستی منجر شود که کدام دور منجر به کمترین تعداد رایانههای شخصی برای گرفتن درصد مشخصی از واریانس میشود؟ | تکراری PCA R |
9218 | str(test) 'data.frame': 767 obs. از 2 متغیر: $ datefield: Ord.factor w/ 59 level 1984-04-01<1984-07-01<..: 1 2 3 4 5 6 7 8 9 10
$ somevar : num 43.7 55.6 43.5 54.1 42.8 ... > str(Italy) 'data.frame': 1008 obs. از 2 متغیر: سال $: Ord.factor w/ 48 سطح 1951<1952<..: 1 1 1 1 1 1 1 1 1 1 ...
$ gdp : num 8.56 12.26 9.59 8.12 5.54 ... من فیلد تاریخ را به یک فاکتور مرتب تبدیل کردم زیرا سعی می کنم یک مثال را با داده های خود بازتولید کنم. حالا میپرسم تفاوت بین چیست، یا به عبارت دیگر، 1 2 3 4 5 6 7 8 9 10 در مقابل 1 1 1 1 1 1 1 1 1 1 1 ... یعنی چه؟ | تفاوت بین این عوامل مرتب شده چیست؟ |
63398 | آزمون F و آزمون t در مدل های رگرسیونی انجام می شود. در خروجی مدل خطی در R، مقادیر برازش و مقادیر مورد انتظار متغیر پاسخ را دریافت می کنیم. فرض کنید من قد را به عنوان متغیر توضیحی و وزن بدن را به عنوان متغیر پاسخ برای 100 نقطه داده دارم. هر متغیر (متغیر توضیحی یا مستقل، اگر مدل رگرسیون چندگانه داشته باشیم) ضریب در مدل خطی با یک مقدار t (به همراه مقدار p آن) همراه است؟ این مقدار t چگونه محاسبه می شود؟ همچنین یک تست F در پایان وجود دارد. دوباره کنجکاو هستم که در مورد محاسبه آن بدانم؟ همچنین در ANOVA بعد از مدل خطی، من یک آزمون F را دیده ام. اگرچه من تازه یادگیرنده آمار هستم و سابقه آماری ندارم، اما آموزش های زیادی را در این زمینه پشت سر گذاشته ام. لطفاً برای رفتن به من با آموزش های اولیه پیشنهاد نکنید زیرا قبلاً این کار را انجام داده ام. من فقط کنجکاو هستم که در مورد محاسبات آزمون T و F با استفاده از چند مثال اساسی بدانم. ممنون!! | آزمون F و آزمون t در مدل رگرسیون خطی |
45733 | من یک سوال در مورد داده کاوی علمی دارم. 1. آیا مطالعات موردی موفقی را در مورد استفاده از تکنیک های داده کاوی / یادگیری ماشین در هیدرودینامیک می دانید؟ 2. به طور کلی، آیا واقعاً منطقی است که سعی کنیم تکنیکهای DM/ML را برای سیستمهای قطعی مانند جریانهای گاز/سیال که توسط معادلات ناویر-استوکس توصیف میشوند، اعمال کنیم؟ من حدس میزنم که در مورد جریانهای بسیار ساده، پاسخ «نه» است. اما شاید منطقی باشد اگر ما با داده های پیچیده از جریان های آشفته / چند فاز / ... معامله کنیم؟ 1. فرمول مشکل در این زمینه چه می تواند باشد؟ من از نظر شما، پیوند به مقالات و صفحات وب قدردانی خواهم کرد. | کاربردهای داده کاوی / ML در هیدرودینامیک؟ |
9215 | داده کاوی و تجزیه و تحلیل آماری یک بحث کلی در مورد آمار در مقابل داده کاوی دارد. اگر ممکن است، سؤال را کمی محدودتر کنید - آیا مرزبندی کلی وجود دارد که به شما امکان می دهد تصمیم بگیرید کدام رویکرد برای استفاده مناسب تر است - LDA یا ARM؟ (به غیر از قدردانی از ریاضیات قبلی) | انتخاب بین تخصیص دیریکله پنهان و استخراج قانون انجمن |
2918 | آیا منحنی های لورنز و طرح های QQ یکسان هستند؟ اگر نه، تفاوت ها کجاست؟ من در مورد هر دوی آنها مطالعه کردم و به نظر می رسد که آنها دو اصطلاح برای یک نوع نمودار / تکنیک آماری برای مقایسه توزیع ها هستند. من نتوانستم هیچ منبع تایید کننده ای برای این موضوع پیدا کنم. شاید شما می دانید؟ | آیا منحنی لورنز همان QQ-plot است؟ |
46821 | من در حال تولید یک اسکریپت برای ایجاد نمونه های بوت استرپ از مجموعه داده «cats» هستم (از بسته «-MASS-». به دنبال کتاب درسی دیویدسون و هینکلی [1] من یک رگرسیون خطی ساده را اجرا کردم و یک روش ناپارامتریک اساسی را برای راهاندازی از مشاهدات iid اتخاذ کردم، یعنی **نمونهگیری مجدد جفتی**. نمونه اصلی به این شکل است: Bwt Hwt 2.0 7.0 2.1 7.2 ... 1.9 6.8 از طریق یک مدل خطی تک متغیره میخواهیم وزن کانون گربهها را از طریق وزن مغزشان توضیح دهیم. کد این است: library(MASS) library(boot) ################## # CATS MODEL # ################ ## cats.lm <- glm(Hwt ~ Bwt، data=cats) cats.diag <- glm.diag.plots(cats.lm، ret=T) ####################### # نمونهگیری مجدد مورد ####################### cats.fit <- تابع(داده) coef(glm(data$Hwt ~ data$Bwt)) statistic.coef <- تابع(داده، i) cats.fit(داده[i،]) bootl <- boot(data=cats, statistic=statistic.coef, R=999) اکنون فرض کنید که یک متغیر خوشه بندی 'cluster = 1, 2,..., 24' وجود دارد (به عنوان مثال، هر گربه به یک معین تعلق دارد. بستر). برای سادگی، فرض کنید که داده ها متعادل هستند: برای هر خوشه 6 مشاهده داریم. بنابراین، هر یک از 24 بستر از 6 گربه تشکیل شده است (یعنی «n_cluster = 6» و «n = 144»). می توان یک متغیر خوشه جعلی ایجاد کرد: q <- rep(1:24, times=6) cluster <- sample(q) c.data <- cbind(cats,cluster) من دو سوال مرتبط دارم: چگونه می توان نمونه ها را مطابق با ساختار داده (خوشه ای) شبیه سازی کرد؟ یعنی **چگونه در سطح خوشه نمونهگیری مجدد کنیم؟** میخواهم از خوشهها با جایگزینی نمونهبرداری کنم و مشاهدات را در هر خوشه انتخابی مانند مجموعه داده اصلی تنظیم کنم (یعنی نمونهبرداری با جایگزینی خوشهها و بدون جایگزینی مشاهدات در هر خوشه). این استراتژی پیشنهاد شده توسط دیویدسون (ص 100) است. فرض کنید ما نمونه های 'B = 100' را ترسیم می کنیم. هر یک از آنها باید توسط 24 خوشه احتمالاً مکرر تشکیل شده باشد (به عنوان مثال خوشه = 3، 3، 1، 4، 12، 11، 12، 5، 6، 8، 17، 19، 10، 9، 7، 7، 16، 18، 24، 23، 11، 15، 20، 1`)، و هر خوشه باید شامل همان 6 مشاهدات مجموعه داده اصلی باشد. چگونه این کار را در R انجام دهیم؟ (چه با بسته «-boot-» یا بدون آن.) آیا پیشنهاد جایگزینی برای ادامه دارید؟ سوال دوم مربوط به مدل رگرسیون اولیه است. فرض کنید من یک **مدل جلوه های ثابت** را با وقفه های سطح خوشه اتخاذ می کنم. **آیا روش نمونه گیری مجدد را تغییر می دهد** اتخاذ شده؟ [1] دیویدسون، A. C.، Hinkley، D. V. (1997). _روش های بوت استرپ و کاربردهای آنها_. انتشارات دانشگاه کمبریج | بوت استرپ داده های سلسله مراتبی/چندسطحی (نمونه گیری مجدد خوشه ها) |
63396 | 4 گروه وجود دارد که هر یک دارای دو متغیر X و Y است. من سعی می کنم رگرسیون بین آنها را درک کنم. برای متغیر X من 2 دسته مثبت و منفی دارم. من درک نمی کنم که چگونه شیب ها و فاصله های بین X (مثبت و منفی) و Y را مقایسه کنم. آیا باید مقادیر منفی را معکوس کنم؟ | شیب ها و فاصله های بین 2 متغیر را در SPSS مقایسه کنید |
24300 | در R، اگر من set.seed()، و سپس از تابع نمونه برای تصادفی کردن یک لیست استفاده کنم، آیا می توانم تضمین کنم که جایگشت مشابه ایجاد نمی کنم؟ به عنوان مثال... set.seed(25) limit <- 3 myindex <- seq(0,limit) for (x in seq(1,factorial(limit))) { permutations <- sample(myindex) print(permutations) } این [1] 1 2 0 3 [1] 0 2 1 3 [1] 0 3 2 1 [1] 3 1 2 0 [1] 2 تولید می کند 3 0 1 [1] 0 1 3 2 آیا همه جایگشت های چاپ شده جایگشت منحصر به فرد خواهند بود؟ یا بر اساس روشی که این مورد اجرا می شود، شانسی وجود دارد که بتوانم چند بار تکرار کنم؟ من می خواهم بتوانم این کار را بدون تکرار، تضمینی انجام دهم. چگونه این کار را انجام دهم؟ (همچنین میخواهم از استفاده از تابعی مانند permn پرهیز کنم، که یک روش بسیار مکانیکی برای تولید همه جایگشتها دارد--- تصادفی به نظر نمیرسد.) همچنین، sidenote--- به نظر میرسد این مشکل O است. ((ن!)!)، اگر اشتباه نکنم. | چگونه در R بدون تکرار جایگشت نمونه برداری کنیم؟ |
68425 | من سه سری زمانی داده های اقتصادی بر اساس مشاهدات فصلی دارم. A، B و C، و من میخواهم همبستگی (یا نه) بین A و C و همچنین همبستگی بین B و S را مشخص کنم. سری زمانی متفاوت مرتبه 1 B آزمایشهای ADF و KPSS را برای ایستایی با موفقیت پشت سر میگذارد. سری A و C حتی پس از تلاش برای کاهش روند (بر اساس رگرسیون خطی و میانگینهای متحرک متمرکز مرتبه 4) و همچنین تفاضل مرتبه 1 و 2 در تستهای ثابت با شکست مواجه میشوند. بهترین راه برای تعیین میزان همبستگی بین A & C و بین B & C در این شرایط چیست؟ در زیر دادههای سری زمانی وجود دارد (تبلیغ جدا شده): A 13,603 15,062 (22,984) 14,704 14,285 15,585 (17,460) 21,145 20,926 28,117 (6,511) 32,511 (21,376) 14,140 3,416 26,526 (21,159) 30,874 51,579 50,426 (19,874) 52,980 30,338 B (92,345) 19,4015 19,4015 (39,180) (29,979) 112,499 5,914 60,787 92,253 124,716 23,638 362,566 (66,896) 209,127 103,986 (13,986) (13,814) 177,945 (36,645) 148,722 189,477 C 819,019 716,641 767,830 1,177,339 1,254,122 1,254,122 9816,3826 806,222 819,019 844,613 1,018,655 1,108,235 1,261,801 1,474,234 1,412,807 1,678,988 1,638,021,037,237,000 1,279,717 1,279,717 1,023,773 | نحوه تعیین همبستگی بین سری های زمانی ثابت و غیر ایستا |
49832 | در یک مدل چند سطحی، پیامدهای عملی و مرتبط با تفسیر تخمین در مقابل برآورد نکردن پارامترهای همبستگی اثر تصادفی چیست؟ دلیل عملی این سوال این است که در چارچوب lmer در R، زمانی که تخمینها در مدل همبستگیهای بین پارامترها انجام میشود، هیچ روشی برای تخمین مقادیر p از طریق تکنیکهای MCMC وجود ندارد. برای مثال، با نگاهی به این مثال (بخشهایی که در زیر ذکر شده است)، مفاهیم عملی M2 در مقابل M3 چیست. بدیهی است که در یک مورد P5 برآورد نمی شود و در مورد دیگر برآورد می شود. سوالات 1. به دلایل عملی (میل به بدست آوردن یک مقدار p از طریق تکنیک های MCMC) ممکن است بخواهید مدلی را بدون همبستگی بین اثرات تصادفی تطبیق دهید حتی اگر P5 اساساً غیر صفر باشد. اگر کسی این کار را انجام دهد و سپس مقادیر p را از طریق تکنیک MCMC تخمین بزند، آیا نتایج قابل تفسیر هستند؟ (من می دانم که @ Ben Bolker قبلاً اشاره کرده است که ترکیب تست معنی داری با MCMC از نظر آماری کمی نامنسجم است، اگرچه من اصرار برای انجام این کار را درک می کنم (دریافت فواصل اطمینان بیشتر قابل پشتیبانی است)، بنابراین اگر باعث می شود بهتر بخوابید. در شب وانمود کنید که فواصل اطمینان را گفتم.) 2. اگر کسی نتواند P5 را تخمین بزند، آیا این همان ادعایی است که 0 است؟ 3. اگر P5 واقعاً غیر صفر است، پس از چه جهت مقادیر تخمینی P1-P4 تحت تأثیر قرار می گیرند؟ 4. اگر P5 واقعاً غیر صفر است، پس برآورد خطا برای P1-P4 به چه صورت تحت تأثیر قرار می گیرد؟ 5. اگر P5 واقعاً غیر صفر است، پس از چه جهاتی تفسیرهای مدلی که P5 را شامل نمی شود ناقص است؟ با قرض گرفتن از پاسخ مایک لارنس (کسانی که از من آگاهتر هستند آزادند که آن را با نماد مدل کامل جایگزین کنند، من کاملاً مطمئن نیستم که بتوانم این کار را با وفاداری معقول انجام دهم): M2: `V1 ~ (1|V2) + V3 + (0+V3|V2)` (تخمین P1 - P4) M3: `V1 ~ (1+V3|V2) + V3` (تخمین P1-P5) _پارامترهایی که ممکن است تخمین زده شوند:_ **P1**: یک رهگیری جهانی **P2**: وقفه های اثر تصادفی برای V2 (یعنی برای هر سطح از V2، انحراف رهگیری آن سطح از رهگیری جهانی) ** P3**: یک تخمین کلی برای اثر (شیب) V3 **P4**: تأثیر V3 در هر سطح از V2 (بیشتر به طور خاص، میزان انحراف اثر V3 در یک سطح معین از اثر کلی V3)، در حالی که یک همبستگی صفر بین انحرافات رهگیری و انحرافات اثر V3 در سطوح V2 برقرار میکند. **P5**: همبستگی بین انحرافات رهگیری و انحرافات V3 در سطوح پاسخ های V2 حاصل از یک شبیه سازی به اندازه کافی بزرگ و گسترده همراه با کد همراه در R با استفاده از lmer قابل قبول است. | در یک مدل چند سطحی، پیامدهای عملی تخمین در مقابل برآورد نکردن پارامترهای همبستگی اثر تصادفی چیست؟ |
49830 | آیا من اشتباه می کنم یا روش استاندارد بهینه سازی یک مدل یادگیری ماشینی این است که الگوریتم را بر روی مجموعه داده (اولیه) برای همه ترکیبات ممکن از پارامترها ارزیابی کنیم و سپس یکی را انتخاب کنیم که بهترین امتیاز ارزیابی را می دهد؟ اگر هنوز نمره قابل قبولی کسب نکردیم، باید مجموعه داده (اولیه) را برش داده و تاس کنیم و فرآیند را از ابتدا شروع کنیم، اما این بار آن را روی مجموعه داده جدید اعمال کنیم؟ آیا این به نظر شما درست است یا من اینجا چیزی را گم کرده ام؟ | چگونه معمولاً بهترین ترکیب از پارامترهای یک مدل یادگیری ماشینی (برای یک مجموعه داده معین) را انتخاب می کنیم؟ |
46826 | ابتدا باید بگویم که برای پاسخ در این سایت جستجو کردم. من یا سوالی پیدا نکردم که جواب سوالم را بدهد یا سطح دانشم آنقدر پایین است که متوجه نشدم قبلا جواب را خوانده ام. من در حال مطالعه برای آزمون آمار AP هستم. من باید رگرسیون خطی را یاد بگیرم و یکی از مباحث باقیمانده است. من یک نسخه از _مقدمه ای بر آمار و تجزیه و تحلیل داده ها_ در صفحه 253 دارم. > نقاط غیرمعمول در یک مجموعه داده دو متغیره، آنهایی هستند که از بیشتر > سایر نقاط در نمودار پراکندگی در جهت $x$ یا جهت $y$ > > > یک مشاهده به طور بالقوه یک **مشاهده تأثیرگذار** است. اگر یک مقدار > $x$ داشته باشد که از بقیه داده ها بسیار دور باشد (از بقیه داده ها در جهت $x$ جدا شده است). برای تعیین اینکه آیا مشاهده در واقع تاثیرگذار است یا خیر، ارزیابی می کنیم که آیا حذف این مشاهدات تاثیر زیادی بر مقدار شیب یا قطع حداقل مربعات دارد یا خیر. > > اگر یک مشاهده باقیمانده زیادی داشته باشد، **پرت** است. مشاهده Outlier > از خط حداقل مربع در جهت $y$ فاصله زیادی دارد. Stattreck.com چهار روش را برای تعیین نقطه پرت از باقیمانده ها بیان می کند: > نقاط داده ای که به میزان زیادی از الگوی کلی جدا می شوند، > پرت نامیده می شوند. چهار راه وجود دارد که یک نقطه داده را میتوان یک > پرت در نظر گرفت. > > 1. می تواند در مقایسه با سایر نقاط داده دارای یک مقدار X شدید باشد. > 2. در مقایسه با سایر نقاط داده می تواند یک مقدار Y شدید داشته باشد. > 3. می تواند مقادیر X و Y شدید داشته باشد. > 4. ممکن است از بقیه داده ها دور باشد، حتی بدون مقادیر شدید X > یا Y. > به نظر می رسد این دو منبع با یکدیگر تضاد دارند. کسی میتونه کمک کنه تا ابهاممو برطرف کنم همچنین، چگونه می توان افراط را تعریف کرد. اگر نقطه داده خارج از (Q1-1.5IQR,Q3+1.5IQR) باشد، اگر نقطه داده خارج از آن باشد، آمار AP از قانون استفاده می کند. من نمی دانم چگونه می توان آن را فقط از یک نمودار از باقیمانده ها اعمال کرد. | باقیمانده تأثیرگذار در مقابل پرت |
112992 | بگویید من 16 روز کاری در ماه دارم و 16 روز داده تولید دارم تا میانگین و واریانس این داده روزانه داشته باشم (مثلاً میانگین 3750 و واریانس 500 است). من می توانم یک فاصله اطمینان برای داده های روزانه ایجاد کنم، اما چگونه می توانم عرض بازه را افزایش دهم تا یک فاصله اطمینان با همان سطح اطمینان برای میانگین تولید ماهانه ایجاد کنم؟ یعنی اگر من یک فاصله اطمینان 95% برای میانگین روزانه ایجاد کنم، یک فاصله اطمینان 95% برای میانگین ماهانه نیز می خواهم. [شما می توانید یک CI بسیار بزرگ را در حدود یک تاریخ تولید ماهانه ایجاد کنید، اما این چیزی نیست که من به آن علاقه دارم.] متشکرم! | CI برای تولید ماهانه بر اساس داده های تولید روزانه |
24302 | من یک تصویرسازی از محصولات مرتبط آمازون انجام دادم. هر پیوند در تجسم به این معنی است که دو محصول اغلب با هم خریداری می شوند. اکنون از تکنیک های مختلف تجزیه و تحلیل گراف استفاده می کنم و مجذوب نتایج هستم. با این حال، بزرگترین مشکل ترجمه اصطلاحات علمی به زبان انسانی است (لطفاً من را ببخشید اگر به نظر پوچ به نظر می رسد). به عنوان مثال، من مرکزیت درجه گره ها را محاسبه کردم و آن را «چه چیزی در اینجا محبوب است» نامیدم. پس از همه، گره متصل ترین به این معنی است که اغلب با تمام محصولات دیگر در یک نمودار مشخص خریداری می شود. در حال حاضر من روی _بین مرکزیت_ کار می کنم و نتایج بسیار جالبی به دست می دهد که اغلب با _مرکزیت درجه تناقض دارند. اما چگونه این نتایج را تفسیر می کنید؟ مهمترین محصولات؟ به عنوان مثال، نمودار کتاب های هنر برنامه نویسی R دارای 3 گره برتر زیر است: **مرکزیت درجه:** 1. هنر برنامه نویسی R \- 18 لبه خروجی 2. R Cookbook (کتاب آشپزی O'Reilly) \- 14 لبه های خروجی 3. انجام تجزیه و تحلیل داده های بیزی: آموزش با R و BUGS \- 10 لبه خروجی ** مرکزیت بین:** 1. هنر برنامه نویسی R \- مقدار مرکزیت 1210 2. به هر حال یک مقدار p چیست؟ \- مقدار مرکزیت 896 3. تجسم این \- مقدار مرکزیت 784 خود نمودار به این صورت است:  | مرکزیت بین در نمودار کتاب های آمازون اعمال شد |
44469 | من در حال انجام یک مطالعه گذشته نگر هستم که نشان می دهد چگونه مرگ و میر خوکچه ها با افزایش سن خوک ها متفاوت است. از آنجایی که دادههای من برای هر گاو بیش از هفت سال است و هر خروس ممکن است تنها در یک یا دو سال تلفات داشته باشد، من با آمار توصیفی با مشکل زیادی روبرو هستم. آزمون فریدمن من در طول هفت سال اهمیت داشت، اما انحرافات استاندارد من در همه جا وجود دارد! من کمی در مورد فواصل اطمینان Cousineau در طراحی های درون موضوعی خوانده ام، اما نمی توانم اشاره ای به استفاده از آن در چیزی جز مطالعات روانشناسی پیدا کنم. آیا هنوز در اینجا کاربرد دارد و اگر نه، آیا کسی پیشنهادی در مورد اینکه چه کاری باید انجام شود دارد؟ من نمی توانم بفهمم چگونه نوارهای خطا را دریافت کنم که داده های من را بی اهمیت جلوه نمی دهد! | آمار توصیفی در یک مطالعه اندازه گیری مکرر |
114099 | من این خطا را هنگام اجرای fisher.test() در R دریافت می کنم: freqTable = 1 2 3 4 5 6 7 1 14 0 2 0 0 0 0 2 0 0 0 9 0 0 0 3 0 6 0 0 0 0 0 4 0 0 0 0 6 0 0 5 0 0 0 0 0 0 10 0 6 0 0 10 0 0 0 0 7 2 4 9 1 0 0 30 > fisher.test(freqTable, workspace=2e+07,hybrid=TRUE)$p.value خطا در fisher.test(freqTable, workspace = 2e +07، ترکیبی = درست) : خطای FEXACT 30. پشته طول در f3xact بیشتر شد. این مشکل نباید پیش بیاید. Chi-square نیز مشکل ساز است: chisq.test(freqTable) داده های تست Chi-squared پیرسون: freqTable X-squared = 466.81، df = 36، p-value < 2.2e-16 پیام هشدار: در chisq.test (freqTable): تقریب مجذور کای ممکن است نادرست باشد به نظر می رسد یک باز وجود دارد گزارش اشکال: https://bugs.r-project.org/bugzilla/show_bug.cgi?id=1662 میدانم آیا کسی راهحل مناسبی برای این موارد پیدا کرده است؟ با تشکر | fisher.test() و اشکال Chi-square در R |
45737 | اول: من با اصطلاحات آماری آشنا نیستم، لطفاً مرا ببخشید - سعی می کنم تا حد امکان در مورد مشکلم پرحرف باشم. این مشکلی است که قبلاً خیلی ساده لوحانه آن را حل کرده بودم. من به دنبال اعمال تئوری آماری استاندارد بیشتری برای این مشکل هستم تا به نتایج دقیقتری دست پیدا کنم. هر گونه کمکی در مورد اعتبارسنجی رویکرد یا (رد کردن آن) و روشهایی که بتوانم استفاده کنم، قدردانی میشود (حتی شرایط صحیح). مشکل مربوط به تجارت است: من مجموعه ای از محصولات (مثلا 100) دارم که دارای ویژگی های متنوعی هستند. برای این مثال، من 3 مورد از آنها را انتخاب می کنم: 1. درصد تخفیف (قیمت فعلی / RRP) * 100 2. بازدید (تعداد دفعات مشاهده شده) 3. سطح سهام با استفاده از این ویژگی ها می خواهم بتوانم قوانین مرتب سازی مختلف را در برای قرار دادن این محصولات در یک سفارش. قوانین مرتب سازی جایی است که پیکربندی اتفاق می افتد - اما بخش آماری مشکل من قبل از آن است. برای مقایسه این ویژگی های محصولات به درستی باید موارد زیر را انجام دهم: ## Standardize & Normalize. بنابراین مقادیر و توزیع این ویژگی ها: 1. درصد تخفیف: 0 تا 100 با توزیعی که اکثر محصولات دارای مقادیر 0 (50% محصولات)، 20 (25%)، 30 (10%)، 50 (15%) هستند. ) 2. بازدید: 0 تا 30000 با توزیع نسبتاً یکنواخت 3. سطح موجودی: 0 تا 40 با توزیع نسبتاً یکنواخت (اما متفاوت از توزیع برای بازدیدها) کل جمعیت را برای هر ویژگی میگیرم، و با استفاده از مقادیر حداکثر و حداقل، هر مقدار را بازنشانی میکنم تا در مقیاسی بین 0 تا 10 قرار دهم - جایی که حداکثر مقدار 0 و حداقل مقدار 10 است. هر یک از اعضا را بررسی می کنم اگر در صدک 0-10٪، صدک 10-20 و غیره باشد و به آن نمره 1 تا 10 می دهم. با این حال فکر می کنم این یک راه حل بسیار ساده لوحانه است زیرا اینطور نیست. توزیع را در نظر بگیرید برای برخی ویژگیها، من 99 عضو از جمعیت را با امتیاز 10 و 1 عضو را با امتیاز 0 دریافت میکنم. من توزیع یکنواختتری را میخواهم که در آن نقاط پرت نتوانند نتیجه نهایی را به شدت تغییر دهند (به این میگویند هموارسازی؟). من میتوانم این کار را بعد از مرحله بالا انجام دهم - اما دادههای زیادی در این نقطه (imo) از بین میرود تا کار خوبی در اینجا انجام شود. آیا تکنیکی برای انجام همزمان این دو مرحله وجود دارد (آیا این نام دارد؟). آیا من درست فکر می کنم که روش عادی سازی برای هر ویژگی ممکن است در نهایت متفاوت باشد؟ آیا باید از آزمون و خطا روی دادههایم استفاده کنم تا زمانی که به چیزی که رضایتبخش میدانم برسم یا میتوانم بدون نیاز به تغییر دستی این فرآیند به توزیع یکسانتر دست پیدا کنم؟ من می خواهم طیفی از نمرات بین 0 و 1 (به جای 0 و 10) داشته باشم. من احتمالاً در نهایت از R برای کمک به من استفاده می کنم زیرا در همه حساب ها به نظر می رسد بهترین ابزار برای این کار است. من مطمئن نیستم که برای چیزی که من آن را یک مشکل نسبتاً ساده میدانم، زیادهروی است یا خیر - اما پیچیدگی موجود در فرآیند عادیسازی «صحیح» ممکن است فراتر از آن چیزی باشد که من به راحتی میتوانم در زبان برنامهنویسی خود انجام دهم. قبل از اینکه به آن بپردازم، میخواهم فرضیات/نظریهام را تأیید کنم. ## وزن دهی پس از انجام مراحل فوق، به متخصصان دانش دامنه اجازه می دهم وزن این ویژگی های مختلف را برای تعیین ترتیب مرتب سازی پیکربندی کنند (مثلاً ممکن است بخواهند بگویند تعداد بازدیدها 3 برابر مهمتر از آن زمان است. سطح سهام، در این صورت من رقم نماهای نرمال شده را در 3 ضرب می کنم و سپس قبل از مرتب سازی کل جمعیت، آن را به بقیه اضافه می کنم). من خوانده ام که گاهی اوقات این دانش می تواند در فرآیند استانداردسازی گنجانده شود - به طوری که خود ارقام اهمیت آنها را نسبت به سایر ویژگی ها در نظر می گیرند. من نمی خواهم این کار را انجام دهم. در مثال بالا در مورد جمعیت 100 نفر صحبت کردم. جمعیت واقعی من بین 1000 تا 50000 است، اما هنوز فکر می کنم این به اندازه کافی کوچک است تا بتوانم به جای نمونه برداری با کل مجموعه داده ها کار کنم. هر اشارهای قدردانی میشود زیرا ساعتها را صرف خواندن کردهام و اکنون احساس میکنم که دارم دایرهای میروم. -ممنون | فرآیند استانداردسازی و عادی سازی داده ها |
68424 | فرض کنید مدل رگرسیون خطی نرمال کلاسیک زیر را داریم: $$y_i = \beta_1 x_{1i} + \beta_2x_{2i} + \beta_3x_{3i} + e_i$$ که $e_{i} \sim iid.N(0 ، \sigma^2)$ برای همه $i = 1، 2، \cdots، n$ و $x_{1i} = 1$ برای همه $i = 1، 2، \cdots، n$. فرض کنید که ما مقادیر داده ای را برای $x_{2i}$ و $x_{3i}$ برای همه $i = 1, 2, \cdots, n$ می شناسیم. تعریف $\boldsymbol{\beta} = (\beta_1, \beta_2, \beta_3)'$ و با فرض یک ماقبل غیر اطلاعاتی به شکل $p(\boldsymbol{\beta}, \sigma) \propto \frac{1 }{\sigma}$، سپس میتوانیم نشان دهیم که pdf شرطی پسین برای $\boldsymbol{\beta}$ و $\sigma$، یعنی: $p(\boldsymbol{\beta}|\sigma، \mathbf{y})$ و $p(\sigma|\boldsymbol{\beta}،\mathbf{y})$ به ترتیب گامای عادی و معکوس هستند. سوال این است: از یک نمونهگیر گیبس استفاده کنید و pdf بعدی تابع پارامتر را تخمین بزنید: $\displaystyle \psi = \frac{\beta_2 + \beta_3}{\sigma^2}$. اکنون یک نمونهگر گیبس (در R) اجرا کردهام و پس از سوختن در دوره 100 قرعهکشی، 1000 قرعهکشی $(\boldsymbol{\beta}^{(i)}، \sigma^{(i)} به دست آوردم. )$، یعنی من نمونه ای از $(\beta_1^{(i)}، \beta_2^{(i)}، \beta_3^{(i)} دارم، \sigma^{(i)})$ برای $i = 1، 2، \cdots، 1000$، چگونه می توانم از این ترسیم ها برای تولید تخمینی از pdf بعدی $\psi$ استفاده کنم؟ به عبارت دیگر، چگونه می توانم $p(\psi|\mathbf{y})$ را تخمین بزنم؟ * * * ویرایش: من تازه وارد لگاریتم MCMC هستم. من منظور شما را درک می کنم، اما هنوز مطمئن نیستم که چگونه از آن در زمینه این سوال استفاده کنم. با توجه به آنچه تاکنون آموخته ام، بگوییم که $\boldsymbol{\theta} = (\theta_1, \theta_2)'$ و $p(\boldsymbol{\theta}|\mathbf{y}) = p(\) داریم theta_1، \theta_2|\boldsymbol{y})$ قسمت خلفی مشترک است، سپس خلفی حاشیه ای $\theta_1$ توسط $p(\theta_1|\mathbf{y}) = \int_{\theta_1} p(\theta_1|\theta_2,\mathbf{y})p(\theta_2|\mathbf{y})d\theta_2$، اکنون بگو من نمونه ای از $M$ قرعه کشی $(\theta_1^{(i)}، \theta_2^{(i)})$ از $p(\theta_1، \theta_2|\boldsymbol{y})$، سپس برای تخمین $p(\theta_1|\mathbf{y})$، از میانگین نمونه زیر استفاده میکنیم: $\widehat{p(\theta_1| \mathbf{y})} = \frac{1}{M} \sum_{i=1}^M p(\theta_1|\theta_2^{(i)}، \mathbf{y}) $، یعنی چگالی حاشیه ای را با میانگین گیری از چگالی های شرطی تخمین می زنیم. چگونه می توانم آن را در اینجا پیاده سازی کنم؟ * * * EDIT2: پس از کمک @Tomas و @BabakP، من سعی کردم خودم مشکل را در R کدنویسی کنم (من کاملاً در R جدید هستم، فقط در چند هفته گذشته زبان را یاد گرفتم). کد زیر من است: (توجه: فقط برای تمرین، من عمداً مسیر دیگری را برای ترسیم از هر شرطی به جای تجزیه کارآمدتر @BabakP رفتم) ################## ############################################### نسل از داده = y ############################################## ################# true_beta = ماتریس(c(2,0.5,0.7),3,1) ## مقدار واقعی بتا (بردار) مورد استفاده در فرآیند تولید داده ( dgp) true_sig = 0.3 ## مقدار واقعی sig استفاده شده در فرآیند تولید داده (dgp) ## تنظیم اعداد تصادفی seed set.seed(123456, kind = NULL, normal.kind = NULL) ## تعداد مشاهدات nobs=20 # # ایجاد مقادیر x1، x2، x3 و y. استفاده از توزیع گاوسی در اینجا برای راحتی. x1 = ماتریس (1، نوب، 1) x2 = ماتریس (c(rnorm(nobs،0،1))، نوب، 1) x3 = ماتریس(c(rnorm(nobs،0،1)، نوب، 1) u = ماتریس(c(rnorm(nobs,0,1)),nobs,1)%*%true_sig x = cbind(x1,x2,x3) y = x%*%true_beta + u ############################################################# #################### مشخصات آمار نمونه ############################################### ######### invxx = حل(t(x)%*%x) betahat = invxx%*%t(x)%*%y df = nobs - 3 Sighat = sqrt((t(y-x%*%betahat)%*%(y-x%*%betahat))/df) ######################## ########################################## نسل قرعه کشی بتا/سیگما/psi از طریق نمونه گیری گیبس ### ############################################################# ############################## B = 100+1 ## +1 اضافی از آنجایی که نمونهگر گیبس کد شده در زیر از j=2 شروع میشود، بنابراین دوره سوختن از j=2 تا j=101 M = 1000 ## تعداد قرعه کشی ها پس از سوختن در دوره است. repl = B+M ## تعداد کل تکرارهای گیبس از جمله رایت در و تعداد تساوی بعد از رایت در دوره. ## اندازهگیری ماتریس بتا/سیگما/psi رسم میکند ## betav = ماتریس(0,repl,3) sigv = ماتریس(0,repl,1) psiv = ماتریس(0,repl,1) ## ایجاد تصادفی عادی زیربنایی ترسیم برای استفاده در الگوریتم گیبس stnbeta = ماتریس(c(rnorm((repl*3),0,1)),repl,3) ## تعیین مقدار شروع برای زنجیره گیبس sigv[1] = true_sig ## نمونه برداری گیبس برای (j در 2:repl){ # # تولید بتا (بردار) از طریق میانگین چند متغیره معمولی شرطی شناخته شده آن = betahat varb | نمونه برداری گیبس برای تولید پی دی اف پسین |
68426 | من سعی می کنم دو سری زمانی صفحه گسترده اکسل خود را (به لینک زیر مراجعه کنید) در یک جدول احتمالی قرار دهم. https://www.dropbox.com/s/2f96oylxj97fuih/example.xls سری اول تعداد اشتراک در هر ساعت به مدت 24 ساعت است. سری دوم شامل ساعاتی است که تبلیغات برای ایستگاه های رادیویی مختلف نمایش داده می شود (مثلاً تبلیغ برای کانال 1 در ساعت 14:00). من در مورد امکان سنجی قرار دادن این 2 سری زمانی در جدول احتمالی تردید دارم. آیا این معقول است؟ | جدول احتمالی با 2 سری زمانی مختلف |
79138 | من با آزمون log-rank برای مقایسه چندین منحنی Kaplan-Meier آشنا هستم، اما به دنبال آزمونی هستم که بین گروه های مرتب شده (یک متغیر ترتیبی) مقایسه کند. نتیجه معنی دار از آزمون رتبه بندی ورود به سیستم نشان می دهد که حداقل یکی از گروه ها دارای منحنی بقا متفاوت از بقیه است. من آزمایشی می خواهم که در آن یک آزمون معنی دار نشان دهد که یک روند یکنواخت در منحنی های بقا در سطوح متغیر گروه بندی ترتیبی وجود دارد. به عنوان مثال ملموس تر، منحنی های بقا را برای سرطان در مراحل مختلف در نظر بگیرید، و من می خواهم نشان دهم که نه تنها منحنی ها متفاوت هستند، بلکه با افزایش مرحله، بقا بدتر می شود. به عنوان یک امتیاز، اشاره گرها به پیاده سازی الگوریتم در R قدردانی می شوند. * * * ویرایش به آدرس «@dardisco» نظر: وقتی سعی کردم یک آزمایش مناسب پیدا کنم، مرجعی پیدا کردم که در مستندات نرم افزار MedCalc در http://www.medcalc.org/manual/ مناسب به نظر می رسید. kaplan-meier.php. دو نقل قول که شبیه آنچه من از آن می خواستم به نظر می رسید عبارتند از > گزینه ها: روند خطی برای سطوح فاکتور: آزمایش روند خطی > در سطوح فاکتور را امکان پذیر می کند. اگر سطوح فاکتور دارای نظم طبیعی > باشند، مناسب است (به عنوان مثال، کدهای عامل دوزهای اعمال شده برای > گروه های مختلف را نشان می دهند). کاپلان-مایر فرض می کند که سطوح عامل به طور مساوی > فاصله دارند. و > تست Logrank برای روند: اگر بیش از دو منحنی بقا مقایسه شود، و > ترتیب طبیعی گروه ها وجود داشته باشد، آنگاه MedCalc می تواند تست > logrank را نیز برای روند انجام دهد. این احتمال وجود یک روند در > نمرات بقا در گروه ها را آزمایش می کند. اما الگوریتم خاصی برای این تست بیان نشده است. | مقایسه منحنی های Kaplan-Meier در گروه های مرتب شده |
112997 | من در مدلسازی دادههای درصدی تازه کار هستم، و برای مشاوره بسیار خوشحال خواهم شد. من دادههای نسبتی دارم (0,1] درصدی از پول ارسال شده توسط بازیکن B به بازیکن A. شرکتکنندگان مقداری پول دریافت کردند و میتوانستند تصمیم بگیرند که چه درصدی را پس خواهند فرستاد. من دو پیشبینی کننده طبقهبندی دارم (اول با 3 عامل، 2 با یک پیش بینی پیوسته و یک ضریب تودرتو (کلاس) ، من متوجه شدم که بهترین گزینه رگرسیون بتا است سعی کردم از بسته hglm استفاده کنم که به خوبی منطبق شد، با این حال، از آنجایی که داده ها یک بار متورم هستند (بسیاری از افراد تصمیم گرفتند مقدار کامل را ارسال کنند)، من به دنبال گزینه های دیگری هستم، همانطور که به نظر می رسد مناسب ترین بسته gamls باشد. که میتواند از توزیع BEOI (بتا یک بادشده) استفاده کند. family=BEOI, data=dat, mix=gq, K=1) از آنچه من از فایل های راهنمای بسته می فهمم، این باید ساده ترین گزینه باشد، با این حال، نتایج بسیار متفاوتی از دستور 'hglm' ایجاد می کند خطاهای استاندارد بالاتر از ضرایب بتا است که منجر به نتایج غیر قابل توجهی می شود. من سعی کردم توابع دیگر را در مدل مشخص کنم (به عنوان مثال، K، sigma.formula، nu.formula، مخلوط و غیره)، اما اینها خارج از درک من هستند، و من واقعا مطمئن نیستم که در آنجا چه کار کردم. من بسیار قدردان هر گونه پیشنهادی در مورد چگونگی تعیین بهتر مدل یا توضیحات ساده عملکرد «gamlss» هستم. | یک رگرسیون بتای متورم با اثرات تصادفی با استفاده از GAMLSS |
44464 | من داده های دو بعدی دارم (میانگین داده های نرمال شده صفر دارم). من ماتریس کوواریانس، مقادیر ویژه و بردارهای ویژه آن را می دانم. من می خواهم تصمیم بگیرم که آیا بعد را به 1 کاهش دهم یا خیر (من از تجزیه و تحلیل مؤلفه اصلی، PCA استفاده می کنم). چگونه می توانم تصمیم بگیرم؟ آیا روش شناسی برای آن وجود دارد؟ من دارم به دنبالش هستم اگر به این نسبت نگاه کنید و اگر این نسبت زیاد است، منطقی است که با کاهش ابعاد ادامه دهید. **PS 1:** آیا PoV (نسبت تغییرات) مخفف آن است؟ ** PS 2: ** در اینجا یک پاسخ وجود دارد: PCA و نسبت واریانس توضیح داده شده است آیا معیاری برای آزمایش آن است؟ ** PS 3: ** آیا معیار قیصر برای آن است؟ ** PS 4: ** اگر می خواهید درگیر این سؤال شوید، نظرات زیر را نخوانید فقط سؤال را بخوانید اشکالی ندارد. | تصمیم گیری در مورد کاهش ابعاد با PCA |
79131 | من محدوده هایی از مقادیر و فرکانس های هر محدوده را دارم. شرکت کنندگان در صورت درخواست، یک محدوده کامل را انتخاب کردند، نه یک مقدار خاص. مثال: محدوده [0,20] : فرکانس = 20 محدوده (20,60]، فرکانس = 10 محدوده (60، 100]، فرکانس = 15 من سعی می کنم بفهمم که چگونه یک فاصله اطمینان به دست بیاورم، چیزی شبیه به یک میانگین فاصله مقادیری که من دارم، با داشتن سطح اطمینان 95 درصد، با فرض اینکه محدوده ها نشان دهنده چند دقیقه در صف سوپرمارکت هستند، من می خواهم برای گفتن هی ... با توجه به داده ها، اگر به سوپرمارکت بروید احتمالاً 30-40 دقیقه در صف خواهید ماند. | فاصله اطمینان محاسباتی برای محدوده، سطح اطمینان 0.95 |
2910 | ما اغلب در مورد الگوهای مدیریت پروژه و طراحی در علوم کامپیوتر می شنویم، اما کمتر در تحلیل های آماری. با این حال، به نظر می رسد که گامی تعیین کننده در جهت طراحی یک پروژه آماری موثر و بادوام، سازماندهی امور است. من اغلب از استفاده از R و سازماندهی ثابت فایل ها در پوشه های جداگانه (فایل داده خام، فایل داده تبدیل شده، اسکریپت های R، شکل ها، یادداشت ها و غیره) حمایت می کنم. دلیل اصلی این رویکرد این است که ممکن است بعداً تحلیل خود را آسانتر انجام دهید (مثلاً وقتی فراموش کردید که چگونه یک طرح مشخص را تولید کردهاید). **بهترین شیوه ها برای مدیریت پروژه آماری**، یا توصیه هایی که می خواهید از تجربه خودتان ارائه دهید چیست؟ البته این در مورد هر نرم افزار آماری صدق می کند. (_یک پاسخ در هر پست لطفا_ ) | چگونه یک پروژه تحلیل آماری را به طور کارآمد مدیریت کنیم؟ |
24304 | من همان کد را در R و R-studio اجرا کردم، اما دو نتیجه متفاوت گرفتم. آیا کسی می داند چرا این اتفاق می افتد و آیا راه حلی برای آن وجود دارد؟ اگر راه حلی وجود ندارد، کدام برنامه صحیح برای استفاده است؟ برخی از اطلاعات در مورد کدی که اجرا می کنم: من از smooth.spline() به عنوان تنها تابع r-function ساخته شده استفاده می کنم (و بقیه کد من است که از یک برنامه به برنامه دیگر کپی/پیست شده است). من اعداد تصادفی تولید نمیکنم (مگر اینکه smooth.spline() جایی در نحوه عملکرد آن انجام دهد)، و وقتی کد را چندین بار در یک برنامه اجرا میکنم، همان نتایج را دریافت میکنم. همچنین، نتایج در رایانه های مختلف در یک برنامه یکسان است. خیلی برای نتایج تکرارپذیر! **ویرایش:** تنها تفاوتی که می توانم پیدا کنم این است که RStudio 64 بیتی است و R 32 بیتی است. این کدی است که من اجرا می کنم. پس زمینه بیشتر، این وظیفه کدگذاری الگوریتم ACE خودمان برای حداکثر همبستگی است. من می دانم که در حال حاضر یک تابع r وجود دارد (و مطمئن هستم که کارآمدتر از این است). my.ace <- تابع(x, y, tol=1e-6, maxiter=500) { # ورودی: # # x # - بردار عددی با طول n # y # - بردار عددی با طول n # tol # - حداکثر تحمل برای همگرایی (> 0) # ماکسیتر # - حداکثر تعداد تکرار (> 1) # # خروجی: # # fx # - تبدیل بهینه x # gy # - تبدیل بهینه y # maxcor # - همبستگی بین fx و gy # iter # - تعداد تکرارهای انجام شده # بررسی ورودی if(!is.numeric(x) || !is.numeric(y) || length( x) != length(y)) { stop('x و y باید بردارهای عددی با طول یکسان باشند') } if(tol <= 0 || maxiter < 2) { stop('tol باید بزرگتر از 0 و maxiter باید بزرگتر از 1' باشد) } # متغیرهای setup fx <- x-mean(x) fx <- fx/sqrt(sum(fx^2)) gy < - y corOld <- -100 corNew <- sum(fx*gy) تکرار <- 0 # اجرای الگوریتم ace while(abs(corNew-corOld) >= tol && iter < maxiter) { iter <- iter + 1 corOld <- corNew gy <- smoother(fx,gy) gy <- gy-mean(gy) gy <- gy/ sqrt(sum(gy^2)) fx <- smoother(gy,fx) fx <- fx-mean(fx) fx <- fx/sqrt(sum(fx^2)) corNew <- sum(fx*gy) } # نتیجه بازگشت (list(fx=fx,gy=gy,maxcor=corNew,iter=iter)) } | تفاوت های خروجی R در مقابل R Studio |
112996 | من یک پروژه تحقیقاتی در مورد پیدا کردن تعامل کاربر در توییتر دارم. اگر بخواهم اطلاعات متقابل بین دو کاربر A,B: I(A,B) را محاسبه کنم تا احتمال حضور A و B در یک بحث را بدانم. پس چگونه می توانم این را محاسبه کنم؟ p(A)، p(B) و p(A,B) در این مورد چه می تواند باشد؟ همانطور که فکر می کردم p(A) (تعداد بحث ها دارای A)/(تعداد کل بحث ها) p(A,B) است (تعداد اگر بحث ها دارای A و B باشند)/(تعداد کل بحث ها) صحیح است؟ من در یادگیری آماری خیلی خوب نیستم بنابراین امیدوارم بتوانید کمی واضح و با جزئیات برای من توضیح دهید. با تشکر | محاسبه اطلاعات متقابل از تعاملات کاربران توییتر |
109593 | من میخواهم یک **مدل طولی** را برای جایی که _چند سوژه در طول زمان نتایج باینری را تجربه میکنند_ مناسب کنم. برای انجام این کار، میخواهم از یک اثر تصادفی افزایشی برای هر موضوع و یک فرآیند خطای خودبازگشت برای مدلسازی ثبات زمانی در «احتمال موفقیت» استفاده کنم. برای نشان دادن، من دادهها را از مدل زیر شبیهسازی میکنم: $\text{logit}(\mu_{it}) = \alpha_i + \beta x_i + \epsilon_{it}$ where $\alpha_i \sim \text{N }(0, \sigma_{\alpha}^2), \quad \epsilon_{it} \sim \rho \, \epsilon_{i, t-1} + \nu_t, \quad \nu_t \sim \text{N}(0, \sigma_{\nu}^2)$ و مشاهده میکنیم: $Y_{it} \sim \text{برنولی}(\ mu_{it})، $ برای موضوعات $i = 1، \ldots، N$ و دوره های زمانی $t = 1، \ldots، T$. این یک مدل طولی ضعیف است زیرا هیچ شرایط رشد ثابتی وجود ندارد (مثلاً تابع زمان)، اما فکر میکنم برای اهداف این بحث کافی باشد. بسته lme4 در R با همه چیز در این مشکل کار بسیار خوبی انجام می دهد به جز مشکل پایداری زمانی. بنابراین من به **nlme** رفتم، اما فکر نمیکنم هیچوقت کار کند، حداقل به روشی که سعی میکنم از آن استفاده کنم. من می خواهم بدانم چه اشتباهی رخ داده است، و هر راهبردی برای تحقق این امر وجود دارد. _فرایند تولید داده_ N <- 500 n <- 15 ar = 0.8 dat.list <- list() ids.list <- list() fixed.list <- list() ran.effs <- 0.75 * rnorm(N) x <- rnorm(N) برای (i در 1:N) {lin.pred <- 0 + ran.effs[i] + 0.7 * x[i] + arima.sim(n = n، list(ar = ar، sd = 0.5)) dat.list[[i]] <- as.numeric(runif(n) <= plogis(lin. pred)) ids.list[[i]] <- rep(i, n) fixed.list[[i]] <- rep(x[i], n)} longit.df <- data.frame(id = unlist(ids.list)، x = unlist(fixed.list)، y = unlist(dat.list)) _Model Fitting_ (انبوه خطا) library(nlme) my.nlme <- lme(y ~ x، داده = longit.df، تصادفی = ~ 1 | وزن = varPower(form = ~ fitted(.)*(1-fitted(.))، ثابت = 1)، cor = corAR1(0.6، فرم = ~ 1 | id)) | نحوه برازش یک مدل طولی با نتایج باینری |
2914 | وقتی شما هستید که کار را انجام می دهید، با آگاهی از کاری که انجام می دهید، این حس را در خود ایجاد می کنید که چه زمانی بیش از حد با مدل تناسب دارید. برای یک چیز، می توانید روند یا زوال را در مربع R تنظیم شده مدل دنبال کنید. شما همچنین می توانید یک بدتر شدن مشابه را در مقادیر p ضرایب رگرسیون متغیرهای اصلی دنبال کنید. اما وقتی مطالعه شخص دیگری را می خوانید و هیچ بینشی در مورد فرآیند توسعه مدل داخلی آنها ندارید، چگونه می توانید به وضوح تشخیص دهید که آیا یک مدل بیش از حد مناسب است یا خیر. | چگونه تشخیص دهیم که یک مدل رگرسیون بیش از حد مناسب است؟ |
80123 | فرض کنید، من انجام داده ام: * $n_1$ کارآزمایی مستقل با نرخ موفقیت ناشناخته $p_1$ و مشاهده $k_1$ موفقیت. * $n_2$ کارآزمایی مستقل با نرخ موفقیت نامشخص $p_2$ و مشاهده $k_2$ موفقیت. اگر اکنون $p_1 = p_2 =: p$ اما هنوز ناشناخته است، احتمال $p(k_2)$ برای مشاهده $k_2$ برای $k_1$ معین (یا برعکس) با $\int_0^1 B(n_1) متناسب است. ,p,k_1) B(n_2, p, k_2) \text{d}p = \frac{1}{n_1+n_2+1}\binom{n_1}{k_1}\binom{n_2}{k_2}\binom{n_1+n_2}{k_1+k_2}^{-1}$، بنابراین اگر من میخواهم برای $p_1 \neq p_2$ آزمایش کنم، فقط باید ببینم مشاهدات من در کدام چندک از توزیع مربوطه قرار دارند. تاکنون برای اختراع مجدد چرخ. اکنون مشکل من این است که نمی توانم این را در ادبیات پیدا کنم، و بنابراین می خواهم بدانم: اصطلاح فنی برای این آزمون یا چیزی مشابه چیست؟ | تست کنید که آیا دو نمونه از توزیع های دوجمله ای با p یکسان مطابقت دارند یا خیر |
81295 | مشکلی که من روی آن کار میکنم نه تنها از من میخواهد از چندین سطح استفاده کنم، بلکه از مجموعهای از ویژگیها نیز مشخص کنم که کدام یک را میتوان به عنوان سطح در نظر گرفت. منبع خوبی برای درک مدل های ترکیبی چیست؟ همچنین، قبل از استفاده از چنین مدل هایی، چه مفاهیمی باید درک شود؟ و چه مدل های دیگری می تواند در چنین تنظیمات سلسله مراتبی مفید باشد. | چه منابع خوبی برای درک مدل های آماری سلسله مراتبی مانند مدل های ترکیبی وجود دارد؟ |
45738 | من آزمایشی دارم که مشاهداتی از زمان تا زمانی که یک رویداد رخ دهد تولید می کند. برخی از ویژگی های اساسی عبارتند از 1. ما تعداد رویدادهایی را که در نقطه ای از $t_1،...,t_n$ رخ داده اند، می شماریم. 2. زمانهای رویداد با فاصله سانسور میشوند، بین $(t-1,t]$، 3. افراد آزمایشی را بین $t_1،...t_n$ ترک نمیکنند، یعنی یک فرد یا رویداد را با $t_1$ تجربه میکند یا نمی کند، در این مرحله آنها سانسور می شوند. به نظر می رسد که این یک برنامه طبیعی برای تجزیه و تحلیل بقا باشد $m_{1,...,s}$ شمارش رویدادها (که در آن $s$ تعداد نمونه ها است) برای هر زمان مشاهده $t_i$ من نسبتاً تازه وارد آمار هستم من در تلاش هستم تا ببینم چگونه می توان تجزیه و تحلیل بقا را برای این داده ها اعمال کرد (اگر حتی قابل اجرا باشد و روش های مناسب تری برای اندازه گیری این نوع داده های زمان تا رویداد وجود نداشته باشد، تمایل من به ساخت تابع بقا در اطراف است). میانگین تعداد رویدادهای مشاهده شده در هر بازه (یعنی $\bar{m}_{1,...,n}$)، که بهتر است تعداد رویدادهای مورد انتظار در هر بازه زمانی در جمعیت را تقریب بزند، با این حال من نمی دانم که آیا این مناسب است یا پیامدهای آن. من در Google Scholar جستجوی فایده ای نداشتم، اگر کسی می تواند مطالب بیشتری را به من نشان دهد (یا نامگذاری صحیح کاری را که می خواهم انجام دهم به من بدهد)، ممنون می شود. ### ویرایش با توجه به اینکه بازههای $(t-1, t]$ در همه نمونهها یکنواخت هستند، بگویید که من ماتریس زیر را داشتم که تعداد تجمعی افراد را توصیف میکند که یک رویداد در هر بازه برای آنها رخ داده است $M = \left. (\begin{array}{ccc} 0 & 24 & 35 & 52 & 60 & 71 \\\ 0 & 22 & 38 & 57 & 64 & 75 \\\ 0 & 26 & 34 & 55 & 62 & 72 \\\ 0 & 21 & 32 & 52 & 61 & 73 \end{array}\right)$ جایی که هر ردیف تعداد رویداد را برای مجموعه یکسانی از افراد در معرض خطر در $t=0$ در تمام نمونه ها (یعنی چندین نمونه آزمایش) و هر ستون یک بازه مشاهده فرض می کنم که با گرفتن میانگین تعداد رویدادها برای هر بازه، می توانم تخمین بهتری از بقای مورد انتظار جمعیت داشته باشم، بنابراین اجازه دهید $n$ نشان دهنده تعداد بازه های زمانی باشد، $s$ نشان دهنده تعداد نمونه ها باشد. نمونههای آزمایش)، سپس بردار $\bar{M} = \left[ {{\sum_{i=1}^{s}M_{it}}\over{s}} \right]_{t=1...n}$ میانگین تعداد رویدادهای مشاهده شده برای هر بازه زمانی خواهد بود، پس هدف من استفاده از آن به عنوان ورودی تخمین بقا است. اجازه دهید $f$ تعداد افراد در معرض خطر زمانی که $t=0$ باشد. با استفاده از برآوردگر ساده لوح (در حال حاضر، با توجه به اینکه فواصل رویداد در همه نمونه ها یکنواخت است و تا $t_n$ سانسور وجود ندارد)، تابع survivor را می توان به صورت زیر تخمین زد: $S(t) = {{f - \bar{ M}_t}\over{f}}$ که (امیدواریم) تخمین بهتری از بقای جمعیت نسبت به هر نمونه فردی باشد (یک ردیف از $M$). برای فرمول بندی مجدد سوالم: 1. آیا $\bar{M}$ ورودی مناسبی برای تخمین تابع بقا است؟ من این رویکرد را در هیچ یک از مطالبی که خوانده ام ندیده ام. 2. از آنجایی که من واقعاً به طرز دردناکی در آمار مبتدی هستم، آیا کسی می تواند به من برخی مطالب (مقالات دانشگاهی، کتاب های درسی، ویکی ها و غیره) را در مورد تخمین فاصله اطمینان و واریانس برای این تخمین تابع بقا به من نشان دهد؟ من فرض می کنم که با فرمول های استاندارد یکسان نخواهد بود. پوزش می طلبم اگر سوال اصلی من گیج کننده بود، احتمالاً اطلاعات کافی درج نکردم. | کاربرد مناسب تجزیه و تحلیل بقا |
94508 | اگر بخواهم بفهمم که یک متغیر وابسته چقدر با متغیرهای وابسته دیگر در یک مطالعه مرتبط است، آیا از رگرسیون چندگانه استفاده می کنم؟ دلیلی که میپرسم این است که کتاب ذکر میکند که برای مثال برای انجام یک رگرسیون استاندارد، باید تمام متغیرهای مستقل و متغیر وابسته مربوطه را در SPSS وارد کنم. در صورت نیاز به یافتن رابطه بین دو یا چند متغیر وابسته، روش مطمئن نیستم. لطفا شفاف سازی کنید با تشکر | چگونه می توان همبستگی بین متغیرهای وابسته را پیدا کرد؟ |
112990 | چه رویکردهایی برای مشخص کردن میزان خرابی از دادههای استفاده و تعمیر و نگهداری یک ناوگان از واحدهای قابل تعمیر وجود دارد؟ دادههای استفاده شامل شاخصهای خطر (معمولاً سطوح ارتعاش یا تجاوز از حد عملیات)، مدت زمان عملیاتی، شرایط عملیاتی، و زمانهای ضبط است. داده های تعمیر و نگهداری شامل رویدادهای تعمیر و نگهداری، زمان شروع / پایان است. برای ارزیابی سه مدل برای سیستمهای قابل تعمیر برنامهریزی کنید: مدل نرخ تعمیر ثابت (HPP/نمایی)، مدل قانون توان (دوان) و مدل قانون نمایی (مراجعه به بخش 8.4.5). چگونه مدلهای نرخ تعمیر سیستم را متناسب میکنید؟ ://www.itl.nist.gov/div898/handbook/toolaids/pff/apr.pdf | میزان خرابی واحدهای قابل تعمیر از دادههای استفاده و نگهداری |
79687 | زمینه: من مجبور شدم برای یک موکل (نوعی وکیل) که در آمار مبتدی مطلق بود، تجزیه و تحلیل داده انجام دهم. او از من پرسید که اصطلاح اهمیت آماری به چه معناست و من واقعاً سعی کردم آن را توضیح دهم ... اما از آنجایی که من در توضیح چیزها خوب نیستم شکست خوردم ;) | چگونه اهمیت آماری را برای افراد بدون پیشینه آماری توضیح می دهید؟ |
62044 | من دو مجموعه داده $X$ و $Y$ دارم که داده های جفت شده دارند، اما یکی از مجموعه ها بزرگتر از دیگری است. من به خطای استاندارد تفاوت $Z = X - Y$ علاقه مند هستم. حدس میزنم میتوانم از روشی که در اینجا توضیح داده شد استفاده کنم، اما همچنین میخواهم انحراف استاندارد را با توجه به اندازههای نمونه وزن کنم. بنابراین من به این فرمول برخوردم: $$ s^2_{pooled} = \frac{(n_1-1)s^2_1 + (n_2-1)s^2_2}{n_1+n_2-2} $$ که مشترک را می دهد انحراف استاندارد $Z$. حال سوال: در فرمول بالا، آیا می توانم فقط $s^2$ را با خطای استاندارد مربوطه X و Y جایگزین کنم و در پایان جذر آن را بگیرم؟ یا باید ابتدا $s^2_{pooled}$ و تقسیم بر $\sqrt{n}$ را محاسبه کنم؟ و اگر دومی، کدام $n$ را برای آن بگیرم؟ آیا خوب است که یک N متوسط را استخراج کنیم، به عنوان مثال. $(n_1 + n_2) / 2$؟ با تشکر | محاسبه خطای استاندارد تفاوت بین گروه های با N متفاوت |
13018 | من به دنبال یک روال بهینه سازی هستم که بتواند یک تابع هدف غیرخطی را با محدودیت های عدد صحیح بهینه کند. NuOPT برای S-Plus، CPLEX یا Matlab شامل بسته های بهینه سازی قدرتمند برای این نوع بهینه سازی ها می شود؟ آیا بسته مشابهی برای R وجود دارد؟ یا یک روش بهینه سازی (شاید الگوریتم ژنتیک) وجود دارد که بتواند این مشکل را حل کند؟ برای آنچه ارزش دارد، من یک بهینه سازی میانگین واریانس نمونه کارها را انجام می دهم. با تشکر | آیا بسته بهینه سازی R وجود دارد که بتواند محدودیت های عدد صحیح و توابع هدف غیر خطی را مدیریت کند؟ |
13019 | من می خواهم داده کاوی را یاد بگیرم. آیا سخنرانی های ویدیویی رایگانی وجود دارد که فرآیند داده کاوی را به طور عمیق توضیح دهد؟ | سخنرانی های ویدیویی در مورد داده کاوی؟ |
58700 | من در اجرای Anova بر روی متغیرهای طبقه بندی شده در R و مطابقت با خروجی SPSS مشکل دارم. کاری که من باید انجام دهم این است که یک anova را روی مجموعه داده زیر اجرا کنم (مجموعه داده های ساخته شده است). اما، باید بدانم که آیا میانگین هر دسته به طور قابل توجهی از میانگین کل همه نژادها است. مسابقه رضایت 3 آسیایی 4 کاکاسیون 5 سیاهپوست آمریکایی 2 دیگر 5 آفریقایی آمریکایی 3 آمریکایی آفریقایی تبار 4 آفریقایی آمریکایی 5 آفریقایی آمریکایی 2 آسیایی 3 آفریقایی آمریکایی 1 کاکاسیون 1 کاکاسیون 1 کاکاسیون 5 دیگر 5 دیگر 5 دیگر 5 آفریقایی آمریکایی 5 آسیایی 4 آسیایی 5 دیگر 5 Other 5 Other 1 Cacasion 4 Cacasion به عنوان مثال، میانگین همه نژادها 3.5 است : > mean(test$Satisfaction) [1] 3.5 آنچه من می خواهم بدانم این است که آیا میانگین امتیاز برای هر مسابقه به طور قابل توجهی با میانگین کل 3.5 و p-value متفاوت است. من یک Anova را در R با مدل زیر اجرا کردم، اما R یک رده را به عنوان مرجع تنظیم می کند و تست در برابر بقیه است: > lm.test <- lm(test$Satisfaction ~ test$Race) > summary(lm.test) تماس: lm (فرمول = test$ Satisfaction ~ test$ Race) باقیمانده ها: حداقل 1Q Median 3Q Max -2.5714 -1.0000 0.4286 0.8482 2.0000 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 3.8571 0.5023 7.679 2.18e-07 *** test$RaceAsian -0.6071 0.8330 -0.729 0.4745 test$RaceCacasion -1.8514 -1.7020 * test$RaceOther 0.7143 0.7103 1.006 0.3266 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقیمانده: 1.329 در 20 درجه آزادی چندگانه R-squared: 0.391، تنظیم شده R-squared: 0.2997 F آمار: 4.28 در 3 و 20 DF، p-value: 0.01732 خروجی به من می گوید که میانگین برای آمریکایی آفریقایی تبار 3.8571 است و به طور قابل توجهی با میانگین گروه قفقازی متفاوت است. تفاوتی با میانگین گروه آسیایی و سایرین ندارد. آیا راهی وجود دارد که بتوانم وقفه را روی 3.5 در R قرار دهم و در مقایسه با میانگین و نه گروه مرجع، معنی دار شوم. یا اصلا باید از تست دیگری استفاده کنم؟ آمار من چندان عالی نیست، بنابراین اگر تست دیگری داشته باشد، توضیح مختصری در مورد کدام تست و نحوه اجرای آن در R عالی خواهد بود. | کمک به Anova از متغیر طبقه بندی و پیوسته در خروجی R و SPSS |
58708 | من اطلاعاتی در مورد دمای دریا در اعماق مختلف دارم. با این داده ها باید نوسانات فصلی و غیرفصلی را با برازش تابعی که از دو سینوسی با دوره های 12 و 6 ساعت بر روی داده های دما (برای هر عمق) تشکیل شده است، حذف کنم. تابع باید در نمودار فصلی قرار داده شود. و این تنظیم باید با روش حداقل مربع انجام شود. | حذف نوسانات فصلی و غیر فصلی با روش حداقل مربعات |
51508 | اگر من 3 متغیر، $X$، $Y$ و $Z$ داشته باشم، از چه رویکرد آماری می توانم برای پرسیدن این سوال استفاده کنم آیا در جمعیت X با $Y$ همبستگی دارد اما با $Z$ همبستگی ندارد؟ بدیهی است که من می توانم ارزیابی کنم که آیا $X$ با $Y$ همبستگی دارد و به طور جداگانه اگر $X$ با $Z$ همبستگی دارد و دارای دو مقدار p است: p1 <- cor.test(X,Y)$p.value p2 <- cor.test(X,Z)$p.value اما من مطمئن نیستم که چگونه این دو نتیجه را به نوعی ترکیب کنم **در یک p-value** از ترکیب من فرضیه یا شاید رویکرد کاملا متفاوتی برای این سوال وجود دارد؟ | فرضیه ترکیبی X با Y همبستگی و با Z غیر همبسته است را آزمایش کنید. |
58706 | من بردارهایی با طول یکسان دارم که از 1 و 0 تشکیل شده است. سعی می کنم بفهمم چقدر شبیه هم هستند. تا اینجا من از فاصله همینگ استفاده می کنم که مجموع یک بردار و سپس مجموع بردار دوم را محاسبه می کنم و تفاوت بین این تفاوت روزها است. با 1 و 0 خیلی خوب کار می کند. مشکل من این است که به هیچ وجه نشان نمی دهد که تفاوت بردارها کجاست و واریانس خطا چقدر است. من به این فکر کرده ام که تعداد 1 را به 1 بردار بعدی و چند عدد 0 را نادرست بشمارم. اطلاعات کمی بیشتر می دهد اما هنوز چیزی در مورد واریانس خطا نمی گوید. بردارها برای نشان دادن اشغال خانه در زمان استفاده می شوند، که هر 1 نشان می دهد که خانه اشغال شده است و 0 نشان می دهد که نیست. از این رو سعی می کنم پیش بینی کنم که روز بعد چگونه خواهد بود. | معیارهای فاصله برای بردارهای باینری |
13010 | من چندین تست Chi-square انجام داده ام و می خواهم اندازه اثر را اندازه گیری کنم. من تعدادی جدول 1x2، جدول 1x4، 4x9، و 3x4 جدول داده های فرکانس دارم. اگر هر سلول فرکانس مورد انتظار متفاوتی داشته باشد، از چه معیار اندازه اثر می توانم در این جداول فرکانس مستطیلی استفاده کنم؟ (من می خواهم از چیزی مانند Cramer's V استفاده کنم، اما فقط برای جداول با فرکانس های مورد انتظار یکسان اعمال می شود.) داده های نمونه: دو گروه، نادرست مشاهده 535 (مورد انتظار: 3/4)، درست مشاهده 222 (مورد انتظار) : 1/4). | اندازه اثر برای جدول فرکانس مستطیلی |
79130 | در R من از بسته های plyr، stringr، Hmisc و ggplot2 زیاد استفاده می کنم. هر یک از این بستهها کد پایه را میگیرند و عملکردهایی را ایجاد میکنند که بصریتر و کار کردن با آنها آسانتر است. هر یک از این بستهها تمایل دارند بر روی جنبههای جمعآوری دادهها و اکتشاف تجزیه و تحلیل دادهها تمرکز کنند. آیا بسته هایی وجود دارد که کار با مدل های خطی را آسان تر و شهودی تر کند؟ | بهترین بسته های مدل سازی در R؟ |
44461 | من در مورد روش های بیزی برای انجام تجزیه و تحلیل بقا مطالعه کرده ام. یکی از چیزهایی که به من توجه می کند این است که در حدود سه کتابی که خوانده ام هیچ اشاره ای به دست دادن کراوات نشده است. افرون، برسلو، یا دقیق. آیا این عارضه محدود به درمان های آماری مکرر است؟ | پیوندها در تحلیل بقای بیزی |
76988 | چنین مشکلی وجود دارد: ما باید طبقهبندی چند برچسبی (تخصیص برچسبها) مقالات متنی را با استفاده از مجموعه آموزشی از پیش برچسبگذاری شده پردازش کنیم. اما برای بسیاری از متون در مجموعه آموزشی باید تگ های بیشتری نسبت داده شود که توسط نویسندگان آنها انجام شده است. به عنوان مثال، متنی در مورد طب جنگ وجود دارد و فقط متن جنگ به آن اختصاص داده شده است و برچسب پزشکی حذف شده است. آیا هیچ روش متداول و مرسومی برای مقابله با چنین داده هایی وجود دارد؟ | طبقه بندی داده ها با مجموعه برچسب های ناقص |
115174 | فرض کنید می خواهید قد ($y$) را بر اساس سن ($x$) پیش بینی کنید. یک رگرسیون خطی مستقیم به خوبی کار نخواهد کرد، زیرا رشد انسان در سن خاصی متوقف می شود. این نشان میدهد که در عوض سعی کنید ارتفاع را بهعنوان چیزی شبیهسازی کنید: $y = w\cdot \mathrm{squash}(x, a, b) + w_0$ که در آن $\mathrm{squash}(x,a,b) = \max( a, \min(x,b))$ به طور کلی، هنگام تلاش برای پیشبینی مقداری متغیر وابسته $y$ از متغیرهای وابسته $x_1، x_2، ...، x_n$، برخی از آنها انتظار داشته باشید که ویژگیهای اسکواش را مانند این نمایش دهید، به نظر میرسد ایده خوبی است که $y$ را با چیزی شبیه به این مدل کنید: $y = w_0 + \sum_{i=1}^n w_i\cdot\mathrm{squash(x_i , a_i, b_i)}$ من نمی دانم چه تکنیک های منظمی برای تخمین $\vec{w}, \vec{a}, \vec{b}$ وجود دارد. | تکنیک های رگرسیون برای متغیرهای مستقل محدود شده |
79684 | تلاش برای برازش یک مدل اثرات مختلط خطی با 2 پیش بینی کننده طبقه بندی شده (گروه و کارگر) که در آن کارگر یک اثر تصادفی و گروه یک اثر ثابت است. من سعی می کنم بفهمم 1) آیا باید intercept=0 را مشخص کنم و 2) چرا به نظر می رسد این 2 نتیجه مدل نتایج متفاوتی در مورد تأثیر گروه ارائه می دهند. Model1: tps ~ گروه + (1 | کارگر) Model2: tps ~ گروه + (1 | کارگر) + 0 خلاصه (Model1): مدل مخلوط خطی متناسب با REML ['merModLmerTest'] فرمول: tps ~ گروه + (1 | کارگر) ) داده ها: mydata معیار REML در همگرایی: 3489.872 اثرات تصادفی: واریانس نام گروه ها Std.Dev. worker (Intercept) 1866 43.20 Residual 3165 56.26 تعداد obs: 318, group: worker, 18 Fixed effect: Estimate Std. خطای df t مقدار Pr(>|t|) (Intercept) 70.15 15.59 11.27 4.501 0.000848 *** تلفن گروه -20.85 21.75 10.83 -0.959 0.358586 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 همبستگی جلوه های ثابت: تلفن گروهی (Intr) -0.717 خلاصه (Model2): مدل خطی ترکیبی متناسب با REML [' merModLmerTest'] فرمول: tps ~ گروه + (1 | کارگر) + 0 داده: معیار mydata REML در همگرایی: 3489.872 اثرات تصادفی: نام گروه ها Variance Std.Dev. worker (Intercept) 1866 43.20 Residual 3165 56.26 تعداد obs: 318, group: worker, 18 Fixed effect: Estimate Std. خطا df t مقدار Pr(>|t|) گروه کامپیوتر 70.15 15.59 11.27 4.501 0.000848 *** گروه تلفن 49.30 15.17 10.40 3.251 0.008291 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 همبستگی جلوه های ثابت: تلفن گروه grpcmp 0.000 در مدل اول افکت 'تلفن' برابر است با تفاوت بین اثرات دو گروه در مدل 2 (این منطقی است زیرا در مدل 1 گروه رایانه خط پایه است). در مدل 2، اثرات هر دو گروه معنی دار است، در حالی که در مدل 1 تنها رهگیری معنادار است. کدام مدل درست برای موقعیتی است که پیش بینی گروه باینری است؟ باید فقط یکی یا دیگری باشد (به نظر می رسد نشان می دهد که model1 درست است، زیرا در آنجا رهگیری همان است گروه کامپیوتر است، درست است؟ Model2 مقدار صفر را برای گروه مجاز می کند که معنی ندارد). آیا در این مورد حق دارم؟ و چگونه می توان این واقعیت را تفسیر کرد که در model1 رهگیری قابل توجه است اما تلفن اینطور نیست؟ | تفسیر رهگیری ها در مدل اثر مختلط با پیش بینی کننده های طبقه بندی |
79133 | من از بسته R Penalized (0.9-42) در مدل Cox PH استفاده می کنم. من از L2 (Ridge) به این دلیل استفاده می کنم که نمی خواهم ضرایب خود را به 0 کاهش دهم. نمی فهمم چرا وقتی درخواست می کنم: fit <- penalized(Surv(ttocomplete2, event)~ x1 + x2 + as.factor(x3), lamda2=15.96)) print(ضرایب(مناسب، همه)) ضرایب برای خط مبنا/ref دریافت می کنم سطح متغیرهای طبقهبندی من که البته هنگام استفاده از «coxph{survival}» یا «cph{rms}» نمیتوانم آن را دریافت کنم. | ضرایب از یک کاکس جریمه شده PH |
79688 | من تازه اینجا هستم و شک دارم. من با مجموعه داده های بزرگی از کیفیت آب کار می کنم و می خواهم تفاوت بین ایستگاه های هیدرولوژیکی و بین بخش های رودخانه را آزمایش کنم. تنوع داخلی زیادی در عوامل طبقاتی وجود دارد. برای این منظور، من قصد دارم تحلیل های زیر را انجام دهم: Exploratory PCA: برای انتخاب متغیرهایی که تغییرپذیری در مجموعه داده را توضیح می دهند. DA: برای مرتب سازی و تجسم گروه های پیشینی. Manova (داده های تبدیل شده) یا ANOSIM: برای تشخیص اهمیت آماری بین گروه های پیشینی. در این تحلیل شک اصلی من نهفته است، زیرا من اغلب از ANOSIM یا PERMANOVA برای دادههای فراوانی گونهها استفاده میکنم. آیا می توانم از این تجزیه و تحلیل ها برای داده های غیر زنده استفاده کنم؟ شک دیگر: وقتی از PERMANOVA یا ANOSIM استفاده میکنم، آنالیز SIMPER را با یک مکمل انجام میدهم تا ببینم چه متغیرهایی (گونههایی) که باعث تفاوت شناسایی شدهاند. آیا می توانم از این تحلیل (SIMPER) نیز استفاده کنم؟ یا باید هر متغیر را به طور جداگانه با تجزیه و تحلیل تک متغیره به عنوان Kruskal-Wallis یا ANOVA آزمایش کنم؟ | استفاده از ANOSIM یا PERMANOVA برای داده های غیر زیستی؟ |
94379 | من میانگین و واریانس دو متغیر پنهان را از طریق دو گروه داده برآورد کردم. من نمی توانم از داده ها برای انجام آزمایش فرضیه استفاده کنم، زیرا به متغیر پنهان علاقه دارم. آیا راهی برای آزمایش این موضوع وجود دارد که آیا دو متغیر پنهان به طور قابل توجهی متفاوت هستند؟ | آیا می توانم فرضیه را بر اساس پارامترهای تخمین زده آزمایش کنم؟ |
62048 | پس از کاهش ابعاد یک ماتریس با استفاده از PCA، من میخواهم مولفههای بزرگ (یعنی آنها به طور تجمعی 90٪ از واریانس را تشکیل میدهند) هر ردیف را به یک مقدار تبدیل کنم. ارزش لازم نیست منحصر به فرد باشد، فقط نسبی باشد تا بتوان آنها را با هم مقایسه کرد. آیا تکنیک آماری وجود دارد که به من این امکان را می دهد (به ویژه در R)؟ مزایا و معایب مفید خواهد بود. من عذرخواهی می کنم اگر جمله من غیرفعال است--من تازه وارد آمار هستم. | کاهش ابعاد به یک مقدار نسبی واحد پس از PCA در R؟ |
102900 | دانشجوی دکتری علوم اجتماعی اینجا به دنبال کمک کوچکی است. من تصمیم گرفتم حدود 300 نظرسنجی آنلاین را برای مطالعه جمع آوری کنم، اما در نهایت به بیش از 4000 رسید. در آن حجم نمونه، آیا باید از نتایج خود نمونه فرعی بگیرم، زیرا احتمال اینکه نتایج قابل توجهی به دلیل حجم نمونه پیدا شود، بیشتر است؟ با تشکر | آیا امکان داشتن داده های بیش از حد وجود دارد؟ چه زمانی باید نمونه فرعی کنم؟ |
2516 | در مقاله اخیر _Amstat News_، نویسندگان (مارک ون درلان و شری رز) اظهار داشتند که ما می دانیم که برای اندازه های نمونه به اندازه کافی بزرگ، هر مطالعه - از جمله مطالعاتی که در آنها فرضیه صفر عدم تاثیر درست است - یک اثر آماری معنی دار. خب من اصلا نمیدونستم آیا این حقیقت دارد؟ آیا به این معنی است که آزمون فرضیه برای مجموعه داده های بزرگ بی ارزش است؟ | آیا مجموعه داده های بزرگ برای آزمون فرضیه نامناسب هستند؟ |
67671 | هنگامی که یک پارامتر شکل اضافی در توزیع اضافه می شود، یک عبارت به نفع این پارامتر نوشته می شود پارامتر اضافی می تواند هم وزن دم را کنترل کند و هم آنتروپی را به مرکز تابع چگالی اضافه کند. من در مورد وزن دم کاملاً واضح هستم، اما نمیتوانم اضافه کردن آنتروپی به مرکز و چگونگی اثبات این پارامتر شکل اضافی اضافه کردن آنتروپی به مرکز را درک کنم. همچنین با افزودن آنتروپی چه مزایایی به دست می آید. | پارامتر اضافی آنتروپی را به مرکز تابع چگالی اضافه می کند |
51501 | من در حال پیاده سازی الگوریتم های HMM هستم که در آموزش رابینر توضیح داده شده است. اما هنگامی که HMM را برای مشکلات واقعی اعمال می کنیم، چندین مسئله وجود دارد که باید در نظر گرفته شود. یکی از این مشکلات نحوه در نظر گرفتن مشاهدات جدید است که احتمال انتشار ندارند. کسی راهی برای در نظر گرفتن توزیع برای مشاهدات جدید می داند؟ من معتقدم که اطلاعات مربوط به وضعیت قبلی می تواند برای استنباط وضعیت مشاهده جدید مفید باشد. | چگونه می توان مشاهدات جدید در رمزگشایی HMM را مدیریت کرد؟ |
112991 | با استفاده از مقیاس پنج درجه ای لیکرت در حال طراحی پرسشنامه هستم. مزیت مقیاس لیکرت پنج درجه ای نسبت به مقیاس لیکرت هفت درجه ای چیست؟ متشکرم. | مقیاس لیکرت پنج درجه ای یا هفت درجه ای؟ |
94504 | در رگرسیون خطی ساده، کوواریانس بین جمله خطا و باقیمانده چقدر است؟ مدل: $y_i = \beta_0 +\beta_1 x_i + \varepsilon_i$ $\rm {cov}(\varepsilon_i,\ e_i)$ چه خواهد بود، جایی که $e_i = y_i - \hat y_i$؟ | در رگرسیون خطی ساده، کوواریانس بین جمله خطا و باقیمانده چقدر است؟ |
13014 | ابتدا اجازه دهید بگویم که من 38 سال پیش یک دوره آمار در دانشکده مهندسی داشتم. بنابراین من در اینجا کور پرواز می کنم. من نتایج 18 آزمایش تشخیصی جداگانه برای یک بیماری را دریافت کردم. هر تست باینری است -- بله/خیر، بدون آستانه ای که می تواند برای تنظیم تست تنظیم شود. برای هر آزمون، من دادههای ظاهراً معتبری در مورد مثبت/کاذب مثبت/منفی در مقایسه با «استاندارد طلا» دارم، که اعداد ویژگی و حساسیت را به دست میدهد (و هر چیز دیگری که میتوانید از آن دادهها استخراج کنید). البته، هیچ آزمایشی دارای ویژگی/حساسیت کافی برای استفاده به تنهایی نیست، و هنگامی که نتایج همه آزمایشها را چشم میکنید، اغلب هیچ روند آشکاری وجود ندارد. من در تعجبم که بهترین راه برای ترکیب این اعداد به نحوی که نمره نهایی را به دست آورد که (امیدوارم) قابل اعتمادتر از هر آزمون باشد چیست. من تاکنون به تکنیک ترکیب ویژگیهای تستهای TRUE با استفاده از spec_combined = 1 - (1 - spec_1) * (1 - spec_2) * ... (1 - spec_N) و ترکیب حساسیتهای تستهای FALSE دست یافتهام. به همین ترتیب نسبت (1 - sens_combined) / (1 - spec_combined) سپس به نظر میرسد که یک نمره نهایی نسبتاً خوب به دست میدهد، با مقدار بیش از 10 یا بیشتر، یک TRUE قابل اعتماد و مقدار کمتر از 0.1 یا بیشتر که یک FALSE قابل اعتماد است. اما این طرح فاقد هرگونه دقت واقعی است، و به نظر میرسد برای برخی از ترکیبهای نتایج آزمایش، پاسخی خلاف شهود ایجاد میکند. آیا راه بهتری برای ترکیب نتایج آزمایش های چندگانه با توجه به ویژگی ها و حساسیت های آنها وجود دارد؟ (برخی از تست ها دارای ویژگی 85 و حساسیت 15 هستند، تست های دیگر دقیقا برعکس هستند.) ## باشه، سرم درد می کند! فرض کنید تست های 1-4 را با حساسیت ها/ویژگی ها (در درصد) گرفته ام: 1. 65/50 2. 25/70 3. 30/60 4. 85/35 تست های 1 و 2 مثبت، 3 و 4 منفی هستند. . احتمال فرضی مثبت کاذب بودن 1 خواهد بود (1 - 0.5) و برای 2 (1 - 0.7)، بنابراین احتمال اینکه هر دو مثبت کاذب باشند 0.5 x 0.3 = 0.15 خواهد بود. احتمال فرضی اینکه 3 و 4 منفی کاذب هستند (1 - 0.3) و (1 - 0.85) یا 0.7 x 0.15 = 0.105 خواهد بود. (در حال حاضر این واقعیت را نادیده می گیریم که اعداد با هم جمع نمی شوند.) اما احتمالات فرضی که 1 و 2 مثبت واقعی هستند 0.65 و 0.25 = 0.1625 هستند، در حالی که احتمالات فرضی که 3 و 4 منفی واقعی هستند 0.6 و 0.35 = 0.21. اکنون میتوانیم دو سؤال بپرسیم: 1. چرا **_نباید_** اعداد جمع میشوند (یا حتی نزدیک میشوند). (اعداد sens/spec که استفاده کردم از زندگی واقعی هستند.) 2. چگونه باید تصمیم بگیرم که کدام فرضیه (به احتمال زیاد) درست است (در این مثال به نظر می رسد برای هر دو حساب منفی است، اما من اینطور نیستم. مطمئناً همیشه همینطور است)، و از چه چیزی می توانم برای شخصیت شایستگی استفاده کنم تا تصمیم بگیرم که آیا نتیجه مهم است؟ ## اطلاعات بیشتر این تلاشی است برای اصلاح و گسترش یک طرح وزن دادن موجود که ماهیت آن کاملاً هنرمندانه است (یعنی فقط از a** کسی خارج شده است). طرح فعلی اساساً بر روی خطوط اگر هر دو از سه مورد اول مثبت هستند، و اگر دو تا از چهار مورد بعدی، و هر یک از دو مورد بعدی، مثبت هستند است. (البته این یک مثال تا حدودی ساده شده است.) آمارهای موجود از این طرح وزنی پشتیبانی نمی کند - حتی با یک الگوریتم وزن گیری خام بر اساس آمارهای اندازه گیری شده، به پاسخ های بسیار متفاوتی می رسم. اما، بدون وجود روشی دقیق برای ارزیابی آمار، من هیچ اعتباری ندارم. همچنین، طرح فعلی فقط مثبت/منفی را تعیین میکند، و من باید یک مورد (از نظر آماری معتبر) مبهم در وسط ایجاد کنم، بنابراین مقداری شایستگی لازم است. ## آخرین، من یک الگوریتم استنتاج بیزی کم و بیش «خالص» را پیادهسازی کردهام، و پس از دور و بر روی چندین موضوع، به نظر میرسد که به خوبی کار میکند. بهجای اینکه از ویژگیها و حساسیتها کار کنم، ورودیهای فرمول را مستقیماً از اعداد مثبت/کاذب واقعی استخراج میکنم. متأسفانه، این بدان معنی است که من نمی توانم از برخی از داده های با کیفیت بهتر استفاده کنم که به گونه ای ارائه نشده اند که این اعداد استخراج شوند، اما الگوریتم بسیار تمیزتر است، اجازه می دهد تا ورودی ها را با محاسبه دستی بسیار کمتر تغییر دهیم. و بسیار پایدار به نظر می رسد و نتایج به خوبی با شهود مطابقت دارد. من همچنین با یک الگوریتم (به معنای صرفا برنامه نویسی) برای مدیریت تعاملات بین مشاهدات وابسته به هم آمده ام. اساساً، به جای اینکه به دنبال یک فرمول فراگیر باشم، در عوض برای هر مشاهده یک ضریب احتمال حاشیه ای را نگه می دارم که با پردازش مشاهدات قبلی، بر اساس یک جدول ساده، اصلاح می شود - اگر مشاهده A درست است، احتمال حاشیه ای مشاهده B را با یک تغییر دهید. ضریب 1.2 اینچ به عنوان مثال. به هیچ وجه زیبا نیست، اما قابل استفاده است، و به نظر می رسد در طیف وسیعی از ورودی ها به طور معقولی پایدار باشد. (من این جایزه را به پستی که فکر می کنم مفیدترین پست در چند ساعت بوده است اهدا می کنم، بنابراین اگر کسی می خواهد چند لیس بزند، آن را انجام دهد.) | چگونه نتایج چندین آزمایش باینری را ترکیب کنیم؟ |
67677 | من مجموعه بزرگی از متغیرها را دارم که در مقیاسها/واحدهای مختلف اندازهگیری شدهاند، و میخواهم آنها را در همان مقیاس با میانگین 0 و انحراف استاندارد 1 استاندارد کنم تا بتوانم یک PCA روی آنها اجرا کنم. من شنیده ام که تابع NORM.S.DIST در اکسل مناسب است - آیا کسی می تواند این را تأیید کند؟ | نحوه استاندارد کردن داده ها در اکسل (میانگین = 0، SD = 1) |
62045 | من داده های سری زمانی طولانی (چند سال اجرا) دارم. من داده ها را به چندین سری تقسیم کرده ام که هر کدام یک ماه طول می کشد. سپس برخی از محاسبات سفارشی را روی هر یک از سریهای زمانی «کوتاهشده» انجام میدهم و چند آمار خلاصه قوی (حالت، MAD و غیره را روی دادههای محاسبهشدهام) جمعبندی میکنم. سپس میخواهم ببینم که آیا تفاوت آماری معنیداری بین آمارهای محاسبهشده برای سری کوتاهشده وجود دارد یا خیر - بنابراین میتوانم به سؤالاتی مانند: 1. آیا حالت در طول زمان تغییر میکند 2. آیا MAD در طول زمان تغییر میکند ... و غیره؟ من کمی زنگ زده هستم، اما فکر می کنم این همان چیزی است که به داده های پانل گفته می شود؟ سؤال من این است که کدام آزمون آماری برای بررسی اینکه آیا آمار خلاصه در طول زمان تغییر میکند یا نه، مناسبتر است. اگر کسی بتواند یک قطعه/شبه کد کوچک در R برای نشان دادن نحوه انجام این کار پست کند، سپاسگزار خواهم بود. | نحوه آزمایش پایداری/تغییرپذیری آمار در طول زمان با استفاده از R |
65831 | هنگامی که افراد برای مقایسه یک نمونه واحد در برابر میانگین، آزمایشهای جایگشت را اجرا میکنند (به عنوان مثال، همانطور که ممکن است با آزمون t جایگشت انجام دهید)، میانگین چگونه مدیریت میشود؟ من پیادهسازیهایی را دیدهام که میانگین و نمونهای را برای آزمایش جایگشت میگیرند، اما مشخص نیست که آنها واقعاً در زیر هود چه میکنند. آیا حتی یک روش معنادار برای انجام تست جایگشت (به عنوان مثال، آزمون t) برای یک نمونه در مقابل میانگین فرضی وجود دارد؟ یا، در عوض، آیا آنها فقط به یک آزمایش غیر جایگشتی در زیر کاپوت پیشفرض میپردازند؟ (به عنوان مثال، علیرغم فراخوانی یک تابع جایگشت یا تنظیم یک پرچم آزمایش جایگشت، پیشفرض بودن یک آزمون t استاندارد یا تابع مشابه) در یک آزمون جایگشت دو نمونهای استاندارد، یکی دو گروه دارد و تخصیص برچسبها را تصادفی میکند. با این حال، هنگامی که یک گروه یک میانگین فرضی است، چگونه این موضوع مدیریت می شود؟ بدیهی است که میانگین فرضی به خودی خود حجم نمونه ندارد. بنابراین، روش معمولی برای کار کردن میانگین در قالب جایگشت چیست؟ آیا نمونه «میانگین» یک نقطه فرض شده است؟ نمونه ای هم اندازه با گروه نمونه؟ یک نمونه با اندازه بی نهایت؟ با توجه به اینکه یک میانگین فرضی، خوب، فرضی است- من میتوانم بگویم که از نظر فنی یا پشتیبانی بینهایت یا هر پشتیبانی که میخواهید برای آن در نظر بگیرید، دارد. با این حال، هیچ یک از اینها برای یک محاسبه واقعی بسیار مفید نیستند. به نظر میرسد یک نمونه با اندازه مساوی با مقادیر همگی برابر با میانگین، چیزی است که گاهی با برخی آزمایشها انجام میشود (به عنوان مثال، شما فقط نیمی دیگر از جفتها را با مکان فرضی پر میکنید). این کمی منطقی است، زیرا این نمونه با طول مساوی است که میبینید آیا میانگین فرضی شما بدون واریانس صحیح است یا خیر. بنابراین سوال من این است: در عمل، آیا مردم واقعاً از تصادفیسازی برچسب سبک آزمون جایگزینی تقلید میکنند، وقتی که مجموعه دوم میانگین (یا مقدار فرضی انتزاعی مشابه) باشد؟ اگر چنین است، چگونه افراد هنگام انجام این کار، تصادفی سازی برچسب را مدیریت می کنند؟ | تست جایگشتی که یک نمونه واحد را با میانگین مقایسه می کند |
67679 | با توجه به این سوال برای درک اثبات یک لم مورد استفاده در نابرابری هوفدینگ، سعی می کنم مراحلی را که منجر به نابرابری هوفدینگ می شود، درک کنم. آنچه که برای من در اثبات بیشترین رمز و راز را دارد، بخشی است که در آن گشتاورهای نمایی برای مجموع متغیرهای i.d محاسبه میشوند و بعد از آن نابرابری مارکوف اعمال میشود. هدف من این است که بفهمم: چرا این تکنیک یک نابرابری فشرده ایجاد می کند، و آیا این سخت ترین چیزی است که می توانیم به دست آوریم؟ یک توضیح معمولی به خواص مولد گشتاور توان اشاره دارد. با این حال، من این را خیلی مبهم می دانم. یک پست در وبلاگ تائو، http://terrytao.wordpress.com/2010/01/03/254a-notes-1-concentration-of-meter/#hoeff، ممکن است پاسخ هایی را در خود داشته باشد. با در نظر گرفتن این هدف، سوال من در مورد سه نکته در پست تائو است که من در آن گیر کردهام و امیدوارم بتوانم یک بار توضیح بدهم. 1. تائو نابرابری زیر را با استفاده از لحظه k-ام $$\displaystyle {\bf P}( |S_n| \geq \lambda \sqrt{n} ) \leq 2 (\frac{\sqrt{ek/2} به دست میآورد. }{\lambda})^k. \ \ \ \ \ (7)$$ اگر این برای هر k صادق باشد، او یک کران نمایی نتیجه می گیرد. اینجاست که من گم شده ام $$\displaystyle {\bf P}( |S_n| \geq \lambda \sqrt{n} ) \leq C \exp( - c \lambda^2 ) \ \ \ \ \ (8)$$ 2. لم Hoeffding ارائه شده است: لم 1 (لم هوفدینگ) اجازه دهید ${X}$ یک متغیر اسکالر باشد که مقادیر را در یک بازه می گیرد ${[a,b]}$. سپس برای هر ${t>0}$, $$\displaystyle {\bf E} e^{tX} \leq e^{t {\bf E} X} (1 + O( t^2 {\bf Var }(X) \exp( O( t (b-a) ) ) ) ) به طور خاص $$\displaystyle {\bf E} e^{tX} \leq e^{t). {\bf E} X} \exp( O(t^2 (b-a)^2) . ^{tX} = 1 + tX + O( t^2 X^2 \exp( O(t) ) )$ .چرا می توان بسط را با آن محدود کرد عبارت درجه دوم و چگونه معادله 10 را دنبال می کند. در نهایت یک تمرین داده می شود: تمرین 1 نشان می دهد که عامل ${O(t^2(b-a)^2)}$ را می توان با ${ جایگزین کرد؟ t^2 (b-a)^2/8}$، و این واضح است که این مدرک بسیار کوتاهتر از اثبات درک لم مورد استفاده در Hoeffding است. نابرابری، اما من نمیدانم چگونه این را حل کنم، هر گونه شهود/توضیحات بیشتر در مورد اثبات نابرابری یا دلیلی که نمیتوانیم حد محدودتری استخراج کنیم، قطعاً خوش آمدید. | درک اندازه گیری نابرابری های تمرکز |
81557 | به عنوان مثال، من مدلی را با حدود 5 میلیون مشاهده با استفاده از رگرسیون خطی یا MLE تخمین می زنم. با توجه به اینکه تخمینها منسجم هستند، استفاده از قانون استاندارد رد صفر در سطح معنیداری 5% تقریباً هرگز من را مجاز به رد صفر (که پارامتر برابر با صفر است) نمیکند، یعنی همه چیز مهم است. احتمالاً باید از سطح معناداری دیگری استفاده کنم که کوچکتر از 5٪ است و سؤال من این است که آیا ادبیاتی در مورد انتخاب سطح معنیداری مناسب وجود دارد یا بچهها چگونه با این مشکل برخورد میکنید؟ آیا باید به سادگی به سطح معناداری 5% پایبند باشم؟ با تشکر | سوال در مورد سطح معناداری |
65835 | من اخیراً شروع به تجزیه و تحلیل دادههای یک نظرسنجی کردهام که در آن شرکتکنندگان 64 تصویر از مدلها را در مقیاس لیکرت رتبهبندی کردند و سپس انتخاب کردند که آیا مدل را درون گروهی یا برون گروهی در نظر میگیرند. من سعی میکنم تشخیص دهم که آیا این واقعیت که شرکتکنندگان مدل را درون گروهی یا برون گروهی در نظر میگیرند، بر رتبهبندی شرکتکنندگان برای هر تصویر تأثیر دارد. بنابراین مجموعه دادههای من شامل 64 سؤال به سبک لیکرت با رتبه 1-7 برای هر شرکتکننده و 64 سؤال طبقهبندی شده (داخل گروهی یا برون گروهی) است و من کاملاً مطمئن نیستم که چگونه آنها را تجزیه و تحلیل کنم. کدام نوع آزمون برای این شکل از داده ها مناسب است؟ | تجزیه و تحلیل تأثیر احتمالی پاسخ طبقه ای بر پاسخ ترتیبی؟ |
13011 | من فقط در مورد فرآیند کشف پشت تابع همبستگی خودکار بسیار کنجکاو هستم. * چه زمانی اختراع شد؟ * آیا به طور مستقل چندین بار اختراع شده است؟ * انگیزه آن چه بود؟ | تابع همبستگی خودکار چه زمانی اختراع شد؟ و انگیزه آن چه بوده است؟ |
62043 | اگر من یک توزیع نرمال با میانگین و واریانس معین داشته باشم و یک تبدیل لجستیک برای آن اعمال کنم، میانگین و واریانس متغیر تبدیل شده من چقدر است؟ این به نظر می رسد که باید یک مشکل شناخته شده باشد، اما من نتوانستم یک مرجع سریع پیدا کنم. | توزیع یک تبدیل لاجیت یک متغیر نرمال |
23547 | من از شبکه عصبی و SVM برای پیشبینی سیگنالهای خرید و نگهداری – فروش استفاده میکنم. من nn و SVM را در R آموزش داده ام. از تابع nnet برای آموزش NN و svm برای آموزش SVM استفاده کردم. من 20000 نقطه داده برای آموزش و 2000 نقطه داده برای آزمایش فراهم کردم. مجموعه داده های آموزشی شامل فهرستی از 10 تا 15 شاخص فنی و سیگنال های خرید و فروش نگه دارید. مشکلی که من دارم این است که سیگنال های خرید - فروش - نگه داشتن را با دقت خوبی روی داده های تست پیش بینی نمی کند. من از تابع سیگموئید در nnet و تابع شعاعی در SVM استفاده کرده ام. هر گونه پیشنهادی، چگونه می توان دقت پیش بینی را بهبود بخشید؟ | آموزش NN یا SVM برای طبقه بندی سیگنال های سهام |
13015 | در یک سوال قبلی در مورد تاریخچه همبستگی خودکار پرسیدم. در این سوال من به فرآیند کشف پشت همبستگی متقابل علاقه مند هستم. * چه زمانی اختراع شد؟ * آیا به طور مستقل چندین بار اختراع شد؟ * انگیزه اختراع آن چه بود؟ | تابع همبستگی متقابل چه زمانی اختراع شد؟ و انگیزه پشت آن چه بود؟ |
59074 | من سعی میکنم نحوه استفاده از یادگیری ماشینی برای پیشبینی سریهای زمانی مالی ۱ یا بیشتر در آینده را درک کنم. من یک سری زمانی مالی با برخی داده های توصیفی دارم و می خواهم یک مدل تشکیل دهم و سپس از مدل برای پیش بینی n مرحله پیش رو استفاده کنم. کاری که من تاکنون انجام داده ام این است: getSymbols(GOOG) GOOG$sma <- SMA(Cl(GOOG)) GOOG$range <- GOOG$GOOG.High-GOOG$GOOG.Low tail(GOOG) GOOG.Open GOOG.GOOG بالا.GOOG کم.بستن GOOG.Volume GOOG.محدوده sma تنظیم شده 2013-05-07 863.01 863.87 850.67 857.23 1959000 857.23 828.214 13.20 2013-05-08 8857. 873.63 2468300 873.63 834.232 20.97 2013-05-09 870.84 879.66 868.23 871.48 2200600 871.48 82013-81013-810.4 875.31 880.54 872.16 880.23 1897700 880.23 848.351 8.38 2013-05-13 878.89 882.47 873.38 874.858.531 874.878.531 9.09 2013-05-14 877.50 888.69 877.14 887.10 1579300 887.10 860.451 11.55 سپس یک مدل Forest تصادفی را به این داده ها برازش کردم. fit <- randomForest(GOOG$GOOG.Close ~ GOOG$sma + GOOG$range, GOOG) که به نظر می رسد به طرز شگفت آوری مناسب است: > fit Call: randomForest(formula = GOOG$GOOG.Close ~ GOOG$sma + GOOG$range، داده = GOOG) نوع جنگل تصادفی: رگرسیون تعداد درختان: 500 تعداد متغیرهای امتحان شده در هر تقسیم: 1 میانگین مجذور باقیمانده ها: 353.9844 % Var توضیح داد: 97.28 و سعی شد از آن برای پیش بینی استفاده شود: predict(fit, GOOG, n.ahead=2) اما این پیش بینی ofc جواب نداد. من سعی میکنم Close را پیشبینی کنم، آیا باید قبل از برازش مدل، به اندازهای که پیشبینی را میخواهم، متغیرهای دیگر را عقب بینم؟ احتمالاً خیلی چیزهای دیگر را نیز باید در نظر بگیرم، اما اینها واقعاً اولین گامهای من در تلاش برای یادگیری ماشینی هستند. ممنون از هر راهنمایی! | گام های اولیه یادگیری برای پیش بینی سری های زمانی مالی با استفاده از یادگیری ماشین |
51505 | من سعی می کنم ابزاری بنویسم که شامل اجرای رگرسیون لجستیک است. با روش نزول گرادیان دسته ای، همگرایی تضمین می شود زیرا یک مشکل محدب است. با این حال، من متوجه شدم که با روش گرادیان تصادفی، روش مناسب معمولاً به برخی از نقاط تصادفی همگرا می شود (یعنی خیلی نزدیک به حداقل نقطه حاصل از روش دسته ای نیست). من راه های مختلف کاهش نرخ یادگیری و نقاط شروع وزنه های مختلف را امتحان کرده ام. با این حال، عملکرد (به عنوان مثال، دقت، دقت / فراخوان، ...) قابل مقایسه (با روش دسته ای) است. من می دانم که این امکان پذیر است، زیرا SGD (نزول گرادیان تصادفی) از تقریبی به هزینه واقعی هر مرحله استفاده می کند. حدس میزنم این مهم باشد، زیرا در غیر این صورت، تفسیر وزنها چندان منطقی نخواهد بود، حتی دقت آن قابل مقایسه است. * آیا اهمیتی دارد که SGD در هر مرحله از هزینه واقعی تقریبی استفاده کند؟ * اگر مهم است، چگونه می توان آن را به نقطه بهینه جهانی همگرا یا نزدیک کرد؟ | چگونه می توان SGD را به نقطه بهینه جهانی در رگرسیون لجستیک رساند؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.