_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
47419
من سعی می کنم با استفاده از تابع auto.arima یک سری زمانی تنظیم کنم و با نتایج عجیبی روبرو می شوم. در اولین تلاش، از دستور auto.arima(data,d=0,D=1,max.p=2,max.q=2,max.P=2,max.Q=2,max.order استفاده می کنم. =8, xreg=xreg_past,trace=TRUE,ic=aic) مدلی که من دریافت می کنم ARIMA(2,0,2)(0,1,1)[12] با AIC برابر است -300.14. اما از آنجایی که من می دانم که این دستور از الگوریتم انتخاب گام به گام استفاده می کند، می خواهم با استفاده از گزینه stepwise=FALSE تست های همه مدل های ممکن را امتحان کنم. بنابراین من دستور auto.arima(data,d=0,D=1,max.p=2,max.q=2,max.P=2,max.Q=2,max.order=8, xreg را امتحان کردم =xreg_past,stepwise=FALSE,trace=TRUE,ic=aic) و اکنون، مدلی که من دریافت می کنم یک مدل است ARIMA(0,0,2)(2,1,0)[12] با AIC برابر با -293.14. از آنجایی که تلاش دوم من تمام مدل ها را در نظر می گیرد، این نتیجه عجیب است زیرا مدل قبلی AIC پایین تری داشت. علاوه بر این، اگر نگاهی به ردیابی آخرین فراخوانی تابع بیندازم، می بینم که مدل ARIMA(2,0,2)(0,1,1)[12] اکنون دارای AIC 245.13- است که توضیح می دهد که چرا رد شده است. چرا مقدار AIC تغییر کرد؟ حداقل اگر از دستور ساده arima(data, order=c(2,0,2), seasonal= list (order=c(2,1,2), period=12), xreg=xreg_past) استفاده کنم دریافت می کنم مقدار AIC 319.15- است که بهتر از دو مدل قبلی است. فکر می‌کنم چیز مهمی را از دست داده‌ام، اما نمی‌توانم چه چیزی را ببینم. کسی میتونه کمکم کنه؟ پیشاپیش متشکرم، با احترام، لودو
auto.arima از پکیج Forecast
68376
من یک glm دو جمله ای را در R با استفاده از داده های متناسب به شکل y <- cbind اجرا کرده ام. من دو متغیر توضیحی پیوسته دارم که «var1» معنی‌دار است و «var2» نه، اما این تعامل نیز معنی‌دار است. بنابراین می‌خواهم مقادیر «var1» را پیدا کنم که «var2» برای «y» اثر می‌گذارد. من تابعی به نام getRegion() را کشف کردم که آن را در دو آموزش در اینترنت یافتم، اما بسته ای که حاوی آن است را پیدا نکردم. آیا توابع دیگری وجود دارد که بتواند در یک مجموعه داده مانند من (یعنی پاسخ متناسب به دو متغیر توضیحی پیوسته) کار کند؟
با توجه به یک تعامل، چگونه می توان ناحیه var1 را پیدا کرد که در آن var2 تأثیر قابل توجهی بر پاسخ Y دارد؟
67343
من تازه وارد تجزیه و تحلیل اجزای اصلی (PCA) هستم. من PCA را برای یک مجموعه داده با 54 نمونه انجام دادم. وقتی آنها را در پراکندگی سه بعدی طرح می کنم، می توانم ببینم که نمونه هایی با ویژگی های مشابه به طور جداگانه با هم گروه بندی شده اند. محورهای X، Y و Z در پراکندگی سه بعدی به ترتیب PC#1، PC#2 و PC#3 را نشان می‌دهند. در امتداد محورها مقادیر مثبت و منفی نشان داده شده است. این مقادیر به خصوص مقادیر منفی چه چیزی را منتقل می کنند؟ اگر نمونه ای در امتداد محوری با مقدار منفی پیدا شود، این به چه معناست؟ همچنین واریانس کلی هر 3 رایانه شخصی 40٪ است (PC#1-20٪، PC#2-13٪ و PC#3=7٪). این به چه معناست؟ چرا 80-90 درصد نیست؟ آیا داده های من کیفیت خوبی دارند؟
تجزیه و تحلیل مؤلفه های اصلی در طرح پراکندگی سه بعدی
115227
فرض کنید $X$ یک متغیر تصادفی IID با پشتیبانی در $[0,1]$ و CDF ارائه شده توسط توزیع بتا، یعنی $X \sim \mathrm{Beta}(\alpha,1)$ باشد. اجازه دهید $Z_i = \min(X_i,Y_{i-1})$, $\forall i >1$. من می خواهم $\mathbb{E}[Z_i]$ را محاسبه کنم، با دانستن اینکه: \begin{align} Y_1 &= Z_1 = X_1, \; \mbox{when} \; i=1، \\\ Y_i &= \frac{1}{i} \sum \limits_{t=1}^{i} Z_t، \forall i >1\. \end{align} چگونه می توانم $\mathbb{E}[Z_i]$ را محاسبه کنم؟
$\mathbb{E}[Z_i]$ را محاسبه کنید که در آن $Z_i = \min(X_i, Y_{i-1})$, $X \sim Beta(\alpha,1)$
93517
اگر یک مجموعه داده $X \subset \mathbb R^d$ دارید بگویید. من دو مدل احتمالی کاندید M1 و M2 دارم (به عنوان مثال، M1 مخلوطی از 2 گاوسیان و M2 مخلوطی از 3 گاوسی است). من می خواهم بدانم کدام مدل داده های من را بهتر توصیف می کند. من نمی‌دانم که آیا انجام یک اعتبارسنجی متقاطع مشابه آنچه در یادگیری نظارت شده انجام می‌دهیم، درست است، جایی که هر بخش $i$ شامل موارد زیر است: * $X$ را به $X_\mbox{train}^i$ جدا کنید و $X_\mbox{test}^i$ * برای M1 و M2 با استفاده از مجموعه‌های قطار: $$\theta_1 = \mbox{argmax}_\theta {\cal L}_1 ( \theta, X_\mbox{train}^i) $$ $$\theta_2 = \mbox{argmax}_\theta {\cal L}_2 ( \theta, X_\mbox{train}^i) $$ * محاسبه احتمالات در مجموعه های آزمایشی: $$ {\cal L}_1 ( \theta_1, X_\mbox{test}^i) $$ $$ {\cal L}_2 ( \theta_2, X_\mbox{test}^i) $$ در پایان، بهترین مدل مدلی است که بالاترین میانگین احتمال را در مجموعه‌های آزمایشی داشته باشد $$\max( \sum_i {\cal L}_1 ( \theta_1 , X_\mbox{test}^i), \sum_i {\cal L}_2 ( \theta_2, X_\mbox{test}^i) ) $$ آیا این معتبر است؟
روش مناسب برای مقایسه دو چگالی تخمینی با استفاده از داده های نمونه چیست؟
115224
من سعی می کنم از بسته R mgcv برای جا دادن یک گام استفاده کنم. من یک متغیر دارم که می خواهم از آن به عنوان افست استفاده کنم. به‌عنوان پیش‌بینی‌کننده به خوبی کار می‌کند، اما وقتی از آن به‌عنوان یک بازی افست استفاده می‌کنم، با یک پیام خطا در مورد آرایه‌های ناسازگار با شکست مواجه می‌شود. > x <- gam(gbf_3 == G ~ s(pred_lo) + s(avm_prop_21_mult)، خانواده=دوجمله()، وزن=round(1000*wt)، داده=ma، زیرمجموعه=(!is.na( score_2))) > x <- gam(gbf_3 == G ~ pred_lo + s(avm_prop_21_mult)، خانواده=دوجمله()، وزن=گرد(1000*wt)، داده=ma، زیرمجموعه=(!is.na(score_2))) > x <- gam(gbf_3 == G ~ offset (pred_lo) + s(avm_prop_21_mult)، خانواده=دوجمله ای()، weights=round(1000*wt), data=ma, subset=(!is.na(score_2))) خطا در x %*% coef + offset : آرایه های ناسازگار چرا یک متغیر به عنوان پیش بینی قابل قبول است اما نه به عنوان یک افست و برای استفاده از متغیر به عنوان افست چه کاری باید انجام دهم؟ با تشکر راس
R mgcv gam: متغیر را می توان به عنوان یک پیش بینی استفاده کرد اما نه به عنوان یک افست - چرا؟
15081
من پارامتر نوع را برای آزمون همجمعی فیلیپس و اولیاریس در بسته urca می بینم که باید Pz یا Pu باشد. من جزئیات را خواندم، اما متوجه نشدم چه نوع برای من مفید است. اگر بخواهم هم انباشتگی با آن روش را برای دو سری قیمت سهام بررسی کنم، کدام نوع بهتر است؟ به عبارت دیگر، موارد زیر به چه معناست؟ > آزمون Pz در مقایسه با آزمون Pu این مزیت را دارد که نسبت به عادی سازی بردار هم انباشتگی > ثابت است، یعنی > مهم نیست که کدام متغیر در سمت چپ معادله باشد. در صورتی که مشکلات همگرایی با وارونگی ماتریس مواجه شود، می توان یک سطح تحمل بالاتر را از طریق tol=... به تابعsol() - منتقل کرد.
Pu و Pz در آزمون همجمعی فیلیپس و اولیاریس چیست؟
30300
من در این سایت زیاد مطالعه کرده‌ام و فکر می‌کنم می‌خواهم داده‌هایم را با استفاده از مدل ترکیبی ANOVA - اثر تصادفی = موضوع و 2 اثر ثابت - مقایسه و قیمت‌گذاری تجزیه و تحلیل کنم. همه آزمودنی‌های من در هر 4 شرایط بودند (تقاطع بین 2 عامل) و در هر شرایط به 3 مورد پاسخ دادند. نکته مهم این است که DV من دوگانه است. من خواندم که این ایده خوبی نیست که یک میانگین (یعنی نسبت در این مورد) از 3 مورد را برای هر موضوع اختصاص دهیم و سپس ANOVA را با استفاده از آن انجام دهیم. آیا این به این معنی است که تعداد موضوعات * 3 * 4 مشاهده خواهم داشت؟
DV دوگانه و 3 نقطه اندازه گیری در هر شرط در هر موضوع
6820
فرض کنید جدولی مانند جدول زیر وجود دارد که برای هر پروتئین یا پپتید جهش یافته (A، B، C و غیره) یک ستون اطلاعات اتصال و عملکردی (درست/نادرست) داریم و برای هر اسید آمینه در آن پروتئین، ما نوعی خاصیت اسید آمینه مانند آبگریزی داریم: عملکرد اتصال پروتئین 1 2 3 4 5 6 7 8 9 10 A 0 0 13 96 39 77 70 94 96 29 22 82 B 0 1 94 45 2 2 11 46 50 77 7 99 C 0 1 66 71 97 37 14 77 89 92 1214 1219 D 53 2 27 54 97 E 1 1 31 62 49 51 2 86 91 49 61 7 F 1 0 2 42 65 42 54 41 45 9 71 20 G 0 0 0 26 44 56 60 6 1 54 99 68 64 94 81 85 0 50 84 I 1 1 1 27 52 76 12 46 38 24 74 11 90 J 1 1 1 1 58 77 50 72 51 87 87 50 0 50 84 1 تفاوت بین میانگین ها برای هر جهش از نظر آماری معنی دار است. 2. ببینید آیا خاصیت آمینواسید می تواند در جایی با خواص اتصال و عملکرد مرتبط باشد. پیشاپیش ممنون
تجزیه و تحلیل آماری توالی پروتئین های جهش یافته
67342
من چند سوال اساسی در مورد PCA و LDA (تجزیه و تحلیل تشخیص خطی) دارم، اما کمی گم شده‌ام و از کمکتان سپاسگزار خواهم بود. 1. در PCA روشی برای محاسبه نسبت واریانس توضیح داده شده است، آیا برای LDA نیز امکان انجام آن وجود دارد؟ اگر چنین است، چگونه؟ 2. آیا خروجی «نسبت ردیابی» از تابع lda (در کتابخانه R MASS) معادل «نسبت واریانس توضیح داده شده» است؟
PCA، LDA (تحلیل متمایز خطی)، نسبت واریانس
34176
من آزمایشی را مشاهده کردم که در آن 500 نفر (یکی پس از دیگری) سطوح یک اتاق را لمس کرده و سپس آن را ترک کردند. بنابراین من یک مجموعه داده از تعداد تماس های سطحی ثبت شده $n$ برای هر فرد دارم. من باید یک pdf از این بسازم اما مطمئن نیستم که چگونه آن را به بهترین شکل انجام دهم: این یک هیستوگرام است که به pdf تبدیل شده است:![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/8cmOo.png) توصیه می‌کنید از نمونه «بوت استرپ» برای محاسبه pdf این توزیع بر اساس «kdensity» استفاده کنید؟
نمونه‌گیری بوت استرپ از داده‌های تجربی، آیا این بهترین راه برای تخمین توزیع اساسی است؟
68372
من (از کتاب Wilcox [1]) می‌دانم که روش‌هایی که از ابزارهای بریده شده استفاده می‌کنند، برای مفروضات توزیعی قوی هستند. آیا روش‌ها (به‌عنوان مثال «bwtrim»، از بسته «R» WRS) فرض می‌کنند که توزیع در همه شرایط مدل‌سازی شده یکسان است (اگرچه نرمال نیست)؟ به عبارت دیگر، چه می‌شود اگر داده‌ها دارای ناهمسانی (واریانس بیشتر در برخی شرایط نسبت به شرایط دیگر) باشند که نشان می‌دهد توزیع‌ها در شرایط یکسان نیستند؟ به عنوان مثال: library(reshape2) library(ggplot2) library(WRS) data <- data.frame( A1=rnorm(100)، A2=rnorm(100, 1, 2)، B1=rnorm(100, 5, 5), B2=rnorm(100,10,10) ) mdata <- melt(data) qplot(متغیر، value, data=mdata) ![qPlot](http://i.stack.imgur.com/wQGnK.png) # آیا استفاده از: bwtrim(2, 2, data) $Qa [1] 149.6878 دلار مناسب است Qa.siglevel [,1] [1,] 0 $Qb [1] 43.91871 $Qb.siglevel [,1] [1,] 8.856752e-09 $Qab [1] 16.68218 $Qab.siglevel [,1] [1،] 0.0001269782 # یا این فرض همسویی است؟ آیا کسی می تواند جایگزینی برای تجزیه و تحلیل این نوع داده ها (یعنی واریانس نابرابر) توصیه کند؟ [1] Wilcox، R. آمار مدرن برای علوم اجتماعی و رفتاری. CRC Press، 2012.
آیا روش‌های مبتنی بر ابزارهای برش‌شده نیاز به همسانی دارند؟
78701
فرض کنید دو سری زمانی دارید. می دانید که آنها به شدت با تاخیر زمانی مناسب همبستگی دارند. آیا تابعی وجود دارد که برای محاسبه تأخیر زمانی صحیح استفاده شود یا برای یافتن آن فقط باید یک دسته رگرسیون مختلف اجرا کنید؟
تأخیر زمانی صحیح در رگرسیون
34174
یک پست متقاطع از MathOverflow که در آن پیشنهاد شده بود که ممکن است در اینجا نتایج بهتری بگیرم. من در مراحل اولیه مشکلی هستم که شامل تجزیه تعداد زیادی ($\ تقریباً 5 \ برابر 10^9 $) اسناد (صفحات وب) و تخمین مقادیر از آنها است. به ویژه باید صفحاتی را که دانلود فایل های دزدی را ارائه می دهند شناسایی کنم و ترافیک آنها را تخمین بزنم. در حالی که برخی از وب سایت ها آمار ترافیک خود را عمومی می کنند، بسیاری از آنها این کار را نمی کنند. من با یک مجموعه داده پراکنده مانده ام که با آن می توانم تعداد زیادی جای خالی را پر کنم. خبر خوب این است که صفحات پرچم‌گذاری شده توسط یک انسان تأیید می‌شوند، که هر گونه داده مشاهده صفحه را که می‌تواند پیدا کند استخراج می‌کند. این بدان معناست که من نیازی به نوشتن نرم افزار برای شناسایی یا جمع آوری آن داده ها در زمان وجود ندارد. امیدوارم در صورت موفقیت، تکنیک های خود را از این مشکل برای بسیاری دیگر به کار ببرم. همانطور که می بینید این در واقع یک سوال دو قسمتی است. یک مرحله طبقه‌بندی وجود دارد، جایی که من تخمین می‌زنم که آیا یک سایت احتمالاً فایل غیرقانونی تولید می‌کند یا نه، و یک مرحله تخمین، که در آن از تکنیک‌های رگرسیون برای تخمین تعداد بازدیدهای صفحه استفاده می‌کنم. رویکرد (ساده لوحانه) من استخراج بردارهای شمارش n-گرم از هر سند (n-word-gram، نه n-character-gram) است که به من یک نقشه برداری از یک مجموعه نمادین به یک مجموعه اعداد صحیح (بعد بالا) می دهد. ابعاد زیادی دارد، اما من قبلاً آن را با موفقیت انجام داده ام. من می‌توانم از این «پروفایل» n-gram برای اعمال رگرسیون لجستیک یا مقایسه زاویه برای طبقه‌بندی و سپس رگرسیون خطی برای تخمین استفاده کنم. برخی از الگوریتم‌های یادگیری ماشین واقعاً پیچیده وجود دارد، اما مطمئن نیستم که چه نوع تکنیک‌های ارزیابی عملکرد را می‌توانم روی آنها در مرحله تخمین استفاده کنم. با این حال، من مطمئن هستم که راه بهتری برای انجام این کار وجود دارد. من نمی توانم تصور کنم که چگونه نمایه زبانی یک صفحه وب ارتباط زیادی با ترافیک آن دارد. من معتقدم که ترافیک سایت ارتباط بیشتری با صفحاتی دارد که به آن پیوند می‌دهند، و می‌توانم تصور کنم از تئوری گراف برای مدل‌سازی انتشار بازدیدهای صفحه استفاده کنم. با این حال، مگر اینکه سایت برای مشاهده پرچم گذاری شده باشد، داده ها جمع آوری نمی شوند. فقط تعداد کمی از صفحات بازدید از صفحه آنها ثبت می شود. شاید بتوانم یک عبارت منظم بنویسم تا با عبارات رایجی که هنگام بیان «چند بازدید» استفاده می‌شوند مطابقت داشته باشد، اما حاضر نیستم برای نوشتن نوعی الگوریتم طبقه‌بندی پیچیده برای آن ویژگی خاص وقت بگذارم. من همچنین مطمئن هستم که تعداد زیادی اندازه گیری دیگر وجود دارد که می توانم از یک صفحه وب استخراج کنم که به آنها فکر نمی کنم. واقعاً این مشکل تبدیل محتوای صفحه وب و توپولوژی پیوند به متغیرهای معنی دار است که می توانند در تجزیه و تحلیل رگرسیون استفاده شوند. بنابراین سوالات من از شما این است: * چه تکنیک هایی برای طبقه بندی اسناد موثر بوده است؟ * از کجا می توانم در مورد مدل سازی و تخمین ترافیک اینترنت بیاموزم؟ متاسفم اگر این سؤالات به اندازه کافی دقیق نیستند، اما در این مرحله بیشتر به یک طرح کلی نیاز دارم تا توصیه در مورد یک قضیه خاص. این موضوعات حوزه اصلی تخصص من نیستند.
تکنیک های رگرسیون موثر برای تحلیل زبانی داده های پیوندی چیست؟
67341
چند راه بیزی برای دیدن اینکه آیا دو توزیع تجربی از یک فرآیند تولید داده به دست می آیند چیست؟ آیا هیچ یک از جایگزین های بیزی در Matlab/R/Python پیاده سازی شده است؟
چند جایگزین بیزی برای آزمون کولموگروف-اسمیرنوف چیست؟
47415
چه نوع فرضیه صفر را می توان با استفاده از t Student آزمایش کرد؟ به احتمال زیاد یکی از سوالات آزمون آمار است. برای آزمایش فرضیه صفر با استفاده از t Student، آیا باید ویژگی های خاصی داشته باشد؟ متشکرم.
تست با T Student
18271
یکی از مشکلات من http://stackoverflow.com/questions/7783933/clustering-data- outputs-irregular-plot-graph از نفرین ابعاد رنج می برد، که همچنین آن را برای جستجوی جامع یا روش های تحلیلی، فراابتکاری برای مسائل ترکیبی غیرممکن می کند. مانند بازپخت شبیه سازی شده ممکن است به تلاش من کمک کند که چگونه بازپخت شبیه سازی شده را با آن ترکیب کنم k-mean در مشکل مثال من؟ با عرض پوزش برای سوال بسیار کوتاه من هنوز هم سعی می کنم ذهنم را در مورد بازپخت شبیه سازی شده و اینکه چگونه احتمالاً می تواند به شما کمک کند، درگیر کنم. سوالات دیگری که می تواند کمک کند، مقایسه بازپخت شبیه سازی شده با pca، vds یا نحوه استفاده از آن در ارتباط است. (با عرض پوزش، برای من دیر شد) اگر متوجه کمبود دانش من و آنچه که ممکن است در تلاش برای رسیدن به آن هستم، از ویرایش ها استقبال کنید.
بازپخت شبیه سازی شده و k-means
59907
من یک آدمک آمار هستم، پس لطفا از کلمات کوچک استفاده کنید. (-: ممکن است این یک آزمون معتبر نباشد، بنابراین مطمئن هستم که اگر اینطور باشد به من اطلاع خواهید داد. من برخی از پاسخ های نظرسنجی دارم که در آنها پاسخ ها رتبه هایی بین 1 تا 10 دارند. من برای هر رتبه یک فرکانس دارم. (2 1، 3 2، 2 3، 10 4 و غیره به طور مستقیم، به نظر می رسد که بسیاری از این پاسخ ها در وسط قرار می گیرند و تعداد کمی هستند). در دم، و من می خواهم ببینم که آیا پاسخ ها در محدوده های میانی به طور قابل توجهی متفاوت از میانگین است ، اما تعدادی از دسته بندی های رتبه بندی من کمتر از 5 پاسخ دارند، پس آیا معتبر است؟
آیا پاسخ های نظرسنجی رتبه بندی با میانگین رتبه بندی تفاوت معناداری دارد؟
91129
آیا یک مثال کلاسیک وجود دارد که اهمیت انتخاب ویژگی خوب در طبقه بندی را نشان دهد؟ مثال ایده آل ساده و قابل درک است. من داوطلب شده ام/به من دستور داده شده که یک ارائه کوتاه برای کار برای توضیح برخی اصول اولیه تکنیک های طبقه بندی گردآوری کنم. بسیاری از مخاطبان من قبلاً هرگز طبقه‌بندی را انجام نداده‌اند، بنابراین می‌خواهم در عین استفاده از داده‌های واقعی، مثال را تا حد امکان ساده نگه دارم. حتی اگر نمی توانید به من یک مجموعه داده اشاره کنید، اگر بتوانید یک ایده مثال ارائه دهید، بسیار سپاسگزار خواهم بود. بهترین ایده ای که تا به حال توانسته ام به آن دست یابم، یک ماشین خودکار قدیمی است که باید مشخص کند کدام سکه ها واقعی و کدام یک جعلی هستند.
چند نمونه کلاسیک از انتخاب ویژگی در طبقه بندی چیست؟
103925
من یک سوال دارم که برای تجزیه و تحلیل برخی از داده‌های من باید به دنبال چه نوع تحلیلی باشم: فرض کنید شما دو دونده X و Y دارید و آنها به نوبت 100 متر دوی سرعت می‌کنند و دونده X اول می‌رود. از آنجایی که دو دونده می توانند عملکرد یکدیگر را ببینند، عملکرد آنها در یک آزمایش خاص (Xt یا Yt) ممکن است تحت تأثیر آزمایش قبلی دیگری (Xt-1) یا (Yt-1) قرار گیرد. اگر داده‌ها را برای 10 نقطه زمانی جمع‌آوری کرده‌اید، چگونه می‌توانید آزمایش کنید که چه کسی بیشتر در معرض نفوذ دیگران است؟ من برخی از مدل‌های تاخیر توزیع‌شده را مطالعه کرده‌ام، اما مطمئن نیستم که آیا این رویکرد درستی است یا خیر. * آیا مدل تاخیر توزیع شده برای پاسخ به سوال من، که در آن نقاط زمانی وابسته متعددی دارم، قابل تعمیم است؟ * آیا این حتی رویکرد درستی است؟ اگر نه، چه چیزی را باید بخوانم؟ متشکرم
اندازه گیری های مکرر با چندین نقطه زمانی برای پیش بینی کننده و متغیر وابسته: آیا Xt-1 Yt را بهتر از Yt-1 پیش بینی می کند Xt؟
15085
من سعی می کنم بر اساس چندین عامل (روز هفته، زمان از آخرین بازدید و غیره) احتمال بازدید کاربر از یک وب سایت خاص را پیش بینی کنم. سوال من این است که اگر یکی از جمله های عددی صفر شود چه باید کرد؟ به عنوان مثال، فرض کنید من اغلب از www.google.com بازدید می کنم، اما هرگز در روز دوشنبه بازدید نکرده ام. $p(دوشنبه|google)$ صفر است. آیا این عبارت را به طور کلی از معادله حذف کنم؟
اگر یک جمله شمارنده در Naive Bayes صفر باشد چه؟
35888
این پست برای چند روز در انجمن TalkStats بی پاسخ مانده است، بنابراین امیدوارم کسی در اینجا بتواند به من کمک کند. من به دنبال کمکی برای روشن کردن نحوه ادغام عدم قطعیت نوع B در تعیین عدم قطعیت گسترش یافته هستم. من از راهنمای عدم قطعیت در اندازه گیری (GUM) به عنوان مرجع اصلی استفاده می کنم. این مراحل برای محاسبه عدم قطعیت گسترش یافته در G.6.4 را نشان می دهد. به طور خاص، من نیاز به ورودی در تفسیر خود از مرحله 2، محاسبه درجات مؤثر آزادی (Veff) از طریق فرمول Welch-Satterthwaite (G.2b) دارم. از خواندن ساده این مرحله، متوجه شدم که عدم قطعیت ترکیبی (Uc) شامل همه مشارکت‌های نوع A و نوع B است. در مخرج، درجات آزادی برای اجزای منفرد نوع B (Vi) اغلب روی بی‌نهایت تنظیم می‌شود (همانطور که برای نصف عرض یک برگه داده تجهیزات وجود دارد). این عبارت را به صفر می رساند، اگرچه جزء عدم قطعیت هنوز هم بخشی از عدم قطعیت ترکیبی در صورتگر است. من با این تفسیر راحت هستم، با این تفاوت که با بررسی یک مثال در سایت NIST متوجه شدم که آنها اجزای نوع B را به طور کلی در هنگام محاسبه Veff حذف می کنند. آیا کسی می تواند تشخیص دهد که کدام تکنیک صحیح است؟ با تشکر از کمک.
نوع B را در درجات آزادی موثر برای عدم قطعیت گسترش یافته لحاظ کنید؟
73362
من 5000 مورد در مقابل 5000 کنترل با نتیجه مثبت/منفی دارم. «chi.test» هیچ اهمیتی برای این داده نشان نمی‌دهد. وقتی موارد زیر را روی _VarX_، 1000 مورد در مقابل 5000 کنترل قرار می‌دهم، اهمیت پیدا می‌کنم. من گمان می کنم که انجام 1000 مورد در مقابل 5000 کنترل اهمیت را نشان می دهد. برای از بین بردن این مورد، من به طور تصادفی 1000 کنترل را انتخاب می کنم و chi.test را 1000 بار در مقابل 1000 مورد اجرا می کنم. اینجا هیستوگرام pvalues ​​است و خط قرمز Pvalue برای 1000 مورد در مقابل 5000 کنترل است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Nc0qA.jpg) از این می توانم نتیجه گیری کنم که هیچ اهمیتی ندارد؟ اگر راه بهتری برای انجام این کار وجود دارد لطفا راهنمایی کنید.
آیا این یک آزمون معتبر است؟
108152
فرض کنید من یک مجموعه داده دارم که شامل سه متغیر باینری (دوگانه) است: A، B، C، و C مقدار A OR B را می گیرد. بسیاری از مشاهدات دارای A و B هستند و C وجود ندارد. من حدس می زنم که C باید باشد. در هر مدل انتساب چندگانه گنجانده شده است، زیرا حاوی اطلاعات ارزشمندی است. اما آیا بسته انتساب چندگانه (ترجیحاً در R) وجود دارد که بتواند رابطه C = A OR B را مشخص کند، به طوری که فقط مقادیر معقول (که رابطه را برآورده می کند) نسبت داده شوند؟ پیشاپیش متشکرم
انتساب چندگانه با محدودیت افزایشی
108157
نمونه های من از توزیع دم سنگین پیروی می کنند. من از فرآیندی برای شناسایی و حذف نمونه‌های «افراطی» استفاده می‌کنم که به شرح زیر است: 1. میانگین و انحراف استاندارد نمونه‌ها را اندازه‌گیری کنید. 2. نمونه های بالاتر از میانگین به علاوه 4 انحراف استاندارد را بردارید. 3. از مرحله 1 - در مجموع 3 بار تکرار کنید. اگر نمونه های افراطی وجود نداشته باشد، فرآیند فوق هیچ کدام را حذف نمی کند. اگر تعداد زیادی وجود داشته باشد، میانگین/std.dev را منحرف می‌کنند، با این حال، تکرارهای متعدد از آن مراقبت می‌کنند. برای مشکل من، الگوریتم بالا 0-5٪ از نمونه ها را حذف می کند و آزمایش های تجربی نشان می دهد که کاملاً خوب کار می کند و کاملاً قوی به نظر می رسد. با این حال، آیا این فرآیند صحیح است؟ آیا نام رسمی برای جستجوی آن دارد؟ توجه داشته باشید که من نمی‌توانم تعداد بهینه انحرافات استاندارد را که بالاتر از آن نمونه‌ها را رد می‌کنیم، پیدا کنم، زیرا کل این فرآیند باید برای مجموعه داده‌های متعدد خودکار شود و به عنوان بخشی از یک سیستم زنده اجرا شود. مجموعه داده ها مشابه هستند اما یکسان نیستند: گاهی اوقات آنها کوچک هستند و هیچ چیز دور از ذهنی وجود ندارد (هیچ لوکسی برای از دست دادن نمونه ها وجود ندارد). گاهی اوقات آنها بزرگ هستند و تعداد نمونه های افراطی که باید حذف شوند متفاوت است و می تواند بسیار زیاد باشد. داده ها اقدامات کاربر را نشان می دهند (یک متغیر در هر نوع اقدام) و ما مجموعه های متعددی از کاربران داریم که باید با هم مقایسه کنیم (بخش بندی های مختلف). با این حال، بسیاری از «کاربران» در واقع ربات‌هایی هستند که معمولاً (اما نه همیشه) کارهای مشابه را چندین بار انجام می‌دهند (خیلی بیشتر از انسان‌ها). منصفانه است که بگوییم ما ترکیبی از دو توزیع داریم که واقعاً نمی‌توانیم آن‌ها را تشخیص دهیم، انسان-کاربر و ربات. پس از حذف هر چه بیشتر ربات‌ها، ما به تفاوت رفتارهای کاربران انسانی اهمیت می‌دهیم. در دراز مدت، ما یک طبقه‌بندی کننده برای ربات‌ها خواهیم ساخت، اما در حال حاضر به دنبال راه‌حلی سریع هستیم.
فرآیند تکراری برای حذف نمونه های شدید
100425
من با GAM مشکل دارم. به ویژه هنگامی که من سعی می کنم یک پیش بینی در یک مقدار داده جدید در مبدا انجام دهم، پیش بینی من با رهگیری برابر نیست. آیا کسی می تواند به من کمک کند تا بفهمم چرا این اتفاق می افتد؟ در اینجا یک مثال وجود دارد: set.seed(42) N = 1000 x = runif(N) y = x^.22+rnorm(N) m = gam(y~s(x)) summary(m) predict(m, newdata = data.frame(x=0)) خانواده: تابع پیوند گاوسی: هویت فرمول: y ~ s(x) ضرایب پارامتری: برآورد Std. خطای t مقدار Pr(>|t|) (Intercept) 0.78115 0.03164 24.69 <2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 اهمیت تقریبی عبارات صاف: edf Ref.df F p-value s(x) 2.158 2.687 13.79 7.61e *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 R-sq.(adj) = 0.0344 انحراف توضیح داده شده = 3.65% امتیاز GCV = 1.0043 مقیاس est. = 1.00 1000 1> predict(m,newdata = data.frame(x=0)) 1 0.3756038 من فکر می کنم پیش بینی باید برابر با فاصله زمانی x = 0 باشد، اما اینطور نیست!
پیش بینی از مدل گام در X = 0 برابر با رهگیری نیست
47413
آیا امکان استخراج افکت های ثابت در مدل جلوه های ثابت در Stata وجود دارد؟ من می دانم که در R می توانم با دستور fixef کاری شبیه به این انجام دهم: insidemodel <- plm(formula=y~x,data=Data, model=within) summary(fixef(withinmodel)) اما آیا در Stata امکان پذیر است ?
آیا امکان استخراج افکت های ثابت در مدل جلوه های ثابت در Stata وجود دارد؟
108156
سوال من به طور کلی در مورد تجزیه ارزش واحد (SVD) و به ویژه در مورد نمایه سازی معنایی پنهان (LSI) است. بگویید، من $ A_{word \times document} $ دارم که حاوی فرکانس‌های 5 کلمه برای 7 سند است. A = ماتریس(داده=c(2,0,8,6,0,3,1, 1,6,0,1,7,0,1, 5,0,7,4,0,5,6, 7,0,8,5,0,8,5, 0,10,0,0,7,0,0), ncol=7, byrow=TRUE) نام ردیف (A) <- c('doctor','car','nurse','hospital','wheel') با استفاده از SVD فاکتورسازی ماتریس را برای $A$ دریافت می کنم: $A = U \cdot D \cdot V^T $. s = svd(A) D = diag(s$d) # ماتریس مقدار مفرد S = diag(s$d^0.5 ) # ماتریس دیاگ با ریشه های مربع مقادیر مفرد. در 1 و 2 بیان شده است که: $WordSim = U \cdot S$ **ماتریس شباهت کلمه** را می دهد که در آن ردیف های $WordSim $ نشان دهنده کلمات مختلف است. `WordSim = s$u %*% S` $DocSim= D \cdot V^T$ **ماتریس شباهت سند** را می دهد که در آن ستون های $DocSim$ اسناد مختلف را نشان می دهد. `DocSim = S %*% t(s$v)` **سوالات:** 1. از نظر جبری، چرا $WordSim$ و $DocSimS$ ماتریس‌های شباهت کلمه/سند هستند؟ آیا توضیح شهودی وجود دارد؟ 2. بر اساس مثال R داده شده، آیا می‌توانیم با نگاه کردن به $WordSim$ و $DocSim$ (بدون استفاده از شباهت کسینوس یا ضریب همبستگی بین سطرها/ستون‌ها) تعداد کلمات / مشاهدات شباهت بصری را انجام دهیم؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/3KJuT.png)
درک تجزیه ارزش منفرد در زمینه LSI
34177
من یک سوال در مورد رویکرد تفاوت در تفاوت ها با معادله استاندارد زیر دارم: $$ y= a + b_1\text{treat}+ b_2\text{post} + b_3\text{treat}\cdot\text{post } + u $$ که در آن treat یک متغیر ساختگی برای گروه و پست درمان شده است. حال، سوال من ساده است: چرا بیشتر مقالات همچنان از متغیرهای کنترل اضافی استفاده می کنند؟ من فکر کردم که اگر فرض روند موازی درست باشد، پس نباید نگران کنترل‌های اضافی باشیم. من فقط می توانم به 2 دلیل احتمالی برای استفاده از متغیرهای کنترل فکر کنم: 1. بدون آنها، روندها موازی نخواهد بود. 2. زیرا مشخصات DnD هرگونه تفاوت در روند بین درمان و گروه کنترل در زمان درمان را به مداخله نسبت می دهد. به عنوان مثال اصطلاح تعامل treat*post) - زمانی که سایر متغیرها را کنترل نکنیم، ضریب تعامل ممکن است بیش از حد/کم بیان شود. در مورد این موضوع؟ آیا دلایل من 1) یا 2) اصلا منطقی است؟ من به طور کامل استفاده از متغیرهای کنترل در DnD را درک نمی کنم.
چرا از متغیرهای کنترلی در تفاوت ها در تفاوت ها استفاده کنیم؟
93108
من از داده‌های qtl_500 (50000 امتیاز) نمونه‌برداری کردم و منحنی چگالی آن را به صورت زیر دریافت کردم: > plot(density(qtl_500k)) ![توضیح تصویر را وارد کنید > اینجا](http://i.stack.imgur.com/hajiN .png) حالا امیدوارم نقطه عطف این منحنی را بدست بیاورم. لطفا کسی می تواند به من ایده بدهد؟ خیلی ممنون!
چگونه نقطه عطف را از منحنی نمودار چگالی خود پیدا کنیم؟
34170
من باید یک مجموعه داده را با متغیرهای ترتیبی و مقیاس تجزیه و تحلیل کنم. کاری که من سعی کردم انجام دهم این بود که داده ها را تحلیل عاملی کنم. داده ها در SPSS بود. اما من فکر می کنم عامل SPSS داده ها را با محاسبه همبستگی پیرسون به طور پیش فرض تجزیه و تحلیل می کند که ممکن است گمراه کننده باشد زیرا مجموعه داده های من حاوی انواع مختلفی از متغیرها است. من می‌توانم از «hetcor» در بسته R «polycor» استفاده کنم و سپس از ماتریس همبستگی به عنوان ورودی برای تحلیل عاملی با استفاده از دستورات موجود در بسته «psych» استفاده کنم. اما اکثر دستورات به من نمرات فاکتوری نمی دهند که برای هدف تجزیه و تحلیل من به دست آوردن آن بسیار مهم است. این به این دلیل است که ورودی من ماتریس همبستگی ناهمگن است، نه خود داده. شنیده ام که استفاده از «fa.poly» به من امتیاز فاکتور می دهد. اما هر زمان که این دستور را اجرا می کنم موارد زیر را ایجاد می کند: > fa.poly(dat,nfactor=4,rotate=varimax) Polychoric |. چگونه می توانم نمرات عامل را استخراج کنم؟ آیا جایگزینی دارم؟ برای راحتی شما برای پاسخ به این داده ها در اینجا آمده است. من نیاز به محاسبه امتیازات دارم. به نظر شما چه روشی باید مناسب باشد؟ با تشکر و احترام.
به دست آوردن امتیازهای عاملی از تحلیل عاملی متغیرهای مختلط (اعم از ترتیبی و مقیاسی).
35883
نمی دانم فقط من هستم یا نه، اما به طور کلی به آمار خیلی بدبین هستم. من می توانم آن را در بازی های تاس، بازی های پوکر و غیره درک کنم. بازی های تکراری بسیار کوچک، ساده و عمدتاً مستقل خوب هستند. به عنوان مثال، سکه‌ای که روی لبه آن فرود می‌آید به اندازه‌ای کوچک است که احتمال اینکه سرها یا دم‌های فرود ~50 درصد باشد را بپذیرد. انجام یک بازی پوکر 10 دلاری با هدف برنده شدن 95 درصد خوب است. اما اگر کل پس انداز زندگی شما + بیشتر به پیروزی شما بستگی داشته باشد یا خیر، چه؟ اصلاً دانستن اینکه در 95٪ مواقع در آن موقعیت برنده می شوید، چگونه به من کمک می کند؟ ارزش مورد انتظار در آنجا کمک چندانی نمی کند. نمونه های دیگر شامل یک جراحی تهدید کننده زندگی است. دانستن اینکه نرخ بقای آن 51 درصد در مقابل نرخ بقای 99 درصد با توجه به داده های موجود است، چگونه کمک می کند؟ در هر دو مورد، فکر نمی‌کنم برایم مهم باشد که دکتر چه می‌گوید و من دنبال آن خواهم رفت. اگر داده‌های واقعی 75٪ باشد، او ممکن است به من بگوید (به استثنای اخلاق و قانون)، که احتمال زنده ماندن 99.99999٪ وجود دارد، بنابراین من احساس بهتری دارم. به عبارت دیگر، داده های موجود به جز دوجمله ای اهمیتی ندارند. حتی در آن زمان، اگر من در نهایت به دلیل آن بمیرم، مهم نیست که نرخ بقای 99.99999٪ وجود داشته باشد. همچنین احتمال وقوع زلزله. مهم نیست که به طور متوسط ​​هر x (که x> 100) سال یک زلزله قوی رخ می دهد. نمی دانم در طول عمرم زلزله ای رخ خواهد داد یا نه. پس چرا حتی اطلاعات مفیدی است؟ یک مثال نه چندان جدی، مثلاً، 100٪ از مکان هایی که من رفته ام و آنها را دوست دارم در قاره آمریکا هستند، نسبت به 100٪ مکان هایی که در اروپا رفته ام بی تفاوت هستند، و از 100٪ مکان هایی که من دارم متنفرم. در آسیا بوده است. حالا این به هیچ وجه به این معنی نیست که در سفر بعدی ام جایی را که در آسیا دوستش دارم یا در اروپا از آن متنفرم یا در آمریکا بی تفاوت باشم، پیدا نخواهم کرد، فقط به این دلیل که آمار تمام اطلاعاتی را که من به دست آورده ام را نشان نمی دهد. نیاز دارم، و من احتمالاً هرگز نمی توانم تمام اطلاعات مورد نیاز خود را به دست بیاورم، حتی اگر به بیش از x٪ از تمام آن قاره ها سفر کرده باشم. فقط به این دلیل که در 1-x٪ از آن قاره ها ناشناخته هایی وجود دارد که من در آنها نرفته ام. (به راحتی می توانید 100% را با هر درصد دیگری جایگزین کنید). من می‌دانم که هیچ راهی برای اعمال بی‌رحمانه همه چیز وجود ندارد و شما باید در بسیاری از موقعیت‌ها به آمار تکیه کنید، اما چگونه می‌توانیم باور کنیم که آمار در موقعیت‌های تک‌شات ما مفید است، به‌ویژه وقتی آمار اساساً به رویدادهای پرت تعبیر نمی‌شود؟ آیا بینشی برای غلبه بر تردید من نسبت به آمار وجود دارد؟
چرا وقتی بسیاری از چیزهایی که مهم هستند، آمار مفید است؟
115220
من از **مدل رگرسیون تقویت کننده گرادیان** (GBRT) استفاده می کنم. برای ارزیابی این مدل، من از ** اعتبار سنجی متقاطع 10 برابری ** استفاده می کنم، که در هر کدام از آنها همان پارامتر را تنظیم می کنم و ضریب تعیین را به عنوان معیار برازش محاسبه می کنم. با این حال، من متوجه شدم که تفاوت زیادی در ضریب تعیین به‌دست‌آمده از هر برابر وجود دارد، به عنوان مثال، ضریب تعیین از fold_1 تا fold_10 این است: [ 0.95310245 0.89725342 0.886711 ** 0.94*2706.849. . btw هر فولد فقط مجموعه داده های آموزشی و آزمایشی است، چرا چنین تفاوت فاحشی وجود دارد؟ آیا چنین تفاوتی نشان می دهد که عملکرد مدل من خوب نیست؟
چرا تفاوت زیادی در ضریب تعیین به دست آمده از اعتبارسنجی متقاطع 10 برابری وجود دارد؟
100424
آیا کسی از مطالعه‌ای می‌شناسد که در واقع از روش بازپس‌گیری برای تخمین تعداد بازدیدکنندگان در یک رویداد فضای باز استفاده کرده باشد؟ ما در فستیوال سالانه خود که هیچ نقطه ورود و خروج ثابتی ندارد به این روش فکر می کنیم.
روش ضبط مجدد برای تخمین جمعیت
108150
من یک جدول شباهت ها (کسینوس) دارم و آن را با روش Ward خوشه بندی کردم. نتایج عالی، دندوگرام فوق العاده، اما بعد سعی کردم کیفیت این راه حل خوشه ای را ارزیابی کنم و گیر کردم. اول: شناسایی تعداد خوشه ها در داده های من (علت در Ward مانند k-means نیست که باید تعداد دقیق خوشه ها را تعیین کنید). من مجموع مربع ها را محاسبه کردم (به پیوست مراجعه کنید) تا ببینم چند خوشه وجود دارد، اما یک زانو مناسب در داده ها وجود ندارد، بنابراین چند خوشه را در نظر بگیرم؟ دوم: تلاش برای محاسبه خلوص خوشه بندی (با ابزار CluTo)، با نشان دادن خوشه های 4، 5، 6، 7... می بینم که هر چه تعداد خوشه های بیشتری را نشان دهم، خلوص افزایش می یابد. البته. اگر تعداد خوشه‌ها با تعداد نمونه‌های داده‌های من برابر باشد، خلوص 1 است (حداکثر). داه پیشنهادی در مورد نحوه گزارش این موضوع دارید؟ (تعداد خوشه ها؟ کیفیت راه حل خوشه بندی؟) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/yI0Tq.jpg)
تجزیه و تحلیل خوشه، بخش: چگونه می توان تعداد خوشه ها و کیفیت آنها را ارزیابی کرد؟
105405
اینجا من دوباره با یک سوال دیگر هستم. من از اصطلاحات تعامل در مدل خود استفاده می کنم. مشکل این است که مهم نیست که چه مشخصات یا ساختار متغیری را امتحان می‌کنم، عبارت تعامل همیشه در مقایسه با متغیر اصلی من علامت مخالف دارد. هر دوی آنها نیز قابل توجه هستند. هیچ ایده ای دارید که چرا این اتفاق می افتد؟ آیا به دلیل چند خطی بودن احتمالی است؟ برای افزودن جزئیات بیشتر، وقتی مدل را بدون فعل و انفعال اجرا می‌کنم، یعنی $Y_t=α_1+β_1x_1+β_2x_2$، ضرایب درست را دریافت می‌کنم، اما وقتی تعامل x1andx2 را در یک مدل اضافه می‌کنم، اثر اصلی علامت خود را حفظ می‌کند، اما تعامل منفی است و در مدل دیگر اثر اصلی منفی و تعامل مثبت می شود. متشکرم.
اصطلاحات متقابل با علائم متضاد در مقایسه با متغیرهای اصلی
100421
بنابراین من از بسته rpart برای ایجاد یک مدل درختی استفاده کردم و یک قانون جالب پیدا کردم و به این فکر کردم که آیا راه آسانی وجود دارد که ببینم کدام مشاهدات در آن قاب داده آن قانون را تصویب می کنند. به نظر می رسد استفاده از path.rpart برای یافتن مسیری که درخت را طی کرده است، و به صورت دستی آن فیلترها را در چارچوب داده وارد کنید تا آنها را جستجو کنید، بسیار خسته کننده به نظر می رسد. آیا روشی وجود دارد که بتوانم یک درخت و/یا یک گره و یک قاب داده را ارسال کنم و تمام عناصر موجود در آن فریم را که به آن گره ختم شده است برگردانم؟
عناصر داده را در یک قاب داده پیدا کنید که قانون یک گره را در یک مدل درختی تصویب می کند؟
65174
من در حال انجام یک تحلیل رگرسیون لجستیک با استفاده از دستور glm در R هستم. این برای شناسایی علل باریک شدن دریچه فراتر از یک آستانه خاص است. 0 = بدون باریک شدن، 1 = باریک. یکی از متغیرهای من اندازه یک دستگاه پزشکی است که کاشته می شود (محدوده 25-36 میلی متر). گاهی اوقات دستگاه کاشته نمی شود و من این را به عنوان یک فیلد خالی گذاشته ام، البته این به عنوان یک میدان گم شده تعبیر می شود. به نظر می رسد عدم کاشت دستگاه با استفاده از آنالیز Chi-sq تاثیر قابل توجهی دارد و اندازه دستگاه با استفاده از آزمون t تاثیر قابل توجهی دارد. چگونه می توانم در یک مدل رگرسیون خطی این مورد را دور بزنم؟ برای پیچیده تر کردن آن، من در واقع دو مدل مختلف از دستگاه دارم: C و D با اندازه های 25-36 میلی متر، دستگاه دیگری بدون اندازه S و سپس بدون دستگاه N. آیا می توان همه آنها را با هم وارد کرد یا بهتر است خارج از رگرسیون جداگانه تجزیه و تحلیل کرد؟ «فقدان» چه تأثیری بر متغیرهای مختلف دیگری دارد که در تحلیل هستند؟ لطفا و ممنون
متغیر برای رگرسیون لجستیک مقوله ای و پیوسته است، بنابراین «غیبت» در R ایجاد می کند
76130
هنگام بررسی داده های متنی، آیا جریان فرآیندی دارید که برای شما مفید باشد؟ کاری که من تا کنون انجام می دهم: * جمع آوری داده ها * وارد کردن به یک پیکره * کدگذاری * تمیز کردن * پیش پردازش: فضای خالی، حروف کوچک، نقطه گذاری، کلمات توقف، ریشه (شاید) * تجزیه و تحلیل فرکانس * ارتباط، خوشه بندی یا طبقه بندی باید به دنبال چه چیزی باشم برای بهبود از اینجا انجام دهید؟
توالی معمولی از تجزیه و تحلیل متن
91266
چگونه اجزای PCA با افزودن داده های جدید تغییر می کنند (یعنی $\frac{d(PC_1(x))}{d({\rm var}(x))}$؟ من به دنبال هر فرمول ریاضی و شواهد (زیرا درک آن آسان خواهد بود).
چگونه اجزای اصلی با افزودن داده های جدید تغییر می کنند؟
33726
من در مورد PCA یاد می گیرم. به طور کلی، من مفهوم و ریاضیات اساسی را درک می کنم، اما در مورد چند چیز سردرگم هستم که امیدوارم کسی بتواند توضیح دهد. اجازه دهید بگوییم که پس از انجام یک تجزیه و تحلیل PCA بر روی برخی از داده های با ابعاد بالا، متوجه شدم که سه مؤلفه اول 99٪ از واریانس داده های من را ثبت می کنند. حالا چی؟ آیا می توان یافت که کدام ویژگی ها جزء اول، دوم و سوم را تشکیل می دهند؟ به نظر می رسد که یک رویکرد رایج ترسیم اجزای اصلی است. به عنوان مثال، این صفحه را تحت «2.3.1» ببینید. کاهش ابعاد و تجسم برای نمودار PCA از داده های عنبیه. تعبیر این طرح چیست؟ من می بینم که آنچه من فرض می کنم دو جزء است: یک جزء قرمز و یک جزء مخلوطی از سبز و آبی؟ آیا یک مرحله بعدی کلی برای انجام پس از PCA وجود دارد؟ من مفهوم را درک می کنم، اما نمی توانم ببینم که چگونه می توان آن را عملاً به کار برد. با تشکر از کمک.
سوالاتی در مورد کاربرد PCA
101221
بنابراین فرض کنید من سعی می‌کنم این فرضیه صفر را رد کنم که میانگین برخی از متغیرهای تصادفی $X$ بر اساس میانگین نمونه محاسبه شده از $n$ IID این متغیر تصادفی، صفر است یا خیر. . سپس معمولاً یک آزمایش $t$ $$t=\frac{\hat{\mu}}{\hat{\sigma}\;/ \sqrt{n}}$$ انجام می‌دهم و بررسی می‌کنم که احتمال آن چقدر است از توزیع $t$ می توان مقدار شدیدتری نسبت به $t$ ترسیم کرد. اما چرا حتی مقیاس کردن با $\sqrt{n}$ را به زحمت بیاندازید؟ چرا فقط از توزیع z Student استفاده نمی کنید؟ پس از همه، آیا توزیع واقعی برای نمونه به معنای $\hat{\mu}=\frac 1n\sum_{i=1}^nX_i$ نیست؟ تنها دلیلی که می توانم متوجه مزاحم شدن آن باشم این است که برای $n$ توزیع t بزرگ دانشجویی به توزیع نرمال استاندارد تقریب می زند، که ممکن است محاسبات را ساده کند، آیا این تنها دلیل انجام آن است؟
چرا از توزیع t دانشجویی به جای توزیع z استفاده کنیم؟
76131
در R، من مجموعه داده ای از متغیرهای زیادی دارم و بر اساس ماتریس همبستگی می بینم که برخی از متغیرها با بقیه همبستگی دارند. برای سادگی، فرض می کنیم که متغیرهای درختی X، Y، Z وجود دارند که دارای ضرایب همبستگی زوجی بالایی هستند. اما به نظر می رسد که اطلاعات مربوط به متغیر Y از قبل در متغیر Z گنجانده شده است.
چگونه بررسی کنیم که آیا دو متغیر با توجه به متغیر سوم وابسته هستند؟
76132
من داده‌های سری زمانی دارم که شبیه این است![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/0fc6a.png) و من یک نمودار همبستگی خودکار برای این سری زمانی به صورت ![تصویر را وارد کنید توضیحات اینجا](http://i.stack.imgur.com/Ue1Ix.png) این همبستگی خودکار برای هر تاخیر صفر است. اما این بدان معناست که سری زمانی اساساً تصادفی است. آیا با توجه به نمودار داده ها این درست به نظر می رسد؟ و اگر داده‌ها اساساً تصادفی باشند، فکر می‌کنم ساخت یک مدل خودرگرسیون برای آن منطقی نخواهد بود (یعنی اگر داده‌ها تصادفی باشند، نقاط داده نباید هیچ وابستگی به مقادیر عقب افتاده آن داشته باشند).
آیا این نمودار خودهمبستگی درست به نظر می رسد؟
108159
من به داده های خوشه ای نگاه می کنم و چون در اقتصاد آموزش دیده ام، تمایل دارم به اثرات ثابت و اثرات تصادفی به عنوان راه حل نگاه کنم. بدیهی است که یک جایگزین مدل سازی چند سطحی است. با این حال، برای من خوشه بندی فقط یک مزاحمت است، بنابراین من فقط به کنترل کردن آن اهمیت می دهم. با این حال، با نگاه کردن به معادله یک مدل رهگیری تصادفی، نمی توانم تفاوت را با مدل اثر تصادفی خود ببینم. بنابراین من فکر می کردم که آیا ممکن است به دلیل تفاوت بین رشته ها، نام های مختلفی برای یک چیز وجود داشته باشد؟ اما پس چرا شما (در Stata) می توانید آنها را متفاوت ارزیابی کنید؟ * RIM: `xtreg y x, i(id) mle` * RE: `xtreg y x, re` با این حال، معادله هر دو به نظر می رسد: $$y_{ij}= b_{0} + b_{1}x1_{ ij}+ u_{j} + e_{ij}$$ (نمی دانم چگونه آن را به خوبی قالب بندی کنم، اما Google نمونه هایی از معادلات RE و RIM را ارائه می دهد که شبیه به هم هستند. برای من به راحتی: * RE: http://en.wikipedia.org/wiki/Random_effects_model * RIM: http://www.bristol.ac.uk/cmm/learning/videos/random-intercepts.html
تفاوت بین اثر تصادفی و مدل رهگیری تصادفی
76136
به طور خلاصه، من در حال راه‌اندازی بر روی مجموعه داده‌های تجزیه و تحلیل انجمن در «R» (با استفاده از بسته «قوانین») و جمع‌آوری معیارهای مناسب (پشتیبانی، اطمینان و افزایش) برای داده‌های کامل و همچنین نمونه‌های بوت استرپ هستم. تعداد نمونه‌های بوت استرپ برابر با 1000 است. مجموعه داده‌های حاصله نهایی که من دارم، مجموعه‌ای از 1000 معیار اطمینان برای هر قانون است که توسط بسته Arules یافت می‌شود. از این رو، من فواصل اطمینان 95٪ را برای معیار اطمینان هر قانون محاسبه می کنم. من متوجه شدم که برای حدود 20٪ از قوانین، تخمین داده های کامل اطمینان در واقع کمتر از صدک 0.025 پایین مجموعه معیارهای اطمینان بوت استرپ است. این کمی غیر شهودی است، زیرا من انتظار دارم که تخمین داده‌های کامل جایی در وسط تخمین‌های بوت استرپ باشد (نمونه راه‌اندازی به نمونه، همانطور که نمونه برای جمعیت و غیره است). من اینجا چه چیزی را از دست داده ام؟
برآوردهای بوت استرپینگ بزرگتر از تخمین داده کامل است
105407
من باید یک متا رگرسیون را با استفاده از مدل افکت های ترکیبی یا تصادفی انجام دهم، اما هیچ نرم افزاری (به جز Matlab) ندارم و در این موضوع تازه کار هستم (پس زمینه آماری نسبتاً ضعیفی دارم). به طور خلاصه مشکلی که به آن می پردازم به شرح زیر است. من چندین اثر را از مطالعات مختلف جمع آوری کرده ام. در مورد من، اندازه اثر درصدهایی از اتخاذ یک رفتار خاص است. به عنوان مثال، یک مطالعه نمونه ای متشکل از 100 نفر را تجزیه و تحلیل کرد و به این نتیجه رسید که 35٪ رفتار مورد تجزیه و تحلیل را اتخاذ می کنند، در حالی که مطالعه دیگری نمونه ای متشکل از 150 نفر را تجزیه و تحلیل کرد و به این نتیجه رسید که 45٪ این رفتار را اتخاذ می کنند. هدف من تعیین میانگین پذیرش رفتار است. همه مطالعات مشاهده ای (بدون گروه کنترل). من باید یک متاآنالیز انجام دهم زیرا مطالعه آن ویژگی های متفاوتی دارد، مثلاً حجم نمونه یا به عنوان مثال میانگین سطح تحصیلات نمونه. برخی از متغیرهای وابسته، متغیرهای ساختگی هستند. من چیزهای زیادی در مورد متا آنالیز/رگرسیون خواندم اما خیلی گیج شده ام و نمی دانم چگونه باید تحلیل خود را شروع کنم، از کدام مدل پیروی کنم، فرمول مناسب برای محاسبه واریانس و وزن ها و غیره چگونه است. در مدل گنجانده شده است؟ من در مورد استفاده از این مدل فکر کردم: y=b0+b1x+b2x+...+u+e (مدل اثر ثابت+تصادفی) آیا روشی که من فکر می کنم درست است؟ آیا پیشنهادی برای من دارید؟ اگر نه، مراحل گام به گام چگونه است؟ (در متلب یا اکسل). اگر بتوانید در این تحلیل مرا راهنمایی کنید ممنون می شوم. ببخشید اگر به اندازه کافی واضح یا دقیق نبودم. پیشاپیش از شما متشکرم با احترام
چگونه یک متا رگرسیون را با یک مدل افکت تصادفی انجام دهیم؟ از کدام مدل استفاده کنم؟ چگونه شروع کنیم؟ (مبتدی)
76134
من مجموعه ای از داده ها را دارم (که برای راحتی شما نموداری از آنها را پیوست کرده ام) که در آن 2 دسته مورد علاقه دارم - بیایید آنها را A و B بنامیم. برای هر یک از آنها می خواهم از یک سری دسته بندی انتخاب کنم (بیایید تماس بگیریم آنها C_x) یکی که بهترین تقریب هر یک از آنها را از نظر اندازه گیری در دست دارد (در مورد من زمان واکنش). ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/oHpgC.png) من به 2 رویکرد فکر کرده ام: * یکی را با نزدیکترین میانگین انتخاب کنید و یک آزمون t انجام دهید. اگر مهم است - یکنوع بازی شبیه لوتو! * دسته مورد علاقه من را انتخاب کنید و آزمون های t را در برابر همه دسته های C_x اجرا کنید و یکی را با بالاترین اهمیت انتخاب کنید. من می خواهم بدانم به نظر شما کدام یک از موارد بالا بهتر است. همچنین، اخیراً به من گفته شده است که رویکردهای من فقط بوی داده کاوی کلاه سیاه دارد. نمی‌دانم چرا، اما اگر چنین است، می‌توانید راه بهتری برای این کار پیشنهاد کنید؟
تعیین بهترین تقریب بر اساس اندازه گیری های مکرر
91260
من 100 نقطه داده روی دو متغیر a و b دارم. همبستگی بین این دو 0.3 و SD 1 است. وقتی موارد زیر را در AMOS اجرا می‌کنم، برآوردهای معقولی (0.995 و 1.001) برای واریانس‌های «a» و «b» دریافت می‌کنم، حتی اگر آن را ثابت کرده باشم. کوواریانس به یک مقدار نادرست ![http://i.imgur.com/uYxZcal.png](http://i.stack.imgur.com/vHtj9.png) تخمین واریانس ها تقریباً ثابت می ماند اگر کوواریانس را 0.3 کنم . با این حال، اگر من کوواریانس را با مقادیر دیگر ثابت کنم، تخمین‌های واریانس می‌توانند بسیار متفاوت شوند. برای مثال، اگر من کوواریانس را روی 95/0 ثابت کنم، برآوردهای واریانس به ترتیب 57/1 و 58/1 می‌شوند. اگر کوواریانس را روی 15/0 ثابت کنم، برآوردهای واریانس به ترتیب 95/0 و 96/0 می‌شوند. چرا این اتفاق می افتد؟ در صورتی که کمک کند، در اینجا داده ها در صفحه گسترده Google آمده است.
چرا تثبیت مقدار کوواریانس باعث شد AMOS واریانس را اشتباه تخمین بزند؟
103733
بهترین (یا بهترین نقل قولی که دارید) توضیح زبان ساده شما در مورد تفاوت بین تست های برتری و تست های غیر حقارت چیست؟ من فکر می کنم یک آزمون برتری یک آزمون فرضیه دو طرفه تنوع باغی برای تفاوت بین دو گروه (مثلاً درمان) با هدف ارائه شواهدی مبنی بر اینکه یک معیار در یک گروه از گروه دیگر بیشتر است. بنابراین H$_{0}\text{: }\theta = 0$، در صورتی که H$_{0}$ رد شود، _ برتری_ برای درمان اعلام می‌شود _و_ این درمان اثر بیشتری دارد. و من فکر می‌کنم که تست عدم حقارت به طور خاص یک آزمون فرضیه یک طرفه است که در آن یک درمان جدید در برابر یک درمان استاندارد پذیرفته شده منهای مقداری ($\Delta$) که از نظر بالینی نامربوط است، مورد آزمایش قرار می‌گیرد. بنابراین H$_{0}\text{: }\theta \le -\Delta$، با _non- inferiority_ برای درمان جدید با توجه به استاندارد اگر H$_{0}$ رد شود، اعلام می‌شود.
آزمون برتری در مقابل آزمون عدم حقارت
73417
من سعی می کنم تابع شدت مشروط تجربی را در داده های خود محاسبه کنم. من دو نوع رویداد دارم، رویداد Type1 و رویداد Type2، که می توانند در بازه زمانی مثلاً 1 روز رخ دهند (رویدادها به طور همزمان رخ نمی دهند). من فرض می‌کنم وقتی یک نوع زوج اتفاق می‌افتد، احتمال وقوع یک رویداد دیگر نوع 1 افزایش می‌یابد (خود تحریکی) و زمانی که یک رویداد نوع 2 رخ می‌دهد، احتمال وقوع یک رویداد نوع 1 نیز افزایش می‌یابد (تقاطع متقابل). من می‌خواهم بفهمم که چه اتفاقی برای چگالی تجربی رویدادهای Type1 و Type2 می‌افتد که مشروط به وقوع یک رویداد Type1 است (در بخش خاص، می‌خواهم ببینم در ثانیه اول پس از وقوع یک رویداد Type1 چه اتفاقی برای آن می‌افتد). اگر به شدت غیر مشروط نگاه کنید، تنها کاری که انجام می دهید این است که فاصله زمانی من (0، T) را در نظر بگیرید، آن را به n سطل غیر همپوشانی تقسیم کنید و به سادگی تعداد وقوع در هر سطل را بشمارید. روشی که من این کار را انجام می دهم این است که یک سطل 1 ثانیه ای پس از وقوع هر رویداد Type1 شروع می کنم و سطل 1 ثانیه ای را به 20 سطل فرعی 0.05 ثانیه ای تقسیم می کنم. سپس تعداد رویدادهای Type1 و Type2 را که در هر سطل فرعی اتفاق می‌افتند می‌شمارم و این کار را برای هر سطلی که بعد از وقوع یک رویداد Type1 شروع می‌کنم تکرار می‌کنم. در نهایت، من میانگین تعداد رخدادها را برای هر یک از سطل‌های فرعی خود در تمام سطل‌ها می‌گیرم و نتیجه خود را رسم می‌کنم. آیا این روش صحیح انجام آن است؟ آیا این مشکل است که سطل ها (سطل های 1 ثانیه ای که در هر رخداد یک رویداد Type1 شروع می کنم، نه سطل های فرعی!!) با هم همپوشانی دارند زیرا من رویدادهای Type1 دارم که بیشتر از هر 1 ثانیه اتفاق می افتد؟ وقتی من آن را با تابع شدت شرطی ضمنی مدل خود مقایسه می‌کنم، شکل مناسب است، اما مقیاس کاملاً اشتباه است!
تابع شدت مشروط تجربی
103737
طبق نیاز شغلی من باید پیش بینی را فقط با استفاده از تکنیک Holt Winter در R انجام دهم. من داده های هفتگی برای 2 سال و نیم دارم و باید هفتگی را پیش بینی کنم. من قصد دارم سری های زمانی با فرکانس 52 بسازم. دارم می بینم که HoltWinters () تابع در R فقط می تواند روند افزایشی-افزودنی فصلی (A,A) و روند افزایشی -مدل فصلی ضربی (A,M) را انجام دهد. من می خواهم مدل های دیگری مانند (M,A), (M,M) را امتحان کنم. دیدم این مدل ها توسط ets() قابل انجام هستند اما ets() حداکثر محدودیت فرکانس 24 را دارد. لطفاً روشی در R به من پیشنهاد دهید که بتوانم از این مدل ها با فرکانس 52 هفته استفاده کنم؟ پیشاپیش ممنون
تغییرات مختلف تکنیک Holt Winter را با استفاده از R برای 52 هفته داده اجرا کنید
73414
فرض کنید من مجموعه ای از رشته ها را دارم که همه به هم مرتبط هستند. (لیستی از طعم های بستنی را تصور کنید.) برای هر جفت رشته، من می خواهم احتمال اینکه آنها واقعاً به یک چیز اشاره دارند را تعیین کنم. آیا می توان الگوریتم های ساده (یعنی فاصله لونشتاین) را با در نظر گرفتن سایر اعضای مجموعه بهبود بخشید؟
الگوریتمی برای تعیین یکسان بودن رشته ها؟ (با توجه به مجموعه)
103730
من حتی مطمئن نیستم که این سوال خیلی منطقی باشد، اما فکر می کنم چند عنوان مقاله را دیدم که در آن جنگل تصادفی با جلوه های تصادفی پیشنهاد شده بود. آیا این در R امکان پذیر است؟
چگونه می توانم جلوه های تصادفی را در یک جنگل تصادفی قرار دهم
76135
می‌دانم عنوان مبهم است: نمی‌توانستم یک عنوان خوب فکر کنم. سوال اساسی را می توان به روش های مختلف بیان کرد، اما من در اینجا به این فکر می کنم که آن را برای خودم راحت تر کنم: > سالی فقط یک چتر دارد. هر روز صبح 50% احتمال باران و > هر عصر 50% احتمال بارندگی وجود دارد. سالی هر روز به مدرسه می‌رود و برمی‌گردد، و اگر باران نباشد، چترش را با خود نخواهد برد. > چند بار باید زیر باران بدون چتر راه برود؟ بنابراین راهی که من در مورد این کار می کنم این است که یک مدل اکسل تولید کنم که حداقل 30 نمونه را آزمایش کند، با هر نمونه 30 رفت و برگشت رفت و برگشت، با استفاده از فرمولی برای تعیین اینکه آیا آن سفر بدون چتر انجام می شود یا نه. باران من متوجه شده‌ام که هر زمان که باران می‌بارد (بگذارید این عدد 1 باشد)، اگر مجموع 0‌های قبلی (سفرهایی که باران نمی‌بارد) تا 1 قبلی فرد باشد، سالی پیچ می‌خورد. به عنوان مثال: اگر 1 0 0 0 0 1 داشته باشیم، یعنی در اولین سفر و آخرین سفر باران بارید، سالی مشکلی ندارد زیرا تعداد 0 ها (4) زوج است. اگر 1 باشد پس 1، 1 دوم 1 است زیرا من 0 را به عنوان یک عدد زوج در نظر می‌گیرم. من در فهمیدن اینکه چگونه این را در نوعی از مدل اکسل قرار دهم مشکل دارم. به عنوان مثال، من می‌توانم یک ستون # صفر قبلی داشته باشم، اما چگونه می‌توانم فرمول را پس از رسیدن به عدد 1 در ستون دیگر بازنشانی کنم؟ همچنین، چگونه می توانم نتایج خود را بگیرم و احتمالاً یک خلاصه CI و پنج نقطه ای در اکسل بسازم؟ با تشکر
دو رویداد مستقل بر احتمال رخداد سوم تأثیر می‌گذارند: CI را برای رویداد سوم پیدا کنید
73415
من یک سوال ساده دارم، اما هیچ کجا نتونستم جوابی که دنبالش بودم پیدا کنم. من مطمئن هستم که یک قضیه یا توزیع ساده وجود دارد که این مشکل را حل می کند، اما از من طفره می رود. شاید من عبارات درست را در گوگل جستجو نکرده ام یا در کتاب های درسی مناسب جستجو نکرده ام! مشکل من به شرح زیر است. فرض کنید نسبتی ($p$) از یک میدان پوشیده از آب است. آب به طور تصادفی در مزرعه پراکنده می شود. این فیلد دارای مساحت $A$ است. اکنون با یک هلیکوپتر بر فراز میدان پرواز می کنیم و به صورت تصادفی حلقه ای به اندازه $a$ (که $aN = A$) داخل میدان می اندازیم. حلقه در یک نقطه تصادفی در داخل مرزهای میدان فرود می آید. احتمال وجود آب در داخل حلقه چقدر است؟ شهود من در مورد مشکل این است که برای $a > A(1-p)$، احتمال 1 است (زیرا ناحیه حذف شده توسط حلقه کوچکتر از مساحت کل آب است) و به صورت $a \rightarrow 0$ است. ، احتمال به $p$ نزدیک می شود. اما برای مقادیر $a$ در وسط چطور؟ آیا می توان به سوال پاسخ داد؟ من یک سوء ظن پنهانی دارم که پاسخ به طرز شرم آوری ساده است. با تشکر از کمک شما!
حلقه ها در یک زمین
91261
من سعی می کنم مجموعه داده های خود را با توزیع لگ نرمال با استفاده از Matlab مدل کنم. من پارامترها را از طریق lognfit تخمین زدم و نقاط داده تولید شده من با توزیع مناسب در مقایسه با داده های مشاهده شده بسیار خوب به نظر می رسند. برای بررسی بیشتر، من می‌خواستم از chi2gof برای تست خوبی استفاده کنم. به نظر می رسد همه چیز خوب کار می کند و فرضیه صفر رد نمی شود اما p-value NaN است. من از رویکرد اعمال شده در توزیع Weibull تحت http://www.mathworks.de/de/help/stats/chi2gof.html استفاده می کنم، بنابراین شما می توانید نتیجه من را بازتولید کنید، این مثالی است که کار نمی کند. >> test = lognrnd(-3.6299, 1.30985, 100, 1); >> b = fitdist(test, 'Lognormal') b = LognormalDistribution توزیع Lognormal mu = -3.62425 [-3.86888, -3.37962] sigma = 1.2329 [1.08249, 1.43223] >> [h, p, st, st],chi 'CDF'، ب) h = 0 p = NaN st = chi2stat: 0.0183 df: 0 یال: [0.0015 0.2151 2.1372] O: [94 6] E: [93.6703 6.3297] همچنین تبدیل داده ها به نقاط داده توزیع شده نرمال و بررسی توزیع p-value نرمال منجر به N . من برای هر کمکی ممنونم! با سلام و احترام ویرایش: من به تازگی توانستم رویکرد تبدیل به عادی را عملی کنم: هنوز هم خوب است بدانیم آیا این رویکرد معتبر است و چرا رویکرد اصلی کار نمی کند. >> test = lognrnd(-3.6299, 1.30985, 100, 1); >> تست = ورود (تست)؛ >> b = fitdist(تست، 'نرمال') b = NormalDistribution توزیع نرمال mu = -3.68114 [-3.92861, -3.43368] sigma = 1.24717 [1.09502، 1.44881] >> [h, p, st] (test, chi2go 'CDF'، ب) h = 0 p = 0.5330 st = chi2stat: 4.1149 df: 5 لبه: [-6.1930 -5.5713 -4.9497 -4.3281 -3.7064 -3.0848 -2.4632 -1.8415 0.8415 0.0237 0.0237 O 6] E: [6.4814 8.9730 14.7440 18.9931 19.1820 15.1883 9.4282 7.0101]
P-value NaN با استفاده از chi2gof برای تأیید توزیع لگ نرمال در مجموعه داده
76137
با آنالیز طیفی می‌توانیم ارزیابی کنیم کدام سری‌ها صاف هستند و کدام‌یک سریع‌تر نوسان می‌کنند. آیا می توان ناهنجاری ها را در یک سری زمانی با تحلیل طیفی یافت؟ آیا می توانید یک مقاله یا مرجع در مورد یافتن ناهنجاری ها با تجزیه و تحلیل طیفی به من ارائه دهید؟
تجزیه و تحلیل طیفی برای یافتن ناهنجاری ها
58963
تعریف معیار اطلاعات بیزی معمولاً به صورت $BIC = -2 \text{ln}(L) + k\text{ln}(n)$ ارائه می‌شود، که در آن $ln(L)$ حداکثر احتمال ورود به سیستم است. داده ای که به یک مدل خاص داده می شود، $k$ تعداد پارامترهای آزاد است که این مدل دارد، و در نهایت $n$ تعداد نقاط داده ای است که مدل با آنها مطابقت دارد. اگر من مدلی داشتم که تعداد پاسخ‌های صحیح را در دو شرایط آزمایشی با هر آزمایش 100 پیش‌بینی می‌کرد، و داده‌های من شامل تعداد پاسخ‌های صحیح در هر یک از این دو شرط بود (مثلاً 34 از 100)، پس دقیقاً چه چیزی باید باشد. من برای n$، 2 یا 200 دلار استفاده می کنم؟
اندازه نمونه در BIC
73410
اجازه دهید یک سیستم تولید را در نظر بگیریم. این شامل 2 جزء مستقل است. اگر یکی از این مؤلفه ها خراب شود، کل سیستم از کار می افتد. اجازه دهید $Y_j$ $\exp(Q_j)$ توزیع شود که $j=1، 2$. اگر مؤلفه 1 ابتدا خراب شود، آنگاه $Y_1$ مشاهده می شود اما $Y_2$ نیست ($Y_2$ سانسور شده است). اگر مؤلفه 2 ابتدا خراب شود، آنگاه $Y_2$ مشاهده می شود اما Y_1 مشاهده نمی شود ($Y_1$ سانسور می شود). بنابراین، اگر سیستم از کار بیفتد، ما فقط می‌توانیم $u = \min(Y_1, Y_2)$ و متغیر تصادفی باینری $V$ را مشاهده کنیم که اگر $Y_1 <Y_2$ باشد $1 و در غیر این صورت $0$ است. چگونه می توانم pdf مشترک یک متغیر پیوسته $u = \min(Y_1, Y_2)$ و یک متغیر گسسته $V = 1$ استخراج کنم اگر $Y_1 <Y_2$ و در غیر این صورت $0$؟
پی دی اف مشترک یک rv پیوسته و گسسته
35221
من می خواهم تجزیه و تحلیل تمایز را در زبان R انجام دهم. لطفا کد و بسته های مربوط به آن را به من اطلاع دهید.
چگونه در نرم افزار R آنالیز تفکیک انجام دهیم؟
87955
من بسته afex را با این فرمول نصب کرده ام: x <- mixed(دوره ~ (1|مورد) + (1+رنگ|بلندگو) + group*color*sex, data=data1.frame,REML=FALSE,type=2 ,method=c(KR)) فرمول این را به من داد: برازش مدل های 10 (g)lmer(): [..........] به دست آوردن 7 مقدار p: [خطا در list2env(داده) : آرگومان اول باید لیستی با نام باشد علاوه بر این: پیام هشدار: در مخلوط (مدت زمان ~ (1 | مورد) + (1 + رنگ | بلندگو) + گروه * : پیاده سازی روش نوع 2 بدون مشکل نیست مستندات را بررسی کنید یا از car::Anova استفاده کنید (تست های Wald > x Effect stat ndf ddf F.scaling p.value 1). 1.61 2 35.74 0.98 .21 2 رنگ 0.04 2 17.04 1.00 .96 3 جنسیت 9.71 1 66.83 1.00 .003 4 گروه:رنگ 0.20 4 36.56: 0.9 0.9 گروه 170.83 1.00 .04 6 color:sex 0.31 2 63.48 0.98 .73 7 group:color:sex 1.06 4 193.57 0.99 .38 آیا می توانم بپرسم چگونه می توانم مقادیر p را برای همه پارامترها دریافت کنم؟
Afex تمام p-valueهای همه پارامترها را به من نمی دهد. چه کار کنم؟
103889
من سعی می کنم احتمال حداقل تعداد معینی از n رنگ توپ را در یک کوزه که m > n توپ دارم محاسبه کنم. من می‌خواهم تا آنجا که می‌توانم نمونه‌هایی از یک کوزه با m توپ تولید کنم، و سپس ببینم چه مقدار از این توپ‌ها از توپ‌هایی هستند که به آنها علاقه دارم (می‌تواند n توپ < m باشد). در R با «بسته BiasedUrn» من تابع چگالی و مولد اعداد تصادفی دارم. انجام rsamp <- rMFNCHypergeo(nran=1000000، m=NumberBallsInUrn(بردار > 50)، n=SampleNumber، odds=rep(1، length(NumberBallsInUrn))) من نمونه ای را که می خواهم ایجاد می کنم، آیا فکر می کنید که محاسبه prob sum(rsamp[28,] >=12 & rsamp[26,] >=6)/1000000 می‌تواند به من احتمال نسبتاً خوبی بدهد که حداقل (>=) 12 توپ از توپ 26 و حداقل 6 (>=) توپ از توپ 28 در کوزه داشته باشم، مشابه توزیع تجمعی از حالت تک متغیره توزیع فراهندسی، که در آن من P(X > x) را با فیپر (q، m، n، k، low.tail=FALSE) ? آیا این می تواند یک محاسبه منصفانه برای توپ هایی باشد که در آزمایشی در زیست شناسی کشیده شده اند؟
توزیع فراهندسی چند متغیره غیر مرکزی فیشر
87956
من یک آزمایش اندازه گیری مکرر دارم که در آن متغیر وابسته یک درصد است و چندین عامل به عنوان متغیر مستقل دارم. من می‌خواهم از «glmer» از بسته R «lme4» استفاده کنم تا آن را به‌عنوان یک مشکل رگرسیون لجستیک در نظر بگیرم (با مشخص کردن «خانواده=دوجمله‌ای») زیرا به نظر می‌رسد مستقیماً با این تنظیمات سازگار است. داده‌های من به این شکل است: > head(data.xvsy) foldnum featureset noisered pooldur dpoolmode auc 1 0 mfcc-ms nr0 1 mean 0.6760438 2 1 mfcc-ms nr0 1 mean 0.6739482 3 0 melspec-5x1 p. 4 1 melspec-maxp nr075 1 max 0.7822994 5 0 chrmpeak-tpor1d nr075 1 max 0.6547476 6 1 chrmpeak-tpor1d nr075 1 max 0.6699825 و در اینجا دستور مناسب است. glmer(auc~1+featureset*noisered*pooldur*dpoolmode+(1|foldnum), data.xvsy, family=binomial) مشکل این است که دستور از اینکه متغیر وابسته من اعداد صحیح نیست شکایت می کند: در eval(expr, envir , enclos) : غیرصحیح #موفقیت در glm دوجمله ای! و تجزیه و تحلیل این داده ها (پایلوت) در نتیجه پاسخ های عجیبی می دهد. من می‌دانم که چرا خانواده «دوجمله‌ای» از اعداد صحیح انتظار دارند (بله-خیر به حساب می‌آید)، اما به نظر می‌رسد خوب است که داده‌های درصدی را مستقیماً رگرسیون کنیم. چگونه این کار را انجام دهیم؟
R lme4: چگونه می توان GLM دو جمله ای را به جای شمارش بله-خیر در درصدها اعمال کرد
103436
در مدل GARCH مانند $$y_t=\sigma_tz_t زیر،\\\ \sigma_t^2=\omega(1-\alpha-\beta)+\alpha y_{t-1}^2+\beta \sigma_{ t-1}^2$$ که در آن $z_t$ iidN(0,1) فرض می شود، می گوییم که مشروط به اطلاعات گذشته $y_t$ دارای چگالی گاوسی $$f(y_t|y_{t-1},\sigma_{t-1}^2)=\frac{1}{\sqrt{2\pi\sigma^2_t}}exp\left(\frac {1}{2\sigma^2_t}y_t^2\right)$$ آیا در نتیجه گیری زیر صحیح هستم؟ * بنابراین هنگام شرطی کردن گذشته، می دانیم که ارزش $\sigma^2_t$ چقدر است. در نتیجه، می‌توانیم بگوییم که $y_t$ به طور مشروط به‌صورت نرمال به صورت $N(0,\omega(1-\alpha-\beta)+\alpha y_{t-1}^2+\beta \sigma_{t-1 توزیع می‌شود. }^2)$.
درک شرطی سازی در فرآیند GARCH
103881
حساسیت و ویژگی در ماتریس سردرگمی زیر از بسته caret چگونه تعریف می شود؟ با توجه به کتاب درسی من (مقدمه ای بر داده کاوی توسط تان، اشتاین باخ و کومار)، حساسیت و ویژگی برابر با مقدار Pos Pred و Neg Pred Value است که در زیر آمده است: علاوه بر این، کدام تعریف برای ساخت ROC استفاده می شود. منحنی ها؟ من از پکیج pROC استفاده می کنم. ماتریس سردرگمی و آمار y_BBR_test_est Mersalg Stilstand Mersalg 432 309 Stilstand 2906 793 دقت: 0.2759 95% فاصله اطمینان (CI): (0.2628، 0.2893) بدون نرخ اطلاعات: 0.751 N. -0.0844 Mcnemar's Test P-Value : <2e-16 Sensitivity : 0.1294 Specificity : 0.7196 Pos Pred Value : 0.5830 Neg Pred Value : 0.2144 Prevalence : 0.7518 Prevalence : 0.7518 تشخیص: 0.7518 تشخیص .0. 0.1669 دقت متعادل: 0.4245 'مثبت' کلاس: Mersalg
حساسیت و ویژگی با جعبه متن من متفاوت است؟
35228
من سعی کرده‌ام روش‌شناسی و کاربرد توزیع‌های شرطی را در یک محیط عادی چند متغیره همانطور که در این صفحه ویکی‌پدیا مشخص شده است، درک کنم. در زمینه آن صفحه، اگر مقدار دقیق $x_2=a$ را بدانیم، می‌توانیم ماتریس کوواریانس واریانس شرطی را برای $x_1$ استخراج کنیم. اکنون، به عنوان مثال، اگر من 3 متغیر $x_1$، $x_2$ و $x_3$ در توزیع MVN داشته باشم، و توزیع شرطی x_1$ و $x_2$ را با توجه به اینکه x_3$ را می‌دانم (یا به عنوان یک یک مقدار یا به عنوان توزیع؟)، این توزیع مشروط مشتق شده چه اطلاعاتی به من می دهد؟ کاربردهای این توزیع چیست؟ آیا می توانم از این توزیع شرطی برای پیش بینی های خارج از نمونه یا حداقل پیش بینی در مقادیری در محدوده $x_3$ که در داده های اصلی وجود ندارد استفاده کنم. اگر کسی بتواند چند نمونه از کاربردهای ساده یا ادبیات را به من معرفی کند، خوشحال می شوم. من خیلی تکنیکی نیستم اما تمام تلاشم را می کنم تا کامل بخوانم و بفهمم.
کاربرد ماتریس های کوواریانس شرطی
91269
داشتم یادداشت های سخنرانی یادگیری ماشین اندرو ng را در SVM می خواندم. من با معادله زیر روبرو شدم (یافتن مقدار بهینه برای عبارت رهگیری $b$ در مسئله SVM): ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/0vD6t.png) با این حال، من نمی دانم چگونه عبارت رهگیری $b$ با حل مسئله اولیه مشتق می شود؟ من معتقدم لاگرانژی اولیه این است: $$\min_{w,b} \max_{\alpha} \mathcal{L}(w,b,\alpha) = \min_{w,b} \max_{\alpha} \ frac{1}{2} ||w||^2 - \sum_{i=1}^m \alpha_i [y_i (w^T x_i + b) - 1]$$ اما چگونه برای $b$ حل کنم؟ هر کمکی عالی خواهد بود. خیلی ممنون.
استخراج مقدار بهینه برای عبارت رهگیری در SVM
91306
مشخص است که یک پل براونی چند متغیره استاندارد $ y(\mathbf u) $ یک فرآیند گاوسی متمرکز با تابع کوواریانس $$ \mathbb E(y(\mathbf u) y(\mathbf v)) = \prod_{j =1}^d (u_j \wedge v_j) - \prod_{j=1}^d u_j v_j $$ من نیستم مطمئن شوید که چگونه می توان چنین پل براونی چند متغیره را ساخت. اولین فکر من این بود که به نوعی با یک پل براونی تک متغیره شروع کنم. من اطلاعاتی در مورد آن و حتی یک بسته در R پیدا کرده ام که می تواند این کار را انجام دهد، اما فقط برای پل براونی تک متغیره. من این را پیدا کردم، اما همانطور که فهمیدم، کاری که در آنجا انجام شده است، پل براونی چند متغیره استانداردی نیست که در بالا تعریف شده است یا به عنوان مثال. در این مقاله من از هر گونه راهنمایی و حمایت قدردانی می کنم.
چگونه یک پل براونی چند متغیره ایجاد کنیم
43880
در صفحه 85-86 یانگ و اسمیت «مبانی استنتاج آماری» نتیجه جالبی وجود دارد. اگر X$$ یک r.v باشد. با توجه به خانواده نمایی توزیع شده و $\phi(x)$ یک تابع محدود (اما نه لزوما قابل تمایز) از x است، سپس: $$ E(\phi(x)) = \int \phi(x) c(\ تتا) h(x) \text{exp} \big(\sum_{i = 1}^k \theta_i \tau_i(x)\big )dx $$ قابل تمایز از همه سفارشات w.r.t. $\theta$. تفسیر من این است که در نظر گرفتن انتظارات تحت خانواده نمایی، تابع $\phi(x)$ را هموار می کند. می‌خواستم بدانم که آیا اثرات مشابه «صاف‌کننده» در خارج از خانواده نمایی نیز اتفاق می‌افتد.
انتظارات هموار خارج از خانواده نمایی
58966
من می‌دانم که این سؤال کاملاً گسترده است، اما نمی‌دانم در تصمیم‌گیری برای ایجاد (یا نه) یک بسته جدید برای R چه نکاتی باید باشد. از R به خودی خود استفاده کنید، بیشتر در مورد تصمیم به کامپایل اسکریپت های مختلف و ادغام آنها در یک بسته جدید. از جمله نکاتی که می‌تواند منجر به این تصمیم‌ها شود، به موارد زیر (به شکلی کاملاً غیر جامع) فکر کرده‌ام: * عدم وجود بسته‌های دیگر در همان زمینه فرعی. * نیاز به تبادل نظر با سایر محققین و امکان تکرارپذیری آزمایشها. و از جمله نکاتی که می تواند منجر به تصمیم مخالف شود: * بخشی از روش های مورد استفاده در برخی از بسته های دیگر وجود دارد. * تعداد توابع جدید برای توجیه ایجاد یک بسته مستقل جدید کافی نیست. شاید بسیاری از نکاتی را که می‌توانستند در هر یک از این فهرست‌ها قرار دهند، فراموش کرده باشم، و همچنین، این معیارها تا حدی ذهنی به نظر می‌رسند. بنابراین، چه چیزی باید توجیه شود، و در چه نقطه ای، شروع به گردآوری توابع و داده های مختلف در یک بسته مستند جدید و به طور گسترده در دسترس باشد؟
چرا و چه زمانی یک بسته R ایجاد کنیم؟
103731
من مطالعه‌ای دارم که در آن بسیاری از پیامدها مانند درصد نشان داده می‌شوند و از رگرسیون خطی چندگانه برای ارزیابی تأثیر برخی از متغیرهای طبقه‌بندی بر این نتایج استفاده می‌کنم. می‌پرسیدم، از آنجایی که رگرسیون خطی فرض می‌کند که نتیجه یک توزیع پیوسته است، آیا مشکلات روش‌شناختی در اعمال چنین مدلی برای درصدهایی وجود دارد که بین 0 تا 100 محدود شده‌اند؟
درصد نتایج در رگرسیون خطی
91300
من پنج مجموعه داده مختلف دارم و پنج طبقه‌بندی کننده را اعمال کردم. من همچنین پنج معیار ارزیابی عملکرد دارم: دقت، فراخوان، اندازه گیری F، دقت و AU-ROC. آیا طرح خوبی وجود دارد که بتوانم از آن برای مقایسه این نتایج استفاده کنم؟
رسم نتایج عملکرد طبقه بندی کننده ها برای مجموعه داده های مختلف
101485
معمولاً در رایانه شخصی از چند رایانه اول استفاده می شود و رایانه های شخصی با تنوع کم حذف می شوند - زیرا تفاوت زیادی در داده ها توضیح نمی دهند. با این حال، آیا نمونه‌هایی وجود دارد که رایانه‌های شخصی با تنوع کم مفید هستند (یعنی در زمینه داده‌ها استفاده می‌کنند. توضیحی بصری دارند و نباید دور ریخته شوند)؟ با تشکر
مثالی از PCA که در آن PC با تنوع کم مفید است
35220
من سعی می کنم یک QQ-plot با دو مجموعه داده حدود 1.2 میلیون نقطه، در R رسم کنم (با استفاده از qqplot و تغذیه داده ها به ggplot2). محاسبه به اندازه کافی آسان است، اما نمودار حاصل به طرز دردناکی کند است، زیرا نقاط زیادی وجود دارد. من تقریب خطی را امتحان کردم تا تعداد نقاط را به 10000 کاهش دهم (این همان کاری است که تابع qqplot به هر حال انجام می دهد، اگر یکی از مجموعه داده های شما بزرگتر از دیگری باشد)، اما سپس جزئیات زیادی را در دم ها از دست می دهید. اکثر نقاط داده به سمت مرکز اساساً بی فایده هستند - آنقدر با هم همپوشانی دارند که احتمالاً حدود 100 در هر پیکسل وجود دارد. آیا راه ساده ای برای حذف داده هایی که خیلی نزدیک به هم هستند، بدون از دست دادن داده های پراکنده تر به سمت دم وجود دارد؟
حذف نقاط اضافی در نزدیکی مرکز QQ-plot
94261
برای برخی از متغیرهای داده‌هایم مقادیر گم شده‌ای دارم. من از OLS ترکیبی استفاده می کنم و 144 مشاهده دارم. من برای سه تا از متغیرها مقادیر کم دارم. کمتر از 10 درصد از داده های هر متغیر وجود ندارد. با این مقادیر از دست رفته چه کنم؟ آیا باید از انتساب چندگانه استفاده کنم یا فقط باید مشاهدات با مقادیر گمشده را حذف کنم؟ آیا در صورت استفاده از انتساب چندگانه می توانم نتایج را بایاس کنم؟ * * * با تشکر از پاسخ شما. من از داده‌های کشور برای سال‌های 2010-2012 استفاده می‌کنم، و داده‌های گمشده مربوط به باز بودن تجارت و تولید ناخالص داخلی سرانه است. اطلاعات مربوط به تولید ناخالص داخلی سرانه برای سوریه و کوبا وجود ندارد. داده‌های مربوط به باز بودن تجاری که به صورت (صادرات+واردات)/تولید ناخالص داخلی اندازه‌گیری می‌شود، برای سوریه و سایر کشورها مانند میانمار، ایران، لیبی و برای یک سال برای مجارستان، کامبوج و مالاوی وجود ندارد. من می توانم ببینم که کمبود داده ها برای سوریه تصادفی نیست، به دلیل جنگ و غیره. همین امر در مورد لیبی و ایران نیز صدق می کند. با این حال، برای باز بودن تجارت، مقادیر گمشده ای برای مجارستان و کامبوج نیز وجود دارد که به نظر من تصادفی است (نمی توانم دلایل دیگری را ببینم که چرا نباید تصادفی باشد). این متغیرها برای رگرسیون من جالب نیستند، آنها به عنوان متغیرهای کنترلی استفاده می شوند.
با مقادیر از دست رفته چه کنیم؟
91301
من یک مجموعه داده از یک نظرسنجی با متغیرهای زیادی دارم، و برای انجام تحلیل رگرسیون می‌خواهم تعداد متغیرها را کاهش دهم. زیرا در حال حاضر من در واقع متغیرهای بیشتری نسبت به پاسخ ها دارم. من تجزیه و تحلیل مؤلفه های اصلی (PCA) / تحلیل عاملی اکتشافی (EFA) را امتحان کرده ام، اما «تفسیر» عوامل مختلف برایم دشوار است. با این حال، من فکر می کنم که می توان متغیرها را به خوبی بر اساس ملاحظات نظری به تنهایی گروه بندی کرد، بنابراین فکر کردم تحلیل عاملی تاییدی (CFA) ممکن است یک گزینه باشد. متأسفانه بیشتر منابع در مورد تکنیک های کاهش داده، من را به PCA/EFA راهنمایی می کنند. آیا کسی منابعی می داند که فرآیند CFA را توضیح دهد؟ از طرف دیگر، آیا کسی می تواند در مورد سؤالات خاص زیر به من کمک کند؟ 1) اگر تنها هدف من استفاده از نمرات عاملی در تحلیل رگرسیون است، آیا اصلاً باید نگران آمار برازش CFA باشم؟ به نظر من تنها چیزی که نیاز دارم امتیاز فاکتورهاست. 2) تا جایی که من متوجه شدم، می توان واریانس را محدود کرد یا یکی از متغیرهای هر یک از گروه ها را روی 1 تنظیم کرد، دوباره به منظور کاهش داده ها، آیا مهم است که از کدام رویکرد استفاده کنم؟ آیا انتخاب بر نمرات فاکتور من تأثیر می گذارد؟ یا به طور خاص تر، آیا تعیین یک بار عاملی در هر عامل به 1، مقایسه بین امتیازهای عامل است؟ 3) من با مرحله محاسباتی واقعی که از نتایج CFA به امتیازات فاکتور می‌رود، مشکل دارم. من از بسته لاوان در R استفاده می کردم و به نظر نمی رسد که نمرات فاکتور را بدست بیاورم. یا باید با استفاده از بارگذاری ها، دستی را محاسبه کنم؟ آیا کسی می داند چگونه این کار انجام می شود، یا می تواند بسته دیگری را توصیه کند؟ (من متوجه شدم که این بیشتر یک سوال برنامه نویسی است تا یک سوال مفهومی، اما با این وجود فکر کردم که آن را اضافه کنم، به این امید که کسی که ممکن است در مورد CFA در تئوری اطلاعات داشته باشد، تجربه عملی با آن را در R نیز داشته باشد) پیشاپیش متشکرم! توجه: در صورتی که بیانیه مربوط به حجم نسبتاً نمونه بالا نگران باشد. من واقعاً در اینجا چندان به استنباط اهمیت نمی دهم، زیرا نمونه من تقریباً کل جمعیت است. NB2: من قصد دارم از عوامل فقط در سمت راست رگرسیون استفاده کنم. متغیر سمت چپ از جای دیگری می آید.
تحلیل عاملی تاییدی برای کاهش داده ها (قبل از رگرسیون)
91268
من تست چاو را می‌دانم، یک آمار آزمون را محاسبه می‌کند و آماره آزمون از توزیع F پیروی می‌کند، اما نمی‌دانم فرض صفر در کدام سمت رد می‌شود.
ناحیه رد تست چاو در کدام سمت قرار دارد؟
108151
می خواستم بدانم که آیا فیلتر کالمن به روشی برای تصحیح و کاهش خطاهای پیش بینی استفاده می شود در پیش بینی واقعی مفید است یا خیر. در زندگی واقعی، ما مقدار واقعی اندازه گیری را نداریم، بنابراین چگونه می توانیم از تصحیح فیلتر کالمن در مقادیر پیش بینی خود استفاده کنیم. پیشنهاد: به نظر شما در یک نقطه (t+n) تصحیح کالمن پیش‌بینی ما (در t+n) به عنوان اندازه‌گیری واقعی برای استفاده از آن برای تصحیح داده‌های پیش‌بینی در (t+n+1) چیست؟
کارایی تصحیح فیلتر کالمن
87950
من داشتم یادداشت های سخنرانی ML اندرو نگ در مورد خوشه بندی K-mean را می خواندم که در آن تابع اعوجاج به صورت زیر تعریف می شود $$J(c,\mu) = \sum^m_{i=1} || x^{(i)} - \mu_{c^{(i)}}||^2$$ من در مورد هنجار $L_2$ متحیر هستم، زیرا $|| x^{(i)} - \mu_{c^{(i)}}||^2 $ به معنای $\sum^m_{i=1} است (x^{(i)} - \mu_{c^ {(i)}})^2$ و این بدان معنی است که دو جمع $\sum_{i=1}^m$ در کل عبارت وجود دارد. من احساس می کنم که در اینجا یک چیز مهم را اشتباه متوجه شده ام. لطفا به خطا اشاره کنید. با تشکر به روز رسانی: مشکل یک مجموعه آموزشی داده شده $\\{x^{(1)}، ...، x^{(m)}\\}$، جایی که $x^{(i)} \in \ mathbb{R}^n$ و مرکزهای خوشه $\mu_1، \mu_2،...\mu_k \in \mathbb{R}^n$ هستند
تابع اعوجاج برای الگوریتم k-means
58784
من می خواهم رفتار (اقدام بعدی) یک کاربر اینترنتی که در یک خبرنامه مشترک شده بود را پیش بینی کنم. 4 عمل می تواند توسط کاربر انجام شود: 1. باز نکنید (/) 2. بخوانید 3. کلیک کنید 4. خرید یک سلسله مراتب در این لیست وجود دارد. در صورت خرید باید بخوانید و کلیک کنید. برای پیش بینی، من سابقه رفتار کاربران را دارم: ![http://i.imgur.com/u25IP8U.png](http://i.stack.imgur.com/EbakD.png) همانطور که می توانید ببینید، **3 مشکل وجود دارد**: 1. دو کاربر می توانند دو تاریخ اشتراک متفاوت داشته باشند (منشا یکسانی در جدول زمانی ندارند) 2. کاربران هر ایمیل را دریافت نمی کنند، زیرا هیچ کس مشترک در هر موضوع (لباس، تکنولوژی پیشرفته، ورزشی) 3. من هیچ اطلاعاتی در مورد موضوع ایمیل ندارم. در حال حاضر من در نظر دارم از درخت تصمیم، رگرسیون لجستیک، svm،... برای این کار نیاز دارم: * برای تبدیل رفتار به یک متغیر کمی، باز نکنید (/) = 0 ; خواندن = 1 ; کلیک= 2 ; Buy= 3 * برای پیش پردازش داده ها و من دو ایده اصلی دارم: **1/ آخرین متغیرهای رفتار را مانند این ایجاد کنید:**![http://i.stack.imgur.com/MaK8q.png](http ://i.stack.imgur.com/D1esp.png) من بخشی از جنبه زمانی را در اینجا از دست می دهم، زیرا نمی دانم بین تاریخ دو اقدام تفاوت کوچک یا بزرگی وجود دارد. **2/ نمره ای ایجاد کنید که تمام رفتارها را در یک متغیر در بر گیرد.** می توانم از یک هسته گاوسی استفاده کنم تا وزن آن با گذشت زمان کاهش یابد. ![i.imgur.com/JWaZNP3.png](http://i.stack.imgur.com/GDRmg.png) برای این روش مقادیر دیگری غیر از (0,1,2,3) قابل آزمایش هستند ![i] .stack.imgur.com/gdT5l.png](http://i.stack.imgur.com/hGDmu.png) در اینجا من نمی توانم از رفتار دو عبور کنم به عنوان مثال، رفتارهای متوالی در درخت تصمیم. من قبلاً این کار را انجام ندادم، بنابراین اگر پیشنهادی دارید، در هدف گذاری ایده خود تردید نکنید.
داده کاوی و سری های زمانی: پیشنهاد الگوریتم
87952
چند بار در LMM یا GEE (با SPSS، اگرچه من شک دارم که مهم باشد - و ممکن است در تجزیه و تحلیل های دیگر نیز رخ دهد، اما اینها آنهایی هستند که من آن را دیده ام) چیزی را دیده ام که به نظر متناقض می رسد: یک متغیر پیوسته $X$ دارای مقادیر آزمایشی کاملاً متفاوت (Wald's یا $F$s) و $p$s تحت آزمایش اثرات مدل و تخمین پارامترها است. به عنوان مثال، من در اینجا یک GEE با $p = 0.003$ برای $X$ در آزمایش اثرات مدل دارم، اما $p = 0.728$ در تخمین پارامترها: ![شرح تصویر را اینجا وارد کنید](http://i. stack.imgur.com/MjU0L.png) من می‌دانم که این دو $p$s برای متغیر طبقه‌بندی $Y$ می‌توانند متفاوت باشند، زیرا آزمایش‌های اثرات مدل بررسی می‌کنند که آیا هر یک از دسته‌ها متفاوت است یا خیر. صفر، و اگر دسته مرجع به گونه ای باشد که تخمین دسته 1 کوچکتر و برای دسته 2 بزرگتر از دسته مرجع باشد، ممکن است تخمین های آن دسته ها به اندازه کافی با دسته مرجع متفاوت نباشد (به نظر می رسد که من هیچ چیز قابل توجهی نداشتم. تفاوت در تخمین پارامترها) حتی اگر تفاوت بین 1 و 2 باشد (که هنوز در آزمایشات اثرات مدل نشان داده می شود). این واضح است. اما من اکنون به یک متغیر پیوسته نگاه می‌کنم، با تنها یک تخمین پارامتر $b$ که، اگر شرایط تعاملی وجود نداشته باشد، دارای مقادیر تست یکسان و $p$s با آزمایش‌های اثرات مدل است. با این حال، زمانی که یک تعامل بین $X$ و یک متغیر طبقه‌بندی $Y$ تعریف می‌شود، مقادیر ممکن است به شدت تغییر کنند، و من نمی‌دانم چرا. من فرض می‌کنم این فقط در تعاملات اتفاق می‌افتد، زیرا پارامتر زمانی تخمین زده می‌شود که پارامترهای دیگر روی صفر (پیوسته) یا به آخرین دسته (مقوله) ثابت شوند، و وقتی یک تعامل $XY$ تعریف می‌شود، تخمین‌ها برای دسته‌های $Y$ تخمین $X$ را تحت تاثیر قرار می دهد (همانطور که می توان با این واقعیت مشاهده کرد که تخمین ها برای $X$ با تغییر دسته مرجع برای $Y$ تغییر می کنند). اگر من فقط $Y$ در مدل داشتم، می‌توانم مدل را طوری تغییر دهم که شدیدترین دسته مرجع باشد، و می‌دیدم که آزمایش‌های اثرات مدل تا حد معقولی شبیه آزمایش‌های تخمین پارامترها هستند. اما به نظر می رسد تعاملات به نحوی متفاوت عمل می کنند. وقتی دسته مرجع را برای $Y$ تغییر می‌دهم، آزمایش‌های تخمین پارامتر برای $Y$، $X$، و $XY$ تغییر می‌کنند (برای $X، p$ از $.103$ به $.728$ تغییر می‌کند)$. ، اما در آزمایش‌های افکت‌های مدل، فقط اثر X$$ تغییر می‌کند و به مقدار بسیار کمتری نسبت به تخمین‌های پارامتر (بین $.001$ و $.014)$ تغییر می‌کند. 1. چرا وقتی دسته مرجع تغییر می کند، آزمایش اثر مدل برای X$ تغییر می کند؟ اگر آزمایش اثرات مدل نشان می دهد که آیا متغیر به طور کلی با صفر متفاوت است یا خیر، دسته مرجع نباید آن را تحت تأثیر قرار دهد (مثل اینکه تأثیری بر آزمایشات اثرات مدل برای $Y$ و $XY$ ندارد). 2. و چرا مقادیر و اهمیت آزمون اینقدر متفاوت است؟ چگونه منطقی است که یک اثر برای X$ در مدل وجود داشته باشد، اما وقتی می‌خواهم آن را پیدا کنم، تخمین پارامتر همیشه آنقدر کوچک است که با صفر تفاوتی ندارد؟ در عین حال، اثرات مدل برای $Y$ و $XY$ در مقایسه با تخمین های پارامتر بسیار سازگارتر به نظر می رسد. چه چیزی را از دست داده ام؟
آزمایش‌های اثرات مدل و تخمین پارامترها واقعاً چه چیزی را می‌گویند (زمانی که یک تعامل تعریف می‌شود)؟
52609
داده هایی که من استفاده می کنم را می توان در اینجا پیدا کرد: http://uploadeasy.net/upload/nwv0.rar متغیر alvsloss نامیده می شود. من می خواهم توزیعی را با داده های مالی خود تطبیق دهم. اول از همه با توزیع عادی شروع کردم. pdf توسط: $\frac{1}{\sqrt{2\pi\sigma^2}}\operatorname{exp}\left\\{-\frac{\left(x-\mu\right)^ ارائه می‌شود. 2}{2\sigma^2}\right\\}$ و احتمال گزارش که باید حداکثر شود توسط $ \ln\mathcal{L}(\mu,\sigma^2) داده می‌شود. = \sum_{i=1}^n \ln f(x_i;\,\mu,\sigma^2) = -\frac{n}{2}\ln(2\pi) - \frac{n}{ 2}\ln\sigma^2 - \frac{1}{2\sigma^2}\sum_{i=1}^n (x_i-\mu)^2. $ که به عنوان راه حل $ \hat{\mu} = \overline{x} \equiv \frac{1}{n}\sum_{i=1}^n x_i، \qquad \hat{\sigma}^2 می‌دهد. = \frac{1}{n} \sum_{i=1}^n (x_i - \overline{x})^2. $ من می توانم این را در R از طریق mean(alvsloss) و sd(alvsloss) محاسبه کنم و مقادیر -0.0004270872 و 0.02304159 را بدست بیاورم یا کتابخانه (MASS) fitdistr (alvsloss، normal) را انجام دهم و میانگین راه حل sd2427087-0.00 را انجام دهم. 0.0230371244 (0.0004535429) (0.0003207033) خوب، من این را می فهمم. اما حالا مشکل من پیش می آید، من این را با توزیع t امتحان کردم. pdf توسط: $\textstyle\frac{\Gamma \left(\frac{\nu+1}{2} \right)} {\sqrt{\nu\pi}\,\Gamma \left(\frac) ارائه می‌شود {\nu}{2} \right)} \left(1+\frac{x^2}{\nu} \right)^{-\frac{\nu+1}{2}}\\!$ ورود به سیستم احتمال را می توان در اینجا پیدا کرد: http://de.scribd.com/doc/52587265/80/STUDENT%E2%80%99S-t-DISTRIBUTION فرمول (17.8) (x با $\epsilon$ نشان داده می شود. من نیستم فهمیدن اینکه $h_i$ از کجا در فرمول آمده است، اما این سوال اصلی من نیست.) سوال اول: به نظر من هیچ فرم بسته ای وجود ندارد. راه حل؟ سوال دوم: من fitdistr(alvsloss, t) را انجام می دهم و خروجی m s df -0.0004919768 0.0130128873 2.6340459185 ( 0.0003182568) (0.0003182568) (0.000203456) (0.000203453) (0.000203453) را می گیرم. gab 28 Warnungen (Anzeige mit warnings()) من نمی فهمم چرا الان سه پارامتر دارم؟ df $\nu$ است، اما بقیه؟ R داره چیکار میکنه؟ از آنجایی که هیچ راه حل شکل بسته ای وجود ندارد، حدس می زنم از یک الگوریتم تکراری استفاده می کند؟ آیا باید در مورد 28 اخطار زحمت بکشم؟ آنها عبارتند از: Warnmeldungen: 1: در dt((x - m)/s، df، log = TRUE) : ​​NaNs wurden erzeugt 2: در dt((x - m)/s، df، log = TRUE) : ​​NaNs wurden erzeugt 3: در dt((x - m)/s، df، log = TRUE) : NaNs wurden erzeugt 4: در dt((x - m)/s, df, log = TRUE) : ​​NaNs wurden erzeugt 5: در dt((x - m)/s, df, log = TRUE) : ​​NaNs wurden erzeugt 6: در dt((x - m)/s، df، log = TRUE) : ​​NaNs wurden erzeugt 7: در dt((x - m)/s, df, log = TRUE) : ​​NaNs wurden erzeugt 8: در log(s) : NaNs wurden erzeugt 9: در log(s) : NaNs wurden erzeugt 10: ورود به سیستم: NaNs wurden erzeugt 11: در log(s) : NaNs wurden erzeugt 12: in log(s) : NaNs wurden erzeugt 13: در ورود(ها) : NaNs wurden erzeugt 14: در ورود(ها) : NaNs wurden: (s): NaNs wurden erzeugt 16: In log(s) : NaNs wurden erzeugt 17: In dt((x - m)/s, df, log = TRUE) : ​​NaNs wurden erzeugt 18: In log(s) : NaNs wurden erzeugt 19: In (ها) : NaNs wurden erzeugt 20: در dt((x - m)/s، df، log = TRUE) : ​​NaNs wurden erzeugt 21: در dt((x - m)/s، df، log = TRUE) : ​​NaNs wurden erzeugt 22: در dt ((x - m)/s، df، log = TRUE) : ​​NaNs wurden erzeugt 23: در log(s) : NaNs wurden erzeugt 24: in log(s) : NaNs wurden erzeugt 25: in log(s) : NaNs wurden erzeugt 26: در ورود(ها): NaNs wurden erzeugt 25: s): NaNs wurden erzeugt 28: In log(s): NaNs wurden erzeugt و چگونه می توانم این توزیع را با پارامترهای تخمین زده رسم کنم؟
برازش توزیع به داده های مالی
52438
من اولین دوره ام را می گذرانم که شامل تکنیک های رگرسیون، تحلیل واریانس ها و سری های زمانی است. اگر بخواهم از نظریه ریاضی در پشت آن روش ها استفاده کنم، چه چیزی را توصیه می کنید؟ به عنوان مثال، یادداشت های سخنرانی من می گوید که در روش حداقل مربع می توان نشان داد که تخمین ضرایب رگرسیون به شکل $$s.e.(\hat{\beta_0})=\sqrt{\frac{\sum_{i=1} است. n(y_i-\hat{y_i})^2}{n-2}\left (\frac{1}{n}+\frac{\bar{x}^2}{\sum_{i=1}^n (x-\bar{x})^2}\right )}$$ اما من دوست دارم شواهدی از این قبیل چیزها را یاد بگیرم.
توصیه کتاب برای تکنیک های رگرسیون
102754
من در حال مطالعه روابط ساختار-عملکرد در نورون ها هستم و عمدتاً بر روی همبستگی بین طول دندریتی و تحریک پذیری تمرکز می کنم. سوال من این است: ** هنگام جستجوی همبستگی ها، از کدام اصلاح مقایسه چندگانه باید استفاده کنم تا طبقه بندی کنم که کدام یک از همبستگی هایی که پیدا می کنم مهم هستند؟ ** من طول دندریت (آپیکال و پایه) را اندازه گیری کرده ام که 3 مقدار به من ارائه می دهد: دندریت آپیکال. طول، طول دندریت پایه و طول دندریت کل. من همچنین 5 پارامتر مختلف الکتروفیزیولوژیکی را در همان سلول ها اندازه گیری کرده ام. سوال تحقیق من این است: آیا پارامترهای الکتروفیزیولوژیک با طول دندریتی مرتبط (همبستگی) دارند؟ این بازده مقایسه 3×5 (3 پارامتر طول با 5 الکتروفیزیولوژیک). همانطور که انتظار می رفت، برخی از همبستگی های قابل توجهی پیدا کردم. حال می‌خواهم بدانم که آیا اهمیت این همبستگی‌ها باید اصلاح شود یا خیر و اگر چنین است، از کدام روش باید استفاده کنم. تصحیح بونفرونی کمی بیش از حد محافظه کارانه به نظر می رسد، زیرا همبستگی بین ساختار و عملکرد یک نورون منطقی به نظر می رسد و قبلاً ثابت شده است که وجود دارند.
کدام تصحیح مقایسه چندگانه را باید استفاده کنم؟
91122
من ایده کلی چیدن چندین مدل و ترکیب آنها برای ایجاد مدلی را درک می کنم که ممکن است بهتر از هر یک از مدل های جداگانه ای که از آن تشکیل شده است، عمل کند. سوال من در مورد مراحل واقعی مورد نیاز برای انجام این کار است. فکر من این است که شما از پیش‌بینی‌های تک تک مدل‌ها به‌عنوان ویژگی‌ها استفاده کنید و از رگرسیون لجستیک (برای یک مشکل طبقه‌بندی) برای آموزش آنها برای بدست آوردن مدل مجموعه خود استفاده کنید. مسئله ای که من نمی فهمم این است که از چه داده هایی استفاده کنم. اگر داده‌های خود را به یک مجموعه آموزشی و یک مجموعه آزمایشی تقسیم کنید و مدل‌های فردی خود را در مجموعه آموزشی آموزش دهید و از پیش‌بینی‌های مجموعه آزمایشی به عنوان ویژگی‌های مدل گروهی استفاده کنید، به این معنی است که باید مدل گروه خود را در مجموعه آزمایشی آموزش دهید. اگر اینطور است، چگونه مدل گروه خود را آزمایش می کنید؟ از چه داده هایی استفاده می کنید؟ آیا باید داده های خود را به 3 مجموعه تقسیم کنید - یکی برای آموزش تک تک مدل ها، یکی برای آزمایش مدل های فردی و آموزش مدل گروه و در نهایت یکی برای آزمایش مدل گروه؟ من حدس می‌زنم که مفاهیم این مجموعه من را گیج می‌کند زیرا به مجموعه‌های آموزشی و مجموعه‌های تست مربوط می‌شود. با تشکر
سوال کاربردی مدل های گروه ساختمان
10044
من 100 بیمار دارم و هر بیمار 10 اندازه گیری طولی کراتینین سرم دارد. نرخ های فیلتراسیون گلومرولی تخمین زده شده (eGFR) از فرمول MDRD شامل جنس، سن و کراتینین سرم محاسبه شد. eGFR متغیر وابسته و زمان متغیر مستقل در رگرسیون خطی برای هر بیمار است. 1. آیا رگرسیون خطی فرض X مستقل را نقض می کند و باید به جای آن از مدل های مختلط خطی استفاده شود؟ 2. آیا می توان از شیب های eGFR (که تخمین هایی با عدم قطعیت به جای اعداد اندازه گیری شده است) از هر بیمار (در رگرسیون خطی برای هر بیمار یا در مدل های ترکیبی اثرات تصادفی [چگونه شیب ها را برای هر بیمار جداگانه در مدل های مختلط تخمین زد؟]) استفاده کرد. به عنوان متغیر مستقل یا وابسته در سایر مدل های رگرسیون؟ متشکرم.
آیا شیب در رگرسیون خطی می تواند به عنوان متغیر مستقل یا وابسته در سایر مدل های رگرسیون استفاده شود؟
60528
تفسیر p-value چیز بسیار دشواری است زیرا آنچه مشروع است و آنچه نیست بسیار به هم نزدیک است. در صورتی که فرضیه صفر $H_0$ درست باشد، p-value احتمال آمار حاصل از آزمون است. یعنی $\Pr(\mathrm{data}|H_0)$. بسیاری از مردم این اشتباه را با $\Pr(H_0|\mathrm{data})$ اشتباه می گیرند که اشتباه است. حالا به سوال من: من به طور تصادفی به یک آزمون t مستقل آنلاین برخورد کردم و نتیجه آن مقدار p 0.20 بود. تفسیر داده شده به شرح زیر بود: به احتمال 79.76٪ نسبت ها متفاوت است. سوال من: آیا این تفسیر مشروع است؟ یا همان سردرگمی است که در بالا ذکر شد (مثلاً احتمال $H_0$ را توصیف می کند). پیشاپیش متشکرم
آیا این تفسیر از p-value قانونی است؟
5972
فرض کنید دو سکه مغرضانه داریم. احتمال پرتاب سر روی سکه اول $\alpha$ و احتمال پرتاب سر روی سکه دوم $1-\alpha $ است. هر دو سکه را $n$ بار پرتاب می کنیم و می گوییم موفقیت زمانی حاصل می شود که یک سر روی هر دو سکه باشد. اگر این متغیر تصادفی را با $X$ نشان دهیم، آنگاه $$X\sim B(n,\alpha-\alpha^2).$$ سوال این است که چگونه $\alpha$ را به درستی تخمین بزنیم. مشکل یک رویکرد استاندارد ($\alpha - \alpha^2=\frac{k}{n}$ که $k$ تعداد موفقیت‌ها است) این است که تعداد موفقیت‌ها ممکن است بیشتر از 0.25n$ باشد و در چنین حالتی دریافتیم که $\alpha$ یک عدد مختلط است. ما می‌توانیم چنین مواردی را به عنوان $\alpha=0.5$ در نظر بگیریم، اما این تخمین‌گر دیگر بی‌طرفانه نیست.
برآورد احتمال موفقیت در توزیع دوجمله ای
68389
من مجموعه داده ای از قیمت های لحظه ای برق دارم که شامل سه نوع فصلی است: یکی در 24 ساعت، یکی در هفته و دیگری در یک سال. من می خواهم از یک بسته R ('tsDyn') استفاده کنم که نمی تواند با فصلی بودن مقابله کند، بنابراین ابتدا می خواهم هر سه فصلی بودن را حذف کنم، سپس یک مدل را با داده های غیرفصلی تطبیق دهم، یک پیش بینی انجام دهم و سپس فصلی ها را اضافه کنم، اگر ممکن است، به منظور تبدیل پیش بینی های من به شکل معقول. آیا این رویکرد معقول و ممکن است؟ و اگر بله، چگونه می توانم این فصل زدایی سه گانه را انجام دهم و سپس آن را در R لغو کنم؟ در مورد یک تفاوت ساده یک تاخیر، من فقط تفاوت فصلی را با 'cumsum()' خنثی می کنم، اما آیا چیزی شبیه به این برای مجموعه داده های من قابل اجرا است؟
درمان داده های فصلی سه گانه
56996
من در شرف استفاده از این ورودی برای داده های خود هستم اما نمی توانم پیدا کنم که تحت کدام بسته ها کار می کند. تقریبا همه جا را جستجو کردم. m<-pdlglm(yy~pdl(zz,4,2)+sin(zz)+pdl(xx,4,4))
glms تاخیر توزیع شده چند جمله ای
51966
من به داده های خرید روزانه در یک دوره چند هفته ای نگاه می کنم. به طور خاص، ما به درصد کاربرانی که در برنامه ما خرید می‌کنند علاقه‌مندیم (مهم نیست نوع خرید یا مبلغی که برای اهداف ما هزینه شده است). در هر روز، ممکن است حدود 10 هزار کاربر فعال و فقط حدود 30 نفر باشند که واقعاً خرید انجام می دهند (بازار سختی است!). سه عامل وجود دارد که به آنها علاقه مندیم، آنها را A، B و C می نامیم. هر عامل دارای دو سطح است. چند ردیف داده به این صورت هستند: # NU NP %خرید A B C تاریخ 1 12407 24 0.0019 0 0 2 2013-03-06 2 11774 37 0.0031 1 0 2 2013-03-03 30202.0305 3029.0305 2013-03-04 4 12679 41 0.0032 1 0 1 2013-03-03 5 12555 61 0.0049 0 1 2 2013-03-02 6 122594 5012301 0.001 12466 71 0.0057 0 1 2 2013-02-28 8 12089 61 0.0050 0 0 1 2013-02-27 در اینجا، هر ردیف مشاهده روزانه یک گروه از کاربران با مجموعه ای از عوامل A,B,C است، NU تعداد کل کاربران در آن گروه، NP تعداد کاربران گروه است که خرید انجام داده است و %buy فقط % از کاربران گروه است که خریدی انجام داده اند. برای راحتی، بیایید فرض کنیم در هیچ یک از گروه‌ها روندهای متغیر زمانی مهمی وجود ندارد، که بدیهی است که می‌تواند تجزیه و تحلیل را پیچیده‌تر کند (و در یک بازه زمانی کوتاه که ما به آن نگاه می‌کنیم احتمالاً به هر حال یک فرض خوب است). اولین فکر من این بود که ANOVA سه طرفه را با استفاده از %خرید به عنوان نتیجه مشاهده انجام دهم، اما بعد می‌دانم که اهمیت اندازه‌های نمونه را نادیده می‌گیرم. همچنین، من فکر می‌کنم که نسبت‌های کوچک ممکن است به این معنی باشد که آزمایش متفاوتی نسبت به ANOVA معمولی ضروری است. **بنابراین سؤال من این است که واقعاً آزمون مناسبی که باید در اینجا انجام دهم تا به دنبال تفاوت های قابل توجه بین گروه ها و درون گروه ها باشم چیست؟** امیدوارم توضیح کافی برای روشن شدن این سؤال داده باشم.
آیا می توانم از ANOVA سه طرفه برای آزمایش تفاوت بین نسبت های کوچک استفاده کنم؟
18566
یک مجموعه داده پزشکی وجود دارد که شامل 3 درمان است: A، B، و C. متغیر پاسخ بله/خیر است. با این حال، به دلیل یک دلیل پزشکی خاص، مجموعه داده باید به چندین زیر مجموعه داده تقسیم شود. سوال اصلی تحقیق مقایسه تفاوت نسبت‌ها بین $P_A$، $P_B$ و $P_C$ است. اگر نیازی به تقسیم داده ها نداشتم، می توانستم از فاصله اطمینان همزمان {Agresti et al., (2008)} برای انجام یک مقایسه چندگانه بین این سه درمان استفاده کنم. با این حال، من نمی‌توانم روش آماری مناسبی برای مقایسه نسبت‌های چندگانه پیدا کنم وقتی یک مجموعه داده به چندین زیر مجموعه داده تقسیم می‌شود. میشه لطفا کسی در این مورد راهنماییم کنه؟ پیشاپیش سپاس فراوان
آیا می توان نسبت های متعدد را در مجموعه های زیر داده مقایسه کرد؟
114490
قواعد زیادی برای انتخاب پهنای سطل بهینه در یک هیستوگرام 1 بعدی وجود دارد (به عنوان مثال نگاه کنید) من به دنبال قانونی هستم که انتخاب پهنای سطل بهینه را در هیستوگرام های _دوبعدی_ اعمال کند. آیا چنین قانونی وجود دارد؟ شاید یکی از قوانین شناخته شده برای هیستوگرام های 1 بعدی را بتوان به راحتی تطبیق داد، اگر چنین است، می توانید حداقل جزئیات را در مورد نحوه انجام این کار ارائه دهید؟
عرض سطل بهینه برای هیستوگرام دو بعدی
33721
من باید اثرات درمان های مختلف را بر روی بقای افراد به مدت 1 هفته تجزیه و تحلیل کنم. اما: * داده‌ها *گروه‌بندی** هستند: افراد با 10 گروه گروه‌بندی شدند و احتمال بقا تحت تأثیر تعداد افرادی است که قبلاً مرده‌اند * داده‌ها **تودرتو هستند**: من تکرار دارم. * داده‌ها **درست سانسور شده** هستند: می‌خواهم تعداد افرادی را که بعد از یک هفته نمرده‌اند، لحاظ کنم. من از R استفاده می کنم و واقعاً نمی توانم هیچ بسته ای را پیدا کنم که برای مشکلم استفاده کنم. به نظر نمی رسد تجزیه و تحلیل ضعف تبلیغات همگروهی مناسب باشد. شاید به چیزی از **اپیدمیولوژی** برای اولین مشکل فکر می کردم (و آن را به عنوان احتمال آلودگی یا چیزی تجزیه و تحلیل می کردم.
تجزیه و تحلیل بقا برای داده های تودرتو، سانسور شده و وابسته
73421
ثابت نرمال کننده از موارد زیر چه مقدار یا حداقل تقریبی خواهد بود؟ من می خواهم از نمونه برداری خودداری کنم. $$f(\theta)=\exp(-k_1e^{-k_2\theta^2}-\theta^2)\qquad\theta\in(-\infty,\infty), \quad k_1,k_2>0 $$ در صورتی که امکان پذیر نباشد، کران پایینی **چند جمله ای** معتبر در $\log(f(\theta))$ چه چیزی را در نظر می گیرد. $k_1$ برای هر کسی که علاقه مند است، من به این عبارت پایان می دهم زیرا من یک پارامتر گاوسی را بر روی پارامترهای هسته (مربع نمایی) قرار می دهم و سعی می کنم از خلیج های متغیر استفاده کنم (بنابراین، یک کران پایین).
عادی سازی ثابت برای تابع توانی
85622
فهرستی از احتمالات کلاس $(p_1، p_2، \ldots، p_c)$ (که مجموع آنها 1 است) برای هر نمونه به من داده شده است. اکنون، من می خواهم این را با یک مدل (یادگیری تحت نظارت) تکرار کنم. چگونه می توانم به این موضوع نزدیک شوم؟ من می توانم از یک مدل رگرسیون جداگانه برای هر یک از $p_1، \dots، p_{c-1}$ استفاده کنم. اما احتمالات ممکن است از 1 بیشتر شود و همچنین مدل ها مستقل هستند که هر دو اطلاعات را از دست می دهند. من می توانم از یک روش طبقه بندی استفاده کنم که در آن سعی می کنم احتمالات را برای کلاس ها پیش بینی کنم. اما پس از آن ورودی برای هر نمونه یک کلاس واحد است (بزرگترین احتمال کلاس). در اینجا من جزئیات احتمالات داده شده را از دست می دهم. هدف در واقع تطبیق نزدیک احتمالات کلاس داده شده است. چیزی مستقیم تر و مناسب تر؟
رگرسیون چندگانه با احتمالات کلاس
10045
من گزارش های دمای ساعتی و روزانه برای بسیاری از ایستگاه ها در http://data.barrycarter.info/ دارم. من مردم را تشویق می کنم آن را دانلود کنند، اما در 6.6G، پهنای باند زیادی مصرف می کند. آیا سرویسی وجود دارد که داده های «منافع عمومی» را به صورت رایگان میزبانی کند؟ من در مورد http://aws.amazon.com/publicdatasets می دانم، اما برای دسترسی به آن داده ها به یک حساب Amazon EC2 نیاز دارید.
میزبانی رایگان داده ها با منافع عمومی؟
94092
من سیستمی با ساختار زیر دارم: $X_{t+1} = X_t + E_{t+1}$$E_{t+1} \sim N(0, \Sigma)$Y_{t+1} = f(X_{t+1})$ $Y_{t+1} \sim {\rm یکنواخت}(a_{t+1}, b_{t+1})$ بنابراین $X$ بردار پنهان است ایالت ها $E$ یک خطا است. $Y_{t+1}$ توسط $X_{t+1}$ از طریق یک تابع غیرخطی قطعی $f(.)$ تعیین می‌شود. $a_{t+1}$ و $b_{t+1}$ مشاهداتی در زمان $t+1$ هستند و شناخته شده‌اند. با توجه به فهرستی از مشاهدات $(a_1، b_1)$، ...، $(a_{t}،b_t)$، می‌خواهم $P(X_t|(a_1,b_1,a_2,b_2,..., a_t,b_t))$. آیا راهی کارآمد برای انجام این کار در زمان واقعی وجود دارد؟
الگوریتم فیلتر برای یک سیستم
43881
من می‌خواهم داده‌های دما را برای برخی از محاسبات «چه می‌شد» شبیه‌سازی کنم. مشکل این است که من فقط یک سری زمانی از 10 مقدار داده دمای واقعی دارم. من می‌خواهم از دما به‌عنوان ورودی شبیه‌سازی استفاده کنم، بنابراین به راهی برای تولید تعداد زیادی مقادیر دما که با 10 مقدار اصلی سازگار است نیاز دارم. احتمالاً خوب است که فرض کنیم آنها از یک توزیع نرمال آمده اند، اما من میانگین یا واریانس را نمی دانم. من هیچ راهی برای اثبات آن ندارم، اما شک دارم که 10 مقدار عملکرد خوبی برای نشان دادن محدوده دمای کامل داشته باشند. اگر از تابع «نمونه» برای شبیه سازی استفاده کنم، همانطور که در زیر نشان داده شده است، فقط مقادیر اصلی را برمی گردانم. این درست به نظر نمی رسد. اگر از تابع rnorm استفاده کنم، می دانم که واریانس آن را نمی دانم، بنابراین فکر نمی کنم که این نیز درست باشد. بنابراین، من با تابع «rt» (t-distribution) باقی مانده‌ام. در زیر نمونه ای از این مشکل آورده شده است. ori <- rnorm(n=10، mean=65، sd=5) #اصلی 10 نقطه داده num.sam <- نمونه (x=ori، اندازه=100، جایگزین = TRUE) #شبیه سازی با استفاده از نمونه num.tdis <- mean(ori) + (rt(n=100, df=10) * sd(ori)) #شبیه سازی با استفاده از توزیع t hist(ori, breaks=40:90) hist(num.sam, breaks=40:90) hist(num.tdis, breaks=40:90) سوالات من این است: 1. وقتی من فقط داده دارم (میانگین و واریانس نامعلوم) و آن منطقی است که فرض کنیم داده ها از یک توزیع نرمال آمده اند، آیا تولید داده برای شبیه سازی با استفاده از توزیع t مشکلی ندارد؟ 2. برای این نوع موقعیت، تنها زمانی که من از «rnorm» برای شبیه سازی استفاده می کنم این است که واریانس را بدانم (نه واریانس تخمین زده شده از داده ها)، درست است؟ 3. اگر یک شبیه سازی توزیع t برای این شرایط خوب است، آیا شرایطی وجود دارد که بهتر است فقط از داده ها نمونه برداری کنیم (مثلا 100 نقطه داده اصلی، 200 و غیره)؟ ویرایش: 1. از آنجایی که من از داده های اصلی برای تخمین میانگین و واریانس استفاده کردم، آیا درجات آزادی در خط سوم کد (برای `rt(...)`) باید از 10 به 9 کاهش یابد؟ یا 8؟
با یک نمونه کوچک از یک توزیع نرمال، آیا با استفاده از توزیع t شبیه سازی می کنید؟