_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
47419 | من سعی می کنم با استفاده از تابع auto.arima یک سری زمانی تنظیم کنم و با نتایج عجیبی روبرو می شوم. در اولین تلاش، از دستور auto.arima(data,d=0,D=1,max.p=2,max.q=2,max.P=2,max.Q=2,max.order استفاده می کنم. =8, xreg=xreg_past,trace=TRUE,ic=aic) مدلی که من دریافت می کنم ARIMA(2,0,2)(0,1,1)[12] با AIC برابر است -300.14. اما از آنجایی که من می دانم که این دستور از الگوریتم انتخاب گام به گام استفاده می کند، می خواهم با استفاده از گزینه stepwise=FALSE تست های همه مدل های ممکن را امتحان کنم. بنابراین من دستور auto.arima(data,d=0,D=1,max.p=2,max.q=2,max.P=2,max.Q=2,max.order=8, xreg را امتحان کردم =xreg_past,stepwise=FALSE,trace=TRUE,ic=aic) و اکنون، مدلی که من دریافت می کنم یک مدل است ARIMA(0,0,2)(2,1,0)[12] با AIC برابر با -293.14. از آنجایی که تلاش دوم من تمام مدل ها را در نظر می گیرد، این نتیجه عجیب است زیرا مدل قبلی AIC پایین تری داشت. علاوه بر این، اگر نگاهی به ردیابی آخرین فراخوانی تابع بیندازم، می بینم که مدل ARIMA(2,0,2)(0,1,1)[12] اکنون دارای AIC 245.13- است که توضیح می دهد که چرا رد شده است. چرا مقدار AIC تغییر کرد؟ حداقل اگر از دستور ساده arima(data, order=c(2,0,2), seasonal= list (order=c(2,1,2), period=12), xreg=xreg_past) استفاده کنم دریافت می کنم مقدار AIC 319.15- است که بهتر از دو مدل قبلی است. فکر میکنم چیز مهمی را از دست دادهام، اما نمیتوانم چه چیزی را ببینم. کسی میتونه کمکم کنه؟ پیشاپیش متشکرم، با احترام، لودو | auto.arima از پکیج Forecast |
68376 | من یک glm دو جمله ای را در R با استفاده از داده های متناسب به شکل y <- cbind اجرا کرده ام. من دو متغیر توضیحی پیوسته دارم که «var1» معنیدار است و «var2» نه، اما این تعامل نیز معنیدار است. بنابراین میخواهم مقادیر «var1» را پیدا کنم که «var2» برای «y» اثر میگذارد. من تابعی به نام getRegion() را کشف کردم که آن را در دو آموزش در اینترنت یافتم، اما بسته ای که حاوی آن است را پیدا نکردم. آیا توابع دیگری وجود دارد که بتواند در یک مجموعه داده مانند من (یعنی پاسخ متناسب به دو متغیر توضیحی پیوسته) کار کند؟ | با توجه به یک تعامل، چگونه می توان ناحیه var1 را پیدا کرد که در آن var2 تأثیر قابل توجهی بر پاسخ Y دارد؟ |
67343 | من تازه وارد تجزیه و تحلیل اجزای اصلی (PCA) هستم. من PCA را برای یک مجموعه داده با 54 نمونه انجام دادم. وقتی آنها را در پراکندگی سه بعدی طرح می کنم، می توانم ببینم که نمونه هایی با ویژگی های مشابه به طور جداگانه با هم گروه بندی شده اند. محورهای X، Y و Z در پراکندگی سه بعدی به ترتیب PC#1، PC#2 و PC#3 را نشان میدهند. در امتداد محورها مقادیر مثبت و منفی نشان داده شده است. این مقادیر به خصوص مقادیر منفی چه چیزی را منتقل می کنند؟ اگر نمونه ای در امتداد محوری با مقدار منفی پیدا شود، این به چه معناست؟ همچنین واریانس کلی هر 3 رایانه شخصی 40٪ است (PC#1-20٪، PC#2-13٪ و PC#3=7٪). این به چه معناست؟ چرا 80-90 درصد نیست؟ آیا داده های من کیفیت خوبی دارند؟ | تجزیه و تحلیل مؤلفه های اصلی در طرح پراکندگی سه بعدی |
115227 | فرض کنید $X$ یک متغیر تصادفی IID با پشتیبانی در $[0,1]$ و CDF ارائه شده توسط توزیع بتا، یعنی $X \sim \mathrm{Beta}(\alpha,1)$ باشد. اجازه دهید $Z_i = \min(X_i,Y_{i-1})$, $\forall i >1$. من می خواهم $\mathbb{E}[Z_i]$ را محاسبه کنم، با دانستن اینکه: \begin{align} Y_1 &= Z_1 = X_1, \; \mbox{when} \; i=1، \\\ Y_i &= \frac{1}{i} \sum \limits_{t=1}^{i} Z_t، \forall i >1\. \end{align} چگونه می توانم $\mathbb{E}[Z_i]$ را محاسبه کنم؟ | $\mathbb{E}[Z_i]$ را محاسبه کنید که در آن $Z_i = \min(X_i, Y_{i-1})$, $X \sim Beta(\alpha,1)$ |
93517 | اگر یک مجموعه داده $X \subset \mathbb R^d$ دارید بگویید. من دو مدل احتمالی کاندید M1 و M2 دارم (به عنوان مثال، M1 مخلوطی از 2 گاوسیان و M2 مخلوطی از 3 گاوسی است). من می خواهم بدانم کدام مدل داده های من را بهتر توصیف می کند. من نمیدانم که آیا انجام یک اعتبارسنجی متقاطع مشابه آنچه در یادگیری نظارت شده انجام میدهیم، درست است، جایی که هر بخش $i$ شامل موارد زیر است: * $X$ را به $X_\mbox{train}^i$ جدا کنید و $X_\mbox{test}^i$ * برای M1 و M2 با استفاده از مجموعههای قطار: $$\theta_1 = \mbox{argmax}_\theta {\cal L}_1 ( \theta, X_\mbox{train}^i) $$ $$\theta_2 = \mbox{argmax}_\theta {\cal L}_2 ( \theta, X_\mbox{train}^i) $$ * محاسبه احتمالات در مجموعه های آزمایشی: $$ {\cal L}_1 ( \theta_1, X_\mbox{test}^i) $$ $$ {\cal L}_2 ( \theta_2, X_\mbox{test}^i) $$ در پایان، بهترین مدل مدلی است که بالاترین میانگین احتمال را در مجموعههای آزمایشی داشته باشد $$\max( \sum_i {\cal L}_1 ( \theta_1 , X_\mbox{test}^i), \sum_i {\cal L}_2 ( \theta_2, X_\mbox{test}^i) ) $$ آیا این معتبر است؟ | روش مناسب برای مقایسه دو چگالی تخمینی با استفاده از داده های نمونه چیست؟ |
115224 | من سعی می کنم از بسته R mgcv برای جا دادن یک گام استفاده کنم. من یک متغیر دارم که می خواهم از آن به عنوان افست استفاده کنم. بهعنوان پیشبینیکننده به خوبی کار میکند، اما وقتی از آن بهعنوان یک بازی افست استفاده میکنم، با یک پیام خطا در مورد آرایههای ناسازگار با شکست مواجه میشود. > x <- gam(gbf_3 == G ~ s(pred_lo) + s(avm_prop_21_mult)، خانواده=دوجمله()، وزن=round(1000*wt)، داده=ma، زیرمجموعه=(!is.na( score_2))) > x <- gam(gbf_3 == G ~ pred_lo + s(avm_prop_21_mult)، خانواده=دوجمله()، وزن=گرد(1000*wt)، داده=ma، زیرمجموعه=(!is.na(score_2))) > x <- gam(gbf_3 == G ~ offset (pred_lo) + s(avm_prop_21_mult)، خانواده=دوجمله ای()، weights=round(1000*wt), data=ma, subset=(!is.na(score_2))) خطا در x %*% coef + offset : آرایه های ناسازگار چرا یک متغیر به عنوان پیش بینی قابل قبول است اما نه به عنوان یک افست و برای استفاده از متغیر به عنوان افست چه کاری باید انجام دهم؟ با تشکر راس | R mgcv gam: متغیر را می توان به عنوان یک پیش بینی استفاده کرد اما نه به عنوان یک افست - چرا؟ |
15081 | من پارامتر نوع را برای آزمون همجمعی فیلیپس و اولیاریس در بسته urca می بینم که باید Pz یا Pu باشد. من جزئیات را خواندم، اما متوجه نشدم چه نوع برای من مفید است. اگر بخواهم هم انباشتگی با آن روش را برای دو سری قیمت سهام بررسی کنم، کدام نوع بهتر است؟ به عبارت دیگر، موارد زیر به چه معناست؟ > آزمون Pz در مقایسه با آزمون Pu این مزیت را دارد که نسبت به عادی سازی بردار هم انباشتگی > ثابت است، یعنی > مهم نیست که کدام متغیر در سمت چپ معادله باشد. در صورتی که مشکلات همگرایی با وارونگی ماتریس مواجه شود، می توان یک سطح تحمل بالاتر را از طریق tol=... به تابعsol() - منتقل کرد. | Pu و Pz در آزمون همجمعی فیلیپس و اولیاریس چیست؟ |
30300 | من در این سایت زیاد مطالعه کردهام و فکر میکنم میخواهم دادههایم را با استفاده از مدل ترکیبی ANOVA - اثر تصادفی = موضوع و 2 اثر ثابت - مقایسه و قیمتگذاری تجزیه و تحلیل کنم. همه آزمودنیهای من در هر 4 شرایط بودند (تقاطع بین 2 عامل) و در هر شرایط به 3 مورد پاسخ دادند. نکته مهم این است که DV من دوگانه است. من خواندم که این ایده خوبی نیست که یک میانگین (یعنی نسبت در این مورد) از 3 مورد را برای هر موضوع اختصاص دهیم و سپس ANOVA را با استفاده از آن انجام دهیم. آیا این به این معنی است که تعداد موضوعات * 3 * 4 مشاهده خواهم داشت؟ | DV دوگانه و 3 نقطه اندازه گیری در هر شرط در هر موضوع |
6820 | فرض کنید جدولی مانند جدول زیر وجود دارد که برای هر پروتئین یا پپتید جهش یافته (A، B، C و غیره) یک ستون اطلاعات اتصال و عملکردی (درست/نادرست) داریم و برای هر اسید آمینه در آن پروتئین، ما نوعی خاصیت اسید آمینه مانند آبگریزی داریم: عملکرد اتصال پروتئین 1 2 3 4 5 6 7 8 9 10 A 0 0 13 96 39 77 70 94 96 29 22 82 B 0 1 94 45 2 2 11 46 50 77 7 99 C 0 1 66 71 97 37 14 77 89 92 1214 1219 D 53 2 27 54 97 E 1 1 31 62 49 51 2 86 91 49 61 7 F 1 0 2 42 65 42 54 41 45 9 71 20 G 0 0 0 26 44 56 60 6 1 54 99 68 64 94 81 85 0 50 84 I 1 1 1 27 52 76 12 46 38 24 74 11 90 J 1 1 1 1 58 77 50 72 51 87 87 50 0 50 84 1 تفاوت بین میانگین ها برای هر جهش از نظر آماری معنی دار است. 2. ببینید آیا خاصیت آمینواسید می تواند در جایی با خواص اتصال و عملکرد مرتبط باشد. پیشاپیش ممنون | تجزیه و تحلیل آماری توالی پروتئین های جهش یافته |
67342 | من چند سوال اساسی در مورد PCA و LDA (تجزیه و تحلیل تشخیص خطی) دارم، اما کمی گم شدهام و از کمکتان سپاسگزار خواهم بود. 1. در PCA روشی برای محاسبه نسبت واریانس توضیح داده شده است، آیا برای LDA نیز امکان انجام آن وجود دارد؟ اگر چنین است، چگونه؟ 2. آیا خروجی «نسبت ردیابی» از تابع lda (در کتابخانه R MASS) معادل «نسبت واریانس توضیح داده شده» است؟ | PCA، LDA (تحلیل متمایز خطی)، نسبت واریانس |
34176 | من آزمایشی را مشاهده کردم که در آن 500 نفر (یکی پس از دیگری) سطوح یک اتاق را لمس کرده و سپس آن را ترک کردند. بنابراین من یک مجموعه داده از تعداد تماس های سطحی ثبت شده $n$ برای هر فرد دارم. من باید یک pdf از این بسازم اما مطمئن نیستم که چگونه آن را به بهترین شکل انجام دهم: این یک هیستوگرام است که به pdf تبدیل شده است: توصیه میکنید از نمونه «بوت استرپ» برای محاسبه pdf این توزیع بر اساس «kdensity» استفاده کنید؟ | نمونهگیری بوت استرپ از دادههای تجربی، آیا این بهترین راه برای تخمین توزیع اساسی است؟ |
68372 | من (از کتاب Wilcox [1]) میدانم که روشهایی که از ابزارهای بریده شده استفاده میکنند، برای مفروضات توزیعی قوی هستند. آیا روشها (بهعنوان مثال «bwtrim»، از بسته «R» WRS) فرض میکنند که توزیع در همه شرایط مدلسازی شده یکسان است (اگرچه نرمال نیست)؟ به عبارت دیگر، چه میشود اگر دادهها دارای ناهمسانی (واریانس بیشتر در برخی شرایط نسبت به شرایط دیگر) باشند که نشان میدهد توزیعها در شرایط یکسان نیستند؟ به عنوان مثال: library(reshape2) library(ggplot2) library(WRS) data <- data.frame( A1=rnorm(100)، A2=rnorm(100, 1, 2)، B1=rnorm(100, 5, 5), B2=rnorm(100,10,10) ) mdata <- melt(data) qplot(متغیر، value, data=mdata)  # آیا استفاده از: bwtrim(2, 2, data) $Qa [1] 149.6878 دلار مناسب است Qa.siglevel [,1] [1,] 0 $Qb [1] 43.91871 $Qb.siglevel [,1] [1,] 8.856752e-09 $Qab [1] 16.68218 $Qab.siglevel [,1] [1،] 0.0001269782 # یا این فرض همسویی است؟ آیا کسی می تواند جایگزینی برای تجزیه و تحلیل این نوع داده ها (یعنی واریانس نابرابر) توصیه کند؟ [1] Wilcox، R. آمار مدرن برای علوم اجتماعی و رفتاری. CRC Press، 2012. | آیا روشهای مبتنی بر ابزارهای برششده نیاز به همسانی دارند؟ |
78701 | فرض کنید دو سری زمانی دارید. می دانید که آنها به شدت با تاخیر زمانی مناسب همبستگی دارند. آیا تابعی وجود دارد که برای محاسبه تأخیر زمانی صحیح استفاده شود یا برای یافتن آن فقط باید یک دسته رگرسیون مختلف اجرا کنید؟ | تأخیر زمانی صحیح در رگرسیون |
34174 | یک پست متقاطع از MathOverflow که در آن پیشنهاد شده بود که ممکن است در اینجا نتایج بهتری بگیرم. من در مراحل اولیه مشکلی هستم که شامل تجزیه تعداد زیادی ($\ تقریباً 5 \ برابر 10^9 $) اسناد (صفحات وب) و تخمین مقادیر از آنها است. به ویژه باید صفحاتی را که دانلود فایل های دزدی را ارائه می دهند شناسایی کنم و ترافیک آنها را تخمین بزنم. در حالی که برخی از وب سایت ها آمار ترافیک خود را عمومی می کنند، بسیاری از آنها این کار را نمی کنند. من با یک مجموعه داده پراکنده مانده ام که با آن می توانم تعداد زیادی جای خالی را پر کنم. خبر خوب این است که صفحات پرچمگذاری شده توسط یک انسان تأیید میشوند، که هر گونه داده مشاهده صفحه را که میتواند پیدا کند استخراج میکند. این بدان معناست که من نیازی به نوشتن نرم افزار برای شناسایی یا جمع آوری آن داده ها در زمان وجود ندارد. امیدوارم در صورت موفقیت، تکنیک های خود را از این مشکل برای بسیاری دیگر به کار ببرم. همانطور که می بینید این در واقع یک سوال دو قسمتی است. یک مرحله طبقهبندی وجود دارد، جایی که من تخمین میزنم که آیا یک سایت احتمالاً فایل غیرقانونی تولید میکند یا نه، و یک مرحله تخمین، که در آن از تکنیکهای رگرسیون برای تخمین تعداد بازدیدهای صفحه استفاده میکنم. رویکرد (ساده لوحانه) من استخراج بردارهای شمارش n-گرم از هر سند (n-word-gram، نه n-character-gram) است که به من یک نقشه برداری از یک مجموعه نمادین به یک مجموعه اعداد صحیح (بعد بالا) می دهد. ابعاد زیادی دارد، اما من قبلاً آن را با موفقیت انجام داده ام. من میتوانم از این «پروفایل» n-gram برای اعمال رگرسیون لجستیک یا مقایسه زاویه برای طبقهبندی و سپس رگرسیون خطی برای تخمین استفاده کنم. برخی از الگوریتمهای یادگیری ماشین واقعاً پیچیده وجود دارد، اما مطمئن نیستم که چه نوع تکنیکهای ارزیابی عملکرد را میتوانم روی آنها در مرحله تخمین استفاده کنم. با این حال، من مطمئن هستم که راه بهتری برای انجام این کار وجود دارد. من نمی توانم تصور کنم که چگونه نمایه زبانی یک صفحه وب ارتباط زیادی با ترافیک آن دارد. من معتقدم که ترافیک سایت ارتباط بیشتری با صفحاتی دارد که به آن پیوند میدهند، و میتوانم تصور کنم از تئوری گراف برای مدلسازی انتشار بازدیدهای صفحه استفاده کنم. با این حال، مگر اینکه سایت برای مشاهده پرچم گذاری شده باشد، داده ها جمع آوری نمی شوند. فقط تعداد کمی از صفحات بازدید از صفحه آنها ثبت می شود. شاید بتوانم یک عبارت منظم بنویسم تا با عبارات رایجی که هنگام بیان «چند بازدید» استفاده میشوند مطابقت داشته باشد، اما حاضر نیستم برای نوشتن نوعی الگوریتم طبقهبندی پیچیده برای آن ویژگی خاص وقت بگذارم. من همچنین مطمئن هستم که تعداد زیادی اندازه گیری دیگر وجود دارد که می توانم از یک صفحه وب استخراج کنم که به آنها فکر نمی کنم. واقعاً این مشکل تبدیل محتوای صفحه وب و توپولوژی پیوند به متغیرهای معنی دار است که می توانند در تجزیه و تحلیل رگرسیون استفاده شوند. بنابراین سوالات من از شما این است: * چه تکنیک هایی برای طبقه بندی اسناد موثر بوده است؟ * از کجا می توانم در مورد مدل سازی و تخمین ترافیک اینترنت بیاموزم؟ متاسفم اگر این سؤالات به اندازه کافی دقیق نیستند، اما در این مرحله بیشتر به یک طرح کلی نیاز دارم تا توصیه در مورد یک قضیه خاص. این موضوعات حوزه اصلی تخصص من نیستند. | تکنیک های رگرسیون موثر برای تحلیل زبانی داده های پیوندی چیست؟ |
67341 | چند راه بیزی برای دیدن اینکه آیا دو توزیع تجربی از یک فرآیند تولید داده به دست می آیند چیست؟ آیا هیچ یک از جایگزین های بیزی در Matlab/R/Python پیاده سازی شده است؟ | چند جایگزین بیزی برای آزمون کولموگروف-اسمیرنوف چیست؟ |
47415 | چه نوع فرضیه صفر را می توان با استفاده از t Student آزمایش کرد؟ به احتمال زیاد یکی از سوالات آزمون آمار است. برای آزمایش فرضیه صفر با استفاده از t Student، آیا باید ویژگی های خاصی داشته باشد؟ متشکرم. | تست با T Student |
18271 | یکی از مشکلات من http://stackoverflow.com/questions/7783933/clustering-data- outputs-irregular-plot-graph از نفرین ابعاد رنج می برد، که همچنین آن را برای جستجوی جامع یا روش های تحلیلی، فراابتکاری برای مسائل ترکیبی غیرممکن می کند. مانند بازپخت شبیه سازی شده ممکن است به تلاش من کمک کند که چگونه بازپخت شبیه سازی شده را با آن ترکیب کنم k-mean در مشکل مثال من؟ با عرض پوزش برای سوال بسیار کوتاه من هنوز هم سعی می کنم ذهنم را در مورد بازپخت شبیه سازی شده و اینکه چگونه احتمالاً می تواند به شما کمک کند، درگیر کنم. سوالات دیگری که می تواند کمک کند، مقایسه بازپخت شبیه سازی شده با pca، vds یا نحوه استفاده از آن در ارتباط است. (با عرض پوزش، برای من دیر شد) اگر متوجه کمبود دانش من و آنچه که ممکن است در تلاش برای رسیدن به آن هستم، از ویرایش ها استقبال کنید. | بازپخت شبیه سازی شده و k-means |
59907 | من یک آدمک آمار هستم، پس لطفا از کلمات کوچک استفاده کنید. (-: ممکن است این یک آزمون معتبر نباشد، بنابراین مطمئن هستم که اگر اینطور باشد به من اطلاع خواهید داد. من برخی از پاسخ های نظرسنجی دارم که در آنها پاسخ ها رتبه هایی بین 1 تا 10 دارند. من برای هر رتبه یک فرکانس دارم. (2 1، 3 2، 2 3، 10 4 و غیره به طور مستقیم، به نظر می رسد که بسیاری از این پاسخ ها در وسط قرار می گیرند و تعداد کمی هستند). در دم، و من می خواهم ببینم که آیا پاسخ ها در محدوده های میانی به طور قابل توجهی متفاوت از میانگین است ، اما تعدادی از دسته بندی های رتبه بندی من کمتر از 5 پاسخ دارند، پس آیا معتبر است؟ | آیا پاسخ های نظرسنجی رتبه بندی با میانگین رتبه بندی تفاوت معناداری دارد؟ |
91129 | آیا یک مثال کلاسیک وجود دارد که اهمیت انتخاب ویژگی خوب در طبقه بندی را نشان دهد؟ مثال ایده آل ساده و قابل درک است. من داوطلب شده ام/به من دستور داده شده که یک ارائه کوتاه برای کار برای توضیح برخی اصول اولیه تکنیک های طبقه بندی گردآوری کنم. بسیاری از مخاطبان من قبلاً هرگز طبقهبندی را انجام ندادهاند، بنابراین میخواهم در عین استفاده از دادههای واقعی، مثال را تا حد امکان ساده نگه دارم. حتی اگر نمی توانید به من یک مجموعه داده اشاره کنید، اگر بتوانید یک ایده مثال ارائه دهید، بسیار سپاسگزار خواهم بود. بهترین ایده ای که تا به حال توانسته ام به آن دست یابم، یک ماشین خودکار قدیمی است که باید مشخص کند کدام سکه ها واقعی و کدام یک جعلی هستند. | چند نمونه کلاسیک از انتخاب ویژگی در طبقه بندی چیست؟ |
103925 | من یک سوال دارم که برای تجزیه و تحلیل برخی از دادههای من باید به دنبال چه نوع تحلیلی باشم: فرض کنید شما دو دونده X و Y دارید و آنها به نوبت 100 متر دوی سرعت میکنند و دونده X اول میرود. از آنجایی که دو دونده می توانند عملکرد یکدیگر را ببینند، عملکرد آنها در یک آزمایش خاص (Xt یا Yt) ممکن است تحت تأثیر آزمایش قبلی دیگری (Xt-1) یا (Yt-1) قرار گیرد. اگر دادهها را برای 10 نقطه زمانی جمعآوری کردهاید، چگونه میتوانید آزمایش کنید که چه کسی بیشتر در معرض نفوذ دیگران است؟ من برخی از مدلهای تاخیر توزیعشده را مطالعه کردهام، اما مطمئن نیستم که آیا این رویکرد درستی است یا خیر. * آیا مدل تاخیر توزیع شده برای پاسخ به سوال من، که در آن نقاط زمانی وابسته متعددی دارم، قابل تعمیم است؟ * آیا این حتی رویکرد درستی است؟ اگر نه، چه چیزی را باید بخوانم؟ متشکرم | اندازه گیری های مکرر با چندین نقطه زمانی برای پیش بینی کننده و متغیر وابسته: آیا Xt-1 Yt را بهتر از Yt-1 پیش بینی می کند Xt؟ |
15085 | من سعی می کنم بر اساس چندین عامل (روز هفته، زمان از آخرین بازدید و غیره) احتمال بازدید کاربر از یک وب سایت خاص را پیش بینی کنم. سوال من این است که اگر یکی از جمله های عددی صفر شود چه باید کرد؟ به عنوان مثال، فرض کنید من اغلب از www.google.com بازدید می کنم، اما هرگز در روز دوشنبه بازدید نکرده ام. $p(دوشنبه|google)$ صفر است. آیا این عبارت را به طور کلی از معادله حذف کنم؟ | اگر یک جمله شمارنده در Naive Bayes صفر باشد چه؟ |
35888 | این پست برای چند روز در انجمن TalkStats بی پاسخ مانده است، بنابراین امیدوارم کسی در اینجا بتواند به من کمک کند. من به دنبال کمکی برای روشن کردن نحوه ادغام عدم قطعیت نوع B در تعیین عدم قطعیت گسترش یافته هستم. من از راهنمای عدم قطعیت در اندازه گیری (GUM) به عنوان مرجع اصلی استفاده می کنم. این مراحل برای محاسبه عدم قطعیت گسترش یافته در G.6.4 را نشان می دهد. به طور خاص، من نیاز به ورودی در تفسیر خود از مرحله 2، محاسبه درجات مؤثر آزادی (Veff) از طریق فرمول Welch-Satterthwaite (G.2b) دارم. از خواندن ساده این مرحله، متوجه شدم که عدم قطعیت ترکیبی (Uc) شامل همه مشارکتهای نوع A و نوع B است. در مخرج، درجات آزادی برای اجزای منفرد نوع B (Vi) اغلب روی بینهایت تنظیم میشود (همانطور که برای نصف عرض یک برگه داده تجهیزات وجود دارد). این عبارت را به صفر می رساند، اگرچه جزء عدم قطعیت هنوز هم بخشی از عدم قطعیت ترکیبی در صورتگر است. من با این تفسیر راحت هستم، با این تفاوت که با بررسی یک مثال در سایت NIST متوجه شدم که آنها اجزای نوع B را به طور کلی در هنگام محاسبه Veff حذف می کنند. آیا کسی می تواند تشخیص دهد که کدام تکنیک صحیح است؟ با تشکر از کمک. | نوع B را در درجات آزادی موثر برای عدم قطعیت گسترش یافته لحاظ کنید؟ |
73362 | من 5000 مورد در مقابل 5000 کنترل با نتیجه مثبت/منفی دارم. «chi.test» هیچ اهمیتی برای این داده نشان نمیدهد. وقتی موارد زیر را روی _VarX_، 1000 مورد در مقابل 5000 کنترل قرار میدهم، اهمیت پیدا میکنم. من گمان می کنم که انجام 1000 مورد در مقابل 5000 کنترل اهمیت را نشان می دهد. برای از بین بردن این مورد، من به طور تصادفی 1000 کنترل را انتخاب می کنم و chi.test را 1000 بار در مقابل 1000 مورد اجرا می کنم. اینجا هیستوگرام pvalues است و خط قرمز Pvalue برای 1000 مورد در مقابل 5000 کنترل است:  از این می توانم نتیجه گیری کنم که هیچ اهمیتی ندارد؟ اگر راه بهتری برای انجام این کار وجود دارد لطفا راهنمایی کنید. | آیا این یک آزمون معتبر است؟ |
108152 | فرض کنید من یک مجموعه داده دارم که شامل سه متغیر باینری (دوگانه) است: A، B، C، و C مقدار A OR B را می گیرد. بسیاری از مشاهدات دارای A و B هستند و C وجود ندارد. من حدس می زنم که C باید باشد. در هر مدل انتساب چندگانه گنجانده شده است، زیرا حاوی اطلاعات ارزشمندی است. اما آیا بسته انتساب چندگانه (ترجیحاً در R) وجود دارد که بتواند رابطه C = A OR B را مشخص کند، به طوری که فقط مقادیر معقول (که رابطه را برآورده می کند) نسبت داده شوند؟ پیشاپیش متشکرم | انتساب چندگانه با محدودیت افزایشی |
108157 | نمونه های من از توزیع دم سنگین پیروی می کنند. من از فرآیندی برای شناسایی و حذف نمونههای «افراطی» استفاده میکنم که به شرح زیر است: 1. میانگین و انحراف استاندارد نمونهها را اندازهگیری کنید. 2. نمونه های بالاتر از میانگین به علاوه 4 انحراف استاندارد را بردارید. 3. از مرحله 1 - در مجموع 3 بار تکرار کنید. اگر نمونه های افراطی وجود نداشته باشد، فرآیند فوق هیچ کدام را حذف نمی کند. اگر تعداد زیادی وجود داشته باشد، میانگین/std.dev را منحرف میکنند، با این حال، تکرارهای متعدد از آن مراقبت میکنند. برای مشکل من، الگوریتم بالا 0-5٪ از نمونه ها را حذف می کند و آزمایش های تجربی نشان می دهد که کاملاً خوب کار می کند و کاملاً قوی به نظر می رسد. با این حال، آیا این فرآیند صحیح است؟ آیا نام رسمی برای جستجوی آن دارد؟ توجه داشته باشید که من نمیتوانم تعداد بهینه انحرافات استاندارد را که بالاتر از آن نمونهها را رد میکنیم، پیدا کنم، زیرا کل این فرآیند باید برای مجموعه دادههای متعدد خودکار شود و به عنوان بخشی از یک سیستم زنده اجرا شود. مجموعه داده ها مشابه هستند اما یکسان نیستند: گاهی اوقات آنها کوچک هستند و هیچ چیز دور از ذهنی وجود ندارد (هیچ لوکسی برای از دست دادن نمونه ها وجود ندارد). گاهی اوقات آنها بزرگ هستند و تعداد نمونه های افراطی که باید حذف شوند متفاوت است و می تواند بسیار زیاد باشد. داده ها اقدامات کاربر را نشان می دهند (یک متغیر در هر نوع اقدام) و ما مجموعه های متعددی از کاربران داریم که باید با هم مقایسه کنیم (بخش بندی های مختلف). با این حال، بسیاری از «کاربران» در واقع رباتهایی هستند که معمولاً (اما نه همیشه) کارهای مشابه را چندین بار انجام میدهند (خیلی بیشتر از انسانها). منصفانه است که بگوییم ما ترکیبی از دو توزیع داریم که واقعاً نمیتوانیم آنها را تشخیص دهیم، انسان-کاربر و ربات. پس از حذف هر چه بیشتر رباتها، ما به تفاوت رفتارهای کاربران انسانی اهمیت میدهیم. در دراز مدت، ما یک طبقهبندی کننده برای رباتها خواهیم ساخت، اما در حال حاضر به دنبال راهحلی سریع هستیم. | فرآیند تکراری برای حذف نمونه های شدید |
100425 | من با GAM مشکل دارم. به ویژه هنگامی که من سعی می کنم یک پیش بینی در یک مقدار داده جدید در مبدا انجام دهم، پیش بینی من با رهگیری برابر نیست. آیا کسی می تواند به من کمک کند تا بفهمم چرا این اتفاق می افتد؟ در اینجا یک مثال وجود دارد: set.seed(42) N = 1000 x = runif(N) y = x^.22+rnorm(N) m = gam(y~s(x)) summary(m) predict(m, newdata = data.frame(x=0)) خانواده: تابع پیوند گاوسی: هویت فرمول: y ~ s(x) ضرایب پارامتری: برآورد Std. خطای t مقدار Pr(>|t|) (Intercept) 0.78115 0.03164 24.69 <2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 اهمیت تقریبی عبارات صاف: edf Ref.df F p-value s(x) 2.158 2.687 13.79 7.61e *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 R-sq.(adj) = 0.0344 انحراف توضیح داده شده = 3.65% امتیاز GCV = 1.0043 مقیاس est. = 1.00 1000 1> predict(m,newdata = data.frame(x=0)) 1 0.3756038 من فکر می کنم پیش بینی باید برابر با فاصله زمانی x = 0 باشد، اما اینطور نیست! | پیش بینی از مدل گام در X = 0 برابر با رهگیری نیست |
47413 | آیا امکان استخراج افکت های ثابت در مدل جلوه های ثابت در Stata وجود دارد؟ من می دانم که در R می توانم با دستور fixef کاری شبیه به این انجام دهم: insidemodel <- plm(formula=y~x,data=Data, model=within) summary(fixef(withinmodel)) اما آیا در Stata امکان پذیر است ? | آیا امکان استخراج افکت های ثابت در مدل جلوه های ثابت در Stata وجود دارد؟ |
108156 | سوال من به طور کلی در مورد تجزیه ارزش واحد (SVD) و به ویژه در مورد نمایه سازی معنایی پنهان (LSI) است. بگویید، من $ A_{word \times document} $ دارم که حاوی فرکانسهای 5 کلمه برای 7 سند است. A = ماتریس(داده=c(2,0,8,6,0,3,1, 1,6,0,1,7,0,1, 5,0,7,4,0,5,6, 7,0,8,5,0,8,5, 0,10,0,0,7,0,0), ncol=7, byrow=TRUE) نام ردیف (A) <- c('doctor','car','nurse','hospital','wheel') با استفاده از SVD فاکتورسازی ماتریس را برای $A$ دریافت می کنم: $A = U \cdot D \cdot V^T $. s = svd(A) D = diag(s$d) # ماتریس مقدار مفرد S = diag(s$d^0.5 ) # ماتریس دیاگ با ریشه های مربع مقادیر مفرد. در 1 و 2 بیان شده است که: $WordSim = U \cdot S$ **ماتریس شباهت کلمه** را می دهد که در آن ردیف های $WordSim $ نشان دهنده کلمات مختلف است. `WordSim = s$u %*% S` $DocSim= D \cdot V^T$ **ماتریس شباهت سند** را می دهد که در آن ستون های $DocSim$ اسناد مختلف را نشان می دهد. `DocSim = S %*% t(s$v)` **سوالات:** 1. از نظر جبری، چرا $WordSim$ و $DocSimS$ ماتریسهای شباهت کلمه/سند هستند؟ آیا توضیح شهودی وجود دارد؟ 2. بر اساس مثال R داده شده، آیا میتوانیم با نگاه کردن به $WordSim$ و $DocSim$ (بدون استفاده از شباهت کسینوس یا ضریب همبستگی بین سطرها/ستونها) تعداد کلمات / مشاهدات شباهت بصری را انجام دهیم؟  | درک تجزیه ارزش منفرد در زمینه LSI |
34177 | من یک سوال در مورد رویکرد تفاوت در تفاوت ها با معادله استاندارد زیر دارم: $$ y= a + b_1\text{treat}+ b_2\text{post} + b_3\text{treat}\cdot\text{post } + u $$ که در آن treat یک متغیر ساختگی برای گروه و پست درمان شده است. حال، سوال من ساده است: چرا بیشتر مقالات همچنان از متغیرهای کنترل اضافی استفاده می کنند؟ من فکر کردم که اگر فرض روند موازی درست باشد، پس نباید نگران کنترلهای اضافی باشیم. من فقط می توانم به 2 دلیل احتمالی برای استفاده از متغیرهای کنترل فکر کنم: 1. بدون آنها، روندها موازی نخواهد بود. 2. زیرا مشخصات DnD هرگونه تفاوت در روند بین درمان و گروه کنترل در زمان درمان را به مداخله نسبت می دهد. به عنوان مثال اصطلاح تعامل treat*post) - زمانی که سایر متغیرها را کنترل نکنیم، ضریب تعامل ممکن است بیش از حد/کم بیان شود. در مورد این موضوع؟ آیا دلایل من 1) یا 2) اصلا منطقی است؟ من به طور کامل استفاده از متغیرهای کنترل در DnD را درک نمی کنم. | چرا از متغیرهای کنترلی در تفاوت ها در تفاوت ها استفاده کنیم؟ |
93108 | من از دادههای qtl_500 (50000 امتیاز) نمونهبرداری کردم و منحنی چگالی آن را به صورت زیر دریافت کردم: > plot(density(qtl_500k))  حالا امیدوارم نقطه عطف این منحنی را بدست بیاورم. لطفا کسی می تواند به من ایده بدهد؟ خیلی ممنون! | چگونه نقطه عطف را از منحنی نمودار چگالی خود پیدا کنیم؟ |
34170 | من باید یک مجموعه داده را با متغیرهای ترتیبی و مقیاس تجزیه و تحلیل کنم. کاری که من سعی کردم انجام دهم این بود که داده ها را تحلیل عاملی کنم. داده ها در SPSS بود. اما من فکر می کنم عامل SPSS داده ها را با محاسبه همبستگی پیرسون به طور پیش فرض تجزیه و تحلیل می کند که ممکن است گمراه کننده باشد زیرا مجموعه داده های من حاوی انواع مختلفی از متغیرها است. من میتوانم از «hetcor» در بسته R «polycor» استفاده کنم و سپس از ماتریس همبستگی به عنوان ورودی برای تحلیل عاملی با استفاده از دستورات موجود در بسته «psych» استفاده کنم. اما اکثر دستورات به من نمرات فاکتوری نمی دهند که برای هدف تجزیه و تحلیل من به دست آوردن آن بسیار مهم است. این به این دلیل است که ورودی من ماتریس همبستگی ناهمگن است، نه خود داده. شنیده ام که استفاده از «fa.poly» به من امتیاز فاکتور می دهد. اما هر زمان که این دستور را اجرا می کنم موارد زیر را ایجاد می کند: > fa.poly(dat,nfactor=4,rotate=varimax) Polychoric |. چگونه می توانم نمرات عامل را استخراج کنم؟ آیا جایگزینی دارم؟ برای راحتی شما برای پاسخ به این داده ها در اینجا آمده است. من نیاز به محاسبه امتیازات دارم. به نظر شما چه روشی باید مناسب باشد؟ با تشکر و احترام. | به دست آوردن امتیازهای عاملی از تحلیل عاملی متغیرهای مختلط (اعم از ترتیبی و مقیاسی). |
35883 | نمی دانم فقط من هستم یا نه، اما به طور کلی به آمار خیلی بدبین هستم. من می توانم آن را در بازی های تاس، بازی های پوکر و غیره درک کنم. بازی های تکراری بسیار کوچک، ساده و عمدتاً مستقل خوب هستند. به عنوان مثال، سکهای که روی لبه آن فرود میآید به اندازهای کوچک است که احتمال اینکه سرها یا دمهای فرود ~50 درصد باشد را بپذیرد. انجام یک بازی پوکر 10 دلاری با هدف برنده شدن 95 درصد خوب است. اما اگر کل پس انداز زندگی شما + بیشتر به پیروزی شما بستگی داشته باشد یا خیر، چه؟ اصلاً دانستن اینکه در 95٪ مواقع در آن موقعیت برنده می شوید، چگونه به من کمک می کند؟ ارزش مورد انتظار در آنجا کمک چندانی نمی کند. نمونه های دیگر شامل یک جراحی تهدید کننده زندگی است. دانستن اینکه نرخ بقای آن 51 درصد در مقابل نرخ بقای 99 درصد با توجه به داده های موجود است، چگونه کمک می کند؟ در هر دو مورد، فکر نمیکنم برایم مهم باشد که دکتر چه میگوید و من دنبال آن خواهم رفت. اگر دادههای واقعی 75٪ باشد، او ممکن است به من بگوید (به استثنای اخلاق و قانون)، که احتمال زنده ماندن 99.99999٪ وجود دارد، بنابراین من احساس بهتری دارم. به عبارت دیگر، داده های موجود به جز دوجمله ای اهمیتی ندارند. حتی در آن زمان، اگر من در نهایت به دلیل آن بمیرم، مهم نیست که نرخ بقای 99.99999٪ وجود داشته باشد. همچنین احتمال وقوع زلزله. مهم نیست که به طور متوسط هر x (که x> 100) سال یک زلزله قوی رخ می دهد. نمی دانم در طول عمرم زلزله ای رخ خواهد داد یا نه. پس چرا حتی اطلاعات مفیدی است؟ یک مثال نه چندان جدی، مثلاً، 100٪ از مکان هایی که من رفته ام و آنها را دوست دارم در قاره آمریکا هستند، نسبت به 100٪ مکان هایی که در اروپا رفته ام بی تفاوت هستند، و از 100٪ مکان هایی که من دارم متنفرم. در آسیا بوده است. حالا این به هیچ وجه به این معنی نیست که در سفر بعدی ام جایی را که در آسیا دوستش دارم یا در اروپا از آن متنفرم یا در آمریکا بی تفاوت باشم، پیدا نخواهم کرد، فقط به این دلیل که آمار تمام اطلاعاتی را که من به دست آورده ام را نشان نمی دهد. نیاز دارم، و من احتمالاً هرگز نمی توانم تمام اطلاعات مورد نیاز خود را به دست بیاورم، حتی اگر به بیش از x٪ از تمام آن قاره ها سفر کرده باشم. فقط به این دلیل که در 1-x٪ از آن قاره ها ناشناخته هایی وجود دارد که من در آنها نرفته ام. (به راحتی می توانید 100% را با هر درصد دیگری جایگزین کنید). من میدانم که هیچ راهی برای اعمال بیرحمانه همه چیز وجود ندارد و شما باید در بسیاری از موقعیتها به آمار تکیه کنید، اما چگونه میتوانیم باور کنیم که آمار در موقعیتهای تکشات ما مفید است، بهویژه وقتی آمار اساساً به رویدادهای پرت تعبیر نمیشود؟ آیا بینشی برای غلبه بر تردید من نسبت به آمار وجود دارد؟ | چرا وقتی بسیاری از چیزهایی که مهم هستند، آمار مفید است؟ |
115220 | من از **مدل رگرسیون تقویت کننده گرادیان** (GBRT) استفاده می کنم. برای ارزیابی این مدل، من از ** اعتبار سنجی متقاطع 10 برابری ** استفاده می کنم، که در هر کدام از آنها همان پارامتر را تنظیم می کنم و ضریب تعیین را به عنوان معیار برازش محاسبه می کنم. با این حال، من متوجه شدم که تفاوت زیادی در ضریب تعیین بهدستآمده از هر برابر وجود دارد، به عنوان مثال، ضریب تعیین از fold_1 تا fold_10 این است: [ 0.95310245 0.89725342 0.886711 ** 0.94*2706.849. . btw هر فولد فقط مجموعه داده های آموزشی و آزمایشی است، چرا چنین تفاوت فاحشی وجود دارد؟ آیا چنین تفاوتی نشان می دهد که عملکرد مدل من خوب نیست؟ | چرا تفاوت زیادی در ضریب تعیین به دست آمده از اعتبارسنجی متقاطع 10 برابری وجود دارد؟ |
100424 | آیا کسی از مطالعهای میشناسد که در واقع از روش بازپسگیری برای تخمین تعداد بازدیدکنندگان در یک رویداد فضای باز استفاده کرده باشد؟ ما در فستیوال سالانه خود که هیچ نقطه ورود و خروج ثابتی ندارد به این روش فکر می کنیم. | روش ضبط مجدد برای تخمین جمعیت |
108150 | من یک جدول شباهت ها (کسینوس) دارم و آن را با روش Ward خوشه بندی کردم. نتایج عالی، دندوگرام فوق العاده، اما بعد سعی کردم کیفیت این راه حل خوشه ای را ارزیابی کنم و گیر کردم. اول: شناسایی تعداد خوشه ها در داده های من (علت در Ward مانند k-means نیست که باید تعداد دقیق خوشه ها را تعیین کنید). من مجموع مربع ها را محاسبه کردم (به پیوست مراجعه کنید) تا ببینم چند خوشه وجود دارد، اما یک زانو مناسب در داده ها وجود ندارد، بنابراین چند خوشه را در نظر بگیرم؟ دوم: تلاش برای محاسبه خلوص خوشه بندی (با ابزار CluTo)، با نشان دادن خوشه های 4، 5، 6، 7... می بینم که هر چه تعداد خوشه های بیشتری را نشان دهم، خلوص افزایش می یابد. البته. اگر تعداد خوشهها با تعداد نمونههای دادههای من برابر باشد، خلوص 1 است (حداکثر). داه پیشنهادی در مورد نحوه گزارش این موضوع دارید؟ (تعداد خوشه ها؟ کیفیت راه حل خوشه بندی؟)  | تجزیه و تحلیل خوشه، بخش: چگونه می توان تعداد خوشه ها و کیفیت آنها را ارزیابی کرد؟ |
105405 | اینجا من دوباره با یک سوال دیگر هستم. من از اصطلاحات تعامل در مدل خود استفاده می کنم. مشکل این است که مهم نیست که چه مشخصات یا ساختار متغیری را امتحان میکنم، عبارت تعامل همیشه در مقایسه با متغیر اصلی من علامت مخالف دارد. هر دوی آنها نیز قابل توجه هستند. هیچ ایده ای دارید که چرا این اتفاق می افتد؟ آیا به دلیل چند خطی بودن احتمالی است؟ برای افزودن جزئیات بیشتر، وقتی مدل را بدون فعل و انفعال اجرا میکنم، یعنی $Y_t=α_1+β_1x_1+β_2x_2$، ضرایب درست را دریافت میکنم، اما وقتی تعامل x1andx2 را در یک مدل اضافه میکنم، اثر اصلی علامت خود را حفظ میکند، اما تعامل منفی است و در مدل دیگر اثر اصلی منفی و تعامل مثبت می شود. متشکرم. | اصطلاحات متقابل با علائم متضاد در مقایسه با متغیرهای اصلی |
100421 | بنابراین من از بسته rpart برای ایجاد یک مدل درختی استفاده کردم و یک قانون جالب پیدا کردم و به این فکر کردم که آیا راه آسانی وجود دارد که ببینم کدام مشاهدات در آن قاب داده آن قانون را تصویب می کنند. به نظر می رسد استفاده از path.rpart برای یافتن مسیری که درخت را طی کرده است، و به صورت دستی آن فیلترها را در چارچوب داده وارد کنید تا آنها را جستجو کنید، بسیار خسته کننده به نظر می رسد. آیا روشی وجود دارد که بتوانم یک درخت و/یا یک گره و یک قاب داده را ارسال کنم و تمام عناصر موجود در آن فریم را که به آن گره ختم شده است برگردانم؟ | عناصر داده را در یک قاب داده پیدا کنید که قانون یک گره را در یک مدل درختی تصویب می کند؟ |
65174 | من در حال انجام یک تحلیل رگرسیون لجستیک با استفاده از دستور glm در R هستم. این برای شناسایی علل باریک شدن دریچه فراتر از یک آستانه خاص است. 0 = بدون باریک شدن، 1 = باریک. یکی از متغیرهای من اندازه یک دستگاه پزشکی است که کاشته می شود (محدوده 25-36 میلی متر). گاهی اوقات دستگاه کاشته نمی شود و من این را به عنوان یک فیلد خالی گذاشته ام، البته این به عنوان یک میدان گم شده تعبیر می شود. به نظر می رسد عدم کاشت دستگاه با استفاده از آنالیز Chi-sq تاثیر قابل توجهی دارد و اندازه دستگاه با استفاده از آزمون t تاثیر قابل توجهی دارد. چگونه می توانم در یک مدل رگرسیون خطی این مورد را دور بزنم؟ برای پیچیده تر کردن آن، من در واقع دو مدل مختلف از دستگاه دارم: C و D با اندازه های 25-36 میلی متر، دستگاه دیگری بدون اندازه S و سپس بدون دستگاه N. آیا می توان همه آنها را با هم وارد کرد یا بهتر است خارج از رگرسیون جداگانه تجزیه و تحلیل کرد؟ «فقدان» چه تأثیری بر متغیرهای مختلف دیگری دارد که در تحلیل هستند؟ لطفا و ممنون | متغیر برای رگرسیون لجستیک مقوله ای و پیوسته است، بنابراین «غیبت» در R ایجاد می کند |
76130 | هنگام بررسی داده های متنی، آیا جریان فرآیندی دارید که برای شما مفید باشد؟ کاری که من تا کنون انجام می دهم: * جمع آوری داده ها * وارد کردن به یک پیکره * کدگذاری * تمیز کردن * پیش پردازش: فضای خالی، حروف کوچک، نقطه گذاری، کلمات توقف، ریشه (شاید) * تجزیه و تحلیل فرکانس * ارتباط، خوشه بندی یا طبقه بندی باید به دنبال چه چیزی باشم برای بهبود از اینجا انجام دهید؟ | توالی معمولی از تجزیه و تحلیل متن |
91266 | چگونه اجزای PCA با افزودن داده های جدید تغییر می کنند (یعنی $\frac{d(PC_1(x))}{d({\rm var}(x))}$؟ من به دنبال هر فرمول ریاضی و شواهد (زیرا درک آن آسان خواهد بود). | چگونه اجزای اصلی با افزودن داده های جدید تغییر می کنند؟ |
33726 | من در مورد PCA یاد می گیرم. به طور کلی، من مفهوم و ریاضیات اساسی را درک می کنم، اما در مورد چند چیز سردرگم هستم که امیدوارم کسی بتواند توضیح دهد. اجازه دهید بگوییم که پس از انجام یک تجزیه و تحلیل PCA بر روی برخی از داده های با ابعاد بالا، متوجه شدم که سه مؤلفه اول 99٪ از واریانس داده های من را ثبت می کنند. حالا چی؟ آیا می توان یافت که کدام ویژگی ها جزء اول، دوم و سوم را تشکیل می دهند؟ به نظر می رسد که یک رویکرد رایج ترسیم اجزای اصلی است. به عنوان مثال، این صفحه را تحت «2.3.1» ببینید. کاهش ابعاد و تجسم برای نمودار PCA از داده های عنبیه. تعبیر این طرح چیست؟ من می بینم که آنچه من فرض می کنم دو جزء است: یک جزء قرمز و یک جزء مخلوطی از سبز و آبی؟ آیا یک مرحله بعدی کلی برای انجام پس از PCA وجود دارد؟ من مفهوم را درک می کنم، اما نمی توانم ببینم که چگونه می توان آن را عملاً به کار برد. با تشکر از کمک. | سوالاتی در مورد کاربرد PCA |
101221 | بنابراین فرض کنید من سعی میکنم این فرضیه صفر را رد کنم که میانگین برخی از متغیرهای تصادفی $X$ بر اساس میانگین نمونه محاسبه شده از $n$ IID این متغیر تصادفی، صفر است یا خیر. . سپس معمولاً یک آزمایش $t$ $$t=\frac{\hat{\mu}}{\hat{\sigma}\;/ \sqrt{n}}$$ انجام میدهم و بررسی میکنم که احتمال آن چقدر است از توزیع $t$ می توان مقدار شدیدتری نسبت به $t$ ترسیم کرد. اما چرا حتی مقیاس کردن با $\sqrt{n}$ را به زحمت بیاندازید؟ چرا فقط از توزیع z Student استفاده نمی کنید؟ پس از همه، آیا توزیع واقعی برای نمونه به معنای $\hat{\mu}=\frac 1n\sum_{i=1}^nX_i$ نیست؟ تنها دلیلی که می توانم متوجه مزاحم شدن آن باشم این است که برای $n$ توزیع t بزرگ دانشجویی به توزیع نرمال استاندارد تقریب می زند، که ممکن است محاسبات را ساده کند، آیا این تنها دلیل انجام آن است؟ | چرا از توزیع t دانشجویی به جای توزیع z استفاده کنیم؟ |
76131 | در R، من مجموعه داده ای از متغیرهای زیادی دارم و بر اساس ماتریس همبستگی می بینم که برخی از متغیرها با بقیه همبستگی دارند. برای سادگی، فرض می کنیم که متغیرهای درختی X، Y، Z وجود دارند که دارای ضرایب همبستگی زوجی بالایی هستند. اما به نظر می رسد که اطلاعات مربوط به متغیر Y از قبل در متغیر Z گنجانده شده است. | چگونه بررسی کنیم که آیا دو متغیر با توجه به متغیر سوم وابسته هستند؟ |
76132 | من دادههای سری زمانی دارم که شبیه این است و من یک نمودار همبستگی خودکار برای این سری زمانی به صورت  این همبستگی خودکار برای هر تاخیر صفر است. اما این بدان معناست که سری زمانی اساساً تصادفی است. آیا با توجه به نمودار داده ها این درست به نظر می رسد؟ و اگر دادهها اساساً تصادفی باشند، فکر میکنم ساخت یک مدل خودرگرسیون برای آن منطقی نخواهد بود (یعنی اگر دادهها تصادفی باشند، نقاط داده نباید هیچ وابستگی به مقادیر عقب افتاده آن داشته باشند). | آیا این نمودار خودهمبستگی درست به نظر می رسد؟ |
108159 | من به داده های خوشه ای نگاه می کنم و چون در اقتصاد آموزش دیده ام، تمایل دارم به اثرات ثابت و اثرات تصادفی به عنوان راه حل نگاه کنم. بدیهی است که یک جایگزین مدل سازی چند سطحی است. با این حال، برای من خوشه بندی فقط یک مزاحمت است، بنابراین من فقط به کنترل کردن آن اهمیت می دهم. با این حال، با نگاه کردن به معادله یک مدل رهگیری تصادفی، نمی توانم تفاوت را با مدل اثر تصادفی خود ببینم. بنابراین من فکر می کردم که آیا ممکن است به دلیل تفاوت بین رشته ها، نام های مختلفی برای یک چیز وجود داشته باشد؟ اما پس چرا شما (در Stata) می توانید آنها را متفاوت ارزیابی کنید؟ * RIM: `xtreg y x, i(id) mle` * RE: `xtreg y x, re` با این حال، معادله هر دو به نظر می رسد: $$y_{ij}= b_{0} + b_{1}x1_{ ij}+ u_{j} + e_{ij}$$ (نمی دانم چگونه آن را به خوبی قالب بندی کنم، اما Google نمونه هایی از معادلات RE و RIM را ارائه می دهد که شبیه به هم هستند. برای من به راحتی: * RE: http://en.wikipedia.org/wiki/Random_effects_model * RIM: http://www.bristol.ac.uk/cmm/learning/videos/random-intercepts.html | تفاوت بین اثر تصادفی و مدل رهگیری تصادفی |
76136 | به طور خلاصه، من در حال راهاندازی بر روی مجموعه دادههای تجزیه و تحلیل انجمن در «R» (با استفاده از بسته «قوانین») و جمعآوری معیارهای مناسب (پشتیبانی، اطمینان و افزایش) برای دادههای کامل و همچنین نمونههای بوت استرپ هستم. تعداد نمونههای بوت استرپ برابر با 1000 است. مجموعه دادههای حاصله نهایی که من دارم، مجموعهای از 1000 معیار اطمینان برای هر قانون است که توسط بسته Arules یافت میشود. از این رو، من فواصل اطمینان 95٪ را برای معیار اطمینان هر قانون محاسبه می کنم. من متوجه شدم که برای حدود 20٪ از قوانین، تخمین داده های کامل اطمینان در واقع کمتر از صدک 0.025 پایین مجموعه معیارهای اطمینان بوت استرپ است. این کمی غیر شهودی است، زیرا من انتظار دارم که تخمین دادههای کامل جایی در وسط تخمینهای بوت استرپ باشد (نمونه راهاندازی به نمونه، همانطور که نمونه برای جمعیت و غیره است). من اینجا چه چیزی را از دست داده ام؟ | برآوردهای بوت استرپینگ بزرگتر از تخمین داده کامل است |
105407 | من باید یک متا رگرسیون را با استفاده از مدل افکت های ترکیبی یا تصادفی انجام دهم، اما هیچ نرم افزاری (به جز Matlab) ندارم و در این موضوع تازه کار هستم (پس زمینه آماری نسبتاً ضعیفی دارم). به طور خلاصه مشکلی که به آن می پردازم به شرح زیر است. من چندین اثر را از مطالعات مختلف جمع آوری کرده ام. در مورد من، اندازه اثر درصدهایی از اتخاذ یک رفتار خاص است. به عنوان مثال، یک مطالعه نمونه ای متشکل از 100 نفر را تجزیه و تحلیل کرد و به این نتیجه رسید که 35٪ رفتار مورد تجزیه و تحلیل را اتخاذ می کنند، در حالی که مطالعه دیگری نمونه ای متشکل از 150 نفر را تجزیه و تحلیل کرد و به این نتیجه رسید که 45٪ این رفتار را اتخاذ می کنند. هدف من تعیین میانگین پذیرش رفتار است. همه مطالعات مشاهده ای (بدون گروه کنترل). من باید یک متاآنالیز انجام دهم زیرا مطالعه آن ویژگی های متفاوتی دارد، مثلاً حجم نمونه یا به عنوان مثال میانگین سطح تحصیلات نمونه. برخی از متغیرهای وابسته، متغیرهای ساختگی هستند. من چیزهای زیادی در مورد متا آنالیز/رگرسیون خواندم اما خیلی گیج شده ام و نمی دانم چگونه باید تحلیل خود را شروع کنم، از کدام مدل پیروی کنم، فرمول مناسب برای محاسبه واریانس و وزن ها و غیره چگونه است. در مدل گنجانده شده است؟ من در مورد استفاده از این مدل فکر کردم: y=b0+b1x+b2x+...+u+e (مدل اثر ثابت+تصادفی) آیا روشی که من فکر می کنم درست است؟ آیا پیشنهادی برای من دارید؟ اگر نه، مراحل گام به گام چگونه است؟ (در متلب یا اکسل). اگر بتوانید در این تحلیل مرا راهنمایی کنید ممنون می شوم. ببخشید اگر به اندازه کافی واضح یا دقیق نبودم. پیشاپیش از شما متشکرم با احترام | چگونه یک متا رگرسیون را با یک مدل افکت تصادفی انجام دهیم؟ از کدام مدل استفاده کنم؟ چگونه شروع کنیم؟ (مبتدی) |
76134 | من مجموعه ای از داده ها را دارم (که برای راحتی شما نموداری از آنها را پیوست کرده ام) که در آن 2 دسته مورد علاقه دارم - بیایید آنها را A و B بنامیم. برای هر یک از آنها می خواهم از یک سری دسته بندی انتخاب کنم (بیایید تماس بگیریم آنها C_x) یکی که بهترین تقریب هر یک از آنها را از نظر اندازه گیری در دست دارد (در مورد من زمان واکنش).  من به 2 رویکرد فکر کرده ام: * یکی را با نزدیکترین میانگین انتخاب کنید و یک آزمون t انجام دهید. اگر مهم است - یکنوع بازی شبیه لوتو! * دسته مورد علاقه من را انتخاب کنید و آزمون های t را در برابر همه دسته های C_x اجرا کنید و یکی را با بالاترین اهمیت انتخاب کنید. من می خواهم بدانم به نظر شما کدام یک از موارد بالا بهتر است. همچنین، اخیراً به من گفته شده است که رویکردهای من فقط بوی داده کاوی کلاه سیاه دارد. نمیدانم چرا، اما اگر چنین است، میتوانید راه بهتری برای این کار پیشنهاد کنید؟ | تعیین بهترین تقریب بر اساس اندازه گیری های مکرر |
91260 | من 100 نقطه داده روی دو متغیر a و b دارم. همبستگی بین این دو 0.3 و SD 1 است. وقتی موارد زیر را در AMOS اجرا میکنم، برآوردهای معقولی (0.995 و 1.001) برای واریانسهای «a» و «b» دریافت میکنم، حتی اگر آن را ثابت کرده باشم. کوواریانس به یک مقدار نادرست  تخمین واریانس ها تقریباً ثابت می ماند اگر کوواریانس را 0.3 کنم . با این حال، اگر من کوواریانس را با مقادیر دیگر ثابت کنم، تخمینهای واریانس میتوانند بسیار متفاوت شوند. برای مثال، اگر من کوواریانس را روی 95/0 ثابت کنم، برآوردهای واریانس به ترتیب 57/1 و 58/1 میشوند. اگر کوواریانس را روی 15/0 ثابت کنم، برآوردهای واریانس به ترتیب 95/0 و 96/0 میشوند. چرا این اتفاق می افتد؟ در صورتی که کمک کند، در اینجا داده ها در صفحه گسترده Google آمده است. | چرا تثبیت مقدار کوواریانس باعث شد AMOS واریانس را اشتباه تخمین بزند؟ |
103733 | بهترین (یا بهترین نقل قولی که دارید) توضیح زبان ساده شما در مورد تفاوت بین تست های برتری و تست های غیر حقارت چیست؟ من فکر می کنم یک آزمون برتری یک آزمون فرضیه دو طرفه تنوع باغی برای تفاوت بین دو گروه (مثلاً درمان) با هدف ارائه شواهدی مبنی بر اینکه یک معیار در یک گروه از گروه دیگر بیشتر است. بنابراین H$_{0}\text{: }\theta = 0$، در صورتی که H$_{0}$ رد شود، _ برتری_ برای درمان اعلام میشود _و_ این درمان اثر بیشتری دارد. و من فکر میکنم که تست عدم حقارت به طور خاص یک آزمون فرضیه یک طرفه است که در آن یک درمان جدید در برابر یک درمان استاندارد پذیرفته شده منهای مقداری ($\Delta$) که از نظر بالینی نامربوط است، مورد آزمایش قرار میگیرد. بنابراین H$_{0}\text{: }\theta \le -\Delta$، با _non- inferiority_ برای درمان جدید با توجه به استاندارد اگر H$_{0}$ رد شود، اعلام میشود. | آزمون برتری در مقابل آزمون عدم حقارت |
73417 | من سعی می کنم تابع شدت مشروط تجربی را در داده های خود محاسبه کنم. من دو نوع رویداد دارم، رویداد Type1 و رویداد Type2، که می توانند در بازه زمانی مثلاً 1 روز رخ دهند (رویدادها به طور همزمان رخ نمی دهند). من فرض میکنم وقتی یک نوع زوج اتفاق میافتد، احتمال وقوع یک رویداد دیگر نوع 1 افزایش مییابد (خود تحریکی) و زمانی که یک رویداد نوع 2 رخ میدهد، احتمال وقوع یک رویداد نوع 1 نیز افزایش مییابد (تقاطع متقابل). من میخواهم بفهمم که چه اتفاقی برای چگالی تجربی رویدادهای Type1 و Type2 میافتد که مشروط به وقوع یک رویداد Type1 است (در بخش خاص، میخواهم ببینم در ثانیه اول پس از وقوع یک رویداد Type1 چه اتفاقی برای آن میافتد). اگر به شدت غیر مشروط نگاه کنید، تنها کاری که انجام می دهید این است که فاصله زمانی من (0، T) را در نظر بگیرید، آن را به n سطل غیر همپوشانی تقسیم کنید و به سادگی تعداد وقوع در هر سطل را بشمارید. روشی که من این کار را انجام می دهم این است که یک سطل 1 ثانیه ای پس از وقوع هر رویداد Type1 شروع می کنم و سطل 1 ثانیه ای را به 20 سطل فرعی 0.05 ثانیه ای تقسیم می کنم. سپس تعداد رویدادهای Type1 و Type2 را که در هر سطل فرعی اتفاق میافتند میشمارم و این کار را برای هر سطلی که بعد از وقوع یک رویداد Type1 شروع میکنم تکرار میکنم. در نهایت، من میانگین تعداد رخدادها را برای هر یک از سطلهای فرعی خود در تمام سطلها میگیرم و نتیجه خود را رسم میکنم. آیا این روش صحیح انجام آن است؟ آیا این مشکل است که سطل ها (سطل های 1 ثانیه ای که در هر رخداد یک رویداد Type1 شروع می کنم، نه سطل های فرعی!!) با هم همپوشانی دارند زیرا من رویدادهای Type1 دارم که بیشتر از هر 1 ثانیه اتفاق می افتد؟ وقتی من آن را با تابع شدت شرطی ضمنی مدل خود مقایسه میکنم، شکل مناسب است، اما مقیاس کاملاً اشتباه است! | تابع شدت مشروط تجربی |
103737 | طبق نیاز شغلی من باید پیش بینی را فقط با استفاده از تکنیک Holt Winter در R انجام دهم. من داده های هفتگی برای 2 سال و نیم دارم و باید هفتگی را پیش بینی کنم. من قصد دارم سری های زمانی با فرکانس 52 بسازم. دارم می بینم که HoltWinters () تابع در R فقط می تواند روند افزایشی-افزودنی فصلی (A,A) و روند افزایشی -مدل فصلی ضربی (A,M) را انجام دهد. من می خواهم مدل های دیگری مانند (M,A), (M,M) را امتحان کنم. دیدم این مدل ها توسط ets() قابل انجام هستند اما ets() حداکثر محدودیت فرکانس 24 را دارد. لطفاً روشی در R به من پیشنهاد دهید که بتوانم از این مدل ها با فرکانس 52 هفته استفاده کنم؟ پیشاپیش ممنون | تغییرات مختلف تکنیک Holt Winter را با استفاده از R برای 52 هفته داده اجرا کنید |
73414 | فرض کنید من مجموعه ای از رشته ها را دارم که همه به هم مرتبط هستند. (لیستی از طعم های بستنی را تصور کنید.) برای هر جفت رشته، من می خواهم احتمال اینکه آنها واقعاً به یک چیز اشاره دارند را تعیین کنم. آیا می توان الگوریتم های ساده (یعنی فاصله لونشتاین) را با در نظر گرفتن سایر اعضای مجموعه بهبود بخشید؟ | الگوریتمی برای تعیین یکسان بودن رشته ها؟ (با توجه به مجموعه) |
103730 | من حتی مطمئن نیستم که این سوال خیلی منطقی باشد، اما فکر می کنم چند عنوان مقاله را دیدم که در آن جنگل تصادفی با جلوه های تصادفی پیشنهاد شده بود. آیا این در R امکان پذیر است؟ | چگونه می توانم جلوه های تصادفی را در یک جنگل تصادفی قرار دهم |
76135 | میدانم عنوان مبهم است: نمیتوانستم یک عنوان خوب فکر کنم. سوال اساسی را می توان به روش های مختلف بیان کرد، اما من در اینجا به این فکر می کنم که آن را برای خودم راحت تر کنم: > سالی فقط یک چتر دارد. هر روز صبح 50% احتمال باران و > هر عصر 50% احتمال بارندگی وجود دارد. سالی هر روز به مدرسه میرود و برمیگردد، و اگر باران نباشد، چترش را با خود نخواهد برد. > چند بار باید زیر باران بدون چتر راه برود؟ بنابراین راهی که من در مورد این کار می کنم این است که یک مدل اکسل تولید کنم که حداقل 30 نمونه را آزمایش کند، با هر نمونه 30 رفت و برگشت رفت و برگشت، با استفاده از فرمولی برای تعیین اینکه آیا آن سفر بدون چتر انجام می شود یا نه. باران من متوجه شدهام که هر زمان که باران میبارد (بگذارید این عدد 1 باشد)، اگر مجموع 0های قبلی (سفرهایی که باران نمیبارد) تا 1 قبلی فرد باشد، سالی پیچ میخورد. به عنوان مثال: اگر 1 0 0 0 0 1 داشته باشیم، یعنی در اولین سفر و آخرین سفر باران بارید، سالی مشکلی ندارد زیرا تعداد 0 ها (4) زوج است. اگر 1 باشد پس 1، 1 دوم 1 است زیرا من 0 را به عنوان یک عدد زوج در نظر میگیرم. من در فهمیدن اینکه چگونه این را در نوعی از مدل اکسل قرار دهم مشکل دارم. به عنوان مثال، من میتوانم یک ستون # صفر قبلی داشته باشم، اما چگونه میتوانم فرمول را پس از رسیدن به عدد 1 در ستون دیگر بازنشانی کنم؟ همچنین، چگونه می توانم نتایج خود را بگیرم و احتمالاً یک خلاصه CI و پنج نقطه ای در اکسل بسازم؟ با تشکر | دو رویداد مستقل بر احتمال رخداد سوم تأثیر میگذارند: CI را برای رویداد سوم پیدا کنید |
73415 | من یک سوال ساده دارم، اما هیچ کجا نتونستم جوابی که دنبالش بودم پیدا کنم. من مطمئن هستم که یک قضیه یا توزیع ساده وجود دارد که این مشکل را حل می کند، اما از من طفره می رود. شاید من عبارات درست را در گوگل جستجو نکرده ام یا در کتاب های درسی مناسب جستجو نکرده ام! مشکل من به شرح زیر است. فرض کنید نسبتی ($p$) از یک میدان پوشیده از آب است. آب به طور تصادفی در مزرعه پراکنده می شود. این فیلد دارای مساحت $A$ است. اکنون با یک هلیکوپتر بر فراز میدان پرواز می کنیم و به صورت تصادفی حلقه ای به اندازه $a$ (که $aN = A$) داخل میدان می اندازیم. حلقه در یک نقطه تصادفی در داخل مرزهای میدان فرود می آید. احتمال وجود آب در داخل حلقه چقدر است؟ شهود من در مورد مشکل این است که برای $a > A(1-p)$، احتمال 1 است (زیرا ناحیه حذف شده توسط حلقه کوچکتر از مساحت کل آب است) و به صورت $a \rightarrow 0$ است. ، احتمال به $p$ نزدیک می شود. اما برای مقادیر $a$ در وسط چطور؟ آیا می توان به سوال پاسخ داد؟ من یک سوء ظن پنهانی دارم که پاسخ به طرز شرم آوری ساده است. با تشکر از کمک شما! | حلقه ها در یک زمین |
91261 | من سعی می کنم مجموعه داده های خود را با توزیع لگ نرمال با استفاده از Matlab مدل کنم. من پارامترها را از طریق lognfit تخمین زدم و نقاط داده تولید شده من با توزیع مناسب در مقایسه با داده های مشاهده شده بسیار خوب به نظر می رسند. برای بررسی بیشتر، من میخواستم از chi2gof برای تست خوبی استفاده کنم. به نظر می رسد همه چیز خوب کار می کند و فرضیه صفر رد نمی شود اما p-value NaN است. من از رویکرد اعمال شده در توزیع Weibull تحت http://www.mathworks.de/de/help/stats/chi2gof.html استفاده می کنم، بنابراین شما می توانید نتیجه من را بازتولید کنید، این مثالی است که کار نمی کند. >> test = lognrnd(-3.6299, 1.30985, 100, 1); >> b = fitdist(test, 'Lognormal') b = LognormalDistribution توزیع Lognormal mu = -3.62425 [-3.86888, -3.37962] sigma = 1.2329 [1.08249, 1.43223] >> [h, p, st, st],chi 'CDF'، ب) h = 0 p = NaN st = chi2stat: 0.0183 df: 0 یال: [0.0015 0.2151 2.1372] O: [94 6] E: [93.6703 6.3297] همچنین تبدیل داده ها به نقاط داده توزیع شده نرمال و بررسی توزیع p-value نرمال منجر به N . من برای هر کمکی ممنونم! با سلام و احترام ویرایش: من به تازگی توانستم رویکرد تبدیل به عادی را عملی کنم: هنوز هم خوب است بدانیم آیا این رویکرد معتبر است و چرا رویکرد اصلی کار نمی کند. >> test = lognrnd(-3.6299, 1.30985, 100, 1); >> تست = ورود (تست)؛ >> b = fitdist(تست، 'نرمال') b = NormalDistribution توزیع نرمال mu = -3.68114 [-3.92861, -3.43368] sigma = 1.24717 [1.09502، 1.44881] >> [h, p, st] (test, chi2go 'CDF'، ب) h = 0 p = 0.5330 st = chi2stat: 4.1149 df: 5 لبه: [-6.1930 -5.5713 -4.9497 -4.3281 -3.7064 -3.0848 -2.4632 -1.8415 0.8415 0.0237 0.0237 O 6] E: [6.4814 8.9730 14.7440 18.9931 19.1820 15.1883 9.4282 7.0101] | P-value NaN با استفاده از chi2gof برای تأیید توزیع لگ نرمال در مجموعه داده |
76137 | با آنالیز طیفی میتوانیم ارزیابی کنیم کدام سریها صاف هستند و کدامیک سریعتر نوسان میکنند. آیا می توان ناهنجاری ها را در یک سری زمانی با تحلیل طیفی یافت؟ آیا می توانید یک مقاله یا مرجع در مورد یافتن ناهنجاری ها با تجزیه و تحلیل طیفی به من ارائه دهید؟ | تجزیه و تحلیل طیفی برای یافتن ناهنجاری ها |
58963 | تعریف معیار اطلاعات بیزی معمولاً به صورت $BIC = -2 \text{ln}(L) + k\text{ln}(n)$ ارائه میشود، که در آن $ln(L)$ حداکثر احتمال ورود به سیستم است. داده ای که به یک مدل خاص داده می شود، $k$ تعداد پارامترهای آزاد است که این مدل دارد، و در نهایت $n$ تعداد نقاط داده ای است که مدل با آنها مطابقت دارد. اگر من مدلی داشتم که تعداد پاسخهای صحیح را در دو شرایط آزمایشی با هر آزمایش 100 پیشبینی میکرد، و دادههای من شامل تعداد پاسخهای صحیح در هر یک از این دو شرط بود (مثلاً 34 از 100)، پس دقیقاً چه چیزی باید باشد. من برای n$، 2 یا 200 دلار استفاده می کنم؟ | اندازه نمونه در BIC |
73410 | اجازه دهید یک سیستم تولید را در نظر بگیریم. این شامل 2 جزء مستقل است. اگر یکی از این مؤلفه ها خراب شود، کل سیستم از کار می افتد. اجازه دهید $Y_j$ $\exp(Q_j)$ توزیع شود که $j=1، 2$. اگر مؤلفه 1 ابتدا خراب شود، آنگاه $Y_1$ مشاهده می شود اما $Y_2$ نیست ($Y_2$ سانسور شده است). اگر مؤلفه 2 ابتدا خراب شود، آنگاه $Y_2$ مشاهده می شود اما Y_1 مشاهده نمی شود ($Y_1$ سانسور می شود). بنابراین، اگر سیستم از کار بیفتد، ما فقط میتوانیم $u = \min(Y_1, Y_2)$ و متغیر تصادفی باینری $V$ را مشاهده کنیم که اگر $Y_1 <Y_2$ باشد $1 و در غیر این صورت $0$ است. چگونه می توانم pdf مشترک یک متغیر پیوسته $u = \min(Y_1, Y_2)$ و یک متغیر گسسته $V = 1$ استخراج کنم اگر $Y_1 <Y_2$ و در غیر این صورت $0$؟ | پی دی اف مشترک یک rv پیوسته و گسسته |
35221 | من می خواهم تجزیه و تحلیل تمایز را در زبان R انجام دهم. لطفا کد و بسته های مربوط به آن را به من اطلاع دهید. | چگونه در نرم افزار R آنالیز تفکیک انجام دهیم؟ |
87955 | من بسته afex را با این فرمول نصب کرده ام: x <- mixed(دوره ~ (1|مورد) + (1+رنگ|بلندگو) + group*color*sex, data=data1.frame,REML=FALSE,type=2 ,method=c(KR)) فرمول این را به من داد: برازش مدل های 10 (g)lmer(): [..........] به دست آوردن 7 مقدار p: [خطا در list2env(داده) : آرگومان اول باید لیستی با نام باشد علاوه بر این: پیام هشدار: در مخلوط (مدت زمان ~ (1 | مورد) + (1 + رنگ | بلندگو) + گروه * : پیاده سازی روش نوع 2 بدون مشکل نیست مستندات را بررسی کنید یا از car::Anova استفاده کنید (تست های Wald > x Effect stat ndf ddf F.scaling p.value 1). 1.61 2 35.74 0.98 .21 2 رنگ 0.04 2 17.04 1.00 .96 3 جنسیت 9.71 1 66.83 1.00 .003 4 گروه:رنگ 0.20 4 36.56: 0.9 0.9 گروه 170.83 1.00 .04 6 color:sex 0.31 2 63.48 0.98 .73 7 group:color:sex 1.06 4 193.57 0.99 .38 آیا می توانم بپرسم چگونه می توانم مقادیر p را برای همه پارامترها دریافت کنم؟ | Afex تمام p-valueهای همه پارامترها را به من نمی دهد. چه کار کنم؟ |
103889 | من سعی می کنم احتمال حداقل تعداد معینی از n رنگ توپ را در یک کوزه که m > n توپ دارم محاسبه کنم. من میخواهم تا آنجا که میتوانم نمونههایی از یک کوزه با m توپ تولید کنم، و سپس ببینم چه مقدار از این توپها از توپهایی هستند که به آنها علاقه دارم (میتواند n توپ < m باشد). در R با «بسته BiasedUrn» من تابع چگالی و مولد اعداد تصادفی دارم. انجام rsamp <- rMFNCHypergeo(nran=1000000، m=NumberBallsInUrn(بردار > 50)، n=SampleNumber، odds=rep(1، length(NumberBallsInUrn))) من نمونه ای را که می خواهم ایجاد می کنم، آیا فکر می کنید که محاسبه prob sum(rsamp[28,] >=12 & rsamp[26,] >=6)/1000000 میتواند به من احتمال نسبتاً خوبی بدهد که حداقل (>=) 12 توپ از توپ 26 و حداقل 6 (>=) توپ از توپ 28 در کوزه داشته باشم، مشابه توزیع تجمعی از حالت تک متغیره توزیع فراهندسی، که در آن من P(X > x) را با فیپر (q، m، n، k، low.tail=FALSE) ? آیا این می تواند یک محاسبه منصفانه برای توپ هایی باشد که در آزمایشی در زیست شناسی کشیده شده اند؟ | توزیع فراهندسی چند متغیره غیر مرکزی فیشر |
87956 | من یک آزمایش اندازه گیری مکرر دارم که در آن متغیر وابسته یک درصد است و چندین عامل به عنوان متغیر مستقل دارم. من میخواهم از «glmer» از بسته R «lme4» استفاده کنم تا آن را بهعنوان یک مشکل رگرسیون لجستیک در نظر بگیرم (با مشخص کردن «خانواده=دوجملهای») زیرا به نظر میرسد مستقیماً با این تنظیمات سازگار است. دادههای من به این شکل است: > head(data.xvsy) foldnum featureset noisered pooldur dpoolmode auc 1 0 mfcc-ms nr0 1 mean 0.6760438 2 1 mfcc-ms nr0 1 mean 0.6739482 3 0 melspec-5x1 p. 4 1 melspec-maxp nr075 1 max 0.7822994 5 0 chrmpeak-tpor1d nr075 1 max 0.6547476 6 1 chrmpeak-tpor1d nr075 1 max 0.6699825 و در اینجا دستور مناسب است. glmer(auc~1+featureset*noisered*pooldur*dpoolmode+(1|foldnum), data.xvsy, family=binomial) مشکل این است که دستور از اینکه متغیر وابسته من اعداد صحیح نیست شکایت می کند: در eval(expr, envir , enclos) : غیرصحیح #موفقیت در glm دوجمله ای! و تجزیه و تحلیل این داده ها (پایلوت) در نتیجه پاسخ های عجیبی می دهد. من میدانم که چرا خانواده «دوجملهای» از اعداد صحیح انتظار دارند (بله-خیر به حساب میآید)، اما به نظر میرسد خوب است که دادههای درصدی را مستقیماً رگرسیون کنیم. چگونه این کار را انجام دهیم؟ | R lme4: چگونه می توان GLM دو جمله ای را به جای شمارش بله-خیر در درصدها اعمال کرد |
103436 | در مدل GARCH مانند $$y_t=\sigma_tz_t زیر،\\\ \sigma_t^2=\omega(1-\alpha-\beta)+\alpha y_{t-1}^2+\beta \sigma_{ t-1}^2$$ که در آن $z_t$ iidN(0,1) فرض می شود، می گوییم که مشروط به اطلاعات گذشته $y_t$ دارای چگالی گاوسی $$f(y_t|y_{t-1},\sigma_{t-1}^2)=\frac{1}{\sqrt{2\pi\sigma^2_t}}exp\left(\frac {1}{2\sigma^2_t}y_t^2\right)$$ آیا در نتیجه گیری زیر صحیح هستم؟ * بنابراین هنگام شرطی کردن گذشته، می دانیم که ارزش $\sigma^2_t$ چقدر است. در نتیجه، میتوانیم بگوییم که $y_t$ به طور مشروط بهصورت نرمال به صورت $N(0,\omega(1-\alpha-\beta)+\alpha y_{t-1}^2+\beta \sigma_{t-1 توزیع میشود. }^2)$. | درک شرطی سازی در فرآیند GARCH |
103881 | حساسیت و ویژگی در ماتریس سردرگمی زیر از بسته caret چگونه تعریف می شود؟ با توجه به کتاب درسی من (مقدمه ای بر داده کاوی توسط تان، اشتاین باخ و کومار)، حساسیت و ویژگی برابر با مقدار Pos Pred و Neg Pred Value است که در زیر آمده است: علاوه بر این، کدام تعریف برای ساخت ROC استفاده می شود. منحنی ها؟ من از پکیج pROC استفاده می کنم. ماتریس سردرگمی و آمار y_BBR_test_est Mersalg Stilstand Mersalg 432 309 Stilstand 2906 793 دقت: 0.2759 95% فاصله اطمینان (CI): (0.2628، 0.2893) بدون نرخ اطلاعات: 0.751 N. -0.0844 Mcnemar's Test P-Value : <2e-16 Sensitivity : 0.1294 Specificity : 0.7196 Pos Pred Value : 0.5830 Neg Pred Value : 0.2144 Prevalence : 0.7518 Prevalence : 0.7518 تشخیص: 0.7518 تشخیص .0. 0.1669 دقت متعادل: 0.4245 'مثبت' کلاس: Mersalg | حساسیت و ویژگی با جعبه متن من متفاوت است؟ |
35228 | من سعی کردهام روششناسی و کاربرد توزیعهای شرطی را در یک محیط عادی چند متغیره همانطور که در این صفحه ویکیپدیا مشخص شده است، درک کنم. در زمینه آن صفحه، اگر مقدار دقیق $x_2=a$ را بدانیم، میتوانیم ماتریس کوواریانس واریانس شرطی را برای $x_1$ استخراج کنیم. اکنون، به عنوان مثال، اگر من 3 متغیر $x_1$، $x_2$ و $x_3$ در توزیع MVN داشته باشم، و توزیع شرطی x_1$ و $x_2$ را با توجه به اینکه x_3$ را میدانم (یا به عنوان یک یک مقدار یا به عنوان توزیع؟)، این توزیع مشروط مشتق شده چه اطلاعاتی به من می دهد؟ کاربردهای این توزیع چیست؟ آیا می توانم از این توزیع شرطی برای پیش بینی های خارج از نمونه یا حداقل پیش بینی در مقادیری در محدوده $x_3$ که در داده های اصلی وجود ندارد استفاده کنم. اگر کسی بتواند چند نمونه از کاربردهای ساده یا ادبیات را به من معرفی کند، خوشحال می شوم. من خیلی تکنیکی نیستم اما تمام تلاشم را می کنم تا کامل بخوانم و بفهمم. | کاربرد ماتریس های کوواریانس شرطی |
91269 | داشتم یادداشت های سخنرانی یادگیری ماشین اندرو ng را در SVM می خواندم. من با معادله زیر روبرو شدم (یافتن مقدار بهینه برای عبارت رهگیری $b$ در مسئله SVM):  با این حال، من نمی دانم چگونه عبارت رهگیری $b$ با حل مسئله اولیه مشتق می شود؟ من معتقدم لاگرانژی اولیه این است: $$\min_{w,b} \max_{\alpha} \mathcal{L}(w,b,\alpha) = \min_{w,b} \max_{\alpha} \ frac{1}{2} ||w||^2 - \sum_{i=1}^m \alpha_i [y_i (w^T x_i + b) - 1]$$ اما چگونه برای $b$ حل کنم؟ هر کمکی عالی خواهد بود. خیلی ممنون. | استخراج مقدار بهینه برای عبارت رهگیری در SVM |
91306 | مشخص است که یک پل براونی چند متغیره استاندارد $ y(\mathbf u) $ یک فرآیند گاوسی متمرکز با تابع کوواریانس $$ \mathbb E(y(\mathbf u) y(\mathbf v)) = \prod_{j =1}^d (u_j \wedge v_j) - \prod_{j=1}^d u_j v_j $$ من نیستم مطمئن شوید که چگونه می توان چنین پل براونی چند متغیره را ساخت. اولین فکر من این بود که به نوعی با یک پل براونی تک متغیره شروع کنم. من اطلاعاتی در مورد آن و حتی یک بسته در R پیدا کرده ام که می تواند این کار را انجام دهد، اما فقط برای پل براونی تک متغیره. من این را پیدا کردم، اما همانطور که فهمیدم، کاری که در آنجا انجام شده است، پل براونی چند متغیره استانداردی نیست که در بالا تعریف شده است یا به عنوان مثال. در این مقاله من از هر گونه راهنمایی و حمایت قدردانی می کنم. | چگونه یک پل براونی چند متغیره ایجاد کنیم |
43880 | در صفحه 85-86 یانگ و اسمیت «مبانی استنتاج آماری» نتیجه جالبی وجود دارد. اگر X$$ یک r.v باشد. با توجه به خانواده نمایی توزیع شده و $\phi(x)$ یک تابع محدود (اما نه لزوما قابل تمایز) از x است، سپس: $$ E(\phi(x)) = \int \phi(x) c(\ تتا) h(x) \text{exp} \big(\sum_{i = 1}^k \theta_i \tau_i(x)\big )dx $$ قابل تمایز از همه سفارشات w.r.t. $\theta$. تفسیر من این است که در نظر گرفتن انتظارات تحت خانواده نمایی، تابع $\phi(x)$ را هموار می کند. میخواستم بدانم که آیا اثرات مشابه «صافکننده» در خارج از خانواده نمایی نیز اتفاق میافتد. | انتظارات هموار خارج از خانواده نمایی |
58966 | من میدانم که این سؤال کاملاً گسترده است، اما نمیدانم در تصمیمگیری برای ایجاد (یا نه) یک بسته جدید برای R چه نکاتی باید باشد. از R به خودی خود استفاده کنید، بیشتر در مورد تصمیم به کامپایل اسکریپت های مختلف و ادغام آنها در یک بسته جدید. از جمله نکاتی که میتواند منجر به این تصمیمها شود، به موارد زیر (به شکلی کاملاً غیر جامع) فکر کردهام: * عدم وجود بستههای دیگر در همان زمینه فرعی. * نیاز به تبادل نظر با سایر محققین و امکان تکرارپذیری آزمایشها. و از جمله نکاتی که می تواند منجر به تصمیم مخالف شود: * بخشی از روش های مورد استفاده در برخی از بسته های دیگر وجود دارد. * تعداد توابع جدید برای توجیه ایجاد یک بسته مستقل جدید کافی نیست. شاید بسیاری از نکاتی را که میتوانستند در هر یک از این فهرستها قرار دهند، فراموش کرده باشم، و همچنین، این معیارها تا حدی ذهنی به نظر میرسند. بنابراین، چه چیزی باید توجیه شود، و در چه نقطه ای، شروع به گردآوری توابع و داده های مختلف در یک بسته مستند جدید و به طور گسترده در دسترس باشد؟ | چرا و چه زمانی یک بسته R ایجاد کنیم؟ |
103731 | من مطالعهای دارم که در آن بسیاری از پیامدها مانند درصد نشان داده میشوند و از رگرسیون خطی چندگانه برای ارزیابی تأثیر برخی از متغیرهای طبقهبندی بر این نتایج استفاده میکنم. میپرسیدم، از آنجایی که رگرسیون خطی فرض میکند که نتیجه یک توزیع پیوسته است، آیا مشکلات روششناختی در اعمال چنین مدلی برای درصدهایی وجود دارد که بین 0 تا 100 محدود شدهاند؟ | درصد نتایج در رگرسیون خطی |
91300 | من پنج مجموعه داده مختلف دارم و پنج طبقهبندی کننده را اعمال کردم. من همچنین پنج معیار ارزیابی عملکرد دارم: دقت، فراخوان، اندازه گیری F، دقت و AU-ROC. آیا طرح خوبی وجود دارد که بتوانم از آن برای مقایسه این نتایج استفاده کنم؟ | رسم نتایج عملکرد طبقه بندی کننده ها برای مجموعه داده های مختلف |
101485 | معمولاً در رایانه شخصی از چند رایانه اول استفاده می شود و رایانه های شخصی با تنوع کم حذف می شوند - زیرا تفاوت زیادی در داده ها توضیح نمی دهند. با این حال، آیا نمونههایی وجود دارد که رایانههای شخصی با تنوع کم مفید هستند (یعنی در زمینه دادهها استفاده میکنند. توضیحی بصری دارند و نباید دور ریخته شوند)؟ با تشکر | مثالی از PCA که در آن PC با تنوع کم مفید است |
35220 | من سعی می کنم یک QQ-plot با دو مجموعه داده حدود 1.2 میلیون نقطه، در R رسم کنم (با استفاده از qqplot و تغذیه داده ها به ggplot2). محاسبه به اندازه کافی آسان است، اما نمودار حاصل به طرز دردناکی کند است، زیرا نقاط زیادی وجود دارد. من تقریب خطی را امتحان کردم تا تعداد نقاط را به 10000 کاهش دهم (این همان کاری است که تابع qqplot به هر حال انجام می دهد، اگر یکی از مجموعه داده های شما بزرگتر از دیگری باشد)، اما سپس جزئیات زیادی را در دم ها از دست می دهید. اکثر نقاط داده به سمت مرکز اساساً بی فایده هستند - آنقدر با هم همپوشانی دارند که احتمالاً حدود 100 در هر پیکسل وجود دارد. آیا راه ساده ای برای حذف داده هایی که خیلی نزدیک به هم هستند، بدون از دست دادن داده های پراکنده تر به سمت دم وجود دارد؟ | حذف نقاط اضافی در نزدیکی مرکز QQ-plot |
94261 | برای برخی از متغیرهای دادههایم مقادیر گم شدهای دارم. من از OLS ترکیبی استفاده می کنم و 144 مشاهده دارم. من برای سه تا از متغیرها مقادیر کم دارم. کمتر از 10 درصد از داده های هر متغیر وجود ندارد. با این مقادیر از دست رفته چه کنم؟ آیا باید از انتساب چندگانه استفاده کنم یا فقط باید مشاهدات با مقادیر گمشده را حذف کنم؟ آیا در صورت استفاده از انتساب چندگانه می توانم نتایج را بایاس کنم؟ * * * با تشکر از پاسخ شما. من از دادههای کشور برای سالهای 2010-2012 استفاده میکنم، و دادههای گمشده مربوط به باز بودن تجارت و تولید ناخالص داخلی سرانه است. اطلاعات مربوط به تولید ناخالص داخلی سرانه برای سوریه و کوبا وجود ندارد. دادههای مربوط به باز بودن تجاری که به صورت (صادرات+واردات)/تولید ناخالص داخلی اندازهگیری میشود، برای سوریه و سایر کشورها مانند میانمار، ایران، لیبی و برای یک سال برای مجارستان، کامبوج و مالاوی وجود ندارد. من می توانم ببینم که کمبود داده ها برای سوریه تصادفی نیست، به دلیل جنگ و غیره. همین امر در مورد لیبی و ایران نیز صدق می کند. با این حال، برای باز بودن تجارت، مقادیر گمشده ای برای مجارستان و کامبوج نیز وجود دارد که به نظر من تصادفی است (نمی توانم دلایل دیگری را ببینم که چرا نباید تصادفی باشد). این متغیرها برای رگرسیون من جالب نیستند، آنها به عنوان متغیرهای کنترلی استفاده می شوند. | با مقادیر از دست رفته چه کنیم؟ |
91301 | من یک مجموعه داده از یک نظرسنجی با متغیرهای زیادی دارم، و برای انجام تحلیل رگرسیون میخواهم تعداد متغیرها را کاهش دهم. زیرا در حال حاضر من در واقع متغیرهای بیشتری نسبت به پاسخ ها دارم. من تجزیه و تحلیل مؤلفه های اصلی (PCA) / تحلیل عاملی اکتشافی (EFA) را امتحان کرده ام، اما «تفسیر» عوامل مختلف برایم دشوار است. با این حال، من فکر می کنم که می توان متغیرها را به خوبی بر اساس ملاحظات نظری به تنهایی گروه بندی کرد، بنابراین فکر کردم تحلیل عاملی تاییدی (CFA) ممکن است یک گزینه باشد. متأسفانه بیشتر منابع در مورد تکنیک های کاهش داده، من را به PCA/EFA راهنمایی می کنند. آیا کسی منابعی می داند که فرآیند CFA را توضیح دهد؟ از طرف دیگر، آیا کسی می تواند در مورد سؤالات خاص زیر به من کمک کند؟ 1) اگر تنها هدف من استفاده از نمرات عاملی در تحلیل رگرسیون است، آیا اصلاً باید نگران آمار برازش CFA باشم؟ به نظر من تنها چیزی که نیاز دارم امتیاز فاکتورهاست. 2) تا جایی که من متوجه شدم، می توان واریانس را محدود کرد یا یکی از متغیرهای هر یک از گروه ها را روی 1 تنظیم کرد، دوباره به منظور کاهش داده ها، آیا مهم است که از کدام رویکرد استفاده کنم؟ آیا انتخاب بر نمرات فاکتور من تأثیر می گذارد؟ یا به طور خاص تر، آیا تعیین یک بار عاملی در هر عامل به 1، مقایسه بین امتیازهای عامل است؟ 3) من با مرحله محاسباتی واقعی که از نتایج CFA به امتیازات فاکتور میرود، مشکل دارم. من از بسته لاوان در R استفاده می کردم و به نظر نمی رسد که نمرات فاکتور را بدست بیاورم. یا باید با استفاده از بارگذاری ها، دستی را محاسبه کنم؟ آیا کسی می داند چگونه این کار انجام می شود، یا می تواند بسته دیگری را توصیه کند؟ (من متوجه شدم که این بیشتر یک سوال برنامه نویسی است تا یک سوال مفهومی، اما با این وجود فکر کردم که آن را اضافه کنم، به این امید که کسی که ممکن است در مورد CFA در تئوری اطلاعات داشته باشد، تجربه عملی با آن را در R نیز داشته باشد) پیشاپیش متشکرم! توجه: در صورتی که بیانیه مربوط به حجم نسبتاً نمونه بالا نگران باشد. من واقعاً در اینجا چندان به استنباط اهمیت نمی دهم، زیرا نمونه من تقریباً کل جمعیت است. NB2: من قصد دارم از عوامل فقط در سمت راست رگرسیون استفاده کنم. متغیر سمت چپ از جای دیگری می آید. | تحلیل عاملی تاییدی برای کاهش داده ها (قبل از رگرسیون) |
91268 | من تست چاو را میدانم، یک آمار آزمون را محاسبه میکند و آماره آزمون از توزیع F پیروی میکند، اما نمیدانم فرض صفر در کدام سمت رد میشود. | ناحیه رد تست چاو در کدام سمت قرار دارد؟ |
108151 | می خواستم بدانم که آیا فیلتر کالمن به روشی برای تصحیح و کاهش خطاهای پیش بینی استفاده می شود در پیش بینی واقعی مفید است یا خیر. در زندگی واقعی، ما مقدار واقعی اندازه گیری را نداریم، بنابراین چگونه می توانیم از تصحیح فیلتر کالمن در مقادیر پیش بینی خود استفاده کنیم. پیشنهاد: به نظر شما در یک نقطه (t+n) تصحیح کالمن پیشبینی ما (در t+n) به عنوان اندازهگیری واقعی برای استفاده از آن برای تصحیح دادههای پیشبینی در (t+n+1) چیست؟ | کارایی تصحیح فیلتر کالمن |
87950 | من داشتم یادداشت های سخنرانی ML اندرو نگ در مورد خوشه بندی K-mean را می خواندم که در آن تابع اعوجاج به صورت زیر تعریف می شود $$J(c,\mu) = \sum^m_{i=1} || x^{(i)} - \mu_{c^{(i)}}||^2$$ من در مورد هنجار $L_2$ متحیر هستم، زیرا $|| x^{(i)} - \mu_{c^{(i)}}||^2 $ به معنای $\sum^m_{i=1} است (x^{(i)} - \mu_{c^ {(i)}})^2$ و این بدان معنی است که دو جمع $\sum_{i=1}^m$ در کل عبارت وجود دارد. من احساس می کنم که در اینجا یک چیز مهم را اشتباه متوجه شده ام. لطفا به خطا اشاره کنید. با تشکر به روز رسانی: مشکل یک مجموعه آموزشی داده شده $\\{x^{(1)}، ...، x^{(m)}\\}$، جایی که $x^{(i)} \in \ mathbb{R}^n$ و مرکزهای خوشه $\mu_1، \mu_2،...\mu_k \in \mathbb{R}^n$ هستند | تابع اعوجاج برای الگوریتم k-means |
58784 | من می خواهم رفتار (اقدام بعدی) یک کاربر اینترنتی که در یک خبرنامه مشترک شده بود را پیش بینی کنم. 4 عمل می تواند توسط کاربر انجام شود: 1. باز نکنید (/) 2. بخوانید 3. کلیک کنید 4. خرید یک سلسله مراتب در این لیست وجود دارد. در صورت خرید باید بخوانید و کلیک کنید. برای پیش بینی، من سابقه رفتار کاربران را دارم:  همانطور که می توانید ببینید، **3 مشکل وجود دارد**: 1. دو کاربر می توانند دو تاریخ اشتراک متفاوت داشته باشند (منشا یکسانی در جدول زمانی ندارند) 2. کاربران هر ایمیل را دریافت نمی کنند، زیرا هیچ کس مشترک در هر موضوع (لباس، تکنولوژی پیشرفته، ورزشی) 3. من هیچ اطلاعاتی در مورد موضوع ایمیل ندارم. در حال حاضر من در نظر دارم از درخت تصمیم، رگرسیون لجستیک، svm،... برای این کار نیاز دارم: * برای تبدیل رفتار به یک متغیر کمی، باز نکنید (/) = 0 ; خواندن = 1 ; کلیک= 2 ; Buy= 3 * برای پیش پردازش داده ها و من دو ایده اصلی دارم: **1/ آخرین متغیرهای رفتار را مانند این ایجاد کنید:** من بخشی از جنبه زمانی را در اینجا از دست می دهم، زیرا نمی دانم بین تاریخ دو اقدام تفاوت کوچک یا بزرگی وجود دارد. **2/ نمره ای ایجاد کنید که تمام رفتارها را در یک متغیر در بر گیرد.** می توانم از یک هسته گاوسی استفاده کنم تا وزن آن با گذشت زمان کاهش یابد.  برای این روش مقادیر دیگری غیر از (0,1,2,3) قابل آزمایش هستند ![i] .stack.imgur.com/gdT5l.png](http://i.stack.imgur.com/hGDmu.png) در اینجا من نمی توانم از رفتار دو عبور کنم به عنوان مثال، رفتارهای متوالی در درخت تصمیم. من قبلاً این کار را انجام ندادم، بنابراین اگر پیشنهادی دارید، در هدف گذاری ایده خود تردید نکنید. | داده کاوی و سری های زمانی: پیشنهاد الگوریتم |
87952 | چند بار در LMM یا GEE (با SPSS، اگرچه من شک دارم که مهم باشد - و ممکن است در تجزیه و تحلیل های دیگر نیز رخ دهد، اما اینها آنهایی هستند که من آن را دیده ام) چیزی را دیده ام که به نظر متناقض می رسد: یک متغیر پیوسته $X$ دارای مقادیر آزمایشی کاملاً متفاوت (Wald's یا $F$s) و $p$s تحت آزمایش اثرات مدل و تخمین پارامترها است. به عنوان مثال، من در اینجا یک GEE با $p = 0.003$ برای $X$ در آزمایش اثرات مدل دارم، اما $p = 0.728$ در تخمین پارامترها:  من میدانم که این دو $p$s برای متغیر طبقهبندی $Y$ میتوانند متفاوت باشند، زیرا آزمایشهای اثرات مدل بررسی میکنند که آیا هر یک از دستهها متفاوت است یا خیر. صفر، و اگر دسته مرجع به گونه ای باشد که تخمین دسته 1 کوچکتر و برای دسته 2 بزرگتر از دسته مرجع باشد، ممکن است تخمین های آن دسته ها به اندازه کافی با دسته مرجع متفاوت نباشد (به نظر می رسد که من هیچ چیز قابل توجهی نداشتم. تفاوت در تخمین پارامترها) حتی اگر تفاوت بین 1 و 2 باشد (که هنوز در آزمایشات اثرات مدل نشان داده می شود). این واضح است. اما من اکنون به یک متغیر پیوسته نگاه میکنم، با تنها یک تخمین پارامتر $b$ که، اگر شرایط تعاملی وجود نداشته باشد، دارای مقادیر تست یکسان و $p$s با آزمایشهای اثرات مدل است. با این حال، زمانی که یک تعامل بین $X$ و یک متغیر طبقهبندی $Y$ تعریف میشود، مقادیر ممکن است به شدت تغییر کنند، و من نمیدانم چرا. من فرض میکنم این فقط در تعاملات اتفاق میافتد، زیرا پارامتر زمانی تخمین زده میشود که پارامترهای دیگر روی صفر (پیوسته) یا به آخرین دسته (مقوله) ثابت شوند، و وقتی یک تعامل $XY$ تعریف میشود، تخمینها برای دستههای $Y$ تخمین $X$ را تحت تاثیر قرار می دهد (همانطور که می توان با این واقعیت مشاهده کرد که تخمین ها برای $X$ با تغییر دسته مرجع برای $Y$ تغییر می کنند). اگر من فقط $Y$ در مدل داشتم، میتوانم مدل را طوری تغییر دهم که شدیدترین دسته مرجع باشد، و میدیدم که آزمایشهای اثرات مدل تا حد معقولی شبیه آزمایشهای تخمین پارامترها هستند. اما به نظر می رسد تعاملات به نحوی متفاوت عمل می کنند. وقتی دسته مرجع را برای $Y$ تغییر میدهم، آزمایشهای تخمین پارامتر برای $Y$، $X$، و $XY$ تغییر میکنند (برای $X، p$ از $.103$ به $.728$ تغییر میکند)$. ، اما در آزمایشهای افکتهای مدل، فقط اثر X$$ تغییر میکند و به مقدار بسیار کمتری نسبت به تخمینهای پارامتر (بین $.001$ و $.014)$ تغییر میکند. 1. چرا وقتی دسته مرجع تغییر می کند، آزمایش اثر مدل برای X$ تغییر می کند؟ اگر آزمایش اثرات مدل نشان می دهد که آیا متغیر به طور کلی با صفر متفاوت است یا خیر، دسته مرجع نباید آن را تحت تأثیر قرار دهد (مثل اینکه تأثیری بر آزمایشات اثرات مدل برای $Y$ و $XY$ ندارد). 2. و چرا مقادیر و اهمیت آزمون اینقدر متفاوت است؟ چگونه منطقی است که یک اثر برای X$ در مدل وجود داشته باشد، اما وقتی میخواهم آن را پیدا کنم، تخمین پارامتر همیشه آنقدر کوچک است که با صفر تفاوتی ندارد؟ در عین حال، اثرات مدل برای $Y$ و $XY$ در مقایسه با تخمین های پارامتر بسیار سازگارتر به نظر می رسد. چه چیزی را از دست داده ام؟ | آزمایشهای اثرات مدل و تخمین پارامترها واقعاً چه چیزی را میگویند (زمانی که یک تعامل تعریف میشود)؟ |
52609 | داده هایی که من استفاده می کنم را می توان در اینجا پیدا کرد: http://uploadeasy.net/upload/nwv0.rar متغیر alvsloss نامیده می شود. من می خواهم توزیعی را با داده های مالی خود تطبیق دهم. اول از همه با توزیع عادی شروع کردم. pdf توسط: $\frac{1}{\sqrt{2\pi\sigma^2}}\operatorname{exp}\left\\{-\frac{\left(x-\mu\right)^ ارائه میشود. 2}{2\sigma^2}\right\\}$ و احتمال گزارش که باید حداکثر شود توسط $ \ln\mathcal{L}(\mu,\sigma^2) داده میشود. = \sum_{i=1}^n \ln f(x_i;\,\mu,\sigma^2) = -\frac{n}{2}\ln(2\pi) - \frac{n}{ 2}\ln\sigma^2 - \frac{1}{2\sigma^2}\sum_{i=1}^n (x_i-\mu)^2. $ که به عنوان راه حل $ \hat{\mu} = \overline{x} \equiv \frac{1}{n}\sum_{i=1}^n x_i، \qquad \hat{\sigma}^2 میدهد. = \frac{1}{n} \sum_{i=1}^n (x_i - \overline{x})^2. $ من می توانم این را در R از طریق mean(alvsloss) و sd(alvsloss) محاسبه کنم و مقادیر -0.0004270872 و 0.02304159 را بدست بیاورم یا کتابخانه (MASS) fitdistr (alvsloss، normal) را انجام دهم و میانگین راه حل sd2427087-0.00 را انجام دهم. 0.0230371244 (0.0004535429) (0.0003207033) خوب، من این را می فهمم. اما حالا مشکل من پیش می آید، من این را با توزیع t امتحان کردم. pdf توسط: $\textstyle\frac{\Gamma \left(\frac{\nu+1}{2} \right)} {\sqrt{\nu\pi}\,\Gamma \left(\frac) ارائه میشود {\nu}{2} \right)} \left(1+\frac{x^2}{\nu} \right)^{-\frac{\nu+1}{2}}\\!$ ورود به سیستم احتمال را می توان در اینجا پیدا کرد: http://de.scribd.com/doc/52587265/80/STUDENT%E2%80%99S-t-DISTRIBUTION فرمول (17.8) (x با $\epsilon$ نشان داده می شود. من نیستم فهمیدن اینکه $h_i$ از کجا در فرمول آمده است، اما این سوال اصلی من نیست.) سوال اول: به نظر من هیچ فرم بسته ای وجود ندارد. راه حل؟ سوال دوم: من fitdistr(alvsloss, t) را انجام می دهم و خروجی m s df -0.0004919768 0.0130128873 2.6340459185 ( 0.0003182568) (0.0003182568) (0.000203456) (0.000203453) (0.000203453) را می گیرم. gab 28 Warnungen (Anzeige mit warnings()) من نمی فهمم چرا الان سه پارامتر دارم؟ df $\nu$ است، اما بقیه؟ R داره چیکار میکنه؟ از آنجایی که هیچ راه حل شکل بسته ای وجود ندارد، حدس می زنم از یک الگوریتم تکراری استفاده می کند؟ آیا باید در مورد 28 اخطار زحمت بکشم؟ آنها عبارتند از: Warnmeldungen: 1: در dt((x - m)/s، df، log = TRUE) : NaNs wurden erzeugt 2: در dt((x - m)/s، df، log = TRUE) : NaNs wurden erzeugt 3: در dt((x - m)/s، df، log = TRUE) : NaNs wurden erzeugt 4: در dt((x - m)/s, df, log = TRUE) : NaNs wurden erzeugt 5: در dt((x - m)/s, df, log = TRUE) : NaNs wurden erzeugt 6: در dt((x - m)/s، df، log = TRUE) : NaNs wurden erzeugt 7: در dt((x - m)/s, df, log = TRUE) : NaNs wurden erzeugt 8: در log(s) : NaNs wurden erzeugt 9: در log(s) : NaNs wurden erzeugt 10: ورود به سیستم: NaNs wurden erzeugt 11: در log(s) : NaNs wurden erzeugt 12: in log(s) : NaNs wurden erzeugt 13: در ورود(ها) : NaNs wurden erzeugt 14: در ورود(ها) : NaNs wurden: (s): NaNs wurden erzeugt 16: In log(s) : NaNs wurden erzeugt 17: In dt((x - m)/s, df, log = TRUE) : NaNs wurden erzeugt 18: In log(s) : NaNs wurden erzeugt 19: In (ها) : NaNs wurden erzeugt 20: در dt((x - m)/s، df، log = TRUE) : NaNs wurden erzeugt 21: در dt((x - m)/s، df، log = TRUE) : NaNs wurden erzeugt 22: در dt ((x - m)/s، df، log = TRUE) : NaNs wurden erzeugt 23: در log(s) : NaNs wurden erzeugt 24: in log(s) : NaNs wurden erzeugt 25: in log(s) : NaNs wurden erzeugt 26: در ورود(ها): NaNs wurden erzeugt 25: s): NaNs wurden erzeugt 28: In log(s): NaNs wurden erzeugt و چگونه می توانم این توزیع را با پارامترهای تخمین زده رسم کنم؟ | برازش توزیع به داده های مالی |
52438 | من اولین دوره ام را می گذرانم که شامل تکنیک های رگرسیون، تحلیل واریانس ها و سری های زمانی است. اگر بخواهم از نظریه ریاضی در پشت آن روش ها استفاده کنم، چه چیزی را توصیه می کنید؟ به عنوان مثال، یادداشت های سخنرانی من می گوید که در روش حداقل مربع می توان نشان داد که تخمین ضرایب رگرسیون به شکل $$s.e.(\hat{\beta_0})=\sqrt{\frac{\sum_{i=1} است. n(y_i-\hat{y_i})^2}{n-2}\left (\frac{1}{n}+\frac{\bar{x}^2}{\sum_{i=1}^n (x-\bar{x})^2}\right )}$$ اما من دوست دارم شواهدی از این قبیل چیزها را یاد بگیرم. | توصیه کتاب برای تکنیک های رگرسیون |
102754 | من در حال مطالعه روابط ساختار-عملکرد در نورون ها هستم و عمدتاً بر روی همبستگی بین طول دندریتی و تحریک پذیری تمرکز می کنم. سوال من این است: ** هنگام جستجوی همبستگی ها، از کدام اصلاح مقایسه چندگانه باید استفاده کنم تا طبقه بندی کنم که کدام یک از همبستگی هایی که پیدا می کنم مهم هستند؟ ** من طول دندریت (آپیکال و پایه) را اندازه گیری کرده ام که 3 مقدار به من ارائه می دهد: دندریت آپیکال. طول، طول دندریت پایه و طول دندریت کل. من همچنین 5 پارامتر مختلف الکتروفیزیولوژیکی را در همان سلول ها اندازه گیری کرده ام. سوال تحقیق من این است: آیا پارامترهای الکتروفیزیولوژیک با طول دندریتی مرتبط (همبستگی) دارند؟ این بازده مقایسه 3×5 (3 پارامتر طول با 5 الکتروفیزیولوژیک). همانطور که انتظار می رفت، برخی از همبستگی های قابل توجهی پیدا کردم. حال میخواهم بدانم که آیا اهمیت این همبستگیها باید اصلاح شود یا خیر و اگر چنین است، از کدام روش باید استفاده کنم. تصحیح بونفرونی کمی بیش از حد محافظه کارانه به نظر می رسد، زیرا همبستگی بین ساختار و عملکرد یک نورون منطقی به نظر می رسد و قبلاً ثابت شده است که وجود دارند. | کدام تصحیح مقایسه چندگانه را باید استفاده کنم؟ |
91122 | من ایده کلی چیدن چندین مدل و ترکیب آنها برای ایجاد مدلی را درک می کنم که ممکن است بهتر از هر یک از مدل های جداگانه ای که از آن تشکیل شده است، عمل کند. سوال من در مورد مراحل واقعی مورد نیاز برای انجام این کار است. فکر من این است که شما از پیشبینیهای تک تک مدلها بهعنوان ویژگیها استفاده کنید و از رگرسیون لجستیک (برای یک مشکل طبقهبندی) برای آموزش آنها برای بدست آوردن مدل مجموعه خود استفاده کنید. مسئله ای که من نمی فهمم این است که از چه داده هایی استفاده کنم. اگر دادههای خود را به یک مجموعه آموزشی و یک مجموعه آزمایشی تقسیم کنید و مدلهای فردی خود را در مجموعه آموزشی آموزش دهید و از پیشبینیهای مجموعه آزمایشی به عنوان ویژگیهای مدل گروهی استفاده کنید، به این معنی است که باید مدل گروه خود را در مجموعه آزمایشی آموزش دهید. اگر اینطور است، چگونه مدل گروه خود را آزمایش می کنید؟ از چه داده هایی استفاده می کنید؟ آیا باید داده های خود را به 3 مجموعه تقسیم کنید - یکی برای آموزش تک تک مدل ها، یکی برای آزمایش مدل های فردی و آموزش مدل گروه و در نهایت یکی برای آزمایش مدل گروه؟ من حدس میزنم که مفاهیم این مجموعه من را گیج میکند زیرا به مجموعههای آموزشی و مجموعههای تست مربوط میشود. با تشکر | سوال کاربردی مدل های گروه ساختمان |
10044 | من 100 بیمار دارم و هر بیمار 10 اندازه گیری طولی کراتینین سرم دارد. نرخ های فیلتراسیون گلومرولی تخمین زده شده (eGFR) از فرمول MDRD شامل جنس، سن و کراتینین سرم محاسبه شد. eGFR متغیر وابسته و زمان متغیر مستقل در رگرسیون خطی برای هر بیمار است. 1. آیا رگرسیون خطی فرض X مستقل را نقض می کند و باید به جای آن از مدل های مختلط خطی استفاده شود؟ 2. آیا می توان از شیب های eGFR (که تخمین هایی با عدم قطعیت به جای اعداد اندازه گیری شده است) از هر بیمار (در رگرسیون خطی برای هر بیمار یا در مدل های ترکیبی اثرات تصادفی [چگونه شیب ها را برای هر بیمار جداگانه در مدل های مختلط تخمین زد؟]) استفاده کرد. به عنوان متغیر مستقل یا وابسته در سایر مدل های رگرسیون؟ متشکرم. | آیا شیب در رگرسیون خطی می تواند به عنوان متغیر مستقل یا وابسته در سایر مدل های رگرسیون استفاده شود؟ |
60528 | تفسیر p-value چیز بسیار دشواری است زیرا آنچه مشروع است و آنچه نیست بسیار به هم نزدیک است. در صورتی که فرضیه صفر $H_0$ درست باشد، p-value احتمال آمار حاصل از آزمون است. یعنی $\Pr(\mathrm{data}|H_0)$. بسیاری از مردم این اشتباه را با $\Pr(H_0|\mathrm{data})$ اشتباه می گیرند که اشتباه است. حالا به سوال من: من به طور تصادفی به یک آزمون t مستقل آنلاین برخورد کردم و نتیجه آن مقدار p 0.20 بود. تفسیر داده شده به شرح زیر بود: به احتمال 79.76٪ نسبت ها متفاوت است. سوال من: آیا این تفسیر مشروع است؟ یا همان سردرگمی است که در بالا ذکر شد (مثلاً احتمال $H_0$ را توصیف می کند). پیشاپیش متشکرم | آیا این تفسیر از p-value قانونی است؟ |
5972 | فرض کنید دو سکه مغرضانه داریم. احتمال پرتاب سر روی سکه اول $\alpha$ و احتمال پرتاب سر روی سکه دوم $1-\alpha $ است. هر دو سکه را $n$ بار پرتاب می کنیم و می گوییم موفقیت زمانی حاصل می شود که یک سر روی هر دو سکه باشد. اگر این متغیر تصادفی را با $X$ نشان دهیم، آنگاه $$X\sim B(n,\alpha-\alpha^2).$$ سوال این است که چگونه $\alpha$ را به درستی تخمین بزنیم. مشکل یک رویکرد استاندارد ($\alpha - \alpha^2=\frac{k}{n}$ که $k$ تعداد موفقیتها است) این است که تعداد موفقیتها ممکن است بیشتر از 0.25n$ باشد و در چنین حالتی دریافتیم که $\alpha$ یک عدد مختلط است. ما میتوانیم چنین مواردی را به عنوان $\alpha=0.5$ در نظر بگیریم، اما این تخمینگر دیگر بیطرفانه نیست. | برآورد احتمال موفقیت در توزیع دوجمله ای |
68389 | من مجموعه داده ای از قیمت های لحظه ای برق دارم که شامل سه نوع فصلی است: یکی در 24 ساعت، یکی در هفته و دیگری در یک سال. من می خواهم از یک بسته R ('tsDyn') استفاده کنم که نمی تواند با فصلی بودن مقابله کند، بنابراین ابتدا می خواهم هر سه فصلی بودن را حذف کنم، سپس یک مدل را با داده های غیرفصلی تطبیق دهم، یک پیش بینی انجام دهم و سپس فصلی ها را اضافه کنم، اگر ممکن است، به منظور تبدیل پیش بینی های من به شکل معقول. آیا این رویکرد معقول و ممکن است؟ و اگر بله، چگونه می توانم این فصل زدایی سه گانه را انجام دهم و سپس آن را در R لغو کنم؟ در مورد یک تفاوت ساده یک تاخیر، من فقط تفاوت فصلی را با 'cumsum()' خنثی می کنم، اما آیا چیزی شبیه به این برای مجموعه داده های من قابل اجرا است؟ | درمان داده های فصلی سه گانه |
56996 | من در شرف استفاده از این ورودی برای داده های خود هستم اما نمی توانم پیدا کنم که تحت کدام بسته ها کار می کند. تقریبا همه جا را جستجو کردم. m<-pdlglm(yy~pdl(zz,4,2)+sin(zz)+pdl(xx,4,4)) | glms تاخیر توزیع شده چند جمله ای |
51966 | من به داده های خرید روزانه در یک دوره چند هفته ای نگاه می کنم. به طور خاص، ما به درصد کاربرانی که در برنامه ما خرید میکنند علاقهمندیم (مهم نیست نوع خرید یا مبلغی که برای اهداف ما هزینه شده است). در هر روز، ممکن است حدود 10 هزار کاربر فعال و فقط حدود 30 نفر باشند که واقعاً خرید انجام می دهند (بازار سختی است!). سه عامل وجود دارد که به آنها علاقه مندیم، آنها را A، B و C می نامیم. هر عامل دارای دو سطح است. چند ردیف داده به این صورت هستند: # NU NP %خرید A B C تاریخ 1 12407 24 0.0019 0 0 2 2013-03-06 2 11774 37 0.0031 1 0 2 2013-03-03 30202.0305 3029.0305 2013-03-04 4 12679 41 0.0032 1 0 1 2013-03-03 5 12555 61 0.0049 0 1 2 2013-03-02 6 122594 5012301 0.001 12466 71 0.0057 0 1 2 2013-02-28 8 12089 61 0.0050 0 0 1 2013-02-27 در اینجا، هر ردیف مشاهده روزانه یک گروه از کاربران با مجموعه ای از عوامل A,B,C است، NU تعداد کل کاربران در آن گروه، NP تعداد کاربران گروه است که خرید انجام داده است و %buy فقط % از کاربران گروه است که خریدی انجام داده اند. برای راحتی، بیایید فرض کنیم در هیچ یک از گروهها روندهای متغیر زمانی مهمی وجود ندارد، که بدیهی است که میتواند تجزیه و تحلیل را پیچیدهتر کند (و در یک بازه زمانی کوتاه که ما به آن نگاه میکنیم احتمالاً به هر حال یک فرض خوب است). اولین فکر من این بود که ANOVA سه طرفه را با استفاده از %خرید به عنوان نتیجه مشاهده انجام دهم، اما بعد میدانم که اهمیت اندازههای نمونه را نادیده میگیرم. همچنین، من فکر میکنم که نسبتهای کوچک ممکن است به این معنی باشد که آزمایش متفاوتی نسبت به ANOVA معمولی ضروری است. **بنابراین سؤال من این است که واقعاً آزمون مناسبی که باید در اینجا انجام دهم تا به دنبال تفاوت های قابل توجه بین گروه ها و درون گروه ها باشم چیست؟** امیدوارم توضیح کافی برای روشن شدن این سؤال داده باشم. | آیا می توانم از ANOVA سه طرفه برای آزمایش تفاوت بین نسبت های کوچک استفاده کنم؟ |
18566 | یک مجموعه داده پزشکی وجود دارد که شامل 3 درمان است: A، B، و C. متغیر پاسخ بله/خیر است. با این حال، به دلیل یک دلیل پزشکی خاص، مجموعه داده باید به چندین زیر مجموعه داده تقسیم شود. سوال اصلی تحقیق مقایسه تفاوت نسبتها بین $P_A$، $P_B$ و $P_C$ است. اگر نیازی به تقسیم داده ها نداشتم، می توانستم از فاصله اطمینان همزمان {Agresti et al., (2008)} برای انجام یک مقایسه چندگانه بین این سه درمان استفاده کنم. با این حال، من نمیتوانم روش آماری مناسبی برای مقایسه نسبتهای چندگانه پیدا کنم وقتی یک مجموعه داده به چندین زیر مجموعه داده تقسیم میشود. میشه لطفا کسی در این مورد راهنماییم کنه؟ پیشاپیش سپاس فراوان | آیا می توان نسبت های متعدد را در مجموعه های زیر داده مقایسه کرد؟ |
114490 | قواعد زیادی برای انتخاب پهنای سطل بهینه در یک هیستوگرام 1 بعدی وجود دارد (به عنوان مثال نگاه کنید) من به دنبال قانونی هستم که انتخاب پهنای سطل بهینه را در هیستوگرام های _دوبعدی_ اعمال کند. آیا چنین قانونی وجود دارد؟ شاید یکی از قوانین شناخته شده برای هیستوگرام های 1 بعدی را بتوان به راحتی تطبیق داد، اگر چنین است، می توانید حداقل جزئیات را در مورد نحوه انجام این کار ارائه دهید؟ | عرض سطل بهینه برای هیستوگرام دو بعدی |
33721 | من باید اثرات درمان های مختلف را بر روی بقای افراد به مدت 1 هفته تجزیه و تحلیل کنم. اما: * دادهها *گروهبندی** هستند: افراد با 10 گروه گروهبندی شدند و احتمال بقا تحت تأثیر تعداد افرادی است که قبلاً مردهاند * دادهها **تودرتو هستند**: من تکرار دارم. * دادهها **درست سانسور شده** هستند: میخواهم تعداد افرادی را که بعد از یک هفته نمردهاند، لحاظ کنم. من از R استفاده می کنم و واقعاً نمی توانم هیچ بسته ای را پیدا کنم که برای مشکلم استفاده کنم. به نظر نمی رسد تجزیه و تحلیل ضعف تبلیغات همگروهی مناسب باشد. شاید به چیزی از **اپیدمیولوژی** برای اولین مشکل فکر می کردم (و آن را به عنوان احتمال آلودگی یا چیزی تجزیه و تحلیل می کردم. | تجزیه و تحلیل بقا برای داده های تودرتو، سانسور شده و وابسته |
73421 | ثابت نرمال کننده از موارد زیر چه مقدار یا حداقل تقریبی خواهد بود؟ من می خواهم از نمونه برداری خودداری کنم. $$f(\theta)=\exp(-k_1e^{-k_2\theta^2}-\theta^2)\qquad\theta\in(-\infty,\infty), \quad k_1,k_2>0 $$ در صورتی که امکان پذیر نباشد، کران پایینی **چند جمله ای** معتبر در $\log(f(\theta))$ چه چیزی را در نظر می گیرد. $k_1$ برای هر کسی که علاقه مند است، من به این عبارت پایان می دهم زیرا من یک پارامتر گاوسی را بر روی پارامترهای هسته (مربع نمایی) قرار می دهم و سعی می کنم از خلیج های متغیر استفاده کنم (بنابراین، یک کران پایین). | عادی سازی ثابت برای تابع توانی |
85622 | فهرستی از احتمالات کلاس $(p_1، p_2، \ldots، p_c)$ (که مجموع آنها 1 است) برای هر نمونه به من داده شده است. اکنون، من می خواهم این را با یک مدل (یادگیری تحت نظارت) تکرار کنم. چگونه می توانم به این موضوع نزدیک شوم؟ من می توانم از یک مدل رگرسیون جداگانه برای هر یک از $p_1، \dots، p_{c-1}$ استفاده کنم. اما احتمالات ممکن است از 1 بیشتر شود و همچنین مدل ها مستقل هستند که هر دو اطلاعات را از دست می دهند. من می توانم از یک روش طبقه بندی استفاده کنم که در آن سعی می کنم احتمالات را برای کلاس ها پیش بینی کنم. اما پس از آن ورودی برای هر نمونه یک کلاس واحد است (بزرگترین احتمال کلاس). در اینجا من جزئیات احتمالات داده شده را از دست می دهم. هدف در واقع تطبیق نزدیک احتمالات کلاس داده شده است. چیزی مستقیم تر و مناسب تر؟ | رگرسیون چندگانه با احتمالات کلاس |
10045 | من گزارش های دمای ساعتی و روزانه برای بسیاری از ایستگاه ها در http://data.barrycarter.info/ دارم. من مردم را تشویق می کنم آن را دانلود کنند، اما در 6.6G، پهنای باند زیادی مصرف می کند. آیا سرویسی وجود دارد که داده های «منافع عمومی» را به صورت رایگان میزبانی کند؟ من در مورد http://aws.amazon.com/publicdatasets می دانم، اما برای دسترسی به آن داده ها به یک حساب Amazon EC2 نیاز دارید. | میزبانی رایگان داده ها با منافع عمومی؟ |
94092 | من سیستمی با ساختار زیر دارم: $X_{t+1} = X_t + E_{t+1}$$E_{t+1} \sim N(0, \Sigma)$Y_{t+1} = f(X_{t+1})$ $Y_{t+1} \sim {\rm یکنواخت}(a_{t+1}, b_{t+1})$ بنابراین $X$ بردار پنهان است ایالت ها $E$ یک خطا است. $Y_{t+1}$ توسط $X_{t+1}$ از طریق یک تابع غیرخطی قطعی $f(.)$ تعیین میشود. $a_{t+1}$ و $b_{t+1}$ مشاهداتی در زمان $t+1$ هستند و شناخته شدهاند. با توجه به فهرستی از مشاهدات $(a_1، b_1)$، ...، $(a_{t}،b_t)$، میخواهم $P(X_t|(a_1,b_1,a_2,b_2,..., a_t,b_t))$. آیا راهی کارآمد برای انجام این کار در زمان واقعی وجود دارد؟ | الگوریتم فیلتر برای یک سیستم |
43881 | من میخواهم دادههای دما را برای برخی از محاسبات «چه میشد» شبیهسازی کنم. مشکل این است که من فقط یک سری زمانی از 10 مقدار داده دمای واقعی دارم. من میخواهم از دما بهعنوان ورودی شبیهسازی استفاده کنم، بنابراین به راهی برای تولید تعداد زیادی مقادیر دما که با 10 مقدار اصلی سازگار است نیاز دارم. احتمالاً خوب است که فرض کنیم آنها از یک توزیع نرمال آمده اند، اما من میانگین یا واریانس را نمی دانم. من هیچ راهی برای اثبات آن ندارم، اما شک دارم که 10 مقدار عملکرد خوبی برای نشان دادن محدوده دمای کامل داشته باشند. اگر از تابع «نمونه» برای شبیه سازی استفاده کنم، همانطور که در زیر نشان داده شده است، فقط مقادیر اصلی را برمی گردانم. این درست به نظر نمی رسد. اگر از تابع rnorm استفاده کنم، می دانم که واریانس آن را نمی دانم، بنابراین فکر نمی کنم که این نیز درست باشد. بنابراین، من با تابع «rt» (t-distribution) باقی ماندهام. در زیر نمونه ای از این مشکل آورده شده است. ori <- rnorm(n=10، mean=65، sd=5) #اصلی 10 نقطه داده num.sam <- نمونه (x=ori، اندازه=100، جایگزین = TRUE) #شبیه سازی با استفاده از نمونه num.tdis <- mean(ori) + (rt(n=100, df=10) * sd(ori)) #شبیه سازی با استفاده از توزیع t hist(ori, breaks=40:90) hist(num.sam, breaks=40:90) hist(num.tdis, breaks=40:90) سوالات من این است: 1. وقتی من فقط داده دارم (میانگین و واریانس نامعلوم) و آن منطقی است که فرض کنیم داده ها از یک توزیع نرمال آمده اند، آیا تولید داده برای شبیه سازی با استفاده از توزیع t مشکلی ندارد؟ 2. برای این نوع موقعیت، تنها زمانی که من از «rnorm» برای شبیه سازی استفاده می کنم این است که واریانس را بدانم (نه واریانس تخمین زده شده از داده ها)، درست است؟ 3. اگر یک شبیه سازی توزیع t برای این شرایط خوب است، آیا شرایطی وجود دارد که بهتر است فقط از داده ها نمونه برداری کنیم (مثلا 100 نقطه داده اصلی، 200 و غیره)؟ ویرایش: 1. از آنجایی که من از داده های اصلی برای تخمین میانگین و واریانس استفاده کردم، آیا درجات آزادی در خط سوم کد (برای `rt(...)`) باید از 10 به 9 کاهش یابد؟ یا 8؟ | با یک نمونه کوچک از یک توزیع نرمال، آیا با استفاده از توزیع t شبیه سازی می کنید؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.