_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
65566
فرض کنید داده های زیر را داریم: set.seed(123) data <- data.frame(x = c(rnorm(50, 1, 1), rnorm(50, 5, 2)), y = c(rep(' A', 50), rep('B', 50))) که نمودار جعبه زیر را به دست می دهد ('boxplot(data$x~data$y)`): ![boxplot](http://i.stack.imgur.com/paivs.png) حالا فرض کنید می‌خواهم آزمایش کنم که آیا دو نمونه پارامترهای مکان یکسانی دارند (میانگین و/یا میانگین). _در مورد واقعی من، داده ها به وضوح نرمال نیستند_، بنابراین من تصمیم گرفتم تست Wilcoxon-Mann-Whitney را مانند این اجرا کنم: wilcox.test(data$x ~ data$y) با این حال، من فرضیه جایگزین را می خواهم. برای اینکه B، فاکتور دوم «data$y» از توزیعی با پارامترهای موقعیت بالاتر می آید. من سعی کردم پارامتر «جایگزین» را روی «بیشتر» و «کمتر» تنظیم کنم، اما ظاهراً فرضیه‌های جایگزین آن چیزی نیست که به دنبال آن هستم. به عنوان مثال، جایگزین = بزرگتر به من می گوید فرضیه جایگزین: تغییر مکان واقعی بزرگتر از 0 است. `alternative = کمتر به من می گوید فرضیه جایگزین: تغییر مکان واقعی کمتر از 0 است. ** چگونه می توانم تابع Wilcox.test() را به منظور داشتن فرضیه جایگزینی که می خواهم (B از توزیعی با پارامترهای موقعیت بالاتر از A می آید) تغییر دهم؟ یا باید به جای آن از تست دیگری استفاده کنم؟**
چگونه می توانم Mann-Whitney U را هنگام استفاده از رابط فرمول R تفسیر کنم
65565
من در حال مطالعه MCMCglmm در R با استفاده از این دوره هستم \- کسی می تواند برای من توضیح دهد که پارامتر اعتقاد چیست، اولین بار در صفحه 12 ذکر شده است. من می خواهم آن را درک کنم، و رابطه آن با توزیع Wishart و پارامتر V است. > برای یک جزء واریانس واحد، Wishart معکوس دو پارامتر > اسکالر، V و nu را می گیرد. توزیع به جرم نقطه ای روی V به عنوان پارامتر > درجه اعتقاد گرایش دارد، nu به innity می رود. هنگامی که nu خیلی بزرگ نیست، توزیع تمایل به > انحراف به راست دارد، با حالت Vnu nu+2 اما میانگین > Vnu nu2 (که برای nu <2 رد نشده است). به عنوان یک تازه کار/غیر ریاضی به دنبال مطالب مبتدی در آمار بیزی هستم - من یک زیست شناس تکاملی هستم :)_
پارامتر اعتقاد (nu) چیست؟
65562
من یک مجموعه داده دارم که با استفاده از بسته optmatch در R به گروه های تطبیق مبتنی بر امتیاز گرایش تقسیم شده است. من در حال تلاش برای تخمین میانگین اثر درمانی بر روی نمونه تحت درمان هستم. می‌دانم که می‌توانم برآورد تطبیق ATT را مستقیماً با محاسبه تفاوت درون گروهی در متغیر نتیجه محاسبه کنم و سپس میانگین وزنی این مقدار را در بین گروه‌ها محاسبه کنم. با این حال، یک لایه طبیعی دیگر از گروه بندی در این مجموعه داده وجود دارد، و من می خواهم خطاهای استاندارد را در این سطح خوشه بندی کنم. تا آنجا که من می دانم، این کار از طریق رگرسیون ساده تر است. PI من فقط انجام یک رگرسیون با اثرات ثابت را بدون نگرانی در مورد وزن‌دهی پیشنهاد می‌کند، اما من فکر می‌کنم این به فرض اثرات ثابت درمان در بین گروه‌ها متکی است، زیرا برخی از گروه‌ها در مجموعه داده بسیار بیش از حد نشان داده شده‌اند (برخی از درمان‌ها با 25 کنترل مطابقت دارند، به عنوان مثال، در حالی که دیگران تنها با 1). بنابراین می‌پرسم: آیا راهی برای وزن‌دهی رگرسیون اثرات ثابت وجود دارد تا ماهیت نامتعادل گروه‌های منطبق را به درستی توضیح دهد؟ اگر کسی می داند که چگونه این کار را در Stata انجام دهد، ترجیح داده می شود، اما هر توصیه یا مرجعی بسیار قدردانی خواهد شد.
وزن رگرسیون FE با تطبیق کامل
46085
من اقلامی دارم که از دو ماده مختلف ساخته شده اند. برای هر ماده، مجموعه ای از 250 نمونه برداشتم و آنها را تحت آزمایشی قرار دادم که یا شکستند یا نشد. کدام آزمایش می تواند به این سوال پاسخ دهد - آیا تفاوت قابل توجهی بین نرخ شکست این دو ماده وجود دارد؟ من یک جدول احتمالی درست کردم، اما مطمئن نیستم که چگونه ادامه دهم - نوعی آزمون مجذور کای؟ $$ \begin{matrix} & \text{Broken} & \text{Unbroken}\\\ \text{Material A} & 2 & 248 \\\ \text{Material B} & 1 & 249\\\ \end {matrix} $$ تعداد نمونه‌های شکسته کم بود، همانطور که در جدول نشان داده شده است.
تست مناسب برای مقایسه دو مجموعه تست باینری؟
49055
مقاله Vapnik، Chervonenkis درباره همگرایی یکنواخت بسامدهای نسبی رویدادها به احتمالات آنها Theory of Probability and Its Applications, vol XVI, n. ، 1971. در آنجا نظریه همگرایی فرکانسهای نسبی محاسبه شده در هیستوگرام توضیح داده شده است -- درست است؟ سوال من یک سوال عملی است: چگونه می توانم آزمایش کنم که آیا هیستوگرام محاسبه شده در واقع به توزیع چگالی زیرین همگرا شده است یا خیر؟ علاوه بر این، آیا نظریه Vapnik، Chervonenkis به ما در مورد نحوه شکل دادن به هیستوگرام خود می گوید؟ به عبارت دیگر سطل های فرکانس مساوی بهتر است یا سطل های طول مساوی؟ در نهایت، نظریه Vapnik، Chervonenkis در مورد حجم نمونه چه چیزی را به ما پیشنهاد می کند؟ در خاتمه، من مرجع Vapnik، Chervonenkis را خوانده‌ام، اما به یک کتاب درسی توضیح‌دهنده‌تر یا صرفاً به برخی نکات نیاز دارم تا آن را به طور واضح به کار ببرم. PS: یک کنجکاوی، اما تفاوت بین سهم Vapnik، Chervonenkis در 1971 و قضیه Glivenko Cantelli چیست؟
در مورد همگرایی یکنواخت بسامدهای نسبی رویدادها به احتمالات آنها
81661
من باید یک تحلیل همسان انجام دهم. با این حال، من نمی توانم مرجع خوبی برای بهترین روش تطبیق پیدا کنم، زمانی که هر لایه ممکن است شامل موارد و کنترل های متعدد باشد. به عنوان یک مثال افراطی، بگویید می‌خواهیم موارد/کنترل‌ها را بر اساس تاریخ پذیرش آنها (مثلاً ظرف یک هفته) مطابقت دهیم. در هر هفته، ممکن است 10 مورد و 10 کنترل وجود داشته باشد. آیا باید آنها را به عنوان یک طبقه یا جداگانه به عنوان 10 جفت مطابقت داد؟ کدام راه دقت بالاتری می دهد؟ بیشتر کتاب‌هایی که من می‌خوانم فقط در مورد آنچه اتفاق می‌افتد صحبت می‌کنند اگر یک مورد/کنترل را نتوان برای تشکیل یک جفت با هم تطبیق داد و بنابراین برای افزایش دقت باید به جفت‌هایی که قبلاً همسان شده‌اند اضافه شوند.
روشی بهینه برای تطبیق موارد و کنترل‌ها در هر طبقه
82829
من باید چندین گونه از یک گزینه را آزمایش کنم، اما نمی توانم تضمین کنم که انواع مستقل هستند (مثلاً یک فرد ممکن است بیش از یک نوع را دیده باشد). همچنین نمی‌توانم بدانم کدام افراد بیش از یک نوع را دیده‌اند، و همچنین، اگر دو مورد دیده شده‌اند، ترتیب دیده شدنشان را هم نمی‌دانم. من چند سوال دارم: 1. آیا این می تواند نتایج قابل اعتمادی ارائه دهد؟ 2. چگونه می توانم حداقل حجم نمونه مورد نیاز برای 5% اهمیت را در R تخمین بزنم؟ 3. اگر احتمالاً نتوانم اندازه نمونه را در بین گروه ها ثابت نگه دارم، آیا می توانم تغییری در نتایج انجام دهم تا آن را تنظیم کنم؟ ویرایش: افزودن جزئیات بیشتر. من در حال آزمایش انواع مختلف برای یک تبلیغ هستم، اما نمی توانم مطمئن باشم که هر فرد معینی بیش از یک نوع را نبیند (من راهی ندارم که کاربران را به گونه ای تقسیم کنم که آنها فقط یک نوع را از طریق پلت فرم تبلیغات ببینند) . من همچنین هیچ راهی برای متوقف کردن کمپین های تبلیغاتی در بازدیدهای دقیقاً X ندارم. من فقط باید کمپین ها را در زمان واقعی تماشا کنم و زمانی که از آستانه اهمیت عبور کردند آنها را متوقف کنم. سوال من این است: آیا می توانم تحت این شرایط نتایج معنی داری از یک آزمون چند متغیره به دست بیاورم، چگونه می توانم حداقل حجم نمونه مورد نیاز را محاسبه کنم (یعنی آیا می توانم زمانی که این شرایط درست است، تجزیه و تحلیل توان انجام دهم)، و برای کنترل چه کاری می توانم انجام دهم. اندازه نمونه های مختلف؟
آزمون چند متغیره که در آن انواع مستقل نیستند؟
49052
**مشکل من**: اخیراً با یک آمارگیر ملاقات کردم که به من اطلاع داد که splines فقط برای کاوش داده ها مفید هستند و در معرض بیش از حد برازش قرار می گیرند، بنابراین در پیش بینی مفید نیستند. او کاوش با چند جمله‌ای ساده را ترجیح می‌دهد... از آنجایی که من از طرفداران پر و پا قرص اسپلاین‌ها هستم، و این برخلاف شهود من است، علاقه‌مندم بدانم این آرگومان‌ها چقدر معتبر هستند و آیا گروه بزرگی از _ضد اسپلاین وجود دارد یا خیر. فعالان_ آنجا؟ **زمینه**: وقتی مدل های خود را ایجاد می کنم، سعی می کنم از فرانک هارل، استراتژی های مدل سازی رگرسیون (1) پیروی کنم. او استدلال می کند که خطوط مکعبی محدود ابزار معتبری برای کاوش متغیرهای پیوسته هستند. او همچنین استدلال می‌کند که چندجمله‌ای‌ها در مدل‌سازی روابط خاص مانند آستانه‌ها، لگاریتمی ضعیف هستند (2). برای آزمایش خطی بودن مدل، او یک تست ANOVA را برای spline پیشنهاد می‌کند: $H_0: \beta_2 = \beta_3 = … = \beta_{k-1} = 0 $ من برای تطبیق بیش‌ازحد با spline در گوگل جستجو کردم، اما آنقدر پیدا نکردم. مفید (به غیر از هشدارهای کلی در مورد عدم استفاده از گره های زیاد). در این انجمن به نظر می رسد ترجیحی برای مدل سازی spline، Kolassa، Harrell، gung وجود دارد. من یک پست وبلاگ در مورد چند جمله ای ها پیدا کردم، شیطان بیش از حد برازش که در مورد پیش بینی چند جمله ای ها صحبت می کند. پست با این نظرات به پایان می رسد: > تا حدی نمونه های ارائه شده در اینجا تقلب هستند - چند جمله ای > رگرسیون به عنوان بسیار غیر قوی شناخته شده است. در عمل بسیار بهتر است که > از splines به جای چند جمله ای استفاده کنید. اکنون این من را بر آن داشت تا بررسی کنم که splines چگونه با این مثال کار می کند: library(rms) p4 <- poly(1:100, grade=4) true4 <- p4 %*% c(1,2,-6,9) روز <- 1:70 set.seed(7987) noise4 <- true4 + rnorm(100, sd=.5) reg.n4.4 <- lm(noise4[1:70] ~ poly(days, 4)) reg.n4.4ns <- lm(noise4[1:70] ~ ns(days,4)) dd <- datadist(noise4[1:70] , days) options(datadist = dd) reg.n4.4rcs_ols <- ols(noise4[1:70] ~ rcs(days,5)) plot(1:100, noise4) nd <- data.frame(days=1:100) lines(1:100, predict(reg.n4.4 , newdata=nd), col=orange, lwd=3) lines(1:100, predict(reg.n4.4ns, newdata=nd)، col=red، lwd=3) lines(1:100، predict(reg.n4.4rcs_ols، newdata=nd)، col=darkblue، lwd=3) legend(top، fill=c(نارنجی، قرمز، آبی تیره)، legend=c(Poly، Natural splines، RCS - ols)) تصویر زیر: ![مقایسه اسپلاین‌ها و چندجمله‌ای‌ها](http://i.stack.imgur.com/q34Vc.png) در نتیجه چیز زیادی پیدا نکردم که مرا متقاعد کند که در مورد اسپلاین‌ها تجدید نظر کنم، چه چیزی را از دست داده‌ام؟ 1. F. E. Harrell, Regression Modeling Strategies: With Applications to Linear Models, Logistic Regression, and Survival Analysis, Softcover reprint of hardcover 1st ed. 2001. Springer, 2010. 2. F. E. Harrell, K. L. Lee, and B. G. Pollock, Models Regression in Clinical Studies: Determining Relationships Between Predictors and Response, JNCI J Natl Cancer Inst, vol. 80، شماره 15، صفحات 1198-1202، اکتبر 1988. ## به روز رسانی نظرات باعث شد تعجب کنم که در محدوده داده ها چه اتفاقی می افتد اما با منحنی های ناراحت کننده. در بیشتر موقعیت‌ها، همانطور که مثال بالا نشان می‌دهد، از مرز داده خارج نمی‌شوم. من مطمئن نیستم که این به عنوان پیش‌بینی واجد شرایط باشد... به هر حال اینجا مثالی است که در آن خط پیچیده‌تری ایجاد می‌کنم که نمی‌تواند به چند جمله‌ای ترجمه شود. از آنجایی که بیشتر مشاهدات در مرکز داده ها قرار دارند، سعی کردم آن را نیز شبیه سازی کنم: library(rms) cmplx_line <- 1:200/10 cmplx_line <- cmplx_line + 0.05*(cmplx_line - quantile(cmplx_line, 0.7))^2 cmplx_line <- cmplx_line - 0.06*(cmplx_line - quantile(cmplx_line, .3))^2 center <- (length(cmplx_line)/4*2):(length(cmplx_line)/4*3) cmplx_line[center] <- cmplx_line[center] + dnorm(6*( 1:length(center)-length(center)/2)/length(center))*10 ds <- data.frame(cmplx_line, x=1:200) روز <- 1:140/2 set.seed(1234) نمونه <- round(rnorm(600, mean=100, 60)) نمونه <- نمونه[نمونه <= max(ds$x) & sample >= min(ds$x)] sample_ds <- ds[sample, ] sample_ds$noise4 <- sample_ds$cmplx_line + rnorm(nrow(sample_ds)، sd=2) reg.n4.4 <- lm(noise4 ~ poly(x, 6)، data=sample_ds) dd <- datadist(sample_ds) option(datadist = dd) reg.n4.4rcs_ols <- ols(noise4 ~ rcs(x, 7)، data=sample_ds) AIC(reg.n4.4) plot(sample_ds$x, sample_ds$noise4, col=#AAAAAA) خطوط (x=ds$x, y=ds$cmplx_line, lwd=3, col=black, lty=4) nd <- data.frame(x=ds$x) lines(ds$x, predict(reg.n4.4, newdata=ds)، col=orange، lwd=3) lines(ds$x, predict(reg.n4.4rcs_ols, newdata=ds)، col=lightblue, lwd=3) legend( bottomright، fill=c(سیاه، نارنجی، آبی روشن)، legend=c(خط واقعی، پلی، RCS - ols)، inset=.05) این نمودار زیر را نشان می دهد: ![یک نمودار خطی غیر چند جمله ای پیچیده تر](http://i.stack.imgur.com/ftXrr.png)
آیا اسپلاین ها بیش از حد به داده ها تناسب دارند؟
72219
استفاده از قانون Zipf برای انتخاب K ngram های برتر؟
31764
چگونه می توانم داده هایی را که برخی از مشاهدات نمی توانند در یک خوشه قرار گیرند، خوشه بندی کنم؟
103396
مقایسه شیب ها در مدل اثر مختلط
108311
اگر چند سری داده داشته باشم، a = [a1, a2, ... a100] ~ bimodal با mu_a1, mu_a2, sigma_a1, sigma_a2, b = [b1, b2, ... b100] ~ bimodal با mu_b1, mu_b2, sigma_b1 , sigma_b2, c = [c1, c2, ... c100] ~ bimodal با mu_c1، mu_c2، sigma_c1، sigma_c2، چگونه a، b و c را عادی سازی کنم تا توزیع یکسانی را دنبال کنند؟ بگویید، برای اهداف ترکیب داده ها؟ برای مثال، اگر a، b و c از یک توزیع گاوسی پیروی کنند، تنها کاری که باید انجام دهم این است که میانگین و مقیاس را به همان انحراف استاندارد کم کنم. اما در توزیع‌های دووجهی یا چندوجهی با میانگین‌های متعدد و انحرافات استاندارد چطور؟ پیشاپیش ممنون
112003
ANOVA اندازه گیری های مکرر دو طرفه با داده های نامتعادل
100803
چگونه 2 مدل خطی را با متغیر پاسخ یکسان مقایسه کنم؟
31496
آیا می توانید شیب های رگرسیون را از یک مدل ترکیبی مقایسه کنید؟
4768
این سوال در طول مصاحبه برای یک موقعیت تجاری با یک شرکت تجاری اختصاصی از من پرسیده شد. خیلی دوست دارم جواب این سوال و شهود پشت آن را بدانم. متشکرم **سوال آمیب: جمعیت آمیب با 1 شروع می شود. پس از 1 دوره می توان آن آمیب را با احتمال مساوی به 1، 2، 3 یا 0 تقسیم کرد (می تواند بمیرد). احتمال اینکه کل جمعیت در نهایت از بین بروند چقدر است؟**
47256
نمونه هایی از پیش بینی مدل سری زمانی VAR در R
81731
من سعی می کنم پیام های توییتر را طبقه بندی کنم. به عنوان مثال من توییت هایی در مورد زلزله جمع آوری کردم و یک طبقه بندی کننده در مورد آن آموزش دادم. تقریباً در همه توییت‌ها هشتگ خاصی درباره زلزله دیده می‌شود. هدف من این است که چنین طبقه بندی کننده ای را آموزش دهم تا سپس آن را در جریان توییتر اجرا کنم و توییت هایی را فقط به طور کلی مربوط به زلزله دریافت کنم. با این حال یک سوال من این است که اگر به عنوان مثال یک توییت جدید وارد شود که حاوی هشتگی نباشد که در تمام اسناد موجود در مجموعه داده آموزشی وجود دارد، آیا این روی کیفیت طبقه بندی تأثیر نمی گذارد؟ بنابراین آیا چنین رویکردی به توئیت‌های مربوط به زلزله به طور کلی تعمیم می‌دهد؟ یا فقط برای آن زلزله خاص که کلاسیفایر قطار روی آن باشد خوب است؟ اگر نه، چگونه می توانم چیزی کلی بسازم؟ با تشکر
آیا یک عبارت متداول بر کیفیت طبقه بندی اسناد متنی تأثیر می گذارد؟
88290
من می خواهم مقادیر روی محور y را با مقادیر محور x به عقب برگردانم. همانطور که می بینید، این رابطه خطی نیست. مقادیر y فقط مثبت هستند نمی توانند از 4 تجاوز کنند، مقادیر x همیشه مثبت هستند. آیا می توان (و فکر می کنید ایده خوبی است) موارد زیر را انجام دهید: * از متغیرهای ساختگی برای bin های مقادیر x استفاده کنید (مثلاً سطل های 0.5) * به عنوان یک محدودیت اضافی، مقدار ضریب متغیر ساختگی در bin i نمی تواند کمتر از مقدار متغیر ساختگی bin i-1 باشد به این ترتیب امیدوارم بتوانم یک تابع رگرسیون صعودی یکنواخت خوب از طریق داده ها بدست بیاورم. (من می خواهم از کاهش مقدار در انتهای محدوده X از تناسب LOESS جلوگیری کنم زیرا معنی دار نیست) آیا فکر می کنید این ایده خوبی است و آیا این امکان در R وجود دارد؟ پیشاپیش از شما متشکرم. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/w1FjH.jpg)
81733
من در حال توسعه یک الگوریتم تطبیقی ​​هستم، و نمی‌دانم که چرا وب‌سایت‌ها استفاده از تخمین نقطه‌ای را انتخاب می‌کنند، به عنوان مثال. شما 60٪ با شخص X مطابقت دارید. با توجه به اینکه به احتمال زیاد داده‌های گم شده وجود خواهد داشت، به‌عنوان مثال، به جای جریمه کردن نمره‌های خطا برای پاسخ‌هایی که مطمئن نیستیم، چرا یک فاصله زمانی ارائه نمی‌کنیم، مثلاً. شما بین 70-80٪ با شخص X مطابقت دارید. شاید این حتی انگیزه خوبی برای افراد برای تکمیل اطلاعات بیشتر باشد. آیا کسی می داند که به احتمال زیاد دلایل اصلی نشان دادن تخمین های نقطه ای و نه فواصل چیست؟
چرا الگوریتم های تطبیق از تخمین نقطه ای به جای فواصل استفاده می کنند؟
31494
آرگومان wid در تابع ezANOVA در بسته R ez دقیقا چیست؟
81734
NPS توضیح داد: از مشتری پرسیده می شود، چقدر احتمال دارد که [شرکت خود] را به یک دوست یا همکار توصیه کنید؟ و مشتریان در مقیاس 1-10 پاسخ می‌دهند. من تعداد زیادی نظرسنجی تکمیل‌شده NPS در ماه دریافت می‌کنم و ملزم به بررسی حوزه‌های مختلف کسب‌وکار NPS و گروه‌های تعاملی درون شرکت هستم که هر کدام دارای میانگین حجم نظرسنجی متفاوت هستند. من به دنبال محاسبه تعداد نظرسنجی هایی هستم که در آن اندازه گیری NPS از نظر آماری مرتبط می شود. • مروجین (امتیاز 9-10) مشتاقان وفاداری هستند که به خرید و معرفی دیگران ادامه می دهند و به رشد دامن می زنند. • منفعلان (امتیاز 7-8) مشتریان راضی اما غیر مشتاق هستند که در برابر پیشنهادات رقابتی آسیب پذیر هستند. • بدکاران (امتیاز 0-6) مشتریان ناراضی هستند که می توانند به برند شما آسیب بزنند و از طریق تبلیغات دهان به دهان منفی مانع رشد شوند. سپس درصد مشتریانی که تبلیغ کننده هستند از درصدی که مخالف هستند کم می شود.
نحوه محاسبه تعداد آماری مرتبط از نظرسنجی ها هنگام اندازه گیری NPS
60904
من دو گروه دارم - یک گروه که یک عکس از یک سیاستمدار با همسرش ارائه شد، یک گروه که سیاستمدار تنها بود. شرکت کنندگان در هر گروه همچنین به سؤالاتی (به عنوان یک آیتم در مقیاس لیکرت) در مورد احتمال رأی دادن به آن سیاستمدار پاسخ دادند. باید مقایسه کنم که هر گروه چقدر به آن سیاستمدار رای می داد و مقایسه کنم. بهترین آزمون آماری برای استفاده کدام خواهد بود؟
مقایسه دو گروه
34043
داده های واترمارکینگ برای داده کاوی
81737
من سؤالات ارسال شده در اینجا را در مورد نحوه برخورد با وضعیت عبارات تعاملی مهم اما تأثیرات «اصلی» ناچیز خوانده ام، و نکته اصلی من این است که بستگی به سؤال تحقیق شما دارد که چگونه نتایج خود را ادامه دهید و تفسیر کنید. از نظرات شما در مورد تفسیر من در زمینه سوال تحقیقم سپاسگزارم. فرضیه: رابطه بین قد و وزن در مردان قویتر از زنان است. $$Weight = a + b_1 \times Height + b_2 \times Male + b_3 \times (Height \times Mane) + e$$ نتایج: $b_1$ **به طور قابل توجهی متفاوت از صفر نیست. $b_3$، عبارت تعامل، مثبت است و به طور قابل توجهی با صفر متفاوت است. ** آیا می توانم نتیجه بگیرم که شواهدی در تأیید فرضیه خود پیدا کردم (که رابطه بین قد و وزن برای مردان قوی تر از زنان است)؟ ** متشکرم!
تفسیر اصطلاحات تعامل در صورتی که اثر اصلی ناچیز باشد
94280
من در حال بررسی چندین مطالعه هستم. من اطلاعات اصلی را ندارم. مطالعه‌ای که من به آن نگاه می‌کنم، میانگین‌ها، انحرافات استاندارد و مقادیر $U$ من ویتنی (با p$) را ارائه می‌دهد. (چگونه) می توانم از Mann-Whitney U به Z در R تبدیل کنم؟ [شاید استفاده از بسته ای مانند MAd.] این صفحه راهنمایی هایی را ارائه می دهد. من با این مشکل روبرو هستم که همان مقادیر $U$ را که محققین اصلی با استفاده از مقادیر میانگین ارائه شده ایجاد کردند، ایجاد نمی کنم. از آنچه می توانم بگویم - صفحات را جست و جو کرده ام و اکنون با کارشناسان صحبت کرده ام - این واقعاً نمی تواند اتفاق بیفتد. نزدیکترین چیزی که من پیدا کردم محاسبه بود: $$ Z = \frac{{\rm بزرگترین}\ U\ {\rm value} – (N_1N_2)/2}{N_1N_2(N_1+N_2+1)]/12} $$ اما من به data1 اصلی دسترسی ندارم \- فقط خلاصه $U$ است، بنابراین نمی توانم این کار را انجام دهم. داده‌ها از یک نمونه غیرعادی توزیع شده (n کوچک) بود - بنابراین من نمی‌توانم مجموعه داده‌ای متناظر را به طور معناداری تولید کنم. هدف از این تبدیل برای یک متاآنالیز بود. من باید در خلاصه خود به شمارش آرا $p$-value بسنده کنم. * * * اگرچه این در حال بسته شدن است، من داده‌های $U$ را که امیدوار بودم از آنها تبدیل کنم، یادداشت می‌کنم: 1 A. N. Antle، G. Corness، و M. Droumeva. محیط های دیجیتال_، تعامل. محاسبات، جلد. 21، شماره 1-2، صفحات 66-75، ژانویه 2009. یک مثال، محاسبه اندازه افکت ($z$) برای تمپو است. این کار انجام نشد، زیرا داده ها ناپارامتریک بودند - به دلیل حجم نمونه کوچک (به احتمال زیاد). GroupA: M = 123، sd = 108 GroupB: M = 71، sd = 59 ارائه شده U = 5.5، p < 0.0001 می توان کارهایی مانند «mes()» را از بسته «compute.es» انجام داد - اما نتایج در کنار نقطه قرار دارند زیرا داده ها ناپارامتریک هستند. mes(123, 71, 108, 59, 10, 10, 95) پیوند فوق روش بسیار خوبی برای محاسبه دقیقتر Mann-Witney $U$ (Wilcoxon) ارائه می دهد - و صفحه مرجع compute.es بسیار مفید است - اما داده‌های ناپارامتری از دست رفته، مشکل را غیرقابل حل می‌کنند (تا جایی که من می‌توانم بگویم). بنابراین، من از $p$-values ​​برای رویکرد شمارش آرا کمتر آموزنده استفاده خواهم کرد.
چگونه از Mann-Whitney U به Z (یا اندازه افکت دیگر) تبدیل کنیم؟
108317
برازش یک مدل ترکیبی با افکت های تصادفی و مکرر در SAS
83330
مقاله من شامل دو معادله Log fdi =(نمایه سرمایه گذاری، نوسانات نرخ ارز، تفاوت نرخ بهره، فساد، کیفیت بوروکراتیک، تلفن) Corruption=f(کیفیت بوروکراتیک، نظم و قانون رژیم سیاسی، رشد تولید ناخالص داخلی، taxtogdp، ثبات دولت) من هستم سردرگم هستید که کدام مدل را اعمال کنید؟ آیا کسی می تواند پیشنهاد دهد که باید حداقل مربع دو مرحله ای را انتخاب کنم؟ همچنین معتقدم که مدل من بازگشتی است، بر این اساس چگونه باید یک مدل بازگشتی را تخمین بزنیم. آیا روش استفاده از OLS در هر دو معادله است؟
94281
من از خروجی Eviews خود از یک مدل ARMA استفاده می کنم و ضرایب دیگر را برای انجام پیش بینی های خود در اکسل می گیرم. با این حال، من نمی‌توانم با باقی‌مانده‌های تخمین‌های درون نمونه ارائه‌شده توسط Eviews مطابقت دهم. در پیوست من محاسباتی را دارم که انجام می دهم. من فکر می کنم اشتباه مربوط به محاسبه MA(12) است. به عنوان چکیده، هدف پیش‌بینی نرخ تغییر سال به سال نرخ مبادله دلار/یورو است و من یک ARMA را با AR(1) و MA(12) تخمین زدم. پیشاپیش از کمک شما متشکرم! بهترین، فایل اکسل با محاسبات من را می توانید در اینجا پیدا کنید: انجمن Eviews
خروجی مدل ARMA و اکسل
94284
با توجه به 2 رویداد $E، F$، من می دانم که $P(E | F) = \frac{P(E \cap F)}{P(F)}$. با این حال گاهی اوقات از قضیه بیز به جای آن استفاده می شود: $P(E | F) = \frac{P(F | E) P(E)}{P(F|E)P(E)+P(F|E^ {c})P(E^{c})}$. با این حال، چه زمانی می‌دانم که از تعریف قبلی و ساده‌تر استفاده کنم و چه زمانی از قضیه بیز استفاده کنم؟ وقتی با مشکلی مواجه می شوم، چگونه می توانم تشخیص دهم که از کدام تعریف استفاده کنم؟
چه زمانی از قضیه بیز برای محاسبه احتمال شرطی استفاده کنیم؟
94285
من در حال جمع آوری داده های کالیبراسیون برای دستگاهی هستم که شامل سه متغیر $S$، $L$، و $x$ است. برای یک مختصات $(S, L)$، دستگاه مقدار مربوط به $x$ را تا سطح بالایی از دقت (در عرض 1%) در اختیار من قرار می دهد. من از دستگاه برای جمع آوری مقادیر $x$ برای طیفی از نقاط $(S, L)$ استفاده کرده ام. اکنون، من می خواهم معادله ای بنویسم که با توجه به دو متغیر دیگر، $S$ را تولید کند (و معادله ای مشابه برای $L$). در حالی که مقادیر ورودی برای متغیرهای شناخته شده من ممکن است دقیقاً ترکیبی نباشد که من آزمایش کرده ام، اما در محدوده آزمایش شده خواهد بود. برای برنامه من، دقت خروجی **مهم است** \- در حالت ایده آل، معادله رگرسیون من تقریباً به اندازه دستگاه دقیق خواهد بود. من یک معادله مدل _تقریبی_ برای داده ها دارم، و قبلاً از حداقل مربعات برازش برای برازش معادله مدل با داده هایی که جمع آوری کردم استفاده می کردم. در حالی که این یک تناسب معقول ارائه می دهد، معادله مدل به دلیل نقص های دنیای واقعی در دستگاه فیزیکی کامل نیست، و معادله دقت را برای مقادیر مشخصی از متغیرها از دست می دهد. استفاده از یک رگرسیون ناقص در نقاط داده کامل از یک جهت بیهوده به نظر می رسد. بدون دانستن شکل دقیق معادله مدل، چگونه می توانم این داده ها را به دقیق ترین شکل ممکن رگرسیون کنم؟
رگرسیون داده های دقیق
2559
مقاله زیر پیاده سازی R را به صورت موازی بر روی یک واحد پردازش گرافیکی (GPU) توصیف می کند. * Buckner و همکاران، بسته gputools محاسبات GPU را در R، BIOINFORMATICS، Vol. 26 شماره 1 2010، صفحات 134-135 در بخش آزمایشی، در یک کامپیوتر 4 هسته ای، عملکرد برنامه اجرا شده بر روی GPU را با عملکرد بدون GPU مقایسه می کنند. موارد زیر را بنویسید: > ما انتخاب کردیم که از یک رشته از محیط R در آزمایش خود استفاده کنیم، زیرا این روشی است که بیشتر کاربران با R تعامل دارند. بنابراین، نویسندگان با اجرای آزمایش های خود با استفاده از یک هسته، خط مبنا را پیدا می کنند. در حال اجرا در سریال). اما، شرایط تجربی برای سمت GPU نامشخص است (برای من). هنگام استفاده از GPU، برای کارایی باید همزمان از CPU استفاده کنیم. اگر نویسندگان از CPUهای باقیمانده در رایانه استفاده کنند (که انجام آن در یک الگوریتم بهینه شده معقول است)، آنگاه افزایش سرعت بر اساس CPUهای اضافی و همچنین GPUهای بیش از حد پایه خواهد بود (و بنابراین به طور مصنوعی با یک ضریب کمی کمتر افزایش می یابد. از 4). > این آزمایش چگونه باید تفسیر شود؟ به ویژه، می‌خواهم بدانم که آیا تفسیر بالا من درست است یا خیر، و اگر چنین است، این آزمایش در واقع به ما چه می‌گوید.
Gputools برای R: چگونه روش آزمایشی را تفسیر کنیم؟
80142
دو مجموعه مقایسه بین خوشه‌بندی اصلی و خوشه‌بندی جدید با استفاده از چندین شاخص و معیار عملکرد انجام شد. در زیر دو خوشه یا پارتیشن اولیه (اینها باید حقیقت یا پارتیشن های اصلی باشند)، دو دسته هستند زیرا نمونه ها از دو مکان مختلف گرفته شده است و به همین دلیل است که ما همیشه دو مجموعه پارتیشن داریم: ![توضیح تصویر را اینجا وارد کنید](http ://i.stack.imgur.com/gJxEl.png) تصویر زیر خوشه بندی های جدیدی را نشان می دهد که با استفاده از تنها زیر مجموعه ای از داده ها برای هر مکان به جای کل مجموعه داده به دست آمده است و سپس با نمونه‌های اصلی (به‌دست‌آمده با استفاده از کل مجموعه داده) مقایسه شدند، یعنی، اصلی سمت چپ با جدید چپ، اصلی راست با راست جدید. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/o5yGe.png) این دو پارتیشن با قسمت coutner اصلی خود (چپ با چپ، راست با راست) همانطور که گفتم مقایسه شدند و در زیر نتایج: نام Part1 (Lt) Part2 (Rt) 1 Purity 0.9633028 0.7431193 2 VI 0.2451685 1.1486369 3 NMI 0.8673525 0.4062956 4 تقسیم/پیوستن 8.0000000 62.0000000 5 رند تعدیل شده 0.8750403 0.2131243 0.2131243 6.2131243 6.2131248 6.2131248 6.2131248. Jaccard 0.8800522 0.4045466 **نکته:** `VI` مخفف Variation of Informaiton NMI مخفف Normalized Mutual Information ARI کوتاه برای Adjusted Rand Index 'split/join' نیز به عنوان van شناخته می شود. Dongen S` بنابراین واضح است که پارتیشن جدید سمت چپ بسیار شبیه به پارتیشن مشابه اصلی سمت چپ خود است. پارتیشن جدید درست بسیار متفاوت از همتای اصلی خود بود. نمونه ها از 1 تا 34 (محور y) شماره گذاری شدند و در پنج موقعیت مختلف (محور x) نمونه برداری شدند. اندازه گیری خلوص مطابق با موارد فوق بود و به راحتی قابل درک است. تا آنجایی که من می‌دانم سایر شاخص‌ها/متریک‌ها، هر کدام چیز متفاوتی را اندازه‌گیری می‌کنند. اما صادقانه بگویم به عنوان یک غیر آمارگیر نمی توانم با ریاضیات گسترده پشت هر یک از آنها ارتباط برقرار کنم. بنابراین درخواست من از جامعه این است که چگونه می توان این شاخص ها را با توجه به پارتیشن های موجود در تصاویر زیر بدون استفاده از اصطلاحات آماری _فانتزی_ (من قبلاً در جای دیگر با دسته ای از آنها برخورد کرده ام) بلکه به زبان انگلیسی ساده تفسیر کنیم. به عنوان مثال (لطفاً اگر اشتباه می کنم، من را تصحیح کنید)، موارد زیر را یاد گرفتم: 1. فاصله ژاکارد فاصله یک پارتیشن از دیگری را اندازه می گیرد، می توان آن را با شاخص 1-Jaccard بدست آورد، که 2. برای 'VI' منطقی است. به جای شباهت، تفاوت را اندازه گیری می کند، مقادیر آن مانند NMI بین 0 و 1 نیست، چیزی بین 0 و بیش از $2log k$ نیست. $k$ تعداد خوشه‌ها است، بنابراین اگر 4 باشد، در این مورد مقدار نباید بیشتر از 2.log4 = 2.772589 باشد. 3. «NMI» بین 0 و 1 است (NMI = 0، دو پارتیشن هیچ اطلاعاتی در مورد یکدیگر ندارند، NMI = 1، دو پارتیشن حاوی اطلاعات کامل در مورد یکدیگر هستند) 4. «ARI» همان Rand Index است اما تصحیح شده است. برای _ شانس. این معیار زمانی که شاخص رند مقدار مورد انتظار خود را می گیرد صفر است و حداکثر یک دارد. **سوال:** بسیار سپاسگزار خواهم بود که تفسیری بصری برای متریک تقسیم/پیوستن داشته باشم (همانطور که توسط Micans پیشنهاد شده است، که به عنوان متریک van Dongen S نیز شناخته می شود)، VI دقیقاً در رابطه با تصاویر مثال چه چیزی را اندازه گیری می کند. نشان داده شده، جاکارد چقدر با رند متفاوت است؟ لطفاً هر گونه تصور غلطی که در این سؤال ارسال شده است را اصلاح کنید. من می خواهم شهود پشت آن را درک کنم و از شما یاد بگیرم که چگونه این معیارها را درست تفسیر کنید و چگونه آنها می توانند به درک پارتیشن ها از زوایای دید مختلف کمک کنند. داشتن نتایج خوب است، اما اظهار نظر در مورد آنها یک هنر است، مستلزم درک عمیق ابزارها و فلسفه پشت آنها است، آیا می توانم این را با شما پیدا کنم؟ من امیدوارم.
43108
فرض کنید یک نمونه پیمایشی (که با نمونه گیری تصادفی طبقه ای به دست می آید) می تواند آزمون های نمایندگی کای اسکوئر را روی برخی از متغیرها قبول کند اما بقیه را نه. به نظر من ممکن است چندین راه حل وجود داشته باشد: 1. یک نمونه دیگر بکشید، اما این کار پرهزینه و زمان بر است. 2. نقاط پرت را که باعث شکست تست‌ها می‌شوند، حذف کنید، یعنی وزن صفر را به مشاهداتی که نمونه را غیرنماینده نشان می‌دهند، اختصاص دهید. 3. برای دستیابی به نماینده بودن، نمونه اصلی را دوباره وزن کنید. اما از چه وزنه هایی استفاده کنم؟ 4. مشاهدات بیشتری بکشید و به نمونه اصلی اضافه کنید؟ اما به نظر می رسد که این طرح نمونه برداری اولیه من را تغییر می دهد. هر گونه پیشنهاد و منابع کتاب درسی / مقاله دانشگاهی مفید خواهد بود.
اگر نمونه نظرسنجی نتواند آزمون نمایندگی کای دو را قبول کند، چه باید کرد؟
57230
با در نظر گرفتن عدم تعادل کلاس، چرا نمونه برداری تصادفی بیش از حد، به طور کلی، عملکرد یک SVM خطی را بهبود می بخشد؟ آیا به این دلیل است که تعداد بردارهای پشتیبانی برای کلاس اقلیت در نتیجه نمونه برداری بیش از حد افزایش یافته است (حتی اگر داده ها فقط تکرار می شوند)؟ ممنون که گوش دادید
SVM خطی و نمونه برداری تصادفی
57231
من می خواهم یک کمیت از یک توزیع خاص را محاسبه کنم. بنابراین من به cdf نیاز دارم. توزیع من یک توزیع Student's-t استاندارد است، می توان آن را به صورت \begin{align*} f(l|\nu) =(\pi (\nu-2))^{-\frac{1}{2} نوشت. }\Gamma \left(\frac{\nu}{2} \right)^{-1} \Gamma \left(\frac{\nu+1}{2} \right) \left(1+\frac{l^2}{\nu-2} \right)^{-\frac{1+\nu}{2}} \end{align*} این را می توان در R با استفاده از: تابع احتمال<-تابع(x)(پیشمبر*(پارام-2))^(-1/2)*گاما(پارام /2)^(-1)*گاما((پارام+1)/2)*(1+l^2/(پارام-2))^(-(1+پارام)/2) جایی که pinumber مقدار pi و param $\nu$ است. بیایید بگوییم $\nu=5$. سپس می توانم با وارد کردن مقدار معینی برای `l` خود، احتمال را بدست بیاورم. اما من می خواهم چگالی تجمعی را داشته باشم، زیرا بعداً می خواهم چندک را محاسبه کنم. من به چیزی مانند cumsum(function probability(5)) فکر کردم تا مقدار تجمعی را تا 5 به من بدهد. اما بدیهی است که این کار نمی کند. چگونه می توانم احتمال تجمعی و بعداً چندک را بدست بیاورم؟ ویرایش: خوب، اولین پیشرفت را پیدا کردم: integrate (function probability,-Inf,2) نقطه شروع خوبی خواهد بود، اما چگونه می توان کار دیگر را انجام داد؟
cdf و کمیت یک توزیع خاص را محاسبه کنید
43109
**هدف من تولید دو متغیر است که همبستگی دارند و یکی از آنها با توجه به یک متغیر گروه بندی ناهمگون است. من علاوه بر این از باقیمانده های طرح ریزی متعامد استفاده کردم و متغیرها را در جلو استاندارد کردم تا مطمئن شوم که همبستگی در مقدار مورد نظر باقی می ماند. برای معرفی ناهمگونی به یکی از متغیرها، موارد زیر را امتحان کردم: 1. تجزیه cholesky را برای $u=(u_1,u_2)، \ q[i] = c(1,1.01,1.02,1.03,...) انجام دادم. $Var(u) = \begin{pmatrix} 1 & \rho\cdot q[i] \\\ \rho\cdot q[i] & q[i]^2 \end{pmatrix}$ دلیل انتخاب این ماتریس کوواریانس این است که در حالی که واریانس $u_2$ با $q[i]$ افزایش می‌یابد، همبستگی در مقدار دلخواه $ باقی می‌ماند. \rho$. اما بدیهی است که این ناهمگونی را به $u_2$ معرفی نمی کند... 2. تلاش دوم تجزیه هر دو متغیر $u_1,u_2$ با اندازه نمونه n به دو قسمت به طول $\frac{1}{2}\ بود. cdot n$: $\ u_1 = (u_{1.1},u_{1.2})، u_2 = (u_{2.1},u_{2.2})$. اکنون تجزیه cholesky را برای $Var(u) = \begin{pmatrix} 1 & 0 & \rho & \rho\sqrt{q[i]} \\\ 0 & 1 & \rho & \rho\sqrt{ انجام دادم q[i]} \\\ \rho & \rho & 1 & 0 \\\ \rho\sqrt{q[i]} و \rho\sqrt{q[i]} & 0 & q[i] \end{pmatrix}$ پس از ایجاد چهار متغیر، $u_{1.1}،u_{1.2}$ را به یک $n\times 1 ادغام کردم بردار $. مشابه برای $u_2$. آزمایش نتیجه نشان می‌دهد که ناهمسانی اکنون در جایی است که باید باشد، زیرا واریانس $u_{2.2}$ با $q[i]$ افزایش می‌یابد. اما با افزایش $q[i]$، همبستگی ناپدید می‌شود، زیرا واریانس $u_2$ سریعتر از کوواریانس بین $u_1$ و $u_2$3 افزایش می‌یابد. سومین تلاشی که در نهایت انجام دادم این بود که فقط $u_2$ را ضرب کنم. با یک متغیر ساختگی $z_2 =\begin{cases} 1\\\ q[i] \end{cases}$ این رویکرد برای مقادیر کوچک $q[i]$ (همانطور که نمودار من نشان می دهد) اما به محض اینکه $q[i]$ به اندازه کافی بزرگ شد بر نامگذار و مخرج ضریب همبستگی غالب می شود به طوری که واریانس شرطی (بسته به مقدار $) z_2$) دیگر در $q[i]$ افزایش نمی یابد. کد من برای مورد (3): q <- seq(1.01،10،0.1) n <- 100 rho <- 0.5 sd_u1 <- numeric(0) sd_u2.1 <- numeric(0) sd_u2.2 <- numeric(0) cor_u1_u2 <- numeric(0) for(i in 1:length(q)){ u1 <- rnorm(n,0,1) u1 <- ( u1 - mean(u1) )/sd(u1) u2 <- rnorm(n,0,1) z2 <- c (rep(1,0.5*n),rep(q[i],0.5*n)) u2 <- u2*z2 u2 <- as.vector( ( diag(n) - u1%*%solve(t(u1)%*%u1)%*%t(u1) ) %*% u2 ) u2 <- ( u2 - mean(u2) )/sd(u2) z <- cbind( u1، rho*u1+sqrt(1-rho^2)*u2) sd_u1[i] <- sd(z[,1]) sd_u2.1[i] <- sd(z[,2][1:(0.5*n)]) sd_u2.2[i] <- sd(z[,2][(0.5*n+1):n ]) cor_u1_u2[i] <- cor(z[,1],z[,2]) } par(mfrow=c(3,1)) plot(q,sd_u1, type=l) plot(q,sd_u2.1, type=l, ylim=c(0,2)) lines(q,sd_u2.2,col=red) plot(q,cor_u1_u2, type =l) ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/5kDJn.jpg)
آیا راه بهتری برای ایجاد متغیرهایی با همبستگی خاص و یکی از آنها هتروسکداستیک وجود دارد؟
103936
تحلیل عدم قطعیت
11473
من یک ANOVA یک طرفه نسبتاً ساده را به عنوان بخشی از یک تمرین کلاسی انجام می دهم. من می‌خواهم مقادیر p اصلاح‌نشده جفتی را از R دریافت کنم، بنابراین می‌توانم یک آزمایش FDR متوالی را در یک بسته دیگر انجام دهم (می‌دانم که بسته‌های FDR در R نیز وجود دارد). من ANOVA خود را همانطور که در زیر نشان داده شده است تنظیم کرده ام، و به خوبی کار می کند، نتیجه می دهد، اما به نظر نمی رسد که بفهمم چگونه مقادیر p خام و اصلاح نشده را برگردانم. در نهایت، من می‌خواهم تست‌های جفتی را برای FDR و Bonferroni متوالی در R انجام دهم، اما به نظر می‌رسد این اولین قدم باشد. به نظر می‌رسد که «pairwiseCI» یا «multcomp» ممکن است من را به جایی که می‌خواهم برسم، برساند، اما در یافتن اینکه کدام یک کاری را که به دنبالش هستم انجام می‌دهد مشکل دارم. R> سر (d10) زمان نژاد 1 27.4 نوع.A 2 18.3 نوع.A 3 24.3 نوع.B 4 19.6 نوع.B 5 21.6 نوع.C 6 30.3 نوع.D a10 <- aov(time~breed,data=d10 ) # اهمیت کلی را گزارش می‌کند، اما در گزارش‌های خلاصه جفت (a10) # چیزی گزارش نمی‌شود فقط مقادیر تصحیح شده TukeyHSD(a10)
مقادیر p زوجی اصلاح نشده برای ANOVA یک طرفه؟
86262
احتمال در بازی پارتی مافیا/گرگ
109018
لاجیت چند متغیره
81811
من در حال انجام برخی اعتبارسنجی مدل و کالیبراسیون داده های آموزشی مناسب برای استفاده با مدل های glm و gam هستم و با عملکرد ecalp مشکل دارم. کسی قبلا این مشکل رو داشته؟ هر راه حل Model_calibration_table_TRAIN<-data.frame() DATA2<-data.frame(TRAIN$Latitude, TRAIN$SPECIES, TRAIN$GLM_pred, TRAIN$GAM_pred) Model_calibration_table_bnd<-data.frame(GLM=c GAM)) برای (m in 3:4){ w<-ecalp(DATA2[,m], DATA2[,2]) w<-as.data.frame(w) w$bin<-c(0.05,0.15,0.25,0.35,0.45, 0.55،0.65،0.75،0.85،0.95) caltest<-lm(w~bin, data=w, subset=w>-1) ctest<-cor(DATA2[,m], DATA2[,2]) Model_calibration_table_train$COR[m-2]<-ctest Model_calibration_table_train$calibration[m-2]<-caltest$coefficients[2 ] Model_calibration_table_train$bias[m-2]<-caltest$coefficients[1] } > خطا: نمی توان تابع ecalp را پیدا کرد
97536
من یک سری دماهای روزانه دارم و مدلی با استفاده از تابع dlmModTrig بسته dlm در R نصب کرده ام که از توابع مثلثاتی استفاده می کند که خوب است. با این حال من می‌خواهم جایگزین دیگری را امتحان کنم که تابع «dlmModSeas» است که از پارامترهای «s - 1» برای فصل‌های s در سال استفاده می‌کند. سوال من این است که از آنجایی که روزانه دارم آیا برای گرفتن یک جزء فصلی ماهانه به 12 - 1 پارامتر نیاز دارم یا 30 - 1 خواهد بود؟ به هر حال تعداد پارامترهای زیادی است... علاوه بر این، اگر بخواهم فرکانس های مختلف را بگیرم چه می شود؟ آیا برای هر فرکانس یک مدل قرار دهم و آنها را جمع کنم؟
فصلی بودن DLM با داده های روزانه
97530
بسیار خوب، بنابراین من این پاسخ واقعا خوب را در مورد نحوه عادی سازی داده های خود پیدا کردم. من کد @user25658 را با موفقیت در پروژه خودم پیاده‌سازی کردم، یک مدل خطی آموزش دادم و از آن برای پیش‌بینی استفاده کردم. بگویید «y = 0.4513869» مقدار عادی پیش‌بینی‌شده است که می‌خواهم آن را غیرعادی کنم. بر اساس کد نرمال سازی زیر، چگونه می توانم به این هدف برسم؟ نرمال شده = (x-min(x))/(max(x)-min(x)).
عادی سازی مقدار پیش بینی شده
46551
من در حال مطالعه تجزیه و تحلیل جدول اقتضایی بودم و کمی با تست دقیق فیشر و تست قدرت فیشر آزمایش کردم. اکنون می خواهم بتوانم جهت روابط را تعیین کنم. آیا کسی می تواند به من بگوید بهترین روش برای تعیین جهت رابطه در جداول احتمالی 2x2 چیست؟ آیا این فقط با استفاده از شانس است؟ یا آیا روش های استاندارد و رسمی برای محاسبه آن وجود دارد؟
جهت رابطه در جداول احتمالی 2×2
103930
متغیر تصادفی یکنواخت گسسته (؟) که تمام مقادیر گویا را در یک بازه بسته می گیرد
46555
برنامه خاص من به من نیاز دارد که یک مدل خطی با ساختار همبستگی قوی بین متغیرهای مستقل بسازم. ابعاد مسئله زیاد است، برای مثال 1 میلیون X 200. این 1 میلیون مشاهده از 200 متغیر است. از آنجایی که مشکل به شدت خطی است، باید از نوعی منظم سازی استفاده کنم. من می خواهم از کمند غیر منفی (به دلیل ساختار مشکل) استفاده کنم. من این را در R حل می کنم و از بسته پنالتی استفاده می کنم. اکنون این مشکلی است که من با آن روبرو هستم، محاسبه برای lambda1، پارامتر استاندارد L-1 با استفاده از تابع optL1 حدود 18 ساعت طول می کشد و شمارش می شود. در این مرحله من حتی برای مدل نهایی نصب نشده ام. این فقط مرحله ارزیابی lambda1 است. این خیلی طولانی است! مگر اینکه چیزی را از دست بدهم که باید زمان را کوتاه کنم. یکی از راه های انجام آن کاهش ابعاد مسئله است. من به دنبال ایده هایی برای انجام این کار هستم. متغیرهای مستقل در برنامه من یک ساختار همبستگی پایدار نسبتا قوی دارند. اگر من فقط بالاترین متغیرهای بسیار همبسته را انتخاب کنم و رگرسیون را اجرا کنم، پیامد آن چیست؟ آیا راه هوشمند دیگری برای کاهش ابعاد مشکل وجود دارد؟
کاهش ابعاد یک مسئله
94130
من در R و انتخاب ویژگی ها کمی مبتدی هستم و بسته Boruta را برای انتخاب (کاهش) تعداد متغیرهای خود (n=40) امتحان کرده ام. من فکر کردم که این روش همبستگی احتمالی بین متغیرها را نیز در نظر گرفته است، اما دو (از 20 متغیر انتخاب شده) همبستگی بالایی دارند و دو متغیر دیگر کاملاً همبستگی دارند. آیا این طبیعی است؟ آیا روش بوروتا نباید یکی از این دو را به عنوان بی اهمیت طبقه بندی می کرد؟ هر ورودی کمک بزرگی خواهد بود، پیشاپیش از شما سپاسگزاریم! Char. L.
آیا انتخاب ویژگی Boruta (در R) همبستگی بین متغیرها را در نظر می گیرد؟
94139
من در حال انجام برخی مدل‌سازی بیزی با استفاده از BUGS - JAGS هستم. وقتی از توزیع‌های چند متغیره استفاده می‌کنم، به سختی می‌توانم استنباط کنم که واقعاً چند گره تصادفی (یعنی غیر قطعی) وجود دارد. به عنوان مثال، اگر من باقیمانده ها را به عنوان چند متغیره نرمال مدل کنم: **در R:** صفر = c(0, 0, 0) I = diag(3) **مدل BUGS:** cov.mat ~ dwish(I, 3 + 1) resid[1:3] ~ dmnorm(صفر، cov.mat) واقعاً چند گره تصادفی در چنین مدلی نمونه برداری می شود؟ یا به طور کلی تر: چقدر پیچیده است؟ ماتریس کوواریانس (معکوس) 3 x 3 اما همه سلول ها تصادفی نیستند. یعنی [3،1] با [1،3] یکسان است. و در اینجا، وسیله مشاهده می شود / قطعی.
تعداد گره های تصادفی در توزیع چند متغیره بیزی؟
94137
من نوع زیر مجموعه داده پانل را دارم، بدون متغیر زمان. 20 کشور متغیر پانل هستند و داده های 48 کشور دیگر را ارائه می دهند. متغیرهای مستقل 6 متغیر (همبسته) هستند. همچنین متغیرهای وابسته به دلیل پانل متغیر همبستگی دارند. متغیر پانل indep. متغیرها (6) بخش متغیرها کشور 1 کشور 1 کشور 1 کشور 2 کشور 1 کشور 3 کشور 2 کشور 1 کشور 2 کشور 2 .... ... کشور 20 کشور 49 من می خواهم یک رگرسیون انجام دهم. با این حال، من 2 خوشه استاندارد خطای همبستگی دارم. آیا مدل اثر تصادفی / ثابت با تابع vce (خوشه ای) آزمون مناسبی برای تجزیه و تحلیل این مجموعه داده است؟ و آیا می توانم از آزمون هاسمن برای تصمیم گیری در مورد استفاده از افکت های ثابت یا تصادفی استفاده کنم، علیرغم اینکه این تست نمی تواند vce(خوشه ها) را در نظر بگیرد؟
مدل اثرات ثابت / تصادفی
81817
عادی سازی ویژگی ها در مجموعه آزمایشی برای یک شبکه عصبی
108315
توضیح در مورد تفسیر آزمون والد و آزمون نسبت احتمال
10356
آیا رگرسیون لجستیک زمانی که متغیر نتیجه بین 5 تا 95 درصد تقسیم می شود، سوگیری دارد؟
17141
چگونه به یک داور علمی با سواد آماری متوسط ​​توضیح می‌دهید که تنظیم برای مقایسه‌های چندگانه هنگام نمونه‌گیری از نمونه‌های پسین بیزی ضروری نیست؟
چرا معمولاً هیچ اصلاحی برای مقایسه های متعدد در آمار بیزی وجود ندارد
60428
من سعی می کنم از svmtrain (جعبه ابزار آماری) برای آموزش SVM خطی (دو کلاس) بر روی بردارهای ویژگی 1 بعدی استفاده کنم. ویژگی ها به طور کامل قابل تفکیک نیستند و طبقات متقاطع هستند. رویکرد ساده لوحانه جستجو برای آستانه بهینه برای یک طبقه بندی ساده است، اما می توان انتظار داشت که با استفاده از یک SVM خطی نتایج مشابه (یا حتی یکسان) به دست آورد. من از تمام پارامترهای پیش‌فرض استفاده می‌کنم و SVM آستانه متفاوتی می‌دهد و عملکرد بسیار بدتری نسبت به جستجوی یک آستانه دارد (دقت 0.73 با جستجوی آستانه در مقابل دقت 0.66 با SVM). انگیزه فرآیند به شرح زیر است: در حالی که بردارهای 1 بعدی را می توان با استفاده از یک آستانه ساده به 2 کلاس تفکیک کرد، زمانی که بعد > 1 باشد، رویکرد آستانه امکان پذیر نیست و به SVM (یا روش های مشابه) برای یافتن یک جداسازی نیاز دارد. برای اطمینان از پیکربندی و استفاده صحیح از SVM، ابتدا انتظار دارم با استفاده از جستجوی آستانه و SVM روی بردارهای 1 بعدی، نتایج بسیار مشابهی دریافت کنم. خوشحال می شوم بدانم چه اشتباهی انجام می دهم تا این نوع تفاوت در عملکرد به دست آید.
نحوه آموزش صحیح SVM بر روی یک مجموعه داده 1 بعدی
107894
من با آمار مشکل دارم. من به دنبال این هستم که آیا تغییر در غلظت یک ماده خاص بر شدت جذب حشرات به سمت آن تأثیر می گذارد یا خیر. من این کار را با طعمه گذاری تله حشرات با این ماده در غلظت های مختلف انجام دادم. من تله ها را به صورت جفتی با تله های جفتی که غلظت های متفاوتی دارند پخش کردم. اکنون داده‌هایی که در اختیار دارم کمی شبیه به این است: بیشتر : کمتر 6 : 0 1: 0 3 : 1 1 : 0 15: 3 کاری که باید انجام دهم این است که نشان دهم حشرات غلظت‌های بالاتر طعمه را ترجیح می‌دهند. ادغام داده ها و استفاده از $\chi^{2}$ یک گزینه است، اما نمی دانم بهترین گزینه است یا خیر. تله گذاری در نقاط مختلف در طول یک ماه انجام شد بنابراین ممکن است عوامل اغتشاش دخیل باشد. پیشاپیش متشکرم ویرایش: این تنها بخش کوچکی از اطلاعات کامل من است. در مجموع من حدود 40 جفت ارزش برای مقایسه و حدود 300 حشره صید دارم. این فقط یک بخش کوچک، اما نماینده است.
ترکیب تست‌های $\chi^{2}$
70946
من سعی می‌کنم میانگین‌های ضربه‌زنی منطقه‌ای را سال به سال مقایسه کنم (با استفاده از دوره‌های زمانی قابل مقایسه، مثلاً آگوست هر سال)، اما به آنچه فکر می‌کنم یک عدم تعادل نمونه است، برخورد می‌کنم. این یک مثال افراطی است، اما فرضاً یک بازیکن یک روز 10 بر 10 می‌رود (دو سر) و در همان روز نسبی سال بعد، 1 به 1 می‌رود. در هر دو مورد، میانگین ضربه زدن او در آن روز 1000 است. با این حال، واضح است که او روز اول خیلی بهتر عمل کرد، اما از منظر متوسط، تفاوتی وجود ندارد. به دلیل داده های منطقه ای و مفروضات دوره زمانی که باید استفاده کنم، گاهی اوقات 25 مشاهده در یک روز و 1 مشاهده در همان روز نسبی سال بعد خواهم داشت. من یک آزمایش Wilcoxin-Mann-Whitney بر روی نمونه های ماهانه انجام دادم که دو سال را با هم مقایسه کردند (از آنجایی که داده های روزانه خیلی کوچک به نظر می رسد) و آنها به طور کلی تفاوتی در میانه ها نشان نمی دهند، اما من به دنبال نظراتی در مورد اگر/چگونه هستم. برای متعادل کردن داده ها توسط at-bats، به جای اینکه کاملاً از میانگین ضربه زدن خارج شود. به دلیل روش جمع آوری، من فقط نمونه دارم و در این مرحله نمی توانم اطلاعات اضافی را جمع آوری کنم.
70300
توابع فعال سازی
90624
من دو نمونه داده چند جمله ای دارم که هر دو دارای دسته های گسسته 'N' هستند. من می دانم که اگر توزیع دو نمونه متفاوت است، یک آزمون کولموگروف-اسمیرنوف به من اطلاع می دهد. اما چگونه می توانم از نظر آماری آزمایش کنم که یک دسته خاص به طور قابل توجهی در یک نمونه نسبت به دیگری بیش از حد نشان داده شده است؟
چگونه آزمایش کنیم که آیا یک مقدار در یک نمونه در مقایسه با نمونه دیگر بیش از حد نشان داده شده است
10353
چگونه ANOVA اندازه گیری مکرر را با سه یا چند شرط ارائه شده به ترتیب تصادفی تجزیه و تحلیل کنیم؟
90622
من سعی می‌کنم مدلی را در نظر بگیرم و این ظن را دارم که کاری که انجام می‌دهم درست نیست. داده‌ها ردیابی می‌کنند که چه نسبتی از مردم تصمیمی گرفته‌اند و چه عواملی هنگام تصمیم‌گیری فعال بوده‌اند، یعنی چیزی شبیه به این: [1،0،1،0، 23٪] [1،1،0،1، 41٪ ] و غیره... من همچنین می دانم که هر گروه چقدر بزرگ است. هدف پیش‌بینی درصد بر اساس ورودی باینری است. فکر اولیه من این بود که مدل نمی تواند یک ترکیب خطی مستقیم باشد، البته فقط به این دلیل که خروجی محدود است. این دقیقاً یک رگرسیون لجستیک نیز نیست، زیرا خروجی یک برچسب نیست، بلکه میانگین برای هر گروه است. اولین برداشت من تبدیل خروجی به روشی شبیه رگرسیون لجستیک به log (p/(1-p)) و برازش رگرسیون خطی بود. این به من نتایج مناسبی داده است، اما من احساس آزاردهنده ای دارم که این کاملاً درست نیست. علاوه بر تبدیل خروجی، من همچنین نگران این هستم که نگاه کردن به ورودی به عنوان اعداد، زمانی که آنها واقعاً مقادیر باینری را نشان می دهند، احتمالاً بهترین راه نیست. بنابراین سوال من این است که اگر این راه درستی نیست، آیا مدل‌هایی وجود دارند که به این نوع موقعیت خاص رسیدگی کنند؟ من باید به دنبال چه چیزی باشم؟ [ویرایش برای شفاف‌سازی] از نظرات/پاسخ‌ها به نظر می‌رسد که توضیحات من در مورد داده‌ها کمی کم بود، بنابراین در اینجا کمی بیشتر توضیح داده می‌شود، و همچنین اینکه چرا من در مورد استفاده از رگرسیون لجستیک نامطمئن هستم. من داده های مشابه را نشان خواهم داد. فرض کنید محصولات دارای مجموعه ای از ویژگی های باینری بودند و محصولات مختلفی به مشتریان ارائه شد و نتیجه (خرید/عدم خرید) ثبت شد. سپس مجموعه داده خام به نظر می رسد: F1,F2,F3,... Fn, Buy/No Buy 1, 1, 0, .. 0, 1 1, 1, 1, .. 1, 0 که در آن هر ردیف یک محصول خاص و کاری که مشتری انجام داده است. اکنون می توانم اینها را بر اساس محصولات یکسانی که ویژگی های یکسانی دارند جمع آوری کنم و به سادگی نسبت خرید و همچنین تعداد مشتریانی را که با آن انتخاب ارائه شده اند ثبت کنم. این در اصل چیزی است که من دارم. من می‌توانم دوباره به مجموعه داده اصلی تفکیک کنم و یک رگرسیون لجستیک روی آن اجرا کنم، اما خود گروه‌ها بسیار بزرگ هستند و اندازه‌های بسیار متفاوتی دارند. علاوه بر این من 2 مشکل دارم. اول، می‌توانم گروه‌های مصنوعی را بازسازی کنم که نسبت مشابه اصلی را داشته باشند (یعنی اگر 4% خریداری شود، 4 ردیف خرید، 96 ردیف بدون خرید بسازید)، اما نسبت‌های خرید/عدم خرید بسیار کوچک هستند، که به معنای بازسازی گروه‌های بزرگ است. به درستی تقریب. دوم، اندازه گروه ها بسیار متفاوت است، و من معتقدم ترکیب گروه در نمونه کامل باید ترکیبی مشابه با اصلی داشته باشد، که به معنای ایجاد گروه های بالقوه بسیار بزرگ است. به همین دلیل است که من اساساً تعجب می‌کردم که آیا راهی برای کار کردن مستقیم مجموعه داده‌های بسیار کوچک‌تر، بدون نیاز به بازسازی مجموعه داده‌های غول‌پیکر مصنوعی وجود دارد یا خیر. رویکرد فعلی من استفاده از رویکرد نزولی گرادیان، وزن دادن به مشاهدات بر اساس اندازه گروه بوده است، اما می‌دانستم که آیا راه هوشمندتری برای مدیریت این موضوع وجود دارد یا خیر!
مدل رگرسیونی که در آن خروجی یک احتمال است
60424
من از PCA به عنوان یک روش کاهش ابعاد قبل از تغذیه داده ها در طبقه بندی کننده استفاده می کنم. من معمولاً فقط دو یا سه رایانه شخصی اول را انتخاب می کنم. داده‌های معمولی شامل عواملی مانند طول، عرض، ارتفاع، وزن، خروجی انرژی و سایر ویژگی‌های کلیدی است. در نهایت من فقط از چندین امتیاز اولیه PCA به جای فاکتورهای اصلی استفاده می کنم. **سوال من این است**: اگر بخواهم عوامل ترکیبی مانند مساحت = عرض*طول، انرژی در واحد حجم یا مساحت سطح = (طول*عرض + طول*ارتفاع + عرض*طول) را لحاظ کنم. علاوه بر عوامل ساده ای که وارد الگوریتم PCA می شوند، آیا انتظار می رود که این الگوریتم از نظر اطلاعاتی که انتظار می رود در چندین مؤلفه اصلی وجود داشته باشد، اضافه، کم یا خنثی باشد؟ در مورد گنجاندن چندین تغییر از یک فاکتور مانند طول^2، طول^3 چطور؟
منظور از استفاده از متغیر مرکب در PCA چیست؟
90628
مقاله‌ای به من داده شد که گزارشی از مطالعه‌ای بسیار شبیه به مطالعه‌ای که آزمایشگاه من می‌خواهد انجام دهد، به من داده شد. اما، متوجه شدم که برای متغیر مورد علاقه، Duration، SD ها بزرگتر از میانگین هستند... از آنجایی که این مدت در دقیقه اندازه گیری می شود، هرگز نمی تواند منفی باشد و این برای من بسیار عجیب به نظر می رسد. این در 2 مطالعه گزارش شده اتفاق افتاده است که یکی از آنها در زیر آمده است. فراتر از آن، این یک طراحی ترکیبی است. کنترل v درمان (بین گروه ها)، و Time1، Time2، Time3 (تکرار اقدامات). در اینجا میانگین ها (SDs)، N > 200 Time1 Time2 Time3 Control 15.1 (14.6) 14.4 (14.8) 13.3 (15.7) درمان 14.8 (13.2) 10.0 (12.2) 8.2 (9.9) ... آنها یک PNOVA را گزارش کردند <.001. از من خواسته شد که از این به عنوان مبنایی برای تجزیه و تحلیل توان برای تعیین اندازه نمونه برای مطالعه خود استفاده کنم. من کاملاً مطمئن هستم که این نشان می‌دهد که داده‌ها غیرعادی هستند یا دارای نقاط پرت هستند و من برای تعیین اندازه نمونه بر این اساس احساس راحتی نمی‌کنم. آیا من خیلی دور از پایگاه هستم؟
SD بزرگتر از میانگین، مقیاس غیر منفی
9549
فرض کنید کلاسی متشکل از 800 دانش آموز دارید و به دنبال مجموعه ای از ارزیابی ها، هر دانش آموز یک نمره خام دارد. * این نمرات خام چگونه باید به درجه نهایی تبدیل شوند؟ * آیا این ایده خوبی است که نمرات خام را به یک توزیع نرمال تبدیل کنیم؟
آیا نمرات باید بر اساس توزیع نرمال به دانش آموزان اختصاص داده شود؟
108319
چگونه تفاوت بین دو سری زمانی را مقایسه کنیم؟
113518
بهترین راه برای نمایش داده های زیر به صورت گرافیکی چیست؟ آیا می توانم از هیستوگرام سال خروجی به ازای هر نفر استفاده کنم سرمایه استخدام شده 2010 16.3 واحد/سالانه 40000 پوند ص. 33000 پوند p.p 2014 10.8 واحد در سال 30000 پوند p.p
بهترین راه برای نمایش داده ها
83498
در مقاله‌ای توسط روسیو و کروکس در سال 1993 («جایگزین‌هایی برای انحراف مطلق میانه»، صفحه 1274، پیوند به pdf)، به شاخصی برخوردم که در نظر دارم از آن استفاده کنم. فرمول این است: $$ Sn = C\, {\rm median}_i \\{{\rm median}_j |x_i-x_j|\\} $$ روشی که من فرمول را خواندم به این صورت است که برای هر $X_i$ I تفاوت را از هر یک از مقادیر دیگر در نمونه بگیرید. سپس، دوباره به ازای هر X_i$، میانه مقادیری را که می‌گیرم، می‌گیرم. در نهایت میانه مقادیر میانه ای را که در مرحله قبل به دست آوردم می گیرم و آن را در پارامتر $C$ ضرب می کنم که به گفته نویسندگان $$ C= 1.1926 است. $$ من به هیچ وجه آمارگیر نیستم و منظور نویسندگان را نمی فهمم وقتی می گویند که مقدار $C$ از طریق یک فرض مجانبی به دست آمده است. چیزی که من می دانم این است که داده های من به طور معمول توزیع نمی شوند و اگر سعی کنم آنها را استاندارد کنم، در برابر عادی سازی مقاومت می کنند. به همین دلیل است که من سعی می کنم شاخصی پیدا کنم که بتوانم داده ها را حول یک نقطه مرکزی که به تقارن در توزیع نیاز ندارد رتبه بندی کنم (بنابراین، از MAD استفاده نمی کنم). **سوال من این است: آیا باید فاکتور $C$ را در معادله حفظ کنم؟** فرض اساسی چیست؟ به نظر می‌رسد می‌دانم که شامل نوعی توزیع گاوسی است (چیزی که من به عنوان توزیع عادی می‌شناسم) اما از آنجایی که داده‌های من به طور معمول توزیع نمی‌شوند، مطمئن نیستم که چه مقدار برای $C$ باید اعمال کنم و آیا خوب است که آن را ترک کنم. بیرون **هدف نهایی من موارد زیر است: 1. من داده هایی دارم که به هیچ وجه قابل استفاده معنی دار توزیع نشده اند. بله، ممکن است راه‌هایی برای تغییر یا تطبیق آن در نوعی توزیع وجود داشته باشد، اما واقعاً همه چیز را پیچیده‌تر می‌کند، فراتر از توانایی من برای توضیح آن برای همکارانم. 2. هر نقطه داده یک امتیاز است، از 0 تا چند هزار، که تابعی از پاسخ های داده شده در یک نظرسنجی است. 3. من باید هر یک از نقاط داده را در رابطه با یکدیگر ارزیابی کنم تا مشخص کنم کدام یک در پایین مقیاس ریسک (کمترین امتیاز) و کدام در بالاترین (بالاترین امتیاز) قرار دارند. برای انجام این کار، باید چند بریدگی تعریف کنم. برنامه من این بود که از MAD یا بهتر از آن، نشانگر Sn در بالا استفاده کنم، تا نشانی از امتیاز یک پروفایل ریسک رایج داشته باشم و سپس از صدک ها برای مرتبط کردن پروفایل ریسک پایین تر به امتیازات پایین تر و پروفایل ریسک بالاتر به بالاتر استفاده کنم. امتیازات امیدوارم این گیج کننده نباشد، اما من در اینجا به یک قلمرو واقعا ناشناخته می پردازم.
9544
اجازه دهید $A\in\mathbb{R}^{n \times n}$ یک ماتریس متقارن متراکم مثبت-معین باشد ($X^TX$ از اینجا) و $b$ یک بردار در $\mathbb{R}^ n$. من باید $A^{-1}b$ را محاسبه کنم. دو سوال: 1. آیا می توانید یک الگوریتم کارآمد و از نظر عددی پایدار برای محاسبه $A^{-1}b$ برای $n \تقریباً 1000$ توصیه کنید؟ 2. اجازه دهید $\tilde{A_i}$ ماتریس بدست آمده از $A$ را با حذف $i$-th ردیف و $i$-th آن نشان دهد. آیا الگوریتمی وجود دارد که با داشتن اجازه پیش پردازش $A$ به نحوی، به من این امکان را می دهد که به سرعت $\tilde{A_i}^{-1}\tilde b$ را برای هر $i \in \\{ محاسبه کنم. 1،2،\ldots،n\\}$ و هر $\tilde b \in \mathbb{R}^{n-1}$؟
محاسبه $(X^TX)^{-1}X^Ty$ در OLS
113513
فرض کنید $Y_{ij}$ باینری را برای $i = 1، ...، N$ و $j = 1، ...، J$ مشاهده می کنم و می خواهم $$\Pr(Y_{ij} = 1) را مدل کنم. \mid \lambda_{i}) = \Phi(\lambda_{ij}), \qquad [Y_{ij} \perp Y_{ij'} \mid \lambda_i]$$ جایی که بردار $\lambda_{i} = (\lambda_{i1}، \ldots، \lambda_{iJ})$ یک جلوه تصادفی چند متغیره-عادی است، $\lambda_i \sim \mathcal N(\mu، \Sigma)$ و $ \Phi(\cdot)$ تابع پیوند پروبیت است (به طور کلی این می تواند هر تابع پیوند باشد و تقریباً با همان مشکلات مواجه می شویم، اما پروبیت آسان تر است. تجزیه و تحلیل با اثرات تصادفی معمولی). $\Sigma$ لزوماً یک رتبه کامل نیست، بنابراین این مشخصات همچنین مدل‌های جلوه‌های تصادفی به شکل $\lambda_{ij} = x_j^T b_i$ که $\dim(b_i) \ll J$ را پوشش می‌دهد. سوال من این است: تحت چه شرایطی در $(\mu, \Sigma)$ شناسایی می شوند؟ نگرانی من به این دلیل است که به خوبی شناخته شده است که مدل پروبیت چند متغیره مرتبط در غیاب محدودیت‌های بیشتر (مانند نیاز به $\Sigma$ برای ماتریس همبستگی) نامشخص است. مدلی که نوشته شده است معادل یک پروبیت چند متغیره با میانگین $\mu$ و واریانس $\mathbf I + \Sigma$ است، بنابراین نگرانی های مشابهی باید در اینجا اعمال شود. به عنوان مثال، من از نظر اکتشافی مطمئن هستم که تنظیم $$ \Sigma(\theta)_{jj'} = \theta_1 e^{-\theta_2|t_j - t_{j'}|} $$ برای $t$ شناخته شده باعث می شود $ \theta_1$ ناشناس. از طرف دیگر $\Sigma = X \Sigma_b X^T$ یک ماتریس کوواریانس اثرات تصادفی استاندارد است و بنابراین ظاهراً تا زمانی که $\Sigma_b$ ابعاد کوچکی داشته باشد شناسایی می شود. در مورد (بگوییم) $$ \Sigma = \Sigma(\theta) + X\Sigma_b X^T $$ که $\Sigma(\theta)$ همانطور که در بالا تعریف شده است چه می توان گفت؟
قابلیت شناسایی در مدل اثر تصادفی خطی تعمیم یافته؟
5249
در سوال قبلی در مورد ابزارهای ویرایش فایل های CSV پرسیدم. گاوین به نظری درباره R Help توسط دانکن مرداک پیوند داد که نشان می‌دهد فرمت تبادل داده روشی مطمئن‌تر از CSV برای ذخیره داده‌ها است. برای برخی از برنامه ها یک سیستم مدیریت پایگاه داده اختصاصی چیزی است که مورد نیاز است. با این حال، برای پروژه های تجزیه و تحلیل داده در مقیاس کوچک، چیزی سبک تر مناسب تر به نظر می رسد. معیارهای زیر را برای ارزیابی فرمت فایل در نظر بگیرید: * **قابل اعتماد**: داده های وارد شده باید به آنچه وارد شده است صادق باشند. داده ها باید به طور مداوم در نرم افزارهای مختلف باز شوند. * **ساده**: خوب است اگر فرمت فایل به راحتی قابل درک باشد و در حالت ایده آل با یک ویرایشگر متن ساده قابل خواندن باشد. نوشتن یک برنامه ساده برای خواندن و نوشتن قالب باید آسان باشد. * **باز**: قالب باید باز باشد * **قابل همکاری**: فرمت فایل باید توسط بسیاری از سیستم ها پشتیبانی شود. اگرچه فکر می‌کنم می‌توانم برنامه‌های واردکننده و صادرکننده را به جای قالب فایل سرزنش کنم. من اغلب متوجه می شوم که مجبور می شوم تنظیمات کمی در گزینه های «read.table» انجام دهم تا از شکستن بارگذاری قاب داده توسط برخی شخصیت های عجیب و غریب جلوگیری شود. سؤالات * کدام فرمت فایل به بهترین وجه این نیازها را برآورده می کند؟ * آیا فرمت تبادل داده جایگزین بهتری است؟ یا مشکلات خاص خودش را دارد؟ * آیا قالب دیگری وجود دارد که ترجیح داده شود؟ * آیا من ناعادلانه TSV و CSV را ارزیابی می کنم؟ آیا مجموعه ای ساده از نکات برای کار با چنین فایل هایی وجود دارد که فرمت فایل را قابل اعتمادتر کند؟
113510
اجازه دهید دو فرضیه $H_0$ و $H_1$ داشته باشیم و احتمالات _a-priori_ آنها را نمی دانیم. اگر بخواهیم میانگین احتمال خطا را محاسبه کنیم، آیا منطقی است که 50-50 درصد احتمال وقوع هر یک از این دو را در چارچوب معیارهای نیمن-پیرسون فرض کنیم؟
آیا منطقی است که روی خط شانس (50-50 درصد) بایستیم وقتی که احتمالات پیشینی را نمی دانیم؟
9547
* هنگام اندازه گیری خطای کوانتیزاسیون یک خوشه، آیا فاصله بین نمونه ها / مرکز باید مجذور شود یا خیر؟ من هر دو نوع را در ادبیات پیدا کردم. * علاوه بر این ، آیا خطای کمیت (مربع) همانند تعداد خطاها نیست؟
اندازه گیری خطای کوانتیزاسیون برای خوشه بندی - مربع یا نه؟
913
با مقایسه دو متغیر به نمودار زیر رسیدم. جفت‌های x، y مشاهدات مستقل داده‌ها را در میدان نشان می‌دهند. من همبستگی پیرسون را روی آن انجام دادم و یکی از 0.6 را پیدا کردم. هدف نهایی من ایجاد رابطه ای بین y و x به گونه ای است که y = f(x) باشد. چه تحلیلی را برای به دست آوردن نوعی رابطه بین دو متغیر توصیه می کنید؟ ![گراف](http://koopics.com/ask_math_chart.jpg)
روابط بین دو متغیر
1729
صادرات/فرمت خروجی از pairwise.t.test به LaTeX
14301
فرض کنید من دوستی دارم (بگذارید او را «جرج» بنامیم) که می‌گوید می‌تواند با استفاده از ذهنش پرتاب تاس را کنترل کند (یعنی احتمال افتادن تاس روی عدد خاصی که او به آن فکر می‌کند بیشتر شود). چگونه می توانم یک آزمون _علمی دقیق_ طراحی کنم تا مشخص کنم آیا او واقعاً می تواند این کار را انجام دهد؟ (البته فکر نمی‌کنم واقعاً بتواند، اما می‌خواهم قبل از شروع آزمون با جزئیات یک آزمون به سبک شگفت‌انگیز رندی موافقت کند.) می‌خواهم بهانه‌های پس آزمون (به احتمال زیاد) را کاهش دهم. که او با آن خواهد آمد. در اینجا چیزی است که من تا کنون داشته‌ام: 1. تکنیک فیزیکی تاس انداختن (که تاس، فنجان تکان دهنده، سطح فرود و غیره) را تعیین کنید. این باید به اندازه کافی کوچک باشد که در یک جلسه انجام شود، اما به اندازه کافی بزرگ باشد تا (پس از تجزیه و تحلیل) با اطمینان 95٪ -99٪ تعیین کند که آیا تاس ها منصفانه سقوط کرده اند یا به یک طرف ترجیح داده می شوند. تاس (بدون تأثیر جورج)، به عنوان یک کنترل برای اطمینان از اینکه تاس ها نتایج عادلانه را به تنهایی نشان می دهند. 4. جلسات **Z** را با جورج اجرا کنید. قبل از هر یک، یک قالب جداگانه بچرخانید تا مشخص شود جورج در کل آن جلسه روی چه عددی تمرکز خواهد کرد. 5. نتایج را گردآوری و تجزیه و تحلیل کنید. 6. جورج بهانه هایی برای عملکرد بد خود می آورد. بنابراین سؤالات من از شما: * آیا نقص یا مشکلی در روش کلی من وجود دارد؟ چیزی که جورج به احتمال زیاد به آن اعتراض کند؟ * آیا باید از D6 استفاده کنم؟ یا D20؟ آیا این مهم است؟ آیا یک قالب با چهره های بیشتر به رول های بیشتری نیاز دارد تا نتایج مشابهی با اطمینان حاصل شود؟ یا برعکس؟ به دلیل ملاحظات عملی، تعداد رول های کمتری نسبت به تعداد بیشتر ترجیح می دهم :) * مقادیر معقول برای **X**، **Y** و **Z** چیست؟ آنها کاملاً بی ارتباط نیستند. اگر مقدار **X** انتخابی من فقط به 95% اطمینان برای یک جلسه اجازه دهد، آنگاه از هر 20 جلسه 1 جلسه ممکن است شکست بخورد، حتی بدون تاثیر جورج * چگونه موفقیت یا شکست را برای یک جلسه تعریف کنم. جلسه انفرادی؟ (من این سوال را پیدا کردم که از جزئیات یک آزمون مجذور کای عبور می کند، بنابراین فکر می کنم این روش ارزیابی من است، اما آستانه اطمینان معقول چیست؟) * چگونه موفقیت یا شکست را برای آزمون کلی تعریف کنم. ? جورج ممکن است یک جلسه را به طور کاملاً تصادفی برنده شود، اما چند جلسه از **Z** را باید بگذراند تا کل آزمون را پشت سر بگذارد؟ من احتمالاً این نتایج را در یک صفحه گسترده MS Excel تجزیه و تحلیل خواهم کرد، اگر تفاوتی ایجاد کند.
88562
پیش بینی با استفاده از مجموعه های آموزشی متعدد
80850
من مجموعه‌ای از مشاهدات سری زمانی چند متغیره دارم که سعی می‌کنم با استفاده از فرآیندهای VAR مدل‌سازی کنم و از AIC برای انتخاب بهترین مدل استفاده کنم. با این حال، به جای تعیین بهترین ترتیب مدل برای هر نمونه جداگانه (خود چند متغیره)، می‌خواهم بهترین ترتیب مدل را برای برازش _همه_ نمونه‌ها کشف کنم. با این حال، هر نمونه همچنان پارامترهای منحصر به فردی خواهد داشت. به عبارت دیگر، چگونه می توان چندین AIC را با هم ترکیب کرد؟ اطلاعات بیشتر: > همه معیارها [AIC، HQC، SWC] یک جریمه به MSE یک مرحله‌ای جلوتر اضافه می‌کنند که > به اندازه نمونه $T$، تعداد متغیرهای $m$ و تعداد > تاخیرها $q$ بستگی دارد. . (F. Canova, _Methods for Applied Macroeconomic Research_ ) من نمونه های $N$ دارم که همگی دارای تعداد یکسانی از متغیرهای $m$ هستند که همگی به طول یکسان $T$ بریده شده اند. من می خواهم معیار اطلاعات استخر را برای مقداری تاخیر $q$ محاسبه کنم. من به راحتی می توانم MSE های یک مرحله ای جلوتر را برای هر نمونه جمع یا میانگین کنم. اما بهترین راه برای تجمیع شرایط پنالتی چیست؟ رویکردهای ساده لوحانه عبارتند از جمع کردن (/میانگین) شرایط جریمه یا فقط اعمال یک شرط جریمه. به نظر می رسد دومی موقعیتی را نشان می دهد که در آن شما مدل VAR یکسانی را برای هر نمونه نصب می کنید. آیا حالت اولی شرایطی را نشان می‌دهد که شما اجازه می‌دهید پارامترها برای هر نمونه متفاوت باشند اما تعداد تاخیرهای $q$ را ثابت نگه دارید؟
837
مدل R lrm بدون پیش بینی
112640
فرض کنید سوژه‌های $K$ و درمان با دو سطح قبل و بعد داریم. یک آزمون t زوجی معادل برازش یک ANOVA اثرات ثابت است: $Y = موضوع + درمان +\epsilon$ همچنین معادل ANOVA اندازه گیری های مکرر یا Mixed ANOVA است که در آن درمان ثابت و موضوع تصادفی است. هر چهار روش را برای این مجموعه داده ساده امتحان کرد و مقدار p-درمان دقیقاً یکسان است. برای این سوال، اجازه دهید فقط نسخه اثرات ثابت را در نظر بگیریم. تعداد کل مشاهدات $2K $ است، در حالی که تعداد پارامترها عبارتند از: $ p = رهگیری + (K-1) $ اثرات موضوع + (2 - 1) اثرات درمان = $K + 1$ یعنی حدود 2 مشاهده در هر پارامتر برای هر $K$. به نظر من این نشان می‌دهد که این مدل احتمالاً بیش از حد برازش شده است، مگر اینکه یک اثر موضوعی بسیار مهم وجود داشته باشد. در عمل، چند بار اثر سوژه را آنقدر بزرگ دیده اید که جفت کردن مشاهدات بر اساس موضوع را توجیه کند؟
مبادله سوگیری-واریانس در آزمون t زوجی
112643
من یک مدل در R با استفاده از glm ساخته‌ام، و در مجموعه داده جدیدی که باید پیش‌بینی کنم، سطوح جدیدی برای ستون‌ها وجود دارد که غیر عددی هستند. من می‌دانم که رویکردهای زیادی برای مقابله با مقادیر از دست رفته وجود دارد، اما به نظر می‌رسد که بیشتر آنها سعی می‌کنند مقادیر گمشده را نسبت دهند، به روشی دیگر، سعی می‌کند مقادیر گمشده را به روشی «هوشمندانه» پر کند (KNN.. و غیره .)، با این حال، نگرانی من در اینجاست: بگویید مدل من بر اساس 10 ستون است که همگی مجزا هستند (عواملی مانند سازنده، نام خانوادگی محصول، درجه، کشور مبدا). در مجموعه داده جدید من، برخی از محصولات دارای ستون‌های خاصی هستند و سایر محصولات دارای ستون‌های کمی هستند و ستون‌های گمشده ناسازگار هستند. و در یک سناریوی شدید، برخی رکوردها فقط 2 ستون دارند. هدف من این است که همه آنها را پیش بینی کنم. به جای تلاش برای نسبت دادن مقدار گمشده، پر کردن مقادیر زیادی با حدس زدن، در واقع رویکردی را ترجیح می‌دهم که مدلی را بر اساس ستون‌هایی که رکورد خاص دارد بازسازی کند و فقط با استفاده از ستون‌هایی که دارند پیش‌بینی کند. در اینجا با استفاده از مجموعه داده mtcars کدی نوشتم، جایی که به صورت دستی سطح جدیدی را در ستون `vs` وارد می کنم و سپس یک مدل را بدون ستون `vs` برای پیش بینی رکورد بازسازی می کنم. 1. آیا هیچ روش ریاضی عمومی وجود دارد که به من در حل مسئله کمک کند؟ 2. آیا پیاده سازی در R/Python وجود دارد که این را به درستی مدیریت کند، بسیار متشکرم!
بازسازی مدل بر اساس ستون هایی که یک رکورد دارد
112642
من از این معیار برای تغییراتی استفاده می‌کنم که مشابه CV است، اما تضمین می‌شود که برای اعداد مثبت در مقیاس 0 تا 2 باشد، جایی که 2 در همه جا و 0 کاملاً زوج است. از آنجایی که بدون بعد و محدود است، برای من مفید است به گونه ای که CV واقعاً اینطور نیست. آیا این یک نام استاندارد دارد؟ این میانگین مربعات خطا تقسیم بر مجذور حداکثر خطا است. من همیشه از آن استفاده می‌کنم، اما نمی‌دانم اسمش چیزی است یا نه: function(v) {(sum((v-mean(v))**2))/((sum(v)-mean(v) )**2)} و یک نسخه اریب که با تعداد کم سروکار دارد: function(v) {(min(2,(max(0,sum(floor(abs(v-mean(v)))**2)-2*sum(v)))/max(1,((sum(v)- mean(v))**2-2*sum(v)))))} فقط زمانی مواردی را به عنوان خارج از ضرب گزارش می دهد که هماهنگ نباشند/به اندازه کافی متعادل نباشند. کاملاً کار می کند. وقتی داده ها نسبتاً یکنواخت هستند، صفر می گیرید. وقتی یک نوع سنبله (اندازه سنبله نسبت به طول بردار) وجود دارد، مقدار بزرگتری دریافت می کنید. من باید توضیح دهم که چرا از آن استفاده می کنم. من می دانم که از نظر تجربی در شرایط من کار می کند، زیرا ما نتایج بهتری نسبت به استفاده از مواردی مانند حداکثر احتمال، یا قطع با CV به تنهایی دریافت می کنیم. اساساً علائم پرت را نشان می دهد که به خوبی حذف می شوند. اما آیا راه بهتری برای توصیف این توابع برای آمار خلاصه پوشش بدون بعد وجود دارد؟ IE: آیا تابع بهتری برای تشخیص سنبله متناسب با اندازه بردار وجود دارد؟
میانگین مربع خطا / حداکثر مربع خطا
42999
رویکردهای آموزشی برای مجموعه داده های بسیار نامتعادل
112646
من روی پروژه ای کار می کنم که هدف آن تجزیه و تحلیل رابطه بین عناصر ماشین و قیمت آنها است. داده های من شامل هزاران عنصر ماشین، قیمت آنها و همچنین ویژگی های فنی و غیر فنی است. بیشتر داده ها طبقه بندی هستند داده های فنی حاوی اطلاعاتی مانند وزن، ابعاد، مواد است. هر عنصر (که با کد منحصر به فرد مشخص می شود) دارای ویژگی های فنی متمایز است. داده های غیر فنی حاوی اطلاعاتی مانند نام تامین کننده، نوع قرارداد، INCOTERMS، اولین روز اعتبار قرارداد، آخرین روز اعتبار، حداقل مقدار سفارش و غیره است. در برخی موارد قیمت ها به مقدار سفارش بستگی دارد. یکی از مشکلاتی که من با آن روبرو هستم این است که اغلب هر عنصر بسته به داده های مالی قیمت متفاوتی دارد، یعنی عنصر X اگر اینکوترمز A باشد 100 دلار، اگر اینکوترمز B باشد 200 دلار و غیره. به عبارت دیگر، ردیف هایی وجود دارد. که حاوی اطلاعات قیمت در یک عنصر است، اما یکی از ستون ها دارای مقدار متفاوتی است و بنابراین قیمت متفاوت است. در موارد دیگر قیمت 100 است اگر 50-100 عنصر سفارش داده شود، 80 اگر 100-200 عنصر سفارش داده شود، 60 اگر 200-500 و غیره است. من قصد دارم برخی همبستگی ها و همچنین رگرسیون را انجام دهم. من احتمالا داده کاوی را نیز امتحان خواهم کرد (با استفاده از Rattle و R). من به مشاوره در مورد نحوه برخورد با مشاهدات (نسبتا) مشابهی که هر شی در صورت همبستگی، رگرسیون و به طور کلی برای داده کاوی دارد، نیاز دارم. آیا باید سعی کنم یک مشاهده واحد را برای هر عنصر انتخاب کنم یا آنالیز همه در را انجام دهم. حدس می‌زنم گزینه آخر اصلاً برای همبستگی کار نخواهد کرد. شاید شامل یک اسکرین شات نمونه از داده ها با روشن کردن مشکل من باشد. بنابراین آنچه در تصویر قابل مشاهده است اغلب اتفاق می افتد: یک شی، ویژگی های مختلف، قیمت متفاوت. من نمی دانم که آیا باید (سعی کنم) تنها یک ردیف در هر شی با تنها یک مجموعه از ویژگی ها داشته باشم (نیازی به بحث در مورد معیارها نداریم) یا اینکه آیا باید چندین ردیف را برای یک شیء در هنگام اجرای تجزیه و تحلیل همبستگی نگه دارم. یا یک رگرسیون پیشاپیش از شما متشکرم. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/DEOqg.png)
درمان مشاهدات متعدد در هر شی
104827
من با آمارهای چند متغیره نسبتاً تازه کار هستم و با شرایط زیر مواجه شده ام: مجموعه داده ای از 12 مجموعه پاسخ بر اساس مقیاس لیکرت (1-5) دارم، داده هایی که معمولاً (در تحقیقات اجتماعی) به عنوان بیشتر یا- تلقی می شوند. مقیاس فاصله کمتر / کمی. تنها حدود نیمی از پاسخ ها توزیع نرمال را نشان می دهند، بسیاری از آنها توزیعی به راست را نشان می دهند. هدف شناسایی همبستگی ها در این مجموعه داده پاسخ است. با استفاده از XLSTAT برای اکسل، من با رگرسیون چندگانه شروع کردم و دو IV تاثیرگذار اصلی (R2 روی همه متغیرها = 0,32) را برای یک DV خاص (انتخاب شده از بین 12 متغیر) شناسایی کردم. سپس محاسبات 2 و 3 سطح تعامل را دوباره اجرا کردم. در حالی که R2 نتایج به طور قابل‌توجهی به طور قابل‌توجهی افزایش یافت (به 0.85 و 0.94)، متغیرهایی که اکنون بیشترین تأثیر را داشتند (با توجه به مقدار ضریب استاندارد شده برای نتایج معنی‌دار) با هر سطح تعامل تغییر کردند. در حالی که برای هیچ تعاملی، چند خطی کم بود (تحمل 0.6-0.8، VIF همیشه کمتر از 2)، با 2 یا 3 سطح تعامل، چند خطی بودن افزایش یافت (2 سطح: VIF بیش از 400، 3 سطح: VIF در میلیون ها). با فرض اینکه چند خطی بودن و احتمالاً متغیرهای سرکوبگر مشکل هستند، سپس به رگرسیون PLS تغییر کردم، دوباره 11 IV برای یک DV. بدون در نظر گرفتن هیچ تعاملی، Q2 جمع آوری شده 0.12، R2Y cum=0.26 و R2X cum=0.25 دریافت کردم. تأثیرگذارترین IV با توجه به مقدار VIP مشابه با رگرسیون چندگانه بدون تعامل (با مقدار VIP 1.4) بود. همان با 2 سطح تعامل دوباره نشان داد که همان IV (VIP اکنون 2.0) در صدر قرار دارد (و قبلاً دومین IV مهم هنوز در جایگاه دوم قرار داشت)، اما Q2cum کمی پایین تر در 0.09، R2Y cum در 0.41 بهبود یافت، R2X cum کمتر. در 0.09. اکنون با تلاش برای 3 سطح تعامل، رتبه تأثیرگذارترین IV ها به طور کامل تغییر کرد، با ترکیبی از سه IV که VIP 2.4 را نشان می دهد، که مهم ترین IV قبلی هنوز در رتبه سوم قرار دارد (VIP 2.1). با این حال، کیفیت مدل در حال حاضر وحشتناک است، با Q2cum 0.03- (R2Y/X cum تقریباً مشابه برای 2 سطح تعامل). آنچه که من می خواهم از این بدانم: 1. من فرض می کنم که مقادیر VIP بالاتر برای افزایش سطوح تعامل ناشی از مدل سازی پیچیده تر به دلیل تعاملات بیشتر است، اما Q2cum برای 3 سطح تعامل نشان می دهد که کیفیت پیش بینی مدل کاهش یافته است. چرا این مورد می تواند باشد؟ کدام یک از سه مدل PLS (سطوح تعامل 0/2/3) به من کمک می کند یا Q2 پایین به این معنی است که هیچ کدام از آنها اصلاً قابل توجه نیستند؟ با فرض اینکه Q2 و R2 برای هر سه یکسان باشند، آیا مدل تعامل بالاتر بیشترین قدرت توضیحی را خواهد داشت؟ 2. چگونه باید مقادیر کیفیت مدل (Q2/R2x/y cum) را تفسیر کنم؟ به طور خاص، آیا Q2cum (قدرت پیش بینی مدل) عامل کیفیت اولیه ای است که باید در نظر گرفته شود، یا سطوح متوسط ​​R2x/y (قدرت توضیحی واقعی مدل) کافی است؟ از آنجایی که R2y تغییرات DV توضیح داده شده توسط IV ها را منعکس می کند (اگر من درست متوجه شده باشم)، پس فرض می کنم که مقدار R2y برای کیفیت مدل من از R2x مهم تر است، درست است؟ 3. چقدر بد است که IV های من همه توزیع نرمال خوبی برای این همه نشان نمی دهند؟ رگرسیون PLS در این مورد چقدر قوی است؟ با تشکر از شکیبایی شما با یک تازه کار، من از توضیحات ساده و قابل فهم تشکر می کنم، بسیار متشکرم!!
کیفیت رگرسیون PLS در سطوح مختلف تعامل
64216
من یک معادله کاب-داگلاس دارم که در `R` مدل می کنم: $$ \ln⁡(Y) = β + β_a \ln⁡(A) + β_l \ln⁡(L) + β_f \ln⁡(F) + β_o \ln⁡(O) + u $$ آیا راه آسانی برای آزمایش این فرضیه وجود دارد که آیا مجموع بتاها به یک می رسد یا خیر؟ کمتر از یک؛ بیش از یک؟
آزمایش محدودیت ها/محدودیت ها در رگرسیون چندگانه با استفاده از R
9541
من سعی می کنم اهمیت مدل را با استفاده از: 1-pchisq (انحراف تهی-انحراف باقیمانده، تهی df- انحراف باقیمانده df) تعیین کنم: من 5 مدل دارم: * چهار مدل با GLM تخمین زده شدند که در خلاصه به من DFهای تهی و باقیمانده دادند. * مدل پنجم با تابع 'lmer' به دلیل ساختار تودرتو داده های من تخمین زده شد. این درجه آزادی برای تهی یا باقیمانده به من نمی دهد. چگونه می توانم انحرافات و درجه های تهی و تهی خود را بدست آورم؟ با تشکر
چگونه می توانم انحراف/درجات آزادی صفر و باقیمانده را برای ارزیابی اهمیت مدل بدست بیاورم؟
64212
من متخصص نیستم، اگر برخی از اصطلاحات کمی ناشیانه است، مرا ببخشید. خوشحال می شوم در صورت نیاز اطلاعات بیشتری ارائه دهیم. من دو بردار از 50 مقدار عددی جفتی در R دارم. می‌خواهم یک آزمایش تصادفی یا جایگشتی دو دنباله انجام دهم تا مشخص کنم آیا تفاوت‌های آنها به دلیل شانس است یا نه. > آزمون جایگشت (همچنین به آن آزمون تصادفی سازی، آزمون تصادفی سازی مجدد، > یا آزمون دقیق نیز گفته می شود) نوعی آزمون معناداری آماری است که در آن توزیع آمار آزمون تحت فرض صفر با > محاسبه تمام مقادیر ممکن به دست می آید. از آمار آزمون تحت بازآرایی > برچسب ها در نقاط داده مشاهده شده. من می خواهم این نوع آزمایش را انجام دهم زیرا معتقدم توزیع مقادیر در بردارها فرضیات تست های دیگر مانند آزمون t را نقض می کند (مثلاً بسیاری از مقادیر عددی در بردار 0 هستند). تابع «permtest» در کتابخانه BHH2، تقریباً همان کاری را که من می‌خواهم انجام می‌دهد، اما روی همه جایگشت‌های $2^{50}$ کار می‌کند، که خیلی طول می‌کشد. در عوض، من می‌خواهم مقدار p-value را با نمونه‌برداری از تعداد زیادی جایگشت احتمالی تخمین بزنم. من نگاهی به بسته سکه انداختم، اما به نظر می‌رسد هیچ چیزی در آنجا تست جایگشت را با نمونه‌برداری از بردارهای عددی زوج انجام نمی‌دهد. برخی از گوگل من را به این ایمیل هدایت می کند، که نشان می دهد دلیل اینکه من نمی توانم بسته ای برای انجام آن پیدا کنم این است که یک بسته در R است. متأسفانه، من آنقدر با R تجربه ندارم که بتوانم آن را تولید کنم. - آستر ** آیا بسته یا روشی وجود دارد که آزمایش جایگشت جفتی دو دنباله را تنها با استفاده از نمونه ای از فضای جایگشت انجام دهد؟** **اگر نه، آیا کسی می تواند بیت کوتاهی از کد R را برای انجام آن به اشتراک بگذارد؟ **
تست تصادفی سازی/تغییر برای بردارهای جفت شده در R
17967
من می‌خواهم از رگرسیون لجستیک کلاس چندگانه برای یادگیری مرزهای تصمیم جداکننده کلاس‌های مختلف (که با رنگ مشخص شده‌اند) در تصویر زیر استفاده کنم. رگرسیون لجستیک کرنل با یک هسته RBF انتخاب خوبی به نظر می رسد، اما من دوست دارم که مرز تصمیم، زمانی که به فضای 2 بعدی پیش بینی می شود، در امتداد خطوط شبکه سفید قرار گیرد. یکی از راه های ادامه کار، معرفی یک عبارت مجازات در تابع هدف است، اما من مطمئن نیستم که چگونه ادامه دهم. آیا کسی مرجعی برای استفاده از یک شبکه به عنوان یک محدودیت در این نوع مشکلات دارد؟ شاید روش متفاوتی برای پرسیدن این سوال این است که چگونه می توانم از یک سو، یک باور قبلی به شکل $\Pr(\int^\mathbf{x}\pi=.5 \mid \mathbf{x})$ را ترکیب کنم. در مورد توزیع بیش از $\mathbf{x}$ زمانی $\Pr(\mathbf{x} \mid \pi)$؟ I ![کلاس های مختلف نقاط روی یک شبکه](http://i.stack.imgur.com/BnFVP.png)
104824
برای مکان شناخته شده، می‌توانیم پارامتر مقیاس یک توزیع نرمال را با محاسبه مجذور تفاوت‌های مکان، سپس تقسیم بر n-1 و گرفتن جذر جذر پیدا کنیم. این حداکثر احتمال و کارآمدترین طرح برای تخمین پارامتر برای توزیع نرمال است. با این حال، برای توزیع دو نمایی (لاپلاس) با استفاده از مجموع مقادیر مطلق، طرح MLE است. پس توان p 2 نیست بلکه 1 است! و برای توزیع یکنواخت حداکثر اختلاف به مرکز کارآمدترین طرح تخمین پارامتر را می دهد. همچنین می توان آن را به عنوان مجموع توان توصیف کرد، با اجازه دادن به توان p به بی نهایت (هنجار چبیشف). بنابراین برای این 3 توزیع با $p=1,2,\ldots,\infty$ ما هم MLE و هم PDF را به خوبی می شناسیم. سوال: اگر طرح تخمین را با استفاده از هر توان مثبت (مانند p=4، 6 یا هر چیز دیگری) تعمیم دهیم، توزیع مطابق PDF(p,x) چقدر است؟ این منجر به یک PDF کاملاً کلی می شود و می تواند یک توزیع نرمال تعمیم یافته را تشکیل دهد (مانند Student-t که نرمال را برای توزیع های طولانی تر گسترش می دهد).
طرح MLE پارامتر مقیاس شناخته شده است اما چگونه می توان توزیع PDF را مطابق با آن پیدا کرد؟
17962
ANOVA یا آزمون های دیگر برای داده های جمع شده
99281
با فرض اینکه $A_1، A_2، \ldots، A_n$ متغیرهای تصادفی نمایی مستقل هستند (هر کدام پارامتر یکسانی دارند و برای سادگی، مقدار پارامتر را 1 فرض کنیم). $B_i = A_i + k$ را تعریف کنید (که $k$ یک ثابت با مقدار مجهول است). اگر دنباله‌ای از مشاهدات $(b_1، b_2،\ldots، b_n)$ را نیز در اختیار داشته باشیم، حداکثر برآورد احتمال (MLE) $k$ چقدر خواهد بود؟
برآورد حداکثر احتمال برای دنباله ای از مشاهدات
22945
من دو نمونه دارم یکی سایز 52 و یکی سایز 31 که در زمان های مختلف بدست آمده اند. من می‌خواهم برای تفاوت میانگین جمعیت‌هایی که این نمونه‌ها نشان می‌دهند، یک فاصله اطمینان راه‌اندازی 95% دریافت کنم. من سعی کردم از بسته boot در R استفاده کنم، و یک خطایی دریافت می کنم که نمی توانم آن را بفهمم. امیدوارم کسی اینجا بتونه کمکم کنه داده‌های من اینگونه به نظر می‌رسند (در یک دیتافریم با نام totalData): X samplingTime 1 -0.29 اولیه 2 0.3 اولیه .... 52 -1.2 اولیه 53 0.7 نهایی 54 -1.2 نهایی .... 83 1.52 نهایی این است کاری که من برای دریافت بوت استرپ CI انجام دادم: meanDiff = function(dataFrame, indexVector) { m1 = mean(subset(dataFrame[, 1], dataFrame$samplingTime == initial)) m2 = mean(subset(dataFrame[, 1], dataFrame$samplingTime == final)) m = m1 - m2 return( m) } totalBoot = boot(totalData, meanDiff, R = 10000, strata = totalData[,2]) totalBootCI = boot.ci(totalBoot) و در خط آخر این خطا را دریافت می کنم: خطا در bca.ci(boot.out، conf، index[1L]، L = L، t = t.o، t0 = t.o، : تنظیم تخمینی w بی نهایت است.
فاصله اطمینان برای تفاوت دو میانگین با استفاده از بسته بوت در R
94919
مدل سازی رسید، حجم و قیمت
111005
آزمون علیت VAR و گرنجر
99284
فرض بر این است که: 1) $y=q+u$ که در آن $q$ بهره‌وری است و $y$ یک امتیاز آزمون که بهره‌وری واقعی را اندازه‌گیری می‌کند. $u$ یک عبارت خطای معمولی است، مستقل از $q$، با میانگین صفر و واریانس ثابت. $q$ نیز به طور معمول با میانگینی برابر با $\alpha$ و با یک واریانس ثابت در نظر گرفته شده است. نتیجه این است: 2) $E(q | y) = (1-\gamma)\alpha + \gamma y$ که در آن $\gamma=Var(q)/(Var(q)+Var(u)) $ چگونه معادله 2 را بدست می آورید؟ معادله را می توان به صورت یک اثر گروهی و یک اثر فردی بیان کرد. [این یک مدل از تبعیض آماری است، نگاه کنید به: دنیس جی. آگنر و گلن جی. کین. نظریه های آماری تبعیض در بازار کار. بررسی روابط صنعتی و کار، 30(2): 175{187، ژانویه 1977. URL http:// ideas.repec.org/a/ilr/articl/v30y1977i2p175-187.html.]
مقدار مورد انتظار q با توجه به y میانگین وزنی میانگین q و و y است
111004
برآورد قوی در مدل های ترکیبی تعمیم یافته SPSS
45966
کولموگروف-اسمیرنوف CDF
99280
می‌خواهم بدانم آیا می‌توانیم نتیجه باینری را با پیش‌بینی‌کننده‌های سری زمانی مدل کنیم. برای مثال فرض کنید Y دودویی است. $X_1, X_2, X_3,...,X_n$ همان متغیر پیش‌بینی‌کننده است اما یک عکس فوری تاریخی در بازه زمانی $1,...,n$ است. من علاقه مند به پیش بینی $Y$ هستم اما همبستگی خودکار بین $X_1,...,X_n$ و فصلی بودن را در بین $X_1,...,X_n$ در نظر بگیرم.
رگرسیون لجستیک با داده های پیش بینی سری زمانی
99283
من یک معلم مدرسه هستم که پروژه کوچکی را انجام می‌دهم که شامل جمع‌آوری داده‌ها در مورد 5 روش تدریس مختلف است و نمره آزمون حاصل از کودکانی که آموزش می‌بینند، هر روش تدریس است. من 50 دانش آموز دارم که به طور مساوی بین 5 روش تدریس تقسیم شده اند (10 دانش آموز/روش). داده هایی که من دارم به شرح زیر است. هر خط زیر یک دانش آموز است که ستون اول داده ها روش تدریس و ستون دوم نمره دانش آموز است: روش A,88 روش B,72 روش A,90 روش D,55 روش D,60 روش A,84. .. من می خواهم به نحوی تعیین کنم که آیا نمرات آزمون با روش های مختلف ارتباط دارد یا خیر. من در مورد همبستگی درون کلاسی مطالعه کرده‌ام و می‌خواهم بدانم آیا کاپا کوهن یا تکنیکی مشابه روش مناسبی برای بررسی همبستگی نمرات آزمون و روش‌های تدریس است. هر گونه کمک یا راهنمایی بسیار قدردانی می شود.
تکنیک مناسب برای اندازه گیری همبستگی بین طبقات چیست؟
57015
من یک متغیر مستقل ترتیبی (<1 ساعت، 1 ساعت، 1-3 ساعت، 3-5 ساعت، > 5 ساعت) و یک متغیر وابسته فاصله (نمرات آزمون) دارم. ظاهراً از من انتظار می رود که رابطه بین این دو را با انجام همبستگی های اسپیرمن رو بررسی کنم. با این حال، آیا انجام یک ANOVA یک طرفه و آزمون تعقیبی مفیدتر نخواهد بود؟ به خصوص از آنجایی که میانگین نمرات در بین رتبه های چهارم تا بالاترین رتبه افزایش می یابد و در این مرحله کاهش می یابد. یا گزارش نتایج هر دو آزمون در تجزیه و تحلیل داده ها مفید خواهد بود؟