_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
65566
|
فرض کنید داده های زیر را داریم: set.seed(123) data <- data.frame(x = c(rnorm(50, 1, 1), rnorm(50, 5, 2)), y = c(rep(' A', 50), rep('B', 50))) که نمودار جعبه زیر را به دست می دهد ('boxplot(data$x~data$y)`):  حالا فرض کنید میخواهم آزمایش کنم که آیا دو نمونه پارامترهای مکان یکسانی دارند (میانگین و/یا میانگین). _در مورد واقعی من، داده ها به وضوح نرمال نیستند_، بنابراین من تصمیم گرفتم تست Wilcoxon-Mann-Whitney را مانند این اجرا کنم: wilcox.test(data$x ~ data$y) با این حال، من فرضیه جایگزین را می خواهم. برای اینکه B، فاکتور دوم «data$y» از توزیعی با پارامترهای موقعیت بالاتر می آید. من سعی کردم پارامتر «جایگزین» را روی «بیشتر» و «کمتر» تنظیم کنم، اما ظاهراً فرضیههای جایگزین آن چیزی نیست که به دنبال آن هستم. به عنوان مثال، جایگزین = بزرگتر به من می گوید فرضیه جایگزین: تغییر مکان واقعی بزرگتر از 0 است. `alternative = کمتر به من می گوید فرضیه جایگزین: تغییر مکان واقعی کمتر از 0 است. ** چگونه می توانم تابع Wilcox.test() را به منظور داشتن فرضیه جایگزینی که می خواهم (B از توزیعی با پارامترهای موقعیت بالاتر از A می آید) تغییر دهم؟ یا باید به جای آن از تست دیگری استفاده کنم؟**
|
چگونه می توانم Mann-Whitney U را هنگام استفاده از رابط فرمول R تفسیر کنم
|
65565
|
من در حال مطالعه MCMCglmm در R با استفاده از این دوره هستم \- کسی می تواند برای من توضیح دهد که پارامتر اعتقاد چیست، اولین بار در صفحه 12 ذکر شده است. من می خواهم آن را درک کنم، و رابطه آن با توزیع Wishart و پارامتر V است. > برای یک جزء واریانس واحد، Wishart معکوس دو پارامتر > اسکالر، V و nu را می گیرد. توزیع به جرم نقطه ای روی V به عنوان پارامتر > درجه اعتقاد گرایش دارد، nu به innity می رود. هنگامی که nu خیلی بزرگ نیست، توزیع تمایل به > انحراف به راست دارد، با حالت Vnu nu+2 اما میانگین > Vnu nu2 (که برای nu <2 رد نشده است). به عنوان یک تازه کار/غیر ریاضی به دنبال مطالب مبتدی در آمار بیزی هستم - من یک زیست شناس تکاملی هستم :)_
|
پارامتر اعتقاد (nu) چیست؟
|
65562
|
من یک مجموعه داده دارم که با استفاده از بسته optmatch در R به گروه های تطبیق مبتنی بر امتیاز گرایش تقسیم شده است. من در حال تلاش برای تخمین میانگین اثر درمانی بر روی نمونه تحت درمان هستم. میدانم که میتوانم برآورد تطبیق ATT را مستقیماً با محاسبه تفاوت درون گروهی در متغیر نتیجه محاسبه کنم و سپس میانگین وزنی این مقدار را در بین گروهها محاسبه کنم. با این حال، یک لایه طبیعی دیگر از گروه بندی در این مجموعه داده وجود دارد، و من می خواهم خطاهای استاندارد را در این سطح خوشه بندی کنم. تا آنجا که من می دانم، این کار از طریق رگرسیون ساده تر است. PI من فقط انجام یک رگرسیون با اثرات ثابت را بدون نگرانی در مورد وزندهی پیشنهاد میکند، اما من فکر میکنم این به فرض اثرات ثابت درمان در بین گروهها متکی است، زیرا برخی از گروهها در مجموعه داده بسیار بیش از حد نشان داده شدهاند (برخی از درمانها با 25 کنترل مطابقت دارند، به عنوان مثال، در حالی که دیگران تنها با 1). بنابراین میپرسم: آیا راهی برای وزندهی رگرسیون اثرات ثابت وجود دارد تا ماهیت نامتعادل گروههای منطبق را به درستی توضیح دهد؟ اگر کسی می داند که چگونه این کار را در Stata انجام دهد، ترجیح داده می شود، اما هر توصیه یا مرجعی بسیار قدردانی خواهد شد.
|
وزن رگرسیون FE با تطبیق کامل
|
46085
|
من اقلامی دارم که از دو ماده مختلف ساخته شده اند. برای هر ماده، مجموعه ای از 250 نمونه برداشتم و آنها را تحت آزمایشی قرار دادم که یا شکستند یا نشد. کدام آزمایش می تواند به این سوال پاسخ دهد - آیا تفاوت قابل توجهی بین نرخ شکست این دو ماده وجود دارد؟ من یک جدول احتمالی درست کردم، اما مطمئن نیستم که چگونه ادامه دهم - نوعی آزمون مجذور کای؟ $$ \begin{matrix} & \text{Broken} & \text{Unbroken}\\\ \text{Material A} & 2 & 248 \\\ \text{Material B} & 1 & 249\\\ \end {matrix} $$ تعداد نمونههای شکسته کم بود، همانطور که در جدول نشان داده شده است.
|
تست مناسب برای مقایسه دو مجموعه تست باینری؟
|
49055
|
مقاله Vapnik، Chervonenkis درباره همگرایی یکنواخت بسامدهای نسبی رویدادها به احتمالات آنها Theory of Probability and Its Applications, vol XVI, n. ، 1971. در آنجا نظریه همگرایی فرکانسهای نسبی محاسبه شده در هیستوگرام توضیح داده شده است -- درست است؟ سوال من یک سوال عملی است: چگونه می توانم آزمایش کنم که آیا هیستوگرام محاسبه شده در واقع به توزیع چگالی زیرین همگرا شده است یا خیر؟ علاوه بر این، آیا نظریه Vapnik، Chervonenkis به ما در مورد نحوه شکل دادن به هیستوگرام خود می گوید؟ به عبارت دیگر سطل های فرکانس مساوی بهتر است یا سطل های طول مساوی؟ در نهایت، نظریه Vapnik، Chervonenkis در مورد حجم نمونه چه چیزی را به ما پیشنهاد می کند؟ در خاتمه، من مرجع Vapnik، Chervonenkis را خواندهام، اما به یک کتاب درسی توضیحدهندهتر یا صرفاً به برخی نکات نیاز دارم تا آن را به طور واضح به کار ببرم. PS: یک کنجکاوی، اما تفاوت بین سهم Vapnik، Chervonenkis در 1971 و قضیه Glivenko Cantelli چیست؟
|
در مورد همگرایی یکنواخت بسامدهای نسبی رویدادها به احتمالات آنها
|
81661
|
من باید یک تحلیل همسان انجام دهم. با این حال، من نمی توانم مرجع خوبی برای بهترین روش تطبیق پیدا کنم، زمانی که هر لایه ممکن است شامل موارد و کنترل های متعدد باشد. به عنوان یک مثال افراطی، بگویید میخواهیم موارد/کنترلها را بر اساس تاریخ پذیرش آنها (مثلاً ظرف یک هفته) مطابقت دهیم. در هر هفته، ممکن است 10 مورد و 10 کنترل وجود داشته باشد. آیا باید آنها را به عنوان یک طبقه یا جداگانه به عنوان 10 جفت مطابقت داد؟ کدام راه دقت بالاتری می دهد؟ بیشتر کتابهایی که من میخوانم فقط در مورد آنچه اتفاق میافتد صحبت میکنند اگر یک مورد/کنترل را نتوان برای تشکیل یک جفت با هم تطبیق داد و بنابراین برای افزایش دقت باید به جفتهایی که قبلاً همسان شدهاند اضافه شوند.
|
روشی بهینه برای تطبیق موارد و کنترلها در هر طبقه
|
82829
|
من باید چندین گونه از یک گزینه را آزمایش کنم، اما نمی توانم تضمین کنم که انواع مستقل هستند (مثلاً یک فرد ممکن است بیش از یک نوع را دیده باشد). همچنین نمیتوانم بدانم کدام افراد بیش از یک نوع را دیدهاند، و همچنین، اگر دو مورد دیده شدهاند، ترتیب دیده شدنشان را هم نمیدانم. من چند سوال دارم: 1. آیا این می تواند نتایج قابل اعتمادی ارائه دهد؟ 2. چگونه می توانم حداقل حجم نمونه مورد نیاز برای 5% اهمیت را در R تخمین بزنم؟ 3. اگر احتمالاً نتوانم اندازه نمونه را در بین گروه ها ثابت نگه دارم، آیا می توانم تغییری در نتایج انجام دهم تا آن را تنظیم کنم؟ ویرایش: افزودن جزئیات بیشتر. من در حال آزمایش انواع مختلف برای یک تبلیغ هستم، اما نمی توانم مطمئن باشم که هر فرد معینی بیش از یک نوع را نبیند (من راهی ندارم که کاربران را به گونه ای تقسیم کنم که آنها فقط یک نوع را از طریق پلت فرم تبلیغات ببینند) . من همچنین هیچ راهی برای متوقف کردن کمپین های تبلیغاتی در بازدیدهای دقیقاً X ندارم. من فقط باید کمپین ها را در زمان واقعی تماشا کنم و زمانی که از آستانه اهمیت عبور کردند آنها را متوقف کنم. سوال من این است: آیا می توانم تحت این شرایط نتایج معنی داری از یک آزمون چند متغیره به دست بیاورم، چگونه می توانم حداقل حجم نمونه مورد نیاز را محاسبه کنم (یعنی آیا می توانم زمانی که این شرایط درست است، تجزیه و تحلیل توان انجام دهم)، و برای کنترل چه کاری می توانم انجام دهم. اندازه نمونه های مختلف؟
|
آزمون چند متغیره که در آن انواع مستقل نیستند؟
|
49052
|
**مشکل من**: اخیراً با یک آمارگیر ملاقات کردم که به من اطلاع داد که splines فقط برای کاوش داده ها مفید هستند و در معرض بیش از حد برازش قرار می گیرند، بنابراین در پیش بینی مفید نیستند. او کاوش با چند جملهای ساده را ترجیح میدهد... از آنجایی که من از طرفداران پر و پا قرص اسپلاینها هستم، و این برخلاف شهود من است، علاقهمندم بدانم این آرگومانها چقدر معتبر هستند و آیا گروه بزرگی از _ضد اسپلاین وجود دارد یا خیر. فعالان_ آنجا؟ **زمینه**: وقتی مدل های خود را ایجاد می کنم، سعی می کنم از فرانک هارل، استراتژی های مدل سازی رگرسیون (1) پیروی کنم. او استدلال می کند که خطوط مکعبی محدود ابزار معتبری برای کاوش متغیرهای پیوسته هستند. او همچنین استدلال میکند که چندجملهایها در مدلسازی روابط خاص مانند آستانهها، لگاریتمی ضعیف هستند (2). برای آزمایش خطی بودن مدل، او یک تست ANOVA را برای spline پیشنهاد میکند: $H_0: \beta_2 = \beta_3 = … = \beta_{k-1} = 0 $ من برای تطبیق بیشازحد با spline در گوگل جستجو کردم، اما آنقدر پیدا نکردم. مفید (به غیر از هشدارهای کلی در مورد عدم استفاده از گره های زیاد). در این انجمن به نظر می رسد ترجیحی برای مدل سازی spline، Kolassa، Harrell، gung وجود دارد. من یک پست وبلاگ در مورد چند جمله ای ها پیدا کردم، شیطان بیش از حد برازش که در مورد پیش بینی چند جمله ای ها صحبت می کند. پست با این نظرات به پایان می رسد: > تا حدی نمونه های ارائه شده در اینجا تقلب هستند - چند جمله ای > رگرسیون به عنوان بسیار غیر قوی شناخته شده است. در عمل بسیار بهتر است که > از splines به جای چند جمله ای استفاده کنید. اکنون این من را بر آن داشت تا بررسی کنم که splines چگونه با این مثال کار می کند: library(rms) p4 <- poly(1:100, grade=4) true4 <- p4 %*% c(1,2,-6,9) روز <- 1:70 set.seed(7987) noise4 <- true4 + rnorm(100, sd=.5) reg.n4.4 <- lm(noise4[1:70] ~ poly(days, 4)) reg.n4.4ns <- lm(noise4[1:70] ~ ns(days,4)) dd <- datadist(noise4[1:70] , days) options(datadist = dd) reg.n4.4rcs_ols <- ols(noise4[1:70] ~ rcs(days,5)) plot(1:100, noise4) nd <- data.frame(days=1:100) lines(1:100, predict(reg.n4.4 , newdata=nd), col=orange, lwd=3) lines(1:100, predict(reg.n4.4ns, newdata=nd)، col=red، lwd=3) lines(1:100، predict(reg.n4.4rcs_ols، newdata=nd)، col=darkblue، lwd=3) legend(top، fill=c(نارنجی، قرمز، آبی تیره)، legend=c(Poly، Natural splines، RCS - ols)) تصویر زیر:  در نتیجه چیز زیادی پیدا نکردم که مرا متقاعد کند که در مورد اسپلاینها تجدید نظر کنم، چه چیزی را از دست دادهام؟ 1. F. E. Harrell, Regression Modeling Strategies: With Applications to Linear Models, Logistic Regression, and Survival Analysis, Softcover reprint of hardcover 1st ed. 2001. Springer, 2010. 2. F. E. Harrell, K. L. Lee, and B. G. Pollock, Models Regression in Clinical Studies: Determining Relationships Between Predictors and Response, JNCI J Natl Cancer Inst, vol. 80، شماره 15، صفحات 1198-1202، اکتبر 1988. ## به روز رسانی نظرات باعث شد تعجب کنم که در محدوده داده ها چه اتفاقی می افتد اما با منحنی های ناراحت کننده. در بیشتر موقعیتها، همانطور که مثال بالا نشان میدهد، از مرز داده خارج نمیشوم. من مطمئن نیستم که این به عنوان پیشبینی واجد شرایط باشد... به هر حال اینجا مثالی است که در آن خط پیچیدهتری ایجاد میکنم که نمیتواند به چند جملهای ترجمه شود. از آنجایی که بیشتر مشاهدات در مرکز داده ها قرار دارند، سعی کردم آن را نیز شبیه سازی کنم: library(rms) cmplx_line <- 1:200/10 cmplx_line <- cmplx_line + 0.05*(cmplx_line - quantile(cmplx_line, 0.7))^2 cmplx_line <- cmplx_line - 0.06*(cmplx_line - quantile(cmplx_line, .3))^2 center <- (length(cmplx_line)/4*2):(length(cmplx_line)/4*3) cmplx_line[center] <- cmplx_line[center] + dnorm(6*( 1:length(center)-length(center)/2)/length(center))*10 ds <- data.frame(cmplx_line, x=1:200) روز <- 1:140/2 set.seed(1234) نمونه <- round(rnorm(600, mean=100, 60)) نمونه <- نمونه[نمونه <= max(ds$x) & sample >= min(ds$x)] sample_ds <- ds[sample, ] sample_ds$noise4 <- sample_ds$cmplx_line + rnorm(nrow(sample_ds)، sd=2) reg.n4.4 <- lm(noise4 ~ poly(x, 6)، data=sample_ds) dd <- datadist(sample_ds) option(datadist = dd) reg.n4.4rcs_ols <- ols(noise4 ~ rcs(x, 7)، data=sample_ds) AIC(reg.n4.4) plot(sample_ds$x, sample_ds$noise4, col=#AAAAAA) خطوط (x=ds$x, y=ds$cmplx_line, lwd=3, col=black, lty=4) nd <- data.frame(x=ds$x) lines(ds$x, predict(reg.n4.4, newdata=ds)، col=orange، lwd=3) lines(ds$x, predict(reg.n4.4rcs_ols, newdata=ds)، col=lightblue, lwd=3) legend( bottomright، fill=c(سیاه، نارنجی، آبی روشن)، legend=c(خط واقعی، پلی، RCS - ols)، inset=.05) این نمودار زیر را نشان می دهد: 
|
آیا اسپلاین ها بیش از حد به داده ها تناسب دارند؟
|
72219
|
استفاده از قانون Zipf برای انتخاب K ngram های برتر؟
|
|
31764
|
چگونه می توانم داده هایی را که برخی از مشاهدات نمی توانند در یک خوشه قرار گیرند، خوشه بندی کنم؟
|
|
103396
|
مقایسه شیب ها در مدل اثر مختلط
|
|
108311
|
اگر چند سری داده داشته باشم، a = [a1, a2, ... a100] ~ bimodal با mu_a1, mu_a2, sigma_a1, sigma_a2, b = [b1, b2, ... b100] ~ bimodal با mu_b1, mu_b2, sigma_b1 , sigma_b2, c = [c1, c2, ... c100] ~ bimodal با mu_c1، mu_c2، sigma_c1، sigma_c2، چگونه a، b و c را عادی سازی کنم تا توزیع یکسانی را دنبال کنند؟ بگویید، برای اهداف ترکیب داده ها؟ برای مثال، اگر a، b و c از یک توزیع گاوسی پیروی کنند، تنها کاری که باید انجام دهم این است که میانگین و مقیاس را به همان انحراف استاندارد کم کنم. اما در توزیعهای دووجهی یا چندوجهی با میانگینهای متعدد و انحرافات استاندارد چطور؟ پیشاپیش ممنون
| |
112003
|
ANOVA اندازه گیری های مکرر دو طرفه با داده های نامتعادل
|
|
100803
|
چگونه 2 مدل خطی را با متغیر پاسخ یکسان مقایسه کنم؟
|
|
31496
|
آیا می توانید شیب های رگرسیون را از یک مدل ترکیبی مقایسه کنید؟
|
|
4768
|
این سوال در طول مصاحبه برای یک موقعیت تجاری با یک شرکت تجاری اختصاصی از من پرسیده شد. خیلی دوست دارم جواب این سوال و شهود پشت آن را بدانم. متشکرم **سوال آمیب: جمعیت آمیب با 1 شروع می شود. پس از 1 دوره می توان آن آمیب را با احتمال مساوی به 1، 2، 3 یا 0 تقسیم کرد (می تواند بمیرد). احتمال اینکه کل جمعیت در نهایت از بین بروند چقدر است؟**
| |
47256
|
نمونه هایی از پیش بینی مدل سری زمانی VAR در R
|
|
81731
|
من سعی می کنم پیام های توییتر را طبقه بندی کنم. به عنوان مثال من توییت هایی در مورد زلزله جمع آوری کردم و یک طبقه بندی کننده در مورد آن آموزش دادم. تقریباً در همه توییتها هشتگ خاصی درباره زلزله دیده میشود. هدف من این است که چنین طبقه بندی کننده ای را آموزش دهم تا سپس آن را در جریان توییتر اجرا کنم و توییت هایی را فقط به طور کلی مربوط به زلزله دریافت کنم. با این حال یک سوال من این است که اگر به عنوان مثال یک توییت جدید وارد شود که حاوی هشتگی نباشد که در تمام اسناد موجود در مجموعه داده آموزشی وجود دارد، آیا این روی کیفیت طبقه بندی تأثیر نمی گذارد؟ بنابراین آیا چنین رویکردی به توئیتهای مربوط به زلزله به طور کلی تعمیم میدهد؟ یا فقط برای آن زلزله خاص که کلاسیفایر قطار روی آن باشد خوب است؟ اگر نه، چگونه می توانم چیزی کلی بسازم؟ با تشکر
|
آیا یک عبارت متداول بر کیفیت طبقه بندی اسناد متنی تأثیر می گذارد؟
|
88290
|
من می خواهم مقادیر روی محور y را با مقادیر محور x به عقب برگردانم. همانطور که می بینید، این رابطه خطی نیست. مقادیر y فقط مثبت هستند نمی توانند از 4 تجاوز کنند، مقادیر x همیشه مثبت هستند. آیا می توان (و فکر می کنید ایده خوبی است) موارد زیر را انجام دهید: * از متغیرهای ساختگی برای bin های مقادیر x استفاده کنید (مثلاً سطل های 0.5) * به عنوان یک محدودیت اضافی، مقدار ضریب متغیر ساختگی در bin i نمی تواند کمتر از مقدار متغیر ساختگی bin i-1 باشد به این ترتیب امیدوارم بتوانم یک تابع رگرسیون صعودی یکنواخت خوب از طریق داده ها بدست بیاورم. (من می خواهم از کاهش مقدار در انتهای محدوده X از تناسب LOESS جلوگیری کنم زیرا معنی دار نیست) آیا فکر می کنید این ایده خوبی است و آیا این امکان در R وجود دارد؟ پیشاپیش از شما متشکرم. 
| |
81733
|
من در حال توسعه یک الگوریتم تطبیقی هستم، و نمیدانم که چرا وبسایتها استفاده از تخمین نقطهای را انتخاب میکنند، به عنوان مثال. شما 60٪ با شخص X مطابقت دارید. با توجه به اینکه به احتمال زیاد دادههای گم شده وجود خواهد داشت، بهعنوان مثال، به جای جریمه کردن نمرههای خطا برای پاسخهایی که مطمئن نیستیم، چرا یک فاصله زمانی ارائه نمیکنیم، مثلاً. شما بین 70-80٪ با شخص X مطابقت دارید. شاید این حتی انگیزه خوبی برای افراد برای تکمیل اطلاعات بیشتر باشد. آیا کسی می داند که به احتمال زیاد دلایل اصلی نشان دادن تخمین های نقطه ای و نه فواصل چیست؟
|
چرا الگوریتم های تطبیق از تخمین نقطه ای به جای فواصل استفاده می کنند؟
|
31494
|
آرگومان wid در تابع ezANOVA در بسته R ez دقیقا چیست؟
|
|
81734
|
NPS توضیح داد: از مشتری پرسیده می شود، چقدر احتمال دارد که [شرکت خود] را به یک دوست یا همکار توصیه کنید؟ و مشتریان در مقیاس 1-10 پاسخ میدهند. من تعداد زیادی نظرسنجی تکمیلشده NPS در ماه دریافت میکنم و ملزم به بررسی حوزههای مختلف کسبوکار NPS و گروههای تعاملی درون شرکت هستم که هر کدام دارای میانگین حجم نظرسنجی متفاوت هستند. من به دنبال محاسبه تعداد نظرسنجی هایی هستم که در آن اندازه گیری NPS از نظر آماری مرتبط می شود. • مروجین (امتیاز 9-10) مشتاقان وفاداری هستند که به خرید و معرفی دیگران ادامه می دهند و به رشد دامن می زنند. • منفعلان (امتیاز 7-8) مشتریان راضی اما غیر مشتاق هستند که در برابر پیشنهادات رقابتی آسیب پذیر هستند. • بدکاران (امتیاز 0-6) مشتریان ناراضی هستند که می توانند به برند شما آسیب بزنند و از طریق تبلیغات دهان به دهان منفی مانع رشد شوند. سپس درصد مشتریانی که تبلیغ کننده هستند از درصدی که مخالف هستند کم می شود.
|
نحوه محاسبه تعداد آماری مرتبط از نظرسنجی ها هنگام اندازه گیری NPS
|
60904
|
من دو گروه دارم - یک گروه که یک عکس از یک سیاستمدار با همسرش ارائه شد، یک گروه که سیاستمدار تنها بود. شرکت کنندگان در هر گروه همچنین به سؤالاتی (به عنوان یک آیتم در مقیاس لیکرت) در مورد احتمال رأی دادن به آن سیاستمدار پاسخ دادند. باید مقایسه کنم که هر گروه چقدر به آن سیاستمدار رای می داد و مقایسه کنم. بهترین آزمون آماری برای استفاده کدام خواهد بود؟
|
مقایسه دو گروه
|
34043
|
داده های واترمارکینگ برای داده کاوی
|
|
81737
|
من سؤالات ارسال شده در اینجا را در مورد نحوه برخورد با وضعیت عبارات تعاملی مهم اما تأثیرات «اصلی» ناچیز خوانده ام، و نکته اصلی من این است که بستگی به سؤال تحقیق شما دارد که چگونه نتایج خود را ادامه دهید و تفسیر کنید. از نظرات شما در مورد تفسیر من در زمینه سوال تحقیقم سپاسگزارم. فرضیه: رابطه بین قد و وزن در مردان قویتر از زنان است. $$Weight = a + b_1 \times Height + b_2 \times Male + b_3 \times (Height \times Mane) + e$$ نتایج: $b_1$ **به طور قابل توجهی متفاوت از صفر نیست. $b_3$، عبارت تعامل، مثبت است و به طور قابل توجهی با صفر متفاوت است. ** آیا می توانم نتیجه بگیرم که شواهدی در تأیید فرضیه خود پیدا کردم (که رابطه بین قد و وزن برای مردان قوی تر از زنان است)؟ ** متشکرم!
|
تفسیر اصطلاحات تعامل در صورتی که اثر اصلی ناچیز باشد
|
94280
|
من در حال بررسی چندین مطالعه هستم. من اطلاعات اصلی را ندارم. مطالعهای که من به آن نگاه میکنم، میانگینها، انحرافات استاندارد و مقادیر $U$ من ویتنی (با p$) را ارائه میدهد. (چگونه) می توانم از Mann-Whitney U به Z در R تبدیل کنم؟ [شاید استفاده از بسته ای مانند MAd.] این صفحه راهنمایی هایی را ارائه می دهد. من با این مشکل روبرو هستم که همان مقادیر $U$ را که محققین اصلی با استفاده از مقادیر میانگین ارائه شده ایجاد کردند، ایجاد نمی کنم. از آنچه می توانم بگویم - صفحات را جست و جو کرده ام و اکنون با کارشناسان صحبت کرده ام - این واقعاً نمی تواند اتفاق بیفتد. نزدیکترین چیزی که من پیدا کردم محاسبه بود: $$ Z = \frac{{\rm بزرگترین}\ U\ {\rm value} – (N_1N_2)/2}{N_1N_2(N_1+N_2+1)]/12} $$ اما من به data1 اصلی دسترسی ندارم \- فقط خلاصه $U$ است، بنابراین نمی توانم این کار را انجام دهم. دادهها از یک نمونه غیرعادی توزیع شده (n کوچک) بود - بنابراین من نمیتوانم مجموعه دادهای متناظر را به طور معناداری تولید کنم. هدف از این تبدیل برای یک متاآنالیز بود. من باید در خلاصه خود به شمارش آرا $p$-value بسنده کنم. * * * اگرچه این در حال بسته شدن است، من دادههای $U$ را که امیدوار بودم از آنها تبدیل کنم، یادداشت میکنم: 1 A. N. Antle، G. Corness، و M. Droumeva. محیط های دیجیتال_، تعامل. محاسبات، جلد. 21، شماره 1-2، صفحات 66-75، ژانویه 2009. یک مثال، محاسبه اندازه افکت ($z$) برای تمپو است. این کار انجام نشد، زیرا داده ها ناپارامتریک بودند - به دلیل حجم نمونه کوچک (به احتمال زیاد). GroupA: M = 123، sd = 108 GroupB: M = 71، sd = 59 ارائه شده U = 5.5، p < 0.0001 می توان کارهایی مانند «mes()» را از بسته «compute.es» انجام داد - اما نتایج در کنار نقطه قرار دارند زیرا داده ها ناپارامتریک هستند. mes(123, 71, 108, 59, 10, 10, 95) پیوند فوق روش بسیار خوبی برای محاسبه دقیقتر Mann-Witney $U$ (Wilcoxon) ارائه می دهد - و صفحه مرجع compute.es بسیار مفید است - اما دادههای ناپارامتری از دست رفته، مشکل را غیرقابل حل میکنند (تا جایی که من میتوانم بگویم). بنابراین، من از $p$-values برای رویکرد شمارش آرا کمتر آموزنده استفاده خواهم کرد.
|
چگونه از Mann-Whitney U به Z (یا اندازه افکت دیگر) تبدیل کنیم؟
|
108317
|
برازش یک مدل ترکیبی با افکت های تصادفی و مکرر در SAS
|
|
83330
|
مقاله من شامل دو معادله Log fdi =(نمایه سرمایه گذاری، نوسانات نرخ ارز، تفاوت نرخ بهره، فساد، کیفیت بوروکراتیک، تلفن) Corruption=f(کیفیت بوروکراتیک، نظم و قانون رژیم سیاسی، رشد تولید ناخالص داخلی، taxtogdp، ثبات دولت) من هستم سردرگم هستید که کدام مدل را اعمال کنید؟ آیا کسی می تواند پیشنهاد دهد که باید حداقل مربع دو مرحله ای را انتخاب کنم؟ همچنین معتقدم که مدل من بازگشتی است، بر این اساس چگونه باید یک مدل بازگشتی را تخمین بزنیم. آیا روش استفاده از OLS در هر دو معادله است؟
| |
94281
|
من از خروجی Eviews خود از یک مدل ARMA استفاده می کنم و ضرایب دیگر را برای انجام پیش بینی های خود در اکسل می گیرم. با این حال، من نمیتوانم با باقیماندههای تخمینهای درون نمونه ارائهشده توسط Eviews مطابقت دهم. در پیوست من محاسباتی را دارم که انجام می دهم. من فکر می کنم اشتباه مربوط به محاسبه MA(12) است. به عنوان چکیده، هدف پیشبینی نرخ تغییر سال به سال نرخ مبادله دلار/یورو است و من یک ARMA را با AR(1) و MA(12) تخمین زدم. پیشاپیش از کمک شما متشکرم! بهترین، فایل اکسل با محاسبات من را می توانید در اینجا پیدا کنید: انجمن Eviews
|
خروجی مدل ARMA و اکسل
|
94284
|
با توجه به 2 رویداد $E، F$، من می دانم که $P(E | F) = \frac{P(E \cap F)}{P(F)}$. با این حال گاهی اوقات از قضیه بیز به جای آن استفاده می شود: $P(E | F) = \frac{P(F | E) P(E)}{P(F|E)P(E)+P(F|E^ {c})P(E^{c})}$. با این حال، چه زمانی میدانم که از تعریف قبلی و سادهتر استفاده کنم و چه زمانی از قضیه بیز استفاده کنم؟ وقتی با مشکلی مواجه می شوم، چگونه می توانم تشخیص دهم که از کدام تعریف استفاده کنم؟
|
چه زمانی از قضیه بیز برای محاسبه احتمال شرطی استفاده کنیم؟
|
94285
|
من در حال جمع آوری داده های کالیبراسیون برای دستگاهی هستم که شامل سه متغیر $S$، $L$، و $x$ است. برای یک مختصات $(S, L)$، دستگاه مقدار مربوط به $x$ را تا سطح بالایی از دقت (در عرض 1%) در اختیار من قرار می دهد. من از دستگاه برای جمع آوری مقادیر $x$ برای طیفی از نقاط $(S, L)$ استفاده کرده ام. اکنون، من می خواهم معادله ای بنویسم که با توجه به دو متغیر دیگر، $S$ را تولید کند (و معادله ای مشابه برای $L$). در حالی که مقادیر ورودی برای متغیرهای شناخته شده من ممکن است دقیقاً ترکیبی نباشد که من آزمایش کرده ام، اما در محدوده آزمایش شده خواهد بود. برای برنامه من، دقت خروجی **مهم است** \- در حالت ایده آل، معادله رگرسیون من تقریباً به اندازه دستگاه دقیق خواهد بود. من یک معادله مدل _تقریبی_ برای داده ها دارم، و قبلاً از حداقل مربعات برازش برای برازش معادله مدل با داده هایی که جمع آوری کردم استفاده می کردم. در حالی که این یک تناسب معقول ارائه می دهد، معادله مدل به دلیل نقص های دنیای واقعی در دستگاه فیزیکی کامل نیست، و معادله دقت را برای مقادیر مشخصی از متغیرها از دست می دهد. استفاده از یک رگرسیون ناقص در نقاط داده کامل از یک جهت بیهوده به نظر می رسد. بدون دانستن شکل دقیق معادله مدل، چگونه می توانم این داده ها را به دقیق ترین شکل ممکن رگرسیون کنم؟
|
رگرسیون داده های دقیق
|
2559
|
مقاله زیر پیاده سازی R را به صورت موازی بر روی یک واحد پردازش گرافیکی (GPU) توصیف می کند. * Buckner و همکاران، بسته gputools محاسبات GPU را در R، BIOINFORMATICS، Vol. 26 شماره 1 2010، صفحات 134-135 در بخش آزمایشی، در یک کامپیوتر 4 هسته ای، عملکرد برنامه اجرا شده بر روی GPU را با عملکرد بدون GPU مقایسه می کنند. موارد زیر را بنویسید: > ما انتخاب کردیم که از یک رشته از محیط R در آزمایش خود استفاده کنیم، زیرا این روشی است که بیشتر کاربران با R تعامل دارند. بنابراین، نویسندگان با اجرای آزمایش های خود با استفاده از یک هسته، خط مبنا را پیدا می کنند. در حال اجرا در سریال). اما، شرایط تجربی برای سمت GPU نامشخص است (برای من). هنگام استفاده از GPU، برای کارایی باید همزمان از CPU استفاده کنیم. اگر نویسندگان از CPUهای باقیمانده در رایانه استفاده کنند (که انجام آن در یک الگوریتم بهینه شده معقول است)، آنگاه افزایش سرعت بر اساس CPUهای اضافی و همچنین GPUهای بیش از حد پایه خواهد بود (و بنابراین به طور مصنوعی با یک ضریب کمی کمتر افزایش می یابد. از 4). > این آزمایش چگونه باید تفسیر شود؟ به ویژه، میخواهم بدانم که آیا تفسیر بالا من درست است یا خیر، و اگر چنین است، این آزمایش در واقع به ما چه میگوید.
|
Gputools برای R: چگونه روش آزمایشی را تفسیر کنیم؟
|
80142
|
دو مجموعه مقایسه بین خوشهبندی اصلی و خوشهبندی جدید با استفاده از چندین شاخص و معیار عملکرد انجام شد. در زیر دو خوشه یا پارتیشن اولیه (اینها باید حقیقت یا پارتیشن های اصلی باشند)، دو دسته هستند زیرا نمونه ها از دو مکان مختلف گرفته شده است و به همین دلیل است که ما همیشه دو مجموعه پارتیشن داریم:  تصویر زیر خوشه بندی های جدیدی را نشان می دهد که با استفاده از تنها زیر مجموعه ای از داده ها برای هر مکان به جای کل مجموعه داده به دست آمده است و سپس با نمونههای اصلی (بهدستآمده با استفاده از کل مجموعه داده) مقایسه شدند، یعنی، اصلی سمت چپ با جدید چپ، اصلی راست با راست جدید.  این دو پارتیشن با قسمت coutner اصلی خود (چپ با چپ، راست با راست) همانطور که گفتم مقایسه شدند و در زیر نتایج: نام Part1 (Lt) Part2 (Rt) 1 Purity 0.9633028 0.7431193 2 VI 0.2451685 1.1486369 3 NMI 0.8673525 0.4062956 4 تقسیم/پیوستن 8.0000000 62.0000000 5 رند تعدیل شده 0.8750403 0.2131243 0.2131243 6.2131243 6.2131248 6.2131248 6.2131248. Jaccard 0.8800522 0.4045466 **نکته:** `VI` مخفف Variation of Informaiton NMI مخفف Normalized Mutual Information ARI کوتاه برای Adjusted Rand Index 'split/join' نیز به عنوان van شناخته می شود. Dongen S` بنابراین واضح است که پارتیشن جدید سمت چپ بسیار شبیه به پارتیشن مشابه اصلی سمت چپ خود است. پارتیشن جدید درست بسیار متفاوت از همتای اصلی خود بود. نمونه ها از 1 تا 34 (محور y) شماره گذاری شدند و در پنج موقعیت مختلف (محور x) نمونه برداری شدند. اندازه گیری خلوص مطابق با موارد فوق بود و به راحتی قابل درک است. تا آنجایی که من میدانم سایر شاخصها/متریکها، هر کدام چیز متفاوتی را اندازهگیری میکنند. اما صادقانه بگویم به عنوان یک غیر آمارگیر نمی توانم با ریاضیات گسترده پشت هر یک از آنها ارتباط برقرار کنم. بنابراین درخواست من از جامعه این است که چگونه می توان این شاخص ها را با توجه به پارتیشن های موجود در تصاویر زیر بدون استفاده از اصطلاحات آماری _فانتزی_ (من قبلاً در جای دیگر با دسته ای از آنها برخورد کرده ام) بلکه به زبان انگلیسی ساده تفسیر کنیم. به عنوان مثال (لطفاً اگر اشتباه می کنم، من را تصحیح کنید)، موارد زیر را یاد گرفتم: 1. فاصله ژاکارد فاصله یک پارتیشن از دیگری را اندازه می گیرد، می توان آن را با شاخص 1-Jaccard بدست آورد، که 2. برای 'VI' منطقی است. به جای شباهت، تفاوت را اندازه گیری می کند، مقادیر آن مانند NMI بین 0 و 1 نیست، چیزی بین 0 و بیش از $2log k$ نیست. $k$ تعداد خوشهها است، بنابراین اگر 4 باشد، در این مورد مقدار نباید بیشتر از 2.log4 = 2.772589 باشد. 3. «NMI» بین 0 و 1 است (NMI = 0، دو پارتیشن هیچ اطلاعاتی در مورد یکدیگر ندارند، NMI = 1، دو پارتیشن حاوی اطلاعات کامل در مورد یکدیگر هستند) 4. «ARI» همان Rand Index است اما تصحیح شده است. برای _ شانس. این معیار زمانی که شاخص رند مقدار مورد انتظار خود را می گیرد صفر است و حداکثر یک دارد. **سوال:** بسیار سپاسگزار خواهم بود که تفسیری بصری برای متریک تقسیم/پیوستن داشته باشم (همانطور که توسط Micans پیشنهاد شده است، که به عنوان متریک van Dongen S نیز شناخته می شود)، VI دقیقاً در رابطه با تصاویر مثال چه چیزی را اندازه گیری می کند. نشان داده شده، جاکارد چقدر با رند متفاوت است؟ لطفاً هر گونه تصور غلطی که در این سؤال ارسال شده است را اصلاح کنید. من می خواهم شهود پشت آن را درک کنم و از شما یاد بگیرم که چگونه این معیارها را درست تفسیر کنید و چگونه آنها می توانند به درک پارتیشن ها از زوایای دید مختلف کمک کنند. داشتن نتایج خوب است، اما اظهار نظر در مورد آنها یک هنر است، مستلزم درک عمیق ابزارها و فلسفه پشت آنها است، آیا می توانم این را با شما پیدا کنم؟ من امیدوارم.
| |
43108
|
فرض کنید یک نمونه پیمایشی (که با نمونه گیری تصادفی طبقه ای به دست می آید) می تواند آزمون های نمایندگی کای اسکوئر را روی برخی از متغیرها قبول کند اما بقیه را نه. به نظر من ممکن است چندین راه حل وجود داشته باشد: 1. یک نمونه دیگر بکشید، اما این کار پرهزینه و زمان بر است. 2. نقاط پرت را که باعث شکست تستها میشوند، حذف کنید، یعنی وزن صفر را به مشاهداتی که نمونه را غیرنماینده نشان میدهند، اختصاص دهید. 3. برای دستیابی به نماینده بودن، نمونه اصلی را دوباره وزن کنید. اما از چه وزنه هایی استفاده کنم؟ 4. مشاهدات بیشتری بکشید و به نمونه اصلی اضافه کنید؟ اما به نظر می رسد که این طرح نمونه برداری اولیه من را تغییر می دهد. هر گونه پیشنهاد و منابع کتاب درسی / مقاله دانشگاهی مفید خواهد بود.
|
اگر نمونه نظرسنجی نتواند آزمون نمایندگی کای دو را قبول کند، چه باید کرد؟
|
57230
|
با در نظر گرفتن عدم تعادل کلاس، چرا نمونه برداری تصادفی بیش از حد، به طور کلی، عملکرد یک SVM خطی را بهبود می بخشد؟ آیا به این دلیل است که تعداد بردارهای پشتیبانی برای کلاس اقلیت در نتیجه نمونه برداری بیش از حد افزایش یافته است (حتی اگر داده ها فقط تکرار می شوند)؟ ممنون که گوش دادید
|
SVM خطی و نمونه برداری تصادفی
|
57231
|
من می خواهم یک کمیت از یک توزیع خاص را محاسبه کنم. بنابراین من به cdf نیاز دارم. توزیع من یک توزیع Student's-t استاندارد است، می توان آن را به صورت \begin{align*} f(l|\nu) =(\pi (\nu-2))^{-\frac{1}{2} نوشت. }\Gamma \left(\frac{\nu}{2} \right)^{-1} \Gamma \left(\frac{\nu+1}{2} \right) \left(1+\frac{l^2}{\nu-2} \right)^{-\frac{1+\nu}{2}} \end{align*} این را می توان در R با استفاده از: تابع احتمال<-تابع(x)(پیشمبر*(پارام-2))^(-1/2)*گاما(پارام /2)^(-1)*گاما((پارام+1)/2)*(1+l^2/(پارام-2))^(-(1+پارام)/2) جایی که pinumber مقدار pi و param $\nu$ است. بیایید بگوییم $\nu=5$. سپس می توانم با وارد کردن مقدار معینی برای `l` خود، احتمال را بدست بیاورم. اما من می خواهم چگالی تجمعی را داشته باشم، زیرا بعداً می خواهم چندک را محاسبه کنم. من به چیزی مانند cumsum(function probability(5)) فکر کردم تا مقدار تجمعی را تا 5 به من بدهد. اما بدیهی است که این کار نمی کند. چگونه می توانم احتمال تجمعی و بعداً چندک را بدست بیاورم؟ ویرایش: خوب، اولین پیشرفت را پیدا کردم: integrate (function probability,-Inf,2) نقطه شروع خوبی خواهد بود، اما چگونه می توان کار دیگر را انجام داد؟
|
cdf و کمیت یک توزیع خاص را محاسبه کنید
|
43109
|
**هدف من تولید دو متغیر است که همبستگی دارند و یکی از آنها با توجه به یک متغیر گروه بندی ناهمگون است. من علاوه بر این از باقیمانده های طرح ریزی متعامد استفاده کردم و متغیرها را در جلو استاندارد کردم تا مطمئن شوم که همبستگی در مقدار مورد نظر باقی می ماند. برای معرفی ناهمگونی به یکی از متغیرها، موارد زیر را امتحان کردم: 1. تجزیه cholesky را برای $u=(u_1,u_2)، \ q[i] = c(1,1.01,1.02,1.03,...) انجام دادم. $Var(u) = \begin{pmatrix} 1 & \rho\cdot q[i] \\\ \rho\cdot q[i] & q[i]^2 \end{pmatrix}$ دلیل انتخاب این ماتریس کوواریانس این است که در حالی که واریانس $u_2$ با $q[i]$ افزایش مییابد، همبستگی در مقدار دلخواه $ باقی میماند. \rho$. اما بدیهی است که این ناهمگونی را به $u_2$ معرفی نمی کند... 2. تلاش دوم تجزیه هر دو متغیر $u_1,u_2$ با اندازه نمونه n به دو قسمت به طول $\frac{1}{2}\ بود. cdot n$: $\ u_1 = (u_{1.1},u_{1.2})، u_2 = (u_{2.1},u_{2.2})$. اکنون تجزیه cholesky را برای $Var(u) = \begin{pmatrix} 1 & 0 & \rho & \rho\sqrt{q[i]} \\\ 0 & 1 & \rho & \rho\sqrt{ انجام دادم q[i]} \\\ \rho & \rho & 1 & 0 \\\ \rho\sqrt{q[i]} و \rho\sqrt{q[i]} & 0 & q[i] \end{pmatrix}$ پس از ایجاد چهار متغیر، $u_{1.1}،u_{1.2}$ را به یک $n\times 1 ادغام کردم بردار $. مشابه برای $u_2$. آزمایش نتیجه نشان میدهد که ناهمسانی اکنون در جایی است که باید باشد، زیرا واریانس $u_{2.2}$ با $q[i]$ افزایش مییابد. اما با افزایش $q[i]$، همبستگی ناپدید میشود، زیرا واریانس $u_2$ سریعتر از کوواریانس بین $u_1$ و $u_2$3 افزایش مییابد. سومین تلاشی که در نهایت انجام دادم این بود که فقط $u_2$ را ضرب کنم. با یک متغیر ساختگی $z_2 =\begin{cases} 1\\\ q[i] \end{cases}$ این رویکرد برای مقادیر کوچک $q[i]$ (همانطور که نمودار من نشان می دهد) اما به محض اینکه $q[i]$ به اندازه کافی بزرگ شد بر نامگذار و مخرج ضریب همبستگی غالب می شود به طوری که واریانس شرطی (بسته به مقدار $) z_2$) دیگر در $q[i]$ افزایش نمی یابد. کد من برای مورد (3): q <- seq(1.01،10،0.1) n <- 100 rho <- 0.5 sd_u1 <- numeric(0) sd_u2.1 <- numeric(0) sd_u2.2 <- numeric(0) cor_u1_u2 <- numeric(0) for(i in 1:length(q)){ u1 <- rnorm(n,0,1) u1 <- ( u1 - mean(u1) )/sd(u1) u2 <- rnorm(n,0,1) z2 <- c (rep(1,0.5*n),rep(q[i],0.5*n)) u2 <- u2*z2 u2 <- as.vector( ( diag(n) - u1%*%solve(t(u1)%*%u1)%*%t(u1) ) %*% u2 ) u2 <- ( u2 - mean(u2) )/sd(u2) z <- cbind( u1، rho*u1+sqrt(1-rho^2)*u2) sd_u1[i] <- sd(z[,1]) sd_u2.1[i] <- sd(z[,2][1:(0.5*n)]) sd_u2.2[i] <- sd(z[,2][(0.5*n+1):n ]) cor_u1_u2[i] <- cor(z[,1],z[,2]) } par(mfrow=c(3,1)) plot(q,sd_u1, type=l) plot(q,sd_u2.1, type=l, ylim=c(0,2)) lines(q,sd_u2.2,col=red) plot(q,cor_u1_u2, type =l) 
|
آیا راه بهتری برای ایجاد متغیرهایی با همبستگی خاص و یکی از آنها هتروسکداستیک وجود دارد؟
|
103936
|
تحلیل عدم قطعیت
|
|
11473
|
من یک ANOVA یک طرفه نسبتاً ساده را به عنوان بخشی از یک تمرین کلاسی انجام می دهم. من میخواهم مقادیر p اصلاحنشده جفتی را از R دریافت کنم، بنابراین میتوانم یک آزمایش FDR متوالی را در یک بسته دیگر انجام دهم (میدانم که بستههای FDR در R نیز وجود دارد). من ANOVA خود را همانطور که در زیر نشان داده شده است تنظیم کرده ام، و به خوبی کار می کند، نتیجه می دهد، اما به نظر نمی رسد که بفهمم چگونه مقادیر p خام و اصلاح نشده را برگردانم. در نهایت، من میخواهم تستهای جفتی را برای FDR و Bonferroni متوالی در R انجام دهم، اما به نظر میرسد این اولین قدم باشد. به نظر میرسد که «pairwiseCI» یا «multcomp» ممکن است من را به جایی که میخواهم برسم، برساند، اما در یافتن اینکه کدام یک کاری را که به دنبالش هستم انجام میدهد مشکل دارم. R> سر (d10) زمان نژاد 1 27.4 نوع.A 2 18.3 نوع.A 3 24.3 نوع.B 4 19.6 نوع.B 5 21.6 نوع.C 6 30.3 نوع.D a10 <- aov(time~breed,data=d10 ) # اهمیت کلی را گزارش میکند، اما در گزارشهای خلاصه جفت (a10) # چیزی گزارش نمیشود فقط مقادیر تصحیح شده TukeyHSD(a10)
|
مقادیر p زوجی اصلاح نشده برای ANOVA یک طرفه؟
|
86262
|
احتمال در بازی پارتی مافیا/گرگ
|
|
109018
|
لاجیت چند متغیره
|
|
81811
|
من در حال انجام برخی اعتبارسنجی مدل و کالیبراسیون داده های آموزشی مناسب برای استفاده با مدل های glm و gam هستم و با عملکرد ecalp مشکل دارم. کسی قبلا این مشکل رو داشته؟ هر راه حل Model_calibration_table_TRAIN<-data.frame() DATA2<-data.frame(TRAIN$Latitude, TRAIN$SPECIES, TRAIN$GLM_pred, TRAIN$GAM_pred) Model_calibration_table_bnd<-data.frame(GLM=c GAM)) برای (m in 3:4){ w<-ecalp(DATA2[,m], DATA2[,2]) w<-as.data.frame(w) w$bin<-c(0.05,0.15,0.25,0.35,0.45, 0.55،0.65،0.75،0.85،0.95) caltest<-lm(w~bin, data=w, subset=w>-1) ctest<-cor(DATA2[,m], DATA2[,2]) Model_calibration_table_train$COR[m-2]<-ctest Model_calibration_table_train$calibration[m-2]<-caltest$coefficients[2 ] Model_calibration_table_train$bias[m-2]<-caltest$coefficients[1] } > خطا: نمی توان تابع ecalp را پیدا کرد
| |
97536
|
من یک سری دماهای روزانه دارم و مدلی با استفاده از تابع dlmModTrig بسته dlm در R نصب کرده ام که از توابع مثلثاتی استفاده می کند که خوب است. با این حال من میخواهم جایگزین دیگری را امتحان کنم که تابع «dlmModSeas» است که از پارامترهای «s - 1» برای فصلهای s در سال استفاده میکند. سوال من این است که از آنجایی که روزانه دارم آیا برای گرفتن یک جزء فصلی ماهانه به 12 - 1 پارامتر نیاز دارم یا 30 - 1 خواهد بود؟ به هر حال تعداد پارامترهای زیادی است... علاوه بر این، اگر بخواهم فرکانس های مختلف را بگیرم چه می شود؟ آیا برای هر فرکانس یک مدل قرار دهم و آنها را جمع کنم؟
|
فصلی بودن DLM با داده های روزانه
|
97530
|
بسیار خوب، بنابراین من این پاسخ واقعا خوب را در مورد نحوه عادی سازی داده های خود پیدا کردم. من کد @user25658 را با موفقیت در پروژه خودم پیادهسازی کردم، یک مدل خطی آموزش دادم و از آن برای پیشبینی استفاده کردم. بگویید «y = 0.4513869» مقدار عادی پیشبینیشده است که میخواهم آن را غیرعادی کنم. بر اساس کد نرمال سازی زیر، چگونه می توانم به این هدف برسم؟ نرمال شده = (x-min(x))/(max(x)-min(x)).
|
عادی سازی مقدار پیش بینی شده
|
46551
|
من در حال مطالعه تجزیه و تحلیل جدول اقتضایی بودم و کمی با تست دقیق فیشر و تست قدرت فیشر آزمایش کردم. اکنون می خواهم بتوانم جهت روابط را تعیین کنم. آیا کسی می تواند به من بگوید بهترین روش برای تعیین جهت رابطه در جداول احتمالی 2x2 چیست؟ آیا این فقط با استفاده از شانس است؟ یا آیا روش های استاندارد و رسمی برای محاسبه آن وجود دارد؟
|
جهت رابطه در جداول احتمالی 2×2
|
103930
|
متغیر تصادفی یکنواخت گسسته (؟) که تمام مقادیر گویا را در یک بازه بسته می گیرد
|
|
46555
|
برنامه خاص من به من نیاز دارد که یک مدل خطی با ساختار همبستگی قوی بین متغیرهای مستقل بسازم. ابعاد مسئله زیاد است، برای مثال 1 میلیون X 200. این 1 میلیون مشاهده از 200 متغیر است. از آنجایی که مشکل به شدت خطی است، باید از نوعی منظم سازی استفاده کنم. من می خواهم از کمند غیر منفی (به دلیل ساختار مشکل) استفاده کنم. من این را در R حل می کنم و از بسته پنالتی استفاده می کنم. اکنون این مشکلی است که من با آن روبرو هستم، محاسبه برای lambda1، پارامتر استاندارد L-1 با استفاده از تابع optL1 حدود 18 ساعت طول می کشد و شمارش می شود. در این مرحله من حتی برای مدل نهایی نصب نشده ام. این فقط مرحله ارزیابی lambda1 است. این خیلی طولانی است! مگر اینکه چیزی را از دست بدهم که باید زمان را کوتاه کنم. یکی از راه های انجام آن کاهش ابعاد مسئله است. من به دنبال ایده هایی برای انجام این کار هستم. متغیرهای مستقل در برنامه من یک ساختار همبستگی پایدار نسبتا قوی دارند. اگر من فقط بالاترین متغیرهای بسیار همبسته را انتخاب کنم و رگرسیون را اجرا کنم، پیامد آن چیست؟ آیا راه هوشمند دیگری برای کاهش ابعاد مشکل وجود دارد؟
|
کاهش ابعاد یک مسئله
|
94130
|
من در R و انتخاب ویژگی ها کمی مبتدی هستم و بسته Boruta را برای انتخاب (کاهش) تعداد متغیرهای خود (n=40) امتحان کرده ام. من فکر کردم که این روش همبستگی احتمالی بین متغیرها را نیز در نظر گرفته است، اما دو (از 20 متغیر انتخاب شده) همبستگی بالایی دارند و دو متغیر دیگر کاملاً همبستگی دارند. آیا این طبیعی است؟ آیا روش بوروتا نباید یکی از این دو را به عنوان بی اهمیت طبقه بندی می کرد؟ هر ورودی کمک بزرگی خواهد بود، پیشاپیش از شما سپاسگزاریم! Char. L.
|
آیا انتخاب ویژگی Boruta (در R) همبستگی بین متغیرها را در نظر می گیرد؟
|
94139
|
من در حال انجام برخی مدلسازی بیزی با استفاده از BUGS - JAGS هستم. وقتی از توزیعهای چند متغیره استفاده میکنم، به سختی میتوانم استنباط کنم که واقعاً چند گره تصادفی (یعنی غیر قطعی) وجود دارد. به عنوان مثال، اگر من باقیمانده ها را به عنوان چند متغیره نرمال مدل کنم: **در R:** صفر = c(0, 0, 0) I = diag(3) **مدل BUGS:** cov.mat ~ dwish(I, 3 + 1) resid[1:3] ~ dmnorm(صفر، cov.mat) واقعاً چند گره تصادفی در چنین مدلی نمونه برداری می شود؟ یا به طور کلی تر: چقدر پیچیده است؟ ماتریس کوواریانس (معکوس) 3 x 3 اما همه سلول ها تصادفی نیستند. یعنی [3،1] با [1،3] یکسان است. و در اینجا، وسیله مشاهده می شود / قطعی.
|
تعداد گره های تصادفی در توزیع چند متغیره بیزی؟
|
94137
|
من نوع زیر مجموعه داده پانل را دارم، بدون متغیر زمان. 20 کشور متغیر پانل هستند و داده های 48 کشور دیگر را ارائه می دهند. متغیرهای مستقل 6 متغیر (همبسته) هستند. همچنین متغیرهای وابسته به دلیل پانل متغیر همبستگی دارند. متغیر پانل indep. متغیرها (6) بخش متغیرها کشور 1 کشور 1 کشور 1 کشور 2 کشور 1 کشور 3 کشور 2 کشور 1 کشور 2 کشور 2 .... ... کشور 20 کشور 49 من می خواهم یک رگرسیون انجام دهم. با این حال، من 2 خوشه استاندارد خطای همبستگی دارم. آیا مدل اثر تصادفی / ثابت با تابع vce (خوشه ای) آزمون مناسبی برای تجزیه و تحلیل این مجموعه داده است؟ و آیا می توانم از آزمون هاسمن برای تصمیم گیری در مورد استفاده از افکت های ثابت یا تصادفی استفاده کنم، علیرغم اینکه این تست نمی تواند vce(خوشه ها) را در نظر بگیرد؟
|
مدل اثرات ثابت / تصادفی
|
81817
|
عادی سازی ویژگی ها در مجموعه آزمایشی برای یک شبکه عصبی
|
|
108315
|
توضیح در مورد تفسیر آزمون والد و آزمون نسبت احتمال
|
|
10356
|
آیا رگرسیون لجستیک زمانی که متغیر نتیجه بین 5 تا 95 درصد تقسیم می شود، سوگیری دارد؟
|
|
17141
|
چگونه به یک داور علمی با سواد آماری متوسط توضیح میدهید که تنظیم برای مقایسههای چندگانه هنگام نمونهگیری از نمونههای پسین بیزی ضروری نیست؟
|
چرا معمولاً هیچ اصلاحی برای مقایسه های متعدد در آمار بیزی وجود ندارد
|
60428
|
من سعی می کنم از svmtrain (جعبه ابزار آماری) برای آموزش SVM خطی (دو کلاس) بر روی بردارهای ویژگی 1 بعدی استفاده کنم. ویژگی ها به طور کامل قابل تفکیک نیستند و طبقات متقاطع هستند. رویکرد ساده لوحانه جستجو برای آستانه بهینه برای یک طبقه بندی ساده است، اما می توان انتظار داشت که با استفاده از یک SVM خطی نتایج مشابه (یا حتی یکسان) به دست آورد. من از تمام پارامترهای پیشفرض استفاده میکنم و SVM آستانه متفاوتی میدهد و عملکرد بسیار بدتری نسبت به جستجوی یک آستانه دارد (دقت 0.73 با جستجوی آستانه در مقابل دقت 0.66 با SVM). انگیزه فرآیند به شرح زیر است: در حالی که بردارهای 1 بعدی را می توان با استفاده از یک آستانه ساده به 2 کلاس تفکیک کرد، زمانی که بعد > 1 باشد، رویکرد آستانه امکان پذیر نیست و به SVM (یا روش های مشابه) برای یافتن یک جداسازی نیاز دارد. برای اطمینان از پیکربندی و استفاده صحیح از SVM، ابتدا انتظار دارم با استفاده از جستجوی آستانه و SVM روی بردارهای 1 بعدی، نتایج بسیار مشابهی دریافت کنم. خوشحال می شوم بدانم چه اشتباهی انجام می دهم تا این نوع تفاوت در عملکرد به دست آید.
|
نحوه آموزش صحیح SVM بر روی یک مجموعه داده 1 بعدی
|
107894
|
من با آمار مشکل دارم. من به دنبال این هستم که آیا تغییر در غلظت یک ماده خاص بر شدت جذب حشرات به سمت آن تأثیر می گذارد یا خیر. من این کار را با طعمه گذاری تله حشرات با این ماده در غلظت های مختلف انجام دادم. من تله ها را به صورت جفتی با تله های جفتی که غلظت های متفاوتی دارند پخش کردم. اکنون دادههایی که در اختیار دارم کمی شبیه به این است: بیشتر : کمتر 6 : 0 1: 0 3 : 1 1 : 0 15: 3 کاری که باید انجام دهم این است که نشان دهم حشرات غلظتهای بالاتر طعمه را ترجیح میدهند. ادغام داده ها و استفاده از $\chi^{2}$ یک گزینه است، اما نمی دانم بهترین گزینه است یا خیر. تله گذاری در نقاط مختلف در طول یک ماه انجام شد بنابراین ممکن است عوامل اغتشاش دخیل باشد. پیشاپیش متشکرم ویرایش: این تنها بخش کوچکی از اطلاعات کامل من است. در مجموع من حدود 40 جفت ارزش برای مقایسه و حدود 300 حشره صید دارم. این فقط یک بخش کوچک، اما نماینده است.
|
ترکیب تستهای $\chi^{2}$
|
70946
|
من سعی میکنم میانگینهای ضربهزنی منطقهای را سال به سال مقایسه کنم (با استفاده از دورههای زمانی قابل مقایسه، مثلاً آگوست هر سال)، اما به آنچه فکر میکنم یک عدم تعادل نمونه است، برخورد میکنم. این یک مثال افراطی است، اما فرضاً یک بازیکن یک روز 10 بر 10 میرود (دو سر) و در همان روز نسبی سال بعد، 1 به 1 میرود. در هر دو مورد، میانگین ضربه زدن او در آن روز 1000 است. با این حال، واضح است که او روز اول خیلی بهتر عمل کرد، اما از منظر متوسط، تفاوتی وجود ندارد. به دلیل داده های منطقه ای و مفروضات دوره زمانی که باید استفاده کنم، گاهی اوقات 25 مشاهده در یک روز و 1 مشاهده در همان روز نسبی سال بعد خواهم داشت. من یک آزمایش Wilcoxin-Mann-Whitney بر روی نمونه های ماهانه انجام دادم که دو سال را با هم مقایسه کردند (از آنجایی که داده های روزانه خیلی کوچک به نظر می رسد) و آنها به طور کلی تفاوتی در میانه ها نشان نمی دهند، اما من به دنبال نظراتی در مورد اگر/چگونه هستم. برای متعادل کردن داده ها توسط at-bats، به جای اینکه کاملاً از میانگین ضربه زدن خارج شود. به دلیل روش جمع آوری، من فقط نمونه دارم و در این مرحله نمی توانم اطلاعات اضافی را جمع آوری کنم.
| |
70300
|
توابع فعال سازی
|
|
90624
|
من دو نمونه داده چند جمله ای دارم که هر دو دارای دسته های گسسته 'N' هستند. من می دانم که اگر توزیع دو نمونه متفاوت است، یک آزمون کولموگروف-اسمیرنوف به من اطلاع می دهد. اما چگونه می توانم از نظر آماری آزمایش کنم که یک دسته خاص به طور قابل توجهی در یک نمونه نسبت به دیگری بیش از حد نشان داده شده است؟
|
چگونه آزمایش کنیم که آیا یک مقدار در یک نمونه در مقایسه با نمونه دیگر بیش از حد نشان داده شده است
|
10353
|
چگونه ANOVA اندازه گیری مکرر را با سه یا چند شرط ارائه شده به ترتیب تصادفی تجزیه و تحلیل کنیم؟
|
|
90622
|
من سعی میکنم مدلی را در نظر بگیرم و این ظن را دارم که کاری که انجام میدهم درست نیست. دادهها ردیابی میکنند که چه نسبتی از مردم تصمیمی گرفتهاند و چه عواملی هنگام تصمیمگیری فعال بودهاند، یعنی چیزی شبیه به این: [1،0،1،0، 23٪] [1،1،0،1، 41٪ ] و غیره... من همچنین می دانم که هر گروه چقدر بزرگ است. هدف پیشبینی درصد بر اساس ورودی باینری است. فکر اولیه من این بود که مدل نمی تواند یک ترکیب خطی مستقیم باشد، البته فقط به این دلیل که خروجی محدود است. این دقیقاً یک رگرسیون لجستیک نیز نیست، زیرا خروجی یک برچسب نیست، بلکه میانگین برای هر گروه است. اولین برداشت من تبدیل خروجی به روشی شبیه رگرسیون لجستیک به log (p/(1-p)) و برازش رگرسیون خطی بود. این به من نتایج مناسبی داده است، اما من احساس آزاردهنده ای دارم که این کاملاً درست نیست. علاوه بر تبدیل خروجی، من همچنین نگران این هستم که نگاه کردن به ورودی به عنوان اعداد، زمانی که آنها واقعاً مقادیر باینری را نشان می دهند، احتمالاً بهترین راه نیست. بنابراین سوال من این است که اگر این راه درستی نیست، آیا مدلهایی وجود دارند که به این نوع موقعیت خاص رسیدگی کنند؟ من باید به دنبال چه چیزی باشم؟ [ویرایش برای شفافسازی] از نظرات/پاسخها به نظر میرسد که توضیحات من در مورد دادهها کمی کم بود، بنابراین در اینجا کمی بیشتر توضیح داده میشود، و همچنین اینکه چرا من در مورد استفاده از رگرسیون لجستیک نامطمئن هستم. من داده های مشابه را نشان خواهم داد. فرض کنید محصولات دارای مجموعه ای از ویژگی های باینری بودند و محصولات مختلفی به مشتریان ارائه شد و نتیجه (خرید/عدم خرید) ثبت شد. سپس مجموعه داده خام به نظر می رسد: F1,F2,F3,... Fn, Buy/No Buy 1, 1, 0, .. 0, 1 1, 1, 1, .. 1, 0 که در آن هر ردیف یک محصول خاص و کاری که مشتری انجام داده است. اکنون می توانم اینها را بر اساس محصولات یکسانی که ویژگی های یکسانی دارند جمع آوری کنم و به سادگی نسبت خرید و همچنین تعداد مشتریانی را که با آن انتخاب ارائه شده اند ثبت کنم. این در اصل چیزی است که من دارم. من میتوانم دوباره به مجموعه داده اصلی تفکیک کنم و یک رگرسیون لجستیک روی آن اجرا کنم، اما خود گروهها بسیار بزرگ هستند و اندازههای بسیار متفاوتی دارند. علاوه بر این من 2 مشکل دارم. اول، میتوانم گروههای مصنوعی را بازسازی کنم که نسبت مشابه اصلی را داشته باشند (یعنی اگر 4% خریداری شود، 4 ردیف خرید، 96 ردیف بدون خرید بسازید)، اما نسبتهای خرید/عدم خرید بسیار کوچک هستند، که به معنای بازسازی گروههای بزرگ است. به درستی تقریب. دوم، اندازه گروه ها بسیار متفاوت است، و من معتقدم ترکیب گروه در نمونه کامل باید ترکیبی مشابه با اصلی داشته باشد، که به معنای ایجاد گروه های بالقوه بسیار بزرگ است. به همین دلیل است که من اساساً تعجب میکردم که آیا راهی برای کار کردن مستقیم مجموعه دادههای بسیار کوچکتر، بدون نیاز به بازسازی مجموعه دادههای غولپیکر مصنوعی وجود دارد یا خیر. رویکرد فعلی من استفاده از رویکرد نزولی گرادیان، وزن دادن به مشاهدات بر اساس اندازه گروه بوده است، اما میدانستم که آیا راه هوشمندتری برای مدیریت این موضوع وجود دارد یا خیر!
|
مدل رگرسیونی که در آن خروجی یک احتمال است
|
60424
|
من از PCA به عنوان یک روش کاهش ابعاد قبل از تغذیه داده ها در طبقه بندی کننده استفاده می کنم. من معمولاً فقط دو یا سه رایانه شخصی اول را انتخاب می کنم. دادههای معمولی شامل عواملی مانند طول، عرض، ارتفاع، وزن، خروجی انرژی و سایر ویژگیهای کلیدی است. در نهایت من فقط از چندین امتیاز اولیه PCA به جای فاکتورهای اصلی استفاده می کنم. **سوال من این است**: اگر بخواهم عوامل ترکیبی مانند مساحت = عرض*طول، انرژی در واحد حجم یا مساحت سطح = (طول*عرض + طول*ارتفاع + عرض*طول) را لحاظ کنم. علاوه بر عوامل ساده ای که وارد الگوریتم PCA می شوند، آیا انتظار می رود که این الگوریتم از نظر اطلاعاتی که انتظار می رود در چندین مؤلفه اصلی وجود داشته باشد، اضافه، کم یا خنثی باشد؟ در مورد گنجاندن چندین تغییر از یک فاکتور مانند طول^2، طول^3 چطور؟
|
منظور از استفاده از متغیر مرکب در PCA چیست؟
|
90628
|
مقالهای به من داده شد که گزارشی از مطالعهای بسیار شبیه به مطالعهای که آزمایشگاه من میخواهد انجام دهد، به من داده شد. اما، متوجه شدم که برای متغیر مورد علاقه، Duration، SD ها بزرگتر از میانگین هستند... از آنجایی که این مدت در دقیقه اندازه گیری می شود، هرگز نمی تواند منفی باشد و این برای من بسیار عجیب به نظر می رسد. این در 2 مطالعه گزارش شده اتفاق افتاده است که یکی از آنها در زیر آمده است. فراتر از آن، این یک طراحی ترکیبی است. کنترل v درمان (بین گروه ها)، و Time1، Time2، Time3 (تکرار اقدامات). در اینجا میانگین ها (SDs)، N > 200 Time1 Time2 Time3 Control 15.1 (14.6) 14.4 (14.8) 13.3 (15.7) درمان 14.8 (13.2) 10.0 (12.2) 8.2 (9.9) ... آنها یک PNOVA را گزارش کردند <.001. از من خواسته شد که از این به عنوان مبنایی برای تجزیه و تحلیل توان برای تعیین اندازه نمونه برای مطالعه خود استفاده کنم. من کاملاً مطمئن هستم که این نشان میدهد که دادهها غیرعادی هستند یا دارای نقاط پرت هستند و من برای تعیین اندازه نمونه بر این اساس احساس راحتی نمیکنم. آیا من خیلی دور از پایگاه هستم؟
|
SD بزرگتر از میانگین، مقیاس غیر منفی
|
9549
|
فرض کنید کلاسی متشکل از 800 دانش آموز دارید و به دنبال مجموعه ای از ارزیابی ها، هر دانش آموز یک نمره خام دارد. * این نمرات خام چگونه باید به درجه نهایی تبدیل شوند؟ * آیا این ایده خوبی است که نمرات خام را به یک توزیع نرمال تبدیل کنیم؟
|
آیا نمرات باید بر اساس توزیع نرمال به دانش آموزان اختصاص داده شود؟
|
108319
|
چگونه تفاوت بین دو سری زمانی را مقایسه کنیم؟
|
|
113518
|
بهترین راه برای نمایش داده های زیر به صورت گرافیکی چیست؟ آیا می توانم از هیستوگرام سال خروجی به ازای هر نفر استفاده کنم سرمایه استخدام شده 2010 16.3 واحد/سالانه 40000 پوند ص. 33000 پوند p.p 2014 10.8 واحد در سال 30000 پوند p.p
|
بهترین راه برای نمایش داده ها
|
83498
|
در مقالهای توسط روسیو و کروکس در سال 1993 («جایگزینهایی برای انحراف مطلق میانه»، صفحه 1274، پیوند به pdf)، به شاخصی برخوردم که در نظر دارم از آن استفاده کنم. فرمول این است: $$ Sn = C\, {\rm median}_i \\{{\rm median}_j |x_i-x_j|\\} $$ روشی که من فرمول را خواندم به این صورت است که برای هر $X_i$ I تفاوت را از هر یک از مقادیر دیگر در نمونه بگیرید. سپس، دوباره به ازای هر X_i$، میانه مقادیری را که میگیرم، میگیرم. در نهایت میانه مقادیر میانه ای را که در مرحله قبل به دست آوردم می گیرم و آن را در پارامتر $C$ ضرب می کنم که به گفته نویسندگان $$ C= 1.1926 است. $$ من به هیچ وجه آمارگیر نیستم و منظور نویسندگان را نمی فهمم وقتی می گویند که مقدار $C$ از طریق یک فرض مجانبی به دست آمده است. چیزی که من می دانم این است که داده های من به طور معمول توزیع نمی شوند و اگر سعی کنم آنها را استاندارد کنم، در برابر عادی سازی مقاومت می کنند. به همین دلیل است که من سعی می کنم شاخصی پیدا کنم که بتوانم داده ها را حول یک نقطه مرکزی که به تقارن در توزیع نیاز ندارد رتبه بندی کنم (بنابراین، از MAD استفاده نمی کنم). **سوال من این است: آیا باید فاکتور $C$ را در معادله حفظ کنم؟** فرض اساسی چیست؟ به نظر میرسد میدانم که شامل نوعی توزیع گاوسی است (چیزی که من به عنوان توزیع عادی میشناسم) اما از آنجایی که دادههای من به طور معمول توزیع نمیشوند، مطمئن نیستم که چه مقدار برای $C$ باید اعمال کنم و آیا خوب است که آن را ترک کنم. بیرون **هدف نهایی من موارد زیر است: 1. من داده هایی دارم که به هیچ وجه قابل استفاده معنی دار توزیع نشده اند. بله، ممکن است راههایی برای تغییر یا تطبیق آن در نوعی توزیع وجود داشته باشد، اما واقعاً همه چیز را پیچیدهتر میکند، فراتر از توانایی من برای توضیح آن برای همکارانم. 2. هر نقطه داده یک امتیاز است، از 0 تا چند هزار، که تابعی از پاسخ های داده شده در یک نظرسنجی است. 3. من باید هر یک از نقاط داده را در رابطه با یکدیگر ارزیابی کنم تا مشخص کنم کدام یک در پایین مقیاس ریسک (کمترین امتیاز) و کدام در بالاترین (بالاترین امتیاز) قرار دارند. برای انجام این کار، باید چند بریدگی تعریف کنم. برنامه من این بود که از MAD یا بهتر از آن، نشانگر Sn در بالا استفاده کنم، تا نشانی از امتیاز یک پروفایل ریسک رایج داشته باشم و سپس از صدک ها برای مرتبط کردن پروفایل ریسک پایین تر به امتیازات پایین تر و پروفایل ریسک بالاتر به بالاتر استفاده کنم. امتیازات امیدوارم این گیج کننده نباشد، اما من در اینجا به یک قلمرو واقعا ناشناخته می پردازم.
| |
9544
|
اجازه دهید $A\in\mathbb{R}^{n \times n}$ یک ماتریس متقارن متراکم مثبت-معین باشد ($X^TX$ از اینجا) و $b$ یک بردار در $\mathbb{R}^ n$. من باید $A^{-1}b$ را محاسبه کنم. دو سوال: 1. آیا می توانید یک الگوریتم کارآمد و از نظر عددی پایدار برای محاسبه $A^{-1}b$ برای $n \تقریباً 1000$ توصیه کنید؟ 2. اجازه دهید $\tilde{A_i}$ ماتریس بدست آمده از $A$ را با حذف $i$-th ردیف و $i$-th آن نشان دهد. آیا الگوریتمی وجود دارد که با داشتن اجازه پیش پردازش $A$ به نحوی، به من این امکان را می دهد که به سرعت $\tilde{A_i}^{-1}\tilde b$ را برای هر $i \in \\{ محاسبه کنم. 1،2،\ldots،n\\}$ و هر $\tilde b \in \mathbb{R}^{n-1}$؟
|
محاسبه $(X^TX)^{-1}X^Ty$ در OLS
|
113513
|
فرض کنید $Y_{ij}$ باینری را برای $i = 1، ...، N$ و $j = 1، ...، J$ مشاهده می کنم و می خواهم $$\Pr(Y_{ij} = 1) را مدل کنم. \mid \lambda_{i}) = \Phi(\lambda_{ij}), \qquad [Y_{ij} \perp Y_{ij'} \mid \lambda_i]$$ جایی که بردار $\lambda_{i} = (\lambda_{i1}، \ldots، \lambda_{iJ})$ یک جلوه تصادفی چند متغیره-عادی است، $\lambda_i \sim \mathcal N(\mu، \Sigma)$ و $ \Phi(\cdot)$ تابع پیوند پروبیت است (به طور کلی این می تواند هر تابع پیوند باشد و تقریباً با همان مشکلات مواجه می شویم، اما پروبیت آسان تر است. تجزیه و تحلیل با اثرات تصادفی معمولی). $\Sigma$ لزوماً یک رتبه کامل نیست، بنابراین این مشخصات همچنین مدلهای جلوههای تصادفی به شکل $\lambda_{ij} = x_j^T b_i$ که $\dim(b_i) \ll J$ را پوشش میدهد. سوال من این است: تحت چه شرایطی در $(\mu, \Sigma)$ شناسایی می شوند؟ نگرانی من به این دلیل است که به خوبی شناخته شده است که مدل پروبیت چند متغیره مرتبط در غیاب محدودیتهای بیشتر (مانند نیاز به $\Sigma$ برای ماتریس همبستگی) نامشخص است. مدلی که نوشته شده است معادل یک پروبیت چند متغیره با میانگین $\mu$ و واریانس $\mathbf I + \Sigma$ است، بنابراین نگرانی های مشابهی باید در اینجا اعمال شود. به عنوان مثال، من از نظر اکتشافی مطمئن هستم که تنظیم $$ \Sigma(\theta)_{jj'} = \theta_1 e^{-\theta_2|t_j - t_{j'}|} $$ برای $t$ شناخته شده باعث می شود $ \theta_1$ ناشناس. از طرف دیگر $\Sigma = X \Sigma_b X^T$ یک ماتریس کوواریانس اثرات تصادفی استاندارد است و بنابراین ظاهراً تا زمانی که $\Sigma_b$ ابعاد کوچکی داشته باشد شناسایی می شود. در مورد (بگوییم) $$ \Sigma = \Sigma(\theta) + X\Sigma_b X^T $$ که $\Sigma(\theta)$ همانطور که در بالا تعریف شده است چه می توان گفت؟
|
قابلیت شناسایی در مدل اثر تصادفی خطی تعمیم یافته؟
|
5249
|
در سوال قبلی در مورد ابزارهای ویرایش فایل های CSV پرسیدم. گاوین به نظری درباره R Help توسط دانکن مرداک پیوند داد که نشان میدهد فرمت تبادل داده روشی مطمئنتر از CSV برای ذخیره دادهها است. برای برخی از برنامه ها یک سیستم مدیریت پایگاه داده اختصاصی چیزی است که مورد نیاز است. با این حال، برای پروژه های تجزیه و تحلیل داده در مقیاس کوچک، چیزی سبک تر مناسب تر به نظر می رسد. معیارهای زیر را برای ارزیابی فرمت فایل در نظر بگیرید: * **قابل اعتماد**: داده های وارد شده باید به آنچه وارد شده است صادق باشند. داده ها باید به طور مداوم در نرم افزارهای مختلف باز شوند. * **ساده**: خوب است اگر فرمت فایل به راحتی قابل درک باشد و در حالت ایده آل با یک ویرایشگر متن ساده قابل خواندن باشد. نوشتن یک برنامه ساده برای خواندن و نوشتن قالب باید آسان باشد. * **باز**: قالب باید باز باشد * **قابل همکاری**: فرمت فایل باید توسط بسیاری از سیستم ها پشتیبانی شود. اگرچه فکر میکنم میتوانم برنامههای واردکننده و صادرکننده را به جای قالب فایل سرزنش کنم. من اغلب متوجه می شوم که مجبور می شوم تنظیمات کمی در گزینه های «read.table» انجام دهم تا از شکستن بارگذاری قاب داده توسط برخی شخصیت های عجیب و غریب جلوگیری شود. سؤالات * کدام فرمت فایل به بهترین وجه این نیازها را برآورده می کند؟ * آیا فرمت تبادل داده جایگزین بهتری است؟ یا مشکلات خاص خودش را دارد؟ * آیا قالب دیگری وجود دارد که ترجیح داده شود؟ * آیا من ناعادلانه TSV و CSV را ارزیابی می کنم؟ آیا مجموعه ای ساده از نکات برای کار با چنین فایل هایی وجود دارد که فرمت فایل را قابل اعتمادتر کند؟
| |
113510
|
اجازه دهید دو فرضیه $H_0$ و $H_1$ داشته باشیم و احتمالات _a-priori_ آنها را نمی دانیم. اگر بخواهیم میانگین احتمال خطا را محاسبه کنیم، آیا منطقی است که 50-50 درصد احتمال وقوع هر یک از این دو را در چارچوب معیارهای نیمن-پیرسون فرض کنیم؟
|
آیا منطقی است که روی خط شانس (50-50 درصد) بایستیم وقتی که احتمالات پیشینی را نمی دانیم؟
|
9547
|
* هنگام اندازه گیری خطای کوانتیزاسیون یک خوشه، آیا فاصله بین نمونه ها / مرکز باید مجذور شود یا خیر؟ من هر دو نوع را در ادبیات پیدا کردم. * علاوه بر این ، آیا خطای کمیت (مربع) همانند تعداد خطاها نیست؟
|
اندازه گیری خطای کوانتیزاسیون برای خوشه بندی - مربع یا نه؟
|
913
|
با مقایسه دو متغیر به نمودار زیر رسیدم. جفتهای x، y مشاهدات مستقل دادهها را در میدان نشان میدهند. من همبستگی پیرسون را روی آن انجام دادم و یکی از 0.6 را پیدا کردم. هدف نهایی من ایجاد رابطه ای بین y و x به گونه ای است که y = f(x) باشد. چه تحلیلی را برای به دست آوردن نوعی رابطه بین دو متغیر توصیه می کنید؟ 
|
روابط بین دو متغیر
|
1729
|
صادرات/فرمت خروجی از pairwise.t.test به LaTeX
|
|
14301
|
فرض کنید من دوستی دارم (بگذارید او را «جرج» بنامیم) که میگوید میتواند با استفاده از ذهنش پرتاب تاس را کنترل کند (یعنی احتمال افتادن تاس روی عدد خاصی که او به آن فکر میکند بیشتر شود). چگونه می توانم یک آزمون _علمی دقیق_ طراحی کنم تا مشخص کنم آیا او واقعاً می تواند این کار را انجام دهد؟ (البته فکر نمیکنم واقعاً بتواند، اما میخواهم قبل از شروع آزمون با جزئیات یک آزمون به سبک شگفتانگیز رندی موافقت کند.) میخواهم بهانههای پس آزمون (به احتمال زیاد) را کاهش دهم. که او با آن خواهد آمد. در اینجا چیزی است که من تا کنون داشتهام: 1. تکنیک فیزیکی تاس انداختن (که تاس، فنجان تکان دهنده، سطح فرود و غیره) را تعیین کنید. این باید به اندازه کافی کوچک باشد که در یک جلسه انجام شود، اما به اندازه کافی بزرگ باشد تا (پس از تجزیه و تحلیل) با اطمینان 95٪ -99٪ تعیین کند که آیا تاس ها منصفانه سقوط کرده اند یا به یک طرف ترجیح داده می شوند. تاس (بدون تأثیر جورج)، به عنوان یک کنترل برای اطمینان از اینکه تاس ها نتایج عادلانه را به تنهایی نشان می دهند. 4. جلسات **Z** را با جورج اجرا کنید. قبل از هر یک، یک قالب جداگانه بچرخانید تا مشخص شود جورج در کل آن جلسه روی چه عددی تمرکز خواهد کرد. 5. نتایج را گردآوری و تجزیه و تحلیل کنید. 6. جورج بهانه هایی برای عملکرد بد خود می آورد. بنابراین سؤالات من از شما: * آیا نقص یا مشکلی در روش کلی من وجود دارد؟ چیزی که جورج به احتمال زیاد به آن اعتراض کند؟ * آیا باید از D6 استفاده کنم؟ یا D20؟ آیا این مهم است؟ آیا یک قالب با چهره های بیشتر به رول های بیشتری نیاز دارد تا نتایج مشابهی با اطمینان حاصل شود؟ یا برعکس؟ به دلیل ملاحظات عملی، تعداد رول های کمتری نسبت به تعداد بیشتر ترجیح می دهم :) * مقادیر معقول برای **X**، **Y** و **Z** چیست؟ آنها کاملاً بی ارتباط نیستند. اگر مقدار **X** انتخابی من فقط به 95% اطمینان برای یک جلسه اجازه دهد، آنگاه از هر 20 جلسه 1 جلسه ممکن است شکست بخورد، حتی بدون تاثیر جورج * چگونه موفقیت یا شکست را برای یک جلسه تعریف کنم. جلسه انفرادی؟ (من این سوال را پیدا کردم که از جزئیات یک آزمون مجذور کای عبور می کند، بنابراین فکر می کنم این روش ارزیابی من است، اما آستانه اطمینان معقول چیست؟) * چگونه موفقیت یا شکست را برای آزمون کلی تعریف کنم. ? جورج ممکن است یک جلسه را به طور کاملاً تصادفی برنده شود، اما چند جلسه از **Z** را باید بگذراند تا کل آزمون را پشت سر بگذارد؟ من احتمالاً این نتایج را در یک صفحه گسترده MS Excel تجزیه و تحلیل خواهم کرد، اگر تفاوتی ایجاد کند.
| |
88562
|
پیش بینی با استفاده از مجموعه های آموزشی متعدد
|
|
80850
|
من مجموعهای از مشاهدات سری زمانی چند متغیره دارم که سعی میکنم با استفاده از فرآیندهای VAR مدلسازی کنم و از AIC برای انتخاب بهترین مدل استفاده کنم. با این حال، به جای تعیین بهترین ترتیب مدل برای هر نمونه جداگانه (خود چند متغیره)، میخواهم بهترین ترتیب مدل را برای برازش _همه_ نمونهها کشف کنم. با این حال، هر نمونه همچنان پارامترهای منحصر به فردی خواهد داشت. به عبارت دیگر، چگونه می توان چندین AIC را با هم ترکیب کرد؟ اطلاعات بیشتر: > همه معیارها [AIC، HQC، SWC] یک جریمه به MSE یک مرحلهای جلوتر اضافه میکنند که > به اندازه نمونه $T$، تعداد متغیرهای $m$ و تعداد > تاخیرها $q$ بستگی دارد. . (F. Canova, _Methods for Applied Macroeconomic Research_ ) من نمونه های $N$ دارم که همگی دارای تعداد یکسانی از متغیرهای $m$ هستند که همگی به طول یکسان $T$ بریده شده اند. من می خواهم معیار اطلاعات استخر را برای مقداری تاخیر $q$ محاسبه کنم. من به راحتی می توانم MSE های یک مرحله ای جلوتر را برای هر نمونه جمع یا میانگین کنم. اما بهترین راه برای تجمیع شرایط پنالتی چیست؟ رویکردهای ساده لوحانه عبارتند از جمع کردن (/میانگین) شرایط جریمه یا فقط اعمال یک شرط جریمه. به نظر می رسد دومی موقعیتی را نشان می دهد که در آن شما مدل VAR یکسانی را برای هر نمونه نصب می کنید. آیا حالت اولی شرایطی را نشان میدهد که شما اجازه میدهید پارامترها برای هر نمونه متفاوت باشند اما تعداد تاخیرهای $q$ را ثابت نگه دارید؟
| |
837
|
مدل R lrm بدون پیش بینی
|
|
112640
|
فرض کنید سوژههای $K$ و درمان با دو سطح قبل و بعد داریم. یک آزمون t زوجی معادل برازش یک ANOVA اثرات ثابت است: $Y = موضوع + درمان +\epsilon$ همچنین معادل ANOVA اندازه گیری های مکرر یا Mixed ANOVA است که در آن درمان ثابت و موضوع تصادفی است. هر چهار روش را برای این مجموعه داده ساده امتحان کرد و مقدار p-درمان دقیقاً یکسان است. برای این سوال، اجازه دهید فقط نسخه اثرات ثابت را در نظر بگیریم. تعداد کل مشاهدات $2K $ است، در حالی که تعداد پارامترها عبارتند از: $ p = رهگیری + (K-1) $ اثرات موضوع + (2 - 1) اثرات درمان = $K + 1$ یعنی حدود 2 مشاهده در هر پارامتر برای هر $K$. به نظر من این نشان میدهد که این مدل احتمالاً بیش از حد برازش شده است، مگر اینکه یک اثر موضوعی بسیار مهم وجود داشته باشد. در عمل، چند بار اثر سوژه را آنقدر بزرگ دیده اید که جفت کردن مشاهدات بر اساس موضوع را توجیه کند؟
|
مبادله سوگیری-واریانس در آزمون t زوجی
|
112643
|
من یک مدل در R با استفاده از glm ساختهام، و در مجموعه داده جدیدی که باید پیشبینی کنم، سطوح جدیدی برای ستونها وجود دارد که غیر عددی هستند. من میدانم که رویکردهای زیادی برای مقابله با مقادیر از دست رفته وجود دارد، اما به نظر میرسد که بیشتر آنها سعی میکنند مقادیر گمشده را نسبت دهند، به روشی دیگر، سعی میکند مقادیر گمشده را به روشی «هوشمندانه» پر کند (KNN.. و غیره .)، با این حال، نگرانی من در اینجاست: بگویید مدل من بر اساس 10 ستون است که همگی مجزا هستند (عواملی مانند سازنده، نام خانوادگی محصول، درجه، کشور مبدا). در مجموعه داده جدید من، برخی از محصولات دارای ستونهای خاصی هستند و سایر محصولات دارای ستونهای کمی هستند و ستونهای گمشده ناسازگار هستند. و در یک سناریوی شدید، برخی رکوردها فقط 2 ستون دارند. هدف من این است که همه آنها را پیش بینی کنم. به جای تلاش برای نسبت دادن مقدار گمشده، پر کردن مقادیر زیادی با حدس زدن، در واقع رویکردی را ترجیح میدهم که مدلی را بر اساس ستونهایی که رکورد خاص دارد بازسازی کند و فقط با استفاده از ستونهایی که دارند پیشبینی کند. در اینجا با استفاده از مجموعه داده mtcars کدی نوشتم، جایی که به صورت دستی سطح جدیدی را در ستون `vs` وارد می کنم و سپس یک مدل را بدون ستون `vs` برای پیش بینی رکورد بازسازی می کنم. 1. آیا هیچ روش ریاضی عمومی وجود دارد که به من در حل مسئله کمک کند؟ 2. آیا پیاده سازی در R/Python وجود دارد که این را به درستی مدیریت کند، بسیار متشکرم!
|
بازسازی مدل بر اساس ستون هایی که یک رکورد دارد
|
112642
|
من از این معیار برای تغییراتی استفاده میکنم که مشابه CV است، اما تضمین میشود که برای اعداد مثبت در مقیاس 0 تا 2 باشد، جایی که 2 در همه جا و 0 کاملاً زوج است. از آنجایی که بدون بعد و محدود است، برای من مفید است به گونه ای که CV واقعاً اینطور نیست. آیا این یک نام استاندارد دارد؟ این میانگین مربعات خطا تقسیم بر مجذور حداکثر خطا است. من همیشه از آن استفاده میکنم، اما نمیدانم اسمش چیزی است یا نه: function(v) {(sum((v-mean(v))**2))/((sum(v)-mean(v) )**2)} و یک نسخه اریب که با تعداد کم سروکار دارد: function(v) {(min(2,(max(0,sum(floor(abs(v-mean(v)))**2)-2*sum(v)))/max(1,((sum(v)- mean(v))**2-2*sum(v)))))} فقط زمانی مواردی را به عنوان خارج از ضرب گزارش می دهد که هماهنگ نباشند/به اندازه کافی متعادل نباشند. کاملاً کار می کند. وقتی داده ها نسبتاً یکنواخت هستند، صفر می گیرید. وقتی یک نوع سنبله (اندازه سنبله نسبت به طول بردار) وجود دارد، مقدار بزرگتری دریافت می کنید. من باید توضیح دهم که چرا از آن استفاده می کنم. من می دانم که از نظر تجربی در شرایط من کار می کند، زیرا ما نتایج بهتری نسبت به استفاده از مواردی مانند حداکثر احتمال، یا قطع با CV به تنهایی دریافت می کنیم. اساساً علائم پرت را نشان می دهد که به خوبی حذف می شوند. اما آیا راه بهتری برای توصیف این توابع برای آمار خلاصه پوشش بدون بعد وجود دارد؟ IE: آیا تابع بهتری برای تشخیص سنبله متناسب با اندازه بردار وجود دارد؟
|
میانگین مربع خطا / حداکثر مربع خطا
|
42999
|
رویکردهای آموزشی برای مجموعه داده های بسیار نامتعادل
|
|
112646
|
من روی پروژه ای کار می کنم که هدف آن تجزیه و تحلیل رابطه بین عناصر ماشین و قیمت آنها است. داده های من شامل هزاران عنصر ماشین، قیمت آنها و همچنین ویژگی های فنی و غیر فنی است. بیشتر داده ها طبقه بندی هستند داده های فنی حاوی اطلاعاتی مانند وزن، ابعاد، مواد است. هر عنصر (که با کد منحصر به فرد مشخص می شود) دارای ویژگی های فنی متمایز است. داده های غیر فنی حاوی اطلاعاتی مانند نام تامین کننده، نوع قرارداد، INCOTERMS، اولین روز اعتبار قرارداد، آخرین روز اعتبار، حداقل مقدار سفارش و غیره است. در برخی موارد قیمت ها به مقدار سفارش بستگی دارد. یکی از مشکلاتی که من با آن روبرو هستم این است که اغلب هر عنصر بسته به داده های مالی قیمت متفاوتی دارد، یعنی عنصر X اگر اینکوترمز A باشد 100 دلار، اگر اینکوترمز B باشد 200 دلار و غیره. به عبارت دیگر، ردیف هایی وجود دارد. که حاوی اطلاعات قیمت در یک عنصر است، اما یکی از ستون ها دارای مقدار متفاوتی است و بنابراین قیمت متفاوت است. در موارد دیگر قیمت 100 است اگر 50-100 عنصر سفارش داده شود، 80 اگر 100-200 عنصر سفارش داده شود، 60 اگر 200-500 و غیره است. من قصد دارم برخی همبستگی ها و همچنین رگرسیون را انجام دهم. من احتمالا داده کاوی را نیز امتحان خواهم کرد (با استفاده از Rattle و R). من به مشاوره در مورد نحوه برخورد با مشاهدات (نسبتا) مشابهی که هر شی در صورت همبستگی، رگرسیون و به طور کلی برای داده کاوی دارد، نیاز دارم. آیا باید سعی کنم یک مشاهده واحد را برای هر عنصر انتخاب کنم یا آنالیز همه در را انجام دهم. حدس میزنم گزینه آخر اصلاً برای همبستگی کار نخواهد کرد. شاید شامل یک اسکرین شات نمونه از داده ها با روشن کردن مشکل من باشد. بنابراین آنچه در تصویر قابل مشاهده است اغلب اتفاق می افتد: یک شی، ویژگی های مختلف، قیمت متفاوت. من نمی دانم که آیا باید (سعی کنم) تنها یک ردیف در هر شی با تنها یک مجموعه از ویژگی ها داشته باشم (نیازی به بحث در مورد معیارها نداریم) یا اینکه آیا باید چندین ردیف را برای یک شیء در هنگام اجرای تجزیه و تحلیل همبستگی نگه دارم. یا یک رگرسیون پیشاپیش از شما متشکرم. 
|
درمان مشاهدات متعدد در هر شی
|
104827
|
من با آمارهای چند متغیره نسبتاً تازه کار هستم و با شرایط زیر مواجه شده ام: مجموعه داده ای از 12 مجموعه پاسخ بر اساس مقیاس لیکرت (1-5) دارم، داده هایی که معمولاً (در تحقیقات اجتماعی) به عنوان بیشتر یا- تلقی می شوند. مقیاس فاصله کمتر / کمی. تنها حدود نیمی از پاسخ ها توزیع نرمال را نشان می دهند، بسیاری از آنها توزیعی به راست را نشان می دهند. هدف شناسایی همبستگی ها در این مجموعه داده پاسخ است. با استفاده از XLSTAT برای اکسل، من با رگرسیون چندگانه شروع کردم و دو IV تاثیرگذار اصلی (R2 روی همه متغیرها = 0,32) را برای یک DV خاص (انتخاب شده از بین 12 متغیر) شناسایی کردم. سپس محاسبات 2 و 3 سطح تعامل را دوباره اجرا کردم. در حالی که R2 نتایج به طور قابلتوجهی به طور قابلتوجهی افزایش یافت (به 0.85 و 0.94)، متغیرهایی که اکنون بیشترین تأثیر را داشتند (با توجه به مقدار ضریب استاندارد شده برای نتایج معنیدار) با هر سطح تعامل تغییر کردند. در حالی که برای هیچ تعاملی، چند خطی کم بود (تحمل 0.6-0.8، VIF همیشه کمتر از 2)، با 2 یا 3 سطح تعامل، چند خطی بودن افزایش یافت (2 سطح: VIF بیش از 400، 3 سطح: VIF در میلیون ها). با فرض اینکه چند خطی بودن و احتمالاً متغیرهای سرکوبگر مشکل هستند، سپس به رگرسیون PLS تغییر کردم، دوباره 11 IV برای یک DV. بدون در نظر گرفتن هیچ تعاملی، Q2 جمع آوری شده 0.12، R2Y cum=0.26 و R2X cum=0.25 دریافت کردم. تأثیرگذارترین IV با توجه به مقدار VIP مشابه با رگرسیون چندگانه بدون تعامل (با مقدار VIP 1.4) بود. همان با 2 سطح تعامل دوباره نشان داد که همان IV (VIP اکنون 2.0) در صدر قرار دارد (و قبلاً دومین IV مهم هنوز در جایگاه دوم قرار داشت)، اما Q2cum کمی پایین تر در 0.09، R2Y cum در 0.41 بهبود یافت، R2X cum کمتر. در 0.09. اکنون با تلاش برای 3 سطح تعامل، رتبه تأثیرگذارترین IV ها به طور کامل تغییر کرد، با ترکیبی از سه IV که VIP 2.4 را نشان می دهد، که مهم ترین IV قبلی هنوز در رتبه سوم قرار دارد (VIP 2.1). با این حال، کیفیت مدل در حال حاضر وحشتناک است، با Q2cum 0.03- (R2Y/X cum تقریباً مشابه برای 2 سطح تعامل). آنچه که من می خواهم از این بدانم: 1. من فرض می کنم که مقادیر VIP بالاتر برای افزایش سطوح تعامل ناشی از مدل سازی پیچیده تر به دلیل تعاملات بیشتر است، اما Q2cum برای 3 سطح تعامل نشان می دهد که کیفیت پیش بینی مدل کاهش یافته است. چرا این مورد می تواند باشد؟ کدام یک از سه مدل PLS (سطوح تعامل 0/2/3) به من کمک می کند یا Q2 پایین به این معنی است که هیچ کدام از آنها اصلاً قابل توجه نیستند؟ با فرض اینکه Q2 و R2 برای هر سه یکسان باشند، آیا مدل تعامل بالاتر بیشترین قدرت توضیحی را خواهد داشت؟ 2. چگونه باید مقادیر کیفیت مدل (Q2/R2x/y cum) را تفسیر کنم؟ به طور خاص، آیا Q2cum (قدرت پیش بینی مدل) عامل کیفیت اولیه ای است که باید در نظر گرفته شود، یا سطوح متوسط R2x/y (قدرت توضیحی واقعی مدل) کافی است؟ از آنجایی که R2y تغییرات DV توضیح داده شده توسط IV ها را منعکس می کند (اگر من درست متوجه شده باشم)، پس فرض می کنم که مقدار R2y برای کیفیت مدل من از R2x مهم تر است، درست است؟ 3. چقدر بد است که IV های من همه توزیع نرمال خوبی برای این همه نشان نمی دهند؟ رگرسیون PLS در این مورد چقدر قوی است؟ با تشکر از شکیبایی شما با یک تازه کار، من از توضیحات ساده و قابل فهم تشکر می کنم، بسیار متشکرم!!
|
کیفیت رگرسیون PLS در سطوح مختلف تعامل
|
64216
|
من یک معادله کاب-داگلاس دارم که در `R` مدل می کنم: $$ \ln(Y) = β + β_a \ln(A) + β_l \ln(L) + β_f \ln(F) + β_o \ln(O) + u $$ آیا راه آسانی برای آزمایش این فرضیه وجود دارد که آیا مجموع بتاها به یک می رسد یا خیر؟ کمتر از یک؛ بیش از یک؟
|
آزمایش محدودیت ها/محدودیت ها در رگرسیون چندگانه با استفاده از R
|
9541
|
من سعی می کنم اهمیت مدل را با استفاده از: 1-pchisq (انحراف تهی-انحراف باقیمانده، تهی df- انحراف باقیمانده df) تعیین کنم: من 5 مدل دارم: * چهار مدل با GLM تخمین زده شدند که در خلاصه به من DFهای تهی و باقیمانده دادند. * مدل پنجم با تابع 'lmer' به دلیل ساختار تودرتو داده های من تخمین زده شد. این درجه آزادی برای تهی یا باقیمانده به من نمی دهد. چگونه می توانم انحرافات و درجه های تهی و تهی خود را بدست آورم؟ با تشکر
|
چگونه می توانم انحراف/درجات آزادی صفر و باقیمانده را برای ارزیابی اهمیت مدل بدست بیاورم؟
|
64212
|
من متخصص نیستم، اگر برخی از اصطلاحات کمی ناشیانه است، مرا ببخشید. خوشحال می شوم در صورت نیاز اطلاعات بیشتری ارائه دهیم. من دو بردار از 50 مقدار عددی جفتی در R دارم. میخواهم یک آزمایش تصادفی یا جایگشتی دو دنباله انجام دهم تا مشخص کنم آیا تفاوتهای آنها به دلیل شانس است یا نه. > آزمون جایگشت (همچنین به آن آزمون تصادفی سازی، آزمون تصادفی سازی مجدد، > یا آزمون دقیق نیز گفته می شود) نوعی آزمون معناداری آماری است که در آن توزیع آمار آزمون تحت فرض صفر با > محاسبه تمام مقادیر ممکن به دست می آید. از آمار آزمون تحت بازآرایی > برچسب ها در نقاط داده مشاهده شده. من می خواهم این نوع آزمایش را انجام دهم زیرا معتقدم توزیع مقادیر در بردارها فرضیات تست های دیگر مانند آزمون t را نقض می کند (مثلاً بسیاری از مقادیر عددی در بردار 0 هستند). تابع «permtest» در کتابخانه BHH2، تقریباً همان کاری را که من میخواهم انجام میدهد، اما روی همه جایگشتهای $2^{50}$ کار میکند، که خیلی طول میکشد. در عوض، من میخواهم مقدار p-value را با نمونهبرداری از تعداد زیادی جایگشت احتمالی تخمین بزنم. من نگاهی به بسته سکه انداختم، اما به نظر میرسد هیچ چیزی در آنجا تست جایگشت را با نمونهبرداری از بردارهای عددی زوج انجام نمیدهد. برخی از گوگل من را به این ایمیل هدایت می کند، که نشان می دهد دلیل اینکه من نمی توانم بسته ای برای انجام آن پیدا کنم این است که یک بسته در R است. متأسفانه، من آنقدر با R تجربه ندارم که بتوانم آن را تولید کنم. - آستر ** آیا بسته یا روشی وجود دارد که آزمایش جایگشت جفتی دو دنباله را تنها با استفاده از نمونه ای از فضای جایگشت انجام دهد؟** **اگر نه، آیا کسی می تواند بیت کوتاهی از کد R را برای انجام آن به اشتراک بگذارد؟ **
|
تست تصادفی سازی/تغییر برای بردارهای جفت شده در R
|
17967
|
من میخواهم از رگرسیون لجستیک کلاس چندگانه برای یادگیری مرزهای تصمیم جداکننده کلاسهای مختلف (که با رنگ مشخص شدهاند) در تصویر زیر استفاده کنم. رگرسیون لجستیک کرنل با یک هسته RBF انتخاب خوبی به نظر می رسد، اما من دوست دارم که مرز تصمیم، زمانی که به فضای 2 بعدی پیش بینی می شود، در امتداد خطوط شبکه سفید قرار گیرد. یکی از راه های ادامه کار، معرفی یک عبارت مجازات در تابع هدف است، اما من مطمئن نیستم که چگونه ادامه دهم. آیا کسی مرجعی برای استفاده از یک شبکه به عنوان یک محدودیت در این نوع مشکلات دارد؟ شاید روش متفاوتی برای پرسیدن این سوال این است که چگونه می توانم از یک سو، یک باور قبلی به شکل $\Pr(\int^\mathbf{x}\pi=.5 \mid \mathbf{x})$ را ترکیب کنم. در مورد توزیع بیش از $\mathbf{x}$ زمانی $\Pr(\mathbf{x} \mid \pi)$؟ I 
| |
104824
|
برای مکان شناخته شده، میتوانیم پارامتر مقیاس یک توزیع نرمال را با محاسبه مجذور تفاوتهای مکان، سپس تقسیم بر n-1 و گرفتن جذر جذر پیدا کنیم. این حداکثر احتمال و کارآمدترین طرح برای تخمین پارامتر برای توزیع نرمال است. با این حال، برای توزیع دو نمایی (لاپلاس) با استفاده از مجموع مقادیر مطلق، طرح MLE است. پس توان p 2 نیست بلکه 1 است! و برای توزیع یکنواخت حداکثر اختلاف به مرکز کارآمدترین طرح تخمین پارامتر را می دهد. همچنین می توان آن را به عنوان مجموع توان توصیف کرد، با اجازه دادن به توان p به بی نهایت (هنجار چبیشف). بنابراین برای این 3 توزیع با $p=1,2,\ldots,\infty$ ما هم MLE و هم PDF را به خوبی می شناسیم. سوال: اگر طرح تخمین را با استفاده از هر توان مثبت (مانند p=4، 6 یا هر چیز دیگری) تعمیم دهیم، توزیع مطابق PDF(p,x) چقدر است؟ این منجر به یک PDF کاملاً کلی می شود و می تواند یک توزیع نرمال تعمیم یافته را تشکیل دهد (مانند Student-t که نرمال را برای توزیع های طولانی تر گسترش می دهد).
|
طرح MLE پارامتر مقیاس شناخته شده است اما چگونه می توان توزیع PDF را مطابق با آن پیدا کرد؟
|
17962
|
ANOVA یا آزمون های دیگر برای داده های جمع شده
|
|
99281
|
با فرض اینکه $A_1، A_2، \ldots، A_n$ متغیرهای تصادفی نمایی مستقل هستند (هر کدام پارامتر یکسانی دارند و برای سادگی، مقدار پارامتر را 1 فرض کنیم). $B_i = A_i + k$ را تعریف کنید (که $k$ یک ثابت با مقدار مجهول است). اگر دنبالهای از مشاهدات $(b_1، b_2،\ldots، b_n)$ را نیز در اختیار داشته باشیم، حداکثر برآورد احتمال (MLE) $k$ چقدر خواهد بود؟
|
برآورد حداکثر احتمال برای دنباله ای از مشاهدات
|
22945
|
من دو نمونه دارم یکی سایز 52 و یکی سایز 31 که در زمان های مختلف بدست آمده اند. من میخواهم برای تفاوت میانگین جمعیتهایی که این نمونهها نشان میدهند، یک فاصله اطمینان راهاندازی 95% دریافت کنم. من سعی کردم از بسته boot در R استفاده کنم، و یک خطایی دریافت می کنم که نمی توانم آن را بفهمم. امیدوارم کسی اینجا بتونه کمکم کنه دادههای من اینگونه به نظر میرسند (در یک دیتافریم با نام totalData): X samplingTime 1 -0.29 اولیه 2 0.3 اولیه .... 52 -1.2 اولیه 53 0.7 نهایی 54 -1.2 نهایی .... 83 1.52 نهایی این است کاری که من برای دریافت بوت استرپ CI انجام دادم: meanDiff = function(dataFrame, indexVector) { m1 = mean(subset(dataFrame[, 1], dataFrame$samplingTime == initial)) m2 = mean(subset(dataFrame[, 1], dataFrame$samplingTime == final)) m = m1 - m2 return( m) } totalBoot = boot(totalData, meanDiff, R = 10000, strata = totalData[,2]) totalBootCI = boot.ci(totalBoot) و در خط آخر این خطا را دریافت می کنم: خطا در bca.ci(boot.out، conf، index[1L]، L = L، t = t.o، t0 = t.o، : تنظیم تخمینی w بی نهایت است.
|
فاصله اطمینان برای تفاوت دو میانگین با استفاده از بسته بوت در R
|
94919
|
مدل سازی رسید، حجم و قیمت
|
|
111005
|
آزمون علیت VAR و گرنجر
|
|
99284
|
فرض بر این است که: 1) $y=q+u$ که در آن $q$ بهرهوری است و $y$ یک امتیاز آزمون که بهرهوری واقعی را اندازهگیری میکند. $u$ یک عبارت خطای معمولی است، مستقل از $q$، با میانگین صفر و واریانس ثابت. $q$ نیز به طور معمول با میانگینی برابر با $\alpha$ و با یک واریانس ثابت در نظر گرفته شده است. نتیجه این است: 2) $E(q | y) = (1-\gamma)\alpha + \gamma y$ که در آن $\gamma=Var(q)/(Var(q)+Var(u)) $ چگونه معادله 2 را بدست می آورید؟ معادله را می توان به صورت یک اثر گروهی و یک اثر فردی بیان کرد. [این یک مدل از تبعیض آماری است، نگاه کنید به: دنیس جی. آگنر و گلن جی. کین. نظریه های آماری تبعیض در بازار کار. بررسی روابط صنعتی و کار، 30(2): 175{187، ژانویه 1977. URL http:// ideas.repec.org/a/ilr/articl/v30y1977i2p175-187.html.]
|
مقدار مورد انتظار q با توجه به y میانگین وزنی میانگین q و و y است
|
111004
|
برآورد قوی در مدل های ترکیبی تعمیم یافته SPSS
|
|
45966
|
کولموگروف-اسمیرنوف CDF
|
|
99280
|
میخواهم بدانم آیا میتوانیم نتیجه باینری را با پیشبینیکنندههای سری زمانی مدل کنیم. برای مثال فرض کنید Y دودویی است. $X_1, X_2, X_3,...,X_n$ همان متغیر پیشبینیکننده است اما یک عکس فوری تاریخی در بازه زمانی $1,...,n$ است. من علاقه مند به پیش بینی $Y$ هستم اما همبستگی خودکار بین $X_1,...,X_n$ و فصلی بودن را در بین $X_1,...,X_n$ در نظر بگیرم.
|
رگرسیون لجستیک با داده های پیش بینی سری زمانی
|
99283
|
من یک معلم مدرسه هستم که پروژه کوچکی را انجام میدهم که شامل جمعآوری دادهها در مورد 5 روش تدریس مختلف است و نمره آزمون حاصل از کودکانی که آموزش میبینند، هر روش تدریس است. من 50 دانش آموز دارم که به طور مساوی بین 5 روش تدریس تقسیم شده اند (10 دانش آموز/روش). داده هایی که من دارم به شرح زیر است. هر خط زیر یک دانش آموز است که ستون اول داده ها روش تدریس و ستون دوم نمره دانش آموز است: روش A,88 روش B,72 روش A,90 روش D,55 روش D,60 روش A,84. .. من می خواهم به نحوی تعیین کنم که آیا نمرات آزمون با روش های مختلف ارتباط دارد یا خیر. من در مورد همبستگی درون کلاسی مطالعه کردهام و میخواهم بدانم آیا کاپا کوهن یا تکنیکی مشابه روش مناسبی برای بررسی همبستگی نمرات آزمون و روشهای تدریس است. هر گونه کمک یا راهنمایی بسیار قدردانی می شود.
|
تکنیک مناسب برای اندازه گیری همبستگی بین طبقات چیست؟
|
57015
|
من یک متغیر مستقل ترتیبی (<1 ساعت، 1 ساعت، 1-3 ساعت، 3-5 ساعت، > 5 ساعت) و یک متغیر وابسته فاصله (نمرات آزمون) دارم. ظاهراً از من انتظار می رود که رابطه بین این دو را با انجام همبستگی های اسپیرمن رو بررسی کنم. با این حال، آیا انجام یک ANOVA یک طرفه و آزمون تعقیبی مفیدتر نخواهد بود؟ به خصوص از آنجایی که میانگین نمرات در بین رتبه های چهارم تا بالاترین رتبه افزایش می یابد و در این مرحله کاهش می یابد. یا گزارش نتایج هر دو آزمون در تجزیه و تحلیل داده ها مفید خواهد بود؟
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.