_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
115219
**_موقعیت را تصور کنید:_** دریانوردان افسانه ای از سوراخ هایی در بستر دریا به عنوان لانه های خود استفاده می کنند. هر سوراخ دارای دو پارامتر است - قطر و عمق. **بیشتر حفره ها اشغال نشده است** به دلیل مازاد آنها (n = 235). حفره های اشغال شده (15 = n) انتظار می رود (به طور کلی) بسیار عمیق تر و با قطر بزرگتر از تصادفی باشند. # تولید داده set.seed(1234) x <- runif(250، min=0، max=10) y <- runif(250، min=0، max=10) rbPal <- colorRampPalette(c(deepskyblue, آبی تیره)) my.data <- data.frame(x_coor = x، y_coor = y، قطر = c(abs(rnorm(15)+2.5)، abs(rnorm(235)))، عمق = c(abs(rnorm(15)+2.5)، abs(rnorm(235)))، استفاده = rep(c( 1،0)، بار = c(15، 235))) my.data$col <- rbPal(10)[as.numeric(cut(my.data$depth,breaks = 10))] # به وضعیت نگاه کنید # سوراخ های اشغال شده با نمودار دایره های قرمز مشخص شده اند (my.data$x, my.data$y, cex = my.data$diameter، col = my.data$col، pch = 20) grid(5, 5, lwd = 0.75، lty = 2، col = خاکستری) نقاط (my.data$x[1:25]، my.data$y[1:25]، pch = 1، cex = 2، col = قرمز، lwd = 1.75). واضح است، **من در مورد مقایسه نمونه های نابرابر (15 در مقابل 235) تردید دارم**. چنین مشکلی در سایر مطالعات انتخاب حفره های دریایی رخ نمی دهد زیرا **نقشه برداری از بستر دریا بسیار پرهزینه و زمان بر است** و هنگامی که محققان 10 سوراخ استفاده شده را پیدا می کنند، به نقشه برداری از بستر ادامه می دهند تا زمانی که 10 سوراخ غیر استفاده اضافی را پیدا کنند. به احتمال زیاد در مجاورت سوراخ های استفاده شده قرار دارند). با توجه به این رویکرد جمع آوری داده ها، حجم نمونه گروه های مقایسه شده معمولاً تقریباً برابر است. **با این حال، ما توانستیم همه سوراخ‌ها را در بستر دریا پیدا کنیم - که اکنون می‌توان آن‌ها را به عنوان یک ناتوانی در نظر گرفت.** **_ما نمی‌خواهیم نمونه‌برداری تصادفی از 15 سوراخ از 235 را برای به دست آوردن اندازه‌های مساوی انجام دهیم (15 در مقابل 15). ). چرا باید این حجم از داده ها را دور بریزیم!؟ آیا راه حل/رویکردی برای این وضعیت وجود دارد که بتواند به طور کامل از چنین مجموعه داده های منحصر به فردی استفاده کند؟ (n = 235) و به طور تصادفی آنها را به (مثلاً 50) گروه های کوچکتر (همه با n = 15) نمونه برداری کنید. پس از آن، هر یک از این گروه های کاهش یافته با نمونه حفره های اشغال شده با رگرسیون لجستیک دو جمله ای مقایسه می شود. با این کار من 50 منحنی لجستیک را به دست خواهم آورد که فقط در یک منحنی - مدل نهایی متوسط می شوند. **2.** از سوراخ های خالی (235 = n) نمونه بردارید و به طور تصادفی آنها را به (مثلا 50) گروه های کوچکتر (همه با n = 15) نمونه برداری کنید. پس از آن، از هر یک از این گروه های کاهش یافته (و از نمونه سوراخ های استفاده شده نیز) ما (میانگین، sd، اندازه نمونه) به دست می آوریم. بنابراین، برای هر مقایسه شش عدد خواهیم داشت و اندازه اثر - تفاوت میانگین استاندارد شده (SMD) را محاسبه می کنیم. اگر ناهمگونی بین اندازه‌های اثر وجود داشته باشد، اندازه‌های اثر در مدل متاآنالیتیک درج می‌شوند و مورد آزمایش قرار می‌گیرند (_برای دیدن اینکه آیا تصادفی ایجاد نمونه سوراخ‌های استفاده نشده تأثیر قابل‌توجهی بر نتیجه آزمایش دارد یا خیر.
چگونه می توان با حجم نمونه نابرابر در حالی که به طور کامل یک مجموعه داده را در آغوش گرفت، برخورد کرد؟
112106
من می‌خواهم از توزیع چندجمله‌ای استفاده کنم، اما «p[]» و «N» را نمی‌دانم. بنابراین «p[]» و «N» همه متغیرهای تصادفی هستند. این کد winBUGS من است: model { for(s in 1:S) { for(i in 1:E) { # part stochastic likelihood Sample[s,i] ~ dpois(lambda[s,i]); # تابع پیوند lambda[s,i] <- (w[s]*l[i])*inprod(A[i,1:T],f[1:T]); } } for(m in 1:T) { delta[m] ~ dgamma(alpha[m],1); p[m] <- delta[m] / sum(delta[]); } # p[1:T] ~ ddirch(alpha[1:T]) N ~ dpois(lambda1); q[1]<- p[1]; for(k در 2:T){ q[k] <- p[k]/(1-sum(p[1:(k-1)])); } f[1] ~ dbin(q[1],N); for(j در 2:(T-1)) { tmp[j] <- N-sum(f[1:(j-1)]) f[j] ~ dbin(q[j],tmp[j] ) } f[T]<-N-sum(f[1:(T-1)]) } مدل صحیح است، داده ها بارگیری می شود و مدل کامپایل می شود، اما اجرا نمی شود. می گوید: > مقدار دوجمله ای f[1] باید یک عدد صحیح باشد. کسی اینجا از این موضوع خبر داره؟ خیلی ممنون.
WinBUGS چند جمله ای با پارامتر و اندازه ناشناخته
47535
من مجبور شدم آزمون F را در سؤال ANOVA محاسبه کنم و در صورت لزوم از درون یابی استفاده کنم. اولین بار، من باید مقادیر $F_{4,90}(5\%)$ را که گفتم تقریباً $F_{4, 60}(5 \%)$ بود و سپس آزمایشم را انجام دادم و دریافت کردم پاسخ درست در بیت دوم، در جدول ANOVA 3-way من، زمانی که من بررسی می کنم که آیا دو عامل با هم تعامل دارند یا خیر، باید مقادیر $F_{4, 81}(5 \%)$ را دریافت کنم و بنابراین من فکر کردم همین کار را انجام می‌دهم، بنابراین تقریباً $F_{4, 60}(5 \%)$ است و سپس این کار را به این صورت انجام دهم. با این حال، به نظر می رسد چیزی شبیه به: $$ F_{4, 81}(5\%) \approx F_{4,60}(5\%) - (81 - 60)(F_{4, 60}(5 \%) - F_{4,120}(5\%))/60$$ این از کجا می آید و چرا اینگونه است؟
آزمون F: $F_{4, 81}(5\%) \تقریبا F_{4,60}(5\%) - (81 - 60)(F_{4, 60}(5\%) - F_{4,120 }(5\%))/60$. این از کجا می آید؟
107613
اگر $\theta|\mu \sim N(\mu,\sigma_o^2)$ و $\mu \sim N(0, \sigma_1^2)$ $P(\theta)$ حاشیه‌ای چقدر است. $\theta$ و $\mu$ هر دو بردار nx1 هستند $P(\theta) = \int P(\theta|\mu)P(\mu)d\mu$ آیا $N(0,\sigma_o^2I+ است \sigma_1^2A)$؟ که در آن A ماتریس nxn با همه آنها است؟
حاشیه نشینی در گاوسی
47536
من یک تحلیل عاملی بر روی ویژگی‌های مختلف برندهای مختلف سیگار انجام داده‌ام (مثلاً اینکه مصرف‌کنندگان چقدر آن را گران می‌یابند و غیره). سه عامل از بسیاری از ویژگی ها پس از کاهش محاسبه شد. اکنون می‌خواهم یک تحلیل خوشه‌ای (فاصله اقلیدسی و روش وارد) روی امتیازهای عامل محاسبه‌شده برای هر فرد انجام دهم. سوال این است که چگونه می توانم نمرات فاکتور برای هر نفر را در SPSS یا Excel محاسبه کنم؟
محاسبه امتیاز فاکتورها در SPSS
108278
من متغیرهای مختلفی دارم (A، B، C، D) که همگی دارای مقیاس ترتیبی هستند. من یک متغیر دیگر (Z) دارم که دارای مقیاس ترتیبی است. حجم نمونه من تقریبا 1.500. آیا محاسبه $\rho$ اسپیرمن برای هر رابطه - (1) A & Z، (2) B & Z، (3) C & Z و غیره - و مقایسه این مقادیر متعاقباً از نظر آماری صحیح است؟ شاید از Fisher Z-Test استفاده کنید؟ نتیجه احتمالی: هیچ یک از روابط به طور قابل توجهی با رابطه دیگر متفاوت نیست، اما (1) کمی قوی تر از (2) است اما به اندازه (3) نیست؟
مقایسه دو عدد $\rho$-Vaules اسپیرمن از نظر آماری صحیح است؟
80980
من در حال حاضر روی شبکه‌های عصبی برای پیش‌بینی سری‌های زمانی کار می‌کنم، شک من این است که آیا باید در حین استفاده از شبکه‌های عصبی برخلاف متدولوژی جعبه جنکینز، مسائلی مانند روند، عدم ایستایی و فصلی را در نظر بگیریم. اگر بله، پس چگونه آن را حساب کنیم. به عنوان مثال آیا ما نیاز به تغییر تابع هزینه و غیره داریم. من در حال حاضر از بسته nnet و neuralnet در R استفاده می کنم. اما در مستندات آنها اشاره ای به این مسائل نمی کنم. اگر نه، به این معنی است که مدل از خود داده ها درباره فصلی بودن اطلاعات یاد می کند، زیرا به عنوان مثال آنها یک سری زمانی با روند صعودی همراه با برخی تغییرات هستند، و اگر یک شبکه عصبی را روی چنین سری هایی قرار دهیم، ممکن است فقط یاد بگیرد. درون یابی در آن مورد
پیاده سازی شبکه عصبی برای سری های زمانی
78030
من در حال تجزیه و تحلیل مدار زمانی هستم که طراحی کرده ام و باید احتمال یک رویداد خاص (خطای بیت) را محاسبه کنم. به عنوان مثال، من این معادله را استخراج کردم: $(1 + x) / d < 1 / M$، که در آن x یک متغیر تصادفی با توزیع نرمال، d یک متغیر تصادفی با توزیع یکنواخت، و M یک ثابت است. من می خواهم بتوانم احتمال درست بودن این نابرابری را برای یک توزیع معین برای x، یک توزیع معین برای d و یک M معین محاسبه کنم. به عنوان مثال، فرض کنید x دارای توزیع نرمال با میانگین = 0 و SD است. = 0.05، d توزیع یکنواختی بین 0 و 1 دارد و M = 3. چگونه می توانم احتمال درست بودن نابرابری را محاسبه کنم؟ اگر یک متغیر تصادفی وجود داشت، می توانستم آن را انجام دهم. اما من گم شده ام و نمی دانم چگونه آن را حل کنم. من سعی کردم یک کتاب درسی آمار را جستجو کنم و بخوانم، اما نمی دانم به دنبال چه چیزی باشم.
محاسبه احتمال نابرابری با دو متغیر تصادفی
47537
این شاید یک سوال احمقانه باشد. ولی امیدوارم کسی بتونه کمکم کنه من ابتدا مجموعه داده را به آموزش (75%) و تست (25%) تقسیم می کنم. سپس یک مدل رگرسیون لجستیک را بر روی مجموعه داده های آموزشی برازش دهید. هنگام برازش مدل، تغییراتی روی متغیر مستقل انجام دادم، مانند نرمال سازی، چیزهای تبدیل. اکنون مدل را دارم و آماده آزمایش آن با استفاده از مجموعه داده های آزمایشی هستم. اما آیا باید همان تبدیل را به متغیر مستقل در مجموعه داده های تست انجام دهم؟
آیا باید همان تبدیل پیش‌بینی‌کننده‌ها را روی یک مجموعه داده آزمایشی اعمال کنیم؟
101365
من یک سری از بیماران دارم که مقدار یک مقدار خون را در چندین مقطع زمانی اندازه گیری کرده ام. با این حال، نقاط زمانی بسیار متفاوت است و تعداد اندازه‌گیری‌ها بین 2 تا 5 متغیر است. اگر مقادیر خون هر بیمار را در محور Y و زمان را در محور X داشته باشم، می‌خواهم یک اسپلاین صاف‌کننده را در یک نمودار قرار دهم. من می خواهم نموداری مانند تصویر زیر داشته باشم ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ZVLsf.png) من از R استفاده می کنم و با تابع `smooth.spline` من می‌توانم یک اسپلاین هموارسازی با تمام نقاط داده استفاده شده داشته باشم، اما فکر می‌کنم باید نقاط داده هر بیمار را وابسته در نظر بگیرم و از این رو نمی‌توانم آنها را فقط در دو بردار قرار دهم. چگونه می توانم یک صاف کننده همانطور که در بالا نشان داده شده است تولید کنم؟
هموارسازی اسپلاین با مختصات وابسته در R
18396
من مجموعه ای از داده ها را در شبیه سازی با استفاده از R با اندازه جمعیت (N) 1000، میانگین نمونه 64.93 و انحراف معیار 27.61 دارم. توزیع دارای انحراف مثبت است و آزمایش Wilks-Shapiro انجام شده در JMP نشان می دهد که داده ها به طور معمول توزیع نمی شوند. من به فواصل اطمینان این داده ها نیاز دارم تا بتوانم برخی از داده های تجربی را که دارم آزمایش کنم. من یاد گرفته‌ام که استفاده از تابع «boot.ci()» در R می‌تواند فواصل اطمینان را با استفاده از bootstrapping به من بدهد. همانطور که در http://www.statmethods.net/advstats/bootstrapping.html نشان داده شده است، تابع بوت به این موارد نیاز دارد: «bootobject <- boot(data= , statistic= , R=)»، که در آن داده، داده مورد علاقه است، آمار تابعی است که آماری را که باید بوت استرپ شود تولید می کند و R تعداد دفعاتی است که باید آن را انجام دهیم. داده های من به سادگی بردار 1000 نمونه است. من مطمئن نیستم که چه آماری باید انجام دهم. تمام مثال هایی که به صورت آنلاین خوانده ام به دو مجموعه داده برای ایجاد یک آماره همبستگی یا یک آماره رگرسیون خطی نیاز دارند. داده ها را می توان از: http://ktdllc.com/data/simp2.csv دانلود کرد.
تعیین فاصله اطمینان برای توزیع غیر نرمال
107615
من در درک اینکه اندازه نمونه بزرگ برای موقعیتی که جفت‌هایی در گروه‌های قبل و بعد وجود دارد اما همه نقاط داده چندگانه دارند، مورد نیاز است، مشکل دارم. ## مشکل در موقعیتی قرار دهید که X پرتاب کننده دارت دارید. هر پرتاب کننده دارت $n_i$ دارت را برای چند نقطه میانگین $m_i$ با دارت بد پرتاب کرده است. اکنون یک دارت بهتر مورد انتظار معرفی شده است، بنابراین پرتاب کنندگان دارت همه شروع به پرتاب با دارت جدید می کنند. چند پرتاب لازم است تا بتوان گفت که دارت های جدید با اهمیت 5% با قدرت 80% بهتر هستند؟ (توجه داشته باشید که این تابعی از تفاوت واقعی در میانگین امتیازات خواهد بود.) ## افکار در مورد راه حل من از تست power.t. آگاه هستم، که می تواند برای مقایسه تمام نقاط قبل و بعد استفاده شود. با این حال، از آنجایی که تخصص پرتاب دارت می تواند در بین پرتاب کنندگان به طور قابل توجهی متفاوت باشد، احتمالاً باید یک تست زوجی باشد. اما، هنگام خواندن power.t.test(...، type = paired)، به شما می گوید که چند جفت (پرتاب کننده) مورد نیاز است (و احتمالاً فقط یک نقطه داده را با بد و خوب فرض می کند. دارت). بنابراین، من در نظر دارم برای هر یک از نویسندگان یک «تست power.t.» انجام دهم، اما چگونه می توانم نتایج را در یکی جمع کنم؟ آیا تست توان جفتی وجود دارد که بتواند پاسخ دهد که در شرایطی که شما جفت‌ها و همچنین چندین نقطه داده برای هر جفت دارید، چقدر نمونه مورد نیاز است؟ آیا توزیع اصلی مهم است؟
چند نمونه برای یک کارآزمایی زوجی با چندین آزمایش لازم است؟
67403
من نمی دانم چگونه می توان ارزیابی کرد که آیا یک مدل چندسطحی با استفاده از «lmer» مفروضات نرمال بودن و همسانی بودن را برآورده می کند یا خیر؟ من از کد «r» زیر استفاده کرده‌ام و دریافتم که هیستوگرام باقیمانده‌ها و نمودار qq این فرض را برآورده می‌کند که باقیمانده‌ها معمولاً توزیع شده‌اند. اما از آنجایی که مدل‌های چند سطحی هم در سطح فردی و هم در سطح گروهی دارای باقیمانده هستند، آیا باید باقیمانده‌ها در هر دو سطح به طور معمول توزیع شوند؟ هر گونه کمکی بسیار قدردانی می شود. residuals<-resid(نتایج) summary(residuals) hist(residuals) qqnorm(residuals) qqline(residuals) xyplot(resid(نتایج) ~ fitted(نتایج))
چگونه می توان مفروضات مدل چند سطحی را با استفاده از نمودارهای باقیمانده ارزیابی کرد
67400
من دو گروه از بیماران (A و B) با ناهنجاری مادرزادی دارم که ممکن است خود را به 3 شکل (a یا b یا c) نشان دهد. اندازه نمونه همانطور که می بینید کوچک است، بنابراین فکر می کنم بهترین آزمون برای بررسی اینکه آیا تفاوت آماری معنی داری بین 3 فرم در 2 گروه وجود دارد یا خیر، آزمون دقیق فیشر در جدول احتمالی 3x2 زیر است: گروه A: 2 a، 12 b, 1 c گروه B: 5 a, 3 b, 1 c سوال من این است: چگونه باید مقدار p را تفسیر کنم؟ من نمی فهمم به چه چیزی اشاره شده است. با داشتن مقدار p، چگونه می توانم بگویم که یکی از سه شکل از نظر آماری به طور قابل توجهی بیشتر از بقیه نمایش داده می شود (در صورت درست بودن)؟
تست دقیق فیشر در جدول احتمالی 3x2
108272
من در حال حاضر روی یک مسئله مدل سازی آماری در زیست شناسی کار می کنم. ما اندازه‌گیری‌های سلولی پروتئین‌ها را در هر سلول در بافت داریم، و من از آنالیز رگرسیون استفاده می‌کنم تا ببینم آیا پروتئین مشخص شده تحت تأثیر محتوای پروتئین در نزدیک‌ترین همسایگان قرار می‌گیرد یا خیر. به طور کلی، من یک مدل خطی کلی به شکل $Y = \بتا X + B$ می‌خواهم که در آن $Y$ ماتریس اندازه‌گیری پروتئین‌های متعدد در سلول‌ها است، و $X$ نیز به همین ترتیب است اما میانگین نسبت به نزدیک‌ترین همسایگان یک سلول داده شده با این حال، در هر سلول، ما معتقدیم که شبکه‌ای وجود دارد که به صورت درونی بر سطوح پروتئین تأثیر می‌گذارد، بنابراین من از LASSO (ما معتقدیم که ماتریس زیربنایی پراکنده است، و پروتئین‌های زیادی دارای متغیرهای نویز زیادی است) در هر سلول برای پسرفت کردن یک پروتئین خاص استفاده کردم. بقیه، ماتریسی از باقیمانده $\tilde{Y}$ (که به طور طبیعی دارای کوواریانس نزدیک به 0 است) باقی می ماند تا یک مدل خطی ارائه شود. $\tilde{Y} = \بتا X + B$. از آنجایی که ما معتقدیم تعاملات در این مدل نیز پراکنده است، من از رگرسیون LASSO با آزمایش اهمیت یافت شده در Bühlmann، Peter، Markus Kalisch و Lukas Meier استفاده کرده‌ام. آمار با ابعاد بالا با نگاهی به کاربردها در زیست شناسی. بررسی سالانه آمار و کاربرد آن 1 (2014): 255-278. با این حال، از آنجایی که $\Sigma = 0$ برای $\tilde{Y}$ است و می‌خواهیم متغیرهای پیش‌بینی‌کننده متفاوتی را برای هر پاسخ انتخاب کنیم، من رگرسیون چندگانه را برای هر متغیر پاسخ تکرار می‌کنم، به‌جای اینکه رگرسیون خطی کلی را روی تمام پاسخ‌ها انجام دهم. متغیرهای پاسخ به یکباره سوالی که می خواهم بپرسم این است که آیا این یک رویکرد معتبر است؟ آیا اشکال آشکاری در روش وجود دارد؟ نظر دیگری به طور کلی وجود دارد؟ پیشاپیش ممنون
رگرسیون چندگانه مکرر برای تست اهمیت LASSO
108279
من به دنبال کدهای متلب DBSCAN و OPTICS برای خوشه بندی الگوی 'm' در فضای سه بعدی هستم: ورودی یک ماتریس است که در آن ردیف های 'm' بردار هستند و 'n'=3 ستون ها محورهای X,Y,Z هستند. من همچنین می خواهم که نتیجه در نمودار سه بعدی ترسیم شود. کسی میتونه کمکم کنه؟ خیلی ممنون ممنون، مفید! اما من نمی دانم چگونه نمودار نتایج را انجام دهم ...
DBSCAN & OPTICS
101116
اگر میانگین نمونه و واریانس نمونه مستقل باشند، چگونه می توان ثابت کرد که نمونه تصادفی به طور معمول توزیع شده است؟
خصوصیات توزیع نرمال
4353
هنگام تطبیق GAMM با R، می خواهم بدانم چرا وقتی تابع صاف خطی است، فاصله اطمینان در اطراف وسط صفر است (خطوط نقطه چین در وسط از یکدیگر عبور می کنند)
برازش مدل GAMM در R
108276
یک بردار داده سری زمانی (به ترتیب ماه و سال) به من داده می شود که فقط حاوی «0» و «1» است. «1» نشان دهنده تغییر شغل شخصی در یک ماه خاص است. **سوالات:** از چه مدلی می توانم برای تعیین مدلی که این فرد مرتباً شغل خود را تغییر می دهد استفاده کنم؟ علاوه بر این، این مدل باید بتواند احتمال تغییر این فرد را در 6 ماه آینده پیش بینی کند. یک فرآیند سمی؟ (من قبلاً فرآیند سم را مطالعه کرده ام اما نمی دانم چه زمانی و چگونه آن را اعمال کنم). آیا فرضیاتی وجود دارد که داده ها باید قبل از اعمال فرآیند پواسون رعایت شوند؟ دوست دارم اطلاعات بیشتری در مورد نحوه مدل کردن چیزی شبیه این جمع آوری کنم. با تشکر
با توجه به داده های سری زمانی، چگونه می توان فرکانس فردی را که شغل خود را تغییر می دهد مدل کرد؟
79343
آیا می توان تابع احتمال P(x) را طوری طراحی کرد که توزیع دارای یک کشش مشخص، K و چولگی، S باشد؟ من در غیر این صورت به هیچ ویژگی دیگری از این توزیع علاقه مند نیستم. P(x) = f(K,S) ...f تابعی از کشش، چولگی است.
طراحی تابع احتمال با کشش و چولگی دلخواه
112107
همه اینجا من می خواهم از توزیع چند جمله ای استفاده کنم، اما p[] و N همه تصادفی هستند. مدل درست است و داده ها بارگیری شده است، مدل کامپایل شده است، اما هنوز نمی تواند اجرا شود، می گوید: مقدار دوجمله ای f[1] باید یک عدد صحیح باشد. اینجا کسی هست که ازش خبر داشته باشه؟ خیلی ممنونم این کد من است: مدل { for(s in 1:S) {for(i in 1:E) { # قسمت تصادفی احتمال نمونه[s,i] ~ dpois(lambda[s,i]); # تابع پیوند lambda[s,i] <- (w[s]*l[i])*inprod(A[i,1:T],f[1:T]); } } for(m in 1:T) { delta[m] ~ dgamma(alpha[m],1); p[m] <- delta[m] / sum(delta[]); } # p[1:T] ~ ddirch(alpha[1:T]) N ~ dpois(lambda1); q[1]<- p[1]; for(k در 2:T){ q[k] <- p[k]/(1-sum(p[1:(k-1)])); } f[1] ~ dbin(q[1],N); for(j در 2:(T-1)) { tmp[j] <- N-sum(f[1:(j-1)]) f[j] ~ dbin(q[j],tmp[j] ) } f[T]<-N-sum(f[1:(T-1)]) }
WinBUGS چند جمله ای همه پارامترها متغیرهای تصادفی هستند
13707
من باید پرسشنامه ای ایجاد کنم که ورزشکار بودن کاربران فیس بوک را با کاربران غیر فیس بوک مقایسه کند. من باید تعداد شرکت کنندگان مورد نیاز را محاسبه کنم تا نتیجه از نظر آماری مرتبط باشد. متأسفانه من نمی دانم چگونه می توانم آن را محاسبه کنم. آیا می توانید به من کمک کنید؟
چگونه می توان تعداد شرکت کنندگان مورد نیاز برای مقایسه میانگین نمرات پرسشنامه بین دو گروه را محاسبه کرد؟
4350
من سعی می کنم از R برای انجام تقسیم جامعه در شبکه وزنی خود (بر اساس یک ماتریس ارتباط) استفاده کنم. من با igraph امتحان کردم اما با مشکلاتی مواجه شدم. من معمولاً از برنامه Socprog (Whitehead 2009) برای تجزیه و تحلیل خود استفاده می کنم، اما همانطور که می خواهم یک تقسیم جامعه با مدولاریت نیومن (2006) بر روی 1000 بوت استرپ از داده هایم انجام دهم تا ماتریس Commbership حاصل از تمام تقسیمات جامعه را محاسبه کنم. بوت استرپ ها بنابراین من به دنبال اسکریپتی هستم که یک تقسیم بندی جامعه (نیومن 2006) را از یک ماتریس انجمن انجام دهد و فهرستی از افراد را با خوشه آنها ارائه دهد. آیا کسی اسکریپت R دارد که برای این تحلیل کار کند؟ هر توصیه ای برای اجرای این تحلیل بسیار قدردانی خواهد شد. با احترام
چگونه تقسیم جامعه یک شبکه اجتماعی را با R انجام دهیم؟
67409
من قصد دارم از مقیاس بندی چندگانه در R استفاده کنم و با یک مثال اسباب بازی شروع کنم. دو ماتریس وجود دارد. اولی شامل 10 مشاهده و دومی شامل دو ردیف تکرار شده است. به نظر می رسد که ردیف های تکرار شده در موقعیت های مختلف پیش بینی می شوند. به طور شهودی من انتظار دارم که تکرارها (تقریباً) در همان موقعیت در نمودار ابعاد پایین‌تر پیش‌بینی شوند، اما به نظر نمی‌رسد. کد زیر این است: aa <- ماتریس(نمونه(1:10,1000,replace=T),nrow=10) bb <- rbind(aa,aa[c(3,5),]) dist1 <- dist( aa) dist2 <- dist(bb) fit1 <- cmdscale(dist1,eig=TRUE, k=2) fit2 <- cmdscale(dist2,eig=TRUE, k=2) par(mfrow=c(2,1)) x1 <- fit1$points[,1] y1 <- fit1$points[,2] نمودار(x1,y1) x2 <- fit2$points[,1] y2 <- fit2$points[,2] plot(x2,y2) بنابراین مطمئن نیستم که آیا مشکلی وجود دارد یا این که ماهیت این روش باشد. در این صورت توضیح یا راه حل (پروژه به بعد بالاتر، انتخاب روش های دیگر) چه خواهد بود؟
موضوع روش مقیاس بندی چندگانه
68250
من یک سوال در مورد بسته **جهش** دارم که برای انتخاب مدل از آن استفاده می کنم. من می خواهم 4 روش مختلف انتخاب را مقایسه کنم: جلو، عقب، گام به گام و بهترین زیر مجموعه. من از کد زیر استفاده کردم: library(leaps) forward <- regsubsets(Response ~.,data = mydata, method = forward, nbest=1) backward <- regsubsets(Response ~.,data = mydata, method = backward ، nbest=1) گام به گام <- regsubsets(Response ~., data = mydata, method = seqrep، nbest=1) بهترین زیرمجموعه <- regsubsets(Response ~.,data = mydata, method = exhaustive, nbest=1) # تنظیم شده R2 opt = par (mfrow =c(2,2)) نمودار( جلو، مقیاس = adjr2، اصلی = انتخاب رو به جلو) نمودار (به عقب، مقیاس = adjr2، اصلی = عقب انتخاب) plot(stepwise, scale = adjr2, main = Stepwise selection) plot(best subset, scale = adjr2, main = Best subset selection) با استفاده از این دستورات اعداد زیر را به دست آوردم: ![Enter توضیح تصویر در اینجا](http://i.stack.imgur.com/KlDWC.png) من تعجب می کنم که چرا شکل A و D شبیه یکدیگر هستند (و همچنین شکل ب و ج). من انتظار دارم الگوریتم های مختلف مدل ها را به روشی متفاوت انتخاب کنند. به عنوان مثال، مدل‌هایی که با روش انتخاب رو به جلو انتخاب می‌شوند، باید بر اساس سطح معنی‌داری/مقدار AIC انتخاب شوند. از طرفی مدل‌های انتخاب شده با بهترین روش انتخاب زیرمجموعه باید بر اساس آمار نمونه انتخاب شوند. همچنین تعجب می‌کنم که چرا انتخاب پیشرو یک متغیر را در زمان اضافه کردن آن به مدل موجود انتخاب نمی‌کند؟ همچنین شکل B نشان می دهد که انتخاب به عقب با هشت متغیر در مدل شروع می شود. چرا با همه متغیرها شروع نمی شود و در آن واحد یکی را حذف نمی کند؟ از این توضیحات بسیار سپاسگزار خواهم بود.
انتخاب رگرسورها
68254
من از مثال معروف مایرز و مونتگومری (1995) استفاده می‌کنم که طراحی فاکتوریل 2 ^{4} دلار است تا برخی از روش‌ها را برای طرح‌های فاکتوریل تکرار نشده در مورد اثرات فعال و میانگین مربعات خطاهای مقادیر پیش‌بینی‌شده مقایسه کنم. با این حال، برای اجرای تجزیه و تحلیل، من باید تخمین پارامترها را برای مدل کامل دریافت کنم، که صفر درجه آزادی برای خطا در ANOVA می دهد. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/1Jdgz.gif) باید از SAS و Minitab استفاده کنم. می توانید کد SAS را که من استفاده می کنم در زیر نرخ داده مشاهده کنید. a=-1,1; b=-1,1; انجام c=-1,1; انجام d=-1,1; ورودی y @@; ab=a*b; ac=a*c; ad=a*d; bc=b*c; bd=b*d; cd=c*d; abc=a*b*c; abd=a*b*d; acd=a*c*d; bcd=b*c*d; abcd=a*b*c*d; خروجی پایان؛ پایان؛ پایان؛ پایان؛ خطوط داده؛ 45 71 48 65 68 60 80 65 43 100 45 104 75 86 70 96 ; اجرا؛ ---------------------------- proc reg data=rate outest=regout; مدل y=a b c d ab ac ad bc bd cd abc abd acd bcd abcd; اجرا؛ در Minitab، من از بخش Stat > DOE > Factorial > Analyze Factorial Design استفاده می کنم که در اینجا خروجی های SAS و Minitab به ترتیب آمده است. ![خروجی SAS](http://i.stack.imgur.com/ahn8Y.png) ![خروجی Minitab 1](http://i.stack.imgur.com/mI2YE.png) ![Minitab Output 2 ](http://i.stack.imgur.com/lkEUs.png) همانطور که می بینید، هر دو برنامه تخمین پارامترهای متفاوتی ارائه می دهند. من کاملاً مطمئن هستم که SAS از حداقل مربعات معمولی (OLS) برای رگرسیون استفاده می کند. برای minitab، مطمئن نیستم که از OLS یا Maximum Likelihood استفاده می‌کند تا بتواند یک مدل خطی کلی برای طرح‌های فاکتوریل را تطبیق دهد. اما هیچ سند رسمی پیدا نکردم. اولین سوال من این است: آیا مدرک رسمی برای Minitab در مورد استفاده از OLS برای تخمین پارامترهای یک مدل خطی عمومی دارید؟ سوال دوم من این است: چگونه می توانم با چنین مشکلی مقابله کنم؟ به عنوان مثال، من می خواهم با استفاده از روش Lenth افکت های فعال را پیدا کنم. برای آن، من باید افکت‌ها را دریافت کنم (که دو برابر تخمین پارامتر است)، زیرا می‌بینم که این دو برنامه کنتراست‌های متفاوتی ارائه می‌دهند.
تخمین پارامترهای مختلف SAS و Minitab برای طرح‌های فاکتوریال تکرار نشده
68253
من در مورد ارزیابی نرم افزار پیش بینی با سیستم های خبره سوال دارم: آیا ارزیابی عینی (نه از طرف سازنده) در مورد نرم افزار پیش بینی خبره در ادبیات وجود دارد؟ من دو مرجع پیدا کردم اما هر دو قدیمی هستند: 1. اصول پیش بینی (2001) آرمسترانگ 2. روش ها و کاربردهای پیش بینی (1998) Makridakis et al. به نظر می رسد SCA و AUTOBOX دو سیستم خبره در بازار هستند، آیا مقایسه ای روی این دو نرم افزار انجام شده است؟ آیا نرم افزار دیگری وجود دارد که دارای سیستم های خبره باشد؟ هر گونه راهنمایی در این زمینه بسیار قابل قدردانی خواهد بود.
ارزیابی نرم افزار پیش بینی خبره
67405
برای یک مدل معین: $y_{ik} = \mu_k + \beta X + u_k X + b_i + \epsilon_{ik}$ که $u \sim N(0, \sigma_{u}^{2} I)$ , $b \sim N(0, \sigma_{b}^2 I)$ و $\epsilon \sim N(0,\sigma_{e}^2 I)$. با فرض اینکه $\epsilon_i$ به طور معمول توزیع شده است، من سعی می کنم احتمال ورود به سیستم را برای معادله بالا بنویسم. با این حال، با توجه به اینکه مولفه های واریانس چندگانه در معادله وجود دارد، چگونه می توانم این کار را انجام دهم؟ این چیزی است که من تا کنون دارم. $l(Y; X، \بتا، \sigma_{u}، \sigma_{b}، \sigma_{e}) = - \frac{n}{2} log(2\pi + V^2) - \ frac{1}{2V^2} \sum_{i=1}^{n} (y_{ik} - \mu_k - \beta X - u_k X - b_i)^2$ که در آن -- $V = \sigma_u^2 + \sigma_b^2 + \sigma_e^2$
نوشتن احتمال ورود به سیستم برای یک مدل اثرات مختلط با مولفه های واریانس چندگانه
108273
من می خواهم آزمایشی را برای ادغام طولانی مدت دو سری زمانی انجام دهم: انتشار CO2/سرانه و مصرف انرژی/سرانه در چین. داده های من شامل 23 مشاهدات برای سال های 1990-2012 است. در حال حاضر تا آنجا که من می دانم باید سری _I(1)_ را داشته باشم تا همگرایی آنها را آزمایش کنم. با این وجود، آزمون‌های ریشه واحد اشاره می‌کنند که این دو متغیر ممکن است نتیجه فرآیندهای _I(1)_ نباشند، بلکه نتیجه _I(2)_ باشند. به آمار تست ADF نگاهی بیندازید: ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/KiHbL.png) و تست ERS: ![شرح تصویر را اینجا وارد کنید](http:// i.stack.imgur.com/X7aYZ.png) توابع خودهمبستگی اولین تفاوت ها دارای مقداری خودبازگشتی هستند: ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/CkMRg.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/jFYQE.png) اکنون آمار تست ERS برای تفاوت های اول کمی مبهم هستند، اما ممکن است به دلیل مشخصات نادرست مدل باشد. به نظر می رسد که این سری های زمانی در واقع _I(2)_ هستند. درباره تست هم انباشتگی بلندمدت؛ می دانم که به عنوان مثال، آزمون ARDL اجازه می دهد که سری های I(0) و I(1) ترکیبی را شامل شود، اما آمار آن برای متغیرهای I(2) معتبر نیست. همینطور برای آزمون یوهانسن، آمار آن برای I(2) معتبر نیست. آیا من به این نقطه حق دارم؟ اگر اولین تفاوت‌های سری‌ها را در نظر بگیرم و هم‌انجمادی آنها را آزمایش کنم، نتایج در مورد هم‌انجمادی بلندمدت معتبر نیستند. و در نهایت، تست ها در مواردی از جمله شکست های سازه ای چگونه کار می کنند؟ برای مثال به طرح‌های هر دو سری اصلی نگاهی بیندازید: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/gGtbQ.png) ![توضیح تصویر را اینجا وارد کنید](http://i .stack.imgur.com/Gnr8s.png) بدیهی است که وقفه هایی در این سری وجود دارد. چگونه بر نتیجه تأثیر می گذارند؟
هم انباشتگی بلندمدت و متغیرهای I(2).
77127
من در تجزیه و تحلیل داده و داده کاوی تازه کار هستم. اغلب در مقالاتی که می خوانم، از اصطلاح مجموعه داده های چند متغیره با ابعاد بالا استفاده می کنند. در حال حاضر، وظیفه من این است که یک نقطه پرت را شناسایی کنم و همان را از یک مجموعه داده پیچیده بزرگ تجسم کنم. اما چگونه می توان فهمید که آیا من یک مجموعه داده چند متغیره با ابعاد بالا دارم یا نه؟
مجموعه داده چند متغیره با ابعاد بالا چیست؟
79348
من از یک GLM با تابع پیوند لجستیک برای پیش‌بینی Y (0 یا 1) به عنوان تابعی از تعداد زیادی متغیر پیش‌بینی‌کننده (A، B، C، و غیره) استفاده می‌کنم. برخی از متغیرهای پیش بینی کننده (A*، B*، C*، و غیره) در مطالعات دیگر نشان داده شده اند که پیش بینی کننده های قابل توجهی هستند. من می‌خواهم نشان دهم که Y با همه متغیرهای پیش‌بینی‌کننده دیگر ارتباطی ندارد و فکر می‌کردم ساده‌ترین راه برای انجام این کار اجرای مدل کامل (Y ~ .) و مدل تهی (Y ~ A* + B* است. + C* + ...)، و سپس از anova() برای مقایسه این دو استفاده کنید و نشان دهید که آنها متفاوت نیستند (یعنی قدرت پیش بینی برابری دارند). با این حال، anova() فقط مقادیر p را خروجی می‌دهد (خطای نوع I)، اما من در اینجا به نرخ خطای نوع II نیاز دارم (از آنجایی که می‌خواهم نشان دهم که مدل‌ها یکسان هستند، برای آن به یک نرخ منفی کاذب نیاز دارم). آیا ایده ای در مورد نحوه برخورد با این موضوع دارید؟
چگونه خطای نوع II را بین glm fits در R محاسبه کنیم؟
67402
من می دانم که چند بار یک فاکتور خاص پیدا شده است: `مقادیر<-cbind(f=c(S1،S10،S3،S4،S5،S6،S7، S8, S9), count=c(9,8,4,24,20,4,8,21,5))` من همچنین اطلاعاتی در مورد تعداد دفعاتی که فاکتورها به تنهایی و به صورت جفت پیدا می شوند، دارم. سه قلو... با هم<-cbind(count=c(25,11,11,1,1,0,2,0),fnb=c(1,2,3,4,5,6,7,8)) S4 و S5 در 13 مورد با هم یافت می شوند که در مقایسه با هر یک از انجمن های دیگر بسیار بالا به نظر می رسد. من می‌خواهم بررسی کنم که آیا این دو عامل بیشتر از آنچه انتظار می‌رود با هم پیدا می‌شوند، اگر عوامل به‌طور تصادفی با هم مرتبط باشند. چگونه این را در یک آزمون آماری فرموله می کنید؟ هر گونه کمک بسیار قدردانی می شود.
چگونه می توان احتمال یافتن دو عامل را با هم آزمایش کرد؟
91520
اگر مشکلی دارم تا $$k(E(x^2) - E(x)^2) = E(\overline{x}^2) - E(\overline{x})^2$$ . ..میتونم بگم $k = 1$؟ $X$ دارای یک میانگین بی طرفانه و یک واریانس است. هر x$ در X$ مستقل است. یا پیچیده تر از این است؟ اگر واضح نیست، $\overline{x}$ نشان‌دهنده میانگین است (یا متوسط ​​یا هر چیز دیگری، من همیشه فکر می‌کردم تا این تکلیف یکسان هستند...)
$E(\overline{x})$ در مقابل $E(x)$؟
67407
من تجربه زیادی با آمار ندارم و گمان می کنم این یک مشکل رایج با یک راه حل مشترک است. به طور معمول، من فقط به داده ها نگاه می کنم و آن را یک روز می نامم، اما در برخی مواقع شما باید راه درست انجام کارها را یاد بگیرید. من مجموعه داده ای از حدود 17000 ناحیه با توزیع تجمعی دارم: gid st_area2d cume_dist 9810 0.0000280288363734472 0.0000568052715291979 10804 0.0004 0.0004 0.0003 0.0001136105430583960 3087 0.0000492940355178313 0.0001704158145875940 7037 0.000050463871061296 0.0002272210861167920 ... وقتی من یک نمودار پراکنده از ناحیه و صدک می‌سازم، دو انتقال واضح وجود دارد- یکی که صدک‌ها بسیار کوچک بودند و دیگری که در آن بسیار بزرگ می‌شوند (نسبتا): ![CSUM Chart](http://i. .stack.imgur.com/ZDOBW.png) چگونه می توانم به بهترین نحو تعیین کنم که کدام صدک آن انتقال ها را مشخص می کند؟ بنابراین من راهی می‌خواهم تا مشخص کنم که در حدود صدک 95، مناطق من خیلی سریع بزرگ‌تر می‌شوند و در جایی 98 دوباره سطح آن کاهش می‌یابد. حدس من مقایسه شیب بین نقاط است. در هر دو انتقال، شیب به طور قابل توجهی کمتر خواهد شد. من گمان می کنم روش استاندارد وجود دارد، اما من اصطلاحات را نمی دانم یا پیش زمینه ای برای دفاع از یک روش در مقابل روش دیگر ندارم.
انتقال قابل توجه در مقادیر داده را تعیین کنید
68257
من دو گروه شرکت کننده دارم، یک گروه بیماران روان پریشی و یک گروه کنترل. همه شرکت کنندگان یک کار کامپیوتری را انجام می دهند که دارای سه شرایط مختلف است. بنابراین، من می‌خواهم مقایسه‌های درون گروهی و بین گروهی را انجام دهم. از آنجایی که عامل تمایز بین گروه‌ها وضعیت بیماری است (چیزی که نمی‌توان آن را دستکاری کرد)، فکر کردم که یک ANOVA با طرح ترکیبی (انووا با طرح تقسیم‌شده) اجرا می‌کنم. بنابراین، روان پریشی و سالم به عنوان دو متغیر مستقل شناخته می شوند. آیا این تحلیل درست است؟ اگر درست است به این نوع طراحی چه می گویم؟ آیا مناسب است که آن را «طراحی اقدامات مکرر گروه‌های مستقل شبه تجربی» بنامیم؟
اگر شرایط را در دو گروه از قبل مقایسه کنم، آیا این یک طرح شبه تجربی است؟
79344
به نظر می رسد که رگرسیون چندگانه روش بهتری برای انجام تحلیل باشد. به عنوان مثال، ANOVA به سادگی t-value (یا F-value برای دو یا چند متغیر) می دهد و بزرگی اثر را نشان نمی دهد. برعکس، تحلیل رگرسیون هم مقدار t و هم مقدار ضرایب رگرسیون را نشان می‌دهد. آیا این بدان معناست که باید ANOVA را به طور کامل کنار بگذاریم.
محدودیت های ANOVA در مقایسه با تحلیل رگرسیون چندگانه چیست؟
107656
تصور کنید می‌خواهید از یک نمونه‌برداری ساده گیبس برای نمونه‌گیری مجدد از توزیع احتمال مشترک استفاده کنید که مدل‌سازی آن دشوار است (اما شما همه شرط‌های $Pr\left(X_i|X_1،...، X_{i-1}، X_ را می‌دانید. {i+1}،...،X_N\right)$، برای $i=1،...،N$، از این رو نمونه گیبس). در پایان، مجموعه ای از بردارهای ترسیم شده زیادی از متغیرهای $\left(x_1^{(k)},x_2^{(k)},...,x_N^{(k)}\right)$ خواهید داشت. ، برای $k=1،...،K$. حالا تصور کنید که می‌خواهید یک بردار از متغیرهای $\left(y_1^{(k)},y_2^{(k)},...,y_M^{(k)}\right)$ را به هر یک از متغیرها اختصاص دهید. بردارهای از قبل ترسیم شده شما چند احتمال شرطی دارید مانند $Pr\left(Y_j|Y_1,...,Y_{j-1},Y_{j+1},...,Y_M,X_1,...,X_N\راست)$ . مجدداً، مدل‌سازی توزیع مشترک دشوار است. آیا فکر می‌کنید با درج متوالی $x_i^{(k)}$ ترسیم شده قبلی و پس از کنار گذاشتن برخی مراحل، جمع‌آوری $y_j^{(k)}$ نمونه‌برداری شده، می‌تواند نمونه‌برداری گیبس را با این شرط‌ها انجام دهد؟ در غیر این صورت، آیا راهکاری برای اعمال در این موارد دارید؟ با تشکر
نمونه گیری گیبس درج برخی از پیش بینی کننده های شناخته شده
103616
در یادگیری ماشینی مدل های مختلفی وجود دارد. من سعی کردم چند مدل احتمالی یادگیری ماشین را یاد بگیرم. من تئوری را خواندم، روی مسائل کار کردم و نتایجم را آزمایش کردم و می‌توانم داده‌هایم را بر اساس نیاز مانند طبقه‌بندی و غیره تجزیه و تحلیل کنم. و رفتن به یادگیری (CRF,MEM). داشتم به این فکر می کردم که آیا مجموعه ای از سؤالات وجود دارد که بتوانم پس از یادگیری یک مدل به آنها پاسخ دهم، پس از پاسخ دادن به چه کسی می توانم بگویم که یک مدل می شناسم؟ آیا مجموعه ای از پرسشنامه در وب یا هر کتاب درسی (ترجیحا با پاسخ) موجود است؟ اگر یکی از اعضای محترم گروه ممکن است به من اطلاع دهد؟ با احترام، Subhabrata Banerjee.
برای یادگیری یک مدل چه چیزی لازم است؟
77121
من در ابتدا به دلیل عدم شفافیت در مورد این سوال عذرخواهی می کنم. من این را از طرف خواهر و برادرم که در رشته علوم زیستی پزشکی است مطرح می کنم. یک مداخله روی یک بیمار انجام داده اند. آنها با مشاهده نمرات آزمون (6 سوال) و تکرار این آزمون در طول چهار هفته، تأثیر مداخله را اندازه گیری می کنند. داده ها مانند این به نظر می رسد هفته 1: 4/6 هفته 2: 5/6 هفته 3: 5/6 هفته 4: 6/6 خواهر و برادر من می خواهد ببیند که آیا افزایش در نمرات آزمون قابل توجه است یا خیر. من واقعاً نمی دانستم چگونه در این مورد پیش بروم. هر گونه کمکی بسیار قدردانی خواهد شد
سوال اساسی در مورد n از 1 مطالعه. مداخله چهار هفته ای
4356
من می‌دانم که تابع «rpart» R داده‌هایی را که برای پیاده‌سازی تقسیم چند متغیره نیاز دارد نگه می‌دارد، اما نمی‌دانم که آیا واقعاً تقسیم‌های چند متغیره را انجام می‌دهد یا خیر. من سعی کردم آن را به صورت آنلاین با نگاهی به اسناد «rpart» تحقیق کنم، اما هیچ اطلاعاتی مبنی بر اینکه بتواند این کار را انجام دهد یا در حال انجام آن است، نمی بینم. کسی با اطمینان میدونه؟
آیا rpart به طور پیش فرض از تقسیم های چند متغیره استفاده می کند؟
76838
داده‌های من $(Y,X)_i,i=1...N$ است و می‌خواهم مدل رگرسیونی را برای ارتباط $Y$ و $X$ تنظیم کنم. مشخص است که $X$ و $Y$ اندازه گیری اشتباه متغیر واقعی $(U,V)$ هستند، اما خطاهای استاندارد $(\sigma_X،\sigma_Y)_i، i=1...N$ شناخته شده است. من من همچنین می دانم که خطای استاندارد با مقدار واقعی (و در نتیجه مقدار مشاهده شده) همبستگی دارد. یعنی $cov(\sigma_X,U)\neq 0$ حالا، اگر بخواهم روی پارامترهای مدل استنتاج کنم، می‌دانم که باید از مدل‌های خطای اندازه‌گیری (Deming، Ripley's MLFR و غیره) استفاده کنم، اما اگر فقط نقطه بخواهم. پیش بینی، من فقط می توانم ساده لوحانه از OLS استفاده کنم. (فولر (1987)، ص 74) سوال من این است که اگر بخواهم یک بازه پیش بینی به دست بیاورم چطور؟ من نباید از فاصله پیش بینی ساده OLS استفاده کنم زیرا خطای اندازه گیری وجود دارد. پس باید چیکار کنم؟ اگر پاسخ در دسترس نباشد، از اشاره به مرجع نیز سپاسگزار خواهم بود. پیشاپیش ممنون
فاصله پیش بینی با خطای اندازه گیری
110970
من در آنجا به نمونه نمودارهای bishop's PRML (8.2.1) 1\ رسیدم. **a <\- c -> b** $$ p(a,b,c) = p(a|c)p(b|c)p(c) --(1)\\\ p(a ,b) = \sum_c p(a|c)p(b|c)p(c) --(2) $$ **Q1**: آیا می توانم از یک نمودار جدید برای نشان دادن p(a,b) استفاده کنم. در فرمول (2) 2. **a->c->b** $$ p(a,b,c) = p(a)p(c|a)p(b|c)--(3)\\\ p( a,b) = p(a)\sum_c{p(c|a)p(b|c)} = p(a)p(b|a) --(4) $$ **Q2** : $$\sum_c{p(c|a)p(b|c)} = \sum_c{p(b,c|a)} ? چرا $$
فرمول بیزی چند متغیره
108274
آیا این معادله: $$\log{(y)} = a + bx$$ semi-log یا log-linear mode (یا همان چیزی است)؟ من دو مدل دارم: خطی (1) و نیمه لگ (2). مقادیر $R^{2}$، تنظیم شده $R^{2}$، و خطای استاندارد عبارتند از: * خطی: $R^{2} = 0.6780،~\mathrm{adj.}~R^{2} = 0.6513،~~\mathrm{SE}=94.101$ * Semi-log: $R^{2} = 0.5803,~\mathrm{adj.}~R^{2} = 0.5455,~~\mathrm{SE}=0.5493$ چگونه این مقادیر را مخصوصاً از مدل دوم تفسیر کنیم؟
مدل رگرسیون خطی و نیمه لگ
77124
من یک جدول تعامل با گونه های گیاهان (ستون) و تعداد دفعاتی که هر گیاه در هر محیط (ردیف) زندگی می کند، دارم. من می خواهم بدانم که آیا ارجح متفاوتی برای گونه های گیاهی برای زندگی در محیط های مختلف وجود دارد یا خیر. حدس می‌زنم باید یک تست مجذور کای اجرا کنم. من به کمک نیاز دارم تا بتوانم نتیجه را درک کنم. بزرگترین آنها باقیمانده است، بزرگترین آنها ترجیح یک گونه گیاهی به محیط خود است. آیا درست است؟ p.value نسبت دفعاتی را نشان می‌دهد که اگر همه گونه‌ها «ترجیح» محیط را نداشته باشند، چنین الگوی افراطی را می‌یابیم. آیا درست است؟ اگر بخواهم چنین p.value برای هر گونه گیاهی داشته باشم چه می شود. آیا باید برای هر گونه گیاهی به طور مستقل آزمایش کای دو انجام دهم؟ یا نوعی آزمون پس از آزمون کای دو وجود دارد؟
معنی خروجی آزمون Chi-squared
43949
من از تابع 'lmp' از بسته lmPerm برای محاسبه تفاوت بین سطوح درمان (2-ANOVA) استفاده کرده ام. اکنون، من در تعجب هستم که چگونه می توان نتایج lmp را در یک انتشار علمی گزارش کرد؟ من قصد دارم یک مجله بیولوژیکی یا ژئوشیمیایی داشته باشم، اما قبلاً از سبک APA در گزارش آمار استفاده می کردم. من مطمئن نیستم که آیا این راه مطلوب است یا خیر، اما حداقل قوانین آنها به خوبی تعریف شده به نظر می رسد.
چگونه نتایج ANOVA جایگشت را در یک نشریه علمی گزارش کنیم؟
91521
3 متغیر تصادفی $A,B,C$ را فرض کنید. اگر $A \perp B$، اما $Cov(B,C) \neq 0$ باشد، آیا می‌توانیم چیزی در مورد $Cov(A,C)$ بگوییم؟ من فکر می کنم می تواند 0 باشد یا 0 نباشد، اما به نظر می رسد که باید نتایج کلی تر از این باشد.
آیا A مستقل از B و B با C همبستگی نشان می دهد که C مستقل از A است؟
82512
زمینه و هدف: من یک زیست شناس تکاملی هستم که به این موضوع علاقه مندم که چگونه تنوع مورفولوژیکی در یک جمعیت از افراد به تنوع در توانایی رقابتی آنها کمک می کند. برای رسیدن به این موضوع در قورباغه هایی که روی آنها کار می کنم، می خواهم یک «شاخص مورفولوژیکی» ایجاد کنم که چهار ویژگی مختلف را که تصور می شود در توانایی رقابتی دخیل هستند، در خود جای دهد. با توجه به اینکه دو تا از صفات صفات پیوسته و دو صفت ترتیبی هستند، من از PCA با استفاده از ماتریس همبستگی برای ایجاد این شاخص استفاده کردم. سپس می‌خواهم ببینم که چگونه این شاخص مورفولوژیکی بر معیارهای مختلف توانایی رقابتی با استفاده از رگرسیون چندگانه تأثیر می‌گذارد. مشکل: PC 1 بسته به جمعیتی که به آن نگاه می‌کنم، از نظر میزان تنوع توضیح می‌دهد. از 34% تا 64% متغیر است و احتمالاً میانگین آن حدود 45% است که کمتر از آنچه من می خواهم است. حداقل، به نظر می رسد که PC 2 کمی از تغییرات را توضیح می دهد. من با آمار نسبتاً تازه کار هستم، بنابراین می‌پرسم آیا راه ساده‌ای برای ترکیب PC 1 و PC 2 در یک شاخص مورفولوژیکی واحد وجود دارد؟ من در حال حاضر به دلیل ناآگاهی خود از آماری که احتمالاً در این پست وجود دارد عذرخواهی می کنم. من خوشحالم که جزئیات مهمی را که احتمالاً از قلم انداخته ام ارائه می کنم. با تشکر از کمک شما!
ترکیب چند مؤلفه اصلی؟
91529
من داده های هفتگی چهار سال گذشته را دارم. من از SPSS برای پیش بینی استفاده می کنم. من یک مقدار ثابت در دوره پیش بینی دریافت می کنم. دلیل پشت آن چه می تواند باشد؟ آیا به دلیل تعیین تاریخ های هفتگی است؟ من قادر به تشخیص آن نیستم. من تاریخ های هفته را با استفاده از کد زیر تعریف کرده ام: DATE ​​WEEK 1 52 ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/2Wqhy.jpg) پیشاپیش متشکرم.
پیش بینی های ثابت در SPSS
79349
من مدل رگرسیون لجستیک خود را اجرا کردم تا بفهمم آیا جنسیت نام آزمایشی پیش بینی کننده جنسیت کلمه اختصاص داده شده به نام آزمون است یا خیر. q2.glm=glm(item.gender ~ test.gender, data=q2data, family=binomial) summary(q2.glm) R ضرایب زیر را برگردانده است: Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) 0.05365 0.12384 0.433 0.66484 test.gender 0.48794 0.17836 2.736 0.00623 ** من مقدار P را برای test.gender می دانم که nunder gender می تواند آزمایش را دوباره انجام دهد. هیچ تاثیری روی جنسیت کلمه ای که به آن اختصاص داده شده است، اما من نمی دانم چگونه مقادیر دیگر را تفسیر کنم. لطفاً کسی می تواند توضیح دهد که سایر مقادیر به چه معنا هستند؟ مقوله رهگیری به چه معناست؟ با تشکر فراوان - من به زودی یک پروژه بزرگ دارم و در تلاش برای درک آن هستم!
چگونه این خروجی رگرسیون لجستیک دو جمله ای را در R تفسیر کنیم
77125
در `R`، چندین بسته وجود دارد که آلفای کرونباخ را محاسبه می کند. اگر داده ها حاوی مقادیر گم نشده باشند، همه بسته ها به یک مقدار همگرا می شوند. با وجود داده های از دست رفته، حذف لیست راه ممکن است (تنها گزینه در SPSS یا بسته های «MBESS» و «psy» btw). با این حال، حذف فهرستی ممکن است منجر به حذف بسیاری از داده‌ها شود و بنابراین چیزی مانند حذف دوتایی ممکن است در برخی شرایط جذاب‌تر به نظر برسد (مثلاً داده‌ها MCAR هستند). برخی از این بسته‌ها چیزی شبیه به «na.rm=T» دارند، اما نتایج متفاوت می‌شوند، و هرچه مجموعه داده‌ای حاوی کمبود بیشتری باشد، نتایج متفاوت‌تر می‌شوند. دلیل این امر محاسبه ماتریس واریانس کوواریانس $S$ است. به عنوان مثال، بسته ضریب آلفا از یک ماتریس قوی $S$ استفاده می کند که به طور طبیعی منجر به نتایج متفاوت می شود. با این حال، بسته‌های دیگر از ماتریس‌های _pairwise_ $S$ استفاده می‌کنند و همچنان نتایج متفاوت هستند. بیایید یک مثال خاص بزنیم. فرمول آلفا $$\alpha = \frac{p}{p-1}(1-\frac{\sum_{i=1}^p \sigma_{y_i}^2}{\sigma_x^2}) است. $$ با تعداد آیتم‌های $p$، واریانس $i$th مورد $\sigma_{y_i}^2$ و واریانس نمره کل $\sigma_x^2$. برای کل واریانس مخرج، بسته «ltm» از چیزی شبیه «var(rowSums(dat, na.rm=T))» استفاده می‌کند، در حالی که بسته «psych» از چیزی مانند «sum(cov(dat، use = است. جفتی))`. این دو تخمین برای داده های کامل یکسان هستند، اما با داده های از دست رفته متفاوت هستند. (به نظر می رسد بسته «epicalc» از روش سومی برای محاسبه واریانس (ها) استفاده می کند، اما من هنوز به کد آنها تسلط پیدا نکرده ام.) ** دلیل محاسبات مختلف $\sigma_x^2$ چیست و چه زمانی باید از آن استفاده کنم. کدام یک؟ ** > نیاز (MASS، psych، ltm) > n <- 200 > it <- 10 > V <- matrix(.4، ncol=it, nrow=it) > diag(V) <- 1 > dat <- mvrnorm(n, rep(0,it), V) # data کامل > m1 <- ماتریس(rbinom(n*it,1, .1)، nrow=n، ncol=it) # 10% از دست رفته > dat[m1==1] <- NA # داده از دست رفته > alpha(as.data.frame(dat), na.rm=T)$total[[1]] # psych package [1] 0.8595489 > cronbach.alpha(dat, na.rm=T)$alpha # بسته ltm [ 1] 0.8105867
آلفای کرونباخ با داده های از دست رفته
93592
من در حال برنامه ریزی برای ازدواجم هستم. من می خواهم تخمین بزنم که چند نفر به عروسی من خواهند آمد. من لیستی از افراد و شانس حضور آنها در درصد ایجاد کرده ام. به عنوان مثال پدر 100% مامان 100% باب 50% مارک 10% جیکوب 25% جوزف 30% من لیستی از حدود 230 نفر با درصد دارم. چگونه می توانم تخمین بزنم که چند نفر در عروسی من شرکت خواهند کرد؟ آیا می توانم به سادگی درصدها را جمع کرده و بر 100 تقسیم کنم؟ مثلاً اگر 10 نفر را دعوت کنم که هر کدام 10 درصد شانس بیایند، می توانم انتظار 1 نفر را داشته باشم؟ اگر من 20 نفر را با احتمال 50 درصد دعوت کنم، آیا می توانم انتظار 10 نفر را داشته باشم؟
به من کمک کنید محاسبه کنم چند نفر به عروسی من خواهند آمد! آیا می توانم درصدی را به هر فرد نسبت دهم و آنها را اضافه کنم؟
103612
من استدلال می کنم که می توانم خطا در مقابل پوشش را با تغییر یک پارامتر خاص کنترل کنم. پس از اجرای آزمایشی با اعتبار سنجی ترک-خیلی-خارج، مجموعه ای از خطاها به همراه مقدار پارامتر برای هر خطا دارم. من می خواهم تجسم کنم که چگونه می توانم با اعمال محدودیت هایی روی پارامترم، پوشش را با دقت معامله کنم. اگر پارامتری برای اصلاح نداشتم، می توانستم از منحنی مشخصه خطای رگرسیون استفاده کنم. این منحنی ها تحمل خطا را در محور $x$ در مقابل کسری از نقاط تست در آن تلورانس در محور $y$ ترسیم می کنند. رسم چندین منحنی REC با استفاده از مقادیر مختلف پارامتر من منجر به نموداری با خطوط متقاطع زیاد می شود که تفسیر آن دشوار است. من همچنین چند کار روی سطوح ROC پیدا کرده ام اما نمی دانم چقدر گسترده است. در حال حاضر من از پراکندگی میانگین خطا در مقابل نقاط آزمایشی استفاده می‌کنم که با نقاط رنگ‌شده با مقدار پارامتر حفظ می‌شوند: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/OUQCp.png) واضح است برای من در شکل من چه می گذرد (به عنوان مثال، می توانم پارامتر را روی 10^2 تنظیم کنم و با میانگین خطای 200 پوشش 80٪ را دریافت کنم). با این حال، هنوز احساس می‌کنم که با مشکل بسیار رایجی مواجه شده‌ام که راه‌حل‌های استانداردی دارد. آیا تکنیک تجسم دیگری وجود دارد که باید به دنبال آن باشم؟
نحوه تجسم اثر پارامتر رگرسیون
43943
من از SVM برای طبقه بندی استفاده می کنم و سعی می کنم پارامترهای بهینه را برای هسته های خطی و RBF تعیین کنم. برای هسته خطی من از انتخاب پارامتر متقاطع برای تعیین C و برای هسته RBF از جستجوی شبکه برای تعیین C و گاما استفاده می کنم. من 20 ویژگی (عددی) و 70 نمونه آموزشی دارم که باید در 7 کلاس طبقه بندی شوند. سوال من این است که از کدام محدوده جستجو برای تعیین مقادیر بهینه برای پارامترهای C و گاما استفاده کنم.
کدام محدوده جستجو برای تعیین پارامترهای بهینه SVM؟
76837
من در تلاش برای یافتن بهترین روش برای تعیین منبع یک تعامل قابل توجه MANCOVA هستم. من 17 ویژگی دارم که برای چهار مکان اندازه گیری شده است. آیا جایگزینی برای ANCOVAهای تک متغیره وجود دارد که هر صفت را به طور مستقل بررسی می کند؟ اینها اندازه گیری های بدن هستند که مستقل از یکدیگر نیستند، بنابراین خوب است که همه صفات را یکجا بررسی کنیم.
روش شناسی برای یافتن منبع تعامل MANCOVA
93596
![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/DXzxU.png) من مطلقاً هیچ اطلاعی از آمار ندارم. سوال من این است که چگونه می توان برخی از نتایج ارزیابی را که دریافت کردم، معنا کرد. نمودار پیوست نتایج من از یک سوال لیکرت را در مقایسه با بخش، بخش و کالج من نشان می دهد. سوال من این است که چگونه باید این نتایج را تفسیر کنم؟ در حالی که من دانش‌آموزان بیشتری دارم که «کاملاً موافق» با این سؤال هستند، تعداد کمتری دارم که صرفاً «موافق» هستند. چه تفسیرهایی از عملکرد من در اینجا مجاز است؟ آیا عملکرد بهتری دارم؟ به طور مشابه؟ آیا روشی تجربی معتبر برای اظهارنظر در مورد این داده ها وجود دارد؟ دوازده نمودار دیگر از این قبیل وجود دارد و من باید خلاصه ای از یافته ها را بنویسم. اما برای من سخت است که بدانم بر اساس داده ها چه نوع ادعاهایی می توانم داشته باشم.
نحوه ارزش گذاری نتایج مقایسه ای لیکرت
43942
مشکل فیلتر مشترک را در نظر بگیرید. ما ماتریس $M$ با اندازه #کاربران * #اقلام داریم. $M_{i,j} = 1$ اگر کاربر مورد j را دوست داشته باشد، $M_{i,j} = 0$ اگر کاربر مورد j را دوست ندارد و $M_{i,j}=?$ اگر اطلاعاتی در مورد آن وجود ندارد (i,j) جفت. می‌خواهیم $M_{i,j}$ را برای جفت‌های آیتم کاربر آینده پیش‌بینی کنیم. روش استاندارد فیلتر مشترک این است که M را به‌عنوان حاصلضرب دو ماتریس $U \بار V$ نشان دهیم، به‌طوری‌که $||M - U \times V||_2$ حداقل باشد (مثلاً به حداقل رساندن میانگین مربعات خطا برای عناصر شناخته‌شده $M$) . به نظر من تابع ضرر لجستیک مناسب تر است، چرا همه الگوریتم ها از MSE استفاده می کنند؟
فیلتر مشارکتی از طریق فاکتورسازی ماتریس با تابع ضرر لجستیک
103613
من سؤالی بسیار مشابه با این موضوع مطرح می‌کنم، اگرچه احساس می‌کنم توصیه‌های ارائه شده در مورد موقعیت خاص من صدق نمی‌کند. من از مدل‌های رگرسیون لجستیک برای مطالعه اشغال زیستگاه حیوانات استفاده می‌کنم، و همه متغیرهای پیش‌بینی‌کننده که به آنها علاقه‌مندم حاوی بیش از 50% صفر هستند (اگرچه آنها محدوده مناسبی از مقادیر در صدک‌های بالاتر دارند). آیا این می تواند باعث سوگیری شود یا بر نحوه تفسیر ضرایب تخمینی تأثیر بگذارد؟ تجزیه و تحلیل 2 مرحله ای، همانطور که در سوال مرتبط پیشنهاد شد، منطقی به نظر نمی رسد زیرا همه پیش بینی کننده ها این توزیع با تورم صفر را به اشتراک می گذارند. با تشکر از هرگونه بینش **ویرایش توضیحات پیشنهادی توسط پیتر فلوم؛** حجم نمونه ~ 500 (300 0، 200 1) 5 IV وجود دارد. یک خلاصه پنج عددی معمولی به این صورت است. حداقل = 0.000 پایین = 0.000 میانه = 0.000 بالا = 0.289 max = 16.887 همچنین، میانگین = 0.468، SD = 1.467 همبستگی بین 5 IV همه مطلق r < 0.3 IV ها هکتار از انواع زیستگاه های خاص هستند. هر نمونه دارای بیش از 0 هکتار (ها) برای حداقل 1 IV است. نمونه اجرای مدل در R; تماس: glm (فرمول = استفاده ~ x.1 + x.2 + x.3 + x.4، خانواده = دوجمله ای، داده = mydata) باقیمانده انحراف: حداقل 1Q میانه 3Q Max -2.2338 -0.9312 -0.8679 1.3231 1.6432 ضرایب برآورد Std. خطای z مقدار Pr(>|z|) (برق) -0.78412 0.12814 -6.119 9.41e-10 *** x.1 0.19866 0.06366 3.121 0.00181 ** x.2 0.06956 0.06956 0.2 ** x.3 0.05238 0.02265 2.313 0.02074 * x.4 -0.09995 0.13814 -0.724 0.46935 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف صفر: 634.10 در 473 درجه آزادی انحراف باقیمانده: 611.18 469 درجه آزادی AIC: 621.18 تعداد تکرارهای امتیازدهی فیشر: 4
متغیرهای کمکی پیوسته با تورم صفر، آیا می توانند در رگرسیون لجستیک مشکل ایجاد کنند؟
74478
من قصد دارم طرح فاکتوریل زیر را پیاده سازی کنم که می خواهم این ساختار مستعار را به دست بیاورم - با طرح فاکتوریل 2^(5-2). I+ACE+BDE+ABCD A+CE+ABDE+BCD B+ABCE+DE+ACD C+AE+BCDE+ABD D+ACDE+BE+ABC E+AC+BD+ABCDE AB+BCE+ADE+CD AD +CDE+ABE+BC من این (ساختار نام مستعار) را با دست و با استفاده از مولدهای طراحی I=ACE و I=BDE به دست آوردم. من ساختار نام مستعار خود را کنترل کردم و تأیید کردم که درست است. اما با استفاده از Stat->DOE->Create factorial design->طراحی 2 سطحی (ژنراتورها را مشخص کنید) و با استفاده از 5 عامل و متعاقباً با استفاده از ژنراتورهای پیش فرض: ACE, BDE خطای Block are aliased with the mean را می دهد. چرا این کار نمی کند؟
خطا در اجرای طرح فاکتوریل خاص در Minitab (ژنراتورهای پیش فرض)
45223
من از بسته GBM برای ایجاد یک مدل پیش بینی استفاده می کنم. آیا GBM می‌تواند پیش‌بینی‌کننده‌های طبقه‌بندی را مدیریت کند یا باید قبل از وارد کردن، یک ماتریس مدل ایجاد کنم؟
مدل ماتریس و GBM
74470
من تجزیه و تحلیل همبستگی متعارف را بین دو مجموعه داده چند متغیره $X$ و $Y$ انجام می دهم. برای هر جفت متغیر متعارف (جفت x-y) ضریب همبستگی متعارف را دریافت می کنم. چگونه می توانم اهمیت آماری آن را آزمایش کنم؟
اهمیت آماری در تحلیل همبستگی متعارف
48616
اگر نسبت شانس بزرگتر از یک با مقدار p ناچیز برای یک متغیر در رگرسیون لجستیک باشد آیا متغیر باید در مدل حفظ شود؟ آیا می توانم متغیری را با شانس نزدیک به 1 انتخاب کنم؟ سوال 2: در مجموعه داده های اعتبار سنجی و آزمایش، نحوه مدیریت آن یکسان نیست؟
رگرسیون لجستیک و نسبت شانس
44382
آیا کسی می تواند در توضیح برخی از ریاضیات پشت طبقه بندی در CART کمک کند؟ من به دنبال درک این هستم که چگونه دو مرحله اصلی اتفاق می افتد. به عنوان مثال، من یک طبقه‌بندی کننده CART را روی یک مجموعه داده آموزش دادم و از یک مجموعه داده آزمایشی برای علامت‌گذاری عملکرد پیش‌بینی آن استفاده کردم، اما: 1. ریشه اولیه درخت چگونه انتخاب می‌شود؟ 2. چرا و چگونه هر شاخه تشکیل می شود؟ مجموعه داده من که 400 هزار رکورد با 15 ستون و 23 کلاس است، از یک ماتریس سردرگمی به دقت 100 درصدی دست می یابد، من از اعتبارسنجی متقاطع 10 برابری روی مجموعه داده استفاده می کنم. اگر کسی بتواند در توضیح مراحل طبقه بندی CART کمک کند واقعاً خوشحال خواهم شد؟
ریاضیات پشت درختان طبقه بندی و رگرسیون
43944
من دو مجموعه داده تجربی برای واپاشی های نمایی ایزوتوپ ها دارم و نسبت دو ایزوتوپ را به عنوان تابعی از زمان محاسبه کردم. مدل نظری و برازش داده‌های تجربی به ترتیب عبارتند از: $1.04\text{e}^{-0.000856008t}$1.03154\text{e}^{-0.000457549t}$ دو منحنی نزدیک به یکدیگر هستند (I' من فقط علاقه مند به مقایسه محدوده x [0-110] هستم) اما آیا راهی برای این کار وجود دارد خطای بین دو منحنی (مثل انحراف معیار) را محاسبه کنید؟ من باید تعیین کنم که آیا داده ها به طور معمول توزیع شده اند یا خیر، بنابراین فکر کردم دریافت انحراف معیار از تئوری/تناسب راه درستی است... آیا نظری دارید؟
تفاوت بین مدل نظری و برازش
74475
در یک نمونه تصادفی متشکل از 150 دانشجوی دانشگاهی، میانگین تعداد ساعات مطالعه در هفته 11.7 ساعت و انحراف معیار 4 ساعت است. بدون فرض چیزی در مورد توزیع تعداد ساعات مطالعه دانشجویان دانشگاه در هفته، حداقل چند درصد (تقریبا) از دانشجویان بین 5.3 تا 18.1 ساعت در هفته مطالعه می کنند؟
فراتر از توزیع نرمال: اگر توزیع خاصی را نتوان فرض کرد چه می شود
48613
من سعی می کنم با استفاده از مدل رگرسیون لجستیک یک تحلیل بقای زمانی گسسته انجام دهم و مطمئن نیستم که این فرآیند را کاملاً درک کرده باشم. از کمک با چند سوال اساسی بسیار سپاسگزارم. در اینجا تنظیم است: من به عضویت در یک گروه در یک پنجره زمانی پنج ساله نگاه می کنم. هر یک از اعضا به ازای هر ماهی که آن عضو در گروه است، سابقه عضویت ماهانه دارد. من همه اعضایی را که عضویت آنها در طول پنج سال آغاز شده است در نظر می‌گیرم (برای جلوگیری از مسائل مربوط به سانسور چپ با اعضایی که قبلاً به آن پیوسته‌اند). هر رکورد بر حسب زمان ایندکس می‌شود و زمان یک، ماهی است که عضو به آن ملحق شده است. بنابراین عضوی که دو سال و نیم بماند سی رکورد ماهانه به شماره یک تا سی خواهد داشت. همچنین به هر رکورد یک متغیر باینری داده می شود که مقدار آن برای آخرین ماه عضویت یک و در غیر این صورت صفر خواهد بود. مقدار یک برای متغیر باینری، رویدادی را نشان می دهد که عضو گروه را ترک کرده است. برای هر عضوی که عضویت او فراتر از پنجره تجزیه و تحلیل پنج ساله ادامه دارد، همه مقادیر متغیر باینری صفر خواهند بود (اینها افراد سانسور شده در تحلیل بقا هستند). بنابراین، مدل رگرسیون لجستیک برای پیش‌بینی مقادیر متغیر رویداد باینری ساخته شده است. تا اینجای کار خیلی خوبه. یکی از روش‌های معمول برای ارزیابی یک مدل پیش‌بینی باینری، اندازه‌گیری لیفت روی یک نمونه نگهدارنده است. برای مدل رگرسیون لجستیکی که برای پیش‌بینی رویداد پایان عضویت ساخته‌ام، افزایش را بر روی یک مجموعه داده نگهدارنده با نسبت پنج به یک غیر رویدادها به رویدادها محاسبه کرده‌ام. من مقادیر پیش بینی شده را به دهک رتبه بندی کردم. دهک با بالاترین مقادیر پیش‌بینی‌شده شامل هفتاد درصد یک است، افزایشی بیش از چهار. دو دهک اول مجموعاً شامل شصت و پنج درصد از کل دهک‌های موجود در صندوق هستند. در زمینه‌های خاص، این یک مدل پیش‌بینی نسبتا مناسب در نظر گرفته می‌شود، اما نمی‌دانم که آیا برای انجام یک تحلیل بقا به اندازه کافی خوب است یا خیر. فرض کنید $h[j,k]$ تابع خطر برای $j$ فردی در ماه $k$ باشد و اجازه دهید $S[j,k]$ احتمال زنده ماندن $j$ فرد در طول ماه $k$ باشد. در اینجا سؤالات اساسی من وجود دارد: 1. آیا تابع خطر گسسته، $h[j,k]$، احتمال شرطی عدم بقا (ترک گروه) در هر ماه است؟ 2. آیا مقادیر پیش بینی شده از مدل رگرسیون لجستیک برآورد تابع خطر است؟ (یعنی $h[j,k]$ برابر با مقدار پیش‌بینی‌شده مدل برای $j$ فردی در $k$ است، یا آیا برای به‌دست آوردن تخمین‌های تابع خطر باید کار بیشتری انجام شود؟) 3. آیا احتمال بقا تا ماه q برای $j$ فردی برابر با حاصلضرب یک منهای تابع خطر از ماه اول تا $q$ است، یعنی $S[j,q] = (1 - h[j,1]) \cdot (1 - h[j,2]) \cdot \ldots \cdot (1 - h[j,q])$؟ 4. آیا مقدار میانگین $S[j,k]$ برای همه افراد $j$ برای هر بار $k$ تخمین معقولی از احتمال میانگین بقای کل جمعیت است؟ 5. آیا نمودار میانگین احتمال بقای کل جمعیت براساس ماه باید شبیه نمودار ماهانه کاپلان-مایر باشد؟ اگر پاسخ هر یک از این سؤالات منفی است، من یک سوء تفاهم جدی دارم و واقعاً می توانم از کمک / توضیح استفاده کنم. همچنین، آیا قاعده‌ای وجود دارد که مدل پیش‌بینی دودویی چقدر باید خوب باشد تا نمایه بقای دقیقی تولید کند؟ با تشکر \-- TMK --
سوالات اساسی در مورد تجزیه و تحلیل بقای زمان گسسته
74472
من سعی می کنم تصویر بزرگ آزمون های آماری را درک کنم. این نحوه انتخاب آزمون آماری صحیح در شرایط مختلف است. من این جدول را پیدا کردم که انتخاب یک آزمون آماری بر اساس انواع متغیرهای وابسته و مستقل است. اما من آزمون نسبت درستنمایی را در این جدول پیدا نکردم، بنابراین تعجب می کنم که آزمون نسبت درستنمایی متعلق به کدام دسته از این جدول است یا جایگاه آزمون نسبت درستنمایی در تصویر بزرگ همه آزمون های آماری کجاست.
آزمون نسبت احتمال در تصویر بزرگ
103555
من در مورد اینکه کدام آزمایش روی داده هایم در SPSS اجرا شود مشکل دارم. من دو گروه دارم (شرط 1 و شرط 2) که آن هم متغیر مستقل من است (مقوله). از هر دو گروه خواسته شد نگرش برند خود (متغیر وابسته 1) و قصد خرید (متغیر وابسته 2) را در دو مقطع زمانی (قبل و بعد از مداخله) ارزیابی کنند. بنابراین من اقدامات را تنها در دو مقطع زمانی تکرار کرده ام. فرضیه: افزایش نگرش به برند و قصد خرید برای افراد گروه 1 (شرایط 1) بیشتر از گروه 2 (شرایط 2) است. من قبلاً یک آزمون t زوجی برای هر گروه انجام دادم تا تغییر در نگرش برند و قصد خرید را ببینم، اما اکنون می‌خواهم گروه‌ها را با هم مقایسه کنم و ببینم آیا تفاوت در میانگین‌ها قابل توجه است یا خیر. میشه بگید کدوم تست رو اجرا کنم؟
نحوه مقایسه میانگین اندازه گیری های مکرر بین گروه ها در SPSS
22255
من به دنبال مرجعی برای طبقه‌بندی Naive bayse هستم تا در کار خود قرار دهم. مطمئن نیستم چه چیزی را از دست داده ام، اما یک جستجوی محقق هیچ نتیجه معنی داری نداشت. هر ایده ای **به روز رسانی**: منظورم مرجعی بود که در کتابشناسی قرار دهم...
مرجع متعارف برای طبقه بندی کننده ساده بیز
74477
![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/tb2va.png) داشتم این مقاله مربوط به مدل های موضوعی را می خواندم. من کمی گیج هستم که چرا احتمال حاشیه ای قابل کنترل نیست و چگونه تبدیل مدل گرافیکی به مدل جدید واقعا کمک می کند. اولاً من نمی‌دانم که چگونه جفت شدن بین $\beta$ و $\theta$ باعث می‌شود که آن را غیرقابل تحمل کند. به یک مرجع اشاره می کند. اما من نمی توانم به مقاله دسترسی داشته باشم (Dickey 1983). بنابراین من نمی توانم درک کنم که چرا آن غیرقابل حل است. کسی میتونه لطفا اطلاعاتی به من بده؟
سردرگمی مربوط به غیرقابل حل بودن در مدل های موضوعی
82830
1. آیا می توان از LASSO برای انتخاب پیش بینی کننده در مدل GEE لجستیک (معادلات تخمین عمومی) برای داده های طولی استفاده کرد؟ 2. آیا پیاده سازی LASSO برای یک مدل GEE لجستیک برای داده های طولی در R یا MATLAB وجود دارد؟ با تشکر
کمند برای مدل GEE
85727
بهترین رویکرد برای تعیین تنوع در طبقات مختلف در یک نظرسنجی چیست؟ ساده‌ترین رویکرد بررسی تغییرپذیری بر روی یک متغیر پاسخ است، اما آیا روش‌هایی برای در نظر گرفتن پاسخ‌ها در تعدادی از متغیرها وجود دارد. هدف این است که بتوان اندازه نمونه را برای اقشار با تنوع بیشتر یا کمتر تنظیم کرد. همچنین تمام پاسخ ها طبقه بندی شده است.
ارزیابی تنوع لایه ها در نظرسنجی ها
85722
من سعی می کنم نوسانات طلا را با استفاده از مدل های GARCH مدل کنم و در اینجا پیش بینی ای است که به دست آوردم. ![نوسانات طلا](http://i.stack.imgur.com/ImrB8.jpg) نمودار به نظر می رسد نشان می دهد که نوسانات با گذشت زمان کاهش می یابد، اما من انتظار داشتم چیزی شبیه افزایش نوسانات را در طول زمان ببینم. کسی میتونه توضیح بده که چرا اینطوریه؟ لطفا به محور x توجه نکنید نمی دانم چگونه آن را تغییر دهم، به طور پیش فرض همینطور است، تاریخ واقعی 2009-2013 است.
چگونه پیش بینی نوسانات GARCH را تفسیر کنیم؟
76830
من در حال کار با یک مشکل طبقه بندی سه کلاسه بسیار ناهنجار هستم. درصد کلاس A = 1.8٪، B = 17.5٪ و C = 80.7٪ است. با توجه به این مقاله، تعریف زیر از AUC چند کلاسه به توزیع کلاس ها غیر حساس است و بنابراین، من از آن استفاده می کنم:![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/oqdEN.png) اکنون من ۱۰ طبقه‌بندی‌کننده مختلف را روی مجموعه داده آزمایش می‌کنم و تنها یکی از آنها $AUC_{total} > ۰.۵$ دارد. آیا در فرض اینکه $AUC_{total} = 0.5$ برای یک طبقه‌بندی تصادفی است، درست است؟ اگر بله، آیا 9 طبقه‌بندی‌کننده بدتر از یک طبقه‌بندی تصادفی هستند (در این داده‌ها) فقط به این دلیل که $AUC_{total}$ کمتری دارند؟ اگر دوباره بله، آیا می‌توانید دلایل احتمالی چنین عملکرد ضعیفی را پیشنهاد کنید و چه کاری می‌توان انجام داد. P.S.: حتی بهترین طبقه بندی کننده دارای $AUC_{total}$ حدود 0.6 است.
ناحیه زیر منحنی ROC برای چندین کلاس
85490
داشتم این مقاله رو میخوندم نویسندگان به طور مداوم در مورد پارامترهای ضعیف شناسایی شده یا پارامترهای با شناسایی قوی صحبت می کنند. به طور دقیق، وقتی می گویند یک پارامتر قوی یا ضعیف شناسایی شده است به چه معناست؟ پیشاپیش متشکرم
پارامترهای ضعیف یا قوی شناسایی شده؟
43940
فرض کنید ما یک مدل ترکیبی برای اندازه گیری های مکرر داریم که پاسخ آن $y$ و یک متغیر کمکی $x$ (مثلا سن) است. دو فاکتور طبقه بندی $a$ و $b$ وجود دارد. مثلاً 5 بیمار روانی ($a$) در 8 شرایط ($b$) اندازه گیری می شوند. من می‌خواهم بدانم چگونه می‌توانم تخمین‌های وقفه‌ها و شیب‌ها (و خطاهای استاندارد آنها) مدل جلوه‌های تصادفی را زمانی که: 1. $a$ ثابت، $b$ تصادفی 2. $b$ ثابت، $a$ تصادفی 3 بدست بیاورم. هر دو تصادفی کد مناسب چگونه باید باشد؟ علاوه بر این، می توانید چیزی در مورد معنای پیام خطای زیر به من بگویید؟ مشکل nlminb، کد خطای همگرایی = 1 پیام = به حد تکرار بدون همگرایی رسیده است (10)
استفاده از nlme برای مدل های ترکیبی اندازه گیری های مکرر با دو عامل طبقه بندی و یک متغیر کمکی
45243
من 30 متغیر ویژگی با پاسخ در مقیاس 1 تا 5 دارم (به عنوان مثال، بسیار مهم، بسیار مهم، مهم، نه چندان مهم، و غیره). تجزیه و تحلیل عاملی را در SPSS اجرا کردم و 6 عامل را استخراج کردم و مقادیر را با استفاده از روش رگرسیون ذخیره کردم. حالا می خواهم آنها را درک کنم. من می توانم خود 6 عامل را درک کنم، اما نمرات فردی را نه. * شهود پشت نمرات ذخیره شده برای هر پاسخ دهنده چیست؟ * بهترین راه برای نمایش بصری آنها چیست؟
چگونه نمرات عامل ذخیره شده را با استفاده از روش رگرسیون در SPSS تفسیر کنیم؟
85491
من روی یک رویکرد رگرسیون لجستیک کار می کنم تا وضعیت بالینی بیماران را پیش بینی کنم (بدون بیماری در مقابل بیماری). من قبلاً شواهد کاملاً قوی دارم که نشان می‌دهد تعداد ژن‌هایی که با یک نوع تنوع خاص ضربه می‌خورند در پیش‌بینی بیماری قابل توجه است. در میان ژن‌هایی که در نظر دارم، یکی از آنها (ژن A) ظاهراً نقش اصلی را بازی می‌کند: می‌خواهم بررسی کنم که آیا تأثیر ناشی از تعداد ژن‌های درگیر توسط ترکیب‌های «ژن A + دیگران» یا «هر چندگانه» هدایت می‌شود. ترکیب ژن. من مدلی با 3 متغیر ساختگی مستقل _geneA.alone_ (T اگر نمونه ای فقط در ژن A دارای تنوع باشد)، _geneA.plus.others_ (در صورتی که نمونه ای دارای تنوع در ژن A و سایر ژن ها باشد)، و _only. Others_ (T اگر نمونه ای در یک یا چند ژن دارای تنوع باشد، اما در ژن A وجود ندارد). من دو مقایسه مدل تودرتو با استفاده از تابع _anova()_ در R انجام دادم: anova(glm(Status~geneA.alone,...),glm(Status~geneA.alone+geneA.plus.others,...) test=Chisq) anova(glm(Status~geneA.alone+geneA.plus.others,...)، glm(Status~geneA.alone+geneA.plus.others+only.others,...),test=Chisq) در هر دو مورد، من شاهد بهبود تناسب مدل، با مقدار p قابل توجهی هستم (در سفارش e-5 / e-6). بنابراین، اولین نتیجه‌گیری من این بود که وقتی چندین ژن درگیر هستند، نه تنها ترکیب‌های geneA+دیگر(های) در تعیین بیماری مهم هستند، بلکه آنهایی هستند که ژن A را درگیر نمی‌کنند. با این حال، من واقعاً شک دارم که این راه درستی برای بررسی آن است: * آیا منطقی است که سه متغیر متقابلاً منحصر به فرد به عنوان پیش بینی کننده داشته باشیم؟ آیا می توان آنها را به عنوان متغیرهای مستقل در نظر گرفت؟ احساس من این است که مقادیر p معنی‌دار نتیجه طبیعی این واقعیت است که با استفاده از پیش‌بینی‌کننده‌های متقابلاً انحصاری، بخشی از اطلاعات را عمدا از یک متغیر کم می‌کنم و آن را به دیگری تغییر می‌دهم... اهمیت آن را افزایش می‌دهم. * آیا بهتر است فقط از متغیرهای _number.of.genes_ (عددی) و _geneA.involved_ (T/F) استفاده کنیم و مدل Status~n.of.genes+geneA.involved را با Status مقایسه کنیم. n.of.genes*geneA.involved`? فکر من، در این مورد، این است که اگر مدل دوم به طور قابل توجهی تناسب بهتری داشته باشد، ممکن است نشان دهد که _n.of.genes_ فقط در صورتی مهم است که geneA دخیل باشد... آیا منطقی است؟ هر گونه کمکی بسیار قدردانی خواهد شد! متشکرم
رگرسیون لجستیک با متغیرهای پیش بینی کننده متقابل
74479
من یک نمایش نمادین از سری های زمانی به دست آمده از جعبه ابزار SAX دارم. می‌خواستم بدانم که آیا می‌توان نموداری ساخت که در آن هر گره نمادی منحصر به فرد را نشان دهد و یال‌ها نشان‌دهنده گذار باشند، مشروط بر اینکه هیچ انتقالی به خودش وجود نداشته باشد. برای مثال، اجازه دهید سری زمانی T از n=20 نقطه داده به صورت «T=[1 1 2 1 2 1 3 1 1 1 2 2 3 3 3 1 1 2 3 3 1]» نمایش داده شود که در آن تعداد الفبای استفاده شده است. برای نماد = 3 و آنها (1،2،3) هستند. من نمادهای همزمان را با هم ترکیب کرده ام، بنابراین، سری زمانی فشرده T' = [1 2 1 2 1 3 1 2 3 1 2 3 1]' می شود تا بتوان یک نمودار (به ویژه نقشه شناختی فازی ) با عضویت فازی ساخت. مقادیر از T' جایی که گره ها (1،2،3) خواهند بود، یک یال از $Node_i$ تا $Node_j$ و وزن آن $W_{ji}$ خواهد بود. چگونه وزنه ها را پیدا کنم؟ من نمی دانم کدام نظریه را برای این نوع مشکل جستجو کنم و بنابراین آیا ایده ای وجود دارد که چه چیزی می تواند وزن ها را تشکیل دهد. متشکرم
مسئله در ساخت گراف
45248
فرض کنید شما دو الگوریتم نمونه گیری بایاس دارید و بایاس الگوریتم ها را نمی دانید. آیا می توانید الگوریتم ها را به نحوی ترکیب کنید و سوگیری را کاهش دهید؟ تا حدودی انگیزه من گسسته کردن معادلات دیفرانسیل تصادفی است. فرض کنید با استفاده از روش اویلر و روش میلشتاین نمونه برداری کرده اید. هر دو بایاس هستند، اما آیا می‌توانید الگوریتم‌ها را با هم ترکیب کنید تا نمونه‌ای با سوگیری کمتر به دست آورید؟ مثال دیگر: فرض کنید دو الگوریتم MCMC دارید که برای همگرا شدن به توزیع ثابت مشکل دارند، آیا می توانید الگوریتم های MCMC را ترکیب کنید و الگوریتم بهتری تولید کنید؟ انگیزه بیشتر: در یادگیری ماشینی، تقریباً همیشه با میانگین گرفتن پیش‌بینی‌ها با سوگیری‌های مختلف (در حالت ایده‌آل) پیشرفت بیشتری حاصل می‌شود. اکنون، این به این دلیل است که در ML اغلب هدف ما یک مقدار مورد انتظار است ($E[Y |X]$ یا $P(Y|X) = E[ 1_{Y} | X]$)، و میانگین ها تقریبی عالی هستند. به مقادیر مورد انتظار واضح است که میانگین گیری نمونه ها کار نمی کند، اما آیا یک رویکرد مشابه وجود دارد؟
با توجه به دو نمونه‌گیر با سوگیری، یک نمونه‌گر با سوگیری کمتر ایجاد کنید
45241
من با مشکل چگونگی ساخت فواصل اطمینان در برآوردگرهای spline جریمه شده در حضور همبستگی خودکار و ناهمسانی خوشه‌ای سروکار داشته‌ام. موضوع قبلی من در این مورد اینجاست: فواصل اطمینان spline جریمه شده بر اساس Cluster-sandwich VCV یکی از نظر دهندگان استفاده از بوت استرپ وحشی را پیشنهاد کرده است. این در حضور داده های خوشه ای کمی دشوار است، اما این مقاله توسط کامرون و همکاران. در UC Davis رویکرد نسبتاً ساده‌ای را پیشنهاد می‌کند که زمینه خوشه‌ای را در خود جای می‌دهد: http://ideas.repec.org/a/tpr/restat/v90y2008i3p414-427.html اساساً، بردار باقی‌مانده برای هر خوشه برابر است. شانس تنها ماندن یا ضرب شدن در -1. همین است. بدون نمونه گیری مجدد در بسیاری از تکرارها، ترکیب‌های مختلفی از بردارهای باقیمانده خوشه‌ای را دریافت می‌کنید، اما ترکیب‌های شما محدود به مجموعه بردارهای باقی‌مانده‌ای است که از قبل دارید، که به طور بالقوه در -1 ضرب می‌شوند. (من می دانم که چیزهای دیگری وجود دارد که می توانید بردار باقیمانده خود را در ویکی پدیا ضرب کنید: http://en.wikipedia.org/wiki/Bootstrapping_%28statistics%29#Wild_bootstrap) اساساً همه اینها خیلی ساده به نظر می رسد. آیا من مقداری از چین و چروک پیچیده را از دست داده ام؟ با توجه به اینکه من برآوردگرهای خودم را در R برنامه نویسی می کنم، باید بوت استرپ های خودم را نیز برنامه ریزی کنم. من می خواهم مطمئن شوم که درست قبل از اینکه بروم و کدنویسی کنم، رویه را دریافت کرده ام. پیشاپیش ممنون
بوت استرپ خوشه ای وحشی واقعا ساده به نظر می رسد. خیلی ساده آیا چیزی را از دست داده ام؟
99638
من می‌خواهم یک مدل ARIMA را با داده‌هایم تطبیق دهم، اما نمی‌دانم چگونه بهترین مدل ARIMA را با استفاده از دستور «proc ARIMA» انتخاب کنم. اول از همه می دانم که می خواهم داده های خود را با تبدیل ریشه مکعبی تبدیل کنم. سرقت اطلاعات_ریشه_مکعبی; مجموعه سرقت; robberiescubicroot=سرقت**(1/3); اجرا؛ اکنون همچنین می‌خواهم اولین تفاوت داده‌های تبدیل‌شده را بگیرم، بنابراین «var=robberiescubicroot(1)». در این مرحله من فقط می‌خواهم مدل‌های ARIMA را در جایی که p=0،...،4، و q=0،...،4 قرار دهند، قرار دهم. (به عنوان مثال، من می خواهم ARIMA(0,1,0),...,(0,1,4), (1,1,0),...,(1,1,4),(2) را متناسب کنم ,1,0),...,(2,1,4)....تمام راه تا (4,1,4).) و سپس بهترین مدل ARIMA را انتخاب کنید. با این حال، وقتی من از تخمین p=(0,1,2,3,4) q=(0,1,2,3,4) استفاده می‌کنم، به نظر می‌رسد که فقط با یک مدل ARIMA(4,1,4) مطابقت دارد. من proc arima data= robbery_cubic_root; شناسایی var=robberiescubicroot(1); برآورد p=(0,1,2,3,4) q=(0,1,2,3,4) نمودار; پیش بینی لید=5 شناسه=خروجی ماه=پیش بینی; اجرا؛
انتخاب مدل ARIMA در SAS
41092
**زمینه:** استاد من هفته گذشته چندین نسخه از دست نوشته های خود را به ما داد. به دلیل کیفیت پایین چاپگر، چندین کلمه در جزوه ها قابل تشخیص نیست. با این حال، متوجه شدم که می‌توانم با مطالعه دقیق متن، آنچه را که استاد روی جزوه‌ها نوشته است، « _ حدس بزنم». **سوال:** 1. چرا می‌توانیم کلمات مبهم روی جزوه‌ها را حدس بزنیم و تشخیص دهیم؟ 2. آیا مربوط به آمار است؟ 3. اگر متوجه شدیم که آمار در فرآیند شناسایی چگونه کار می کند، آیا می توانیم آن را در زمینه های دیگر اعمال کنیم؟ **ایده من:** _**فرض_**: * تعریف $0$ نشان دهنده درجه قابل تشخیصی است که ما اصلا نمی توانیم کلمات را تشخیص دهیم. * تعریف 100 دلار نشان دهنده درجه قابل تشخیصی است که ما می توانیم کلمات را به راحتی تشخیص دهیم. _**یک مثال ساده:_** من او را دوست داشتم. در این جمله، I، have، ki ed and her به راحتی قابل تشخیص است و آنها 100 هستند. _ _ نشان دهنده دو حرف است که ما نمی توانیم آنها را تشخیص دهیم و آنها 0. 1 هستند. اگر این جمله را در یک رمان عاشقانه بخوانیم، منطقی است حدس بزنیم که دو حرف مفقود ss هستند، یعنی من او را بوسیده ام. 2. اگر این جمله را در یک رمان پلیسی بخوانیم، منطقی است که دو حرف گم شده ll یعنی من او را کشته ام حدس بزنیم. **قضیه بیز:** $P(ll \mid D)$= احتمال یافتن کشتن در زمینه رمان پلیسی. $P(ll) را می توان به سادگی به عنوان نسبت کشتن در یک رمان پلیسی یا عاشقانه در نظر گرفت. $$P(ll \mid D)=\frac{P(D \mid ll)P(ll)}{P(D)}$$$$P(ss \mid D)=\frac{P(D \ mid ll)P(ll)}{P(D)}$$ در اینجا $P(D)$ یک ثابت است. $$P(ll \mid D) \propto P(D \mid ll)P(ll)$$ همین ! ساده و طبیعی است. _**رابطه بین پس زمینه و مثال چیست_** درجه قابل تشخیص کلمات مبهم از 0 تا 100 متغیر است. مثال، دو تا از حروف 0 و بقیه 100 هستند، یک حالت شدید است. **سوال من:** 1. آیا اشتباه یا مشکلی وجود دارد؟ 2. آیا کسی می تواند منابع مفیدی مانند مقالات، کتاب ها و غیره را برای کمک به من در ادامه این موضوع ارائه دهد؟ 3. فکر می‌کنم اثبات این نکته مهم است که انسان‌ها به طور طبیعی و خودکار می‌توانند $P(ll \mid D) \propto P(D \mid ll)P(ll)$ را در مغز خود پیدا کنند. چگونه می توانم از ابزارهای آمار برای اثبات آن استفاده کنم؟ آزمایش طراحی کنید؟ * * * _**پسوند_** : چرا می توانیم کلمات روی تصویر زیر را بخوانیم؟ چگونه مغز ما به طور خودکار ترتیب حروف را تصحیح می کند؟ من حدس می زنم بیز دوباره کمک می کند. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/MdT8Y.jpg) _**Extension2_**: برای بسیاری از دانش آموزان چینی، آنها هرگز چینی سنتی را یاد نگرفته اند. با این حال آنها می توانند روزنامه ای که توسط چینی های سنتی نوشته شده است را به راحتی بخوانند. وقتی از آنها خواسته می شود که یک نویسه سنتی چینی را تشخیص دهند، در بیشتر موارد شکست می خورند. چرا؟ **ممنونم!**
کاربرد قضیه بیز
73675
من یک سوال در مورد تفسیر مراکز خوشه نهایی دارم. من یک تحلیل خوشه ای بر اساس pca انجام دادم (متغیرها بر اساس مقیاس پنج نقطه ای لیکرت هستند). من نتیجه زیر را برای یک عامل دریافت کردم: cluster_1 cluster_2 cluster_3 cluster_4 cluster_5 0,31 0,39 -0,82 0,63 0,35 آیا این عامل برای توصیف خوشه 1، 2 و 5 نیز جالب است؟ یا فقط برای خوشه های 3 و 4 تاثیر آن را ذکر کنم؟ خیلی ممنون
تفسیر مراکز خوشه ای نهایی (تحلیل خوشه ای)
74026
فرض کنید ما جدولی از زمان پایان برای تعدادی مسابقه 100 متری داریم که در آن هر مسابقه دارای ترکیب متفاوتی از شرکت کنندگان است. ما گمان می کنیم که برخی از مسابقات به دلیل مثلاً باد مخالف، کندتر از سایر مسابقات هستند، اما این اندازه گیری نشد. چگونه می توانم زمان اساسی برای هر دونده و اصلاح برای هر مسابقه را پیدا کنم؟ من تکنیک خام خود را برای حل این مشکل ابداع کرده ام. من فرض می کنم Tobs(e,c) = Tund(e) + Tcor(c) + E(e,c) که در آن Tobs(e,c) = زمان مشاهده شده شرکت کننده e در رقابت c Tund(e) = زمان اساسی شرکت کننده e Tcor(c) = تصحیح زمان برای رقابت c E(e,c) = مجموع ماتریس خطای همه Tcor = 0 مجموع همه ردیف ها در E(e,c) = 0 مجموع تمام ستون ها در E(e,c) = 0 من به طور مکرر مقادیر Tcor را انتخاب می کنم تا زمانی که روابط بالا برآورده شود. آیا راه بهتری وجود دارد؟ با استفاده از R؟ لطفا ملایم باشید همانطور که ممکن است تا به حال حدس زده باشید، من چیز زیادی در مورد آمار یا ریاضیات ندارم. با تشکر
استنتاج یک مقدار اندازه گیری نشده
70200
من یک کلاس از توزیع‌ها دارم که فکر می‌کنم ممکن است برخی از داده‌های من را تولید کرده باشد، و می‌خواهم بهترین توزیع مناسب و پارامترهای مربوطه را پیدا کنم. اما داده هایی که من دارم نمونه هایی از یک توزیع نیستند، آنها یک PDF تجربی هستند.
برازش توزیع در PDF تجربی؟
44112
من آزمایشی را با استفاده از ویژگی طراحی فاکتوریل کسری در Minitab طراحی کردم. آیا می توان نتایج آزمایش را با استفاده از چیزی مانند رگرسیون خطی و انتخاب معکوس تجزیه و تحلیل کرد یا بهتر است از نرم افزاری استفاده کرد که آگاه باشد آزمایش یک آزمایش طرح فاکتوریل کسری است؟
تحلیل طرح فاکتوریل کسری
73674
فرض کنید یک کسب و کار در سطح کیفی سه سیگما فعالیت می کند. اگر میانگین نرخ بهبود سالانه پروژه ها 50 درصد باشد، چند سال طول می کشد تا به کیفیت شش سیگما دست یابیم؟
چند سال طول می کشد تا به کیفیت شش سیگما دست یابیم؟
71156
pdf به من داده شده است: $$f_{\theta}(x)=\frac{x}{\theta^2}e^{-\frac{x^2}{2\theta^2}}$$ و من می خواهم بدانم که آیا برآوردگر MLE $\theta$ بی طرف است یا خیر. تلاش: من می خواهم تابع را به حداکثر برسانم بنابراین لگاریتم طبیعی را می گیرم و سپس با توجه به $\theta$ به صورت زیر متمایز می کنم: $$\frac{d}{d\theta}ln(f_\theta (x))= \frac{-2}{\theta}+\frac{x^2}{\theta^3}$$ که برابر با صفر $\theta =x^2/4$ است. بنابراین $\hat{\theta}=\frac{x^2}{4}$ اکنون می‌خواهم $E[\hat{\theta}]$ را ارزیابی کنم که برای پیاده‌سازی آن مشکل دارم. آیا $$E[\hat{\theta}]=E[x^2/4]=\int_0^{\infty}\frac{x^2}{4}f_\theta (x^2/4) است dx$$ یا من تعریف $E[\hat{\theta}]$ را اشتباه متوجه شده ام؟ ویرایش: تمایز ثابت شد
سوال در مورد ارزش مورد انتظار یک برآوردگر
86314
من سعی می کنم یک مدل رگرسیون خطی ایجاد کنم. من داده هایم را به داده های آموزشی و آزمایشی تقسیم کردم و یک مدل ساختم. مقدار R-squared در داده های آموزشی 0.840 است. سپس مدل را روی داده های تست اجرا کردم. وقتی R-squared را محاسبه می کنم، 0.982 دریافت می کنم: y.پیش بینی شده <- predict(lm1, newdata=test) y.actual <- donation_test$yval errors <- (y.actual - y.predicted) 1 - sum(errors^ 2)/sum(y.actual^2) [1] 0.9823576 چه کار اشتباهی انجام می‌دهم؟ بعید به نظر می رسد که مدل من با داده های آزمایشی من بهتر از داده های آموزشی من مطابقت داشته باشد.
مقدار r-squared بالاتر در داده های آزمون نسبت به داده های آموزشی؟
44119
من داده های زیر را دارم X قهوه ای سیاه 1 زن 25 20 2 مرد 41 44 چگونه می توانم ببینم که تفاوت قابل توجهی در اولویت بین مردان و زنان با استفاده از R وجود دارد یا خیر
تفاوت قابل توجه در اولویت
45247
من داده هایی دارم که از یک آزمایش اقتصادی به دست آمده است. من سعی می کنم مدلی را با استفاده از تابع plm() (بسته plm) جا بزنم. من یک آموزش بسیار خوب را دنبال می کنم (Panel data econometrics in R: The plm package). تنها مشکل این است که تابع اجازه می دهد تا ساختار داده زیر را داشته باشد: افراد / زمان / x1...xp / y و من ساختار زیر را دارم: افراد / زمان 1 (جلسه) / زمان 2 (دور) / .... من تابع gls() (بسته nlme) را می خواندم، بنابراین شاید بتوانم ساختار همبستگی خودکار را بررسی کنم، آن را به مدل اضافه کنم و session و rounds را به عنوان متغیرهای ساختگی در نظر بگیرم. اما در مورد افراد چطور؟ آنها در هر جلسه یکسان هستند، اما بین جلسات تغییر می کنند. بنابراین افراد یک عامل تصادفی هستند، اینطور نیست؟ هر توصیه ای قدردانی خواهد شد
داده های پانل با دو عامل زمان
70207
این سوال پیروی از این سوال است - همبستگی با توزیع غیر نرمال. یک توضیح ANOVA در اینجا ارائه شد - همبستگی بین پوشش گیاهی و فرسایش \- که می تواند برای سوال من قابل استفاده باشد. علاوه بر این، من امیدوار بودم که کسی بتواند به من بگوید که آیا استفاده از ANOVA نسبت به آزمون کروسکال والیس مزیتی دارد یا خیر، و آیا می‌توان از ANOVA در این راه برای یافتن همبستگی بین یک متغیر طبقه‌ای و یک متغیر پیوسته با یک متغیر غیرمستمر استفاده کرد. توزیع نرمال
مزیت استفاده از ANOVA نسبت به تست کروسکال والیس
14204
همه، من یک رگرسیون لجستیک چندسطحی را با پیش‌بینی‌کننده‌های گروهی تخمین می‌زنم، اما درباره برخی از توصیه‌های گلمن و هیل (2007) در کتابشان نامشخص هستم. در آنجا، آنها توصیه می‌کنند که اجازه دهید هر ضریب احتمالاً تغییر کند، با توجه به N کافی بزرگ. آیا این شامل پیش‌بینی‌کننده‌های گروه نیز می‌شود؟ آنها واضح نبودند و شیب متغیر را فقط پیچیدگی دیگری می دانستند که می توانید در مدل جلوه های ترکیبی در lme4 همراه با پیش بینی کننده های گروهی بگنجانید (نگاه کنید به: ص 549 در کتاب آنها). برای مثال، من تقریباً 50000 مشاهده با پاسخ دودویی دارم (N بسیار بزرگ). پیش‌بینی‌کننده‌ها در دو سطح وجود دارند، به‌طوری‌که مدل من به نظر می‌رسد: M1 <- lmer(Y ~ X1 + X2 + X3 + X4 + G1 + G2 + G3 + G4 + (1 | گروه)، خانواده=دوجمله‌ای(لینک= logit))` X1:X4 پیش‌بینی‌کننده‌های سطح فردی هستند و G1:G4 پیش‌بینی‌کننده‌های سطح گروه هستند، بنابراین: یک مدل چند سطحی. آیا توصیه آنها برای تلقی همه ضرایب به‌عنوان متغیر بالقوه به معنای حتی پیش‌بینی‌کننده‌های گروهی در اثر تصادفی است، به این صورت که: M2 <- lmer(Y~ X1 + X2 + X3 + X4 + G1 + G2 + G3 + G4 + (1 + X1 + X2 + X3 + X4 + G1 + G2 + G3 + G4 |، خانواده = دوجمله ای (لینک = logit))` I M2 را اجرا کرد و تخمین های معقولی داد. AIC/BIC تناسب بسیار بهتری را نسبت به M1 نشان می دهد. من فقط مطمئن نیستم که مناسب باشد زیرا، بر خلاف پیش بینی کننده های سطح فردی، پیش بینی کننده های سطح گروه در یک گروه معین متفاوت نیستند. با این حال، بدیهی است که در گروه ها متفاوت است. علاوه بر این، اگر این روشی برای نزدیک شدن به آن نیست، چقدر باید مشکوک باشم اگر یکی از پیش‌بینی‌کننده‌های گروه مورد علاقه به‌عنوان یک اثر ثابت مستقل از نظر آماری بی‌اهمیت باشد (مدل رهگیری متغیر مانند M1)، اما به‌عنوان یک اثر ثابت معنادار باشد. اثر در یک مدل شیب متفاوت مانند M2؟ با تشکر از هر گونه ورودی و بازخورد در مورد این موضوع. من واقعا آن را قدردانی می کنم.
ضرایب گروه متغیر در lme4
70209
من داده های زیر را دارم: t mean 147 1.4 143 3 137.5 1.8 133 1.9 129.5 1.8 124.5 2.5 115.5 1.9 107 2.5 102.5 6.3 95958.5 1.9. 4.8 73 9.3 به نظر من، شیب زمانی که به صورت نمودار پراکنده ترسیم شود، بیشتر نمایی به نظر می رسد تا خطی. من از کد زیر در R استفاده کرده ام: خلاصه data<-read.csv(regression.csv) attach(data) plot(t,mean) data.lm<-lm(mean~t,data=data) (data.lm) data.exp<-lm(log(mean) ~ log(t) ,data=data) خلاصه (data.exp) AIC(data.lm، k=2) AIC(data.exp، k=2) data.exp، رگرسیون نمایی، دارای p-value بسیار کمتر و امتیاز AIC بسیار کمتر از data.lm، مدل خطی است: 6.869e-05 در مقابل 0.000194، و 11.4641 در مقابل 52.22926. اما (چگونه) می توانم نشان دهم که داده ها با یک خط نمایی بهتر از یک خط مستقیم مطابقت دارند؟ آیا استفاده از AIC در اینجا مشروع است؟ متاسفم که چنین سوال ساده ای می پرسم، اما من آنلاین گشتم و پاسخی پیدا نکردم. متشکرم
چگونه بین دو مدل خطی رقیب یکی را انتخاب کنیم؟
41094
به نظر می‌رسد از سال‌ها پیش، زمانی که برای اولین بار کتاب ANN بیشاپ را خواندم، به یاد دارم که می‌توان یک شبکه عصبی ساخت به گونه‌ای که خروجی‌ها نمایانگر احتمال پسینی باشند که اگر از رویکرد احتمال برای جدا کردن همان داده‌ها استفاده می‌کردم، آن را پیدا می‌کردم. آیا این درست است یا من این را در ذهن خود ساخته ام؟ اگر درست باشد چه شرایطی وجود دارد، به نظر می رسد به یاد داشته باشم که نباید حلقه و محدودیتی در تعداد لایه های پنهان داشته باشد. اگرچه به نظر می رسد نتیجه ای از کوموگروف را نیز به خاطر دارم که نشان می دهد اگر شبکه به خوبی آموزش داده شود، بسیاری از لایه های پنهان مفید نیستند. متأسفانه من دیگر نمی توانم کتاب را پیدا کنم و به نظر نمی رسد چیز زیادی در مورد این نتیجه پیدا کنم که باعث می شود نگران باشم که این من هستم. فکر می‌کنم احتمالاً باید سؤالم را کمی توضیح دهم همانطور که @bayerj به آن اشاره کرده است. با توجه به سه متغیر من مقداری داده دارم که می توانم پی دی اف بسازم. من از $$P(H_{k}|x) = \frac{P(x|H_{k})P(H_k)}{P({x})}$$ استفاده می‌کنم که در آن P(x) غیرشرطی است چگالی احتمال \begin{معادله} P(x) = \sum P(X|H_k)P(H_k) \end{equation} من سعی می‌کنم بررسی کنم که آیا آموزش شبکه با استفاده از داده هایی که من با آنها PDF های خود را می سازم، به گونه ای که مقدار گره خروجی برابر با P(H_k|x) باشد. من مطمئن هستم که این امکان پذیر است من فقط نمی توانم کار را به یاد بیاورم. از زمانی که سوال را پست کردم http://www-vis.lbl.gov/~romano/mlgroup/papers/neural-networks-survey.pdf را پیدا کردم که فکر می کنم می گوید آنچه می خواهم انجام دهم ممکن است.
آیا یک خروجی شبکه عصبی می تواند یک احتمال پسین را نشان دهد؟
85726
من در حال ساخت یک مدل GLS با پیروی از پروتکل در Zuur, 2009. مدل های اثرات مختلط... در صفحه 90 هستم. من 5 پیش بینی پیوسته دارم. ساختار واریانس VarConstPower برای من بهترین کار را دارد. ابتدا بخش ثابت مدل شامل تمام متغیرهای کمکی می شود. در آن نقطه زمانی که بخش واریانس شامل تمام 5 متغیر کمکی می شود، کمترین AIC را دریافت می کنم. اما با انتخاب مدل، قطعه ثابت من تنها به 2 متغیر کمکی کوچک می شود. آیا هنوز می توانم تمام 5 متغیر کمکی را در بخش واریانس خود حفظ کنم؟
ساختار واریانس با متغیرهای چندگانه در GLS
70206
من می خواهم همبستگی بین یک متغیر پیوسته با توزیع غیر نرمال، دارای انحراف مثبت و یک متغیر طبقه بندی با 4 دسته را پیدا کنم. تنها آزمونی که می توانم پیدا کنم که با این متغیرها مطابقت دارد، آزمون کروسکال والیس است، اما مطمئن نیستم که چگونه می توانم از این آزمون برای یافتن همبستگی یا رابطه بین دو متغیرم استفاده کنم. آیا کسی می تواند نشان دهد که چگونه این ارتباط با همبستگی یا آزمون دیگری برای استفاده با داده های من مرتبط است؟ تازه کار با آمار، پس لطفا در صورت نیاز به اطلاعات بیشتر به من اطلاع دهید.
همبستگی با توزیع غیر نرمال
85723
همانطور که از عنوان پیداست، می‌خواهم بپرسم تفاوت بین استفاده از قیمت‌های خام در مقابل نسبت بازده روزانه در برابر قیمت در آزمون ریشه واحد دیکی-فولر افزوده شده چیست. زمینه این است که من سعی می کنم جفت سهام یکپارچه را از یک سری زمانی معین در R پیدا کنم. به این سه منبع مختلف نگاهی بیندازید، که همگی از معیارهای مختلف (خام، روزانه و نسبت) برای آزمون ADF استفاده می کنند: 1\. قیمت خام 2\. بازده روزانه 3\. نسبت قیمت (یک تک نگاری تحقیقاتی UBS، متأسفانه نتوانستم پیوند را پیدا کنم، اما در اینجا گزیده ای وجود دارد): > تست دیکی-فولر تنظیم شده (ADF) - آزمون ثابت بودن قیمت > نسبت با فرضیه صفر ریشه واحد. همچنین شایان ذکر است که شماره 3 رگرسیون خطی (OLS) را انجام نمی دهد، آزمایش ADF را بر روی خود نسبت قیمت انجام می دهد، در حالی که شماره 1 و شماره 2 آن را روی گسترش (باقیمانده) OLS انجام می دهند. دلیلی برای این موضوع وجود دارد؟ بنابراین اگر کسی بتواند این موضوع را روشن کند، فوق العاده خواهد بود. شاید این فقط یک موضوع ترجیحی باشد، اما امیدواریم دلایلی برای انتخاب آنها وجود داشته باشد، با شواهد محکمی که پشتیبان آن برای بوت شدن است!
قیمت‌های خام در برابر بازده روزانه در برابر نسبت قیمت - آزمایش ریشه واحد ADF
86219
مقاله ای را دریافت کردم که در یک کنفرانس با این نظر رد شد: > روش استفاده شده برای تجزیه و تحلیل صحیح است، اما برای من عجیب است که > نویسندگان نتایج را به جای آزمایش 2x2 > که تنظیم کرده اند، به عنوان یک آزمایش 4 شرطی ارزیابی می کنند. . این باعث می شود تجزیه و تحلیل آنها از اثر تعامل > کمی ناشیانه باشد، و آنها در نهایت تمام ترکیب های ممکن از شرایط > را آزمایش می کنند (به این معنی که آنها باید اصلاح بونفرونی را انجام می دادند). تحلیل عاملی بسیار ساده‌تر بود. از آنجایی که من امکان پاسخگویی را ندارم، آیا کسی می‌تواند توضیح دهد که منظور بازبین چیست: > نویسندگان نتایج را به‌عنوان یک آزمایش 4 شرطی ارزیابی می‌کنند به جای آزمایش > 2×2 که تنظیم کرده‌اند. > > تجزیه و تحلیل فاکتوریل بسیار بیشتر بود. سرراست آیا کسی می تواند توضیح دهد که تحلیل فاکتوریل چیست و چگونه آزمایش 4 شرطی با آزمایش 2x2 متفاوت است. آزمایش من شامل طراحی 2x2 درون آزمودنی است. برای مثال A (بله/خیر) x B (بله/خیر)، که در آن AxB (نه/خیر) شرط کنترل است. من تصمیم گرفتم که تجزیه و تحلیل رگرسیون لجستیک با اندازه گیری های مکرر را انجام دهم زیرا دارای یک: * طراحی درون موضوعی * یک طبقه بندی چهار سطحی IV (بله/بله، بله/نه، نه/بله، نه/نه) * یک DV مقوله ای دو سطحی ( بله/خیر) برای آزمایش اهمیت، مقوله‌ها را در مقابل یک مرجع قرار دادم. من ارجاع به ارزیابی تفاوت بین دسته ها را تغییر دادم. من دست و پا چلفتی را که بازبین بیان می کند نمی بینم، زیرا این روشی است که من آن را با استفاده از رگرسیون یاد گرفته ام.
بازبینی کننده پاسخ در مورد رگرسیون لجستیک با اندازه گیری های مکرر
92149
این سوالات را امروز در امتحان داشتم. درست یا غلط را بیان کنید و توضیح دهید. 1. اگر k1(.،.) و k2(.،.) دو تابع هسته معتبر هستند، اگر h = k1 - k2 باشد، آیا h(.،.) یک تابع هسته معتبر است؟ 2. یک SVM حاشیه نرم استاندارد برای طبقه بندی مجموعه داده ها استفاده می شود. ما یک پارامتر C ثابت داریم. از دو الگوریتم مختلف A1 و A2 برای به دست آوردن مجموعه بردار پشتیبانی {$S: \alpha_i > 0$} استفاده می‌شود. آنها را S1 و S2 صدا کنید. آیا در همه موارد S1 = S2 است؟ فرض کنید هر دو الگوریتم از یک تابع هسته استفاده می کنند. من هیچ سرنخی از این سوالات نداشتم. من فقط در مورد توابع کرنل می دانستم، اما در مورد عملیات بین توابع هسته نمی دانستم. من فقط حدس زدم: از آنجایی که تابع هسته باید نیمه قطعی مثبت (PSD) باشد، تفاوت بین دو تابع هسته نباید PSD باشد. از این رو FALSE. برای مورد دوم، من حدس زدم که $\alpha_i$ می تواند در بین دو الگوریتم متفاوت باشد، تعداد بردارهای پشتیبانی نیز می تواند متفاوت باشد. از این رو دوباره FALSE.
ماشین‌های بردار پشتیبانی - توابع هسته/SVM حاشیه نرم