_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
82940 | من در حال حاضر خودم در حال مطالعه آمار هستم و در مورد مدل صفر در رگرسیون لجستیک باینری سردرگم هستم. من متوجه شدم که مدل نول برای مقایسه با مدلی که شما طراحی کرده اید استفاده می شود، اما مدل نول دقیقا چیست؟ فقط ln(x)=y؟ | آیا مدل صفر برای رگرسیون لجستیک باینری فقط تابع log طبیعی است؟ |
89450 | من سعی می کنم مشخصات کاربر را از داده های توییتر درک کنم. چگونه می توانم علاقه کاربر را از وضعیت ها درک کنم؟ از تحقیقات من، LDA (تخصیص دیریکله نهفته) برای استخراج موضوع مناسب است. دادهها را جمعآوری کردهام، کلمات توقف را حذف کردهام، پانک. تا کنون اما من هیچ داده قطار یا هیچ موضوع نمونه ای نداشتم. آیا باید به لیست موضوعات خاصی برای lda نیاز داشته باشم؟ و در آخر بهترین کتابخانه جاوا برای من کدام است؟ پیشاپیش ممنون آیسو | استفاده از LDA در دادههای غیر همدرنگ توییتر |
11012 | من میدانم که SPSS میتواند یک جدول احتمالی ایجاد کند، و در همان زمان تست خی دو را انجام دهد. با این حال، آیا این امکان وجود دارد که وقتی جدول احتمالی را داریم، برای داشتن SPSS تست خی دو را انجام دهیم؟ | آیا SPSS می تواند تست chi-square را روی یک جدول احتمالی موجود انجام دهد؟ |
114536 | من در تفسیر یک اصطلاح تعاملی در یک رگرسیون خطی با توجه به فرضیهام مشکل دارم. این مثال اساسی را در نظر بگیرید: > H0: نمرات بهتر مدرسه منجر به درآمد بالاتر می شود و این رابطه برای مردان و زنان یکسان است. DV: درآمد IV: نمره مدرسه، جنسیت چگونه می توانم یک اصطلاح تعامل مثبت غیر قابل توجه درجه * جنسیت را تفسیر کنم؟ آیا پذیرش H0 صحیح است؟ | چگونه عبارت تعامل غیر معنی دار را در رگرسیون خطی تفسیر کنیم؟ |
91834 | من 100 نمونه از یک توزیع نرمال با واریانس برابر 1 و میانگین برابر 0 دارم. من 90 نمونه را به طور تصادفی از 100 نمونه انتخاب کردم و میانگین آنها را (میانگین 90 نمونه) بر اساس این فرض برآورد کردم که واریانس مشابه نمونه اصلی است. سوال من این است که چگونه احتمال 10 نمونه باقیمانده را تحت تناسب محاسبه کنم؟ آیا باید میانگین 10 باقیمانده را تخمین بزنم و آن را با میانگین 90 انتخاب شده مقایسه کنم؟ من به تازگی مطالعه آمار را شروع کرده ام و از هر ورودی قدردانی می کنم. | اعتبارسنجی متقابل، نحوه اجرای واقعی مفهوم |
28850 | > **موضوع تکراری:** > تست خوب بودن تناسب برای یک مخلوط در R من فقط پارامترهای مخلوطی از دو گاوسی را با میانگینهای مختلف و سیگماهای مختلف تخمین زدم، میخواهم آزمایش کنم که آیا دادهها به خوبی با شکل صریح تنظیم میشوند یا خیر. مخلوط، آیا لزوماً نیاز به شبیه سازی داده ها از مخلوط دارم یا چگونه می توانم خوب بودن تناسب را با استفاده از یک دست داده ها و در دست دیگر مخلوط صریح با تخمین زده شده آزمایش کنم پارامترها؟ من از پکیج mixtools استفاده میکنم. | تست خوب بودن تناسب برای مخلوطی در R |
28870 | من می خواهم بدانم که چگونه متغیرهای تصادفی در یک مکان جغرافیایی خاص از نظر مکانی همبستگی دارند. فرض کنید من تابع z را بسته به موقعیت مکانی نقاط دارم. اگر این مقادیر z را به صورت مکانی رسم کنم، پس از نمودار چگونه می توانم همبستگی فضایی آنها را تجزیه و تحلیل کنم. چگونه طرح به نظر می رسد یا قرار است شبیه باشد | تجزیه و تحلیل همبستگی فضایی از طرح |
25162 | استفاده از اشیاء ماتریس پراکنده در آموزش svm در e1071 نتایج متفاوتی را نسبت به اجرای روی همان دادههای ارائه شده به عنوان ماتریس استاندارد برمیگرداند: library(e1071) library(Matrix) library(SparseM) m=10 n=800 #means <- colMeans(myData) # stdDevs <- application(myData, 2, sd) به معنی <- c(0.042154664, 0.010474473, 0.106408354, 0.002237226, 0.089791084, 0.072792224, 0.001884146, 0.001884142, 0.001824146, 0.00184149, 0.00184149, 0.00237226, 0.00237226, 0.00154664 0.151466160) stdDevs <- c(0.017026132، 0.012720986، 0.026721416، 0.004810966، 0.026454962، 0.026454962، 0.025134987، 0.025134987 0.005573776، 0.009063219، 0.036368062) clss = rep(0,n) clss[sample(1:n,n/2)] <- 1 clss <- factor(clss) ftrs <- matrix(nrow=n) برای (من در seq(m)){ftrs[,i] <- rnorm(n,means[i],stdDevs[i])} ftrs[ftrs<0] <- 0 for (i در seq(m)){ftrs[نمونه (1:n,(n/10)),i]<-0} ftrs.csr <- as.matrix.csr(ftrs) ftrs.Mtrx <- ماتریس(ftrs,sparse=TRUE) mod1 <- svm(ftrs,clss, kernel='linear') mod2 <- svm(ftrs.csr,clss, kernel='linear') mod3 <- svm(ftrs.Mtrx,clss , kernel='linear') prf(data.frame(fitted(mod1),clss)) prf(data.frame(fitted(mod2),clss)) prf(data.frame(fitted(mod3),clss)) کد بالا زیر مجموعه ای از یک را شبیه سازی می کند ویژگی های من بسیار نزدیک تنظیم می شود، و اگر آن را به طور مکرر اجرا کنید، نتایج prf گاهی بسیار نزدیک و گاهی بسیار متفاوت خواهند بود، یعنی هرگز مطابقت ندارند: > prf(data.frame(fitted(mod1)،clss)) Acc P_0 R_0 F_0 P_1 R_1 F_1 [1,] 0.52125 0.675 0.5162524 0.5850488 0.3675 0.5304685 > 0.530685 prf(data.frame(fitted(mod2)،clss)) Acc P_0 R_0 F_0 P_1 R_1 F_1 [1،] 0.5025 0.775 0.5016181 0.6090373 0.23 0.5054916151513 0.23 > prf(data.frame(fitted(mod3)،clss)) Acc P_0 R_0 F_0 P_1 R_1 F_1 [1،] 0.5025 0.775 0.5016181 0.6090373 0.23 0.5054916151513 > 0.23. prf(data.frame(fitted(mod1)،clss)) Acc P_0 R_0 F_0 P_1 R_1 F_1 [1,] 0.545 0.61 0.539823 0.57277 0.48 0.5517241 0.513369 prf(data.frame(fited(mod2)،clss)) Acc P_0 R_0 F_0 P_1 R_1 F_1 [1,] 0.50375 0.2225 0.5085714 0.3095652 0.785 0.50124 > 0.50124 > 0.785 prf(data.frame(fitted(mod3),clss)) Acc P_0 R_0 F_0 P_1 R_1 F_1 [1,] 0.50375 0.2225 0.5085714 0.3095652 0.785 0.50124 این چیزی است که این کار را انجام نمی دهم؟ یا آموزش روی نمایشهای ماتریس پراکنده نادقیقتر است؟ با تشکر، Rob prf تابع: prf <- function(predAct){ ## predAct دو قاب داده از pred است، act preds = predAct[,1] trues = predAct[,2] xTab <- جدول(preds، trues) clss < - as.character(sort(unique(preds))) r <- matrix(NA, ncol = 7, nrow = 1, dimnames = list(c(),c('Acc', paste(P,clss[1],sep='_'), paste(R,clss[1],sep=' _')، چسباندن (F، clss[1]، sep='_')، چسباندن (P، clss[2]، sep='_')، paste(R,clss[2],sep='_'), paste(F,clss[2],sep='_')))) r[1,1] <- sum(xTab[ 1,1],xTab[2,2])/sum(xTab) # دقت r[1,2] <- xTab[1,1]/sum(xTab[,1]) # Miss Precision r[1,3] <- xTab[1,1]/sum(xTab[1,]) # Miss Recall r[1,4] <- (2*r[1,2]*r[1,3] )/sum(r[1,2],r[1,3]) # Miss F r[1,5] <- xTab[2,2]/sum(xTab[,2]) # ضربه دقیق r[1 ,6] <- xTab[2,2]/sum(xTab[2,]) # ضربه Recall r[1,7] <- (2*r[1,5]*r[1,6])/sum(r[ 1,5],r[1,6]) # ضربه F r} | استفاده از SparseM/Matrix Sparse Matrix در آموزش SVM از e1071 که نتایج متفاوتی را از داده های مشابه در ماتریس استاندارد برمی گرداند. |
110349 | من سعی می کنم یک مدل رگرسیونی برای یک سیستم قیمت گذاری پویا ایجاد کنم که به دنبال به حداکثر رساندن درآمد باشد. مشکلی که من دارم این است که سیستمی که قبلاً وجود داشت (که منبع داده های من است) مالک را درگیر تصمیم گیری در مورد قیمت گذاری چیزها بر اساس انتظارات شخصی خود از تقاضا می کرد. بنابراین، وقتی سعی میکنم هر نوع رابطهای بین قیمت و تقاضا را از بین ببرم، در نهایت به این میرسم که قیمت بالاتر = تقاضای بیشتر است، که بدیهی است که اینطور نیست. آیا راهی برای اصلاح این موضوع وجود دارد یا اساساً داده ها برای من بی فایده هستند؟ تا کنون متغیرهای ابزاری را بررسی کردهام، اما مطمئن نیستم که چیزی داشته باشم که برای شرایطم کار کند. ویرایش: در اینجا پیوندی به برخی داده ها وجود دارد | مشکل داده با رگرسیون قیمت گذاری پویا |
61308 | من یک پرسشنامه مقیاس لیکرت با 9 ویژگی یک سیستم دارم (مانند ثبات، امنیت، هزینه و غیره) برای هر یک از ویژگی ها، پاسخ دهندگان می توانند پاسخ دهند که این ویژگی در مقیاس چقدر برای آنها مهم است کاملاً موافقم. اکثرا موافق، نه موافق و نه مخالف، اکثرا مخالف و کاملا مخالف. من می خواهم داده ها را تجزیه و تحلیل کنم تا ویژگی ها را بر اساس اهمیت درک شده آنها مرتب کنم. منظورم پاسخها در مقیاس (2، 1، 0، -1، -2) بود، اما به نظرم اشتباه بود. آیا یک کاملاً موافق واقعاً با دو کاملاً مخالف مطابقت دارد؟ اگر میانه را بگیرم، می توانم برخی از الگوهای ارزشمند را از دست بدهم، و داشتن میانه روی تنها پنج مقدار نیز اشتباه به نظر می رسد. آیا راهنمایی در مورد نحوه انجام تجزیه و تحلیل دارید؟ | نحوه تجزیه و تحلیل داده های مقیاس لیکرت |
110342 | مثلاً بگویید من یک گراف وزن دار داشتم به طوری که هر گره یک مقدار مرتبط داشت. مقادیر گره ها توسط برخی از تابع های وزن یال و تعداد یال ها و همچنین مختصات گره داده می شود. هیچ محدودیت بالایی برای تعداد یال های بالقوه هر گره وجود ندارد. روابط می تواند خطی/منطقی/هرچی باشد. آیا تکنیکهای سبک شبکه عصبی (از نظر استفاده به جای اجرا) وجود دارد که بتوان در این نوع سناریوها به کار برد که بتواند دادههای آموزشی را پیشبینی کند؟ چه می شود اگر من دو مقدار جداگانه مرتبط با هر گره داشته باشم؟ یکی از ایدههای من این بود که از یک شبکه عصبی مکرر استفاده کنم و لبههای آن را یکی یکی تغذیه کنم، اما به نظر میرسد برای راهحلی که احتمالاً یک راهحل نسبتاً کند و متزلزل است، کار زیادی است. توجه: این تلاشی برای حل یک مشکل خاص نیست، بلکه یک کنجکاوی عمومی است. | تشخیص الگوی سبک شبکه عصبی با تعداد ورودی ناشناخته/متفاوت؟ |
110347 | من با مدل های خطی استفاده می کنم. من می توانم افزایش استفاده از روش مبتنی بر هسته را به ویژه در یادگیری ماشین ببینم. در زیر نمونه ای از هسته گاوسی با استفاده از تابع 'gausspr' از بسته R 'kernlab' آورده شده است. تابع اجرای فرآیندهای گاوسی برای طبقه بندی و رگرسیون است. نیاز(kernlab) x <- seq(-20,20,0.1) y <- sin(x)/x + rnorm(401,sd=0.03) # رگرسیون با فرآیندهای گاوسی foo <- gausspr(x, y) foo # پیش بینی و رسم ytest <- predict(foo, x) plot(x, y, type=l) خطوط (x, ytest, col=red) روشهای هسته موجود در این بسته عبارتند از: تابع هسته پایه شعاعی `rbfdot` Gaussian polydot تابع هسته چند جملهای `vanilladot` تابع هسته خطی `tanhdot` تابع هسته مماس هیپربولیک` laplacedot` Laplacian تابع هسته besseldot تابع هسته بسل 'anovadot' تابع هسته ANOVA RBF 'splinedot' هسته Spline اولین سوال من چگونه می توانم بدانم که بهتر است از نسخه های هسته استفاده کنم؟ سوال دوم این است که چگونه انتخاب کنیم از کدام هسته استفاده کنیم؟ | چه زمانی روش مبتنی بر هسته عملکرد بهتری نسبت به معمول دارد |
21587 | من سعی می کنم تفاوت های میانگین بین دو جمعیت $x_1$ و $x_2$ را توصیف کنم که غیر صفر و مثبت هستند. توزیع آنها تقریباً بتا با یک انحراف مثبت است. برای مثال، با R: # x1 <- round(rbeta(10, 1, 100)*1000, 1) # x2 <- x1 + round(rbeta(10, 1, 100)*100, 1) x1 <- c (1.7، 12.6، 22.3، 37.3، 15.2، 7.1، 31، 4.4، 9.5، 1.9) x2 <- c(1.9، 14.2، 25.6، 39.2، 15.9، 8.7، 32.2، 7، 9.7، 1.9) دو روشی که می توانم برای تعیین میانگین تفاوت های نسبی در نظر بگیرم اعداد متفاوتی را به دست می دهند: mean((x2 - x1)/x1) # 0.1365628 (mean(x2) - mean(x1))/mean(x1) # 0.09300699 چرا آنها متفاوت هستند، و کدام روش بیشتر توصیف کننده چیزی است که من به دنبال آن هستم؟ یعنی $x_2$ 13.6% یا 9.3% بزرگتر از $x_1$ است؟ | چگونه تفاوت های نسبی میانگین را پیدا کنیم؟ |
25169 | پس از کمک های شگفت انگیز، به خصوص از @jbowman، من آماده بودم تا وارد مدل های خود شوم اما به مشکلی برخورد کردم که نمی فهمم. من تصمیم گرفتم بسته MuMIN را امتحان کنم زیرا با lme4 کار می کند تا بتوانم همه مدل ها را به جای اجرای هر یک در یک بار در یک بار انجام دهم. با این حال جدا از بارگیری آن و سپس بارگیری lme4، من فرصتی برای استفاده از آن نداشتم زیرا با خطا مواجه می شوم و نمی دانم چرا. کسی میتونه لطفا به کد نگاه کنه و ببینه من چه اشتباهی میکنم؟ پست اصلی من اینجاست معادلات مدل اثرات مختلط. اساساً به من می گوید که نمی تواند تغذیه را پیدا کند اما وقتی نام df را تایپ می کنم همه ستون ها را لیست می کند. بنابراین من سعی کردم آن را به عنوان یک factor (نه as.factor) وارد کنم، همانطور که می بینید بدون تاثیر. من می خواهم فایل csv. خود را پیوست کنم اما گزینه ای برای انجام این کار نمی بینم. :( این چیزی است که من دریافت می کنم > local({pkg <- select.list( sort(.packages(all.available = TRUE))،graphics=TRUE) + if(nchar(pkg)) library(pkg، نویسه. only=TRUE)}) پیام هشدار: بسته MuMIN تحت نسخه R 2.14.1 ساخته شده است > local({pkg <- select.list(sort(.packages(all.available = TRUE)),graphics=TRUE) + if(nchar(pkg)) library(pkg, character.only=TRUE)}) بارگیری بسته مورد نیاز: ماتریس بارگیری بسته مورد نیاز: lattice در حال پیوست کردن بسته: ماتریس شی(های) زیر از package:base پوشانده شده اند: det در حال پیوست کردن بسته: lme4 شی(های) زیر از package:stats پوشانده شده اند: AIC, BIC > ABMtest.df<-read.csv(file.choose(), header=T) > ABMtest.df$Brood<-as.factor(ABMtest .df$Brood) > ABMtest.df$Site<-as.factor(ABMtest.df$Site) > ABMtest.df$Age.class<-as.factor(ABMtest.df$Age.class) > ABMtest.df$MF.vs.OF<-as.factor(ABMtest.df$MF.vs.OF) > ABMtest. df$tide.h.l<-as.factor(ABMtest.df$tide.h.l) > fm2test<-lmer(Feeding~MF.vs.OF+Age.class+tide.h.l+Site+HDp+(1|Brood)) خطا در eval(expr، envir، enclos): شیء «تغذیه» یافت نشد > ABMtest.df$Feeding<-factor(ABMtest.df$Feeding) > fm2test<-lmer(Feeding~MF.vs.OF+Age.class+tide.h.l+Site+HDp+(1|Brood)) خطا در eval(expr، envir، enclos): شیء «تغذیه» یافت نشد > آخرین بار پس از فهرست کردن همه چیز، سرانجام آن را به اجرا رساندم (اما مطمئن نیستم که چگونه زیرا نمی توانم این را تکرار کنم. اما آخرین باری که کد را تایپ کردم: ms2test<-dredge(fm2test, trace=TRUE, rank=AICc, REML=FALSE) که قرار است رتبه تمام مدل هایی که از AICc استفاده می کنند را به من بدهد و به من امکان می دهد مدلها و غیره اما چیزی شبیه به عدم یافتن کلاس mer با فیکس میگوید. من هیچ نظری ندارم. اگر کسی می تواند ببیند که چرا Feeding به رسمیت شناخته نمی شود، یا این به این دلیل است که من اول لیست نکردم؟ و سپس هر کسی که با دستور dredge آشنا باشد در این مورد کمک کند، بسیار قدردانی خواهد کرد. | مدلها را مشخص کرد، اما در مورد یافت نشدن شی و دستور لایروبی مشکل داشت |
21889 | من 2 گروه دارم: N=350 (G1) و N=1500 (G2). G1 به 1 شرکت و G2 یک گروه 4 شرکتی است. آیا آزمون z برای آزمایش تفاوتهای معنیدار بین توزیع درصد مناسب است؟، بهعنوان مثال، اگر 51/49% مرد/مونث در G1 تفاوت معنیداری با 46/54% مرد/مونث در G2 دارد؟ با تشکر | آزمون آماری برای حجم نمونه نابرابر بزرگ |
46800 | من داده های زیر را دارم، نمی دانم چگونه آن را به درستی توصیف کنم. محدودیت غلظت قابل تشخیص 0.375 است، بنابراین، نمونه 3، غلظت در d0 و d6 شناسایی نشد. چگونه می توانم غلظت را در d0، d6 توصیف کنم وقتی می خواهم تکامل غلظت را بر اساس زمان منعکس کنم؟ برخی استفاده از 0.375 را پیشنهاد کردند در حالی که برخی دیگر استفاده از 0.375/2 را پیشنهاد کردند. کدام صحیح است * نمونه - زمان(د) - غلظت * 3 - 0 - BLQ<(0.375) * 3 - 6 - BLQ<(0.375) * 3 - 12 - 0.401 * 3 - 18 - 0.667 * 4 - 0 - BLQ<(0.375 ) * 4 - 6 - 0.394 * 4 - 12 - 0.388 * 4 - 18 - 0.402 * 4 - 24 - 2.02 * 4 - 30 - 7.70 * 5 - 0 - BLQ<(0.375) * 5 - 6 - 0.512 * 5 - 12 - 0.557 * 5 -4 - 4. 24 - 9.63 | چگونه داده های سریال را با برخی مقادیر تحت محدودیت شناسایی شده توصیف کنیم؟ |
51033 | من در حال تست تفاوت چندین گروه مختلف هستم، یعنی > **A** در مقابل **B** > > **C** در مقابل **D** آیا اجرای چند t-test، یکی برای هر زوج، مشکلی ندارد؟ چون هیچ گروهی دوبار تست نمیشه؟ خیلی خیلی ممنون، [ویرایش] A، B، C، D شرایط مختلف یک آزمایش هستند، یعنی A - عملکرد کاربران با دستگاه A B - عملکرد کاربران با دستگاه B C - عملکرد کاربران با دستگاه C D - عملکرد کاربران با دستگاه D و من میخواهم A را در مقابل B، و C در مقابل D را آزمایش کنیم. این آزمایش شامل استفاده از چهار دستگاه مختلف برای انجام یک وظیفه عملیات دور مشخص است. هر کاربر (20) آزمایشی را با تمام شرایط (دستگاهها) A، B، C، D و غیره انجام میدهد. بنابراین من ماتریسی از عملکردهای 20 (کاربران) x 4 (شرایط) دارم و میخواهم A (ستون 1) را آزمایش کنم. در مقابل B (ستون 2) و C (ستون 3) در مقابل D (ستون 4). | اجتناب از خطای نوع I در آزمونهای t چندگانه گروههای مختلف دادهها |
17882 | من یک لیست حقیقت پایه دارم، آن را A می نامم، و روش های مختلفی برای تولید لیست ها دارم که باید تا حدودی شبیه به هم باشند. رشته ها.. من با این چیزها تازه کار هستم، دقت متوسط را امتحان کردم و نتایج منطقی بود، سپس سعی کردم از همبستگی رتبه اسپیرمن استفاده کنم، اما در نهایت چیزی شبیه A = [abd را با هم مقایسه کردم. abc، cad] و B = [abd، decf، hhj، cad، .. ] بنابراین اندازههای لیست متفاوت بود، آیا حتی میتوان از Spearman در اینجا استفاده کرد؟ و از چه روش های دیگری می توانم استفاده کنم؟ | راه های خوب دیگری برای یافتن میزان شباهت بین لیست ها چیست؟ |
10822 | من نمی توانم یک نام موجود برای تابع مقایسه ای که نوشتم پیدا کنم. من دو لیست از مقادیر دارم که می خواهم آنها را با هم مقایسه کنم. در ابتدا از jaccard استفاده کردم، اما بعد متوجه شدم که باید طول لیست دوم را حذف کنم زیرا به نظر نمی رسد در مورد استفاده من چیزی برای گفتن داشته باشد. بنابراین من jaccard را به: $$ sim(L1,L2) = \frac{|L1 \cap L2|}{|L1|} $$ تغییر دادم یک مثال ممکن است این باشد: L1 = {name, test, somevalue} L2 = {name , foo , bar , baz , some , تصادفی , other , مقادیری که , , flood , jaccard , مقایسه , به عنوان , آنها نیز بسیار } $$ sim(L1,L2) = \frac{|L1 \cap L2|}{|L1|} = \frac{|\\{name\\}|}{|\\{نام، آزمایش، مقداری\\}| } = \frac{1}{3} $$ برای کوتاه کردن داستان، فقط میخواهم محاسبه کنم که چند درصد از مقادیر L1 در L2 هستند. آیا کسی می داند که آیا نامی برای چنین تابعی وجود دارد تا بتوانم در کد منبع خود نام خوبی برای آن بگذارم؟ | آیا نامی برای تابع | وجود دارد فرقه L1 L2 | / | L1 | |
46804 | من می خواهم از صاف کردن Good-Turing استفاده کنم تا احتمال صید نوع بعدی را بیابم. اگر قبلاً موارد زیر را صید کرده باشم: 1 ماهی کپور، 1 ماهی سوف، 1 ماهی سفید، 1 قزل آلا سپس N1 = 4، زیرا یک بار چهار نوع ماهی دیده ام. من میدانم که با Good-Turing، احتمال اینکه ماهی بعدی که قبلاً ندیدهام باشد، «P=N1/N» باشد، پس آیا این به این معنی است که «P(unseen) = 4/4 = 1.0»؟ این درست به نظر نمی رسد، زیرا احتمال اینکه ماهی بعدی قزل آلا باشد «p(trout)=0.0» است. آیا این درست است، یا زمانی که تنها «Nc» من «N1» است، باید کار دیگری انجام دهم؟ | صاف کردن با تورینگ خوب زمانی که همه چیز یک بار ظاهر شود |
10821 | من سعی می کنم تأثیر یک مداخله را ارزیابی کنم. من یک طرح rct تصادفی گروهی دارم و ثابت کردهام که یک اثر طراحی دارم و بنابراین باید برای مدرسه کنترل کنم. تا کنون موفق شده ام داده های خود را به گونه ای بازسازی کنم که اکنون عمودی هستند و متغیری به نام time دارم که نشان دهنده نقاط زمانی قبل و بعد من است. اگرچه من به طور موثری از نظر SES تصادفیسازی کردهام، روش استخدام من (دعوت از والدین برای شرکت در برنامه فرزندپروری در مقابل مطالعه پرسشنامه) منجر به یک گروه مداخله به طور قابلتوجهی پریشانتر در صورت گزارش توسط والدین (اما نه زمانی که کودک گزارش میکند) شده است. . من از کتاب _Multilele and longitudinal Modeling with IBM SPSS_ Heck, Thomas & Tabata, 2010 استفاده کرده ام که عالی است، اما نمی توانم بفهمم که چگونه یک مدل اندازه گیری تکراری دو سطحی ساده را اجرا کنم. آیا کسی مرجعی را می شناسد یا می تواند در مورد نحو به من کمک کند؟ به نظر می رسد با آنچه استفاده کرده ام یک پیام خطا دریافت می کنم و نمی دانم مدرسه، متغیر گروهم را کجا قرار دهم، بنابراین می توانم آن را کنترل کنم. SDQPT مختلط با زمان Int_Cont /CRITERIA=CIN(95) MXITER(100) MXSTEP(5) SCORING(1) SINGULAR(0.000000000001) HCONVERGE(0،ABSOLUTE) LCONVERGE(0، PCONVERGE0ABSOLUTE0) /FIXED=Time Int_Cont Time*Int_Cont | SSTYPE(3) /METHOD=REML /PRINT=G SOLUTION TESTCOV /RANDOM=INTERCEPT Time | SUBJECT(CodeNumb) COVTYPE(UN) /REPEATED=زمان | SUBJECT(CodeNumb) COVTYPE(DIAG). با تشکر از کمک شما!!! آیا این است؟ من ثابت کردهام که خودرگرسیون بهترین مدل را دارد (SCASPT معیار من برای سنجش اضطراب است؛ Int_Cont متغیر گروهبندی من است و زمان 0=زمان 1 و 1=زمان 2 است): SCASPT MIXED BY Int_Cont Time /CRITERIA=CIN(95) MXITER (100) MXSTEP (5) امتیاز (1) SINGULAR(0.000000000001) HCONVERGE(0، ABSOLUTE) LCONVERGE(0، ABSOLUTE) PCONVERGE(0.000001، ABSOLUTE) /FIXED=Int_Cont Time Int_Cont*Time | SSTYPE(3) /METHOD=REML /PRINT=G R SOLUTION TESTCOV /REPEATED=زمان | SUBJECT(School*CodeNumb) COVTYPE(AR1). اگر مرجعی را بشناسید که این موضوع را به روشی واقعاً ساده برای کسی که دانش آماری بسیار محدودی دارد، توضیح دهد، واقعا متشکر می شوم. دنبال کردن مرجع هک برای من کمی سخت است. با تشکر | چگونه می توانم یک تحلیل اندازه گیری های مکرر مدل ترکیبی را در SPSS برای ارزیابی اثر مداخله در حین کنترل مدرسه اجرا کنم؟ |
82567 | ماتریس همبستگی من همبستگی های خیلی بالایی را نشان نمی دهد (کمتر از 0.5)، اما با این حال، وقتی مدل های جلوه های ثابت پانل را رگرسیون می کنم، همه متغیرهای من حذف می شوند و نشان می دهد که به دلیل هم خطی بودن بین متغیرها است. راه برون رفت از آن چیست؟ | هم خطی بین متغیرهای توضیحی |
93956 | فرض کنید که دمای $T_{ij}$ را برای سوژههای $i =1، \dots،4$ و $j= 1، \dots،4$ نقاط زمانی اندازهگیری میکنید. برای موضوع 1، فرض کنید $T_{12}$ و $T_{14}$ موجود نبودند. اگر یک مدل ترکیبی خطی را اجرا می کنید، آیا کل رکورد برای موضوع 1 را حذف می کنید؟ | مشاهدات گمشده در یک مدل مختلط خطی |
93955 | من میخواهم همزمان نقشههای خطی $k$$\\{\phi_0, \dots,\phi_{k-1} \\}$ را همزمان یاد بگیرم: $min \sum_{i=0}^{k- 1} \sum_{j=i+1}^{k-1}||X_i \phi_i - X_j \phi_j||_2^{2}$، به طوری که $||X_{ij} \phi_i||_2^2 = 1$ (بردار ردیف چرخشی) با توجه به دادههای ${X_i, X_j} \in \mathbb{R}^{m\times n}$, ${\ phi_i، \phi_j} \in \mathbb{R}^{n\times n}$، و ردیفها قبلاً عادی شدهاند $||X_{ij}||_2^2 = 1$ این ما را مجبور میکند تا ماتریسهای چرخشی را یاد بگیریم که ورودی k-spheres را در یک کره مشترک ترسیم میکنند. اگر این مشکل قبلاً مطالعه شده باشد، نظری دارید. من دوست دارم پیشنهادات شما را بشنوم. | رگرسیون خطی k مشترک |
110344 | هنگام انجام یک تجزیه و تحلیل مداخله با داده های سری زمانی (معروف به سری های زمانی منقطع) همانطور که در اینجا بحث شد، برای مثال یکی از الزامات من این است که کل سود (یا ضرر) ناشی از مداخله را تخمین بزنم - یعنی تعداد واحدهای به دست آمده یا از دست رفته (متغیر Y) ). کاملاً درک نکردم که چگونه می توان تابع مداخله را با استفاده از یک تابع فیلتر در R تخمین زد، به روشی بی رحمانه به آن پرداختم، امیدوارم این به اندازه کافی کلی باشد که در هر موقعیتی کار کند. اجازه دهید بگوییم که با توجه به ساختار cds<- (c(2580L, 2263L, 3679L, 3461L, 3645L, 3716L, 3955L, 3362L, 2637L, 2524L, 2084L, 2084L, 2031,2031L 3253L, 2881L, 2555L, 2585L, 3015L, 2608L, 3676L, 5763L, 4626L, 3848L, 4523L, 4186L, 4070L, 4349L, 4186L, 4070L, 4090L 1L)، .Dimnames = list(NULL, CD), .Tsp = c(2012, 2014.33333333333, 12), class = ts) تصمیم می گیریم که بهترین مدل برازش به شرح زیر است، با تابع مداخله به عنوان $ m_t= \frac{\omega_0}{(1-\delta B)}X_t$ که در آن $X_t$ یک پالس است در اکتبر 2013. fit4 <- arimax(log(cds)، order = c(1،1،0)، include.mean=FALSE، xtransf = data.frame(Oct13 = 1*(seq_along(cds)==22) ), انتقال = لیست(c(1,0)) ,xreg=1*(seq_along(cds)==3)) fit4 # ARIMA(1،1،0) # ضرایب: # ar1 xreg Oct13-AR1 Oct13-MA0 # -0.0184 0.2718 0.4295 0.4392 # s.e. 0.2124 0.1072 0.3589 0.1485 # sigma^2 به صورت 0.02176 تخمین زده شده است: log likelihood=13.85 # AIC=-19.71 AICc=-16.98 BIC=-13.05 من دو سوال دارم: 1) اگر چه ما تابع ARI را ارزیابی می کنیم. که در آن زمان بود از نظر فنی با استفاده از سری متفاوت $\bigtriangledown X_t $ مناسب است آیا برای تغییر برآورد $\omega_0$ یا $\delta$ از استفاده از $\bigtriangledown X_t $ به $ X_t $، باید کاری انجام دهیم؟ 2) آیا این درست است: برای تعیین سود مداخله، مداخله $m_t$ را از پارامترها ساختم. هنگامی که $m_t$ داشته باشم، مقادیر برازش را از مدل fit4 (exp() برای معکوس کردن گزارش) با exp (مقادیر برازش منهای $m_t$) مقایسه می کنم و مشخص می کنم که در طول دوره مشاهده شده، مداخله منجر به 3342.37 واحد اضافی شده است. . **آیا این فرآیند برای تعیین سود عموماً از تجزیه و تحلیل مداخله صحیح است؟** int_vect1<-1*(seq_along(cds)==22) wo<- 0.4392 delta<-0.4295 mt<-rep(0,length (int_vect1)) برای (i در 1:length(int_vect1)) { if (i>1) { mt[i]<-wo*int_vect1[i]+delta*mt[i-1] } } mt sum(exp(fitted(fit4)) - (exp(fitted(fit4) - mt))) | مداخله با تفاوت |
91832 | در یک مدل گرافیکی، دو متغیر تصادفی با توجه به اجداد مشترکشان، مستقل شرطی هستند. آیا مدل های گرافیکی می توانند علاوه بر استقلال شرطی، استقلال را نیز نشان دهند؟ | آیا مدل های گرافیکی می توانند علاوه بر استقلال شرطی، استقلال را نیز نشان دهند؟ |
10827 | من در حال بررسی تعامل بین دو متغیر هستم ($x_1$ و $x_2$). همبستگی خطی زیادی بین این متغیرها با $r>0.9$ وجود دارد. از نظر ماهیت مشکل نمی توانم چیزی در مورد علیت بگویم (اینکه $x_1$ باعث $x_2$ می شود یا برعکس). من می خواهم انحرافات از خط رگرسیون را مطالعه کنم تا نقاط پرت را تشخیص دهم. برای انجام این کار، می توانم یک رگرسیون خطی $x_1$ به عنوان تابعی از $x_2$ بسازم یا برعکس. آیا انتخاب ترتیب متغیر من می تواند بر نتایج من تأثیر بگذارد؟ | آیا ترتیب متغیر در رگرسیون خطی اهمیت دارد؟ |
96709 | یک نمونه تصادفی ساده با اندازه $n=n_1 + n_2$ بدون جایگزینی از یک جمعیت محدود به اندازه $N$ ترسیم می شود. بعلاوه یک نمونه تصادفی ساده به اندازه $n_1$ بدون جایگزینی از نمونه اول ترسیم می شود. اجازه دهید $\bar y$ و $\bar {y_1}$ میانگین نمونه مربوطه باشند. V($\bar {y_1}$) و V ($\bar {y_2}$) را پیدا کنید، جایی که $\bar {y_2}$ میانگین واحدهای باقیمانده $n_2$ در اولین نمونه است. Cov($\bar {y_1}$,$\bar {y_2}$) را نیز پیدا کنید. فرض کنید $S^2$ واریانس جمعیت است. * * * این کاری است که من تاکنون توانسته ام انجام دهم: توجه داشته باشید که $\bar {y_2}$ = $\frac{(n\bar y) - n_1\bar {y_1}}{n_2}$. همچنین، V($\bar {y_1}$) = $E_1[V_2(\bar {y_1})] + V_1[E_2(\bar {y_1})]$. پس از سادهسازی، معلوم شد که $(\frac1{n_1} - \frac1N)S^2$ است. حالا من در مسیر درستی هستم؟ همچنین، مقداری کمک در یافتن $V(\bar y_2)$ و کوواریانس قدردانی خواهد شد. | برای یافتن واریانس و کوواریانس برای مسئله نمونه گیری دوگانه |
96700 | این دپارتمان دارای یک سیستم آنلاین است که به موجب آن دانشجویان می توانند داوطلبانه برای شرکت در مطالعات آزمایشگاهی ثبت نام کنند تا برای درس خود امتیاز کسب کنند. دانش آموزان باید این سیستم آنلاین را مرتباً بررسی کنند تا ببینند آیا علاقه مند به شرکت در هر یک از مطالعات ذکر شده هستند یا خیر. همچنین آنها برای ثبت نام برای شرکت در مطالعات در صورت نیاز به اعتبار اضافی به آن سامانه آنلاین مراجعه می کنند. من به عنوان یک محقق، وقتی وارد پایگاه داده سیستم آنلاین می شوم، با تمام دانشجویانی که ابراز علاقه کرده اند تماس می گیرم تا آنها را به آزمایشگاه خود دعوت کنم. از 400 دانش آموز، تنها 50 دانش آموز برای مطالعه حاضر می شوند. آیا این به عنوان یک نمونه تصادفی در نظر گرفته می شود؟ با تشکر | آیا این یک نمونه تصادفی محسوب می شود؟ |
16375 | سوال من از این پست الهام گرفته شده است. با این حال، توضیح کمی پیچیده تر از آن است. امیدوارم موفق بشم من با داده های RNA-Seq در مورد پیوند جایگزین در گیاهان کار می کنم. برای این بحث، بیایید **رویدادهای پرش اگزون** را در نظر بگیریم. اجازه دهید $g_{1}، g_{2}، ...، g_{n}$ نمایانگر همه ژنهایی باشند که _expressed_ میشوند. یک ژن بیان میشود به این معنی که وقتی دادههای RNA-Seq خود را که معمولاً خواندههای کوتاه هستند (در مورد من به طول 80 جفت باز) به ژنوم بازمیگردم، مقدار مشخصی از خواندهها به آن ژن (محل) نگاشت میشوند. . مقدار _مشخص_ بر اساس یک _آستانه_ دلخواه است، در صورت نیاز، مثلاً 20 خواندن کوتاه. استفاده نشده است، اما برای وضوح، اجازه دهید $m >= n$ تعداد کل ژن های ژنوم باشد. > 1. مجموع تعداد قرائت هایی که به ژنوم نگاشت می شوند $R$، مثلا > (معمولاً به ترتیب میلیون ها) است. > 2. فرض کنید $r_{i}$ قرائتهای نگاشت شده به ژن بیان شده $g_{i}$ باشد (معمولاً > صدها تا هزاران). > 3. فرض کنید، در ژن $g_{i}$، یک اگزون $j$ = $e_{ij}$ $r1_{ij}$ > بار خوانده است و $r2_{ij}$ بار skipped_ می شود. > اکنون، من میخواهم احتمال این را پیدا کنم که این رویدادهای پرش اگزون $r2_{ij}$ به طور تصادفی رخ میدهند. سوال من این است که آیا می توانم از یک توزیع ابر هندسی دو متغیره استفاده کنم که به این سوال پاسخ می دهد (اصلاح شده از پاسخ کارل از پست لینک شده در بالا): > احتمال بدست آوردن $r2_{ij}$ یا بیشتر توپ های سفید در یک نمونه > با اندازه چقدر است. $(r1_{ij}+r2_{ij})$ از کوزهای با $r_{i}$ توپهای سفید و $(R - > r_{i})$ سیاه توپ ها؟ من گیج شده ام زیرا، 1. خوانش هایی که به ژن $g_{i}$ نشان می دهد به میزان بیان ژن بستگی دارد. در حالت ایدهآل (یا از نظر بیولوژیکی)، نمیتوانم مطمئن باشم که بیان ژن این ژن (= نقشهبرداری شده) مستقل از (ژن) دیگری است، زیرا ممکن است ژن دیگری بر بیان آن تأثیر گذاشته باشد، اما راهی برای دانستن این موضوع وجود ندارد. از اطلاعاتی که دارم 2. من ژن های دیگری دارم که در آن رویدادهای پرش اگزون رخ می دهد و ژن هایی که در آنها بیش از 1 رویداد پرش اگزون رخ می دهد. آیا می توانم مقادیر p را از توزیع ابر هندسی بدست بیاورم و سپس یک تصحیح آزمایش چندگانه انجام دهم؟ یا تبدیل به یک مشکل _چند متغیری می شود؟ یا این طرز فکر برای این مشکل صدق نمی کند، شاید رویکرد کاملا متفاوتی وجود داشته باشد. | استفاده از توزیع فراهندسی برای پرش از رویدادها در توالی رونوشت |
110346 | من در حال مطالعه مقاله ای در مورد تحلیل توان و محاسبات اندازه نمونه برای دسته ای از مدل ها بودم که به عنوان مدل های بقای طولی مشترک شناخته می شوند. این مقاله یک فرمول فرم بسته را برای محاسبه توان و اندازه نمونه استخراج می کند. مقاله یک مقاله مکرر است به این معنا که مفروضات پارامتریک را فرض می کند و بر اساس آن فرضیات احتمال، تابع امتیاز و ... را می گیرد و در نهایت فرمول را می گیرد. می خواستم بدانم که چگونه آنالیز توان و محاسبات اندازه نمونه در چارچوب بیزی انجام می شود؟ احتمالاً سؤال من یک سؤال ساده لوحانه است، مخصوصاً که من در تجزیه و تحلیل قدرت متخصص نیستم، اما فکر می کنم مهم نیست که چگونه به یک مسئله برخورد کنیم، زمانی که یک فرضیه داریم، تجزیه و تحلیل توان ضروری است. بنابراین، ابتدا می خواستم بپرسم: 1) آیا تحلیل توان در چارچوب بیزی نیز انجام می شود؟ 2) آیا کسی می تواند با مهربانی به برخی از مقالات در مورد تحلیل قدرت از دیدگاه بیزی ارجاع دهد؟ اگر بتوانم یک تحلیل توان برای مشکلات حل شده با رویکردهای غیر پارامتری بیزی پیدا کنم، عالی خواهد بود. خیلی ممنون، | تحلیل قدرت از دیدگاه بیزی |
21885 | من در حال ایجاد برنامه ای برای جمع آوری و تجزیه و تحلیل قیمت کالاها هستم و به کاربر در صورت کاهش قیمت هشدار می دهم تا بتواند آن را در فروش خریداری کند. من آمار کمی را می دانم (مثلاً انحراف معیار) اما به دنبال بهترین راه برای تعیین اینکه آیا کاهش قیمت در مقایسه با قیمت های تاریخی قابل توجه است یا خیر - به عنوان مثال، آیا من باید به خود زحمت بدهم که کاربر را در مورد کاهش قیمت هشدار دهم. مثلاً بگوییم که برنامه من جمع آوری قیمت کتاب است. مثلاً به صورت روزانه یا هفتگی برای قیمت کتاب (چه استفاده شده و چه جدید) وب را جستجو می کند و این داده ها را در یک پایگاه داده ذخیره می کند. من میتوانم نموداری از قیمتها در طول زمان (هر دو پایینترین قیمت، میانگین قیمت، و غیره) تهیه کنم و به صورت بصری تعیین کنم که چه زمانی قیمت به میزان قابل توجهی کاهش مییابد - انجام این کار برای یک فرد آسان است. اما بهترین الگوریتم آماری برای تعیین این چیست؟ من میتوانم به چند مورد فکر کنم که در آن یک فرد وقتی قیمت کاهش مییابد، یک محصول را میخرد: 1. اگر قیمت به زیر یک مانع ثابت خاص کاهش یابد. به عنوان مثال، اگر مشتری تشخیص دهد که محصول را با قیمت کمتر از 15 خریداری می کند، هر زمان که قیمت به کمتر از آن مقدار رسید، باید به او هشدار داده شود. این سناریو مبتنی بر این ایده است که مشتری بر این باور است که قیمت در نهایت در مقطعی در آینده به آن پایین خواهد رسید. 2. اگر قیمت به میزان قابل توجهی از قیمت فعلی افت کرد. این در برخی سناریوها واقعی تر است. به عنوان مثال، اگر کتاب کمیاب و نسبتاً گران قیمتی وجود داشته باشد (مثلاً توسط یک ناشر دانشگاهی فقط با چند هزار نسخه چاپ شده است، همه با جلد گالینگور، که در زمان جدید به قیمت 150 فروخته می شود و فقط چند نسخه در بازار وجود دارد. ) - کتاب ممکن است در زمان فعلی با قیمت متوسط 85 در دسترس (استفاده شده) باشد. قیمت ممکن است هرگز به 15 کاهش پیدا نکند، زیرا عرضه بسیار کم است. با این حال، ممکن است به قیمت بسیار پایینتری (40 یا 50) کاهش یابد، اما مشتری قیمت خاصی ندارد که کتاب را از کجا بخرد. 3. اگر قیمت کتاب بسیار پایین بیاید. یک کتاب ممکن است امروز با قیمت 20 به فروش برسد، اما مشتری ممکن است بخواهد صبر کند و ببیند آیا یک کتابفروش قرار است آن را به قیمت 5 تا 8 به فروش برساند، زیرا آنها در حال حاضر به این کتاب نیاز ندارند - اما این کتاب در لیست آرزوهای آنها است. من به این سناریوی دوم و سوم علاقه دارم. اساساً من میخواهم بتوانم تعیین کنم چه زمانی یک کالا با قیمتی قابل توجه در دسترس است. من تمام قیمت های تاریخی را در یک پایگاه داده ذخیره می کنم و می توانم قیمت های این هفته را با قیمت های تاریخی مقایسه کنم. پیشنهاد شما برای ابزارهای تجزیه و تحلیل آماری که می توان از آنها برای مطالعه این نوع داده ها و ارائه توصیه های خودکار استفاده کرد، چیست؟ | چگونه تعیین کنیم که آیا کاهش قیمت از نظر تاریخی قابل توجه است؟ |
56269 | این یک سؤال کاملاً کلی در مورد مشاهدات در مقابل مدلسازی و چگونگی به دست آوردن مجموعه مدلسازیشدهای است که بهترین تناسب/بازتولید مجموعهای از اشیاء مشاهدهشده را دارد. من مجموعه ای از اشیاء مشاهده شده/اندازه گیری شده دارم که مجموعه $O$ را می نامم. اشیاء $N$ در $O$ ($n_1$، $n_2$، ...، $n_N$) هستند و هر یک با مقادیر پارامترهای $k$ مرتبط خود مشخص میشوند: $O = \\{ n_1 (x_{11},x_{12},...,x_{1k})\,;\, n_2(x_{21},x_{22},...,x_{2k})\,;\, ... \,;\, n_N(x_{N1},x_{N2},..., x_{Nk})\\}$ من یک مدل $M$ دارم که به متغیری ($a$) بستگی دارد که تلاش میکند این مجموعه مشاهدهشده را با تولید اشیاء مصنوعی با همان $k$ بازتولید کند. پارامترها هر بار که مقدار $a$ متفاوتی به مدل می دهم مجموعه جدیدی $M(a)$ متشکل از تعداد معینی شیء مصنوعی/شبیه سازی شده تولید می کنم. من این کار را برای مقادیر $q$ از $a$ انجام میدهم و مجموعههای $q$ را بدست میآورم: $M(a_1) = \\{ m_1(y_{11},y_{12},...,y_{1k}) \,;\, m_2(y_{21},y_{22},...,y_{2k})\,;\, ... \,;\, m_{M_1}(y_{M_11}، y_{M_12}،...، y_{M_1k})\\}$ . . . $M(a_q) = \\{ m_1(y_{11},y_{12},...,y_{1k})\,;\, m_2(y_{21},y_{22},... ,y_{2k})\,;\, ... \,;\, m_{M_q}(y_{M_q1},y_{M_q2},...,y_{M_qk})\\}$ هشدارها: 1- تعداد کل اشیاء تولید شده توسط هر تکرار مدل با مقدار متفاوت $ a$ (یعنی: $M_1$، $M_2$، ...، $M_q$) لزوماً برابر نیستند و حتی بیشتر لزوماً برابر با $N$ نیستند. تعداد اشیاء_مشاهده شده). 2- هیچ مطابقت یک به یک بین اشیاء مشاهده شده و مدل شده در $k-space$ پارامترهای آن وجود ندارد (یعنی: $m_1$ شبیه سازی $n_1$ نیست). این مدل سعی میکند کل مجموعه مشاهدات ($O$) را بازتولید کند، نه هر شی را یک به یک. بنابراین چیزی که من دنبال آن هستم روشی برای به دست آوردن مجموعه _modelled_ $M(a)$ است که **بهترین مناسبت** با مجموعه _observed_ $O$ است. | مدل در مقابل مشاهده، به دست آوردن تناسب بهینه |
96702 | من دو کتاب درسی را در مورد EFA بررسی کرده ام، یکی کار اصلی گورسوچ (1974، تحلیل عاملی) و دیگری تحلیل عاملی اکتشافی و تاییدی نوشته تامپسون (2004). هر دو قبل از انتخاب **روش استخراج عامل** در توالی تصمیم گیری EFA، **تعیین تعداد عوامل** را که باید استخراج شوند به عنوان مرحله ای توصیف کردند. اما من تعجب می کنم که همه معیارها برای تعیین تعداد عوامل (مثلاً معیار قیصر، آزمون Scree و غیره) نیاز به نوعی استخراج عامل دارند که قبلاً انجام شود. پس آیا این نویسندگان اشتباه می کنند؟ یا چیزی را از دست داده ام؟ | محل تعیین تعداد عوامل در توالی تصمیم گیری EFA |
97252 | من برای استنباط آزمونهای فرضیههای آماری انجامشده در زانتلاسماتا، آرکوس قرنیه و بیماری عروقی ایسکمیک و مرگ در جمعیت عمومی به کمک نیاز دارم: مطالعه کوهورت آیندهنگر، BMJ. 2011 (اینجا را ببینید). مشکل مقاله این است که بخشی از **تحلیل آماری** در مورد برخی آزمون ها و فرضیه هایی صحبت می کند که محققان از آنها استفاده می کنند، اما از طرف دیگر آنها به هیچ وجه آن ها را تجزیه و تحلیل نکرده اند. من سعی می کنم بفهمم چرا آنها از این روش ها استفاده می کنند و این روند چگونه پیش می رود. ممکن است لطفاً نکاتی را به من ارائه دهید؟ به نظر شما تحقیق فوق چگونه سازماندهی شده است؟ به عنوان مثال: محققان از چه روشهایی برای آزمون فرضیه استفاده میکنند؟ _(پاسخ خود را توجیه کنید)_ چه نوع داده هایی باید در هر مطالعه بالا جمع آوری و استفاده شود؟ به نظر شما نتیجه ای که از اعمال هر یک از این روش ها به دست می آید چیست؟ | استنباط آزمون های آماری انجام شده در یک مقاله |
61878 | من دانش کمی از آمار دارم و به این فکر می کردم که از چه آزمایش هایی برای یک پروژه مبتنی بر شواهد (نه تحقیق، بنابراین از گروه کنترل استفاده نمی کنم) که دارم استفاده کنم. * پس از مداخله آموزشی دانشآموز، از چه آزمون آماری برای آزمونهای قبل و بعد دانش استفاده کنم؟ * همچنین، آیا نتایج آزمون عددی داده های بازه ای در نظر گرفته می شود و آیا من به دنبال تفاوت میانگین بین آزمون های قبل و بعد از دانش هستم؟ من همچنین نمرات قبل و بعد از اطمینان دارم که یک مقدار منفی دارد: 0: موافق نیستم و دو مقدار مثبت: 1: تا حدودی موافقم و 2: کاملاً موافقم. از چه آزمون آماری برای بررسی اطمینان استفاده کنم؟ آیا این دادههای ترتیبی است و آیا من دوباره به دنبال تفاوت میانگین بین نظرسنجیهای قبل و بعد از اطمینان هستم؟ | تجزیه و تحلیل اندازه گیری های قبل و بعد از مداخله بدون گروه کنترل |
61301 | من در حال انجام تجزیه و تحلیل نرخ بستری مجدد برای یک واحد بیمارستانی بین سالهای 2009 و 2012 هستم. فهرستی از دادههای «تاریخی» دارم که در آن بیماران مداخله انجام ندادهاند. سپس من مجموعه متفاوتی از بیماران دارم که مداخله را انجام دادند. سوال من این است که آیا در نظر گرفتن مجموعه داده های تاریخی به عنوان یک گروه مقایسه در تحلیل کافی است؟ در حالت ایدهآل، من یک گروه مقایسه مشابه (غیر معادل) میخواهم که مداخله را دریافت نکرده و پس از شروع مداخله دنبال شود، اما من معتقدم که این در دسترس نیست (از صحبت با مدیران دادهها). همچنین داشتن چندین گروه پایه، اعتماد من به مداخله را افزایش می دهد که بر تغییر در بستری مجدد تأثیر می گذارد. اگر این داده ها را نداشته باشم، آیا استفاده از گروه پایه تکی هنوز مشکلی ندارد؟ با تشکر از کمک شما. | گروه کنترل سری زمانی منقطع |
25165 | من یک مجموعه داده پانل نامتعادل از 40 شهر و 20 سال دارم. نامتعادل است زیرا داده ها برای شهرهای خاصی برای هر سال جمع آوری نمی شوند. سپس داده ها پس از این 20 سال متعادل می شوند. فرض کنید دورههای زمانی 1960 تا 1979 و سپس 1980 تا 1999 باشد. من میخواهم دادههای سال 1979 را با دادههای سال 1980 مقایسه کنم، اما انجام این کار تا حدودی دشوار است زیرا دادههای سال 1979 مشاهدات گمشدهای دارند. چگونه این کار را انجام دهم؟ آیا باید پیش بینی کنم که اگر داده ها با استفاده از داده های نامتعادل متعادل شده بودند، داده های سال های 1960 تا 1979 چه می شد؟ سپس پیشبینی دادهها، دادههای 1979 را متعادل میکند تا بتوانم دادههای سال 1979 را با سال 1980 مقایسه کنم. نگرانی من این است که پیشبینی دادههای سال 1979 با استفاده از دادههای 1960-1979 ممکن است باعث شود که این سری ذاتاً با دادههای 1980 پیوسته نباشد. | تنظیم داده ها برای مشاهدات گمشده |
28879 | من به دنبال چند کتابخانه در R هستم که می توانند یادگیری افزایشی (که به آن یادگیری آنلاین یا متوالی نیز گفته می شود) انجام دهند. مورد استفاده از چنین یادگیری در مقایسه با روش های دسته ای سنتی، پردازش مقادیر زیادی از داده ها خواهد بود. چنین شیوههایی شامل جریانها و دادههای حسگرها میشود، که در آنها نمیتوان همیشه از همان مدل استفاده کرد یا هر بار مدل را از ابتدا بازسازی کرد. هر الگوریتم یادگیری ماشینی که بتواند تنها از یک مثال جدید برای تغییر مدل استفاده کند، کافی است. با این حال، خود مدل نباید روی دادههای قدیمی نگه داشته شود (همانطور که میتوانید تصور کنید به زودی خیلی بزرگ میشود)، در عوض فقط مقداری آمار در مورد دادهها را محاسبه میکند. برای رگرسیون چند متغیره، رویکرد آنلاین مانند نزول گرادیان استوکاستیک گزینه خوبی خواهد بود. برای درختان رگرسیون / مدل چیزی شبیه به این مقاله به ذهن می رسد. من به دنبال چنین کتابخانهای هستم که در آن دقت **پیشبینی** نسبتاً خوبی (با توجه به روشهای دستهای سنتی) بر اساس مدل در حال تکامل قابل دستیابی باشد. | روش های یادگیری افزایشی در ر |
57132 | من از «glm» برای پیدا کردن مدلی با استفاده از دادههای آموزشی استفاده میکنم و سپس از دادههای آزمایشی استفاده میکنم تا ببینم مدل چقدر خوب رفتار میکند. متغیر پاسخ من عددی است. در زیر یک نمونه اسباب بازی است که مراحل انجام شده توسط من را نشان می دهد: خلاصه کتابخانه(ماشین)(Prestige) head(Prestige) testidx <- which(1:nrow(Prestige)%%4==0) prestige_train <- Prestige[- testidx,] prestige_test <- Prestige[testidx,] model <- glm(prestige~., data=prestige_train) # از مدل برای پیشبینی خروجی پیشبینی دادههای آزمون استفاده کنید <- predict(model, newdata=prestige_test) # همبستگی را با نتیجه واقعی بررسی کنید cor(prediction, prestige_test$prestige) سؤال من این است: 1. غیر از «cor»، از چه آمار دیگری (توابع R) می توانم برای دانستن خوبی تناسب استفاده کنم؟ 2. چگونه می توانم این تناسب را به صورت گرافیکی در R نشان دهم؟ با تشکر | چگونه ببینم مدل من چقدر خوب است؟ |
68508 | من سعی می کنم از شبکه عصبی برای یادگیری یک تابع غیر خطی ورودی نگاشت به خروجی ها استفاده کنم. با این حال، من مشکلاتی با آن دارم. من از تابع فعال سازی tansig برای لایه های مخفی و برای خروجی از logsig استفاده کردم. من متغیرهای خروجی را در محدوده [0 1] مقیاس کردم. متغیرهای ورودی با میانگین صفر و واحد std استاندارد شدند. من شبکه عصبی را یاد می گیرم. اکنون وقتی مدل NN خود را بر روی مجموعه قطار یا مجموعه آزمایش دیگری آزمایش می کنم، خروجی ها همیشه بزرگتر از 0.5 هستند. چرا اینطور است؟ اهداف من می تواند از 0 تا 1 باشد. با این حال، خروجی های من از مدل حداقل 0.5 است. پیشنهادی دارید که چه اتفاقی می توانست بیفتد؟ من حدود 600 ویژگی با 5000 نمونه آموزشی و 10 نورون در لایه پنهان و یک خروجی دارم! برای لایه های پنهان و یک تابع فعال سازی خطی برای لایه های خروجی و من موارد زیر را دریافت کردم. این تا حدودی بهتر از قبل است. با این حال، من کمی تعجب کردم که چرا سوگیری معرفی شده است | مشکلات پیاده سازی شبکه عصبی |
93953 | برخی تحقیقات نشان می دهد که سیاستمداران زن نسبت به سیاستمداران مرد پلتفرم موضوعی متنوع تری را مطرح می کنند - به این معنی که آنها در مورد موضوعات متنوع تری نسبت به مردان بحث می کنند. من می خواهم ببینم آیا این در مطالعه من رخ می دهد یا خیر. من تجزیه و تحلیل محتوای توییتهای نامزدها را انجام دادم و از این درصدها برای ایجاد نمودارهای نواری 100% انباشته استفاده کردم که در اینجا پیوند دارند. بخش نسبتاً برجستهتر سیاهپوست میله مردان جمهوریخواه نشان میدهد که آنها اکثریت قریب به اتفاق بحثهای زنانه خود را به یک موضوع اختصاص دادهاند: مراقبتهای بهداشتی. بنابراین بحث در مورد مسائل زنانه آنها نسبتاً متمرکزتر بود. متناوبا، بحث در مورد مسائل زنانه حزبی زنان به ظاهر متنوعتر بود. مسئله من این است که نمی دانم چگونه به صورت استاتیک آزمایش کنم که آیا این تفاوت ها در نمودار میله ای قابل توجه هستند یا خیر. من به دنبال آزمونی هستم که توزیع نسبتها را با هم مقایسه کند تا بتوانم از نظر آماری بگویم که آیا زنان نسبت به مردان جمهوریخواه بحثهای متنوعتری را مطرح میکنند. پیشاپیش متشکرم | مقایسه توزیع نسبت ها |
61875 | من می خواهم چندین رابطه احتمالی هم انباشتگی را با آزمون همجمعی یوهانسن آزمایش کنم. من در حال حاضر از بسته urca در R با تست ca.jo استفاده می کنم. من قصد داشتم از تصحیح Bonferroni برای اصلاح میزان خطای خانوادگی استفاده کنم. با این حال، ca.jo مقادیر p را گزارش نمی کند. این فقط آمار تست و مقادیر بحرانی را گزارش می دهد: ###################### # Johansen-Procedure # ################ ######## نوع آزمون: آماره مقدار ویژه حداکثر (لامبدا حداکثر)، با روند خطی مقادیر ویژه (لامبدا): [1] 0.335639191 0.001256000 مقادیر آزمون آماری و مقادیر بحرانی آزمون: تست 10pct 5pct 1pct r <= 1 | 1.26 6.50 8.18 11.65 r = 0 | 408.52 12.91 14.90 19.19 [خروجی ca.jo بیشتر برداشته شد] چگونه می توانم هنگام انجام آزمایش های چندگانه هم انباشتگی، رد نادرست null را تصحیح کنم؟ | چگونه می توانم یک تصحیح میزان خطای خانوادگی برای آزمون های همجمعی جوهانسن انجام دهم؟ |
38995 | من یک طرح بلوک کاملا تصادفی با سه تیمار و چهار تکرار دریافت کردم. تنوع زیستی در چهار سال متوالی اندازه گیری شد. من فکر کردم که یک مدل ترکیبی با اندازهگیریهای مکرر به عنوان عبارتهای تصادفی باید برای تحلیل این طرح مناسب باشد. فرضیه من این است که با در نظر گرفتن همه سال ها، تنوع زیستی بین تیمارها متفاوت است. این تحلیل من است: library(nlme) library(multcomp) # Mydata مجموعه داده تصادفی ساخته شده <- data.frame( Treatment=rep(c(Control, Irrigation, Fertailization), 16), Block= rep(1:4، 12)، Year=rep(2000:2003، 12)، Value=runif(48، 0.5، 1.5) ) # درمان مدل یک اثر ثابت است، سال یک اثر تصادفی مناسب است <- lme(Value ~ Treatment, random = ~1|Year, data = mydata) # خلاصه مقایسه پس از آن (glht(fit,linfct=mcp (Treatment=Tukey))) سوالات من: 1. آیا مدل من درست است؟ 2. آیا مقایسه پس از آن مناسب است؟ 3. چگونه می توانم افکت bock را در آن لحاظ کنم؟ * * * اگر درست متوجه شدم، سال باید در Block تودرتو باشد - بنابراین مدل صحیح به این صورت کدگذاری می شود: fit <- lme(Value ~ Treatment, random = ~1|Block/Year, data = mydata) به نظر می رسد یک روند زمانی خطی در داده ها وجود دارد. چگونه می توانم این را در مدل حساب کنم؟ | استفاده از lme برای تجزیه و تحلیل یک طرح بلوک تصادفی کامل با اندازه گیری های مکرر: آیا مدل من درست است؟ |
25163 | اگر $n$ نمونه وجود دارد $X_1 \leq X_2 \leq ... \leq X_n$ از توزیع یکنواخت پیوسته با pdf $f(x)=\frac{1}{\theta},0\leq x \leq \theta$، پس به خوبی شناخته شده است که MLE برای $\theta$ $\hat{\theta}=X_n$ است. با این حال، اگر از bootstrap برای تخمین فاصله اطمینان $\hat{\theta}=X_n$ استفاده شود، می بینیم که فاصله اطمینان چیزی شبیه $[aX_n,X_n]، 0<a <1$ خواهد بود. من نمیپرسم آیا روش مونت کارلو وجود دارد که بتواند فاصله اطمینان معقولتری را ارائه دهد، شاید چیزی شبیه به $[X_n, bX_n]، b>1$؟ | یک روش فاصله اطمینان مونت کارلو برای حداکثر توزیع یکنواخت؟ |
96708 | من در مورد تخمین چگالی هسته مطالعه می کنم و از ویکی پدیا این فرمول را دریافت می کنم: $$\hat{f}_h(x, h) = \frac{1}{n}\sum^{n}_{i=1} K_h(x-x_i) = \frac{1}{nh}\sum_{i=1}^nK(\frac{x-x_i}{h}).$$ فکر میکنم این مقدار را دارم ایده اصلی این فرمول، اما عبارت هموارسازی $h$ چیزی است که من را آزار می دهد. اگر تابع هسته من گاوسی بود: $$K(u)=\frac{1}{\sqrt{2\pi}}e^{-\frac{1}{2}u^2}$$ میگرفتم برآوردگر من باشد: $$\hat{f}_h(x, h) = \frac{1}{nh\sqrt{2\pi}}\sum_{i=1}^n e^{-\frac{1}{2}u^2},$$ where $\displaystyle u = \frac{x-x_i}{h}.$ چرا عبارت $h$ در این فرمول است؟ کارکرد آن چیست؟ چرا مجموع را بر $h$ و غیره تقسیم می کنیم. کسی می تواند این را کمی توضیح دهد؟ | توضیح تابع برآوردگر چگالی هسته مورد نیاز است |
109789 | من یک رگرسیون گام به گام روی R انجام داده ام. با این حال، خلاصه مدل نهایی شامل عواملی است که معنی دار نیستند. چرا این عوامل حذف نشده اند؟ آیا باید اینها را از مدل خود حذف کنم؟ VIF این فاکتورها همگی زیر 5 است. | عوامل غیر معنادار پس از رگرسیون گام به گام |
69658 | مشکل من شبیه این است اما به دنبال راه حل متفاوتی هستم: (پس اگر باید ادغام شود فقط به من اطلاع دهید). اندازه گیری آنچه در کاهش ابعاد PCA از دست رفته است؟ در برنامه من یک ماتریس همبستگی با بعد 30 داریم که بر اساس آن یک تجزیه و تحلیل PCA انجام می دهیم و سه بردار ویژه اول را بر این اساس حفظ می کنیم که معمولاً 90+٪ از تغییرات را شامل می شوند. با این حال این موضوع همیشه به نظر من کمی دلبخواهانه بوده است، میخواهم آزمایش کنم که آیا این بردارهای ویژه کوچکتر واقعاً حاوی یک سیگنال هستند نه نویز سفید. گمان میکنم یک روش بسیار ساده این است که دادهها را تقسیم کنیم و ببینیم آیا این بردارهای ویژه کوچکتر شکل مشابهی دارند یا خیر، اما من میخواهم روش علمی قویتری برای آزمایش این فرضیه پیدا کنم. | آزمایش اینکه آیا مقادیر ویژه کوچک سیگنال تولید می کنند یا خیر |
69654 | من یک مدل «GLS» چندگانه را با سری های زمانی به عنوان پاسخ و متغیرهای توضیحی برازش می کنم. من قبلاً فصلی بودن و روندها را با استفاده از `` حذف کردم. من متوجه شدم که ساختار همبستگی باقیمانده ها AR(3) است، بنابراین همبستگی خودکار را به طور کامل از باقیمانده ها حذف کردم. ضریب متغیرهای توضیحی که در نهایت در مدل باقی ماندند، همگی با صفر متفاوت هستند (p-values <0.01). سوال من این است که چگونه باید ضریب را با توجه به اینکه مدل را با متغیرهای تبدیل شده برازش می کنم تفسیر کنم؟ چگونه باید ضرایب مثبت و منفی را تفسیر کنم؟ متغیرهای من در مرکز صفر با مقادیر مثبت و منفی هستند، بنابراین، برای مثال، اگر ضریب من منفی و مقدار متغیر توضیحی من منفی باشد، متغیر پاسخ مثبت خواهد بود. آیا باید این را به عنوان یک اثر مثبت تفسیر کنم؟ یا اگر ضریب من مثبت باشد باید آن را برعکس تفسیر کنم؟ آیا راهی برای ترجمه تفسیر بر حسب مقیاس واقعی متغیرها وجود دارد؟ هر گونه کمکی قدردانی خواهد شد | تفسیر ضرایب منفی GLS (فصلی حذف شد) |
63436 | من گاهی مجبور می شوم وزنه های هوبر را از یک رگرسیون قوی بردارم و از آنها در یک lm استفاده کنم. اخیراً مجبور شده ام کاری مشابه برای یک مدل لجستیک انجام دهم، اما کمی نگران هستم، زیرا نتایج بسیار مشابه کتابخانه (robustbase) داده (vaso) ROB <- glmrob (Y ~Volume+Rate, Family=Ditomial) (logit)، data=vaso) ROB glm(Y ~Volume+Rate,data=vaso,family=binomial(logit)) glm(Y ~Volume+Rate,data=vaso,weights=ROB$w.r,family=binomial(logit)) ضرایب از وزن شده glm شباهت بیشتری به رگرسیون قوی دارد تا glm بدون وزن، اما آیا راهی وجود دارد که آنها را همان؟ من می توانم همان نتایج را با یک lm قوی (rlm) و وزن دار بدست بیاورم، اما به نظر می رسد این مورد در مورد glm نیست. من به رگرسیون glm robust با جزئیات نگاه نکرده ام، بنابراین ممکن است چیزی که می خواهم غیرممکن باشد... از کمک شما متشکرم | همپوشانی بین glm قوی و glm وزنی در R |
97258 | من سعی می کنم یک نمودار ROC ایده آل را همانطور که توسط نظریه تشخیص سیگنال پیش بینی شده است ترسیم کنم. در اینجا فرمول هایی که من سعی می کنم ترسیم کنم وجود دارد: hi = Φ((d′−ci)/σ) (3) fi = Φ(-ci) (4)  که d′ و σ میانگین و انحراف استاندارد قدرت برای آیتم های قدیمی، و ci معیاری برای شرط i است. تابع Φ توزیع تجمعی است. با جایگزینی (4) به (3) 'hi = Φ([d' + Φ^−1(fi)]/σ می شود.' **توضیح:** فرمول های بالا از مقاله زیر هستند http://pcl .missouri.edu/sites/default/files/p_6.pdf در صفحه 6. من انتظار دارم که یک نمودار ROC مانند شکل 1D (صفحه 39 از pdf) دریافت کنم. کد R من تا آنجا که به نظر می رسد به صورت زیر است: c_i <- seq(0, 1, 0.001) sigma <- 1.2 d <- 3 f_i <- pnorm(-c_i) h_i <- pnorm((d+qnorm(f_i))/ sigma) plot(c_i، h_i، xlim=c(0،1)، ylim=c(0,1)) متأسفانه این نتایج درستی نمی دهد. چه چیزی را از دست داده ام؟ خیلی ممنونم! | رسم نمودار ROC برای SDT در R |
61873 | چگونه می توانم از اطلاعاتی که اطمینان آن نمونه آموزشی را نشان می دهد استفاده کنم؟ یعنی ما یک اطلاعات اضافی برای مجموعه آموزشی در مورد اطمینان برچسب های کلاس داریم. | چگونه می توانم در پس انتشار MLP آموزش ببینم اگر برچسب های کلاس آموزشی با نرخ اطمینان آنها ارائه شود؟ |
61874 | دو بردار مختلط تصادفی مستقل (با قسمتهای واقعی و خیالی) را فرض کنید: $$ \vec{\dot{Z}}=(\dot{z}_1,\dot{z}_2,\ldots,\dot{z}_n )~~~~~~~~~~~ \begin{cases} \Re(\dot{z}_i)&=x_i \\\ \Im(\dot{z}_i)&=y_i \end{cases}\\\ \text{and} \\\ \vec{\dot{\zeta}}=(\dot{\zeta}_1,\ نقطه{\zeta}_2،\ldots،\dot{\zeta}_n)~~~~~~~~~~ \begin{موارد} \Re(\dot{\zeta}_i)&=\xi_i \\\ \Im(\dot{\zeta}_i)&=\eta_i \end{cases} $$ را میتوان بهعنوان مؤلفههای مربعی برخی از سیگنالهای واقعی مشاهده کرد. . اجازه دهید آنها توسط توزیعهای نرمال پیچیده چند متغیره کنترل شوند. },\, C_{z})$, $\vec{\dot{\zeta}}\sim\ \mathcal{CN}(\vec{\dot{\mu}}_{\zeta},\, \Gamma_{\zeta},\, C_{\zeta})$ با میانگین بردار $\vec{\dot{ \mu}}$، ماتریس کوواریانس $\Gamma$، و ماتریس رابطه $C$. اجازه دهید متغیر $\varphi$ را به عنوان آرگومان حاصلضرب اسکالر بین $\vec{\dot{Z}}$ و مزدوج پیچیده $\vec{\dot{\zeta}}$، یعنی $$\varphi تشکیل دهم. =\arg(\vec{\dot{Z}}\\!.\\!\vec{\dot{\zeta^*}})$$ کجا $\cdot^*$ یک عملگر انتقال مزدوج است. **می خواهم بدانم آیا راهی برای یافتن توزیع $\varphi$ وجود دارد؟ یا حتی قدر مطلق آن $|\varphi|$?** تا به حال راه حل آن مشکل را در کتاب های درسی یا مقالات علمی در دسترسم ندیده ام. سعی کردم به آن به عنوان بخشی از فرم دوخطی نگاه کنم و A.M. متای و اس.بی. اشکال درجه دوم در متغیرهای تصادفی: تئوری و کاربردها را ارائه کرد، اما شکست خورد زیرا 1. عمدتاً با اشکال درجه دوم سروکار دارد، 2. صادقانه بگویم من در آن نوع تبدیل آنقدرها خوب نیستم. با این حال، مقالات علمی مشابهی وجود دارد، اما همه آنها دوباره به اشکال درجه دوم می پردازند و معمولا مسئله را ساده می کنند (میانگین صفر یا ماتریس رابطه صفر و غیره). بنابراین هر کمکی بسیار قدردانی خواهد شد. | توزیع حاصل ضرب اسکالر بردارهای نرمال پیچیده چند متغیره |
107456 | ماتریس همبستگی نشان میدهد که برخی از پیشبینیکنندههای من همبستگی دارند (پیرسون، 0،288 0،492 و 0،360). آیا می توانم به سادگی یک رگرسیون خطی برای همه افراد مستقل اجرا کنم و از R2 برای محاسبه VIF استفاده کنم؟ (VIF = 1/(1-R2). برخی از این پیش بینی ها عواملی هستند که اسمی هستند. استفاده از آنها در رگرسیون خطی به عنوان وابسته اشتباه به نظر می رسد. | چگونه می توان مقادیر VIF را برای پیش بینی کننده های مستقل مورد استفاده در یک مدل خطی تعمیم یافته پواسون لاگ خطی به دست آورد؟ |
21265 | من در حال حاضر مشغول ساخت یک مدل با استفاده از رگرسیون خطی چندگانه هستم. پس از سر و کله زدن با مدل خود، مطمئن نیستم که چگونه می توانم به بهترین نحو تعیین کنم که کدام متغیرها را نگه دارم و کدام را حذف کنم. مدل من با 10 پیش بینی کننده برای DV شروع شد. هنگام استفاده از هر 10 پیش بینی، چهار پیش بینی معنی دار در نظر گرفته شدند. اگر فقط برخی از پیشبینیکنندههای بدیهی نادرست را حذف کنم، برخی از پیشبینیکنندههای من که در ابتدا مهم نبودند، مهم میشوند. که من را به سوال من سوق می دهد: ** چگونه می توان تعیین کرد که کدام پیش بینی کننده ها را در مدل خود بگنجانند؟ ** به نظر من باید مدل را یک بار با همه پیش بینی کننده ها اجرا کنید، آنهایی را که مهم نیستند حذف کنید و سپس دوباره اجرا کنید. اما اگر حذف تنها برخی از آن پیشبینیکنندهها باعث مهم شدن برخی دیگر شود، در این فکر میمانم که آیا رویکرد اشتباهی برای همه این موارد اتخاذ میکنم. من معتقدم که این تاپیک مشابه سوال من است، اما مطمئن نیستم که بحث را درست تفسیر کنم. شاید این بیشتر یک موضوع طراحی آزمایشی باشد، اما شاید کسی تجربه ای داشته باشد که بتواند به اشتراک بگذارد. | انتخاب متغیرها برای گنجاندن در یک مدل رگرسیون خطی چندگانه |
105745 | حداکثر X_1 $،\dots،X_n. \sim$ i.i.d. طبق نظریه ارزش افراطی، استانداردهای نرمال به توزیع استاندارد گامبل همگرا می شوند. _چگونه می توانیم آن را نشان دهیم؟_ ما داریم $$P(\max X_i \leq x) = P(X_1 \leq x, \dots, X_n \leq x) = P(X_1 \leq x) \cdots P(X_n \ leq x) = F(x)^n $$ ما باید دنبالههایی از ثابتها را پیدا کنیم/انتخاب کنیم: $$\Phi\left(a_n x+b_n\right)^n\rightarrow^{n\rightarrow\infty} G(x) = e^{-\exp(-x)}$$ آیا می توانید آن را حل کنید یا پیدا کنید آن را در ادبیات؟ چند نمونه pg.6/71 وجود دارد، اما نه برای مورد عادی. $$\Phi\left(a_n x+b_n\right)^n=\left(\frac{1}{\sqrt{2\pi}}\int_{-\infty}^{a_n x+b_n} e^ {-\frac{y^2}{2}}dy\right)^n\rightarrow e^{-\exp(-x)}$$ | نظریه ارزش افراطی - نمایش: نرمال تا گامبل |
61876 | معمولاً در درختهای تصمیم چند متغیره، میتوانیم از تمام ویژگیها در یک گره داخلی استفاده کنیم. درخت دو متغیره موردی است که ما مجاز به استفاده از هر دو ویژگی در یک گره داخلی هستیم. شکاف ها در چنین درختی چگونه به نظر می رسند؟ چگونه می توان به تقسیم دست یافت؟ | شکاف ها در درخت های تصمیم دو متغیره چگونه به نظر می رسند؟ |
56268 | من معمولاً دقت و فراخوانی را برای اطلاعات استخراج شده از متن محاسبه می کنم، اما مطمئن نیستم که چگونه حاشیه خطا را برای آن مقادیر دقت و یادآوری محاسبه کنم. به عنوان مثال، اگر من یک نمونه از 1000 نام داده شده از یک مقدار ناشناخته داده داشته باشم. هدف من این است که جنسیت هر نام را مشخص کنم. سیستم من جادوی خود را انجام می دهد و می توانم تعیین کنم که جنسیت را با دقت 90 درصد و یادآوری 90 درصد تعیین می کنم. چگونه می توانم حاشیه خطا را برای دقت و فراخوانی محاسبه کنم، با توجه به اینکه مقادیری که محاسبه کرده ام بیش از نمونه ای از داده ها هستند؟ من فرمولی برای حداکثر حاشیه خطا در http://www.had2know.com/business/compute-margin-of-error.html پیدا کرده ام، اما به نظر نمی رسد که واقعاً در چنین شرایطی کاربرد داشته باشد. . (توجه: من همچنین این سوال را در Linguists Stack Exchange پرسیده ام و به اینجا هدایت شده است. محاسبه حاشیه خطا برای دقت و یادآوری) | محاسبه حاشیه خطا برای دقت و فراخوانی |
53304 | پاسخ به احتمال P(X > Y) داده شده X ~ Be(a1, b1) و Y~ Be(a2, b2) و X و Y مستقل هستند؟ یک راه حل تحلیلی برای این موضوع ارائه می دهد، اما اگر کسی بخواهد کمی دقت را از دست بدهد، آیا بیان محاسباتی کمتری وجود دارد؟ اگر کمک می کند عدد صحیح a و b را فرض کنید. | تقریب تحلیلی احتمال بزرگتر بودن یک متغیر بتا از دیگری؟ |
69655 | در تلاش برای پیاده سازی Mixture Markov Model، (به سوال اینجا مراجعه کنید)، من موارد شدید دارم (به عنوان مثال 0 در ماتریس احتمال انتقال). من این را با جایگزین کردن 0 با 1e-17 نزدیک کردم. با این حال، من معتقدم که چنین تقریبی ممکن است الگوریتم را به هم بزند، زیرا در مراحل بعدی من شروع به دیدن مقادیر حتی کوچکتر با قدر زیاد میکنم (مثلاً پشتیهای شرطی در مرحله E گاهی اوقات قدر 1e-321 هستند). این از فرمول احتمال حاصل می شود، که احتمالات گرفته شده به توان تعداد وقوع چنین انتقال هایی را در هر دنباله ضرب می کند. با مدل مخلوط مارکوف، من سعی می کنم تعدادی از دنباله ها را خوشه بندی کنم، که برخی از آنها ممکن است بسیار طولانی باشند (تا چند صد انتقال). این همچنین برخی موارد افراطی را ایجاد می کند (مانند احتمالات انتقال بسیار کوچک برای برخی از حالت ها برای برخی دنباله ها، اگر 0 نباشد، 1e-20 یا چیزی مشابه). از آنجایی که من قبلاً فرض می کنم که 1e-17 تقریبی 0 است، هر مقداری که کمتر از این باشد، بی معنی خواهد بود. با این حال، کار با 0 غیرممکن است، زیرا مقدار احتمال ورود به سیستم MAP -Inf (=log(0)) خواهد بود. آیا تکنیک تقریبی وجود دارد که برای چنین مواردی استفاده شود؟ بهترین راه برای تقریبی 0 چیست؟ من در R کار می کنم و برای دقت R محدودیتی وجود دارد (حدوداً 1e-400..). من واقعا در ضرر هستم. | چگونه 0 را در ماتریس احتمال انتقال بدون از دست دادن کلیت تقریب کنیم؟ |
21263 | من با آمار بیزی تازه کار هستم، و بنابراین برای یافتن راه حلی برای مشکل زیر مشکل دارم: با استفاده از محاسبات بیزی تقریبی (ABC)، یک توزیع پسینی از یک مجموعه آمار خلاصه مشاهده شده و مجموعه ای از حدود یک میلیون ایجاد می کنم. آمار خلاصه شبیه سازی شده توزیع قبلی مقدار متغیر پارامتر مدل مورد استفاده در شبیه سازی است. توزیع پسین برای به دست آوردن تخمین نقطه ای (به عنوان مثال، حالت، میانگین و غیره) پارامتر مدل اساسی استفاده می شود. مشکل بیولوژیکی که من روی آن کار می کنم این است که مقدار واقعی پارامتر را نمی توان تنها با یک مشاهده تخمین زد. از این رو، من N مجموعه دادههای مشاهدهشده دارم و N توزیع پسین را به دست میآورم. در ABC، من از همان داده های شبیه سازی شده برای هر مجموعه داده مشاهده استفاده می کنم. اکنون، مشکل من این است که N توزیع های پسین را به گونه ای ترکیب کنم تا مقدار پارامتر واقعی را تخمین بزنم، بنابراین اطلاعات موجود در تمام N تراکم ها را به دست آوریم. هر ایده ای؟ | ترکیب چند توزیع خلفی |
63431 | فرض کنید من یک مجموعه ثابت از داده ها حاوی یک متغیر دارم. من علاقه مندم که آیا متغیر تفاوت بین دو شرط را نشان می دهد یا خیر. اکنون یک آزمایش انجام می دهم و مقدار p را در جایی بالاتر از آلفای مورد نظر خود تعیین می کنم. از آنجا که ناامید شدهام، چندین گزینه مختلف از آزمونها را برای یک فرضیه تکرار میکنم و متوجه میشوم که یک آزمون مقدار p زیر آلفای من را نشان میدهد. به نظر می رسد که این نوعی اکسپدیشن ماهیگیری است، اما نه از آن نوعی که تصحیح بونفرونی قرار است رفع کند: من همیشه در حال آزمایش همان فرضیه هستم. با این حال، به نوعی احساس درونی من به من می گوید که این حالت ماهی است. چه چیزی در اینجا به طور کلی مناسب در نظر گرفته می شود؟ آیا ماهیگیری و گزارش آن در کاغذ؟ با اولین p-value بروید؟ میانگین p را محاسبه کنید؟ | پیامدهای آزمایش چندگانه برای تجزیه و تحلیل |
105742 | به من یک مجموعه داده داده شد تا با دو عامل زمان و درمان و یک متغیر وابسته پیوسته تجزیه و تحلیل کنم. از آنجایی که افراد یکسان چندین بار اندازهگیری شدند، از نظر فنی احتمالاً میتوان آن را بهعنوان اندازهگیریهای مکرر انجام داد، اما مقادیر اندازهگیری شده به من قبلاً میانگین اندازهگیریهای متعدد را نشان میدهد، و مطمئن نیستم که آیا پیچیدگی اضافی رویکرد اندازهگیریهای مکرر وجود دارد یا خیر. ارزش پیگیری دارد داده ها نامتعادل هستند، بنابراین من یک ANOVA دو طرفه را با استفاده از type II که در Anova() در Car for R پیاده سازی شده است، انجام داده ام. برای هر مقایسه درمان ها، در هر نقطه زمانی. Graphpad Prism این را به عنوان مقایسه ای از درمان ها به عنوان سرفصل جدول (درمان 1 در مقابل درمان 2) به همراه فهرستی از نقاط زمانی با آمار t و مقادیر p نشان می دهد، بنابراین واضح است که چندین آزمون t را انجام می دهد. من این را با آزمایش یک سری ANOVA یک طرفه برای مقادیر در یک نقطه زمانی معین، و همچنین تلاش pairwise.t.test() پیادهسازی کردهام. با کمال تعجب، من نمیتوانستم مقادیر p را که Prism برای این «پسآزمونها» خروجی داشت، تکرار کنم، حتی وقتی از همان روش تنظیم p-value (بونفرونی) استفاده میکردم، و اگرچه همان p-value را برای اصلی دریافت کرده بودم. اثرات ANOVA دو طرفه توافق با Prism به کنار، در اینجا سؤالات من وجود دارد - آیا دلیل قانع کننده ای برای استفاده از رویکرد اندازه گیری های مکرر با این داده ها وجود دارد؟ * راه مناسبی برای یافتن اهمیت نقاط زمانی برای هر مقایسه درمان ها چیست؟ * آیا مدل من برای این داده ها مناسب است؟ (به مدل در کد زیر مراجعه کنید) یک مجموعه داده نمونه کوچک در زیر گنجانده شده است- داده های واقعی دارای سطوح بیشتری برای هر عامل و تکرارهای بیشتری در هر ترکیب از عوامل هستند. testData <- data.frame(time = c(rep(2 ماه، 10)، تکرار (4 ماه، 8))، treat = rep(c(rep(treat1، 3)، rep(treat2 ، 2)، rep(treat3، 2)، rep(notreat2))، 2)، مقدار = نمونه (1:12، 18، جایگزین = TRUE) ) خلاصه (aov(مقدار ~ درمان*زمان، داده = دادههای آزمایش)) # اگر تعامل معنیدار نباشد Anova(lm(مقدار ~ درمان + زمان، داده = آزمون داده، تضادها = فهرست (درمان = مجموع، زمان = کنترل. مجموع))، نوع = II) من R را به عنوان یک زبان خوب می دانم، اما با فرضیات بی شماری که در انواع آزمون ها و رویکردهای مدل سازی وجود دارد به اندازه کافی آشنا نیستم... با تشکر از کمک شما | ANOVA و یافتن تفاوت بین چندین گروه در طول زمان |
82564 | هنگام استفاده از یک مدل ترکیبی برای تجزیه و تحلیل برخی داده ها، آیا گزارش تخمین های واریانس اثرات تصادفی در یک نشریه، به عنوان مثال برای یک مجله پزشکی، معمول است؟ نمیدانم چگونه این اطلاعات برای خواننده جالب باشد و بنابراین مطمئن نبودم که آیا باید آن را درج کنیم. اگر بله، آیا باید معیار عدم قطعیت را نیز لحاظ کنیم؟ | گزارش تخمین واریانس برای مدل های مختلط |
51039 | من می خواستم تأثیر برنامه های حمایت از مشاغل کوچک را بر رشد مشاغل کوچک ببینم. من رشد آنها (که با تعداد کارمندان نشان داده میشود) را فقط در آن 5 نوع برنامه حمایتی (به عنوان پسرونده) کاهش دادم. و من R مربع = 0.35، R مربع تعدیل شده = 0.03-، برخی از ضرایب مثبت و برخی دیگر منفی هستند، و تمام مقادیر p > سطح معنی داری (10٪) است (ضرایب ناچیز هستند). 1) آیا می توانم نتیجه بگیرم که برنامه های حمایتی تأثیر مثبت اما ناچیز دارند؟ 2) آیا باید متغیرهای کنترلی را برای تکمیل مدل اضافه کنم (به طوری که r مربع > 0.5 شود). | رگرسیون با یا بدون متغیرهای کنترل شده؟ |
97250 | چگونه روش رگرسیون گام به گام برای هر دو جهت در R با تابع step() کار می کند. من فکر می کنم که یک متغیر در مدل قرار می گیرد و سپس متغیر دیگری که معیارهای اندازه گیری را بهبود می بخشد و اهمیت متغیر قدیمی تر ارزیابی می شود. اگر ضریب متغیر قدیمیتر معنیدار نباشد، متغیر حذف میشود و متغیر بعدی در مدل قرار میگیرد و غیره. من 100% مطمئن نیستم که عملکرد گام با هر دو اینگونه است، اما آیا کسی می تواند به من اطلاع دهد که آیا این درست است، اگر نه، معیارهای هر دو چگونه رگرسیون گام به گام را در R با پیاده سازی می کنند. step()`. | رگرسیون گام به گام در R با هر دو جهت |
113618 | من در هنگام استفاده از بسته caret در R با دو مشکل مواجه هستم. مثالی را در زیر بازتولید می کنم: library(mlbench) library(caret) set.seed(998) data(Sonar) #داده های تصادفی، فقط برای مصور بودن Sonar= Sonar [, 1:6] #6 ستون اول را فقط برای نشان دادن یک مثال انتخاب کرد. من فرض می کنم V6 پاسخ است. head(Sonar) inTraining <- createDataPartition(Sonar$V6, p = 0.75, list = FALSE) آموزش <- Sonar[inTraining, ] testing <- Sonar[-inTraining, ] modelFit <- train( V6~.,data=training , method=rpart ) varImp(modelFit) a. چگونه سه (3) متغیر برتر را از خروجی VarImp استخراج کنیم؟ من سعی کردم متغیرها را سفارش دهم اما به هر دلیلی برای من کار نمی کند. ب همچنین، چرا کد زیر برای randomForest کار نمی کند؟ modelFit <- train( V6~.,data=training, method=rf ) varImp(modelFit) > varImp(modelFit) اجرا مجدد با خطای اشکال زدایی در varImp[, %IncMSE] : اشتراک خارج از محدوده | بسته Caret در R - متغیر مهم را دریافت کنید |
16373 | من یک سوال دارم که برای انجام این کار باید از کدام آزمون آماری استفاده کنم. من جمعیتی 80 نفری دارم: * 37 مورد عمل A را انجام دادند * 43 مورد عمل B را داشتند از 80 بیمار، 19 بیمار بیماری عود کننده داشتند: * 13 بیمار عمل A را انجام دادند * 6 روش B را انجام دادند چگونه تشخیص دهم که آیا انجام روش A خطر را افزایش می دهد یا خیر. وجود بیماری عود کننده با توجه به تفاوت در تعداد روش A و B از نظر آماری معنی دار است؟ | برای ارزیابی ارتباط یک روش پزشکی با بیماری عود کننده از چه آزمایش آماری استفاده کنیم؟ |
63430 | فقط یک مقدمه، من ریاضیدان نیستم یا از نظر آماری ماهر نیستم. من روشم را برای محاسبه انحرافات استاندارد می دانم، اما همه اینها خودآموز است. من یک برنامه نویس با دانش آماری محدود هستم. * * * اکنون، فرض کنید که یک وب سایت اجاره ویجت را اجرا می کنید، و در برنامه خود به صاحبان ویجت ها اجازه می دهید آنها را اجاره کنند. شما به صاحبان ویجت اجازه میدهید فصلهایی را ایجاد کنند (مانند مه - ژوئن، و آگوست - سپتامبر)، و سپس قیمتی را انتخاب کنید که برای اجاره ویجت در آن دوره زمانی هزینه داشته باشد. با قیمتهایی که وارد شدهاند، میخواهم بتوانم: * همه ویجتها را بر اساس «پایینترین قیمت» موجود مرتبسازی کنم، بنابراین در فهرست نتایج همه ویجتها کم به بالا. * یک از قیمت برای یک ویجت ارائه دهید. به این معنا که شما می توانید این ویجت را به قیمت XXX دلار در روز اجاره کنید. هر ویجت بر اساس زمان سال می تواند قیمت متفاوتی داشته باشد. برخی از ویجت ها بسته به فصل، ده ها قیمت متفاوت خواهند داشت، زیرا فصل های بالا و فصل های پایین را دریافت می کنید. با این حال، فروشندگان ویجت ها **به خصوص بداخلاق** هستند و متوجه شده اند که اگر ویجت خود را برای یک روز از سال واقعاً گران باشد و همچنین یک روز از سال واقعاً ارزان باشد، می توانند به راحتی در محدوده مرتب سازی پایین و بالا ظاهر می شود. و آنها همچنین از این برای دستکاری از قیمت خود استفاده می کنند. در حال حاضر، برای محاسبه «پایینترین قیمت» برای یک ویجت، راهحل بسیار سادهای را انتخاب کردم، که فقط مقدار «کمترین (N)» را از یک مجموعه داده میگیرد. چیزی که من میخواهم دریافت کمترین قیمت برای ویجت است، که قیمتی را که میتوان از آن اجاره کرد را به دقت نشان میدهد. به این نمودار نگاهی بیندازید... با مقادیر...  > محور X - زمان (هر بازه مهم یک روز است) > > محور Y - قیمت محور X زمان است و محور Y قیمت است. در حال حاضر، این شامل یک توزیع نرمال است، و هیچ گونه پرت آماری واقعی در آن مجموعه داده وجود ندارد. معمولاً مشاهده میشود که قیمت بین کمترین مقدار و مقدار بالا تا 200 درصد یا چند انحراف استاندارد در نوسان است. با این حال به این نمودار دوم نگاهی بیندازید... شامل تعرفه یک روزه است که فقط 20 یورو است...  من با استفاده از تست Grubbs بازی کرده ام و به نظر می رسد که اگر مجموعه داده کوچکی داشته باشید و مدت زمان محدوده تاریخ را در نظر نگیرید، بسیار خوب کار می کند. با این حال، هنگامی که شما شروع به تلاش برای پرتاب در 3 روز برای یک ویجت که 1 دلار است، برای حذف 3 نقطه پرت واضح خوب کار نمی کند... نکته مهم این است که من می خواهم یک از قیمت دریافت کنم. یعنی میخواهم بتوانم بگویم «میتوانید این ویجت را از XXXX اجاره کنید». بنابراین باید منعکس کننده قیمت گذاری کلی در نظر گرفته شده به عنوان یک کل باشد و نکات پرت واضح را نادیده بگیرد. من قصد دارم این را در PHP پیاده سازی کنم، بنابراین هیچ ابزار آماری شگفت انگیزی به جز کتابخانه های ریاضی هسته ای در اختیار ندارم. | حذف اقلام پرت و محاسبه پایین ترین قیمت قابل دستیابی از یک سری زمانی از پیش تعیین شده/ثابت شده قیمت ها |
81285 | در کتاب درسی که می خوانم از قطعیت مثبت (تعیین نیمه مثبت) برای مقایسه دو ماتریس کوواریانس استفاده می کنند. این ایده که A-B است pd است، سپس B کوچکتر از A است. اما من برای به دست آوردن شهود این رابطه تلاش می کنم؟ یک موضوع مشابه در اینجا وجود دارد: http://math.stackexchange.com/questions/239166/what-is-the-intuition-for- using-definiteness-to-compare-matrices شهود استفاده از قطعیت برای مقایسه ماتریس ها چیست؟ ? اگرچه پاسخ ها خوب هستند، اما واقعاً به شهود پاسخ نمی دهند. این مثالی است که به نظر من گیج کننده است: \begin{equation} \begin{bmatrix} 16 & 12 \\\ 12 & 9 \end{bmatrix} - \begin{bmatrix} 1 & 2 \\\ 2 & 4 \end{ bmatrix} \end{equation} اکنون در اینجا تعیین کننده تفاوت 25- است، بنابراین رابطه pd یا حتی psd نیست و پس ماتریس اول بزرگتر از ماتریس اول نیست؟ من فقط می خواهم دو ماتریس کوواریانس 3*3 را با هم مقایسه کنم تا ببینم کدام کوچکترین است؟ استفاده از چیزی شبیه به هنجار اقلیدسی برای مقایسه آنها برای من شهودی تر به نظر می رسد؟ اما این بدان معناست که ماتریس اول در بالا بزرگتر از ماتریس دوم است. علاوه بر این، من فقط معیار pd/psd را می بینم که برای مقایسه ماتریس های کوواریانس استفاده می شود. آیا کسی می تواند توضیح دهد که چرا pd/psd بهتر از استفاده از معیار دیگری مانند هنجار اقلیدسی است؟ با تشکر من همچنین این سوال را در انجمن ریاضی ارسال کردم (مطمئن نبودم که بهترین است) امیدوارم این با هیچ قانونی مغایرت نداشته باشد. http://math.stackexchange.com/questions/628135/comparing-two-covariance- matrices | اندازه گیری مناسب برای یافتن کوچکترین ماتریس کوواریانس |
107453 | من آزمایشی انجام دادم که به بررسی آسیب موجودات دریایی در نتیجه ماهیگیری پرداختم. من در سه کشتی A، B و C نمونه برداری کردم. در هر کشتی، از صید قبل از جابجایی روی عرشه (پیش) توسط ماهیگیران و بعد از (پست) جابجایی روی عرشه توسط ماهیگیران نمونه برداری کردم و تعداد افراد آسیب دیده در نمونه را شمارش کردم. داده های من داده های متناسب هستند (نسبت افراد آسیب دیده در نمونه). میخواهم بدانم که آیا تفاوتهایی در 1) نسبت حیوانات آسیبدیده در کشتیها و 2) سطح آسیب در حملونقل روی عرشه وجود دارد یا خیر. تست مناسب چیست؟ مطالعه پیشینه نشان داد که مدلسازی خطی تعمیم یافته راه مناسبی برای تجزیه و تحلیل داده های متناسب خواهد بود. یا می توانم از ANOVA دو طرفه استفاده کنم (با فرض اینکه داده ها شرایط را داشته باشند؟) افکار؟ پیشاپیش ممنون | تجزیه و تحلیل داده های متناسب (طراحی دو عاملی) |
107458 | فرض کنید یک مدل رگرسیون عمومی دارید که برای شما مانند یک جعبه سیاه رفتار می کند. تنها چیزی که دارید یک تابع $\ \ \text{train}(X,Y) \\ $ است که در آن ماتریس پیشبینیکننده $X \in \mathbb R^{N\times M}$ و بردار هدف $Y \ را وارد میکنید. در \mathbb R^N$، و همچنین یک تابع $\ \ \text{predict}(x) \ \ $ که یک بردار ردیف $x \in \mathbb R^{1\times می گیرد M}$ و پیشبینی $y \in \mathbb R$ را تولید میکند. وظیفه پیشبینی سریهای زمانی را بیشتر در نظر بگیرید، یعنی یک سری زمانی چند متغیره $\\{\mathbf x_0, \mathbf x_1,\ldots\, \mathbf x_t\\}$ وجود دارد که $\mathbf x_k \in \mathbb R^{1\times M}$، و میخواهید نتیجه $y_{t+n} \in را پیشبینی کنید \mathbb R\ \ $(در اینجا $n>0$، و اغلب $n=1$). دو روش متداول برای دستیابی به این هدف عبارتند از * رویکرد خود رگرسیون: یک سفارش $q$ را انتخاب کنید و چندین نمونه بگیرید $\big\\{(\mathbf x_{t-q+1},\ldots, \mathbf x_t),y_{t +n} \big\\}$ و آن را به مدل رگرسیونی خود وارد کنید. * رویکرد اتورگرسیو-متوسط متحرک: نتایج پیشبینی قبلی را بیشتر اضافه کنید، به عنوان مثال از دادههای $\big\\{(\mathbf x_{t-q+1},\ldots, \mathbf x_t), (y_{t-r},\) استفاده کنید. ldots، y_{t+s})، y_{t+n} \big\\}$، جایی که $s<n$ (--نه لزوما، اما من آن را منطقی فرض می کنم). **علاوه بر این رویکردهای واضح، آیا پیشنهاد/مرجع دیگری برای استفاده از روش رگرسیون عمومی برای پیشبینی سریهای زمانی دارید؟** نظرات بیشتر در مورد روشهای فوق نیز پذیرفته میشود. | تبدیل رگرسیون عمومی به پیشبینی سریهای زمانی |
49194 | این یک نسخه مبهم از یک مشکل واقعی است: هر روز با تعدادی از دختران (متمایز) صحبت می کنم. من شاخص شباهت جاکارد را بین دو روز متوالی محاسبه می کنم: J(t)=J(t,t-1)=تقاطع(دختران(t)،دختران(t-1))/اتحاد(دختران(t)،دختران(t) -1)) می خواهم J(t+n+1) را با J(t)...J(t+n) مقایسه کنم تا ببینم از نظر آماری غیرعادی است یا خیر. برای این منظور باید مدل احتمالی را فرض کنم که توزیع J(t) روزانه را توصیف می کند. پشتیبانی توزیع باید روی [0،1] محدود شود. همچنین ممکن است فرض کنیم که توزیع یک وجهی است، در مرزها کاهش می یابد، اما کاملاً مثبت می ماند. یک توزیع احتمال معقول برای استفاده چه خواهد بود؟ ترجیحاً این باید از یک مدل اساسی منطقی که تغییرات روزانه در دختران متمایز را توصیف می کند، مشتق شود. | یک مدل توزیع احتمال برای شباهت جاکارد |
16151 | من فهرستی از اعداد دارم که وقتی روی یک نمودار رسم میشوند، به وضوح روندهایی مانند صعود به سمت بالا، سقوط، تکرار و غیره را نشان میدهند. وقتی یک انسان نمودار را میبیند، به راحتی میتواند تشخیص دهد که چه اتفاقی میافتد. کاری که من سعی می کنم انجام دهم این است که از نظر عددی به همان چیزی برسم و سیستم تشخیص دهد که چه روندهایی در نمودار رخ می دهد. ایده اولیه من این است که پنجره ای داشته باشیم که در امتداد داده ها جابه جا شود و فقط مقادیر درون این پنجره برای محاسبه روند استفاده شود. یک پنجره خیلی کوچک منجر به اغراقآمیز شدن تغییرات کوچک میشود و یک پنجره خیلی بزرگ تغییرات بزرگ را تضعیف میکند، بنابراین یافتن اندازه پنجره مناسب که ممکن است این رویکرد را نامناسب کند ممکن است دشوار باشد. به عنوان مثال، اگر من این مجموعه را داشته باشم (برای مطابقت با توضیحات زیر کروشه ها را اضافه کرده ام، اما آنها کاملاً گویا هستند؛ داده ها هنوز فقط یک مجموعه هستند): {[0,1,0,1,0, 0]، [1،1،1،1،1،1،1]، [2،2،4،6،7،8،9،10،9،0]، [0،1،1،0، 1]} ما به راحتی می توانیم ببینیم (مخصوصاً اگر روی نمودار کشیده شود) که نسبتاً پایدار شروع می شود، سپس پایدار می شود، شروع به بالا رفتن می کند، ناگهان افت می کند، سپس دوباره نسبتاً پایدار می شود. چه تکنیکها و موضوعاتی را باید مطالعه کنم تا راههایی برای شناسایی کارآمد آن نوع الگوها توسط سیستم پیدا کنم؟ یک رویکرد، داشتن قوانین خواهد بود. به عنوان مثال، شمارنده ای که هر بار که تعداد افزایش می یابد و با کاهش تعداد کاهش می یابد. سپس، اگر شمارنده یک آستانه بالا را پشت سر بگذارد، سیستم باید بالا برگردد. آیا این رویکرد مبتنی بر قانون راه خوبی است یا رویکردهای بهتری وجود دارد؟ (با توجه به معاوضه، کارایی را به دقت ترجیح می دهم). | تشخیص روندهای عددی |
2419 | آیا یک کتابخانه پایتون خوب برای آموزش درختان تصمیم تقویت شده وجود دارد؟ | درختان تصمیم در پایتون تقویت شده است؟ |
56881 | می خواستم بدانم آیا رابطه ای بین $R^2$ و F-Test وجود دارد یا خیر. معمولا $$R^2=\frac {\sum (\hat Y_t - \bar Y)^2 / T-1} { Y_t - \bar Y)^2 / T-1}$$ و قدرت رابطه خطی در رگرسیون یک تست F فقط یک فرضیه را ثابت می کند. آیا رابطه ای بین $R^2$ و F-Test وجود دارد؟ | رابطه بین $R^2$ و F-Test چیست؟ |
49196 | من سیستمی دارم که از دو مکان بازدید می کند و سیگنال ها را هر 10 ثانیه جمع آوری می کند. به خوبی شناخته شده است که A باعث می شود B رخ دهد اما نه همیشه. بنابراین، من سعی می کنم توزیع احتمال شرطی B را با داده A پیدا کنم. داده ها به شکل زیر هستند: A B ---------- 1 0 1 1 1 0 1 0 ......... 10000 ردیف وجود دارد. عدم قطعیت در محاسبه آرتورز، چگونه می توانم به آن برسم. آیا توزیع دوجمله ای 4 موردی را در اینجا برازش می کنیم؟ 4 مورد توسط آرتور ذکر شده است. این تغییر چگونه است که من به جای آن دارم: A B C ------------ 1 0 1 1 0 1 0 1 1 0 1 ............ حالا می خواهم P(B,C|A) را درک کنید. @Corone من واقعاً روشی را که ریاضی را توصیف کردید دوست دارم و فقط علاقه من را به این موضوع جلب کرد که اکنون چه اتفاقی می افتد؟ باز هم من تقریباً در این زمینه مبتدی هستم. بنابراین، اکنون درک من این است که در اینجا 8 مورد مانند موارد زیر دارم: P(B=1,C=1|A=1), P(B=1,C=1|A=0), P(B) =1,C=0|A=1) و غیره و من معادله رویکرد فراوان گرا را برای در نظر گرفتن 8 مورد بالا اصلاح می کنم؟ اما آیا این امر به هر گونه همبستگی بین B و C نیز توجه می کند، یعنی اینکه چگونه B بر روی C علاوه بر A تأثیر می گذارد؟ یا باید در اینجا به توزیع دیریکله فکر کنم زیرا این یک توزیع احتمال مشترک است. | ایجاد توزیع احتمال شرطی |
56883 | من بیش از 4000 فایل متنی را خوشه بندی کرده ام و اکنون می خواهم خوشه ها را بررسی و ارزیابی کنم. من می خواهم از F-measure (ترکیبی از یادآوری و دقت) استفاده کنم. تعریف رسمی F1_score این است: $$ \text{F-measure} = 2 * \frac{\text{precision} * \text{recall}}{\text{precision} + \text{recall}} $$ به محاسبه دقت و فراخوانی، باید از قبل تعداد صحیح اسناد بازیابی شده و صحیح بازیابی نشده را بدانم. این بدان معناست که باید همه اسناد را مرور کنم و ببینم چه چیزی در آنها وجود دارد. اما مشکل اینجاست که چگونه می توانم از دقت و فراخوانی بیش از 4000 فایل متنی مطلع شوم؟ | استفاده از F1_score برای اندازه گیری اعتبار خوشه |
61877 | من یک سوال در مورد تفسیر ماتریس های مختلف تولید شده توسط تجزیه مقدار منفرد دارم. فرض کنید یک ماتریس mxn $A$ حاوی n تصویر از m پیکسل است. بنابراین هر ستون از این ماتریس در صورت تغییر شکل یک تصویر است. تصاویر در واقع تبدیل موجک هستند، اما هیچ ارتباطی با این سوال ندارد. علاوه بر این، اولین k ستون $A$ تصاویر سگ ها و ستون های باقی مانده تصاویر گربه ها هستند. بنابراین من چیزی شبیه به این دارم: wavelet_dc = np.hstack((wavelet_dogs، wavelet_cats)) U، S، V = svd(wavelet_dc، full_matrices=False) تعبیر U، S و V چیست؟ میدانم که میتوانیم تصویر اصلی را بر اساس مجموعی مانند $A = \sum_{i} u_{i}s_{i}v^{T}_{i}$ بسازیم که در آن $u_{i}$ و $ v_{i}$ به ترتیب بردارهای ستونی U و V هستند. همچنین میدانم که $S$ مهمترین حالتهای ماتریس اصلی را تعیین میکند و ستونهای U ویژگیهای مرتبط با آن حالتها هستند. با این حال، V چه نقشی در این ماتریس دارد؟ من می خواهم بدانم که چگونه در مورد V در کاربردهای عملی فکر کنم (یعنی بیشتر از یک چرخش در تفسیر هندسی SVD) علاوه بر این، فرض کنید V را به شکل زیر رسم کنم: plot(V[0:40, 0 ]، 'o-'، markersize=3)  از آنجایی که V یک nxn است ماتریس، من نمیدانم چگونه آن را تفسیر کنم، اما فکر میکنم این کد در واقع 40 سطر اول و ستون اول V را میگیرد. همانطور که V را میدانم: $$V = \begin{pmatrix}v_{1} ^{T} \\\v_{2}^{T} \\\\\vdots \\\v_{n}^{T}\end{pmatrix}$$ فکر میکنم طرح به مؤلفه اول اشاره دارد از 40 بردار $v_{1} ... v_{40}$ اما به چه معناست؟ در کلاس Coursera روشهای محاسباتی برای تجزیه و تحلیل دادهها، این به عنوان سگ برای حالت اول و 'V[0:40, 1]' سگهای حالت دوم و غیره توصیف میشود. شما می توانید یادداشت ها را اینجا ببینید، شکل 159، صفحه 388. البته با این فرض که حداقل 40 ستون اول $A$ حاوی تصاویری از سگ ها باشد. در کلاس، «V[80:120, 0]» را نیز ترسیم می کنند، زیرا ماتریس $A$ آنها در واقع 80 ستون اول را نشان دهنده تصاویر سگ ها و 80 ستون آخر را نشان دهنده تصاویر گربه ها دارد، بنابراین «V[80:120 , 0]` در حال ترسیم 40 تصویر اول از گربه ها است. به روز رسانی: با توجه به سخنرانی های ویدئویی، W8_L21_P3-ویژگی ها: https://class.coursera.org/compmethods-002/lecture/76، به نظر می رسد که آنها V[0:40, x] را به عنوان طرح اول تفسیر می کنند. 40 سگ روی حالت ها. خوب، V ابعاد nxn دارد که تعداد تصاویر است، اما من آن را به عنوان سگ تعبیر نمی کنم. در هر صورت، فکر میکنم چنین پیشبینیهایی نباید «V[0:40, 0]» باشند، بلکه «V[0، 0:40]» باشند زیرا اینها 40 جزء اول بردار $v_{1}^{ هستند. T}$ که حالت اول $s_{0}$ را ضرب میکند. با این حال لطفا اگر اشتباه کردم به من اطلاع دهید. | تفسیر ماتریس های SVD در کاربردهای عملی |
49192 | من یک نمودار بسیار بزرگ و تابعی از رئوس آن دارم و می خواهم میانگین مقدار این تابع را تخمین بزنم. در این مسئله نمی توان از رئوس به طور یکنواخت نمونه برداری کرد، بنابراین یک انتخاب معقول برای تخمین، پیاده روی تصادفی ساده است. مشکل این است که برای هر رأسی فقط می توانم همسایه تصادفی آن را انتخاب کنم. یافتن کل همسایگی یک راس بسیار سخت است. بنابراین من درجاتی از رئوس نمونهبرداری شده را نمیدانم، نمیتوانم احتمالات ثابت را بیابم و نمیتوانم از برآوردگرهای استاندارد پیادهروی تصادفی استفاده کنم. آیا هنوز راهی برای بدست آوردن تخمین بی طرفانه از مقدار میانگین تابع وجود دارد؟ | پیاده روی تصادفی با دانش محدود نمودار |
68012 | فرض کنید می خواهیم 400 مراقب را به صورت تصادفی در یک مداخله والدین یا یک گروه کنترل لیست انتظار قرار دهیم. اما ما همچنین میخواهیم به یک تغییر برنامه برای یک نمونه فرعی از مراقبین کودکان با مشکلات رفتاری مشخص نگاه کنیم (به عنوان مثال، نسخه شدیدتر برنامه بازدید از خانه را به اجزای برنامه استاندارد اضافه میکند). ما میتوانیم از طرح فاکتوریل، کسری فاکتوریل یا طرح افزودنی استفاده کنیم، اما نمیخواهیم از منابع برای اجرای نسخه شدیدتر برنامه با همه، از جمله مراقبین کودکانی که دارای مشکلات رفتاری _بدون_ شناسایی شدهاند، استفاده کنیم. اساساً، ما میخواهیم به تأثیر مداخله والدین پیشگیرانه انتخابی خود برای همه مراقبان و تأثیر یک مداخله والدین پیشگیرانه برای مراقبین کودکان با مشکلات رفتاری شناخته شده نگاه کنیم. بنابراین، ما یک نظرسنجی پایه انجام می دهیم، کودکانی را شناسایی می کنیم که از محدوده رفتاری فراتر رفته اند، و سپس به صورت تصادفی با هر گروه (رفتار کم و زیاد) به درمان یا کنترل لیست انتظار بلوک می کنیم. سپس در گروه درمان (200=n)، دومین تصادفی سازی را در بین 80 مراقب کودکانی که از نمره برش رفتار فراتر رفته بودند، انجام دادیم. ما این 80 مراقب را بهطور تصادفی انتخاب میکنیم تا درمان استانداردی را که قرار است دریافت کنند یا نسخه پیشرفتهای از برنامه را دریافت کنند که شامل همه چیز در نسخه استاندارد بهعلاوه بازدید از خانه برای تقویت مهارتها است. تا اینجای کار خیلی خوبه. این کار شدنی به نظر می رسد. حال بیایید فرض کنیم که باید جوامع را تصادفی کنیم، نه مراقبان فردی را برای درمان یا کنترل. اما برای تشخیص اثر درمانی مورد نظر خود، به جوامع (خوشهها) بیشتری نسبت به توان مالی یا مدیریت نیاز داریم. بنابراین ما به طراحی پلکانی گوه ای (pdf) نگاه می کنیم. به دلیل اندازه گیری های مکرر، تعداد جوامع مورد نیاز برای تشخیص اثر درمانی مورد نظر ما قابل کنترل تر می شود، اگرچه ما نگران تعداد مشاهدات هستیم. [به عنوان مثال، انجام 5 دور مداخله با 15 جامعه (14 مراقب در هر جامعه) به این معنی است که ما 6 دور مشاهده یا 15 * 6 * 14 = 1260 نظرسنجی داریم.] این مشکلی ندارد، اما ما همچنین می خواهیم تأثیر افزایش یافته را تخمین بزنیم. برنامه (استاندارد + ویزیت در منزل) در میان مراقبین کودکانی که معیارهای ما را برای مشکلات رفتاری برآورده می کنند. در اینجا روش پیشنهادی من است: 1. دو برابر کردن تعداد مراقبین در هر جامعه از 14 به 28. 2. نیمی از جایگاه های هر جامعه (14) را برای مراقبین کودکانی که از نظر مشکلات رفتاری مثبت ارزیابی می کنند، ذخیره کنید. 3. مراقبین کودکانی را که از نظر مشکلات رفتاری مثبت غربالگری می کنند (14) به برنامه استاندارد (7) یا برنامه تقویت شده (7؛ استاندارد + بازدید از منزل) تصادفی سازی کنید. اگر محاسبه توان من درست باشد، و من باید برنامه را به 15 جامعه در 5 دور با 14 مراقب در هر جامعه تحویل دهم تا اثر درمانی مورد نظر خود را تشخیص دهم، آیا این درست است که فرض کنیم میتوانم تعداد مراقبان در هر جامعه را دو برابر کنم. به تأثیر برنامه پیشرفته (در مقابل برنامه استاندارد) نگاه کنید؟ | اثرات مداخله گوه پلکانی و افزایشی |
98966 | من سعی می کنم یک سیستم نظارتی بسازم که به طور خودکار هشداری را در صورت ایجاد تغییر چشمگیر در برخی از پارامترهای مشاهده شده ایجاد کند. مشکل من به این صورت است: ما برای تعداد زیادی از گیرندگان ایمیل ارسال می کنیم. برای هر انبوهی از ایمیلها، چند پارامتر مانند تعداد ایمیلهای ارسال شده و همچنین شمارندههای تعامل مانند باز کردن و کلیکها و همچنین برگشتها و لغو اشتراکها داریم. به طور معمول، تعداد ایمیل های ارسال شده در هر پست در طول زمان کمی تغییر می کند. نسبتهای تعامل ممکن است کم و بیش ثابت بمانند (البته با توجه به واریانس)، یا در طول زمان به آرامی افزایش یا کاهش پیدا کنند. هر زمان که تغییر چشمگیری در یکی از این معیارها وجود داشته باشد (مانند نرخ پرش از 1% به 3% در حالی که قبلاً کم و بیش ثابت بوده است یا نرخ باز کاهش از 30% به 20% در حالی که قبلاً به آرامی افزایش مییابد). ، من می خواهم بتوانم این تغییر روند را تشخیص دهم. من در حال حاضر از آستانه های ایستا استفاده می کنم، اما می خواهم نقاط پرت را شناسایی کنم که ممکن است نشان دهنده تغییر روند چشمگیر باشد. کدام روش های آماری برای حل این نوع مسائل مناسب هستند؟ | چگونه می توانم تغییرات چشمگیر را در مجموعه ای از مشاهدات تشخیص دهم؟ |
53308 | متأسفانه، مدت زیادی است که آمار را انجام نداده ام و علیرغم مطالعه و تحقیق، درباره نحوه محاسبه صحیح آن مطمئن نیستم. مایلم کوچکترین حجم نمونه مورد نیاز را بدانم تا سطح اطمینان معینی داشته باشیم که میانگین نمونه با درصد معینی از میانگین جامعه باشد. در حالی که دلخواه است، موارد زیر مشخص است (قابل محاسبه است): * اندازه جمعیت * میانگین جمعیت * انحراف استاندارد جمعیت نمونه گیری بدون جایگزینی خواهد بود. توزیع نرمال است. به عنوان مثال، برای یک جمعیت 1,000,000 با میانگین 0.90 و انحراف معیار جمعیت 1.32، من به یک نمونه n نیاز دارم تا 99٪ مطمئن باشم که میانگین نمونه در 1٪ از میانگین جامعه است. من علاقه مند به درک فرمول هستم زیرا باید چندین بار برای جمعیت های مختلف، سطوح اطمینان مختلف و حاشیه های مختلف خطا حل کنم. متشکرم. | چگونه می توانم حجم نمونه را محاسبه کنم تا بتوانم مطمئن باشم که میانگین نمونه تقریبی با میانگین جامعه است؟ |
53305 | ظاهراً برای خوشهبندی K-means، مرز تصمیم برای اینکه آیا یک نقطه داده در خوشه $A$ قرار دارد یا در خوشه $A'$ خطی است. من این جمله را کاملا متوجه نمی شوم. چرا خطی است؟ هر بار تکرار خوشهبندی K-means، نقاط داده را دوباره به خوشهها اختصاص میدهم تا خطای مربعی را به حداقل برسانم. سپس، نمونههای اولیه (مراکز خوشهها) را دوباره اختصاص میدهم تا دوباره خطا را به حداقل برسانم. چگونه این فرآیندها یک مرز تصمیم گیری خطی ایجاد می کنند؟ | چرا مرز تصمیم برای خوشه بندی K-means خطی است؟ |
49198 | مجموعه داده ای به من داده شده است که شامل تعداد جوایز کسب شده توسط دانش آموزان یک دبیرستان است که پیش بینی کننده تعداد جوایز کسب شده شامل نوع برنامه ای است که دانش آموز در آن ثبت نام کرده است و امتیاز امتحان نهایی آنها در ریاضیات. می خواستم بدانم آیا کسی می تواند به من بگوید که چرا یک مدل رگرسیون خطی ممکن است در این مثال نامناسب باشد و چرا بهتر است از رگرسیون پواسون استفاده کنیم؟ با تشکر | رگرسیون پواسون در این مورد چه مزایایی نسبت به رگرسیون خطی دارد؟ |
21267 | من برخی از داده های سری زمانی اندازه گیری هایی دارم که در فواصل تصادفی با اندازه گیری های ابعاد >> با فواصل زمانی بین 15 ثانیه تا چند دقیقه انجام شده است. در حالت ایدهآل، من میخواهم یک تخمین زمانی پیوسته داشته باشم تا وضعیت سیستم را در هر زمانی بین شروع و پایان اندازهگیریها با نوعی فاصله اطمینان یا تضمین آماری به من ارائه دهد. من صاف کننده های نوع Kalman را بررسی کرده ام، اما مدلی از انتقال حالت، نویز، یا ورودی کنترل ندارم. علاوه بر این، می دانم که داده های من یک سیستم خطی نیستند و کاملاً نویز دارند. به نظر میرسد تنظیم همه ماتریسها بر روی ماتریس هویت برای به دست آوردن دادههای هموار درست باشد و با فاصله زمانی تصادفی دادههای من به خوبی هماهنگ شود، اما به نظر نمیرسد جایی را پیدا کنم که افراد دیگر همین کار را کرده باشند ( بنابراین به نظر می رسد که احتمالاً ایده خوبی نیست) من کمی آگنوستیک هستم و تقریب ها را می پذیرم، به گونه ای که متغیرهای من مستقل از یکدیگر هستند و وانمود می کنم که سیستم خطی، اگرچه تکنیک هایی مانند برازش چند جمله ای و درون یابی خطی چندان رضایت بخش نیستند، زیرا به هیچ وجه با نویز مقابله نمی کنند. حقایق مفید در مورد دادههای من: دادهها در فواصل زمانی مختلف، ابعاد >> نقاط داده به دست میآیند، دادهها از یک سیستم غیرخطی هستند و دادهها نویز دارند. زمان کسب هر نکته؟ | برخی از مدلهای سری زمانی پیوسته متغیر با فاصله کدامند؟ |
68019 | من با یک محاسبه ساده Naive Bayes مشکل دارم. با توجه به اینکه من یک صندوق ورودی دارم، با مشخصات زیر: * صندوق پستی شامل 100 ایمیل است * 50 ایمیل حاوی کلمه پول است. * 30 ایمیل حاوی کلمه ویاگرا است. * کاربر به صورت دستی 30 ایمیل را به عنوان هرزنامه علامت گذاری کرده است که از این تعداد 25 ایمیل حاوی کلمه viagra و 25 ایمیل حاوی کلمه money هستند، اما ما نمی دانیم کدام ایمیل دقیقا حاوی چه کلماتی است. بنابراین، احتمال هرزنامه بودن یک ایمیل با کلمات money و viagra باید (تاکید بر روی **باید**) باشد: $$ P(spam \mid money \cap viagra) = \frac{P (money \mid spam) P(viagra \mid spam)P(spam)}{P(viagra)P(money)} $$ اما اگر شمارهها را وصل کنم، دریافت میکنم: ~1.39 که احتمالی بزرگتر از یک است. آیا این به دلیل فرض استقلال NB است یا من اشتباه کردم؟ | احتمال کلاس بیزی ساده لوح بیشتر از یک |
68011 | من با دادههای عددی چند متغیره با مقادیر زیادی از دست رفته کار میکنم (بنابراین حذف همه ورودیها یا ستونهای دارای دادههای از دست رفته گزینهای نیست). آیا بسته پایتون برای انتساب داده ها وجود دارد؟ من عمدتاً به روش های مبتنی بر رگرسیون خطی (به علاوه برآورد واریانس متغیر پیش بینی شده) علاقه مند هستم. | بسته های پایتون برای محاسبه داده های عددی |
94638 | چگونه می توانم ضرایب حاصلضرب هر یک از کدهای زیر را تفسیر کنم؟ منظورشان چیست؟ چگونه می توانم استنباط کنم که آنها با انتظارات ما مطابقت دارند؟ fit.model=lm(formula = CO ~ ., data = cigarettes) Call: lm(formula = CO ~ ., data = cigarettes) ضرایب: (Intercept) Tar Nicotine Weight 3.2022 0.9626 -2.6317 -0.1305 X=model.matrix fit.model) > X (Intercept) Tar Nicotine وزن آلپاین 1 14.1 0.86 0.9853 بنسون و هجز 1 16.0 1.06 1.0938 بولدورهام 1 29.8 2.03 1.1650 CamelLights 1 8.0 0.67 0.9284 0.9140 Chesterfield 1 15.0 1.04 0.8885 GoldenLights 1 8.8 0.76 1.0267 Kent 1 12.4 0.95 0.9225 Kool 1 16.6 1.12 0.9372 L&M 1 1.8Light 1.1029. 13.7 1.01 0.9643 Marlboro 1 15.1 0.90 0.9316 Merit 1 7.8 0.57 0.9705 MultiFilter 1 11.4 0.78 1.1240 NewportLights 1 9.01.01. 0.7851 OldGold 1 17.0 1.26 0.9186 PallMallLight 1 12.8 1.08 1.0395 Raleigh 1 15.8 0.96 0.9573 SalemUltra 1 4.5 0.41 0.41 0.105 reyton 1.0070 True 1 7.3 0.61 0.9806 ViceroyRichLight 1 8.6 0.69 0.9693 VirginiaSlims 1 15.2 1.02 0.9496 WinstonLights 1 12.0 0.84 1 (12.0 0.84) در 1 tr. 3 (1)result=t(X) %*% X (Intercept) Tar Nicotine Weight (Intercept) 25.0000 305.4000 21.91000 24.25710 Tar 305.4000 4501.2000 Nicotine 31074.671 21.9100 314.6710 22.21050 21.63176 Weight 24.2571 302.1787 21.63176 23.72096 (2)XbyX <- crossprod(X) (Intercept) 5 Tar Nicotine00 305.4000 21.91000 24.25710 تار 305.4000 4501.2000 314.67100 302.17874 نیکوتین 21.9100 314.6710 22.2161.226.6710 22.21610. 302.1787 21.63176 23.72096 همچنین کدام محصول متقاطع صحیح است؟ (1) یا (2)؟ چه فرقی دارد؟ این داده ها است: > ساختار dput(سیگارها)(list(Tar = c(14.1، 16، 29.8، 8، 4.1، 15، 8.8، 12.4، 16.6، 14.9، 13.7، 15.1، 7.8، 17،1، 11. ، 12.8، 15.8، 4.5، 14.5، 7.3، 8.6، 15.2، 12)، نیکوتین = c(0.86، 1.06، 2.03، 0.67، 0.4، 1.04، 0.76، 0.95، 1.012، 1.01، 0.95، 1.12، 0.1. 0.78، 0.74، 0.13، 1.26، 1.08، 0.96، 0.42، 1.01، 0.61، 0.69، 1.02، 0.82)، وزن = c(0.9853، 1.0938، 1.0938، 1.09، 1.09 0.8885، 1.0267، 0.9225، 0.9372، 0.8858، 0.9643، 0.9316، 0.9705، 1.124، 0.8517، 0.7851، 0.9039، 0.9186، 51 0.9106، 1.007، 0.9806، 0.9693، 0.9496، 1.1184)، CO = c(13.6، 16.6، 23.5، 10.2، 5.4، 15، 9، 12.3، 13.4، 15.1، 16.3. 10.2، 9.5، 1.5، 18.5، 12.6، 17.5، 4.9، 15.9، 8.5، 10.6، 13.9، 14.9))، .Names = c(Tar، Nicotine، Weight، CO)، کلاس = data.frame, row.names = c(Alpine, Benson & Hedges، BullDurham، CamelLights، Carlton، Chesterfield، GoldenLights، Kent، Kool، L&M، LarkLights، Marlboro، Merit، MultiFilter ، NewportLights، Now، OldGold، PallMallLight، Raleigh، SalemUltra، Tareyton، True، ViceroyRichLight، VirginiaSlims، WinstonLights)) | ضرایب حاصلضرب متقاطع رگرسیون به چه معناست؟ |
93577 | من یک نمونه دارم و هر عضو را به 3 گروه A,B,C طبقه بندی کرده ام. برای عدم قطعیت در مورد درصد این گروه ها، به من گفته شده است که باید از فاصله امتیاز ویلسون استفاده کنم. به عنوان فردی که در این زمینه به خوبی آشنا نیستم، واقعاً مطمئن نیستم که چگونه این را در کد خود پیاده کنم! من به این موضوع نگاه کرده ام، اما آیا روش قابل قبولی برای پرونده من است؟ (من از پایتون استفاده می کنم، بنابراین هر گونه راهنمایی در این زمینه بسیار استقبال می شود!) | فاصله اطمینان نسبت دو جمله ای |
1822 | چگونه میتوانم آزمایش/تأیید کنم که آیا میتوانم پانل خود را مانند مجموعه دادهها به سادگی با ادغام مجموعههای فردی تجزیه و تحلیل کنم؟ من یک مجموعه داده دارم که به عنوان یک پانل ساختار یافته است. اکنون میپرسم که آیا میتوانم سریهای فردی را جمعآوری کنم و آن را از طریق OLS تخمین بزنم یا اینکه باید از روش تخمین دیگری استفاده کنم. (هر گونه نکات و مراجع R به شدت استقبال می شود.) با تشکر! | تست برای ادغام سری داده های فردی |
94635 | من در مورد یادگیری رتبه بندی - به ویژه lambdaMART - مطالعه کرده ام و یک چیزی که در مورد آن گیج شده ام نقش ویژگی ها است. آیا هنگام آموزش یک مدل، آیا باید فقط از ویژگی های وابسته به پرس و جو استفاده کرد (مانند ویژگی های مشتق شده از پرس و جو و سند)؟ آیا می توانید روی مجموعه ای از ویژگی های مستقل از پرس و جو (چیزهایی مانند طول سند) آموزش دهید؟ هر دو؟ آیا مرجعی وجود دارد که به این موضوع بپردازد؟ امیدوارم این منطقی باشد. | آموزش رتبه بندی: ویژگی های وابسته به پرس و جو در مقابل ویژگی های مستقل از پرس و جو |
1826 | چگونه ** اعتبار متقابل** را برای شخصی بدون پیشینه تجزیه و تحلیل داده ها توصیف می کنید؟ | اعتبار سنجی متقابل به زبان انگلیسی ساده؟ |
94636 | من با انتخاب مدل/روش مناسب در تحلیل خود مشکلاتی دارم. دو گروه از حیوانات (تفاوت بر اساس درمان) از روز 1 تا 42 اندازه گیری شد، یک مقدار مشترک برای هر گروه در هر روز (مصرف غذا در روز) اندازه گیری شد. من باید این گروه ها را مقایسه کنم و می خواهم از ANCOVA با درمان به عنوان اثر ثابت و تعداد روز به عنوان متغیر کمکی در مدل استفاده کنم. مثالهای زیادی وجود دارد که حاوی متغیرهای کمکی با نوعی تصادفی در توزیع آنها هستند (مانند وزن، سن، IQ و غیره که نمیتوانیم مستقیماً این متغیر را کنترل کنیم). اما در آزمایش ما این تنوع را با اندازه گیری گروه ها روز به روز حذف می کنیم. آیا استفاده از تعداد روز به عنوان متغیر کمکی پیوسته صحیح است؟ شاید کل مدل نادرست است و شما می توانید درست را پیشنهاد دهید؟ برای دقیق تر بودن، می خواهم نمودار پراکندگی داده های خود را ارائه دهم:  با احترام! | ANCOVA با شماره روز مطالعه من به عنوان متغیر کمکی |
63433 | من به دنبال یک _نسخه غیر پارامتریک روش چند متغیره اندازه گیری های مکرر GLM_ هستم. من علائم یک بیماری را در 2 نقطه زمانی (0-3) سفارش داده ام، و می خواهم نشان دهم که آنها به طور متفاوت تغییر می کنند (در پاسخ به چیزی که در کل نمونه در طول 2 نقطه زمانی اتفاق می افتد). اگر علائم من متریک بود، میتوانم GLM اندازهگیریهای مکرر چند متغیره را اجرا کنم، و اگر عبارت تعامل علامت*زمان قابل توجه باشد، من در طول زمان تغییرات متفاوتی از علائم دارم. آزمون فریدمن - یک نسخه ناپارامتریک از اندازه گیری مکرر GLM - کافی نیست، زیرا می تواند میانه های چند DV را به طور همزمان مقایسه کند یا میانه های یک DV را در طول زمان، اما نمی تواند چند متغیره + اندازه گیری مکرر را مدیریت کند. (حداقل من راهی برای این کار پیدا نکردم). نرم افزاری که من نصب کرده ام و می توانم با آن کار کنم R، SPSS و MPLUS موجود است. متشکرم. | به دنبال: آزمون اندازه گیری مکرر چند متغیره ناپارامتریک |
90701 | من دو گروه اصلی دارم که آنها را با هم مقایسه می کنم، الف) موش ها و ب) خرگوش ها. هر گروه از دو زیر گروه تشکیل شده است - نژاد 1 و نژاد 2. با استفاده از رگرسیون خطی، باید بفهمم، آیا مدلی با در نظر گرفتن زیرگروهها واریانس بیشتری را نسبت به مدلی که فقط گروههای اصلی دارد محاسبه میکند. بنابراین من دو مدل ایجاد کردم: \begin{align} Y &= a_1+b1_1(\text{rab})+e_1 \tag{1} \\\ Y &= a_2+b1_2(\text{rat2})+b2_2 (\text{rab1})+b3_2(\text{rab2})+e_2\ \tag{2} \end{align} جایی که همه متغیرها متغیرهای ساختگی هستند: * $\text{rab}\ \ = 1$ برای خرگوش و صفر در غیر این صورت (به عنوان مثال، موش) * $\text{rab1} = 1$ برای نژاد خرگوش 1 * $\text{rab2} = 1 $ برای نژاد خرگوش 2 * $\text{rat2}\، = 1 $ برای نژاد موش 2 به منظور مقایسه مدل ها از نظر آماری، من باید بدانم که آیا مدل های من را می توان تودرتو در نظر گرفت یا خیر. اگر مدلها تودرتو در نظر گرفته شوند، من همچنین به مشاوره در مورد مقایسه آماری آنها نیاز دارم - ترجیحاً با SPSS. با مدل های غیر تو در تو می توانم بقیه را اداره کنم. | رگرسیون خطی - آیا مدل های من تودرتو هستند یا غیر تودرتو؟ |
81039 | من سعی می کنم خطاهای استاندارد Newey-West را محاسبه کنم اما با مقدار E (X'X)^-1 گیر کردم. E در واقع چه می کند؟ اگر میانگین باشد چگونه آن را محاسبه می کنید؟ لطفا یک مثال کوتاه با مقادیر بزنید تا بتوانم آن را تکرار کنم. مقادیر می توانند X'={{1,1,1},{2,3,4}} باشند که در آن X یک ماتریس 2 x 3 با تمام مقادیر 1 در ستون 1 و همه مقادیر دیگر در ستون دو ماتریس X است. لطفا توجه داشته باشید که این سوال در ادامه پاسخ پذیرفته شده این سوال است. | توضیح بیشتر در محاسبه خطاهای استاندارد نیوی وست |
90702 | من دادههای شمارش سری زمانی $N_{i,j}$ (اندازههای جمعیت در سایت $i$ و سال $j$) دارم و میخواهم تغییرات سال به سال را با شرایط محیطی $x_{i,j مرتبط کنم. }$. برای این، من میخواهم این مدل را تطبیق دهم: $$\begin{eqnarray} \mbox{log} ( \mu_{i,j+1} ) &=& \mbox{log} ( \mu_{i,j} ) + \alpha + \بتا x_{i,j} + \gamma_j \\\ \\\ N_{i,j} &\sim& \mbox{Poiss} ( \mu_{i,j}) \\\ \gamma_{j} &\sim& \mbox{Norm} (0, \sigma ) \end{eqnarray} $$ بنابراین من به پارامتر $\beta$ علاقهمندم، شیب رابطه. $\gamma_{j}$ اثر تصادفی برای سال است (زیرا باقیماندهها در یک سال همبستگی داشتند). این یک مدل خودرگرسیون است. **چگونه می توانم چنین مدلی را جا بدهم؟** من سعی کردم به پروژه PESTS نگاه کنم (کد PESTS R در اینجا) اما نمی توانم بفهمم که آیا و چگونه مدل خود را با استفاده از آن مناسب کنم. (توجه داشته باشید که من سعی می کنم به دلیل زمان محاسبه از ابزارهای بیزی اجتناب کنم - هزاران مدل از این دست دارم). | چگونه می توان مدل مختلط خودرگرسیون لگ خطی پواسون را برازش کرد؟ |
108076 | در مجموعه داده چند متغیره من بیش از 100 شی / مورد دارم که روی 20 متغیر مختلف کدگذاری شده اند. چندین متغیر ترتیبی و چند متغیر اسمی هستند. آیا می توان از تحلیل مولفه های اصلی غیر خطی به عنوان تکنیک کاهش ابعاد در این مجموعه داده استفاده کرد؟ من مطمئن نیستم که چگونه می توان به مقیاس بهینه با دو نوع متغیر به طور همزمان نزدیک شد. | آیا می توانم از PCA غیر خطی (CATPCA؟) در مجموعه داده چند متغیره خود که حاوی داده های اسمی و ترتیبی است استفاده کنم؟ |
68016 | من در حال بررسی یک مقاله هستم. در آن نویسندگان از یک متریک فاصله ژنتیکی برای ایجاد یک ماتریس فاصله بین سوژه ها استفاده می کنند، سپس MDS کلاسیک را روی این ماتریس فاصله اجرا می کنند. در سراسر MS آنها این را تجزیه و تحلیل اجزای اصلی (PCA) می نامند. من آموزش دیدم که این مختصات اصلی (PCO) یا مقیاس بندی چند بعدی کلاسیک را بخوانم. آیا کسی می تواند توضیح دهد که کدام عبارت صحیح است و اگر بیش از یک مورد است، کدام یک ترجیح داده می شود؟ | چه زمانی باید آن را PCO در مقابل PCA بنامید |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.