_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
97676 | من سعی می کنم تخمین آنتروپی را بر اساس نزدیکترین همسایه از کوزاچنکو و لئوننکو پیاده کنم، اما با مشکلی روبرو هستم که نمی توانم آن را حل کنم. ایده این است که در یک مجموعه جدید $\epsilon=${$\epsilon_{1},...\epsilon_{N}$} به جای {$x_{1},...,x_{N}$ کار کنید. } که $\epsilon(i)$ فاصله بین $x_{i}$ و نزدیکترین همسایه آن است. فرمول برآوردگر آن این است: $\hat H(X)=-\psi(1)+\psi(N)+\sum\limits_{i=1}^N log(\epsilon(i))$ که در آن $ \psi$ تابع دیگاما است. اما اگر دو $x_{i}$ مساوی باشند یا اگر $X$ یک متغیر ثابت باشد، یک $\epsilon_{i}=0$ و $\hat H(X)=-\infty$. این موارد در مقاله بررسی نشده اند و من نمی دانم چگونه فرمول را تطبیق دهم. محاسبه نکردن $\epsilon_{i}$ تهی در مجموع ایده خوبی نیست. آیا کسی ایده ای دارد؟ http://arxiv.org/pdf/cond-mat/0305641.pdf | تخمین آنتروپی kozachenko-leonenko |
46218 | فرض کنید من سعی میکنم این احتمال را پیدا کنم که طعم بستنی مورد علاقه کسی وانیل است. می دانم که آن شخص از فیلم های ترسناک نیز لذت می برد. با توجه به اینکه از فیلم های ترسناک لذت می برند، می خواهم بفهمم که بستنی مورد علاقه آن ها وانیل است. من چیزهای زیر را می دانم: 1. $5\%$ مردم وانیل را به عنوان طعم بستنی مورد علاقه خود انتخاب می کنند. (این $P(A)$ من است ) 2. $10\%$ افرادی که بستنی وانیلی مورد علاقه آنهاست، عاشق فیلمهای ترسناک نیز هستند. (این $P(B|A)$ من است ) 3. $1\%$ افرادی که بستنی وانیلی مورد علاقه آنها نیست، فیلمهای ترسناک را نیز دوست دارند (این $P(B|\lnot A)$ من است) بنابراین، من آن را به این صورت محاسبه کنید: $$P(A|B)=\frac{0.05\times0.1}{(0.05 \times 0.1)+(0.01 \times(1-0.05))}$$ من دریافتم که $P(A|B) = 0.3448$ (به نزدیکترین ده هزارم گرد شده است). به احتمال 34.48$\%$ طعم بستنی مورد علاقه طرفداران فیلم های ترسناک وانیل است. اما بعد متوجه شدم که آن شخص در 30 روز گذشته یک فیلم ترسناک دیده است. این چیزی است که من می دانم: 1. $34.48\%$ احتمال به روز شده قبلی است که وانیل طعم بستنی مورد علاقه شخص است -- $P(A)$ در این مشکل بعدی. 2. 20$\%$ افرادی که بستنی وانیلی مورد علاقه آنهاست، در 30 روز گذشته یک فیلم ترسناک دیده اند. 3. $5\%$ افرادی که بستنی وانیلی مورد علاقه آنها نیست در 30 روز گذشته یک فیلم ترسناک دیده اند. این نشان می دهد: $$\frac{0.3448\times0.2}{(0.3448\times0.2)+(0.05\times(1-0.3448))} = 0.6779$$ وقتی گرد شود. بنابراین اکنون فکر میکنم با توجه به اینکه در 30 روز گذشته یک فیلم ترسناک را دیدهاند، به احتمال 67.79 دلار \% دلار وجود دارد که طرفداران فیلمهای ترسناک بستنی را دوست داشته باشند. اما صبر کنید، چیز دیگری وجود دارد. من همچنین فهمیدم که آن شخص یک گربه دارد. این چیزی است که من می دانم: 1. $67.79\%$ احتمال به روز شده پسین است که وانیل طعم بستنی مورد علاقه شخص است -- $P(A)$ در این مشکل بعدی 2. $40\%$ افرادی که مورد علاقه آنها وانیل است. بستنی نیز گربه دارد 3. 10$\%$ افرادی که بستنی وانیلی مورد علاقه آنها نیست، گربه نیز دارند این نشان می دهد: $$\frac{0.6779\times0.4}{(0.6779\times 0.4)+(0.1\times(1-0.6779))} = 0.8938$$ هنگام گرد شدن. سوال من اساساً به این خلاصه می شود: آیا من به درستی احتمال را با استفاده از قضیه بیز به روز می کنم؟ آیا من در روش هایم اشتباه دیگری می کنم؟ | آیا این روش صحیحی برای به روز رسانی مستمر یک احتمال با استفاده از قضیه بیز است؟ |
2213 | تفاوت بین شبکه عصبی پیشخور و بازگشتی چیست؟ چرا از یکی بر دیگری استفاده می کنید؟ آیا توپولوژی های شبکه دیگری وجود دارد؟ | شبکه های عصبی پیشخور و بازگشتی؟ |
46219 | با توجه به مجموعهای از مقادیر جرم (به $g$) که نمونههایی هستند که در طول یک دقیقه به شکل پنجره متحرک جمعآوری شدهاند (بنابراین مجموع آنها نشاندهنده جرم در دقیقه مشاهدهشده در سیستم است)، و فرمولی که یک مساحت را به دست میآورد (در $). cm^2$) برای هر مقدار (بر اساس مفروضات خاصی در مورد توزیع جرم -- به عنوان مثال، با استفاده از سطح مقطع کره ای از آن جرم): آیا این امکان وجود دارد که فقط مجموع آنها را بدانیم. مساحت ها (بنابراین یک مقدار مساحت در دقیقه) و فرمول تبدیل جرم-مساحت یک مقدار برای تعیین یک مقدار دقیق یا تقریبی برای جرم در دقیقه (مجموع نمونه اصلی) استفاده می شود؟ اگر نه، چه اطلاعات دیگری مورد نیاز است و چگونه می توان از آن برای محاسبه مقدار جرم در دقیقه استفاده کرد؟ | جرم به منطقه به جرم / دقیقه |
82941 | من در یافتن راهی برای تخصیص یک وزن (در صورت امکان) به هر یک از متغیرهای مستقل در یک رگرسیون لجستیک (من از R استفاده می کنم) مشکل دارم. من مشکل خود را با جزئیات بیشتری توضیح می دهم: من روی مجموعه داده ای از 900 نمونه کار می کنم. حدود نیمی از آنها مبتلا به یک بیماری هستند، نیمی دیگر سالم هستند (متغیر وابسته من در واقع وضعیت آنها است: بیماری یا سالم). برای هر نمونه، وجود نوع خاصی از تنوع را در 32 ژن مختلف بررسی کردم که قصد دارم از آنها به عنوان پیش بینی کننده در رگرسیون خود استفاده کنم. مشکل این است که من نمیخواهم با این 32 پیشبینیکننده به طور مساوی رفتار کنم: برخی از ژنها، در واقع، زمانی که دارای تنوع هستند، بیشتر از سایرین باعث ایجاد بیماری میشوند. من در حال حاضر 32 نمره از پیش محاسبه شده از یک مطالعه قبلی دارم که می خواهم از آنها به عنوان وزن های پیش بینی در مدل استفاده کنم. آیا راهی برای انجام این کار وجود دارد؟ | به متغیرهای پیش بینی کننده در رگرسیون لجستیک وزن نسبی اختصاص دهید |
97678 | من از Dredge (بسته MuMln) برای یک مدل خطی کلی استفاده می کنم. لطفاً در پارامترهای میانگین مدل، خطای استاندارد تنظیم شده در مقابل خطای استاندارد «عادی» چیست؟ یعنی برای چه چیزی تنظیم می شود؟ به عنوان مثال ضرایب میانگین مدل: Estimate Std. خطا **تنظیم SE** مقدار z Pr(>|z|) (فاصله) 34.21850 1.47217 1.49370 22.909 < 2e-16 اطلاعاتی که من تا کنون پیدا کرده ام این است: > خطاهای استاندارد بدون قید و شرط جذر واریانس هستند برآوردگر، > یا بر اساس معادله اصلی در برنهام و محاسبه می شود اندرسون > (2002، معادله 4.7)، یا فرمول جدیدتر، اصلاح شده از برنهام و اندرسون > (2004، معادله 4) برآوردگر خطای استاندارد و بازه های اطمینان > با پوشش بهبود یافته برگردانده می شود (به برنهام و اندرسون > 2002، بخش مراجعه کنید). 4.3.3) اما من به این کتاب دسترسی ندارم برای هر پیشنهادی سپاسگزار باشید با تشکر Emma EDIT: آیا کسی پیشنهادی ندارد؟ | تنظیم SE در مقابل SE در خروجی Dredge R |
46213 | 1. **سوال اول:** آیا مثال زیر برای محاسبه آزمون هاسمن برای درون زایی با دو رگرسیون درون زا کافی است؟ 2. **سوال دوم:** آیا درست است که در صورت ناهمسانی، یعنی نتیجه قابل توجهی برای تست Breusch-Pragan-Test می گیرم، باید یک آزمون Durbin-Watson-Wu-Test برای درون زایی با heteroscedastic اجرا کنم. خطاهای استاندارد قوی؟ آیا اگر من به جای آن یک رگرسیون با خطاهای استاندارد قوی ناهمسان، یعنی از نوع HC4 اجرا کنم و سپس آزمون Wald یا F-تست معمول را انجام دهم، این فقط یکسان نیست؟ یا حتی یک رویکرد GLS را برای کنترل هتروسکداستیکی انتخاب کنید؟ این مثال را در نظر بگیرید (با عرض پوزش برای همه R-code، اما شما فقط می توانید این چیز را اجرا کنید و خودتان ببینید) برای تنظیم چیزها، من سه متغیر با همبستگی دلخواه ایجاد می کنم. برای انجام این کار از تابع CorrNorm2 خود استفاده می کنم CorrNorm2 <- تابع(n، rho1، rho2، rho3) { u1 <- rnorm(n,0,1) u2 <- rnorm(n,0,1) u3 <- rnorm(n ,0,1) x <- cbind(u2,u3) u1 <- as.vector( ( diag(n) - x%*%solve(t(x)%*%x)%*%t(x) ) %*% u1 ) u1 <- ( u1 - mean(u1))/sd(u1) x <- cbind(u1 ,u3) u2 <- as.vector( ( diag(n) - x%*%solve(t(x)%*%x)%*%t(x) ) %*% u2 ) u2 <- ( u2 - mean(u2) )/sd(u2) x <- cbind(u1,u2) u3 <- as.vector( ( diag(n) - x%*%solve(t(x)%*% x)%*%t(x) ) %*% u3 ) u3 <- ( u3 - mean(u3) )/sd(u3) covmat <- ماتریس(0،3،3) covmat[,1] <- c(1، rho1، rho3) covmat[،2] <- c(rho1، 1، rho2) covmat[,3] <- c(rho3، rho2 , 1) svd_covmat <- svd(covmat) D <- diag(3)*svd_covmat$d D <- sqrt(D) V <- svd_covmat$v L <- V%*%D z1 <- L[1,1]*u1 + L[1,2]*u2 + L[1,3]*u3 z2 <- L[2,1]*u1 + L[2,2]*u2 + L[2,3]*u3 z3 <- L[3,1]*u1 + L[3,2]*u2 + L[3,3]*u3 z <- cbind(z1,z2,z3) return(z) } اکنون طرح نمونه خود را تنظیم کردم n <- 100 rho1 <- 0.5 #rho1: cor بین 1 و 2 rho2 <- 0 #rho2: cor بین 2 و 3 rho3 <- 0.5 #rho3: cor بین 1 و 3 b1 <- 1 b2 <- 2 b3 <- 3 var <- CorrNorm2(n,rho1,rho2,rho3) u1 <- var[,1] u2 <- var[,2] u3 <- var[,3] x1 <- rnorm(n,0 ,1) z1 <- rnorm(n,0,1) z2 <- rnorm(n,0,1) y3 <- z1 + u3 y2 <- z2 + u2 y1 <- b1*y2 + b2*y3 + b3*x1 + u1 اولین مرحله آزمون هاسمن برای درون زایی، محاسبه خطاهای شکل کاهش یافته برای رگرسیون های درون زا است. در مورد من برای متغیرهای $y_2$ و $y_3$ # شکل کاهش یافته y2 mod2 <- lm(y2 ~ z1 + z2) res2 <- resid(mod2) # شکل کاهش یافته y3 mod3 <- lm(y3 ~ z1 + z2) res3 <- resid(mod3) سپس باقیمانده های تخمینی این خطاهای فرم کاهش یافته را وصل می کنم، یعنی. _res2_ و _res3_، به شکل ساختاری: $y_1$ یعنی به $y_1 = b_1y_2 + b_2y_3 + b_3x_1 + u_1$. haus1 <- lm(y1 ~ y2 + y3 + x1 + res2 + res3) سپس یک آزمون F برای اهمیت مشترک _res2_ و _res3_ انجام میدهم. برای این کار باید مجموع مجذور باقیمانده را برای فرم نامحدود ($SSR)$) و محدود ($SSR_{H0}$) استخراج کنم. مجموع نامحدود مجذور باقیمانده ها فقط مجموع مجذور باقیمانده های مدل است که شامل باقیمانده های شکل کاهش یافته است. مدل محدود شده، رگرسیون OLS بدون باقیماندههای شکل کاهشیافته است. # مجموع مجذور باقیمانده برای مدل نامحدود SSR <- sum(resid(haus1)^2) # مجموع مجذور باقیمانده برای مدل محدود محدود شده. mod <- lm(y1 ~ y2 + y3 + x1) SSR_H0 <- sum( resid(restricted.mod)^2) اکنون F-Test معمولی را روی a انجام می دهم $\alpha=0.05$ سطح F <- ((n - طول(b) ) / 2 )*( (SSR_H0 - SSR)/SSR ) F [1] 20.72482 F > qf(0.95، 2، n - طول(b )) [1] درست است بنابراین می توانم $H_0$ را به $\alpha=0.05$ رد کنم. بنابراین حداقل یکی از متغیرها، یعنی $y_2$ یا $y_3$ در واقع درونزا هستند. | سوال در مورد آزمون هاسمن برای درون زایی با دو رگرسیون درون زا با ناهمسانی بالقوه |
106346 | من با یک شرکت برتر برای موقعیت دانشمند داده مصاحبه دارم. به من اطلاع داده شد که آنها مفاهیم احتمال/نظریه آماری را آزمایش خواهند کرد. بنابراین این سوال: اگر 1 ساعت برای انجام یک مصاحبه فراگیر در مورد طیف وسیعی از موضوعات فرصت داشته باشید و بخواهید دانش کسی را در مورد احتمالات/نظریه آماری نیز آزمایش کنید... چه مفاهیمی را امتحان می کنید؟ روش دیگری برای بیان این سوال: مهمترین مفاهیمی که باید از نظریه احتمال/آمار بدانیم چیست؟ (من نمی توانم همه چیز را مطالعه کنم!) | مهمترین مفاهیم نظریه آمار -- مصاحبه |
90907 | من نمیپرسم اگر یک مدل بیش از 100 تکرار طول بکشد تا همگرا شود آیا معنایی وجود دارد؟ آیا هنوز هم می توانم به نتایج اعتماد کنم؟ من در حال اجرای logit تجمعی با رهگیری تصادفی در proc glimmix در SAS هستم. ویرایش شده برای افزودن: فکر می کنم به زودی سوال را مطرح کردم و اکنون سوال من کمی متفاوت است. من فکر می کنم احتمالا نباید به این نتایج اعتماد کنم. من 12 مدل را اجرا می کنم و اکثر آنها با 60-100+ تکرار همگرا هستند. تعدادی از آنها نیز این پیام را داشتند: توجه: حداقل یک عنصر از گرادیان (پیش بینی شده) بزرگتر از 1e-3 است. بنابراین من می دانم که یک مشکل وجود دارد. بنابراین، جایگزین دیگر من استفاده از GEE بود. مدل ها بدون مشکل تخمین می زنند و در واقع تخمین ها بسیار نزدیک به نتایج GLMM هستند. بنابراین، در حال حاضر من در مورد آنچه که باید انجام دهم سردرگم هستم. پیشینه بیشتر در مورد مطالعه: ما ارزیابی هایی (مثلاً چقدر پیام قانع کننده است) از 7 پیام برای هر موضوع داریم. همچنین پس از مشاهده پیام ها، اطلاعاتی در مورد احساسات و برخی متغیرهای دیگر جمع آوری کردیم. ما می خواهیم بررسی کنیم که چگونه احساسات و غیره با رتبه بندی های قانع کننده بودن پیام ها ارتباط دارند. | تکرارهای زیادی قبل از همگرایی - سوال GLMM در مقابل GEE |
97673 | فرض کنید که من یک قالب شش وجهی را x$ بار میچرخانم، مثلاً 10، احتمال اینکه یک ضلع/عدد خاص، مثلاً 6، تعداد دفعات مشخصی بدست بیاورم چقدر است؟ آیا یک فرمول کلی برای محاسبه این وجود دارد؟ به عنوان مثال، احتمال اینکه من این کار را انجام دهم چقدر است: * دقیقاً 1 بار شش دریافت کنید * دقیقاً 2 برابر شش دریافت کنید * دقیقاً 3 برابر شش دریافت کنید * $\dots$ * دقیقاً 10 ضربدر شش دریافت کنید | احتمال و تاس |
50584 | با استفاده از توزیع نرمال اجازه دهید $X\sim \mathcal{N}(1, 2)$ و $Y\sim \mathcal{N}(2, 3)$ که در آن $\mathcal{N}(μ, \sigma^2$) نشان دهنده توزیع نرمال با میانگین $\mu$ و واریانس $\sigma^2$. X و Y مستقل هستند. اجازه دهید $U = 2X + 3Y$. منظور از U چیست؟ واریانس U چقدر است؟ $P(6<=U<=7.5)$ چیست؟ برای میانگین U، $2(1)+3(2)=8$ را محاسبه کردم. برای واریانس U 2(2)+3(3)=13$ را محاسبه کردم. سپس «pnorm(7.5,mean=8,sd=sqrt13)-pnorm(6,mean=8,sd=sqrt13)» [1] 0.1553036 برای P(6<=U<=7.5) را پیدا کردم. آیا این کار را به درستی انجام دادم؟ پیشاپیش متشکرم | توزیع عادی |
5465 | من به دنبال برخی سوالات آماری (و احتمالی، حدس میزنم) مصاحبه، از ابتداییترین تا پیشرفتهتر هستم. پاسخ لازم نیست (اگرچه پیوند به سوالات خاص در این سایت خوب است). | سوالات مصاحبه آماری |
46216 | من به تازگی یک سخنرانی از دوره یادگیری ماشینی در Coursera را دوباره تماشا کردم. در بخشی که استاد PCA را برای پیش پردازش داده ها در برنامه های کاربردی یادگیری نظارت شده مورد بحث قرار می دهد، می گوید PCA فقط باید بر روی داده های آموزشی انجام شود و سپس از نقشه برداری برای تبدیل اعتبار متقاطع و مجموعه های تست استفاده می شود. با این حال، در بسته Caret R، دادههای آموزشی که به تابع «train()» منتقل میکنید قبلاً توسط PCA پردازش میشوند. بنابراین وقتی الگوریتم اعتبار سنجی متقاطع k-fold را انجام می دهد، مجموعه اعتبار سنجی متقاطع قبلاً با PCA از طریق «preProcess()» و «predict()» پردازش شده است و در واقع در PCA «برازش» استفاده می شود. آیا درک من از موقعیت درست است؟ یعنی رویه Caret برای اعتبارسنجی متقابل با PCA (یا در واقع، با هر روش مقیاسگذاری مجدد/مرکز) اشتباه است زیرا پیش پردازش دادهها بر روی مجموعه اعتبارسنجی متقاطع و همچنین مجموعه آموزشی انجام میشود؟ و اگر چنین است، این موضوع چقدر روی نتایج تاثیر خواهد داشت؟ متشکرم. | PCA و k-fold Cross Validation در Caret |
44475 | برای یک پروژه اکولوژی، گروه آزمایشگاهی من سرکه را به 4 مخزن حاوی حجم مساوی آب حوضچه، 1 کنترل بدون elodea (یک گیاه آبزی) و 3 تیمار با مقدار مشابه elodea در هر کدام اضافه کردند. هدف از افزودن سرکه کاهش PH بود. فرضیه این بود که مخازن دارای elodea سریعتر به pH طبیعی خود باز می گردند. این واقعاً چنین بود. pH هر تانک را روزانه به مدت حدود دو هفته اندازه گیری کردیم. همه مخازن در نهایت به pH طبیعی خود بازگشتند، اما مدت زمانی که این کار طول کشید برای مخازن با elodea بسیار کوتاهتر بود. وقتی به استادمان درباره طراحی آزمایشی خود گفتیم، او گفت که هیچ آزمایش آماری وجود ندارد که بتوان روی داده ها انجام داد تا کنترل را با درمان مقایسه کند. به دلیل اینکه هیچ تکراری برای کنترل وجود نداشت (ما فقط از یک مخزن کنترل استفاده کردیم) نمیتوانیم واریانس را محاسبه کنیم و بنابراین نمیتوانیم میانگین نمونه کنترل و تیمار را با هم مقایسه کنیم. بنابراین سوال من این است که آیا این درست است؟ من قطعا منظور او را می فهمم. به عنوان مثال، اگر قد یک مرد و یک زن را بگیرید، نمی توانید در مورد جمعیت مربوط به آنها نتیجه گیری کنید. اما ما 3 درمان انجام دادیم و واریانس کمی بود. منطقی به نظر می رسد که فرض کنیم واریانس در کنترل مشابه باشد؟ **به روز رسانی:** از پاسخ عالی شما متشکرم. ما آب و الودای بیشتری از تالاب دریافت کردیم و تصمیم گرفتیم آزمایش را دوباره با مخازن کوچکتر انجام دهیم، اما این بار با 5 کنترل و 5 تیمار. ما میخواستیم این را با دادههای اصلی خود ترکیب کنیم، اما pH شروع مخازن به اندازهای متفاوت بود که به نظر نمیرسد که آزمایش جدید از همان جمعیت آزمایش اصلی نمونه برداری شود. ما در نظر گرفتیم که مقادیر مختلف elodea را اضافه کنیم و سعی کنیم سرعت اصلاح pH (که با گذشت زمان تا بازگشت pH به مقدار اولیه خود اندازهگیری میشود) را با مقدار elodea مرتبط کنیم، اما تصمیم گرفتیم که این کار ضروری نیست. هدف ما فقط نشان دادن این است که elodea یک تفاوت مثبت ایجاد می کند، نه ساختن نوعی مدل پیش بینی برای اینکه دقیقاً چگونه pH به مقادیر مختلف elodea پاسخ می دهد. تعیین مقدار بهینه elodea جالب خواهد بود، اما این احتمالاً حداکثر مقداری است که می تواند زنده بماند. تلاش برای تطبیق منحنی رگرسیون به دادهها به دلیل تغییرات پیچیدهای که هنگام اضافه کردن مقدار زیادی در جامعه رخ میدهد، بهویژه روشنگر نخواهد بود. elodea می میرد، تجزیه می شود، موجودات جدید شروع به تسلط می کنند و غیره. | آیا آزمون آماری برای مقایسه دو نمونه سایز 1 و 3 وجود دارد؟ |
62284 | چرا اوج نمودار چگالی در داده های زیر بالاتر از 1 است؟ نباید زیر 1 باشه؟ x = c(0.43,0.71,0.6,0.56,0.14,0.38,0.71,0.33,0.09,0.8,0.62,0.33,0.12,0.6,0.4,0.56,0.33,0.75,0.4,0.33,0.75,0.4,7,0.40.4. 09,0.54,1,0.46,0.33,0.33,1,0.5,0.52,1,0.25,0.2,0.71,0.6,0.54,0.75,0.67,0.2,0,0.33,0.73,0.4,6,0.5. 0.67،0.6) نمودار(تراکم(x)) وقتی همه مقادیر را با استفاده از plot(density(x*10)) در 10 یا 100 ضرب می کنم، پیک زیر 1 است. | چرا مقدار پیک «نقشه چگالی» بالاتر از 1 است؟ |
91448 | من از یک جنگل تصادفی برای پیشبینی طبقهبندی درست/نادرست استفاده میکنم. من تقریباً 20000 ثبت نام در ماه در طول یک سال دارم. اگر 20 درصد دادهها را بهصورت تصادفی تنظیم کنم، 40 درصد KS دریافت میکنم. اگر در عوض داده های یک ماهه به عنوان آزمایش، و آموزش با 1، 3، 6 یا 11 ماه، به 30% کاهش می یابد، مهم نیست که چه انتخاب یا ترکیبی انجام می دهم (یعنی: ماه آخر را با قطار 11 ماهه آزمایش کنید، ماه هفتم را آزمایش کنید. ماه با قطار 3 ماهه و غیره) سعی کردم فراوانی متغیرهای عاملی و توصیفی متغیرهای عددی را بررسی کنم اما به نظر می رسد تفاوت زیادی وجود ندارد. در سراسر ماه ها هیچ یک از متغیرهای من مستقیماً به تعداد ماه اشاره نمی کند، بنابراین من واقعاً نمی فهمم که چرا تفاوت زیادی بین این دو نتیجه وجود دارد. آیا ایده یا جزئیاتی دارید که بتوانم به آن نگاه کنم تا بفهمم چرا این اتفاق می افتد؟ | شکاف در آزمایش جنگل تصادفی با استفاده از نمونههایی با ساختار متفاوت |
90908 | من سعی میکنم معنی دقیق $F$-values را بفهمم و چه چیزی را در جدول ANOVA برای یک مدل خطی ساده در `R` آزمایش میکنیم: > asdf=lm(carb~weight+protein+age) > anova (asdf) تجزیه و تحلیل جدول واریانس پاسخ: کربوهیدرات Df مجموع مربع میانگین مربع F مقدار Pr(>F) وزن 1 181.38 181.378 5.1123 0.03804 * پروتئین 1 305.40 305.400 8.6079 0.00973 ** سن 1 38.36 38.359 1.0812 0.31389 0.31389 0.31389 S. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 اگر دو مدل خطی تودرتو در $B$ با متغیرهای $p_0$ و $p$ داشته باشیم، ما از آماره $F$ بدست آمده از آزمون نسبت درستنمایی استفاده می کنیم: $$ \frac{(n-p-1)}{(p-p_0)}\cdot\frac{RSS(A)-RSS(B)}{RSS(B)} $$ برای پیدا کردن اینکه آیا $B$ را به $A ترجیح می دهیم $. $F$-value «1.0812» در خط سوم منطقی است، زیرا دقیقاً این آمار برای مقایسه مدل کامل و مدلی است که متغیر «سن» را حذف میکند. ما میتوانیم حذف متغیر سنی را با این نتیجه توجیه کنیم. من در مورد مقادیر $F$ در دو خط اول متحیر هستم. من می بینم که اولین مقدار با گرفتن نسبت به دست می آید: $$ 16\cdot\frac{(RSS({\rm null})-RSS({\rm incl.weight})}{RSS({\rm full model} )} $$ و خط دوم شبیه به این است که این آزمایش دقیقاً چه فرضیه ای است و چگونه منطقی تر از استفاده است: $$ 18\cdot\frac{(RSS({\rm). null})-RSS({\rm incl.weight})}{RSS({\rm incl.weight})} برای مقدار سوم در توضیح بالا، فکر میکنم سؤال من کاملاً واضح نبود؟ توضیح میدهم، فرض کنید بیشتر تلاش میکنیم: > a=lm(carb~1) > as=lm(carb~weight) > anova(a,as) تجزیه و تحلیل جدول واریانس مدل 1: کربوهیدرات. ~ 1 Model 2: carb ~ weight Res.Df RSS Df Sum of Sq F Pr(>F) 1 19 1092.80 2 18 911.42 1 181.38 3.5821 0.0746 --- Signif '*0' . ' 0.01 '*' 0.05 «.» 0.1 «» 1 چرا وقتی از «anova» به تنهایی در مدل کامل استفاده میکنیم، مقدار F$ برای وزن در مقابل 5.1123 دلار پوچ دریافت میکنیم که با 3.5821 دلار در اینجا متفاوت است، و اینها چگونه متفاوت هستند؟ | مقادیر F در جدول ANOVA |
9422 | فرض کنید من پاسخ های نظرسنجی دارم که به این صورت است: N=60000، جمعیت n=1000، کل نمونه n=800، کاربران شرکت X n=200، به طور تصادفی از بین 800 انتخاب شده و در مورد استفاده آتی آن ها از شرکت X n=100 سؤال شده اند. برنامه ریزی برای استفاده کمتر از شرکت X در آینده دلیل این که از 800 کاربر فقط از 200 کاربر در مورد استفاده در آینده سؤال شد به این دلیل بود که از آنها در مورد شرکت های دیگر سؤال شده بود. همچنین. اگر از آنها در مورد استفاده آینده آنها از تمام شرکت هایی که استفاده می کنند سؤال شود، این نظرسنجی بسیار طولانی خواهد بود. هدف من درک جریان استفاده در آینده است. به عنوان مثال، از آن دسته از افرادی که در آینده کمتر از شرکت X استفاده می کنند، شرکت های دیگر قصد دارند بیشتر استفاده کنند. با این حال، با یک نمونه 100 نفری، پاسخهای کافی به شرکتهای دیگر از همان کاربران به شرکتهای دیگر برای دریافت نسبت قابل استفاده وجود ندارد. آیا میتوانم با مقداری دقت، جریان تجارت را از نمونه قویتری از کاربران شرکت X استنتاج کنم؟ به روز رسانی: فکر می کنم، آنچه ممکن است به آن اشاره کنم، بوت استرپینگ نامیده می شود. | نمونه برداری مجدد در یک نظرسنجی برای محاسبه داده های از دست رفته |
43025 | من میخواهم آماری را پیدا کنم که بتواند وضوح یا پراکندگی یک سیگنال اوجشکل را به وضوح توصیف کند. برای بیان واضح تر این سوال، من دو نوع مختلف قله (تیز و گسترده) را ترسیم کردم، همانطور که در شکل زیر نشان داده شده است، و آیا آماری وجود دارد که بتواند این دو نوع را به خوبی متمایز کند. آیا کسی می تواند به من سرنخی بدهد؟  | آمار وضوح یا پراکندگی داده های متوالی را توصیف می کند؟ |
9420 | جداول جداول احتمالی معمولاً به صورت جداولی شبیه به ماتریسهای ریاضیات فرمبندی میشوند، این مثال را ببینید. آیا معادله زیر یک نماد پذیرفته شده برای بیان احتمالات نتایج به عنوان یک ماتریس است؟ اگر نه، **روش پذیرفته شده چه خواهد بود؟** آیا مطالب منتشر شده ای با استفاده از همان نماد وجود دارد؟ $$ \widehat{Pr_\text{نتیجه}} = \begin{matrix} & \begin{matrix} \text{RH} & \text{LH} \end{matrix} \\\ \begin{matrix} \text {male} \\\ \text{female} \end{matrix} & \begin{bmatrix} 43 & 9 \\\ 44 & 4 \end{bmatrix} \end{matrix} \cdot \frac{1}{100} = \begin{matrix} & \begin{matrix} \text{RH} & \text{LH} \end{matrix} \\\ \begin{matrix} \text{male} \\\ \text{female} \end{matrix} & \begin{bmatrix} 0.43 و 0.09 \\\ 0.44 & 0.04 \end{bmatrix} \end{matrix} $$ | علامت گذاری ماتریس احتمال مربوط به جدول احتمالی |
65041 | چرا چگالی روی محور y گاهی اوقات مقادیری بزرگتر از 1 دارد اگر منحنی نشان دهنده چگالی باشد؟ مثال زیر را ببینید که در آن من از تابع تراکم()R برای رسم منحنی چگالی استفاده می کنم. نمودار(تراکم(rnorm(1000، 1، 0.01)))  | چرا این چگالی از 1 تجاوز می کند؟ |
90909 | من این مشکل را دارم که با استفاده از چیزی که مربوط به امتیاز دهی فیشر است، گرادیان، که معمولاً مجموع یک متغیر ضربدر یک مقدار است که به پارامتر مورد نظر ما بستگی دارد، به روز رسانی ها عمدتاً بر عناصری متمرکز می شوند که مقیاس آنها است. بزرگ **مثال:** اگر من از مقداری spline برای تخمین تاثیر روی یک متغیر وابسته به صورت صاف استفاده کنم، مقیاس ستون های spline در مقایسه با تاثیر پارامتریک یک متغیر که زمان است (اندازه گیری شده در روز) یا قیمت (در صدها اندازه گیری می شود). **سوال من این است**: آیا باید از نوعی استانداردسازی متغیرها قبل از بهینه سازی برای تنظیم تفاوت در مقیاس استفاده کنم یا بهتر است با استفاده از تابع optim() در R، یک ضریب مقیاس بندی را در داخل ارائه کنم. روش بهینه سازی | چگونه می توان مشکل را حل کرد، که مقیاس متغیرها بر گرادیان/بهینه سازی تأثیر می گذارد |
90904 | من در استفاده از درختان CART تازه کار هستم، اما برای پروژه ای که روی آن کار می کنم از من خواسته شده است که این کار را انجام دهم. من در اجرای اسکریپت ها (از هر دو بسته RPART و PARTY) موفقیت آمیز بوده ام، اما به نظر نمی رسد که دقیقاً آنچه را که به دنبالش هستم برسم. من در حال کار با داده های طیفی (قرمز، NIR، NDVI...) برای 80 درخت در چهار دسته (مسیک-کنترل، مسیک-بارور، زریک-کنترل و زریک-بارور) هستم. تفاوت های قابل توجهی در مقادیر میانگین برای باندهای طیفی در بین چهار دسته وجود دارد و من می خواهم از این تفاوت ها برای ایجاد الگوریتمی برای اختصاص دسته به درختان ناشناخته استفاده کنم. در اینجا یک درخت ساختگی است که من با استفاده از بسته RPART درست کردم:  مناسب <- rpart(Category ~ red.top + NIR.top + R. NIR.top، روش = anova، data=CCA) plot(fit, uniform=T, main=Classification Tree for Kyphosis) text(fit, use.n=TRUE, all=TRUE, cex=.8) و این هم درخت دیگری که با PARTY درست کردم:  library(party) مناسب <- ctree(Category ~ red.top + NIR.top + R.NIR.top, data=CCA) plot(fit, main=Conditional Inference Tree for Kyphosis) gtree <- ctree(Category ~ ., data = CART) plot(gtree) هر دو خوب به نظر می رسند، با این تفاوت که واقعاً کاری را که من می خواهم انجام نمی دهند. RPART یکی خوب به نظر میرسد، اما نمیتوانم بفهمم که چگونه میتوان هویت دستهبندی درختها را در هر «برگ» تعیین کرد و PARTY آن چیزی است که من میخواهم، به جز اینکه درخت در مقایسه با درخت رگرسیون در اول بسیار سادهتر است. مثال هدف نهایی من این است که اساساً این دو را ترکیب کنم و یک درخت رگرسیون بزرگتر ایجاد کنم که از «قوانین» بیشتری از دادهها استفاده میکند و من را به خروجی «برگها» با اطلاعات طبقهبندی و مقداری قدرت پیشبینی میرساند. من واقعاً خیلی درگیر این نیستم که از پسرفت یا طبقه بندی استفاده کنم - تا زمانی که ارزش سودمندی داشته باشد. بنابراین، حدس میزنم آنچه واقعاً به دنبال آن هستم، اسکریپتهای بهتری برای هر بسته است که درختی دقیقتر با خروجی بصری (نمودارهای نواری روی برگها) یا راهی برای تعیین هویت گروههای ایجاد شده توسط درخت RPART به من بدهد. | تجزیه و تحلیل درختان نوع CART در R - گزینه هایی برای گروه بندی نتایج، قالب بندی نمودارها |
90902 | در Leave One Out Cross Validation، هر یک از مجموعه های آموزشی بسیار شبیه به یکدیگر هستند و تنها در یک مشاهده متفاوت هستند. وقتی میخواهید خطای تست را تخمین بزنید، میانگین خطاها را روی تاها میگیرید. این میانگین دارای واریانس بالایی است. آیا یک فرمول ریاضی، روش بصری یا شهودی برای درک اینکه چرا آن میانگین در مقایسه با K-fold Cross Validation واریانس بالایی دارد وجود دارد؟ | چرا واریانس Leave One Out Cross Validation (LOOCV) در مورد میانگین تخمین خطا زیاد است؟ |
90906 | من با R و رگرسیون لجستیک تازه کار هستم و باید اعتراف کنم که واقعاً نمی دانم چگونه نتیجه را تفسیر کنم. من سعی می کنم یک مدل بسیار ساده را با 2 پیش بینی (A و B) محاسبه کنم. وقتی برای اولین بار سعی میکنم مدلها را با پیشبینیکنندهها یک به یک محاسبه کنم، هر دو مهم هستند. وقتی آنها را کنار هم می گذارم و یک اصطلاح تعاملی را اضافه می کنم، اهمیت خود را از دست می دهند (اما اصطلاح تعامل ضعیف است). من این را اینگونه تفسیر می کنم که A و B با هم تداخل دارند و وقتی پارامتر دیگری ثابت بماند دیگر معنی دار نیستند. درسته؟ اما حالا به قسمتی که نمی دانم چگونه تفسیر کنم. من از مدل هایم پیش بینی می کنم (کد زیر را ببینید) و سپس آزمون های t را برای پیش بینی ها در مقابل متغیر وابسته اجرا می کنم. فکر میکنم این باید به خوبی مدل خوبی باشد (راه بهتری وجود دارد؟). وقتی این کار را به این صورت انجام میدهم، مقدار p بسیار پایینتری برای مدل با هر دو A و B دریافت میکنم. فکر میکنم این متناقض است. قسمت اول به من می گوید که A در ترکیب با B هیچ اطلاعات قابل توجهی در اختیار مدل قرار نمی دهد، اما از طرف دیگر من پیش بینی های بسیار بهتری دریافت می کنم. حدس میزنم واقعاً چیزی اشتباه است، اما نمیتوانم بفهمم که چیست. می توانید به من کمک کنید؟ model1=glm(f~A, , family=binomial(link=logit)) model2=glm(f~B, family=binomial(link=logit)) model3=glm(f~A*b, خانواده =binomial(link=logit)) summary(model1) summary(model2) summary(model3) p1=predict(model1, newdata=data, type=response, na.rm=TRUE) p2=predict(model2, newdata=data, type=response, na.rm=TRUE) p3=predict(model3, newdata=data, type=response, na.rm=TRUE) t.test(p1~f) t.test(p2~f) t.test(p3~f) بخشی از خروجی: > summary(model1) برآورد Std. خطای z مقدار Pr(>|z|) (Intercept) -1.9756 0.3499 -5.647 1.64e-08 *** A -0.5898 0.2119 -2.784 0.00537 ** > summary(model2) Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) 8.354e-01 1.309e+00 0.638 0.5234 B -1.028e-04 5.122e-05 -2.007 0.0447 * > خلاصه (model3) ضرایب تخمینی. خطای z مقدار Pr(>|z|) (فاصله) 1.254e+00 1.705e+00 0.735 0.462 A 1.589e+00 9.743e-01 1.631 0.103 B -1.324e-0301-04.705. A:B -9.418e-05 4.632e-05 -2.033 0.042 * > t.test(p1~f) t = -2.614، df = 11.83، p-value = 0.02286 > t.test(p2~f) t = -1.8702، df = 15.679، p-value = 0.08024 > t.test(p3~f) t = -4.9777، df = 17.344، p-value = 0.0001084 | کمک به تفسیر رگرسیون لجستیک |
50501 | با استفاده از توزیع نرمال اجازه دهید $X \sim N(1, 2)$ و $Y \sim N(2, 3)$ که در آن $N(\mu, \sigma^2)$ توزیع نرمال را با میانگین $\mu$ و واریانس $ نشان می دهد. \sigma^2$. $X$ و $Y$ مستقل هستند. $P(X>Y)$ چیست؟ من می دانم که $P(X>Y)$ را می توان به معنای $P(X-Y>0)$ ترجمه کرد و می خواهم $X-Y$ را به یک متغیر مانند $D$ تبدیل کنم. بنابراین $P(D>0)$ اما چگونه می توانم توزیع ها را کم کنم؟ من سعی کردم $1-2=-1$ را برای میانگین و سپس $2-3=-1$ را برای واریانس انجام دهم. من نمیدانم این چگونه میتواند باشد زیرا ما نمیتوانیم جذر -1 را برای بدست آوردن انحراف معیار بگیریم. | احتمال بزرگتر بودن یک متغیر تصادفی از دیگری |
99121 | من باید چیزی را از دست بدهم، یا در مورد آنچه که در یک تست T پایه میگذرد، فکر نمیکنم، اما این تصور را داشتم که اگر یک تست T انجام دهم و یکی از نمونههای من فقط از یک مشاهده تشکیل شده باشد، این تست انجام میشود. شکست بخورد. برای اینکه ببینم واقعا اینطور است یا نه، کدی را در کد پایتون اجرا کردم. من تعدادی اعداد درست کردم که نمونه اول من 15 مقدار دارد و نمونه دوم فقط 1 دارد: import statsmodels.api به صورت sm print این نتیجه آزمون T است: ttest = sm.stats.ttest_ind(np.array([821,823,814,815,816,817,881,891,234,354,678,765,989,435,657])، np.array([21]، tp. = 0.05، بنابراین نتیجه این است:، ttest[1] <= 0.05 نتیجه این است: این نتیجه آزمون T است: pvalue: 2.72522964545e-08، در آلفا = 0.05، بنابراین نتیجه: True I من پاسخی دریافت می کنم که می گوید بین دو میانگین نمونه تفاوت معنی داری وجود دارد. آیا این به سادگی یک پاسخ جعلی است؟ من این تصور را داشتم که نمی توان یک مشاهده را متعلق به یک توزیع نرمال فرض کرد، بنابراین این فرض برای خود آزمون T قابل تأیید نیست. بنابراین آزمون نباید مناسب باشد. پیشاپیش از بحث متشکرم | برای تست T، اگر یکی از نمونه های من فقط از یک مشاهده تشکیل شده باشد، چه اتفاقی می افتد؟ |
35364 | > **تکراری احتمالی:** > مقدار توزیع احتمال بیش از 1 خوب است؟ من دوره یادگیری ماشین توسط Andrew Ng را دنبال کردم و تصمیم گرفتم یک سیستم تشخیص ناهنجاری را برای یکی از مشکلات خود پیاده کنم. من تاکنون این کار را انجام داده ام: 1. من حدود ($m=$) 100k بردار ویژگی دارم که نشان دهنده رفتار عادی است. 2. مقادیر به بازه $[-1; 1]$ و میانگین $\mu$ محاسبه و از تمام مقادیر کم می شود. 3. اکنون بردارهای مشخصه مقیاس شده (نقاط داده) در یک ماتریس وارد می شوند به طوری که هر ردیف نشان دهنده یک نقطه داده 4 است. سپس ماتریس کوواریانس با معادله زیر $\frac{1}{m}*M^{T محاسبه می شود. }M$ 5. برای طبقه بندی یک نقطه داده جدید، مقیاس بندی مشابه قبلی را اعمال می کنم و میانگین را کم می کنم. بیایید بردار حاصل را 6$x$ بنامیم. این بردار به فرمول زیر وصل شده است: $p(x) = \frac{1}{(2\pi)^{\frac{n}{2}}|\Sigma |^{\frac{1}{2}}} e^{-0.5 x^{T}\Sigma^{-1}x}$ من فرض کردم که $p(x) \in [0;1]$، اما در عوض مقادیر $> 1000$ را نیز دریافت می کنم. راهنمایی داری از اینجا کجا برم؟ با تشکر | p(x) در یک سیستم تشخیص ناهنجاری مقادیر بزرگتر 1 را می دهد |
112569 | نمودار نمونه زیر با استفاده از R ایجاد شد، برای مثالی که در حین خواندن با آن مواجه شدم (در توزیع زمان تا رسیدن مشتری x): t <- seq(0,1,0.01) ft <- 100*t*exp(-10) *t) plot(t,ft,type=l, xlab=T, ylab=f(t)) title(main=expression(paste(تابع چگالی احتمال ، گاما (2، فرک (1،10))))); گراف شبیه تابع نقطه درصد به نظر میرسد، اگرچه دقیقاً نیست. سعی میکنم بفهمم چگونه آن را تفسیر میکنم، اما آن را دریافت نمیکنم. آیا کسی می تواند در مورد نحوه خواندن طرح بالا کمک کند؟ ممنون، کمال. | در مورد نحوه تفسیر تابع چگالی احتمال گاما گاما (2، 1/10) به کمک نیاز دارید. |
97770 | از من خواسته شده است که برخی از دادهها را با نگاهی به دو روش (داخل عروقی و سطحی) خنک کردن بیماران در بخش مراقبتهای ویژه تا دمای هدف 33 درجه بررسی کنم. این دو گروه برای متغیرهای شناخته شده مستقل و قابل مقایسه هستند (اما تصادفی نیستند). گروه دریافت کننده مداخله سطحی حدود 3 برابر بزرگتر از گروه مداخله داخل عروقی است. دمای هر بیمار هر ساعت یک بار به مدت 36 ساعت اندازه گیری شد. نمودارهای پراکندگی به این شکل هستند:   رویکرد من برای نشان دادن برتری یک روش بر روش دیگر، ارزیابی ثبات در دستیابی به دمای هدف 33 درجه بوده است. نمودار زیر میانگین/SD و محدوده متوسط/IQ را برای هر دستگاه نشان میدهد:   من نتایج را برای هر گروه در هر ساعت با استفاده از آزمون Levene مقایسه کرده ام. روند فکر من این است که اگر تفاوت قابل توجهی در همگنی واریانس وجود داشته باشد، این برتری را در دستگاه با واریانس کوچکتر استنباط می کند. همانطور که انتظار دارید، برای چند ساعت اول این مقدار غیر قابل توجهی تولید می کند، اما بعد از ساعت 5 معنی دار می شود و باقی می ماند (05/0p<). نمودار واریانس به این صورت است:  آیا این رویکرد معقولی برای این مشکل به نظر می رسد و آیا این مزیت عملکرد قابل توجهی را نشان می دهد. دستگاه دیگری (اگر هدف شما حفظ محدوده دمایی باریک برای دوره درمان است)؟ آیا روش بهتری وجود دارد که بتوانم اتخاذ کنم؟ | آزمون آماری برای نشان دادن سازگاری عملکرد یک دستگاه نسبت به دستگاه دیگر |
69878 | من سری های زمانی با فرکانس بالا (مشاهدات هر چند دقیقه) دارم که می خواهم میانگین های روزانه را محاسبه کنم. داده ها یک چرخه دیل قوی را نشان می دهند. گاهی اوقات مشاهدات در سری های زمانی گم می شوند. برای مثال، من میتوانم 50 درصد از دادهها را در یک روز معین از دست بدهم. با توجه به نسبت داده های از دست رفته، تأثیر این کمبود بر میانگین روزانه بلافاصله آشکار نیست. عدم وجود فاصله یکسان تأثیر کمی دارد (مثلاً دادههای 5 دقیقهای و 10 دقیقهای میانگین روزانه یکسانی را نشان میدهند)، در حالی که اگر همه دادههای از دست رفته حول حداقل/حداکثر روزانه متمرکز شوند، میانگین روزانه سوگیری خواهد داشت. با این حال، تأثیر کمبود بر میانگین روزانه نه تنها به درصد دادههای از دست رفته بستگی دارد، بلکه به یکنواختی آن کمبود نیز بستگی دارد. **آیا کسی روش خوبی برای مشخص کردن پتانسیل از دست دادن جهت سوگیری میانگین روزانه می شناسد؟** من نوعی شاخص را متصور هستم که وسعت و توزیع زمانی مقادیر از دست رفته و عوامل دیگری را که ممکن است در نظر نگیرم را در بر می گیرد. . ممنون از هر راهنمایی شکل و کد R زیر از یک موج سینوسی ساده برای نشان دادن تفکر من استفاده می کنند:  # ========== ==========================# = سری با مشاهدات کامل = # =================================== X <- (1:288)*pi*2*(1 /288) sX <- sin(X) # ======================================= ==========# = سری با 50% وجود ندارد، اما به طور مساوی توزیع شده است = # ====================================== =========== X1 <- seq(2, 288, 2)*pi*2*(1/288) sX1 <- sin(X1) # =================================# = سری w/ 50% از دست رفته، تصادفی = # ===== =========================== iX2 <- مرتب سازی(نمونه(1:288، 144)) X2 <- X X2[iX2] <- NA sX2 <- sin(X2) # ===================================# = سری w/ 50% مفقود، جمع شده = # ================================= iX3 <- sort(sample(1:288, 144, prob=1.5^(X+1))) X3 <- X X3[iX3] <- NA sX3 <- sin(X3) # ========== ===========================# = نمودار سری های زمانی و میانگین آنها = # ==================================== dev.new(ارتفاع=7، عرض=3.5) par (mfrow=c(4،1)، mar=c(2،2،0.5،0.5)، ps=9، cex=1، mgp=c(1،0.25،0)، tcl=-0.25) legend2 <- function(s, lab){legend(topright, legend=paste(lab, mean =, round(mean(s, na.rm=TRUE),1)))} plot(sX) legend2( sX، 100٪) نمودار (sX1) legend2 (sX1، 50٪، زوج،) نمودار (sX2) legend2 (sX2، 50٪، تصادفی،) نمودار(sX3) legend2(sX3، 50%، clumped) | شناسایی پتانسیل فقدان در یک سری زمانی فصلی با تعصب دوره-میانگین |
69866 | برای دو متغیر تصادفی _x_ و _y_، قانون استقلال به صورت $$ p(x,y) = p(x) \، p(y) $$ در سمت چپ این معادله یک کمیت دوبعدی است، و در سمت راست دو کمیت 1 بعدی وجود دارد. بنابراین برای اینکه این برابری عمل کند، محصول باید شکل یک محصول بیرونی را داشته باشد. بگوییم که $p(x)$ یک چگالی احتمال گاوسی است که نشان دهنده افت ولتاژ اندازه گیری شده در یک دیود (معیب) است، به طوری که $p(x)$ دارای واحدهای ولت معکوس است. بعد بگویید که $p(y)$ یک چگالی احتمال نمایی است که نشان دهنده مقدار نور (قدرت نوری) است که به دیود برخورد می کند، و بنابراین دارای واحدهای معکوس وات است. اگر بخواهیم $p(x,y)$ را با استفاده از کامپیوتر ترسیم کنیم، میتوانیم توزیع را در مقادیر مختلف $y$ نمونهبرداری کنیم، و توزیع گاوسی $p(x)$ را با دامنه مقیاسبندی شده و به حداکثر میرسد. در $y=0$، و با دامنه صفر به صورت $y \ تا \infty$، اما موقعیت و عرض کلی یکسان برای همه $y$ حفظ میشود. تا اینجا همه اینها منطقی است، اگرچه من هنوز کتاب درسی پیدا نکرده ام که به صراحت به موضوع ابعاد بپردازد. اما اگر معادله را معکوس کنیم، همانطور که بسیاری از متون انجام می دهند، چه می شود. سپس $$ p(x) = p(x,y) / p(y) $$ داریم و سوال این است: چگونه این تقسیم را به درستی انجام دهیم؟ ما یک کمیت دوبعدی را بر یک کمیت 1 بعدی تقسیم می کنیم، و به نظر می رسد منطقی ترین تفسیر این باشد که دقیقا معکوس یک محصول بیرونی را انجام دهیم: در هر $x$-value، توزیع را بر $p(y)$ تقسیم می کنیم. که ما را با یک توزیع دو بعدی مانند $p(x) \cdot \mathbb{1}(y)$ میگذارد. با فرض اینکه $p(y)$ هیچ کجا صفر نیست، یک مقدار یکنواخت در $y$ باقی میمانیم، اما همچنان یک کمیت دو بعدی داریم. برای خلاص شدن از شر بعد اضافی، و برای عملی کردن برابری، به نظر می رسد که به یک انتگرال بیش از $y$ نیاز داریم. اما $\int \mathbb{1} (y) dy$ یک انتگرال نامناسب است، به طوری که به نظر می رسد نیاز به اضافه کردن یک تابع $\delta$ در داخل انتگرال داریم. اما با توجه به اینکه این یک نکته اساسی است و اینکه مسائل ابعادی در هیچ کتاب درسی نظریه احتمال که من توانسته ام پیدا کنم، به آن پرداخته نشده است، این بیش از حد منطقی به نظر می رسد. اما چگونه می توان تقسیم فوق را محاسبه کرد، با توجه به اینکه $x$ و $y$ در یک فاصله با یکدیگر نیستند؟ | چگونه در هنگام ضرب/تقسیم احتمالات با ابعاد به درستی رفتار کنیم؟ |
9425 | خواندن آمار کشف فیلد با استفاده از SPSS 3rd Edition کمی در مورد آزمون های تعقیبی در ANOVA شگفت زده شدم. برای کسانی که میخواهند میزان خطای نوع I را کنترل کنند، او Bonferroni یا Tukey را پیشنهاد میکند و میگوید > Bonferroni زمانی که تعداد مقایسهها کم است قدرت بیشتری دارد، در حالی که > Tukey هنگام آزمایش تعداد زیادی ابزار قدرتمندتر است. P374 مرز بین تعداد کم و زیاد وسایل کجا باید کشیده شود؟ | بونفرونی یا توکی؟ چه زمانی تعداد وسایل گروه زیاد می شود؟ |
111970 | من توزیع احتمال را درک می کنم اما برای درک تابع چگالی احتمال، به ویژه تفاوت بین dexp (چگالی توزیع نمایی) و pexp (توزیع احتمال توزیع نمایی) مشکل دارم. | تفاوت بین dexp و pexp چیست؟ |
93773 | من میخواهم احتمال شرطی P(U=u|V=v) یا P(X=x|Y=y) را با استفاده از copulas بدست بیاورم. از 1! نمی دانم چرا. کسی می تواند به من کمک کند؟ از کمک شما بسیار سپاسگزارم فرمول ها به شرح زیر است:  | چگونه با استفاده از توابع کوپلا P(X=x|Y=y) را محاسبه کنیم؟ |
100761 | من با مدلسازی بیزی و MCMC بسیار جدید هستم - می خواهم بدانم آیا مشکلی که در زیر توضیح می دهم قابل حل است یا خیر. به نظر می رسد اطلاعات زیادی از دست رفته است، اما می خواستم نظر شما را بدانم. موارد زیر را در نظر بگیرید: من یک تقاطع جاده با یک ورودی و دو خروجی A و B دارم. هدف من تخمین زدن تعداد خودروهایی است که در یک روز معین از این تقاطع عبور می کنند، که برابر است با تعداد اتومبیل هایی که از این تقاطع عبور می کنند. ورودی من دو نفر را پست می کنم، یکی در خروجی A و دیگری در خروجی B، تا تعداد ماشین هایی که از خروجی هایشان خارج می شوند را بشمارند. هر دوی آنها خیلی خوب نیستند، بنابراین فقط درصد «C» خودروهایی را می گیرند که واقعاً از خروجی های مربوطه خود عبور می کنند. من نمی دانم C چیست. بدتر از آن، فردی که در خروجی B قرار داشت رکورد خود را از دست داد، بنابراین من فقط اعداد A را دارم. فکر می کنم این وضعیت باید با نمودار زیر توضیح داده شود:  از داده های تاریخی، من می دانم که به طور متوسط p٪ از ppl از طریق A و (1-p)٪ مردم از طریق B عبور می کنند، اما در این روز، من هیچ اطلاعاتی ندارم. در این مثال من فقط دو خروجی دارم، اما به طور کلی ممکن است بیشتر داشته باشم (مثلاً 3-5). آیا می توان با داده هایی که دارم، توزیع # خودرو از ورودی را تخمین زد؟ اگر چنین است، چه توزیع هایی را به هر متغیر تصادفی اختصاص می دهید؟ | مدلسازی MCMC - آیا می توان این را حتی حل کرد؟ |
11643 | با استفاده از Zelig در R، یک مدل دوجمله ای منفی به داده های خود برازش کردم. استاندارد روانشناسی APA نیاز به گزارش مجذور R کلی، F-Value و P-value برای کل مدل دارد. من به فرمول مربع R نگاه کردم و از مجموع مربع ها استفاده می کند. از آنجایی که مدل دوجمله ای منفی از روش حداقل مربعات با فرض یک مدل خطی استفاده نمی کند، آیا در اینجا منطقی است که هر مربع R را گزارش کنیم؟ اگر نه، آیا می توانم در مقاله خود استدلال کنم که گزارش مربع R بی معنی است یا ممکن نیست؟ اگر بله، چگونه می توانم یک R مربع معادل را محاسبه کنم و چگونه می توانم F-Test را برای گزارش اعداد درخواستی انجام دهم؟ با تشکر | Zelig $R^2$ از یک رگرسیون دو جمله ای منفی گزارش می دهد - مزخرف؟ |
99129 | من می خواهم بدانم که محور y در نمودار چگالی به چه معناست. من چهار رقم با طول 0-60 میلی متر دارم و محور y 0.00-0.05 را نشان می دهد. | من می خواهم بدانم چگونه این نمودار چگالی هسته را توضیح دهم؟ محور y به چه معناست |
48109 | > **تکراری احتمالی:** > مقدار توزیع احتمال بیش از 1 خوب است؟ من فکر می کردم که سطح زیر منحنی تابع چگالی نشان دهنده احتمال بدست آوردن یک مقدار x بین محدوده ای از مقادیر x است، اما پس چگونه وقتی پهنای باند را کوچک می کنم، محور y می تواند بزرگتر از 1 باشد؟ این نمودار R را ببینید: محدوده <- seq(2،6،.01) n <- 1000 d <- نمونه (محدوده، n، جایگزین = TRUE) d <- c(d،rep(0،100)) d <- c (d,rep(1,50)) df <- data.frame(counts=d) تنظیم <- 1/20 dens <- density(d,adjust=adjust) plot(dens)  همچنین احتمال دریافت $P(x<2)= \frac{150}{1000}=.15$، چگونه می توانم این را در طرح ببینم؟ | محور y در نمودار چگالی هسته به چه معناست؟ |
52763 | برای ترسیم نمونههای تصادفی از توزیع سفارشی، به یاد میآورم که میخوانم KDE بهتر از هیستوگرام است. (نظر هدلی را اینجا ببینید.) وقتی من در R آزمایش کردم، متوجه شدم که روش KDE نتایج متفاوتی با هیستوگرام دارد. من از نرخ بازگشت سالانه S&P500 (از 1926 تا 2012) استفاده می کنم و از آن برداشت می کنم. کد قابل تکرار زیر: بازده سالانه #SP500 x<- c(11.62، 37.49، 43.61، -8.42، -24.9، -43.34، -8.19، 53.99، -1.44، 47.67، 33.92، 33.92، -330. -9.78، -11.59، 20.34، 25.9، 19.75، 36.44، -8.07، 5.71، 5.5، 18.79، 31.71، 24.02، 18.37، -0.99، 52.6 - 0.99، 52.6 - 51.6. 43.36، 11.96، 0.47، 26.89، -8.73، 22.8، 16.48، 12.45، 10.06-، 23.98، 11.06، 8.5-، 4.01، 14.31، 14.36، 14.6-، 18.9- 37.2، 23.84، -7.18، 6.56، 18.44، 32.5، -4.92، 21.55، 22.56، 6.27، 31.73، 18.67، 5.25، 16.61، 31.61، 31.61- 10.08، 1.32، 37.58، 22.96، 33.36، 28.58، 21.04، 9.11-، 11.89-، 22.1-، 28.68، 10.88، 4.91، 15.79، 4.91، 15.79، 4.91، 15.79، 4.6، 4.6، 37.5. 2.11، 16) #نقاشی از هیستوگرام X hist(x) h <- hist(x, probability=TRUE, breaks=40) scale <- sum (h$density) sum (h$density/scale) # بررسی کنید 1 #F-معکوس تابع (cdf) برای هیستوگرام، مقیاس شده تا مجموع 1 cumprob <- cumsum(h$density/scale) #برای ایجاد یک نمونه تصادفی از هیستوگرام ret.bucket<- sum(ifelse(runif(1)>cumprob,1,0)) h$mids[ret.bucket+1] #This نمونه بازگشتی به دست آمده خواهد بود #Draw از تخمین تراکم هسته kde <- density(x, bw=10) #من با انواع مختلف آزمایش کردم سطلها kde plot(kde) kdf <- as.data.frame(kde$x) #512 ردیف برای انتخاب از میان نامها (kdf) <- sp500Return **بهروزرسانی**: موارد زیر _اشتباه است._ نمیتوان به سادگی یکنواخت رسم کرد از KDE. #برای تولید یک نمونه با استفاده از KDE kdf[runif(1,1,512),] **حالا چند نمونه تولید می کنیم و دو روش را با هم مقایسه می کنیم:** #2 روش را مقایسه کنید ret.kde = NULL ret.hist = NULL rndi <- NULL برای (i در 1:5000) { rnd <- runif(1) rndi[i] <- rnd rndrow <- as.integer(512 * rnd) ret.kde [i] <- kdf[rndrow+1,] سطل<- sum(ifelse(rnd > cumprob, 1, 0)) ret.hist[i] <- h$mids [سطل+1] } mean(ret.kde) sd(ret.kde) mean(ret.hist) sd(ret.hist) cbind(rndi، ret.kde، ret.hist) نتایجی که در یک اجرا به دست آوردم: > mean(ret.kde); mean(ret.hist) [1] 5.691015 #پیاده سازی اشتباه [1] 11.8404 > sd(ret.kde); sd(ret.hist) [1] 45.87001 #اجرای اشتباه. برای به روز رسانی [1] 20.15519 به زیر مراجعه کنید **سوال**: چرا این دو روش نتایجی به دست می دهند که _بسیار_ متفاوت هستند؟ آیا پیادهسازی من ناقص است یا اینکه نیاز به کلیپ کردن KDE در انتهای آن است؟ **به روز رسانی:** پاسخ را در این پاسخ به این سوال CV پیدا کردم. روش اصلی من برای ترسیم از KDE ناقص است. در اینجا یک پیاده سازی به روز شده از طراحی از KDE آمده است: #فرآیند دو مرحله ای برای ترسیم از تخمین تراکم هسته #مرحله 1 ابتدا یکی از امتیازهای اصلی را به صورت تصادفی دریافت کنید. sampleFromKDE <- تابع(x, bw) { rnd <- sample(length(x),1) xi <- x[rnd] #مرحله 2: یک N(xi, bw) در اطراف هسته انتخابی #bw=10 بازگشت دریافت کنید (rnorm(1، xi، bw) ) } k<-NULL برای (i در 1:5000) { k[i] <- sampleFromKDE(x, 3) } منجر به #> mean(k) #[1] 12.20025 #> sd(k) #[1] 19.88572 | R: تخمین چگالی در مقابل تخمین هیستوگرام |
11646 | انتخاب پارامترسازی توزیع گاما $\Gamma(b,c)$ توسط pdf $g(x;b,c) = \frac{1}{\Gamma(c)}\frac{x^{c-1} {b^c}e^{-x/b}$ واگرایی Kullback- Leibler بین $\Gamma(b_q,c_q)$ و $\Gamma(b_p,c_p)$ توسط [1] به عنوان \begin{align} KL_{Ga}(b_q,c_q;b_p,c_p) &= (c_q-1)\Psi(c_q) - \log b_q داده میشود - c_q - \log\Gamma(c_q) + \log\Gamma(c_p)\\\ &\qquad+ c_p\log b_p - (c_p-1)(\Psi(c_q) + \log b_q) + \frac{b_qc_q}{b_p} \end{align} من حدس میزنم که $\Psi(x):= \Gamma'(x )/\Gamma(x)$ تابع _digamma_ است. این بدون اشتقاق داده شده است. من نمی توانم هیچ مرجعی را پیدا کنم که این موضوع را استخراج کند. هیچ کمکی؟ یک مرجع خوب کافی است. بخش دشوار ادغام $\log x$ در برابر گاما پی دی اف است. [1] W.D. Penny، _KL-Divergences of Normal، Gamma، Dirichlet, and Wishart densities_، موجود در: www.fil.ion.ucl.ac.uk/~wpenny/publications/densities.ps | واگرایی کول بک-لایبلر بین دو توزیع گاما |
60674 | من چندین تجزیه و تحلیل حداقل مربعات فیلوژنتیک را در R اجرا میکنم، که در آن مجموعه دادههای موجود را برای چندین گونه میگیرم، و دو گونه جدید را که دادههایی برای آنها دارم به آن اضافه میکنم. کاری که من می خواهم انجام دهم این است که آزمایش کنم آیا رگرسیون جدید همه گونه ها به طور قابل توجهی با رگرسیون قدیمی متفاوت است یا خیر. اما در مورد آزمایش مناسب برای استفاده مطمئن نیستم. @COOLSerdash، با تشکر از کمک، با این مثال و کد کار نمی کنم. @gung متاسفم، بنابراین آنچه که من سعی در انجام آن دارم موارد زیر است. مجموعه داده های موجود یک رگرسیون ایجاد می کند که باید برای همه گونه ها قابل اجرا باشد. من میتوانم دادههای دو گونه را اضافه کنم، و چیزی که متوجه شدم این است که یکی از دو گونه کم و بیش بر روی رگرسیون پیشبینیشده توسط مجموعه داده اصلی قرار میگیرد. گونه های دیگر بسیار کمتر از رگرسیون پیش بینی شده توسط مجموعه داده های اصلی قرار می گیرند. بنابراین حدس میزنم چیزی که میخواهم تعیین کنم این است که آیا نشانههایی وجود دارد یا خیر. تفاوت در هر دو شیب و قطع، و همچنین تفاوت های قابل توجهی در قدرت رگرسیون. | آزمایش تفاوت معنیدار بین رگرسیون در R |
5819 | من از «scipy.stats.gaussian_kde» برای تخمین pdf برای برخی داده ها استفاده می کنم. مشکل این است که pdf حاصل مقادیر بزرگتر از 1 را می گیرد. تا جایی که من متوجه شدم این اتفاق نباید بیفتد. آیا من اشتباه می کنم؟ اگر چنین است چرا؟ | تخمین چگالی هسته مقادیر بزرگتر از 1 را می گیرد |
4220 | در صفحه ویکیپدیا درباره طبقهبندیکنندههای ساده بیز، این خط وجود دارد: > $p(\mathrm{height}|\mathrm{male}) = 1.5789$ (توزیع احتمال بیش از 1 خوب است. این ناحیه زیر زنگ است. منحنی که برابر با 1 است.) چگونه یک مقدار $>1$ می تواند خوب باشد؟ من فکر کردم همه مقادیر احتمال در محدوده $0 \leq p \leq 1$ بیان شده است. علاوه بر این، با توجه به اینکه امکان داشتن چنین مقداری وجود دارد، چگونه در مثال نشان داده شده در صفحه، آن مقدار بدست می آید؟ | مقدار توزیع احتمال بیش از 1 خوب است؟ |
62255 | من از GPML (فرایندهای گاوسی برای یادگیری ماشین) نسخه 3.2 در Matlab استفاده می کنم. meanfunc = @meanConst; hyp.mean = 0; covfunc = @covSEard; ell = 1.0; sf = 1.0; hyp.cov = log([ell*ones(1,size(xtr,2)) sf]); likfunc = @likGauss; sn = 0.1; hyp.lik = log(sn); inffunc = @infLOO; hyp = به حداقل رساندن (hyp، @gp، -4*40، inffunc، meanfunc، covfunc، likfunc، xtr، ytr)؛ [myte vyte mfte vfte lp] = gp(hyp, inffunc, meanfunc, covfunc, likfunc, xtr, ytr, xte, yte); مقدار «exp(lp)» بیشتر از 1 است (مثلاً 1.1254). چرا؟ | GPML یک احتمال پیشبینی منفی را برمیگرداند. چرا؟ |
106309 | من الان در حال مطالعه فرضیه تست هستم. من برای آن از کتاب «آمار زیستی پربازده، اپیدمیولوژی و بهداشت عمومی» و ویدیوهای براندون فولتز (این ویدیوها را به همه توصیه میکند، عالی هستند!) از اینجا https://www.youtube.com/channel/UCFrjdcImgcQVyFbK04MBEhA استفاده میکنم. نویسنده در «آمار زیستی پربازده، اپیدمیولوژی و بهداشت عمومی» از اصطلاحاتی مانند فرضیه «پذیرفتن» یا «رد کردن» استفاده میکند. اما براندون فولتز در ویدیوی خود در اینجا می گوید: «به عنوان محقق، یا فرضیه صفر را رد می کنیم یا در رد فرضیه صفر شکست می خوریم. ما باطل را نمی پذیریم.» بنابراین، کدام اصطلاح روش صحیح تر برای صحبت در مورد فرضیه است: «پذیرفتن» و «رد» یا «رد کردن» و «عدم رد کردن»؟ | اصطلاحات آزمون فرضیه |
70288 | من 80 نقطه داده دوبعدی دارم (در اینجا قرار دارد) و سعی می کنم با استفاده از تخمین چگالی هسته چند متغیره، pdf را در یک نقطه x$ تخمین بزنم. میانگین بردار $\mu = [0.0368418, 0.0157501]$ و انحراف استاندارد (در هر جهت) $\sigma_i = [0.0514452, 0.0294486]$ است. برای ساختن تخمین چگالی، من از قانون سیلورمن (در اینجا مستند شده) برای پهنای باند استفاده میکنم که نتیجه آن ماتریس پهنای باند زیر است: [0.000614223, 0 0 , 0.000201264] با استفاده از این ماتریس پهنای باند، تخمین چگالی xf$ (x) = \frac{1}{2\times0.00164952\times0.00102296} \Sigma_i \left(\Pi_j K(\frac{x_j - x_{ij}}{h_j})\right) $ جایی که $h_j =[0.000614223، 0.000201264]$ و K$$ گاوسی است هسته به صورت $K(u) = \frac{1}{\sqrt{2\pi}}e^{\frac{-u^2}{2}}$ تعریف شده است. این به من نتیجه (تکان دهنده) **1231.37** را با نقطه $x=[0.0134452, 0.00203559]$ می دهد که بدیهی است نادرست است. پس از بررسی، فقط می توانم تصور کنم که این یک مشکل در نحوه تعریف $h_j$s فردی است، بنابراین کاری که من انجام می دهم، تقریباً مطمئن هستم که از فرمول قانون سیلورمن پیروی می کند: pow(4/ (ابعاد + 2)، 1/(ابعاد +4)) * pow(مجموع_نقاط_داده، -1/(ابعاد + 4)); $h_j = \left({\left(\frac{4}{d + 2}\right)}^{\frac{1}{d + 4}}\times n^\left(\frac{-1} {d + 4}\right) \times \sigma_j\right)^2$ که $j$ یک بعد را نشان میدهد، $d$ تعداد ابعاد است (در این مورد 2)، $n$، تعداد کل است. از امتیازات (در این مورد 80) لطفاً کسی می تواند به من کمک کند تا بفهمم در اینجا چه اشتباهی انجام می دهم؟ با تشکر | مقدار تخمین چگالی هسته > 1 است |
88177 | متغیر وابسته من شاخصی است از گزارش های سالانه شرکت ها (از 0 تا 1). متغیرهای مستقل با مقیاس لیکرت اندازه گیری می شوند (افراد در هر شرکت به سؤالات پاسخ می دهند - گروهی از آیتم ها با مقیاس لیکرت رتبه بندی می شوند). مناسب ترین آمار برای استفاده در این سناریو چیست؟ به کمک نیاز دارم لطفا متغیر وابسته (شاخص از یک شرکت) $=f$ (سه مقیاس لیکرت مجزا برای اندازه گیری سه موضوع مختلف) | از چه آزمون آماری و به چه دلیل استفاده کنم؟ |
85903 | آزمونهای آماری سنتی، مانند آزمون t-test دو نمونهای، بر تلاش برای حذف این فرضیه تمرکز میکنند که بین تابعی از دو نمونه مستقل تفاوتی وجود ندارد. سپس سطح اطمینان را انتخاب می کنیم و می گوییم که اگر اختلاف میانگین ها از سطح 95 درصد فراتر باشد، می توانیم فرضیه صفر را رد کنیم. در غیر این صورت، «نمیتوانیم فرضیه صفر را رد کنیم». به نظر می رسد این بدان معناست که ما نیز نمی توانیم آن را بپذیریم. آیا این بدان معناست که ما مطمئن نیستیم که آیا فرضیه صفر درست است؟ اکنون، میخواهم آزمونی طراحی کنم که فرضیه من این است که تابعی از دو نمونه یکسان است (که برعکس آزمونهای آمار سنتی است که در آن فرضیه متفاوت بودن دو نمونه است). بنابراین، فرضیه صفر من این است که دو نمونه متفاوت هستند. چگونه باید چنین آزمونی را طراحی کنم؟ آیا به همین سادگی است که بگوییم اگر مقدار p کمتر از 5٪ باشد، می توانیم این فرضیه را بپذیریم که تفاوت معنی داری وجود ندارد؟ | چرا آماردانان می گویند که یک نتیجه غیر معنی دار به معنای شما نمی توانید صفر را رد کنید در مقابل پذیرش فرضیه صفر است؟ |
9429 | من سعی می کنم یک مدل طولی چند سطحی را جا بزنم و یک سوال در مورد نحوه تعیین آن دارم. داده ها شامل حدود 8 هزار مشاهده است که از حدود 3 هزار نفر در چهار نقطه زمانی جمع آوری شده است. افراد به صورت گروهی تودرتو هستند و حدود 200 گروه وجود دارد. من دو نوع مختلف اثر ثابت دارم: (الف) اندازهگیریهای مکرر در سطح مشاهده (مانند pred1.obs)، و (ب) پیشبینیکنندههای سطح گروهی که در طول زمان نیز تغییر میکنند (مثلاً pred2.grp). از آنجا که هر اثر ثابت در سطح گروه نیز طولی است، 800 مقدار (4x200 که برای هر یک از اعضای گروه در آن زمان تکرار می شود) وجود دارد، اما تنها 200 گروه وجود دارد. سوال من این است که مشخصات صحیح این مدل چیست و چرا؟ به عنوان مثال: > 1: lmer(نتیجه ~ زمان + pred1.obs + pred2.grp + (زمان| شناسه) + (زمان|grp)) > > 2: lmer(نتیجه ~ زمان + pred1.obs + pred2.grp + ( time|id) + (1|grp:time)) > > 3: lmer(نتیجه ~ زمان + pred1.obs + pred2.grp + (time|id) + (time|grp) + > (1|grp:time)) بنابراین، lme4 اگر از (time|grp) استفاده کنم یا نیاز به استفاده از (1| grp:time) یا ترکیب؟ یا چیز دیگری که به آن فکر نکرده ام؟ خیلی ممنون، جورج | مشخصات صحیح مدل طولی در lme4 |
99299 | من سعی میکنم مدلسازی بیزی را با PyMC یاد بگیرم، بنابراین برنامهنویسی احتمالی برای هکرها توسط Cam Pilon Davidson را بررسی کردهام. من به معنای واقعی کلمه کد او را از فصل 1 کپی کردم و از داده های طوفان خودم استفاده کردم. اینجا نوت بوک ipython کد من است. مشکل من با توزیع های پسین است. یکی از آنها احتمالات بیش از 1 را برمی گرداند. یا واقعاً احتمالات نیستند؟ آیا باید از آلفای متفاوتی برای توزیع های نمایی خود استفاده کنم؟ آیا من سوالات درستی می پرسم؟ من یک آدم ریاضی سنگین نیستم، بنابراین ممکن است یک سوء تفاهم اساسی در مورد آنچه اینجا می گذرد داشته باشم ... از هر کمکی متشکرم! | چرا توزیع پسین من مقادیر احتمال بیشتری از 1 دارد؟ |
71806 | من T-score و P-value را با استفاده از t.test() برای داده هایم محاسبه کردم و در نهایت چگالی p-value خود را رسم کردم و نمودار عجیبی دارم. نمی دانم چرا اوج را در حدود 0 می بینم که چگالی آن بزرگتر از 1 است؟ آیا کسی می تواند در تفسیر این طرح به من کمک کند؟ من از Plot(density(mymatrix)) استفاده کردم | نمودار چگالی عجیب p-value |
64311 | $F<(1-\alpha/2، n_x-1، n_y-1)$ و $F>(\alpha/2، n_x-1، n_y-1)$. (آزمون برابری واریانس جمعیت). آلفای 0.0$5 استفاده شده است. $1-\alpha/2= 1-0.05/2= 1-0.025= 0.975$. با این حال، هیچ مقدار آلفای 0.975$ در جدول $F$ من وجود ندارد. این فقط مقادیر آلفای 0.05 دلار، 0.025، 0.01، 0.001 دلار دارد. آیا من از نزدیکترین مقدار آلفا به $0.975$، در این مورد $0.05$ استفاده می کنم؟ یا راهی برای خواندن 0.975 دلار وجود دارد؟ | نحوه خواندن مقدار آلفای 0.975 در جدول F |
21391 | یک سری زمانی از MA(1)، $$ d(t) =c+e(t)-\theta \cdot e(t−1) $$ یا AR(1)، $$ d(t)=c پیروی می کند. +e(t)+\phi \cdot d(t-1)$$ تاثیر پارامتر میانگین متحرک،$\theta$، و پارامتر اتورگرسیو، $\phi$، بر روی فرآیند تقاضا چیست؟ چگونه می توانیم آن را به طور شهودی توضیح دهیم؟ هنگامی که پارامترها را از 1- به 1+ می بریم، ویژگی های فرآیند چیست و چگونه تغییر خواهند کرد؟ | تاثیر پارامتر میانگین متحرک و پارامتر خودرگرسیون به ترتیب بر فرآیند تقاضای MA(1) و AR(1) |
33955 | > **تکراری احتمالی:** > مقدار توزیع احتمال بیش از 1 خوب است؟ من نتایج ارائه شده توسط این پیاده سازی را با آن از کتابخانه gtool در R، تابع چگالی دیریکله مقایسه می کنم. با پارامترهای ورودی زیر یک مقدار > 1 دریافت می کنم. آیا این تابع چگالی نبود؟ بزرگتر از 1 یعنی چی؟ آیا نباید همیشه در [0،1] باشد؟ x's: [0.50943396226415094، 0.33962264150943394، 0.11320754716981132، 0.037735849056603772] آلفا: [41320754716981132] . | تابع چگالی دیریکله مقادیر > 1.0 را برمی گرداند |
27945 | معنی و تأثیر %in% در فرمول مدل چیست؟ ظاهراً برای تودرتو کردن یک متغیر در متغیر دیگر در انواع تحلیل (مانوا، آنووا، رگرسیون) در چند مقاله منتشر شده استفاده میشود. از ?فرمول، b%in%a a:b است، پس چرا از %in% استفاده کنید؟ a:b تودرتو چگونه است؟ من احتمالا اشتباه می کنم، اما درک من این است که تودرتو کردن b در a نباید به همان مربع میانگین منجر شود که برهمکنش a و b با a:b نشان داده شده است؟ library(lme4) > with(sleepstudy, Days%in%Subject) [1] FALSE FALSE FALSE FALSE FALSE FALSE FALSE FALSE FALSE FALSE ... > fit<-aov(data=sleepstudy, Reaction~Days + Days%in %موضوع) anova(fit) Df Sum Sq Mean Sq F مقدار Pr(>F) روزهای 1 162703 162703 193.23 < 2.2e-16 *** روزها:موضوع 17 269685 15864 18.84 < 2.2e-16 *** باقیمانده ها 161 1355567 161 (روزها|موضوع)، مطالعه خواب) anova(fm1) Df مجموع مربع میانگین مربع F مقدار روزهای 1 29986 29986 45.785 > fm1 <- lmer(واکنش~روزها + روزها%در%موضوع + (1|موضوع)،(مطالعه خواب) anova fm1) تجزیه و تحلیل جدول واریانس Df مجموع مربع میانگین مربع F مقدار روز 1 162703 162703 248.4233 روز: موضوع 17 73391 4317 6.5916 | تاثیر %in% در فرمول مدل؟ |
17772 | من دستهای از متغیرها دارم که حاوی دادههای طولی از روز 0 تا روز 7 هستند. من به دنبال یک رویکرد خوشهبندی مناسب هستم که بتواند این متغیرهای طولی (نه موارد) را در گروههای مختلف خوشهبندی کند. من سعی کردم این مجموعه داده ها را به طور جداگانه بر اساس زمان تجزیه و تحلیل کنم، اما توضیح منطقی نتیجه بسیار دشوار بود. من در دسترس بودن یک رویه SAS «PROC SIMILARITY» را بررسی کردم زیرا یک نمونه در وب سایت آن وجود دارد. با این حال، به نظر من راه درستی نیست. برخی از مطالعات قبلی از تحلیل عاملی اکتشافی در هر نقطه زمانی استفاده کردند، اما این یک گزینه در مطالعه من نیز به دلیل نتایج غیر منطقی نیست. امیدواریم بتوان در اینجا ایده هایی ارائه کرد و یک برنامه کامپایل شده، مانند SAS یا R، برای پردازش در دسترس باشد. هر گونه پیشنهاد قدردانی می شود! * * * در اینجا یک مثال کوتاه است (با عرض پوزش برای موقعیت ناسازگار بین داده ها و نام متغیرها): زمان شناسه V1 V2 V3 V4 V5 V6 V7 V8 V9 V10 2 0 8 7 3 7 6 6 0 0 5 2 2 1 3 5 2 6 5 5 1 1 4 2 2 2 2 3 2 4 4 2 0 0 2 2 2 3 6 4 2 5 3 2 1 2 3 3 2 4 5 3 4 4 3 3 4 3 3 3 2 5 6 4 5 5 6 3 3 2 2 2 2 6 7 5 2 4 4 4 3 5 2 7 7 7 2 6 4 4 0 0 4 3 4 0 10 7 0 2 2 6 7 7 0 9 4 1 8 7 0 0 0 9 3 3 7 8 4 2 8 7 0 0 0 9 3 3 7 8 4 3 8 7 0 0 0 0 0 7 8 4 4 5 7 0 0 0 9 3 3 7 8 4 5 5 7 0 0 0 9 3 3 7 8 4 6 5 7 0 0 0 9 3 7 8 4 7 5 7 0 0 0 9 3 3 7 8 5 0 9 2 1 3 2 3 3 5 5 1 7 3 1 3 1 3 2 2 1 3 5 2 6 4 0 4 2 4 2 1 2 4 5 3 6 3 2 3 2 3 3 1 3 4 5 4 8 6 0 5 3 3 2 2 3 4 5 5 9 6 0 3 2 3 2 5 5 6 8 6 0 4 3 3 2 3 2 5 5 7 8 6 0 4 3 3 2 3 2 5 | چگونه متغیرهای طولی را خوشه بندی کنیم؟ |
103607 | من گیج شده ام که چگونه PDF توزیع عادی قادر به محاسبه چگالی برای یک متغیر است. من می دانم که احتمال CDF یک متغیر تصادفی دقیق پیوسته $X$ 0 است. بنابراین، برای محاسبه احتمال $X$، ممکن است محدوده ای را تعریف کنیم که احتمال $X$ $P (a < X <b) باشد. $. به نظر می رسد که این محدوده معمولاً به عنوان فاصله نامیده می شود (اگر اشتباه می کنم لطفاً من را اصلاح کنید). PDF برای توزیع عادی $\frac{1}{\sigma\sqrt{2\pi}}\, e^{-\frac{(x - \mu)^2}{2 \sigma^2}}$ است اگر $x=1$، $\mu=0$ و $\sigma=1$ را فرض کنیم، نتیجه حاصل از این پارامترها 0.2419707 تراکم با استفاده از dnorm در R است. PDF چگونه قابل استفاده است. از رسیدن به این نتیجه چون فاصله ای را مشخص نمی کنیم؟ | تابع چگالی احتمال عادی و سردرگمی در مورد چگونگی رسیدن به پاسخ |
60671 | بگویید FB در حال آزمایش تبلیغات بزرگ و وحشتناک برای خانه های سالمندان بر روی 90٪ از کاربران خود است (آنها را گروه A می نامید). این باعث عصبانیت بیشتر افراد گروه A به جز کاربران بالای 80 سال می شود. در نتیجه، اکثر گروه A به طور دائم از FB خارج می شوند. البته، کاربران FB با یکدیگر ارتباط برقرار می کنند، بنابراین وقتی اکثر گروه A ترک می کنند، بسیاری از کاربران گروه B نیز ترک می کنند. در نهایت FB با افراد بالای 80 سال که تبلیغات خانه سالمندان را می بینند و برخی افراد بالای 80 سال که آنها را نمی بینند باقی می ماند. بنابراین، افرادی در گروه A که تبلیغات را می بینند 150٪ سود بیشتری نسبت به افراد گروه B دارند. 3 سوال: آیا این آزمون AB حتی برای شروع معتبر است؟ صرف نظر از پاسخ شما به موارد فوق، با فرض اینکه باید این آزمون را انجام دهید، عدم استقلال گروه ها را هنگام تفسیر نتایج چگونه محاسبه می کنید؟ اگر آزمون ظریف تر باشد، اما همچنان ممکن است بر هر دو گروه آزمایش و کنترل تأثیر بگذارد، آیا پاسخ به هر یک از موارد فوق تغییر می کند؟ به عنوان مثال، FB 10٪ از کاربران را مجبور می کند صندوق ورودی داشته باشند که رنگ های روشن چشمک می زند و باعث تشنج می شود. بنابراین برخی از این افراد ترک میکنند و چند نفر از دوستان خود را در گروه کنترل راضی میکنند که آنها را ترک کنند، اما حجم نمونه آنقدر کوچک است که سودآوری کلی FB در نتیجه آزمایش کاهش قابل توجهی پیدا نمیکند. | فیس بوک چگونه آزمون AB را که شرایط آزمایشی آن بر گروه های کنترل و آزمایش تأثیر می گذارد، اندازه گیری می کند؟ |
17774 | برای غیر گلف بازان، هر گلف باز بر اساس سابقه گلزنی خود دارای نقص است. هندیکپ به طور متوسط پیشبینی میکند که گلفباز برای انجام 18 سوراخ چند ضربه بالاتر از حد مجاز بزند. در تئوری، زمانی که آن گلف باز در یک تورنمنت معلول در برابر گلف بازان دیگر با معلولیت مربوطه بازی می کند، باید شانس برنده شدن را با همه گلف بازان داشته باشد. برخی از گلف بازها از قرار دادن امتیازات پایین خودداری می کنند که به نوبه خود نقص آنها را بالا نگه می دارد و به آنها برتری ناعادلانه در مسابقات می دهد. گلف بازان به این کیسه شنی می گویند. من در تورنمنتی بازی می کنم که یک تیم از 7 سال 5 برنده شد و تیم دوم از 4 سال 3 برد. احتمال وقوع آن چیست؟ در هر تورنمنت 40 تیم حضور دارند. | احتمال برنده شدن یک تیم در بسیاری از مسابقات گلف زمانی که با معلولیت انجام می شود چقدر است (یعنی کیسه شن رخ داده است)؟ |
86656 | فرضیه من بیان می کند که تفاوت های قابل توجهی بین گروه های a، b، c و d در اندازه گیری X وجود دارد. من از ANOVA برای دیدن تفاوت های گروهی استفاده کردم که قابل توجه بود. پس از آن، برای درک بیشتر مقایسهها، آزمون توکی را بهصورت پسهک اعمال کردم. با این حال، من بعد از توکی تفاوت گروهی قابل توجهی نداشتم. سرپرست من می گوید که این فرضیه تا حدی پذیرفته شده است. آیا می توانید توضیح دهید که چگونه یا اینکه این جمله درست است؟ | اگر آزمون سراسری معنی دار باشد اما مقایسه های زوجی معنادار نباشد، آیا می توانید فرضیه جایگزین را بپذیرید؟ |
21393 | من یک مدل داده پانل با فرم عملکردی دو لاگ دارم. من 4 متغیر دارم که یکی از آنها ساختگی است. بهترین راه برای تبدیل مقادیر 0 برای ساختگی من چیست تا بتواند لاگ های طبیعی را بگیرد (چون شما نمی توانید لاگ ها را از صفر بگیرید)؟ من تا کنون 2 گزینه پیدا کرده ام، اما نمی دانم کدام بهترین است (یا شاید گزینه سوم وجود داشته باشد). 1) تمام مقادیر 0 را به یک مقدار بسیار کوچک (0.00000000001) تبدیل کنید و سپس لاگ ها را بگیرید. من مطمئن نیستم که این هنوز نتیجه مدل من را کمی تغییر ندهد. 2) مقادیر 0 را به 1 و مقادیر ساختگی 1 را به e (مبنای لگاریتم طبیعی) تغییر دهید. گزارش این ساختگی که به تازگی تعریف شده است، سپس مقادیر صفر و یک را می گیرد و تفسیر بتاهای من یکسان باقی می ماند. | تبدیل مقادیر ساختگی برای اینکه بتوان لاگ ها را گرفت |
20447 | من منطق تنظیم آلفا برای آزمایش های چندگانه را درک می کنم. با این حال، من در مورد اینکه آیا این تصحیح باید برای همه آزمایشهای یک مجموعه داده اعمال شود یا فقط در مقایسه زوجی مورد نظر گیج شدهام. به عنوان مثال، من چهار مقایسه زوجی دارم (مذکر وسوس زن، متاهل در مقابل دیگر، انگلیسی در مقابل سایر زبان ها، جوان در مقابل پیر). آنها از یک نمونه (مجموعه داده) هستند. اگر از 0.05 و Bonferroni استفاده کنم، آیا آلفای تصحیح شده من باید 0.025 باشد (یعنی برای هر مقایسه زوجی محاسبه شود) یا 0.0125 (یعنی برای چهار مقایسه زوجی در کل محاسبه شود). مفهوم خطای خانوادگی چگونه در اینجا جای می گیرد؟ باید اضافه کنم که علاقه من به مقایسه زوجی (به عنوان مثال مرد در مقایسه با زن) است و نه در بین جفت های مختلف (مثلاً مرد متاهل در مقابل زن متاهل). | تنظیم آلفا برای آزمایش چندگانه |
52761 | من دادههایی دارم که بین «نمونههای مستقل» و «نمونههای زوجی» قرار دارند. حدود 50٪ تا 70٪ از مشاهدات مطابقت دارند (جفت شده) و بقیه یک جفت را از دست می دهند. از کدام تست استفاده کنم - chi-square (که برای نمونه های جفت نشده است) یا مک نمار (که برای نمونه های جفت شده است)؟ به عنوان مثال، فرض کنید 1000 تیم داریم و آنها را بر اساس تعداد بردها رتبه بندی می کنیم. ما یک رتبه جدید بر اساس امتیاز/گل معرفی می کنیم. حال می خواهیم بررسی کنیم که آیا بین جنسیت (مرد یا زن) و نوع رتبه بندی (برنده یا امتیاز) رابطه وجود دارد؟ نکته جفت/جفت نشدن تنها از استفاده از 100 تیم برتر در هنگام آزمایش ناشی میشود، بنابراین همه تیمها آنجا نخواهند بود، اما ممکن است برخی وجود داشته باشند که زوج در نظر گرفته شوند. آیا آزمون آماری وجود دارد که نشان دهد رتبه جدید تعداد تیم های مرد یا زن را بدون مقایسه با رتبه قبلی افزایش داده است؟ | کدام آزمون برای بررسی رابطه آماری بین داده های جفت/جفت نشده؟ |
89741 | در آزمایش یک تهی در مقابل یک جایگزین، اگر عدد صفر را رد نکنیم (مثلاً مقدار p بسیار بزرگ است، بزرگتر از سطح معناداری)، نتیجه ما چیست؟ آیا می توانیم بگوییم که باطل را قبول داریم، می توانیم؟ یادم هست شنیده بودم که رد نکردن نول به معنای قبول باطل نیست، اما ممکن است اشتباه کنم. یا باید به سادگی بگوییم که باطل را رد نمی کنیم؟ | وقتی فرضیه صفر را رد نمی کنیم چه ادعایی داشته باشیم؟ |
21399 | آیا d اول (d') در تئوری تشخیص سیگنال و d کوهن (عمدتاً در چارچوب مدل خطی عمومی گزارش شده است) برای یک چیز (یعنی تفاوت میانگین ها در واحدهای SD) اندازه گیری می شود و فقط به طور متفاوت نامیده می شود؟ یا تفاوتی بین این دو معیار وجود دارد؟ | اندازه اثر و تشخیص سیگنال |
45749 | من در حال حاضر برای تحصیلات تکمیلی برای شغلی درخواست می کنم که اگر درک دقیقی از آنچه که یک آزمایش و نتایج عالی، خوب، متوسط، بد و غیره را تشکیل می دهد، بسیار پیشرفت خواهد کرد. اکثریت قریب به اتفاق مطالبی که انتظار دارم تجزیه و تحلیل شود، مقالات مجلات پزشکی خواهد بود. در حالی که دوره های لازم برای ارزیابی مقالات (آمار، اخلاق، احتمال، طراحی تجربی و ...) را گذرانده ام، چندین سال است که چنین دوره ای ندیده ام. من کنجکاو هستم که آیا کسی کتاب کاملی را می شناسد. نوعی راهنمای ارجاع سریع که به من کمک میکند تا زمانی که تفسیر واضحی امکانپذیر نیست (مطالعه با چند ده شرکتکننده، مطالعاتی که کور نیستند، مطالعاتی که در آن نتایج بهخوبی تفسیر شدهاند، اما طراحی، به من کمک میکند تا مشکلات را مرتب کنم. خودش مشکوک است). نیازی نیست که چگونه مقدار p-101 را تفسیر کنیم باشد، بلکه چیزی است که امیدوارم هر بار فراموش کنم که مربع کای در زمینه یک آزمایش چه چیزی را نشان میدهد، به سراغ یادداشتهای قدیمیام نروم. | متن پیشنهادی برای آمار تجربی ضروری |
80548 | آیا کسی می تواند توضیح دهد که تجزیه Beveridge-Nelson چگونه کار می کند؟ تاکنون تنها چیزی که می دانم این است که چرخه های روند را در داده های سری زمانی غیر ثابت تخمین می زند. من به چندین مقاله در مجلات نگاه کردم و هنوز در مورد نحوه عملکرد آن سردرگم هستم http://research.economics.unsw.edu.au/jmorley/bn.pdf | توضیح تجزیه نوشیدنی نلسون |
27494 | من در حال توسعه یک مدل پیشبینی برای یک بیماری عفونی برای یک بیمارستان هستم و میخواهم بفهمم که آیا باید از تعداد یا نرخهای بیماری (بر اساس جمعیت یا کل بازدیدهای کلینیک) استفاده کنم. پیامدهای استفاده از یک رویکرد بر رویکرد دیگر (علاوه بر ملاحظات عملی، مانند برآورد دقیق جمعیت) چیست؟ هر گونه پیشنهاد در زمینه ادبیات بسیار قدردانی خواهد شد! ممنون، کیت | پیش بینی بیماری - شمارش یا نرخ؟ |
45743 | 1. برای نمونهبرداری از یک توزیع هدف، کافی است یک زنجیره مارکوف بسازیم که توزیع هدف توزیع محدودکننده آن باشد. توجه داشته باشید که چنین MC ممکن است معادله تعادل تفصیلی را با توجه به توزیع محدود کننده برآورده نکند. اما الگوریتم های متروپلیس-هیستینگز به این نیاز دارند. بنابراین، من نمی دانم که این نیاز اضافی چه چیزی (خوب یا بد) می تواند به همراه داشته باشد؟ به عنوان مثال، * آیا زمان اختلاط MC را کاهش می دهد، یعنی نرخ همگرایی توزیع X_t$ را به هدف افزایش می دهد؟ * آیا هدف(های) محاسباتی دارد؟ 2. اگر لازم نیست معادله تعادل تفصیلی برآورده شود، چه راه هایی برای ساختن یک MC (هسته های انتقالی آن، به طور خاص) به گونه ای وجود دارد که توزیع محدود کننده آن، توزیع هدف باشد؟ 3. با توجه به هر توزیع هدف، آیا همیشه یک MC (هسته های انتقالی آن، به طور خاص) وجود دارد که دارای توزیع محدود کننده باشد، توزیع محدود کننده آن توزیع هدف باشد، **و/یا ** معادله تعادل دقیق را برآورده کند. با توجه به توزیع محدود آن؟ | رضایت از معادله تعادل تفصیلی در الگوریتم های متروپلیس-هیستینگ؟ |
27948 | من باید مقادیر پیش بینی شده یک جدول داده جدید را با استفاده از ضرایب مدل ترکیبی خود رسم کنم، بنابراین از روش اینجا برای lmer http://glmm.wikidot.com/faq استفاده کردم (به دنبال mm = مدل باشید) اما من دارم درک آنچه آن دو خط انجام می دهند (روی R) دشوار است: pvar1 <- diag(mm %*% tcrossprod(vcov(fm1)،mm)) tvar1 <- pvar1+VarCorr(fm1)$Subject[1] و سپس نحوه استفاده از آنها در نمودارها: نمودار اطمینان:plo =newdat(علامت دلار)distance-2*sqrt(pvar1); phi = newdat(علامت دلار)فاصله+2*sqrt(pvar1) طرح پیش بینی:tlo =newdat(نشانه دلار)distance-2*sqrt(tvar1); thi = newdat (نشانه دلار) distance+2*sqrt(tvar1) چیزی که من می خواهم دریافت کنم SE و CI است. آیا CI «plo» و «phi» است؟ بنابراین آیا «tlo» و «thi» فاصله پیشبینی میانگین اثر تصادفی را در نظر میگیرند؟ با تشکر | مقادیر پیش بینی شده با lmer() |
27942 | با توجه به هر تعداد خوشه، آیا می توان پس از افزودن نویز به خوشه بندی، مجموع مربعات خطا (SSE) را برای خوشه ها تخمین زد؟ نوع نویز تولید شده به عنوان پارامتر ارائه می شود. هر روشی باید بتواند نویز گاوسی و یکنواخت را تامین کند. | پیش بینی SSE در k-mean خوشه بندی |
27946 | من به الگوریتم ساده برای فیلتر ذرات که در اینجا ارائه شده است علاقه مند هستم. به نظر می رسد بسیار ساده است، اما من نمی دانم چگونه آن را عملی انجام دهم. آیا ایده ای در مورد نحوه اجرای آن دارید (فقط برای درک بهتر نحوه عملکرد آن)؟ **ویرایش:** این یک مثال ساده عالی است که نحوه عملکرد آن را توضیح می دهد. من سعی کردم آن را در C++ پیاده سازی کنم: کد من را در اینجا ببینید، اما مطمئن هستم که آیا آن را به روش درست انجام می دهم. لطفاً بررسی کنید که آیا من آن را به خوبی متوجه شده ام، یا با توجه به کد من سوء تفاهم وجود دارد؟ | اجرای الگوریتم فیلترهای ذرات بسیار ساده (روش مونت کارلو متوالی). |
60676 | راه صحیح برای پیگیری شیوع یک اصطلاح خاص برای هر سال در طی چندین سال چیست؟ هدف پایان نامه کارشناسی در رشته علوم رسانه در مورد گرایش ورزش سپیدمینتون است. برای اینکه حضور وب این ورزش در وب را با موفقیت آن مرتبط کنم (که به اندازه ای نیز نیاز دارد که هنوز تعیین نکرده ام)، من به دنبال راهی هستم که بتوانم بگویم به عنوان مثال. در سال 2003، Speedminton هر میلیونمین کلمه در وب بود در حالی که در سال 2004 قبلاً هر 100.000 یا در سال 2003، 7000 صفحه از speedminton نام بردند در حالی که در سال 2004 قبلاً 9000 بود. بنابراین سؤال من این است: * بهترین معیار برای «شیوع» در این زمینه چیست؟ (فرکانس ترم، تعداد صفحات) * از کدام منابع باید استفاده کنم (صفحات وب، توییتر، فیس بوک،...) * چگونه می توانم داده ها را دریافت کنم؟ ایدههای من تا به حال این بود که از Google با Speedminton به عنوان عبارت جستجو و سالهای دقیق تعیین شده در فیلتر زمان استفاده کنم (اما نمیدانم دقیقاً چگونه کار میکند و آیا باید به نحوی آن را برای درصد متفاوتی اصلاح کنم. کل وب تحت پوشش گوگل) یا با استفاده از توییتر. | چگونه می توان شیوع مدت زمان در وب را در طول زمان ردیابی کرد؟ |
27495 | مدتی است که به _داده کاوی_ و _آموزش ماشینی_ بسیار علاقه مند بوده ام، تا حدی به این دلیل که در مدرسه در آن زمینه تحصیل کرده ام، اما همچنین به این دلیل که واقعاً برای حل مسائلی که نیاز به تفکر بیشتر از برنامه نویسی دارند، بسیار هیجان زده تر هستم. دانش و راه حل آن می تواند اشکال متعددی داشته باشد. من سابقه محقق/دانشمند ندارم، من از یک پیشینه علوم کامپیوتر با تاکید بر تجزیه و تحلیل داده ها آمده ام، من مدرک کارشناسی ارشد دارم و نه دکترا. من در حال حاضر موقعیتی مرتبط با تجزیه و تحلیل دادهها دارم، حتی اگر تمرکز اولیه کاری که انجام میدهم این نباشد، اما حداقل در معرض آن قرار دارم. زمانی که مدتی پیش برای کار با چندین شرکت مصاحبه میکردم، و با چند استخدامکننده صحبت میکردم، یک الگوی رایج پیدا کردم که به نظر میرسد مردم فکر میکنند _ برای انجام یادگیری ماشینی باید دکترا داشته باشید_، حتی اگر ممکن است من باشم. تعمیم کمی بیش از حد (برخی از شرکت ها واقعاً به دنبال دکترا نبودند). در حالی که فکر میکنم داشتن مدرک دکترا در آن زمینه خوب است، اما فکر نمیکنم این کاملاً _ضروری_ باشد. من دانش نسبتاً مناسبی از اکثر الگوریتمهای یادگیری ماشین در دنیای واقعی دارم، بیشتر آنها را خودم (چه در مدرسه یا در پروژههای شخصی) پیادهسازی کردهام، و هنگام نزدیک شدن به مشکلات مربوط به یادگیری ماشینی / دادهکاوی و آمار به طور کلی، کاملاً مطمئن هستم. . و من دوستانی با مشخصات مشابه دارم که در این مورد بسیار آگاه به نظر می رسند، اما همچنین احساس می کنند که اگر شما دکترا نیستید، به طور کلی شرکت ها از استخدام در زمینه داده کاوی خجالتی هستند. من می خواهم بازخوردی دریافت کنم، آیا فکر می کنید دکترا برای داشتن یک شغل بسیار متمرکز در آن زمینه کاملاً ضروری است؟ (من قبل از ارسال این سوال در اینجا کمی تردید کردم، اما از آنجایی که به نظر می رسد موضوع قابل قبولی در متا باشد، تصمیم گرفتم این سوال را که مدتی در مورد آن فکر می کردم، ارسال کنم.) | داشتن شغل در زمینه داده کاوی بدون دکترا |
21398 | به من وظیفه داده شده است که یکی از مدلهای تصادفی بزرگ فعلی خود را از SAS به یک زبان جدید منتقل کنم. من شخصاً یک زبان کامپایل شده سنتی را ترجیح می دهم، اما PI از من می خواهد که R را بررسی کنم، که هرگز از آن استفاده نکرده ام. انگیزه ما برای خارج کردن مدل از SAS این است که (1) بسیاری از مردم به آن دسترسی ندارند زیرا SAS گران است، (2) ما به دنبال دور شدن از یک زبان تفسیری هستیم و (3) SAS برای آن کند است. نوع مدلی که داریم برای (1)، بدیهی است که R نیاز به رایگان بودن آن را برآورده می کند. برای (2)، در حالت ایده آل، ما می خواهیم یک فایل اجرایی ایجاد کنیم، اما R معمولاً به عنوان یک زبان اسکریپت استفاده می شود. من می بینم که شخصی اخیراً یک کامپایلر R منتشر کرده است - آیا این مورد به خوبی مورد استقبال قرار گرفته است؟ آیا استفاده از آن آسان است؟ ما ترجیح می دهیم کاربر را مجبور نکنیم خودش R را دانلود کند. برای (3)، مشکل ما با SAS تمام زمان صرف شده در I/O برای نوشتن و خواندن مجموعههای داده است. مدل ما از نظر محاسباتی فشرده است و ما اغلب توسط زمان اجرا محدود می شویم. (مثلاً غیرمعمول نیست که شخصی در آخر هفته رایانه افراد را برای اجرای اجراها ربوده باشد.) ما یک مدل مشابه در فرترن ساخته ایم که مشکل مشابهی ندارد زیرا همه کارها در حافظه انجام می شود. R چگونه کار می کند؟ آیا همان SAS خواهد بود که در مراحل داده، خواندن و نوشتن فایل ها کار می کند؟ یا می تواند دستکاری آرایه در حافظه انجام دهد؟ | سرعت محاسبات در R؟ |
68299 | مثلاً یک $Y \sim \mathrm{Uniform}(0, 0.25)$ داریم، سپس $P(Y = y) = 4$ برای همه $Y \in [0, 0.25]$. سوال من این است: اهمیت/معنای آماری 4 دلار چیست؟ | اهمیت ارزش PDF در یک نقطه خاص چیست؟ |
84024 | اجازه دهید X ماتریسی باشد که در آن X ممکن است هر مخلوطی از ثابت ها و متغیرهای تصادفی تولید شده باشد. معنی یا توضیح شهودی برای رفتار داده ها در نمونه های بزرگ چیست که در آن فرض زیر را داریم: $plim_{n \rightarrow \infty} \dfrac{X'X}{n}= Q$ که در آن Q مثبت است. ماتریس قطعی؟ | توضیح plim X'X/n =Q چیست؟ |
113810 | من RNG اصلی xorshift Marsaglia را دریافت می کنم. برای تصادفی بیشتر، او پیشنهاد می کند که نتیجه را در یک ثابت مناسب ضرب کنید. این کدی است که من پیدا کردم و دقیقاً این کار را انجام می دهد: uint64_t s[ 16]; int p; uint64_t next(void) { uint64_t s0 = s[ p ]; uint64_t s1 = s[ p = ( p + 1 ) & 15 ]; s1 ^= s1 << 31; // a s1 ^= s1 >> 11; // b s0 ^= s0 >> 30; // c بازگشت ( s[ p ] = s0 ^ s1 ) * 1181783497276652981LL; } 1181783497276652981LL از کجا می آید؟ به نظر من هر عددی ثابت مناسبی نیست. اگر هر عددی کار نمی کند، چگونه تعیین می شود؟ _مثل همیشه اگه کسی اینو پرسیده و جای دیگه جواب داده معذرت میخوام. من جستجو کردم و نتوانستم آنچه را که نیاز داشتم پیدا کنم._ | ثابت در xorshift* RNG Marsaglia چگونه تعیین می شود؟ |
80547 | من می دانم که جبر خطی و تجزیه و تحلیل (به ویژه نظریه اندازه گیری) مهم است. آیا گذراندن دوره های تحصیلات تکمیلی در تحلیل واقعی و پیچیده مفید است؟ آیا باید دروس جبر انتزاعی را فراتر از دروس مقدماتی بگذرانم، مثلاً جبر جابجایی و هندسه جبری؟ | دروس مهم ریاضی محض برای دانشجوی دکتری آمار آینده نگر چیست؟ |
72874 | در آزمایشم، من مجموعه محدودی از انتخابهای گسسته (یا گزینههای) $S$ دارم که در آن از هر شرکتکننده میخواهم یک زیرمجموعه غیرخالی $s \subseteq S$ را انتخاب کند و عناصر را در $s$ به ترتیب دقیقشان رتبهبندی کند. از اولویت برای هر جایگزین در $S$، ویژگیهای خاص جایگزین، و برای هر شرکتکننده، ویژگیهای خاص فردی وجود دارد. من میخواهم مدلهای رگرسیونی داشته باشم که این احتمال را توصیف میکند که یک جایگزین معین به عنوان انتخاب $k$-th در $s$، با توجه به ویژگیهای آن و ویژگیهای شرکتکننده و جایگزین در $k-1 قبلی انتخاب نشده است. انتخاب های دلار چیزی شبیه مدلسازی انتخاب گسسته (http://en.wikipedia.org/wiki/Discrete_choice#Prominent_Types_of_Discrete_Choice_Models) اما با مقداری پیچیدگی که همانطور که توضیح داده شد پوشش داده شده است. آیا کسی می تواند هر مدل شناخته شده ای را پیشنهاد کند که بتواند این کار را تسهیل کند؟ یا اشاره به هر مقاله یا ادبیات مرتبط قدردانی می شود. | مدل سازی انتخاب های گسسته متوالی |
20444 | کد زیر خروجی مورد نظر را تولید می کند. با این حال، فقدان برداری به این معنی است که بسیار کند اجرا می شود. چگونه می توانم سرعت آن را افزایش دهم؟ من نتایج «dput» را از بخشی از برخی دادههای نشاندهنده قرار دادهام. **Input`dput`s** 1. StandRef ساختار ورودی(list(id = structure(c(43L, 50L, 17L, 45L, 9L, 5L, 49L, 33L, 48L, 39L, 71L, 64L, 44L ، 47 لیتر، 58 لیتر، 24 لیتر، 15 لیتر، 37 لیتر، 14 لیتر، 11 لیتر، 26 لیتر، 57 لیتر، 4 لیتر، 30 لیتر، 72 لیتر، 21 لیتر، 23 لیتر، 60 لیتر، 38 لیتر، 59 لیتر، 29 لیتر، 19 لیتر، 6 لیتر، 46 لیتر، 36 لیتر، 3 لیتر، 5، 51، 5، 5 لیتر، 7 لیتر، 16 لیتر، 73 لیتر، 42 لیتر، 52 لیتر، 41 لیتر، 27 لیتر، 25 لیتر، 61 لیتر، 20 لیتر، 70 لیتر، 53 لیتر، 18 لیتر، 31 لیتر، 22 لیتر، 1 لیتر، 8 لیتر، 2 لیتر، 40 لیتر، 6، 6،15، 6، 6، 1، 6، 6، 1، 6 32L، 54L، 66L، 68L، 34L، 12L، 69L، 62L)، .Label = c(ID 1009445، ID 120763، ID 133883، ID 136398، ID 17185، ID 17185، ID 1009445 ، ID 197597، شناسه ۲۱۶۴۰۶، شناسه ۲۱۸۸۸، شناسه ۲۳۰۹۴۰، شناسه ۲۳۷۷۷، شناسه ۲۸۲۷۹۱، شناسه ۳۰۶۳۴۸، شناسه ۳۰۹۷۴۵، شناسه ۳۲۶۹۲۸، شناسه ۳۴۴۸۹۷، شناسه ۳۴۹۷۴، ID 350157، ID 391831، شناسه 402479، شناسه 43010، شناسه 484078، شناسه 484697، شناسه 537134، شناسه 562259، شناسه 562455، شناسه 567042، شناسه 572866، شناسه 57894 شناسه 595683، شناسه 59759، «شناسه 598460»، «شناسه 603611»، «شناسه 603757»، «شناسه 607991»، «شناسه 60976»، «شناسه 622720»، «شناسه 646989»، «شناسه 656144»، «شناسه 668807»، «شناسه 6694»، «شناسه 6694» «شناسه 720522»، «شناسه 740555، «شناسه 745499»، «شناسه 746001»، «شناسه 783969»، «شناسه 78979»، «شناسه 792426»، «شناسه 793541»، «شناسه 797860»، «شناسه 806559»، «شناسه 810517»، 826054، ID 837609، شناسه 839287، شناسه 867918، شناسه 869788، شناسه 875380، شناسه 876870، شناسه 882220، شناسه 893116، شناسه 895909، شناسه 899050، شناسه 43، شناسه 900 «شناسه 908100»، «شناسه 912185، ID 916371، ID 916620، ID 957879، ID 966195, ID 993247، ID 998911, ID 999610)، class = factor)، منطقه = c( 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2L, 2L, 2L, 2L, 2L, 2L, 2L, 2L, Location = c(259090L, 559306L, 2227063L, 2369217L, 4026978L, , 4211264L, 4211264L, 4026L, 4211264L, 4211264L, 4211264L, 4025L 5106345L, 5344670L, 5473601L, 5476528L, 5871970L, 6461228L, 6700029L, 6708265L, 7639959L, 7639959L, 92978L, 92976 10328812L, 11102816L, 11568295L, 11720437L, 12843457L, 14012506L, 14156669L, 14632300L, 14632300L, 146211929 15468425L, 15534406L, 16279682L, 16699353L, 17226952L, 17320785L, 269017L, 453097L, 828836L, 828836L, 828836L, 949L 1066378L, 1217332L, 1253530L, 1277716L, 1292857L, 1337952L, 1439657L, 1452989L, 1712345L, 1712345L, 173580L 2640359L, 2778095L, 3151129L, 3369931L, 3399080L, 3529525L, 3810217L, 3821120L, 3841588L, , 3841588L, 390151 4220440L، 4528632L، 4665450L، 5099307L، 5260242L، 5958770L، 5966356L، 6137405L، 6246065L، 629.496L) = 1.4976L. c(id، region، location), class = data.frame, row.names = c(NA, -73L)) 2. دو ورودی نمونه نمونه 1 structure(list(region = c( 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر)، شروع = c(0L، 2259252L، 5092077L, 9158205L, 0L, 135094L, 941813L, 5901391L, 6061324L, Finish = c(2259252L, 5092077L, 91582046L, 9158205L, 91582046L, 3023 941813L، 5901391L، 6061324L، 7092402L)، sed = c(3.98106154985726، 7.51649828394875، 5.15440228627995، 5.15440228627995 7.54309412557632، 4.17413910385221، 7.47043058509007، 6.13362524658442، 1.000849942221106)، . data.frame، row.names = c(NA, -9L)) ساختار نمونه 2(فهرست(منطقه = c(1L, 1L, 1L, 1L, 2L, 2L, 2L, 2L, 2L), begin = c (0L, 2253252L, 7091077L, 9120205L, 0L, 135094L, 941813L, 5901391L, 6061324L, Finish = c(2253252L, 7091077L, 9120205L, 17463033L, 135094L, 3L, 94150L 6061324L، 7092402L)، sed = c(3.31830840984048، 1.38014704208403، 6.13049140975458، 2.10349875097134، 2.1034987509714048 0.13058713509175، 9.13509713513509، 6.13047153058701، 3.81734081501503))، .Names = c(region، begin، finish، da. -9L)) **کد بدون برداری** matchLocationsToRegions <- function(path) { # دریافت لیستی از فایل های داده (حدود 500 مورد از اینها; فقط dput 2 داده شده: sample262519 و sample252519) setwd(path,sep=,collapse=NULL)) data_files <- list.files() # read در فایل الگو با مرزهای منطقه ای کامل standRef <- read.table(paste( مسیر، StandRef.txt، sep=، collapse=NULL)، header=TRUE، sep=\t) # از پیش تخصیص یک df با ابعاد ردیف standRef و تعداد ستون ها بر اساس تعداد فایل های داده sediment.df <- as.data.frame(matrix(NA,nrow=nrow(standRef), ncol=length(data_files))) نام های colname | سرعت بخشیدن به کد R غیر برداری |
110613 | من دو مجموعه داده با حدود 7 امتیاز در هر کدام دارم. اکسل خطوط روند را با مقادیر زیر به من می دهد: $y=0.0263x + 17.292\,,\quad R^2 = 0.09617$ $y= 0.0121x + 18.873\,,\quad R^2 = 0.01528$ با چه کار کنم آنها در حال حاضر؟ چگونه بفهمم که از نظر آماری روندهای متفاوتی دارند؟ | مقایسه خطوط روند |
99415 | من باید 11 گروه داده را برای همان رابطه مقایسه کنم. اولین فکر من ایجاد 11 معادله رگرسیون (یک معادله برای هر کدام) و مقایسه پارامترها بین گروه ها بود. مشکل این است که متغیر وابسته یک متغیر ساختگی است و من باید یک مدل لجستیک یا پروبیت را محاسبه کنم. در SPSS همه چیز درست است. اما AMOS چنین تجسم خوبی از مدل (ها) ارائه می دهد (نسبتاً پیچیده)، و من می خواهم هر یک از معادلات رگرسیون لجستیک (یا پروبیت) را در AMOS محاسبه کنم. آیا این امکان پذیر است؟ اگر بله، لطفاً مکان هایی را به من بدهید تا دستورات و مراحل این نوع تحلیل ها را جستجو کنم | آیا می توان از AMOS برای انجام رگرسیون های لجستیک استفاده کرد؟ |
95748 | آزمایشی را در نظر بگیرید که در آن یک سکه منصفانه 10 بار پشت سر هم پرتاب می شود (پرتاب ها مستقل از یکدیگر هستند). اجازه دهید X تعداد هدهای مشاهده شده را نشان دهد و اجازه دهید Y=X^2. کوواریانس بین X و Y را بیابید. من می دانم که Cov(x,y) = E(x*y) - E(x) * E(y) اما به نظر نمی رسد که پاسخ درست را دریافت کنم. آیا راهنمایی برای اینکه از اینجا به کجا بروید؟ | کمک کوواریانس |
64314 | من مجموعه داده ای از سری های زمانی دارم که محبوبیت کلمات (یا عبارات) را نشان می دهد. هر کلمه فهرستی از فرکانس ها بر اساس مهر زمانی است. هدف من شناسایی نوع خاصی از اسپایک است که منجر به رویداد A میشود. برای مثال در دادههایم میدانم که برخی از اسپکها در کلمات منجر به رویداد A میشوند، در حالی که اسپیکهای دیگر با فرکانس مشابه چنین نیستند. در حال حاضر من از یک روش سفارشی برای اندازه گیری ارتفاع قله، نسبت افزایش نسبت به فعالیت پایه و وجود برخی نمادها در کلمات (یا عبارات) استفاده می کنم. من از آستانه های سفارشی برای تصمیم گیری استفاده می کنم. می دانم که این راه درستی برای انجام آن نیست، به عنوان مثال می توانم از یک بهینه ساز برای یافتن بهترین آستانه ها جدا از آزمون و خطا استفاده کنم. بنابراین تصمیم گرفتم فقط قلههای سری زمانی را مدلسازی کنم و مجموعه دادهای از پیکهایی ایجاد کنم که به رویداد A و قلههایی که منجر به رویداد B میشوند. با استفاده از تجسمها، درک تفاوت در پیکها بین این دو نوع بسیار دشوار است. حال سوال من این است: * آیا این روش برای چنین مشکلی مناسب است؟ * چگونه می توانم یک اوج را نشان دهم؟ از چه نوع ویژگی هایی می توانم استفاده کنم؟ من به استفاده از آستانه های فعلی خود به عنوان ویژگی (فرکانس، نسبت رشد، نسبت پوسیدگی) فکر می کنم، اما مطمئن نیستم که آیا این مناسب است یا خیر. * من به استفاده از این ویژگی ها برای آموزش یک طبقه بندی کننده رگرسیون لجستیک یا یک شبکه عصبی فکر می کنم. آیا این سخت است؟ ایجاد مجموعه داده من بر اساس آزمون گرابس برای نقاط پرت است. وقتی کلمه ای دور از ذهن می بینم به این معنی است که اوج وجود دارد. من پیک را با اطلاعات بالا و برچسب کلاس آن (A یا B) ذخیره می کنم. از آنجایی که با استفاده از تجسم ها نمی توانم تفاوت بین نوع پیک ها را درک کنم به این معنی است که ویژگی های من آموزنده نیستند. برای داشتن ایده به دنبال چه مشکلات مربوطه باشم؟ | ویژگی هایی برای نمایش قله ها در سری های زمانی |
48119 | من در حال مطالعه فواصل اطمینان دوجمله ای هستم و در استفاده از لینک sin به مشکل برخوردم که فکر می کنم همان روش arcsin است. من از 2 موفقیت ($x = 2$) در 50 آزمایش ($n = 50$) استفاده می کنم. وقتی آن داده ها را با یک برنامه کامپیوتری و پیوند گناه تجزیه و تحلیل می کنم، تخمین های بتای زیر را به دست می آورم: p = x / n = -1.1680805 SE = 0.1414214 پایین 95% CI = -1.4452664 - بالا، 95% CI = -0.8908946 و برآوردهای واقعی زیر : p = 0.0400000 SE = 0.0277128 پایین 95% CI = 0.0100254 بالا 95% CI = 0.1463468 من می توانم بیشتر تخمین های بالا را به صورت دستی بدست بیاورم، اما نمی توانم تخمین های بتا را برای فواصل اطمینان به تخمین های واقعی تبدیل کنم. در زیر آنچه را که تاکنون با استفاده از کد R داشته ام نشان می دهم: x <- 2 n <- 50 p.beta <- asin(((x / n) * 2) - 1) p.real <- (sin(1 * - 1.1680805) + 1)/2 SE.beta <- 2 * sqrt(.25/n) SE.real <- (((x/n) * ((n-x)/n)) / n)^0.5 lci.beta <- asin(((x / n) * 2) - 1) - 1.96 * SE.beta uci.beta <- asin(((x/n) ) * 2) - 1) + 1.96 * SE.beta چندین تلاش نشان می دهد که تخمین های اطمینان واقعی باید به این صورت باشد: فاصله اطمینان 95% کمتر = 0.003934274 فاصله اطمینان بالای 95% = 0.1111827 برای مثال: (sin(1 * -1.4452664) + 1)/2 (sin(1 * -0.8908946) + 1)/2 sin(asin(sqrt(p)*1.96 - 0. /sqrt(n))^2 sin(asin(sqrt(p)) + 0.5*1.96/sqrt(n))^2 g.p <- 2 * asin(sqrt(x/n)) l.g.p <- g.p - 1.96 / sqrt(n) u.g.p <- g.p + 1.96 / sqrt(n) (sin(l.g.p / 2))^2 (sin(u.g.p / 2))^2 بسته MKmisc را برمی گرداند: library(MKmisc) binomCI(x, n, conf.level = 0.95, روش = arcsine) # [1] 0.006300929 0.121891908 با استفاده از کد R زیر: conf سطح <- 0.95 آلفا <- 1 - conf.level kappa <- qnorm(1-alpha/2) p.tilde <- (x + 0.375)/(n + 0.75) est <- p.tilde CI.lower <- sin(asin(sqrt(p.tilde )) - 0.5*kappa/sqrt(n))^2 CI.upper <- sin(asin(sqrt(p.tilde)) + 0.5*kappa/sqrt(n))^2 من همچنین معادلات زیر را که در مقالات مختلف یا در صفحات وب مختلف یافت می شود امتحان کرده ام: sin(asin(sqrt( (x) / n)) + 0.5*kappa/sqrt(n)) ^2 sin(asin(sqrt( (x+0.5 ) / n )) + 0.5*kappa/sqrt(n ))^2 sin(asin(sqrt( (x+0.5+3/8) / (n+3/4) )) + 0.5*kappa/sqrt( (n+1/2) ))^2 sin(asin (sqrt( (x +3/8) / (n+3/4) )) + 0.5*kappa/sqrt( (n+1/2) ))^2 sin(asin(sqrt( (x +3/8) / (n+3/4) )) + 0.5*kappa/sqrt( (n ) ))^2 هیچ یک از این رویکردها بالاتر از تخمین بازگشتی از: 95% CI کمتر = 0.0100254 بالا 95% CI = 0.1463468 من می توانم برآوردهای واقعی بالا را با دست با استفاده از رویکرد لاجیت به دست بیاورم و بسته «MKmisc» در R نیز همان تخمینها را برمیگرداند، جایی که فکر میکنم تفاوتهای جزئی به دلیل بسته «MKmisc» با استفاده از «qnorm(0.975)» است، نه 1.96 برای مقدار z بحرانی: library(MKmisc) binomCI(x، n، conf.level = 0.95، روش = logit) # [1] 0.01002561 0.14634358 آیا باید انتظار داشته باشم که sin (یا رویکرد arcsin) همان تخمین فاصله اطمینان واقعی را به عنوان رویکرد لاجیت برگرداند؟ شاید من در این فکر اشتباه میکنم که نرمافزاری که تخمینها را در بالای صفحه برمیگرداند، تخمینهای بتا را به تخمینهای واقعی تبدیل میکند. شاید این نرم افزار از پیوند گناه برای تخمین های بتا استفاده کرده باشد، اما رویکرد دیگری برای تخمین های واقعی. از شما برای راهنمایی در مورد اینکه چه اشتباهی انجام میدهم هنگام تبدیل تخمینهای بتا CI به تخمینهای واقعی (0.0100254، 0.1463468)، و در مورد اینکه برآوردهای فاصله اطمینان واقعی هنگام استفاده از روش sin یا arcsin چگونه باید باشد، سپاسگزارم. | فواصل اطمینان دو جمله ای با استفاده از پیوند گناه |
99414 | برای تجزیه و تحلیل ANOVA یک طرفه به کمک نیاز دارم. من در حال بررسی واریانس یک متغیر (هزینه) در بین متغیرهای مختلف دیگر (سن، جنسیت، گروه های درآمد و غیره) هستم. هر بار که فرض همگنی نقض می شود. به دنبال دستورالعملهای برخی کتابهای درسی، من به آزمونهای قوی برابری میانگینها نگاه میکنم - آمار ولش و براون فورسایت هر دو قابل توجه هستند. سؤالات: (1) آیا استفاده از ANOVA و تفسیر نتایج اصلاً خوب است؟ (2) برای تجزیه و تحلیل post-hoc من از مقایسه Games-Howell استفاده می کنم - آیا مناسب است؟ (3) از آنجایی که همیشه مشکلی با همگنی وجود دارد، آیا کاری وجود دارد که برای بررسی/بررسی در مجموعه داده خود انجام دهم؟ ببخشید اگر این یک سوال احمقانه است، آمار همیشه برای من یک مبارزه است... خیلی ممنون از کمک! | ANOVA یک طرفه بدون مورد همگنی |
95747 | _پیشینه_: من مجموعه ای از پاسخ های دانش آموزان به برخی از سوالات و همچنین نمرات آنها را دارم، خواه پاسخ صحیح باشد یا نه (1 - صحیح نیست، 2 - تا حدودی صحیح، 3 - صحیح). من همچنین برای هر سوال یک پاسخ طلایی دارم، بنابراین سعی کردم صحت آنها را بر اساس شباهت پاسخ ها به پاسخ صحیح پیش بینی کنم. من از LSA (تحلیل معنایی نهفته) استفاده کردهام و فضای معنایی را برای هر سؤال به طور جداگانه ساختهام، با استفاده از همه پاسخهای آنها و پاسخ استاندارد طلایی. سپس شباهت کسینوس پاسخ دانش آموزان و پاسخ استاندارد طلایی را محاسبه کردم. _مشکل_: کدام روش طبقه بندی برای پیش بینی درستی پاسخ های دانش آموزان بر اساس شباهت به پاسخ صحیح مناسب است؟ مشکل کمی عجیب است زیرا من فقط یک پیشبینیکننده پیوسته (شباهت با استاندارد طلایی) و یک متغیر نتیجه (صحت: 1،2 یا 3) دارم، بنابراین همه روشهای پیچیدهتر مانند SVM (ماشینهای بردار پشتیبانی)، درختهای تصمیمگیری و غیره انجام نمیشوند. حس نمیکنم من به استفاده از LDA (تحلیل متمایز خطی) فکر می کردم اما می خواستم بررسی کنم که آیا روش خوبی است. | DV مقوله ای تک، IV شمارش منفرد |
21392 | من از **فیلتر کالمن** برای تخمین متغیرهای حالت خود برای داده های سری زمانی استفاده می کنم. S(t) = A*S(t-1) + B*X(t) + Q ----------فرآیند Sate Z(t) = H*S(t) + W*D( t) + R ----------فرایند اندازه گیری که در آن، T: تعداد کل شکاف های زمانی در داده های سری زمانی N: تعداد متغیر حالت M: تعداد متغیر اندازه گیری S: متغیر حالت، N* ماتریس بعد T Z: اندازه گیری متغیر، ماتریس بعد M*T Q: نویز فرآیند حالت R: نویز فرآیند اندازه گیری X: ورودی در فرآیند حالت، بعد L برای یک شکاف زمانی D: ورودی در فرآیند اندازه گیری، بعد I برای یک شکاف زمانی A، B و H: پارامتر ماتریس من سعی می کنم از optim() در R استفاده کنم تا بهترین ماتریس A، B و H را برای KF پیدا کنم. تمام پارامترها در مدل محدود هستند، به این معنی که آنها دارای مرز هستند. در اینجا کدهای من برای تنظیم پارامترها، محاسبه KF و ML وجود دارد. setParameterKF <- تابع (لامبدا، بتا، دلتا1، دلتا2، گاما، N، M){ A <- lambda*diag(N); B <- بتا; if(N > 1) {B <- diag(B);} Q <- delta1/N * diag(N); R <- delta2/M * diag(M); H <- t(ماتریس(rep(1, N))); W <- گاما; return(list(A=A,B=B,Q=Q,R=R,H=H,W=W)); } kfilter <- تابع (A, B, H, W, Q, R, X, D, Z, S0, P0) { ##################### ########### #بعد ماتریس را دریافت کنید ############################################################ متغیر حالت: N nStateVar <- dim(H)[2]; # تعداد متغیر اندازه گیری: M nMeasureVar <- dim(H)[1]; # تعداد متغیر مستقل در فرآیند حالت: L1 nInputInState <- dim(X)[1]; # تعداد متغیر مستقل در فرآیند اندازه گیری: L2 nInputInMeasurement <- dim(D)[1]; # تعداد نقطه زمانی T <- dim(Z)[2]; # مقداردهی اولیه KF #S0 <- ماتریس(c(rep(sIni، nStateVar))). #P0 <- ماتریس(c(rep(pIni، nStateVar*nStateVar))، nrow = nStateVar); SPost = S0; PPpost = P0; SPreList <- ماتریس(0*c(1:(T*nStateVar)), nrow = nStateVar); PPreList <- list(); KList <- list(); SPostList <- ماتریس(0*c(1:(T*nStateVar)), nrow = nStateVar); PPostList <- list(); VList <- matrix(0*c(1:(T*nMeasureVar)), nrow=nMeasureVar); omegaList <- list(); for(t in 1:T) { # Predict process SPre <- A %*% SPost + B%*%X[, t]; PPre <- A %*% PPost %*% t(A) + Q; # دمای فرآیند صحیح <- H %*% PPre; omegaPre <- Temp %*% t(H) + R; K <- PPre %*% t(H) %*% ginv(omegaPre); V <- Z[,t] - H %*% SPre - W %*% D[,t]; SPost <- SPre + K %*% V; PPpost <- PPre - K %*% temp; SPreList[,t] <- SPre; PPreList[[t]] <- PPre; KList[[t]] <- K; SPostList[,t] <- SPost; PPostList[[t]] <- PPost; VList[,t] <- V; omegaList[[t]] <- omegaPre; } return(list(SPre = SPreList، PPre = PPreList، SPost = SPostList، PPost = PPostList، K = KList، V = VList، omega = omegaList، T = T))؛ } loss <- function(omegaList, VList, T) { # Calculate -log(ML) as loss function ML <- 0; for(t in 1:T) { omega <- omegaList[[t]]; V <- VList[,t]; ML <- ML + log(det(omega)) + t(V)%*%ginv(omega)%*%V; } return(ML); } getKFML <- تابع (pSet، N، M، X، D، Z، S0، P0) { lambda <- pSet[1]; بتا <- pSet[2 : (طول(pSet) - 2- کم نور(D)[1])]؛ گاما <- pSet[(طول(لامبدا)+طول(بتا)+1) : (طول(pSet)-2)] delta1 <- pSet[طول(pSet) - 1]; delta2 <- pSet[length(pSet)]; parameterSet <- setParameterKF(لامبدا، بتا، دلتا1، دلتا2، گاما، N، M); A <- parameterSet$A; B <- parameterSet$B; H <- parameterSet$H; W <- parameterSet$W; Q <- parameterSet$Q; R <- parameterSet$R; kfModel <- kfilter(A, B, H, W, Q, R, X, D, Z, S0, P0); omegaList <- kfModel$omega; VList <- kfModel$V; T <- as.integer(kfModel$T); MLValue <- loss(omegaList, VList, T); بازگشت (MLValue)؛ } در مورد من، من 7 متغیر حالت، 7 متغیر ورودی در فرآیند حالت، و 9 متغیر ورودی در فرآیند اندازه گیری دارم. در کل من 15 پارامتر دارم. بخشی از داده های من به این صورت است: 1;0.27;-5.91;0.2;0;1.01;0;0;0;0;0;0.27;0;0;0;0.27;10922;0.0024;0;0;0 ,4;0;0;0;0;0 اولین مورد تعصب است | ()optim برای فیلتر Kalman من بسیار کند است |
63094 | من دادههای سری زمانی از افزایش ناگهانی سلولهای مغزی دارم. اساساً یک خط پایه از نویز تصادفی با سنبله های بزرگ در هم آمیخته است. من میخواهم بتوانم بهطور الگوریتمی بخشهای سنبله پراکندگی را از نویز خط پایه خوشهبندی کنم. چگونه می توانم این کار را انجام دهم (ترجیحاً یک راه حل در R)؟ K-means قطعا کار نمی کند. | چگونه می توان سنبله ها را در یک سری زمانی پر سر و صدا شناسایی کرد؟ |
108180 | من از تخمین بیزی برای آزمایش اثرات غیرمستقیم در یک مدل استفاده کردم و 95% فواصل معتبر را شناسایی کردم. من معمولاً به استفاده از آزمون z Sobel برای شناسایی میانجیگری مهم عادت دارم، جایگزین بیزی چیست؟ | چگونه با استفاده از آمار بیزی تعیین کنیم که آیا یک اثر غیرمستقیم از نظر آماری معنادار است؟ |
21395 | روش دیگر، برای پیش بینی بازارهای ارز. من می دانم که این می تواند بسیار پیچیده باشد، بنابراین به عنوان مقدمه، من به دنبال یک الگوریتم پیش بینی ساده هستم که تا حدودی دقت داشته باشد. (این برای پروژه دانشگاه کارشناسی ارشد است که چهار ماه طول می کشد) من خوانده ام که یک شبکه عصبی چند لایه ممکن است مفید باشد. نظری در مورد آن دارید؟ علاوه بر این، تجزیه و تحلیل معنایی رسانه های اجتماعی ممکن است بینشی در مورد رفتار بازار ارائه دهد که بر بازار سهام تأثیر می گذارد. با این حال، تحلیل معنایی در حال حاضر کمی خارج از محدوده پروژه است. | از چه الگوریتم یادگیری ماشینی می توان برای پیش بینی بازار سهام استفاده کرد؟ |
95746 | اجازه دهید تعداد طوفان های زمستانی در یک سال معین را به عنوان یک متغیر تصادفی پواسون مدل کنیم. فرض کنید در یک سال خوب میانگین تعداد طوفان ها 3 و در یک سال بد میانگین 5 است. اگر سال آینده با احتمال 40% خوب و با احتمال 60% بد باشد، تعداد مورد انتظار طوفان های زمستانی بعدی را بیابید. سال E[X] = 5*.6 + 3*.4 = 4.2 <\-- پاسخ صحیح بعد، واریانس تعداد طوفان های زمستانی سال آینده را بیابید. من می دانم که Var[X] = E[X^2] - E[X}^2 بنابراین وقتی این را محاسبه کردم به دست آوردم: E[X^2] = 5^2(0.6) + 3^2(0.4 ) = 18.6 و E[X]^2 = 4.2^2 = 17.64 بنابراین Var[X] = 18.6 -17.64 = .96. با این حال، این پاسخ صحیح نیست. هیچ ایده ای در مورد اینکه کجا دارم اشتباه می کنم؟ | متغیر تصادفی پواسون - واریانس |
93540 | به نظر می رسد این یک مسئله اساسی است، اما من تازه متوجه شدم که در واقع نمی دانم چگونه برابری ضرایب را از دو رگرسیون مختلف آزمایش کنم. آیا کسی می تواند این موضوع را روشن کند؟ به طور رسمیتر، فرض کنید من دو رگرسیون زیر را اجرا کردم: $y_1 = X_1\beta_1 + \epsilon_1$ و $y_2 = X_2\beta_2 + \epsilon_2$، که در آن $X_i$ به ماتریس طراحی رگرسیون $i$ و $ اشاره دارد. \beta_i$ به بردار ضرایب در رگرسیون $i$. توجه داشته باشید که $X_1$ و $X_2$ به طور بالقوه بسیار متفاوت هستند، با ابعاد مختلف و غیره. برای مثال، من علاقه مندم که آیا $\hat\beta_{11} \neq \hat\beta_{21}$ یا نه. اگر اینها از همان قهقرایی می آمدند، این بی اهمیت بود. اما از آنجایی که آنها از افراد مختلف می آیند، من کاملاً مطمئن نیستم که چگونه این کار را انجام دهم. آیا کسی ایده ای دارد یا می تواند به من نکاتی بدهد؟ مشکل من در جزئیات: اولین شهود من این بود که به فواصل اطمینان نگاه کنم، و اگر آنها با هم همپوشانی داشته باشند، میتوانم بگویم که اساساً یکسان هستند. اگرچه این روش با اندازه صحیح آزمون همراه نیست (یعنی هر بازه اطمینان فردی مثلاً 0.05$\alpha=$ دارد، اما اگر به طور مشترک به آنها نگاه کنیم احتمال یکسانی نخواهد داشت). شهود دوم من انجام یک آزمون t معمولی بود. یعنی $\frac{\beta_{11}-\beta_{21}}{sd(\beta_{11})}$ را در نظر بگیرید، که در آن $\beta_{21}$ به عنوان مقدار فرضیه صفر من در نظر گرفته میشود. اگرچه این عدم قطعیت تخمینی $\beta_{21}$ را در نظر نمیگیرد و پاسخ ممکن است به ترتیب رگرسیونها (که من آن را 1 و 2 مینامم) بستگی داشته باشد. فکر سومین من این بود که آن را مانند یک آزمون استاندارد برای برابری دو ضریب از یک رگرسیون انجام دهم، یعنی گرفتن $\frac{\beta_{11}-\beta_{21}}{sd(\beta_{11 }-\beta_{21})}$. این عارضه به دلیل این واقعیت است که هر دو از رگرسیون های مختلف ناشی می شوند. توجه داشته باشید که $Var(\beta_{11}-\beta_{21}) = Var(\beta_{11}) + Var(\beta_{21}) -2 Cov(\beta_{11},\beta_{21} )$، اما از آنجایی که آنها از رگرسیون های مختلف هستند، چگونه می توانم $Cov(\beta_{11},\beta_{21})$ را دریافت کنم؟ این باعث شد من این سوال را اینجا بپرسم. این باید یک روش استاندارد / تست استاندارد باشد، اما من چیزی پیدا نکردم که به اندازه کافی مشابه این مشکل باشد. بنابراین، اگر کسی بتواند من را به روش صحیح راهنمایی کند، بسیار سپاسگزار خواهم بود! | آزمون برابری ضرایب از دو رگرسیون مختلف |
79415 | من یک کلاس آمار مقدماتی را گذراندهام و در حال اتمام یک کلاس اقتصاد سنجی هستم، اما این کلاسها بیشتر در مورد برنامهها و فقط استفاده از فرمولها بدون هیچ توضیحی در مورد چگونگی به وجود آمدن این فرمولها هستند. من به دنبال یک کتاب درسی یا کتاب خوب و کامل در مورد تئوری آماری و احتمالات هستم که در آن نویسنده ابتدا، نظریه، شهود پشت این فرمول ها را توضیح دهد. نه فقط شواهد، بلکه دقیقاً چگونه این فرمول ها متولد شدند. یعنی: فرمول محاسبه واریانس چگونه به وجود آمد؟ این فرمول چگونه به دست آمد؟ دقیقاً و به طور شهودی درجات آزادی چیست و این مفهوم چگونه به وجود آمد؟ توزیع احتمال از کجا بوجود آمد؟ این همه فرمول های آماری در وهله اول چگونه اندیشیده شدند؟ اینها تنها تعدادی از سوالات بسیار هستند. پس زمینه ریاضی من شامل: کالک چند متغیره، جبر خطی، آمار مقدماتی، ریاضیات گسسته است. | کتاب خوبی برای تئوری آمار و احتمالات |
78258 | من یک خروجی از یک مدل شبیه سازی نسبتا پیچیده (Pred) دارم که سعی در پیش بینی برخی مشاهدات (Obs) دارد. من بیان می کنم که نسبتاً پیچیده است زیرا شبیه سازی را نمی توان در سؤالات بعدی من استفاده کرد. من فقط خروجی این مدل (Pred) و برخی مشاهدات را دارم که مدل سعی در پیش بینی آنها دارد. این همه، فقط دو ستون از اعداد برای مقایسه به روش های مختلف است. آنها هر دو متغیرهای پیوسته هستند و بین 0 و 1 محدود می شوند. شبیه سازی ایده آل دارای Pred=Obs خواهد بود (بنابراین یک رگرسیون ساده از این دو برازش کامل و Obs = 0 + 1*Pred را نشان می دهد). من قبلاً همبستگیهای پیرسون را بین Pred و Obs محاسبه کردهام و آنها را با همبستگی صفر=0 آزمایش کردم. من همچنین ریشه میانگین انحراف مربع و میانگین انحراف مطلق را محاسبه کردهام و اینها را با توزیعهای صفر که در آن Pred تصادفی است مقایسه کردهام. یک فرد ارشدتر در گروه من فکر می کند که ما باید رگرسیون خطی ساده ای را که قبلاً توضیح دادم نیز انجام دهیم. من فرض میکنم سپس به 95% CI در اطراف ضریب شیب و ضریب تک شیب نگاه میکنیم تا مشخص کنیم که آیا فواصل به ترتیب حاوی 0 و 1 هستند یا خیر. با این حال، این «خواستن» یک مقدار p بالا است (من 0.5 را برای یک تست 2 دنباله فرض می کنم)، و من مطمئن نیستم که آیا راه بهتری برای نزدیک شدن به این موضوع وجود دارد یا خیر. توصیه ای در این مورد دارید؟ نمی توانم فکر کنم راهی برای نزدیک شدن به این موضوع وجود دارد که در آن مقدار p پایین تر از نظر توانایی پیش بینی مدل مطلوب تر باشد. با تشکر، همه گوش. | آزمایش اگر intercept=0 و ضریب شیب=1 باشد |
60678 | آیا می توان داده ها را باین کرد، میانگین بن ها را محاسبه کرد و سپس ضریب همبستگی پیرسون را بر اساس این میانگین ها استخراج کرد؟ به نظر من تا حدودی یک روش ساده به نظر می رسد که (اگر داده ها را به عنوان یک نمونه جمعیت در نظر بگیرید) پراکندگی این میانگین ها خطای استاندارد میانگین خواهد بود و بنابراین اگر $n$ بزرگ باشد بسیار تنگ خواهد بود. بنابراین احتمالاً ضریب همبستگی بسیار بهتری نسبت به داده های اولیه دریافت خواهید کرد و این اشتباه به نظر می رسد. از سوی دیگر، مردم اغلب اندازهگیریهای تکراری را قبل از محاسبه همبستگی متوسط میکنند که خیلی متفاوت نیست. | آیا داده های binning قبل از همبستگی پیرسون معتبر است؟ |
109501 | من سعی می کنم یک مشکل خوشه بندی را شروع کنم. دادههای نمونه، حجم معاملات در یک قیمت خاص است. برخی نکات در مورد داده ها: * تعداد سطل ها از نمونه ای به نمونه دیگر متفاوت است (محدوده قیمت بزرگتر در نمونه) * حجم ها متفاوت است (روزهای با حجم زیاد در مقابل کم) * محدوده شاخص ها از نمونه ای به نمونه دیگر متفاوت است (بازار در مکان های مختلف در مکان های مختلف زمان) با این گفته، میخواهم بتوانم چند خوشه شکل کلی هیستوگرامها را پیدا کنم (بلند/لاغر، کوتاه/گشاد، کج به سمت بالا/پایین، دو قوز و غیره). آیا کسی می تواند به من نکاتی را در مورد چگونگی آماده سازی داده ها و اینکه چه الگوریتم هایی ممکن است به ویژه برای این نوع تجزیه و تحلیل مناسب باشد به من بدهد؟ چند نمونه از دادهها در اینجا آمده است: در [111]: نمایهها[100] خارج[111]: 0 1235.75 802 1236.00 802 1236.25 802 1236.50 802 1236.75 337.75 34101010234101 7452 1237.50 8324 1237.75 8607 1238.00 8607 1238.25 11294 1238.50 11190 1238.75 9178 1239.00 1239.00 8691. 1239.50 11036 1239.75 10909 1240.00 9597 1240.25 7295 1240.50 7295 1240.75 7594 1241.00 1241.00 5018518 1241. 3766 1241.75 2875 1242.00 2476 1242.25 2111 1242.50 893 1242.75 893 1243.00 893 ... ... 1269.00 1269.00 226925 298925 27170 1269.75 21205 1270.00 19460 1270.25 20509 1270.50 19763 1270.75 20707 1271.00 21122 122748 12714. 1271.75 24899 1272.00 23027 1272.25 24805 1272.50 27185 1272.75 29477 1273.00 26555 1273.25 2673.25 1273.25 2676. 1273.75 20654 1274.00 17710 1274.25 17224 1274.50 15067 1274.75 11654 1275.00 9127 1275.21 27957275.212 7965. 5765 1276.00 3924 1276.25 1358 [163 ردیف x 1 ستون] در [115]: پروفایل[203] خارج[115]: 0 1256.25 2709 1256.50 27087515125. 4887 1257.25 7341 1257.50 7341 1257.75 10523 1258.00 9471 1258.25 10787 1258.50 9989 1258.715 8939 1258.715 893 1259.25 6594 1259.50 3219 1259.75 2483 1260.00 1903 1260.25 1118 1260.50 2861 1260.75 2861 1260.00 1260.25 1261. 1261.50 6833 1261.75 8940 1262.00 10070 1262.25 7573 1262.50 8746 1262.75 7811 1263.00 1263.00 457251269 1262. 10623 ... ... 1270.25 21425 1270.50 20549 1270.75 19323 1271.00 23254 1271.25 28894 1271.50 29647 1270.75 1271. 31662 1272.25 29758 1272.50 30038 1272.75 35955 1273.00 39926 1273.25 36257 1273.50 42088 1273.00 1273.25 1273.50 12088 127474. 1274.25 20096 1274.50 15772 1274.75 15252 1275.00 11450 1275.25 17206 1275.50 15412 1275.705 2176 1275.705 2176. 1276.25 14408 1276.50 12383 1276.75 4440 1277.00 3524 1277.25 1159 1277.50 1159 [86 ردیف x 1 ستون] | خوشه بندی برای اشکال هیستوگرام |
63096 | من یک سری نقاط داده در این فرم (مهر زمانی، لات، طولانی) برای مجموعه ای از کاربران دارم. هر کاربر زمانی که از نقطه A به نقطه B میرود یک مسیر دارد. ممکن است تعداد نقاطی از A تا B وجود داشته باشد. آنها بر اساس مهر زمانی مرتب شدهاند. من می خواهم آنها را به عنوان یک بردار برای انجام کارهای تحلیلی مختلف تبدیل کنم. یک فکری که دارم این است که به چرخش ها نگاه کنم و آنها را به عنوان یک بعد بسازم. من می خواهم رویکردهای بیشتری بدانم. آنچه من می خواهم یک بردار است که کل مسیر را نشان می دهد، آن را مانند یک نقطه برای یک مسیر در نظر بگیرید. در حال حاضر من مجموعه ای از نقاط سه بعدی دارم. من می خواهم جستجوی شباهت مسیر را انجام دهم. اگر دو مسیر وجود داشته باشد که در زمان نزدیک به هم حرکت می کنند، آنها مشابه هستند. به این فکر کنید که ساعت 9 صبح از خانه به محل کار می روید. شخص دیگری در ساعت 9:10 صبح نیز برای کار در خانه خود است و کمی از شما فاصله می گیرد. از آنجایی که شما محل کار یکسانی دارید، به احتمال زیاد مسیر یکسانی خواهید داشت. چیزی شبیه یک طبقه بندی که بر روی یک مسیر ساخته شده است. من می توانم تشخیص فعالیت را در یک مسیر انجام دهم، همچنین می توانم تجزیه و تحلیل مقصد مبدا را انجام دهم. | چگونه یک مسیر را به یک بردار ترسیم کنیم؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.