_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
92963
دو تا سوال دارم 1) اگر $X_1,X_2,X_3,...,X_n$ یک نمونه تصادفی با اندازه $n$ از یک توزیع نمایی را تشکیل می دهند، نشان دهید که $\bar X$ برآوردگر ثابت پارامتر $\lambda$ است. این تلاش من است: میانگین توزیع نمایی $\lambda^{-1}$ است. بنابراین با قضیه حد مرکزی $E(\bar X)=\lambda^{-1}$. با استفاده از همسانی مربعی متوسط، اگر $\lim_{n\to \infty} E[(\bar X -\lambda )^2]=0$، $\bar X $ برای $\lambda$ سازگار است. از آنجایی که $$ E[(\bar X -\lambda )^2]= E[(\bar X)^2]+E(\lambda)^2-2\lambda E(\bar X)، $$ دریافت می کنم $$ \lim_{n\to \infty} E[(\bar X -\lambda )^2] = \lim_{n\to \infty} {2 \over \lambda ^2 }+\lambda^2-2 . $$ واضح است که این برابر با $0 نیست. چگونه می توانم نشان دهم که این سازگار است؟ من سعی کردم از نابرابری Chebechev نیز استفاده کنم. اما حتی با استفاده از آن هم نتوانستم. 2) آیا $X_{(n)}$ یک تخمینگر ثابت برای $\lambda$ است؟ اگر $P[|X_{(n)}-\lambda|<\epsilon]$ به $1$ نزدیک شود، زیرا $n$ برای همه $\epsilon > 0$ به بی نهایت می‌رود، آنگاه $X_n$ یک تخمین‌گر ثابت برای $\lambda است. $. تابع چگالی احتمال $X_{(n)}$ است $f_n(x) = n \lambda e^{-\lambda x}(1-e^{-\lambda x})^{n-1}$ ، برای $X>0$. بنابراین \begin{align*} P[|X_{(n)}-\lambda|<\epsilon] &= P[\lambda -\epsilon<X_{n}<\lambda+\epsilon] \\ &=P[ 0<X_{n}<\lambda+\epsilon] \\ &=\int_0^{\lambda+\epsilon} n \lambda e^{-\lambda x}(1-e^{-\lambda x})^{n-1}\\ &= (1-e^{- \lambda X_{(n)} })، \end{align*} جایی که $ X{(n)}$ مقادیر $[0 , \lambda+ \epsilon]$ را می گیرد. بنابراین، آیا می توانم $\lim_{n\to \infty}[1-e^{-\lambda(\lambda+\epsilon)}]^n=1$ را بگویم؟
سازگاری یک آمار نظم در توزیع نمایی
114725
اگر به استفاده از پارامترهای مدل GLM برای پیش‌بینی هر چیزی اهمیتی نمی‌دهید، بلکه می‌خواهید بهترین مدل را برای داده‌های خود انتخاب کنید، آیا لازم است وارد بحث نظری شوید که از کدام تابع پیوند استفاده کنید؟ آیا درست است که به سادگی تابع پیوندی را انتخاب کنید که کمترین انحراف را به شما می دهد؟ به طور خاص، من یک GLMM معمولی را اجرا می‌کنم، و دریافته‌ام که عملکرد پیوند لجستیک در برنامه نرم‌افزاری به نام SuperMix بهترین تناسب را با داده‌های من دارد.
انتخاب یک تابع پیوند برای GLM
52911
اساساً، من مقداری داده کمکی X و یک متغیر وابسته Y دارم که از نسبت های نمونه ای تشکیل شده است که پاسخ خاصی را نشان می دهد (یعنی بین 0 و 1). من گمان می کنم که می خواهم از طریق یک رویکرد GLM ادامه دهم، اما مسئله این است که اندازه هر یک از آن نمونه ها را نمی دانم! فکر من این است که با یک روش شبه دوجمله‌ای، پارامتر پراکندگی را تخمین بزنم. با فرض اینکه اندازه‌های هر نمونه خیلی متفاوت نیست، بنابراین می‌توانم پیوند لاجیت بین پیش‌بینی‌کننده خطی و نسبت را حفظ کنم، اما سهم «n» در واریانس دوجمله‌ای معمول «np(1-p)» را نادیده بگیرم. سپس می توانم آزمون فرضیه را به روش معمول انجام دهم؟ آیا این معنی دارد؟ برخی از کدهای R: #شبیه سازی برخی داده ها X = rnorm(500) Z = rnorm(500) p = exp(X*0.1 + 2)/(1+exp(X*0.1 + 2)) n = 50 Y = NULL برای (i در 1:طول (X)){ Y = c(Y، جمع(runif(n) < p[i])/n) } Y2 = cbind(Y*n، n-Y*n) #glm، مدل دوجمله ای درست است؟ خلاصه (glm(Y~X+Z، خانواده = شبه دوجمله ای)) خلاصه (glm(Y2~X+Z، خانواده = دوجمله ای)) anova(glm(Y~X+Z، خانواده = شبه باینومیال) , test = Chisq) anova(glm(Y2~X+Z، خانواده = دو جمله ای)، test= Chisq) به نظر می رسد کار می کند، اما آیا من هستم از دست دادن چیزی؟ مطمئناً کسی قبلاً چنین کاری انجام داده است؟
GLM دو جمله ای با مجموع مجهول؟
24978
از پاسخی که در سوال قبلی داده شد، من به دنبال دنباله هالتون هدایت شدم، برای ایجاد مجموعه ای از بردارها که فضای نمونه یکنواخت را به طور نسبتاً یکنواخت پوشش می دهند. اما صفحه ویکی‌پدیا اشاره می‌کند که اعداد اول به‌ویژه در اوایل این سری معمولاً همبستگی بالایی دارند. به نظر می رسد این مورد برای هر جفت اعداد اول بالا با اندازه نمونه نسبتاً کوتاه باشد - و حتی زمانی که متغیرها همبستگی ندارند، فضای نمونه به طور یکنواخت نمونه برداری نمی شود، بلکه نوارهای مورب با چگالی نمونه بالا در سراسر فضا وجود دارد. . از آنجایی که من از بردارهایی با طول 6 یا بیشتر استفاده می‌کنم، ناگزیر باید از اعداد اولی استفاده کنم که برای آنها مشکل ایجاد می‌شود (البته نه به بدی مثال بالا)، و برخی از جفت‌های متغیر به صورت غیریکنواخت در نمونه‌برداری می‌شوند. هواپیمای نمونه آنها استفاده از دنباله Sobol برای تولید مجموعه ای مشابه به نظر من (فقط با نگاه کردن به نمودارها) برای تولید نمونه هایی بین جفت متغیرهایی است که به طور مساوی تری توزیع شده اند، حتی برای تعداد نسبتاً کمی از نمونه ها. این بسیار مفیدتر به نظر می رسد، و بنابراین من نمی دانم چه زمانی دنباله هالتون سودمندتر خواهد بود؟ یا اینکه محاسبه دنباله هالتون راحت تر است؟ توجه: بحث در مورد دیگر توالی های چند بعدی کم اختلاف نیز مورد استقبال قرار می گیرد.
سکانس هالتون در مقابل سکانس سوبول؟
92967
من می خواهم $Y$ را با استفاده از متغیرهای مستقل مختلف تخمین بزنم. $$Y = d_1 + aX_1\\ Y= d_2 + bX_2\\ Y= d_3 + cX_3$$ سپس می‌خواهم 3 معادله بالا را طوری ترکیب کنم که رابطه زیر را به دست بیاورم: $$Y = d + a_1X_1 + b_1X_2 + c_1X_3 $$ چگونه می توانم از 3 معادله رگرسیون بالا برای به دست آوردن یک رابطه واحد مانند بالا استفاده کنم؟
معادلات رگرسیون چندگانه را با هم ترکیب کنید
92960
آیا راهی برای استفاده از api مدل خطی برای اضافه کردن جریمه lasso برای زیرمجموعه‌ای از پارامترهایی که من رگرسیون می‌کنم وجود دارد؟ به عنوان مثال، یک تجزیه خطی قابل جداسازی را در نظر بگیرید که می‌خواهم آن را به برخی از داده‌های پراکنده و با محدودیت‌های هموار در یکی از ابعاد (قابل تفکیک) منطبق کنم. این سوال نشان می دهد که این امر تا حدودی از طریق glm R امکان پذیر است. آیا مدلی از نوع LASSO وجود دارد که در آن فقط برخی از رگرسیورها تنظیم شده باشند؟ البته، روش DIY خیلی سخت نخواهد بود. سوال این است که آیا از طریق Sicit Learn api امکان پذیر است یا خیر.
scikit Learn: پنالتی کمند یا رج را فقط روی زیر مجموعه پارامترها اضافه کنید
60862
می‌خواهم **تاخیر** بسته‌های متعلق به نوعی ترافیک را با تأخیر بسته‌های مربوط به ترافیک دیگر (متفاوت و بزرگ‌تر) مقایسه کنم که همگی از یک ماشین تولید می‌شوند. می خواهم ببینم **توزیع**های دو گروه تاخیر **یکسان است**؟ نمونه‌های گروه اول بین **اندازه 20** تا **2000** (بیشتر اوقات بین 20 تا 75) هستند، در حالی که گروه مقایسه همیشه در حد **چند هزار** است ( تا 15000). هنگامی که گروه اول **بیش از 250** مقدار دارد، من فقط (به طور تصادفی) از آن در گروه های کوچکتر با اندازه 50 ** نمونه فرعی** می کنم، زیرا متوجه شدم که برای رد نمونه های بزرگ با Kolmogorov- واقعاً چیزی لازم نیست. اسمیرنوف. اگر **اکثریت** زیرنمونه ها توسط آزمون پذیرفته شوند، نمونه اصلی نیز قبول می شود. اکنون، به دلیل دقت مهر زمانی، تاخیرهای تکراری زیادی در مشاهدات من وجود دارد. به عنوان مثال، از **15000** تأخیر در گروه دوم من، **فقط 1000 مقدار منحصر به فرد** دارم، با میانگین 0.7 میلی ثانیه و انحراف استاندارد حدود 7 میلی ثانیه. 200 مقدار تا 10 بار ظاهر می شود. 90 مقدار بین 11 و 100; 30 بین 101 تا 300; 4 بین 301 و 500. برای **انتخاب تست ناپارامتریک** که به بهترین وجه مناسب مورد من است، چه چیزی را باید در نظر بگیرم؟ همچنین، آیا نمونه گیری فرعی من درست است؟ من از سطح معنی‌داری 0.01 استفاده کرده‌ام، اما **20% از مثبت‌های کاذب** را دریافت می‌کنم، که تقریباً نیمی بزرگ‌تر، نیمی کوچک‌تر از گروه دوم است (پس از آزمایش دو طرفه، همیشه از دو تا یک طرفه فقط برای بررسی). هر ایده ای؟
انتخاب روش ناپارامتریک
25623
من چند سوال در مورد رگرسیون بقای کاکس دارم: 1) آیا درست است که تابع خطر h(t) در دسترس نیست (حتی بدون متغیرهای کمکی وابسته به زمان) - و اگر نه، به این دلیل است که خطر خط پایه تعریف نشده است (فقط خطر تجمعی است و شما نمی توانید از خطر تجمعی به خطر بروید)؟ 2) وقتی متغیرهای کمکی وابسته به زمان دارید، آیا نمی توان منحنی بقا را برای مجموعه ای از مقادیر متغیر کمکی تخمین زد (من می خواهم مقادیر اولیه را رسم کنم)؟ کسی میتونه توضیح بده که چرا نه؟
رگرسیون کاکس - تخمین خطر و بقا؟
22530
من حدود 3 ساعت اطلاعات شتاب سنج، ژیروسکوپ و قطب نما 3 محوره دارم که در بازه های زمانی کمتر از ثانیه گرفته شده است. من کاملاً آگاه هستم که این داده ها باید فیلتر شوند و روش های زیادی برای فیلتر کردن آن وجود دارد (FFT، ARMA، و همکاران). چگونه می توانم از روی داده های خود یا نمودار آنها بفهمم که بهترین فیلتر برای استفاده کدام است؟ به عنوان مثال، اگر من 3 ساعت دویدن در خیابان داشته باشم و می خواهم طول قدم دویدن را دنبال کنم. من فکر می کنم که ژیروسکوپ را برای بدست آوردن جهت مطلق و سپس داده های شتاب سنج خام را برای بدست آوردن فاصله دوبار ادغام کنم. در نهایت، نتیجه این را بر تعداد فرورفتگی‌های موجود در spline که نقاط را در بر می‌گیرد، تقسیم کنید (زیرا آنها عمدتاً شتاب رو به پایین را نشان می‌دهند). آیا این رویکرد صحیح است؟ با تشکر فراوان ![](http://analysis.d8u.us/~hdiwan/accelAndGyro.png)
چگونه تشخیص دهیم که داده ها به خوبی فیلتر شده اند؟
65306
من سعی می کنم مقادیر رگرسیون را در LIBSVM پیش بینی کنم. داده های من در سری زمانی است. من از فایل gridregression.m در LIBSVM برای یافتن پارامترهای بهینه c، g و p استفاده می کنم. فایل Gridregression.m از اعتبارسنجی متقاطع برای یافتن پارامترهای بهینه استفاده می کند، اما آیا استفاده از اعتبارسنجی متقاطع در سری های زمانی خوب است؟ وقتی از پارامترهای gridregression.m استفاده می کنم، گاهی اوقات MSE بهتر از مقادیر پیش فرض نیست. (cmd= '-s 3 -t 2' گاهی اوقات بهتر است)
جستجوی پارامتر LIBSVM در سری های زمانی
114724
اجازه دهید $\hat{\Gamma}_k$ ماتریس اتوکوواریانس نمونه بعدی k باشد. من سعی می کنم ثابت کنم که این قطعی غیر منفی است. اولین قدم در اثبات این است که نشان دهیم اگر $\hat{\Gamma}_m$ غیر منفی قطعی است، پس $\hat{\Gamma}_k$ برای همه $k<m$ غیر منفی قطعی است. چگونه این را ثابت کنم؟ پیشاپیش بسیار متشکرم (تا کنون می توانم آن را برای موارد بی اهمیت مانند m=2 تأیید کنم، اما برای m عمومی نه.)
اتوکوواریانس نمونه غیر قطعی منفی
100488
سلام بچه ها من در حال انتخاب مدل هستم و برای محاسبه این پیوند باید هم ماتریس اطلاعات فیشر مشاهده شده و هم مورد انتظار را تخمین بزنم. چگونه عدد مورد انتظار را برآورد می کنید؟
راه آسان برای تخمین ماتریس اطلاعات فیشر مورد انتظار برای یک مدل عملکردی مشخص چیست؟
25621
در اکولوژی، ما اغلب از معادله رشد لجستیک استفاده می کنیم: $$ N_t = \frac{ K N_0 e^{rt} }{K + N_0 e^{rt-1}} $$ یا $$ N_t = \frac{ K N_0 }{N_0 + (K -N_0)e^{-rt}} $$ که در آن $K$ ظرفیت حمل است (حداکثر چگالی رسیده)، $N_0$ اولیه است تراکم، $r$ نرخ رشد است، $t$ زمان از زمان اولیه است. مقدار $N_t$ دارای یک کران نرم بالا $(K)$ و یک کران پایین $(N_0)$ با کران پایین قوی در $0$ است. علاوه بر این، در زمینه خاص من، اندازه‌گیری‌های $N_t$ با استفاده از چگالی نوری یا فلورسانس انجام می‌شود، که هر دو دارای یک ماکزیمم نظری و بنابراین یک کران بالایی قوی هستند. بنابراین، خطای حدود $N_t$ احتمالاً با یک توزیع محدود توصیف می شود. در مقادیر کوچک $N_t$، توزیع احتمالا دارای یک انحراف مثبت قوی است، در حالی که در مقادیر $N_t$ نزدیک به K، توزیع احتمالا دارای یک انحراف منفی قوی است. بنابراین توزیع احتمالا دارای یک پارامتر شکل است که می تواند به $N_t$ پیوند داده شود. واریانس ممکن است با $N_t$ نیز افزایش یابد. این یک مثال گرافیکی است ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/EpTp9.jpg) با K<-0.8 r<-1 N0<-0.01 t<-1:10 max< -1 که می تواند در r با کتابخانه (devtools) تولید شود source_url(https://raw.github.com/edielivon/Useful-R-functions/master/Growth%20curves/example%20plot.R) * توزیع خطای نظری در حدود $N_t$ چگونه خواهد بود (با توجه به هم مدل و هم اطلاعات تجربی ارائه شده)؟ * چگونه پارامترهای این توزیع به مقدار $N_t$ یا زمان مربوط می شود (اگر با استفاده از پارامترها حالت را نمی توان مستقیماً با $N_t$ مرتبط کرد، به عنوان مثال، logis normal)؟ * آیا این توزیع تابع چگالی دارد که در $R$ پیاده سازی شده است؟ مسیرهای بررسی شده تا کنون: * با فرض نرمال بودن در حدود $N_t$ (منجر به تخمین بیش از $K$ می شود) * توزیع نرمال را در حدود $N_t/max$ محاسبه کنید، اما مشکل در برازش پارامترهای شکل آلفا و بتا * توزیع نرمال حول منطق $ N_t/max$
توزیع خطا حول داده های رشد لجستیک چگونه است؟
24972
من آزمایشی انجام دادم و نکاتی را که در زیر با رنگ مشکی نشان داده شده است به دست آوردم. من می خواهم منحنی یا فیت (چیزی شبیه منحنی قرمز) را برای شناسایی آرنج صاف کنم. مشکل این است که آزمایش بسیار گران است و مقدار زیادی واریانس در نقاط به دست آمده وجود دارد. من سعی کردم یک چند جمله ای درجه دوم و یک منحنی نمایی را بدون موفقیت برازش کنم (منحنی خیلی صاف است و آرنج از دست رفته است). دقت کامل لازم نیست. **بهترین راه برای قرار دادن منحنی به منظور شناسایی آرنج چیست؟**![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/gOtGQ.png)
چگونه می توان یک منحنی صاف را برای تقلید از آرنج به داده ها منطبق کرد؟
113599
من داده‌های آزمایشی زیر را دارم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/NgRMv.png) چگونه می‌توانم باور را با قبل مرتبط کنم تا تعیین کنم که آیا باور را تحت تأثیر قرار می‌دهد یا نه بعد؟ وقتی باورها روی 1 تنظیم شود، «بعد» (به طور تصادفی) بیشتر از زمانی است که روی 0 تنظیم شود.
اکسل همبستگی اسمی و کمی
113596
من می خواهم Permanova را روی داده های طبقه بندی شده اجرا کنم (به عنوان مثال ساختار CSV در زیر آمده است) بدون هیچ موفقیتی. آیا آدونیس می تواند داده های طبقه بندی شده را مدیریت کند، یک اسکریپت نمونه عالی خواهد بود. خیلی ممنون من این فایل CSV را دارم: گونه، جنس، سن، مکان، حساسیت A، M، 1،1،1 A، M، 1،1،1 A، M، 2،2،2 A، M، 2,2,2 A,F,1,1,1 A,F,1,1,1 A,F,1,1,1 A,F,2,2,2 A,F,2,2,2 A,F,2,2,2 B,M,1,2,2 B,M,1,2,2 B,M,1,2,2 B,M,2,2,1 B,F,2 ,1,1 B,F,2,1,1 B,F,2,1,2 B,F,2,2,2 B,F,1,2,2 B,F,1,2,2 C ,M,1,2,2 C,M,2,2,1 C,M,2,2,1 C,M,2,2,1 C,F,2,2,2 C,F,1,1,2 C,F,1,1,2 C,F,2 ,2,2 C,F,2,2,1 C,F,2,2,1
آدونیس در مورد داده های طبقه بندی شده
96043
من سه متغیر تصادفی دارم، $X، Y، Z$. من می دانم که $$\log X - \log Y - \log Z = \log \frac{X}{YZ} \sim \mathcal{N}(0, \sigma^2)$$ چگونه می توانم توزیع را بازیابی کنم از $\frac{X}{YZ}$؟ آیا به اندازه $e^{\mathcal{N}(0, \sigma^2)}$ ساده است؟
اگر log X - log Y - log Z به طور معمول توزیع می شود، پس X / (Y * Z) چگونه توزیع می شود؟
114721
فرض کنید من سه موتور جستجو دارم، به عنوان مثال. موتور جستجوی A، موتور جستجوی B و موتور جستجوی C. به هر موتور جستجو مجموعه‌ای از پرسش‌های Q داده می‌شود (به عنوان مثال سیب، موز، هویج...)، این مجموعه Q برای هر موتور یکسان باقی می‌ماند. سپس هر موتور مجموعه ای از نتایج را برای هر پرس و جو به شکل SERP (صفحه نتایج موتور جستجو) ارائه می دهد. این بدان معناست که برای هر پرس و جو (q) ما سه صفحه نتایج موتور جستجو (SERPs) داریم. ما 4 کاربر را به عنوان مثال استخدام کرده‌ایم، و به هر کاربر مجموعه‌های متعددی از پرس‌و‌جوها و SERP‌های جفت شده آنها داده می‌شود، و از آنها خواسته می‌شود که هر SERP را برای یک پرس‌وجو رتبه‌بندی کند، همه پرس‌و‌جوها را از نظر ارتباط در مقیاس 1-4 (1 نیست). مرتبط، 4 بسیار مرتبط است). بنابراین کاربر یک می بیند و بر اساس آن رتبه بندی می کند: پرس و جو 1 (سیب)، SERP A (ارتباط 1)، SERP B (ارتباط 1)، SERP C (ارتباط 4) کوئری 2 (موز)، SERP A (ارتباط 2)، SERP B (ارتباط 2)، SERP C (ارتباط 4) پرس و جو 3 (هویج)، SERP A (ارتباط 3)، SERP B (ارتباط 2)، SERP C (ارتباط 3) کاربر دو به صورت زیر می بیند و رتبه بندی می کند: query 1 (apple)، SERP A (ارتباط 1)، SERP B (ارتباط 2)، SERP C (ارتباط 3) query 2( موز)، SERP A (ارتباط 1)، SERP B (ارتباط 2)، SERP C (ارتباط 4) پرس و جو 3 (هویج)، SERP A (ارتباط 3)، SERP B (ارتباط 2)، SERP C (ارتباط 3) کاربر سه به صورت زیر می بیند و رتبه بندی می کند: query 1 (apple)، SERP A (ارتباط 1)، SERP B( ارتباط 2)، SERP C (ارتباط 3) پرس و جو 2 (موز)، SERP A (ارتباط 2)، SERP B (ارتباط 2)، SERP C (ارتباط 3) پرس و جو 3 (هویج)، SERP A (ارتباط 3)، SERP B (ارتباط 3)، SERP C (ارتباط 4) من می خواستم بدانم آیا معیاری وجود دارد که بتوانم از آن برای گفتن استفاده کنم موتور جستجو مرتبط ترین نتایج جستجو را در مجموعه ای از پرس و جوها بر اساس امتیازاتی که کاربران داده اند تولید کرد. آیا مجذور کای یا تحلیل واریانس (ANOVA) مناسب است؟ در یک نگاه سریع، اگر این تست تقسیم A/B بود، حدس می‌زنم که می‌توانم بگویم نتایج تولید شده توسط موتور جستجوی C نتایج بهتری نسبت به A یا B ارائه می‌دهند، در حالی که B بهتر از A ارائه می‌دهد. برای تست به طور رسمی این را یادداشت کنم؟
تست تقسیم/سطل A/B با سه نوع یا بیشتر
114723
من تعجب می کنم که کدام ترکیب از مدل های ساده را می توان با روش های مختلف برداری جفت کرد تا منطقی باشد. بیایید بگوییم که یک کار ساده باینری طبقه بندی هرزنامه داریم. ### مدل چند جمله ای: اگر درست متوجه شده باشم، از مدل چند جمله ای برای محاسبه احتمالات شرطی کلاس بر اساس اصطلاح فرکانس ها استفاده می شود. فرض کنید متن ورودی ما فقط از 1 کلمه برای سادگی تشکیل شده است. بنابراین، احتمال (یا احتمال) شرطی کلاس به صورت زیر محاسبه می شود: \begin{equation} \hat{P}(x_i \mid \omega_j) = \frac{tf_{xi, y} + \alpha}{tf_y + \alpha \cdot V} \end{معادله} * $tf_{xi، y}$ = فرکانس مدت. تعداد دفعاتی که کلمه $x_i$ در مجموعه داده آموزشی برای نمونه‌های کلاس $\omega_j$ رخ می‌دهد * $tf_y$ مجموع تمام فرکانس‌های اصطلاحی در مجموعه داده آموزشی برای کلاس $\omega_j$ * $\alpha$ صاف‌کننده افزودنی است. پارامتر ($\alpha = 1$ برای صاف کردن لاپلاس * $V$ اندازه واژگان ### چند متغیره برنولی است مدل (دوجمله‌ای): در اینجا، از فرکانس‌های سند به جای فرکانس‌های اصطلاحی استفاده می‌کنیم، زیرا توزیع از مقادیر باینری استفاده می‌کند: آیا یک کلمه در یک سند رخ می‌دهد یا نه؟ omega_j) = \frac{df_{xi, y} + 1}{df_y + 2} \end{معادله} * $df_{xi, y}$ تعداد اسناد موجود در مجموعه داده آموزشی است که حاوی $x_i$ و متعلق به کلاس $\omega_j$ * $df_y$ تعداد اسناد موجود در مجموعه داده آموزشی است که متعلق به کلاس $\omega_j$ * +1 و +2 پارامترها هستند. برای هموارسازی لاپلاس ## سوال بنابراین، سوال من این است که وقتی می‌خواهم مجموعه داده را برای هر یک از مدل‌ها آماده کنم، باید از کدام بردار استفاده کنم بسته scikit-learn در پایتون. از از sklearn.feature_extraction.text import TfidfVectorizer,CountVectorizer sklearn.naive_bayes import MultinomialNB از sklearn.naive_bayes import BernoulliNB از sklearn.pipeline import Pipeline وقتی به درستی بفهمم، تعداد بردارها و واژه های sofreque تولید می شود. این ترکیب به نظر می رسد برای من منطقی است: clf_1 = Pipeline ([ ('vectorizer', CountVetorizer(ngram_range=(1,2), stop_words=english)), ('classifier', MultinomialNB()), ]) اما از نظر از فرکانس های سند، آیا استفاده از CountVectorizer در ترکیب با مدل برنولی اشکالی ندارد؟ آیا این می تواند به طور خودکار فرکانس های صحیح سند را از نتایج شمارش بردارگر بازیابی کند؟ clf_2 = Pipeline([ ('vectorizer', CountVectorizer(stop_words=english)), ('classifier', BernoulliNB()), ]) و چگونه از بردار Tf-idf استفاده کنم؟ آیا این ترکیب منطقی است؟ clf_3 = Pipeline([ ('vectorizer', TfidfVetorizer(ngram_range=(1,2), stop_words=english)), ('classifier', MultinomialNB()), ]) من فرض می کنم که منطقی نیست از «TfidfVetorizer» با مدل برنولی استفاده کنید، درست است؟
بیز ساده و طبقه بندی متن: کدام مدل احتمال و ترکیب بردار منطقی است؟
105576
تقریب طبیعی چولگی به پواسون ($\lambda$) چیست؟ آیا من این کار را اشتباه انجام می دهم؟
تقریب نرمال انحرافی توزیع پواسون
113594
من 50000 شی دارم که روی آنها دو نوع رگرسیون مختلف انجام داده ام. با استفاده از اعتبارسنجی متقاطع، میانگین امتیاز R^2$ را از هر مدل در هر یک از اشیا به دست آوردم. بنابراین اکنون فهرستی از 50 هزار جفت میانگین امتیاز R^2$ دارم. من از یک تست زوجی Wilcoxon-Mann-Whitney U استفاده کردم و متوجه شدم که میانگین آنها به طور قابل توجهی متفاوت است: > wilcox.test(first$R.2, second$R.2, paired=TRUE) تست رتبه امضا شده Wilcoxon با داده های تصحیح تداوم: اول$R.2 و ​​دوم$R.2 V = 34503366، p-value < 2.2e-16 جایگزین فرضیه: تغییر مکان واقعی برابر 0 نیست آیا این رویکرد درستی است؟ به نظر من این تست درستی است زیرا $R^2$ در بالا با 1 محدود می شود اما در زیر محدود نمی شود بنابراین من واقعاً نمی توانم هیچ فرضی در مورد توزیع داشته باشم. چگونه می توانم این را در مقاله خود گزارش کنم؟ آیا فقط می گویم که من از تست Wilcoxon استفاده کردم و مقدار p کمتر از 2.2e-16 به دست آوردم؟ همچنین می‌خواستم میانگین و میانه $R^2$s را از هر یک از تکنیک‌ها نشان دهم. اما آیا باید فقط تخمین نقطه ای این مقادیر را نشان دهم یا باید SD و MAD یا SEM را نیز نشان دهم یا چه؟ آیا باید فواصل اطمینان را برای آنها بوت استرپ کنم و ببینم که آیا همپوشانی دارند یا خیر؟ هر کمکی قابل تقدیر است، با تشکر.
چگونه نشان دهیم که آیا میانگین ضرایب تعیین از یک تکنیک رگرسیون بهتر از دیگری در بسیاری از اشیا است؟
35864
من تابلویی از قیمت‌های روزانه سهام $\{Y_{it}\}$, $t \{1,...,1000\}$ و رویدادی دارم که در $t=700$ رخ می‌دهد که باعث میانگین می‌شود قیمت سهام طی 15 روز آینده حدود 10 درصد کاهش می یابد. چگونه به سوال کدام سهام اول سقوط کردند پاسخ دهم؟ من می‌خواهم ویژگی‌های سهامی را بدانم که با سقوط‌های خیلی زودهنگام مرتبط هستند (مانند 1 یا 2 روز اول). من ایده های زیادی برای تجزیه و تحلیل نمونه فرعی دارم اما هیچ کدام که بخواهم از اقتصاد سنجی استفاده کنم نیست. ایده های مبتنی بر اقتصاد سنجی گسترده استقبال می شود. آیا می توان از تجزیه و تحلیل بقا در اینجا استفاده کرد؟ توجه من قبلاً یک پست در مورد این موضوع گذاشتم که پاسخ داده شد، اما سؤال را خیلی محدود کردم و به آنچه می خواستم نرسیدم. ویرایش: _لطفا به این سوال کاملا پاسخ ندهید (تا مشخصات مدل). من فقط ایده ها/پیشنهادهایی در زمینه هایی می خواهم که ممکن است خوب و یک رویکرد/پیشنهاد بسیار کلی باشد. سپس من می خواهم خودم همه چیز را از آنجا توسعه دهم._
کدام سهام پس از یک رویداد اول سقوط کرد؟
26197
آیا گروه بندی مجدد دو متغیر وابسته باینری در یک متغیر وابسته 4 سطحی برای استفاده از رگرسیون چندجمله ای یک روش معمول (و کافی) است؟ به عنوان مثال، فرض کنید اطلاعاتی در مورد دو شرط مرتبط (نتیجه) A و B داریم. یک متغیر 4 طبقه ای جدید تعریف می شود به این صورت که: دسته 1 = نه شرایط A و نه B دسته 2 = شرط A (فقط) دسته 3 = شرایط B (فقط) دسته 4 = هر دو شرط A و B این امکان اجرای یک رگرسیون چند جمله ای منفرد را به جای استفاده از دو مدل لجستیک باینری که شامل پیش بینی کننده های یکسان هستند را می دهد.
استفاده از رگرسیون لجستیک چند جمله ای برای چندین پیامد مرتبط
24976
d کوهن یک اندازه گیری برای اندازه اثر است که به صورت زیر محاسبه می شود: $d = (x_1-x_2) / \sigma_{\text{pooled}}$ که $x_1$ میانگین یک گروه است، $x_2$ میانگین یک ثانیه است. گروه، و $\sigma_{\text{pooled}}$ انحراف استاندارد تلفیقی است. بیایید بگوییم که یک درمان دارای اندازه اثر 0.6 و درمان دیگر دارای اندازه تاثیر 1.2 است. **چگونه می توانم تشخیص دهم که این تفاوت از نظر آماری معنی دار است؟** یعنی. آیا یک درمان نتیجه قابل توجهی متفاوت از دیگری ارائه می دهد؟ ویرایش: نمونه ها مستقل نیستند. هر نمونه شامل همان 7 شرکت کننده است. _من به طور خلاصه در اطراف جستجو کردم اما پاسخی برای این سوال پیدا نکردم.
چگونه می توان با استفاده از d (اندازه اثر) کوهن ارزیابی کرد که آیا دو درمان به طور قابل توجهی متفاوت هستند؟
92969
مقیاس بندی MaxDiff یک روش بسیار محبوب برای درک ترجیحات مشتری است. می خواستم بدانم که آیا می توانیم یک پرسشنامه نظرسنجی برای تجزیه و تحلیل MaxDiff در R ایجاد کنیم. آیا کسی می تواند این موضوع را روشن کند.
مقیاس بندی MaxDiff
26193
من خوانده ام که **فاصله ماهالانوبیس** به اندازه فاصله اقلیدسی** هنگام **مقایسه** 2 **بردار ویژگی پیش بینی شده** در طبقه بندی با استفاده از یک طبقه بندی کننده **LDA** موثر است. میخواستم بدونم این جمله درسته؟ اگر کسی در این مورد نظر بدهد خوب است. من در حال کار بر روی **طرح کردن** **بردار ویژگی 36 بعدی** به **بردار ویژگی 1d** با استفاده از **طبقه بندی کننده LDA کلاس 2** و مقایسه بردارهای ویژگی پیش بینی شده هستم.
فاصله ماهالانوبیس در طبقه بندی کننده LDA
100483
ما هر ماه مظنه فروشنده (قیمت آنها برای اوراق بهادار مالی مختلف) را دریافت می کنیم. من می خواهم مقایسه کنم که کدام یک از این فروشندگان با قیمت های داخلی ما [استاندارد طلا] موافق هستند (یعنی نزدیک هستند). من همچنین می‌خواهم اینها را برای دسته‌های فرعی آزمایش کنم - مثلاً فروشنده A با ما در مورد اوراق قرضه موافق است، اما فروشنده B با سهام بیشتر موافق است. چه آزمایش های آماری را می توانم انجام دهم تا فروشندگان را رتبه بندی کنم (از نظر نزدیک بودن به قیمت های ما) و کمیت شکاف. با تشکر
مقایسه و تعیین کمیت کیفیت داده ها
63884
لطفاً به من بگویید چگونه مطالعه رویداد را انجام دهم؟ من 60 شرکت و 16 رویداد دارم. من بازده غیرعادی را ظرف 20 روز در مورد مطالعه رویداد محاسبه می کنم (10،10-). * آیا باید آن را برای هر رویداد برای همه شرکت ها انجام دهم و سپس میانگین را بگیرم؟ * یا هر رویداد برای هر شرکت و سپس میانگین؟ * آیا باید از وزن های مساوی استفاده کنم یا وزن های ارزشی؟ همچنین، هنگامی که بازده غیرعادی را به دست آوردم، می خواهم آن را با استفاده از فاصله اطمینان 95% ترسیم کنم. لطفاً به من بگویید که دستور Stata برای انجام این کار چیست؟
چگونه یک مطالعه رویداد انجام دهیم؟
25082
من می خواهم یک بررسی واقعیت از درک خود از آمار MH داشته باشم. من سعی کرده ام نمونه ای از آزمون Mantel-Haenszel ارائه شده در Conover (1999، ص 192-194) را بازتولید کنم. ساختار داده‌ها مانند نمونه‌های دیگر ارائه‌شده برای این روش در R است. آماری که تولید می‌کند، مقدار $T_{4}$ است، که وقتی $H_{0}$ درست باشد، تقریباً عادی توصیف می‌شود. Conover $T_{4}$ را اینگونه توصیف می کند: * * * $$ T_{4} = \frac{\sum x_{i} - \sum{\frac{r_{i}\cdot c_{i}}{N_{ i}}}}{\sqrt{\sum{\frac{r_{i}c_{i}(N_{i} - r_{i})(N_{i}- c_{i})} {N^2_{i} (N_{i}-1 ) }} }} $$ * * * مشخصات مثال در صفحه. 194 در زیر است: سرطان.در <- آرایه(c(10,12,1,1,9,11,0,1,8,7,0,3), dim = c(2,2,3), dimnames = list(وضعیت = c(درمان، کنترل)، نتیجه = c(موفقیت، شکست)، گروه = c(گروه-1، گروه-2، گروه-3))) سرطان <- as.table(cancer.in) سرطان ##### تصحیح تداوم اعمال mantelhaen.test(cancer) ##### هیچ اصلاحی اعمال نشد mantelhaen.test(سرطان، درست = FALSE) هنگام بررسی ساختار جدول، به نظر می رسد از مثال موجود در متن پیروی می کند، اما آمار ارائه شده مطابقت ندارد. Conover به $T_{4}$ ارزش $\frac{1.6786 }{1.1719} = 1.4323 $ می‌رسد. مقدار $\chi^{2}$ که در R برگردانده می‌شود 2.0515 است (بدون اصلاح تداوم)، که برابر با مقدار $T_{4}^2$ است. از آنچه من می‌دانم، $z^2$ $\chi^{2}_{1}$ توزیع می‌شود، بنابراین روش‌ها نتایج یکسانی را تولید می‌کنند، اما به روشی متفاوت نشان داده می‌شوند. آیا با این موضوع در مسیر درستی هستم؟ هر گونه راهنمایی بسیار قدردانی می شود.
محاسبه آزمون Mantel-Haenszel در R
105579
من مجموعه ای از داده های دو شبانه نظارت دارم. مانیتورینگ میزان شلوغی سرور را از نظر تعداد موضوعات پردازش می کند. تغییری ایجاد شده است و می‌خواهیم بررسی کنیم که آیا این تأثیری بر کاهش رشته‌ها داشته است یا خیر. چگونه می توانم دو مجموعه داده را با توجه به اینکه بار روی سرور یک متغیر (اما قابل مقایسه) مقایسه کنم. من به ANOVA فکر کرده ام، آیا این روش خوبی است؟ آیا افراد دیگری می توانند پیشنهاد دهند؟ به نظر می‌رسد که داده‌ها یک توزیع نرمال منحنی مثبت را نشان می‌دهند. آیا ANOVA هنوز معتبر است؟ به عنوان مثال (داده های ساختگی) تعداد موضوع شب قبل از تغییر شب پس از تغییر 00:00 341 223 00:05 365 321 00:10 465 445 . . . 08:50 512 243 08:55 314 556 09:00 256 354
به مقایسه دو مجموعه داده کمک کنید. روش ها
26192
من مجموعه‌ای از اندازه‌گیری‌ها را برای پاسخ صفحه وب دارم - 2356 6788 3658 5545 1008. چگونه می‌توانم تعیین کنم که آیا این مجموعه حتی ارزیابی / میانگین‌گیری را دارد یا خیر. با بازرسی دستی، این برای من اهمیتی ندارد. یا اگر مجموعه ای مانند (1815 1856 1899 4567 1875) داشته باشم، با بازرسی دستی آن، مقدار پرت 4567 را حذف می کنم و سپس از میانگین مقادیر باقی مانده در مجموعه استفاده می کنم. متأسفانه به دلیل ماهیت دستی جمع آوری داده ها، افزایش اندازه مجموعه داده ها بیش از 10 یا بیشتر امکان پذیر نیست. همچنین، نقاط پرت آشکار مانند 4567 در مجموعه دوم به دلیل مشکلات شبکه شناخته شده است. من فقط به دنبال راهی برای اتصال این نقاط به اکسل و پاسخ به 2 سوال بالا هستم. 1. آیا مجموعه از نظر آماری معنادار است؟ 2. آیا موارد پرت وجود دارد که بتوان آن را از نظر آماری معنی دار کرد. با تشکر
چگونه می توانم تعیین کنم که آیا مجموعه ای از مقادیر از نظر آماری معنی دار هستند یا خیر
96042
انجام یک رگرسیون و نیاز به یافتن اینکه آیا باقیمانده های من به طور معمول توزیع شده اند یا خیر.
رگرسیون - چگونه بفهمم که باقیمانده های من به طور معمول توزیع شده اند؟
92961
اجازه دهید تابعی $\mathcal{E(h)}$ که با توجه به فرضیه‌ای $h$، خطای تعمیم آن $h$ ثابت را برمی‌گرداند. داشتم نکاتی را در مورد خطای انتخاب مدل و تعمیم می‌خواندم و می‌گفتم: اگر به $\mathcal{E(h)}$ دسترسی داشتیم، انتخاب مدل > مشکلی نیز وجود نداشت. ما به سادگی بزرگ‌های $ را انتخاب می‌کردیم. \mathcal{H}$ تا بتوان طبقه‌بندی‌کننده‌ای را پیدا کرد که خطا را به حداقل می‌رساند. مطمئن نبودم که آیا آن بیانیه را کاملاً قدردانی یا درک کرده ام یا واقعاً با این بیانیه موافقم. دلیلش این است که، حتی اگر ما به $\mathcal{E(h)}$ دسترسی داشتیم (که فکر می‌کنم منظور اوراکلی است که $h$ را می‌گیرد و فقط خطای تعمیم واقعی خود را می‌گوید) فکر می‌کنم باز هم مشکل‌ساز خواهد بود. مدلی را پیدا کنید که دارای فرضیه ای است که به خوبی تعمیم می دهد. دلیل آن این است که می‌گوییم کلاس‌های مدل $\mathcal{H}$ بی‌نهایت است (یعنی مجموعه بی‌نهایتی از مدل‌ها برای انتخاب وجود دارد). ما واقعاً نمی دانیم که $\mathcal{E(h)}$ چه زمانی به حداقل خود رسیده است، مگر اینکه هر $\mathcal{H}$ ممکن را بررسی کنیم. یعنی حتی اگر چنین چیزی داشته باشیم، فکر نمی‌کنم مشکل به این راحتی برطرف شود زیرا چگونه می‌توانیم مطمئن باشیم که واقعاً بهترین $\mathcal{H}$ (در زمان چند جمله‌ای) را پیدا کرده‌ایم؟ اساساً من احساس می‌کنم این سؤال فرض می‌کند که ما پیشگویی برای تعیین اینکه چه زمانی تعمیم حداقل است نیز داریم. علاوه بر این، همانطور که اشاره کردم، الگوریتم/ماشین تراش پیشنهادی قابل تصمیم گیری است و در P نیست (یعنی ممکن است برای همیشه کار کند...) مسئله/شک اصلی که من با این سوال دارم این است که حتی با چنین اوراکلی، من من متقاعد نشده‌ام که انتخاب مدل بی‌اهمیت بوده است، پاسخی که سعی می‌کند با این موضوع خاص مقابله کند، شانس بیشتری برای پاسخگویی بهتر به سوال من دارد.
آیا اگر ما به اوراکلی دسترسی داشته باشیم که خطای تعمیم دقیق را به ما بدهد، مشکلی در انتخاب مدل وجود خواهد داشت؟
105571
فرض کنید یک مجموعه داده آموزشی با متغیرهای $a,b$ و $c$ و متغیر نتیجه باینری $y$ داریم. ما یک مدل رگرسیون لجستیک را برای این مجموعه داده برازش می‌کنیم: $$\text{logit}(p) = \hat{\beta_0}+ \hat{\beta_{1}}a + \hat{\beta_{2}}b + \hat{\beta_{3}}c$$ وقتی احتمالات پیش‌بینی‌شده را از مجموعه داده‌های آموزشی با استفاده از مدل رگرسیون لجستیک دریافت می‌کنیم، آیا قرار است طبقه‌بندی کاملی داشته باشیم؟ یا این بستگی به آستانه ای دارد که استفاده می کنیم؟
خطای آموزشی و رگرسیون لجستیک
26199
فرض کنید: * $N \sim {\rm Poisson}(\lambda)$ * $\lambda$ ناشناخته است، اما ما معتقدیم که می‌توان فرض کرد $\sim \exp(1)$ اگر بخواهم $N را محاسبه کنم | X$، یعنی $P(model | data)$، باید از قضیه بیز به روش زیر استفاده کنم: $P(model|data) \propto P(data|model)*P(model)$ * $P (داده|مدل)$ تابع درستنمایی است * $P(model)$ چگالی توزیع قبلی من است بنابراین: $P(داده|مدل) = L(\lambda) = \exp\{-n\lambda + \log\lambda \sum k_i - \sum \log (k_i!)\}$ And $P(model) = g(\lambda = 1) = e^{-\lambda} $ بنابراین $P(model|data) = \exp\{-n\lambda + \log\lambda \sum k_i - \sum \log(k_i!)\} e^{-\lambda}$ و اگر من یک نمونه $k_1 = j$ داشتم، آنگاه $P(\lambda|k_1 = j) = \exp(-\lambda + \log \lambda j - \log j! ) e^{-\lambda}$ درست است؟ چگونه یک مقدار مورد انتظار برای پارامتر را محاسبه کنم؟
چگونه یک توزیع پسین را برای یک مدل پواسون با توزیع قبلی نمایی برای پارامتر محاسبه کنم؟
31362
من در حال پیاده سازی تحلیل احساسات بر روی مجموعه نظرات کاربران هستم. همه نظرات در مورد یک شی هستند. در حال حاضر تصمیم گرفتم سه کلاس داشته باشم - منفی، خنثی و مثبت. من آرایه آزمایشی از 1500 نظر با کلاس های علامت گذاری شده دریافت کردم. سعی شد از SVM برای طبقه بندی بردارهای ویژگی باینری استفاده شود که در آن هر عنصر به وجود کلمه ای در نظر اشاره دارد. من حداکثر دقت 60٪ کلاس های صحیح را گرفتم. تحقیقات شناخته شده دقت 80 درصد و بهتری داشتند، اما بر روی متون انگلیسی انجام شده بودند. یکی از مشکلات - خطاهای متعدد در نظرات، املایی و دستور زبان. همچنین زبان روسی پیچیده تر از انگلیسی است. من از هر نوع مشاوره ای قدردانی می کنم. آیا ابزار خوبی برای تجزیه و تحلیل زبان روسی وجود دارد؟ شاید SVM انتخاب درستی نباشد، آیا الگوریتم های بهتری برای پرونده من وجود دارد؟ یا شاید باید فضای ویژگی کارآمدتر را انتخاب کنم؟
چگونه می توانم تجزیه و تحلیل احساسات نظرات کاربران را بهبود بخشم؟
25083
بیایید بگوییم من نوعی داده بقا دارم - یعنی دارویی می دهم که ممکن است باعث مرگ و میر شود. بنابراین من سه بیمار دارم: A، B و C. به همه دارو در زمان t1 داده می شود. فرض کنید بیمار A در زمان t2 می میرد. بیمار B در زمان t3 می میرد. و بیمار C در زمان t100 می میرد. واضح است که احتمال اینکه دارو باعث مرگ بیمار A و B شود بیشتر از احتمال این است که دارو باعث مرگ بیمار C شود (یعنی بیمار C احتمالاً به دلایل طبیعی فوت کرده است در حالی که بیماران A و B احتمالاً به دلیل دارو فوت کرده اند). آیا تکنیک‌هایی در زمینه‌های مربوط به تجزیه و تحلیل بقا وجود دارد که به فرد امکان می‌دهد احتمال/احتمال اینکه درمان باعث ایجاد اثر شده است را کمیت کند. به عنوان مثال، اگر بتوانم با توجه به اینکه بیمار در زمان X درمان شده و در زمان Y فوت کرده است، احتمال اینکه درمان باعث مرگ شود را محاسبه کنم. با تشکر!
تجزیه و تحلیل اثر درمان بر حسب زمان / بقا
26198
من یک مدل رگرسیون لجستیک دارم که برد / باخت را بر اساس مقدار پول پرداخت شده پیش بینی می کند. من مدل خود را هر دو ساعت بر روی داده های جدیدی که به دست می آوریم اجرا می کنم و از آن برای پیش بینی دو ساعت آینده استفاده می کنم. با این حال، من مدام متوجه می شوم که مدل من برای هر مقدار پول پرداخت شده، برد/باخت را کمتر پیش بینی می کند. بنابراین من در این وضعیت هستم که یک مدل آماری دارم اما به نظر نمی‌رسد که داده‌های جدید را با ورود پیش‌بینی کند. مدل من برای داده های جدید پیش بینی نمی کند، اما برای انجام این کار به آن نیاز دارم. زمانی که یک مدل قدرت پیش بینی ندارد، چند استراتژی کلی وجود دارد؟ به عنوان نکته باید ذکر می کردم که من در واقع دو مدل داشتم. یکی که برد/باخت را در 0 تا 5 \$ و دیگری برای 5.01 \$ و بیشتر پیش بینی می کرد. ممکن است که این ممکن است یک مقصر بوده باشد، و من ممکن است بخواهم به جای آن از یک مدل رگرسیون قوی استفاده کنم. کاملا مرتبط نیست، اما فکر کردم ذکر کنم.
اگر مدل رگرسیون لجستیک من چیزی را پیش بینی نکند، چه کاری می توانم انجام دهم؟
106247
فرض کنید من 10 تاس (شش رو) می ریزم. احتمال دیدن k چهره ای که بیش از (یا مساوی) 3 بار ظاهر می شوند چقدر است؟ به عنوان مثال، اگر من 1، 1، 1، 2، 2، 2، 3، 4، 5، 6 را ببینم، 2 چهره را مشاهده کرده ام که بیش از (یا مساوی) 3 بار (1 و 2) ظاهر شده اند. حدس می‌زنم می‌توانم یک شبیه‌سازی را اجرا کنم، اما فکر می‌کردم آیا راهی برای محاسبه تحلیلی آن وجود دارد یا خیر.
احتمال دیدن k چهره ای که هنگام انداختن 10 تاس بیش از 3 بار ظاهر می شوند
106241
چهار بردار مختلط تصادفی $\mu_i$ به طول $K$ را در نظر بگیرید که ورودی‌های آنها از توزیع نرمال مختلط $\mathcal{CN}(\mathbf{0},\mathbb{1})$ با مرکز صفر و واریانس واحد گرفته شده‌اند. . سپس ماتریس $2 \times 2$ پیچیده normalized $$ را تشکیل دهید \chi=\frac{1}{\sum_i|\mu_i|^2}\begin{pmatrix}\mu_1^*\\\mu_2^*\end{pmatrix}\cdot\begin{pmatrix}\mu_3&\mu_4\ end{pmatrix}=\frac{1}{\sum_i|\mu_i|^2} \begin{pmatrix}\mu_1^*\cdot\mu_3&\mu_1^*\cdot\mu_4\\\mu_2^*\cdot\mu_3&\mu_2^*\cdot\mu_4\end{pmatrix} $$ جایی که ستاره ایستاده است برای مزدوج من باید مقدار میانگین بزرگترین مقدار ویژه $\chi^\dagger\chi$ را به عنوان تابعی از $K$ محاسبه کنم (جایی که خنجر مخفف transpose مزدوج است). ... حتی نمی دانم از کجا شروع کنم. من این مقاله را پیدا کردم که امیدوارم بتواند مفید باشد، اما چهار ورودی ماتریس $\chi$، در بالا، مستقل از یکدیگر نیستند، بنابراین مطمئن نیستم که چگونه از آن تابع مشخصه استفاده کنم (معادل 2 در کاغذ).
بزرگترین مقدار ویژه این ماتریس تصادفی 2x2
106249
من از یک مدل خطرات متناسب کاکس استفاده می کنم، میزان خطر را برای لوامیزول نسبت به 5-FU تخمین می زنم، با تنظیم سن و جنس. library(survival) Colon<-subset(colon,etype==2 & rx!='Obs') fitcox<-coxph(Surv(time,status)~rx+age+sex,data=Colon) حالا اگر بخواهم در مورد طول عمر مورد انتظار مشروط با توجه به زمان بقا تا t0، rx، سن و جنس پیش بینی کنید، آیا عملکرد مناسبی وجود دارد؟ اگر تابع مشابهی وجود نداشته باشد و من باید خودم را بنویسم، در اینجا یک قطعه شبه کد وجود دارد که آنچه را می خواهم بیان می کند، اما من نمی دانم چگونه آن را پیاده سازی کنم: تابع (rx، جنسیت، سن، t0، خط پایه، fitcox) {ضریب <- get_coef_from(fitcox) //دریافت تابع بقا از تابع خطر تجمعی baseline$survival <- exp(-basehaz$hazard*exp(coef[1]*rx+coef[2]*sex+coef[3]*سن)) //محاسبه طول عمر مورد انتظار، فرمول زیر survival_t0 ارائه شده است <- baseline[t نزدیکترین است t0, survival] 1/survival_t0*integrate(survival, t0, inf, data=baseline) } فرمولی که من استفاده می کنم از http://en.wikipedia.org/wiki/Survival_analysis $$\frac{1}{S(t_0)} \int_0^{\infty} t\,f(t+t_0)\,dt = \frac{1 }{S(t_0)} \int_{t_0}^{\infty} S(t)\,dt$$ خیلی خوب است که می‌توانید در مورد مدل‌های خطرات دیگر به من کمک کنید، اما بهتر است در همان مجموعه داده مثال ارائه دهید، با تشکر!
پیش‌بینی طول عمر مورد انتظار مشروط توسط مدل کاکس در R
105578
من یک الگوریتم یادگیری Q با تعداد محدود حالت دارم. با این حال، هر حالت با مقدار Q-معمول 32 بیتی نشان داده می شود. این مقادیر Q اجازه می دهد تا اطلاعات مربوط به تجربه قبلی را بسیار فراتر از وضعیت Q-Learner حمل کند (در مورد من وضعیت Q-Learner دنباله ای از انتخاب ها و پاداش های خودش است). اگر Q-value فقط باینری باشد چه؟ سپس Q-learner قادر به حمل آن اطلاعات نخواهد بود و چیزهای زیادی یاد نخواهد گرفت. من بسیار علاقه مند هستم که Q-learner برای یادگیری قوانین مختلف به چه مقدار حافظه بر حسب بیت نیاز دارد. (به عنوان مثال. Q-learner همیشه دو انتخاب دارد، 1 و 0. اگر 1 1 0 را پشت سر هم انتخاب کند، پاداش می گیرد.) با این حال، من با اجرا مشکل دارم. مقادیر Q فقط با تجربه محدود می شوند، بنابراین اگر بخواهم Q-value فقط یکی از n مقدار مختلف باشد، چگونه قانون به روز رسانی را برای Q-value پیاده سازی کنم؟ قانون به‌روزرسانی من سپس $Q_{new} = Q_{قدیمی} + \alpha (R + \گاما * \max(Q_{آینده\ انتخاب\ 1} - Q_{آینده\ انتخاب\ 0}))$ اکنون چگونه می‌توانم این مقدار جدید را روی مجموعه محدودی که Q-value می تواند باشد، ترسیم کنید؟ اگر $\alpha = 1 , \gamma = 1; R,Q $ عناصر $\{0,1\}$ هستند سپس $Q_{new}$ عنصر $\{-1, 0, 1, 2\}$ است و نقشه برداری آسان است. اما اگر متفاوت باشد چه؟ کسی آن را مطالعه کرده است؟ مقالات و هر گونه پیشنهاد قدردانی می شود. P.S. مطمئن نیستم که اینجا بهترین مکان برای سوالات یادگیری ماشینی باشد. اگر سایت Stack Exchange دیگری می شناسید که با آن یا هر سایت دیگری سروکار دارد، لطفاً به من اطلاع دهید.
یادگیرندگان کیو با مقادیر Q گسسته
114197
من در حال طراحی یک شبکه عصبی برای مسئله طبقه بندی باینری در «متلب» هستم. من تعداد ورودی ها و نمونه های مختلفی در هر مشکل دارم (نرم افزاری طراحی کردم که کاربر نهایی از آن استفاده کند). من می دانم که یافتن «تعداد نورون ها» و «لایه ها» یک مشکل حیاتی در شبکه های عصبی است. اما آیا هیچ روش ریاضی یا تجربی برای یافتن نورون های **حداقل** و **حداکثر** مناسب در هر لایه (شبکه های یک لایه و دو لایه) وجود دارد و من بین این مقادیر جستجو خواهم کرد؟ با تشکر
بهترین راه حل ریاضی یا تجربی برای تعداد لایه ها و نورون ها در ساختارهای شبکه عصبی
63883
آیا روشی برای یافتن تابع فاصله مناسب در رگرسیون ناپارامتریک وجود دارد؟ من از چند سری زمانی برای یادگیری پیش بینی استفاده می کنم. سری ها غیر خطی و غیر گاوسی هستند. من می توانم ابعاد مناسب و تاخیر را دریافت کنم. من می توانم پهنای باند مناسب را با کتابخانه hdrcde پیدا کنم. من با توابع کرنل مشکلی ندارم. مشکل من با فاصله هاست. من از توابع وزن دهی اقلیدین، کسینوس و همبستگی استفاده می کنم. اینها هسته‌هایی هستند که نتایج خوبی می‌دهند، اما یک بار، اقلیدین خوب است، سپس بعد از اضافه کردن برخی داده‌ها، به طور کلی یک به 7-5، اقلیدین هیچ چیزی نمی‌دهد، حتی با تغییر بسیار کمی در آمار. بنابراین، سوال من این است که آیا روشی برای انتخاب فاصله مناسب وجود دارد؟ من می خواهم در مورد آن نکته و مقالاتی که به حل این مشکل کمک می کند توصیه هایی داشته باشم. چه بسته ای در R در نهایت می تواند کمک کند؟ متشکرم.
انتخاب تابع فاصله در پیش بینی رگرسیون هسته؟
74843
من یک مجموعه داده دارم: 5، 10، 11، 13، 15، 35، 50، 55، 72، 92، 204، 215 فرمول قرار دادن به عرض های مساوی این است (تا جایی که من می دانم) $$width = ( حداکثر - حداقل) / N$$ من فکر می کنم N عددی است که طول لیست را به خوبی تقسیم می کند. بنابراین در این مورد 3 است. بنابراین: عرض = 70 چگونه از آن 70 برای ساخت سطل ها استفاده کنم؟ **ویرایش: پاسخ را پیدا کردم. آیا باید به سوالم پاسخ دهم یا فقط آن را حذف کنم؟**
باینینگ با عرض مساوی
35683
برای تناسب با یک مدل AR(5) ساده، از SAS «PROC AUTOREG» استفاده می‌کنم. من گزینه ARCHTEST=(QLM) را صدا زدم که تست ضرب کننده لاگرانژ Engle را برای اختلالات ARCH و تست Portmanteau Q ارائه می دهد. آمار SAS ارائه شده برای تست ضریب انگل لاگرانژ عبارت بود از: سفارش LM p-value 1 0.018 0.893 2 0.079 0.961 3 0.881 0.830 4 1.088 0.896 5 1.105 0.914 0.914 4.179 0.759 8 4.182 0.840 9 4.528 0.873 10 4.528 0.920 11 5.565 0.901 12 6.318 0.899 «باقیمانده‌های «آرچ» این مدل «T» را گرفتم و از «T» بهترین تابع «T» استفاده کردم. کتابخانه (FinTS). # تابعی برای انجام ArchTest در چندین تاخیر که در آن داده باقیمانده # مدل است. library(FinTS) arch.m1 = ماتریس (NaN,12,3) for(i در 1:12) {s = ArchTest(data,lags=i) arch.m1[i,1] = s$statistic arch.m1 [i,2] = s$parameter arch.m1[i,3] = s$p.value} نتایج آزمایش از تابع «ArchTest» بسته «FinTS» بسیار متفاوت است: سفارش LM p-value 1 0.014 0.907 2 0.092 0.955 3 0.835 0.841 4 2.194 0.700 5 3.189 0.671 6 13.092 0.013 8 23.161 0.003 9 18.780 0.027 10 18.467 0.048 11 22.565 0.020 12 23.828 0.021 من فکر می کردم که SAS `ARCHTEST=(QLM) عملکرد یکسانی را انجام می دهد و گزینه`` ARCHTEST=(QLM) را انجام می دهد. تست کنید اما ظاهرا نه آیا کسی می داند تفاوت بین تست های SAS و 'FinTS' چیست؟ **توجه**، داده های استفاده شده توسط Tsay (2005) در مثال صفحه 102 در اینجا موجود است. با استفاده از کد «R» زیر: library(FinTS) intc=read.table(http://faculty.chicagobooth.edu/ruey.tsay/teaching/fts2/m-intc7303.txt, quote=\ ) ArchTest(intc$V2,lags=12) پیدا کردم: $\chi^2$= 48.0425, df = 12, _p_ -value = 3.073e-06 با این حال، Tsay (2005:102) گزارش می دهد: $\chi^2$= 43.5041، df = 12، _p_ -value = 0.0000 اگر از: ArchTest(log(1+intc$) استفاده کنم V2)، تاخیر = 12) سپس: $\chi^2$= 43.5041، df = 12، _p_ -value = 0.0000 با این حال، این تفاوت های مشاهده شده بین SAS و «FinTS» را توضیح نمی دهد **از پاسخ شما سپاسگزاریم. تابع ArchTest بر اساس آمار دوم ارائه شده توسط @mpiktas است: $$TR^2=T\left(1-\frac{SSR_1}{SSR_0}\right)$$ intc=read.table(http://faculty.chicagobooth.edu/ruey.tsay/teaching/fts2/ m-intc7303.txt,quote=\) intc.ln=log(1+intc$V2) lag=12 mat=embed(intc.ln^2,lag+1) m=summary(lm(mat[,1]~mat[,-1])) SSR1=sum(residuals(lm(mat[,1]~mat[ ,-1]))^2) SSR0=جمع (باقیمانده (lm(mat[,1]~1))^2) stat=length(mat[,1])*(1-(SSR1/SSR0)) که $\chi^2$ = 43.5041 را می دهد. اگر اولین آمار ارائه شده توسط @mpiktas و نشان داده شده در صفحه 102 Tsay (2005) را اعمال کنم: $$F=\frac{(SSR_0-SSR_1)/m}{SSR_1/(T-2m-1)}$$ intc=read.table(http://faculty.chicagobooth.edu/ruey.tsay/teaching/fts2/m-intc7303.txt,quote=\) intc.ln=log(1+intc$V2 ) lag=12 mat=embed(intc.ln^2,lag+1) m=summary(lm(mat[,1]~mat[,-1])) SSR1=sum(residuals(lm(mat[,1]~mat[,-1]))^2) SSR0=جمع (بقایای) (lm(mat[,1]~1))^2) stat=((SSR0-SSR1)/lag)/(SSR1/(length(mat[,1])-(2*lag)-1)) این نسخه از آمار $\chi^2$ = 3.837 می دهد آیا پاسخ های بسیار متفاوتی هستند که در زیر برای مدل AR(5) SAS ارائه کرده ام: c(0.14167،0.14019،-0.42499،0.0222،0.04388،-0.03157،0.00897، -0.04567،0.29171،-0.06735،0.05235،0.05235،0.05235،0.05235،0.00897،0.00897-0. -0.2407،0.03766،-0.15011،0.11023،-0.30812،-0.02399، 0.13434،0.05836،0.09368،-0.01832،-0.156012،-0. 0.19431،0.10366،-0.09682،-0.04597،0.07162،0.16411،-0.02181، -0.00459،-0.16325،-0.09615،-0.04581،0.10441،0.12845،-0.0398، -0.03349،-0.01575،0.06923،-0.05008،-0.05006،-0 -0.0317،0.08914،0.07323،0.06519،0.16141،0.0537،0.08213، 0.01073،-0.06628،0.01297،0.00622،-0.1015،0.1015،-0.1015. 0.10322،-0.04991،-0.01223،-0.04975،-0.06043،0.01794، -0.00071،0.05425،-0.05462،0.01659،0.080254،0.08658،0. 0.01221) برای تاخیر 5، SAS $\chi^2$ = 1.105، `FinTS` $\chi^2$ = 3.189، و نسخه F-statistic $\chi^2$ = 0.560 می دهد. **مراجع:** Engle, R. F. 1982. هتروسکداستیسیته شرطی خودبازگشت با برآوردهای واریانس تورم انگلستان. اقتصاد سنجی 50:987-1007. Tsay, R. S. 2005. تجزیه و تحلیل سری های زمانی مالی. چاپ دوم. John Wiley & Sons, Inc., Hoboken, New Jersey, USA.
نتایج مختلف آزمون ضریب انگل لاگرانژ برای ناهمسانی شرطی از SAS و FinTS
25088
آیا نمونه‌گر گیبس در حضور چند حالت به حداکثر جهانی همگرا می‌شود؟ به عنوان مثال در مورد توزیع مخلوط گاوسی؟
نمونه برداری گیبس برای مخلوط های گاوسی
89911
مجموعه داده من شامل متغیرهای زیادی است که در مقیاس پیوسته به درجات مختلف به نظر من عملاً طبقه بندی می شوند. بسیاری از آنها یک تکه بزرگ از صفر یا مقدار خاصی دارند که با یک یا چند تکه جداگانه ظاهری همراه است. در برخی موارد این امر در جایی که به معنای واقعی کلمه 2 تک خاص به طور موثر روشن/خاموش وجود دارد آشکار است. سایرین کاندیدای بالقوه تری هستند که تقریباً 2 یا بیشتر توزیع جداگانه وجود دارد. من سعی می کنم یک پیوسته به طور معمول توزیع شده وابسته به تعدادی از متغیرهای بالقوه (جمع آوری شده در مقیاس پیوسته) را مدل کنم. بیشتر اینها احتمالاً به مدل کمک نمی کنند. من از روش‌های مدل‌سازی مختلفی برای کشف بهترین چیزها استفاده خواهم کرد (یعنی روش‌های درختی را که در آن ظاهر دوجمله‌ای ظاهری مشکلی ندارد، امتحان خواهم کرد). من فکر نمی کنم که بتوان یک مدل خوب تولید کرد. در این مواقع آیا قوانین/تکنیک های سخت و سریعی برای دسته بندی یا نه وجود دارد؟ همچنین با انجام بالقوه تحولات، چه ملاحظات/اقداماتی را باید بدانم؟ من می گویم بیشتر مجموعه داده ها به این صورت است.
در چه نقطه ای یک متغیر پیوسته (و روش) را دسته بندی کنیم؟
113595
آیا انجام رمزگذاری یکباره متغیرهای طبقه‌بندی قبل از تقسیم داده‌ها به مجموعه‌های آموزشی و آزمایشی و اعتبارسنجی متقابل امن است؟ من می‌پرسم زیرا این فرآیند ابعاد داده‌ها را تغییر می‌دهد، و اگر مجموعه‌های تست/رزومه من به صورت جداگانه کدگذاری شده باشند، پیچیده‌تر خواهد بود. شهود من به من می گوید که امن است. برای مثال، فرض کنید یک ویژگی طبقه بندی شده برای وضعیت ازدواج وجود دارد - می تواند متاهل، مجرد، مطلقه یا بیوه باشد. اگر وقتی به مجموعه‌های آموزشی و تست و cv تقسیم می‌کنم، هیچ نمونه Widowed وارد مجموعه آموزشی نمی‌شود، رمزگذاری تک داغ من فقط 3 ستون (متاهل، مجرد، مطلقه) در داده‌های آموزشی ایجاد می‌کند. سپس برای تست مدل باید داده های تست و cv خود را به این فرمت تبدیل کنم. در حالی که اگر من قبل از تقسیم کردن یک هات کد می کردم، یک ستون اضافی در مجموعه آموزشی با تمام صفرها خواهم داشت. تا آنجا که می توانم بگویم این نباید بر عملکرد NN تأثیر بگذارد.
رمزگذاری تک داغ قبل یا بعد از تقسیم به مجموعه های آموزشی و آزمایشی؟
96044
در بخش 2.4 کتاب ESL اثر Hastie و غیره، گفته شد که $\hat{f}(x)=\text{Ave}(y_i\mid x_i\in N_k(x))\rightarrow E(Y\mid X=x)$ وقتی $N، k\rightarrow \infty$ و $k/N\right arrow 0$. در اینجا $N_k(x)$ همسایگی حاوی $k$ نقاط و Ave نشان دهنده میانگین است. آیا دلیل دقیقی برای این گفته وجود دارد؟
اثبات دقیق یک بیانیه در عناصر یادگیری آماری
74847
من سعی می کنم یک تحلیل اکتشافی در مورد آب و هوا انجام دهم. من می خواهم یک رگرسیون خطی چندگانه روی داده های خود انجام دهم و سپس مقدار پیش بینی شده را در برابر مقدار واقعی رسم کنم. این جایی است که من تا کنون به دست آورده‌ام: data<-read.csv(Amsterdam.csv, header=TRUE) data2<-data[SolarAltitude>0،] data2.lm<-lm(DirectRadiation ~ DryBulbTemperature + RelHum + AtmosphericPress , data=data2) data.data.frame(data2,fitted.value=fitted(data2.lm),residual=resid(data2.lm)) اگر بتونید کمک کنید خیلی ممنون میشم
R رگرسیون خطی چندگانه; رسم نتایج
63888
من یک توزیع احتمال گسسته ناشناخته $D$ دارم ($D$ یک تابع جرم احتمال است)، که در بازه $[a,b]$ ($a>0$) تعریف شده است و یک تخمین $\hat{D}$ از این قبیل که برای همه $t\in[a,b]$, $$(1-\varepsilon)D(t)\le\hat{D}(t)\le(1+\varepsilon)D(t)$ $ برای برخی $\varepsilon\in(0,1)$ ثابت. علاوه بر این $\hat{D}$ در واقع توزیعی در $[a,b]$ نیز است. آیا می توان چیزی در مورد اینکه چقدر شاخص پراکندگی $\hat{\sigma}^2/\hat{\mu}$ of $\hat{D}$ به خوبی به شاخص پراکندگی $\sigma^2 / \mu تقریبی می‌کند، گفت. دلار از D$؟ توجه داشته باشید که نشان دادن $(1-\varepsilon)\mu\le \hat{\mu}\le (1+\varepsilon)\mu$ آسان است، اما من در نشان دادن یک مرز برای انحراف بین واریانس $\hat{\sigma}^2$ و $\sigma^2$
شاخص پراکندگی با توزیع تقریبی
74842
رشته من CS است و یک سوال در مورد فرآیند تصمیم گیری مارکوف دارم. من در حال خواندن یک کتاب، برنامه ریزی با فرآیند تصمیم گیری مارکوف و دیدگاه هوش مصنوعی هستم. در حین مطالعه آن سوالی در رابطه با تعریف MDP و عمومیت آن دارم. زنجیره مارکوف مرتبه دوم را می توان به زنجیره مارکوف مرتبه اول تبدیل کرد. بنابراین هر فرآیند تصادفی که به تاریخچه طول محدود بستگی دارد، در نهایت می تواند زنجیره مارکوف مرتبه اول باشد. من فکر می کنم زمانی که فضای حالت گسسته و محدود را در نظر می گیریم، فرآیند تصمیم گیری مارکوف عمومی ترین فرآیند است. نمی‌دانم فرآیند تصمیم‌گیری غیرمارکویی وجود دارد یا خیر. اگر بخواهیم خط مشی بهینه یک MDP را با توجه به حداکثر مطلوبیت کل مورد انتظار (M.E.U) با استفاده از تکرار مقدار، برنامه نویسی پویا پیدا کنیم. اگر نمودار اتصال MDP غیر چرخه‌ای باشد، تکرار مقدار همانند الگوریتم یافتن کوتاه‌ترین مسیر بلمن-فورد است. من کنجکاو هستم که آیا فرآیند تصمیم گیری متفاوتی وجود دارد که با برنامه نویسی پویا قابل حل نباشد، در حالی که هنوز در حال یافتن یک خط مشی بهینه w.r.t هستیم. M.E.U؟ سوال به خودی خود گیج کننده است، اما به سادگی سوال من این است که اگر فضای حالت محدود باشد، MDP کلی ترین سوال است؟ سوال اضافی این است که چه زمانی در حال بهینه سازی w.r.t هستیم. معیارهای دیگری غیر از M.E.U، MDP را می توان با برنامه نویسی پویا حل کرد؟ امیدوارم کسی مسیرهایی را برای کشف این زمینه پیشنهاد کند. پیشاپیش ممنون
فرآیند تصمیم گیری مارکوف و کلیات آن
63882
من یک سری زمانی از داده های روزانه دارم و فرض می کنم هر نقطه در سری زمانی به طور معمول توزیع شده است. اگر من توزیعی از داده‌های روزانه داشته باشم و بخواهم آن را برای پوشش یک ماه (30 روز) مقیاس کنم، معتقدم که فقط انحراف استاندارد را با جذر 30 مقیاس می‌کنم. فکر می‌کنم این فرض می‌کند که نقاط داده به طور مستقل توزیع شده‌اند. اگر از میانگین متحرک نمایی وزنی برای محاسبه انحراف استاندارد استفاده کنم، آیا می توانم با ضرب در جذر 30، داده های روزانه را به ماهانه تبدیل کنم؟
مقیاس بندی توزیع نرمال در حین استفاده از EWMA
20907
فرض کنید که یک نفر 8 تجزیه و تحلیل همبستگی را اجرا می کند اما در دو دسته جداگانه: آیا تصحیح آلفا برای همه 8 آزمون به عنوان یک خانواده یا هر یک از 4 آزمون به عنوان یک خانواده اعمال می شود؟ به عنوان مثال، اگر دو سؤال تحقیق وجود داشته باشد و هر دو نیاز به تحلیل همبستگی داشته باشند، محقق 4 آزمون اول (برای سؤال تحقیق 1) و سپس 4 آزمون دوم (برای سؤال تحقیق 2) را انجام می دهد. در این صورت برای خانواده 4 تستی باید آلفا را اصلاح کرد یا برای خانواده 8 تستی؟ (توجه داشته باشید که در هر دو مورد از همان آزمون آماری--$r$- پیرسون استفاده می‌شود.) من می‌دانم که در این مورد اتفاق نظر وجود ندارد (همانطور که در مورد بسیاری از موارد دیگر در آمار که من سریع یاد می‌گیرم!) اما برخی دستورالعمل های گسترده بسیار مفید خواهد بود.
تصحیح آلفا در خانواده ای از تست ها
25086
بنابراین مانند این است که بگوییم 95٪ از اقلام فروخته شده در این وب سایت بین 25 تا 150 دلار قیمت دارند. در حالی که برخی از اقلام ممکن است کمتر از 25 دلار و سایر اقلام ممکن است بیش از 150 دلار قیمت داشته باشند. آیا راهی برای پیدا کردن این وجود دارد؟ آیا این چیزی مربوط به CI - فاصله اطمینان است؟
چگونه می توان حداقل محدوده (شروع/پایان) را که 95 درصد موارد در یک لیست عددی را پوشش می دهد، پیدا کرد؟
2086
من به دنبال همبستگی بین پاسخ به سؤالات مختلف در یک نظرسنجی هستم (امم، بیایید ببینیم که آیا پاسخ های سوال 11 با پاسخ های سوال 78 مرتبط است). همه پاسخ ها طبقه بندی شده اند (بیشتر آنها از بسیار ناراضی تا بسیار خوشحال هستند)، اما تعدادی از آنها مجموعه متفاوتی از پاسخ ها را دارند. بسیاری از آنها را می توان ترتیبی در نظر گرفت، بنابراین اجازه دهید این مورد را در اینجا در نظر بگیریم. از آنجایی که من به برنامه آمار تجاری دسترسی ندارم، باید از R استفاده کنم. من Rattle (یک بسته نرم افزاری رایگان داده کاوی برای R، بسیار خوب) را امتحان کردم، اما متأسفانه از داده های طبقه بندی پشتیبانی نمی کند. یکی از هک‌هایی که می‌توانم استفاده کنم این است که نسخه کد شده نظرسنجی را که دارای اعداد (1..5) به جای بسیار ناراضی ... شاد است، در R وارد کنم و اجازه بدهم راتل باور کند که آنها داده‌های عددی هستند. من به این فکر می کردم که یک نمودار پراکندگی انجام دهم و اندازه نقطه متناسب با تعداد اعداد برای هر جفت باشد. بعد از مدتی جستجو، http://www.r-statistics.com/2010/04/correlation-scatter-plot-matrix-for- ordered-categorical-data/ را پیدا کردم، اما (به نظر من) بسیار پیچیده است. من یک آمارگیر نیستم (بلکه یک برنامه نویس) اما در این مورد مطالعه داشته ام و اگر درست متوجه شده باشم، Rho_Spearman در اینجا مناسب است. بنابراین نسخه کوتاه سوال برای کسانی که عجله دارند: **آیا راهی برای طرح سریع rho اسپیرمن در R** وجود دارد؟ طرح به ماتریس اعداد ارجحیت دارد، زیرا به نظر آسان تر است و همچنین می تواند در مواد گنجانده شود. پیشاپیش از شما متشکرم. PS من مدتی فکر کردم که آیا این را در سایت اصلی SO ارسال کنم یا اینجا. پس از جستجوی هر دو سایت برای همبستگی R، احساس کردم این سایت برای این سوال مناسب تر است.
به سرعت همبستگی (بصری) بین داده های طبقه بندی شده در R را ارزیابی کنید؟
74841
یک قالب دو بار می‌چرخد، * $X_1$: حداقل مقداری که در دو رول ظاهر می‌شود * $X_2$: حداکثر مقداری که می‌خواهم $\ F_{X_1,X_2}(x_1,x_2)$ استخراج کنم. من می دانم که CDF $\ X_1 $ = $\ 1- [1-{F(x)]} ^ n $, CDF $\ X_2 $ $\ = $ $ \ [{F(x)]} ^ n $ و $\ F_{X_1,X_2}(x_1,x_2) = P(X_1<x_1|X_2<x_2)F_{X_2}(x_2) $ به نظر می رسد راه حل این باشد: $\ F_{X_1,X_2}(x_1,x_2) = 2F(\min[{x_1,x_2}]) F(x_2) - F(\min[{x_1,x_2}])^2 $ می‌خواهم بفهمم چگونه می‌توان چنین راه‌حلی را به‌دست آورد.
سی دی اف مشترک مقادیر افراطی
107599
من در تلاش برای یافتن برآوردگر بهینه برای حداکثر $\Sigma X_i$ مورد انتظار هستم که در آن $X_i$ از یک توزیع ناشناخته که حداکثر انتخاب شده است نمونه برداری می شود. برای شفاف‌سازی و ساده‌سازی، دو مجموعه داده $Y_i$ و $Z_i$ وجود دارد که از توزیع‌های pdf مشابه اما احتمالاً متفاوت $y$ و $z$ گرفته شده‌اند. من یک تخمین‌گر روی $Z_i$ و $Y_i$ می‌خواهم که پیش‌بینی کند کدام pdf در نمونه‌برداری آینده، یعنی $\Sigma X_i$، مقدار بیشتری تولید می‌کند. تعداد عناصر در هر مجموعه $N_y$ و $N_z$ توسط پیاده سازی ما انتخاب می شود، بنابراین باید تعداد عناصر را عادی سازی کنیم. یا به عبارت دیگر، ما بیشتر به میانگین $\mu = \Sigma X_i / N_x$ علاقه مندیم زیرا نمونه گیری آینده ما یک $N_x$ ثابت مستقل از انتخاب $y$ یا $z$ دارد. این منجر به روش استاندارد انتخاب بر اساس میانگین هر سناریو، $\mu$، و خطا در میانگین $\sigma_\mu$ می‌شود. چیزی که من به آن علاقه دارم این است که آیا میانگین واقعاً بهترین برآوردگر برای انتخاب سناریویی است که به بالاترین $\Sigma X_i$ مورد انتظار منتهی می شود. در یک سناریوی ساده من مطمئن هستم که پاسخ مثبت است، اما برخی از عوارض وجود دارد. هیچ مدل خوبی برای توزیع های زیربنایی که $Y_i$ یا $Z_i$ تولید می کند وجود ندارد، اما هیستوگرام هر کدام به صورت تصاعدی کاهش می یابد. از این رو وقوع چند عدد پرت با ارزش بالا که کار را پیچیده می کند. دلیل اصلی که فکر می‌کنم میانگین ممکن است بهترین نباشد، به دلیل حساسیت آن به این موارد پرت است. راه حل حذف نقاط پرت و انجام یک روش بوت استرپینگ در اینجا مورد بحث قرار می گیرد: بوت استرپینگ - آیا ابتدا باید نقاط پرت را حذف کنم؟ از این نظر من فکر می کنم واضح است که حذف موارد پرت توصیه نمی شود. علاوه بر این، تعداد عناصر، $N_y$ و $N_z$، میلیون‌ها نفر است، بنابراین CLT ادعا می‌کند که برای بدست آوردن $\sigma_\mu$ اصلاً نیازی به بوت استرپ نداریم. پیچیدگی دیگر این است که توزیع به دو صورت کوانتیزه/گسسته است. برای توضیح این موضوع اجازه می‌دهیم بهینه‌سازی برای درآمدهای آینده را در یک تست تقسیم مثال بزنیم. دو سناریو وجود دارد که منجر به دو مجموعه $Z_i$ و $Y_i$ می شود که نشان دهنده مبلغ هزینه شده برای هر مشتری است. برای نشان دادن اینکه پی دی اف های زیرین پیوسته نیستند، ابتدا باید توجه داشت که کوچکترین واحد پول یک پنی است، بنابراین محدوده هر پی دی اف اعداد صحیح است. ثانیا و مهمتر از آن، اقلامی که باید بخرید، فضا را در بر نمی گیرند. به عنوان مثال فرض کنید یک کالا وجود دارد که قیمت آن 20 دلار است اما هیچ کالای دیگری در محدوده قیمت [\$15,\$25] وجود ندارد. از آنجایی که تعداد زیادی مشتری تک خرید وجود دارد، اوج قیمت 20 دلار خواهد بود. ساده ترین انتخاب یک برآوردگر جایگزین، میانه، $\tilde{x}$ خواهد بود، زیرا حساسیت کمتری نسبت به مقادیر پرت و غیر حساس به پارامترهای مجدد دارد. با این حال، از آنجایی که بیش از 95٪ مشتریان 0 $ خرج می کنند، میانگین همیشه 0 $ خواهد بود. همچنین، مطمئن نیستم که میانه تخمین‌زن خوبی برای $\Sigma X_i$ مورد انتظار به طور کلی باشد. بنابراین سوال این است که آیا برآوردگر بهتری از میانگین $Y_i$ و $Z_i$ برای حداکثر $\Sigma X_i$ مورد انتظار وجود دارد؟ کلمه بهتر در زمینه به معنای قمار اشاره دارد که در آن بهترین شرط بهترین است.
تخمین‌گر بهتری از مجموع مورد انتظار نسبت به میانگین
35865
من علاقه مند به بررسی این موضوع هستم که چگونه ویژگی های مختلف سیستم های بازنشستگی ملی با یکدیگر مرتبط هستند. من از MCA برای مجموعه داده ای استفاده کرده ام که در آن ردیف ها کشورها و ستون ها ویژگی های مختلف سیستم های بازنشستگی هستند. با این حال، من مطمئن نیستم که چگونه فاصله بین نقاط را در طرح مشترک SPSS از نقاط دسته بندی تفسیر کنم. با استفاده از یک نرمال سازی متقارن، آیا فواصل بین نقاطی که دسته بندی متغیرهای مختلف را نشان می دهند، چیزی در مورد چگونگی ارتباط این دسته ها می گوید؟ آیا فاصله کوتاهتر به معنای سطح بالاتری از ارتباط است؟
تفسیر تجزیه و تحلیل مکاتبات چندگانه
58814
تفاوت HMM گاوسی و مخلوط گاوسی HMM (انتشار مخلوط گاوسی یا گاوسی است) چیست؟ میخوام بدونم همینطوره هنگام تخمین پارامترها با استفاده از الگوریتم Baum Welch چه فایده ای دارد؟
مخلوط گاوسی HMM
105574
مجموعه داده‌های زیر را در نظر بگیرید که هر ماه از سال 2013 را با مصرف گاز طبیعی برای گرم کردن آپارتمان و میانگین دمای مربوطه نشان می‌دهد. چگونه می توانم این سری زمانی را فصلی تنظیم/نرمال کنم؟ * * * 1 156 m³ 1,4 °C 2 199 m³ 0,3 °C 3 173 m³ 2,3 °C 4 69 m³ 9,6 °C 5 63 m³ 12,2 °C 6 9 m³ 16,9 درجه C 7 9 m³ 20,8 °C 8 9 m³ 18,5 °C 9 15 m³ 14,3 °C 10 19 m³ 11,4 °C 11 83 m³ 5,2 °C 12 62 m³ 4,2 °C * * * می خواهم توجه داشته باشم که در زمستان سردتر است و در تابستان گرمتر است و بدانید که آیا در مقایسه به انرژی بیشتر یا کمتری نیاز داشتم. (مخصوصاً از نظر مقایسه با سال 2014 به عنوان مثال) من می دانم چگونه از R استفاده کنم، اگر توضیح دادن را برای شما آسان تر می کند.
چگونه تنظیم فصلی را به یک سری زمانی انجام دهیم؟
63881
من روی SVM کار می کنم و سعی می کنم تمام مفاهیم را درگیر کنم. به عنوان مثال، نقشه برداری هسته. من می خواهم بخش هایی از الگوریتم را خودم بسازم تا بفهمم چه اتفاقی دارد می افتد. هدف من ایجاد یک نقشه مانند این تصویر است (از اینجا گرفته شده است) ![نمونه نقشه برداری 2 بعدی --> 3 بعدی](http://i.stack.imgur.com/7yM2K.png) من به طور کامل متوجه نمی شوم که مقادیر ورودی و خروجی هسته عبارتند از؛ برای نگاشت نقاط داده به بعد 3، خروجی باید مقادیر Z باشد، درست است؟ و ورودی (بردارهای) مقادیر X و Y هستند؟ کد (matlab) من برای دریافت مقادیر z این است: z = exp(-( (abs(x-y).^2)./ (2*gamma^2) )); اما z-values ​​فقط یک منحنی زنگی هستند، ما از این قبیل: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/69m6f.png) من واقعاً نمی دانم چه اشتباهی انجام می دهم ، اما فکر می کنم مفاهیم هسته و نقشه برداری (ضمنی/ صریح) را اشتباه گرفته ام. چگونه می توانم یک تابع (matlab) بسازم که داده های دوبعدی را با استفاده از تابع پایه شعاعی گاوسی به فضای سه بعدی نگاشت کند؟ -- ویرایش -- با تشکر از user27840 من آن را با کد متلب زیر کار کردم: gamma = 2; D = مربع شکل ( pdist(داده، 'اقلیدسی')); D = exp(-(D .^ 2) ./ (2*gamma^2)); z = جمع (D); این منجر به نمودار سه بعدی زیر، از داده های دو بعدی اصلی می شود: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/qQssQ.png) -- ویرایش2: -- برای کسانی که به یکی علاقه مند هستند ماشین های بردار پشتیبانی کلاس؛ من یک پست وبلاگی در مورد آن نوشتم، با استفاده از پاسخ این موضوع: مقدمه ای بر ماشین بردار پشتیبانی یک کلاس
از هسته RBF Gaussian برای نگاشت داده های دو بعدی به سه بعدی استفاده کنید
103828
صفحه Scikit Learn در مورد انتخاب مدل، استفاده از اعتبارسنجی متقابل تودرتو را ذکر می کند: > > >>> clf = GridSearchCV(estimator=svc, param_grid=dict(gamma=gammas)، > ... n_jobs=-1) > >>> cross_validation.cross_val_score(clf، X_digits، y_digits) > > > دو اعتبار متقابل حلقه ها به صورت موازی انجام می شوند: یکی توسط برآوردگر > GridSearchCV برای تنظیم گاما و دیگری توسط cross_val_score برای > اندازه گیری عملکرد پیش بینی برآوردگر. نمرات حاصل > برآوردهای بی طرفانه از امتیاز پیش بینی در داده های جدید است. با توجه به آنچه که من می‌دانم، «clf.fit» از اعتبارسنجی متقاطع برای تعیین بهترین گاما استفاده می‌کند. در این صورت، چرا باید از cv تودرتو که در بالا ذکر شد استفاده کنیم؟ یادداشت اشاره می‌کند که cv تودرتو «تخمین‌های بی‌طرفانه» امتیاز پیش‌بینی را ایجاد می‌کند. آیا در مورد «clf.fit» نیز چنین نیست؟ همچنین، من نتوانستم بهترین برآوردهای clf را از رویه «cross_validation.cross_val_score(clf، X_digits، y_digits)» دریافت کنم. لطفا راهنمایی کنید که چگونه می توان این کار را انجام داد؟
استفاده از اعتبارسنجی متقابل تو در تو
105570
من یک پایگاه داده با متغیرهای مختلف دارم که حاوی اطلاعاتی مانند سن، تاریخ واکسیناسیون، تعداد دوزها و همچنین تعداد آنتی بادی ها (که متغیر هدف من است) است. اگر تعداد آنتی‌بادی‌ها کمتر از 100 و 10 باشد، سطح آنتی‌بادی‌های بیمار کم و بر این اساس بسیار کم در نظر گرفته می‌شود. هدف من ایجاد مدلی است که با آن بتوانم بر اساس این حقایق تعیین کنم که چه زمانی بیمار باید واکسیناسیون بعدی خود را دریافت کند. تا کنون من فقط درخت های تصمیم را با استفاده از R Studio ایجاد کرده ام. دانش ریاضی من برای ارائه راه حل محدود است. چگونه می توان به این امر دست یافت؟
داده کاوی، تولید یک مدل از پایگاه داده
99170
این سوالی است که از مطالعه هاگ و کریگ مقدمه ای بر آمار ریاضی، ویرایش هفتم، صفحه 568. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/v5FWG.jpg) فرض می کنیم که یک نمونه تصادفی از $X_1,\ldots,X_{n1}$ و یک نمونه تصادفی از $Y_1،\ldots، Y_{n_2}$، $n$ نشان‌دهنده اندازه نمونه ترکیبی است، یعنی $n=n_1+n_2$ و **sgn(.)** $1$ است اگر کمیت در برکرها مثبت باشد، $0$ اگر صفر باشد و $-1$ اگر منفی باشد. همچنین متغیرها را از پایین به بالا رتبه بندی می کنیم. آیا می توانید به من کمک کنید تا بفهمم چگونه نویسندگان به این نتیجه می رسند که تفاوت در برآوردگر میانه ها آن معادله را حل می کند؟ هیچ توضیحی از طرف آنها وجود ندارد و کلمه به راحتی بیجا به نظر می رسد :) ممنون.
یک سوال در مورد یک معادله برآورد ناپارامتریک
99172
فرض کنید من مجموعه های A و B از داده های توزیع شده نرمال را دارم به طوری که: A: mean=250، SD=200، N=25 B: mean=248، SD=200، N=20 واضح است که از نظر آماری تفاوت معنی داری بین داده ها وجود ندارد. میانگین (9736/0=p). اما آیا این بدان معناست که ابزارها برابر هستند یا هیچ مدرکی برای اثبات خلاف آن نداریم؟ با توجه به انحراف استاندارد بزرگ، بعید به نظر می رسد که میانگین ها **برابر** باشند. اما این چیزی است که فرضیه صفر می گوید و بر اساس آزمون t ما آن را رد نکردیم. با داشتن چنین داده های پر سر و صدایی، چگونه می توان میزان برابری میانگین ها را کمّی کرد؟ **به روز رسانی** این سوال از بحثی بین من و یکی از همکاران که در حال آزمایش اثر دو درمان دارویی بر روی نمونه های بیولوژیکی بود، ناشی شد. از آنجایی که آزمایش تفاوت ناچیز بین درمان‌ها را نشان داد، همکارم فرض کرد که این به او اجازه می‌دهد ادعا کند که درمان‌ها اثر یکسانی دارند. با مثال بالا سعی کردم نشان دهم که لزوماً اینطور نیست. اما من اصطلاحات مناسب را برای کمی بیشتر کردن چیزها نمی دانستم. از این رو این سوال.
آیا تفاوت آماری ناچیز میانگین ها به معنای برابری میانگین هاست؟
89914
من یک مجموعه داده دارم که کاملا باینری است. مجموعه مقادیر هر متغیر در دامنه است: true، false. ویژگی ویژه این مجموعه داده این است که اکثریت قریب به اتفاق مقادیر نادرست هستند. من قبلاً از الگوریتم یادگیری شبکه بیزی برای یادگیری یک شبکه از داده ها استفاده کرده ام. با این حال، برای یکی از گره های هدف من (مهمترین آنها، مرگ است)، نتیجه AUC خیلی خوب نیست. کمی بهتر از شانس است حتی ارزش پیش‌بینی مثبت (PPV)، که در CV به من پیشنهاد شده است، با آنچه در ادبیات با رویکردهای دیگر گزارش شده است، رقابتی نبود. توجه داشته باشید که AUC (تجزیه و تحلیل ROC) معیار معمولی است که در این زمینه از تحقیقات بالینی گزارش شده است، اما در صورت وجود ایده‌های دیگری، پیشنهادهایی در مورد چگونگی محک زدن مناسب‌تر مدل طبقه‌بندی را نیز آماده می‌کنم. بنابراین، من نمی‌دانستم که چه مدل‌های طبقه‌بندی دیگری را می‌توانم برای این نوع مجموعه داده با این ویژگی (عمدتا مقادیر نادرست) امتحان کنم. * آیا کمک ماشین برداری را پشتیبانی می کند؟ تا آنجایی که من می دانم، SVM فقط با متغیرهای پیوسته به عنوان پیش بینی کننده سروکار دارد (اگرچه برای چند کلاس تطبیق داده شده است). اما متغیرهای من همه باینری هستند. * آیا یک جنگل تصادفی کمک می کند؟ * آیا رگرسیون لجستیک در اینجا اعمال می شود؟ تا آنجا که من می دانم، پیش بینی کننده ها در رگرسیون لجستیک نیز پیوسته هستند. آیا نسخه تعمیم یافته ای برای متغیرهای باینری به عنوان پیش بینی کننده وجود دارد؟ جدای از عملکرد طبقه بندی، من گمان می کنم SVM و جنگل تصادفی ممکن است به خوبی از شبکه بیزی بهتر عمل کنند، اما مشکل به چگونگی توضیح روابط در این مدل ها (به ویژه برای پزشکان) تغییر می کند.
ساخت یک مدل طبقه بندی برای داده های کاملا باینری
20904
مدل ANOVA دو طرفه را با جلوه‌های ترکیبی در نظر بگیرید: $$ Y_{i,j,k} = \underset{M_{i,j}}{\underbrace{\mu + \alpha_i + B_j + C_{i,j} }} + \epsilon_{i,j,k}، $$ با $\textbf{(1)}$: $\sum \alpha_i = 0$، عبارت‌های تصادفی $B_j$, $C_{i,j}$ و $\epsilon_{i,j,k}$ مستقل هستند, $B_j \sim_{\text{iid}} {\cal N}(0, \sigma_ \beta^2)$, $\epsilon_{i,j,k} \sim_{\text{iid}} {\cal N}(0, \sigma^2)$ ; و دو احتمال برای تعاملات تصادفی وجود دارد: $\textbf{(2a)}$ : $C_{i,j} \sim_{\text{iid}} {\cal N}(0, \sigma_\gamma^2 )$ یا $\textbf{(2b)}$ : $C_{i,j} \sim {\cal N}(0, \sigma_\gamma^2)$ برای همه $i,j$، بردارهای تصادفی $C_{(1:I)، 1}$، $C_{(1:I)، 2}$، $\ldots$، $C_{(1:I)، J}$ مستقل هستند، و $C_{\bullet j}=0$ برای همه $j$ (یعنی میانگین هر بردار تصادفی $C_{(1:I)، j}$ صفر است. مدل $\textbf{(1)}$ + $\textbf{(2a)}$ مدلی است که توسط بسته nlme/lme4 در R یا عبارت PROC MIXED در SAS درمان می شود. مدل $\textbf{(1)}$ + $\textbf{(2b)}$ مدل محدود نامیده می شود، به ویژه $M_{\bullet j} = \mu + B_j$ را برآورده می کند. به نظر شما یکی از این دو مدل «بهتر» (از این نظر) یا مناسبتر از دیگری است؟ آیا می دانید که آیا می توان فیتینگ مدل محدود را در R یا SAS انجام داد؟ با تشکر
مدل ANOVA اثرات مختلط دو طرفه
107592
هدف من تخمین تابع کمیت 2.5% و 97.5% (برای بدست آوردن فواصل مرجع) برای یک امتیاز خاص در وابستگی به سن است که با کلاسهای یک متغیر سوم جدا شده است. بنابراین ابتدا 11 دسته از cag را ساختم و برای هر یک از این دسته ها، 2 تابع کمیت را برای امتیاز ارتباط با سن (با نرم افزار R) مدل کردم. در تجزیه و تحلیل دوم، من از cag مستقیماً در مدل خود «[امتیاز ~ عامل(cag)+ سن*عامل(cag)]» استفاده کردم و همچنین 11 پلات دریافت کردم، اما آنها با 11 نمودار اول متفاوت هستند. به هر حال، من توابع نمایی را از طریق رگرسیون چندک خطی مدل کردم. با توجه به نمودارها، آنالیز اول با تابع کمیت 2.5 درصد بهتر از تحلیل دوم با داده ها مطابقت دارد. و بالعکس با تابع کمیت 97.5٪. بنابراین من گیج شده ام که کدام تحلیل را باید انجام دهم و سوال من این است: آیا می توانم تابع کمیت 2.5 درصد تحلیل اول و تابع کمیت 97.5 درصد تحلیل دوم را بگیرم؟ ممکن است آن را مخلوط کنم؟
مدل های مختلف برای توابع کمی متفاوت ممکن است؟
58815
تابع مجزای SVM این است: $wx+b=0$ فاصله تابع بردار پشتیبان تا صفحه جداگانه: $|r| = wx_i+b$ و می‌توانیم $w$ را نرمال کنیم، سپس فاصله را می‌توان به صورت زیر نوشت: $\frac{|r|}{|w|} = \frac{wx_i+b}{|w|}$ و سپس $|r|$ را در 1 تقریبی کنید. بنابراین ما باید حداکثر $\frac{1}{|w|}$ را بدست آوریم. به طور واقعی، من نفهمیدم **چرا $|r|$ را می توان با 1 تقریب زد. زیرا $|r|$ نیز شامل ضریب $w$ است.**
چرا حاشیه SVM را می توان با 1 تقریب زد؟
33437
من اغلب این جمله را دیده‌ام که جدایی‌پذیری خطی در ابعاد بالا راحت‌تر به دست می‌آید، اما دلیل آن را نمی‌دانم. آیا این یک واقعیت تجربی است؟ یک اکتشافی؟ مزخرفات آشکار؟
آیا درست است که در ابعاد بالا، جداسازی خطی داده ها آسان تر است؟
58810
به نظر شما این متغیرهای ساختگی با مقادیر وزن حاصل در تحلیل پوششی داده های BCC/VRS چه می کنند؟ به نظر می رسد که روابط 1 و -1 برنامه را به سمت برابر کردن وزن ستون های موجود هدایت می کند، اما این لزوما درست نیست. جهت های برنامه ای که محدودیت های محدب روی وزن ها را می توان گنجاند و اینکه آنها مخروطی هستند. این یک فایل نمونه است. ------------------------------------------- DMU MktSh-I Salar-I Occ$-I #Hous-I Inchs-I OtherExp-I NetCntr-Out ------------------------------------------- DMU1 1.332 1.706 1.414 1.326 0.853 3.005 1.003 DMU2 1.264 1.429 0.965 1.218 0.982 1.897 1.570 DMU3 1.544 1.496 1.363 0.803 0.703 2.283 1.415 DMU4 0.926 1.861 2.333 1.965 1.965 0.751d 0.7596 0.733 0.937 0.581 1.583 0.579 0.833 0.566 CasaLind 1.247 1.017 0.563 1.881 0.795 0.962 1.706 1.706 JoseyLn 0.6750.670. 0.972 0.523 0.500 . . DMU32 1.073 0.603 0.499 0.765 1.636 0.656 0.758 Dummy01 -0.950 0.050 0.050 0.050 0.050 0.050 0.000 - 0.000 0.000 0.000 - 0.000 Dummy 0.000 0.000 0.000 0.000 Dummy03 0.000 1.000 0.000 0.000 0.000 -1.00 0.000 Dummy04 0.050 0.050 0.050 0.050 0.050 -0.9 Dummy05 0.050 0.050 0.050 0.050 -0.95 0.050 0.000 Dummy06 0.000 1.000 0.000 0.000 -1.00 0.000 0.000 0.000 نتیجه من فقط برای اجرای 0.000 سطح Wynnewd: 1 وضعیت: رتبه کارایی کارآمد: 1 ضریب ارزش مجموعه مرجع Value Slack NetCntrb(O) 0.077685 MktShare(I) 0.04682 حقوق و دستمزد (I) 0.070701 Occupan$(I) 0.020I (I) 0.0_70. Inc/Hous(I) 1.1268 OtherExp(I) 0.04682 ----------------------------------- نتایج خلاصه برای سطح CasaLind: 1 وضعیت: رتبه کارایی کارآمد: 1 ضریب ارزش مجموعه مرجع ارزش Slack NetCntrb(O) 0.17643 MktShare(I) 0.020472 حقوق (I) 0.020472 Occupan$(I) 0.069489 #_Houses(I) 0.020472 Inc/Hous(I) 1.3244 OtherExp(I)4720. ---------------------------------------------- نتایج خلاصه برای JoseyLn سطح: 1 وضعیت: رتبه کارایی ناکارآمد: 0.84999 ضریب مقدار مجموعه مرجع ارزش Slack OakCliff 0.33882 NetCntrb(O) 1.3178e-017 FarmBrch 0.57486 MktShare(I) 0.028515 Plsntgrv 0.086311 حقوق و دستمزد (I) 0.059021 Occupan$(I) 0.31351 #_خانه ها (Houses) (I) (I) 79 I 0.15003 متغیرهای مشاهده‌شده ایده‌آل NetCntrb(O) 0.5 1.3737 MktShare(I) 0.823 0.67496 حقوق (I) 0.675 0.52583 Occupan$(I) 0.435 (0.39I 0.39 I) 0.60187 Inc. NetCntrb(O) 0.074264 MktShare(I) 0.049537 حقوق و دستمزد (I) 0.049537 Occupan$(I) 0.079083 #_Houses(I) 0.049537 Inc/Hous(I) همچنین 1.104Ps (I) 1.104 (I) سایر انعام متغیرهای غیر اختیاری به عنوان مقوله/ ساختگی؟
متغیر ساختگی به عنوان محدودیت جانبی در DEA
58817
من سعی می کنم بهترین راه را برای تجسم داده های زیر پیدا کنم: من مقادیری برای 3 زمان/تاریخ مختلف دارم، هر زمان/تاریخ 20 گونه مشابه دارد. برای هر گونه من میانگین ارتفاع و انحراف معیار را دارم (که از n مشاهده به دست آمد). من مشاهداتی را ندارم که میانگین و انحراف معیار از کجا به دست آمده است. داده ها اینگونه به نظر می رسند. گونه ها از 1 تا 20 شماره گذاری می شوند. t1 = cbind(seq(1,20,1),runif(20,0.5,5.0),runif(20,0,1.0)) t2 = cbind(seq(1,20,1) ),runif(20,0.9,6.0),runif(20,0.2,1.5)) t3 = CBIND (SEQ (1،20،1) ، Runif (20،0.1،8.5) ، Runif (20،0.4،1.0)) آیا کسی می تواند مشاوره ای در مورد بهترین نقشه/گرافیک برای استفاده ارائه دهد؟ من می‌خواهم تکامل میانگین و انحراف معیار را در زمان نشان دهم، اما نمی‌خواهم نمودار خطی انجام دهم و برای یک نقشه حرارتی یک مجموعه داده کوچک دارم.
تجسم داده ها از میانگین و انحراف استاندارد در یک سری زمانی کوچک
108912
من ماتریس همبستگی بزرگی در اکسل دارم که می‌خواهم از آن برای اطلاع از انتخاب متغیرهای توضیحی در یک مدل رگرسیون خطی چندگانه استفاده کنم. یک مشکل این است که داده های اولیه بسیار پراکنده بودند و برخی از ستون ها به طور قابل توجهی صفرهای بیشتری نسبت به بقیه داشتند. چگونه می توانم متغیرهایی را با کمترین همبستگی انتخاب کنم بدون اینکه در دام انتخاب متغیرهایی که کمترین همبستگی زوجی را دارند صرفاً به این دلیل که هر دو بسیار پراکنده بودند بیفتم؟
استفاده از یک ماتریس همبستگی مشتق شده از یک ماتریس پراکنده
89917
من یک ماتریس فاصله برای برخی از داده‌هایی که می‌خواهم خوشه‌بندی کنم، دارم. با این حال، من فقط نمی‌خواهم عناصر را به خوشه‌ها اختصاص دهم، بلکه می‌خواهم احتمال تعلق هر عنصر به هر خوشه را نیز تعیین کنم. آیا می توانید نمونه هایی از الگوریتم های خوشه بندی که می توانند این کار را انجام دهند به من بدهید؟ آیا، برای مثال، یک الگوریتم خوشه‌بندی سلسله مراتبی وجود دارد که برای هر عنصر، احتمال تعلق به هر خوشه را برمی‌گرداند؟
الگوریتم های خوشه بندی که مقادیر احتمال را تخصیص می دهند
107591
من داده های دو متغیر تصادفی X و Y (هر کدام به اندازه n x 1) و pdf مشترک آنها (تابع چگالی احتمال) (با اندازه m x m که در آن m برابر با n نیست) دارم. چگونه می توانم عملکرد مولد ممان مشترک آنها (MGF) را ارزیابی کنم؟ نکته مهم این است که من نوع متغیرهای تصادفی را نمی دانم. با تشکر
محاسبه تابع تولید ممان مشترک
99173
من چند روزی است که در حال انجام آزمایشات هستم و از خودم می پرسم که چرا اینقدر طول می کشد. بنابراین تنظیمات اینجاست: من از Weka api استفاده می کنم و کدی را در جاوا نوشته ام که فرآیند طبقه بندی را خودکار می کند. من مجموعه داده ای متشکل از 17553 نمونه دارم که حاوی برخی برچسب ها است. برای 100 برچسب پرتکرار، من می خواهم یک طبقه بندی کننده باینری آموزش دهم و الگوریتم خود را با اعتبار سنجی متقاطع 5 برابری آزمایش کنم. همه اینها بر روی یک لپ تاپ دل با دو هسته سانترینو با آخرین نسخه اوبونتو 14.04 LTS و در مجموع 4 گیگابایت رم اجرا می شود. تقریباً 40-45 دقیقه طول می کشد تا نتایج یک برچسب به دست آید. لپ تاپ الان بیش از 2 روز است که کار می کند و من حتی هنوز همه نتایج را ندارم. و همچنین، من در حال آموزش طبقه بندی کننده SMO موجود در WEKA با پارامترهای پیش فرض آن هستم. فقط میخواستم بدونم این طبیعیه؟ FYI قبل از شروع به اجرای اعتبار سنجی متقاطع 5 برابری، من یک فایل ARFF. حاوی داده ها ساخته ام و آن را با BufferedReader خوانده ام. با این حال، این کار باید فقط یک بار در ابتدای شروع برنامه انجام شود. و همچنین، من یک طبقه بندی کننده SMO را همانطور که در WEKA یافت می شود با پارامترهای پیش فرض آن آموزش می دهم.
چرا اعتبار سنجی متقاطع 5 برابری برای 100 طبقه بندی کننده باینری در WEKA اینقدر طول می کشد
107597
برای رگرسیون خطی ساده، ضریب رگرسیون مستقیماً از ماتریس واریانس-کوواریانس $C$، با $$ C_{d، e}\over C_{e,e} $$ قابل محاسبه است که در آن $d$ شاخص متغیر وابسته است، و $e$ شاخص متغیر توضیحی است. اگر فقط ماتریس کوواریانس داشته باشیم، آیا می توان ضرایب مدلی با متغیرهای توضیحی متعدد را محاسبه کرد؟ ETA: برای دو متغیر توضیحی، به نظر می رسد که $$\beta_1 = \frac{Cov(y,x_1)var(x_2) - Cov(y,x_2)Cov(x_1,x_2)}{var(x_1)var(x_2 ) - Cov(x_1,x_2)^2} $$ و به طور مشابه برای $\beta_2$. من بلافاصله نمی بینم که چگونه می توان این را به سه یا چند متغیر گسترش داد.
آیا راهی برای استفاده از ماتریس کوواریانس برای یافتن ضرایب رگرسیون چندگانه وجود دارد؟
58811
1. کدام یک مدل رگرسیون خطی نیست؟ لطفا 1-2 جمله توضیح مختصری به انتخاب خود بدهید. (الف) $y_i = β_0 +\exp(β_1x_i)+E_i، i = 1، 2، \ldots، n$ (ب) $y_i = β_0 + β_1x_i + β_2 x_{ii} + E_i، i = 1، 2 , \ldots, n$ (c) $y_i =β_0\exp(x_i)+β_2x_i^7 +E_i، i=1، 2،\ldots، n$ 2. فرض کنید $X$ و $Y$ دارای ضریب همبستگی خطی $r = 0.5$ هستند و 77 مشاهده وجود دارد. ، آمار آزمون برای آزمون فرضیه چیست $$H0:β_1=0 \quad\text{در مقابل}\quad Ha:β_1\neq0 $$ که $β_1$ از مدل رگرسیون خطی ساده زیر می آید؟ لطفا 1-2 جمله توضیح مختصری به انتخاب خود بدهید. $\quad Y = β_0 + β_1X + E$ (a). اطلاعات کافی نیست (ب). 5 (ج). 0.25 3. کدام مدل ممکن است $R^2$ کوچکتر داشته باشد؟ لطفا 1-2 جمله توضیح مختصری به انتخاب خود بدهید. A: $Y=β_0+β_1X_1+E$ B: $Y=β_0^*+β_1^*X_1+β_2^*X_2+E^*$ که در آن $Y$ و $X_1$ در مدل A و B یکسان هستند . (الف). اطلاعات کافی نیست (ب). مدل A (c). مدل B
انتخاب چندگانه در رگرسیون خطی
33433
اگر بهترین تقریب خطی (با استفاده از حداقل مربعات) از نقاط داده من خط $y=mx+b$ باشد، چگونه می توانم خطای تقریب را محاسبه کنم؟ اگر من انحراف معیار تفاوت بین مشاهدات و پیش بینی ها را محاسبه کنم $e_i=real(x_i)-(mx_i+b)$، آیا می توانم بعداً بگویم که یک مقدار واقعی (اما مشاهده نشده) $y_r=real(x_0)$ متعلق به فاصله $[y_p-\sigma، y_p+\sigma]$ ($y_p=mx_0+b$) با احتمال ~68% با فرض توزیع نرمال؟ برای روشن شدن: من مشاهداتی در رابطه با تابع $f(x)$ با ارزیابی آن در برخی از نقاط $x_i$ انجام دادم. من این مشاهدات را در یک خط $l(x)=mx+b$ قرار دادم. برای $x_0$ که من مشاهده نکردم، می خواهم بدانم که $f(x_0)-l(x_0)$ چقدر می تواند بزرگ باشد. با استفاده از روش بالا، آیا درست است که بگوییم $f(x_0) \in [l(x_0)-\sigma, l(x_0)+\sigma]$ با prob. ~68 درصد؟
فاصله پیش بینی رگرسیون خطی
108911
من همین الان داشتم این مقاله در مورد عامل بیز را برای یک مشکل کاملا نامرتبط می خواندم که به طور تصادفی به این قسمت برخوردم. فرضیه صفر، شامل عدم قطعیت مدل، > می‌شود و به مدل‌های غیر تودرتو اجازه مقایسه می‌دهد (البته مدل باید متغیر وابسته یکسانی داشته باشد). **همچنین، آزمون‌های اهمیت مکرر گرا > به نفع رد فرضیه صفر با حجم نمونه به اندازه کافی > مغرضانه می‌شوند.** [تاکید شده است] من قبلاً این ادعا را در مقاله کارل فریستون در سال 2012 در NeuroImage دیده‌ام، جایی که او آن را _اشتباه استنتاج کلاسیک_. من در یافتن یک گزارش آموزشی واقعاً در مورد اینکه چرا این باید درست باشد، کمی مشکل داشتم. به طور خاص، من تعجب می کنم: 1. چرا این اتفاق می افتد 2. چگونه می توان در برابر آن محافظت کرد 3. شکست آن، چگونه آن را تشخیص داد.
چرا آزمون فرضیه های مکرر نسبت به رد فرضیه صفر با نمونه های به اندازه کافی بزرگ سوگیری می کند؟
30168
من یک تجزیه و تحلیل همبستگی متعارف را روی حدود 845 مورد با 1000 متغیر اجرا کردم. (در ابتدا با 1000 مورد و 400 متغیر شروع شد، اما با استفاده از یک هسته، یک ماتریس 1000x1000 دریافت کردم) در نتیجه من مقادیر ویژه بسیار نزدیک به 1 را دریافت کردم (به عنوان مثال بالاترین: 0.9999987616532545)، سپس یک زوج با E-- وجود داشتند. پنج با 0 و تعدادی منفی. من به خصوص نزدیک به 1000 1 را کاملاً عجیب می دانم یا این نتیجه ممکن است/منطقی است؟ من کاملاً به نتایجی که انتظارش را داشتم نرسیدم، بنابراین فکر می‌کردم که آیا همه این تقریباً 1ها می‌توانند علت باشند و آیا کسی ایده‌ای دارد که چه چیزی ممکن است باعث آن‌ها شده باشد؟ من از EigenDecomposition از Commons Math 3.0 (http://commons.apache.org/math/apidocs/index.html) استفاده می کنم. من قبلاً چند ماتریس دیگر را نیز امتحان کردم و سپس با خطای MaxCountExceededException: وضعیت غیر قانونی: همگرایی ناموفق مواجه شدم. مطمئن نیستم که ربطی به آن داشته باشد، اما فکر کردم آن را اضافه کنم.
مقادیر ویژه تقریباً همه 1 در تجزیه و تحلیل همبستگی متعارف
99171
خواندم که فاصله اقلیدسی در ابعاد بالا فاصله خوبی نیست. حدس می‌زنم این بیانیه ربطی به نفرین ابعاد دارد، اما دقیقاً چه؟ علاوه بر این، ابعاد بالا چیست؟ من خوشه بندی سلسله مراتبی را با استفاده از فاصله اقلیدسی با 100 ویژگی اعمال کرده ام. استفاده از این معیار تا چند ویژگی ایمن است؟
چرا فاصله اقلیدسی معیار خوبی در ابعاد بالا نیست؟
32616
در داده‌های من، برخی از افراد داده‌های گمشده‌ای در مورد پیش‌بینی‌کننده مرکزی دارند (پدر ارزیابی دریافت را از دست داده است). مقایسه میانگین‌های DV برای کسانی که پیش‌بینی‌کننده گمشده/غیر از دست رفته دارند، اثرات قابل‌توجهی داشت. اکنون می‌خواهم بفهمم که آیا کمبودهای سیستماتیک ممکن است باعث شده باشد که اندازه ضرایب رگرسیون OLS را دست کم بگیرم. راه خوبی برای انجام این کار چیست؟ صرفاً مقایسه واریانس های DV در گروه بدون از دست دادن با گروهی که از دست رفته آسان است؟ اما از نظر مفهومی می‌خواهم بدانم که آیا کل نمونه تغییرپذیری قابل‌توجهی کمتری دارد وقتی که گروه را با کمبودها (و به طور قابل‌توجهی کمتر از میانگین امتیازات) خارج می‌کنم، نه اینکه آیا دو گروه (با کمبود و بدون از دست دادن) واریانس‌های متفاوتی دارند یا خیر. . همه چیزهایی که تا به حال پیدا کردم در مورد نمونه های مستقل بود، نه در مورد زیر مجموعه ها. همچنین، فقط برای اینکه سرعتم را بالا ببرم: ناهمگونی معمولاً در زمینه واریانس باقیمانده استفاده می شود، درست است؟ چه اصطلاح خوبی برای واریانس محدود است که به من شانس بهتری در گوگل بدهد؟
چگونه می توانم تنوع کمتر ناشی از فقدان سیستماتیک را آزمایش کنم؟
107621
من دو رگرسیون خطی تک متغیره را در یک نمونه اجرا می کنم (موضوع مشابه، دو شرایط مختلف). اکنون می خواهم بدانم چگونه ضرایب رگرسیون را با هم مقایسه کنم تا بفهمم که آیا تفاوت قابل توجهی دارند یا خیر. تمام روش هایی که من پیدا کردم در موردی با دو نمونه مستقل متفاوت اعمال می شود. چگونه این کار را در SPSS انجام دهم؟
ضرایب رگرسیون را در یک نمونه مقایسه کنید
15627
من در راهنمای اقتصادسنجی می خواندم که با توجه به $Y = X \beta + \epsilon$، ماتریس کوواریانس واریانس $\beta^\text{OLS}$ توسط $\sigma^2 (X' X) ارائه شده است. )^{-1}$ که در آن $\sigma^2$ واریانس عبارت خطا است... سپس می گوید که در مورد یک رگرسیور منفرد $y = \beta_1 + \beta_2 x$، که این به $\sigma^2 / \sum(x-\bar{x})^2$ ساده می‌شود. من کاملاً این را نمی بینم. آیا ماتریس $X$ در این مورد هنوز یک ماتریس دو در دو نیست؟ یعنی: $$ X = \left( \begin{array}{cc} 1 & x_1 \\\ 1 & x_2 \end{array} \right) $$ چگونه چیزی شبیه $\sum (x-\bar) بدست می آوریم {x})^2$؟
چرا برآوردگر OLS برای مورد رگرسیون واحد به صورت زیر ساده می شود؟
74845
من یک داده زیان ناشی از ریسک عملیات برای یک بانک خاص دارم. روش استاندارد برای رسیدن به شارژ سرمایه w.r.t. ریسک عملیاتی نیاز دارد که من مقداری توزیع مستمر را با این داده های زیان تطبیق دهم. به طور معمول، من می توانم برخی از توزیع های استاندارد را جا بدهم. هنگامی که توزیع شناسایی شد، از همان توزیع برای شبیه سازی مقادیر زیان آتی استفاده می شود. سوال من این است که با فرض اینکه داده‌ها به گونه‌ای هستند که من نمی‌توانم هیچ توزیع آماری را تطبیق دهم، چگونه با داده‌ها برای شبیه‌سازی مقادیر تلفات رفتار کنم. آیا **روش ناپارامتریک** برای مقابله با چنین شرایطی وجود دارد؟ لطفا یه راهنمایی به من بدید
برازش توزیع به یک داده داده شده
24022
SPSS از آزمون Levene برای ارزیابی همگنی واریانس ها در روش آزمون t گروهی مستقل استفاده می کند. چرا آزمون لوین بهتر از نسبت F ساده نسبت واریانس دو گروه است؟
چرا تست لوین برابری واریانس ها به جای نسبت F؟
58818
بخشی از پایان نامه من تلاش می کند تا حدی را بررسی کند که دانش آموزان نمره آزمون در موضوع مدارهای الکتریکی در فیزیک را می توان از طریق چگونگی جالب بودن موضوع، لذت بردن آنها از موضوع، و درک آنها پیش بینی کرد. از اینکه موضوع چقدر دشوار است. من قصد دارم از تحلیل رگرسیون چندگانه خطی برای انجام این کار استفاده کنم، جایی که نمره آزمون متغیر مستقل من خواهد بود و پیش بینی کننده ها لذت دانش آموز، درک دانش آموزان از دشواری و چگونگی جالب بودن موضوع توسط دانش آموز خواهد بود. من فکر می کنم نمره آزمون دانش آموز یک متغیر ادامه دارد. با این حال، پیش‌بینی‌کننده‌های مشکوک بدین ترتیب به دست آمدند: 1. کار با مدارهای الکتریکی در فیزیک جالب نیست کاملاً موافق[ ] موافق[ ] تصمیم نگرفتم[] مخالف[ ] کاملاً مخالف [] 2. کار با مدارهای الکتریکی در فیزیک دشوار نیست کاملاً موافقم[ ] موافق[ ] بلاتکلیف[ ] مخالف[ ] کاملاً مخالف[ ] 3. من از کار عملی مربوط به مدارهای الکتریکی در فیزیک لذت نمی برم کاملاً موافق[ ] موافق[ ] تصمیم نگرفته[ ] مخالف[ ] کاملاً مخالف[ ] این مقادیر به گزینه ها داده می شود: کاملاً موافقم ---- 1 موافق - ------------ 2 بلاتکلیف --------- 3 مخالف ---------- 4 کاملاً مخالف - 5 حالا چون این یک مقیاس ترتیبی است، آیا استفاده از تحلیل رگرسیون چندگانه خطی مناسب است؟
آیا می توان از متغیرهای ترتیبی به عنوان پیش بینی کننده برای تحلیل رگرسیون چندگانه خطی استفاده کرد؟
24023
هنگام انجام آزمون t زوجی، آیا استفاده از مقدار t زوجی برای محاسبه $\eta^2$ مناسب است؟ من می پرسم زیرا محاسبه d کوهن بر اساس مقدار t زوج مناسب نیست. با تشکر
$\eta^2$ و آزمون های t زوجی
78028
فرض کنید تعدادی سری اندازه گیری با واریانس های کاملاً متفاوت دارید، به عنوان مثال به شکل زیر نگاه کنید. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/sxuOB.png) مشکل اینجاست که تفاوت‌های بین a، b و d به سختی قابل تشخیص هستند، زیرا مقیاس y نسبتاً بزرگ است، به دلیل اندازه گیری اول (اینها خطاهای اندازه گیری نیستند، کاملاً ضروری هستند و نمی توان آنها را نادیده گرفت). زیباترین روش برای رسم داده ها بدون از دست دادن اطلاعات زیاد چیست؟ دو احتمال به ذهن من می رسد: الف) اندازه گیری اول را کنار گذاشته و در غیر این صورت آن را ارائه کنید (مثلاً در متن یا به عنوان جدول). ب) مقیاس y را نمایی (معکوس log) کنید. با این حال، این بسیار غیر معمول است (چگونه این کار را با R انجام می دهید؟). چه چیزی را پیشنهاد می کنید؟
داده ها را با تفاوت های کوچک اما مقیاس های بزرگ ترسیم کنید
78020
من یک مدل خطی را در R با متغیرهای زیادی برازش می‌کنم: `lm(Y~X1+X2+...+X100)` می‌خواهم همه تعاملات زوجی را نیز بررسی کنم. نوشتن «X1*X2*...*X100» خوب نیست زیرا مدل کامل را بررسی می‌کند (بیش از دوتایی). نوشتن همه جفت ها به صراحت آزاردهنده است (100 روی 2). آیا راهی برای انجام این کار در R وجود دارد؟
چگونه می توان تعامل همه جفت متغیرها را در رگرسیون خطی در R بررسی کرد؟
76355
من می‌خواهم مدلی را آموزش دهم اما تعداد نمونه‌های دسته‌ها بسیار متفاوت است. 50% دیگر به عنوان مجموعه تست، این واقعیت که من نمونه های بسیار کمی برای دسته 1 و 3 دارم، بر مدل من تأثیر می گذارد؟
یک مدل را با تعداد نمونه های مختلف در هر دسته آموزش دهید
107628
من یک تست t زوجی نوشته ام و به دنبال چند تست واحد استاندارد هستم که بتوانم از صحت کدم مطمئن شوم. آیا چنین آزمایشاتی وجود دارد؟ چگونه R از تست واحد برای ()t.test خود مراقبت می کند؟
از کجا می توانم تست های واحد را برای ارزیابی آزمون تی دانشجویی خود پیدا کنم؟
18413
من نمونه‌ای از جمعیتی دارم که می‌دانم دارای شیب بسیار مثبت است، اگرچه چیز دیگری در مورد جمعیت نمی‌دانم. نمونه من یک انحراف مشابه را نشان می دهد. حجم نمونه 120 است. آیا تبدیل (Box-Cox) نمونه من به نرمال بودن برای انجام تست های پارامتریک ساده مانند میانگین با فاصله اطمینان اشتباه است؟ آیا باید فقط به میانه ها پایبند باشم؟
چولگی نمونه در یک جمعیت اریب شناخته شده
113844
من همان داده ها را دارم و می خواهم مدلی برای آن انتخاب کنم. برای شروع، من یک توزیع نمایی و یک توزیع گاما را جا دادم. حالا می خواستم یک تست نسبت احتمال ساده انجام دهم. با این حال، به من گفته شده است که برای انجام درست این کار، دو مدل باید تو در تو باشند (که هستند) و فضای پارامتر یکی باید در داخل دیگری باشد، نه در مرز. این شرط دوم متأسفانه به نظر نمی رسد. چه کاری می توانم انجام دهم؟
نحوه انتخاب بین توزیع نمایی و گاما
24021
در آمار بیسبال، آماری به نام شانس وجود دارد که تفاوت بین رکورد برد - باخت یک تیم و رکورد برد - باخت فیثاغورثی آنها است. این آمار قرار است اندازه گیری کند که یک تیم چقدر خوش شانس یا بدشانس بوده است که هر چند بازی در یک فصل انجام داده است. فرض کنید یک مجموعه داده بزرگی دارد که برای هر سال n شامل 1. درصد برنده شدن تیم $P(n)$ 2. درصد برد تیم در سال قبل $P(n-1)$ 3. شانس تیم در سال قبل $ L(n-1)$ و می خواهد یک مدل رگرسیون خطی با استفاده از $P(n-1)$ و $L(n-1)$ برای تخمین $P(n)$ ایجاد کند. هیچ رابطه آشکاری بین $L(n-1)$ و $P(n)$ وجود ندارد، اما به نظر می رسد که می توانیم از $L(n-1)$ همراه با $P(n-1)$ برای بهتر شدن استفاده کنیم. پیش‌بینی $P(n)$ بر اساس اینکه چگونه $P(n-1)$ فوکی بود و به چه شکلی بود. بنابراین، سوال این است که چگونه می‌توان معیاری از نوع شانس را در یک مدل رگرسیون خطی که من در مورد آن بحث کردم، ادغام کرد؟ من نگران این سنجه خاص از نوع شانس نیستم، بلکه نگران هر معیاری هستم که کاری شبیه به آنچه که قرار است انجام دهد انجام دهد.
چگونه می توان شانس را در یک رگرسیون چند خطی معنا کرد؟
99139
من شش متغیر برای اندازه گیری امکانات هتل ها توسط گروهی از مدیران دارم. در پایان، من می‌خواهم میانگین امتیازات را برای این شش متغیر مقایسه کنم تا مشخص شود کدام تسهیلات واقعاً در صنعت هتلداری مورد علاقه است. آیا می توانم از ANOVA اندازه گیری های مکرر یک طرفه استفاده کنم تا بررسی کنم که آیا تفاوت های آماری بین میانگین امتیازات این متغیرها وجود دارد یا خیر؟
استفاده از ANOVA اندازه گیری های مکرر برای ارزیابی امکانات در صنعت هتلداری
15626
می دانم که می توانم یک مجموعه داده را بر اساس عوامل اجتماعی-جمعیتی مانند جنسیت، سن، سطح درآمد و غیره تقسیم کنم و پاسخ ها را برای هر مجموعه به طور جداگانه تجزیه و تحلیل کنم و سپس نتایج را مقایسه کنم. به عنوان مثال، من رابطه بین متغیر A (ساعت مطالعه) و متغیر B (نمرات امتحان) را آزمایش می کنم و مجموعه داده ای از 400 دانش آموز دارم. من مجموعه داده را بر اساس جنسیت تقسیم کرده ام و 220 دانش آموز پسر و 180 دانش آموز دختر دارم. من می توانم همبستگی پیرسون را بر روی ساعات مطالعه و نمره امتحان به طور جداگانه برای دانش آموزان پسر و برای دانش آموزان دختر اجرا کنم. در حالی که موارد فوق کاملاً واضح است، مشکل من در تقسیم مجموعه داده هایم بر عاملی است که یک عامل اجتماعی-اقتصادی نیست. من می‌خواهم مجموعه داده‌های خود را به دو مکان به صورت زیر تقسیم کنم: * مدرسه (ساعت مطالعه در مقابل نمرات امتحان) * خانه (ساعت مطالعه در مقابل نمرات امتحان) برای این کار، یک عبارت ساده را در پرسشنامه خود گنجانده‌ام که می‌پرسید «کجا آیا عموماً بیشتر تکالیف خود را انجام می دهید؟». پاسخ یا خانه (با کد 1) یا مدرسه (با کد 2) است. این یک عبارت اجباری است و من عمداً این کدگذاری اسمی را انجام داده ام تا از ارتباط آن با دو متغیری که آزمایش می کنم اجتناب کنم. در ذهن من (که خیلی آماری نیست!)، این عبارت مانند عوامل اجتماعی-دموگرافیک در بالا عمل می کند، یعنی ثابت است، زیرا من عمداً آن را به این صورت رمزگذاری کرده ام. در پایان روز، و بسته به یافته هایم، می خواهم چیزی مانند رابطه بین ساعات مطالعه و نمره امتحان برای دانش آموزانی که تکالیف خود را در مدرسه انجام می دهند قوی تر است بگویم. آیا این یک رویکرد مخاطره آمیز است؟
تقسیم بندی یک مجموعه داده