_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
92963
|
دو تا سوال دارم 1) اگر $X_1,X_2,X_3,...,X_n$ یک نمونه تصادفی با اندازه $n$ از یک توزیع نمایی را تشکیل می دهند، نشان دهید که $\bar X$ برآوردگر ثابت پارامتر $\lambda$ است. این تلاش من است: میانگین توزیع نمایی $\lambda^{-1}$ است. بنابراین با قضیه حد مرکزی $E(\bar X)=\lambda^{-1}$. با استفاده از همسانی مربعی متوسط، اگر $\lim_{n\to \infty} E[(\bar X -\lambda )^2]=0$، $\bar X $ برای $\lambda$ سازگار است. از آنجایی که $$ E[(\bar X -\lambda )^2]= E[(\bar X)^2]+E(\lambda)^2-2\lambda E(\bar X)، $$ دریافت می کنم $$ \lim_{n\to \infty} E[(\bar X -\lambda )^2] = \lim_{n\to \infty} {2 \over \lambda ^2 }+\lambda^2-2 . $$ واضح است که این برابر با $0 نیست. چگونه می توانم نشان دهم که این سازگار است؟ من سعی کردم از نابرابری Chebechev نیز استفاده کنم. اما حتی با استفاده از آن هم نتوانستم. 2) آیا $X_{(n)}$ یک تخمینگر ثابت برای $\lambda$ است؟ اگر $P[|X_{(n)}-\lambda|<\epsilon]$ به $1$ نزدیک شود، زیرا $n$ برای همه $\epsilon > 0$ به بی نهایت میرود، آنگاه $X_n$ یک تخمینگر ثابت برای $\lambda است. $. تابع چگالی احتمال $X_{(n)}$ است $f_n(x) = n \lambda e^{-\lambda x}(1-e^{-\lambda x})^{n-1}$ ، برای $X>0$. بنابراین \begin{align*} P[|X_{(n)}-\lambda|<\epsilon] &= P[\lambda -\epsilon<X_{n}<\lambda+\epsilon] \\ &=P[ 0<X_{n}<\lambda+\epsilon] \\ &=\int_0^{\lambda+\epsilon} n \lambda e^{-\lambda x}(1-e^{-\lambda x})^{n-1}\\ &= (1-e^{- \lambda X_{(n)} })، \end{align*} جایی که $ X{(n)}$ مقادیر $[0 , \lambda+ \epsilon]$ را می گیرد. بنابراین، آیا می توانم $\lim_{n\to \infty}[1-e^{-\lambda(\lambda+\epsilon)}]^n=1$ را بگویم؟
|
سازگاری یک آمار نظم در توزیع نمایی
|
114725
|
اگر به استفاده از پارامترهای مدل GLM برای پیشبینی هر چیزی اهمیتی نمیدهید، بلکه میخواهید بهترین مدل را برای دادههای خود انتخاب کنید، آیا لازم است وارد بحث نظری شوید که از کدام تابع پیوند استفاده کنید؟ آیا درست است که به سادگی تابع پیوندی را انتخاب کنید که کمترین انحراف را به شما می دهد؟ به طور خاص، من یک GLMM معمولی را اجرا میکنم، و دریافتهام که عملکرد پیوند لجستیک در برنامه نرمافزاری به نام SuperMix بهترین تناسب را با دادههای من دارد.
|
انتخاب یک تابع پیوند برای GLM
|
52911
|
اساساً، من مقداری داده کمکی X و یک متغیر وابسته Y دارم که از نسبت های نمونه ای تشکیل شده است که پاسخ خاصی را نشان می دهد (یعنی بین 0 و 1). من گمان می کنم که می خواهم از طریق یک رویکرد GLM ادامه دهم، اما مسئله این است که اندازه هر یک از آن نمونه ها را نمی دانم! فکر من این است که با یک روش شبه دوجملهای، پارامتر پراکندگی را تخمین بزنم. با فرض اینکه اندازههای هر نمونه خیلی متفاوت نیست، بنابراین میتوانم پیوند لاجیت بین پیشبینیکننده خطی و نسبت را حفظ کنم، اما سهم «n» در واریانس دوجملهای معمول «np(1-p)» را نادیده بگیرم. سپس می توانم آزمون فرضیه را به روش معمول انجام دهم؟ آیا این معنی دارد؟ برخی از کدهای R: #شبیه سازی برخی داده ها X = rnorm(500) Z = rnorm(500) p = exp(X*0.1 + 2)/(1+exp(X*0.1 + 2)) n = 50 Y = NULL برای (i در 1:طول (X)){ Y = c(Y، جمع(runif(n) < p[i])/n) } Y2 = cbind(Y*n، n-Y*n) #glm، مدل دوجمله ای درست است؟ خلاصه (glm(Y~X+Z، خانواده = شبه دوجمله ای)) خلاصه (glm(Y2~X+Z، خانواده = دوجمله ای)) anova(glm(Y~X+Z، خانواده = شبه باینومیال) , test = Chisq) anova(glm(Y2~X+Z، خانواده = دو جمله ای)، test= Chisq) به نظر می رسد کار می کند، اما آیا من هستم از دست دادن چیزی؟ مطمئناً کسی قبلاً چنین کاری انجام داده است؟
|
GLM دو جمله ای با مجموع مجهول؟
|
24978
|
از پاسخی که در سوال قبلی داده شد، من به دنبال دنباله هالتون هدایت شدم، برای ایجاد مجموعه ای از بردارها که فضای نمونه یکنواخت را به طور نسبتاً یکنواخت پوشش می دهند. اما صفحه ویکیپدیا اشاره میکند که اعداد اول بهویژه در اوایل این سری معمولاً همبستگی بالایی دارند. به نظر می رسد این مورد برای هر جفت اعداد اول بالا با اندازه نمونه نسبتاً کوتاه باشد - و حتی زمانی که متغیرها همبستگی ندارند، فضای نمونه به طور یکنواخت نمونه برداری نمی شود، بلکه نوارهای مورب با چگالی نمونه بالا در سراسر فضا وجود دارد. . از آنجایی که من از بردارهایی با طول 6 یا بیشتر استفاده میکنم، ناگزیر باید از اعداد اولی استفاده کنم که برای آنها مشکل ایجاد میشود (البته نه به بدی مثال بالا)، و برخی از جفتهای متغیر به صورت غیریکنواخت در نمونهبرداری میشوند. هواپیمای نمونه آنها استفاده از دنباله Sobol برای تولید مجموعه ای مشابه به نظر من (فقط با نگاه کردن به نمودارها) برای تولید نمونه هایی بین جفت متغیرهایی است که به طور مساوی تری توزیع شده اند، حتی برای تعداد نسبتاً کمی از نمونه ها. این بسیار مفیدتر به نظر می رسد، و بنابراین من نمی دانم چه زمانی دنباله هالتون سودمندتر خواهد بود؟ یا اینکه محاسبه دنباله هالتون راحت تر است؟ توجه: بحث در مورد دیگر توالی های چند بعدی کم اختلاف نیز مورد استقبال قرار می گیرد.
|
سکانس هالتون در مقابل سکانس سوبول؟
|
92967
|
من می خواهم $Y$ را با استفاده از متغیرهای مستقل مختلف تخمین بزنم. $$Y = d_1 + aX_1\\ Y= d_2 + bX_2\\ Y= d_3 + cX_3$$ سپس میخواهم 3 معادله بالا را طوری ترکیب کنم که رابطه زیر را به دست بیاورم: $$Y = d + a_1X_1 + b_1X_2 + c_1X_3 $$ چگونه می توانم از 3 معادله رگرسیون بالا برای به دست آوردن یک رابطه واحد مانند بالا استفاده کنم؟
|
معادلات رگرسیون چندگانه را با هم ترکیب کنید
|
92960
|
آیا راهی برای استفاده از api مدل خطی برای اضافه کردن جریمه lasso برای زیرمجموعهای از پارامترهایی که من رگرسیون میکنم وجود دارد؟ به عنوان مثال، یک تجزیه خطی قابل جداسازی را در نظر بگیرید که میخواهم آن را به برخی از دادههای پراکنده و با محدودیتهای هموار در یکی از ابعاد (قابل تفکیک) منطبق کنم. این سوال نشان می دهد که این امر تا حدودی از طریق glm R امکان پذیر است. آیا مدلی از نوع LASSO وجود دارد که در آن فقط برخی از رگرسیورها تنظیم شده باشند؟ البته، روش DIY خیلی سخت نخواهد بود. سوال این است که آیا از طریق Sicit Learn api امکان پذیر است یا خیر.
|
scikit Learn: پنالتی کمند یا رج را فقط روی زیر مجموعه پارامترها اضافه کنید
|
60862
|
میخواهم **تاخیر** بستههای متعلق به نوعی ترافیک را با تأخیر بستههای مربوط به ترافیک دیگر (متفاوت و بزرگتر) مقایسه کنم که همگی از یک ماشین تولید میشوند. می خواهم ببینم **توزیع**های دو گروه تاخیر **یکسان است**؟ نمونههای گروه اول بین **اندازه 20** تا **2000** (بیشتر اوقات بین 20 تا 75) هستند، در حالی که گروه مقایسه همیشه در حد **چند هزار** است ( تا 15000). هنگامی که گروه اول **بیش از 250** مقدار دارد، من فقط (به طور تصادفی) از آن در گروه های کوچکتر با اندازه 50 ** نمونه فرعی** می کنم، زیرا متوجه شدم که برای رد نمونه های بزرگ با Kolmogorov- واقعاً چیزی لازم نیست. اسمیرنوف. اگر **اکثریت** زیرنمونه ها توسط آزمون پذیرفته شوند، نمونه اصلی نیز قبول می شود. اکنون، به دلیل دقت مهر زمانی، تاخیرهای تکراری زیادی در مشاهدات من وجود دارد. به عنوان مثال، از **15000** تأخیر در گروه دوم من، **فقط 1000 مقدار منحصر به فرد** دارم، با میانگین 0.7 میلی ثانیه و انحراف استاندارد حدود 7 میلی ثانیه. 200 مقدار تا 10 بار ظاهر می شود. 90 مقدار بین 11 و 100; 30 بین 101 تا 300; 4 بین 301 و 500. برای **انتخاب تست ناپارامتریک** که به بهترین وجه مناسب مورد من است، چه چیزی را باید در نظر بگیرم؟ همچنین، آیا نمونه گیری فرعی من درست است؟ من از سطح معنیداری 0.01 استفاده کردهام، اما **20% از مثبتهای کاذب** را دریافت میکنم، که تقریباً نیمی بزرگتر، نیمی کوچکتر از گروه دوم است (پس از آزمایش دو طرفه، همیشه از دو تا یک طرفه فقط برای بررسی). هر ایده ای؟
|
انتخاب روش ناپارامتریک
|
25623
|
من چند سوال در مورد رگرسیون بقای کاکس دارم: 1) آیا درست است که تابع خطر h(t) در دسترس نیست (حتی بدون متغیرهای کمکی وابسته به زمان) - و اگر نه، به این دلیل است که خطر خط پایه تعریف نشده است (فقط خطر تجمعی است و شما نمی توانید از خطر تجمعی به خطر بروید)؟ 2) وقتی متغیرهای کمکی وابسته به زمان دارید، آیا نمی توان منحنی بقا را برای مجموعه ای از مقادیر متغیر کمکی تخمین زد (من می خواهم مقادیر اولیه را رسم کنم)؟ کسی میتونه توضیح بده که چرا نه؟
|
رگرسیون کاکس - تخمین خطر و بقا؟
|
22530
|
من حدود 3 ساعت اطلاعات شتاب سنج، ژیروسکوپ و قطب نما 3 محوره دارم که در بازه های زمانی کمتر از ثانیه گرفته شده است. من کاملاً آگاه هستم که این داده ها باید فیلتر شوند و روش های زیادی برای فیلتر کردن آن وجود دارد (FFT، ARMA، و همکاران). چگونه می توانم از روی داده های خود یا نمودار آنها بفهمم که بهترین فیلتر برای استفاده کدام است؟ به عنوان مثال، اگر من 3 ساعت دویدن در خیابان داشته باشم و می خواهم طول قدم دویدن را دنبال کنم. من فکر می کنم که ژیروسکوپ را برای بدست آوردن جهت مطلق و سپس داده های شتاب سنج خام را برای بدست آوردن فاصله دوبار ادغام کنم. در نهایت، نتیجه این را بر تعداد فرورفتگیهای موجود در spline که نقاط را در بر میگیرد، تقسیم کنید (زیرا آنها عمدتاً شتاب رو به پایین را نشان میدهند). آیا این رویکرد صحیح است؟ با تشکر فراوان 
|
چگونه تشخیص دهیم که داده ها به خوبی فیلتر شده اند؟
|
65306
|
من سعی می کنم مقادیر رگرسیون را در LIBSVM پیش بینی کنم. داده های من در سری زمانی است. من از فایل gridregression.m در LIBSVM برای یافتن پارامترهای بهینه c، g و p استفاده می کنم. فایل Gridregression.m از اعتبارسنجی متقاطع برای یافتن پارامترهای بهینه استفاده می کند، اما آیا استفاده از اعتبارسنجی متقاطع در سری های زمانی خوب است؟ وقتی از پارامترهای gridregression.m استفاده می کنم، گاهی اوقات MSE بهتر از مقادیر پیش فرض نیست. (cmd= '-s 3 -t 2' گاهی اوقات بهتر است)
|
جستجوی پارامتر LIBSVM در سری های زمانی
|
114724
|
اجازه دهید $\hat{\Gamma}_k$ ماتریس اتوکوواریانس نمونه بعدی k باشد. من سعی می کنم ثابت کنم که این قطعی غیر منفی است. اولین قدم در اثبات این است که نشان دهیم اگر $\hat{\Gamma}_m$ غیر منفی قطعی است، پس $\hat{\Gamma}_k$ برای همه $k<m$ غیر منفی قطعی است. چگونه این را ثابت کنم؟ پیشاپیش بسیار متشکرم (تا کنون می توانم آن را برای موارد بی اهمیت مانند m=2 تأیید کنم، اما برای m عمومی نه.)
|
اتوکوواریانس نمونه غیر قطعی منفی
|
100488
|
سلام بچه ها من در حال انتخاب مدل هستم و برای محاسبه این پیوند باید هم ماتریس اطلاعات فیشر مشاهده شده و هم مورد انتظار را تخمین بزنم. چگونه عدد مورد انتظار را برآورد می کنید؟
|
راه آسان برای تخمین ماتریس اطلاعات فیشر مورد انتظار برای یک مدل عملکردی مشخص چیست؟
|
25621
|
در اکولوژی، ما اغلب از معادله رشد لجستیک استفاده می کنیم: $$ N_t = \frac{ K N_0 e^{rt} }{K + N_0 e^{rt-1}} $$ یا $$ N_t = \frac{ K N_0 }{N_0 + (K -N_0)e^{-rt}} $$ که در آن $K$ ظرفیت حمل است (حداکثر چگالی رسیده)، $N_0$ اولیه است تراکم، $r$ نرخ رشد است، $t$ زمان از زمان اولیه است. مقدار $N_t$ دارای یک کران نرم بالا $(K)$ و یک کران پایین $(N_0)$ با کران پایین قوی در $0$ است. علاوه بر این، در زمینه خاص من، اندازهگیریهای $N_t$ با استفاده از چگالی نوری یا فلورسانس انجام میشود، که هر دو دارای یک ماکزیمم نظری و بنابراین یک کران بالایی قوی هستند. بنابراین، خطای حدود $N_t$ احتمالاً با یک توزیع محدود توصیف می شود. در مقادیر کوچک $N_t$، توزیع احتمالا دارای یک انحراف مثبت قوی است، در حالی که در مقادیر $N_t$ نزدیک به K، توزیع احتمالا دارای یک انحراف منفی قوی است. بنابراین توزیع احتمالا دارای یک پارامتر شکل است که می تواند به $N_t$ پیوند داده شود. واریانس ممکن است با $N_t$ نیز افزایش یابد. این یک مثال گرافیکی است  با K<-0.8 r<-1 N0<-0.01 t<-1:10 max< -1 که می تواند در r با کتابخانه (devtools) تولید شود source_url(https://raw.github.com/edielivon/Useful-R-functions/master/Growth%20curves/example%20plot.R) * توزیع خطای نظری در حدود $N_t$ چگونه خواهد بود (با توجه به هم مدل و هم اطلاعات تجربی ارائه شده)؟ * چگونه پارامترهای این توزیع به مقدار $N_t$ یا زمان مربوط می شود (اگر با استفاده از پارامترها حالت را نمی توان مستقیماً با $N_t$ مرتبط کرد، به عنوان مثال، logis normal)؟ * آیا این توزیع تابع چگالی دارد که در $R$ پیاده سازی شده است؟ مسیرهای بررسی شده تا کنون: * با فرض نرمال بودن در حدود $N_t$ (منجر به تخمین بیش از $K$ می شود) * توزیع نرمال را در حدود $N_t/max$ محاسبه کنید، اما مشکل در برازش پارامترهای شکل آلفا و بتا * توزیع نرمال حول منطق $ N_t/max$
|
توزیع خطا حول داده های رشد لجستیک چگونه است؟
|
24972
|
من آزمایشی انجام دادم و نکاتی را که در زیر با رنگ مشکی نشان داده شده است به دست آوردم. من می خواهم منحنی یا فیت (چیزی شبیه منحنی قرمز) را برای شناسایی آرنج صاف کنم. مشکل این است که آزمایش بسیار گران است و مقدار زیادی واریانس در نقاط به دست آمده وجود دارد. من سعی کردم یک چند جمله ای درجه دوم و یک منحنی نمایی را بدون موفقیت برازش کنم (منحنی خیلی صاف است و آرنج از دست رفته است). دقت کامل لازم نیست. **بهترین راه برای قرار دادن منحنی به منظور شناسایی آرنج چیست؟**
|
چگونه می توان یک منحنی صاف را برای تقلید از آرنج به داده ها منطبق کرد؟
|
113599
|
من دادههای آزمایشی زیر را دارم:  چگونه میتوانم باور را با قبل مرتبط کنم تا تعیین کنم که آیا باور را تحت تأثیر قرار میدهد یا نه بعد؟ وقتی باورها روی 1 تنظیم شود، «بعد» (به طور تصادفی) بیشتر از زمانی است که روی 0 تنظیم شود.
|
اکسل همبستگی اسمی و کمی
|
113596
|
من می خواهم Permanova را روی داده های طبقه بندی شده اجرا کنم (به عنوان مثال ساختار CSV در زیر آمده است) بدون هیچ موفقیتی. آیا آدونیس می تواند داده های طبقه بندی شده را مدیریت کند، یک اسکریپت نمونه عالی خواهد بود. خیلی ممنون من این فایل CSV را دارم: گونه، جنس، سن، مکان، حساسیت A، M، 1،1،1 A، M، 1،1،1 A، M، 2،2،2 A، M، 2,2,2 A,F,1,1,1 A,F,1,1,1 A,F,1,1,1 A,F,2,2,2 A,F,2,2,2 A,F,2,2,2 B,M,1,2,2 B,M,1,2,2 B,M,1,2,2 B,M,2,2,1 B,F,2 ,1,1 B,F,2,1,1 B,F,2,1,2 B,F,2,2,2 B,F,1,2,2 B,F,1,2,2 C ,M,1,2,2 C,M,2,2,1 C,M,2,2,1 C,M,2,2,1 C,F,2,2,2 C,F,1,1,2 C,F,1,1,2 C,F,2 ,2,2 C,F,2,2,1 C,F,2,2,1
|
آدونیس در مورد داده های طبقه بندی شده
|
96043
|
من سه متغیر تصادفی دارم، $X، Y، Z$. من می دانم که $$\log X - \log Y - \log Z = \log \frac{X}{YZ} \sim \mathcal{N}(0, \sigma^2)$$ چگونه می توانم توزیع را بازیابی کنم از $\frac{X}{YZ}$؟ آیا به اندازه $e^{\mathcal{N}(0, \sigma^2)}$ ساده است؟
|
اگر log X - log Y - log Z به طور معمول توزیع می شود، پس X / (Y * Z) چگونه توزیع می شود؟
|
114721
|
فرض کنید من سه موتور جستجو دارم، به عنوان مثال. موتور جستجوی A، موتور جستجوی B و موتور جستجوی C. به هر موتور جستجو مجموعهای از پرسشهای Q داده میشود (به عنوان مثال سیب، موز، هویج...)، این مجموعه Q برای هر موتور یکسان باقی میماند. سپس هر موتور مجموعه ای از نتایج را برای هر پرس و جو به شکل SERP (صفحه نتایج موتور جستجو) ارائه می دهد. این بدان معناست که برای هر پرس و جو (q) ما سه صفحه نتایج موتور جستجو (SERPs) داریم. ما 4 کاربر را به عنوان مثال استخدام کردهایم، و به هر کاربر مجموعههای متعددی از پرسوجوها و SERPهای جفت شده آنها داده میشود، و از آنها خواسته میشود که هر SERP را برای یک پرسوجو رتبهبندی کند، همه پرسوجوها را از نظر ارتباط در مقیاس 1-4 (1 نیست). مرتبط، 4 بسیار مرتبط است). بنابراین کاربر یک می بیند و بر اساس آن رتبه بندی می کند: پرس و جو 1 (سیب)، SERP A (ارتباط 1)، SERP B (ارتباط 1)، SERP C (ارتباط 4) کوئری 2 (موز)، SERP A (ارتباط 2)، SERP B (ارتباط 2)، SERP C (ارتباط 4) پرس و جو 3 (هویج)، SERP A (ارتباط 3)، SERP B (ارتباط 2)، SERP C (ارتباط 3) کاربر دو به صورت زیر می بیند و رتبه بندی می کند: query 1 (apple)، SERP A (ارتباط 1)، SERP B (ارتباط 2)، SERP C (ارتباط 3) query 2( موز)، SERP A (ارتباط 1)، SERP B (ارتباط 2)، SERP C (ارتباط 4) پرس و جو 3 (هویج)، SERP A (ارتباط 3)، SERP B (ارتباط 2)، SERP C (ارتباط 3) کاربر سه به صورت زیر می بیند و رتبه بندی می کند: query 1 (apple)، SERP A (ارتباط 1)، SERP B( ارتباط 2)، SERP C (ارتباط 3) پرس و جو 2 (موز)، SERP A (ارتباط 2)، SERP B (ارتباط 2)، SERP C (ارتباط 3) پرس و جو 3 (هویج)، SERP A (ارتباط 3)، SERP B (ارتباط 3)، SERP C (ارتباط 4) من می خواستم بدانم آیا معیاری وجود دارد که بتوانم از آن برای گفتن استفاده کنم موتور جستجو مرتبط ترین نتایج جستجو را در مجموعه ای از پرس و جوها بر اساس امتیازاتی که کاربران داده اند تولید کرد. آیا مجذور کای یا تحلیل واریانس (ANOVA) مناسب است؟ در یک نگاه سریع، اگر این تست تقسیم A/B بود، حدس میزنم که میتوانم بگویم نتایج تولید شده توسط موتور جستجوی C نتایج بهتری نسبت به A یا B ارائه میدهند، در حالی که B بهتر از A ارائه میدهد. برای تست به طور رسمی این را یادداشت کنم؟
|
تست تقسیم/سطل A/B با سه نوع یا بیشتر
|
114723
|
من تعجب می کنم که کدام ترکیب از مدل های ساده را می توان با روش های مختلف برداری جفت کرد تا منطقی باشد. بیایید بگوییم که یک کار ساده باینری طبقه بندی هرزنامه داریم. ### مدل چند جمله ای: اگر درست متوجه شده باشم، از مدل چند جمله ای برای محاسبه احتمالات شرطی کلاس بر اساس اصطلاح فرکانس ها استفاده می شود. فرض کنید متن ورودی ما فقط از 1 کلمه برای سادگی تشکیل شده است. بنابراین، احتمال (یا احتمال) شرطی کلاس به صورت زیر محاسبه می شود: \begin{equation} \hat{P}(x_i \mid \omega_j) = \frac{tf_{xi, y} + \alpha}{tf_y + \alpha \cdot V} \end{معادله} * $tf_{xi، y}$ = فرکانس مدت. تعداد دفعاتی که کلمه $x_i$ در مجموعه داده آموزشی برای نمونههای کلاس $\omega_j$ رخ میدهد * $tf_y$ مجموع تمام فرکانسهای اصطلاحی در مجموعه داده آموزشی برای کلاس $\omega_j$ * $\alpha$ صافکننده افزودنی است. پارامتر ($\alpha = 1$ برای صاف کردن لاپلاس * $V$ اندازه واژگان ### چند متغیره برنولی است مدل (دوجملهای): در اینجا، از فرکانسهای سند به جای فرکانسهای اصطلاحی استفاده میکنیم، زیرا توزیع از مقادیر باینری استفاده میکند: آیا یک کلمه در یک سند رخ میدهد یا نه؟ omega_j) = \frac{df_{xi, y} + 1}{df_y + 2} \end{معادله} * $df_{xi, y}$ تعداد اسناد موجود در مجموعه داده آموزشی است که حاوی $x_i$ و متعلق به کلاس $\omega_j$ * $df_y$ تعداد اسناد موجود در مجموعه داده آموزشی است که متعلق به کلاس $\omega_j$ * +1 و +2 پارامترها هستند. برای هموارسازی لاپلاس ## سوال بنابراین، سوال من این است که وقتی میخواهم مجموعه داده را برای هر یک از مدلها آماده کنم، باید از کدام بردار استفاده کنم بسته scikit-learn در پایتون. از از sklearn.feature_extraction.text import TfidfVectorizer,CountVectorizer sklearn.naive_bayes import MultinomialNB از sklearn.naive_bayes import BernoulliNB از sklearn.pipeline import Pipeline وقتی به درستی بفهمم، تعداد بردارها و واژه های sofreque تولید می شود. این ترکیب به نظر می رسد برای من منطقی است: clf_1 = Pipeline ([ ('vectorizer', CountVetorizer(ngram_range=(1,2), stop_words=english)), ('classifier', MultinomialNB()), ]) اما از نظر از فرکانس های سند، آیا استفاده از CountVectorizer در ترکیب با مدل برنولی اشکالی ندارد؟ آیا این می تواند به طور خودکار فرکانس های صحیح سند را از نتایج شمارش بردارگر بازیابی کند؟ clf_2 = Pipeline([ ('vectorizer', CountVectorizer(stop_words=english)), ('classifier', BernoulliNB()), ]) و چگونه از بردار Tf-idf استفاده کنم؟ آیا این ترکیب منطقی است؟ clf_3 = Pipeline([ ('vectorizer', TfidfVetorizer(ngram_range=(1,2), stop_words=english)), ('classifier', MultinomialNB()), ]) من فرض می کنم که منطقی نیست از «TfidfVetorizer» با مدل برنولی استفاده کنید، درست است؟
|
بیز ساده و طبقه بندی متن: کدام مدل احتمال و ترکیب بردار منطقی است؟
|
105576
|
تقریب طبیعی چولگی به پواسون ($\lambda$) چیست؟ آیا من این کار را اشتباه انجام می دهم؟
|
تقریب نرمال انحرافی توزیع پواسون
|
113594
|
من 50000 شی دارم که روی آنها دو نوع رگرسیون مختلف انجام داده ام. با استفاده از اعتبارسنجی متقاطع، میانگین امتیاز R^2$ را از هر مدل در هر یک از اشیا به دست آوردم. بنابراین اکنون فهرستی از 50 هزار جفت میانگین امتیاز R^2$ دارم. من از یک تست زوجی Wilcoxon-Mann-Whitney U استفاده کردم و متوجه شدم که میانگین آنها به طور قابل توجهی متفاوت است: > wilcox.test(first$R.2, second$R.2, paired=TRUE) تست رتبه امضا شده Wilcoxon با داده های تصحیح تداوم: اول$R.2 و دوم$R.2 V = 34503366، p-value < 2.2e-16 جایگزین فرضیه: تغییر مکان واقعی برابر 0 نیست آیا این رویکرد درستی است؟ به نظر من این تست درستی است زیرا $R^2$ در بالا با 1 محدود می شود اما در زیر محدود نمی شود بنابراین من واقعاً نمی توانم هیچ فرضی در مورد توزیع داشته باشم. چگونه می توانم این را در مقاله خود گزارش کنم؟ آیا فقط می گویم که من از تست Wilcoxon استفاده کردم و مقدار p کمتر از 2.2e-16 به دست آوردم؟ همچنین میخواستم میانگین و میانه $R^2$s را از هر یک از تکنیکها نشان دهم. اما آیا باید فقط تخمین نقطه ای این مقادیر را نشان دهم یا باید SD و MAD یا SEM را نیز نشان دهم یا چه؟ آیا باید فواصل اطمینان را برای آنها بوت استرپ کنم و ببینم که آیا همپوشانی دارند یا خیر؟ هر کمکی قابل تقدیر است، با تشکر.
|
چگونه نشان دهیم که آیا میانگین ضرایب تعیین از یک تکنیک رگرسیون بهتر از دیگری در بسیاری از اشیا است؟
|
35864
|
من تابلویی از قیمتهای روزانه سهام $\{Y_{it}\}$, $t \{1,...,1000\}$ و رویدادی دارم که در $t=700$ رخ میدهد که باعث میانگین میشود قیمت سهام طی 15 روز آینده حدود 10 درصد کاهش می یابد. چگونه به سوال کدام سهام اول سقوط کردند پاسخ دهم؟ من میخواهم ویژگیهای سهامی را بدانم که با سقوطهای خیلی زودهنگام مرتبط هستند (مانند 1 یا 2 روز اول). من ایده های زیادی برای تجزیه و تحلیل نمونه فرعی دارم اما هیچ کدام که بخواهم از اقتصاد سنجی استفاده کنم نیست. ایده های مبتنی بر اقتصاد سنجی گسترده استقبال می شود. آیا می توان از تجزیه و تحلیل بقا در اینجا استفاده کرد؟ توجه من قبلاً یک پست در مورد این موضوع گذاشتم که پاسخ داده شد، اما سؤال را خیلی محدود کردم و به آنچه می خواستم نرسیدم. ویرایش: _لطفا به این سوال کاملا پاسخ ندهید (تا مشخصات مدل). من فقط ایده ها/پیشنهادهایی در زمینه هایی می خواهم که ممکن است خوب و یک رویکرد/پیشنهاد بسیار کلی باشد. سپس من می خواهم خودم همه چیز را از آنجا توسعه دهم._
|
کدام سهام پس از یک رویداد اول سقوط کرد؟
|
26197
|
آیا گروه بندی مجدد دو متغیر وابسته باینری در یک متغیر وابسته 4 سطحی برای استفاده از رگرسیون چندجمله ای یک روش معمول (و کافی) است؟ به عنوان مثال، فرض کنید اطلاعاتی در مورد دو شرط مرتبط (نتیجه) A و B داریم. یک متغیر 4 طبقه ای جدید تعریف می شود به این صورت که: دسته 1 = نه شرایط A و نه B دسته 2 = شرط A (فقط) دسته 3 = شرایط B (فقط) دسته 4 = هر دو شرط A و B این امکان اجرای یک رگرسیون چند جمله ای منفرد را به جای استفاده از دو مدل لجستیک باینری که شامل پیش بینی کننده های یکسان هستند را می دهد.
|
استفاده از رگرسیون لجستیک چند جمله ای برای چندین پیامد مرتبط
|
24976
|
d کوهن یک اندازه گیری برای اندازه اثر است که به صورت زیر محاسبه می شود: $d = (x_1-x_2) / \sigma_{\text{pooled}}$ که $x_1$ میانگین یک گروه است، $x_2$ میانگین یک ثانیه است. گروه، و $\sigma_{\text{pooled}}$ انحراف استاندارد تلفیقی است. بیایید بگوییم که یک درمان دارای اندازه اثر 0.6 و درمان دیگر دارای اندازه تاثیر 1.2 است. **چگونه می توانم تشخیص دهم که این تفاوت از نظر آماری معنی دار است؟** یعنی. آیا یک درمان نتیجه قابل توجهی متفاوت از دیگری ارائه می دهد؟ ویرایش: نمونه ها مستقل نیستند. هر نمونه شامل همان 7 شرکت کننده است. _من به طور خلاصه در اطراف جستجو کردم اما پاسخی برای این سوال پیدا نکردم.
|
چگونه می توان با استفاده از d (اندازه اثر) کوهن ارزیابی کرد که آیا دو درمان به طور قابل توجهی متفاوت هستند؟
|
92969
|
مقیاس بندی MaxDiff یک روش بسیار محبوب برای درک ترجیحات مشتری است. می خواستم بدانم که آیا می توانیم یک پرسشنامه نظرسنجی برای تجزیه و تحلیل MaxDiff در R ایجاد کنیم. آیا کسی می تواند این موضوع را روشن کند.
|
مقیاس بندی MaxDiff
|
26193
|
من خوانده ام که **فاصله ماهالانوبیس** به اندازه فاصله اقلیدسی** هنگام **مقایسه** 2 **بردار ویژگی پیش بینی شده** در طبقه بندی با استفاده از یک طبقه بندی کننده **LDA** موثر است. میخواستم بدونم این جمله درسته؟ اگر کسی در این مورد نظر بدهد خوب است. من در حال کار بر روی **طرح کردن** **بردار ویژگی 36 بعدی** به **بردار ویژگی 1d** با استفاده از **طبقه بندی کننده LDA کلاس 2** و مقایسه بردارهای ویژگی پیش بینی شده هستم.
|
فاصله ماهالانوبیس در طبقه بندی کننده LDA
|
100483
|
ما هر ماه مظنه فروشنده (قیمت آنها برای اوراق بهادار مالی مختلف) را دریافت می کنیم. من می خواهم مقایسه کنم که کدام یک از این فروشندگان با قیمت های داخلی ما [استاندارد طلا] موافق هستند (یعنی نزدیک هستند). من همچنین میخواهم اینها را برای دستههای فرعی آزمایش کنم - مثلاً فروشنده A با ما در مورد اوراق قرضه موافق است، اما فروشنده B با سهام بیشتر موافق است. چه آزمایش های آماری را می توانم انجام دهم تا فروشندگان را رتبه بندی کنم (از نظر نزدیک بودن به قیمت های ما) و کمیت شکاف. با تشکر
|
مقایسه و تعیین کمیت کیفیت داده ها
|
63884
|
لطفاً به من بگویید چگونه مطالعه رویداد را انجام دهم؟ من 60 شرکت و 16 رویداد دارم. من بازده غیرعادی را ظرف 20 روز در مورد مطالعه رویداد محاسبه می کنم (10،10-). * آیا باید آن را برای هر رویداد برای همه شرکت ها انجام دهم و سپس میانگین را بگیرم؟ * یا هر رویداد برای هر شرکت و سپس میانگین؟ * آیا باید از وزن های مساوی استفاده کنم یا وزن های ارزشی؟ همچنین، هنگامی که بازده غیرعادی را به دست آوردم، می خواهم آن را با استفاده از فاصله اطمینان 95% ترسیم کنم. لطفاً به من بگویید که دستور Stata برای انجام این کار چیست؟
|
چگونه یک مطالعه رویداد انجام دهیم؟
|
25082
|
من می خواهم یک بررسی واقعیت از درک خود از آمار MH داشته باشم. من سعی کرده ام نمونه ای از آزمون Mantel-Haenszel ارائه شده در Conover (1999، ص 192-194) را بازتولید کنم. ساختار دادهها مانند نمونههای دیگر ارائهشده برای این روش در R است. آماری که تولید میکند، مقدار $T_{4}$ است، که وقتی $H_{0}$ درست باشد، تقریباً عادی توصیف میشود. Conover $T_{4}$ را اینگونه توصیف می کند: * * * $$ T_{4} = \frac{\sum x_{i} - \sum{\frac{r_{i}\cdot c_{i}}{N_{ i}}}}{\sqrt{\sum{\frac{r_{i}c_{i}(N_{i} - r_{i})(N_{i}- c_{i})} {N^2_{i} (N_{i}-1 ) }} }} $$ * * * مشخصات مثال در صفحه. 194 در زیر است: سرطان.در <- آرایه(c(10,12,1,1,9,11,0,1,8,7,0,3), dim = c(2,2,3), dimnames = list(وضعیت = c(درمان، کنترل)، نتیجه = c(موفقیت، شکست)، گروه = c(گروه-1، گروه-2، گروه-3))) سرطان <- as.table(cancer.in) سرطان ##### تصحیح تداوم اعمال mantelhaen.test(cancer) ##### هیچ اصلاحی اعمال نشد mantelhaen.test(سرطان، درست = FALSE) هنگام بررسی ساختار جدول، به نظر می رسد از مثال موجود در متن پیروی می کند، اما آمار ارائه شده مطابقت ندارد. Conover به $T_{4}$ ارزش $\frac{1.6786 }{1.1719} = 1.4323 $ میرسد. مقدار $\chi^{2}$ که در R برگردانده میشود 2.0515 است (بدون اصلاح تداوم)، که برابر با مقدار $T_{4}^2$ است. از آنچه من میدانم، $z^2$ $\chi^{2}_{1}$ توزیع میشود، بنابراین روشها نتایج یکسانی را تولید میکنند، اما به روشی متفاوت نشان داده میشوند. آیا با این موضوع در مسیر درستی هستم؟ هر گونه راهنمایی بسیار قدردانی می شود.
|
محاسبه آزمون Mantel-Haenszel در R
|
105579
|
من مجموعه ای از داده های دو شبانه نظارت دارم. مانیتورینگ میزان شلوغی سرور را از نظر تعداد موضوعات پردازش می کند. تغییری ایجاد شده است و میخواهیم بررسی کنیم که آیا این تأثیری بر کاهش رشتهها داشته است یا خیر. چگونه می توانم دو مجموعه داده را با توجه به اینکه بار روی سرور یک متغیر (اما قابل مقایسه) مقایسه کنم. من به ANOVA فکر کرده ام، آیا این روش خوبی است؟ آیا افراد دیگری می توانند پیشنهاد دهند؟ به نظر میرسد که دادهها یک توزیع نرمال منحنی مثبت را نشان میدهند. آیا ANOVA هنوز معتبر است؟ به عنوان مثال (داده های ساختگی) تعداد موضوع شب قبل از تغییر شب پس از تغییر 00:00 341 223 00:05 365 321 00:10 465 445 . . . 08:50 512 243 08:55 314 556 09:00 256 354
|
به مقایسه دو مجموعه داده کمک کنید. روش ها
|
26192
|
من مجموعهای از اندازهگیریها را برای پاسخ صفحه وب دارم - 2356 6788 3658 5545 1008. چگونه میتوانم تعیین کنم که آیا این مجموعه حتی ارزیابی / میانگینگیری را دارد یا خیر. با بازرسی دستی، این برای من اهمیتی ندارد. یا اگر مجموعه ای مانند (1815 1856 1899 4567 1875) داشته باشم، با بازرسی دستی آن، مقدار پرت 4567 را حذف می کنم و سپس از میانگین مقادیر باقی مانده در مجموعه استفاده می کنم. متأسفانه به دلیل ماهیت دستی جمع آوری داده ها، افزایش اندازه مجموعه داده ها بیش از 10 یا بیشتر امکان پذیر نیست. همچنین، نقاط پرت آشکار مانند 4567 در مجموعه دوم به دلیل مشکلات شبکه شناخته شده است. من فقط به دنبال راهی برای اتصال این نقاط به اکسل و پاسخ به 2 سوال بالا هستم. 1. آیا مجموعه از نظر آماری معنادار است؟ 2. آیا موارد پرت وجود دارد که بتوان آن را از نظر آماری معنی دار کرد. با تشکر
|
چگونه می توانم تعیین کنم که آیا مجموعه ای از مقادیر از نظر آماری معنی دار هستند یا خیر
|
96042
|
انجام یک رگرسیون و نیاز به یافتن اینکه آیا باقیمانده های من به طور معمول توزیع شده اند یا خیر.
|
رگرسیون - چگونه بفهمم که باقیمانده های من به طور معمول توزیع شده اند؟
|
92961
|
اجازه دهید تابعی $\mathcal{E(h)}$ که با توجه به فرضیهای $h$، خطای تعمیم آن $h$ ثابت را برمیگرداند. داشتم نکاتی را در مورد خطای انتخاب مدل و تعمیم میخواندم و میگفتم: اگر به $\mathcal{E(h)}$ دسترسی داشتیم، انتخاب مدل > مشکلی نیز وجود نداشت. ما به سادگی بزرگهای $ را انتخاب میکردیم. \mathcal{H}$ تا بتوان طبقهبندیکنندهای را پیدا کرد که خطا را به حداقل میرساند. مطمئن نبودم که آیا آن بیانیه را کاملاً قدردانی یا درک کرده ام یا واقعاً با این بیانیه موافقم. دلیلش این است که، حتی اگر ما به $\mathcal{E(h)}$ دسترسی داشتیم (که فکر میکنم منظور اوراکلی است که $h$ را میگیرد و فقط خطای تعمیم واقعی خود را میگوید) فکر میکنم باز هم مشکلساز خواهد بود. مدلی را پیدا کنید که دارای فرضیه ای است که به خوبی تعمیم می دهد. دلیل آن این است که میگوییم کلاسهای مدل $\mathcal{H}$ بینهایت است (یعنی مجموعه بینهایتی از مدلها برای انتخاب وجود دارد). ما واقعاً نمی دانیم که $\mathcal{E(h)}$ چه زمانی به حداقل خود رسیده است، مگر اینکه هر $\mathcal{H}$ ممکن را بررسی کنیم. یعنی حتی اگر چنین چیزی داشته باشیم، فکر نمیکنم مشکل به این راحتی برطرف شود زیرا چگونه میتوانیم مطمئن باشیم که واقعاً بهترین $\mathcal{H}$ (در زمان چند جملهای) را پیدا کردهایم؟ اساساً من احساس میکنم این سؤال فرض میکند که ما پیشگویی برای تعیین اینکه چه زمانی تعمیم حداقل است نیز داریم. علاوه بر این، همانطور که اشاره کردم، الگوریتم/ماشین تراش پیشنهادی قابل تصمیم گیری است و در P نیست (یعنی ممکن است برای همیشه کار کند...) مسئله/شک اصلی که من با این سوال دارم این است که حتی با چنین اوراکلی، من من متقاعد نشدهام که انتخاب مدل بیاهمیت بوده است، پاسخی که سعی میکند با این موضوع خاص مقابله کند، شانس بیشتری برای پاسخگویی بهتر به سوال من دارد.
|
آیا اگر ما به اوراکلی دسترسی داشته باشیم که خطای تعمیم دقیق را به ما بدهد، مشکلی در انتخاب مدل وجود خواهد داشت؟
|
105571
|
فرض کنید یک مجموعه داده آموزشی با متغیرهای $a,b$ و $c$ و متغیر نتیجه باینری $y$ داریم. ما یک مدل رگرسیون لجستیک را برای این مجموعه داده برازش میکنیم: $$\text{logit}(p) = \hat{\beta_0}+ \hat{\beta_{1}}a + \hat{\beta_{2}}b + \hat{\beta_{3}}c$$ وقتی احتمالات پیشبینیشده را از مجموعه دادههای آموزشی با استفاده از مدل رگرسیون لجستیک دریافت میکنیم، آیا قرار است طبقهبندی کاملی داشته باشیم؟ یا این بستگی به آستانه ای دارد که استفاده می کنیم؟
|
خطای آموزشی و رگرسیون لجستیک
|
26199
|
فرض کنید: * $N \sim {\rm Poisson}(\lambda)$ * $\lambda$ ناشناخته است، اما ما معتقدیم که میتوان فرض کرد $\sim \exp(1)$ اگر بخواهم $N را محاسبه کنم | X$، یعنی $P(model | data)$، باید از قضیه بیز به روش زیر استفاده کنم: $P(model|data) \propto P(data|model)*P(model)$ * $P (داده|مدل)$ تابع درستنمایی است * $P(model)$ چگالی توزیع قبلی من است بنابراین: $P(داده|مدل) = L(\lambda) = \exp\{-n\lambda + \log\lambda \sum k_i - \sum \log (k_i!)\}$ And $P(model) = g(\lambda = 1) = e^{-\lambda} $ بنابراین $P(model|data) = \exp\{-n\lambda + \log\lambda \sum k_i - \sum \log(k_i!)\} e^{-\lambda}$ و اگر من یک نمونه $k_1 = j$ داشتم، آنگاه $P(\lambda|k_1 = j) = \exp(-\lambda + \log \lambda j - \log j! ) e^{-\lambda}$ درست است؟ چگونه یک مقدار مورد انتظار برای پارامتر را محاسبه کنم؟
|
چگونه یک توزیع پسین را برای یک مدل پواسون با توزیع قبلی نمایی برای پارامتر محاسبه کنم؟
|
31362
|
من در حال پیاده سازی تحلیل احساسات بر روی مجموعه نظرات کاربران هستم. همه نظرات در مورد یک شی هستند. در حال حاضر تصمیم گرفتم سه کلاس داشته باشم - منفی، خنثی و مثبت. من آرایه آزمایشی از 1500 نظر با کلاس های علامت گذاری شده دریافت کردم. سعی شد از SVM برای طبقه بندی بردارهای ویژگی باینری استفاده شود که در آن هر عنصر به وجود کلمه ای در نظر اشاره دارد. من حداکثر دقت 60٪ کلاس های صحیح را گرفتم. تحقیقات شناخته شده دقت 80 درصد و بهتری داشتند، اما بر روی متون انگلیسی انجام شده بودند. یکی از مشکلات - خطاهای متعدد در نظرات، املایی و دستور زبان. همچنین زبان روسی پیچیده تر از انگلیسی است. من از هر نوع مشاوره ای قدردانی می کنم. آیا ابزار خوبی برای تجزیه و تحلیل زبان روسی وجود دارد؟ شاید SVM انتخاب درستی نباشد، آیا الگوریتم های بهتری برای پرونده من وجود دارد؟ یا شاید باید فضای ویژگی کارآمدتر را انتخاب کنم؟
|
چگونه می توانم تجزیه و تحلیل احساسات نظرات کاربران را بهبود بخشم؟
|
25083
|
بیایید بگوییم من نوعی داده بقا دارم - یعنی دارویی می دهم که ممکن است باعث مرگ و میر شود. بنابراین من سه بیمار دارم: A، B و C. به همه دارو در زمان t1 داده می شود. فرض کنید بیمار A در زمان t2 می میرد. بیمار B در زمان t3 می میرد. و بیمار C در زمان t100 می میرد. واضح است که احتمال اینکه دارو باعث مرگ بیمار A و B شود بیشتر از احتمال این است که دارو باعث مرگ بیمار C شود (یعنی بیمار C احتمالاً به دلایل طبیعی فوت کرده است در حالی که بیماران A و B احتمالاً به دلیل دارو فوت کرده اند). آیا تکنیکهایی در زمینههای مربوط به تجزیه و تحلیل بقا وجود دارد که به فرد امکان میدهد احتمال/احتمال اینکه درمان باعث ایجاد اثر شده است را کمیت کند. به عنوان مثال، اگر بتوانم با توجه به اینکه بیمار در زمان X درمان شده و در زمان Y فوت کرده است، احتمال اینکه درمان باعث مرگ شود را محاسبه کنم. با تشکر!
|
تجزیه و تحلیل اثر درمان بر حسب زمان / بقا
|
26198
|
من یک مدل رگرسیون لجستیک دارم که برد / باخت را بر اساس مقدار پول پرداخت شده پیش بینی می کند. من مدل خود را هر دو ساعت بر روی داده های جدیدی که به دست می آوریم اجرا می کنم و از آن برای پیش بینی دو ساعت آینده استفاده می کنم. با این حال، من مدام متوجه می شوم که مدل من برای هر مقدار پول پرداخت شده، برد/باخت را کمتر پیش بینی می کند. بنابراین من در این وضعیت هستم که یک مدل آماری دارم اما به نظر نمیرسد که دادههای جدید را با ورود پیشبینی کند. مدل من برای داده های جدید پیش بینی نمی کند، اما برای انجام این کار به آن نیاز دارم. زمانی که یک مدل قدرت پیش بینی ندارد، چند استراتژی کلی وجود دارد؟ به عنوان نکته باید ذکر می کردم که من در واقع دو مدل داشتم. یکی که برد/باخت را در 0 تا 5 \$ و دیگری برای 5.01 \$ و بیشتر پیش بینی می کرد. ممکن است که این ممکن است یک مقصر بوده باشد، و من ممکن است بخواهم به جای آن از یک مدل رگرسیون قوی استفاده کنم. کاملا مرتبط نیست، اما فکر کردم ذکر کنم.
|
اگر مدل رگرسیون لجستیک من چیزی را پیش بینی نکند، چه کاری می توانم انجام دهم؟
|
106247
|
فرض کنید من 10 تاس (شش رو) می ریزم. احتمال دیدن k چهره ای که بیش از (یا مساوی) 3 بار ظاهر می شوند چقدر است؟ به عنوان مثال، اگر من 1، 1، 1، 2، 2، 2، 3، 4، 5، 6 را ببینم، 2 چهره را مشاهده کرده ام که بیش از (یا مساوی) 3 بار (1 و 2) ظاهر شده اند. حدس میزنم میتوانم یک شبیهسازی را اجرا کنم، اما فکر میکردم آیا راهی برای محاسبه تحلیلی آن وجود دارد یا خیر.
|
احتمال دیدن k چهره ای که هنگام انداختن 10 تاس بیش از 3 بار ظاهر می شوند
|
106241
|
چهار بردار مختلط تصادفی $\mu_i$ به طول $K$ را در نظر بگیرید که ورودیهای آنها از توزیع نرمال مختلط $\mathcal{CN}(\mathbf{0},\mathbb{1})$ با مرکز صفر و واریانس واحد گرفته شدهاند. . سپس ماتریس $2 \times 2$ پیچیده normalized $$ را تشکیل دهید \chi=\frac{1}{\sum_i|\mu_i|^2}\begin{pmatrix}\mu_1^*\\\mu_2^*\end{pmatrix}\cdot\begin{pmatrix}\mu_3&\mu_4\ end{pmatrix}=\frac{1}{\sum_i|\mu_i|^2} \begin{pmatrix}\mu_1^*\cdot\mu_3&\mu_1^*\cdot\mu_4\\\mu_2^*\cdot\mu_3&\mu_2^*\cdot\mu_4\end{pmatrix} $$ جایی که ستاره ایستاده است برای مزدوج من باید مقدار میانگین بزرگترین مقدار ویژه $\chi^\dagger\chi$ را به عنوان تابعی از $K$ محاسبه کنم (جایی که خنجر مخفف transpose مزدوج است). ... حتی نمی دانم از کجا شروع کنم. من این مقاله را پیدا کردم که امیدوارم بتواند مفید باشد، اما چهار ورودی ماتریس $\chi$، در بالا، مستقل از یکدیگر نیستند، بنابراین مطمئن نیستم که چگونه از آن تابع مشخصه استفاده کنم (معادل 2 در کاغذ).
|
بزرگترین مقدار ویژه این ماتریس تصادفی 2x2
|
106249
|
من از یک مدل خطرات متناسب کاکس استفاده می کنم، میزان خطر را برای لوامیزول نسبت به 5-FU تخمین می زنم، با تنظیم سن و جنس. library(survival) Colon<-subset(colon,etype==2 & rx!='Obs') fitcox<-coxph(Surv(time,status)~rx+age+sex,data=Colon) حالا اگر بخواهم در مورد طول عمر مورد انتظار مشروط با توجه به زمان بقا تا t0، rx، سن و جنس پیش بینی کنید، آیا عملکرد مناسبی وجود دارد؟ اگر تابع مشابهی وجود نداشته باشد و من باید خودم را بنویسم، در اینجا یک قطعه شبه کد وجود دارد که آنچه را می خواهم بیان می کند، اما من نمی دانم چگونه آن را پیاده سازی کنم: تابع (rx، جنسیت، سن، t0، خط پایه، fitcox) {ضریب <- get_coef_from(fitcox) //دریافت تابع بقا از تابع خطر تجمعی baseline$survival <- exp(-basehaz$hazard*exp(coef[1]*rx+coef[2]*sex+coef[3]*سن)) //محاسبه طول عمر مورد انتظار، فرمول زیر survival_t0 ارائه شده است <- baseline[t نزدیکترین است t0, survival] 1/survival_t0*integrate(survival, t0, inf, data=baseline) } فرمولی که من استفاده می کنم از http://en.wikipedia.org/wiki/Survival_analysis $$\frac{1}{S(t_0)} \int_0^{\infty} t\,f(t+t_0)\,dt = \frac{1 }{S(t_0)} \int_{t_0}^{\infty} S(t)\,dt$$ خیلی خوب است که میتوانید در مورد مدلهای خطرات دیگر به من کمک کنید، اما بهتر است در همان مجموعه داده مثال ارائه دهید، با تشکر!
|
پیشبینی طول عمر مورد انتظار مشروط توسط مدل کاکس در R
|
105578
|
من یک الگوریتم یادگیری Q با تعداد محدود حالت دارم. با این حال، هر حالت با مقدار Q-معمول 32 بیتی نشان داده می شود. این مقادیر Q اجازه می دهد تا اطلاعات مربوط به تجربه قبلی را بسیار فراتر از وضعیت Q-Learner حمل کند (در مورد من وضعیت Q-Learner دنباله ای از انتخاب ها و پاداش های خودش است). اگر Q-value فقط باینری باشد چه؟ سپس Q-learner قادر به حمل آن اطلاعات نخواهد بود و چیزهای زیادی یاد نخواهد گرفت. من بسیار علاقه مند هستم که Q-learner برای یادگیری قوانین مختلف به چه مقدار حافظه بر حسب بیت نیاز دارد. (به عنوان مثال. Q-learner همیشه دو انتخاب دارد، 1 و 0. اگر 1 1 0 را پشت سر هم انتخاب کند، پاداش می گیرد.) با این حال، من با اجرا مشکل دارم. مقادیر Q فقط با تجربه محدود می شوند، بنابراین اگر بخواهم Q-value فقط یکی از n مقدار مختلف باشد، چگونه قانون به روز رسانی را برای Q-value پیاده سازی کنم؟ قانون بهروزرسانی من سپس $Q_{new} = Q_{قدیمی} + \alpha (R + \گاما * \max(Q_{آینده\ انتخاب\ 1} - Q_{آینده\ انتخاب\ 0}))$ اکنون چگونه میتوانم این مقدار جدید را روی مجموعه محدودی که Q-value می تواند باشد، ترسیم کنید؟ اگر $\alpha = 1 , \gamma = 1; R,Q $ عناصر $\{0,1\}$ هستند سپس $Q_{new}$ عنصر $\{-1, 0, 1, 2\}$ است و نقشه برداری آسان است. اما اگر متفاوت باشد چه؟ کسی آن را مطالعه کرده است؟ مقالات و هر گونه پیشنهاد قدردانی می شود. P.S. مطمئن نیستم که اینجا بهترین مکان برای سوالات یادگیری ماشینی باشد. اگر سایت Stack Exchange دیگری می شناسید که با آن یا هر سایت دیگری سروکار دارد، لطفاً به من اطلاع دهید.
|
یادگیرندگان کیو با مقادیر Q گسسته
|
114197
|
من در حال طراحی یک شبکه عصبی برای مسئله طبقه بندی باینری در «متلب» هستم. من تعداد ورودی ها و نمونه های مختلفی در هر مشکل دارم (نرم افزاری طراحی کردم که کاربر نهایی از آن استفاده کند). من می دانم که یافتن «تعداد نورون ها» و «لایه ها» یک مشکل حیاتی در شبکه های عصبی است. اما آیا هیچ روش ریاضی یا تجربی برای یافتن نورون های **حداقل** و **حداکثر** مناسب در هر لایه (شبکه های یک لایه و دو لایه) وجود دارد و من بین این مقادیر جستجو خواهم کرد؟ با تشکر
|
بهترین راه حل ریاضی یا تجربی برای تعداد لایه ها و نورون ها در ساختارهای شبکه عصبی
|
63883
|
آیا روشی برای یافتن تابع فاصله مناسب در رگرسیون ناپارامتریک وجود دارد؟ من از چند سری زمانی برای یادگیری پیش بینی استفاده می کنم. سری ها غیر خطی و غیر گاوسی هستند. من می توانم ابعاد مناسب و تاخیر را دریافت کنم. من می توانم پهنای باند مناسب را با کتابخانه hdrcde پیدا کنم. من با توابع کرنل مشکلی ندارم. مشکل من با فاصله هاست. من از توابع وزن دهی اقلیدین، کسینوس و همبستگی استفاده می کنم. اینها هستههایی هستند که نتایج خوبی میدهند، اما یک بار، اقلیدین خوب است، سپس بعد از اضافه کردن برخی دادهها، به طور کلی یک به 7-5، اقلیدین هیچ چیزی نمیدهد، حتی با تغییر بسیار کمی در آمار. بنابراین، سوال من این است که آیا روشی برای انتخاب فاصله مناسب وجود دارد؟ من می خواهم در مورد آن نکته و مقالاتی که به حل این مشکل کمک می کند توصیه هایی داشته باشم. چه بسته ای در R در نهایت می تواند کمک کند؟ متشکرم.
|
انتخاب تابع فاصله در پیش بینی رگرسیون هسته؟
|
74843
|
من یک مجموعه داده دارم: 5، 10، 11، 13، 15، 35، 50، 55، 72، 92، 204، 215 فرمول قرار دادن به عرض های مساوی این است (تا جایی که من می دانم) $$width = ( حداکثر - حداقل) / N$$ من فکر می کنم N عددی است که طول لیست را به خوبی تقسیم می کند. بنابراین در این مورد 3 است. بنابراین: عرض = 70 چگونه از آن 70 برای ساخت سطل ها استفاده کنم؟ **ویرایش: پاسخ را پیدا کردم. آیا باید به سوالم پاسخ دهم یا فقط آن را حذف کنم؟**
|
باینینگ با عرض مساوی
|
35683
|
برای تناسب با یک مدل AR(5) ساده، از SAS «PROC AUTOREG» استفاده میکنم. من گزینه ARCHTEST=(QLM) را صدا زدم که تست ضرب کننده لاگرانژ Engle را برای اختلالات ARCH و تست Portmanteau Q ارائه می دهد. آمار SAS ارائه شده برای تست ضریب انگل لاگرانژ عبارت بود از: سفارش LM p-value 1 0.018 0.893 2 0.079 0.961 3 0.881 0.830 4 1.088 0.896 5 1.105 0.914 0.914 4.179 0.759 8 4.182 0.840 9 4.528 0.873 10 4.528 0.920 11 5.565 0.901 12 6.318 0.899 «باقیماندههای «آرچ» این مدل «T» را گرفتم و از «T» بهترین تابع «T» استفاده کردم. کتابخانه (FinTS). # تابعی برای انجام ArchTest در چندین تاخیر که در آن داده باقیمانده # مدل است. library(FinTS) arch.m1 = ماتریس (NaN,12,3) for(i در 1:12) {s = ArchTest(data,lags=i) arch.m1[i,1] = s$statistic arch.m1 [i,2] = s$parameter arch.m1[i,3] = s$p.value} نتایج آزمایش از تابع «ArchTest» بسته «FinTS» بسیار متفاوت است: سفارش LM p-value 1 0.014 0.907 2 0.092 0.955 3 0.835 0.841 4 2.194 0.700 5 3.189 0.671 6 13.092 0.013 8 23.161 0.003 9 18.780 0.027 10 18.467 0.048 11 22.565 0.020 12 23.828 0.021 من فکر می کردم که SAS `ARCHTEST=(QLM) عملکرد یکسانی را انجام می دهد و گزینه`` ARCHTEST=(QLM) را انجام می دهد. تست کنید اما ظاهرا نه آیا کسی می داند تفاوت بین تست های SAS و 'FinTS' چیست؟ **توجه**، داده های استفاده شده توسط Tsay (2005) در مثال صفحه 102 در اینجا موجود است. با استفاده از کد «R» زیر: library(FinTS) intc=read.table(http://faculty.chicagobooth.edu/ruey.tsay/teaching/fts2/m-intc7303.txt, quote=\ ) ArchTest(intc$V2,lags=12) پیدا کردم: $\chi^2$= 48.0425, df = 12, _p_ -value = 3.073e-06 با این حال، Tsay (2005:102) گزارش می دهد: $\chi^2$= 43.5041، df = 12، _p_ -value = 0.0000 اگر از: ArchTest(log(1+intc$) استفاده کنم V2)، تاخیر = 12) سپس: $\chi^2$= 43.5041، df = 12، _p_ -value = 0.0000 با این حال، این تفاوت های مشاهده شده بین SAS و «FinTS» را توضیح نمی دهد **از پاسخ شما سپاسگزاریم. تابع ArchTest بر اساس آمار دوم ارائه شده توسط @mpiktas است: $$TR^2=T\left(1-\frac{SSR_1}{SSR_0}\right)$$ intc=read.table(http://faculty.chicagobooth.edu/ruey.tsay/teaching/fts2/ m-intc7303.txt,quote=\) intc.ln=log(1+intc$V2) lag=12 mat=embed(intc.ln^2,lag+1) m=summary(lm(mat[,1]~mat[,-1])) SSR1=sum(residuals(lm(mat[,1]~mat[ ,-1]))^2) SSR0=جمع (باقیمانده (lm(mat[,1]~1))^2) stat=length(mat[,1])*(1-(SSR1/SSR0)) که $\chi^2$ = 43.5041 را می دهد. اگر اولین آمار ارائه شده توسط @mpiktas و نشان داده شده در صفحه 102 Tsay (2005) را اعمال کنم: $$F=\frac{(SSR_0-SSR_1)/m}{SSR_1/(T-2m-1)}$$ intc=read.table(http://faculty.chicagobooth.edu/ruey.tsay/teaching/fts2/m-intc7303.txt,quote=\) intc.ln=log(1+intc$V2 ) lag=12 mat=embed(intc.ln^2,lag+1) m=summary(lm(mat[,1]~mat[,-1])) SSR1=sum(residuals(lm(mat[,1]~mat[,-1]))^2) SSR0=جمع (بقایای) (lm(mat[,1]~1))^2) stat=((SSR0-SSR1)/lag)/(SSR1/(length(mat[,1])-(2*lag)-1)) این نسخه از آمار $\chi^2$ = 3.837 می دهد آیا پاسخ های بسیار متفاوتی هستند که در زیر برای مدل AR(5) SAS ارائه کرده ام: c(0.14167،0.14019،-0.42499،0.0222،0.04388،-0.03157،0.00897، -0.04567،0.29171،-0.06735،0.05235،0.05235،0.05235،0.05235،0.00897،0.00897-0. -0.2407،0.03766،-0.15011،0.11023،-0.30812،-0.02399، 0.13434،0.05836،0.09368،-0.01832،-0.156012،-0. 0.19431،0.10366،-0.09682،-0.04597،0.07162،0.16411،-0.02181، -0.00459،-0.16325،-0.09615،-0.04581،0.10441،0.12845،-0.0398، -0.03349،-0.01575،0.06923،-0.05008،-0.05006،-0 -0.0317،0.08914،0.07323،0.06519،0.16141،0.0537،0.08213، 0.01073،-0.06628،0.01297،0.00622،-0.1015،0.1015،-0.1015. 0.10322،-0.04991،-0.01223،-0.04975،-0.06043،0.01794، -0.00071،0.05425،-0.05462،0.01659،0.080254،0.08658،0. 0.01221) برای تاخیر 5، SAS $\chi^2$ = 1.105، `FinTS` $\chi^2$ = 3.189، و نسخه F-statistic $\chi^2$ = 0.560 می دهد. **مراجع:** Engle, R. F. 1982. هتروسکداستیسیته شرطی خودبازگشت با برآوردهای واریانس تورم انگلستان. اقتصاد سنجی 50:987-1007. Tsay, R. S. 2005. تجزیه و تحلیل سری های زمانی مالی. چاپ دوم. John Wiley & Sons, Inc., Hoboken, New Jersey, USA.
|
نتایج مختلف آزمون ضریب انگل لاگرانژ برای ناهمسانی شرطی از SAS و FinTS
|
25088
|
آیا نمونهگر گیبس در حضور چند حالت به حداکثر جهانی همگرا میشود؟ به عنوان مثال در مورد توزیع مخلوط گاوسی؟
|
نمونه برداری گیبس برای مخلوط های گاوسی
|
89911
|
مجموعه داده من شامل متغیرهای زیادی است که در مقیاس پیوسته به درجات مختلف به نظر من عملاً طبقه بندی می شوند. بسیاری از آنها یک تکه بزرگ از صفر یا مقدار خاصی دارند که با یک یا چند تکه جداگانه ظاهری همراه است. در برخی موارد این امر در جایی که به معنای واقعی کلمه 2 تک خاص به طور موثر روشن/خاموش وجود دارد آشکار است. سایرین کاندیدای بالقوه تری هستند که تقریباً 2 یا بیشتر توزیع جداگانه وجود دارد. من سعی می کنم یک پیوسته به طور معمول توزیع شده وابسته به تعدادی از متغیرهای بالقوه (جمع آوری شده در مقیاس پیوسته) را مدل کنم. بیشتر اینها احتمالاً به مدل کمک نمی کنند. من از روشهای مدلسازی مختلفی برای کشف بهترین چیزها استفاده خواهم کرد (یعنی روشهای درختی را که در آن ظاهر دوجملهای ظاهری مشکلی ندارد، امتحان خواهم کرد). من فکر نمی کنم که بتوان یک مدل خوب تولید کرد. در این مواقع آیا قوانین/تکنیک های سخت و سریعی برای دسته بندی یا نه وجود دارد؟ همچنین با انجام بالقوه تحولات، چه ملاحظات/اقداماتی را باید بدانم؟ من می گویم بیشتر مجموعه داده ها به این صورت است.
|
در چه نقطه ای یک متغیر پیوسته (و روش) را دسته بندی کنیم؟
|
113595
|
آیا انجام رمزگذاری یکباره متغیرهای طبقهبندی قبل از تقسیم دادهها به مجموعههای آموزشی و آزمایشی و اعتبارسنجی متقابل امن است؟ من میپرسم زیرا این فرآیند ابعاد دادهها را تغییر میدهد، و اگر مجموعههای تست/رزومه من به صورت جداگانه کدگذاری شده باشند، پیچیدهتر خواهد بود. شهود من به من می گوید که امن است. برای مثال، فرض کنید یک ویژگی طبقه بندی شده برای وضعیت ازدواج وجود دارد - می تواند متاهل، مجرد، مطلقه یا بیوه باشد. اگر وقتی به مجموعههای آموزشی و تست و cv تقسیم میکنم، هیچ نمونه Widowed وارد مجموعه آموزشی نمیشود، رمزگذاری تک داغ من فقط 3 ستون (متاهل، مجرد، مطلقه) در دادههای آموزشی ایجاد میکند. سپس برای تست مدل باید داده های تست و cv خود را به این فرمت تبدیل کنم. در حالی که اگر من قبل از تقسیم کردن یک هات کد می کردم، یک ستون اضافی در مجموعه آموزشی با تمام صفرها خواهم داشت. تا آنجا که می توانم بگویم این نباید بر عملکرد NN تأثیر بگذارد.
|
رمزگذاری تک داغ قبل یا بعد از تقسیم به مجموعه های آموزشی و آزمایشی؟
|
96044
|
در بخش 2.4 کتاب ESL اثر Hastie و غیره، گفته شد که $\hat{f}(x)=\text{Ave}(y_i\mid x_i\in N_k(x))\rightarrow E(Y\mid X=x)$ وقتی $N، k\rightarrow \infty$ و $k/N\right arrow 0$. در اینجا $N_k(x)$ همسایگی حاوی $k$ نقاط و Ave نشان دهنده میانگین است. آیا دلیل دقیقی برای این گفته وجود دارد؟
|
اثبات دقیق یک بیانیه در عناصر یادگیری آماری
|
74847
|
من سعی می کنم یک تحلیل اکتشافی در مورد آب و هوا انجام دهم. من می خواهم یک رگرسیون خطی چندگانه روی داده های خود انجام دهم و سپس مقدار پیش بینی شده را در برابر مقدار واقعی رسم کنم. این جایی است که من تا کنون به دست آوردهام: data<-read.csv(Amsterdam.csv, header=TRUE) data2<-data[SolarAltitude>0،] data2.lm<-lm(DirectRadiation ~ DryBulbTemperature + RelHum + AtmosphericPress , data=data2) data.data.frame(data2,fitted.value=fitted(data2.lm),residual=resid(data2.lm)) اگر بتونید کمک کنید خیلی ممنون میشم
|
R رگرسیون خطی چندگانه; رسم نتایج
|
63888
|
من یک توزیع احتمال گسسته ناشناخته $D$ دارم ($D$ یک تابع جرم احتمال است)، که در بازه $[a,b]$ ($a>0$) تعریف شده است و یک تخمین $\hat{D}$ از این قبیل که برای همه $t\in[a,b]$, $$(1-\varepsilon)D(t)\le\hat{D}(t)\le(1+\varepsilon)D(t)$ $ برای برخی $\varepsilon\in(0,1)$ ثابت. علاوه بر این $\hat{D}$ در واقع توزیعی در $[a,b]$ نیز است. آیا می توان چیزی در مورد اینکه چقدر شاخص پراکندگی $\hat{\sigma}^2/\hat{\mu}$ of $\hat{D}$ به خوبی به شاخص پراکندگی $\sigma^2 / \mu تقریبی میکند، گفت. دلار از D$؟ توجه داشته باشید که نشان دادن $(1-\varepsilon)\mu\le \hat{\mu}\le (1+\varepsilon)\mu$ آسان است، اما من در نشان دادن یک مرز برای انحراف بین واریانس $\hat{\sigma}^2$ و $\sigma^2$
|
شاخص پراکندگی با توزیع تقریبی
|
74842
|
رشته من CS است و یک سوال در مورد فرآیند تصمیم گیری مارکوف دارم. من در حال خواندن یک کتاب، برنامه ریزی با فرآیند تصمیم گیری مارکوف و دیدگاه هوش مصنوعی هستم. در حین مطالعه آن سوالی در رابطه با تعریف MDP و عمومیت آن دارم. زنجیره مارکوف مرتبه دوم را می توان به زنجیره مارکوف مرتبه اول تبدیل کرد. بنابراین هر فرآیند تصادفی که به تاریخچه طول محدود بستگی دارد، در نهایت می تواند زنجیره مارکوف مرتبه اول باشد. من فکر می کنم زمانی که فضای حالت گسسته و محدود را در نظر می گیریم، فرآیند تصمیم گیری مارکوف عمومی ترین فرآیند است. نمیدانم فرآیند تصمیمگیری غیرمارکویی وجود دارد یا خیر. اگر بخواهیم خط مشی بهینه یک MDP را با توجه به حداکثر مطلوبیت کل مورد انتظار (M.E.U) با استفاده از تکرار مقدار، برنامه نویسی پویا پیدا کنیم. اگر نمودار اتصال MDP غیر چرخهای باشد، تکرار مقدار همانند الگوریتم یافتن کوتاهترین مسیر بلمن-فورد است. من کنجکاو هستم که آیا فرآیند تصمیم گیری متفاوتی وجود دارد که با برنامه نویسی پویا قابل حل نباشد، در حالی که هنوز در حال یافتن یک خط مشی بهینه w.r.t هستیم. M.E.U؟ سوال به خودی خود گیج کننده است، اما به سادگی سوال من این است که اگر فضای حالت محدود باشد، MDP کلی ترین سوال است؟ سوال اضافی این است که چه زمانی در حال بهینه سازی w.r.t هستیم. معیارهای دیگری غیر از M.E.U، MDP را می توان با برنامه نویسی پویا حل کرد؟ امیدوارم کسی مسیرهایی را برای کشف این زمینه پیشنهاد کند. پیشاپیش ممنون
|
فرآیند تصمیم گیری مارکوف و کلیات آن
|
63882
|
من یک سری زمانی از داده های روزانه دارم و فرض می کنم هر نقطه در سری زمانی به طور معمول توزیع شده است. اگر من توزیعی از دادههای روزانه داشته باشم و بخواهم آن را برای پوشش یک ماه (30 روز) مقیاس کنم، معتقدم که فقط انحراف استاندارد را با جذر 30 مقیاس میکنم. فکر میکنم این فرض میکند که نقاط داده به طور مستقل توزیع شدهاند. اگر از میانگین متحرک نمایی وزنی برای محاسبه انحراف استاندارد استفاده کنم، آیا می توانم با ضرب در جذر 30، داده های روزانه را به ماهانه تبدیل کنم؟
|
مقیاس بندی توزیع نرمال در حین استفاده از EWMA
|
20907
|
فرض کنید که یک نفر 8 تجزیه و تحلیل همبستگی را اجرا می کند اما در دو دسته جداگانه: آیا تصحیح آلفا برای همه 8 آزمون به عنوان یک خانواده یا هر یک از 4 آزمون به عنوان یک خانواده اعمال می شود؟ به عنوان مثال، اگر دو سؤال تحقیق وجود داشته باشد و هر دو نیاز به تحلیل همبستگی داشته باشند، محقق 4 آزمون اول (برای سؤال تحقیق 1) و سپس 4 آزمون دوم (برای سؤال تحقیق 2) را انجام می دهد. در این صورت برای خانواده 4 تستی باید آلفا را اصلاح کرد یا برای خانواده 8 تستی؟ (توجه داشته باشید که در هر دو مورد از همان آزمون آماری--$r$- پیرسون استفاده میشود.) من میدانم که در این مورد اتفاق نظر وجود ندارد (همانطور که در مورد بسیاری از موارد دیگر در آمار که من سریع یاد میگیرم!) اما برخی دستورالعمل های گسترده بسیار مفید خواهد بود.
|
تصحیح آلفا در خانواده ای از تست ها
|
25086
|
بنابراین مانند این است که بگوییم 95٪ از اقلام فروخته شده در این وب سایت بین 25 تا 150 دلار قیمت دارند. در حالی که برخی از اقلام ممکن است کمتر از 25 دلار و سایر اقلام ممکن است بیش از 150 دلار قیمت داشته باشند. آیا راهی برای پیدا کردن این وجود دارد؟ آیا این چیزی مربوط به CI - فاصله اطمینان است؟
|
چگونه می توان حداقل محدوده (شروع/پایان) را که 95 درصد موارد در یک لیست عددی را پوشش می دهد، پیدا کرد؟
|
2086
|
من به دنبال همبستگی بین پاسخ به سؤالات مختلف در یک نظرسنجی هستم (امم، بیایید ببینیم که آیا پاسخ های سوال 11 با پاسخ های سوال 78 مرتبط است). همه پاسخ ها طبقه بندی شده اند (بیشتر آنها از بسیار ناراضی تا بسیار خوشحال هستند)، اما تعدادی از آنها مجموعه متفاوتی از پاسخ ها را دارند. بسیاری از آنها را می توان ترتیبی در نظر گرفت، بنابراین اجازه دهید این مورد را در اینجا در نظر بگیریم. از آنجایی که من به برنامه آمار تجاری دسترسی ندارم، باید از R استفاده کنم. من Rattle (یک بسته نرم افزاری رایگان داده کاوی برای R، بسیار خوب) را امتحان کردم، اما متأسفانه از داده های طبقه بندی پشتیبانی نمی کند. یکی از هکهایی که میتوانم استفاده کنم این است که نسخه کد شده نظرسنجی را که دارای اعداد (1..5) به جای بسیار ناراضی ... شاد است، در R وارد کنم و اجازه بدهم راتل باور کند که آنها دادههای عددی هستند. من به این فکر می کردم که یک نمودار پراکندگی انجام دهم و اندازه نقطه متناسب با تعداد اعداد برای هر جفت باشد. بعد از مدتی جستجو، http://www.r-statistics.com/2010/04/correlation-scatter-plot-matrix-for- ordered-categorical-data/ را پیدا کردم، اما (به نظر من) بسیار پیچیده است. من یک آمارگیر نیستم (بلکه یک برنامه نویس) اما در این مورد مطالعه داشته ام و اگر درست متوجه شده باشم، Rho_Spearman در اینجا مناسب است. بنابراین نسخه کوتاه سوال برای کسانی که عجله دارند: **آیا راهی برای طرح سریع rho اسپیرمن در R** وجود دارد؟ طرح به ماتریس اعداد ارجحیت دارد، زیرا به نظر آسان تر است و همچنین می تواند در مواد گنجانده شود. پیشاپیش از شما متشکرم. PS من مدتی فکر کردم که آیا این را در سایت اصلی SO ارسال کنم یا اینجا. پس از جستجوی هر دو سایت برای همبستگی R، احساس کردم این سایت برای این سوال مناسب تر است.
|
به سرعت همبستگی (بصری) بین داده های طبقه بندی شده در R را ارزیابی کنید؟
|
74841
|
یک قالب دو بار میچرخد، * $X_1$: حداقل مقداری که در دو رول ظاهر میشود * $X_2$: حداکثر مقداری که میخواهم $\ F_{X_1,X_2}(x_1,x_2)$ استخراج کنم. من می دانم که CDF $\ X_1 $ = $\ 1- [1-{F(x)]} ^ n $, CDF $\ X_2 $ $\ = $ $ \ [{F(x)]} ^ n $ و $\ F_{X_1,X_2}(x_1,x_2) = P(X_1<x_1|X_2<x_2)F_{X_2}(x_2) $ به نظر می رسد راه حل این باشد: $\ F_{X_1,X_2}(x_1,x_2) = 2F(\min[{x_1,x_2}]) F(x_2) - F(\min[{x_1,x_2}])^2 $ میخواهم بفهمم چگونه میتوان چنین راهحلی را بهدست آورد.
|
سی دی اف مشترک مقادیر افراطی
|
107599
|
من در تلاش برای یافتن برآوردگر بهینه برای حداکثر $\Sigma X_i$ مورد انتظار هستم که در آن $X_i$ از یک توزیع ناشناخته که حداکثر انتخاب شده است نمونه برداری می شود. برای شفافسازی و سادهسازی، دو مجموعه داده $Y_i$ و $Z_i$ وجود دارد که از توزیعهای pdf مشابه اما احتمالاً متفاوت $y$ و $z$ گرفته شدهاند. من یک تخمینگر روی $Z_i$ و $Y_i$ میخواهم که پیشبینی کند کدام pdf در نمونهبرداری آینده، یعنی $\Sigma X_i$، مقدار بیشتری تولید میکند. تعداد عناصر در هر مجموعه $N_y$ و $N_z$ توسط پیاده سازی ما انتخاب می شود، بنابراین باید تعداد عناصر را عادی سازی کنیم. یا به عبارت دیگر، ما بیشتر به میانگین $\mu = \Sigma X_i / N_x$ علاقه مندیم زیرا نمونه گیری آینده ما یک $N_x$ ثابت مستقل از انتخاب $y$ یا $z$ دارد. این منجر به روش استاندارد انتخاب بر اساس میانگین هر سناریو، $\mu$، و خطا در میانگین $\sigma_\mu$ میشود. چیزی که من به آن علاقه دارم این است که آیا میانگین واقعاً بهترین برآوردگر برای انتخاب سناریویی است که به بالاترین $\Sigma X_i$ مورد انتظار منتهی می شود. در یک سناریوی ساده من مطمئن هستم که پاسخ مثبت است، اما برخی از عوارض وجود دارد. هیچ مدل خوبی برای توزیع های زیربنایی که $Y_i$ یا $Z_i$ تولید می کند وجود ندارد، اما هیستوگرام هر کدام به صورت تصاعدی کاهش می یابد. از این رو وقوع چند عدد پرت با ارزش بالا که کار را پیچیده می کند. دلیل اصلی که فکر میکنم میانگین ممکن است بهترین نباشد، به دلیل حساسیت آن به این موارد پرت است. راه حل حذف نقاط پرت و انجام یک روش بوت استرپینگ در اینجا مورد بحث قرار می گیرد: بوت استرپینگ - آیا ابتدا باید نقاط پرت را حذف کنم؟ از این نظر من فکر می کنم واضح است که حذف موارد پرت توصیه نمی شود. علاوه بر این، تعداد عناصر، $N_y$ و $N_z$، میلیونها نفر است، بنابراین CLT ادعا میکند که برای بدست آوردن $\sigma_\mu$ اصلاً نیازی به بوت استرپ نداریم. پیچیدگی دیگر این است که توزیع به دو صورت کوانتیزه/گسسته است. برای توضیح این موضوع اجازه میدهیم بهینهسازی برای درآمدهای آینده را در یک تست تقسیم مثال بزنیم. دو سناریو وجود دارد که منجر به دو مجموعه $Z_i$ و $Y_i$ می شود که نشان دهنده مبلغ هزینه شده برای هر مشتری است. برای نشان دادن اینکه پی دی اف های زیرین پیوسته نیستند، ابتدا باید توجه داشت که کوچکترین واحد پول یک پنی است، بنابراین محدوده هر پی دی اف اعداد صحیح است. ثانیا و مهمتر از آن، اقلامی که باید بخرید، فضا را در بر نمی گیرند. به عنوان مثال فرض کنید یک کالا وجود دارد که قیمت آن 20 دلار است اما هیچ کالای دیگری در محدوده قیمت [\$15,\$25] وجود ندارد. از آنجایی که تعداد زیادی مشتری تک خرید وجود دارد، اوج قیمت 20 دلار خواهد بود. ساده ترین انتخاب یک برآوردگر جایگزین، میانه، $\tilde{x}$ خواهد بود، زیرا حساسیت کمتری نسبت به مقادیر پرت و غیر حساس به پارامترهای مجدد دارد. با این حال، از آنجایی که بیش از 95٪ مشتریان 0 $ خرج می کنند، میانگین همیشه 0 $ خواهد بود. همچنین، مطمئن نیستم که میانه تخمینزن خوبی برای $\Sigma X_i$ مورد انتظار به طور کلی باشد. بنابراین سوال این است که آیا برآوردگر بهتری از میانگین $Y_i$ و $Z_i$ برای حداکثر $\Sigma X_i$ مورد انتظار وجود دارد؟ کلمه بهتر در زمینه به معنای قمار اشاره دارد که در آن بهترین شرط بهترین است.
|
تخمینگر بهتری از مجموع مورد انتظار نسبت به میانگین
|
35865
|
من علاقه مند به بررسی این موضوع هستم که چگونه ویژگی های مختلف سیستم های بازنشستگی ملی با یکدیگر مرتبط هستند. من از MCA برای مجموعه داده ای استفاده کرده ام که در آن ردیف ها کشورها و ستون ها ویژگی های مختلف سیستم های بازنشستگی هستند. با این حال، من مطمئن نیستم که چگونه فاصله بین نقاط را در طرح مشترک SPSS از نقاط دسته بندی تفسیر کنم. با استفاده از یک نرمال سازی متقارن، آیا فواصل بین نقاطی که دسته بندی متغیرهای مختلف را نشان می دهند، چیزی در مورد چگونگی ارتباط این دسته ها می گوید؟ آیا فاصله کوتاهتر به معنای سطح بالاتری از ارتباط است؟
|
تفسیر تجزیه و تحلیل مکاتبات چندگانه
|
58814
|
تفاوت HMM گاوسی و مخلوط گاوسی HMM (انتشار مخلوط گاوسی یا گاوسی است) چیست؟ میخوام بدونم همینطوره هنگام تخمین پارامترها با استفاده از الگوریتم Baum Welch چه فایده ای دارد؟
|
مخلوط گاوسی HMM
|
105574
|
مجموعه دادههای زیر را در نظر بگیرید که هر ماه از سال 2013 را با مصرف گاز طبیعی برای گرم کردن آپارتمان و میانگین دمای مربوطه نشان میدهد. چگونه می توانم این سری زمانی را فصلی تنظیم/نرمال کنم؟ * * * 1 156 m³ 1,4 °C 2 199 m³ 0,3 °C 3 173 m³ 2,3 °C 4 69 m³ 9,6 °C 5 63 m³ 12,2 °C 6 9 m³ 16,9 درجه C 7 9 m³ 20,8 °C 8 9 m³ 18,5 °C 9 15 m³ 14,3 °C 10 19 m³ 11,4 °C 11 83 m³ 5,2 °C 12 62 m³ 4,2 °C * * * می خواهم توجه داشته باشم که در زمستان سردتر است و در تابستان گرمتر است و بدانید که آیا در مقایسه به انرژی بیشتر یا کمتری نیاز داشتم. (مخصوصاً از نظر مقایسه با سال 2014 به عنوان مثال) من می دانم چگونه از R استفاده کنم، اگر توضیح دادن را برای شما آسان تر می کند.
|
چگونه تنظیم فصلی را به یک سری زمانی انجام دهیم؟
|
63881
|
من روی SVM کار می کنم و سعی می کنم تمام مفاهیم را درگیر کنم. به عنوان مثال، نقشه برداری هسته. من می خواهم بخش هایی از الگوریتم را خودم بسازم تا بفهمم چه اتفاقی دارد می افتد. هدف من ایجاد یک نقشه مانند این تصویر است (از اینجا گرفته شده است)  من به طور کامل متوجه نمی شوم که مقادیر ورودی و خروجی هسته عبارتند از؛ برای نگاشت نقاط داده به بعد 3، خروجی باید مقادیر Z باشد، درست است؟ و ورودی (بردارهای) مقادیر X و Y هستند؟ کد (matlab) من برای دریافت مقادیر z این است: z = exp(-( (abs(x-y).^2)./ (2*gamma^2) )); اما z-values فقط یک منحنی زنگی هستند، ما از این قبیل:  من واقعاً نمی دانم چه اشتباهی انجام می دهم ، اما فکر می کنم مفاهیم هسته و نقشه برداری (ضمنی/ صریح) را اشتباه گرفته ام. چگونه می توانم یک تابع (matlab) بسازم که داده های دوبعدی را با استفاده از تابع پایه شعاعی گاوسی به فضای سه بعدی نگاشت کند؟ -- ویرایش -- با تشکر از user27840 من آن را با کد متلب زیر کار کردم: gamma = 2; D = مربع شکل ( pdist(داده، 'اقلیدسی')); D = exp(-(D .^ 2) ./ (2*gamma^2)); z = جمع (D); این منجر به نمودار سه بعدی زیر، از داده های دو بعدی اصلی می شود:  -- ویرایش2: -- برای کسانی که به یکی علاقه مند هستند ماشین های بردار پشتیبانی کلاس؛ من یک پست وبلاگی در مورد آن نوشتم، با استفاده از پاسخ این موضوع: مقدمه ای بر ماشین بردار پشتیبانی یک کلاس
|
از هسته RBF Gaussian برای نگاشت داده های دو بعدی به سه بعدی استفاده کنید
|
103828
|
صفحه Scikit Learn در مورد انتخاب مدل، استفاده از اعتبارسنجی متقابل تودرتو را ذکر می کند: > > >>> clf = GridSearchCV(estimator=svc, param_grid=dict(gamma=gammas)، > ... n_jobs=-1) > >>> cross_validation.cross_val_score(clf، X_digits، y_digits) > > > دو اعتبار متقابل حلقه ها به صورت موازی انجام می شوند: یکی توسط برآوردگر > GridSearchCV برای تنظیم گاما و دیگری توسط cross_val_score برای > اندازه گیری عملکرد پیش بینی برآوردگر. نمرات حاصل > برآوردهای بی طرفانه از امتیاز پیش بینی در داده های جدید است. با توجه به آنچه که من میدانم، «clf.fit» از اعتبارسنجی متقاطع برای تعیین بهترین گاما استفاده میکند. در این صورت، چرا باید از cv تودرتو که در بالا ذکر شد استفاده کنیم؟ یادداشت اشاره میکند که cv تودرتو «تخمینهای بیطرفانه» امتیاز پیشبینی را ایجاد میکند. آیا در مورد «clf.fit» نیز چنین نیست؟ همچنین، من نتوانستم بهترین برآوردهای clf را از رویه «cross_validation.cross_val_score(clf، X_digits، y_digits)» دریافت کنم. لطفا راهنمایی کنید که چگونه می توان این کار را انجام داد؟
|
استفاده از اعتبارسنجی متقابل تو در تو
|
105570
|
من یک پایگاه داده با متغیرهای مختلف دارم که حاوی اطلاعاتی مانند سن، تاریخ واکسیناسیون، تعداد دوزها و همچنین تعداد آنتی بادی ها (که متغیر هدف من است) است. اگر تعداد آنتیبادیها کمتر از 100 و 10 باشد، سطح آنتیبادیهای بیمار کم و بر این اساس بسیار کم در نظر گرفته میشود. هدف من ایجاد مدلی است که با آن بتوانم بر اساس این حقایق تعیین کنم که چه زمانی بیمار باید واکسیناسیون بعدی خود را دریافت کند. تا کنون من فقط درخت های تصمیم را با استفاده از R Studio ایجاد کرده ام. دانش ریاضی من برای ارائه راه حل محدود است. چگونه می توان به این امر دست یافت؟
|
داده کاوی، تولید یک مدل از پایگاه داده
|
99170
|
این سوالی است که از مطالعه هاگ و کریگ مقدمه ای بر آمار ریاضی، ویرایش هفتم، صفحه 568.  فرض می کنیم که یک نمونه تصادفی از $X_1,\ldots,X_{n1}$ و یک نمونه تصادفی از $Y_1،\ldots، Y_{n_2}$، $n$ نشاندهنده اندازه نمونه ترکیبی است، یعنی $n=n_1+n_2$ و **sgn(.)** $1$ است اگر کمیت در برکرها مثبت باشد، $0$ اگر صفر باشد و $-1$ اگر منفی باشد. همچنین متغیرها را از پایین به بالا رتبه بندی می کنیم. آیا می توانید به من کمک کنید تا بفهمم چگونه نویسندگان به این نتیجه می رسند که تفاوت در برآوردگر میانه ها آن معادله را حل می کند؟ هیچ توضیحی از طرف آنها وجود ندارد و کلمه به راحتی بیجا به نظر می رسد :) ممنون.
|
یک سوال در مورد یک معادله برآورد ناپارامتریک
|
99172
|
فرض کنید من مجموعه های A و B از داده های توزیع شده نرمال را دارم به طوری که: A: mean=250، SD=200، N=25 B: mean=248، SD=200، N=20 واضح است که از نظر آماری تفاوت معنی داری بین داده ها وجود ندارد. میانگین (9736/0=p). اما آیا این بدان معناست که ابزارها برابر هستند یا هیچ مدرکی برای اثبات خلاف آن نداریم؟ با توجه به انحراف استاندارد بزرگ، بعید به نظر می رسد که میانگین ها **برابر** باشند. اما این چیزی است که فرضیه صفر می گوید و بر اساس آزمون t ما آن را رد نکردیم. با داشتن چنین داده های پر سر و صدایی، چگونه می توان میزان برابری میانگین ها را کمّی کرد؟ **به روز رسانی** این سوال از بحثی بین من و یکی از همکاران که در حال آزمایش اثر دو درمان دارویی بر روی نمونه های بیولوژیکی بود، ناشی شد. از آنجایی که آزمایش تفاوت ناچیز بین درمانها را نشان داد، همکارم فرض کرد که این به او اجازه میدهد ادعا کند که درمانها اثر یکسانی دارند. با مثال بالا سعی کردم نشان دهم که لزوماً اینطور نیست. اما من اصطلاحات مناسب را برای کمی بیشتر کردن چیزها نمی دانستم. از این رو این سوال.
|
آیا تفاوت آماری ناچیز میانگین ها به معنای برابری میانگین هاست؟
|
89914
|
من یک مجموعه داده دارم که کاملا باینری است. مجموعه مقادیر هر متغیر در دامنه است: true، false. ویژگی ویژه این مجموعه داده این است که اکثریت قریب به اتفاق مقادیر نادرست هستند. من قبلاً از الگوریتم یادگیری شبکه بیزی برای یادگیری یک شبکه از داده ها استفاده کرده ام. با این حال، برای یکی از گره های هدف من (مهمترین آنها، مرگ است)، نتیجه AUC خیلی خوب نیست. کمی بهتر از شانس است حتی ارزش پیشبینی مثبت (PPV)، که در CV به من پیشنهاد شده است، با آنچه در ادبیات با رویکردهای دیگر گزارش شده است، رقابتی نبود. توجه داشته باشید که AUC (تجزیه و تحلیل ROC) معیار معمولی است که در این زمینه از تحقیقات بالینی گزارش شده است، اما در صورت وجود ایدههای دیگری، پیشنهادهایی در مورد چگونگی محک زدن مناسبتر مدل طبقهبندی را نیز آماده میکنم. بنابراین، من نمیدانستم که چه مدلهای طبقهبندی دیگری را میتوانم برای این نوع مجموعه داده با این ویژگی (عمدتا مقادیر نادرست) امتحان کنم. * آیا کمک ماشین برداری را پشتیبانی می کند؟ تا آنجایی که من می دانم، SVM فقط با متغیرهای پیوسته به عنوان پیش بینی کننده سروکار دارد (اگرچه برای چند کلاس تطبیق داده شده است). اما متغیرهای من همه باینری هستند. * آیا یک جنگل تصادفی کمک می کند؟ * آیا رگرسیون لجستیک در اینجا اعمال می شود؟ تا آنجا که من می دانم، پیش بینی کننده ها در رگرسیون لجستیک نیز پیوسته هستند. آیا نسخه تعمیم یافته ای برای متغیرهای باینری به عنوان پیش بینی کننده وجود دارد؟ جدای از عملکرد طبقه بندی، من گمان می کنم SVM و جنگل تصادفی ممکن است به خوبی از شبکه بیزی بهتر عمل کنند، اما مشکل به چگونگی توضیح روابط در این مدل ها (به ویژه برای پزشکان) تغییر می کند.
|
ساخت یک مدل طبقه بندی برای داده های کاملا باینری
|
20904
|
مدل ANOVA دو طرفه را با جلوههای ترکیبی در نظر بگیرید: $$ Y_{i,j,k} = \underset{M_{i,j}}{\underbrace{\mu + \alpha_i + B_j + C_{i,j} }} + \epsilon_{i,j,k}، $$ با $\textbf{(1)}$: $\sum \alpha_i = 0$، عبارتهای تصادفی $B_j$, $C_{i,j}$ و $\epsilon_{i,j,k}$ مستقل هستند, $B_j \sim_{\text{iid}} {\cal N}(0, \sigma_ \beta^2)$, $\epsilon_{i,j,k} \sim_{\text{iid}} {\cal N}(0, \sigma^2)$ ; و دو احتمال برای تعاملات تصادفی وجود دارد: $\textbf{(2a)}$ : $C_{i,j} \sim_{\text{iid}} {\cal N}(0, \sigma_\gamma^2 )$ یا $\textbf{(2b)}$ : $C_{i,j} \sim {\cal N}(0, \sigma_\gamma^2)$ برای همه $i,j$، بردارهای تصادفی $C_{(1:I)، 1}$، $C_{(1:I)، 2}$، $\ldots$، $C_{(1:I)، J}$ مستقل هستند، و $C_{\bullet j}=0$ برای همه $j$ (یعنی میانگین هر بردار تصادفی $C_{(1:I)، j}$ صفر است. مدل $\textbf{(1)}$ + $\textbf{(2a)}$ مدلی است که توسط بسته nlme/lme4 در R یا عبارت PROC MIXED در SAS درمان می شود. مدل $\textbf{(1)}$ + $\textbf{(2b)}$ مدل محدود نامیده می شود، به ویژه $M_{\bullet j} = \mu + B_j$ را برآورده می کند. به نظر شما یکی از این دو مدل «بهتر» (از این نظر) یا مناسبتر از دیگری است؟ آیا می دانید که آیا می توان فیتینگ مدل محدود را در R یا SAS انجام داد؟ با تشکر
|
مدل ANOVA اثرات مختلط دو طرفه
|
107592
|
هدف من تخمین تابع کمیت 2.5% و 97.5% (برای بدست آوردن فواصل مرجع) برای یک امتیاز خاص در وابستگی به سن است که با کلاسهای یک متغیر سوم جدا شده است. بنابراین ابتدا 11 دسته از cag را ساختم و برای هر یک از این دسته ها، 2 تابع کمیت را برای امتیاز ارتباط با سن (با نرم افزار R) مدل کردم. در تجزیه و تحلیل دوم، من از cag مستقیماً در مدل خود «[امتیاز ~ عامل(cag)+ سن*عامل(cag)]» استفاده کردم و همچنین 11 پلات دریافت کردم، اما آنها با 11 نمودار اول متفاوت هستند. به هر حال، من توابع نمایی را از طریق رگرسیون چندک خطی مدل کردم. با توجه به نمودارها، آنالیز اول با تابع کمیت 2.5 درصد بهتر از تحلیل دوم با داده ها مطابقت دارد. و بالعکس با تابع کمیت 97.5٪. بنابراین من گیج شده ام که کدام تحلیل را باید انجام دهم و سوال من این است: آیا می توانم تابع کمیت 2.5 درصد تحلیل اول و تابع کمیت 97.5 درصد تحلیل دوم را بگیرم؟ ممکن است آن را مخلوط کنم؟
|
مدل های مختلف برای توابع کمی متفاوت ممکن است؟
|
58815
|
تابع مجزای SVM این است: $wx+b=0$ فاصله تابع بردار پشتیبان تا صفحه جداگانه: $|r| = wx_i+b$ و میتوانیم $w$ را نرمال کنیم، سپس فاصله را میتوان به صورت زیر نوشت: $\frac{|r|}{|w|} = \frac{wx_i+b}{|w|}$ و سپس $|r|$ را در 1 تقریبی کنید. بنابراین ما باید حداکثر $\frac{1}{|w|}$ را بدست آوریم. به طور واقعی، من نفهمیدم **چرا $|r|$ را می توان با 1 تقریب زد. زیرا $|r|$ نیز شامل ضریب $w$ است.**
|
چرا حاشیه SVM را می توان با 1 تقریب زد؟
|
33437
|
من اغلب این جمله را دیدهام که جداییپذیری خطی در ابعاد بالا راحتتر به دست میآید، اما دلیل آن را نمیدانم. آیا این یک واقعیت تجربی است؟ یک اکتشافی؟ مزخرفات آشکار؟
|
آیا درست است که در ابعاد بالا، جداسازی خطی داده ها آسان تر است؟
|
58810
|
به نظر شما این متغیرهای ساختگی با مقادیر وزن حاصل در تحلیل پوششی داده های BCC/VRS چه می کنند؟ به نظر می رسد که روابط 1 و -1 برنامه را به سمت برابر کردن وزن ستون های موجود هدایت می کند، اما این لزوما درست نیست. جهت های برنامه ای که محدودیت های محدب روی وزن ها را می توان گنجاند و اینکه آنها مخروطی هستند. این یک فایل نمونه است. ------------------------------------------- DMU MktSh-I Salar-I Occ$-I #Hous-I Inchs-I OtherExp-I NetCntr-Out ------------------------------------------- DMU1 1.332 1.706 1.414 1.326 0.853 3.005 1.003 DMU2 1.264 1.429 0.965 1.218 0.982 1.897 1.570 DMU3 1.544 1.496 1.363 0.803 0.703 2.283 1.415 DMU4 0.926 1.861 2.333 1.965 1.965 0.751d 0.7596 0.733 0.937 0.581 1.583 0.579 0.833 0.566 CasaLind 1.247 1.017 0.563 1.881 0.795 0.962 1.706 1.706 JoseyLn 0.6750.670. 0.972 0.523 0.500 . . DMU32 1.073 0.603 0.499 0.765 1.636 0.656 0.758 Dummy01 -0.950 0.050 0.050 0.050 0.050 0.050 0.000 - 0.000 0.000 0.000 - 0.000 Dummy 0.000 0.000 0.000 0.000 Dummy03 0.000 1.000 0.000 0.000 0.000 -1.00 0.000 Dummy04 0.050 0.050 0.050 0.050 0.050 -0.9 Dummy05 0.050 0.050 0.050 0.050 -0.95 0.050 0.000 Dummy06 0.000 1.000 0.000 0.000 -1.00 0.000 0.000 0.000 نتیجه من فقط برای اجرای 0.000 سطح Wynnewd: 1 وضعیت: رتبه کارایی کارآمد: 1 ضریب ارزش مجموعه مرجع Value Slack NetCntrb(O) 0.077685 MktShare(I) 0.04682 حقوق و دستمزد (I) 0.070701 Occupan$(I) 0.020I (I) 0.0_70. Inc/Hous(I) 1.1268 OtherExp(I) 0.04682 ----------------------------------- نتایج خلاصه برای سطح CasaLind: 1 وضعیت: رتبه کارایی کارآمد: 1 ضریب ارزش مجموعه مرجع ارزش Slack NetCntrb(O) 0.17643 MktShare(I) 0.020472 حقوق (I) 0.020472 Occupan$(I) 0.069489 #_Houses(I) 0.020472 Inc/Hous(I) 1.3244 OtherExp(I)4720. ---------------------------------------------- نتایج خلاصه برای JoseyLn سطح: 1 وضعیت: رتبه کارایی ناکارآمد: 0.84999 ضریب مقدار مجموعه مرجع ارزش Slack OakCliff 0.33882 NetCntrb(O) 1.3178e-017 FarmBrch 0.57486 MktShare(I) 0.028515 Plsntgrv 0.086311 حقوق و دستمزد (I) 0.059021 Occupan$(I) 0.31351 #_خانه ها (Houses) (I) (I) 79 I 0.15003 متغیرهای مشاهدهشده ایدهآل NetCntrb(O) 0.5 1.3737 MktShare(I) 0.823 0.67496 حقوق (I) 0.675 0.52583 Occupan$(I) 0.435 (0.39I 0.39 I) 0.60187 Inc. NetCntrb(O) 0.074264 MktShare(I) 0.049537 حقوق و دستمزد (I) 0.049537 Occupan$(I) 0.079083 #_Houses(I) 0.049537 Inc/Hous(I) همچنین 1.104Ps (I) 1.104 (I) سایر انعام متغیرهای غیر اختیاری به عنوان مقوله/ ساختگی؟
|
متغیر ساختگی به عنوان محدودیت جانبی در DEA
|
58817
|
من سعی می کنم بهترین راه را برای تجسم داده های زیر پیدا کنم: من مقادیری برای 3 زمان/تاریخ مختلف دارم، هر زمان/تاریخ 20 گونه مشابه دارد. برای هر گونه من میانگین ارتفاع و انحراف معیار را دارم (که از n مشاهده به دست آمد). من مشاهداتی را ندارم که میانگین و انحراف معیار از کجا به دست آمده است. داده ها اینگونه به نظر می رسند. گونه ها از 1 تا 20 شماره گذاری می شوند. t1 = cbind(seq(1,20,1),runif(20,0.5,5.0),runif(20,0,1.0)) t2 = cbind(seq(1,20,1) ),runif(20,0.9,6.0),runif(20,0.2,1.5)) t3 = CBIND (SEQ (1،20،1) ، Runif (20،0.1،8.5) ، Runif (20،0.4،1.0)) آیا کسی می تواند مشاوره ای در مورد بهترین نقشه/گرافیک برای استفاده ارائه دهد؟ من میخواهم تکامل میانگین و انحراف معیار را در زمان نشان دهم، اما نمیخواهم نمودار خطی انجام دهم و برای یک نقشه حرارتی یک مجموعه داده کوچک دارم.
|
تجسم داده ها از میانگین و انحراف استاندارد در یک سری زمانی کوچک
|
108912
|
من ماتریس همبستگی بزرگی در اکسل دارم که میخواهم از آن برای اطلاع از انتخاب متغیرهای توضیحی در یک مدل رگرسیون خطی چندگانه استفاده کنم. یک مشکل این است که داده های اولیه بسیار پراکنده بودند و برخی از ستون ها به طور قابل توجهی صفرهای بیشتری نسبت به بقیه داشتند. چگونه می توانم متغیرهایی را با کمترین همبستگی انتخاب کنم بدون اینکه در دام انتخاب متغیرهایی که کمترین همبستگی زوجی را دارند صرفاً به این دلیل که هر دو بسیار پراکنده بودند بیفتم؟
|
استفاده از یک ماتریس همبستگی مشتق شده از یک ماتریس پراکنده
|
89917
|
من یک ماتریس فاصله برای برخی از دادههایی که میخواهم خوشهبندی کنم، دارم. با این حال، من فقط نمیخواهم عناصر را به خوشهها اختصاص دهم، بلکه میخواهم احتمال تعلق هر عنصر به هر خوشه را نیز تعیین کنم. آیا می توانید نمونه هایی از الگوریتم های خوشه بندی که می توانند این کار را انجام دهند به من بدهید؟ آیا، برای مثال، یک الگوریتم خوشهبندی سلسله مراتبی وجود دارد که برای هر عنصر، احتمال تعلق به هر خوشه را برمیگرداند؟
|
الگوریتم های خوشه بندی که مقادیر احتمال را تخصیص می دهند
|
107591
|
من داده های دو متغیر تصادفی X و Y (هر کدام به اندازه n x 1) و pdf مشترک آنها (تابع چگالی احتمال) (با اندازه m x m که در آن m برابر با n نیست) دارم. چگونه می توانم عملکرد مولد ممان مشترک آنها (MGF) را ارزیابی کنم؟ نکته مهم این است که من نوع متغیرهای تصادفی را نمی دانم. با تشکر
|
محاسبه تابع تولید ممان مشترک
|
99173
|
من چند روزی است که در حال انجام آزمایشات هستم و از خودم می پرسم که چرا اینقدر طول می کشد. بنابراین تنظیمات اینجاست: من از Weka api استفاده می کنم و کدی را در جاوا نوشته ام که فرآیند طبقه بندی را خودکار می کند. من مجموعه داده ای متشکل از 17553 نمونه دارم که حاوی برخی برچسب ها است. برای 100 برچسب پرتکرار، من می خواهم یک طبقه بندی کننده باینری آموزش دهم و الگوریتم خود را با اعتبار سنجی متقاطع 5 برابری آزمایش کنم. همه اینها بر روی یک لپ تاپ دل با دو هسته سانترینو با آخرین نسخه اوبونتو 14.04 LTS و در مجموع 4 گیگابایت رم اجرا می شود. تقریباً 40-45 دقیقه طول می کشد تا نتایج یک برچسب به دست آید. لپ تاپ الان بیش از 2 روز است که کار می کند و من حتی هنوز همه نتایج را ندارم. و همچنین، من در حال آموزش طبقه بندی کننده SMO موجود در WEKA با پارامترهای پیش فرض آن هستم. فقط میخواستم بدونم این طبیعیه؟ FYI قبل از شروع به اجرای اعتبار سنجی متقاطع 5 برابری، من یک فایل ARFF. حاوی داده ها ساخته ام و آن را با BufferedReader خوانده ام. با این حال، این کار باید فقط یک بار در ابتدای شروع برنامه انجام شود. و همچنین، من یک طبقه بندی کننده SMO را همانطور که در WEKA یافت می شود با پارامترهای پیش فرض آن آموزش می دهم.
|
چرا اعتبار سنجی متقاطع 5 برابری برای 100 طبقه بندی کننده باینری در WEKA اینقدر طول می کشد
|
107597
|
برای رگرسیون خطی ساده، ضریب رگرسیون مستقیماً از ماتریس واریانس-کوواریانس $C$، با $$ C_{d، e}\over C_{e,e} $$ قابل محاسبه است که در آن $d$ شاخص متغیر وابسته است، و $e$ شاخص متغیر توضیحی است. اگر فقط ماتریس کوواریانس داشته باشیم، آیا می توان ضرایب مدلی با متغیرهای توضیحی متعدد را محاسبه کرد؟ ETA: برای دو متغیر توضیحی، به نظر می رسد که $$\beta_1 = \frac{Cov(y,x_1)var(x_2) - Cov(y,x_2)Cov(x_1,x_2)}{var(x_1)var(x_2 ) - Cov(x_1,x_2)^2} $$ و به طور مشابه برای $\beta_2$. من بلافاصله نمی بینم که چگونه می توان این را به سه یا چند متغیر گسترش داد.
|
آیا راهی برای استفاده از ماتریس کوواریانس برای یافتن ضرایب رگرسیون چندگانه وجود دارد؟
|
58811
|
1. کدام یک مدل رگرسیون خطی نیست؟ لطفا 1-2 جمله توضیح مختصری به انتخاب خود بدهید. (الف) $y_i = β_0 +\exp(β_1x_i)+E_i، i = 1، 2، \ldots، n$ (ب) $y_i = β_0 + β_1x_i + β_2 x_{ii} + E_i، i = 1، 2 , \ldots, n$ (c) $y_i =β_0\exp(x_i)+β_2x_i^7 +E_i، i=1، 2،\ldots، n$ 2. فرض کنید $X$ و $Y$ دارای ضریب همبستگی خطی $r = 0.5$ هستند و 77 مشاهده وجود دارد. ، آمار آزمون برای آزمون فرضیه چیست $$H0:β_1=0 \quad\text{در مقابل}\quad Ha:β_1\neq0 $$ که $β_1$ از مدل رگرسیون خطی ساده زیر می آید؟ لطفا 1-2 جمله توضیح مختصری به انتخاب خود بدهید. $\quad Y = β_0 + β_1X + E$ (a). اطلاعات کافی نیست (ب). 5 (ج). 0.25 3. کدام مدل ممکن است $R^2$ کوچکتر داشته باشد؟ لطفا 1-2 جمله توضیح مختصری به انتخاب خود بدهید. A: $Y=β_0+β_1X_1+E$ B: $Y=β_0^*+β_1^*X_1+β_2^*X_2+E^*$ که در آن $Y$ و $X_1$ در مدل A و B یکسان هستند . (الف). اطلاعات کافی نیست (ب). مدل A (c). مدل B
|
انتخاب چندگانه در رگرسیون خطی
|
33433
|
اگر بهترین تقریب خطی (با استفاده از حداقل مربعات) از نقاط داده من خط $y=mx+b$ باشد، چگونه می توانم خطای تقریب را محاسبه کنم؟ اگر من انحراف معیار تفاوت بین مشاهدات و پیش بینی ها را محاسبه کنم $e_i=real(x_i)-(mx_i+b)$، آیا می توانم بعداً بگویم که یک مقدار واقعی (اما مشاهده نشده) $y_r=real(x_0)$ متعلق به فاصله $[y_p-\sigma، y_p+\sigma]$ ($y_p=mx_0+b$) با احتمال ~68% با فرض توزیع نرمال؟ برای روشن شدن: من مشاهداتی در رابطه با تابع $f(x)$ با ارزیابی آن در برخی از نقاط $x_i$ انجام دادم. من این مشاهدات را در یک خط $l(x)=mx+b$ قرار دادم. برای $x_0$ که من مشاهده نکردم، می خواهم بدانم که $f(x_0)-l(x_0)$ چقدر می تواند بزرگ باشد. با استفاده از روش بالا، آیا درست است که بگوییم $f(x_0) \in [l(x_0)-\sigma, l(x_0)+\sigma]$ با prob. ~68 درصد؟
|
فاصله پیش بینی رگرسیون خطی
|
108911
|
من همین الان داشتم این مقاله در مورد عامل بیز را برای یک مشکل کاملا نامرتبط می خواندم که به طور تصادفی به این قسمت برخوردم. فرضیه صفر، شامل عدم قطعیت مدل، > میشود و به مدلهای غیر تودرتو اجازه مقایسه میدهد (البته مدل باید متغیر وابسته یکسانی داشته باشد). **همچنین، آزمونهای اهمیت مکرر گرا > به نفع رد فرضیه صفر با حجم نمونه به اندازه کافی > مغرضانه میشوند.** [تاکید شده است] من قبلاً این ادعا را در مقاله کارل فریستون در سال 2012 در NeuroImage دیدهام، جایی که او آن را _اشتباه استنتاج کلاسیک_. من در یافتن یک گزارش آموزشی واقعاً در مورد اینکه چرا این باید درست باشد، کمی مشکل داشتم. به طور خاص، من تعجب می کنم: 1. چرا این اتفاق می افتد 2. چگونه می توان در برابر آن محافظت کرد 3. شکست آن، چگونه آن را تشخیص داد.
|
چرا آزمون فرضیه های مکرر نسبت به رد فرضیه صفر با نمونه های به اندازه کافی بزرگ سوگیری می کند؟
|
30168
|
من یک تجزیه و تحلیل همبستگی متعارف را روی حدود 845 مورد با 1000 متغیر اجرا کردم. (در ابتدا با 1000 مورد و 400 متغیر شروع شد، اما با استفاده از یک هسته، یک ماتریس 1000x1000 دریافت کردم) در نتیجه من مقادیر ویژه بسیار نزدیک به 1 را دریافت کردم (به عنوان مثال بالاترین: 0.9999987616532545)، سپس یک زوج با E-- وجود داشتند. پنج با 0 و تعدادی منفی. من به خصوص نزدیک به 1000 1 را کاملاً عجیب می دانم یا این نتیجه ممکن است/منطقی است؟ من کاملاً به نتایجی که انتظارش را داشتم نرسیدم، بنابراین فکر میکردم که آیا همه این تقریباً 1ها میتوانند علت باشند و آیا کسی ایدهای دارد که چه چیزی ممکن است باعث آنها شده باشد؟ من از EigenDecomposition از Commons Math 3.0 (http://commons.apache.org/math/apidocs/index.html) استفاده می کنم. من قبلاً چند ماتریس دیگر را نیز امتحان کردم و سپس با خطای MaxCountExceededException: وضعیت غیر قانونی: همگرایی ناموفق مواجه شدم. مطمئن نیستم که ربطی به آن داشته باشد، اما فکر کردم آن را اضافه کنم.
|
مقادیر ویژه تقریباً همه 1 در تجزیه و تحلیل همبستگی متعارف
|
99171
|
خواندم که فاصله اقلیدسی در ابعاد بالا فاصله خوبی نیست. حدس میزنم این بیانیه ربطی به نفرین ابعاد دارد، اما دقیقاً چه؟ علاوه بر این، ابعاد بالا چیست؟ من خوشه بندی سلسله مراتبی را با استفاده از فاصله اقلیدسی با 100 ویژگی اعمال کرده ام. استفاده از این معیار تا چند ویژگی ایمن است؟
|
چرا فاصله اقلیدسی معیار خوبی در ابعاد بالا نیست؟
|
32616
|
در دادههای من، برخی از افراد دادههای گمشدهای در مورد پیشبینیکننده مرکزی دارند (پدر ارزیابی دریافت را از دست داده است). مقایسه میانگینهای DV برای کسانی که پیشبینیکننده گمشده/غیر از دست رفته دارند، اثرات قابلتوجهی داشت. اکنون میخواهم بفهمم که آیا کمبودهای سیستماتیک ممکن است باعث شده باشد که اندازه ضرایب رگرسیون OLS را دست کم بگیرم. راه خوبی برای انجام این کار چیست؟ صرفاً مقایسه واریانس های DV در گروه بدون از دست دادن با گروهی که از دست رفته آسان است؟ اما از نظر مفهومی میخواهم بدانم که آیا کل نمونه تغییرپذیری قابلتوجهی کمتری دارد وقتی که گروه را با کمبودها (و به طور قابلتوجهی کمتر از میانگین امتیازات) خارج میکنم، نه اینکه آیا دو گروه (با کمبود و بدون از دست دادن) واریانسهای متفاوتی دارند یا خیر. . همه چیزهایی که تا به حال پیدا کردم در مورد نمونه های مستقل بود، نه در مورد زیر مجموعه ها. همچنین، فقط برای اینکه سرعتم را بالا ببرم: ناهمگونی معمولاً در زمینه واریانس باقیمانده استفاده می شود، درست است؟ چه اصطلاح خوبی برای واریانس محدود است که به من شانس بهتری در گوگل بدهد؟
|
چگونه می توانم تنوع کمتر ناشی از فقدان سیستماتیک را آزمایش کنم؟
|
107621
|
من دو رگرسیون خطی تک متغیره را در یک نمونه اجرا می کنم (موضوع مشابه، دو شرایط مختلف). اکنون می خواهم بدانم چگونه ضرایب رگرسیون را با هم مقایسه کنم تا بفهمم که آیا تفاوت قابل توجهی دارند یا خیر. تمام روش هایی که من پیدا کردم در موردی با دو نمونه مستقل متفاوت اعمال می شود. چگونه این کار را در SPSS انجام دهم؟
|
ضرایب رگرسیون را در یک نمونه مقایسه کنید
|
15627
|
من در راهنمای اقتصادسنجی می خواندم که با توجه به $Y = X \beta + \epsilon$، ماتریس کوواریانس واریانس $\beta^\text{OLS}$ توسط $\sigma^2 (X' X) ارائه شده است. )^{-1}$ که در آن $\sigma^2$ واریانس عبارت خطا است... سپس می گوید که در مورد یک رگرسیور منفرد $y = \beta_1 + \beta_2 x$، که این به $\sigma^2 / \sum(x-\bar{x})^2$ ساده میشود. من کاملاً این را نمی بینم. آیا ماتریس $X$ در این مورد هنوز یک ماتریس دو در دو نیست؟ یعنی: $$ X = \left( \begin{array}{cc} 1 & x_1 \\\ 1 & x_2 \end{array} \right) $$ چگونه چیزی شبیه $\sum (x-\bar) بدست می آوریم {x})^2$؟
|
چرا برآوردگر OLS برای مورد رگرسیون واحد به صورت زیر ساده می شود؟
|
74845
|
من یک داده زیان ناشی از ریسک عملیات برای یک بانک خاص دارم. روش استاندارد برای رسیدن به شارژ سرمایه w.r.t. ریسک عملیاتی نیاز دارد که من مقداری توزیع مستمر را با این داده های زیان تطبیق دهم. به طور معمول، من می توانم برخی از توزیع های استاندارد را جا بدهم. هنگامی که توزیع شناسایی شد، از همان توزیع برای شبیه سازی مقادیر زیان آتی استفاده می شود. سوال من این است که با فرض اینکه دادهها به گونهای هستند که من نمیتوانم هیچ توزیع آماری را تطبیق دهم، چگونه با دادهها برای شبیهسازی مقادیر تلفات رفتار کنم. آیا **روش ناپارامتریک** برای مقابله با چنین شرایطی وجود دارد؟ لطفا یه راهنمایی به من بدید
|
برازش توزیع به یک داده داده شده
|
24022
|
SPSS از آزمون Levene برای ارزیابی همگنی واریانس ها در روش آزمون t گروهی مستقل استفاده می کند. چرا آزمون لوین بهتر از نسبت F ساده نسبت واریانس دو گروه است؟
|
چرا تست لوین برابری واریانس ها به جای نسبت F؟
|
58818
|
بخشی از پایان نامه من تلاش می کند تا حدی را بررسی کند که دانش آموزان نمره آزمون در موضوع مدارهای الکتریکی در فیزیک را می توان از طریق چگونگی جالب بودن موضوع، لذت بردن آنها از موضوع، و درک آنها پیش بینی کرد. از اینکه موضوع چقدر دشوار است. من قصد دارم از تحلیل رگرسیون چندگانه خطی برای انجام این کار استفاده کنم، جایی که نمره آزمون متغیر مستقل من خواهد بود و پیش بینی کننده ها لذت دانش آموز، درک دانش آموزان از دشواری و چگونگی جالب بودن موضوع توسط دانش آموز خواهد بود. من فکر می کنم نمره آزمون دانش آموز یک متغیر ادامه دارد. با این حال، پیشبینیکنندههای مشکوک بدین ترتیب به دست آمدند: 1. کار با مدارهای الکتریکی در فیزیک جالب نیست کاملاً موافق[ ] موافق[ ] تصمیم نگرفتم[] مخالف[ ] کاملاً مخالف [] 2. کار با مدارهای الکتریکی در فیزیک دشوار نیست کاملاً موافقم[ ] موافق[ ] بلاتکلیف[ ] مخالف[ ] کاملاً مخالف[ ] 3. من از کار عملی مربوط به مدارهای الکتریکی در فیزیک لذت نمی برم کاملاً موافق[ ] موافق[ ] تصمیم نگرفته[ ] مخالف[ ] کاملاً مخالف[ ] این مقادیر به گزینه ها داده می شود: کاملاً موافقم ---- 1 موافق - ------------ 2 بلاتکلیف --------- 3 مخالف ---------- 4 کاملاً مخالف - 5 حالا چون این یک مقیاس ترتیبی است، آیا استفاده از تحلیل رگرسیون چندگانه خطی مناسب است؟
|
آیا می توان از متغیرهای ترتیبی به عنوان پیش بینی کننده برای تحلیل رگرسیون چندگانه خطی استفاده کرد؟
|
24023
|
هنگام انجام آزمون t زوجی، آیا استفاده از مقدار t زوجی برای محاسبه $\eta^2$ مناسب است؟ من می پرسم زیرا محاسبه d کوهن بر اساس مقدار t زوج مناسب نیست. با تشکر
|
$\eta^2$ و آزمون های t زوجی
|
78028
|
فرض کنید تعدادی سری اندازه گیری با واریانس های کاملاً متفاوت دارید، به عنوان مثال به شکل زیر نگاه کنید.  مشکل اینجاست که تفاوتهای بین a، b و d به سختی قابل تشخیص هستند، زیرا مقیاس y نسبتاً بزرگ است، به دلیل اندازه گیری اول (اینها خطاهای اندازه گیری نیستند، کاملاً ضروری هستند و نمی توان آنها را نادیده گرفت). زیباترین روش برای رسم داده ها بدون از دست دادن اطلاعات زیاد چیست؟ دو احتمال به ذهن من می رسد: الف) اندازه گیری اول را کنار گذاشته و در غیر این صورت آن را ارائه کنید (مثلاً در متن یا به عنوان جدول). ب) مقیاس y را نمایی (معکوس log) کنید. با این حال، این بسیار غیر معمول است (چگونه این کار را با R انجام می دهید؟). چه چیزی را پیشنهاد می کنید؟
|
داده ها را با تفاوت های کوچک اما مقیاس های بزرگ ترسیم کنید
|
78020
|
من یک مدل خطی را در R با متغیرهای زیادی برازش میکنم: `lm(Y~X1+X2+...+X100)` میخواهم همه تعاملات زوجی را نیز بررسی کنم. نوشتن «X1*X2*...*X100» خوب نیست زیرا مدل کامل را بررسی میکند (بیش از دوتایی). نوشتن همه جفت ها به صراحت آزاردهنده است (100 روی 2). آیا راهی برای انجام این کار در R وجود دارد؟
|
چگونه می توان تعامل همه جفت متغیرها را در رگرسیون خطی در R بررسی کرد؟
|
76355
|
من میخواهم مدلی را آموزش دهم اما تعداد نمونههای دستهها بسیار متفاوت است. 50% دیگر به عنوان مجموعه تست، این واقعیت که من نمونه های بسیار کمی برای دسته 1 و 3 دارم، بر مدل من تأثیر می گذارد؟
|
یک مدل را با تعداد نمونه های مختلف در هر دسته آموزش دهید
|
107628
|
من یک تست t زوجی نوشته ام و به دنبال چند تست واحد استاندارد هستم که بتوانم از صحت کدم مطمئن شوم. آیا چنین آزمایشاتی وجود دارد؟ چگونه R از تست واحد برای ()t.test خود مراقبت می کند؟
|
از کجا می توانم تست های واحد را برای ارزیابی آزمون تی دانشجویی خود پیدا کنم؟
|
18413
|
من نمونهای از جمعیتی دارم که میدانم دارای شیب بسیار مثبت است، اگرچه چیز دیگری در مورد جمعیت نمیدانم. نمونه من یک انحراف مشابه را نشان می دهد. حجم نمونه 120 است. آیا تبدیل (Box-Cox) نمونه من به نرمال بودن برای انجام تست های پارامتریک ساده مانند میانگین با فاصله اطمینان اشتباه است؟ آیا باید فقط به میانه ها پایبند باشم؟
|
چولگی نمونه در یک جمعیت اریب شناخته شده
|
113844
|
من همان داده ها را دارم و می خواهم مدلی برای آن انتخاب کنم. برای شروع، من یک توزیع نمایی و یک توزیع گاما را جا دادم. حالا می خواستم یک تست نسبت احتمال ساده انجام دهم. با این حال، به من گفته شده است که برای انجام درست این کار، دو مدل باید تو در تو باشند (که هستند) و فضای پارامتر یکی باید در داخل دیگری باشد، نه در مرز. این شرط دوم متأسفانه به نظر نمی رسد. چه کاری می توانم انجام دهم؟
|
نحوه انتخاب بین توزیع نمایی و گاما
|
24021
|
در آمار بیسبال، آماری به نام شانس وجود دارد که تفاوت بین رکورد برد - باخت یک تیم و رکورد برد - باخت فیثاغورثی آنها است. این آمار قرار است اندازه گیری کند که یک تیم چقدر خوش شانس یا بدشانس بوده است که هر چند بازی در یک فصل انجام داده است. فرض کنید یک مجموعه داده بزرگی دارد که برای هر سال n شامل 1. درصد برنده شدن تیم $P(n)$ 2. درصد برد تیم در سال قبل $P(n-1)$ 3. شانس تیم در سال قبل $ L(n-1)$ و می خواهد یک مدل رگرسیون خطی با استفاده از $P(n-1)$ و $L(n-1)$ برای تخمین $P(n)$ ایجاد کند. هیچ رابطه آشکاری بین $L(n-1)$ و $P(n)$ وجود ندارد، اما به نظر می رسد که می توانیم از $L(n-1)$ همراه با $P(n-1)$ برای بهتر شدن استفاده کنیم. پیشبینی $P(n)$ بر اساس اینکه چگونه $P(n-1)$ فوکی بود و به چه شکلی بود. بنابراین، سوال این است که چگونه میتوان معیاری از نوع شانس را در یک مدل رگرسیون خطی که من در مورد آن بحث کردم، ادغام کرد؟ من نگران این سنجه خاص از نوع شانس نیستم، بلکه نگران هر معیاری هستم که کاری شبیه به آنچه که قرار است انجام دهد انجام دهد.
|
چگونه می توان شانس را در یک رگرسیون چند خطی معنا کرد؟
|
99139
|
من شش متغیر برای اندازه گیری امکانات هتل ها توسط گروهی از مدیران دارم. در پایان، من میخواهم میانگین امتیازات را برای این شش متغیر مقایسه کنم تا مشخص شود کدام تسهیلات واقعاً در صنعت هتلداری مورد علاقه است. آیا می توانم از ANOVA اندازه گیری های مکرر یک طرفه استفاده کنم تا بررسی کنم که آیا تفاوت های آماری بین میانگین امتیازات این متغیرها وجود دارد یا خیر؟
|
استفاده از ANOVA اندازه گیری های مکرر برای ارزیابی امکانات در صنعت هتلداری
|
15626
|
می دانم که می توانم یک مجموعه داده را بر اساس عوامل اجتماعی-جمعیتی مانند جنسیت، سن، سطح درآمد و غیره تقسیم کنم و پاسخ ها را برای هر مجموعه به طور جداگانه تجزیه و تحلیل کنم و سپس نتایج را مقایسه کنم. به عنوان مثال، من رابطه بین متغیر A (ساعت مطالعه) و متغیر B (نمرات امتحان) را آزمایش می کنم و مجموعه داده ای از 400 دانش آموز دارم. من مجموعه داده را بر اساس جنسیت تقسیم کرده ام و 220 دانش آموز پسر و 180 دانش آموز دختر دارم. من می توانم همبستگی پیرسون را بر روی ساعات مطالعه و نمره امتحان به طور جداگانه برای دانش آموزان پسر و برای دانش آموزان دختر اجرا کنم. در حالی که موارد فوق کاملاً واضح است، مشکل من در تقسیم مجموعه داده هایم بر عاملی است که یک عامل اجتماعی-اقتصادی نیست. من میخواهم مجموعه دادههای خود را به دو مکان به صورت زیر تقسیم کنم: * مدرسه (ساعت مطالعه در مقابل نمرات امتحان) * خانه (ساعت مطالعه در مقابل نمرات امتحان) برای این کار، یک عبارت ساده را در پرسشنامه خود گنجاندهام که میپرسید «کجا آیا عموماً بیشتر تکالیف خود را انجام می دهید؟». پاسخ یا خانه (با کد 1) یا مدرسه (با کد 2) است. این یک عبارت اجباری است و من عمداً این کدگذاری اسمی را انجام داده ام تا از ارتباط آن با دو متغیری که آزمایش می کنم اجتناب کنم. در ذهن من (که خیلی آماری نیست!)، این عبارت مانند عوامل اجتماعی-دموگرافیک در بالا عمل می کند، یعنی ثابت است، زیرا من عمداً آن را به این صورت رمزگذاری کرده ام. در پایان روز، و بسته به یافته هایم، می خواهم چیزی مانند رابطه بین ساعات مطالعه و نمره امتحان برای دانش آموزانی که تکالیف خود را در مدرسه انجام می دهند قوی تر است بگویم. آیا این یک رویکرد مخاطره آمیز است؟
|
تقسیم بندی یک مجموعه داده
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.