_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
108343 | من سعی می کنم پس از استفاده از سایر الگوریتم های یادگیری ماشین از یک شبکه عصبی استفاده کنم. من از بسته RSNNS استفاده می کنم (من مایل به استفاده / ارزیابی بسته های دیگر هستم) که بخشی از R است. من می خواهم دقتی حداقل 66% داشته باشم. من داده ها را در مجموعه های آموزشی و آزمایشی تقسیم کردم، با 4/5 از داده ها در آموزش. سپس مدلهایی را با استفاده از طرحبندیهای شبکه و نرخهای یادگیری مختلف، هر بار با استفاده از مجموعه آموزشی مشابه، آموزش دادم. من پارامترهایی را انتخاب کردم که دقت بیش از 66٪ و بزرگترین اندازه گیری F را در مجموعه آزمایشی نشان می دادند. پارامترهایی که من انتخاب کردم دقت 70 درصدی را در مجموعه آزمایشی ارائه می دهد. سپس دادهها را گرفتم و با استفاده از طرحبندی شبکه و نرخ یادگیری یکسان اعتبارسنجی متقاطع 10 برابری انجام دادم. با این اعتبار سنجی متقاطع k-fold، دقتی به دست میآورم که کمی بالاتر از 50 درصد است (که شبیه سایر الگوریتمهای یادگیری است که استفاده کردم). سوال من این است که آیا دقت 70 درصد با مجموعه تست دقیق است؟ آیا اعتبار k-fold من احتمالاً بهینه محلی را پیدا می کند و دقت دقیقی ارائه نمی دهد؟ **ویرایش** از آنجایی که به نظر می رسد این نکته مهمی است که من کنار گذاشته ام، 2 کلاس وجود دارد، مثبت و منفی. 18% مثبت و 81% منفی است. حدود 550 مورد وجود دارد. به دنبال پیشنهاد متئو در نظرات، من دوباره شبکه را چندین بار اجرا کردم. من فقط از بهترین پارامترهای انتخاب شده استفاده کردم، زیرا اجرای شبکه عصبی کمی زمان می برد. من دوباره به ست های آموزشی (80%) و تست (20%) تقسیم شدم، به جز اینکه 10 تقسیم تصادفی با استفاده از نمونه انجام دادم. از آنجایی که تصادفی است، برخی از داده ها بیشتر در مجموعه های آموزشی ظاهر می شوند تا مجموعه های تست. با استفاده از این، دقت از 30٪ تا 70٪ متغیر بود. وقتی میانگین 10 اجرا را با هم محاسبه کردم، دقت آن کمی بالاتر از 50 درصد بود. من تمایل دارم بگویم این بهترین دقتی است که می توانم با استفاده از این مجموعه داده به دست بیاورم، زیرا الگوریتم های یادگیری ماشین قبلی دقت مشابهی را ارائه می دهند (داده ها نشان داده نشده اند). | اعتبار سنجی آزمون در مقابل اعتبار سنجی متقاطع k-fold |
95603 | اجازه دهید $X$ با پارامترهای $\mu$ و $\sigma$ log نرمال باشد (به این ترتیب که $\log(X)$ گاوسی با میانگین $\mu$ و واریانس $\sigma^2$ است). توزیع $1 / (X + 1)$ چیست؟ من نمی دانم که آیا این یک توزیع پارامتری ساده است. اگر +1 با صفر جایگزین شود، مشکل بسیار آسان می شود. | اگر $X$ بطور منطقی توزیع شده باشد، توزیع $1 / (1 + X)$ چگونه است؟ |
87872 | وقتی یک رگرسیون (لجستیک) در R انجام میدهم، چیزی شبیه به این را اجرا میکنم: mydata <- read.csv(data.csv) mylogit <- glm(a ~ c+d, data = mydata, family=binomial ) summary(mylogit) تا چند ماه پیش، خروجی ضرایب ممکن است به این صورت باشد: فراخوانی: glm(فرمول = a ~ c + d، خانواده = دوجمله ای، داده = mydata) ... Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (برق) -1.6476 0.1898 -8.680 < 2e-16 *** c 2.4558 0.3414 7.194 6.29e-13 *** d 2.3783 0.4426-0.4466 0.*** 5. Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 با امتحان کردن آن امروز (با نسخه جدیدتر R)، خروجی به شکل زیر است: تماس: glm(فرمول = a ~ c + d، خانواده = دو جمله ای، داده = mydata) ... ضرایب: (1 به دلیل تکینگی ها تعریف نشده است) برآورد Std. خطای z مقدار Pr(>|z|) (فاصله) -1.6709 0.1924 -8.683 < 2e-16 *** c1 2.4961 0.3476 7.181 6.94e-13 *** cc 18.2370 970.16.970.601 2.4524 0.4630 5.296 1.18e-07 *** dd NA NA NA NA --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 فیلدهای c1، cc، و غیره به چه معنا هستند؟ به نظر نمی رسد که هیچ سندی برای این موضوع پیدا کنم، اما شاید در مکان های اشتباهی جستجو می کنم؟ | فیلدهای خروجی جدید glm.summary (در R)؟ |
73576 | من یک نمونه با n=170 و دو متغیر باینری (A,B) دارم که می تواند به عنوان مقدار 1 یا 0 باشد، که در آن 1 به عنوان موفقیت و 0 به عنوان یک شکست محسوب می شود. چیزی که من می خواهم بدانم این است که آیا میانگین این دو متغیر برابر هستند یا خیر. برای فهمیدن این موضوع، یک متغیر جدید ایجاد می کنم که تفاوت بین این دو متغیر را به نام C می گیرد، بنابراین C = B-A. سپس p-value را برای این فرضیه محاسبه میکنم که C به طور معمول با آزمون Shapiro-Wilk توزیع میشود و مقدار p برابر 0.96 را پیدا میکنم، بنابراین ترجیح میدهم این فرضیه را رد نکنم. جدا از اینکه تفاوت به طور معمول توزیع می شود، من نگران سایر فرضیات مورد نیاز برای آزمون t زوجی نیستم. **سوال:** _آیا می توانم در این شرایط از آزمون t زوجی استفاده کنم یا اینکه استفاده از تست Shapiro-Wilk برای داده های باینری برای بررسی نرمال بودن اشتباه است و آیا به جای آن از تست رتبه علامت Wilcoxon استفاده کنم؟ خیلی ترجیح میدهم از آزمون t استفاده کنم، زیرا من معتقدم که قدرت بالاتری نسبت به آزمون رتبهبندی علامت ویلکاکسون دارد، اما اگر آزمون استفاده شده اشتباه باشد، این قدرت بالاتر تقریباً مهم نیست. به سلامتی، مارتین | آزمون t زوجی برای داده های باینری |
87870 | برای مدل خطی $y=x*\beta+e$، میتوانیم یک تفسیر هندسی خوب از مدل تخمینی از طریق OLS داشته باشیم: $\hat{y}=x*\hat{\beta}+\hat{e}$. $\hat{y}$ طرح y بر فضایی است که با x پوشانده شده است و باقیمانده $\hat{e}$ عمود بر این فضای پوشیده شده توسط x است. حال سوال من این است: آیا تفسیر هندسی از مدل خطی تعمیم یافته (رگرسیون لجستیک، Poission، بقا) وجود دارد؟ من بسیار کنجکاو هستم که چگونه مدل رگرسیون لجستیک دودویی برآورد شده $logit(\hat{p})=x*\hat{\beta}$ را از نظر هندسی به روشی مشابه مدل خطی تفسیر کنم. حتی اصطلاح خطا هم ندارد. من یک بحث در مورد تفسیر هندسی برای مدل های خطی تعمیم یافته پیدا کردم. http://statweb.stanford.edu/~lpekelis/talks/13_obs_studies.html#(7). متأسفانه، ارقام در دسترس نیستند و تصویر کردن آن بسیار سخت است. هر گونه کمک، ارجاع، و پیشنهاد بسیار قدردانی خواهد شد!!! | تفسیر هندسی مدل خطی تعمیم یافته |
77058 | شایستگی نسبی GEE با همبستگی قابل مبادله یا GEE با استقلال و برآورد ساندویچ مورد بحث قرار گرفته است، اما من نتوانستم پستی پیدا کنم که به طور خاص به سؤالم بپردازد. من داده های طولی را با استفاده از GEE با ساختار همبستگی AR-1 و برآوردهای ساندویچی/قوی خطاهای استاندارد تجزیه و تحلیل کرده ام. در مورد داده های طولی، تخمین های ساندویچ برای محافظت در برابر عدم مشخصات ساختار همبستگی استفاده می شود. AR-1 بر اساس تابع همبستگی خودکار داده ها انتخاب شد زیرا تخمین کارآمدتری نسبت به فرض استقلال ایجاد می کند. با این حال، اختلالات تک متغیره از نتایج به طور مثبت منحرف شده و باقی مانده از مدل نشان برخی از ناهمسانی. برای GEE با داده های طولی (یا به طور کلی، خوشه ای)، آیا تخمین ساندویچ علاوه بر کاربرد مورد نظر برای محافظت در برابر عدم مشخصه ساختار همبستگی، از ناهمسانی (آنچه برای انجام آن ساخته شده است) محافظت می کند؟ آیا کاهش ناهمسانی شهر با دگرگونی log نتیجه کارایی بیشتری برای تخمین یا مزایای دیگری ارائه می دهد؟ من به خصوص ارجاع به مقاله ای در مجله ای که به این موضوع می پردازد قدردانی می کنم. | آیا برآوردگر ساندویچ در GEE در برابر تعیین نادرست همبستگی و ناهمسانی محافظت می کند؟ |
72226 | من چندین منحنی غیرخطی از طیف انتقال یک نیمه هادی دارم. من به هر یک از منحنی ها تناسب پیدا کردم. برای بدست آوردن مجذور چی برای هر کدام، معلمم فرمول $$\chi^2=\sum_{i=1}^{N}\frac{(T_{exp}-T_{fit})^2}{N را به من داد \sigma^2_{exp}} $$ where $$\sigma_{exp}=\sum_{i=1}^{N}\frac{\sigma_{i}}{N}.$$ با این حال، خواندن چند کتاب آماری من این فرمول را هیچ جا ندیده ام و فقط $$\chi^2=\sum_{i=1}^{N}\frac{(T_{exp}-T_{fit})^2} {\sigma^2_{i}}.$$ آیا کسی می تواند بالا را توضیح دهد، یا فرمول اشتباه است؟ | فرمول Chi-Squared |
73574 | من قطار و مجموعه تست زیر را دارم: قطار: 1000 obs. تست 40 متغیر: 9000 obs. از 40 متغیر با استفاده از 75 درصد از دادههای «قطار»، میتوانم مدلی ایجاد کنم که 93 درصد موفقیت در طبقهبندی دادههای «تست» به دست آورد. آیا همانطور که دیدم در اینجا پیشنهاد شد، آیا می توان نتایج پیش بینی را با افزودن پیش بینی روی پیکره آزمون به مجموعه آموزشی بهبود بخشید؟ (منبع نوشت: برچسب های مجموعه آزمایشی را پیش بینی کنید و از آنها به عنوان بخشی از مجموعه آموزشی استفاده کنید). به طور شهودی فرض میکنم که از آنجایی که من نتایج کلاس را برای «تست» ندارم، این بدان معناست که اطلاعات جدیدی برای استخراج از دادههای آزمون وجود ندارد. اما به نظر می رسد منبع ذکر شده در بالا بیان می کند که نتایج پیش بینی را بهبود می بخشد. آیا می تواند درست باشد، و چگونه آن را توضیح می دهید؟ | افزودن پیشبینی روی پیکره آزمون به مجموعه آموزشی |
113163 | من سعی می کنم نمونه هایی را پیدا کنم که در آن برخی از مشکلات اساسی از طریق الگوریتم های یادگیری ماشین کلاسیک و روش های آماری رسمی تر حل شده اند. به طور خاص، من علاقه مند به نمونه هایی هستم که در آن SVM با روش های سلسله مراتبی بیزی مقایسه شده است. (اما من با خوشحالی نمونههای غیر SVM را میآورم.) FWIW- به یک پست وبلاگ برخورد کردم که پیشنهاد میکرد روشهای آمار بیزی بینش بیشتری فراتر از آنچه توسط SVM ارائه شده بود، ارائه میکرد، اما احمقانه نشانکگذاری نکرد. | SVM در مقابل مثال(های) رگرسیون بیزی؟ |
73571 | بنابراین میدانم که یک فرآیند GARCH ثابت است، با این حال من در مورد فرآیند I-GARCH شک دارم زیرا نیاز است که ضرایب فرآیند تا 1 جمع شوند، که شرایط ثابت را برآورده نمیکند. تفاوت بین I-GARCH و GARCH معمولی چیست؟ چرا از یکی استفاده می کنید و دیگری را نه؟ | آیا یک فرآیند I-GARCH ثابت است؟ |
86837 | من اینجا یه سوال دارم اساساً من میانگین و انحراف معیار یک متغیر (IQ) را دارم. من می خواهم این احتمال را پیدا کنم که از هر 10 نفری که به طور تصادفی انتخاب شده اند، 8 نفر دارای امتیاز IQ بین 85.0 تا 122.5 هستند. من همچنین اطلاعات زیر را در دست دارم: * میانگین = 100 * توزیع استاندارد = 15 * n = 10 * p = 0.7745 آیا باید از پواسون برای انجام این کار استفاده کنم؟ لطفاً از هر گونه راهنمایی و توصیه قدردانی کنید. | احتمال در توزیع عادی |
76904 | آیا می توانید مثالی از استفاده از برآوردگرهای ساندویچ برای انجام یک رگرسیون قوی به من بدهید؟ من میتوانم مثال را در «ساندویچ» ببینم، اما کاملاً نمیدانم چگونه میتوانیم از lm(a ~ b، داده) # R-coded به یک تخمین و یک p.value که نتیجه یک رگرسیون قوی با استفاده از واریانس است برویم. ماتریس کوواریانس که توسط تابع ساندویچ برگردانده شده است. | رگرسیون قوی و برآوردگرهای ساندویچ |
94017 | سوال سریعی که امیدوارم کسی بتونه کمک کنه تصور کنید دادههایی از یک کارآزمایی تصادفیسازی و کنترلشده (RCT) دارید و علاقهمند به بررسی تأثیر درمان بر نمره آزمون هستید. بگویید که قبل از درمان و بعد از درمان همان آزمایش را برای شرکت کنندگان انجام می دهید. من میانگین و انحراف معیار برای هر گروه را در جدول زیر ارائه کرده ام. گروه کنترل در آزمون قبل از درمان کمی بالاتر امتیاز میگیرد (اما تفاوت بین کنترل و درمان از نظر آماری معنیدار نیست، یعنی ما مطمئن هستیم که شاخص درمان یک متغیر برونزا است). سپس نمرات آزمون را پس از درمان بررسی می کنیم و متوجه می شویم که اثر درمان از نظر آماری معنی دار نیست. با این حال، اگر اولین تفاوت ها را در نظر بگیریم، متوجه می شویم که اثر درمان از نظر آماری معنی دار است. به کدام نتایج باید اعتماد کرد؟ تحلیل فقط خط پایانی یا تحلیل تفاوت اول؟ * * * | درمان | کنترل | H0: میانگین (درمان) - میانگین (کنترل) = 0 -------------------------------------- ----------------------------------------------- قبل | 60.61 | 63.41 | رد نشدن | (16.13) | (17.86) | بعد از | 64.02 | 62.80 | رد نشدن | (11.42) | (14.76) | بعد - قبل | 3.41 | -0.61 | رد کردن | (13.99) | (15.10) | سه آزمایشی که در حال انجام هستند عبارتند از: 1) $Treatment_{pre}$ در مقابل $Control_{pre}$ (نمرات قبل از درمان). این برای بررسی این است که آیا گروه ها قبل از دریافت درمان برابر هستند یا خیر. 2) $Treatment_{post}$ در مقابل $Control_{post}$ (نمرات پس از درمان). این برای بررسی این است که آیا درمان تأثیر داشته است یا خیر. 3) $(Treatment_{post} – Treatment_{pre})$ در مقابل $(Control_{post} – Control_{pre})$. این یک روش جایگزین برای بررسی اثربخشی درمان است. با توجه به اینکه در تست (1) نتوانیم تهی را رد کنیم، نمی دانم که آیا تست (2) یا تست (3) برای آزمایش اینکه آیا درمان تأثیر دارد مناسب تر است؟ | تفاوتهای اول در مقابل تحلیل خط پایانی با RCT |
77059 | در کلاس ریاضی آمار من یک قضیه داریم که می گوید: اجازه دهید $\{P_\theta : \theta \in \Theta\}$ یک خانواده نمایی پارامتر $k$ باشد (یعنی چگالی یکی از اعضای این خانواده می تواند باشد نوشته شده به صورت $f(\mathbf{x}) = h(\mathbf{x})e^{\sum_{i=1}^k c_i(\theta)T_i(\mathbf{x}) - B(\theta)}$)، فرض کنید $\{c_1(\theta),\ldots,c_k(\theta)\}$ (چیزی که من آن را می نامم پارامترهای طبیعی) دارای فضای داخلی **غیر خالی** است. سپس $T(\mathbf{X}) = \{(T_1(\mathbf{X})،\ldots، T_k(\mathbf{X})\}$ کامل و کافی است. این قضیه اغلب برای شناسایی UMVUE استفاده می شود (تخمین کننده های بی طرف حداقل واریانس یکنواخت) با استفاده از قضیه Lehmann-Scheffe من با هیچ نمونه خوبی از یک خانواده نمایی مواجه نشدم در جایی که مجموعه پارامترهای طبیعی فضای داخلی خالی دارد، می توانید مثال خوبی ارائه دهید؟ | خانواده نمایی که در آن مجموعه پارامترهای طبیعی دارای فضای داخلی خالی است |
76907 | من چند روزی است که نمی توانم به این سوال دلهره آور پاسخ دهم و نمی توانم منبع مناسبی برای آن پیدا کنم، بنابراین شاید کسی اینجا به من کمک کند. یک حاصلضرب بیرونی از دو بردار تصادفی **یکنواخت** **mod p** را در نظر بگیرید، که در آن بردار از مقادیر تصادفی یکنواخت مستقل با یک عدد اول $p$ تشکیل شده است. بردارهای $A$ و $B$ مستقل از یکدیگر هستند. $$ \begin{pmatrix} a_0 & a_1 & a_2 &.. &a_n\end{pmatrix} \mod p$$ and $$ \begin{pmatrix} b_0 & b_1 & b_2 &.. &b_n\end{pmatrix} \mod p$$ به طوری که محصول بیرونی $$ \begin{pmatrix} a_0b_0 و a_1b_0 & a_2b_0 &...\\a_0b_1 & a_1b_1 & a_2b_1 &...\\a_0b_2 & a_1b_2 & a_2b_2 &...\\... &... &... &...\end{pmatrix } \mod p$$ توزیع این محصول بیرونی چگونه است؟ آیا ارزش ها یکسان هستند یا نه و وابسته هستند یا نه؟ آیا میتوانیم با استفاده از توزیع دیگری برای بردارهای تصادفی یا شاید با جمع کردن (k) محصولات بیرونی تصادفی بیشتر، آن را یکنواخت و مستقل (w.h.p) بدست آوریم؟ | توزیع یک حاصل ضرب بیرونی مقادیر تصادفی mod P چیست؟ |
72224 | من در محاسبه SVD و PCA در Matlab مشکل دارم. من نمی دانم که آیا اشتباهات نظری انجام می دهم یا اشتباهات برنامه نویسی. شروع با ماتریس داده $X$ PCA مقدار ویژه $\lambda_i$ ماتریس $X^TX/(n-1)$ را محاسبه می کند. در طرف دیگر برای SVD $X=U\Sigma V^*$ و بنابراین $X^T X=V \Sigma^T U^T U\Sigma V^T=V \Sigma^T\Sigma V^T$ جایی که $\ Sigma$ با عناصر $\sigma_i$ مورب است. بنابراین $\lambda_i=\sigma_i^2 /(n-1)$. حالا یک مثال متلب را امتحان می کنم: load hald; [u s v]=svd(مواد تشکیل دهنده); sigma=cov(مواد تشکیل دهنده); [a,b]=eig(sigma); disp('sigma') disp(diag(s)) disp('lambda') disp(diag(b)) > > sigma 211.3369 77.2356 28.4597 10.2667 lambda 0.2372 12.4054 495 671. معادله اصلی اشتباه کجاست؟ ممنون :دی | PCA و SVD matlab |
76900 | این یک نمونه طرح آزمایشی است که برای آن به کمک نیاز دارم (مقادیر بین سنجش ها یکسان است اما باید متفاوت باشد).  میخواهم آزمایش کنم که آیا استفاده از داروی 1 یا داروی 2 تأثیر قابلتوجهی بر خروجی اندازهگیری میکند یا خیر. گروه کنترل در معرض هیچ دارویی قرار نگرفت. سپس آزمون برای اهمیت آماری 2 بار دیگر تکرار می شود. هر آزمایش در روزهای مختلف با سلول ها و محیط های مختلف انجام می شود. مشکل زمانی پیش می آید که یک آزمون آماری انتخاب شود. در اینجا نظرات من وجود دارد: * برای هر آزمایش به صورت جداگانه، ANOVA نباید استفاده شود زیرا من نمی خواهم 3 گروه را با هم مقایسه کنم، می خواهم گروه های تحت درمان را با یک گروه کنترل مقایسه کنم. بنابراین، من تست t را برای Control Vs انجام می دهم. D1 و کنترل در مقابل D2. آیا این درست است؟ اما پس از آن، 3 سنجش با هم در نظر گرفته شده و نمایش داده ها وجود دارد. انجام یک نرمال سازی، با کنترل 100٪ و انجام میانگین 3 سنجش بر اساس درصد، راه خوبی برای نشان دادن داده ها است، اما از نظر آماری من نمی دانم چگونه این کار را انجام دهم. ادغام تمام اندازهگیریها برای هر گروه و محاسبه میانگین (انجام مجدد آزمونهای t) مناسب به نظر نمیرسد، زیرا حتی گروه کنترل معمولاً تغییراتی را نشان میدهند. عادی سازی، با 100٪ بودن Control، حتی اشتباه تر به نظر می رسد، زیرا گروه(های) کنترل هیچ مقدار انحرافی ندارند. من به معرفی Mean-SD-N برای هر 3 سنجش فکر کردم، اما به نظر می رسد Graphpad آن را برای آزمون t و 1wayANOVA قبول ندارد. | داده های بیولوژیکی، سنجش مستقل 3x3 |
94010 | اگر یک متغیر عاملی (مثلاً جنسیت با سطوح M و F) در فرمول glm استفاده شود، متغیر(های) ساختگی ایجاد میشود و میتوان آن را در خلاصه مدل glm به همراه ضرایب مرتبط با آنها (مثلاً جنسیت M) یافت. با تکیه بر R برای تقسیم فاکتور به این ترتیب، فاکتور در یک سری از متغیرهای عددی 0/1 کدگذاری می شود (به عنوان مثال جنسیتM (1 برای M، 0 برای F)، genderF (1 برای F، 0 برای M) و این متغیرها سپس به عنوان متغیرهای عددی در فرمول glm استفاده می شوند، آیا نتیجه ضریب تفاوت دارد اساساً سؤال این است: آیا R متفاوت است؟ محاسبه ضریب در هنگام کار با متغیرهای عامل در مقابل متغیرهای عددی (احتمالاً با پاسخ بالا): علاوه بر کارایی اجازه دادن به ایجاد ساختگی R؟ متغیرها، آیا با رمزگذاری مجدد فاکتورها به عنوان یک سری از متغیرهای عددی 0،1 و استفاده از آنها در مدل به جای آن مشکلی وجود دارد؟ | درک ایجاد متغیرهای ساختگی (دستی یا خودکار) در GLM |
86838 | من از SPSS Clementine برای آموزش یک طبقهبندی کننده استفاده کردهام، برای این کار از یک گره پارتیشن با 2 قسمت (ترن و آزمایش) استفاده کردهام، سپس از اعتبارسنجی درختی c5 و cross-fold استفاده کردم. من این کار را انجام دادم زیرا فکر میکنم SPSS دادههای آموزشی را از هم جدا میکند و یک اعتبار دهی 10 برابری برای ساخت بهترین مدل و سپس آزمایش آن با دادههای آزمایشی انجام میدهد. لطفاً این را تأیید یا نقد کنید؟ این توضیح SPSS در مورد نحوه عملکرد cross-fold است: Cross-validate. اگر این گزینه انتخاب شود، C5.0 از مجموعه ای از مدل های ساخته شده بر روی زیر مجموعه های داده های آموزشی برای تخمین دقت مدل ساخته شده بر روی اگر مجموعه دادههای شما خیلی کوچک باشد، به مجموعههای آموزشی و آزمایشی تقسیم میشود تاها، یا تعداد مدلهای مورد استفاده برای اعتبارسنجی متقابل. و اگر ایده من درست نیست (برای استفاده از پارتیشن و اعتبار متقابل) چه اتفاقی در SPSS افتاده است؟ آیا اولویتی وجود دارد یا خیر؟ با تشکر از همه | آیا می توان از داده های پارتیشن بندی شده (train&test) همراه با اعتبارسنجی متقاطع استفاده کرد؟ |
70089 | من سعی می کنم مفهوم استقلال را به صورت تجربی با استفاده از شبیه سازی کامپیوتری درک کنم. من تصور می کنم که این مفهوم را درک کنم: 1. باید بتوانم سه مجموعه داده از متغیرهای تصادفی A، B و C تولید کنم که در آن A و B مستقل هستند و A و C مستقل نیستند. 2. من باید بتوانم آزمایشی را اجرا کنم که در آن داده های A و B (و A و C) را با هم مقایسه کنم و آزمون معیاری از استقلال به من بدهد. آیا می توانم به منبعی (مقاله، فصل کتاب درسی، کد، پست وبلاگ و غیره) اشاره کنم که در آن اطلاعات کافی برای درک تجربی مفهوم استقلال وجود داشته باشد. | چگونه می توانم مستقل بودن دو متغیر تصادفی را آزمایش کنم؟ |
91369 | من تعداد زیادی ویژگی دارم که متغیرهای طبقهبندی هستند و سعی میکنم سیستمی برای حذف متغیرهای طبقهبندی که نزدیک به چند خطی هستند پیدا کنم. آیا vif یک معیار معقول در زمینه متغیرهای طبقه بندی شده است؟ آیا chi-squared پیرسون معیار خوبی برای ارتباط بین متغیرهای طبقهبندی است؟ من همچنین شنیده ام که به همبستگی پلی کوریک اشاره شده است. ویرایش 1: برای vif روی متغیرهای طبقه بندی، باید از r-squared از مدل احتمال خطی استفاده کنم درست است؟ من فرض می کنم نمی توانید از شبه r-squared استفاده کنید زیرا حیوان کاملاً متفاوتی است. | حذف متغیرهای دستهبندی چند خطی |
86835 | به عنوان یک فرض رگرسیون خطی، نرمال بودن توزیع خطا گاهی به اشتباه «تبسط مییابد» یا به عنوان نیاز به نرمال بودن y یا x تفسیر میشود. آیا می توان سناریو/مجموعه داده ای ساخت که در آن X و Y غیر عادی هستند اما عبارت خطا وجود دارد و بنابراین تخمین های رگرسیون خطی به دست آمده معتبر هستند؟ | فرض نرمال بودن در رگرسیون خطی |
110715 | دو سوال سریع: 1. برآوردگر حداکثر احتمال پارامتر یک فرآیند شمارش پواسون همگن چیست؟ 2. برای تخمین $\lambda$ من در حال حاضر از تعداد رویدادها/زمان کل، $N(t)/\Delta t$ استفاده می کنم. این آمار از چه توزیعی پیروی می کند؟ | پارامتر فرآیند شمارش پواسون |
73577 | J. B. Ramsey (در _تست برای خطاهای مشخصات در تحلیل رگرسیون حداقل مربعات خطی کلاسیک. Journal of the Royal Statistical Society. 1969_ می گوید که آزمون RESET فرض می کند که باقیمانده ها به طور معمول توزیع می شوند. اگر کسی بخواهد شکل عملکردی نادرست یک مدل را آزمایش کند اما باقیمانده ها دارای توزیع **غیر عادی** هستند، چگونه می توان این کار را انجام داد؟ رمزی همچنین میگوید که «_مواردی که تعیین نادرست منجر به توزیع غیرعادی و [باقیماندهها] میشود، باید در مقاله بعدی مورد بحث قرار گیرد.» کسی میدونه این کدوم کاغذه؟ | زمانی که باقیمانده ها دارای توزیع غیرعادی هستند، فرم عملکردی نادرست را آزمایش کنید |
95604 | مجموع مربعات $SSR(X_p|X_1،...X_{p-1})$، با فرض اینکه هیچ جفتی از متغیرهای پیشبین کاملاً همبسته نیستند، کاهش حاشیهای در مجموع خطای مربعها را اندازهگیری میکند. در نهایت می توان مجموع مربع های اضافی را به عنوان اندازه گیری افزایش حاشیه ای در مجموع رگرسیونی مربع ها مشاهده کرد که یک یا چند متغیر پیش بینی به مدل رگرسیون اضافه می شود. با فرض اینکه تعداد دادههای مشاهدهای $n$ بزرگتر از تعداد متغیرهای پیشبین $p$ باشد. آیا می توانم دلیل دقیقی داشته باشم که $SSTO=\sum_{i=1}^n (Y_i-\bar{Y})^2\geq SSR(X_p|X_1,...X_{p-1})\geq0 دلار * * * اعمال LSE $SSE(X_1,...,X_{p-1})=\sum(Y_i- b_0-b_1X_{1,i}-...-b_{p-1}X_{p- 1,i})^2=\sum(Y_i- b_0-b_1X_{1,i}-...-b_{p-1}X_{p-1,i}-0\times X_{p,i})^2\geq\sum(Y_i- b_0'-b_1'X_{1,i}-...-b_{p-1}'X_{p-1,i}-b_p' X_{p,i})^2=SSE(X_1,...,X_{p-1},X_p)$ $SSR(X_p|X_1،...X_{p-1})=SSE(X_1،...،X_{p-1})-SSE(X_1،...، X_{p-1}، X_p )\geq 0$ ثابت شد. | آیا مجموع اضافی مربع های $SSR(X_p|X_1،...X_{p-1})$ در رگرسیون چندگانه همیشه مثبت است؟ |
87871 | تفاوت بین: * 1) xcov(x,y,10,'unbiased')/sqrt(xcov(x,x,0,'unbiased')*xcov(y,y,0,'unbiased')) ; * 2) xcorr(x,y,10,'unbiased'); * 3) [ **A**، B] = crosscorr(x,y,10); ? من فکر می کنم (اما من مطمئن نیستم) که Crosscorr وسایل را حذف می کند و xcorr نمی کند ، اما من نمی دانم که چرا اولین پاسخ کاملاً متفاوت در مقایسه با دیگران می دهد. آیا از فرمول اشتباهی در 1 استفاده می کنم؟ خیلی ممنون | همبستگی متقابل در متلب |
74505 | من یک مجموعه داده با حدود 50 هزار ردیف و 100 ستون دارم. شما می توانید هر ردیف را نماینده یک رستوران در نظر بگیرید. هدف من محاسبه عدم شباهت بین تمام رستوران ها - ضریب Gower است. از این 100 ستون (ویژگی)، تعدادی از آنها داده های عددی و داده های اسمی هستند. مشکل این است که ستون های دیگر (حدود 90) داده های باینری بسیار پراکنده هستند (1/0). من فکر می کنم که آن 90 ستون از داده های باینری را می توان به تعدادی ستون کمتر کاهش داد، به طوری که زمان محاسبات را می توان به طور قابل توجهی کاهش داد. اما نمی دانم از چه روشی برای کاهش این حجم از داده های باینری استفاده کنم. آیا کسی می تواند به من چند پیشنهاد بدهد؟ اگر بتوانید برخی از منابع و کد R را در اختیار من قرار دهید بسیار مفید خواهد بود. | کاهش ابعاد بدون نظارت برای انواع داده های مختلط |
74500 | پروژه تحقیقاتی من دستیابی به ابزاری برای تجزیه و تحلیل الگوهای انتشار و اشتراک در وب سایت های خبری سریلانکا است. به عنوان بخشی از پروژه من، ابزار من باید علاوه بر تجزیه و تحلیل الگوهای انتشار وب سایت های خبری، بتواند موارد زیر را بیابد. • موضوعات خبری که اکثراً مشترک هستند (محبوب ترین موضوعات خبری) بر اساس نظرات کاربران. استفاده از نظرات کاربران برای اطلاع از محبوبیت یکی از الزامات سرپرست پروژه بود. • موضوعات خبری که محبوبیت خود را با توجه به زمان افزایش می دهند (به عنوان مثال: نظرات کمتری در اعتصاب دانشگاه داده شد، اما ناگهان تعداد نظرات افزایش می یابد) با توجه به اجرا، ابزار من مقالات خبری و نظرات کاربران مرتبط را در یک مورد استخراج می کند. به صورت روزانه از چندین وب سایت خبری این ابزار به طور مداوم بررسی می کند که آیا هر مقاله با ردیابی مقاله برای تعداد روزهای X نظرات بیشتری دریافت خواهد کرد (X یک مقدار تعریف شده توسط کاربر است و کاربر می تواند آن را تغییر دهد). من آمار زیر را برای هر مقاله ای که از ماه آوریل تا ارائه استخراج کرده ام جمع آوری کرده ام. • تاریخ انتشار مقاله • تعداد روزهایی که مقاله نظرات دریافت کرده است • تعداد نظرات (به استثنای پاسخ ها) توسط خوانندگان. • تعداد نظرات پاسخ داده شده توسط خوانندگان. • تعداد خوانندگان منحصر به فرد (نام مستعار) که نظر داده اند و نظرات پاسخ داده اند • تعداد کل نظرات و پاسخ ها در هر مقاله آیا روش آماری بهتری وجود دارد که بتوانم از آن برای محاسبه امتیاز محبوبیت برای هر مقاله خبری استفاده کنم. عوامل ذکر شده در بالا به جای محاسبه تعداد کل نظراتی که هر مقاله دریافت کرده است و آنها را برای انتخاب k برتر مقالات مرتب کنید. | محاسبه امتیاز محبوبیت برای مقالات خبری بر اساس نظرات کاربران |
73579 | این یک سوال در مورد استفاده از **lme()** در **R** برای محاسبه تغییرات بین گروهی و درون گروهی در مجموعه داده حاوی مقادیر _log_ است. من خوانده ام که هنگام استفاده از lme() برای محاسبه مقادیر سیگما (تغییر) در یک مجموعه داده، اگر مقادیر موجود در مجموعه داده (خوانده شده در R از یک فایل csv. و ذخیره شده به عنوان یک قاب داده) log باشند، باید ثبت شوند. قبل از استفاده از lme(); به عنوان مثال، اگر یک قاب داده با مقادیر x، y داشته باشیم: x= (1، 1، 2، 2، 3، 3) و مقادیر y متناظر: y= (4.5e-8، 4.2e-7، 3.2e -7، 3.1e-7، 3e-5، 3.4e-5). برای چنین مجموعه داده ای، ما همه مقادیر Y را _قبل از استفاده از lme()_ در این قاب داده ثبت می کنیم. حال سوال من این است که اگر بخواهیم این داده های x، y و میانگین آن را روی نمودار رسم کنیم و از مقادیر سیگما برای محاسبه حداکثر آنها استفاده کنیم. و دقیقه انحراف، آیا میانگین و مجموعه داده اصلی را نیز ثبت می کنیم یا مقادیر سیگما را که R برمی گرداند تغییر می دهیم؟ در حال حاضر، من مقادیر اصلی (_not_ log) را به عنوان نمودار رسم می کنم و میانگین آنها را نیز **قبل از ثبت** آنها محاسبه می کنم. اکنون، این باعث می شود که مقادیر سیگما بسیار بالاتر از مجموعه داده واقعی باشد. آیا نباید قبل از استفاده از lme() مقادیر را وارد کنم؟ یا، در عوض، آیا باید مقادیر سیگمای برگشتی را تغییر دهم (معکوس آنها یا چیزی شبیه به آن را بگیرم) و از آن در محاسبات خود استفاده کنم زیرا ارزش واقعی تری نسبت به مجموعه داده و میانگین آن می دهد؟ اگر کسی پیشنهادی دارد، لطفا به زودی به من اطلاع دهد. با تشکر | استفاده از R - lme() با مجموعه داده Log |
10309 | من در حال انجام یک تجزیه و تحلیل آماری برای تحقیق خود هستم. من از آزمون فریدمن با تحلیل تعقیبی استفاده می کنم. در حال حاضر من از تابع friedman.test.with.post.hoc موجود برای نرم افزار R استفاده می کنم. این تابع به جای مقدار chi-square مقدار maxT را گزارش می کند. یکی میتونه توضیح بده maxT چیه و ارتباطش با Chi-square چیه؟ متشکرم. | آزمون فریدمن و تجزیه و تحلیل پس از آن |
86830 | آیا نرمال سازی متغیرهای وابسته در رگرسیون چندگانه واقعاً مهم است یا استثناهایی وجود دارد؟ مدل من نتایج بهتری را با فرضیههای مهمتری ارائه میکند که DVs نرمالسازی نشده (تبدیل شدهاند). از نظرات سپاسگزار خواهم بود. | تبدیل به نرمال بودن متغیر وابسته در رگرسیون چندگانه |
74507 | از چه آزمون هایی استفاده می کنم تا ببینم که آیا دو توزیع در پراکندگی «به طور قابل توجهی» متفاوت هستند، اگر دم ضخیم باشند، مانند توزیع t؟ با تشکر | پراکندگی بین دو توزیع با دم ضخیم را مقایسه کنید |
108419 | این اولین سوال من در اینجاست. من نتایج تجربی برای دو مجموعه داده دارم که میخواهم بررسی کنم که آیا تفاوت معنیدار است یا خیر. در اینجا شرحی از آزمایش من است: آزمایش: من مجموعه ای از 70 ژن دارم که نشان دادم 12 تا از آنها به شیوه ای خاص در حال تکامل هستند. اکنون میخواستم بررسی کنم که آیا این 70 ژن در مقایسه با تمام ژنهای موجود در آن گونه، دارای این ویژگیهای تکاملی هستند یا خیر. متأسفانه به دلیل محدودیت های تجربی نتوانستم این آزمایش را روی همه ژن ها تکرار کنم. بنابراین من یک مجموعه تصادفی از 100 ژن (بدون جایگزینی) را انتخاب کردم و به این نتیجه رسیدم که از هر 100 ژن 8 ژن دارای ویژگی های یکسان هستند. حال برای بررسی اینکه آیا این تفاوت از نظر آماری معنیدار است یا خیر، در ابتدا از آزمون دوجملهای روی دادهها استفاده کردم (با استفاده از R prop.test). اما یکی به من گفت که این آزمایش مناسبی برای داده های شما نیست. لطفاً کسی می تواند در مورد تست صحیح به من کمک کند با تشکر، RT | نسبت های نسبی را تست کنید |
95862 | > با توجه به رگرسیون ساده $$Y_t = \beta X_t + e_t$$، با $$e_t = > \epsilon_t + \theta_1 \epsilon_{t-1} + \theta_2 \epsilon_{t-2}، \epsilon_t > \ سیم WN(0، \sigma^2)$$ و $$X_t iid، X_s \perp e_t \forall s,t$$ ${X_t > e_t}$ یک دنباله تفاوت مارتینگل است w.r.t $F_{t-1}=(X_{t-1}, e_{t-1}, > X_{t-2}, e_ {t-2}، ...)$؟ این تلاش من تاکنون بوده است: $E(X_t e_t | F_{t-1}) = E(X_t E(e_t|F_{t-1}, X_t)|F_{t-1})$ در سریال نامرتبط مورد، $E(e_t|F_{t-1}، X_t)=0$، منجر به MDS می شود. در این مورد همبسته سریال، من گمان می کنم که با 0 متفاوت باشد اما نمی توانم انتظار را دقیقاً محاسبه کنم. در نهایت به یافتن $E(\epsilon_{t-1}|F_{t-1})$ و $E(\epsilon_{t-2}|F_{t-1})$ ختم می شود، جایی که من گیر کرده ام | ثابت کنید که همبستگی سریال در شرایط خطا باعث می شود X_t $ e_t $ غیر MDS باشد |
10302 | من با اصطلاح **سرگشتگی** مواجه شدم که به احتمال معکوس میانگین لگ در داده های دیده نشده اشاره دارد. مقاله ویکیپدیا در مورد **سرگشتگی** معنایی شهودی برای آن نمیدهد. این اندازه گیری گیجی در کاغذ pLSA استفاده شد. آیا کسی می تواند نیاز و معنای شهودی اندازه گیری **سرگشتگی** را توضیح دهد؟ | گیجی چیست؟ |
86831 | من می خواهم راهی برای تبدیل مقیاس لیکرت به مقیاس زوجی (AHP/ANP) پیدا کنم، زیرا پرسشنامه من شامل 30 معیار برای مقایسه است و ساخت یک پرسشنامه زوجی شامل (30*(30-1))/2 سؤال است که برای پاسخ دهندگان بسیار طولانی است. آیا کسی می داند چگونه با آن برخورد کنم؟ یا هر روش دیگری برای سنجش معیارهای من؟ | مقیاس لیکرت را به دوتایی تبدیل کنیم؟ |
61275 | آیا این مفروضات درست و فهرست برای **اندازه گیری های مکرر MANCOVA** کامل است؟ * کرویت * نرمال بودن چند متغیره * همگنی واریانس * همگنی ماتریسهای کوواریانس * همگنی شیبهای رگرسیون * استقلال متغیر مستقل و متغیر کمکی | مفروضات MANCOVA با اندازه گیری های مکرر چیست؟ |
86834 | من سعی می کنم امتیازات فوتبال را با استفاده از توزیع پویسون مدل کنم. من برای هر تیم یک لامبدا محاسبه میکنم و سپس احتمالات دو محاسبه سم را ضرب میکنم تا احتمال یک امتیاز خاص را بدست بیاورم. به عنوان مثال poison(lambdaHome, 1)*poisson(lambdaAway, 2) برای محاسبه احتمال نتیجه 1-2 در پایان مسابقه. مشکلی که من دارم این است که توزیع پویسون فرض میکند که گل دوم به همان اندازه احتمال گل سوم است که گل چهارم. اما در واقعیت این نباید درست باشد. اگر یک مسابقه امتیاز 2-0 داشته باشد، از نظر شهودی احتمال کمتری برای تیم برای زدن گل دیگری وجود دارد، زیرا احتمالاً زمان بیشتری را برای حفظ امتیاز در دفاع صرف می کند تا حمله برای زدن گل های بیشتر. آیا توزیع احتمالی مشابه Poisson وجود دارد، اما به جای داشتن یک احتمال ثابت برای همه اهداف، احتمال هر هدف را کمتر و کمتر می کند؟ | نحوه مدل سازی امتیازات فوتبال (فوتبال). |
70082 | من قصد دارم از پارتیشن بندی واریانس برای تفسیر نتایج خود از یک مدل معین و در بین مدل ها استفاده کنم و با انتقادات مختلفی از آن به ویژه توسط Pdhazur (1982، 1997) مواجه شده ام. همچنین، انتقادات به هر دو رویکرد به VP - تجزیه و تحلیل مشترک و پارتیشن بندی افزایشی واریانس است. از آنچه من فهمیدم اولی به اندازه دومی خطرناک نیست. به طور خلاصه، انتقادات مربوط به وابستگی زیاد به R^2 و چند خطی بودن است. علاوه بر این، انتقاد در مورد این است که چقدر معنادار است که قدرت توضیحی را به متغیرهای فردی در یک موقعیت چند متغیره نسبت دهیم. از آنجایی که من برای اولین بار از این مدل استفاده خواهم کرد، و حتی پس از خواندن پست های دیگر در این انجمن و دیگر مقالات/ادبیات، در حول و حوش انتقادات مشکل دارم. هرگونه توضیح واضح در مورد انتقادات قابل قدردانی خواهد بود. | پارتیشن بندی واریانس - چرا محتاط باشیم؟ |
110713 | من می خواهم اعداد تصادفی را بر اساس منحنی توزیع مانند منحنی عادی تجمعی معکوس تولید کنم. اما منحنی باید به پارامترها اجازه دهد تا پارامترها را همانطور که در تصویر نشان داده شده است، یعنی شیب (A، B، C)، مقادیر حداقل و حداکثر، بین 0.0 و 1.0 به شیوه ای معنادار مانند واریانس، میانگین و غیره تنظیم کنند. چیزهای معمولی آیا راه حل شناخته شده ای برای این منحنی از نظر توزیع آماری وجود دارد؟  | آیا نمودار توزیع معکوس وجود دارد که شبیه این باشد؟ |
70088 | فکر میکنم امروز عبارتی را خواندم که چیزی شبیه به این بود: > اگر توزیعی دارای میانگین و واریانس باشد... پس حدس میزنم که این بدان معناست که برخی از توزیعها میانگین یا واریانس ندارند؟ درک آن کمی دشوار است - به عنوان مثال: می توانم داده هایی را بدست بیاورم که گفته می شود از چنین توزیع بدون میانگین و بدون واریانس پیروی می کنند و به عنوان یک تخمین میانگین و واریانس چنین مجموعه داده ای را محاسبه می کنند. کسی می تواند کمک کند تا چیزی را که من از دست داده ام روشن کند؟ | چه زمانی یک توزیع میانگین یا واریانس ندارد؟ |
81828 | آیا نتیجه مقدار میانگین متحرک می تواند بالاتر از بالاترین مقدار تشکیل دهنده ای باشد که میانگین متحرک بر اساس آن است؟ من متوجه شدم که جایی در اینجا ممکن است پاسخی وجود داشته باشد، اما نتوانستم پاسخ خاصی برای این سوال پیدا کنم. من معتقد نیستم که نتیجه میانگین متحرک ارزش بر اساس مجموعه ای از ارزش ها در بازه زمانی مشخص شده (مانند فروش 4 هفته قبلی) می تواند بالاتر از مجموع فروش بالاترین جزئی باشد که یکی از مقادیر در نظر گرفته شده است. در محاسبه میانگین متحرک من اینجا هستم؟ متشکرم. | آیا نتیجه مقدار میانگین متحرک می تواند بالاتر از بالاترین مقدار تشکیل دهنده ای باشد که میانگین متحرک بر اساس آن است؟ |
10305 | چه زمانی می توان از آزمون اهمیت نسبت درستنمایی به جای آزمون دقیق فیشر یا تقریب پیرسون $\chi^2$ برای مقایسه دو مجموعه داده دو جمله ای استفاده کرد؟ با توجه به دو مجموعه داده دو جمله ای (توزیع)، من می بینم که از آزمون LR برای مقایسه یک توزیع در برابر توزیع جهانی (ترکیب) استفاده می شود. معمولاً من از آزمون فیشر برای مقایسه یک مجموعه داده با دیگری استفاده می کنم. من متوجه شدم که تست LR از مکتب Neyman-Pearson است که یک مدل جایگزین کاملاً مشخص و همچنین مدل تهی را فرض میکند. به عنوان مثال، در مثال صفحه آزمایشی LR ویکیپدیا، از آن برای مقایسه دو مجموعه داده دوجملهای (# سر/دم برای دو سکه) استفاده میشود. چرا از آزمون $\chi^2$ برای مقایسه دو نمونه با یکدیگر استفاده نمی کنید؟ تفاوت های مفهومی این دو رویکرد چیست؟ کی از کدوم استفاده کنم؟ و چه زمانی مناسب است که یک نمونه را در مقابل مکمل آن بلکه با مجموعه داده کلی مقایسه کنیم؟ | آزمون نسبت درستنمایی در مقابل آزمون $\chi^2$/Z برای مقایسه مجموعه داده های دو جمله ای |
85564 | در طول کار من یک مشکلی پیش آمده است. می توان آن را اینگونه خلاصه کرد: تعداد زیادی از متقاضیان کار وجود دارد، فرض کنید N از آنها. کاری که باید انجام شود این است که این متقاضیان به ترتیب مطلوبیت برای شرکت رتبه بندی شوند: 1، 2، 3، ... ن. تا به حال، این کار با بحث و گفتگو (بخوانید: استدلال) بین چندین نفر مسئول انجام شده است. برای تصمیم گیری ایده حذف بحث های مذکور نیست، بلکه کاهش حجم کار ضروری است. بنابراین، ایده جدیدی که در مورد آن مورد انتقاد قرار میگیرد این است که میتوان نوعی «نمره» برای هر متقاضی معرفی کرد. از چندین بعد مختلف (به عنوان مثال، هوش خام، جامعه پذیری، و غیره)، و رتبه بندی ها به سادگی برای ایجاد یک امتیاز نهایی جمع شدند. سپس متقاضیان را می توان بر اساس نمره مرتب کرد. البته، ارتباطهای زیادی با این سیستم خاص وجود خواهد داشت، اما مشکل رتبهبندی هر متقاضی را با ایجاد «بنهایی» که میتوان آنها را به صورت جداگانه مرتب کرد، یعنی مستقل از آنهایی که خارج از یک سطل معین هستند، کاهش میدهد. اما چگونه می توان مردم را متقاعد کرد که امتیاز با روش قدیمی و پرزحمت انجام شده با رتبه بندی ها همبستگی دارد؟ به نظر من یکی از ضرایب همبستگی رتبه ناپارامتریک رایج - Spearman rho، Kendall tau - باید برای این منظور مناسب باشد. (به ویژه، کندال tau-b، زیرا برای کنترل کراوات طراحی شده است.) اما من یک آماردان نیستم و نمی دانم که آیا چیزی مناسب تر وجود دارد یا خیر. از این گذشته، استفاده از یک آزمون آماری ناپارامتری این واقعیت را نادیده می گیرد که یکی از متغیرهای مورد مقایسه صرفاً فهرست (1، 2، 3،...، N) است! یا شاید درک من از معنای «ناپارامتریک» در این زمینه ناقص باشد. هر گونه بینشی در مورد روش هایی که می توانم برای حمله به این مشکل استفاده کنم، قدردانی خواهد شد. | معیار آماری مناسب برای همبستگی رتبه |
70084 | دارم مقاله ای می خوانم _ نمونه برداری گیبس برای افراد ناآشنا_. در این مقاله، نویسندگان سعی میکنند از نمونهگیری گیبس برای مدل بیزی ساده لوح استفاده کنند. آنها مدل را به عنوان یک مدل گرافیکی در صفحه 8 رسمیت می دهند. و در مثال، آنها سعی در پیش بینی احساس (احساس) یک سند دارند. با این حال، چیزی که من نمیفهمم این است که، آنها ادعا میکنند که بدون برچسب $L$، با استفاده از نمونهبرداری گیبس میتوان تمام پارامترهای مورد نیاز از جمله $L$ را نمونهبرداری کرد. من مطمئن نیستم که چگونه باید این را تفسیر کنم. بدون برچسب آموزشی، اساساً یک مشکل خوشهبندی است، اما اگر از برچسبها استفاده نمیکنیم، چگونه باید برچسب آموختهشده $L$ را تفسیر کنیم؟ پیشاپیش ممنون | بیز ساده لوح بدون نظارت |
10308 | میخواهم راههای مختلفی را که میتوان از یک سری زمانی **بدون تعصب به آینده نگاه کرد*** را کاوش کرد. من می خواستم از فیلتر Hodrick Prescott استفاده کنم که به نظر یک فیلتر فرکانس کاملاً خوب است، اما مبتنی بر یک روش بهینه سازی است و می دانم که ممکن است نتایج عجیب و غریب و فرار در مرز بدهد. صاف کردن موجک روی یک پنجره چرخان گزینه دیگری است، اما باز هم اثرات حاشیه می تواند بسیار زیاد باشد (داده ها با تقارن کپی می شوند که برای دقت تکنیک در لبه وحشتناک است). ایده یا نظری دارید؟ PS: موضوع قبلاً در اینجا مورد بحث قرار گرفته است، می دانم. اما من می خواهم کمی بیشتر در مورد یک سوال دقیق تر کاوش کنم. | چگونه می توان روند را بدون تعصب به جلو حذف کرد؟ |
38450 | در یک شبیهسازی، من دادهها را از توزیع A تولید میکنم، و سپس امیدوارم آزمایش کنم که آیا هر یک از توزیعهای دیگر B، C، D... میتوانند به همان اندازه با دادهها مطابقت داشته باشند. بدیهی است که یک برازش اولیه مدل تحت توزیع A وجود دارد، بنابراین من می توانم آماره chi^2 پیرسون را به عنوان معیار خوبی از برازش دریافت کنم. سوال من: آیا ممکن است که در توزیع های B,C,D... آمار chi^2 حتی کوچکتر از آمار بدست آمده از مدل واقعی (یعنی distn A) بدست بیاورم؟ دلیل این سوال این است که من در نظر دارم که آیا یک تست 1 یا 2 طرفه باید انجام شود، یعنی H0: مدل A با داده ها مطابقت دارد. ها: نه H0. به طور شهودی (شاید من اشتباه می کنم)، یک مدل کلی تر (منظورم، کلی تر از A، مانند A=Poisson، B=دوجمله ای منفی) ممکن است به همان اندازه مناسب یا بهتر برای داده های تولید شده از A فراهم کند، بنابراین پیرسون اگر از distn B برای مدل سازی داده های شبیه سازی شده از distn A استفاده کنم، انتظار می رود که آمار کوچکتر باشد. در این مورد، من باید یک مقدار p بزرگ دریافت کنم که نشان دهنده no عدم تناسب، درست است؟ آیا پیشنهادی در مورد انتخاب آمار جایگزین برای ارزیابی GOF دارید؟ خیلی ممنونم! | در مورد p-value خوب بودن تناسب و آمار $\chi^2$ پیرسون |
9400 | پروژه واقعی من کمی پیچیده است، اما من با قیاس توضیح می دهم (که امیدوارم پاسخ را تسهیل کند): من 3 ماده دارم، مثلاً آب، روغن موتور و اتانول. برای هر ماده 5 نمونه در یک بشر دارم (مجموع 15 بشر). همه ی لیوان ها را روی بشقاب داغ تا دمای 70 درجه سانتیگراد گرم می کنم و در یک ساعت بعد دمای سیال هر لیوان را در فواصل 5 دقیقه اندازه گیری می کنم. خنکسازی نیوتنی پیشبینی خوبی در مورد این دادههای دما به من میدهد، یعنی دمای سیال در هر فنجان باید از توزیع نمایی پیروی کند: y = a + e^(-kt) که در آن a دمای اتاق است. من می خواهم مقدار k را برای هر ماده تخمین بزنم و این فرضیه را آزمایش کنم که k1 > k2 > k3 (1، 2، 3 مربوط به سه ماده من است). به نظر میرسد روش طبیعی تخمین k محاسبه یک رگرسیون غیرخطی بر روی دادههای هر ماده یا احتمالاً تبدیل کردن تمام دادهها و سپس محاسبه یک رگرسیون خطی ساده است. با این حال، مشکلاتی وجود دارد. برخی از سوالات: 1. با توجه به همبستگی خودکار آشکار در داده های طولی (البته توسط نمودارهای (P)ACF من تایید شده است)، آیا باید قبل از محاسبه رگرسیون، یک عبارت AR را محاسبه کنم و داده های خود را فیلتر کنم؟ 2. با فرض اینکه این عبارت خودرگرسیون را محاسبه کنم، چگونه آن را برای پنج مجموعه مستقل از داده ها (پنج فنجان یک ماده داده شده) محاسبه کنم؟ من میتوانم پنج لیوان را با هم میانگینگیری کنم و سپس رگرسیون را محاسبه کنم، اما این عبارت AR من را خراب میکند (با فرض اینکه به یکی نیاز دارم) و همچنین تخمین من از واریانس واقعی درون لیوان را از مدل دور میکند. 3. من در اینجا در چه فرضیات کاملاً اشتباهی کار کرده ام...؟ | چگونه می توانم رگرسیون را برای چندین مجموعه داده طولی محاسبه کنم (بنابراین، با خطای همبسته خودکار)؟ |
81821 | من سعی می کنم یک دور را برای محاسبه میانگین مجموعه ای از داده ها به قوی ترین روشی که می توانم، و در عین حال دقیق، محاسبه کنم (این به نرم افزار صورتحساب مربوط می شود). به عنوان مثال، فرض کنید من دقایق ماهانه را در اختیار دارم. من باید یک میانگین ماهانه خوب پیدا کنم تا بفهمم به طور متوسط چند دقیقه در روز استفاده می شود. من تصمیم گرفتم از IQR استفاده کنم تا هر گونه موارد پرت را از بین ببرم به دلیل اینکه مقدار یک ماه یا یک ماه با استفاده بسیار بالا به درستی به دست نمی آید. ** لیست زیر لیستی از اعدادی است که من استفاده کردم: ** > > 0,0,0,0,100,200,200,200,300,300,300,300,300,300,300,300,300,300,400,400,400,400,400, 400,500,500,500,500,500,500,500,500,600,600,600,600,800,1000,1200,1200,1400,1400,1900 اینها مقادیری هستند که من توانستم به دست بیاورم: > میانه: 400 > q1: 300 > q3: 600 > IQR: 300 > محدوده کم: -50 > محدوده بالا: 850 > میانگین بعد از IQR: 359.459459459459 > میانگین معمولی >1461 > 146L > میانگین معمولی = میانه - IQR*1.5 > rangeHigh = میانه + IQR*1.5 آیا این روش دقیقی برای محاسبه این به نظر می رسد؟ من همچنین به حذف 0ها فکر می کردم زیرا بسیاری از آنها به دلیل خطا رخ می دهند. آیا راه بهتری برای انجام این کار وجود دارد؟ | استفاده از IQR برای یافتن میانگین بدون نقاط پرت |
81825 | در بستههای بقا و rms R، Kaplan-Meier (Surv و Survift) و خطرات متناسب کاکس (cph) پیادهسازی شدهاند. من با اضافه کردن یک به یک پیشبینیکنندههایی که در مجموعه دادهام دارم، این دو را آزمایش کردهام. اینها معنی وابسته به زمان برای یک رکورد نیستند، فقط یک مشاهده برای این پیش بینی کننده ها وجود دارد که به زمان بستگی ندارند. قالب برای KM نیاز دارد که یک شی «Surv» قبل از اینکه برای پردازش بیشتر به تابع «survfit» داده شود، ابتدا ساخته شود. fit <- Surv(زمان، وضعیت)~X1+X2+X3+ ... +Xn model.km <- survfit(fit) `cph` نیز از روش مشابهی برای ایجاد مدل Cox استفاده می کند. model.cox = cph(fit, surv=TRUE, x=TRUE, y=TRUE) * * * آیا باید همه پیش بینی کننده های خود را در مجموعه داده به Surv اضافه کنم تا بتوانم یک نمایش قانونی یا کامل از آن داشته باشم؟ داده های من؟ من همیشه سعی میکنم هر یک را در یک زمان به توابع اضافه کنم و به دنبال مواردی باشم که باعث ایجاد خطا میشوند و برای ادامه ساختن آن را حذف میکنم. اگر یکی از این پیشبینیکنندهها در «Surv»، «survfit» و «cph» مورد استقبال قرار نگیرد، من فوراً آنها را از ایجاد و نه مجموعه داده حذف میکنم. آیا این روشی که من انجام می دهم صحیح است؟ | تصمیم برای افزودن همه متغیرهای پیش بینی در Kaplan-Meier و Cox PH |
6287 | من دارم با مدل های سری زمانی آستانه گول می زنم. در حالی که داشتم کارهایی را که دیگران انجام دادهاند را بررسی میکردم، برای اطلاعات آنفولانزا به سایت CDC رفتم. http://www.cdc.gov/flu/weekly/ حدود 1/3 پایین صفحه نموداری با عنوان پنومونی و مرگ و میر آنفلوانزا... است. این فیلم واقعی را به رنگ قرمز و دو سریال فصلی سیاه نشان می دهد. برترین سریال فصلی برچسب آستانه اپیدمی دارد و به نظر می رسد مقداری درصد/مقدار ثابت بالاتر از سریال Seasonal Baseline باشد. اولین سوال من این است: آیا آنها واقعاً اینگونه تعیین می کنند که چه زمانی به طور علنی بگویند ما در یک اپیدمی هستیم (چند درصد بالاتر از سطح پایه)؟ به نظر من آنها در محدوده نویز قرار دارند، نه به تأثیر «سایر عوامل» که بدیهی است در آن سری پایه به حساب نمیآیند. برای من، موارد مثبت کاذب بسیار زیادی وجود دارد. سوال دوم من این است: آیا میتوانید نمونههای واقعی/انتشاری مدلهای آستانه (امیدوارم در R) را به من نشان دهید؟ | مدلهای آستانه و تشخیص اپیدمی آنفولانزا |
38452 | آیا می توان از استقلال یک نمونه واحد (از چند نقطه داده) نسبت به توزیع اساسی صحبت کرد؟ یا اینکه استقلال فقط بین نمونه ها مرتبط است؟ | استقلال یک نمونه؟ |
86273 | من سعی میکنم احتمال ورود به سیستم را برای یک رگرسیون حداقل مربعات غیرخطی تعمیمیافته برای تابع $f(x)=\frac{\beta_1}{(1+\frac x\beta_2)^{\beta_3}}$ بهینهسازی شده محاسبه کنم. توسط تابع gnls در بسته R nlme، با استفاده از ماتریس کوواریانس واریانس ایجاد شده توسط فواصل در یک درخت فیلوژنتیک با فرض براونی حرکت (corBrownian(phy=tree) از بسته میمون). کد R تکرارپذیر زیر با مدل gnls با استفاده از دادههای x,y و درخت تصادفی با 9 گونه مطابقت دارد: need(ape) require(nlme) need(expm) درخت <- rtree(9) x <- c(0,14.51, 32.9،44.41،86.18،136.28،178.21،262.3،521.94) سال <- c(100,93.69,82.09,62.24,32.71,48.4,35.98,15.73,9.71) مدل <- data.frame(x,y,row.names=tree$tip.label) مدل <- y~beta1/ ((1+(x/beta2))^beta3) f=function(بتا،x) beta[1]/((1+(x/بتا[2]))^بتا[3]) شروع <- c(beta1=103.651004,beta2=119.55067,beta3=1.370105) همبستگی <- corBrownian(phy=tree) مناسب <- gnls (model=model,data=data,start=start,correlation=conrelation) logLik(fit) من میخواهم احتمال ورود به سیستم را «با دست» (در R، اما بدون استفاده از تابع «logLik») بر اساس پارامترهای تخمینی بهدستآمده از «gnls» محاسبه کنم تا با خروجی «logLik» مطابقت داشته باشد. مناسب)`. توجه: من سعی نمی کنم پارامترها را تخمین بزنم. من فقط میخواهم احتمال log پارامترهای تخمین زدهشده توسط تابع «gnls» را محاسبه کنم (اگرچه اگر کسی نمونهای تکرارپذیر از نحوه تخمین پارامترها بدون «gnls» داشته باشد، بسیار علاقه مند به دیدن آن هستم!). من واقعاً مطمئن نیستم که چگونه این کار را در R انجام دهم. نماد جبر خطی که در مدلهای اثرات مختلط در S و S-Plus (پینهیرو و بیتس) توضیح داده شده است، بسیار زیاد است و هیچ یک از تلاشهای من مطابقت نداشت. logLik(fit)`. در اینجا جزئیات توصیف شده توسط پینیرو و بیتس آمده است: احتمال ورود به سیستم برای مدل حداقل مربعات غیرخطی تعمیم یافته $y_i=f_i(\phi_i,v_i)+\epsilon_i$ که $\phi_i=A_i\beta$ به صورت زیر محاسبه می شود: $ l(\beta,\sigma^2,\delta|y)=-\frac 12 \Bigl\{ N\log(2\pi\sigma^2)+\sum\limits_{i=1}^M{\Bigl[\frac{||y_i^*-f_i^*(\beta)||^2}{ \sigma^2}+\log|\Lambda_i|\Bigl]\Bigl\}}$ که در آن $N$ تعداد مشاهدات است، و $f_i^*(\beta)=f_i^*(\phi_i,v_i)$. $\Lambda_i$ مثبت-معین است، $y_i^*=\Lambda_i^{-T/2}y_i$ و $f_i^*(\phi_i,v_i)=\Lambda_i^{-T/2}f_i(\phi_i ,v_i)$ برای $\beta$ و $\lambda$ ثابت، برآوردگر ML $\sigma^2$ $\hat\sigma(\beta,\lambda)=\sum\limits_{i=1}^M||y_i^*-f_i^*(\beta)||^2 / N$ و نمایه log- است احتمال است $l(\beta,\lambda|y)=-\frac12\Bigl\{N[\log(2\pi/N)+1]+\log\Bigl(\sum\limits_{i =1}^M||y_i^*-f_i^*(\beta)||^2\Bigl)+\sum\limits_{i=1}^M\log|\Lambda_i|\Bigl\}$ که با الگوریتم Gauss-Seidel برای یافتن تخمین های ML $\beta$ و $\lambda$ استفاده می شود. یک تخمین سوگیری کمتر از $\sigma^2$ استفاده شده است: $\sigma^2=\sum\limits_{i=1}^M\Bigl|\Bigl|\hat\Lambda_i^{-T/2}[y_i - f_i(\hat\beta)]\Bigl|\Bigl|^2/(N-p)$ که $p$ نشان دهنده طول $\beta$ است. من لیستی از سوالات خاصی را که با آنها روبرو هستم جمع آوری کرده ام: 1. $\Lambda_i$ چیست؟ آیا ماتریس فاصله تولید شده توسط «big_lambda <\- vcv.phylo(tree)» در «میمون» است، یا باید به نحوی با $\lambda$ تغییر یا پارامتر شود یا چیز دیگری کاملاً؟ 2. آیا $\sigma^2$ fit$sigma^2 خواهد بود، یا معادله تخمین با سوگیری کمتر (آخرین معادله در این پست)؟ 3. آیا استفاده از $\lambda$ برای محاسبه log-relihood ضروری است یا این فقط یک مرحله میانی برای تخمین پارامتر است؟ همچنین $\lambda$ چگونه استفاده می شود؟ آیا این یک مقدار است یا یک بردار، و آیا در همه عناصر $\Lambda_i$ ضرب می شود یا فقط عناصر خارج از مورب و غیره؟ 4. $||y-f(\beta)||$ چیست؟ آیا در بسته «ماتریس» «norm(y-f(fit$ضرایب، x)، «F»)» خواهد بود؟ اگر چنین است، من در مورد نحوه محاسبه مجموع $\sum\limits_{i=1}^M||y_i^*-f_i^*(\beta)||^2$ سردرگم هستم، زیرا `norm()` یک مقدار واحد، نه یک بردار را برمی گرداند. 5. چگونه می توان $\log|\Lambda_i|$ را محاسبه کرد؟ آیا «log(diag(abs(big_lambda)))» است که «big_lambda» $\Lambda_i$ است یا «logm(abs(big_lambda))» از بسته «expm» است؟ اگر logm() باشد، چگونه می توان مجموع یک ماتریس را بدست آورد (یا به طور ضمنی گفته می شود که فقط عناصر مورب است)؟ 6. فقط برای تأیید، آیا $\Lambda_i^{-T/2}$ اینگونه محاسبه می شود: `t(solve(sqrtm(big_lambda)))`؟ 7. $y_i^*$ و $f_i^*(\beta)$ چگونه محاسبه می شوند؟ آیا یکی از موارد زیر است: `y_star <\- t(solve(sqrtm(big_lambda))) %*% y` و `f_star <\- t(solve(sqrtm(big_lambda))) %*% f(fit$ ضرایب،x)» یا «y_star <\- t(solve(sqrtm(big_lambda))) خواهد بود * y` و `f_star <\- t(solve(sqrtm(big_lambda))) * f(fit$ضرایب،x)` ? اگر به همه این سؤالات پاسخ داده شود، از نظر تئوری، من فکر میکنم log-likelihood باید برای مطابقت با خروجی «logLik(fit)» قابل محاسبه باشد. هر گونه کمک در مورد هر یک از این سوالات بسیار قدردانی خواهد شد. اگر چیزی نیاز به توضیح دارد، لطفا به من اطلاع دهید. با تشکر **به روز رسانی**: من در حال آزمایش احتمالات مختلف برای محاسبه log-relihood بوده ام و در اینجا بهترین چیزی است که به دست آورده ام. | محاسبه احتمال ورود به سیستم با دست برای رگرسیون حداقل مربعات غیرخطی تعمیم یافته (nlme) |
10303 | با استفاده از OLS، معادله زیر را تخمین زدهام: $y_i = \alpha_0 + \alpha_1 X_i + \epsilon_i$ میدانم که از نظر تئوری، موارد زیر باید درست باشد: $y_i = a + (1-e^{-\lambda 60 }) X_i$ آیا راهی وجود دارد که با برآورد $\alpha_1$ بتوانم آن را به تخمین $\lambda$ ترجمه کنم؟ به عنوان پیگیری، اگر این بدون مشکل امکان پذیر نیست، اگر می دانستم توزیع $\alpha_1$ یک توزیع نرمال با مقداری میانگین و واریانس است، آیا راهی برای توصیف شکل توزیع $\lambda وجود دارد. دلار خواهد بود؟ من احساس میکنم که یک توزیع لاگ خطی خواهد بود، اما مطمئن نیستم که میانگین/واریانس آن چیست. | استفاده از ضریب OLS برای تخمین ضریب غیر خطی |
45372 | ما روی پروژهای کار کردهایم که در آن 2 یا چند نماینده معاملاتی در یک سهام بازار داریم و برای نتیجه، سودهایی را داریم که هر معاملهگر پس از اجرای 1000 بار یا بیشتر در هر جلسه بازار به دست آورده است. ما باید سود این معاملهگران را از نظر آماری مقایسه کنیم تا بدانیم کدام یک بهتر است، ما ایده استفاده از فواصل اطمینان در میانگین را داریم و همچنین به استفاده از U-Test فکر میکنیم اما مطمئن نیستیم که آیا استفاده از آن مناسب است یا خیر. آن را برای چنین نمونه های بزرگ و مقایسه بیش از 2 معامله گر. هر گونه کمکی قدردانی خواهد شد. با تشکر | کمک در تجزیه و تحلیل آماری سود |
80880 | من چندین مقاله و سؤالات CrossValidated در مورد بوت استرپینگ دیده ام (مثلاً این، این یا این). توضیحات نظری و آماری زیادی وجود دارد، با این حال از آنجایی که آنها بسیار مبتنی بر نظریه هستند، می ترسم که استفاده را اشتباه متوجه شده باشم. از این رو سؤالات من: 1) هنگامی که من یک راهاندازی ناپارامتری (تغییر نمونه برای هر اجرا) با رگرسیون لجستیک روی دادههایم انجام میدهم، اساساً برای هر پیشبینیکننده برای هر اجرا چندین ضرایب مختلف به دست میآورم. در نهایت من فاصله اطمینان برای هر پیش بینی کننده را نیز خواهم داشت. تا اون موقع میفهمم سوال من این است؛ با فرض نرمال بودن توزیع، وقتی میخواهم یک مدل نهایی در تمرین ارائه کنم، آیا میتوانم فقط میانگین فواصل اطمینان را برای هر پیشبینیکننده بگیرم و آن را به عنوان ضریب مدل نهایی خود در نظر بگیرم؟ 2) اگر پاسخ سوال شماره 1 مثبت است، آیا این تنها راه انتخاب ضرایب در هنگام بوت استرپ است؟ اگر نه، چه چیز دیگری؟ من در چند مقاله دیگر با روشی به نام کیسه کشی مواجه شدم. به نظر می رسد این هدف اصلی من باشد. 3) این یکی بیشتر یک سوال کنجکاوی است: آیا روششناسی فوق میتواند برای پیشبینیکنندههای طبقهبندی زمانی که وزن شواهد به آنها اختصاص داده میشود، اعمال شود؟ من میدانم که میتوانیم پیشبینیکنندههای طبقهبندی را به متغیرهای ساختگی تقسیم کنیم. اما اگر بخواهم از روش WOE استفاده کنم با هر ضریب چگونه رفتار می کنم؟ | ضرایب بوت استرپینگ در رگرسیون لجستیک |
868 | من امشب یک صفحه گسترده اکسل سریع و سرگرم کننده ایجاد کردم تا پیش بینی کنم که در صورت خرید از کدام بازی های ویدیویی لذت خواهم برد. من نمی دانم که آیا این مثال سریع از دیدگاه رگرسیون لجستیک منطقی است و آیا من تمام مقادیر را به درستی محاسبه می کنم. متأسفانه، اگر همه کارها را به درستی انجام دادم، شک دارم که منتظر چیزهای زیادی در XBOX یا PS3 خود باشم ؛) چند دسته بندی کردم و آنها را به همین ترتیب وزن کردم (صفحه گسترده واقعی دو برابر یا بیشتر فهرست می کند): ` 4 4 3 1 بصری خیره کننده و هیجان انگیز هنری ورزشی، سپس چند بازی را که دارم مرور کردم و به آنها در هر دسته امتیاز دادم (امتیاز 0-4). سپس یک سلول جداگانه را به عنوان مقدار Beta_0 تنظیم کردم و آن را تنظیم کردم تا زمانی که درصدهای حاصل تقریباً درست به نظر برسند. در مرحله بعد رتبهبندیهای مورد انتظارم را برای بازیهای جدیدی که **منتظرشان بودم* وارد کردم و درصدهایی را برای آنها دریافت کردم. مثال: Beta_0 := -35 ` 4 4 3 1 بصری خیره کننده هنری هیجان انگیز ورزشی 4 4 0 1 ` به صورت P = 1 / [1 + e^(-35 + (4*4 + 4*4 + 3*) محاسبه می شود 0 + 1*1)] P = 88.1% اگر بخواهم رگرسیون را خودکار کنم، درست فکر می کنم که می خواهم Beta_0 را تنظیم کنید تا نمونههای آموزشی مثبت به نمایش درآیند و نمونههای آموزشی منفی پایین بیایند. من مشتاقم بیشتر یاد بگیرم. | آموزش مدل رگرسیون لجستیک |
44027 | با توجه به متغیرهای $X$ و $Y$ که همبسته هستند، $X\ge0$، $Y\ge0$ و هر کدام از یک توزیع گاما با پارامترهای شکل متفاوت پیروی میکنند، یعنی $X\sim Gamma(a_1،\alpha) $ و $Y\sim Gamma(a_2،\alpha)$. فهمیدم که Joint PDF $f_{X,Y}(x,y)$ را می توان با استفاده از کوپولای دو متغیره Farlie Gumbel Morgenstern (FGM) که برای پارامترهای شکل مختلف قابل استفاده است به دست آورد. PDF مشترک با $$h_{X,Y}(x,y) = f_X(x)f_Y(y) \left[1+\lambda\left(2F_X(x)-1\right)\left( داده می شود 2F_Y(y)-1\right)\right]،\quad |\lambda|\le 1 $$ که $f(.)$ نشان دهنده PDF حاشیه و $F(.)$ است. نشان دهنده CDF حاشیه ای است. سوالات اصلی من این است: * چگونه می توان ارزش $\lambda$ را تعیین کرد؟ * آیا درست است که کوپلا FGM فقط برای همبستگی ضعیف استفاده می شود؟ * آیا روش دیگری برای محاسبه ضریب همبستگی پیرسون به جای معادله داده شده توسط $$ \rho = \lambda K(a_1)K(a_2)$$ وجود دارد که $K(a)=\displaystyle\frac{1}{2^ {2a-1} \beta(a,a) \sqrt{a}}$ and $\beta(.,.)$ تابع بتا است. | توزیع گامای دو متغیره Farlie-Gumbel-Morgenstern |
6281 | من در حال حل مشکل تمرینی برای تکالیف آماری خود هستم. ما از فواصل اطمینان برای یافتن محدوده ای استفاده می کنیم که میانگین واقعی در آن قرار دارد. من در درک چگونگی یافتن اندازه نمونه مورد نیاز برای تخمین میانگین واقعی در حدود 0.5% مشکل دارم. من درک می کنم که چگونه می توانم مشکل را زمانی که محدوده به عنوان یک عدد داده می شود، مانند +- 0.5 میلی متر، حل کنم. چگونه درصدها را مدیریت کنم؟ | نحوه استفاده از فواصل اطمینان برای یافتن میانگین واقعی در یک درصد |
5213 | فرض کنید من یک نمونه $(y_i,x_i)$, $i=1,...,n$ را مشاهده می کنم. فرض کنید من موارد زیر را می دانم: $y_i=\alpha_0+\alpha_1x_i+\varepsilon_i$, $i \in J\subset\{1,...,n\}$ $y_i=\beta_0+\beta_1x_i+\varepsilon_i$, $i \در J^c$ که $\varepsilon_i$ i است. من د و $J$ از قبل مشخص نیست. آیا می توان $\alpha_0،\alpha_1،\beta_0،\beta_1$ را تخمین زد؟ یا حداقل این فرضیه را آزمایش کنید که $J=\varnothing$؟ اگر $J$ شناخته شده باشد، حل مشکل بسیار آسان است. گذر از تمام زیر مجموعه ها امکان پذیر نیست، زیرا ما ترکیبات احتمالی $2^n$ داریم. اگر $J=\{1,...,k\}$ را با $k=1,...,n$ مجهول فرض کنیم، مشکل نقطه تغییر کلاسیک است که تست های زیادی برای آن موجود است. من گمان می کنم که این مشکل ممکن است بد باشد، بنابراین می خواستم قبل از تلاش برای حل آن بررسی کنم. در اینجا یک تصویر ساده از مشکل وجود دارد: N <- 200 s1 <- نمونه (1:N,N %/% 2) s2 <- (1:N)[!(1:N) %in% s1] x < - rnorm(N) eps <- rnorm(N) ind <- 1:N y <- rep(NA,N*T) y[ind %in% s1] <- 2+0.5*x[ind %in% in% s1]+eps[ind %in% in% s1]/5 y[ind %in% in% s2] <- 1+1*x[ind %in% s2]+eps[ind % در% s2]/5 y sal1 <- ind %in% s1 نمودار (x، y) نقاط(x[sal1]، y[sal1]، col=2) abline(2, 0.5, col=2) abline(1, 1) از نظر گرافیکی کم و بیش واضح است که ما دو مدل متفاوت داریم. شاید بتوان از تکنیک های طبقه بندی یا داده کاوی برای حل این مشکل استفاده کرد؟ | تشخیص بین دو مدل رگرسیون خطی مختلف در یک نمونه |
81822 | من می خواهم یک CRBM ایجاد کنم که توالی داده ها را یاد بگیرد. از آنجایی که دادهها میتوانند بسیار پیچیده باشند، میخواهم از چندین لایه استفاده کنم، اما در مورد نحوه استفاده از چندین لایه مشکل دارم. من این مقاله را در مورد Deep RBM پیدا کردم. این در مورد چگونگی آموزش چندین لایه است. مشکلی که من با این مقاله دارم در معادله 19 است: می گوید h1 به v و h2 بستگی دارد، اما وقتی تازه شروع به دادن داده به RBM می کنم، هیچ مقداری برای h2 وجود ندارد، پس چگونه h1 را تولید کنم؟ همچنین، چگونه این الگوریتم با اتصالات مورد استفاده برای مقادیر تاریخچه مانند CRBM ها استفاده می شود؟ اگر کسی نمی داند چگونه به سؤال مربوط به مقاله پیوند داده شده پاسخ دهد، خوشحال می شوم اگر کسی بتواند به من نشان دهد CRBM چقدر عمیق آموزش داده می شود و مورد استفاده قرار می گیرد، CRBM یک لایه من به خوبی کار می کند. | Deep (C)RBM - چگونه داده تولید کنیم؟ |
85561 | من مجموعه ای از احزاب دارم $V=\left\{ {V_i, V_j,..., V_n}\right\}$. هر حزب دارای ویژگی مربوطه $S=\left\{ {S_i, S_j,..., S_n}\right\}$ است که تعداد افراد شرکت کننده در رویداد را نشان می دهد. برای هر جفت رویداد $V_i$ و $V_j$ می توانم تعداد شرکت کنندگان مشترک را به عنوان $E_{ij}$ استنتاج کنم، با $E_{ij}=0$ به این معنی که هیچکس در هر دو طرف شرکت نمی کند. اکنون میخواهم از دادههایم استفاده کنم تا با توجه به $S_i$ و $S_j$، توزیع احتمال را برای $E_{ij}$ تخمین بزنم تا مشخص کنم کدام جفت از $V_i$ و $V_j$ دارای $E_{ بالاتر/پایینتر هستند. ij}$ از حد انتظار با توجه به داده ها. به عبارت دیگر، من می خواهم برای هر $E_{ij}$ توزیع احتمالی مانند این را ببینم  که (من حدس می زنم ) باید به من بگویید که با توجه به $S_i$ و $S_j$، $E_{ij}$ به عنوان احتمال 0.2 از 3 بودن، 0.23 از 4 بودن، و غیره. سپس اگر مقدار_واقعی $E_{ij}$ باشد، فرض کنید 10 باشد، من در موقعیتی هستم که بگویم $E_{ij}$ با توجه به بقیه داده ها مقدار غیرمنتظره ای دارد. آیا انجام آن منطقی است؟ چگونه باید توزیع احتمال را برای $E_{ij}$ محاسبه کنم؟ آیا باید از رگرسیون خطی با $S_i$ و $S_j$ به عنوان متغیرهای مستقل استفاده کنم؟ توجه: شکل در R با کد زیر ایجاد شده است: x = rbinom(100000, 20, 0.2) plot(prop.table(table(x)),type=l) | محاسبه توزیع احتمال برای n از شرکت کنندگان مشترک بین دو طرف با توجه به اندازه آنها |
33817 | من تجربه عملی نسبتا خوبی با نمونهبرداری Metropolis-Hastings و Gibbs دارم، اما میخواهم درک ریاضی بهتری از این الگوریتمها داشته باشم. چند کتاب یا مقاله خوب وجود دارد که درستی این نمونهبرها را ثابت میکند (الگوریتمهای بیشتر نیز عالی خواهد بود)؟ | کتاب درسی مشتق کلان شهر-هیستینگز و نمونه گیری گیبس |
85563 | من سعی می کنم یک GLM دو جمله ای منفی را برای داده های صید ماهی با ماه از سال (عامل) به عنوان متغیر توضیحی خود جا بزنم. من ماه با بیشترین تعداد شکار را به عنوان سطح مرجع انتخاب کردم و مدل را با استفاده از تابع glm.nb() از بسته MASS برازش کردم. model1<-glm.nb(catch~month+offset(log(Duration_hours*NumberHooksDeployed))، catchdata) استفاده از anova(model1) نشان می دهد که فاکتور ماه قابل توجه است و شبه $R^2$ من حدود 55 است. ٪. مشکلی که من دارم این است که ماه هایی که اصلاً گیر ندارند، مقادیر p بیشتر از 0.05 (نزدیک به 1) دارند، حتی اگر انتظار داشته باشم که آنها به طور قابل توجهی کمتر از سطح مرجع باشند. از سوی دیگر، ماه هایی که فقط صید بسیار کمی دارند، قابل توجه هستند. خروجی تابع 'predict()' منطقی است، بنابراین فکر می کنم مدل باید خوب باشد. آیا با استفاده از تست احتمال R مشکلی وجود دارد یا اینکه من مدل اشتباهی را در داده های خود قرار می دهم؟ از پست های دیگر متوجه شدم که ممکن است مجبور باشم به جای آزمون والد از نسبت احتمال استفاده کنم. پیشنهادی در مورد نحوه انجام این کار در R دارید؟ هر گونه کمکی بسیار قدردانی خواهد شد. خروجی مدل را در زیر ببینید، ماههایی که 0 گیر دارند، می و ژوئن هستند: تماس: glm.nb (فرمول = NumCaught ~ ضریب(ماه) + افست (log(Effort_mins * Nhooks))، داده = f[f$Area == PW، ]، init.theta = 1.181267049، پیوند = گزارش) باقیمانده انحراف: حداقل 1Q میانه 3Q Max -1.8445 -0.7766 -0.2148 0.0000 1.5386 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) -2.647e+00 3.192e-01 -8.292 < 2e-16 *** ضریب(ماه)مه -2.754e+01 1.024e+05 0.000 0.999785 ضریب(ماه) ) ژوئن -2.790e+01 3.122e+05 0.000 0.999929 ضریب(ماه)سپتامبر -2.516e+00 6.516e-01 -3.861 0.000113 *** ضریب(ماه)دسامبر -1.112e-01 4.112e-01 4.112e-01 4.116e+00 -3.861 -3.861 -3.861 Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دوجمله ای منفی (1.1813) 1) انحراف صفر: 80.420 در 45 درجه آزادی باقیمانده انحراف: 36.178 در 41 درجه آزادی AIC: 140.81 تعداد تکرار Fisher Scoring: 1 Theta: 1.181 Std. خطا: 0.525 2 x احتمال ورود به سیستم: -128.815 | مقادیر p غیر معنیدار برای سطوح عامل با تنها 0s در glm دوجملهای منفی با استفاده از glm.nb() در R |
866 | بگویید من میخواهم تعداد زیادی از پارامترها را تخمین بزنم، و میخواهم برخی از آنها را جریمه کنم زیرا معتقدم در مقایسه با بقیه باید تأثیر کمی داشته باشند. چگونه تصمیم بگیرم از چه طرح جریمه استفاده کنم؟ چه زمانی رگرسیون پشته مناسب تر است؟ چه زمانی باید از کمند استفاده کنم؟ | چه زمانی باید از lasso vs ridge استفاده کنم؟ |
11628 | من در حال تجزیه و تحلیل نمرات داده شده توسط شرکت کنندگان در یک آزمایش هستم. من می خواهم پایایی پرسشنامه خود را که از 6 گویه تشکیل شده است با هدف تخمین نگرش شرکت کنندگان نسبت به یک محصول تخمین بزنم. من آلفای کرونباخ را محاسبه کردم و همه موارد را به عنوان یک مقیاس واحد در نظر گرفتم (آلفا حدود 0.6 بود) و هر بار یک مورد را حذف کردم (حداکثر آلفا حدود 0.72 بود). من می دانم که بسته به تعداد موارد و ابعاد ساختار زیربنایی می توان آلفا را دست کم گرفت و بیش از حد تخمین زد. بنابراین من یک PCA را نیز انجام دادم. این تجزیه و تحلیل نشان داد که سه مولفه اصلی وجود دارد که حدود 80 درصد از واریانس را توضیح می دهد. بنابراین، تمام سوالات من این است که چگونه می توانم اکنون ادامه دهم؟ * آیا باید محاسبات آلفا را در هر یک از این ابعاد انجام دهم؟ * آیا مواردی را که بر قابلیت اطمینان تأثیر می گذارند حذف کرده ام؟ علاوه بر این، با جستجو در وب دریافتم که معیار دیگری برای قابلیت اطمینان وجود دارد: lambda6 از guttman. * تفاوت اصلی این معیار با آلفا چیست؟ * ارزش خوب لامبدا چیست؟ | ارزیابی پایایی پرسشنامه: ابعاد، موارد مشکل ساز و اینکه آیا از آلفا، لامبدا6 یا شاخص دیگری استفاده شود؟ |
44021 | من به خانواده ای از توزیع های چند متغیره علاقه مند هستم که می توانند به عنوان تعمیم توزیع نرمال چند متغیره دیده شوند، تا جایی که با یک مقدار انتظار $\vec \mu$ و یک ماتریس کوواریانس $\Sigma$ به اضافه یکنواخت کاهشی تعریف می شوند. تابع $g(d)$ طوری که چگالی آن $$ p(\vec x) \propto g \left ( \Delta(\vec x, \vec \mu) \right ) $$ جایی که $$ \Delta(\vec a, \vec b) = \sqrt { (\vec a - \vec b)^T \Sigma^{-1} (\vec a - \vec ب) } $$ فاصله Mahalanobis است. نرمال چند متغیره البته با $g(d) = \exp (- \frac12 d^2 )$ بازیابی می شود. **اولین سوال** من این است: نام این خانواده از توزیع ها چیست؟ ساده است که نشان دهیم برای طبقه بندی یک داده داده شده به یکی از دو یا چند کلاس که هر کدام با چنین چگالی با $\mu$ متفاوت اما یکسان $\Sigma$ و $g(d)$ توصیف می شوند، ساده است. مرزهای طبقه بندی بهینه به صورت تکه ای خطی هستند (هیپرصطح). **سوال دوم** من این است: آیا این یک نتیجه استاندارد است و اگر بله، مرجع استاندارد ادبیات (کتاب درسی) آن چیست؟ | تعمیم توزیع نرمال چند متغیره و طبقه بندی |
81820 | من در حال حاضر در حال کار بر روی یک کتاب درسی یادگیری ماشین هستم و فقط کمی در مورد اعتبار سنجی متقاطع k-fold مطالعه می کنم، و من در مورد موارد زیر متعجب هستم. من می خواهم یک پارامتر را تخمین بزنم، به عنوان مثال. یک پارامتر جریمه برای روش احتمال جریمه شده برای انجام این کار، من میتوانم دو کار متفاوت انجام دهم: 1. از دادههای آموزشی نمونهبرداری میکنم به طوری که بهطور مساوی برابر بزرگترین چینها را به دست میآورم، و برای هر فولد از چینهای دیگر بهعنوان دادههای آموزشی استفاده میکنم تا تخمینی برای $y$ بدست آوریم. و من این تخمین ها را با $y$ واقعی از قسمت مورد نظر مقایسه می کنم. من این کار را برای هر انتخاب جالب پارامترم انجام می دهم و پارامتری را انتخاب می کنم که کمترین خطا را داشته باشد، به طور میانگین روی همه تاها و همه اعضای هر فولد. 2. من از داده های آموزشی نمونه برداری می کنم تا 2 مجموعه به همان اندازه بزرگ به دست بیاورم که یکی از آنها را به عنوان داده های آموزشی برای پیش بینی خطای مجموعه دیگر استفاده می کنم. برای هر لامبدا جالب، میانگین خطا را یادداشت می کنم. سپس، دادهها را دوباره نمونهبرداری میکنم تا 2 مجموعه (متفاوت) به همان اندازه بزرگ به دست بیاورم، جایی که روش بالا را تکرار میکنم. من در مجموع $k$ بار نمونه برداری می کنم و از اینها میانگین می گیرم تا بهترین پارامتر را برآورد کنم. رویکرد دوم نسبتاً ساده به نظر می رسد، و من نمی دانم که آیا مشکلی در آن وجود دارد. آیا به طور کلی دلایلی وجود دارد که چرا روش 1 را بر روش 2 ترجیح می دهیم؟ آیا دلایل محاسباتی یا حتی آماری وجود دارد؟ | چرا اعتبار سنجی متقاطع k-fold ایده بهتری نسبت به نمونه برداری مجدد k-time اعتبار واقعی است؟ |
57069 | من یک سری اشیاء دارم که احتمال تعلق آنها به 10 کلاس را می دانم. این احتمال می تواند صفر باشد (به مثال زیر با 4 کلاس نگاه کنید). A B C D 1 0.4 0.0 0.2 0.4 2 0.1 0.3 0.4 0.2 3 0.0 0.0 0.0 1.0 برای اینکه برای هر شیء اطلاعاتی در مورد کیفیت طبقه بندی بدست بیاورم، می خواستم آنتروپی شانون را محاسبه کنم اما کلاس ها زمانی که یکی از آنها را داشته باشد کار نمی کند. احتمالی برابر با صفر (log(0)=-Inf). سوال من: آیا پارامتری مشابه با آنتروپی شانون (یا انطباق) وجود دارد که بتواند احتمال برابر با صفر را مدیریت کند؟ | زمانی که احتمال برابر با صفر باشد، جایگزین آنتروپی شانون است |
45371 | من سعی میکنم نوعی الگوریتم بیزی تکراری ایجاد کنم که با جمعآوری دادههای بیشتر، بهطور مداوم به روز میشود. با این حال، توزیع دادههای من به گونهای است که مزدوج قبلی وجود ندارد، بنابراین من به استفاده از چیزی مانند نمونهگیری گیبس برای تولید توزیع پسین خود فکر میکنم. با این حال، اگر بخواهم تکرار دیگری از این الگوریتم بیزی را با داده های جدید انجام دهم، آیا بدون پیش از مزدوج ممکن است؟ چون من فقط نمونه های توزیع پسین را دارم، نه توزیع واقعی. با تشکر | به روز رسانی بیزی بدون مزدوج قبلی |
104045 | من در برخی از تحقیقاتم به مدل جالبی برخوردم و امیدوار بودم کسی با مسافت پیموده شده بیشتر بتواند به من به هر منبع یا برنامه دیگری اشاره کند. من با بتا-دوجمله ای آشنا هستم، اما اکنون سعی می کنم تجزیه و تحلیلی انجام دهم که در آن پارامترهای شکل مرتبط با پیشین بتا RV هایی هستند که به صورت دوجمله ای یا پواسون-دوجمله ای توزیع می شوند. آیا کسی قبلاً این را دیده یا مطالعه کرده است؟ | توزیع بتا با پارامترهای شکل تصادفی (دوجمله ای یا دو جمله ای پواسون) |
45374 | نظرسنجی من بر اساس مشاهدات و مصاحبه ها است. سوالات مشاهده ای از نوع بله / خیر و سوالات مصاحبه 4 امتیازی است. > $1=$ هرگز، $2=$ گاهی اوقات، $3=$ معمولا، و $4=$ همیشه. > بله $=1$، خیر $=0$. اگر همه اینها را با بالاترین امتیاز ممکن جمع کنم و آن را بر مجموع امتیاز دریافتی تقسیم کنم، سپس می توانم نمره کل را برای نظرسنجی بازیابی کنم. به عنوان مثال، فرض کنید من 5 پاسخ برای لیکرت و 5 پاسخ برای بله/خیر دارم. $5\times4$=20$ (با 4 که بالاترین امتیاز ممکن در مقیاس لیکرت است) و $5\times1$ $=5$$ (1$ بالاترین امتیاز ممکن برای سوال بله/خیر است). سپس هر دو را جمع می کنم تا بالاترین امتیاز ممکن را پیدا کنم $=25$. اگر یک امتیاز ترکیبی 20$ بدست بیاورم، آیا آن را بر امتیاز احتمالی 20$\div25=80$% تقسیم کنم؟ آیا می توانم پرسشنامه و محاسبات خود را اینگونه بسازم؟ هدف اصلی من کسب یک درصد / نمره برای کل پرسشنامه است. من به این فکر افتادم که این کار را از دو طریق انجام دهم: 1. مجموع امتیازهای کسب شده را از هر دو مقیاس تقسیم بر کل امتیازات ممکن برای هر دو مقیاس بدست آورید. 2. با استفاده از محاسبه بالا برای مقیاس های فردی، درصدی را بدست آورید که دو مجموعه درصد به من می دهد و سپس یک میانگین برای آن درصدها می گیریم. من مطمئن نیستم که از کدام راه باید بروم، یا اینکه آیا انجام آن از این طریق منطقی است. | مقیاس لیکرت و محاسبه بله/خیر یک نمره |
85566 | من تفاوت در زمان-فعالیت-بودجه دو جمعیت پرندگان دریایی را مقایسه می کنم، آنهایی که در حضور اختلال کشتی و آنهایی که در حضور اختلال کشتی نیستند. حیوانات کانونی به طور تصادفی انتخاب شدند و تا 10 دقیقه مشاهده شدند. همه حیوانات به مدت 10 دقیقه مشاهده نشدند، اما هدف از این تجزیه و تحلیل ما شامل همه مشاهدات بیش از 3 دقیقه است. به همین دلیل، من نسبت زمان صرف شده را به جای زمان واقعی مدلسازی کردهام. در صورتی که انجام تجزیه و تحلیل را آسانتر کند، زمان (ثانیهها) صرف شده در هر دسته و کل زمان مشاهده دارم. هر چند این باید به نحوی وزن شود. سه فعالیت (پرواز، غذاخوری، جستوجو) تعریف شد و نسبتها به 1 میرسد. من علاقهمندم به 1. تعیین اینکه آیا زمان صرف شده در پرواز بین دو گروه متفاوت است یا خیر و 2. اگر تفاوت وجود دارد، هر دو فعالیت دیگر کاهش مییابد. /افزایش یا فقط یک. پرواز یک فعالیت معمولی برای مشاهده در این گونه نیست و به همین دلیل صفرهای زیادی در داده ها وجود دارد. در اینجا توزیع نسبت زمان صرف شده برای پرواز برای دو جمعیت است من فکر می کنم که باید از خطی تعمیم یافته استفاده کنم مدل سازی با توزیع پواسون باد شده صفر، اما من نمی دانم چگونه می توانم آن را به درستی کار کنم. همچنین به نظر می رسد که داده ها بیش از حد پراکنده شده اند. من در R کار می کنم. هر گونه کمک یا توصیه برای خواندن مقالات قدردانی می شود. با تشکر **به روز رسانی: 2/6/14** من یک مدل دوجمله ای منفی با تورم صفر را اجرا کردم و حضور کشتی و زمان روز به عنوان پیش بینی کننده های مهم ظاهر شد. از آنجایی که دادههای من در قالب تناسبی بودند، باید دادهها را به اعداد صحیح تبدیل میکردم بدون اینکه وزنی که نسبتها به من میداد از دست بدهم. من تمام نسبت ها را در 600 ضرب کردم (حداکثر زمان مشاهده) و به هر مشاهده اجازه می دادم وزن یکسانی در هنگام استفاده از ثانیه پرواز داشته باشد. میانگین درصد زمان پرواز با حضور کشتی (0،1) و زمان روز (صبح، وسط روز، عصر) بهترین پیشبینی شد. زمانهای پیشبینیشده نزدیک به زمانهای مشاهدهشده مطابقت داشتند. تفسیر: به نظر می رسد که این پرندگان در زمان حضور کشتی ها حدود 3 برابر زمان بیشتری را صرف پرواز می کنند و در هر سه دوره زمانی غایب هستند. سپس میخواستم بفهمم که آیا زمانی که کشتیها حضور داشتند کدام فعالیت(ها) را کمتر انجام میدادند یا نه (من سه رویداد منحصر به فرد متقابل را اندازهگیری کردم: پرواز، جستجوی غذا، یا غواصی). زمان جستجوی غذا نیز به شدت تحت سلطه صفرها بود، بنابراین من آن را به همان روش مدل کردم. این بار هنگام مقایسه بهترین مدل برازش با پیش بینی کننده ها (این بار فقط حضور کشتی) برازش مدل تهی بهبود نیافت (0.10 = p). آیا این ممکن است به این دلیل باشد که توزیع واقعی دوجمله ای منفی با تورم صفر نیست یا می توانم این را به این صورت تفسیر کنم که تفاوت معنی داری در میانگین زمان صرف شده برای جستجوی غذا در زمان حضور و غیاب کشتی ها وجود ندارد؟ اینگونه است که داده های خام به نظر من می رسد. آزمون Mann-Whitney U نیز برای جستوجوی غذا معنیدار نیست (اگرچه نشاندهنده تفاوت است، p = 0.069). با فرض اینکه تفاوت واقعی در جستوجوی غذا وجود ندارد و تفاوت قابل توجهی در پرواز وجود ندارد، آیا میتوانم فرض کنم که پرندگان در این منطقه خاص (من از دامنه استنباط آگاه هستم) زمان اضافی پرواز را با کم کردن غذای کمتر به جای جستجوی غذای کمتر زمانی که کشتیها هستند جبران میکنند. موجود (داده های خام این ادعا را تایید می کند). با تشکر از همه ورودی تا کنون. | مقایسه دو گروه با صفرهای زیاد |
80888 | من سعی می کنم بفهمم چگونه می توان ضریب رگرسیون خطی چندگانه را بدست آورد. فرمول این است: $b = (X'X)^{-1}(X')Y$ من سعی می کنم $b$ را بدون بسته و با بسته `lm` در R محاسبه کنم. با انجام این کار، نتایج متفاوتی دریافت کردم. من می خواهم بدانم چرا. آیا من اشتباه کردم؟ یا بسته `lm` به دلیل رهگیری متفاوت محاسبه می شود؟ > y <- c(1،2،3،4،5) > x1 <- c(1،2،3،4،5) > x2 <- c(1،4،5،7،9) > Y <- as.matrix(y) > X <- as.matrix(cbind(x1,x2)) > beta =sol(t(X) %*% X) %*% (t(X) %*% Y) ; بتا [،1] x1 1.000000e+00 x2 -1.421085e-14 > مدل <- lm(y~x1+x2) ; مدل$ضرایب (Intercept) x1 x2 1.191616e-15 1.000000e+00 1.192934e-15  # به روز رسانی همانطور که الکس و دیگری به من گفتند ، این یک سوال از خطای دور زدن بود. بنابراین تصمیم گرفتم اطلاعات دیگری را از کتاب «آمار اساسی برای تجارت و اقتصاد» نوشته اندرسون و همه بگیرم. در این مورد، ضرایب هم در تابع 'lm' و هم در ماتریس خودم یکسان هستند. > y <- c(9.3، 4.8، 8.9، 6.5، 4.2، 6.2، 7.4، 6، 7.6، 6.1) > x0 <- c(1،1،1،1،1،1،1،1،1، 1) > x1 <- c(100,50,100,100,50,80,75,65,90,90) > x2 <- c(4,3,4,2,2,2,3,4,3,2) > Y <- به عنوان. ماتریس(y) > X <- as.matrix(cbind(x0,x1,x2)) > بتا = حل(t(X) %*% X) %*% (t(X) %*% Y);بتا [,1] x0 -0.8687015 x1 0.0611346 x2 0.9234254 > مدل <- lm(y~+x1+x2) ; مدل$ضرایب (Intercept) x1 x2 -0.8687015 0.0611346 0.9234254 | استفاده از معادلات نرمال برای محاسبه ضرایب در رگرسیون خطی چندگانه |
103922 | در بخش 7.10.2 عناصر یادگیری آماری، می گوید که میزان خطای واقعی (تست) هر طبقه بندی کننده 50٪ است. من در درک شهود پشت این مشکل دارم. اگر یک کلاس باینری (1 یا 0) دارید و طبقهبندیکننده شما یک قالب است که اگر 1-5 را بچرخانید، طبقهبندی 1 است و اگر 6 را بسازید، طبقهبندی 0 است. سپس فرض کنید که مقدار واقعی شما کلاس باینری 1 است. سپس من فکر می کنم که نرخ خطا در طول زمان به 1/6 همگرا می شود. گزیده ای از متن در زیر آمده است. > یک مشکل طبقه بندی با تعداد زیادی پیش بینی کننده را در نظر بگیرید که ممکن است برای مثال در کاربردهای ژنومی یا پروتئومی ایجاد شود. یک استراتژی معمولی > برای تجزیه و تحلیل ممکن است به شرح زیر باشد: 1. پیش بینی ها را غربال کنید: زیرمجموعه ای از پیش بینی کننده های > خوب را پیدا کنید که همبستگی نسبتاً قوی (تک متغیری) با برچسب های > کلاس نشان می دهند. 2. فقط با استفاده از این زیر مجموعه از پیش بینی ها، یک چند متغیره > طبقه بندی کننده. 3. از اعتبارسنجی متقاطع برای تخمین پارامترهای تنظیم ناشناخته > و تخمین خطای پیشبینی مدل نهایی استفاده کنید. آیا این > کاربرد درستی از اعتبارسنجی متقابل است؟ سناریویی با N = 50 > نمونه در دو کلاس با اندازه مساوی، و p = 5000 پیشبینیکننده کمی > (گاوسی استاندارد) که مستقل از برچسبهای کلاس هستند را در نظر بگیرید. میزان خطای واقعی > (تست) هر طبقه بندی کننده 50٪ است. ما دستور فوق را انجام دادیم، > در مرحله (1) 100 پیش بینی کننده که بیشترین همبستگی را با برچسب های کلاس > داشتند، و سپس با استفاده از یک طبقه بندی کننده همسایه 1، بر اساس فقط > این 100 پیش بینی، در مرحله (2) انتخاب کردیم. بیش از 50 شبیه سازی از این تنظیمات، > میانگین میزان خطای CV 3٪ بود. این بسیار کمتر از نرخ خطای واقعی > 50 درصد است. | چرا میزان خطای واقعی (تست) هر طبقه بندی کننده 50٪ است؟ |
45377 | سوال من این است که چگونه می توان اندازه های افکت را برای یک مدل مختلط خطی بدست آورد؟ من از مدل زیر در SPSS استفاده میکنم: انتقال مختلط با ترتیب چرخش آموزش از راه دور با پیش آزمون / معیارها = CIN(95) MXITER(100) MXSTEP(5) SCORING(1) SINGULAR(0.000000000001) HCONVERGE(0، LCONVERGE0) ، مطلق) PCONVERGE(0.000001، ABSOLUTE) / ثابت = پیش آزمون توالی چرخش آموزش از راه دور * آموزش | SSTYPE(3) /METHOD = REML / REPEATED = فاصله | SUBJECT(ResponseID) COVTYPE(CS). من آن را در R نیز انجام داده ام، جایی که به نظر می رسد: کتابخانه( nlme ) options(contrasts=c(contr.sum,contr.poly)) lm1 <- lme(انتقال ~ آموزش * فاصله + چرخش + sequence + pretest, random=~1|ResponseID, method=REML, data=wide.data ) مناسب <- anova.lme(lm1,type='marginal') print( fit ) dv، انتقال، پیش آزمون تا پس آزمون بهبود را برای سطح معینی از فاصله اندازه گیری می کند. فاصله یک متغیر طبقه بندی شده درون موضوعی با 2 یا 3 سطح بسته به مجموعه داده است. آموزش یک متغیر طبقه بندی شده بین موضوعی با 2 یا 4 سطح بسته به مجموعه داده است. چرخش و توالی متغیرهای باینری مقوله ای بین موضوعات هستند. پیش آزمون یک متغیر کمکی با مقادیر مختلف برای هر سطح از فاصله است. من قبلاً نتایج تجزیه و تحلیل را برای انتشار ارسال کردهام و نظر بازبینی را دریافت کردهام که نسبتهای شانس را درخواست میکند. در حالت ایدهآل، من میخواهم نسبتهای شانس را برای هر اثر در مدل دریافت کنم. اگر نتوانم نسبت شانس را بدست بیاورم، ممکن است معیارهای دیگری از اندازه اثر خوب باشد. مهمتر از همه، من باید آن را برای آموزش * تعامل فاصله و متغیر کمکی (پیش آزمون) دریافت کنم زیرا اینها تنها اثرات مهم هستند. در حالت ایدهآل، من آن را مستقیماً از SPSS دریافت میکنم، اما تا آنجا که من میبینم، SPSS نمیتواند این کار را انجام دهد. من هم نمیتوانستم بفهمم که چگونه این کار را در R انجام دهم. بهترین گزینه دوم این است که خروجی یکی از اینها را در نرم افزار دیگری قرار دهم که بتواند آن را برای من محاسبه کند. من چند نرم افزار رایگان پیدا کردم که می تواند eta-squared را برای ANOVA مختلط معمولی محاسبه کند اما برای مدل مختلط خطی نه. به نظر می رسد سوالات دیگر در مورد اندازه افکت ها به مدل های دیگر مربوط می شود، نه LMM. من یک سوال مشابه دیگر در مورد LMM دیدم که در حال حاضر بی پاسخ است. هر ایده ای؟ | اندازه های افکت از LMM |
70330 | داده های من جفت شده بودند و با حالت عادی مطابقت ندارند. بنابراین من از یک آزمون فریدمن استفاده کردم. با این حال، نتیجه به صورت مجذور کای فریدمن = 0، df = 1، p-value = 1 است. چگونه این اتفاق می افتد؟ داده های من به این صورت بود: I II 1 2 1 2 4 1 3 5 0 4 0 2 5 14 3 6 11 3 7 7 6 8 8 9 9 12 19 10 15 13 11 19 32 12 22 74 13 1 15 2 4 16 1 6 17 5 9 18 1 8 19 6 6 20 8 11 21 12 17 22 26 22 23 38 29 24 43 58 25 71 20 | فریدمن chi-squared = 0. به چه معناست؟ |
70331 | در یک خروجی خوشه سلسله مراتبی معمول از استفاده از SAS، اولین جدول داده شده همه مقادیر ویژه را فهرست می کند. از آنچه من درک می کنم، مقادیر ویژه از کوواریانس بین متغیرها به دست می آیند. چیزی که من نمی فهمم این است که چگونه این به من در درک رفتار خوشه بندی اساسی کمک می کند. کسی پاسخ ساده ای می داند که چرا دانستن مقادیر ویژه برای تحلیل خوشه ای مهم است؟ این خروجی است:  | من سعی کرده ام استفاده از مقادیر ویژه را در تجزیه و تحلیل خوشه ای مورد استفاده قرار دهم. چه چیزی در مورد رفتار خوشه بندی من به من می گوید؟ |
108570 | این یک سوال نسبتاً اساسی است، اما به نظر نمی رسد که پاسخی در شبکه پیدا کنم (شاید در جستجوی چیزهای اشتباه هستم). رگرسیون سعی در پیش بینی خروجی های پیوسته دارد. از آنجایی که یک شبکه عصبی قبل از خروجی از یک تابع بستن (معمولاً مقداری بین 0 و 1 می دهد) استفاده می کند. اگر خروجی فقط بین 0 و 1 باشد، چگونه یک شبکه عصبی می تواند یک تابع رگرسیون را یاد بگیرد؟ پیشاپیش ممنون | سوال اساسی: چگونه شبکه عصبی فید فوروارد رگرسیون را حل می کند؟ |
20217 | چندین تکنیک نمونهبرداری مجدد رایج وجود دارد که اغلب در عمل مورد استفاده قرار میگیرند، مانند بوت استرپ، تست جایگشت، جک نایف، و غیره. مقالات و کتابهای متعددی در مورد این تکنیکها بحث میکنند، برای مثال Philip I Good (2010) Permutation, Parametric, and Bootstrap Tests. فرضیه ها سوال من این است که کدام تکنیک نمونه برداری مجدد محبوبیت بیشتری پیدا کرده است و پیاده سازی آن آسان تر است؟ تست های بوت استرپینگ یا جایگشت؟ با تشکر فراوان | تست های بوت استرپینگ در مقابل جایگشت |
108571 | من از یک شبکه عصبی پیشخور ساده در متلب برای پیشبینی خروجی برای ورودیهای محدوده [1e-5، 0.3] استفاده میکنم. (اینها فعال سازی های یک شبکه دیگر هستند.) من از یک تابع سیگموئید برای لایه پنهان و یک تابع خطی برای لایه خروجی استفاده می کنم. واحدهای ورودی 6، واحدهای پنهان 4 و واحد خروجی از یک نورون تشکیل شده است. محدوده خروجی ها بین [58، 1696] است. من خروجی ها را هم نرمال کردم و تابع mapminmax را خاموش کردم تا از عادی سازی بیش از حد جلوگیری کنم! به طرز عجیبی، خروجی های منفی ایجاد می کند. ممکنه به خاطر محدوده ورودی باشه؟ ممنون میشم اگر کسی بتونه به من بگه اینجا چه خبره. هر فکری؟ ابتدا باید یک به روز رسانی کنم: تعداد نورون های پنهان را به 10 تغییر دادم. حالا یک بار خروجی های منفی به من می دهد و بار دیگر مثبت. من نمی توانم پاسخی را پیدا کنم مگر اینکه آن را به مقدار اولیه اولیه تصادفی وزن ها مرتبط کنم. این گزیده کد من است: clear all; ویژگی های بارگذاری؛ بارگذاری داده های برچسب. net=feedforwardnet(10); IPF={'fixunknowns','remconstantrows'} ; OPF={'remconstantrows'}; net.trainParam.lr=0.01; net.trainParam.max_fail=10; NN = قطار (شبکه، ویژگی ها، y)؛ %y مقدار نرمال داده label است بنابراین در محدوده[0,1] wb = getwb(NN); net=NN; %% شبکه را آزمایش کنید (نه با داده های تست جدید، بلکه با داده های آموزشی، بنابراین ما انتظار نتایج خوبی را داریم) [pred_learnedFeatures]=net(features); % scaled_out=pred_learnedFeatures*(max(labeldata)-min(labeldata))+min(labeldata); fprintf('MSE با مقیاسبندی %f%\n',sum(( pred_learnedFeatures- y).^2)/size(labeldata,2)); fprintf('\n MSE w مقیاس بندی %f%\n',sum(( scaled_out-labeldata).^2)/size(labeldata,2)); | شبکه های عصبی خروجی منفی ایجاد می کنند |
44023 | چرا درست است که همبستگی بین دو ماتریس فاصله را با محاسبه ضریب همبستگی پیرسون بین همه جفتهای فاصله اندازهگیری نکنیم، بلکه به جای آن از آزمون Mantel استفاده کنیم؟ ویرایش: ویکیپدیا میگوید که چون «فاصلهها مستقل از یکدیگر نیستند – از آنجایی که تغییر «موقعیت» یک شی 1-n از این فاصلهها را تغییر میدهد (فاصله آن شی تا هر یک از موارد دیگر) – ما نمیتوانیم رابطه بین دو ماتریس به سادگی با ارزیابی ضریب همبستگی بین دو مجموعه فاصله و آزمون معنیداری آماری آن، به این مشکل میپردازد. این استدلال برای من روشن نیست. چرا وابستگی بین فاصله ها مشکل است؟ | آزمون منتل در مقابل ضریب همبستگی پیرسون |
70333 | من 3 سری زمانی X، Y، Z دارم اگر ضریب رگرسیون (شیب) X و Y **a** باشد، Y و Z **b** باشد، پس در مورد ضریب رگرسیون X و چه می توانم بگویم. ز؟ | استنباط ضریب رگرسیون دو متغیر از طریق یک سوم |
45373 | من می خواهم از مجموعه ای از داده های کیفیت آب روزانه شامل 3 پارامتر در یک مدل Copula استفاده کنم. کسی به من گفت که این داده ها شرط یک متغیر تصادفی برای استفاده در کوپول ندارند، و من باید روی آن کار کنم (حدس من این است که شامل کاهش روند داده ها می شود). آیا کسی می تواند به من در یافتن روش هایی برای آماده سازی داده ها برای استفاده در روش کوپولا کمک کند؟ اگر بتوانید من را به مقالات مجلات یا کتاب های خوب معرفی کنید، ممنون می شوم. | چگونه می توانم داده هایی را آماده کنم که دارای روندی برای استفاده در مدل Copula هستند؟ |
110618 | من یک رگرسیون با خطاهای ARMA دارم که با «arima()» مطابقت دارم. من می دانم که مدل ARMA بر روی این باقیمانده ها از رگرسیون مناسب است. مشکل من این است که وقتی از «include.mean=TRUE» استفاده میکنم، خروجی هیچ تخمینی از میانگین (از باقیماندهها، که بله، میدانم همیشه صفر است) را برنمیگرداند. مستندات میگوید که اگر این گزینه روی «TRUE» تنظیم شود، مدل ARMA میانگینی را در بر خواهد داشت. من یک رهگیری گزارش شده می بینم که رهگیری از رگرسیون y روی x است، نه رهگیری از مدل ARMA روی باقیمانده ها. چگونه می توانم آرگومان «include.mean» کار کند؟ آیا راه دیگری برای دریافت رهگیری از مدل ARMA روی باقیمانده ها وجود دارد؟ آیا R فقط این را سانسور می کند زیرا باقیمانده ها همیشه میانگین صفر هستند (اگر فاصله در رگرسیون باشد)؟ MWE در زیر است، پیشاپیش متشکرم. `set.seed(123) y = as.xts(ts(rnorm(20)+3, start=c(1980,1), freq=12)) x = as.xts(ts(rnorm(20)+5 , start=c(1980,1), freq=12)` `fit1 = arima(y, xreg=as.data.frame(x) order=c(1,0,0), include.mean=TRUE) fit1 # وقفه نشان داده شده از رگرسیون است، 3-(-.0935)*(5)، نه برای مدل ARMA باقی مانده` | R، arima() با include.mean=TRUE، هنوز میانگینی گزارش نشده است |
87050 | من میخواهم مدلی را بدون عبارت همبستگی بین اثرات تصادفی با «lme» برازش دهم. در `lmer` این نسبتاً ساده است... # lmer بدون عبارت همبستگی m1 <- lmer(فاصله ~ (1|موضوع) + سن + (0+سن|موضوع) + جنسیت، داده = ارتودنت) VarCorr(m1) # گروه نام Std.Dev. # Subject (Intercept) 1.474105 # Subject.1 سن 0.099979 # Residual 1.402591 با `lme` فکر می کنم بتوانم عبارت همبستگی را با استفاده از مشخصات زیر حذف کنم... # lme بدون عبارت همبستگی؟ m2 <- lme(فاصله ~ سن + جنسیت، داده = ارتودنت، تصادفی = لیست (~ 1 | موضوع، ~-1+ سن | موضوع)) VarCorr(m2) # واریانس StdDev # موضوع = pdLogChol(1) # (برق ) 2.172946296 1.47409169 # موضوع = pdLogChol(-1 + سن) # سن 0.009996006 0.09998003 # Residual 1.967260819 1.40259075 من کاملاً متقاعد نشدهام که اینها همان مدلها هستند، تا حدی به این دلیل که نمیتوانم هیچ منبعی را پیدا کنم که این جزئیات را به طور خاص از نحوه مشخص کردن و مشخص کردن آن مشخص میکند. چاپ کمی مبهم است به من... m2 # مدل خطی با جلوههای ترکیبی متناسب با REML # داده: ارتودنت # Log-restricted-lihood: -218.3227 # ثابت: فاصله ~ سن + جنسیت # (قطع) سن SexFemale # 17.5806928 0.6601852 #Rame. اثرات: #فرمول: ~1 | موضوع # (Intercept) # StdDev: 1.474092 # # فرمول: ~-1 + سن | موضوع %در% موضوع # سن باقیمانده # StdDev: 0.09998003 1.402591 # # تعداد مشاهدات: 108 # تعداد گروهها: # موضوع موضوع.1 %در% موضوع # 27 27 به طور خاص، «موضوع %در% موضوع» به چه چیزی اشاره میکند به و چرا باقیمانده به عنوان بخشی از جمله اثر تصادفی دوم در نظر گرفته می شود؟ | عبارت حذف برای همبستگی بین اثرات تصادفی در lme و تفسیر خروجی خلاصه |
70332 | من یک کار حاشیه نویسی دارم که باید آن را برای دقت، تنظیم دقیق دسته بندی و قابلیت اطمینان آنالیز کنم، حاشیه نویس های زیادی وجود دارند که چندین دسته بندی با ارزش را به آیتم ها اختصاص می دهند. و من برای هر جفت حاشیه نویس ماتریس های سردرگمی مانند زیر آورده ام: +-------------------------------- --------+ | |5| . 1 . . . . 2 . . | | 7 |.| . . . . . 5 . 1 | | 34 . |.| . . . 1 4 . 1 | | 7 1 . |.| . . 1 46 . . | | . . . . |.| 1 . . . . | | 5 . . . . |.| . 1 . . | | 5 . . . . . |.| . . . | | 5 . . . . . 1 |2| . 5 | | 198 . 1 . . 2 1 11 |.| 1 | | 1 . . . . . 2 . . |.|| ------------+-----------------------------+ تبدیل آن به یک فاصله بی جهت ماتریس، من موارد بالا را جابجا کردم و میانگین آن را به دست آوردم تا ماتریس متقارن زیر را که باید به عنوان ماتریس فاصله نشان دهم، بدست آوریم: | |5| 3 17 3 . 2 2 3 99 0 | | 3 |.| . 0 . . . 2 . 0 | | 17 . |.| . . . 0 2 0 0 | | 3 0 . |.| . . 0 23 . . | | . . . . |.| 0 . . . . | | 2 . . . 0 |.| . 0 1 . | | 2 . 0 0 . . |.| 0 0 1 | | 3 2 2 23 . 0 0 |2| 5 2 | | 99 . 0 . . 1 0 5 |.| 0 | | 0 0 0 . . . 1 2 0 |.|| من حدود 190 ماتریس از این دست از چندین جفت حاشیه نویس دارم و هیچ چیز مانند مقوله های مرجع و آزمون وجود ندارد زیرا تخصیص دسته حاشیه نویس باید برای تنظیم دقیق و ادغام دسته ها تجزیه و تحلیل شود. بنابراین آیا رویکرد فوق برای شروع درست است و چگونه میتوان چندین ماتریس (ابعاد) را به یک تجسم واحد تبدیل کرد که به تجزیه و تحلیل دستهها و قابلیت اطمینان بین حاشیهنویس جدا از PCA و کاپا معمولی و آمارهای مرتبط اجازه میدهد؟ همچنین آیا چنین ماتریس فاصله ای نشانه درستی از اجزای واقعی در PCA برای تجزیه و تحلیل خوشه ای برای تصمیم گیری های بیشتر ارائه می دهد؟ | تبدیل ماتریس سردرگمی به ماتریس فاصله |
14375 | من به دنبال یک بسته R برای محاسبه اندازه نمونه برای تفاوت دو نسبت از طریق اینتروال اطمینان (CI) هستم. توجه داشته باشید که روشهای مختلفی برای محاسبه CI برای تفاوت نسبتها وجود دارد، و برای برخی از این روشها میتوان اندازه نمونه را با مداد و کاغذ محاسبه کرد، اما من نمیدانستم که آیا بستهای وجود دارد که چندین مورد از این روشها را شامل شود. با تشکر | اندازه نمونه از طریق فواصل اطمینان |
18658 | من میخواهم با استفاده از دادههای دموگرافیک، بیومارکر پلاسما، ژنتیک و بالینی، نتیجه یک درمان خاص را پیشبینی کنم. آیا مدل شبکه عصبی بهترین راه برای انجام این کار است؟ این نسبت به ساخت مدل رگرسیون لجستیک سنتی چه مزایایی دارد؟ بسته به همخطی بودن، تنها با 120 مورد و تا 40 متغیر کمکی چقدر محدود هستم؟ چگونه اینها را جدا کنم؟ من معمولاً تمایل به تحلیل عاملی دارم، اما آیا شبکه عصبی متغیرهای خطی را به طور معقولی ترکیب می کند؟ هر گونه ایده در مورد ترکیب داده های چندوجهی مانند آن مفید خواهد بود، یا نقطه شروعی برای خواندن - در حال حاضر MASS ریپلی را دارد. | مدل شبکه عصبی برای پیش بینی نتیجه درمان |
5214 | من داده های سانسور شده را در جایی گذاشته ام که توزیع آن مشخص است (حداقل در تئوری به اندازه کافی منطقی است). من می خواهم چند آمار خلاصه ساده را محاسبه کنم: میانگین هندسی و انحراف معیار در این مورد. من قبلاً از پکیج R's `NADA` برای این کار استفاده کرده ام اما دیگر در CRAN نیست. آیا جایگزینی در دسترس است؟ ویرایش: من با Lopaka Lee، نگهدارنده بسته تماس گرفتم و او میگوید که در حال کار بر روی بهروزرسانی بسته برای انتشار آینده R است، بنابراین امیدوارم غیبت بسته موقتی باشد. | چگونه آمار ساده را برای داده های سانسور شده چپ در R محاسبه می کنید؟ |
18077 | من یک اسپلاین مبتنی بر طبیعی را روی مجموعه دادهای به این شکل نصب میکنم: splineModel=lm(dist~bs(speed, df=3)، data=cars) با استفاده از تابع 'bs' بسته spline. میخواهم بدانم آیا میتوان معادلات اسپلاین واقعی را که در هر گره تعبیه شده است چاپ کرد. من می خواهم ضرایب همه چند جمله ای های برازش تکه ای را داشته باشم. | گرفتن ضرایب اسپلاین در R |
95125 | در زیر لیستی از پارامترهای رگرسیون لجستیک ماهوت آمده است. 1. «گذر» به چه معناست؟ در جزئیات لطفا > --passes تعداد دفعاتی که از داده های ورودی عبور می کند 2. ویژگی ها به چه معناست؟ آیا تعداد متغیرهایی است که من به عنوان پیش بینی می کنم؟ اما من افرادی را می بینم که در زمان هایی کم و بیش برای تعداد متغیرها وارد می شوند. 3. آیا راهی برای انتخاب متغیرهایی با قدرت پیش بینی خوب در یادگیری ماشین چیزی مانند ضریب جینی وجود دارد؟ 4. چگونه با چند خطی بودن در یادگیری ماشین برخورد کنیم؟ آیا از طریق منظم سازی است؟ در آمار، متغیر را با استفاده از عامل تورم واریانس حذف می کنیم. آیا در یادگیری ماشین محاسبه می شود؟ دستور: mahout trainlogistic Flag هر آرگومان برای پرچمگذاری توضیحات - کمک به چاپ این لیست - ساکت بودن بیشتر آرام - ورودی ورودی از کجا دریافت دادههای آموزشی - خروجی خروجی از کجا دریافت دادههای آموزشی - هدف هدف نام متغیر هدف -- دسته بندی ها تعداد مقوله های هدفی که باید در نظر گرفته شوند -- پیش بینی کننده ها p [p ...] لیستی از متغیرهای پیش بینی -- انواع t [t ...] لیستی از انواع متغیرهای پیش بینی کننده (عددی، کلمه یا متن) -- تعداد دفعات عبور از داده های ورودی را پاس می دهد -- لامبدا لامبدا مقدار واپاشی ضریب مورد استفاده -- نرخ یادگیری امتیاز دادن به نرخ یادگیری -- بدون تعصب عبارت بایاس را شامل نمی شود -- ویژگی num تعداد ویژگی های هش شده داخلی برای استفاده را مشخص می کند | سوال در مورد پارامترها و انتخاب متغیر در الگوریتم ماهوت برای رگرسیون لجستیک |
18651 | من این دادههای توزیع درآمد را برای گروههای مختلف دارم: https://docs.google.com/spreadsheet/ccc?key=0Akwg3n_e05cCdEdtT0VZYU5keW5DVkNoNmpBWmdzeUE همانطور که میبینید، من فواصل/بینهایی با عرضهای متفاوت دارم. من همچنین یک بازه پایان باز دارم و میانگین درآمد در آن بازه باز بین گروه ها بسیار متفاوت است. **برای اهداف آموزشی، میخواهم بتوانم محاسبه کنم که چند نفر و/یا درصد در یک بازه معین، با توجه به عرض سطل مساوی. ** مثال: در یک محور x از 0-2000 با یک bin عرض 10، من می خواهم بتوانم بگویم چند نفر در گروه 590-600 هستند. 1) آیا این کار شدنی است؟ 2) آیا باید توزیعی را در هیستوگرام جا داد یا چگونه این کار را انجام دهم؟ 2b) این هیستوگرام / توزیع را بر چه مبنایی (میانگین، میانه و غیره) قرار می دهید؟ (همانطور که ذکر شد، میانگین در بازه باز بین گروهها بسیار متفاوت است، چیزی که من میخواهم آن را در نظر بگیرم = به صورت گرافیکی واقعی نشان داده شود.) 3) لطفاً میتوانید این را در عملیات ساده ریاضی بر اساس دادههای داده شده توضیح دهید؟ | برازش هیستوگرام/توزیع برای این مجموعه داده با فواصل نابرابر و باز؟ |
17936 | من فرمول احتمال برخی از پارامترها را با توجه به داده ها می دانم. نتیجه باید به حداکثر برسد و من می توانم با استفاده از گزارش از ضرب جلوگیری کنم. چگونه می توانم این مسئله را به یک مشکل کمینه سازی تبدیل کنم (یعنی فرمول داده شده را بازنویسی کنم). من فرض می کنم که به آسانی گرفتن گزارش منفی و اضافه کردن چیزها نیست - یا اینطور است؟ با تشکر مسیحی | سوال برآورد حداکثر احتمال - حداقل احتمال ورود |
44028 | من در این فکر بودم که هنگام آزمایش اهمیت تعامل بین دو متغیر پیوسته از کدام مقدار p استفاده کنم. در اینجا مدل من با تعامل است: Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 110.2584 23.9969 4.595 0.000417 *** lg_hag 36.0716 18.2778 1.974 0.068510 . raceblack -12.9419 1.8198 -7.112 5.24e-06 *** racemexican -9.0254 2.3207 -3.889 0.001636 ** racemulti/دیگر -9.8012 2.0640 1 -4.04 جنسیس *** 3.9612 1.3405 2.955 0.010442 * age_yr -1.1009 0.1691 -6.511 1.38e-05 *** as.factor(educa)2 6.7660 2.2988 2.9106 2.9106) 14.1302 2.2394 6.310 1.92e-05 *** as.factor(educa)4 15.4776 1.8657 8.296 8.95e-07 *** as.factor(educa)5 19.8650 19.8650 49.8650 2.07-2.05 lg_hag:age_yr -0.5236 0.2555 -2.049 0.07862. بنابراین در این مدل، مقدار p برای برهمکنش 0.07862 است، به معنی محدود میشود، با این حال، وقتی مدل را بدون تعامل اجرا میکنم، و سپس یک آنووا (با تست مربع کای، زیرا مدلها GLM هستند) بین دو مدل انجام میدهم. (با و بدون تعامل)، من یک مقدار p 0.04 دریافت کردم (از نظر من که قرار است مقدار p واقعی تعامل باشد) Working (Rao-Scott) LRT برای lg_hag:age_yr Working 2logLR = 4.199194 p= 0.041893 لطفاً اگر کسی می تواند به من راهنمایی کند که تفاوت بین دو مقدار p چیست و از کدام یک برای تأیید اهمیت تعامل استفاده کنم. . پیشاپیش از شما متشکرم | تفاوت بین مقادیر p تعامل |
45952 | بنابراین مانند حالت های عنوان، آیا دوره های زمانی در داده های سری زمانی باید فواصل مساوی داشته باشند؟ به عنوان مثال، اگر بخواهیم اطلاعاتی در مورد سطح تحصیلات ثبت شده به تفکیک سال داشته باشیم، آیا به مشاهداتی برای سال های 1996، 1997، 1998،...، 2002 نیاز داریم یا می توانیم داده هایی برای سال های 1996، 2000 و 2004 داشته باشیم؟ به نظر من باید فواصل مساوی داشته باشد، اما فقط میخواهم مطمئن شوم که فاصله زمانی مثلاً 1997، 1998، 2000، 2003 قابل قبول نیست. | هنگام برخورد با داده های سری زمانی، دوره های زمانی باید فواصل مساوی باشند یا سالانه؟ |
71069 | برای کلاس آمار، باید نتیجه ای را ثابت کنم که من را به سؤال زیر هدایت می کند. اگر بتوانم نشان دهم که درست است، اثبات من تمام شده است. بنابراین سوال اینجاست. فرض کنید $U: \Omega \rightarrow [0,1]$ یک متغیر تصادفی است که به طور یکنواخت در $[0, 1]$ و $X توزیع شده است: \Omega \rightarrow \mathbb{R}$ به طور پیوسته به عنوان مقداری توزیع $ توزیع میشود. F_X(·)$ (که $\Omega$ فضای نمونه است). آیا درست است که > $F_U(U(\bar{\omega})) = F_X(z_{\bar{\omega}})$ برای همه $\bar{\omega} \in > \Omega \inplies z_{ \bar{\omega}}=X(\bar{\omega})$ یا معادل آن، > $P \{\omega \in \Omega~|~ U(\omega) \leq U(\bar{\omega})\} = P \{\omega \in > \Omega~|~ X(\omega) \leq z_{\bar{\omega}}\}$ برای همه $\bar{ \omega} \in > \Omega \به معنای z_{\bar{\omega}}=X(\bar{\omega})$ ? من شک دارم که درست باشد، اما نتوانستم آن را ثابت یا رد کنم. | آیا این درست است که $F_U(U(\bar\omega)) = F_X(z)$ دلالت بر $z=X(\bar\omega)$ دارد؟ |
18650 | سلب مسئولیت: من یک زیست شناس هستم، پس لطفاً در صورت وجود فرضیات نابخردانه در اصلاح من تردید نکنید. من به توزیع یک 6mer منحصر به فرد در یک سری 2100mer نگاه می کنم (من 415 2100mer مستقل دارم). به طور دقیق تر، من به دنبال این هستم که چند بار آن 6mer در هر 2100mer وجود دارد. همانطور که من با توالی DNA سر و کار دارم (A، T، G یا C)، انتظار می رود هر 6mer در DNA تصادفی هر 4096 جفت باز یا 0.51 بار در هر 2100mer یافت شود. به وضوح توزیع غیر عادی (qqplot). بنابراین، من معتقدم که به توزیع قانون قدرت یا آنچه که باید قانون قدرت باشد نگاه می کنم. اکنون ، من می خواهم آن توزیع مشاهده شده را با یک شبیه سازی شده مقایسه کنم و ببینم که آیا آنها یکسان هستند یا خیر. در اینجا تعداد خام آمده است: RawObserved = c(87، 112، 111، 60، 20، 18، 7) RawExpected = c(44.6، 28.7، 19.0، 7.7، 2.0، 1.5، 0.5). NormObserved = c(0.21، 0.27، 0.27، 0.14، 0.05، 0.04، 0.02) NormExpected = c(0.11، 0.07، 0.05، 0.02، 0.00، 0.00، 0.00). بازگشت a نتیجه غیر قابل توجه برای من این توزیع ها بسیار متفاوت به نظر می رسند ، از نظر کیفی و من می خواهم از نظر آماری آن را آزمایش کنم. امیدوارم توضیحات من کافی و منطقی باشد. با تشکر | چگونه دو توزیع قانون توان را با هم مقایسه کنیم؟ |
18657 | فرض کنید من در حال مدل سازی یک نتیجه باینری $y$ با متغیرهای کمکی $n$ هستم. اگر این مدل کمترین AIC را در بین همه مدل های دیگر داشته باشد ... آیا این مورد استفاده قرار می گیرد؟ همچنین در برخورد با متغیرهای دسته بندی باید تمام سطوح را حذف کرد یا هیچ کدام را؟ برای مثال فرض کنید یک متغیر طبقهبندی $z$ دارای سطوح زیر است: $z_1، z_2$ و $z_3$. اگر $z_1$ سطح مرجع باشد، من $z_2$ و $z_3$ را در مدل قرار میدهم. اگر نمیخواهم متغیر $z$ را در مدل وارد کنم...آیا هم $z_2$ و هم $z_3$ را حذف میکنم؟ یا می توانم یکی از آنها را اضافه کنم؟ | اگر مدل کامل کوچکترین AIC را داشته باشد چه اتفاقی می افتد؟ |
89654 | من بارها یک متغیر پیوسته را اندازهگیری کردهام و به هر اندازهگیری یک محدوده صدک جمعیتی که در آن قرار میگیرد اختصاص داده شده است (محدودههای صدک برای جمعیت عمومی در مطالعه دیگری برآورد شد). بارپلات نمونه سهم هر گروه در نمونه من را در زمان های مختلف به تصویر می کشد. میخواهم آزمایش کنم که آیا درصد، آن محدوده خاص در یک نقطه زمانی خاص (مثلاً سهم صدک 90-100 در نقطه زمانی ششم) بین گروه من و جمعیت عمومی متفاوت است یا خیر. ساده ترین راه انجام یک آزمون t تک نمونه ای است (مثلاً در برابر میانگین 0.1 در مورد صدک 90 تا 100، زیرا 10 درصد مقادیر بالاتر از صدک 90 در جامعه قرار می گیرند). اما آیا اگر نمونه من کوچک شود، جایگزینی وجود دارد؟ انجام آزمایش دقیق فیشر ایده آل است، اما من هیچ گروه مرجعی ندارم - فقط می توانم فرض کنم که در جمعیت عمومی 10/1 نمونه در آن محدوده صدک قرار می گیرند.  | (بسیار ابتدایی) تست تک نمونه ای برای داده های باینری |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.