_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
108343
من سعی می کنم پس از استفاده از سایر الگوریتم های یادگیری ماشین از یک شبکه عصبی استفاده کنم. من از بسته RSNNS استفاده می کنم (من مایل به استفاده / ارزیابی بسته های دیگر هستم) که بخشی از R است. من می خواهم دقتی حداقل 66% داشته باشم. من داده ها را در مجموعه های آموزشی و آزمایشی تقسیم کردم، با 4/5 از داده ها در آموزش. سپس مدل‌هایی را با استفاده از طرح‌بندی‌های شبکه و نرخ‌های یادگیری مختلف، هر بار با استفاده از مجموعه آموزشی مشابه، آموزش دادم. من پارامترهایی را انتخاب کردم که دقت بیش از 66٪ و بزرگترین اندازه گیری F را در مجموعه آزمایشی نشان می دادند. پارامترهایی که من انتخاب کردم دقت 70 درصدی را در مجموعه آزمایشی ارائه می دهد. سپس داده‌ها را گرفتم و با استفاده از طرح‌بندی شبکه و نرخ یادگیری یکسان اعتبارسنجی متقاطع 10 برابری انجام دادم. با این اعتبار سنجی متقاطع k-fold، دقتی به دست می‌آورم که کمی بالاتر از 50 درصد است (که شبیه سایر الگوریتم‌های یادگیری است که استفاده کردم). سوال من این است که آیا دقت 70 درصد با مجموعه تست دقیق است؟ آیا اعتبار k-fold من احتمالاً بهینه محلی را پیدا می کند و دقت دقیقی ارائه نمی دهد؟ **ویرایش** از آنجایی که به نظر می رسد این نکته مهمی است که من کنار گذاشته ام، 2 کلاس وجود دارد، مثبت و منفی. 18% مثبت و 81% منفی است. حدود 550 مورد وجود دارد. به دنبال پیشنهاد متئو در نظرات، من دوباره شبکه را چندین بار اجرا کردم. من فقط از بهترین پارامترهای انتخاب شده استفاده کردم، زیرا اجرای شبکه عصبی کمی زمان می برد. من دوباره به ست های آموزشی (80%) و تست (20%) تقسیم شدم، به جز اینکه 10 تقسیم تصادفی با استفاده از نمونه انجام دادم. از آنجایی که تصادفی است، برخی از داده ها بیشتر در مجموعه های آموزشی ظاهر می شوند تا مجموعه های تست. با استفاده از این، دقت از 30٪ تا 70٪ متغیر بود. وقتی میانگین 10 اجرا را با هم محاسبه کردم، دقت آن کمی بالاتر از 50 درصد بود. من تمایل دارم بگویم این بهترین دقتی است که می توانم با استفاده از این مجموعه داده به دست بیاورم، زیرا الگوریتم های یادگیری ماشین قبلی دقت مشابهی را ارائه می دهند (داده ها نشان داده نشده اند).
اعتبار سنجی آزمون در مقابل اعتبار سنجی متقاطع k-fold
95603
اجازه دهید $X$ با پارامترهای $\mu$ و $\sigma$ log نرمال باشد (به این ترتیب که $\log(X)$ گاوسی با میانگین $\mu$ و واریانس $\sigma^2$ است). توزیع $1 / (X + 1)$ چیست؟ من نمی دانم که آیا این یک توزیع پارامتری ساده است. اگر +1 با صفر جایگزین شود، مشکل بسیار آسان می شود.
اگر $X$ بطور منطقی توزیع شده باشد، توزیع $1 / (1 + X)$ چگونه است؟
87872
وقتی یک رگرسیون (لجستیک) در R انجام می‌دهم، چیزی شبیه به این را اجرا می‌کنم: mydata <- read.csv(data.csv) mylogit <- glm(a ~ c+d, data = mydata, family=binomial ) summary(mylogit) تا چند ماه پیش، خروجی ضرایب ممکن است به این صورت باشد: فراخوانی: glm(فرمول = a ~ c + d، خانواده = دوجمله ای، داده = mydata) ... Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (برق) -1.6476 0.1898 -8.680 < 2e-16 *** c 2.4558 0.3414 7.194 6.29e-13 *** d 2.3783 0.4426-0.4466 0.*** 5. Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 با امتحان کردن آن امروز (با نسخه جدیدتر R)، خروجی به شکل زیر است: تماس: glm(فرمول = a ~ c + d، خانواده = دو جمله ای، داده = mydata) ... ضرایب: (1 به دلیل تکینگی ها تعریف نشده است) برآورد Std. خطای z مقدار Pr(>|z|) (فاصله) -1.6709 0.1924 -8.683 < 2e-16 *** c1 2.4961 0.3476 7.181 6.94e-13 *** cc 18.2370 970.16.970.601 2.4524 0.4630 5.296 1.18e-07 *** dd NA NA NA NA --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 فیلدهای c1، cc، و غیره به چه معنا هستند؟ به نظر نمی رسد که هیچ سندی برای این موضوع پیدا کنم، اما شاید در مکان های اشتباهی جستجو می کنم؟
فیلدهای خروجی جدید glm.summary (در R)؟
73576
من یک نمونه با n=170 و دو متغیر باینری (A,B) دارم که می تواند به عنوان مقدار 1 یا 0 باشد، که در آن 1 به عنوان موفقیت و 0 به عنوان یک شکست محسوب می شود. چیزی که من می خواهم بدانم این است که آیا میانگین این دو متغیر برابر هستند یا خیر. برای فهمیدن این موضوع، یک متغیر جدید ایجاد می کنم که تفاوت بین این دو متغیر را به نام C می گیرد، بنابراین C = B-A. سپس p-value را برای این فرضیه محاسبه می‌کنم که C به طور معمول با آزمون Shapiro-Wilk توزیع می‌شود و مقدار p برابر 0.96 را پیدا می‌کنم، بنابراین ترجیح می‌دهم این فرضیه را رد نکنم. جدا از اینکه تفاوت به طور معمول توزیع می شود، من نگران سایر فرضیات مورد نیاز برای آزمون t زوجی نیستم. **سوال:** _آیا می توانم در این شرایط از آزمون t زوجی استفاده کنم یا اینکه استفاده از تست Shapiro-Wilk برای داده های باینری برای بررسی نرمال بودن اشتباه است و آیا به جای آن از تست رتبه علامت Wilcoxon استفاده کنم؟ خیلی ترجیح می‌دهم از آزمون t استفاده کنم، زیرا من معتقدم که قدرت بالاتری نسبت به آزمون رتبه‌بندی علامت ویلکاکسون دارد، اما اگر آزمون استفاده شده اشتباه باشد، این قدرت بالاتر تقریباً مهم نیست. به سلامتی، مارتین
آزمون t زوجی برای داده های باینری
87870
برای مدل خطی $y=x*\beta+e$، می‌توانیم یک تفسیر هندسی خوب از مدل تخمینی از طریق OLS داشته باشیم: $\hat{y}=x*\hat{\beta}+\hat{e}$. $\hat{y}$ طرح y بر فضایی است که با x پوشانده شده است و باقیمانده $\hat{e}$ عمود بر این فضای پوشیده شده توسط x است. حال سوال من این است: آیا تفسیر هندسی از مدل خطی تعمیم یافته (رگرسیون لجستیک، Poission، بقا) وجود دارد؟ من بسیار کنجکاو هستم که چگونه مدل رگرسیون لجستیک دودویی برآورد شده $logit(\hat{p})=x*\hat{\beta}$ را از نظر هندسی به روشی مشابه مدل خطی تفسیر کنم. حتی اصطلاح خطا هم ندارد. من یک بحث در مورد تفسیر هندسی برای مدل های خطی تعمیم یافته پیدا کردم. http://statweb.stanford.edu/~lpekelis/talks/13_obs_studies.html#(7). متأسفانه، ارقام در دسترس نیستند و تصویر کردن آن بسیار سخت است. هر گونه کمک، ارجاع، و پیشنهاد بسیار قدردانی خواهد شد!!!
تفسیر هندسی مدل خطی تعمیم یافته
77058
شایستگی نسبی GEE با همبستگی قابل مبادله یا GEE با استقلال و برآورد ساندویچ مورد بحث قرار گرفته است، اما من نتوانستم پستی پیدا کنم که به طور خاص به سؤالم بپردازد. من داده های طولی را با استفاده از GEE با ساختار همبستگی AR-1 و برآوردهای ساندویچی/قوی خطاهای استاندارد تجزیه و تحلیل کرده ام. در مورد داده های طولی، تخمین های ساندویچ برای محافظت در برابر عدم مشخصات ساختار همبستگی استفاده می شود. AR-1 بر اساس تابع همبستگی خودکار داده ها انتخاب شد زیرا تخمین کارآمدتری نسبت به فرض استقلال ایجاد می کند. با این حال، اختلالات تک متغیره از نتایج به طور مثبت منحرف شده و باقی مانده از مدل نشان برخی از ناهمسانی. برای GEE با داده های طولی (یا به طور کلی، خوشه ای)، آیا تخمین ساندویچ علاوه بر کاربرد مورد نظر برای محافظت در برابر عدم مشخصه ساختار همبستگی، از ناهمسانی (آنچه برای انجام آن ساخته شده است) محافظت می کند؟ آیا کاهش ناهمسانی شهر با دگرگونی log نتیجه کارایی بیشتری برای تخمین یا مزایای دیگری ارائه می دهد؟ من به خصوص ارجاع به مقاله ای در مجله ای که به این موضوع می پردازد قدردانی می کنم.
آیا برآوردگر ساندویچ در GEE در برابر تعیین نادرست همبستگی و ناهمسانی محافظت می کند؟
72226
من چندین منحنی غیرخطی از طیف انتقال یک نیمه هادی دارم. من به هر یک از منحنی ها تناسب پیدا کردم. برای بدست آوردن مجذور چی برای هر کدام، معلمم فرمول $$\chi^2=\sum_{i=1}^{N}\frac{(T_{exp}-T_{fit})^2}{N را به من داد \sigma^2_{exp}} $$ where $$\sigma_{exp}=\sum_{i=1}^{N}\frac{\sigma_{i}}{N}.$$ با این حال، خواندن چند کتاب آماری من این فرمول را هیچ جا ندیده ام و فقط $$\chi^2=\sum_{i=1}^{N}\frac{(T_{exp}-T_{fit})^2} {\sigma^2_{i}}.$$ آیا کسی می تواند بالا را توضیح دهد، یا فرمول اشتباه است؟
فرمول Chi-Squared
73574
من قطار و مجموعه تست زیر را دارم: قطار: 1000 obs. تست 40 متغیر: 9000 obs. از 40 متغیر با استفاده از 75 درصد از داده‌های «قطار»، می‌توانم مدلی ایجاد کنم که 93 درصد موفقیت در طبقه‌بندی داده‌های «تست» به دست آورد. آیا همانطور که دیدم در اینجا پیشنهاد شد، آیا می توان نتایج پیش بینی را با افزودن پیش بینی روی پیکره آزمون به مجموعه آموزشی بهبود بخشید؟ (منبع نوشت: برچسب های مجموعه آزمایشی را پیش بینی کنید و از آنها به عنوان بخشی از مجموعه آموزشی استفاده کنید). به طور شهودی فرض می‌کنم که از آنجایی که من نتایج کلاس را برای «تست» ندارم، این بدان معناست که اطلاعات جدیدی برای استخراج از داده‌های آزمون وجود ندارد. اما به نظر می رسد منبع ذکر شده در بالا بیان می کند که نتایج پیش بینی را بهبود می بخشد. آیا می تواند درست باشد، و چگونه آن را توضیح می دهید؟
افزودن پیش‌بینی روی پیکره آزمون به مجموعه آموزشی
113163
من سعی می کنم نمونه هایی را پیدا کنم که در آن برخی از مشکلات اساسی از طریق الگوریتم های یادگیری ماشین کلاسیک و روش های آماری رسمی تر حل شده اند. به طور خاص، من علاقه مند به نمونه هایی هستم که در آن SVM با روش های سلسله مراتبی بیزی مقایسه شده است. (اما من با خوشحالی نمونه‌های غیر SVM را می‌آورم.) FWIW- به یک پست وبلاگ برخورد کردم که پیشنهاد می‌کرد روش‌های آمار بیزی بینش بیشتری فراتر از آنچه توسط SVM ارائه شده بود، ارائه می‌کرد، اما احمقانه نشانک‌گذاری نکرد.
SVM در مقابل مثال(های) رگرسیون بیزی؟
73571
بنابراین می‌دانم که یک فرآیند GARCH ثابت است، با این حال من در مورد فرآیند I-GARCH شک دارم زیرا نیاز است که ضرایب فرآیند تا 1 جمع شوند، که شرایط ثابت را برآورده نمی‌کند. تفاوت بین I-GARCH و GARCH معمولی چیست؟ چرا از یکی استفاده می کنید و دیگری را نه؟
آیا یک فرآیند I-GARCH ثابت است؟
86837
من اینجا یه سوال دارم اساساً من میانگین و انحراف معیار یک متغیر (IQ) را دارم. من می خواهم این احتمال را پیدا کنم که از هر 10 نفری که به طور تصادفی انتخاب شده اند، 8 نفر دارای امتیاز IQ بین 85.0 تا 122.5 هستند. من همچنین اطلاعات زیر را در دست دارم: * میانگین = 100 * توزیع استاندارد = 15 * n = 10 * p = 0.7745 آیا باید از پواسون برای انجام این کار استفاده کنم؟ لطفاً از هر گونه راهنمایی و توصیه قدردانی کنید.
احتمال در توزیع عادی
76904
آیا می توانید مثالی از استفاده از برآوردگرهای ساندویچ برای انجام یک رگرسیون قوی به من بدهید؟ من می‌توانم مثال را در «ساندویچ» ببینم، اما کاملاً نمی‌دانم چگونه می‌توانیم از lm(a ~ b، داده) # R-coded به یک تخمین و یک p.value که نتیجه یک رگرسیون قوی با استفاده از واریانس است برویم. ماتریس کوواریانس که توسط تابع ساندویچ برگردانده شده است.
رگرسیون قوی و برآوردگرهای ساندویچ
94017
سوال سریعی که امیدوارم کسی بتونه کمک کنه تصور کنید داده‌هایی از یک کارآزمایی تصادفی‌سازی و کنترل‌شده (RCT) دارید و علاقه‌مند به بررسی تأثیر درمان بر نمره آزمون هستید. بگویید که قبل از درمان و بعد از درمان همان آزمایش را برای شرکت کنندگان انجام می دهید. من میانگین و انحراف معیار برای هر گروه را در جدول زیر ارائه کرده ام. گروه کنترل در آزمون قبل از درمان کمی بالاتر امتیاز می‌گیرد (اما تفاوت بین کنترل و درمان از نظر آماری معنی‌دار نیست، یعنی ما مطمئن هستیم که شاخص درمان یک متغیر برون‌زا است). سپس نمرات آزمون را پس از درمان بررسی می کنیم و متوجه می شویم که اثر درمان از نظر آماری معنی دار نیست. با این حال، اگر اولین تفاوت ها را در نظر بگیریم، متوجه می شویم که اثر درمان از نظر آماری معنی دار است. به کدام نتایج باید اعتماد کرد؟ تحلیل فقط خط پایانی یا تحلیل تفاوت اول؟ * * * | درمان | کنترل | H0: میانگین (درمان) - میانگین (کنترل) = 0 -------------------------------------- ----------------------------------------------- قبل | 60.61 | 63.41 | رد نشدن | (16.13) | (17.86) | بعد از | 64.02 | 62.80 | رد نشدن | (11.42) | (14.76) | بعد - قبل | 3.41 | -0.61 | رد کردن | (13.99) | (15.10) | سه آزمایشی که در حال انجام هستند عبارتند از: 1) $Treatment_{pre}$ در مقابل $Control_{pre}$ (نمرات قبل از درمان). این برای بررسی این است که آیا گروه ها قبل از دریافت درمان برابر هستند یا خیر. 2) $Treatment_{post}$ در مقابل $Control_{post}$ (نمرات پس از درمان). این برای بررسی این است که آیا درمان تأثیر داشته است یا خیر. 3) $(Treatment_{post} – Treatment_{pre})$ در مقابل $(Control_{post} – Control_{pre})$. این یک روش جایگزین برای بررسی اثربخشی درمان است. با توجه به اینکه در تست (1) نتوانیم تهی را رد کنیم، نمی دانم که آیا تست (2) یا تست (3) برای آزمایش اینکه آیا درمان تأثیر دارد مناسب تر است؟
تفاوت‌های اول در مقابل تحلیل خط پایانی با RCT
77059
در کلاس ریاضی آمار من یک قضیه داریم که می گوید: اجازه دهید $\{P_\theta : \theta \in \Theta\}$ یک خانواده نمایی پارامتر $k$ باشد (یعنی چگالی یکی از اعضای این خانواده می تواند باشد نوشته شده به صورت $f(\mathbf{x}) = h(\mathbf{x})e^{\sum_{i=1}^k c_i(\theta)T_i(\mathbf{x}) - B(\theta)}$)، فرض کنید $\{c_1(\theta),\ldots,c_k(\theta)\}$ (چیزی که من آن را می نامم پارامترهای طبیعی) دارای فضای داخلی **غیر خالی** است. سپس $T(\mathbf{X}) = \{(T_1(\mathbf{X})،\ldots، T_k(\mathbf{X})\}$ کامل و کافی است. این قضیه اغلب برای شناسایی UMVUE استفاده می شود (تخمین کننده های بی طرف حداقل واریانس یکنواخت) با استفاده از قضیه Lehmann-Scheffe من با هیچ نمونه خوبی از یک خانواده نمایی مواجه نشدم در جایی که مجموعه پارامترهای طبیعی فضای داخلی خالی دارد، می توانید مثال خوبی ارائه دهید؟
خانواده نمایی که در آن مجموعه پارامترهای طبیعی دارای فضای داخلی خالی است
76907
من چند روزی است که نمی توانم به این سوال دلهره آور پاسخ دهم و نمی توانم منبع مناسبی برای آن پیدا کنم، بنابراین شاید کسی اینجا به من کمک کند. یک حاصلضرب بیرونی از دو بردار تصادفی **یکنواخت** **mod p** را در نظر بگیرید، که در آن بردار از مقادیر تصادفی یکنواخت مستقل با یک عدد اول $p$ تشکیل شده است. بردارهای $A$ و $B$ مستقل از یکدیگر هستند. $$ \begin{pmatrix} a_0 & a_1 & a_2 &.. &a_n\end{pmatrix} \mod p$$ and $$ \begin{pmatrix} b_0 & b_1 & b_2 &.. &b_n\end{pmatrix} \mod p$$ به طوری که محصول بیرونی $$ \begin{pmatrix} a_0b_0 و a_1b_0 & a_2b_0 &...\\a_0b_1 & a_1b_1 & a_2b_1 &...\\a_0b_2 & a_1b_2 & a_2b_2 &...\\... &... &... &...\end{pmatrix } \mod p$$ توزیع این محصول بیرونی چگونه است؟ آیا ارزش ها یکسان هستند یا نه و وابسته هستند یا نه؟ آیا می‌توانیم با استفاده از توزیع دیگری برای بردارهای تصادفی یا شاید با جمع کردن (k) محصولات بیرونی تصادفی بیشتر، آن را یکنواخت و مستقل (w.h.p) بدست آوریم؟
توزیع یک حاصل ضرب بیرونی مقادیر تصادفی mod P چیست؟
72224
من در محاسبه SVD و PCA در Matlab مشکل دارم. من نمی دانم که آیا اشتباهات نظری انجام می دهم یا اشتباهات برنامه نویسی. شروع با ماتریس داده $X$ PCA مقدار ویژه $\lambda_i$ ماتریس $X^TX/(n-1)$ را محاسبه می کند. در طرف دیگر برای SVD $X=U\Sigma V^*$ و بنابراین $X^T X=V \Sigma^T U^T U\Sigma V^T=V \Sigma^T\Sigma V^T$ جایی که $\ Sigma$ با عناصر $\sigma_i$ مورب است. بنابراین $\lambda_i=\sigma_i^2 /(n-1)$. حالا یک مثال متلب را امتحان می کنم: load hald; [u s v]=svd(مواد تشکیل دهنده); sigma=cov(مواد تشکیل دهنده); [a,b]=eig(sigma); disp('sigma') disp(diag(s)) disp('lambda') disp(diag(b)) > > sigma 211.3369 77.2356 28.4597 10.2667 lambda 0.2372 12.4054 495 671. معادله اصلی اشتباه کجاست؟ ممنون :دی
PCA و SVD matlab
76900
این یک نمونه طرح آزمایشی است که برای آن به کمک نیاز دارم (مقادیر بین سنجش ها یکسان است اما باید متفاوت باشد). ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/IC9Ey.png) می‌خواهم آزمایش کنم که آیا استفاده از داروی 1 یا داروی 2 تأثیر قابل‌توجهی بر خروجی اندازه‌گیری می‌کند یا خیر. گروه کنترل در معرض هیچ دارویی قرار نگرفت. سپس آزمون برای اهمیت آماری 2 بار دیگر تکرار می شود. هر آزمایش در روزهای مختلف با سلول ها و محیط های مختلف انجام می شود. مشکل زمانی پیش می آید که یک آزمون آماری انتخاب شود. در اینجا نظرات من وجود دارد: * برای هر آزمایش به صورت جداگانه، ANOVA نباید استفاده شود زیرا من نمی خواهم 3 گروه را با هم مقایسه کنم، می خواهم گروه های تحت درمان را با یک گروه کنترل مقایسه کنم. بنابراین، من تست t را برای Control Vs انجام می دهم. D1 و کنترل در مقابل D2. آیا این درست است؟ اما پس از آن، 3 سنجش با هم در نظر گرفته شده و نمایش داده ها وجود دارد. انجام یک نرمال سازی، با کنترل 100٪ و انجام میانگین 3 سنجش بر اساس درصد، راه خوبی برای نشان دادن داده ها است، اما از نظر آماری من نمی دانم چگونه این کار را انجام دهم. ادغام تمام اندازه‌گیری‌ها برای هر گروه و محاسبه میانگین (انجام مجدد آزمون‌های t) مناسب به نظر نمی‌رسد، زیرا حتی گروه کنترل معمولاً تغییراتی را نشان می‌دهند. عادی سازی، با 100٪ بودن Control، حتی اشتباه تر به نظر می رسد، زیرا گروه(های) کنترل هیچ مقدار انحرافی ندارند. من به معرفی Mean-SD-N برای هر 3 سنجش فکر کردم، اما به نظر می رسد Graphpad آن را برای آزمون t و 1wayANOVA قبول ندارد.
داده های بیولوژیکی، سنجش مستقل 3x3
94010
اگر یک متغیر عاملی (مثلاً جنسیت با سطوح M و F) در فرمول glm استفاده شود، متغیر(های) ساختگی ایجاد می‌شود و می‌توان آن را در خلاصه مدل glm به همراه ضرایب مرتبط با آن‌ها (مثلاً جنسیت M) یافت. با تکیه بر R برای تقسیم فاکتور به این ترتیب، فاکتور در یک سری از متغیرهای عددی 0/1 کدگذاری می شود (به عنوان مثال جنسیتM (1 برای M، 0 برای F)، genderF (1 برای F، 0 برای M) و این متغیرها سپس به عنوان متغیرهای عددی در فرمول glm استفاده می شوند، آیا نتیجه ضریب تفاوت دارد اساساً سؤال این است: آیا R متفاوت است؟ محاسبه ضریب در هنگام کار با متغیرهای عامل در مقابل متغیرهای عددی (احتمالاً با پاسخ بالا): علاوه بر کارایی اجازه دادن به ایجاد ساختگی R؟ متغیرها، آیا با رمزگذاری مجدد فاکتورها به عنوان یک سری از متغیرهای عددی 0،1 و استفاده از آنها در مدل به جای آن مشکلی وجود دارد؟
درک ایجاد متغیرهای ساختگی (دستی یا خودکار) در GLM
86838
من از SPSS Clementine برای آموزش یک طبقه‌بندی کننده استفاده کرده‌ام، برای این کار از یک گره پارتیشن با 2 قسمت (ترن و آزمایش) استفاده کرده‌ام، سپس از اعتبارسنجی درختی c5 و cross-fold استفاده کردم. من این کار را انجام دادم زیرا فکر می‌کنم SPSS داده‌های آموزشی را از هم جدا می‌کند و یک اعتبار دهی 10 برابری برای ساخت بهترین مدل و سپس آزمایش آن با داده‌های آزمایشی انجام می‌دهد. لطفاً این را تأیید یا نقد کنید؟ این توضیح SPSS در مورد نحوه عملکرد cross-fold است: Cross-validate. اگر این گزینه انتخاب شود، C5.0 از مجموعه ای از مدل های ساخته شده بر روی زیر مجموعه های داده های آموزشی برای تخمین دقت مدل ساخته شده بر روی اگر مجموعه داده‌های شما خیلی کوچک باشد، به مجموعه‌های آموزشی و آزمایشی تقسیم می‌شود تاها، یا تعداد مدل‌های مورد استفاده برای اعتبارسنجی متقابل. و اگر ایده من درست نیست (برای استفاده از پارتیشن و اعتبار متقابل) چه اتفاقی در SPSS افتاده است؟ آیا اولویتی وجود دارد یا خیر؟ با تشکر از همه
آیا می توان از داده های پارتیشن بندی شده (train&test) همراه با اعتبارسنجی متقاطع استفاده کرد؟
70089
من سعی می کنم مفهوم استقلال را به صورت تجربی با استفاده از شبیه سازی کامپیوتری درک کنم. من تصور می کنم که این مفهوم را درک کنم: 1. باید بتوانم سه مجموعه داده از متغیرهای تصادفی A، B و C تولید کنم که در آن A و B مستقل هستند و A و C مستقل نیستند. 2. من باید بتوانم آزمایشی را اجرا کنم که در آن داده های A و B (و A و C) را با هم مقایسه کنم و آزمون معیاری از استقلال به من بدهد. آیا می توانم به منبعی (مقاله، فصل کتاب درسی، کد، پست وبلاگ و غیره) اشاره کنم که در آن اطلاعات کافی برای درک تجربی مفهوم استقلال وجود داشته باشد.
چگونه می توانم مستقل بودن دو متغیر تصادفی را آزمایش کنم؟
91369
من تعداد زیادی ویژگی دارم که متغیرهای طبقه‌بندی هستند و سعی می‌کنم سیستمی برای حذف متغیرهای طبقه‌بندی که نزدیک به چند خطی هستند پیدا کنم. آیا vif یک معیار معقول در زمینه متغیرهای طبقه بندی شده است؟ آیا chi-squared پیرسون معیار خوبی برای ارتباط بین متغیرهای طبقه‌بندی است؟ من همچنین شنیده ام که به همبستگی پلی کوریک اشاره شده است. ویرایش 1: برای vif روی متغیرهای طبقه بندی، باید از r-squared از مدل احتمال خطی استفاده کنم درست است؟ من فرض می کنم نمی توانید از شبه r-squared استفاده کنید زیرا حیوان کاملاً متفاوتی است.
حذف متغیرهای دسته‌بندی چند خطی
86835
به عنوان یک فرض رگرسیون خطی، نرمال بودن توزیع خطا گاهی به اشتباه «تبسط می‌یابد» یا به عنوان نیاز به نرمال بودن y یا x تفسیر می‌شود. آیا می توان سناریو/مجموعه داده ای ساخت که در آن X و Y غیر عادی هستند اما عبارت خطا وجود دارد و بنابراین تخمین های رگرسیون خطی به دست آمده معتبر هستند؟
فرض نرمال بودن در رگرسیون خطی
110715
دو سوال سریع: 1. برآوردگر حداکثر احتمال پارامتر یک فرآیند شمارش پواسون همگن چیست؟ 2. برای تخمین $\lambda$ من در حال حاضر از تعداد رویدادها/زمان کل، $N(t)/\Delta t$ استفاده می کنم. این آمار از چه توزیعی پیروی می کند؟
پارامتر فرآیند شمارش پواسون
73577
J. B. Ramsey (در _تست برای خطاهای مشخصات در تحلیل رگرسیون حداقل مربعات خطی کلاسیک. Journal of the Royal Statistical Society. 1969_ می گوید که آزمون RESET فرض می کند که باقیمانده ها به طور معمول توزیع می شوند. اگر کسی بخواهد شکل عملکردی نادرست یک مدل را آزمایش کند اما باقیمانده ها دارای توزیع **غیر عادی** هستند، چگونه می توان این کار را انجام داد؟ رمزی همچنین می‌گوید که «_مواردی که تعیین نادرست منجر به توزیع غیرعادی و [باقیمانده‌ها] می‌شود، باید در مقاله بعدی مورد بحث قرار گیرد.» کسی میدونه این کدوم کاغذه؟
زمانی که باقیمانده ها دارای توزیع غیرعادی هستند، فرم عملکردی نادرست را آزمایش کنید
95604
مجموع مربعات $SSR(X_p|X_1،...X_{p-1})$، با فرض اینکه هیچ جفتی از متغیرهای پیش‌بین کاملاً همبسته نیستند، کاهش حاشیه‌ای در مجموع خطای مربع‌ها را اندازه‌گیری می‌کند. در نهایت می توان مجموع مربع های اضافی را به عنوان اندازه گیری افزایش حاشیه ای در مجموع رگرسیونی مربع ها مشاهده کرد که یک یا چند متغیر پیش بینی به مدل رگرسیون اضافه می شود. با فرض اینکه تعداد داده‌های مشاهده‌ای $n$ بزرگتر از تعداد متغیرهای پیش‌بین $p$ باشد. آیا می توانم دلیل دقیقی داشته باشم که $SSTO=\sum_{i=1}^n (Y_i-\bar{Y})^2\geq SSR(X_p|X_1,...X_{p-1})\geq0 دلار * * * اعمال LSE $SSE(X_1,...,X_{p-1})=\sum(Y_i- b_0-b_1X_{1,i}-...-b_{p-1}X_{p- 1,i})^2=\sum(Y_i- b_0-b_1X_{1,i}-...-b_{p-1}X_{p-1,i}-0\times X_{p,i})^2\geq\sum(Y_i- b_0'-b_1'X_{1,i}-...-b_{p-1}'X_{p-1,i}-b_p' X_{p,i})^2=SSE(X_1,...,X_{p-1},X_p)$ $SSR(X_p|X_1،...X_{p-1})=SSE(X_1،...،X_{p-1})-SSE(X_1،...، X_{p-1}، X_p )\geq 0$ ثابت شد.
آیا مجموع اضافی مربع های $SSR(X_p|X_1،...X_{p-1})$ در رگرسیون چندگانه همیشه مثبت است؟
87871
تفاوت بین: * 1) xcov(x,y,10,'unbiased')/sqrt(xcov(x,x,0,'unbiased')*xcov(y,y,0,'unbiased')) ; * 2) xcorr(x,y,10,'unbiased'); * 3) [ **A**، B] = crosscorr(x,y,10); ? من فکر می کنم (اما من مطمئن نیستم) که Crosscorr وسایل را حذف می کند و xcorr نمی کند ، اما من نمی دانم که چرا اولین پاسخ کاملاً متفاوت در مقایسه با دیگران می دهد. آیا از فرمول اشتباهی در 1 استفاده می کنم؟ خیلی ممنون
همبستگی متقابل در متلب
74505
من یک مجموعه داده با حدود 50 هزار ردیف و 100 ستون دارم. شما می توانید هر ردیف را نماینده یک رستوران در نظر بگیرید. هدف من محاسبه عدم شباهت بین تمام رستوران ها - ضریب Gower است. از این 100 ستون (ویژگی)، تعدادی از آنها داده های عددی و داده های اسمی هستند. مشکل این است که ستون های دیگر (حدود 90) داده های باینری بسیار پراکنده هستند (1/0). من فکر می کنم که آن 90 ستون از داده های باینری را می توان به تعدادی ستون کمتر کاهش داد، به طوری که زمان محاسبات را می توان به طور قابل توجهی کاهش داد. اما نمی دانم از چه روشی برای کاهش این حجم از داده های باینری استفاده کنم. آیا کسی می تواند به من چند پیشنهاد بدهد؟ اگر بتوانید برخی از منابع و کد R را در اختیار من قرار دهید بسیار مفید خواهد بود.
کاهش ابعاد بدون نظارت برای انواع داده های مختلط
74500
پروژه تحقیقاتی من دستیابی به ابزاری برای تجزیه و تحلیل الگوهای انتشار و اشتراک در وب سایت های خبری سریلانکا است. به عنوان بخشی از پروژه من، ابزار من باید علاوه بر تجزیه و تحلیل الگوهای انتشار وب سایت های خبری، بتواند موارد زیر را بیابد. • موضوعات خبری که اکثراً مشترک هستند (محبوب ترین موضوعات خبری) بر اساس نظرات کاربران. استفاده از نظرات کاربران برای اطلاع از محبوبیت یکی از الزامات سرپرست پروژه بود. • موضوعات خبری که محبوبیت خود را با توجه به زمان افزایش می دهند (به عنوان مثال: نظرات کمتری در اعتصاب دانشگاه داده شد، اما ناگهان تعداد نظرات افزایش می یابد) با توجه به اجرا، ابزار من مقالات خبری و نظرات کاربران مرتبط را در یک مورد استخراج می کند. به صورت روزانه از چندین وب سایت خبری این ابزار به طور مداوم بررسی می کند که آیا هر مقاله با ردیابی مقاله برای تعداد روزهای X نظرات بیشتری دریافت خواهد کرد (X یک مقدار تعریف شده توسط کاربر است و کاربر می تواند آن را تغییر دهد). من آمار زیر را برای هر مقاله ای که از ماه آوریل تا ارائه استخراج کرده ام جمع آوری کرده ام. • تاریخ انتشار مقاله • تعداد روزهایی که مقاله نظرات دریافت کرده است • تعداد نظرات (به استثنای پاسخ ها) توسط خوانندگان. • تعداد نظرات پاسخ داده شده توسط خوانندگان. • تعداد خوانندگان منحصر به فرد (نام مستعار) که نظر داده اند و نظرات پاسخ داده اند • تعداد کل نظرات و پاسخ ها در هر مقاله آیا روش آماری بهتری وجود دارد که بتوانم از آن برای محاسبه امتیاز محبوبیت برای هر مقاله خبری استفاده کنم. عوامل ذکر شده در بالا به جای محاسبه تعداد کل نظراتی که هر مقاله دریافت کرده است و آنها را برای انتخاب k برتر مقالات مرتب کنید.
محاسبه امتیاز محبوبیت برای مقالات خبری بر اساس نظرات کاربران
73579
این یک سوال در مورد استفاده از **lme()** در **R** برای محاسبه تغییرات بین گروهی و درون گروهی در مجموعه داده حاوی مقادیر _log_ است. من خوانده ام که هنگام استفاده از lme() برای محاسبه مقادیر سیگما (تغییر) در یک مجموعه داده، اگر مقادیر موجود در مجموعه داده (خوانده شده در R از یک فایل csv. و ذخیره شده به عنوان یک قاب داده) log باشند، باید ثبت شوند. قبل از استفاده از lme(); به عنوان مثال، اگر یک قاب داده با مقادیر x، y داشته باشیم: x= (1، 1، 2، 2، 3، 3) و مقادیر y متناظر: y= (4.5e-8، 4.2e-7، 3.2e -7، 3.1e-7، 3e-5، 3.4e-5). برای چنین مجموعه داده ای، ما همه مقادیر Y را _قبل از استفاده از lme()_ در این قاب داده ثبت می کنیم. حال سوال من این است که اگر بخواهیم این داده های x، y و میانگین آن را روی نمودار رسم کنیم و از مقادیر سیگما برای محاسبه حداکثر آنها استفاده کنیم. و دقیقه انحراف، آیا میانگین و مجموعه داده اصلی را نیز ثبت می کنیم یا مقادیر سیگما را که R برمی گرداند تغییر می دهیم؟ در حال حاضر، من مقادیر اصلی (_not_ log) را به عنوان نمودار رسم می کنم و میانگین آنها را نیز **قبل از ثبت** آنها محاسبه می کنم. اکنون، این باعث می شود که مقادیر سیگما بسیار بالاتر از مجموعه داده واقعی باشد. آیا نباید قبل از استفاده از lme() مقادیر را وارد کنم؟ یا، در عوض، آیا باید مقادیر سیگمای برگشتی را تغییر دهم (معکوس آنها یا چیزی شبیه به آن را بگیرم) و از آن در محاسبات خود استفاده کنم زیرا ارزش واقعی تری نسبت به مجموعه داده و میانگین آن می دهد؟ اگر کسی پیشنهادی دارد، لطفا به زودی به من اطلاع دهد. با تشکر
استفاده از R - lme() با مجموعه داده Log
10309
من در حال انجام یک تجزیه و تحلیل آماری برای تحقیق خود هستم. من از آزمون فریدمن با تحلیل تعقیبی استفاده می کنم. در حال حاضر من از تابع friedman.test.with.post.hoc موجود برای نرم افزار R استفاده می کنم. این تابع به جای مقدار chi-square مقدار maxT را گزارش می کند. یکی میتونه توضیح بده maxT چیه و ارتباطش با Chi-square چیه؟ متشکرم.
آزمون فریدمن و تجزیه و تحلیل پس از آن
86830
آیا نرمال سازی متغیرهای وابسته در رگرسیون چندگانه واقعاً مهم است یا استثناهایی وجود دارد؟ مدل من نتایج بهتری را با فرضیه‌های مهم‌تری ارائه می‌کند که DVs نرمال‌سازی نشده (تبدیل شده‌اند). از نظرات سپاسگزار خواهم بود.
تبدیل به نرمال بودن متغیر وابسته در رگرسیون چندگانه
74507
از چه آزمون هایی استفاده می کنم تا ببینم که آیا دو توزیع در پراکندگی «به طور قابل توجهی» متفاوت هستند، اگر دم ضخیم باشند، مانند توزیع t؟ با تشکر
پراکندگی بین دو توزیع با دم ضخیم را مقایسه کنید
108419
این اولین سوال من در اینجاست. من نتایج تجربی برای دو مجموعه داده دارم که می‌خواهم بررسی کنم که آیا تفاوت معنی‌دار است یا خیر. در اینجا شرحی از آزمایش من است: آزمایش: من مجموعه ای از 70 ژن دارم که نشان دادم 12 تا از آنها به شیوه ای خاص در حال تکامل هستند. اکنون می‌خواستم بررسی کنم که آیا این 70 ژن در مقایسه با تمام ژن‌های موجود در آن گونه، دارای این ویژگی‌های تکاملی هستند یا خیر. متأسفانه به دلیل محدودیت های تجربی نتوانستم این آزمایش را روی همه ژن ها تکرار کنم. بنابراین من یک مجموعه تصادفی از 100 ژن (بدون جایگزینی) را انتخاب کردم و به این نتیجه رسیدم که از هر 100 ژن 8 ژن دارای ویژگی های یکسان هستند. حال برای بررسی اینکه آیا این تفاوت از نظر آماری معنی‌دار است یا خیر، در ابتدا از آزمون دوجمله‌ای روی داده‌ها استفاده کردم (با استفاده از R prop.test). اما یکی به من گفت که این آزمایش مناسبی برای داده های شما نیست. لطفاً کسی می تواند در مورد تست صحیح به من کمک کند با تشکر، RT
نسبت های نسبی را تست کنید
95862
> با توجه به رگرسیون ساده $$Y_t = \beta X_t + e_t$$، با $$e_t = > \epsilon_t + \theta_1 \epsilon_{t-1} + \theta_2 \epsilon_{t-2}، \epsilon_t > \ سیم WN(0، \sigma^2)$$ و $$X_t iid، X_s \perp e_t \forall s,t$$ ${X_t > e_t}$ یک دنباله تفاوت مارتینگل است w.r.t $F_{t-1}=(X_{t-1}, e_{t-1}, > X_{t-2}, e_ {t-2}، ...)$؟ این تلاش من تاکنون بوده است: $E(X_t e_t | F_{t-1}) = E(X_t E(e_t|F_{t-1}, X_t)|F_{t-1})$ در سریال نامرتبط مورد، $E(e_t|F_{t-1}، X_t)=0$، منجر به MDS می شود. در این مورد همبسته سریال، من گمان می کنم که با 0 متفاوت باشد اما نمی توانم انتظار را دقیقاً محاسبه کنم. در نهایت به یافتن $E(\epsilon_{t-1}|F_{t-1})$ و $E(\epsilon_{t-2}|F_{t-1})$ ختم می شود، جایی که من گیر کرده ام
ثابت کنید که همبستگی سریال در شرایط خطا باعث می شود X_t $ e_t $ غیر MDS باشد
10302
من با اصطلاح **سرگشتگی** مواجه شدم که به احتمال معکوس میانگین لگ در داده های دیده نشده اشاره دارد. مقاله ویکی‌پدیا در مورد **سرگشتگی** معنایی شهودی برای آن نمی‌دهد. این اندازه گیری گیجی در کاغذ pLSA استفاده شد. آیا کسی می تواند نیاز و معنای شهودی اندازه گیری **سرگشتگی** را توضیح دهد؟
گیجی چیست؟
86831
من می خواهم راهی برای تبدیل مقیاس لیکرت به مقیاس زوجی (AHP/ANP) پیدا کنم، زیرا پرسشنامه من شامل 30 معیار برای مقایسه است و ساخت یک پرسشنامه زوجی شامل (30*(30-1))/2 سؤال است که برای پاسخ دهندگان بسیار طولانی است. آیا کسی می داند چگونه با آن برخورد کنم؟ یا هر روش دیگری برای سنجش معیارهای من؟
مقیاس لیکرت را به دوتایی تبدیل کنیم؟
61275
آیا این مفروضات درست و فهرست برای **اندازه گیری های مکرر MANCOVA** کامل است؟ * کرویت * نرمال بودن چند متغیره * همگنی واریانس * همگنی ماتریسهای کوواریانس * همگنی شیبهای رگرسیون * استقلال متغیر مستقل و متغیر کمکی
مفروضات MANCOVA با اندازه گیری های مکرر چیست؟
86834
من سعی می کنم امتیازات فوتبال را با استفاده از توزیع پویسون مدل کنم. من برای هر تیم یک لامبدا محاسبه می‌کنم و سپس احتمالات دو محاسبه سم را ضرب می‌کنم تا احتمال یک امتیاز خاص را بدست بیاورم. به عنوان مثال poison(lambdaHome, 1)*poisson(lambdaAway, 2) برای محاسبه احتمال نتیجه 1-2 در پایان مسابقه. مشکلی که من دارم این است که توزیع پویسون فرض می‌کند که گل دوم به همان اندازه احتمال گل سوم است که گل چهارم. اما در واقعیت این نباید درست باشد. اگر یک مسابقه امتیاز 2-0 داشته باشد، از نظر شهودی احتمال کمتری برای تیم برای زدن گل دیگری وجود دارد، زیرا احتمالاً زمان بیشتری را برای حفظ امتیاز در دفاع صرف می کند تا حمله برای زدن گل های بیشتر. آیا توزیع احتمالی مشابه Poisson وجود دارد، اما به جای داشتن یک احتمال ثابت برای همه اهداف، احتمال هر هدف را کمتر و کمتر می کند؟
نحوه مدل سازی امتیازات فوتبال (فوتبال).
70082
من قصد دارم از پارتیشن بندی واریانس برای تفسیر نتایج خود از یک مدل معین و در بین مدل ها استفاده کنم و با انتقادات مختلفی از آن به ویژه توسط Pdhazur (1982، 1997) مواجه شده ام. همچنین، انتقادات به هر دو رویکرد به VP - تجزیه و تحلیل مشترک و پارتیشن بندی افزایشی واریانس است. از آنچه من فهمیدم اولی به اندازه دومی خطرناک نیست. به طور خلاصه، انتقادات مربوط به وابستگی زیاد به R^2 و چند خطی بودن است. علاوه بر این، انتقاد در مورد این است که چقدر معنادار است که قدرت توضیحی را به متغیرهای فردی در یک موقعیت چند متغیره نسبت دهیم. از آنجایی که من برای اولین بار از این مدل استفاده خواهم کرد، و حتی پس از خواندن پست های دیگر در این انجمن و دیگر مقالات/ادبیات، در حول و حوش انتقادات مشکل دارم. هرگونه توضیح واضح در مورد انتقادات قابل قدردانی خواهد بود.
پارتیشن بندی واریانس - چرا محتاط باشیم؟
110713
من می خواهم اعداد تصادفی را بر اساس منحنی توزیع مانند منحنی عادی تجمعی معکوس تولید کنم. اما منحنی باید به پارامترها اجازه دهد تا پارامترها را همانطور که در تصویر نشان داده شده است، یعنی شیب (A، B، C)، مقادیر حداقل و حداکثر، بین 0.0 و 1.0 به شیوه ای معنادار مانند واریانس، میانگین و غیره تنظیم کنند. چیزهای معمولی آیا راه حل شناخته شده ای برای این منحنی از نظر توزیع آماری وجود دارد؟ ![گراف توزیع معکوس](http://i.stack.imgur.com/0KCbo.jpg)
آیا نمودار توزیع معکوس وجود دارد که شبیه این باشد؟
70088
فکر می‌کنم امروز عبارتی را خواندم که چیزی شبیه به این بود: > اگر توزیعی دارای میانگین و واریانس باشد... پس حدس می‌زنم که این بدان معناست که برخی از توزیع‌ها میانگین یا واریانس ندارند؟ درک آن کمی دشوار است - به عنوان مثال: می توانم داده هایی را بدست بیاورم که گفته می شود از چنین توزیع بدون میانگین و بدون واریانس پیروی می کنند و به عنوان یک تخمین میانگین و واریانس چنین مجموعه داده ای را محاسبه می کنند. کسی می تواند کمک کند تا چیزی را که من از دست داده ام روشن کند؟
چه زمانی یک توزیع میانگین یا واریانس ندارد؟
81828
آیا نتیجه مقدار میانگین متحرک می تواند بالاتر از بالاترین مقدار تشکیل دهنده ای باشد که میانگین متحرک بر اساس آن است؟ من متوجه شدم که جایی در اینجا ممکن است پاسخی وجود داشته باشد، اما نتوانستم پاسخ خاصی برای این سوال پیدا کنم. من معتقد نیستم که نتیجه میانگین متحرک ارزش بر اساس مجموعه ای از ارزش ها در بازه زمانی مشخص شده (مانند فروش 4 هفته قبلی) می تواند بالاتر از مجموع فروش بالاترین جزئی باشد که یکی از مقادیر در نظر گرفته شده است. در محاسبه میانگین متحرک من اینجا هستم؟ متشکرم.
آیا نتیجه مقدار میانگین متحرک می تواند بالاتر از بالاترین مقدار تشکیل دهنده ای باشد که میانگین متحرک بر اساس آن است؟
10305
چه زمانی می توان از آزمون اهمیت نسبت درستنمایی به جای آزمون دقیق فیشر یا تقریب پیرسون $\chi^2$ برای مقایسه دو مجموعه داده دو جمله ای استفاده کرد؟ با توجه به دو مجموعه داده دو جمله ای (توزیع)، من می بینم که از آزمون LR برای مقایسه یک توزیع در برابر توزیع جهانی (ترکیب) استفاده می شود. معمولاً من از آزمون فیشر برای مقایسه یک مجموعه داده با دیگری استفاده می کنم. من متوجه شدم که تست LR از مکتب Neyman-Pearson است که یک مدل جایگزین کاملاً مشخص و همچنین مدل تهی را فرض می‌کند. به عنوان مثال، در مثال صفحه آزمایشی LR ویکی‌پدیا، از آن برای مقایسه دو مجموعه داده دوجمله‌ای (# سر/دم برای دو سکه) استفاده می‌شود. چرا از آزمون $\chi^2$ برای مقایسه دو نمونه با یکدیگر استفاده نمی کنید؟ تفاوت های مفهومی این دو رویکرد چیست؟ کی از کدوم استفاده کنم؟ و چه زمانی مناسب است که یک نمونه را در مقابل مکمل آن بلکه با مجموعه داده کلی مقایسه کنیم؟
آزمون نسبت درستنمایی در مقابل آزمون $\chi^2$/Z برای مقایسه مجموعه داده های دو جمله ای
85564
در طول کار من یک مشکلی پیش آمده است. می توان آن را اینگونه خلاصه کرد: تعداد زیادی از متقاضیان کار وجود دارد، فرض کنید N از آنها. کاری که باید انجام شود این است که این متقاضیان به ترتیب مطلوبیت برای شرکت رتبه بندی شوند: 1، 2، 3، ... ن. تا به حال، این کار با بحث و گفتگو (بخوانید: استدلال) بین چندین نفر مسئول انجام شده است. برای تصمیم گیری ایده حذف بحث های مذکور نیست، بلکه کاهش حجم کار ضروری است. بنابراین، ایده جدیدی که در مورد آن مورد انتقاد قرار می‌گیرد این است که می‌توان نوعی «نمره» برای هر متقاضی معرفی کرد. از چندین بعد مختلف (به عنوان مثال، هوش خام، جامعه پذیری، و غیره)، و رتبه بندی ها به سادگی برای ایجاد یک امتیاز نهایی جمع شدند. سپس متقاضیان را می توان بر اساس نمره مرتب کرد. البته، ارتباط‌های زیادی با این سیستم خاص وجود خواهد داشت، اما مشکل رتبه‌بندی هر متقاضی را با ایجاد «بن‌هایی» که می‌توان آن‌ها را به صورت جداگانه مرتب کرد، یعنی مستقل از آن‌هایی که خارج از یک سطل معین هستند، کاهش می‌دهد. اما چگونه می توان مردم را متقاعد کرد که امتیاز با روش قدیمی و پرزحمت انجام شده با رتبه بندی ها همبستگی دارد؟ به نظر من یکی از ضرایب همبستگی رتبه ناپارامتریک رایج - Spearman rho، Kendall tau - باید برای این منظور مناسب باشد. (به ویژه، کندال tau-b، زیرا برای کنترل کراوات طراحی شده است.) اما من یک آماردان نیستم و نمی دانم که آیا چیزی مناسب تر وجود دارد یا خیر. از این گذشته، استفاده از یک آزمون آماری ناپارامتری این واقعیت را نادیده می گیرد که یکی از متغیرهای مورد مقایسه صرفاً فهرست (1، 2، 3،...، N) است! یا شاید درک من از معنای «ناپارامتریک» در این زمینه ناقص باشد. هر گونه بینشی در مورد روش هایی که می توانم برای حمله به این مشکل استفاده کنم، قدردانی خواهد شد.
معیار آماری مناسب برای همبستگی رتبه
70084
دارم مقاله ای می خوانم _ نمونه برداری گیبس برای افراد ناآشنا_. در این مقاله، نویسندگان سعی می‌کنند از نمونه‌گیری گیبس برای مدل بیزی ساده لوح استفاده کنند. آنها مدل را به عنوان یک مدل گرافیکی در صفحه 8 رسمیت می دهند. و در مثال، آنها سعی در پیش بینی احساس (احساس) یک سند دارند. با این حال، چیزی که من نمی‌فهمم این است که، آنها ادعا می‌کنند که بدون برچسب $L$، با استفاده از نمونه‌برداری گیبس می‌توان تمام پارامترهای مورد نیاز از جمله $L$ را نمونه‌برداری کرد. من مطمئن نیستم که چگونه باید این را تفسیر کنم. بدون برچسب آموزشی، اساساً یک مشکل خوشه‌بندی است، اما اگر از برچسب‌ها استفاده نمی‌کنیم، چگونه باید برچسب آموخته‌شده $L$ را تفسیر کنیم؟ پیشاپیش ممنون
بیز ساده لوح بدون نظارت
10308
می‌خواهم راه‌های مختلفی را که می‌توان از یک سری زمانی **بدون تعصب به آینده نگاه کرد*** را کاوش کرد. من می خواستم از فیلتر Hodrick Prescott استفاده کنم که به نظر یک فیلتر فرکانس کاملاً خوب است، اما مبتنی بر یک روش بهینه سازی است و می دانم که ممکن است نتایج عجیب و غریب و فرار در مرز بدهد. صاف کردن موجک روی یک پنجره چرخان گزینه دیگری است، اما باز هم اثرات حاشیه می تواند بسیار زیاد باشد (داده ها با تقارن کپی می شوند که برای دقت تکنیک در لبه وحشتناک است). ایده یا نظری دارید؟ PS: موضوع قبلاً در اینجا مورد بحث قرار گرفته است، می دانم. اما من می خواهم کمی بیشتر در مورد یک سوال دقیق تر کاوش کنم.
چگونه می توان روند را بدون تعصب به جلو حذف کرد؟
38450
در یک شبیه‌سازی، من داده‌ها را از توزیع A تولید می‌کنم، و سپس امیدوارم آزمایش کنم که آیا هر یک از توزیع‌های دیگر B، C، D... می‌توانند به همان اندازه با داده‌ها مطابقت داشته باشند. بدیهی است که یک برازش اولیه مدل تحت توزیع A وجود دارد، بنابراین من می توانم آماره chi^2 پیرسون را به عنوان معیار خوبی از برازش دریافت کنم. سوال من: آیا ممکن است که در توزیع های B,C,D... آمار chi^2 حتی کوچکتر از آمار بدست آمده از مدل واقعی (یعنی distn A) بدست بیاورم؟ دلیل این سوال این است که من در نظر دارم که آیا یک تست 1 یا 2 طرفه باید انجام شود، یعنی H0: مدل A با داده ها مطابقت دارد. ها: نه H0. به طور شهودی (شاید من اشتباه می کنم)، یک مدل کلی تر (منظورم، کلی تر از A، مانند A=Poisson، B=دوجمله ای منفی) ممکن است به همان اندازه مناسب یا بهتر برای داده های تولید شده از A فراهم کند، بنابراین پیرسون اگر از distn B برای مدل سازی داده های شبیه سازی شده از distn A استفاده کنم، انتظار می رود که آمار کوچکتر باشد. در این مورد، من باید یک مقدار p بزرگ دریافت کنم که نشان دهنده no عدم تناسب، درست است؟ آیا پیشنهادی در مورد انتخاب آمار جایگزین برای ارزیابی GOF دارید؟ خیلی ممنونم!
در مورد p-value خوب بودن تناسب و آمار $\chi^2$ پیرسون
9400
پروژه واقعی من کمی پیچیده است، اما من با قیاس توضیح می دهم (که امیدوارم پاسخ را تسهیل کند): من 3 ماده دارم، مثلاً آب، روغن موتور و اتانول. برای هر ماده 5 نمونه در یک بشر دارم (مجموع 15 بشر). همه ی لیوان ها را روی بشقاب داغ تا دمای 70 درجه سانتیگراد گرم می کنم و در یک ساعت بعد دمای سیال هر لیوان را در فواصل 5 دقیقه اندازه گیری می کنم. خنک‌سازی نیوتنی پیش‌بینی خوبی در مورد این داده‌های دما به من می‌دهد، یعنی دمای سیال در هر فنجان باید از توزیع نمایی پیروی کند: y = a + e^(-kt) که در آن a دمای اتاق است. من می خواهم مقدار k را برای هر ماده تخمین بزنم و این فرضیه را آزمایش کنم که k1 > k2 > k3 (1، 2، 3 مربوط به سه ماده من است). به نظر می‌رسد روش طبیعی تخمین k محاسبه یک رگرسیون غیرخطی بر روی داده‌های هر ماده یا احتمالاً تبدیل کردن تمام داده‌ها و سپس محاسبه یک رگرسیون خطی ساده است. با این حال، مشکلاتی وجود دارد. برخی از سوالات: 1. با توجه به همبستگی خودکار آشکار در داده های طولی (البته توسط نمودارهای (P)ACF من تایید شده است)، آیا باید قبل از محاسبه رگرسیون، یک عبارت AR را محاسبه کنم و داده های خود را فیلتر کنم؟ 2. با فرض اینکه این عبارت خودرگرسیون را محاسبه کنم، چگونه آن را برای پنج مجموعه مستقل از داده ها (پنج فنجان یک ماده داده شده) محاسبه کنم؟ من می‌توانم پنج لیوان را با هم میانگین‌گیری کنم و سپس رگرسیون را محاسبه کنم، اما این عبارت AR من را خراب می‌کند (با فرض اینکه به یکی نیاز دارم) و همچنین تخمین من از واریانس واقعی درون لیوان را از مدل دور می‌کند. 3. من در اینجا در چه فرضیات کاملاً اشتباهی کار کرده ام...؟
چگونه می توانم رگرسیون را برای چندین مجموعه داده طولی محاسبه کنم (بنابراین، با خطای همبسته خودکار)؟
81821
من سعی می کنم یک دور را برای محاسبه میانگین مجموعه ای از داده ها به قوی ترین روشی که می توانم، و در عین حال دقیق، محاسبه کنم (این به نرم افزار صورتحساب مربوط می شود). به عنوان مثال، فرض کنید من دقایق ماهانه را در اختیار دارم. من باید یک میانگین ماهانه خوب پیدا کنم تا بفهمم به طور متوسط ​​چند دقیقه در روز استفاده می شود. من تصمیم گرفتم از IQR استفاده کنم تا هر گونه موارد پرت را از بین ببرم به دلیل اینکه مقدار یک ماه یا یک ماه با استفاده بسیار بالا به درستی به دست نمی آید. ** لیست زیر لیستی از اعدادی است که من استفاده کردم: ** > > 0,0,0,0,100,200,200,200,300,300,300,300,300,300,300,300,300,300,400,400,400,400,400, 400,500,500,500,500,500,500,500,500,600,600,600,600,800,1000,1200,1200,1400,1400,1900 اینها مقادیری هستند که من توانستم به دست بیاورم: > میانه: 400 > q1: 300 > q3: 600 > IQR: 300 > محدوده کم: -50 > محدوده بالا: 850 > میانگین بعد از IQR: 359.459459459459 > ​​میانگین معمولی >1461 > 146L > میانگین معمولی = میانه - IQR*1.5 > rangeHigh = میانه + IQR*1.5 آیا این روش دقیقی برای محاسبه این به نظر می رسد؟ من همچنین به حذف 0ها فکر می کردم زیرا بسیاری از آنها به دلیل خطا رخ می دهند. آیا راه بهتری برای انجام این کار وجود دارد؟
استفاده از IQR برای یافتن میانگین بدون نقاط پرت
81825
در بسته‌های بقا و rms R، Kaplan-Meier (Surv و Survift) و خطرات متناسب کاکس (cph) پیاده‌سازی شده‌اند. من با اضافه کردن یک به یک پیش‌بینی‌کننده‌هایی که در مجموعه داده‌ام دارم، این دو را آزمایش کرده‌ام. اینها معنی وابسته به زمان برای یک رکورد نیستند، فقط یک مشاهده برای این پیش بینی کننده ها وجود دارد که به زمان بستگی ندارند. قالب برای KM نیاز دارد که یک شی «Surv» قبل از اینکه برای پردازش بیشتر به تابع «survfit» داده شود، ابتدا ساخته شود. fit <- Surv(زمان، وضعیت)~X1+X2+X3+ ... +Xn model.km <- survfit(fit) `cph` نیز از روش مشابهی برای ایجاد مدل Cox استفاده می کند. model.cox = cph(fit, surv=TRUE, x=TRUE, y=TRUE) * * * آیا باید همه پیش بینی کننده های خود را در مجموعه داده به Surv اضافه کنم تا بتوانم یک نمایش قانونی یا کامل از آن داشته باشم؟ داده های من؟ من همیشه سعی می‌کنم هر یک را در یک زمان به توابع اضافه کنم و به دنبال مواردی باشم که باعث ایجاد خطا می‌شوند و برای ادامه ساختن آن را حذف می‌کنم. اگر یکی از این پیش‌بینی‌کننده‌ها در «Surv»، «survfit» و «cph» مورد استقبال قرار نگیرد، من فوراً آنها را از ایجاد و نه مجموعه داده حذف می‌کنم. آیا این روشی که من انجام می دهم صحیح است؟
تصمیم برای افزودن همه متغیرهای پیش بینی در Kaplan-Meier و Cox PH
6287
من دارم با مدل های سری زمانی آستانه گول می زنم. در حالی که داشتم کارهایی را که دیگران انجام داده‌اند را بررسی می‌کردم، برای اطلاعات آنفولانزا به سایت CDC رفتم. http://www.cdc.gov/flu/weekly/ حدود 1/3 پایین صفحه نموداری با عنوان پنومونی و مرگ و میر آنفلوانزا... است. این فیلم واقعی را به رنگ قرمز و دو سریال فصلی سیاه نشان می دهد. برترین سریال فصلی برچسب آستانه اپیدمی دارد و به نظر می رسد مقداری درصد/مقدار ثابت بالاتر از سریال Seasonal Baseline باشد. اولین سوال من این است: آیا آنها واقعاً اینگونه تعیین می کنند که چه زمانی به طور علنی بگویند ما در یک اپیدمی هستیم (چند درصد بالاتر از سطح پایه)؟ به نظر من آن‌ها در محدوده نویز قرار دارند، نه به تأثیر «سایر عوامل» که بدیهی است در آن سری پایه به حساب نمی‌آیند. برای من، موارد مثبت کاذب بسیار زیادی وجود دارد. سوال دوم من این است: آیا می‌توانید نمونه‌های واقعی/انتشاری مدل‌های آستانه (امیدوارم در R) را به من نشان دهید؟
مدل‌های آستانه و تشخیص اپیدمی آنفولانزا
38452
آیا می توان از استقلال یک نمونه واحد (از چند نقطه داده) نسبت به توزیع اساسی صحبت کرد؟ یا اینکه استقلال فقط بین نمونه ها مرتبط است؟
استقلال یک نمونه؟
86273
من سعی می‌کنم احتمال ورود به سیستم را برای یک رگرسیون حداقل مربعات غیرخطی تعمیم‌یافته برای تابع $f(x)=\frac{\beta_1}{(1+\frac x\beta_2)^{\beta_3}}$ بهینه‌سازی شده محاسبه کنم. توسط تابع gnls در بسته R nlme، با استفاده از ماتریس کوواریانس واریانس ایجاد شده توسط فواصل در یک درخت فیلوژنتیک با فرض براونی حرکت (corBrownian(phy=tree) از بسته میمون). کد R تکرارپذیر زیر با مدل gnls با استفاده از داده‌های x,y و درخت تصادفی با 9 گونه مطابقت دارد: need(ape) require(nlme) need(expm) درخت <- rtree(9) x <- c(0,14.51, 32.9،44.41،86.18،136.28،178.21،262.3،521.94) سال <- c(100,93.69,82.09,62.24,32.71,48.4,35.98,15.73,9.71) مدل <- data.frame(x,y,row.names=tree$tip.label) مدل <- y~beta1/ ((1+(x/beta2))^beta3) f=function(بتا،x) beta[1]/((1+(x/بتا[2]))^بتا[3]) شروع <- c(beta1=103.651004,beta2=119.55067,beta3=1.370105) همبستگی <- corBrownian(phy=tree) مناسب <- gnls (model=model,data=data,start=start,correlation=conrelation) logLik(fit) من می‌خواهم احتمال ورود به سیستم را «با دست» (در R، اما بدون استفاده از تابع «logLik») بر اساس پارامترهای تخمینی به‌دست‌آمده از «gnls» محاسبه کنم تا با خروجی «logLik» مطابقت داشته باشد. مناسب)`. توجه: من سعی نمی کنم پارامترها را تخمین بزنم. من فقط می‌خواهم احتمال log پارامترهای تخمین زده‌شده توسط تابع «gnls» را محاسبه کنم (اگرچه اگر کسی نمونه‌ای تکرارپذیر از نحوه تخمین پارامترها بدون «gnls» داشته باشد، بسیار علاقه مند به دیدن آن هستم!). من واقعاً مطمئن نیستم که چگونه این کار را در R انجام دهم. نماد جبر خطی که در مدل‌های اثرات مختلط در S و S-Plus (پینهیرو و بیتس) توضیح داده شده است، بسیار زیاد است و هیچ یک از تلاش‌های من مطابقت نداشت. logLik(fit)`. در اینجا جزئیات توصیف شده توسط پینیرو و بیتس آمده است: احتمال ورود به سیستم برای مدل حداقل مربعات غیرخطی تعمیم یافته $y_i=f_i(\phi_i,v_i)+\epsilon_i$ که $\phi_i=A_i\beta$ به صورت زیر محاسبه می شود: $ l(\beta,\sigma^2,\delta|y)=-\frac 12 \Bigl\{ N\log(2\pi\sigma^2)+\sum\limits_{i=1}^M{\Bigl[\frac{||y_i^*-f_i^*(\beta)||^2}{ \sigma^2}+\log|\Lambda_i|\Bigl]\Bigl\}}$ که در آن $N$ تعداد مشاهدات است، و $f_i^*(\beta)=f_i^*(\phi_i,v_i)$. $\Lambda_i$ مثبت-معین است، $y_i^*=\Lambda_i^{-T/2}y_i$ و $f_i^*(\phi_i,v_i)=\Lambda_i^{-T/2}f_i(\phi_i ,v_i)$ برای $\beta$ و $\lambda$ ثابت، برآوردگر ML $\sigma^2$ $\hat\sigma(\beta,\lambda)=\sum\limits_{i=1}^M||y_i^*-f_i^*(\beta)||^2 / N$ و نمایه log- است احتمال است $l(\beta,\lambda|y)=-\frac12\Bigl\{N[\log(2\pi/N)+1]+\log\Bigl(\sum\limits_{i =1}^M||y_i^*-f_i^*(\beta)||^2\Bigl)+\sum\limits_{i=1}^M\log|\Lambda_i|\Bigl\}$ که با الگوریتم Gauss-Seidel برای یافتن تخمین های ML $\beta$ و $\lambda$ استفاده می شود. یک تخمین سوگیری کمتر از $\sigma^2$ استفاده شده است: $\sigma^2=\sum\limits_{i=1}^M\Bigl|\Bigl|\hat\Lambda_i^{-T/2}[y_i - f_i(\hat\beta)]\Bigl|\Bigl|^2/(N-p)$ که $p$ نشان دهنده طول $\beta$ است. من لیستی از سوالات خاصی را که با آنها روبرو هستم جمع آوری کرده ام: 1. $\Lambda_i$ چیست؟ آیا ماتریس فاصله تولید شده توسط «big_lambda <\- vcv.phylo(tree)» در «میمون» است، یا باید به نحوی با $\lambda$ تغییر یا پارامتر شود یا چیز دیگری کاملاً؟ 2. آیا $\sigma^2$ fit$sigma^2 خواهد بود، یا معادله تخمین با سوگیری کمتر (آخرین معادله در این پست)؟ 3. آیا استفاده از $\lambda$ برای محاسبه log-relihood ضروری است یا این فقط یک مرحله میانی برای تخمین پارامتر است؟ همچنین $\lambda$ چگونه استفاده می شود؟ آیا این یک مقدار است یا یک بردار، و آیا در همه عناصر $\Lambda_i$ ضرب می شود یا فقط عناصر خارج از مورب و غیره؟ 4. $||y-f(\beta)||$ چیست؟ آیا در بسته «ماتریس» «norm(y-f(fit$ضرایب، x)، «F»)» خواهد بود؟ اگر چنین است، من در مورد نحوه محاسبه مجموع $\sum\limits_{i=1}^M||y_i^*-f_i^*(\beta)||^2$ سردرگم هستم، زیرا `norm()` یک مقدار واحد، نه یک بردار را برمی گرداند. 5. چگونه می توان $\log|\Lambda_i|$ را محاسبه کرد؟ آیا «log(diag(abs(big_lambda)))» است که «big_lambda» $\Lambda_i$ است یا «logm(abs(big_lambda))» از بسته «expm» است؟ اگر logm() باشد، چگونه می توان مجموع یک ماتریس را بدست آورد (یا به طور ضمنی گفته می شود که فقط عناصر مورب است)؟ 6. فقط برای تأیید، آیا $\Lambda_i^{-T/2}$ اینگونه محاسبه می شود: `t(solve(sqrtm(big_lambda)))`؟ 7. $y_i^*$ و $f_i^*(\beta)$ چگونه محاسبه می شوند؟ آیا یکی از موارد زیر است: `y_star <\- t(solve(sqrtm(big_lambda))) %*% y` و `f_star <\- t(solve(sqrtm(big_lambda))) %*% f(fit$ ضرایب،x)» یا «y_star <\- t(solve(sqrtm(big_lambda))) خواهد بود * y` و `f_star <\- t(solve(sqrtm(big_lambda))) * f(fit$ضرایب،x)` ? اگر به همه این سؤالات پاسخ داده شود، از نظر تئوری، من فکر می‌کنم log-likelihood باید برای مطابقت با خروجی «logLik(fit)» قابل محاسبه باشد. هر گونه کمک در مورد هر یک از این سوالات بسیار قدردانی خواهد شد. اگر چیزی نیاز به توضیح دارد، لطفا به من اطلاع دهید. با تشکر **به روز رسانی**: من در حال آزمایش احتمالات مختلف برای محاسبه log-relihood بوده ام و در اینجا بهترین چیزی است که به دست آورده ام.
محاسبه احتمال ورود به سیستم با دست برای رگرسیون حداقل مربعات غیرخطی تعمیم یافته (nlme)
10303
با استفاده از OLS، معادله زیر را تخمین زده‌ام: $y_i = \alpha_0 + \alpha_1 X_i + \epsilon_i$ می‌دانم که از نظر تئوری، موارد زیر باید درست باشد: $y_i = a + (1-e^{-\lambda 60 }) X_i$ آیا راهی وجود دارد که با برآورد $\alpha_1$ بتوانم آن را به تخمین $\lambda$ ترجمه کنم؟ به عنوان پیگیری، اگر این بدون مشکل امکان پذیر نیست، اگر می دانستم توزیع $\alpha_1$ یک توزیع نرمال با مقداری میانگین و واریانس است، آیا راهی برای توصیف شکل توزیع $\lambda وجود دارد. دلار خواهد بود؟ من احساس می‌کنم که یک توزیع لاگ خطی خواهد بود، اما مطمئن نیستم که میانگین/واریانس آن چیست.
استفاده از ضریب OLS برای تخمین ضریب غیر خطی
45372
ما روی پروژه‌ای کار کرده‌ایم که در آن 2 یا چند نماینده معاملاتی در یک سهام بازار داریم و برای نتیجه، سودهایی را داریم که هر معامله‌گر پس از اجرای 1000 بار یا بیشتر در هر جلسه بازار به دست آورده است. ما باید سود این معامله‌گران را از نظر آماری مقایسه کنیم تا بدانیم کدام یک بهتر است، ما ایده استفاده از فواصل اطمینان در میانگین را داریم و همچنین به استفاده از U-Test فکر می‌کنیم اما مطمئن نیستیم که آیا استفاده از آن مناسب است یا خیر. آن را برای چنین نمونه های بزرگ و مقایسه بیش از 2 معامله گر. هر گونه کمکی قدردانی خواهد شد. با تشکر
کمک در تجزیه و تحلیل آماری سود
80880
من چندین مقاله و سؤالات CrossValidated در مورد بوت استرپینگ دیده ام (مثلاً این، این یا این). توضیحات نظری و آماری زیادی وجود دارد، با این حال از آنجایی که آنها بسیار مبتنی بر نظریه هستند، می ترسم که استفاده را اشتباه متوجه شده باشم. از این رو سؤالات من: 1) هنگامی که من یک راه‌اندازی ناپارامتری (تغییر نمونه برای هر اجرا) با رگرسیون لجستیک روی داده‌هایم انجام می‌دهم، اساساً برای هر پیش‌بینی‌کننده برای هر اجرا چندین ضرایب مختلف به دست می‌آورم. در نهایت من فاصله اطمینان برای هر پیش بینی کننده را نیز خواهم داشت. تا اون موقع میفهمم سوال من این است؛ با فرض نرمال بودن توزیع، وقتی می‌خواهم یک مدل نهایی در تمرین ارائه کنم، آیا می‌توانم فقط میانگین فواصل اطمینان را برای هر پیش‌بینی‌کننده بگیرم و آن را به عنوان ضریب مدل نهایی خود در نظر بگیرم؟ 2) اگر پاسخ سوال شماره 1 مثبت است، آیا این تنها راه انتخاب ضرایب در هنگام بوت استرپ است؟ اگر نه، چه چیز دیگری؟ من در چند مقاله دیگر با روشی به نام کیسه کشی مواجه شدم. به نظر می رسد این هدف اصلی من باشد. 3) این یکی بیشتر یک سوال کنجکاوی است: آیا روش‌شناسی فوق می‌تواند برای پیش‌بینی‌کننده‌های طبقه‌بندی زمانی که وزن شواهد به آنها اختصاص داده می‌شود، اعمال شود؟ من می‌دانم که می‌توانیم پیش‌بینی‌کننده‌های طبقه‌بندی را به متغیرهای ساختگی تقسیم کنیم. اما اگر بخواهم از روش WOE استفاده کنم با هر ضریب چگونه رفتار می کنم؟
ضرایب بوت استرپینگ در رگرسیون لجستیک
868
من امشب یک صفحه گسترده اکسل سریع و سرگرم کننده ایجاد کردم تا پیش بینی کنم که در صورت خرید از کدام بازی های ویدیویی لذت خواهم برد. من نمی دانم که آیا این مثال سریع از دیدگاه رگرسیون لجستیک منطقی است و آیا من تمام مقادیر را به درستی محاسبه می کنم. متأسفانه، اگر همه کارها را به درستی انجام دادم، شک دارم که منتظر چیزهای زیادی در XBOX یا PS3 خود باشم ؛) چند دسته بندی کردم و آنها را به همین ترتیب وزن کردم (صفحه گسترده واقعی دو برابر یا بیشتر فهرست می کند): ` 4 4 3 1 بصری خیره کننده و هیجان انگیز هنری ورزشی، سپس چند بازی را که دارم مرور کردم و به آنها در هر دسته امتیاز دادم (امتیاز 0-4). سپس یک سلول جداگانه را به عنوان مقدار Beta_0 تنظیم کردم و آن را تنظیم کردم تا زمانی که درصدهای حاصل تقریباً درست به نظر برسند. در مرحله بعد رتبه‌بندی‌های مورد انتظارم را برای بازی‌های جدیدی که **منتظرشان بودم* وارد کردم و درصدهایی را برای آن‌ها دریافت کردم. مثال: Beta_0 := -35 ` 4 4 3 1 بصری خیره کننده هنری هیجان انگیز ورزشی 4 4 0 1 ` به صورت P = 1 / [1 + e^(-35 + (4*4 + 4*4 + 3*) محاسبه می شود 0 + 1*1)] P = 88.1% اگر بخواهم رگرسیون را خودکار کنم، درست فکر می کنم که می خواهم Beta_0 را تنظیم کنید تا نمونه‌های آموزشی مثبت به نمایش درآیند و نمونه‌های آموزشی منفی پایین بیایند. من مشتاقم بیشتر یاد بگیرم.
آموزش مدل رگرسیون لجستیک
44027
با توجه به متغیرهای $X$ و $Y$ که همبسته هستند، $X\ge0$، $Y\ge0$ و هر کدام از یک توزیع گاما با پارامترهای شکل متفاوت پیروی می‌کنند، یعنی $X\sim Gamma(a_1،\alpha) $ و $Y\sim Gamma(a_2،\alpha)$. فهمیدم که Joint PDF $f_{X,Y}(x,y)$ را می توان با استفاده از کوپولای دو متغیره Farlie Gumbel Morgenstern (FGM) که برای پارامترهای شکل مختلف قابل استفاده است به دست آورد. PDF مشترک با $$h_{X,Y}(x,y) = f_X(x)f_Y(y) \left[1+\lambda\left(2F_X(x)-1\right)\left( داده می شود 2F_Y(y)-1\right)\right]،\quad |\lambda|\le 1 $$ که $f(.)$ نشان دهنده PDF حاشیه و $F(.)$ است. نشان دهنده CDF حاشیه ای است. سوالات اصلی من این است: * چگونه می توان ارزش $\lambda$ را تعیین کرد؟ * آیا درست است که کوپلا FGM فقط برای همبستگی ضعیف استفاده می شود؟ * آیا روش دیگری برای محاسبه ضریب همبستگی پیرسون به جای معادله داده شده توسط $$ \rho = \lambda K(a_1)K(a_2)$$ وجود دارد که $K(a)=\displaystyle\frac{1}{2^ {2a-1} \beta(a,a) \sqrt{a}}$ and $\beta(.,.)$ تابع بتا است.
توزیع گامای دو متغیره Farlie-Gumbel-Morgenstern
6281
من در حال حل مشکل تمرینی برای تکالیف آماری خود هستم. ما از فواصل اطمینان برای یافتن محدوده ای استفاده می کنیم که میانگین واقعی در آن قرار دارد. من در درک چگونگی یافتن اندازه نمونه مورد نیاز برای تخمین میانگین واقعی در حدود 0.5% مشکل دارم. من درک می کنم که چگونه می توانم مشکل را زمانی که محدوده به عنوان یک عدد داده می شود، مانند +- 0.5 میلی متر، حل کنم. چگونه درصدها را مدیریت کنم؟
نحوه استفاده از فواصل اطمینان برای یافتن میانگین واقعی در یک درصد
5213
فرض کنید من یک نمونه $(y_i,x_i)$, $i=1,...,n$ را مشاهده می کنم. فرض کنید من موارد زیر را می دانم: $y_i=\alpha_0+\alpha_1x_i+\varepsilon_i$, $i \in J\subset\{1,...,n\}$ $y_i=\beta_0+\beta_1x_i+\varepsilon_i$, $i \در J^c$ که $\varepsilon_i$ i است. من د و $J$ از قبل مشخص نیست. آیا می توان $\alpha_0،\alpha_1،\beta_0،\beta_1$ را تخمین زد؟ یا حداقل این فرضیه را آزمایش کنید که $J=\varnothing$؟ اگر $J$ شناخته شده باشد، حل مشکل بسیار آسان است. گذر از تمام زیر مجموعه ها امکان پذیر نیست، زیرا ما ترکیبات احتمالی $2^n$ داریم. اگر $J=\{1,...,k\}$ را با $k=1,...,n$ مجهول فرض کنیم، مشکل نقطه تغییر کلاسیک است که تست های زیادی برای آن موجود است. من گمان می کنم که این مشکل ممکن است بد باشد، بنابراین می خواستم قبل از تلاش برای حل آن بررسی کنم. در اینجا یک تصویر ساده از مشکل وجود دارد: N <- 200 s1 <- نمونه (1:N,N %/% 2) s2 <- (1:N)[!(1:N) %in% s1] x < - rnorm(N) eps <- rnorm(N) ind <- 1:N y <- rep(NA,N*T) y[ind %in% s1] <- 2+0.5*x[ind %in% in% s1]+eps[ind %in% in% s1]/5 y[ind %in% in% s2] <- 1+1*x[ind %in% s2]+eps[ind % در% s2]/5 y sal1 <- ind %in% s1 نمودار (x، y) نقاط(x[sal1]، y[sal1]، col=2) abline(2, 0.5, col=2) abline(1, 1) از نظر گرافیکی کم و بیش واضح است که ما دو مدل متفاوت داریم. شاید بتوان از تکنیک های طبقه بندی یا داده کاوی برای حل این مشکل استفاده کرد؟
تشخیص بین دو مدل رگرسیون خطی مختلف در یک نمونه
81822
من می خواهم یک CRBM ایجاد کنم که توالی داده ها را یاد بگیرد. از آنجایی که داده‌ها می‌توانند بسیار پیچیده باشند، می‌خواهم از چندین لایه استفاده کنم، اما در مورد نحوه استفاده از چندین لایه مشکل دارم. من این مقاله را در مورد Deep RBM پیدا کردم. این در مورد چگونگی آموزش چندین لایه است. مشکلی که من با این مقاله دارم در معادله 19 است: می گوید h1 به v و h2 بستگی دارد، اما وقتی تازه شروع به دادن داده به RBM می کنم، هیچ مقداری برای h2 وجود ندارد، پس چگونه h1 را تولید کنم؟ همچنین، چگونه این الگوریتم با اتصالات مورد استفاده برای مقادیر تاریخچه مانند CRBM ها استفاده می شود؟ اگر کسی نمی داند چگونه به سؤال مربوط به مقاله پیوند داده شده پاسخ دهد، خوشحال می شوم اگر کسی بتواند به من نشان دهد CRBM چقدر عمیق آموزش داده می شود و مورد استفاده قرار می گیرد، CRBM یک لایه من به خوبی کار می کند.
Deep (C)RBM - چگونه داده تولید کنیم؟
85561
من مجموعه ای از احزاب دارم $V=\left\{ {V_i, V_j,..., V_n}\right\}$. هر حزب دارای ویژگی مربوطه $S=\left\{ {S_i, S_j,..., S_n}\right\}$ است که تعداد افراد شرکت کننده در رویداد را نشان می دهد. برای هر جفت رویداد $V_i$ و $V_j$ می توانم تعداد شرکت کنندگان مشترک را به عنوان $E_{ij}$ استنتاج کنم، با $E_{ij}=0$ به این معنی که هیچکس در هر دو طرف شرکت نمی کند. اکنون می‌خواهم از داده‌هایم استفاده کنم تا با توجه به $S_i$ و $S_j$، توزیع احتمال را برای $E_{ij}$ تخمین بزنم تا مشخص کنم کدام جفت از $V_i$ و $V_j$ دارای $E_{ بالاتر/پایین‌تر هستند. ij}$ از حد انتظار با توجه به داده ها. به عبارت دیگر، من می خواهم برای هر $E_{ij}$ توزیع احتمالی مانند این را ببینم ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/C8mxs.jpg) که (من حدس می زنم ) باید به من بگویید که با توجه به $S_i$ و $S_j$، $E_{ij}$ به عنوان احتمال 0.2 از 3 بودن، 0.23 از 4 بودن، و غیره. سپس اگر مقدار_واقعی $E_{ij}$ باشد، فرض کنید 10 باشد، من در موقعیتی هستم که بگویم $E_{ij}$ با توجه به بقیه داده ها مقدار غیرمنتظره ای دارد. آیا انجام آن منطقی است؟ چگونه باید توزیع احتمال را برای $E_{ij}$ محاسبه کنم؟ آیا باید از رگرسیون خطی با $S_i$ و $S_j$ به عنوان متغیرهای مستقل استفاده کنم؟ توجه: شکل در R با کد زیر ایجاد شده است: x = rbinom(100000, 20, 0.2) plot(prop.table(table(x)),type=l)
محاسبه توزیع احتمال برای n از شرکت کنندگان مشترک بین دو طرف با توجه به اندازه آنها
33817
من تجربه عملی نسبتا خوبی با نمونه‌برداری Metropolis-Hastings و Gibbs دارم، اما می‌خواهم درک ریاضی بهتری از این الگوریتم‌ها داشته باشم. چند کتاب یا مقاله خوب وجود دارد که درستی این نمونه‌برها را ثابت می‌کند (الگوریتم‌های بیشتر نیز عالی خواهد بود)؟
کتاب درسی مشتق کلان شهر-هیستینگز و نمونه گیری گیبس
85563
من سعی می کنم یک GLM دو جمله ای منفی را برای داده های صید ماهی با ماه از سال (عامل) به عنوان متغیر توضیحی خود جا بزنم. من ماه با بیشترین تعداد شکار را به عنوان سطح مرجع انتخاب کردم و مدل را با استفاده از تابع glm.nb() از بسته MASS برازش کردم. model1<-glm.nb(catch~month+offset(log(Duration_hours*NumberHooksDeployed))، catchdata) استفاده از anova(model1) نشان می دهد که فاکتور ماه قابل توجه است و شبه $R^2$ من حدود 55 است. ٪. مشکلی که من دارم این است که ماه هایی که اصلاً گیر ندارند، مقادیر p بیشتر از 0.05 (نزدیک به 1) دارند، حتی اگر انتظار داشته باشم که آنها به طور قابل توجهی کمتر از سطح مرجع باشند. از سوی دیگر، ماه هایی که فقط صید بسیار کمی دارند، قابل توجه هستند. خروجی تابع 'predict()' منطقی است، بنابراین فکر می کنم مدل باید خوب باشد. آیا با استفاده از تست احتمال R مشکلی وجود دارد یا اینکه من مدل اشتباهی را در داده های خود قرار می دهم؟ از پست های دیگر متوجه شدم که ممکن است مجبور باشم به جای آزمون والد از نسبت احتمال استفاده کنم. پیشنهادی در مورد نحوه انجام این کار در R دارید؟ هر گونه کمکی بسیار قدردانی خواهد شد. خروجی مدل را در زیر ببینید، ماه‌هایی که 0 گیر دارند، می و ژوئن هستند: تماس: glm.nb (فرمول = NumCaught ~ ضریب(ماه) + افست (log(Effort_mins * Nhooks))، داده = f[f$Area == PW، ]، init.theta = 1.181267049، پیوند = گزارش) باقیمانده انحراف: حداقل 1Q میانه 3Q Max -1.8445 -0.7766 -0.2148 0.0000 1.5386 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) -2.647e+00 3.192e-01 -8.292 < 2e-16 *** ضریب(ماه)مه -2.754e+01 1.024e+05 0.000 0.999785 ضریب(ماه) ) ژوئن -2.790e+01 3.122e+05 0.000 0.999929 ضریب(ماه)سپتامبر -2.516e+00 6.516e-01 -3.861 0.000113 *** ضریب(ماه)دسامبر -1.112e-01 4.112e-01 4.112e-01 4.116e+00 -3.861 -3.861 -3.861 Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دوجمله ای منفی (1.1813) 1) انحراف صفر: 80.420 در 45 درجه آزادی باقیمانده انحراف: 36.178 در 41 درجه آزادی AIC: 140.81 تعداد تکرار Fisher Scoring: 1 Theta: 1.181 Std. خطا: 0.525 2 x احتمال ورود به سیستم: -128.815
مقادیر p غیر معنی‌دار برای سطوح عامل با تنها 0s در glm دوجمله‌ای منفی با استفاده از glm.nb() در R
866
بگویید من می‌خواهم تعداد زیادی از پارامترها را تخمین بزنم، و می‌خواهم برخی از آنها را جریمه کنم زیرا معتقدم در مقایسه با بقیه باید تأثیر کمی داشته باشند. چگونه تصمیم بگیرم از چه طرح جریمه استفاده کنم؟ چه زمانی رگرسیون پشته مناسب تر است؟ چه زمانی باید از کمند استفاده کنم؟
چه زمانی باید از lasso vs ridge استفاده کنم؟
11628
من در حال تجزیه و تحلیل نمرات داده شده توسط شرکت کنندگان در یک آزمایش هستم. من می خواهم پایایی پرسشنامه خود را که از 6 گویه تشکیل شده است با هدف تخمین نگرش شرکت کنندگان نسبت به یک محصول تخمین بزنم. من آلفای کرونباخ را محاسبه کردم و همه موارد را به عنوان یک مقیاس واحد در نظر گرفتم (آلفا حدود 0.6 بود) و هر بار یک مورد را حذف کردم (حداکثر آلفا حدود 0.72 بود). من می دانم که بسته به تعداد موارد و ابعاد ساختار زیربنایی می توان آلفا را دست کم گرفت و بیش از حد تخمین زد. بنابراین من یک PCA را نیز انجام دادم. این تجزیه و تحلیل نشان داد که سه مولفه اصلی وجود دارد که حدود 80 درصد از واریانس را توضیح می دهد. بنابراین، تمام سوالات من این است که چگونه می توانم اکنون ادامه دهم؟ * آیا باید محاسبات آلفا را در هر یک از این ابعاد انجام دهم؟ * آیا مواردی را که بر قابلیت اطمینان تأثیر می گذارند حذف کرده ام؟ علاوه بر این، با جستجو در وب دریافتم که معیار دیگری برای قابلیت اطمینان وجود دارد: lambda6 از guttman. * تفاوت اصلی این معیار با آلفا چیست؟ * ارزش خوب لامبدا چیست؟
ارزیابی پایایی پرسشنامه: ابعاد، موارد مشکل ساز و اینکه آیا از آلفا، لامبدا6 یا شاخص دیگری استفاده شود؟
44021
من به خانواده ای از توزیع های چند متغیره علاقه مند هستم که می توانند به عنوان تعمیم توزیع نرمال چند متغیره دیده شوند، تا جایی که با یک مقدار انتظار $\vec \mu$ و یک ماتریس کوواریانس $\Sigma$ به اضافه یکنواخت کاهشی تعریف می شوند. تابع $g(d)$ طوری که چگالی آن $$ p(\vec x) \propto g \left ( \Delta(\vec x, \vec \mu) \right ) $$ جایی که $$ \Delta(\vec a, \vec b) = \sqrt { (\vec a - \vec b)^T \Sigma^{-1} (\vec a - \vec ب) } $$ فاصله Mahalanobis است. نرمال چند متغیره البته با $g(d) = \exp (- \frac12 d^2 )$ بازیابی می شود. **اولین سوال** من این است: نام این خانواده از توزیع ها چیست؟ ساده است که نشان دهیم برای طبقه بندی یک داده داده شده به یکی از دو یا چند کلاس که هر کدام با چنین چگالی با $\mu$ متفاوت اما یکسان $\Sigma$ و $g(d)$ توصیف می شوند، ساده است. مرزهای طبقه بندی بهینه به صورت تکه ای خطی هستند (هیپرصطح). **سوال دوم** من این است: آیا این یک نتیجه استاندارد است و اگر بله، مرجع استاندارد ادبیات (کتاب درسی) آن چیست؟
تعمیم توزیع نرمال چند متغیره و طبقه بندی
81820
من در حال حاضر در حال کار بر روی یک کتاب درسی یادگیری ماشین هستم و فقط کمی در مورد اعتبار سنجی متقاطع k-fold مطالعه می کنم، و من در مورد موارد زیر متعجب هستم. من می خواهم یک پارامتر را تخمین بزنم، به عنوان مثال. یک پارامتر جریمه برای روش احتمال جریمه شده برای انجام این کار، من می‌توانم دو کار متفاوت انجام دهم: 1. از داده‌های آموزشی نمونه‌برداری می‌کنم به طوری که به‌طور مساوی برابر بزرگ‌ترین چین‌ها را به دست می‌آورم، و برای هر فولد از چین‌های دیگر به‌عنوان داده‌های آموزشی استفاده می‌کنم تا تخمینی برای $y$ بدست آوریم. و من این تخمین ها را با $y$ واقعی از قسمت مورد نظر مقایسه می کنم. من این کار را برای هر انتخاب جالب پارامترم انجام می دهم و پارامتری را انتخاب می کنم که کمترین خطا را داشته باشد، به طور میانگین روی همه تاها و همه اعضای هر فولد. 2. من از داده های آموزشی نمونه برداری می کنم تا 2 مجموعه به همان اندازه بزرگ به دست بیاورم که یکی از آنها را به عنوان داده های آموزشی برای پیش بینی خطای مجموعه دیگر استفاده می کنم. برای هر لامبدا جالب، میانگین خطا را یادداشت می کنم. سپس، داده‌ها را دوباره نمونه‌برداری می‌کنم تا 2 مجموعه (متفاوت) به همان اندازه بزرگ به دست بیاورم، جایی که روش بالا را تکرار می‌کنم. من در مجموع $k$ بار نمونه برداری می کنم و از اینها میانگین می گیرم تا بهترین پارامتر را برآورد کنم. رویکرد دوم نسبتاً ساده به نظر می رسد، و من نمی دانم که آیا مشکلی در آن وجود دارد. آیا به طور کلی دلایلی وجود دارد که چرا روش 1 را بر روش 2 ترجیح می دهیم؟ آیا دلایل محاسباتی یا حتی آماری وجود دارد؟
چرا اعتبار سنجی متقاطع k-fold ایده بهتری نسبت به نمونه برداری مجدد k-time اعتبار واقعی است؟
57069
من یک سری اشیاء دارم که احتمال تعلق آنها به 10 کلاس را می دانم. این احتمال می تواند صفر باشد (به مثال زیر با 4 کلاس نگاه کنید). A B C D 1 0.4 0.0 0.2 0.4 2 0.1 0.3 0.4 0.2 3 0.0 0.0 0.0 1.0 برای اینکه برای هر شیء اطلاعاتی در مورد کیفیت طبقه بندی بدست بیاورم، می خواستم آنتروپی شانون را محاسبه کنم اما کلاس ها زمانی که یکی از آنها را داشته باشد کار نمی کند. احتمالی برابر با صفر (log(0)=-Inf). سوال من: آیا پارامتری مشابه با آنتروپی شانون (یا انطباق) وجود دارد که بتواند احتمال برابر با صفر را مدیریت کند؟
زمانی که احتمال برابر با صفر باشد، جایگزین آنتروپی شانون است
45371
من سعی می‌کنم نوعی الگوریتم بیزی تکراری ایجاد کنم که با جمع‌آوری داده‌های بیشتر، به‌طور مداوم به روز می‌شود. با این حال، توزیع داده‌های من به گونه‌ای است که مزدوج قبلی وجود ندارد، بنابراین من به استفاده از چیزی مانند نمونه‌گیری گیبس برای تولید توزیع پسین خود فکر می‌کنم. با این حال، اگر بخواهم تکرار دیگری از این الگوریتم بیزی را با داده های جدید انجام دهم، آیا بدون پیش از مزدوج ممکن است؟ چون من فقط نمونه های توزیع پسین را دارم، نه توزیع واقعی. با تشکر
به روز رسانی بیزی بدون مزدوج قبلی
104045
من در برخی از تحقیقاتم به مدل جالبی برخوردم و امیدوار بودم کسی با مسافت پیموده شده بیشتر بتواند به من به هر منبع یا برنامه دیگری اشاره کند. من با بتا-دوجمله ای آشنا هستم، اما اکنون سعی می کنم تجزیه و تحلیلی انجام دهم که در آن پارامترهای شکل مرتبط با پیشین بتا RV هایی هستند که به صورت دوجمله ای یا پواسون-دوجمله ای توزیع می شوند. آیا کسی قبلاً این را دیده یا مطالعه کرده است؟
توزیع بتا با پارامترهای شکل تصادفی (دوجمله ای یا دو جمله ای پواسون)
45374
نظرسنجی من بر اساس مشاهدات و مصاحبه ها است. سوالات مشاهده ای از نوع بله / خیر و سوالات مصاحبه 4 امتیازی است. > $1=$ هرگز، $2=$ گاهی اوقات، $3=$ معمولا، و $4=$ همیشه. > بله $=1$، خیر $=0$. اگر همه اینها را با بالاترین امتیاز ممکن جمع کنم و آن را بر مجموع امتیاز دریافتی تقسیم کنم، سپس می توانم نمره کل را برای نظرسنجی بازیابی کنم. به عنوان مثال، فرض کنید من 5 پاسخ برای لیکرت و 5 پاسخ برای بله/خیر دارم. $5\times4$=20$ (با 4 که بالاترین امتیاز ممکن در مقیاس لیکرت است) و $5\times1$ $=5$$ (1$ بالاترین امتیاز ممکن برای سوال بله/خیر است). سپس هر دو را جمع می کنم تا بالاترین امتیاز ممکن را پیدا کنم $=25$. اگر یک امتیاز ترکیبی 20$ بدست بیاورم، آیا آن را بر امتیاز احتمالی 20$\div25=80$% تقسیم کنم؟ آیا می توانم پرسشنامه و محاسبات خود را اینگونه بسازم؟ هدف اصلی من کسب یک درصد / نمره برای کل پرسشنامه است. من به این فکر افتادم که این کار را از دو طریق انجام دهم: 1. مجموع امتیازهای کسب شده را از هر دو مقیاس تقسیم بر کل امتیازات ممکن برای هر دو مقیاس بدست آورید. 2. با استفاده از محاسبه بالا برای مقیاس های فردی، درصدی را بدست آورید که دو مجموعه درصد به من می دهد و سپس یک میانگین برای آن درصدها می گیریم. من مطمئن نیستم که از کدام راه باید بروم، یا اینکه آیا انجام آن از این طریق منطقی است.
مقیاس لیکرت و محاسبه بله/خیر یک نمره
85566
من تفاوت در زمان-فعالیت-بودجه دو جمعیت پرندگان دریایی را مقایسه می کنم، آنهایی که در حضور اختلال کشتی و آنهایی که در حضور اختلال کشتی نیستند. حیوانات کانونی به طور تصادفی انتخاب شدند و تا 10 دقیقه مشاهده شدند. همه حیوانات به مدت 10 دقیقه مشاهده نشدند، اما هدف از این تجزیه و تحلیل ما شامل همه مشاهدات بیش از 3 دقیقه است. به همین دلیل، من نسبت زمان صرف شده را به جای زمان واقعی مدل‌سازی کرده‌ام. در صورتی که انجام تجزیه و تحلیل را آسان‌تر کند، زمان (ثانیه‌ها) صرف شده در هر دسته و کل زمان مشاهده دارم. هر چند این باید به نحوی وزن شود. سه فعالیت (پرواز، غذاخوری، جست‌وجو) تعریف شد و نسبت‌ها به 1 می‌رسد. من علاقه‌مندم به 1. تعیین اینکه آیا زمان صرف شده در پرواز بین دو گروه متفاوت است یا خیر و 2. اگر تفاوت وجود دارد، هر دو فعالیت دیگر کاهش می‌یابد. /افزایش یا فقط یک. پرواز یک فعالیت معمولی برای مشاهده در این گونه نیست و به همین دلیل صفرهای زیادی در داده ها وجود دارد. در اینجا توزیع نسبت زمان صرف شده برای پرواز برای دو جمعیت است![هیستوگرام نسبت زمان صرف شده برای پرواز در هر مشاهده](http://i.stack.imgur.com/G01jR.jpg) من فکر می کنم که باید از خطی تعمیم یافته استفاده کنم مدل سازی با توزیع پواسون باد شده صفر، اما من نمی دانم چگونه می توانم آن را به درستی کار کنم. همچنین به نظر می رسد که داده ها بیش از حد پراکنده شده اند. من در R کار می کنم. هر گونه کمک یا توصیه برای خواندن مقالات قدردانی می شود. با تشکر **به روز رسانی: 2/6/14** من یک مدل دوجمله ای منفی با تورم صفر را اجرا کردم و حضور کشتی و زمان روز به عنوان پیش بینی کننده های مهم ظاهر شد. از آنجایی که داده‌های من در قالب تناسبی بودند، باید داده‌ها را به اعداد صحیح تبدیل می‌کردم بدون اینکه وزنی که نسبت‌ها به من می‌داد از دست بدهم. من تمام نسبت ها را در 600 ضرب کردم (حداکثر زمان مشاهده) و به هر مشاهده اجازه می دادم وزن یکسانی در هنگام استفاده از ثانیه پرواز داشته باشد. میانگین درصد زمان پرواز با حضور کشتی (0،1) و زمان روز (صبح، وسط روز، عصر) بهترین پیش‌بینی شد. زمان‌های پیش‌بینی‌شده نزدیک به زمان‌های مشاهده‌شده مطابقت داشتند. تفسیر: به نظر می رسد که این پرندگان در زمان حضور کشتی ها حدود 3 برابر زمان بیشتری را صرف پرواز می کنند و در هر سه دوره زمانی غایب هستند. سپس می‌خواستم بفهمم که آیا زمانی که کشتی‌ها حضور داشتند کدام فعالیت(ها) را کمتر انجام می‌دادند یا نه (من سه رویداد منحصر به فرد متقابل را اندازه‌گیری کردم: پرواز، جستجوی غذا، یا غواصی). زمان جستجوی غذا نیز به شدت تحت سلطه صفرها بود، بنابراین من آن را به همان روش مدل کردم. این بار هنگام مقایسه بهترین مدل برازش با پیش بینی کننده ها (این بار فقط حضور کشتی) برازش مدل تهی بهبود نیافت (0.10 = p). آیا این ممکن است به این دلیل باشد که توزیع واقعی دوجمله ای منفی با تورم صفر نیست یا می توانم این را به این صورت تفسیر کنم که تفاوت معنی داری در میانگین زمان صرف شده برای جستجوی غذا در زمان حضور و غیاب کشتی ها وجود ندارد؟ اینگونه است که داده های خام به نظر من می رسد. آزمون Mann-Whitney U نیز برای جست‌وجوی غذا معنی‌دار نیست (اگرچه نشان‌دهنده تفاوت است، p = 0.069). با فرض اینکه تفاوت واقعی در جست‌وجوی غذا وجود ندارد و تفاوت قابل توجهی در پرواز وجود ندارد، آیا می‌توانم فرض کنم که پرندگان در این منطقه خاص (من از دامنه استنباط آگاه هستم) زمان اضافی پرواز را با کم کردن غذای کمتر به جای جستجوی غذای کمتر زمانی که کشتی‌ها هستند جبران می‌کنند. موجود (داده های خام این ادعا را تایید می کند). با تشکر از همه ورودی تا کنون.
مقایسه دو گروه با صفرهای زیاد
80888
من سعی می کنم بفهمم چگونه می توان ضریب رگرسیون خطی چندگانه را بدست آورد. فرمول این است: $b = (X'X)^{-1}(X')Y$ من سعی می کنم $b$ را بدون بسته و با بسته `lm` در R محاسبه کنم. با انجام این کار، نتایج متفاوتی دریافت کردم. من می خواهم بدانم چرا. آیا من اشتباه کردم؟ یا بسته `lm` به دلیل رهگیری متفاوت محاسبه می شود؟ > y <- c(1،2،3،4،5) > x1 <- c(1،2،3،4،5) > x2 <- c(1،4،5،7،9) > Y <- as.matrix(y) > X <- as.matrix(cbind(x1,x2)) > beta =sol(t(X) %*% X) %*% (t(X) %*% Y) ; بتا [،1] x1 1.000000e+00 x2 -1.421085e-14 > مدل <- lm(y~x1+x2) ; مدل$ضرایب (Intercept) x1 x2 1.191616e-15 1.000000e+00 1.192934e-15 ![3d](http://i.stack.imgur.com/KHD2q.png) # به روز رسانی همانطور که الکس و دیگری به من گفتند ، این یک سوال از خطای دور زدن بود. بنابراین تصمیم گرفتم اطلاعات دیگری را از کتاب «آمار اساسی برای تجارت و اقتصاد» نوشته اندرسون و همه بگیرم. در این مورد، ضرایب هم در تابع 'lm' و هم در ماتریس خودم یکسان هستند. > y <- c(9.3، 4.8، 8.9، 6.5، 4.2، 6.2، 7.4، 6، 7.6، 6.1) > x0 <- c(1،1،1،1،1،1،1،1،1، 1) > x1 <- c(100,50,100,100,50,80,75,65,90,90) > x2 <- c(4,3,4,2,2,2,3,4,3,2) > Y <- به عنوان. ماتریس(y) > X <- as.matrix(cbind(x0,x1,x2)) > بتا = حل(t(X) %*% X) %*% (t(X) %*% Y);بتا [,1] x0 -0.8687015 x1 0.0611346 x2 0.9234254 > مدل <- lm(y~+x1+x2) ; مدل$ضرایب (Intercept) x1 x2 -0.8687015 0.0611346 0.9234254
استفاده از معادلات نرمال برای محاسبه ضرایب در رگرسیون خطی چندگانه
103922
در بخش 7.10.2 عناصر یادگیری آماری، می گوید که میزان خطای واقعی (تست) هر طبقه بندی کننده 50٪ است. من در درک شهود پشت این مشکل دارم. اگر یک کلاس باینری (1 یا 0) دارید و طبقه‌بندی‌کننده شما یک قالب است که اگر 1-5 را بچرخانید، طبقه‌بندی 1 است و اگر 6 را بسازید، طبقه‌بندی 0 است. سپس فرض کنید که مقدار واقعی شما کلاس باینری 1 است. سپس من فکر می کنم که نرخ خطا در طول زمان به 1/6 همگرا می شود. گزیده ای از متن در زیر آمده است. > یک مشکل طبقه بندی با تعداد زیادی پیش بینی کننده را در نظر بگیرید که ممکن است برای مثال در کاربردهای ژنومی یا پروتئومی ایجاد شود. یک استراتژی معمولی > برای تجزیه و تحلیل ممکن است به شرح زیر باشد: 1. پیش بینی ها را غربال کنید: زیرمجموعه ای از پیش بینی کننده های > خوب را پیدا کنید که همبستگی نسبتاً قوی (تک متغیری) با برچسب های > کلاس نشان می دهند. 2. فقط با استفاده از این زیر مجموعه از پیش بینی ها، یک چند متغیره > طبقه بندی کننده. 3. از اعتبارسنجی متقاطع برای تخمین پارامترهای تنظیم ناشناخته > و تخمین خطای پیش‌بینی مدل نهایی استفاده کنید. آیا این > کاربرد درستی از اعتبارسنجی متقابل است؟ سناریویی با N = 50 > نمونه در دو کلاس با اندازه مساوی، و p = 5000 پیش‌بینی‌کننده کمی > (گاوسی استاندارد) که مستقل از برچسب‌های کلاس هستند را در نظر بگیرید. میزان خطای واقعی > (تست) هر طبقه بندی کننده 50٪ است. ما دستور فوق را انجام دادیم، > در مرحله (1) 100 پیش بینی کننده که بیشترین همبستگی را با برچسب های کلاس > داشتند، و سپس با استفاده از یک طبقه بندی کننده همسایه 1، بر اساس فقط > این 100 پیش بینی، در مرحله (2) انتخاب کردیم. بیش از 50 شبیه سازی از این تنظیمات، > میانگین میزان خطای CV 3٪ بود. این بسیار کمتر از نرخ خطای واقعی > 50 درصد است.
چرا میزان خطای واقعی (تست) هر طبقه بندی کننده 50٪ است؟
45377
سوال من این است که چگونه می توان اندازه های افکت را برای یک مدل مختلط خطی بدست آورد؟ من از مدل زیر در SPSS استفاده می‌کنم: انتقال مختلط با ترتیب چرخش آموزش از راه دور با پیش آزمون / معیارها = CIN(95) MXITER(100) MXSTEP(5) SCORING(1) SINGULAR(0.000000000001) HCONVERGE(0، LCONVERGE0) ، مطلق) PCONVERGE(0.000001، ABSOLUTE) / ثابت = پیش آزمون توالی چرخش آموزش از راه دور * آموزش | SSTYPE(3) /METHOD = REML / REPEATED = فاصله | SUBJECT(ResponseID) COVTYPE(CS). من آن را در R نیز انجام داده ام، جایی که به نظر می رسد: کتابخانه( nlme ) options(contrasts=c(contr.sum,contr.poly)) lm1 <- lme(انتقال ~ آموزش * فاصله + چرخش + sequence + pretest, random=~1|ResponseID, method=REML, data=wide.data ) مناسب <- anova.lme(lm1,type='marginal') print( fit ) dv، انتقال، پیش آزمون تا پس آزمون بهبود را برای سطح معینی از فاصله اندازه گیری می کند. فاصله یک متغیر طبقه بندی شده درون موضوعی با 2 یا 3 سطح بسته به مجموعه داده است. آموزش یک متغیر طبقه بندی شده بین موضوعی با 2 یا 4 سطح بسته به مجموعه داده است. چرخش و توالی متغیرهای باینری مقوله ای بین موضوعات هستند. پیش آزمون یک متغیر کمکی با مقادیر مختلف برای هر سطح از فاصله است. من قبلاً نتایج تجزیه و تحلیل را برای انتشار ارسال کرده‌ام و نظر بازبینی را دریافت کرده‌ام که نسبت‌های شانس را درخواست می‌کند. در حالت ایده‌آل، من می‌خواهم نسبت‌های شانس را برای هر اثر در مدل دریافت کنم. اگر نتوانم نسبت شانس را بدست بیاورم، ممکن است معیارهای دیگری از اندازه اثر خوب باشد. مهمتر از همه، من باید آن را برای آموزش * تعامل فاصله و متغیر کمکی (پیش آزمون) دریافت کنم زیرا اینها تنها اثرات مهم هستند. در حالت ایده‌آل، من آن را مستقیماً از SPSS دریافت می‌کنم، اما تا آنجا که من می‌بینم، SPSS نمی‌تواند این کار را انجام دهد. من هم نمی‌توانستم بفهمم که چگونه این کار را در R انجام دهم. بهترین گزینه دوم این است که خروجی یکی از اینها را در نرم افزار دیگری قرار دهم که بتواند آن را برای من محاسبه کند. من چند نرم افزار رایگان پیدا کردم که می تواند eta-squared را برای ANOVA مختلط معمولی محاسبه کند اما برای مدل مختلط خطی نه. به نظر می رسد سوالات دیگر در مورد اندازه افکت ها به مدل های دیگر مربوط می شود، نه LMM. من یک سوال مشابه دیگر در مورد LMM دیدم که در حال حاضر بی پاسخ است. هر ایده ای؟
اندازه های افکت از LMM
70330
داده های من جفت شده بودند و با حالت عادی مطابقت ندارند. بنابراین من از یک آزمون فریدمن استفاده کردم. با این حال، نتیجه به صورت مجذور کای فریدمن = 0، df = 1، p-value = 1 است. چگونه این اتفاق می افتد؟ داده های من به این صورت بود: I II 1 2 1 2 4 1 3 5 0 4 0 2 5 14 3 6 11 3 7 7 6 8 8 9 9 12 19 10 15 13 11 19 32 12 22 74 13 1 15 2 4 16 1 6 17 5 9 18 1 8 19 6 6 20 8 11 21 12 17 22 26 22 23 38 29 24 43 58 25 71 20
فریدمن chi-squared = 0. به چه معناست؟
70331
در یک خروجی خوشه سلسله مراتبی معمول از استفاده از SAS، اولین جدول داده شده همه مقادیر ویژه را فهرست می کند. از آنچه من درک می کنم، مقادیر ویژه از کوواریانس بین متغیرها به دست می آیند. چیزی که من نمی فهمم این است که چگونه این به من در درک رفتار خوشه بندی اساسی کمک می کند. کسی پاسخ ساده ای می داند که چرا دانستن مقادیر ویژه برای تحلیل خوشه ای مهم است؟ این خروجی است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/uIIhe.png)
من سعی کرده ام استفاده از مقادیر ویژه را در تجزیه و تحلیل خوشه ای مورد استفاده قرار دهم. چه چیزی در مورد رفتار خوشه بندی من به من می گوید؟
108570
این یک سوال نسبتاً اساسی است، اما به نظر نمی رسد که پاسخی در شبکه پیدا کنم (شاید در جستجوی چیزهای اشتباه هستم). رگرسیون سعی در پیش بینی خروجی های پیوسته دارد. از آنجایی که یک شبکه عصبی قبل از خروجی از یک تابع بستن (معمولاً مقداری بین 0 و 1 می دهد) استفاده می کند. اگر خروجی فقط بین 0 و 1 باشد، چگونه یک شبکه عصبی می تواند یک تابع رگرسیون را یاد بگیرد؟ پیشاپیش ممنون
سوال اساسی: چگونه شبکه عصبی فید فوروارد رگرسیون را حل می کند؟
20217
چندین تکنیک نمونه‌برداری مجدد رایج وجود دارد که اغلب در عمل مورد استفاده قرار می‌گیرند، مانند بوت استرپ، تست جایگشت، جک نایف، و غیره. مقالات و کتاب‌های متعددی در مورد این تکنیک‌ها بحث می‌کنند، برای مثال Philip I Good (2010) Permutation, Parametric, and Bootstrap Tests. فرضیه ها سوال من این است که کدام تکنیک نمونه برداری مجدد محبوبیت بیشتری پیدا کرده است و پیاده سازی آن آسان تر است؟ تست های بوت استرپینگ یا جایگشت؟ با تشکر فراوان
تست های بوت استرپینگ در مقابل جایگشت
108571
من از یک شبکه عصبی پیش‌خور ساده در متلب برای پیش‌بینی خروجی برای ورودی‌های محدوده [1e-5، 0.3] استفاده می‌کنم. (اینها فعال سازی های یک شبکه دیگر هستند.) من از یک تابع سیگموئید برای لایه پنهان و یک تابع خطی برای لایه خروجی استفاده می کنم. واحدهای ورودی 6، واحدهای پنهان 4 و واحد خروجی از یک نورون تشکیل شده است. محدوده خروجی ها بین [58، 1696] است. من خروجی ها را هم نرمال کردم و تابع mapminmax را خاموش کردم تا از عادی سازی بیش از حد جلوگیری کنم! به طرز عجیبی، خروجی های منفی ایجاد می کند. ممکنه به خاطر محدوده ورودی باشه؟ ممنون میشم اگر کسی بتونه به من بگه اینجا چه خبره. هر فکری؟ ابتدا باید یک به روز رسانی کنم: تعداد نورون های پنهان را به 10 تغییر دادم. حالا یک بار خروجی های منفی به من می دهد و بار دیگر مثبت. من نمی توانم پاسخی را پیدا کنم مگر اینکه آن را به مقدار اولیه اولیه تصادفی وزن ها مرتبط کنم. این گزیده کد من است: clear all; ویژگی های بارگذاری؛ بارگذاری داده های برچسب. net=feedforwardnet(10); IPF={'fixunknowns','remconstantrows'} ; OPF={'remconstantrows'}; net.trainParam.lr=0.01; net.trainParam.max_fail=10; NN = قطار (شبکه، ویژگی ها، y)؛ %y مقدار نرمال داده label است بنابراین در محدوده[0,1] wb = getwb(NN); net=NN; %% شبکه را آزمایش کنید (نه با داده های تست جدید، بلکه با داده های آموزشی، بنابراین ما انتظار نتایج خوبی را داریم) [pred_learnedFeatures]=net(features); % scaled_out=pred_learnedFeatures*(max(labeldata)-min(labeldata))+min(labeldata); fprintf('MSE با مقیاس‌بندی %f%\n',sum(( pred_learnedFeatures- y).^2)/size(labeldata,2)); fprintf('\n MSE w مقیاس بندی %f%\n',sum(( scaled_out-labeldata).^2)/size(labeldata,2));
شبکه های عصبی خروجی منفی ایجاد می کنند
44023
چرا درست است که همبستگی بین دو ماتریس فاصله را با محاسبه ضریب همبستگی پیرسون بین همه جفت‌های فاصله اندازه‌گیری نکنیم، بلکه به جای آن از آزمون Mantel استفاده کنیم؟ ویرایش: ویکی‌پدیا می‌گوید که چون «فاصله‌ها مستقل از یکدیگر نیستند – از آنجایی که تغییر «موقعیت» یک شی 1-n از این فاصله‌ها را تغییر می‌دهد (فاصله آن شی تا هر یک از موارد دیگر) – ما نمی‌توانیم رابطه بین دو ماتریس به سادگی با ارزیابی ضریب همبستگی بین دو مجموعه فاصله و آزمون معنی‌داری آماری آن، به این مشکل می‌پردازد. این استدلال برای من روشن نیست. چرا وابستگی بین فاصله ها مشکل است؟
آزمون منتل در مقابل ضریب همبستگی پیرسون
70333
من 3 سری زمانی X، Y، Z دارم اگر ضریب رگرسیون (شیب) X و Y **a** باشد، Y و Z **b** باشد، پس در مورد ضریب رگرسیون X و چه می توانم بگویم. ز؟
استنباط ضریب رگرسیون دو متغیر از طریق یک سوم
45373
من می خواهم از مجموعه ای از داده های کیفیت آب روزانه شامل 3 پارامتر در یک مدل Copula استفاده کنم. کسی به من گفت که این داده ها شرط یک متغیر تصادفی برای استفاده در کوپول ندارند، و من باید روی آن کار کنم (حدس من این است که شامل کاهش روند داده ها می شود). آیا کسی می تواند به من در یافتن روش هایی برای آماده سازی داده ها برای استفاده در روش کوپولا کمک کند؟ اگر بتوانید من را به مقالات مجلات یا کتاب های خوب معرفی کنید، ممنون می شوم.
چگونه می توانم داده هایی را آماده کنم که دارای روندی برای استفاده در مدل Copula هستند؟
110618
من یک رگرسیون با خطاهای ARMA دارم که با «arima()» مطابقت دارم. من می دانم که مدل ARMA بر روی این باقیمانده ها از رگرسیون مناسب است. مشکل من این است که وقتی از «include.mean=TRUE» استفاده می‌کنم، خروجی هیچ تخمینی از میانگین (از باقیمانده‌ها، که بله، می‌دانم همیشه صفر است) را برنمی‌گرداند. مستندات می‌گوید که اگر این گزینه روی «TRUE» تنظیم شود، مدل ARMA میانگینی را در بر خواهد داشت. من یک رهگیری گزارش شده می بینم که رهگیری از رگرسیون y روی x است، نه رهگیری از مدل ARMA روی باقیمانده ها. چگونه می توانم آرگومان «include.mean» کار کند؟ آیا راه دیگری برای دریافت رهگیری از مدل ARMA روی باقیمانده ها وجود دارد؟ آیا R فقط این را سانسور می کند زیرا باقیمانده ها همیشه میانگین صفر هستند (اگر فاصله در رگرسیون باشد)؟ MWE در زیر است، پیشاپیش متشکرم. `set.seed(123) y = as.xts(ts(rnorm(20)+3, start=c(1980,1), freq=12)) x = as.xts(ts(rnorm(20)+5 , start=c(1980,1), freq=12)` `fit1 = arima(y, xreg=as.data.frame(x) order=c(1,0,0), include.mean=TRUE) fit1 # وقفه نشان داده شده از رگرسیون است، 3-(-.0935)*(5)، نه برای مدل ARMA باقی مانده`
R، arima() با include.mean=TRUE، هنوز میانگینی گزارش نشده است
87050
من می‌خواهم مدلی را بدون عبارت همبستگی بین اثرات تصادفی با «lme» برازش دهم. در `lmer` این نسبتاً ساده است... # lmer بدون عبارت همبستگی m1 <- lmer(فاصله ~ (1|موضوع) + سن + (0+سن|موضوع) + جنسیت، داده = ارتودنت) VarCorr(m1) # گروه نام Std.Dev. # Subject (Intercept) 1.474105 # Subject.1 سن 0.099979 # Residual 1.402591 با `lme` فکر می کنم بتوانم عبارت همبستگی را با استفاده از مشخصات زیر حذف کنم... # lme بدون عبارت همبستگی؟ m2 <- lme(فاصله ~ سن + جنسیت، داده = ارتودنت، تصادفی = لیست (~ 1 | موضوع، ~-1+ ​​سن | موضوع)) VarCorr(m2) # واریانس StdDev # موضوع = pdLogChol(1) # (برق ) 2.172946296 1.47409169 # موضوع = pdLogChol(-1 + سن) # سن 0.009996006 0.09998003 # Residual 1.967260819 1.40259075 من کاملاً متقاعد نشده‌ام که اینها همان مدل‌ها هستند، تا حدی به این دلیل که نمی‌توانم هیچ منبعی را پیدا کنم که این جزئیات را به طور خاص از نحوه مشخص کردن و مشخص کردن آن مشخص می‌کند. چاپ کمی مبهم است به من... m2 # مدل خطی با جلوه‌های ترکیبی متناسب با REML # داده: ارتودنت # Log-restricted-lihood: -218.3227 # ثابت: فاصله ~ سن + جنسیت # (قطع) سن SexFemale # 17.5806928 0.6601852 #Rame. اثرات: #فرمول: ~1 | موضوع # (Intercept) # StdDev: 1.474092 # # فرمول: ~-1 + سن | موضوع %در% موضوع # سن باقی‌مانده # StdDev: 0.09998003 1.402591 # # تعداد مشاهدات: 108 # تعداد گروه‌ها: # موضوع موضوع.1 %در% موضوع # 27 27 به طور خاص، «موضوع %در% موضوع» به چه چیزی اشاره می‌کند به و چرا باقیمانده به عنوان بخشی از جمله اثر تصادفی دوم در نظر گرفته می شود؟
عبارت حذف برای همبستگی بین اثرات تصادفی در lme و تفسیر خروجی خلاصه
70332
من یک کار حاشیه نویسی دارم که باید آن را برای دقت، تنظیم دقیق دسته بندی و قابلیت اطمینان آنالیز کنم، حاشیه نویس های زیادی وجود دارند که چندین دسته بندی با ارزش را به آیتم ها اختصاص می دهند. و من برای هر جفت حاشیه نویس ماتریس های سردرگمی مانند زیر آورده ام: +-------------------------------- --------+ | |5| . 1 . . . . 2 . . | | 7 |.| . . . . . 5 . 1 | | 34 . |.| . . . 1 4 . 1 | | 7 1 . |.| . . 1 46 . . | | . . . . |.| 1 . . . . | | 5 . . . . |.| . 1 . . | | 5 . . . . . |.| . . . | | 5 . . . . . 1 |2| . 5 | | 198 . 1 . . 2 1 11 |.| 1 | | 1 . . . . . 2 . . |.|| ------------+-----------------------------+ تبدیل آن به یک فاصله بی جهت ماتریس، من موارد بالا را جابجا کردم و میانگین آن را به دست آوردم تا ماتریس متقارن زیر را که باید به عنوان ماتریس فاصله نشان دهم، بدست آوریم: | |5| 3 17 3 . 2 2 3 99 0 | | 3 |.| . 0 . . . 2 . 0 | | 17 . |.| . . . 0 2 0 0 | | 3 0 . |.| . . 0 23 . . | | . . . . |.| 0 . . . . | | 2 . . . 0 |.| . 0 1 . | | 2 . 0 0 . . |.| 0 0 1 | | 3 2 2 23 . 0 0 |2| 5 2 | | 99 . 0 . . 1 0 5 |.| 0 | | 0 0 0 . . . 1 2 0 |.|| من حدود 190 ماتریس از این دست از چندین جفت حاشیه نویس دارم و هیچ چیز مانند مقوله های مرجع و آزمون وجود ندارد زیرا تخصیص دسته حاشیه نویس باید برای تنظیم دقیق و ادغام دسته ها تجزیه و تحلیل شود. بنابراین آیا رویکرد فوق برای شروع درست است و چگونه می‌توان چندین ماتریس (ابعاد) را به یک تجسم واحد تبدیل کرد که به تجزیه و تحلیل دسته‌ها و قابلیت اطمینان بین حاشیه‌نویس جدا از PCA و کاپا معمولی و آمارهای مرتبط اجازه می‌دهد؟ همچنین آیا چنین ماتریس فاصله ای نشانه درستی از اجزای واقعی در PCA برای تجزیه و تحلیل خوشه ای برای تصمیم گیری های بیشتر ارائه می دهد؟
تبدیل ماتریس سردرگمی به ماتریس فاصله
14375
من به دنبال یک بسته R برای محاسبه اندازه نمونه برای تفاوت دو نسبت از طریق اینتروال اطمینان (CI) هستم. توجه داشته باشید که روش‌های مختلفی برای محاسبه CI برای تفاوت نسبت‌ها وجود دارد، و برای برخی از این روش‌ها می‌توان اندازه نمونه را با مداد و کاغذ محاسبه کرد، اما من نمی‌دانستم که آیا بسته‌ای وجود دارد که چندین مورد از این روش‌ها را شامل شود. با تشکر
اندازه نمونه از طریق فواصل اطمینان
18658
من می‌خواهم با استفاده از داده‌های دموگرافیک، بیومارکر پلاسما، ژنتیک و بالینی، نتیجه یک درمان خاص را پیش‌بینی کنم. آیا مدل شبکه عصبی بهترین راه برای انجام این کار است؟ این نسبت به ساخت مدل رگرسیون لجستیک سنتی چه مزایایی دارد؟ بسته به همخطی بودن، تنها با 120 مورد و تا 40 متغیر کمکی چقدر محدود هستم؟ چگونه اینها را جدا کنم؟ من معمولاً تمایل به تحلیل عاملی دارم، اما آیا شبکه عصبی متغیرهای خطی را به طور معقولی ترکیب می کند؟ هر گونه ایده در مورد ترکیب داده های چندوجهی مانند آن مفید خواهد بود، یا نقطه شروعی برای خواندن - در حال حاضر MASS ریپلی را دارد.
مدل شبکه عصبی برای پیش بینی نتیجه درمان
5214
من داده های سانسور شده را در جایی گذاشته ام که توزیع آن مشخص است (حداقل در تئوری به اندازه کافی منطقی است). من می خواهم چند آمار خلاصه ساده را محاسبه کنم: میانگین هندسی و انحراف معیار در این مورد. من قبلاً از پکیج R's `NADA` برای این کار استفاده کرده ام اما دیگر در CRAN نیست. آیا جایگزینی در دسترس است؟ ویرایش: من با Lopaka Lee، نگهدارنده بسته تماس گرفتم و او می‌گوید که در حال کار بر روی به‌روزرسانی بسته برای انتشار آینده R است، بنابراین امیدوارم غیبت بسته موقتی باشد.
چگونه آمار ساده را برای داده های سانسور شده چپ در R محاسبه می کنید؟
18077
من یک اسپلاین مبتنی بر طبیعی را روی مجموعه داده‌ای به این شکل نصب می‌کنم: splineModel=lm(dist~bs(speed, df=3)، data=cars) با استفاده از تابع 'bs' بسته spline. می‌خواهم بدانم آیا می‌توان معادلات اسپلاین واقعی را که در هر گره تعبیه شده است چاپ کرد. من می خواهم ضرایب همه چند جمله ای های برازش تکه ای را داشته باشم.
گرفتن ضرایب اسپلاین در R
95125
در زیر لیستی از پارامترهای رگرسیون لجستیک ماهوت آمده است. 1. «گذر» به چه معناست؟ در جزئیات لطفا > --passes تعداد دفعاتی که از داده های ورودی عبور می کند 2. ویژگی ها به چه معناست؟ آیا تعداد متغیرهایی است که من به عنوان پیش بینی می کنم؟ اما من افرادی را می بینم که در زمان هایی کم و بیش برای تعداد متغیرها وارد می شوند. 3. آیا راهی برای انتخاب متغیرهایی با قدرت پیش بینی خوب در یادگیری ماشین چیزی مانند ضریب جینی وجود دارد؟ 4. چگونه با چند خطی بودن در یادگیری ماشین برخورد کنیم؟ آیا از طریق منظم سازی است؟ در آمار، متغیر را با استفاده از عامل تورم واریانس حذف می کنیم. آیا در یادگیری ماشین محاسبه می شود؟ دستور: mahout trainlogistic Flag هر آرگومان برای پرچم‌گذاری توضیحات - کمک به چاپ این لیست - ساکت بودن بیشتر آرام - ورودی ورودی از کجا دریافت داده‌های آموزشی - خروجی خروجی از کجا دریافت داده‌های آموزشی - هدف هدف نام متغیر هدف -- دسته بندی ها تعداد مقوله های هدفی که باید در نظر گرفته شوند -- پیش بینی کننده ها p [p ...] لیستی از متغیرهای پیش بینی -- انواع t [t ...] لیستی از انواع متغیرهای پیش بینی کننده (عددی، کلمه یا متن) -- تعداد دفعات عبور از داده های ورودی را پاس می دهد -- لامبدا لامبدا مقدار واپاشی ضریب مورد استفاده -- نرخ یادگیری امتیاز دادن به نرخ یادگیری -- بدون تعصب عبارت بایاس را شامل نمی شود -- ویژگی num تعداد ویژگی های هش شده داخلی برای استفاده را مشخص می کند
سوال در مورد پارامترها و انتخاب متغیر در الگوریتم ماهوت برای رگرسیون لجستیک
18651
من این داده‌های توزیع درآمد را برای گروه‌های مختلف دارم: https://docs.google.com/spreadsheet/ccc?key=0Akwg3n_e05cCdEdtT0VZYU5keW5DVkNoNmpBWmdzeUE همانطور که می‌بینید، من فواصل/بین‌هایی با عرض‌های متفاوت دارم. من همچنین یک بازه پایان باز دارم و میانگین درآمد در آن بازه باز بین گروه ها بسیار متفاوت است. **برای اهداف آموزشی، می‌خواهم بتوانم محاسبه کنم که چند نفر و/یا درصد در یک بازه معین، با توجه به عرض سطل مساوی. ** مثال: در یک محور x از 0-2000 با یک bin عرض 10، من می خواهم بتوانم بگویم چند نفر در گروه 590-600 هستند. 1) آیا این کار شدنی است؟ 2) آیا باید توزیعی را در هیستوگرام جا داد یا چگونه این کار را انجام دهم؟ 2b) این هیستوگرام / توزیع را بر چه مبنایی (میانگین، میانه و غیره) قرار می دهید؟ (همانطور که ذکر شد، میانگین در بازه باز بین گروه‌ها بسیار متفاوت است، چیزی که من می‌خواهم آن را در نظر بگیرم = به صورت گرافیکی واقعی نشان داده شود.) 3) لطفاً می‌توانید این را در عملیات ساده ریاضی بر اساس داده‌های داده شده توضیح دهید؟
برازش هیستوگرام/توزیع برای این مجموعه داده با فواصل نابرابر و باز؟
17936
من فرمول احتمال برخی از پارامترها را با توجه به داده ها می دانم. نتیجه باید به حداکثر برسد و من می توانم با استفاده از گزارش از ضرب جلوگیری کنم. چگونه می توانم این مسئله را به یک مشکل کمینه سازی تبدیل کنم (یعنی فرمول داده شده را بازنویسی کنم). من فرض می کنم که به آسانی گرفتن گزارش منفی و اضافه کردن چیزها نیست - یا اینطور است؟ با تشکر مسیحی
سوال برآورد حداکثر احتمال - حداقل احتمال ورود
44028
من در این فکر بودم که هنگام آزمایش اهمیت تعامل بین دو متغیر پیوسته از کدام مقدار p استفاده کنم. در اینجا مدل من با تعامل است: Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 110.2584 23.9969 4.595 0.000417 *** lg_hag 36.0716 18.2778 1.974 0.068510 . raceblack -12.9419 1.8198 -7.112 5.24e-06 *** racemexican -9.0254 2.3207 -3.889 0.001636 ** racemulti/دیگر -9.8012 2.0640 1 -4.04 جنسیس *** 3.9612 1.3405 2.955 0.010442 * age_yr -1.1009 0.1691 -6.511 1.38e-05 *** as.factor(educa)2 6.7660 2.2988 2.9106 2.9106) 14.1302 2.2394 6.310 1.92e-05 *** as.factor(educa)4 15.4776 1.8657 8.296 8.95e-07 *** as.factor(educa)5 19.8650 19.8650 49.8650 2.07-2.05 lg_hag:age_yr -0.5236 0.2555 -2.049 0.07862. بنابراین در این مدل، مقدار p برای برهمکنش 0.07862 است، به معنی محدود می‌شود، با این حال، وقتی مدل را بدون تعامل اجرا می‌کنم، و سپس یک آنووا (با تست مربع کای، زیرا مدل‌ها GLM هستند) بین دو مدل انجام می‌دهم. (با و بدون تعامل)، من یک مقدار p 0.04 دریافت کردم (از نظر من که قرار است مقدار p واقعی تعامل باشد) Working (Rao-Scott) LRT برای lg_hag:age_yr Working 2logLR = 4.199194 p= 0.041893 لطفاً اگر کسی می تواند به من راهنمایی کند که تفاوت بین دو مقدار p چیست و از کدام یک برای تأیید اهمیت تعامل استفاده کنم. . پیشاپیش از شما متشکرم
تفاوت بین مقادیر p تعامل
45952
بنابراین مانند حالت های عنوان، آیا دوره های زمانی در داده های سری زمانی باید فواصل مساوی داشته باشند؟ به عنوان مثال، اگر بخواهیم اطلاعاتی در مورد سطح تحصیلات ثبت شده به تفکیک سال داشته باشیم، آیا به مشاهداتی برای سال های 1996، 1997، 1998،...، 2002 نیاز داریم یا می توانیم داده هایی برای سال های 1996، 2000 و 2004 داشته باشیم؟ به نظر من باید فواصل مساوی داشته باشد، اما فقط می‌خواهم مطمئن شوم که فاصله زمانی مثلاً 1997، 1998، 2000، 2003 قابل قبول نیست.
هنگام برخورد با داده های سری زمانی، دوره های زمانی باید فواصل مساوی باشند یا سالانه؟
71069
برای کلاس آمار، باید نتیجه ای را ثابت کنم که من را به سؤال زیر هدایت می کند. اگر بتوانم نشان دهم که درست است، اثبات من تمام شده است. بنابراین سوال اینجاست. فرض کنید $U: \Omega \rightarrow [0,1]$ یک متغیر تصادفی است که به طور یکنواخت در $[0, 1]$ و $X توزیع شده است: \Omega \rightarrow \mathbb{R}$ به طور پیوسته به عنوان مقداری توزیع $ توزیع می‌شود. F_X(·)$ (که $\Omega$ فضای نمونه است). آیا درست است که > $F_U(U(\bar{\omega})) = F_X(z_{\bar{\omega}})$ برای همه $\bar{\omega} \in > \Omega \inplies z_{ \bar{\omega}}=X(\bar{\omega})$ یا معادل آن، > $P \{\omega \in \Omega~|~ U(\omega) \leq U(\bar{\omega})\} = P \{\omega \in > \Omega~|~ X(\omega) \leq z_{\bar{\omega}}\}$ برای همه $\bar{ \omega} \in > \Omega \به معنای z_{\bar{\omega}}=X(\bar{\omega})$ ? من شک دارم که درست باشد، اما نتوانستم آن را ثابت یا رد کنم.
آیا این درست است که $F_U(U(\bar\omega)) = F_X(z)$ دلالت بر $z=X(\bar\omega)$ دارد؟
18650
سلب مسئولیت: من یک زیست شناس هستم، پس لطفاً در صورت وجود فرضیات نابخردانه در اصلاح من تردید نکنید. من به توزیع یک 6mer منحصر به فرد در یک سری 2100mer نگاه می کنم (من 415 2100mer مستقل دارم). به طور دقیق تر، من به دنبال این هستم که چند بار آن 6mer در هر 2100mer وجود دارد. همانطور که من با توالی DNA سر و کار دارم (A، T، G یا C)، انتظار می رود هر 6mer در DNA تصادفی هر 4096 جفت باز یا 0.51 بار در هر 2100mer یافت شود. به وضوح توزیع غیر عادی (qqplot). بنابراین، من معتقدم که به توزیع قانون قدرت یا آنچه که باید قانون قدرت باشد نگاه می کنم. اکنون ، من می خواهم آن توزیع مشاهده شده را با یک شبیه سازی شده مقایسه کنم و ببینم که آیا آنها یکسان هستند یا خیر. در اینجا تعداد خام آمده است: RawObserved = c(87، 112، 111، 60، 20، 18، 7) RawExpected = c(44.6، 28.7، 19.0، 7.7، 2.0، 1.5، 0.5). NormObserved = c(0.21، 0.27، 0.27، 0.14، 0.05، 0.04، 0.02) NormExpected = c(0.11، 0.07، 0.05، 0.02، 0.00، 0.00، 0.00). بازگشت a نتیجه غیر قابل توجه برای من این توزیع ها بسیار متفاوت به نظر می رسند ، از نظر کیفی و من می خواهم از نظر آماری آن را آزمایش کنم. امیدوارم توضیحات من کافی و منطقی باشد. با تشکر
چگونه دو توزیع قانون توان را با هم مقایسه کنیم؟
18657
فرض کنید من در حال مدل سازی یک نتیجه باینری $y$ با متغیرهای کمکی $n$ هستم. اگر این مدل کمترین AIC را در بین همه مدل های دیگر داشته باشد ... آیا این مورد استفاده قرار می گیرد؟ همچنین در برخورد با متغیرهای دسته بندی باید تمام سطوح را حذف کرد یا هیچ کدام را؟ برای مثال فرض کنید یک متغیر طبقه‌بندی $z$ دارای سطوح زیر است: $z_1، z_2$ و $z_3$. اگر $z_1$ سطح مرجع باشد، من $z_2$ و $z_3$ را در مدل قرار می‌دهم. اگر نمی‌خواهم متغیر $z$ را در مدل وارد کنم...آیا هم $z_2$ و هم $z_3$ را حذف می‌کنم؟ یا می توانم یکی از آنها را اضافه کنم؟
اگر مدل کامل کوچکترین AIC را داشته باشد چه اتفاقی می افتد؟
89654
من بارها یک متغیر پیوسته را اندازه‌گیری کرده‌ام و به هر اندازه‌گیری یک محدوده صدک جمعیتی که در آن قرار می‌گیرد اختصاص داده شده است (محدوده‌های صدک برای جمعیت عمومی در مطالعه دیگری برآورد شد). بارپلات نمونه سهم هر گروه در نمونه من را در زمان های مختلف به تصویر می کشد. می‌خواهم آزمایش کنم که آیا درصد، آن محدوده خاص در یک نقطه زمانی خاص (مثلاً سهم صدک 90-100 در نقطه زمانی ششم) بین گروه من و جمعیت عمومی متفاوت است یا خیر. ساده ترین راه انجام یک آزمون t تک نمونه ای است (مثلاً در برابر میانگین 0.1 در مورد صدک 90 تا 100، زیرا 10 درصد مقادیر بالاتر از صدک 90 در جامعه قرار می گیرند). اما آیا اگر نمونه من کوچک شود، جایگزینی وجود دارد؟ انجام آزمایش دقیق فیشر ایده آل است، اما من هیچ گروه مرجعی ندارم - فقط می توانم فرض کنم که در جمعیت عمومی 10/1 نمونه در آن محدوده صدک قرار می گیرند. ![Imgur](http://i.imgur.com/Kvc9R48.png)
(بسیار ابتدایی) تست تک نمونه ای برای داده های باینری