_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
28068
فرض کنید $k$ 'متخصص' دارم، که می‌خواهم توزیع قبلی روی متغیر X$ را از آنها استخراج کنم. من می خواهم با پول واقعی به آنها انگیزه بدهم. ایده این است که افراد قبلی را استخراج کنیم، تحقق $n$ را از متغیر تصادفی $X$ مشاهده کنیم، سپس تعدادی کیف از پیش تعیین شده را بین متخصصان بر اساس میزان مطابقت پیشینیان آنها با شواهد تقسیم کنیم. روش‌های پیشنهادی برای این بخش آخر، نگاشت پیشین‌ها و شواهد بر روی یک بردار پرداخت چیست؟
استخراج پیشینیان ... با پول!
114411
فرض کنید $\vec{a}$ یک $p$-بردار ناشناخته است، و $\vec{b} \sim \mathcal{N}\left(\vec{a}, \frac{1}{n} را مشاهده کنید. من\راست)$. (به عنوان مثال، میانگین نمونه بر اساس $n$ مشاهدات متغیرهای تصادفی _i.i.d._ با میانگین $\vec{a}$ و کوواریانس $I$.) من می خواهم فواصل اطمینان را بر روی کمیت تصادفی $\ محاسبه کنم. vec{b}^{\top} \vec{a}$، فقط بر اساس $\vec{b}$ مشاهده شده و پارامترهای شناخته شده $n، p$. یعنی برای یک $\alpha \in (0,1)$، $c(\vec{b}, n, p, \alpha)$ را پیدا کنید به طوری که $Pr\left(\vec{b}^{ \top}\vec{a} \le c(\vec{b},n,p,\alpha)\right) = \alpha$. این یک سوال عجیب است زیرا تصادفی بودن که به فواصل اطمینان کمک می کند نیز روی $\vec{b}$ تاثیر می گذارد. رویکرد ساده این است که ادعا کنیم، مشروط به $\vec{b}$, $\vec{a} \sim\mathcal{N}\left(\vec{b}, \frac{1}{n}I\ راست)$، بنابراین $\vec{b}^{\top}\vec{a} \sim\mathcal{N}\left(\vec{b}^{\top}\vec{b}، \frac{\vec{b}^{\top}\vec{b}}{n}I\right)$، اما فکر نمی‌کنم این یک CI مناسب ارائه دهد زیرا $\vec{b}^{\top }\vec{b}$ برای $\vec{a}^{\top}\vec{a}$ تعصب دارد، که مقدار مورد انتظار $\vec{b}^{\top}\vec{a} است. $. ($\vec{b}^{\top}\vec{b}$، تا مقیاس بندی، یک RV غیر مرکزی chi-square است، با پارامتر غیر مرکزی بسته به $\vec{a}^{\top }\vec{a}$؛ مقدار مورد انتظار آن _not_ $\vec{a}^{\top}\vec{a}$ است. به‌طور مثال، می‌توان فرض کرد که $n=1$ با افزایش یا کاهش $\vec{a}، $ $\vec{b}، $ یا خطای عادی در صورت لزوم. **ویرایش** با فرض $n=1$، بدون قید و شرط، $\vec{b}^{\top}\vec{a} \sim\mathcal{N}\left(\vec{a}^{\top} \vec{a}،\vec{a}^{\top}\vec{a}\right)$، و $\vec{b}^{\top}\vec{b} \sim \chi\left(p, \vec{a}^{\top}\vec{a}\right)$، به این معنی که یک متغیر تصادفی غیر مرکزی chi-square است. بنابراین $\vec{b}^{\top}\vec{b} - p$ یک تخمین بی طرفانه از میانگین $\vec{a}^{\top}\vec{b}$ و واریانس آن است. . مورد دوم تا حدودی بی فایده است، زیرا می تواند منفی باشد! من به دنبال هر و همه راه های معقولی برای برخورد با این مشکل هستم. اینها می توانند شامل موارد زیر باشند: 1. یک کران اطمینان مناسب، که یک تابع $c$ از $\vec{b}$ مشاهده شده و $p$ شناخته شده است، به طوری که $Pr\left(\vec{b}^{\top} \vec{a} \le c(\vec{b},p,\alpha)\right) = \alpha$ برای همه $\alpha$ و همه $a$ به طوری که $\vec{a}^{\top}\vec{a} > 0$. 2. اعتماد به نفس محدود شده در انتظار. این تابعی از $\vec{b}$ مشاهده شده است، و $p$ و $\alpha$ شناخته شده است، به طوری که مقدار مورد انتظار غیرشرطی آن مقدار $\alpha$ $\vec{b}^{\top} است. \vec{a}$ برای همه $\vec{a} : \vec{a}^{\top}\vec{a} > 0$. 3. نوعی راه حل بیزی که در آن من می توانم یک عاقل قبل را روی $\vec{a}^{\top}\vec{a}$ مشخص کنم، سپس، با توجه به مشاهده $\vec{b}$، یک پسین در $\vec{b}^{\top}\vec{b}$ و $\vec{a}^{\top}\vec{a}$.
فاصله اطمینان در یک کمیت تصادفی؟
26512
اگر X یک متغیر تصادفی با توزیع نرمال باشد، Y = exp(X) دارای توزیع log-normal است. به همین ترتیب، اگر X یک متغیر تصادفی با توزیع دو جمله ای باشد، Y = exp(X) دارای یک توزیع log-دو جمله ای است. **سوال من** در مورد توزیع log-normal میانگین و واریانس به خوبی شناخته شده است، برای توزیع log-دو جمله ای من هیچ مرجعی پیدا نمی کنم.
میانگین و واریانس توزیع لگ دو جمله ای
111151
آیا ممکن است که تمام پارامترهای یک مدل خطی تعمیم یافته محدود به غیر منفی بودن باشند؟ اگر چنین است، چه زمانی؟ هر نمونه؟
مدل خطی تعمیم یافته غیر منفی
50449
من یک کارشناس آمار سطح کارشناسی ارشد هستم و مدتی است که رگرسیون لجستیک انجام می دهم. من به دوستی کمک می کنم که در حال گذراندن یک دوره آمار پیشرفته است و اصطلاحاتی را که در کار با LR با آنها آشنا نیستم آشنا شده است. یکی از مشکلات تکلیف LR درخواست نرخ دقت تصادفی متناسب مدل، میزان دقت کامل مدل و میزان حساسیت مدل است. من مطمئن نیستم که میزان حساسیت چقدر با میزان دقت متفاوت است. همچنین، پروفسور یک مدل PDA را روی همان مجموعه داده می خواهد تا با LR مقایسه شود. من مطمئن نیستم که مدل PDA چیست یا این اصطلاحی است برای چیزی که معمولاً به عنوان چیز دیگری از آن یاد می شود.
حساسیت رگرسیون لجستیک و اصطلاحات دیگر
22607
از آنچه من متوجه شدم، تابع چگالی احتمال لگ نرمال در پایه-10 به صورت ریاضی به این صورت تعریف می شود: $$ p(x; \mu, \sigma) = \frac{log_{10}(e)}{x \sigma \sqrt{ 2 \pi}} e^{-\frac{(log_{10}(x) - \mu)^2}{2 \sigma^2}} $$ همانطور که هر PDF وجود دارد این تابع نرمال می شود - یعنی روی تمام $x$ یکپارچه می شود (من به صورت عددی ادغام می کنم، با $x$ که به طور یکنواخت بین حدود ادغام توزیع شده است) 1 را به دست می دهد. توزیع یک‌وجهی را نشان می‌دهد که کج/دم سنگین است. حال، اگر درک من درست باشد، توزیع لگ نرمال توزیعی است که در آن لگاریتم متغیر تصادفی به طور معمول توزیع شده است. یعنی، اگر معادله بالا را با توجه به $log_{10}(x)$ رسم کنم، چیزی شبیه گاوسی به دست می‌آید. اگر اشتباه می کنم، مرا تصحیح کنید، اما چیزی که من ترسیم می کنم این است: $$ g(y=log_{10}(x); \mu, \sigma) = \frac{log_{10}(e)}{10^ y \sigma \sqrt{2 \pi}} e^{-\frac{(y - \mu)^2}{2 \sigma^2}} $$ اما اگر این تابع را روی همه $y$ ادغام کنم (I ادغام عددی، با $y$ که به طور یکنواخت بین محدودیت های ادغام توزیع شده است)، من 1 را دریافت نمی کنم (به دلیل ضریب $log_{10}(e)/10^y$). به عبارت دیگر، آنچه من فکر می‌کردم نمایشی جایگزین از همان تابع است، نرمال‌سازی نشده است. بنابراین سوال من این است که آیا دو فرم یک پی دی اف _نه_ معادل هستند، همانطور که در این مورد به نظر می رسد؟ اگر نه دلیلش چیست؟ اگر بله، چه اشتباهی انجام می دهم؟ لطفا کمک کنید! متشکرم.
PDF lognormal Base-10 یکپارچه شده روی log10(x)
95860
من در حال تجزیه و تحلیل یک مطالعه با استفاده از ANOVA ترکیبی 4 طرفه هستم. دارای یک عامل بین موضوعی و 3 عامل درون موضوعی (با سطح 2، 2 و 3). من 9 متغیر وابسته دارم. من آزمایش‌های نرمال بودن را روی داده‌هایم اجرا کردم، و از آنجایی که آن یک ANOVA 2 x 2 x 2 x 3 است، مجبور شدم 24 تست را برای هر متغیر وابسته اجرا کنم. حداقل یکی از آزمون ها با هر متغیر نرمال نیست (آزمون شاپیرو ویلکس معنی دار است). تبدیل داده ها باعث می شود که داده ها حتی کمتر «عادی» شوند. از آنجایی که هیچ آزمایش ناپارامتری برای ANOVA های مختلط وجود ندارد، چه کاری می توانم انجام دهم؟ در سؤالات مشابه دیگر متوجه شدم که گاهی اوقات مردم در مورد طبیعی بودن باقیمانده ها صحبت می کنند، اما چگونه این را بررسی کنم؟ از هر کمکی که می توانید به من بکنید متشکرم، واقعاً از آن سپاسگزارم.
کمک به تجزیه و تحلیل ANOVA ترکیبی 4 طرفه
28067
در این مقاله، محقق با استعداد Cosma Shalizi استدلال می‌کند که برای پذیرش کامل دیدگاه بیزی ذهنی، باید یک نتیجه غیرفیزیکی را نیز پذیرفت که فلش زمان (که توسط جریان آنتروپی داده می‌شود) در واقع باید به عقب برود. این عمدتاً تلاشی برای استدلال علیه حداکثر آنتروپی / دیدگاه بیزی کاملاً ذهنی است که توسط E.T. جینز در LessWrong، بسیاری از مشارکت‌کنندگان به نظریه احتمال بیزی و همچنین به رویکرد بیزی ذهنی به عنوان مبنایی برای تئوری‌های تصمیم‌گیری رسمی و پله‌ای به سوی A.I قوی بسیار علاقه‌مند هستند. Eliezer Yudkowsky یکی از همکاران مشترک آنجاست و من اخیراً داشتم این پست را می خواندم که با این نظر روبرو شدم (چند نظر خوب دیگر کمی بعد از آن در صفحه پست اصلی آمده است). آیا کسی می تواند در مورد صحت رد رد شالیزی توسط یودکوفسکی اظهار نظر کند. به طور خلاصه، استدلال یودکوفسکی این است که مکانیسم فیزیکی که یک عامل استدلال به وسیله آن باورهای خود را به روز می کند، نیاز به کار دارد و از این رو دارای هزینه ترمودینامیکی است که شالیزی در حال جارو کردن آن زیر فرش است. در نظر دیگری، یودکوفسکی از این موضوع دفاع می‌کند و می‌گوید: «اگر دیدگاه یک ناظر کامل منطقی دانای کل را خارج از سیستم داشته باشید، مفهوم «انتروپی» تقریباً بی‌معنی است، زیرا «احتمال» است - هرگز مجبور نیستید از ترمودینامیک آماری برای مدل کردن هر چیزی استفاده کنید، فقط از معادله موج دقیق قطعی استفاده کنید. آیا هر احتمال دان یا مکانیک آماری می تواند در این مورد نظر دهد؟ من خیلی به استدلال های مرجع در مورد موقعیت شالیزی یا یودکوفسکی اهمیت نمی دهم، اما واقعاً مایلم خلاصه ای از راه هایی را ببینم که سه نکته یودکوفسکی نقد مقاله شالیزی را ارائه می دهد. **برای انطباق با دستورالعمل‌های پرسش‌های متداول و تبدیل آن به سؤالی کاملاً قابل پاسخ** لطفاً توجه داشته باشید که من یک پاسخ مشخص و جزئی می‌خواهم که استدلال سه مرحله‌ای یودکوفسکی را در نظر بگیرد و نشان دهد که در مقاله شالیزی، این سه مرحله در کجای مقاله شالیزی فرضیات و/یا رد می‌کنند. اشتقاقات، یا، از سوی دیگر، نشان می دهد که در مقاله شالیزی به استدلال های یودکوفسکی در کجا پرداخته شده است. من بارها شنیده ام که مقاله شالیزی به عنوان مدرکی آهنین تبلیغ می شود که نمی توان از بیزییسم سوبژکتیو تمام عیار دفاع کرد... اما پس از چند بار خواندن مقاله شالیزی، برای من مانند یک استدلال اسباب بازی به نظر می رسد که هرگز نمی تواند اعمال شود. به ناظری که با هر چیزی که مشاهده می شود (یعنی تمام فیزیک واقعی) تعامل دارد. اما شالیزی محقق بزرگی است، بنابراین از نظرات دوم استقبال می‌کنم، زیرا به احتمال زیاد بخش‌های مهم این بحث را درک نمی‌کنم.
رد پارادوکس زمان بر اساس آنتروپی پیکان عقب مانده بیزی شالیزی؟
3739
من تعدادی از مقادیر $x$ را از یک توزیع نرمال با میانگین 0 و sd 0.2 نمونه برداری کرده ام. سپس این مقادیر $x$ را با استفاده از فرمول $y = e^x/(e^x + 1)$ به مقادیر $y$ تبدیل کردم. من می دانم که مقادیر $y$ دارای میانگین 0.5 خواهند بود و همه بین 0 و 1 قرار دارند. * آیا این مقادیر y متناسب با توزیع رایج هستند؟ * آیا راهی برای فهمیدن این موضوع در R وجود دارد؟ آنچه من به دنبال آن هستم این است که آیا توزیع ساده ای برای توصیف مقادیر y وجود دارد که به من اجازه دهد آن را بر حسب چند پارامتر توصیف کنم و احتمالاً مستقیماً از آن در R نمونه برداری کنم.
آیا داده‌هایی که به روشی خاص از یک توزیع عادی تبدیل شده‌اند، با توزیع رایج دیگر مطابقت دارند؟
26510
من سعی می‌کنم توسعه‌ای از جنگل‌های تصادفی را که در یک نشریه تحقیقاتی اخیر برای پروژه‌ام معرفی شده است، تکرار کنم. به عنوان مثال، برای تقسیم باینری داده ها در هر گره، به جای اختصاص تصادفی به تمام مثال ها از هر کلاس یک برچسب باینری، آنها پیشنهاد می کنند از یک SVM برای یادگیری تقسیم باینری از داده ها استفاده کنید. علاوه بر این، ویژگی های یک گره با مقدار تصمیم گره اصلی آن افزوده می شود. میخواستم بدونم آیا پیاده سازی Random Forest وجود دارد که بتوان روی آن ساخت؟
نحوه پیاده سازی یک طبقه بندی کننده جنگل تصادفی سفارشی
104221
همانطور که متوجه شدم، در اعتبار سنجی متقاطع K-fold، با بزرگتر شدن K، سوگیری کوچکتر می شود، اما واریانس نیز افزایش می یابد. من در درک شهودی این مفهوم از دیدگاه واریانس مشکل دارم. من می توانم فکر کنم که اگر، برای مثال، با K=N (N= تعداد نمونه ها)، تنها 1 نمونه در هر تکرار برای آزمایش استفاده می شود، و بنابراین واریانس نرخ خطا که هر بار در یک نمونه واحد محاسبه می شود، خواهد بود. به طور طبیعی بسیار بالا باشد. با این حال، اگر اشتباه نکنم، این واریانسی نیست که «معامله» به آن اشاره دارد. این واریانس CV-desitimator در _single_ cv-run نیست ، بلکه واریانس این برآوردگر با توجه به مقدار مورد انتظار (واقعی) (به عنوان مثال ، اگر بتوانیم نمونه های زیادی را از جمعیت بگیریم و برآورد CV را محاسبه کنیم هر یک از آنها، واریانس آن تحت K بزرگ بیشتر خواهد بود). حدس می‌زنم سردرگمی من این است که آیا واریانس بالای K بزرگ به اجرای منفرد cv یا پاراگراف قبلی من یا هر دو مربوط می‌شود؟ با تشکر از افکار شما. با احترام اکسل.
مبادله تعصب / واریانس در اعتبارسنجی متقابل
114412
به عنوان بخشی از بازتولید مدلی که تا حدی در این سوال در Stack Overflow توضیح دادم، می‌خواهم نموداری از یک توزیع پسین را بدست بیاورم. مدل (مکانی) قیمت فروش برخی از املاک را بسته به گران بودن (1) یا ارزان بودن ملک (0) به عنوان توزیع برنولی توصیف می کند. در معادلات: $$y_{i} \sim \text{برنولی}(p_{i})$$ $$p_{i} \sim \text{logit}^{-1}(b_{0} + b_{ 1}\text{LivingArea}/1000 + b_{2}\text{سن} + w({\bf{s}}))$$ $$w({\bf{s}}) \sim \text{MVN}({\bf{0}}، {\bf{\Sigma}}) $$ که $y_{i}$ نتیجه باینری است 1 یا 0، $p_{i}$ احتمال ارزان یا گران بودن است، $w({\bf{s}})$ یک متغیر تصادفی مکانی است که $\bf{s}$ نشان دهنده آن است. موقعیت آن همه اینها برای هر $i = \\{1، ...، 70\\}$ زیرا 70 ویژگی در مجموعه داده وجود دارد. $\bf{\Sigma}$ یک ماتریس کوواریانس بر اساس موقعیت جغرافیایی نقاط داده است. اگر در مورد این مدل کنجکاو هستید، مجموعه داده را می توانید در اینجا پیدا کنید. نموداری که می‌خواهم به دست بیاورم نمودار کانتور زیر است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/XGaGp.png) شکل به صورت نمودار تصویر سطح میانی خلفی فرآیند پنهان $w({\bf{s}})$، مدل فضایی باینری. این کتاب همچنین می‌گوید: > شکل 5.8 نمودار تصویر را با خطوط کانتور پوشانده شده برای سطح متوسط ​​خلفی فرآیند $w({\bf{s}})$ پنهان نشان می‌دهد. با این حال، تنها 70 جفت نقطه در مجموعه داده وجود دارد. من فرض می‌کنم که برای تولید یک نمودار کانتور، باید $w({\bf{s}})$ را در 70*70 نقطه تخمین بزنم. بنابراین، سوال من این است: چگونه می توانم این سطح میانی خلفی را تولید کنم؟ تاکنون نمونه‌هایی از توزیع‌های پسین برای همه پارامترهای درگیر (با استفاده از PyMC) دارم و می‌دانم که می‌توانم $y^*$ را در یک نقطه جدید با استفاده از توزیع پیش‌بینی پسین پیش‌بینی کنم. با این حال، من نمی دانم چگونه مقادیر $w({\bf{s}})$ را در یک نقطه جدید $s^*$ پیش بینی کنم. شاید من اشتباه می کنم و طرح با پیش بینی ساخته نشده است بلکه با درون یابی ساخته شده است. **UPDATE**: ابتدا، این میانه توزیع پسین $w({\bf{s}})$ در هر مکانی است که دارایی وجود دارد. این بر اساس ردیابی MCMC برای $w$ است. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/J3Fss.png) و این درون یابی (با نمودار کانتور) با استفاده از تابع پایه شعاعی است: ![شرح تصویر را اینجا وارد کنید](http ://i.stack.imgur.com/L0tGQ.png) (اگر به کد علاقه دارید، به من اطلاع دهید) همانطور که می بینید، تفاوت های قابل توجهی در طرح ها وجود دارد. چند سوال: 1. چگونه می توانم بفهمم که آیا این تفاوت ها با روش درون یابی توضیح داده شده اند؟ 2. شاید، تغییرات مهمی در توزیع بعدی $w({\bf{s}})$ وجود داشته باشد که من محاسبه کردم و در کتاب نشان داده شد. چقدر تفاوت بین شبیه سازی های MCMC قابل قبول است؟ حتی پارامترهای خودم بسته به نمونه‌گیری که استفاده می‌کنم کمی تغییر می‌کند (Metropolis، Metropolis Adaptive). ?
ترسیم یک سطح میانی خلفی
114417
من در حال خواندن مقاله ای هستم و متوجه موارد زیر شدم، > عدم قطعیت ها و وابستگی های آماری اغلب با واریانس > و ضرایب همبستگی اندازه گیری می شوند، اما عدم قطعیت و وابستگی را می توان صرفاً بر اساس احتمالات $(p_i)$، بدون در نظر گرفتن > واقعی، > تعریف کرد. وضعیت سیستم اکنون زمینه را کنار می گذارم زیرا به من اجازه می دهد یک سوال کلی بپرسم. 1. چه زمانی ضرایب همبستگی و واریانس کافی نیست؟ آیا X وجود دارد که نتوانیم از روی این دو پیش بینی کنیم اما از روی احتمال بتوانیم آن را پیش بینی کنیم؟ 2. اگرچه مقاله دلالت نمی کند، اما من گمان می کنم که در حین کار با ضرایب همبستگی و واریانس، فرد باید وضعیت واقعی سیستم را بداند تا مقدار X را ادعا کند. از سوی دیگر، همان X را می توان بدون دانستن وضعیت واقعی ادعا کرد. اگر فقط یکی با احتمالات $(p_i)$ کار کند. PS: من تازه وارد آمار هستم.
چه زمانی ضرایب همبستگی و واریانس کافی نیستند؟
93165
من یک مدل دوجمله ای منفی با تورم صفر به یک مجموعه داده دارم (`n = 47`) با یک متغیر وابسته بیش از حد پراکنده (`میانگین = 6.70، sd = 17.68`). DV تعداد تلفات در رویدادهای اعتراضی را می‌شمارد، بنابراین مقدار «0» می‌تواند ناشی از عدم وجود اعتراض یا عدم تلفات در طول اعتراضات باشد. بنابراین، من یک مدل ZINB را با فرمول `y~ x1 + x2 + x3 + x4 تخمین می زنم | x1 + x2 + x3 + x5 + x6`، و یک افست. نتایج در مدل تورم نشان می‌دهد که هیچ پیش‌بینی‌کننده‌ای از نظر آماری معنادار نیست (برخی از آنها در مدل شمارش معنادار هستند). با این حال، یک آزمون Vuong بین مدل ZINB و یک مدل دوجمله‌ای منفی (GLM با پیوند «negbin»)، با همه متغیرها یا فقط آنهایی که در مدل شمارش هستند، نشان می‌دهد که مدل ZINB نسبت به مدل‌های NB برتری دارد. ضریب Log (تتا) در بخش شمارش مدل ZINB یا ضریب «(تقاطع)» در بخش تورم معنی‌دار نیست. من این را نمی فهمم اگر مدل تورم معنادار نیست، آیا نباید یک مدل دوجمله ای منفی «ساده» بهتر یا حداقل غیرقابل تشخیص باشد؟ آیا مدل ZINB واقعا مناسب تر است؟ PD هیچ ارتباط مهمی بین پیش بینی کننده ها وجود ندارد که بتواند مقادیر معنی داری را تغییر دهد.
تفسیر ZINB - مدل تورم غیر معنی دار
61000
برای مجموعه داده‌هایم، مقدار p بسیار پایینی (< 2.2 e-16) و میانه 1- دارم. من با آمار تازه کار هستم و واقعاً مطمئن نیستم که از این داده ها چه کنم و چگونه آن را تفسیر کنم. توجه: مقدار p از Mann Whitney مشتق شده است و میانه از مجموعه داده های انحراف نسبی است. ویرایش: هر دو مقدار p و میانه ها از داده های انحراف نسبی میکروب ها به دست آمده اند. فرضیه صفر من ویتنی این است که تفاوت معنی داری بین ترکیب ژنتیکی دو نوع مختلف موجودات وجود ندارد.
استنتاج مقادیر p پایین و میانه ها
51313
من مشکل طبقه بندی 10 کلاس دارم. من مشکل را به عنوان مجموعه ای از مسائل باینری یک در برابر همه در نظر گرفته ام. برای هر کلاس یک شبکه عصبی MLP ساخته‌ام که تخمین احتمالی [0,1] را ارائه می‌کند که آیا الگوی ورودی متعلق به کلاس هدف است یا خیر. چگونه می توانم تخمین های احتمالی MLP یک در برابر همه را در یک تخمین احتمال چند طبقه ای ترکیب کنم. من ایده استفاده از $\hat{p}_j = \frac{p_j}{\sum_{i=1}^{10} p_i}$ را دارم که در آن $\hat{p}_j$ تخمین احتمال چند کلاسه است. کلاس i، و $p_j$ تخمین احتمال MLP یک در برابر همه برای کلاس $j$ است. آیا این رضایت بخش خواهد بود؟ هر مرجعی قدردانی خواهد شد.
مقادیر احتمال یک در برابر همه به یک مقدار احتمال کلاس چندگانه تبدیل می شود؟
114410
من با محاسبه دستی برخی از احتمالات پیش بینی شده از رگرسیون لجستیک ترتیبی مشکلی دارم (من این کار را به عنوان یک تمرین یادگیری انجام می دهم - می دانم که لازم نیست این کار را به صورت دستی انجام دهم). مثال زیر را از وب سایت آموزش آمار UCLA در نظر بگیرید: داده ها را وارد کنید: library(foreign) library(MASS) dat <- read.dta(http://www.ats.ucla.edu/stat/data/ologit.dta ) یک رگرسیون لجستیک ترتیبی را اجرا کنید: m <- polr(اعمال ~ public + pared، data = dat، Hess=TRUE) احتمال های پیش بینی شده را دریافت کنید: newdat <- expand.grid(public=unique(dat$public),pared=unique(dat$pared)) cbind(newdat,predict(m,newdat,type=probs)) # public pared بعید است تا حدودی به احتمال زیاد بسیار محتمل #1 0 0 0.5960409 0.3255546 0.07840448 #2 1 0 0.5720066 0.3421339 0.08585947 #3 0 1 0.3246644 0.4682876 0.20704799 #4 1 1 0.3033554 0.472282374 reduce: مقادیر رهگیری را ذخیره کنید intcpts <- coef(summary(m))[3:4] unl <- (1 / (1 + exp(-(intcpts[1] + sum(coef(m) * c(public=0, pared=0) ))))) # 0.5960409 # تا حدودی محتمل است. ((بعید + تا حدودی محتمل) - بعید) swl <- (1 / (1 + exp(-(intcpts[2] + sum(coef(m) * c(public=0,pared=0) ))))) - unl # 0.3255546 # بسیار محتمل (1 - تا حدودی محتمل - بعید) vrl <- 1 - swl - unl # 0.07840448 بنابراین همه اینها خوب کار می کند. با این حال، در روند کشف این موضوع، صفحه دیگری را در سایت UCLA (http://www.ats.ucla.edu/stat/spss/dae/ologit.htm) پیدا کردم که به نظر می رسید نشان می دهد که باید محاسبه شود. برعکس (بسیار محتمل، سپس تا حدودی، سپس بعید) ارزش گذاری می کند. مانند: $ P(Y = 2) = \left(\frac{1}{1 + e^{-(a_{2}+b_{1}x_{1} + b_{2}x_{2} + b_{3}x_{3})}}\راست) $ $ P(Y = 1) = \left(\frac{1}{1 + e^{-(a_{1}+b_{1}x_{ 1} + b_{2}x_{2} + b_{3}x_{3})}}\راست) - P(Y = 2) $P(Y = 0) = 1 - P(Y = 1) - P( Y = 2) $ اکنون متوجه شدم که این باید دقیقاً همان نتایجی را ارائه دهد که احتمالات همیشه به 1 اضافه می شوند، اما به نظر نمی رسد که منطق آنها را از نظر کد R واقعی یا محاسبات دستی به کار ببرم. من همیشه گیر کرده ام که با بعید شروع می کنم و سپس به احتمال زیاد ادامه می دهم. آیا من چیزی را در منطق اینجا گم کرده ام؟ آیا کسی می تواند یک روش محاسبه ساده را پیشنهاد دهد؟
محاسبه دستی احتمالات رگرسیون لجستیک ترتیبی - با شروع مقایسه های مختلف
108631
من در مورد حداقل های محلی برای شبکه های عصبی زیاد می شنوم. من نظریه پشت آن را درک می کنم - اما اگر شبکه عصبی من وزن ها را در حداقل محلی پیدا کند، آیا این چیز بدی است؟ من می‌دانم که یافتن حداقل‌های جهانی (در شبکه‌های عصبی) نیز معمولاً چیز بدی است، زیرا حداقل‌های جهانی معمولاً بیش از حد مناسب هستند. با این حال من هنوز کمی گیج هستم. آیا همگرایی به حداقل های محلی راه حل های بدی به ما می دهد؟ در نهایت، آیا همگرایی به حداقل های محلی با داده های آموزشی ما سازگار است؟
شبکه های عصبی - آیا حداقل های محلی بد هستند؟
56323
فرض کنید من داده های سلسله مراتبی دارم، مانند دانش آموزانی که در کلاس های درس دسته بندی شده اند. من می‌خواهم از رگرسیون حداقل مربعات دو مرحله‌ای با ابزاری استفاده کنم که بر دانش‌آموزان در سطح کلاس تأثیر می‌گذارد تا فرضیه‌ام را آزمایش کنم. روش مناسب برای تست ضعیف بودن ساز چیست؟ آماره کرگ-دونالد F با مقادیر بحرانی سهام و یوگو برای حالت کلی شناسایی ابزارهای ضعیف مناسب به نظر می رسد، اما هیچ تعدیلی برای خوشه بندی ایجاد نمی کند.
تست ابزارهای ضعیف در داده های تابلویی
51315
**به روز رسانی** با آزمایش آمار توصیفی، من تعیین کردم که اگر مقدار میانگین وزنی مقیاس شده برای هر مجموعه را رتبه بندی کنم، به صورت زیر محاسبه می شود: $$Mean(Weighted Quantity) * \frac {Median (Weighted Quantity)} {Range(Weighted Quantity) )}$$ نتایج با شهود من مطابقت دارد. اگرچه من مشکل فوری خود را حل کرده ام، اما همچنان می خواهم در مورد کاری که انجام می دهم به صورت رسمی تر توضیح دهم. من می خواهم شروع به یادگیری بیشتر در مورد این نوع مشکلات کنم. * * * **به روز رسانی 2** _**زمینه، در هر درخواست:**_ داده ها ورودی به یک محاسبه پارامتری (معروف به واریانس-کوواریانس) نرخ بهره در معرض خطر (IR VaR) هستند _(ماتریس های همبستگی مرتبط هستند در اینجا در نظر گرفته نشده است)_ * هر ماتریس به ازای نگهداری امنیتی است. * هر ردیف به ازای مدت زمان نرخ کلیدی است _(یعنی 3 ماه، 1 سال، 5 سال، و غیره)_ تعداد تنورها متفاوت است. برای هر تنور _(ردیف)_: * f برابر است با dv01 - یا تغییر دلار در ارزش بازار مالکیت مربوط به یک جابجایی 1bp در منحنی بازده در تنور ردیف * v نرخ نقطه در آن تنور است که از منحنی بازده * q نوسانات نرخ نقطه ای در آن تنور است. نوسان میانگین وزنی مقیاس شده معیار یا نماینده ای برای درجه است. غیر خطی بودن مدل قیمت گذاری اوراق بهادار این به طور دقیق دارایی ها (بر اساس داده های آزمون) را به ترتیب درصد واریانس نتیجه پارامتریک IR VaR هلدینگ از نتیجه مونت کارلو IR VaR آن رتبه بندی می کند. * * * من می خواهم مجموعه ای از داده ها را بر اساس نوعی از کمیت متوسط ​​به عنوان وزن شده توسط یک عامل تنظیم شده توسط یک مقدار رتبه بندی کنم. به عنوان مثال، دو مجموعه داده را در نظر بگیرید: > **مجموعه اول:** \begin{matrix} f[1]_1 & v[1]_1 & q[1]_1\cr f[2]_1 & v[ 2]_1 & > q[2]_1\cr f[3]_1 & v[3]_1 & q[3]_1 \end{matrix} و > **Set Two:** \begin{ماتریس} f[1]_2 & v[1]_2 & q[1]_2\cr f[2]_2 & v[2]_2 & > q[2]_2\cr f[3]_2 و v[3]_2 & q[3]_2\cr f[4]_2 & v[4]_2 & q[4]_2\cr f[5]_2 & > v[5]_2 و q[5]_2 \end{matrix} فکر اولیه من این بود که آنها را با میانگین حسابی وزنی کمیت رتبه بندی کنم، _یعنی_ $$\frac {\sum (f * v * q)}{\sum(f * v)}$$ اما نتایج با شهود من مطابقت ندارد _(که ممکن است معیوب باشد.)_ چگونه می توانم بگویم که آیا باید قبل از رتبه بندی عادی کنم؟ کدام روش های عادی سازی را باید در نظر بگیرم؟
چگونه می توانم بفهمم که آیا باید قبل از رتبه بندی عادی سازی کنم؟
61001
من فقط می‌خواهم تابعی را با متن ساده توصیف کنم که دارای عبارات $1-p$ زیادی است: $\frac{(1-p_1) + p_2}{2} × (1-p_3)$.
در اصطلاح ریاضی/آمار، $1/p$ متقابل $p$ است. پس $1-p$ چه نامیده می شود، اگر چیزی باشد؟
95863
فرض کنید توزیع نمرات یک آزمون دارای میانگین 100 و استاندارد > انحراف 16 باشد. یک کران بالایی برای احتمال $P\\{X>148\text{ > یا }X<52\\}$ محاسبه کنید. پیشرفت من این است: با توجه به اصل افزودنی، $P\\{X>148\text{ یا }X<52\\}=P\\{X>148\\}+P\\{X<52\\ }$. آیا می توانم از نابرابری چبیشف در هر دو احتمال استفاده کنم یا از نابرابری یک طرفه چبیشف استفاده کنم؟ یا از نتیجه نابرابری یک طرفه چبیشف (که در زیر ذکر شده است) استفاده کنم؟ $P\\{X\ge \mu+a\\} \le \frac{\sigma^2}{\sigma^2+a^2}$ **(1)** $P\\{X\ le \mu-a\\} \le \frac{\sigma^2}{\sigma^2+a^2}$ **(2)** از آنجایی که مشکل $\mu$، $\sigma$ است و $a$، من معتقدم من باید از **(1)** برای $P\\{X>148\\}$ و **(2)** برای $P\\{X<52\\}$ استفاده کنم تا کران بالایی داشته باشم.
چگونه مرزهای چبیشف را بر روی احتمالات محاسبه کنیم: نابرابری یک یا دو طرفه؟
41879
کسی می تواند توضیح دهد که چرا آمار زیر کافی است یا کافی نیست؟ میانگین، میانه، حالت، انحراف استاندارد، واریانس، محدوده، IQR، چولگی و کورتوزیس.
چه آماری کافی است؟
114413
من سعی می کنم مشکلی را که دارم با شرایط آماری مناسب تعریف کنم. این چیزی است که من دارم: من مجموعه ای از مقادیر را دارم که ماهانه اندازه گیری می شوند. انتظار می رود این مقادیر در طول زمان به طور پیوسته رشد کنند. من باید مقادیری را شناسایی کنم که از روند منحرف می شوند. همه مقادیر >= 0 هستند. من باید کارهای بالا را برای تعداد زیادی مجموعه داده انجام دهم، و مقادیر موجود در آنها می تواند به کوچکی 1 و تا چند صد هزار باشد. من در پایگاه داده Oracle تجزیه و تحلیل خود را انجام می دهم. این توابع آماری کمی دارد، اما چون آنچه را که به دنبال آن هستم نمی دانم، نمی دانم کدام یک برای من مفید است.
انحراف از یک روند - کمک به تعریف مشکل
79982
من 3 موضوع دارم. هر آزمودنی آزمایش مشابهی را با 4 نوع محرک به طور تصادفی پراکنده انجام داد. برای هر نوع محرک، آزمودنی 120 کارآزمایی را روی یک کار 2AFC (2-انتخاب اجباری جایگزین) تکمیل کرد. از اینها می توانم یک درصد را درست حساب کنم. می‌خواهم بدانم که آیا درصد صحیح کلی از نظر آماری بین چهار نوع محرک متفاوت است، اما مطمئن نیستم که چه آزمون آماری را انجام دهم یا چگونه سه موضوع را ترکیب کنم. می‌خواهم بدانم که آیا باید کاری با d' یا t-test انجام دهم؟ با تشکر
آزمون آماری درصد درست است؟
95867
من یک رگرسیون لجستیک دارم که در آن برخی از متغیرهای مستقل نسبت‌ها (ترکیبات) هستند که مجموع آنها 100 درصد است. فرض کنید من 4 متغیر از این قبیل دارم - رگرسیون ها را 4 بار اجرا کرده ام، هر بار با یک متغیر خارج شده، به طوری که بتوانم تاثیر افزایش 1% هر متغیر را در مقایسه با متغیری که کنار گذاشته شد. به این ترتیب من می‌توانم یک «نردبان» بسازم که متغیر آن تأثیرگذارتر از متغیر دیگر باشد و غیره (به عنوان مثال - افزایش 1% در A که 1% از B کاهش می‌یابد دارای OR> 1 است، بنابراین A ارزشمندتر از B است) . من اکنون به دنبال نمونه ای از چنین روشی هستم - در مقاله یا چیزی مشابه، تا ببینم آیا این یک روش پذیرفته شده است و چگونه می توان آن را به خوبی ارائه داد - نسبت شانس 4 رگرسیون؟ یا نردبان نفوذ؟ هر گونه کمکی بسیار قدردانی می شود!
نسبت ها (ترکیبات) در رگرسیون لجستیک
114115
من یک مدل طبقه‌بندی دودویی «gbm» را نصب کرده‌ام و یکی از متغیرهای پیش‌بینی‌کننده، «Affiliate» دارای 50 سطح مختلف است. با توجه به بازخوانی زیر از `gbm.perf`: var Importance Affiliate 52.939994 ProgramName 25.765384 Distributor 17.502216 MarketingCategoryName 2.212374 ProductName 1.580031 با «سطوح 1.580031» مرتبط هستم. طبقه بندی ها و که با طبقه بندی های '0' بیشتری همراه هستند. من در مورد تطبیق یک مدل glm(...، دو جمله ای(probit) توسط هر یک از پیش بینی کننده ها فکر می کردم تا یک مفهوم کلی به من بدهد، اما فکر می کنم این یک راه بسیار دشوار برای انجام آن است. کجا می توانم برخی از آنها را پیدا کنم. نوشته هایی در مورد اینکه چگونه می توان درک دقیق تری از تأثیرات متغیرهای مختلف به دست آورد؟
یافتن اثرات سطوح معینی از یک عامل پیش بینی کننده
93161
من در حال انجام یک مطالعه در مورد پذیرش خرید اینترنتی هستم. من از یک مدل ساختاری از یک مقاله تحقیقاتی استفاده می کنم. سرپرست من از من خواسته است که یک تحلیل عاملی با استفاده از SPSS انجام دهم. من در آمار بسیار ضعیف هستم و با SPSS آشنایی ندارم. یک متغیر نیت رفتاری وجود دارد که تنها بر اساس یک سوال (نه چند سوال) است: آیا سال آینده خدمات خریداری می کنید؟. این مقیاس از نوع لیکرت است. تحلیل عاملی باید این سوال را جداگانه مطرح می کرد اما آن را با سوال دیگری مطرح می کرد. من نمی توانم تجزیه و تحلیل عاملی را برای ایجاد یک عامل جداگانه برای این سوال بدون توجه به تلاشم بدست بیاورم. آیا نباید از این سوال در تحلیل عاملی استفاده کنم زیرا با سوالات دیگر گروه بندی می شود؟ من نمی توانم این سوال را هم حذف کنم زیرا تنها نماینده متغیر نیت رفتاری من است. مدل من ناپایدار خواهد شد، بسیار از کمک شما سپاسگزارم.
آیا باید این متغیر را که تنها شامل 1 سوال در تحلیل عاملی است، انتخاب کنم؟ (همه متغیرهای دیگر بر اساس چندین سوال هستند)
26516
من بسیار خوشحالم که این انجمن را پیدا کردم و می خواستم پیش از آن از هر کسی که پست من را می خواند تشکر کنم. من از آن بسیار قدردانی می کنم! من احتمال خرابی را برای ادعاهای توزیع شده Weibull (در مورد دم سبک) تخمین می زنم. برای این منظور باید ضریب تعدیل را محاسبه کنم. CDF توسط: $$ F(x)=1-e^{-ax^b}\text{, }a>0\text{, }b\ge1 داده می‌شود. $$ فرمول ضریب تعدیل r این است: $$ \int_0^\infty e^{rx}(\overline{F}(x)) = \int_0^\infty e^{rx}e^{-ax^ ب}. $$ اکنون این انتگرال قابل حل نیست. با این حال، من به نوعی تقریب برای مورد کلی نیاز دارم. معنی: من به فرمولی برای ضریب تعدیل نیاز دارم، بدون استفاده از مقادیر خاص برای a و b. آیا راهی برای به دست آوردن این بدون تمایز و استفاده از فرمول نیوتن رافسون وجود دارد؟ ساده ترین راه برای محاسبه ضریب تعدیل چیست؟ خیلی ممنون از وقتی که گذاشتید! با احترام، کریس
ضریب تعدیل (ضریب لوندبرگ) برای توزیع Weibull
61003
به نظر می رسد داده های من (حدود 20-30 نقطه داده) از یک الگوی درجه دوم پیروی می کنند، و کاملاً محتمل است که آنها بر یکدیگر تأثیر بگذارند: برای X $ < 16 $، به نظر می رسد تأثیر (جهت علت گرنجر) از $Y$ به $X$، در حالی که برای $X> 16$ به نظر می رسد جهت علیت معکوس شده است. به عبارت دیگر (تفسیری): ممکن است دو اثر وجود داشته باشد، که در آن یکی از آنها تا $X < 16$ غالب است، در حالی که دیگری فراتر از آن نقطه تسلط پیدا می کند. آیا فقط نقل قول(های)$R^2$-value(s) و $p$-value(s) برای _either_ $Y$ در $X$ _یا_ $X$ در $Y$ خوب است، یا باید چند زنگ هشدار اگر دو متغیر بر یکدیگر تأثیر بگذارند (یعنی متغیر وابسته عملاً به متغیر مستقل تبدیل شود و بالعکس برای نیمی از مجموعه داده) از بین می روند؟
وقتی نه تنها Y بر X بلکه X نیز بر Y تأثیر می گذارد، هنگام پسرفت Y روی X به چه چیزی توجه کنیم؟
51317
من علاقه مند به ترسیم نقشه های حرارتی همبستگی برای یک مجموعه داده چند متغیره جمع آوری شده در دو دسته هستم. برخی از متغیرها اثر دسته ای واضحی را نشان می دهند، برخی دیگر هیچ اثر دسته ای را نشان نمی دهند. آیا راهی برای مراقبت از اثرات دسته ای در همبستگی ها وجود دارد؟
همبستگی نقشه های حرارتی با اثرات دسته ای
114418
من یک مبتدی در R هستم. من می خواهم بار را برای 3 پارامتر کیفیت آب در R برای روزهای خاص برای کل سال با استفاده از فرمول زیر محاسبه کنم: ![توضیح تصویر را اینجا وارد کنید](http://i.stack .imgur.com/um2WE.jpg) با استفاده از فرمول قبلی، می خواهم 7 سناریو را محاسبه کنم. هر سناریو نشان دهنده 1 روز هفته (دوشنبه هر هفته، سه شنبه هر هفته ...) برای کل سال است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/w0cJn.jpg) با استفاده از مجموعه داده 1 ساله (از اینجا قابل دانلود است)، من سعی کردم یک کد در Rstudio بنویسم تا 7 سناریو را محاسبه کنم. تمام سال اما کار نکرد > Q=جریان > C=NH4 > LN=(Q*C) > LD=C > LD=Q > Q=جریان > C=NH4 > LN=(Q*C) > LD=Q > L=(جمع( LN[Date==Saturday]))/(sum(LD[Date==Saturday])) > L [1] NaN اگر بتوانید به من کمک کنید سپاسگزارم.
چگونه این فرمول را در R برای روزهای مشخص برای کل سال حل کنیم؟
69969
در مطالعه گذشته نگرم متغیرهای پیوسته و مقوله ای دارم. این دومی ها به دو یا چند زیر گروه تقسیم می شوند. من می خواهم تأثیر آنها را بر بقای کلی تجزیه و تحلیل کنم. به طور خاص، من به یک متغیر دوگانه علاقه مند هستم (که من آن را myVariable می نامم) و گمان می کنم که تأثیر آن ممکن است تحت تأثیر سن و جنس باشد. ابتدا، متغیرهای پیوسته را در 2 یا چند زیرمجموعه طبقه‌بندی کردم و با استفاده از آزمون رتبه‌بندی لگ با نمودارهای بقای کاپلان مایر، یک تحلیل تک متغیره انجام دادم. myVariable معنی دار نبود. در تحلیل چند متغیره، من از کنترل رگرسیون کاکس برای سن و جنس استفاده کردم: با استفاده از روش enter، سن و جنس را در بلوک اول و سایر متغیرها را در بلوک دوم قرار دادم. من myVariable را در بلوک دوم قرار دادم تا بررسی کنم که آیا بعد از کنترل سن و جنس مهم است یا خیر. اگرچه من قبلاً سن و سایر متغیرهای پیوسته را دسته بندی کرده بودم، اکنون در صورت امکان از داده های طبقه بندی نشده اصلی استفاده می کنم. 1 آیا این روش صحیح است؟ 2 در رگرسیون کاکس myVariable معنی دار شد. به طور عجیبی سن در آزمون لگ رتبه معنی دار نبود اما در رگرسیون کاکس معنی دار شد. چطور می شود؟ 3 من از SPSS استفاده می کنم. در نمای متغیر من متغیرها را به عنوان رشته یا عددی در صورت لزوم تنظیم می کنم. با این حال، هر متغیر به عنوان اسمی تنظیم می شود. آیا این مهم است؟ به عبارت دیگر، آیا می تواند بر نتایج تأثیر بگذارد؟ ممنون از راهنمایی های شما آندریا
رگرسیون کاکس با متغیرهای کنترل شده
110249
چگونه یک متغیر تصادفی معمولی را طوری تبدیل کنیم که بتوانم نمونه های عادی را بین محدوده 1 تا 45 شبیه سازی کنم؟ آیا لازم است یک تبدیل ژاکوبین انجام دهم؟
چگونه یک متغیر تصادفی معمولی را طوری تبدیل کنیم که بتوانم نمونه های عادی را بین محدوده 1 تا 45 شبیه سازی کنم؟
90192
من کمی مطمئن نیستم که چگونه نمودارهای ccf را ​​تفسیر کنم. آیا این دقیقاً مانند acfs انجام می شود؟ به عنوان مثال، یک ccf در حال فروپاشی آهسته یعنی روندی بین سری های زمانی 2 وجود دارد؟ آیا کسی می تواند از نظر فروپاشی آهسته، زوال سریع و طرح الگوی دیده شده در فصلی بودن acf توضیح دهد.
نمودار تابع همبستگی متقابل
56329
من روی پیاده سازی الگوریتم HMM Forward در Matlab کار می کنم. من در کدنویسی $\alpha_{j}(t)$ 1 مشکل دارم. **initialize** $t <\- ,$ $a_{ij}, b_{jk}$, دنباله قابل مشاهده $V^T , \alpha_j(0)$ 2. برای $t <\- t + 1$ 3. $\alpha_{j}(t) <-$ $ \sum^c_{1 = 1} \alpha_i(t - 1) a_{ij}b_{jk} v(t)$ 4. تا $t = T$ 5. **بازگشت** $P(V^T) <\- \alpha_0(T) $ برای حالت نهایی 6. **پایان** چگونه محاسبه را برای $\alpha_{j}(t)$ اجرا کنم. وقتی $ a_{ij} = $ ماتریس احتمال انتقال و $ b_{jk} = $ ماتریس انتشار و $ v(t) = $ نمادهای مشاهده شده
مقداردهی اولیه HMM
111153
من متوجه شدم که با استفاده از روش SVM می توانیم مقدار آینده را با دقت بیشتری نسبت به سایر روش های معمولی (مانند ARIMA) پیش بینی کنیم. سوال من این است که چگونه مقدار شاخص آینده را بدهیم (مثلاً وقتی 100 مقدار در یک سری زمانی داریم 101) تا بتوانیم مقدار پیش بینی شده برای مقدار شاخص داده شده را بدست آوریم. آیا باید مقدار شاخص سری زمانی آینده خود (101) را پس از آموزش مدل در داده های آزمون لحاظ کنیم؟ چگونه می توانم دو تا سه قدم جلوتر را پیش بینی کنم؟ من قبلاً هرگز از این نوع روش استفاده نکردم بنابراین ممکن است سؤال من به وضوح بیشتری نیاز داشته باشد. لطفا اگر سوال واضح است به من اطلاع دهید. سوال مشابهی قبلا پرسیده شد اما جوابی نداشت. یک پاسخ دو سوال را حل می کند. :) متشکرم متان
پیش بینی با استفاده از روش بردار پشتیبان (SV) در R
51312
فرض کنید من دو نمونه تصادفی مستقل از جمعیتی با اندازه $N$ بگیرم: اولی یک نمونه تصادفی ساده با اندازه $n$ و دومی یک نمونه تصادفی ساده با اندازه $m$ است. اجازه دهید مجموعه $S$ شامل تمام رکوردهای انتخاب شده از دو نمونه با اندازه $n$ و $m$ کمتر از هر تکراری باشد. بنابراین، $S$ باید از رکوردهای $n_s$ تشکیل شده باشد که در آن $n_s$ $\le ($$m$+$n$) باشد، زیرا $S$ حاوی موارد تکراری نیست. من سعی می‌کنم یک تخمین‌گر بی‌طرفانه برای کل جمعیت ایجاد کنم که فقط به رکوردهای $S$ فقط از نظر همه $y_i$، $n$، $m$ و $N$ بستگی دارد. من سعی کردم برآوردگر بی طرفانه Horvitz Thompson $\hat{t} = \sum_{iϵS}y_i/\pi_i$ را تقلید کنم، که در آن $\pi_i$ احتمال این است که $y_i$ در $S$ باشد. در اینجا، من معتقدم $\pi_i$ احتمال اتحاد رویداد است که $y_i$ در اولین نمونه از $n$ نفر و رویدادی که $y_i$ در نمونه دوم از $m$ افراد انتخاب شده است. . با این حال، من مطمئن نیستم که چگونه حد بالای جمع را بدون استفاده از $n_s$ بیان کنم. آیا راهی برای تقلید از تخمینگر هورویتز تامپسون فقط از نظر همه $y_i$، $n$، $m$ و $N$ وجود دارد؟ یا باید رویکرد متفاوتی برای ایجاد یک برآوردگر بی طرف داشته باشم؟
برآوردگر بی طرف از دو SRS تکراری کمتر
110248
من مطالعه‌ای انجام دادم که در آن از توالی‌یابی ژن‌های نشانگر برای مطالعه تنوع باکتریایی استفاده کردم و می‌خواهم حداقل فراوانی را برای گونه‌ای که هنوز شناسایی شود محاسبه کنم. **حجم کل** واحد آزمایشی من **2000 میلی لیتر** است. **اندازه نمونه** من **150 میلی لیتر** است. ** فراوانی کل ** (همه گونه های مخدوش شده) **10^6 سلول در میلی لیتر** است. من می توانم **4000 نفر را در هر نمونه** شناسایی کنم (4000 مطالعه). همانطور که متوجه شدم، **4000 نفر از 150 میلی لیتر** را نمونه برداری کردم که تقریباً **27 (= 4000/150) ایند./ml** است. با ** فراوانی کل 10^6 ایند/میلی لیتر** هر گونه معین باید دارای **غلظت حداقل 10^6/27 = 3.7*10^4 ind./ml** باشد تا نمایش داده شود ( به طور متوسط) با حداقل 1 ایند. در نمونه من آیا این منطق درست است یا باید حجم کل تجربی خود را در نظر بگیرم، چرا که **4000 ind را نمونه‌برداری کرده‌ام. از 2000 میلی‌لیتر**، بنابراین فقط **2 ایند/میلی‌لیتر** با محدودیت تشخیص مطابق با **5*10^5 ایند./ml**. متاسفم برای این سوال واقعا ساده، اما من خیلی گیج می شوم و نمی توانم تصمیم خود را بگیرم. با تشکر از کمک شما! فابیان
حداقل فراوانی یک گونه باکتری
93168
Bias به عنوان میانگین تمام خطاها (بدون abs) تعریف می شود و این همان چیزی است که من می خواهم، IMO. با این حال، از من خواسته شده است که MEAN ERROR را بدهم. آیا این همان سوگیری است و آیا تعصب به عنوان خطای متوسط ​​نامیده می شود؟ فقط در صورتی که من این تعاریف را کاملاً به هم ریخته ام، آنچه را که سعی می کنم انجام دهم شرح دهید: موقعیت ها پیش بینی شده و با مقادیر مطلق مقایسه می شوند. برای دادن خطا، RMSE و BIAS محاسبه می شوند.
آیا BIAS برابر با MEAN ERROR است
45555
شرایطی که من یاد گرفتم به شرح زیر است: 1. اگر حجم نمونه کمتر از 15 باشد، در صورتی که نمونه تقریباً متقارن، تک پیک و بدون نقاط پرت باشد، آزمون t مجاز است. 2. اگر حجم نمونه حداقل 15 باشد می توان از آزمون t با حذف وجود نقاط پرت یا چولگی قوی استفاده کرد. 3. با یک نمونه بزرگتر، آزمون t می تواند حتی در صورت توزیع اریب استفاده شود، اگر نمونه بیشتر از 30 باشد، اما کمتر از 10٪ از جامعه باشد. چرا وقتی حجم نمونه بزرگتر از 10 درصد حجم جامعه است، نمی توانید از آزمون t استفاده کنید؟ آن وقت چه اتفاقی می افتد؟ آیا از آزمون z استفاده می کنید؟
شرایط لازم برای استفاده از آزمون t
69966
**مقایسه قابلیت اطمینان بین ارزیاب بین 8 متخصص انسانی و یک کامپیوتر** من در حال انجام مطالعه ای هستم که در آن از تجزیه و تحلیل خودکار برای تجزیه و تحلیل سیگنال EEG (فعالیت مغز) و تعیین کمیت ویژگی های خاص آن استفاده می کنم. روش رایانه‌ای هر ویژگی را کمیت می‌کند و آن را در یکی از سه دسته قرار می‌دهد، به عنوان مثال: عادی، متوسط ​​یا غیرعادی (برای برخی ویژگی‌ها دو دسته وجود دارد). هدف من مقایسه روش خودکار با بازبین‌های متخصص (یعنی انسان‌ها) است و برای این کار همان مجموعه ضبط‌شده را برای 8 متخصص مغز و اعصاب ارسال کرده‌ام و از آنها خواسته‌ام که هر یک از ویژگی‌ها را برای همه ضبط‌ها دسته‌بندی کنند. اکنون سوال من: می‌خواهم قابلیت اطمینان تجزیه و تحلیل خودکار را با بازبینی انسانی مقایسه کنم، اما چون استاندارد طلایی وجود ندارد، می‌خواهم این کار را با مقایسه تنوع بین ارزیاب‌ها بین بازبین‌های خبره با استفاده از آمار کاپا و سپس بین سیستم انجام دهم. و بازبینان با استفاده مجدد از آمار کاپا. دقیقاً چگونه باید این کار را انجام دهم؟ اولین ایده من این بود که توافقات بین ارزیاب بین هر یک از داوران را به صورت جداگانه محاسبه کنم (یعنی A در مقابل B، A در مقابل C و غیره) و میانگین آن را بیابم، و سپس همین کار را برای تجزیه و تحلیل کامپیوتری با در نظر گرفتن میانگین آن انجام دهم. توافق با هر یک از داوران اما این به نظر من اشتباه است. آیا این یک مقایسه عادلانه بین متخصصان انسانی و یک الگوریتم کامپیوتری خواهد بود؟ در جایی در گوگل دریافتم که اقدامات مشابهی برای مقایسه الگوریتم ها با انسان در مطالعات ارتباطی مانند تفسیر متون مورد نیاز است، و اگرچه به نظر می رسد که آنها از مقادیر کاپا نیز استفاده می کنند، برای من مشخص نیست که چگونه مقایسه منصفانه ای بین رایانه و انسان انجام می شود. .
توافق بین ارزیاب با چند رتبه‌دهنده
61006
اولین تایمر اینجاست من در حال بررسی بخشی از Casella و Berger در مورد معکوس کردن یک آزمون فرضیه برای به دست آوردن فاصله اطمینان (CI) هستم، و به دلیلی برخوردم که معتقدم یک قطعه کوچک را از دست داده است. در اینجا بیان قضیه به طور کلمه از CB آمده است: * * * **قضیه:** برای هر $\theta_0 \در \Theta$، اجازه دهید $A(\theta_0)$ منطقه پذیرش یک سطح $\alpha$ تست باشد. از $H_0: \theta = \theta_0$. برای هر $\boldsymbol{x} \in \mathcal{X}$، یک مجموعه $C(\boldsymbol{x})$ در فضای پارامتر با $$C(\boldsymbol{x}) = \\{\ تعریف کنید. theta_0: \boldsymbol{x} \در A(\theta_0)\\}$$ سپس مجموعه تصادفی $C(\boldsymbol{X})$ یک $1-\alpha$ مجموعه اطمینان. **اثبات:** می خواهیم نشان دهیم که ضریب اطمینان برابر با $1-\alpha$ است. مقداری $\theta_0 \در \Theta$ را اصلاح کنید و $R(\theta_0)$ را به عنوان ناحیه رد سطح فوق الذکر $\alpha$ تست $H_0 تعریف کنید: \theta = \theta_0$. سپس: \begin{align*} P_{\theta_0}(\theta_0 \in C(\boldsymbol{X})) &= P_{\theta_0}(\boldsymbol{X} \in A(\theta_0))\\ \ &= 1 - P_{\theta_0}(\boldsymbol{X} \in R(\theta_0))\\\ &\geq 1-\alpha \end{align*} جایی که آخرین مرحله از این واقعیت است که آزمون فرضیه سطح $\alpha$ است. این برای هر $\theta_0 \در \Theta$ صادق است، بنابراین $C(\boldsymbol{X})$ یک مجموعه اطمینان $1-\alpha$ است. * * * **Qualm:** مشکل من با این اثبات این است که نشان داده ایم که همه احتمالات پوشش $\geq 1-\alpha$ هستند، اما نشان ندادیم که ضریب اطمینان **برابر** است. $1-\alpha$ (ضریب اطمینان = کمترین احتمالات پوشش). به طور دقیق تر، تعریف مجموعه اطمینان $1-\alpha$ $C(\boldsymbol{X})$ این است: $$\inf_{\theta} P_{\theta}(\theta \in C(\boldsymbol{ X})) = 1-\alpha$$ به نظر من نتیجه گیری اثبات فقط نشان می دهد که $$\inf_{\theta} P_{\theta}(\theta \in C(\boldsymbol{X})) \geq 1-\alpha$$ فکر می‌کنم این یک نتیجه‌گیری بهتر باشد، اما همچنان. این یک جزئیات بسیار حساس است. با این وجود من کنجکاو هستم که چه چیزی را از دست داده ام. CB هیچ چیز دیگری در ارائه خود ذکر نمی کند، بنابراین فکر می کنم که من فقط دچار فریز مغزی هستم. هر اشاره ای؟ **پاسخ:** پس از کمی مشورت با MansT در زیر، متوجه شدیم که در Casella و Berger اشتباه تایپی است. عبارت قضیه صحیح باید به این صورت باشد: $$\textrm{...سپس مجموعه تصادفی } C(\boldsymbol{X}) \textrm{ ضریب اطمینان دارد } \geq 1-\alpha$$
معکوس کردن یک آزمون فرضیه: جزئیات دقیق
40907
من دائماً این را در کلاس می بینم و نمی فهمم که چرا ما هر از گاهی ورود را به آنجا اضافه می کنیم. به عنوان مثال ما مدل رگرسیونی 1 را داریم: $$1:\hat Y=-14.37+.321X_1+.043X_2-.0051X_3+.0035X_4$$ و سپس می گوید که ما مدل را با استفاده از فرم ورود به سیستم $X_3$ و $X_4$ تخمین می زنیم. برای دریافت مدل 2: $2:\hat Y=-36.30+.327X_1+.069X_2-4.74\log(X_3)+7.24\log(X_4)$$ $\log$ چه می کند؟ از نظر تأثیرگذاری بر رگرسیون و از نظر تأثیرگذاری بر متغیرها.
در تحلیل رگرسیون گرفتن لاگ یک متغیر چه می کند؟
104224
من فرمولی از نسبت غلظت جینی و نسبت غلظت لورنز می خواهم که شامل سه پارامتر در مورد توزیع گاما وایبول است. من فرمولی در مورد توزیع گاما دارم که فقط شامل یک پارامتر است. اما من آن را برای سه پارامتر می خواهم. برای توزیع گاما، نسبت غلظت جینی $ G= (Γ(α+1/2))/(√π Γ(α+1)) $ است.
توزیع گامای وزنی وایبول
104229
من روی داده‌های یک طیف‌سنج جرمی کار می‌کنم که میلیاردها میلیارد هیستوگرام شمارشی تولید می‌کند، و به یک روش خوب برای آزمایش اینکه آیا این هیستوگرام‌ها با یک یا چند توزیع مدل (گاوسی، دم سنگین، چندوجهی و غیره) سازگار هستند یا خیر، نیاز دارم. نقاط پرت ممکن است در بخش خوبی از هیستوگرام ها وجود داشته باشد، اگر نه در همه. هیستوگرام ها ممکن است از 0 تا 10^6 شمارش داشته باشند، و آنها قبلاً به صورت گسسته به ما می آیند، بنابراین هیستوگرام هیچ اطلاعاتی را نسبت به مشاهدات اصلی از دست نمی دهد. به‌عنوان یک تحلیل‌گر داده ساده‌لوح که توسط فیزیکدانان آموزش دیده، غریزه من این است که کاری شبیه به زیر انجام دهم: برای هر توزیع مدل، * پارامترهای آن را با استفاده از گشتاورها یا برازش غیرخطی با استفاده از احتمال پواسون تخمین بزنید (زیرا این داده‌های شمارش است. ، هر bin یک متغیر تصادفی پواسون است) * $\chi^2$ داده ها را در مقابل توزیع برازش محاسبه کنید سپس، با مقادیر مجذور chi از بین چندین مدل در دست... * مدلی را با بهترین ارزش $\chi^2$ انتخاب کنید * اگر $\chi^2$ خیلی بزرگ است (همانطور که در برابر توزیع نظری $\chi^2$ با مقدار مناسب ارجاع شده است. درجه آزادی)، توزیع را به عنوان انحراف قابل توجهی از مدل علامت گذاری کنید. کنجکاو بودم که آیا آماردانان باتجربه تر می توانند در مورد اینکه آیا این روش منطقی است، محدودیت هایی که ممکن است با آنها مواجه شوم، جایگزین های بهتر و غیره به من توصیه کنند. منطقی است که از احتمال پواسون / واگرایی کولبک-لایبلر در متریک برازش به جای مجموع مربع های استفاده شده در آزمون $\chi^2$ استفاده شود. آمار مناسب ترین استفاده از آن در اتصالات است، چرا که نه در آزمایش؟ اما من هیچ تست رایجی را نمی شناسم که به این روش کار کند. من برای تست های هیستوگرام پواسون در گوگل جستجو کردم و چیزی پیدا نکردم. * من این حس مبهم را دارم که باید از نوع AIC برای محاسبه تعداد پارامترها در توزیع استفاده کنم، اما شاید قبلاً در درجه آزادی $\chi^2$ قرار گرفته باشد.
برای مدل‌سازی هیستوگرام، تست‌های تناسب بهتر از مجذور کای؟
79984
1) چگونه می توانم آستانه طبقه بندی را تغییر دهم (فکر می کنم به طور پیش فرض 0.5 است) در RandomForest در sklearn؟ 2) چگونه می توانم در sklearn نمونه برداری کنم؟ 3) من نتیجه زیر را از طبقه‌بندی‌کننده RandomForest دارم: [[1635 1297] [520 3624]] فراخوانی دقیق f1-score کلاس پشتیبانی 0 0.76 0.56 0.64 2932 کلاس 1 0.74 0.87 0.47 0.804 مجموع 0.73 7076 اول، داده ها نامتعادل هستند (30% از کلاس-0 و 70% از کلاس-1). بنابراین، من فکر می‌کنم که طبقه‌بندی‌کننده به احتمال زیاد برای کلاس-1 سوگیری دارد، به این معنی که مقداری از کلاس-0 به کلاس-1 منتقل می‌شود (1297 طبقه‌بندی اشتباه برای کلاس-0 وجود دارد، اما 520 طبقه‌بندی اشتباه برای کلاس-1 وجود دارد). چگونه می توانم این را برطرف کنم؟ اگر نمونه برداری کوچک می تواند کمک کند؟ یا تغییر آستانه طبقه بندی؟ به روز رسانی: کلاس-0 دارای 40٪ جمعیت است در حالی که کلاس-1 60٪ است. با این حال، جابجایی از کلاس-0 به کلاس-1 (1297) زیاد است در حالی که من می خواهم این مقدار کم شود.
آستانه طبقه بندی در RandomForest-sklearn
25377
من یک مجموعه داده چند متغیره را با استفاده از یک فرم تغییر یافته از تابع mvrnorm() (از بسته MASS در R) شبیه سازی می کنم. مشکل این است که من بعد از تبدیل مقدار ویژه مقادیر منفی دریافت می کنم (من فرض می کنم) زیرا همبستگی های منفی زیادی و تعدادی میانگین کوچک دارم. آیا روش خاصی برای مقابله با این پدیده وجود دارد؟ ایده من این است که فقط فاکتوری را به همه نقاط داده (مانند چارک اول) اضافه کنم، زیرا تا زمانی که ساختار همبستگی دست نخورده باقی بماند، چندان اهمیتی به معنای دقیق آن ندارم. یک مثال ساده: require(MASS) # For [4،2] <- -.5 corr[2،4] <- -.5 set.seed(1000) mm <- mvrnorm(n=10, mu=rep(1,5)، Sigma=nearPD(corr، corr=TRUE)$mat، تجربی=TRUE) همانطور که می بینید، mm نمونه های غیر مثبت دارد. از آنجایی که می‌خواهم اندازه‌گیری‌های فیزیکی را مدل‌سازی کنم، این معنی ندارد. edit2: نمونه‌برداری چند متغیره از توزیع log-normal همچنان منجر به مثال‌های منفی می‌شود: mvrlnorm <- تابع (n = 1، mu، Sigma، tol = 1e-06، تجربی = TRUE) { نیازمند (ماتریس) p <- طول (mu) if (!all(dim(Sigma) == c(p, p))) stop(آگومان های ناسازگار) eS <- eigen(Sigma، متقارن = TRUE، EISPACK = TRUE) ev <- eS$values ​​if (!all(ev >= -tol * abs(ev[1L]))) stop(سیگما قطعی مثبت نیست) # HERE BE توزیع log-normal X <- ماتریس(rlnorm(p *n)، nrow=n) if (تجربی) {X <- مقیاس (X, TRUE , FALSE) X <- X %*% svd(X, nu = nrow(X), nv = ncol(X))$v X <- scale(X, FALSE, TRUE) } retval <- eS$vectors %*% diag(sqrt(ev), length(ev)) %*% t(eS$vectors) reval <- X %*% retval retval <- sweep(retval, 2, mu, +) X <- retval nm <- names(mu) if (is.null(nm) && !is.null(dn <- dimnames(Sigma))) nm <- dn[[1L]] dimnames(X) <- list(nm, NULL) اگر (n == 1) drop(X) other t(X)}
مشکل با مقادیر منفی هنگام شبیه سازی داده های چند متغیره با استفاده از rmvnorm
56322
یک نمودار مناسب برای نشان دادن رابطه بین دو متغیر ترتیبی چیست؟ چند گزینه که می توانم به آنها فکر کنم: 1. نمودار پراکندگی با لرزش تصادفی اضافه شده برای جلوگیری از پنهان کردن نقاط یکدیگر. ظاهرا یک گرافیک استاندارد - Minitab این را نقشه مقادیر فردی می نامد. به نظر من ممکن است گمراه کننده باشد زیرا از نظر بصری نوعی درون یابی خطی بین سطوح ترتیبی را تشویق می کند، گویی که داده ها از یک مقیاس فاصله ای هستند. 2. نمودار پراکندگی به گونه ای تطبیق داده شده است که اندازه (مساحت) نقطه به جای ترسیم یک نقطه برای هر واحد نمونه، فراوانی آن ترکیب سطوح را نشان می دهد. من گهگاه در عمل چنین طرح هایی را دیده ام. خواندن آنها ممکن است سخت باشد، اما نقاط روی یک شبکه با فاصله منظم قرار دارند که تا حدودی بر انتقاد از نمودار پراکندگی پراکنده که به صورت بصری داده ها را فاصله بندی می کند، غلبه می کند. 3. به ویژه اگر یکی از متغیرها به عنوان وابسته در نظر گرفته شود، نمودار جعبه ای که بر اساس سطوح متغیر مستقل گروه بندی می شود. اگر تعداد سطوح متغیر وابسته به اندازه کافی زیاد نباشد، احتمالاً وحشتناک به نظر می رسد (بسیار مسطح با سبیل های از دست رفته یا حتی ربع های فرو ریخته بدتر که شناسایی بصری میانه را غیرممکن می کند)، اما حداقل توجه را به میانه و چارک ها جلب می کند. آمار توصیفی مرتبط برای یک متغیر ترتیبی 4. جدول مقادیر یا شبکه خالی سلول ها با نقشه حرارتی برای نشان دادن فرکانس. از نظر بصری متفاوت اما از نظر مفهومی مشابه نمودار پراکندگی با مساحت نقطه ای که فرکانس را نشان می دهد. آیا ایده‌ها یا افکار دیگری وجود دارد که در آن طرح‌ها ارجحیت دارند؟ آیا زمینه های تحقیقاتی وجود دارد که در آن نمودارهای ترتیبی در مقابل ترتیبی به عنوان استاندارد در نظر گرفته شوند؟ (به نظر می رسد به یاد می آورم که نقشه حرارتی فرکانس در ژنومیک گسترده است، اما گمان می کنم که اغلب برای اسمی در مقابل اسمی است.) پیشنهادات برای یک مرجع استاندارد خوب نیز بسیار خوش آمدید، من چیزی را از Agresti حدس می زنم. اگر کسی بخواهد با یک نمودار نشان دهد، کد R برای داده های نمونه جعلی در ادامه می آید. ورزش چقدر برای شما مهم است؟ 1 = اصلا مهم نیست، 2 = تا حدودی بی اهمیت، 3 = نه مهم و نه بی اهمیت، 4 = تا حدودی مهم، 5 = بسیار مهم است. چقدر مرتباً 10 دقیقه یا بیشتر می دوید؟ 1 = هرگز، 2 = کمتر از یک بار در هر دو هفته، 3 = یک بار در هر یک یا دو هفته، 4 = دو یا سه بار در هفته، 5 = چهار بار یا بیشتر در هفته. اگر طبیعی است که اغلب را به عنوان یک متغیر وابسته و اهمیت را به عنوان یک متغیر مستقل در نظر بگیریم، اگر طرحی بین این دو تمایز قائل شود. اهمیت <- تکرار (1:5، بار = c(30، 42، 75، 93، 60)) اغلب <- c(تکرار(1:5، بار = c(15، 07، 04، 03، 01)) ، #n=30، اهمیت 1 تکرار (1:5، بار = c(10، 14، 12، 03، 03))، #n=42، اهمیت 2 تکرار (1:5، بار = c(12، 23، 20، 13، 07))، #n=75، اهمیت 3 تکرار (1:5، بار = c(16، 14، 20، 30، 13) )، #n=93، اهمیت 4 تکرار (1:5، بار = c(12، 06، 11، 17، 14))) #n=60، اهمیت 5 running.df <- data.frame(اهمیت، اغلب) cor.test(اغلب، اهمیت، روش = کندال) #طرح همخوانی مثبت(running.df) #در حال حاضر بی فایده یک سوال مرتبط برای متغیرهای پیوسته مفید بودند، شاید یک نقطه شروع مفید: هنگام مطالعه رابطه بین دو متغیر عددی، جایگزین‌هایی برای نمودارهای پراکنده چیست؟
نمودار ارتباط بین دو متغیر ترتیبی
25372
من یک سوال در مورد چگونگی محاسبه خوبی یک تناسب دارم. فرض کنید من یک دسته از داده‌های $(x_i، y_i، \sigma_i)$ دارم و می‌خواهم یک مدل غیرخطی $f$ (یک نمایی کشیده) را با کمینه کردن $\chi^2$: $$ به آنها برسانم. \chi^2 = \sum_{i=1}^N \frac{\left(y_i - f\left(x_i, \beta\right)\right)^2}{\sigma_i ^ 2}$$ حداقل، می‌دانم که موارد بالا از توزیع $\chi^2$ با درجه آزادی $N - \nu$ پیروی می‌کنند، که در آن $ \nu$ تعداد پارامترهای مدل است. بنابراین من می توانم یک $p$-value بر اساس آن محاسبه کنم و خوب بودن تناسب خود را ارزیابی کنم. اما این مستلزم آن است که عدم قطعیت های $\sigma_i$ شناخته شده باشند. حال فرض کنید مشاهدات من از $y_i$ در واقع با میانگین گیری نمونه هایی با اندازه های مختلف به دست آمده است. منظورم این است که برای هر $i$ من $n_i$ تکرار $y_{ij}$، $j = 1، ...، n_i$ دارم، و به جای $y_i$، $$\overline{y دارم. }_i = \frac{1}{N}\sum_{j=1}^{n_i} y_{ij}$$ و به جای $\sigma_i$ واقعی من $$\hat\sigma_i = \frac{s_i}{\sqrt{n_i}}$$ که در آن $s$ برآوردگر بی طرفانه انحراف استاندارد $i$-امین نمونه است. آیا استفاده از $\hat\sigma^2$ به جای $\sigma^2$ مفروضات استفاده از $\chi^2$ برای ارزیابی GoF را نقض می‌کند؟
برازش مجذور کای با عدم قطعیت برآورد شده از داده‌ها
104591
من نژاد را به عنوان یک متغیر در مدل خود دارم و اندازه گیری من نشان دهنده رقابت مدیران در مدیریت شرکت است (نمره 1 اگر مسابقه خاصی در مدیریت باشد). مشکل این است که مدیریت شرکت ها بیش از یک مسابقه در مدیران خود دارند. بنابراین، وقتی می‌خواهم نژاد را به طور آماری خلاصه کنم که چهار عدد است، درصد کل بیش از 100٪ است بهترین راه برای نشان دادن نتایج چیست؟ پیشنهادات شما بسیار قدردانی می شود
آمار توصیفی بیش از 100% را نشان می دهد
25371
من از تابع 'glmer()' از بسته lme4 برای اجرای GLMM با استفاده از توزیع پواسون استفاده می کنم. در تمام مثال‌هایی که من می‌بینم، قسمت اثرات تصادفی خروجی دارای یک بخش باقی‌مانده است که از داده‌ها تخمین زده شده است (در مثال زیر با 2 ستاره در دو طرف احاطه شده است). سپس می توان از این اطلاعات در تفسیر میزان تغییرات توضیح داده شده توسط اثر تصادفی استفاده کرد. در اینجا یک مثال آورده شده است: > خلاصه (M1) خطی مدل مختلط متناسب با فرمول REML: غنا ~ NAP * fExp + (1 | fBeach) داده: RIKZ AIC BIC logLik انحراف REMLdev 236.5 247.3 -112.2 230.3 224 Variance گروه Name. .Dev. fBeach (Intercept) 3.3072 1.8186 **Residual 8.6605 2.9429** تعداد obs: 45، گروه: fBeach، 9 Fixed effect: Estimate Std. مقدار خطای t (Intercept) 8.8611 1.0208 8.681 NAP -3.4637 0.6279 -5.517 fExp11 -5.2556 1.5451 -3.401 NAP:fExp11 2.000614 Corection of 2.000614 0.29. (Intr) NAP fExp11 NAP -0.181 fExp11 -0.661 0.120 NAP:fExp11 0.120 -0.664 -0.221 با این حال، وقتی از داده‌های خودم استفاده می‌کنم، خروجی دریافت می‌کنم که شامل این اطلاعات نمی‌شود، و مطمئن نیستم چرا. من می‌خواهم بدانم که چه مقدار از تغییرات توسط افکت‌های تصادفی من توضیح داده می‌شود، اما نمی‌توانم نحوه دسترسی به اطلاعات لازم برای پاسخ به سؤال را بفهمم. هر سرنخ؟ آیا این یک مسئله داده/آمار است یا دانستن نحوه دسترسی به موضوع اطلاعات است؟ اگر در جای اشتباهی سوال می کنم عذرخواهی می کنم. خروجی ای که دریافت می کنم شبیه خروجی زیر است: مدل ترکیبی خطی تعمیم یافته متناسب با فرمول تقریبی لاپلاس: y ~ z.score(x1) + z.score(x2) + z.score(x3) + z.score(x4 ) + z.score(x5) + z.score(x6) + (1 | RE) داده: p AIC BIC logLik انحراف 419.5 454.7 -201.8 403.5 اثرات تصادفی: نام گروه ها Variance Std.Dev. RE (Intercept) 0.021605 0.14699 تعداد obs: 600، گروه‌ها: RE، 40 جلوه‌های ثابت: Estimate Std. خطای z مقدار Pr(>|z|) (انتقال) 1.70591 0.02911 58.60 < 2e-16 *** z.score(x1) 0.19087 0.03595 5.31 1.10e-07 *** z.score(x2) 0.10e-07 *** z.0score(x2) 0.000460 *** z.score(x3) -0.16562 0.04020 -4.12 3.79e-05 *** z.score(x4) 0.13229 0.03425 3.86 0.000112 *** 58 z.89 -0.01x -2.66 0.007885 ** z.score(x6) 0.17600 0.05798 3.04 0.002401 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 همبستگی جلوه های ثابت: (Intr) z.(x1) z.(x2 z.s(x3) z.(x4 z.(x5 z.scr(x1) -0.051 z.s(x2) 0.038 0.259 z.scr(x3) 0.045 0.156 0.113 z.(x4 -0.040 0.144 -0.052 0.044 z.(x5 0.026 -0.368 -0.339 -0.072 -0.072 -0.073 -0.339 -0.072 z. 0.002 -0.143 -0.004 در اینجا چند داده نمونه وجود دارد که با «glmer(y ~ x1 + (1|RE), data=d, family=poisson)» مطابقت دارد. 3، 5، 2، 6، 3، 7، 2، 3، 0، 4، 0،10، 1، 4، 0، 4، 2، 3، 0، 6، 3، 4، 2، 3، 2، 3، 3، 4، 0، 5، 6، 5، 4، 4، 0، 3، 1، 6، 0، 3، 2، 2، 1، 6، 2، 7، 0، 2، 0، 4، 0، 6، 4، 5، 1، 5، 1، 4، 1، 2، 3، 6، 6، 7، 0، 5، 0، 9، 1، 4، 5، 6، 1، 7، 1، 4، 1، 4، 0، 4، 1، 6، 1، 4، 0، 7، 1، 4، 0، 6، 0، 7، 2، 6، 0، 6، 1، 5، 0، 4، 1، 7، 2، 4، 1، 5، 1، 7، 2، 5، 0، 4، 3، 5، 1، 4، 0، 3، 0، 6، 0، 8، 3، 9، 0، 2، 3، 8، 0، 1، 0، 3، 0، 5، 0، 4، 4، 5، 0، 5، 1، 5، 3، 5، 1، 4، 3، 4، 4، 4، 4، 4، 4، 7، 1، 8، 1، 4، 0، 2، 2، 5، 1، 4، 1، 5، 1، 4، 2، 4، 2، 4، 0، 6، 1، 6، 0، 6، 1، 2، 1، 3، 1، 8، 1، 6، 1، 6، 0، 6، 1، 6، 2، 6، 2، 4، 0، 1، 1، 1، 1، 6، 5، 5، 1، 5، 2، 4، 2، 6، 1، 7، 1، 8، 2، 8، 1، 8، 2، 4، 1، 7، 3، 6، 4، 7، 3، 7، 1، 6، 3، 5، 1،10، 1، 7، 2، 5، 1، 5، 0، 6، 1، 8، 4، 7، 1، 6، 1، 9، 0، 9، 1، 3، 2، 5، 2، 9، 3، 5، 0، 2، 2، 3، 0، 5، 0، 5، 0، 4، 3، 6، 1، 10، 2، 8، 0، 6، 0، 4، 2، 6، 2، 4، 2، 6، 1، 4، 0، 5، 2، 6، 1، 5، 2، 5، 1، 5، 1، 5)، x1 = rep(c(0.1008، 0.0511، 0.1792، 1.0345)، c(80، 80، 80، 60))، RE = rep(c(37، 88، 139، 190, 241, 292, 343, 394, 91, 142, 193, 244, 295, 346, 397, 40, 94, 145, 43, 196, 247, 298, 194, 304,349 250، 148، 199، 46، 97، 355، 406، 253، 304، 49، 100، 151، 202، 37، 88، 139، 190، 241، 292، 314،343، 314 244, 295, 346, 397, 40, 43, 94, 145, 247, 298, 349, 196, 400, 199, 250, 301, 352, 406, 46, 94, 97, 46 151، 202، 253،
واریانس با اثرات تصادفی با استفاده از lme4 توضیح داده شد
110247
من دو سوال در مورد جدول احتمالی 2x2 زیر دارم: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Sy8fk.png) 1، چگونه می توانم حداکثر احتمال احتمال نسبت شانس را استخراج کنم ( $OR = (a*d)/(c*b)$) 2، چگونه می توانم فواصل اطمینان دقیق را استخراج کنم (نه تقریب های معمولی) با درک اینکه یک فرض توزیعی باید انجام شود، فکر می‌کردم این دوجمله‌ای است، اما مطمئن نیستم از آنجا به کجا بروم.
جدول احتمالی 2×2 - برآورد حداکثر احتمال نسبت شانس و فواصل اطمینان دقیق
81430
من یک مدل ترکیبی دارم و داده‌ها به این شکل است: > head(pce.ddply) موضوع خطاهای نوع خطاهای نوع 1 j202 G O 0.00000000 2 j202 G P 0.00000000 3 j203 G O 0.0833000000 j203 G O 0.0833000000 5 j205 G O 0.16666667 6 j205 G P 0.00000000 هر موضوع دو نقطه داده برای نوع خطا (O یا P) ارائه می‌کند و هر موضوع در شرایط G (N=30) یا N (N=33) قرار دارد. errorType یک متغیر تکراری و Condition یک متغیر بین است. من هم به جلوه های اصلی و هم به تعاملات علاقه دارم. بنابراین، ابتدا یک anova: > summary(aov(errors ~ Condition * errorType + Error(subject/(errorType))، داده = pce.ddply)) خطا: موضوع Df Sum Sq Mean Sq F مقدار Pr(>F) شرط 1 0.00507 0.005065 2.465 0.122 باقیمانده 61 0.12534 0.002055 خطا: موضوع: errorType Df Sum Sq Mean Sq F مقدار Pr(>F) errorType 1 0.03199 0.03199 10.52 0.001919 ** شرط: errorTy11010004 13.19 0.000579 *** Residuals 61 0.18552 0.00304 شرط مهم نیست، اما errorType است، و همچنین تعامل. با این حال، وقتی از lmer استفاده می‌کنم، مجموعه‌ای کاملاً متفاوت از نتایج را دریافت می‌کنم: > lmer(خطاها ~ شرط * نوع خطا + (1 | موضوع)، داده = pce.ddply) مدل ترکیبی خطی متناسب با فرمول REML: خطاها ~ شرط * نوع خطا + (1 | موضوع) داده: pce.ddply AIC BIC logLik انحراف REMLdev -356.6 -339.6 184.3 -399 -368.6 اثرات تصادفی: نام گروه ها Variance Std.Dev. موضوع (Intercept) 0.000000 0.000000 Residual 0.002548 0.050477 تعداد obs: 126، گروه ها: موضوع، 63 اثرات ثابت: Estimate Std. مقدار خطای t (Intercept) 0.028030 0.009216 3.042 ConditionN 0.048416 0.012734 3.802 errorTypeP 0.005556 0.013033 0.426 Type140. 0.018008 -3.967 همبستگی اثرهای ثابت: (Intr) CndtnN errTP ConditionN -0.724 errorTypeP -0.707 0.512 CndtnN:rrTP 0.512 -0.707 -0.724 error است، اما برای نه همچنین، نتیجه lmer دقیقاً مشابه نتیجه glm است، که باعث می شود باور کنم چیزی اشتباه است. لطفاً کسی می تواند به من کمک کند تا بفهمم چرا آنها اینقدر متفاوت هستند؟ من گمان می‌کنم که از lmer اشتباه استفاده می‌کنم (اگرچه بسیاری از نسخه‌های دیگر مانند (ErrorType | موضوع) را با نتایج مشابه امتحان کرده‌ام. (من دیده‌ام که محققان از هر دو رویکرد در ادبیات با داده‌های مشابه استفاده می‌کنند.)
چرا تفاوت چشمگیری بین aov و lmer وجود دارد؟
45550
من نمودار تشخیصی زیر را برای داده های خود دارم. آیا نرمال بودن، به ویژه با توجه به نمودارهای باقیمانده زیگ زاگ نقض شده است؟ ![عادی نقض شد؟](http://i.stack.imgur.com/3AX8m.png)
آیا نمودار باقیمانده زیگزاگ به این معنی است که نرمال بودن نقض شده است؟
64562
من سه مجموعه داده دارم که توسط سه دستگاه مختلف اندازه‌گیری می‌شود: «A، B» و «C» بالون هوایی که سقوط آن تحت تأثیر باد است. هر برگه داده به این صورت است: الف: طول جغرافیایی، ارتفاع چرخش وزن (در حدود محور اصلی) زمان ... ... ... ... ... ... ب: طول جغرافیایی طول جغرافیایی ارتفاع وزن چرخش وزن (در حدود محور اصلی) زمان ... ... ... ... ... ... و به طور مشابه برای `C`. آیا تکنیک های استانداردی برای مقایسه اندازه گیری خطای «B» و «C» با توجه به «A» (استاندارد در نظر گرفته شده) وجود دارد؟ توجه داشته باشید که به جز زمان، همه پارامترهای دیگر هم می توانند افزایش یا کاهش پیدا کنند و طول/طول جغرافیایی و چرخش تنها پارامترهایی هستند که می توانند مثبت و منفی باشند. مشکل رگرسیون این است که من متغیر مستقل/وابسته ندارم. روش تجزیه و تحلیل خطا که من به طور کلی استفاده می کنم این است که ${\rm Err}_{x}$، ${\rm Err}_{y}$، و ${\rm Err}_{z}$ را محاسبه و ترکیب کنم. زمانی که من تابعی دارم که چیزی را توضیح می دهد، آنها را مناسب می دانند. من عملکرد ​​را ندارم. (منظورم این است که من تابعی برای استفاده از انتشار خطا ندارم.) دقیقاً، سعی می کنم دقت دستگاه های B و C را اندازه گیری کنم یادداشت جانبی: نتوانستم یک برچسب مناسب پیدا کنم.
دو مجموعه داده را با هم مقایسه کنید
82352
من از طریق گلمن و هیل، تجزیه و تحلیل داده ها و رگرسیون با استفاده از مدل های چندسطحی/سلسله مراتبی (2007)، با استفاده از بسته «بازو» کار می کنم، و سعی می کنم مدل های چند سطحی را با چارچوب اقتصادسنجی که بیشتر با آن آشنا هستم مرتبط کنم. من انتظار داشتم که یک مدل چندسطحی با ضریب شیب غیرمتغیر و ضریب برش متغیر نتایج یکسانی را برای یک رگرسیون اثر ثابت و بدون ثابت ارائه دهد. انتظار داشتم کد R و Stata زیر نتایج یکسانی را ایجاد کند. آنها نمی کنند - می توانید به من بگویید چرا؟ کد R: M1 <- lmer(y ~ x1 + x2 + (1 | شهرستان)) کد Stata: reg y x1 x2 i.county, noconstant ضرایب تولید شده توسط این دو رویکرد کاملاً متفاوت است. کد Stata y را روی متغیرهای نشانگر اضافی x1، x2 و K برای هر شهرستان رگرسیون می کند. R چه کاری انجام می دهد که متفاوت است؟ آیا آنالوگ رگرسیون OLS وجود دارد؟
مدل چند سطحی با متغیر رهگیری در مقابل رگرسیون اثر ثابت
82356
من جدول زیر را در `R` df <- structure(list(x = structure(c(12458, 12633, 12692, 12830, 13369, 13455, 13458, 13515), class = Date), y = c( 6080, 6949, 7076, 7818, 0, 0، 10765، 11153))، .Names = c(x، y)، row.names = c(1، 2، 3، 4، 5، 6 ، 8، 9), class = data.frame) > df x y 1 2004-02-10 6080 2 2004-08-03 6949 3 2004-10-01 7076 4 2005-02-16 7818 5 2006-08-09 0 6 2006-11-03 0 8 2006-11-06 10765 9 1015 2007 برازش خطی توکی (تابع «خط» در «R») از طریق خطوط plot(data=df, y ~ x) (df$x, line(df$x, df$y)$fitted.values) که تولید می کند: ![ توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/n5TGd.png) همه چیز خوب است. نمودار بالا مقادیر مصرف انرژی را نشان می دهد که انتظار می رود فقط افزایش یابد، بنابراین من از اینکه تناسب از آن دو نقطه عبور نمی کند (که متعاقباً به عنوان نقاط پرت علامت گذاری می شوند) خوشحالم. با این حال، فقط آخرین نقطه را حذف کرده و دوباره ترسیم کنید fitted.values) نتیجه کاملاً متفاوت است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/4Ddau.png) نیاز من این است که در هر دو سناریو بالا نتیجه ایده آل یکسانی داشته باشم. به نظر نمی رسد که R برای رگرسیون یکنواخت، علاوه بر «ایزورگ» که به صورت تکه ای ثابت است، تابع آماده استفاده از آن باشد. ویرایش: همانطور که @Glen_b اشاره کرد، نسبت مقادیر پرت به اندازه نمونه برای تکنیک رگرسیون استفاده شده در بالا بسیار بزرگ است (28٪). با این حال، من معتقدم ممکن است چیز دیگری را در نظر بگیریم. اگر نقاط ابتدای جدول را اضافه کنم: df <- rbind(data.frame(x=c(as.Date(2003-10-01)، as.Date(2003-12-01) , y=c(5253,5853))، df) و دوباره مانند «plot(data=df, y ~ x) دوباره محاسبه کنید. lines(df$x, line(df$x,df$y)$fitted.values)` من همان نتیجه را می‌گیرم، با سهمیه ~22%![توضیح تصویر را اینجا وارد کنید](http://i.stack .imgur.com/hwIZp.png)
رگرسیون یکنواخت قوی در R
96307
من به http://www.markowetz.org/florian/FlorianMarkowetz_DiplMath_thesis.pdf در صفحه 31-35 مراجعه می کنم، او تلاش می کند تا اثبات Vapniks مبنی بر اینکه مسئله اولیه یک مشکل دوگانه برای ابرصفحه حاشیه حداکثر (هیپرصفحه بهینه) معادل هستند، دوباره فرموله کند. متأسفانه نسخه بیان شده به نظر من اشتباه است زیرا در صفحه 35 زنجیره معادله درست قبل از (7) صحیح نیست. حداقل نمی‌دانم چرا «>» دوم باید بماند. جایگزینی فرض در معادله منجر به < می شود تا جایی که من می بینم. آیا کسی راه دیگری برای اثبات نتیجه دلخواه می داند یا می تواند به من بگوید که در چه چیزی اشتباه می کنم؟ من نگاهی به نظریه یادگیری آماری Vapniks (1998) در صفحه 403 انداختم اما این نوع نمادگذاری واقعاً من را گیج کرد. خیلی ممنون
چگونه می توان Hyperplane جداکننده بهینه را برای یک ماشین بردار پشتیبان ساخت
96309
از آنچه من در مورد حداکثر احتمال اطلاعات کامل (FIML) می دانم، مفروضات به صورت تصادفی (MAR) گم شده اند، که نمی توان آن را آزمایش کرد و نرمال بودن چند متغیره. مزایای FIML کارایی مجانبی، نرمال بودن مجانبی و تخمین پارامترهای بی طرفانه (یا سازگار؟) است. معایب: خطاهای استاندارد به سمت پایین سوگیری دارند. در یک مدل رگرسیون با متغیرهای باینری (ساختگی)، به عنوان مثال. جنسیت، فرض نرمال بودن چند متغیره نقض می شود. عواقب این تخلف چیست و بهترین راه برای مقابله با آن چیست؟
مفروضات و تخلفات FIML
96512
استفاده از رگرسیون برای سادگی، داده‌های غیرفصلی ثابت را فرض می‌کنیم. مثال: اگر می‌خواهیم حجم فروش را برای ماه‌های خاص پیش‌بینی کنیم، داده‌های روزانه را با داده‌های ماهانه تجمیع می‌کنیم و مدل خود را متناسب می‌کنیم، و غیره. اگر بخواهیم بر اساس سال نیز پیش‌بینی کنیم، آیا درست است که آن داده‌ها را به سال تجمیع کنیم، متناسب با یک مدل و پیش بینی؟ یا باید به کل/مدل ماهانه پایبند باشیم؟ سپس ما باید 12 ماه را در هر زمان پیش بینی کنیم. ما نمی خواهیم پیش بینی های ماهانه و سالانه را مقایسه یا مرتبط کنیم.
خوب است که از سطوح مختلف تجمیع برای دوره های مختلف پیش بینی استفاده شود؟
21983
آمار کولموگروف اسمیرنوف... در ویکی خواندم که برای مقایسه توزیع نمونه با مرجع استفاده می شود. با این حال، من در شرکتی کارآموزی کرده ام که قرار بود مدل سازی پیش بینی انجام دهد و آنها مدام در مورد _KS برای یک مدل_ صحبت می کنند. آنها در مورد چه چیزی صحبت می کردند؟
استفاده از آماره کولوموگروف- اسمیرنوف در مدل سازی پیش بینی
21989
من سعی می کنم برای $X_n$ iid st نشان دهم. $E|X|^q < \infty$ that $$ \frac{1}{n} \sum^n (X_i - \bar{X})^q \to E((X-EX)^q) $ دلار به احتمال زیاد من از روش زیر استفاده کردم: * $ \frac{1}{n} \sum_{i=1}^n X_i \to EX$ را در prob یادداشت می‌کنیم. توسط WLLN، یعنی $\bar{X}_n \به EX$ به احتمال زیاد * $ Y_i := (X_i - EX)^q $ iid است یعنی ما از Slutsky در $\frac{1}{n} \sum استفاده می کنیم ^n (X_i - \bar{X})^q $ برای بدست آوردن متغیرهای تصادفی iid و سپس استفاده از WLLN مطابق زیر: $$ \frac{1}{n} \sum_{i=1}^n (X_i - \bar{X})^q \quad \xrightarrow{\text{Slutsky}} \quad \frac{1}{n} \ sum^n (X_i - EX)^q \quad\xrightarrow{\text{WLLN}} \quad E(X-EX)^q \>. $$ اکنون، متوجه شدم که، البته، زمانی که Slutsky را اعمال کردم، $ n \ به \infty $ برداشتم بنابراین واقعاً نمی توانم آخرین مرحله را از طریق WLLN بردارم. آیا کسی می تواند به من کمک کند تا این اثبات را درست کنم؟
نمایش $ \frac{1}{n} \sum_{i=1}^n (X_i - \bar{X})^q \به E((X-EX)^q)$ به احتمال زیاد
104598
فرض کنید $X$ یک متغیر تصادفی با توزیع $F_X$ و چگالی $f_X$ باشد. $$g(x) = \left\\{ \begin{array}{lr} x & : x \ge 0\\\ 0 & : x < 0 \end{array} \right\\}$$ و اجازه دهید $Y=g(X)$. PDF $Y$ چیست؟ **رویکرد من:** از طریق CDF $$F_Y(y) = \Pr(Y\le y) = \Pr(g(X)\le y) = \Pr(X\le y) = F_X(y) , \ y\ge 0$$ پس از گرفتن مشتق، $$f_Y(y) = f_X(y)، \ y \ge 0$$ این نادرست به نظر می رسد زیرا $f_Y(y)$ یک PDF نیست (انتگرال برابر با یک نیست). من می دانم که احتمالاً باید با این واقعیت ارتباط داشته باشد که همه $x\lt 0$ روی $y=0$ نگاشت شده اند. من فقط نمی دانم چگونه می توانم این را به روشی سازنده بگنجانم.
تابع یکسو کننده متغیر تصادفی
110240
من یک مدل با سه متغیر دارم (بدون فاصله). ضرایب به ترتیب -2.7398-.0.0190.3044 است. اهمیت نسبی محاسبه شده از مقدار t 16٪، 3٪، 3٪ است. این اعداد؟
آیا کسی می تواند به من در محاسبه اهمیت نسبی پیش بینی کننده ها در یک مدل با استفاده از مقدار t کمک کند؟
96305
فرض کنید $X_{1},\,\ldots,\, X_{n}$ و $T_{1},\,\ldots,\, T_{r}$ و دو مجموعه از متغیرهای تصادفی با هر $X_{ i}$ مقوله‌ای است و هر $T_{j}$ به‌طور پیوسته تمام مقادیر را در محدوده $\left[0,\,\infty\right)$ می‌گیرد. از قبل مشخص شده است که Tها مجموعه ای از مشاهدات هستند که باعث ایجاد توزیع X می شوند. چگونه ثابت کنم $\overset{n}{\underset{i=1}{\bot}}X_{i}\mid\overset{r}{\underset{j=1}{\bot}}T_{j }$؟
چگونه می توانم استقلال متقابل مجموعه ای از متغیرهای تصادفی را با توجه به مجموعه دیگری از متغیرهای تصادفی مستقل متقابل اثبات کنم؟
64564
## آزمایش مجموعه‌ای از بخش‌های زمانی مستقل $N$ را در نظر بگیرید. 1. مقدار زمان را در بخش داده شده اندازه گیری کنید: $t_i$ 2. تعداد رویدادهایی را که در یک بخش مشخص رخ می دهد بشمارید: $m_i$ تخمینی از نرخ ماشه کلی $R=M/T$ است که در آن $T$ و $M$ به ترتیب زمان کل و تعداد کل رویدادها در این تحلیل است. تعداد تخمینی رویدادهایی که در بخش $i^{th}$ با توجه به نرخ محاسبه شده در بالا، $e_i=t_iR$ است. سپس می توان از تست Pearson $\chi^2$ $$ X^2 = \sum_{i=1}^N \frac{(m_i-e_i)^2}{e_i} $$ برای محاسبه آمار آزمون برای داده‌ها و از آن مقدار p برای $\chi^2 \geq X^2$ با درجات آزادی N-1$ محاسبه کنید. * * * ## زیر مجموعه ای از داده ها t = numpy.array([ 41964., 65105., 16178., 16018., 27868., 3293., 7153., 10808., 7228., 37024., 7228., 37024. 86558.، 25638.، 15268.، 14753.، 25773.، 69998.، 2298.، 1858.، 28058.، 3788.، 20653.، 5483.، 22238.، 22238.، 2431. 6358.، 26908.، 7388.، 4558.، 8068.، 32718.، 34648.، 13588.، 22298.، 12588.، 2588.، 19972.، 726.8.، 726.8. 39253.، 62278.، 71018.، 51338.، 17838.، 106228.، 19228.، 50038.]) m = numpy.array([ 185.، 322.، 86.1.، 82. 34.، 66.، 44.، 176.، 387.، 439.، 138.، 73.، 62.، 115.، 331.، 9.، 9.، 146.، 16.، 101.، 25.، 111. ، 14.، 21.، 160.، 29.، 111.، 39.، 21.، 34.، 148.، 168.، 64.، 107.، 58.، 19.، 100.، 29.، 124.، 30.، 173.، 298.، 328. ، 233.، 84.، 493.، 95.، 229.]) * * * ## کد و نتایج numpy را از آمارهای واردات scipy وارد می کنند R = numpy.sum(m)/numpy.sum(t) e = t*R X2, p_rs = stats.chisquare(m,e ) * $R = 0.004755$ * $X^2 = 30.71$ * $p_{rs} = 0.9811$ این است برای من روشن نیست که چگونه می توان مقدار p-قدرت سمت راست (یک دم) را اینقدر بزرگ تفسیر کرد. اگر تمام 115 بخش را به جای 50 قسمت اول در محاسبه لحاظ کنم، * $R = 0.004757$ * $X^2 = 66.59$ * $p_{rs} = 0.9999$ که فقط سردرگمی من را بدتر می کند. من نمی توانم ببینم چگونه ممکن است که من توافق خوبی بین تعداد تخمینی رویدادها و مقادیر اندازه گیری شده داشته باشم. کدام ایده ساده (یا نه چندان ساده) را از دست داده ام که این را منطقی کند؟
تفسیر آزمون کای دو پیرسون نرخ رویداد پواسون ثابت در آزمایش‌های شمارش مستقل
112491
من با مفهوم کامل قضیه بیز و کاربردهای آن در بازاریابی آشنا هستم. من سعی کرده ام این را به تنهایی یاد بگیرم، اما مطمئن نیستم که آیا اشتباهات احمقانه ای انجام می دهم یا اینکه فرمول را به درستی اعمال می کنم - امیدوارم بتوانید به من بگویید! من می خواهم این احتمال را بدست بیاورم که یک گروه سنی خاص (مثلاً 18 تا 25 سال) گروهی است که با توجه به معامله تبدیل شده است. این داده‌هایی است که استفاده کردم (اعداد کمی تغییر کرده): گروه 1: سن 18-24 سال، 92 تراکنش، 0.65٪ نرخ تبدیل گروه 2: 25-34، 458، 0.87٪ گروه 3: 35-44، 480، گروه 1.10٪ 4: 45-54، 499، 1.36٪ گروه 5: 55-64، 582، 1.38٪ گروه 6: 65+. 382, 1.43% آیا موارد زیر صحیح است؟ * من سوال را اینگونه مطرح کردم: با توجه به یک معامله، احتمال اینکه از گروه X آمده باشد چقدر است؟ * نسبت تراکنش را گرفتم و آن را در نرخ تبدیل ضرب کردم و سپس کل چیز را بر مجموع همه شرط ها تقسیم کردم * با این داده ها (به نزدیکترین درصد گرد شد) 2٪، 13٪، 18٪، 23 به دست آمد. درصد، 27 درصد و 18 درصد. بنابراین برای گروه 1، احتمال اینکه یک تراکنش از 18-24 آمده باشد فقط 2٪ است، آیا این استفاده صحیح است؟ این به نظر درست است، اما احساس درست بودن و استفاده درست از آن دو چیز متفاوت است!
قضیه بیز - آیا این مثال بازاریابی درست است؟
110244
فرض کنید زمان بین ورود متوالی مشتریان به یک ایستگاه تک سرور، متغیرهای تصادفی مستقل با توزیع مشترک $F$ هستند. فرض کنید وقتی مشتری وارد می شود، اگر سرور رایگان است، بلافاصله وارد سرویس می شود یا اگر سرور با مشتری دیگری مشغول است، به انتهای صف می پیوندد. هنگامی که سرور کار را روی مشتری کامل می کند، مشتری سیستم را ترک می کند و مشتری منتظر بعدی، در صورت وجود، وارد سرویس می شود. اجازه دهید $X_{n}$ تعداد مشتریان در سیستم را بلافاصله قبل از ورود $n^{th}$ و $Y_{n}$ نشان دهنده تعداد مشتریانی باشد که در سیستم باقی می‌مانند هنگامی که $n^{th }$ مشتری می رود. زمان‌های خدمات متوالی مشتریان، متغیرهای تصادفی مستقل هستند (که از زمان‌های بین ورود نیز مستقل هستند) دارای توزیع مشترک G. 1. اگر $F$ توزیع نمایی با نرخ $\lambda$ باشد، که در صورت وجود، فرآیندهای $\\{X_{n}\\}، \\{Y_{n}\\}$ یک زنجیره مارکوف است؟ 2. اگر $G$ توزیع نمایی با نرخ $\lambda$ باشد، که در صورت وجود، از فرآیندهای $\\{X_{n}\\}، \\{Y_{n}\\}$ یک زنجیره مارکوف؟ 3. احتمالات انتقال هر زنجیره مارکوف را در قسمت های (الف) و (ب) ارائه دهید. من راه حل هایی برای مشکل دارم اما چندین بار آنها را خوانده ام و هنوز کار را متوجه نشده ام. هر گونه کمکی بسیار قدردانی خواهد شد. به سلامتی
مشکل صف زنجیره مارکوف
2770
من یک دانشجوی رشته آمار در مقطع کارشناسی هستم که به دنبال درمان خوبی برای تجزیه و تحلیل آزمایشات بالینی هستم. متن باید مبانی طراحی آزمایشی، مسدود کردن، تجزیه و تحلیل توان، طراحی مربع‌های لاتین و طرح‌های تصادفی‌سازی خوشه‌ای و سایر موضوعات را پوشش دهد. من دانشی در مورد آمار ریاضی و تجزیه و تحلیل واقعی دارم، اما اگر متن فوق‌العاده‌ای وجود داشته باشد که نیاز به سطح بالاتری از آمار یا تجزیه و تحلیل داشته باشد، می‌توانم آن را انجام دهم.
متن خوبی در مورد کارآزمایی های بالینی؟
25376
من یک پایگاه داده دارم که امضاهایی را نشان می دهد که به یک دادخواست اضافه شده است، که هر امضا به یک مکان (شهر، ایالت)، یک تاریخ و یک توالی در تاریخ مرتبط است (مثلاً امضای هفتم در 26/3 از روچستر، نیویورک آمده است) . من می خواهم الگوهای جغرافیایی را در داده ها تشخیص دهم - به عنوان مثال. هنگامی که یک امضا از روچستر منجر به امضای بیشتر از روچستر می شود، و همچنین زمانی که امضایی از روچستر منجر به امضای سانفرانسیسکو یا فیربنکس می شود). برای ساده‌تر کردن فعلاً، می‌توانم فقط به یک امضا در روز نگاه کنم، توالی w/i روز را نادیده بگیرم و یک ماتریس بسازم - یک ردیف برای هر مکان، یک ستون برای هر مکان. مقدار هر سلول، فرکانس مشاهده شده یک یا چند امضا از محل ستون در یک روز است، زمانی که حداقل یک امضا از محل ردیف در روز قبل وجود داشت. واضح است که اگر پیوند جغرافیایی وجود نداشته باشد، مقادیر هر سلول در یک ستون معین یکسان خواهد بود. واضح است، همچنین، تغییرات شانسی منجر به تغییرات جزئی در مقادیر سلول در پایین ستون می شود، حتی اگر هیچ پیوند جغرافیایی وجود نداشته باشد. از چه آماری باید برای تعیین اینکه آیا به طور کلی وابستگی جغرافیایی وجود دارد یا خیر استفاده کنم - اینکه بدانیم کدام مکان‌ها دیروز امضا ارائه کرده‌اند تا پیش‌بینی کنیم کدام مکان‌ها امروز امضا ارائه می‌کنند؟ (یعنی فرضیه صفر من این است که دانستن اینکه کدام مکان‌ها دیروز امضا تولید کرده‌اند، به پیش‌بینی اینکه کدام مکان‌ها امروز امضا تولید می‌کنند، کمکی نمی‌کند.) از چه آماری برای تشخیص وابستگی‌های خاص استفاده کنم؟ به طور خاص، من حدس می‌زنم که برخی مکان‌ها به‌طور تصادفی امضا ارائه می‌کنند، در حالی که مکان‌های دیگر یا توسط فعالیت در آن مکان هدایت می‌شوند (مثلاً گروهی از فعالان در Fairbanks، AK هر روز برای جمع‌آوری امضاها کار می‌کنند)، یا حتی بین مکان‌ها ( فعالان سانفرانسیسکو روز دوشنبه برای تعداد زیادی امضای SF فشار می آورند، سپس با همکاران خود در لس آنجلس در روز سه شنبه تماس می گیرند و غیره). در این مورد، من یک فرضیه صفر برای هر مکان X دارم: دانستن اینکه کدام مکان‌ها (از جمله X) دیروز امضا تولید کرده‌اند، به پیش‌بینی اینکه آیا به‌طور خاص X امروز امضا تولید می‌کند یا خیر کمکی نمی‌کند. از دوره‌ی آماری که مدت‌ها پیش بود، به خی دو فکر می‌کنم، اما برای نکات دقیق‌تر سپاسگزار خواهم بود.
چگونه از مجذور کای (یا بیزی) برای تشخیص تغییرات غیر شانسی در ماتریس فرکانس ها استفاده کنیم؟
96302
برای کسانی که با تگزاس هولدم آشنا نیستند، یک مستقیم فقط 5 کارت در یک دنباله شماره گذاری شده است - به عنوان مثال، «{2،3،4،5،6}». ما آن کارت ها را با انتخاب بهترین 5 کارت از 7 کارت دریافت می کنیم که دو کارت در دست شروع شما هستند و 5 کارت در جدول که پشت سر هم کشیده شده اند. هدف من این است که با توجه به یک دست شروع خاص (پیش فلاپ) احتمال دریافت مستقیم را محاسبه کنم. به عنوان مثال، فرض کنید دست شروع «{2،3}» را می‌گیریم. چگونه می‌توانیم احتمال دریافت «{2،3،4،5،6}» را با استفاده از کارت‌های انجمن محاسبه کنیم؟ می‌دانیم که به کارت‌های «{4،5،6}» نیاز داریم تا حداقل یک بار در کارت‌های انجمن ظاهر شوند. به منظور (امیدوارم) ساده کردن محاسبات، تصمیم گرفتم هر کارت را مستقل در نظر بگیرم - بیایید وانمود کنیم که با یک پشته به هم ریخته از تعداد بی نهایت عرشه استاندارد 52 کارتی بازی می کنیم. می‌توانیم دقیقاً همان کارت را دو بار دریافت کنیم، از جمله کارت‌هایی که از قبل در دست داریم. در چنین بازی با داشتن 5 قرعه کشی تصادفی و تنها با در نظر گرفتن شماره کارت، مجموعاً '13^5' نتیجه ممکن داریم. سوال من دوگانه است: * چگونه می توان تعداد دفعاتی که کارت های خاص (`{4,5,6}`) در نتایج احتمالی `13^5` ظاهر می شوند را به طور مؤثر محاسبه کرد. من نمی دانم که آیا - از آنجایی که قرعه کشی ها مستقل هستند - احتمال به دست آوردن {4،5،6} به سادگی (1-(12/13)^5)^3 است؟ من در تقلا هستم تا چیز قابل قبول تری پیدا کنم. * آیا تعداد بی نهایت عرشه یک تقریب معقول است و آیا راهی برای محاسبه احتمال بدون آن وجود دارد؟ \--EDIT-- آیا می‌توان این را به‌طور تصادفی با استفاده از توزیع «دوجمله‌ای(5،1/13)» محاسبه کرد، که در آن مقدار «CDF معکوس» 1 است (یعنی مجموع PDF از 1 تا بی نهایت == 1)؟ به نظر می رسد یک شبیه سازی با عدد 0.021 ارائه می شود
احتمال به دست آوردن مستقیم در پوکر (تگزاس هولدم)
56325
من را برای یک فریب احتمالی ببخشید، زیرا من اصطلاح درستی را برای جستجوی یک سوال موجود نمی دانم. همچنین لطفاً برچسب Trends یا مشابه را اضافه کنید، زیرا من شهرت ایجاد برچسب های جدید را ندارم. من داده های بازار مانند این را دارم: X Y S 10 20 0 20 30 1 20 25 0 15 10 0 ... که در آن X و Y متغیرهای خاصی هستند که برای محاسبه یک قیمت به مشتری استفاده می شوند و S این است که آیا مشتری پیشنهاد را قبول کرده است (0) = نه، 1 = بله). اکنون می‌خواهم نوعی روند دو بعدی را برای X، Y و S محاسبه کنم و یک تابع f(X, Y) = s تولید کنم که در آن s احتمال (0..1) پذیرش مشتری است. پیشنهاد برای X و Y داده شده. ما می توانیم فرض کنیم که روند یک هواپیما است، نه یک سطح سه بعدی بد بو. بنابراین: 1. چگونه می توانم f و 2 را تعیین کنم. اگر این چیزی است که به راحتی در اکسل انجام نمی شود، هنگام جستجوی یک کتابخانه زبان برنامه نویسی برای این منظور باید به دنبال چه اصطلاحی بود؟
محاسبه روند برای داده های سه بعدی
96513
یک سوال بسیار اساسی: آیا هنگام اشاره به اهمیت آماری برازش برخی از مدل‌ها، آیا گزارش می‌شود که نتایج در سطح اطمینان 95 درصد معنی‌دار هستند یا در سطح معناداری 0.05؟
بیان صحیح سطح اطمینان
2772
در دو مقاله در سال‌های 1986 و 1988، کانر و کورایچیک رویکردی را برای مدل‌سازی بازده دارایی پیشنهاد کردند. از آنجایی که این سری‌های زمانی معمولا دارایی‌های بیشتری نسبت به مشاهدات دوره زمانی دارند، آن‌ها پیشنهاد کردند که یک PCA بر روی کوواریانس‌های مقطعی بازده دارایی انجام شود. آنها این روش را تحلیل مؤلفه اصلی مجانبی می نامند (APCA، که نسبتاً گیج کننده است، زیرا مخاطب بلافاصله به ویژگی های مجانبی PCA فکر می کند). من معادلات را کار کرده ام و این دو رویکرد از نظر عددی معادل به نظر می رسند. البته مجانبی متفاوت است، زیرا همگرایی برای $N \rightarrow \infty$ به جای $T \rightarrow \infty$ ثابت شده است. سوال من این است: آیا کسی از APCA و مقایسه با PCA استفاده کرده است؟ آیا تفاوت های مشخصی وجود دارد؟ اگر چنین است، کدام یک؟
تفاوت بین PCA و PCA مجانبی چیست؟
105175
من یک ANOVA اندازه گیری های مکرر انجام داده ام که دو متغیر مستقل، سه متغیر کمکی دارم که اثرات آن را به صورت جداگانه برای پایان نامه خود محاسبه می کنم. من اساساً دو کار را با یک نمونه انجام دادم که بخش درون موضوعی است. عامل از نظر آماری معنی دار است. تفاوت میانگین برای تکلیف یک و تکلیف دو وجود دارد. متغیرهای مستقل می توانند آن را پیش بینی کنند. با این حال، وقتی یک متغیر کمکی، سطح درآمد قرار می‌دهم، این عامل معنی‌دار نمی‌شود. اما اثر متقابل بین عامل و متغیر کمکی نیز معنی دار نیست. واقعیت این است که نمونه من معمولاً نمرات بالاتری برای آن متغیر کمکی دارد. یعنی 80 درصد آنها درآمد بالایی دارند، فقط 20 درصد درآمد پایینی دارند. آیا می تواند ناشی از این باشد؟ اگه نه یعنی چی؟ پاسخ شما بسیار قدردانی خواهد شد.
متغیرهای کمکی در اندازه گیری های مکرر ANOVA
82354
چگونه می توانیم بفهمیم که آیا ضرایب و R-Squared در جدول زیر قابل اعتماد هستند و به درستی محاسبه شده اند یا خیر؟ آیا با توجه به اینکه ما به مجموعه داده دسترسی نداریم راهی برای تایید صحت نتایج وجود دارد؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/6BfCN.jpg) تحلیل توصیفی متغیرهای اصلی به شرح زیر است، اما در رگرسیون متغیرها را تبدیل کردند! ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/O6X1v.jpg)
آیا نتایج رگرسیون خطی OLS صحیح است؟
82351
این یک مطالعه گذشته نگر شامل 47 اسب با یک بیماری خاص است. من هیچ اطلاعاتی در مورد گروه کنترل ندارم، فقط می دانم که در این مدت زمان کلینیک 382 اسب داشت که 47 نفر از آنها با بیماری فعلی تشخیص داده شدند. از من خواسته شد تا به ارتباط بین سه متغیر و بیماری ها (نژاد، زمان سال - ژانویه، فوریه، و غیره و یک رفتار کلیشه ای دهانی که به عنوان خرچنگ در اسب شناخته می شود) نگاه کنم. اما چگونه می توانم ببینم که آیا متغیرها با بیماری همبستگی دارند در حالی که هیچ گروه کنترلی ندارم؟
همبستگی بین متغیرها و نتیجه
104595
من در حال مطالعه شبیه سازی تحلیل توان رگرسیون لجستیک - آزمایش های طراحی شده، http://sas-and-r.blogspot.com/2009/06/example-72-simulate-data- from-logistic.html، و تجزیه و تحلیل توان هستم. برای رگرسیون لجستیک ترتیبی و من هنوز در مورد نحوه انجام تجزیه و تحلیل توان برای داده هایم کمی گم شده ام. من می خواهم بتوانم تعیین کنم که اگر تعاملی بین یک متغیر طبقه ای (با 3 سطح) و یک متغیر پیوسته داشته باشم، چه N باید داشته باشم. شبیه‌سازی تحلیل قدرت رگرسیون لجستیک - آزمایش‌های طراحی‌شده برخی اطلاعات را ارائه می‌دهد، اما نمی‌توانم نحوه شبیه‌سازی رابطه بین متغیرهای طبقه‌ای و پیوسته و نتیجه را بیابم. > set.seed(1) > > > تکرار = 1000 > N = 10000 > n = N/8 > var1 = c( .03، 0.03، 0.03، 0.03، 0.06، 0.06، 0.09، . 09) > var2 = c( 0، 0، 0، 1، 0، 1، 0، 1) > نرخ ها = c(0.0025، 0.0025، 0.0025، 0.00395، 0.003، 0.0042، 0.0035، 0.002) > > > var1 = rep(var1، times=n) > var2 = rep(var2، بار = 2 = var) > var1 var1x2 = var1 *var2 > var12x2 = var12*var2 > > > معنی‌دار = ماتریس(nrow=تکرارها، ncol=7) > > > startT = proc.time()[3] > for(i در 1: تکرارها){ > پاسخ‌ها = rbinom(n= N، size=1، prob=rates) > model = glm(responses~var1+var2+var12+var1x2+var12x2، > family=binomial(link=logit)) > قابل توجه[i,1:5] = (خلاصه(مدل)$ضرایب[2:6,4]<.05)<br> > > قابل توجه[i,6 ] = جمع (قابل توجه[i,1:5])<br> > modelDev = > model$null.deviance-model$deviance > قابل توجه[i,7] = (1-pchisq(modelDev, 5))<.05 > } > endT = proc.time()[3] > endT-startT > > > sum(significant[,1])/repetitions # قدرت اثر از پیش تعیین شده برای var1 > [1] 0.042 > sum(significant[,2])/تکرار # قدرت اثر از پیش تعیین شده برای var2 > [1] 0.017 > sum(significant[,3])/repetitions # قدرت جلوه از پیش تعیین شده برای var12 > [1] 0.035 > sum(significant[,4])/repetitions # قدرت اثر از پیش تعیین شده برای var1X2 > [1] 0.019 > مجموع (قابل توجه[,5])/تکرار # قدرت اثر از پیش تعیین شده برای var12X2 > [1] 0.022 > مجموع (معنادار[,7])/تکرار # توان برای آزمون نسبت درستنمایی مدل > [1] 0.168 > مجموع (معنادار[,6]==5)/تکرار # توان همه اثرات > [1] 0.001 > مجموع (قابل توجه[,6]> 0)/تکرار # هر اثر قدرت > [1] 0.065 > sum(significant[,4]&significant[,5])/repetitions # power for interaction > Terms > [1] 0.017 > احساس می کنم باید بتوانم کد حاصل از تحلیل توان را برای رگرسیون لجستیک ترتیبی تطبیق دهم و این امر می تواند گزینه بهتر و مختصرتری باشد > library(rms) > > tmpfun <\- function(n, beta0, beta1, beta2) { > x <\- runif(n، 0، 10) > eta1 <\- beta0 + beta1*x > eta2 <\- eta1 + beta2 > p1 <\- exp(eta1)/(1+exp(eta1)) > p2 <\- exp(eta2)/(1+exp(eta2)) > tmp <\- runif(n) > y <\- (tmp < p1) + (tmp < p2) > fit <\- lrm(y~x) > fit$stats[5] > } > > > out <\- replicate(1000, tmpfun(100, -1/2, 1/4, 1/4 )) > mean( out < 0.05 ) > اما من کاملاً مطمئن نیستم که چگونه این کار را انجام دهم. من فرض می‌کنم tmpfun(100،-1/2، 1/4،1/4) N و بتای مورد نظر شما را مشخص می‌کند، اما چگونه tmpfun را به متغیر دیگر (مقوله‌ای) تنظیم کنم و یک عبارت تعاملی را لحاظ کنم؟ در نهایت معادله باید شامل 6 بتا باشد: قطع، بتا برای x، بتا برای z1، بتا برای z2، جمله تعامل بین x و z1، و جمله تعامل بین x و z2. در نهایت، من نمی توانم هیچ منبع قابل اعتمادی در مورد اینکه از چه نوع اندازه های اثر کوچک یا متوسط ​​استفاده کنم، پیدا نمی کنم. اگر می توانم اطلاعات بیشتری ارائه کنم به من اطلاع دهید!
تحلیل توان رگرسیون لجستیک با تعدیل بین متغیر طبقه ای و پیوسته
16416
با استفاده از بسته sde در R، می خواهم مدل زیر را برای قیمت سهام $p_t$ شبیه سازی کنم: $\mathrm{d}\sigma^2_t = (\theta_1 - \theta_2\sigma^2_t)\mathrm{d}t + \theta_3\sigma_t\mathrm{d}W_{\sigma,t}$ (مدل CIR مورد استفاده برای تصادفی نوسانات) $\mathrm{d}\log{p_t} = \sigma_t\mathrm{d}W_{p,t}$ که در آن همبستگی بین $W_{p,t}$ و $W_{\sigma,t}$ است احتمالا غیر صفر س: آیا این امکان وجود دارد؟ آیا حتی می توان SDE های چند متغیره را در بسته sde به روشی که در S+FinMetrics می توان با استفاده از توابع gensim شبیه سازی کرد؟ آیا بسته دیگری در R وجود دارد که بتواند این کار را انجام دهد؟ من می توانم فرآیند واریانس را به سادگی با کد زیر شبیه سازی کنم: library(sde) sig2 <- sde.sim(X0=0.04, theta=c(0.3141, 8.0369, 0.43)، model=CIR) می توانم سپس سری قیمت را شبیه سازی کنید (شروع با قیمت اولیه = 100) با استفاده از: logr <- rnorm(n=length(sig2),sd=sqrt(sig2)) logp <- cumsum(c(log(100),logr)) p <- exp(logp) اما این رویکرد به‌طور غیرضروری به‌نظر می‌رسد بی‌هدف است و نمی‌تواند غیرقابل برداشت باشد. همبستگی صفر بین حرکات براونی.
استفاده از بسته sde در R برای شبیه سازی یک مدل SV با اهرم
105170
در حال حاضر من از روش حراج باز برای انتخاب یک حمل‌کننده استفاده می‌کنم و می‌خواهم به حمل‌کننده ترجیحی سوئیچ کنم، جایی که بر اساس لیست حمل‌کننده ترجیحی خود، یک ناقل را انتخاب کنم. این پروژه شامل شناسایی ناقل ترجیحی بر اساس تحلیل تاریخی است. تنها داده/پارامترهایی که من دارم این است: 1) هزینه: چند بار کار را به این انتقال دهنده اختصاص داده ام؟ من همیشه کار را بر اساس نازلترین قیمت به روش حراج آزاد به حمل و نقل اختصاص داده ام. 2) کیفیت و قابلیت اطمینان: تفاوت در هزینه بازداشت توسط حمل و نقل و محاسبه هزینه بازداشت واقعی. 3) زمان سرب: کدام حمل کننده به من کمک می کند تا مواد را در کمترین زمان حمل کنم. با استفاده از 3 پارامتر تصمیم گرفتم یک درخت C5.0 در SPSS Modeler ایجاد کنم اما نتایج رضایت بخش نیست. با توجه به همه، یک تکنیک داده کاوی خوب برای حل این مشکل و هر ادبیاتی که برای مدل سازی این مشکل پیشنهاد می کنید، چیست؟
تکنیک داده کاوی برای مشکل فروشنده ترجیحی؟
105172
همانطور که می‌دانم یک متغیر تصادفی تمام نتایج ممکن یک آزمایش را با احتمالات مرتبط آنها نشان می‌دهد. چرا $X^2$ به‌عنوان مربع کردن نتایج آزمایش‌ها به جای ضرب کردن نتایج دو آزمایش یکسان درک می‌شود؟ بیایید X یک پرتاب مرگ باشد. من نمونه هایی را دیده ام که در آن ارزش مورد انتظار $X^2$ به صورت زیر محاسبه می شود: $$1^2\dfrac{1}{6} + 2^2\dfrac{1}{6} + 3^2\dfrac{ 1}{6} + 4^2\dfrac{1}{6} + 5^2\dfrac{1}{6} + 6^2\dfrac{1}{6} = 15.16 $$ بنابراین ما اینجا هستیم فقط مربع نتیجه یک آزمایش منفرد. اما در ریاضی مربع را می توان با ضرب جایگزین کرد. مانند: $X\ برابر X$. و برای ضرب دو متغیر تصادفی احتمالاً نیاز به ایجاد توزیع محصول داریم. همانطور که فهمیدم باید چیزی شبیه انداختن 2 تاس، ضرب کردن نتایج و سپس محاسبه میانگین این مقادیر باشد. بنابراین از آنجایی که هر دو X مستقل هستند، در این مورد مقدار مورد انتظار را می توان به صورت $E[XY]=E[X]E[Y]$ یافت. یعنی 3.5 * 3.5 = 12.25 دلار
متغیر تصادفی مربع شده $X^2$ در مقابل $X\ برابر X$
16410
من در حال یادگیری رگرسیون لجستیک از عناصر یادگیری آماری: داده کاوی، استنتاج و پیش بینی هستم، توسط ترور هستی، رابرت تیبشیرانی، جروم اچ فریدمن. فرض کنید $G$ یک متغیر تصادفی است که نشان‌دهنده برچسب کلاس پاسخ‌گیری در $\\{1,\ldots,K \\}$ است و $X$ یک بردار تصادفی است که نشان‌دهنده پیش‌بینی‌کننده است که مقادیر را در $\mathbb{R}^n نشان می‌دهد. $. پس از مدل سازی $P(G = k|X = x; \theta)، k=1،\ldots،K، x \in \mathbb{R}^n$ توسط مدل لجستیک در بخش 4.4 رگرسیون لجستیک، پارامتر $\ تتا$ از نمونه‌های $\\{(x_i,k_i), i=1,\ldots,N \\}$ در بخش 4.4.1 برازش رگرسیون لجستیک برآورد شده است. مدل‌ها: > مدل‌های رگرسیون لجستیک معمولاً بر اساس احتمال حداکثر، با استفاده از احتمال شرطی $G$ با توجه به $X$ مطابقت دارند. از آنجایی که $P(G|X)$ به طور کامل توزیع شرطی را مشخص می کند، توزیع چند جمله ای مناسب است. > احتمال گزارش برای مشاهدات $N$ $$ℓ(θ) = \sum_{i=1}^N \log P(G = > k_i|X = x_i; \theta) $$ **سوال من** این است که چگونه روش برآورد حداکثر احتمال است. به طور کلی، MLE برای تخمین پارامتر $\theta$ یک توزیع **تک**$p(z;\theta)$ از **i.i.d آن است. نمونه‌ها** $\\{z_i, i=1,\ldots,N \\}$ با حداکثر کردن $\log p(x_1,\ldots, x_N; \theta) = \sum_{i=1}^N \log p(x_i; \theta) $، گزارش توزیع مشترک نمونه ها. به نظر می رسد تخمین رگرسیون لجستیک مانند نقل قول از MLE استفاده نمی کند، زیرا: 1. $P(G = k|X = x_i; \theta)، i=1،\ldots، N $ $N$ توزیع های مختلف هستند، در عوض فقط یک توزیع برای MLE. 2. در $ℓ(θ) = \sum_{i=1}^N \log P(G = k|X = x_i؛ \theta) = \log \prod_{i=1}^N P(G = k| X = x_i; \theta)$، تعجب می کنم که چگونه توضیح دهم که ${ (k_i|x_i), i=1,\ldots,N }$ مستقل هستند و بنابراین $\prod_{i=1}^N P(G = k_i|X = x_i؛ \theta)$ توزیع مشترک آنها است، زیرا من نمی دانم چگونه $(k_i|x_i)$ را بفهمم که به نظر منطقی نیست. ** پاسخ حدس من ** این است که $\\{(x_i,k_i), i=1,\ldots,N \\}$ به عنوان i.i.d در نظر گرفته می شود. نمونه هایی از توزیع واحد برای $(X,G)$. بنابراین MLE برای توزیع $(X,G)$ این است که $$ \log P((x_1,k_1),\ldots,(x_N,k_N)) = \log \prod_{i=1}^N P( x_i,k_i) $$ $$ = \log \prod_{i=1}^N P(k_i | x_i) P(x_i) = \log \prod_{i=1}^N P(k_i | x_i) + \log \prod_{i=1}^N P(x_i) $$ $P(k_i | x_i)$ با $\theta$ به عنوان $P( k_i |. توزیع $(X,G)$ معادل به حداکثر رساندن $\log \prod_{i=1}^N P(k_i | x_i; \theta)$ است. با تشکر و احترام!
چه چیزی فرمول برازش مدل‌های رگرسیون لجستیک را در Hastie و همکاران «حداکثر احتمال» می‌سازد؟
93831
من دو مجموعه داده برای مردان و زنان دارم که گردش مالی محبوب ترین نقاط یک مشخصه جمعیت را برای هر سال از سال 1912 اندازه گیری می کند. فقط داده های رتبه بندی گردآوری شده است. به طور شهودی، به نظر می‌رسد که گردش مالی برای زنان سریع‌تر می‌شود، اما من می‌خواهم بدانم چگونه این موضوع را برای اهمیت آماری آزمایش کنم. من قبلا از داده های طولی در این راه استفاده نکرده ام، بنابراین از هر کمکی قدردانی می کنم! پیشاپیش خیلی ممنون
مقایسه دو جمعیت در طول زمان (مطالعه جمعیت طولی)
61912
من می‌خواهم نتایج نظرسنجی (با استفاده از رگرسیون OLS) روی بازده سهام را به عقب برگردانم. چگونه تصمیم بگیرم که از تفاوت اول یا درصد تغییر نتایج نظرسنجی استفاده کنم؟
درصد تغییر در مقابل تفاوت اول
9499
من به تازگی بازی با بسته پیش بینی R را شروع کرده ام و متوجه شدم که باید کار اشتباهی انجام دهم زیرا نمی توانم پیش بینی مناسبی برای یک سینوس ساده داشته باشم. weightData <- data.frame(weight = sin(seq(1:100))، week=1:100) weight <- as.numeric(weightData$weight) پیش بینی شده <- پیش بینی (weight,h=3,level=95) ) # مقادیر پیش‌بینی‌شده را براساس پیش‌بینی myplot پیش‌بینی شده ببینید <- forecast(weight,h=10,level=95) plot(myplot) و من یک پیش بینی ساده دریافت می کنم. من می دانم که روش های پیش بینی عمومی بهترین روش را برای داده های من انتخاب می کند. این درست نیست؟ آیا من چیزی را از دست داده ام؟ پیشاپیش متشکرم
بسته پیش بینی R که پیش بینی های مسطح را تولید می کند
96301
![سوال](http://i.stack.imgur.com/Z2g98.png) کسی می تواند در اینجا به من کمک کند؟ استفاده از Box-Muller N(0,1) را ایجاد می کند، اما X ~ N (-1, 4). چگونه متغیرها را به توزیع X تبدیل کنم؟ و آیا شبه کد شامل استفاده از الگوریتم رد نیز می شود؟ از کمک شما قدردانی می کنیم!
الگوریتم باکس مولر و ادغام مونت کارلو
105171
من یه سوال دارم من با داده های پزشکی سروکار دارم که حاوی 5 پیش بینی کننده و 1 نتیجه باینری است. وقتی سعی می‌کنم داده‌ها را با استفاده از هر 5 پیش‌بینی‌کننده طبقه‌بندی کنم، 0.84 ناحیه زیر منحنی سنگ را دریافت می‌کنم که برای من بسیار خوب است. با این حال، وقتی فواصل اطمینان را برای این 5 پارامتر در نظر می‌گیرم، می‌بینم که فقط 1 مورد از آنها با 0 تفاوت معنی‌داری دارد، فاصله اطمینان آن شامل مقدار 1 نمی‌شود. برای همه پیش‌بینی‌کننده‌های دیگر، فاصله اطمینان شامل مقدار 1 است (مثلاً از 0.78 تا 1.2). وقتی سعی می‌کنم مجموعه داده را فقط بر اساس این 1 پیش‌بینی‌کننده طبقه‌بندی کنم (یکی که فاصله اطمینان خوبی دارد)، هنوز فاصله اطمینان خوبی برای آن دارم، اما ناحیه زیر منحنی سنگ 0.74 است و ترکیب‌های ویژگی و حساسیت واقعا بدتر از آن هستند. مثال اول سوال این است: وقتی همه پیش بینی کننده ها به طور قابل توجهی با 0 تفاوت ندارند، چگونه باید با شرایط رفتار کنم؟ آیا می توانم چنین قاعده تصمیم گیری را خوب در نظر بگیرم و در تحلیل بیشتر از آن استفاده کنم؟ خیلی ممنون
فواصل اطمینان برای پیش بینی کننده ها در رگرسیون لجستیک چند متغیره
61914
موارد زیر را در نظر بگیرید (در R): طرح کتابخانه (MASS) (stack.loss~Air.Flow,data=stackloss) رگرسیون <- rlm(stack.loss~Air.Flow,data=stackloss) abline(رگرسیون) برای هر یک از نکاتی را که می خواهم در برابر فرضیه صفر آزمایش کنم که واقعاً روی خط قرار دارد (به جای جایی که واقعاً است) - در اصل کمی کردن میزان پرت بودن اینها با توجه به مدل رگرسیون. احتمالاً با استفاده از ترکیب‌های جستجوی ناامیدکننده، نتوانستم روش‌شناسی مناسب را شناسایی کنم. آیا استفاده از آزمون t تک نمونه ای (ar equivalent) برای هر باقیمانده در برابر جمعیت باقیمانده برای ایجاد چنین اندازه گیری معتبر است؟ ویرایش: به نظر می رسد مطالعه بیشتر نشان می دهد که فاصله تحمل همان چیزی است که ممکن است به دنبال آن باشم - بسته تحمل R محاسباتی را در این زمینه ارائه می دهد. با این حال، من از ماهیت متناقض آشکار چنین فواصل برای رگرسیون که توسط انتشارات مختلف تعریف شده است، متحیر هستم. در مورد بسته R به نظر می رسد باندهای تحمل خط رگرسیون را به طور موازی دنبال می کنند (شکل 12 و مثال زیر را ببینید)، در حالی که منابع جایگزین مانند این با باندهایی که یادآور فواصل اطمینان از نظر شکل هستند عمل می کنند (شکل 4 را ببینید). مورد دوم شهودی تر به نظر می رسد، اما نظرات دیگران قابل قدردانی است. برای هر نقطه از یک نمونه، من در واقع به دنبال کدام باند تحمل x/95% از این نقطه عبور می کند ... در اینجا نحوه استفاده از تحمل ممکن است به نظر برسد (افزودن به کد بالا) برای 95٪/95٪ مرزهای تحمل رگرسیون ناپارامتری دو طرفه: کتابخانه (تحمل) tol.bounds <- خطوط npregtol.int(x=stackloss$Air.Flow، y=stackloss$stack.loss، y.hat=regression$fit، side=2، alpha=0.05، P=0.95، روش = WILKS) خطوط (tol. bounds$x,y=tol.bounds$2-sided.lower,col=red) خطوط (tol.bounds$x,y=tol.bounds$2-sided.upper,col=red)
رگرسیون و مقادیر p ویژه نقطه (با استفاده از R برای توضیح)
9490
_**تجزیه مقدار تکین (SVD)**_ یک ماتریس $$A_{m\times n} = U_{m\times m}\Lambda_{m\times n} V_{n\times n} است $$ که $U$ و $V$ ماتریس های متعامد هستند و $\Lambda$ دارای ورودی ( _i_، _i_) است. $\lambda_i \geq 0$ برای $i = 1، 2، \cdots، min(m، n)$ و ورودی های دیگر صفر هستند. سپس بردارهای مفرد سمت چپ $U$ برای ردیف‌های ماتریس و بردارهای مفرد سمت راست $V$ برای ستون‌های ماتریس را می‌توان در همان نمودار به نام _**bi- plot**_ رسم کرد. من در تعجبم که چگونه می توان _**SVD**_ یک آرایه سه بعدی را انجام داد و بردارهای منفرد را روی همان نمودار مانند _**bi-plot**_ رسم کرد. با تشکر
تجزیه مقدار منفرد یک آرایه سه بعدی
89146
من یک تفاوت گروهی (3 گروه) برای متغیر وابسته خود پیدا کرده ام و اکنون قرار است بفهمم که آیا متغیرهای کمکی ممکن بر این یافته تأثیر می گذارند یا خیر. بهترین راه برای اصلاح برای 5 متغیر مختلف (سن، مدت بیماری، دارو، نمره علائم، جنسیت) چیست؟ آیا باید 5 ANCOVA جداگانه (1 برای هر متغیر کمکی) اجرا کنم و ببینم آیا تفاوت گروه همچنان قابل توجه است یا بهتر است یک ANCOVA منفرد شامل همه متغیرهای کمکی اجرا کنم؟
متغیرهای چندگانه در یک طرح ANCOVA
9491
با مقاله هروه عبدی در مورد SVD تعمیم یافته برخورد کردم. نویسنده اشاره کرد: > SVD تعمیم یافته (GSVD) یک ماتریس مستطیلی را تجزیه می کند و محدودیت های اعمال شده بر سطرها و ستون های ماتریس را در نظر می گیرد. > GSVD یک برآورد حداقل مربعات تعمیم یافته وزنی از یک ماتریس داده شده را با ماتریس رتبه پایین تر ارائه می دهد و بنابراین، با انتخاب کافی از محدودیت ها، GSVD تمام تکنیک های چند متغیره خطی را پیاده سازی می کند (به عنوان مثال، > همبستگی متعارف، تجزیه و تحلیل متمایز خطی، مکاتبات > تجزیه و تحلیل، PLS-رگرسیون). من تعجب می کنم که چگونه GSVD با تمام تکنیک های چند متغیره خطی (به عنوان مثال، همبستگی متعارف، تجزیه و تحلیل متمایز خطی، تجزیه و تحلیل مطابقت، PLS-رگرسیون) مرتبط است.
آیا GSVD تمام تکنیک های چند متغیره خطی را پیاده سازی می کند؟
61915
من با داده های شمارش از یک آزمایش روانشناختی کار می کنم. داده ها از چندین خرده آزمون، یعنی نمرات در این آزمون ها هستند. نحوه ایجاد این نمرات به وضوح گاوسی نیست (نه تنها به این دلیل که گسسته هستند، بلکه از آنجایی که امتیازها اساساً مجموع کارهایی هستند که به درستی حل شده اند). به عنوان پایه، من با مدل‌هایی که از توزیع پواسون استفاده می‌کردند کار کردم. برای مثال مدل شمارش پواسون راش (1960) (که نوعی GLM است)، که من پراکندگی از داده‌ها را نیز تخمین زدم (1.01، CI راه‌اندازی برای پارامتر پراکندگی شامل 1 است). برای رفتن یک قدم جلوتر، می‌خواهم مدل‌های تحلیل عاملی را برازش کنم. من از کار Wedel و همکاران (2003، مجله تحلیل چند متغیره)، که با وضعیت با و بدون پراکندگی بیش از حد سروکار دارند، آگاه هستم. همچنین MPlus قادر به رسیدگی به وضعیت بیش از حد پراکنده است. با این حال داده های من فقط پراکندگی کمی را نشان می دهد (در واقع نمرات خام در برخی از خرده آزمون ها به وضوح پراکنده نیستند). من به هر حال پیش رفتم و سعی کردم از MPlus برای تحلیل عاملی (ML) با خطاهای پواسون و log-link استفاده کنم. من از MPlus عمدتاً برای راحتی استفاده کردم، زیرا این تنها بسته ای است که داده های شمارش و تجزیه و تحلیل عاملی را کنترل می کند (در صورت تمایل می توانید من را در اینجا اصلاح کنید). استفاده از MPlus با داده‌های واقعی من به خوبی کار نمی‌کند، اما با داده‌های شبیه‌سازی شده، حداقل زمانی که فاکتورهای نهفته واریانس واحد داشتند، درست بود. هنگامی که واریانس کاهش می یابد (مثلاً به 0.25^2) بازیابی بارهای عامل دشوارتر است و هنگامی که واریانس بسیار کم است (مثلاً 0.1^2) کار نمی کند (حداقل با MPlus). من گمان می‌کنم که مدل‌های تحلیلی عاملی برای داده‌های شمارش حداقل به مقداری واریانس در عوامل اصلی (مخفی) نیاز دارند تا بتوان آنها را تخمین زد، زیرا در غیر این صورت تغییرپذیری مشاهده‌شده به پواسون نسبت داده می‌شود (neg-Bin، Poisson با تورم صفر، .. .) توزیع به جای عامل پنهان. من نتوانستم مرجعی برای این ادعا پیدا کنم و شبیه سازی های خودم نسبتاً محدود است. 1) آیا مرجعی برای این پدیده وجود دارد؟ آیا ممکن است از منظر دیگری پیش پا افتاده باشد؟ 2) واضح است که می‌توانم داده‌ها را پیوسته در نظر بگیرم، از تحلیل عاملی اکتشافی و تأییدی استاندارد استفاده کنم، اما احساس می‌کنم این نه درست است و نه رضایت‌بخش. استراتژی های جایگزین چیست؟
داده های تعداد کم پراکنده و تحلیل عاملی
53202
این یک آزمون نسبت جمعیت با سمت راست است. مقدار بحرانی 1.645 و آمار آزمون محاسبه شده 1.14- است. مساحت منهای بی نهایت تا 1.14- 0.1271 است. **سوال این است که از آنجایی که این یک تست دنباله راست است، مقدار 0.8729 (1-0.1271) است یا فقط 0.1271 است؟ ** هر کمکی بسیار قدردانی خواهد شد!
مقدار p کدام مقدار است؟
52156
چگونه می توانم یک داده را برای رگرسیون خطی چندگانه (یک IV و بیشتر از 2 IV) شبیه سازی کنم وقتی که چولگی و کشیدگی داده ها را می دانیم؟ سوال دیگر این است که چگونه می توان نوع توزیع (مثلاً گاما دیست) را بر اساس چولگی و کشیدگی تعیین کرد؟ می دانیم که برای توزیع نرمال، چولگی و کشیدگی (0,0) است... با تشکر
شبیه سازی داده ها برای رگرسیون خطی چندگانه
105179
اگر این سوال احمقانه است عذرخواهی می کنم. من یک مجموعه داده با 3109 نفر دارم از آنها خواسته شد بگویند که آیا فکر می کنند دلیل 1، دلیل 2، دلیل 3 و دلیل 4 دلایل خوبی برای انجام آزمایش ژنتیکی هستند یا خیر. درصدها به شرح زیر است: دلیل 1: 37% بله; 28% خیر 25% مطمئن نیستم دلیل 2: 45% بله، 31% خیر. 24% مطمئن نیستم دلیل 3: 45% بله. 30% خیر 25% مطمئن نیستم دلیل 4: 46% بله. 29% خیر 25% مطمئن نیستند چگونه می توانم بفهمم که همان افراد به هر دلیلی بله، نه و مطمئن نیستم پاسخ داده اند؟ من مدت زیادی فکر کرده ام و سعی کرده ام با مطالعه در اطراف پاسخ را پیدا کنم و نمی توانم آن را بفهمم! داده ها در اکسل هستند اما به راحتی می توان آنها را در SPSS قرار داد، متشکرم!
آمار توصیفی ساده در SPSS یا Excel
9728
در چه شرایطی استفاده از رگرسیون با دو متغیر داده شده دقت پیش‌بینی را افزایش نمی‌دهد؟
چه زمانی استفاده از رگرسیون فایده ای ندارد؟
93836
من خواندم که در شبکه‌های عصبی پیش‌خور سنتی، گرادیان‌ها در لایه‌های اولیه خیلی سریع تحلیل می‌روند و این یک چیز بد است. اما نمیفهمم چرا میشه لطفا یکی توضیح بده یعنی چی؟ یا حداقل مرا به جاهایی راهنمایی کنید تا در مورد آن بخوانم و بفهمم.
فروپاشی گرادیان در شبکه های عصبی
16412
فرض کنید من دو مجموعه متناهی از داده های «A» و «B» با طول مساوی «n» دارم. بهترین کران بالا و پایینی که می توانم روی var(A+B) ایجاد کنم، از نظر var(A) و var(B) چیست؟
محدود به واریانس مجموع متغیرها
2777
**زمینه**: تصور کنید یک مطالعه طولی داشته اید که یک متغیر وابسته (DV) را یک بار در هفته به مدت 20 هفته روی 200 شرکت کننده اندازه گیری می کند. اگرچه من به DVهای معمولی که به آنها فکر می کنم علاقه مند هستم شامل عملکرد شغلی پس از استخدام یا اقدامات مختلف رفاهی پس از مداخله روانشناسی بالینی است. من می دانم که مدل سازی چند سطحی می تواند برای مدل سازی رابطه بین زمان و DV استفاده شود. همچنین می توانید اجازه دهید ضرایب (به عنوان مثال، وقفه ها، شیب ها، و غیره) بین افراد متفاوت باشد و مقادیر خاص را برای شرکت کنندگان تخمین بزنید. اما چه می‌شود اگر هنگام بازرسی بصری داده‌ها متوجه شوید که رابطه بین زمان و DV یکی از موارد زیر است: * از نظر شکل عملکردی متفاوت است (شاید برخی خطی باشند و برخی دیگر نمایی یا برخی ناپیوستگی داشته باشند) * از نظر واریانس خطا متفاوت است. (برخی افراد از یک نقطه زمانی به نقطه دیگر نوسان بیشتری دارند) **سوالات**: * روش خوبی برای رویکرد به مدل سازی داده های این چنینی چیست؟ * به طور خاص، چه رویکردهایی در شناسایی انواع مختلف روابط، و دسته بندی افراد با توجه به نوع آنها خوب است؟ * چه پیاده سازی هایی در R برای چنین تحلیل هایی وجود دارد؟ * آیا هیچ مرجعی در مورد نحوه انجام این کار وجود دارد: کتاب درسی یا برنامه واقعی؟
مدل‌سازی داده‌های طولی که در آن تأثیر زمان در شکل عملکردی بین افراد متفاوت است