_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
28068 | فرض کنید $k$ 'متخصص' دارم، که میخواهم توزیع قبلی روی متغیر X$ را از آنها استخراج کنم. من می خواهم با پول واقعی به آنها انگیزه بدهم. ایده این است که افراد قبلی را استخراج کنیم، تحقق $n$ را از متغیر تصادفی $X$ مشاهده کنیم، سپس تعدادی کیف از پیش تعیین شده را بین متخصصان بر اساس میزان مطابقت پیشینیان آنها با شواهد تقسیم کنیم. روشهای پیشنهادی برای این بخش آخر، نگاشت پیشینها و شواهد بر روی یک بردار پرداخت چیست؟ | استخراج پیشینیان ... با پول! |
114411 | فرض کنید $\vec{a}$ یک $p$-بردار ناشناخته است، و $\vec{b} \sim \mathcal{N}\left(\vec{a}, \frac{1}{n} را مشاهده کنید. من\راست)$. (به عنوان مثال، میانگین نمونه بر اساس $n$ مشاهدات متغیرهای تصادفی _i.i.d._ با میانگین $\vec{a}$ و کوواریانس $I$.) من می خواهم فواصل اطمینان را بر روی کمیت تصادفی $\ محاسبه کنم. vec{b}^{\top} \vec{a}$، فقط بر اساس $\vec{b}$ مشاهده شده و پارامترهای شناخته شده $n، p$. یعنی برای یک $\alpha \in (0,1)$، $c(\vec{b}, n, p, \alpha)$ را پیدا کنید به طوری که $Pr\left(\vec{b}^{ \top}\vec{a} \le c(\vec{b},n,p,\alpha)\right) = \alpha$. این یک سوال عجیب است زیرا تصادفی بودن که به فواصل اطمینان کمک می کند نیز روی $\vec{b}$ تاثیر می گذارد. رویکرد ساده این است که ادعا کنیم، مشروط به $\vec{b}$, $\vec{a} \sim\mathcal{N}\left(\vec{b}, \frac{1}{n}I\ راست)$، بنابراین $\vec{b}^{\top}\vec{a} \sim\mathcal{N}\left(\vec{b}^{\top}\vec{b}، \frac{\vec{b}^{\top}\vec{b}}{n}I\right)$، اما فکر نمیکنم این یک CI مناسب ارائه دهد زیرا $\vec{b}^{\top }\vec{b}$ برای $\vec{a}^{\top}\vec{a}$ تعصب دارد، که مقدار مورد انتظار $\vec{b}^{\top}\vec{a} است. $. ($\vec{b}^{\top}\vec{b}$، تا مقیاس بندی، یک RV غیر مرکزی chi-square است، با پارامتر غیر مرکزی بسته به $\vec{a}^{\top }\vec{a}$؛ مقدار مورد انتظار آن _not_ $\vec{a}^{\top}\vec{a}$ است. بهطور مثال، میتوان فرض کرد که $n=1$ با افزایش یا کاهش $\vec{a}، $ $\vec{b}، $ یا خطای عادی در صورت لزوم. **ویرایش** با فرض $n=1$، بدون قید و شرط، $\vec{b}^{\top}\vec{a} \sim\mathcal{N}\left(\vec{a}^{\top} \vec{a}،\vec{a}^{\top}\vec{a}\right)$، و $\vec{b}^{\top}\vec{b} \sim \chi\left(p, \vec{a}^{\top}\vec{a}\right)$، به این معنی که یک متغیر تصادفی غیر مرکزی chi-square است. بنابراین $\vec{b}^{\top}\vec{b} - p$ یک تخمین بی طرفانه از میانگین $\vec{a}^{\top}\vec{b}$ و واریانس آن است. . مورد دوم تا حدودی بی فایده است، زیرا می تواند منفی باشد! من به دنبال هر و همه راه های معقولی برای برخورد با این مشکل هستم. اینها می توانند شامل موارد زیر باشند: 1. یک کران اطمینان مناسب، که یک تابع $c$ از $\vec{b}$ مشاهده شده و $p$ شناخته شده است، به طوری که $Pr\left(\vec{b}^{\top} \vec{a} \le c(\vec{b},p,\alpha)\right) = \alpha$ برای همه $\alpha$ و همه $a$ به طوری که $\vec{a}^{\top}\vec{a} > 0$. 2. اعتماد به نفس محدود شده در انتظار. این تابعی از $\vec{b}$ مشاهده شده است، و $p$ و $\alpha$ شناخته شده است، به طوری که مقدار مورد انتظار غیرشرطی آن مقدار $\alpha$ $\vec{b}^{\top} است. \vec{a}$ برای همه $\vec{a} : \vec{a}^{\top}\vec{a} > 0$. 3. نوعی راه حل بیزی که در آن من می توانم یک عاقل قبل را روی $\vec{a}^{\top}\vec{a}$ مشخص کنم، سپس، با توجه به مشاهده $\vec{b}$، یک پسین در $\vec{b}^{\top}\vec{b}$ و $\vec{a}^{\top}\vec{a}$. | فاصله اطمینان در یک کمیت تصادفی؟ |
26512 | اگر X یک متغیر تصادفی با توزیع نرمال باشد، Y = exp(X) دارای توزیع log-normal است. به همین ترتیب، اگر X یک متغیر تصادفی با توزیع دو جمله ای باشد، Y = exp(X) دارای یک توزیع log-دو جمله ای است. **سوال من** در مورد توزیع log-normal میانگین و واریانس به خوبی شناخته شده است، برای توزیع log-دو جمله ای من هیچ مرجعی پیدا نمی کنم. | میانگین و واریانس توزیع لگ دو جمله ای |
111151 | آیا ممکن است که تمام پارامترهای یک مدل خطی تعمیم یافته محدود به غیر منفی بودن باشند؟ اگر چنین است، چه زمانی؟ هر نمونه؟ | مدل خطی تعمیم یافته غیر منفی |
50449 | من یک کارشناس آمار سطح کارشناسی ارشد هستم و مدتی است که رگرسیون لجستیک انجام می دهم. من به دوستی کمک می کنم که در حال گذراندن یک دوره آمار پیشرفته است و اصطلاحاتی را که در کار با LR با آنها آشنا نیستم آشنا شده است. یکی از مشکلات تکلیف LR درخواست نرخ دقت تصادفی متناسب مدل، میزان دقت کامل مدل و میزان حساسیت مدل است. من مطمئن نیستم که میزان حساسیت چقدر با میزان دقت متفاوت است. همچنین، پروفسور یک مدل PDA را روی همان مجموعه داده می خواهد تا با LR مقایسه شود. من مطمئن نیستم که مدل PDA چیست یا این اصطلاحی است برای چیزی که معمولاً به عنوان چیز دیگری از آن یاد می شود. | حساسیت رگرسیون لجستیک و اصطلاحات دیگر |
22607 | از آنچه من متوجه شدم، تابع چگالی احتمال لگ نرمال در پایه-10 به صورت ریاضی به این صورت تعریف می شود: $$ p(x; \mu, \sigma) = \frac{log_{10}(e)}{x \sigma \sqrt{ 2 \pi}} e^{-\frac{(log_{10}(x) - \mu)^2}{2 \sigma^2}} $$ همانطور که هر PDF وجود دارد این تابع نرمال می شود - یعنی روی تمام $x$ یکپارچه می شود (من به صورت عددی ادغام می کنم، با $x$ که به طور یکنواخت بین حدود ادغام توزیع شده است) 1 را به دست می دهد. توزیع یکوجهی را نشان میدهد که کج/دم سنگین است. حال، اگر درک من درست باشد، توزیع لگ نرمال توزیعی است که در آن لگاریتم متغیر تصادفی به طور معمول توزیع شده است. یعنی، اگر معادله بالا را با توجه به $log_{10}(x)$ رسم کنم، چیزی شبیه گاوسی به دست میآید. اگر اشتباه می کنم، مرا تصحیح کنید، اما چیزی که من ترسیم می کنم این است: $$ g(y=log_{10}(x); \mu, \sigma) = \frac{log_{10}(e)}{10^ y \sigma \sqrt{2 \pi}} e^{-\frac{(y - \mu)^2}{2 \sigma^2}} $$ اما اگر این تابع را روی همه $y$ ادغام کنم (I ادغام عددی، با $y$ که به طور یکنواخت بین محدودیت های ادغام توزیع شده است)، من 1 را دریافت نمی کنم (به دلیل ضریب $log_{10}(e)/10^y$). به عبارت دیگر، آنچه من فکر میکردم نمایشی جایگزین از همان تابع است، نرمالسازی نشده است. بنابراین سوال من این است که آیا دو فرم یک پی دی اف _نه_ معادل هستند، همانطور که در این مورد به نظر می رسد؟ اگر نه دلیلش چیست؟ اگر بله، چه اشتباهی انجام می دهم؟ لطفا کمک کنید! متشکرم. | PDF lognormal Base-10 یکپارچه شده روی log10(x) |
95860 | من در حال تجزیه و تحلیل یک مطالعه با استفاده از ANOVA ترکیبی 4 طرفه هستم. دارای یک عامل بین موضوعی و 3 عامل درون موضوعی (با سطح 2، 2 و 3). من 9 متغیر وابسته دارم. من آزمایشهای نرمال بودن را روی دادههایم اجرا کردم، و از آنجایی که آن یک ANOVA 2 x 2 x 2 x 3 است، مجبور شدم 24 تست را برای هر متغیر وابسته اجرا کنم. حداقل یکی از آزمون ها با هر متغیر نرمال نیست (آزمون شاپیرو ویلکس معنی دار است). تبدیل داده ها باعث می شود که داده ها حتی کمتر «عادی» شوند. از آنجایی که هیچ آزمایش ناپارامتری برای ANOVA های مختلط وجود ندارد، چه کاری می توانم انجام دهم؟ در سؤالات مشابه دیگر متوجه شدم که گاهی اوقات مردم در مورد طبیعی بودن باقیمانده ها صحبت می کنند، اما چگونه این را بررسی کنم؟ از هر کمکی که می توانید به من بکنید متشکرم، واقعاً از آن سپاسگزارم. | کمک به تجزیه و تحلیل ANOVA ترکیبی 4 طرفه |
28067 | در این مقاله، محقق با استعداد Cosma Shalizi استدلال میکند که برای پذیرش کامل دیدگاه بیزی ذهنی، باید یک نتیجه غیرفیزیکی را نیز پذیرفت که فلش زمان (که توسط جریان آنتروپی داده میشود) در واقع باید به عقب برود. این عمدتاً تلاشی برای استدلال علیه حداکثر آنتروپی / دیدگاه بیزی کاملاً ذهنی است که توسط E.T. جینز در LessWrong، بسیاری از مشارکتکنندگان به نظریه احتمال بیزی و همچنین به رویکرد بیزی ذهنی به عنوان مبنایی برای تئوریهای تصمیمگیری رسمی و پلهای به سوی A.I قوی بسیار علاقهمند هستند. Eliezer Yudkowsky یکی از همکاران مشترک آنجاست و من اخیراً داشتم این پست را می خواندم که با این نظر روبرو شدم (چند نظر خوب دیگر کمی بعد از آن در صفحه پست اصلی آمده است). آیا کسی می تواند در مورد صحت رد رد شالیزی توسط یودکوفسکی اظهار نظر کند. به طور خلاصه، استدلال یودکوفسکی این است که مکانیسم فیزیکی که یک عامل استدلال به وسیله آن باورهای خود را به روز می کند، نیاز به کار دارد و از این رو دارای هزینه ترمودینامیکی است که شالیزی در حال جارو کردن آن زیر فرش است. در نظر دیگری، یودکوفسکی از این موضوع دفاع میکند و میگوید: «اگر دیدگاه یک ناظر کامل منطقی دانای کل را خارج از سیستم داشته باشید، مفهوم «انتروپی» تقریباً بیمعنی است، زیرا «احتمال» است - هرگز مجبور نیستید از ترمودینامیک آماری برای مدل کردن هر چیزی استفاده کنید، فقط از معادله موج دقیق قطعی استفاده کنید. آیا هر احتمال دان یا مکانیک آماری می تواند در این مورد نظر دهد؟ من خیلی به استدلال های مرجع در مورد موقعیت شالیزی یا یودکوفسکی اهمیت نمی دهم، اما واقعاً مایلم خلاصه ای از راه هایی را ببینم که سه نکته یودکوفسکی نقد مقاله شالیزی را ارائه می دهد. **برای انطباق با دستورالعملهای پرسشهای متداول و تبدیل آن به سؤالی کاملاً قابل پاسخ** لطفاً توجه داشته باشید که من یک پاسخ مشخص و جزئی میخواهم که استدلال سه مرحلهای یودکوفسکی را در نظر بگیرد و نشان دهد که در مقاله شالیزی، این سه مرحله در کجای مقاله شالیزی فرضیات و/یا رد میکنند. اشتقاقات، یا، از سوی دیگر، نشان می دهد که در مقاله شالیزی به استدلال های یودکوفسکی در کجا پرداخته شده است. من بارها شنیده ام که مقاله شالیزی به عنوان مدرکی آهنین تبلیغ می شود که نمی توان از بیزییسم سوبژکتیو تمام عیار دفاع کرد... اما پس از چند بار خواندن مقاله شالیزی، برای من مانند یک استدلال اسباب بازی به نظر می رسد که هرگز نمی تواند اعمال شود. به ناظری که با هر چیزی که مشاهده می شود (یعنی تمام فیزیک واقعی) تعامل دارد. اما شالیزی محقق بزرگی است، بنابراین از نظرات دوم استقبال میکنم، زیرا به احتمال زیاد بخشهای مهم این بحث را درک نمیکنم. | رد پارادوکس زمان بر اساس آنتروپی پیکان عقب مانده بیزی شالیزی؟ |
3739 | من تعدادی از مقادیر $x$ را از یک توزیع نرمال با میانگین 0 و sd 0.2 نمونه برداری کرده ام. سپس این مقادیر $x$ را با استفاده از فرمول $y = e^x/(e^x + 1)$ به مقادیر $y$ تبدیل کردم. من می دانم که مقادیر $y$ دارای میانگین 0.5 خواهند بود و همه بین 0 و 1 قرار دارند. * آیا این مقادیر y متناسب با توزیع رایج هستند؟ * آیا راهی برای فهمیدن این موضوع در R وجود دارد؟ آنچه من به دنبال آن هستم این است که آیا توزیع ساده ای برای توصیف مقادیر y وجود دارد که به من اجازه دهد آن را بر حسب چند پارامتر توصیف کنم و احتمالاً مستقیماً از آن در R نمونه برداری کنم. | آیا دادههایی که به روشی خاص از یک توزیع عادی تبدیل شدهاند، با توزیع رایج دیگر مطابقت دارند؟ |
26510 | من سعی میکنم توسعهای از جنگلهای تصادفی را که در یک نشریه تحقیقاتی اخیر برای پروژهام معرفی شده است، تکرار کنم. به عنوان مثال، برای تقسیم باینری داده ها در هر گره، به جای اختصاص تصادفی به تمام مثال ها از هر کلاس یک برچسب باینری، آنها پیشنهاد می کنند از یک SVM برای یادگیری تقسیم باینری از داده ها استفاده کنید. علاوه بر این، ویژگی های یک گره با مقدار تصمیم گره اصلی آن افزوده می شود. میخواستم بدونم آیا پیاده سازی Random Forest وجود دارد که بتوان روی آن ساخت؟ | نحوه پیاده سازی یک طبقه بندی کننده جنگل تصادفی سفارشی |
104221 | همانطور که متوجه شدم، در اعتبار سنجی متقاطع K-fold، با بزرگتر شدن K، سوگیری کوچکتر می شود، اما واریانس نیز افزایش می یابد. من در درک شهودی این مفهوم از دیدگاه واریانس مشکل دارم. من می توانم فکر کنم که اگر، برای مثال، با K=N (N= تعداد نمونه ها)، تنها 1 نمونه در هر تکرار برای آزمایش استفاده می شود، و بنابراین واریانس نرخ خطا که هر بار در یک نمونه واحد محاسبه می شود، خواهد بود. به طور طبیعی بسیار بالا باشد. با این حال، اگر اشتباه نکنم، این واریانسی نیست که «معامله» به آن اشاره دارد. این واریانس CV-desitimator در _single_ cv-run نیست ، بلکه واریانس این برآوردگر با توجه به مقدار مورد انتظار (واقعی) (به عنوان مثال ، اگر بتوانیم نمونه های زیادی را از جمعیت بگیریم و برآورد CV را محاسبه کنیم هر یک از آنها، واریانس آن تحت K بزرگ بیشتر خواهد بود). حدس میزنم سردرگمی من این است که آیا واریانس بالای K بزرگ به اجرای منفرد cv یا پاراگراف قبلی من یا هر دو مربوط میشود؟ با تشکر از افکار شما. با احترام اکسل. | مبادله تعصب / واریانس در اعتبارسنجی متقابل |
114412 | به عنوان بخشی از بازتولید مدلی که تا حدی در این سوال در Stack Overflow توضیح دادم، میخواهم نموداری از یک توزیع پسین را بدست بیاورم. مدل (مکانی) قیمت فروش برخی از املاک را بسته به گران بودن (1) یا ارزان بودن ملک (0) به عنوان توزیع برنولی توصیف می کند. در معادلات: $$y_{i} \sim \text{برنولی}(p_{i})$$ $$p_{i} \sim \text{logit}^{-1}(b_{0} + b_{ 1}\text{LivingArea}/1000 + b_{2}\text{سن} + w({\bf{s}}))$$ $$w({\bf{s}}) \sim \text{MVN}({\bf{0}}، {\bf{\Sigma}}) $$ که $y_{i}$ نتیجه باینری است 1 یا 0، $p_{i}$ احتمال ارزان یا گران بودن است، $w({\bf{s}})$ یک متغیر تصادفی مکانی است که $\bf{s}$ نشان دهنده آن است. موقعیت آن همه اینها برای هر $i = \\{1، ...، 70\\}$ زیرا 70 ویژگی در مجموعه داده وجود دارد. $\bf{\Sigma}$ یک ماتریس کوواریانس بر اساس موقعیت جغرافیایی نقاط داده است. اگر در مورد این مدل کنجکاو هستید، مجموعه داده را می توانید در اینجا پیدا کنید. نموداری که میخواهم به دست بیاورم نمودار کانتور زیر است:  شکل به صورت نمودار تصویر سطح میانی خلفی فرآیند پنهان $w({\bf{s}})$، مدل فضایی باینری. این کتاب همچنین میگوید: > شکل 5.8 نمودار تصویر را با خطوط کانتور پوشانده شده برای سطح متوسط خلفی فرآیند $w({\bf{s}})$ پنهان نشان میدهد. با این حال، تنها 70 جفت نقطه در مجموعه داده وجود دارد. من فرض میکنم که برای تولید یک نمودار کانتور، باید $w({\bf{s}})$ را در 70*70 نقطه تخمین بزنم. بنابراین، سوال من این است: چگونه می توانم این سطح میانی خلفی را تولید کنم؟ تاکنون نمونههایی از توزیعهای پسین برای همه پارامترهای درگیر (با استفاده از PyMC) دارم و میدانم که میتوانم $y^*$ را در یک نقطه جدید با استفاده از توزیع پیشبینی پسین پیشبینی کنم. با این حال، من نمی دانم چگونه مقادیر $w({\bf{s}})$ را در یک نقطه جدید $s^*$ پیش بینی کنم. شاید من اشتباه می کنم و طرح با پیش بینی ساخته نشده است بلکه با درون یابی ساخته شده است. **UPDATE**: ابتدا، این میانه توزیع پسین $w({\bf{s}})$ در هر مکانی است که دارایی وجود دارد. این بر اساس ردیابی MCMC برای $w$ است.  و این درون یابی (با نمودار کانتور) با استفاده از تابع پایه شعاعی است:  (اگر به کد علاقه دارید، به من اطلاع دهید) همانطور که می بینید، تفاوت های قابل توجهی در طرح ها وجود دارد. چند سوال: 1. چگونه می توانم بفهمم که آیا این تفاوت ها با روش درون یابی توضیح داده شده اند؟ 2. شاید، تغییرات مهمی در توزیع بعدی $w({\bf{s}})$ وجود داشته باشد که من محاسبه کردم و در کتاب نشان داده شد. چقدر تفاوت بین شبیه سازی های MCMC قابل قبول است؟ حتی پارامترهای خودم بسته به نمونهگیری که استفاده میکنم کمی تغییر میکند (Metropolis، Metropolis Adaptive). ? | ترسیم یک سطح میانی خلفی |
114417 | من در حال خواندن مقاله ای هستم و متوجه موارد زیر شدم، > عدم قطعیت ها و وابستگی های آماری اغلب با واریانس > و ضرایب همبستگی اندازه گیری می شوند، اما عدم قطعیت و وابستگی را می توان صرفاً بر اساس احتمالات $(p_i)$، بدون در نظر گرفتن > واقعی، > تعریف کرد. وضعیت سیستم اکنون زمینه را کنار می گذارم زیرا به من اجازه می دهد یک سوال کلی بپرسم. 1. چه زمانی ضرایب همبستگی و واریانس کافی نیست؟ آیا X وجود دارد که نتوانیم از روی این دو پیش بینی کنیم اما از روی احتمال بتوانیم آن را پیش بینی کنیم؟ 2. اگرچه مقاله دلالت نمی کند، اما من گمان می کنم که در حین کار با ضرایب همبستگی و واریانس، فرد باید وضعیت واقعی سیستم را بداند تا مقدار X را ادعا کند. از سوی دیگر، همان X را می توان بدون دانستن وضعیت واقعی ادعا کرد. اگر فقط یکی با احتمالات $(p_i)$ کار کند. PS: من تازه وارد آمار هستم. | چه زمانی ضرایب همبستگی و واریانس کافی نیستند؟ |
93165 | من یک مدل دوجمله ای منفی با تورم صفر به یک مجموعه داده دارم (`n = 47`) با یک متغیر وابسته بیش از حد پراکنده (`میانگین = 6.70، sd = 17.68`). DV تعداد تلفات در رویدادهای اعتراضی را میشمارد، بنابراین مقدار «0» میتواند ناشی از عدم وجود اعتراض یا عدم تلفات در طول اعتراضات باشد. بنابراین، من یک مدل ZINB را با فرمول `y~ x1 + x2 + x3 + x4 تخمین می زنم | x1 + x2 + x3 + x5 + x6`، و یک افست. نتایج در مدل تورم نشان میدهد که هیچ پیشبینیکنندهای از نظر آماری معنادار نیست (برخی از آنها در مدل شمارش معنادار هستند). با این حال، یک آزمون Vuong بین مدل ZINB و یک مدل دوجملهای منفی (GLM با پیوند «negbin»)، با همه متغیرها یا فقط آنهایی که در مدل شمارش هستند، نشان میدهد که مدل ZINB نسبت به مدلهای NB برتری دارد. ضریب Log (تتا) در بخش شمارش مدل ZINB یا ضریب «(تقاطع)» در بخش تورم معنیدار نیست. من این را نمی فهمم اگر مدل تورم معنادار نیست، آیا نباید یک مدل دوجمله ای منفی «ساده» بهتر یا حداقل غیرقابل تشخیص باشد؟ آیا مدل ZINB واقعا مناسب تر است؟ PD هیچ ارتباط مهمی بین پیش بینی کننده ها وجود ندارد که بتواند مقادیر معنی داری را تغییر دهد. | تفسیر ZINB - مدل تورم غیر معنی دار |
61000 | برای مجموعه دادههایم، مقدار p بسیار پایینی (< 2.2 e-16) و میانه 1- دارم. من با آمار تازه کار هستم و واقعاً مطمئن نیستم که از این داده ها چه کنم و چگونه آن را تفسیر کنم. توجه: مقدار p از Mann Whitney مشتق شده است و میانه از مجموعه داده های انحراف نسبی است. ویرایش: هر دو مقدار p و میانه ها از داده های انحراف نسبی میکروب ها به دست آمده اند. فرضیه صفر من ویتنی این است که تفاوت معنی داری بین ترکیب ژنتیکی دو نوع مختلف موجودات وجود ندارد. | استنتاج مقادیر p پایین و میانه ها |
51313 | من مشکل طبقه بندی 10 کلاس دارم. من مشکل را به عنوان مجموعه ای از مسائل باینری یک در برابر همه در نظر گرفته ام. برای هر کلاس یک شبکه عصبی MLP ساختهام که تخمین احتمالی [0,1] را ارائه میکند که آیا الگوی ورودی متعلق به کلاس هدف است یا خیر. چگونه می توانم تخمین های احتمالی MLP یک در برابر همه را در یک تخمین احتمال چند طبقه ای ترکیب کنم. من ایده استفاده از $\hat{p}_j = \frac{p_j}{\sum_{i=1}^{10} p_i}$ را دارم که در آن $\hat{p}_j$ تخمین احتمال چند کلاسه است. کلاس i، و $p_j$ تخمین احتمال MLP یک در برابر همه برای کلاس $j$ است. آیا این رضایت بخش خواهد بود؟ هر مرجعی قدردانی خواهد شد. | مقادیر احتمال یک در برابر همه به یک مقدار احتمال کلاس چندگانه تبدیل می شود؟ |
114410 | من با محاسبه دستی برخی از احتمالات پیش بینی شده از رگرسیون لجستیک ترتیبی مشکلی دارم (من این کار را به عنوان یک تمرین یادگیری انجام می دهم - می دانم که لازم نیست این کار را به صورت دستی انجام دهم). مثال زیر را از وب سایت آموزش آمار UCLA در نظر بگیرید: داده ها را وارد کنید: library(foreign) library(MASS) dat <- read.dta(http://www.ats.ucla.edu/stat/data/ologit.dta ) یک رگرسیون لجستیک ترتیبی را اجرا کنید: m <- polr(اعمال ~ public + pared، data = dat، Hess=TRUE) احتمال های پیش بینی شده را دریافت کنید: newdat <- expand.grid(public=unique(dat$public),pared=unique(dat$pared)) cbind(newdat,predict(m,newdat,type=probs)) # public pared بعید است تا حدودی به احتمال زیاد بسیار محتمل #1 0 0 0.5960409 0.3255546 0.07840448 #2 1 0 0.5720066 0.3421339 0.08585947 #3 0 1 0.3246644 0.4682876 0.20704799 #4 1 1 0.3033554 0.472282374 reduce: مقادیر رهگیری را ذخیره کنید intcpts <- coef(summary(m))[3:4] unl <- (1 / (1 + exp(-(intcpts[1] + sum(coef(m) * c(public=0, pared=0) ))))) # 0.5960409 # تا حدودی محتمل است. ((بعید + تا حدودی محتمل) - بعید) swl <- (1 / (1 + exp(-(intcpts[2] + sum(coef(m) * c(public=0,pared=0) ))))) - unl # 0.3255546 # بسیار محتمل (1 - تا حدودی محتمل - بعید) vrl <- 1 - swl - unl # 0.07840448 بنابراین همه اینها خوب کار می کند. با این حال، در روند کشف این موضوع، صفحه دیگری را در سایت UCLA (http://www.ats.ucla.edu/stat/spss/dae/ologit.htm) پیدا کردم که به نظر می رسید نشان می دهد که باید محاسبه شود. برعکس (بسیار محتمل، سپس تا حدودی، سپس بعید) ارزش گذاری می کند. مانند: $ P(Y = 2) = \left(\frac{1}{1 + e^{-(a_{2}+b_{1}x_{1} + b_{2}x_{2} + b_{3}x_{3})}}\راست) $ $ P(Y = 1) = \left(\frac{1}{1 + e^{-(a_{1}+b_{1}x_{ 1} + b_{2}x_{2} + b_{3}x_{3})}}\راست) - P(Y = 2) $P(Y = 0) = 1 - P(Y = 1) - P( Y = 2) $ اکنون متوجه شدم که این باید دقیقاً همان نتایجی را ارائه دهد که احتمالات همیشه به 1 اضافه می شوند، اما به نظر نمی رسد که منطق آنها را از نظر کد R واقعی یا محاسبات دستی به کار ببرم. من همیشه گیر کرده ام که با بعید شروع می کنم و سپس به احتمال زیاد ادامه می دهم. آیا من چیزی را در منطق اینجا گم کرده ام؟ آیا کسی می تواند یک روش محاسبه ساده را پیشنهاد دهد؟ | محاسبه دستی احتمالات رگرسیون لجستیک ترتیبی - با شروع مقایسه های مختلف |
108631 | من در مورد حداقل های محلی برای شبکه های عصبی زیاد می شنوم. من نظریه پشت آن را درک می کنم - اما اگر شبکه عصبی من وزن ها را در حداقل محلی پیدا کند، آیا این چیز بدی است؟ من میدانم که یافتن حداقلهای جهانی (در شبکههای عصبی) نیز معمولاً چیز بدی است، زیرا حداقلهای جهانی معمولاً بیش از حد مناسب هستند. با این حال من هنوز کمی گیج هستم. آیا همگرایی به حداقل های محلی راه حل های بدی به ما می دهد؟ در نهایت، آیا همگرایی به حداقل های محلی با داده های آموزشی ما سازگار است؟ | شبکه های عصبی - آیا حداقل های محلی بد هستند؟ |
56323 | فرض کنید من داده های سلسله مراتبی دارم، مانند دانش آموزانی که در کلاس های درس دسته بندی شده اند. من میخواهم از رگرسیون حداقل مربعات دو مرحلهای با ابزاری استفاده کنم که بر دانشآموزان در سطح کلاس تأثیر میگذارد تا فرضیهام را آزمایش کنم. روش مناسب برای تست ضعیف بودن ساز چیست؟ آماره کرگ-دونالد F با مقادیر بحرانی سهام و یوگو برای حالت کلی شناسایی ابزارهای ضعیف مناسب به نظر می رسد، اما هیچ تعدیلی برای خوشه بندی ایجاد نمی کند. | تست ابزارهای ضعیف در داده های تابلویی |
51315 | **به روز رسانی** با آزمایش آمار توصیفی، من تعیین کردم که اگر مقدار میانگین وزنی مقیاس شده برای هر مجموعه را رتبه بندی کنم، به صورت زیر محاسبه می شود: $$Mean(Weighted Quantity) * \frac {Median (Weighted Quantity)} {Range(Weighted Quantity) )}$$ نتایج با شهود من مطابقت دارد. اگرچه من مشکل فوری خود را حل کرده ام، اما همچنان می خواهم در مورد کاری که انجام می دهم به صورت رسمی تر توضیح دهم. من می خواهم شروع به یادگیری بیشتر در مورد این نوع مشکلات کنم. * * * **به روز رسانی 2** _**زمینه، در هر درخواست:**_ داده ها ورودی به یک محاسبه پارامتری (معروف به واریانس-کوواریانس) نرخ بهره در معرض خطر (IR VaR) هستند _(ماتریس های همبستگی مرتبط هستند در اینجا در نظر گرفته نشده است)_ * هر ماتریس به ازای نگهداری امنیتی است. * هر ردیف به ازای مدت زمان نرخ کلیدی است _(یعنی 3 ماه، 1 سال، 5 سال، و غیره)_ تعداد تنورها متفاوت است. برای هر تنور _(ردیف)_: * f برابر است با dv01 - یا تغییر دلار در ارزش بازار مالکیت مربوط به یک جابجایی 1bp در منحنی بازده در تنور ردیف * v نرخ نقطه در آن تنور است که از منحنی بازده * q نوسانات نرخ نقطه ای در آن تنور است. نوسان میانگین وزنی مقیاس شده معیار یا نماینده ای برای درجه است. غیر خطی بودن مدل قیمت گذاری اوراق بهادار این به طور دقیق دارایی ها (بر اساس داده های آزمون) را به ترتیب درصد واریانس نتیجه پارامتریک IR VaR هلدینگ از نتیجه مونت کارلو IR VaR آن رتبه بندی می کند. * * * من می خواهم مجموعه ای از داده ها را بر اساس نوعی از کمیت متوسط به عنوان وزن شده توسط یک عامل تنظیم شده توسط یک مقدار رتبه بندی کنم. به عنوان مثال، دو مجموعه داده را در نظر بگیرید: > **مجموعه اول:** \begin{matrix} f[1]_1 & v[1]_1 & q[1]_1\cr f[2]_1 & v[ 2]_1 & > q[2]_1\cr f[3]_1 & v[3]_1 & q[3]_1 \end{matrix} و > **Set Two:** \begin{ماتریس} f[1]_2 & v[1]_2 & q[1]_2\cr f[2]_2 & v[2]_2 & > q[2]_2\cr f[3]_2 و v[3]_2 & q[3]_2\cr f[4]_2 & v[4]_2 & q[4]_2\cr f[5]_2 & > v[5]_2 و q[5]_2 \end{matrix} فکر اولیه من این بود که آنها را با میانگین حسابی وزنی کمیت رتبه بندی کنم، _یعنی_ $$\frac {\sum (f * v * q)}{\sum(f * v)}$$ اما نتایج با شهود من مطابقت ندارد _(که ممکن است معیوب باشد.)_ چگونه می توانم بگویم که آیا باید قبل از رتبه بندی عادی کنم؟ کدام روش های عادی سازی را باید در نظر بگیرم؟ | چگونه می توانم بفهمم که آیا باید قبل از رتبه بندی عادی سازی کنم؟ |
61001 | من فقط میخواهم تابعی را با متن ساده توصیف کنم که دارای عبارات $1-p$ زیادی است: $\frac{(1-p_1) + p_2}{2} × (1-p_3)$. | در اصطلاح ریاضی/آمار، $1/p$ متقابل $p$ است. پس $1-p$ چه نامیده می شود، اگر چیزی باشد؟ |
95863 | فرض کنید توزیع نمرات یک آزمون دارای میانگین 100 و استاندارد > انحراف 16 باشد. یک کران بالایی برای احتمال $P\\{X>148\text{ > یا }X<52\\}$ محاسبه کنید. پیشرفت من این است: با توجه به اصل افزودنی، $P\\{X>148\text{ یا }X<52\\}=P\\{X>148\\}+P\\{X<52\\ }$. آیا می توانم از نابرابری چبیشف در هر دو احتمال استفاده کنم یا از نابرابری یک طرفه چبیشف استفاده کنم؟ یا از نتیجه نابرابری یک طرفه چبیشف (که در زیر ذکر شده است) استفاده کنم؟ $P\\{X\ge \mu+a\\} \le \frac{\sigma^2}{\sigma^2+a^2}$ **(1)** $P\\{X\ le \mu-a\\} \le \frac{\sigma^2}{\sigma^2+a^2}$ **(2)** از آنجایی که مشکل $\mu$، $\sigma$ است و $a$، من معتقدم من باید از **(1)** برای $P\\{X>148\\}$ و **(2)** برای $P\\{X<52\\}$ استفاده کنم تا کران بالایی داشته باشم. | چگونه مرزهای چبیشف را بر روی احتمالات محاسبه کنیم: نابرابری یک یا دو طرفه؟ |
41879 | کسی می تواند توضیح دهد که چرا آمار زیر کافی است یا کافی نیست؟ میانگین، میانه، حالت، انحراف استاندارد، واریانس، محدوده، IQR، چولگی و کورتوزیس. | چه آماری کافی است؟ |
114413 | من سعی می کنم مشکلی را که دارم با شرایط آماری مناسب تعریف کنم. این چیزی است که من دارم: من مجموعه ای از مقادیر را دارم که ماهانه اندازه گیری می شوند. انتظار می رود این مقادیر در طول زمان به طور پیوسته رشد کنند. من باید مقادیری را شناسایی کنم که از روند منحرف می شوند. همه مقادیر >= 0 هستند. من باید کارهای بالا را برای تعداد زیادی مجموعه داده انجام دهم، و مقادیر موجود در آنها می تواند به کوچکی 1 و تا چند صد هزار باشد. من در پایگاه داده Oracle تجزیه و تحلیل خود را انجام می دهم. این توابع آماری کمی دارد، اما چون آنچه را که به دنبال آن هستم نمی دانم، نمی دانم کدام یک برای من مفید است. | انحراف از یک روند - کمک به تعریف مشکل |
79982 | من 3 موضوع دارم. هر آزمودنی آزمایش مشابهی را با 4 نوع محرک به طور تصادفی پراکنده انجام داد. برای هر نوع محرک، آزمودنی 120 کارآزمایی را روی یک کار 2AFC (2-انتخاب اجباری جایگزین) تکمیل کرد. از اینها می توانم یک درصد را درست حساب کنم. میخواهم بدانم که آیا درصد صحیح کلی از نظر آماری بین چهار نوع محرک متفاوت است، اما مطمئن نیستم که چه آزمون آماری را انجام دهم یا چگونه سه موضوع را ترکیب کنم. میخواهم بدانم که آیا باید کاری با d' یا t-test انجام دهم؟ با تشکر | آزمون آماری درصد درست است؟ |
95867 | من یک رگرسیون لجستیک دارم که در آن برخی از متغیرهای مستقل نسبتها (ترکیبات) هستند که مجموع آنها 100 درصد است. فرض کنید من 4 متغیر از این قبیل دارم - رگرسیون ها را 4 بار اجرا کرده ام، هر بار با یک متغیر خارج شده، به طوری که بتوانم تاثیر افزایش 1% هر متغیر را در مقایسه با متغیری که کنار گذاشته شد. به این ترتیب من میتوانم یک «نردبان» بسازم که متغیر آن تأثیرگذارتر از متغیر دیگر باشد و غیره (به عنوان مثال - افزایش 1% در A که 1% از B کاهش مییابد دارای OR> 1 است، بنابراین A ارزشمندتر از B است) . من اکنون به دنبال نمونه ای از چنین روشی هستم - در مقاله یا چیزی مشابه، تا ببینم آیا این یک روش پذیرفته شده است و چگونه می توان آن را به خوبی ارائه داد - نسبت شانس 4 رگرسیون؟ یا نردبان نفوذ؟ هر گونه کمکی بسیار قدردانی می شود! | نسبت ها (ترکیبات) در رگرسیون لجستیک |
114115 | من یک مدل طبقهبندی دودویی «gbm» را نصب کردهام و یکی از متغیرهای پیشبینیکننده، «Affiliate» دارای 50 سطح مختلف است. با توجه به بازخوانی زیر از `gbm.perf`: var Importance Affiliate 52.939994 ProgramName 25.765384 Distributor 17.502216 MarketingCategoryName 2.212374 ProductName 1.580031 با «سطوح 1.580031» مرتبط هستم. طبقه بندی ها و که با طبقه بندی های '0' بیشتری همراه هستند. من در مورد تطبیق یک مدل glm(...، دو جمله ای(probit) توسط هر یک از پیش بینی کننده ها فکر می کردم تا یک مفهوم کلی به من بدهد، اما فکر می کنم این یک راه بسیار دشوار برای انجام آن است. کجا می توانم برخی از آنها را پیدا کنم. نوشته هایی در مورد اینکه چگونه می توان درک دقیق تری از تأثیرات متغیرهای مختلف به دست آورد؟ | یافتن اثرات سطوح معینی از یک عامل پیش بینی کننده |
93161 | من در حال انجام یک مطالعه در مورد پذیرش خرید اینترنتی هستم. من از یک مدل ساختاری از یک مقاله تحقیقاتی استفاده می کنم. سرپرست من از من خواسته است که یک تحلیل عاملی با استفاده از SPSS انجام دهم. من در آمار بسیار ضعیف هستم و با SPSS آشنایی ندارم. یک متغیر نیت رفتاری وجود دارد که تنها بر اساس یک سوال (نه چند سوال) است: آیا سال آینده خدمات خریداری می کنید؟. این مقیاس از نوع لیکرت است. تحلیل عاملی باید این سوال را جداگانه مطرح می کرد اما آن را با سوال دیگری مطرح می کرد. من نمی توانم تجزیه و تحلیل عاملی را برای ایجاد یک عامل جداگانه برای این سوال بدون توجه به تلاشم بدست بیاورم. آیا نباید از این سوال در تحلیل عاملی استفاده کنم زیرا با سوالات دیگر گروه بندی می شود؟ من نمی توانم این سوال را هم حذف کنم زیرا تنها نماینده متغیر نیت رفتاری من است. مدل من ناپایدار خواهد شد، بسیار از کمک شما سپاسگزارم. | آیا باید این متغیر را که تنها شامل 1 سوال در تحلیل عاملی است، انتخاب کنم؟ (همه متغیرهای دیگر بر اساس چندین سوال هستند) |
26516 | من بسیار خوشحالم که این انجمن را پیدا کردم و می خواستم پیش از آن از هر کسی که پست من را می خواند تشکر کنم. من از آن بسیار قدردانی می کنم! من احتمال خرابی را برای ادعاهای توزیع شده Weibull (در مورد دم سبک) تخمین می زنم. برای این منظور باید ضریب تعدیل را محاسبه کنم. CDF توسط: $$ F(x)=1-e^{-ax^b}\text{, }a>0\text{, }b\ge1 داده میشود. $$ فرمول ضریب تعدیل r این است: $$ \int_0^\infty e^{rx}(\overline{F}(x)) = \int_0^\infty e^{rx}e^{-ax^ ب}. $$ اکنون این انتگرال قابل حل نیست. با این حال، من به نوعی تقریب برای مورد کلی نیاز دارم. معنی: من به فرمولی برای ضریب تعدیل نیاز دارم، بدون استفاده از مقادیر خاص برای a و b. آیا راهی برای به دست آوردن این بدون تمایز و استفاده از فرمول نیوتن رافسون وجود دارد؟ ساده ترین راه برای محاسبه ضریب تعدیل چیست؟ خیلی ممنون از وقتی که گذاشتید! با احترام، کریس | ضریب تعدیل (ضریب لوندبرگ) برای توزیع Weibull |
61003 | به نظر می رسد داده های من (حدود 20-30 نقطه داده) از یک الگوی درجه دوم پیروی می کنند، و کاملاً محتمل است که آنها بر یکدیگر تأثیر بگذارند: برای X $ < 16 $، به نظر می رسد تأثیر (جهت علت گرنجر) از $Y$ به $X$، در حالی که برای $X> 16$ به نظر می رسد جهت علیت معکوس شده است. به عبارت دیگر (تفسیری): ممکن است دو اثر وجود داشته باشد، که در آن یکی از آنها تا $X < 16$ غالب است، در حالی که دیگری فراتر از آن نقطه تسلط پیدا می کند. آیا فقط نقل قول(های)$R^2$-value(s) و $p$-value(s) برای _either_ $Y$ در $X$ _یا_ $X$ در $Y$ خوب است، یا باید چند زنگ هشدار اگر دو متغیر بر یکدیگر تأثیر بگذارند (یعنی متغیر وابسته عملاً به متغیر مستقل تبدیل شود و بالعکس برای نیمی از مجموعه داده) از بین می روند؟ | وقتی نه تنها Y بر X بلکه X نیز بر Y تأثیر می گذارد، هنگام پسرفت Y روی X به چه چیزی توجه کنیم؟ |
51317 | من علاقه مند به ترسیم نقشه های حرارتی همبستگی برای یک مجموعه داده چند متغیره جمع آوری شده در دو دسته هستم. برخی از متغیرها اثر دسته ای واضحی را نشان می دهند، برخی دیگر هیچ اثر دسته ای را نشان نمی دهند. آیا راهی برای مراقبت از اثرات دسته ای در همبستگی ها وجود دارد؟ | همبستگی نقشه های حرارتی با اثرات دسته ای |
114418 | من یک مبتدی در R هستم. من می خواهم بار را برای 3 پارامتر کیفیت آب در R برای روزهای خاص برای کل سال با استفاده از فرمول زیر محاسبه کنم:  با استفاده از فرمول قبلی، می خواهم 7 سناریو را محاسبه کنم. هر سناریو نشان دهنده 1 روز هفته (دوشنبه هر هفته، سه شنبه هر هفته ...) برای کل سال است.  با استفاده از مجموعه داده 1 ساله (از اینجا قابل دانلود است)، من سعی کردم یک کد در Rstudio بنویسم تا 7 سناریو را محاسبه کنم. تمام سال اما کار نکرد > Q=جریان > C=NH4 > LN=(Q*C) > LD=C > LD=Q > Q=جریان > C=NH4 > LN=(Q*C) > LD=Q > L=(جمع( LN[Date==Saturday]))/(sum(LD[Date==Saturday])) > L [1] NaN اگر بتوانید به من کمک کنید سپاسگزارم. | چگونه این فرمول را در R برای روزهای مشخص برای کل سال حل کنیم؟ |
69969 | در مطالعه گذشته نگرم متغیرهای پیوسته و مقوله ای دارم. این دومی ها به دو یا چند زیر گروه تقسیم می شوند. من می خواهم تأثیر آنها را بر بقای کلی تجزیه و تحلیل کنم. به طور خاص، من به یک متغیر دوگانه علاقه مند هستم (که من آن را myVariable می نامم) و گمان می کنم که تأثیر آن ممکن است تحت تأثیر سن و جنس باشد. ابتدا، متغیرهای پیوسته را در 2 یا چند زیرمجموعه طبقهبندی کردم و با استفاده از آزمون رتبهبندی لگ با نمودارهای بقای کاپلان مایر، یک تحلیل تک متغیره انجام دادم. myVariable معنی دار نبود. در تحلیل چند متغیره، من از کنترل رگرسیون کاکس برای سن و جنس استفاده کردم: با استفاده از روش enter، سن و جنس را در بلوک اول و سایر متغیرها را در بلوک دوم قرار دادم. من myVariable را در بلوک دوم قرار دادم تا بررسی کنم که آیا بعد از کنترل سن و جنس مهم است یا خیر. اگرچه من قبلاً سن و سایر متغیرهای پیوسته را دسته بندی کرده بودم، اکنون در صورت امکان از داده های طبقه بندی نشده اصلی استفاده می کنم. 1 آیا این روش صحیح است؟ 2 در رگرسیون کاکس myVariable معنی دار شد. به طور عجیبی سن در آزمون لگ رتبه معنی دار نبود اما در رگرسیون کاکس معنی دار شد. چطور می شود؟ 3 من از SPSS استفاده می کنم. در نمای متغیر من متغیرها را به عنوان رشته یا عددی در صورت لزوم تنظیم می کنم. با این حال، هر متغیر به عنوان اسمی تنظیم می شود. آیا این مهم است؟ به عبارت دیگر، آیا می تواند بر نتایج تأثیر بگذارد؟ ممنون از راهنمایی های شما آندریا | رگرسیون کاکس با متغیرهای کنترل شده |
110249 | چگونه یک متغیر تصادفی معمولی را طوری تبدیل کنیم که بتوانم نمونه های عادی را بین محدوده 1 تا 45 شبیه سازی کنم؟ آیا لازم است یک تبدیل ژاکوبین انجام دهم؟ | چگونه یک متغیر تصادفی معمولی را طوری تبدیل کنیم که بتوانم نمونه های عادی را بین محدوده 1 تا 45 شبیه سازی کنم؟ |
90192 | من کمی مطمئن نیستم که چگونه نمودارهای ccf را تفسیر کنم. آیا این دقیقاً مانند acfs انجام می شود؟ به عنوان مثال، یک ccf در حال فروپاشی آهسته یعنی روندی بین سری های زمانی 2 وجود دارد؟ آیا کسی می تواند از نظر فروپاشی آهسته، زوال سریع و طرح الگوی دیده شده در فصلی بودن acf توضیح دهد. | نمودار تابع همبستگی متقابل |
56329 | من روی پیاده سازی الگوریتم HMM Forward در Matlab کار می کنم. من در کدنویسی $\alpha_{j}(t)$ 1 مشکل دارم. **initialize** $t <\- ,$ $a_{ij}, b_{jk}$, دنباله قابل مشاهده $V^T , \alpha_j(0)$ 2. برای $t <\- t + 1$ 3. $\alpha_{j}(t) <-$ $ \sum^c_{1 = 1} \alpha_i(t - 1) a_{ij}b_{jk} v(t)$ 4. تا $t = T$ 5. **بازگشت** $P(V^T) <\- \alpha_0(T) $ برای حالت نهایی 6. **پایان** چگونه محاسبه را برای $\alpha_{j}(t)$ اجرا کنم. وقتی $ a_{ij} = $ ماتریس احتمال انتقال و $ b_{jk} = $ ماتریس انتشار و $ v(t) = $ نمادهای مشاهده شده | مقداردهی اولیه HMM |
111153 | من متوجه شدم که با استفاده از روش SVM می توانیم مقدار آینده را با دقت بیشتری نسبت به سایر روش های معمولی (مانند ARIMA) پیش بینی کنیم. سوال من این است که چگونه مقدار شاخص آینده را بدهیم (مثلاً وقتی 100 مقدار در یک سری زمانی داریم 101) تا بتوانیم مقدار پیش بینی شده برای مقدار شاخص داده شده را بدست آوریم. آیا باید مقدار شاخص سری زمانی آینده خود (101) را پس از آموزش مدل در داده های آزمون لحاظ کنیم؟ چگونه می توانم دو تا سه قدم جلوتر را پیش بینی کنم؟ من قبلاً هرگز از این نوع روش استفاده نکردم بنابراین ممکن است سؤال من به وضوح بیشتری نیاز داشته باشد. لطفا اگر سوال واضح است به من اطلاع دهید. سوال مشابهی قبلا پرسیده شد اما جوابی نداشت. یک پاسخ دو سوال را حل می کند. :) متشکرم متان | پیش بینی با استفاده از روش بردار پشتیبان (SV) در R |
51312 | فرض کنید من دو نمونه تصادفی مستقل از جمعیتی با اندازه $N$ بگیرم: اولی یک نمونه تصادفی ساده با اندازه $n$ و دومی یک نمونه تصادفی ساده با اندازه $m$ است. اجازه دهید مجموعه $S$ شامل تمام رکوردهای انتخاب شده از دو نمونه با اندازه $n$ و $m$ کمتر از هر تکراری باشد. بنابراین، $S$ باید از رکوردهای $n_s$ تشکیل شده باشد که در آن $n_s$ $\le ($$m$+$n$) باشد، زیرا $S$ حاوی موارد تکراری نیست. من سعی میکنم یک تخمینگر بیطرفانه برای کل جمعیت ایجاد کنم که فقط به رکوردهای $S$ فقط از نظر همه $y_i$، $n$، $m$ و $N$ بستگی دارد. من سعی کردم برآوردگر بی طرفانه Horvitz Thompson $\hat{t} = \sum_{iϵS}y_i/\pi_i$ را تقلید کنم، که در آن $\pi_i$ احتمال این است که $y_i$ در $S$ باشد. در اینجا، من معتقدم $\pi_i$ احتمال اتحاد رویداد است که $y_i$ در اولین نمونه از $n$ نفر و رویدادی که $y_i$ در نمونه دوم از $m$ افراد انتخاب شده است. . با این حال، من مطمئن نیستم که چگونه حد بالای جمع را بدون استفاده از $n_s$ بیان کنم. آیا راهی برای تقلید از تخمینگر هورویتز تامپسون فقط از نظر همه $y_i$، $n$، $m$ و $N$ وجود دارد؟ یا باید رویکرد متفاوتی برای ایجاد یک برآوردگر بی طرف داشته باشم؟ | برآوردگر بی طرف از دو SRS تکراری کمتر |
110248 | من مطالعهای انجام دادم که در آن از توالییابی ژنهای نشانگر برای مطالعه تنوع باکتریایی استفاده کردم و میخواهم حداقل فراوانی را برای گونهای که هنوز شناسایی شود محاسبه کنم. **حجم کل** واحد آزمایشی من **2000 میلی لیتر** است. **اندازه نمونه** من **150 میلی لیتر** است. ** فراوانی کل ** (همه گونه های مخدوش شده) **10^6 سلول در میلی لیتر** است. من می توانم **4000 نفر را در هر نمونه** شناسایی کنم (4000 مطالعه). همانطور که متوجه شدم، **4000 نفر از 150 میلی لیتر** را نمونه برداری کردم که تقریباً **27 (= 4000/150) ایند./ml** است. با ** فراوانی کل 10^6 ایند/میلی لیتر** هر گونه معین باید دارای **غلظت حداقل 10^6/27 = 3.7*10^4 ind./ml** باشد تا نمایش داده شود ( به طور متوسط) با حداقل 1 ایند. در نمونه من آیا این منطق درست است یا باید حجم کل تجربی خود را در نظر بگیرم، چرا که **4000 ind را نمونهبرداری کردهام. از 2000 میلیلیتر**، بنابراین فقط **2 ایند/میلیلیتر** با محدودیت تشخیص مطابق با **5*10^5 ایند./ml**. متاسفم برای این سوال واقعا ساده، اما من خیلی گیج می شوم و نمی توانم تصمیم خود را بگیرم. با تشکر از کمک شما! فابیان | حداقل فراوانی یک گونه باکتری |
93168 | Bias به عنوان میانگین تمام خطاها (بدون abs) تعریف می شود و این همان چیزی است که من می خواهم، IMO. با این حال، از من خواسته شده است که MEAN ERROR را بدهم. آیا این همان سوگیری است و آیا تعصب به عنوان خطای متوسط نامیده می شود؟ فقط در صورتی که من این تعاریف را کاملاً به هم ریخته ام، آنچه را که سعی می کنم انجام دهم شرح دهید: موقعیت ها پیش بینی شده و با مقادیر مطلق مقایسه می شوند. برای دادن خطا، RMSE و BIAS محاسبه می شوند. | آیا BIAS برابر با MEAN ERROR است |
45555 | شرایطی که من یاد گرفتم به شرح زیر است: 1. اگر حجم نمونه کمتر از 15 باشد، در صورتی که نمونه تقریباً متقارن، تک پیک و بدون نقاط پرت باشد، آزمون t مجاز است. 2. اگر حجم نمونه حداقل 15 باشد می توان از آزمون t با حذف وجود نقاط پرت یا چولگی قوی استفاده کرد. 3. با یک نمونه بزرگتر، آزمون t می تواند حتی در صورت توزیع اریب استفاده شود، اگر نمونه بیشتر از 30 باشد، اما کمتر از 10٪ از جامعه باشد. چرا وقتی حجم نمونه بزرگتر از 10 درصد حجم جامعه است، نمی توانید از آزمون t استفاده کنید؟ آن وقت چه اتفاقی می افتد؟ آیا از آزمون z استفاده می کنید؟ | شرایط لازم برای استفاده از آزمون t |
69966 | **مقایسه قابلیت اطمینان بین ارزیاب بین 8 متخصص انسانی و یک کامپیوتر** من در حال انجام مطالعه ای هستم که در آن از تجزیه و تحلیل خودکار برای تجزیه و تحلیل سیگنال EEG (فعالیت مغز) و تعیین کمیت ویژگی های خاص آن استفاده می کنم. روش رایانهای هر ویژگی را کمیت میکند و آن را در یکی از سه دسته قرار میدهد، به عنوان مثال: عادی، متوسط یا غیرعادی (برای برخی ویژگیها دو دسته وجود دارد). هدف من مقایسه روش خودکار با بازبینهای متخصص (یعنی انسانها) است و برای این کار همان مجموعه ضبطشده را برای 8 متخصص مغز و اعصاب ارسال کردهام و از آنها خواستهام که هر یک از ویژگیها را برای همه ضبطها دستهبندی کنند. اکنون سوال من: میخواهم قابلیت اطمینان تجزیه و تحلیل خودکار را با بازبینی انسانی مقایسه کنم، اما چون استاندارد طلایی وجود ندارد، میخواهم این کار را با مقایسه تنوع بین ارزیابها بین بازبینهای خبره با استفاده از آمار کاپا و سپس بین سیستم انجام دهم. و بازبینان با استفاده مجدد از آمار کاپا. دقیقاً چگونه باید این کار را انجام دهم؟ اولین ایده من این بود که توافقات بین ارزیاب بین هر یک از داوران را به صورت جداگانه محاسبه کنم (یعنی A در مقابل B، A در مقابل C و غیره) و میانگین آن را بیابم، و سپس همین کار را برای تجزیه و تحلیل کامپیوتری با در نظر گرفتن میانگین آن انجام دهم. توافق با هر یک از داوران اما این به نظر من اشتباه است. آیا این یک مقایسه عادلانه بین متخصصان انسانی و یک الگوریتم کامپیوتری خواهد بود؟ در جایی در گوگل دریافتم که اقدامات مشابهی برای مقایسه الگوریتم ها با انسان در مطالعات ارتباطی مانند تفسیر متون مورد نیاز است، و اگرچه به نظر می رسد که آنها از مقادیر کاپا نیز استفاده می کنند، برای من مشخص نیست که چگونه مقایسه منصفانه ای بین رایانه و انسان انجام می شود. . | توافق بین ارزیاب با چند رتبهدهنده |
61006 | اولین تایمر اینجاست من در حال بررسی بخشی از Casella و Berger در مورد معکوس کردن یک آزمون فرضیه برای به دست آوردن فاصله اطمینان (CI) هستم، و به دلیلی برخوردم که معتقدم یک قطعه کوچک را از دست داده است. در اینجا بیان قضیه به طور کلمه از CB آمده است: * * * **قضیه:** برای هر $\theta_0 \در \Theta$، اجازه دهید $A(\theta_0)$ منطقه پذیرش یک سطح $\alpha$ تست باشد. از $H_0: \theta = \theta_0$. برای هر $\boldsymbol{x} \in \mathcal{X}$، یک مجموعه $C(\boldsymbol{x})$ در فضای پارامتر با $$C(\boldsymbol{x}) = \\{\ تعریف کنید. theta_0: \boldsymbol{x} \در A(\theta_0)\\}$$ سپس مجموعه تصادفی $C(\boldsymbol{X})$ یک $1-\alpha$ مجموعه اطمینان. **اثبات:** می خواهیم نشان دهیم که ضریب اطمینان برابر با $1-\alpha$ است. مقداری $\theta_0 \در \Theta$ را اصلاح کنید و $R(\theta_0)$ را به عنوان ناحیه رد سطح فوق الذکر $\alpha$ تست $H_0 تعریف کنید: \theta = \theta_0$. سپس: \begin{align*} P_{\theta_0}(\theta_0 \in C(\boldsymbol{X})) &= P_{\theta_0}(\boldsymbol{X} \in A(\theta_0))\\ \ &= 1 - P_{\theta_0}(\boldsymbol{X} \in R(\theta_0))\\\ &\geq 1-\alpha \end{align*} جایی که آخرین مرحله از این واقعیت است که آزمون فرضیه سطح $\alpha$ است. این برای هر $\theta_0 \در \Theta$ صادق است، بنابراین $C(\boldsymbol{X})$ یک مجموعه اطمینان $1-\alpha$ است. * * * **Qualm:** مشکل من با این اثبات این است که نشان داده ایم که همه احتمالات پوشش $\geq 1-\alpha$ هستند، اما نشان ندادیم که ضریب اطمینان **برابر** است. $1-\alpha$ (ضریب اطمینان = کمترین احتمالات پوشش). به طور دقیق تر، تعریف مجموعه اطمینان $1-\alpha$ $C(\boldsymbol{X})$ این است: $$\inf_{\theta} P_{\theta}(\theta \in C(\boldsymbol{ X})) = 1-\alpha$$ به نظر من نتیجه گیری اثبات فقط نشان می دهد که $$\inf_{\theta} P_{\theta}(\theta \in C(\boldsymbol{X})) \geq 1-\alpha$$ فکر میکنم این یک نتیجهگیری بهتر باشد، اما همچنان. این یک جزئیات بسیار حساس است. با این وجود من کنجکاو هستم که چه چیزی را از دست داده ام. CB هیچ چیز دیگری در ارائه خود ذکر نمی کند، بنابراین فکر می کنم که من فقط دچار فریز مغزی هستم. هر اشاره ای؟ **پاسخ:** پس از کمی مشورت با MansT در زیر، متوجه شدیم که در Casella و Berger اشتباه تایپی است. عبارت قضیه صحیح باید به این صورت باشد: $$\textrm{...سپس مجموعه تصادفی } C(\boldsymbol{X}) \textrm{ ضریب اطمینان دارد } \geq 1-\alpha$$ | معکوس کردن یک آزمون فرضیه: جزئیات دقیق |
40907 | من دائماً این را در کلاس می بینم و نمی فهمم که چرا ما هر از گاهی ورود را به آنجا اضافه می کنیم. به عنوان مثال ما مدل رگرسیونی 1 را داریم: $$1:\hat Y=-14.37+.321X_1+.043X_2-.0051X_3+.0035X_4$$ و سپس می گوید که ما مدل را با استفاده از فرم ورود به سیستم $X_3$ و $X_4$ تخمین می زنیم. برای دریافت مدل 2: $2:\hat Y=-36.30+.327X_1+.069X_2-4.74\log(X_3)+7.24\log(X_4)$$ $\log$ چه می کند؟ از نظر تأثیرگذاری بر رگرسیون و از نظر تأثیرگذاری بر متغیرها. | در تحلیل رگرسیون گرفتن لاگ یک متغیر چه می کند؟ |
104224 | من فرمولی از نسبت غلظت جینی و نسبت غلظت لورنز می خواهم که شامل سه پارامتر در مورد توزیع گاما وایبول است. من فرمولی در مورد توزیع گاما دارم که فقط شامل یک پارامتر است. اما من آن را برای سه پارامتر می خواهم. برای توزیع گاما، نسبت غلظت جینی $ G= (Γ(α+1/2))/(√π Γ(α+1)) $ است. | توزیع گامای وزنی وایبول |
104229 | من روی دادههای یک طیفسنج جرمی کار میکنم که میلیاردها میلیارد هیستوگرام شمارشی تولید میکند، و به یک روش خوب برای آزمایش اینکه آیا این هیستوگرامها با یک یا چند توزیع مدل (گاوسی، دم سنگین، چندوجهی و غیره) سازگار هستند یا خیر، نیاز دارم. نقاط پرت ممکن است در بخش خوبی از هیستوگرام ها وجود داشته باشد، اگر نه در همه. هیستوگرام ها ممکن است از 0 تا 10^6 شمارش داشته باشند، و آنها قبلاً به صورت گسسته به ما می آیند، بنابراین هیستوگرام هیچ اطلاعاتی را نسبت به مشاهدات اصلی از دست نمی دهد. بهعنوان یک تحلیلگر داده سادهلوح که توسط فیزیکدانان آموزش دیده، غریزه من این است که کاری شبیه به زیر انجام دهم: برای هر توزیع مدل، * پارامترهای آن را با استفاده از گشتاورها یا برازش غیرخطی با استفاده از احتمال پواسون تخمین بزنید (زیرا این دادههای شمارش است. ، هر bin یک متغیر تصادفی پواسون است) * $\chi^2$ داده ها را در مقابل توزیع برازش محاسبه کنید سپس، با مقادیر مجذور chi از بین چندین مدل در دست... * مدلی را با بهترین ارزش $\chi^2$ انتخاب کنید * اگر $\chi^2$ خیلی بزرگ است (همانطور که در برابر توزیع نظری $\chi^2$ با مقدار مناسب ارجاع شده است. درجه آزادی)، توزیع را به عنوان انحراف قابل توجهی از مدل علامت گذاری کنید. کنجکاو بودم که آیا آماردانان باتجربه تر می توانند در مورد اینکه آیا این روش منطقی است، محدودیت هایی که ممکن است با آنها مواجه شوم، جایگزین های بهتر و غیره به من توصیه کنند. منطقی است که از احتمال پواسون / واگرایی کولبک-لایبلر در متریک برازش به جای مجموع مربع های استفاده شده در آزمون $\chi^2$ استفاده شود. آمار مناسب ترین استفاده از آن در اتصالات است، چرا که نه در آزمایش؟ اما من هیچ تست رایجی را نمی شناسم که به این روش کار کند. من برای تست های هیستوگرام پواسون در گوگل جستجو کردم و چیزی پیدا نکردم. * من این حس مبهم را دارم که باید از نوع AIC برای محاسبه تعداد پارامترها در توزیع استفاده کنم، اما شاید قبلاً در درجه آزادی $\chi^2$ قرار گرفته باشد. | برای مدلسازی هیستوگرام، تستهای تناسب بهتر از مجذور کای؟ |
79984 | 1) چگونه می توانم آستانه طبقه بندی را تغییر دهم (فکر می کنم به طور پیش فرض 0.5 است) در RandomForest در sklearn؟ 2) چگونه می توانم در sklearn نمونه برداری کنم؟ 3) من نتیجه زیر را از طبقهبندیکننده RandomForest دارم: [[1635 1297] [520 3624]] فراخوانی دقیق f1-score کلاس پشتیبانی 0 0.76 0.56 0.64 2932 کلاس 1 0.74 0.87 0.47 0.804 مجموع 0.73 7076 اول، داده ها نامتعادل هستند (30% از کلاس-0 و 70% از کلاس-1). بنابراین، من فکر میکنم که طبقهبندیکننده به احتمال زیاد برای کلاس-1 سوگیری دارد، به این معنی که مقداری از کلاس-0 به کلاس-1 منتقل میشود (1297 طبقهبندی اشتباه برای کلاس-0 وجود دارد، اما 520 طبقهبندی اشتباه برای کلاس-1 وجود دارد). چگونه می توانم این را برطرف کنم؟ اگر نمونه برداری کوچک می تواند کمک کند؟ یا تغییر آستانه طبقه بندی؟ به روز رسانی: کلاس-0 دارای 40٪ جمعیت است در حالی که کلاس-1 60٪ است. با این حال، جابجایی از کلاس-0 به کلاس-1 (1297) زیاد است در حالی که من می خواهم این مقدار کم شود. | آستانه طبقه بندی در RandomForest-sklearn |
25377 | من یک مجموعه داده چند متغیره را با استفاده از یک فرم تغییر یافته از تابع mvrnorm() (از بسته MASS در R) شبیه سازی می کنم. مشکل این است که من بعد از تبدیل مقدار ویژه مقادیر منفی دریافت می کنم (من فرض می کنم) زیرا همبستگی های منفی زیادی و تعدادی میانگین کوچک دارم. آیا روش خاصی برای مقابله با این پدیده وجود دارد؟ ایده من این است که فقط فاکتوری را به همه نقاط داده (مانند چارک اول) اضافه کنم، زیرا تا زمانی که ساختار همبستگی دست نخورده باقی بماند، چندان اهمیتی به معنای دقیق آن ندارم. یک مثال ساده: require(MASS) # For [4،2] <- -.5 corr[2،4] <- -.5 set.seed(1000) mm <- mvrnorm(n=10, mu=rep(1,5)، Sigma=nearPD(corr، corr=TRUE)$mat، تجربی=TRUE) همانطور که می بینید، mm نمونه های غیر مثبت دارد. از آنجایی که میخواهم اندازهگیریهای فیزیکی را مدلسازی کنم، این معنی ندارد. edit2: نمونهبرداری چند متغیره از توزیع log-normal همچنان منجر به مثالهای منفی میشود: mvrlnorm <- تابع (n = 1، mu، Sigma، tol = 1e-06، تجربی = TRUE) { نیازمند (ماتریس) p <- طول (mu) if (!all(dim(Sigma) == c(p, p))) stop(آگومان های ناسازگار) eS <- eigen(Sigma، متقارن = TRUE، EISPACK = TRUE) ev <- eS$values if (!all(ev >= -tol * abs(ev[1L]))) stop(سیگما قطعی مثبت نیست) # HERE BE توزیع log-normal X <- ماتریس(rlnorm(p *n)، nrow=n) if (تجربی) {X <- مقیاس (X, TRUE , FALSE) X <- X %*% svd(X, nu = nrow(X), nv = ncol(X))$v X <- scale(X, FALSE, TRUE) } retval <- eS$vectors %*% diag(sqrt(ev), length(ev)) %*% t(eS$vectors) reval <- X %*% retval retval <- sweep(retval, 2, mu, +) X <- retval nm <- names(mu) if (is.null(nm) && !is.null(dn <- dimnames(Sigma))) nm <- dn[[1L]] dimnames(X) <- list(nm, NULL) اگر (n == 1) drop(X) other t(X)} | مشکل با مقادیر منفی هنگام شبیه سازی داده های چند متغیره با استفاده از rmvnorm |
56322 | یک نمودار مناسب برای نشان دادن رابطه بین دو متغیر ترتیبی چیست؟ چند گزینه که می توانم به آنها فکر کنم: 1. نمودار پراکندگی با لرزش تصادفی اضافه شده برای جلوگیری از پنهان کردن نقاط یکدیگر. ظاهرا یک گرافیک استاندارد - Minitab این را نقشه مقادیر فردی می نامد. به نظر من ممکن است گمراه کننده باشد زیرا از نظر بصری نوعی درون یابی خطی بین سطوح ترتیبی را تشویق می کند، گویی که داده ها از یک مقیاس فاصله ای هستند. 2. نمودار پراکندگی به گونه ای تطبیق داده شده است که اندازه (مساحت) نقطه به جای ترسیم یک نقطه برای هر واحد نمونه، فراوانی آن ترکیب سطوح را نشان می دهد. من گهگاه در عمل چنین طرح هایی را دیده ام. خواندن آنها ممکن است سخت باشد، اما نقاط روی یک شبکه با فاصله منظم قرار دارند که تا حدودی بر انتقاد از نمودار پراکندگی پراکنده که به صورت بصری داده ها را فاصله بندی می کند، غلبه می کند. 3. به ویژه اگر یکی از متغیرها به عنوان وابسته در نظر گرفته شود، نمودار جعبه ای که بر اساس سطوح متغیر مستقل گروه بندی می شود. اگر تعداد سطوح متغیر وابسته به اندازه کافی زیاد نباشد، احتمالاً وحشتناک به نظر می رسد (بسیار مسطح با سبیل های از دست رفته یا حتی ربع های فرو ریخته بدتر که شناسایی بصری میانه را غیرممکن می کند)، اما حداقل توجه را به میانه و چارک ها جلب می کند. آمار توصیفی مرتبط برای یک متغیر ترتیبی 4. جدول مقادیر یا شبکه خالی سلول ها با نقشه حرارتی برای نشان دادن فرکانس. از نظر بصری متفاوت اما از نظر مفهومی مشابه نمودار پراکندگی با مساحت نقطه ای که فرکانس را نشان می دهد. آیا ایدهها یا افکار دیگری وجود دارد که در آن طرحها ارجحیت دارند؟ آیا زمینه های تحقیقاتی وجود دارد که در آن نمودارهای ترتیبی در مقابل ترتیبی به عنوان استاندارد در نظر گرفته شوند؟ (به نظر می رسد به یاد می آورم که نقشه حرارتی فرکانس در ژنومیک گسترده است، اما گمان می کنم که اغلب برای اسمی در مقابل اسمی است.) پیشنهادات برای یک مرجع استاندارد خوب نیز بسیار خوش آمدید، من چیزی را از Agresti حدس می زنم. اگر کسی بخواهد با یک نمودار نشان دهد، کد R برای داده های نمونه جعلی در ادامه می آید. ورزش چقدر برای شما مهم است؟ 1 = اصلا مهم نیست، 2 = تا حدودی بی اهمیت، 3 = نه مهم و نه بی اهمیت، 4 = تا حدودی مهم، 5 = بسیار مهم است. چقدر مرتباً 10 دقیقه یا بیشتر می دوید؟ 1 = هرگز، 2 = کمتر از یک بار در هر دو هفته، 3 = یک بار در هر یک یا دو هفته، 4 = دو یا سه بار در هفته، 5 = چهار بار یا بیشتر در هفته. اگر طبیعی است که اغلب را به عنوان یک متغیر وابسته و اهمیت را به عنوان یک متغیر مستقل در نظر بگیریم، اگر طرحی بین این دو تمایز قائل شود. اهمیت <- تکرار (1:5، بار = c(30، 42، 75، 93، 60)) اغلب <- c(تکرار(1:5، بار = c(15، 07، 04، 03، 01)) ، #n=30، اهمیت 1 تکرار (1:5، بار = c(10، 14، 12، 03، 03))، #n=42، اهمیت 2 تکرار (1:5، بار = c(12، 23، 20، 13، 07))، #n=75، اهمیت 3 تکرار (1:5، بار = c(16، 14، 20، 30، 13) )، #n=93، اهمیت 4 تکرار (1:5، بار = c(12، 06، 11، 17، 14))) #n=60، اهمیت 5 running.df <- data.frame(اهمیت، اغلب) cor.test(اغلب، اهمیت، روش = کندال) #طرح همخوانی مثبت(running.df) #در حال حاضر بی فایده یک سوال مرتبط برای متغیرهای پیوسته مفید بودند، شاید یک نقطه شروع مفید: هنگام مطالعه رابطه بین دو متغیر عددی، جایگزینهایی برای نمودارهای پراکنده چیست؟ | نمودار ارتباط بین دو متغیر ترتیبی |
25372 | من یک سوال در مورد چگونگی محاسبه خوبی یک تناسب دارم. فرض کنید من یک دسته از دادههای $(x_i، y_i، \sigma_i)$ دارم و میخواهم یک مدل غیرخطی $f$ (یک نمایی کشیده) را با کمینه کردن $\chi^2$: $$ به آنها برسانم. \chi^2 = \sum_{i=1}^N \frac{\left(y_i - f\left(x_i, \beta\right)\right)^2}{\sigma_i ^ 2}$$ حداقل، میدانم که موارد بالا از توزیع $\chi^2$ با درجه آزادی $N - \nu$ پیروی میکنند، که در آن $ \nu$ تعداد پارامترهای مدل است. بنابراین من می توانم یک $p$-value بر اساس آن محاسبه کنم و خوب بودن تناسب خود را ارزیابی کنم. اما این مستلزم آن است که عدم قطعیت های $\sigma_i$ شناخته شده باشند. حال فرض کنید مشاهدات من از $y_i$ در واقع با میانگین گیری نمونه هایی با اندازه های مختلف به دست آمده است. منظورم این است که برای هر $i$ من $n_i$ تکرار $y_{ij}$، $j = 1، ...، n_i$ دارم، و به جای $y_i$، $$\overline{y دارم. }_i = \frac{1}{N}\sum_{j=1}^{n_i} y_{ij}$$ و به جای $\sigma_i$ واقعی من $$\hat\sigma_i = \frac{s_i}{\sqrt{n_i}}$$ که در آن $s$ برآوردگر بی طرفانه انحراف استاندارد $i$-امین نمونه است. آیا استفاده از $\hat\sigma^2$ به جای $\sigma^2$ مفروضات استفاده از $\chi^2$ برای ارزیابی GoF را نقض میکند؟ | برازش مجذور کای با عدم قطعیت برآورد شده از دادهها |
104591 | من نژاد را به عنوان یک متغیر در مدل خود دارم و اندازه گیری من نشان دهنده رقابت مدیران در مدیریت شرکت است (نمره 1 اگر مسابقه خاصی در مدیریت باشد). مشکل این است که مدیریت شرکت ها بیش از یک مسابقه در مدیران خود دارند. بنابراین، وقتی میخواهم نژاد را به طور آماری خلاصه کنم که چهار عدد است، درصد کل بیش از 100٪ است بهترین راه برای نشان دادن نتایج چیست؟ پیشنهادات شما بسیار قدردانی می شود | آمار توصیفی بیش از 100% را نشان می دهد |
25371 | من از تابع 'glmer()' از بسته lme4 برای اجرای GLMM با استفاده از توزیع پواسون استفاده می کنم. در تمام مثالهایی که من میبینم، قسمت اثرات تصادفی خروجی دارای یک بخش باقیمانده است که از دادهها تخمین زده شده است (در مثال زیر با 2 ستاره در دو طرف احاطه شده است). سپس می توان از این اطلاعات در تفسیر میزان تغییرات توضیح داده شده توسط اثر تصادفی استفاده کرد. در اینجا یک مثال آورده شده است: > خلاصه (M1) خطی مدل مختلط متناسب با فرمول REML: غنا ~ NAP * fExp + (1 | fBeach) داده: RIKZ AIC BIC logLik انحراف REMLdev 236.5 247.3 -112.2 230.3 224 Variance گروه Name. .Dev. fBeach (Intercept) 3.3072 1.8186 **Residual 8.6605 2.9429** تعداد obs: 45، گروه: fBeach، 9 Fixed effect: Estimate Std. مقدار خطای t (Intercept) 8.8611 1.0208 8.681 NAP -3.4637 0.6279 -5.517 fExp11 -5.2556 1.5451 -3.401 NAP:fExp11 2.000614 Corection of 2.000614 0.29. (Intr) NAP fExp11 NAP -0.181 fExp11 -0.661 0.120 NAP:fExp11 0.120 -0.664 -0.221 با این حال، وقتی از دادههای خودم استفاده میکنم، خروجی دریافت میکنم که شامل این اطلاعات نمیشود، و مطمئن نیستم چرا. من میخواهم بدانم که چه مقدار از تغییرات توسط افکتهای تصادفی من توضیح داده میشود، اما نمیتوانم نحوه دسترسی به اطلاعات لازم برای پاسخ به سؤال را بفهمم. هر سرنخ؟ آیا این یک مسئله داده/آمار است یا دانستن نحوه دسترسی به موضوع اطلاعات است؟ اگر در جای اشتباهی سوال می کنم عذرخواهی می کنم. خروجی ای که دریافت می کنم شبیه خروجی زیر است: مدل ترکیبی خطی تعمیم یافته متناسب با فرمول تقریبی لاپلاس: y ~ z.score(x1) + z.score(x2) + z.score(x3) + z.score(x4 ) + z.score(x5) + z.score(x6) + (1 | RE) داده: p AIC BIC logLik انحراف 419.5 454.7 -201.8 403.5 اثرات تصادفی: نام گروه ها Variance Std.Dev. RE (Intercept) 0.021605 0.14699 تعداد obs: 600، گروهها: RE، 40 جلوههای ثابت: Estimate Std. خطای z مقدار Pr(>|z|) (انتقال) 1.70591 0.02911 58.60 < 2e-16 *** z.score(x1) 0.19087 0.03595 5.31 1.10e-07 *** z.score(x2) 0.10e-07 *** z.0score(x2) 0.000460 *** z.score(x3) -0.16562 0.04020 -4.12 3.79e-05 *** z.score(x4) 0.13229 0.03425 3.86 0.000112 *** 58 z.89 -0.01x -2.66 0.007885 ** z.score(x6) 0.17600 0.05798 3.04 0.002401 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 همبستگی جلوه های ثابت: (Intr) z.(x1) z.(x2 z.s(x3) z.(x4 z.(x5 z.scr(x1) -0.051 z.s(x2) 0.038 0.259 z.scr(x3) 0.045 0.156 0.113 z.(x4 -0.040 0.144 -0.052 0.044 z.(x5 0.026 -0.368 -0.339 -0.072 -0.072 -0.073 -0.339 -0.072 z. 0.002 -0.143 -0.004 در اینجا چند داده نمونه وجود دارد که با «glmer(y ~ x1 + (1|RE), data=d, family=poisson)» مطابقت دارد. 3، 5، 2، 6، 3، 7، 2، 3، 0، 4، 0،10، 1، 4، 0، 4، 2، 3، 0، 6، 3، 4، 2، 3، 2، 3، 3، 4، 0، 5، 6، 5، 4، 4، 0، 3، 1، 6، 0، 3، 2، 2، 1، 6، 2، 7، 0، 2، 0، 4، 0، 6، 4، 5، 1، 5، 1، 4، 1، 2، 3، 6، 6، 7، 0، 5، 0، 9، 1، 4، 5، 6، 1، 7، 1، 4، 1، 4، 0، 4، 1، 6، 1، 4، 0، 7، 1، 4، 0، 6، 0، 7، 2، 6، 0، 6، 1، 5، 0، 4، 1، 7، 2، 4، 1، 5، 1، 7، 2، 5، 0، 4، 3، 5، 1، 4، 0، 3، 0، 6، 0، 8، 3، 9، 0، 2، 3، 8، 0، 1، 0، 3، 0، 5، 0، 4، 4، 5، 0، 5، 1، 5، 3، 5، 1، 4، 3، 4، 4، 4، 4، 4، 4، 7، 1، 8، 1، 4، 0، 2، 2، 5، 1، 4، 1، 5، 1، 4، 2، 4، 2، 4، 0، 6، 1، 6، 0، 6، 1، 2، 1، 3، 1، 8، 1، 6، 1، 6، 0، 6، 1، 6، 2، 6، 2، 4، 0، 1، 1، 1، 1، 6، 5، 5، 1، 5، 2، 4، 2، 6، 1، 7، 1، 8، 2، 8، 1، 8، 2، 4، 1، 7، 3، 6، 4، 7، 3، 7، 1، 6، 3، 5، 1،10، 1، 7، 2، 5، 1، 5، 0، 6، 1، 8، 4، 7، 1، 6، 1، 9، 0، 9، 1، 3، 2، 5، 2، 9، 3، 5، 0، 2، 2، 3، 0، 5، 0، 5، 0، 4، 3، 6، 1، 10، 2، 8، 0، 6، 0، 4، 2، 6، 2، 4، 2، 6، 1، 4، 0، 5، 2، 6، 1، 5، 2، 5، 1، 5، 1، 5)، x1 = rep(c(0.1008، 0.0511، 0.1792، 1.0345)، c(80، 80، 80، 60))، RE = rep(c(37، 88، 139، 190, 241, 292, 343, 394, 91, 142, 193, 244, 295, 346, 397, 40, 94, 145, 43, 196, 247, 298, 194, 304,349 250، 148، 199، 46، 97، 355، 406، 253، 304، 49، 100، 151، 202، 37، 88، 139، 190، 241، 292، 314،343، 314 244, 295, 346, 397, 40, 43, 94, 145, 247, 298, 349, 196, 400, 199, 250, 301, 352, 406, 46, 94, 97, 46 151، 202، 253، | واریانس با اثرات تصادفی با استفاده از lme4 توضیح داده شد |
110247 | من دو سوال در مورد جدول احتمالی 2x2 زیر دارم:  1، چگونه می توانم حداکثر احتمال احتمال نسبت شانس را استخراج کنم ( $OR = (a*d)/(c*b)$) 2، چگونه می توانم فواصل اطمینان دقیق را استخراج کنم (نه تقریب های معمولی) با درک اینکه یک فرض توزیعی باید انجام شود، فکر میکردم این دوجملهای است، اما مطمئن نیستم از آنجا به کجا بروم. | جدول احتمالی 2×2 - برآورد حداکثر احتمال نسبت شانس و فواصل اطمینان دقیق |
81430 | من یک مدل ترکیبی دارم و دادهها به این شکل است: > head(pce.ddply) موضوع خطاهای نوع خطاهای نوع 1 j202 G O 0.00000000 2 j202 G P 0.00000000 3 j203 G O 0.0833000000 j203 G O 0.0833000000 5 j205 G O 0.16666667 6 j205 G P 0.00000000 هر موضوع دو نقطه داده برای نوع خطا (O یا P) ارائه میکند و هر موضوع در شرایط G (N=30) یا N (N=33) قرار دارد. errorType یک متغیر تکراری و Condition یک متغیر بین است. من هم به جلوه های اصلی و هم به تعاملات علاقه دارم. بنابراین، ابتدا یک anova: > summary(aov(errors ~ Condition * errorType + Error(subject/(errorType))، داده = pce.ddply)) خطا: موضوع Df Sum Sq Mean Sq F مقدار Pr(>F) شرط 1 0.00507 0.005065 2.465 0.122 باقیمانده 61 0.12534 0.002055 خطا: موضوع: errorType Df Sum Sq Mean Sq F مقدار Pr(>F) errorType 1 0.03199 0.03199 10.52 0.001919 ** شرط: errorTy11010004 13.19 0.000579 *** Residuals 61 0.18552 0.00304 شرط مهم نیست، اما errorType است، و همچنین تعامل. با این حال، وقتی از lmer استفاده میکنم، مجموعهای کاملاً متفاوت از نتایج را دریافت میکنم: > lmer(خطاها ~ شرط * نوع خطا + (1 | موضوع)، داده = pce.ddply) مدل ترکیبی خطی متناسب با فرمول REML: خطاها ~ شرط * نوع خطا + (1 | موضوع) داده: pce.ddply AIC BIC logLik انحراف REMLdev -356.6 -339.6 184.3 -399 -368.6 اثرات تصادفی: نام گروه ها Variance Std.Dev. موضوع (Intercept) 0.000000 0.000000 Residual 0.002548 0.050477 تعداد obs: 126، گروه ها: موضوع، 63 اثرات ثابت: Estimate Std. مقدار خطای t (Intercept) 0.028030 0.009216 3.042 ConditionN 0.048416 0.012734 3.802 errorTypeP 0.005556 0.013033 0.426 Type140. 0.018008 -3.967 همبستگی اثرهای ثابت: (Intr) CndtnN errTP ConditionN -0.724 errorTypeP -0.707 0.512 CndtnN:rrTP 0.512 -0.707 -0.724 error است، اما برای نه همچنین، نتیجه lmer دقیقاً مشابه نتیجه glm است، که باعث می شود باور کنم چیزی اشتباه است. لطفاً کسی می تواند به من کمک کند تا بفهمم چرا آنها اینقدر متفاوت هستند؟ من گمان میکنم که از lmer اشتباه استفاده میکنم (اگرچه بسیاری از نسخههای دیگر مانند (ErrorType | موضوع) را با نتایج مشابه امتحان کردهام. (من دیدهام که محققان از هر دو رویکرد در ادبیات با دادههای مشابه استفاده میکنند.) | چرا تفاوت چشمگیری بین aov و lmer وجود دارد؟ |
45550 | من نمودار تشخیصی زیر را برای داده های خود دارم. آیا نرمال بودن، به ویژه با توجه به نمودارهای باقیمانده زیگ زاگ نقض شده است؟  | آیا نمودار باقیمانده زیگزاگ به این معنی است که نرمال بودن نقض شده است؟ |
64562 | من سه مجموعه داده دارم که توسط سه دستگاه مختلف اندازهگیری میشود: «A، B» و «C» بالون هوایی که سقوط آن تحت تأثیر باد است. هر برگه داده به این صورت است: الف: طول جغرافیایی، ارتفاع چرخش وزن (در حدود محور اصلی) زمان ... ... ... ... ... ... ب: طول جغرافیایی طول جغرافیایی ارتفاع وزن چرخش وزن (در حدود محور اصلی) زمان ... ... ... ... ... ... و به طور مشابه برای `C`. آیا تکنیک های استانداردی برای مقایسه اندازه گیری خطای «B» و «C» با توجه به «A» (استاندارد در نظر گرفته شده) وجود دارد؟ توجه داشته باشید که به جز زمان، همه پارامترهای دیگر هم می توانند افزایش یا کاهش پیدا کنند و طول/طول جغرافیایی و چرخش تنها پارامترهایی هستند که می توانند مثبت و منفی باشند. مشکل رگرسیون این است که من متغیر مستقل/وابسته ندارم. روش تجزیه و تحلیل خطا که من به طور کلی استفاده می کنم این است که ${\rm Err}_{x}$، ${\rm Err}_{y}$، و ${\rm Err}_{z}$ را محاسبه و ترکیب کنم. زمانی که من تابعی دارم که چیزی را توضیح می دهد، آنها را مناسب می دانند. من عملکرد را ندارم. (منظورم این است که من تابعی برای استفاده از انتشار خطا ندارم.) دقیقاً، سعی می کنم دقت دستگاه های B و C را اندازه گیری کنم یادداشت جانبی: نتوانستم یک برچسب مناسب پیدا کنم. | دو مجموعه داده را با هم مقایسه کنید |
82352 | من از طریق گلمن و هیل، تجزیه و تحلیل داده ها و رگرسیون با استفاده از مدل های چندسطحی/سلسله مراتبی (2007)، با استفاده از بسته «بازو» کار می کنم، و سعی می کنم مدل های چند سطحی را با چارچوب اقتصادسنجی که بیشتر با آن آشنا هستم مرتبط کنم. من انتظار داشتم که یک مدل چندسطحی با ضریب شیب غیرمتغیر و ضریب برش متغیر نتایج یکسانی را برای یک رگرسیون اثر ثابت و بدون ثابت ارائه دهد. انتظار داشتم کد R و Stata زیر نتایج یکسانی را ایجاد کند. آنها نمی کنند - می توانید به من بگویید چرا؟ کد R: M1 <- lmer(y ~ x1 + x2 + (1 | شهرستان)) کد Stata: reg y x1 x2 i.county, noconstant ضرایب تولید شده توسط این دو رویکرد کاملاً متفاوت است. کد Stata y را روی متغیرهای نشانگر اضافی x1، x2 و K برای هر شهرستان رگرسیون می کند. R چه کاری انجام می دهد که متفاوت است؟ آیا آنالوگ رگرسیون OLS وجود دارد؟ | مدل چند سطحی با متغیر رهگیری در مقابل رگرسیون اثر ثابت |
82356 | من جدول زیر را در `R` df <- structure(list(x = structure(c(12458, 12633, 12692, 12830, 13369, 13455, 13458, 13515), class = Date), y = c( 6080, 6949, 7076, 7818, 0, 0، 10765، 11153))، .Names = c(x، y)، row.names = c(1، 2، 3، 4، 5، 6 ، 8، 9), class = data.frame) > df x y 1 2004-02-10 6080 2 2004-08-03 6949 3 2004-10-01 7076 4 2005-02-16 7818 5 2006-08-09 0 6 2006-11-03 0 8 2006-11-06 10765 9 1015 2007 برازش خطی توکی (تابع «خط» در «R») از طریق خطوط plot(data=df, y ~ x) (df$x, line(df$x, df$y)$fitted.values) که تولید می کند:  همه چیز خوب است. نمودار بالا مقادیر مصرف انرژی را نشان می دهد که انتظار می رود فقط افزایش یابد، بنابراین من از اینکه تناسب از آن دو نقطه عبور نمی کند (که متعاقباً به عنوان نقاط پرت علامت گذاری می شوند) خوشحالم. با این حال، فقط آخرین نقطه را حذف کرده و دوباره ترسیم کنید fitted.values) نتیجه کاملاً متفاوت است.  نیاز من این است که در هر دو سناریو بالا نتیجه ایده آل یکسانی داشته باشم. به نظر نمی رسد که R برای رگرسیون یکنواخت، علاوه بر «ایزورگ» که به صورت تکه ای ثابت است، تابع آماده استفاده از آن باشد. ویرایش: همانطور که @Glen_b اشاره کرد، نسبت مقادیر پرت به اندازه نمونه برای تکنیک رگرسیون استفاده شده در بالا بسیار بزرگ است (28٪). با این حال، من معتقدم ممکن است چیز دیگری را در نظر بگیریم. اگر نقاط ابتدای جدول را اضافه کنم: df <- rbind(data.frame(x=c(as.Date(2003-10-01)، as.Date(2003-12-01) , y=c(5253,5853))، df) و دوباره مانند «plot(data=df, y ~ x) دوباره محاسبه کنید. lines(df$x, line(df$x,df$y)$fitted.values)` من همان نتیجه را میگیرم، با سهمیه ~22% | رگرسیون یکنواخت قوی در R |
96307 | من به http://www.markowetz.org/florian/FlorianMarkowetz_DiplMath_thesis.pdf در صفحه 31-35 مراجعه می کنم، او تلاش می کند تا اثبات Vapniks مبنی بر اینکه مسئله اولیه یک مشکل دوگانه برای ابرصفحه حاشیه حداکثر (هیپرصفحه بهینه) معادل هستند، دوباره فرموله کند. متأسفانه نسخه بیان شده به نظر من اشتباه است زیرا در صفحه 35 زنجیره معادله درست قبل از (7) صحیح نیست. حداقل نمیدانم چرا «>» دوم باید بماند. جایگزینی فرض در معادله منجر به < می شود تا جایی که من می بینم. آیا کسی راه دیگری برای اثبات نتیجه دلخواه می داند یا می تواند به من بگوید که در چه چیزی اشتباه می کنم؟ من نگاهی به نظریه یادگیری آماری Vapniks (1998) در صفحه 403 انداختم اما این نوع نمادگذاری واقعاً من را گیج کرد. خیلی ممنون | چگونه می توان Hyperplane جداکننده بهینه را برای یک ماشین بردار پشتیبان ساخت |
96309 | از آنچه من در مورد حداکثر احتمال اطلاعات کامل (FIML) می دانم، مفروضات به صورت تصادفی (MAR) گم شده اند، که نمی توان آن را آزمایش کرد و نرمال بودن چند متغیره. مزایای FIML کارایی مجانبی، نرمال بودن مجانبی و تخمین پارامترهای بی طرفانه (یا سازگار؟) است. معایب: خطاهای استاندارد به سمت پایین سوگیری دارند. در یک مدل رگرسیون با متغیرهای باینری (ساختگی)، به عنوان مثال. جنسیت، فرض نرمال بودن چند متغیره نقض می شود. عواقب این تخلف چیست و بهترین راه برای مقابله با آن چیست؟ | مفروضات و تخلفات FIML |
96512 | استفاده از رگرسیون برای سادگی، دادههای غیرفصلی ثابت را فرض میکنیم. مثال: اگر میخواهیم حجم فروش را برای ماههای خاص پیشبینی کنیم، دادههای روزانه را با دادههای ماهانه تجمیع میکنیم و مدل خود را متناسب میکنیم، و غیره. اگر بخواهیم بر اساس سال نیز پیشبینی کنیم، آیا درست است که آن دادهها را به سال تجمیع کنیم، متناسب با یک مدل و پیش بینی؟ یا باید به کل/مدل ماهانه پایبند باشیم؟ سپس ما باید 12 ماه را در هر زمان پیش بینی کنیم. ما نمی خواهیم پیش بینی های ماهانه و سالانه را مقایسه یا مرتبط کنیم. | خوب است که از سطوح مختلف تجمیع برای دوره های مختلف پیش بینی استفاده شود؟ |
21983 | آمار کولموگروف اسمیرنوف... در ویکی خواندم که برای مقایسه توزیع نمونه با مرجع استفاده می شود. با این حال، من در شرکتی کارآموزی کرده ام که قرار بود مدل سازی پیش بینی انجام دهد و آنها مدام در مورد _KS برای یک مدل_ صحبت می کنند. آنها در مورد چه چیزی صحبت می کردند؟ | استفاده از آماره کولوموگروف- اسمیرنوف در مدل سازی پیش بینی |
21989 | من سعی می کنم برای $X_n$ iid st نشان دهم. $E|X|^q < \infty$ that $$ \frac{1}{n} \sum^n (X_i - \bar{X})^q \to E((X-EX)^q) $ دلار به احتمال زیاد من از روش زیر استفاده کردم: * $ \frac{1}{n} \sum_{i=1}^n X_i \to EX$ را در prob یادداشت میکنیم. توسط WLLN، یعنی $\bar{X}_n \به EX$ به احتمال زیاد * $ Y_i := (X_i - EX)^q $ iid است یعنی ما از Slutsky در $\frac{1}{n} \sum استفاده می کنیم ^n (X_i - \bar{X})^q $ برای بدست آوردن متغیرهای تصادفی iid و سپس استفاده از WLLN مطابق زیر: $$ \frac{1}{n} \sum_{i=1}^n (X_i - \bar{X})^q \quad \xrightarrow{\text{Slutsky}} \quad \frac{1}{n} \ sum^n (X_i - EX)^q \quad\xrightarrow{\text{WLLN}} \quad E(X-EX)^q \>. $$ اکنون، متوجه شدم که، البته، زمانی که Slutsky را اعمال کردم، $ n \ به \infty $ برداشتم بنابراین واقعاً نمی توانم آخرین مرحله را از طریق WLLN بردارم. آیا کسی می تواند به من کمک کند تا این اثبات را درست کنم؟ | نمایش $ \frac{1}{n} \sum_{i=1}^n (X_i - \bar{X})^q \به E((X-EX)^q)$ به احتمال زیاد |
104598 | فرض کنید $X$ یک متغیر تصادفی با توزیع $F_X$ و چگالی $f_X$ باشد. $$g(x) = \left\\{ \begin{array}{lr} x & : x \ge 0\\\ 0 & : x < 0 \end{array} \right\\}$$ و اجازه دهید $Y=g(X)$. PDF $Y$ چیست؟ **رویکرد من:** از طریق CDF $$F_Y(y) = \Pr(Y\le y) = \Pr(g(X)\le y) = \Pr(X\le y) = F_X(y) , \ y\ge 0$$ پس از گرفتن مشتق، $$f_Y(y) = f_X(y)، \ y \ge 0$$ این نادرست به نظر می رسد زیرا $f_Y(y)$ یک PDF نیست (انتگرال برابر با یک نیست). من می دانم که احتمالاً باید با این واقعیت ارتباط داشته باشد که همه $x\lt 0$ روی $y=0$ نگاشت شده اند. من فقط نمی دانم چگونه می توانم این را به روشی سازنده بگنجانم. | تابع یکسو کننده متغیر تصادفی |
110240 | من یک مدل با سه متغیر دارم (بدون فاصله). ضرایب به ترتیب -2.7398-.0.0190.3044 است. اهمیت نسبی محاسبه شده از مقدار t 16٪، 3٪، 3٪ است. این اعداد؟ | آیا کسی می تواند به من در محاسبه اهمیت نسبی پیش بینی کننده ها در یک مدل با استفاده از مقدار t کمک کند؟ |
96305 | فرض کنید $X_{1},\,\ldots,\, X_{n}$ و $T_{1},\,\ldots,\, T_{r}$ و دو مجموعه از متغیرهای تصادفی با هر $X_{ i}$ مقولهای است و هر $T_{j}$ بهطور پیوسته تمام مقادیر را در محدوده $\left[0,\,\infty\right)$ میگیرد. از قبل مشخص شده است که Tها مجموعه ای از مشاهدات هستند که باعث ایجاد توزیع X می شوند. چگونه ثابت کنم $\overset{n}{\underset{i=1}{\bot}}X_{i}\mid\overset{r}{\underset{j=1}{\bot}}T_{j }$؟ | چگونه می توانم استقلال متقابل مجموعه ای از متغیرهای تصادفی را با توجه به مجموعه دیگری از متغیرهای تصادفی مستقل متقابل اثبات کنم؟ |
64564 | ## آزمایش مجموعهای از بخشهای زمانی مستقل $N$ را در نظر بگیرید. 1. مقدار زمان را در بخش داده شده اندازه گیری کنید: $t_i$ 2. تعداد رویدادهایی را که در یک بخش مشخص رخ می دهد بشمارید: $m_i$ تخمینی از نرخ ماشه کلی $R=M/T$ است که در آن $T$ و $M$ به ترتیب زمان کل و تعداد کل رویدادها در این تحلیل است. تعداد تخمینی رویدادهایی که در بخش $i^{th}$ با توجه به نرخ محاسبه شده در بالا، $e_i=t_iR$ است. سپس می توان از تست Pearson $\chi^2$ $$ X^2 = \sum_{i=1}^N \frac{(m_i-e_i)^2}{e_i} $$ برای محاسبه آمار آزمون برای دادهها و از آن مقدار p برای $\chi^2 \geq X^2$ با درجات آزادی N-1$ محاسبه کنید. * * * ## زیر مجموعه ای از داده ها t = numpy.array([ 41964., 65105., 16178., 16018., 27868., 3293., 7153., 10808., 7228., 37024., 7228., 37024. 86558.، 25638.، 15268.، 14753.، 25773.، 69998.، 2298.، 1858.، 28058.، 3788.، 20653.، 5483.، 22238.، 22238.، 2431. 6358.، 26908.، 7388.، 4558.، 8068.، 32718.، 34648.، 13588.، 22298.، 12588.، 2588.، 19972.، 726.8.، 726.8. 39253.، 62278.، 71018.، 51338.، 17838.، 106228.، 19228.، 50038.]) m = numpy.array([ 185.، 322.، 86.1.، 82. 34.، 66.، 44.، 176.، 387.، 439.، 138.، 73.، 62.، 115.، 331.، 9.، 9.، 146.، 16.، 101.، 25.، 111. ، 14.، 21.، 160.، 29.، 111.، 39.، 21.، 34.، 148.، 168.، 64.، 107.، 58.، 19.، 100.، 29.، 124.، 30.، 173.، 298.، 328. ، 233.، 84.، 493.، 95.، 229.]) * * * ## کد و نتایج numpy را از آمارهای واردات scipy وارد می کنند R = numpy.sum(m)/numpy.sum(t) e = t*R X2, p_rs = stats.chisquare(m,e ) * $R = 0.004755$ * $X^2 = 30.71$ * $p_{rs} = 0.9811$ این است برای من روشن نیست که چگونه می توان مقدار p-قدرت سمت راست (یک دم) را اینقدر بزرگ تفسیر کرد. اگر تمام 115 بخش را به جای 50 قسمت اول در محاسبه لحاظ کنم، * $R = 0.004757$ * $X^2 = 66.59$ * $p_{rs} = 0.9999$ که فقط سردرگمی من را بدتر می کند. من نمی توانم ببینم چگونه ممکن است که من توافق خوبی بین تعداد تخمینی رویدادها و مقادیر اندازه گیری شده داشته باشم. کدام ایده ساده (یا نه چندان ساده) را از دست داده ام که این را منطقی کند؟ | تفسیر آزمون کای دو پیرسون نرخ رویداد پواسون ثابت در آزمایشهای شمارش مستقل |
112491 | من با مفهوم کامل قضیه بیز و کاربردهای آن در بازاریابی آشنا هستم. من سعی کرده ام این را به تنهایی یاد بگیرم، اما مطمئن نیستم که آیا اشتباهات احمقانه ای انجام می دهم یا اینکه فرمول را به درستی اعمال می کنم - امیدوارم بتوانید به من بگویید! من می خواهم این احتمال را بدست بیاورم که یک گروه سنی خاص (مثلاً 18 تا 25 سال) گروهی است که با توجه به معامله تبدیل شده است. این دادههایی است که استفاده کردم (اعداد کمی تغییر کرده): گروه 1: سن 18-24 سال، 92 تراکنش، 0.65٪ نرخ تبدیل گروه 2: 25-34، 458، 0.87٪ گروه 3: 35-44، 480، گروه 1.10٪ 4: 45-54، 499، 1.36٪ گروه 5: 55-64، 582، 1.38٪ گروه 6: 65+. 382, 1.43% آیا موارد زیر صحیح است؟ * من سوال را اینگونه مطرح کردم: با توجه به یک معامله، احتمال اینکه از گروه X آمده باشد چقدر است؟ * نسبت تراکنش را گرفتم و آن را در نرخ تبدیل ضرب کردم و سپس کل چیز را بر مجموع همه شرط ها تقسیم کردم * با این داده ها (به نزدیکترین درصد گرد شد) 2٪، 13٪، 18٪، 23 به دست آمد. درصد، 27 درصد و 18 درصد. بنابراین برای گروه 1، احتمال اینکه یک تراکنش از 18-24 آمده باشد فقط 2٪ است، آیا این استفاده صحیح است؟ این به نظر درست است، اما احساس درست بودن و استفاده درست از آن دو چیز متفاوت است! | قضیه بیز - آیا این مثال بازاریابی درست است؟ |
110244 | فرض کنید زمان بین ورود متوالی مشتریان به یک ایستگاه تک سرور، متغیرهای تصادفی مستقل با توزیع مشترک $F$ هستند. فرض کنید وقتی مشتری وارد می شود، اگر سرور رایگان است، بلافاصله وارد سرویس می شود یا اگر سرور با مشتری دیگری مشغول است، به انتهای صف می پیوندد. هنگامی که سرور کار را روی مشتری کامل می کند، مشتری سیستم را ترک می کند و مشتری منتظر بعدی، در صورت وجود، وارد سرویس می شود. اجازه دهید $X_{n}$ تعداد مشتریان در سیستم را بلافاصله قبل از ورود $n^{th}$ و $Y_{n}$ نشان دهنده تعداد مشتریانی باشد که در سیستم باقی میمانند هنگامی که $n^{th }$ مشتری می رود. زمانهای خدمات متوالی مشتریان، متغیرهای تصادفی مستقل هستند (که از زمانهای بین ورود نیز مستقل هستند) دارای توزیع مشترک G. 1. اگر $F$ توزیع نمایی با نرخ $\lambda$ باشد، که در صورت وجود، فرآیندهای $\\{X_{n}\\}، \\{Y_{n}\\}$ یک زنجیره مارکوف است؟ 2. اگر $G$ توزیع نمایی با نرخ $\lambda$ باشد، که در صورت وجود، از فرآیندهای $\\{X_{n}\\}، \\{Y_{n}\\}$ یک زنجیره مارکوف؟ 3. احتمالات انتقال هر زنجیره مارکوف را در قسمت های (الف) و (ب) ارائه دهید. من راه حل هایی برای مشکل دارم اما چندین بار آنها را خوانده ام و هنوز کار را متوجه نشده ام. هر گونه کمکی بسیار قدردانی خواهد شد. به سلامتی | مشکل صف زنجیره مارکوف |
2770 | من یک دانشجوی رشته آمار در مقطع کارشناسی هستم که به دنبال درمان خوبی برای تجزیه و تحلیل آزمایشات بالینی هستم. متن باید مبانی طراحی آزمایشی، مسدود کردن، تجزیه و تحلیل توان، طراحی مربعهای لاتین و طرحهای تصادفیسازی خوشهای و سایر موضوعات را پوشش دهد. من دانشی در مورد آمار ریاضی و تجزیه و تحلیل واقعی دارم، اما اگر متن فوقالعادهای وجود داشته باشد که نیاز به سطح بالاتری از آمار یا تجزیه و تحلیل داشته باشد، میتوانم آن را انجام دهم. | متن خوبی در مورد کارآزمایی های بالینی؟ |
25376 | من یک پایگاه داده دارم که امضاهایی را نشان می دهد که به یک دادخواست اضافه شده است، که هر امضا به یک مکان (شهر، ایالت)، یک تاریخ و یک توالی در تاریخ مرتبط است (مثلاً امضای هفتم در 26/3 از روچستر، نیویورک آمده است) . من می خواهم الگوهای جغرافیایی را در داده ها تشخیص دهم - به عنوان مثال. هنگامی که یک امضا از روچستر منجر به امضای بیشتر از روچستر می شود، و همچنین زمانی که امضایی از روچستر منجر به امضای سانفرانسیسکو یا فیربنکس می شود). برای سادهتر کردن فعلاً، میتوانم فقط به یک امضا در روز نگاه کنم، توالی w/i روز را نادیده بگیرم و یک ماتریس بسازم - یک ردیف برای هر مکان، یک ستون برای هر مکان. مقدار هر سلول، فرکانس مشاهده شده یک یا چند امضا از محل ستون در یک روز است، زمانی که حداقل یک امضا از محل ردیف در روز قبل وجود داشت. واضح است که اگر پیوند جغرافیایی وجود نداشته باشد، مقادیر هر سلول در یک ستون معین یکسان خواهد بود. واضح است، همچنین، تغییرات شانسی منجر به تغییرات جزئی در مقادیر سلول در پایین ستون می شود، حتی اگر هیچ پیوند جغرافیایی وجود نداشته باشد. از چه آماری باید برای تعیین اینکه آیا به طور کلی وابستگی جغرافیایی وجود دارد یا خیر استفاده کنم - اینکه بدانیم کدام مکانها دیروز امضا ارائه کردهاند تا پیشبینی کنیم کدام مکانها امروز امضا ارائه میکنند؟ (یعنی فرضیه صفر من این است که دانستن اینکه کدام مکانها دیروز امضا تولید کردهاند، به پیشبینی اینکه کدام مکانها امروز امضا تولید میکنند، کمکی نمیکند.) از چه آماری برای تشخیص وابستگیهای خاص استفاده کنم؟ به طور خاص، من حدس میزنم که برخی مکانها بهطور تصادفی امضا ارائه میکنند، در حالی که مکانهای دیگر یا توسط فعالیت در آن مکان هدایت میشوند (مثلاً گروهی از فعالان در Fairbanks، AK هر روز برای جمعآوری امضاها کار میکنند)، یا حتی بین مکانها ( فعالان سانفرانسیسکو روز دوشنبه برای تعداد زیادی امضای SF فشار می آورند، سپس با همکاران خود در لس آنجلس در روز سه شنبه تماس می گیرند و غیره). در این مورد، من یک فرضیه صفر برای هر مکان X دارم: دانستن اینکه کدام مکانها (از جمله X) دیروز امضا تولید کردهاند، به پیشبینی اینکه آیا بهطور خاص X امروز امضا تولید میکند یا خیر کمکی نمیکند. از دورهی آماری که مدتها پیش بود، به خی دو فکر میکنم، اما برای نکات دقیقتر سپاسگزار خواهم بود. | چگونه از مجذور کای (یا بیزی) برای تشخیص تغییرات غیر شانسی در ماتریس فرکانس ها استفاده کنیم؟ |
96302 | برای کسانی که با تگزاس هولدم آشنا نیستند، یک مستقیم فقط 5 کارت در یک دنباله شماره گذاری شده است - به عنوان مثال، «{2،3،4،5،6}». ما آن کارت ها را با انتخاب بهترین 5 کارت از 7 کارت دریافت می کنیم که دو کارت در دست شروع شما هستند و 5 کارت در جدول که پشت سر هم کشیده شده اند. هدف من این است که با توجه به یک دست شروع خاص (پیش فلاپ) احتمال دریافت مستقیم را محاسبه کنم. به عنوان مثال، فرض کنید دست شروع «{2،3}» را میگیریم. چگونه میتوانیم احتمال دریافت «{2،3،4،5،6}» را با استفاده از کارتهای انجمن محاسبه کنیم؟ میدانیم که به کارتهای «{4،5،6}» نیاز داریم تا حداقل یک بار در کارتهای انجمن ظاهر شوند. به منظور (امیدوارم) ساده کردن محاسبات، تصمیم گرفتم هر کارت را مستقل در نظر بگیرم - بیایید وانمود کنیم که با یک پشته به هم ریخته از تعداد بی نهایت عرشه استاندارد 52 کارتی بازی می کنیم. میتوانیم دقیقاً همان کارت را دو بار دریافت کنیم، از جمله کارتهایی که از قبل در دست داریم. در چنین بازی با داشتن 5 قرعه کشی تصادفی و تنها با در نظر گرفتن شماره کارت، مجموعاً '13^5' نتیجه ممکن داریم. سوال من دوگانه است: * چگونه می توان تعداد دفعاتی که کارت های خاص (`{4,5,6}`) در نتایج احتمالی `13^5` ظاهر می شوند را به طور مؤثر محاسبه کرد. من نمی دانم که آیا - از آنجایی که قرعه کشی ها مستقل هستند - احتمال به دست آوردن {4،5،6} به سادگی (1-(12/13)^5)^3 است؟ من در تقلا هستم تا چیز قابل قبول تری پیدا کنم. * آیا تعداد بی نهایت عرشه یک تقریب معقول است و آیا راهی برای محاسبه احتمال بدون آن وجود دارد؟ \--EDIT-- آیا میتوان این را بهطور تصادفی با استفاده از توزیع «دوجملهای(5،1/13)» محاسبه کرد، که در آن مقدار «CDF معکوس» 1 است (یعنی مجموع PDF از 1 تا بی نهایت == 1)؟ به نظر می رسد یک شبیه سازی با عدد 0.021 ارائه می شود | احتمال به دست آوردن مستقیم در پوکر (تگزاس هولدم) |
56325 | من را برای یک فریب احتمالی ببخشید، زیرا من اصطلاح درستی را برای جستجوی یک سوال موجود نمی دانم. همچنین لطفاً برچسب Trends یا مشابه را اضافه کنید، زیرا من شهرت ایجاد برچسب های جدید را ندارم. من داده های بازار مانند این را دارم: X Y S 10 20 0 20 30 1 20 25 0 15 10 0 ... که در آن X و Y متغیرهای خاصی هستند که برای محاسبه یک قیمت به مشتری استفاده می شوند و S این است که آیا مشتری پیشنهاد را قبول کرده است (0) = نه، 1 = بله). اکنون میخواهم نوعی روند دو بعدی را برای X، Y و S محاسبه کنم و یک تابع f(X, Y) = s تولید کنم که در آن s احتمال (0..1) پذیرش مشتری است. پیشنهاد برای X و Y داده شده. ما می توانیم فرض کنیم که روند یک هواپیما است، نه یک سطح سه بعدی بد بو. بنابراین: 1. چگونه می توانم f و 2 را تعیین کنم. اگر این چیزی است که به راحتی در اکسل انجام نمی شود، هنگام جستجوی یک کتابخانه زبان برنامه نویسی برای این منظور باید به دنبال چه اصطلاحی بود؟ | محاسبه روند برای داده های سه بعدی |
96513 | یک سوال بسیار اساسی: آیا هنگام اشاره به اهمیت آماری برازش برخی از مدلها، آیا گزارش میشود که نتایج در سطح اطمینان 95 درصد معنیدار هستند یا در سطح معناداری 0.05؟ | بیان صحیح سطح اطمینان |
2772 | در دو مقاله در سالهای 1986 و 1988، کانر و کورایچیک رویکردی را برای مدلسازی بازده دارایی پیشنهاد کردند. از آنجایی که این سریهای زمانی معمولا داراییهای بیشتری نسبت به مشاهدات دوره زمانی دارند، آنها پیشنهاد کردند که یک PCA بر روی کوواریانسهای مقطعی بازده دارایی انجام شود. آنها این روش را تحلیل مؤلفه اصلی مجانبی می نامند (APCA، که نسبتاً گیج کننده است، زیرا مخاطب بلافاصله به ویژگی های مجانبی PCA فکر می کند). من معادلات را کار کرده ام و این دو رویکرد از نظر عددی معادل به نظر می رسند. البته مجانبی متفاوت است، زیرا همگرایی برای $N \rightarrow \infty$ به جای $T \rightarrow \infty$ ثابت شده است. سوال من این است: آیا کسی از APCA و مقایسه با PCA استفاده کرده است؟ آیا تفاوت های مشخصی وجود دارد؟ اگر چنین است، کدام یک؟ | تفاوت بین PCA و PCA مجانبی چیست؟ |
105175 | من یک ANOVA اندازه گیری های مکرر انجام داده ام که دو متغیر مستقل، سه متغیر کمکی دارم که اثرات آن را به صورت جداگانه برای پایان نامه خود محاسبه می کنم. من اساساً دو کار را با یک نمونه انجام دادم که بخش درون موضوعی است. عامل از نظر آماری معنی دار است. تفاوت میانگین برای تکلیف یک و تکلیف دو وجود دارد. متغیرهای مستقل می توانند آن را پیش بینی کنند. با این حال، وقتی یک متغیر کمکی، سطح درآمد قرار میدهم، این عامل معنیدار نمیشود. اما اثر متقابل بین عامل و متغیر کمکی نیز معنی دار نیست. واقعیت این است که نمونه من معمولاً نمرات بالاتری برای آن متغیر کمکی دارد. یعنی 80 درصد آنها درآمد بالایی دارند، فقط 20 درصد درآمد پایینی دارند. آیا می تواند ناشی از این باشد؟ اگه نه یعنی چی؟ پاسخ شما بسیار قدردانی خواهد شد. | متغیرهای کمکی در اندازه گیری های مکرر ANOVA |
82354 | چگونه می توانیم بفهمیم که آیا ضرایب و R-Squared در جدول زیر قابل اعتماد هستند و به درستی محاسبه شده اند یا خیر؟ آیا با توجه به اینکه ما به مجموعه داده دسترسی نداریم راهی برای تایید صحت نتایج وجود دارد؟  تحلیل توصیفی متغیرهای اصلی به شرح زیر است، اما در رگرسیون متغیرها را تبدیل کردند!  | آیا نتایج رگرسیون خطی OLS صحیح است؟ |
82351 | این یک مطالعه گذشته نگر شامل 47 اسب با یک بیماری خاص است. من هیچ اطلاعاتی در مورد گروه کنترل ندارم، فقط می دانم که در این مدت زمان کلینیک 382 اسب داشت که 47 نفر از آنها با بیماری فعلی تشخیص داده شدند. از من خواسته شد تا به ارتباط بین سه متغیر و بیماری ها (نژاد، زمان سال - ژانویه، فوریه، و غیره و یک رفتار کلیشه ای دهانی که به عنوان خرچنگ در اسب شناخته می شود) نگاه کنم. اما چگونه می توانم ببینم که آیا متغیرها با بیماری همبستگی دارند در حالی که هیچ گروه کنترلی ندارم؟ | همبستگی بین متغیرها و نتیجه |
104595 | من در حال مطالعه شبیه سازی تحلیل توان رگرسیون لجستیک - آزمایش های طراحی شده، http://sas-and-r.blogspot.com/2009/06/example-72-simulate-data- from-logistic.html، و تجزیه و تحلیل توان هستم. برای رگرسیون لجستیک ترتیبی و من هنوز در مورد نحوه انجام تجزیه و تحلیل توان برای داده هایم کمی گم شده ام. من می خواهم بتوانم تعیین کنم که اگر تعاملی بین یک متغیر طبقه ای (با 3 سطح) و یک متغیر پیوسته داشته باشم، چه N باید داشته باشم. شبیهسازی تحلیل قدرت رگرسیون لجستیک - آزمایشهای طراحیشده برخی اطلاعات را ارائه میدهد، اما نمیتوانم نحوه شبیهسازی رابطه بین متغیرهای طبقهای و پیوسته و نتیجه را بیابم. > set.seed(1) > > > تکرار = 1000 > N = 10000 > n = N/8 > var1 = c( .03، 0.03، 0.03، 0.03، 0.06، 0.06، 0.09، . 09) > var2 = c( 0، 0، 0، 1، 0، 1، 0، 1) > نرخ ها = c(0.0025، 0.0025، 0.0025، 0.00395، 0.003، 0.0042، 0.0035، 0.002) > > > var1 = rep(var1، times=n) > var2 = rep(var2، بار = 2 = var) > var1 var1x2 = var1 *var2 > var12x2 = var12*var2 > > > معنیدار = ماتریس(nrow=تکرارها، ncol=7) > > > startT = proc.time()[3] > for(i در 1: تکرارها){ > پاسخها = rbinom(n= N، size=1، prob=rates) > model = glm(responses~var1+var2+var12+var1x2+var12x2، > family=binomial(link=logit)) > قابل توجه[i,1:5] = (خلاصه(مدل)$ضرایب[2:6,4]<.05)<br> > > قابل توجه[i,6 ] = جمع (قابل توجه[i,1:5])<br> > modelDev = > model$null.deviance-model$deviance > قابل توجه[i,7] = (1-pchisq(modelDev, 5))<.05 > } > endT = proc.time()[3] > endT-startT > > > sum(significant[,1])/repetitions # قدرت اثر از پیش تعیین شده برای var1 > [1] 0.042 > sum(significant[,2])/تکرار # قدرت اثر از پیش تعیین شده برای var2 > [1] 0.017 > sum(significant[,3])/repetitions # قدرت جلوه از پیش تعیین شده برای var12 > [1] 0.035 > sum(significant[,4])/repetitions # قدرت اثر از پیش تعیین شده برای var1X2 > [1] 0.019 > مجموع (قابل توجه[,5])/تکرار # قدرت اثر از پیش تعیین شده برای var12X2 > [1] 0.022 > مجموع (معنادار[,7])/تکرار # توان برای آزمون نسبت درستنمایی مدل > [1] 0.168 > مجموع (معنادار[,6]==5)/تکرار # توان همه اثرات > [1] 0.001 > مجموع (قابل توجه[,6]> 0)/تکرار # هر اثر قدرت > [1] 0.065 > sum(significant[,4]&significant[,5])/repetitions # power for interaction > Terms > [1] 0.017 > احساس می کنم باید بتوانم کد حاصل از تحلیل توان را برای رگرسیون لجستیک ترتیبی تطبیق دهم و این امر می تواند گزینه بهتر و مختصرتری باشد > library(rms) > > tmpfun <\- function(n, beta0, beta1, beta2) { > x <\- runif(n، 0، 10) > eta1 <\- beta0 + beta1*x > eta2 <\- eta1 + beta2 > p1 <\- exp(eta1)/(1+exp(eta1)) > p2 <\- exp(eta2)/(1+exp(eta2)) > tmp <\- runif(n) > y <\- (tmp < p1) + (tmp < p2) > fit <\- lrm(y~x) > fit$stats[5] > } > > > out <\- replicate(1000, tmpfun(100, -1/2, 1/4, 1/4 )) > mean( out < 0.05 ) > اما من کاملاً مطمئن نیستم که چگونه این کار را انجام دهم. من فرض میکنم tmpfun(100،-1/2، 1/4،1/4) N و بتای مورد نظر شما را مشخص میکند، اما چگونه tmpfun را به متغیر دیگر (مقولهای) تنظیم کنم و یک عبارت تعاملی را لحاظ کنم؟ در نهایت معادله باید شامل 6 بتا باشد: قطع، بتا برای x، بتا برای z1، بتا برای z2، جمله تعامل بین x و z1، و جمله تعامل بین x و z2. در نهایت، من نمی توانم هیچ منبع قابل اعتمادی در مورد اینکه از چه نوع اندازه های اثر کوچک یا متوسط استفاده کنم، پیدا نمی کنم. اگر می توانم اطلاعات بیشتری ارائه کنم به من اطلاع دهید! | تحلیل توان رگرسیون لجستیک با تعدیل بین متغیر طبقه ای و پیوسته |
16416 | با استفاده از بسته sde در R، می خواهم مدل زیر را برای قیمت سهام $p_t$ شبیه سازی کنم: $\mathrm{d}\sigma^2_t = (\theta_1 - \theta_2\sigma^2_t)\mathrm{d}t + \theta_3\sigma_t\mathrm{d}W_{\sigma,t}$ (مدل CIR مورد استفاده برای تصادفی نوسانات) $\mathrm{d}\log{p_t} = \sigma_t\mathrm{d}W_{p,t}$ که در آن همبستگی بین $W_{p,t}$ و $W_{\sigma,t}$ است احتمالا غیر صفر س: آیا این امکان وجود دارد؟ آیا حتی می توان SDE های چند متغیره را در بسته sde به روشی که در S+FinMetrics می توان با استفاده از توابع gensim شبیه سازی کرد؟ آیا بسته دیگری در R وجود دارد که بتواند این کار را انجام دهد؟ من می توانم فرآیند واریانس را به سادگی با کد زیر شبیه سازی کنم: library(sde) sig2 <- sde.sim(X0=0.04, theta=c(0.3141, 8.0369, 0.43)، model=CIR) می توانم سپس سری قیمت را شبیه سازی کنید (شروع با قیمت اولیه = 100) با استفاده از: logr <- rnorm(n=length(sig2),sd=sqrt(sig2)) logp <- cumsum(c(log(100),logr)) p <- exp(logp) اما این رویکرد بهطور غیرضروری بهنظر میرسد بیهدف است و نمیتواند غیرقابل برداشت باشد. همبستگی صفر بین حرکات براونی. | استفاده از بسته sde در R برای شبیه سازی یک مدل SV با اهرم |
105170 | در حال حاضر من از روش حراج باز برای انتخاب یک حملکننده استفاده میکنم و میخواهم به حملکننده ترجیحی سوئیچ کنم، جایی که بر اساس لیست حملکننده ترجیحی خود، یک ناقل را انتخاب کنم. این پروژه شامل شناسایی ناقل ترجیحی بر اساس تحلیل تاریخی است. تنها داده/پارامترهایی که من دارم این است: 1) هزینه: چند بار کار را به این انتقال دهنده اختصاص داده ام؟ من همیشه کار را بر اساس نازلترین قیمت به روش حراج آزاد به حمل و نقل اختصاص داده ام. 2) کیفیت و قابلیت اطمینان: تفاوت در هزینه بازداشت توسط حمل و نقل و محاسبه هزینه بازداشت واقعی. 3) زمان سرب: کدام حمل کننده به من کمک می کند تا مواد را در کمترین زمان حمل کنم. با استفاده از 3 پارامتر تصمیم گرفتم یک درخت C5.0 در SPSS Modeler ایجاد کنم اما نتایج رضایت بخش نیست. با توجه به همه، یک تکنیک داده کاوی خوب برای حل این مشکل و هر ادبیاتی که برای مدل سازی این مشکل پیشنهاد می کنید، چیست؟ | تکنیک داده کاوی برای مشکل فروشنده ترجیحی؟ |
105172 | همانطور که میدانم یک متغیر تصادفی تمام نتایج ممکن یک آزمایش را با احتمالات مرتبط آنها نشان میدهد. چرا $X^2$ بهعنوان مربع کردن نتایج آزمایشها به جای ضرب کردن نتایج دو آزمایش یکسان درک میشود؟ بیایید X یک پرتاب مرگ باشد. من نمونه هایی را دیده ام که در آن ارزش مورد انتظار $X^2$ به صورت زیر محاسبه می شود: $$1^2\dfrac{1}{6} + 2^2\dfrac{1}{6} + 3^2\dfrac{ 1}{6} + 4^2\dfrac{1}{6} + 5^2\dfrac{1}{6} + 6^2\dfrac{1}{6} = 15.16 $$ بنابراین ما اینجا هستیم فقط مربع نتیجه یک آزمایش منفرد. اما در ریاضی مربع را می توان با ضرب جایگزین کرد. مانند: $X\ برابر X$. و برای ضرب دو متغیر تصادفی احتمالاً نیاز به ایجاد توزیع محصول داریم. همانطور که فهمیدم باید چیزی شبیه انداختن 2 تاس، ضرب کردن نتایج و سپس محاسبه میانگین این مقادیر باشد. بنابراین از آنجایی که هر دو X مستقل هستند، در این مورد مقدار مورد انتظار را می توان به صورت $E[XY]=E[X]E[Y]$ یافت. یعنی 3.5 * 3.5 = 12.25 دلار | متغیر تصادفی مربع شده $X^2$ در مقابل $X\ برابر X$ |
16410 | من در حال یادگیری رگرسیون لجستیک از عناصر یادگیری آماری: داده کاوی، استنتاج و پیش بینی هستم، توسط ترور هستی، رابرت تیبشیرانی، جروم اچ فریدمن. فرض کنید $G$ یک متغیر تصادفی است که نشاندهنده برچسب کلاس پاسخگیری در $\\{1,\ldots,K \\}$ است و $X$ یک بردار تصادفی است که نشاندهنده پیشبینیکننده است که مقادیر را در $\mathbb{R}^n نشان میدهد. $. پس از مدل سازی $P(G = k|X = x; \theta)، k=1،\ldots،K، x \in \mathbb{R}^n$ توسط مدل لجستیک در بخش 4.4 رگرسیون لجستیک، پارامتر $\ تتا$ از نمونههای $\\{(x_i,k_i), i=1,\ldots,N \\}$ در بخش 4.4.1 برازش رگرسیون لجستیک برآورد شده است. مدلها: > مدلهای رگرسیون لجستیک معمولاً بر اساس احتمال حداکثر، با استفاده از احتمال شرطی $G$ با توجه به $X$ مطابقت دارند. از آنجایی که $P(G|X)$ به طور کامل توزیع شرطی را مشخص می کند، توزیع چند جمله ای مناسب است. > احتمال گزارش برای مشاهدات $N$ $$ℓ(θ) = \sum_{i=1}^N \log P(G = > k_i|X = x_i; \theta) $$ **سوال من** این است که چگونه روش برآورد حداکثر احتمال است. به طور کلی، MLE برای تخمین پارامتر $\theta$ یک توزیع **تک**$p(z;\theta)$ از **i.i.d آن است. نمونهها** $\\{z_i, i=1,\ldots,N \\}$ با حداکثر کردن $\log p(x_1,\ldots, x_N; \theta) = \sum_{i=1}^N \log p(x_i; \theta) $، گزارش توزیع مشترک نمونه ها. به نظر می رسد تخمین رگرسیون لجستیک مانند نقل قول از MLE استفاده نمی کند، زیرا: 1. $P(G = k|X = x_i; \theta)، i=1،\ldots، N $ $N$ توزیع های مختلف هستند، در عوض فقط یک توزیع برای MLE. 2. در $ℓ(θ) = \sum_{i=1}^N \log P(G = k|X = x_i؛ \theta) = \log \prod_{i=1}^N P(G = k| X = x_i; \theta)$، تعجب می کنم که چگونه توضیح دهم که ${ (k_i|x_i), i=1,\ldots,N }$ مستقل هستند و بنابراین $\prod_{i=1}^N P(G = k_i|X = x_i؛ \theta)$ توزیع مشترک آنها است، زیرا من نمی دانم چگونه $(k_i|x_i)$ را بفهمم که به نظر منطقی نیست. ** پاسخ حدس من ** این است که $\\{(x_i,k_i), i=1,\ldots,N \\}$ به عنوان i.i.d در نظر گرفته می شود. نمونه هایی از توزیع واحد برای $(X,G)$. بنابراین MLE برای توزیع $(X,G)$ این است که $$ \log P((x_1,k_1),\ldots,(x_N,k_N)) = \log \prod_{i=1}^N P( x_i,k_i) $$ $$ = \log \prod_{i=1}^N P(k_i | x_i) P(x_i) = \log \prod_{i=1}^N P(k_i | x_i) + \log \prod_{i=1}^N P(x_i) $$ $P(k_i | x_i)$ با $\theta$ به عنوان $P( k_i |. توزیع $(X,G)$ معادل به حداکثر رساندن $\log \prod_{i=1}^N P(k_i | x_i; \theta)$ است. با تشکر و احترام! | چه چیزی فرمول برازش مدلهای رگرسیون لجستیک را در Hastie و همکاران «حداکثر احتمال» میسازد؟ |
93831 | من دو مجموعه داده برای مردان و زنان دارم که گردش مالی محبوب ترین نقاط یک مشخصه جمعیت را برای هر سال از سال 1912 اندازه گیری می کند. فقط داده های رتبه بندی گردآوری شده است. به طور شهودی، به نظر میرسد که گردش مالی برای زنان سریعتر میشود، اما من میخواهم بدانم چگونه این موضوع را برای اهمیت آماری آزمایش کنم. من قبلا از داده های طولی در این راه استفاده نکرده ام، بنابراین از هر کمکی قدردانی می کنم! پیشاپیش خیلی ممنون | مقایسه دو جمعیت در طول زمان (مطالعه جمعیت طولی) |
61912 | من میخواهم نتایج نظرسنجی (با استفاده از رگرسیون OLS) روی بازده سهام را به عقب برگردانم. چگونه تصمیم بگیرم که از تفاوت اول یا درصد تغییر نتایج نظرسنجی استفاده کنم؟ | درصد تغییر در مقابل تفاوت اول |
9499 | من به تازگی بازی با بسته پیش بینی R را شروع کرده ام و متوجه شدم که باید کار اشتباهی انجام دهم زیرا نمی توانم پیش بینی مناسبی برای یک سینوس ساده داشته باشم. weightData <- data.frame(weight = sin(seq(1:100))، week=1:100) weight <- as.numeric(weightData$weight) پیش بینی شده <- پیش بینی (weight,h=3,level=95) ) # مقادیر پیشبینیشده را براساس پیشبینی myplot پیشبینی شده ببینید <- forecast(weight,h=10,level=95) plot(myplot) و من یک پیش بینی ساده دریافت می کنم. من می دانم که روش های پیش بینی عمومی بهترین روش را برای داده های من انتخاب می کند. این درست نیست؟ آیا من چیزی را از دست داده ام؟ پیشاپیش متشکرم | بسته پیش بینی R که پیش بینی های مسطح را تولید می کند |
96301 |  کسی می تواند در اینجا به من کمک کند؟ استفاده از Box-Muller N(0,1) را ایجاد می کند، اما X ~ N (-1, 4). چگونه متغیرها را به توزیع X تبدیل کنم؟ و آیا شبه کد شامل استفاده از الگوریتم رد نیز می شود؟ از کمک شما قدردانی می کنیم! | الگوریتم باکس مولر و ادغام مونت کارلو |
105171 | من یه سوال دارم من با داده های پزشکی سروکار دارم که حاوی 5 پیش بینی کننده و 1 نتیجه باینری است. وقتی سعی میکنم دادهها را با استفاده از هر 5 پیشبینیکننده طبقهبندی کنم، 0.84 ناحیه زیر منحنی سنگ را دریافت میکنم که برای من بسیار خوب است. با این حال، وقتی فواصل اطمینان را برای این 5 پارامتر در نظر میگیرم، میبینم که فقط 1 مورد از آنها با 0 تفاوت معنیداری دارد، فاصله اطمینان آن شامل مقدار 1 نمیشود. برای همه پیشبینیکنندههای دیگر، فاصله اطمینان شامل مقدار 1 است (مثلاً از 0.78 تا 1.2). وقتی سعی میکنم مجموعه داده را فقط بر اساس این 1 پیشبینیکننده طبقهبندی کنم (یکی که فاصله اطمینان خوبی دارد)، هنوز فاصله اطمینان خوبی برای آن دارم، اما ناحیه زیر منحنی سنگ 0.74 است و ترکیبهای ویژگی و حساسیت واقعا بدتر از آن هستند. مثال اول سوال این است: وقتی همه پیش بینی کننده ها به طور قابل توجهی با 0 تفاوت ندارند، چگونه باید با شرایط رفتار کنم؟ آیا می توانم چنین قاعده تصمیم گیری را خوب در نظر بگیرم و در تحلیل بیشتر از آن استفاده کنم؟ خیلی ممنون | فواصل اطمینان برای پیش بینی کننده ها در رگرسیون لجستیک چند متغیره |
61914 | موارد زیر را در نظر بگیرید (در R): طرح کتابخانه (MASS) (stack.loss~Air.Flow,data=stackloss) رگرسیون <- rlm(stack.loss~Air.Flow,data=stackloss) abline(رگرسیون) برای هر یک از نکاتی را که می خواهم در برابر فرضیه صفر آزمایش کنم که واقعاً روی خط قرار دارد (به جای جایی که واقعاً است) - در اصل کمی کردن میزان پرت بودن اینها با توجه به مدل رگرسیون. احتمالاً با استفاده از ترکیبهای جستجوی ناامیدکننده، نتوانستم روششناسی مناسب را شناسایی کنم. آیا استفاده از آزمون t تک نمونه ای (ar equivalent) برای هر باقیمانده در برابر جمعیت باقیمانده برای ایجاد چنین اندازه گیری معتبر است؟ ویرایش: به نظر می رسد مطالعه بیشتر نشان می دهد که فاصله تحمل همان چیزی است که ممکن است به دنبال آن باشم - بسته تحمل R محاسباتی را در این زمینه ارائه می دهد. با این حال، من از ماهیت متناقض آشکار چنین فواصل برای رگرسیون که توسط انتشارات مختلف تعریف شده است، متحیر هستم. در مورد بسته R به نظر می رسد باندهای تحمل خط رگرسیون را به طور موازی دنبال می کنند (شکل 12 و مثال زیر را ببینید)، در حالی که منابع جایگزین مانند این با باندهایی که یادآور فواصل اطمینان از نظر شکل هستند عمل می کنند (شکل 4 را ببینید). مورد دوم شهودی تر به نظر می رسد، اما نظرات دیگران قابل قدردانی است. برای هر نقطه از یک نمونه، من در واقع به دنبال کدام باند تحمل x/95% از این نقطه عبور می کند ... در اینجا نحوه استفاده از تحمل ممکن است به نظر برسد (افزودن به کد بالا) برای 95٪/95٪ مرزهای تحمل رگرسیون ناپارامتری دو طرفه: کتابخانه (تحمل) tol.bounds <- خطوط npregtol.int(x=stackloss$Air.Flow، y=stackloss$stack.loss، y.hat=regression$fit، side=2، alpha=0.05، P=0.95، روش = WILKS) خطوط (tol. bounds$x,y=tol.bounds$2-sided.lower,col=red) خطوط (tol.bounds$x,y=tol.bounds$2-sided.upper,col=red) | رگرسیون و مقادیر p ویژه نقطه (با استفاده از R برای توضیح) |
9490 | _**تجزیه مقدار تکین (SVD)**_ یک ماتریس $$A_{m\times n} = U_{m\times m}\Lambda_{m\times n} V_{n\times n} است $$ که $U$ و $V$ ماتریس های متعامد هستند و $\Lambda$ دارای ورودی ( _i_، _i_) است. $\lambda_i \geq 0$ برای $i = 1، 2، \cdots، min(m، n)$ و ورودی های دیگر صفر هستند. سپس بردارهای مفرد سمت چپ $U$ برای ردیفهای ماتریس و بردارهای مفرد سمت راست $V$ برای ستونهای ماتریس را میتوان در همان نمودار به نام _**bi- plot**_ رسم کرد. من در تعجبم که چگونه می توان _**SVD**_ یک آرایه سه بعدی را انجام داد و بردارهای منفرد را روی همان نمودار مانند _**bi-plot**_ رسم کرد. با تشکر | تجزیه مقدار منفرد یک آرایه سه بعدی |
89146 | من یک تفاوت گروهی (3 گروه) برای متغیر وابسته خود پیدا کرده ام و اکنون قرار است بفهمم که آیا متغیرهای کمکی ممکن بر این یافته تأثیر می گذارند یا خیر. بهترین راه برای اصلاح برای 5 متغیر مختلف (سن، مدت بیماری، دارو، نمره علائم، جنسیت) چیست؟ آیا باید 5 ANCOVA جداگانه (1 برای هر متغیر کمکی) اجرا کنم و ببینم آیا تفاوت گروه همچنان قابل توجه است یا بهتر است یک ANCOVA منفرد شامل همه متغیرهای کمکی اجرا کنم؟ | متغیرهای چندگانه در یک طرح ANCOVA |
9491 | با مقاله هروه عبدی در مورد SVD تعمیم یافته برخورد کردم. نویسنده اشاره کرد: > SVD تعمیم یافته (GSVD) یک ماتریس مستطیلی را تجزیه می کند و محدودیت های اعمال شده بر سطرها و ستون های ماتریس را در نظر می گیرد. > GSVD یک برآورد حداقل مربعات تعمیم یافته وزنی از یک ماتریس داده شده را با ماتریس رتبه پایین تر ارائه می دهد و بنابراین، با انتخاب کافی از محدودیت ها، GSVD تمام تکنیک های چند متغیره خطی را پیاده سازی می کند (به عنوان مثال، > همبستگی متعارف، تجزیه و تحلیل متمایز خطی، مکاتبات > تجزیه و تحلیل، PLS-رگرسیون). من تعجب می کنم که چگونه GSVD با تمام تکنیک های چند متغیره خطی (به عنوان مثال، همبستگی متعارف، تجزیه و تحلیل متمایز خطی، تجزیه و تحلیل مطابقت، PLS-رگرسیون) مرتبط است. | آیا GSVD تمام تکنیک های چند متغیره خطی را پیاده سازی می کند؟ |
61915 | من با داده های شمارش از یک آزمایش روانشناختی کار می کنم. داده ها از چندین خرده آزمون، یعنی نمرات در این آزمون ها هستند. نحوه ایجاد این نمرات به وضوح گاوسی نیست (نه تنها به این دلیل که گسسته هستند، بلکه از آنجایی که امتیازها اساساً مجموع کارهایی هستند که به درستی حل شده اند). به عنوان پایه، من با مدلهایی که از توزیع پواسون استفاده میکردند کار کردم. برای مثال مدل شمارش پواسون راش (1960) (که نوعی GLM است)، که من پراکندگی از دادهها را نیز تخمین زدم (1.01، CI راهاندازی برای پارامتر پراکندگی شامل 1 است). برای رفتن یک قدم جلوتر، میخواهم مدلهای تحلیل عاملی را برازش کنم. من از کار Wedel و همکاران (2003، مجله تحلیل چند متغیره)، که با وضعیت با و بدون پراکندگی بیش از حد سروکار دارند، آگاه هستم. همچنین MPlus قادر به رسیدگی به وضعیت بیش از حد پراکنده است. با این حال داده های من فقط پراکندگی کمی را نشان می دهد (در واقع نمرات خام در برخی از خرده آزمون ها به وضوح پراکنده نیستند). من به هر حال پیش رفتم و سعی کردم از MPlus برای تحلیل عاملی (ML) با خطاهای پواسون و log-link استفاده کنم. من از MPlus عمدتاً برای راحتی استفاده کردم، زیرا این تنها بسته ای است که داده های شمارش و تجزیه و تحلیل عاملی را کنترل می کند (در صورت تمایل می توانید من را در اینجا اصلاح کنید). استفاده از MPlus با دادههای واقعی من به خوبی کار نمیکند، اما با دادههای شبیهسازی شده، حداقل زمانی که فاکتورهای نهفته واریانس واحد داشتند، درست بود. هنگامی که واریانس کاهش می یابد (مثلاً به 0.25^2) بازیابی بارهای عامل دشوارتر است و هنگامی که واریانس بسیار کم است (مثلاً 0.1^2) کار نمی کند (حداقل با MPlus). من گمان میکنم که مدلهای تحلیلی عاملی برای دادههای شمارش حداقل به مقداری واریانس در عوامل اصلی (مخفی) نیاز دارند تا بتوان آنها را تخمین زد، زیرا در غیر این صورت تغییرپذیری مشاهدهشده به پواسون نسبت داده میشود (neg-Bin، Poisson با تورم صفر، .. .) توزیع به جای عامل پنهان. من نتوانستم مرجعی برای این ادعا پیدا کنم و شبیه سازی های خودم نسبتاً محدود است. 1) آیا مرجعی برای این پدیده وجود دارد؟ آیا ممکن است از منظر دیگری پیش پا افتاده باشد؟ 2) واضح است که میتوانم دادهها را پیوسته در نظر بگیرم، از تحلیل عاملی اکتشافی و تأییدی استاندارد استفاده کنم، اما احساس میکنم این نه درست است و نه رضایتبخش. استراتژی های جایگزین چیست؟ | داده های تعداد کم پراکنده و تحلیل عاملی |
53202 | این یک آزمون نسبت جمعیت با سمت راست است. مقدار بحرانی 1.645 و آمار آزمون محاسبه شده 1.14- است. مساحت منهای بی نهایت تا 1.14- 0.1271 است. **سوال این است که از آنجایی که این یک تست دنباله راست است، مقدار 0.8729 (1-0.1271) است یا فقط 0.1271 است؟ ** هر کمکی بسیار قدردانی خواهد شد! | مقدار p کدام مقدار است؟ |
52156 | چگونه می توانم یک داده را برای رگرسیون خطی چندگانه (یک IV و بیشتر از 2 IV) شبیه سازی کنم وقتی که چولگی و کشیدگی داده ها را می دانیم؟ سوال دیگر این است که چگونه می توان نوع توزیع (مثلاً گاما دیست) را بر اساس چولگی و کشیدگی تعیین کرد؟ می دانیم که برای توزیع نرمال، چولگی و کشیدگی (0,0) است... با تشکر | شبیه سازی داده ها برای رگرسیون خطی چندگانه |
105179 | اگر این سوال احمقانه است عذرخواهی می کنم. من یک مجموعه داده با 3109 نفر دارم از آنها خواسته شد بگویند که آیا فکر می کنند دلیل 1، دلیل 2، دلیل 3 و دلیل 4 دلایل خوبی برای انجام آزمایش ژنتیکی هستند یا خیر. درصدها به شرح زیر است: دلیل 1: 37% بله; 28% خیر 25% مطمئن نیستم دلیل 2: 45% بله، 31% خیر. 24% مطمئن نیستم دلیل 3: 45% بله. 30% خیر 25% مطمئن نیستم دلیل 4: 46% بله. 29% خیر 25% مطمئن نیستند چگونه می توانم بفهمم که همان افراد به هر دلیلی بله، نه و مطمئن نیستم پاسخ داده اند؟ من مدت زیادی فکر کرده ام و سعی کرده ام با مطالعه در اطراف پاسخ را پیدا کنم و نمی توانم آن را بفهمم! داده ها در اکسل هستند اما به راحتی می توان آنها را در SPSS قرار داد، متشکرم! | آمار توصیفی ساده در SPSS یا Excel |
9728 | در چه شرایطی استفاده از رگرسیون با دو متغیر داده شده دقت پیشبینی را افزایش نمیدهد؟ | چه زمانی استفاده از رگرسیون فایده ای ندارد؟ |
93836 | من خواندم که در شبکههای عصبی پیشخور سنتی، گرادیانها در لایههای اولیه خیلی سریع تحلیل میروند و این یک چیز بد است. اما نمیفهمم چرا میشه لطفا یکی توضیح بده یعنی چی؟ یا حداقل مرا به جاهایی راهنمایی کنید تا در مورد آن بخوانم و بفهمم. | فروپاشی گرادیان در شبکه های عصبی |
16412 | فرض کنید من دو مجموعه متناهی از داده های «A» و «B» با طول مساوی «n» دارم. بهترین کران بالا و پایینی که می توانم روی var(A+B) ایجاد کنم، از نظر var(A) و var(B) چیست؟ | محدود به واریانس مجموع متغیرها |
2777 | **زمینه**: تصور کنید یک مطالعه طولی داشته اید که یک متغیر وابسته (DV) را یک بار در هفته به مدت 20 هفته روی 200 شرکت کننده اندازه گیری می کند. اگرچه من به DVهای معمولی که به آنها فکر می کنم علاقه مند هستم شامل عملکرد شغلی پس از استخدام یا اقدامات مختلف رفاهی پس از مداخله روانشناسی بالینی است. من می دانم که مدل سازی چند سطحی می تواند برای مدل سازی رابطه بین زمان و DV استفاده شود. همچنین می توانید اجازه دهید ضرایب (به عنوان مثال، وقفه ها، شیب ها، و غیره) بین افراد متفاوت باشد و مقادیر خاص را برای شرکت کنندگان تخمین بزنید. اما چه میشود اگر هنگام بازرسی بصری دادهها متوجه شوید که رابطه بین زمان و DV یکی از موارد زیر است: * از نظر شکل عملکردی متفاوت است (شاید برخی خطی باشند و برخی دیگر نمایی یا برخی ناپیوستگی داشته باشند) * از نظر واریانس خطا متفاوت است. (برخی افراد از یک نقطه زمانی به نقطه دیگر نوسان بیشتری دارند) **سوالات**: * روش خوبی برای رویکرد به مدل سازی داده های این چنینی چیست؟ * به طور خاص، چه رویکردهایی در شناسایی انواع مختلف روابط، و دسته بندی افراد با توجه به نوع آنها خوب است؟ * چه پیاده سازی هایی در R برای چنین تحلیل هایی وجود دارد؟ * آیا هیچ مرجعی در مورد نحوه انجام این کار وجود دارد: کتاب درسی یا برنامه واقعی؟ | مدلسازی دادههای طولی که در آن تأثیر زمان در شکل عملکردی بین افراد متفاوت است |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.