_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
4258
من می خواهم انتخاب Bur-in را برای یک زنجیره MCMC خودکار کنم، به عنوان مثال. با حذف n ردیف اول بر اساس تشخیص همگرایی. تا چه حد می توان این مرحله را به صورت ایمن خودکار کرد؟ حتی اگر باز هم همبستگی خودکار، ردیابی mcmc و فایل‌های pdf را دوباره بررسی کنم، خوب است که انتخاب طول رایت به صورت خودکار انجام شود. سوال من کلی است، اما اگر بتوانید مشخصاتی را برای برخورد با یک R mcmc.object ارائه دهید عالی خواهد بود. من از بسته های rjags و coda در R استفاده می کنم.
آیا می توانم تشخیص همگرایی MCMC را نیمه خودکار کنم تا طول سوختگی را تنظیم کنم؟
111833
آیا هنگام پیش‌آموزش لایه‌به لایه شبکه‌های عصبی عمیق، قبل از آموزش _کل شبکه_ با استفاده از آموزش نظارت شده، پیش‌آموزش لایه‌ها -که با آموزش بدون نظارت از قبل آموزش داده نشده‌اند- با استفاده از آموزش نظارت شده طبیعی است؟ آیا باید لایه های طبقه بندی را به تنهایی از قبل آموزش دهیم و لایه های آموزش دیده بدون نظارت را قفل نگه داریم، قبل از اینکه قفل آنها را باز کنیم و کل شبکه را با آموزش نظارت شده آموزش دهیم؟ من می توانم تصور کنم که در مرحله اولیه یادگیری نظارت شده، ویژگی ها ممکن است تغییرات زیادی پیدا کنند، به دلیل این واقعیت که آخرین لایه هنوز شروع به همگرایی نکرده است، زمانی که ما یادگیری نظارت شده را بدون آموزش قبلی لایه های طبقه بندی انجام می دهیم. سپس این امر به طور اساسی ویژگی های آموخته شده بدون نظارت را بر اساس لایه های طبقه بندی معیوب که هنوز همگرا نشده اند، تغییر می دهد. از سوی دیگر، وقتی لایه‌های طبقه‌بندی را با استفاده از یادگیری نظارت شده از قبل آموزش می‌دهیم، ممکن است در یک بهینه محلی بد گیر کنیم. از آنجا که لایه‌های طبقه‌بندی قبلاً همگرا شده‌اند، این احتمال وجود دارد که آموزش تحت نظارت در کل شبکه نیز بهینه محلی خود را در نزدیکی داشته باشد. آیا انجام پیش آموزش به تنهایی بر روی لایه های طبقه بندی، قبل از اجرای آموزش تحت نظارت در کل شبکه، ایده خوبی است؟
پیش آموزش شبکه های عصبی عمیق با یادگیری نظارت شده
78714
من 5 میلیون سند با تعداد برچسب های متفاوت برای هر کدام دارم. من قصد دارم مقدار آنتروپی را برای انتخاب اصطلاحات متمایز برای کاهش اندازه vocab پیدا کنم. با این حال، داشتن آن تنظیم برچسب چندگانه، من را به سختی درک می کند که چگونه متریک آنتروپی را برای آن مشکل اعمال کنم. چگونه باید با آن برچسب ها برای اندازه گیری اصطلاح آنتروپی برخورد کنم؟
چگونه آنتروپی اصطلاحات واژگانی را در مسئله طبقه بندی اسناد چند برچسبی پیدا کنیم؟
68594
مدل رگرسیون خطی ساده را در نظر بگیرید: \begin{align*} y = \beta_0 + \beta_1 x + \epsilon \end{align*} اجازه دهید $b_1$ حداقل مربعات برآورد $\beta_1$ باشد، با فرض واریانس خطا $\sigma ^2$ شناخته شده است، سپس داریم: \begin{align*} \sigma ^2(b_1) &= \frac{\sigma ^2}{S_{xx}} \\\ \sigma(b_1) &= \frac{\sigma}{\sqrt{S_{xx}}} \end{align*} $\Delta را تعریف کنید $ به عنوان $\frac{\beta_1 - 0}{\sigma(b_1)}$، سپس توان را به صورت زیر محاسبه می کنیم (من در مورد این مطمئن نیستم، اما افکارم را مطرح کردم اینجا): \begin{align*} Power &= P\left(\frac{b_1 - 0}{\sigma(b_1)} > Z_{1 - \alpha / 2}\right) \+ P\left(\ frac{b_1 - 0}{\sigma(b_1)} < \- Z_{1 - \alpha / 2}\right) \\\ &= P\left(\frac{b_1 - \beta_1}{\sigma(b_1)} > -\frac{\beta_1}{\sigma(b_1)} + Z_{1 - \alpha / 2}\right) \+ P\left(\frac{b_1 - \beta_1}{\sigma(b_1)} < -\frac{\beta_1}{\sigma(b_1)} - Z_{1 - \alpha / 2}\راست) \\\ &= \Phi\left( \Delta - Z_{1 - \alpha / 2}\right) \+ \Phi\left(- \Delta - Z_{1 - \alpha / 2} \right) \end{align*} فرض کنید به جای $x$ (که در اینجا به عنوان متغیر علّی واقعی می بینیم)، $x^*$ داریم که با $x$ توسط همبستگی دارد. $r$، چگونه باید قدرت را ارزیابی کنیم؟ آیا به اطلاعات بیشتری به جز $r$ نیاز داریم؟ یک ضرب المثل متداول و روشنگر وجود دارد که می گوید همه مدل ها اشتباه هستند، برخی مفید هستند، اما لطفاً توجه داشته باشید که در اینجا فرض می کنیم مدل در واقع **کاملاً درست است**، و یک رابطه علی واقعی بین $x$ وجود دارد. و $y$، سپس به جلو حرکت کنید تا موردی را در نظر بگیرید که متغیر علی را نمی‌دانیم و فقط $x^*$ را در دسترس داریم.
قدرت رگرسیون خطی ساده زمانی که متغیر مستقل با متغیر علی واقعی همبستگی دارد
31126
> صد رقم تصادفی > > > 00-04 05-09 10-14 15-19 > ==========================> 00 54463 22662 65905 70639 > 01 15389 85205 18850 39226 > 02 85941 40756 82414 02015 > 03 61149 69440 11286 88218 > 04 05219 81619 10651 67079 10651 02079 > من به‌طور تصادفی شروع به خواندن اعداد بالا کردم. جدول/تفسیر داده ها چگونه می توانم یک نمونه تصادفی با اندازه $n = 10 $ را بدون جایگزینی از یک جمعیت شماره گذاری شده با اندازه $N = 100 $ ترسیم کنم؟ و همچنین یک نمونه تصادفی با اندازه $n=15$ بدون جایگزینی از یک جمعیت شماره گذاری شده به اندازه $N=123$؟
رسم نمونه تصادفی با استفاده از جدول اعداد تصادفی
30252
برای محاسبه حد اطمینان بالای پارامتر پواسون، می توان از توزیع $\chi^2$ با احتمال $P$ و $${\rm درجه \ آزادی} = 2X + 2$$ استفاده کرد (نلسون، 1982. تجزیه و تحلیل داده های زندگی کاربردی). من یک نمونه از 10 مشاهده دارم. سوال من به متغیر $X$ مربوط می شود: این کل نمونه است یا میانگین؟
فاصله اطمینان برای پارامتر پواسون
108005
من می‌خواهم ایده‌هایی در مورد چگونگی ایجاد یک مدل کلی از مدل‌های مختلف با ضرایب متفاوت در حالی که از مجموعه داده‌های یکسانی استفاده می‌کند، بپرسم. با توجه به تکنیک های مختلف استفاده شده، مدل های آماری مختلفی به دست آمد. می خواهم بدانم چگونه ضرایب یا هر معیاری را برای انتخاب فقط ضرایب امیدوارکننده ترکیب کنم.
مقایسه مدل های مختلف با ضرایب رگرسیون متفاوت با استفاده از مجموعه داده های مشابه
30258
من از Rs grangertest برای انجام برخی آزمایش های علیت گرنجر استفاده می کنم. من یک سری زمانی خاص را در برابر یک سری زمانی شاخص اقتصادی آزمایش می کنم و به امید شناسایی بهترین رابطه، تاخیر را تنظیم می کنم. از نظر آماری، سعی می‌کنم این فرضیه صفر را رد کنم که شاخص عقب‌افتاده باعث بهبود رگرسیون در وقفه‌های مختلف می‌شود. از درس آمار من، بسیار ساده شده، به یاد می آورم که F بزرگ و p کوچک فرضیه صفر را رد می کند. سوال من این است، در دو مثال زیر که نتایج به نظر می رسد رابطه بهتر دارند: 1. تاخیر = 2، F = 26.4 p = 1.513e -6 2. تاخیر = 4، F = 12.0 p = 8.521e -8 در مورد اول F بزرگتر است، اما p کوچکتر است و در مورد دوم F کوچکتر است، اما p بزرگتر است تلاش برای تعیین بهترین رابطه F trump p یا p trump F. از کمک شما متشکرم.
تفسیر آمار F و P از نتایج Rgrangertest
103401
من در حال مطالعه تأثیر یک آزمایش کلاس درس آموزش هستم. من داده های قبل و بعد از مداخله را در مورد احساس شایستگی، احساس تأثیرگذاری بر نتایج مطالعه، انگیزه بیرونی و درونی دارم. من به دنبال این هستم که ببینم آیا تغییر کلاس درس بر این متغیرها تأثیر قابل توجهی دارد یا خیر. با تفریق احساس شایستگی پس از مداخله از احساس شایستگی قبل از مداخله، متغیر «تفاوت شایستگی» را به دست آوردم. من نمی دانم که آیا تغییر در احساس شایستگی با احساس شایستگی، احساس تأثیر بر نتایج مطالعه، انگیزه درونی و بیرونی قبل از مداخله مرتبط است یا خیر. بنابراین من تفاوت شایستگی را DV تعیین کرده ام در حالی که شایستگی قبل، نفوذ قبل، قبل از درون درونی و پیش بیرونی IV تعیین شده اند. در SPSS ضرایب همبستگی پیرسون را تعیین کردم و بین «تفاوت شایستگی» و «پیش شایستگی» همبستگی منفی و معنادار و بین «تفاوت شایستگی» و «پیش بیرونی» همبستگی مثبت و معنادار یافتم. وقتی یک رگرسیون خطی چندگانه را اجرا می کنم، چیزی را می یابم که نمی توانم توضیح دهم. بین «تفاوت شایستگی» و «پیش شایستگی» رابطه معناداری وجود دارد، اما بین «تفاوت شایستگی» و «پیش صلاحیتی» رابطه منفی معناداری وجود ندارد، هر چند اکنون بین «تفاوت شایستگی» و «پیش صلاحیتی» رابطه مثبت معناداری پیدا کردم. '. وقتی «پیش درونی» IV را از رگرسیون خطی چندگانه حذف می کنم، یک رابطه مثبت معنادار بین «تفاوت شایستگی» و «پیش بیرونی» پیدا می کنم. جمعیت بسیار کوچک است، فقط 48 دانش آموز. من نمی دانم اینجا چه خبر است. کسی میتونه توضیح بده؟
همبستگی پیرسون معنی دار است، رگرسیون خطی چندگانه برای یک IV معنی دار نیست در حالی که عکس آن برای IV دیگر صادق است.
103409
هنگام تخمین فاصله اطمینان برای نسبت دوجمله ای $p$، با $\hat{p}$ نزدیک 0 یا 1، باید از چیزی غیر از فاصله Wald استفاده کرد تا یک تخمین معقول به دست آورد (به عنوان مثال به Brown, Cai, DasGupta مراجعه کنید. (2001)). اما اگر نمونه من از طریق نمونه گیری طبقه بندی شده به دست آید و $\hat{p}$ برای هر نمونه برابر یا نزدیک به صفر باشد، چه؟ به نظر من تعدیل در هر قشری کار بیش از حد است. در این سناریو، فرآیند مناسب برای به دست آوردن فاصله اطمینان برای $\hat{p}$ چیست؟ **زمینه/زمینه:** من حدود 250 پرونده از افراد دارم و می خواهم شیوع بیماری خاصی را در بین این افراد بررسی کنم. کار بررسی سوابق طولانی و پرهزینه است، بنابراین تصمیم گرفتم نمونه برداری کنم و به جای آن سوابق موجود در نمونه را بررسی کنم. من می توانم 250 رکورد را در 40 طبقه طبقه بندی کنم، که هر کدام شامل سوابقی است که معتقدم تا آنجا که به وقوع بیماری در بین آنها مربوط می شود مشابه است (مثلاً آنها در یک منطقه جغرافیایی زندگی می کردند). 2 و به 15 رکورد در آنها (بسیاری 2 رکورد دارند). از هر قشر، یک رکورد تصادفی انتخاب کردم و آن را بررسی کردم. هیچ یک از سوابق بررسی شده نشان دهنده وقوع بیماری نبود. فاصله اطمینان من برای $\hat{p}$ چقدر است؟
فاصله اطمینان برای نسبتی که از طریق نمونه گیری طبقه ای برآورد شده است
6880
چند چیز وجود دارد که به شدت در عمل آمار، تجزیه و تحلیل داده ها، و غیره استفاده می شود و قانون رایج آموزش را تشکیل می دهد، با این حال همه می دانند که دقیقاً درست، مفید، خوش رفتار، یا از نظر تجربی پشتیبانی نمی شوند. بنابراین این سوال مطرح می شود: بدترین ایده ای که هنوز به طور فعال تبلیغ می شود کدام است؟ لطفاً در هر پست یک پیشنهاد بدهید.
خطرناک ترین مفاهیم در عمل تجزیه و تحلیل داده ها چیست؟
66161
از ویکی‌پدیا > دو فرض رایج در مورد اثر خاص فردی وجود دارد، > فرض اثرات تصادفی و فرض اثرات ثابت. فرض تصادفی > اثرات (ساخته شده در مدل اثرات تصادفی) این است که اثرات فردی > خاص **همبسته** با متغیرهای مستقل هستند. فرض اثر ثابت > این است که اثر خاص فردی > **همبسته** با متغیرهای مستقل است. اگر فرض اثرات تصادفی > برقرار باشد، مدل اثرات تصادفی کارآمدتر از مدل اثرات > ثابت است. با این حال، اگر این فرض برقرار نباشد (به عنوان مثال، اگر آزمون > Durbin-Watson ناموفق باشد)، مدل اثرات تصادفی سازگار نیست. من تعجب کردم که چرا مدل‌های اثر تصادفی نیاز دارند که اثرات تصادفی با متغیرهای ورودی همبستگی نداشته باشند، در حالی که مدل‌های اثر ثابت اجازه می‌دهند که اثرات با متغیر ورودی همبستگی داشته باشند؟ با تشکر
چرا مدل‌های اثر تصادفی نیاز دارند که اثرات با متغیرهای ورودی همبستگی نداشته باشند، در حالی که مدل‌های اثر ثابت اجازه همبستگی را می‌دهند؟
30259
من مجموعه ای از نقاط n بعدی دارم. من در حال انجام تجزیه و تحلیل خوشه بندی بر روی آنها هستم تا آنها را به گروه ها تقسیم کنم. اکنون، می‌خواهم پایه‌ای پیدا کنم تا بتوانم طرح‌بندی مرزهای گروه‌ها را توصیف کنم. به عنوان مثال، اگر نقاط من _فقط_ سه بعدی بود، می توانم به راحتی از هارمونیک های کروی برای توصیف گروه ها استفاده کنم. اگر مثلاً پنج گروه وجود داشته باشد، هر گروه را می توان به صورت یک ترکیب خطی از هارمونیک های کروی نوشت و من به راحتی می توانم مرزهای هر گروه را تعریف کنم. با این حال، نمی‌توانم از هارمونیک‌های کروی مثلاً روی یک مجموعه پنج بعدی از نقاط استفاده کنم، آیا می‌توانم؟ اگر نه، آیا خانواده ای از مجموعه های پایه وجود دارد که بتواند اشکال را در ابعاد n تعریف کند؟
تعریف مجموعه پایه متعامد n بعدی
4259
من در زمینه داده کاوی کار می کنم و تحصیلات رسمی بسیار کمی در آمار داشته ام. اخیراً کارهای زیادی می‌خوانم که بر پارادایم‌های بیزی برای یادگیری و استخراج تمرکز دارد، که به نظرم بسیار جالب است. سوال من این است (در چند بخش)، با توجه به یک مسئله، آیا چارچوب کلی وجود دارد که بتوان با آن یک مدل آماری ساخت؟ وقتی مجموعه داده ای به شما داده می شود و می خواهید فرآیند اساسی را مدل سازی کنید، اولین کارهایی که انجام می دهید چیست؟ آیا کتاب‌ها/آموزش‌های خوبی وجود دارد که این فرآیند را توضیح دهد یا موضوع تجربه است؟ آیا هنگام ساخت مدل خود استنتاج در خط مقدم ذهن شما قرار دارد یا قبل از اینکه نگران نحوه استفاده از آن برای محاسبه باشید، ابتدا قصد دارید داده ها را توصیف کنید؟ هر بینشی بسیار قدردانی خواهد شد! با تشکر
نکات و ترفندهایی برای شروع مدل سازی آماری؟
111830
اساسا من یک مجموعه داده دارم که دارای یک بردار ویژگی و برچسبی است که نشان می دهد هرزنامه یا غیر هرزنامه است. برای به دست آوردن برچسب‌های این داده‌ها، از 2 نوع مجزا از خبره استفاده شد که هر کدام از روش‌های مختلف برای ارزیابی آیتم استفاده می‌کردند. آموزش و سپس آزمایش بر روی بخش جداگانه ای از داده ها با استفاده از الگوریتم جنگل تصادفی به دقت بالایی دست یافته است. با این حال، اکنون مشخص است که ویژگی توصیف کننده متخصص سازنده برچسب در محیط زنده در دسترس نخواهد بود. بنابراین من چندین روش را برای انعکاس این موضوع امتحان کرده‌ام: 1. ویژگی را از مجموعه حذف کنید و دوباره آموزش دهید و آزمایش کنید. داده‌های تست، ویژگی مورد نظر را روی یک مقدار تنظیم کنید. با هر 3 رویکرد، طبقه‌بندی‌کننده‌ها از دقت بسیار بالا به بی‌فایده بودن کاهش یافته‌اند. بنابراین من به دنبال توصیه یا شهودی هستم که چرا این اتفاق افتاده است و چگونه می توانم آن را حل کنم تا بخشی از دقتی را که قبلا می دیدم دوباره به دست بیاورم؟ واضح است که من هیچ پیشینه ای در زمینه یادگیری ماشینی یا آمار ندارم و به سادگی از یک کتابخانه کد شخص ثالث به عنوان جعبه سیاه برای دستیابی به این نتایج استفاده می کنم.
چگونه می توان با ویژگی مربوط به این که چه نوع متخصصی به داده هایی که در مرحله طبقه بندی از دسترس خارج می شوند، برچسب زد، برخورد کرد؟
31121
من در حال طراحی یک استراتژی نمونه گیری برای یک بررسی سلامت در مراکز مراقبت طولانی مدت (LTCFs) هستم. من به مقاله اینجا مراجعه می کنم و می خواهم در مورد اندازه خوشه سوال بپرسم. من به انجام یک نمونه تصادفی خوشه ای طبقه بندی شده فکر می کنم (سوال اضافی، اگر از همه در یک LTCF نمونه برداری کنم، آیا باز هم نمونه برداری 2 مرحله ای است؟ یا فقط 1 مرحله ای؟ آیا باید مقداری LTCF نمونه برداری کنم و سپس نمونه برداری کنم. برخی از ساکنان در LTCF نمونه برداری شده، پس این را می توان به عنوان نمونه برداری 2 مرحله ای نامید. پس از خواندن چند کتاب و مقاله، فکر می‌کنم باید هم از طبقه‌بندی و هم از خوشه‌بندی استفاده کنم تا تعادل بهتری در افزایش یا کاهش تورم خطای استاندارد برای اندازه‌گیری داشته باشم. من اندازه یک خوشه را 60 تعیین کرده‌ام و سپس یک تخمین اندازه نمونه انجام می‌دهم (تقریباً 3000)، سؤال من به شرح زیر است: بگویید اگر یک LTCF کوچک را نمونه‌برداری کردم، فقط 20 نفر در داخل هستند، به 40 نفر دیگر نیاز دارم. چه کار باید بکنم برای نمونه گیری از خوشه های اضافی؟ به روشی دیگر، اگر از یک LTCF بزرگ با 400 ساکن داخل نمونه برداری کنم، فقط 60 نفر نیاز دارم، آیا باید فقط یک نمونه گیری تصادفی ساده انجام دهم تا 60 ساکن مورد نیاز خود را انتخاب کنم؟ اندازه نابرابر خوشه مدتی است برای من یک کابوس بوده است، در حال حاضر هیچ سرنخی ندارم که چگونه این نوع داده ها را به درستی پردازش کنم (چون نمی توانم این کار را انجام دهم که گویی داده ها با نمونه گیری تصادفی ساده جمع آوری شده اند، درست است. ؟). من در حال مطالعه شارون ال. لور نمونه - طراحی و تجزیه و تحلیل. و استیون جی. هرینگا تحلیل داده های نظرسنجی کاربردی. آیا کسی می تواند به من سرنخی بدهد، شاید در 2 کتاب، که بتواند بینشی در مورد رهایی از کابوس به من بدهد؟ توصیه کتاب ها/مقالات دیگر نیز مورد استقبال قرار می گیرد. با تشکر
اگر اندازه خوشه بزرگ/کوچکتر از حد انتظار من باشد، هنگام طراحی نمونه‌گیری تصادفی خوشه‌ای طبقه‌بندی شده چه باید بکنم؟
80398
شهود پشت این واقعیت که یک SVM با هسته گاوسی فضای ویژگی‌های ابعادی نامتناهی دارد چیست؟
SVM - فضای ویژگی با ابعاد نامحدود
78718
به سوال مشابهی پاسخ داده شده است، اما من در اینجا مجدداً برای رفع ابهام در آن سوال در مورد آنچه که در پی آن هستم ... (چون تجزیه و تحلیل بقا انجام نشده است) مجدداً در اینجا چارچوب بندی کردم. )، در مقیاس 0-1، با فواصل اطمینان 95٪، و حجم نمونه برای دو تیمار، به جای میانگین و SD. آیا راه معقولی برای استفاده مستقیم از این احتمالات یا تبدیل به یک قالب مفید برای محاسبه اندازه افکت وجود دارد؟ تصور می کنم احتمال را نمی توان به عنوان یک میانگین در نظر گرفت؟ اما وسوسه‌انگیز است، زیرا اندازه‌گیری اندازه اثر اختلاف میانگین مطمئناً همچنان اثر میانگین در داده‌ها را بر حسب تفاوت احتمالات، استاندارد شده توسط واریانس، محاسبه می‌کند. آیا این تعامل صحیح است؟ اگر چنین است، آیا ترکیب آن نتیجه محاسبه‌شده از احتمالات، با سایر داده‌های محاسبه‌شده با میانگین/SD معقول است؟ یا رویکرد قابل دفاع‌تری برای حذف چنین داده‌هایی از متاآنالیز است؟
آیا می توان از احتمال برای محاسبه اندازه اثر (هر کدام؟) استفاده کرد؟ نسخه 2
67211
من این پاسخ عالی، معنی‌داری آماری احتمالات شرطی را به سوالم در مورد چگونگی محاسبه معنی‌داری معادلات احتمال شرطی دریافت کردم. آنها توضیح دادند که HDI توسط یک cdf توزیع دوجمله ای محاسبه شده است. من به یک برنامه مبتنی بر یونیکس نیاز دارم که توزیع دوجمله ای CDF را برای HDI محاسبه کند. (من R را امتحان کردم اما تابع 'pbinom' آن فقط مقادیر p را می دهد. من تصور می کنم که p-value می تواند در مقایسه به همان اندازه مفید باشد.)
چگونه CDF ساده مانند Wolfram Alpha را محاسبه کنیم، اما به صورت محلی؟
66169
**توضیح داده ها:** داده هایی از داده های پرسشنامه 15 شرکت کننده (نمونه کوچک) دارم. والدین دفعاتی را که با فرزندشان خشن و خشن می شوند ارزیابی کردند: (1) هرگز، (2) نه خیلی زیاد، (3) یک بار در ماه، (4) یک بار یا بیشتر در هفته، (5) هر روز. **تحلیل های اولیه:** تاکنون چندین نمودار میله ای ایجاد کرده ام و آنها را با استفاده از درصد توضیح می دهم (به عنوان مثال، 78٪ از پسران با یکی از والدین خود یا هر دوی آنها یک بار یا چند بار در هفته خشن می شوند، این رقم تنها است. 60 درصد برای دختران). ### سوالات * آیا باید به جای میانگین از میانه استفاده کنم؟ * آیا حجم نمونه 15 نفری برای نتایج معنی دار بسیار کوچک است؟ * آیا می توانم یک آزمون آماری کای دو معنی دار یا آزمون آماری دیگری را انجام دهم؟
چگونه می توان مقیاس لیکرت را با حجم نمونه بسیار کوچک (15=n) تجزیه و تحلیل کرد؟
31122
یک وضعیت بسیار رایج در گرافیک کامپیوتری این است که رنگ برخی از پیکسل ها با انتگرال یک تابع با ارزش واقعی برابر است. اغلب این تابع برای حل تحلیلی بسیار پیچیده است، بنابراین ما با تقریب عددی باقی می‌مانیم. اما محاسبه این تابع اغلب بسیار گران است، بنابراین ما در تعداد نمونه هایی که می توانیم محاسبه کنیم بسیار محدود هستیم. (به عنوان مثال، شما نمی توانید تصمیم بگیرید که یک میلیون نمونه بردارید و آن را در این حالت رها کنید.) به طور کلی، کاری که می خواهید انجام دهید این است که عملکرد را در نقاطی که به طور تصادفی انتخاب شده اند ارزیابی کنید تا زمانی که انتگرال تخمین زده شده «دقیق کافی» شود. که من را به سوال واقعی خود می رساند: ** دقت انتگرال را چگونه تخمین می زنید؟** * * * به طور خاص، ما $f : \mathbb{R} \rightarrow \mathbb{R}$ داریم که توسط برخی از الگوریتم های کامپیوتری پیچیده و کند پیاده سازی شده است. می‌خواهیم $$k = \int_a^b f(x) \ dx$$ را تخمین بزنیم. ما می‌توانیم $f(x)$ را برای هر $x$ که می‌خواهیم محاسبه کنیم، اما گران است. بنابراین می‌خواهیم چندین $x$-value را به‌طور تصادفی انتخاب کنیم و زمانی که تخمین $k$ به طور قابل قبولی دقیق شد، متوقف شویم. برای انجام این کار، البته، باید بدانیم که برآورد فعلی چقدر دقیق است. من حتی مطمئن نیستم که چه ابزارهای آماری برای این نوع مشکل مناسب هستند. اما به نظرم می رسد که اگر ما مطلقاً هیچ چیز را در مورد $f$ ندانیم، پس مشکل غیرقابل حل است. برای مثال، اگر $f(x)$ را هزار بار محاسبه کنید و همیشه صفر باشد، انتگرال تخمینی شما صفر خواهد بود. اما، با دانستن هیچ چیز در مورد $f$، هنوز هم ممکن است که $f(x) = 1,000,000$ در همه جا به جز نقاطی که نمونه برداری کردید، بنابراین تخمین شما به طرز وحشتناکی اشتباه است! پس شاید سوال من باید با **چه چیزی باید در مورد $f$ بدانیم تا بتوانیم دقت انتگرال خود را تخمین بزنیم؟ به عنوان مثال، اغلب ما می دانیم که غیرممکن است که $f$ هرگز منفی باشد، که به نظر می رسد یک واقعیت بسیار مرتبط باشد... * * * **ویرایش:** خوب، بنابراین به نظر می رسد که این مقدار زیادی از پاسخ ها، که خوب است. به جای پاسخ دادن به هر یک از آنها به صورت جداگانه، سعی می کنم پیشینه دیگری را در اینجا پر کنم. وقتی می‌گویم ما «هیچ‌چیز» درباره $f$ نمی‌دانیم، منظورم این است که می‌توانیم $f$ را محاسبه کنیم، اما چیزی بیشتر در مورد آن نمی‌دانیم. من انتظار دارم (و به نظر می رسد نظرات موافق هستند) که داشتن دانش بیشتر به ما امکان می دهد از الگوریتم های بهتری استفاده کنیم. به نظر می رسد که دانستن کران های روی $f$ و/یا اولین مشتق $f$ مفید خواهد بود. در بیشتر مشکلاتی که من به آنها فکر می کنم، $f$ بسته به هندسه صحنه و مکان در صحنه مورد بررسی تغییر می کند. این یک جبر زیبا و مرتب نیست که بتوانید آن را به صورت تحلیلی حل کنید. به طور معمول $f$ نشان دهنده شدت نور است. بدیهی است که شدت نور هرگز نمی تواند منفی باشد، اما هیچ محدودیتی برای بزرگ بودن مقادیر مثبت آن وجود ندارد. و در نهایت، لبه‌های شی معمولاً منجر به ناپیوستگی‌های شدید در $f$ می‌شوند، و معمولاً نمی‌توانید پیش‌بینی کنید که کجا هستند. به طور خلاصه، $f$ لعنتی است، بنابراین اولین تماس من این بود که بدون اطلاعات بیشتر بپرسم با آن چه کاری می توانیم انجام دهیم. به نظر می رسد که بدون حداقل برخی از کران های بالا و پایین، پاسخ این است که خیلی جهنم نیست... بنابراین به نظر می رسد که باید برخی از فرضیات را شروع کنم تا بتوانم در اینجا پیشرفت کنم. همچنین، با توجه به تعداد دفعاتی که مونته کارلو مطرح شده است، حدس می زنم که این اصطلاح فنی برای این نوع ادغام باشد؟
چگونه دقت یک انتگرال را تخمین بزنیم؟
80396
من در جایی دیده ام که مشترکات باید بیشتر از نصف (0.5) برای متغیرهای مشاهده شده در تحلیل عاملی باشد. آیا این درست است؟ آیا نقطه قطعی برای این وجود دارد؟
آیا هیچ «برشی» برای مشترکات در تحلیل عاملی وجود دارد؟
111837
دو ارزیاب بر اساس پنج معیار به مقالات امتیاز داده اند. من می‌خواهم قابلیت اطمینان بین ارزیاب (IRR) را محاسبه کنم. * آیا من باید IRR را بر روی هر معیار محاسبه کنم یا فقط نمره کل پنج معیار را؟ * چگونه می توان توزیع نرمال نمرات را از دو ارزیاب بررسی کرد؟ نمرات هر دو ارزیاب در هر معیار به طور معمول توزیع نمی شود. اما مجموع نمرات پنج معیار معمولاً تقسیم می شوند. از پیرسون استفاده کنم یا اسپیرمن؟
قابلیت اطمینان بین ارزیاب
87804
من در حال انجام مطالعه ای هستم تا سعی کنم رفتار خاصی را با استفاده از 6 پیش بینی توضیح دهم. برای جمع آوری داده ها از پرسشنامه استفاده کرده ام. پرسشنامه شامل بخش مشخصات دموگرافیک مانند سن، جنسیت، موقعیت شغلی بود. من مطمئن نیستم که آیا باید متغیرهای جمعیت شناختی را در رگرسیون لحاظ کنم یا خیر. از آنجایی که بررسی ادبیات من بر روی 6 پیش بینی کننده متمرکز بود و نه بر روی تفاوت های جمعیت شناختی، در ابتدا برنامه ریزی نداشتم. من متوجه شده ام که دو مورد از جمعیت شناسی در واقع در GLM مهم هستند. چه کار کنم؟ هر گونه بازخورد قدردانی می شود.
آیا باید اطلاعات جمعیتی را در رگرسیون خود لحاظ کنم؟
103403
اول از همه می خواهم بگویم که شاید سوال من قبلاً پاسخ داده شده باشد اما من واقعاً در جدول ANOVA جدید هستم و واقعاً نمی توانم 100٪ پاسخ ها را بفهمم. سوال من این است که اگر کسی می تواند به من توضیح دهد که نقطه ها به چه معنا هستند (تک نقطه، دو نقطه، سه نقطه) و چه زمانی دو نقطه قابل قبول است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/bFMgV.jpg)
معنی نقطه جدول ANOVA
87801
من در حال آماده کردن روشی برای اعتبارسنجی روش‌های تست فیزیکی ویژگی‌ها (مانند سیستم بینایی) با نشان دادن قابلیت اطمینان روش آزمایش برای تشخیص نمونه‌های خوب/بد هستم. فرمول اندازه نمونه زیر را تهیه کرده‌ام که پیشنهاد می‌کند بر اساس توزیع دوجمله‌ای باشد: n = (0.5 x Xsq(1-C,2(r+1)))/(1-R) ​​که n اندازه نمونه است، C اطمینان، r تعداد خرابی ها، R است است قابلیت اطمینان تصویر فرمول اضافه شده در زیر (ممکن است ظاهر نشود): ![تصویر:محاسبه اندازه نمونه با استفاده از Binomial](http://i.stack.imgur.com/Q74AZ.jpg) من هیچ مرجع دیگری برای مشتق از این فرمول و من تمایلی به استفاده از آن بدون اینکه بفهمم از کجا آمده است ندارم. اندازه‌های نمونه محاسبه‌شده از این فرمول با اندازه‌های نمونه‌ای که قبلاً استفاده کرده‌ام همسو می‌شوند، بنابراین مطمئن هستم که درست است، اما واقعاً می‌خواهم بدانم چگونه از توزیع دوجمله‌ای مشتق شده است.
محاسبه اندازه نمونه برای نشان دادن قابلیت اطمینان روش آزمایش فیزیکی
85940
فرض کنید یک DV («Y») و سه IV («X1»، «X2»، «X3») وجود دارد، و در میان IV ها، «X1» یک متغیر ساختگی است. در مدل رگرسیون بدون عبارات تعامل، نتایج را می توان به این صورت نشان داد: Y ~ X1 + X2 + X3 X1 : غیر معنی دار X2: معنادار X3: معنی دار در این مورد، آیا بررسی برخی از اصطلاحات تعامل معنی دار است (به عنوان مثال `X1 $\cdot$ X2 یا X1 $\cdot$ X3)؟ در ابتدا فکر کردم که مجبور نیستم زیرا تأثیر اصلی «X1» نشان دهنده بی اهمیت بودن است. اما می ترسم چیز مهمی را از دست بدهم.
آیا شناسایی اثر تعامل زمانی معنادار است که یک اثر اصلی در یک مدل (فقط اثرات اصلی، بدون شرایط تعامل) معنی‌دار نباشد؟
66162
من دو متغیر باینری دارم، $X_1$ و $X_2$، که مقدار آنها در {0، 1} است. اکثریت قریب به اتفاق مقادیر آنها 0 است. می خواستم بدانم آیا راهی برای اندازه گیری مناسب ارتباط آنها با توجه به اینکه اکثر مقادیر آنها صفر است وجود دارد؟ توجه داشته باشید که من برای تست های وابستگی نیز باز هستم. من به ضریب _phi نگاه می کردم، اما به نظر می رسد در سطح بالایی است، ضریب _phi متناسب با حاصلضرب توافقات منهای حاصلضرب اختلافات است. در مجموعه داده های من، به طور شهودی، این حس را دریافت می کنم، بنابراین، ضریب _phi_ احتمالاً بسیار بزرگ خواهد بود. آیا معیارهای ارتباطی مناسب تری یا آزمون های استقلال برای این نوع داده ها وجود دارد؟
چگونه می توان قدرت ارتباط بین متغیرهای باینری را در جایی که اکثر مقادیر صفر است اندازه گیری کرد؟
66160
من یک پاسخ دارم، رضایت که در مقیاسی از 0 تا 10 (که در آن 0 = ناراضی و 10 = بسیار راضی هستم) می رود، و من یک متغیر پیش بینی دارم که از همان مقیاس نیز استفاده می کند. من پاسخ را دوباره رمزگذاری کردم تا 0-5 راضی نیستم و 6-10 راضی هستم. من همین کار را برای متغیر پیش بینی کردم. من از SPSS برای بدست آوردن فرکانس های هر کدام استفاده کردم (4 ترکیب مختلف وجود دارد). سوال من این است که آیا می توانم از آزمون z دو نسبت استفاده کنم تا آزمایش کنم که آیا تفاوت معنی داری در پیش بینی در دو سطح مختلف پاسخ من وجود دارد؟ متشکرم
آیا می توانم از آزمون z-test دو نسبت استفاده کنم؟
66166
من یک مجموعه داده تجارت الکترونیک با درآمد، سفارش‌ها، AOV، بازدیدها، بازدیدکنندگان منحصر به فرد و بازدید از صفحه برای سه کشور و مجموعه داده‌هایی با بازدید فقط، بازدیدکنندگان منحصر به فرد و بازدید از صفحه برای 7 کشور در 600 روز گذشته دارم. 7 کشور هیچ داده تجارت الکترونیکی ندارند زیرا فروشگاه برای آنها ارسال نمی کند. فروشگاه در حال بررسی این است که ارسال به کدام کشورها سودآورتر است، بنابراین من سعی می کنم میزان سفارش هایی را که هر کشور می تواند تولید کند بر اساس بازدید خود پیش بینی کنم. من سعی کردم از تابع glm() در R با 3 کشور به عنوان داده های آموزشی استفاده کنم، اما مشکلی که با آن روبرو هستم این است که نتیجه یک دوجمله ای است. بدیهی است که این برای سفارشات کار نمی کند. از چه تابعی برای پیش بینی چنین چیزی استفاده کنم؟
پیش بینی یک عدد غیر دوجمله ای
29614
روز گذشته با یک اپیدمیولوژیست مشاوره داشتم. او یک پزشک با مدرک بهداشت عمومی در اپیدمیولوژی است و دانش آماری زیادی دارد. او به همکاران پژوهشی و ساکنان خود راهنمایی می کند و در مسائل آماری به آنها کمک می کند. او تست فرضیه را به خوبی درک می کند. او یک مشکل معمولی در مقایسه دو گروه داشت تا ببیند آیا تفاوتی در خطر ابتلا به نارسایی احتقانی قلب (CHF) وجود دارد یا خیر. او تفاوت میانگین را در نسبت افراد دریافت کننده CHF آزمایش کرد. مقدار p 0.08 بود. سپس تصمیم گرفت ریسک نسبی را بررسی کند و مقدار p 0.027 را بدست آورد. بنابراین او پرسید که چرا یکی مهم است و دیگری نه. با نگاهی به 95% فواصل اطمینان دو طرفه برای تفاوت و نسبت، او متوجه شد که فاصله میانگین اختلاف حاوی 0 است اما حد اطمینان بالایی برای نسبت کمتر از 1 است. پس چرا نتایج متناقضی دریافت می‌کنیم. پاسخ من در حالی که از نظر فنی درست بود چندان رضایت بخش نبود. من گفتم: اینها آمارهای متفاوتی هستند و می توانند نتایج متفاوتی را ارائه دهند. مقادیر p هر دو در ناحیه با اهمیت حاشیه ای هستند. این به راحتی می تواند اتفاق بیفتد. من فکر می‌کنم باید راه‌های بهتری برای پاسخ دادن به این موضوع به زبان غیر عادی به پزشکان وجود داشته باشد تا به آنها کمک کند تفاوت بین آزمایش خطر نسبی و خطر مطلق را درک کنند. در مطالعات اپی این مشکل زیاد مطرح می شود زیرا آنها اغلب به رویدادهای نادری نگاه می کنند که در آن میزان بروز برای هر دو گروه بسیار کوچک است و حجم نمونه خیلی بزرگ نیست. من کمی در مورد این فکر کرده ام و ایده هایی دارم که به اشتراک خواهم گذاشت. اما ابتدا می خواهم بشنوم که برخی از شما چگونه با این موضوع کنار می آیید. من می دانم که بسیاری از شما در زمینه پزشکی کار می کنید یا مشاوره می کنید و احتمالا با این موضوع مواجه شده اید. چه کاری انجام می دهید؟
تفاوت بین ریسک نسبی و ریسک مطلق را چگونه توضیح می دهید؟
111832
من با استفاده از فلوسیتومتری با مجموعه داده ای از تعداد سلول های باکتریایی کار می کنم. من تعداد سلول را در 3 گونه مختلف باکتری، که همگی با 3 ترکیب مختلف (ال-اسپارتیک اسید، ال-آسپاراژین و D-سوربیتول) تیمار شده بودند، در 2 نقطه زمانی ثبت کردم. مجموعه داده های من به این شکل است: > ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/cZzFT.png) تعداد سلول ها تعداد کل (tot) و سلول های دست نخورده (int) است. من می خواهم بدانم که آیا تعداد کل سلول ها در بین گونه ها یا در بین تیمارها متفاوت نیست؟ من همچنین می خواهم ببینم که هیچ تفاوتی بین نقاط زمانی در گونه ها وجود ندارد. علاوه بر این، من باید همان تجزیه و تحلیل را برای سلول های دست نخورده تکرار کنم. من دستور زیر را در SAS دارم: `proc mixed data=flowcyt class count comp species; سلول های مدل = comp|گونه / outp=resid1 ddfm=kr; تکراری / group=comp; lsmeans comp / pdiff adjust=tukey cl; خروجی ods diffs=ppp lsmeans=mmmm; اجرا;` اما با این تفاوت ها را بر اساس نوع سلول (اعم از تعداد سلول کل یا تعداد سلول های دست نخورده) دریافت نمی کنم. بنابراین، من زیر را نوشتم: `proc mixed; تعداد کلاس tpt comp; سلول های مدل= tpt|comp /ddfm=kr; شمارش تصادفی؛ lsmeans tpt|comp/pdiff; کنتراست 'LAS - Ctr' Comp -1 0 -1 0 2 0; کنتراست 'LAA - Ctr' Comp 1 1 1 -1 -1 -1; کنتراست 'Sor - Ctr' Comp 0 0 0 0 1 -1; اجرا کنید؛ با این حال، من تفاوت بین گونه ها را درک نمی کنم. از این رو، من در مورد استفاده از GLM فکر کردم، اما اگر آن را مانند نحو بالا بنویسم، تفاوت ها را در هر سطح دریافت می کنم و باید مجموعه داده را جدا کنم. `گونه های کلاس proc glm; سلول های مدل= comp; به معنی comp/snk duncan scheffe; اجرا؛ خروج؛` با موارد زیر یک خروجی بزرگ دریافت می کنم که مطمئن نیستم درست باشد: `proc glm; کلاس گونه شمارش tpt comp; سلول های مدل= tpt|comp|species; معنی tpt|comp|species/ snk scheffe duncan ; اجرا؛ در نهایت، من این را امتحان کردم: `proc mixed data= flowcyt covtest; کلاس گونه comp tpt; سلول های مدل= comp|tpt/ddfm= kr; تکرار tpt/ موضوع=نوع نوع=cs; lsmeans tpt|comp/ pdiff; اجرا؛ ترک؛ و باز هم، من نمی توانم تفاوت در تعداد سلول ها را در میان گونه های باکتریایی دریافت کنم. من در این لحظه در تضاد هستم و فکر می کنم کمی گیر کرده ام. آیا کسی می‌داند که دستور درستی برای دریافت تفاوت در تعداد سلول‌ها در بین 3 گونه باکتری در هر نقطه زمانی و تعیین اینکه تعداد سلول‌ها تفاوت قابل توجهی با تیمار شاهد ندارد، چیست؟ با تشکر از وقت شما!
دستور SAS برای یافتن تفاوت ها در مورد یک درمان کنترلی
90049
در پایان نامه خود اثر متقابل معناداری بین دو متغیر داشتم و تأثیر اصلی آنها ناچیز است. متغیری دارای p-value 0.636 B است. متغیر p-value برابر 0.219 A*B دارای p-value 0.022 است. پایان نامه من در مورد ارزیابی تأثیر شیوه های مدیریت کیفیت بر ایجاد دانش در یک شرکت دولتی در اردن است. چگونه می توانم این نتیجه را توضیح دهم؟؟؟
چگونه می توانم اثر تعامل را در نتایج سطح پاسخ خود تفسیر کنم؟
29617
_توجه: این سوال یک ارسال مجدد است، زیرا سوال قبلی من به دلایل قانونی باید حذف می شد. تفاوت های گیج کننده به طور خاص، درجات آزادی در آزمون‌های مختلف بین «PROC MIXED» و «lme» متفاوت است، و من تعجب کردم که چرا. از مجموعه داده زیر شروع کنید (کد R داده شده در زیر) : * ind : عاملی که نشان دهنده فردی است که اندازه گیری در آن انجام شده است * fac : اندامی که در آن اندازه گیری انجام می شود * trt : عامل نشان دهنده درمان * y : برخی از متغیرهای پاسخ مداوم ایده این است که مدل های ساده زیر را بسازید: `y ~ trt + (ind)` : `ind` به عنوان یک فاکتور تصادفی `y~ trt + (fac(ind))` : «fac» در «ind» به‌عنوان یک عامل تصادفی تودرتو شده است توجه داشته باشید که آخرین مدل باید باعث تکینگی‌ها شود، زیرا برای هر ترکیب «ind» و «fac» تنها 1 مقدار «y» وجود دارد. **مدل اول** در SAS، مدل زیر را می سازم: PROC MIXED data=Data; CLASS ind fac trt; MODEL y = trt /s; تصادفی ind /s; اجرا؛ طبق آموزش‌ها، همان مدل در R با استفاده از «nlme» باید به صورت : > require(nlme) > options(contrasts=c(factor=contr.SAS,ordered=contr.poly)) > m2<-lme باشد. (y~trt,random=~1|ind,data=داده) هر دو مدل تخمین های یکسانی را برای ضرایب و SE آنها ارائه می دهند، اما هنگام انجام یک آزمون F برای اثر «trt»، آنها از مقدار متفاوتی از درجات آزادی استفاده می‌کنند: SAS: نوع 3 آزمایش‌های جلوه‌های ثابت اثر Num DF Den DF F مقدار Pr > F trt 1 8 0.89 0.3724 R: > anova(m2) numDF denDF F- مقدار p-value (Intercept) 1 8 70.96836 <.0001 trt 1 6 0.89272 0.3812 _Question1:_ تفاوت بین هر دو تست چیست؟ هر دو با استفاده از REML نصب شده اند و از کنتراست های یکسانی استفاده می کنند. توجه: من مقادیر مختلفی را برای گزینه DDFM= امتحان کردم (از جمله BETWITHIN که از نظر تئوری باید همان نتایج lme را بدهد) **مدل دوم** در SAS: PROC MIXED data=Data; CLASS ind fa trt; MODEL y = trt /s; RANDOM fac(ind) /s; اجرا؛ مدل معادل در R باید این باشد: > m4<-lme(y~trt,random=~1|ind/fac,data=data) در این مورد، چند تفاوت بسیار عجیب وجود دارد: * R بدون شکایت مناسب است، در حالی که SAS اشاره می کند که هسین نهایی قطعی مثبت نیست (که من را کمی شگفت زده نمی کند، در بالا ببینید) * SE در ضرایب متفاوت است (کوچکتر است در SAS) * مجدداً، آزمون F از مقدار متفاوتی از DF استفاده کرد (در واقع، در SAS این مقدار = 0) خروجی SAS : Effect trt Estimate Std Error DF t Value Pr > |t| Intercept 0.8863 0.1192 14 7.43 <.0001 trt Cont -0.1788 0.1686 0 -1.06. خروجی R : > summary(m4) ... جلوه‌های ثابت: y ~ trt Value Std.Error DF t-value p-value (Intercept) 0.88625 0.1337743 8 6.624963 0.0002 trtCont -0.1718905 -0.1718950. 0.3812 ... (توجه داشته باشید که در این مورد، آزمون F و T معادل هستند و از یک DF استفاده می کنند.) جالب اینجاست که هنگام استفاده از `lme4` در R، مدل حتی مطابقت ندارد: > require(lme4) > m4r < - lmer(y~trt+(1|ind/fac)،data=data) خطا در تابع (fr، FL، start، REML، verbose): شماره سطوح یک عامل گروه بندی برای اثرات تصادفی باید کمتر از تعداد مشاهدات باشد _سوال 2_: تفاوت این مدل ها با عوامل تو در تو چیست؟ آیا آنها به درستی مشخص شده اند و اگر چنین است، چگونه نتایج اینقدر متفاوت است؟ * * * داده های شبیه سازی شده در R : داده <- ساختار(لیست(y = c(1.05، 0.86، 1.02، 1.14، 0.68، 1.05، 0.22، 1.07، 0.46، 0.65، 0.41، 0.82، 0.41، 0.81، 0.41، 0.81، 0.5، 0.6 ) ind = ساختار(c(1L, 2L, 3L, 1L, 3L, 4L, 4L, 2L, 5L, 6L, 7L, 8L, 6L, 5L, 7L, 8L), .Label = c(1, 2 ، 3، 4، 5، 6، 7، 8)، کلاس = عامل)، fac = ساختار (c(1L، 1L، 1L، 2L، 2L، 1L، 2L، 2L، 2L، 1L، 1L، 1L، 2L، 1L، 2L، 2L)، .Label = c(l، r) , class = factor)، trt = ساختار (c(2L, 2L, 2L, 2L, 2L, 2L, 2L، 2L، 1L، 1L، 1L، 1L، 1L، 1L، 1L، 1L)، .Label = c(Cont، Treat), class = factor))، .Names = c(y ، ind، fac، trt)، row.names = c(NA، -16L)، class = data.frame) داده های شبیه سازی شده : y ind fac trt 1.05 1 l Treat 0.86 2 l Treat 1.02 3 l Treat 1.14 1 r Treat 0.68 3 r Treat 1.05 4 l Treat 0.22 4 r Treat 1.05 2 r6 ادامه 0.41 7 لیتر ادامه 0.82 8 l ادامه 0.60 6 r ادامه 0.49 5 لیتر ادامه 0.68 7 r ادامه 1.55 8 r ادامه
تفاوت بین PROC Mixed و lme / lmer در R - درجه آزادی
111824
متغیر جدیدی را در نظر بگیرید که ترکیبی خطی از متغیرهای اصلی است (به عنوان مثال یکی از اجزای اصلی). چگونه می توانیم بفهمیم که کدام متغیرهای اصلی متغیر جدید را محصول می کنند؟
PCA: کدام متغیرهای اصلی برای ساخت یک متغیر جدید استفاده می شوند؟
103405
برای فرآیند AR(1) $x_t = \delta + \phi x_{t-1} + \eta_t$، من سعی می کنم ثابت کنم که واریانس این است: $\sigma_x^2 = \sigma_\eta^2/( 1-\phi^2)$ و اینکه کوواریانس مرتبه اول این است: $\gamma_{1,x} = \phi \sigma_x^2$. من دستکاری های زیادی را امتحان کردم اما موفق نشدم. من این احساس را دارم که هنوز شکل درستی را پیدا نکرده ام که باید قبل از انتظارات، روند را بنویسم. کسی میتونه لطفا کمک کنه؟ پیشاپیش ممنون
اثبات بیان واریانس AR(1)
25949
من ویدیوهای دوره رایگان یادگیری ماشین آنلاین Andrew Ng را در استنفورد مرور می کنم. او از Gradient Descent به عنوان الگوریتمی برای حل رگرسیون خطی و نوشتن توابع در اکتاو برای انجام آن بحث می کند. احتمالاً می‌توانم آن توابع را در R بازنویسی کنم، اما سؤال من این است که آیا تابع lm() از قبل خروجی رگرسیون خطی را به من نمی‌دهد؟ چرا من می خواهم تابع نزول گرادیان خود را بنویسم؟ آیا مزیتی وجود دارد یا صرفاً به عنوان یک تمرین یادگیری است؟ آیا lm() نزول گرادیان انجام می دهد؟
نزول گرادیان در مقابل تابع lm() در R؟
25942
این یک سوال نسبتاً اساسی است: اگر تعدادی از مدل‌های رگرسیون از نظر تناسب با یک مجموعه داده ارزیابی شوند و هر مدل دارای 3 متغیر باشد، آیا AIC و R-square مدل‌ها را به طور مشابه رتبه‌بندی می‌کنند؟ من فرض می‌کنم که پاسخ مثبت است، زیرا جنبه جریمه AIC برای متغیرهای اضافه شده مشکلی نیست. اما، من مشخص نیست که آیا این همیشه مورد است. با تشکر
اگر تعداد متغیرها برابر باشد آیا AIC و R-square مدل ها را به طور مشابه رتبه بندی می کنند؟
87809
فرض کنید من یک مجموعه داده «کاتتر کلیه» دارم. داده ها در مورد زمان عود عفونت، در محل قرار دادن کاتتر، برای بیماران کلیوی با استفاده از تجهیزات دیالیز قابل حمل است. کاتترها ممکن است به دلایلی غیر از عفونت برداشته شوند، در این صورت مشاهده سانسور می شود. هر بیمار دقیقا 2 مشاهده دارد. من می خواهم یک مدل زمان شکست تسریع شده را با اثر تصادفی (شکنندگی) جا بدهم. با استفاده از کد R بسته بقای داخلی `survreg()`، می توانم این کار را به این صورت انجام دهم. _مدل Log-normal AFT با شکنندگی گاوسی:_ `mopdel1 <- survreg(Surv(زمان، وضعیت)~ سن+ جنس+ frailty.gaussian(id)، dist=lognormal، کلیه)` _مدل AFT نرمال Log با شکنندگی گاما: _ model2 <- survreg(Surv(زمان، وضعیت) ~ سن+ جنس+ frailty.gamma(id), dist=lognormal, کلیه) آیا واریانس اثر تصادفی این دو مدل درست است؟ آنها از کدام روش تخمین برای یافتن واریانس اثر تصادفی استفاده می کنند؟
مدل AFT با شکنندگی برای داده های طول عمر سانسور شده مناسب
72412
من امیدوارم که ES از 20 مطالعه را به دست بیاورم که هر کدام دارای درمان قبل و بعد از دارونما هستند (یعنی آیا راهی برای به دست آوردن ES از طریق تفاوت در میانگین بین دو گروه وجود دارد و پس از آن تمام 20 مطالعه را ترکیب کرد تا به نتیجه برسد. کل ES). من داده هایی دارم که شامل میانگین برای هر دو گروه قبل و بعد، انحراف استاندارد هر 4 و تعداد هر گروه است. برنامه زیر برای استفاده عالی است: http://gemini.gmu.edu/cebcp/EffectSizeCalculator/d/mean-gain-scores-pre- post-r.html تنها مشکل این است که من باید ضریب همبستگی را بدست بیاورم. آیا می توانم از این برنامه دیگر برای ارزیابی r بین قبل و بعد از درمان به جای r برای درمان در مقابل کنترل استفاده کنم؟ http://gemini.gmu.edu/cebcp/EffectSizeCalculator/r/means-and-standard- deviations.html با تشکر از بازخورد.
متاآنالیز مقایسه تفاوت بین گروه قبل و بعد از درمان در مقابل گروه قبل و بعد از کنترل / دارونما
76970
من در حال تجزیه و تحلیل داده‌هایی بوده‌ام که پاسخ شامل دسته‌های مرتب شده (6) آسیب به سازه‌ها، با تعدادی پیش‌بینی‌کننده آسیب است، بنابراین از رگرسیون چند جمله‌ای استفاده کرده‌ام. با این حال، مدل را می توان بهبود بخشید. من می دانم که احتمال قرار گرفتن یک سازه در سطح آسیب 6 بر سطوح آسیب کمتر تأثیر خواهد داشت. این به این دلیل است که سطح آسیب 6 مربوط به فروریختن سازه است که اجزای آن تبدیل به پرتابه می شوند که بیشتر اوقات بر سایر سازه ها تأثیر می گذارد. مشکل من این است که نمی دانم چگونه این اطلاعات را در مدل لحاظ کنم. من در مورد استفاده از چیزی مانند، p(ds=DSi ¦ DSn=1) برای هر سطح آسیب قبلی فکر کردم؟ DSn آخرین حالت آسیب است، فروپاشی. اما چگونه می توان این را در GLM پیاده سازی کرد؟ یا شاید راه دیگری برای انجام این کار با هم وجود داشته باشد. برخی از نکات بسیار قدردانی می شود!
تخمین احتمال شرطی در رگرسیون چند جمله ای؟
67214
من یک الگوریتم خودکار تقسیم‌بندی کبد ایجاد کرده‌ام و مرحله بعدی اعتبارسنجی روش است. من 16 امتحان با میانگین 40 برش دارم و اکنون شک من این است که چه تعداد از این برش ها تکنسین دارند تا با الگوریتم من مقایسه کنند. من در مورد تست فرضیه خوانده ام، اما نمی توانم بفهمم که چگونه متغیرهای آن را محاسبه کنم، این لینک از منبع آزمون است. http://circ.ahajournals.org/content/114/10/1078.full#disp-formula-6 این معادله است، ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/972o9 .png)
اندازه نمونه برای اعتباربخشی تقسیم بندی
87807
آیا نتیجه‌ای وجود دارد که نشان دهد مجموع Wishart مستقل با درجات آزادی یکسان اما ماتریس‌های مقیاس متفاوت، Wishart است؟ به عنوان مثال، اگر من دو متغیر تصادفی داشته باشم: $$ Y \sim W_p(n,\sigma_1)\ \\\ X \sim W_p(n, \sigma_2)، $$ که $p$ بعد ماتریس ها است، $Y+X$ برابر با $W_p(n، \sigma_1 + \sigma_2)$ باشد؟
مجموع Wishart مستقل با درجات آزادی یکسان اما ماتریس های مقیاس متفاوت
87808
من متوجه شدم که سوالات زیادی در مورد مارکوف در اینجا وجود دارد، اما همانطور که به زبان هلندی می گوییم، من نتوانستم سه نفر را در جنگل ببینم. من دنباله ای از فواصل بین نت های بعدی (پیچ ها) دارم. مانند: 2 -3 -1 0 2 3 و غیره من گمان می کنم که بازه بعدی نه تنها به بازه قبلی بستگی دارد، بلکه فرض کنید به دو بازه قبلی نیز بستگی دارد. (بعداً، من ممکن است به فواصل زمانی که در همان زمان رخ می دهد نگاه کنم، بنابراین صداهای دیگر). آیا مارکوف هنوز برای این کار مناسب است؟ یا به طور خاص مارکوف پنهان درست است؟ یا باید از روشی کاملا متفاوت استفاده کنم؟ چگونه می توانم در مورد این اقدام کنم؟ من نمی توانم فقط اتفاقات فواصل را برای ایجاد TM خلاصه کنم. آیا باید یک ویژگی جعلی ایجاد کنم که دو بازه بعدی باشد؟ آیا نرم افزاری وجود دارد که به من کمک کند این کار را به راحتی انجام دهم؟ من کتاب R را دارم، بنابراین می توانم به آن بپردازم. اما می‌خواستم قبل از اینکه به جزئیات بیشتر نگاه کنم، در مورد رویکردم و راه‌حل‌های ساده‌تر ممکن مطمئن شوم. من همچنین دارم این مقدمه بسیار جالب را می خوانم، اما مغز من قبل از اینکه خیلی عمیق به ریاضیات بپردازم، یک توضیح ساده و ساده می خواست.
مدل مارکوف برای سری های زمانی، برمی گردد به دوره های n؟
73896
داشتم یادداشت‌های آنلاین پن استیت را مرور می‌کردم و متوجه این عبارت شدم: $ v^2 = \frac{1}{n} \sum_{i=1}^n (y_i - \bar{y})^2$ در خط در زیر آن بیان کردند که $E[v^2] = (1 - \frac{1}{n})\sigma^2$. میخواستم بدونم چطور میتونی اینو بگیری؟ آیا اشتباه است که بگویم از آنجایی که $\sum_{i=1}^n (y_i - \bar{y})^2 = (n-1)s^2$، $E[v^2] = E[\frac{(n-1)s^2}{n}] = (1 - \frac{1}{n})\sigma^2$ ? اما این خط استدلال من را مجبور می کند که فرض کنم $E[s^2] = \sigma^2$ و من حتی نمی دانم چرا این درست است.
استفاده از انتظار برای تشخیص سوگیری
109068
من از یک شبیه‌ساز تصویر کهکشانی استفاده می‌کنم که یک هیستوگرام دوبعدی ارائه می‌کند که تعداد فوتون‌ها در هر پیکسل (bin) $N$ را دارد. من در حال حاضر از یک باقیمانده حداقل مربعات استفاده می کنم: $\sum_{bin}(f_{data}-f_{model})^2$ برای برازنده (الگوریتم Levenberg-Marquardt) تا پارامترهای خاصی از این تصویر را تقریب بزنم. این تناسب حداقل مربعات بر عدم قطعیت در هر سطل تقسیم نمی شود. حالا وقتی تصمیم گرفتم عدم قطعیت در هر سطل را با $\sqrt{N}$ تقریب بزنم مانند: $\sum_{bin}\frac{(f_{data}-f_{model})^2}{\sqrt{N }}$ سپس باید در سطل هایی که حاوی صفر ورودی هستند بر صفر تقسیم کنم. روشی که من این مشکل را برطرف می کنم این است که خطا را برابر با 1 می کنم. با استفاده از این فرم، بایاس های منفی برای زیر مجموعه ای از پارامترهایم دریافت می کنم. چگونه می توانم این را برطرف کنم؟ و همانطور که یک نظر اشاره کرد، معادله دوم مقدار خی دو نیست؟
نحوه تقریبی خطا در Chi-Squared Fit زمانی که تعداد bin صفر است
23479
من تعجب می کنم که چرا هنگام مدل سازی خطا از فرض گاوسی استفاده می کنیم. در دوره آموزش زبان استنفورد، پروفسور Ng اساساً آن را به دو صورت توصیف می کند: 1. از نظر ریاضی راحت است. (مرتبط با برازش حداقل مربعات است و حل آن با شبه وارون آسان است) 2. با توجه به قضیه حد مرکزی، ممکن است فرض کنیم که حقایق اساسی زیادی وجود دارد که بر فرآیند تأثیر می گذارد و مجموع این خطاهای فردی مانند یک صفر میانگین توزیع نرمال در عمل به نظر می رسد که چنین است. من واقعاً به قسمت دوم علاقه دارم. تا آنجایی که من می‌دانم قضیه حد مرکزی برای نمونه‌های iid کار می‌کند، اما نمی‌توانیم iid بودن نمونه‌های زیربنایی را تضمین کنیم. آیا نظری در مورد فرض گاوسی خطا دارید؟
چرا فرض می کنیم که خطا به طور معمول توزیع شده است؟
72415
فرض کنید $X$ یک متغیر تصادفی با مقدار مورد انتظار $\mu$ و واریانس $\sigma^2$ باشد. مقدار و واریانس مورد انتظار $Y = \frac{X−\mu}{\sigma}$ را پیدا کنید. من می‌خواهم پیشرفت‌هایی را که تاکنون انجام داده‌ام نشان دهم، اما صادقانه بگویم در چند روز گذشته به این مشکل فکر می‌کردم اما نمی‌دانم از کجا شروع کنم. هر گونه اشاره یا بینش در مورد یک نقطه شروع بسیار قدردانی خواهد شد. با تشکر
ارزش و واریانس مورد انتظار نظری
111836
در R، با استفاده از بسته lme4، من از 2 مدل ترکیبی زیر برای تعیین برهمکنش معنی دار بین یک متغیر کمکی (مستمر، به طور معمول توزیع شده) و یک عامل (سه سطح: گیاهخواران، گیاهان، شکارچیان) استفاده کرده ام: test1 <- lmer( mode ~ sr * func.group + (1|community)، data=nr.test، REML=FALSE) test2 < -lmer( mode ~ sr + func.group + (1|community), data=nr.test, REML=FALSE) anova(test1, test2) داده: nr.test مدل ها: test2: mode ~ sr + func.group + (1 | انجمن) test1: حالت ~ sr * func.group + (1 | انجمن) Df AIC BIC logLik Chisq Chi Df Pr(>Chisq) nr.test2 6 77.458 82.093 -32.729 nr.test1 8 62.570 68.751 -23.285 18.887 2 7.919e-05 *** من آشکارا رابطه متقابل را برای هر سطح و هر سطح از سه سطح مثبت ترسیم کردم. عبور از روی یکدیگر (یعنی متفاوت سطوح شیب شیب). با این حال، من می‌خواهم بتوانم تشخیص دهم که کدام سطح از فاکتورها به طور قابل توجهی با یکدیگر متفاوت است و کدام یک نیز به طور قابل توجهی با مقدار شیب صفر متفاوت است (یعنی کدام شیب‌ها قابل توجه هستند). من بسته R phia را نصب کردم و از دستور testInteractions(test1, pairwise=func.group, slope=sr) استفاده کردم و خروجی زیر را دریافت کردم: شیب تنظیم شده برای sr Chisq Test: روش تنظیم P-value: holm مقدار Df Chisq Pr(> Chisq) گیاهخوار-گیاه 0.11878 1 4.3061 0.03798 * گیاهخوار-شکارچی 0.40567 1 65.3283 1.902e-15 *** plant-predator 0.28689 1 30.3474 7.224e-08. بدانید کدام ها تفاوت قابل توجهی با صفر دارند، و چگونه می توانم این را گزارش کنم؟
برهمکنش مدل مختلط (متغیر + عامل): چگونه خروجی جدول posthoc را در بسته R phia تفسیر کنیم؟
25941
یک محقق مایل است تجزیه و تحلیل ترکیبی از چندین مجموعه داده را تولید کند. در برخی از مجموعه داده ها مشاهدات زوجی برای درمان A و B وجود دارد. در برخی دیگر داده های A و/یا B جفت نشده وجود دارد. من به دنبال مرجعی برای انطباق آزمون t، یا برای آزمون نسبت احتمال، برای چنین داده های تا حدی جفت شده هستم. من مایلم (در حال حاضر) نرمال بودن را با واریانس مساوی فرض کنم و میانگین جامعه برای A برای هر مطالعه یکسان است (و به همین ترتیب برای B).
آزمون t برای داده های جزئی جفت شده و تا حدی جفت نشده
76978
من چندین هزار آزمایش را روی یک مجموعه داده ژنومی انجام می دهم (آزمون Mann Whitney U). با این حال، تنوع زیادی در حجم نمونه برای هر آزمون وجود دارد (در هر آزمون تعداد اندازه‌گیری‌ها (مستقل) بین 4 تا 20 با مقادیر پرت تا 75 متغیر است). من می‌دانم که تست‌هایی با اندازه‌گیری‌های بیشتر (نمونه‌ها) قدرت بیشتری دارند و احتمال بیشتری برای زنده ماندن از آزمایش‌های چندگانه دارند (من در حال حاضر از FDR استفاده می‌کنم). (یعنی فهرست به دست آمده نسبت به مناطقی با حجم نمونه بزرگتر تعصب دارد) با این حال، یک بازبین به من اشاره کرد که جدا از این سوگیری، مقادیر p قابل مقایسه نیستند و نمی توان از روش های تنظیم استاندارد مانند FDR استفاده کرد. اصلا من تعصب را درک می کنم، اما اگر آن را بپذیرم (و آن را در تفسیر نتایج به طور گسترده توصیف کنم)، مشکلی نمی بینم.
تصحیح برای آزمایش های متعدد با حجم نمونه نابرابر
87800
به خوبی شناخته شده است که یک مطالعه با قدرت آماری پایین شانس کمتری برای تشخیص یک اثر واقعی دارد. اما اگر توان کم احتمال اینکه یک نتیجه از نظر آماری معنی‌دار یک اثر واقعی را منعکس کند نیز کاهش می‌دهد (همانطور که در شکست برق نشان داده شده است: چرا حجم نمونه کوچک قابلیت اطمینان علوم اعصاب را تضعیف می‌کند)، چرا تنها زمانی که نتایج غیرمعنادار هستند، قدرت آماری را گزارش می‌کنند؟ از آنجایی که هنوز نمی توانم نظر بدهم، سوالم را در پاسخ به @Glen_b و @Penguin_Knight ویرایش کردم: باید به جای گزارش می گفتم بحث! البته باید محاسبه توان را از قبل انجام داد. اما سوال من واقعاً این است: چرا افرادی که مقدار p کوچک را با قدرت آماری پایین دریافت می‌کنند، یافته‌های خود را تعدیل نمی‌کنند؟
چرا تنها زمانی که نتایج غیر قابل توجه هستند، قدرت آماری را گزارش می کنند؟
25940
من سعی می کنم کد پایتون خودم را بنویسم تا آمار t و p-values ​​را برای تست های t مستقل یک و دو دنباله محاسبه کنم. من می توانم از تقریب معمولی استفاده کنم، اما در حال حاضر سعی می کنم فقط از توزیع t استفاده کنم. من در تطبیق نتایج کتابخانه آمار SciPy با داده های آزمایشم ناموفق بوده ام. می توانم از یک جفت چشم تازه استفاده کنم تا ببینم آیا در جایی دارم اشتباه احمقانه ای انجام می دهم یا خیر. توجه داشته باشید، این یک سوال برنامه نویسی نیست، بلکه این است که چرا این محاسبه آمار t مناسب را به دست نمی دهد؟ من کد را برای کامل بودن می دهم، اما توقع مشاوره نرم افزاری نداشته باشید. فقط به درک اینکه چرا این درست نیست کمک کنید. کد من: وارد کردن numpy به عنوان np واردات scipy.stats به عنوان st def compute_t_stat(pop1,pop2): num1 = pop1.shape[0]; num2 = pop2.shape[0]; # فرمول t-stat هنگامی که واریانس جمعیت متفاوت است. t_stat = (np.mean(pop1) - np.mean(pop2))/np.sqrt( np.var(pop1)/num1 + np.var(pop2)/num2 ) # اضافه شده: درجه آزادی ولش-ساتروایت . df = ((np.var(pop1)/num1 + np.var(pop2)/num2)**(2.0))/( (np.var(pop1)/num1)**(2.0)/(num1-1 ) + (np.var(pop2)/num2)**(2.0)/(num2-1) ) # آیا من این را اشتباه محاسبه می کنم؟ # باید فقط از CDF اینطوری بیاید، درست است؟ # پارامتر اضافی درجات آزادی است. one_tailed_p_value = 1.0 - st.t.cdf(t_stat,df) two_tailed_p_value = 1.0 - ( st.t.cdf(np.abs(t_stat),df) - st.t.cdf(-np.abs(t_stat),df ) ) # محاسبات با داخلی های SciPy # نتایج من با آنها مطابقت ندارد. t_ind, p_ind = st.ttest_ind(pop1, pop2) return t_stat, one_tailed_p_value, two_tailed_p_value, t_ind, p_ind **بروزرسانی:** بعد از مطالعه کمی بیشتر در مورد آزمون t Welch، دیدم که باید از Welch- استفاده کنم. فرمول Satterthwaite برای محاسبه درجه آزادی. من کد بالا را به روز کردم تا این موضوع را منعکس کند. با درجات جدید آزادی، به نتیجه نزدیک تری می رسم. مقدار p دو طرفه من تقریباً 0.008 نسبت به نسخه SciPy کاهش یافته است... اما این هنوز یک خطای بسیار بزرگ است، بنابراین من هنوز باید کاری را اشتباه انجام دهم (یا عملکردهای توزیع SciPy بسیار بد هستند، اما باورش سخت است آنها فقط تا 2 رقم اعشار دقیق هستند). **به روز رسانی دوم:** در حالی که به امتحان کردن چیزها ادامه می دادم، فکر کردم که شاید نسخه SciPy به طور خودکار تقریب Normal را به توزیع t محاسبه می کند که درجات آزادی به اندازه کافی بالا باشد (تقریبا > 30). بنابراین من دوباره کدم را با استفاده از توزیع Normal اجرا کردم و نتایج محاسبه شده در واقع از SciPy دورتر از زمانی است که از توزیع t استفاده می کنم.
ردیابی مفروضات ایجاد شده توسط تابع ()ttest_ind SciPy
72410
من در درک این مشکل دارم که چرا به نظر می‌رسد وسط فقط با مدل‌های خطی ساده کار می‌کند و به عنوان مثال با splines کار نمی‌کند. من از مرکز برای گزارش تفاوت‌های گروهی در $x$ مختلف، اما همچنین مقادیر آماری (بدون توجه به مقایسه‌های متعدد در حال حاضر) استفاده می‌کنم. set.seed(1) # شبیه سازی داده N <- 10 x <- rep(seq(0.2,1,0.2),N) group <- factor(rep(c(','II'),each=length (x)/N)) y <- -x^2 + 2*x*as.numeric(گروه) + rnorm(طول(x)،mean=0،sd=0.1) d <- data.frame(group,x,y) # متناسب با یک مدل خطی با تعامل x-group l <- lm(y~x*group,data=d) d$lmfit <- fitted(l) coef(l )['groupII'] # تفاوت گروه در x==0 # groupII # -0.1097071 کتابخانه(ggplot2) ggplot(d,aes(x,y,colour=group)) + geom_point() + geom_line(aes(x,lmfit,colour=group)) نمودار تفاوت گروه کوچک گزارش شده groupII 0.05 در $x= را تایید می کند. 0$ اگر بخواهیم به 0 برنگردیم. حالا اجازه دهید داده ها را در $x=1$ متمرکز کنیم و تفاوت گروه را در آنجا تخمین بزنیم. # مرکز داده در x==1 و تنظیم مجدد l <- lm(y~I(x-1)*group,data=d) coef(l)['groupII'] # تفاوت گروه در x==1 # groupII # 2.08525 در توافق با نمودار، تفاوت حدود 2 است. حال اجازه دهید یک مدل اسپلاین را بسازیم. # مطابقت داده با کتابخانه splines (splines) l <- lm(y~ns(x,2)*group,data=d) d$lmsplinefit <- fitted(l) coef(l)['groupII'] # تفاوت گروه در x==0.2 # groupII # 0.2987893 # مقایسه با: d$lmsplinefit[6] - d$lmsplinefit[1] ggplot(d,aes(x,y,colour=group)) + geom_point() + geom_line(aes(x,lmsplinefit,colour=group)) جالب توجه است که spline fit تفاوت گروه را در اولین $x$ گزارش می‌کند. $x=0.2$. اگر سعی کنیم روی $x=1$ متمرکز شویم، همان نتیجه را می‌گیریم، یعنی تفاوت در $x=0.2$. l <- lm(y~ns(I(x-1),2)*group,data=d) coef(l)['groupII'] # نتیجه مشابه داده‌های بدون مرکز، یعنی 0.2987893 چرا اینطور است؟ و آیا راهی برای نشان دادن تفاوت گروه در $x$ متفاوت وجود دارد؟ Btw، وسط $x$ به صورت دستی قبل از تناسب مدل تفاوتی ایجاد نمی کند.
مرکز کردن هنگام استفاده از splines در R
76979
آیا هیچ جایگزین نظری اطلاعاتی برای آزمون هایپرهندسی (یا آزمون دقیق فیشر) وجود دارد؟ به عبارت دیگر، آیا می توان مقادیر AIC را برای داده هایی که به طور کلاسیک با این آزمون ها تجزیه و تحلیل می کند، محاسبه کرد؟
جایگزینی نظری اطلاعات برای آزمون هایپرهندسی
35332
فرض کنید من داده های تابلویی دارم (یعنی داده های سری زمانی و مقطعی). فاکتورها باعث افزایش حجم داده ها و همچنین مقداری نویز می شوند. طبیعتاً می توانم این ساختار عاملی را با استفاده از یک ماتریس کوواریانس - یا مجموعه ای از بردارهای ویژه و مقادیر ویژه متناظر، بیان کنم. من می‌خواهم یک مجموعه داده پانل جدیدی ایجاد کنم که برخی از عوامل خاص (یا همه) حذف شده باشد (یعنی غیرعملکرد). راه خوبی برای انجام این کار در R چیست؟ ترجیح من استفاده از تحلیل عاملی به جای PCA است.
تکنیک حذف ساختار عاملی از داده های تابلویی
76974
من در حال ساخت یک مدل لاجیت پیش‌بینی هستم **برای یک رویداد نادر** با استفاده از اعتبارسنجی متقاطع 5 برابری. من سه سال اطلاعات دارم. من یک مدل با مجموعه آموزشی از سال 1 و 2 می سازم، سپس روی مجموعه آزمون با پیش بینی کننده های سال 1 و نتیجه سال 2 آزمایش می کنم. سپس مدل خارج از نمونه را با استفاده از پیش بینی کننده های سال 2 و نتیجه سال 3 آزمایش می کنم. روند من برای ساخت مدل به شرح زیر است: 1. در هر cv-run من یک مدل بر روی داده های آموزشی می سازم. «fit = glm(y ~.، خانواده = دوجمله ای (logit)، داده = قطار) 2. سپس ماتریسی از n x k پیش بینی 0-1 را ذخیره می کنم، که در آن n تعداد مشاهدات و ` k` تعداد آستانه های تبعیض است که من آزمایش می کنم. 3. آمار دقت را با مجموعه آزمون برای همه بردارهای 'k' پیش بینی های 0-1 محاسبه کنید. دو معما وجود دارد: **اول، چرا لاجیت چنین دقت بالایی (با ویژگی بالا و حساسیت کم) را در مجموعه تست سال 2 پیش بینی می کند؟** **دوم، چرا آمار دقت هنگام پیش بینی سال 3 معکوس می شود؟ یعنی، هنگام پیش‌بینی سال 3 از داده‌های سال 2، حساسیت بسیار بالایی دریافت می‌کنم، اما دقت و ویژگی کم - برعکس پیش‌بینی‌های مجموعه آزمایشی.** من متوجه شده‌ام که در _تقریبا_ همه تکرارهای cv، در همه تبعیض‌ها در آستانه، دقت در هنگام پیش‌بینی مجموعه تست همیشه بیشتر از 50 درصد است. **آیا این یک مصنوع از لاجیت است یا چیز دیگری (مثلاً داده‌های رویداد نادر من، انتخاب‌های مدل‌سازی من)؟** این با هر رویکرد دیگری - lasso، OLS، جنگل‌های تصادفی - برای همان رویداد نادر متفاوت است. پیش‌بینی، که در آن آستانه‌های تمایز بسیار پایین، حساسیت بالا، اما دقت پایین و ویژگی کم ایجاد می‌کنند. منظور من از _آستانه تبعیض_ احتمال پیش‌بینی‌شده وقوع رویداد (مقدار برازش logit) است که بالاتر از آن پیش‌بینی می‌کنم که رویداد نادر در دوره زمانی بعدی رخ دهد. با تمام رویکردهای دیگر، من چنین تغییر عمده ای را در مقادیر نسبی سه آمار دقت مشاهده نمی کنم. یعنی با هر روش دیگری، آمار دقت برای پیش‌بینی سال 3 بسیار نزدیک به آمار دقت از پیش‌بینی بر روی مجموعه آزمون است. فقط با لاجیت این دو مجموعه آمار دقت به طور چشمگیری متفاوت هستند. متأسفانه نمی توانم اطلاعات را آپلود کنم. کد R کامل در زیر آمده است. _اما توجه داشته باشید که فکر نمی‌کنم این یک سوال کد باشد، بلکه به رویکرد آماری زیربنایی مربوط می‌شود، به همین دلیل است که من به جای SO در اینجا در CV پست گذاشتم._ #### LOGIT ## بخش #### اجرا کنید مدل اصلی #### Logit # - تقسیم نمونه به k fold # -- * start loop # - متناسب با مدل k بار، هر بار در k-1 folds # - برای k مدل ما n داریم احتمالات پیش بینی شده (n x k ماتریس pred. prob.) # - میانگین pred. پروب از وقوع در مدل های k، صرفه جویی در n بردار طولانی pred. پروب # - از آستانه تبعیض فعلی برای طبقه بندی pred استفاده کنید. پروب به عنوان پیش‌بینی 0، 1 # - این پیش‌بینی‌ها را با مقادیر y مشاهده‌شده مقایسه کنید # -- * حلقه پایانی، این حلقه را برای آستانه‌های تمایز زیادی اجرا کنید ## پارامترهای مدل ROC_seq = seq (از = 0.01، به = 0.3، توسط = 0.01 را تعریف کنید. ) CV.runs = 200 # تعریف ماتریس نگهدارنده برای خروجی نتایج = ماتریس (NA, nrow = CV.runs، ncol = 6) colnames(output) = c(accuracy.rate، true.pos.rate، true.neg.rate، FPTP، FNTP، Treshold ) # پیش‌بینی‌های 2012 را در ماتریس زیر برای هر مدل ذخیره کنید و بعداً آنها را میانگین می‌گیریم # این 200 ردیف است که در آن هر ردیف مجموعه‌ای از پیش‌بینی‌ها برای همه انجمن‌های nrow(data_years2_3) predictions_2012 = ماتریس (NA, nrow = CV.runs, ncol = nrow(data_years2_3)) for(j در 1:CV.runs){ set.seed(06510+j) # set.seed (06511) داده_تصادفی <- data_years1_2[sample(1:nrow(data_years1_2)، nrow(data_years1_2)، replace=FALSE)، ] dim = nrow(data_years1_2) splitID = dim - دور(کم/5) قطار <- data_randomization[1:splitID, ] colnames قطار) = colnames(data_years1_2) تست <- داده_تصادفی سازی[(splitID+1):کم، ] colnames(test) = colnames(data_years1_2) # Remove to unit ID column train = data.frame(train[, -2]) test = data.frame(test[, -2]) #- با استفاده از glmnet nfolds = 10 به طور پیش فرض fit = glm (ytest ~ ., k-fold CV) را اجرا کنید. family=binomial(logit), data = train) pred2010 = fit[[fitted.values]] #define matrix # هر ستون پیش‌بینی‌هایی است که یک آستانه داده می‌شود، در سراسر واحد # هر سطر بردار پیش‌بینی‌های بین آستانه‌ها است. ، با توجه به یک واحد ROC_results = ماتریس (NA، nrow = طول (ROC_seq)، ncol = 6) colnames(ROC_results) = c(accuracy.rate، true.pos.rate، true.neg.rate، FPTP، FNTP، threshold) for(m in 1:length(ROC_seq )){ pred2010_01 = ifelse(pred2010> ROC_seq[m], 1, 0) خطاها = table(train[, 1], pred2010_01) ROC_results[m, 1] <- (errors[1, 1]+errors[2, 2])/sum (errors) #accuracy.rate ROC_results[m, 2] < - (خطاهای[2، 2]/(خطاهای[2، 2]+ خطا
هنگام استفاده از لاجیت برای پیش بینی، پازل نتایج دقت
50074
من رگرسیون را روی امتیازات کل سوژه‌ها از بازی‌های 2 بازیکن (معمای زندانیان) که آنها انجام خواهند داد، انجام خواهم داد. من می دانم که گلزنی هر دو بازیکن از یک بازی باعث ایجاد مشکل به دلیل عدم استقلال خواهد شد. آیا راهی وجود دارد که به غیر از انتخاب تصادفی یک موضوع از هر بازی برای تجزیه و تحلیل (و بنابراین از دست دادن نیمی از داده ها) با این موضوع مقابله کنیم. آیا راهی برای معرفی این به مدل به جای آن، شاید به عنوان یک اثر تصادفی وجود دارد؟
رگرسیون با داده های غیر مستقل
35331
من از یک آزمون جایگشت برای تأیید اهمیت آماری بهبود عملکرد طبقه‌بندی چند طبقه استفاده می‌کنم. چه نقل قولی مناسب خواهد بود؟ آیا استناد به تست های جایگشت: ... توسط فیلیپ گود، 2000 خوب است؟
نقل قول برای تست جایگشت
3835
این مثال از آمار ریاضی: مقدمه یکپارچه (ISBN 9780387227696)، صفحه 58، تحت بخش اصل حداقل مربعات گرفته شده است. من فکر می کنم مشکل من بیشتر به جبر مربوط می شود اما چون این کتاب آمار است، فکر کردم باید اینجا پست کنم... به هر حال، باید k را بر اساس این معادله تخمین بزنم: ![alt text](http://i .stack.imgur.com/JQM6B.png) هدف رسیدن به اینجاست: ![متن جایگزین](http://i.stack.imgur.com/nqyzM.png) من موفق شدم از این مثال پیروی کنم تا زمانی که به دستم رسید اینجا گیر کرده است: ![متن جایگزین](http://i.stack.imgur.com/1Xs42.png) توضیح رسیدن به هدف از بالا به شرح زیر است: ![متن جایگزین](http://i .stack.imgur.com/j2UyX.png) من می دانم چگونه k را بدست بیاورم، اما کاملاً نمی دانم چگونه «میان مدت» حذف شد. لطفا کمک کنید. در صورت نیاز جزئیات بیشتری ارائه خواهم کرد.
تخمین k بر حسب d=kv
92642
من سعی می‌کنم مدل‌های گارچ را مستقیماً با تبدیل موجک تخمین بزنم و پیش‌بینی کنم، اما در مرحله تخمین یک خطای تخمینی دارم محدودیت‌ها: محدودیت‌های مرزی فعال؛ خطاها ممکن است نادرست باشند C در معادله میانگین منهای است و همیشه بهینه سازی پس از 10 تکرار متوقف شد. حدس میزنم دارم کار اشتباهی میکنم اگرچه من مراحل را همانطور که دقیقاً در جعبه ابزار موجک در Matlab ذکر شده است دنبال می کنم. من از SWT با Db5 و سطح 4 استفاده می‌کنم. داده‌های روزانه شاخص سهام که به سری بازدهی ادامه می‌یابد. طول نمونه به اندازه کافی برای گارچ، 4336 مشاهده است و از طریق ابزار توسعه در Matlab (با پسوند ویژه و carful برای SWT در جعبه ابزار موجک) گسترش یافته است. همچنین پس از انجام برنامه افزودنی، داده ها را بررسی کردم تا مطمئن شوم که شکل و ویژگی های سری به طور قابل توجهی تغییر نکرده است.
آیا می توانم مستقیماً با مدل های GARCH از تبدیل موجک ثابت استفاده کنم؟
29616
در تنظیماتی که $X_1,\ldots,X_n$ توزیع شده از توزیعی با چگالی $f$ مشاهده می‌شود، نمی‌دانم که آیا یک تخمین‌گر بی‌طرفدار (بر اساس $X_i$) فاصله هلینگر تا توزیع دیگری وجود دارد. چگالی $f_0$، یعنی $$ \mathfrak{H}(f,f_0) = \left\\{ 1 - \int_\mathcal{X} \sqrt{f(x)f_0(x)} \text{d}x \right\\}^{1/2}\,. $$
آیا برآوردگر بی طرفی از فاصله هلینگر وجود دارد؟
23470
من سعی می کنم با استفاده از SVM پیام ها را به دسته های مختلف طبقه بندی کنم. من فهرستی از کلمات/نمادهای مطلوب را از مجموعه آموزشی گردآوری کرده ام. برای هر بردار که یک پیام را نشان می دهد، ردیف مربوطه را روی '1' تنظیم می کنم اگر کلمه وجود داشته باشد: > corpus is: [mary, little, lamb, star, twinkle] > > first message: mary had a بره کوچک -> [1 1 1 0 0] > > پیام دوم: ستاره کوچک چشمک -> [0 1 0 1 1] من فکر می‌کنم این راه‌اندازی نسبتاً معمولی با SVM است، اما سوال من این است که با هزاران کلمه در مجموعه، چه می شود اگر در هر پیام فقط 1-2 کلمه وجود داشته باشد که واقعاً نشان داده شود؟ آیا وابستگی خطی مجموعه بردارهای آموزشی من بر توانایی الگوریتم برای همگرایی تأثیر منفی می گذارد؟
آیا یک مجموعه آموزشی پراکنده بر SVM تأثیر منفی می گذارد؟
25946
من دو مجموعه داده دارم که پارامترهای ستاره ها را نشان می دهد: یکی مشاهده شده و دیگری مدل سازی شده. با این مجموعه ها چیزی را ایجاد می کنم که به آن نمودار دو رنگ (TCD) می گویند. یک نمونه در اینجا قابل مشاهده است: ![histogramas](http://i.stack.imgur.com/qAOdF.png) **A** داده های مشاهده شده و **B** داده های استخراج شده از مدل ( به خطوط سیاه اهمیتی ندهید، نقطه ها نشان دهنده داده ها هستند) من فقط یک نمودار **A** دارم، اما می توانم هر تعداد نمودار **B** مختلف تولید کنم، و چیزی که نیاز دارم این است که بهترین نمودار را حفظ کنم. مناسب است **الف**. بنابراین چیزی که من نیاز دارم روشی قابل اعتماد برای بررسی خوب بودن تناسب نمودار **B** (مدل) با نمودار **A** (مشاهده شده) است. در حال حاضر کاری که من انجام می دهم این است که یک هیستوگرام دو بعدی یا _grid_ (این چیزی است که من آن را می نامم، شاید نام مناسب تری داشته باشد) برای هر نمودار با قرار دادن هر دو محور (100 سطل برای هر کدام) ایجاد می کنم سپس از هر سلول شبکه عبور می کنم. و من **تفاوت مطلق** را در شمارش بین **A** و **B** برای آن سلول خاص پیدا کردم. پس از بررسی تمام سلول‌ها، مقادیر هر سلول را جمع می‌کنم و بنابراین به یک پارامتر مثبت منفرد می‌رسم که نشان‌دهنده خوبی تناسب ($gf$) بین **A** و **B** است. هر چه نزدیک به صفر باشد، تناسب بهتری دارد. در اصل، این پارامتر به این صورت است: $gf = \sum_{ij} |a_{ij}-b_{ij}|$ ; که در آن $a_{ij}$ تعداد ستاره‌های نمودار **A** برای آن سلول خاص (تعیین شده توسط $ij$) و $b_{ij}$ عدد برای **B** است. این همان چیزی است که تفاوت $(a_{ij}-b{ij})$ در تعداد در هر سلول در _grid_ که من ایجاد می کنم به نظر می رسد (توجه داشته باشید که من از مقادیر مطلق $(a_{ij}-b{ استفاده نمی کنم. ij})$ در این تصویر، اما من هنگام محاسبه پارامتر $gf$ از آنها **استفاده می کنم**: ![hess](http://i.stack.imgur.com/0ZAqy.png) مشکل این است که به من توصیه شده است که این ممکن است تخمین‌گر خوبی نباشد، عمدتاً به این دلیل که به غیر از گفتن _this fit بهتر از این یکی است زیرا پارامتر کمتر است_، واقعاً نمی‌توانم چیزی بیشتر بگویم. * * * ## **مهم**: (با تشکر از @PeterEllis برای مطرح کردن این موضوع) 1- امتیازهای **B** با امتیازهای **A** یک به یک مرتبط نیستند. این نکته مهمی است که هنگام جستجوی بهترین تناسب باید به خاطر داشته باشید: تعداد امتیازات در **A** و **B** لزوماً **یکسان نیست و تست _خوبی تناسب_ نیز باید در نظر گرفته شود. این اختلاف و سعی کنید آن را به حداقل برسانید. 2- تعداد نقاطی که در هر مجموعه داده **B** (خروجی مدل) سعی می کنم بر روی **A** قرار دهم **ثابت نیست**. * * * من تست _**Chi-Squared**_ را دیده ام که در برخی موارد استفاده می شود: $\sum_i (O_i-E_i)^2/E_i$; که در آن $O_i$ فرکانس مشاهده شده (مدل) و $E_i$ فرکانس مورد انتظار (مشاهده) است. اما مشکل این است: اگر $E_i$ صفر باشد چه کار کنم؟ همانطور که در تصویر بالا می بینید، اگر من شبکه ای از آن نمودارها را در آن محدوده ایجاد کنم، تعداد***های زیادی سلول وجود خواهد داشت که $E_i$ در آنها صفر است. همچنین، من خوانده‌ام که برخی افراد آزمایش _**loglihood Poisson** را توصیه می‌کنند تا در مواردی مانند این که هیستوگرام‌ها درگیر هستند، استفاده شود. اگر این درست است، **واقعا** ممنون می شوم اگر کسی بتواند به من در مورد نحوه استفاده از آن تست در این مورد خاص راهنمایی کند (به یاد داشته باشید، دانش من از آمار بسیار ضعیف است، بنابراین لطفاً تا آنجا که می توانید آن را ساده نگه دارید: )
مناسب بودن برای هیستوگرام های دو بعدی
23472
ما مراکز خوشه را پیدا می‌کنیم و نقاط را در سطل‌های مختلف در خوشه‌بندی k-means اختصاص می‌دهیم که یک الگوریتم بسیار ساده است و تقریباً در هر ماده یادگیری ماشینی در شبکه یافت می‌شود. اما بخش کم و مهمتر به نظر من انتخاب k صحیح است. بهترین ارزش برای آن چیست؟ و منظور از گفتن _بهترین_ چیست؟ من از MATLAB برای محاسبات علمی استفاده می کنم و نگاه کردن به نمودارهای silhouette به عنوان راهی برای تصمیم گیری در مورد تعداد صحیح خوشه ها همانطور که در اینجا بحث شده است، ارائه شده است. اما، من بیشتر به رویکردهای بیزی علاقه مند هستم. هر گونه پیشنهاد قدردانی می شود.
چگونه در مورد تعداد صحیح خوشه ها تصمیم گیری کنیم؟
109061
فوریه معمولاً 28 روز دارد، برخلاف همسایگانش ژانویه و مارس که 31 روز دارند. به نظر می‌رسد که اکثر چیزهای قابل شمارش به طور متوسط ​​10 درصد افت در فوریه برای 3 روز از دست رفته نشان می‌دهند. این یک موضوع آمار خالص نیست، اما چیزی است که من به تازگی متوجه شدم. آیا این شناخته شده است؟ آیا تا به حال برای نمودارها تنظیم شده است؟
کاهش 10 درصدی در ماه فوریه برای معیارهایی که مهم هستند؟
92646
این یک سوال اساسی است، اما وقتی در مورد آن از من پرسیده شد، فقط می توانم پاسخ ضعیفی بدهم. برای همین اینجا می پرسم اگر بخواهیم سطح اطمینان را برای میانگین محاسبه کنیم، فرمول وجود دارد: $(\bar{x}-t_{n-1}s_{\bar{x}},\bar{x}+t_{n-1 }s_{\bar{x}})$ می‌دانم که توزیع t زمانی وارد می‌شود که واریانس ناشناخته است و باید تخمین زده شود. بنابراین این فرض که میانگین های نمونه به طور معمول توزیع شده اند نقض می شود. میانگین نمونه از توزیع t پیروی می کند. اما چرا؟ برای من یک نکته از دست رفته یا حداقل برای من شهودی نیست.
چرا توزیع t در سطح اطمینان برای میانگین؟
32641
آیا بسته R برای رگرسیون محدود وجود دارد که هم رابط فرمول و هم روش «پیش‌بینی» داشته باشد؟ دو گزینه موجود عبارتند از pcls از mgcv و nnls از nnls، اما به نظر می‌رسد هیچ‌کدام رابط فرمول یا روش پیش‌بینی ندارند.
آیا یک بسته R برای رگرسیون محدود وجود دارد که هم فرمول و هم رابط پیش بینی شبیه به lm() و glm() داشته باشد؟
29611
من مبتدی در تجزیه و تحلیل بقا هستم، بنابراین در مورد برخی از ایده های اساسی در این زمینه سردرگم هستم. من فکر می‌کنم فرض اساسی در تحلیل بقا این است که زمان رویداد برای یک موضوع را می‌توان با توجه به تمام ویژگی‌های متغیر زمان مرتبط آزمودنی‌ها تخمین زد. بنابراین، در حالت ایده‌آل، اگر بتوانیم در زمان شکست به درستی پسرفت کنیم، می‌توانیم زمان شکست مورد انتظار آزمودنی‌ها را پیش‌بینی کنیم. از آنجایی که رگرسیون سخت است، محققان آن را به مسئله رتبه بندی تبدیل کردند. یعنی می خواهند **آزمودنی ها را با توجه به زمان شکستشان رتبه بندی کنند**. علاوه بر این، عملکرد رتبه بندی با شاخص تطابق (c-index) اندازه گیری می شود. سوال من این است، حتی با یک لیست رتبه بندی کامل (نمره بزرگتر برای زمان بقای طولانی تر)، چگونه می توانیم خطر شکست هر موضوع را در زمان _T_ تعیین کنیم؟ @mbq، @ocram :)
چگونه خروجی تجزیه و تحلیل بقا را تفسیر کنیم؟
32646
من دانشجوی اقتصاد هستم که با تحقیق در SPSS (رگرسیون لجستیک باینری) مشکل دارم. من از 2 مجموعه داده متفاوت با نمونه های مختلف، متغیرهای یکسان استفاده می کنم، هر مجموعه داده نشان دهنده سال متفاوتی است (سال رکود اقتصادی در مقابل سال رکود غیراقتصادی) (SPSS). من می‌خواهم تأثیر IV خود را بر روی DepV خود در هر مجموعه داده بررسی کنم + می‌خواهم هر IV منفرد را برای سال رکود اقتصادی مقایسه کنم تا ببینم آیا تأثیر مهم‌تر یا کوچک‌تری در مقایسه با سال رکود غیراقتصادی وجود دارد یا خیر. **مشکل**: پایگاه داده ای که من داده هایم را از آن گرفتم (NSSBF) در 2 سال از تعاریف مختلف در برخی متغیرها استفاده می کند. هنگام تفسیر نتایج باید این را در نظر داشته باشم. (مثال: 1993: > 50٪ در دست خانواده = شرکت خانوادگی، 2003: 100٪ در دست خانواده = شرکت خانوادگی). اگر مجموعه داده دوم را در مجموعه اول کپی کنم و یک متغیر ساختگی برای سال ایجاد کنم (برای انجام یک اثر تعاملی با IV خود)، دو تعریف مختلف را در IV مخلوط می‌کنم؟. بنابراین تعامل من صحیح است اما تأثیر من بر شرکت های خانوادگی (بدون مقایسه سال ها) نیست. کسی می تواند در این مورد به من کمک کند؟ شما باید مرا به خاطر دانش محدودم در آمار معذرت خواهی کنید، اما من روزها تلاش می کنم تا این یکی را بفهمم. متشکرم
روش مقایسه 2 مدل از سال های مختلف (نه با یک متغیر ساختگی)
29612
من در حال انجام رگرسیون خطی چندگانه هستم. من 21 مشاهده و 5 متغیر دارم. هدف من فقط یافتن رابطه بین متغیرهای 1 است. آیا مجموعه داده های من برای انجام رگرسیون چندگانه کافی است؟ 2. نتیجه آزمون t نشان داد که 3 متغیر من معنی دار نیستند. آیا لازم است دوباره رگرسیون خود را با متغیرهای معنی دار انجام دهم (یا اولین رگرسیون من برای نتیجه گیری کافی است)؟ ماتریس همبستگی من به شرح زیر است var 1 var 2 var 3 var 4 var 5 Y var 1 1.0 0.0 0.0 -0.1 -0.3 -0.2 var 2 0.0 1.0 0.4 0.3 -0.4 -0.4 var 3 0.0 0.4 1.0 -0.7 var. -0.1 0.3 0.7 1.0 -0.7 -0.9 var 5 -0.3 -0.4 -0.7 -0.7 1.0 0.8 Y -0.2 -0.4 -0.6 -0.9 0.8 1.0 var 1 و var 2 متغیرهای ادامه دار هستند و var 3 تا 5 متغیرهای وابسته و دسته بندی من هستند متغیر . **لازم به ذکر است که متغیر مهمی که در ادبیات به عنوان تاثیرگذارترین عامل بر متغیر وابسته من در نظر گرفته شده است نیز به دلیل محدودیت داده در بین متغیرهای رگرسیونی من نیست. آیا انجام رگرسیون بدون این متغیر مهم هنوز منطقی است؟** در اینجا فاصله اطمینان من ضریب رگرسیون متغیرها پایین 95% C.L است. بالای 95% C.L. Intercept 53.61 38.46 68.76 var 1 -0.39 -0.97 0.19 var 2 -0.01 -0.03 0.01 var 3 5.28 -2.28 12.84 var 4 -27.65 -37.04 -15.26 **18.26 -37.04 22.15**
حداقل تعداد مشاهدات برای رگرسیون خطی چندگانه
55240
من روی مجموعه داده‌ای کار می‌کنم که کشتارهای جاده‌ای را مدل‌سازی می‌کند (0 = نقطه تصادفی، 1 = کشته شدن جاده) به عنوان تابعی از تعدادی از متغیرهای زیستگاه. به دنبال Hosmer و Lemeshow، من هر متغیر پیش‌بینی‌کننده پیوسته را برای خطی بودن بررسی کرده‌ام و یک زوج غیرخطی به نظر می‌رسند. من می‌خواهم یک تبدیل چندجمله‌ای کسری را برای هر کدام امتحان کنم، همچنین به دنبال Hosmer و Lemeshow، و به mfp بسته R نگاه کردم، اما در پیدا کردن (و درک) کد R که به درستی متغیر را تبدیل می‌کند، مشکل دارم. . آیا کسی می تواند کد R را پیشنهاد کند که به من کمک کند تا مفاهیم موجود در صفحه را به انجام برسانم. 101 - 102 از رگرسیون لجستیک کاربردی هاسمر و لمشو (2000). با تشکر
نحوه اجرای تبدیل چند جمله ای کسری در R برای رگرسیون لجستیک
35335
آیا می توانم از probit استفاده کنم اگر متغیر وابسته من داده هایی شبیه به این داشته باشد، 1 مورد برابر با 0 و 12 حالت برابر با 1 است؟ با تشکر
تجزیه و تحلیل پروبیت با استفاده از 13 مورد و بررسی توزیع نرمال
55248
من دو سری زمانی دارم، هر دو با طول 100 امتیاز: می‌خواهم خوب بودن تناسب را انجام دهم تا بدانم آیا این دو سری شکل یکسان یا مشابه دارند یا تفاوت قابل توجهی دارند. من در مورد تست K/S برای 1 نمونه مطالعه کرده ام و به نظر می رسد این سری را با توزیع نرمال یا گاوسی مقایسه می کند. من نمی خواهم دو سری خود را با دو شکل استاندارد گاوسی مقایسه کنم، فقط می خواهم بدانم که آیا آنها شبیه هستند یا متفاوت. من این کلاس را برای آزمون K/S پیدا کردم http://www.jsc.nildram.co.uk/api/index.html سوالات من در اینجاست: 1) آزمون K/S دو نمونه بهترین آزمون برای غیر است. تست پارامتریک با series.length()< 150 امتیاز؟ 2) آیا آزمون آماری دیگری برای مقایسه اشکال وجود دارد؟ 3) کلاس jsc جاوا چند روش متفاوت دارد، برای برگرداندن تفاوت سری من باید از کدام یک استفاده کنم؟ با تشکر از همه.
مقایسه اشکال با آزمون کولموگروف اسمیرنوف
91701
![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/OQpth.png) من این داده ها را در بالا رسم کرده ام. متغیر توضیحی سطوح شدت لرزش زمین در مکان‌های مختلف در زلزله را نشان می‌دهد و متغیر پاسخ نشان‌دهنده مقادیر غرامتی است که به ساختمان‌های آسیب دیده تعلق می‌گیرد. من می‌خواهم مدلی را با این داده‌ها تطبیق دهم تا بتوان با توجه به سطح شدت، میزان غرامت را تخمین زد. آیا می توانم از رگرسیون لجستیک در اینجا استفاده کنم؟ چگونه باید برای ساخت مدل این داده ها اقدام کنم؟ پیشاپیش ممنون
رگرسیون لجستیک برای مدل سازی
72414
من 20 ماه نرخ رشد سالیانه برای یک متغیر مستقل X و متغیر وابسته Y دارم. همبستگی بین این دو متغیر 0.72 است. من می خواهم Y را با استفاده از X برای دوره های آینده پیش بینی کنم. چالش این است که اگر برای یک ماه مشخص Y در همان ماه سال گذشته رشد زیادی داشته باشد، با شرایط سخت تری روبرو خواهد شد. متغیر X من نمی داند که Y با یک قابل مقایسه سخت تر روبرو است (همبستگی ها کامل نیستند، بنابراین در مقیاس های کمی متفاوت عمل می کنند). آیا راه حل ظریفی برای به حداقل رساندن خطای نمونه وجود دارد؟ آیا باید نرخ رشد ماه سال گذشته را به عنوان متغیر مستقل دیگری در نظر بگیرم؟ یا چیز دیگری؟
نکاتی برای کاهش نرخ رشد
77595
من مدل ترکیبی خطی عمومی را با فاکتور 'جایگزینی' با هفت سطح در SPSS اجرا کردم. شش سطح تخمین زده شد. من می خواهم برآورد کل را برای جایگزینی محاسبه کنم. چگونه به دست آوریم؟ لطفا کمک کنید.
نحوه به دست آوردن تخمین مجموع یک عامل با سطوح مختلف در مدل های مختلط خطی عمومی
72418
من می خواهم بدانم **چگونه یک مجموعه داده را برای نرمال بودن در اکسل بررسی کنم، فقط برای تأیید اینکه الزامات استفاده از آزمون t برآورده شده است**. برای دم مناسب، آیا مناسب است که فقط یک میانگین و انحراف استاندارد را محاسبه کنید، 1، 2 و 3 انحراف استاندارد را از میانگین اضافه کنید تا یک محدوده ایجاد شود، سپس آن را با 68/95/99.7 معمولی برای توزیع نرمال استاندارد پس از استفاده مقایسه کنید. تابع norm.dist در اکسل برای آزمایش هر مقدار انحراف استاندارد. یا راه بهتری برای تست نرمال بودن وجود دارد؟
چگونه توزیع نرمال را با استفاده از اکسل برای انجام آزمون t بررسی کنیم؟
25945
اساساً، من دو متغیر خطی دارم که می‌توان آنها را به‌عنوان اثرات تصادفی یا ثابت مشاهده کرد، یک متغیر وابسته که مدل را با آن تطبیق می‌دهم، و یک متغیر که مطمئناً یک اثر تصادفی است. **تغییر وابسته:** تعداد میخ های نورون (FiringRate) در ناحیه خاصی از مغز موش **اثرات ثابت:** **1)** زمان که در آن نمونه داده گرفته شد (در مقیاس خطی در روز -- بنابراین روز دوم 2 می شود، روز 5 می شود 5، و به همین ترتیب) **2)** سن موش بر حسب روز (بنابراین قطعاً هم خطی بین این وجود دارد و متغیر «زمان»، اما تعداد موش‌های سنین مختلف به اندازه کافی وجود دارد که به عنوان یک متغیر جداگانه ارزشمند باشد. من نمی دانم که آیا اجرای دو LME مناسب است یا خیر. در مورد اول، «سن» و «موضوع» را به عنوان متغیرهای تصادفی در نظر می‌گیرم تا تأثیرات «سن» (و در نتیجه هم خطی بین «سن» و «زمان») را کنترل کنم و ببینم آیا زمان معنادار است یا خیر. پیش بینی تعداد اسپایک ها (متغیر وابسته). در مرحله دوم، «زمان» و «موضوع» را به‌عنوان متغیرهای تصادفی وارد می‌کنم تا ببینم «سن» یک پیش‌بینی‌کننده مهم است یا خیر. library(lme4) a = lmer(FiringRate ~ Time + (1|سن) + (1|موضوع)) b = lmer(FiringRate ~ Age + (1|Time) + (1|موضوع))
پاسخ: چگونه می توان متغیر دیگری را در مدل رگرسیون اثرات مختلط خطی کنترل کرد؟
100170
در کتاب درسی من، بیانیه ای در مورد موضوع رگرسیون خطی/یادگیری ماشینی، بدون اثبات یا توجیه دقیق ذکر شده است، که به سادگی به این صورت نقل می شود، > یک هدف پر سر و صدا را در نظر بگیرید، $ y = (w^{*})^T \textbf{x} + \epsilon $، برای > تولید داده، که $\epsilon$ یک عبارت نویز با میانگین صفر و > $\sigma^2$ است. واریانس، به طور مستقل برای هر مثال > $(\textbf{x},y)$ ایجاد می شود. **خطای مورد انتظار بهترین تناسب خطی ممکن برای > این هدف بنابراین ** $\sigma^2$ است. در اینجا نگرانی های من این است که چگونه بفهمیم بهترین تناسب خطی ممکن چیست؟ با فرض اینکه به نحوی بهترین تناسب خطی را تخمین زده ایم، آیا $y = (w^{*})^T \textbf{x}$ است؟ اگر چنین است چرا پارامتر دیگر $w_2^{*}$ نمی تواند بهترین پارامتر مناسب باشد؟
خطای مورد انتظار بهترین تناسب خطی ممکن؟
92644
در کتاب نوشته شده است که فرکانس نسبی یا نسبت فرکانس به تدریج با بزرگتر شدن و بزرگتر شدن N تمایل به ثابت شدن کم و بیش دارد. همچنین ذکر شده است که این یک واقعیت تجربی است. سوال من این است: چرا نسبت فرکانس باید در بلندمدت ثابت باشد؟ منظورم این است که بالاخره هیچ _ اثبات همگرایی_ کار نمی کند (آیا وجود دارد؟).
سوال در مورد تعریف فرکانس احتمال
77625
من به دنبال یک تقریب فرم بسته از واریانس آمار حداقل سفارش برای متغیرهای تصادفی عادی هستم. آیا کسی می تواند من را به یک مرجع یا تقریبی راهنمایی کند؟ من پست مربوط به مقدار تقریبی مورد انتظار آمار سفارش حداقل (آمار تقریبی سفارش برای متغیرهای تصادفی عادی) را دیده ام، اما من به دنبال واریانس هستم. با تشکر
تقریب واریانس آماره مرتبه اول (دقیقه) متغیرهای تصادفی نرمال
22706
من قبلاً یک دسته کامل از OLS را اجرا کرده ام و رگرسیون زیر را پیدا کردم: P= B1*L+e_1، پیدا شد b1<0 رگرسیون X= B2*L+e_2، یافت b2>0 رگرسیون X= B3*P+e_3، یافت b3 <0 من می خواهم موردی با ساختار علی پیچیده بسازم که در آن دو کانال وجود دارد که L به طور مثبت بر X تأثیر می گذارد. 1. کاهش P X را افزایش می دهد 2.L به طور مثبت بر X تأثیر می گذارد به خودی خود 3. علاوه بر این، L از طریق تأثیری که افزایش L باعث کاهش P می شود، بر X تأثیر مثبت می گذارد، و می دانیم که کاهش P باعث افزایش X می شود، بنابراین این دومین کانالی است که L به طور مثبت بر X تأثیر می گذارد. دو سؤال. الف. چه OLS یا نوع دیگری از معادلات رگرسیون [من حدس می‌زنم بیش از 1 معادله طول بکشد] باید برای اثبات موردم، یعنی برای اثبات (اگر امکان اثبات وجود ندارد، قویاً پیشنهاد شود) کل این سیستم ساختار علی را اجرا کنم؟ ب. از چه تشخیص رگرسیونی باید در SAS استفاده کنم تا منطق خود را در پشت ساختار علّی نشان دهم (L X را از طریق 2 کانال افزایش می دهد) خوب است؟ با تشکر
رگرسیون با ساختار علی پیچیده
6141
اکنون در حال نوشتن پایان نامه کارشناسی خود هستم و با مشکلاتی روبرو شده ام. من در آستانه انجام برخی رگرسیون های پانل با اثرات ثابت زمان و نهاد هستم و بنابراین می خواهم از بسته plm استفاده کنم. اما وقتی جلوه‌های ثابت را اضافه می‌کنم و می‌خواهم خطاهای استاندارد ناهمگونی قوی داشته باشم، به نظر می‌رسد که اشتباه هستند. آیا کسی می داند که چرا خطاهای استاندارد HC متفاوت است؟ در اینجا کد من است # بارگذاری داده ها (فایل = پانل)) پیوست (پانل) # بارگیری بسته های کتابخانه (lmtest) کتابخانه (plm) # دو مدل ایجاد کنید. lm.model یک مدل خطی است و از آنجایی که متغیر # LAND یک متغیر عاملی است که کشورهای # را نشان می دهد (سرزمین = کشور در سوئدی)، این مدل دارای اثرات # ثابت نهاد خواهد بود. در plm.model از بسته plm استفاده می شود و # افکت فردی و درون مدل روشن می شود (که # همان جلوه های ثابت موجودیت است) lm.model<-lm(NETTOSPARANDE ~ EURO + LAND، data=panel) plm. model<-plm(NETTOSPARANDE ~ EURO, index=c(LAND,ÅR), effect=individual, model=within, data=panel) # هنگام نگاه کردن به ضرایب بدون ناهمگونی، # خطاهای استاندارد قوی، یکسان هستند. آنها همچنین دارای همان مقدار # در stata هستند. coeftest(lm.model)[1:2,] coeftest(plm.model) # اما هنگام نگاه کردن به ضرایب با استفاده از خطاهای استاندارد ناهمگونی # robust، lm.model و plm.model # خطای استاندارد متفاوتی تولید می کنند. coeftest(lm.model, vcov.=vcovHC(lm.model, method=white2, type=HC1))[1:2,] coeftest(plm.model, vcov.=vcovHC(plm.model, روش =white2, type=HC1)) اگر می خواهید داده ها را آزمایش کنید می توانید در اینجا (فایل پانل) [1] پیدا کنید: https://sourceforge.net/projects/emumoralhazard/files/ _R-data_ و این خروجی من است 1> # Load data 1> load(file=panel) 1> attach(panel) 1> # Load packages 1> library(lmtest) بارگیری بسته مورد نیاز: zoo 1> library(plm) بارگیری بسته مورد نیاز: خویشاوندی بارگیری بسته مورد نیاز: بقا بارگیری بسته مورد نیاز: splines بارگیری بسته مورد نیاز: nlme بارگیری بسته مورد نیاز: lattice [1] inship is loaded بارگیری بسته مورد نیاز: فرمول بارگیری بسته مورد نیاز: بارگیری انبوه بسته مورد نیاز: ساندویچ 1> # دو مدل ایجاد کنید. مدل lm یک مدل خطی است و از آنجایی که متغیر 1> # LAND یک متغیر عاملی است که کشورهای 1> # (سرزمین = کشور در سوئدی) را نشان می‌دهد، این مدل دارای اثرات ثابت 1> # است. در plm.model از بسته plm استفاده می شود و 1> # جلوه های فردی و درون مدل روشن می شود (که 1> # همان جلوه های ثابت موجودیت است) 1> lm.model<-lm(NETTOSPARANDE ~ EURO + LAND، data=panel) 1> plm.model<-plm(NETTOSPARANDE ~ EURO, index=c(LAND,ÅR), effect=individual, model=within, data=panel) 1> # هنگام نگاه کردن به ضرایب بدون ناهمگونی قوی 1> # خطاهای استاندارد، آنها یکسان هستند. آنها همچنین دارای همان مقدار 1> # در Stata هستند. 1> coeftest(lm.model)[1:2،] Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) -3.731024 0.7731778 -4.825570 1.726921e-06 EURO1 2.187170 0.4076720 5.365024 1.1moeftest-pl. ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) EURO1 2.18717 0.40767 5.365 1.113e-07 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 1> # اما هنگام نگاه کردن به ضرایب با استفاده از ناهمگونی 1> # خطاهای استاندارد قوی، lm.model و plm. مدل 1> # خطای استاندارد مختلف تولید می کند. 1> coeftest(lm.model, vcov.=vcovHC(lm.model, method=white2, type=HC1))[1:2،] Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) -3.731024 0.3551280 -10.506138 5.102122e-24 EURO1 2.187170 0.3386029 6.459395 1.459395 2.00999 (m) 2.00098. vcov.=vcovHC(plm.model, method=white2, type=HC1)) t آزمون ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) EURO1 2.18717 0.33849 6.4615 1.983e-10 *** --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1
چرا هنگام استفاده از بسته plm، خطاهای استاندارد ناهمگونی قوی در R دریافت می کنم؟
22700
فرض کنید $Y$ یک متغیر پاسخ ترتیبی با 4 سطح است (یعنی $Y$ می تواند مقادیر $1،2،3$ یا $4$ را بگیرد). ما می خواهیم $Y$ را با $X_1، X_2$ با استفاده از یک مدل شانس متناسب مدل کنیم. اگر $Y$ مقادیر 1,2,3$ و $4$ را به تعداد مساوی دریافت کند (به عنوان مثال $Y = 1$ 4 برابر، $Y = 2$ 4 برابر، $Y = 3$ 4 بار، و $Y= 4$ 4 برابر)، آیا تخمین برخی از ضرایب 0 خواهد بود؟
برازش یک متغیر پاسخ ترتیبی
6147
من در حال بررسی آمارم برای یک دوره آموزشی هوش مصنوعی هستم که قرار است مدل مخلوط گاوسی را به من نشان دهد. استاد من گفت که من باید بدانم چگونه احتمال یک رویداد چند متغیره و پیوسته X را تحت توزیع نرمال محاسبه کنم. من این تابع چگالی چند متغیره را فراموش کرده ام. لطفاً کسی می تواند به من یادآوری کند که چگونه این کار را انجام دهم؟ متشکرم.
نحوه محاسبه احتمال برای یک رویداد چند متغیره/پیوسته
6146
من می خواهم توزیع قبلی مزدوج را برای توزیع فوق هندسی غیر مرکزی فیشر پیدا کنم؟ اساساً من می‌خواهم پارامترها را از توزیع‌ها ادغام کنم تا به احتمال بیزی برای مشاهده برخی داده‌ها با توزیع فوق هندسی غیرمرکزی برسم.
مزدوج توزیع فوق هندسی غیر مرکزی چیست؟
50079
من به رابطه بین تغییر در عوامل خطر به اصطلاح پویا (مانند خودکنترلی پایین) و تکرار جرم و همچنین رابطه بین جو زندان و تغییر در عوامل خطر پویا علاقه مند هستم. بنابراین، تغییر در سوال اول IV و در سوال دوم DV است. ریسک پویا در دو نقطه از زمان اندازه گیری می شود. در هر دو موقعیت، نمی‌دانم که آیا باید از یک نمره تفاوت ساده استفاده کنم یا از یک نمره تغییر باقی‌مانده (یا به ترتیب از نمره پس‌آزمون در حین کنترل نمره پیش‌آزمون استفاده کنم). من مجموعه ای از مقالات را در مورد این موضوع (مثلاً این یا این یا این) و همچنین برخی از پست های دیگر در این انجمن (به عنوان مثال اینجا یا اینجا) خوانده ام، اما هنوز راه حل قانع کننده ای برای مشکل خاص خود ندارم (عمدتاً ، زیرا بیشتر ادبیات در مورد این موضوع بر تنظیم تفاوت های پایه در مقایسه های گروهی تمرکز دارد). با توجه به بیشتر ادبیات، من عموماً ترجیح می دهم از امتیاز تغییر استفاده کنم، اما یک دام مهم وجود دارد: خطر پویا در پیش آزمون با تکرار جرم مرتبط است (در غیر این صورت، یک عامل خطر نخواهد بود)، و کسانی که در پیش آزمون نمرات بالایی دارند، تغییرات بزرگتری را نشان می دهند. کسانی که در پیش آزمون نمرات پایینی دارند (تا چه حد این به رگرسیون به میانگین می رسد، یکی دیگر از موضوعات خوب خواهد بود). بنابراین، کسانی که تغییرات اجتماعی بیشتری را نشان می‌دهند، بیشتر تکرار می‌کنند، چیزی که تفسیر آن واقعاً معنی‌دار نیست. از سوی دیگر، کنترل خط مبنا تا حدودی اشتباه به نظر می رسد، زیرا این واقعیت که افراد با امتیازهای پایه (منفی) بالا، بیشتر در معرض تغییر هستند، صرفاً یک مشکل آماری نیست، بلکه از نظر نظری و محتوایی مورد توجه است. بنابراین، از چه چیزی استفاده کنیم و چرا؟ با تشکر از کمک شما!
امتیاز افزایش در مقابل امتیاز تغییر باقیمانده هنگام تجزیه و تحلیل همبستگی های تغییر (مقایسه گروه NO)
109704
من یک روز از سال را در مورد تعداد رویدادها در سایت های مختلف دارم: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/MM62W.png) یک روز از سال داده های دایره ای است . من می دانم که تشخیص معمول نقاط پرت، به عنوان مثال با نمودار جعبه، در اینجا فایده ای ندارد: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/S2qDe.png) چگونه می توانم نقاط پرت را در این نوع تشخیص دهم از موقعیت ها؟
تشخیص نقاط پرت در داده های دایره ای؟
77626
من اخیراً دستور measurementInvariance را از بسته semTools بسیار مفید یافته‌ام، اما اکنون می‌پرسم آیا راهی برای انجام مقایسه‌های بعدی در سطح عامل و سطح آیتم با استفاده از یک دستور مشابه وجود دارد؟ این امر به ویژه مفید خواهد بود زیرا دستور measurementInvariance به طور خودکار از شاخص های برازش برآوردگر قوی برای مقایسه گروه ها (از جمله محاسبه آزمون تفاوت chisq) استفاده می کند، در حالی که من معتقدم روش جایگزین آزمایش در lavaan (anova) پیش فرض استفاده از ML است. برآوردها برای مثال: HS.model <- 'visual =~ x1 + x2 + x3 textual =~ x4 + x5 + x6 speed =~ x7 + x8 + x9' fit <- cfa(HS.model, data=HolzingerSwineford1939, estimator= MLR، std.lv=TRUE، group=sex)metermentInvariance(HS.model, data=HolzingerSwineford1939, group=sex, estimator=MLR) هنگامی که مشخص کردم واریانس وجود دارد (مثلاً در بارگذاری عاملی)، ممکن است بخواهم هر عامل جداگانه (و شاید هر آیتم) را با هم مقایسه کنم تا تعیین کنم که متغیر کجاست. یافت. من می دانم که چگونه این تست را انجام دهم (فکر می کنم)، اما از تخمین های ML برای محاسبه آزمون تفاوت chisq استفاده می کند، به جای معیارهای برازش قوی که measurementInvariance استفاده می کند. در اینجا به این صورت است که من در حال حاضر برای بارگذاری بی‌تغییر روی یک عامل منفرد (مثلاً بصری) آزمایش می‌کنم، اما معیارهای برازش ML را در آزمون anova chisq diff دریافت می‌کنم: HS.model <- 'visual =~ x1 + x2 + x3 متنی =~ x4 + x5 + x6 سرعت =~ x7 + x8 + x9' مناسب <- cfa(HS.model, data=HolzingerSwineford1939, estimator=MLR, std.lv=TRUE, group=sex) HS.model.b <- 'visual =~ label(a, a)*x1 + label(b ، b)*x2 + label(c، c)*x3 متنی =~ x4 + x5 + x6 سرعت =~ x7 + x8 + x9' fit.b <- cfa(HS.model.b، data=HolzingerSwineford1939، تخمینگر = MLR، std.lv=TRUE، group=sex) anova(fit.b، fit، SB.classic=TRUE)
آیا روشی برای آزمایش عدم تغییر عامل فردی و آیتم با استفاده از بسته‌های lava an یا semTools در R وجود دارد؟
77593
به عنوان مثال، در اینجا ذکر شده است: پیوند. من هم این را در داده هایم دیدم. تعجب می کنم - آیا کسی مرجع خوبی می شناسد که در آن با برخی از ریاضیات و برای برخی کلاس های کم و بیش گسترده از فرآیندها به طور دقیق تر توضیح داده شده و توجیه شود؟ در اینجا چند نمودار آورده شده است: سری با خود همبستگی مثبت قبل از تفاوت ![سریال با خودهمبستگی مثبت قبل از تفاوت](http://i.stack.imgur.com/TFOk3.gif) خود همبستگی قبل از تفاوت ![همبستگی خودکار قبل از تفاوت](http:/ /i.stack.imgur.com/eRfd3.gif) سری پس از تفاوت ![Series پس از تفاوت](http://i.stack.imgur.com/lIctm.gif) همبستگی خودکار پس از تفاوت ![همبستگی خودکار پس از تفاوت](http://i.stack.imgur.com/EYj6j.gif)
چرا سری های زمانی متفاوت، خودهمبستگی منفی را معرفی می کند؟
77591
من دانشجوی دکترای روانشناسی تجربی هستم و تلاش زیادی می کنم تا مهارت ها و دانش خود را در مورد چگونگی تجزیه و تحلیل داده هایم بهبود بخشم. تا سال پنجم روان‌شناسی، فکر می‌کردم که مدل‌های رگرسیون مانند (مانند ANOVA) موارد زیر را در نظر می‌گیرند: * نرمال بودن داده‌ها * همگنی واریانس برای داده‌ها و غیره دوره‌های کارشناسی من به من این باور را می‌دهد که مفروضات در مورد داده ها با این حال، در سال پنجم، برخی از مربیان من بر این واقعیت تأکید کردند که مفروضات مربوط به خطا (برآورد شده توسط باقیمانده‌ها) هستند و نه داده‌های خام. اخیراً در مورد سؤال مفروضات با برخی از همکارانم صحبت می کردم که آنها نیز اعتراف کردند که اهمیت بررسی مفروضات باقی مانده را تنها در سال های آخر دانشگاه خود کشف کردند. اگر من به خوبی درک کنم، مدل های رگرسیون مانند فرضیاتی را در مورد خطا ایجاد می کنند. بنابراین منطقی است که مفروضات مربوط به باقیمانده ها را بررسی کنیم. اگر چنین است، چرا برخی افراد مفروضات مربوط به داده های خام را بررسی می کنند؟ آیا به این دلیل است که چنین روش بررسی تقریباً چیزی است که ما با بررسی باقیمانده بدست می آوریم؟ من بسیار جالب توجه خواهم بود که در مورد این موضوع با برخی از افرادی که اطلاعات دقیق تری نسبت به من و همکارانم دارند بحث کنم. پیشاپیش از پاسخ های شما سپاسگزارم.
چرا برخی از افراد مفروضات مدل رگرسیون مانند را بر روی داده های خام خود و دیگران آنها را بر روی باقیمانده آزمایش می کنند؟
32649
من می خواهم رگرسیون خطی را روی یک مجموعه داده چند بعدی اجرا کنم. بین ابعاد مختلف از نظر بزرگی ترتیب تفاوت هایی وجود دارد. به عنوان مثال، بعد 1 به طور کلی دارای محدوده مقدار [0، 1] و بعد 2 دارای محدوده ارزش [0، 1000] است. آیا باید تغییری انجام دهم تا مطمئن شوم محدوده داده‌ها برای ابعاد مختلف در یک مقیاس هستند؟ اگر لازم است، آیا راهنمایی برای این نوع تحول وجود دارد؟
برخی از پیش‌بینی‌کننده‌های من در مقیاس‌های بسیار متفاوتی هستند - آیا لازم است قبل از برازش مدل رگرسیون خطی آنها را تغییر دهم؟
109066
من در تلاش برای اجرای یک رگرسیون پروبیت با استفاده از داده های پانل با محاسبه احتمال ورود به سیستم و سپس استفاده از تابع 'optim()' برای بهینه سازی هستم. من چند سوال در این مورد دارم و از راهنمایی ها و پیشنهادات همه قدردانی می کنم. 1. مقیاس متغیرهای پیش بینی کننده: متغیرهای پیش بینی کننده ای که من دارم در مقیاس قابل توجهی متفاوت هستند. برخی از متغیرها در ده و برخی در 000 هستند. وقتی می‌خواهم تابع optim را اجرا کنم، اغلب این پیام خطا را می‌دهد: vmmin محدود نیست. بنابراین در انتخاب مقادیر اولیه باید نهایت دقت را به خرج دهم. و برخی از این مقادیر اولیه به کوچکی 0.0001 هستند. آیا این استاندارد در پروبیت است؟ یا اینکه قبل از استفاده از پروبیت باید متغیرهای پیش بینی کننده را نرمال سازی کنیم؟ 2. من چند متغیر دارم که در کد تخمین محاسبه می شوند، به عنوان مثال، برخی از پارامترهایی که تخمین زده می شوند برای محاسبه این متغیرهای کمکی داخلی استفاده می شوند. هنگامی که من مدل کامل را با تمام پارامترهای داخلی اجرا می کنم، تابع optim یک ماتریس هسین منفرد به من می دهد. باز هم، من مطمئن نیستم که تکینگی هسی دلالت بر چه چیزی دارد. وقتی متغیرهای کمکی داخلی را یکی یکی اضافه می کنم، هسین مفرد نیست. آیا قبلاً کسی با چنین مشکلاتی روبرو شده بود؟ لطفا راهنمایی کنید.
رگرسیون پروبیت در R با استفاده از داده های تابلویی - آیا ما نیاز به عادی سازی پیش بینی ها داریم؟
55243
من مقدار مشخصی از ویژگی ها را دارم، به عنوان مثال 1024، و اکنون می خواهم مقدار برگ ها و گره های C 4.5 را محاسبه کنم (تقریبا). آیا چنین چیزی برای درختان باینری وجود دارد - برای مثال یک فرمول؟
چگونه می توانم برگ ها و گره های درخت تصمیم C 4.5 را محاسبه کنم؟
70828
من با برخی از مدل‌های رگرسیون خطی تکه‌ای کار می‌کنم، و می‌خواهم پیش‌بینی‌های آن‌ها را با مدل‌های رگرسیون خطی چندگانه (وزنی) مقایسه کنم. هر دو مدل یک سیستم فیزیکی را توصیف می کنند، اما پارامترهای بسیار متفاوتی از متغیر مستقل دارند. دو پارامتر متفاوت به گونه‌ای هستند که میانگین متغیرهای مستقل بسیار متفاوت هستند - یعنی $x_1$ متغیرهای مستقل تحت پارامتر اول و $x_2$ ind را فراخوانی کنید. vars. تحت پارامتر دوم به طور کلی، من $\mathbb{E}x_1 \gg \mathbb{E}x_2$ دارم. این (به نوبه خود) به این معنی است که ضرایب مدل ممکن است بسیار متفاوت باشد. علاوه بر این، گاهی اوقات ممکن است رگرسیون خطی تکه‌ای دارای یک قطعه با شیب = 0 و قطع = 0 باشد، که به نظر می‌رسد برای آماره‌ای مانند CVRMSE مشکل ایجاد می‌کند. بهترین روشی که می توانم برای مقایسه این دو مدل فکر کنم این است که فقط از یک مجموعه آموزشی و تست استفاده کنم، اما مطمئن نیستم که چه آماری را باید محاسبه کنم تا (الگوریتمی) بگویم این یکی بهتر است. آیا راه بهتری برای تمایز بین این دو مدل به صورت پیشینی وجود دارد؟
روش صحیح مقایسه دو مدل رگرسیون (بسیار) متفاوت؟
109069
به طور کلی، آیا بهتر است در الگوریتم هایی مانند SVM و جنگل های تصادفی، پیش بینی کننده های بیشتری در مقایسه با رگرسیون لجستیک گنجانده شود؟ به نظر می‌رسد وقتی پیش‌بینی‌کننده‌های بیشتری را به رگرسیون لجستیک اضافه می‌کنیم، بهبود قابل توجهی نیست. با این حال، زمانی که پیش‌بینی‌کننده‌های بیشتری را به SVM و جنگل‌های تصادفی اضافه می‌کنیم، بهبود قابل توجهی است. چرا این است؟
تعداد پیش بینی کننده ها و الگوریتم طبقه بندی
92643
من مقداری داده پواسون {${y_1,...,y_n}$} و یک گاما از قبل دارم و می‌خواهم یک توزیع پسین پیش‌بینی بسازم. همانطور که می‌دانم، اگر فراپارامترهای گامای من $\alpha$ (تعداد رخدادهای قبلی) و $\beta$ (تعداد مشاهده‌های قبلی) باشند، پسین پیش‌بینی‌کننده این است: ${y\space|\space y_1... y_n،\alpha،\beta}\space\tilde\space NegBin({\sum\limits_{i=1}^n y_i+\alpha}، \frac{1}{1+\beta+n})$ با این حال، به دلیل پارامترهای متعدد گاما و دوجمله‌ای منفی، تلاش‌های من برای پیاده‌سازی آن در R تا کنون بی‌نتیجه بوده است. آیا من درست می گویم که در فرمول بالا $\alpha$ شکل است و $\beta$ rate در dgamma() است؟ آیا من درست می گویم که $\sum\limits_{i=1}^n y_i+\alpha$ در `dnbinom()` 'size است؟ و در این صورت مشکلات چیست؟ فکر کردم $\frac{1}{1+\beta+n}$ است، اما به نظر می‌رسد توزیع حاصل منطقی نیست.
پارامترسازی دوجمله ای گاما و منفی در R
29349
ما 25 میلیون جفت XY داریم که باید با R همبستگی داشته باشند. مشاهدات برای x و y هر کدام 32 چهارم هستند. آزمایش کامل کشتی های 25 متری برای همیشه طول خواهد کشید. این کار به راحتی بیش از حد مهندسی می شود. ما از بهترین روابط XY برای پیش بینی استفاده خواهیم کرد. (fn1) ما با انتخاب بسته های R (پیش بینی، fastVAR، سری، nlts و غیره) غرق شده ایم. مقایسه همه سخت به نظر می رسد. آیا کسی می تواند به ما کمک کند که کدام بسته(ها) مناسبتر است؟ یعنی، کدام یک می‌تواند به‌طور کارآمد برای همبستگی ویژگی‌های داده‌شده داده‌ها را آزمایش کند؟ با مشاوره خوب در زمان زیادی صرفه جویی خواهیم کرد. (و بله، برای صرفه جویی در زمان، از foreach و doSNOW استفاده می کنیم.) Steve fn1: X و Y هر دو سری به طول 50 چهارم هستند. Y 8 چهارم به جلو جابجا می شود، به طوری که X (دوره های 9 تا 50) با Y (1 تا 42) مقایسه می شود. بهترین تناسب (x واقعی در مقابل x برازش شده با استفاده از y واقعی) تعیین می شود. روش شناسایی شده با Y (43 تا 50) برای پیش بینی X برای 8 چهارم پایانی استفاده می شود.
همبستگی XY، زمان کارآمد
77628
این سؤال شبیه به سؤال زیر است: 3 مجموعه داده توزیع شده نامنظم را عادی کنید و نقاط داده آنها را از نظر آماری مرتبط با یکدیگر کنید. متاسفم من واقعا اینجا گیر کردم تازه به آمار. من تا جایی که بتوانم توضیح می دهم که چه کاری می خواهم انجام دهم. هر کدام N مورد یادگیری داشته باشید با 3 پارامتر: A، B و C. مقادیر آنها همگی در بازه (-1، 1) قرار می گیرند، اما در طول این بازه به طور متفاوتی توزیع می شوند. A و B دارای توزیع تک وجهی هستند. A قله تندتری دارد و در سمت چپ فاصله قرار دارد، B قله صاف تری دارد و در سمت راست فاصله قرار دارد، اما معمولاً با یکدیگر غیر متقارن هستند. پارامتر C توزیع یکنواختی دارد. فرض کنید من فقط یک نمونه یادگیری دارم که دارای خصوصیات A، B و C با مقادیری در بازه (-1، 1) است. . **سوالات**: 1. چگونه این کار را انجام می دهید؟ چه روش مقایسه ای؟ به استثنای شبکه های عصبی لطفا. 2. قبل از مقایسه، آیا باید مقداری نرمال سازی / تراز A مربوط به B یا C را انجام دهم، زیرا آنها متناسب با یکدیگر نیستند؟
تراز و مقایسه دو مجموعه داده تک وجهی و یک مجموعه داده توزیع شده یکنواخت