_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
97190 | وقتی بین 2 متغیر طبقهبندی، یکی با دو سطح و دیگری با سه سطح، تعامل وجود دارد، در مورد میانجیگری سؤال دارم. با استفاده از بسته «میانجیگری» توسط تینگلی و همکارانش در R، سعی میکنم یک تحلیل واسطهای بوت استرپ برای تعامل بین یک طبقهبندی 2 سطحی IV ('condstorm') و یک طبقهبندی 3 سطحی IV دیگر ('condmean') انجام دهم. . میانجی ('trustmed2') دوگانه است و متغیر وابسته ('AttInd') پیوسته است. جدول 2 سطح IV 'condstorm' (d$condstorm) nostorm storm 604 570 جدول 'condmean' دسته 3 سطح IV (d$condmean) هر دو میانگین بالا 413 375 386 میانجی دوگانه 'trustmed2' جدول (d) 1 305 866 خلاصه AttInd DV پیوسته (d$AttInd) حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر NA's 0.0000 0.3571 0.6200 0.5801 0.8214 1.0000 3 کد و خروجی مدل با واسطه این است: کنتراست (d$condstorm) طوفان nostorm 0 طوفان 1 کنتراست هر دو بالا (d$high0 meanev0) غیره 0 med.fit <- glm(trustmed2 ~ condmean*condstorm + gwbelief + trustmed1 + coastdwell + partyID + polor + جنسیت + سن + نژاد + تحصیل + درآمد + منطقه، وزن = وزن 1، داده = d، خانواده = دوجمله ای ('probit ')) خلاصه (med.fit) تماس: glm (فرمول = trustmed2 ~ condmean * condstorm + gwbelief + trustmed1 + coastdwell + partyID + polor + جنس + سن + نژاد + تحصیل + درآمد + منطقه، خانواده = دوجمله ای (probit)، داده = d، وزن = وزن 1) باقیمانده انحراف: حداقل 1Q میانه 3Q حداکثر - 3.9982 -0.1429 0.2196 0.4594 3.2721 ضرایب: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -1.876115 0.284494 -6.595 4.27e-11 *** condmeannonevhigh 0.170809 0.175454 0.974 0.330294940.33029. 0.181383 2.740 0.00614 ** طوفان طوفان 0.285569 0.182081 1.568 0.11680 gwbeliefnotvref 0.056512 0.631022 0.0299000 0.746556 0.129610 5.760 8.41e-09 *** trustmed1 1.908566 0.121064 15.765 < 2e-16 *** coastdwellyes 0.320369 0.120369 0.12044240 حزب 0.585477 0.148862 3.933 8.39e-05 *** partyIDvref -0.468275 0.654078 -0.716 0.47403 partyIDvrep 0.058146 0.1306510 0.13062510. -0.316949 0.508007 -0.624 0.53269 polorvlib -0.058482 0.160609 -0.364 0.71577 polorvcons -0.369565 0.122246 0.023 -3.023 M. -0.009229 0.105253 -0.088 0.93013 agev1824 0.235127 0.194856 1.207 0.22756 agev2534 0.099723 0.178575454540. 0.119399 0.169987 0.702 0.48243 agev4554 0.221921 0.176420 1.258 0.20842 agev5564 0.173343 0.1703843 0.17038301. 0.033141 0.177162 0.187 0.85161 racevblack -0.323867 0.188305 -1.720 0.08545 . racevother 0.475179 0.234313 2.028 0.04256 * educhsvsome -0.002255 0.132574 -0.017 0.98643 educhsvcollgrad 0.20193180.20196214010. educhsvref 1.304337 0.666427 1.957 0.05032. درآمد 3050 -0.095963 0.159290 -0.602 0.54688 درآمدv5075 0.184528 0.168946 1.092 0.27473 0.27473 درآمدv75100 0.028214 0.028214 0.028214 0.028214 0.168946 درآمد v100 -0.249873 0.167648 -1.490 0.13610 regionvmw -0.058581 0.163619 -0.358 0.72032 regionvne 0.315495 0.1777202701. regionvs 0.204790 0.145384 1.409 0.15895 condmeannonevhigh:condstormstorm -0.061962 0.263472 -0.235 0.81407 condmeannonevbothm 4.7560.606. -2.620 0.00878 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف صفر: 1316.98 در 1170 درجه آزادی انحراف باقیمانده: 767. 1136 درجه آزادی (3 مشاهده حذف شده است به دلیل عدم وجود) AIC: 836.49 تعداد تکرارهای امتیاز دهی فیشر: 6 و کد و خروجی برای مدل با واسطه به عنوان پیش بینی کننده در متغیر وابسته: out.fit <- lm(AttInd ~ trustmed2 + condmean*condstorm + trustmed1 + gwbelief + coastdwell + partyID + polor + جنسیت + سن + نژاد + آموزش + درآمد + ر | میانجیگری با استفاده از «میانجی» در R با یک تعامل |
29615 | من به دنبال یک کتابخانه C++ برای آمار برای بازی با تشخیص نقاط پرت در سری های زمانی (در میان سایر موارد) هستم. آنچه من نیاز دارم: * برآوردگرهای قوی، همبستگی ها، آزمون های فرضیه، و غیره. * بدون وابستگی به کتابخانه های خارجی. * بدون GPL؛ یک مزیت خواهد بود: * سبک وزن. * رایگان؛ * قابل حمل؛ * فعال و پشتیبانی شده؛ | کتابخانه C++ برای بازی با آمار (تشخیص نقاط پرت در سری های زمانی) |
18752 | من فقط به این فکر می کنم که مرکز کردن دو IV در زمینه درک یک تعامل به چه معناست. IVها A هستند و جنسیت و DV B است. آیا لازم است اثرات اصلی یک متغیر تعاملی جدید (A*Gender) قبل از IVها یک محصول باشد (مثلاً تأثیر اصلی محوری A * محور اصلی جنسیت) آیا می توان در چارچوب رگرسیون (سلسله مراتبی) استفاده کرد؟ | مرکز کردن دو IV در زمینه یک تعامل به چه معناست؟ |
37656 | من به این آموزش اشاره می کنم: آموزش مدل های پنهان مارکوف و برنامه های منتخب در تشخیص گفتار. من در مورد الگوریتم فوروارد کمی گیج هستم. از آموزش: > اگر محاسبات مربوط به محاسبه $\alpha_t(j)$، > 1<=t<=T و 1<=j<=N را بررسی کنیم، به ترتیب $N^2T$ نیاز دارد. محاسبات من دقیقاً متوجه نشدم که چرا $N^2T$ است. بعلاوه آنها هنگام محاسبه $P(O|\lambda)$ آن را با $2TN^T$ مقایسه کرده اند. همچنین مطمئن نیستم که چگونه می توانند پیچیدگی محاسبات را برای $P(O|\lambda)$ با $\alpha_t(j)$ مقایسه کنند. آنها حتی یکسان نیستند؟ | سردرگمی مربوط به مدل پنهان مارکوف |
95105 | من در چند روز گذشته کار زیادی برای ارائه مدلهای اثرات مختلط انجام دادهام تا روی برخی از دادههای رفتاری که برای پایاننامهام جمعآوری کردهام اعمال کنم، اما به ذهنم رسید که ۱۰۰٪ مطمئن نیستم که این نوع از مدل در واقع برای داده های من مناسب است (من فقط پس از شروع آزمایش با آنها برخورد کردم). در یک آزمایش، 60 شرکتکننده «28 آزمایش» را از یک تکلیف استدلالی، متشکل از «14 مسئله» (آنها را «A» - «N» نامید)، با شرکتکنندگان که هر کدام را در «2 شرط» تکمیل کردند، «x» ( تضاد) و «y» (کنترل). مشکل شرکت کننده 1 Ax/Ay Bx/By Cx/Cy Dx/Dy ... Nx/Ny 2 Ax/Ay Bx/By Cx/Cy Dx/Dy ... Nx/Ny 3 Ax/Ay Bx/By Cx/Cy Dx/Dy ... Nx/Ny 4 Ax/Ay Bx/By Cx/Cy Dx/Dy ... Nx/Ny 5 Ax/Ay Bx/By Cx/Cy Dx/Dy ... Nx/Ny ... ... ... ... ... ... ... 60 Ax/Ay Bx/By Cx/Cy Dx/Dy ... Nx/Ny من به تفاوت در متغیر آزمایش به آزمایش (بیایید آن را «زمان واکنش» بنامیم) بین شرایط تضاد و کنترل علاقه مندم و انتظار دارم برای درگیری بالاتر باشد. (`y`) آزمایشات بدیهی است، من انتظار دارم که یک همبستگی درون موضوعی پیدا کنم - برخی از موضوعات عموماً سریع و برخی عموماً کند هستند. من همچنین انتظار دارم یک همبستگی درون مسئله ای پیدا کنم - برخی از مسائل بدون توجه به شرایط سریعتر از سایرین پاسخ داده می شوند. برای توضیح این موارد، من رهگیریهای تصادفی را برای این دو عامل در نظر میگیرم: «(1|شرکتکننده) + (1|مشکل)». تفاوت بین شرایط تضاد و کنترل ممکن است برای هر موضوع و برای هر مشکل یکسان باشد یا نباشد. به همین دلیل، من شیبهای تصادفی را نیز در نظر میگیرم: `(1 + شرط|شرکتکننده) + (1 + شرط|مشکل)`. با کنار هم قرار دادن این، من مدلی را آزمایش می کنم که به نظر می رسد: null_model = lmer(reaction_time ~ condition(1|شرکت کننده) + (1|مشکل)، data=data) condition_model = lmer(reaction_time ~ condition + (1|شرکت کننده) ) + (1|مشکل)، داده=داده) یا null_model = lmer(زمان_واکنش ~ (1 + شرط|شرکت کننده) + (1 + شرط|مشکل)، داده=داده) شرط_مدل = lmer(زمان_واکنش ~ شرط(1|شرکت کننده) + (1|مشکل)، داده=داده) . **لطفا؛ آیا به طرز وحشتناکی اشتباه متوجه شدهام که قرار است این چگونه کار کند؟** **ویرایش:** رویکرد سنتیتر برای تجزیه و تحلیل این دادهها، میانگینگیری مشکلات درون هر شرکتکننده است، که به ازای هر شرکتکننده دو نقطه داده به دست میدهد: «میانگین شرایط تضاد» و «میانگین شرط کنترل»، و سپس از آزمون t زوجی استفاده کنید. با خواندن این سوال، من فکر کردم که این رویکرد باید تا حد زیادی مانند برازش «lmer(reaction_time ~ شرط + (1|شرکت کننده)، داده=داده)» باشد، اما به نظر می رسد که این روش را در R امتحان کنید. **ویرایش شماره 2:** Bounty اضافه شد. | آیا مجموعه داده من برای یک مدل جلوه های ترکیبی مناسب است؟ |
7159 | حتی اگر این سوال مستقیماً مربوط به تجزیه و تحلیل های آماری نیست، من فکر کردم که این گروه ممکن است بینش مفیدی داشته باشد. ایستگاه کاری مبتنی بر ویندوز xp مدرسه من چندین ساعت طول می کشد تا مدل های رگرسیون لجستیک ساده را با اصلاحات بوت استرپ و رویه های بوت استرپ برای انتخاب مدل اجرا کند (کد R اقتباس شده از کتاب دکتر فرانک هارل در مورد رگرسیون لجستیک). درخواست و گرفتن حساب محاسباتی در بخش محاسبات دانشگاه بسیار کند پیش می رود (بیش از یک ماه از شروع این فرآیند می گذرد). من باید این تحلیل ها را در اسرع وقت انجام دهم. در نتیجه، من در نظر دارم یک لپ تاپ شخصی لینوکس از System76 (Pangolin) تهیه کنم. https://www.system76.com/product_info.php?cPath=28&products_id=100 من امیدوار هستم که از بسته چند هسته ای R با هدف لینوکس استفاده کنم. با این حال، من مطمئن نیستم که کدام پردازنده اینتل را انتخاب کنم. پردازنده های i5 دارای 2 هسته و سرعت کلاک بالاتر هستند اما پردازنده های i7 دارای 4 هسته و سرعت کلاک کمتر هستند. تفاوت قیمت این دو گروه حدود 500 دلار است. من واقعا در این مورد سردرگم هستم. هر گونه بینش بسیار مفید خواهد بود. خیلی ممنون از وقتی که گذاشتید | پلتفرم محاسباتی R: لپ تاپ لینوکس System76 با i5 دو هسته ای یا i7 چهار هسته ای؟ |
89937 | من وضعیت زیر را دارم: دو سیستم وجود دارد، $s_A$ و $s_B$. برای $s_A$ دو حالت وجود دارد: $s_A = a,b$. برای $s_B$ سه حالت وجود دارد: $s_B = 1،2،3$. حالا کاری که میخواهم انجام دهم اندازهگیری $s_B$ است، اما این امکان پذیر نیست. در عوض، من گزینه ای برای اندازه گیری $s_A$ دارم، و سه رابطه زیر را می دانم: (اگر $P(a|1)$ را بنویسم، منظورم این است که این احتمال اندازه گیری $s_A = a$ است با توجه به اینکه $s_B = 1$) $P(a|1) = F_1$ $P(a|0) = F_2$ $P(a|-1) = F_3$ در اصل من مقادیر $F_i$. علاوه بر این، احتمالات همگی به یک می رسند، بنابراین $P(b|1) = 1- F_1$ اکنون از این مشخص است که من نمی توانم تصمیم بگیرم که $s_B$ چه چیزی از یک اندازه گیری باشد. با این حال، من می توانم اندازه گیری را هر چند وقت یکبار که بخواهم انجام دهم تا آماری را ایجاد کنم. با این حال... هر بار که اندازه میگیرم، احتمال تغییر $s_B$ وجود دارد. $s_B$ مطابق با زنجیره مارکوف رفتار میکند، و سه انتقال ممکن وجود دارد: 1 به 0، 0 به 1، 0 به -1 و -1 به 0. برای شروع، سادهترین فرض این است که احتمالات انتقال هستند. همه فقط برابر با 1 $p$ هستند، اما در صورت امکان من می خواهم این کار را برای چهار احتمال مختلف نیز انجام دهم. بنابراین کاری که میخواهم انجام دهم این است که با توجه به تمام موارد بالا، روشی برای یافتن $s_B$ از اندازهگیریهای $N$ $s_A$ بسازم. علاوه بر این، من همچنین میخواهم بیانی برای اینکه چقدر خوب میتوانم این کار را انجام دهم پیدا کنم و بنابراین یک $N$ بهینه پیدا کنم. آیا کسی هست که بتواند به من کمک کند تا با این کار شروع کنم؟ آنچه من در مورد خودم فکر کردم این است که اگر این احتمالات انتقال را نادیده بگیرم، اندازه گیری N مانند متغیرهای دوجمله ای خواهد بود. بنابراین برای مثال اگر $s_B = 1$، آنگاه تعداد اندازهگیریهای $s_A = a$ باید از توزیع دوجملهای با پارامترهای $N$ و $F_1$ پیروی کند. البته برای دوتای دیگه هم همینطور. سپس میتوانم تقاطعهای این سه توزیع را پیدا کنم و به سادگی ببینم که تعداد اندازهگیریهای $s_A$ در کدام بازه به احتمال زیاد کاهش مییابد. احتمال درست بودن فقط توابع توزیع تجمعی است. اما من هیچ راهی نمی بینم که چگونه این را برای احتمال تغییر $s_B$ تنظیم کنم. | تعیین وضعیت یک سیستم شرطی |
7153 | من می خواهم ایده خوبی در مورد نحوه طراحی آزمایشات بالینی در انکولوژی داشته باشم. در آن شماره، من به دنبال کتابی فشرده هستم که بتواند با تأکید بر ملاحظات آماری، دید کلی خوبی به من بدهد. توصیه ای به من دارید؟ پیشاپیش ممنون مارکو | کتاب طراحی کارآزمایی های بالینی در انکولوژی |
37657 | در این گفتگو http://videolectures.net/lms08_hardoon_scca/ (4:58) دیوید می گوید که حداکثر کردن همبستگی بین بردارها را می توان به عنوان به حداقل رساندن زاویه بین آنها در نظر گرفت و دو مرجع ارائه می دهد: Breiman & Friedman 1985، و Hastie & Tibshirani. 1990. دومی از اینها فقط کتاب درسی آنهاست، و اولی را نمی توانم پیدا کنم، اگرچه آنها یک کتاب داشتند. مقاله در آن زمان در مورد مدل های افزایشی تعمیم یافته. اساساً من نمی توانم جایی که آنها در این مورد بحث می کنند پیدا کنم. آیا ادعا درست است؟ کسی مرجع قطعی داره؟ | به حداکثر رساندن همبستگی بین بردارها در مقابل به حداقل رساندن زاویه بین آنها |
41535 | من به دنبال یک راه خوب و رسمی برای تعریف میانگین های متحرک هستم: $y = \sum_{i=0}^N w_ix_i=<\mathbf{w}،\mathbf{x}>$ و به خصوص این واقعیت که وزن ها باید برابر یک، یعنی $\sum_{i=0}^N w_i=1$. این ویژگی برای من کاملاً واضح به نظر می رسد، زیرا شما به نوعی می خواهید خروجی همان سطح مقادیر ورودی باشد. با این حال، من نمی دانم چگونه آن را به روشی ریاضی تر توصیف کنم. کسی می تواند به من کمک کند؟ متشکرم | روش رسمی برای تعریف میانگین وزنی |
7156 | من یک مجموعه داده با سطوح سالانه فساد در تعدادی از کشورها و همچنین تغییر دولت خود در آن سال دارم. سال، فساد، تغییر رئیس جمهور 2001، 5، 0 2002، 7، 1 2003، 8، 0 و غیره. بخشی از همان حزب سیاسی قبلی). ایده این است که یا به شیب فساد/سال برای دو سال منتهی به انتخابات و دو سال بعد، به عنوان مثال، نگاه کنیم. $t-2$، $t-1$ و $t$ برای شیب قبل. ایده دیگر بررسی میانگین سطح فساد سه سال قبل و بعد از آن است. این نرخ ممکن است منطقی تر باشد زیرا موارد بیشتری وجود دارد که بر فساد تأثیر می گذارد و کشورهای مختلف ممکن است در مسیرهای متفاوتی قرار گیرند. با این حال، نگاه کردن به سطوح متوسط سه سال قبل و بعد از آن نیز می تواند فوایدی داشته باشد. آیا نظری دارید که به کدام یک نگاه کنم، و همچنین چگونه می توانم آن را اندازه گیری کنم؟ | تفاوت بین دو شیب |
71782 | خوب، این سوالی است که مرا شب ها بیدار نگه می دارد. ** آیا می توان رویه بوت استرپ را به عنوان تقریبی برخی از رویه های بیزی (به جز بوت استرپ بیزی) تفسیر کرد؟** من واقعاً تفسیر بیزی از آمار را دوست دارم که به نظر من به خوبی منسجم و قابل درک است. با این حال، من همچنین یک ضعف برای رویه بوت استرپ دارم که بسیار ساده است، اما در بسیاری از موقعیت ها استنباط های معقولی ارائه می دهد. با این حال، اگر بدانم که bootstrap به نوعی توزیع پسینی را تقریب میکند، از راهاندازی بیشتر خوشحال میشوم. من بوت استرپ بیزی را می شناسم (روبین، 1981)، اما از دیدگاه من آن نسخه از بوت استرپ به اندازه بوت استرپ استاندارد مشکل ساز است. مشکل، فرض مدل واقعاً عجیبی است که شما، هم هنگام انجام بوت استرپ کلاسیک و هم در راهانداز بیزی، میکنید، یعنی مقادیر ممکن توزیع فقط مقادیری هستند که قبلاً دیدهام. چگونه این مفروضات مدل عجیب و غریب هنوز هم می توانند استنتاج های بسیار معقولی را که رویه های بوت استرپ به دست می دهند به دست آورند؟ من به دنبال مقالاتی بودهام که ویژگیهای راهانداز را بررسی کردهاند (به عنوان مثال Weng، 1989) اما هیچ توضیح واضحی پیدا نکردم که از آن راضی باشم. # مراجع Donald B. Rubin (1981). بوت استرپ بیزی. _آن. آمار._ دوره 9، شماره 1، 130-134. چونگ سینگ ونگ (1989). در مورد خاصیت مجانبی مرتبه دوم میانگین بوت استرپ بیزی. _The Annals of Statistics_، جلد. 17، شماره 2، صص 705-710. | آیا می توان بوت استرپ را از منظر بیزی تفسیر کرد؟ |
18757 | به نظر می رسد که نمودار PACF از نمودار ACF آموزنده تر است. چه اطلاعاتی از نمودار ACF بدست می آید که نمی توان از نمودار PACF به دست آورد. (ACF = تابع همبستگی خودکار، و PACF = خودهمبستگی جزئی). | نمودار ACF چه چیزی را به من می گوید که یک نمودار PACF نمی گوید؟ |
18754 | من تعداد زیادی دستگاه $N$ دارم و می خواهم بدانم آیا هر یک از آنها معیوب هستند یا خیر. به چه اندازه نمونه نیاز دارم تا با اطمینان 100$(1-\alpha)\%$ مطمئن شوم که هیچ کدام معیوب نیستند؟ | اندازه نمونه برای تعیین اینکه آیا نسبت موفقیت صفر است یا خیر |
108894 | من سه پارامتر تخمینی دارم، $\hat{\beta_0}$،$\hat{\beta_1}$ و $\hat{\beta_2}$، اینها از ترتیب $\hat{\beta_1}\leq\hat{\ پیروی می کنند. beta_0}\leq\hat{\beta_1}$، که در آن این پارامترها تخمینهایی از یک تابع احتمال فراوانی هستند. من واریانس $\hat{\beta_1}$ و $\hat{\beta_2}$ را می دانم. آیا می توان واریانس $\beta_0$ را در مقایسه با $\hat{\beta_1}$ و $\hat{\beta_2}$ ارائه داد. در مقایسه، منظور من مانند $var(\hat{\beta_1})\leq var(\hat{\beta_0}) \leq var(\hat{\beta_2})$ است. | واریانس پارامترها |
7155 | مردم اغلب در مورد برخورد با موارد پرت در آمار صحبت می کنند. چیزی که در این مورد من را آزار می دهد این است که تا آنجا که می توانم بگویم، تعریف یک پرت کاملاً ذهنی است. به عنوان مثال، اگر توزیع واقعی برخی از متغیرهای تصادفی بسیار سنگین یا دووجهی باشد، هر گونه تجسم استاندارد یا آمار خلاصه برای تشخیص نقاط پرت به اشتباه قسمت هایی از توزیعی را که می خواهید نمونه برداری کنید حذف می کند. در صورت وجود، تعریف دقیقی از موارد پرت چیست و چگونه می توان با موارد پرت بدون وارد کردن مقادیر نامعقول ذهنیت در تحلیل برخورد کرد؟ | تعریف دقیق از یک نقطه پرت؟ |
71788 | من به دنبال راهی برای محاسبه $z$-score برای یک صدک معین $p$ هستم. من این سایت را در حال انجام چنین محاسبه ای یافتم. آنها فرمولی برای محاسبه $P(Z\leq z)$ داده اند: $$ \Phi(z) = P(Z \le z) = \int_{-\infty}^z \frac{1}{\sqrt {2\pi}}e^{\frac{-u^2}{2}}du $$ اکنون مقدار $P(Z\leq z)$ را دارم و سعی کردم آن را حل کنم تا $z$ را پیدا کنم ، اما واقعا پیچیده بود برای حل $z$. آیا تابعی در JAVA یا PHP وجود دارد که بتواند این کار را انجام دهد؟ یا آیا هیچ راه ریاضی وجود دارد که بتوانیم برای $z$ حل کنیم؟ (من کدنویسی جدول $z$ را به عنوان آخرین انتخاب خود در نظر میگیرم، زیرا در این مورد باید تقریبهایی را انجام دهم.) **ویرایش** فراموش کردم این را ذکر کنم، مشکل اصلی که میخواهم حل کنم این است که یک نقطه تصادفی از یک توزیع نرمال رسم کنید. من سعی کردم از تابع 'inversecdf' از توزیع عادی استفاده کنم. با توجه به اجرای عمومی آن تابع، زمان زیادی می برد. بگویید من میخواهم نقطه را در 0.75$ محاسبه کنم، ما میتوانیم با یافتن $z$-value در آن نقطه و سپس یک ریاضی ساده $\bar{x}+\sigma\times z$ این کار را به سرعت انجام دهیم. بنابراین من میخواستم راهی پیدا کنم که برای یک صدک معین امتیاز z$-score را بدست بیاورم. | درصد به Z-score در PHP یا JAVA |
76788 | یک CLT می گوید که به طور مجانبی توزیع نمونه برداری از میانگین نمونه گیری به نرمال همگرا می شود. من می خواهم شبیه سازی مونت کارلو را با استفاده از اطلاعات مربوط به یکی از متغیرهای مدل از ادبیات که مقداری میانگین و خطای استاندارد را گزارش می کند، اجرا کنم، اما 10=n است. من خیالم راحت نیست که این n به اندازه کافی بزرگ باشد که نمونه برداری از میانگین نمونه گیری این پارامتر را با استفاده از Normal در شبیه سازی توجیه کند. این تمام اطلاعات موجود در مورد پارامترهای متغیر است. آیا در مورد توزیع نمونهگیری میانگین نمونهگیری زمانی که n کوچک است، چیزی میتوان گفت؟ فرض اینکه میانگین نمونه گیری از توزیع نرمال با n کوچک پیروی می کند چه پیامدهایی دارد؟ حتی n=2 تخمین بی طرفانه ای از میانگین جمعیت می دهد و برای محاسبه خطای استاندارد کافی است. پس آیا اینطور نیست که ما پارامترهای شکل معتبری برای یک توزیع نرمال داشته باشیم، و حتی اگر توزیع در n=2 نرمال به نظر نرسد، میتوان انتظار داشت که میانگین و خطای استاندارد محاسبهشده با n کوچک معرف میانگین و خطای استاندارد با n بزرگتر؟ | CLT در شبیه سازی مونت کارلو، نمونه کوچک |
76789 | مقالاتی مانند بریگز و همکاران. 2002 می گویند که محدودیت های منطقی در ورودی ها مانند پارامترهای احتمال، توزیع نرمال را به دلیل نامحدود بودن آن از در نظر گرفتن حذف می کند. در این مثال، مقادیر کمتر از 0 و بالاتر از 1. آنها به طور خلاصه مشتق بیزی از داده های نسبت (دوجمله ای) به بتا را برای استفاده به عنوان توزیع نمونه برای احتمالات در تحلیل حساسیت احتمالی از طریق شبیه سازی مونت کارلو توصیف می کنند. بتا می تواند شکلی شبیه به نرمال به خود بگیرد، اما می تواند اشکال بسیار غیر عادی نیز داشته باشد. 1. آیا می توان این اشتقاق بیزی را با قضیه حد مرکزی فراوان گرایانه تطبیق داد که می گوید با حجم نمونه به اندازه کافی بزرگ، توزیع نمونه از میانگین نمونه گیری تقریباً نرمال خواهد بود؟ برای استفاده از منابع (یعنی تعداد مراجعه به پزشک) بریگز و همکاران 2002 از توزیع گاما، همانطور که در جدول 4 شکل گرفته است، استفاده می کنند که مطمئناً عادی نیست. نرمال بودن چیزی است که برای نمونه های به اندازه کافی بزرگ در تفسیر متداول انتظار می رود. 2. در شبیه سازی مونت کارلو، اگر از یک توزیع نرمال برای ترسیم مقادیر تحقق یافته برای احتمالات استفاده شود، تکرارهایی وجود دارد که مقادیر <0 یا >1 مشاهده می شود. با این حال، برای توزیع های متقارن، این باید به طور مجانبی لغو شود. توزیع همچنان حول میانگینی است که در محدوده منطقی آن قرار دارد و مونت کارلو نتایج کل را نه نتایج یک تکرار واحد در نظر می گیرد. بنابراین من تعجب می کنم که چرا ما به محدودیت های منطقی پارامترهایی مانند احتمالات، هزینه ها و غیره در چارچوب شبیه سازی مونت کارلو اهمیت می دهیم؟ | توزیع پارامترهای منطقی محدود در شبیه سازی مونت کارلو |
69136 | من یک همبستگی متقاطع انجام داده ام اما مطمئن نیستم کاری که انجام می دهم درست است یا نه... اینها خطوط فرمانی است که تا کنون استفاده کرده ام (این یکی برای اولین سری زمانی است. نشان دهنده اعداد اشتراک برای مردان و زنان در یک وب سایت در ساعات روز) data<-read.table(text=hour men women 00h00 475 295 01h00 321 157 02:00 206 127 03:00 141 61 04:00 73 29 05:00 49 22 06:00 71 30 07:00 100 32 08:00 163 55 09:00 100 163 55 09:00 1006 11:00 342 255 12:00 407 247 13:00 480 334 14:00 459 358 15:00 481 281 16:00 490 347 17:00 4580 4580 618 419 20h00 579 453 21h00 565 530 22h00 659 605 23h00 600 435,header=TRUE) (این یکی برای دومین سری زمانی است که نشان دهنده زمانی است که تبلیغات در تلویزیون نمایش داده می شود. تبلیغات در یک سری زمانی ساختگی این پست را ببینید چرا این کار را به این صورت انجام دادهام: سری زمانی و همبستگی متقابل) hr<-read.table(text=ساعتها 00h00 01h00 02h00 03h00 04h00 05h00 06h00 07h00 08h00 1h000 09h00 12:00 13:00 14:00 15:00 16:00 17:00 17:45 18:00 19:00 20:00 21:00 22:00 23:00 23h10,header=TRUE) (سپس خط زمانی را با دستور corre پایین بیاورید) ccf(data$men,hr,50) و من این نمودار را دارم (به پایین مراجعه کنید) اما برای من معنی ندارد. اگر سرنخی دارید خوشحال میشم بشنوم. با تشکر  | همبستگی متقابل با R |
76259 | در حین انجام برخی شبیهسازیها، متوجه شدم که چندک نمونه یک تخمینگر مغرضانه از کمیت واقعی است. و طبق شبیه سازی های من، یک بالقوه _بسیار_ مغرضانه. من از این نتیجه شگفت زده شدم زیرا CDF تجربی مغرضانه نیست، اما پس از تحقیقات اینترنتی، متوجه شدم که درست است. من سعی کردم بفهمم که این سوگیری از کجا می آید، اما کار با چندک های نمونه بسیار دشوار است. آیا کسی نشانی از آن تعصب (و در حالت ایده آل، کمی سازی) دارد؟ | نشان دادن سوگیری چندک نمونه |
30000 | من سه متغیر فضایی، $v_1، v_2$ و $v_3$ (به عنوان مثال، تخلخل، اشباع آب و vshale) را مدل میکنم که با یکدیگر همبستگی دارند: $\rho_{12}، \rho_{13}$ و $\ rho_{23}$. فرض کنید من سه میدان تصادفی گاوسی ناهمبسته، UG1، UG2 و UG3 ایجاد کردهام، که هر کدام ساختار همبستگی فضایی خود را دارند. درک من این است که میدانهای تصادفی گاوسی را میتوان به صورت خطی ترکیب کرد (با استفاده از ضرایب همبستگی) تا به میدانهای تصادفی گاوسی همبسته، CG1، CG2، CG3 رسید که همبستگی اساسی بین متغیرها را حفظ میکند. فکر میکنم میدانم چگونه میتوان این کار را از طریق رویکرد تجزیه کلسکی انجام داد: http://en.wikipedia.org/wiki/Cholesky_decomposition#The_Cholesky.E2.80.93Banachiewicz_and_Cholesky.E2.80.93Crout_algorithms آیا روش دیگری برای محاسبه وجود دارد. زمینه های تصادفی گاوسی همبسته؟ | ترکیب خطی میدان های تصادفی گاوسی |
30002 | تا آنجا که من می دانم، می توان خطای استاندارد نسبی را از روی انحراف معیار یک نمونه داده محاسبه کرد. من به دنبال معادل انحراف مطلق میانه برای خطای استاندارد هستم. آیا یکی وجود دارد؟ همچنین کدام روش برای محاسبه خطای استاندارد نسبی وجود دارد که به انحراف معیار نیاز ندارد؟ | معادل MAD برای خطای استاندارد |
76251 | کتاب یادگیری آماری من بیان میکند که وقتی درختهای تصمیم ساخته میشوند، m از p پیشبینیکنندهها بهطور تصادفی برای بررسی در یک تقسیم انتخاب میشوند. ایده در اینجا ظاهراً این است که درختانی را که در کیسهبندی به دست میآیند با تضعیف اثر یک پیشبینیکننده قوی، مرتبط کنیم. اگر ما پیشبینیکنندههای p برای انتخاب داشته باشیم، و در هر تقسیم فقط میتوانیم از پیشبینیکنندههای m استفاده کنیم، به طور متوسط میگویند، (p - m)/p از تقسیمها شامل پیشبینیکننده قوی میشود. چرا؟ | پیش بینی کننده قوی در جنگل های تصادفی |
37659 | من سعی می کنم یک مدل kselect از «adehabitatHS» انجام دهم که از دستورات بسته «ade4» استفاده می کند. من سعی می کنم تعیین کنم که آیا نیاز به مقیاس بندی متغیرهایم دارم یا خیر. درک سطحی من این است که k-select اساسا یک PCA فانتزی است. در مثال خود آنها متغیرهای خود را مقیاس کردند، اما متغیرهای آنها فقط اندازه گیری های پیوسته بودند. من متغیرهای طبقه ای و پیوسته را مخلوط کرده ام. در مثال خود، آنها متغیرهای خود را قبل از استفاده از دستور 'dudi.pca' مقیاس بندی می کنند که از درک من برای تنظیم k-select لازم است. من از خواندن راهنمای dudi در وینت `ade4` میدانم که باید از «dudi.mix» در اینجا به جای «.pca» استفاده کنم، اما در مورد مقیاسبندی چه باید کرد؟ آیا باید متغیرهایم را مقیاس کنم؟ آیا باید همه متغیرها را مقیاس بندی کنم؟ آیا باید همه متغیرها را به جز متغیر طبقه بندی مقیاس بندی کنم؟ من نمی توانم مطالب خواندنی را پیدا کنم که آنچه را که در فرآیند ترکیبی dudi/pca اتفاق می افتد با جزئیات کافی توضیح دهد. اگر میخواهید ببینید به چه چیزی اشاره میکنم، کد مثالی از راهنمای k-select در زیر آمده است. data(puechabonsp) locs <- puechabonsp$relocs map <- puechabonsp$map pc <- mcp(locs[Name]) hr <- hr.rast(pc، map) cp <- count.points(locs[, Name]، map) ## داده ها را برای تحلیل kselect آماده می کند x <- prepksel(map, hr, cp) تب <- x$tab ## مثالی از تجزیه و تحلیل با دو متغیر: شیب و ارتفاع. tab <- tab[,((names(tab) == Slope)|(names(tab) == Elevation))] tab <- scale(tab) ## A K-select analysis acp <- dudi pca.(tab، scannf = FALSE، nf = 2) kn <- kselect(acp، x$factor، x$weight، scannf = FALSE، nf = 2) دوباره، مثال آنها فقط از متغیرهای پیوسته استفاده می کند. آیا dudi.mix متغیرها را در کدی که ما نمی بینیم به طور مناسب مقیاس می دهد؟ | مقیاس بندی مدل های ترکیبی برای PCA با استفاده از dudi.mix |
8065 | من داده های زیر را از 2 بیماری از 5 منطقه دارم. میخوام ببینم بین این 2 بیماری رابطه ای هست یا نه؟ میزان بروز 2 بیماری (در هر میلیون مورد در سال) مناطق بیماری 1 بیماری 2 1 4.653 0.751 2 6.910 1.121 3 4.957 0.745 4 2.870 0.848 5 2.8619 بیماری 2 مورد بیماری هستند 1. 1 1152 186 2 2601 422 3 1051 158 4 403 119 5 290 120 من یک مبتدی در آمار زیستی هستم. لطفا به زبان ساده مرا راهنمایی کنید | ایجاد ارتباط بین 2 بیماری |
71787 | آیا بهتر است داده ها را به یک محدوده، مثلاً [0،1] محدود کنیم یا میانگین 0 و sd از 1 را مجبور کنیم؟ چرا؟ آیا نوع داده های ورودی مهم است (من از متغیرهای پیوسته و طبقه ای استفاده خواهم کرد)؟ | با استفاده از KNN برای پیش بینی، چگونه باید داده های خود را عادی کنم؟ |
30009 | من یک جمعیت معین U دارم. اعضای x از U هر کدام یک ویژگی p را برآورده می کنند یا ندارند. یعنی p(x) برای هر x در U یا درست یا نادرست است. من این کار را با نمونه برداری مکرر از U (با جایگزینی) برای مدتی ثابت مانند 60 ثانیه انجام می دهم. (این یک برنامه کامپیوتری است که من در مورد آن صحبت می کنم.) پس از نمونه برداری از n مورد، به این نتیجه می رسم که نسبت تعداد آیتم هایی است که پیدا کردم که p درست است تقسیم بر n. فرض کنید f این کسر باشد (با 0 <= f <= 1). این همه به اندازه کافی ساده است. چیزی که میخواهم بدانم این است که آیا میتوانم کران بالایی b را روی خطای f ایجاد کنم یا نه. من ساده لوحانه فرض کردم که خطای b abs(f - f') است که در آن f' کسری است که پس از n - 1 نمونه محاسبه می شود. از آزمایش، متوجه شدم که این فرض اشتباه است. آیا راهی برای بدست آوردن یک کران محکم b وجود دارد؟ | محاسبه خطا در نمونه گیری |
18758 | در بازی ورق Pitch با استفاده از 1 عرشه با 52 کارت و 4 نفر در حال بازی و شش کارت به هر نفر داده می شود و من یک شریک دارم و یک پادشاه دارم و می خواهم در کت و شلواری که پادشاه در استفاده از پادشاه به همان اندازه که آیا درصدی که حریفان من دارای آس در لباس پادشاه من از 12 کارت خود هستند؟ | اگر من پادشاه را داشته باشم، احتمال دارد که حریف من در بازی با ورق Ace داشته باشد |
7482 | اگر kNN برای طبقه بندی بر روی یک مجموعه داده خوب عمل نکند، آیا امیدی به عملکرد بهتر روش های پارامتری وجود دارد؟ روشهای مبتنی بر هسته، SVM، جنگلهای تصادفی و شبکههای عصبی. آیا هر یک از اینها می تواند از روش kNN بهتر عمل کند؟ | دقت روش های پارامتریک پیشرفته در مقایسه با روش kNN |
76255 | من دو مدل با 24 متغیر در هر کدام دارم. میخواهم ببینم افزودن یک متغیر اضافی (متغیر در مطالعه) چگونه بر نتیجه تأثیر میگذارد. من از مدل های ترکیبی خطی تعمیم یافته برای هر دو مدل استفاده کردم. (فرمان GENLINMIXED). چگونه خروجی مدل ها را ذخیره و مقایسه کنم؟ من می خواهم کاری را انجام دهم که ANOVA در R انجام می دهد. دو مدل را با هم مقایسه کنید و مقدار P را پیدا کنید تا بررسی کنید که آیا تفاوت قابل توجهی بین دو مدل وجود دارد یا خیر. با تشکر فراوان. | مقایسه مدل در SPSS |
30005 | من از سری PCA با بازگشت ارز خارجی برای یافتن یک بتا در بازار استفاده می کنم. من از 10 سال داده روزانه با وزن نیمه عمر 2 ساله در PCA با استفاده از تابع PCA بسته FactoMineR استفاده می کنم. من اولین سری بازده مولفه اصلی را استخراج می کنم (بنابراین حاصلضرب اولین بردار ویژه و ماتریس بازدهی) و می خواهم آن را در برابر هر بردار بازده ارزی رگرسیون کنم تا باقیمانده ها را پیدا کنم، یعنی بازده هر ارز را مستقل از بازار پیدا کنم. بتا آیا باید از همان وزن نیمه عمر 2 ساله در رگرسیون ها استفاده کنم؟ آیا این وزن گیری را به نحوی دوبرابر می کند؟ برعکس، اگر رگرسیون را وزن نکنم، آیا به طور ضمنی روی بازده PC1 که کمتر «مرتبط» هستند، وزن زیادی میگذارم؟ برای آنچه ارزش دارد، فعالان بازار از نظر روانی تمایل بیشتری به رفتار ارزی اخیر نسبت به گذشته طولانی دارند. با تشکر از کمک. | در رگرسیون اجزای اصلی، آیا باید رگرسیون را مانند PCA وزن کنم؟ یا اصلا؟ |
44968 | لطفاً راه حل زیر را برای تخمین پارامتر میانگین متحرک با استفاده از روش گاوس-نیوتن (خطی سازی) بررسی کنید. من MA(1) را در نظر میگیرم. مدل MA(1): $$z_t=a_t-\theta_1a_{t-1}.$$ **راه حل:** باقیمانده این مدل، $$a_t=z_t+\theta_1a_{t-1} است.$$ مجموع مربعات باقیمانده این مدل برابر است با $$S(\theta_1)=\sum_{t=1}^Ta_t^2=\sum_{t=1}^T(z_t+\theta_1a_{t-1})^2.$$ می خواهیم تابع را کوچک کنیم از مجموع مربعات باقیمانده این مدل. و از آنجایی که میانگین متحرک غیرخطی است، از هر روش تخمین غیرخطی استفاده می کنیم، در حال حاضر از روش گاوس-نیوتن استفاده می کنیم. رویه گاوس-نیوتن: فرض کنید $\theta_1^{(0)}$ تخمین اولیه مدل باشد. سپس مجموع مربعات باقیمانده $$S(\theta_1)=\sum_{t=1}^T(z_t+\theta_1^{(0)}a_{t-1})^2.$$ خواهد بود. $a_{t-1}$ موجود نیست، پس باید به صورت بازگشتی برای $a_t$ با استفاده از برآورد اولیه $\theta_1^{(0)}$ محاسبه کنیم. یعنی $$a_1=z_1+\theta_1^{(0)}a_{0}$$ $$a_1=z_1+0، زیرا\,\, a_{0}=0$$ سپس $$a_2=z_2+ \theta_1^{(0)}a_1=z_2+\theta_1^{(0)}z_1$$ و غیره. سپس پس از به دست آوردن این مقادیر، میتوانیم مجموع مربعهای باقیمانده را محاسبه کنیم. مدل $E\left[z_t|a_{t-1}\right]$of MA(1) $E\left[a_t\right]-\theta_1E\left[a_{t-1}\right]= است. -\theta_1a_{t-1}.$ تقریب $E\left[z_t|a_{t-1}\right]$ با بسط سری تیلور در مورد اولیه آن حدس زدن ارزش ما داریم، $$E\left[z_t|a_{t-1}\right]=E\left[z_t|a_{t-1}\right]+\left.\frac{\جزئی E\left[z_t |a_{t-1}\right]}{\جزئی \theta_{1}}\right|_{\theta_1=\theta_1^{(0)}}(\theta_1-\theta_1^{(0)})$$ با استفاده از شکل کلی مدل رگرسیون خطی: $$ Y_t=f(X_t،\boldsymbol\beta)+e_t$$ $E\left[Y_t\right]=f(x_t,\boldsymbol{\beta})$ سپس، وصل کردن $E\left[z_t|a_{t-1}\right]$ به مدل تبدیل به $$ می شود Y_t=E\left[z_t|a_{t-1}\right]+\left.\frac{\جزئی E\left[z_t|a_{t-1}\right]}{\partial \theta_{1}}\right|_{\theta_1=\theta_1^{(0)}}(\theta_1-\theta_1^{ (0)})+e_t$$ سپس، $$Y_t-E\left[z_t|a_{t-1}\right]=\left.\frac{\جزئی E\left[z_t|a_{t-1}\right]}{\partial \theta_{1}}\right|_{\theta_1=\theta_1^{(0)}}(\theta_1-\theta_1^{ (0)})+e_t$$ اجازه دهید $\left.\frac{\partial E\left[z_t|a_{t-1}\right]}{\partial \theta_{1}}\right|_{\theta_1=\theta_1^{(0)}}$ be $D_{t1}^{(0)}$ و $(\theta_1-\theta_1^{(0) })$ $\delta_{1}^{(0)}$ باشد. سپس این معادل است با $$z_t-(-\theta_1^{(0)}a_{t-1})=D_{t1}^{(0)}\delta_{1}^{(0)}+ e_t$$ $$Y^{(0)}=D_{t1}^{(0)}\delta_{1}^{(0)}+e_t$$ کجا: $Y^{(0)}=z_t-(-\theta_1^{(0)}a_{t-1})$ بنابراین با حداقل مربع معمولی، تخمین $\delta_1^{(0)}$ است ، $$\widehat{\delta}_1^{(0)}=(D_{t1}^{(0)})^{-2}D_{t1}^{(0)}Y^{(0)} .$$ تخمین واقعی خواهد بود، $$\theta_1^{(1)}=\theta_1^{(0)}+\widehat{\delta}_1^{(0)}$$ The $\theta_1^{(1)}$ تخمین نهایی نیست، بلکه یک مقدار حدس اولیه جدید برای پارامتر خواهد بود. این روش تکراری تا زمانی که همگرایی رخ دهد انجام می شود. آیا این درست است؟ من واقعا از کمک شما قدردانی می کنم. | روش گاوس-نیوتن برای تخمین پارامتر MA |
30001 | من این داده را دارم که شامل واریانس برای فواصل مختلف است، منظورم واریوگرام تجربی است. چگونه می توانم یک مدل variogram از این در متلب ایجاد کنم | ایجاد واریوگرام مدل از واریوگرام تجربی |
74364 | یکی از تفاوت های اصلی بین بیزی ها و مکررگرایان این است که آنها تفسیری ذهنی از احتمال دارند. با این حال، آیا بیزیها واقعاً احتمالات مرتبط با یک نتیجه را با توجه به مجموعهای از پارامترها (به عنوان مثال برای احتمال) به صورت ذهنی تفسیر میکنند یا فقط این است که آنها یک احتمال ذهنی را به قبلی و همچنین به عنوان پیامد به پسین مرتبط میکنند؟ (اما $p(x | \theta)$ به طور مشابهی تصور می شود که افراد متداول در مورد آن فکر می کنند.) | آیا بیزی ها توزیع احتمال را نیز ذهنی تفسیر می کنند؟ |
40668 | من داده هایی از یک نظرسنجی سالانه دارم که به دنبال ارزیابی نیازهای مصرف کنندگان در مقیاس 1 (کم اهمیت ترین) تا 5 (مهم ترین) است. بنابراین، من داده هایی دارم که به نظر می رسد:  هدف من ارزیابی این است که آیا نیازهای مصرف کنندگان در طول سال ها تغییر کرده است یا خیر من معتقدم که رویکرد صحیح برای ارزیابی اینکه آیا نیازها تغییر کرده اند، انجام یک آنالیز واریانس یک طرفه با عامل سال است. با این حال، رویکرد دیگر این است که میانگین نمونه را در طول سال ها در نظر بگیرید، مانند جدول زیر:  سپس می توانیم یک رگرسیون خطی در نظر بگیریم. رم در مقابل سال و بررسی کنید که آیا شیب به طور قابل توجهی با 0 متفاوت است یا خیر. نوسان است و به دلیل هیچ گونه تغییر زمینه ای نیست. اشکالات رویکرد دوم نسبت به روش اول چیست؟ آیا آنها احتمالاً به سؤالات مختلفی می پردازند؟ آیا آزمایش دوم، آزمایش ضعیف تری برای تغییرات در نیازهای مشتری است، زیرا اطلاعات نمونه را از دست می دهیم؟ | مشکلات انجام رگرسیون بر روی میانگین های نمونه به جای ANOVA در تنظیمات سری زمانی چیست؟ |
76250 | من تازه وارد آمار هستم و سعی می کنم تفاوت بین ANOVA و رگرسیون خطی را درک کنم. من از R برای کشف این موضوع استفاده می کنم. من مقالات مختلفی را در مورد اینکه چرا ANOVA و رگرسیون متفاوت هستند، اما هنوز یکسان هستند و چگونه می توان آنها را تجسم کرد، خواندم. من میدانم که ANOVA واریانس درون گروهی را با واریانس بین گروهها مقایسه میکند تا مشخص کند که آیا بین هر یک از گروههای آزمایش شده تفاوت وجود دارد یا نه. (https://controls.engin.umich.edu/wiki/index.php/Factor_analysis_and_ANOVA) برای رگرسیون خطی، من یک پست در این انجمن پیدا کردم که می گوید وقتی ما تست می کنیم که آیا b (شیب) = 0 است، می توان آن را آزمایش کرد. (چرا ANOVA به گونه ای آموزش داده می شود که گویی یک روش تحقیق متفاوت در مقایسه با رگرسیون خطی است؟) برای بیش از دو گروه یک وب سایت پیدا کردم. بیان می کند: فرضیه صفر این است: $\text{H}_0: µ_1 = µ_2 = µ_3$ مدل رگرسیون خطی این است: $y = b_0 + b_1X_1 + b_2X_2 + e$ خروجی رگرسیون خطی است، با این حال، پس رهگیری برای یک گروه و تفاوت این رهگیری برای دو گروه دیگر. (http://www.real-statistics.com/multiple-regression/anova-using-regression/) برای من، این به نظر می رسد که در واقع رهگیری ها با هم مقایسه می شوند نه شیب ها؟ مثال دیگری که در آن رهگیریها را به جای شیبها مقایسه میکنند، میتوانید در اینجا پیدا کنید: (http://www.theanalysisfactor.com/why-anova-and-linear-regression- are-the-same-analysis/) من اکنون در تلاش هستم تا درک کنید که واقعاً چه چیزی در رگرسیون خطی مقایسه می شود؟ شیب ها، رهگیری ها یا هر دو؟ | R: آنوا و رگرسیون خطی |
7485 | آیا می توانید به من کمک کنید تا استدلال زیر را در مورد قابلیت شناسایی اثر تصادفی $v$ در یک مدل افزایشی کامل کنم. در یک مدل افزایشی مانند $X\beta + v$ مکان $v$ غیرقابل شناسایی است زیرا $X\beta + v = (X\beta + a) + (v-a)$ متشکرم! **ویرایش** (به دنبال نظر mpiktas) آیا موارد زیر برای شما منطقی است؟ اجازه دهید $v\sim N(\mu, \sigma^2)$ را فرض کنیم. در مدل قبلی، $\mu$ قابل شناسایی نیست زیرا ما همیشه میتوانیم مقداری $a$ را به وقفه اضافه کنیم و آن را به $\mu$ کم کنیم، و این احتمال را تغییر نمیدهد. به عبارت دیگر، فرد نیاز به اعمال محدودیت دارد، به عنوان مثال، $E(v)=\mu=0$. | شناسایی یک اثر تصادفی در یک مدل افزایشی |
89939 | من در استخراج k-means از Mixture of Gaussians مشکل دارم. من از نماد Bishop (2006)، بخش 9.3.2 پیروی می کنم: فرض کنید: $$ p(\mathbf{x}| \boldsymbol{\mu}_k, \boldsymbol{\Sigma}_k) = \frac{ 1}{(2\pi \epsilon )^{1/2}} \exp \left( \frac{ -1 }{2 \epsilon } \|. \mathbf{x} - \boldsymbol{\mu} \|^2 \راست) $$ $$ \mathbb{E} \left[ \ln p \left( \mathbf{X, Z} | \boldsymbol {\mu، \Sigma، \pi} \right) \right] = \sum_{n=1}^{N} \sum_{k=1}^{K} \gamma(z_{nk}) \left \lbrace \ln \pi_k + \ln \mathcal{N} ( \mathbf{x}_n | \boldsymbol{\mu}_k، \boldsymbol{\Sigma}_k ) \راست \rbrace $$    دارای ادعا شده است که اگر حد $ \epsilon \rightarrow 0 $ را بگیریم، خواهیم داشت: $$ \mathbb{E} \left[ \ln p \left( \mathbf{X, Z} | \boldsymbol{\mu، \Sigma، \pi} \right) \right] = -\frac{1}{2} \sum_{n=1}^{N} \sum_{k=1}^{K} r_{nk} \| \mathbf{x}_n - \boldsymbol{\mu}_k \|^2 + \text{const.} $$ نشان دادن اینکه $\gamma(z_{nk}) \rightarrow r_{nk}$ آسان است. اما برای من مشخص نیست که چگونه معادله بالا را نشان دهم. کسی میتونه کمک کنه؟ | اشتقاق دقیق برای یافتن k-means از مخلوط های گاوسی |
8063 | چگونه می توانم همبستگی خطی متغیرهای غیرعادی توزیع شده را اندازه گیری کنم؟ ضریب پیرسون برای داده های غیرعادی توزیع شده معتبر نیست و rho اسپیرمن همبستگی خطی را نشان نمی دهد. متشکرم | اندازه گیری همبستگی خطی متغیرهای غیرعادی توزیع شده |
38230 | فرض کنید ${\bf X} = (X_1، \dots، X_n)$ شدت ورود به سیستم همه طوفانهای استوایی $n = 291 $ از حوضه اقیانوس اطلس شمالی بین سالهای 1980 و 2006 را نشان میدهد. شدت لگاریتم به عنوان لگاریتم تعریف میشود. حداکثر سرعت باد پایدار آن (در گره اندازه گیری می شود). یک طوفان استوایی در صورتی که حداکثر سرعت باد پایدار آن 137 گره یا بیشتر باشد، یعنی اگر شدت ورود آن 4.92 یا بیشتر باشد، طوفان دسته 5 است. ما علاقه مند به احتمال $p \in [0,1]$ یک طوفان استوایی هستیم که به قدرت دسته 5 برسد. مدل زیر را در نظر بگیرید: $X_i \overset{{\rm iid}}{\sim} \mathsf{Normal}(\mu, \sigma^2)$، که $\sigma = 0.33، \mu \in (-\ infty، \infty)$. تحت این مدل $p = \Phi\left({\mu - 4.92 \over \sigma}\right)$ که $\Phi(x)$ نشاندهنده CDF معمولی استاندارد است. بازه اطمینان 95% ML را برای $p$ بر اساس خلاصههای زیر از دادهها پیدا کنید $$\bar x = 4.21 \quad \sqrt{n} = 17.06 \quad \#\{x_i \ge 4.92\} = 9$ $ * * * **My Work** فرمول یک بازه ML برای $X_i \overset{{\rm iid}}{\sim} \mathsf{Normal}(\mu, \sigma^2)$ با $\sigma$ شناخته شده $B_c(x) = [\bar X \mp c{\sigma \over \sqrt{n}}]$ است. با محاسبه در این خطوط، برای $c = 1.96$ به عنوان مقدار $z$ که احتمال $0.05$ را در دو دنباله ترکیبی از pdf معمولی باقی میگذارد، B_{1.96}(x) = [4.172, 4.247]$ دریافت میکنم، اما وقتی سعی می کنم نقاط انتهایی این بازه را برای $p$ ارزیابی کنم، با توجه به اینکه $\Phi(x)$ یک تبدیل یکنواخت است، جواب های مزخرفی می گیرم من چه غلطی می کنم؟ همچنین، این هرگز برای هیچ کلاسی تحویل داده نمی شود، من به سادگی با این مشکل برخورد کردم و تعجب کردم که چگونه می توان آن را حل کرد. | چگونه می توانم یک فاصله اطمینان ML 95٪ از احتمال قدرت دسته 5 را پیدا کنم |
76257 | من یک GLMM در R با استفاده از کد glmmPQL از بسته MASS اجرا می کنم. من یک خطای همگرایی از کد زیر دریافت کردم. Calvingglmm2<-glmmPQL(Distance~AllRoads+Natural,random=list(~1|جمعیت,~1|حیوان),data=dat,family=Gamma) خلاصه (Calvingglmm2) بنابراین من داشتم با کدم سر و کله می زدم تا ببینم چه اتفاقی افتاده است و من شروع به اجرای کد زیر روی زیرمجموعه ای از داده ها کردم و به طور تصادفی فقط یک مقدار را حذف کردم و ببینیم با نتایج چه اتفاقی میافتد. Calving.Sample <- dat [sample(1:nrow(dat), 72, replace=FALSE),] Calvingglmm3<-glmmPQL(Distance~AllRoads+Natural,random=list(~1|جمعیت،~1|حیوان)، data=Calving.Sample,family=Gamma) خلاصه (Calvingglmm3) باعث تعجب من شد هر بار که آن را اجرا می کردم، نتایج به شدت متفاوت بود. گاهی اوقات من همان خطای همگرایی را دریافت می کردم، گاهی اوقات نه. نمرات ضرایب بر اساس ترتیبات بزرگی بین آزمونها متفاوت بود، و مقادیر p از بسیار معنیدار تا نزدیک به 1 متغیر بود. من فقط کنجکاو بودم که آیا این یک رفتار عادی برای یک glmm است یا چیزی وجود دارد که در نوشتن کدم از قلم افتاده ام. پیشاپیش از هر گونه راهنمایی یا نظر متشکرم. همچنین، اگر راهنمایی در مورد همگرایی مدل اصلی دارید، بسیار سپاسگزار خواهم بود (من سعی کردم مقادیر شروع را به بهترین شکل ممکن اختصاص دهم، اما جایی پیدا نکردم که نظریه پشت این را توضیح دهد، بنابراین من فقط حدس زدن). Dat<-structure(list(Distance = c(1162.19822264933, 933.7389356964, 12464.4096318671, 2302.50341687867, 2308.50165384 3915.18043060571, 17837.96671385, 17473.9826616, 4370.44787757821, 9661.80979659471, 494.8187020 6343.92286937286, 10330.586481458, 7624.58478308857, 14897.9088190286, 1243.54364758029, 19114726. 33453.3717670143, 16970.6123001571, 28644.182422185, 320.560246296333, 246.9661127017, 51813.924 7140.31194765857, 45598.15814312, 41031.9354510571, 268.281266841133, 3260.011811305, 8973.61423, 8979.61423 4251.30789989014, 4082.86162842957, 5385.99524586143, 1251.47504851657, 4804.98184018143, 143949, 182940. 20401.4590098429, 2553.975445222, 4041.81979881614, 1484.13677199571, 1169.66034782414, 131349.15 1126.19983308043, 8259.06344765571, 1161.20714680757, 4181.80076622643, 40775.1222074, 9290,5141 2776.47225473183, 8576.42940441429, 15609.1535519286, 14714.6743856143, 19679.1616246857, 174846. 79828.7094106857, 4493.81152102286, 1601.71799450794, 30602.4498660167, 28884.2104902, 4852,37106 143.320137176271, 9140.66714171429, 15083.7211804857, 519.610817095514, 881.757008642143, 109471, 109471 32624.0004534714, 20764.3259027857, 793.753925335571, 12702.5984742143, 2203.06065660571, 14478, 14479. 9578.73109709, 8055.94785827714, Animal = ساختار(c(19L, 19L, 20L, 21L, 21L, 21L, 22L, 22L, 22L, 23L, 24L, 2,6L, 24L, 24L, 22L, 22L, 23L, 24L,6L,2 42 لیتر، 43 لیتر، 44 لیتر، 45 لیتر، 28 لیتر، 29 لیتر، 30 لیتر، 31 لیتر، 31 لیتر، 31 لیتر، 31 لیتر، 32 لیتر، 32 لیتر، 33 لیتر، 33 لیتر، 33 لیتر، 34 لیتر، 34 لیتر، 34 لیتر، 34 لیتر، 36 لیتر، 36 لیتر، 37 لیتر، 38 لیتر، 39 لیتر، 40 لیتر، 41 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 5 لیتر، 6 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 8 لیتر، 9 لیتر، 9 لیتر، 10 لیتر، 1،1،1،1، 1،1، 12 لیتر، 13L، 13L، 14L، 15L، 16L، 17L، 17L، 18L، 18L)، .Label = c(107، 108، 109، 111، 112، 170، 172 ، 173، 175، 176، 177، 179، 180، «181»، «182»، «183»، «184»، «188»، «Atiko01»، «Atiko03»، «Atiko14»، «Atiko19»، «Atiko20»، «BLDVN01»، «BLDVN08»، «BLDVN10» ، BLDVN13، GPS05، GPS06، GPS11، OWL07، «OWL10»، «OWL11»، «OWL17»، «OWL18»، «OWL22»، «OWL31»، «OWL32»، «OWL33»، «OWL34»، «OWL36»، «ROUND02»، «ROUND05»، «ROUND06» ، ROUND09)، کلاس = ضریب)، سال = c(2000L، 2001L، 2001L، 2006L، 2007L، 2008L، 2006L، 2007L، 2008L، 2007L، 2001L، 2003L، 2004L، 2008L، 2008L، 2002L، 2002L، 2008L، 2002L. 2002L، 1997L، 1997L، 1998L، 2003L، 2004L، 2005L، 2006L، 2004L، 2005L، 2004L، 2005L، 2006L، 2007L، 2005L، 2006L. 2008L، 2005L، 2006L، 2007L، 2008L، 2008L، 2008L، 2008L، 2008L، 2008L، 2010L، 2011L، 2011L، 2010L، 2010L. 2011L، 2010L، 2011L، 2011L، 2010L، 2011L، 2010L، 2011L، 2010L، 2011L، 2010L، 2011L، 2010L، 2011L، 2011 2010L، 2010L، 2010L، 2010L، 2011L، 2010L، 2011L)، AllRoads = c(19018.3333333333، 20042.8، 31917.71328166666.714.714.666.676.717.714.676.676.714.714.8566.676.676.714.714.8566 39712, 38754.5714285714, 873, 10783.1666666667, 1703.42857142857, 27205.5714285714, 3968.6, 3968.6, 3968.6, 105714, 3968.6, 105714 1444, 1707.14285714286, 6424, 17395.8571428571, 13087.2857142857, 4435.42857142857, 2236.3333333 2513.16666666667, 1119.66666666667, 7531.28571428571, 2055.71428571429, 1183.4, 3636.1428571428, 3636.1428571428 1035.33333333333, 1240, 2483.28571428571, 1368.57142857143, 3534, 694.857142857143, 814, 328269.14 191.571428571429, 208.142857142857, 632, 236.428571428571, 1029.57 | تغییرات چشمگیر در نتایج از glmm با تغییرات جزئی در مجموعه داده |
86605 | ### پیشینه در علوم حسی، «تکرار» به معنای داشتن یک پانلیست در یک پانل چشایی است که چندین دور از یک آزمون را انجام دهد. شما نمیتوانید آن دورهای اضافی را فقط بهعنوان شرکتکنندگان اضافی در نظر بگیرید، زیرا ممکن است اعضای پانل عملکرد ثابتی از خود نشان دهند. در آن صورت، تکرارها به جای ارائه اطلاعات بیشتر در مورد تفاوت بین این دو محرک، فقط تواناییهای افراد پانل را تایید میکنند. بنابراین، تئوری استفاده از یک مدل دوجملهای بتای تصحیح شده را پیشنهاد میکند که در آن فرض میشود تواناییهای شرکتکنندگان بهصورت بتا توزیع میشوند، نه بین ۰ و ۱، بلکه بین $C$ (احتمال حدس زدن تست طعم استفادهشده) و ۱: $$ P(x|n,a,b,C)=\frac{(1-C)^n}{B(a,b)}\binom{n}{x}\sum_{i=0}^{x }\binom{x}{i}\left(\frac{C}{1-C}\right)^{x-i}B(a+i,n+b-x) $$ $C$ احتمال حدس زدن روش تست مورد استفاده (در مورد من $C=\frac{1}{3}$)، $n$ تعداد تکرارها است (در مورد من $n=2$ برای همه پانلها)، $x$ تعداد موفقیتها است. احتمال گزارش: $$ L=\sum_{i=1}^{k}log[Pr(x_i|n_i,\mu,\gamma)] $$ $k$ تعداد اعضای پانل است (در مورد من $k= 54$)، $n_i$ و $x_i$ تعداد تکرارها و موفقیتهای $i$th پانلیست، $\mu$ میانگین، $\gamma$ است پارامتر بیش از حد پراکندگی (گاهی اوقات به عنوان $\rho$ نیز نامیده می شود). $a$ و $b$ را می توان از $\mu$ و $\gamma$ محاسبه کرد: $$ a=\mu\left(\frac{1}{\gamma}-1\right)\text{ و }b =(1-\mu)\left(\frac{1}{\gamma}-1\right) $$ (Bi، تستها و اندازهگیریهای تشخیص حسی، 2006، همانطور که در Gacula et نشان داده شده است. al., Statistical Methods in Food and Consumer Research, 2009, § 10.3, همچنین نگاه کنید به Brockhoff, The Statistical Replications in tests, 2003 and Næs et al., Statistics for Sensory and Consumer Science, 2010 § ##7.) نتایج آزمایش من 54 پانلیست را داشتم که 2 تکرار از a را انجام دادند تست حسی با احتمال حدس زدن 33% (n=2، k=54، C=1/3)، همه این دو دستور پخت پنکیک مشابه را با هم مقایسه می کنند. بسته به تفاوت طعم بین دستور پخت پنکیک، شما انتظار دارید که نسبت مشاهده شده موفقیت $p_c$ از 33% در صورت عدم تفاوت طعم به 100% در صورت تفاوت طعم آشکار افزایش یابد. با این حال، نتایج آزمایش من نشان میدهد که شرکت کنندگان پنکیک تنها در 29 مورد از 108 دور (27 درصد) به درستی پنکیکها را گروهبندی کردهاند. این کد R برای داده های من است: round1 <- c(0, 0, 1, 0, 0, 1, 0, 0, 1, 1, 0, 1, 1, 0, 0, 0, 0, 0 , 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 0، 0، 1، 0، 0، 0، 0، 0، 1، 1، 1، 0، 0، 0، 0، 0، 0، 1، 0، 1، 0) round2 <- c(1، 0 , 1, 0, 0, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0، 1، 1، 1، 0، 0، 1، 0، 0، 0، 0، 1، 0، 1، 0، 0، 0، 0، 0، 0، 0، 0، 1، 0، 0، 0، 0، 0، 0، 0، 0، 1، 0، 1، 0، 1، 0، 0) x <- round1 + round2 n <- c(rep(2,length(x))) dat <- data.frame(id = factor(1:length(x)), x, n) من هیچ دلیلی ندارم که فرض کنم اعضای میزگرد داده اند پاسخهای اشتباه عمدی، و یا اینکه من نمونهها را با هم قاطی کردم، بنابراین حدس میزنم این فقط شانس بود که منجر به این عملکرد کم شد. ### تخمین حداکثر احتمال همانطور که در Gacula توضیح داده شد (به پیوند بالا مراجعه کنید)، من یک تابع R از احتمال ورود به سیستم ذکر شده در بالا مدل بتا دو جمله ای (CBB) تصحیح شده ایجاد کردم، آن را llcbb نامیدم، سپس nlminb را برای پیدا کردن اجرا کردم. MLE- برآوردهای $\mu$ و $\gamma$. تخمین $\mu$ نزدیک به 0 است و تخمین $\gamma$ معمولاً نزدیک به مقدار شروع آن باقی می ماند: fit<-nlminb(start=c(.1, .9)، تابع(x) -1* llcbb(dat,mu=x[1],gamma=x[2],1/3) ,control=list(trace=1)) fit$par # [1] 5.986091e-13 8.974503e-01 fit<-nlminb(start=c(.1، .1)، تابع(x) -1*llcbb(dat,mu=x[1],gamma=x[2],1/3) control=list(trace=1)) fit$par # [1] 3.040535e-12 9.976926e-02 تصویر زیر من را نشان می دهد یافتههای سیاه و برخی از پیکربندیهای احتمالی مدل CBB. خط فیروزه ای نشان می دهد که وقتی $\mu$ به 0 نزدیک می شود، دیگر واقعاً مهم نیست $\gamma$ چیست. حدس میزنم این توضیح میدهد که چرا nlminb $\gamma$ را دست نخورده باقی میگذارد.  ### تخمین لحظه با استفاده از فرمولهای دیگر ارائه شده توسط Gacula (به پیوند بالا مراجعه کنید) من تخمینهای لحظهای زیر را محاسبه کردم: $$ \hat{\mu}=-0.097222\text{, }\hat{\gamma}= 0.349006 $$ ویکی پدیا موارد زیر را در مورد تخمینهای گشتاور منفی بیان میکند: > توجه داشته باشید که این تخمینها میتوانند غیرعقلی منفی باشند که شواهدی است که نشان میدهد دادهها نسبت به توزیع دوجملهای یا پراکنده نیستند یا کم پراکنده هستند. در این مورد، توزیع دوجمله ای و توزیع بیش هندسی > به ترتیب کاندیدای جایگزین هستند. (توزیع دو جمله ای بتا. (2014، 7 فوریه). در ویکی پدیا، دایره المعارف آزاد. بازیابی شده در 14:42، 14 فوریه 2014، از http://en.wikipedia.org/w/index.php?title=Beta - binomial_distribution&oldid=594290522) من پیشنهاد بازگشت به توزیع دو جمله ای را درک می کنم، اما حتی در آن زمان هنوز هم احساس میکنم باید در مورد پراکندگی مطمئن شوم، زیرا حد بالای فاصله اطمینان در $p_c$ بسته به اینکه بتوانم از r استفاده کنم کمی متفاوت است. | چگونه پراکندگی را بفهمیم اگر $\mu$ نزدیک یا کمتر از 0 باشد (مدل بتای دو جمله ای تصحیح شده با شانس) |
44961 | من روی اقتصاد چین کار می کنم و موضوع تحقیق من این است که چگونه بی ثباتی سیاسی خارجی می تواند بر صادرات چین تأثیر بگذارد. بنابراین من می خواهم تابع تقاضای صادرات چین را برای سال های 1988-2011 با بیش از 130 کشور تخمین بزنم. من می خواهم معادله رگرسیون ارائه شده در زیر را تخمین بزنم. $$ \begin{align} \log(\mathrm{export})_{it} &= \beta_0+ \beta_1 \log(\mathrm{gdp واقعی})_{it}+ \beta_2 \log(\mathrm{جمعیت })_{it} \\ &\quad+ \beta_3\mathrm{ثبات سیاسی}_{it}+ \beta_4\mathrm{realexchange rate}_{it}+ \varepsilon_{it} \end{align} $$ که در آن $\log(\mathrm{export})_{it}$ (log) صادرات از چین به کشورهای دیگر و $t=1988, \ldots, 2011$. بر اساس تئوری اقتصادی، صادرات یک کشور نه تنها به تولید ناخالص داخلی و جمعیت داخلی بلکه به تولید ناخالص داخلی و جمعیت سایر کشورها نیز بستگی دارد. در تحقیقم، میخواهم تأثیر تولید ناخالص داخلی و جمعیت چین را بر صادرات چین در EViews در یک تخمین OLS ادغامشده کنترل کنم، اما نمیدانم چگونه این کار را انجام دهم. اگر این دو متغیر را کنترل نکنم، میتوانم یک تخمین OLS ترکیبی در EViews اجرا کنم. هر گونه کمکی بسیار قدردانی می شود. | کنترل متغیرها در تخمین OLS ادغام شده در EViews |
43365 | همانطور که برای همه شناخته شده است، مهندسی ویژگی برای یادگیری ماشین بسیار مهم است، با این حال من مواد کمی مرتبط با این حوزه پیدا کردم. من در چندین مسابقه در Kaggle شرکت کردم و معتقدم که ویژگی های خوب ممکن است حتی در برخی موارد مهمتر از یک طبقه بندی خوب باشد. آیا کسی هیچ آموزشی در مورد مهندسی ویژگی می داند یا این تجربه ناب است؟ | آموزش مهندسی ویژگی |
44969 | من یک سری زمانی دارم و یک شی AR(I)MA نصب کرده ام (من واقعاً فقط یک فرآیند ARMA می خواهم، بنابراین ترتیب (p,0,q)) در R است. اکنون می خواهم آن فرآیند را ادامه دهم (I حدس بزنید منظور من انجام شبیه سازی است). من arima.sim() را پیدا کردم اما مطمئن نیستم که چگونه آن را به استفاده از سری زمانی موجود خود برسانم (که میخواهم ادامه بدهم). امیدوارم سوالم منطقی باشه! با تشکر | ادامه فرآیند ARMA |
86609 | من از مدلهای ترکیبی (اثر تصادفی برای فرد؛ اندازهگیریهای مکرر) در lme4 برای مدلسازی یک نتیجه پیوسته استفاده میکنم. پیش بینی ها هم مقوله ای و هم مستمر هستند. متغیر نتیجه من (فشار خون؛ معمولاً بین 100 تا 170) در طول زمان یک تکامل غیر خطی دارد که در شکل زیر ارائه شده است.  کد استفاده شده: مدل <- lmer(فشار ~ جنسیت + درمان + شروع_سن + زمان_پیگیری + (1|شناسه_موضوع), داده= مخلوط6)    همانطور که می بینید (شکل ها) مدل من خطی بودن را برآورده نمی کند. من موارد زیر را امتحان کرده ام: * متمرکز کردن متغیر پاسخ * عدم مرکزیت متغیر زمان، یعنی استفاده از متغیر زمان همانطور که هست * با استفاده از لگاریتم متغیر زمان. * اضافه کردن مربع متغیر زمان (I(follow_up_time ^2)) به مدل. بیش از 700 هزار مشاهدات در این مطالعه وجود دارد. 120 هزار نفر من شنیده ام که با این تعداد مشاهدات، بسیاری از مفروضات خطی بودن اهمیت کمتری پیدا می کنند. توصیه ای در مورد تحولات دارید؟ آیا باید به مدل های ترکیبی تعمیم یافته یا شاید غیرخطی (nlme؟) تبدیل کنم؟ من واقعاً از نظراتی در مورد این موضوع خوشحال خواهم شد. | مشاوره برای تبدیل در مدل های ترکیبی |
71560 | من در حال مطالعه در مورد اصل MDL هستم و مشکل من در کتابی است به نام: راهنمای تجزیه و تحلیل هوشمند داده ها، ویرایش دوم صفحه 106. من در اینجا تصویر صفحه ای را که با آن مشکل دارم اضافه کردم. آیا کسی می تواند آنچه نویسنده در ناحیه برجسته می گوید رمزگشایی کند:  به نظر انتزاعی و گیج کننده است... وقتی او گیج می شوم میگه داده های اصلی تو خود قانون رفع فشار هست؟!...ها؟... و به خاطر همین بقیه اش رو متوجه نمیشم :/ ممنون میشم راهنمایی کنید | به درک توضیحی درباره اصل حداقل طول توضیحات کمک کنید |
7487 | چگونه می توانم اهمیت آماری ضرایب رگرسیون را در رگرسیون چند متغیره آزمایش کنم؟ | چگونه می توان معناداری آماری ضرایب رگرسیون را در رگرسیون چند متغیره آزمایش کرد؟ |
40666 | در صورت رگرسیون خطی چندگانه، من یک اثر قابل توجه در تجزیه و تحلیل زیر گروه (نمونه محدود به مردان) پیدا کردم. در تجزیه و تحلیل زیرگروه محدود به زنان هیچ تاثیری وجود ندارد. اما در مدلی از کل نمونه، واژه تعامل جنسیت معنادار نیست. من از این واقعیت آگاهم که نتیجه معنی دار در یک گروه و عدم تاثیر معنی دار در گروه دیگر لزوماً به معنای وجود تفاوت معنی دار ارتباط با متغیر وابسته بین دو گروه نیست. با این حال، مایلم نظر شما را بدانم که چگونه می توان چنین یافته ای را تفسیر کرد. آیا می توان استدلال کرد که شواهد محدودی وجود دارد که تفاوت در این معنا وجود دارد که شواهد آنقدر قوی نیست که در مورد تأثیر متقابل قابل توجه جنسیت وجود دارد؟ | چگونه می توان با تفاوت ها در تجزیه و تحلیل زیر گروه ها کنار آمد اما تعامل قابل توجهی نداشت؟ |
44962 | من سعی می کنم مدلی را بر روی مجموعه ای از داده هایی که از MT4 جمع آوری کرده ام تشکیل دهم. OHLC و برخی از شیب های MA. من سعی می کنم بهترین حدس را برای تغییر قیمت در آینده داشته باشم. من از # بستههای نیاز (quantmod) #برای Lag() require(nnet) require(caret) #مدل مدل مناسب <- train(change ~ Lag(change) + high + low + slope13 + slope50 + slope200، mt4، روش استفاده میکنم ='nnet'، linout=TRUE، trace = FALSE، #شبکه پارامترهای تنظیم برای امتحان: tuneGrid=expand.grid(.size=c(1,5,10),.decay=c(0,0.001,0.1))) ps <- predict(model, mt4) #Examine results Model plot(CHANGE) lines( ps، col=2) خروجی مدل با آنچه من از RSquared درک می کنم چندان خوب نیست. 6828 نمونه 6 پیشبینیکننده بدون پیش پردازش نمونهگیری مجدد: بوت استرپ (25 تکرار) خلاصه اندازههای نمونه: 6828، 6828، 6828، 6828، 6828، 6828، ... نتایج نمونهگیری مجدد در پارامترهای تنظیم: اندازه کاهش یافتن RMSE قرمز RMSE RSD 0 0.00483 0.00021 0.000124 0.000262 1 0.001 0.00483 0.000464 0.000124 0.000669 1 0.1 0.00483 0.00483 0.001 0.0001 صفر ده 0.00121 سوالات: 1. آیا به دلیل خروجی بد، مدل خود را به اشتباه آموزش می دهم؟ 2. چگونه می توانم بهترین حدس را برای تغییر میله های بعدی که برای آن تمرین می کنم بدست بیاورم؟ حتی اگر این مدل وحشتناک به نظر می رسد، خوب است بدانید که چگونه خروجی را دریافت کنید. | آموزش و پیش بینی شبکه عصبی R |
38237 | به عنوان مثال، ما همیشه فرض می کردیم که خطای داده یا سیگنال یک توزیع گاوسی است؟ چرا من این سوال را در stackoverflow پرسیده ام، پیوند: http://stackoverflow.com/questions/12616406/anyone-can-tell-me-why-we-always- use-the-gaussian-distribution-in-machine-learni | آیا کسی می تواند به من بگوید چرا ما همیشه از توزیع گاوسی در یادگیری ماشین استفاده می کنیم؟ |
81556 | من هم از رگرسیون لجستیک (توزیع دو جمله ای) و هم از رگرسیون چند جمله ای در طیف وسیعی از مجموعه داده های مختلف استفاده کردم. برای سادگی، من فقط یک متغیر توضیحی در پیش بینی خطی دارم. من همچنین با پیروی از این روش، مرزهای اطمینان احتمالات پیش بینی شده را محاسبه کردم. آنچه که من مشاهده کردم این بود که برای مجموعه داده های بزرگ، فواصل اطمینان من بسیار باریکتر از مجموعه داده های کوچکتر بود، که فکر می کردم منطقی است. با این حال، هنگامی که من به یک نمودار تشخیصی مانند تعداد مورد انتظار در مقابل مشاهده شده نگاه می کنم، حتی برای مجموعه داده های بزرگ، برخی انحرافات سیستماتیک قابل مشاهده از داده ها از تناسب وجود دارد که ظاهراً توسط فواصل اطمینان منعکس نمی شوند، که به نظر می رسد چنین تغییراتی را دست کم می گیرند. . منظور من این است که انتظار دارم CI ها گسترده تر باشند تا این انحرافات را منعکس کنند. هیچ ایده ای در مورد اینکه چرا این مورد می تواند باشد؟ یا من چیزی را در تفسیر / محاسبه فواصل اطمینان از دست می دهم؟ | درک مرزهای اطمینان در رگرسیون لجستیک و چند جمله ای |
38236 | یک مجموعه داده دارای چند ویژگی است. یکی از ویژگی ها (ویژگی X) فاصله ای را با مقادیر بیان شده در متر نشان می دهد. من از اعتبارسنجی متقاطع برای تخمین عملکرد طبقهبندیکننده درخت تصمیم و k نزدیکترین همسایه استفاده میکنم. سوالات من 1) چرا عملکرد k-nn تغییر می کند اگر من نمایش ویژگی X را به جای m به cm تغییر دهم؟ 2) چرا اگر تمام صفات را در 20 ضرب کنم عملکرد k-nn و درخت تصمیم تغییر نمی کند؟ | k نزدیکترین همسایه با درخت تصمیم |
5836 | این بیشتر یک سوال چگونگی استفاده از R است تا یک سوال آماری هاردکور واقعی، اما من فکر می کنم تمرکز استادان R در اینجا این انجمن را به انجمن خوبی برای آن تبدیل می کند. من یک بسته گرافیکی سری زمانی را تازه می کنم که در حال حاضر از gnuplot استفاده می کند. اولین قدم نزدیک شدن به نمودارهای فعلی است، و سپس امیدوارم بتوانم تحلیل های آماری بیشتری را بعداً از R اضافه کنم. در حال حاضر، نمودارهای تولید شده توسط gnuplot به این شکل هستند:  نمودار مربوطه از R به این صورت است:  من از این موضوع نسبتاً راضی هستم. چیزی که از دست رفته، موارد افسانه ای از زیر نمودار gnuplot است. من می توانم افسانه ای اضافه کنم که می گوید In و Out، اما چگونه می توان مقادیر میانگین، حداکثر و حداقل را به بهترین نحو ارائه کرد؟ من می توانم خطوط افقی را به نمودار اضافه کنم و مقادیر را در داخل منطقه نمودار چاپ کنم، اما قرار دادن ممکن است با نمودار واقعی تداخل داشته باشد. | حاشیه نویسی نمودارها در R |
81555 | من روی مدل رشد گومپرتز کار میکنم تا وزن را متناسب با سن: $$ m(a)=m_{\infty}e^{-\gamma exp(-g{1}a)}$$ Where $m_{\ infty}$ و $g_{1}$ ضرایبی هستند که باید تخمین زده شوند. برای مقابله با عدم نرمال بودن، دادههایم را با استفاده از Box&Cox تبدیل کردم و برای مقابله با ناهمگونی از وزنها استفاده کردم. پس از اعمال _Box &Cox_، یک مدل را با تابع **R** «nls()» قرار دادم و از باقیمانده های این مدل به عنوان وزن $(w_{i}=1/StudentizedResiduals_{i})$ در یک برازش جدید استفاده کردم. من باید ضریب $\mu=m_{\infty}e^{-1}$ و خطای استاندارد آن را تخمین بزنم. **سؤال 1:** از آنجایی که من $m_{\infty}$ دارم و خطای استاندارد آن با nls() تخمین زده شده است، آیا می توانم خطای استاندارد $\mu$ را به این صورت محاسبه کنم:$$StdErr( \mu)=StdErr(m_{\infty})e^{-1}$$ یا باید این خطای استاندارد را به روش دیگری تخمین بزنم؟ **سوال 2:** در نتیجه برنامه _Box &Cox_ ضرایب تخمینی من در مقیاس متفاوتی قرار دارند و تفسیر آنها دشوار است. از این سوال متوجه شدم که نمی توانم ضرایب را تغییر دهم، اما پیشنهادی وجود دارد که چگونه تفسیر ضرایب تبدیل شده را آسان تر می کند؟ پیشاپیش ممنون | محاسبه خطای استاندارد یک ضریب که از سایر ضرایب برآورد شده محاسبه می شود |
44963 | مدل خطی $y = \mathbf{X}\mathbf{\beta} + \epsilon$ را در نظر بگیرید. ماتریس واریانس کوواریانس باقیمانده توسط $\text{Var}(\epsilon)$ داده می شود. در کتاب درسی گرین* آمده است: $$Var(\epsilon) = E[Var[\epsilon|\mathbf{X}]] + Var[E[\epsilon|\mathbf{X}]]$$ **چرا این مورد؟** همچنین، **چرا این مفید است**؟ * * * *صفحه 62 در تحلیل اقتصاد سنجی نوشته ویلیام اچ. گرین | تجزیه واریانس در مدل رگرسیون خطی |
86608 | من یک **عملکرد بسیار پیچیده** دارم که سعی می کنم کامپیوترم را با استفاده از CNN یاد بگیرد. این شامل 70 در 70 تصاویر خاکستری است. خروجی نهایی خروجی آخرین واحد است (به این دلیل است که من می خواهم احتمالات را از 0 تا 1 پیش بینی کنم). بهترین معماری لایه برای پرداختن به پیچیدگی اما در عین حال منجر به برازش بیش از حد نمی شود. هر ایده ای؟ | اندازه لایه ها در پیچیدگی NN |
38232 | من یک سوال در رابطه با تخمین تابع خطی دارم. فرض کنید مدل تابع خط پتانسیل را می توان به صورت «ax+by+c=0» بیان کرد، جایی که «a، b، c» پارامترهای ناشناخته ای هستند که باید تخمین زده شوند. اکنون مجموعهای از دادهها «(x1،y1)، (x2، y2)، ... (xn، yn)» داده میشود، و میخواهیم از این دادهها برای تخمین پارامترها استفاده کنیم. از آنجایی که نقاط پرت (نقاطی که برای تخمین مدل مناسب نیستند) ممکن است در این مجموعه داده وجود داشته باشد، یکی از راههای جلوگیری از پرت این است که «sum(abs(a*xi+b*yi+c)) را به حداقل برسانیم (i=1،2، ...، ن)`. با این حال، من نتوانستم بفهمم چگونه می توانم این عملکرد را گام به گام به حداقل برسانم، آیا کسی می تواند سرنخ هایی به من بدهد؟ با تشکر | تخمین تابع خطی نرمال L1 |
43361 | در ادامه این سوال، من دادههای زیر را دارم: درمان سایت Survival 1 BED DN 1.0 2 BED DN 1.0 3 BED DN 1.0 4 BED MB 1.0 5 BED MB 1.0 6 BED MB 0.9 7 BED Forest 0.4 0.5 BED Forest 0.4 0.5 BED جنگل 9 تخت 0.4 10 BRO DN 0.9 11 BRO DN 1.0 12 BRO DN 1.0 13 BRO MB 1.0 14 BRO MB 1.0 15 BRO MB 1.0 16 BRO Forest 1.0 17 BRO Forest 1.0 18 BRO MB 1.0 L.0N 1.0N 21 LAP DN 0.6 22 LAP MB 0.5 23 LAP MB 1.0 24 LAP MB 0.7 25 LAP Forest 0.2 26 LAP Forest 0.2 27 LAP Forest 0.4 که روی آن یک glm دوجمله ای اجرا کردم : <Turvivalreat,Sglm. data=surv، family=binomial, weights=rep(10, nrow(surv))) > anova(glm.out, test=Chisq) تجزیه و تحلیل مدل جدول انحراف: binomial، پیوند: logit پاسخ: شرایط بقا به ترتیب (اول تا آخرین) Df Deviance Resid اضافه شد. دی اف رزید. Dev P(>|Chi|) NULL 26 138.254 Site 2 63.098 24 75.155 1.988e-14 *** Treatment 2 42.991 22 32.164 4.620e-10 *** Site:Tre 4.19.81. 0.007707 ** --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 همه جلوهها قابل توجه هستند، بنابراین اکنون میخواهم مقایسههای پسهک انجام دهم. من تابع glht را در بسته مولتی کامپ کشف کرده ام که به نظر می رسد کاری را که من می خواهم انجام می دهد. در جایی خواندم که با 2 متغیر مستقل، باید «interaction_average=TRUE» را تنظیم کنید تا نتیجه ای معادل TukeyHSD برای یک مدل خطی به دست آورید. > Treat.comp <- glht(glm.out, mcp(Treatment=Tukey, interaction_average=TRUE)) > summary(Treat.comp) که این نتایج عجیب را به من می دهد: تست های همزمان برای فرضیه های خطی عمومی مقایسه چندگانه میانگین ها: Tukey Contrasts Fit: glm(فرمول = بقا ~ سایت * درمان، خانواده = دوجمله ای، داده = surv.san، وزن = rep(10، nrow(surv.san))) فرضیه های خطی: برآورد Std. خطای z مقدار Pr(>|z|) DN - MB == 0 -0.202 3316.127 0.000 1 Forest - MB == 0 -1.886 3316.127 -0.001 1 Forest - DN == 0 -1.684 0sA 31710. گزارش شده -- روش تک مرحله ای) چرا مقادیر P من برای همه مقایسه ها 1 = است حتی اگر اثر درمان بسیار مهم بود؟ اگر سعی کنم از «glht» با «interaction_average=FALSE» استفاده کنم، نتایج معقولتری دریافت میکنم اما با یک پیام اخطار: پیام هشدار: در mcp2matrix (model, linfct = linfct) : تعاملات متغیر پیدا شد - تضاد پیشفرض ممکن است نامناسب باشد. کسی میتواند کمک کند بفهمم دارم چه غلطی می کنم؟ متشکرم!!! | مقایسه های متعدد با تابع glht در R نتایج عجیبی به دست می دهد |
7481 | ### زمینه من یک نظرسنجی دارم که 11 سوال در مورد خودکارآمدی می پرسد. هر سؤال دارای 3 گزینه پاسخ (مخالف، موافق، کاملاً موافق) است. نه سوال در مورد عزت نفس مطرح می شود. من از تحلیل عاملی 11 مورد خودکارآمدی استفاده کرده و دو عامل را استخراج کرده ام. $x_1$ تا $x_{11}$ نشاندهنده 11 سوال خودکارآمدی در نظرسنجی است و $f_1$ ($x_1$ تا $x_6$) , $f_2$ ($x_7$ تا $x_{11}$) دو عاملی را که از تحلیل عاملی بدست آوردم نشان دهید. $y$ یک متغیر وابسته است. سپس دو متغیر جدید ایجاد کردم: f1=mean(x1 تا x6); f2=mean(x7-x11). بنابراین رگرسیون لجستیک به این صورت خواهد بود: y=a+bf1+cf2+... ### سوال من: * آیا می توانم از این دو عامل به عنوان متغیرهای پیش بینی کننده در مدل رگرسیون لجستیک چند متغیره خود استفاده کنم؟ * آیا باید میانگین هر آیتم را در هر عامل محاسبه کنم و از این میانگین به عنوان متغیر پیوسته در مدل رگرسیون لجستیک خود استفاده کنم؟ * آیا این استفاده مناسب از تحلیل عاملی است؟ | چگونه می توان از متغیرهای حاصل از تحلیل عاملی به عنوان پیش بینی کننده در رگرسیون لجستیک استفاده کرد؟ |
65035 | آیا تحلیل رگرسیون علت و معلول را اندازه گیری می کند؟ اگر بله، پس چگونه؟ اگر نه، پس چه کاری انجام می شود؟ لطفا با یک مثال توضیح دهید. | آیا تحلیل رگرسیون علت و معلول را اندازه گیری می کند؟ |
96443 | من در حال انجام تجزیه و تحلیل بقا با متغیرهای وابسته به زمان هستم و دو نوع داده دارم: پرندگان به صورت دو هفتهای دنبال میشوند و دیگران بهطور تصادفی دنبال میشوند. من فکر می کنم که تجزیه و تحلیل هر دو نوع داده با هم یک مشکل بزرگ است. پیشنهادی در مورد نحوه برخورد با آن دارید؟ | مقیاس های زمانی مختلف در مخاطرات وابسته به زمان Cox متناسب |
43368 | من در حال تجزیه و تحلیل برخی از آمارها برای مقاله ای هستم که در حال نوشتن آن هستم. من کمک آماری از طریق دانشکده ام در دسترس دارم، اما چند ماه است که آنجا نیستم، بنابراین امیدوارم بتوانید کمک کنید. 463 نفر، 2 گروه بیمار (<70 و >= 70 سال). با استفاده از SPSS. من مجموعه کاملی از آمارها را با استفاده از تست پیرسون $\chi^2$ ارزیابی کرده ام - آنها طبقه بندی شده اند مانند سابقه سیگار کشیدن (T/F)، جریان سیگار کشیدن (T/F)، BMI> 30، دیابت و غیره. تا اینجا خیلی خوب است (مگر اینکه کسی بتواند به من بگوید که آیا این یک آزمایش نامناسب است؟) من متغیرهای بیشتری مانند کراتین قبل از عمل، ساعات اقامت در ICU و غیره دارم که به طور معمول توزیع نمی شوند (من قبلاً می دانستم چگونه آزمایش کنم. نرمال بودن به درستی اما من به تازگی نمودارهای Q-Q را ترسیم کردم و دیدم که آیا آنها در خط هستند یا نه من اکنون نمی توانم زیرا آنها به طور معمول توزیع نمی شوند در بسیاری از جنبه ها از روش های آماری یکی از دوستان استفاده می کنم که مقاله مشابهی را با استفاده از مجموعه داده های مشابه نوشته است و برای متغیرهای پیوسته خود از **Kolmogorov-Smirnov** استفاده می کند. اما من مطمئن نیستم که او فقط از این برای نرمال بودن استفاده کرده است یا خیر کسی می خواهد برای من توضیح دهد که آیا این تست ها برای مقایسه این نمونه ها مناسب هستند؟ | مناسب بودن آزمون K-S و Kruskal-Wallis برای ارزیابی مجموعه داده های پزشکی |
96441 | من چند سوال در مورد تفسیر نسبت شانس برای متغیرهای پیوسته در رگرسیون لجستیک داشتم. من احساس میکنم اینها سؤالات اساسی در مورد رگرسیون لجستیک (و احتمالاً در مورد رگرسیون به طور کلی) هستند، و اگرچه از اینکه پاسخها را نمیدانم کمی خجالت میکشم، غرورم را میبلعم و از آنها میپرسم تا آنها را بدانم. آینده در اینجا وضعیت من است... من به نمونه ای از جوانان قضاوت شده نگاه می کنم که به عنوان بخشی از دوره آزمایشی خود، در برنامه آموزش مهارت های شغلی/زندگی ثبت نام کرده اند. میخواستم ببینم سنی که آنها از برنامه رها شدهاند تا چه اندازه اشتغال را شش ماه پس از آزادی از برنامه پیشبینی میکند. (همچنین به خاطر داشته باشید که پیشبینیکنندههای دیگری در مدل وجود دارد، اما من آنها را حذف کردهام زیرا از نظر آماری معنیدار نیستند و میخواهم این موضوع را تا حد امکان واضح نگه دارم.) پیشبینیکننده: سن رهایی از برنامه تمرینی (میانگین سنی) = 17.4، SD=1.2، محدوده 14.3-20.5) نتیجه: شاغل بودن یا نبودن (شاغل=1، شاغل نبود=0) نتیجه: نسبت شانس 3.01 (p<.005) (من آمار خوب بودن تناسب و غیره را رد کرده ام زیرا فقط به دنبال پاسخ در مورد تفسیر نسبت شانس هستم؛ با ارزیابی تناسب مدل، CI و غیره احساس راحتی می کنم. .) به زبان ساده: با افزایش سن یک سال، شانس شاغل بودن شش ماه پس از ترخیص سه واحد افزایش می یابد. سؤالات: 1) وقتی می گویم با افزایش سن یک سال ... نقطه شروع سن چیست؟ آیا سن از صفر شروع می شود؟ به عنوان مثال، با افزایش سن از 0 [یعنی کمترین سن در صورتی که این مدل را روی نمودار قرار دهید]... آیا سن از پایین ترین سن در میان طیف سنی نمونه شروع می شود؟ به عنوان مثال، با افزایش سن از 14.3... یا آیا سن از میانگین سنی نمونه شروع می شود، به عنوان مثال، با افزایش سن از 17.4...، 2) آیا مرکز دادن به من کمک می کند این را تفسیر کنم؟ نتیجه یا فقط در تفسیر y-int موثر است، من به این فکر میکردم که کمترین سن در محدوده را از تمام سنین دیگر در نمونه کم کنم؟ آیا مناسب است که بگوییم در مقایسه با یک جوان 14 ساله، یک جوان 17 ساله 9 برابر بیشتر احتمال دارد که شاغل شود، چون من این رگرسیون لجستیک را می دانم؟ یک رابطه سیگموئیدی را فرض می کند، و من کنجکاو هستم که آیا این افزایش 3 واحدی در هر نقطه در امتداد خط رگرسیون ثابت می ماند یا خیر | رگرسیون لجستیک: تفسیر متغیرهای پیوسته |
44967 | من قصد دارم یک Logit باینری با شاخص قیمت عمده فروشی کالاهای مختلف اجرا کنم. من این متغیرهای مقیاس را با معیار زیر به متغیرهای طبقه ای تبدیل کردم: 1=قیمت نسبت به دوره قبل افزایش یافته است 0=قیمت نسبت به دوره قبل ثابت یا کاهش یافته است با معیار فوق همه پیش بینی کننده ها به متغیرهای طبقه ای تبدیل شده اند. . آیا میتوانم با استفاده از گزینه Logit باینری معمول در SPSS تخمین بزنم یا هنوز باید برخی از دادهها را اصلاح کنم یا روش دیگری را اتخاذ کنم؟ هدف من مطالعه بین پویایی بین بخش ها است... به عنوان مثال: با افزایش قیمت آهن، احتمال افزایش قیمت سیمان وجود دارد. اگه کسی در این زمینه راهنماییم کنه ممنون میشم. با تشکر | لاجیت باینری با سری زمانی |
43366 | من یک مشکل رگرسیون دارم که در آن نتایج کاملاً 0، 1 نیستند، بلکه در محدوده همه اعداد واقعی از 0 تا 1 هستند که شامل $Y = [ 0، 0.12، 0.31، ...، 1 ]$ است. این مشکل قبلاً در این تاپیک مطرح شده است، اگرچه سؤال من کمی متفاوت است. من نمی توانم از رگرسیون خطی به همان دلایلی استفاده کنم که معمولاً از رگرسیون لجستیک استفاده می شود. در رگرسیون خطی الف) مقادیر IV بسیار بزرگ نتیجه پیشبینیشده را به 1 منحرف میکند و ب) نتیجه رگرسیون خطی به حدود 0.1 محدود نمیشود. با نگاهی به این تابع هزینه لجستیک از کتاب درسی من $$\text{Cost} = -y \log(h(x)) - (1 - y) \log(1-h(x))$$ من این معادله را جمع می کنم برای محاسبه هزینه بیشتر از 0 تنها زمانی طراحی شده است که $y$ و $x$ دارای مقادیر یکسانی 0 یا 1 نیستند. آیا می توان از رگرسیون لجستیک با تغییر تابع هزینه برای اندازه گیری همه استفاده کرد. اشتباهات فرضیه؟ | گسترش رگرسیون لجستیک برای نتایج در محدوده بین 0 و 1 |
11259 | در رابطه با سوال قبلی من، باید رگرسیون را روی یک متغیر وابسته اریب انجام دهم (n=500). از آنجایی که باقیمانده ها به طور معمول توزیع نمی شدند، من توانستم DV را به صورت غیر خطی به گونه ای تبدیل کنم که اکنون به حالت عادی نزدیک می شود. هنگام استفاده از این متغیر تبدیل شده به عنوان متغیر وابسته، باقیمانده ها نرمال هستند. برای این دو مدل، مقادیر p برای پیشبینیکنندههای مختلف بسیار شبیه به هم هستند و اندازههای نسبی ضرایب نیز بسیار مشابه هستند. * این دو واقعیت تا چه اندازه شاخص پایایی ضرایب و مقادیر p به دست آمده در مدل اول (با استفاده از داده های خام) هستند (یا نه)؟ | آیا شباهت ضرایب و مقادیر p بدون در نظر گرفتن اینکه آیا متغیر وابسته تبدیل شده است نشان می دهد که مدل تبدیل نشده قابل اعتماد است؟ |
19001 | کسی پیش (ترجیحا مزدوج) توزیع پولیا چند متغیره را می شناسد؟ من برای نمونه برداری گیبس به آن نیاز دارم. بنابراین اگر کسی ایده دیگری دارد، من علاقه مند هستم. | قبل از توزیع چند متغیره Polya؟ |
81552 | کریس چتفیلد، که از خواندن کتابها و مقالات با کیفیت بسیارش لذت بردم، در (1) توصیههای زیر را ارائه میکند: > برای مثال، انتخاب بین مدلهای سری زمانی ARIMA با مقادیر کم و تقریباً برابر AIC احتمالاً باید انجام شود، نه که در آن > حداقل AIC را ارائه می دهد، اما بهترین پیش بینی ها را از > داده های سال اخیر ارائه می دهد. منطق چنین توصیه ای چیست؟ اگر سالم است چرا forecast::auto.arima و سایر روال های پیش بینی از آن پیروی نمی کند؟ هنوز باید اجرا شود؟ قبلاً در اینجا بحث شده است که جستجوی مدل هایی که اتفاقاً حداقل AIC را ارائه می دهند، احتمالاً ایده خوبی نیست. چرا گزینه داشتن مدلهای ARIMA $n\ge1$ با کم اما تقریباً برابر (مثلاً در 1 یا 2 مقدار حداقل AIC) در بسیاری از نرمافزارهای پیشبینی سریهای زمانی پیشفرض نیست؟ (1) Chatfield، C. (1991). اجتناب از دام های آماری _علوم آماری، 6_ (3)، 240-252. در دسترس آنلاین، آدرس اینترنتی: http://valjhun.fmf.uni- lj.si/~mihael/ul/vs/pdfseminar/chatfield.pdf. | وقتی مقادیر AIC کم و تقریباً برابر است چه کار کنم؟ |
19009 | در کارآزماییهای بالینی - دیدگاه روششناختی، استیون پیانتادوسی مینویسد (فصل 13، ص 334): > در فصل 2، اعتراضهایی را به تصادفیسازی توسط آبل و کوخ > (1997) و اورباخ (1993) ذکر کردم و ارزش آن را نشان دادم. از مطالعه نگرانی های آنها > و خطاهای احتمالی. آنها تصادفیسازی را بهعنوان یک روش > > 1. برای اعتبارسنجی آزمونهای آماری خاص، > 2. مبنای استنتاج علی، > 3. تسهیل پوشش و > 4. روش برای ایجاد تعادل در گروههای مقایسه رد میکنند. > به گفته من، (1)-(4) از مزایای تصادفی سازی است. بنابراین، چرا آبل، کوخ و اورباخ تصادفیسازی را بر اساس آن استدلالها رد میکنند؟ | اعتراض به تصادفی سازی |
60200 | من در پیش بینی مبتدی هستم، به خصوص پیش بینی با R و واقعاً مایلم دانش خود را ارتقا دهم. اخیراً شروع به تمرین پیش بینی سری زمانی مصرف برق کردم. اولین مانعی که با آن روبرو شدم، انتخاب دادههای خارج از نمونه برای ارزیابی دقت پیشبینی مدل پیشبینی است که استفاده خواهم کرد (رگرسیون با خطاهای ARIMA). من دادههای 147 ماهه را دارم و میخواهم 24 ماه آینده را برای دوره ژوئن 2013 تا ژانویه 2015 پیشبینی کنم. و آتاناسوپولوس، جی (2013)، _پیش بینی: اصول و تمرین_، (دسترسی در 28 مه 2013)، بخش 2.5 تحت ** مجموعه های آموزشی و تست ** ، که: > اندازه مجموعه آزمون معمولاً حدود 20٪ است کل نمونه، اگرچه > این مقدار بستگی به مدت زمان نمونه دارد و می خواهید پیش بینی کنید اگر مجموعه داده را با 20% تقسیم کنم با توجه به اینکه داده های خارج از نمونه است، مدل پیش بینی اعمال شده برای داده های درون نمونه کاملاً دقیق نیست، زیرا حدس می زنم روند اخیر (که در اواسط سال گذشته آغاز شد) را نشان دهد. کاهش مصرف برق به دلیل افزایش قابل توجه تعرفه برق. در این مورد چه کنم؟ آیا می توانید به من دستورالعملی در مورد اندازه مناسب داده های خارج از نمونه بدهید. من همچنین با داده های خارج از نمونه 7 ماهه امتحان کردم، اما می ترسم که مشکل بیش از حد برازش وجود داشته باشد. درست است؟ | انتخاب اندازه مناسب یک داده از نمونه |
19006 | فرض خطرات متناسب اساساً می گوید که میزان خطر با زمان تغییر نمی کند. یعنی $\text{HR}(t) \equiv \text{HR}$. چه زمانی می توانیم این را فرض کنیم؟ اگر نسبتهای خطر در زمانهای مختلف عبارتند از: 2.4 دلار، 2.36، 2.27 دلار و 2.03 دلار چه؟ آیا می توانیم خطرات متناسب را فرض کنیم؟ همچنین $$ \log[h(t|\textbf{x})] = \log[h_{0}(t)] + \beta_{1}x_1 + \dots + \beta_{p}x_{p داریم }$$ چرا باید $h_{0}(t)$ را تخمین بزنیم؟ اگر $h(t|\textbf{x})$ داریم، چرا نمیتوانیم همه مقادیر پیشبینیکنندهها را صفر کنیم تا $h_{0}(t)$ به دست آید؟ **ویرایش.** من ابزاری می خواهم برای ارزیابی درستی فرض PH. | فرض خطرات متناسب |
64785 | ما 2 نظرسنجی مشابه را به موازات گروهی از مراکز مراقبت بهداشتی انجام دادیم. یکی برای مدیران، یکی برای کارکنان فرستاده شد. برخی از سؤالات یکسان بودند، برخی دیگر در مورد مناطق مختلف تأسیسات پرسیده شدند. ما پاسخ هایی را از گروه هایی از امکانات دریافت کردیم که کاملاً همپوشانی ندارند. بنابراین نرخ پاسخ ما به شرح زیر بود (تقریبا). * نظرسنجی الف - به کارکنان در تسهیلات: 70٪ * نظرسنجی ب - به مدیر در تاسیسات: 81٪ * هر دو نظرسنجی: 62٪ ما علاقه مند به گزارش نسبت ها، تفاوت در نسبت ها با (95٪ CI) و آزمون آماری هستیم. تفاوت بین نسبتها برای سؤال یکسان در هر دو نظرسنجی (پاسخ توسط 2 جمعیت غیر همپوشانی) مارتین بلند مقاله خوبی در مورد رویکردهای مختلف دارد... آیا کسی کد SAS برای تجزیه و تحلیل مشابه دارد؟ http://www-users.york.ac.uk/~mb55/overlap.pdf | روشهای مقایسه نسبتها در نمونههای با همپوشانی جزئی |
5834 | در زنجیره مارکوف، یک حالت $j$ گذرا است اگر $f_{jj}<1$ ($f_{jj}$ احتمال بازدید از حالت $j$ است که از حالت $j$ شروع میشود). فرض کنید، من یک DTMC گذرای تقلیل ناپذیر دارم (یعنی همه حالات گذرا هستند). اکنون، میخواهم ثابت کنم که برای هر $i,j$ در $S$ ($S$ فضای حالت DTMC است)، $f_{ij}$ (یعنی احتمال رسیدن به حالت $j$ با شروع از حالت $i$ ) کمتر از 1 است. واضح است که $f_{ii}<1$ و $f_{jj}<1$. اما، چگونه ثابت کنیم که $f_{ij}<1$ برای هر $i,j$. با تشکر Prasenjit | توزیع زمان گذر اول در یک زنجیره مارکوف زمان گسسته گذرا (DTMC) |
64786 | الگوریتم های زیادی برای یافتن $k$ در الگوریتم $k$-means وجود دارد که به یافتن چرخش در نمودار تابع هدف بستگی دارد. اگر بدانم دادهها دارای خوشههای $2$ یا $3$ هستند چه میشود؟ چگونه می توانم بفهمم کدام $k$ بهتر است؟ البته، k$ بالاتر تابع هدف را کاهش می دهد، اما این لزوماً k درست نیست. هر ایده ای؟ | k را در k-means پیدا کنید، اما فقط بین دو گزینه |
60209 | من سعی می کنم کمی آمار یاد بگیرم و فکر کردم از شما بچه ها در مورد انجام نظرسنجی بپرسم. فرض کنید من یک نظرسنجی مانند زیر انجام می دهم https://docs.google.com/forms/d/1YrqcWQNl1CmbINaVZuL18ZseqBSWemdHjy_P4ES637A/viewform من از تعداد زیادی دوچرخه سوار نظرسنجی می کنم و می خواهم بدانم که آنها چگونه انگیزه دارند. سوالات مختلف انواع مختلفی از انگیزه را توصیف می کند (هفت دسته انگیزه با 4 سوال در هر دسته). آیا انجام آماری در این مورد منطقی است؟ به عنوان مثال، من فکر میکنم آزمایش کنم که آیا یک نوع انگیزه به طور قابل توجهی شایعتر از دیگری است یا خیر. من حدس می زنم که دارم گروه های مختلف (انگیزه) را با هم مقایسه می کنم. من مطمئن نیستم که آیا این مقیاس لیکرت است. بچه ها اگر پیشنهادی در مورد انواع تست هایی که باید انجام دهم دارید، واقعا مفید خواهد بود. پیشاپیش ممنون | نظرسنجی، آیا این منطقی است؟ |
89202 | من سه مدل کاهشیافته را از یک مدل کامل اصلی با استفاده از * انتخاب رو به جلو * حذف به عقب * تکنیک جریمه L1 (LASSO) به دست آوردم. «DAAG» در «R» موجود است. برای مدل انتخاب شده از طریق LASSO، از «cv.glm» استفاده کردم. خطای پیشبینی برای LASSO کمتر از خطاهای بهدستآمده برای بقیه بود. بنابراین مدل به دست آمده از طریق LASSO از نظر ظرفیت پیش بینی و تغییرپذیری بهتر به نظر می رسد. آیا این یک پدیده عمومی است که همیشه رخ می دهد یا مشکل خاصی است؟ اگر این یک پدیده کلی است، استدلال نظری برای این موضوع چیست؟ | برتری LASSO نسبت به انتخاب رو به جلو/حذف به عقب از نظر خطای پیشبینی اعتبار متقاطع مدل |
76973 | استفاده از آزمون فلینر برای استنباط در مورد احترام به فرض همسویی بودن، بسیار هوشمندانه نیست، زیرا آزمون فلینر صفر را آزمایش می کند که تفاوت واریانسی بین گروه ها وجود ندارد. این به اشتباه به نفع حجم نمونه کوچک است. همانطور که توسط @Michael Mayer در اینجا گفته شده است. چگونه میتوانیم بررسی بیشتری کنیم که آیا فرض همجنسگرایی رعایت میشود؟ آیا ارزش رسم باقیمانده های مدل در برابر مقادیر برازش را دارد؟ خطوط زیر دارای کد R هستند: m = aov(myFormula, myData) plot(residuals(m)، m$fit همجنسگرایی قابل احترام است. چه کار دیگری می توانم انجام دهم؟ | بررسی فرض همجنسگرایی |
44391 | من در حال بررسی کتاب تئوری یادگیری آماری Vapnik در سال 1998 هستم و چیزی که هنوز از آن مطمئن نیستم این است که آیا محدودیت ریسک او برای توابع از دست دادن غیر محدب وجود دارد یا خیر -- یعنی زمانی که نمی توانیم مطمئن باشیم که این میزان را به حداقل رسانده ایم. ریسک تجربی آیا کسی مرجعی می شناسد که در این مورد بحث کند؟ | خطای تعمیم برای طبقه بندی با یک تابع از دست دادن غیر محدب |
11252 | امروز یک سوال دریافت کردم که دقیقاً نمی دانستم چگونه به آن پاسخ دهم. من یک مدل پیشبینی با استفاده از یک رگرسیون لجستیک نسبتاً ابتدایی ساختهام که به خوبی کار میکند و با نیازهای تجاری ما مطابقت دارد. اخیراً، ما یک ابزار CRM خریداری کردیم که به ما امکان می دهد امتیازهای احتمال بسازیم، اما فقط به کاربران نهایی اجازه می دهد تا به عوامل مختلف وزن صحیح بدهند. به عبارت دیگر، می توان به طور دلخواه وزنی از 10 امتیاز به یک عامل و -5 امتیاز به عامل دیگر اختصاص داد که مجموع همه اوزان نشان دهنده احتمال برای یک موجودیت معین در پایگاه داده ما است. کاری که من به دنبال انجام آن هستم این است که مدل خود را به این قالب جدید ترجمه کنم به طوری که امتیاز حاصل با احتمال محاسبه شده از مدل لجستیک من برابر شود. این از روی میل نیست، بلکه نیازهای تجاری است. مسلماً من مطمئن نیستم که چگونه از ضرایب محاسبه شده استفاده کنم و آنها را با این الزامات تطبیق کنم. بهترین رویکرد، اگر وجود دارد، چیست؟ افکار عمومی در مورد چگونگی اختصاص وزن های اعداد صحیح معتبر آماری به معیارهای تجاری با توجه به این محدودیت ها؟ هر گونه فکر یا بینشی بسیار قدردانی خواهد شد. | متغیرهای وزن برای مدل پیش بینی |
11255 | من متوجه شده ام که این موضوع در تنظیمات مشاوره آماری زیاد مطرح می شود و مشتاق بودم نظرات شما را دریافت کنم. ### زمینه من اغلب با دانشجویان پژوهشی صحبت میکنم که تقریباً به شرح زیر مطالعه کردهاند: * مطالعه مشاهدهای * حجم نمونه ممکن است 100، 200، 300 و غیره باشد. شخصیت، نگرش ها، سایر مقیاس های بالینی، شاید هوش و غیره) پژوهشگران ادبیات مربوطه را مطالعه کرده اند و در مورد فرآیندهای علّی احتمالی فکر می کنند. غالباً یک مفهوم کلی از متغیرها به سوابق، متغیرهای فرآیند و متغیرهای نتیجه وجود دارد. آنها همچنین اغلب شنیدهاند که مدلسازی معادلات ساختاری برای آزمایش مدلهای کلی روابط بین مجموعهای از متغیرهایی که مطالعه میکنند مناسبتر است. ### سوال * به نظر شما در چه شرایطی مدل سازی معادلات ساختاری تکنیک مناسبی برای تحلیل این گونه مطالعات است؟ * اگر مدل سازی معادلات ساختاری را توصیه نمی کنید، چه تکنیک های جایگزینی را پیشنهاد می کنید؟ * چه توصیه ای به محققانی که در این گونه موارد از مدل سازی معادلات ساختاری استفاده می کنند، می کنید؟ | آیا از مدل سازی معادلات ساختاری برای تجزیه و تحلیل مطالعات مشاهده ای در روانشناسی استفاده می شود |
11253 | اگر مجموعهای از اندازهگیریها و آزمون همبستگی متغیر $A$ در مقابل متغیر $B$ را انجام دهم و یک همبستگی معنیدار بدست بیاورم، برای من منطقی است. اما اگر تجزیه و تحلیل بیشتر نشان دهد که از بین آن عوامل، فقط یک همبستگی مثبت معنادار در یک گروه وجود دارد و آن گروه بیش از حد نشان داده می شود، چه می شود. آیا همبستگی جهانی هنوز معتبر است یا با بازرسی دقیق تر، یک اثر سوگیری نمونه است؟ در اینجا چند نمودار برای توضیح وجود دارد: همبستگی جهانی  گروه همبستگی های جدا شده را از هم جدا کرد | همبستگی وابسته به عامل |
60203 | من مجموعه ای از داده ها را دارم: http://pastebin.com/KHLKD8XB که بر اساس TVC (تعداد کل زنده ماندن ها - به عنوان مثال، تعداد باکتری ها) از آبی که به داخل ماشین می رود (BM)، آب گرفته شده از ماشین (IM) است. و آب گرفته شده از دستگاهی که در آن ماشین شسته می شود (Scope). در حالی که شمارش بر روی یک نمونه 200 میلی لیتری انجام می شود، نتایج به صورت cfu/100 میلی لیتر گزارش می شود، بنابراین به نظر می رسد که 1/2 یک باکتری را در برخی نمونه ها پیدا کنید. library(ggplot2) testscope<-read.csv2(http://pastebin.com/raw.php?i=KHLKD8XB) testscope$date<-as.Date(testscope$date) ggplot(data=testscope,aes( x=تاریخ، y=tvc، رنگ=کلاس)) + geom_step() + facet_grid(class ~ ., scales=free) + labs(title=Machine TVC در مقابل Scope TVC) + ylab(cfu/100ml) ترسیم شده با استفاده از ggplot2:  **سوال من این است: چگونه می توانم بررسی کنم که آیا خواندن TVC از Scope مربوط به خواندن TVC از دستگاه؟** با چشم، نمی توانم الگویی را بین سطح ماشین (IM) و سطوح Scope تشخیص دهم. توجه داشته باشید که اگرچه من دادههای BM را دارم، اما در حال حاضر این چیزی نیست که ما به آن علاقه خاصی داشته باشیم - IM در مقابل دامنه است که باید آن را درک کنیم. ویرایش: توجه داشته باشید که مجموعه داده از لاگ طبیعی استفاده می کند، نه از پایه 10. اشتباه من. | چگونه ارتباط بین سطوح باکتری آب را بررسی کنیم |
65037 | آیا همیشه باید قبل از استفاده از تابع «خلاصه» در R، بردار داده را به ترتیب صعودی **ترتیب دهم؟ یا باید تابع «خلاصه» را مستقیماً روی بردار داده خام اعمال کنم؟ | آیا همیشه قبل از استفاده از تابع خلاصه در R باید بردار داده را به ترتیب صعودی مرتب کنم؟ |
89209 | چگونه می توانم همبستگی نقطه-دوسری را تفسیر کنم؟ اگر نتایج به من همبستگی مثبت و معنادار بدهد، چگونه باید آن را تفسیر کنم؟ آیا باید بگویم که دسته متغیری که من کد 1 کردم با متغیر نتیجه همبستگی مثبت دارد؟ | تفسیر همبستگی نقطه-دوسری |
60202 | من کدی را برای تبدیل Box-Cox نوشته ام (به زیر مراجعه کنید). اما اکنون میخواهم یک تبدیل Yeo-Johnson انجام دهم زیرا 'datc$plot' حاوی صفر است. سعی کردم راه حلی پیدا نکردم. lambda.fm1 <- boxcox(datc$plot ~ datc$cond.evlot*datc$cond.dl*datc$version)، family=yjPower) lambda.max <- lambda.fm1$x[which.max(lambda .fm1$y)] نیازمند (ماشین) datc$plott <- bcPower(datc$plot, lambda = lambda.max، jacobian.adjusted = FALSE) | کد R برای تبدیل Yeo-Johnson |
11257 | ### زمینه: من در حال تجزیه و تحلیل برخی از داده های ارزیابی تاثیر (اندازه گیری غنای بی مهرگان در پاسخ به آلودگی) هستم، اما آنها نامتعادل هستند - برای هر سایتی در مناسبت نمونه گیری داده وجود ندارد، و نقاط داده بیشتری _بعد__ تاثیر_ نسبت به _قبل_ ثبت شده است. تاثیر من کاربر جدید R هستم و از طریق مطالعه در این سایت و سایت های دیگر دریافتم که بسته های استاندارد anova `aov()` و `ezAnova()` نمی توانند با طرح های نامتعادل مقابله کنند. من فرض می کنم در عوض باید از بسته ای مانند `lme4` استفاده کنم. با این حال، من مطمئن نیستم که چگونه داده های خود را ساختار دهم یا تجزیه و تحلیل را برنامه ریزی کنم. یکی از مشکلات این است که من مطمئن نیستم که چگونه تاریخ های نمونه برداری را به عنوان جنبه های تکراری طرح خود لحاظ کنم. داده های من دارای 5 ستون کد سایت، تاریخ، پیش از آن، ControlImpact، Richness است. ### سوالات: * چگونه باید داده های خود را برای انجام تجزیه و تحلیل اندازه گیری های مکرر با داده های نامتعادل در R تنظیم کنم؟ * آیا باید از «lme4» یا بسته دیگری استفاده کنم؟ | چگونه می توانم یک تحلیل اندازه گیری های مکرر نامتعادل در R تنظیم کنم؟ |
103259 | به نظر من در ادبیات فرض بر این است که میدانیم چه ویژگیها/ویژگیهایی را برای مشخص کردن یک آیتم در خوشهبندی انتخاب کنیم. اگر من یک پایگاه داده با مواردی داشته باشم که دارای ویژگی های زیادی هستند، چگونه می توانم بدانم کدام ویژگی ها را برای یک خوشه بندی خوب انتخاب کنم؟ آیا دستورالعمل یا ادبیاتی وجود دارد که به این مشکل بپردازد؟ | انتخاب ویژگی / ویژگی برای k-means یا دیگر خوشه بندی |
90849 | من برای اولین بار متوجه این موضوع شدم که در حال اجرای برخی از مدلها Stata هستند و متغیرهایی که در مرحله دوم به عنوان کنترل استفاده کرده بودم در مرحله اول نشان داده میشوند (فکر میکنم این فقط رویکرد پیشفرض Stata است). بسیاری از این متغیرها به هیچ وجه با متغیر وابسته در مرحله اول ارتباط ندارند. به همین ترتیب، متغیرهای زیادی وجود دارد که من دوست دارم آنها را در مرحله اول وارد کنم، اما فکر نمی کنم که باید در مرحله دوم گنجانده شوند. آیا بهتر است فقط OLS را در مرحله اول با مجموعه ای از کنترل ها (از جمله ابزار) مربوط به آن متغیر وابسته (متغیر درون زا که می خواهم ابزار کنم) انجام دهم، مقادیر برازش را ذخیره کرده و در رگرسیون OLS دیگری با دیگری استفاده کنیم. مجموعه ای از کنترل های مربوط به متغیر وابسته نهایی؟ به جای استفاده از رویکرد دستور Stata؟ | آیا متغیرهای کنترل در مرحله اول و دوم 2SLS باید متفاوت باشند؟ |
89208 | من فکر می کردم که تجزیه و تحلیل مؤلفه های اصلی به ما اطلاعاتی در مورد تعداد درجات آزادی (مثلاً متغیرهای مستقل) زیربنایی یک سیستم می دهد که ما فقط می توانیم از طریق متغیرهای مشتق شده (و احتمالاً همبسته) مشاهده کنیم. اما یک آزمایش ساده مرا در این مورد شک کرده است: من 1000 مجموعه از 10 نقشه را از توزیعهای عادی استاندارد مستقل ($\mathcal{N}(0,1)$) ایجاد کردم و PCA را برای آن ماتریس داده محاسبه کردم. همانطور که امیدوارم، ماتریس همبستگی بسیار نزدیک به قطر بود. مقادیر ویژه و نسبت متناظر واریانس ها عبارت بودند از: 1.14 12% 1.11 11% 1.07 11% 1.04 10% 1.02 10% 0.98 10% 0.96 10% 0.93 9% 0.85 9% این سیستم انتظار می رود متغیرهای مستقل و مقادیر ویژه روشن می کنند که هر ده جزء اصلی سهم قابل توجهی در واریانس کل سیستم دارند. در مرحله بعد، برای هر مجموعه مشاهدات، مجموعه جدیدی از متغیرها، $\{y_1،...،y_{10}\}$ را با گرفتن ترکیبات خطی به شکل میانگینهای تجمعی متغیرهای اصلی $\{ استخراج کردم. x_1،...،x_{10}\}$: $$ y_n = \frac{1}{n}\sum_{i=1}^{n}x_i$$ من باختم با انجام این کار هیچ اطلاعاتی وجود ندارد: تمام $\{x\}$ را می توان دقیقاً از $\{y\}$ بازیابی کرد. با این حال، در حالی که $x$ مستقل بودند، $y$ به وضوح همبستگی دارند (و ماتریس همبستگی این را تایید می کند). من PCA را برای $\{y\}$ محاسبه کردم و این مجموعه از مقادیر ویژه را به دست آوردم: 1.98 68% 0.57 19% 0.18 6% 0.09 3% 0.04 1% 0.03 1% 0.01 0% 0.01 0% 0.00 0.01 نشان می دهد که فقط پنج یا شش اجزای اصلی برای ثبت تقریباً تمام واریانس در سیستم ضروری هستند. اکنون، تا حدودی، می بینم که این منطقی است: $y$ کاملاً همبسته هستند، بنابراین به عنوان مثال. دانستن $\{y_1,...,y_9\}$ محدودیت های شدیدی را برای $y_{10}$ ایجاد می کند. اما سیستم هنوز توسط ده متغیر مستقل زیربنایی هدایت میشود، و تمام کاری که من انجام دادهام این است که ترکیبهای خطی آنها را برای تشکیل متغیرهای جدید خود انتخاب کنم. آیا PCA نباید قادر به دیدن این موضوع باشد؟ واضح است که شهود من کمی نادرست است. آیا کسی می تواند به من کمک کند که این را واضح تر ببینم؟ | PCA و درجات آزادی |
64780 | من یک ANOVA ترکیبی را برای مطالعه تصویربرداری مغز در مورد پردازش زبان اجرا می کنم. طراحی شامل چهار عامل درون موضوعی است: 1. پیچیدگی: ساده/پیچیده. 2. توافق: صحیح / نقض شماره / نقض جنسیت. 3. نیمکره: چپ/راست. 4. منطقه: قدامی/خلفی; و یک عامل بین موضوعی: 1. مهارت: مهارت کم/بالا. فاکتورهای 3 و 4 (نیمکره، ناحیه) تنها در صورتی مهم هستند که با سایر عوامل تعامل داشته باشند. این به این دلیل است که پیش بینی می شود اثرات پیچیدگی و توافق در مناطق خاصی از پوست سر ظاهر شود. نتایج یک تعامل 5 طرفه قابل توجه را نشان می دهد (پیچیدگی بر اساس توافق نیمکره بر اساس منطقه به گروه)، و من تقریباً غیرممکن می دانم که فقط با نگاه کردن به ابزار بفهمم چه چیزی باعث ایجاد تعامل می شود. آیا من توجیه می کنم که به دو گروه مهارتی جداگانه نگاه کنم؟ اکثر مطالعات مشابه این کار را انجام می دهند، اما من در مورد چگونگی انجام این کار نامشخص هستم. به عنوان مثال، هنگامی که تصمیم میگیرم زبانآموزان مهارت را به طور جداگانه بررسی کنم، یک تعامل 3 طرفه بین توافق، نیمکره، و ناحیه در زبانآموزان با مهارت بالا پیدا میکنم (به این معنی که یک واکنش مغزی برای نقض توافق وجود دارد، که در سمت چپ ثبت میشود. بخش قدامی پوست سر)، اما چنین تعاملی برای یادگیرندگان با مهارت پایین وجود ندارد (p = 0.13). آیا گزارش این تفاوت مجاز است حتی اگر نسخه اصلی باشد. omnibus ANOVA (با گروه به عنوان یک عامل) نشان داد که هیچ توافقی از نظر نیمکره به منطقه از طریق تعامل مهارت وجود ندارد؟ به عبارت دیگر، هنگامی که تصمیم گرفتم به دو گروه مهارت نگاه کنم، آیا می توانم تحلیل را به گونه ای اجرا کنم که گویی هرگز این دو گروه را مقایسه نکرده ام یا من توسط ANOVA اصلی محدود شده ام که چه پیگیری هایی می توانم انجام دهم؟ | تعامل 5 طرفه |
82604 | یک نفر، یادم نیست چه کسی، اشاره کرد که راه های زیادی برای مشخص کردن قبلی وجود دارد، حتی می توانید آن را ترسیم کنید!. برای من واضح است که واقعاً می توان چگالی قبلی را با استفاده از قلم و کاغذ ترسیم کرد و آن را به یک هیستوگرام قبلی برای استفاده در تجزیه و تحلیل تبدیل کرد. آنچه من تعجب می کنم این است: ** آیا این رویکرد در ادبیات مورد استفاده قرار گرفته است؟ اگر نه، آیا دلایلی وجود دارد که به طور کلی این رویکرد خوب نیست؟** | آیا استخراج قبلی با رسم چگالی قبلی می تواند معقول باشد؟ آیا انجام شده است / بحث شده است؟ |
19000 | من در ابتدا این را در سرریز پشته پرسیدم و به این سایت ارجاع شدم، بنابراین در اینجا میگویم: من در حال پیادهسازی روشهای بدون نظارت برای خلاصهسازی اسناد مبتنی بر انتخاب محتوا/استخراج هستم و در مورد آنچه کتاب درسی من «نسبت احتمال ورود به سیستم» مینامد سردرگم هستم. . کتاب به طور خلاصه آن را چنین توصیف می کند: LLR برای یک کلمه، که به طور کلی لامبدا (w) نامیده می شود، نسبت بین احتمال مشاهده w در هر دو ورودی و بدنه پس زمینه با فرض احتمالات برابر در هر دو جسم و احتمال است. مشاهده w در هر دو با فرض احتمال های مختلف برای w در ورودی و پیکره پس زمینه. با تفکیک آن، شمارشگر را داریم: احتمال مشاهده w در ورودی و پیکره پسزمینه با فرض احتمالات مساوی در هر دو مجموعه - چگونه محاسبه کنم که از چه احتمالی در اینجا استفاده کنم؟ و مخرج: احتمال مشاهده w در هر دو فرض احتمال های مختلف برای w در ورودی و پیکره پس زمینه. - آیا این به اندازه احتمال وقوع کلمه در ورودی ضربدر احتمال وقوع کلمه در بدنه ساده است؟ مثال: (شمارش (کلمه، ورودی) / کل کلمات در ورودی) * (شمارش (کلمه، پیکره) / کل کلمات در پیکره) من در یک مقاله به دنبال مراجع کتابم، روش های دقیق برای آمار شگفتی و تصادف بودم (دانینگ 1993)، اما برای من مشکل است که با مشکل محاسبه مقادیر LLR برای تک تک کلمات در خلاصه سازی مبتنی بر استخراج ارتباط برقرار کنم. هر گونه توضیحی در اینجا واقعاً قابل قدردانی خواهد بود. | نسبت Log-Relihood در خلاصه سازی اسناد |
19005 | آیا بهترین راه برای یافتن زمان بقای میانه از یک نمودار بقا فقط برای کشیدن یک خط افقی از $p = 0.5$ به منحنی و پیش بینی به سمت پایین به محور x است؟ | یافتن میانگین زمان بقا از تابع بقا |
82606 | من یک مجموعه داده با حدود 6000 obs دارم. در یک ساختار مقطعی سری زمانی (کشورها و سالها). متغیر وابسته / پاسخ من باینری است و متغیرهای مستقل / توضیحی من ترکیبی از دودویی و پیوسته است. اکنون، من نگران هستم که متغیر توضیحی مورد علاقه من ممکن است مستقل از عوامل مشاهده نشده، خاص کشور و متغیر زمان نباشد، بنابراین میخواهم اینها را با اثرات ثابت حذف کنم (و احتمالاً همین کار را برای سال خاص انجام دهم. ، اما عوامل تغییر ناپذیر کشور). از آنجایی که متغیر پاسخ من باینری است، من از مدلهای لاجیت شرطی گروهبندیشده بر اساس کشور استفاده میکنم، اما برای این پروژه نامطلوب میدانم که آنها تمام اطلاعات کشورها را بدون تغییر در متغیر پاسخ کنار بگذارند (در نمونه من تعداد زیادی از آنها وجود دارد) . بنابراین، من میخواهم این مدلها را با مدلهای احتمال خطی (LPM) با اثرات ثابت استاندارد تکمیل کنم. با این حال - و مشکل من اینجا پیش میآید - تصور میکنم که، علاوه بر مشکلات معمول با LPM، آنها باید یک مشکل اضافی در این مورد داشته باشند، زیرا متغیر پاسخ باینری یک محدودیت غیرطبیعی در اثرات مشاهدهنشده دارد. من فقط مطمئن نیستم که این محدودیت چقدر مشکل دارد؟ و اگر بستگی به این دارد که بقیه مدل کران 0-1 متغیر پاسخ را نقض کند یا خیر؟ امیدوارم بچه ها بتوانید به من کمک کنید! با آرزوی بهترین ها برای برتل | اثرات ثابت در یک مدل احتمال خطی (LPM) |
64787 | میخواهم بدانم آیا چارچوبهای ارزیابی سیستمهای توصیهگر وجود دارد که قادر به ارزیابی پیشبینی رتبهبندی و توصیه topN (دقت و فراخوان و غیره) باشد. شاید لازم باشد آنها را در چارچوب های توصیه گر پیدا کنم؟ اگر اینطور است، آیا به راحتی وصل می شوند؟ در واقع، من روی سیستمهای توصیهگر پویا کار میکنم که ممکن است به مواردی برای آموزش نیاز داشته باشند، زودتر از آیتمهایی برای آزمایش/توصیهها، که به نظر من سناریوی کاربردی واقعی است. به نظر من، تا زمانی که رکوردهای داده دارای مهر زمانی هستند، کار ارزیابی باید از موارد آموزشی و آزمایشی با ترتیب زمانی استفاده کند. اما بسیاری از دو مجموعه آیتم ها به صورت تصادفی انتخاب می شوند. درست میگم؟ | آیا چارچوب های ارزیابی عمومی در دسترس برای سیستم های توصیه گر وجود دارد؟ |
89203 | هنگام مقایسه عملکرد دو طبقهبندی کننده در یک حوزه واحد، در زمینه یک مشکل طبقهبندی در یادگیری ماشین، استفاده از آزمون t زوجی، با استفاده از 10 میانگین نتایج حاصل از اعتبارسنجی متقاطع 10x10 برابری به عنوان اندازهگیری، رایج است. چین ها در هر تکرار برای دو طبقه بندی کننده یکسان است. تعمیم آشکار و در عین حال نادرست این آزمون t به مواردی که طبقهبندیکنندههای متعدد وجود دارد، این است که همه جفتها را بگیریم، یا فقط جفتهای جالب را اگر فقط بخواهیم 1 طبقهبندی کننده را با بقیه مقایسه کنیم، و از آنجا کار کنیم. اما مشکل این است که نتایج این آزمونهای t چندگانه مستقل از یکدیگر نیستند. من از ANOVA به عنوان تعمیم آزمون t به موقعیت هایی با بیش از 2 گروه برای مقایسه شنیده ام. فکر می کردم این راه حل این مشکل است، اما بعد بیشتر خواندم و به طور تصادفی به اندازه گیری های مکرر ANOVA برخورد کردم، که به نظر می رسد حتی به چیزی که به دنبال آن هستم نزدیک تر است. آیا کسی می تواند تأیید کند (یا باطل کند) که ANOVA اندازه گیری های مکرر واقعاً چیزی است که باید در این شرایط استفاده شود؟ تفاوت بین ANOVA معمولی و rANOVA در این مورد چیست؟ | تست آماری: طبقه بندی کننده های متعدد، 1 دامنه. آیا rANOVA مناسب است؟ |
65787 | چگونه می توانم مشکل سوگیری برچسب را در مدل های پنهان مارکوف درک کنم؟ و چرا CRF قادر به حل این مشکل است؟ | چگونه مشکل سوگیری برچسب در HMM را درک کنیم؟ |
90843 | من یک متخصص آمار نیستم و می خواهم اعتبار آزمونی را که در نتایج نظرسنجی استفاده کرده ام بررسی کنم. **نتایج نظرسنجی** از افراد (n=264) خواستم تا جاده پانورامایی را که انتخاب کرده اند در 24 دسته مختلف مشخص کنند. هر کدام از آنها می توانست به تعداد دلخواه دسته بندی را انتخاب کند. تعداد دفعاتی که هر دسته برای دو زیرمجموعه از نمونه من ذکر شد را شمردم: خبرگان (n=37) و عمومی (n=227). من توزیعی از بزرگی (یا فرکانس ها) را برای هر دسته در هر گروه دریافت کردم. **سوال** من می خواهم بررسی کنم که آیا توزیع انتخاب ها در m دو زیر مجموعه یکسان است یا خیر. اگر متفاوت است، میخواهم بدانم علت این واریانس کدام دستهها هستند. **آزمون** من استفاده از Goodness of Fit (Chi-Square) را با استفاده از R، در حالی که x=(شمارش عمومی) و p=(شمارش کارشناسان) با rescale.p = TRUE انتخاب کردم. سطح معناداری خود را 5 درصد قرار دادم. از زمانی که من یک حلقه while نوشتم، تا زمانی که P-Value > 5٪ تست شود کار می کند. حلقه در هر تکرار متغیرها را حذف می کند. حذف متغیرها بر اساس یک بردار دلتا است (delta<-abs(public_counts - expert_counts). برای هر تکرار، متغیرهایی که بالاترین دلتا را دارند حذف می شوند. این تا زمانی است که H0 پذیرفته شود. می خواهم بدانم آیا این پسوند chi تابع مربع با استفاده از حلقه while یک روش معتبر برای پاسخ به سوال من است، به ویژه، آیا بردار دلتا که بر اساس تعداد مطلق است صحیح است در صورت لزوم، خوشحال می شوم که داده ها و کدهای خام را برای تابع multi.chi ارائه دهم. | اعتبار یک تکرار برای خوب بودن تناسب با یک برنامه خاص |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.