_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
97190
وقتی بین 2 متغیر طبقه‌بندی، یکی با دو سطح و دیگری با سه سطح، تعامل وجود دارد، در مورد میانجیگری سؤال دارم. با استفاده از بسته «میانجیگری» توسط تینگلی و همکارانش در R، سعی می‌کنم یک تحلیل واسطه‌ای بوت استرپ برای تعامل بین یک طبقه‌بندی 2 سطحی IV ('condstorm') و یک طبقه‌بندی 3 سطحی IV دیگر ('condmean') انجام دهم. . میانجی ('trustmed2') دوگانه است و متغیر وابسته ('AttInd') پیوسته است. جدول 2 سطح IV 'condstorm' (d$condstorm) nostorm storm 604 570 جدول 'condmean' دسته 3 سطح IV (d$condmean) هر دو میانگین بالا 413 375 386 میانجی دوگانه 'trustmed2' جدول (d) 1 305 866 خلاصه AttInd DV پیوسته (d$AttInd) حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر NA's 0.0000 0.3571 0.6200 0.5801 0.8214 1.0000 3 کد و خروجی مدل با واسطه این است: کنتراست (d$condstorm) طوفان nostorm 0 طوفان 1 کنتراست هر دو بالا (d$high0 meanev0) غیره 0 med.fit <- glm(trustmed2 ~ condmean*condstorm + gwbelief + trustmed1 + coastdwell + partyID + polor + جنسیت + سن + نژاد + تحصیل + درآمد + منطقه، وزن = وزن 1، داده = d، خانواده = دوجمله ای ('probit ')) خلاصه (med.fit) تماس: glm (فرمول = trustmed2 ~ condmean * condstorm + gwbelief + trustmed1 + coastdwell + partyID + polor + جنس + سن + نژاد + تحصیل + درآمد + منطقه، خانواده = دوجمله ای (probit)، داده = d، وزن = وزن 1) باقیمانده انحراف: حداقل 1Q میانه 3Q حداکثر - 3.9982 -0.1429 0.2196 0.4594 3.2721 ضرایب: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -1.876115 0.284494 -6.595 4.27e-11 *** condmeannonevhigh 0.170809 0.175454 0.974 0.330294940.33029. 0.181383 2.740 0.00614 ** طوفان طوفان 0.285569 0.182081 1.568 0.11680 gwbeliefnotvref 0.056512 0.631022 0.0299000 0.746556 0.129610 5.760 8.41e-09 *** trustmed1 1.908566 0.121064 15.765 < 2e-16 *** coastdwellyes 0.320369 0.120369 0.12044240 حزب 0.585477 0.148862 3.933 8.39e-05 *** partyIDvref -0.468275 0.654078 -0.716 0.47403 partyIDvrep 0.058146 0.1306510 0.13062510. -0.316949 0.508007 -0.624 0.53269 polorvlib -0.058482 0.160609 -0.364 0.71577 polorvcons -0.369565 0.122246 0.023 -3.023 M. -0.009229 0.105253 -0.088 0.93013 agev1824 0.235127 0.194856 1.207 0.22756 agev2534 0.099723 0.178575454540. 0.119399 0.169987 0.702 0.48243 agev4554 0.221921 0.176420 1.258 0.20842 agev5564 0.173343 0.1703843 0.17038301. 0.033141 0.177162 0.187 0.85161 racevblack -0.323867 0.188305 -1.720 0.08545 . racevother 0.475179 0.234313 2.028 0.04256 * educhsvsome -0.002255 0.132574 -0.017 0.98643 educhsvcollgrad 0.20193180.20196214010. educhsvref 1.304337 0.666427 1.957 0.05032. درآمد 3050 -0.095963 0.159290 -0.602 0.54688 درآمدv5075 0.184528 0.168946 1.092 0.27473 0.27473 درآمدv75100 0.028214 0.028214 0.028214 0.028214 0.168946 درآمد v100 -0.249873 0.167648 -1.490 0.13610 regionvmw -0.058581 0.163619 -0.358 0.72032 regionvne 0.315495 0.1777202701. regionvs 0.204790 0.145384 1.409 0.15895 condmeannonevhigh:condstormstorm -0.061962 0.263472 -0.235 0.81407 condmeannonevbothm 4.7560.606. -2.620 0.00878 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف صفر: 1316.98 در 1170 درجه آزادی انحراف باقیمانده: 767. 1136 درجه آزادی (3 مشاهده حذف شده است به دلیل عدم وجود) AIC: 836.49 تعداد تکرارهای امتیاز دهی فیشر: 6 و کد و خروجی برای مدل با واسطه به عنوان پیش بینی کننده در متغیر وابسته: out.fit <- lm(AttInd ~ trustmed2 + condmean*condstorm + trustmed1 + gwbelief + coastdwell + partyID + polor + جنسیت + سن + نژاد + آموزش + درآمد + ر
میانجیگری با استفاده از «میانجی» در R با یک تعامل
29615
من به دنبال یک کتابخانه C++ برای آمار برای بازی با تشخیص نقاط پرت در سری های زمانی (در میان سایر موارد) هستم. آنچه من نیاز دارم: * برآوردگرهای قوی، همبستگی ها، آزمون های فرضیه، و غیره. * بدون وابستگی به کتابخانه های خارجی. * بدون GPL؛ یک مزیت خواهد بود: * سبک وزن. * رایگان؛ * قابل حمل؛ * فعال و پشتیبانی شده؛
کتابخانه C++ برای بازی با آمار (تشخیص نقاط پرت در سری های زمانی)
18752
من فقط به این فکر می کنم که مرکز کردن دو IV در زمینه درک یک تعامل به چه معناست. IVها A هستند و جنسیت و DV B است. آیا لازم است اثرات اصلی یک متغیر تعاملی جدید (A*Gender) قبل از IVها یک محصول باشد (مثلاً تأثیر اصلی محوری A * محور اصلی جنسیت) آیا می توان در چارچوب رگرسیون (سلسله مراتبی) استفاده کرد؟
مرکز کردن دو IV در زمینه یک تعامل به چه معناست؟
37656
من به این آموزش اشاره می کنم: آموزش مدل های پنهان مارکوف و برنامه های منتخب در تشخیص گفتار. من در مورد الگوریتم فوروارد کمی گیج هستم. از آموزش: > اگر محاسبات مربوط به محاسبه $\alpha_t(j)$، > 1<=t<=T و 1<=j<=N را بررسی کنیم، به ترتیب $N^2T$ نیاز دارد. محاسبات من دقیقاً متوجه نشدم که چرا $N^2T$ است. بعلاوه آنها هنگام محاسبه $P(O|\lambda)$ آن را با $2TN^T$ مقایسه کرده اند. همچنین مطمئن نیستم که چگونه می توانند پیچیدگی محاسبات را برای $P(O|\lambda)$ با $\alpha_t(j)$ مقایسه کنند. آنها حتی یکسان نیستند؟
سردرگمی مربوط به مدل پنهان مارکوف
95105
من در چند روز گذشته کار زیادی برای ارائه مدل‌های اثرات مختلط انجام داده‌ام تا روی برخی از داده‌های رفتاری که برای پایان‌نامه‌ام جمع‌آوری کرده‌ام اعمال کنم، اما به ذهنم رسید که ۱۰۰٪ مطمئن نیستم که این نوع از مدل در واقع برای داده های من مناسب است (من فقط پس از شروع آزمایش با آنها برخورد کردم). در یک آزمایش، 60 شرکت‌کننده «28 آزمایش» را از یک تکلیف استدلالی، متشکل از «14 مسئله» (آنها را «A» - «N» نامید)، با شرکت‌کنندگان که هر کدام را در «2 شرط» تکمیل کردند، «x» ( تضاد) و «y» (کنترل). مشکل شرکت کننده 1 Ax/Ay Bx/By Cx/Cy Dx/Dy ... Nx/Ny 2 Ax/Ay Bx/By Cx/Cy Dx/Dy ... Nx/Ny 3 Ax/Ay Bx/By Cx/Cy Dx/Dy ... Nx/Ny 4 Ax/Ay Bx/By Cx/Cy Dx/Dy ... Nx/Ny 5 Ax/Ay Bx/By Cx/Cy Dx/Dy ... Nx/Ny ... ... ... ... ... ... ... 60 Ax/Ay Bx/By Cx/Cy Dx/Dy ... Nx/Ny من به تفاوت در متغیر آزمایش به آزمایش (بیایید آن را «زمان واکنش» بنامیم) بین شرایط تضاد و کنترل علاقه مندم و انتظار دارم برای درگیری بالاتر باشد. (`y`) آزمایشات بدیهی است، من انتظار دارم که یک همبستگی درون موضوعی پیدا کنم - برخی از موضوعات عموماً سریع و برخی عموماً کند هستند. من همچنین انتظار دارم یک همبستگی درون مسئله ای پیدا کنم - برخی از مسائل بدون توجه به شرایط سریعتر از سایرین پاسخ داده می شوند. برای توضیح این موارد، من رهگیری‌های تصادفی را برای این دو عامل در نظر می‌گیرم: «(1|شرکت‌کننده) + (1|مشکل)». تفاوت بین شرایط تضاد و کنترل ممکن است برای هر موضوع و برای هر مشکل یکسان باشد یا نباشد. به همین دلیل، من شیب‌های تصادفی را نیز در نظر می‌گیرم: `(1 + شرط|شرکت‌کننده) + (1 + شرط|مشکل)`. با کنار هم قرار دادن این، من مدلی را آزمایش می کنم که به نظر می رسد: null_model = lmer(reaction_time ~ condition(1|شرکت کننده) + (1|مشکل)، data=data) condition_model = lmer(reaction_time ~ condition + (1|شرکت کننده) ) + (1|مشکل)، داده=داده) یا null_model = lmer(زمان_واکنش ~ (1 + شرط|شرکت کننده) + (1 + شرط|مشکل)، داده=داده) شرط_مدل = lmer(زمان_واکنش ~ شرط(1|شرکت کننده) + (1|مشکل)، داده=داده) . **لطفا؛ آیا به طرز وحشتناکی اشتباه متوجه شده‌ام که قرار است این چگونه کار کند؟** **ویرایش:** رویکرد سنتی‌تر برای تجزیه و تحلیل این داده‌ها، میانگین‌گیری مشکلات درون هر شرکت‌کننده است، که به ازای هر شرکت‌کننده دو نقطه داده به دست می‌دهد: «میانگین شرایط تضاد» و «میانگین شرط کنترل»، و سپس از آزمون t زوجی استفاده کنید. با خواندن این سوال، من فکر کردم که این رویکرد باید تا حد زیادی مانند برازش «lmer(reaction_time ~ شرط + (1|شرکت کننده)، داده=داده)» باشد، اما به نظر می رسد که این روش را در R امتحان کنید. **ویرایش شماره 2:** Bounty اضافه شد.
آیا مجموعه داده من برای یک مدل جلوه های ترکیبی مناسب است؟
7159
حتی اگر این سوال مستقیماً مربوط به تجزیه و تحلیل های آماری نیست، من فکر کردم که این گروه ممکن است بینش مفیدی داشته باشد. ایستگاه کاری مبتنی بر ویندوز xp مدرسه من چندین ساعت طول می کشد تا مدل های رگرسیون لجستیک ساده را با اصلاحات بوت استرپ و رویه های بوت استرپ برای انتخاب مدل اجرا کند (کد R اقتباس شده از کتاب دکتر فرانک هارل در مورد رگرسیون لجستیک). درخواست و گرفتن حساب محاسباتی در بخش محاسبات دانشگاه بسیار کند پیش می رود (بیش از یک ماه از شروع این فرآیند می گذرد). من باید این تحلیل ها را در اسرع وقت انجام دهم. در نتیجه، من در نظر دارم یک لپ تاپ شخصی لینوکس از System76 (Pangolin) تهیه کنم. https://www.system76.com/product_info.php?cPath=28&products_id=100 من امیدوار هستم که از بسته چند هسته ای R با هدف لینوکس استفاده کنم. با این حال، من مطمئن نیستم که کدام پردازنده اینتل را انتخاب کنم. پردازنده های i5 دارای 2 هسته و سرعت کلاک بالاتر هستند اما پردازنده های i7 دارای 4 هسته و سرعت کلاک کمتر هستند. تفاوت قیمت این دو گروه حدود 500 دلار است. من واقعا در این مورد سردرگم هستم. هر گونه بینش بسیار مفید خواهد بود. خیلی ممنون از وقتی که گذاشتید
پلتفرم محاسباتی R: لپ تاپ لینوکس System76 با i5 دو هسته ای یا i7 چهار هسته ای؟
89937
من وضعیت زیر را دارم: دو سیستم وجود دارد، $s_A$ و $s_B$. برای $s_A$ دو حالت وجود دارد: $s_A = a,b$. برای $s_B$ سه حالت وجود دارد: $s_B = 1،2،3$. حالا کاری که می‌خواهم انجام دهم اندازه‌گیری $s_B$ است، اما این امکان پذیر نیست. در عوض، من گزینه ای برای اندازه گیری $s_A$ دارم، و سه رابطه زیر را می دانم: (اگر $P(a|1)$ را بنویسم، منظورم این است که این احتمال اندازه گیری $s_A = a$ است با توجه به اینکه $s_B = 1$) $P(a|1) = F_1$ $P(a|0) = F_2$ $P(a|-1) = F_3$ در اصل من مقادیر $F_i$. علاوه بر این، احتمالات همگی به یک می رسند، بنابراین $P(b|1) = 1- F_1$ اکنون از این مشخص است که من نمی توانم تصمیم بگیرم که $s_B$ چه چیزی از یک اندازه گیری باشد. با این حال، من می توانم اندازه گیری را هر چند وقت یکبار که بخواهم انجام دهم تا آماری را ایجاد کنم. با این حال... هر بار که اندازه می‌گیرم، احتمال تغییر $s_B$ وجود دارد. $s_B$ مطابق با زنجیره مارکوف رفتار می‌کند، و سه انتقال ممکن وجود دارد: 1 به 0، 0 به 1، 0 به -1 و -1 به 0. برای شروع، ساده‌ترین فرض این است که احتمالات انتقال هستند. همه فقط برابر با 1 $p$ هستند، اما در صورت امکان من می خواهم این کار را برای چهار احتمال مختلف نیز انجام دهم. بنابراین کاری که می‌خواهم انجام دهم این است که با توجه به تمام موارد بالا، روشی برای یافتن $s_B$ از اندازه‌گیری‌های $N$ $s_A$ بسازم. علاوه بر این، من همچنین می‌خواهم بیانی برای اینکه چقدر خوب می‌توانم این کار را انجام دهم پیدا کنم و بنابراین یک $N$ بهینه پیدا کنم. آیا کسی هست که بتواند به من کمک کند تا با این کار شروع کنم؟ آنچه من در مورد خودم فکر کردم این است که اگر این احتمالات انتقال را نادیده بگیرم، اندازه گیری N مانند متغیرهای دوجمله ای خواهد بود. بنابراین برای مثال اگر $s_B = 1$، آنگاه تعداد اندازه‌گیری‌های $s_A = a$ باید از توزیع دوجمله‌ای با پارامترهای $N$ و $F_1$ پیروی کند. البته برای دوتای دیگه هم همینطور. سپس می‌توانم تقاطع‌های این سه توزیع را پیدا کنم و به سادگی ببینم که تعداد اندازه‌گیری‌های $s_A$ در کدام بازه به احتمال زیاد کاهش می‌یابد. احتمال درست بودن فقط توابع توزیع تجمعی است. اما من هیچ راهی نمی بینم که چگونه این را برای احتمال تغییر $s_B$ تنظیم کنم.
تعیین وضعیت یک سیستم شرطی
7153
من می خواهم ایده خوبی در مورد نحوه طراحی آزمایشات بالینی در انکولوژی داشته باشم. در آن شماره، من به دنبال کتابی فشرده هستم که بتواند با تأکید بر ملاحظات آماری، دید کلی خوبی به من بدهد. توصیه ای به من دارید؟ پیشاپیش ممنون مارکو
کتاب طراحی کارآزمایی های بالینی در انکولوژی
37657
در این گفتگو http://videolectures.net/lms08_hardoon_scca/ (4:58) دیوید می گوید که حداکثر کردن همبستگی بین بردارها را می توان به عنوان به حداقل رساندن زاویه بین آنها در نظر گرفت و دو مرجع ارائه می دهد: Breiman & Friedman 1985، و Hastie & Tibshirani. 1990. دومی از اینها فقط کتاب درسی آنهاست، و اولی را نمی توانم پیدا کنم، اگرچه آنها یک کتاب داشتند. مقاله در آن زمان در مورد مدل های افزایشی تعمیم یافته. اساساً من نمی توانم جایی که آنها در این مورد بحث می کنند پیدا کنم. آیا ادعا درست است؟ کسی مرجع قطعی داره؟
به حداکثر رساندن همبستگی بین بردارها در مقابل به حداقل رساندن زاویه بین آنها
41535
من به دنبال یک راه خوب و رسمی برای تعریف میانگین های متحرک هستم: $y = \sum_{i=0}^N w_ix_i=<\mathbf{w}،\mathbf{x}>$ و به خصوص این واقعیت که وزن ها باید برابر یک، یعنی $\sum_{i=0}^N w_i=1$. این ویژگی برای من کاملاً واضح به نظر می رسد، زیرا شما به نوعی می خواهید خروجی همان سطح مقادیر ورودی باشد. با این حال، من نمی دانم چگونه آن را به روشی ریاضی تر توصیف کنم. کسی می تواند به من کمک کند؟ متشکرم
روش رسمی برای تعریف میانگین وزنی
7156
من یک مجموعه داده با سطوح سالانه فساد در تعدادی از کشورها و همچنین تغییر دولت خود در آن سال دارم. سال، فساد، تغییر رئیس جمهور 2001، 5، 0 2002، 7، 1 2003، 8، 0 و غیره. بخشی از همان حزب سیاسی قبلی). ایده این است که یا به شیب فساد/سال برای دو سال منتهی به انتخابات و دو سال بعد، به عنوان مثال، نگاه کنیم. $t-2$، $t-1$ و $t$ برای شیب قبل. ایده دیگر بررسی میانگین سطح فساد سه سال قبل و بعد از آن است. این نرخ ممکن است منطقی تر باشد زیرا موارد بیشتری وجود دارد که بر فساد تأثیر می گذارد و کشورهای مختلف ممکن است در مسیرهای متفاوتی قرار گیرند. با این حال، نگاه کردن به سطوح متوسط ​​سه سال قبل و بعد از آن نیز می تواند فوایدی داشته باشد. آیا نظری دارید که به کدام یک نگاه کنم، و همچنین چگونه می توانم آن را اندازه گیری کنم؟
تفاوت بین دو شیب
71782
خوب، این سوالی است که مرا شب ها بیدار نگه می دارد. ** آیا می توان رویه بوت استرپ را به عنوان تقریبی برخی از رویه های بیزی (به جز بوت استرپ بیزی) تفسیر کرد؟** من واقعاً تفسیر بیزی از آمار را دوست دارم که به نظر من به خوبی منسجم و قابل درک است. با این حال، من همچنین یک ضعف برای رویه بوت استرپ دارم که بسیار ساده است، اما در بسیاری از موقعیت ها استنباط های معقولی ارائه می دهد. با این حال، اگر بدانم که bootstrap به نوعی توزیع پسینی را تقریب می‌کند، از راه‌اندازی بیشتر خوشحال می‌شوم. من بوت استرپ بیزی را می شناسم (روبین، 1981)، اما از دیدگاه من آن نسخه از بوت استرپ به اندازه بوت استرپ استاندارد مشکل ساز است. مشکل، فرض مدل واقعاً عجیبی است که شما، هم هنگام انجام بوت استرپ کلاسیک و هم در راه‌انداز بیزی، می‌کنید، یعنی مقادیر ممکن توزیع فقط مقادیری هستند که قبلاً دیده‌ام. چگونه این مفروضات مدل عجیب و غریب هنوز هم می توانند استنتاج های بسیار معقولی را که رویه های بوت استرپ به دست می دهند به دست آورند؟ من به دنبال مقالاتی بوده‌ام که ویژگی‌های راه‌انداز را بررسی کرده‌اند (به عنوان مثال Weng، 1989) اما هیچ توضیح واضحی پیدا نکردم که از آن راضی باشم. # مراجع Donald B. Rubin (1981). بوت استرپ بیزی. _آن. آمار._ دوره 9، شماره 1، 130-134. چونگ سینگ ونگ (1989). در مورد خاصیت مجانبی مرتبه دوم میانگین بوت استرپ بیزی. _The Annals of Statistics_، جلد. 17، شماره 2، صص 705-710.
آیا می توان بوت استرپ را از منظر بیزی تفسیر کرد؟
18757
به نظر می رسد که نمودار PACF از نمودار ACF آموزنده تر است. چه اطلاعاتی از نمودار ACF بدست می آید که نمی توان از نمودار PACF به دست آورد. (ACF = تابع همبستگی خودکار، و PACF = خودهمبستگی جزئی).
نمودار ACF چه چیزی را به من می گوید که یک نمودار PACF نمی گوید؟
18754
من تعداد زیادی دستگاه $N$ دارم و می خواهم بدانم آیا هر یک از آنها معیوب هستند یا خیر. به چه اندازه نمونه نیاز دارم تا با اطمینان 100$(1-\alpha)\%$ مطمئن شوم که هیچ کدام معیوب نیستند؟
اندازه نمونه برای تعیین اینکه آیا نسبت موفقیت صفر است یا خیر
108894
من سه پارامتر تخمینی دارم، $\hat{\beta_0}$،$\hat{\beta_1}$ و $\hat{\beta_2}$، اینها از ترتیب $\hat{\beta_1}\leq\hat{\ پیروی می کنند. beta_0}\leq\hat{\beta_1}$، که در آن این پارامترها تخمین‌هایی از یک تابع احتمال فراوانی هستند. من واریانس $\hat{\beta_1}$ و $\hat{\beta_2}$ را می دانم. آیا می توان واریانس $\beta_0$ را در مقایسه با $\hat{\beta_1}$ و $\hat{\beta_2}$ ارائه داد. در مقایسه، منظور من مانند $var(\hat{\beta_1})\leq var(\hat{\beta_0}) \leq var(\hat{\beta_2})$ است.
واریانس پارامترها
7155
مردم اغلب در مورد برخورد با موارد پرت در آمار صحبت می کنند. چیزی که در این مورد من را آزار می دهد این است که تا آنجا که می توانم بگویم، تعریف یک پرت کاملاً ذهنی است. به عنوان مثال، اگر توزیع واقعی برخی از متغیرهای تصادفی بسیار سنگین یا دووجهی باشد، هر گونه تجسم استاندارد یا آمار خلاصه برای تشخیص نقاط پرت به اشتباه قسمت هایی از توزیعی را که می خواهید نمونه برداری کنید حذف می کند. در صورت وجود، تعریف دقیقی از موارد پرت چیست و چگونه می توان با موارد پرت بدون وارد کردن مقادیر نامعقول ذهنیت در تحلیل برخورد کرد؟
تعریف دقیق از یک نقطه پرت؟
71788
من به دنبال راهی برای محاسبه $z$-score برای یک صدک معین $p$ هستم. من این سایت را در حال انجام چنین محاسبه ای یافتم. آنها فرمولی برای محاسبه $P(Z\leq z)$ داده اند: $$ \Phi(z) = P(Z \le z) = \int_{-\infty}^z \frac{1}{\sqrt {2\pi}}e^{\frac{-u^2}{2}}du $$ اکنون مقدار $P(Z\leq z)$ را دارم و سعی کردم آن را حل کنم تا $z$ را پیدا کنم ، اما واقعا پیچیده بود برای حل $z$. آیا تابعی در JAVA یا PHP وجود دارد که بتواند این کار را انجام دهد؟ یا آیا هیچ راه ریاضی وجود دارد که بتوانیم برای $z$ حل کنیم؟ (من کدنویسی جدول $z$ را به عنوان آخرین انتخاب خود در نظر می‌گیرم، زیرا در این مورد باید تقریب‌هایی را انجام دهم.) **ویرایش** فراموش کردم این را ذکر کنم، مشکل اصلی که می‌خواهم حل کنم این است که یک نقطه تصادفی از یک توزیع نرمال رسم کنید. من سعی کردم از تابع 'inversecdf' از توزیع عادی استفاده کنم. با توجه به اجرای عمومی آن تابع، زمان زیادی می برد. بگویید من می‌خواهم نقطه را در 0.75$ محاسبه کنم، ما می‌توانیم با یافتن $z$-value در آن نقطه و سپس یک ریاضی ساده $\bar{x}+\sigma\times z$ این کار را به سرعت انجام دهیم. بنابراین من می‌خواستم راهی پیدا کنم که برای یک صدک معین امتیاز z$-score را بدست بیاورم.
درصد به Z-score در PHP یا JAVA
76788
یک CLT می گوید که به طور مجانبی توزیع نمونه برداری از میانگین نمونه گیری به نرمال همگرا می شود. من می خواهم شبیه سازی مونت کارلو را با استفاده از اطلاعات مربوط به یکی از متغیرهای مدل از ادبیات که مقداری میانگین و خطای استاندارد را گزارش می کند، اجرا کنم، اما 10=n است. من خیالم راحت نیست که این n به اندازه کافی بزرگ باشد که نمونه برداری از میانگین نمونه گیری این پارامتر را با استفاده از Normal در شبیه سازی توجیه کند. این تمام اطلاعات موجود در مورد پارامترهای متغیر است. آیا در مورد توزیع نمونه‌گیری میانگین نمونه‌گیری زمانی که n کوچک است، چیزی می‌توان گفت؟ فرض اینکه میانگین نمونه گیری از توزیع نرمال با n کوچک پیروی می کند چه پیامدهایی دارد؟ حتی n=2 تخمین بی طرفانه ای از میانگین جمعیت می دهد و برای محاسبه خطای استاندارد کافی است. پس آیا اینطور نیست که ما پارامترهای شکل معتبری برای یک توزیع نرمال داشته باشیم، و حتی اگر توزیع در n=2 نرمال به نظر نرسد، می‌توان انتظار داشت که میانگین و خطای استاندارد محاسبه‌شده با n کوچک معرف میانگین و خطای استاندارد با n بزرگتر؟
CLT در شبیه سازی مونت کارلو، نمونه کوچک
76789
مقالاتی مانند بریگز و همکاران. 2002 می گویند که محدودیت های منطقی در ورودی ها مانند پارامترهای احتمال، توزیع نرمال را به دلیل نامحدود بودن آن از در نظر گرفتن حذف می کند. در این مثال، مقادیر کمتر از 0 و بالاتر از 1. آنها به طور خلاصه مشتق بیزی از داده های نسبت (دوجمله ای) به بتا را برای استفاده به عنوان توزیع نمونه برای احتمالات در تحلیل حساسیت احتمالی از طریق شبیه سازی مونت کارلو توصیف می کنند. بتا می تواند شکلی شبیه به نرمال به خود بگیرد، اما می تواند اشکال بسیار غیر عادی نیز داشته باشد. 1. آیا می توان این اشتقاق بیزی را با قضیه حد مرکزی فراوان گرایانه تطبیق داد که می گوید با حجم نمونه به اندازه کافی بزرگ، توزیع نمونه از میانگین نمونه گیری تقریباً نرمال خواهد بود؟ برای استفاده از منابع (یعنی تعداد مراجعه به پزشک) بریگز و همکاران 2002 از توزیع گاما، همانطور که در جدول 4 شکل گرفته است، استفاده می کنند که مطمئناً عادی نیست. نرمال بودن چیزی است که برای نمونه های به اندازه کافی بزرگ در تفسیر متداول انتظار می رود. 2. در شبیه سازی مونت کارلو، اگر از یک توزیع نرمال برای ترسیم مقادیر تحقق یافته برای احتمالات استفاده شود، تکرارهایی وجود دارد که مقادیر <0 یا >1 مشاهده می شود. با این حال، برای توزیع های متقارن، این باید به طور مجانبی لغو شود. توزیع همچنان حول میانگینی است که در محدوده منطقی آن قرار دارد و مونت کارلو نتایج کل را نه نتایج یک تکرار واحد در نظر می گیرد. بنابراین من تعجب می کنم که چرا ما به محدودیت های منطقی پارامترهایی مانند احتمالات، هزینه ها و غیره در چارچوب شبیه سازی مونت کارلو اهمیت می دهیم؟
توزیع پارامترهای منطقی محدود در شبیه سازی مونت کارلو
69136
من یک همبستگی متقاطع انجام داده ام اما مطمئن نیستم کاری که انجام می دهم درست است یا نه... اینها خطوط فرمانی است که تا کنون استفاده کرده ام (این یکی برای اولین سری زمانی است. نشان دهنده اعداد اشتراک برای مردان و زنان در یک وب سایت در ساعات روز) data<-read.table(text=hour men women 00h00 475 295 01h00 321 157 02:00 206 127 03:00 141 61 04:00 73 29 05:00 49 22 06:00 71 30 07:00 100 32 08:00 163 55 09:00 100 163 55 09:00 1006 11:00 342 255 12:00 407 247 13:00 480 334 14:00 459 358 15:00 481 281 16:00 490 347 17:00 4580 4580 618 419 20h00 579 453 21h00 565 530 22h00 659 605 23h00 600 435,header=TRUE) (این یکی برای دومین سری زمانی است که نشان دهنده زمانی است که تبلیغات در تلویزیون نمایش داده می شود. تبلیغات در یک سری زمانی ساختگی این پست را ببینید چرا این کار را به این صورت انجام داده‌ام: سری زمانی و همبستگی متقابل) hr<-read.table(text=ساعت‌ها 00h00 01h00 02h00 03h00 04h00 05h00 06h00 07h00 08h00 1h000 09h00 12:00 13:00 14:00 15:00 16:00 17:00 17:45 18:00 19:00 20:00 21:00 22:00 23:00 23h10,header=TRUE) (سپس خط زمانی را با دستور corre پایین بیاورید) ccf(data$men,hr,50) و من این نمودار را دارم (به پایین مراجعه کنید) اما برای من معنی ندارد. اگر سرنخی دارید خوشحال میشم بشنوم. با تشکر ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/mS8aD.png)
همبستگی متقابل با R
76259
در حین انجام برخی شبیه‌سازی‌ها، متوجه شدم که چندک نمونه یک تخمین‌گر مغرضانه از کمیت واقعی است. و طبق شبیه سازی های من، یک بالقوه _بسیار_ مغرضانه. من از این نتیجه شگفت زده شدم زیرا CDF تجربی مغرضانه نیست، اما پس از تحقیقات اینترنتی، متوجه شدم که درست است. من سعی کردم بفهمم که این سوگیری از کجا می آید، اما کار با چندک های نمونه بسیار دشوار است. آیا کسی نشانی از آن تعصب (و در حالت ایده آل، کمی سازی) دارد؟
نشان دادن سوگیری چندک نمونه
30000
من سه متغیر فضایی، $v_1، v_2$ و $v_3$ (به عنوان مثال، تخلخل، اشباع آب و vshale) را مدل می‌کنم که با یکدیگر همبستگی دارند: $\rho_{12}، \rho_{13}$ و $\ rho_{23}$. فرض کنید من سه میدان تصادفی گاوسی ناهمبسته، UG1، UG2 و UG3 ایجاد کرده‌ام، که هر کدام ساختار همبستگی فضایی خود را دارند. درک من این است که میدان‌های تصادفی گاوسی را می‌توان به صورت خطی ترکیب کرد (با استفاده از ضرایب همبستگی) تا به میدان‌های تصادفی گاوسی همبسته، CG1، CG2، CG3 رسید که همبستگی اساسی بین متغیرها را حفظ می‌کند. فکر می‌کنم می‌دانم چگونه می‌توان این کار را از طریق رویکرد تجزیه کلسکی انجام داد: http://en.wikipedia.org/wiki/Cholesky_decomposition#The_Cholesky.E2.80.93Banachiewicz_and_Cholesky.E2.80.93Crout_algorithms آیا روش دیگری برای محاسبه وجود دارد. زمینه های تصادفی گاوسی همبسته؟
ترکیب خطی میدان های تصادفی گاوسی
30002
تا آنجا که من می دانم، می توان خطای استاندارد نسبی را از روی انحراف معیار یک نمونه داده محاسبه کرد. من به دنبال معادل انحراف مطلق میانه برای خطای استاندارد هستم. آیا یکی وجود دارد؟ همچنین کدام روش برای محاسبه خطای استاندارد نسبی وجود دارد که به انحراف معیار نیاز ندارد؟
معادل MAD برای خطای استاندارد
76251
کتاب یادگیری آماری من بیان می‌کند که وقتی درخت‌های تصمیم ساخته می‌شوند، m از p پیش‌بینی‌کننده‌ها به‌طور تصادفی برای بررسی در یک تقسیم انتخاب می‌شوند. ایده در اینجا ظاهراً این است که درختانی را که در کیسه‌بندی به دست می‌آیند با تضعیف اثر یک پیش‌بینی‌کننده قوی، مرتبط کنیم. اگر ما پیش‌بینی‌کننده‌های p برای انتخاب داشته باشیم، و در هر تقسیم فقط می‌توانیم از پیش‌بینی‌کننده‌های m استفاده کنیم، به طور متوسط ​​می‌گویند، (p - m)/p از تقسیم‌ها شامل پیش‌بینی‌کننده قوی می‌شود. چرا؟
پیش بینی کننده قوی در جنگل های تصادفی
37659
من سعی می کنم یک مدل kselect از «adehabitatHS» انجام دهم که از دستورات بسته «ade4» استفاده می کند. من سعی می کنم تعیین کنم که آیا نیاز به مقیاس بندی متغیرهایم دارم یا خیر. درک سطحی من این است که k-select اساسا یک PCA فانتزی است. در مثال خود آنها متغیرهای خود را مقیاس کردند، اما متغیرهای آنها فقط اندازه گیری های پیوسته بودند. من متغیرهای طبقه ای و پیوسته را مخلوط کرده ام. در مثال خود، آنها متغیرهای خود را قبل از استفاده از دستور 'dudi.pca' مقیاس بندی می کنند که از درک من برای تنظیم k-select لازم است. من از خواندن راهنمای dudi در وینت `ade4` می‌دانم که باید از «dudi.mix» در اینجا به جای «.pca» استفاده کنم، اما در مورد مقیاس‌بندی چه باید کرد؟ آیا باید متغیرهایم را مقیاس کنم؟ آیا باید همه متغیرها را مقیاس بندی کنم؟ آیا باید همه متغیرها را به جز متغیر طبقه بندی مقیاس بندی کنم؟ من نمی توانم مطالب خواندنی را پیدا کنم که آنچه را که در فرآیند ترکیبی dudi/pca اتفاق می افتد با جزئیات کافی توضیح دهد. اگر می‌خواهید ببینید به چه چیزی اشاره می‌کنم، کد مثالی از راهنمای k-select در زیر آمده است. data(puechabonsp) locs <- puechabonsp$relocs map <- puechabonsp$map pc <- mcp(locs[Name]) hr <- hr.rast(pc، map) cp <- count.points(locs[, Name]، map) ## داده ها را برای تحلیل kselect آماده می کند x <- prepksel(map, hr, cp) تب <- x$tab ## مثالی از تجزیه و تحلیل با دو متغیر: شیب و ارتفاع. tab <- tab[,((names(tab) == Slope)|(names(tab) == Elevation))] tab <- scale(tab) ## A K-select analysis acp <- dudi pca.(tab، scannf = FALSE، nf = 2) kn <- kselect(acp، x$factor، x$weight، scannf = FALSE، nf = 2) دوباره، مثال آنها فقط از متغیرهای پیوسته استفاده می کند. آیا dudi.mix متغیرها را در کدی که ما نمی بینیم به طور مناسب مقیاس می دهد؟
مقیاس بندی مدل های ترکیبی برای PCA با استفاده از dudi.mix
8065
من داده های زیر را از 2 بیماری از 5 منطقه دارم. میخوام ببینم بین این 2 بیماری رابطه ای هست یا نه؟ میزان بروز 2 بیماری (در هر میلیون مورد در سال) مناطق بیماری 1 بیماری 2 1 4.653 0.751 2 6.910 1.121 3 4.957 0.745 4 2.870 0.848 5 2.8619 بیماری 2 مورد بیماری هستند 1. 1 1152 186 2 2601 422 3 1051 158 4 403 119 5 290 120 من یک مبتدی در آمار زیستی هستم. لطفا به زبان ساده مرا راهنمایی کنید
ایجاد ارتباط بین 2 بیماری
71787
آیا بهتر است داده ها را به یک محدوده، مثلاً [0،1] محدود کنیم یا میانگین 0 و sd از 1 را مجبور کنیم؟ چرا؟ آیا نوع داده های ورودی مهم است (من از متغیرهای پیوسته و طبقه ای استفاده خواهم کرد)؟
با استفاده از KNN برای پیش بینی، چگونه باید داده های خود را عادی کنم؟
30009
من یک جمعیت معین U دارم. اعضای x از U هر کدام یک ویژگی p را برآورده می کنند یا ندارند. یعنی p(x) برای هر x در U یا درست یا نادرست است. من این کار را با نمونه برداری مکرر از U (با جایگزینی) برای مدتی ثابت مانند 60 ثانیه انجام می دهم. (این یک برنامه کامپیوتری است که من در مورد آن صحبت می کنم.) پس از نمونه برداری از n مورد، به این نتیجه می رسم که نسبت تعداد آیتم هایی است که پیدا کردم که p درست است تقسیم بر n. فرض کنید f این کسر باشد (با 0 <= f <= 1). این همه به اندازه کافی ساده است. چیزی که می‌خواهم بدانم این است که آیا می‌توانم کران بالایی b را روی خطای f ایجاد کنم یا نه. من ساده لوحانه فرض کردم که خطای b abs(f - f') است که در آن f' کسری است که پس از n - 1 نمونه محاسبه می شود. از آزمایش، متوجه شدم که این فرض اشتباه است. آیا راهی برای بدست آوردن یک کران محکم b وجود دارد؟
محاسبه خطا در نمونه گیری
18758
در بازی ورق Pitch با استفاده از 1 عرشه با 52 کارت و 4 نفر در حال بازی و شش کارت به هر نفر داده می شود و من یک شریک دارم و یک پادشاه دارم و می خواهم در کت و شلواری که پادشاه در استفاده از پادشاه به همان اندازه که آیا درصدی که حریفان من دارای آس در لباس پادشاه من از 12 کارت خود هستند؟
اگر من پادشاه را داشته باشم، احتمال دارد که حریف من در بازی با ورق Ace داشته باشد
7482
اگر kNN برای طبقه بندی بر روی یک مجموعه داده خوب عمل نکند، آیا امیدی به عملکرد بهتر روش های پارامتری وجود دارد؟ روش‌های مبتنی بر هسته، SVM، جنگل‌های تصادفی و شبکه‌های عصبی. آیا هر یک از اینها می تواند از روش kNN بهتر عمل کند؟
دقت روش های پارامتریک پیشرفته در مقایسه با روش kNN
76255
من دو مدل با 24 متغیر در هر کدام دارم. می‌خواهم ببینم افزودن یک متغیر اضافی (متغیر در مطالعه) چگونه بر نتیجه تأثیر می‌گذارد. من از مدل های ترکیبی خطی تعمیم یافته برای هر دو مدل استفاده کردم. (فرمان GENLINMIXED). چگونه خروجی مدل ها را ذخیره و مقایسه کنم؟ من می خواهم کاری را انجام دهم که ANOVA در R انجام می دهد. دو مدل را با هم مقایسه کنید و مقدار P را پیدا کنید تا بررسی کنید که آیا تفاوت قابل توجهی بین دو مدل وجود دارد یا خیر. با تشکر فراوان.
مقایسه مدل در SPSS
30005
من از سری PCA با بازگشت ارز خارجی برای یافتن یک بتا در بازار استفاده می کنم. من از 10 سال داده روزانه با وزن نیمه عمر 2 ساله در PCA با استفاده از تابع PCA بسته FactoMineR استفاده می کنم. من اولین سری بازده مولفه اصلی را استخراج می کنم (بنابراین حاصلضرب اولین بردار ویژه و ماتریس بازدهی) و می خواهم آن را در برابر هر بردار بازده ارزی رگرسیون کنم تا باقیمانده ها را پیدا کنم، یعنی بازده هر ارز را مستقل از بازار پیدا کنم. بتا آیا باید از همان وزن نیمه عمر 2 ساله در رگرسیون ها استفاده کنم؟ آیا این وزن گیری را به نحوی دوبرابر می کند؟ برعکس، اگر رگرسیون را وزن نکنم، آیا به طور ضمنی روی بازده PC1 که کمتر «مرتبط» هستند، وزن زیادی می‌گذارم؟ برای آنچه ارزش دارد، فعالان بازار از نظر روانی تمایل بیشتری به رفتار ارزی اخیر نسبت به گذشته طولانی دارند. با تشکر از کمک.
در رگرسیون اجزای اصلی، آیا باید رگرسیون را مانند PCA وزن کنم؟ یا اصلا؟
44968
لطفاً راه حل زیر را برای تخمین پارامتر میانگین متحرک با استفاده از روش گاوس-نیوتن (خطی سازی) بررسی کنید. من MA(1) را در نظر میگیرم. مدل MA(1): $$z_t=a_t-\theta_1a_{t-1}.$$ **راه حل:** باقیمانده این مدل، $$a_t=z_t+\theta_1a_{t-1} است.$$ مجموع مربعات باقیمانده این مدل برابر است با $$S(\theta_1)=\sum_{t=1}^Ta_t^2=\sum_{t=1}^T(z_t+\theta_1a_{t-1})^2.$$ می خواهیم تابع را کوچک کنیم از مجموع مربعات باقیمانده این مدل. و از آنجایی که میانگین متحرک غیرخطی است، از هر روش تخمین غیرخطی استفاده می کنیم، در حال حاضر از روش گاوس-نیوتن استفاده می کنیم. رویه گاوس-نیوتن: فرض کنید $\theta_1^{(0)}$ تخمین اولیه مدل باشد. سپس مجموع مربعات باقیمانده $$S(\theta_1)=\sum_{t=1}^T(z_t+\theta_1^{(0)}a_{t-1})^2.$$ خواهد بود. $a_{t-1}$ موجود نیست، پس باید به صورت بازگشتی برای $a_t$ با استفاده از برآورد اولیه $\theta_1^{(0)}$ محاسبه کنیم. یعنی $$a_1=z_1+\theta_1^{(0)}a_{0}$$ $$a_1=z_1+0، زیرا\,\, a_{0}=0$$ سپس $$a_2=z_2+ \theta_1^{(0)}a_1=z_2+\theta_1^{(0)}z_1$$ و غیره. سپس پس از به دست آوردن این مقادیر، می‌توانیم مجموع مربع‌های باقی‌مانده را محاسبه کنیم. مدل $E\left[z_t|a_{t-1}\right]$of MA(1) $E\left[a_t\right]-\theta_1E\left[a_{t-1}\right]= است. -\theta_1a_{t-1}.$ تقریب $E\left[z_t|a_{t-1}\right]$ با بسط سری تیلور در مورد اولیه آن حدس زدن ارزش ما داریم، $$E\left[z_t|a_{t-1}\right]=E\left[z_t|a_{t-1}\right]+\left.\frac{\جزئی E\left[z_t |a_{t-1}\right]}{\جزئی \theta_{1}}\right|_{\theta_1=\theta_1^{(0)}}(\theta_1-\theta_1^{(0)})$$ با استفاده از شکل کلی مدل رگرسیون خطی: $$ Y_t=f(X_t،\boldsymbol\beta)+e_t$$ $E\left[Y_t\right]=f(x_t,\boldsymbol{\beta})$ سپس، وصل کردن $E\left[z_t|a_{t-1}\right]$ به مدل تبدیل به $$ می شود Y_t=E\left[z_t|a_{t-1}\right]+\left.\frac{\جزئی E\left[z_t|a_{t-1}\right]}{\partial \theta_{1}}\right|_{\theta_1=\theta_1^{(0)}}(\theta_1-\theta_1^{ (0)})+e_t$$ سپس، $$Y_t-E\left[z_t|a_{t-1}\right]=\left.\frac{\جزئی E\left[z_t|a_{t-1}\right]}{\partial \theta_{1}}\right|_{\theta_1=\theta_1^{(0)}}(\theta_1-\theta_1^{ (0)})+e_t$$ اجازه دهید $\left.\frac{\partial E\left[z_t|a_{t-1}\right]}{\partial \theta_{1}}\right|_{\theta_1=\theta_1^{(0)}}$ be $D_{t1}^{(0)}$ و $(\theta_1-\theta_1^{(0) })$ $\delta_{1}^{(0)}$ باشد. سپس این معادل است با $$z_t-(-\theta_1^{(0)}a_{t-1})=D_{t1}^{(0)}\delta_{1}^{(0)}+ e_t$$ $$Y^{(0)}=D_{t1}^{(0)}\delta_{1}^{(0)}+e_t$$ کجا: $Y^{(0)}=z_t-(-\theta_1^{(0)}a_{t-1})$ بنابراین با حداقل مربع معمولی، تخمین $\delta_1^{(0)}$ است ، $$\widehat{\delta}_1^{(0)}=(D_{t1}^{(0)})^{-2}D_{t1}^{(0)}Y^{(0)} .$$ تخمین واقعی خواهد بود، $$\theta_1^{(1)}=\theta_1^{(0)}+\widehat{\delta}_1^{(0)}$$ The $\theta_1^{(1)}$ تخمین نهایی نیست، بلکه یک مقدار حدس اولیه جدید برای پارامتر خواهد بود. این روش تکراری تا زمانی که همگرایی رخ دهد انجام می شود. آیا این درست است؟ من واقعا از کمک شما قدردانی می کنم.
روش گاوس-نیوتن برای تخمین پارامتر MA
30001
من این داده را دارم که شامل واریانس برای فواصل مختلف است، منظورم واریوگرام تجربی است. چگونه می توانم یک مدل variogram از این در متلب ایجاد کنم
ایجاد واریوگرام مدل از واریوگرام تجربی
74364
یکی از تفاوت های اصلی بین بیزی ها و مکررگرایان این است که آنها تفسیری ذهنی از احتمال دارند. با این حال، آیا بیزی‌ها واقعاً احتمالات مرتبط با یک نتیجه را با توجه به مجموعه‌ای از پارامترها (به عنوان مثال برای احتمال) به صورت ذهنی تفسیر می‌کنند یا فقط این است که آنها یک احتمال ذهنی را به قبلی و همچنین به عنوان پیامد به پسین مرتبط می‌کنند؟ (اما $p(x | \theta)$ به طور مشابهی تصور می شود که افراد متداول در مورد آن فکر می کنند.)
آیا بیزی ها توزیع احتمال را نیز ذهنی تفسیر می کنند؟
40668
من داده هایی از یک نظرسنجی سالانه دارم که به دنبال ارزیابی نیازهای مصرف کنندگان در مقیاس 1 (کم اهمیت ترین) تا 5 (مهم ترین) است. بنابراین، من داده هایی دارم که به نظر می رسد: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/0AKaU.png) هدف من ارزیابی این است که آیا نیازهای مصرف کنندگان در طول سال ها تغییر کرده است یا خیر من معتقدم که رویکرد صحیح برای ارزیابی اینکه آیا نیازها تغییر کرده اند، انجام یک آنالیز واریانس یک طرفه با عامل سال است. با این حال، رویکرد دیگر این است که میانگین نمونه را در طول سال ها در نظر بگیرید، مانند جدول زیر: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/enp1O.png) سپس می توانیم یک رگرسیون خطی در نظر بگیریم. رم در مقابل سال و بررسی کنید که آیا شیب به طور قابل توجهی با 0 متفاوت است یا خیر. نوسان است و به دلیل هیچ گونه تغییر زمینه ای نیست. اشکالات رویکرد دوم نسبت به روش اول چیست؟ آیا آنها احتمالاً به سؤالات مختلفی می پردازند؟ آیا آزمایش دوم، آزمایش ضعیف تری برای تغییرات در نیازهای مشتری است، زیرا اطلاعات نمونه را از دست می دهیم؟
مشکلات انجام رگرسیون بر روی میانگین های نمونه به جای ANOVA در تنظیمات سری زمانی چیست؟
76250
من تازه وارد آمار هستم و سعی می کنم تفاوت بین ANOVA و رگرسیون خطی را درک کنم. من از R برای کشف این موضوع استفاده می کنم. من مقالات مختلفی را در مورد اینکه چرا ANOVA و رگرسیون متفاوت هستند، اما هنوز یکسان هستند و چگونه می توان آنها را تجسم کرد، خواندم. من می‌دانم که ANOVA واریانس درون گروهی را با واریانس بین گروه‌ها مقایسه می‌کند تا مشخص کند که آیا بین هر یک از گروه‌های آزمایش شده تفاوت وجود دارد یا نه. (https://controls.engin.umich.edu/wiki/index.php/Factor_analysis_and_ANOVA) برای رگرسیون خطی، من یک پست در این انجمن پیدا کردم که می گوید وقتی ما تست می کنیم که آیا b (شیب) = 0 است، می توان آن را آزمایش کرد. (چرا ANOVA به گونه ای آموزش داده می شود که گویی یک روش تحقیق متفاوت در مقایسه با رگرسیون خطی است؟) برای بیش از دو گروه یک وب سایت پیدا کردم. بیان می کند: فرضیه صفر این است: $\text{H}_0: µ_1 = µ_2 = µ_3$ مدل رگرسیون خطی این است: $y = b_0 + b_1X_1 + b_2X_2 + e$ خروجی رگرسیون خطی است، با این حال، پس رهگیری برای یک گروه و تفاوت این رهگیری برای دو گروه دیگر. (http://www.real-statistics.com/multiple-regression/anova-using-regression/) برای من، این به نظر می رسد که در واقع رهگیری ها با هم مقایسه می شوند نه شیب ها؟ مثال دیگری که در آن رهگیری‌ها را به جای شیب‌ها مقایسه می‌کنند، می‌توانید در اینجا پیدا کنید: (http://www.theanalysisfactor.com/why-anova-and-linear-regression- are-the-same-analysis/) من اکنون در تلاش هستم تا درک کنید که واقعاً چه چیزی در رگرسیون خطی مقایسه می شود؟ شیب ها، رهگیری ها یا هر دو؟
R: آنوا و رگرسیون خطی
7485
آیا می توانید به من کمک کنید تا استدلال زیر را در مورد قابلیت شناسایی اثر تصادفی $v$ در یک مدل افزایشی کامل کنم. در یک مدل افزایشی مانند $X\beta + v$ مکان $v$ غیرقابل شناسایی است زیرا $X\beta + v = (X\beta + a) + (v-a)$ متشکرم! **ویرایش** (به دنبال نظر mpiktas) آیا موارد زیر برای شما منطقی است؟ اجازه دهید $v\sim N(\mu, \sigma^2)$ را فرض کنیم. در مدل قبلی، $\mu$ قابل شناسایی نیست زیرا ما همیشه می‌توانیم مقداری $a$ را به وقفه اضافه کنیم و آن را به $\mu$ کم کنیم، و این احتمال را تغییر نمی‌دهد. به عبارت دیگر، فرد نیاز به اعمال محدودیت دارد، به عنوان مثال، $E(v)=\mu=0$.
شناسایی یک اثر تصادفی در یک مدل افزایشی
89939
من در استخراج k-means از Mixture of Gaussians مشکل دارم. من از نماد Bishop (2006)، بخش 9.3.2 پیروی می کنم: فرض کنید: $$ p(\mathbf{x}| \boldsymbol{\mu}_k, \boldsymbol{\Sigma}_k) = \frac{ 1}{(2\pi \epsilon )^{1/2}} \exp \left( \frac{ -1 }{2 \epsilon } \|. \mathbf{x} - \boldsymbol{\mu} \|^2 \راست) $$ $$ \mathbb{E} \left[ \ln p \left( \mathbf{X, Z} | \boldsymbol {\mu، \Sigma، \pi} \right) \right] = \sum_{n=1}^{N} \sum_{k=1}^{K} \gamma(z_{nk}) \left \lbrace \ln \pi_k + \ln \mathcal{N} ( \mathbf{x}_n | \boldsymbol{\mu}_k، \boldsymbol{\Sigma}_k ) \راست \rbrace $$ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/qkE5c.png) ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/AW1HE.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/mBFFl.png) دارای ادعا شده است که اگر حد $ \epsilon \rightarrow 0 $ را بگیریم، خواهیم داشت: $$ \mathbb{E} \left[ \ln p \left( \mathbf{X, Z} | \boldsymbol{\mu، \Sigma، \pi} \right) \right] = -\frac{1}{2} \sum_{n=1}^{N} \sum_{k=1}^{K} r_{nk} \| \mathbf{x}_n - \boldsymbol{\mu}_k \|^2 + \text{const.} $$ نشان دادن اینکه $\gamma(z_{nk}) \rightarrow r_{nk}$ آسان است. اما برای من مشخص نیست که چگونه معادله بالا را نشان دهم. کسی میتونه کمک کنه؟
اشتقاق دقیق برای یافتن k-means از مخلوط های گاوسی
8063
چگونه می توانم همبستگی خطی متغیرهای غیرعادی توزیع شده را اندازه گیری کنم؟ ضریب پیرسون برای داده های غیرعادی توزیع شده معتبر نیست و rho اسپیرمن همبستگی خطی را نشان نمی دهد. متشکرم
اندازه گیری همبستگی خطی متغیرهای غیرعادی توزیع شده
38230
فرض کنید ${\bf X} = (X_1، \dots، X_n)$ شدت ورود به سیستم همه طوفان‌های استوایی $n = 291 $ از حوضه اقیانوس اطلس شمالی بین سال‌های 1980 و 2006 را نشان می‌دهد. شدت لگاریتم به عنوان لگاریتم تعریف می‌شود. حداکثر سرعت باد پایدار آن (در گره اندازه گیری می شود). یک طوفان استوایی در صورتی که حداکثر سرعت باد پایدار آن 137 گره یا بیشتر باشد، یعنی اگر شدت ورود آن 4.92 یا بیشتر باشد، طوفان دسته 5 است. ما علاقه مند به احتمال $p \in [0,1]$ یک طوفان استوایی هستیم که به قدرت دسته 5 برسد. مدل زیر را در نظر بگیرید: $X_i \overset{{\rm iid}}{\sim} \mathsf{Normal}(\mu, \sigma^2)$، که $\sigma = 0.33، \mu \in (-\ infty، \infty)$. تحت این مدل $p = \Phi\left({\mu - 4.92 \over \sigma}\right)$ که $\Phi(x)$ نشان‌دهنده CDF معمولی استاندارد است. بازه اطمینان 95% ML را برای $p$ بر اساس خلاصه‌های زیر از داده‌ها پیدا کنید $$\bar x = 4.21 \quad \sqrt{n} = 17.06 \quad \#\{x_i \ge 4.92\} = 9$ $ * * * **My Work** فرمول یک بازه ML برای $X_i \overset{{\rm iid}}{\sim} \mathsf{Normal}(\mu, \sigma^2)$ با $\sigma$ شناخته شده $B_c(x) = [\bar X \mp c{\sigma \over \sqrt{n}}]$ است. با محاسبه در این خطوط، برای $c = 1.96$ به عنوان مقدار $z$ که احتمال $0.05$ را در دو دنباله ترکیبی از pdf معمولی باقی می‌گذارد، B_{1.96}(x) = [4.172, 4.247]$ دریافت می‌کنم، اما وقتی سعی می کنم نقاط انتهایی این بازه را برای $p$ ارزیابی کنم، با توجه به اینکه $\Phi(x)$ یک تبدیل یکنواخت است، جواب های مزخرفی می گیرم من چه غلطی می کنم؟ همچنین، این هرگز برای هیچ کلاسی تحویل داده نمی شود، من به سادگی با این مشکل برخورد کردم و تعجب کردم که چگونه می توان آن را حل کرد.
چگونه می توانم یک فاصله اطمینان ML 95٪ از احتمال قدرت دسته 5 را پیدا کنم
76257
من یک GLMM در R با استفاده از کد glmmPQL از بسته MASS اجرا می کنم. من یک خطای همگرایی از کد زیر دریافت کردم. Calvingglmm2<-glmmPQL(Distance~AllRoads+Natural,random=list(~1|جمعیت,~1|حیوان),data=dat,family=Gamma) خلاصه (Calvingglmm2) بنابراین من داشتم با کدم سر و کله می زدم تا ببینم چه اتفاقی افتاده است و من شروع به اجرای کد زیر روی زیرمجموعه ای از داده ها کردم و به طور تصادفی فقط یک مقدار را حذف کردم و ببینیم با نتایج چه اتفاقی می‌افتد. Calving.Sample <- dat [sample(1:nrow(dat), 72, replace=FALSE),] Calvingglmm3<-glmmPQL(Distance~AllRoads+Natural,random=list(~1|جمعیت،~1|حیوان)، data=Calving.Sample,family=Gamma) خلاصه (Calvingglmm3) باعث تعجب من شد هر بار که آن را اجرا می کردم، نتایج به شدت متفاوت بود. گاهی اوقات من همان خطای همگرایی را دریافت می کردم، گاهی اوقات نه. نمرات ضرایب بر اساس ترتیبات بزرگی بین آزمون‌ها متفاوت بود، و مقادیر p از بسیار معنی‌دار تا نزدیک به 1 متغیر بود. من فقط کنجکاو بودم که آیا این یک رفتار عادی برای یک glmm است یا چیزی وجود دارد که در نوشتن کدم از قلم افتاده ام. پیشاپیش از هر گونه راهنمایی یا نظر متشکرم. همچنین، اگر راهنمایی در مورد همگرایی مدل اصلی دارید، بسیار سپاسگزار خواهم بود (من سعی کردم مقادیر شروع را به بهترین شکل ممکن اختصاص دهم، اما جایی پیدا نکردم که نظریه پشت این را توضیح دهد، بنابراین من فقط حدس زدن). Dat<-structure(list(Distance = c(1162.19822264933, 933.7389356964, 12464.4096318671, 2302.50341687867, 2308.50165384 3915.18043060571, 17837.96671385, 17473.9826616, 4370.44787757821, 9661.80979659471, 494.8187020 6343.92286937286, 10330.586481458, 7624.58478308857, 14897.9088190286, 1243.54364758029, 19114726. 33453.3717670143, 16970.6123001571, 28644.182422185, 320.560246296333, 246.9661127017, 51813.924 7140.31194765857, 45598.15814312, 41031.9354510571, 268.281266841133, 3260.011811305, 8973.61423, 8979.61423 4251.30789989014, 4082.86162842957, 5385.99524586143, 1251.47504851657, 4804.98184018143, 143949, 182940. 20401.4590098429, 2553.975445222, 4041.81979881614, 1484.13677199571, 1169.66034782414, 131349.15 1126.19983308043, 8259.06344765571, 1161.20714680757, 4181.80076622643, 40775.1222074, 9290,5141 2776.47225473183, 8576.42940441429, 15609.1535519286, 14714.6743856143, 19679.1616246857, 174846. 79828.7094106857, 4493.81152102286, 1601.71799450794, 30602.4498660167, 28884.2104902, 4852,37106 143.320137176271, 9140.66714171429, 15083.7211804857, 519.610817095514, 881.757008642143, 109471, 109471 32624.0004534714, 20764.3259027857, 793.753925335571, 12702.5984742143, 2203.06065660571, 14478, 14479. 9578.73109709, 8055.94785827714, Animal = ساختار(c(19L, 19L, 20L, 21L, 21L, 21L, 22L, 22L, 22L, 23L, 24L, 2,6L, 24L, 24L, 22L, 22L, 23L, 24L,6L,2 42 لیتر، 43 لیتر، 44 لیتر، 45 لیتر، 28 لیتر، 29 لیتر، 30 لیتر، 31 لیتر، 31 لیتر، 31 لیتر، 31 لیتر، 32 لیتر، 32 لیتر، 33 لیتر، 33 لیتر، 33 لیتر، 34 لیتر، 34 لیتر، 34 لیتر، 34 لیتر، 36 لیتر، 36 لیتر، 37 لیتر، 38 لیتر، 39 لیتر، 40 لیتر، 41 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 3 لیتر، 4 لیتر، 5 لیتر، 5 لیتر، 6 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 8 لیتر، 9 لیتر، 9 لیتر، 10 لیتر، 1،1،1،1، 1،1، 12 لیتر، 13L، 13L، 14L، 15L، 16L، 17L، 17L، 18L، 18L)، .Label = c(107، 108، 109، 111، 112، 170، 172 ، 173، 175، 176، 177، 179، 180، «181»، «182»، «183»، «184»، «188»، «Atiko01»، «Atiko03»، «Atiko14»، «Atiko19»، «Atiko20»، «BLDVN01»، «BLDVN08»، «BLDVN10» ، BLDVN13، GPS05، GPS06، GPS11، OWL07، «OWL10»، «OWL11»، «OWL17»، «OWL18»، «OWL22»، «OWL31»، «OWL32»، «OWL33»، «OWL34»، «OWL36»، «ROUND02»، «ROUND05»، «ROUND06» ، ROUND09)، کلاس = ضریب)، سال = c(2000L، 2001L، 2001L، 2006L، 2007L، 2008L، 2006L، 2007L، 2008L، 2007L، 2001L، 2003L، 2004L، 2008L، 2008L، 2002L، 2002L، 2008L، 2002L. 2002L، 1997L، 1997L، 1998L، 2003L، 2004L، 2005L، 2006L، 2004L، 2005L، 2004L، 2005L، 2006L، 2007L، 2005L، 2006L. 2008L، 2005L، 2006L، 2007L، 2008L، 2008L، 2008L، 2008L، 2008L، 2008L، 2010L، 2011L، 2011L، 2010L، 2010L. 2011L، 2010L، 2011L، 2011L، 2010L، 2011L، 2010L، 2011L، 2010L، 2011L، 2010L، 2011L، 2010L، 2011L، 2011 2010L، 2010L، 2010L، 2010L، 2011L، 2010L، 2011L)، AllRoads = c(19018.3333333333، 20042.8، 31917.71328166666.714.714.666.676.717.714.676.676.714.714.8566.676.676.714.714.8566 39712, 38754.5714285714, 873, 10783.1666666667, 1703.42857142857, 27205.5714285714, 3968.6, 3968.6, 3968.6, 105714, 3968.6, 105714 1444, 1707.14285714286, 6424, 17395.8571428571, 13087.2857142857, 4435.42857142857, 2236.3333333 2513.16666666667, 1119.66666666667, 7531.28571428571, 2055.71428571429, 1183.4, 3636.1428571428, 3636.1428571428 1035.33333333333, 1240, 2483.28571428571, 1368.57142857143, 3534, 694.857142857143, 814, 328269.14 191.571428571429, 208.142857142857, 632, 236.428571428571, 1029.57
تغییرات چشمگیر در نتایج از glmm با تغییرات جزئی در مجموعه داده
86605
### پیشینه در علوم حسی، «تکرار» به معنای داشتن یک پانلیست در یک پانل چشایی است که چندین دور از یک آزمون را انجام دهد. شما نمی‌توانید آن دورهای اضافی را فقط به‌عنوان شرکت‌کنندگان اضافی در نظر بگیرید، زیرا ممکن است اعضای پانل عملکرد ثابتی از خود نشان دهند. در آن صورت، تکرارها به جای ارائه اطلاعات بیشتر در مورد تفاوت بین این دو محرک، فقط توانایی‌های افراد پانل را تایید می‌کنند. بنابراین، تئوری استفاده از یک مدل دوجمله‌ای بتای تصحیح شده را پیشنهاد می‌کند که در آن فرض می‌شود توانایی‌های شرکت‌کنندگان به‌صورت بتا توزیع می‌شوند، نه بین ۰ و ۱، بلکه بین $C$ (احتمال حدس زدن تست طعم استفاده‌شده) و ۱: $$ P(x|n,a,b,C)=\frac{(1-C)^n}{B(a,b)}\binom{n}{x}\sum_{i=0}^{x }\binom{x}{i}\left(\frac{C}{1-C}\right)^{x-i}B(a+i,n+b-x) $$ $C$ احتمال حدس زدن روش تست مورد استفاده (در مورد من $C=\frac{1}{3}$)، $n$ تعداد تکرارها است (در مورد من $n=2$ برای همه پانل‌ها)، $x$ تعداد موفقیت‌ها است. احتمال گزارش: $$ L=\sum_{i=1}^{k}log[Pr(x_i|n_i,\mu,\gamma)] $$ $k$ تعداد اعضای پانل است (در مورد من $k= 54$)، $n_i$ و $x_i$ تعداد تکرارها و موفقیت‌های $i$th پانلیست، $\mu$ میانگین، $\gamma$ است پارامتر بیش از حد پراکندگی (گاهی اوقات به عنوان $\rho$ نیز نامیده می شود). $a$ و $b$ را می توان از $\mu$ و $\gamma$ محاسبه کرد: $$ a=\mu\left(\frac{1}{\gamma}-1\right)\text{ و }b =(1-\mu)\left(\frac{1}{\gamma}-1\right) $$ (Bi، تست‌ها و اندازه‌گیری‌های تشخیص حسی، 2006، همانطور که در Gacula et نشان داده شده است. al., Statistical Methods in Food and Consumer Research, 2009, § 10.3, همچنین نگاه کنید به Brockhoff, The Statistical Replications in tests, 2003 and Næs et al., Statistics for Sensory and Consumer Science, 2010 § ##7.) نتایج آزمایش من 54 پانلیست را داشتم که 2 تکرار از a را انجام دادند تست حسی با احتمال حدس زدن 33% (n=2، k=54، C=1/3)، همه این دو دستور پخت پنکیک مشابه را با هم مقایسه می کنند. بسته به تفاوت طعم بین دستور پخت پنکیک، شما انتظار دارید که نسبت مشاهده شده موفقیت $p_c$ از 33% در صورت عدم تفاوت طعم به 100% در صورت تفاوت طعم آشکار افزایش یابد. با این حال، نتایج آزمایش من نشان می‌دهد که شرکت کنندگان پنکیک تنها در 29 مورد از 108 دور (27 درصد) به درستی پنکیک‌ها را گروه‌بندی کرده‌اند. این کد R برای داده های من است: round1 <- c(0, 0, 1, 0, 0, 1, 0, 0, 1, 1, 0, 1, 1, 0, 0, 0, 0, 0 , 0, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 1, 0, 0، 0، 1، 0، 0، 0، 0، 0، 1، 1، 1، 0، 0، 0، 0، 0، 0، 1، 0، 1، 0) round2 <- c(1، 0 , 1, 0, 0, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0، 1، 1، 1، 0، 0، 1، 0، 0، 0، 0، 1، 0، 1، 0، 0، 0، 0، 0، 0، 0، 0، 1، 0، 0، 0، 0، 0، 0، 0، 0، 1، 0، 1، 0، 1، 0، 0) x <- round1 + round2 n <- c(rep(2,length(x))) dat <- data.frame(id = factor(1:length(x)), x, n) من هیچ دلیلی ندارم که فرض کنم اعضای میزگرد داده اند پاسخ‌های اشتباه عمدی، و یا اینکه من نمونه‌ها را با هم قاطی کردم، بنابراین حدس می‌زنم این فقط شانس بود که منجر به این عملکرد کم شد. ### تخمین حداکثر احتمال همانطور که در Gacula توضیح داده شد (به پیوند بالا مراجعه کنید)، من یک تابع R از احتمال ورود به سیستم ذکر شده در بالا مدل بتا دو جمله ای (CBB) تصحیح شده ایجاد کردم، آن را llcbb نامیدم، سپس nlminb را برای پیدا کردن اجرا کردم. MLE- برآوردهای $\mu$ و $\gamma$. تخمین $\mu$ نزدیک به 0 است و تخمین $\gamma$ معمولاً نزدیک به مقدار شروع آن باقی می ماند: fit<-nlminb(start=c(.1, .9)، تابع(x) -1* llcbb(dat,mu=x[1],gamma=x[2],1/3) ,control=list(trace=1)) fit$par # [1] 5.986091e-13 8.974503e-01 fit<-nlminb(start=c(.1، .1)، تابع(x) -1*llcbb(dat,mu=x[1],gamma=x[2],1/3) control=list(trace=1)) fit$par # [1] 3.040535e-12 9.976926e-02 تصویر زیر من را نشان می دهد یافته‌های سیاه و برخی از پیکربندی‌های احتمالی مدل CBB. خط فیروزه ای نشان می دهد که وقتی $\mu$ به 0 نزدیک می شود، دیگر واقعاً مهم نیست $\gamma$ چیست. حدس می‌زنم این توضیح می‌دهد که چرا nlminb $\gamma$ را دست نخورده باقی می‌گذارد. ![نتایج مشاهده شده و مدل‌های CBB](http://i.stack.imgur.com/OPwa4.png) ### تخمین لحظه با استفاده از فرمول‌های دیگر ارائه شده توسط Gacula (به پیوند بالا مراجعه کنید) من تخمین‌های لحظه‌ای زیر را محاسبه کردم: $$ \hat{\mu}=-0.097222\text{, }\hat{\gamma}= 0.349006 $$ ویکی پدیا موارد زیر را در مورد تخمین‌های گشتاور منفی بیان می‌کند: > توجه داشته باشید که این تخمین‌ها می‌توانند غیرعقلی منفی باشند که شواهدی است که نشان می‌دهد داده‌ها نسبت به توزیع دوجمله‌ای یا پراکنده نیستند یا کم پراکنده هستند. در این مورد، توزیع دوجمله ای و توزیع بیش هندسی > به ترتیب کاندیدای جایگزین هستند. (توزیع دو جمله ای بتا. (2014، 7 فوریه). در ویکی پدیا، دایره المعارف آزاد. بازیابی شده در 14:42، 14 فوریه 2014، از http://en.wikipedia.org/w/index.php?title=Beta - binomial_distribution&oldid=594290522) من پیشنهاد بازگشت به توزیع دو جمله ای را درک می کنم، اما حتی در آن زمان هنوز هم احساس می‌کنم باید در مورد پراکندگی مطمئن شوم، زیرا حد بالای فاصله اطمینان در $p_c$ بسته به اینکه بتوانم از r استفاده کنم کمی متفاوت است.
چگونه پراکندگی را بفهمیم اگر $\mu$ نزدیک یا کمتر از 0 باشد (مدل بتای دو جمله ای تصحیح شده با شانس)
44961
من روی اقتصاد چین کار می کنم و موضوع تحقیق من این است که چگونه بی ثباتی سیاسی خارجی می تواند بر صادرات چین تأثیر بگذارد. بنابراین من می خواهم تابع تقاضای صادرات چین را برای سال های 1988-2011 با بیش از 130 کشور تخمین بزنم. من می خواهم معادله رگرسیون ارائه شده در زیر را تخمین بزنم. $$ \begin{align} \log(\mathrm{export})_{it} &= \beta_0+ \beta_1 \log(\mathrm{gdp واقعی})_{it}+ \beta_2 \log(\mathrm{جمعیت })_{it} \\ &\quad+ \beta_3\mathrm{ثبات سیاسی}_{it}+ \beta_4\mathrm{realexchange rate}_{it}+ \varepsilon_{it} \end{align} $$ که در آن $\log(\mathrm{export})_{it}$ (log) صادرات از چین به کشورهای دیگر و $t=1988, \ldots, 2011$. بر اساس تئوری اقتصادی، صادرات یک کشور نه تنها به تولید ناخالص داخلی و جمعیت داخلی بلکه به تولید ناخالص داخلی و جمعیت سایر کشورها نیز بستگی دارد. در تحقیقم، می‌خواهم تأثیر تولید ناخالص داخلی و جمعیت چین را بر صادرات چین در EViews در یک تخمین OLS ادغام‌شده کنترل کنم، اما نمی‌دانم چگونه این کار را انجام دهم. اگر این دو متغیر را کنترل نکنم، می‌توانم یک تخمین OLS ترکیبی در EViews اجرا کنم. هر گونه کمکی بسیار قدردانی می شود.
کنترل متغیرها در تخمین OLS ادغام شده در EViews
43365
همانطور که برای همه شناخته شده است، مهندسی ویژگی برای یادگیری ماشین بسیار مهم است، با این حال من مواد کمی مرتبط با این حوزه پیدا کردم. من در چندین مسابقه در Kaggle شرکت کردم و معتقدم که ویژگی های خوب ممکن است حتی در برخی موارد مهمتر از یک طبقه بندی خوب باشد. آیا کسی هیچ آموزشی در مورد مهندسی ویژگی می داند یا این تجربه ناب است؟
آموزش مهندسی ویژگی
44969
من یک سری زمانی دارم و یک شی AR(I)MA نصب کرده ام (من واقعاً فقط یک فرآیند ARMA می خواهم، بنابراین ترتیب (p,0,q)) در R است. اکنون می خواهم آن فرآیند را ادامه دهم (I حدس بزنید منظور من انجام شبیه سازی است). من arima.sim() را پیدا کردم اما مطمئن نیستم که چگونه آن را به استفاده از سری زمانی موجود خود برسانم (که می‌خواهم ادامه بدهم). امیدوارم سوالم منطقی باشه! با تشکر
ادامه فرآیند ARMA
86609
من از مدل‌های ترکیبی (اثر تصادفی برای فرد؛ اندازه‌گیری‌های مکرر) در lme4 برای مدل‌سازی یک نتیجه پیوسته استفاده می‌کنم. پیش بینی ها هم مقوله ای و هم مستمر هستند. متغیر نتیجه من (فشار خون؛ معمولاً بین 100 تا 170) در طول زمان یک تکامل غیر خطی دارد که در شکل زیر ارائه شده است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/kZxfu.png) کد استفاده شده: مدل <- lmer(فشار ~ جنسیت + درمان + شروع_سن + زمان_پیگیری + (1|شناسه_موضوع), داده= مخلوط6) ![نقشه باقیمانده](http://i.stack.imgur.com/aD0tu.png) ![qqplot](http://i.stack.imgur.com/EONPT.png) ![متغیر follow_up_time \(در واقع به نام دوره\)](http://i.stack.imgur.com/ul1sR .png) همانطور که می بینید (شکل ها) مدل من خطی بودن را برآورده نمی کند. من موارد زیر را امتحان کرده ام: * متمرکز کردن متغیر پاسخ * عدم مرکزیت متغیر زمان، یعنی استفاده از متغیر زمان همانطور که هست * با استفاده از لگاریتم متغیر زمان. * اضافه کردن مربع متغیر زمان (I(follow_up_time ^2)) به مدل. بیش از 700 هزار مشاهدات در این مطالعه وجود دارد. 120 هزار نفر من شنیده ام که با این تعداد مشاهدات، بسیاری از مفروضات خطی بودن اهمیت کمتری پیدا می کنند. توصیه ای در مورد تحولات دارید؟ آیا باید به مدل های ترکیبی تعمیم یافته یا شاید غیرخطی (nlme؟) تبدیل کنم؟ من واقعاً از نظراتی در مورد این موضوع خوشحال خواهم شد.
مشاوره برای تبدیل در مدل های ترکیبی
71560
من در حال مطالعه در مورد اصل MDL هستم و مشکل من در کتابی است به نام: راهنمای تجزیه و تحلیل هوشمند داده ها، ویرایش دوم صفحه 106. من در اینجا تصویر صفحه ای را که با آن مشکل دارم اضافه کردم. آیا کسی می تواند آنچه نویسنده در ناحیه برجسته می گوید رمزگشایی کند: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/sQzQ1.png) به نظر انتزاعی و گیج کننده است... وقتی او گیج می شوم میگه داده های اصلی تو خود قانون رفع فشار هست؟!...ها؟... و به خاطر همین بقیه اش رو متوجه نمیشم :/ ممنون میشم راهنمایی کنید
به درک توضیحی درباره اصل حداقل طول توضیحات کمک کنید
7487
چگونه می توانم اهمیت آماری ضرایب رگرسیون را در رگرسیون چند متغیره آزمایش کنم؟
چگونه می توان معناداری آماری ضرایب رگرسیون را در رگرسیون چند متغیره آزمایش کرد؟
40666
در صورت رگرسیون خطی چندگانه، من یک اثر قابل توجه در تجزیه و تحلیل زیر گروه (نمونه محدود به مردان) پیدا کردم. در تجزیه و تحلیل زیرگروه محدود به زنان هیچ تاثیری وجود ندارد. اما در مدلی از کل نمونه، واژه تعامل جنسیت معنادار نیست. من از این واقعیت آگاهم که نتیجه معنی دار در یک گروه و عدم تاثیر معنی دار در گروه دیگر لزوماً به معنای وجود تفاوت معنی دار ارتباط با متغیر وابسته بین دو گروه نیست. با این حال، مایلم نظر شما را بدانم که چگونه می توان چنین یافته ای را تفسیر کرد. آیا می توان استدلال کرد که شواهد محدودی وجود دارد که تفاوت در این معنا وجود دارد که شواهد آنقدر قوی نیست که در مورد تأثیر متقابل قابل توجه جنسیت وجود دارد؟
چگونه می توان با تفاوت ها در تجزیه و تحلیل زیر گروه ها کنار آمد اما تعامل قابل توجهی نداشت؟
44962
من سعی می کنم مدلی را بر روی مجموعه ای از داده هایی که از MT4 جمع آوری کرده ام تشکیل دهم. OHLC و برخی از شیب های MA. من سعی می کنم بهترین حدس را برای تغییر قیمت در آینده داشته باشم. من از # بسته‌های نیاز (quantmod) #برای Lag() require(nnet) require(caret) #مدل مدل مناسب <- train(change ~ Lag(change) + high + low + slope13 + slope50 + slope200، mt4، روش استفاده می‌کنم ='nnet'، linout=TRUE، trace = FALSE، #شبکه پارامترهای تنظیم برای امتحان: tuneGrid=expand.grid(.size=c(1,5,10),.decay=c(0,0.001,0.1))) ps <- predict(model, mt4) #Examine results Model plot(CHANGE) lines( ps، col=2) خروجی مدل با آنچه من از RSquared درک می کنم چندان خوب نیست. 6828 نمونه 6 پیش‌بینی‌کننده بدون پیش پردازش نمونه‌گیری مجدد: بوت استرپ (25 تکرار) خلاصه اندازه‌های نمونه: 6828، 6828، 6828، 6828، 6828، 6828، ... نتایج نمونه‌گیری مجدد در پارامترهای تنظیم: اندازه کاهش یافتن RMSE قرمز RMSE RSD 0 0.00483 0.00021 0.000124 0.000262 1 0.001 0.00483 0.000464 0.000124 0.000669 1 0.1 0.00483 0.00483 0.001 0.0001 صفر ده 0.00121 سوالات: 1. آیا به دلیل خروجی بد، مدل خود را به اشتباه آموزش می دهم؟ 2. چگونه می توانم بهترین حدس را برای تغییر میله های بعدی که برای آن تمرین می کنم بدست بیاورم؟ حتی اگر این مدل وحشتناک به نظر می رسد، خوب است بدانید که چگونه خروجی را دریافت کنید.
آموزش و پیش بینی شبکه عصبی R
38237
به عنوان مثال، ما همیشه فرض می کردیم که خطای داده یا سیگنال یک توزیع گاوسی است؟ چرا من این سوال را در stackoverflow پرسیده ام، پیوند: http://stackoverflow.com/questions/12616406/anyone-can-tell-me-why-we-always- use-the-gaussian-distribution-in-machine-learni
آیا کسی می تواند به من بگوید چرا ما همیشه از توزیع گاوسی در یادگیری ماشین استفاده می کنیم؟
81556
من هم از رگرسیون لجستیک (توزیع دو جمله ای) و هم از رگرسیون چند جمله ای در طیف وسیعی از مجموعه داده های مختلف استفاده کردم. برای سادگی، من فقط یک متغیر توضیحی در پیش بینی خطی دارم. من همچنین با پیروی از این روش، مرزهای اطمینان احتمالات پیش بینی شده را محاسبه کردم. آنچه که من مشاهده کردم این بود که برای مجموعه داده های بزرگ، فواصل اطمینان من بسیار باریکتر از مجموعه داده های کوچکتر بود، که فکر می کردم منطقی است. با این حال، هنگامی که من به یک نمودار تشخیصی مانند تعداد مورد انتظار در مقابل مشاهده شده نگاه می کنم، حتی برای مجموعه داده های بزرگ، برخی انحرافات سیستماتیک قابل مشاهده از داده ها از تناسب وجود دارد که ظاهراً توسط فواصل اطمینان منعکس نمی شوند، که به نظر می رسد چنین تغییراتی را دست کم می گیرند. . منظور من این است که انتظار دارم CI ها گسترده تر باشند تا این انحرافات را منعکس کنند. هیچ ایده ای در مورد اینکه چرا این مورد می تواند باشد؟ یا من چیزی را در تفسیر / محاسبه فواصل اطمینان از دست می دهم؟
درک مرزهای اطمینان در رگرسیون لجستیک و چند جمله ای
38236
یک مجموعه داده دارای چند ویژگی است. یکی از ویژگی ها (ویژگی X) فاصله ای را با مقادیر بیان شده در متر نشان می دهد. من از اعتبارسنجی متقاطع برای تخمین عملکرد طبقه‌بندی‌کننده درخت تصمیم و k نزدیک‌ترین همسایه استفاده می‌کنم. سوالات من 1) چرا عملکرد k-nn تغییر می کند اگر من نمایش ویژگی X را به جای m به cm تغییر دهم؟ 2) چرا اگر تمام صفات را در 20 ضرب کنم عملکرد k-nn و درخت تصمیم تغییر نمی کند؟
k نزدیکترین همسایه با درخت تصمیم
5836
این بیشتر یک سوال چگونگی استفاده از R است تا یک سوال آماری هاردکور واقعی، اما من فکر می کنم تمرکز استادان R در اینجا این انجمن را به انجمن خوبی برای آن تبدیل می کند. من یک بسته گرافیکی سری زمانی را تازه می کنم که در حال حاضر از gnuplot استفاده می کند. اولین قدم نزدیک شدن به نمودارهای فعلی است، و سپس امیدوارم بتوانم تحلیل های آماری بیشتری را بعداً از R اضافه کنم. در حال حاضر، نمودارهای تولید شده توسط gnuplot به این شکل هستند: ![alt text](http://i.stack.imgur.com/EkuiN.png) نمودار مربوطه از R به این صورت است: ![alt text](http: //i.stack.imgur.com/mqWEr.png) من از این موضوع نسبتاً راضی هستم. چیزی که از دست رفته، موارد افسانه ای از زیر نمودار gnuplot است. من می توانم افسانه ای اضافه کنم که می گوید In و Out، اما چگونه می توان مقادیر میانگین، حداکثر و حداقل را به بهترین نحو ارائه کرد؟ من می توانم خطوط افقی را به نمودار اضافه کنم و مقادیر را در داخل منطقه نمودار چاپ کنم، اما قرار دادن ممکن است با نمودار واقعی تداخل داشته باشد.
حاشیه نویسی نمودارها در R
81555
من روی مدل رشد گومپرتز کار می‌کنم تا وزن را متناسب با سن: $$ m(a)=m_{\infty}e^{-\gamma exp(-g{1}a)}$$ Where $m_{\ infty}$ و $g_{1}$ ضرایبی هستند که باید تخمین زده شوند. برای مقابله با عدم نرمال بودن، داده‌هایم را با استفاده از Box&Cox تبدیل کردم و برای مقابله با ناهمگونی از وزن‌ها استفاده کردم. پس از اعمال _Box &Cox_، یک مدل را با تابع **R** «nls()» قرار دادم و از باقیمانده های این مدل به عنوان وزن $(w_{i}=1/StudentizedResiduals_{i})$ در یک برازش جدید استفاده کردم. من باید ضریب $\mu=m_{\infty}e^{-1}$ و خطای استاندارد آن را تخمین بزنم. **سؤال 1:** از آنجایی که من $m_{\infty}$ دارم و خطای استاندارد آن با nls() تخمین زده شده است، آیا می توانم خطای استاندارد $\mu$ را به این صورت محاسبه کنم:$$StdErr( \mu)=StdErr(m_{\infty})e^{-1}$$ یا باید این خطای استاندارد را به روش دیگری تخمین بزنم؟ **سوال 2:** در نتیجه برنامه _Box &Cox_ ضرایب تخمینی من در مقیاس متفاوتی قرار دارند و تفسیر آنها دشوار است. از این سوال متوجه شدم که نمی توانم ضرایب را تغییر دهم، اما پیشنهادی وجود دارد که چگونه تفسیر ضرایب تبدیل شده را آسان تر می کند؟ پیشاپیش ممنون
محاسبه خطای استاندارد یک ضریب که از سایر ضرایب برآورد شده محاسبه می شود
44963
مدل خطی $y = \mathbf{X}\mathbf{\beta} + \epsilon$ را در نظر بگیرید. ماتریس واریانس کوواریانس باقیمانده توسط $\text{Var}(\epsilon)$ داده می شود. در کتاب درسی گرین* آمده است: $$Var(\epsilon) = E[Var[\epsilon|\mathbf{X}]] + Var[E[\epsilon|\mathbf{X}]]$$ **چرا این مورد؟** همچنین، **چرا این مفید است**؟ * * * *صفحه 62 در تحلیل اقتصاد سنجی نوشته ویلیام اچ. گرین
تجزیه واریانس در مدل رگرسیون خطی
86608
من یک **عملکرد بسیار پیچیده** دارم که سعی می کنم کامپیوترم را با استفاده از CNN یاد بگیرد. این شامل 70 در 70 تصاویر خاکستری است. خروجی نهایی خروجی آخرین واحد است (به این دلیل است که من می خواهم احتمالات را از 0 تا 1 پیش بینی کنم). بهترین معماری لایه برای پرداختن به پیچیدگی اما در عین حال منجر به برازش بیش از حد نمی شود. هر ایده ای؟
اندازه لایه ها در پیچیدگی NN
38232
من یک سوال در رابطه با تخمین تابع خطی دارم. فرض کنید مدل تابع خط پتانسیل را می توان به صورت «ax+by+c=0» بیان کرد، جایی که «a، b، c» پارامترهای ناشناخته ای هستند که باید تخمین زده شوند. اکنون مجموعه‌ای از داده‌ها «(x1،y1)، (x2، y2)، ... (xn، yn)» داده می‌شود، و می‌خواهیم از این داده‌ها برای تخمین پارامترها استفاده کنیم. از آنجایی که نقاط پرت (نقاطی که برای تخمین مدل مناسب نیستند) ممکن است در این مجموعه داده وجود داشته باشد، یکی از راه‌های جلوگیری از پرت این است که «sum(abs(a*xi+b*yi+c)) را به حداقل برسانیم (i=1،2، ...، ن)`. با این حال، من نتوانستم بفهمم چگونه می توانم این عملکرد را گام به گام به حداقل برسانم، آیا کسی می تواند سرنخ هایی به من بدهد؟ با تشکر
تخمین تابع خطی نرمال L1
43361
در ادامه این سوال، من داده‌های زیر را دارم: درمان سایت Survival 1 BED DN 1.0 2 BED DN 1.0 3 BED DN 1.0 4 BED MB 1.0 5 BED MB 1.0 6 BED MB 0.9 7 BED Forest 0.4 0.5 BED Forest 0.4 0.5 BED جنگل 9 تخت 0.4 10 BRO DN 0.9 11 BRO DN 1.0 12 BRO DN 1.0 13 BRO MB 1.0 14 BRO MB 1.0 15 BRO MB 1.0 16 BRO Forest 1.0 17 BRO Forest 1.0 18 BRO MB 1.0 L.0N 1.0N 21 LAP DN 0.6 22 LAP MB 0.5 23 LAP MB 1.0 24 LAP MB 0.7 25 LAP Forest 0.2 26 LAP Forest 0.2 27 LAP Forest 0.4 که روی آن یک glm دوجمله ای اجرا کردم : <Turvivalreat,Sglm. data=surv، family=binomial, weights=rep(10, nrow(surv))) > anova(glm.out, test=Chisq) تجزیه و تحلیل مدل جدول انحراف: binomial، پیوند: logit پاسخ: شرایط بقا به ترتیب (اول تا آخرین) Df Deviance Resid اضافه شد. دی اف رزید. Dev P(>|Chi|) NULL 26 138.254 Site 2 63.098 24 75.155 1.988e-14 *** Treatment 2 42.991 22 32.164 4.620e-10 *** Site:Tre 4.19.81. 0.007707 ** --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 همه جلوه‌ها قابل توجه هستند، بنابراین اکنون می‌خواهم مقایسه‌های پس‌هک انجام دهم. من تابع glht را در بسته مولتی کامپ کشف کرده ام که به نظر می رسد کاری را که من می خواهم انجام می دهد. در جایی خواندم که با 2 متغیر مستقل، باید «interaction_average=TRUE» را تنظیم کنید تا نتیجه ای معادل TukeyHSD برای یک مدل خطی به دست آورید. > Treat.comp <- glht(glm.out, mcp(Treatment=Tukey, interaction_average=TRUE)) > summary(Treat.comp) که این نتایج عجیب را به من می دهد: تست های همزمان برای فرضیه های خطی عمومی مقایسه چندگانه میانگین ها: Tukey Contrasts Fit: glm(فرمول = بقا ~ سایت * درمان، خانواده = دوجمله ای، داده = surv.san، وزن = rep(10، nrow(surv.san))) فرضیه های خطی: برآورد Std. خطای z مقدار Pr(>|z|) DN - MB == 0 -0.202 3316.127 0.000 1 Forest - MB == 0 -1.886 3316.127 -0.001 1 Forest - DN == 0 -1.684 0sA 31710. گزارش شده -- روش تک مرحله ای) چرا مقادیر P من برای همه مقایسه ها 1 = است حتی اگر اثر درمان بسیار مهم بود؟ اگر سعی کنم از «glht» با «interaction_average=FALSE» استفاده کنم، نتایج معقول‌تری دریافت می‌کنم اما با یک پیام اخطار: پیام هشدار: در mcp2matrix (model, linfct = linfct) : تعاملات متغیر پیدا شد - تضاد پیش‌فرض ممکن است نامناسب باشد. کسی می‌تواند کمک کند بفهمم دارم چه غلطی می کنم؟ متشکرم!!!
مقایسه های متعدد با تابع glht در R نتایج عجیبی به دست می دهد
7481
### زمینه من یک نظرسنجی دارم که 11 سوال در مورد خودکارآمدی می پرسد. هر سؤال دارای 3 گزینه پاسخ (مخالف، موافق، کاملاً موافق) است. نه سوال در مورد عزت نفس مطرح می شود. من از تحلیل عاملی 11 مورد خودکارآمدی استفاده کرده و دو عامل را استخراج کرده ام. $x_1$ تا $x_{11}$ نشان‌دهنده 11 سوال خودکارآمدی در نظرسنجی است و $f_1$ ($x_1$ تا $x_6$) , $f_2$ ($x_7$ تا $x_{11}$) دو عاملی را که از تحلیل عاملی بدست آوردم نشان دهید. $y$ یک متغیر وابسته است. سپس دو متغیر جدید ایجاد کردم: f1=mean(x1 تا x6); f2=mean(x7-x11). بنابراین رگرسیون لجستیک به این صورت خواهد بود: y=a+bf1+cf2+... ### سوال من: * آیا می توانم از این دو عامل به عنوان متغیرهای پیش بینی کننده در مدل رگرسیون لجستیک چند متغیره خود استفاده کنم؟ * آیا باید میانگین هر آیتم را در هر عامل محاسبه کنم و از این میانگین به عنوان متغیر پیوسته در مدل رگرسیون لجستیک خود استفاده کنم؟ * آیا این استفاده مناسب از تحلیل عاملی است؟
چگونه می توان از متغیرهای حاصل از تحلیل عاملی به عنوان پیش بینی کننده در رگرسیون لجستیک استفاده کرد؟
65035
آیا تحلیل رگرسیون علت و معلول را اندازه گیری می کند؟ اگر بله، پس چگونه؟ اگر نه، پس چه کاری انجام می شود؟ لطفا با یک مثال توضیح دهید.
آیا تحلیل رگرسیون علت و معلول را اندازه گیری می کند؟
96443
من در حال انجام تجزیه و تحلیل بقا با متغیرهای وابسته به زمان هستم و دو نوع داده دارم: پرندگان به صورت دو هفته‌ای دنبال می‌شوند و دیگران به‌طور تصادفی دنبال می‌شوند. من فکر می کنم که تجزیه و تحلیل هر دو نوع داده با هم یک مشکل بزرگ است. پیشنهادی در مورد نحوه برخورد با آن دارید؟
مقیاس های زمانی مختلف در مخاطرات وابسته به زمان Cox متناسب
43368
من در حال تجزیه و تحلیل برخی از آمارها برای مقاله ای هستم که در حال نوشتن آن هستم. من کمک آماری از طریق دانشکده ام در دسترس دارم، اما چند ماه است که آنجا نیستم، بنابراین امیدوارم بتوانید کمک کنید. 463 نفر، 2 گروه بیمار (<70 و >= 70 سال). با استفاده از SPSS. من مجموعه کاملی از آمارها را با استفاده از تست پیرسون $\chi^2$ ارزیابی کرده ام - آنها طبقه بندی شده اند مانند سابقه سیگار کشیدن (T/F)، جریان سیگار کشیدن (T/F)، BMI> 30، دیابت و غیره. تا اینجا خیلی خوب است (مگر اینکه کسی بتواند به من بگوید که آیا این یک آزمایش نامناسب است؟) من متغیرهای بیشتری مانند کراتین قبل از عمل، ساعات اقامت در ICU و غیره دارم که به طور معمول توزیع نمی شوند (من قبلاً می دانستم چگونه آزمایش کنم. نرمال بودن به درستی اما من به تازگی نمودارهای Q-Q را ترسیم کردم و دیدم که آیا آنها در خط هستند یا نه من اکنون نمی توانم زیرا آنها به طور معمول توزیع نمی شوند در بسیاری از جنبه ها از روش های آماری یکی از دوستان استفاده می کنم که مقاله مشابهی را با استفاده از مجموعه داده های مشابه نوشته است و برای متغیرهای پیوسته خود از **Kolmogorov-Smirnov** استفاده می کند. اما من مطمئن نیستم که او فقط از این برای نرمال بودن استفاده کرده است یا خیر کسی می خواهد برای من توضیح دهد که آیا این تست ها برای مقایسه این نمونه ها مناسب هستند؟
مناسب بودن آزمون K-S و Kruskal-Wallis برای ارزیابی مجموعه داده های پزشکی
96441
من چند سوال در مورد تفسیر نسبت شانس برای متغیرهای پیوسته در رگرسیون لجستیک داشتم. من احساس می‌کنم این‌ها سؤالات اساسی در مورد رگرسیون لجستیک (و احتمالاً در مورد رگرسیون به طور کلی) هستند، و اگرچه از اینکه پاسخ‌ها را نمی‌دانم کمی خجالت می‌کشم، غرورم را می‌بلعم و از آنها می‌پرسم تا آنها را بدانم. آینده در اینجا وضعیت من است... من به نمونه ای از جوانان قضاوت شده نگاه می کنم که به عنوان بخشی از دوره آزمایشی خود، در برنامه آموزش مهارت های شغلی/زندگی ثبت نام کرده اند. می‌خواستم ببینم سنی که آنها از برنامه رها شده‌اند تا چه اندازه اشتغال را شش ماه پس از آزادی از برنامه پیش‌بینی می‌کند. (همچنین به خاطر داشته باشید که پیش‌بینی‌کننده‌های دیگری در مدل وجود دارد، اما من آن‌ها را حذف کرده‌ام زیرا از نظر آماری معنی‌دار نیستند و می‌خواهم این موضوع را تا حد امکان واضح نگه دارم.) پیش‌بینی‌کننده: سن رهایی از برنامه تمرینی (میانگین سنی) = 17.4، SD=1.2، محدوده 14.3-20.5) نتیجه: شاغل بودن یا نبودن (شاغل=1، شاغل نبود=0) نتیجه: نسبت شانس 3.01 (p<.005) (من آمار خوب بودن تناسب و غیره را رد کرده ام زیرا فقط به دنبال پاسخ در مورد تفسیر نسبت شانس هستم؛ با ارزیابی تناسب مدل، CI و غیره احساس راحتی می کنم. .) به زبان ساده: با افزایش سن یک سال، شانس شاغل بودن شش ماه پس از ترخیص سه واحد افزایش می یابد. سؤالات: 1) وقتی می گویم با افزایش سن یک سال ... نقطه شروع سن چیست؟ آیا سن از صفر شروع می شود؟ به عنوان مثال، با افزایش سن از 0 [یعنی کمترین سن در صورتی که این مدل را روی نمودار قرار دهید]... آیا سن از پایین ترین سن در میان طیف سنی نمونه شروع می شود؟ به عنوان مثال، با افزایش سن از 14.3... یا آیا سن از میانگین سنی نمونه شروع می شود، به عنوان مثال، با افزایش سن از 17.4...، 2) آیا مرکز دادن به من کمک می کند این را تفسیر کنم؟ نتیجه یا فقط در تفسیر y-int موثر است، من به این فکر می‌کردم که کمترین سن در محدوده را از تمام سنین دیگر در نمونه کم کنم؟ آیا مناسب است که بگوییم در مقایسه با یک جوان 14 ساله، یک جوان 17 ساله 9 برابر بیشتر احتمال دارد که شاغل شود، چون من این رگرسیون لجستیک را می دانم؟ یک رابطه سیگموئیدی را فرض می کند، و من کنجکاو هستم که آیا این افزایش 3 واحدی در هر نقطه در امتداد خط رگرسیون ثابت می ماند یا خیر
رگرسیون لجستیک: تفسیر متغیرهای پیوسته
44967
من قصد دارم یک Logit باینری با شاخص قیمت عمده فروشی کالاهای مختلف اجرا کنم. من این متغیرهای مقیاس را با معیار زیر به متغیرهای طبقه ای تبدیل کردم: 1=قیمت نسبت به دوره قبل افزایش یافته است 0=قیمت نسبت به دوره قبل ثابت یا کاهش یافته است با معیار فوق همه پیش بینی کننده ها به متغیرهای طبقه ای تبدیل شده اند. . آیا می‌توانم با استفاده از گزینه Logit باینری معمول در SPSS تخمین بزنم یا هنوز باید برخی از داده‌ها را اصلاح کنم یا روش دیگری را اتخاذ کنم؟ هدف من مطالعه بین پویایی بین بخش ها است... به عنوان مثال: با افزایش قیمت آهن، احتمال افزایش قیمت سیمان وجود دارد. اگه کسی در این زمینه راهنماییم کنه ممنون میشم. با تشکر
لاجیت باینری با سری زمانی
43366
من یک مشکل رگرسیون دارم که در آن نتایج کاملاً 0، 1 نیستند، بلکه در محدوده همه اعداد واقعی از 0 تا 1 هستند که شامل $Y = [ 0، 0.12، 0.31، ...، 1 ]$ است. این مشکل قبلاً در این تاپیک مطرح شده است، اگرچه سؤال من کمی متفاوت است. من نمی توانم از رگرسیون خطی به همان دلایلی استفاده کنم که معمولاً از رگرسیون لجستیک استفاده می شود. در رگرسیون خطی الف) مقادیر IV بسیار بزرگ نتیجه پیش‌بینی‌شده را به 1 منحرف می‌کند و ب) نتیجه رگرسیون خطی به حدود 0.1 محدود نمی‌شود. با نگاهی به این تابع هزینه لجستیک از کتاب درسی من $$\text{Cost} = -y \log(h(x)) - (1 - y) \log(1-h(x))$$ من این معادله را جمع می کنم برای محاسبه هزینه بیشتر از 0 تنها زمانی طراحی شده است که $y$ و $x$ دارای مقادیر یکسانی 0 یا 1 نیستند. آیا می توان از رگرسیون لجستیک با تغییر تابع هزینه برای اندازه گیری همه استفاده کرد. اشتباهات فرضیه؟
گسترش رگرسیون لجستیک برای نتایج در محدوده بین 0 و 1
11259
در رابطه با سوال قبلی من، باید رگرسیون را روی یک متغیر وابسته اریب انجام دهم (n=500). از آنجایی که باقیمانده ها به طور معمول توزیع نمی شدند، من توانستم DV را به صورت غیر خطی به گونه ای تبدیل کنم که اکنون به حالت عادی نزدیک می شود. هنگام استفاده از این متغیر تبدیل شده به عنوان متغیر وابسته، باقیمانده ها نرمال هستند. برای این دو مدل، مقادیر p برای پیش‌بینی‌کننده‌های مختلف بسیار شبیه به هم هستند و اندازه‌های نسبی ضرایب نیز بسیار مشابه هستند. * این دو واقعیت تا چه اندازه شاخص پایایی ضرایب و مقادیر p به دست آمده در مدل اول (با استفاده از داده های خام) هستند (یا نه)؟
آیا شباهت ضرایب و مقادیر p بدون در نظر گرفتن اینکه آیا متغیر وابسته تبدیل شده است نشان می دهد که مدل تبدیل نشده قابل اعتماد است؟
19001
کسی پیش (ترجیحا مزدوج) توزیع پولیا چند متغیره را می شناسد؟ من برای نمونه برداری گیبس به آن نیاز دارم. بنابراین اگر کسی ایده دیگری دارد، من علاقه مند هستم.
قبل از توزیع چند متغیره Polya؟
81552
کریس چتفیلد، که از خواندن کتاب‌ها و مقالات با کیفیت بسیارش لذت بردم، در (1) توصیه‌های زیر را ارائه می‌کند: > برای مثال، انتخاب بین مدل‌های سری زمانی ARIMA با مقادیر کم و تقریباً برابر AIC احتمالاً باید انجام شود، نه که در آن > حداقل AIC را ارائه می دهد، اما بهترین پیش بینی ها را از > داده های سال اخیر ارائه می دهد. منطق چنین توصیه ای چیست؟ اگر سالم است چرا forecast::auto.arima و سایر روال های پیش بینی از آن پیروی نمی کند؟ هنوز باید اجرا شود؟ قبلاً در اینجا بحث شده است که جستجوی مدل هایی که اتفاقاً حداقل AIC را ارائه می دهند، احتمالاً ایده خوبی نیست. چرا گزینه داشتن مدل‌های ARIMA $n\ge1$ با کم اما تقریباً برابر (مثلاً در 1 یا 2 مقدار حداقل AIC) در بسیاری از نرم‌افزارهای پیش‌بینی سری‌های زمانی پیش‌فرض نیست؟ (1) Chatfield، C. (1991). اجتناب از دام های آماری _علوم آماری، 6_ (3)، 240-252. در دسترس آنلاین، آدرس اینترنتی: http://valjhun.fmf.uni- lj.si/~mihael/ul/vs/pdfseminar/chatfield.pdf.
وقتی مقادیر AIC کم و تقریباً برابر است چه کار کنم؟
19009
در کارآزمایی‌های بالینی - دیدگاه روش‌شناختی، استیون پیانتادوسی می‌نویسد (فصل 13، ص 334): > در فصل 2، اعتراض‌هایی را به تصادفی‌سازی توسط آبل و کوخ > (1997) و اورباخ (1993) ذکر کردم و ارزش آن را نشان دادم. از مطالعه نگرانی های آنها > و خطاهای احتمالی. آنها تصادفی‌سازی را به‌عنوان یک روش > > 1. برای اعتبارسنجی آزمون‌های آماری خاص، > 2. مبنای استنتاج علی، > 3. تسهیل پوشش و > 4. روش برای ایجاد تعادل در گروه‌های مقایسه رد می‌کنند. > به گفته من، (1)-(4) از مزایای تصادفی سازی است. بنابراین، چرا آبل، کوخ و اورباخ تصادفی‌سازی را بر اساس آن استدلال‌ها رد می‌کنند؟
اعتراض به تصادفی سازی
60200
من در پیش بینی مبتدی هستم، به خصوص پیش بینی با R و واقعاً مایلم دانش خود را ارتقا دهم. اخیراً شروع به تمرین پیش بینی سری زمانی مصرف برق کردم. اولین مانعی که با آن روبرو شدم، انتخاب داده‌های خارج از نمونه برای ارزیابی دقت پیش‌بینی مدل پیش‌بینی است که استفاده خواهم کرد (رگرسیون با خطاهای ARIMA). من داده‌های 147 ماهه را دارم و می‌خواهم 24 ماه آینده را برای دوره ژوئن 2013 تا ژانویه 2015 پیش‌بینی کنم. و آتاناسوپولوس، جی (2013)، _پیش بینی: اصول و تمرین_، (دسترسی در 28 مه 2013)، بخش 2.5 تحت ** مجموعه های آموزشی و تست ** ، که: > اندازه مجموعه آزمون معمولاً حدود 20٪ است کل نمونه، اگرچه > این مقدار بستگی به مدت زمان نمونه دارد و می خواهید پیش بینی کنید اگر مجموعه داده را با 20% تقسیم کنم با توجه به اینکه داده های خارج از نمونه است، مدل پیش بینی اعمال شده برای داده های درون نمونه کاملاً دقیق نیست، زیرا حدس می زنم روند اخیر (که در اواسط سال گذشته آغاز شد) را نشان دهد. کاهش مصرف برق به دلیل افزایش قابل توجه تعرفه برق. در این مورد چه کنم؟ آیا می توانید به من دستورالعملی در مورد اندازه مناسب داده های خارج از نمونه بدهید. من همچنین با داده های خارج از نمونه 7 ماهه امتحان کردم، اما می ترسم که مشکل بیش از حد برازش وجود داشته باشد. درست است؟
انتخاب اندازه مناسب یک داده از نمونه
19006
فرض خطرات متناسب اساساً می گوید که میزان خطر با زمان تغییر نمی کند. یعنی $\text{HR}(t) \equiv \text{HR}$. چه زمانی می توانیم این را فرض کنیم؟ اگر نسبت‌های خطر در زمان‌های مختلف عبارتند از: 2.4 دلار، 2.36، 2.27 دلار و 2.03 دلار چه؟ آیا می توانیم خطرات متناسب را فرض کنیم؟ همچنین $$ \log[h(t|\textbf{x})] = \log[h_{0}(t)] + \beta_{1}x_1 + \dots + \beta_{p}x_{p داریم }$$ چرا باید $h_{0}(t)$ را تخمین بزنیم؟ اگر $h(t|\textbf{x})$ داریم، چرا نمی‌توانیم همه مقادیر پیش‌بینی‌کننده‌ها را صفر کنیم تا $h_{0}(t)$ به دست آید؟ **ویرایش.** من ابزاری می خواهم برای ارزیابی درستی فرض PH.
فرض خطرات متناسب
64785
ما 2 نظرسنجی مشابه را به موازات گروهی از مراکز مراقبت بهداشتی انجام دادیم. یکی برای مدیران، یکی برای کارکنان فرستاده شد. برخی از سؤالات یکسان بودند، برخی دیگر در مورد مناطق مختلف تأسیسات پرسیده شدند. ما پاسخ هایی را از گروه هایی از امکانات دریافت کردیم که کاملاً همپوشانی ندارند. بنابراین نرخ پاسخ ما به شرح زیر بود (تقریبا). * نظرسنجی الف - به کارکنان در تسهیلات: 70٪ * نظرسنجی ب - به مدیر در تاسیسات: 81٪ * هر دو نظرسنجی: 62٪ ما علاقه مند به گزارش نسبت ها، تفاوت در نسبت ها با (95٪ CI) و آزمون آماری هستیم. تفاوت بین نسبت‌ها برای سؤال یکسان در هر دو نظرسنجی (پاسخ توسط 2 جمعیت غیر همپوشانی) مارتین بلند مقاله خوبی در مورد رویکردهای مختلف دارد... آیا کسی کد SAS برای تجزیه و تحلیل مشابه دارد؟ http://www-users.york.ac.uk/~mb55/overlap.pdf
روش‌های مقایسه نسبت‌ها در نمونه‌های با همپوشانی جزئی
5834
در زنجیره مارکوف، یک حالت $j$ گذرا است اگر $f_{jj}<1$ ($f_{jj}$ احتمال بازدید از حالت $j$ است که از حالت $j$ شروع می‌شود). فرض کنید، من یک DTMC گذرای تقلیل ناپذیر دارم (یعنی همه حالات گذرا هستند). اکنون، می‌خواهم ثابت کنم که برای هر $i,j$ در $S$ ($S$ فضای حالت DTMC است)، $f_{ij}$ (یعنی احتمال رسیدن به حالت $j$ با شروع از حالت $i$ ) کمتر از 1 است. واضح است که $f_{ii}<1$ و $f_{jj}<1$. اما، چگونه ثابت کنیم که $f_{ij}<1$ برای هر $i,j$. با تشکر Prasenjit
توزیع زمان گذر اول در یک زنجیره مارکوف زمان گسسته گذرا (DTMC)
64786
الگوریتم های زیادی برای یافتن $k$ در الگوریتم $k$-means وجود دارد که به یافتن چرخش در نمودار تابع هدف بستگی دارد. اگر بدانم داده‌ها دارای خوشه‌های $2$ یا $3$ هستند چه می‌شود؟ چگونه می توانم بفهمم کدام $k$ بهتر است؟ البته، k$ بالاتر تابع هدف را کاهش می دهد، اما این لزوماً k درست نیست. هر ایده ای؟
k را در k-means پیدا کنید، اما فقط بین دو گزینه
60209
من سعی می کنم کمی آمار یاد بگیرم و فکر کردم از شما بچه ها در مورد انجام نظرسنجی بپرسم. فرض کنید من یک نظرسنجی مانند زیر انجام می دهم https://docs.google.com/forms/d/1YrqcWQNl1CmbINaVZuL18ZseqBSWemdHjy_P4ES637A/viewform من از تعداد زیادی دوچرخه سوار نظرسنجی می کنم و می خواهم بدانم که آنها چگونه انگیزه دارند. سوالات مختلف انواع مختلفی از انگیزه را توصیف می کند (هفت دسته انگیزه با 4 سوال در هر دسته). آیا انجام آماری در این مورد منطقی است؟ به عنوان مثال، من فکر می‌کنم آزمایش کنم که آیا یک نوع انگیزه به طور قابل توجهی شایع‌تر از دیگری است یا خیر. من حدس می زنم که دارم گروه های مختلف (انگیزه) را با هم مقایسه می کنم. من مطمئن نیستم که آیا این مقیاس لیکرت است. بچه ها اگر پیشنهادی در مورد انواع تست هایی که باید انجام دهم دارید، واقعا مفید خواهد بود. پیشاپیش ممنون
نظرسنجی، آیا این منطقی است؟
89202
من سه مدل کاهش‌یافته را از یک مدل کامل اصلی با استفاده از * انتخاب رو به جلو * حذف به عقب * تکنیک جریمه L1 (LASSO) به دست آوردم. «DAAG» در «R» موجود است. برای مدل انتخاب شده از طریق LASSO، از «cv.glm» استفاده کردم. خطای پیش‌بینی برای LASSO کمتر از خطاهای به‌دست‌آمده برای بقیه بود. بنابراین مدل به دست آمده از طریق LASSO از نظر ظرفیت پیش بینی و تغییرپذیری بهتر به نظر می رسد. آیا این یک پدیده عمومی است که همیشه رخ می دهد یا مشکل خاصی است؟ اگر این یک پدیده کلی است، استدلال نظری برای این موضوع چیست؟
برتری LASSO نسبت به انتخاب رو به جلو/حذف به عقب از نظر خطای پیش‌بینی اعتبار متقاطع مدل
76973
استفاده از آزمون فلینر برای استنباط در مورد احترام به فرض همسویی بودن، بسیار هوشمندانه نیست، زیرا آزمون فلینر صفر را آزمایش می کند که تفاوت واریانسی بین گروه ها وجود ندارد. این به اشتباه به نفع حجم نمونه کوچک است. همانطور که توسط @Michael Mayer در اینجا گفته شده است. چگونه می‌توانیم بررسی بیشتری کنیم که آیا فرض همجنسگرایی رعایت می‌شود؟ آیا ارزش رسم باقیمانده های مدل در برابر مقادیر برازش را دارد؟ خطوط زیر دارای کد R هستند: m = aov(myFormula, myData) plot(residuals(m)، m$fit همجنسگرایی قابل احترام است. چه کار دیگری می توانم انجام دهم؟
بررسی فرض همجنسگرایی
44391
من در حال بررسی کتاب تئوری یادگیری آماری Vapnik در سال 1998 هستم و چیزی که هنوز از آن مطمئن نیستم این است که آیا محدودیت ریسک او برای توابع از دست دادن غیر محدب وجود دارد یا خیر -- یعنی زمانی که نمی توانیم مطمئن باشیم که این میزان را به حداقل رسانده ایم. ریسک تجربی آیا کسی مرجعی می شناسد که در این مورد بحث کند؟
خطای تعمیم برای طبقه بندی با یک تابع از دست دادن غیر محدب
11252
امروز یک سوال دریافت کردم که دقیقاً نمی دانستم چگونه به آن پاسخ دهم. من یک مدل پیش‌بینی با استفاده از یک رگرسیون لجستیک نسبتاً ابتدایی ساخته‌ام که به خوبی کار می‌کند و با نیازهای تجاری ما مطابقت دارد. اخیراً، ما یک ابزار CRM خریداری کردیم که به ما امکان می دهد امتیازهای احتمال بسازیم، اما فقط به کاربران نهایی اجازه می دهد تا به عوامل مختلف وزن صحیح بدهند. به عبارت دیگر، می توان به طور دلخواه وزنی از 10 امتیاز به یک عامل و -5 امتیاز به عامل دیگر اختصاص داد که مجموع همه اوزان نشان دهنده احتمال برای یک موجودیت معین در پایگاه داده ما است. کاری که من به دنبال انجام آن هستم این است که مدل خود را به این قالب جدید ترجمه کنم به طوری که امتیاز حاصل با احتمال محاسبه شده از مدل لجستیک من برابر شود. این از روی میل نیست، بلکه نیازهای تجاری است. مسلماً من مطمئن نیستم که چگونه از ضرایب محاسبه شده استفاده کنم و آنها را با این الزامات تطبیق کنم. بهترین رویکرد، اگر وجود دارد، چیست؟ افکار عمومی در مورد چگونگی اختصاص وزن های اعداد صحیح معتبر آماری به معیارهای تجاری با توجه به این محدودیت ها؟ هر گونه فکر یا بینشی بسیار قدردانی خواهد شد.
متغیرهای وزن برای مدل پیش بینی
11255
من متوجه شده ام که این موضوع در تنظیمات مشاوره آماری زیاد مطرح می شود و مشتاق بودم نظرات شما را دریافت کنم. ### زمینه من اغلب با دانشجویان پژوهشی صحبت می‌کنم که تقریباً به شرح زیر مطالعه کرده‌اند: * مطالعه مشاهده‌ای * حجم نمونه ممکن است 100، 200، 300 و غیره باشد. شخصیت، نگرش ها، سایر مقیاس های بالینی، شاید هوش و غیره) پژوهشگران ادبیات مربوطه را مطالعه کرده اند و در مورد فرآیندهای علّی احتمالی فکر می کنند. غالباً یک مفهوم کلی از متغیرها به سوابق، متغیرهای فرآیند و متغیرهای نتیجه وجود دارد. آنها همچنین اغلب شنیده‌اند که مدل‌سازی معادلات ساختاری برای آزمایش مدل‌های کلی روابط بین مجموعه‌ای از متغیرهایی که مطالعه می‌کنند مناسب‌تر است. ### سوال * به نظر شما در چه شرایطی مدل سازی معادلات ساختاری تکنیک مناسبی برای تحلیل این گونه مطالعات است؟ * اگر مدل سازی معادلات ساختاری را توصیه نمی کنید، چه تکنیک های جایگزینی را پیشنهاد می کنید؟ * چه توصیه ای به محققانی که در این گونه موارد از مدل سازی معادلات ساختاری استفاده می کنند، می کنید؟
آیا از مدل سازی معادلات ساختاری برای تجزیه و تحلیل مطالعات مشاهده ای در روانشناسی استفاده می شود
11253
اگر مجموعه‌ای از اندازه‌گیری‌ها و آزمون همبستگی متغیر $A$ در مقابل متغیر $B$ را انجام دهم و یک همبستگی معنی‌دار بدست بیاورم، برای من منطقی است. اما اگر تجزیه و تحلیل بیشتر نشان دهد که از بین آن عوامل، فقط یک همبستگی مثبت معنادار در یک گروه وجود دارد و آن گروه بیش از حد نشان داده می شود، چه می شود. آیا همبستگی جهانی هنوز معتبر است یا با بازرسی دقیق تر، یک اثر سوگیری نمونه است؟ در اینجا چند نمودار برای توضیح وجود دارد: همبستگی جهانی ![همبستگی جهانی](http://i.stack.imgur.com/9tFJx.png) گروه همبستگی های جدا شده را از هم جدا کرد![گروه بندی همبستگی جدا شده](http://i.stack .imgur.com/cTPwA.png)
همبستگی وابسته به عامل
60203
من مجموعه ای از داده ها را دارم: http://pastebin.com/KHLKD8XB که بر اساس TVC (تعداد کل زنده ماندن ها - به عنوان مثال، تعداد باکتری ها) از آبی که به داخل ماشین می رود (BM)، آب گرفته شده از ماشین (IM) است. و آب گرفته شده از دستگاهی که در آن ماشین شسته می شود (Scope). در حالی که شمارش بر روی یک نمونه 200 میلی لیتری انجام می شود، نتایج به صورت cfu/100 میلی لیتر گزارش می شود، بنابراین به نظر می رسد که 1/2 یک باکتری را در برخی نمونه ها پیدا کنید. library(ggplot2) testscope<-read.csv2(http://pastebin.com/raw.php?i=KHLKD8XB) testscope$date<-as.Date(testscope$date) ggplot(data=testscope,aes( x=تاریخ، y=tvc، رنگ=کلاس)) + geom_step() + facet_grid(class ~ ., scales=free) + labs(title=Machine TVC در مقابل Scope TVC) + ylab(cfu/100ml) ترسیم شده با استفاده از ggplot2: ![توضیح تصویر را اینجا وارد کنید](http:// i.stack.imgur.com/pksjL.png) **سوال من این است: چگونه می توانم بررسی کنم که آیا خواندن TVC از Scope مربوط به خواندن TVC از دستگاه؟** با چشم، نمی توانم الگویی را بین سطح ماشین (IM) و سطوح Scope تشخیص دهم. توجه داشته باشید که اگرچه من داده‌های BM را دارم، اما در حال حاضر این چیزی نیست که ما به آن علاقه خاصی داشته باشیم - IM در مقابل دامنه است که باید آن را درک کنیم. ویرایش: توجه داشته باشید که مجموعه داده از لاگ طبیعی استفاده می کند، نه از پایه 10. اشتباه من.
چگونه ارتباط بین سطوح باکتری آب را بررسی کنیم
65037
آیا همیشه باید قبل از استفاده از تابع «خلاصه» در R، بردار داده را به ترتیب صعودی **ترتیب دهم؟ یا باید تابع «خلاصه» را مستقیماً روی بردار داده خام اعمال کنم؟
آیا همیشه قبل از استفاده از تابع خلاصه در R باید بردار داده را به ترتیب صعودی مرتب کنم؟
89209
چگونه می توانم همبستگی نقطه-دوسری را تفسیر کنم؟ اگر نتایج به من همبستگی مثبت و معنادار بدهد، چگونه باید آن را تفسیر کنم؟ آیا باید بگویم که دسته متغیری که من کد 1 کردم با متغیر نتیجه همبستگی مثبت دارد؟
تفسیر همبستگی نقطه-دوسری
60202
من کدی را برای تبدیل Box-Cox نوشته ام (به زیر مراجعه کنید). اما اکنون می‌خواهم یک تبدیل Yeo-Johnson انجام دهم زیرا 'datc$plot' حاوی صفر است. سعی کردم راه حلی پیدا نکردم. lambda.fm1 <- boxcox(datc$plot ~ datc$cond.evlot*datc$cond.dl*datc$version)، family=yjPower) lambda.max <- lambda.fm1$x[which.max(lambda .fm1$y)] نیازمند (ماشین) datc$plott <- bcPower(datc$plot, lambda = lambda.max، jacobian.adjusted = FALSE)
کد R برای تبدیل Yeo-Johnson
11257
### زمینه: من در حال تجزیه و تحلیل برخی از داده های ارزیابی تاثیر (اندازه گیری غنای بی مهرگان در پاسخ به آلودگی) هستم، اما آنها نامتعادل هستند - برای هر سایتی در مناسبت نمونه گیری داده وجود ندارد، و نقاط داده بیشتری _بعد__ تاثیر_ نسبت به _قبل_ ثبت شده است. تاثیر من کاربر جدید R هستم و از طریق مطالعه در این سایت و سایت های دیگر دریافتم که بسته های استاندارد anova `aov()` و `ezAnova()` نمی توانند با طرح های نامتعادل مقابله کنند. من فرض می کنم در عوض باید از بسته ای مانند `lme4` استفاده کنم. با این حال، من مطمئن نیستم که چگونه داده های خود را ساختار دهم یا تجزیه و تحلیل را برنامه ریزی کنم. یکی از مشکلات این است که من مطمئن نیستم که چگونه تاریخ های نمونه برداری را به عنوان جنبه های تکراری طرح خود لحاظ کنم. داده های من دارای 5 ستون کد سایت، تاریخ، پیش از آن، ControlImpact، Richness است. ### سوالات: * چگونه باید داده های خود را برای انجام تجزیه و تحلیل اندازه گیری های مکرر با داده های نامتعادل در R تنظیم کنم؟ * آیا باید از «lme4» یا بسته دیگری استفاده کنم؟
چگونه می توانم یک تحلیل اندازه گیری های مکرر نامتعادل در R تنظیم کنم؟
103259
به نظر من در ادبیات فرض بر این است که می‌دانیم چه ویژگی‌ها/ویژگی‌هایی را برای مشخص کردن یک آیتم در خوشه‌بندی انتخاب کنیم. اگر من یک پایگاه داده با مواردی داشته باشم که دارای ویژگی های زیادی هستند، چگونه می توانم بدانم کدام ویژگی ها را برای یک خوشه بندی خوب انتخاب کنم؟ آیا دستورالعمل یا ادبیاتی وجود دارد که به این مشکل بپردازد؟
انتخاب ویژگی / ویژگی برای k-means یا دیگر خوشه بندی
90849
من برای اولین بار متوجه این موضوع شدم که در حال اجرای برخی از مدل‌ها Stata هستند و متغیرهایی که در مرحله دوم به عنوان کنترل استفاده کرده بودم در مرحله اول نشان داده می‌شوند (فکر می‌کنم این فقط رویکرد پیش‌فرض Stata است). بسیاری از این متغیرها به هیچ وجه با متغیر وابسته در مرحله اول ارتباط ندارند. به همین ترتیب، متغیرهای زیادی وجود دارد که من دوست دارم آنها را در مرحله اول وارد کنم، اما فکر نمی کنم که باید در مرحله دوم گنجانده شوند. آیا بهتر است فقط OLS را در مرحله اول با مجموعه ای از کنترل ها (از جمله ابزار) مربوط به آن متغیر وابسته (متغیر درون زا که می خواهم ابزار کنم) انجام دهم، مقادیر برازش را ذخیره کرده و در رگرسیون OLS دیگری با دیگری استفاده کنیم. مجموعه ای از کنترل های مربوط به متغیر وابسته نهایی؟ به جای استفاده از رویکرد دستور Stata؟
آیا متغیرهای کنترل در مرحله اول و دوم 2SLS باید متفاوت باشند؟
89208
من فکر می کردم که تجزیه و تحلیل مؤلفه های اصلی به ما اطلاعاتی در مورد تعداد درجات آزادی (مثلاً متغیرهای مستقل) زیربنایی یک سیستم می دهد که ما فقط می توانیم از طریق متغیرهای مشتق شده (و احتمالاً همبسته) مشاهده کنیم. اما یک آزمایش ساده مرا در این مورد شک کرده است: من 1000 مجموعه از 10 نقشه را از توزیع‌های عادی استاندارد مستقل ($\mathcal{N}(0,1)$) ایجاد کردم و PCA را برای آن ماتریس داده محاسبه کردم. همانطور که امیدوارم، ماتریس همبستگی بسیار نزدیک به قطر بود. مقادیر ویژه و نسبت متناظر واریانس ها عبارت بودند از: 1.14 12% 1.11 11% 1.07 11% 1.04 10% 1.02 10% 0.98 10% 0.96 10% 0.93 9% 0.85 9% این سیستم انتظار می رود متغیرهای مستقل و مقادیر ویژه روشن می کنند که هر ده جزء اصلی سهم قابل توجهی در واریانس کل سیستم دارند. در مرحله بعد، برای هر مجموعه مشاهدات، مجموعه جدیدی از متغیرها، $\{y_1،...،y_{10}\}$ را با گرفتن ترکیبات خطی به شکل میانگین‌های تجمعی متغیرهای اصلی $\{ استخراج کردم. x_1،...،x_{10}\}$: $$ y_n = \frac{1}{n}\sum_{i=1}^{n}x_i$$ من باختم با انجام این کار هیچ اطلاعاتی وجود ندارد: تمام $\{x\}$ را می توان دقیقاً از $\{y\}$ بازیابی کرد. با این حال، در حالی که $x$ مستقل بودند، $y$ به وضوح همبستگی دارند (و ماتریس همبستگی این را تایید می کند). من PCA را برای $\{y\}$ محاسبه کردم و این مجموعه از مقادیر ویژه را به دست آوردم: 1.98 68% 0.57 19% 0.18 6% 0.09 3% 0.04 1% 0.03 1% 0.01 0% 0.01 0% 0.00 0.01 نشان می دهد که فقط پنج یا شش اجزای اصلی برای ثبت تقریباً تمام واریانس در سیستم ضروری هستند. اکنون، تا حدودی، می بینم که این منطقی است: $y$ کاملاً همبسته هستند، بنابراین به عنوان مثال. دانستن $\{y_1,...,y_9\}$ محدودیت های شدیدی را برای $y_{10}$ ایجاد می کند. اما سیستم هنوز توسط ده متغیر مستقل زیربنایی هدایت می‌شود، و تمام کاری که من انجام داده‌ام این است که ترکیب‌های خطی آنها را برای تشکیل متغیرهای جدید خود انتخاب کنم. آیا PCA نباید قادر به دیدن این موضوع باشد؟ واضح است که شهود من کمی نادرست است. آیا کسی می تواند به من کمک کند که این را واضح تر ببینم؟
PCA و درجات آزادی
64780
من یک ANOVA ترکیبی را برای مطالعه تصویربرداری مغز در مورد پردازش زبان اجرا می کنم. طراحی شامل چهار عامل درون موضوعی است: 1. پیچیدگی: ساده/پیچیده. 2. توافق: صحیح / نقض شماره / نقض جنسیت. 3. نیمکره: چپ/راست. 4. منطقه: قدامی/خلفی; و یک عامل بین موضوعی: 1. مهارت: مهارت کم/بالا. فاکتورهای 3 و 4 (نیمکره، ناحیه) تنها در صورتی مهم هستند که با سایر عوامل تعامل داشته باشند. این به این دلیل است که پیش بینی می شود اثرات پیچیدگی و توافق در مناطق خاصی از پوست سر ظاهر شود. نتایج یک تعامل 5 طرفه قابل توجه را نشان می دهد (پیچیدگی بر اساس توافق نیمکره بر اساس منطقه به گروه)، و من تقریباً غیرممکن می دانم که فقط با نگاه کردن به ابزار بفهمم چه چیزی باعث ایجاد تعامل می شود. آیا من توجیه می کنم که به دو گروه مهارتی جداگانه نگاه کنم؟ اکثر مطالعات مشابه این کار را انجام می دهند، اما من در مورد چگونگی انجام این کار نامشخص هستم. به عنوان مثال، هنگامی که تصمیم می‌گیرم زبان‌آموزان مهارت را به طور جداگانه بررسی کنم، یک تعامل 3 طرفه بین توافق، نیمکره، و ناحیه در زبان‌آموزان با مهارت بالا پیدا می‌کنم (به این معنی که یک واکنش مغزی برای نقض توافق وجود دارد، که در سمت چپ ثبت می‌شود. بخش قدامی پوست سر)، اما چنین تعاملی برای یادگیرندگان با مهارت پایین وجود ندارد (p = 0.13). آیا گزارش این تفاوت مجاز است حتی اگر نسخه اصلی باشد. omnibus ANOVA (با گروه به عنوان یک عامل) نشان داد که هیچ توافقی از نظر نیمکره به منطقه از طریق تعامل مهارت وجود ندارد؟ به عبارت دیگر، هنگامی که تصمیم گرفتم به دو گروه مهارت نگاه کنم، آیا می توانم تحلیل را به گونه ای اجرا کنم که گویی هرگز این دو گروه را مقایسه نکرده ام یا من توسط ANOVA اصلی محدود شده ام که چه پیگیری هایی می توانم انجام دهم؟
تعامل 5 طرفه
82604
یک نفر، یادم نیست چه کسی، اشاره کرد که راه های زیادی برای مشخص کردن قبلی وجود دارد، حتی می توانید آن را ترسیم کنید!. برای من واضح است که واقعاً می توان چگالی قبلی را با استفاده از قلم و کاغذ ترسیم کرد و آن را به یک هیستوگرام قبلی برای استفاده در تجزیه و تحلیل تبدیل کرد. آنچه من تعجب می کنم این است: ** آیا این رویکرد در ادبیات مورد استفاده قرار گرفته است؟ اگر نه، آیا دلایلی وجود دارد که به طور کلی این رویکرد خوب نیست؟**
آیا استخراج قبلی با رسم چگالی قبلی می تواند معقول باشد؟ آیا انجام شده است / بحث شده است؟
19000
من در ابتدا این را در سرریز پشته پرسیدم و به این سایت ارجاع شدم، بنابراین در اینجا می‌گویم: من در حال پیاده‌سازی روش‌های بدون نظارت برای خلاصه‌سازی اسناد مبتنی بر انتخاب محتوا/استخراج هستم و در مورد آنچه کتاب درسی من «نسبت احتمال ورود به سیستم» می‌نامد سردرگم هستم. . کتاب به طور خلاصه آن را چنین توصیف می کند: LLR برای یک کلمه، که به طور کلی لامبدا (w) نامیده می شود، نسبت بین احتمال مشاهده w در هر دو ورودی و بدنه پس زمینه با فرض احتمالات برابر در هر دو جسم و احتمال است. مشاهده w در هر دو با فرض احتمال های مختلف برای w در ورودی و پیکره پس زمینه. با تفکیک آن، شمارشگر را داریم: احتمال مشاهده w در ورودی و پیکره پس‌زمینه با فرض احتمالات مساوی در هر دو مجموعه - چگونه محاسبه کنم که از چه احتمالی در اینجا استفاده کنم؟ و مخرج: احتمال مشاهده w در هر دو فرض احتمال های مختلف برای w در ورودی و پیکره پس زمینه. - آیا این به اندازه احتمال وقوع کلمه در ورودی ضربدر احتمال وقوع کلمه در بدنه ساده است؟ مثال: (شمارش (کلمه، ورودی) / کل کلمات در ورودی) * (شمارش (کلمه، پیکره) / کل کلمات در پیکره) من در یک مقاله به دنبال مراجع کتابم، روش های دقیق برای آمار شگفتی و تصادف بودم (دانینگ 1993)، اما برای من مشکل است که با مشکل محاسبه مقادیر LLR برای تک تک کلمات در خلاصه سازی مبتنی بر استخراج ارتباط برقرار کنم. هر گونه توضیحی در اینجا واقعاً قابل قدردانی خواهد بود.
نسبت Log-Relihood در خلاصه سازی اسناد
19005
آیا بهترین راه برای یافتن زمان بقای میانه از یک نمودار بقا فقط برای کشیدن یک خط افقی از $p = 0.5$ به منحنی و پیش بینی به سمت پایین به محور x است؟
یافتن میانگین زمان بقا از تابع بقا
82606
من یک مجموعه داده با حدود 6000 obs دارم. در یک ساختار مقطعی سری زمانی (کشورها و سالها). متغیر وابسته / پاسخ من باینری است و متغیرهای مستقل / توضیحی من ترکیبی از دودویی و پیوسته است. اکنون، من نگران هستم که متغیر توضیحی مورد علاقه من ممکن است مستقل از عوامل مشاهده نشده، خاص کشور و متغیر زمان نباشد، بنابراین می‌خواهم اینها را با اثرات ثابت حذف کنم (و احتمالاً همین کار را برای سال خاص انجام دهم. ، اما عوامل تغییر ناپذیر کشور). از آنجایی که متغیر پاسخ من باینری است، من از مدل‌های لاجیت شرطی گروه‌بندی‌شده بر اساس کشور استفاده می‌کنم، اما برای این پروژه نامطلوب می‌دانم که آنها تمام اطلاعات کشورها را بدون تغییر در متغیر پاسخ کنار بگذارند (در نمونه من تعداد زیادی از آن‌ها وجود دارد) . بنابراین، من می‌خواهم این مدل‌ها را با مدل‌های احتمال خطی (LPM) با اثرات ثابت استاندارد تکمیل کنم. با این حال - و مشکل من اینجا پیش می‌آید - تصور می‌کنم که، علاوه بر مشکلات معمول با LPM، آنها باید یک مشکل اضافی در این مورد داشته باشند، زیرا متغیر پاسخ باینری یک محدودیت غیرطبیعی در اثرات مشاهده‌نشده دارد. من فقط مطمئن نیستم که این محدودیت چقدر مشکل دارد؟ و اگر بستگی به این دارد که بقیه مدل کران 0-1 متغیر پاسخ را نقض کند یا خیر؟ امیدوارم بچه ها بتوانید به من کمک کنید! با آرزوی بهترین ها برای برتل
اثرات ثابت در یک مدل احتمال خطی (LPM)
64787
می‌خواهم بدانم آیا چارچوب‌های ارزیابی سیستم‌های توصیه‌گر وجود دارد که قادر به ارزیابی پیش‌بینی رتبه‌بندی و توصیه topN (دقت و فراخوان و غیره) باشد. شاید لازم باشد آنها را در چارچوب های توصیه گر پیدا کنم؟ اگر اینطور است، آیا به راحتی وصل می شوند؟ در واقع، من روی سیستم‌های توصیه‌گر پویا کار می‌کنم که ممکن است به مواردی برای آموزش نیاز داشته باشند، زودتر از آیتم‌هایی برای آزمایش/توصیه‌ها، که به نظر من سناریوی کاربردی واقعی است. به نظر من، تا زمانی که رکوردهای داده دارای مهر زمانی هستند، کار ارزیابی باید از موارد آموزشی و آزمایشی با ترتیب زمانی استفاده کند. اما بسیاری از دو مجموعه آیتم ها به صورت تصادفی انتخاب می شوند. درست میگم؟
آیا چارچوب های ارزیابی عمومی در دسترس برای سیستم های توصیه گر وجود دارد؟
89203
هنگام مقایسه عملکرد دو طبقه‌بندی کننده در یک حوزه واحد، در زمینه یک مشکل طبقه‌بندی در یادگیری ماشین، استفاده از آزمون t زوجی، با استفاده از 10 میانگین نتایج حاصل از اعتبارسنجی متقاطع 10x10 برابری به عنوان اندازه‌گیری، رایج است. چین ها در هر تکرار برای دو طبقه بندی کننده یکسان است. تعمیم آشکار و در عین حال نادرست این آزمون t به مواردی که طبقه‌بندی‌کننده‌های متعدد وجود دارد، این است که همه جفت‌ها را بگیریم، یا فقط جفت‌های جالب را اگر فقط بخواهیم 1 طبقه‌بندی کننده را با بقیه مقایسه کنیم، و از آنجا کار کنیم. اما مشکل این است که نتایج این آزمون‌های t چندگانه مستقل از یکدیگر نیستند. من از ANOVA به عنوان تعمیم آزمون t به موقعیت هایی با بیش از 2 گروه برای مقایسه شنیده ام. فکر می کردم این راه حل این مشکل است، اما بعد بیشتر خواندم و به طور تصادفی به اندازه گیری های مکرر ANOVA برخورد کردم، که به نظر می رسد حتی به چیزی که به دنبال آن هستم نزدیک تر است. آیا کسی می تواند تأیید کند (یا باطل کند) که ANOVA اندازه گیری های مکرر واقعاً چیزی است که باید در این شرایط استفاده شود؟ تفاوت بین ANOVA معمولی و rANOVA در این مورد چیست؟
تست آماری: طبقه بندی کننده های متعدد، 1 دامنه. آیا rANOVA مناسب است؟
65787
چگونه می توانم مشکل سوگیری برچسب را در مدل های پنهان مارکوف درک کنم؟ و چرا CRF قادر به حل این مشکل است؟
چگونه مشکل سوگیری برچسب در HMM را درک کنیم؟
90843
من یک متخصص آمار نیستم و می خواهم اعتبار آزمونی را که در نتایج نظرسنجی استفاده کرده ام بررسی کنم. **نتایج نظرسنجی** از افراد (n=264) خواستم تا جاده پانورامایی را که انتخاب کرده اند در 24 دسته مختلف مشخص کنند. هر کدام از آنها می توانست به تعداد دلخواه دسته بندی را انتخاب کند. تعداد دفعاتی که هر دسته برای دو زیرمجموعه از نمونه من ذکر شد را شمردم: خبرگان (n=37) و عمومی (n=227). من توزیعی از بزرگی (یا فرکانس ها) را برای هر دسته در هر گروه دریافت کردم. **سوال** من می خواهم بررسی کنم که آیا توزیع انتخاب ها در m دو زیر مجموعه یکسان است یا خیر. اگر متفاوت است، می‌خواهم بدانم علت این واریانس کدام دسته‌ها هستند. **آزمون** من استفاده از Goodness of Fit (Chi-Square) را با استفاده از R، در حالی که x=(شمارش عمومی) و p=(شمارش کارشناسان) با rescale.p = TRUE انتخاب کردم. سطح معناداری خود را 5 درصد قرار دادم. از زمانی که من یک حلقه while نوشتم، تا زمانی که P-Value > 5٪ تست شود کار می کند. حلقه در هر تکرار متغیرها را حذف می کند. حذف متغیرها بر اساس یک بردار دلتا است (delta<-abs(public_counts - expert_counts). برای هر تکرار، متغیرهایی که بالاترین دلتا را دارند حذف می شوند. این تا زمانی است که H0 پذیرفته شود. می خواهم بدانم آیا این پسوند chi تابع مربع با استفاده از حلقه while یک روش معتبر برای پاسخ به سوال من است، به ویژه، آیا بردار دلتا که بر اساس تعداد مطلق است صحیح است در صورت لزوم، خوشحال می شوم که داده ها و کدهای خام را برای تابع multi.chi ارائه دهم.
اعتبار یک تکرار برای خوب بودن تناسب با یک برنامه خاص