_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
51558 | ** Contex ** رگرسیون چندگانه با متغیرهای پیوسته. بسته های آماری مرسوم، به عنوان مثال. SPSS، lm() در R، معمولاً یک مقدار _F_، dfs، و یک تست معناداری در مورد اینکه آیا مدل به خوبی کار میکند یا خیر به من میدهد. من همچنین میتوانم از ANOVA برای مقایسه اینکه آیا یک مدل به طور قابلتوجهی بهتر از مدل دیگر است، با یافتن اینکه آیا افزایش مربع R قابل توجه است یا خیر، استفاده کنم. برنامه های مدل سازی معادلات ساختاری، به عنوان مثال. Mplus، بسته lavaan در R، همچنین به من اجازه می دهد تا رگرسیون را با مزایای اضافی مدیریت داده های از دست رفته از طریق حداکثر احتمال اطلاعات کامل اجرا کنم. حتی اگر تخمین پارامترها و مربعهای R بین این دو رویکرد مشابه هستند، من مقدار _F_ و آزمون معناداری مدل انجام رگرسیون در سبک SEM را دریافت نمیکنم. در عوض، من اطلاعات تناسب مدل را با df «0» دریافت میکنم، و نمیتوانم بفهمم چگونه میتوانم آزمایش کنم که آیا یک مدل رگرسیون بهتر از دیگری است. **سوالات** 1. در صورت وجود، چه تفاوت هایی بین این دو رویکرد وجود دارد؟ 2. در سبک SEM، چگونه می توانم بفهمم که یک مدل رگرسیون خوب است، و چگونه می توانم مقایسه کنم که آیا یک مدل رگرسیون دارای مربع R به طور قابل توجهی بزرگتر از دیگری است؟ | رگرسیون در برنامه های SEM در مقابل رگرسیون در بسته های آماری مانند SPSS |
77495 |  اطلاعات: _خط آبی آمار رسمی تورم توسط اداره آمار کار ایالات متحده است خط قرمز توسط محققان مستقلی است که ادعا می کنند ایجاد کرده اند. راه بهتر برای اندازه گیری تورم خط آبی هر ماه یک بار نمونه برداری شده است خط قرمز روزانه نمونه برداری شده است. می توان دید که خط قرمز تورم را جلوتر از خط آبی ردیابی می کند. دو سری زمانی، با فرکانسهای نمونهگیری متفاوت، که پدیدههای مشابهی را دنبال میکنند، یعنی تغییر در سطوح عمومی قیمت. من به راهنمایی نیاز دارم که چگونه باید این فرآیندها را تجزیه و تحلیل کنم. برخی از فرضیه های احتمالی که می توانم برای آنها آزمایش کنم چیست؟ **به روز رسانی:** پس از پیشنهاد mpiktas، برنامه فعلی من یک رگرسیون MIDAS با مقداری تابع چند جمله ای برای وزن ها و گزارش قابلیت های پیش بینی مدل است. (و شاید آن را با مدلی که از یک خط قرمز میانگین زمان ساده استفاده می کند) مقایسه کنید) برخی از شما ممکن است کاری مشابه این را انجام داده باشید، آیا چیزی وجود دارد که باید در ذهن داشته باشم یا هر چیز دیگری که می توانم انجام دهم که مکمل این کلمه 6000 باشد. پروژه؟ موارد اضافی: * اگر می توانید من را به برخی از مقالات بسیار مرتبط که تجزیه و تحلیل مشابهی انجام داده اند پیوند دهید، به شما کمک خواهد کرد. **هر ورودی قدردانی خواهد شد** | با این دو سری زمانی چیکار کنم؟ |
51559 | من باید RF ایجاد شده توسط R را روی Hadoop پیاده سازی کنم. من می دانم که یک راه این است که جنگل تصادفی را با همان داده های آموزشی با استفاده از ماهوت بازسازی کنیم. اما آیا می توان RF ایجاد شده توسط R را مستقیماً به فرمتی تبدیل کرد که ماهوت بتواند از آن برای امتیازدهی استفاده کند؟ | تبدیل مدل جنگل تصادفی R به ماهوت |
55073 | بگویید من نمونه بسیار بزرگی از مشاهدات دارم، مانند هزار مورد، و میخواهم رگرسیون خطی (چندگانه) را روی آنها انجام دهم، یعنی متغیر پاسخ را روی پیشبینیکنندهها رگرسیون کنم. حالا به جای انجام این کار، من به صورت تصادفی از یک زیرمجموعه از آن نمونه بزرگ (مثلاً نیمی از آن، یا یک سوم آن، یا حتی یک چهارم) نمونه برداری می کنم و تجزیه و تحلیل رگرسیون را فقط روی آن زیر مجموعه انجام می دهم. بنابراین من این کار را برای $n$ بار انجام میدهم و هر بار مجموعهای از نتایج را دارم، مانند تخمینهای ضرایب، $p$-values و غیره. در نهایت میانگین همه مجموعههای مستقل $n$ را میگیرم تا نتیجه نهایی را بدست بیاورم. نتایج رگرسیون سؤال این است: آیا این روش نسبتاً «ناجور» معادل روش ساده (انجام رگرسیون بر روی همه مشاهداتی که من هستم) خواهد بود؟ منظور من از معادل تخمین های ضرایب (علائم و بزرگی ها) و $p$-ارزش های حاصل از این دو روش یکسان است یا به طور ناچیز متفاوت است. سوال دوم من این است، همانطور که همه ما می دانیم، برای داشتن یک تحلیل رگرسیون خوب، اغلب نیاز به تعداد کافی مشاهدات وجود دارد. برعکسش چطور؟ اگر من یک نمونه خیلی بزرگ داشته باشم، مانند هزاران مشاهده، آیا باید فقط همه آنها را در نظر بگیرم یا باید از زیر مجموعه ای از آن نمونه برداری کنم و مناسب باشم؟ | میانگین گیری از نتایج رگرسیون خطی |
66594 | اطلاعات در مورد مجموعه داده: 5 کلاس، 200 آزمایش، 100 ویژگی. (من می دانم که نسبت آزمایشی به ویژگی بسیار پایین است، اما نمی توانم در اینجا از این امر اجتناب کنم و هنوز هم به اندازه کافی نتایج طبقه بندی خوبی دریافت کردم.) در یک اعتبار دهی متقاطع ده برابری، طبقه بندی کننده SVM برای هر برابر آموزش داده شد (nu-svm خطی، nu بهینه با اعتبار دهی متقابل داخلی شناسایی شد. برای رسیدگی به مشکل چند کلاسه از رویکرد libsvm یک در مقابل یک استفاده می شود: طبقه بندی کننده های باینری $10=5*4/2$ آموزش داده می شوند و سپس از طرح رأی اکثریت استفاده می شود. اگر دو یا چند کلاس حداکثر تعداد آرا را به دست آورند، یکی از آنها به طور تصادفی انتخاب می شود (در این مرحله من رفتار پیش فرض libsvm را تغییر دادم). * * * من می خواستم امتیازات اهمیت ویژگی را محاسبه کنم. من روش زیر را امتحان کردم: * بارگذاری مدل یک برابر و داده های تست منطبق * داده های تست را پیش بینی کنید و دقت پیش بینی را به عنوان خط پایه به خاطر بسپارید * موارد زیر را برای هر ویژگی 500 بار تکرار کنید: * یک ویژگی را جابجا کنید و دقت پیش بینی را دریافت کنید. داده های تغییر یافته * در پایان: برای هر ویژگی دقت پیش بینی داده های دست نخورده را با داده های مبتنی بر داده های تغییر یافته مقایسه کنید و میانگین کاهش را محاسبه کنید. دقت میانگین گرفتن این مقادیر در همه تاها باید به من یک امتیاز کلی بدهد، یعنی کاهش میانگین کلی در دقت برای هر ویژگی. هر چه این مقدار بالاتر باشد، ویژگی مهمتر است. * * * فکر میکردم این ایده باید عملی شود، اما نتایج آن به نظر من معقول به نظر نمیرسد: برای کم و بیش هر ویژگی این یک _افزایش_ متوسط در دقت هنگام جابجایی این ویژگی را به همراه دارد. حداقل برای من که خیلی منطقی نیست. علاوه بر این، هیچ یک از این مقادیر متوسط به نظر نمی رسد از این نظر مهم باشد، زیرا هیچ ویژگی وجود ندارد که بیش از 95 درصد از دقت های با تغییر این ویژگی کمتر از خط پایه باشد. آیا پیشنهادی دارید که چگونه می توان نوعی امتیاز مهم را به دست آورد یا چگونه روش خود را بهبود بخشم؟ (در Matlab این روند واقعاً بسیار کند است همانطور که من در حال حاضر آن را اجرا کردم. :-() | امتیازهای اهمیت ویژه طراحی SVM چند کلاسه یک در مقابل یک |
66591 | بله، من بررسی کرده ام که پاسخ های قبلی به سؤالات تکرار تمام شد... مشکل من را حل نمی کند. من داده های خطا در فایرفاکس، 899 خطا و 1395 (تخمین زده) خطاهای سانسور شده دارم. سانسور همه در یکی از روزهای شروع و نیم دوجین روز پایان (نسخه اولیه/نهایی یک نسخه) اتفاق می افتد. library(survival) ff_usage=read.csv(http://www.coding-guidelines.com/R_code/ff_usage.csv، as.is=TRUE) f_sur=Surv(ff_usage$start, ff_usage$end, event= ff_usage$event) plot(survfit(f_sur ~ 1)) f_cox=coxph(f_sur ~ total_usage+cluster(fault_id)، data=ff_usage) منحنی Kaplan-Meier تقریباً درست به نظر می رسد. «تعداد_استفاده» تخمینی از تعداد کاربران فایرفاکس تا زمانی که خطا گزارش شود است. این بسیار وابسته به زمان است و بنابراین هر خط زمانی خطا به فواصل 7 روزه تقسیم میشود که در «fault_id» دستهبندی میشوند. اورجینال تقسیم نشده وابستگی به تعداد_استفاده (یا گزارش آن) می تواند نزدیک به 1 باشد (امیدوارم یکی یا دیگری باشد). من سعی کردم init را تنظیم کنم و iter.max را افزایش دهم. همچنین strata(src_id) و زیرمجموعه src_id. اکثر زمانهای شروع/پایان تخمین زده میشوند و دارای یک بازه زمانی منظم هستند، من سعی کردهام مقداری تصادفیسازی را اضافه کنم، به عنوان مثال، «runif(n، -3، 3)». بدون تغییر. تنها چیزی که من می بینم این است: پیام اخطار: در فیتر (X, Y, strats, offset, init, control, weights = weights, : تکرارها تمام شده و همگرا نشدند. | تکرارهای coxph تمام شد و همگرا نشد |
73132 | من سعی می کنم ثابت کنم که بهترین حداقل میانگین مجذور پیش بینی $r_{t+l}$ برای یک مدل ARMA ثابت، میانگین شرطی $E[r_{t+l}|r_t,r_{t-1} است. ..]$ تلاش: $$r_t = \psi(B)a_t = a_t \psi_1 a_{t-1} +\psi_2a_{t-2}+...$$ بنابراین، $$r_{t+l} = \sum^\infty_{j=0} \psi_j a_{t+l-j}$$ حداقل میانگین مربع را بگذارید پیشبینی خطا $\hat{r_{t+l}} = \psi_l^*a_t + \psi^*_{l+1}a_{t-1} + \psi^*_{l-2}a_{t=2}$. بنابراین میانگین مربعات خطا به صورت زیر داده می شود: $E[r_{t+l} - \hat{r_{t+l}}]^2$. اینجاست که گم می شوم. برای ادامه دادن به جلو، فکر می کنم باید ببینم کدام مقادیر $\psi^*$ آن را به حداقل می رساند و سپس $E[r_{t+l}|r_t,r_{t-l},...]$ را با استفاده از معادله بنویسم ( 1) بالا و $E[a_{t+j}|r_t,r_{t-1}،...]$ را پیدا کنید. پیشنهادات؟ | اثبات اینکه بهترین پیشبینیکننده حداقل مجذور برای مدل ثابت ARMA، میانگین شرطی است |
61648 | من به تازگی شروع به خواندن در مورد LDA تخصیص دیریکله پنهان کرده ام و می خواهم آن را در پروژه خود اعمال کنم. آیا می توانم بدانم آیا LDA می تواند یک موضوع را به بیش از یک کلمه اختصاص دهد؟ به عنوان مثال، ماده A در مورد سواحل رودخانه صحبت می کند در حالی که ماده B در مورد نقش بانک ها در امور مالی صحبت می کند. از این رو، آیا LDA اجازه می دهد که کلمه بانک ها به طور بالقوه به دو موضوع مختلف اختصاص داده شود؟ | آیا LDA می تواند بیش از یک موضوع را برای یک کلمه اختصاص دهد؟ |
60998 | من داده هایی به شکل timestamp، lat، long که داده های GPS برای کاربران است دارم. من با داده کاوی تازه کار هستم و می خواهم بدانم چگونه می توانم خوشه بندی این داده ها را برای درک بیشتر در مورد آن شروع کنم. آیا باید ماتریسی از یک مسیر v/s دیگری را بر اساس متریک فاصله بسازم و سپس برخی از الگوریتم های خوشه بندی را روی آن اعمال کنم؟ داده ها برای هر کاربر یک مسیر خواهد بود. هر کاربر دنباله ای از نقاط به شکل (مهر زمانی، lat، طولانی) خواهد داشت که از نقطه A تا نقطه B شروع می شود. من می خواهم مسیرها را خوشه بندی کنم. | خوشه بندی داده های مکانی-زمانی؟ |
61647 | من در مورد اینکه آیا باید از نمودار پراکندگی یا هیستوگرام دوبعدی برای جا دادن مخلوطی از گاوسیان استفاده کنم، کمی سردرگم هستم. مشکل این است که من از یک تصویر با 2 کانال شدت دارم. به عنوان مثال، یک تصویر RGB اما فقط از کانال های قرمز و سبز استفاده می کند. سپس نمودار پراکندگی را رسم می کنم و سعی می کنم مخلوطی از برازش گاوسی را برای نقاط داده در نمودار پراکندگی انجام دهم. با این حال، با فکر کردن دوباره به مشکل، مطمئن نیستم که باید مخلوطی از گاوسی را برای هیستوگرام دو بعدی انجام دهم. اساسا، یک هیستوگرام دو بعدی با نمودار پراکندگی دو بعدی متفاوت است، درست می گویم؟ بابت سردرگمی من متاسفم و از کمک شما متشکرم. | نمودار پراکندگی یا هیستوگرام دو بعدی برای مخلوط اتصالات گاوسی؟ |
110407 | من چند سوال دارم که در حین تلاش برای محاسبه تجزیه و تحلیل توان تعقیبی برای یک مدل رگرسیونی مطرح شد: 1. من تحلیل توان تعقیبی را برای یک مدل رگرسیونی محاسبه کردم که از نظر آماری معنیدار (تعدیل شده) R2 = 0.36 [F (2) ، 433) = 121.2، p <.001]. N=405. تعداد پیش بینی کننده ها=2. من از آزمون F، رگرسیون چندگانه آماری (مدل ثابت، انحراف R2 از 0) استفاده کردم و توان بسیار کم - 0.05 را دریافت کردم. آیا این معنی دارد؟ 2. من داده ها را با انجام یک مدل رگرسیون در سه مرحله تجزیه و تحلیل کرده ام - (الف) دو متغیر مستقل روانشناختی، (ب) اضافه کردن یک متغیر مستقل سیاسی (3 متغیر)، (ج) اضافه کردن یک متغیر مستقل جمعیتی سیاسی (پنج متغیر). آیا قرار است تجزیه و تحلیل توان را برای هر یک از مراحل گزارش کنم؟ یا - آیا باید از آزمون F، رگرسیون چندگانه آماری (مدل ثابت، افزایش R2) استفاده کرد؟ | چگونه می توان آنالیز توان post-hoc را برای مدل های رگرسیون چندگانه محاسبه کرد؟ |
51552 | من این پیش پردازنده را جایی پیدا کردم که آنها گزارش داده را با $log_{10}(100+داده)$ تبدیل کردند. من مطمئن نیستم که این تبدیل log دقیقاً چه کاری انجام می دهد. پیشنهادی دارید؟ | سردرگمی مربوط به تبدیل لاگ |
91724 | من امیدوارم که کسی بتواند یک نمای کلی بصری از چیستی شبه بینومیال و آنچه انجام می دهد ارائه دهد. من به خصوص به این نکات علاقه مند هستم: 1. تفاوت شبه دو جمله ای با توزیع دو جمله ای 2. وقتی متغیر پاسخ یک نسبت است (مقادیر مثال شامل 0.23، 0.11، 078، 0.98)، یک مدل شبه دو جمله ای در R اجرا می شود اما دو جمله ای است. مدل نمی خواهد. بیش از حد پراکنده شده است | شبه دوجمله ای چیست؟ |
91893 | آیا می توان یک الگوی تناوبی را در یک سری زمانی با استفاده از تبدیل موجک گسسته تشخیص داد؟ آیا بسته ای در R برای انجام این کار وجود دارد؟ | تشخیص الگوهای دوره ای با استفاده از DWT |
111353 | من یک مدل رگرسیون جنگل تصادفی با 1000 درخت دارم که 16 پارامتر دارد (با استفاده از python scikit-learn). برآوردگر می تواند یک مقدار هدف را با امتیاز r2 تایید شده متقاطع 0.03 +/- 0.87 پیش بینی کند. من میخواهم حداکثر جهانی (یا حداقل نزدیک به جهانی) جنگل تصادفی را پیدا کنم تا بهترین مقادیر از 16 پارامتری که این بهینه را ایجاد میکنند، شناسایی کنم. بهترین الگوریتم برای رسیدن به حداکثر تخمینگر تصادفی جنگل چیست؟ آیا پیاده سازی پایتون از این الگوریتم وجود دارد؟ | یافتن مینیمم جهانی یک برآوردگر تصادفی جنگل |
91897 | من تمرین زیر را دریافت کردم که در آن باید مراحل انجام شده را بفهمم: از آنجایی که $z_T \sim N(0,T)$: $$\text{Prob}((\mu-0.5\sigma^2)T+\sigma z_T>rT)$$$$\text{Prob}(z_T>-\dfrac{(\mu-r-0.5\sigma^2)T}{\sigma})$$ $$\text{Prob}(z_T<\dfrac{(\mu-r-0.5\sigma^2)T}{\sigma})$$ سپس نمیفهمم چگونه به این میرسم: $$\text {N}(\dfrac{(\mu-r-0.5\sigma^2)T}{\sigma\cdot\sqrt{T}})$$ $$\text{N}(\dfrac{(\mu-r-0.5\sigma^2)\sqrt{T}}{\sigma})$$ امیدوارم کسی بتواند کمک کند - و از وقتی که گذاشتید متشکرم! | یک معادله آماری را حل کنید |
55072 | برای یک طبقهبندیکننده چند طبقه احتمالی، میتوانیم احتمالات عضویت یک نقطه جدید $x$ را در هر کلاس $y_i$ بدست آوریم. در مورد 3 کلاس فرض کنید که $P(y_a|x) > P(y_b|x) > P(y_c|x)$ را دریافت می کنیم، بنابراین محتمل ترین کلاس x $y_a$ است. حال فرض کنید که ما یک svm چند کلاسه داریم که در آن میتوانیم امتیازهای عضویت $x$ را برای هر کلاس بدست آوریم (با توجه به فاصله از هایپرخط). در مورد 3 کلاس فرض کنید که $Score(y_a|x)، Score(y_b|x)، Score(y_c|x)$ دریافت می کنیم، در این حالت کلاس اول، دوم و سوم محتمل ترین کلاس $x$ چگونه است. (بدون تبدیل این نمرات به احتمالات)؟ معمولاً مقادیر مثبت و منفی مانند $Score1 = -8622، Score2 = 5233، Score3 = -665$ دریافت می کنم. | اطمینان SVM با توجه به فاصله از هایپرخط |
110406 | من چندین آزمایش بیوشیمی انجام داده ام و در آنها چندین گروه را با یک گروه کنترل مقایسه می کنم. من می خواهم نتایج 8 آزمایش مشابه را با هم مقایسه کنم، بنابراین اساساً در هر گروه 8 اندازه گیری دارم، اما اندازه گیری ها در گروه کنترل همه 100٪ است. چگونه آنها را با هم مقایسه کنم؟ یعنی من چهار گروه دارم، سه گروه اول 75٪، 45.5٪، 50٪ و غیره هستند، اما گروه کنترلی که آنها را با آنها مقایسه می کنم همه 100٪ هستند. | مقایسه چند گروه با یک گروه کنترل |
73133 | من در حال مطالعه همبستگی بین 2 متغیر پیوسته (A~B) هستم، اولی یک متغیر مستقل اندازه گیری شده (A) و دومی یک متغیر تخمینی وابسته (B) است. من می خواهم بدانم i) اگر همبستگی (A~B) از نظر آماری بین عامل (سایت ها) متفاوت است و ii) چگونه عوامل را با همبستگی یکسان A~B گروه بندی کنیم. در اینجا نمونه ای از داده های خود را پیوست می کنم، A<- c(10,2,4,5,3,5,98,65,36,65,6,100,70,54,25,23,22,30,15, 23) B<- سایت های c(1,0.1,0.5,0.8,0.2,0.9,3,1.2,5.6,3.5,15.9,10.2,5,5.1,7.1,5,6,10,4,8)<- c(sitea، sitea، sitea، sitea، sitea، sitea، siteb، siteb، siteb، siteb، sitec، sitec, «sitec»، «sitec»، «sited»، «sited»، «sited»، «sited»، «sited»، «sited») و طرحی برای تجسم آنها. آیا می توانم به عنوان مثال نشان دهم که برای sitea (نقاط صورتی در نمودار) همبستگی A~B از نظر آماری با همبستگی A~B برای siteb، A~B برای sitec و A~B برای sited متفاوت است؟ چگونه می توانم در R به این امر برسم؟ خیلی ممنون  | وابستگی عامل سوم در همبستگی بین 2 متغیر پیوسته؟ |
66598 | من شبیه سازی مونت کارلو را اجرا می کنم و از نتایج یک GAM (پاسخ) به عنوان مبنای مدل کلی خود استفاده می کنم. من می خواهم خطا در GAM را در نتیجه نهایی وارد کنم. از آنجایی که predict.gam (mgcv) شامل se.fit میشود، آیا راهی برای نمونهگیری مجدد پاسخ پیرامون این خطای استاندارد وجود دارد؟ من به استفاده از توزیع نرمال تصادفی بر اساس پاسخ میانگین و خطای استاندارد فکر میکردم، اما نمیدانم که معتبر است یا نه، با توجه به اینکه خطای استاندارد از روی یک ماتریس کوواریانس محاسبه میشود و نه یک جامعه (کد زیر). R2 GAM چیزی شبیه 0.87 است. آیا روش استانداردی برای محاسبه این واریانس محاسبه نشده در پاسخ وجود دارد؟ کد شبه من (R): مدل کتابخانه (mgcv) = gam(B ~ s(C) + s(log(D))، داده=data.B، خانواده=گاوسی، پیوند = هویت) حلقه: a= predict.gam(model, newdata = input, type=response, na.action=na.pass, se.fit=T) a_se = rnorm(a$fit, mean=a$fit, sd=(a$se.fit*(????))) با تشکر فراوان | نحوه گنجاندن خطای پاسخ GAM در شبیه سازی مونت کارلو |
110403 | من در حال تجزیه و تحلیل برخی از داده های دوره زمانی هستم که در آنها یک GLM با استفاده از R برای هر موضوع تنظیم کرده ام. هر GLM که من میخواهم اجرا کنم تلاشی است برای استخراج تخمینهایی از اثرات شرایط رفتاری مختلف در سریهای زمانی، و هر GLM همه در یک فرد واحد است. glm (اتساع~خوشحالی+ترس+خنثی+پس از_تصمیم، داده=اتساع_داده) ماتریس مشابه این به نظر می رسد، فقط حدود 50000 نقطه زمانی دارد (بنابراین همان تعداد ردیف): اتساع = قطع ترس شاد خنثی post_decision 0.3 1 0 0 0 0 0.5 1 0.2 0 0 0 0.6 1 0.8 0 0 0 0.9 1 1 0 0 0 0.5 1 0.4 0 0 0.2 0.8 1 0.2 0 0 0.4 1.2 1 0 0 0 0.8 0.9 1 0 0 0 0 1 1 1 0 0 0 0 0 1 1 . مدل به طور کلی اگر دوره های زمان من از رگرسیورها کمی همپوشانی دارند (به عنوان مثال happy و post_decision در بالا را ببینید)، آیا باید آنها را متعامد کرد تا glm درست باشد؟ اگر چنین است بهترین راه برای انجام این کار با استفاده از R. 2 چیست. من 40 سوژه دارم، برنامه من این است که برای هر موضوع یک glm اجرا کنم و خروجی های مختلف را ترکیب و کنتراست کنم. بهترین روشی که می توانم تفاوت بین خروجی های GLM را برای مثال شاد-خنثی مقایسه کنم، چیست و آیا انجام این کار قبل یا بعد از ترکیب سوژه ها توصیه می شود؟ 3. روش ایده آلی برای من برای ترکیب 40 GLM چیست، بنابراین من یک تخمین متوسط از تغییر از خط مبنا برای بیان خوشحال دارم، و اینکه چه آزمایشی برای تلاش برای گفتن خوشحال است، به طور قابل توجهی با خنثی متفاوت است. GLM اولیه برای همه 40 موضوع؟ | ترکیب و تضاد GLM های دوره زمانی با استفاده از R |
32852 | من سعی می کنم یک مدل سری زمانی را با داده های زیر تطبیق دهم. به نظر فصلی است. آیا مدل ARIMA خوب است؟  این داده ها است: تعداد 2 1 4 5 4 8 7 11 4 4 11 7 10 7 0 19 13 13 11 9 8 16 10 12 9 7 21 9 10 6 7 19 18 9 19 15 14 17 9 10 10 13 15 20 15 12 15 16 اعداد با فاصله از هم جدا می شوند. | چه نوع مدل سری زمانی خوب است؟ |
61649 | ما در حال تلاش برای ایجاد یک نقشه حرارتی ایالات متحده با استفاده از کد پستی و مقادیر مربوطه با استفاده از R هستیم. در حالی که تعدادی نمونه وجود دارد که از داده های lat و طولانی برای ایجاد چنین نقشه هایی استفاده می کند، آیا موردی وجود دارد که کدهای پستی را بپذیرد و مناطق مربوطه را روی نقشه رنگ کند. ? ترجیحاً از بسته ای استفاده کنید که تصاویر با کیفیت ارائه را تولید کند (ggplot2 و غیره). پیشاپیش متشکرم - راج. | نقشه حرارتی ایالات متحده با استفاده از کدهای پستی |
51551 | فرض کنید که هنگام ساخت یک هیستوگرام، در یک مرز bin با یک مبدأ مواجه می شوید. آیا کنوانسیون در مورد نحوه گرد کردن آن وجود دارد؟ برای مثال، فرض کنید دادههای من درصدهای عدد صحیح هستند که از 0% تا 100% اجرا میشوند. من می خواهم یک هیستوگرام با مرزهای 10٪، 20٪ و غیره بسازم. البته می توانم هیستوگرام را به گونه ای برچسب بزنم که مشکلی ایجاد نشود، به عنوان مثال. با برچسب زدن به دسته های 0-9، 10-19، و غیره. اما فرض کنید من نمی خواهم آنها را اینطور برچسب بزنم. من میتوانم فضا را روی محور x صرفهجویی کنم و مرزهای bin 10، 20، 30، و غیره را برچسبگذاری کنم. اما اگر با یک مبدأ در 20 مواجه شوم، آیا قراردادی وجود دارد که آیا آن به سطل 10-20 میرود یا اینکه سطل 20-30؟ | گرد کردن هنگام ساخت هیستوگرام |
84219 | موارد زیر مشابه اما متفاوت از پستهای قبلی اینجا و اینجا هستند. 2. با توجه به دو توزیعی که توابع مولد گشتاور را می پذیرند، اگر گشتاورهای یکسانی داشته باشند، آیا توابع مولد گشتاور آنها یکسان است؟ با تشکر | آیا توزیع های با گشتاورهای یکسان یکسان هستند یا خیر |
111358 | بنابراین این واقعا برای من سخت است، اما می خواهم بدانم آیا این امکان پذیر است یا خیر. بیایید فرض کنیم من یک سکه ناعادلانه دارم (مطلقاً نمی توان هیچ فرضی در مورد سکه داشت) و نتیجه گذشته من 'T-T-T-H-T-H-T-T-T' بوده است و می خواهم نتیجه پرتاب بعدی را پیش بینی کنم. به گونه ای که اجازه دهید پاسخ خود را به این صورت فرموله کنم: X% اطمینان وجود دارد که نتیجه پرتاب بعدی T خواهد بود. بنابراین من سعی می کنم برای X حل کنم. | با توجه به یک سری پرتاب سکه های گذشته از یک سکه ناعادلانه، چگونه می توانم اطمینان را برای نتیجه پرتاب بعدی محاسبه کنم؟ |
51556 | آیا کسی روش خوبی برای تعیین اینکه آیا خوشه بندی با استفاده از kmeans مناسب است یا خیر می داند؟ یعنی اگر نمونه شما واقعاً همگن باشد چه؟ من می دانم که چیزی مانند یک مدل مخلوط (از طریق mclust در R) آمار مناسبی را برای حالت خوشه 1:k ارائه می دهد، اما به نظر می رسد همه تکنیک های ارزیابی kmeans حداقل به 2 خوشه نیاز دارند. آیا کسی تکنیکی برای مقایسه حالت های خوشه ای 1 و 2 برای kmeans می داند؟ | انتخاب خوشهها برای k-means: حالت 1 خوشه |
35491 | من در متن کاوی تازه کار هستم و مطمئن نیستم که بتوانم آن را در اینجا اعمال کنم: من جملات را برچسب گذاری کرده ام اما کلماتی که با آنها کار می کنم کد هستند، بنابراین طول هر کلمه از 5 تا 15 حرف متغیر است و فقط 4 حرف مختلف وجود دارد ( الف، ب، ج، د). به نظر می رسد: جمله 1: AAABCD BAAAA ABCCBAA CCCCC...... AAAAAAABB CCCCCCCAAA (با برچسب مثبت) ... جمله10000: ACCCCCCCCCCCD ... AACCDD (با برچسب منفی) هر جمله می تواند از تعداد کلمات متفاوتی با کلمات متفاوت تشکیل شود. ترتیب، از 6 تا 50 کلمه. آیا RTextTools در این مورد می تواند کار کند؟ وقتی ماتریس ایجاد می شود باید زبانی را انتخاب کنید و من زبانی ندارم. | RTextTools برای جملات کدگذاری شده |
93490 | به جدول 1 در صفحه 268 در http://www.math.ku.dk/~rolf/teaching/thesis/DixonColes.pdf نگاهی بیندازید که در انتهای صفحه قبل آمده است که خطاهای استاندارد در بر اساس یک مدل چندجمله ای زیربنایی». حجم نمونه 6629 است (در صفحه قبل نیز ذکر شده است). اگر من چیزها را به درستی درک کنم، خطای استاندارد باید $\sqrt{\frac{p\cdot(1-p)}{n}}$ باشد، اما با محاسبه آنها به این روش نمی توانم آنها را با نتایج موجود در مقاله مطابقت دهم. . به عنوان مثال ورودی 33.4 (0.74). من دریافتم که خطای استاندارد باید $100 \cdot \sqrt{\frac{0.334 \cdot 0.666}{6629}} = 0.57927707090437$ باشد (ضریب 100 فقط برای معیار درصد). آیا من اینجا چیزی را اشتباه متوجه شده ام؟ | خطای استاندارد برآورد احتمال |
60991 | من یک رگرسیون اثرات ثابت را در Stata اجرا می کنم: $y=\alpha+\beta D$ (با حذف FE)، که در آن $D$ یک متغیر ساختگی است. اساساً، من میانگین گروه $D=0$ و گروه $D=1$ را پس از کنترل ناهمگنی ثابت زمان از طریق اثرات ثابت، همراه با انحرافات استاندارد آنها میخواهم. Stata ضرایب و خطاهای استاندارد را گزارش می کند. اکنون، میانگین های بعد از FE به سادگی $E[Y|D=0]=\alpha$ و $E[Y|D=1]=\alpha+\beta$ هستند، زیرا وقفه در رگرسیون اثرات ثابت Stata فقط میانگین است. . اما چگونه می توانم انحرافات استاندارد را بدست بیاورم؟ ممکن است گروه ها تعداد مشاهدات یکسانی نداشته باشند. اگر فقط یک گروه داشتم، $Y=\alpha$ را تخمین می زدم، و از روی خطای استاندارد رهگیری می توانم sd را با $SD=SE*\sqrt{n}$ محاسبه کنم، که $n$ عدد است. از مشاهدات اما به نظر نمی رسد که با دو گروه و ساختگی کار کند. من با یک OLS استاندارد (بدون جلوههای ثابت) آزمایش کردم و مثلاً SD گروه $D=0$ را نمیتوان از طریق $SD_0=SE(\alpha)\sqrt{n_0}$ (درجات آزادی تصحیح 2) محاسبه کرد. تغییر زیادی نمی کند). بنابراین چگونه می توانم این کار را انجام دهم، SD از FE corrected به معنی است؟ | بازیابی انحرافات استاندارد از تخمین OLS |
110400 | در ایجاد یک توصیهکننده مبتنی بر محتوا، چندین اندازهگیری باینری، همراه با مقادیر اندازهگیری عدد صحیح دارم و میخواهم این دو بردار را با هم مقایسه کنم. به عنوان مثال، دو کاربر و ویژگی های زیر را در نظر بگیرید t1 - t5، که در آن صفات می تواند باشد، برای مثال: * meets_requirement1 * meets_requirement2 * meets_requirement3 * years_experience، * years_college `... [ t1 t2 t3 t4 t5]` User1 0 1 1 18 4 کاربر2 1 1 1 15 2 کاربر2 1 1 0 4 8 داده ها (به وضوح) بین ردیف ها گاوسی نیستند. چگونه نمرات شباهت بین این کاربران را محاسبه کنم؟ آیا باید ابتدا صفات را عادی کنم؟ من به دنبال نتیجه ای مانند زیر هستم (در پایتون، فقط برای نشان دادن نتیجه. در پایتون به آن نیازی ندارم.): a = array([[0, 1, 1, 18, 4], [1 , 1, 1, 15, 2], [1, 1, 0, 4, 8]]) چاپ مربع (1 - pdist(a, metric='cosine')) چاپ Squareform(1 - pdist(a, metric='conrelation')) print squareform(1 / (1 + pdist(a, metric='euclidean'))) خروجی را به دست میدهد: [[ 0. 0.994 0.627] [0.994 0. 0.566] [ 0.627 0.566 0. ]] [[ 0. 0.991 0.384] [ 0.991 0. 0.273] [ 0.384 0.273 0. ]] [[ 0. 0.211 0.064] [ 0.211 0. 0.074] [ 0.064 از 0.07 تا 0.04] مطمئن هستم مقادیر t4 و t5 | شباهت بین دو آرایه با مقیاس های مختلف را محاسبه کنید |
66595 | جنگلهای رگرسیون اساساً جنگلهای تصادفی هستند، اما برای رگرسیون استفاده میشوند. آنها اساسا از همان چارچوبی استفاده می کنند که جنگل های تصمیم گیری برای طبقه بندی با چند قسمت رد و بدل شده استفاده می کنند. دو مورد از این بخش ها عبارتند از: 1. چگونه می توان سود اطلاعات را هنگام تصمیم گیری در مورد نحوه تقسیم در یک گره محاسبه کرد؟ 2. وقتی به یک برگ رسیدیم چگونه پیش بینی کنیم؟ یک گزارش جالب (هر چند 150 صفحه قوی) در مورد این موضوع به شرح زیر است: http://research.microsoft.com/apps/pubs/default.aspx?id=155552 این گزارش مشکلات ذکر شده در بالا را لمس می کند، اما من واقعاً نمی دانم راه حل های ممکن را درک کنید 1) صفحه 52، ضمیمه A. آنها فرمول پیوسته سود اطلاعات را به این صورت تعریف می کنند: $ I_j = \sum_{v \in S_j} log(|\Lambda_y(v)|) - \sum_{i \in \\{ L,R \\}} (\sum_{v \in S_j^i} log(|\Lambda_y(v)|)) $. از آنجایی که من واقعاً نمی دانم کجا دیگر بپرسم: آیا کسی می داند چه || در این مورد است؟ چگونه یک تابع را برای محاسبه I پیاده سازی می کنید؟ 2) وقتی به یک برگ می رسیم، تعدادی نقطه داده داریم که به این برگ می رسند، مثلاً به شکل (x,y). از درک من، اکنون یک تابع f(x) را به این نقاط داده برازش میکنیم (مثلاً با حداقل مربعات) و سپس از f(x) برای پیشبینی y برای نقطه آزمایشی x در آینده استفاده میکنیم. در گزارش (صفحه 50) آنها در مورد یک برازش خطی احتمالی صحبت می کنند که توزیع شرطی p(y|x) را برمی گرداند. چگونه می توان آن را انجام داد؟ من نمی دانم چگونه می توانیم تابع چگالی احتمال را در اینجا محاسبه کنیم. امیدوارم کسی با گزارش فوق آشنا باشد و بتواند کمک کند :) متشکرم! | جنگل رگرسیون: گره برگ و کسب اطلاعات |
23827 | علامت گذاری: $\dot{Z}_t = Z_t - E(Z_t)$، به طوری که در مرکز 0 باشد. $a_t$ مخفف باقیمانده است و ما فرض می کنیم $a_t$ مستقل است و به طور معمول با میانگین 0 و ثابت توزیع می شود. انحراف معیار $\sigma_a^2$. و وقتی می گویم ایستایی، منظورم ایستایی ضعیف است و نه ایستایی سخت. در کلاس سری زمانی من، به ما داده شده است که یک مدل MA(q) به شکل $$\dot{Z}_t = \theta_q(B) a_t$$ است که در آن $$\theta_q(B) = 1 - \ theta_1 B - \theta_2 B^2 - \cdots - \theta_q B^q.$$ به ما گفته شد MA(q) همیشه ثابت است و زمانی که همه ریشههای $\theta_q(B)$ خارج از دایره واحد هستند. برای مدل AR(p) به ما گفته شد که به شکل $$\phi_p(B) \dot{Z}_t = a_t$$ است که $$\phi_p(B) = 1 - \phi_1 B - \phi_2 B^2 - \cdots - \phi_p B^p.$$ به ما گفته شد که این مدل زمانی ثابت است که همه ریشه های $\phi_p(B)$ خارج از واحد باشند. دایره، اما یادم نمیآید که چیزی در مورد زمانی که اینها معکوس هستند شنیده باشم. اگر از موازی های مدل MA(q) استفاده کنم، ممکن است بگویم مدل AR(p) همیشه معکوس است. آیا این درست است؟ با تشکر | برگشت پذیری مدل AR(p). |
74678 | من چندین فرم معادله منتشر شده را با داده های مستقل مقایسه می کنم. من سعی می کنم تا حد امکان به روش های نویسندگان اصلی وفادار باشم. بنابراین، من 3 معادله خطی دارم (برازش در R با استفاده از lm())، که دو تای آنها از متغیرهای Y تبدیل شده استفاده میکنند و یک معادله با استفاده از رگرسیون غیرخطی برازش میکنند (در R با استفاده از تابع gnls() برازش میکنند. در همه موارد، من ساختار واریانس باقیمانده را با استفاده از معکوس یکی از پیشبینیکنندهها وزن میدهم تا ناهمسانی مشاهدهشده را محاسبه کنم. من مدلها را با استفاده از R2 و RMSE- با استفاده از دادههای تغییر شکل برگشتی برای دو مدل با تبدیل ارزیابی کردهام. من RMSE را با دست با استفاده از معادله زیر محاسبه کرده ام: RMSE<-sqrt(sum(residuals(Equation)^2)/length(residuals(Equation))-2)) آیا باید از کد مشابه برای محاسبه RMSE برای مدل های رگرسیون خطی و غیرخطی؟ آیا متریک هنوز یک آمار معتبر برای مقایسه است یا من برخی از فرضیه های مهم را از دست داده ام؟ ویرایش شده: من در ابتدا اعلام کردم که مدل ها را با استفاده از AIC مقایسه می کنم. بعداً به یاد آوردم که اگر متغیرهای Y تبدیل شوند AIC مناسب نخواهد بود زیرا مدلها چیزهای مختلفی را تخمین میزنند. | آیا می توانم مدل های رگرسیون خطی و رگرسیون غیرخطی را با استفاده از RMSE مقایسه کنم؟ |
110405 | من می خواهم یک عدد تصادفی از یک توزیع نمایی تکه ای تولید کنم. من در نظر میگیرم که مقیاس زمانی به بازههای $J$ با کرانهای $(s_{j-1}، s_j]$، برای $j=1،...، J$، و نرخهای مربوطه $\lambda_j$ تقسیم میشود. با توجه به ویژگی بدون حافظه توزیع نمایی استاندارد، آیا درست است که عدد تصادفی را با روش زیر برای $i=1,...,J$ تولید کنیم توزیع نمایی با نرخ $\lambda_i$ 2. اگر $x_i<s_i$ عدد تصادفی به عنوان $y_i<x_i+s_{i-1}$ به دست آمد، در غیر این صورت با $i$ بعدی ادامه دهید از این توزیع نمایی تکه ای با: $$ داده می شود k(t)=\prod_{h=1}^{j-1}(e^{-\lambda_h(s_h- s_{h-1})})(\lambda_j)(e^{-\lambda_j(t -s_{j-1})})I(s_{j-1}<t\leq s_j) $$ | اعداد تصادفی را از یک توزیع نمایی تکه ای تولید کنید |
51557 | من کمپین های تبلیغاتی دارم که می خواهم برای کاربران نمایش دهم. هر کدام معیارهایی دارند که کاربر باید رعایت کند تا برای کمپین معتبر باشد. به عنوان مثال، کاربر باید در ایالات متحده باشد، یا کاربر باید آلبوم های حداقل یکی از هنرمندان [بیتلز، مایکل جکسون] را دوست داشته باشد، و کاربر باید در ایالات متحده باشد. در حال حاضر فقط به کاربر اجازه میدهم تا هنگام مرور سایت من، همه تبلیغات را ببیند، اما میخواهم برای سناریوهای خاصی که در آن کمبود دارم، بهینهسازی کنم (فقط یک تبلیغ در صفحه اصلی نشان داده شود، یا یک تبلیغ برجسته در نتایج جستجو). من می خواهم بتوانم بهترین تبلیغ را برای نمایش انتخاب کنم. حداقل نیمی از تبلیغات دارای چنین الزامات سفارشی هستند که من نمی توانم معیارهایی را اعمال کنم تا ببینم آیا آنها برای هدف گذاری معتبر هستند یا خیر. پس از کلیک کاربر بر روی قرار دادن آگهی، از آنها خواسته می شود که داده های بیشتری را پر کند، در آن مرحله ما اطلاعات کافی برای اطلاع از معتبر بودن آنها داریم و کاربر را با تبلیغ کننده یا محصول مطابقت می دهیم. سپس درآمد جمع آوری می کنیم. من یک توسعه دهنده نرم افزار هستم و چیز زیادی در مورد آمار یا یادگیری ماشینی نمی دانم. میخواهم بدانم آیا نوعی یادگیری ماشینی یا مدل آماری وجود دارد که بتوانم از آن برای بهینهسازی این فرآیند استفاده کنم. من نوعی سیستم را تصور می کنم که در آن معیارهای هدف گذاری تبلیغات خود را بر اساس داده های کل پایگاه کاربر خود اجرا می کنم (ما بیش از 5 میلیون کاربر داریم) و مجموعه ای از تاپل ها را ایجاد می کنم: {user: John Doe, ad_campaign: Coca-Cola, valid_to_target : بله/خیر/شاید(اما اطلاعات کافی نیست)} سپس، آن مجموعه تاپل ها را به عنوان یک مجموعه آموزشی در نوعی مدل ML قرار می دهم (مطمئن نیستم که آیا من از اصطلاحات درست استفاده می کنم). این فرآیند منجر به یک مدل، قطعه کدی میشود که میتوانم در سرویس تبلیغاتی خود اجرا کنم، که میتواند یک کاربر کاملاً جدید را به عنوان ورودی دریافت کند، و مجموعهای از تاپلها مشابه تاپل دادههای آموزشی بالا، به جز این تاپلها را خروجی کند. همچنین دارای امتیازی است که نشان میدهد چقدر احتمال دارد که کاربر معتبر/هدفپذیر باشد. حدس میزنم «بله/خیر/شاید» نیز میتواند کار کند، اما گاهی اوقات معیارها شامل چندین ویژگی دادههای کاربر میشوند، بنابراین میخواهم این مدل بتواند امتیاز بالاتری برای کاربرانی که به نظر میتوانند معتبر باشند، بدهد. ، ممکن است داده هایی برای 5 فیلد از 6 فیلد داشته باشند که بخشی از معیارهای هدف گذاری تبلیغات هستند، و 5 فیلدی که آنها داده دارند، آنها را برای آن کمپین رد نمی کند. به طوری که آن کاربر آن تبلیغ را روی یکی میبیند، جایی که شاید 1 فیلد از 4 داشته باشد. سپس، میتوانم درآمد/هزینههای تبلیغات را با امتیازها اعمال کنم تا بدانم دقیقاً چه چیزی را به کاربر نشان دهم. میخواهم بدانم که آیا این امکان پذیر است، و اگر چنین است، چه منابعی وجود دارد که به من کمک میکند تا آن را به انجام برسانم. من می بینم که کتابخانه هایی مانند Infer.NET (من عمدتاً یک توسعه دهنده دات نت هستم) وجود دارد که ممکن است بتواند کمک کند. | چگونه می توانم امتیازی را برای کاربرانم تخمین بزنم که آیا آنها با معیارهای کمپین تبلیغاتی مطابقت دارند یا خیر؟ |
74670 | این یک سوال کلی است. من یک وظیفه دارم که از 3 رویداد مستقل تشکیل شده است: A، B و C. همه متقابل هستند و در یک زمان اتفاق نمیافتند. بنابراین اول A، سپس B، سپس C. من احتمال تکمیل هر رویداد را با توجه به زمان می دانم، من pdf ها را دارم. چگونه می توانم احتمال تکمیل کار را با توجه به زمان محاسبه کنم؟ | محاسبه احتمال تکمیل یک کار متشکل از رویدادهای مستقل |
111352 | من از تابع nlm در R برای انجام بهینه سازی استفاده کردم. وقتی همبستگی بین پارامترهای تخمین زده شده را با استفاده از معکوس ماتریس هسین محاسبه کردم، مقادیر منفی روی قطر بدست آوردم. سوال من این است که دلیل این موضوع چه می تواند باشد و چه راه حلی می تواند وجود داشته باشد؟ | واریانس منفی از ماتریس هسین معکوس |
23826 | من از جعبه ابزار شبکه عصبی MATLAB برای آموزش یک نقشه خودسازماندهی برای یک مجموعه داده معین استفاده کردم. نمودار وزن-موقعیت به دست آمده به شرح زیر است. فکر نمی کنم این طرح در مقایسه با طرح نمونه ارائه شده در وب سایت MathWorks خوب به نظر برسد.  من از روال استاندارد MATLAB برای آموزش این SOM پیروی کردم. بنابراین، من سه سوال در مورد این مطالعه موردی دارم. 1. چه نوع اطلاعاتی را می توانم از این طرح بدست بیاورم؟ 2. با توجه به شکل این نمودار، چه چیزی می توانم برای ورودی بگویم؟ 3. از آنجایی که روش آموزش پیش پا افتاده و استاندارد است، من نمی دانم که آیا SOM می تواند با مجموعه داده های من مطابقت داشته باشد؟ مجموعه داده من از 3000 نقطه داده تشکیل شده است و هر نقطه داده 20000 بعد دارد. مثالی که متلب داده فقط برای 4 بعد است. | هنگام استفاده از نقشه خودسازماندهی برای خوشه بندی، نمودار وزن موقعیت را چگونه تفسیر کنیم؟ |
93492 | من آزمایشی با باکتری دارم که برای آن منحنی رشد چندین کلون باکتری را در دو نوع مختلف محیط (درمان) اندازهگیری کردم. سپس چندین پارامتر رشد را از منحنی ها استخراج کردم و یکی از آنها را تجزیه و تحلیل می کنم: فاز تاخیر (لامبدا). کلون دارای 13 سطح و درمان دارای 2 سطح است. اکنون می خواهم بدانم برای هر کلون، آیا لامبدای من بین دو درمان متفاوت است یا خیر. از آنجایی که چندین تکرار غیرمستقل برای هر کلون انجام دادم، یک مدل اثرات مختلط به شکل زیر ایجاد کردم m1<-lme(lambda~treat*clone,random=~1|replicate) از آنجایی که تعامل قابل توجه است، از lsmeans استفاده کردم. سعی کنید مقایسه بین دو درمان را برای کلون های مختلف انجام دهید. در زیر کدی که برای تابع و خروجی استفاده کردم آمده است. اکنون دو چیز وجود دارد که من را متحیر می کند: 1) چرا lsmeans قادر به تخمین df نیست؟ 2) چرا SE در اکثر کلون های مختلف یکسان است؟ lsmeans(m1,pairwise~treat|clone,adjust=tukey) $`treat:clone lsmeans` treat clone lsmean SE df asymp.LCL asymp.UCL glu 1 274.5716 40.05260 NA 193.070.070. 316.6030 40.05260 NA 238.1014 395.1047 glu 11 628.6852 40.05260 NA 550.1835 707.1868 glu.ALA 11 301.201.201.201.201.201. 379.7172 glu 19 586.9249 40.05260 NA 508.4232 665.4265 glu.ALA 19 622.3766 40.05260 NA 543.8749 7217 glu237.826 40.05260 NA 634.1360 791.1393 glu.ALA 26 350.8608 40.05260 NA 272.3592 429.3625 glu 28 491.2373 40.057.0526. glu.ALA 28 314.1701 40.05260 NA 235.6685 392.6718 glu 31 559.2341 40.05260 NA 480.7325 637.7358 glu1520.7358 glu159.2341 374.4902 531.4935 glu 40 569.0526 40.05260 NA 490.5509 647.5542 glu.ALA 40 592.2210 40.05260 NA 5213.707 NA 513.707 430.7679 40.05260 NA 352.2663 509.2696 glu.ALA 41 456.9167 40.05260 NA 378.4150 535.4183 glu 48 739.896 739.896 818.3929 glu.ALA 48 709.2002 40.05260 NA 630.6985 787.7018 glu 51 388.9805 40.05260 NA 310.4788 4115 glu381815 40.05260 NA 316.8865 473.8898 glu 52 499.6519 40.05260 NA 421.1502 578.1535 glu.ALA 52 471.2882 425.89254.8925. glu 61 1200.5866 40.05260 NA 1122.0850 1279.0883 glu.ALA 61 817.7402 40.05260 NA 739.2385 896.24216 896.2423225718 glu. 213.0695 312.3671 glu.ALA Anc 302.1657 26.22058 NA 250.7743 353.5571 $`treat:clone تفاوت های زوجی` برآورد SE df z.ratio p.value glu - glu. 1 -42.031407 56.64292 NA -0.74204 0.45808 glu - glu.ALA | 11 327.469629 56.64292 NA 5.78130 0.00000 glu - glu.ALA | 19 -35.451732 56.64292 NA -0.62588 0.53141 glu - glu.ALA | 26 361.776858 56.64292 NA 6.38697 0.00000 glu - glu.ALA | 28 177.067207 56.64292 NA 3.12603 0.00178 glu - glu.ALA | 31 106.242222 56.64292 NA 1.87565 0.06073 glu - glu.ALA | 40 -23.168464 56.64292 NA -0.40903 0.68253 glu - glu.ALA | 41 -26.148743 56.64292 NA -0.46164 0.64435 glu - glu.ALA | 48 30.691103 56.64292 NA 0.54183 0.58795 glu - glu.ALA | 51 -6.407644 56.64292 NA -0.11312 0.90994 glu - glu.ALA | 52 28.363655 59.40760 NA 0.47744 0.63306 glu - glu.ALA | 61 382.846452 56.64292 NA 6.75895 0.00000 glu - glu.ALA | مقادیر Anc -39.447421 36.45824 NA -1.08199 0.27928 p با استفاده از روش tukey برای 2 میانگین تنظیم شده است. | آزمون تعقیبی بر روی مدل اثرات مختلط |
74677 | من با چهار مجموعه داده نظرسنجی کار میکنم، دو تای آنها بدون متغیر مشخصی که با استفاده از تکنیکهای انتساب چندگانه آنها را نسبت میدهم. پس از آن، من از دادههای کامل برای تخمین مجموعهای از مدلهای لاجیت استفاده میکنم که طبق درک من، هیچ تفسیر اساسی برای احتمال لگ آنها وجود ندارد. این موضوع مهمی است زمانی که شما نیاز به ارزیابی خوبی نسبی برازش مدلها دارید، زیرا اکثر آمارهای برازش از منطق احتمال در فرمولبندیهای خود استفاده میکنند: BIC، AIC، بیشترین شبه R-squared، Deviance و غیره... آیا وجود دارد. راهی برای تخمین احتمال لگ اساسی برای یک مدل لاجیت پس از انتساب چندگانه؟ اگر نه، کدام آمار مناسب را به جای آن توصیه می کنید؟ PS: من عمدتا در Stata کار می کنم، اما همچنین در R. | برازش آمار و لاگ احتمال پس از تخمین انتساب چندگانه |
107807 | هدف: من میخواهم اثر یک تغییر نظارتی را با استفاده از یک طرح کلاسیک DiD قبل از پس از/کنترل درمان (Y = POST + TREAT + POSTxTREAT + e) آزمایش کنم. مشکل: درمان و کنترل موارد. از کشورهای مختلف هستند. اگرچه این کشورها از نظر بسیاری از جنبههای مرتبط مشابه هستند، بررسی بصری فرض روند موازی برای متغیر نتیجه در پیش دوره (فقط 3 سال) روندهای زمانی متفاوتی را نشان میدهد. جزئیات نمونه: دوره زمانی 2002-2007 است، رویداد در سال 2005 رخ داده است. 200 در سال (1200 کل)، کنترل obs. ~ 100 obs./year (600 کل). Obs. در طول زمان متعلق به موضوعات مشابه (300 موضوع). سؤالات: 1. آیا منطقی است که از تطابق نمره گرایش بر اساس عوامل تعیین کننده متغیر نتیجه در پیش دوره برای ایجاد یک نمونه درمان/کنترل همگن تر (و امیدواریم از روندهای مختلف خلاص شویم) استفاده کنیم؟ 2. چه مزیتی نسبت به کنترل ساده برای تعیین کننده های مورد استفاده در PSM در رگرسیون DiD وجود دارد؟ (به عنوان مثال، Y = POST + TREAT + POSTxTREAT + CONTROLS + e) 3. من به استفاده از تطبیق یک به یک با کولیس فکر کردم. با این حال، من موارد درمانی بیشتری دارم. نسبت به کنترل obs. - آیا راه های بهتری برای جلوگیری از از دست دادن بیش از حد بسیاری از موارد من وجود دارد؟ با تشکر PS: من از Stata استفاده می کنم. | حسابداری نقض فرض روند موازی در تفاوت در تفاوت با تطابق گرایش - امتیاز |
35495 | من در حال توسعه یک مدل خطی با 13 متغیر، از جمله متغیر هدف (درآمد خرید آنلاین برای اقلام) هستم. بنابراین، ابتدا model1 را با متغیر معمولی ساختم و بعد از نرمال سازی داده ها، model2 را ساختم. من ضرایب دو مدل را در اینجا کپی کرده ام: Model1 (بدون داده های عادی) ضرایب: (Intercept) xid xcartadd 6.386e+01 -4.301e-03 -1.229e+02 xcartuniqadd xcartaddtotalrs xcartremove 1.2370.8+7. -1.424e+02 xcardtremovetotal xcardtremovetotalrs xproductviews 5.588e+02 -3.445e-02 1.369e+01 xuniqprodview xprodviewinrs xsizeselecteduniview -1.530e+0129-0401-5.40+01 xsizeselectedtotalviews xsizeselectedtotalviewsrs 6.280e+01 -2.453e-02 مدل 2 (با داده های عادی) ضرایب: (برق) xid 3.900e+02 -4.301e-03 xcartadd_n xcartuniqa -33e+2. 2.069e+03 xcartaddtotalrs_n xcartremove_n 1.785e+03 -1.721e+02 xcardtremovetotal_n xcardtremovetotalrs_n 4.474e+02 -5.360e+01 xproductviews_79+70 xuniq. -7.378e+03 xprodviewinrs_n xsizeselecteduniview_n 4.757e+02 -1.218e+03 xsizeselectedtotalviews_n xsizeselectedtotalviewsrs_n 1.044e+03 -5.374e+02: آیا این دادهها فقط برای 1 مدل نرمال هستند یا برای 1 سؤال مناسب نیست** داده های نرمال شده؟ 2. آیا ترکیبی از داده های نرمال شده و همچنین داده های غیر عادی مناسب است؟ 3. چگونه می توانم مناسب ترین متغیر پیش بینی را از بین آنها برای مدل انتخاب کنم؟ | آیا باید از داده های نرمال یا غیر عادی برای توسعه مدل خود استفاده کنید؟ |
27111 | من تصاویر را برای همبستگی مقایسه می کنم. همه تصاویر همبستگی دارند، اما من می خواهم تعیین کنم که چه زمانی یک جفت نسبت به جفت دیگر همبستگی بسیار بیشتری دارد. من به عنوان یک آمار از تفاوت در لاگ مقادیر p تولید شده توسط آزمون همبستگی رتبه اسپیرمن استفاده می کنم. اگر این تفاوت کوچک باشد، یک درجه طبیعی از همبستگی وجود دارد. اگر این تفاوت زیاد باشد، در یک جفت نسبت به جفت دیگر همبستگی بالاتری وجود دارد. اجازه دهید $A$، $B$، و $C$ تصاویر باشند. من می خواهم توزیعی را تعیین کنم و یک مقدار p برای $ x = \vert \log(\mbox{SpearmanRankCorr}(A,B)) - \log(\mbox{SpearmanRankCorr}(A,C)) \vert محاسبه کنم $ | من یک آمار دارم، چگونه توزیع آن را محاسبه کنم؟ |
61644 | مشکل کلی این است که من یک متغیر محاسبه شده دارم که توافق بین بخش ها را نشان می دهد. متغیر یک جمع بندی به شکل (قسمت/ تعداد قطعات)^2 برای قسمت های ممکن است. متغیر جمع بین 0 و 1 است. چگونه می توانم برای آزمایش تفاوت های قابل توجه بین توافق قسمت محاسبه شده برای دو شرایط مطالعه اقدام کنم؟ موقعیت خاص شامل حرکاتی است که شرکت کنندگان در مطالعه برای انجام یک کار خاص استفاده می کردند. در اینجا، توافق به معنای تعداد دفعاتی است که یک حرکت خاص روی تعداد کل حرکات برای هر کار (مربع مطابق با بالا) استفاده شده است - که برای همه حرکات در هر کار جمع شده است. من میخواهم محاسبه کنم که آیا توافق در هر حرکت در دو گروه به طور قابل توجهی متفاوت است یا نه (مطالعه دو شرط را مقایسه میکند) و مطمئن نیستم که چگونه به این مشکل نزدیک شوم. | معناداری آماری بین گروه های یک متغیر جمع |
60990 | در ابتدا کارها به روش خاصی انجام می شد (A) و من به روش های کلیدی تغییر کردم تا کارها را کمی متفاوت انجام دهم (B). اکنون می خواهم ارزیابی کنم که آیا این تغییر برای بهتر شدن بوده است یا خیر. برای تایید این ادعا چه آزمایش هایی می توانم انجام دهم؟ من داده های تاریخی و مشاهده ای به مدت 3 سال در مورد هر یک از رویکردها دارم. از کدام آزمون های آماری می توانم برای اندازه گیری/کمی سازی اثربخشی تغییر استفاده کنم؟ به عنوان مثال: مواردی که برای اجرا انتخاب شده بودند به روش خاصی انتخاب شدند. من فرآیند انتخاب را تغییر دادم تا دقیقتر و ارزش محورتر باشد (برای برخی از مفهوم ارزش) و ادعا کردم که موارد انتخاب شده توسط رویکرد من نسبت به ارزش آنها برای سازمان/پیادهسازی برتر هستند. اکنون میخواهم یک تحلیل گذشتهنگر انجام دهم تا ببینم آیا اوضاع در نتیجه رویکرد من بهتر است یا فقط به دلیل شانس. به من پیشنهاد شد از MANCOVA استفاده کنم که قبلاً هرگز در مورد آن نشنیده بودم/استفاده کرده بودم. من دارم روی درک آن کار می کنم، اما آیا چیز دیگری وجود دارد که باید به آن نگاه کنم؟ چگونه تغییرات فرآیند از نظر آماری در طبیعت ارزیابی می شوند؟ (یا فقط به داده های رصدی واگذار شده است؟) | ارزیابی اینکه آیا روند جدید بهتر از قبلی بوده است؟ |
100852 | مطالعه من شامل مطالعه تغییرات فصلی (پیش موسمی، موسمی، پسمانسون) در رودخانه در 5 نقطه نمونه برداری مختلف است. مطالعه کیفیت آب شامل هشت پارامتر آب بود. برای بررسی پایایی داده ها، من تجزیه و تحلیل قابلیت اطمینان را اجرا کردم و مقدار کرونباخ = 0.187.. که بسیار بسیار پایین است را دریافت کردم. اما سوال من این است که آیا لازم است تحلیل قابلیت اطمینان برای هر داده ای اجرا شود؟ داده هایی که من دست به کار می شوم کاملاً از نوع داده های علمی است. که می تواند نتایج متناقضی را نشان دهد. اما آیا تست قابلیت اطمینان استاندارد لازم است؟ اگر بله، لطفاً در مورد اینکه چه کاری می توان در این مورد انجام داد راهنمایی کنید زیرا تغییر داده ها و غیره فایده ای نداشت. | آیا استفاده از تجزیه و تحلیل قابلیت اطمینان همیشه در مدیریت داده ها ضروری است؟ |
70701 | در بسیاری از زمینه های علمی، مقدار p کمتر از 0.05 معنی دار در نظر گرفته می شود که به تفاوت واقعی در واقعیت اشاره می کند، در حالی که هر چیزی بالاتر از آن را نمی توان پذیرفت (یعنی فرضیه صفر را نمی توان رد کرد، به این معنی که نتایج شما را نمی توان برای انتشار پذیرفت)، از دیدگاه. از آمار خالص، این آستانه مقدار p کاملا دلخواه است. چرا جامعه علمی روی این مقدار استقرار یافته است و حاضر است فرضیه صفر را فقط برای هر چیزی با احتمال کمتر از 5٪ رد کند؟ | چه کسی تصمیم گرفت که مقدار p باید کمتر از 0.05 باشد و چرا؟ |
27116 | تعریف دقیق _دقت_ برآوردگر آماری چیست؟ هر گونه ارجاع به کتاب های درسی قدردانی می شود. | تعریف دقت یک برآوردگر |
60994 | اگرچه من این پست را خواندم، اما هنوز نمی دانم چگونه می توانم آن را در داده های خودم اعمال کنم و امیدوارم کسی بتواند به من کمک کند. من داده های زیر را دارم: y <- c(11.622967، 12.006081، 11.760928، 12.246830، 12.052126، 12.346154، 12.039262، 12.3126.12.3126. 11.260743، 10.950483، 10.522091، 9.346292، 7.014578، 6.981853، 7.197708، 7.035624، 6.785238، 6.785284، 7.785238، 7.7. 8.723832، 10.276473، 10.602792، 11.031908، 11.364901، 11.687638، 11.947783، 12.228909، 11.91837، 11.91837 12.046851, 12.316508, 12.147746, 12.136446, 11.744371, 8.317413, 8.790837, 10.139807, 7.01903741, 7.0190374, 7.0190374 9.090377، 7.532161، 8.156842، 9.329572، 9.991522، 10.036448، 10.797905) t <- 18:65 و اکنون من به سادگی می خواهم یک موج سینوسی (dot) sin\=ph\ic$ را جا بدهم +C. $$ با چهار مجهول $A$، $\omega$، $\phi$ و $C$ به آن. بقیه کد من به شکل زیر است <- nls(y ~ A*sin(omega*t+phi)+C, data=data.frame(t,y), start=list(A=1,omega= 1,phi=1,C=1)) co <- coef(res) fit <- function(x, a, b, c, d) {a*sin(b*x+c)+d} # نتیجه نمودار نمودار(x=t، y=y) منحنی(fit(x، a=co[A]، b=co[omega]، c=co[phi]، d=co[C ])، add=TRUE ,lwd=2, col=steelblue) اما نتیجه واقعا ضعیف است.  من بسیار قدردان هر کمکی هستم. به سلامتی | یک عبارت سینوسی را به داده ها برازش دهید |
23828 | من یک مدل رگرسیون چند متغیره ساخته ام که در آن $\mathbf x$ بردار متغیر است. اکنون از من خواسته می شود که فاصله اطمینان برای عدد مورد نظر (NNT) را در $\mathbf x=\mathbf {x_0}$ محاسبه کنم که به نوبه خود نیاز به ایجاد فاصله اطمینان برای $p=Pr(1|\mathbf x=) دارد. \mathbf {x_0})$. من از JMP استفاده می کنم که تا آنجا که می دانم، فقط مقدار نقطه و خطای استاندارد تخمین پارامترها را نشان می دهد، اما اطلاعات کامل فیشر را نشان نمی دهد. بنابراین من تمایل دارم از $\hat{p}=Pr(1|\mathbf x=\mathbf {x_0},\mathbf {\hat{b}})$ استفاده کنم که در آن $\mathbf {\hat{b}} $ بردار تخمین پارامتر ML است و سپس $\hat{p}(1-\hat{p})/n$ را محاسبه کنید، اما من شک دارم که درست باشد. راه ساده کدام است؟ | چگونه فاصله اطمینان را برای عددی که باید در یک رگرسیون لجستیک محاسبه کنیم؟ |
100850 | آیا یک عبارت بسته برای توزیع نمونه کورتوز داده های نمونه گیری از توزیع گاوسی وجود دارد؟ به عنوان مثال، $P(\hat{K}<a)$ که در آن $\hat{K}$ نمونه کشیدگی است. | بیان فرم بسته برای توزیع کشیدگی نمونه توزیع گاوسی |
65818 | اگر همه متغیرهای وابسته و مستقل متغیرهای طبقه ای باشند، آیا می توان رگرسیون انجام داد؟ | رگرسیون فقط با متغیرهای طبقه بندی شده |
100859 | من همیشه شنیده ام که داده کاوی و ابزارها/تکنیک های یادگیری ماشین به شدت در بخش داروسازی و زیست شناسی استفاده می شوند، اما هرگز در مورد شرکت هایی نشنیده ام که کاربردهای تجاری داده ming را برای داروسازی و زیست شناسی ارائه می دهند. یک بار شنیدم که استادم میگفت اگر واقعاً میخواهید پیشرفتهترین فناوری داده کاوی را بدانید، به بخش داروسازی نگاه کنید. اما باز هم نمی توانم هیچ شرکتی را پیدا کنم که آنها را اعمال کند. سوالات من: 1- لطفاً چند کاربرد تجاری و استفاده از داده کاوی در بخش داروسازی و زیست شناسی را به من بگویید؟ 2- چه شرکت هایی چنین برنامه هایی را برای بخش داروسازی و زیست شناسی ارائه می دهند؟ | نمونه هایی برای کاربردهای تجاری داده کاوی در داروسازی |
22196 | 1.آیا آمار آزمون هر دو آزمون یکسان نیست؟ تنها تفاوتی که من می بینم این است که فرضیه جایگزین متفاوت است. از آنجایی که شما نیازی به دانستن تابع h در آزمون بروش-پاگان ندارید، تفاوت بین این دو آزمون دقیقاً چیست؟ 2. چه زمانی از تست سفید و چه زمانی به جای آن از تست بروش-پگان استفاده می کنید؟ مهم ترین معیاری که در اینجا هنگام تصمیم گیری برای استفاده از آزمون باید در نظر گرفت چیست؟ | در مورد تست ناهمسانی، چند سوال در مورد آزمون وایت و تست بروش-پاگان |
56529 | در حین مطالعه روششناسی احتمال، به نتایجی برخوردم که نتوانستهام به دست بیاورم. 1. اگر $X$ و $Y$ پواسون با معنی $\mu_{X}$ و $\mu_{Y}$ باشند، توزیع شرطی $X$ با توجه به $X+Y$ دو جمله ای با پارامترهای $n است. = X+Y$ و $\pi = \frac{\mu_{X}}{mu_{X}+mu_{Y}}$. 2. با فرض $y_{1}، \ldots، y_{n}$ نتایج نمایی مستقل با میانگین $\mu_{1}، \ldots، \mu_{n}$ هستند. با توجه به $\text{log}(\mu_{i}) = \beta_{0}+\beta_{1}x_{i}$ و $\sum x_{i} = 0$، احتمال نمایه $\beta_ {1}$ $$ \text{log} است (L_{p}(\beta_{1})) = -n \log \left(\sum_{i}y_{i}e^{-\beta_{1}x_{i}}\right)$$ تلاشهایم برای نشان دادن این نتایج را درج میکنم، اما در اینجا کاملاً گم شدهام. شاید کسی بتواند کمکی بکند. | سوالات در مورد تحلیل احتمال |
22198 | من یک مدل با «lmer» «lme4» ایجاد کردهام و میخواهم یک فاصله پیشبینی در اطراف تناسب مدل خود ایجاد کنم. من فکر کردم که می توانم آن را به سبک بیزی انجام دهم و برای انجام این کار از مدل شبیه سازی کنم. مدل من شبیه: b3 <- lmer (دلار ~ 1 + I (بازپرداخت/روز) + (1 | ماه) + (1 | رژیم)، data=elect5) و اولین تلاش من برای ترسیم نمودار این بود: نمودار (elect5) $dollars, type=o, ylim=c(200, 1000), ylab=Y, xlab=X) برای خطوط (i در 1:5000) (شبیه سازی (b3)، col=rgb (0، 0، 0، 0.01)) خطوط (برازش (b3)، col=سبز) نقاط (elect5$dollars، col=red) abline (h=fixef ( b3)[1]، lty=3، col=blue) که منجر به نمودار می شود (داده های واقعی نقاط قرمز، مدل برازش خط سبز، پیش بینی خاکستری فاصله):  که چندان خوب به نظر نمی رسد. به نظر می رسد که صرفاً یک واریانس در اطراف رهگیری اثر ثابت مدل است. خوب، پس من کارها را به راه سخت انجام می دهم و یک تابع را برای پیاده سازی مدل کدنویسی می کنم: تابع doB3mc <- (x, f, r) f[1] + (f[2] * (x$refund / x $days)) + (r[x$month]) + (r[as.numeric (x$regime) + 12]) و سپس یک ماتریس را با شبیهسازیهای مبتنی بر «mcmcsamp» پر کنید، که نمونهها ضرایب (مطمئنم به کارآمدترین روش انجام نشد): یک <- mcmcsamp (b3, 5000, saveb=T) res <- ماتریس (NA, nrow=5000, ncol=49) برای (i در 1: 5000) برای (j در 1:49) res[i, j] <- doB3mc (elect5[j,]، a@fixef[,i], a@ranef[,i]) و همچنین نمودار: plot (elect5$dollars, type=o, ylim=c(200, 1000), ylab=Y, xlab= X) برای خطوط (i در 1:5000) (res[i،]، col=rgb (0، 0، 0، 0.01)) خطوط (برازش (b3)، col=green) نقاط (elect5$dollars, col=red) abline (h=fixef (b3)[1], lty=3, col=blue) در نمودار حاصل می شود:  که بیشتر شبیه چیزی است که من انتظار داشتم، به جز این بایاس است: در مقادیر کمتر از وقفه اثر ثابت، مدل در بازه پیشبینی پایین است و بالعکس. بنابراین سوال من این است: 1) چرا گزینه اول، با شبیه سازی به طرز عجیبی کار می کند، 2) چرا گزینه دوم مغرضانه به نظر می رسد (خط متناسب در مرکز فاصله نیست) و مهمتر از همه 3) هر کدام از این موارد مناسب است. روشی برای انجام کاری که قصد انجام آن را دارم؟ | یافتن فاصله پیشبینی برای مدل lmer از طریق mcmcsamp در مقابل شبیهسازی |
22195 | ** ابتدا کمی پیشینه: ** من یک مربی کالج پینت بال هستم و دو گروه بازیکن دارم: I. بازیکنانی که قبل از پیوستن به تیم تجربه/مهارت زیادی دارند، به عنوان مثال. بازی در تیم های آماتور غیر دانشگاهی اما به دلایل مختلف اغلب با هم بازی نمی کنند. II. بازیکنانی که خیلی باتجربه/ماهر نیستند اما اخیراً زمان تمرین زیادی برای بازی با سایر بازیکنان این جمعیت دارند. من همچنین اخیراً این مقاله مایکل لوئیس را در مورد شین باتیر خوانده ام. به طور خلاصه، بیان میکند که او چگونه «آمار» بسکتبال سنتی بسیار کم یا غیرقابلوجود دارد، اما «بعلاوه/منفی» بسیار بالایی دارد که در آن هر زمان که در زمین حضور داشته باشد، امتیاز تیم دیگر را محدود میکند. این من را به سوالات سوق می دهد. **سوالات:** 1. بهترین راه برای تعیین کمیت (از نظر آماری و/یا احتمالاتی) در صورتی که تجربه/مهارت یا تجربه اخیر بازی پیش بینی بهتری برای بردها باشد چیست؟ 2. چگونه می توانم بازیکنانی را شناسایی کنم که مهارت های فردی ضعیفی دارند اما در هنگام بازی با بازیکنان دیگر سهم زیادی در برنده شدن در مسابقات دارند؟ **چیزی که تا الان دارم:** الف. نتایج چندین آزمون مهارت های فردی به عنوان مثال آیا می توانید در حین دویدن مکرر به اهداف ضربه بزنید ب. رکوردی از رویارویی های 1 در مقابل 1 که به من امکان می دهد مواردی مانند این را بگویم: بازیکن A در 66٪ مواقع در مسابقات 1 به 1 بازیکن B را شکست داده است. رکوردی از n در مقابل n برخورد (با n تا 5 شامل) هر تمرین هفتگی به من داده های بیشتری می دهد تا از آنها نیز استفاده کنم. فکر من این است که پس از یک بازی کافی 1 در 1، هر بازیکن باید چندین بار با هر بازیکن دیگری بازی کند. این به من این امکان را می دهد که همه را در یک سطح فردی رتبه بندی کنم (به عنوان مثال با استفاده از ELO). بعد، رتبهبندی ELO را میگیرم و آنها را ترکیب میکنم و ببینم آیا مهارتهای فردی (دادههای گروه a و b) با تعداد بالای برد (دادههای گروه c) مرتبط است یا خیر. من همچنین در مورد بهترین راه برای ترکیب رتبه بندی ELO کاملا مطمئن نیستم. آنها را جمع کنید، میانگین آنها را بگیرید، حداقل را بگیرید، حداکثر را بگیرید و غیره. آیا راهی وجود دارد که n v n مطابقت ها را به گونه ای ساختار دهید که این کار آسان تر شود؟ به عنوان مثال اگر هر ترکیب ممکن 3 در 3 دور رابین باشد، این حجم نمونه را افزایش می دهد و نتایج نهایی بهتری به من می دهد؟ به عنوان یک مزیت جانبی، همانطور که در بالا ذکر شد، اگر میتوانستم بازیکنانی را پیدا کنم که امتیاز مهارتهای فردی پایین و/یا رتبهبندی ELO پایینی داشته باشند، اما به نوعی با بردها در هنگام بازی در n v n مسابقه (با n بیشتر از 1) همبستگی بالایی دارند. اگر جزئیات بیشتری نیاز است، لطفا به من اطلاع دهید. پیشاپیش ممنون **به روز رسانی 2012-02-11** بنابراین ما اکنون چند هفته در ردیابی نحوه عملکرد هر بازیکن در مسابقات 1v1 و 3v3 هستیم. من دو رتبه بندی ELO بر اساس هر دسته ایجاد کرده ام (یکی برای 1v1 و دیگری برای 3v3). من از همان فرمول و وزن این صفحه استفاده کردم. برای 3v3، من میانگین را به همان روشی که لینک برای دوبل انجام می دهد، گرفتم. برای 1v1 ما به طور متوسط 6 مسابقه و برای 3v3 به طور متوسط 9 داریم، بنابراین رتبه بندی ELO احتمالاً کمی زودهنگام است به خصوص که ما همه را با 1500 برای هر دسته شروع کردیم. در اینجا یک نمودار پراکندگی نشان می دهد که دو دسته را نشان می دهد که در آن هر امتیاز یک بازیکن است:  سوال بعدی من این است که چگونه بهترین محاسبه ELO 3v3 را انجام دهم. آیا بهتر است میانگین، حداکثر، حداقل، میانگین حداقل و حداکثر و غیره را در نظر بگیریم؟ | راه هایی برای تعیین اینکه آیا تجربه یا زمان تمرین اخیر در رتبه بندی مهم تر است؟ |
22193 | من یک تابع تقسیم تعریف شده توسط کاربر برای استفاده با rpart نوشتهام، که یک «بردار خوبی» را برمیگرداند، اما درختی که برگردانده میشود هرگز شکاف ندارد، فقط یک گره. با استفاده از روش anova بر روی همان داده ها، درختی با گره های زیادی فراهم می کند. من کد را بازجویی کردهام، اما rpart تا کنون مانند یک جعبه سیاه به نظر میرسد، نمیتوانم بفهمم چرا هیچ شکافی وجود ندارد یا چگونه مشکل را حل کنم. مطمئن نیستم که این به اینجا تعلق دارد یا @stackoverflow. من فاصله تابع خود را شامل میکنم <- تابع (y، wt، x، parms، پیوسته) { # بردار خوبی را با استفاده از اندازهگیری فاصله برمیگردانم # فاصله بین درمان و کنترل را در چپ و راست پیدا کنید، # افزایش = تفاوت بین دو، نرمال شده اگر (فقدان(parms) || is.null(parms['treated'])) stop(requires vector indicating treatment) treated <- which(parms['treated'] == max(parms['treated'])) #treated <- which(parms$treated == max(parms$treated)) خوبی <- numeric(length(x) - 1) for (i in 1:(length(x )-1)) { چپ <- که(x >= x[i]) چپ.داده <- y[چپ] راست.داده <- y[-چپ] چپ.فاصله <- dist(rbind(left.data[درمان شده]، left.data[-درمان شده])) right.distance <- dist(rbind(راست.داده[درمان شده]، راست.داده[-درمان شده])) درمان شده.frac <- طول(چپ.داده[درمان شده])/طول(چپ) عادی سازی <- gini(c(treated.frac، 1-treated.frac)) * چپ. فاصله + درمان شده right.distance)/normalization } list(goodness = goodness, direction=rep(1, length(x) - 1)) } | درخت تصمیم با استفاده از تابع تقسیم تعریف شده توسط کاربر در rpart: وقتی درخت اجرا می شود، هیچ تقسیمی بر نمی گردد |
22197 | آیا مقایسه یک نمونه کوچک با یک نمونه بزرگ (که از چند نمونه کوچک تشکیل شده است) زمانی که هر دو نمونه از یک جامعه هستند معتبر (قابل اعتماد و غیره) است؟ 3 شرکت وجود دارد. هر شرکتی در ساخت یک محصول خاص تخصص دارد، از این رو به این ترتیب طبقه بندی می شود. شرکت A داروهای سرماخوردگی را تولید می کند، شرکت B داروهای آرتریت را تولید می کند و شرکت C داروهای سوزش سر دل را تولید می کند. عنصر مشترکی که این سه شرکت را به هم مرتبط می کند این است که همه آنها تولید کننده دارو هستند. اکنون شرکت A و C فقط داروهای ژنریک و شرکت B فقط داروهای مارک تولید می کنند. من یک نمونه از 80 کارگر از هر شرکت دارم و میخواهم میزان رضایت آنها از تعادل کار و زندگی را بررسی کنم. من از تجزیه و تحلیل همبستگی و غیره استفاده می کنم. من شرکت A را با B و C مقایسه می کنم اما همچنین می خواهم شرکت A و C را با B مقایسه کنم. (شرکت A و C با هم گروه بندی می شوند زیرا آنها ارائه دهندگان داروهای عمومی هستند). آیا مقایسه یک نمونه 80 نفری (شرکت B) با یک نمونه 160 نفری (شرکت A و C) دلیلی برای نگرانی آماری است؟ | مقایسه نمونه های کوچک و بزرگ از یک جامعه هدف |
104579 | اول از همه، من میدانم که دادههای کافی برای انجام رگرسیون با این تعداد پارامتر ندارم، فعلاً این را نادیده میگیرم - من فقط به این علاقه دارم که چرا با یک مدل خطا میگیرم، نه با مدل دیگر: من سعی کنید رگرسیون را به صورت زیر انجام دهید: glm(y~(x1+x2+x3+...x8)^2، family=Gamma(link=identity)، data=data) و دریافت می کنم: Error: هیچ مجموعه معتبری از ضرایب یافت نشد: لطفاً مقادیر شروعی را که سعی میکنم انجام دهم را وارد کنید: glm(y~(x1+x2+x3+...x8)^3، خانواده=گاما(لینک=هویت)، داده=داده ) و دریافت می کنم: پیام اخطار: glm.fit: الگوریتم همگرا نشد اما هیچ خطایی وجود نداشت، همانطور که متوجه شدم اولین خطا شکایت است که من داده کافی برای مطابقت با مدل را ندارم، بنابراین ضرایب شروع مورد نیاز است. چرا وقتی سعی میکنم از پیشبینیکنندههای کمتری استفاده کنم، این خطا را دریافت میکنم، و در هنگام استفاده بیشتر از آن استفاده نمیکنم؟ | رگرسیون خطی گاما، خطاهای با اندرکنش دو عاملی. هیچ کدام با سه عامل |
100853 | من باید برخی انتگرال ها را با استفاده از MCMC با الگوریتم Metropolis Random-Walk محاسبه کنم. برای تصمیم گیری مقداری که به عنوان انتگرال می پذیرم، 5 شبیه سازی MCMC با اندازه 2000 را محاسبه می کنم، اما از 500 مقدار اولیه به دست آمده (مرحله Burn-in) استفاده نمی کنم. بنابراین، شک من این است: $$ SE = \sqrt{\frac{1}{N} \sum_{i=1}^N (g(X_i) - \bar{\mu}_N)^2}$$ کجا $\bar{\mu}_N$ تخمینی از $E(g(X))$ و $x_i \sim f$ برای برخی توزیعها با pdf $f$ است 1) آیا باید از همان نمونه تولید شده استفاده کنم $X=(x_1, ... , x_N)$ که من برای محاسبه $\bar{\mu}_N$ برای محاسبه خطای استاندارد استفاده می کنم؟ 2) آیا برای محاسبه $SE$ باید سوختن نمونه را در نظر بگیرم؟ یعنی از N=1500$ استفاده کنم یا 2000$؟ 3) من می دانم که انتگرال من چیزی بین 0.98 و 0.97 است و در یک شبیه سازی موارد زیر را به دست آوردم: Integral:0.985333333333 $SE$:0.120214622886 آیا این $SE$ صحیح است؟ یعنی باید کوچیکتر باشه؟ پیشاپیش متشکرم | خطای استاندارد MC برای الگوریتم پیاده روی تصادفی متروپلیس |
104576 | در طول مطالعه آمار در درس روانشناسی من، باید به خودمان یاد می دادیم که چگونه از مدل های خطی تعمیم یافته در SPSS (فقط دانش پایه) استفاده کنیم. برای امتحان ممکن است از مدلهای خطی تعمیمیافته نیز استفاده کنیم و میخواهم آن را امتحان کنم، اما دو مشکل دارم: 1. با توجه به توزیع متغیر وابسته، یک توزیع نرمال بهترین تناسب را با دادههای ما دارد. یکی از دانشجویان گفت که این منطقی نیست، زیرا متغیر وابسته ما زمان لازم برای انجام یک کار است، بنابراین نمی تواند مقادیر منفی داشته باشد. مدرس ما روی اسلایدهای خود نوشت که یک متغیر برای استفاده از توزیع نرمال باید بتواند از $-∞$ تا $+∞$ متغیر باشد. در پست دیگری در این طرفها، خواندم که توزیع نرمال یک متغیر پیشبینیشده ایجاد میکند که متناسب با این ویژگیها باشد، بنابراین متغیر وابسته اصلی نیازی به برآورده کردن این ویژگیها ندارد. آیا این درست است؟ 2. از آنجایی که من نمی توانم از توزیع نرمال استفاده کنم، توزیع گاما بهترین جا را دارد. طبق مستندات SPSS، تابع پیوند متعارف Power(-1) است. من کاملاً متوجه نمی شوم که چه چیزی را باید در کادر Power در SPSS قرار دهم. اگر میخواهم با توان 0.95 کار کنم، باید 0.05 را پر کنم (بنابراین Power(-1) به معنای 1-0.95 است) یا باید -1 را به عنوان مقدار توان پر کنم ( که برای من کاملاً غیرعادی به نظر می رسد). | مدل خطی تعمیم یافته: تابع پیوند قدرت(-1) |
55695 | تصور کنید که ما یک سکه بالقوه بایاس و یک قالب شش وجهی بالقوه داریم و می خواهیم بدانیم کدام یک از دیگری مغرضانه تر است. اولا، آیا این یک هدف معقول است؟ آیا می تواند منطقی باشد که مثلاً بگوییم سکه بیشتر از قالب مغرضانه است؟ ثانیاً، با فرض معقول بودن هدف، آیا میتوانیم از واگرایی KL از توزیع یکنواخت طبیعی (بی طرفانه) به توزیع مشاهده شده به عنوان معیاری برای تعصب در چنین تنظیمی استفاده کنیم؟ اگر نه، به جای آن از چه چیزی استفاده کنیم؟ در نهایت، اگر استفاده از واگرایی KL معقول باشد، آیا میتوان از میزان تفاوت بین واگراییها معنایی به دست آورد؟ به عنوان مثال، اگر سکه 2 و قالب با 1 واگرا شود، آیا می توانیم بگوییم که سکه دو برابر تر از قالب است؟ سکه باید با توزیع یکنواخت بر روی دو نتیجه مقایسه شود در حالی که قالب باید با توزیع یکنواخت بر روی شش نتیجه مقایسه شود. واضح است، اگر هر دو متغیر تصادفی گسسته بیش از تعداد یکسانی از نتایج ممکن باشند، مقایسه مستقیم واگراییهای KL معقول خواهد بود. اما آیا زمانی که تعداد نتایج متفاوت است، این موضوع صادق است؟ | مقایسه واگرایی از توزیع های یکنواخت با تکیه گاه های متفاوت (گسسته) |
104572 | من سعی می کنم چندین MLE را در یک مجموعه داده کوچک قرار دهم. من موفق شده ام این کار را برای همه مدل های بالقوه خود انجام دهم به جز این مورد آخر. این آخری در واقع همان مدلی است که انتظار داشتم بهترین مدل باشد، زیرا زمانی که تمام کار را با استفاده از GLS انجام دادم بهترین مدل بود. برای شروع، این داده ها است: dat$rate <- c(8,1,17,34,8,30,8,15,17,4,29,12,29,12,12,18,24,20 ,10,2,4) dat$pred <- c(2,1,2,2,1,3,1,3,2,1,1,2,3,2,4,4,4,4,3,1,2) dat$prey <- c (10,10,20,60,20,40,30,20,30,40,50,40,60,50,20,30,40,50,20,10,10) داده $ جرم <- c(6.885000,5.942000,7.199000,11.285500,7.263000,6.571667, 4.583000,4.949000,6.220000,2.730000,13.330000,6.074000,7.053667,6.626000, 3.291500,6.711750,4.530750,7.076750,6.644333,2.861000,3.793500) در اینجا تابعی است که شامل معادله است: CM = تابع(N0,a,h,tt,P,m,S, al) a/(1+m*(P-1)+a*h*m*(P-1)*N0) h=h*S^al N0 - lambertW(a*h*N0*exp(-a*( P*tt-h*N0)))/(a*h) } و در اینجا مدل: model = function(eaten, first, attack, handling, time.exp, pred.no, interf, mass, allometric) { if (حمله < 0 || مدیریت < 0) return(NA) prop.exp = CM(N0=initial, a = حمله, h = handling, tt = time.exp, P = pred.no, m=interf, S= جرم، al= آلومتریک)/ احتمالات اولیه = dbinom( خورده شده، prob = prop.exp، اندازه = اولیه، log = TRUE) negLL = -sum(relihoods) return(negLL) } و در نهایت کد متناسب با مدل cm3 = mle2 (model, start = list (attack = 0.02, handling = 0.02, interf=0.02, allometric = -0.2) data = لیست (اولیه = داده$ طعمه، خورده = نرخ داده، pred.no = dat$pred، جرم = داده$ جرم)، ثابت = list(time.exp = 1) ) من مقادیر زیادی از مقادیر شروع را امتحان کرده ام و همه آنها با پیام های خطایی مانند: مقدار تفاوت محدود غیر محدود [2] یا مقدار اولیه در 'vmmin' محدود نیست من حدس می زنم که حمله یا handling یک مقدار نامعتبر را برمی گرداند، اما من مطمئن نیستم که چگونه این مشکل را برطرف کنم. هر گونه ایده یا پیشنهاد واقعا قدردانی می شود. پیشاپیش ممنون رابی | MLE2 (در R): من نمی توانم مقادیر شروع درست را پیدا کنم |
26247 | بر اساس نمونهای از $n$ زمان بقا، من میخواهم با استفاده از تخمینگر Kaplan-Meier، احتمال بقای $t$ را برای برخی $t$ خاص تخمین بزنم. آیا می توان این کار را در `R` انجام داد؟ لطفاً توجه داشته باشید که $t$ لزوماً زمان رویداد نیست. | تخمین احتمال بقا در R |
57696 | من پرسشنامه ای با این سوال در اختیار کاربران توزیع کرده ام که کاربران می توانند از میان آن پاسخی را انتخاب کنند س: شاخص عملکرد هزینه پروژه چه بود گزینه 1 : 0 < CPI < 0.5 گزینه 2 : 0.5 < CPI < 0.75 گزینه 3 : 0.75 < CPI < 1 گزینه 4 : 1 < CPI < 1.5 گزینه 5 : 1.5 < CPI هر یک از گزینه ها وزنی دارند که از 1 تا 5 شروع می شود. آیا این متغیر پیوسته است یا ترتیبی؟ | آیا این یک متغیر مقیاس یا ترتیبی است |
74674 | من به تازگی شروع به شرکت در کلاس تجزیه و تحلیل بقا کردم و در این سوال گیر کردم. باید نشان دهیم که وقتی هیچ مشاهدات سانسور شده ای وجود ندارد $\hat{S}(t)=\prod_t_{(i)\le t}(n_i-d_i)/n_i$ برابر با تابع بقای تجربی $S_n(t) است. =\\# \\{ t_{(i)} \ge t \\}/n $ برای من کاملاً واضح به نظر می رسد بنابراین مطمئن نیستم که چگونه به این موضوع نزدیک شوم. | آماره کاپلان مایر بدون سانسور به عملکرد بقای تجربی کاهش می یابد |
100855 | من با سوال زیر دست و پنجه نرم می کنم: > اکنون تصور می شود که قیمت مسکن در پی رکود اخیر دوباره در حال افزایش است. با توجه به اینکه در سال 2008 میانگین قیمت یک خانه استاندارد 3 خوابه > 215000 یورو بود. نمونه ای از 25 خانه مشابه در سال 2013 میانگین قیمتی بیش از 275000 یورو با انحراف معیار 50000 یورو را نشان داد. برای تعیین اینکه آیا میانگین قیمت خانه ها در سال 2013 از میانگین قیمت در سال 2008 در سطح > 5 درصد بیشتر است یا خیر. فقط پاسخ بله\خیر، نمره صفر دریافت خواهد کرد. توجه: هیچ مجموعه داده ای ارائه نشده است. این یک سوال تکلیفی است که البته نمی خواهم همه آن را برای من انجام دهید!! من کمی گیج هستم زیرا نمی توانم بفهمم از چه معادله / فرمولی استفاده کنم. به عنوان مرجع، از یادداشت های اسلاید و کتاب آمار (جیمز مک کلاو، 2014) ویرایش دوازدهم استفاده می کنم. من از این فرمول استفاده می کنم: http://www.nursingplanet.com/biostatistics/inferential_statistics_t-test.html آزمون t دانشجویی محاسبه آماره t برای مقایسه میانگین ها. هر گونه راهنمایی / راهنمایی قدردانی می شود! با تشکر | T-Testing، تست کنید که آیا یک میانگین از دیگری در سطح 5٪ بیشتر است |
55692 | من یک مدل رگرسیون خطی چندگانه به شکل $$ \mathrm{log}(Y) = \beta_0 + \beta_1x_1 + \dots + \beta_4x_4 + \beta_5x_1x_2 + \dots + \beta_{10}x_3x_4 + \beta_ به دست آوردم. {11}x_1^2 + \dots + \beta_{14}x_4^2 $$ از مدل من برخی نمودارهای کانتور را به دست آورده ام که برای تفسیر فوری تر، آنها را به واحدهای اصلی تبدیل کرده ام (با استفاده از $10^{\tilde{y}}$). حال سوال من این است: آیا باید پارامترهای مدل، فواصل اطمینان خود پارامترها و فاصله پیشبینی پاسخهای جدید را نیز به عقب تبدیل کنم؟ چگونه؟ من فکر می کنم خوب است که حداقل RMSEP و RMSE را تبدیل کنیم تا برآوردی در واحدهای اصلی از میانگین خطای مرتبط با مدل در پیش بینی و برازش بدست آوریم. چگونه؟ با تشکر | تبدیل پشت یک مدل MLR |
55694 | من با استفاده از MICE با مشکل روبرو هستم، جایی که اخطار زیر را ایجاد می کند: پیام هشدار: در var(data[, j], na.rm = TRUE): NAهایی که با اجبار معرفی شده اند، به نظر می رسد که به وجود یک عدد الفبایی منحصر به فرد مربوط می شود. متغیر ID در داده ها برای مثال: require(moce) imp <- mice(nhanes,maxit=0) # no problem nhanes$id <- 1:25 imp <- mice(nhanes,exclude=id,maxit=0) # no problem nhanes $id <- LETTERS[1:25] imp <- mice(nhanes,exclude=id,maxit=0) دومی اخطار را ایجاد می کند: در var(data[, j]، na.rm = TRUE): NAهایی که با اجبار معرفی شده اند ماتریس پیش بینی کننده است > imp$pred age bmi hyp chl id سن 0 0 0 0 0 bmi 1 0 1 1 0 hyp 1 1 0 1 0 chl 1 1 1 0 0 id 0 0 0 0 0 توجه داشته باشید که در اینجا «id» برای نسبت دادن چیزی استفاده نمی شود. بنابراین عجیب به نظر می رسد که در این مورد ساده اصلاً یک هشدار ایجاد شود. حتی این همان هشدار را ایجاد می کند: pred <- imp$pred imp <- mice( data=nhanes, m = 5, maxit=5, imputationMethod = c( norm, # age norm, # bmi norm, # hyp norm, # chl ) , # id predictorMatrix = pred ) که در آن id برای منتسب شدن یا استفاده برای انتساب مشخص نشده است در ماتریس پیش بینی، و روش انتساب است، بنابراین سوالات من این است: > 1. چرا این هشدار ایجاد می شود؟ > 2. چگونه می توانم بدون حذف متغیر ID از > از این هشدار جلوگیری کنم. البته من از متغیر ID برای تعیین متغیرهای دیگر استفاده نمیکنم > - حذف آن کمی ناخوشایند است. > 3. اگر نمیتوان از آن جلوگیری کرد، آیا میتوانم با خیال راحت هشدار را نادیده بگیرم و از ماتریس پیشبینی کننده > برای درج دادههای خود استفاده کنم (پس از تنظیم ستون id روی صفر) >؟ > | هشدار: NAهای معرفی شده با اجبار در MICE با شناسه منحصر به فرد |
32140 | تلاش برای درک الگوهای یک سری زمانی، استفاده از تجزیه STL به عنوان مفهوم تمایز بین روند، فصل و بقیه منطقی است. اما تجربه من به من می گوید که هیچ الگوریتم ایستا تحت هر شرایطی به نتایج مفیدی منجر نمی شود. بنابراین سوال/های کلی من این است/این است که چه زمانی نباید تجزیه STL را اعمال کنید و اگر انجام می دهید، چه مشاهداتی در نتیجه STL ممکن است در تجربه شما نشان دهنده تجزیه معیوب/بی فایده باشد؟ همانطور که کورکورانه به تجزیه و تحلیل همبستگی دو متغیر بدون نگاهی به نمودار پراکندگی اعتماد نمی کنید، نقاط پرت b/c ممکن است منجر به یک ضریب همبستگی بالا شود که نشان دهنده یک رابطه غیر موجود است. من در این زمینه مبتدی هستم، بنابراین یک پاسخ گسترده تر عالی خواهد بود. | منع مصرف برای تجزیه STL |
104571 | من اندازه گیری هایی برای گرمایش روزانه فضا در مقابل میانگین روزانه دمای بیرون برای دو استراتژی کنترل مختلف دارم. داده ها در اینجا نشان داده شده است:  من همچنین رگرسیون خطی را انجام داده ام، به شکل: lm(Energy ~ Control * MeanOutdoorTemp) این بازده چهار ضریب: ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (Intercept) 170.8293 4.2083 40.594 < 2e-16 *** ControlMPC -30.7044 4.9025 -6.263 1.38e-07 *** MeanOutdoorTemp 6.6 -6.4-224 -6.6. 0.000413 *** ControlMPC:MeanOutdoorTemp 0.8211 1.7162 0.478 0.634709 میخواهم آزمایش کنم که آیا این دو خط رگرسیون با انرژی صفر تلاقی میکنند یا خیر. روش آماری صحیح برای انجام آن چیست؟ | چگونه می توانم آزمایش کنم که آیا دو خط رگرسیون در y = 0 تلاقی می کنند؟ |
26242 | من در حال تجزیه و تحلیل یک مجموعه بسیار بزرگ، اما نه محدود، از داده های نظرسنجی هستم. من یک سری زمانی متقاطع جنسیت (2 دسته، در صورت عدم قطعیت) با سن (در 6 دسته) جمع آوری کرده ام و می خواهم آزمایش کنم که آیا بازنمایی جمعیتی در طول زمان تغییر کرده است یا خیر. با استفاده از آزمون مجذور کای برای استقلال، میدانم که عدم رد فرضیه صفر به این معنی است که توزیع جنسیتی-سنی بین دو نقطه داده از نظر آماری نامرتبط است، و من میتوانم این را در نقاطی که میدانیم تغییر اساسی ایجاد شده است تأیید کنم (به عنوان مثال). ، افزایش در کل نظرسنجی های انجام شده). هیچ همپوشانی مورد انتظار پاسخ دهندگان در دو دوره زمانی مختلف (یک کنترل در خود فرآیند نظرسنجی) وجود ندارد. سوال من این است که از آنجایی که این یک آزمایش مکرر است (23 جفت توزیع ماه به ماه مجاور از توزیع های 24 ماهه مشاهده شده)، آیا خطای نوع II را تقویت می کنم و اگر چنین است آیا تست بهتری وجود دارد؟ | آیا آزمون chi-sq برای استقلال برای سری های زمانی طبقه بندی شده مناسب است؟ |
40342 | من دو گروه نابرابر دارم (94 و 52) و میخواهم یک آزمون U Mann-Whitney اجرا کنم تا ببینم آیا نمرات آنها در یک متغیر اندازهگیری شده متفاوت است یا خیر. من می بینم که کار با Kruskall-Wallis اشکالی ندارد، آیا همین امر در مورد Mann-Whitney صدق می کند؟ | آزمون Mann-Whitney U با حجم نمونه نابرابر |
57346 | من سعی می کنم برخی از آمارهای آزمایشی را که از نمایش AR بی نهایت مدل های معمولی ARMA استفاده می کند، دوباره ایجاد کنم. من در مورد عملکرد ARMAtoMA متوجه شدم اما نتوانستم همان عملکرد را برای نمایش های AR نیز پیدا کنم. آیا شما بسته ای را می شناسید که استخراج آنها را آسان کند؟ وقتی بسته ARMAtoMA را پیدا کردم امیدوار بودم، زیرا این امکان را برای پیادهسازی آسان در حلقههای تکراری فراهم میکند، بنابراین به نوعی میترسم که مجبور باشم این را با دست پیادهسازی کنم. راه حل فوق العاده آسان را در این پست انجمن پیدا کردید: http://www.talkstats.com/showthread.php/8578-A-question-about-ARMAtoMA شما فقط باید PHI و THETA را در ماژول ARMAtoMA تغییر دهید تا PIهای فرآیند AR بی نهایت. حدس میزنم که به درستی به این موضوع فکر نکردهام. | تبدیل مدل های ARMA به فرآیند AR بی نهایت در R |
57342 | من یک مدل رگرسیون لجستیک در R ایجاد کردهام. متغیر وابسته باینری است چه منظرهای به کلاس پوشش دیگری که با 1s و 0s نشان داده میشود یا نباشد، و متغیرهای مستقل یا پیشبین برخی از ویژگیهای مناظر مانند ارتفاع، شیب، فاصله هستند. من باید تفاوت بین متغیرهای پیش بینی را از نظر اهمیت یا تأثیر آنها بر متغیر وابسته (پوشش زمین) نشان دهم. تغییر). می خواستم بدانم آیا راهی برای رتبه بندی و ترسیم اهمیت متغیر در رگرسیون لجستیک در R وجود دارد. هر گونه کمکی بسیار قابل قدردانی است! ممنون آزاد | نحوه رتبه بندی متغیرهای پیش بینی کننده در رگرسیون لجستیک در R |
107809 | من در حال برنامه ریزی یک نظرسنجی هفت سوالی از نوع لیکرت با مقیاس 1 تا 10 هستم. سوالاتی که من در این نظرسنجی می پرسم برای ارزیابی عوامل خطر یک فرد (میزان ریسک برای یک سازمان) است. عوامل خطر مرکب هستند، به این معنی که هر چه یک فرد عوامل خطر بیشتری را نشان دهد، ریسک بیشتری را نشان می دهد. بنابراین هر چه آنها به یک پاسخ در مقیاس پاسخ امتیاز بیشتری می دهند، نشانه آن سؤال بیشتر است. به جای مقایسه آیتم های لیکرت با یکدیگر همانطور که در یک نظرسنجی استاندارد لیکرت انجام می شود، سؤالات به ازای هر پاسخگو نرمال می شوند و سپس با جامعه اندازه گیری می شوند. من قصد دارم میانگین هندسی پاسخهای هر پاسخدهنده را در نظر بگیرم (زیرا در حالی که دادهها با فاصله نامحدود ترتیبی هستند، هر پاسخدهنده فاصله خود را بین ترتیبها بر اساس پیشزمینهاش استنباط میکند، و میانه ترکیب یا پرت را در نظر نمیگیرد) و سپس توزیعی از همه پاسخ دهندگان ایجاد کنید. کاری که میخواهم انجام دهم این است که یک برش پارتو ایجاد کنم تا کمترین 20٪ امتیازات در محدوده (نه جمعیت) حذف شوند. برای انجام این کار، من 20٪ از محدوده را به کمترین پاسخ در جمعیت اضافه می کنم: ((xMax - xMin) * 0.2) + xMin = cut-off چیزی که من پیدا می کنم این است که هنگام محاسبه دم سمت راست P- مقدار توزیع تجمعی نرمال (با استفاده از داده های تست تصادفی تولید شده توسط کامپیوتر) من همیشه در حدود 0.8 هستم، معمولاً چیزی بین 0.79 و 0.82 برای P-Value. * آیا این فقط یک ناهنجاری به دلیل استفاده از یک مولد اعداد شبه تصادفی ضعیف است؟ * اگر کمترین نمره جامعه را بگیرم و 20 درصد دامنه را اضافه کنم، با پیدا کردن صدک 20 جامعه یکسان نیست، درست است؟ * آیا راه بهتری برای این کار وجود دارد؟ با تشکر جاستین | کمی کردن پتانسیل برای خشونت/جاسوسی |
100854 | من یک بردار (V1) دارم که با آن باید شباهت بردارهای دیگر (مثلا V2، V3 ...) را محاسبه کنم که ممکن است طول های متفاوتی داشته باشند. زاویه متفاوت اینجاست که عناصر داخل بردارها خود شبیه یکدیگر هستند. V1 = c(a، b، c) V2 = c(a، d، e، f، g) V3 = c(b،c f) عناصر شبیه یکدیگر هستند به عنوان مثال: a b c d e f g a 1.00 0.18 0.01 0.96 0.12 0.46 0.73 b 1.00 0.07 0.36 0.13 0.47 0.92 c 1.00 0.88 0.62 0.65 0.31 d 1.00 0.86 0.96 0.55 و 1.00 0.25 0.91 f 1.00 مشابهت 0.13 روش مشابه همبستگی مشابه با ما از شباهت بین عناصر بردارها استفاده نکنید. آیا پیشنهادی برای محاسبه شباهت بردار وجود دارد؟ من از R استفاده می کنم. | شباهت بین بردارهای طول مختلف حاوی موارد مرتبط |
27112 | چرا مقداردهی اولیه وزن با صفر خطرناک است؟ آیا مثال ساده ای وجود دارد که آن را نشان دهد؟ | خطر صفر کردن تمام وزن های اولیه در Backpropagation |
26244 | این سؤال مشابه سؤالی است که در اینجا مطرح شده است: آزمایش اهمیت پیک ها در چگالی طیفی در آن پست، Pantera می پرسد چگونه می توان آزمایش کرد که آیا یک پیک در پریودوگرام دارای سنبله ای است که به طور قابل توجهی با سنبله های ایجاد شده توسط نویز متفاوت است. سوال من این است که هنگام استفاده از تابع spec.pgram() در R، یک فاصله اطمینان محاسبه شده و به صورت یک خط آبی ترسیم می شود -- تفسیر صحیح این فاصله چیست و چگونه می توانیم مقادیر عددی آن را استخراج کنیم؟ دیدهام که پیشنهاد میشود برای یافتن پاسخی برای این سوال، باید کد تابع plot.spec() را بررسی کنیم و سپس کد تابع spec.ci() را مشاهده کنیم و چیزهایی را از آنجا بفهمیم. spec.ci <- function(spec.obj، پوشش = 0.95) { if (پوشش < 0 || پوشش >= 1) stop(احتمال پوشش خارج از محدوده [0،1)) دنباله <- (1 - پوشش ) df <- spec.obj$df upper.quantile <- 1 - tail * pchisq(df, df, bottom.tail = FALSE) low.quantile <- tail * pchisq(df, df) 1/(qchisq(c(upper.quantile, bottom.quantile), df)/df) }  من گمان می کنم که ارتفاع CI نشانه ای از دامنه است که 95٪ از داده ها کمتر از اما خط پایه برای آن چیست؟ آیا می توان خطوط افقی را محاسبه و به نمودار اضافه کرد که نشان می دهد کدام قله ها قابل توجه هستند؟ هر گونه کمکی بسیار قدردانی خواهد شد. برای زمینه، من یک زیست شناس هستم و این داده ها از تصویربرداری از رفتار ریتمیک در حشرات است. | فاصله اطمینان محاسبه شده در پریودوگرام چگالی طیفی در R چقدر است؟ |
56521 | من باید واریانس رگرسیون ($\sigma^2$) را محاسبه کنم تا هم فواصل اطمینان و هم فواصل پیشبینی را در تحلیل رگرسیون gls تخمین بزنم. برای تجزیه و تحلیل، ماتریس کوواریانس ($V$) متغیر پاسخ ($y$) از قبل شناخته شده است، و بنابراین من مستقیماً از آن به عنوان ماتریس وزنی (=$V^{-1}$) در gls استفاده میکنم. تحلیل رگرسیون واریانس رگرسیون یک مجموع وزنی از خطای باقیمانده است: $\sigma^2 = \frac{ (Y – X\beta)^T C^{-1} (Y – X\beta)}{n – p}$ My سوال/مشکل این است که چگونه می توان ماتریس وزنی $C^{-1}$ را تعیین کرد؟ $C$ را نمی توان برابر $V$ قرار داد زیرا (طبق معادله بالا) $C$ باید بدون بعد باشد در حالی که $V$ دارای واحدهای مشابه $\sigma^2$ است. بر اساس مطالعه من از ادبیات و متون موجود، به نظر می رسد که $C$ ماتریس همبستگی است و یک شکل مقیاس شده یا نرمال شده از ماتریس کوواریانس $V$ است. یعنی $V = Var(\epsilon^2) = \sigma^2 C$. اما مشکل من این است که $\sigma^2$ هنوز شناخته نشده است، و بنابراین من به راه دیگری نیاز دارم $C$ را از $V$ پیدا کنم. توابع R مانند gls() واریانس رگرسیون را محاسبه می کنند (اگر می دانستم gls() چگونه این کار را انجام می دهد، به سوال من پاسخ می داد). با این حال، من نمیتوانم از gls() در این مورد استفاده کنم زیرا من یک ماتریس کوواریانس (وزن) تعریف شده توسط کاربر را مشخص میکنم، و gls() تنها مجموعه محدودی از ساختارهای همبستگی خاص را میپذیرد. در واقع یک راه حل ممکن را می توان در این پست قبلی یافت که در آن معادله ای برای SEE (یا sigma2) برای یک رگرسیون GLS ذکر شده است: GLS calc از SEE: sqrt( sum ( ( باقیمانده از مدل خطی ^ 2 * glsWeight ) ) / sum( glsWeight ) * length( glsWeight ) / residualDegreeFreedom ) با این حال من هستم قادر به اطمینان از اعتبار این معادله نیست و نمی تواند مرجع منبع آن را بیابد. | چگونه می توان واریانس رگرسیون را برای یک مدل GLS محاسبه کرد؟ |
22191 | من برای دو سیگنال کار می کنم. یکی مجموعه داده ای با 10 تکانه با فاصله مساوی است. دیگری مجموعه داده ای است با تکانه های تصادفی با طول یکسان. ممان های مرتبه بالاتر، مانند کشیدگی، چولگی یا انحراف معیار به این دو سیگنال حساس نیستند. چه کسی می تواند به جستجوی شاخصی برای شناسایی آن کمک کند؟ | چگونه بین تکانه های دوره ای و تصادفی تشخیص دهیم؟ |
32143 | من یک رگرسیون مدل ترکیبی اجرا کردم و خروجی زیر را به دست آوردم. از آنجایی که من متغیر غلظت را تغییر شکل دادم، ضریب را به صورت زیر تفسیر کردم: میانگین غلظت هر سال 1.5 دلار کاهش می یابد. سال ها از 1993-2010 ادامه دارد. آیا می توان گفت که میانگین غلظت در طول دوره سالانه 17 دلار به میزان 26$\%$ (0.01509$\cdot 17$) کاهش یافته است؟ چرا یا چرا نه؟ چرا اکثر مردم به طور کلی اظهار میکنند که افزایش واحد $1$ در $X$ به جای استنباط تغییر در کل دوره مربوط به تغییر عدد خاصی در $Y$ است؟ baggerTrend <- lme(Log.Qconc ~ Yearf, random=(~Yearf|MineID), Bagger) جلوه های تصادفی: فرمول: ~Yearf | ساختار MineID: کلی مثبت-معین، پارامترسازی Log-Cholesky StdDev Corr (Intercept) 0.209172851 (Intr) Yearf 0.000374953 -0.478 باقیمانده 0.785367538 اثرات ثابت: Log.Qued St. خطای DF t-value pvalue Intercept 33.71122 6.3901 2762 5.275538 0 Year -0.01509 0.003193 2762 -4.724678 0 | تفسیر ضرایب مدل مختلط |
57348 | من سعی می کنم اثرات حاشیه ای (و فواصل اطمینان آنها) را برای یک متغیر تعاملی محاسبه کنم. من از Stata استفاده می کنم و داده های پانل (سری های زمانی مقطعی تلفیقی) دارم. من از دستور xtpcse استفاده می کنم. به دلایلی، نتایج محاسبهشده با استفاده از دستور «حاشیه» Stata دقیقاً همان نتیجه dy/dx را برای همه مقادیر متفاوتی که اثرات حاشیهای در آن تنظیم میشوند، ایجاد میکند. من به وضوح دارم کار اشتباهی انجام می دهم، اما نمی دانم آن چیست. هر گونه کمک قدردانی می شود. **ویرایش:** نتیجه xtpcse var1 var2 var3[نتیجه تاخیر] var4 var5 var6 var7 var8[غیر متغیر] var9 var10 زمان var4*var2 [تعامل] var1*var2 [تعامل] حاشیهها، dydx ( var1) در (var2=( -10 -5 0 5 10)) خروجی: میانگین اثرات حاشیه ای تعداد of obs = 468 Model VCE : Panel-corrected Expression : Fitted values, predict()dy/dx w.r.t. : var1 1._at : var2 = -10 2._at : var2 = -5 3._at : var2 = 0 4._at : var2 = 5 5._at : var2 = 10 ------------------------------------------------ ---------------------------- | روش دلتا | dy/dx Std. اشتباه z P>|z| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ var1 | _at | 1 | .0058414 .0019627 2.98 0.003 .0019946 .0096882 2 | .0058414 .0019627 2.98 0.003 .0019946 .0096882 3 | .0058414 .0019627 2.98 0.003 .0019946 .0096882 4 | .0058414 .0019627 2.98 0.003 .0019946 .0096882 5 | 0058414 .0019627 2.98 0.003 .0019946 .0096882 | اثرات حاشیه ای (و فاصله اطمینان) برای متغیرهای تعامل (Stata) |
112404 | بنابراین درک اساسی من این است که ممکن است در یکی از شرایط زیر قرار بگیرم. * من یک میانگین نمونه دارم و بنابراین یک واریانس نمونه را محاسبه می کنم * من یک جمعیت میانگین دارم واریانس جمعیت را محاسبه می کنم. اگرچه در یکی از کتابهایی که خواندهام، به نظر میرسد که شمارشگر فرمول واریانس از میانگین جمعیت در فرمول واریانس استفاده میکند اما آن را از مقدار نمونه کم میکند. به عنوان مثال واریانس = (xi - میانگین جمعیت)^2 نمیدانم چرا اگر معنی جمعیت را میدانستید چرا واریانس دادههایی را که برای بدست آوردن میانگین استفاده کردهاید محاسبه نمیکنید؟ چرا واریانس را فقط بر اساس یک نمونه محاسبه می کنید؟ من متوجه شدم که باید توضیحی وجود داشته باشد، اما با درک محدودی که از این موضوع دارم، مطمئن نیستم که چیست. با تشکر | پیدا کردن واریانس زمانی که میانگین جمعیت را بدانید |
79967 | آیا کسی می تواند به من بگوید که چگونه می توان بازه های اطمینان 95٪ را برای مختصات x و y راس (در مورد من اوج) یک تناسب درجه دوم بدست آورد؟ آیا راهی برای دریافت این CI ها در R وجود دارد؟ با تشکر | تخمین فاصله اطمینان 95% برای راس برازش درجه دوم |
57347 | من مشکل زیر را دارم: من 100 مورد منحصر به فرد (n) دارم و 43 (متر) از آنها را یکی یکی انتخاب می کنم (با جایگزینی). من باید برای تعداد مورد انتظار یکتا (فقط یک بار انتخاب شده، k = 1)، دو برابر (انتخاب دقیقا دو بار k = 2)، سه گانه (دقیقا k = 3)، چهار و غیره حل کنم... من توانستم پیدا کنم نتایج زیادی در مورد احتمال وجود حداقل یک دو برابر (پارادوکس تولد)، اما نه در مورد تعداد مورد انتظار جفت در جمعیت. | تعداد مورد انتظار تکراری (سه تکراری و غیره) هنگام ترسیم با جایگزینی |
26240 | سلام به همه من یه سوال دارم فرض کنید $X(t) = A \cos(t) + B \sin(t)$$ یک فرآیند ضعیف ثابت است، که در آن $A$ و $B$ متغیرهای تصادفی هستند. چرا میانگین $A$ و $B$ لزوما 0 است؟ همانطور که متوجه شدم، ایستایی ضعیف فقط مستلزم این است که $E(X) = \mathrm{constant}$. | انتظار فرآیند ضعیف ثابت |
64957 | من تجزیه و تحلیل پیوسته خود را انجام داده ام (طراحی فاکتوریل کسری) اما وقتی نوبت به اعتبارسنجی مدل می رسد، تاو کندال را برای Holdouts 0.33 نشان می دهد و معنی دار نیست. اما R پیرسون و تاو کندال بالا و قابل توجه هستند که قرار است نشان دهد که تناسب مدل من خوب است ... این نتیجه را چگونه تفسیر کنم؟ وقتی 2 تا از 4 پایه خود را حذف میکنم، تاو و معنیدار کامل کندال را نشان میدهد...اما نمیتوانم فقط 2 نگهدارنده را بیرون بیاورم تا کار کند... از کمک شما متشکرم. PS: همچنین، برای درک من، آن دستور مشترک در SPSS دقیقاً چه رگرسیون یا تحلیلی دارد؟ | تاو کندال برای هولآوتهای کم و غیر قابل توجه - ترکیبی |
2171 | من علاقه مند به یادگیری نحوه ایجاد نوع تجسم هایی هستم که در http://flowingdata.com و informationisbeautiful می بینید. ویرایش: به این معنی، تجسم هایی که به خودی خود جالب هستند - مانند گرافیک نیویورک تایمز، در مقابل چیزی سریع برای گزارش. از چه نوع ابزارهایی برای ایجاد این ابزارها استفاده می شود -- آیا بیشتر از Adobe Illustrator/Photoshop استفاده می شود؟ چه منابع خوبی (کتاب، وب سایت و غیره) برای یادگیری نحوه استفاده از این ابزارها برای تجسم داده ها به طور خاص وجود دارد؟ من میدانم که میخواهم تجسمها به چه شکلی باشند (و با اصول طراحی، به عنوان مثال، از کتابهای Tufte آشنا هستم)، اما هیچ ایدهای برای ایجاد آنها ندارم. | منابعی برای یادگیری ایجاد تجسم داده ها؟ |
104573 | من یک مجموعه داده طولی دارم که در آن متغیر پیشبینیکننده/مستقل من دوگانه است و در 4 سالگی ارزیابی شد، و نتیجه/متغیر وابسته (علائم افسردگی) در 16 سالگی ارزیابی شد. من ترجیح میدهم DV را بهطور خودسرانه دوقطعه نکنم، و ترجیح میدهم از آمارهای غیرپارامتری اجتناب کنم تا بتوانم برخی از متغیرهای کمکی را لحاظ کنم. ساده لوحانه، من فکر می کنم که می توان از یک IV دوقطبی اما DV پیوسته در رگرسیون لجستیک استفاده کرد، اگرچه من فرض می کنم که از نظر فنی از علائم افسردگی برای پیش بینی IV خود استفاده می کنم؟ آیا در ادبیات (یا تحلیل های جایگزینی که باید در نظر گرفته شود) برای این کار اولویتی وجود دارد؟ با تشکر | آیا می توانم از رگرسیون لجستیک زمانی استفاده کنم که IV من دوگانه است اما DV من پیوسته است؟ |
57693 | قضیه دوگانگی بین منطقه پذیرش آزمون و منطقه اطمینان در مورد اعتبار آنهاست (یعنی برآورده شدن سطح معنیداری اولی و سطح اطمینان دومی مجموع 1 است). برای مثال، این همان چیزی است که در استنتاج آماری Casella آمده است. می خواستم بدانم آیا نتیجه دوگانه ای در مورد بهینه بودن آنها وجود دارد؟ با بهینه: * برای فاصله اطمینان، می تواند به معنای حداقل طول فاصله باشد یا چیز دیگری. * برای منطقه پذیرش آزمایش، می تواند به این معنی باشد که قدرت آزمایش به طور یکنواخت حداکثر توان را دارد یا طول منطقه پذیرش حداقل است. با تشکر و احترام! | دوگانگی بین منطقه پذیرش آزمون و منطقه اطمینان از نظر بهینه بودن؟ |
56525 | من یک مدل با دو افکت تصادفی دارم > lmer(TotalPayoff~Type+Game+PgvnD*Asym+(1|Subject)+(1|Pairing),REML=FALSE,data=table)- >m1 هر جفت شامل 2 موضوع است و هر جفت موضوع در 2 جفت مختلف با موضوعات مختلف است. به دلایلی اثر تصادفی موضوع SD = 0 است من این را نمی فهمم؟ آیا ساختار افکتهای تصادفیام اشکالی دارد؟ > m1 مدل مخلوط خطی متناسب با حداکثر احتمال فرمول: TotalPayoff ~ نوع + بازی + PgvnD * Asym + (1 | جفت شدن) + (1 | موضوع) داده: جدول AIC BIC logLik انحراف REMLdev 1014 1038 -497.8 995.6 964 گروه تصادفی. نام واریانس Std.Dev. موضوع (Intercept) 0.000 0.0000 Pairing (Intercept) 716.102 26.7601 Residual 89.364 9.4532 تعداد obs: 113، گروه ها: موضوع، 73; جفت شدن، 61 جلوه ثابت: Estimate Std. خطای t مقدار (Intercept) 58.428 12.255 4.768 Type 7.926 2.852 2.779 Game 15.374 7.147 2.151 PgvnD -8.466 7.554 -1.1216 2.852 -1216 Asym -1.121. PgvnD:Asym 26.618 9.710 2.741 همبستگی جلوه های ثابت: (Intr) نوع بازی PgvnD Asym Type -0.335 بازی -0.835 0.009 PgvnD -0.098 -0.038 -0.01030 -0.0103 As 0.189 PgvnD: Asym 0.189 -0.267 -0.011 -0.766 -0.328 | انحراف استاندارد اثر تصادفی 0 است؟ |
79960 | برای توزیع، فرض کنید من نمرات صدک های 10، 30، 50، 70 و 90 را می دانم. محدوده و برد بین چارکی را هم می دانم. آیا می توان رتبه صدک دقیق یک نمره معین را بدست آورد؟ من از R استفاده خواهم کرد اگر این کار را آسان تر کند. به عنوان مثال ملموس تر، من اطلاعات زیر را دارم: کمترین: 5.10، بالاترین: 6.00، iqr=0.12 10% <= 5.25 30% <= 5.71 50% <= 5.84 70% <= 5.95 90% <= 5.96 فرض کنید میخوام رتبه صدک نمره 5.33 رو بدونم. من می توانم ببینم که چیزی بین 10 و 30 است. آیا راهی برای محاسبه کامل آن وجود دارد، یا شاید به نحوی بتوانم توزیع را بر اساس آن صدک ها دوباره ایجاد کنم (تخمین بزنم) و آن را به این صورت تخمین بزنم؟ | اگر نمرات صدک های استاندارد را بدانم چگونه می توانم رتبه صدک یک نمره معین را بدست بیاورم؟ |
79969 | فرض کنید من تابعی دارم که راه حل یک ODE با ضرایب متغیر است. بر اساس شبیه سازی تابع به اضافه نویز گاوسی، من از ODE مرتبه دوم برای مدل سازی داده های شبیه سازی شده استفاده می کنم. اما حتی من تخمین خوبی از تابع راه حل گرفتم، من تخمین های بسیار متفاوتی از ضرایب مختلف دارم. برای مثال، از جف کش مسئله 9، اجازه دهید $\epsilon = 0.5$، مرتبه دوم ODE $$y''+\frac{4x}{0.5+x^2}y'+\frac{2}{0.5+ x^2}y=0$$ $$y(-1)=y(1)=2/3$$ راه حل دارد $$y(x)=\frac{1}{0.5+x^2}$$ دادهها را از $y(x)=\frac{1}{0.5+x^2}+ noise$ شبیهسازی میکنم و از مدل $ استفاده میکنم $y''+b_1(t)y'+b_0(t)y = 0$$ برای تخمین $b_1(t)$ و $b_0(t)$. من حدس میزنم که $\hat{b_1}(t)$ و $\hat{b_0}(t)$ تخمین زده شده باید پارامتر واقعی را به صورت عددی تقریبی کنند، یعنی $$\hat{b_0}(t)\approx \frac{ 2}{0.5+t^2}$$$$\hat{b_1}(t)\approx \frac{4t}{0.5+t^2}$$ اما از من شبیهسازی، منحنیهای $\hat{b_1}(t)$ و $\hat{b_0}(t)$ بسیار متفاوت از منحنیهای $\frac{4x}{0.5+x^2}$ و $\ هستند. فراکس{2}{0.5+x^2}$. همچنین، همانطور که پایه (bspline،fourier، monomial) را به گسترش $b_1(t)$ و $b_0(t)$ تغییر میدهم، آنها نیز شکل بسیار متفاوتی دارند. اما بر اساس حل عددی تخمینی ODE $$y''+\hat{b_1}(t)y'+\hat{b_0}(t)y = 0$$ که در آن $\hat{b_1}(t)$ و $\hat{b_0}(t)$ بر حسب هر سیستم پایه تخمینی هستند. راه حل های عددی بسیار نزدیک به تابع واقعی $y(x)$ هستند. من نمی دانم که آیا توابع ضریب $b_1(t)$ و $b_0(t)$ در مدل ODE با توجه به مجموعه ای از داده ها قابل شناسایی هستند یا خیر. از آنجایی که این بیان را به من داد که تخمینهای مختلف $\hat{b_1}(t)$ و $\hat{b_0}(t)$ میتوانند حل عددی یکسانی را ارائه دهند که البته نزدیک به جواب واقعی است.    از شکل های بالا، می توانیم توابع ضریب تخمینی را مشاهده کنیم $\hat{b_1}(t)$ و $\hat{b_0}(t)$ دارای شکل عملکردی متفاوتی از توابع true $\frac{4x}{0.5+x^2}$ و $\frac{ هستند. 2}{0.5+x^2}$. اما جواب عددی تخمینی ODE (خط سبز) به خوبی با جواب واقعی $y(x)=\frac{1}{0.5+x^2}$ (خط آبی) مطابقت دارد، حتی اگر توابع ضریب بسیار متفاوتی داریم. هر گونه کمک قدردانی می شود! # شبیه سازی داده t = seq(-1,1,by=0.001) nn = طول(t) yt = 1/(0.5+t^2)+rnorm(nn,0,0.2) bbasis = create.bspline.basis( c(-1,1),norder=8,nbasis=30) xfd = smooth.basis(t, yt, bbasis)$fd xfdlist = list(xfd) bfdPar = fdPar(bbasis) bwtlist = list(bfdPar,bfdPar) # نتیجه تحلیل دیفرانسیل اصلی را انجام دهد = pda.fd(xfdlist, bwtlist) # توابع ضریب نمایش bwtlistout = result$bwtlist beta0.fd = bwt [1]]$fd beta1.fd = bwtlistout[[2]]$fd plot(beta0.fd,main='beta0') خطوط (t,2/(0.5+t^2),col='blue') legend('bottomright',col=c( 'سیاه'، 'آبی')، legend=c ('بتای 0 تخمینی'، 'بتای واقعی')، lty=1) خطوط plot(beta1.fd,main='beta1')(t,4*t/(0.5+t^2),col='blue') legend('bottomright',col=c('سیاه','آبی '), legend=c('بتای 1 تخمینی'، 'بتای 1 واقعی')، lty=1) # تابع vary-coef را برحسب t تعریف کنید fbeta0<-function(t)eval.fd(t,beta0.fd) fbeta1<-function(t)eval.fd(t,beta1.fd) # BVP yinit<-c(eval.fd(t[1], xfd)،NA) yend<-c(eval.fd(t[طول(t)]،xfd)،NA) tvec<-seq(t[1],t[طول(t)],0.01) col<-bvpcol(yini=yinit,yend=yend,x=tvec,func=fun2,parms=c(fbeta0,fbeta1) atol=1e-5,islin=T,nmax=3000) #plot خطوط طرح (col[,1],col[,2],col='green',type='l') خطوط خط (t,yt,col='darkgray')(xfd,col='red',lwd= 2) خطوط (col[,1],col[,2],col='green', type='l') خطوط (tvec,1/(0.5+tvec^2),col='آبی') legend('بالا سمت چپ'، col=c('سبز'،'خاکستری تیره'، 'قرمز'، 'آبی'), legend=c('حلول ODE عددی'، 'داده خام'، 'مناسب منحنی پایه'، 'درست راه حل ODE'),lty=1) | آیا برآورد ضرایب متغیر در ODE منحصر به فرد است؟ |
100857 | من یک طرح 2x2 بین سوژه ها با اندازه سلول (کمی) نابرابر دارم. از این رو من استفاده از تابع anova(lm(...)) را انتخاب کردم تا از نوع 1 SS استفاده شود: anova(lm(prob ~ utility * imagination, data = e2data)) prob DV عددی است و فایده و تخیل عواملی هستند که هر کدام دارای 2 سطح هستند. ANOVA ** هیچ اثر اصلی یا تعاملی قابل توجهی ندارد. سپس، به تجسم وسایل سلولی شامل نوارهای خطا ادامه دادم: کتابخانه(تغییر شکل) mystats <- تابع(x) round(c(M = میانگین(x)، SD = sd(x)، n = طول(x)، SE = sd(x)/sqrt(طول(x)))، 2) prob.means1 <- data.frame(cast(e2data، utility + imagination ~ ., value=prob, mystats)) mystats میانگین، انحراف معیار، تعداد مشاهدات و خطای استاندارد میانگین را محاسبه می کند. این منجر به data.frame زیر می شود که مبنای نمودار زیر است: > prob.means1 تخیل مفید M SD n SE 1 افزایش وجود ندارد 7.18 1.23 100 0.12 2 افزایش موجود 7.49 1.34 95 0.14 3 ضرر وجود ندارد 7.401 7.4 از دست دادن حاضر 7.19 1.49 95 0.15 نمودار: (Plot1 <- ggplot(prob.means1، aes(x = سودمند، y = M، گروه = تخیل، رنگ = تخیل)) + geom_point (اندازه = 3.5) + geom_line() + (geom_errorbar aes(ymax=M+SE، ymin=M-SE، width=0.05)) + scale_y_continuous(name=Probability برآورد, limits=c(6,8)) ) توجه داشته باشید که من نوارهای خطا را از M-SE تا M+SE تنظیم کردم.  **در شرط بهره (قسمت سمت چپ نمودار) نوارهای خطا با هم همپوشانی ندارند. آیا این نتیجه گیری می کند که تفاوت بین این دو سلول قابل توجه است؟ چگونه می توانم این مقایسه post-hoc را به طور مناسب اجرا کنم (بین موضوع، اندازه نمونه نابرابر)؟** «Tukey.HSD()» را امتحان کردم اما روی یک شی «lm» کار نمی کند. همچنین، من سعی کردم از pairwise.t.test استفاده کنم اما نتوانستم بفهمم که چگونه از آن با بیش از 1 فاکتور استفاده کنم. | R - مقایسات پس از آن در اندازه های نمونه نابرابر 2x2 ANOVA |
3260 | من چند مجموعه داده (5-6) دارم که هر کدام تابعی از زمان هستند، با فاصله زمانی بین مجموعه داده ها یکسان است. این مجموعه دادهها همه آماری از دیدگاههای مختلف یک چیزی (پارتیشنهای یک نمودار) هستند، و من سعی میکنم نقاطی را در زمان پیدا کنم که تغییرات جالبی را در مجموعه دادههای مختلف نشان دهد. معمولاً این ویژگیهای جالب حداقلهای محلی هستند، اما ممکن است همیشه اینطور نباشد. به عنوان مثال، مجموعه داده 1. واریانس یک معیار است و در زمان 0.4 دارای حداقل محلی است. مجموعه داده 2. تعداد ماکزیمم ها است و حداقل محلی نیز 0.4 است. مشکل در واقعیت این است که گاهی اوقات یک مینیمم در همه مجموعه دادهها و گاهی فقط در یک یا چند مجموعه داده نشان داده میشود. بنابراین هدف من اساساً ترکیب اطلاعات از همه مجموعه دادهها برای افزایش اطمینان من است که حداقل محلی در یک زمان خاص، نکته جالب و قابل توجهی است. یک روش ساده فقط این است که تعداد مجموعه داده هایی را که در آن زمان حداقل محلی دارند، بشماریم و از مقدار آستانه ای استفاده کنیم، که بالاتر از آن، حداقل را قابل توجه تعریف می کنم. اما من نمیدانم که آیا راههای هوشمندانهتری وجود دارد، یعنی راههایی که میتوانند ببینند کدام مجموعه داده قویتر و قابل اعتمادتر هستند و غیره. | ترکیب بسیاری از مجموعه داده ها برای افزایش اطمینان |
84034 | با استفاده از یک بررسی گسترده و مقطعی از قربانیان خشونت، من علاقه مند به آزمایش تأثیر مسمومیت با الکل (بیایید آن را «درمان» بنامیم) بر رتبه ذهنی قربانیان از جدیت حمله (نتیجه) هستم. من تجزیه و تحلیل رگرسیون را برای کشف عوامل مرتبط با درجه بندی جدی انجام داده ام و همانطور که ممکن است انتظار داشته باشید، میزان آسیب انجام شده قوی ترین پیش بینی کننده جدیت رتبه بندی شده است (در ادامه در این مورد بیشتر توضیح خواهیم داد). قربانیانی که در زمان حمله مست بودند تا حدودی ویژگیهای متفاوتی با سایر قربانیان داشتند (به عنوان مثال مردان بیشتر، تحصیلات کمتر...) و اینکه حمله به قربانیان مست منجر به آسیب جدیتر از حمله به قربانیان هوشیار میشد، بنابراین فکر کردم. ممکن است ایده خوبی باشد که قربانیان را فقط با مست در زمان حمله به عنوان یک عامل متمایز (درمان) مطابقت دهیم تا بتوانم مقایسه کنم. (مست) سیب با (هوش) سیب. من تطبیق امتیاز گرایش را با استفاده از 14 متغیر نظری مرتبط برای شناسایی یک نمونه مشابه از قربانیان هوشیار و مست اجرا کردم. مشکل من این است که، چون عوامل مخدوشکننده مهمی مانند آسیب پس از «تخصیص درمان» اتفاق افتاد (مست در زمان حمله - گروه مداخله؛ هوشیار در زمان حمله - گروه کنترل)، من منطقاً نمیتوانم آنها را در مدل تطبیق خود بگنجانم. بنابراین، وقتی گروهها را مقایسه میکنم، تأثیر سوگیری آسیب بر نتیجه همچنان باقی میماند. تا آنجا که من می بینم، من با سه گزینه روبرو هستم، اما احتمالاً چیزی را از دست داده ام: 1. عوامل پس از درمان از نظر آماری مرتبط، اما منطقی مشکل ساز را در تطابق بگنجانید (از نظر منطقی مشکل ساز هستند زیرا اتفاق افتاده اند. پس از ارائه درمان اما احتمالاً بر نتیجه تأثیر می گذارد). 2. کنترل امتیاز تمایل و عوامل پس از درمان در رگرسیون نتیجه مسمومیت قربانی فقط با استفاده از نمونه همسان. 3. با ارزیابی درمان در مجموعه داده های مقطعی دست از سرگردانی بردارید و فقط به رگرسیون پایبند باشید. پیشاپیش ممنون | حسابداری سوگیری پس از مداخله به دنبال تطبیق تمایل |
26249 | من در حال خواندن اسلایدهای انجام تجزیه و تحلیل داده های بیزی جان کروشکه هستم، اما در واقع یک سوال در مورد تفسیر او از آزمون های t و/یا کل چارچوب آزمون معناداری فرضیه صفر دارم. او استدلال میکند که مقادیر p بد تعریف شدهاند، زیرا به نیات محقق بستگی دارند. به طور خاص، او یک مثال (صفحات 3-6) از دو آزمایشگاه می آورد که مجموعه داده های یکسانی را با مقایسه دو درمان جمع آوری می کند. یک آزمایشگاه متعهد به جمعآوری دادهها از 12 آزمودنی (6 نفر در هر شرایط) است، در حالی که آزمایشگاه دیگر دادهها را برای مدت زمان ثابتی جمعآوری میکند که اتفاقاً 12 آزمودنی را نیز به دست میآورد. با توجه به اسلایدها، مقدار بحرانی $t$ برای $p<0.05$ بین این دو طرح جمعآوری داده متفاوت است: $t_{\textrm{crit}}=2.33$ برای اولی، اما $t_{\textrm{crit }}=2.45$ برای دومی! یک پست وبلاگ - که اکنون نمی توانم آن را پیدا کنم - نشان می دهد که سناریوی مدت زمان ثابت دارای درجات آزادی بیشتری است زیرا آنها می توانستند داده ها را از 11، 13 یا هر تعداد سوژه دیگر جمع آوری کنند، در حالی که سناریوی ثابت N، توسط تعریف، دارای $N=12$ است. لطفاً کسی می تواند برای من توضیح دهد: * چرا مقدار بحرانی بین این شرایط متفاوت است؟ * (با فرض اینکه یک مسئله باشد) چگونه می توان در مورد تصحیح/مقایسه اثرات معیارهای توقف مختلف اقدام کرد؟ من می دانم که تنظیم معیارهای توقف بر اساس اهمیت (به عنوان مثال، نمونه تا $p<0.05$) می تواند احتمال خطای نوع I را افزایش دهد، اما به نظر نمی رسد که در اینجا ادامه داشته باشد، زیرا هیچ یک از قوانین توقف به این بستگی ندارد. نتیجه تجزیه و تحلیل | نیت محقق و آستانه/p-مقدار |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.