_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
14504
## سوال من یک بردار داده دارم و می خواهم آزمایش کنم که آیا از توزیع نرمال با میانگین صفر و واریانس مجهول آمده است یا خیر. آیا می دانید که آیا تابع matlab یا اسکریپت ساده برای این کار وجود دارد؟ اگر چیز خاصی از matlab نمی دانید، پس نام و مرجع برای تست خاص خوب است و من فقط آن را خودم پیاده می کنم. همچنین، اگر آزمون خاص بتواند سطح اطمینان را به جای پاسخ مثبت به خیر در یک سطح اطمینان معین بازگرداند، این یک مزیت خواهد بود، اما ضروری نیست. * * * ## آنچه قبلاً می دانم اگر بخواهم آزمایش کنم که آیا داده های من از یک توزیع نرمال با میانگین 0 و واریانس 1 هستند، می توانم از آزمون کولموگروف-اسمیرنوف استفاده کنم. اگر بخواهم داده‌های من از یک توزیع نرمال با میانگین ناشناخته و واریانس باشد، می‌توانم از آزمون Lilliefors یا آزمون Jarque-Bera استفاده کنم. با این حال، من یک میانگین ثابت (= 0) و واریانس ناشناخته می خواهم. ## رویکرد ساده لوحانه رویکرد ساده این است که داده‌های من $D$ را می‌گیرد، واریانس را در حدود صفر $\sigma^2_0$ محاسبه می‌کند و سپس داده‌های من را با این کار دوباره عادی می‌کند تا مجموعه داده‌ای $D'$ به دست آید. سپس من می توانم تست کولموگروف-اسمیرنوف را در این مورد انجام دهم. با این حال، مشخص نیست که چگونه می توان این را توجیه کرد، به خصوص که تست های KS به طور خاص در مورد آزمایش در برابر توزیع هایی با پارامترهای تخمین زده شده از داده های یکسان هشدار می دهند (عادی کردن مجدد $D$ به $D'$ مانند آزمایش در برابر توزیع عادی خواهد بود. با میانگین صفر و واریانس $\sigma^2_0$). آیا این رویکرد ساده لوحانه موجه است؟
آزمایش اینکه آیا داده ها از توزیع نرمال با میانگین 0 و واریانس ناشناخته در Matlab می آیند
86739
من به دنبال شهودی برای الگوریتم پرسپترون با قانون افست بودم، چرا قانون به روز رسانی به شرح زیر است: _ چرخه تمام نقاط تا همگرایی _ $\text{if }\, y^{(t)} \neq \theta^{T }x^{(t)} + \theta_0\,\\{\\\ \quad \theta^{(k+1)} = \theta^{k} + y^{(t)}x^{(t)}\\\ \quad\theta^{(k+1)}_0 = \theta^{k}_0 + y^{(t)}\\\ \ \}$ وقتی افست صفر است، من فکر می کنم قانون به روز رسانی کاملاً بصری است. با این حال، بدون آن، فقط اضافه کردن 1 یا -1 به افست کمی عجیب به نظر می رسد. تنها دلیلی که می‌توانستم برای توضیح آن بیاورم، موارد زیر بود، اما فکر نمی‌کنم واقعاً توضیح آن بصری باشد و به دنبال توضیح متفاوتی بودم. پاسخ غیر شهودی من: وقتی پرسپترون اشتباه می‌کند، آن‌وقت: $y^{(t)}(\theta^{T}x + \theta_0) \leq 0$ اما می‌توانیم قسمت بالای آن را دوباره بنویسیم: $ <\theta, \theta_0> \cdot <x^{(t)}, 1> = \theta^{T}x + \theta_0$ و اکنون اگر فقط به قانون اصلی پرسپترون متوسل شویم و بردار ویژگی را طوری تغییر دهید که در انتها ضمیمه شود و حالت عادی اکنون شامل $\theta_0$ می شود، اکنون به روز رسانی به صورت زیر رخ می دهد: $ \theta'^{(k+1)} = \theta'^{(k )} + y^{(t)}x'^{(t)}$ که عبارت است از: $<\theta, \theta_0> \+ y^{(t)}<x^{(t)}، 1> = <\ تتا + y^{(t)}x^{(t)}, \theta_0+y^{(t)}>$ فکر می‌کنم این ممکن است درست باشد، اما حتی اگر اینطور باشد، من واقعاً فکر نمی‌کردم بصری باشد یا بدیهی و می پرسید آیا کسی استدلال متفاوتی دارد؟ با تشکر PS: با خیال راحت الگوریتم من را ویرایش کنید تا تورفتگی و فاصله داشته باشد، من نمی توانم بدون از دست دادن لاتکس آن را دارای تورفتگی کنم:(
شهود پشت الگوریتم پرسپترون با افست
43217
_(نکته: این یک سوال مدرسه ای است - من اجرای روش های تحلیل عاملی خود را مرور می کنم؛ من به دنبال تقریب های خوبی برای یک نظرسنجی واقعی/داده های واقعی یا موارد مشابه نیستم.)_ روش های مختلفی برای تخمین وجود دارد. واریانس های فردی برای آیتم های یک ماتریس کوواریانس $C$ با ردیف ها و ستون های $m$. من روش استفاده از $D$ را می شناسم، متقابل مورب معکوس $C$. خوب، اگر من به سادگی آن واریانس را از قطر ماتریس کوواریانس حذف کنم، به هیوود-مورد/در قطعیت منفی ماتریس باقیمانده منجر خواهد شد ($C - D$ مطمئناً قطعی منفی است). اما من می توانم به طور مکرر تعیین کنم که بزرگترین قسمت ممکن در $D \cdot 1/r$ حذف شود که همچنان کوواریانس $C - D/r$ مثبت نیمه معین نگه می دارد. سپس مجموع معینی از واریانس های آن مورد را به دست می دهد ($s_1=sum(D/r)$). روش دیگر این است که کمترین محور اصلی را بدست آورید، مقدار ویژه $\lambda _m $ را بگیرید، سپس سایر محورها را به همان طول $B_k = A_k \cdot \lambda_m / \lambda_k $ و در مورب $ B نرم‌افزار کنید. \cdot B^T$ ما واریانس های (برابر) مورد خاص را دریافت می کنیم. توجه داشته باشید که دوباره $ C - B \cdot B^T $ رتبه را کاهش داده است، و بنابراین همه واریانس های فردی حذف می شود - با این حال، مجموع همه واریانس های مورد خاص $s_2$ معمولاً بسیار کوچکتر از $s_1$ است. پس از آن دو راه‌حل مختلف، که قبلاً منجر به حذف مقادیر متفاوتی از واریانس کلی آیتم‌ها می‌شد، روش‌های متفاوت دیگری را آزمایش کردم و یکی $s_3$ را می‌دهد که حتی از $s_1$ بیشتر است. و اکنون با داشتن تعداد انگشت شماری روش دیگر با مقادیر مختلف $s_j$، این سوال به طور طبیعی پیش می‌آید: Q: آیا روش خاصی وجود دارد که اجازه می‌دهد حداکثر مجموع واریانس‌های فردی یک ماتریس کوواریانس را استخراج کنیم، و اگر یک روش خاص وجود دارد. روش، چگونه تعریف می شود؟ * * * برای اینکه متوجه شوید که تفاوت‌های بین روش‌ها به سادگی قابل چشم پوشی نیستند، یک مثال با مقداری ماتریس آزمون-کوواریانس اضافه می‌کنم. بررسی اجمالی، مقایسه 4 روش: ![شرح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/MmgKu.png) جزئیات 1: ![شرح تصویر را اینجا وارد کنید](http://i.stack. imgur.com/kldJ9.png) جزئیات 2: من متعجبم که شکل نزدیک شدن به ماکزیمم چنین سنبله ای دارد - من انتظار دارم بالای یک صاف normal-curve در اینجا: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/zKLp8.png)
برآورد واریانس خاص برای اقلام در تحلیل عاملی - چگونه می توان به حداکثر نظری دست یافت؟
40427
آیا گفتن اینکه اعداد تصادفی مستقل هستند معادل این است که بگوییم اعداد تصادفی در شبیه سازی همبستگی خودکار دارند. من از روش همبستگی خودکار در شبیه سازی استفاده می کنم.
همبستگی خودکار اعداد تصادفی
40793
من یک مدل Elastic Net دارم که تعدادی متغیر از X را برای پیش‌بینی Y انتخاب می‌کند. فرض برای Elastic Net این است که X استاندارد شده است (من از Z-Scores استفاده می‌کنم) و Y در مرکز صفر (I') است. m با استفاده از Y-mean(Y)). بنابراین، می‌پرسم اگر از X و Y استاندارد شده استفاده کنم (یعنی Z-score برای X و Y) مدل Elastic Net من متفاوت عمل خواهد کرد؟
استفاده از Y استاندارد در شبکه الاستیک
69970
من سعی می کنم همبستگی خطی بین متغیرهای پیوسته را ارزیابی کنم (مقدار درصد محاسبه شده از داده های EEG و ناحیه یک ناحیه آناتومیکی مغز). من الان نمونه 18 دارم. با توجه به آنچه که من درک می کنم، باید مطمئن شوم که متغیرهای x و y با هم در توزیع مشترکی که به طور معمول توزیع می شود، تغییر می کنند. یا حداقل اینکه توزیع هر یک از این متغیرها نرمال است. سوال من این است که برای اطمینان از برآورده شدن مفروضات مورد نیاز برای نتیجه گیری معتبر در مورد ضریب همبستگی چه کاری باید انجام دهم؟ من در مورد ارزیابی نرمال بودن توزیع با آزمون Shapiro-Wilk برای هر متغیر فکر می کنم و سپس به سادگی پیرسون R را محاسبه می کنم. آیا معتبر است؟ آیا بهتر است یک نمودار احتمال عادی رسم کنیم؟ با تشکر
چه زمانی می توانم رگرسیون خطی را روی یک نمونه کوچک انجام دهم؟
86398
من یک binom.test را روی مجموعه داده UCBAdmissions (به همراه R) اجرا می کنم و در یک پیام خطا گیر کرده ام. **درباره داده ها:** > جدول str(UCBAdmissions) [1:2, 1:2, 1:6] 512 313 89 19 353 207 17 8 120 205 ... - attr(*, dimnames)= لیست 3 ..$ Admit : chr [1:2] Admitted رد شده ..$ جنسیت: chr [1:2] مذکر مونث ..$ بخش : chr [1:6] A B C D ... *تعداد مونث : 1835 *تعداد پذیرفته شدگان مونث: 557 *تعداد مرد: 2691 *تعداد پذیرفته شدگان مرد: 1198 **من سعی دارم به این سوال پاسخ دهم:** به نظر شما تبعیض جنسیتی وجود داشت؟ **این یک توزیع برنولی است، بنابراین من از binom.test استفاده می کنم، اما یک پیام خطایی دریافت می کنم که نمی توانم آن را معنی کنم:** no.w <- sum(UCBAdmissions[1,2,]) no.acc .w <- sum(UCBAdmissions[1,2,]) binom.test(no.acc.w,no.w, p = 0.304, c=دو طرفه، p=.95) خطا در binom.test (no.acc.w، no.w، p = 0.304، c = دو طرفه، p = 0.95) : آرگومان رسمی p با چندین آرگومان واقعی از قبل تطبیق داده شده است ، از اینکه در این مورد سوراخ کردید و به من در جهت درست اشاره کردید متشکرم. جن
خطای Binom.test در R: آگومان رسمی p مطابق با چندین آرگومان واقعی
60186
از همه آمار توسط Wasserman: > **آزمایش تناسب خوب** دارای محدودیت های جدی است. اگر $H_0$ > را رد کنید، نتیجه می گیریم که نباید از مدل استفاده کنیم. اما اگر $H_0$ > را رد نکنیم، نمی‌توانیم نتیجه بگیریم که مدل صحیح است. ممکن است فقط به این دلیل که تست قدرت کافی نداشت، در رد کردن > شکست خورده باشیم. به همین دلیل است که بهتر است در صورت امکان از **روش های ناپارامتریک** به جای اتکا به فرضیات پارامتریک استفاده کنید. سوالات من این است: 1. آیا آزمون های برازش پارامتری هستند یا ناپارامتریک؟ 2. چرا اگر $H_0$ را رد نکنیم، نمی توانیم نتیجه بگیریم که مدل صحیح است؟ اگر به این دلیل است که «ممکن است صرفاً به این دلیل که آزمون قدرت کافی نداشت در رد کردن شکست خورده باشیم»، چرا «بهتر است تا حد امکان از روش‌های ناپارامتریک به جای تکیه بر مفروضات پارامتریک استفاده کنیم»؟ آیا همین دلیل و نتیجه در مورد روش های ناپارامتریک صدق نمی کند؟ 3. آیا درست است که «آزمایش خوب بودن تناسب» در اینجا به معنای آزمایش است در صورتی که توزیع نمونه یک توزیع خاص باشد؟ آیا همان نتیجه‌گیری «اگر $H_0$ را رد نکنیم، نمی‌توانیم نتیجه بگیریم که مدل صحیح است» برای آزمایش اگر توزیع یک نمونه و توزیع نمونه دیگر یکسان باشد، مانند آزمون z برای دو نمونه که معمولاً توزیع شده‌اند، اعمال می‌شود. گروه های نمونه و آزمون دو نمونه ای کولموگروف- اسمیرنوف؟ با تشکر و احترام!
چرا رد نول در آزمون های برازش به معنای عدم پذیرش نیست؟
100509
من تابعی برای انجام ANOVA یک طرفه در R دارم: cond<-gl(4,5,20,label=c(a,b,c,d)) aof<-function( x){ m<-data.frame(cond,x); anova(aov(x~cond,m))} anova.results<-apply(x,1,aof) من از آن برای انجام ANOVA (تست کردن چهار شرط، هر کدام با 5 نمونه) روی چند صد ردیف از `x` استفاده می کنم ( ژن). با این حال، من باید برخی از نمونه‌ها را رها کنم تا دو مورد از شرایط من دارای 5 نمونه و دو مورد دارای 4 نمونه باشند. هر کمکی بسیار قدردانی می شود! ویرایش برای شفاف‌سازی: من از R استفاده می‌کنم، اما بسته خاصی ندارم، فقط از بسته استاندارد «stats». از آنچه من متوجه شدم، تابع 'gl' الگوی سطح فاکتور را مشخص می کند. «gl(n,k,n*k, labels)» به طوری که «n» تعداد سطوح (چهار شرط، در مورد من)، «k» تعداد تکرارها (5 برای تجزیه و تحلیل اصلی من) است، و n*k تعداد کل مشاهدات است. x ماتریسی با 20 ستون است، به طوری که پنج نمونه برای شرط a ابتدا، سپس شرط b و غیره است. سطرها برای هر نمونه مقادیر دارند و تابع anova برای هر سطر انجام می شود. به صورت جداگانه من سعی کرده‌ام «k» را به «c(5،4،4،5)» برای اندازه‌های نمونه نابرابر تغییر دهم، اما R می‌گوید این مقدار «زمان‌های» نامعتبر است. بنابراین، من سعی می کنم راه دیگری برای کار مجدد این تابع، یا نوشتن یک تابع ANOVA دیگر پیدا کنم.
ANOVA یک طرفه با حجم نمونه نابرابر
43216
قبل از ANCOVA واقعی من می خواهم آزمایش کنم که آیا تعامل قابل توجهی بین IV و CV وجود دارد زیرا این یک فرض برای ANCOVA است. من 3 راه مختلف در R برای انجام ANCOVA پیدا کردم. با این حال، نتیجه برای یک راه حل با دو راه حل دیگر متفاوت است و من نمی دانم چرا. این قطعه کد کاری من است: داده کتابخانه (شبکه) <- data.frame(group = c(rep(CTRL, 10)، rep(P، 10))، پاسخ = c(10،11،14 ,16,17,17,19,20,21,22, 10،11،11،11،12،13،14،14،15،16)، سن = c(40،41،45،43،50،51،55،57،60،62، 30،32،34 ,35,40,41,42,44,43,46)) xyplot (پاسخ ~ سن، داده = داده، گروه=گروه، نوع=c(p،r)) # 1. ANCOVA anova(lm(پاسخ ~ گروه + سن + گروه: سن، داده = داده ها)) # 2. خلاصه ANCOVA(aov(پاسخ ~ گروه + سن + گروه: سن، داده ها = داده ها)) # 3. خلاصه ANCOVA (lm(پاسخ ~ گروه + سن + گروه: سن، داده ها = داده ها)) I نمی دانم چرا دو مقدار p برای گروه و سن برای ANCOVA 1. و 2. یکسان هستند، اما برای 3. متفاوت هستند، حتی اگر تعامل p-value (گروه: سن) برای هر سه یکسان است. انجام همین کار در SPSS دقیقاً به همان مقادیر p مانند ANCOVA 3 منجر می شود. اکنون، همانطور که می توانید تصور کنید، من کاملاً مطمئن نیستم که چه چیزی درست است و چه چیزی اشتباه است یا واقعاً تفاوت بین آنها چیست؟ کسی میتونه کمک کنه؟
نتایج ANCOVA مختلف در R با استفاده از توابع مختلف
86738
من یک مجموعه داده با حدود 14000 مشاهده دارم. این یک مجموعه داده نمونه است نه جامعه. من یک مدل (بر اساس منطق فازی) بر اساس این داده ها برازش داده ام. من 27 مقدار واقعی (از 14000 مشاهده) و 27 مقدار بر اساس مدل دارم. آیا استفاده از آزمون کولموگروف-اسمیرنوف برای توجیه مقادیر مدل من و 27 مقدار واقعی از یک توزیع به دست آمده است معنادار است؟
آیا استفاده از آزمون کولموگروف- اسمیرنوف در نمونه فرعی کوچک معنادار است؟
40420
اکنون من دو مجموعه داده دارم که توسط دو جریان فهرست یک سایت تجارت الکترونیک ایجاد می شود. و این مجموعه داده دارای نرخ تبدیل متفاوتی است، وظیفه من این است که دو مجموعه داده را تجزیه و تحلیل کنم و بفهمم کدام عوامل منجر به نرخ تبدیل متفاوت می شوند. BTW، بیشتر داده ها داده های طبقه ای هستند. آیا می توانید به من کمک کنید که به من آموزش یا روشی را معرفی کنید که بتوانم برای انجام آنالیز به آن مراجعه کنم؟ در حال حاضر کاری که من انجام دادم فقط بر اساس شهودم است، می‌خواهم به روشی سیستماتیک برای تجزیه و تحلیل کارخانه داده‌های طبقه‌بندی پی ببرم.
چگونه برای داده های طبقه بندی شده تحلیل عاملی انجام دهیم؟
8150
من یک مطالعه آینده‌نگر بدون داده‌ای در مورد نتایج تخمینی دارم که می‌توان از آن برای بدست آوردن حجم نمونه مورد نیاز استفاده کرد. داده ها به این شکل هستند: caseID;groupID;value,نتیجه 1;1;12.3;0 2;1;15.6;1 3;2;11.3;0 4;2;13.4;1 ... آیا می توان تعیین کرد که چقدر مشاهداتی باید برای تکمیل مطالعه پس از افزودن بخش جدیدی از داده ها انجام شود؟ من به هر دو آمار توصیفی (درصد موارد دارای علامت X، _نتیجه_ در مثال) و مقایسه ای (2-4 گروه در مقایسه با متغیر پیوسته، در مثال _value_) نیاز دارم. احتمال خطای نوع I ($\alpha$) 10% و نوع II ($\beta$) - 5% (_برای مثال_) است. معنی‌داری و توان آماری - 0,9 و 0,95. بهترین راه حل این است که شبکه ای مانند این برای تصمیم گیری برای توقف یا ادامه مطالعه داشته باشید: a;b;n 5;5;30 10;5;28 5;10;29 ... جایی که a $\alpha$ است. ، b $\beta$ و n اندازه نمونه مورد نیاز برای مطالعه با این $\alpha$ و $\beta$ (احتمال خطای نوع I و نوع 2) است. داده های من به R وارد شده است. آیا می توان برخی از محاسبات را انجام داد؟ زمان اتمام مطالعه سوال این است: **در صورت امکان چگونه می توان این کار را در R انجام داد؟** از هر گونه پیشنهادی استقبال می شود.
تخمین دینامیکی حجم نمونه مورد نیاز در R
86733
یک مجموعه محدود $A$ را در نظر بگیرید. اجازه دهید فضای نمونه $A\ برابر A$ باشد. ما یک توزیع احتمال ناشناخته $f$ در این فضای نمونه داریم. اکنون این توزیع احتمال دارای خاصیت blocky است که من قصد دارم آن را توضیح دهم. اجازه دهید یک بلوک تابعی باشد (نه لزوماً توزیع احتمال) در فضای نمونه $b_{(B,C,r)}$ که در آن $B,C\زیر مجموعه A$ و $r$ هر عدد واقعی باشد (نه لزوماً در $ [0,1]$). سپس $b_{(B,C,r)}(x,y)=r$ if $(x,y)\in B\ برابر C$ و $b_{(B,C,r)}(x,y )=0$ اگر نه. سپس $f$ را می توان به صورت مجموع متناهی از آن بلوک ها (حداکثر $|A|^{2}$ از آنها در واقع) نوشت. اجازه دهید $X$ حداقل تعداد بلوک های مورد نیاز برای جمع کردن به $f$ باشد. اگر قبل از مشاهده آزمایش‌ها، می‌دانیم که $X$ از توزیع هندسی با $p$ ناشناخته به $[1,|A|^{2}]$ پیروی می‌کند، آنگاه می‌گوییم که $f$ blocky است. (توجه داشته باشید که با وجود قیاس با بازسازی یک تصویر، یک بلوک نیازی به یک مستطیل نیست: هیچ رابطه ای بین عناصر در $A$ وجود ندارد) اکنون نتیجه تعدادی آزمایش به ما داده می شود، که در آن هر آزمایش شامل انتخاب یک عنصر است. در فضای نمونه با احتمال داده شده توسط آن توزیع احتمال ناشناخته اما مسدود $f$. وظیفه این است که از هر نتیجه احتمالی $f$ برآورد شود. بنابراین الگوریتم خوبی برای آن چیست؟ متاسفم که من تازه وارد آمار هستم و به همین دلیل نتوانستم این را به روشی مناسب تر بیان کنم و حتی نمی دانم که آیا این مشکل راه حلی دارد یا نه، بنابراین ممکن است برای همه من پیش پا افتاده یا حل نشده باشد. دانستن امیدوارم بتوانم در این مورد کمک بگیرم. از هر کمکی که می توانید بکنید متشکرم.
بازسازی یک تصویر بلوک؟
106298
فرض کنید که شما به طور مشترک متغیرهای تصادفی $N$ (~100)، $\\{X_1،\ldots، X_N\\}$ را توزیع کرده‌اید و این توزیع برای شما ناشناخته است. با این حال می دانید که مجموع آنها با ساخت صفر است. با داشتن $L$ (~3000) مشاهدات $\max(X_1,\ldots,X_N)$ و $\min(X_1,\ldots,X_N)$ هر کدام، چگونه می توانید در مورد توزیع مشترک $\ اظهار نظر کنید. \{X_1،\ldots،X_N\\}$؟ من با فرض اینکه $\\{X_1,\ldots,X_N\\}$ یک توزیع نرمال مشترک دارند، آن را بررسی کردم، اما وقتی به طرح QQ نمونه های مشاهده شده و نمونه های شبیه سازی شده نگاه کردم، واقعاً اینطور نبودم. متقاعد شده است که توزیع اساسی نرمال است. حتی با وجود اینکه هیچ مدرکی که این فرضیه را تایید کند ندارم، فکر می‌کنم می‌توانم فرض کنم که توزیع‌های حاشیه‌ای از $X_1،\ldots،X_{N}$ یکسان هستند. از این فرض نتیجه می‌شود که میانگین $X_i$ برای همه i در حال اجرا از 1 تا N صفر است. $\sigma_{ij} = -\frac{\sigma^2}{N-1}$ هر زمان $i \neq j$ اینجا $\sigma_{ij}$ عنصر $ij$th ماتریس کوواریانس است و $\sigma^2$ واریانس $X_i$ برای همه $i$های در حال اجرا از 1 تا N است.
تخمین توزیع مشترک از نمونه های حداکثر و حداقل مشاهده شده
40422
من به عبارت زیر نگاه می کردم و احساس می کردم که برای مرتب کردن آن به کمک نیاز دارم: یک نمونه تصادفی با اندازه n از یک جمعیت $f(x)$ مجموعه ای از n متغیر تصادفی مستقل $X_1,...,X_n$ است. ، هر کدام توزیع $f(x)$ را دارند. اجازه دهید عبارت فوق را برای همه دانشجویان سال اول در یک دانشگاه خاص که به قد و وزن آنها علاقه مندیم، اعمال کنیم، بنابراین حدس می‌زنم: 1. $f(x)$ جمعیت دانشجویان سال اول یک دانشگاه خاص خواهد بود. 2. $x$ دقیقاً در $f(x)$ 3 چه چیزی را نشان می دهد. بنابراین $X_1،...،X_n$ وزن اندازه گیری شده برای نمونه ای با اندازه $n$ خواهد بود؟ 4. بنابراین برای ارتفاع به $Y_1،...،Y_n$ نیاز است؟ 5. به طور دقیق آیا می‌توانیم از X$ هم برای قد و هم برای وزن استفاده کنیم (من حدس می‌زنم نه -- چون ما انواع را با هم مخلوط می‌کنیم بی‌معنی خواهد بود)؟ 6. بخش آخر عبارت هر کدام دارای توزیع $f(x)$ هستند، من را کمی در زمینه مناقصه نشان می دهد -- علاقه مند به دریافت توضیحات در مورد آن هستم. نکته: عبارت فوق از: «مفاهیم و روش های آماری (سری های ویلی در احتمال و آمار)، گوری ک. باتاچاریا، ریچارد آ جانسون، صفحه 208 است.
درک نمونه های تصادفی
69972
من به تفاوت مطلق در مقادیر بین جفت اعداد نگاه می کنم. سپس من این مقادیر مطلق را بین دو گروه (مثلاً مردان و زنان) مقایسه می کنم. از آنجایی که اینها مقادیر مطلق هستند، مطمئن نیستم که آیا استفاده از آمار پارامتریک (مثلاً آزمون t مستقل) مناسب است یا اینکه بهتر است از آزمون‌های ناپارامتریک (مانند Mann-Whitney U) استفاده شود؟ به طور خاص، من نگران این هستم که مقادیر مطلق (که با نادیده گرفتن علائم ایجاد می شوند) نمی توانند با فرض نرمال بودن مورد نیاز مطابقت داشته باشند؟ بزرگترین حجم نمونه ای که من به آن نگاه می کنم 19 در گروه 1 و 17 در گروه 2 است (البته تعدادی گروه کوچکتر نیز وجود دارد). هر گونه کمکی قابل قدردانی خواهد بود (و توضیح اینکه چرا بسیار عالی خواهد بود، زیرا من سعی می کنم سرم را در اطراف همه اینها بپیچم). با تشکر
مقادیر مطلق -- آزمون پارامتریک یا ناپارامتریک؟
38160
اگر لگاریتم تابع تولید کاب-داگلاس را در نظر بگیریم، دریافت می کنیم: ln(Y)=A+$\beta_1$ln(L)+$\beta_2$ln(K)+$\epsilon$ln(e) متوجه شدم که در تابع تولید، ضرایب $\beta_1$ و $\beta_2$ کشش های خروجی کار و سرمایه هستند. تفسیر این ضرایب در رگرسیون چگونه خواهد بود - آیا فقط تغییر در تولید زمانی است که سهم کار یا سرمایه تغییر می کند آیا ضرایب بتا باید تا 1 جمع شوند و اگر بله، آیا مسائلی از تغییر همزمان آنها وجود دارد؟ متشکرم
تولید کاب-داگلاس: رگرسیون را تفسیر کنید
89151
من چند روزی است که در تعدادی از سایت ها جستجو می کنم اما به نظر نمی رسد پاسخ خوبی برای این موضوع پیدا کنم. من در حال توسعه یک برنامه تشخیص برخورد با استفاده از فیلتر کالمن بدون بو و پیش بینی موقعیت های احتمالی اشیاء مختلف هستم. این اجسام دارای ناحیه مشخصی هستند، اما پیش‌بینی‌های من البته فقط مرکز جرم اجسام را منتشر می‌کنند و من واریانس مربوطه را برای موقعیت آنها دریافت می‌کنم. به این معنی که موقعیت **مرکز جرم** آنها توسط توزیع های نرمال دو متغیره $N_1$~$(\mu_1,\Sigma_1)$ برای شی 1 و $N_2$~$(\mu_1,\ داده می شود. Sigma_2)$ برای شی 2 در مختصات دکارتی. اکنون هدف کشف احتمال برخورد آنها با یکدیگر است. اگر هر دو شی دارای مساحت $A$ باشند، احتمال برخورد آنها چقدر است؟ من می دانم که چگونه می توانم این تهدید را زمانی که فقط از مرکز جرم اشیاء استفاده می کنیم ارزیابی کنم، اما این توزیع واقعاً شامل ناحیه اشیا نیست. به عنوان مثال در مواردی که $\Sigma_1$ بسیار کوچک است، من می دانم که مرکز جرم اجسام در آنجاست و از لبه های جسم (با استفاده از ناحیه، یا اگر بهتر است، اشیاء $Width$ و $Length$) وجود دارد. بنابراین، به طور خلاصه، آیا راهی منظم برای تبدیل $N_1$ و $N_2$ برای ترکیب منطقه وجود دارد؟
احتمال برخورد جسم
38165
در اپیدمیولوژی، ما اغلب با بسیاری از عوامل مرتبط با بیماری سروکار داریم. این انبوه عوامل، نمودار اندازه اثر (اغلب نسبت های خطر) عوامل فردی را گیج کننده می کند. با پذیرش برخی ساده‌سازی‌های بیش از حد، عواملی را می‌توان به طور منطقی به گروه‌هایی مانند تغذیه، سبک زندگی، اجتماعی، روان‌شناختی، جمعیت‌شناختی و شاید حتی زیرگروه‌هایی مانند به عنوان مثال اختصاص داد. کلان / ریز مغذی ها برای عوامل تغذیه ای من به دنبال طرحی هستم که نمای کلی از جلوه‌های درون این گروه‌ها را ارائه دهد و در عین حال مقایسه بصری اندازه و توزیع جلوه‌ها در درون و بین گروه‌ها را تسهیل کند. من سعی کردم * مضرب کوچکی از هیستوگرام ها / تخمین تراکم هموار و جعبه های موازی HR در هر گروه * نمودارهای جنگل مانند که اندازه افکت ها و CI آنها را به صورت نقاط و بخش های افقی و گروه های جدا شده با خطوط افقی نشان می دهد. بهینه نیست اولی بیشتر اطلاعات مربوط به سطح عامل فردی را کنار می‌گذارد، دومی در آن سطح بسیار دقیق است. هیچ کدام زیرگروه واقعی را ارائه نمی دهند. هیچ یک مقایسه تصویری آموزنده از توزیع و اندازه جلوه ها در گروه ها ارائه نمی دهد. آیا چیز بهتری وجود دارد؟
راه‌های خوبی برای تجسم افکت‌های مرتب شده در گروه‌ها و زیر گروه‌ها چیست؟
69973
یکی از پاسخ های یکی از اعضا را به این شرح خواندم: «یکی از بزرگترین دلایل سردرگمی بین این دو به این موضوع مربوط می شود که یکی از روش های استخراج عامل در تحلیل عاملی «روش اجزای اصلی» نامیده می شود. با این حال، استفاده از PCA یک چیز است و یک چیز دیگر برای استفاده از روش اجزای اصلی در FA آیا صرفاً ابزاری برای استخراج فاکتور است این پاسخ را در اینجا ببینید آیا کسی وجود دارد که کمی بیشتر در این مورد توضیح دهد، به خصوص در مورد PCA و روش جزء اصلی در FA؟
PCA یا روش جزء اصلی برای FA؟
96312
من در حال تجزیه و تحلیل یک نتیجه رای در کشورم هستم و از یک مدل لجستیک برای این کار استفاده می کنم (glm). از جمعیت خواسته شد که به آری یا نه رای دهند، که منجر به یک مقدار تایید از 0٪ تا 100٪ برای هر شهرداری شد. من می خواهم این نتیجه را بر اساس افرادی که رای داده اند وزن کنم، زیرا در شهرداری های کوچک فقط 100 نفر رای دادند و در بقیه بیش از 50000 نفر. آیا معقول است که مقدار آرا را به عنوان وزن در تابع glm به این صورت قرار دهیم: vote.glm <- glm(vote_result ~ explaning_variable_1 + explaning_variable_2, weights=amount_of_votes, family=binomial(logit), data=data) من هستم پرسیدن چون خلاصه و تابع آنوا هر دو نشان می‌دهند که همه متغیرها معنی‌دار هستند، که باعث می‌شود مشکوک با تشکر
R: وزن ها در عملکرد glm
2384
بگویید من یک سری پیش‌بینی‌ها و مشاهدات مانند این دارم: EntityF EntityO 2004 120 125 2006 166 173 2008 150 167 2010 152 - و فرض کنید که موجودیت (i) یکسان است و (ii) روش ریختگی ثابت است. من می خواهم 1. یک معیار معنی دار از خطای پیش بینی تولید کنم. 2. بتوانید خطای پیش بینی جاری (2010) را بر اساس 1 پیش بینی کنید.
آزمایش سری های زمانی پیش بینی در برابر داده های واقعی
96315
من در حال مدل سازی بیضی های دو بعدی در یک صفحه دو بعدی هستم. هر بیضی با پنج پارامتر تعریف می‌شود، به‌عنوان «x، y، s1، s2، t» که «x» و «y» موقعیت آن در صفحه هستند، «s1» و «s2» طول محور بلند و کوتاه آن هستند. به ترتیب و «t» زاویه ای است که محور بلند بیضی با محور y می سازد، یعنی «t» جهت بیضی است. از آنجایی که بیضی‌ها «t = t+pi» متقارن هستند، «t» روی محدوده -0.5*pi تا 0.5*pi تنظیم می‌شود. برای بدست آوردن میانگین و فاصله اطمینان 95% اکثر این پارامترها از بوت استرپ استفاده شده و صدک 50/2 و 5/97 در نظر گرفته شده است. با این حال، از آنجایی که t یک پارامتر دایره ای است، ممکن است برخی از نتایج بوت استرپ کمی بالاتر از -0.5*pi و برخی دیگر کمی زیر 0.5*pi باشند. این از استفاده از صدک برای فاصله اطمینان جلوگیری می کند. در حالی که با تبدیل زاویه ها به صفحه دکارتی و انجام محاسبات از آنجا می توان میانگین را به راحتی بدست آورد، من نمی دانم چگونه می توان معیاری برای اطمینان 95٪ یا یک خطای استاندارد پیدا کرد.
فاصله اطمینان یک پارامتر نیم دایره
114974
من $\vec y$ را مشاهده می کنم و $\vec x$ را می دانم. من فرض می‌کنم که $\vec y$ بیشتر از $\vec x$ تشکیل شده است، با مقداری باقیمانده $\vec r$. این مشکل $\vec y = a\vec x + \vec r$ را به من می دهد، که در آن $a \in [0, 1]$ است. علاوه بر این، من فرض می کنم که باید $a$ را به حداکثر برسانیم. در غیر این صورت، $a = 0، \vec r = \vec y$ یک راه حل بی اهمیت خواهد بود. راه دیگری برای بیان مسئله برای بردارهای طول 3 این است: $\begin{pmatrix} y_1 \\\ y_2 \\\ y_3 \\\ 1 \end{pmatrix} = \begin{bmatrix} a & 0 & 0 & r_1 \\\ 0 & a & 0 & r_2 \\\ 0 & 0 & a & r_3 \\\ 0 & 0 & 0 & 1 \\\ \end{bmatrix} \begin{pmatrix} x_1 \\\ x_2 \\\ x_3 \\\ 1 \end{pmatrix}$ در این نسخه، ماتریس باید محاسبه شود، اما ما نیاز داریم تا آن را به گونه ای انجام دهید که $a$ را به حداکثر برساند. چگونه به بهترین شکل به این مشکل برخورد کنیم؟
یک بردار را با بردار و باقی مانده بازسازی کنید
69974
من از دستور MIXED در SPSS برای اجرای یک مدل چندسطحی استفاده می‌کنم و می‌پرسیدم چه تفاوتی در هنگام استفاده از یک فاکتور رمزگذاری شده ساختگی یا به عنوان فاکتور (از طریق دستور BY) یا به عنوان متغیر کمکی (از طریق دستور WITH) وجود دارد. یک سوال مشابه قبلاً در اینجا ارسال شده بود: دستور BY و WITH در مدل مختلط SPSS در این تاپیک، مشکل گزینه NOINT بود. در مورد من از رهگیری استفاده می‌کنم و از یک مدل ساده بازیگر-شریک با 2 متغیر کمکی متریک و یک متغیر ساختگی (0/1) استفاده می‌کنم که بین دو گروه تمایز قائل می‌شود. کاری که من انجام می دهم تعامل ساختگی با هر دو متغیر متریک است. اکنون، اگر من از ساختگی به عنوان یک فاکتور (از طریق BY) استفاده کنم، نتایج متفاوتی برای دو اثر اصلی دریافت می کنم، در مقایسه با زمانی که از ساختگی به عنوان متغیر کمکی (از طریق WITH) استفاده می کنم. بنابراین تخمین و مقدار t برای Intercept متفاوت است. آیا کسی می تواند این موضوع را روشن کند و توضیح دهد که چرا این مورد است؟ من متحیر هستم.
عامل در مقابل متغیر کمکی در SPSS MIXED
103363
من از 10 پیش‌بینی‌کننده در درخت تصمیم‌ام استفاده می‌کنم، اما تابع rpart فقط از 8 مورد از آنها استفاده می‌کند. یعنی 2 استراحت لازم نیست یا زائد میشن؟ مانند سن و فرزند من بر اساس سن 1/0 کد شده است. اما درخت فقط از سن استفاده می کند و نه فرزند.
پیش بینی های متعدد در مدل درخت تصمیم
69977
فرض کنید به یک نمونه تصادفی متشکل از $n$ نفر تست IQ دادید، اما به جای داشتن نتایج واقعی آزمون، فقط داده های نرمال شده برای این نمونه را دارید (میانگین=0، $\sigma$=1). احتمال اینکه فرد $A$ در 5% بالای کل جمعیت باشد (1.64 انحراف استاندارد بالاتر از میانگین) چقدر است، با توجه به اینکه نمره IQ نرمال شده $S$ انحراف استاندارد $X$ بالاتر از میانگین نمونه است؟ من دارم از دیدگاه بیزی به این سوال می پردازم (که برای من جدید است)، بنابراین آن را اینگونه تعریف می کنم: $$ P(A>1.64 | S=X)= \frac{P(S=X|A>1.64) \times 0.05}{P(S=X|A>1.64) \times 0.05 + P(S=X|A<1.64) \times 0.95} $$ احتمالاتی که من به دنبال آن هستم عبارتند از: $P(S=X|A>1.64)$ و $P(S=X|A<1.64)$. من سعی می کنم از آمارهای فراوان گرا برای تعیین احتمال خطای نمونه گیری در جامعه نمونه استفاده کنم. به عنوان مثال: برای $X>1.64$، $P(S=X|A<1.64) = $ احتمال اینکه میانگین x$ نمونه با X-1.64$ باد شود، یا انحراف استاندارد نمونه با کاهش می‌یابد. X-1.64 دلار. آیا این رویکرد درستی است؟ و اگر چنین است، چگونه همان احتمال را برای $X<1.64$ تعیین می کنید؟ در اینجا محاسبات من برای احتمال اشتباه بودن میانگین و انحراف استاندارد آمده است: میانگین: $$ \mu = X - 1.64 x = 0، \sigma=1 \\\ z = \frac{x - \mu}{\ frac{\sigma}{\sqrt{n}}} \\\ z = \frac{1.64 - X}{n^\frac{1}{2}} $$ انحراف استاندارد: $$ df = n - 1، \sigma = 1.64 - X، s = 1 \\\ z = \frac{(n-1) \times ^2}{\sigma^2} \\\ z = \frac {n - 1}{(1.64 - X)^2} $$
احتمال یک نتیجه تصادفی با توجه به حجم نمونه
69975
من در حال نوشتن روال رگرسیون لجستیک با کمند در `matlab` هستم. بنابراین مشکل این است که تابع log-likelihood منفی را با عبارت جریمه $$\sum \left(\log(1 + e^{X_i' \beta}) - y_i X_i' \beta\right) + \lambda \ به حداقل برسانیم. sum |\beta_i|$$ که در آن $\beta$ پارامتر مدل است، $X_i$ ردیف $i$مین ماتریس $X$، و $y_i$ مقدار مشاهده $i$. اولین سوال من برای اعتبارسنجی متقاطع 5 برابری است، برای انتخاب بهترین مقدار $\lambda$ از کدام معیار استفاده کنم؟ آیا باید از مقدار تابع logit در مجموعه داده های اعتبار سنجی استفاده کنم یا از نرخ طبقه بندی اشتباه در داده های اعتبار سنجی استفاده کنم؟
اعتبار سنجی متقاطع برای رگرسیون لجستیک کمند
88825
من می خواهم یک مدل رگرسیون خطی برای پیش بینی یک متغیر غیر خطی آموزش دهم. به این صورت است که دو متغیر مستقل با پاسخ همبستگی دارند (نقاط لرزان هستند): ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/U1Ksu.jpg) ![توضیح تصویر را اینجا وارد کنید](http: //i.stack.imgur.com/Hf95A.jpg) و باقیمانده ها در برابر مقادیر برازش شده: ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/itQfs.jpg) بیشتر مقادیر برای پاسخ صفر هستند. این اثر یک داده‌های آزمون بروش-پاگان دانش‌آموزی ناهمگونی بسیار قوی است: مدل BP = 55483.84، df = 2، p-value < 2.2e-16 رویداد اگرچه پیش‌بینی‌کننده‌ها به شدت با پاسخ همبستگی دارند Call: lm (فرمول = پاسخ ~ پیش بینی 1 + پیش بینی 2، داده = قطار_پیش بینی کننده ها) باقیمانده ها: میانه حداقل 1Q 3Q Max -7.6996 -0.0268 -0.0238 -0.0182 4.8785 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 2.748e-02 2.825e-04 97.28 <2e-16 *** predictor1 8.491e-05 6.574e-07 129.16 <2e-16 *** predictor2 -3. -10 8.298e-12 -47.41 <2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقی مانده: 0.1561 در 498498 درجه آزادی چندگانه R-squared: 0.0365، تنظیم شده R-squared: آمار: 9442 در 2 و 498498 DF، p-value: < 2.2e-16 آیا باید مدل‌های غیرخطی بیشتری اتخاذ کنم یا می‌توانم ابتدا غیرخطی بودن پاسخ را تصحیح کنم؟
نحوه تصحیح غیر خطی بودن پاسخ در رگرسیون خطی
89154
به نظر نمی رسد در هیچ کجا روش کلی برای استخراج خطاهای استاندارد پیدا کنم. من در گوگل، این وب‌سایت و حتی کتاب‌های درسی را جستجو کرده‌ام، اما تنها چیزی که می‌توانم پیدا کنم فرمول خطاهای استاندارد برای میانگین، واریانس، نسبت، نسبت ریسک، و غیره است و نه اینکه چگونه این فرمول‌ها به دست آمده‌اند. اگر کسی بتواند آن را به زبان ساده توضیح دهد یا حتی مرا به منبع خوبی که توضیح می دهد پیوند دهد، ممنون می شوم.
روش کلی برای استخراج خطای استاندارد
40429
این تقریباً همان سؤالی است که چند هفته پیش پرسیدم، اما امیدوارم این بار واضح تر توضیح دهم. من با 40 موش شروع می کنم. من از طرح خودم استفاده می‌کنم، بر اساس ایده‌های خودم برای اینکه چگونه دو موش را در یک جفت تا حد ممکن از نظر آزمایشی که می‌خواهم انجام دهم، شبیه هم بسازم. جفت کردن 40 موش به من 20 جفت می دهد. از این پس ساختار جفت تغییری نکرده است. با استفاده از یک مولد اعداد تصادفی، من از هر جفت یک موش را انتخاب می کنم که برای دادن داروی A انتخاب شده است. به موش دیگر در هر جفت داروی B داده می شود. از این پس، با دو موش در یک جفت تا حد امکان از همه جهات مشابه رفتار می شود، با این تفاوت که به آنها دو داروی مختلف A و B داده می شود. به عنوان مثال، آنها همیشه تغذیه می شوند. در همان زمان ما همچنین احتیاط را انجام می دهیم که آزمایش را به صورت کور انجام دهیم، یعنی آزمایش را طوری ترتیب دهیم که فقط یک نفر X بداند کدام موش A و کدام B می گیرد و X نقش دیگری در آزمایش نداشته باشد. این آزمایش یک نتیجه عددی دارد، یعنی غلظت کلسترول خون در پایان آزمایش، بنابراین ما 20 عدد به دست می آوریم. بیایید فرض کنیم که دو توزیع درگیر تقریباً نرمال و با واریانس یکسان هستند. فرض صفر این است که ابزارها یکی هستند. میانگین برای موش‌هایی که داروی A دریافت کرده‌اند کمتر از میانگین موش‌هایی است که داروی B دریافت کرده‌اند. علاوه بر این، یک آزمون t زوجی دو طرفه به من مقدار p 0.005 را می‌دهد که به‌شدت قابل انتشار است و دو- آزمون t-paired sided مقدار p 0.06 را به دست می دهد که باعث می شود کار مطابق با معیارهایی که در انتشارات زیست شناسی استاندارد هستند غیر قابل انتشار باشد. یک متخصص برجسته در زمینه کاربرد می گوید که طرح جفت شدن من بیولوژیکی نیست و بنابراین مقدار p صحیح باید 0.06 باشد. واکنش من این است: 1. ممکن است نتیجه تصادفی باشد، بنابراین شاید آزمایش باید تکرار شود، به خصوص اگر نتیجه گیری برای متخصصان بعید به نظر برسد. 2. به جز موارد آماری، آنچه نشان داده شده است این است که داروی A در کاهش کلسترول خون در موش نسبت به داروی B موثرتر است و این نتیجه از نظر آماری معنادار است. 3. آزمایش نشان می‌دهد که روش جفت‌سازی خود من مبنای بیولوژیکی درستی دارد، با وجود اینکه چرا روش سالم است، هنوز در دسترس نیست. 4. به غیر از طرح جفت سازی، کارشناس برجسته اشتباه می کند، مگر اینکه چیزی در آزمایش اشتباه باشد. پاسخ جامعه Cross-Validated چیست؟ من درخواست توصیه عملی در مورد اینکه با نتایج تجربی چه باید کرد --- مقاله قبلاً منتشر شده است. من می‌خواهم کاملاً مطمئن شوم که آنچه می‌گویم، در اصل درست است، زیرا بر توصیه‌های من برای آزمایش‌های آینده تأثیر می‌گذارد.
یک بار دیگر: آزمون های t زوجی در مقابل غیرجفتی
40421
من علاقه مند به استفاده از طرح تحقیق فضایی هستم. یک خط را تصور کنید، مانند یک خط منطقه زمانی. به عنوان مثال، در ایالات متحده، خطی که بین زمان استاندارد شرقی و زمان استاندارد مرکزی ایجاد می‌کند، کم و بیش از شمال به جنوب از طریق ایالات متحده (و سایر مکان‌ها) می‌گذرد. فرض کنید ایالات متحده سیاستی را اجرا کرد که در آن، با توجه به مرزهای شهرستان، همه شهرستان‌های غرب از طول جغرافیایی 75 کسر مالیات دریافت می‌کردند. هیچ شهرستانی در سمت راست آن نخواهد بود. من می خواهم تأثیرات این کسر مالیات را بر جرم ارزیابی کنم. برای استدلال، آیا می‌توانیم فرض کنیم که ناپیوستگی معتبر است. من سعی می کنم این ایده را برای ناپیوستگی های فضایی به طور کلی درک کنم؟ می توانم تصور کنم که یکی از دو راه را ادامه دهم. یک راه ناپیوستگی رگرسیون است. بهره برداری از فاصله یک شهرستان از این خط. راه دیگر تطبیق شهرستان هایی است که این خط را در دو طرف مقابل قرار می دهند. توجه داشته باشید که اگر یک شهرستان با بیش از یک شهرستان در طرف مقابل خط منطقه زمانی هم مرز باشد، ممکن است بیش از یک بار ظاهر شود. ناپیوستگی رگرسیون شامل یک نمونه بزرگتر است زیرا ممکن است شامل شهرستان هایی باشد که منحصراً در امتداد مرز نیستند. تطبیق در شهرستان‌هایی که یکدیگر را لمس می‌کنند نشان می‌دهد، در حالی که ناپیوستگی رگرسیون در بهترین حالت، می‌تواند منطقه زمانی را به خطوط تقسیم‌بندی کوچک‌تر تقسیم کند که در آن بخش‌ها احتمالاً شامل چندین جفت شهرستان در امتداد منطقه زمانی هستند. مبادلات طرح تحقیق چیست؟ کدام ارجح است؟ آیا یکی چیزی را ارائه می دهد که دیگری ارائه نمی دهد؟ از کمک شما بسیار سپاسگزارم!
ناپیوستگی رگرسیون در مقابل تطبیق با ناپیوستگی فضایی
19173
فرض کنید من می خواهم یک ماتریس $n \times n$ غیرمنفی $\mathbf A$ برای یک $n$ فرد (مثلاً $n=5$ برای یک مثال خوب) ایجاد کنم، به طوری که * عناصر منفرد از یک توزیع یکنواخت اما با محدودیت های برابری * مجموع همه عناصر در ردیف های بالای ردیف وسط = مجموع همه عناصر در ردیف های زیر ردیف وسط * مجموع همه عناصر در ستون های سمت چپ ستون میانی = مجموع همه عناصر در ستون های سمت راست ستون میانی * مجموع همه عناصر = 1.0 یعنی در واقع من می خواهم ماتریس های متعادل را در یک روش خاص (من قصد دارم از آنها به عنوان ماتریس های کانولوشن استفاده کنم و به ترجمه اهمیتی نمی دهم). برای اهداف فعلی‌ام، فکر می‌کنم یک راه‌حل موقت به اندازه کافی خوب (نه کاملاً درست توزیع شده) دارم که یک ماتریس یکنواخت ایجاد می‌کند و سپس با اصلاح عناصر منفرد با استفاده از رویکرد حداقل مربعات، محدودیت‌های برابری را اعمال می‌کند. با این حال، عمدتاً برای تجربه یادگیری، کنجکاو هستم که آیا راه آسانی برای نمونه‌برداری از توزیع شرطی حاصل وجود دارد یا خیر. تاکنون نگاهی سریع به توزیع بیتس (میانگین متغیرهای تصادفی یکنواخت) و مدل‌های زنجیره مارکوف مونت کارلو در ویکی‌پدیا داشته‌ام، اما مطمئن نیستم که آیا آنها در اینجا کمک می‌کنند یا راه‌حل آسان‌تری وجود دارد. من لزوما به دنبال یک راه حل کامل نیستم. اشاره به مطالب روشنگر یا مفید نیز قدردانی می شود. **ویرایش:** من به دنبال توزیع احتمال شرطی هستم، یعنی عناصر نیازی به توزیع یکنواخت ندارند. در عوض، من به دنبال توزیعی هستم که در آن هر نمونه ای که محدودیت های برابری را برآورده می کند، احتمال یکسانی داشته باشد (از این رو توزیع یکنواخت شرطی با توجه به برابری ها).
تولید ماتریس های تصادفی با محدودیت های برابری خاص
69976
با توجه به پیش‌بینی بارش «d روز» پیش‌رو و داده‌های تاریخی جمع‌آوری‌شده طی «y سال»، راه ساده (اما صحیح) برای ارتباط احتمال بارندگی برای هر روز پیش‌بینی چیست؟ من می دانم که این یک مشکل پیچیده است، اما هدف من این است که احتمال اتفاق یک حجم بارندگی معین را کمی کنم (یعنی بارش مشاهده شده >= پیش بینی برای آن روز). اولین برداشت من این بود که از یک رویکرد فرکانس ساده در طول سالها استفاده کنم: هدف_روز = 15 هدف_ماه = 1 هدف_روز_پیش بینی = 5 داده = انتخاب در طول سال ها به گونه ای از نقاط در بازگشت داده n/total از سوی دیگر، من در برازش توزیع «گاما» مشکل داشتم: نیاز (MASS) fit = fitdistr(سری، گاما) #خطا در optim(x = c(0، 0، 0، 0، 0، 0، 0.3، 0، 0.1، 0، 0.8، 0، 0، 0، 0، : #initial مقدار vmmin محدود نیست اگر مجموع مقدار کمی به سری باشد، کار می کند: fit = fitdistr(series + 0.1، گاما) ایده من این است که برای هر ماه یک گاما تنظیم کنم، سپس می توانم احتمالات را به راحتی استخراج کنم، بنابراین، چگونه می توانم با مشکل گاما در بالا برخورد کنم، با تشکر !
چگونه احتمال بارش روزانه را با داده های تاریخی مرتبط کنیم
40426
فرض کنید $X$ یک متغیر تصادفی گسسته با کاردینالیتی $|X|$ است و $Y$ یک متغیر تصادفی گسسته با کاردینالیتی $|Y|$ است. اگر $|X| \neq |Y|$ ? اگر چنین است، چگونه می توان آن را محاسبه کرد؟
واگرایی KL بین 2 توزیع با کاردینالیته های نابرابر؟
19179
آیا این به این معنی است که شما نمی توانید میانه را محاسبه کنید؟
اگر منحنی بقا به 0.5 نرسد چه اتفاقی می افتد؟
110599
من می توانم از یک GridSearchCV در خط لوله استفاده کنم و امتیاز را به صورت MSE یا R2 مشخص کنم. سپس می‌توانم به «gridsearchcv._best_score» برای بازیابی موردی که مشخص کردم دسترسی داشته باشم. چگونه می توانم امتیاز دیگری را برای راه حل یافت شده توسط GridSearchCV نیز بدست بیاورم؟ اگر دوباره GridSearchCV را با پارامتر امتیازدهی دیگر اجرا کنم، ممکن است همان راه حل را پیدا نکند، و بنابراین امتیازی که گزارش می کند ممکن است با مدلی که برای آن مقدار اول داریم مطابقت نداشته باشد. شاید بتوانم پارامترها را استخراج کنم و آنها را به یک خط لوله جدید عرضه کنم و سپس «cross_val_score» را با خط لوله جدید اجرا کنم؟ آیا راه بهتری وجود دارد؟ با تشکر
چگونه از یک sklearn GridSearchCV هر دو MSE و R2 را دریافت کنیم؟
95657
من وضعیتی دارم که در آن یک آمار مشاهده شده از داده ها محاسبه شده است، و سپس توزیع صفر را با نوعی نمونه گیری مجدد تقریب زده ام. من از این برای محاسبه مقادیر p برای آزمون فرضیه یک طرفه استفاده کرده ام. حال، اگر بخواهم بین دو آمار مقایسه کنم (آیا تفاوت قابل توجهی با هم دارند؟)، اما از قبل نمونه هایی از دو توزیع تهی را داشته باشم، آیا راهی وجود دارد که از آنها برای تقریب توزیع صفر برای تفاوت استفاده کنم؟
انجام مقایسه از دو توزیع تهی
19174
رگرسیون لجستیک متناسب با مدلی است که یک متغیر باینری را پیش‌بینی می‌کند در حالی که یک تبدیل لاجیت ترکیب خطی (LC) پیش‌بینی‌کننده‌ها را انجام می‌دهد: 1/1 + exp(-LC). من یک الگوریتم یادگیری ماشین کار دارم که همین کار را انجام می دهد، اما با به حداکثر رساندن احتمال گزارش، با ترکیب غیر خطی پیش بینی کننده ها مطابقت دارد. من می‌خواهم این الگوریتم را فقط برای داده‌های حضوری اعمال کنم که در اینجا پیشنهاد شده است: داده‌های فقط حضور و الگوریتم em آیا می‌توانم فقط از فرمول (4) (نسخه احتمال گزارش آن) استفاده کنم؟ چگونه می توانم از مدل برازش شده برای انجام پیش بینی ها استفاده کنم اگر مقدار z را نمی دانم و فقط پیش بینی ها/متغیرهای کمکی را نمی دانم؟ من هم تفاوت بین احتمال مشاهده شده و کامل را درک نمی کنم؟ هر گونه توضیح بسیار قدردانی خواهد شد.
تنظیم الگوریتم موجود - احتمال داده های فقط حضوری
81421
من چندین مرجع را دیده‌ام، اما به دنبال چیزی برای دنبال کردن آسان هستم که جنگل‌های تصادفی را در کاربردهای رگرسیون و اهمیت ویژگی‌ها نشان دهد. من می خواهم مطمئن شوم که این را در سطح 101 توضیح می دهم. چیزی شبیه به این، اما تصویری تر مانند این pdf. برای من سخت است که با یک مثال سطح بالا مشخص از نحوه انتخاب پیش‌بینی‌کننده‌ها و ملموس ساختن آنها برای مخاطبان عام مواجه شوم.
مرجع یا آموزش سطح مقدمه بصری جنگل های تصادفی
11368
فرض کنید من مدل زیر را دارم $$y_i=f(x_i,\theta)+\varepsilon_i$$ که $y_i\in \mathbb{R}^K$ , $x_i$ بردار متغیرهای توضیحی است، $\theta$ پارامترهای تابع غیر خطی $f$ و $\varepsilon_i\sim N(0,\Sigma)$ است که در آن $\Sigma$ به طور طبیعی ماتریس $K\times K$ است. هدف معمول تخمین $\theta$ و $\Sigma$ است. انتخاب بدیهی روش حداکثر احتمال است. احتمال ورود برای این مدل (با فرض اینکه ما یک نمونه $(y_i,x_i),i=1,...,n$ داریم) شبیه $$l(\theta,\Sigma)=-\frac{n}{ 2}\log(2\pi)-\frac{n}{2} \log\det\Sigma-\sum_{i=1}^n(y_i-f(x_i,\theta))'\Sigma^{-1}(y-f(x_i,\theta)))$$ اکنون به نظر می رسد ساده، log-likelihood مشخص می شود، در داده ها قرار می گیرد و از برخی الگوریتم ها برای بهینه سازی غیر خطی استفاده می شود. مشکل این است که چگونه می توان مطمئن شد که $\Sigma$ قطعی مثبت است. به عنوان مثال استفاده از «optim» در R (یا هر الگوریتم بهینه‌سازی غیرخطی دیگری) به من تضمین نمی‌کند که $\Sigma$ مثبت است. بنابراین سوال این است که چگونه می توان اطمینان حاصل کرد که $\Sigma$ قطعی مثبت باقی می ماند؟ من دو راه حل ممکن را می بینم: 1. $\Sigma$ را به صورت $RR'$ که در آن $R$ ماتریس مثلثی بالا یا متقارن است را مجدداً تنظیم کنید. سپس $\Sigma$ همیشه مثبت-معین خواهد بود و $R$ می تواند بدون محدودیت باشد. 2. از احتمال پروفایل استفاده کنید. فرمول های $\hat\theta(\Sigma)$ و $\hat{\Sigma}(\theta)$ را استخراج کنید. با مقداری $\theta_0$ شروع کنید و $\hat{\Sigma}_j=\hat\Sigma(\hat\theta_{j-1})$, $\hat{\theta}_j=\hat\theta(\ را تکرار کنید hat\Sigma_{j-1})$ تا همگرایی. آیا راه دیگری وجود دارد و در مورد این 2 رویکرد، آیا آنها کار می کنند، آیا استاندارد هستند؟ این مشکل بسیار استاندارد به نظر می رسد، اما جستجوی سریع هیچ اشاره ای به من نداد. من می دانم که تخمین بیزی نیز ممکن است، اما در حال حاضر نمی خواهم در آن شرکت کنم.
چگونه می توان از ویژگی های ماتریس کوواریانس هنگام برازش مدل نرمال چند متغیره با استفاده از حداکثر احتمال اطمینان حاصل کرد؟
19176
فرض کنید من کارهای زیر را انجام دهم: proc phreg data = new; زمان مدل*سانسور(0) = x y; اجرا؛ همچنین فرض کنید $x$ یک متغیر باینری و $y$ یک متغیر پیوسته باشد. چگونه تابع بقا را برای $x = 1$ و $y = 100$ (مثلا) در SAS رسم کنم؟
چگونه توابع بقا را برای مقادیر خاص متغیرهای کمکی در SAS ترسیم می کنید؟
60336
من در حال حاضر در حال مطالعه تجزیه و تحلیل اثر درمان هستم و در مورد **فرض استقلال شرطی (CIA)** می خوانم: \begin{align} (Y_1,Y_0)\perp D|X \end{align} بنابراین نتایج مستقل از درمان، مشروط به X. سوال اول: کسی می تواند این را بهتر توضیح دهد؟ بنابراین یک تفسیر واقعی از این و نه فقط فرمول ریاضی به صورت شفاهی ارائه دهید؟ سیا به معنای **استقلال متوسط** است. سؤال دوم: این دلالت به چه معناست؟ پس چه ارتباطی در مورد سیا و اندازه گیری اثر درمان وجود دارد؟ من به موضوع عادت ندارم و سعی کردم ادبیات معمولی را بخوانم، اما آنها واقعاً تفسیر شهودی ارائه نمی دهند.
مفاهیم و تفسیر فرض استقلال مشروط
82739
به عنوان مثال، ما یک مدل معادله همزمان عرضه و تقاضا داریم: عرضه: $$s(p)=\alpha_{s}+\beta_{s}p+\epsilon_{s}$$ تقاضا: $$d(p) =\alpha_{d}-\beta_{d}p+\epsilon_{d}$$ شرایط تسویه بازار: $$q = d(p) = s(p)$$ واضح است که $E(\epsilon_{s}|p) \neq 0$ و $E(\epsilon_{s}|p) \neq 0$، زیرا قیمت $p$ درون‌زا است. شکل کاهش یافته این مدل این است: $$p = \frac{\alpha_{d}-\alpha_{s}}{\beta_{d}+\beta_{s}}+\frac{\epsilon_{d}- \epsilon_{s}}{\beta_{d}+\beta_{s}}$$ $$q = \frac{\alpha_{d}\beta_{s}+\alpha_{s}\beta_{d}}{\beta_{d}+\beta_{s}}+\frac{\beta_{d}\epsilon_{ s}+\beta_{s}\epsilon_{d}}{\beta_{d}+\beta_{s}}$$ نتیجه می‌شود که خطاهای شکل کاهش‌یافته ترکیب‌های خطی ساختار هستند خطاها سوال من این است که چگونه می توان دریافت که میانگین شرطی خطاهای شکل کاهش یافته، با توجه به ثابت ها، صفر است؟
چرا میانگین شرطی خطای شکل کاهش یافته صفر است؟
103366
من سعی می کنم مدل GAM را بسازم تا تأثیر چندین متغیر محیطی را بر فراوانی کل یک گونه ببینم. من نمونه هایی از سه سایت با سه تکرار از هر سایت جمع آوری کرده ام. پس از حذف علت تغییرات توسط سه سایت و در نظر گرفتن سه تکرار به عنوان اثر تصادفی، بهترین کار برای من چگونه است که تأثیر هر متغیر را بر روی مدل ببینم. تلاش من به شرح زیر است: m01<- gam(TotalInd ~ s(dayinyear, bs=cr) + Site2 + s(Temp) + s(Mud) + s(کلروفیل) + s(Salinity) ,random=list( Replicate2=~ 1)، data=Data) به نظر شما فرمت این مدل درست است؟
جلوه سایت در مدل GAM
65678
این یک سوال خاص Stata است، و شاید بهتر باشد به Statalist خود Stata باشد، اما من ابتدا در اینجا تلاش می کنم. وضعیت اینجاست. من یک مجموعه داده چند برابری دارم، که در آن تعداد انتساب ها = 10 است و در آن انتساب ها فقط بر روی متغیرهای مستقل انجام می شود. من می‌خواهم دستور «heckman» را روی این داده‌ها با استفاده از پیشوند «mi برآورد» اجرا کنم. دستور heckman یک فرمان پشتیبانی شده نیست، اما می توان با استفاده از گزینه cmdok تخمین را اجباری کرد. سوالات من این است: چرا heckman یک فرمان پشتیبانی نمی شود؟ آیا نتایجی که وقتی Stata را مجبور می‌کنم تا مدل را مطابقت دهد (با استفاده از گزینه cmdok) به دست می‌آورم معتبر هستند؟ یا، آیا دلیلی آماری وجود دارد که چرا نباید از روش انتخاب به سبک هکمن در تنظیمات داده‌های چند برابری استفاده شود؟ هر گونه راهنمایی در این مورد بسیار قدردانی خواهد شد.
استفاده از هکمن در ترکیب با برآورد mi (Stata)
60330
من سعی می‌کنم یک مدل اثرات مختلط بسازم و اندازه‌گیری فاصله (ژنتیکی) بین مشاهدات را در آن بگنجانم، به طوری که مشاهده نزدیک‌تر از سطوح مختلف اثر اصلی ** بیشتر از مشاهدات دور از سطوح مختلف تأثیر اصلی باشد. من یک ماتریس شباهت برای این منظور ساخته‌ام، اما اکنون سوال این است که چگونه آن را (یا تبدیل آن) را در مدل گنجانده شود. با توجه به درک من از تابع lmer در R، جلوه های تصادفی فقط می توانند یک ستون قاب داده باشند نه یک ماتریس. آیا ایده ای دارید که چگونه می توان آن را ترکیب کرد؟
شامل یک ماتریس فاصله به عنوان یک اثر تصادفی در یک مدل اثرات مختلط
19175
من در حال تجزیه و تحلیل مجدد داده های یک همکار هستم. داده ها و کد R اینجا هستند. این یک طراحی 2x2x2x2x3 کاملا درون Ss است. یکی از متغیرهای پیش‌بینی‌کننده، «cue»، یک متغیر دو سطحی است که وقتی به یک امتیاز اختلاف جمع شود، مقدار مربوط به نظریه را منعکس می‌کند. او قبلاً «سرنخ» را به یک امتیاز تفاوت در هر موضوع و شرط جمع می‌کرد، سپس یک ANOVA را محاسبه می‌کرد و یک MSE به دست می‌آورد که سپس می‌توانست برای مقایسه برنامه‌ریزی‌شده میانگین امتیاز تفاوت هر شرط در برابر صفر استفاده کند. شما باید به من اعتماد کنید که او ماهیگیری نمی کرد و در واقع پایه نظری خوبی برای انجام تمام 24 تست داشت. فکر کردم وقتی از مدل‌های جلوه‌های ترکیبی برای نمایش داده‌ها استفاده می‌کردم، ببینم آیا تفاوتی وجود دارد یا خیر. همانطور که در کد نشان داده شده است، من دو رویکرد را در پیش گرفتم: روش 1 - داده ها را به صورت طرح 2x2x2x2x3 مدل کنید، نمونه های پسینی را از این مدل به دست آورید، امتیاز تفاوت Cue را برای هر شرط در هر نمونه محاسبه کنید، فاصله پیش بینی 95٪ را محاسبه کنید. برای امتیاز تفاوت نشانه در هر شرط. روش 2 - Cue را به یک امتیاز تفاوت در هر موضوع و شرط جمع کنید، داده ها را به صورت طرح 2x2x2x3 مدل کنید، نمونه های پسینی را از این مدل بدست آورید، فاصله پیش بینی 95٪ را برای امتیاز تفاوت نشانه در هر شرط محاسبه کنید. به نظر می‌رسد که روش 1 فواصل پیش‌بینی گسترده‌تری را نسبت به روش 2 به دست می‌دهد، در نتیجه اگر از همپوشانی با صفر به عنوان معیاری برای «اهمیت» استفاده شود، تنها 25 درصد از نمرات نشانه‌گذاری در روش 1 «معنی‌دار» هستند در حالی که 75 درصد از نمرات نشانه‌گذاری در روش 2 معنی دار هستند. قابل توجه، الگوهای اهمیت به دست آمده توسط روش 2 بیشتر شبیه به نتایج اولیه مبتنی بر ANOVA نسبت به الگوهای به‌دست‌آمده از روش 1. آیا می‌دانید اینجا چه خبر است؟
چرا این 2 رویکرد برای به کارگیری مدل های ترکیبی نتایج متفاوتی را به همراه دارد؟
103361
بنابراین من سعی کرده ام 3 تکرار را برای برخی داده ها تجزیه و تحلیل کنم (در اصل، یک متغیر مستقل واحد اندازه گیری شده در سه زمان مختلف)، که چیزی شبیه به این است: تست 1 [مقدار] تست 2 [مقدار] تست 3 [مقدار] اکنون، می‌خواهم ببینم که آیا این مقادیر با یکدیگر متفاوت هستند یا خیر، اما دقیقاً نمی‌دانم چگونه این کار را انجام دهم، در حالی که هر آزمایش فقط یک نقطه داده گرفته شده است (بدون ANOVA). آیا آزمون آماری برای تعیین اینکه آیا این مقادیر متفاوت هستند، بدون داشتن میانگین مشخص وجود دارد؟
آزمون آماری برای مشاهده تفاوت در یک نمونه واحد
60488
تفسیر صحیح در مدل رگرسیون خطی (چندگانه) زمانی که متغیرهای مستقل دارای سطوح معناداری متفاوتی هستند چیست؟ برای مثال، در رگرسیون زیر متغیر X$ در 0.001 معنی دار بود، اما رهگیری فقط در 0.1 معنی دار بود. من مطمئن نیستم که آیا خودم را روشن کردم، اما به عبارت دیگر گفتم: آیا رهگیری مدل را ضعیف می کند؟ آیا باید بگویم که مدل در سطح 0.1 معنادار است (بر اساس مقدار کوچکتر)؟ فراخوانی: lm(فرمول = Y ~ X، داده = df) باقیمانده ها: حداقل 1Q میانه 3Q Max -2.3182 -0.5247 0.1119 0.4472 1.5385 ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (Intercept) 6.0456 3.1173 1.939 0.0667. X 0.6957 0.1169 5.950 8.09e-06 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقی مانده: 0.9465 در 20 درجه آزادی چندگانه R-squared: 0.639، R-squared تنظیم شده: 0.6209 آمار: 35.4 در 1 و 20 DF، p-value: 8.087e-06
متغیرهای با سطوح معناداری متفاوت در مدل خطی (تفسیر مدل)
94223
داوری از من خواست که سطح معنی‌داری را برای تعداد مقایسه تقسیم کنم، اگرچه من مقایسه‌های مکرر را انجام نمی‌دهم، بلکه فقط همبستگی اسپیرمن بین متغیرها را انجام می‌دهم. من سطح معنی داری را 05/0p< تنظیم کرده ام اما داور از من می خواهد که آن را کاهش دهم زیرا تعداد همبستگی ها زیاد است. من نمی دانم که آیا انجام این کار خوب است یا باید به او پاسخ دهم که این اشتباه است (در این صورت اگر شما دارید باید به مرجعی نیاز داشته باشم). چه زمانی لازم است سطح معنی داری برای تعداد مقایسه ها تنظیم شود؟ پیشاپیش از شما متشکرم
آیا تنظیم سطح معناداری با توجه به تعداد مقایسه ها در همبستگی های ساده خوب است؟
81284
با عرض پوزش اگر این یک سوال ساده است... من سعی می کنم از تابع خطا بسته ipred در R تا K-fold CV با مدل های GLM از خانواده دو جمله ای و همچنین مدل های زمین (MARS) استفاده کنم. . من روال هایی برای انجام CV نوشته ام و می توانم GLM و مدل های دیگر را از طریق آن اجرا کنم و بسیار خوب کار می کند. من با تابع «errorest()» برخورد کردم و آن را به دلیل رویکرد فشرده‌تر از اسکریپت‌های من و انعطاف‌پذیری کار با مدل‌های مختلف دوست داشتم. مشکل من این است که نمی توانم راهی پیدا کنم که تابع پیش بینی errorest از پرچم برای type=response استفاده کند. من از این نوع پیش بینی استفاده می کنم زیرا متغیر پاسخ من حضور/غیاب است (1,0). با این حال، من احتمالات را پیش بینی می کنم، نه یک طبقه بندی باینری. در نمونه کد زیر، یک GLM معمولی را مرور می‌کنم و با «type='response» پیش‌بینی می‌کنم، و سپس با استفاده مستقیم از «errorest» و در نهایت، اجرای «errorest» که یک تابع پیش‌بینی سفارشی را فراخوانی می‌کند، «mypredict.glm» که از پرچم «type=response» استفاده می‌کند، اما نتایج هنوز احتمالات نیستند. داده (mtcars) نیاز دارد (ipred) #fit simple GLM fit <- glm(am ~ mpg + hp, data=mtcars, family='binomial') #نتایج طرح در صورت دلخواه par(mfrow=c(2,2)) نمودار (fit) #predict as type='response' pred <- predict(fit, newdata=mtcars, type='response') summary(pred) # از errorest برای انجام CV استفاده کنید و خطای RMS و مقادیر پیش بینی شده را برگردانید errest1 <- errorest(am ~ mpg + hp, data=mtcars, model=glm, estimator=cv, est.para=control.errorest(k=5, predictions = TRUE)) errest1$خلاصه خطا(errest1$predictions) #ایجاد تابع برای پیش بینی پرچم در errorest()، شامل type='response' mypredict.glm <- function(object, newdata){ predict(object, newdata, type=response) } #run errorest با فراخوانی به predict.glm تابع errest2 <- errorest( am ~ mpg + hp، data=mtcars، model=glm، predict=mypredict.glm، estimator=cv, est.para=control.errorest(k=5, predictions = TRUE)) errest2$error Variations give: #predictions are not answers summary(errest2$predictions) # with type='response' summary(pred ) حداقل 1 ق. میانگین میانه 3rd Qu. حداکثر 0.0000989 0.0426000 0.2966000 0.4063000 0.6968000 1.0000000 # با errorest() خلاصه پیش‌فرض (errest1$predictions) حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر -0.3027 0.2273 0.3424 0.3998 0.4437 1.4220 # با errorest و mypredict.glm و خلاصه type='response'(errest2$predictions) حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر -0.1941 0.1952 0.3717 0.4056 0.4652 1.3800 هر گونه کمکی بسیار قدردانی می شود. متشکرم.
پیش بینی با type='response' برای GLM با تابع errorest() در بسته ipred
103365
من در تلاش برای درک تعریف یک آمار کافی برای متغیرهای تصادفی پیوسته هستم که در مقدمه ای بر آمار ریاضی توسط هاگ ​​و کریگ (ویرایش هفتم) ارائه شده است. اجازه دهید $X_1,X_2,...,X_n$ یک نمونه تصادفی باشد با pdf مشترک $f(x_1,x_2,...,x_n;\theta)$, $\theta \in \Omega$ و $T( X_1,...,X_n)$ یک آمار با pdf $f_T(y;\theta)$ باشد. ویکی‌پدیا، در میان منابع دیگر، $T$ را برای $\theta$ کافی تعریف می‌کند، اگر و فقط در صورتی که توزیع شرطی $X_1,X_2,...,X_n$ با توجه به $T=t$، به $ وابسته نباشد. تتا$. از سوی دیگر، هاگ و کریگ $T$ را برای $\theta$ تعریف می‌کنند اگر و فقط اگر $$\frac{f(x_1,x_2,...,x_n;\theta)}{f_T(T( x_1,...,x_n);\theta)}$$ به $\theta$ بستگی ندارد. سوال من اینجاست: آیا این دو تعریف معادل هستند و اگر چنین است، چگونه می توان این را ثابت کرد؟
تعاریف معادل یک آمار کافی
89158
من تکامل آینده یک سری زمانی را پیش‌بینی می‌کنم و عدم قطعیت مسیر را با استفاده از bootstrapping ارزیابی می‌کنم. آیا راه خوبی برای تجسم عدم قطعیت وجود دارد که فراتر از ترسیم یک جفت باند اطمینان است، به عنوان مثال؟ 90 درصد خطوط؟ من به چیزی فکر کردم که احساس بهتری برای توزیع در هر نقطه زمانی آینده ایجاد کند: به عنوان مثال. چیزی مانند نمودار کانتور یا نموداری که سطح شفافیت احتمال آن را نشان می دهد. همچنین، آیا روش مناسبی برای مقایسه دو پیش‌بینی مسیر از مدل‌های مختلف به صورت بصری وجود دارد؟ تنها چیزی که به ذهن متبادر می شود دو طرح کانتوری است که روی هم قرار گرفته اند.
پیش‌بینی سری زمانی: تجسم منطقه عدم قطعیت مسیر
65671
آیا کسی می تواند من را با یک شبیه سازی کوچک هدایت کند؟ آیا باید نرخ خطای پیش‌بینی را از جدول طبقه‌بندی محاسبه کنم، در حالی که داده‌ها را به دو بخش تقسیم کنم، سپس بر روی داده‌های آموزشی و پیش‌بینی داده‌های آزمون قرار دهم و طبقه‌بندی اشتباه را ببینم (یعنی چند عدد 1 به عنوان 0 و 0 به عنوان 1 پیش‌بینی شده است، با محاسبه نرخ طبقه بندی اشتباه). کد R زیر را امتحان کردم: # نرخ خطای پیش‌بینی برای logit و probit برای اندازه‌های مختلف نمونه و سیگما: mu <- rep(0,4) library(MASS) pred.err <- function(sam.size,sigma,cut. point.latent){ d <- mvrnorm(sam.size,mu,sigma) obs <- ifelse(d[ ,1]>cut.point.latent,1,0) # نقطه برش برای y*(مخفی) باید y(مشاهده) x1 <- d[ ,2] x2 <- d[ ,3] x3 <- d[ ,4] dat <- data.frame(obs,x1,x2,x3) sam.انتخاب <- نمونه (1:nrow(dat),size=nrow(dat)*0.6) # 60% داده های آموزشی train.dat <- dat[sam.select,] test.dat <- dat[-sam.select,] مناسب است. logit.train <- with(train.dat,glm(obs ~ x1+x2+x3,family=binomial(link=logit))) fit.probit.train <- with(train.dat,glm(obs ~ x1+x2+x3,family=binomial(link=probit))) test.covar <- test.dat[ ,2:4] pred .prob.logit <-predict(fit.logit.train,newdata=test.covar,type=response) pred.prob.probit <-predict(fit.probit.train,newdata=test.covar,type=response) obs.res <- test.dat[ , 1] cut.point.prob <- pnorm(cut.point.latent) # به عنوان نقطه برش باید برای logit و probit pred.res.logit یکسان باشد <- ifelse(pred.prob.logit >= cut.point.prob,1,0) pred.res.probit <- ifelse(pred.prob.probit >= cut.point.prob,1,0) logit.obs.pred <- data.frame(obs.res,pred.res.logit) # همانطور که در pred.res ستون های # متفاوت از obs.res probit.obs.pred <- data.frame(obs.res, pred.res.probit) tab.logit <- جدول (logit.obs.pred) tab.probit <- table(probit.obs.pred) logit.pred.err.rate <- sum(tab.logit[1,2]+tab[2,1])/sum (tab.logit) probit.pred.err.rate <- sum(tab.probit[1,2]+tab[2,1])/sum(tab.probit) list(logit.pred.err.rate,probit.pred.err.rate) } pred.err.logit <-NULL pred.err.probit <-نتیجه NULL <- تابع (rep.no,sam.size,sigma, cut.point.latent){ for(i in 1:rep.no){ sam <-pred.err(sam.size,sigma,cut.point.latent) pred.err.logit[i] <- sam[[1]] pred.err.probit[i] <- sam[[2] } لیست (pred.err.logit,pred.err.probit) } sigma.high <-ماتریس(c(1,.41,.5,-.7,.41,1,0,0,.5,0,1,0,-.7,0,0,1),nrow=4 ) خروجی <- result(rep.no=1000,sam.size=500,sigma=sigma.high,cut.point.latent=.53) ### یافته ها: t.test(خروجی[[1]]،خروجی[[2]])
چگونه می توانم نرخ خطای پیش بینی را در رگرسیون لجستیک محاسبه کنم؟
60332
من یک الگوریتم با 3 پارامتر دارم که مجموع این پارامترها برابر با یک است. $a_1+a_2+a_3=1$ و هر کدام باید بین $0 تا $1$ باشد. من می خواهم نقطه بهینه برای این پارامترها را پیدا کنم. معادله ترکیبی خطی از این سه پارامتر است، $y=a_1 g_1+a_2 g_2+a_3 g_3$ و $g_1$، $g_2$ و $g_3$ برخی از ثابت های شناخته شده هستند. اگر از اعتبارسنجی k fold cross برای یافتن نقطه بهینه استفاده کنم، فضای جستجو بسیار بزرگ است زیرا مجموعه داده بزرگ است. آیا روش آزمایشی برای چنین مواردی وجود دارد؟ اگر بخواهم نقطه بهینه را مثلا با k-fold جستجو کنم و با ثابت گرفتن دو تا از آنها و تغییر دیگری، فضا بزرگ می شود. هر پیشنهادی؟ آیا روش بهتری برای این کار وجود دارد؟ با تشکر
یافتن نقطه بهینه پارامترها
64100
**وضعیت:** چهار مدل رگرسیون فضایی *** _یکسان_ *** وجود دارد، با این تفاوت که هر کدام از متغیرهای وابسته متفاوتی استفاده می کنند. متغیرهای مستقل شامل مجموعه استانداردی از متغیرها هستند که از تجزیه و تحلیل مؤلفه های اصلی به دست می آیند. متغیرهای وابسته با استفاده از نمره استاندارد برای هر مشاهده استاندارد شده اند. **سوال:** آیا می توان ضرایب رگرسیون را مستقیماً در بین مدل ها مقایسه کرد؟ به عنوان مثال، آیا می توانم بگویم که چون ضریب IV در مدلی که از DV اول استفاده می کند 25/0 و در مدلی که از DV دوم استفاده می کند 50/0 است، تاثیر IV در مدل اول دو برابر تاثیر است. از مدل دوم؟ **کمی پیشینه بیشتر:** من از چهار مدل رگرسیون فضایی استفاده می کنم تا ببینم چه عوامل اجتماعی-دموگرافیک با فقر در یک منطقه مرتبط است. واحدهای رصد، سرشماری هستند. چهار مدل به جز متغیر وابسته استفاده شده یکسان هستند. هر مدل دارای مجموعه یکسانی از متغیرهای مستقل از یک مکان و مجموعه داده است. متغیرهای مستقل با استفاده از عوامل از تجزیه و تحلیل مؤلفه های اصلی استخراج شدند. متغیرهای وابسته استفاده شده بیانگر چهار روش مختلف برای سنجش رفاه یک تراکت سرشماری است که عبارتند از: 1) درصد افراد فقیر در هر تراکت سرشماری با استفاده از خط فقر A، 2) درصد افراد فقیر در هر منطقه سرشماری با استفاده از خط فقر. ب، 3) درآمد سرانه سرشماری، و 4) نسبت درآمد سرشماری به متوسط ​​درآمد منطقه ای. با این حال، به جای استفاده از مشاهدات برای DVs، من از نمرات استاندارد (نمرات z) هر مشاهده استفاده کرده ام، با این هدف که نتایج رگرسیون را در بین مدل ها قابل مقایسه کنم. **برای پیچیده تر کردن مسائل:** دو تا از متغیرها مستقیماً فقر را اندازه گیری می کنند، در حالی که دو متغیر دیگر درآمد را اندازه گیری می کنند، بنابراین جهت روابط بین IV و DV معکوس شده است. آیا این امر باعث ایجاد مشکلات اضافی در مقایسه مستقیم ضرایب رگرسیون می شود؟
مقایسه ضرایب رگرسیون در بین مدل ها با متغیرهای وابسته استاندارد شده
60485
من شروع به بررسی فیلتر ذرات برای مشکلی کردم که دارم. به ویژه، من می خواهم ابعاد ذرات را کاهش دهم. مدلی که من دارم قابلیت پارتیشن بندی را دارد. بگذارید بردار حالت من $\mathbf{x}=\begin{bmatrix}{\mathbf{x}_1}^T && {\mathbf{x}_2}^T \end{bmatrix}^T$ باشد. همه متغیرهای پیوسته هستند. مدل پویا من ممکن است به صورت زیر بیان شود: $\begin{bmatrix}{\mathbf{x}_1}(k+1) \\\ {\mathbf{x}_2}(k+1) \end{bmatrix} = \ start{bmatrix}f_1\left( \begin{bmatrix}{\mathbf{x}_1(k)} \\\ {\mathbf{x}_2}(k) \end{bmatrix}\ , \mathbf{u}(k)، \mathbf{w}_1(k) \راست)\\\ \mathbf{F}_2 \mathbf {x}_2(k) + \mathbf{w}_2(k)\end{bmatrix} \\\ \mathbf{z}(k) = \mathbf{H}_1 \mathbf{x}_1 + \mathbf{H}_2\left(\mathbf{x}_1\right)\mathbf{x}_2 + \mathbf{v}(k)$ جایی که $\ left(\bullet\right)$ یک تابع از، با حروف پررنگ ماتریس ها و $\mathbf{u}(k)$ یک کنترل است. بردار بردارهای تصادفی $\mathbf{w}_1(k)$، $\mathbf{w}_2(k)$ و $\mathbf{v}(k)$ نویز گاوسی سفید مستقل از یکدیگر هستند. مدل فضای حالت من کاملاً ساختار خطی مشروط آنطور که در گوستافسون پیشنهاد شد نیست: $\begin{bmatrix}{\mathbf{x}_1}(k+1) \\\ {\mathbf{x}_2}(k+1 ) \end{bmatrix} = \begin{bmatrix} f_1\left( \mathbf{x}_1 \right) + \mathbf{F}_1\left( \mathbf{x}_1\right) \mathbf{x}_2 + g_1 \left( \mathbf{x}_1 \right) \mathbf{w}_1(k) \\\ f_2\left( \mathbf{x}_1 \راست) + \mathbf{F}_2\left( \mathbf{x}_1\right) \mathbf{x}_2 + g_2 \left( \mathbf{x}_2 \right) \mathbf{w}_2(k) \end{bmatrix} \\\ \mathbf{y }(k) = h_1\left( \mathbf{x}_1 \right) + \mathbf{H}_2\left( \mathbf{x}_1 \right) \mathbf{x}_2 + \mathbf{v}(k)$ می‌توانم انتقال حالت را با نویز افزودنی بدون تقریب زیاد تقریب بزنم، اما نمی‌توانم به راحتی $f_1\ چپ را تقسیم کنم ( \begin{bmatrix}{\mathbf{x}_1(k)} \\\ {\mathbf{x}_2}(k) \end{bmatrix}\right)$. آیا این مدل می تواند Rao-Blackwellised را برای فیلتر ذرات انجام دهد؟ اگر چنین است، چه مقالاتی را باید بخوانم تا نحوه انجام آن را یاد بگیرم؟ * * * **افزودن:** من موفق شدم مدل را برحسب: $\begin{bmatrix}{\mathbf{x}_1}(k+1) \\\ {\mathbf{x}_2} تقسیم کنم (k+1) \end{bmatrix} = $ $\begin{bmatrix} f_1\left( \mathbf{x}_1(k) , \mathbf{u}(k)، \mathbf{w}(k) \راست) \\\ \mathbf{F}_2 \left( \mathbf{x}_1(k) \راست) \mathbf{x}_2 (k) + \mathbf{B}\left(\mathbf{x}_1(k)\right) \mathbf{u}(k) + \mathbf{G}\left( \mathbf{x}_1(k)\right) \mathbf{w}(k) \end{bmatrix} \\\ \mathbf{z}(k) = \mathbf{H} _2\left(\mathbf{x}_1\right)\mathbf{x}_2 + \mathbf{v}(k)$ بردار نویز (گاوسی) $\mathbf{w}(k)$ برای هر دو قسمت بالا و پایین عناصر انتقال حالت یکسان است، اما من می‌توانم آنها را در صورت لزوم _واقعا_ به هزینه دقت تقسیم کنم. نویز اندازه گیری $\mathbf{v}(k)$ مستقل است. این مدل هنوز به صورت مشروط به شکل بالا خطی نیست. آیا فرم اصلی یا فرم بالا می تواند به حاشیه رانده شود؟ * * * **موضوع:** من قبلاً از یک فیلتر کالمن بدون بو برای این مدل استفاده کرده ام که نسبتاً خوب کار کرده است، اما می خواهم در صورت امکان عملکرد کمی بیشتر استخراج کنم. اگر بتوانم طبق بالا پارتیشن بندی کنم، می توانم 18 حالت را به 9 حالت برای قسمت های خطی و غیر خطی تقسیم کنم که، همانطور که تاکنون تئوری را فهمیدم، باید تعداد ذرات مورد نیاز من را به شدت کاهش دهد.
فضای حالت سیاه شدن Rao-Blackwellising برای فیلتر ذرات (حاشیه‌ای)
60334
من یک مدل PLS با تعداد مشاهدات کم ($n=50$) اجرا می کنم. در حالی که چندین کار آکادمیک استدلال می‌کنند که این حجم نمونه برای اجرای این نوع مدل مناسب است، وقتی نوبت به تعداد مواردی که در روش راه‌اندازی خود می‌گیرم کاملاً گیج شده‌ام. من تخمین مسیرهای بسیار قوی را برای مسیرهای خاص بدون آماره t قابل توجه دریافت می کنم (50 مورد، 500 نمونه). با این حال، وقتی تعداد موارد را بالای n قرار می‌دهم (مثلاً 100 مورد، 500 نمونه)، مقادیر t مطابقت بیشتری با تخمین‌های مسیر دارند.
چرا افزایش تعداد کیس های بوت استرپ ضرایب PLS را قابل توجه می کند؟
81288
این یک سوال تمرینی است که وقتی نمونه‌های تست تناسب اندام را انجام دادم با آن برخورد کردم. یک شرکت پارچه‌ها را از طریق پست می‌فروشد. اندازه لباس‌ها با اندازه باسن مشخص می‌شود. بنابراین قد مشتریان یک مشتری خاص ممکن است به طور قابل توجهی متفاوت باشد. مجموعه داده های ارتفاع ارسال شده توسط مشتریان سایز 18 ارائه شده است. مجموعه داده ها شامل فاصله کلاس، نمره متوسط ​​کلاس و فرکانس است. الف) با توجه به اینکه $\sum$f=265، $\sum fx$=40735، $\sum fx^2$=6299425 میانگین و انحراف معیار ارتفاعات را تخمین می زنند. ب) شرکت تصمیم می گیرد که امکان تولید طیف وسیعی از لباس ها برای یک سایز خاص مناسب برای مشتریان با قد های مختلف وجود ندارد. باید یک قد واحد انتخاب شود و پیشنهاد می شود که برای این کار میانگین قد انتخاب شود. در مورد این پیشنهاد نظر دهید. همانطور که برای مشتریان سایز 18 اعمال می شود و یک پیشنهاد جایگزین ارائه می دهد. سوال من این است که چگونه می توانم واریانس **نمونه** را از $\sum$f=265, $\sum fx$=40735, $\sum fx^2$=6299425 از V(X)=E(X$^) محاسبه کنم 2$)- E[X]$^2$ چیزی که به دست می‌آورم واریانس جمعیت است و واریانس نمونه نیست درست است؟ برای واریانس نمونه باید بر n-1 تقسیم کنم. پس چگونه می توانم مقدار واریانس **نمونه** را بدست بیاورم؟ همچنین چرا برای انحراف معیار **تخمین** مقادیر را می خواهد؟ این سوال مشخص نکرده است که نمونه ای در حال گرفتن است. پس آیا اینها واریانس جامعه نیستند و به این معنی است که من در حال محاسبه هستم؟ لطفا به من کمک کنید تا قسمت ب را پاسخ دهم؟
به دست آوردن واریانس نمونه از داده های گروه بندی شده برای آزمون خوب بودن برازش
53191
من یک سوال در مورد چگونگی تفسیر برخی از داده های گسسته دارم. برخی از آنها بسیار آسان هستند، مانند تعداد فرزندان در یک خانواده: این یک متغیر مجزا و عددی است که به عنوان یک متغیر نسبت اندازه گیری می شود. متغیرهای دیگر آنقدرها هم آسان نیستند، برای مثال * سن، که در سال‌های کامل اندازه‌گیری می‌شود: آیا این فاصله است یا نسبت؟ * تعداد سیگار مصرف شده در روز: این فاصله زمانی است یا نسبت؟ تفاوت بین بازه و نسبت این است که نسبت صفر مطلق دارد (زمانی که خاصیت اندازه گیری شده وجود نداشته باشد). در مورد سن اندازه گیری شده در سال های کامل، یک نوزاد 2 ماهه صفر (کل) سال دارد، اما این بدان معنا نیست که فرد سن ندارد... پس این نسبت است؟
فاصله یا نسبت؟
46063
می خواهم بدانم در نظرسنجی آموزشی چند درصد قابل قبول است؟ اگر نمرات رضایت 77 درصدی از موادمان را به دست آوریم آیا قابل قبول، خوب، ضعیف است؟
نمرات قابل قبول در نظرسنجی
65677
من یک جنگل تصادفی دارم که با بردارهای _n_ هر کدام با متغیرهای _m_ آموزش داده شده است. هر متغیر بر اساس زمان محاسبه آن هزینه دارد (_m1_ ممکن است 1 واحد طول بکشد در حالی که _m2_ ممکن است 100 طول بکشد، که آن را گران تر می کند). تا آنجا که من متوجه شدم، جنگل های تصادفی می توانند سهمی را که هر متغیر در کل جنگل ایجاد می کند به شما بدهد. متغیرهای من مستقل نیستند، بنابراین بین برخی از آنها همبستگی وجود دارد. **روش صحیح تعیین اهمیت متغیر متغیرها با در نظر گرفتن هزینه آنها چیست؟**
تحلیل هزینه - فایده متغیر در جنگل تصادفی
65675
من نمی فهمم چرا در آزمون F نسبت بین MSE بین موضوع و MSE درون موضوع را محاسبه می کنیم. تا آنجا که من می دانم، این به این دلیل است که ما می خواهیم از توزیع F استفاده کنیم، که نرخی است بین دو توزیع $\chi^2$ تقسیم درجه آزادی آنها. سوال من این است: چرا از نسخه ساده این روش استفاده نمی شود؟ آیا نمی‌توانیم فقط نسبت مجموع مربع‌های بین موضوعات را با مجموع مربع‌های درون موضوعات بگیریم؟ سپس می‌توانیم این نتیجه را با توزیعی مقایسه کنیم که حاصل نسبت بین دو توزیع $\chi^2$ است، به جای تقسیم صورت و مخرج برای درجات آزادی. آیا منطقی است؟ چرا از راه دیگری استفاده می کنند؟
چرا از توزیع F و آزمون F استفاده کنیم؟
46064
من بالا و پایین را جستجو کرده ام و به سادگی نمی توانم این جدول را در هیچ کجا پیدا کنم. من کاملاً مطمئن هستم که برای اهداف عملی به آن نیازی ندارم - که روش‌های دیگری وجود دارد، اما اگر کسی بتواند به من در جهت درست پیدا کردن یک آنلاین به من اشاره کند بسیار مفید خواهد بود. همچنین باید مقادیر منفی داشته باشد. من یک احساس خنده دار دارم که برای پرسیدن این موضوع از من ناراحت می شود. رحم کن
توزیع عادی استاندارد - جدول z برای PDF
82732
من در حال حاضر روی یک سیستم یادگیری تطبیقی ​​برای ریاضیات دبیرستان کار می کنم. دانش‌آموزان سؤالات را در آزمون‌ها کامل می‌کنند و من باید بتوانم سؤالاتی را با سطح دشواری مناسب انتخاب کنم (مثلاً احتمال درست بودن تقریباً 75٪) و یک معیار شایستگی برای اندازه‌گیری مهارت دانش‌آموز در یک موضوع فرعی خاص ایجاد کنم. ما اطلاعات صریحی در مورد دشواری سؤالات یا توانایی های دانش آموزان نداریم - هر دو باید از داده ها استنباط شوند. سؤالات به موضوعات و موضوعات فرعی تقسیم می شوند (به هر سؤال یک مبحث و موضوع فرعی اختصاص داده می شود) و ما یک نمودار وابستگی داریم که نشان می دهد کدام زیرموضوعات به موضوعات فرعی دیگر بستگی دارد، بنابراین می توانیم مطالب دانش آموز را در نظر بگیریم. عملکرد در زمینه های خارج از موضوع فرعی چگونه می توانم شانس درست گرفتن یک سوال را بر اساس داده های تاریخی تخمین بزنم و معیارهایی برای دشواری سوالات و سطوح مهارت دانش آموزان ایجاد کنم؟
انتخاب مسائل دشواری مناسب بر اساس یادگیری تطبیقی
53199
من چندین اندازه گیری از نسبت ها (مقادیر در [0، 1]) $\theta_1،...،\theta_n$ دارم، که هر کدام با یک بازه اطمینان (نامتقارن) 95٪. $\theta$ اندازه‌گیری‌های مکرر یک متغیر در جهان است، بنابراین من می‌خواهم آنها را با هم جمع کنم تا تخمینی از $\hat{\theta}$ با فواصل اطمینان خاص خودش (که می‌تواند نامتقارن باشد) به دست آید. .) نکته مهم این است که من می خواهم تخمین را به اندازه گیری های پایین وزن متناسب با عرض فاصله اطمینان آنها انجام دهم. اگر من $\theta_{1} = 0.6$ با CIs $(0.5,0.7)$ و $\theta_{2} = 0.8$ با CIs $(0.3,0.9)$ دارم، می‌خواهم برآورد $\hat را داشته باشم. {\theta}$ به وزن $\theta_{1}$ بسیار بیشتر است و بنابراین تخمینی نزدیکتر به 0.6 از 0.8 ارائه می دهد (اما همچنین به عدم تقارن بازه های اطمینان $\theta_{2}$.) یک راه کلی برای انجام این کار چیست؟ یک راه ساده برای به دست آوردن $\hat{\theta}$ این است که از اندازه هر CI در یک جمع وزنی استفاده کنید: $s_1 = 0.7 - 0.5، s_2 = 0.9 - 0.3 $\hat{\theta} = \frac {\theta_{1}(1/s_{1}) + \theta_{2}(1/s_{2})}{(1/s_{1}) + (1/s_{2})}$ اما این یک CI برای $\hat{\theta} ایجاد نمی کند $ و از عدم تقارن CI های $\theta_{1},\theta_{2}$ استفاده نمی کند، فقط از اندازه آنها استفاده می کند. چگونه می توان این کار را به درستی انجام داد؟ آیا باید نسبت‌ها را به متغیری تبدیل کرد که بتوان آن را با یک توزیع خوب‌تر مانند گاوسی مدل‌سازی کرد؟ نوع نهایی این سوال: هر نسبت $\theta_i$ با نمونه گیری مونت کارلو به دست آمد. هر $\theta_i$ فقط مقدار میانگین آن توزیع است (که توزیع پسینی برای $\theta_{i}$ بود) و بازه‌های 95% از نمونه‌های مورد استفاده برای تخمین توزیع مشتق شده‌اند. این بدان معناست که من اطلاعات بیشتری در مورد هر $\theta_i$ دارم تا فقط میانگین پسین و CIs. من در واقع یک توزیع کامل از مقادیر برای آن دارم و بنابراین آیا روش های کلی برای استفاده از آنها در اینجا نیز وجود دارد؟ با تشکر p.s. من از حداقل فرضیات در مورد چگونگی ارتباط $\theta$ها با یکدیگر خوشحالم. از نظر تئوری، همه آنها اندازه گیری های یک متغیر هستند، اما هر اندازه گیری دارای مقادیر مشخصی از نویز است. من هیچ اولویت قوی در مورد فرآیند نویز ندارم.
ادغام فواصل اطمینان نامتقارن برای نسبت ها؟
82885
من الگوریتم سه عاملی ماتریس غیر منفی (پیوند به کاغذ) را پیاده سازی کرده ام. If مشابه NMF شناخته شده تر (فاکتورسازی ماتریس غیر منفی) است، اما دانش قبلی را برای نمایش یادگیری نیمه نظارت شده در خود دارد. اصل اساسی این است که یک ماتریس سند مدت X را می توان به صورت $$X = FSG^T$$ فاکتور گرفت که در آن * $X$ یک ماتریس $m\times n$ است که نمایانگر $n$ اسناد و $m$ است. شرایط * $F$ یک ماتریس $m\times k$ است. ردیف i'th احتمال تعلق $t_i$ به کلاس های $k$ را نشان می دهد * $G$ یک ماتریس $n\times k$ است. ردیف اول احتمال تعلق $d_i$ به کلاس‌های $k$ را نشان می‌دهد * $S$ یک ماتریس $k\times k$ است، یک نمای فشرده کم‌بعد از $X$ را ارائه می‌دهد. ماتریس S به صورت $S = (F^TF)^{-1}F^TXG(G^TG)^{-1}$ راه اندازی می شود. من کدم را اجرا کردم، که دقیقاً از مقاله بالا پیروی می کند، و در یک مجموعه داده به خوبی اجرا شد. با این حال، در یک مجموعه داده دیگر، ماتریس F منجر به وضعیتی می شود که در آن $F^TF$ معکوس نیست. در نتیجه، من نمی‌توانم ماتریس S را مقداردهی اولیه کنم. من به معنای واقعی کلمه روزها را صرف تلاش برای یافتن اطلاعاتی در مورد نحوه ادامه در این سناریو کرده‌ام، اما در هیچ یک از مقالات مرتبط چیزی ذکر نشده است. اگر کسی می داند چگونه با این وضعیت کنار بیایم، لطفا به من کمک کند. با تشکر
در سه عاملی کردن ماتریس غیر منفی، مقداردهی اولیه امکان پذیر نیست زیرا ماتریس تکی است
52246
![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/HEZRS.jpg) 1. با فرض اینکه $H_0$ درست باشد، توزیع آمار آزمون چگونه است؟ t(29) 2. با فرض اینکه $H_0$ درست باشد، مقدار مورد انتظار آمار آزمون چقدر است؟ 87.70 3. میانگین نمونه 87.7 ___ خطاهای استاندارد زیر میانگین 90 بود. 1.615 آیا کسی می تواند صحت کار من را تأیید کند؟ مخصوصاً در مورد سوال دوم کاملاً مطمئن نیستم. آیا در این مورد آمار آزمون واقعاً 0 خواهد بود (زیرا از میانگین منحرف نمی شود)؟
یادگیری در مورد یک جمعیت به معنای
52248
> میانگین قیمت ملی هر گالن بنزین معمولی 3.71 دلار است. > لیندا مایل است ارزیابی کند که آیا میانگین قیمت گاز در شهرش > به طور قابل توجهی بالاتر از میانگین ملی است یا خیر. او قیمت بنزین را در 20 پمپ بنزین محلی > نمونه برداری می کند و قیمت یک گالن بنزین معمولی را ثبت می کند. > فرض کنید نمونه قیمت های او را می توان یک نمونه تصادفی در نظر گرفت > (نماینده جمعیت بزرگتر همه این قیمت ها). > > برای انجام تست t تک نمونه ای چه شرط اضافی لازم است؟ من می دانم که یک شرط این است که نمونه تصادفی باشد، اما به سختی می توانم بفهمم که مورد دوم چیست. آیا توزیع باید نرمال باشد؟ اگر چنین است، آیا می توانم یک نمودار Q-Q برای آزمایش آن بسازم؟ هر گونه کمکی بسیار قدردانی خواهد شد.
میانگین جمعیت و آزمون فرضیه
60484
بنابراین فقط چرا $SE = \frac{s}{\sqrt n}$ است؟ چگونه باید دلیل وجود $\sqrt n$ در مخرج را تفسیر/ بیان کرد. چرا از نظر شهودی میانگین نمونه را بر جذر اندازه نمونه تقسیم می کنیم؟ و چگونه/چرا «خطای استاندارد» نامیده می شود. (سؤال به همان اندازه برای انحراف استاندارد واقعی جمعیت قابل استفاده است: $\frac{\sigma}{\sqrt n}$) آیا یک مشتق شهودی از $SE$ وجود دارد که بتواند این موضوع را روشن کند؟ لطفا فرض کنید دارید آن را برای یک کودک 6 ساله توضیح می دهید که میانگین و حجم نمونه را می داند :)
چرا فرمول خطای استاندارد به همین شکل است؟
46062
> اگر دو PDF تابع تولید لحظه یکسانی داشته باشند که در یک مجموعه > باز حول 0 همگرا می شوند، آنگاه PDFها یکسان هستند. این یک واقعیت شناخته شده است، اما من نمی توانم دلیل آن را پیدا کنم. اگر PDF ها فقط برای مقادیر غیر منفی تعریف شده باشند، MGF اساسا تبدیل Lapleace است و مشکل منحصر به فرد بودن فقط تبدیل لاپلاس است. با این حال، اگر PDF ها در کل خط واقعی تعریف شده باشند، MGF تبدیل لاپلاس نیست. حدس می‌زنم شرایطی که ام‌دی‌اف حول و حوش صفر همگرا می‌شود، ممکن است در این مورد مشکلی را برطرف کند. آیا کسی می تواند دلیل یا مرجعی برای آن ارائه دهد؟
اثبات اینکه MGF زمانی که PDF برای کل خط واقعی تعریف شده است PDF را تعیین می کند
82731
من دو متغیر دارم: 1) درصد جمعیت مناطق مختلف جغرافیایی که دسته خاصی از محصول (مثلاً اسپری مو) را در ماه گذشته خریداری کرده اند 2) درصد جمعیتی که در سال گذشته یک مارک خاص اسپری مو را خریداری کرده اند. من سعی می کنم در کدام منطقه این برند در مقایسه با استفاده عمومی از اسپری مو بهتر عمل می کند و در کدام منطقه بدتر عمل می کند. از آنجایی که متغیر اول برای یک ماه و دومی برای یک سال کامل است، نمی توانم آنها را به این صورت مقایسه کنم. بنابراین فکر کردم که آنها را به z-scores تبدیل کنم و تفاوت بین این دو را در نظر بگیرم. سوال: آیا این یک رویکرد معتبر است؟ (سوال جانبی: توزیع متغیر دوم دارای یک انحراف مثبت کاملاً قوی است، در حالی که اولی نسبتاً طبیعی است. آیا این یک مشکل است؟) پیشاپیش از راهنمایی شما متشکرم! ویرایش‌ها در پاسخ به سؤالات: * برای متغیر 2، من فقط داده‌های آن یک برند خاص را دارم، بنابراین نمی‌توانم بین برندها جمع‌آوری کنم. در حالی که متغیر 1 فقط برای کل دسته محصول است که همه برندها را در بر می گیرد - نمی توان آن را نیز تفکیک کرد. * حجم نمونه بیش از 100 منطقه جغرافیایی است * من یک نمودار پراکنده از دو متغیر را پیوست می کنم. که یکی از آنها متغیر 2 را در مقیاس log نشان می دهد. * فقط برای روشن شدن، من چندان به رابطه کلی بین دو متغیر علاقه مند نیستم، بلکه بیشتر علاقه مند به رسیدن به معیاری هستم که برای هر موجودیت خاص (منطقه) به من بگوید که در متغیر 2 (فروش موارد خاص) چقدر خوب عمل می کند. نام تجاری) نسبت به متغیر 1 (فروش دسته بندی کلی محصول). اکنون، البته، می توانم ببینم که شاید رویکردهای رگرسیون/پراکندگی پیشنهادی ممکن است گامی میانی برای رسیدن به آن هدف باشد. اما بعد از آن چگونه پیشرفت کنم؟ با این حال از پیشنهادات تا کنون بسیار متشکرم! ![scatterplots](http://i.stack.imgur.com/cdR3k.jpg)
آیا امتیاز Z به من کمک می کند تا متغیرهایم را مقایسه کنم؟
60480
من برخی از داده های نمونه با سن دارم و می خواهم آنها را در سطل ها قرار دهم (مثلاً محدوده های 20-24 25-30 و غیره). متغیر حاصل مقادیر 1-8 را تشکیل می دهد. چیزی که من در مورد آن گیج شده ام این است که متغیر جدید چه نوع متغیری است؟
نوع متغیری که با ترکیب کردن برخی از متغیرهای عددی ساخته شده است
19281
هنگام گزارش یک ANOVA مختلط دو طرفه 2×3 اخیراً شنیده ام که اثر متقابل فقط در صورتی باید گزارش شود که دو اثر اصلی قابل توجه باشند (سبک APA). آیا این درست است؟
گزارش اثرات اصلی و تعامل از ANOVA
19280
من در حال تجزیه و تحلیل مجموعه ای از داده ها هستم و دوست دارم توزیع گاما را متناسب کنم. من می دانم که چگونه این کار را در یک بعد انجام دهم، اما داده هایی که اکنون در حال تجزیه و تحلیل هستم، دو بعدی هستند. آیا راهی وجود دارد که بتوانم تابع گامای دو متغیره را در داده ها قرار دهم؟
توزیع گاما دو متغیره PDF
99222
من سعی می کنم توزیع خلفی را برای ماتریس دقیق برای نرمال چند متغیره با نرمال-ویشارت قبلی استخراج کنم. طبق ویکی‌پدیا و منابع دیگر، پاسخ به این صورت است: $p(S|\mu، X، W، v) \\\ \quad \sim W((W^{-1} + \sum_{i=1} ^{N}(x_i-\bar{x})(x_i-\bar{x})^{T} + \frac{rN}{r+N}(\mu_0-\bar{x})(\mu_0-\bar{x})^{T})^{-1}، v+N)$ وقتی سعی می‌کنم خودم آن را استخراج کنم می بینم که چگونه می توانم به نتیجه برسم اما من را گیج می کند زیرا نتیجه را به صورت $p(S|\mu, X, W, v) \\\ \quad\sim W( (W^{-1) می کنم } + \sum_{i=1}^{N}(x_i-\mu)(x_i-\mu)^{T} + \frac{rN}{r+N}(\mu-\mu_0)(\mu-\ mu_0)^{T})^{-1}، v+N+1)$ با ضرب احتمال، میانگین قبلی و دقت قبلی به این نتیجه می‌رسم. $\mu_0$ بودن بیش از حد قبل از میانگین برای $\mu$ من از هر گونه راهنمایی در مورد نحوه استخراج صحیح پسین و اینکه کدام مرحله را اشتباه انجام می دهم سپاسگزارم. متاسفم اما نمی دانم چگونه معادلات ارائه شده را بدست بیاورم.
توزیع خلفی دقت برای نرمال چند متغیره با نرمال-ویشارت قبلی
82880
وقتی $y = X\beta + e$، مسئله حداقل مربعات که محدودیت کروی $\delta$ را بر روی مقدار $\beta$ اعمال می کند، می تواند به صورت \begin{equation} \begin{array} &\operatorname{ نوشته شود. دقیقه}\ \| y - X\beta \|^2_2 \\\ \operatorname{s.t.}\ \ \|\beta\|^2_2 \le \delta^2 \end{array} \end{equation} برای یک سیستم بیش از حد تعیین شده. $\|\cdot\|_2$ هنجار اقلیدسی یک بردار است. راه حل مربوط به $\beta$ توسط \begin{equation} \hat{\beta} = \left(X^TX + \lambda I\right)^{-1}X^T y \ , \end{ به دست می‌آید. معادله} که می تواند از روش ضرب کننده های لاگرانژ به دست آید ($\lambda$ ضریب است): \begin{equation} \mathcal{L}(\beta,\lambda) = \|y-X\beta\|^2_2 + \lambda(\|\beta\|^2_2 - \delta^2) \end{equation} من می‌دانم که خاصیتی وجود دارد که \begin{equation} \left(X^ TX + \lambda I\right)^{-1}X^T = X^T\left(XX^T + \lambda I\right)^{-1} \ . \end{equation} سمت راست شبیه معکوس کاذب ماتریس رگرسیون $X$ در حالت نامشخص (با پارامتر تنظیم اضافه شده، $\lambda$) است. آیا این به این معنی است که می توان از همان عبارت برای تقریب $\beta$ برای مورد تعریف نشده استفاده کرد؟ آیا یک مشتق جداگانه برای عبارت مربوطه در حالت تعریف نشده وجود دارد، زیرا محدودیت محدودیت کروی با تابع هدف اضافی است (حداقل هنجار $\beta$): \begin{equation} \begin{array} &\operatorname{min .}\ \| \beta \|_2\\\ \operatorname{s.t.}\ X\beta = y \ . \end{آرایه} \پایان{معادله}
استفاده از رگرسیون پشته برای یک سیستم معادلات نامشخص؟
97040
سوال من ممکن است چندان منطقی نباشد اما من چند روزی است که گیر کرده ام، بنابراین واقعاً امیدوارم بتوانم در اینجا به یک راه حل برسم. بنابراین اساساً من یک مجموعه داده را از یک توزیع قانون قدرت با یک پارامتر شناخته شده شبیه‌سازی کرده‌ام، می‌خواهم آزمایش کنم که کدام روش (binning method+MLE) بهترین عملکرد را در تخمین پارامتر مدل دارد. توزیع قانون قدرت: f(x)=Cx^(-\mu) در اینجا من مدل خود را در R شبیه سازی کردم: u<-runif(500) fakedata500<-((2*(1-u))^(- 1)) و fakedata500 مجموعه داده ای است که می خواهم آزمایش کنم. اجازه داده ام که پارامتر توزیع \mu =2 باشد. روش اول Bining خطی است، نمودار فرکانس را رسم کنید و رگرسیون خطی را بعد از: a<-hist(fakedata500، breaks=c(0,2,4,8,16,32,64,128,256),plot=FALSE) انجام دهید > x<- c(0,2,4,8,16,32,64,128,256) > y<-c(a$counts,0) > x<-cbind(x,y) > x.df<-data.frame(x) > x.sub<-subset(x.df,y>0 & x >0) > u<-log10(x.sub) > plot(u، main=expression(paste(500 عدد تصادفی تولید شده، ,mu، =2.00 ))، xlab=Log (geometric bin width), ylab=Log (Frequency x)) > res=lm(u) > res Call: lm(formula = u) ضرایب: (Intercept) y 2.187 -1.060 روش دوم توزیع تجمعی و رگرسیون خطی: بار (fakedata500.Rda) > X<-fakedata500 > p<-ppoints(100) > plot(log(quantile(X,p=p)),log(1-p), + ylab=Log (1-مجموع مقادیر <x),xlab=Log ( x),main=expression(paste(500 عدد تصادفی تولید شده، ,mu، =2.00 ))) > df <- data.frame(x=log(1-p),y=log(quantile(X,p=p))) > fit <- lm(y~x,df) > fit Call: lm(فرمول = y ~ x , داده = df) ضرایب: (برق) x -0.6728 -0.9775 روش سوم برآورد حداکثر درستنمایی (MLE): > load(fakedata500.Rda) > library(stats4) > library(bbmle) > x<-fakedata500 > pl <- function(u){-length(x)*log(u-1)-length(x)* (u-1)*log(0.5)+u*sum(log(x))} > mle1<-mle2(pl، start=list(u=2)، data=list(x)) > summary(mle1) برآورد حداکثر احتمال فراخوانی: mle2(minuslogl = pl، start = list(u = 2)، data = list(x)) ضرایب: Estimate Std. خطای z مقدار Pr(z) u 2.001598 0.044793 44.686 < 2.2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 -2 log L: 1303.66 آیا آزمون نسبت درستنمایی/آزمون g-آزمون خوب بودن برازش روش مناسبی برای مقایسه و جستجوی بهترین روش برای تخمین مقدار پارامتر است؟ یا g-test فقط برای تست MLE one است؟ اگر چنین است، چگونه می توان آزمون g/خوب بودن برازش را در R در آزمایش اعتبار MLE انجام داد؟ با عرض پوزش از این پست طولانی و پیشاپیش از شما برای هر گونه کمک متشکرم.
خوبی تناسب یک مدل
64102
آیا می توان رویه معمول MLE را برای توزیع مثلث اعمال کرد؟ - من تلاش می کنم، اما به نظر می رسد در یک مرحله از ریاضی با نحوه تعریف توزیع مسدود شده ام. من سعی می کنم از این واقعیت استفاده کنم که تعداد نمونه های بالا و پایین c را می دانم (بدون دانستن c): این 2 عدد cn و (1-c)n هستند، اگر n تعداد کل نمونه ها باشد. با این حال، به نظر نمی رسد که در اشتقاق کمکی کند. لحظه لحظه ها یک برآوردگر برای c را بدون مشکل زیاد می دهد. ماهیت دقیق انسداد MLE در اینجا چیست (اگر واقعاً وجود داشته باشد)؟ جزئیات بیشتر: اجازه دهید $c$ را در $[0,1]$ در نظر بگیریم و توزیع تعریف شده در $[0,1]$ توسط: $f(x;c) = \frac{2x}{c}$ اگر x < c $f(x;c) = \frac{2(1-x)}{(1-c)}$ if c <= x بیایید یک $n$ i.i.d نمونه بگیریم $\\{x_{i}\\ }$ از این توزیع با توجه به این نمونه، لاگ احتمال c را تشکیل دهید: $\hat{l}(c | \\{x_{i}\\}) = \sum_{i=1}^{n}ln(f(x_{i }|c))$ من سعی می کنم از این واقعیت استفاده کنم که با توجه به شکل $f$، ما می دانیم که نمونه های $cn$ زیر $c$ (ناشناخته) و $(1-c)n$ خواهند بود. به بالای $c$ خواهد رسید. IMHO، این اجازه می دهد تا جمع را در بیان احتمال log- درستنمایی تجزیه کنیم: $\hat{l}(c | \\{x_{i}\\}) = \sum_{i=1}^{cn} ln\frac{2 x_{i}}{c} + \sum_{i=1}^{(1-c)n}ln\frac{2(1-x_{i})}{1-c}$ در اینجا، من مطمئن نیستم که چگونه ادامه دهم. MLE شامل گرفتن مشتق w.r.t است. $c$ از log-likelihood، اما من $c$ را به عنوان حد بالایی جمع بندی دارم، که به نظر می رسد مانع از آن شود. می‌توانم با استفاده از توابع نشانگر، شکل دیگری از گزارش احتمال را امتحان کنم: $\hat{l}(c | \\{x_{i}\\}) = \sum_{i=1}^{n}\\ {x_{i}<c\\}ln\frac{2 x_{i}}{c} + \sum_{i=1}^{n}\\{c<=x_{i}\\}ln\frac{2(1-x_{i})}{1-c}$ اما استخراج شاخص‌ها انجام نمی‌شود به نظر آسان می رسد، اگرچه دلتاهای دیراک می توانند ادامه دهند (در حالی که هنوز شاخص هایی دارند، زیرا ما نیاز به استخراج محصولات داریم). بنابراین، در اینجا من در MLE مسدود شده ام. هر ایده ای؟
MLE برای توزیع مثلث؟
53195
در صفحه 161 تئوری تخمین نقطه ای لمان و کازلا، آنها معادل سازی تابعی و عدم تغییر صوری را معرفی می کنند. $\bar{h}$ در دو مکان ظاهر می‌شود: * در Equivariance عملکردی: > $\phi[\delta(X)]$به‌عنوان تخمین‌گر $\phi[\bar{h}(\theta)]$ * در Formal Invariance: معادله (2.16) من تعریف $\bar{h}$ را پیدا نکردم، بنابراین می‌پرسیدم که آیا $\bar{h}$ اشتباه تایپی $h$؟ یا چگونه تعریف می شود؟ با تشکر و احترام! ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/0K17l.png)
آیا $\bar{h}$ یک اشتباه تایپی $h$ در معادله تابعی و عدم تغییر رسمی در TPE Lehmann است؟
16835
آیا اثبات یا قضیه‌ای وجود دارد که بگوید تفاوت بین انتظارات توزیع سفارش $n$ از توزیع $X$ با کاهش واریانس $X$ کاهش می‌یابد؟ به طور خاص، من می‌پرسم: اگر X و Y توزیع‌های احتمالی هستند که در یک محدوده و با میانگین یکسان تعریف شده‌اند، آیا واریانس (X) < واریانس (Y) نشان می‌دهد که $\mathbb{E}X_{kn} - \mathbb{ E}X_{sn} < \mathbb{E}Y_{kn} - \mathbb{E}Y_{sn}$ که $X_{in}$ است $i_{th}$ بزرگترین $n$ از $X$ و $k>s$ می‌گیرد. در واقع، من می‌توانم حتی دقیق‌تر باشم، زیرا به تفاوت بین انتظارات میانگین و مقادیر شدید علاقه دارم. بنابراین، آیا $Var(X) < Var(Y) \to \mathbb{E}X - \mathbb{E}X_{1n} < \mathbb{E}Y - \mathbb{E}Y_{1n}$ ( و برای قدر مطلق تفاوت بین EX و EXnn یکسان است) همچنین، برای حالت کلی: آیا این درست است که برای هر توزیع X و Y که در یک محدوده تعریف شده اند، واریانس (X) < واریانس (Y) دلالت بر $\mathbb{E}X_{kn} - \mathbb{E}X_{sn} < \mathbb{E}Y_{kn} - \mathbb{E}Y_{sn}$ دارد
انتظارات آماری ترتیب و واریانس توزیع اصلی
64107
من دو بردار با 100 مقدار واقعی دارم. من می خواهم برای چند مورد مانند همبستگی دو بردار از تست جایگشت استفاده کنم. من از رویکرد ثابت نگه داشتن یک بردار و سپس تغییر بردار دیگر در رابطه با آن استفاده می کنم و سپس آمار مورد نظر (مانند همبستگی) را روی جایگشت محاسبه می کنم. من راهنمایی برای تکرار اعداد برای مواردی مانند bootstrapping پیدا کرده‌ام، اما راهنمای کلی برای جایگشت‌ها از نوع ساده و مشابه پیدا نکرده‌ام. من کدی برای اجرای جایگشت دارم و بسیار سریع است. من وسوسه شده ام که فقط 1,000,000 را اجرا کنم و به وضوح بزرگ باشم، اما خوب است که مرجعی برای توجیه این موضوع داشته باشم، و من یکی را پیدا نکردم. آیا کسی می تواند به یکی جهت بدهد؟
مرجع خوبی برای تعداد جایگشت برای یک تست ساده؟
82888
من داده‌های سری زمانی دما را دارم که تشخیص داده‌ام به طور مستقل و یکسان توزیع نشده‌اند (از مشاهده نمودارهای همبستگی خودکار و تست‌های Ljung-Box). با این حال، من هنوز هم می‌توانم فایل‌های PDF، معمولاً توزیع‌های GEV، گاما، و Weibull را با مجموعه‌های داده‌های مختلف خود، با آزمون خوب بودن تناسب $\chi^2$ که فرضیه صفر را می‌پذیرد، جا بدهم. بنابراین سوال من این است: از آنجایی که این PDF های زیربنایی فرض می کنند که داده ها i.i.d هستند، و داده های من i.i.d نیستند، چگونه باید اقدام کنم؟ چقدر باید نگران مغرضانه بودن برآوردهایم باشم؟
برازش توزیع احتمال به غیر i.d. داده ها؟
16834
من از آزمون‌های ناپارامتریک فریدمن برای اندازه‌گیری‌های مکرر برای پایان‌نامه‌ام استفاده می‌کنم. میانگین ها و SD ها معمولا گزارش می شوند، اما آزمون های فریدمن از ترتیب رتبه بندی میانگین ها استفاده می کنند. آیا باید مقادیر و محدوده میانه را گزارش کنم؟ من در جایی خواندم که این مناسب تر است، اما من واقعاً هرگز آن را در مقالات تجربی ندیده ام. یا بهتر است میانگین، SD و میانه گزارش شود؟ 2. سوال دوم این است که چه آماری را در یک نمودار رسم کنیم. من ابزاری با نوارهای خطای استاندارد داشتم، اما با توجه به استفاده از آزمون‌های ناپارامتریک، مطمئن نیستم که آیا این مشکلی ندارد. در پست قبلی گفته شد که می توان به جای نوارهای خطای استاندارد با مقادیر میانه از فواصل اطمینان استفاده کرد، اما من واقعاً می خواهم بدانم آیا وقتی تجزیه و تحلیل شما حاوی تست های ناپارامتریک است، استفاده از نمودار با میانگین و SD مشکلی ندارد یا اینکه آیا این کاملاً درست است. غیر قابل قبول پیشاپیش از هر راهنمایی که هر کسی می تواند ارائه دهد متشکرم!
هنگام استفاده از آزمون ناپارامتریک فریدمن چه آمار توصیفی باید در جداول و نمودارها گزارش شود؟
97048
من مجموعه ای از نمونه ها با دو برچسب قرمز و مشکی دارم. من می توانم یک مدل رگرسیون لجستیک برای پیش بینی رنگ برچسب بسازم. هنگامی که یک مدل ساخته شد، می خواهم تست کنم که آیا بیش از حد مناسب است یا خیر. به طور معمول، من مثلاً 30 درصد از نمونه خود را به عنوان خارج از نمونه کنار می گذارم. یک مدل رگرسیون لجستیک بر روی نمونه توسعه 70% بسازید و عملکرد آن (مثلاً جینی) را روی نمونه خارج از آن آزمایش کنید. اگر ببینم که Gini از نمونه توسعه به نمونه خارج می‌شود، می‌دانم که ممکن است مدل بیش از حد نصب شده باشد. با این حال، وقتی نمونه من دارای تعداد کمی قرمز (یا سیاه یا حتی هر دو) باشد، تمایلی به کنار گذاشتن مقداری نمونه خارج از آن برای اعتبارسنجی ندارد. با توجه به محدودیت ترجیح می دهم تا حد امکان از داده استفاده کنم. بنابراین، چه روش‌های اعتبارسنجی مؤثری غیر از روشی که در بالا توضیح دادم وجود دارد که می‌توان از آنها استفاده کرد؟ توجه داشته باشید که در اینجا من سعی نمی‌کنم بهترین شکل مدل را تعیین کنم (زیرا رگرسیون لجستیکی مورد استفاده است)، یا بهترین مقدار برخی پارامترهای تنظیم را تعیین کنم (نیازی به تعیین تعداد متغیرهای مورد استفاده ندارم). من فقط یک مدل دارم و می‌خواهم تست کنم که آیا آن نمونه آموزشی بیش از حد مناسب است یا خیر. بنابراین فکر نمی‌کنم اعتبارسنجی متقاطع در اینجا قابل اجرا باشد.
تست اضافه برازش رگرسیون لجستیک با حجم محدود
82883
فرض کنید شما یک الگوریتم برای کمینه کردن تابع ضرر زیر دارید: $$ loss = \sum_i l(y_i, f(x_i)) $$ فرض کنید در حالت طبقه بندی باینری هستید و نسبت نمونه های منفی به مثبت $ است. r$، جایی که $r >> 1$ (مثلا $r > 20$). با توجه به این الگوریتم و این تنظیم، می‌خواهیم مدلی پیدا کنیم که اندازه‌های F1 را به حداکثر برساند (یا حداقل آن را تقریبی کند). برای سادگی، فرض کنید از تلفات لولای مربع استفاده می کنیم: $\max(0, 1-y_if(x_i))^2$. مشکل این است که اگر فقط با تابع ضرر تمرین کنید، طبقه بندی کننده حاصل تقریبا همیشه به شما پاسخ منفی می دهد که F1 بسیار ضعیفی را به همراه خواهد داشت. \-- گزینه 1: آموزش تابع ضرر وزنی: $$ loss = \sum_{i; y_i=+1} l(y_i، f(x_i)) + \alpha \sum_{i; y_i=-1} l(y_i، f(x_i)) $$ برای برخی $\alpha < 1$ مقدار $\alpha$ را که F1 را به حداکثر می‌رساند، در مجموعه اعتبارسنجی انتخاب کنید. این معادل استفاده از بخش $\alpha$ از برچسب منفی نمونه است. \-- گزینه 2 (یا به علاوه گزینه 1): تنظیم آستانه: قبل از این، اگر $f(x_i) > 0$ باشد، پیش‌بینی مثبت و در غیر این صورت منفی بود. پس از آموزش مدل در مجموعه آموزشی، $\theta$ را در مجموعه اعتبارسنجی، به عنوان آستانه جدید انتخاب کنید: خروجی مثبت است، اگر $f(x_i) > \theta$، در غیر این صورت منفی است. $\theta$ را طوری انتخاب کنید که F1 را در مجموعه اعتبارسنجی به حداکثر برساند. سوال: آیا راه حل جایگزینی می بینید؟ توجه: نه! من نمی توانم تابع ضرر را به F1 منفی تغییر دهم، مگر اینکه بتوانم یک تقریب متمایز پیدا کنم.
به حداکثر رساندن F1-Measure، زمانی که شما یک الگوریتم برای به حداقل رساندن یک تابع ضرر دیگر دارید
7845
فرض کنید من دو توزیع دارم که می خواهم با جزئیات مقایسه کنم، یعنی به گونه ای که شکل، مقیاس و تغییر را به راحتی قابل مشاهده باشد. یک راه خوب برای انجام این کار این است که برای هر توزیع یک هیستوگرام رسم کنید، آنها را در همان مقیاس X قرار دهید و یکی در زیر دیگری قرار دهید. هنگام انجام این کار، بنینگ چگونه باید انجام شود؟ آیا هر دو هیستوگرام باید از مرزهای bin یکسانی استفاده کنند، حتی اگر یک توزیع بسیار پراکنده تر از دیگری باشد، مانند تصویر 1 زیر؟ آیا باید مانند تصویر 2 زیر، برای هر هیستوگرام قبل از بزرگنمایی، bining به طور مستقل انجام شود؟ آیا حتی یک قانون کلی خوب در این مورد وجود دارد؟ ![تصویر 1](http://i.stack.imgur.com/Kqzdr.png) ![تصویر 2](http://i.stack.imgur.com/BpPwP.png)
بهترین راه برای قرار دادن دو هیستوگرام در یک مقیاس؟
63681
من سخت در حال جستجوی وب بودم تا یاد بگیرم چگونه یک سری زمانی رگرسیون پویا را با موفقیت در بسته پیش‌بینی R پیاده‌سازی کنم. داده‌های سری زمانی که من استفاده می‌کنم، داده‌های هفتگی (فرکانس=52) حجم تماس ورودی و متغیرهای پیش‌بینی پست‌کننده هستند. هر از چند گاهی ارسال می شود. آنها پیش بینی کننده قابل توجهی از داده های هفته ای هستند که به آنها رسیدند، هفته بعد و هفته بعد از آن. من متغیرهای تاخیری ایجاد کرده ام و از این سه به عنوان پیش بینی کننده استفاده می کنم. نگرانی اصلی من این است که مدل آریما فرکانس سری زمانی را در نظر نمی گیرد. وقتی بهش میگم ts رو با فرکانس 52 تشخیص بده خطا داره. من تابع fortrain را نگاه کردم اما آن را متوجه نشدم. من همچنین به tbat های پیشنهادی نگاه کردم اما متوجه شدم که با متغیرهای پیش بینی کار نمی کنند. تابع Zoo فرکانس 52 را تشخیص می دهد اما استفاده از آن با بسته پیش بینی توصیه نمی شود. در اینجا کد اصلی است. مشکل این است که سری زمانی calwater[,5] به عنوان چنین تشخیص داده نمی شود. به عنوان یک بردار ساده به عنوان یک عدد صحیح نسبت داده می شود... #این بدون در نظر گرفتن ts fit2 کار می کند <- auto.arima(calwater[6:96,5], xreg=calwater[6:96,6:8] ، d=0) fccal <- پیش‌بینی (fit2، xreg=calwater[97:106،6:8]، h=10) نمودار fccal (fccal، main=Forecast Cal Water, ylab=Calls) #برای تشکیل یک شی ts calincall<-ts(calwater[1:106,5],start=c(2011,23),frequency=52) #یک بار ts به مدل اضافه می‌شود که #خطا را در `[.default`(calincall, 2:100, 1) نشان می‌دهد: تعداد ابعاد نادرست شاید این خطا به این دلیل باشد که اطلاعات کمی بیش از دو سال وجود دارد. #سری‌های زمانی: شروع = c(2011، 23)، پایان = c(2013، 24)، فرکانس = 52 برای هر راهنمایی در مورد این موضوع خاص بسیار سپاسگزار خواهم بود. من از بسته پیش بینی استفاده می کنم و ترجیح می دهم در بسته ادامه دهم، اما آماده پیشنهادات هستم.
حجم تماس: مدل رگرسیون سری زمانی از 52 هفته در سال و پیش بینی کننده های عقب مانده
19823
چرا باید از سن و مربع سن به عنوان متغیرهای کمکی در یک مطالعه ارتباط ژنتیکی استفاده کرد؟ من می توانم استفاده از سن را بفهمم اگر به عنوان یک متغیر کمکی قابل توجه شناسایی شده باشد، اما در مورد استفاده از مربع سن دچار ضرر شده ام؟! ممنون، کوین
چرا باید از مربع سن به عنوان متغیر کمکی در مطالعه ارتباط ژنتیکی استفاده کرد؟
16837
بسته randomForest در نرم افزار R شامل تابع Outlier برای تشخیص نقاط پرت است. این تابع از ماتریس مجاورت یا شیء جنگلی تصادفی برای تشخیص بیرونی استفاده می کند. دفترچه راهنما می گوید که نوع شی randomForest نمی تواند رگرسیون باشد؟ چرا این تابع فقط برای مدل های طبقه بندی قابل استفاده است؟ آیا راه معقولی برای تشخیص نقاط پرت در مدل های رگرسیونی وجود دارد؟
چگونه می توان نقاط پرت را در مدل های رگرسیون تصادفی Forest تشخیص داد؟
63689
از مدل‌های آماری خطی کاربردی کوتنر > روش مقایسه چندگانه بونفرونی خود را به داده > جاسوسی نمی‌دهد، مگر اینکه بتوان از قبل خانواده استنباط‌هایی را مشخص کرد که ممکن است به آن‌ها علاقه مند باشد و به شرط اینکه این خانواده بزرگ نباشد. رویه‌های Tukey و Scheffe شامل خانواده‌هایی از استنتاج‌ها می‌شوند که به طور طبیعی خود را به جاسوسی داده‌ها وامی دارند. رویه‌های Tukey و Scheffe، > اجازه می‌دهند تا داده‌ها به طور طبیعی بدون تأثیر بر ضریب اطمینان یا سطح معنی‌داری انجام شود. چرا رویه Bonferroni در مشکل ردیابی داده ها به خوبی کار نمی کند، در حالی که رویه های Tukey و Scheffe می توانند؟ دلیل مگر اینکه از قبل بتوان خانواده استنباط هایی را که ممکن است به آن علاقه مند باشد مشخص کرد و این خانواده زیاد نباشد را چگونه بفهمم؟ با تشکر
جستجوی داده ها و مقایسه چندگانه در ANOVA
99226
من یک متغیر وابسته و چندین پیش بینی دارم. وابسته پیوسته است و پیش بینی کننده ها ممکن است پیوسته یا دوگانه باشند. نمونه من 200 نفر است. هر ماه، به مدت 6 ماه، برای 200 فرد معیاری از پیش‌بینی‌کننده‌ها دارم و می‌خواهم آن‌هایی را که تأثیر معناداری بر متغیر وابسته دارند، شناسایی کنم. مشکل من این است که من فقط یک اندازه گیری سالانه برای متغیر وابسته دارم. این متغیر قضاوتی در مورد خدمات ارائه شده است و سالی یک بار ارائه می شود. آیا مدل خوبی برای در نظر گرفتن معیارهای مکرر در طول زمان (متغیرهای مستقل) و تأثیر آنها بر یک متغیر وابسته اندازه‌گیری شده وجود دارد؟
بهترین مدل برای تحلیل طولی
99228
من مجموعه ای از نقاط داده را دارم که مانند منحنی زنگوله ای با دامنه ها و عرض های مختلف توزیع شده اند. من باید این نقاط داده را پارامتر کنم و یک تابع گاوسی با پارامترهای دامنه، عرض و افست کاملاً مناسب است. مقادیر y من بین 8 نقطه مختلف بین [-2.3561 3.1415] تعریف شده است و من علاقه مندم که یک گاوسی که در مرکز 0 قرار گرفته باشد. out = amp.*exp( - (0.5*(X./sd).^2) )) + افست; بهینه سازی تابع احتمال به دنبال تخمین اولیه این 3 پارامتر به طور کلی بسیار خوب عمل می کند. و این قبلا در جای دیگری در این سایت مورد بحث قرار گرفته است. مشکل زمانی شروع می شود که نقاط داده من با یک نمایه زنگوله شکل بسیار کم عمق توصیف می شوند، که شبیه چند جمله ای مرتبه دوم با ضریب کوچک است، به طوری که بالاترین و پایین ترین نقاط تفاوت چندانی با هم ندارند. در این موارد، روش بهینه‌سازی مقادیر سیگما و دامنه بسیار بالایی را برمی‌گرداند. اساساً سعی می‌کند داده‌ها را با نوک یک گاوسی به‌طور شگفت‌انگیز تطبیق دهد، که بسیار فراتر از محدوده مقادیر x من است. این مقادیر برازش عظیم آمار من را از بین می برد، زیرا در نهایت می خواهم با این اعداد آماری را با مقایسه گروه های مختلف انجام دهم. در این مواقع، من می‌خواهم یک پارامتر دامنه کوچک و عرض نسبتاً گسترده از رویه بهینه‌سازی بازگردانده شود و این کار را به اندازه کافی خوب انجام می‌دهد. من بهینه‌سازی محدود را امتحان کردم و سعی کردم مقادیر معتبر پارامترها را محدود کنم. اما این همچنین منجر به مقادیری می شود که به شدت در محدوده های مرزی انباشته می شوند. من در این فکر بودم که یک رویکرد کلی برای مقابله با این نوع موقعیت ها چیست؟ اگر با وضعیت مشابهی روبرو شده اید، خوشحال می شوم در مورد تجربه شما بشنوم... در اینجا چند نمونه از داده ها آورده شده است: منحنی خاکستری: تخمین های اولیه منحنی قرمز: منحنی آبی گاوسی نصب شده: داده data_01: وضعیتی را نشان می دهد که در آن پارامترهای سیگما و آمپر بزرگ هستند، حتی اگر یک مقدار دامنه بسیار کوچک کار را به خوبی انجام دهد. `-2.3562 1.2210 -1.5708 -1.6224 -0.7854 -0.1330 0 -0.1126 0.7854 -0.0745 1.5708 1.8017 2.3562 -0.1526 -0.1526 3. ![](http://i.stack.imgur.com/AWkwl.png)
جایگزین‌های بهینه‌سازی غیر خطی محدود: مطالعه موردی با برازش منحنی گاوسی
19821
من در مورد مدل های افزودنی تعمیم یافته مطالعه کرده ام. من از این داده‌ها استفاده می‌کردم (که نسخه‌ای از داده‌های وب‌سایت Hastie است) و کدم را به زبان R اجرا می‌کردم. این داده‌ها اساساً شامل این است که آیا بیمار بیماری عروق کرونر قلب دارد یا نه (متغیری که باید مدل‌سازی شود) و چندین ویژگی بیمار به خاطر این سوال، دو موردی که من به آنها علاقه مندم عبارتند از «sbp» (فشار خون سیتولیک) و «chol.ratio» (نسبت دو نوع کلسترول). من سعی کرده ام chd را با رگرسیون لجستیک مدل کنم. نگاه کردن به نمودارهای پراکنده 'sbp' به نظر غیرخطی به logit مربوط می شود، بنابراین من آن را با splines به صورت زیر مدل کرده ام: با استفاده از 'gam': data1 <- read.csv(coris.csv, sep = ,,، stringsAsFactors = F، هدر = T) نیاز (gam) gam.object <- gam(chd ~ s(sbp, 5) + chol.ratio، data = data1، خانواده = دو جمله ای (لینک = logit)) و با استفاده از بسته `Design`: require(design) rcs.object <- lrm(chd ~ rcs(sbp, 6) + chol.ratio ، داده = داده 1) من می توانم مدل های بعدی را به صورت سه بعدی با استفاده از بسته rcl() رسم کنم و خروجی ها بسیار مشابه هستند - مدلی که از GAM استفاده می کند: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/kP5wv.png) صفحه نشان دهنده مدل برازش شده در محدوده ای از متغیرهای پیش بینی کننده است، و نقاط مدل برازش واقعی، محور z هستند. در سمت راست نسبت کلسترول و محور x به سمت چپ فشار خون سیتولیک و محور عمودی لوجیت است. و مدلی که از lrm با یک rcs استفاده می کند: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/he5LZ.png) بنابراین - با دستور lrm آیا در واقع یک مدل افزودنی تعمیم یافته را برازش می کنید. یک spline را با rcs() مشخص کنید؟ اگر نه، چرا که نه، و چگونه این دو رویکرد متفاوت هستند؟
آیا هر دوی این مدل های افزایشی تعمیم یافته هستند؟
222
من می دانم که این احتمالاً ساده است اما امتیازات مؤلفه اصلی چیست؟ این سوال از تلاش من برای درک این سوال در اینجا سرچشمه می گیرد.
نمرات مؤلفه اصلی چیست؟
16838
لطفا دو مجموعه داده dat1 و dat2 را در قالب زیر در نظر بگیرید. Dat1: x1 x2 x3 x4 x5 1 3 8 2 10 2 12 2 9 6 و Dat2: var type x1 گسسته x2 contns x3 گسسته x4 گسسته x5 contns می‌خواهم مقادیر متغیرها را در dat1 بر اساس ماهیت از dat2 اضافه کنم. به عبارت دیگر، من می‌خواهم متغیرهایی داشته باشم که مقادیر را از dat1 XX=x1+x3+x4 و YY=x2+x5 اضافه می‌کنند. آیا می توانید به من پیشنهاد دهید که چگونه می توانم آن را در R انجام دهم. در واقع، من چند دسته یا نوع متغیر بیشتر دارم.
چگونه می توانم مقادیر برخی از متغیرهای داده شده در یک مجموعه داده را با ماهیت متغیرهای داده شده در مجموعه داده های دیگر اضافه کنم؟
114835
فرض کنید داده‌هایی از برخی میوه‌ها داریم و می‌خواهیم آمارهای مختلفی را برای هر میوه در نظر بگیریم (نمونه‌های مختلفی برای هر آمار وجود دارد). به عنوان مثال: هندوانه: * شکر: 50، 57، 36… * آب: 101، 143، 128… * … خربزه: * شکر: … * آب: … * … (…میوه های بیشتر…) می خواهیم بدانیم که آیا بر اساس در این آمار، میوه ها یکسان است. من به این فکر کردم که از آزمون کولموگروف-اسمیرنوف برای بررسی آن استفاده کنم. بنابراین ما برای هر آمار (قند، آب و ...) برای هر میوه یک CDF داریم. اگر بخواهیم تمام آمار را برای هر میوه در نظر بگیریم، خوب است که از آزمون چند متغیره کولموگروف-اسمیرنوف برای دو نمونه استفاده کنیم و هر جفت میوه را با هم مقایسه کنیم. مشکل اینجاست که با دو نمونه نمی توانم اطلاعاتی در مورد آزمون چند متغیره پیدا کنم و جایی خواندم که تست چند متغیره آنقدرها هم خوب نیست. آیا می توانید یک تست متفاوت را به من بگویید که بتوانم از آن استفاده کنم؟ یا Kolmogorov-Smirnov ایده خوبی است (از کجا می توانم در مورد چند متغیره برای دو نمونه مطالعه کنم)؟
کولموگروف-اسمیرنوف چند متغیره برای دو سملپس
12103
چرا $z=f(x)$ به معنای $E[z]=f(E[x])$ نیست در حالی که f خطی نیست؟ من می توانم مثال بزنم، اما نتوانستم شکل کلی را استخراج کنم. اجازه دهید $z = {x^2}$ اجازه دهید $g(x)$ پی دی اف $x$ باشد. سپس: $ E\left[ z \right] = E\left[ {{x^2}} \right] = \int\limits_{ - \infty }^\infty {\left( {{x^2}} \right)g\left(x \right)dx} $f\left( {E\left[x\right]} \right) = {\left( {\int\limits_{ - \infty }^\infty {\left(x \right)g\left(x \right)dx} } \right)^2}$ \Rightarrow E\left[ z \right] \ne f\left({E\ چپ[ x \راست]} \راست)$
چرا z=f(x) به معنای E[z]=f(E[x]) نیست در حالی که f خطی نیست؟