_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
10444 | به طور کلی ، من متغیرهای مستقل خود را در رگرسیون استاندارد می کنم تا به درستی ضرایب را مقایسه کنم (از این طریق آنها واحدهای یکسانی دارند: انحراف استاندارد). با این حال، با داده های پانل/طولی، مطمئن نیستم که چگونه باید داده های خود را استاندارد کنم، به خصوص اگر یک مدل سلسله مراتبی را تخمین بزنم. برای دیدن اینکه چرا می تواند یک مشکل بالقوه باشد ، فرض کنید شما $ i = 1 ، \ ldots ، n $ افراد در طول $ t = 1 ، \ ldots ، دوره t $ اندازه گیری شده و شما یک متغیر وابسته را اندازه گیری کرده اید ، $ y_ {i ، t اندازه گیری کرده اید }$ و یک متغیر مستقل $x_{i,t}$. اگر یک رگرسیون کامل جمع آوری را اجرا کنید ، خوب است که داده های خود را از این طریق استاندارد کنید: $ x.z = (x- \ text {میانگین} (x))/\ text {sd} (x) $ ، زیرا تغییر نخواهد کرد آمار t از طرف دیگر ، اگر یک رگرسیون غیر مسخره ، یعنی یک رگرسیون برای هر فرد متناسب باشید ، پس باید داده های خود را فقط به صورت فردی استاندارد کنید ، نه کل مجموعه داده (در کد R): برای (من در 1: n) {برای ( t در 1:T) x.z[i] = (x[i,t] - mean(x[i,]))/sd(x[i,]) } با این حال، اگر یک سلسله مراتب ساده را متناسب کنید مدل با یک رهگیری متفاوت توسط افراد، سپس شما از یک برآوردگر انقباض استفاده می کنید، به عنوان مثال، شما یک مدل را بین رگرسیون ادغام شده و unpooled تخمین می زنید. چگونه باید داده های خود را استاندارد کنم؟ استفاده از کل داده ها مانند یک رگرسیون ترکیبی؟ استفاده فقط از افراد، مانند مورد unpooled؟ | آیا استانداردسازی داده های خود در یک رگرسیون با داده های پانل/طولی عمل خوبی است؟ |
46580 | من یک ربات دارم که دارای GPS و سنسورهای سرعت است. GPS تقریباً هر 1-2 ثانیه به روز می شود. من با یک فیلتر کالمن که خیلی خوب کار می کند بازی کرده ام. من تازه یاد گرفتم و در نهایت فکر میکنم فیلترهای ذرات را میفهمم، بنابراین میپرسم آیا فیلتر ذرات برای پیگیری موقعیت ربات در بین بهروزرسانیهای GPS به جای فیلتر کالمن مفید است یا خیر. طرح من چیزی شبیه به این خواهد بود: 1. شروع مختصات GPS. 2. ایجاد N ذره تصادفی توزیع شده در اطراف مختصات شروع (2 متر دقت معمول اکثر سنسورهای GPS است) 3. ربات داده های سرعت را از حسگرها حرکت می دهد و ثبت می کند. 4. همه ذرات را بر اساس یک مدل خطی، داده های سرعت حرکت می دهد. و نویز 5. با سنسور GPS بعدی وزن ذرات بر اساس یک گاوسی از مختصات به روز شده است. آیا من در مسیر درستی هستم یا ارزش کدنویسی را دارد یا باید از فیلتر کالمن استفاده کنم زیرا این یک سیستم خطی است؟ | استفاده از فیلتر ذرات برای مکان یابی ربات |
63122 | من در مورد این مطمئن نیستم: در حالت دو بعدی، اگر کوپول گاوسی را در نظر بگیرم، آیا این با توزیع نرمال دو متغیره یکسان است، در صورتی که توزیع نرمال را برای حاشیه ها انتخاب کنم؟ آیا این برای چند جمعیتی بودن صدق می کند؟ بنابراین آیا یک جفت گاوسی d بعدی با حاشیه های نرمال با توزیع نرمال چند متغیره یکسان است؟ | آیا جفت گاوسی (برای d=2) با حاشیه های نرمال با دو متغیره نرمال یکسان است؟ |
26925 | قبلاً در stackexchange پرسیده شد، این مکان احتمالاً مناسبتر است، اگر کسی بتواند پست قدیمی را حذف کند، ممنون میشوم. من یک معادله رگرسیون خطی از مدرسه دارم، که مقداری بین 1 و -1 نشان می دهد که نشان می دهد مجموعه ای از نقاط داده به اندازه کافی به یک تابع خطی نزدیک هستند یا نه و معادله داده شده در اینجا http://people.hofstra.edu/stefan_waner/realworld/calctopic1/regression.html تحت بهترین تناسب یک خط. من میخواهم از اینها برای تشخیص ژستهای ساده بر اساس یک نقطه در 3 فاصله (x,y,z) استفاده کنم - جلو، عقب، چپ، راست، بالا، پایین. ابتدا می دیدم که آیا آنها روی یک خط در 2 بعد از 3 بعد می افتند، سپس می دیدم که آیا شیب آن خط به صفر نزدیک می شود یا بی نهایت. آیا این سرعت برای تشخیص ژست عملکردی کافی است؟ اگر نه، آیا کسی می تواند یک الگوریتم جایگزین پیشنهاد کند؟ | سرعت مدلسازی خطی |
99754 | من میخواهم یک طبقهبندی نظارتشده بر روی دادهها بسازم که بسته به مشاهده، تعداد متفاوتی از پیشبینیکنندهها را شامل میشود، و من به دنبال بهترین رویکرد برای استفاده هستم. به عنوان مثال (که کاملاً مجموعه داده واقعی من نیست - مال من زیست شناسی است)، تصور کنید من می خواهم یک یادگیرنده برای خطر تصادف جاده ای افراد بر اساس ویژگی های ماشین آنها بسازم. واضح است که مردم می توانند بیش از یک ماشین داشته باشند (و تعداد ماشین ها به خودی خود می تواند یک پیش بینی کننده باشد)، و من نمی دانم که چه رویکردهایی برای استفاده از ویژگی های هر یک از ماشین های آنها به عنوان پیش بینی وجود دارد. البته من فقط میتوانم از نوعی استراتژی ادغام برای ویژگیها استفاده کنم (مثلاً شمارش تعداد کل خوشبوکنندههای هوا و داشتن یک متغیر باینری که توضیح میدهد حداقل یک ماشین اسپویلر دارد یا نه)، اما اگر مثلاً، افرادی که کمتر تصادف می کنند، یک ماشین کانورتیبل و یکی ون خانوادگی دارند که در هر کدام مجموعه ای از ویژگی ها متفاوت است؟ استراتژی های ادغام این وضعیت را به طور دقیق توصیف نمی کنند، و منجر به رقیق شدن بهترین مجموعه از پیش بینی ها می شود. استراتژی دیگری که به ذهن می رسد مدل هایی با داده های از دست رفته است - در این صورت من می توانم برای هر ویژگی هر نوع ماشین یک متغیر داشته باشم که می تواند برای افرادی که نوع خاصی را ندارند روی NA تنظیم شود. اما اگر کسی دو خودرو از یک نوع داشته باشد و این به نوبه خود با داشتن یک خودرو از نظر خطر تصادف متفاوت باشد، چه؟ علاوه بر این، برای مثال، جنگلهای تصادفی، در حالی که دادههای از دست رفته را میدهند، توانایی ارزیابی اهمیت متغیر را در صورت وجود از دست میدهند - که در شرایط من عالی نیست. مطمئناً افراد در سراسر رشته ها - از جمله علم اکچوئری فکر می کنم - با این نوع مشکلات مواجه شده اند؟ اگر بتوانید برخی از مقالات/کتاب های مرتبط را به من معرفی کنید بسیار سپاسگزار خواهم بود. | طبقه بندی نظارت شده با تعداد مختلف پیش بینی کننده در هر مشاهده |
49910 | با توجه به یک ماتریس مجاورت A برای یک گراف وزن دار و جهت دار (بنابراین عناصر ماتریس فقط 0/1 نیستند و ماتریس متقارن نیست)، آیا روش های خوبی برای پیش بینی یال های جدید وجود دارد؟ من یک مجموعه داده بسیار بزرگ (میلیاردها گره) با لبه های شناخته شده برای برخی از اتصالات و مقادیر NULL برای اتصالات مشاهده نشده دارم، و می خواهم از لبه های شناخته شده برای پیش بینی موارد مشاهده نشده استفاده کنم. اگر روش دقیق نباشد، خوب است - در واقع، من میخواهم لبهها را NULL یا 0 را در صورتی که پیشبینی زیر مقداری آستانه باشد، نگه دارم، فقط برای اینکه ماتریس را تا حد ممکن برای اندازه داده و سرعت پردازش کم نگه دارم. هر فکری؟ | چگونه می توان لبه ها / پیوندها / اتصالات را در یک شبکه گراف جهت دار وزنی پیش بینی کرد؟ |
16843 | آیا اثبات/ قضیه ای وجود دارد که بیان کند $$\mathrm{Var}(X_{kn}) \leq \mathrm{Var}(X)$$ که $X$ یک متغیر تصادفی پیوسته با توزیع $F$ است، و $X_{kn}$، $k^{th}$ آمار سفارش $n$ از نمونهای با اندازه $n$ از $F$ است؟ | واریانس توزیع سفارش حاشیه ای کمتر از واریانس توزیع کامل؟ |
115343 | من یک رگرسیون خطی در R با استفاده از تابع glm انجام داده ام. وقفه محاسبه شده 0.98 را می گوید، اما وقتی آن را رسم می کنم، به نظر نمی رسد که به وقفه تخمینی در محور Y برخورد کند. خیلی پایین تره داده ها و تابع من در اینجا هستند: رویداد = c(2.2، 6.4، 3.4، 10.2، 4.45، 2.65، 8.25، 4.65، 3، 6.5، 5.25، 8.65، 7.25، 6.4، 7.75، 6.4، 7.75، 6.4، 7.75، 8، 7.4، 7.4 316617, 1531919, 576869, 270148, 1090947, 562643, 439885, 745741, 666454, 1078175, 924429, 789649) fit=glm(event~size) Call: glm(formula = chr.co.count.wt ~ size) ضرایب: (Intercept) size 9.783e-01 6.528e-06 Degrees of Freedom: 15 Total (i.e. Null); 14 انحراف تهی باقیمانده: 83.08 انحراف باقیمانده: 2.849 AIC: 23.8 نمودار(size,events,col=blue,pch=16,xlab=size,ylab=events,ylim=c(0,12), frame.plot=FALSE,xlim=c(0,2000000),axes = F) axis(side = 1,at = c(0,0.5e6,1e6,1.5e6), برچسب ها = c(0,0.5e6,1e6,1.5e6)) محور (سمت = 2, at = دنباله (از = 0 تا = 12 ,by = 0.5)، برچسب ها = seq (از = 0، تا = 12، by = 0.5)) abline(fit.wt)  چرا این تناقض است؟ آیا من اینجا چیزی را از دست داده ام؟ std رو هم چک کردم. err که 0.27 است، همچنان بالاتر از آنچه در نمودار مشاهده می شود. متشکرم. | قطع رگرسیون خطی مطابقت ندارد |
109212 | من با داده های بالینی با 7 گروه کار می کنم که متغیر مستقل من و یک متغیر وابسته به طور معمول توزیع نشده را تشکیل می دهند. می دانم که باید از آزمون KW برای بررسی تفاوت های قابل توجه بین گروه هایم استفاده کنم. مشکل این است که 3 گروه از 7 گروه n=1 دارند. من می دانم که KW به اندازه آزمون های پارامتریک به اندازه نمونه های نابرابر حساس نیست، اما آیا n=1 حتی ممکن است؟ آیا اگر KW را اجرا کنم، یکی از مفروضات (همان فاصله کلی داده ها بین گروه ها) را نقض می کنم؟ من نمی توانم مقادیر 3 گروه را ترکیب کنم زیرا هر گروه با گروه دیگر بسیار متفاوت است. من همچنین نمی دانم که آیا حذف این 3 گروه برای آزمون KW امکان پذیر است یا خیر زیرا من واقعیت چیزها را نادرست معرفی می کنم لطفاً نظر خود را به من بگویید. متشکرم. | گروه های متغیر مستقل w/n=1 برای Kruskal Wallis ممکن است؟ |
80439 | من اطلاعات فروش چهار سال گذشته را دارم. من می خواهم داده های خود را به دو قسمت تقسیم کنم تا بتوانم حجم پایه و حجم تبلیغاتی داشته باشم. من در نظر دارم از رویکرد تجزیه سری های زمانی استفاده کنم که حجم پایه جزء روند و جزء فصلی و خطا حجم تبلیغاتی باشد. آیا این روش خوب خواهد بود؟ آیا روش/روش دیگری برای تجزیه داده ها به دو قسمت وجود دارد؟ P.S: حجم تبلیغاتی حجمی است که از تبلیغات در فصول جشنواره به دست می آید. پیشاپیش ممنون... لطفا جواب بدید...... | آیا روش تجزیه سری زمانی درست است؟ |
21775 | من در حال حاضر در حال انجام چند تحلیل همبستگی بزرگ هستم: فرض کنید من هر همبستگی کندال را میخواستم و آن را با مقدار p از 20x30 آیتمها در یک ماتریس منظم مرتبط میکردم - مثلاً آیا برای مقایسههای متعدد، اصلاح مقدار p را انجام میدهم. holm (هیچ چیز قابل توجهی نیست) یا باید فقط از گزینه passthrough adjustment=none (بسیاری از اهمیت) استفاده کنم و با آن کار تمام شود؟ اندازه نمونه بسته به حذف دوتایی 145-153 است، همبستگی ها بسیار کم هستند (-.14/+28)، با استفاده از R با corr.test از بسته روانی هدف کاوش در روابط ارتباطی احتمالی بین موارد است پیشاپیش متشکرم! JS | تعدیل P-value در تحلیل همبستگی |
59318 | من در حال اندازه گیری زمان یک عملیات کامپیوتری هستم. هر بار که آن را اندازهگیری میکنم، عملیات باید تقریباً در یک زمان انجام شود. چند بار باید اندازه بگیرم تا میانگین و انحراف معیار خوب بگیرم؟ ابتدا در اینجا ارسال شد: http://physics.stackexchange.com/questions/64917/how- many-measurements-should-be-done , اما فکر می کنم این انجمن برای سوال من مناسب تر است | چند اندازه گیری باید انجام شود؟ |
50358 | من مدل زیر را دارم و از بسته اثرات برای ترسیم احتمالات پیش بینی شده و خطوط فاصله اطمینان استفاده کرده ام. با این حال، من در تعجب بودم که چگونه می توانم یک قاب داده را در R که دارای مقدار پاسخ، مقادیر ci پایین و بالا و مقادیر پیش بینی شده است، بیرون بیاورم. نوعی شبیه به mod1 زیر = glm(won_ping ~ our_bid, data=ndat, family=binomial(link=probit)) summary(mod1) library(effects) plot(effect(our_bid, mod1), rescale.axis =FALSE, multiline=TRUE, xlim=c(0,2000), main=129- AH - Bid Model) خروجی دلخواه با متغیر پاسخ ما و فواصل اطمینان برای احتمالات پیشبینیشده: قیمت پیشنهادی ما low_ci hi_ci prob 1 0.15 0.21 0.17 2 0.18 0.23 0.20 3 0.20 0.30 0.25 4 0.21 0.20 0.25 در مورد من نتیجه میشود. موارد زیر را امتحان کرد اما آن طور که من احتمالات را می خواهم و نه مقادیر log-odds کار نمی کند. > as.data.frame(effect(our_bid، mod1)) our_bid متناسب با قسمت پایین بالا 1 25 -2.3549908 0.04598536 -2.44512045 -2.2648612 2 238 -2.0297137714940. -1.9554065 3 451 -1.7045635 0.03724233 -1.77755712 -1.6315699 4 664 -1.3793498 0.04422870 -1.466032626 -1.466032649 -1.466032626 -1.0541362 0.05610148 -1.16409305 -0.9441793 6 1090 -0.7289225 0.07043143 -0.86696557 -0.5908795 - 7 140.5908793 7 0.08599888 -0.57226356 -0.2351541 8 1516 -0.0784952 0.10224011 -0.27888213 0.1218917 9 1729 0.246718 0.246718 0.01371934 0.4797176 10 1942 0.5719321 0.13577018 0.30582746 0.8380368 | دریافت یک چارچوب داده از احتمالات لاجیت و فواصل اطمینان آنها |
26927 | من دو مجموعه داده از پایگاه داده FRED دارم: GDP واقعی (y) و GDP deflator (p) و می خواهم بتوانم از R برای تخمین یک فرآیند VAR(p) (p تعیین شده توسط AIC) استفاده کنم و مجموعه ای از توابع پاسخ ضربه ای با مفروضات کوتاه مدت (Sims، 1980) که از تجزیه Cholesky استفاده می کند. از آنجایی که این یک وب سایت برای یادگیری است، این یک توضیح مفصل در مورد این فرآیند است تا این پست بتواند در واقع چیزی را به برخی از شما آموزش دهد. اگر می توانید به من کمک کنید و از قبل می دانید که چگونه این کار را انجام دهید، پاراگراف اول در واقع همان چیزی است که من به دنبال آن هستم. تحلیل واکنش ضربه ای، تجزیه و تحلیل واکنش پویا یک متغیر اقتصادی مورد علاقه (به عنوان مثال تولید ناخالص داخلی واقعی) به شوک های موجود در سایر متغیرهای اقتصادی مانند شوک های تقاضا (مانند تورم) یا شوک های عرضه (مثلاً فناوری) است. برای انجام این کار، ممکن است بخواهیم از یک فرآیند خودرگرسیون بردار شکل کاهش یافته (RVAR) استفاده کنیم:  کجا:    ماتریس واریانس کوواریانس این فرآیند به شرح زیر است:  و آن یک ماتریس قطعی متقارن و مثبت است که مقادیر خارج از قطر آن غیر صفر است، به این معنی که عبارات خطا با یکدیگر همبستگی دارند. در نتیجه، تلاش ما برای ردیابی پاسخ های پویا متغیر مورد علاقه مان مانع خواهد شد. یک راه حل برای این مشکل استفاده از فرآیند خودرگرسیون بردار ساختاری (SVAR):  جایی که A0 روابط همزمان بین k متغیر است. ما می توانیم هر دو طرف این معادله را در معکوس اثر همزمان ضرب کنیم:  کجا:    بنابراین در اینجا، برای توصیف کامل باید A0 را تخمین بزنیم (که فرض می شود یک ماتریس مثلثی پایین تر است) SVAR یکی از روش های رایج توسط سیمز (1980) پیشنهاد شد و شامل مفروضات کوتاه مدت با استفاده از تجزیه Cholesky ماتریس واریانس-کوواریانس است به طوری که:  کجا:  با جایگزینی بازگشتی فرآیند VAR(1):  و در نهایت، تابع واکنش تکانه Y_t+j این است:  * * * همانطور که می بینید، من فرآیند را کاملاً درک می کنم و می خواهم بتوانم آن را با استفاده از R انجام دهم. من سعی می کنم این کار را انجام دهم: (i): فرآیند نهایی VAR(p) را برآورد کنید (p تعیین شده توسط AIC) (ii): ایجاد تابع واکنش ضربه ای بسیار متشکرم. | SVAR، تجزیه کولسکی و تابع واکنش-پاسخ در R |
60080 | من در تلاش بودم تا مشخص کنم کدام یک از مفروضات گاوس-مارکوف به ما اجازه می دهد تا ببینیم که $b_1$ یک برآوردگر بی طرفانه $\beta_1$ است. من این احساس را دارم که $X_{i}$ تصادفی نیست، اما آیا چیز دیگری وجود دارد که از دست داده باشم؟ | فرضیات گاوس مارکوف |
29201 | در یک امتحان اخیر، از ما خواسته شد که استفاده از توزیع $\chi^2(1)$ را در اجرای آزمون نمره Wald یا Rao توجیه کنیم. فقط 1 نمره برای این وجود داشت (تقریباً 2.5 دقیقه ارزش زمان). پاسخ من این بود > آمار آزمون والد و نمره بر اساس تقریب های مختلف > نسبت log-lihood است، که در نمونه های بزرگ معتبر و معادل هستند > زمانی که $H_0$ درست باشد. به عنوان مثال، تقریب برای آمار Wald 2 > > $$ 2\log(LR)\simeq > (\hat{\theta}_n-\theta_0)^2E\\{-\ell''(\theta است. )\\}|_{\theta_0} > =(\hat{\theta}_n-\theta_0)^2I(\theta_0) $$ > > کجا $I(\theta_0)$ اطلاعات فیشر در $\theta_0$ است. سپس با استفاده از > نرمال مجانبی، > > $$\hat{\theta}_n\approx N \left ( \theta_0,\frac{1}{ni(\theta_0)}\right )=N > \left ( \theta_0 ,\frac{1}{I(\theta_0)}\right )$$ > > که نتیجه می دهد $(\hat{\theta}_n-\theta_0)\sqrt{I(\theta_0)} \approx N(0,1)$ > > از آنجایی که $2\log(LR)$ تقریباً برابر است با مربع LHS از این > وقتی $n$ بزرگ است، تقریباً به عنوان مربع یک > متغیر تصادفی معمولی استاندارد توزیع می شود، یعنی به عنوان $\chi^2(1)$ نشانگر ناکافی را نوشته است. و من برای این صفر گرفتم. از آنجایی که این یک آزمون جمعبندی است، آنها هیچ بازخوردی نمیدهند و در مورد آن بحث نمیکنند. می خواستم بدانم آیا کسی اینجا می تواند توضیح دهد که چه چیزی را از دست داده ام یا کجا اشتباه کرده ام. من با لاتکس زیاد خوب نیستم امیدوارم در تایپ اشتباه نکرده باشم! این برای یک ماژول انتخابی در تئوری آماری در سال آخر مدرک کارشناسی ریاضی است. با تشکر ویرایش: رویهای رسمی وجود دارد که فیلمنامه من را یادداشت میکنند، اما به خاطر 1 نمره، و از آنجایی که من کاملاً راحت عبور کردم، واقعاً نمیخواهم قایق را تکان دهم. | توجیه استفاده از $\chi^2(1)$ در آزمون والد و نمره |
49911 | فرض کنید i.i.d داریم. $x_1$، $\ldots$، $x_n$ را برای یک متغیر تصادفی (بالقوه غیر عادی) $X$ با گشتاورهای محدود نمونه میگیرید. ما میتوانیم از این نمونهها برای ایجاد تخمینهای بیطرفانه از میانگین جمعیت و واریانس جمعیت $$ \bar{x} = n^{-1} \sum_{i=1}^n x_i \qquad\text{and}\qquad استفاده کنیم. s^2 = \frac{1}{n-1} \sum_{i=1}^n (x_i - \bar{x})^2 \enspace. $$ بدون هیچ گونه فرضی در مورد توزیع $X$، می توان با استفاده از نابرابری چبیشف (به عنوان مثال، ویکی پدیا یا مقاله اصلی را ببینید) مرزهای احتمالی را روی میانگین جمعیت ایجاد کرد. سوال من این است: آیا چنین مرزهای احتمالی برای واریانس جمعیت وجود دارد؟ به عبارت دیگر، آیا می توان گفت که با احتمال $\delta$ واریانس جمعیت $\sigma^2$ در یک بازه $[L(\delta,\\{x_i\\}),U(\delta,\ خواهد بود. \{x_i\\})]$؟ و اگر چنین است، توابع $L$ و $U$ که کران پایین و بالایی را توصیف می کنند کدامند؟ برای توزیع های نرمال، واریانس نمونه از توزیع $\sigma^2 \chi^2_{n-1} (n-1)^{-1}$ پیروی می کند. از این می توان برای ایجاد فاصله های اطمینان استفاده کرد. با این حال، من به دنبال محدودیت های کلی تر هستم که در مورد تنظیمات غیر عادی نیز اعمال شود. | مرزهای واریانس جمعیت؟ |
63124 | در این منبع در مورد جفت کلایتون در صفحه 18 می نویسند: > برای مطالعه خطرات مرتبط استفاده شده است زیرا وابستگی شدید به چپ > دم و وابستگی نسبتاً ضعیف دم راست را نشان می دهد. شواهد تجربی و حکایتی نشان میدهد که نکول وامها در زمانهای رکود اقتصادی بسیار همبستگی دارند. به طور مشابه، محققان «سندرم قلب شکسته» را مطالعه کردهاند که در آن سن همسران هنگام مرگ با هم مرتبط است. هنگامی که ارتباط بین دو رویداد، مانند عملکرد دو صندوق یا سن همسر در هنگام مرگ، در انتهای سمت چپ توزیع مشترک قویتر است، کلایتون یک انتخاب مدلسازی مناسب است. حالا من نمی فهمم چرا این مثال ها به این معنی است که دم چپ همبسته است؟ چرا سن همسران هنگام مرگ دم چپ است؟ و چرا رکود بار دم چپ است؟ آیا به این دلیل است که در زمانهای برگشتی بازدهی منفی رخ میدهد و این نشان دهنده دم چپ است؟ | چرا این نشان دهنده دم چپ است؟ |
67716 | من یک مجموعه داده 2 کلاسه نامتعادل دارم که از دو بخش تشکیل شده است - داده های ایجاد مدل و داده های پیش بینی. داده های ایجاد مدل به داده های قطار و آزمایش تقسیم می شود. مدل با استفاده از داده های آموزشی آموزش داده می شود و طبق معمول بر روی داده های آزمون آزمایش می شود. من این کار را چندین بار انجام می دهم تا مطمئن شوم که فضای داده به طور کامل پوشانده شده است. دقتی که من بر روی هر یک از دادههای آزمایشی از مدل بر اساس دادههای قطار مربوطه (تولید شده توسط روش اعتبارسنجی متقابل) به دست میآورم، کاملاً رضایتبخش است. با این حال، وقتی هر یک از این مدلها را روی دادههای پیشبینی اعمال میکنم، عملکرد پیشبینی مدلی که دریافت میکنم نسبتاً ضعیف است. من مطمئن نیستم که چه خبر است. مشخصات آماری دادههای پیشبینی مشابه دادههای آموزش/آزمون است و من انتظار دارم که دقت پیشبینی مشابهی به دست بیاورم. یک تفاوت بین دادههای قطار و پیشبینی این است که آنها از دورههای زمانی متفاوت، اما پیوسته هستند، اما هیچ متغیر مرتبط با زمان در مدل وجود ندارد. چگونه این مشکل را حل کنم؟ هر گونه کمک از طرف جامعه بسیار قابل قدردانی است. با تشکر | عملکرد پیشبینی ضعیف از طبقهبندیکنندههای (WEKA). |
99782 | من قصد دارم یک GAM یا GAMM مناسب کنم. یک متغیر طبقه بندی وجود دارد که فکر می کنم برای توضیح Y (یا Y*) مهم است، اما در مجموعه داده من نیست - قابل اندازه گیری است اما اندازه گیری نشده است. آیا می توانم از یک مدل مخلوط (GAMM) برای جبران حذف این متغیر استفاده کنم؟ اگر من این متغیر را داشتم، فقط از یک GAM استفاده می کردم. آیا می توانید نرم افزاری را به من معرفی کنید تا از آن استفاده کنم؟ آیا نمونه هایی دارید؟ آیا بسته gamm4 R راهی برای رفتن است؟ سایر جزئیات: Y داده های شمارش است، بنابراین من قصد دارم از یک مدل دوجمله ای منفی یا خانواده استفاده کنم. هدف از این بررسی ها بررسی روابط بین متغیرها است. اگرچه مجموعه داده با N ردیف در حافظه دستگاه من قرار می گیرد، ماتریسی با ردیف های NxN در حافظه جا نمی گیرد. | آیا می توانم برای زمانی که یک متغیر حذف شده دارم از یک مدل مخلوط استفاده کنم؟ |
21771 | من می خواهم انتخاب مدل را برای معادلات برآورد تعمیم یافته (GEE) انجام دهم. Pan (2001) اغلب برای توسعه روشی با استفاده از QIC ذکر شده است. میخواهم کسی راهی برای انجام این کار در R میشناسد؟ من در حال حاضر از بسته geepack برای تجزیه و تحلیل GEE خود استفاده می کنم. من در مورد 'yags' شنیدم اما برای نسخه R 2.13 یا 2.14 در دسترس نیست و به دلیل کارهای دیگری که انجام می دهم، ترجیح نمی دهم به نسخه قدیمی R برگردم. ممنون، دن | نحوه انجام انتخاب مدل در GEE در R |
54920 | Lehmann و Romano در Th 3.7.1 خود نشان می دهند (Lehmann and Romano 2005, p81) زمانی که یک آزمون هم ارزی UMP $\phi_1$ وجود دارد و دارای قدرتی است که در نقطه ای $\theta^\star$ در داخل معادل به حداکثر می رسد. منطقه $[\theta_1، \theta_2]$. حالا فرض کنید یک آزمایش دوم $\phi_2$ داریم که فقط در نقطه بالایی منطقه معادل $[\theta_1, \theta_3]$ با $\theta_3>\theta_2$ متفاوت است. سپس من فکر میکنم که توان آزمون دوم باید در نقطهای به حداکثر برسد. آمار آزمون (فرض شده STP3 در Th 3.7.1). آیا کسی راهنمایی یا پیشنهادی برای اثبات این موضوع دارد؟ | تست های هم ارزی برای STP3 - محل حداکثر توان |
78321 | من یک مجموعه داده دارم که نشان دهنده 1000 سند و همه کلماتی است که در آن ظاهر می شود. بنابراین ردیف ها نشان دهنده اسناد و ستون ها بیانگر کلمات هستند. به عنوان مثال، مقدار سلول $(i,j)$ نشان دهنده دفعاتی است که کلمه $j$ در سند $i$ رخ می دهد. اکنون، من باید با استفاده از روش tf/idf وزن کلمات را پیدا کنم، اما در واقع نمی دانم چگونه این کار را انجام دهم. کسی میتونه لطفا کمکم کنه؟ | فرکانس مدت/فرکانس معکوس سند (TF/IDF): وزن دهی |
62836 | متغیر وابسته من تصمیم افراد برای مقدار بین 1 تا 8 در یک آزمایش اقتصادی است. هر فردی این تصمیم را 20 بار تکرار کرد. من می خواهم ویژگی های فردی را در آن انتخاب عقب نشینی کنم. من انتظار دارم که تصمیمات یک فرد با یکدیگر مرتبط باشد. بنابراین من به نوعی مدل پانل نیاز دارم. آیا باید به دنبال اثرات تصادفی یا تخمین خوشه ای قوی باشم؟ به نظر می رسد RE در ادبیات رایج است، اما خوشه ای قوی پیشنهادی از سوی سرپرست من بود، اما این به سادگی شهود او بود. دلایل هر کدام چیست؟ چه چیزی را انتخاب کنم؟ | تخمین خوشه ای قوی در مقابل برآورد اثرات تصادفی |
49918 | من دو گروه را دنبال کرده و تعدادی متغیر را اندازه گیری کرده ام. برخی از متغیرها را می توان برای محاسبه معیارهای جدید استفاده کرد. آیا میانگینگیری دو گروه و تجزیه و تحلیل محاسبات از میانگینها (یعنی هر گروه به عنوان یک موجودیت واحد برای ارائه اندازهگیری جدید عمل میکند) با آزمونهای جداگانه درست است یا باید همه تحلیلها شامل تمام دادههای پایه از هر فرد باشد؟ | آیا میانگین دو گروه و تجزیه و تحلیل محاسبات از میانگین ها یا باید همه تجزیه و تحلیل ها شامل تمام داده های پایه از هر فرد باشد؟ |
49915 | با توجه به آنچه که من درک می کنم، می توان از AUC منحنی ROC به عنوان یک آمار خلاصه از منحنی کامل استفاده کرد. **Q1.** آیا آمار خلاصه مشابهی وجود دارد که بتوان از آن در یک منحنی فراخوان دقیق استفاده کرد؟ **Q2.** تا آنجایی که من میدانم، امتیاز $F$ ($F_1$ یا $F_\beta$)، در یک رژیم فراخوان دقیق عملیاتی اندازهگیری میشود. به عنوان مثال، برای به دست آوردن نرخ دقیق، باید یک نقطه در منحنی فراخوانی دقیق تثبیت کرد و نرخ فراخوان مربوط به آن را برای به دست آوردن نتیجه در فرمولها: $F_1 = 2 \cdot \frac{\mathrm{precision} \cdot \mathrm{ recall}}{\mathrm{precision} + \mathrm{recall}}$F_\beta = (1 + \beta^2) \cdot \frac{\mathrm{precision} \cdot \mathrm{recall}}{(\beta^2 \cdot \mathrm{precision}) + \mathrm{recall}}$ اگر چنین است، چگونه میتوان چنین نقطهای را انتخاب کرد منحنی؟ | آمار خلاصه منحنی فراخوان دقیق |
99759 | من سعی می کنم تغییرپذیری یک اندازه گیری خاص را ثبت کنم. من از هر بیمار 9 اندازه گیری دارم – 3 اندازه گیری در فواصل 1 ساعته در 3 روز متوالی. بنابراین به نظر می رسد این است: شخص | Day1Trial1 Day1Trial2 Day1Trial3 Day2Trial1 ... Day3Trial3 1 2 ... با توجه به پیشینه بسیار کمی در آمار، مطمئن نیستم که چگونه از اینجا ادامه دهم. آیا من فقط واریانس کلی همه مشاهدات را محاسبه کنم؟ چگونه می توانم خطای دستگاهی که استفاده کرده ام یا تغییرپذیری اندازه گیری های بیمار را در نظر بگیرم؟ آیا کسی میتواند مرا به ادبیاتی که میتوانم بخوانم مرتبط با این موضوع معرفی کند؟ آیا روش یا تکنیک خاصی وجود دارد که در این شرایط مناسب به نظر برسد؟ | بهترین تخمین برای تغییرپذیری یک اندازه گیری چیست؟ |
95636 | من می دانم که برآوردگر بهینه GMM قابل اجرا سازگار و مجانبی کارآمد است. من همچنین میدانم که برآوردگر MLE کاملاً پارامتریک کارآمدتر از GMM است، مشروط بر اینکه توزیع دادهها را بدانیم. آیا این بدان معناست که در دنیای ایده آل، برای به دست آوردن تخمین های بهینه برای یک مدل غیرخطی با متغیرهای ابزاری، باید از رویکرد MLE استفاده کرد (به شرطی که توزیع داده های مربوطه را بدانیم)؟ اگر چنین است، اگر ابزار بیشتری نسبت به متغیرهای درون زا داشته باشیم، آیا باز هم می توانیم از روش MLE استفاده کنیم؟ با تشکر | برآوردگر غیر خطی IV بهینه |
95637 | شاید این سوال خیلی کلی باشد، اما فکر میکنم شایسته است پستی بگذارم تا برخی از روشهای استاندارد در تجزیه و تحلیل بقا را برایم روشن کند. همانطور که می دانیم، فهرستی از روش ها و مدل هایی مانند روش های پارامتریک (exp، weibull، AFT)، ناپارامتریک (KW، NA) و نیمه پارامتریک (cox prop, prop) در تحلیل بقا وجود دارد. فرض کنید من یک قاب داده مانند این دارم: set.seed(123) require(survival) df<-data.frame(time=as.integer(rnorm(100,50,5))، status=rbinom(100,1, 0.7)، سن = rnorm (100،60، 5)، جنسیت = rbinom (100،1،0.5)) df$time<-ifelse(df$time>=50,50,df$time) وضعیت زمان df سن جنسیت 1 47 1 63.94 0 2 48 0 63.85 0 3 50 1 61.66 0 ... 98 50 1 53.20 1 56.68 1 100 44 0 62.43 0 میخواهم بدانم روش مناسبی برای بررسی اینکه از کدام مدل برای این تحلیل بقا استفاده کنم چیست. | چگونه یک مدل بقای مناسب را بررسی کنیم؟ |
115341 | در مورد علوم شناختی این سوال را مطرح کردم که کدام آزمون آماری می تواند برای تجزیه و تحلیل نتایج TLX ناسا استفاده شود. در اینجا من یک سوال مشابه، اما کلی تر می پرسم. یک متغیر فاصله ای را فرض کنید که ممکن است کاملاً ثابت اسکالر نباشد: 1. چگونه می توان بررسی کرد که نتایج ثابت اسکالر چقدر هستند؟ 2. آیا هنوز هم می توان از آزمون t دانشجویی یا آنالیز واریانس برای تجزیه و تحلیل اینکه آیا گروه های داده ها به طور قابل توجهی متفاوت هستند یا اینکه این موضوع کاملاً منتفی است، استفاده کرد؟ 3. چگونه/تا چه حدی عدم تغییر اسکالر بر سودمندی این آزمون ها تأثیر می گذارد؟ اگر من یک سؤال کاملاً اشتباه میپرسم، اشاره به اینکه چرا چنین است نیز پاسخ مفیدی خواهد بود. ;) | آیا می توان از t و آنالیز واریانس دانشجویی برای تجزیه و تحلیل یک متغیر فاصله ثابت غیر اسکالر استفاده کرد؟ |
54927 | داشتم مقاله ویکیپدیا در مورد رگرسیون خطی را میخواندم و متوجه شدم که برای معادله عادی دقیقاً همان نتیجه را نمیگیرم: $$\beta = (X^{T}X)^{-1}X^{T}{ \bf{y}} = (\frac{1}{n}\sum {\bf{x}}_{i}{\bf{x}}_{i}^{T})^{-1}(\frac{1}{n}\sum {\bf{x}} _{i}{{y}}_{i})$$ جایی که: $${\bf{y}}=\begin{pmatrix}y_{1}\\\y_{2}\\\ ... \\\ y_{n}\end{pmatrix}$$ $${\bf{X}}=\begin{pmatrix}{\bf{x}}_{1}^{T}\\\\{\bf{x }}_{2}^{T}\\\ ...\\\ {\bf{x}}_{n}^{T}\end{pmatrix}$$ $${\bf{\beta}}=\begin{pmatrix}\beta_{1}\\\\\beta_{2}\\\ ...\\\ \beta_{p}\end{pmatrix}$ $ فرض کنید می خواهیم یک تابع خطای $E_{D}$ را در پارامترهای $\beta$ به حداقل برسانیم: $$E_{D} = \frac{1}{2} \sum_{n=1}^{N} \\{y_{n}-\beta^{T}x_{n}\\}^{2}$$ بنابراین ما از گرادیان روی $\beta$ استفاده میکنیم تا به: $$\nabla E_{D} = \sum_{n=1}^{N} \\{y_{n}-\beta^{T}x_{n}\\}x_{n}^{T}=0$$ و حل برای $\ بتا دلار $$\beta^{T}=\frac{\sum_{n=1}^{N}y_{n}x_{n}^{T}}{\sum_{n=1}^{N}x_{ n}x_{n}^{T}}$$ با گرفتن $\bf{X}$ همانطور که قبلاً توضیح داده شد، مخرج صحیح را پیدا میکنیم زیرا $${\bf{X}}^{T}{\bf{X} }=( \bf{x}_{1} \thinspace \bf{x}_{2} ... \bf{x}_{N} ) \begin{pmatrix}{\bf{x}}_{1}^ {T}\\\\{\bf{x}}_{2}^{T}\\\ ...\\\ {\bf{x}}_{n}^{T}\end{pmatrix}=\sum_{n=1}^{N}x_{n}x_{n}^{T}$$ با این حال، در مخرج محاسبه من یک بردار ردیف به جای بردار ستون تولید می کند. چه اشتباهی کردم؟ | رگرسیون خطی در نمادگذاری ماتریسی |
26920 | من یک اسکریپت برای ترسیم یک ماتریس همبستگی با استفاده از دایره های رنگی دانلود کرده ام. این اسکریپت امکان سفارش متغیرها را با استفاده از PCA می دهد، اما من مطمئن نیستم که چگونه کار می کند. کد مسئول سفارش در زیر است: if (order) { if(!n==m){ stop(اگر سفارش درست است، ماتریس باید مربع باشد!) } x.eigen <- eigen(corr)$vectors[ , 1:2] e1 <- x.eigen[، 1] e2 <- x.eigen[، 2] آلفا <- ifelse(e1 > 0، atan(e2/e1), atan(e2/e1) + pi) corr <- corr[order(alpha), order(alpha)] } **سوال**: تفسیر چنین ترتیبی چیست و چه نظریه ای در پس آن نهفته است. آن را؟ | سفارش متغیر با استفاده از PCA |
115348 | در بازی بریج 52 کارت به صورت تصادفی بین 4 بازیکن تقسیم می شود که هر بازیکن با 13 کارت پایان می یابد. من یک مولد اعداد تصادفی را با استفاده از RNGCryptoServiceProvider از Microsoft .Net Framerowk اجرا کردم تا ابتدا یک عدد از محدوده 1-52، سپس از محدوده 1-51 و به همین ترتیب تا محدوده 1-2 رسم کنم. برای اینکه ببینم آیا در یک محدوده معین از 1 تا x، که در آن 2>= x <=52، هر عددی در این محدوده به یک اندازه احتمال دارد انتخاب شود، آزمایش زیر را اجرا کردم: * 52* 10 میلیون بار از محدوده 1 ترسیم کنید. -52 و پیگیری کنید که هر چند وقت یک عدد از این محدوده بالا می آید. برای هر عدد یک تست خوب تناسب در برابر فرکانس مورد انتظار 10 میلیون استفاده کنید. * 51* 10 میلیون بار از محدوده 1 تا 51 بکشید و تعداد دفعات بالا آمدن عددی از این محدوده را پیگیری کنید. برای هر عدد یک تست خوب تناسب در برابر فرکانس مورد انتظار 10 میلیون استفاده کنید. و به همین ترتیب تا زمانی که به محدوده 1-2 برسیم. در زیر مقادیر p را برای هر تعداد کارت پیدا می کنید، زمانی که کمتر از 0.05 باشد، تعداد قرعه کشی مشاهده شده برای هر عدد در محدوده چاپ می شود. در نمونه زیر برای دو محدوده مقدار p در واقع کمتر از 0.05 بود. آیا اکنون باید به این نتیجه برسم که RNGCryptoServiceProvider قادر به تولید توزیع برابر برای همه محدوده ها در محدوده 1-52، 1-51، ... 1-2 نیست؟ نام آزمون: CardChances نتیجه آزمایش: نتیجه پاس شده خروجی استاندارد: ردیابی اشکال زدایی: مقدار P برای 52 کارت = 0.79474227840984 مقدار P برای 51 کارت = 0.497191145912234 مقدار P برای 50 کارت = 0.3315189 کارت = 0.988683559265785 مقدار P برای 48 کارت = 0.153114936344037 مقدار P برای 47 کارت = 0.927327644547415 مقدار P برای 46 کارت = 0.49370883911374 کارت = 0.35952495612322 مقدار P برای 44 کارت = 0.979430525949886 مقدار P برای 43 کارت = 0.192281134864909 مقدار P برای 42 کارت = 0.53964228753539 P کارت = 0.175093762735034 مقدار P برای 40 کارت = 0.801225853918414 مقدار P برای 39 کارت = 0.156440626522907 مقدار P برای 38 کارت = 0.186908882012237 کارت = 0.0828295408060195 مقدار P برای 36 کارت = 0.81408556973856 مقدار P برای 35 کارت = 0.805491467886622 مقدار P برای 34 کارت = 0.3367414133363 کارت = 0.498471084831715 مقدار P برای 32 کارت = 0.8249249333331495 مقدار P برای 31 کارت = 0.163033897868359 مقدار P برای 30 کارت = 0.0967583951496 cards=0.369476297712753 مقدار P برای 28 کارت=0.0243850151443583 کارت شماره 1 10000359 بار کشیده شده است. کارت شماره 2 9998315 بار کشیده شد. کارت شماره 3 10004012 بار کشیده شد. کارت شماره 4 9988701 بار کشیده شده است. کارت شماره 5 9997630 بار کشیده شد. کارت شماره 6 9996076 بار کشیده شد. کارت شماره 7 10003135 بار کشیده شد. کارت شماره 8 9997429 بار کشیده شد. کارت شماره 9 9999151 بار کشیده شد. کارت شماره 10 10001832 بار کشیده شده است. کارت شماره 11 10001967 بار کشیده شد. کارت شماره 12 9994442 بار کشیده شد. کارت شماره 13 9999789 بار کشیده شد. کارت شماره 14 9996959 بار کشیده شده است. کارت شماره 15 9998547 بار کشیده شده است. کارت شماره 16 10005698 بار کشیده شده است. کارت شماره 17 10006844 بار کشیده شده است. کارت شماره 18 10001617 بار کشیده شده است. کارت شماره 19 10001233 بار کشیده شده است. کارت شماره 20 9999269 بار کشیده شده است. کارت شماره 21 10005547 بار کشیده شد. کارت شماره 22 9994631 بار کشیده شد. کارت شماره 23 10006450 بار کشیده شد. کارت شماره 24 10001226 بار کشیده شد. کارت شماره 25 9997165 بار کشیده شده است. کارت شماره 26 10000925 بار کشیده شد. کارت شماره 27 9999416 بار کشیده شد. کارت شماره 28 10001635 بار کشیده شد. مقدار P برای 27 کارت = 0.614170487404118 مقدار P برای 26 کارت = 0.880271821699275 P کارت = 0.463782431271392 مقدار P برای 22 کارت = 0.0918275795728352 مقدار P برای 21 کارت = 0.848413464526898 مقدار P برای 20 کارت = 0.4373031551929 cards=0.605302075922096 مقدار P برای 18 کارت=0.0293628427079152 کارت شماره 1 9999153 بار کشیده شده است. کارت شماره 2 10004923 بار کشیده شد. کارت شماره 3 9993127 بار کشیده شد. کارت شماره 4 10001637 بار کشیده شد. کارت شماره 5 10000355 بار کشیده شد. کارت شماره 6 9999963 بار کشیده شد. کارت شماره 7 10002201 بار کشیده شد. کارت شماره 8 9999522 بار کشیده شد. کارت شماره 9 9997863 بار کشیده شد. کارت شماره 10 10004625 بار کشیده شده است. کارت شماره 11 10001398 بار کشیده شد. کارت شماره 12 10005456 بار کشیده شده است. کارت شماره 13 10001133 بار کشیده شده است. کارت شماره 14 9997193 بار کشیده شده است. کارت شماره 15 9992970 بار کشیده شد. کارت شماره 16 10007465 بار کشیده شده است. کارت شماره 17 9996850 بار کشیده شده است. کارت شماره 18 9994166 بار کشیده شده است. مقدار P برای 17 کارت = 0.463159193420478 مقدار P برای 16 کارت = 0.901074254855155 P کارت = 0.39322339086841 مقدار P برای 12 کارت = 0.239425750163672 مقدار P برای 11 کارت = 0.465057310698378 مقدار P برای 10 کارت = 0.14791060284535 کارت = 0.223291445001854 مقدار P برای 8 کارت = 0.567005883891805 مقدار P برای 7 حدود | لطفا به من کمک کنید تا این تست تناسب را تفسیر کنم |
49916 | من سعی داشتم داده های آزمایشی برای رگرسیون لجستیک ایجاد کنم و این پست را پیدا کردم چگونه داده های مصنوعی را برای رگرسیون لجستیک شبیه سازی کنیم؟ پاسخ خوبی است اما فقط متغیرهای پیوسته ایجاد می کند. در مورد یک متغیر طبقهبندی x3 با 5 سطح (A B C D E) مرتبط با y برای همان مثالی که در پیوند وجود دارد، چطور؟ | شبیه سازی داده ها برای رگرسیون لجستیک با یک متغیر طبقه بندی |
26696 | من به دنبال مرجعی برای مقاله ای هستم که در آن اعتبارسنجی متقاطع k-fold معرفی شده است (به جای یک مرجع آکادمیک خوب برای موضوع). شاید برای شناسایی بدون ابهام اولین مقاله در مه زمان بسیار دور باشد، بنابراین هر مقاله اولیه ای که در آن ایده مورد استفاده قرار گرفته باشد، جالب خواهد بود. اولین موردی که من از آنها مطلع هستم P. A. Lachenbruch and M. R. Mickey، Estimation of error rates in discriminant analysis، Technometrics، vol. 10، نه 1، صفحات 1-12، فوریه 1968. و A. Luntz و V. Brailovsky، در مورد تخمین شخصیت های به دست آمده در روش آماری تشخیص (به زبان روسی)، Techicheskaya Kibernetica، جلد. 3، 1969. اما تا آنجا که من می توانم بگویم آنها فقط تأیید متقابل ترک یک خارج را پوشش می دهند (روسی فنی من تمام آن چیزی نیست که می تواند باشد ;o). | چه کسی اعتبار متقاطع k-fold را اختراع کرد؟ |
15052 | من یک تست AB را در صفحه ای اجرا می کنم که فقط 5 هزار بازدید در ماه دریافت می کند. رسیدن به سطوح ترافیکی که برای اندازهگیری اختلاف +1٪ بین تست و کنترل لازم است، خیلی طول میکشد. من شنیده ام که می توانم از آمار بیزی استفاده کنم تا شانس خوبی برای تعیین اینکه آیا تست بهتر عمل کرده است یا خیر. چگونه می توانم از آمار بیزی برای تجزیه و تحلیل داده های فعلی خود استفاده کنم؟ کنترل تبدیل بازدیدکنندگان 1345 1165 تست A 961 298 تست B 1274 438 | تست بیزی AB |
112615 | من حیوانات علامت گذاری شده زیادی دارم که گهگاه دیده می شوند. بنابراین من یک جدول با ستون های زیر دارم: Animal DateTime Lat Lon هر حیوان (حدود 500) بارها دیده شده است، بنابراین این جدول حدود 60 هزار ردیف دارد. من می خواهم یک تحلیل چند متغیره را اعمال کنم، که در آن هر حیوان به یک نقطه در طرح تبدیل می شود، و نزدیکی دو نقطه از این قبیل به من ایده ای از نزدیکی این دو حیوان در مکان و زمان می دهد (یعنی آنها تا حدودی با هم حرکت می کنند). برای رسیدن به این هدف، هر ردیف از یک جدول جدید نشان دهنده یک حیوان است. برای ستون ها، هر یک باید حداقل یک روز (یا بخشی از یک روز) را نشان دهد. و مقادیر موجود در جدول باید مکان را نشان دهند، اما: آیا راهی برای نمایش lat/lon در یک مقدار وجود دارد؟ یا برای هر بار دو ستون بگذارم؟ یا هر چیز دیگری؟ پیشاپیش متشکرم | تجزیه و تحلیل چند متغیره برای زمان/مکانی که حیوانات در آن دیده می شوند |
49917 | برای ارزیابی تناسب یک مدل خطر متناسب کاکس با دادههای پیمایش پیچیده، از چه نوع آمار خوبی میتوان استفاده کرد؟ | مدل خطر متناسب کاکس متناسب با داده های پیمایش پیچیده است |
115340 | من برای اولین بار در محل کار روی درختان تصمیم کار می کنم. من تحقیقات زیادی روی الگوریتمهای CHAID و CART انجام دادهام، اما پاسخهای متفاوتی برای یک سوال بسیار ساده که در زیر ارائه شده است پیدا کردهام: **CART چه نوع متغیرهای هدفی میتواند داشته باشد؟** میدانم که CART میتواند هم در پیشبینی و هم در طبقهبندی کمک کند. من تأیید می کنم که متغیر هدف درخت رگرسیون پیوسته است. من در مقالات تحقیقاتی مختلف با توجه به متغیر هدف درخت طبقه بندی پاسخ های مختلفی دریافت می کنم. کسی می تواند در این مورد به من کمک کند؟ علاوه بر این، من نیاز به تجزیه و تحلیل در مورد موارد زیر دارم: 1) شناسایی تقلب ها: من قصد دارم از درخت های طبقه بندی CART/CHAID/رگرسیون لجستیک استفاده کنم 2) پیش بینی ضرر: قصد دارم از رگرسیون خطی یا درخت رگرسیون CART استفاده کنم 3) شناسایی چک مشتریان پرش: من قصد دارم از درختان طبقه بندی CART/CHAID یا استفاده کنم رگرسیون لجستیک لطفاً پیشنهاد دهید که آیا این راه درستی است .... ممنون quants_mum | پرس و جو در Quants |
21776 | من یک سری تقاضای پایه دارم که از فرآیند MA(1) پیروی می کند، رویکرد تجمیع غیر همپوشانی و سپس SES را روی هر دو سری پایه و انبوه برای به دست آوردن پیش بینی ها اعمال کرده ام، و سپس پیش بینی های حاصل از سری های انباشته را تفکیک کرده و در نهایت نسبت را محاسبه می کنم. از MSEbasic/MSEdagg، که در آن MSEbasic=Var(dt-ft) و MSEdagg=Var(dt-(FT/m)، dt سری های پایه در زمان t، ft پیش بینی سری های پایه، FT پیش بینی تجمیع و m سطح تجمیع و آلفا ثابت هموار است این نسبت نشان می دهد که برای مقدار بسیار منفی تتا، رویکرد پایه بهتر عمل می کند روش انباشته شده با پارامتر تتا بهتر عمل می کند، من سعی می کنم بفهمم که چرا تجمع برای تتاهای منفی بالا کار نمی کند، می خواستم بدانم آیا بهترین ها را راهنمایی می کنید روجی | نسبت، MSE تقاضای پایه به MSE تقاضای کل برای فرآیند MA(1). |
68720 | تا آنجا که من می دانم، نظریه پاسخ آیتم عمدتاً در روانشناسی برای تجزیه و تحلیل داده های نظرسنجی، پرسشنامه های شخصیت یا در محیط آموزشی استفاده می شود. * آیا حوزه های دیگری (احتمالاً خارج از روانشناسی) وجود دارد که از IRT استفاده می شود؟ * و اگر بله، آنها چه هستند؟ | کاربردهای نظریه پاسخ آیتم |
58408 | من یک مدل درخت تصمیم J48 دارم که با WEKA آموزش دیده است. من می خواهم به قوانین درخت در J48 دسترسی داشته باشم تا بتوانم به نحوی از آنها در کد خود استفاده کنم، چه با عبارات if-else یا به عنوان جدول تصمیمی که می توانم در کد خود به آن دسترسی داشته باشم. آیا این امکان پذیر است؟ اگر بله، چگونه؟ | تبدیل J48 به قوانین if-then در Weka |
29200 | در مسائل رگرسیون خطی ساده، فرض میشود که باقیماندههای خودهمبسته به تخمینهای مغرضانه برای پارامترهای رگرسیون منجر نشوند. آیا می توان همین را برای رگرسیون تکه ای نیز گفت؟ فرض کنید من می خواهم یک تابع خطی پیوسته و تکه تکه از یک متغیر منفرد را جا بزنم. فرض کنید برای مثال ما داده هایی در مورد هزینه حمل و نقل و وزن حمل و نقل داریم. عملکرد به صورت تکه ای است زیرا با افزایش وزن، در برخی موارد به یک واگن ریلی اضافی نیاز است. ما می خواهیم نقاط شکست و شیب تک تک قطعات را پیدا کنیم. مدل مناسب است و به هر دلیلی، باقیمانده ها به صورت سریال در زمان همبستگی پیدا می کنند. آیا پارامترهای رگرسیون می توانند بایاس باشند؟ من برخی از داده ها را در یک صفحه گسترده Google در این پیوند پست کرده ام: http://goo.gl/LrTv3 فرض کنید مشخص است که دو نقطه شکست در نقاط (ناشناخته) x1 و x2 وجود دارد. ما میخواهیم دادهها را با مدل f(x) که توسط: x <x1: f(x) = a + m1*x x1 < x <x2: f(x) = a + m1*x1 + m2*( x - x1) x > x2: f(x) = a + m1*x1 + m2*(x2 - x1) + m3*(x - x2) من از تابع nlm در R برای یافتن پارامترهای مجهول استفاده می کنم. x1، x2، m1، m2 و m3: sqerr <- تابع(prm,y,x) { a <- prm[1] x1 <- prm[2] x2 <- prm[3] m1 <- prm[4] m2 <- prm[5] m3 <- prm[6] sqerr <- sum((y-(a+ifelse(x<x1,m1*x, m1*x1+ifelse(x<x2,m2*(x-x1), m2*(x2-x1)+m3*(x-x2)))))^2) } data <- read.table(data .txt,header=T) ai <- 0.4; x1i <- 0.4; x2i <- 0.7; m1i <- 0.0; m2i <- 0.8; m3i <- 3 prm <- c(ai,x1i,x2i,m1i,m2i,m3i) uu <- nlm(sqerr,prm,data$Y,data$X) سپس باقیمانده ها را در مقابل باقیمانده های تاخیر-1 رسم می کنم : y <- data$Y x <- data$X a <- uu$est[1] x1 <- uu$est[2] x2 <- uu$est[3] m1 <- uu$est[4] m2 <- uu$est[5] m3 <- uu$est[6] باقی مانده <- (y-(a+ifelse(x<x1 ,m1*x,m1*x1+ifelse(x<x2,m2*(x-x1),m2*(x2-x1)+m3*(x-x2)))) طرح (resid[1:149]~resid[2:150]) به وضوح یک همبستگی متوالی وجود دارد. بنابراین سوال من این است که آیا پارامترهای رگرسیون به این دلیل سوگیری دارند؟ من یک مقاله قدیمی از Kadiyala دارم (تغییر مورد استفاده برای دور زدن مشکل خودهمبستگی، Econometrica جلد 36، شماره 1، ژانویه 1968) که می گوید: > به خوبی شناخته شده است (رجوع کنید به واتسون [7] و واتسون و هانان [8]) که برآوردگرهای ساده > حداقل مربعات، هر چند بی طرفانه (زمانی که متغیرهای مستقل > ثابت هستند متغیر)، به طور کلی در حضور > خود همبستگی بین اختلالات ناکارآمد هستند. به نظر می رسد منظور او از «کمترین مربعات ساده» معادلات خطی به شکل y = a + bx باشد (مثال استفاده شده در مقاله). اما من مقالات دیگری را دیده ام که به نظر می رسد نشان می دهد که برآوردگرها (یعنی پارامترهای رگرسیون) بدون توجه به نوع مدلی که دارید، بی طرف هستند. به نظر من در کل درست نیست. | آیا خودهمبستگی باعث سوگیری در پارامترهای رگرسیون در رگرسیون تکهای میشود؟ |
26924 | اجازه دهید $X_1,X_2$,....,یک نمونه تصادفی از $N(q,w^2)$ باشد. $q,w$ ناشناخته هستند. اجازه دهید $S_n$ نمونه انحراف استاندارد باشد. یعنی $S_n^2=\frac{1}{n-1}\sum(X_i-\bar{X})^2$ $Var(S_n^2)$ چیست؟ و چگونه می توان نشان داد که $S_n^2$ به طور مجانبی نرمال است؟ من سعی کردم قسمت Variance را با استفاده از توابع تولید لحظه انجام دهم اما عبارات بسیار پیچیده می شوند. | واریانس و نرمال بودن مجانبی واریانس نمونه توزیع نرمال |
1430 | آیا کسی مثال خوبی از یک فرآیند تصادفی دارد که مرتبه دوم ثابت است، اما کاملاً ثابت نیست؟ | مثالی از یک فرآیند ثابت مرتبه دوم، اما نه کاملاً ثابت |
68725 | چگونه می توانم یک فاصله اطمینان مجانبی برای یک پارامتر واقعی ایجاد کنم، که از MLE برای آن پارامتر شروع می شود؟ | برآوردگر حداکثر احتمال - فاصله اطمینان |
112614 | فرض کنید من دو نقطه $(p_1,x_1)$ و $(p_2,x_2)$ دارم که $p_i$ یک احتمال در CDF بتا و $x_i$ یک مقدار در همان CDF است. چگونه می توانم پارامترهای شکل توزیع بتا $\alpha$ و $\beta$ را تنها با این دو نقطه تعیین کنم؟ برای روشن شدن، فرض میکنم که کرانهای پایین و بالایی توزیع L و U را میدانم. | تعیین پارامترهای توزیع بتا $\alpha$ و $\beta$ از دو نقطه دلخواه |
26926 | من در نصب ARIMA مشکلاتی داشتم - داده ها FTSE هستند <-log(EuStockMarkets[FTSE]) لینک زیر مشکل را توضیح می دهد و راه حل را ارائه می دهد http://www.stat.pitt.edu/stoffer/tsa3/ Rissues.htm#Issue2 راه حل موثر به نظر می رسید، تا اینکه مقداری $ARIMA(p,d,q)$ غیر از $ARIMA(1,1,0)$: با $ARIMA(1,1,1)$, $ARIMA(2,1,1)$ و $ARIMA(1,1,2)$ رویه (1+) و رویه (2) ضرایب متفاوتی را ارائه می دهد، به ویژه با رویه (1+) می گوید که بخش AR ثابت نیست (در واقع تغییر روش از 'css' به 'ml' ضریب $AR$ است. 1 یا بالاتر). اینها کدهای $ARIMA(1,1,1)$ هستند: dFTSE<-diff(FTSE) model2<-Arima(dFTSE, order = c(1, 0, 1)) model2 model1pluscss<-Arima(FTSE,order =c(1،1،1)، xreg=1:length(FTSE)) model1plusml<-Arima(FTSE,order=c(1,1,1), xreg=1:length(FTSE), method='ML') model1plusml از طرف دیگر این دو رویه خروجی یکسانی را نیز در $ARIMA( 0,1,1)$ و $ARIMA(0,1,2)$. آیا توضیح نظری وجود دارد که من نمی توانم ببینم یا چیز دیگری؟ | نصب ARIMA با دریفت در R |
62831 | در مدل خطی تعمیم یافته، توزیع متغیر تصادفی $Y$ یک توزیع خانواده نمایی فرض می شود و بر حسب متغیر توضیحی $X$ و پارامتر $\theta$ نوشته می شود. می خواستم بدانم که آیا $X$ به عنوان پارامتری از توزیع $Y$، یا یک متغیر تصادفی در نظر گرفته می شود و توزیع $Y$ که قبلا ذکر شد، در واقع یک توزیع شرطی است که $X$ داده شده است؟ اگر $X$ را بتوان به عنوان یک متغیر تصادفی مشاهده کرد، به نظر من مشکلی در اینجا وجود دارد. در مدل خطی تعمیم یافته، توزیع متغیر تصادفی $Y$ یک توزیع خانواده نمایی فرض می شود. اما از آنجایی که توزیع $Y$ به $X$ بستگی دارد، در واقع $P(Y|X=x)$ یک توزیع خانواده نمایی است. $X$ می تواند هر توزیعی داشته باشد، و توزیع بدون قید و شرط $Y$ ممکن است یک توزیع خانواده نمایی نباشد. پس چگونه باید مشکل را درک کنیم؟ با تشکر | آیا متغیر توضیحی در مدل خطی تعمیم یافته به عنوان یک متغیر یا پارامتر تصادفی در نظر گرفته می شود؟ |
1437 | به نظر شما به جای k معنی میشه ازش استفاده کرد؟ من یک همبستگی با 2 جزء اول به دست آوردم زیرا آنها بیش از 90٪ وزن را حمل می کنند. آیا در مورد تکنیک موافق هستید؟ | آیا می توان از تجزیه و تحلیل مؤلفه اصلی به تنهایی برای استنباط الگوهای اصلی در داده ها به جای k به معنای خوشه بندی استفاده کرد؟ |
24209 | من سعی میکنم نمونهگیری گیبس را با چگالی زیر، $$p(y_1,y_2,y_3)\propto \exp [-({{y}_{1}}+{{y}_{2}}+{) پیشنهاد کنم. {y}_{3}}+{{\theta}_{12}{y_1}{y_2}}+{{\theta }_{13}{y_3}{y_1}}+{{\theta }_{23}{y_2}{y_3}})]$$ کجا، $({{y}_{1}}،{{y }_{2}}،{{y}_{3}})\در R_{+}^{3}$ و ${{\theta }_{ij}}=i+j$ چگونه میتوانم توزیع مشروط کامل؟ و سپس، نمونه $\\{(y_{1}^{i},y_{2}^{i},y_{3}^{i})\\}$ را برای $i=1، ...n$. من نمونهگیری گیبس را میدانم، یک متغیر را نمونهگیری میکنم و بقیه را ثابت نگه میدارم. | نمونهبردار گیبس از توزیع شرطی |
50351 | سوال من در مورد تایید مشروعیت ارائه یک AR(1) به عنوان یک فرآیند MA($\infty $) است. در یادداشتهای من، این کار با نشان دادن همگرایی در میانگین مربع انجام میشود، و میگویند: $\mathbb{E}[(\sum_{i=0}^{n-1}\phi^i\epsilon_{t-i}-Y_t)^ 2]=\mathbb{E}[\phi^{2n}Y_{t-n}^2]$ و سپس توجه داشته باشید که: $\phi^{2n}\gamma_0 \rightarrow 0$ as $n \rightarrow \infty$ مرحله دوم خوب است. آیا کسی می تواند نشان دهد که چگونه اولین برابری ایجاد می شود؟ من احساس می کنم این نباید خیلی سخت باشد، اما من آن را نمی بینم. [برای زمینه، به 3.5.1 از این یادداشت ها، که مشابه هستند، مراجعه کنید] | همگرایی در میانگین مربع - گام از دست رفته |
24202 | فرض کنید یک متغیر $T$ (دما) به صورت زیر کد شده است: $T = 1$ اگر دما < 10، $T = 2$ اگر 10 < دما < 40، و $T=3$ اگر دما > 40 باشد. آیا بهتر است برای اینکه $T$ را به عنوان یک متغیر طبقه بندی کنیم؟ | تلقی یک متغیر به عنوان طبقه بندی یا پیوسته |
72002 | من با دو توزیع بسیار کج برنولی کار می کنم که 96-99+٪ از نمونه ها در رده نادرست و بقیه در دسته درست هستند (نوعی صحبت کردن). من به دنبال تست دو طرفه تفاوت نسبت بین دو نمونه هستم. من اغلب میتوانم به بیش از 500 «درست» و دهها یا صدها هزار «نادرست» در یک زمان معقول دست پیدا کنم، اما مطمئن نیستم که آیا تقریب به توزیع نرمال میتواند این چولگی شدید را تحمل کند. من در ابتدا فکر کردم ممکن است به چیزی غیر پارامتری نیاز داشته باشم، اما در اینجا، من در واقع توزیع را می دانم. من از آزمون t دانشجویی استفاده میکردم، در حالی که به تخمین حجم نمونه توجه میکردم، اما تجربه گذشته باعث شده است که نسبت به نتایج آن تردید داشته باشم. با تشکر از کمک شما. | آزمون اهمیت برای توزیع برنولی بسیار اریب |
26699 | نام متغیرهای خوب عبارتند از: الف) کوتاه / آسان برای تایپ، ب) آسان به خاطر سپردن، ج) قابل درک / ارتباطی. آیا چیزی را فراموش می کنم؟ سازگاری چیزی است که باید به دنبال آن بود. روشی که من می گویم این است که قراردادهای نامگذاری ثابت به کیفیت های بالا کمک می کند. سازگاری به (ب) سهولت یادآوری و (ج) قابل درک بودن کمک می کند، اگرچه سایر عوامل اغلب مهمتر هستند. بین (الف) طول نام / سهولت تایپ (به عنوان مثال همه حروف کوچک) و (ج) قابل درک بودن یک مبادله واضح وجود دارد. من کمی روی این مسائل سرمایه گذاری می کنم زیرا هزاران نفر از داده ها استفاده می کنند و امیدوارم بسیاری از کد من برای تهیه داده ها و تسهیل برخی از انواع تجزیه و تحلیل استفاده کنند. داده های حاصل از مطالعه طولی سلامت نوجوانان به مجموعه داده های متعددی تقسیم می شوند. اولین قدم من این بود که 227 متغیر را در رایج ترین مجموعه داده مورد استفاده قرار دهم، آنها را مجدداً کدنویسی کنم و نام های معنادارتری برای آنها بگذارم. نام متغیرهای اصلی چیزهایی مانند aid، s1، s2 هستند که نام آنها را aid2، age و male.is تغییر دادم. هزاران متغیر دیگر در مجموعه داده های دیگر وجود دارد که بسته به اهداف محقق ممکن است ادغام شوند. تا زمانی که نام متغیرها را تغییر میدهم، میخواهم آنها را تا حد امکان مفید کنم. در اینجا برخی از مسائلی است که من در نظر گرفته ام. تا کنون، من فقط از حروف کوچک استفاده کرده ام و از استفاده از هر گونه خط تیره یا زیرخط اجتناب کرده ام، و من فقط از نقطه برای یک هدف بسیار خاص استفاده کرده ام. این ویژگی سادگی و سازگاری را دارد و برای اکثر متغیرها مشکلی ایجاد نمی کند. اما وقتی همه چیز پیچیده تر می شود، وسوسه می شوم که ثبات خود را بشکنم. به عنوان مثال، متغیر من talkprobmsum را در نظر بگیرید، خواندن آن به عنوان talkProbMSum یا بهتر است talk.prob.m.sum آسان تر است، اما اگر قرار باشد از حروف بزرگ یا نقطه برای جدا کردن کلمات استفاده کنم، پس آیا نباید آن را برای همه متغیرها انجام دهم؟ برخی از متغیرها در بیش از یک زمان ثبت می شوند، به عنوان مثال. متغیرهای نژاد، بنابراین من .is یا .ih را ضمیمه کردم تا نشان دهد که آیا آنها از پرسشنامه داخل مدرسه یا خانه آمده اند. اما مطمئناً چندین تکرار وجود دارد که من هنوز از آنها آگاه نیستم، آیا بهتر است یک مرجع به مجموعه داده به نام هر متغیر اضافه شود؟ من باید بسیاری از متغیرها را در مرکز گروه قرار داده و استاندارد کنم، روشی که من این کار را انجام دادم با اضافه کردن .zms به معنای z-score توسط مرد و مدرسه است. هر گونه افکار یا منابع عمومی یا خاص بسیار قدردانی می شود. این مخزن را برای برخی از کدهای من و آمار توصیفی با لیستی از نام متغیرها ببینید. من به طور خلاصه دلیل اشتراک گذاری این کد را در اینجا توضیح دادم و کمی در اینجا عمومی شد، اما این دو پیوند آخر واقعاً به موضوع قراردادهای نامگذاری متغیرها مربوط نیستند. **اضافه شد:** من این را به آرامی ویرایش کردم، بیشتر فقط یک پاراگراف را جابجا کردم تا سعی کنم از سردرگمی مشهود در نظرات جلوگیری کنم. با تشکر از افکار! | بهبود نام متغیرهای من |
72006 | برای مدل $Y_i=B_1+u_i,i = 1, 2, …, n$ (این مدل متغیر مستقل ندارد)، چگونه میتوانید: * برآوردگر OLS $B_1$ را استخراج کنید * ثابت کنید که $B_1$ یک برآوردگر خطی است. * ثابت کنید که $B_1$ یک برآوردگر بی طرفانه است. * یک عبارت برای واریانس $B_1$ استخراج کنید * ثابت کنید که مقدار میانگین باقیمانده ها برای این مدل صفر است. | خواص تخمینگر b1 در مدل فقط رهگیری |
87141 | من در حال یادگیری در مورد PCA هستم، در مورد PCA باید بدانم که با توجه به یک مجموعه داده، آیا همیشه استفاده از مرکز دادن ضروری است؟ اگر متغیرهای مورد استفاده در PCA را در مرکز قرار ندهم چه؟ | مرکز کردن متغیرها قبل از اجرای PCA |
34231 | من از طریق استاندارد ISO 16269 راه حلی را برای مشکلی که روی آن کار می کردم پیدا کرده ام. بر اساس چند نمونه مستقل از یک جمعیت معمولی توزیع شده، میخواهم حدی را تعیین کنم که تمام نمونههای باقیمانده در جامعه با سطح اطمینان معین بالاتر از آن قرار بگیرند. با این حال، این استاندارد تئوری زیربنایی کافی برای من ارائه نمی کند تا بتوانم درک رضایت بخشی از آمار داشته باشم. **از استاندارد زیر:** > یک نمونه تصادفی از n مشاهدات از یک جمعیت به طور معمول توزیع شده با میانگین ناشناخته $\mu$ و انحراف استاندارد ناشناخته $\sigma$ استخراج شده است. > میانگین نمونه $\bar{x}$ و انحراف استاندارد نمونه $s$ است. > > برای مقادیر داده شده $n$، $m$ و $\alpha$ کوچکترین عامل $k$ > لازم است به طوری که ممکن است حداقل $100(1-\alpha)%$ مطمئن باشد که > هیچکدام از $m وجود ندارد. $ مشاهدات بیشتر از $\bar{x}+ks$ بیشتر خواهد شد. > > $k$ توسط > $$\int_0^\infty{g\left(s\right)\int_{-\infty}^\infty{\Phi^m\left(\bar{x}+ks) داده میشود \right)f\left(\bar{x}\right)d\bar{x}ds}}\geq1-\alpha > $$ > > Where > $$f(\bar{x})=\sqrt{\frac{n}{2\pi}}\exp\left(-\frac{n}{2}\bar{x}^2\راست)، > -\infty\lt\bar{x}\lt\infty $$ $$ g(s)= > \frac{\nu^{\nu/2}s^{\nu-1}}{2^{(\nu/2)-1}\Gamma(\frac{\nu}{2})}\exp \left(-\nu > s^2/2\right),s\geq0 $$ $$ > \Phi(t)=\int_{-\infty}^t{\frac{1}{\sqrt{2\pi}}\exp\left(-\frac{1}{2}u^2\right) du} > $$ and $$ \Gamma\left(\frac{\nu}{2}\right)= > \int_0^\infty{x^{\frac{\nu}{2}-1}\exp\left(-x\right)dx}$$ $$ \nu=n-1 $$ من شباهت را با $\chi^2$، ناشی از عدم قطعیت واریانس، و همچنین سهم توزیع شده به طور معمول از عدم قطعیت میانگین است. ولی نمیتونم جمعش کنم من به دنبال راهنماها/راهنماهایی هستم که به من کمک کند تا درک بهتری از عبارتی که $k$ را تعریف می کند داشته باشم؟ اگر هیچ کمکی در اینجا یافت نمی شود، شاید کسی بتواند یک مرجع خوب در مورد موضوع را توصیه کند؟ من منابع استاندارد را جستجو کردم، متاسفانه هیچ کدام از طریق دانشگاه من در دسترس نیستند. | استخراج فواصل پیشبینی برای یک جمعیت به طور معمول توزیع شده با انحراف معیار جمعیت ناشناخته |
35184 | من درک اولیه ای از اثرات تصادفی در مقابل ثابت و نحوه کدنویسی مدل های جلوه های تصادفی در SAS دارم. با این حال، من در پیچیدن سرم در مورد مشتقسازی عبارات اثرات تصادفی و اینکه چگونه یک مدل رهگیری تصادفی، برای مثال، میتواند تغییر در وقفههای $k$ را با یک پارامتر منفرد ($\sigma^2$ برای یک) توصیف کند، مشکل دارم. dbn معمولی) به جای پارامترهای $k-1$، که می تواند باعث صرفه جویی زیادی در درجه آزادی شود. آیا این تقلب نیست؟ ;) روش قدیمی مدرسه استفاده از روش حداکثر احتمال برای حل پارامترهای $k-1$ برای هر دسته است. * چگونه یک مدل رهگیری تصادفی با استفاده از یک پارامتر از این امر جلوگیری می کند؟ * آیا نتیجه نهایی یکسان نیست - هر دو مدل اثر تصادفی و ثابت شرایط رهگیری $k-1$ را تخمین می زنند؟ | چرا محاسبه وقفههای k-1 با تنها 1 پارامتر قطع تصادفی معتبر است؟ |
79051 | من سعی می کنم نوسانات طلا و نفت را مدل کنم اما نتایج کاملا گیج کننده ای دریافت می کنم. من از بسته rugarch استفاده می کنم و از GARCH و EGARCH استاندارد برای مدل سازی نوسانات استفاده می کنم. به نظر می رسد نتایج من نشان می دهد که مدل استاندارد GARCH با نوآوری های معمولی بهترین است، اما من تمایلی به این باور ندارم که به عنوان آمار توصیفی در واقع نشان می دهد که بازده ها به طور معمول توزیع نمی شوند. چیزی که به نظر من گیج کننده است این است که هنگام استفاده از توزیع t به جای توزیع نرمال، مقدار p برای آزمون همبستگی من کاهش می یابد. انتظار داشتم عملکرد EGARCH با اختلاف زیادی را ببینم اما به نظر نمی رسد که اینطور باشد. امیدوارم کسی بتواند آن را برای من روشن کند. در اینجا خلاصه ای از نتایج من است. آیا کسی می تواند به من توضیح دهد که چرا چنین نتایج غیرقطعی دریافت می کنم؟ | آیا نوآوری های معمولی GARCH می توانند از نوآوری های GARCH دانشجویی بهتر عمل کنند؟ |
58407 | من فکر می کنم این یک سوال اساسی است، اما شاید من مفاهیم را اشتباه گرفته ام. فرض کنید من یک مدل ARIMA را به یک سری زمانی با استفاده از تابع auto.arima() در بسته پیش بینی R برازم. مدل واریانس ثابت را فرض می کند. چگونه آن واریانس را بدست بیاورم؟ آیا این واریانس باقیمانده است؟ اگر از مدل برای پیش بینی استفاده کنم، می دانم که میانگین شرطی را به من می دهد. من می خواهم واریانس (ثابت) را نیز بدانم. متشکرم. برونو * * * ## به روز رسانی 1: کدی را در زیر اضافه کردم. واریانس ارائه شده توسط sigma2 به واریانس محاسبه شده از مقادیر برازش نزدیک نیست. من هنوز در تعجب هستم که آیا sigma2 گزینه مناسبی است یا خیر. برای نمودار سری زمانی شکل زیر را ببینید. demand.train <- c(10.06286، 9.56286، 10.51914، 12.39571، 14.72857، 15.89429، 15.89429، 17.06143، 17.716.12856، 17.716.142. 15.39571، 13.06286، 15.39571، 15.39571، 16.56286، 16.21765، 15.93449، 14.74856، 14.46465، 15.39571، 15.38 دقیقه c(Q12006، Q22006، Q32006، Q12007، Q22007، Q32007، Q12008، Q22008, Q32008، Q12009, Q22009، Q32009، Q12010، Q22010، «Q32010»، «Q12011»، «Q22011»، «Q32011»، «Q12012»، «Q22012»، «Q32012») plot(1:length(timePoints.train)، request.train، type=o، xaxt =n, ylim=c(0, max(demand.train) + 2), ylab=Demand, xlab=Quadrimestre) title(main=تقاضای سری زمانی محصول C, font.main=4) axis(1, at=1:length(timePoints.train), labels=timePoints.train) box() # ## کتابخانه ARIMA Fit (پیشبینی) # سری زمانی requestts.freq <- 3 requestts.train <- ts(demand.train, Frequency=demandts.freq, start=c(2006, 1)) # Model fitting requestts.train.arima <- auto.arima(demandts.train, max.p=10, max.q=10, max.P=10 , max.Q=10, max.order=10) print(demandts.train.arima) خلاصه (demandts.train.arima) requestts.train.arima.fit <- fitted(demandts.train.arima) # پیش بینی ARIMA (معنی شرطی) requestts.arima.forecast <- forecast(demandts.train.arima, h = 3, level=95) print(demandts .arima.forecast) # واریانس ثابت از ARIMA requestts.arima.var <- requestts.train.arima$sigma2 print(demandts.arima.var) # انحراف از مقادیر متناسب print(var(demandts.train.arima.fit))  | واریانس یک سری زمانی متناسب با مدل ARIMA |
79055 | فرض کنید من رگرسیون خطی چند متغیره زیر را دارم: y = A **x** \+ _b_، **x** بردار بسیاری از متغیرها است. آیا می توان یک متغیر _x_ خاص را با ضریب غیر صفر حذف کرد، به گونه ای که مدل به دست آمده به گونه ای باشد که هرگز آن متغیر را از ابتدا یاد نگرفته بود؟ من میخواهم در رابطه با روش آموزشی آگنوستیک باشم، بنابراین نمیخواهم مدل را با یک متغیر کمتر آموزش دهم. گمان من این است که اگر میانگین متغیر صفر باشد، فقط حذف آن کار می کند، در غیر این صورت بایاس _b_ باید به نحوی اصلاح شود. | چگونه می توانم یک متغیر را از رگرسیون خطی حذف کنم؟ |
24203 | فرض کنید از $\alpha = 0.01$ به عنوان سطح معناداری استفاده می کنید. اگر نتایج قابل توجهی دریافت نمی کنید، آیا بهتر است سطح معنی داری را به $\alpha = 0.05$ افزایش دهید؟ | آیا افزایش سطح معناداری همیشه خوب است؟ |
58403 | من یک متغیر پیش بینی کننده از نوع عامل دارم که حاوی تاریخ تولد است. با توجه به تجربه شما (هنگامی که با رگرسیون لجستیک سروکار دارید)، بهترین راه برای درمان تاریخ تولد (یا انواع مشابه) چیست؟ به عنوان یک متغیر پیوسته یا شاید یا شاید به عنوان یک متغیر طبقه بندی که بخش های سنی مختلف را ذخیره می کند؟ | برخورد با تاریخ تولد در پیش بینی |
95669 | من سعی کردم روش Leave One Out Cross Validation (LOOCV) را پیاده سازی کنم تا بهترین ترکیب از 4 نقطه داده را برای آموزش مدل خود به دست بیاورم که به این شکل است: Y= a + b X1 + c X2. که در آن a، b و c ضرایب بر اساس رگرسیون هستند. من مجموعه ای از 20 نقطه داده در کل برای آموزش مدل خود دارم، اما می خواهم مدل خود را محدود کنم تا از مجموعه 4 نقطه داده آموزش ببیند و بتوانم سایر نقاط داده را به خوبی پیش بینی کنم. بنابراین من از روش LOOCV استفاده کردم تا با شروع با 19 نقطه داده به عنوان مجموعه آموزشی و 1 نقطه داده باقی مانده به عنوان مجموعه آزمایشی و محاسبه خطا، به آن دست پیدا کنم. سپس نقطه داده را حذف کردم (از مجموعه داده های آموزشی و آزمایشی) که منجر به حداقل خطا شد زیرا این نقطه داده به بهترین وجه توسط مدل پیش بینی شده است. سپس به تکرار ادامه دادم تا اینکه به 4 نقطه داده رسیدم. اما مشکل اینجاست که وقتی سعی کردم نقطه داده ای را که از هر تکرار حذف شده است را اضافه کنم و با اعمال مدل به کل مجموعه نقاط داده در هر تکرار، مقدار خطای ریشه میانگین مربع را محاسبه کنم، فرض می کنم که باید داشته باشد. زمانی که من مقدار میانگین مربع ریشه در مقابل تعداد نقاط داده را رسم میکنم، یک شکل مجانبی است، یعنی RMSE بالاتر در شماره پایینتر. از نقاط داده و همگرایی به کمترین مقادیر RMSE در تعداد بالاتر. از نقاط داده اما این نموداری است که من برای مجموعه داده دریافت می کنم.  من نمی دانم چرا طرح این نوع رفتار را نشان می دهد. همچنین، آیا استفاده از روش Leave One Out Cross Validation همانطور که من از آن استفاده کرده ام معتبر است؟ لطفا شفاف سازی کنید | Leave One Out Cross Validation |
26694 | من به یک دوست در پروژه داده کمک می کنم. او علاقه مند به ساخت یک سیستم هشدار قناری در معدن زغال سنگ برای وب سایت خود است که به او می گوید چه زمانی تعداد کاربران به زیر یک حد پایینی بحرانی می رسد. تعداد کاربران بر اساس زمان روز و روز هفته متفاوت است. من 550 روز دادههای لحظهای دارم، اگرچه احتمالاً میتوانیم آنها را در سطلهای 5 دقیقهای جمع کنیم تا به قیمت هشدارهای اولیه، نویز کمتری داشته باشیم. پیشنهاد در مورد نحوه انتخاب سطل اندازه مناسب مفید خواهد بود. این چیزی است که نوسانات روزانه **هموار شده** توسط DOW به نظر می رسد: به نظر می رسد هر روز دو چرخه وجود دارد معمولاً شیب زیادی بین آنها وجود ندارد. همچنین یک روند مثبت در طول زمان وجود دارد که باید آن را در نظر بگیرم: بدیهی است که دوره 4 صبح تا 9 بعد از ظهر در نمودار اول باید در طول زمان یکسان به نظر برسند، اما بقیه منحنیها به سمت بالا تغییر کرده و تندتر شدهاند. من در درست کردن شکل منحنی روزانه مشکل دارم. من فکر میکنم که این به نوعی اسپلاین با 4-6 گره نیاز دارد، اما مطمئن نیستم که چگونه میتوان آن را با جنبه سری زمانی ادغام کرد. از جهتی دیگر به آن نزدیک میشوم، سعی کردهام این را در یک مدل مؤلفههای مشاهدهنشده (UCM) در Stata قرار دهم، اما در مورد چگونگی مشخص کردن روند، فصلی بودن، و چرخهای بودن، و نحوه رفتار با متغیرهای برونزا گم شدهام. . چیزهای کمی که من امتحان کرده ام یا به نظر می رسند یا در مدت زمان معقولی به هم نزدیک نشده اند. مسئله دیگر این است که چگونه می توان RMSE پیش بینی UCM را به یک فاصله زمانی یا حداقل انتهای سمت چپ یک ترجمه کرد. این بسیار پیچیدهتر از هر مدل سری زمانی است که من قبلاً ساختهام، بنابراین هرگونه توصیه مدلسازی قابل قدردانی است. | پیشبینی سریهای زمانی با فرکانس بالا با کران پایینتر |
68893 | من در مورد ناحیه زیر منحنی (AUC) ROC و دقت کلی کمی گیج هستم. 1. آیا AUC متناسب با دقت کلی خواهد بود؟ به عبارت دیگر، وقتی دقت کلی بیشتری داشته باشیم، آیا قطعاً AUC بزرگتری خواهیم داشت؟ یا قطعاً همبستگی مثبت دارند؟ 2. اگر همبستگی مثبت دارند، چرا ما هر دو را در برخی از نشریات گزارش می کنیم؟ 3. در حالت واقعی، من برخی از وظایف طبقه بندی را انجام دادم و نتایجی مانند: طبقه بندی A دقت 85٪ و AUC 0.98 و طبقه بندی B دقت 93٪ و AUC 0.92 را به دست آورد. پس کدام طبقه بندی بهتر است؟ یا ممکن است نتایجی مانند این بدست آورید (منظورم این است که ممکن است اشکالی در اجرای من وجود داشته باشد)؟ | ناحیه زیر منحنی ROC در مقابل دقت کلی |
49919 | من می خواهم شبیه سازی مونت کارلو را برای یک مدل مالی اجرا کنم که نیاز به پیش بینی فروش دارد. اگر فرض کنم اندازه متوسط سفارش به طور معمول توزیع شده است (مثلاً در 80) و دارای یک انحراف استاندارد (مثلا 30) باشد، من تا حدودی این کار را با موفقیت انجام داده ام. با این حال، مشکل این است که البته حداقل فروش نمی تواند کمتر از 0 باشد. آیا کسی می تواند یک توزیع جایگزین خوب (یا تکنیک برای کار با توزیع معمولی) برای حل این مشکل پیشنهاد کند (من مطمئن هستم که باید به اندازه کافی رایج باشد. سناریو!). با تشکر | توزیع خوب برای مدل سازی میانگین فروش چیست |
73750 | اگر مجموعه داده داریم، متغیر X و Y. بگویید، ما تجزیه و تحلیل همبستگی انجام می دهیم و مقداری ضریب همبستگی را می گیریم. علاوه بر این، پس از مشاهده رابطه آنها به یک واقعیت مهم پی می بریم: یعنی نمودار پراکندگی X و Y شکل مثلثی دارد. به این معنی که (به عنوان مثال) هنگامی که مقادیر X در حال افزایش هستند، مقادیر Y برای تمام مقادیر X افزایش مییابند، در حالی که برعکس درست نیست. وقتی مقدار Y در حال افزایش است، مقادیر X برای همه مقادیر Y هر چیزی هستند. برای بررسی این موضوع چه نوع تحلیلی باید انجام دهم؟ * * * ( _به روز رسانی در پاسخ به_ @Penguin_Knight) نمودار شما دقیقاً همان چیزی است که من توضیح دادم. فقط مقادیر منفی را با یک خط فرضی y=0 بردارید. همانطور که می بینید نقاط داده زیادی وجود دارد که X آنها 0 یا بسیار کوچک است و Y ارزش بسیار بالایی دارد. با این حال هیچ نقطه داده ای وجود ندارد که y=0 داشته باشد و x مقدار بسیار بالایی داشته باشد. و همانطور که می بینید باعث می شود پراکندگی داده ها یک مثلث زاویه قائمه شکل بگیرد. بنابراین می توان گفت که مقادیر X بالا مستلزم مقادیر Y بالا هستند اما مقادیر Y بالا همیشه دارای مقادیر X بالا نیستند. به نظرم خیلی جالبه در عمل به عنوان مثال من پیچیدگی و اندازه موجودیت های داده شده را اندازه گیری می کنم. و تجزیه و تحلیل من نشان می دهد که همه موجودات پیچیده دارای اندازه بزرگ هستند اما همه موجودات با اندازه بزرگ پیچیده نیستند. سپس نتیجه میگیرم که مقدار معینی از پیچیدگی به اندازه مشخصی نیاز دارد. شما نمی توانید پیچیدگی بیشتری را در یک اندازه معین قرار دهید. این کمی انتزاعی است، اما متوجه منظور من هستید؟ این بسیار جالب است و من می خواهم در مورد چگونگی بحث یا توصیف رسمی این نوع روابط در آمار کمک بگیرم. | آیا تکنیک های آماری وجود دارد که چنین روابطی را بررسی کند؟ |
79059 | من باید یک رگرسیون خطی به شکل y=a*x1+b*x2+c انجام دهم که در آن b=(1-a) خطاهایی هم در متغیر وابسته y و هم در پیش بینی کننده های x1,x2 دارم. من مطمئن نیستم که چگونه محدودیت ضریب دوم و خطاهای متغیر وابسته را کنترل کنم. هر ایده ای؟ | رگرسیون خطی با ضریب محدود |
77237 | > دقت قضیه حد مرکزی برای میانگین بستگی به چولگی > متغیرهای تصادفی در حال جمع شدن دارد. کسی می تواند آن را برای من توضیح دهد؟ یا کسی می تواند کتابی برای خواندن پیشنهاد دهد؟ متشکرم. | چرا دقت قضیه حد مرکزی برای میانگین بستگی به چولگی متغیرهای تصادفی در حال جمع شدن دارد؟ |
34237 | من به دنبال نام یک روش برازش هستم که حتی اگر نقاطی از چندین سری داده با هم ترکیب شوند، کار کند. تا آنجا که من متوجه شدم دو روش عمده وجود دارد، _ حداقل مربعات_ و _ حداقل خطای مطلق_. روشی که من به دنبال آن هستم گام بعدی در جهت LS به LAE خواهد بود: * **کمترین مربعات** برازش: مجذور فواصل تمام نقاط داده را به یک تابع به حداقل برسانید. **هر چه یک نقطه بیشتر باشد، انحراف آن قوی تر می شود**. ممکن است به شدت تحت تأثیر عوامل پرت باشد. همیشه به یک راهحل منحصربهفرد در سطح جهانی (حداقل برای منحنیهای ساده) همگرا میشود، که با روشهای نزول گرادیان به راحتی میتوان آن را پیدا کرد.  * * * * **حداقل انحراف مطلق**: مجموع فواصل تمام نقاط داده را به حداقل برسانید. **همه انحرافات برابر وزن هستند**. نسبت به موارد دورافتاده قوی تر، ممکن است به راه حل های بالقوه بی نهایت همگرا شود که همگی دارای انحراف کلی یکسان هستند! دقیق باشید) * * * * ** حداقل ریشه مربع ** ??? (گوگل واقعاً تعداد بازدیدهای زیادی برای این نام ندارد). من به دنبال تابعی هستم که ممکن است به سمت _مینیممهای محلی چندگانه همگرا شود، و **انحرافات وزنی _ قویتر هر چه یک نقطه نزدیکتر باشد_**. اینکه کدام راه حل همگرا می شود به پارامترهای شروع بستگی دارد. من فکر میکنم که حداقل ریشه مربع از همه انحرافات این کار را انجام میدهد، اما من نمیتوانم مرجعی برای این نوع تناسب پیدا کنم.  آیا نام رسمی برای روشی مانند این وجود دارد و نام آن چیست؟ یا آیا این نوع تناسب اساساً با روش های برازش منحنی امکان پذیر نیست؟ من به دنبال روشی نیستم که تمام حداقل های محلی را پیدا کند، یک حداقل محلی بسته به پارامترهای شروع کافی است. * * * (توجه داشته باشید که در تصاویر مثال، توابع همه خطوط بودند، اما در حالت ایده آل، من به دنبال روشی هستم که بتواند به طور تکراری نقاط را به سمت توابع n بعدی دلخواه منطبق کند) | برازش حداقل ریشه مربع؟ یک روش برازش با حداقل های چندگانه |
68724 | من تعدادی آزمایش برای تشخیص وجود خودهمبستگی در سری بازده ماهانه خود انجام داده ام. نتایج آزمون تأیید می کند که خطاهای استاندارد مستقل نیستند. نتیجه آزمون دوربین-واتسون یک نقض کران بالایی با آماره d 2.16 را نشان میدهد که نشان دهنده همبستگی منفی (رتبه اول) است. آزمون دوم، بروش-گادفری، که برای بررسی همبستگی مرتبه بالاتر انجام شد، به این نکته اشاره میکند که برای 12 تاخیر اول، آزمونها در رد تهی هیچ همبستگی سریالی شکست میخورند. آیا این عجیب نیست زیرا نتایج آزمایش با یکدیگر در تناقض هستند؟ برای درک بهتر همبستگی در متغیر (وابسته) من یک corrgram را نیز اجرا کردم. نتایج آماره Q در این مورد، دادههای خودهمبستگی قابلتوجهی را پس از اولین تاخیر نشان میدهد (تصویر را ببینید). نتایج آماره Q متغیر مستقل اضافی نشان دهنده هیچ همبستگی حضوری نیست.  آنچه من تا کنون هنگام جستجو در اینترنت برای راه حل هایی برای حل همبستگی خودکار به آن برخوردم، تعداد زیادی راه حل است. برای به دست آوردن نتایج معنیدار از رگرسیون OLS، فکر کردم بهترین کار این است که یک متغیر وابسته تاخیری را در رگرسیون لحاظ کنم و خطاهای استاندارد نیوی وست را ایجاد کنم. این احتمالاً یک رویکرد نسبتاً ساده اما در دسترس برای آماردانان بی تجربه مانند من است. **سوال من این است؛** آیا این یک رویکرد صحیح و کافی برای مقابله با این مشکل خودهمبستگی خاص در داده های من است یا باید به مدل های پیشرفته تری فکر کنم؟ پیوندی به فایل سری زمانی؛ داده های_سری_زمانی | سری زمانی: تصحیح خطاهای استاندارد برای همبستگی خودکار |
91631 | من میخواستم یک نمایش کلاسی انجام دهم که در آن یک بازه t را با یک بازه بوت استرپ مقایسه کنم و احتمال پوشش هر دو را محاسبه کنم. من میخواستم دادهها از یک توزیع اریب تهیه شوند، بنابراین انتخاب کردم که دادهها را به صورت «exp(rnorm(10، 0، 2)) + 1» تولید کنم، نمونهای به اندازه 10 از یک lognormal تغییر یافته. من یک اسکریپت برای رسم 1000 نمونه نوشتم و برای هر نمونه، هر دو 95% فاصله t و 95% فاصله صدک بوت استرپ را بر اساس 1000 تکرار محاسبه کردم. وقتی اسکریپت را اجرا می کنم، هر دو روش فواصل بسیار مشابهی را ارائه می دهند و هر دو دارای احتمال پوشش 50-60٪ هستند. من تعجب کردم زیرا فکر می کردم فاصله بوت استرپ بهتر است. سوال من این است که آیا من * در کد اشتباه کرده ام؟ * در محاسبه فواصل اشتباه کردید؟ * با انتظار اینکه فاصله بوت استرپ ویژگی های پوشش بهتری داشته باشد، اشتباه کرد؟ همچنین آیا راهی برای ایجاد یک CI قابل اعتمادتر در این شرایط وجود دارد؟ tCI.total <- 0 bootCI.total <- 0 متر <- 10 # اندازه نمونه true.mean <- exp(2) + 1 for (i در 1:1000){ samp <- exp(rnorm(m,0, 2)) + 1 tCI <- میانگین (نمونه) + c(1,-1)*qt(0.025,df=9)*sd(samp)/sqrt(10) boot.means <- rep(0,1000) برای (j در 1:1000) boot.means[j ] <- mean(sample(samp,m,replace=T)) bootCI <- sort(boot.means)[c(0.025*length(boot.means)، 0.975*length(boot.means))] if (true.mean > min(tCI) & true.mean < max(tCI)) tCI. مجموع <- tCI.total + 1 if (true.mean > min(bootCI) & true.mean < max(bootCI)) bootCI.total <- bootCI.total + 1 } tCI.total/1000 # تخمین احتمال پوشش بازه t bootCI.total/1000 # تخمین احتمال پوشش بازه راهانداز | چرا فاصله بوت استرپ من پوشش دهی وحشتناکی دارد؟ |
34238 | ## ساختار داده > str(data) 'data.frame': 6138 obs. از 10 متغیر: $ RT : int 484 391 422 516 563 531 406 500 516 578 ... $ ASCORE : num 5.1 4 3.8 2.6 2.7 6.5 4.9 2.7 6.5 4.9 2.9 2.9 $ 7.9 1 6.9 8.9 8.2 3.6 1.7 8.6 ... $ MVMNT : Factor w/ 2 level _Withd,Appr: 2 2 1 1 2 1 2 1 1 2 ... $ STIM : Factor w/ 123 level arti Cele،...: 16 23 82 42 105 4 93 9 34 25 ... $ DRUG : فاکتور w/ 2 سطح غیر فعال، Pharm: 1 1 1 1 1 1 1 1 1 1 ... $ FULLNSS: فاکتور w/ 2 سطح Fasted, Fed: 2 2 2 2 2 2 2 2 2 ... $ PATIENT: Factor w/ 25 سطح Subj01،Subj02،..: 1 1 1 1 1 1 1 1 1 1 ... $ SESSION: Factor w/ 4 level Sess1،Sess2،...: 1 1 1 1 1 1 1 1 1 1 ... $ TRIAL : Factor w/ 6138 level T0001, T0002،..: 1 2 3 4 5 6 7 8 9 10 ... ## مدل کامل کاندید model.loaded.fit <- lmer(RT ~ ASCORE*HSCORE*MVMNT*DRUG*FULLNSS + (1|بیمار) + (1|جلسه)، داده، REML = TRUE) * زمان واکنش از کارآزمایی ها دسته بندی شده در جلسات، که به نوبه خود در بیماران گروه بندی می شوند. دارونما یا دارونما فعال) و با سیری (ناشتا یا از قبل تغذیه شده) ## مدلسازی و R Syntax؟ من سعی می کنم یک مدل _full_ مناسب با ساختار میانگین بارگذاری شده را مشخص کنم که بتواند به عنوان نقطه شروع در استراتژی انتخاب مدل از بالا به پایین استفاده شود. مسائل خاص: * آیا نحو به درستی افکت های خوشه بندی و تصادفی را مشخص می کند؟ * فراتر از نحو، آیا این مدل برای طراحی درون موضوعی فوق مناسب است؟ * آیا مدل کامل باید تمام فعل و انفعالات اثرات ثابت را مشخص کند یا فقط آنهایی را که واقعاً به آنها علاقه مند هستم؟ * من عامل STIM را در مدل وارد نکرده ام، که نوع محرک خاص مورد استفاده در یک آزمایش را مشخص می کند، اما به هیچ وجه علاقه ای به تخمین زدن آن ندارم - آیا باید مشخص کنم که به عنوان یک عامل تصادفی با توجه به آن دارای 123 سطح و بسیار است. چند نقطه داده در هر نوع محرک؟ | سوالاتی در مورد تعیین مدل های خطی مختلط در R برای داده های اندازه گیری مکرر با ساختار تودرتوی اضافی |
79584 | آیا کسی می تواند به من کمک کند تصمیم بگیرم کدام روش بهتر است؟ من سه گروه دارم که هر کدام پاسخهای بله یا خیر دارند. سعی میکنم از بین 3 گروه بهترین را انتخاب کنم آیا باید از 3 تست t با تنظیم بونفرونی استفاده کنم؟ یا از تست مجذور کای استفاده کنید. چگونه بهترین گروه را در آزمون مربع چی از چند گروه انتخاب می کنید با تشکر | آزمون تی در تناسبات در مقابل مربع چی، 3 گروه |
73752 | چه می شود اگر N سیگنال صوتی با طول های مختلف داشته باشیم و برای هر کدام جمله مربوطه را بدانیم. چگونه می توانیم طبقه بندی کننده را برای سیگنال های صوتی-> جمله آموزش دهیم؟ و شاید بتوان از مدل Hidden Markov در اینجا استفاده کرد؟ به طور کلی سؤال من این است که آیا تکنیکی وجود دارد که بتوان آن را با سیگنال صوتی آموزش داد که با دست از حروف یا واج جدا نمی شود، بلکه فقط با ارائه جمله ای که در آن وجود دارد، همان رشته های دست نویس یا می تواند قیاسی باشد که می دهیم. طبقهبندی کننده تصویر و اطلاعاتی است که چه شیء را روی تصویر نشان میدهد، اما موقعیتهای مستقیم آنها را مشخص نمیکند | تشخیص گفتار مدل مخفی مارکوف |
73756 | من سعی کردم ماتریس دقیق را در یک تنظیمات بیزی سلسله مراتبی با Wishart که قبلاً d.f داده شده بود، مدل کنم. و ماتریس مقیاس معکوس، و احتمال عادی ماتریس، از آنجایی که مزدوج قبلی است، پسین من در ماتریس دقیق $K$ به این شکل ختم می شود: $$ K \sim \text{Wishart}(\text{df}, \Lambda ^{-1}) $$ از آنجایی که بعد $\Lambda$ بسیار بزرگ است، نمیخواهم معکوس ماتریس را بگیرم و از نمونه بردار داخلی من به کد منبع wishrnd Matlab نگاه کردم، آنها از تجزیه بارتلت برای ابعاد بزرگ (81+n) استفاده کردند، که باید برای ابعاد کوچکتر نیز کار کند، هرچند ناکارآمد. تکه های کد: [n,m] = size(Lambda); [d,p] = cholcov(Lambda,1); % در غیر این صورت از روش اسمیت و هوکینگ استفاده کنید d = eye(size(d)) / d; % بارگذاری عناصر مورب با ریشه مربع chi-square a = diag(sqrt(chi2rnd(df-(0:n-1)))); % بار مثلث بالایی با عادی مستقل (0, 1) متغیر است a(itriu(n)) = randn(n*(n-1)/2,1); % ماتریس مورد نظر D'(A'A)D x = a(:,1:size(d,1))*d; a = x' * x; % --------- دریافت شاخص های مثلث بالایی تابع ماتریس p-by-p d=itriu(p) d=ones(p*(p-1)/2,1); d(1+cumsum(0:p-2))=p+1:-1:3; d = cumsum(d); برای برآوردن نیازهایم، یعنی. وارد کردن درجه آزادی $df$ و ماتریس مقیاس معکوس $\Lambda$ بعد از خط دوم d = d \ eye(size(d)) را اضافه کردم، به طوری که معکوس cholesky decomp ماتریس مقیاس معکوس را داشته باشم. به عبارت دیگر، تجزیه کلسکی ماتریس مقیاس. سپس همه چیز باید از آنجا خوب باشد (امید داشتم). من این را ابتدا با ایجاد یک ماتریس قطعی مثبت 3 در 3 آزمایش کردم: >> test = rand(190, 3); Lambda = test'*test; >> لامبدا لامبدا = 62.7642 46.4970 45.6662 46.4970 61.9178 45.4114 45.6662 45.4114 59.1070b تنظیم $df = 6$، 000 تصادفی، 0 نمونه بود. مقایسه با لحظه اول توزیع >> df = 6; >> sam = 0; برای حلقه = 1:100000 sam = sam + mywishrnd(Lambda,df); پایان >> sam/100000 ans = 0.0956 -0.1069 -0.0689 -0.1069 0.3380 -0.0286 -0.0689 -0.0286 0.3872 >> inv(Lambda)*df ans = -0.2118 -0.2114 -0.1118 0.2692 -0.1205 -0.1187 -0.1205 0.2857 تفاوت های بسیار زیادی در برخی از ورودی های نتایج وجود دارد، اما من از لحاظ نظری هیچ اشتباهی در این نمی بینم. آیا ممکن است به دلیل خطای عددی باشد؟ کسی میتونه منو در مورد این مشکل روشن کنه؟ متشکرم! | نمونه ای از توزیع Wishart با ماتریس مقیاس معکوس |
91630 | پس از تلاش قبلی برای دریافت پاسخ در اینجا به آنچه متوجه شدم یک سوال مزخرف است، من به دنبال منابع خوبی هستم که بتوانم از آنها برای شروع به درک این منطقه استفاده کنم. اکثر کتابهای آزمایش روانشناسی در کتابخانه ما بر آمار، تجزیه و تحلیل دادهها، روششناسی تحقیق کیفی و طراحی آزمایش تمرکز دارند. اما به نظر می رسد روش ها و تکنیک های تعیین حجم نمونه با مثال های عملی، به خصوص در سطح مبتدی، بسیار اندک باشد. من چند کتاب پیدا کردهام که فکر میکنم به صورت آنلاین مفید هستند، اما بسیار گران هستند و ترجیح میدهم بازخورد دریافت کنم که ارزش پول را داشتند و هیچ چیز بهتری وجود نداشت. * تعیین و توان اندازه نمونه - توماس پی رایان * محاسبات اندازه نمونه: روش های عملی برای مهندسان و دانشمندان. Paul Mathews بنابراین آیا کسی می تواند کتاب یا منابع دیگری را در آن منطقه توصیه کند، به ویژه برای تعیین حجم نمونه برای آزمون فرضیه میانگین؟ * * * مروری کوتاه بر حوزه تحقیقاتی من: من در حال انجام تحقیق هستم تا مشخص کنم کدام ویژگی های خاص یک وب سایت یا رابط نرم افزاری بر درک کاربران با استفاده از معیارهایی مانند اعتماد، انصاف، تخصص و غیره تأثیر می گذارد. هر شرکت کننده به 9 طرح جداگانه، هر کدام امتیاز می دهد. با یک اعوجاج متفاوت که سپس با کنترل مقایسه خواهم کرد. شرکتکنندگان به صورت آنلاین جمعسپاری میشوند. امیدوارم این کمک کند. | توصیه کتاب: تعیین حجم نمونه برای آزمون فرضیه میانگین |
74233 | یک سوال کلی دارم فرض کنید به شما دو خط رگرسیون از متغیرهای x و y داده شده است: Say- 4x-6y+50=0 و 15x-6y-120=0. سپس چگونه می توان از بین این دو معادله رگرسیونی، یکی که Y روی X و دیگری که X روی Y است، شناسایی کرد؟ | چگونه معادله رگرسیون Y را روی X و X را روی Y شناسایی کنیم؟ |
91638 | من در مورد فقر و رشد تحقیق می کنم. من مدلی برای فقر ساختم که شامل 11 متغیر است که به لحاظ نظری بر آن تأثیر می گذارد. اینها تورم، رشد کشاورزی، جینی، نرخ رشد تولید ناخالص داخلی و غیره هستند. فقر و جینی در واقع مقادیر شاخص هستند. من به نوعی توانستم همه آنها را در نرخ رشد تغییر دهم. نویسندگان این متغیرها را پیشنهاد کردند، به همین دلیل است که من متغیرهای خود را به آنها محدود کردم، اما r sq من خیلی کم کمتر از 1 است، برای مثال وقتی رگرسیون تلفیقی را اجرا میکنم، آزمون f نیز ناچیز است. من واقعا گیج شدم. من از stata 10 استفاده می کنم، لطفاً در این مورد نظر دهید. | رگرسیون تلفیقی و اثرات تصادفی و ثابت |
114120 | من سعی میکردم یک آزمایش جایگشت روی مقدار زیادی از مشاهدات دما در R انجام دهم. تقریباً 1700 مشاهده دما ('g1') از یک مکان و 2 برابر 1700 مشاهده از دو مکان دیگر ('g2'). من می خواهم فرضیه بدنه $\mu_1-\mu_2 = 0$ را در برابر فرضیه جایگزین $\mu_1-\mu_2 <0$ آزمایش کنم. من محاسبات زیر را انجام می دهم: k <– 10000 perms <- replicate(k, sample(c(g1, g2))) my.mean.difs <- application(perms[1:length(g1), ], 2, میانگین) - application(perms[(length(g1)+1):(length(g1)+length(g2)), ], 2, mean) p <- sum(my.mean.difs < (mean(g1) - mean(g2))) / k مقدار p، `p`، به من 0 می دهد، مستقیم. من نمی فهمم چرا هیچ تفاوتی در میانگین (my.mean.difs) که کوچکتر از تفاوت در میانگین واقعی است، دریافت نمی کنم. حدس فوری من این است که من از نمونه های مجدد بسیار کمی استفاده می کنم، اما از آنجایی که مجموعه داده ها بسیار بزرگ هستند (1700 و 3400 نقطه داده)، انجام نمونه های مجدد بسیار زمان بر خواهد بود. من میتوانم بهطور تصادفی مجموعههای داده کوچکتری ایجاد کنم و آنها را آزمایش کنم، اما مطمئن نیستم که روش خوبی باشد. آیا کسی میتواند به من توضیح دهد که چرا من یک مقدار p 0 را مستقیماً دریافت میکنم، و آیا انجام جایگشت در مجموعههای داده بزرگ مانند این ایده بدی است؟ ## اطلاعات جایزه: ### دما در گروه 1 (`g1`) * $\mu_1 = 24.14$ °C * $\sigma_1 = 0.96$ ### دما در گروه 2 (`g2`) * $\mu_2 = 24.95$ °C * $\sigma_2 = 1.01$ ## ویرایش: بر اساس @whuber's نظر و قضیه حد مرکزی من سعی کردم یک آزمون Z دو نمونه ای از میانگین ها بسازم که اگر فرض واریانس های مساوی درست باشد، استفاده از آن در اینجا خوب است، درست است؟ من محاسبات زیر را انجام دادم: (mean(g1)-mean(g2)) / sqrt(var(g1)/length(g1) + var(g2)/length(g2)) این یک مقدار Z بسیار کوچک به من می دهد -28.25. آیا این مقدار Z-value واقع بینانه است؟ با عرض پوزش برای سؤال احتمالاً بسیار ابتدایی، اما من با آمار کاملاً تازه کار هستم، و از دوره مقدماتی آمار خود، روی اندازه های نمونه بسیار کوچکتر و Z-values بسیار نزدیک به 0 کار کردیم. اما حدس می زنم که حجم نمونه بزرگ باعث شود ممکن است تفاوت معنیداری در میانگین نشان داده شود، حتی اگر تفاوت واقعی آنقدر بزرگ نباشد. درست است؟ | جایگشت برای اندازه های نمونه بزرگ (و آزمون z) |
91636 | من اقتصاد سنجی خود را در مقطع کارشناسی فراموش کرده ام و امیدوار بودم که کسی بتواند به تجدید حافظه ام کمک کند. اگر من یک رگرسیون $\ln y=a+bX+e$ داشته باشم و بخواهم کشش $y$ را با توجه به $X$ (در میانگین $X$) ارزیابی کنم، چگونه این کار را انجام دهم؟ | نحوه به دست آوردن کشش از رگرسیون در سطح لگ |
79583 | تخمین فاصله رایج است. با این حال، به نظر می رسد برآورد نقطه ای بر اساس قضیه ساده قضیه حد مرکزی است. | آیا بین تخمین نقطه ای و تخمین فاصله ای از نظر مفروضات برای انجام چنین برآوردهایی تفاوت قائل می شوید؟ |
58406 | > اجازه دهید $F$ یک تابع توزیع در $\mathbb{R}$ باشد که $F(0)=1$ و $\mu$ > میانگین آن باشد. نشان دهید که $$G(x)=\frac{1} {\mu}\int_{0}^{x}[1-F(t)]dt$$ یک تابع توزیع > است. همچنین میانگین آن را پیدا کنید. آزمایشی: برای $x_1>x_2$، $G(x_1)>G(x_2)$ داریم. بنابراین، در حال افزایش است. دوباره $G(\infty)=\frac{1}{\mu}\int_{0}^{\infty}[1-F(t)]dt=\frac{1}{\mu}\cdot\mu =1$ اما چگونه $G(-\infty)=\frac{1}{\mu}\int_{0}^{-\infty}[1-F(t)]dt=0$ را نشان میدهم در نهایت به من کمک کنید به معنی پیدا کن لطفا کمک کنید. | نشان دهید که $G(x)$ یک تابع توزیع است و میانگین را پیدا کنید |
114128 | در «glmnet» در R، تفاوت بین «dfmax» و «pmax» هنگام ایجاد یک مدل با هر دو پنالتی ریج و کمند چیست؟ آیا تفسیر زیر صحیح است؟ فرض کنید یک شبکه الاستیک «glmnet» با 500 پیشبینیکننده اجرا کردهایم و فقط میخواهیم 3 پیشبینیکننده را در مدل نهایی وارد کنیم. یعنی ما می خواهیم کمند 497 پیش بینی کننده را حذف کند. برای انجام این کار، آیا dfmax = 500 و pmax = 3 را تنظیم می کنیم؟ | GLMNET در R: تفاوت بین DFMAX و PMAX |
91639 | از مقدمه کتاب تئوری احتمالات: احتمال اینکه یک عدد صحیح مثبت به طور تصادفی انتخاب شده باشد، عددی را که به 1 ختم می شود در صورت مجذور بودن آن چقدر است؟ نکته: کافی است اعداد 1 رقمی را در نظر بگیرید. پاسخ: 0.2 من نمی فهمم چرا فقط باید اعداد یک رقمی را در نظر بگیریم. من می بینم که 1 و 9 اعداد یک رقمی هستند که مربعی را تولید می کنند که به 1 ختم می شود و احتمال 2/10 انتخاب تصادفی آنها را می دهد، اما چگونه می توانیم این را به همه اعداد صحیح مثبت تعمیم دهیم؟ | احتمال اینکه مربع یک عدد صحیح تصادفی به 1 ختم شود |
93678 | من از ClassificationTree.fit Matlab برای ایجاد درخت طبقه بندی برای داده های خود استفاده می کنم. فرض کنید من تایپ می کنم: load fisheriris t = ClassificationTree.fit(meas,species,'PredictorNames',{'SL' 'SW' 'PL' 'PW'})} این به من یک متغیر کلاس ClassificationTree 't' می دهد. از این متغیر کلاس، چگونه می توانم قوانین منطقی را استخراج کنم که من را به یک کلاس _خاصی می رساند. به عنوان مثال، قانون برای دریافت کلاس 'versicolor' در 'fisheriris' این است: PL >= 2.45 و PW < 1.75 و PL <4.95 و PW <1.65. توجه: 1. من نمی خواهم هیچ قانونی برای کلاس های دیگر نشان دهم. 2. من خروجی view(t) را نمی خواهم. | استخراج قوانین از درخت طبقه بندی Matlab |
93670 | من در این تاپیک سوالی در رابطه با تفسیر تعاملات دو و سه طرفه در این لینک مطرح کرده ام: چگونه تعامل دو و سه طرفه را در lmer تفسیر کنیم؟ DV ارتفاع است. خطوط پایه اینجا هستند (همه طبقه بندی شده اند): •حیوان: شیر •رنگ:سفید •جنس: ماده که برای تعامل سه طرفه است. با این حال، من تعجب کردم که آیا مدل من فقط دو سطح دارد: اثرات ثابت: برآورد Std. خطای t مقدار (Intercept) 164.6888 7.8180 21.065 rat -14.1342 8.2889 -1.705 جنسیتی -16.0883 10.0071 -1.608 رنگی 0.5776 6.21924 - 6.21924 رنگی 6.1025 -2.360 rat:sexmale 15.3645 11.8567 1.296 rat:colorred 12.5258 4.4028 2.845 rat:coloryellow 10.3136 4.3196 4.3196 2.3027male: رنگارنگ 0.384 sexmale:coloryellow 5.7643 5.1669 1.116 من نمی دانم که آیا تفسیر دو سطحی مانند تعامل سه طرفه خواهد بود. به عنوان مثال، rat:sexmale = من باید به عنوان تفاوت قد بین موش و شیر برای نرها بیشتر از ماده ها تعبیر کنم. این بدان معناست که وقتی قد نر و ماده را مقایسه می کنیم، نرها بین موش و شیر اختلاف معنی داری بیشتری خواهند داشت در حالی که در ماده ها این تفاوت معنی دار نیست. آیا تعبیر من درست است؟ | تعامل دو طرفه: خروجی LMM را در lmer تفسیر کنید |
34584 | من در حال تجزیه و تحلیل یک آزمایش اکولوژی جنگل هستم که در آن تعداد درختان را در 5 جفت قطعه در یک جنگل شمارش کردیم. یکی از اعضای هر جفت چندین سال پیش حصارکشی شد تا گوزنها را حذف کنند (درمان حذف) و دیگری را ترک کردند تا گوزن بتواند به آن دسترسی داشته باشد (کنترل). در یک جفت معین، 2 قطعه در مجاورت یکدیگر و در شرایط محیطی مشابه قرار دارند، اما تعداد، اندازه و گونههای درختان در هر قطعه زمانی که آزمایش شروع شد کمی متفاوت است. ما علاقه مندیم که آیا حذف آهوها باعث افزایش فراوانی درختان در جنگل می شود؟ ما به ویژه علاقه مندیم که آیا آهوها از طریق کشتن مستقیم درختان کوچک یا کاهش تعداد نهال ها و نهالی هایی که تا مرحله درخت کوچک زنده می مانند، تعداد درختان کوچک را _کاهش داده اند. (ما یک درخت را هر چیزی بلندتر از 2 متر در نظر می گیریم، صرف نظر از اینکه قطر ساقه چقدر ضخیم است؛ درختان کوچک هر چیزی کمتر از 2 سانتی متر ضخامت دارند). با این حال، از زمان شروع آزمایش، سرنوشت تک تک درختان را دنبال نکرده ایم. آنچه ما داریم **شمارش** تعداد درختان در هر ده قطعه و اندازه هر درخت است. دادهها، در تمام کرتها برای هر یک از دو تیمار جمعآوری شده و در کلاسهای اندازهبندی شده سازماندهی شدهاند، در زیر آمده است. از آنجایی که آهوها فقط بر سرنوشت درختان کوچک تأثیر می گذارند، انتظار داریم که درختان کوچک بیشتری در زمین های حصارکشی شده ما وجود داشته باشند. با این حال، تعداد درختان بزرگ نباید تحت تأثیر قرار گیرد زیرا آزمایش به اندازه کافی طولانی انجام نشده است که منجر به تغییر در تعداد درختان بزرگ شود. بنابراین ما فرض می کنیم که توزیع اندازه کلی درختان باید بین تیمارها متفاوت باشد، اما این تفاوت باید بر اساس کوچکترین کلاس های اندازه باشد. توسط همکارانم پیشنهاد شده است که داده ها را به عنوان یک جدول احتمالی با استفاده از آزمون g تجزیه و تحلیل کنم. یک دانشجوی کارشناسی که روی این پروژه کار میکرد، قبلاً یک آزمون g را برای هر ردیف جدول اعمال کرده بود و یک اثر درمانی را برای دو کلاس کوچکترین اندازه گزارش کرده بود، اما بقیه را نه. با این حال، این یک استفاده معتبر از آزمون g نیست، زیرا، همانطور که در ابتدا این را ارسال کردم، هر درخت یک نقطه داده مستقل نیست. من سؤالات زیر را در مورد چگونگی تجزیه و تحلیل صحیح این داده ها دارم: 1\. آیا درست است که جدولی مانند جدول زیر برای _هر_ از پنج جفت پلات ایجاد کنیم و آزمون خوبی از برازش مانند آزمون g را اعمال کنیم؟ متأسفانه، هنگامی که به نمودارهای جداگانه تقسیم می شوند، بسیاری از سلول های جداول احتمالی 0 یا <5\ هستند. 2\. برای انجام چنین تحلیلی، آیا باید یک توزیع زیربنایی (مثلاً poisson) از کلاسهای اندازه را برای تولید مقادیر پیشبینیشده فرض کنیم؟ 3\. آیا تحلیل این نوع داده های شمارش با یک مدل خطی تعمیم یافته با توزیع پواسون منطقی تر است؟ من معتقدم که این نیاز به تجزیه و تحلیل هر کلاس اندازه جداگانه دارد. همکاران من میخواهند همه چیز را تا حد ممکن ساده نگه دارند، اما من با اجرای GLM کاملاً راحت هستم. باز هم، داده ها نسبتاً کم هستند، که ممکن است این نوع تجزیه و تحلیل را دشوار کند. **داده:** SIZE_CLASS CONTROL_trt EXCLOSE_trt 1 1_یا_کمتر 15 60 2 1_to_2 29 30 3 2_to_3 11 10 4 3_to_5 11 15 5 5_یا_بزرگتر 45 | آیا آزمون g برای داده های شمارش مناسب است؟ |
58409 | من دو مجموعه داده متشکل از معیارهای چند آزمایش دارم. مجموعه داده 1 مجموعه ای از نتایج آزمایشات E است که توسط کاربر A بر روی محصول A انجام شده است، N بار تکرار شده است. مجموعه داده 2 مجموعه ای از نتایج آزمایش های مشابه E است که توسط همان کاربر A بر روی محصول B انجام شده است و همان N بار تکرار شده است. N بزرگ نیست و به دلیل محدودیت های عملی نمی تواند بزرگ باشد (معمولاً حدود 15-20). داده ها را نمی توان گاوسی فرض کرد. در برخی موارد، قطعاً طبیعی نیست و در برخی موارد ما به طور قطع نمی دانیم. این فقط یک توزیع ناشناخته است. می دانیم که معیارها نمی توانند منفی باشند. این تقریباً تنها اطلاعات قطعی است که ما می دانیم. با استفاده از این داده ها، چگونه می توانیم محصول A و محصول B را با هم مقایسه کنیم و نتیجه ای با مقداری معنادار آماری به دست دهیم؟ چگونه یک آزمون فرضیه طراحی کنیم تا بررسی کنیم که آیا A > B با اطمینان x% وجود دارد؟ ویرایش کنید | چگونه دو مجموعه داده را با استفاده از معیارهای استخراج شده از توزیع های ناشناخته و با حجم نمونه کوچک مقایسه کنیم؟ |
79052 | من دو گروه از افراد دارم که تحت یک روش پزشکی قرار می گیرند، یک گروه عود کننده و یک گروه بدون عود. تابع احتمال این است: $$f_n({\bf x}; \theta) = \theta^{n_u} \exp[-\theta(\sum_{i \in C} x_i* + \sum_{i \in C ^C} x_i)] $$ C گروه بدون عود است، C^C تعریف آن است. N_u تعداد بیماران در C_C است. داده ها برای دو نوع انجام عمل پزشکی جمع آوری شده است. > x1 <\- c(28، 32، 49، 84، 357، *933، *1078، *1183، *1560، *2114،*2144) > > x2 <\- c(42، 53، 57، 63 ، 81، 140، 176، -210، 252، *476، 524، *1037) جایی که ستاره ها نشان می دهند که بیمار در گروه C است. هر دو نوع روش پزشکی با استفاده از احتمال داده شده مدل می شوند. ما می خواهیم پارامترها را در دو نوع رویه مقایسه کنیم. من در حال آزمایش فرضیه زیر هستم: $$ H_0: \theta_1 = \theta_2 \text{ در مقابل } H_1:\theta_1 \neq \theta_2$$ آیا فکر میکنم باید از آزمون نسبت درستنمایی تعمیمیافته استفاده کنم درست است؟ من مطمئن نیستم که چگونه این آزمایش را اجرا کنم زیرا تا به حال $$ \lambda = \lambda_0 \text{ در مقابل } \lambda \neq \lambda_0 $$ را آزمایش کردهام که $$\lambda = \lambda_0$$ یک مقدار خاص است. هر گونه کمکی قدردانی خواهد شد. | کمک به آزمون فرضیه و آزمون نسبت احتمال تعمیم یافته |
73755 | من سعی می کنم تفاوت بین سال ها (2008، 2009) و بین فصل ها (زمستان، بهار، تابستان) را ببینم، زیرا یک متغیر کمی (وابسته) در این مورد تعداد تخم ها است. این متغیر با یک متغیر پیوسته مانند اندازه مادر (متغیر کمکی) متغیر است. برای مشاهده اثرات زمانی در طول فصل تولید مثل، که 3 فصل را پوشش می دهد، باید اثر اندازه ماده را حذف کنم. یک ANCOVA انتخاب خواهد بود، با این حال، فاقد سطحی از فصل عامل، تابستان 2009، زیرا نمی تواند نمونه برداری را انجام دهد. داده ها تقریبا 30 نفر در هر فصل **اندازه نمونه بر اساس سطح عامل** سال فصل 2008 2009 زمستان 31 30 بهار 31 32 تابستان 25 NA نرمال بودن و همگنی واریانس بین فصول، سال و فصل: سال وجود دارد. من از R برای تجزیه و تحلیل آماری استفاده می کنم. مسئله من این است که من از ANCOVA استفاده کردهام و هیچ تفاوتی بین سالها یافت نشد، اما تفاوتهای قابل توجهی بین فصلها و فصل: سال وجود داشت. و من مطمئن نیستم که آیا این نوع تجزیه و تحلیل و همانطور که من اعمال کردم صحیح است یا خیر. اگر از نوع II یا III تنظیم شده SS یا نوع دیگری از آنالیز استفاده کنم. احتمالات دیگه؟ log (اندازه) 1 17.136 17.136 1217.228 < فصل دوم 143 2.013 0.014 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 پیشاپیش متشکرم. | چگونه می توان آنکوا را با متغیر کمکی با عوامل تو در تو و نامتعادل انجام داد؟ آیا این تحلیل مناسب است؟ |
93671 | من معتقدم که داده ای که دارم از توزیع دوجمله ای منفی (پواسون بیش از حد پراکنده) پیروی می کند. می دانیم که دوجمله ای منفی یک توزیع ترکیبی گاما پواسون است. واریانس این توزیع گاما در واقع واریانسی است که من به آن علاقه دارم. آیا می توانم واریانس توزیع گامای ترکیب را فقط از روی داده های دوجمله ای منفی خود تخمین بزنم. اگر $X|\lambda ~ \sim پواسون (\lambda)$ $\lambda \sim گاما(شکل = r، مقیاس = p/(1 - p))$، پس توزیع حاشیه ای X از $NB(r) پیروی می کند، p)$, $var(X) = \frac{pr}{(1-p)^2}$$mean(X) = \frac{pr}{1-p}$ $var(\lambda) = r \cdot \frac{p}{1-p}$ بنابراین، $var(\lambda) = var(X) - mean(X) = \frac{pr}{(1-p )^2} - \frac{pr}{1-p} = \frac{rp}{1-p}$ همچنین میتوانیم X و $\lambda$ را دو متغیر تصادفی در نظر بگیریم، سپس $Var(X) = E(Var(X|\lambda))+ Var(E(X|\lambda))$ $Var(X) = E(\lambda)+ Var(\lambda)$Var(\lambda) = Var(X ) - mean(\lambda)$ $E(X) = E(E(X|\lambda)) = E(\lambda)$ از مشتقات، به نظر می رسد می توانم واریانس را تخمین بزنم توزیع گاما در مخلوط با $Var(X)-mean(X)$. از طرف دیگر، اگر دو جمله ای منفی X را با استفاده از $\mu$ و اندازه پارامتر کنیم، $var(X) = \mu + \mu^2/size$. بنابراین $var(\lambda) = \mu^2/size$. | آیا می توانم واریانس گاما را از داده های توزیع شده توزیع دوجمله ای منفی تخمین بزنم، با توجه به اینکه NB ترکیب گاما-پواسون است؟ |
34583 | من به دنبال ایده هایی در مورد بهترین روش برای نزدیک شدن به یک مجموعه داده و انتخاب مدل مناسب برای پیش بینی قیمت دست دوم ویجت ها هستم. ## پیشینه ای در مورد ویژگی های این ویجت ها: * ویجت ها در مدل ها، اندازه ها، رنگ ها و چند ویژگی دیگر قابل دسته بندی هستند، همراه با سطح سایش و پارگی که برای هر ویجت منحصر به فرد است (اما قابل اندازه گیری است. به طور دقیق). * ارزش ویجت ها در طول زمان کاهش می یابد (نمایه استهلاک آن شبیه به 1/x است) تا مقداری ثابت که برابر با ارزش ضایعات آنها باشد. مقدار ضایعات در طول زمان ثابت نیست، بلکه > 0 است. * قیمت ویجت ها یک بار در یک دوره زمانی مشاهده می شود و همراه با ویژگی های دیگر برای هر ویجت ثبت می شود. قیمت دوباره به روز نمی شود. * جریان دائمی ویجتهای جدید در بازار وجود دارد و دادهها تقریباً یکنواخت میشوند، بنابراین تعداد ویجتهای جدیدی که به بازار دست دوم میآیند تقریباً در حدود k ویجت در روز ثابت است. سهام در زمان t+10 سهام در زمان t به علاوه 10*k خواهد بود. ## سوالاتی در مورد نحوه رسیدگی به داده ها: * از آنجایی که قیمت فقط یک بار مشاهده می شود، چه رویکردی برای تعیین حد بالایی که داده های قیمت را می توان در تحلیل در نظر گرفت، چگونه باید باشد؟ چه نوع تحلیل اولیه ای باید برای تعیین چنین برش هایی استفاده شود؟ * همچنین آیا در مدل سازی قیمت باید به تازگی نقطه داده قیمت وزنی داده شود؟ ## چگونه بهترین مدل را انتخاب کنیم؟ * قبل از انتخاب مدل مناسب (درمان موارد پرت و غیره) چه مواردی را باید در مورد داده های اساسی در نظر گرفت؟ * آیا رگرسیون چند متغیره راه درستی برای نزدیک شدن به این داده هاست یا از قبل روشی برای نزدیک شدن به چنین مواردی از پیش بینی قیمت وجود دارد؟ | انتخاب بهترین مدل برای پیش بینی قیمت ویجت دست دوم |
34582 | در سایت ریاضیات، یک کارشناس که تازه در حال یادگیری آمار است، توضیحات خود را از تفاوت بین رگرسیون خطی و ANOVA ارائه کرد و از او پرسید که آیا تفسیر او درست است یا خیر. من پاسخ دادم که رگرسیون خطی چگونگی ارتباط مجموعهای از متغیرهای کمکی با یک پاسخ را در یک فرم تابعی در نظر میگیرد (میتوانست که در پارامترها خطی است را اضافه کند) در حالی که ANOVA پاسخ را به یک کلاس یا کلاسهایی از گروه(ها) طبقهبندی میکند و آزمایش میکند. تفاوت بین معنی های گروهی یکی از اعضا به پاسخ من رأی منفی داد و گفت که ANOVA می تواند شامل پیش بینی کننده های پیوسته نیز باشد. پاسخ خود او نشان داد که او اصطلاح ANOVA را به معنای آزمایش عبارات معنیدار از تجزیه واریانس در مدل خطی عمومی در نظر میگیرد. هر دوی ما توضیحاتی از رگرسیون خطی ارائه کردیم که موافق بودند. سوال من این است: به نظر شما بهترین پاسخ چیست؟ پاسخ او؟ پاسخ من؟ توضیحی که دو معنی ANOVA را ارائه می دهد؟ چیز دیگری؟ پیوند: http://math.stackexchange.com/questions/183704 | رگرسیون خطی در مقابل تحلیل واریانس: چگونه تفاوت را توضیح دهیم؟ |
35183 | فرض کنید من یک $p(z، \theta | y، \eta)$ با $y$ داده های مشاهده شده دارم، $z$ متغیرهای پنهان و $\theta$ پارامترها هستند، و $\eta$ بردار فراپارامترها است. . من یک تقریب میدان میانگین به عقب با استفاده از صعود مختصات میسازم، یعنی $$ q(z) \gets \exp\left\\{E_q(\log p(z, \theta | y, \eta) | z) + \ mbox{const}\right\\} \\\ q(\theta) \gets \exp\left\\{E_q(\log p(z, \theta | y، \eta) |. \theta) + \mbox{const}\right\\} $$ که $\mbox{const}$ باعث میشود هر کدام به $1 ادغام شوند. تکرار تا همگرایی. سوال من این است که اگر بخواهم بیز تجربی انجام دهم، و (تقریبا) نمایه $\eta$ را مشخص کنم، آیا درست است که فقط با یک مرحله EM این را تقویت کنم $$ \eta \gets \arg \max_\eta E_q \log( p(z، \theta | y، \eta))؟ $$ بر اساس شواهد کران پایین $$ \log p(y | \eta) \ge E_q \log(p(z، \theta | y، \eta)) - E_q \log(q(z، \theta) ) $$ به نظر می رسد که من باید بتوانم از این موضوع خلاص شوم. بهینه سازی کران پایین بر روی $\eta$ دقیقاً مرحله EM پیشنهادی است، بنابراین من همچنان در حال انجام صعود مختصات در کران پایین هستم. من گمان می کنم که اگر این کار موثر باشد، برای افرادی که به طور منظم استنتاج تغییرات انجام می دهند، کار بدیهی است. از آنجایی که روشهای متغیر سریع هستند، فکر من این است که شاید بتوانم این کار را برای تنظیم فراپارامترها قبل از راهاندازی به نمونهگر گیبس برای استنتاج دقیق (تا خطای MCMC) انجام دهم. **به روز رسانی:** من کمی با این موضوع بازی کردم و متوجه شدم که افزودن مرحله EM می تواند کار خوبی داشته باشد، اما در برخی شرایط به نظر می رسد حساسیت به بهینه محلی بد در الگوریتم تغییرات را افزایش می دهد. مقداردهی اولیه پارامترهای متغیر که معمولاً به نظر می رسد خوب کار می کنند، انجام نمی شود. اگر به جای آن فقط هر چند تکرار مرحله EM را وارد کنم، بهتر کار می کند، اما مطمئناً همگرایی را کاهش می دهم. یکی از روشهایی که به خوبی کار میکند این است که الگوریتم تغییرات را با استفاده از روشی که من به آن اعتماد دارم رایت کنیم و سپس هر تکرار مرحله EM را اضافه کنم. من یک جایزه اضافه می کنم زیرا هنوز به دنبال توصیه های عمومی خوب هستم. | ترکیبی از روش های متغیر و بیز تجربی |
34586 | آزمایشهای یک وضعیت پزشکی را میتوان به دو دسته طبقهبندی کرد: 1. آزمایشهای روی یک بیمار بدون علامت (بدون دلیل برای مشکوک بودن وضعیت) که در آن نتیجه یک یافته غیرمستقیم است. و 2. آزمایشات روی یک بیمار علامت دار (دلیل قبلی برای مشکوک بودن وضعیت) که در آن نتیجه یک یافته تشخیصی است. در حالت اول، تاکید هر آزمونی باید بر حداکثر ویژگی باشد. برای مورد دوم، تاکید هر آزمونی باید بر حداکثر حساسیت باشد. به طور شهودی می فهمم چرا. با این حال، آیا کسی می تواند به من یک بررسی رسمی، ترجیحاً از دیدگاه بیزی، به من بدهد که چرا چنین است؟ منابع: ارائه اسلاید، Categorizing variants after whole genome sequencing، J.S. برگ لانگ، ای.، نراقی، ر. (2005) رابطه عصبی عروقی در ناحیه ورودی ریشه سه قلو در درد صورت ایدیوپاتیک مداوم: یافتههای تجسم سه بعدی MRI. _J Neurol Neurosurg Psychiatry 76_: 1506-1509. متن کامل | چرا ویژگی را برای یافته های شرایطی به حداکثر می رسانید؟ |
55381 | همه، من دادههایی دارم که میخواهم پیشبینی سادهای روی آنها انجام دهم. غیر ثابت است و به نمودار زمانی و آزمایشات ADF و KPSS نگاه می کند. بعد از تفاوت، اکنون یک سریال ثابت دارم. من می خواهم از میانگین متحرک برای پیش بینی برخی از مقادیر آینده استفاده کنم. آیا توصیه می شود این کار را روی سری ثابت انجام دهم و سپس از آن پیش بینی برای اعمال مجدد به نسخه اصلی من استفاده کنم؟ یا می توانم بروم و از نسخه اصلی استفاده کنم؟ همچنین، دلیل خوبی برای این باور است که اصطلاحات جدیدتر تأثیر بیشتری دارند، آیا باید از EWMA استفاده کنم؟ با تشکر فراوان | MA در یک سری زمانی غیر ثابت |
22718 | ضریب همبستگی پیرسون x و y یکسان است، چه پیرسون (x، y) را محاسبه کنید یا پیرسون (y، x). این نشان می دهد که انجام یک رگرسیون خطی از y با دادن x یا x با توجه به y باید یکسان باشد، اما من فکر نمی کنم که اینطور باشد. آیا کسی می تواند روشن کند که رابطه متقارن نیست، و چگونه این رابطه با ضریب همبستگی پیرسون (که همیشه فکر می کنم بهترین خط مناسب را خلاصه می کند) مرتبط است؟ | تفاوت بین رگرسیون خطی روی y با x و x با y چیست؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.