_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
25311
من یک مجموعه داده عظیم (33K) دارم که هر کدام به صورت بیت بردار 275 بعد نمایش داده می شوند. اساساً مجموعه داده های من را می توان به عنوان یک ماتریس 33000 x 275 نشان داد. من می‌خواهم این بیت‌بردارها را خوشه‌بندی کنم. من خوشه‌بندی سلسله مراتبی پیوند را روی یک مجموعه داده کوچک، 3000 x 275 امتحان کردم، نتیجه امیدوارکننده است. من می‌دانم که الگوریتم خوشه‌بندی سلسله مراتبی پیوند تک مقیاس‌پذیر نیست زیرا پیچیدگی زمانی $O(n^2)$ است. من در حال برنامه ریزی برای اعمال رویکرد تقسیم و غلبه هستم، یعنی مجموعه داده را به تکه هایی با اندازه مساوی تقسیم کنم و هر تکه را به صورت جداگانه خوشه بندی کنم و در نهایت تکه های خوشه ای را بر اساس فاصله ادغام کنم (اگر: $d(C1,C2)< t$; سپس: $C1$ و $C2$ را ادغام کنید). پیچیدگی زمانی رویکرد جدید من $O(p)O(1) + O(pq)$ است، که $p$ تعداد تکه‌ها و $q$ میانگین تعداد خوشه‌ها در هر تکه است. توجه: من فرض می‌کنم که وقتی خوشه‌بندی سلسله مراتبی اعمال می‌شود، هر تکه زمان و ثابت آن برای همه تکه‌ها یکسان خواهد بود، بنابراین $O(n^2)$ تبدیل به $O(1)$ می‌شود. من می خواهم بدانم که آیا رویکرد خوشه بندی فوق امکان پذیر و کارآمد است یا خیر. یا آیا در بکارگیری رویکرد تقسیم کن برای خوشه‌بندی اشکال منطقی وجود دارد
رویکرد تقسیم و حکومت کن برای خوشه‌بندی سلسله مراتبی
89510
من مجموعه داده ای دارم که دارای یک نتیجه باینری، یک پیش بینی باینری و یک عامل نامرتب با 7 سطح و 120 موضوع است. از هر یک از 120 آزمودنی یک سوال دودویی در مورد هفت موضوع پرسیده شد، از این رو عامل نامرتب 7 سطحی است. بنابراین من در مجموع 840 مشاهده دارم. هر یک از 840 مشاهده دارای یک پیش بینی باینری و یک نتیجه باینری است. من می‌خواهم نتیجه باینری را به عقب برگردانم، البته بر اساس پیش‌بینی‌کننده باینری. نتیجه کمی پیچیده است. من از مک در مقابل رایانه های شخصی به عنوان مثال استفاده خواهم کرد. از مردم می پرسند: به نظر شما مک ها بهتر هستند یا رایانه های شخصی بهتر هستند؟ که به عنوان 1 برای ترجیح دادن مک ها، و 0 برای ترجیح دادن رایانه های شخصی ثبت می شود. سپس از آنها پرسیده می شود که آیا نظر شما بر اساس حقیقت عینی است یا نظر ذهنی؟ به عبارت دیگر، آیا فکر می کنید عینی (1) است یا ذهنی (0). سپس آخرین سوال این است که در 20 سال آینده، آیا مردم فکر می کنند مک ها بهتر هستند یا مردم فکر می کنند رایانه های شخصی بهتر هستند؟ دوباره، 1 برای مک کدگذاری می شود. سپس یک متغیر جدید ایجاد می شود. اگر نظر فعلی آنها با آنچه که فکر می کنند نظر آینده خواهد بود مطابقت داشته باشد، متغیر 1 است. مطالعات آزمایشی قبلی نشان داد که مردم تمایل دارند باور کنند که موضع آنها در مورد مسائل آینده خواهد بود (... می دانم، یک یافته کاملاً شهودی ... مردم تمایل دارند فکر کنند که حق با آنهاست). نتیجه آن متغیر است، خواه نظر فعلی آنها با آنچه فکر می کنند آینده خواهد بود موافق باشد. بنابراین نکته این است که ببینیم آیا مردم چگونه چیزها را ذهنی در مقابل عینی می‌بینند، پیش‌بینی می‌کنند که آیا تصورشان از آینده مطابق با باورهایشان است یا خیر. Mac vs PC تنها نمونه ای از یک مشکل است. در واقعیت، هفت موضوع وجود دارد، از کنترل اسلحه، تا سقط جنین و غیره، و هر یک از این هفت موضوع در محدوده «عینیت» قرار می‌گیرند که بر اساس نحوه پاسخ شرکت‌کنندگان به سؤال عینی ارائه می‌شود. * شناسه شرکت کننده: 120 عامل * عینیت: پیش بینی باینری 0 و 1 * نتیجه: نتیجه باینری 0 و 1 * مشکل: متغیر سطح 7 عامل بنابراین من چیزی شبیه به این را امتحان کردم: # کدنویسی ساختگی برای همه شرکت‌کنندگان تضادها (داده$Particpant) <- contr.treatment(120) #$ # کدگذاری انحراف برای مقایسه با میانگین کلی تضادها(data$Issue) <- contr.sum(7) model <- glmer(نتیجه ~ عینیت*مسئله + (عینیت*مسئله|شرکت کننده)، خانواده = دوجمله ای، داده = داده) این یک دسته از هشدارها را می دهد. من اساساً می‌خواهم ببینم آیا پیش‌بینی‌کننده من نتیجه را بر اساس هفت موضوع پیش‌بینی می‌کند، در حالی که یک اثر تصادفی برای شناسه شرکت‌کننده اضافه می‌کند.
رگرسیون لجستیک با اندازه گیری های مکرر
25319
اجازه دهید $X$ یک متغیر تصادفی عادی چند متغیره با میانگین و کوواریانس شناخته شده باشد و $Y$ متغیر تصادفی دیگری باشد. ما مطمئناً می دانیم $\|X−Y\|_2\le C$ که در آن $C$ یک ثابت شناخته شده است. چند سوال: آیا امکان توزیع عادی $Y$ وجود دارد؟ آیا می توانیم در مورد میانگین و/یا کوواریانس آن چیزی بگوییم؟ اگر میانگین $Y$ را بدانیم، آیا می توانیم در مورد کوواریانس آن چیزی بگوییم؟
شرایط متغیر تصادفی عادی
110111
من متخصص نیستم، اما سعی می کنم یک مدل رگرسیون چندگانه اثر ثابت را در STATA اجرا کنم. داده های من داده های تابلویی است و حدود 12000 مشاهدات، 348 منطقه در طول 36 ماه دارد. متغیر وابسته من پیوسته است، اما چندین ماه است که مقدار صفر وجود دارد (این ماه ها چیزی نصب/خرید نشده است). داده ها تقریباً به طور مساوی در ماه های من پخش می شوند، اما من هنوز حدود 9000 مشاهده با مقدار صفر دارم. بنابراین، داده‌های من کج شده است و من در ابتدا می‌خواستم یک گزارش طبیعی را با آن اجرا کنم، اما هیستوگرام من افتضاح به نظر می‌رسد، با یک سنبله بزرگ. آیا باید رگرسیون را بدون ورود به سیستم اجرا کنم؟ اگر آن را وارد کنم یا نه، آیا نتایج من ناقص خواهد بود؟ من در مورد Zero-Inflated Poisson Regression به عنوان یک گزینه خوانده ام، اما من واقعاً با شمارش سر و کار ندارم. همچنین، من احساس می‌کنم که مقادیر صفر دارای اهمیت هستند و نباید این مقادیر را حذف کنم. من از هر گونه کمکی سپاسگزار خواهم بود، متشکرم.
رگرسیون چندگانه با مقادیر زیاد صفر در DV، داده های کج
328
من متوجه هستم که تجزیه و تحلیل آماری داده های مالی موضوع بسیار بزرگی است، اما دقیقاً به همین دلیل است که هنگام تلاش برای ورود به دنیای تجزیه و تحلیل مالی، لازم است سؤال خود را بپرسم. از آنجایی که در این مرحله تقریباً چیزی در مورد موضوع نمی دانم، نتایج جستجوهای من در گوگل بسیار زیاد است. بسیاری از مسابقات از یادگیری ابزارهای تخصصی یا زبان برنامه نویسی R حمایت می کنند. در حالی که در صورت لزوم این موارد را یاد خواهم گرفت، ابتدا به کتاب ها، مقالات یا هر منبع دیگری که روش های مدرن تجزیه و تحلیل آماری را به طور خاص برای داده های مالی توضیح می دهد علاقه مند هستم. من فرض می‌کنم روش‌های بسیار متنوعی برای تجزیه و تحلیل داده‌ها وجود دارد، بنابراین در حالت ایده‌آل به دنبال یک مرور کلی از روش‌های مختلف هستم که عملاً قابل اجرا هستند. من چیزی را می‌خواهم که از نمونه‌های دنیای واقعی استفاده کند که یک مبتدی قادر به درک آن باشد، اما خیلی ساده نیست. منابع خوب برای یادگیری در مورد تجزیه و تحلیل آماری داده های مالی چیست؟
منابعی برای یادگیری در مورد تجزیه و تحلیل آماری داده های مالی
92856
من از R و «MCMCpack» برای انجام یک تحلیل بیزی از برخی داده‌هایی که دارم استفاده می‌کنم. من توزیع های پسینی (postDist) را بر روی میانگین برخی از پارامترها (y1، y2،y3) با استفاده از MCMCregress (postDist <\- MCMCRegress(x ~ y + z،...) ایجاد کرده ام. اکنون، من می‌خواهم آن توزیع‌های پسین را روی میانگین‌ها بگیرم و یک توزیع پسینی را بر روی تفاوت بین میانگین‌ها ایجاد کنم. آیا انجام این کار در تحلیل بیزی معقول است، و اگر چنین است، چگونه آن را انجام می دهید (چه در تئوری و چه در R)؟
محاسبه خلفی تفاوت با توجه به خلف دو میانگین
25318
من 2 تا سوال دارم 1) چگونه می توانم p.value برای 2 تابع خود داشته باشم؟ فرضیه من این است که بین عملکردم و داده هایم همبستگی وجود دارد. 2) چگونه می توانم فواصل اطمینان برای 2 عملکرد خود داشته باشم؟ library(ggplot2) g <- تابع (x, a,b,c) a * (1-exp(-(x-c)/abs(b))) X1 <- c(129.08,109.92,85.83,37.72) Y1 < - c(0.7،0.5،0.39،-1.36) dt1 <- data.frame(x1=X1,y1=Y1) model1 <- nls(Y1 ~ g(X1, a, b, c), start = list (a=0.5, b=60, c=50), control=nls .control(maxiter = 200)) ggplot(data = dt1,aes(x = x1, y = y1)) + theme_bw() + geom_point() + geom_smooth(data=dt1, method=nls, formula=y~g(x, a, b, c), se=F, start=list(a=0.5, b=60, c=50 )) f <- تابع (x، a، b، c) a*(x^2)+b*x+c X2 <- c(589.62،457.92،370.16،295.98،243.99،199.07،159.91،142.63، 124.15، 101.98، 87.93، 83.16، 82.4، 82.8، 74. 31، 27.9، 21.24،18.28) Y2 <- c(0.22،0.37،0.49،0.65،0.81،0.83،1،0.81،0.65،0.44،0.55،0.63، 0.65،0.55،0.37،0.32،0.27،0.22،0.17،0.14) dt2 <- data.frame(x2=X2,y2=Y2) model2 <- nls(Y2 ~ f(X2, a, b, c), start = list(a=-1، b=3، c=0)،control=nls.control(maxiter = 200)) ggplot(data = dt2,aes(x = x2, y = y2)) + theme_bw() + geom_point() + geom_smooth(data=dt2, method=nls, formula=y~f(x, a , b, c), se=F, start=list(a=-1, b=3, c=0)) پیشاپیش از شما متشکرم
چگونه مقدار p و فواصل اطمینان را برای توابع nls بدست آوریم؟
92854
همکاران من که دارای پیشینه علوم اجتماعی و اپیدمیولوژی بودند، در زمینه رگرسیون حداقل مربعات، رگرسیون لجستیک و تجزیه و تحلیل بقا آموزش دیدند. آنها دوست دارند 95% فواصل اطمینان و مقادیر p را با ضرایب پارامتر ببینند و به ابزارهای پیش‌بینی فعلی مانند شبکه‌های عصبی، CART، bagging & boosting و همچنین تکنیک‌های رگرسیون جریمه‌شده بی‌اعتماد هستند.
چگونه به آرامی اپیدمیولوژیست ها/همکاران بهداشت عمومی را با مدل سازی پیش بینی پیشرفته آشنا کنیم؟
95803
در سری زمانی مالی Tsay، برای یک فرآیند AR(p)، > در ادبیات سری زمانی، **معکوس** دو راه حل (به > معادله مشخصه AR(2)) به عنوان **ویژگی نامیده می شود. > ریشه های مدل AR(2)**. از سایر حوزه های ریاضی که مفهوم معادلات مشخصه نیز وجود دارد، به عنوان مثال. معادلات تفاوت، معادله دیفرانسیل، مقادیر ویژه ماتریس ها، آیا ریشه های مشخصه به عنوان راه حل معادلات مشخصه تعریف نمی شوند؟ اگر بله، آنچه کتاب می گوید بسیار غیرعادی و گیج کننده است. امیدوارم در سری های زمانی زیاد استفاده نشود.
ریشه های مشخصه AR(p)
8591
چگونه توزیع احتمال متغیرهای تصادفی پیوسته تحت توابع تبدیل می شود؟ یعنی من یک متغیر تصادفی به نام X دارم که از توزیع نرمال با میانگین 0 و واریانس 1 گرفته شده است. توزیع احتمال مرتبط با sin(X) چیست؟ ![هیستوگرام های تقلید از توابع چگالی احتمال X و sin\(X\)](http://i.stack.imgur.com/KY5Wc.png) به طور کلی تر، قوانین تبدیل متغیرهای تصادفی پیوسته چیست؟ اگر PDF و CDF دو متغیر تصادفی X,Y را بدانیم PDF/CDF Z=X*Y چیست؟ Z=X^Y چطور؟ Z = sin(X+Y)+3 چطور؟ آیا سیستم های جبری رایانه ای وجود دارند که بتوانند این را به صورت نمادین محاسبه کنند؟ آیا این به طور کلی امکان پذیر است؟ اگر نه، برای چه دسته ای از توزیع های احتمال و توابع امکان پذیر است؟ توجه: طرح را ببخشید. اینها به وضوح هیستوگرام های پر سر و صدایی هستند و بدیهی است که مقیاس ندارند (مناطق زیر منحنی ها مطابقت ندارند و بنابراین نمی توان هر دو را به یک جمع کرد). با این حال، امیدواریم که طرح موضوع را درک کند. با توجه به توزیع آبی که X را توصیف می کند، من توزیع قرمز را می خواهم که sin(X) را توصیف کند.
عملیات بر روی توزیع احتمال متغیرهای تصادفی پیوسته
81420
می دانم که اگر X و Y متغیرهای اسکالر تصادفی باشند، آنگاه: \begin{align*} \mathrm{Var}(X+Y) & = \mathrm{Var}(X) + \mathrm{Var}(Y) + 2\mathrm{Corr}(X,Y)\sqrt{\mathrm{Var}(X)\mathrm{Var}(Y)} \\ & \le \left(\sqrt{\mathrm{Var}(X)} + \sqrt{\mathrm{Var}(Y)}\right)^2 \end{align*} می‌خواهم بدانم آیا همان نابرابری برای بردارهای تصادفی، یعنی: $X , Y \in \mathcal{R^{n}}$ \begin{align*} \mathrm{Var}(X+Y) & = \mathrm{Var}(X) + \mathrm{Var}(Y) + \mathrm{Cov}(X,Y)+ \mathrm{Cov}(X,Y)' \\ & \le \left( \sqrt{\mathrm{Var}(X)} + \sqrt{\mathrm{Var}(Y)}\right)\left(\sqrt{\mathrm{Var}(X)} + \sqrt{\mathrm{Var}(Y)}\right)' \end{ align*} جایی که **ریشه مربع ماتریس واریانس (معین مثبت) تجزیه Cholesky آن است**. و **نابرابری به این معنی است که تفاوت نیمه معین مثبت است.** به عنوان یک فرضیه اضافی، من این را دارم که هم $\mathrm{Var}(X)$ و هم $\mathrm{Var}(Y)$ **ماتریس های قطری هستند. **. من به دنبال نابرابری های کوشی شوارتز برای ماتریس های واریانس بودم و این را پیدا کردم: \begin{equation} \mathrm{Var}(Y) \ge \mathrm{Cov}(Y,X) \mathrm{Var}(X) ^{-1} \mathrm{Cov}(X,Y) \end{equation} اما نمی‌دانم چگونه از آن استفاده کنم. خیلی ممنون
نابرابری واریانس برای بردارهای تصادفی
48982
مدتی است که با خودهمبستگی فضایی کار می‌کنم و اکنون سعی می‌کنم از برآوردگرهای سنتی‌تری مانند Moran's I یا Geary's C به تخمین‌گر جدید APLE حرکت کنم. من مقالات لی در مورد APLE و همچنین مرجع در پروژه R را خواندم. اما من هنوز یک چیز بسیار اساسی را از دست می دهم، زیرا هنوز چیزی را متوجه نشده بودم: گفته می شود نتایج آمار APLE یک فرم بسته است اما من متوجه نشدم که کدام است. به عنوان مثال، در حالی که Moran's I can gom از -1 به 1 است، نتوانستم مرزهای احتمالی آمار APLE را بفهمم. جالب‌تر اینکه، من آزمایش‌هایی را روی داده‌های قدیمی‌ام انجام داده‌ام، با استفاده از بسته spdep در R، و به نظرم می‌رسد که APLE می‌تواند تا 2 برسد. کسی در این مورد راهنمایی دارد؟ لطفا، هر گونه بینش در اینجا بسیار قدردانی خواهد شد.
پیامدهای احتمالی تخمین‌گر تقریبی نیم‌رخ درست‌نمایی (APLE) برای خودهمبستگی فضایی
96579
من یک مدل رگرسیون تنظیم کرده ام اما مطمئن نیستم که آیا آن را درست انجام می دهم یا خیر. من از رگرسیون چندگانه برای کمک به طبقه بندی چند کلاسه استفاده می کنم. تا اینجا احساس می‌کنم که نظریه را درک کرده‌ام، اما در اجرا/تفسیر سردرگم هستم. سردرگمی من بین دو تفسیر احتمالی از بخش رگرسیون یک الگوریتم Gentleboost است که در زیر نشان خواهم داد. بگذارید مشکلم را توضیح دهم. داده‌های من، $X$، دو بعدی است، با $n$ تعداد مشاهدات، و $m$ تعداد ویژگی‌ها در هر مشاهده. اکنون، بردار پاسخ نیز یک آرایه دو بعدی است. به عبارت دیگر، با توجه به مشاهده $x_i$، بردار پاسخ فقط به من نمی گوید که مقدار $y$ چیست، بلکه آرایه ای از مقادیر را به من می دهد، یک مقدار برای هر کلاس. برای مثال، اگر بتوان داده‌های من را به‌عنوان یکی از دو کلاس ممکن طبقه‌بندی کرد، بردار پاسخ ممکن است به این صورت باشد: $y = (0,1)$. بنابراین این به من می گوید که مقدار کلاس اول 0 است و برای کلاس دوم 1 است. اکنون، به تابع رگرسیون من، $g(x)$ می رویم. به یاد بیاورید که برای هر مشاهده ویژگی های $m$ دارم، به عبارت دیگر، من به پارامترهای رگرسیون $m$ در تابع رگرسیون نیاز دارم. بنابراین این بدان معناست که پارامترها را در یک آرایه 1 بعدی که مقادیر $m$ را در خود نگه می دارد ذخیره می کنم. برای نشان دادن این موضوع، می گوییم که داده های من $X$ به شرح زیر است، با 10 مشاهده و هر کدام 3 ویژگی. و مشاهدات را می توان به راحتی به دو کلاس مختلف تقسیم کرد. بنابراین تعداد کلاس‌ها برای X$$ زیر 2 است: > [1،2،3] > > [1،2،3] > > [4،5،6] > > [1،2،3] > > [4،5،6] > > [1،2،3] > > [1،2،3] > > [4،5،6] > > [4،5،6] > > [1،2، 3] بنابراین این X$ بود، یک 10x3 آرایه این به این معنی است که تابع رگرسیونی من $g(x)$ باید 3 پارامتر داشته باشد، بگذارید یک آرایه 3x1 باشد. حالا چون بردار پاسخ من آرایه 1x2 است، نه صرفاً یک مقدار، پس اگر یک مشاهده را در $g(x)$ قرار دهم، باید یک پاسخ _vector_ نیز بدهد، با یک مقدار در هر کلاس، یعنی آرایه 1x2. . اما برای اینکه $g(x)$ یک آرایه 1x2 را برای من برگرداند، باید بیش از 3 پارامتر داشته باشد. باید 3 پارامتر برای _هر کلاس_ داشته باشد، یعنی در این مورد از دو کلاس، باید آرایه 3x2 باشد. (مطمئن نیستم که واقعاً _باید، من فقط با توجه به درک و اجرای این مورد با استفاده از 'statsmodels' در پایتون توضیح می دهم. اگر اشتباه می کنم، لطفاً من را اصلاح کنید). بنابراین $g(x)$ 3x2 بود. فرض کنید به این صورت است: > [a, d] > > [b, e] > > [c, f] و فرض کنید که به دست آوردن این آرایه 3x2 از پارامترهای بالا مرحله برازش نامیده می شود. با این حال، به یاد بیاورید که من برای _هر کلاس_ به یک $g(x)$ نیاز داشتم. بنابراین برای ذخیره تمام پارامترهای رگرسیون برای داده هایم، با توجه به اینکه دو کلاس دارم، تصمیم گرفتم که به یک آرایه 2x3x2 نیاز دارم که یک آرایه سه بعدی است. مانند این: > [[a, d] > > [b, e] > > [c, f]] > > **،** > > [[p, s] > > [q, t] > > [ r, u]] آیا این درست است؟ آیا این درک صحیح از **`Step 2(a)(ii)`** در این الگوریتم زیر است؟ (در الگوریتم زیر، پاسخ کاری محاسبه شده $z$ است، نه $y$). ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/d5C6P.png) بنابراین سردرگمی من این است که آیا $g(x)$ باید باشد: 1. همانطور که در بالا ذکر کردم یک آرایه 2x3x2. (و اگر اینطور است، پس وقتی مشاهدات آزمایشی را وارد می‌کنم، $g(x)$ خروجی یک آرایه 2x2 را می‌دهد، و آن آرایه حاصل چگونه باید تفسیر شود؟) 2. یا در عوض، باید به 3x2 $g(x)$ که در مرحله برازش گرفتم، و هر ستون را $g_j(x)$ در نظر بگیرید؟ به عبارت دیگر، با توجه به اینکه 3x2 $g(x)$ من > [a, d] > > [b, e] > > [c, f] بود، آیا اکنون باید در نظر بگیرم که ستون اول $g_0(x) است. $، و ستون دوم $g_1(x)$ است؟ این بدان معناست که پارامترهای تابع رگرسیون برای کلاس اول a، b، c و برای کلاس دوم d، e، f هستند. آیا این روش صحیحی برای پیاده سازی/درک مرحله بالا **`گام 2(a)(ii)`** در الگوریتم است؟ اگر این کار را انجام دهم، پس معتقدم که داده‌های آزمایشی به $g(x)$ یک آرایه 1x2 تولید می‌کند که به عنوان بردار پاسخ منطقی‌تر است.
درک پارامترهای رگرسیون چندگانه - سؤال بر اساس نمادهای یک الگوریتم معین
99813
من در حال یادگیری رگرسیون خطی چندگانه هستم. اگر مقادیر «X» و «Y» زیر را داشته باشم، برای «رگرسیون خطی ساده» می دانم، پس چگونه «Y» را پیش بینی کنم. اگر داده‌های زیر را داشته باشم، لایک کنید: X Y Y' 1 0 ? 0 1؟ 0 1؟ 0 0؟ سپس می‌توانم «a» و «b» را محاسبه کنم و «Y» را از معادله «y = a + bx» همانطور که در اینجا نشان داده شده است دریافت کنم http://www.easycalculation.com/statistics/learn-regression.php. اکنون، من چندین «متغیر مستقل» دارم، پس فرمول محاسبه «Y» با استفاده از رگرسیون خطی چندگانه چیست؟ داده های فعلی من عبارتند از: X1 X2 X3 X4 X5 Y' 1 0 0 1 0 1 ? 0 1 0 1 0 0 ? 0 0 0 0 1 0 ? 1 0 1 0 0 1 ? آیا کسی می تواند فرمول پیش بینی Y را به من نشان دهد؟ من خیلی جستجو کرده ام اما اینها به من نمودارها و تحلیل های پراکنده و همه چیز را نشان می دهد. من فقط می خواهم مقادیر Y را دریافت کنم. من هیچ آموزشی مانند رگرسیون خطی دریافت نکردم (لینک ارائه شده در بالا) که در آن به وضوح نحوه محاسبه مقادیر «Y» نشان داده شده است. ویرایش: بنابراین، با توجه به پاسخ‌ها، ماتریس «X» و «Y» من عبارتند از: X = 1 1 0 0 1 0 1 0 1 0 1 0 1 0 0 0 0 1 1 1 0 1 0 0 Y = 1 0 0 1 و سپس «بتا» را با کمک معادله «(X'X)^-1 X'Y» محاسبه می کنم. سپس مقادیر «x1»، «x2»، «x3» را برای پیش‌بینی «y1»، «y2»، «y3» و غیره قرار دهید - درست است؟
پیش بینی مقادیر با رگرسیون خطی چندگانه
81427
من معمولاً از BIC استفاده می کنم زیرا درک من این است که برای صرفه جویی قوی تر از AIC ارزش قائل است. با این حال، اکنون تصمیم گرفته ام از رویکرد جامع تری استفاده کنم و می خواهم از AIC نیز استفاده کنم. من می دانم که Raftery (1995) دستورالعمل های خوبی برای تفاوت های BIC ارائه کرد: 0-2 ضعیف است، 2-4 شواهد مثبتی برای بهتر بودن یک مدل است و غیره. من در کتاب های درسی نگاه کردم و آنها در AIC عجیب به نظر می رسند (به نظر می رسد بزرگتر است. تفاوت ضعیف است و تفاوت کوچکتر در AIC به این معنی است که یک مدل بهتر است). این برخلاف چیزی است که می دانم به من آموخته اند. درک من این است که شما AIC پایین تر می خواهید. آیا کسی می‌داند که آیا دستورالعمل‌های Raftery به AIC نیز تعمیم می‌یابد، یا در کجا می‌توانم برخی دستورالعمل‌ها را برای «قوی بودن شواهد» برای یک مدل در مقابل مدل دیگر ذکر کنم؟ و بله، قطع‌ها عالی نیستند (به نظر من آنها را آزاردهنده می‌دانم) اما هنگام مقایسه انواع مختلف شواهد مفید هستند.
دستورالعمل های AIC در انتخاب مدل
104501
من در حال حاضر چندین مجموعه داده در قالب یک هیستوگرام دارم. با استفاده از Matlab، همه به خوبی با توزیع دو جمله ای منفی توصیف می شوند. با این حال، دم سمت راست آنطور که من می‌خواهم مدل‌سازی نشده است. ترسیم شده در مقیاس log، دنباله سمت راست در داده‌های واقعی شیب متفاوتی با آنچه توزیع دوجمله‌ای منفی پیش‌بینی می‌کند دارد، در بیشتر مواقع دنباله کوچک‌تر از واقعیت را پیش‌بینی می‌کند. سوال من این است: آیا می توان داده های دم را وزن کرد تا فیتینگ بیشتر به آن توجه کند؟ اگر نه، آیا روش دیگری برای حل این مشکل وجود دارد؟ من به این فکر می کردم که سعی کنم تناسب دو جمله ای منفی را با منحنی دیگری ترکیب کنم که دم را بهتر نشان می دهد. در همان زمان من به دنبال این هستم که آیا دلیلی برای دم از خود داده ها وجود دارد یا خیر. من با آمار نسبتاً تازه کار هستم، بنابراین هرگونه راهنمایی در مورد نحوه پیاده سازی راه حل شما در Matlab بسیار قدردانی خواهد شد.
وزن داده ها در حین توزیع متناسب است
92857
در این دهمین اسلاید http://www.cs.cmu.edu/afs/cs.cmu.edu/project/theo-20/www/mlbook/ch6.pdf مجموعه داده های آموزشی $D$ به عنوان مجموعه تابع هدف . در واقع $D = \left\{(x_i,C(x_i))\right\}$ اما به صورت $D=\left\{C(x_i)\right\}$ برای i=1 به m فرض می‌شود چرا فرض می‌شود مانند آن و در اسلاید چهاردهم همان اسلاید، مانند if Training data داده می شود $D = \left\{(x_i,d_i)\right\}$ سپس $p(D/h) = \prod_{i=1}^{m}(p(\frac{d_i}{h})) $، اما ممکن است $\iff$ $D= \cap_{i=1 }^{m} d_1$ چگونه باید تفسیر شود؟
با فرض داده های آموزشی به عنوان مجموعه ای از توابع هدف
95806
من می‌خواهم داده‌های خود را به X$ تبدیل کنم تا واریانس‌ها یک و کوواریانس‌ها صفر شوند. علاوه بر این، میانگین باید صفر باشد. من می دانم که با انجام Z-Standardization و PCA-transformation به آنجا خواهم رسید، اما به کدام ترتیب باید آنها را انجام دهم؟ باید اضافه کنم که تبدیل تشکیل شده باید به شکل $\mathbf{x} \mapsto W\mathbf{x} + \mathbf{b}$ باشد. آیا روشی مشابه PCA وجود دارد که دقیقاً هر دو تبدیل را انجام دهد و فرمولی از شکل بالا به من بدهد؟
تجزیه و تحلیل مؤلفه های اصلی و نرمال سازی واریانس
89513
من یک مطالعه قبل از مداخله با چهار گروه دارم: 1) کنترل قبل از مداخله، 2) درمان قبل از مداخله، 3) کنترل پس از مداخله، و 4) درمان پس از مداخله. نتیجه یک متغیر باینری است. چهار متغیر پیش بینی کننده دیگر وجود دارد. من یک مطالعه قبلی را دوباره تحلیل می کنم. در مطالعه قبلی، آنها از برآوردگر تفاوت در تفاوت ها در یک رگرسیون لجستیک استفاده کردند، در حالی که چهار پیش بینی کننده را کنترل کردند. با شاخص‌های درمان و زمان، مدل این است: $$\mbox{logit}(Pr(y=1 | \mbox{Time}, \mbox{Treat}))=\alpha_0\mbox{Time}+\alpha_1 \mbox{Treat}+\alpha_2\mbox{Time}\cdot\mbox{Treat}+\beta x$$ با این حال، مرور ادبیات پیرامون DiD برآوردگرها، به نظر می‌رسد که استفاده از برآوردگرهای DiD در یک رگرسیون لاجیت (هر رگرسیون با تابع پیوند غیرخطی)، منجر به نقض فرض روند رایج می‌شود. می توانید به این فکر کنید که چگونه ممکن است روند مشترکی در نتیجه پیش بینی شده وجود نداشته باشد زیرا پشتیبانی بین 0 و 1 دارد. می تواند منجر به حاشیه های متفاوتی در احتمال y شود. اگر خط مبنا جایی در وسط بود، تفاوت کوچک در مقدار شاخص احتمال پیش‌بینی‌شده را به شدت تغییر می‌داد، در حالی که اگر خط پایه بالا شروع می‌شد، تفاوت‌ها حداقل می‌شد. پس راه حل عملی در اینجا چیست؟ چگونه باید در مورد تجزیه و تحلیل مجدد این داده ها اقدام کنم؟ عملاً چه کاری می توانم انجام دهم تا بتوانم بر اساس برآوردگر DiD و طرح مطالعاتی که قبلاً ایجاد شده است، یک نتیجه علّی بگیرم؟ هر ایده ای؟
برآوردگر تفاوت در تفاوت ها برای رگرسیون های لجستیک
25316
چگونه می‌توانیم قدرت پیش‌بینی پیش‌بینی‌کننده‌ها را در مدل‌های سری زمانی اندازه‌گیری کنیم؟ برای مثال در رگرسیون خطی، مقدار و جهت ضرایب رگرسیون و مقادیر p آنها را داریم. آیا چنین معیاری برای ارزیابی عملکرد پیش بینی کننده ها در فیلتر کالمن وجود دارد؟
قدرت پیش‌بینی نسبی پیش‌بینی‌کننده‌های مورد استفاده در مدل‌های سری زمانی مانند فیلتر کالمن
96574
من با تجزیه مقدار منفرد یک ماتریس گیج شدم. این ممکن است فقط یک سوء تفاهم از آنچه تجزیه ارزش مفرد انجام می دهد باشد، لطفاً با من ملایم باشید. اگر من یک تجزیه ارزش واحد را روی $X$ با ردیف های $m$ و ستون های $n$ انجام دهم به طوری که $X=U\Sigma V$ را دریافت می کنم. $V^*$ قرار است یک ماتریس مربع nxn باشد (مثلاً به ویکی پدیا مراجعه کنید. با این حال، برای یک ماتریس x به عنوان مثال اندازه (40100) من در جولیا (و همچنین در R): x = randn(40، 100) xsvd = اندازه svdfact(x) (xsvd.Vt) (40100) منتظر هستم (100,100) با این حال، برای x = randn (100، 40) xsvd = svdfact (x) اندازه (xsvd.Vt) (40،40) می‌توانم به من توضیح بدهم که اینجا چه خبر است؟ و احتمالاً من را به جایی راهنمایی کنید که بتوانم اصول اولیه را مطالعه کنم؟
مقدار منفرد ستون های بیشتری را نسبت به ردیف ها تجزیه می کند
25315
برآوردها برای اثرات ثابت در یک مدل اثرات مختلط به طور مجانبی در توزیع نرمال هستند (تحت فرضیات خفیف). آیا نتایجی وجود دارد که انحراف از نرمال بودن را کمیت کند (به طور کلی، در موارد ساده، یا فقط مطالعات شبیه سازی)؟
نرمال بودن مجانبی در مدل های خطی با اثرات مختلط
105114
من یک مشکل طبقه بندی باینری از چندین ویژگی دارم. آیا ضرایب یک رگرسیون لجستیک (منظم) معنی قابل تفسیری دارند؟ من فکر کردم که آنها می توانند اندازه نفوذ را نشان دهند، با توجه به اینکه ویژگی ها از قبل عادی شده اند. با این حال، در مشکل من به نظر می رسد که ضرایب به شدت به ویژگی هایی که انتخاب می کنم بستگی دارد. حتی علامت ضرایب با مجموعه ویژگی های مختلف انتخاب شده به عنوان ورودی تغییر می کند. آیا بررسی مقدار ضرایب منطقی است و راه صحیح یافتن معنی دارترین ضرایب و _بیان معنای آنها در کلمات_ چیست؟ آیا برخی از مدل های برازش شده و علامت ضرایب آنها اشتباه است - حتی اگر آنها به نوعی با داده ها مطابقت داشته باشند؟ (بالاترین همبستگی من بین ویژگی ها فقط 0.25 است، اما مطمئناً نقش دارد؟)
آیا ضرایب رگرسیون لجستیک معنی دارند؟
321
یک نوع تقویت وجود دارد که به آن gentleboost می گویند. تقویت ملایم چه تفاوتی با AdaBoost شناخته شده تر دارد؟
تقویت ملایم چه تفاوتی با AdaBoost دارد؟
64892
همه جا قانون زنجیره ای را می بینم که به این ترتیب نوشته شده است: $$ \Pr (A,B,C) = \Pr (A|B,C) \Pr (B|C) \Pr (C). $$ آیا این همان $$ \Pr (A) \Pr (B|A) \Pr (C|B,A)، $$ است که در آن شرطی‌سازی با متغیرهای مختلف انجام می‌شود؟
آیا این بیانیه درستی از قانون زنجیره احتمال است؟
104509
سرپرست من یک بار به من گفت که قبل از اجرای هر طبقه‌بندی یا انجام کاری با یک مجموعه داده، باید داده‌ها را کاملاً درک کنم و مطمئن شوم که داده‌ها تمیز و صحیح هستند. سوالات من: بهترین روش ها برای درک یک مجموعه داده (بعد بالا با ویژگی های عددی و اسمی) چیست؟ تمرین هایی برای اطمینان از تمیز بودن مجموعه داده انجام می دهید؟ تمرین هایی برای اطمینان از اینکه مجموعه داده مقادیر اشتباهی ندارد یا همینطور؟
بهترین روش برای درک یک مجموعه داده
96573
فرض کنید X1 و X2 یک نمونه تصادفی با اندازه 2 از توزیع نمایی با میانگین θ باشند. فرض کنید T=X1+X2 یک آمار کافی برای θ باشد. فرض کنید θ^=X^2 (بر اساس مشاهده دوم) تخمین‌گر θ باشد. برآوردگر θ∗=E(θ^/T^=t) را در نظر بگیرید. نشان دهید که Var(θ∗) برای حل سوال بالا باید توزیع شرطی X2/X1+X2 را پیدا کنم. اما مشکل در حل توزیع مشترک آنهاست. لطفاً برای حل آن راهنمایی به من بدهید.
در حل سوال در مورد آمار کافی به من کمک کنید
25317
من مدل Cox PH زیر را دارم (زمان، رویداد) ~ X + Y + Z من می خواهم ** نرخ های خطر پیش بینی شده** را دریافت کنم (من در مورد میزان خطر صحبت می کنم ** نسبت های خطر نه **) با مقادیر خاص X Y Z. من می دانم که بسته muhaz می تواند نرخ خطر مشاهده شده را محاسبه کند، اما من به مدل پیش بینی شده علاقه مند هستم. آیا راهی برای انجام این کار در R وجود دارد؟
چگونه نرخ های خطر پیش بینی شده را از مدل PH کاکس محاسبه کنیم؟
95809
من یک مجموعه داده از برخی مشاهدات با ویژگی کلاس مقادیر 0 و 1 دارم. مجموعه داده کاملا نامتعادل است (کلاس 1 - 15٪، کلاس 0 - 85٪). علاوه بر این، این مجموعه داده شامل 5 سال است و توزیع مقادیر کلاس بین سال ها متفاوت است (مثلاً کلاس 1: 12٪، 13٪، 15٪، 15٪، 14٪). می‌خواهم بدانم که آیا این تفاوت در توزیع طبقاتی بین سال‌ها از نظر آماری معنادار است؟ نتایج باید یک ماتریس باشد که در آن هر سال با یک سال دیگر مقایسه شود. فکر می کنم می توانم از یک بردار مقادیر کلاس برای یک سال استفاده کنم و آن را با یک بردار مقادیر کلاس برای یک سال دیگر با آزمون t مقایسه کنم. آیا این رویکرد درستی است؟ و آیا راهی وجود دارد که چگونه ماتریس کامل را بدست آوریم، بنابراین نیازی به اجرای چند آزمون t (اگر آزمون t انتخاب صحیح باشد) نیست؟ هر نظر، راهنمایی، پیوند یا احتمالا قطعه کد R بسیار قدردانی خواهد شد.
تعیین کنید که آیا تفاوت در توزیع طبقاتی از نظر آماری معنادار است یا خیر
10943
من یک مدل اثر ترکیبی دارم (در واقع یک مدل ترکیبی افزودنی تعمیم یافته) که به من پیش بینی هایی برای یک سری زمانی می دهد. برای مقابله با همبستگی خودکار، از مدل corCAR1 استفاده می‌کنم، با توجه به این واقعیت که داده‌های گم شده‌ای دارم. قرار است داده ها بار کلی را به من بدهد، بنابراین باید کل فاصله پیش بینی را جمع کنم. اما باید تخمینی از خطای استاندارد در آن بار کلی نیز دریافت کنم. اگر همه پیش‌بینی‌ها مستقل باشند، این می‌تواند به راحتی با: $Var(\sum^{n}_{i=1}E[X_i]) = \sum^{n}_{i=1}Var(E) حل شود [X_i])$ با $Var(E[X_i]) = SE(E[X_i])^2$ مشکل این است که مقادیر پیش‌بینی‌شده از یک مدل می‌آیند و داده‌های اصلی دارای همبستگی خودکار هستند. کل مشکل به سؤالات زیر منتهی می شود: 1. آیا من در این فرض که SE در پیش بینی های محاسبه شده می تواند به عنوان ریشه واریانس در مقدار مورد انتظار آن پیش بینی تفسیر شود، درست است؟ من تمایل دارم پیش‌بینی‌ها را به عنوان «پیش‌بینی‌های متوسط» تفسیر کنم، و از این رو مجموعه کاملی از ابزارها را جمع‌آوری می‌کنم. 2. چگونه می توانم خودهمبستگی را در این مشکل بگنجانم، یا می توانم با خیال راحت فرض کنم که تاثیر زیادی روی نتایج نخواهد داشت؟ این یک مثال در R است. مجموعه داده واقعی من حدود 34000 اندازه گیری دارد، بنابراین مقیاس پذیری یک مشکل است. به همین دلیل است که من خودهمبستگی را در هر ماه مدل می کنم، در غیر این صورت محاسبات دیگر امکان پذیر نیست. این صحیح ترین راه حل نیست، اما صحیح ترین راه حل امکان پذیر نیست. set.seed(12) require(mgcv) Data <- data.frame( dates = seq(as.Date(2011-1-1),as.Date(2011-12-31),by= روز) ) داده <- درون(داده،{ X <- abs(rnorm(nrow(داده)،3)) Y <- 2*X + X^2 + مقیاس (Data$dates)^2 ماه <- as.POSIXlt(Date)$mon+1 mday <- as.POSIXlt(Date)$mday}) model <- gamm(Y~s(X)+s(as. numeric(dates)),correlation=corCAR1(form=~mday|month),data=Data) preds <- predict(model$gam,se=T) مجموع <- sum(preds$fit) ویرایش: درسی که باید یاد بگیرید: ابتدا تمام نمونه‌های موجود در فایل‌های راهنما را قبل از وحشت، مرور کنید. در فایل های راهنمای predict.gam می توانم این موارد را پیدا کنم: ################################### ##################### حالا با استفاده از lpmatrix واریانس مجموع پیش‌بینی‌ها را دریافت کنید ############################################### ####### Xp <- predict(b,newd,type=lpmatrix) ## Xp %*% coef(b) بردار پیش بینی ها را به دست می دهد <- rep(1,31) Xs <- t(a) %*% Xp ## Xs %*% coef(b) مجموع پیش‌بینی‌ها را نشان می‌دهد var.sum <- Xs %*% b$Vp %*% t(Xs) که به نظر می‌رسد به آنچه می‌خواهم نزدیک است. انجام دادن این هنوز دقیقاً به من نمی گوید که چگونه انجام می شود. من می‌توانم به این حقیقت برسم که بر اساس ماتریس پیش‌بینی‌کننده خطی است. هر گونه بینش هنوز هم استقبال می شود.
واریانس در مجموع مقادیر پیش بینی شده از یک مدل اثر مختلط در یک سری زمانی
96576
من صد مورد دارم که در حال انجام EFA با حدود 370 مورد کامل هستم. با استفاده از تجزیه و تحلیل موازی برای تعیین تعداد عوامل برای استخراج، EFA 9 عامل را ارائه کرد که همه آنها به لحاظ نظری منطقی هستند. با این حال من 280 مورد ناقص دارم که تا 10 درصد موارد پاسخ داده نشده است. داده‌های از دست رفته تصادفی نیست، به طوری که برای 20 تا 40 درصد از پاسخ‌دهندگان، چند مورد پاسخ ندارند. با استفاده از بسته «R» «missForest»، داده‌های از دست رفته را منتسب کردم و تجزیه و تحلیل عاملی را بر روی مجموعه داده‌های منتسب شده انجام دادم. این به من 10 عامل داد که حدود 5 تای آن مشابه تحلیل قبلی و 5 عامل جدید است. هنگامی که نتایج تجزیه و تحلیل داده های منتسب با نتایج تجزیه و تحلیل موارد کامل متفاوت است، پروتکل چیست؟ هر توصیه ای بسیار قابل تقدیر است.
وقتی نتایج تحلیل عاملی اکتشافی برای داده‌های کامل و داده‌های منتسب متفاوت است، چه باید کرد؟
96570
فرض کنید ما یک مشکل رگرسیون کلاسیک داریم که در آن یک نتیجه عددی به همراه برخی پیش بینی کننده ها، هم عددی و هم مقوله ای داریم. در یک مسئله پیش‌بینی معمولی، ما برای تخمین پارامترهایی مانند میانگین نتیجه استفاده می‌کنیم، اما اگر بخواهیم چگالی‌های «از نظر آماری متفاوت» را بر اساس آن پیش‌بینی‌کننده‌ها تخمین بزنیم، چه؟ من دو راه ممکن برای انجام این کار را می دانم، اول یک رویکرد بیزی است، و دیگری می تواند یک مدل پارامتری مانند AFT در تجزیه و تحلیل بقا باشد که در آن پارامترهای یک خانواده از توزیع ها (لجستیک، لگ نرمال و غیره) محدود شده در نوعی از توزیع ها را تخمین می زنیم. مشکلات در جایی که فرمولاسیون اجازه می دهد. سوال این است که آیا یک تقریب کلی وجود دارد تا تخمین بزنیم که به روشی ناپارامتریک (فرض کنید توزیع‌های دو وجهی داریم یا توزیع‌های نظری دیگری نداریم) و آیا می‌تواند یک رویکرد غیر بیزی باشد یا لزوماً باید رویکرد بیزی را در پیش بگیریم. مشکل پیشاپیش ممنون
مدل سازی چگالی احتمال تجربی
64896
یکی از روش‌های مقابله با تأثیر فصلی، ایجاد یک عامل ضربی برای هر فصل در یک «سال» است. به عنوان مثال، این اتفاق با مدل های هموارسازی نمایی از نوع $(*،*، M)$ می افتد. این فاکتورهای تعدیل باید عادی شوند - اگر فصل‌های $m$ در یک سال وجود داشته باشد، در آن صورت فصلی بودن معمولاً تنها $m-1$ درجه آزادی را نشان می‌دهد. به نظر می رسد لازمه عادی سازی استاندارد برای عوامل تنظیم $f_1, \dotsc, f_m$ این باشد که $\sum_{i=1}^m f_i = m$ - یعنی میانگین حسابی فاکتورها $1$ باشد. مطمئناً این مورد در Hyndman و همکاران، پیش بینی با هموارسازی نمایی (بخش 8.2) وجود دارد. من انتظار داشتم که میانگین هندسی $1$ باشد، یعنی $\prod_{i=1}^m f_i = 1$. زیرا استاندارد تنظیم فصلی _additive_ این است که $\sum_{i=1}^m f_i = 0$; این دو با گرفتن لگاریتم معادل هستند. آیا دلیل ریاضی خوبی برای انتخاب وجود دارد یا فقط یک قرارداد است؟
چرا عادی سازی عوامل تنظیم فصلی به صورت افزایشی انجام می شود؟
92858
در حال حاضر در حال مطالعه bootstrap هستم و می‌خواهم چند مثال برای آن بسازم. فرض کنید من داده های زیر را تولید کنم: set.seed(10) data <- rnorm(1000,1,3) number <- min(data[data <= 0.9]) عدد بنابراین 'number.min' حاوی حداقل تعداد داده ها در بازه $(-\infty,0.9]$ که برابر است با $-8.036491$. اگر بدانیم دوباره 1000 عدد تولید شده با استفاده از یک توزیع نرمال با انحراف استاندارد 3. فرض کنید number.min این بار $a:=-12.2385$ است، آیا هنوز هم می توان فرض کرد که مقدار مورد انتظار $1 است، number.min را به عنوان یک متغیر تصادفی نشان می دهیم؟ $X$ ایده من این بود که یک تست فرضیه انجام دهم من نمی خواهم توزیع نرمال را فرض کنم $$P(X\in [x_l,x_u]|\mu =1)=1-\alpha$$ هنگام انتخاب $\alpha=0.01$ می‌خواهم $x_u,x_l$ را پیدا کنم. اگر $a\in[x_l,x_u]$ من استدلال می‌کنم که $\mu=1$ قابل قبول است، درست است؟ **1. سوال:** این ماهیت نظری است: آیا ایده من درست است، یعنی پیدا کردن $x_l,x_u$ آیا کل این روش از نظر آماری خوب است؟ با فرض اینکه این درست باشد، می‌توانیم به آن بپردازیم و آن را اجرا کنیم. ابتدا نتایج کافی از $X$ f <- function(n){ data <- rnorm(n,1,3) number <- min(data[data <= 0.9]) return(number)} data <- replicate تولید می کنیم (500,f(1000)) این به 500 تحقق X$ منجر می شود. اکنون می‌توانیم نمونه‌های بوسترپ خود را تولید کنیم bst.smpl <- boot(data,?,1000) **2. سوال:** تابع بوت به آرگومان آمار نیاز دارد، اما من متوجه نمی شوم که در مورد من کدام است؟ در آخر من فقط فواصل اطمینان را محاسبه می کنم ci <- boot.ci(bst.smpl,conf=0.99,type=basic,index=1) **3.سوال:** آیا راه آسان تری برای تصمیم گیری وجود دارد هنوز از $\mu=1$ استفاده می کنید؟
بوت استرپ برای تخمین پارامتر
105110
فرض کنید X یک متغیر تصادفی با ارزش واقعی است. فرض کنید یک ثابت M > 0 وجود دارد به طوری که پشتیبانی X کاملاً در بازه $[-M,M]$ قرار دارد. اجازه دهید $\phi$ تابع مشخصه X را نشان دهد. نشان دهید که $\phi$ بی نهایت قابل تمایز است. اگر بی نهایت متمایز معادل مطلقاً پیوسته باشد، آنگاه $$\int_{-M}^{M}|\phi(t)dt < \infty$$
نمایش تابع مشخصه بی نهایت قابل تمایز است
96571
من می خواهم یک ANOVA و همبستگی چندگانه و تحلیل رگرسیون را اجرا کنم. برخی از متغیرهای من که در این تحلیل‌ها گنجانده می‌شوند معمولاً توزیع شده‌اند و برخی دیگر توزیع نمی‌شوند. من log متغیرهای توزیع نشده را تغییر دادم که به عادی سازی آنها کمک کرد. سوال من این است که آیا می توانم از متغیرهای log transformed و not transformed در یک تحلیل استفاده کنم؟ به عنوان مثال، آیا می توانم 2 متغیر را تبدیل و 3 متغیر را تبدیل کنم و از همه آنها در رگرسیون چندگانه استفاده کنم. آیا می توانم متغیر وابسته را تبدیل و متغیر مستقل را تبدیل کنم و از آن در ANOVA استفاده کنم؟ با تشکر برای کمک.
تبدیل متغیر در یک ANOVA و تجزیه و تحلیل چند متغیره
96314
من می خواهم یک آزمون t را روی دو نمونه مستقل اعمال کنم و تصمیم بگیرم که نمونه_2 بزرگتر از نمونه_1 است یا خیر. در زیر نتایج دو «t.test» مختلف که روی نمونه‌ها اجرا کردم آمده است: پارامترهای پیش‌فرض: t.test(sample_1,sample_2) داده‌های آزمون t نمونه Welch Two: sample_1 و sample_2 t = -1.8795، df = 1121.445، p-value = 0.06043 فرضیه جایگزین: تفاوت واقعی در میانگین برابر با 0.95 درصد نیست. فاصله اطمینان: -4.45823402 0.09580241 تخمین های نمونه: میانگین x mean of y 45.08116 47.26238 alternative greater : > t.test(sample_1,sample_2,alternative=greater) ولچ_تست نمونه =2 نمونه t نمونه -1.8795، df = 1121.445، p-value = 0.9698 فرضیه جایگزین: تفاوت واقعی در میانگین بیشتر از 0 95 درصد فاصله اطمینان است: -4.091665 تخمین نمونه Inf: میانگین x میانگین y 45.08116 47.26238: t جایگزین کمتر sample_2,alternative=less , paired=FALSE) داده های آزمون t نمونه Welch Two: sample_1 و sample_2 t = -1.8795، df = 1121.445، p-value = 0.03022 فرضیه جایگزین: تفاوت واقعی در میانگین ها کمتر از 0 95 درصد فاصله اطمینان: -Inf -0.270 برآوردهای نمونه: میانگین x میانگین y 45.08116 47.26238 میشه لطفا یکی توضیح بده که معنی p-values ​​در این دو تست چیه؟ اولین p-value 0.06، آیا این احتمال برابری آنهاست، یا اینکه **نیست** مساوی هستند؟ و مقدار دوم 0.97، آیا این به معنای sample_2 > sample_1 است یا بالعکس: sample_2 <= sample_1؟ این یک سوال بسیار اساسی است اما من نمی توانم از منابع دیگر بفهمم. هر گونه کمکی قدردانی خواهد شد، با تشکر.
p-value در R به چه معناست؟
96575
چگونه می توانم از اطلاعات جدول چی مربع برای ساخت یک مدل آماری استفاده کنم. به طور خاص، من از اطلاعات نظرسنجی به سبک لیکرت استفاده می کنم که میزان مشارکت دانش آموزان را می سنجد. می‌خواهم ببینم آیا دانش‌آموزانی که مداخله‌ای خاص دارند نسبت به دانش‌آموزانی که آن مداخله را ندارند درگیر هستند یا خیر. اگر هستند، چگونه بر نتایج آنها تأثیر می گذارد؟ من مداخله> تعامل> نتیجه را بررسی می کنم. من نمی دانم چگونه می توان نتایج آزمون مربع کای را به مدلی تبدیل کرد که مقادیر جدیدی بر اساس برجسته بودن دارد. من متغیرهای جدید را با اضافه کردن آیتم ها/وسیله ها با هم محاسبه خواهم کرد. این مدل برای گنجاندن اندازه‌گیری رگرسیون لاگ مداخله که دارای همه متغیرهای طبقه‌بندی است، کدگذاری می‌شود.
نحوه ایجاد یک مدل با کدگذاری ساختگی برای قرار دادن در رگرسیون ورود
58138
مدرسه آلیس قصد دارد چند دانش آموز از کلاس او را به یک سفر علمی ببرد. آلیس واقعا در مورد آن هیجان زده است. در کل کلاس او دانشجوی $S$ وجود دارد. اما به دلیل محدودیت های بودجه، مدرسه در نظر دارد فقط دانش آموزان $N$ را برای سفر ببرد. این دانش آموزان به صورت تصادفی انتخاب خواهند شد. و هر دانش آموز شانس مساوی برای انتخاب شدن دارد. حلقه دوستان آلیس دارای M شاگردان از جمله او است. اگرچه او در مورد سفر میدانی هیجان‌زده است، اما تنها در صورتی از آن لذت می‌برد که حداقل K$ از دوستانش در سفر با او باشند. او در حال تعجب است که چه شانسی برای این اتفاق وجود دارد. او به کمک شما نیاز دارد. به او بگویید که با توجه به اینکه به سفر می رود، از این احتمال لذت خواهد برد.
احتمال سطح بالاتر
93895
فرض کنید دنباله ای از رویدادها $x_1, x_2, ...,x_n$ داریم و هر رویداد را می توان به عنوان یک متغیر طبقه بندی از دامنه $\{A, B, C...\}$ توصیف کرد. فاصله زمانی بین دو رویداد متوالی ثابت نیست. یک مثال می تواند سابقه انتشارات یک محقق باشد. هر نشریه یک رویداد است و دامنه مجموعه تمام فیلدها، {آمار، داده کاوی، ...} است. البته فاصله زمانی بین دو انتشار متوالی ثابت نیست. سوال من این است که آیا ابزار ریاضی/آمار/داده کاوی/.. برای تجزیه و تحلیل این نوع داده ها وجود دارد تا بتوانیم به سوالات زیر پاسخ دهیم؟ * **با توجه به یک توالی، می توانیم بگوییم که آیا تغییر قابل توجهی در ارزش رویدادها وجود دارد**. به عنوان مثال، در ابتدا، انتشارات محقق بیشتر در مورد آمار است و به دلایلی علاقه تغییر کرده و مقالات یادگیری ماشین بیشتری منتشر می شود. * **با توجه به گروهی از سکانس ها، می توان تشخیص داد که آیا در بسیاری از آنها تغییر قابل توجهی در ارزش رویدادها وجود دارد**. من حدس می زنم که پاسخ این سوال بر اساس پاسخ سوال اول باشد. * **با توجه به یک توالی، می توانیم بگوییم که آیا تغییر قابل توجهی در فاصله زمانی وجود دارد**. به عنوان مثال، یک محقق در ابتدا 1 مقاله در ماه منتشر می کند، اما پس از تصدی مسئولیت، سالی 1 مقاله منتشر می کند:) * **و ممکن است سؤالات بیشتری وجود داشته باشد ....** یک روش ساده ترسیم نمودار جدول زمانی است. برای هر دنباله اما اگر بخواهیم از داده ها نتیجه گیری درستی بگیریم قابل قبول نیست. متشکرم!
نحوه بررسی تغییر توالی رویدادها
9474
من به دنبال اجرای برآوردگر سریع حداکثر همبستگی رتبه (MRC) هستم. این برای ماتریس های پراکنده بزرگ (~100000 در 10000) در یک برنامه متن کاوی اعمال می شود. من در پایتون و R کار می کنم، بنابراین خوب است که چیزی به آن زبان ها پیدا کنم. در صورت عدم موفقیت، احتمالاً می توانم کد را از زبان دیگری تبدیل کنم. پیشنهادی دارید؟ نکته سریع: بهترین الگوریتمی که من دیدم در Abrevaya (1999) است که در زمان $nlog(n)$ اجرا می شود. وانگ (2007) یک الگوریتم IMO دارد که به ادعای او در $n^2log(n)$ اجرا می شود - بسیار بدتر. توجه: من این سوال را در stackoverflow ارسال کردم زیرا مطمئن نیستم که کدام انجمن مکان مناسبی برای پرسیدن است.
آیا کتابخانه ای وجود دارد که برآوردگر همبستگی حداکثر رتبه سریع را پیاده سازی کند؟
101579
من یک متغیر پاسخ ترتیبی و متغیرهای توضیحی متعدد دارم - هم پیوسته و هم مقوله ای. کاری که من می خواهم انجام دهم این است که روند تک متغیره بین متغیرهای توضیحی مختلف و متغیر پاسخ را بررسی کنم. آیا استفاده از یک مدل ترتیبی لجستیک برای هر متغیر توضیحی تا زمانی که فرض شانس متناسب برآورده شود معقول است؟
آزمون روند در متغیر پاسخ ترتیبی
105117
من داده های RM-ANOVA را با سه شرایط درمانی (یک طرفه در طرح های آزمودنی) شبیه سازی می کنم. من می خواهم بتوانم یک افکت به داده ها اضافه کنم تا eta-squared یک مقدار مشخص داشته باشد. یک مورد ساده تر را برای دو گروه مستقل و d کوهن تصور کنید. در اینجا، اگر هر دو انحراف معیار را در دو گروه بدانم، می توانم به فرمول کوهن d نگاهی بیندازم تا ببینم که می توان میانگین هر دو انحراف معیار (مخرج) را با اندازه اثر مورد نظر، مثلاً 0.4 ضرب کرد. ، و من تفاوت هر دو معنی باید داشته باشد (عدد) را دریافت می کنم و این را به یکی از گروه ها اضافه می کنم. اینجا را ببینید من نمی‌دانم که آیا این امکان برای مربع eta (یا برخی از انواع آن، جزئی و غیره) نیز وجود دارد یا خیر. تا حدودی دشوارتر است زیرا باید به جای تفاوت های میانگین با مجموع مربع ها کار کرد. آیا پیشنهادی برای رسیدن به این هدف دارید؟
شبیه سازی داده های ANOVA برای دنبال کردن یک eta-squared خاص
10945
اگر یک تحلیل عاملی اکتشافی با برخی از 1-5 مورد توافقی و برخی موارد 0/1 انتخاب همه موارد کاربردی انجام شود، از نظر تئوری چقدر تمایل کاذب برای بارگذاری 1-5 مورد روی یک یا دو عامل وجود دارد. و موارد 0/1 برای بارگذاری در یک مجموعه جداگانه از یک یا دو عامل؟ (من استدلال‌هایی موافق و مخالف این ایده شنیده‌ام که همبستگی‌ها در میان آیتم‌های مقیاس مشابه بسیار بیشتر است. آزمایش/شبیه‌سازی خودم تأثیر زیادی پیدا نکرده است.)
آیا بارهای عاملی باید تحت سلطه گستره گزینه های پاسخ آیتم ها باشد؟
65419
اگر $n$ نمونه داشته باشم و بخواهم ضرایب همبستگی زوجی بین متغیرهای $l$ و $m$ را محاسبه کنم، می‌توانم ماتریس‌های $A_{l,n}$ و $B_{n,m}$ را بسازم. اگر میانگین را از ردیف‌های $A$ و ستون‌های $B$ کم کرده و بر انحراف استاندارد تقسیم کنم، حاصل ضرب ماتریس $AB$ شامل ضرایب همبستگی پیرسون دوتایی متغیرهای $m$ من با $l$ من خواهد بود. متغیرها سوال من این است: اگر بخواهم این رویه را بوت استرپ کنم تا برای هر ضریب همبستگی چندک ها را بدست بیاورم، آیا لازم است که ماتریس های $A$ و $B$ را پس از نمونه برداری با جایگزینی ردیف های $A$ و ستون های $B مجددا مقیاس بندی کنم. $، یا می توانم یک بار مقیاس کنم و دوباره نمونه برداری کنم؟ شهود من این است که تغییر مقیاس برای هر تکرار بوت استرپ ضروری است.
مقیاس مجدد ستون های ماتریس بوت استرپ هنگام استفاده از ضرب ماتریس برای محاسبه ضرایب همبستگی
10949
من می خواهم تأثیر داشتن بیمه درمانی بر هزینه های مراقبت های بهداشتی را تخمین بزنم و این تصور را داشته باشم که بهتر است از یک مدل دو بخشی استفاده کنیم تا ابتدا احتمال استفاده از هر گونه مراقبت های بهداشتی را تخمین بزنیم و سپس میزان هزینه شده توسط افرادی که از سلامت استفاده کرده اند را تخمین بزنیم. مراقبت با این حال، من در مورد مزیت استفاده از یک مدل دو بخشی نسبت به اجرای رگرسیون حداقل مربعات معمولی بر روی نمونه فرعی افرادی که از مراقبت‌های بهداشتی استفاده می‌کنند، واضح نیستم. هر گونه بینشی در مورد مزایای مدل 2 قسمتی نسبت به OLS در نمونه فرعی کاربران، و تفاوت در این دو رویکرد بسیار قابل قدردانی است!
ارزش افزوده استفاده از یک مدل 2 قسمتی نسبت به مدل OLS در یک نمونه فرعی هنگام تخمین هزینه های مراقبت های بهداشتی چقدر است؟
105115
من نمی توانم استفاده از تضادهای چند جمله ای را در برازش رگرسیون درک کنم. به طور خاص، منظور من رمزگذاری است که توسط «R» برای بیان یک متغیر فاصله (متغیر ترتیبی با سطوح مساوی) که در این صفحه توضیح داده شده است، استفاده می‌شود. در مثال آن صفحه، اگر به درستی متوجه شده باشم، R مدلی را برای یک متغیر بازه ای متناسب می کند و ضرایبی را برمی گرداند که روند خطی، درجه دوم یا مکعبی آن را وزن می کند. بنابراین، مدل برازش شده باید این باشد: > $write$ ~ $52.7870 + 14.2587*X - 0.9680*X^2 - 0.1554*X^3$، که در آن $X$ باید مقادیر $1$، $2$، $3$، یا $4 را داشته باشد. $ با توجه به سطوح مختلف متغیر فاصله. آیا این درست است؟ و اگر چنین است، هدف از تقابل چند جمله ای چه بوده است؟ با تشکر
کنتراست های چند جمله ای برای رگرسیون
93898
من می‌خواهم یک HSD Tukey را روی داده‌هایم پس از انجام یک anova سه عاملی با بلوک به عنوان چهارمین فاکتور تصادفی اجرا کنم. anova در R به خوبی کار می کند، با استفاده از کد زیر، مدل<-aov(dv~f1*f2*f3+Error(block/(f1*f2*f3))، data=*.txt) که در آن dv متغیر وابسته من است. ، f1، 2 و 3 سه عامل ثابت هستند و *.txt یک فایل متنی است که داده های مورد تجزیه و تحلیل را دارد. وقتی سعی می کنم با استفاده از بسته agricolae یک Post hoc (HSD توکی) انجام دهم، خطای زیر نشان داده می شود، out<-HSD.test(model,f1, group=TRUE) #### از این دستور استفاده کرد خطا در as.data.frame.default(x[[i]]، اختیاری = TRUE، stringsAsFactors = stringsAsFactors): نمی تواند کلاس را وادار کند c(aovlist, listof) به یک data.frame out<-HSD.test(model,f1*f2*f3, group=TRUE) ### از این به عنوان دستور و همچنین خطا استفاده کرد در as.data.frame.default(x[[i]]، اختیاری = TRUE، stringsAsFactors = stringsAsFactors): نمی تواند کلاس c(aovlist را مجبور کند، listof) به a data.frame کسی می تواند در این مورد به من کمک کند لطفا؟ بابت خطای قبلی متاسفم
HSD توکی پس از طرح بلوک های تصادفی در R
16470
من مجموعه ای از سری های عدد صحیح $S_1$، $S_2$، ... $S_n$ دارم. هر سری دارای 3600 نقطه داده است. هر نقطه داده یک عدد صحیح مثبت است. هر نقطه داده به عنوان یک int بدون علامت ذخیره می شود که به 4 بایت نیاز دارد. بنابراین، ذخیره کل سری به 4 * 3600 بایت نیاز دارد. این اندازه خیلی بزرگ است و این سری ها باید فشرده شوند. داده ها به روش زیر جستجو می شوند و (هر مکانیزم فشرده سازی باید خطا را در هر پرس و جو به حداقل برساند). 1. چند سری انتخاب شده اند، مثلاً، $S_p، S_q$ و $ S_r$ (نه اینکه ممکن است هر تعداد سری انتخاب شود، من فقط از 3 به عنوان مثال استفاده می کنم) 2. سری های انتخاب شده برای بدست آوردن $ جمع می شوند. S_T$ طوری که، $S_T[i] = S_p[i] + S_q[i] + S_r[i]$، برای $i = 1$ تا 3600$ 3. حداقل مقدار و حداکثر مقدار $S_T$ محاسبه می شود. این امکان وجود دارد که قله‌های این سری هم‌تراز باشند. بنابراین نمی توان هر یک از سریال ها را مستقل تصور کرد. افکار؟
فشرده سازی یک سری عدد صحیح
43071
من فقط کمی تجربه در ابزارهای محاسبه ریاضی دارم. پس لطفا سخت نگیرید اگر سوال من به خوبی تعریف نشده است :) از کدام ابزار (Wolfram Mathematica، MATLAB یا چیز دیگری) برای آمار استفاده شود بهتر است؟ از کجا می توانم راهنماها و آموزش های شروع سریع برای آن پیدا کنم؟
Wolfram Mathematica، MATLAB یا چیز دیگری؟
9478
من نمونه‌هایی دارم که هر نمونه دارای n ویژگی است، چگونه می‌توان این ویژگی‌ها را عادی کرد تا مقادیر ویژگی بین بازه [-1،1] قرار بگیرند، لطفا یک فرمول ارائه دهید.
چگونه می توان داده ها را عادی کرد تا هر ویژگی بین [-1،1] قرار گیرد؟
61979
من داده های طولی را با افزایش واریانس در طول زمان برازش می کنم. مدل فیزیولوژیکی استاندارد یک مدل دو یا سه خطی با نقاط شکست متغیر است. پارامترهای تخمین زده شده برای توصیف نرخ رشد و زمان تا بلوغ استفاده می شود. آیا روش کارآمدی برای محاسبه خطاهای ناهمسان درون بخش در مدل رگرسیون قطعه ای پارامتریک وجود دارد؟
رگرسیون قطعه‌ای یا قطعه‌ای پارامتریک با خطاهای ناهمسان
64893
من دو پیش بینی از دو نوع روش مختلف دارم. predictedHousePrices1 یک متغیر پیوسته است و خروجی یک پیش بینی از یک مدل RandomForest، predictedHousePrices2 خروجی تابع predict() یک مدل RidgeRegression است. من می خواهم مقایسه کنم که کدام یک تغییرپذیری در داده های واقعی را بهتر توضیح می دهد. من نمی‌دانم که آیا آزمایش نسبت احتمال بهترین راه برای انجام این کار است، به عنوان مثال: m1 <- lm(realHousePrices~predictedHousePrices1) # R^2 = 0.25 m2 <- lm(realHousePrices~predictedHousePrices2) 0.30 = آیا استفاده از آزمون نسبت درستنمایی برای بررسی صحیح است؟ اگر یک $R^2$ از 0.25 به طور قابل توجهی بیشتر از 0.30 باشد، برای مثال: m3 <- lm(realHousePrices~predictedHousePrices1+predictedHousePrices2) library(epicalc) lrtest(m3, m1) یا راه بهتری وجود دارد برای انجام این کار؟
آزمون نسبت درستنمایی برای مقایسه دو پیش‌بینی
10947
من سعی می‌کنم بفهمم R چگونه همبستگی تاخیر-k را محاسبه می‌کند (ظاهراً همان فرمولی است که توسط Minitab و SAS استفاده می‌شود)، تا بتوانم آن را با استفاده از تابع CORREL اکسل که برای سری و نسخه k-lagged آن اعمال می‌شود مقایسه کنم. R و Excel (با استفاده از CORREL) مقادیر خودهمبستگی کمی متفاوت ارائه می دهند. همچنین می‌خواهم بدانم آیا یکی از محاسبات صحیح‌تر از دیگری است یا خیر.
فرمول همبستگی خودکار در R در مقابل اکسل
61978
از آمار ریاضی جون شائو > تعریف 2.10 (سازگاری برآوردگرهای نقطه). اجازه دهید $X = (X_1، ...، > X_n)$ نمونه‌ای از $P ∈ \mathcal P$ و $T_n(X)$ یک تخمین‌گر نقطه‌ای از > $θ$ برای هر $n$ باشد. > > اجازه دهید $\{a_n\}$ دنباله ای از ثابت های مثبت باشد که به $∞$ واگرا می شوند. $T_n(X)$ > $a_n$-سازگار برای $θ$ نامیده می شود اگر $a_n[T_n(X) - θ] = O_p(1)$ w.r.t. any > $P∈\mathcal P$. $O_p(\cdot)$ در اینجا تعریف شده است. وقتی $a_n := \sqrt{n}$، سازگاری ریشه $n$ سازگاری نامیده می شود. آیا یکی از ثبات $a_n$ و ثبات ضعیف دلالت بر دیگری دارد؟ اگر نه، $a_n := \sqrt{n}$ چطور؟ آیا یکی از ثبات $a_n$ و قوام قوی دلالت بر دیگری دارد؟ اگر نه، $a_n := \sqrt{n}$ چطور؟ آیا یکی از ثبات $a_n$ و ثبات $L^2$ دلالت بر دیگری دارد؟ اگر نه، $a_n := \sqrt{n}$ چطور؟ با تشکر و احترام!
ثبات $a_n$ و سازگاری دیگر
61972
خوب، پس یک مشکل ساده وجود دارد: فرض کنید یک D6 را صد بار رول می کنم. احتمال اینکه _هر_ عددی دقیقاً 50 بار ظاهر شود چقدر است؟ اکنون، احتمال چرخاندن 50 عدد احتمالاً با تعداد سکانس های 100 رول که دقیقاً شامل 50 عدد تقسیم بر تعداد کل توالی های ممکن است داده می شود. اما من می توانستم به جای آن 50 دوتایی بچرخانم. که نشان می دهد که باید هر شش راه را برای برآورده کردن معیارها جمع آوری کنید... با این تفاوت که این موارد متقابلاً انحصاری نیستند. برای مثال می توان 50 عدد سه و 50 عدد شش رول کرد. بعید است، اما ممکن است. پس... اوم... چگونه به این حمله کنم؟
احتمال پخش تاس مشخصی
65417
من تحلیل زیر را دارم: من یک MANOVA با دو DV (هر دو مقیاس همدلی) و یک IV (جنسیت) اجرا کردم. اکنون $p$-value (0.03) به من می گوید که تفاوت قابل توجهی بین زن و مرد وجود دارد. با این حال، من نمی دانم که در کدام متغیر بالاتر است. هنگامی که من به خروجی جدول ANOVA (داده شده با SPSS) نگاه می کنم، به من می گوید که تفاوت قابل توجهی وجود ندارد (همه $p$ - مقادیر بزرگتر از 0.05). چگونه این را تفسیر کنم؟ امتیازات زنان و مردان متفاوت بود یا خیر؟ همچنین، سرپرست من از من خواست که به ابزارها نگاه کنم، اما آنها فقط در یک نقطه متفاوت هستند، بنابراین نمی توانم ببینم کدام یک باید بزرگتر باشد (و MANOVA فقط اثر مشترک دو DV را با هم به من می گوید). وقتی برای بررسی میانگین‌های فردی آزمون t را انجام دادم، آنها نیز معنی‌دار نبودند. من کمی گم کرده ام که با این چه کار کنم و از کمک در مورد نحوه بیان این تفسیر در کلمات بسیار سپاسگزارم.
چگونه می توان اثر آماری معنی دار کلی یک MANOVA (در کلمات) را تفسیر کرد؟
93892
من باید مقادیر p را برای جلوه های ثابت در GLMM های زیر که اجرا کردم، دریافت کنم. آیا کسی کدی را می شناسد که بتوانم آن را اجرا کنم که مقادیر p را به من بدهد؟ در حال حاضر خروجی از ANOVA فقط یک مقدار p به من می دهد و من معتقدم که برای هر یک از جلوه های ثابت در مدل ها به یک مقدار p جداگانه نیاز دارم. پیشاپیش ممنون کد به شرح زیر است - برای GLMM 1 من این کد را اجرا کردم - m1<-lmer(step~Depth*threshold+(1|ind)) m2<-lmer(step~(1|ind)) anova(m1,m2) برای GLMM 2 من این کد را اجرا کردم - m2<-lmer(PDBA~step*threshold+depth*threshold+(1|ind)) m3<-update(m2,~.-step*threshold) anova(m2,m3) و این یکی: m2<-lmer(PDBA~step*threshold+Depth*threshold+(1|ind)) m4<-update(m2 ,~.-Depth*threshold) anova(m2,m4) وقتی کد GLMM 1 را اجرا کردم این چیزی است که دریافت کردم: m2: step ~ (1 | ind) m1: گام ~ عمق * آستانه + (1 | ind) Df AIC BIC logLik انحراف Chisq Chi Df Pr(>Chisq) m2 3 373235 373259 -186615 373229 m1 8 3720 - 8 3720 373209 19.767 5 0.001382 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خلاصه > خلاصه (m1) مدل ترکیبی خطی متناسب با REML ['lmerMod'] فرمول: مرحله ~ عمق * آستانه + (1 | ind) معیار REML در همگرایی: 373184 تصادفی اثرات: نام گروه ها Variance Std.Dev. ind (Intercept) 196519 443.3 Residual 469370 685.1 تعداد obs: 23473, group: ind, 11 Fixed effect: Estimate Std. مقدار خطای t (Intercept) 160.95895 134.80279 1.194 Depth 0.06438 0.44777 0.144 threshold2 51.18065 17.62222 2.904 2.904 0.06438 threshold3383736. Depth:threshold2 -1.23654 0.60029 -2.060 Depth:threshold3 -0.09587 0.65088 -0.147 همبستگی جلوه های ثابت: (Intr) Depth thhrsh2 thhrsh3 Dpth:20.709 -0.01 threshold3 -0.075 0.588 0.567 Dpth:thrsh2 0.071 -0.737 -0.745 -0.435 Dpth:thrsh3 0.064 -0.674 -0.490 -0.857 0.502 FESTROMTH OUSUUTY توضیحات 373275 -186607 373215 m5 8 373225 373290 -186605 373209 5.2901 2 0.071. --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1
کد مورد نیاز برای مقادیر p در GLMM
105118
از من خواسته شده است که یک تست کفایت نمونه را انجام دهم (یعنی فکر می‌کنم، برای تأیید اینکه حداقل تفاوتی که می‌توان بین دو گروس اندازه‌گیری کرد چقدر است) که در آن یک نمونه جدید (که مو، سیگما و اندازه نمونه داده شده است) با آن مقایسه می‌شود. یک نمونه مرجع من به تجزیه و تحلیل توان آزمون t فکر می کردم، اما انحراف معیار و حجم نمونه گروه دیگر نیز به من داده می شود. مناسب ترین روش برای حل این مشکل چیست؟ احتمالا در R....
تجزیه و تحلیل توان زمانی که میانگین و انحراف معیار داده می شود
9475
من سری های زمانی زیادی در این قالب 1 ستون دارم که در آن فرمت تاریخ (d/m/yr) و ستون های زیادی دارم که نشان دهنده سری های زمانی مختلف هستند مانند اینجا: DATE TS1 TS2 TS3 ... 24/03/2003 0.00 0.00 .. 17/04/2003 -0.05 1.46 11/05/2003 0.46 -3.86. 04/06/2003 -2.21 -1.08 28/06/2003 -1.18 -2.16 22/07/2003 0.00 0.23 با R، چگونه می توانم سری های زمانی را که روندهای مشابهی را نشان می دهند گروه بندی کنم؟
خوشه بندی سری های زمانی
61977
توضیح خوبی در مورد اینکه چرا وقتی از مزدوج قبلی استفاده می کنید مجبور نیستید برای پیدا کردن قسمت خلفی ادغام شوید. بیشتر نمونه‌ها (مثلاً: http://www.youtube.com/watch?v=0XD6C_MQXXE) دفعات احتمالی قبلی را ضرب می‌کنند و به این پایان می‌رسند که «ببینید چقدر پسین (بدون مقیاس) از همان توزیع قبلی است و ما نیازی به ادغام نداشتیم. اما هرگز توزیع حاشیه ای را محاسبه و بر آن تقسیم نمی کنند. این نوع باعث می‌شود که مزدوج مانند یک انحراف از این واقعیت به نظر برسد که مشکل ادغام هنوز اصلاً حل نشده است. پس چرا توزیع حاشیه‌ای مورد نیاز نیست؟
چرا هنگام استفاده از مزدوج، توزیع حاشیه ای لازم نیست؟
96839
داشتم مقاله‌ای در مورد استحکام می‌خواندم (http://econ.ucsb.edu/~doug/245a/Papers/Robustness%20Checks.pdf) و آنها می‌گویند: برای تعیین اینکه آیا کسی اثرات مورد علاقه را تخمین زده است، $\beta$ یا فقط ضرایب پیش‌بینی، $\hat{\beta}$ می‌تواند استحکام را با حذف یا اضافه کردن متغیرهای کمکی بررسی یا آزمایش کند. قوی بودن یک مدل برای شما چه معنایی دارد؟ آیا این تنها راه برای در نظر گرفتن آن از لحاظ اقتصادسنجی است؟
چه چیزی یک مدل اقتصاد سنجی را قوی می کند؟
65410
من برخی از نتایج Nanostring دارم که تغییر برابری در بیان را پس از اعمال شرایط مختلف نشان می‌دهد. افرادی که با آنها کار می کنم دوست دارند بدانند چگونه می توانند ببینند چه شرایطی بیشترین تغییر را ایجاد می کند. به عنوان مثال کدام ژن ها بیشترین واریانس را بین همه شرایط دارند و کدام ژن ها بیشترین واریانس را بین چند شرط دارند، یعنی بین شرایط 1 و 2. کاری که من انجام دادم یک آزمایش ساده واریانس در بین 4 شرط بود. ، با استفاده از تابع var.s در اکسل در اینجا پیوندی به تابع Excel var.s وجود دارد. در اینجا یک مثال کوچک آورده شده است: نام ژن Tconv WT/Treg WT Tconv DEL/Treg WT Tconv WT/Treg DEL Tconv DEL/Treg DEL ACVR2A 1 1.07 -1.02 1.01 AHR 1 1.48 1.26 1.71 1.26 1.24 -AchE 231 - 1.71 -1.13 1.04 -1.19 Arg1 1 1.1 -1.61 -1.14 Arnt1 1 1.07 -1.03 1.08 Arnt2 1 1.53 1.3 1.3 همه داده های تغییر فولد را می توانید در pastbin اینجا پیدا کنید. سوالی که من دارم این است که آیا این بهترین آزمایشی است که می توان برای این کار انجام داد، و اگر بخواهم به دنبال بزرگترین تغییر بین شرایط 1 و 2 برای مثال، و همچنین تمام ترکیبات دیگر بگردم، هنوز هم می توانم از همان استفاده کنم. تست؟
نحوه آزمایش واریانس بین شرایط
43077
کسی می داند که چه شبه همبستگی هایی در خروجی DCC GARCH وجود دارد. من با همبستگی پیرسون آشنا هستم، همیشه بین -1 (منفی کامل) و +1 (مثبت کامل). در خروجی من یک شبه همبستگی 1،6 بین 2 شاخص دارم. دستوری که اجرا کردم: mgarch dcc (var1 var2 = , noconstant)، arch(1) garch(1) constraints(1 2)
شبه همبستگی ها چیست؟
9470
من سعی می کنم مقاله بلوندل و همکاران را تکرار کنم. (2008) برای جداسازی شوک های دائمی و گذرا بر درآمد در مجموعه داده های پانل. او سیستم غیرخطی معادلات را با استفاده از برآوردگر حداقل فاصله چمبرلین حل می کند (در پیوست مقاله نشان داده شده است)، اما من نه کتابخانه ای، نه در R و نه در STATA پیدا نکردم که این کار را انجام دهد. کسی میتونه کمکم کنه؟
برآوردگر حداقل فاصله
9477
تلاش‌های من: 1. نتوانستم فواصل اطمینان را در «interaction.plot()» به دست بیاورم. 2. و از سوی دیگر «plotmeans()» از بسته «gplot» دو نمودار را نمایش نمی‌دهد. علاوه بر این، من نمی‌توانم دو نمودار «plotmeans()» را یکی روی دیگری اعمال کنم زیرا به طور پیش‌فرض محورها متفاوت هستند. 3. من با استفاده از 'plotCI()' از بسته 'gplot' و روی هم قرار دادن دو نمودار موفقیت داشتم، اما همچنان تطابق محور کامل نبود. آیا توصیه ای در مورد چگونگی ایجاد یک طرح تعامل با فواصل اطمینان دارید؟ یا توسط یک تابع، یا راهنمایی در مورد نحوه قرار دادن نمودارهای «plotmeans()» یا «plotCI()». نمونه کد br=ساختار(لیست(گروه = c(140L, 50L, 40L, 140L, 90L, 70L, 110L, 150L, ​​150L, ​​110L, 110L, 50L, 90L, 140L, 5, 110L 40 لیتر، 130 لیتر، 120 لیتر، 140 لیتر، 70 لیتر، 50 لیتر، 140 لیتر، 120 لیتر، 130 لیتر، 50 لیتر، 40 لیتر، 80 لیتر، 140 لیتر، 100 لیتر، 60 لیتر، 70 لیتر، 50 لیتر، 30 لیتر، 60 لیتر، 60 لیتر 130 لیتر، 100 لیتر، 70 لیتر، 110 لیتر، 80 لیتر، 120 لیتر، 110 لیتر، 40 لیتر، 100 لیتر، 40 لیتر، 60 لیتر، 120 لیتر، 120 لیتر، 70 لیتر، 80 لیتر، 130 لیتر، 60 لیتر، 70 لیتر، 10 لیتر 90 لیتر، 100 لیتر، 140 لیتر، 70 لیتر، 100 لیتر، 90 لیتر، 130 لیتر، 70 لیتر، 130 لیتر، 40 لیتر، 80 لیتر، 130 لیتر، 150 لیتر، 110 لیتر، 120 لیتر، 140 لیتر، 90 لیتر، 140 لیتر، 90 لیتر، 90 لیتر، 150 لیتر، 90 لیتر، 150 لیتر، 50 لیتر، 50 لیتر، 100 لیتر، 150 لیتر، 80 لیتر، 90 لیتر، 110 لیتر، 150 لیتر، 150 لیتر، 120 لیتر، 80 لیتر، 80 لیتر)، gtangles = c(141L، 4L، 4، 141L، 4 L. 90 لیتر، 128 لیتر، 147 لیتر، 147 لیتر، 120 لیتر، 127 لیتر، 66 لیتر، 118 لیتر، 141 لیتر، 111 لیتر، 59 لیتر، 72 لیتر، 45 لیتر، 52 لیتر، 144 لیتر، 139 لیتر، 7، 143 لیتر، 139 لیتر، 139 لیتر، 143 لیتر، 143 لیتر، 143 لیتر، 143 لیتر 135 لیتر، 63 لیتر، 51 لیتر، 88 لیتر، 147 لیتر، 110 لیتر، 68 لیتر، 78 لیتر، 63 لیتر، 64 لیتر، 70 لیتر، 133 لیتر، 49 لیتر، 129 لیتر، 100 لیتر، 78 لیتر، 128 لیتر، 129 لیتر، 129 لیتر، 91 لیتر، 113 لیتر، 50 لیتر، 68 لیتر، 135 لیتر، 120 لیتر، 85 لیتر، 97 لیتر، 136 لیتر، 59 لیتر، 112 لیتر، 103 لیتر، 62 لیتر، 87 لیتر، 92 لیتر، 116 لیتر، 141 لیتر، 70 لیتر، 141 لیتر، 70 لیتر، 136 لیتر، 121 لیتر 117 لیتر، 51 لیتر، 84 لیتر، 128 لیتر، 162 لیتر، 102 لیتر، 127 لیتر، 151 لیتر، 115 لیتر، 57 لیتر، 93 لیتر، 92 لیتر، 117 لیتر، 140 لیتر، 95 لیتر، 159 لیتر، 57 لیتر، 159 لیتر، 57 لیتر، 100 لیتر 117 لیتر، 116 لیتر، 147 لیتر، 140 لیتر، 116 لیتر، 98 لیتر، 95 لیتر)، بالا = c(-1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، -1 لیتر، -1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، 1 لیتر، 1 لیتر، -1 لیتر، -1 لیتر، 1 لیتر، 1 لیتر، -1 لیتر، 1 لیتر، 1 لیتر، -1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، -1 لیتر، -1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، -1 لیتر ، -1 لیتر، 1 لیتر، 1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، 1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، 1 لیتر، -1 لیتر، 1 لیتر، 1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، 1 لیتر، - 1 لیتر، 1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، 1 لیتر، -1 لیتر، 1 لیتر، -1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، 1 لیتر، -1 لیتر، 1 لیتر، 1 لیتر، -1 لیتر، -1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، -1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر) ), .Names = c(tangle، gtangles، up)، class = data.frame، row.names = c(NA, -96L)) plotmeans2 <- function(br, alph) {dt=br; tmp <- split(br$gtangles، br$tangle); معنی <- sapply(tmp, mean); stdev <- sqrt(sapply(tmp, var)); n <- sapply(tmp,length); ciw <- qt(alph, n) * stdev / sqrt(n) plotCI(x=means, uiw=ciw, col=black, barcol=blue, lwd=1,ylim=c(40,150), xlim =c(1,12)); par(new=TRUE) dt= زیر مجموعه(br,up==1); tmp <- split(dt$gtangles, dt$tangle); معنی <- sapply(tmp, mean); stdev <- sqrt(sapply(tmp, var)); n <- sapply(tmp,length); ciw <- qt(0.95, n) * stdev / sqrt(n) plotCI(x=means, uiw=ciw, type='l',col=black, barcol=red, lwd=1,ylim= c(40,150), xlim=c(1,12),pch='+'); abline(v=6);abline(h=90);abline(30,10); par(new=TRUE); dt=subset(br,up==-1); tmp <- split(dt$gtangles, dt$tangle); معنی <- sapply(tmp, mean); stdev <- sqrt(sapply(tmp, var)); n <- sapply(tmp,length); ciw <- qt(0.95, n) * stdev / sqrt(n) plotCI(x=means, uiw=ciw, type='l', col=black, barcol=blue, lwd=1,ylim= c(40,150), xlim=c(1,12),pch='-');abline(v=6);abline(h=90); abline(30,10); } plotmeans2(br,.95)
چگونه یک نمودار تعامل با فواصل اطمینان رسم کنیم؟
43076
من می‌خواهم یک شبه$R^2$ را برای مدلی محاسبه کنم که تخمین پارامتر آن بر اساس حداکثر احتمال است (تابع 'likfit()'، بسته 'geoR'، نرم‌افزار R). من سعی کردم $R^2$ پیشنهاد شده توسط Maddala (1983) را محاسبه کنم که حداکثر احتمال را برای مدل بدون هیچ پیش بینی کننده و حداکثر احتمال را برای مدل با همه پیش بینی ها مقایسه می کند. من یک مقدار بسیار پایین (0.01٪) دریافت کردم. آیا چیزی را از دست دادم؟ آیا $R^2$ های دیگری وجود دارند که مناسب تر از $R^2$ مدالا باشند؟
شبه R-squared برای مدل تخمین زده شده با حداکثر احتمال
69719
من داده‌های نمونه‌ای دارم که انتظار دارم حاوی مقادیری از حداقل چندین توزیع پواسون باشد (مرتبط با مقادیر مختلف لامبدا). برخی از این مقادیر لامبدا به خوبی با یکدیگر فاصله دارند، که منجر به توزیع های متمایز بصری واضحی می شود. هدف من این است که فواصل اطمینان (bin) را در مورد باورپذیرترین این توزیع ها تنظیم کنم تا بتوانم داده ها را به روشی قابل دفاع تجزیه و تحلیل کنم. بنابراین من به استفاده از تست پراکندگی مربع کای شرطی زمانی که هر لامبدا را تخمین زدم فکر می‌کنم... اما می‌پرسم بهترین راه برای انتخاب این مقادیر برای لامبدا به غیر از بازرسی ساده بصری چیست. من الان گیر کردم
MLE مقادیر لامبدا پواسون
105670
من چند سوال در مورد عملکرد مدل های رگرسیون غیرخطی دارم. 1. آیا قرار است باقیمانده های یک مدل رگرسیون غیرخطی نیز به صورت تصادفی توزیع شوند (مانند رگرسیون خطی)؟ 2. من در حال مقایسه دو مدل رگرسیون غیرخطی (غیر تودرتو) هستم. چه شاخص های عملکرد مدلی را می توانم برای این منظور استفاده کنم؟ درک من مقایسه RSS، RSE، نمودارهای باقیمانده، خود همبستگی و نمودارهای نرمال باقیمانده بود. 3. مدل ها دارای محورهای Y مختلف هستند. بنابراین من سعی کردم متغیرها را استاندارد کنم و سپس RSS، RSE را مجدداً تخمین زدم. آیا این رویکرد درستی است؟ چه معیارهای عملکرد مدل دیگری باید با متغیرهای استاندارد تخمین زده شود؟
نمودار باقیمانده برای رگرسیون غیر خطی
54452
من مجموعه ای از نقاط داده با تعداد کل Nt دارم. من می دانم که داده ها از دو فرآیند مجزا (توزیع) به دست می آیند. من سعی می کنم پارامترهای مدل بهینه را همراه با پارتیشن بندی بهینه برای مجموعه داده پیدا کنم. به طوری که N1+N2=Nt. من می‌خواهم از معیار اطلاعات بیزی استفاده کنم، سؤال من این است که کدام یک از عبارت‌های BIC زیر برای بهینه‌سازی مناسب است: به عنوان مثال، مشکل تناسب دو خطی یک مجموعه داده را فرض می‌کنم![توضیح تصویر را اینجا وارد کنید](http ://i.stack.imgur.com/xOywo.jpg) BIC= LogLikelihood - 0.5*k*log(N) [k: پارامترهای آزاد، N: تعداد نقاط داده] 1) دو مدل برازش خطی مجزا: LL(M1) - log(N1) + LL(M2) - log(N2) (k=2 برای تناسب خطی) 2) یک مدل برازش دو خطی تک: LL(M )-2.5*log(Nt) (k=5؛ 4 (2 تناسب خطی) + 1 (نقطه تقسیم))
دو مدل ساده یا یک پیچیده، BIC و احتمال
65418
من می خواهم یک رگرسیون لجستیک از پوشش واکسیناسیون، به عنوان مثال، $HPV$ انجام دهم. بیایید فرض کنیم که ما 50 ایالت ($S$) داریم. 30 ایالت دارای یک بخش شهری و یک بخش روستایی هستند (متغیر شهرنشینی $U$). 20 بقیه فقط یک منطقه روستایی دارند. 10 ایالت دارای مناطق جمعیتی هستند که در آن افراد فقط اسپانیایی صحبت می کنند و سایر مناطق فقط انگلیسی ($L$). منطقه زبانی فقط کمی با شهرنشینی همبستگی دارد. به عنوان مثال: $S$: 1,.., 50; $U$: شهری/کشور؛ $L$: انگلیسی/اسپانیایی. * S(1)-U(شهری)-L(انگلیسی) * S(1)-U(کشور)-L(انگلیسی) * S(1)-U(شهری)-L(اسپانیایی) * S(1) -U(کشور)-L(اسپانیایی) * S(2)-U(شهری)-L(انگلیسی) * S(2)-U(شهری)-L(اسپانیایی) * S(3)-U(شهری)-L(انگلیسی) * S(3)-U(کشور)-L(انگلیسی) * S(4)-U(شهری)-L(انگلیسی) * S(4)- U(کشور)-L(اسپانیایی) ... که در آن عدد یک حالت را نشان می دهد. وضعیت این است که $U$ در $S$ تو در تو قرار دارد اما هر $S$ دارای هر دو سطح $U$ نیست. این موضوع در مورد متغیر زبانی نیز صادق است. اگر $U$ به طور کامل در $S$ و $L$ به طور کامل در $S$ تو در تو باشد، مدل به نظر می رسد (در اصطلاحات R برای lmer): `y ~ (1|S) +(1|S: U) + (1|S:L)` که در آن $y$: 0/1 واکسینه شده است آیا می توان نسبت شانس را با استفاده از این مدل تخمین زد، حتی اگر متغیرهای $U$ و $L$ به طور کامل تو در تو نباشند؟ یا باید از مدل دیگری استفاده شود، برای مثال: `y ~ (1|S) + U + L` که در آن`(1|S)` متغیر تصادفی است و `U` و `L` متغیرهای ثابت هستند. با سطوح ثابت $U$ و $L$، کاراکتر تودرتو از بین می‌رود و متغیرها ویژگی‌های افراد خواهند بود، یعنی تجمع افراد در نظر گرفته نمی‌شود. مشکلاتی که با استفاده از متغیرهای ثابت به وجود می آیند: به دلیل تعداد زیاد افراد، نتایج قابل توجهی به همراه خواهند داشت یا CI باریک می شوند. من بسیار خوشحال خواهم شد اگر کسی بتواند به من نکاتی بدهد که چگونه با متغیرهای نیمه تو در تو کنار بیایم.
رگرسیون سلسله مراتبی با متغیرهای جزئی تو در تو
2245
پل هالند در مقاله خود با عنوان «آمار و استنتاج علی» در سال 1984 یکی از اساسی ترین سؤالات آمار را مطرح کرد: > یک مدل آماری در مورد علیت چه می تواند بگوید؟ این به شعار او منتهی شد: > NO CAUSATION WITHOUT MANIPULATION که بر اهمیت محدودیت‌های پیرامون آزمایش‌هایی که علیت را در نظر می‌گیرند تأکید می‌کرد. اندرو گلمن نکته مشابهی را بیان می کند: > برای اینکه بفهمید وقتی چیزی را تغییر می دهید چه اتفاقی می افتد، باید آن را تغییر دهید.... چیزهایی وجود دارد که از برهم زدن یک سیستم یاد می گیرید که هرگز از هیچ یک از آنها متوجه نخواهید شد. میزان مشاهده غیرفعال ایده های او در این مقاله خلاصه شده است. هنگام استنتاج علی از یک مدل آماری چه ملاحظاتی باید در نظر گرفت؟
آمار و استنتاج علی؟
81647
من 3 متغیر پنهان دارم که هر کدام 3 اندازه دارند. من می دانم که اندازه نمونه معمولی 15 شرکت کننده در هر اندازه است (یعنی 9 x 15 = 135). من 85 شرکت کننده دارم و فکر نمی کنم زمان کافی برای جمع آوری تعداد بیشتری (شاید حداکثر 15 نفر دیگر) داشته باشم. ادبیاتی که خواندم کمتر از 200 را برای SEM پیشنهاد می کند. بنابراین سوال من این است که اگر من نتوانم از SEM استفاده کنم چه جایگزین معتبری خواهد بود؟
اندازه نمونه برای SEM. چه جایگزین هایی وجود دارد
24199
زمینه لازم این است که من می‌خواهم جهان را به عنوان دولت مدل کنم و دولت توزیع فراوانی نظرات مردم است. بنابراین نمی‌دانم که آیا می‌توانم از یک متغیر تصادفی، مثلاً $T$، برای مدل‌سازی حالتی که جهان در آن است و بنابراین توزیع فرکانس استفاده کنم. با تشکر
استفاده از یک متغیر تصادفی برای نشان دادن یک توزیع؟
51590
من برنامه ای برای پیش بینی برخی از ارزش ها برای مردم دارم. برای اعتبار سنجی، درست بودن یا نبودن پیش‌بینی را پیگیری می‌کنم، که به من یک بردار باینری با طول حدود 600 می‌دهد. برای آزمایش اینکه آیا آن بالاتر از یک پیش‌بینی‌کننده تصادفی معنادار است، 100 بردار باینری تصادفی از پیش‌بینی‌ها را برای همان پیش‌بینی ایجاد کردم. ارزش ها این به من 100 بردار تصادفی و 1 بردار واقعی می دهد. من می خواهم معناداری بین 1 بردار واقعی و مجموعه 100 بردار پیش بینی تصادفی را آزمایش کنم. * آیا تست خوبی برای این کار وجود دارد؟ * آیا یک روش خوب محاسبه اهمیت بین دو بردار در مقادیر p و سپس میانگین آن است؟ * آیا بهتر است کاری با فواصل انجام دهیم، مثلاً با محاسبه فاصله همینگ بین بردار واقعی و 100 بردار تصادفی، 100 مقدار فاصله بدست آوریم؟ اگر این کار را انجام دهم، چگونه می توانم بدانم که آیا این مهم است یا خیر؟ با بررسی چولگی از حالت عادی؟ * من فقط می خواهم ببینم آیا پیش بینی های من بیشتر از شانس است یا خیر. پیش‌بینی‌های تصادفی، به‌طور میانگین از 100 آزمایش، 0.33 دقیق هستند. آیا راه آسان تری برای آزمایش اهمیت وجود دارد؟
اهمیت آماری بردارهای باینری مرتب شده
54455
من سعی می کنم یک همبستگی پیرسون دو متغیره بین دو گروه از متغیرها در SPSS ایجاد کنم، اما یکی از گروه ها دارای اعداد اعشاری مثبت و دیگری اعداد اعشاری منفی است. نتایج نشان دهنده همبستگی منفی و معنادار بین دو گروه است. اگر اعداد منفی مثبت بودند، این تحلیل یک همبستگی مثبت و معنادار را نشان می‌داد. آنچه من تعجب می کنم این است که چگونه این نتایج را تفسیر کنم؟ آیا می توانم به طور دقیق بگویم که یک همبستگی منفی وجود دارد؟ با تشکر
نحوه تفسیر همبستگی با اعداد منفی در SPSS
46244
مایلم با استفاده از یک رگرسیون خطی تعداد اشکالاتی را که شرکت من ایجاد می کند، پیش بینی کنم. برای هر بخش از توسعه، پیش‌بینی عالی نیست ($r^2 = 0.2$). با این حال، وظیفه واقعی من این است که پیش بینی کنم، در کل شرکت، چند باگ در یک هفته تولید خواهیم کرد. خطاهای من تقریباً میانگین صفر هستند، بنابراین در این مجموعه داده انباشته $r^2$ من به 0.8 نزدیکتر است. چگونه باید این را گزارش کنم؟ همکاران من (و مسلماً خودم) چندان با آمار آشنا نیستند، اما اگر چیزی شبیه به «۲۰ درصد واریانس توسط مدل توضیح داده شده است» بگویم، به نظر می رسد که راه زیادی در پیش است. اگر 80 درصد توضیح داده شود، به نظر خوب می رسد. آیا اگر از مدل مجموع $r^2$ بالاتر را گزارش کنم، صحت درک شده خود را ناعادلانه افزایش می دهم؟
چگونه باید خطاها را برای داده های انبوه گزارش کنم؟
2244
بهترین بسته برای انجام برخی تحلیل ها و نمودارهای بقا در R چیست؟ من چند آموزش رو امتحان کردم ولی جواب قطعی پیدا نکردم. TIA
کاپلان مایر، تجزیه و تحلیل بقا و نمودارها در R
103367
یک سوال در مورد این موضوع قبلا پرسیده شده است: ترکیب یک فیلتر کالمن خطی با محدودیت های خطی اضافی؟ و من برخی از منابع داده شده را بررسی کردم: http://academic.csuohio.edu/simond/pubs/IETKalman.pdf احتمالاً از برآورد برآورد استفاده خواهم کرد. با این حال من چند سوال دارم. 1. برای محاسبه log-likelihood، (یعنی هنگام برازش مدل) آیا باید از تخمین های اصلی یا پیش بینی شده استفاده کنم؟ من فرض می کنم قبلی؟ 2. هنگام پیش بینی باید از تخمین اصلی یا پیش بینی شده استفاده کنم، در این مورد فکر می کنم دومی؟ آیا کسی می تواند تأیید کند که در هر مورد از کدام مورد استفاده شود و در حالت ایده آل چرا؟ در نهایت برای روش اندازه‌گیری پرفکت که در پیوند بالا نشان داده شده است: چرا تعداد محدودیت‌ها مجبور می‌شوند کمتر از تعداد متغیرها باشد؟ من از نظر ریاضی فکر می کردم که آنها همچنین می توانند با تعداد متغیرها برابر باشند؟
فیلتر کالمن با محدودیت های خطی
87077
من در حال ارزیابی دو (2) مبرد (گاز) هستم که در یک سیستم تبرید استفاده شده است. من داده های دمای مکش اشباع ($S$)، دمای متراکم ($D$) و آمپراژ ($Y$) را برای ارزیابی دارم. دو (2) مجموعه داده وجود دارد. مبرد اول ($R_1$) و مبرد دوم ($R_2$). من از یک مدل غیرخطی و چند متغیره ($S$ & $D$) برای تحلیل‌های رگرسیونی استفاده می‌کنم. چند جمله ای درجه 3 من می خواهم تعیین کنم که به طور متوسط ​​​​چه مقدار آمپر کمتر/بیشتر، به عنوان درصد، توسط مبرد دوم کشیده می شود. یا، برخی از معیارهای مشابه به عنوان مقایسه عملکرد. اولین فکر این بود: 1. مدل مورد استفاده را تعیین کنید... $Y = b_0 + b_1S + b_2D + b_3SD + b_4S^2 + b_5D^2 + b_6S^2D + b_7D^2S + b_8D^3 + b_9S^3$ 2 ضرایب ($b_i$) را از داده های پایه ($R_1$) استخراج کنید. 3. با استفاده از آن ضرایب، برای هر $S$ و $D$ در مجموعه داده‌های $R_2$، هر آمپر مورد انتظار ($\hat{Y}$) را محاسبه کنید و سپس میانگین بگیرید. 4. میانگین $\hat{Y}$ را با میانگین کشش آمپر واقعی ($Y_2$) داده $R_2$ مقایسه کنید. 5. $\text{percent (%) تغییر} = (Y_2 - \hat{Y}) / \hat{Y}$ اما، از آنجایی که مبرد دوم دارای خواص حرارتی کمی متفاوت است و تغییرات کوچکی در سیستم تبرید ایجاد شد ( تنظیمات TXV و superheat) من معتقد نیستم که این روش مقایسه پایه دقیق باشد. فکر بعدی انجام دو (2) تحلیل رگرسیون جداگانه بود: * $Y_1 = a_{0} + a_{1}S_1 + a_{2}D_1 + a_{3}S_1D_1 + a_{4}S_1^2 + a_{ 5}D_1^2 + a_{6}S_1^2D_1 + a_{7}D_1^2S_1 + a_{8}D_1^3 + a_{9}S_1^3$ * $Y_2 = b_{0} + b_{1}S_2 + b_{2}D_2 + b_{3}S_2D_2 + b_{4}S_2^2 + b_{5}D_2^2 + b_{6}S_2^2D_2 + b_{7}D_2^2S_2 + b_{8}D_2^3 + b_{9}S_2^3$ و سپس برای دمای مکش اشباع ($S$)، ضرایب ($a_{1}$ در مقابل $b_{1}$) را مقایسه کنید... $ \text{% change} = (b_{1} - a_{1}) / a_{1}$ با این حال، دوباره، این ضرایب باید وزن متفاوتی داشته باشند... بنابراین، نتایج منحرف می‌شوند. من معتقدم که می‌توانم از آزمون z برای تعیین وزن متفاوت ضرایب استفاده کنم، اما مطمئن نیستم که معنای خروجی را کاملاً درک کرده باشم: $z = (a_{1} - b_{1}) / \sqrt {SE_{a_{1}}^2 + SE_{b_{1}}^2 )}$. اما، این هنوز معیاری برای عملکرد به من نمی دهد، که هدف کلی آن است... پیشاپیش از هر راهنمایی ممنونم...
مقایسه ضرایب رگرسیون همان مدل در مجموعه داده های مختلف
22928
$X = AS$ که در آن $A$ ماتریس اختلاط من است و هر ستون $S$ نشان دهنده منابع من است. $X$ داده ای است که مشاهده می کنم. اگر ستون های $S$ مستقل و گوسی باشند، آیا اجزای PCA بسیار شبیه به ICA خواهند بود؟ آیا این تنها شرطی است که این دو روش با هم مطابقت دارند؟ آیا کسی می تواند مثالی از درست بودن این مورد ارائه دهد وقتی که $cov(X)$ مورب نباشد؟
چه زمانی PCA معادل ICA خواهد بود؟
22920
آیا می توان هر آنتروپی مفید یا آنتروپی شرطی را تعریف کرد که بر اساس فاصله بین نقاط داده و مرکز (ها) خوشه باشد، به جای اینکه بر اساس تعداد نقاط تخصیص داده شده به خوشه مانند آنچه در آن تعریف شده است، به عنوان مثال برای محاسبه v-میزان؟ من دلالت بر این ندارم که معادل اندازه V می خواهم ، اما فقط تعجب می کنم که آیا ممکن است و شاید برای تعریف یک آنتروپی شرطی بر اساس مسافت ها مفید باشد. بنابراین ، آنچه من به دنبال آن هستم نوعی آنتروپی مشروط بر اساس مسافت هاست ، که اجازه می دهد تا با توجه به مسافت ها ، در مورد همگن و کامل بودن خوشه ها داشته باشیم.
آنتروپی بر اساس فواصل اقلیدینی بین نقاط داده / مراکز خوشه؟
24193
من در حال انجام تجزیه و تحلیل بازده هستم. ایده این است که یک سری زمانی از بازده در بازده طبقات مختلف دارایی را رگرسیون کنیم. ضرایب بتا باید به گونه‌ای محدود شوند که مجموع ضرایب 1 باشد و هیچ ضریبی کمتر از 0 یا بزرگ‌تر از 1 نباشد. این ضرایب بتا را می‌توان به‌گونه‌ای تفسیر کرد که توضیح می‌دهد چه درصدی از بازده با قرار گرفتن در معرض طبقات مختلف دارایی توضیح داده می‌شود. آیا بسته هایی در R وجود دارد که به من اجازه دهد رگرسیون فوق را تنظیم کنم و از گزارش همراه در مورد آمار برازش مدل بهره مند شوم؟ یا آیا باید در مورد تنظیم بهینه‌سازی حداقل مربعات محدود در R (لطفاً به بسته‌های R توصیه‌شده ارجاع دهید) تکالیفی انجام دهم؟
رگرسیون چندگانه با محدودیت در ضرایب
43078
فرض کنید $X_n$ دنباله ای از متغیرهای تصادفی توزیع شده یکسان (به عنوان مثال، دو جمله ای $B(1,1/2)$) باشد که _نه_ مستقل هستند (مثلاً برای هر $n$ و $m$، $corr(X_n,X_m) )=c$). در مورد حد میانگین آنها $\sum_n X_n/N$ چه می توان گفت؟ انگیزه: دلیلی که تغییرات قیمت گاوسی فرض می شود این است که آنها توسط اقدامات ظاهرا مستقل بسیاری از معامله گران تشکیل شده اند. با این حال، در واقعیت، معامله گران مستقل نیستند، زیرا، به عنوان مثال، همه آنها یک خبر را می خوانند. بنابراین، $X_n$ بهتر است به عنوان یک مجموعه مشاهده شود، نه یک توالی مرتب.
یک قضیه حدی برای متغیرهای غیر مستقل
46241
مشتریان طبق فرآیند پواسون با نرخ 6 در ساعت به بانک می‌رسند. با توجه به اینکه 10 مشتری وارد شده‌اند، تابع جرم احتمال (شرطی) تعداد مشتریانی را که در 20 دقیقه اول وارد شده‌اند به وضوح بیان کنید (همراه با یک مدرک). در یک ساعت اول. من این کار را انجام دادم: $$ P(X_{\frac{1}{3}} = x | X_1 = 10) $$ از تعریف احتمال مشترک، ما $$ P(X_{\frac{1}{3) را می‌دانیم }} = x، X_1 = 10) = P(X_{\frac{1}{3}} = x | X_1 = 10) P(X_1 = 10)$$ تنظیم مجدد می دهد: $$ P(X_{\frac{1}{3}} = x | X_1 = 10) = \frac{ P(X_{\frac{1}{3}} = x، X_1 = 10)} { P(X_1 = 10)}$$ اجازه دهید ابتدا $P(X_{\frac{1}{3}} = x , X_1 = 10)$ را محاسبه کنیم: این می شود: $$ P(X_{\frac{1}{3}} = x، X_{\frac{2}{3}}= y) = P(X_{\frac{1}{3}} = x) P(X_ {\frac{2}{3}} = y) \hspace{1cm} y = 10 - x $$ با استفاده از فرمول پواسون، دریافت می‌کنید: $$P(X_{\frac{1}{3}} = x ) = \frac{e^{-2}2^x}{x!} \hspace 2cm P(X_{\frac{2}{3}}= y) = \frac{e^{-4}4^y }{y!}$$ و بنابراین $$ P(X_{\frac{1}{3}} = x , X_{\frac{2}{3}}= y) = e^{-6} \frac{2^x4^y}{x!y!} $$ همچنین، با استفاده از فرمول پواسون، دریافت می‌کنیم: $$ P(X_1 = 10) = \frac{e^{-6}6^{10} }{10!} $$ بنابراین $$\frac{ P(X_{\frac{1}{3}} = x , X_1 = 10)} {P(X_1 = 10)} = \frac{e^{-6} \frac{2^x4^y}{x!y!}}{\frac{e^{-6}6^{10}}{10!}} $$ که من $$ \frac{10 شوید! 2^x 4^y}{x!y! 6^{10}}$$ اما در پاسخ ها می گوید که باید $$ \binom{10}{x} \left( \frac{1}{3} \right)^x \left( \frac{ 2}{3} \right)^{10 - x} $$ چرا اینطور است؟
یافتن PMF احتمال شرطی، فرآیند پواسون. نمی فهمم 10^6 دلار کجا می رود
49210
عذرخواهی من این است که این خیلی ابتدایی است که نمی توان در اینجا پرسید. اگر به اینجا تعلق ندارد، کسی می تواند جای مناسب تری را برای پرسیدن معرفی کند؟ کمی زمینه من در کلاس ارشد آزمایشگاه فیزیک در کالج هستم. اولین آزمایش ما شامل انداختن تاس و محاسبه احتمال پرتاب کردن هر صورت بود. (هدف صرفاً تمرین در کاربرد و درک تجزیه و تحلیل آماری است.) من تصمیم گرفتم که دو تاس را جداگانه پرتاب کنم تا آزمایش کنم که آیا دو تاس یکسان هستند یا خیر. می دانم که اکنون باید نمونه های بیشتری می گرفتم، اما در حال حاضر قادر به جمع آوری داده های بیشتری نیستم. من در ابتدا داده هایم را در آزمایش های 20 رول ثبت کردم و برای هر قالب 15 آزمایش انجام دادم. سپس تعداد هر چهره را در هر آزمایش محاسبه کردم و بر 20 تقسیم کردم تا تخمینی از احتمال در هر آزمایش به دست آید. سپس این احتمالات را در تمام آزمایش‌ها میانگین گرفتم و خطای استاندارد (محاسبه شده به عنوان انحراف استاندارد نمونه) را محاسبه کردم. با این حال، این خطای استاندارد بسیار بزرگ را ایجاد کرد، از حدود 40٪ تا 60٪ برای هر چهره. در اینجا داده‌های Die 1 آمده است. میانگین چهره. احتمال خطا درصد خطا 1 0.13 0.08 59.6 2 0.20 0.08 39.0 3 0.18 0.09 47.9 4 0.13 0.08 64.8 5 0.18 0.10 57.15 6. با گروه بندی آزمایش ها به مجموعه های بزرگتر، خطا کاهش یافت. یعنی، آزمایش‌ها را از 1 تا 5، 6 تا 10، و 11 تا 15 گروه‌بندی کردم و احتمال به دست آوردن هر چهره را به عنوان تعداد چهره در آزمایش گروهی تقسیم بر 100 محاسبه کردم. این مقادیر زیر را برای Die 1: Face Ag. احتمال خطا درصد خطا 1 0.13 0.03 26.6 2 0.20 0.01 5.0 3 0.18 0.04 20.0 4 0.13 0.06 43.5 5 0.18 0.06 32.18 0.06 32.18 6. اشتباه است یا تغییر در میانگین ها و کاهش خطا قابل توضیح است؟ آیا با استفاده از نمونه های بزرگتر آزمایش گروهی کاری انجام می دهم که نتایج خود را باطل کند؟ در صورت تمایل می توانم داده های اصلی خود را با فرمت CSV ارائه دهم و البته اگر چیزهایی می گویم که منطقی نیست، آماده اصلاح هستم. **ویرایش:** اشتباهی را در محاسباتم با گروه های 20 رول پیدا کردم و میانگین ها اکنون همان طور که انتظار می رود یکسان است. با این حال، این سؤال را حل نکرده است که چرا وقتی داده‌های خود را در تعداد بیشتری از نمونه‌ها گروه‌بندی می‌کنم، خطا بسیار بزرگ‌تر است، که واقعاً سؤالی بود که می‌خواستم بپرسم. بله، می‌دانم که می‌توانم به سادگی این مشکل را با استفاده از ابزارهای دیگر بررسی کنم، اما هنوز در تعجبم که چرا خطا/انحراف استاندارد کاهش می‌یابد. من فکر می کنم که این سوال به طور کلی تر از این سوال احتمالی خاص اعمال می شود. یا رویکرد تلاش برای تخمین احتمال از این طریق کاملاً نامعتبر است؟
گروه بندی آزمایشات خطای استاندارد را کاهش می دهد؟
21347
بنابراین، به عنوان مثال، بیایید بگوییم که من اطلاعاتی در مورد یک حراج کوچکی دارم که انجام دادم. فرض کنید من دارم یک ماشین می فروشم و 5 نفر مناقصه دارند و من اطلاعاتی در مورد هر یک از پیشنهادات آنها دارم، چه کسی برنده شد، چه کسی شرکت کرد و ... حالا فرض کنید من 5 ماشین مختلف دارم، بنابراین حراج 5 بار جداگانه انجام می شود. به عنوان مثال، در یک حراج، هر 5 خریدار شرکت می کنند در حالی که در حراج دیگری فقط 3 خریدار شرکت می کنند. من در تعجبم که چگونه می توان این وضعیت را برای درآمد مورد انتظار مدل کرد (متغیر پیوسته -> مدل خطی)، در حالی که در نظر گرفتن خریدارانی که حضور داشتند. من داده‌های هر 5 حراج را با هم مدل‌سازی می‌کنم، اما می‌خواهم حضور یا عدم حضور خریدار در یک حراج را حساب کنم. آیا این موضوع صرفاً شامل یک متغیر ساختگی برای هر خریدار است که در آن 0 وجود ندارد و 1 وجود دارد؟ یا راه حل جایگزینی مانند مدل های درختی یا سایر ابزارهای پیشرفته وجود دارد که می تواند برای بررسی این مشکل استفاده شود. ویرایش 1: من بیش از 5 حراج دارم، اما این عدد را برای ساده نگه داشتن همه چیز مشخص کردم. ویرایش 2: من علاقه مند به شنیدن راه حل های غیر واقعی برای این مشکل هستم.
حسابداری برای حضور متغیر در رگرسیون؟
2794
من می دانم که اهمیت شیب یک رگرسیون خطی LMS را می توان با استفاده از ضریب تعیین r2 و جستجوی مقدار مناسب در جدول F محاسبه کرد. با این حال، من به این فکر می‌کردم که شاید با جایگزین کردن رگرسیون خطی LMS با یک تناسب خط مستقیم وسط مکرر، و شاید حتی جایگزین کردن مقدار متوسط ​​مورد استفاده برای محاسبه r2 با مقدار میانه داده‌ها، این «قوی‌تر» را تقویت کنم. آیا دلیلی وجود دارد که این یک رویکرد معتبر نباشد؟ شاید مقادیر در یک جدول F برای مثال با استفاده از LMS و میانگین ها پیش بینی شده باشند؟
اهمیت شیب مناسب خط مستقیم
56929
فرض کنید من یک مجموعه داده $X = \{x_i\} \supset \mathbb{R}^n$ دارم که برای آن فرض می‌کنم $x_i = y_i + \sigma(y_i)$ برای برخی از متغیرهای مشاهده نشده $\{ y_i \}$ . یعنی من معتقدم که داده های من در معرض نویز ناهمسان است. از آنچه من می بینم، این روش هایی مانند تحلیل عاملی را رد می کند. من در حال حاضر به دنبال روش هایی برای تخمین $p(y_i|x_i)$ در داده های خود هستم. آیا این وضعیت نامی دارد؟ آیا رویکردهای متعارفی وجود دارد؟
گرفتن یک باور پسین از مشاهدات پر سر و صدا
56925
من می خواهم فراشناخت (به عنوان یک ساختار کلی و در هر خرده مقیاس، (دانش شناخت (KC)) و تنظیم شناخت (RC)) رشد در کودکان را با استفاده از پرسشنامه Jr MAI اندازه گیری کنم. Jr MAI دارای دو نسخه، نسخه A (برای 9-11) و B (برای 13-15)، نسخه A دارای مقیاس لیکرت 3 امتیازی و نسخه B دارای مقیاس لیکرت 5 امتیازی است و همچنین تعداد سوالات متفاوتی دارند: نسخه A. دارای 6 مورد KC / RC در حالی که B دارای 8 مورد KC / RC است. بنابراین چگونه می توانم میانگین (گروه A (10-11) و B (13-14)) را برای دیدن تغییرات رشدی (فراشناخت/KC/RC) مقایسه کنم، آیا روش استانداردی با مرجع وجود دارد؟ سوال دوم من: آیا می توان از انواع مختلف نمرات متغیرهای مختلف (به عنوان مثال نمره خام، نمره مقیاس لیکرت ترکیبی، نمره استاندارد از آزمون دستی استاندارد) در تحلیل های بعدی مانند رگرسیون، همبستگی یا حتی در تحلیل میانجی چندگانه (وابسته و میانجی) استفاده کرد. ?.
معادل سازی مشکل با ابزاری که دو نسخه دارند
57039
من در حال حاضر با داده‌های بیان ژن کار می‌کنم که در آن تعدادی ژن (متغیرها) روی تعدادی نمونه اندازه‌گیری شده‌اند. من نمی‌توانم مجموعه آمار و تجسم‌سازی را که داریم درک کنم، بنابراین شروع به بررسی آموزش کردم و به بیت زیر رسیدم: > شما یک برش کمتر برای واریانس تعیین می‌کنید. می توانید مقدار را وارد کنید، > یا از نوار لغزنده استفاده کنید. مقدار نسبت به واریانس متغیر > با بیشترین واریانس است. واریانس بر روی نمونه های فعال > محاسبه می شود. > > مثال: اگر مقدار 0.1 را انتخاب کنید، تمام متغیرهایی که دارای > واریانس σ بزرگتر یا مساوی 0.1 هستند ·σ_max نگهداری می شوند، که σ_max > واریانس متغیر با بیشترین واریانس است. می‌دانم که ممکن است این سؤال بسیار اساسی باشد، اما چرا می‌خواهم متغیرهایم را تنها بر اساس تغییر فیلتر کنم؟ آنچه من می خواهم بدانم این است که کدام متغیرها تفاوت بین نمونه ها را توضیح می دهند (که فرض می شود به چند شرایط مختلف بیولوژیکی تعلق دارند)
منطق/انگیزه پشت پیش فیلتر کردن داده ها بر اساس واریانس چیست؟
22924
من یک مبتدی در آمار هستم و خودم از نظریه اطلاعات، استنتاج و الگوریتم های یادگیری نوشته دیوید مک کی مطالعه می کنم. من با یکی از سؤالات به دیوار برخورد کردم، و فکر می کردم آیا یکی از شما می تواند آنقدر مهربان باشد که مرا در مسیر درست راهنمایی کند. مسلماً، عنوان من ممکن است اشتباه یا کاملاً گمراه کننده باشد - اگر متوجه شدید، لطفاً به من بگویید چه عنوانی برای این سؤال بهتر بود! مثالی که سؤالات بر اساس آن استوار است به شرح زیر است: > بیل یک سکه خمیده را N بار پرتاب می کند و دنباله ای از سر و دم به دست می آید. ما > فرض می کنیم که سکه hte دارای احتمال fH بالا آمدن سر است. ما نمی دانیم > fH. اگر سرهای nH در پرتاب های N رخ داده باشد، احتمال > توزیع fH چقدر است؟ با توجه به nH سر در N پرتاب، احتمال اینکه نتیجه N+1 یک > سر باشد چقدر است. سوال این است (این تمرین 2.8 در صفحه 30 است): > با فرض یکنواخت قبل از fH، P(fH) = 1، مشکل را در مثال حل کنید > (در بالا داده شد). توزیع خلفی fH را ترسیم کنید و احتمال > را محاسبه کنید که نتیجه N+1 یک سر برای > > 1 باشد. N = 3 و nH = 0. > 2. N = 3 و nH = 2. > 3. N = 10 و nH = 3. > 4. N = 300 و nH = 29. > او همچنین بیان می کند: > انتگرال بتا برای شما مفید خواهد بود: (از آنجایی که من تازه کار هستم، حدس می زنم فقط می توانم > یک پیوند به تصویر بدهم - متاسفم): > http://i.stack.imgur.com /7MxQt.png اکنون حدس می‌زنم که سختی من به این واقعیت مربوط می‌شود که من با آمار تازه کار هستم و هنوز هم اصطلاحاً این اصطلاح را یاد می‌گیرم. بنابراین اجازه دهید سوال خود را به چند قسمت تقسیم کنم: 1. وقتی می گوید توزیع خلفی fH را ترسیم کنید دقیقاً منظورش از آن چیست؟ آیا منظورش تحت اللفظی است؟ (بله...این چقدر من بی معرفتم...) 2. چون به ما fH نمیده انتظار داره خودمون به این نتیجه برسیم؟ آیا چیزی شبیه (fH + 1)/(N + 2) خواهد بود؟ 3. اول اینکه انتگرال بتا رو چطوری بخونم (منظور از Fa,Fb,pa دقیقا چیه) و دوم اینکه چقدر برای این مشکل مفیده؟ همانطور که گفتم، من یک مبتدی هستم، و سعی می کنم تا آنجایی که او گفته است، پیشرفت کنم، اما فکر می کنم در این مرحله به کمک نیاز دارم. پیشاپیش متشکرم
توزیع پسین و محاسبه احتمال یک رویداد آینده
57034
من از R برای محاسبه رگرسیون لجستیک با بسیاری از متغیرهای مستقل برای یک برنامه وب Ruby on Rails استفاده کرده ام. با این حال، دیگر نمی توانم با استفاده از RPostgreSQL داده ها را از پایگاه داده به R وارد کنم. میزبان وب اجازه اتصال ناامن به پایگاه داده را متوقف کرده است. نکته این است که یا باید یک میزبان وب جدید تهیه کنم یا الگوریتم رگرسیون لجستیک خودم را در روبی بنویسم. Ruby احتمالاً بهترین زبان برنامه نویسی برای این نوع چیزها نیست، اما من واقعاً انتخابی ندارم. آیا الگوریتمی برای اجرای رگرسیون لجستیک چندگانه وجود دارد؟
الگوریتم رگرسیون لجستیک در روبی
60596
از ویکی‌پدیا > تحت آزمون آماری Wald، برآورد حداکثر احتمال > $\hat\theta$ پارامتر(های) مورد علاقه $\theta$ با > مقدار پیشنهادی $\theta_0$ مقایسه می‌شود، ... در تک متغیره در مورد، آمار Wald > $$ \frac{ ( \widehat{ \theta}-\theta_0 )^2 }{\operatorname{var}(\hat است \theta > )} $$ ... که در آن $\operatorname{var}(\widehat\theta)$ واریانس > تخمین حداکثر درستنمایی است. سوال من در مورد چگونگی تخمین $\operatorname{var}(\widehat\theta)$ است، یعنی واریانس MLE $\hat{\theta}$؟ 1. همان مقاله می‌گوید > یک تخمین معقول از واریانس برای MLE را می‌توان با > $\frac{1}{I_n(\widehat\theta)}$ ارائه کرد، که $I_n$ اطلاعات فیشر از پارامتر است. . 2. من به راه دیگری فکر می کنم. از آنجایی که $\operatorname{var}(\widehat\theta)$ $f(n, \theta, \eta)$ است، یعنی تابعی از اندازه نمونه $n$ و مقدار واقعی $\theta$ پارامتر پارامتر علاقه و برخی پارامترهای دیگر $\eta$ (زیرا $\theta$ به تنهایی ممکن است به طور کامل نتواند توزیع نمونه را مشخص کند)، آیا می توانیم ابتدا MLEs $\theta$ و $\eta$ را به عنوان تخمین بزنیم. $\hat{\theta}$ و $\hat{\eta}$، و سپس $f(n, \hat{\theta}, \hat{\eta})$ MLE $\operatorname{var خواهد بود. }(\widehat\theta)$ به دلیل همواری MLE؟ 3. آیا دو روش فوق یکسان خواهد بود (در برخی موارد مانند زمانی که مدل آماری نمونه توزیع های نرمال است؟) با تشکر و احترام!
واریانس MLE را تخمین بزنید
91159
من در زمینه پیش بینی مبتدی هستم. می‌خواهم بدانم بهترین ابزاری که می‌توان برای پیش‌بینی مقادیر آینده در یک سری زمانی با استفاده از الگوریتم‌های ژنتیک استفاده کرد، کدام است. آیا ابزاری در متلب برای پیش بینی با استفاده از الگوریتم های ژنتیک مشابه nntoolbox اختصاص داده شده به شبکه های عصبی وجود دارد؟ کمک بسیار قدردانی می شود.
پیش بینی سری های زمانی با استفاده از الگوریتم ژنتیک
32813
فقط برای روشن شدن، وقتی منظورم آمار خلاصه است، به میانگین، محدوده چارک میانه، واریانس، انحراف استاندارد اشاره می کنم. هنگام جمع بندی تک متغیره ای که **قطعی یا کیفی** است، با در نظر گرفتن هر دو حالت **اسمی** و **ترتیبی**، آیا یافتن میانگین، میانه، محدوده چارک، واریانس و انحراف معیار منطقی است؟ اگر اینطور است، با اینکه شما یک متغیر پیوسته را خلاصه می‌کنید متفاوت است و چگونه؟
از چه آمار خلاصه ای برای متغیرهای طبقه ای یا کیفی استفاده کنیم؟
46240
من نمی‌دانم چند مرحله برای انتخاب متغیرها برای `lars()` لازم است تا زمانی که الگوریتم به تناسب اشباع پیش رود (مخصوصاً با استفاده از بسته `lars` در R`)؟ کسی میتونه راهنماییم کنه؟
حداکثر پله ها بر حسب لار
96830
یک آزمون آماری مناسب برای تعیین بهترین مدل برای دو مدل خطی رقیب چیست؟ هر دو مدل از متغیرهای مستقل یکسان (IVs) استفاده می کنند. با این حال، برخی از متغیرهای مستقل در زمان های مختلف اندازه گیری می شوند. در مدل اول، IV ها یک بازه زمانی نسبت به متغیر وابسته (DV) عقب می اندازند و در مدل دوم، IV ها مدت زمان بیشتری نسبت به DV عقب می افتند. من علاقه مندم که تعیین کنم کدام دوره تاخیری برای استفاده مناسب تر است. DV برای هر دو مدل در یک دوره زمانی اندازه گیری می شود. در نمادها: $$ y_{i,t} = x_{i,t-1} + y_{i,t-1} + z_{i,t-1} + \epsilon_i $$ در مقابل $$ y_{i, t} = x_{i,t-2} + y_{i,t-2} + z_{i,t-2} + \epsilon_i $$ آیا AIC، BIC و غیره برای این؟
آزمایش بین دو مدل خطی رقیب با متغیرهای مستقل با تاخیر متفاوت
52716
پیشاپیش عذرخواهی می کنم... قبل از اینکه به سوال من برسید مطالب زیادی برای خواندن وجود دارد. شاید می‌توانستم یکی دو کلمه را اینجا و آنجا ذخیره کنم... اما در کل، پیش‌زمینه (فکر می‌کنم) برای بهتر نشان دادن موضوع لازم بود. خوب، من اخیراً SPSS را برای پشتیبانی از یک تحلیل تحقیقاتی آینده خریداری کردم. من قبلاً از SPSS استفاده نکرده‌ام و می‌خواهم راهنمایی/نشان‌دهنده‌هایی برای عادی‌سازی دریافت کنم. پس زمینه: به عنوان بخشی از این تحقیقات دانشگاهی، قصد دارم در چند هفته آینده یک نظرسنجی را منتشر کنم. برای متغیر وابسته من (و فقط متغیر وابسته)، ابتدا یک ماتریس 2 ستونی برای پاسخ دهندگان نظرسنجی ارائه می کنم که در آن ستون اول نام یک فرآیند (در بین n تعداد ردیف) و ستون دوم شامل یک چک باکس است. فرض کنید من 10 ردیف پیش‌فرض (یعنی فرآیندها) دارم که شرکت‌کنندگان هر فرآیندی (در ستون 2) را که معتقدند تیمشان در آن مشارکت دارد بررسی می‌کنند. مثال: شرکت‌کننده شماره 1 در نظرسنجی ممکن است ردیف‌ها/فرآیندها را بررسی کند: 1، 3، 7 شرکت‌کننده نظرسنجی شماره 2 ممکن است ردیف‌ها/فرآیندها را بررسی کند: 1، 4 شرکت‌کننده نظرسنجی شماره 3 ممکن است ردیف‌ها/فرآیندها را بررسی کند: 5، 7، 8، 9، 10 و و به همین ترتیب... با استفاده از منطق انشعاب در نظرسنجی الکترونیکی، فرآیندهای انتخابی آنها (به عنوان مثال، 1، 3، 7) به سؤالات بعدی منتقل می شود. مضامین آنها به شرح زیر است: سؤال شماره 1 نیاز به نشان دادن فرکانس برای تعداد دفعات تغییر یک فرآیند دارد. یک شرکت‌کننده در نظرسنجی باید برای هر فرآیند یک مقدار را انتخاب کند - در مقیاس 1 تا 7. سؤالات شماره 2، 3 و 4 چیز دیگری می پرسد (توجه داشته باشید: برای هدف این سؤال وبلاگ، مهم نیست که سؤالات واقعی چه خوانده می شوند). برای سوال دوم تا چهارم، شرکت کنندگان در نظرسنجی باید پاسخ های بله یا خیر را ارائه دهند. (... که در آن بله با 1 و نه به عنوان 0 در SPSS کد می شود). تا اینجای کار خیلی خوبه؟ ** شکست ** پس از تکمیل نظرسنجی (من برای چند صد شرکت کننده تلاش می کنم)، داده ها در SPSS آپلود خواهند شد. در حال حاضر، دوباره، تمام سوالات بالا مربوط به یک متغیر وابسته است. بر اساس پاسخ‌های شرکت‌کنندگان در نظرسنجی، می‌خواهم موارد زیر را ایجاد کنم: الف) امتیاز فردی ب) امتیاز کلی سازمانی بدیهی است که ضرب در ستون‌ها کارساز نخواهد بود... به محض اینکه، به عنوان مثال، به عنوان یک شرکت‌کننده «خیر» را انتخاب کرد. در هر دو سوال 2، 3، و / یا 4، آن فرآیند به عنوان صفر نمره داده می شود. من آن را نمی خواهم! بنابراین، افزودن احتمالاً انتخاب بهتری است. نمونه ای از نحوه امتیازدهی شرکت کننده نظرسنجی شماره 1: 1: | 5 | 1 | 0 | 1 | = 7 3: | 2 | 1 | 1 | 0 | = 4 7: | 1 | 0 | 0 | 1 | = 2 بنابراین، امتیاز شرکت‌کننده #1 = 13 (7 + 4 + 2) از سوی دیگر، شرکت‌کننده شماره 3 در نظرسنجی ممکن است امتیاز داشته باشد: 5: | 3 | 1 | 0 | 0 | = 4 7: | 4 | 0 | 1 | 0 | = 5 8: | 2 | 0 | 0 | 0 | = 2 9: | 7 | 1 | 1 | 1 | = 10 10: | 3 | 1 | 0 | 1 | = 5 بنابراین، نمره شرکت‌کننده #3 = 26 (4، 5، 2، 10، 5) اکنون، نمره مثال شماره 3 شرکت‌کننده 26 دو برابر نمره مثال شماره 1 13 است. این در درجه اول به دلیل تعداد بیشتر است. از پروژه‌ها/فرآیندهایی که سومین شرکت‌کننده در نظرسنجی درگیر آن است. همانطور که سعی می‌کنم شکلی از «سلامت» سازمان را اندازه‌گیری کنم، کل کل بزرگ‌تری امتیاز (به دست آمده از طریق تعداد بیشتری از فرآیندها) می تواند به عنوان یک عامل کمک کننده به سلامت سازمان در نظر گرفته شود. در این مثال، این اشتباه خواهد بود! به عبارت دیگر، تنها امتیازهای بزرگتر در سطح فرآیند فردی [(1 در مقابل 3 در مقابل 7) یا (5، 7، 8، 9، 10) ممکن است نشان دهنده یک فرآیند/سازمان ناسالم باشد. بنابراین، فرآیند شماره 9 به خودی خود (با امتیاز 10) ممکن است کمک کننده باشد. بنابراین، سوال من به شرح زیر است: در SPSS، چگونه می توانم داده ها را عادی سازی کنم تا تفاوتی در انتخاب تعداد فرآیندهای یک شرکت کننده در نظرسنجی ایجاد نشود (و در نتیجه داده ها را کج کند)؟ آیا باید فقط بر تعداد فرآیندها تقسیم کنم؟ بنابراین، 13/3 = 4.333 در مقابل 26/5 = 5.2 اگر چنین است، چگونه می توانم آن را در SPSS انجام دهم؟ امیدوارم موارد فوق منطقی باشد. متشکرم، EEH
برای عادی سازی داده ها در SPSS به کمک نیاز دارید
108602
فرض کنید مقدار R برابر با 0.5 است و بنابراین مقدار R^2$ آن 0.25 است و مقدار p <0.001 است. (همه از طریق تابع سهام cor.test در R). آیا راهی برای جداسازی موارد/مشاهداتی وجود دارد که تنوع آنها با $R^2$ من بیشتر توضیح داده شده است؟ هدف من دو دسته است، گروهی را که این همبستگی برای آن به حداکثر رسیده است را بیابم و به جای این، گروه دیگر را برای تعاملات جالب دیگر به طور جداگانه بررسی کنم. با عرض پوزش برای عبارت نادرست در اینجا، واضح است که من کاملاً در این زمینه متخصص نیستم، و از این رو کاملاً نمی دانم چگونه یا چه سؤالی بپرسم، اما از شما برای هر راهنمایی که می توانید ارائه دهید متشکرم.
مراحل بعدی پس از بدست آوردن ضریب پیرسون معنی دار