_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
25311 | من یک مجموعه داده عظیم (33K) دارم که هر کدام به صورت بیت بردار 275 بعد نمایش داده می شوند. اساساً مجموعه داده های من را می توان به عنوان یک ماتریس 33000 x 275 نشان داد. من میخواهم این بیتبردارها را خوشهبندی کنم. من خوشهبندی سلسله مراتبی پیوند را روی یک مجموعه داده کوچک، 3000 x 275 امتحان کردم، نتیجه امیدوارکننده است. من میدانم که الگوریتم خوشهبندی سلسله مراتبی پیوند تک مقیاسپذیر نیست زیرا پیچیدگی زمانی $O(n^2)$ است. من در حال برنامه ریزی برای اعمال رویکرد تقسیم و غلبه هستم، یعنی مجموعه داده را به تکه هایی با اندازه مساوی تقسیم کنم و هر تکه را به صورت جداگانه خوشه بندی کنم و در نهایت تکه های خوشه ای را بر اساس فاصله ادغام کنم (اگر: $d(C1,C2)< t$; سپس: $C1$ و $C2$ را ادغام کنید). پیچیدگی زمانی رویکرد جدید من $O(p)O(1) + O(pq)$ است، که $p$ تعداد تکهها و $q$ میانگین تعداد خوشهها در هر تکه است. توجه: من فرض میکنم که وقتی خوشهبندی سلسله مراتبی اعمال میشود، هر تکه زمان و ثابت آن برای همه تکهها یکسان خواهد بود، بنابراین $O(n^2)$ تبدیل به $O(1)$ میشود. من می خواهم بدانم که آیا رویکرد خوشه بندی فوق امکان پذیر و کارآمد است یا خیر. یا آیا در بکارگیری رویکرد تقسیم کن برای خوشهبندی اشکال منطقی وجود دارد | رویکرد تقسیم و حکومت کن برای خوشهبندی سلسله مراتبی |
89510 | من مجموعه داده ای دارم که دارای یک نتیجه باینری، یک پیش بینی باینری و یک عامل نامرتب با 7 سطح و 120 موضوع است. از هر یک از 120 آزمودنی یک سوال دودویی در مورد هفت موضوع پرسیده شد، از این رو عامل نامرتب 7 سطحی است. بنابراین من در مجموع 840 مشاهده دارم. هر یک از 840 مشاهده دارای یک پیش بینی باینری و یک نتیجه باینری است. من میخواهم نتیجه باینری را به عقب برگردانم، البته بر اساس پیشبینیکننده باینری. نتیجه کمی پیچیده است. من از مک در مقابل رایانه های شخصی به عنوان مثال استفاده خواهم کرد. از مردم می پرسند: به نظر شما مک ها بهتر هستند یا رایانه های شخصی بهتر هستند؟ که به عنوان 1 برای ترجیح دادن مک ها، و 0 برای ترجیح دادن رایانه های شخصی ثبت می شود. سپس از آنها پرسیده می شود که آیا نظر شما بر اساس حقیقت عینی است یا نظر ذهنی؟ به عبارت دیگر، آیا فکر می کنید عینی (1) است یا ذهنی (0). سپس آخرین سوال این است که در 20 سال آینده، آیا مردم فکر می کنند مک ها بهتر هستند یا مردم فکر می کنند رایانه های شخصی بهتر هستند؟ دوباره، 1 برای مک کدگذاری می شود. سپس یک متغیر جدید ایجاد می شود. اگر نظر فعلی آنها با آنچه که فکر می کنند نظر آینده خواهد بود مطابقت داشته باشد، متغیر 1 است. مطالعات آزمایشی قبلی نشان داد که مردم تمایل دارند باور کنند که موضع آنها در مورد مسائل آینده خواهد بود (... می دانم، یک یافته کاملاً شهودی ... مردم تمایل دارند فکر کنند که حق با آنهاست). نتیجه آن متغیر است، خواه نظر فعلی آنها با آنچه فکر می کنند آینده خواهد بود موافق باشد. بنابراین نکته این است که ببینیم آیا مردم چگونه چیزها را ذهنی در مقابل عینی میبینند، پیشبینی میکنند که آیا تصورشان از آینده مطابق با باورهایشان است یا خیر. Mac vs PC تنها نمونه ای از یک مشکل است. در واقعیت، هفت موضوع وجود دارد، از کنترل اسلحه، تا سقط جنین و غیره، و هر یک از این هفت موضوع در محدوده «عینیت» قرار میگیرند که بر اساس نحوه پاسخ شرکتکنندگان به سؤال عینی ارائه میشود. * شناسه شرکت کننده: 120 عامل * عینیت: پیش بینی باینری 0 و 1 * نتیجه: نتیجه باینری 0 و 1 * مشکل: متغیر سطح 7 عامل بنابراین من چیزی شبیه به این را امتحان کردم: # کدنویسی ساختگی برای همه شرکتکنندگان تضادها (داده$Particpant) <- contr.treatment(120) #$ # کدگذاری انحراف برای مقایسه با میانگین کلی تضادها(data$Issue) <- contr.sum(7) model <- glmer(نتیجه ~ عینیت*مسئله + (عینیت*مسئله|شرکت کننده)، خانواده = دوجمله ای، داده = داده) این یک دسته از هشدارها را می دهد. من اساساً میخواهم ببینم آیا پیشبینیکننده من نتیجه را بر اساس هفت موضوع پیشبینی میکند، در حالی که یک اثر تصادفی برای شناسه شرکتکننده اضافه میکند. | رگرسیون لجستیک با اندازه گیری های مکرر |
25319 | اجازه دهید $X$ یک متغیر تصادفی عادی چند متغیره با میانگین و کوواریانس شناخته شده باشد و $Y$ متغیر تصادفی دیگری باشد. ما مطمئناً می دانیم $\|X−Y\|_2\le C$ که در آن $C$ یک ثابت شناخته شده است. چند سوال: آیا امکان توزیع عادی $Y$ وجود دارد؟ آیا می توانیم در مورد میانگین و/یا کوواریانس آن چیزی بگوییم؟ اگر میانگین $Y$ را بدانیم، آیا می توانیم در مورد کوواریانس آن چیزی بگوییم؟ | شرایط متغیر تصادفی عادی |
110111 | من متخصص نیستم، اما سعی می کنم یک مدل رگرسیون چندگانه اثر ثابت را در STATA اجرا کنم. داده های من داده های تابلویی است و حدود 12000 مشاهدات، 348 منطقه در طول 36 ماه دارد. متغیر وابسته من پیوسته است، اما چندین ماه است که مقدار صفر وجود دارد (این ماه ها چیزی نصب/خرید نشده است). داده ها تقریباً به طور مساوی در ماه های من پخش می شوند، اما من هنوز حدود 9000 مشاهده با مقدار صفر دارم. بنابراین، دادههای من کج شده است و من در ابتدا میخواستم یک گزارش طبیعی را با آن اجرا کنم، اما هیستوگرام من افتضاح به نظر میرسد، با یک سنبله بزرگ. آیا باید رگرسیون را بدون ورود به سیستم اجرا کنم؟ اگر آن را وارد کنم یا نه، آیا نتایج من ناقص خواهد بود؟ من در مورد Zero-Inflated Poisson Regression به عنوان یک گزینه خوانده ام، اما من واقعاً با شمارش سر و کار ندارم. همچنین، من احساس میکنم که مقادیر صفر دارای اهمیت هستند و نباید این مقادیر را حذف کنم. من از هر گونه کمکی سپاسگزار خواهم بود، متشکرم. | رگرسیون چندگانه با مقادیر زیاد صفر در DV، داده های کج |
328 | من متوجه هستم که تجزیه و تحلیل آماری داده های مالی موضوع بسیار بزرگی است، اما دقیقاً به همین دلیل است که هنگام تلاش برای ورود به دنیای تجزیه و تحلیل مالی، لازم است سؤال خود را بپرسم. از آنجایی که در این مرحله تقریباً چیزی در مورد موضوع نمی دانم، نتایج جستجوهای من در گوگل بسیار زیاد است. بسیاری از مسابقات از یادگیری ابزارهای تخصصی یا زبان برنامه نویسی R حمایت می کنند. در حالی که در صورت لزوم این موارد را یاد خواهم گرفت، ابتدا به کتاب ها، مقالات یا هر منبع دیگری که روش های مدرن تجزیه و تحلیل آماری را به طور خاص برای داده های مالی توضیح می دهد علاقه مند هستم. من فرض میکنم روشهای بسیار متنوعی برای تجزیه و تحلیل دادهها وجود دارد، بنابراین در حالت ایدهآل به دنبال یک مرور کلی از روشهای مختلف هستم که عملاً قابل اجرا هستند. من چیزی را میخواهم که از نمونههای دنیای واقعی استفاده کند که یک مبتدی قادر به درک آن باشد، اما خیلی ساده نیست. منابع خوب برای یادگیری در مورد تجزیه و تحلیل آماری داده های مالی چیست؟ | منابعی برای یادگیری در مورد تجزیه و تحلیل آماری داده های مالی |
92856 | من از R و «MCMCpack» برای انجام یک تحلیل بیزی از برخی دادههایی که دارم استفاده میکنم. من توزیع های پسینی (postDist) را بر روی میانگین برخی از پارامترها (y1، y2،y3) با استفاده از MCMCregress (postDist <\- MCMCRegress(x ~ y + z،...) ایجاد کرده ام. اکنون، من میخواهم آن توزیعهای پسین را روی میانگینها بگیرم و یک توزیع پسینی را بر روی تفاوت بین میانگینها ایجاد کنم. آیا انجام این کار در تحلیل بیزی معقول است، و اگر چنین است، چگونه آن را انجام می دهید (چه در تئوری و چه در R)؟ | محاسبه خلفی تفاوت با توجه به خلف دو میانگین |
25318 | من 2 تا سوال دارم 1) چگونه می توانم p.value برای 2 تابع خود داشته باشم؟ فرضیه من این است که بین عملکردم و داده هایم همبستگی وجود دارد. 2) چگونه می توانم فواصل اطمینان برای 2 عملکرد خود داشته باشم؟ library(ggplot2) g <- تابع (x, a,b,c) a * (1-exp(-(x-c)/abs(b))) X1 <- c(129.08,109.92,85.83,37.72) Y1 < - c(0.7،0.5،0.39،-1.36) dt1 <- data.frame(x1=X1,y1=Y1) model1 <- nls(Y1 ~ g(X1, a, b, c), start = list (a=0.5, b=60, c=50), control=nls .control(maxiter = 200)) ggplot(data = dt1,aes(x = x1, y = y1)) + theme_bw() + geom_point() + geom_smooth(data=dt1, method=nls, formula=y~g(x, a, b, c), se=F, start=list(a=0.5, b=60, c=50 )) f <- تابع (x، a، b، c) a*(x^2)+b*x+c X2 <- c(589.62،457.92،370.16،295.98،243.99،199.07،159.91،142.63، 124.15، 101.98، 87.93، 83.16، 82.4، 82.8، 74. 31، 27.9، 21.24،18.28) Y2 <- c(0.22،0.37،0.49،0.65،0.81،0.83،1،0.81،0.65،0.44،0.55،0.63، 0.65،0.55،0.37،0.32،0.27،0.22،0.17،0.14) dt2 <- data.frame(x2=X2,y2=Y2) model2 <- nls(Y2 ~ f(X2, a, b, c), start = list(a=-1، b=3، c=0)،control=nls.control(maxiter = 200)) ggplot(data = dt2,aes(x = x2, y = y2)) + theme_bw() + geom_point() + geom_smooth(data=dt2, method=nls, formula=y~f(x, a , b, c), se=F, start=list(a=-1, b=3, c=0)) پیشاپیش از شما متشکرم | چگونه مقدار p و فواصل اطمینان را برای توابع nls بدست آوریم؟ |
92854 | همکاران من که دارای پیشینه علوم اجتماعی و اپیدمیولوژی بودند، در زمینه رگرسیون حداقل مربعات، رگرسیون لجستیک و تجزیه و تحلیل بقا آموزش دیدند. آنها دوست دارند 95% فواصل اطمینان و مقادیر p را با ضرایب پارامتر ببینند و به ابزارهای پیشبینی فعلی مانند شبکههای عصبی، CART، bagging & boosting و همچنین تکنیکهای رگرسیون جریمهشده بیاعتماد هستند. | چگونه به آرامی اپیدمیولوژیست ها/همکاران بهداشت عمومی را با مدل سازی پیش بینی پیشرفته آشنا کنیم؟ |
95803 | در سری زمانی مالی Tsay، برای یک فرآیند AR(p)، > در ادبیات سری زمانی، **معکوس** دو راه حل (به > معادله مشخصه AR(2)) به عنوان **ویژگی نامیده می شود. > ریشه های مدل AR(2)**. از سایر حوزه های ریاضی که مفهوم معادلات مشخصه نیز وجود دارد، به عنوان مثال. معادلات تفاوت، معادله دیفرانسیل، مقادیر ویژه ماتریس ها، آیا ریشه های مشخصه به عنوان راه حل معادلات مشخصه تعریف نمی شوند؟ اگر بله، آنچه کتاب می گوید بسیار غیرعادی و گیج کننده است. امیدوارم در سری های زمانی زیاد استفاده نشود. | ریشه های مشخصه AR(p) |
8591 | چگونه توزیع احتمال متغیرهای تصادفی پیوسته تحت توابع تبدیل می شود؟ یعنی من یک متغیر تصادفی به نام X دارم که از توزیع نرمال با میانگین 0 و واریانس 1 گرفته شده است. توزیع احتمال مرتبط با sin(X) چیست؟  به طور کلی تر، قوانین تبدیل متغیرهای تصادفی پیوسته چیست؟ اگر PDF و CDF دو متغیر تصادفی X,Y را بدانیم PDF/CDF Z=X*Y چیست؟ Z=X^Y چطور؟ Z = sin(X+Y)+3 چطور؟ آیا سیستم های جبری رایانه ای وجود دارند که بتوانند این را به صورت نمادین محاسبه کنند؟ آیا این به طور کلی امکان پذیر است؟ اگر نه، برای چه دسته ای از توزیع های احتمال و توابع امکان پذیر است؟ توجه: طرح را ببخشید. اینها به وضوح هیستوگرام های پر سر و صدایی هستند و بدیهی است که مقیاس ندارند (مناطق زیر منحنی ها مطابقت ندارند و بنابراین نمی توان هر دو را به یک جمع کرد). با این حال، امیدواریم که طرح موضوع را درک کند. با توجه به توزیع آبی که X را توصیف می کند، من توزیع قرمز را می خواهم که sin(X) را توصیف کند. | عملیات بر روی توزیع احتمال متغیرهای تصادفی پیوسته |
81420 | می دانم که اگر X و Y متغیرهای اسکالر تصادفی باشند، آنگاه: \begin{align*} \mathrm{Var}(X+Y) & = \mathrm{Var}(X) + \mathrm{Var}(Y) + 2\mathrm{Corr}(X,Y)\sqrt{\mathrm{Var}(X)\mathrm{Var}(Y)} \\ & \le \left(\sqrt{\mathrm{Var}(X)} + \sqrt{\mathrm{Var}(Y)}\right)^2 \end{align*} میخواهم بدانم آیا همان نابرابری برای بردارهای تصادفی، یعنی: $X , Y \in \mathcal{R^{n}}$ \begin{align*} \mathrm{Var}(X+Y) & = \mathrm{Var}(X) + \mathrm{Var}(Y) + \mathrm{Cov}(X,Y)+ \mathrm{Cov}(X,Y)' \\ & \le \left( \sqrt{\mathrm{Var}(X)} + \sqrt{\mathrm{Var}(Y)}\right)\left(\sqrt{\mathrm{Var}(X)} + \sqrt{\mathrm{Var}(Y)}\right)' \end{ align*} جایی که **ریشه مربع ماتریس واریانس (معین مثبت) تجزیه Cholesky آن است**. و **نابرابری به این معنی است که تفاوت نیمه معین مثبت است.** به عنوان یک فرضیه اضافی، من این را دارم که هم $\mathrm{Var}(X)$ و هم $\mathrm{Var}(Y)$ **ماتریس های قطری هستند. **. من به دنبال نابرابری های کوشی شوارتز برای ماتریس های واریانس بودم و این را پیدا کردم: \begin{equation} \mathrm{Var}(Y) \ge \mathrm{Cov}(Y,X) \mathrm{Var}(X) ^{-1} \mathrm{Cov}(X,Y) \end{equation} اما نمیدانم چگونه از آن استفاده کنم. خیلی ممنون | نابرابری واریانس برای بردارهای تصادفی |
48982 | مدتی است که با خودهمبستگی فضایی کار میکنم و اکنون سعی میکنم از برآوردگرهای سنتیتری مانند Moran's I یا Geary's C به تخمینگر جدید APLE حرکت کنم. من مقالات لی در مورد APLE و همچنین مرجع در پروژه R را خواندم. اما من هنوز یک چیز بسیار اساسی را از دست می دهم، زیرا هنوز چیزی را متوجه نشده بودم: گفته می شود نتایج آمار APLE یک فرم بسته است اما من متوجه نشدم که کدام است. به عنوان مثال، در حالی که Moran's I can gom از -1 به 1 است، نتوانستم مرزهای احتمالی آمار APLE را بفهمم. جالبتر اینکه، من آزمایشهایی را روی دادههای قدیمیام انجام دادهام، با استفاده از بسته spdep در R، و به نظرم میرسد که APLE میتواند تا 2 برسد. کسی در این مورد راهنمایی دارد؟ لطفا، هر گونه بینش در اینجا بسیار قدردانی خواهد شد. | پیامدهای احتمالی تخمینگر تقریبی نیمرخ درستنمایی (APLE) برای خودهمبستگی فضایی |
96579 | من یک مدل رگرسیون تنظیم کرده ام اما مطمئن نیستم که آیا آن را درست انجام می دهم یا خیر. من از رگرسیون چندگانه برای کمک به طبقه بندی چند کلاسه استفاده می کنم. تا اینجا احساس میکنم که نظریه را درک کردهام، اما در اجرا/تفسیر سردرگم هستم. سردرگمی من بین دو تفسیر احتمالی از بخش رگرسیون یک الگوریتم Gentleboost است که در زیر نشان خواهم داد. بگذارید مشکلم را توضیح دهم. دادههای من، $X$، دو بعدی است، با $n$ تعداد مشاهدات، و $m$ تعداد ویژگیها در هر مشاهده. اکنون، بردار پاسخ نیز یک آرایه دو بعدی است. به عبارت دیگر، با توجه به مشاهده $x_i$، بردار پاسخ فقط به من نمی گوید که مقدار $y$ چیست، بلکه آرایه ای از مقادیر را به من می دهد، یک مقدار برای هر کلاس. برای مثال، اگر بتوان دادههای من را بهعنوان یکی از دو کلاس ممکن طبقهبندی کرد، بردار پاسخ ممکن است به این صورت باشد: $y = (0,1)$. بنابراین این به من می گوید که مقدار کلاس اول 0 است و برای کلاس دوم 1 است. اکنون، به تابع رگرسیون من، $g(x)$ می رویم. به یاد بیاورید که برای هر مشاهده ویژگی های $m$ دارم، به عبارت دیگر، من به پارامترهای رگرسیون $m$ در تابع رگرسیون نیاز دارم. بنابراین این بدان معناست که پارامترها را در یک آرایه 1 بعدی که مقادیر $m$ را در خود نگه می دارد ذخیره می کنم. برای نشان دادن این موضوع، می گوییم که داده های من $X$ به شرح زیر است، با 10 مشاهده و هر کدام 3 ویژگی. و مشاهدات را می توان به راحتی به دو کلاس مختلف تقسیم کرد. بنابراین تعداد کلاسها برای X$$ زیر 2 است: > [1،2،3] > > [1،2،3] > > [4،5،6] > > [1،2،3] > > [4،5،6] > > [1،2،3] > > [1،2،3] > > [4،5،6] > > [4،5،6] > > [1،2، 3] بنابراین این X$ بود، یک 10x3 آرایه این به این معنی است که تابع رگرسیونی من $g(x)$ باید 3 پارامتر داشته باشد، بگذارید یک آرایه 3x1 باشد. حالا چون بردار پاسخ من آرایه 1x2 است، نه صرفاً یک مقدار، پس اگر یک مشاهده را در $g(x)$ قرار دهم، باید یک پاسخ _vector_ نیز بدهد، با یک مقدار در هر کلاس، یعنی آرایه 1x2. . اما برای اینکه $g(x)$ یک آرایه 1x2 را برای من برگرداند، باید بیش از 3 پارامتر داشته باشد. باید 3 پارامتر برای _هر کلاس_ داشته باشد، یعنی در این مورد از دو کلاس، باید آرایه 3x2 باشد. (مطمئن نیستم که واقعاً _باید، من فقط با توجه به درک و اجرای این مورد با استفاده از 'statsmodels' در پایتون توضیح می دهم. اگر اشتباه می کنم، لطفاً من را اصلاح کنید). بنابراین $g(x)$ 3x2 بود. فرض کنید به این صورت است: > [a, d] > > [b, e] > > [c, f] و فرض کنید که به دست آوردن این آرایه 3x2 از پارامترهای بالا مرحله برازش نامیده می شود. با این حال، به یاد بیاورید که من برای _هر کلاس_ به یک $g(x)$ نیاز داشتم. بنابراین برای ذخیره تمام پارامترهای رگرسیون برای داده هایم، با توجه به اینکه دو کلاس دارم، تصمیم گرفتم که به یک آرایه 2x3x2 نیاز دارم که یک آرایه سه بعدی است. مانند این: > [[a, d] > > [b, e] > > [c, f]] > > **،** > > [[p, s] > > [q, t] > > [ r, u]] آیا این درست است؟ آیا این درک صحیح از **`Step 2(a)(ii)`** در این الگوریتم زیر است؟ (در الگوریتم زیر، پاسخ کاری محاسبه شده $z$ است، نه $y$).  بنابراین سردرگمی من این است که آیا $g(x)$ باید باشد: 1. همانطور که در بالا ذکر کردم یک آرایه 2x3x2. (و اگر اینطور است، پس وقتی مشاهدات آزمایشی را وارد میکنم، $g(x)$ خروجی یک آرایه 2x2 را میدهد، و آن آرایه حاصل چگونه باید تفسیر شود؟) 2. یا در عوض، باید به 3x2 $g(x)$ که در مرحله برازش گرفتم، و هر ستون را $g_j(x)$ در نظر بگیرید؟ به عبارت دیگر، با توجه به اینکه 3x2 $g(x)$ من > [a, d] > > [b, e] > > [c, f] بود، آیا اکنون باید در نظر بگیرم که ستون اول $g_0(x) است. $، و ستون دوم $g_1(x)$ است؟ این بدان معناست که پارامترهای تابع رگرسیون برای کلاس اول a، b، c و برای کلاس دوم d، e، f هستند. آیا این روش صحیحی برای پیاده سازی/درک مرحله بالا **`گام 2(a)(ii)`** در الگوریتم است؟ اگر این کار را انجام دهم، پس معتقدم که دادههای آزمایشی به $g(x)$ یک آرایه 1x2 تولید میکند که به عنوان بردار پاسخ منطقیتر است. | درک پارامترهای رگرسیون چندگانه - سؤال بر اساس نمادهای یک الگوریتم معین |
99813 | من در حال یادگیری رگرسیون خطی چندگانه هستم. اگر مقادیر «X» و «Y» زیر را داشته باشم، برای «رگرسیون خطی ساده» می دانم، پس چگونه «Y» را پیش بینی کنم. اگر دادههای زیر را داشته باشم، لایک کنید: X Y Y' 1 0 ? 0 1؟ 0 1؟ 0 0؟ سپس میتوانم «a» و «b» را محاسبه کنم و «Y» را از معادله «y = a + bx» همانطور که در اینجا نشان داده شده است دریافت کنم http://www.easycalculation.com/statistics/learn-regression.php. اکنون، من چندین «متغیر مستقل» دارم، پس فرمول محاسبه «Y» با استفاده از رگرسیون خطی چندگانه چیست؟ داده های فعلی من عبارتند از: X1 X2 X3 X4 X5 Y' 1 0 0 1 0 1 ? 0 1 0 1 0 0 ? 0 0 0 0 1 0 ? 1 0 1 0 0 1 ? آیا کسی می تواند فرمول پیش بینی Y را به من نشان دهد؟ من خیلی جستجو کرده ام اما اینها به من نمودارها و تحلیل های پراکنده و همه چیز را نشان می دهد. من فقط می خواهم مقادیر Y را دریافت کنم. من هیچ آموزشی مانند رگرسیون خطی دریافت نکردم (لینک ارائه شده در بالا) که در آن به وضوح نحوه محاسبه مقادیر «Y» نشان داده شده است. ویرایش: بنابراین، با توجه به پاسخها، ماتریس «X» و «Y» من عبارتند از: X = 1 1 0 0 1 0 1 0 1 0 1 0 1 0 0 0 0 1 1 1 0 1 0 0 Y = 1 0 0 1 و سپس «بتا» را با کمک معادله «(X'X)^-1 X'Y» محاسبه می کنم. سپس مقادیر «x1»، «x2»، «x3» را برای پیشبینی «y1»، «y2»، «y3» و غیره قرار دهید - درست است؟ | پیش بینی مقادیر با رگرسیون خطی چندگانه |
81427 | من معمولاً از BIC استفاده می کنم زیرا درک من این است که برای صرفه جویی قوی تر از AIC ارزش قائل است. با این حال، اکنون تصمیم گرفته ام از رویکرد جامع تری استفاده کنم و می خواهم از AIC نیز استفاده کنم. من می دانم که Raftery (1995) دستورالعمل های خوبی برای تفاوت های BIC ارائه کرد: 0-2 ضعیف است، 2-4 شواهد مثبتی برای بهتر بودن یک مدل است و غیره. من در کتاب های درسی نگاه کردم و آنها در AIC عجیب به نظر می رسند (به نظر می رسد بزرگتر است. تفاوت ضعیف است و تفاوت کوچکتر در AIC به این معنی است که یک مدل بهتر است). این برخلاف چیزی است که می دانم به من آموخته اند. درک من این است که شما AIC پایین تر می خواهید. آیا کسی میداند که آیا دستورالعملهای Raftery به AIC نیز تعمیم مییابد، یا در کجا میتوانم برخی دستورالعملها را برای «قوی بودن شواهد» برای یک مدل در مقابل مدل دیگر ذکر کنم؟ و بله، قطعها عالی نیستند (به نظر من آنها را آزاردهنده میدانم) اما هنگام مقایسه انواع مختلف شواهد مفید هستند. | دستورالعمل های AIC در انتخاب مدل |
104501 | من در حال حاضر چندین مجموعه داده در قالب یک هیستوگرام دارم. با استفاده از Matlab، همه به خوبی با توزیع دو جمله ای منفی توصیف می شوند. با این حال، دم سمت راست آنطور که من میخواهم مدلسازی نشده است. ترسیم شده در مقیاس log، دنباله سمت راست در دادههای واقعی شیب متفاوتی با آنچه توزیع دوجملهای منفی پیشبینی میکند دارد، در بیشتر مواقع دنباله کوچکتر از واقعیت را پیشبینی میکند. سوال من این است: آیا می توان داده های دم را وزن کرد تا فیتینگ بیشتر به آن توجه کند؟ اگر نه، آیا روش دیگری برای حل این مشکل وجود دارد؟ من به این فکر می کردم که سعی کنم تناسب دو جمله ای منفی را با منحنی دیگری ترکیب کنم که دم را بهتر نشان می دهد. در همان زمان من به دنبال این هستم که آیا دلیلی برای دم از خود داده ها وجود دارد یا خیر. من با آمار نسبتاً تازه کار هستم، بنابراین هرگونه راهنمایی در مورد نحوه پیاده سازی راه حل شما در Matlab بسیار قدردانی خواهد شد. | وزن داده ها در حین توزیع متناسب است |
92857 | در این دهمین اسلاید http://www.cs.cmu.edu/afs/cs.cmu.edu/project/theo-20/www/mlbook/ch6.pdf مجموعه داده های آموزشی $D$ به عنوان مجموعه تابع هدف . در واقع $D = \left\{(x_i,C(x_i))\right\}$ اما به صورت $D=\left\{C(x_i)\right\}$ برای i=1 به m فرض میشود چرا فرض میشود مانند آن و در اسلاید چهاردهم همان اسلاید، مانند if Training data داده می شود $D = \left\{(x_i,d_i)\right\}$ سپس $p(D/h) = \prod_{i=1}^{m}(p(\frac{d_i}{h})) $، اما ممکن است $\iff$ $D= \cap_{i=1 }^{m} d_1$ چگونه باید تفسیر شود؟ | با فرض داده های آموزشی به عنوان مجموعه ای از توابع هدف |
95806 | من میخواهم دادههای خود را به X$ تبدیل کنم تا واریانسها یک و کوواریانسها صفر شوند. علاوه بر این، میانگین باید صفر باشد. من می دانم که با انجام Z-Standardization و PCA-transformation به آنجا خواهم رسید، اما به کدام ترتیب باید آنها را انجام دهم؟ باید اضافه کنم که تبدیل تشکیل شده باید به شکل $\mathbf{x} \mapsto W\mathbf{x} + \mathbf{b}$ باشد. آیا روشی مشابه PCA وجود دارد که دقیقاً هر دو تبدیل را انجام دهد و فرمولی از شکل بالا به من بدهد؟ | تجزیه و تحلیل مؤلفه های اصلی و نرمال سازی واریانس |
89513 | من یک مطالعه قبل از مداخله با چهار گروه دارم: 1) کنترل قبل از مداخله، 2) درمان قبل از مداخله، 3) کنترل پس از مداخله، و 4) درمان پس از مداخله. نتیجه یک متغیر باینری است. چهار متغیر پیش بینی کننده دیگر وجود دارد. من یک مطالعه قبلی را دوباره تحلیل می کنم. در مطالعه قبلی، آنها از برآوردگر تفاوت در تفاوت ها در یک رگرسیون لجستیک استفاده کردند، در حالی که چهار پیش بینی کننده را کنترل کردند. با شاخصهای درمان و زمان، مدل این است: $$\mbox{logit}(Pr(y=1 | \mbox{Time}, \mbox{Treat}))=\alpha_0\mbox{Time}+\alpha_1 \mbox{Treat}+\alpha_2\mbox{Time}\cdot\mbox{Treat}+\beta x$$ با این حال، مرور ادبیات پیرامون DiD برآوردگرها، به نظر میرسد که استفاده از برآوردگرهای DiD در یک رگرسیون لاجیت (هر رگرسیون با تابع پیوند غیرخطی)، منجر به نقض فرض روند رایج میشود. می توانید به این فکر کنید که چگونه ممکن است روند مشترکی در نتیجه پیش بینی شده وجود نداشته باشد زیرا پشتیبانی بین 0 و 1 دارد. می تواند منجر به حاشیه های متفاوتی در احتمال y شود. اگر خط مبنا جایی در وسط بود، تفاوت کوچک در مقدار شاخص احتمال پیشبینیشده را به شدت تغییر میداد، در حالی که اگر خط پایه بالا شروع میشد، تفاوتها حداقل میشد. پس راه حل عملی در اینجا چیست؟ چگونه باید در مورد تجزیه و تحلیل مجدد این داده ها اقدام کنم؟ عملاً چه کاری می توانم انجام دهم تا بتوانم بر اساس برآوردگر DiD و طرح مطالعاتی که قبلاً ایجاد شده است، یک نتیجه علّی بگیرم؟ هر ایده ای؟ | برآوردگر تفاوت در تفاوت ها برای رگرسیون های لجستیک |
25316 | چگونه میتوانیم قدرت پیشبینی پیشبینیکنندهها را در مدلهای سری زمانی اندازهگیری کنیم؟ برای مثال در رگرسیون خطی، مقدار و جهت ضرایب رگرسیون و مقادیر p آنها را داریم. آیا چنین معیاری برای ارزیابی عملکرد پیش بینی کننده ها در فیلتر کالمن وجود دارد؟ | قدرت پیشبینی نسبی پیشبینیکنندههای مورد استفاده در مدلهای سری زمانی مانند فیلتر کالمن |
96574 | من با تجزیه مقدار منفرد یک ماتریس گیج شدم. این ممکن است فقط یک سوء تفاهم از آنچه تجزیه ارزش مفرد انجام می دهد باشد، لطفاً با من ملایم باشید. اگر من یک تجزیه ارزش واحد را روی $X$ با ردیف های $m$ و ستون های $n$ انجام دهم به طوری که $X=U\Sigma V$ را دریافت می کنم. $V^*$ قرار است یک ماتریس مربع nxn باشد (مثلاً به ویکی پدیا مراجعه کنید. با این حال، برای یک ماتریس x به عنوان مثال اندازه (40100) من در جولیا (و همچنین در R): x = randn(40، 100) xsvd = اندازه svdfact(x) (xsvd.Vt) (40100) منتظر هستم (100,100) با این حال، برای x = randn (100، 40) xsvd = svdfact (x) اندازه (xsvd.Vt) (40،40) میتوانم به من توضیح بدهم که اینجا چه خبر است؟ و احتمالاً من را به جایی راهنمایی کنید که بتوانم اصول اولیه را مطالعه کنم؟ | مقدار منفرد ستون های بیشتری را نسبت به ردیف ها تجزیه می کند |
25315 | برآوردها برای اثرات ثابت در یک مدل اثرات مختلط به طور مجانبی در توزیع نرمال هستند (تحت فرضیات خفیف). آیا نتایجی وجود دارد که انحراف از نرمال بودن را کمیت کند (به طور کلی، در موارد ساده، یا فقط مطالعات شبیه سازی)؟ | نرمال بودن مجانبی در مدل های خطی با اثرات مختلط |
105114 | من یک مشکل طبقه بندی باینری از چندین ویژگی دارم. آیا ضرایب یک رگرسیون لجستیک (منظم) معنی قابل تفسیری دارند؟ من فکر کردم که آنها می توانند اندازه نفوذ را نشان دهند، با توجه به اینکه ویژگی ها از قبل عادی شده اند. با این حال، در مشکل من به نظر می رسد که ضرایب به شدت به ویژگی هایی که انتخاب می کنم بستگی دارد. حتی علامت ضرایب با مجموعه ویژگی های مختلف انتخاب شده به عنوان ورودی تغییر می کند. آیا بررسی مقدار ضرایب منطقی است و راه صحیح یافتن معنی دارترین ضرایب و _بیان معنای آنها در کلمات_ چیست؟ آیا برخی از مدل های برازش شده و علامت ضرایب آنها اشتباه است - حتی اگر آنها به نوعی با داده ها مطابقت داشته باشند؟ (بالاترین همبستگی من بین ویژگی ها فقط 0.25 است، اما مطمئناً نقش دارد؟) | آیا ضرایب رگرسیون لجستیک معنی دارند؟ |
321 | یک نوع تقویت وجود دارد که به آن gentleboost می گویند. تقویت ملایم چه تفاوتی با AdaBoost شناخته شده تر دارد؟ | تقویت ملایم چه تفاوتی با AdaBoost دارد؟ |
64892 | همه جا قانون زنجیره ای را می بینم که به این ترتیب نوشته شده است: $$ \Pr (A,B,C) = \Pr (A|B,C) \Pr (B|C) \Pr (C). $$ آیا این همان $$ \Pr (A) \Pr (B|A) \Pr (C|B,A)، $$ است که در آن شرطیسازی با متغیرهای مختلف انجام میشود؟ | آیا این بیانیه درستی از قانون زنجیره احتمال است؟ |
104509 | سرپرست من یک بار به من گفت که قبل از اجرای هر طبقهبندی یا انجام کاری با یک مجموعه داده، باید دادهها را کاملاً درک کنم و مطمئن شوم که دادهها تمیز و صحیح هستند. سوالات من: بهترین روش ها برای درک یک مجموعه داده (بعد بالا با ویژگی های عددی و اسمی) چیست؟ تمرین هایی برای اطمینان از تمیز بودن مجموعه داده انجام می دهید؟ تمرین هایی برای اطمینان از اینکه مجموعه داده مقادیر اشتباهی ندارد یا همینطور؟ | بهترین روش برای درک یک مجموعه داده |
96573 | فرض کنید X1 و X2 یک نمونه تصادفی با اندازه 2 از توزیع نمایی با میانگین θ باشند. فرض کنید T=X1+X2 یک آمار کافی برای θ باشد. فرض کنید θ^=X^2 (بر اساس مشاهده دوم) تخمینگر θ باشد. برآوردگر θ∗=E(θ^/T^=t) را در نظر بگیرید. نشان دهید که Var(θ∗) برای حل سوال بالا باید توزیع شرطی X2/X1+X2 را پیدا کنم. اما مشکل در حل توزیع مشترک آنهاست. لطفاً برای حل آن راهنمایی به من بدهید. | در حل سوال در مورد آمار کافی به من کمک کنید |
25317 | من مدل Cox PH زیر را دارم (زمان، رویداد) ~ X + Y + Z من می خواهم ** نرخ های خطر پیش بینی شده** را دریافت کنم (من در مورد میزان خطر صحبت می کنم ** نسبت های خطر نه **) با مقادیر خاص X Y Z. من می دانم که بسته muhaz می تواند نرخ خطر مشاهده شده را محاسبه کند، اما من به مدل پیش بینی شده علاقه مند هستم. آیا راهی برای انجام این کار در R وجود دارد؟ | چگونه نرخ های خطر پیش بینی شده را از مدل PH کاکس محاسبه کنیم؟ |
95809 | من یک مجموعه داده از برخی مشاهدات با ویژگی کلاس مقادیر 0 و 1 دارم. مجموعه داده کاملا نامتعادل است (کلاس 1 - 15٪، کلاس 0 - 85٪). علاوه بر این، این مجموعه داده شامل 5 سال است و توزیع مقادیر کلاس بین سال ها متفاوت است (مثلاً کلاس 1: 12٪، 13٪، 15٪، 15٪، 14٪). میخواهم بدانم که آیا این تفاوت در توزیع طبقاتی بین سالها از نظر آماری معنادار است؟ نتایج باید یک ماتریس باشد که در آن هر سال با یک سال دیگر مقایسه شود. فکر می کنم می توانم از یک بردار مقادیر کلاس برای یک سال استفاده کنم و آن را با یک بردار مقادیر کلاس برای یک سال دیگر با آزمون t مقایسه کنم. آیا این رویکرد درستی است؟ و آیا راهی وجود دارد که چگونه ماتریس کامل را بدست آوریم، بنابراین نیازی به اجرای چند آزمون t (اگر آزمون t انتخاب صحیح باشد) نیست؟ هر نظر، راهنمایی، پیوند یا احتمالا قطعه کد R بسیار قدردانی خواهد شد. | تعیین کنید که آیا تفاوت در توزیع طبقاتی از نظر آماری معنادار است یا خیر |
10943 | من یک مدل اثر ترکیبی دارم (در واقع یک مدل ترکیبی افزودنی تعمیم یافته) که به من پیش بینی هایی برای یک سری زمانی می دهد. برای مقابله با همبستگی خودکار، از مدل corCAR1 استفاده میکنم، با توجه به این واقعیت که دادههای گم شدهای دارم. قرار است داده ها بار کلی را به من بدهد، بنابراین باید کل فاصله پیش بینی را جمع کنم. اما باید تخمینی از خطای استاندارد در آن بار کلی نیز دریافت کنم. اگر همه پیشبینیها مستقل باشند، این میتواند به راحتی با: $Var(\sum^{n}_{i=1}E[X_i]) = \sum^{n}_{i=1}Var(E) حل شود [X_i])$ با $Var(E[X_i]) = SE(E[X_i])^2$ مشکل این است که مقادیر پیشبینیشده از یک مدل میآیند و دادههای اصلی دارای همبستگی خودکار هستند. کل مشکل به سؤالات زیر منتهی می شود: 1. آیا من در این فرض که SE در پیش بینی های محاسبه شده می تواند به عنوان ریشه واریانس در مقدار مورد انتظار آن پیش بینی تفسیر شود، درست است؟ من تمایل دارم پیشبینیها را به عنوان «پیشبینیهای متوسط» تفسیر کنم، و از این رو مجموعه کاملی از ابزارها را جمعآوری میکنم. 2. چگونه می توانم خودهمبستگی را در این مشکل بگنجانم، یا می توانم با خیال راحت فرض کنم که تاثیر زیادی روی نتایج نخواهد داشت؟ این یک مثال در R است. مجموعه داده واقعی من حدود 34000 اندازه گیری دارد، بنابراین مقیاس پذیری یک مشکل است. به همین دلیل است که من خودهمبستگی را در هر ماه مدل می کنم، در غیر این صورت محاسبات دیگر امکان پذیر نیست. این صحیح ترین راه حل نیست، اما صحیح ترین راه حل امکان پذیر نیست. set.seed(12) require(mgcv) Data <- data.frame( dates = seq(as.Date(2011-1-1),as.Date(2011-12-31),by= روز) ) داده <- درون(داده،{ X <- abs(rnorm(nrow(داده)،3)) Y <- 2*X + X^2 + مقیاس (Data$dates)^2 ماه <- as.POSIXlt(Date)$mon+1 mday <- as.POSIXlt(Date)$mday}) model <- gamm(Y~s(X)+s(as. numeric(dates)),correlation=corCAR1(form=~mday|month),data=Data) preds <- predict(model$gam,se=T) مجموع <- sum(preds$fit) ویرایش: درسی که باید یاد بگیرید: ابتدا تمام نمونههای موجود در فایلهای راهنما را قبل از وحشت، مرور کنید. در فایل های راهنمای predict.gam می توانم این موارد را پیدا کنم: ################################### ##################### حالا با استفاده از lpmatrix واریانس مجموع پیشبینیها را دریافت کنید ############################################### ####### Xp <- predict(b,newd,type=lpmatrix) ## Xp %*% coef(b) بردار پیش بینی ها را به دست می دهد <- rep(1,31) Xs <- t(a) %*% Xp ## Xs %*% coef(b) مجموع پیشبینیها را نشان میدهد var.sum <- Xs %*% b$Vp %*% t(Xs) که به نظر میرسد به آنچه میخواهم نزدیک است. انجام دادن این هنوز دقیقاً به من نمی گوید که چگونه انجام می شود. من میتوانم به این حقیقت برسم که بر اساس ماتریس پیشبینیکننده خطی است. هر گونه بینش هنوز هم استقبال می شود. | واریانس در مجموع مقادیر پیش بینی شده از یک مدل اثر مختلط در یک سری زمانی |
96576 | من صد مورد دارم که در حال انجام EFA با حدود 370 مورد کامل هستم. با استفاده از تجزیه و تحلیل موازی برای تعیین تعداد عوامل برای استخراج، EFA 9 عامل را ارائه کرد که همه آنها به لحاظ نظری منطقی هستند. با این حال من 280 مورد ناقص دارم که تا 10 درصد موارد پاسخ داده نشده است. دادههای از دست رفته تصادفی نیست، به طوری که برای 20 تا 40 درصد از پاسخدهندگان، چند مورد پاسخ ندارند. با استفاده از بسته «R» «missForest»، دادههای از دست رفته را منتسب کردم و تجزیه و تحلیل عاملی را بر روی مجموعه دادههای منتسب شده انجام دادم. این به من 10 عامل داد که حدود 5 تای آن مشابه تحلیل قبلی و 5 عامل جدید است. هنگامی که نتایج تجزیه و تحلیل داده های منتسب با نتایج تجزیه و تحلیل موارد کامل متفاوت است، پروتکل چیست؟ هر توصیه ای بسیار قابل تقدیر است. | وقتی نتایج تحلیل عاملی اکتشافی برای دادههای کامل و دادههای منتسب متفاوت است، چه باید کرد؟ |
96570 | فرض کنید ما یک مشکل رگرسیون کلاسیک داریم که در آن یک نتیجه عددی به همراه برخی پیش بینی کننده ها، هم عددی و هم مقوله ای داریم. در یک مسئله پیشبینی معمولی، ما برای تخمین پارامترهایی مانند میانگین نتیجه استفاده میکنیم، اما اگر بخواهیم چگالیهای «از نظر آماری متفاوت» را بر اساس آن پیشبینیکنندهها تخمین بزنیم، چه؟ من دو راه ممکن برای انجام این کار را می دانم، اول یک رویکرد بیزی است، و دیگری می تواند یک مدل پارامتری مانند AFT در تجزیه و تحلیل بقا باشد که در آن پارامترهای یک خانواده از توزیع ها (لجستیک، لگ نرمال و غیره) محدود شده در نوعی از توزیع ها را تخمین می زنیم. مشکلات در جایی که فرمولاسیون اجازه می دهد. سوال این است که آیا یک تقریب کلی وجود دارد تا تخمین بزنیم که به روشی ناپارامتریک (فرض کنید توزیعهای دو وجهی داریم یا توزیعهای نظری دیگری نداریم) و آیا میتواند یک رویکرد غیر بیزی باشد یا لزوماً باید رویکرد بیزی را در پیش بگیریم. مشکل پیشاپیش ممنون | مدل سازی چگالی احتمال تجربی |
64896 | یکی از روشهای مقابله با تأثیر فصلی، ایجاد یک عامل ضربی برای هر فصل در یک «سال» است. به عنوان مثال، این اتفاق با مدل های هموارسازی نمایی از نوع $(*،*، M)$ می افتد. این فاکتورهای تعدیل باید عادی شوند - اگر فصلهای $m$ در یک سال وجود داشته باشد، در آن صورت فصلی بودن معمولاً تنها $m-1$ درجه آزادی را نشان میدهد. به نظر می رسد لازمه عادی سازی استاندارد برای عوامل تنظیم $f_1, \dotsc, f_m$ این باشد که $\sum_{i=1}^m f_i = m$ - یعنی میانگین حسابی فاکتورها $1$ باشد. مطمئناً این مورد در Hyndman و همکاران، پیش بینی با هموارسازی نمایی (بخش 8.2) وجود دارد. من انتظار داشتم که میانگین هندسی $1$ باشد، یعنی $\prod_{i=1}^m f_i = 1$. زیرا استاندارد تنظیم فصلی _additive_ این است که $\sum_{i=1}^m f_i = 0$; این دو با گرفتن لگاریتم معادل هستند. آیا دلیل ریاضی خوبی برای انتخاب وجود دارد یا فقط یک قرارداد است؟ | چرا عادی سازی عوامل تنظیم فصلی به صورت افزایشی انجام می شود؟ |
92858 | در حال حاضر در حال مطالعه bootstrap هستم و میخواهم چند مثال برای آن بسازم. فرض کنید من داده های زیر را تولید کنم: set.seed(10) data <- rnorm(1000,1,3) number <- min(data[data <= 0.9]) عدد بنابراین 'number.min' حاوی حداقل تعداد داده ها در بازه $(-\infty,0.9]$ که برابر است با $-8.036491$. اگر بدانیم دوباره 1000 عدد تولید شده با استفاده از یک توزیع نرمال با انحراف استاندارد 3. فرض کنید number.min این بار $a:=-12.2385$ است، آیا هنوز هم می توان فرض کرد که مقدار مورد انتظار $1 است، number.min را به عنوان یک متغیر تصادفی نشان می دهیم؟ $X$ ایده من این بود که یک تست فرضیه انجام دهم من نمی خواهم توزیع نرمال را فرض کنم $$P(X\in [x_l,x_u]|\mu =1)=1-\alpha$$ هنگام انتخاب $\alpha=0.01$ میخواهم $x_u,x_l$ را پیدا کنم. اگر $a\in[x_l,x_u]$ من استدلال میکنم که $\mu=1$ قابل قبول است، درست است؟ **1. سوال:** این ماهیت نظری است: آیا ایده من درست است، یعنی پیدا کردن $x_l,x_u$ آیا کل این روش از نظر آماری خوب است؟ با فرض اینکه این درست باشد، میتوانیم به آن بپردازیم و آن را اجرا کنیم. ابتدا نتایج کافی از $X$ f <- function(n){ data <- rnorm(n,1,3) number <- min(data[data <= 0.9]) return(number)} data <- replicate تولید می کنیم (500,f(1000)) این به 500 تحقق X$ منجر می شود. اکنون میتوانیم نمونههای بوسترپ خود را تولید کنیم bst.smpl <- boot(data,?,1000) **2. سوال:** تابع بوت به آرگومان آمار نیاز دارد، اما من متوجه نمی شوم که در مورد من کدام است؟ در آخر من فقط فواصل اطمینان را محاسبه می کنم ci <- boot.ci(bst.smpl,conf=0.99,type=basic,index=1) **3.سوال:** آیا راه آسان تری برای تصمیم گیری وجود دارد هنوز از $\mu=1$ استفاده می کنید؟ | بوت استرپ برای تخمین پارامتر |
105110 | فرض کنید X یک متغیر تصادفی با ارزش واقعی است. فرض کنید یک ثابت M > 0 وجود دارد به طوری که پشتیبانی X کاملاً در بازه $[-M,M]$ قرار دارد. اجازه دهید $\phi$ تابع مشخصه X را نشان دهد. نشان دهید که $\phi$ بی نهایت قابل تمایز است. اگر بی نهایت متمایز معادل مطلقاً پیوسته باشد، آنگاه $$\int_{-M}^{M}|\phi(t)dt < \infty$$ | نمایش تابع مشخصه بی نهایت قابل تمایز است |
96571 | من می خواهم یک ANOVA و همبستگی چندگانه و تحلیل رگرسیون را اجرا کنم. برخی از متغیرهای من که در این تحلیلها گنجانده میشوند معمولاً توزیع شدهاند و برخی دیگر توزیع نمیشوند. من log متغیرهای توزیع نشده را تغییر دادم که به عادی سازی آنها کمک کرد. سوال من این است که آیا می توانم از متغیرهای log transformed و not transformed در یک تحلیل استفاده کنم؟ به عنوان مثال، آیا می توانم 2 متغیر را تبدیل و 3 متغیر را تبدیل کنم و از همه آنها در رگرسیون چندگانه استفاده کنم. آیا می توانم متغیر وابسته را تبدیل و متغیر مستقل را تبدیل کنم و از آن در ANOVA استفاده کنم؟ با تشکر برای کمک. | تبدیل متغیر در یک ANOVA و تجزیه و تحلیل چند متغیره |
96314 | من می خواهم یک آزمون t را روی دو نمونه مستقل اعمال کنم و تصمیم بگیرم که نمونه_2 بزرگتر از نمونه_1 است یا خیر. در زیر نتایج دو «t.test» مختلف که روی نمونهها اجرا کردم آمده است: پارامترهای پیشفرض: t.test(sample_1,sample_2) دادههای آزمون t نمونه Welch Two: sample_1 و sample_2 t = -1.8795، df = 1121.445، p-value = 0.06043 فرضیه جایگزین: تفاوت واقعی در میانگین برابر با 0.95 درصد نیست. فاصله اطمینان: -4.45823402 0.09580241 تخمین های نمونه: میانگین x mean of y 45.08116 47.26238 alternative greater : > t.test(sample_1,sample_2,alternative=greater) ولچ_تست نمونه =2 نمونه t نمونه -1.8795، df = 1121.445، p-value = 0.9698 فرضیه جایگزین: تفاوت واقعی در میانگین بیشتر از 0 95 درصد فاصله اطمینان است: -4.091665 تخمین نمونه Inf: میانگین x میانگین y 45.08116 47.26238: t جایگزین کمتر sample_2,alternative=less , paired=FALSE) داده های آزمون t نمونه Welch Two: sample_1 و sample_2 t = -1.8795، df = 1121.445، p-value = 0.03022 فرضیه جایگزین: تفاوت واقعی در میانگین ها کمتر از 0 95 درصد فاصله اطمینان: -Inf -0.270 برآوردهای نمونه: میانگین x میانگین y 45.08116 47.26238 میشه لطفا یکی توضیح بده که معنی p-values در این دو تست چیه؟ اولین p-value 0.06، آیا این احتمال برابری آنهاست، یا اینکه **نیست** مساوی هستند؟ و مقدار دوم 0.97، آیا این به معنای sample_2 > sample_1 است یا بالعکس: sample_2 <= sample_1؟ این یک سوال بسیار اساسی است اما من نمی توانم از منابع دیگر بفهمم. هر گونه کمکی قدردانی خواهد شد، با تشکر. | p-value در R به چه معناست؟ |
96575 | چگونه می توانم از اطلاعات جدول چی مربع برای ساخت یک مدل آماری استفاده کنم. به طور خاص، من از اطلاعات نظرسنجی به سبک لیکرت استفاده می کنم که میزان مشارکت دانش آموزان را می سنجد. میخواهم ببینم آیا دانشآموزانی که مداخلهای خاص دارند نسبت به دانشآموزانی که آن مداخله را ندارند درگیر هستند یا خیر. اگر هستند، چگونه بر نتایج آنها تأثیر می گذارد؟ من مداخله> تعامل> نتیجه را بررسی می کنم. من نمی دانم چگونه می توان نتایج آزمون مربع کای را به مدلی تبدیل کرد که مقادیر جدیدی بر اساس برجسته بودن دارد. من متغیرهای جدید را با اضافه کردن آیتم ها/وسیله ها با هم محاسبه خواهم کرد. این مدل برای گنجاندن اندازهگیری رگرسیون لاگ مداخله که دارای همه متغیرهای طبقهبندی است، کدگذاری میشود. | نحوه ایجاد یک مدل با کدگذاری ساختگی برای قرار دادن در رگرسیون ورود |
58138 | مدرسه آلیس قصد دارد چند دانش آموز از کلاس او را به یک سفر علمی ببرد. آلیس واقعا در مورد آن هیجان زده است. در کل کلاس او دانشجوی $S$ وجود دارد. اما به دلیل محدودیت های بودجه، مدرسه در نظر دارد فقط دانش آموزان $N$ را برای سفر ببرد. این دانش آموزان به صورت تصادفی انتخاب خواهند شد. و هر دانش آموز شانس مساوی برای انتخاب شدن دارد. حلقه دوستان آلیس دارای M شاگردان از جمله او است. اگرچه او در مورد سفر میدانی هیجانزده است، اما تنها در صورتی از آن لذت میبرد که حداقل K$ از دوستانش در سفر با او باشند. او در حال تعجب است که چه شانسی برای این اتفاق وجود دارد. او به کمک شما نیاز دارد. به او بگویید که با توجه به اینکه به سفر می رود، از این احتمال لذت خواهد برد. | احتمال سطح بالاتر |
93895 | فرض کنید دنباله ای از رویدادها $x_1, x_2, ...,x_n$ داریم و هر رویداد را می توان به عنوان یک متغیر طبقه بندی از دامنه $\{A, B, C...\}$ توصیف کرد. فاصله زمانی بین دو رویداد متوالی ثابت نیست. یک مثال می تواند سابقه انتشارات یک محقق باشد. هر نشریه یک رویداد است و دامنه مجموعه تمام فیلدها، {آمار، داده کاوی، ...} است. البته فاصله زمانی بین دو انتشار متوالی ثابت نیست. سوال من این است که آیا ابزار ریاضی/آمار/داده کاوی/.. برای تجزیه و تحلیل این نوع داده ها وجود دارد تا بتوانیم به سوالات زیر پاسخ دهیم؟ * **با توجه به یک توالی، می توانیم بگوییم که آیا تغییر قابل توجهی در ارزش رویدادها وجود دارد**. به عنوان مثال، در ابتدا، انتشارات محقق بیشتر در مورد آمار است و به دلایلی علاقه تغییر کرده و مقالات یادگیری ماشین بیشتری منتشر می شود. * **با توجه به گروهی از سکانس ها، می توان تشخیص داد که آیا در بسیاری از آنها تغییر قابل توجهی در ارزش رویدادها وجود دارد**. من حدس می زنم که پاسخ این سوال بر اساس پاسخ سوال اول باشد. * **با توجه به یک توالی، می توانیم بگوییم که آیا تغییر قابل توجهی در فاصله زمانی وجود دارد**. به عنوان مثال، یک محقق در ابتدا 1 مقاله در ماه منتشر می کند، اما پس از تصدی مسئولیت، سالی 1 مقاله منتشر می کند:) * **و ممکن است سؤالات بیشتری وجود داشته باشد ....** یک روش ساده ترسیم نمودار جدول زمانی است. برای هر دنباله اما اگر بخواهیم از داده ها نتیجه گیری درستی بگیریم قابل قبول نیست. متشکرم! | نحوه بررسی تغییر توالی رویدادها |
9474 | من به دنبال اجرای برآوردگر سریع حداکثر همبستگی رتبه (MRC) هستم. این برای ماتریس های پراکنده بزرگ (~100000 در 10000) در یک برنامه متن کاوی اعمال می شود. من در پایتون و R کار می کنم، بنابراین خوب است که چیزی به آن زبان ها پیدا کنم. در صورت عدم موفقیت، احتمالاً می توانم کد را از زبان دیگری تبدیل کنم. پیشنهادی دارید؟ نکته سریع: بهترین الگوریتمی که من دیدم در Abrevaya (1999) است که در زمان $nlog(n)$ اجرا می شود. وانگ (2007) یک الگوریتم IMO دارد که به ادعای او در $n^2log(n)$ اجرا می شود - بسیار بدتر. توجه: من این سوال را در stackoverflow ارسال کردم زیرا مطمئن نیستم که کدام انجمن مکان مناسبی برای پرسیدن است. | آیا کتابخانه ای وجود دارد که برآوردگر همبستگی حداکثر رتبه سریع را پیاده سازی کند؟ |
101579 | من یک متغیر پاسخ ترتیبی و متغیرهای توضیحی متعدد دارم - هم پیوسته و هم مقوله ای. کاری که من می خواهم انجام دهم این است که روند تک متغیره بین متغیرهای توضیحی مختلف و متغیر پاسخ را بررسی کنم. آیا استفاده از یک مدل ترتیبی لجستیک برای هر متغیر توضیحی تا زمانی که فرض شانس متناسب برآورده شود معقول است؟ | آزمون روند در متغیر پاسخ ترتیبی |
105117 | من داده های RM-ANOVA را با سه شرایط درمانی (یک طرفه در طرح های آزمودنی) شبیه سازی می کنم. من می خواهم بتوانم یک افکت به داده ها اضافه کنم تا eta-squared یک مقدار مشخص داشته باشد. یک مورد ساده تر را برای دو گروه مستقل و d کوهن تصور کنید. در اینجا، اگر هر دو انحراف معیار را در دو گروه بدانم، می توانم به فرمول کوهن d نگاهی بیندازم تا ببینم که می توان میانگین هر دو انحراف معیار (مخرج) را با اندازه اثر مورد نظر، مثلاً 0.4 ضرب کرد. ، و من تفاوت هر دو معنی باید داشته باشد (عدد) را دریافت می کنم و این را به یکی از گروه ها اضافه می کنم. اینجا را ببینید من نمیدانم که آیا این امکان برای مربع eta (یا برخی از انواع آن، جزئی و غیره) نیز وجود دارد یا خیر. تا حدودی دشوارتر است زیرا باید به جای تفاوت های میانگین با مجموع مربع ها کار کرد. آیا پیشنهادی برای رسیدن به این هدف دارید؟ | شبیه سازی داده های ANOVA برای دنبال کردن یک eta-squared خاص |
10945 | اگر یک تحلیل عاملی اکتشافی با برخی از 1-5 مورد توافقی و برخی موارد 0/1 انتخاب همه موارد کاربردی انجام شود، از نظر تئوری چقدر تمایل کاذب برای بارگذاری 1-5 مورد روی یک یا دو عامل وجود دارد. و موارد 0/1 برای بارگذاری در یک مجموعه جداگانه از یک یا دو عامل؟ (من استدلالهایی موافق و مخالف این ایده شنیدهام که همبستگیها در میان آیتمهای مقیاس مشابه بسیار بیشتر است. آزمایش/شبیهسازی خودم تأثیر زیادی پیدا نکرده است.) | آیا بارهای عاملی باید تحت سلطه گستره گزینه های پاسخ آیتم ها باشد؟ |
65419 | اگر $n$ نمونه داشته باشم و بخواهم ضرایب همبستگی زوجی بین متغیرهای $l$ و $m$ را محاسبه کنم، میتوانم ماتریسهای $A_{l,n}$ و $B_{n,m}$ را بسازم. اگر میانگین را از ردیفهای $A$ و ستونهای $B$ کم کرده و بر انحراف استاندارد تقسیم کنم، حاصل ضرب ماتریس $AB$ شامل ضرایب همبستگی پیرسون دوتایی متغیرهای $m$ من با $l$ من خواهد بود. متغیرها سوال من این است: اگر بخواهم این رویه را بوت استرپ کنم تا برای هر ضریب همبستگی چندک ها را بدست بیاورم، آیا لازم است که ماتریس های $A$ و $B$ را پس از نمونه برداری با جایگزینی ردیف های $A$ و ستون های $B مجددا مقیاس بندی کنم. $، یا می توانم یک بار مقیاس کنم و دوباره نمونه برداری کنم؟ شهود من این است که تغییر مقیاس برای هر تکرار بوت استرپ ضروری است. | مقیاس مجدد ستون های ماتریس بوت استرپ هنگام استفاده از ضرب ماتریس برای محاسبه ضرایب همبستگی |
10949 | من می خواهم تأثیر داشتن بیمه درمانی بر هزینه های مراقبت های بهداشتی را تخمین بزنم و این تصور را داشته باشم که بهتر است از یک مدل دو بخشی استفاده کنیم تا ابتدا احتمال استفاده از هر گونه مراقبت های بهداشتی را تخمین بزنیم و سپس میزان هزینه شده توسط افرادی که از سلامت استفاده کرده اند را تخمین بزنیم. مراقبت با این حال، من در مورد مزیت استفاده از یک مدل دو بخشی نسبت به اجرای رگرسیون حداقل مربعات معمولی بر روی نمونه فرعی افرادی که از مراقبتهای بهداشتی استفاده میکنند، واضح نیستم. هر گونه بینشی در مورد مزایای مدل 2 قسمتی نسبت به OLS در نمونه فرعی کاربران، و تفاوت در این دو رویکرد بسیار قابل قدردانی است! | ارزش افزوده استفاده از یک مدل 2 قسمتی نسبت به مدل OLS در یک نمونه فرعی هنگام تخمین هزینه های مراقبت های بهداشتی چقدر است؟ |
105115 | من نمی توانم استفاده از تضادهای چند جمله ای را در برازش رگرسیون درک کنم. به طور خاص، منظور من رمزگذاری است که توسط «R» برای بیان یک متغیر فاصله (متغیر ترتیبی با سطوح مساوی) که در این صفحه توضیح داده شده است، استفاده میشود. در مثال آن صفحه، اگر به درستی متوجه شده باشم، R مدلی را برای یک متغیر بازه ای متناسب می کند و ضرایبی را برمی گرداند که روند خطی، درجه دوم یا مکعبی آن را وزن می کند. بنابراین، مدل برازش شده باید این باشد: > $write$ ~ $52.7870 + 14.2587*X - 0.9680*X^2 - 0.1554*X^3$، که در آن $X$ باید مقادیر $1$، $2$، $3$، یا $4 را داشته باشد. $ با توجه به سطوح مختلف متغیر فاصله. آیا این درست است؟ و اگر چنین است، هدف از تقابل چند جمله ای چه بوده است؟ با تشکر | کنتراست های چند جمله ای برای رگرسیون |
93898 | من میخواهم یک HSD Tukey را روی دادههایم پس از انجام یک anova سه عاملی با بلوک به عنوان چهارمین فاکتور تصادفی اجرا کنم. anova در R به خوبی کار می کند، با استفاده از کد زیر، مدل<-aov(dv~f1*f2*f3+Error(block/(f1*f2*f3))، data=*.txt) که در آن dv متغیر وابسته من است. ، f1، 2 و 3 سه عامل ثابت هستند و *.txt یک فایل متنی است که داده های مورد تجزیه و تحلیل را دارد. وقتی سعی می کنم با استفاده از بسته agricolae یک Post hoc (HSD توکی) انجام دهم، خطای زیر نشان داده می شود، out<-HSD.test(model,f1, group=TRUE) #### از این دستور استفاده کرد خطا در as.data.frame.default(x[[i]]، اختیاری = TRUE، stringsAsFactors = stringsAsFactors): نمی تواند کلاس را وادار کند c(aovlist, listof) به یک data.frame out<-HSD.test(model,f1*f2*f3, group=TRUE) ### از این به عنوان دستور و همچنین خطا استفاده کرد در as.data.frame.default(x[[i]]، اختیاری = TRUE، stringsAsFactors = stringsAsFactors): نمی تواند کلاس c(aovlist را مجبور کند، listof) به a data.frame کسی می تواند در این مورد به من کمک کند لطفا؟ بابت خطای قبلی متاسفم | HSD توکی پس از طرح بلوک های تصادفی در R |
16470 | من مجموعه ای از سری های عدد صحیح $S_1$، $S_2$، ... $S_n$ دارم. هر سری دارای 3600 نقطه داده است. هر نقطه داده یک عدد صحیح مثبت است. هر نقطه داده به عنوان یک int بدون علامت ذخیره می شود که به 4 بایت نیاز دارد. بنابراین، ذخیره کل سری به 4 * 3600 بایت نیاز دارد. این اندازه خیلی بزرگ است و این سری ها باید فشرده شوند. داده ها به روش زیر جستجو می شوند و (هر مکانیزم فشرده سازی باید خطا را در هر پرس و جو به حداقل برساند). 1. چند سری انتخاب شده اند، مثلاً، $S_p، S_q$ و $ S_r$ (نه اینکه ممکن است هر تعداد سری انتخاب شود، من فقط از 3 به عنوان مثال استفاده می کنم) 2. سری های انتخاب شده برای بدست آوردن $ جمع می شوند. S_T$ طوری که، $S_T[i] = S_p[i] + S_q[i] + S_r[i]$، برای $i = 1$ تا 3600$ 3. حداقل مقدار و حداکثر مقدار $S_T$ محاسبه می شود. این امکان وجود دارد که قلههای این سری همتراز باشند. بنابراین نمی توان هر یک از سریال ها را مستقل تصور کرد. افکار؟ | فشرده سازی یک سری عدد صحیح |
43071 | من فقط کمی تجربه در ابزارهای محاسبه ریاضی دارم. پس لطفا سخت نگیرید اگر سوال من به خوبی تعریف نشده است :) از کدام ابزار (Wolfram Mathematica، MATLAB یا چیز دیگری) برای آمار استفاده شود بهتر است؟ از کجا می توانم راهنماها و آموزش های شروع سریع برای آن پیدا کنم؟ | Wolfram Mathematica، MATLAB یا چیز دیگری؟ |
9478 | من نمونههایی دارم که هر نمونه دارای n ویژگی است، چگونه میتوان این ویژگیها را عادی کرد تا مقادیر ویژگی بین بازه [-1،1] قرار بگیرند، لطفا یک فرمول ارائه دهید. | چگونه می توان داده ها را عادی کرد تا هر ویژگی بین [-1،1] قرار گیرد؟ |
61979 | من داده های طولی را با افزایش واریانس در طول زمان برازش می کنم. مدل فیزیولوژیکی استاندارد یک مدل دو یا سه خطی با نقاط شکست متغیر است. پارامترهای تخمین زده شده برای توصیف نرخ رشد و زمان تا بلوغ استفاده می شود. آیا روش کارآمدی برای محاسبه خطاهای ناهمسان درون بخش در مدل رگرسیون قطعه ای پارامتریک وجود دارد؟ | رگرسیون قطعهای یا قطعهای پارامتریک با خطاهای ناهمسان |
64893 | من دو پیش بینی از دو نوع روش مختلف دارم. predictedHousePrices1 یک متغیر پیوسته است و خروجی یک پیش بینی از یک مدل RandomForest، predictedHousePrices2 خروجی تابع predict() یک مدل RidgeRegression است. من می خواهم مقایسه کنم که کدام یک تغییرپذیری در داده های واقعی را بهتر توضیح می دهد. من نمیدانم که آیا آزمایش نسبت احتمال بهترین راه برای انجام این کار است، به عنوان مثال: m1 <- lm(realHousePrices~predictedHousePrices1) # R^2 = 0.25 m2 <- lm(realHousePrices~predictedHousePrices2) 0.30 = آیا استفاده از آزمون نسبت درستنمایی برای بررسی صحیح است؟ اگر یک $R^2$ از 0.25 به طور قابل توجهی بیشتر از 0.30 باشد، برای مثال: m3 <- lm(realHousePrices~predictedHousePrices1+predictedHousePrices2) library(epicalc) lrtest(m3, m1) یا راه بهتری وجود دارد برای انجام این کار؟ | آزمون نسبت درستنمایی برای مقایسه دو پیشبینی |
10947 | من سعی میکنم بفهمم R چگونه همبستگی تاخیر-k را محاسبه میکند (ظاهراً همان فرمولی است که توسط Minitab و SAS استفاده میشود)، تا بتوانم آن را با استفاده از تابع CORREL اکسل که برای سری و نسخه k-lagged آن اعمال میشود مقایسه کنم. R و Excel (با استفاده از CORREL) مقادیر خودهمبستگی کمی متفاوت ارائه می دهند. همچنین میخواهم بدانم آیا یکی از محاسبات صحیحتر از دیگری است یا خیر. | فرمول همبستگی خودکار در R در مقابل اکسل |
61978 | از آمار ریاضی جون شائو > تعریف 2.10 (سازگاری برآوردگرهای نقطه). اجازه دهید $X = (X_1، ...، > X_n)$ نمونهای از $P ∈ \mathcal P$ و $T_n(X)$ یک تخمینگر نقطهای از > $θ$ برای هر $n$ باشد. > > اجازه دهید $\{a_n\}$ دنباله ای از ثابت های مثبت باشد که به $∞$ واگرا می شوند. $T_n(X)$ > $a_n$-سازگار برای $θ$ نامیده می شود اگر $a_n[T_n(X) - θ] = O_p(1)$ w.r.t. any > $P∈\mathcal P$. $O_p(\cdot)$ در اینجا تعریف شده است. وقتی $a_n := \sqrt{n}$، سازگاری ریشه $n$ سازگاری نامیده می شود. آیا یکی از ثبات $a_n$ و ثبات ضعیف دلالت بر دیگری دارد؟ اگر نه، $a_n := \sqrt{n}$ چطور؟ آیا یکی از ثبات $a_n$ و قوام قوی دلالت بر دیگری دارد؟ اگر نه، $a_n := \sqrt{n}$ چطور؟ آیا یکی از ثبات $a_n$ و ثبات $L^2$ دلالت بر دیگری دارد؟ اگر نه، $a_n := \sqrt{n}$ چطور؟ با تشکر و احترام! | ثبات $a_n$ و سازگاری دیگر |
61972 | خوب، پس یک مشکل ساده وجود دارد: فرض کنید یک D6 را صد بار رول می کنم. احتمال اینکه _هر_ عددی دقیقاً 50 بار ظاهر شود چقدر است؟ اکنون، احتمال چرخاندن 50 عدد احتمالاً با تعداد سکانس های 100 رول که دقیقاً شامل 50 عدد تقسیم بر تعداد کل توالی های ممکن است داده می شود. اما من می توانستم به جای آن 50 دوتایی بچرخانم. که نشان می دهد که باید هر شش راه را برای برآورده کردن معیارها جمع آوری کنید... با این تفاوت که این موارد متقابلاً انحصاری نیستند. برای مثال می توان 50 عدد سه و 50 عدد شش رول کرد. بعید است، اما ممکن است. پس... اوم... چگونه به این حمله کنم؟ | احتمال پخش تاس مشخصی |
65417 | من تحلیل زیر را دارم: من یک MANOVA با دو DV (هر دو مقیاس همدلی) و یک IV (جنسیت) اجرا کردم. اکنون $p$-value (0.03) به من می گوید که تفاوت قابل توجهی بین زن و مرد وجود دارد. با این حال، من نمی دانم که در کدام متغیر بالاتر است. هنگامی که من به خروجی جدول ANOVA (داده شده با SPSS) نگاه می کنم، به من می گوید که تفاوت قابل توجهی وجود ندارد (همه $p$ - مقادیر بزرگتر از 0.05). چگونه این را تفسیر کنم؟ امتیازات زنان و مردان متفاوت بود یا خیر؟ همچنین، سرپرست من از من خواست که به ابزارها نگاه کنم، اما آنها فقط در یک نقطه متفاوت هستند، بنابراین نمی توانم ببینم کدام یک باید بزرگتر باشد (و MANOVA فقط اثر مشترک دو DV را با هم به من می گوید). وقتی برای بررسی میانگینهای فردی آزمون t را انجام دادم، آنها نیز معنیدار نبودند. من کمی گم کرده ام که با این چه کار کنم و از کمک در مورد نحوه بیان این تفسیر در کلمات بسیار سپاسگزارم. | چگونه می توان اثر آماری معنی دار کلی یک MANOVA (در کلمات) را تفسیر کرد؟ |
93892 | من باید مقادیر p را برای جلوه های ثابت در GLMM های زیر که اجرا کردم، دریافت کنم. آیا کسی کدی را می شناسد که بتوانم آن را اجرا کنم که مقادیر p را به من بدهد؟ در حال حاضر خروجی از ANOVA فقط یک مقدار p به من می دهد و من معتقدم که برای هر یک از جلوه های ثابت در مدل ها به یک مقدار p جداگانه نیاز دارم. پیشاپیش ممنون کد به شرح زیر است - برای GLMM 1 من این کد را اجرا کردم - m1<-lmer(step~Depth*threshold+(1|ind)) m2<-lmer(step~(1|ind)) anova(m1,m2) برای GLMM 2 من این کد را اجرا کردم - m2<-lmer(PDBA~step*threshold+depth*threshold+(1|ind)) m3<-update(m2,~.-step*threshold) anova(m2,m3) و این یکی: m2<-lmer(PDBA~step*threshold+Depth*threshold+(1|ind)) m4<-update(m2 ,~.-Depth*threshold) anova(m2,m4) وقتی کد GLMM 1 را اجرا کردم این چیزی است که دریافت کردم: m2: step ~ (1 | ind) m1: گام ~ عمق * آستانه + (1 | ind) Df AIC BIC logLik انحراف Chisq Chi Df Pr(>Chisq) m2 3 373235 373259 -186615 373229 m1 8 3720 - 8 3720 373209 19.767 5 0.001382 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خلاصه > خلاصه (m1) مدل ترکیبی خطی متناسب با REML ['lmerMod'] فرمول: مرحله ~ عمق * آستانه + (1 | ind) معیار REML در همگرایی: 373184 تصادفی اثرات: نام گروه ها Variance Std.Dev. ind (Intercept) 196519 443.3 Residual 469370 685.1 تعداد obs: 23473, group: ind, 11 Fixed effect: Estimate Std. مقدار خطای t (Intercept) 160.95895 134.80279 1.194 Depth 0.06438 0.44777 0.144 threshold2 51.18065 17.62222 2.904 2.904 0.06438 threshold3383736. Depth:threshold2 -1.23654 0.60029 -2.060 Depth:threshold3 -0.09587 0.65088 -0.147 همبستگی جلوه های ثابت: (Intr) Depth thhrsh2 thhrsh3 Dpth:20.709 -0.01 threshold3 -0.075 0.588 0.567 Dpth:thrsh2 0.071 -0.737 -0.745 -0.435 Dpth:thrsh3 0.064 -0.674 -0.490 -0.857 0.502 FESTROMTH OUSUUTY توضیحات 373275 -186607 373215 m5 8 373225 373290 -186605 373209 5.2901 2 0.071. --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 | کد مورد نیاز برای مقادیر p در GLMM |
105118 | از من خواسته شده است که یک تست کفایت نمونه را انجام دهم (یعنی فکر میکنم، برای تأیید اینکه حداقل تفاوتی که میتوان بین دو گروس اندازهگیری کرد چقدر است) که در آن یک نمونه جدید (که مو، سیگما و اندازه نمونه داده شده است) با آن مقایسه میشود. یک نمونه مرجع من به تجزیه و تحلیل توان آزمون t فکر می کردم، اما انحراف معیار و حجم نمونه گروه دیگر نیز به من داده می شود. مناسب ترین روش برای حل این مشکل چیست؟ احتمالا در R.... | تجزیه و تحلیل توان زمانی که میانگین و انحراف معیار داده می شود |
9475 | من سری های زمانی زیادی در این قالب 1 ستون دارم که در آن فرمت تاریخ (d/m/yr) و ستون های زیادی دارم که نشان دهنده سری های زمانی مختلف هستند مانند اینجا: DATE TS1 TS2 TS3 ... 24/03/2003 0.00 0.00 .. 17/04/2003 -0.05 1.46 11/05/2003 0.46 -3.86. 04/06/2003 -2.21 -1.08 28/06/2003 -1.18 -2.16 22/07/2003 0.00 0.23 با R، چگونه می توانم سری های زمانی را که روندهای مشابهی را نشان می دهند گروه بندی کنم؟ | خوشه بندی سری های زمانی |
61977 | توضیح خوبی در مورد اینکه چرا وقتی از مزدوج قبلی استفاده می کنید مجبور نیستید برای پیدا کردن قسمت خلفی ادغام شوید. بیشتر نمونهها (مثلاً: http://www.youtube.com/watch?v=0XD6C_MQXXE) دفعات احتمالی قبلی را ضرب میکنند و به این پایان میرسند که «ببینید چقدر پسین (بدون مقیاس) از همان توزیع قبلی است و ما نیازی به ادغام نداشتیم. اما هرگز توزیع حاشیه ای را محاسبه و بر آن تقسیم نمی کنند. این نوع باعث میشود که مزدوج مانند یک انحراف از این واقعیت به نظر برسد که مشکل ادغام هنوز اصلاً حل نشده است. پس چرا توزیع حاشیهای مورد نیاز نیست؟ | چرا هنگام استفاده از مزدوج، توزیع حاشیه ای لازم نیست؟ |
96839 | داشتم مقالهای در مورد استحکام میخواندم (http://econ.ucsb.edu/~doug/245a/Papers/Robustness%20Checks.pdf) و آنها میگویند: برای تعیین اینکه آیا کسی اثرات مورد علاقه را تخمین زده است، $\beta$ یا فقط ضرایب پیشبینی، $\hat{\beta}$ میتواند استحکام را با حذف یا اضافه کردن متغیرهای کمکی بررسی یا آزمایش کند. قوی بودن یک مدل برای شما چه معنایی دارد؟ آیا این تنها راه برای در نظر گرفتن آن از لحاظ اقتصادسنجی است؟ | چه چیزی یک مدل اقتصاد سنجی را قوی می کند؟ |
65410 | من برخی از نتایج Nanostring دارم که تغییر برابری در بیان را پس از اعمال شرایط مختلف نشان میدهد. افرادی که با آنها کار می کنم دوست دارند بدانند چگونه می توانند ببینند چه شرایطی بیشترین تغییر را ایجاد می کند. به عنوان مثال کدام ژن ها بیشترین واریانس را بین همه شرایط دارند و کدام ژن ها بیشترین واریانس را بین چند شرط دارند، یعنی بین شرایط 1 و 2. کاری که من انجام دادم یک آزمایش ساده واریانس در بین 4 شرط بود. ، با استفاده از تابع var.s در اکسل در اینجا پیوندی به تابع Excel var.s وجود دارد. در اینجا یک مثال کوچک آورده شده است: نام ژن Tconv WT/Treg WT Tconv DEL/Treg WT Tconv WT/Treg DEL Tconv DEL/Treg DEL ACVR2A 1 1.07 -1.02 1.01 AHR 1 1.48 1.26 1.71 1.26 1.24 -AchE 231 - 1.71 -1.13 1.04 -1.19 Arg1 1 1.1 -1.61 -1.14 Arnt1 1 1.07 -1.03 1.08 Arnt2 1 1.53 1.3 1.3 همه داده های تغییر فولد را می توانید در pastbin اینجا پیدا کنید. سوالی که من دارم این است که آیا این بهترین آزمایشی است که می توان برای این کار انجام داد، و اگر بخواهم به دنبال بزرگترین تغییر بین شرایط 1 و 2 برای مثال، و همچنین تمام ترکیبات دیگر بگردم، هنوز هم می توانم از همان استفاده کنم. تست؟ | نحوه آزمایش واریانس بین شرایط |
43077 | کسی می داند که چه شبه همبستگی هایی در خروجی DCC GARCH وجود دارد. من با همبستگی پیرسون آشنا هستم، همیشه بین -1 (منفی کامل) و +1 (مثبت کامل). در خروجی من یک شبه همبستگی 1،6 بین 2 شاخص دارم. دستوری که اجرا کردم: mgarch dcc (var1 var2 = , noconstant)، arch(1) garch(1) constraints(1 2) | شبه همبستگی ها چیست؟ |
9470 | من سعی می کنم مقاله بلوندل و همکاران را تکرار کنم. (2008) برای جداسازی شوک های دائمی و گذرا بر درآمد در مجموعه داده های پانل. او سیستم غیرخطی معادلات را با استفاده از برآوردگر حداقل فاصله چمبرلین حل می کند (در پیوست مقاله نشان داده شده است)، اما من نه کتابخانه ای، نه در R و نه در STATA پیدا نکردم که این کار را انجام دهد. کسی میتونه کمکم کنه؟ | برآوردگر حداقل فاصله |
9477 | تلاشهای من: 1. نتوانستم فواصل اطمینان را در «interaction.plot()» به دست بیاورم. 2. و از سوی دیگر «plotmeans()» از بسته «gplot» دو نمودار را نمایش نمیدهد. علاوه بر این، من نمیتوانم دو نمودار «plotmeans()» را یکی روی دیگری اعمال کنم زیرا به طور پیشفرض محورها متفاوت هستند. 3. من با استفاده از 'plotCI()' از بسته 'gplot' و روی هم قرار دادن دو نمودار موفقیت داشتم، اما همچنان تطابق محور کامل نبود. آیا توصیه ای در مورد چگونگی ایجاد یک طرح تعامل با فواصل اطمینان دارید؟ یا توسط یک تابع، یا راهنمایی در مورد نحوه قرار دادن نمودارهای «plotmeans()» یا «plotCI()». نمونه کد br=ساختار(لیست(گروه = c(140L, 50L, 40L, 140L, 90L, 70L, 110L, 150L, 150L, 110L, 110L, 50L, 90L, 140L, 5, 110L 40 لیتر، 130 لیتر، 120 لیتر، 140 لیتر، 70 لیتر، 50 لیتر، 140 لیتر، 120 لیتر، 130 لیتر، 50 لیتر، 40 لیتر، 80 لیتر، 140 لیتر، 100 لیتر، 60 لیتر، 70 لیتر، 50 لیتر، 30 لیتر، 60 لیتر، 60 لیتر 130 لیتر، 100 لیتر، 70 لیتر، 110 لیتر، 80 لیتر، 120 لیتر، 110 لیتر، 40 لیتر، 100 لیتر، 40 لیتر، 60 لیتر، 120 لیتر، 120 لیتر، 70 لیتر، 80 لیتر، 130 لیتر، 60 لیتر، 70 لیتر، 10 لیتر 90 لیتر، 100 لیتر، 140 لیتر، 70 لیتر، 100 لیتر، 90 لیتر، 130 لیتر، 70 لیتر، 130 لیتر، 40 لیتر، 80 لیتر، 130 لیتر، 150 لیتر، 110 لیتر، 120 لیتر، 140 لیتر، 90 لیتر، 140 لیتر، 90 لیتر، 90 لیتر، 150 لیتر، 90 لیتر، 150 لیتر، 50 لیتر، 50 لیتر، 100 لیتر، 150 لیتر، 80 لیتر، 90 لیتر، 110 لیتر، 150 لیتر، 150 لیتر، 120 لیتر، 80 لیتر، 80 لیتر)، gtangles = c(141L، 4L، 4، 141L، 4 L. 90 لیتر، 128 لیتر، 147 لیتر، 147 لیتر، 120 لیتر، 127 لیتر، 66 لیتر، 118 لیتر، 141 لیتر، 111 لیتر، 59 لیتر، 72 لیتر، 45 لیتر، 52 لیتر، 144 لیتر، 139 لیتر، 7، 143 لیتر، 139 لیتر، 139 لیتر، 143 لیتر، 143 لیتر، 143 لیتر، 143 لیتر 135 لیتر، 63 لیتر، 51 لیتر، 88 لیتر، 147 لیتر، 110 لیتر، 68 لیتر، 78 لیتر، 63 لیتر، 64 لیتر، 70 لیتر، 133 لیتر، 49 لیتر، 129 لیتر، 100 لیتر، 78 لیتر، 128 لیتر، 129 لیتر، 129 لیتر، 91 لیتر، 113 لیتر، 50 لیتر، 68 لیتر، 135 لیتر، 120 لیتر، 85 لیتر، 97 لیتر، 136 لیتر، 59 لیتر، 112 لیتر، 103 لیتر، 62 لیتر، 87 لیتر، 92 لیتر، 116 لیتر، 141 لیتر، 70 لیتر، 141 لیتر، 70 لیتر، 136 لیتر، 121 لیتر 117 لیتر، 51 لیتر، 84 لیتر، 128 لیتر، 162 لیتر، 102 لیتر، 127 لیتر، 151 لیتر، 115 لیتر، 57 لیتر، 93 لیتر، 92 لیتر، 117 لیتر، 140 لیتر، 95 لیتر، 159 لیتر، 57 لیتر، 159 لیتر، 57 لیتر، 100 لیتر 117 لیتر، 116 لیتر، 147 لیتر، 140 لیتر، 116 لیتر، 98 لیتر، 95 لیتر)، بالا = c(-1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، -1 لیتر، -1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، 1 لیتر، 1 لیتر، -1 لیتر، -1 لیتر، 1 لیتر، 1 لیتر، -1 لیتر، 1 لیتر، 1 لیتر، -1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، -1 لیتر، -1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، -1 لیتر ، -1 لیتر، 1 لیتر، 1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، 1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، 1 لیتر، -1 لیتر، 1 لیتر، 1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، 1 لیتر، - 1 لیتر، 1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، 1 لیتر، -1 لیتر، 1 لیتر، -1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، -1 لیتر، 1 لیتر، -1 لیتر، 1 لیتر، 1 لیتر، -1 لیتر، -1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، -1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر) ), .Names = c(tangle، gtangles، up)، class = data.frame، row.names = c(NA, -96L)) plotmeans2 <- function(br, alph) {dt=br; tmp <- split(br$gtangles، br$tangle); معنی <- sapply(tmp, mean); stdev <- sqrt(sapply(tmp, var)); n <- sapply(tmp,length); ciw <- qt(alph, n) * stdev / sqrt(n) plotCI(x=means, uiw=ciw, col=black, barcol=blue, lwd=1,ylim=c(40,150), xlim =c(1,12)); par(new=TRUE) dt= زیر مجموعه(br,up==1); tmp <- split(dt$gtangles, dt$tangle); معنی <- sapply(tmp, mean); stdev <- sqrt(sapply(tmp, var)); n <- sapply(tmp,length); ciw <- qt(0.95, n) * stdev / sqrt(n) plotCI(x=means, uiw=ciw, type='l',col=black, barcol=red, lwd=1,ylim= c(40,150), xlim=c(1,12),pch='+'); abline(v=6);abline(h=90);abline(30,10); par(new=TRUE); dt=subset(br,up==-1); tmp <- split(dt$gtangles, dt$tangle); معنی <- sapply(tmp, mean); stdev <- sqrt(sapply(tmp, var)); n <- sapply(tmp,length); ciw <- qt(0.95, n) * stdev / sqrt(n) plotCI(x=means, uiw=ciw, type='l', col=black, barcol=blue, lwd=1,ylim= c(40,150), xlim=c(1,12),pch='-');abline(v=6);abline(h=90); abline(30,10); } plotmeans2(br,.95) | چگونه یک نمودار تعامل با فواصل اطمینان رسم کنیم؟ |
43076 | من میخواهم یک شبه$R^2$ را برای مدلی محاسبه کنم که تخمین پارامتر آن بر اساس حداکثر احتمال است (تابع 'likfit()'، بسته 'geoR'، نرمافزار R). من سعی کردم $R^2$ پیشنهاد شده توسط Maddala (1983) را محاسبه کنم که حداکثر احتمال را برای مدل بدون هیچ پیش بینی کننده و حداکثر احتمال را برای مدل با همه پیش بینی ها مقایسه می کند. من یک مقدار بسیار پایین (0.01٪) دریافت کردم. آیا چیزی را از دست دادم؟ آیا $R^2$ های دیگری وجود دارند که مناسب تر از $R^2$ مدالا باشند؟ | شبه R-squared برای مدل تخمین زده شده با حداکثر احتمال |
69719 | من دادههای نمونهای دارم که انتظار دارم حاوی مقادیری از حداقل چندین توزیع پواسون باشد (مرتبط با مقادیر مختلف لامبدا). برخی از این مقادیر لامبدا به خوبی با یکدیگر فاصله دارند، که منجر به توزیع های متمایز بصری واضحی می شود. هدف من این است که فواصل اطمینان (bin) را در مورد باورپذیرترین این توزیع ها تنظیم کنم تا بتوانم داده ها را به روشی قابل دفاع تجزیه و تحلیل کنم. بنابراین من به استفاده از تست پراکندگی مربع کای شرطی زمانی که هر لامبدا را تخمین زدم فکر میکنم... اما میپرسم بهترین راه برای انتخاب این مقادیر برای لامبدا به غیر از بازرسی ساده بصری چیست. من الان گیر کردم | MLE مقادیر لامبدا پواسون |
105670 | من چند سوال در مورد عملکرد مدل های رگرسیون غیرخطی دارم. 1. آیا قرار است باقیمانده های یک مدل رگرسیون غیرخطی نیز به صورت تصادفی توزیع شوند (مانند رگرسیون خطی)؟ 2. من در حال مقایسه دو مدل رگرسیون غیرخطی (غیر تودرتو) هستم. چه شاخص های عملکرد مدلی را می توانم برای این منظور استفاده کنم؟ درک من مقایسه RSS، RSE، نمودارهای باقیمانده، خود همبستگی و نمودارهای نرمال باقیمانده بود. 3. مدل ها دارای محورهای Y مختلف هستند. بنابراین من سعی کردم متغیرها را استاندارد کنم و سپس RSS، RSE را مجدداً تخمین زدم. آیا این رویکرد درستی است؟ چه معیارهای عملکرد مدل دیگری باید با متغیرهای استاندارد تخمین زده شود؟ | نمودار باقیمانده برای رگرسیون غیر خطی |
54452 | من مجموعه ای از نقاط داده با تعداد کل Nt دارم. من می دانم که داده ها از دو فرآیند مجزا (توزیع) به دست می آیند. من سعی می کنم پارامترهای مدل بهینه را همراه با پارتیشن بندی بهینه برای مجموعه داده پیدا کنم. به طوری که N1+N2=Nt. من میخواهم از معیار اطلاعات بیزی استفاده کنم، سؤال من این است که کدام یک از عبارتهای BIC زیر برای بهینهسازی مناسب است: به عنوان مثال، مشکل تناسب دو خطی یک مجموعه داده را فرض میکنم BIC= LogLikelihood - 0.5*k*log(N) [k: پارامترهای آزاد، N: تعداد نقاط داده] 1) دو مدل برازش خطی مجزا: LL(M1) - log(N1) + LL(M2) - log(N2) (k=2 برای تناسب خطی) 2) یک مدل برازش دو خطی تک: LL(M )-2.5*log(Nt) (k=5؛ 4 (2 تناسب خطی) + 1 (نقطه تقسیم)) | دو مدل ساده یا یک پیچیده، BIC و احتمال |
65418 | من می خواهم یک رگرسیون لجستیک از پوشش واکسیناسیون، به عنوان مثال، $HPV$ انجام دهم. بیایید فرض کنیم که ما 50 ایالت ($S$) داریم. 30 ایالت دارای یک بخش شهری و یک بخش روستایی هستند (متغیر شهرنشینی $U$). 20 بقیه فقط یک منطقه روستایی دارند. 10 ایالت دارای مناطق جمعیتی هستند که در آن افراد فقط اسپانیایی صحبت می کنند و سایر مناطق فقط انگلیسی ($L$). منطقه زبانی فقط کمی با شهرنشینی همبستگی دارد. به عنوان مثال: $S$: 1,.., 50; $U$: شهری/کشور؛ $L$: انگلیسی/اسپانیایی. * S(1)-U(شهری)-L(انگلیسی) * S(1)-U(کشور)-L(انگلیسی) * S(1)-U(شهری)-L(اسپانیایی) * S(1) -U(کشور)-L(اسپانیایی) * S(2)-U(شهری)-L(انگلیسی) * S(2)-U(شهری)-L(اسپانیایی) * S(3)-U(شهری)-L(انگلیسی) * S(3)-U(کشور)-L(انگلیسی) * S(4)-U(شهری)-L(انگلیسی) * S(4)- U(کشور)-L(اسپانیایی) ... که در آن عدد یک حالت را نشان می دهد. وضعیت این است که $U$ در $S$ تو در تو قرار دارد اما هر $S$ دارای هر دو سطح $U$ نیست. این موضوع در مورد متغیر زبانی نیز صادق است. اگر $U$ به طور کامل در $S$ و $L$ به طور کامل در $S$ تو در تو باشد، مدل به نظر می رسد (در اصطلاحات R برای lmer): `y ~ (1|S) +(1|S: U) + (1|S:L)` که در آن $y$: 0/1 واکسینه شده است آیا می توان نسبت شانس را با استفاده از این مدل تخمین زد، حتی اگر متغیرهای $U$ و $L$ به طور کامل تو در تو نباشند؟ یا باید از مدل دیگری استفاده شود، برای مثال: `y ~ (1|S) + U + L` که در آن`(1|S)` متغیر تصادفی است و `U` و `L` متغیرهای ثابت هستند. با سطوح ثابت $U$ و $L$، کاراکتر تودرتو از بین میرود و متغیرها ویژگیهای افراد خواهند بود، یعنی تجمع افراد در نظر گرفته نمیشود. مشکلاتی که با استفاده از متغیرهای ثابت به وجود می آیند: به دلیل تعداد زیاد افراد، نتایج قابل توجهی به همراه خواهند داشت یا CI باریک می شوند. من بسیار خوشحال خواهم شد اگر کسی بتواند به من نکاتی بدهد که چگونه با متغیرهای نیمه تو در تو کنار بیایم. | رگرسیون سلسله مراتبی با متغیرهای جزئی تو در تو |
2245 | پل هالند در مقاله خود با عنوان «آمار و استنتاج علی» در سال 1984 یکی از اساسی ترین سؤالات آمار را مطرح کرد: > یک مدل آماری در مورد علیت چه می تواند بگوید؟ این به شعار او منتهی شد: > NO CAUSATION WITHOUT MANIPULATION که بر اهمیت محدودیتهای پیرامون آزمایشهایی که علیت را در نظر میگیرند تأکید میکرد. اندرو گلمن نکته مشابهی را بیان می کند: > برای اینکه بفهمید وقتی چیزی را تغییر می دهید چه اتفاقی می افتد، باید آن را تغییر دهید.... چیزهایی وجود دارد که از برهم زدن یک سیستم یاد می گیرید که هرگز از هیچ یک از آنها متوجه نخواهید شد. میزان مشاهده غیرفعال ایده های او در این مقاله خلاصه شده است. هنگام استنتاج علی از یک مدل آماری چه ملاحظاتی باید در نظر گرفت؟ | آمار و استنتاج علی؟ |
81647 | من 3 متغیر پنهان دارم که هر کدام 3 اندازه دارند. من می دانم که اندازه نمونه معمولی 15 شرکت کننده در هر اندازه است (یعنی 9 x 15 = 135). من 85 شرکت کننده دارم و فکر نمی کنم زمان کافی برای جمع آوری تعداد بیشتری (شاید حداکثر 15 نفر دیگر) داشته باشم. ادبیاتی که خواندم کمتر از 200 را برای SEM پیشنهاد می کند. بنابراین سوال من این است که اگر من نتوانم از SEM استفاده کنم چه جایگزین معتبری خواهد بود؟ | اندازه نمونه برای SEM. چه جایگزین هایی وجود دارد |
24199 | زمینه لازم این است که من میخواهم جهان را به عنوان دولت مدل کنم و دولت توزیع فراوانی نظرات مردم است. بنابراین نمیدانم که آیا میتوانم از یک متغیر تصادفی، مثلاً $T$، برای مدلسازی حالتی که جهان در آن است و بنابراین توزیع فرکانس استفاده کنم. با تشکر | استفاده از یک متغیر تصادفی برای نشان دادن یک توزیع؟ |
51590 | من برنامه ای برای پیش بینی برخی از ارزش ها برای مردم دارم. برای اعتبار سنجی، درست بودن یا نبودن پیشبینی را پیگیری میکنم، که به من یک بردار باینری با طول حدود 600 میدهد. برای آزمایش اینکه آیا آن بالاتر از یک پیشبینیکننده تصادفی معنادار است، 100 بردار باینری تصادفی از پیشبینیها را برای همان پیشبینی ایجاد کردم. ارزش ها این به من 100 بردار تصادفی و 1 بردار واقعی می دهد. من می خواهم معناداری بین 1 بردار واقعی و مجموعه 100 بردار پیش بینی تصادفی را آزمایش کنم. * آیا تست خوبی برای این کار وجود دارد؟ * آیا یک روش خوب محاسبه اهمیت بین دو بردار در مقادیر p و سپس میانگین آن است؟ * آیا بهتر است کاری با فواصل انجام دهیم، مثلاً با محاسبه فاصله همینگ بین بردار واقعی و 100 بردار تصادفی، 100 مقدار فاصله بدست آوریم؟ اگر این کار را انجام دهم، چگونه می توانم بدانم که آیا این مهم است یا خیر؟ با بررسی چولگی از حالت عادی؟ * من فقط می خواهم ببینم آیا پیش بینی های من بیشتر از شانس است یا خیر. پیشبینیهای تصادفی، بهطور میانگین از 100 آزمایش، 0.33 دقیق هستند. آیا راه آسان تری برای آزمایش اهمیت وجود دارد؟ | اهمیت آماری بردارهای باینری مرتب شده |
54455 | من سعی می کنم یک همبستگی پیرسون دو متغیره بین دو گروه از متغیرها در SPSS ایجاد کنم، اما یکی از گروه ها دارای اعداد اعشاری مثبت و دیگری اعداد اعشاری منفی است. نتایج نشان دهنده همبستگی منفی و معنادار بین دو گروه است. اگر اعداد منفی مثبت بودند، این تحلیل یک همبستگی مثبت و معنادار را نشان میداد. آنچه من تعجب می کنم این است که چگونه این نتایج را تفسیر کنم؟ آیا می توانم به طور دقیق بگویم که یک همبستگی منفی وجود دارد؟ با تشکر | نحوه تفسیر همبستگی با اعداد منفی در SPSS |
46244 | مایلم با استفاده از یک رگرسیون خطی تعداد اشکالاتی را که شرکت من ایجاد می کند، پیش بینی کنم. برای هر بخش از توسعه، پیشبینی عالی نیست ($r^2 = 0.2$). با این حال، وظیفه واقعی من این است که پیش بینی کنم، در کل شرکت، چند باگ در یک هفته تولید خواهیم کرد. خطاهای من تقریباً میانگین صفر هستند، بنابراین در این مجموعه داده انباشته $r^2$ من به 0.8 نزدیکتر است. چگونه باید این را گزارش کنم؟ همکاران من (و مسلماً خودم) چندان با آمار آشنا نیستند، اما اگر چیزی شبیه به «۲۰ درصد واریانس توسط مدل توضیح داده شده است» بگویم، به نظر می رسد که راه زیادی در پیش است. اگر 80 درصد توضیح داده شود، به نظر خوب می رسد. آیا اگر از مدل مجموع $r^2$ بالاتر را گزارش کنم، صحت درک شده خود را ناعادلانه افزایش می دهم؟ | چگونه باید خطاها را برای داده های انبوه گزارش کنم؟ |
2244 | بهترین بسته برای انجام برخی تحلیل ها و نمودارهای بقا در R چیست؟ من چند آموزش رو امتحان کردم ولی جواب قطعی پیدا نکردم. TIA | کاپلان مایر، تجزیه و تحلیل بقا و نمودارها در R |
103367 | یک سوال در مورد این موضوع قبلا پرسیده شده است: ترکیب یک فیلتر کالمن خطی با محدودیت های خطی اضافی؟ و من برخی از منابع داده شده را بررسی کردم: http://academic.csuohio.edu/simond/pubs/IETKalman.pdf احتمالاً از برآورد برآورد استفاده خواهم کرد. با این حال من چند سوال دارم. 1. برای محاسبه log-likelihood، (یعنی هنگام برازش مدل) آیا باید از تخمین های اصلی یا پیش بینی شده استفاده کنم؟ من فرض می کنم قبلی؟ 2. هنگام پیش بینی باید از تخمین اصلی یا پیش بینی شده استفاده کنم، در این مورد فکر می کنم دومی؟ آیا کسی می تواند تأیید کند که در هر مورد از کدام مورد استفاده شود و در حالت ایده آل چرا؟ در نهایت برای روش اندازهگیری پرفکت که در پیوند بالا نشان داده شده است: چرا تعداد محدودیتها مجبور میشوند کمتر از تعداد متغیرها باشد؟ من از نظر ریاضی فکر می کردم که آنها همچنین می توانند با تعداد متغیرها برابر باشند؟ | فیلتر کالمن با محدودیت های خطی |
87077 | من در حال ارزیابی دو (2) مبرد (گاز) هستم که در یک سیستم تبرید استفاده شده است. من داده های دمای مکش اشباع ($S$)، دمای متراکم ($D$) و آمپراژ ($Y$) را برای ارزیابی دارم. دو (2) مجموعه داده وجود دارد. مبرد اول ($R_1$) و مبرد دوم ($R_2$). من از یک مدل غیرخطی و چند متغیره ($S$ & $D$) برای تحلیلهای رگرسیونی استفاده میکنم. چند جمله ای درجه 3 من می خواهم تعیین کنم که به طور متوسط چه مقدار آمپر کمتر/بیشتر، به عنوان درصد، توسط مبرد دوم کشیده می شود. یا، برخی از معیارهای مشابه به عنوان مقایسه عملکرد. اولین فکر این بود: 1. مدل مورد استفاده را تعیین کنید... $Y = b_0 + b_1S + b_2D + b_3SD + b_4S^2 + b_5D^2 + b_6S^2D + b_7D^2S + b_8D^3 + b_9S^3$ 2 ضرایب ($b_i$) را از داده های پایه ($R_1$) استخراج کنید. 3. با استفاده از آن ضرایب، برای هر $S$ و $D$ در مجموعه دادههای $R_2$، هر آمپر مورد انتظار ($\hat{Y}$) را محاسبه کنید و سپس میانگین بگیرید. 4. میانگین $\hat{Y}$ را با میانگین کشش آمپر واقعی ($Y_2$) داده $R_2$ مقایسه کنید. 5. $\text{percent (%) تغییر} = (Y_2 - \hat{Y}) / \hat{Y}$ اما، از آنجایی که مبرد دوم دارای خواص حرارتی کمی متفاوت است و تغییرات کوچکی در سیستم تبرید ایجاد شد ( تنظیمات TXV و superheat) من معتقد نیستم که این روش مقایسه پایه دقیق باشد. فکر بعدی انجام دو (2) تحلیل رگرسیون جداگانه بود: * $Y_1 = a_{0} + a_{1}S_1 + a_{2}D_1 + a_{3}S_1D_1 + a_{4}S_1^2 + a_{ 5}D_1^2 + a_{6}S_1^2D_1 + a_{7}D_1^2S_1 + a_{8}D_1^3 + a_{9}S_1^3$ * $Y_2 = b_{0} + b_{1}S_2 + b_{2}D_2 + b_{3}S_2D_2 + b_{4}S_2^2 + b_{5}D_2^2 + b_{6}S_2^2D_2 + b_{7}D_2^2S_2 + b_{8}D_2^3 + b_{9}S_2^3$ و سپس برای دمای مکش اشباع ($S$)، ضرایب ($a_{1}$ در مقابل $b_{1}$) را مقایسه کنید... $ \text{% change} = (b_{1} - a_{1}) / a_{1}$ با این حال، دوباره، این ضرایب باید وزن متفاوتی داشته باشند... بنابراین، نتایج منحرف میشوند. من معتقدم که میتوانم از آزمون z برای تعیین وزن متفاوت ضرایب استفاده کنم، اما مطمئن نیستم که معنای خروجی را کاملاً درک کرده باشم: $z = (a_{1} - b_{1}) / \sqrt {SE_{a_{1}}^2 + SE_{b_{1}}^2 )}$. اما، این هنوز معیاری برای عملکرد به من نمی دهد، که هدف کلی آن است... پیشاپیش از هر راهنمایی ممنونم... | مقایسه ضرایب رگرسیون همان مدل در مجموعه داده های مختلف |
22928 | $X = AS$ که در آن $A$ ماتریس اختلاط من است و هر ستون $S$ نشان دهنده منابع من است. $X$ داده ای است که مشاهده می کنم. اگر ستون های $S$ مستقل و گوسی باشند، آیا اجزای PCA بسیار شبیه به ICA خواهند بود؟ آیا این تنها شرطی است که این دو روش با هم مطابقت دارند؟ آیا کسی می تواند مثالی از درست بودن این مورد ارائه دهد وقتی که $cov(X)$ مورب نباشد؟ | چه زمانی PCA معادل ICA خواهد بود؟ |
22920 | آیا می توان هر آنتروپی مفید یا آنتروپی شرطی را تعریف کرد که بر اساس فاصله بین نقاط داده و مرکز (ها) خوشه باشد، به جای اینکه بر اساس تعداد نقاط تخصیص داده شده به خوشه مانند آنچه در آن تعریف شده است، به عنوان مثال برای محاسبه v-میزان؟ من دلالت بر این ندارم که معادل اندازه V می خواهم ، اما فقط تعجب می کنم که آیا ممکن است و شاید برای تعریف یک آنتروپی شرطی بر اساس مسافت ها مفید باشد. بنابراین ، آنچه من به دنبال آن هستم نوعی آنتروپی مشروط بر اساس مسافت هاست ، که اجازه می دهد تا با توجه به مسافت ها ، در مورد همگن و کامل بودن خوشه ها داشته باشیم. | آنتروپی بر اساس فواصل اقلیدینی بین نقاط داده / مراکز خوشه؟ |
24193 | من در حال انجام تجزیه و تحلیل بازده هستم. ایده این است که یک سری زمانی از بازده در بازده طبقات مختلف دارایی را رگرسیون کنیم. ضرایب بتا باید به گونهای محدود شوند که مجموع ضرایب 1 باشد و هیچ ضریبی کمتر از 0 یا بزرگتر از 1 نباشد. این ضرایب بتا را میتوان بهگونهای تفسیر کرد که توضیح میدهد چه درصدی از بازده با قرار گرفتن در معرض طبقات مختلف دارایی توضیح داده میشود. آیا بسته هایی در R وجود دارد که به من اجازه دهد رگرسیون فوق را تنظیم کنم و از گزارش همراه در مورد آمار برازش مدل بهره مند شوم؟ یا آیا باید در مورد تنظیم بهینهسازی حداقل مربعات محدود در R (لطفاً به بستههای R توصیهشده ارجاع دهید) تکالیفی انجام دهم؟ | رگرسیون چندگانه با محدودیت در ضرایب |
43078 | فرض کنید $X_n$ دنباله ای از متغیرهای تصادفی توزیع شده یکسان (به عنوان مثال، دو جمله ای $B(1,1/2)$) باشد که _نه_ مستقل هستند (مثلاً برای هر $n$ و $m$، $corr(X_n,X_m) )=c$). در مورد حد میانگین آنها $\sum_n X_n/N$ چه می توان گفت؟ انگیزه: دلیلی که تغییرات قیمت گاوسی فرض می شود این است که آنها توسط اقدامات ظاهرا مستقل بسیاری از معامله گران تشکیل شده اند. با این حال، در واقعیت، معامله گران مستقل نیستند، زیرا، به عنوان مثال، همه آنها یک خبر را می خوانند. بنابراین، $X_n$ بهتر است به عنوان یک مجموعه مشاهده شود، نه یک توالی مرتب. | یک قضیه حدی برای متغیرهای غیر مستقل |
46241 | مشتریان طبق فرآیند پواسون با نرخ 6 در ساعت به بانک میرسند. با توجه به اینکه 10 مشتری وارد شدهاند، تابع جرم احتمال (شرطی) تعداد مشتریانی را که در 20 دقیقه اول وارد شدهاند به وضوح بیان کنید (همراه با یک مدرک). در یک ساعت اول. من این کار را انجام دادم: $$ P(X_{\frac{1}{3}} = x | X_1 = 10) $$ از تعریف احتمال مشترک، ما $$ P(X_{\frac{1}{3) را میدانیم }} = x، X_1 = 10) = P(X_{\frac{1}{3}} = x | X_1 = 10) P(X_1 = 10)$$ تنظیم مجدد می دهد: $$ P(X_{\frac{1}{3}} = x | X_1 = 10) = \frac{ P(X_{\frac{1}{3}} = x، X_1 = 10)} { P(X_1 = 10)}$$ اجازه دهید ابتدا $P(X_{\frac{1}{3}} = x , X_1 = 10)$ را محاسبه کنیم: این می شود: $$ P(X_{\frac{1}{3}} = x، X_{\frac{2}{3}}= y) = P(X_{\frac{1}{3}} = x) P(X_ {\frac{2}{3}} = y) \hspace{1cm} y = 10 - x $$ با استفاده از فرمول پواسون، دریافت میکنید: $$P(X_{\frac{1}{3}} = x ) = \frac{e^{-2}2^x}{x!} \hspace 2cm P(X_{\frac{2}{3}}= y) = \frac{e^{-4}4^y }{y!}$$ و بنابراین $$ P(X_{\frac{1}{3}} = x , X_{\frac{2}{3}}= y) = e^{-6} \frac{2^x4^y}{x!y!} $$ همچنین، با استفاده از فرمول پواسون، دریافت میکنیم: $$ P(X_1 = 10) = \frac{e^{-6}6^{10} }{10!} $$ بنابراین $$\frac{ P(X_{\frac{1}{3}} = x , X_1 = 10)} {P(X_1 = 10)} = \frac{e^{-6} \frac{2^x4^y}{x!y!}}{\frac{e^{-6}6^{10}}{10!}} $$ که من $$ \frac{10 شوید! 2^x 4^y}{x!y! 6^{10}}$$ اما در پاسخ ها می گوید که باید $$ \binom{10}{x} \left( \frac{1}{3} \right)^x \left( \frac{ 2}{3} \right)^{10 - x} $$ چرا اینطور است؟ | یافتن PMF احتمال شرطی، فرآیند پواسون. نمی فهمم 10^6 دلار کجا می رود |
49210 | عذرخواهی من این است که این خیلی ابتدایی است که نمی توان در اینجا پرسید. اگر به اینجا تعلق ندارد، کسی می تواند جای مناسب تری را برای پرسیدن معرفی کند؟ کمی زمینه من در کلاس ارشد آزمایشگاه فیزیک در کالج هستم. اولین آزمایش ما شامل انداختن تاس و محاسبه احتمال پرتاب کردن هر صورت بود. (هدف صرفاً تمرین در کاربرد و درک تجزیه و تحلیل آماری است.) من تصمیم گرفتم که دو تاس را جداگانه پرتاب کنم تا آزمایش کنم که آیا دو تاس یکسان هستند یا خیر. می دانم که اکنون باید نمونه های بیشتری می گرفتم، اما در حال حاضر قادر به جمع آوری داده های بیشتری نیستم. من در ابتدا داده هایم را در آزمایش های 20 رول ثبت کردم و برای هر قالب 15 آزمایش انجام دادم. سپس تعداد هر چهره را در هر آزمایش محاسبه کردم و بر 20 تقسیم کردم تا تخمینی از احتمال در هر آزمایش به دست آید. سپس این احتمالات را در تمام آزمایشها میانگین گرفتم و خطای استاندارد (محاسبه شده به عنوان انحراف استاندارد نمونه) را محاسبه کردم. با این حال، این خطای استاندارد بسیار بزرگ را ایجاد کرد، از حدود 40٪ تا 60٪ برای هر چهره. در اینجا دادههای Die 1 آمده است. میانگین چهره. احتمال خطا درصد خطا 1 0.13 0.08 59.6 2 0.20 0.08 39.0 3 0.18 0.09 47.9 4 0.13 0.08 64.8 5 0.18 0.10 57.15 6. با گروه بندی آزمایش ها به مجموعه های بزرگتر، خطا کاهش یافت. یعنی، آزمایشها را از 1 تا 5، 6 تا 10، و 11 تا 15 گروهبندی کردم و احتمال به دست آوردن هر چهره را به عنوان تعداد چهره در آزمایش گروهی تقسیم بر 100 محاسبه کردم. این مقادیر زیر را برای Die 1: Face Ag. احتمال خطا درصد خطا 1 0.13 0.03 26.6 2 0.20 0.01 5.0 3 0.18 0.04 20.0 4 0.13 0.06 43.5 5 0.18 0.06 32.18 0.06 32.18 6. اشتباه است یا تغییر در میانگین ها و کاهش خطا قابل توضیح است؟ آیا با استفاده از نمونه های بزرگتر آزمایش گروهی کاری انجام می دهم که نتایج خود را باطل کند؟ در صورت تمایل می توانم داده های اصلی خود را با فرمت CSV ارائه دهم و البته اگر چیزهایی می گویم که منطقی نیست، آماده اصلاح هستم. **ویرایش:** اشتباهی را در محاسباتم با گروه های 20 رول پیدا کردم و میانگین ها اکنون همان طور که انتظار می رود یکسان است. با این حال، این سؤال را حل نکرده است که چرا وقتی دادههای خود را در تعداد بیشتری از نمونهها گروهبندی میکنم، خطا بسیار بزرگتر است، که واقعاً سؤالی بود که میخواستم بپرسم. بله، میدانم که میتوانم به سادگی این مشکل را با استفاده از ابزارهای دیگر بررسی کنم، اما هنوز در تعجبم که چرا خطا/انحراف استاندارد کاهش مییابد. من فکر می کنم که این سوال به طور کلی تر از این سوال احتمالی خاص اعمال می شود. یا رویکرد تلاش برای تخمین احتمال از این طریق کاملاً نامعتبر است؟ | گروه بندی آزمایشات خطای استاندارد را کاهش می دهد؟ |
21347 | بنابراین، به عنوان مثال، بیایید بگوییم که من اطلاعاتی در مورد یک حراج کوچکی دارم که انجام دادم. فرض کنید من دارم یک ماشین می فروشم و 5 نفر مناقصه دارند و من اطلاعاتی در مورد هر یک از پیشنهادات آنها دارم، چه کسی برنده شد، چه کسی شرکت کرد و ... حالا فرض کنید من 5 ماشین مختلف دارم، بنابراین حراج 5 بار جداگانه انجام می شود. به عنوان مثال، در یک حراج، هر 5 خریدار شرکت می کنند در حالی که در حراج دیگری فقط 3 خریدار شرکت می کنند. من در تعجبم که چگونه می توان این وضعیت را برای درآمد مورد انتظار مدل کرد (متغیر پیوسته -> مدل خطی)، در حالی که در نظر گرفتن خریدارانی که حضور داشتند. من دادههای هر 5 حراج را با هم مدلسازی میکنم، اما میخواهم حضور یا عدم حضور خریدار در یک حراج را حساب کنم. آیا این موضوع صرفاً شامل یک متغیر ساختگی برای هر خریدار است که در آن 0 وجود ندارد و 1 وجود دارد؟ یا راه حل جایگزینی مانند مدل های درختی یا سایر ابزارهای پیشرفته وجود دارد که می تواند برای بررسی این مشکل استفاده شود. ویرایش 1: من بیش از 5 حراج دارم، اما این عدد را برای ساده نگه داشتن همه چیز مشخص کردم. ویرایش 2: من علاقه مند به شنیدن راه حل های غیر واقعی برای این مشکل هستم. | حسابداری برای حضور متغیر در رگرسیون؟ |
2794 | من می دانم که اهمیت شیب یک رگرسیون خطی LMS را می توان با استفاده از ضریب تعیین r2 و جستجوی مقدار مناسب در جدول F محاسبه کرد. با این حال، من به این فکر میکردم که شاید با جایگزین کردن رگرسیون خطی LMS با یک تناسب خط مستقیم وسط مکرر، و شاید حتی جایگزین کردن مقدار متوسط مورد استفاده برای محاسبه r2 با مقدار میانه دادهها، این «قویتر» را تقویت کنم. آیا دلیلی وجود دارد که این یک رویکرد معتبر نباشد؟ شاید مقادیر در یک جدول F برای مثال با استفاده از LMS و میانگین ها پیش بینی شده باشند؟ | اهمیت شیب مناسب خط مستقیم |
56929 | فرض کنید من یک مجموعه داده $X = \{x_i\} \supset \mathbb{R}^n$ دارم که برای آن فرض میکنم $x_i = y_i + \sigma(y_i)$ برای برخی از متغیرهای مشاهده نشده $\{ y_i \}$ . یعنی من معتقدم که داده های من در معرض نویز ناهمسان است. از آنچه من می بینم، این روش هایی مانند تحلیل عاملی را رد می کند. من در حال حاضر به دنبال روش هایی برای تخمین $p(y_i|x_i)$ در داده های خود هستم. آیا این وضعیت نامی دارد؟ آیا رویکردهای متعارفی وجود دارد؟ | گرفتن یک باور پسین از مشاهدات پر سر و صدا |
56925 | من می خواهم فراشناخت (به عنوان یک ساختار کلی و در هر خرده مقیاس، (دانش شناخت (KC)) و تنظیم شناخت (RC)) رشد در کودکان را با استفاده از پرسشنامه Jr MAI اندازه گیری کنم. Jr MAI دارای دو نسخه، نسخه A (برای 9-11) و B (برای 13-15)، نسخه A دارای مقیاس لیکرت 3 امتیازی و نسخه B دارای مقیاس لیکرت 5 امتیازی است و همچنین تعداد سوالات متفاوتی دارند: نسخه A. دارای 6 مورد KC / RC در حالی که B دارای 8 مورد KC / RC است. بنابراین چگونه می توانم میانگین (گروه A (10-11) و B (13-14)) را برای دیدن تغییرات رشدی (فراشناخت/KC/RC) مقایسه کنم، آیا روش استانداردی با مرجع وجود دارد؟ سوال دوم من: آیا می توان از انواع مختلف نمرات متغیرهای مختلف (به عنوان مثال نمره خام، نمره مقیاس لیکرت ترکیبی، نمره استاندارد از آزمون دستی استاندارد) در تحلیل های بعدی مانند رگرسیون، همبستگی یا حتی در تحلیل میانجی چندگانه (وابسته و میانجی) استفاده کرد. ?. | معادل سازی مشکل با ابزاری که دو نسخه دارند |
57039 | من در حال حاضر با دادههای بیان ژن کار میکنم که در آن تعدادی ژن (متغیرها) روی تعدادی نمونه اندازهگیری شدهاند. من نمیتوانم مجموعه آمار و تجسمسازی را که داریم درک کنم، بنابراین شروع به بررسی آموزش کردم و به بیت زیر رسیدم: > شما یک برش کمتر برای واریانس تعیین میکنید. می توانید مقدار را وارد کنید، > یا از نوار لغزنده استفاده کنید. مقدار نسبت به واریانس متغیر > با بیشترین واریانس است. واریانس بر روی نمونه های فعال > محاسبه می شود. > > مثال: اگر مقدار 0.1 را انتخاب کنید، تمام متغیرهایی که دارای > واریانس σ بزرگتر یا مساوی 0.1 هستند ·σ_max نگهداری می شوند، که σ_max > واریانس متغیر با بیشترین واریانس است. میدانم که ممکن است این سؤال بسیار اساسی باشد، اما چرا میخواهم متغیرهایم را تنها بر اساس تغییر فیلتر کنم؟ آنچه من می خواهم بدانم این است که کدام متغیرها تفاوت بین نمونه ها را توضیح می دهند (که فرض می شود به چند شرایط مختلف بیولوژیکی تعلق دارند) | منطق/انگیزه پشت پیش فیلتر کردن داده ها بر اساس واریانس چیست؟ |
22924 | من یک مبتدی در آمار هستم و خودم از نظریه اطلاعات، استنتاج و الگوریتم های یادگیری نوشته دیوید مک کی مطالعه می کنم. من با یکی از سؤالات به دیوار برخورد کردم، و فکر می کردم آیا یکی از شما می تواند آنقدر مهربان باشد که مرا در مسیر درست راهنمایی کند. مسلماً، عنوان من ممکن است اشتباه یا کاملاً گمراه کننده باشد - اگر متوجه شدید، لطفاً به من بگویید چه عنوانی برای این سؤال بهتر بود! مثالی که سؤالات بر اساس آن استوار است به شرح زیر است: > بیل یک سکه خمیده را N بار پرتاب می کند و دنباله ای از سر و دم به دست می آید. ما > فرض می کنیم که سکه hte دارای احتمال fH بالا آمدن سر است. ما نمی دانیم > fH. اگر سرهای nH در پرتاب های N رخ داده باشد، احتمال > توزیع fH چقدر است؟ با توجه به nH سر در N پرتاب، احتمال اینکه نتیجه N+1 یک > سر باشد چقدر است. سوال این است (این تمرین 2.8 در صفحه 30 است): > با فرض یکنواخت قبل از fH، P(fH) = 1، مشکل را در مثال حل کنید > (در بالا داده شد). توزیع خلفی fH را ترسیم کنید و احتمال > را محاسبه کنید که نتیجه N+1 یک سر برای > > 1 باشد. N = 3 و nH = 0. > 2. N = 3 و nH = 2. > 3. N = 10 و nH = 3. > 4. N = 300 و nH = 29. > او همچنین بیان می کند: > انتگرال بتا برای شما مفید خواهد بود: (از آنجایی که من تازه کار هستم، حدس می زنم فقط می توانم > یک پیوند به تصویر بدهم - متاسفم): > http://i.stack.imgur.com /7MxQt.png اکنون حدس میزنم که سختی من به این واقعیت مربوط میشود که من با آمار تازه کار هستم و هنوز هم اصطلاحاً این اصطلاح را یاد میگیرم. بنابراین اجازه دهید سوال خود را به چند قسمت تقسیم کنم: 1. وقتی می گوید توزیع خلفی fH را ترسیم کنید دقیقاً منظورش از آن چیست؟ آیا منظورش تحت اللفظی است؟ (بله...این چقدر من بی معرفتم...) 2. چون به ما fH نمیده انتظار داره خودمون به این نتیجه برسیم؟ آیا چیزی شبیه (fH + 1)/(N + 2) خواهد بود؟ 3. اول اینکه انتگرال بتا رو چطوری بخونم (منظور از Fa,Fb,pa دقیقا چیه) و دوم اینکه چقدر برای این مشکل مفیده؟ همانطور که گفتم، من یک مبتدی هستم، و سعی می کنم تا آنجایی که او گفته است، پیشرفت کنم، اما فکر می کنم در این مرحله به کمک نیاز دارم. پیشاپیش متشکرم | توزیع پسین و محاسبه احتمال یک رویداد آینده |
57034 | من از R برای محاسبه رگرسیون لجستیک با بسیاری از متغیرهای مستقل برای یک برنامه وب Ruby on Rails استفاده کرده ام. با این حال، دیگر نمی توانم با استفاده از RPostgreSQL داده ها را از پایگاه داده به R وارد کنم. میزبان وب اجازه اتصال ناامن به پایگاه داده را متوقف کرده است. نکته این است که یا باید یک میزبان وب جدید تهیه کنم یا الگوریتم رگرسیون لجستیک خودم را در روبی بنویسم. Ruby احتمالاً بهترین زبان برنامه نویسی برای این نوع چیزها نیست، اما من واقعاً انتخابی ندارم. آیا الگوریتمی برای اجرای رگرسیون لجستیک چندگانه وجود دارد؟ | الگوریتم رگرسیون لجستیک در روبی |
60596 | از ویکیپدیا > تحت آزمون آماری Wald، برآورد حداکثر احتمال > $\hat\theta$ پارامتر(های) مورد علاقه $\theta$ با > مقدار پیشنهادی $\theta_0$ مقایسه میشود، ... در تک متغیره در مورد، آمار Wald > $$ \frac{ ( \widehat{ \theta}-\theta_0 )^2 }{\operatorname{var}(\hat است \theta > )} $$ ... که در آن $\operatorname{var}(\widehat\theta)$ واریانس > تخمین حداکثر درستنمایی است. سوال من در مورد چگونگی تخمین $\operatorname{var}(\widehat\theta)$ است، یعنی واریانس MLE $\hat{\theta}$؟ 1. همان مقاله میگوید > یک تخمین معقول از واریانس برای MLE را میتوان با > $\frac{1}{I_n(\widehat\theta)}$ ارائه کرد، که $I_n$ اطلاعات فیشر از پارامتر است. . 2. من به راه دیگری فکر می کنم. از آنجایی که $\operatorname{var}(\widehat\theta)$ $f(n, \theta, \eta)$ است، یعنی تابعی از اندازه نمونه $n$ و مقدار واقعی $\theta$ پارامتر پارامتر علاقه و برخی پارامترهای دیگر $\eta$ (زیرا $\theta$ به تنهایی ممکن است به طور کامل نتواند توزیع نمونه را مشخص کند)، آیا می توانیم ابتدا MLEs $\theta$ و $\eta$ را به عنوان تخمین بزنیم. $\hat{\theta}$ و $\hat{\eta}$، و سپس $f(n, \hat{\theta}, \hat{\eta})$ MLE $\operatorname{var خواهد بود. }(\widehat\theta)$ به دلیل همواری MLE؟ 3. آیا دو روش فوق یکسان خواهد بود (در برخی موارد مانند زمانی که مدل آماری نمونه توزیع های نرمال است؟) با تشکر و احترام! | واریانس MLE را تخمین بزنید |
91159 | من در زمینه پیش بینی مبتدی هستم. میخواهم بدانم بهترین ابزاری که میتوان برای پیشبینی مقادیر آینده در یک سری زمانی با استفاده از الگوریتمهای ژنتیک استفاده کرد، کدام است. آیا ابزاری در متلب برای پیش بینی با استفاده از الگوریتم های ژنتیک مشابه nntoolbox اختصاص داده شده به شبکه های عصبی وجود دارد؟ کمک بسیار قدردانی می شود. | پیش بینی سری های زمانی با استفاده از الگوریتم ژنتیک |
32813 | فقط برای روشن شدن، وقتی منظورم آمار خلاصه است، به میانگین، محدوده چارک میانه، واریانس، انحراف استاندارد اشاره می کنم. هنگام جمع بندی تک متغیره ای که **قطعی یا کیفی** است، با در نظر گرفتن هر دو حالت **اسمی** و **ترتیبی**، آیا یافتن میانگین، میانه، محدوده چارک، واریانس و انحراف معیار منطقی است؟ اگر اینطور است، با اینکه شما یک متغیر پیوسته را خلاصه میکنید متفاوت است و چگونه؟ | از چه آمار خلاصه ای برای متغیرهای طبقه ای یا کیفی استفاده کنیم؟ |
46240 | من نمیدانم چند مرحله برای انتخاب متغیرها برای `lars()` لازم است تا زمانی که الگوریتم به تناسب اشباع پیش رود (مخصوصاً با استفاده از بسته `lars` در R`)؟ کسی میتونه راهنماییم کنه؟ | حداکثر پله ها بر حسب لار |
96830 | یک آزمون آماری مناسب برای تعیین بهترین مدل برای دو مدل خطی رقیب چیست؟ هر دو مدل از متغیرهای مستقل یکسان (IVs) استفاده می کنند. با این حال، برخی از متغیرهای مستقل در زمان های مختلف اندازه گیری می شوند. در مدل اول، IV ها یک بازه زمانی نسبت به متغیر وابسته (DV) عقب می اندازند و در مدل دوم، IV ها مدت زمان بیشتری نسبت به DV عقب می افتند. من علاقه مندم که تعیین کنم کدام دوره تاخیری برای استفاده مناسب تر است. DV برای هر دو مدل در یک دوره زمانی اندازه گیری می شود. در نمادها: $$ y_{i,t} = x_{i,t-1} + y_{i,t-1} + z_{i,t-1} + \epsilon_i $$ در مقابل $$ y_{i, t} = x_{i,t-2} + y_{i,t-2} + z_{i,t-2} + \epsilon_i $$ آیا AIC، BIC و غیره برای این؟ | آزمایش بین دو مدل خطی رقیب با متغیرهای مستقل با تاخیر متفاوت |
52716 | پیشاپیش عذرخواهی می کنم... قبل از اینکه به سوال من برسید مطالب زیادی برای خواندن وجود دارد. شاید میتوانستم یکی دو کلمه را اینجا و آنجا ذخیره کنم... اما در کل، پیشزمینه (فکر میکنم) برای بهتر نشان دادن موضوع لازم بود. خوب، من اخیراً SPSS را برای پشتیبانی از یک تحلیل تحقیقاتی آینده خریداری کردم. من قبلاً از SPSS استفاده نکردهام و میخواهم راهنمایی/نشاندهندههایی برای عادیسازی دریافت کنم. پس زمینه: به عنوان بخشی از این تحقیقات دانشگاهی، قصد دارم در چند هفته آینده یک نظرسنجی را منتشر کنم. برای متغیر وابسته من (و فقط متغیر وابسته)، ابتدا یک ماتریس 2 ستونی برای پاسخ دهندگان نظرسنجی ارائه می کنم که در آن ستون اول نام یک فرآیند (در بین n تعداد ردیف) و ستون دوم شامل یک چک باکس است. فرض کنید من 10 ردیف پیشفرض (یعنی فرآیندها) دارم که شرکتکنندگان هر فرآیندی (در ستون 2) را که معتقدند تیمشان در آن مشارکت دارد بررسی میکنند. مثال: شرکتکننده شماره 1 در نظرسنجی ممکن است ردیفها/فرآیندها را بررسی کند: 1، 3، 7 شرکتکننده نظرسنجی شماره 2 ممکن است ردیفها/فرآیندها را بررسی کند: 1، 4 شرکتکننده نظرسنجی شماره 3 ممکن است ردیفها/فرآیندها را بررسی کند: 5، 7، 8، 9، 10 و و به همین ترتیب... با استفاده از منطق انشعاب در نظرسنجی الکترونیکی، فرآیندهای انتخابی آنها (به عنوان مثال، 1، 3، 7) به سؤالات بعدی منتقل می شود. مضامین آنها به شرح زیر است: سؤال شماره 1 نیاز به نشان دادن فرکانس برای تعداد دفعات تغییر یک فرآیند دارد. یک شرکتکننده در نظرسنجی باید برای هر فرآیند یک مقدار را انتخاب کند - در مقیاس 1 تا 7. سؤالات شماره 2، 3 و 4 چیز دیگری می پرسد (توجه داشته باشید: برای هدف این سؤال وبلاگ، مهم نیست که سؤالات واقعی چه خوانده می شوند). برای سوال دوم تا چهارم، شرکت کنندگان در نظرسنجی باید پاسخ های بله یا خیر را ارائه دهند. (... که در آن بله با 1 و نه به عنوان 0 در SPSS کد می شود). تا اینجای کار خیلی خوبه؟ ** شکست ** پس از تکمیل نظرسنجی (من برای چند صد شرکت کننده تلاش می کنم)، داده ها در SPSS آپلود خواهند شد. در حال حاضر، دوباره، تمام سوالات بالا مربوط به یک متغیر وابسته است. بر اساس پاسخهای شرکتکنندگان در نظرسنجی، میخواهم موارد زیر را ایجاد کنم: الف) امتیاز فردی ب) امتیاز کلی سازمانی بدیهی است که ضرب در ستونها کارساز نخواهد بود... به محض اینکه، به عنوان مثال، به عنوان یک شرکتکننده «خیر» را انتخاب کرد. در هر دو سوال 2، 3، و / یا 4، آن فرآیند به عنوان صفر نمره داده می شود. من آن را نمی خواهم! بنابراین، افزودن احتمالاً انتخاب بهتری است. نمونه ای از نحوه امتیازدهی شرکت کننده نظرسنجی شماره 1: 1: | 5 | 1 | 0 | 1 | = 7 3: | 2 | 1 | 1 | 0 | = 4 7: | 1 | 0 | 0 | 1 | = 2 بنابراین، امتیاز شرکتکننده #1 = 13 (7 + 4 + 2) از سوی دیگر، شرکتکننده شماره 3 در نظرسنجی ممکن است امتیاز داشته باشد: 5: | 3 | 1 | 0 | 0 | = 4 7: | 4 | 0 | 1 | 0 | = 5 8: | 2 | 0 | 0 | 0 | = 2 9: | 7 | 1 | 1 | 1 | = 10 10: | 3 | 1 | 0 | 1 | = 5 بنابراین، نمره شرکتکننده #3 = 26 (4، 5، 2، 10، 5) اکنون، نمره مثال شماره 3 شرکتکننده 26 دو برابر نمره مثال شماره 1 13 است. این در درجه اول به دلیل تعداد بیشتر است. از پروژهها/فرآیندهایی که سومین شرکتکننده در نظرسنجی درگیر آن است. همانطور که سعی میکنم شکلی از «سلامت» سازمان را اندازهگیری کنم، کل کل بزرگتری امتیاز (به دست آمده از طریق تعداد بیشتری از فرآیندها) می تواند به عنوان یک عامل کمک کننده به سلامت سازمان در نظر گرفته شود. در این مثال، این اشتباه خواهد بود! به عبارت دیگر، تنها امتیازهای بزرگتر در سطح فرآیند فردی [(1 در مقابل 3 در مقابل 7) یا (5، 7، 8، 9، 10) ممکن است نشان دهنده یک فرآیند/سازمان ناسالم باشد. بنابراین، فرآیند شماره 9 به خودی خود (با امتیاز 10) ممکن است کمک کننده باشد. بنابراین، سوال من به شرح زیر است: در SPSS، چگونه می توانم داده ها را عادی سازی کنم تا تفاوتی در انتخاب تعداد فرآیندهای یک شرکت کننده در نظرسنجی ایجاد نشود (و در نتیجه داده ها را کج کند)؟ آیا باید فقط بر تعداد فرآیندها تقسیم کنم؟ بنابراین، 13/3 = 4.333 در مقابل 26/5 = 5.2 اگر چنین است، چگونه می توانم آن را در SPSS انجام دهم؟ امیدوارم موارد فوق منطقی باشد. متشکرم، EEH | برای عادی سازی داده ها در SPSS به کمک نیاز دارید |
108602 | فرض کنید مقدار R برابر با 0.5 است و بنابراین مقدار R^2$ آن 0.25 است و مقدار p <0.001 است. (همه از طریق تابع سهام cor.test در R). آیا راهی برای جداسازی موارد/مشاهداتی وجود دارد که تنوع آنها با $R^2$ من بیشتر توضیح داده شده است؟ هدف من دو دسته است، گروهی را که این همبستگی برای آن به حداکثر رسیده است را بیابم و به جای این، گروه دیگر را برای تعاملات جالب دیگر به طور جداگانه بررسی کنم. با عرض پوزش برای عبارت نادرست در اینجا، واضح است که من کاملاً در این زمینه متخصص نیستم، و از این رو کاملاً نمی دانم چگونه یا چه سؤالی بپرسم، اما از شما برای هر راهنمایی که می توانید ارائه دهید متشکرم. | مراحل بعدی پس از بدست آوردن ضریب پیرسون معنی دار |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.