_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
5870
فرض کنید ما سه متغیر مستقل داریم: $$\eqalign{ X_{1}\sim &B(n,\frac{1}{2}+\beta) \cr X_{2}\sim &B(n,\frac{ 1}{2}) \cr X_{3}\sim &B(n,\frac{1}{2}-\beta). }$$ من به دنبال توزیع $$\max(X_{1},X_{2},X_{3})-\min(X_{1},X_{2},X_{3}) هستم .$$ برای $n$ به اندازه کافی بزرگ، $$\Pr(\max(X_{1},X_{2},X_{3})=k)\تقریبا داریم \Pr(X_{1}=k)$$ و به طور مشابه $$\Pr(\min(X_{1},X_{2},X_{3})=k)\تقریبا \Pr(X_{3}= k).$$ بنابراین با استفاده از این دو، داریم: $$\eqalign{ &\Pr(\max(X_{1},X_{2},X_{3})-\min(X_{1},X_{2},X_{3})=k) \cr &\تقریبا \ Pr(X_{1}-X_{3}=k) \cr &=(\frac{1}{2}+\beta)^k (\frac{1}{2}-\beta)^{2n+k}\sum\limits_{i=k}^{n}\binom{n}{i}\binom{n}{i-k} \left (\frac{1+2\beta}{1-2\beta} \right)^{2i} }$$ اما به نظر نمی‌رسد که تخمین آن آسان باشد... من به روش دیگری فکر می‌کردم. متغیرهای دوجمله‌ای را می‌توان با توزیع‌های نرمال تقریب زد و مجموع متغیرهای معمولی توزیع شده کاملاً مشخص است، بنابراین محاسبه آن آسان است. **سوال**: آیا نابرابری هایی وجود دارد که بتواند تقریب بهتری ارائه دهد؟ من فقط از کرانوف چرنوف اطلاع دارم اما اینجا خیلی مفید نیست.
محدوده متغیرهای دوجمله ای غیر یکسان توزیع شده
68358
می‌خواهم SD/فاصله‌های اطمینان قابل مقایسه برای دو پارامتر را پیدا کنم. یک پارامتر تنها توسط یک مطالعه (جدید) اندازه گیری شده است که خطای استاندارد را گزارش می کند. در اینجا، مقدار _t_، اندازه نمونه و SD ارائه شده است. دیگری (ضریب همبستگی) با 10 مطالعه (قدیمی‌تر) اندازه‌گیری شده است، در برخی به عنوان میانگین در بین آزمودنی‌ها، در برخی در تمام کارآزمایی‌ها (نادیده گرفتن افراد). تنها مقادیر موجود برای همه مطالعات n شرکت‌کنندگان و میانگین ضریب همبستگی است. بسیاری از آنها اطلاعات کافی برای محاسبه SDهای قابل مقایسه را گزارش نمی کنند. من معتقدم که در مجموع، _r_ تقریباً در 10 مطالعه این مجموعه قابل مقایسه است. فکر نمی کنم بتوانم SD نمونه را بین آزمودنی ها در مجموعه 1 با SD بین مطالعه در مجموعه 2 به طور مستقیم مقایسه کنم. مطالعه؟ من سعی نمی‌کنم این دو مقدار را با استفاده از یک آزمون مقایسه کنم (از نظر فیزیولوژیکی غیرقابل مقایسه هستند)، فقط می‌خواهم آنها را در مقیاسی مشابه نگاه کنم. اگر نتوانم کمیت مناسبی به دست بیاورم، به سادگی غیررسمی باشم و روی یک SD برای مجموعه 10 مطالعه و دو SD برای مجموعه یک مطالعه تمرکز کنم، تا منعکس کنم که یکی از آنها خیلی بیشتر تخمین زده شده است. دقیقا از دیگری
76212
من در R کار می کنم. می خواهم یک تحلیل رگرسیون برای پیش بینی قیمت در برابر عبارات در یک فیلد متنی اجرا کنم. من مجموعه داده ای از لیست های حراج جواهرات، با قیمت پرداخت شده، تاریخ، و توضیحات بدون ساختار نوع کالا دارم: نوشتار، تاریخ، قیمت_دلار گردنبند یاقوت، اسپانیایی، 1925،45000 انگشتر الماس، 0.7 قیراط، برش بزیر، 1972,24000 گردنبند الماس,1980,87000 ... من می دانم چگونه برای اجرای یک رگرسیون خطی برای قیمت در برابر تاریخ: داده <- read.csv('jewels.csv') lm1 <- lm(data$price~data$date) خلاصه (lm1) اکنون کاری که می‌خواهم انجام دهم ساختن است یک مدل مشابه، با استفاده از کلمات موجود در قسمت توضیحات که بیشتر با قیمت های بالاتر مرتبط هستند. به طور شهودی حدس می‌زنم که اینها شامل «الماس» و «گردنبند» هستند، در حالی که (مثلاً) «آمیتیست» و «حلقه» با قیمت‌های پایین‌تری همراه بودند، اما آیا راهی وجود دارد که بتوانم مدلی برای بررسی این موضوع بسازم؟ احساس من این است که باید کارهای زیر را انجام دهم: * قسمت متن را به یک کیسه کلمات (بردار) تبدیل کنید * کلمات توقف را حذف کنید * هر کلمه را برای شمارش کلی عادی کنید(؟) * نوعی رگرسیون را در برابر قیمت اجرا کنید. من واقعاً از راهنمایی در مورد نحوه نزدیک شدن به هر مرحله استقبال می کنم.
68354
وقتی یک رگرسیون با خطاهای استاندارد قوی در Stata محاسبه می‌شود، $R^2$ تنظیم‌شده نشان داده نمی‌شود. این برای من شگفت‌انگیز است زیرا ارزش $R^2$ در رگرسیون‌های دارای خطاهای استاندارد قوی بی‌تأثیر است. آیا دلیلی آماری برای نقل قول نکردن $R^2$ تعدیل شده در هنگام استفاده از خطاهای استاندارد قوی در رگرسیون وجود دارد؟ علاوه بر این، اگر متغیرهای بیشتری اضافه کنم، تست F ناپدید می شود. (مثلاً با 9 متغیر که نشان می دهد اما با 13 نه)، آیا این به همین دلیل است؟ چگونه می توانیم چنین نتایجی را گزارش کنیم و با این موضوع مقابله کنیم؟
112295
من اخیراً کتابخانه ریاضی Apache Commons را نصب کرده ام تا در مورد برخی از آمارهای اولیه در پروژه خود به من کمک کند. اساساً چیزی که من نیاز دارم محاسبه ضریب همبستگی برای 2 آرایه است که می توانم با استفاده از کلاس PearsonsCorrelation این کار را انجام دهم. با این حال، متوجه شدم که وقتی یکی از متغیرها اسمی است، باید از یک نوع خاص از پیرسون استفاده کنم - ضریب همبستگی نقطه ای بیسری. آیا می توانید به من بگویید آیا کتابخانه جاوا مشابهی وجود دارد که بتواند ضریب Point Biserial را محاسبه کند، زیرا من در جستجوی خود شانسی نداشتم. با تشکر از کمک شما! با احترام،
86645
من مقداری خوشه بندی به یک ماتریس با 30 متغیر تصادفی انجام داده ام که هر متغیر دارای 13000 مشاهده است. من 10 خوشه دریافت کردم و اکنون باید با محاسبه واریانس در هر خوشه آزمایش کنم که خوشه بندی چقدر خوب است. آیا کسی می داند چگونه می توانم واریانس را محاسبه کنم؟ من به راحتی می توانم واریانس هر ستون را در ماتریس خود محاسبه کنم (مثلاً واریانس هر متغیر تصادفی) اما می خواهم واریانس کل خوشه را محاسبه کنم. کسی میدونه چطور میشه انجامش داد؟ به عنوان مثال داده <- data.frame(x=c(2,2,2,3,7), y=c(30,40,40,30,10), z=c(1,2,3,4,5 ), cluster=c('a','a','c','a','c')) نامزدها <- dlply(data,.(cluster),function(data){ laply(data[,-4],var) }) این واریانس در هر ستون برای هر برچسب خوشه (a,c) می دهد. به نظر من این رویکرد درستی نیست.
90805
چگونه می توانم تفاوت معنی داری بین میزان مرگ و میر 4 گروه (هر گروه با n متفاوت) آزمایش کنم: گروه 1: میزان مرگ و میر = 30.9٪، n = 55 گروه 2: mr = 0٪، n = 4 گروه 3: mr = 23.3٪، n = 30 گروه 4: mr = 24.6٪، n = 69 آیا انجام یک آزمون t بین هر گروه کافی است؟ به نظر می رسد که این روشی پیچیده برای ارائه نتایج است.
آزمایش تفاوت معنی داری در میزان مرگ و میر بین چند گروه
76210
آیا کسی می تواند به من یک طرح خودآموز برای تبدیل شدن به یک تحلیلگر آماری را پیشنهاد دهد؟ من به چیزی شبیه به طرح مطالعه خود برای تحلیلگر کمی نیاز دارم
81986
در کتاب درسی _ریاضیات جامع جدید برای سطح O_ نوشته گریر (1983)، من انحراف میانگین محاسبه شده را به این صورت می بینم: > تفاوت مطلق بین مقادیر منفرد و میانگین را جمع کنید. سپس میانگین آن را دریافت کنید. در سرتاسر فصل از عبارت **انحراف میانگین** استفاده شده است. اما اخیراً چندین مرجع دیده ام که از عبارت **انحراف استاندارد** استفاده می کنند و این کاری است که آنها انجام می دهند: > محاسبه مجذورات تفاوت بین مقادیر واحد و میانگین. سپس میانگین آنها و در نهایت ریشه پاسخ را دریافت کنید. من هر دو روش را روی یک مجموعه داده مشترک امتحان کردم و پاسخ آنها متفاوت است. من آمارگیر نیستم وقتی سعی می کردم انحراف را به بچه هایم آموزش دهم، گیج شدم. پس به طور خلاصه، آیا عبارات _انحراف استاندارد_ و _معنی انحراف_ یکسان هستند یا کتاب درسی قدیمی من اشتباه است؟
65876
من داشتم این آموزش مربوط به الگوریتم EM را در http://aass.oru.se/~tdt/ml/extra-readings/EM_algorithm.pdf می خواندم. همانطور که در آموزش داده شده است ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/v5bqe.png) می‌توانیم ببینیم که در هر مرحله E انتظار احتمال را بر توزیع پسینی محاسبه می‌کنیم. متغیرهای پنهان و آن‌ها آن را به حداکثر می‌رسانند. احتمال ورود مورد انتظار نسبت به متغیرهای پنهان توزیع پسین تنها با احتمال بیش از داده‌های مشاهده‌شده محدود می‌شود. سوالات من این است: * چرا $L(\theta)$ غیر محدب است؟ آیا امکان محدب بودن $L(\theta)$ وجود ندارد؟ * علاوه بر این، چرا $l(\theta | \theta_n)$ یک تابع محدب است که در شکل نشان داده شده است؟
108132
1) اگر از فرمول $$r = \displaystyle \frac{\displaystyle\sum_{i=1}^n \left( x_i - \bar{x} \right) \left( y_i - \bar{y} استفاده کنیم. \right)}{\sqrt{\displaystyle \sum_{i=1}^n \left( x_i - \bar{x}\right)^2 \cdot \sum_{i=1}^n \left( y_i - \bar{y}\right)^2}}$$ برای محاسبه $r$، $r = \frac{0}{0}$ دریافت می‌کنیم. 2) اگر $r$ را به عنوان اندازه گیری قدرت و ماهیت رابطه خطی بین دو متغیر ببینیم، $r = 0$ بدست می آوریم زیرا در این مورد رابطه خطی وجود ندارد. 3) اگر یک تناسب مثبت کامل $r = 1$ و یک تناسب منفی کامل $r = -1$ را به دست آورد، به نظر می رسد که باید $r = 1$ یا $-1$ بدست آوریم. (به نظر من این اشتباه است.) کدام صحیح است؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/k81lY.png)
102929
من یک مدل جلوه‌های ترکیبی/تصادفی دارم $$\mathbf{y}_i=\mathbf{X}_i\boldsymbol\beta+\mathbf{Z}_i\mathbf b_i+\boldsymbol\epsilon_i,$$ که در آن اثرات تصادفی $\mathbf b_i $ دارای ماتریس واریانس- کوواریانس است $$D=\text{cov}(\mathbf b_i)=\left(\begin{array}{cc} \sigma_{1}^{2} & \sigma_{12}\\\ \sigma_{12} & \sigma_{2}^{2} \end{ آرایه}\right).$$ می‌خواهم $H_0:\sigma_2^2=0$ را آزمایش کنم. من می دانم که در زیر تهی $\sigma_{12}=0$. اما من حاضر نیستم که $\sigma_{12}=0$ را تحت گزینه جایگزین محدود کنم، یعنی $\sigma_{12}$ و $\sigma^2_1$ نامشخص هستند. من می دانم که برخی از آزمایش ها با فرض اثرات تصادفی مستقل توسعه یافته اند. به عنوان مثال، بسته «RLRsim» می‌تواند آزمون نسبت درستنمایی دقیق (محدود) مبتنی بر شبیه‌سازی را برای آزمایش وجود یک جزء واریانس منفرد انجام دهد. علاوه بر این، طبق گفته @StasK، بوت استرپ در مرز فضای پارامتر مجموعه ای از مسائل و مشکلات خاص خود را دارد که منجر به ناسازگاری می شود. بنابراین نمی‌دانم که آیا هیچ راه‌حل یا مرجع بالقوه‌ای برای آزمون مؤلفه‌های واریانس فردی بدون فرض اثرات تصادفی مستقل وجود دارد؟ اگر به راحتی در دسترس باشد یا بتوان آن را به راحتی اجرا کرد، عالی خواهد بود. با تشکر
60249
من برنامه ای را توسعه می دهم که در آن دائماً نمونه هایی از نبض قلب دریافت می کنم. من یک بازه $t$ ثانیه تعریف کردم. در هر $t$ ثانیه من $n$ نمونه دارم. در هر بازه، می‌خواهم تمایل آن نمونه‌های $n$ را محاسبه کنم. برای مثال، فرض کنید من $n = 5$ دارم و نمونه هایی با مقادیر $\\{70، 88، 95، 103، 115\\}$ دارم. می‌خواهم تشخیص دهم که در نبض قلبم رشد کرده است، و می‌خواهم اندازه‌گیری برای سرعت رشد/کاهش/تقریباً بدون تغییر داشته باشم. من به دو روش برای حل این مشکل فکر کردم. 1. من تقریب خطی را برای نمونه های $n$ با استفاده از رگرسیون خطی با اعمال حداقل مربعات پیاده سازی شده توسط معادلات عادی محاسبه می کنم. (من هر نمونه را به عنوان بردار دو مختصات با مختصات x$ به عنوان زمان و مختصات y$ به عنوان ضربان قلب در نظر می‌گیرم). من از معادلات نرمال یک تابع خطی به شکل $y = mx+b$ دریافت می کنم و معیار من برای گرایش، شیب است، یعنی مقدار $m$. 2. روش دوم محاسبه همبستگی (همبستگی پیرسون) بین بردار $x$ و بردار $y$ است که $x$ زمان و $y$ نبض قلب است. می پرسم به نظر شما کدام رویکرد برای مشکل من (تعیین تمایل نبض های قلب) بهتر است. یا الگوریتم بهتری برای حل این مشکل دارید؟
گرایش مجموعه ای از نمونه ها را محاسبه کنید
76150
1. استقلال 2. همجنسگرایی * * * این سوال از یک مسابقه آنلاین با یک پاسخ درست است، اما مطمئن نیستم که موافق باشم. من می فهمم که جواب همجنس بازی است، اما آیا استقلال اینجا هم نقض نمی شود؟ از آنجایی که هتروسکداستیکی نشان می دهد که باقیمانده ها با X همبستگی دارند، پس یک _وابستگی_ با x وجود دارد. بنابراین استقلال هم نقض می شود. کسی میتونه توضیح بده لطفا
7196
داده‌هایی که می‌خواهم تجزیه و تحلیل کنم شامل مجموعه‌ای از آرا مشابه سیستم رای‌گیری در اینجا در stackexchange است. رای ها باینری هستند، یعنی آیتم ها می توانند رای های بالا یا منفی دریافت کنند. داده ها در یک آزمایش کنترل شده A/B جمع آوری شده است. من می خواهم گروه کنترل را با گروه درمان بر اساس برخی استانداردهای طلایی مقایسه کنم. یعنی برای برخی از آیتم ها می دانم که رای صحیح (طبق استاندارد طلا) باید چه می بود. با این حال، تعداد رای ها در هر مورد متفاوت است و می تواند بین گروه کنترل و درمان متفاوت باشد. فرضیه من این است که درمان خطا رای گیری را کاهش می دهد. اما من مطمئن نیستم که از کدام آزمون آماری استفاده کنم.
108859
داده‌هایی که من استفاده می‌کنم پیوسته هستند و ممکن است تا حدی منحرف باشند، اما احتمالاً مقادیر پرت زیادی ندارند. به من پیشنهاد شده است که یک قانون کلی خوب است که همبستگی های پیرسون و اسپیرمن را بررسی کنیم، و اگر آنها متفاوت هستند گزارش دومی را گزارش کنیم، به این دلیل که تفاوت بین این دو ممکن است نشان دهنده این باشد که مفروضات _r_ پیرسون برآورده نشده است.
13999
پاسخ به این سوال در SO مجموعه ای از تقریباً 125 نام یک تا دو حرفی را برگرداند: http://stackoverflow.com/questions/6979630/what-1-2-letter- object-names-conflict-with-existing -r-objects [1] Ad am ar as bc bd bp br BR bs by c C [14] cc cd ch ci CJ ck Cl cm cn cq cs Cs cv [27] d D dc dd de df dg dn do ds dt e E [40] el ES F FF fn gc gl go H Hi hm I ic [53] id ID اگر IJ Im In ip is J lh ll lm lo [66] Lo ls lu m MH mn ms N nc nd nn ns on [79] Op P pa pf pi Pi pm pp ps pt ق qf qq [92] qr qt r Re rf rk rl rm rt s sc sd SJ [105] sn sp ss t T te tr ts tt tz ug UG UN [118] V VA Vd vi Vo w W y و R کد واردات: nms <- c(Ad، am، ar، as، bc، bd، bp، br، BR، bs، by، c، «C»، «cc»، «cd»، «ch»، «ci»، «CJ»، «ck»، «Cl»، «cm»، «cn»، «cq»، «cs»، «Cs» cv، d، D، dc، dd، de df، dg، dn، do، ds، dt، e، E، el، ES، F، FF، «fn»، «gc»، «gl»، «go»، «H»، «سلام»، «hm»، «I»، «ic»، «id»، «ID»، «if»، «IJ Im، In، ip، is، J، lh، «ll»، «lm»، «lo»، «Lo»، «ls»، «lu»، «m»، «MH»، «mn»، «ms»، «N»، «nc»، «nd nn، ns، on، Op، P، pa، pf، pi، Pi، pm، pp، ps، pt، q، qf، qq، qr، qt، «r»، «Re»، «rf»، «rk»، «rl»، «rm»، «rt»، «s»، «sc»، «sd»، «SJ»، «sn»، «sp ss، t، T، te، tr، ts، tt، tz، ug، UG، UN، V، VA، Vd، vi، Vo، w، W، y) از آنجایی که هدف این سوال این بود که فهرستی به یاد ماندنی از نام اشیا تهیه کنیم که باید از آن اجتناب کرد، و بیشتر انسان ها در معناسازی از یک بلوک متنی چندان خوب نیستند، می خواهم این را تجسم کنم. متأسفانه من دقیقاً از بهترین راه برای انجام این کار مطمئن نیستم. من به چیزی شبیه طرح ساقه و برگ فکر کرده بودم، فقط از آنجایی که مقادیر تکراری وجود ندارد، هر برگ به جای اینکه موجه باقی بماند، در ستون مناسب قرار گرفت. یا یک اقتباس به سبک wordcloud که در آن حروف بر اساس شیوع آن اندازه می‌شوند. ** چگونه می توان این را به وضوح و کارآمدتر تجسم کرد؟** تجسم هایی که یکی از موارد زیر را با روح این سوال مطابقت می دهند: * هدف اصلی: افزایش قابلیت به خاطر سپردن مجموعه ای از نام ها با آشکار کردن الگوها در داده ها * جایگزین هدف: برجسته کردن ویژگی‌های جالب مجموعه نام‌ها (به عنوان مثال که به تجسم توزیع، رایج‌ترین حروف، و غیره کمک می‌کند) پاسخ‌ها در R ترجیح داده می‌شوند، اما همه ایده‌های جالب هستند. خوش آمدید نادیده گرفتن نام های تک حرفی مجاز است، زیرا ارائه آنها به عنوان یک لیست جداگانه آسان تر است.
56858
این سوال در مورد آزمون فرضیه در چارچوب بیزی است که من تازه وارد آن هستم. فرض کنید من دو مدل پواسون مستقل با پارامترهای $\lambda_1$ و $\lambda_2$ دارم به طوری که $X \sim Pois(\lambda_1)$ و $Y \sim Pois(\lambda_2)$. مشاهدات $n$ از هر یک از توزیع های $X$ و $Y$ گرفته شده است. اگر پیشین های $\pi (\lambda_1)$ و $\pi (\lambda_2)$ را ارائه کنم، می توانم پسین های $\pi (\lambda_1 |x)$ و $\pi (\lambda_2 |y)$ را دریافت کنم. سوال من این است که چگونه می توانم این فرضیه را که $\lambda_1 = \lambda_2$ در برابر فرضیه جایگزین $\lambda_1 < \lambda_2$ با استفاده از رویکرد بیزی آزمایش کنم؟ کاری که من انجام دادم این بود که بازه معتبر 95% را برای $\lambda_1$ پیدا کردم که به عنوان $C_1$ نشان دادم. و سپس فرضیه صفر خود را $H_0:\lambda_2 \در C_1$ در مقابل $H_1:\lambda_2>max (C_1)$ قرار دادم و برای به حداقل رساندن خطر بیز آزمایش کردم. آیا این روش مناسبی برای آزمون فرضیه است؟ اگر نه، چه راه بهتری وجود دارد؟ با تشکر
آزمون فرضیه بیزی دو پارامتر
85426
من دانشجویی هستم که در حال حاضر اولین درس آمار خود را می گذرانم. من با اصطلاح آمار آزمون گیج شدم. در ادامه (این را در برخی از کتاب های درسی دیدم)، به نظر می رسد $t$ یک مقدار مشخص است که از یک نمونه خاص محاسبه شده است. $$ t=\frac{\overline{x} - \mu_0}{s / \sqrt{n}} $$ با این حال، در موارد زیر (این را در برخی کتاب‌های درسی دیگر دیدم)، به نظر می‌رسد $T$ تصادفی است. متغیر $$ T=\frac{\overline{X} - \mu_0}{S / \sqrt{n}} $$ بنابراین، آیا عبارت آمار آزمون به معنای یک مقدار خاص یا یک متغیر تصادفی است یا **هردو* *؟ متشکرم!
115287
من نتوانستم دوره تحلیل رگرسیون خود را بگذرانم زیرا مدرس نگفت چه نوع تحلیلی روی داده ها می خواهد. مشکل این بود: > شاخص یکپارچگی زیستی (IBI) معیاری از کیفیت آب در > نهرها است. معیارهای IBI و کاربری زمین برای مجموعه‌ای از جریان‌ها در رگرسیون بومی منطقه اوزارک > هایلند آرکانزاس به عنوان بخشی از یک مطالعه جمع‌آوری شد. جدول > زیر داده‌های IBI را نشان می‌دهد و مساحت حوضه کیلومتر مربع است > برای نهرهای نمونه اصلی با مساحت کمتر یا مساوی 70 > $\text{km}^2$. > > از روش های عددی و گرافیکی برای توصیف متغیر IBI استفاده کنید. همین کار را برای منطقه انجام دهید. نتایج خود را خلاصه کنید. منطقه IBI 21 47 34 76 6 33 47 78 10 62 49 78 23 33 32 64 12 83 16 67 29 61 49 85 28 46 8 53 57 530 9 4 7 10 26 56 31 39 52 89 21 32 8 43 18 29 5 55 18 81 26 82 27 82 26 85 32 59 2 74 59 80 58 88 19 29 16 14 28 91 34 72 70 89 69 80 54 84 39 54 9 71 21 75 54 84 26 79 من نمی دانم از چه روشی باید استفاده کنم و چه نوع تحلیلی مفید خواهد بود. آیا این نوع سوالات در مطالعات پایه طبیعی است؟ آیا باید سعی کنم کتابی در مورد تجزیه و تحلیل رگرسیون پیدا کنم که حاوی تمرینات دقیق تری باشد؟
52534
## موقعیت: n احتمال، هر کدام احتمال رخ دادن خود را دارند و در صورت وقوع، سود خاص خود را دارند. بنابراین پرداخت مورد انتظار $E_n$ $\sum\limits_{i=1}^n \text{احتمال}_i*\text{payout}_i$ است و واریانس مورد انتظار $\sum\limits_{i=1}^n است ( \text{payout}_i- \text{پرداخت مورد انتظار})^2* \text{احتمال}_i$ ## سوال: اگر این فعالیت 5 بار تکرار می شود، پرداخت مورد انتظار $5* \text{انتظار پرداخت}$ است اما واریانس 5 برابر واریانس مورد انتظار نیست. با ادامه این فعالیت باید به نسبت کوچکتر شود. اما چگونه می توانم واریانس را از طریق تکرار محاسبه کنم؟
36207
من یک قاب داده دارم که شامل دو سری زمانی است: تاریخ و شماره نسخه انتشارات Emacs و Firefox. با استفاده از یک دستور ggplot2 می‌توان نموداری ساخت که از لس (به نحوی که کمی سرگرم‌کننده به نظر می‌رسد، که من بدم نمی‌آید) برای تبدیل نقاط به خطوط استفاده می‌کند. چگونه می توانم خطوط را به آینده گسترش دهم؟ من می‌خواهم تعیین کنم که شماره‌های نسخه Emacs و Firefox کجا و چه زمانی با هم تلاقی می‌کنند، و اگر راهی برای نشان دادن محدوده خطا وجود دارد، بهتر است. با توجه به اینکه ggplot2 خطوط را ترسیم می کند، باید یک مدل داشته باشد، اما من نمی دانم چگونه به آن بگویم که خطوط را گسترش دهد یا مدل را بیرون بیاورد و کاری با آن انجام دهد. > library(ggplot2) > برنامه‌ها <- read.csv(http://www.miskatonic.org/files/se-program-versions.csv) > programs$Date <- as.Date(programs$Date, format =%B %d, %Y) > head(programs) تاریخ نسخه برنامه 1 Emacs 24.1 2012-06-10 2 Emacs 23.4 2012-01-29 3 Emacs 23.3 2011-03-10 4 Emacs 23.2 2010-05-08 5 Emacs 23.1 2009-07-29 6 Emacs 22.3 22.3 22.3 2008-09=program Firefox)) تاریخ نسخه برنامه 18 Firefox 16 2012-10-09 19 Firefox 15 2012-08-28 20 Firefox 14 2012-06-26 21 Firefox 13 2012-06-15 22 Firefox2 12-08-2012- 11 13/03/2012 > ggplot (برنامه‌ها، aes(y = نسخه، x = تاریخ، رنگ = برنامه)) + geom_point() + geom_smooth(span = 0.5، fill = NA) ![نسخه‌های Emacs و Firefox بر اساس تاریخ]( http://i.stack.imgur.com/Mswg9.png) (توجه: من مجبور شدم فایرفاکس اولیه را رد کنم نسخه ها و 0.1 را به 0.01 و غیره تبدیل کنید، زیرا نقطه یک و نقطه ده از نظر حسابی با هم برابر هستند. می‌دانم که فایرفاکس هر شش هفته یک بار منتشر می‌شود، اما هنوز وجود ندارند، و من علاقه‌مندم که یک پاسخ کلی برای این سؤال پیش‌بینی داشته باشم.)
29462
آیا درست است که بگوییم توالی حالت پنهان در مدل مارکوف پنهان یک زنجیره مارکوف است؟ با تشکر
17831
من چندین ماتریس واریانس/کوواریانس نمونه دارم، مثلاً $[C_1...C_n]$. این ماتریس‌های کوواریانس با بلوک‌هایی از نمونه‌های نرمال چند متغیره همبسته مطابقت دارند (یعنی نمونه‌های مورد استفاده برای تخمین C_1$ کاملاً مستقل نیستند، اما کاملاً مستقل از نمونه‌های مورد استفاده برای تخمین C_2$ هستند). در واقع، یک ماتریس واریانس/کوواریانس واقعی $C$ وجود دارد. $C_i$ باید نمونه هایی از یک توزیع با انتظار $C$ باشد. من همچنین دو مدل تودرتو دارم که منجر به پیش‌بینی این ماتریس واریانس/کوواریانس واقعی می‌شود (مثلاً $V_0$ و $V_1$). من به دنبال این هستم که به طور رسمی آزمایش کنم که آیا $V_1$ برای $[C_1...C_n]$ بهتر از V_0$ است یا خیر (مدل V_0$ در داخل $V_1$ تو در تو قرار دارد). من به دنبال یک راه استاندارد برای انجام این کار بوده‌ام، اما به نظر نمی‌رسد چیزی پیدا کنم (مثلاً آزمایش‌های لامبدای Wilks و دیگر آزمایش‌های نوع MANOVA دقیقاً آن چیزی نیست که من به دنبال آن هستم). آیا راهی برای نوشتن احتمال $[C_1...C_n]$ با توجه به $V_0$ (یا $V_1$) وجود دارد؟ یا روش دیگری برای مقایسه تناسب این مدل ها؟
29463
من باید بررسی کنم که آیا تفاوت قابل توجهی در ارزش سهام بازار بین 2 نسخه بسته بندی (A و B) یک نوشیدنی معین وجود دارد یا خیر: برای بسته بندی A من نمونه ای از 600 خرید دارم که روی آنها محاسبه می کنم. میانگین ارزش خرید بسته بندی A و همچنین میانگین ارزش خرید کل دسته. هر دو پیامد دارای توزیع نرمال هستند، بنابراین نسبت آنها - سهم ارزش - از توزیع کوشی است. آیا کسی می تواند به من راهنمایی کند که چگونه یک آمار توزیع کوشی را پیدا کنم که با آن بتوانم فرضیه تفاوت بین 2 نسخه بسته بندی در سهام ارزش را تأیید کنم؟ (برای بسته بندی B نمونه 650 است).
36166
من به دنبال ابزار/نرم افزاری هستم که بتواند PDF را به فرمت متن برای استخراج متن تبدیل کند. فایل های PDF که من استفاده می کنم، حاوی جداول زیادی است. من سعی کردم از PDF Miner استفاده کنم، اما در هنگام تبدیل جداول PDF به متن مشکلات زیادی پیدا کردم. آیا کسی می تواند ابزاری را معرفی کند که کارآمد باشد؟ با تشکر
87119
من می دانم که رویکردهای مختلفی برای مقابله با ارزش های گمشده وجود دارد. از من خواسته شده است که داده هایی را که حاوی مقادیر گمشده هستند تجزیه و تحلیل کنم. نویسنده یک مقیاس، زمانی که کمتر از 3 مقدار گم شده در یک مورد وجود داشته باشد، رتبه‌بندی را توصیه کرده است. من علاقه مند به مشاوره در مورد چگونگی انجام این کار هستم. برای مثال، اگر 25 مورد وجود داشته باشد: 3 مورد وجود ندارد، 5 مقدار 2 و 8 مقدار از 1. با تقسیم 18 بر 22 مقدار 0.8 به دست می آید. آیا این بدان معناست که هر مقدار از دست رفته با مقدار 1 جایگزین می شود؟ هر توصیه ای قابل تقدیر است، باب
109260
من به تازگی این ویدیو را تماشا کردم: https://www.youtube.com/watch?v=Fk02TW6reiA فرمولی برای محاسبه پاسخ برای مشکل زیر نشان می دهد: * هر 3 دقیقه 2 مشتری در یک فروشگاه وجود دارد * بنابراین وجود دارد انتظار 6 مشتری در هر 9 دقیقه * احتمال وجود 4 یا کمتر در فروشگاه در 9 دقیقه چقدر است؟ * پاسخ این است: P(0;6)+...+P(4;6) که حدود 0.28 است این منطقی است و به خوبی توضیح داده شده است. با این حال، numpy با توزیع پواسون اساساً مانند یک مولد اعداد تصادفی رفتار می کند: http://docs.scipy.org/doc/numpy/reference/generated/numpy.random.poisson.html ما می توانیم لامبدا را مثلاً 5 و چند عدد را مشخص کنیم. مورد نظر هستند (آگومان دوم) و یک لیست بزرگ از اعداد صحیح دریافت کنید: >>> import numpy به عنوان np >>> s = np.random.poisson(5, 10000) >>> آرایه s([2, 4, 4, ..., 3, 4, 3]) >>> len(s) 10000 اینها دو چیز کاملاً متفاوت به نظر می رسند. چگونه از استفاده از فرمول پواسون برای محاسبه امکان تعداد معینی از رویدادها در یک بازه زمانی به لیستی از اعداد صحیح به ظاهر تصادفی می رسید؟
115246
از آنجایی که هسته PCA همان PCA در فضای ابعاد بالاتر است، آیا بردارهای ویژه به دست آمده نباید متعامد باشند؟ فرض کنید، من $n$ نقاط داده دارم و اجازه دهید $a$ و $b$ دو بردار ویژه از ماتریس کوواریانس داده های نقشه برداری شده باشند، و $\alpha \in \mathbb{R}^n$ و $\beta \در \mathbb {R}^n$ بردارهای ویژه مربوط به مسئله هسته PCA باشد (که با انجام تحلیل ویژه ماتریس هسته $K$ بدست می آید). سپس $a$ و $b$ را می توان به صورت ترکیب خطی داده های ورودی نوشت، یعنی $$a = \sum_{i=1}^n \alpha_i \phi(x_i)$$ و $$b = \sum_{j =1}^n \beta_j \phi(x_j).$$ حاصلضرب داخلی آنها این است: $$\langle a,b \rangle \,=\, \left\langle \sum_{i=1}^n \alpha_i \phi(x_i) ,\sum_{j=1}^n \beta_j \phi(x_j)\right\rangle \, = \, \sum_{i=1}^ n\sum_{j=1}^n \alpha_i \beta_j K_{ij}.$$ چرا این مقدار صفر است؟
71297
من دارم روی چیزی شبیه مشکل زیر کار می کنم. من یک دسته کاربر و N کتاب دارم. هر کاربر یک رتبه بندی مرتب از همه کتاب هایی که خوانده است (که احتمالاً زیرمجموعه ای از کتاب های N است) ایجاد می کند، به عنوان مثال، کتاب 1 > کتاب 40 > کتاب 25. اکنون می خواهم این رتبه بندی کاربران را به یک رتبه بندی مرتب شده تبدیل کنم. همه کتاب ها آیا رویکردهای خوب یا استانداردی برای امتحان وجود دارد؟ تا کنون، من به مدل‌های بردلی-تری که برای مقایسه‌های زوجی اعمال می‌شوند فکر می‌کنم، اما نمی‌خواهم چیز دیگری وجود داشته باشد.
94312
لطفا این سوال احمقانه را ببخشید، من نسبتاً تازه وارد آمار هستم. این کد R را در نظر بگیرید: a = c(1,2,3,4,3,2,3,4,5,5,6,5,4,3,4,5,6,7,8,7,6 ,6,5,6,7,10,9) b = c(10,9,7,6,5,6,7,8,4,6,6,5,4,5,6,5,4,5,6,7,5,4,4,5, 4,3,2) mean((a - mean(a))*(b-mean(b))) [1] -2.42524 cov(a,b) [1] -2.518519 چرا این دو مقدار متفاوت هستند؟ آیا مقادیر میانگین و مورد انتظار یکسان نیستند؟
مطمئن نیستم که بفهمم R چگونه کوواریانس را محاسبه می کند
67320
چگونه آزمون های فرضیه را با داده های بزرگ انجام می دهید؟ من اسکریپت متلب زیر را نوشتم تا بر سردرگمی خود تأکید کنم. تنها کاری که انجام می دهد این است که دو سری تصادفی تولید می کند و یک رگرسیون خطی ساده از یک متغیر روی دیگری اجرا می کند. این رگرسیون را چندین بار با استفاده از مقادیر تصادفی مختلف انجام می دهد و میانگین ها را گزارش می کند. چیزی که تمایل دارد اتفاق بیفتد این است که با افزایش حجم نمونه، مقادیر p به طور متوسط ​​بسیار کوچک می شوند. من می دانم که چون قدرت یک آزمون با حجم نمونه افزایش می یابد، با توجه به یک نمونه به اندازه کافی بزرگ، مقادیر p به اندازه کافی کوچک می شوند، حتی با داده های تصادفی، برای رد هر آزمون فرضیه. من از اطراف پرسیدم و برخی از مردم گفتند که با داده های بزرگ مهم تر است که به اندازه اثر نگاه کنید، یعنی. این که آیا آزمون مهم است و تأثیر آن به اندازه کافی بزرگ است که ما به آن اهمیت دهیم. این به این دلیل است که در اندازه‌های نمونه بزرگ، مقادیر p تفاوت‌های بسیار کوچکی دارند، همانطور که در اینجا توضیح داده شده است. با این حال، اندازه اثر را می توان با مقیاس بندی داده ها تعیین کرد. در زیر متغیر توضیحی را به اندازه کافی کوچک می‌کنم که با توجه به اندازه نمونه به اندازه کافی بزرگ، تأثیر قابل توجهی روی متغیر وابسته دارد. بنابراین من می‌پرسم، اگر این مشکلات وجود داشته باشد، چگونه می‌توانیم بینشی از Big Data بدست آوریم؟ %make میانگین %تصمیم بگیرید از چند مقدار میانگین obs_inside_average = 100; %میانگین شمارنده میانگین_count = 1; برای average_i = 1:obs_inside_average، %do حلقه رگرسیون %تعداد مشاهدات n = 1000; %اولین متغیر مستقل (ترم ثابت) x(1:10,1) = 1; % ایجاد متغیر وابسته و یک رگرسیور برای i = 1:10, y(i,1) = 100 + 100*rand(); x(i,2) = 0.1*rand(); پایان % محاسبه ضرایب بتا = (x'*x)\x'*y; % محاسبه باقی مانده ها u = y - x*beta. % محاسبه مجموع مربعات باقیمانده s_2 = (n-2)\u'*u; % محاسبه t-statistics design = s_2*inv(x'*x); % محاسبه خطاهای استاندارد stn_err = [sqrt(design(1,1));sqrt(design(2,2))]; % محاسبه t-statistics t_stat(1,1) = sqrt(design(1,1))\(beta(1,1) - 0); t_stat(2،1) = sqrt(طراحی(2،2))\(بتا(2،1) - 0); % محاسبه p-statistics p_val(1,1) = 2*(1 - tcdf(abs(t_stat(1,1)), n-2)); p_val(2,1) = 2*(1 - tcdf(abs(t_stat(2,1))، n-2)); %save first beta to data ستون 1 data(average_i,1) = beta(1,1); %save second beta to data ستون 2 data(average_i,2) = beta(2,1); %save first s.e. به داده ستون 3 data(average_i,3) = stn_err(1,1); %save second s.e. به داده ستون 4 data(average_i,4) = stn_err(2,1); %save first t-stat to data ستون 5 data(average_i,5) = t_stat(1,1); %save second t-stat to data ستون 6 data(average_i,6) = t_stat(2,1); %save first p-val to data ستون 7 data(average_i,7) = p_val(1,1); %save second p-val to data ستون 8 data(average_i,8) = p_val(2,1); پایان % محاسبه میانگین بتا اول و دوم b1_average = mean(data(:,1)); b2_average = mean(data(:,2)); بتا = [b1_average;b2_average]; % محاسبه اول و دوم s.e. میانگین se1_average = mean(data(:,3)); se2_average = mean(data(:,4)); stn_err = [se1_average;se2_average]; % محاسبه میانگین t-stat اول و دوم t1_average = mean(data(:,5)); t2_average = mean(data(:,6)); t_stat = [t1_average;t2_average]; % محاسبه میانگین p-val اول و دوم p1_average = mean(data(:,7)); p2_average = mean(data(:,8)); p_val = [p1_average;p2_average]; بتا stn_err t_stat p_val
90807
من اطلاعات بسیاری از سفرها (همان مسیر) را دارم. محتوای سفر: «طول جغرافیایی»، «طول جغرافیایی»، و «زمان در ایستگاه اتوبوس». من می خواهم سفرهایی را که در یک جهت هستند شناسایی کنم (باید دو خوشه باشند: یک جهت و جهت مخالف). آیا الگوریتمی وجود دارد که بتواند این کار را انجام دهد؟
چگونه جهت داده های ترافیک را خوشه بندی کنیم؟
96409
من دو مجموعه را که در SAS اجرا کردم، در رابطه با مدل‌های رگرسیون مکعبی اسپلاین، پیوست می‌کنم. من تازه وارد آمار هستم و تمام تلاشم را می کنم تا یاد بگیرم اما اینجا گیر کرده ام. چگونه می توانم SAS را بر اساس دو یا 3 انحراف استاندارد از مقدار پیش بینی شده با استفاده از splines انتخاب کنم؟ با تشکر گزینه ها ls=75 ps=54 center formdlim =-; داده a; شناسه ورودی $ totalVol DIM Lame; اگر کم نور 325 بود، حذف کنید. /*if totalVol='.' سپس حذف کنید؛ اگر totalVol>36 سپس Vol='totalVol'; اگر totalVol<-2 سپس Vol='totalVol';*/ datalines; 6 18.6 117 0 6 8.2 118 0 6 18.4 119 0 6 26.2 120 0 6 18 121 0 6 17.9 122 0 6 18.8 123 0 6 1405618 20.1 126 0 6 20.2 127 0 6 20.4 128 0 6 8.4 129 0 6 21 130 0 6 8.1 131 0 6 13 132 0 6 13.3 1381 1381 135 0 6 9.3 136 0 6 . 137 0 6 21.3 138 0 6 24.7 139 0 6 18.9 140 0 6 24.1 141 0 6 17.9 142 0 6 19.4 143 0 6 18.9 1456 146. 146 0 6 21.4 147 0 6 21.4 148 0 6 19.4 149 0 6 16.7 150 0 6 18.8 151 0 6 19.3 152 0 6 20.6 1541 1530. 155 0 6 19.5 156 0 6 11.1 157 0 6 19 158 0 6 7.3 159 0 6 20.4 160 0 6 19.6 161 0 6 7 162 0 158 1614 7 7.7 165 0 6 19.6 166 0 6 19.2 167 0 6 8.2 168 0 6 6.7 169 0 6 . 170 0 6 7.8 171 0 6 8.4 172 0 6 8.1 173 0 6 19.2 174 0 6 20.5 175 0 6 17.8 176 0 6 . 177 0 6 11.7 178 0 6 5.8 179 0 6 6.9 180 0 6 12.4 181 0 6 . 182 0 6 14.4 183 0 6 17.2 184 0 6 10 185 0 6 16.6 186 0 6 17.2 187 0 6 5.2 188 0 6 20 189 0 185 0 6 190. 6 6.7 192 0 6 8.3 193 0 6 18.3 194 0 6 18.9 195 0 6 20.5 196 0 6 10 197 0 6 21.3 198 0 6 19.3 608 198 0 6 19.3 608. 201 0 6 20.3 202 0 6 20.3 203 0 6 . 204 0 6 21.5 205 0 6 9.6 206 0 6 . 207 0 6 . 208 0 6 . 209 0 6 7.2 210 0 6 18.8 211 0 6 18.9 212 0 6 19.4 213 0 6 18.8 214 0 6 22.7 215 0 6 11 216 0 6 . 217 0 6 . 218 0 6 . 219 0 6. 220 0 6 . 221 0 6 . 222 0 6 7.9 224 0 6 19.8 225 0 6 16.6 226 0 6 17.6 227 0 6 16.5 228 0 6 . 229 0 6 8.6 230 0 6 19.7 231 0 6 18.7 232 0 6 17.7 233 0 6 . 234 0 6 21.6 235 0 6 18.9 236 0 6 17.7 237 0 6 20.4 238 0 6 20.7 240 0 6 18.2 241 0 6 19 249 249 024 024 0 6 18.2 245 0 6 18.5 246 0 6 8.4 247 0 6 17.6 248 0 6 11.2 249 0 6 10.7 250 0 6 20.9 251 0 6256 6251 6 6.7 254 0 6 18.7 255 0 6 17.6 256 0 6 17.8 257 0 6 7.5 258 0 6 16.8 259 0 6 16.6 260 0 6 . 261 0 6 7.5 262 0 6 6.6 263 0 6 7 264 0 6 14.7 265 0 6 17.5 266 0 6 17.6 267 0 6 16.5 268 0 6 227 268 0 6 2617 0 6 11.6 271 0 6 19.1 272 0 6 15.6 273 0 6 18 274 0 6 17.2 275 0 6 15.1 276 0 6 15.5 277 0 6 270 270 6 270 6 15.5 280 0 6 17.1 281 0 6 14.7 282 0 6 16.1 283 0 6 16.5 284 0 6 16.3 285 0 6 15.9 286 0 6 2814 6 15.5 289 0 6 17.1 290 0 6 16.6 291 0 6 16.7 292 0 6 6.5 293 0 6 15.3 294 0 6 16.2 295 0 6 16.2 295 0 6 6.5 6.5 294 18.6 298 0 6 14.8 299 0 6 15.6 300 0 6 16.6 301 0 6 19 302 0 6 7 303 0 6 14.8 304 0 6 13 3014 06 6 13 3014 06 307 0 6 14.4 308 0 6 9.1 309 0 6 . 310 0 6 . 311 0 6 . 312 0 6 . 313 0 6 10.1 315 0 6 13.6 316 0 6 14.3 317 0 6 13.6 318 0 6 16 319 0 6 14.5 320 0 6 12.3 3213 3213 06. 323 0 6 15.3 324 0 6 6.7 325 0 6 6 326 0 6 7.8 327 0 6 15.6 328 0 6 15.7 329 0 6 7.5 330 0 6 316 310 6 310. 6 14 361 0 6 6.8 362 0 6 15.1 363 0 6 14.4 364 0 6
مجموعه انحراف استاندارد برای مدل رگرسیون مکعبی اسپلاین
113120
برای تفسیر نتایج مدلم به کمک شما نیاز دارم. برای کوتاه کردن داستان، من یک متغیر وابسته پیوسته $Y$، و دو عامل $A$ و $B$ دارم، که هر کدام دارای سطوح $2$$(A_1، A_2، B_1، B_2)$ هستند. علاقه اصلی من تفاوت بین $A_1$ و $A_2$ است، با این حال من تاثیر $B$ را در نظر می‌گیرم. مشاهدات مستقل نیستند، به عبارت دیگر، هر موضوع بیش از $1$ مشاهدات داشته است، بنابراین، من از یک مدل ترکیبی با $A$، $B$ و تعامل $AB$ به عنوان اثرات ثابت و موضوع استفاده کردم. به عنوان یک اثر تصادفی. همه اثرات ثابت $3$ از نظر آماری معنی دار بودند، A با $\text{p -value}$ $0.0001$، $B$ با $\text{p -value}$ $0.0038$ و $AB$ با $\ text{p -value}$ از $0.00032$. من از رایانه خواستم که برش را انجام دهد و یک جفت را آزمایش کند، $A_1$ در مقابل $A_2$ برای $B_1$ و برای $B_2$. برای B_2$ از نظر آماری معنی‌دار بود، با این حال، برای $B_1$ علیرغم مشاهده اختلاف میانگین، با $\text{p -value}$ 0.057$... بنابراین برای B_1$ تفاوت‌ها از نظر آماری معنی‌دار نیستند. (ممکن است به دلیل کمبود قدرت باشد، من از عبارات بدی مانند تقریبا قابل توجه استفاده نمی کنم)، اما در کل، عامل $A$ از نظر آماری معنی دار است! حالا نتیجه من از این تحلیل چه باید باشد؟ چه چیزی را باید گزارش کنم و چگونه؟ برای راحتی شما، دو طرحی را که رایانه به من داده است، پیوست می کنم، به شما کمک می کند مشکل من را ببینید. ![Interatcion plot](http://i.stack.imgur.com/gtpVo.jpg) ![به معنی طرح](http://i.stack.imgur.com/9VUuY.jpg) همه وسایلی که می بینید معنی تنظیم شده (آنچه SAS، NCSS و دیگران به معنای حداقل مربع می گویند). باز هم، هدف من این است که ببینم آیا $A_1$ نسبت به $A_2$ برتری دارد، جایی که مقادیر پایین تر $Y$ بهتر است. پیشاپیش از شما متشکرم.
87118
من اکنون از **توزیع نمایی** برای مدلسازی **فاصله های زمانی دنباله ای از رویدادهای تصادفی** استفاده می کنم. از آنجایی که می توانم چندین لامدا مختلف را برای این مدل انتخاب کنم، می خواهم بفهمم کدام لامدا از آنها مطابقت دارد. بهترین داده های آموزشی به نظر من واگرایی Kullback–Leibler از برخی کاغذها برای انجام این کار استفاده می‌شود، اما: * نمی‌دانم آیا این روش مناسب است یا نه * من نمی‌دانم چگونه کار کنم، همچنین در یادگیری ماشینی تازه کار هستم. کسی میتونه کمکم کنه؟
76155
من با برخی از داده ها سر و کار دارم که در آن برخی از متغیرهای طبقه بندی که به ندرت رخ می دهند مربوط به یک هدف پیش بینی باینری هستند. به عنوان مثال شرکای بازاریابی... برخی 1000 سرنخ ارسال می کنند اما بسیاری دیگر کمتر از 10 عدد کوچک را در یک مجموعه داده با بیش از 20 هزار نمونه ارسال می کنند. به طور معمول، ما با این کار با گروه بندی همه شرکای نادر تحت متغیر Else و استفاده از آن به عنوان مقوله مرجع در رگرسیون لجستیک مقابله می کنیم. من نمی دانم که مزایا و معایب رسیدگی به این موضوع چیست و آیا راه بهتری برای مقابله با آن در مرحله پیش پردازش وجود دارد.
101263
من می دانم که سؤال کلی در مورد واریانس سوگیری قبلاً پرسیده شده است. من رویکرد مکررگرایی و مفهوم انتخاب مدل و تأثیر سوگیری و واریانس را بر دقت یک پیش‌بینی درک می‌کنم. من به دنبال توضیح شهودی سوگیری و واریانس از دیدگاه **بیزی هستم.**
مبادله واریانس تعصب از دیدگاه بیزی
60247
گفته می شود که $S_{xx} = \sum_{i=1}^n(x_i−\overline x)^2 = \sum_{i=1}^n x_i^2 −n\overline x^2$. من گمان می کنم این جبر ساده است، اما هنوز چیزی را از دست می دهم. این چگونه کار می کند؟ علاوه بر این، ویکی‌پدیا اشاره می‌کند که MSE $\sum_i \frac{(X_i - \overline X)^2}{n-2}$ است. با این حال، متن من اشاره می کند که SSE $\sum_i (Y_i-\hat{Y})^2$ است. اما باید اینطور باشد که $MSE = \frac{SSE}{n-2}$. آیا Xs و Ys را می توان به صورت مترادف به این صورت استفاده کرد؟ به نظر من اشتباه است.
سوالات مربوط به تعاریف و نمادگذاری (MSE، SSE، Sxx)
60244
SAS چگونه مقادیر t را محاسبه می کند؟ برای مثال، فرض کنید ما دو متغیر داریم: intercept (که همیشه وجود دارد) و دما در مدلی که در حال کاهش دما بر میزان مرگ و میر در یک منطقه خاص است. t مقدار -1.39 (برق) (B) (دما) چگونه می توان (B) را محاسبه کرد؟ من می‌دانم که به طور نمادین، اگر دما برابر $b_1$ در نظر گرفته شود، ما $\frac{b_1- \beta_1}{s({b_1})}$ داریم. من فرض می‌کنم آنها در اینجا آزمایش می‌کنند که آیا $\beta = 0$ است یا نه، بنابراین ما می‌توانیم صورت‌گر را فقط b_1$ بسازیم. برای بدست آوردن این داده ها می توان به کجا در خروجی SAS معمولی نگاه کرد؟
یافتن داده ها در خروجی SAS برای رگرسیون خطی
60245
من با پکیج changepoint R در R کار می کنم و همه چیز را به جز مقدار جریمه درک می کنم. می دانم که واحدهای تغییر را در میانگین تغییر می دهد، اما هنوز نمی دانم چگونه آن را تفسیر کنم. چگونه بفهمم که چقدر مهم است؟ اگر «pen.value = 0.20» قرار دهم، 8 نقطه تغییر می‌گیرم، اما اگر «pen.value = 0.30» قرار دهم، فقط 5 نقطه تغییر دریافت می‌کنم. چگونه بفهمم که آن 3 نقطه تغییر مهم هستند؟ چگونه باید بدانم که به کدام مقدار بچسبم؟ و چگونه این ارزش ها را تفسیر می کنید؟
مقدار جریمه در تحلیل نقطه تغییر
48234
من در حال خواندن یک گزارش تحقیق هستم. در آن گزارش، آنها از برخی روش های آماری ابتدایی برای تجزیه و تحلیل داده های خود استفاده کردند. یک کمیتی وجود دارد که آنها محاسبه کرده اند به نام سهم (یک عامل)، اما تعریفی برای آن ارائه نکرده اند. من گیج شده ام. من هرگز در مورد سهم یک عامل نشنیده ام. به نظر می رسد که آنها از این عوامل برای ساخت یک مدل خطی استفاده می کنند، به عنوان مثال. $y=ax+b$. آیا کسی معنی را در این زمینه می داند؟
آیا مفهومی به نام مشارکت در آمار وجود دارد؟
63912
من سعی می کنم بفهمم چرا از روش های خاصی برای مقایسه مدل ها در آمار بیزی استفاده می شود. DIC اغلب در مقایسه مدل بیزی استفاده می شود. با این حال، من تحت این تصور هستم که می توان احتمال و/یا BIC را نیز محاسبه کرد. به طور خاص، به من گفته شده است که محاسبه احتمال می‌تواند به «نحوه حاشیه‌سازی پارامترها» بستگی داشته باشد. این به چه معناست؟ آیا دلایل دیگری وجود دارد که چرا برخی افراد BIC را ترجیح نمی دهند؟
مقایسه مدل بیزی: چه چیزی در MCMC وجود دارد که استفاده از RSS یا BIC را سخت می کند؟
11749
من می خواهم ظاهر نشریات را در یک انجمن شبیه سازی کنم و باید بدانم توزیع احتمال سؤال جدید در یک انجمن چقدر است. در اولین شبیه سازی من از توزیع نرمال استفاده کردم، اما فکر می کنم بهترین توزیع می تواند توزیع نمایی باشد.
توزیع احتمال سوالات در یک انجمن
60246
من یک مجموعه داده دارم که گروهی از شرکت‌کنندگان است که هر یک از دو دستگاه را می‌پذیرند یا رد می‌کنند، و می‌خواهم آزمایش کنم که آیا این دو دستگاه با نرخ‌های متفاوتی پذیرفته می‌شوند یا خیر. جدول خلاصه به این صورت پذیرش کلی پذیرش رد X 124 20 Y 111 33 بهترین آزمون آماری برای تعیین اینکه آیا تفاوت بین میزان پذیرش X و میزان پذیرش Y قابل توجه است چیست؟ من از داده‌های باینری استفاده نمی‌کنم، بنابراین اینجا از عمق من خارج است.
تست داده های باینری
90801
من یک مجموعه محدود A از مقادیر گسسته دارم و یک جریان بسته (شبکه کامپیوتری) دارم که در آن به هر بسته مقداری از A اختصاص داده شده است. می‌خواهم تعیین کنم که آیا امکان پیش‌بینی بلندمدت وجود دارد (مثلاً بعد از یک دقیقه) مشخصه (در رابطه با A) جریان این بسته با انجام مشاهدات کوتاه مدت (مثلاً پس از چند ثانیه) از چند بسته اول جریان. به عنوان اولین قدم می خواهم یک طول مشاهده کوتاه مدت مناسب را تعیین کنم. در ابتدا، من می‌خواستم بسته‌های چند ثانیه اول جریان را جمع‌آوری کنم، مقادیر A آنها را میانگین‌گیری کنم تا یک میانگین A-مقدار کوتاه‌مدت به دست بیاورم و این میانگین و std آن را مقایسه کنم. توسعه دهنده با میانگین و std. توسعه دهنده از مشاهده بلند مدت سپس برنامه این بود که مدت زمان مشاهده کوتاه مدت (1/2/3/... ثانیه) تا پایان کوتاه مدت افزایش یابد. توسعه دهنده در یک مرز مشخص است با این حال، متوجه شدم که توزیع مقادیر A از مشاهده بلندمدت بسیار کج است (تصویر را ببینید، محور x A است) و اکنون کمی گم کرده ام که چگونه باید ادامه دهم. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/f0vl1.png) مطالعه کردم تا توزیع های اریب را مقایسه کنم، میانه ترجیح داده می شود، اما نمی دانم که آیا می توانم میانگین را با میانه و ساده تغییر دهم یا نه طبق برنامه پیش بروید یا اگر موارد دیگری وجود دارد که باید در نظر گرفته شود؟ علاوه بر این، آیا باید به عنوان پیش نیاز نشان دهم که توزیع کوتاه مدت با توزیع بلندمدت یکسان است (مثلاً نمایی)؟
آیا برای مقایسه مشاهده کوتاه مدت و بلند مدت باید میانگین یا میانه را در نظر بگیرم؟
64033
من یک مدل «ARIMA(0،2،1)» دارم. چگونه مؤلفه $\hat{e}_t$ مدل را تخمین بزنم. من تئوری های زیادی خوانده ام که من را بیشتر گیج می کند. آیا روش عملی برای تخمین این $\hat{e}_t$ وجود دارد؟ آیا «R» به آن هم کمکی می‌کند؟ من می دانم که مدل «ARIMA(0،2،1)» من را می توان به صورت $Y_{t} = 2Y_{t-1} - Y_{t-2} + e_{t} + \theta e_{t- نوشت 1} دلار من می خواهم 1 بار آینده را پیش بینی کنم. در آن صورت، معادله پیش‌بینی من به صورت $\hat Y_{t}(1) = 2Y_{t} -Y_{t-1} + \theta \hat e_{t}$ داده می‌شود. من ارزش خود را برای Y_{t} = 7.8 دلار و Y_{t-1} = 7.8 دلار می دانم. من مقدار \theta خود را 0.6816- می دانم که از خروجی R به دست آوردم. مشکل من اکنون این است که چگونه می توانم مقدار $\hat e_{t} $ خود را تعیین کنم تا بتوانم $ \hat Y_{t}(1)$ را پیدا کنم؟ من یک کد «R» دارم که همه این پیش‌بینی‌ها را به من می‌دهد، اما می‌خواهم بدانم «R» چگونه اولین پیش‌بینی من را ایجاد کرد و چگونه برآورد $\hat e_{t} $ را پیدا کرد. با تشکر برای نگاه کردن!
چگونه می توانم $e_t$ را از یک مدل میانگین متحرک تخمین بزنم؟
64037
من این مخلوط از دوجمله ای جابجا شده و یکنواخت گسسته را دارم: $$ P(R=r)=\left\\{ \pi\binom{m-1}{r-1} (1-\xi)^{r- 1}\xi^{m-r}+(1-\pi){1\over m}\right\\} $$ با ثابت کردن $\xi$, $\pi$, $m$ برای مقادیر خاص، چگونه می توان من N مقدار تولید می کنم برای متغیر تصادفی $R$؟ به عنوان مثال N = 100، 300 و 900 را فرض کنید.
شبیه سازی نمونه از مدل مخلوط در R
20891
کار با فرمول کوواریانس تعمیم یافته برای بردار، $x$، من دارم: $E[(x-\mu)(x-\mu)^T)] = E(xx^t) - \mu E(x^T )$ اما عبارت $E(x^T)$ برای من چندان منطقی نیست. آیا کسی ایده ای دارد که چرا من این اصطلاح را با جبر ماتریسی خود دریافت می کنم؟
آیا جابجایی رفت و آمد از طریق انتظار انجام می شود؟
60241
درک (اساسی) من از فاصله اطمینان 95% این است که فاصله زمانی است که اگر 100 نمونه تصادفی از جامعه بگیرید، میانگین نمونه 95 برابر می شود. سوال من این است، من اغلب می بینم که از فواصل اطمینان در موقعیت هایی استفاده می شود که من آنها را توصیفی می نامم، نه استنتاجی. آیا این روش درست و صحیحی برای استفاده از آنهاست؟ به عنوان مثال، اگر من تک تک واشرها را در کارخانه خود اندازه بگیرم و میانگین را با فاصله اطمینان 95 درصد ترسیم کنم، چه می گویم؟ اگر 100 بار «نمونه» را دوباره بگیرم، همان میانگین را 100 بار دریافت خواهم کرد. اما من استدلال می‌کنم که داشتن یک فاصله اطمینان مفید است، زیرا از نظر اندازه نمونه و گسترش داده‌ها عملکرد توصیفی دارد. فرض کنید من همه واشرهای کارخانه خود را هر ماه اندازه می‌گیرم و می‌خواهم از فواصل اطمینان استفاده کنم تا ببینم بین میانگین قطر بین این ماه و ماه قبل تفاوت معنی‌داری وجود دارد یا خیر. آیا این مفهوم ناقص است زیرا من به جای نمونه ها به جمعیت ها نگاه می کنم؟ اگر من 100% از میانگین هر ماه مطمئن باشم، آیا سؤالات مهم دیگر اهمیتی ندارند؟ من می دانم که این ممکن است یک سوال احمقانه باشد، پیوند به مطالب خواندنی مناسب با سپاس پذیرفته شده است!
فاصله اطمینان برای جمعیت
49143
من باید داده های عینی جرم (نمایه شده) را با تجزیه و تحلیل مداخله سری زمانی تجزیه و تحلیل کنم. با این حال، من فقط شاخص سالانه از سال 2003 تا 2011 دارم. من همچنین داده های جنایی ذهنی دارم و می خواهم ببینم آیا رابطه ای بین این دو داده مختلف در طول زمان وجود دارد یا خیر. چه تحلیلی را توصیه می کنید؟ همچنین آزمون t با این نوع داده ها چه چیزی را نشان می دهد؟
تجزیه و تحلیل داده های جرم: آزمون t یا سری زمانی؟
49144
من در تلاش برای کشف نحوه گزارش دادن داده های طبقه بندی شده و پیوسته در یک جدول با مشکل مواجه هستم. من می خواهم یک جدول توصیفی ایجاد کنم که برخی از داده های طبقه بندی شده و پیوسته از 3 گروه درمانی که داشتم را خلاصه کند.
ایجاد جدول تشریحی
72521
## تعیین احتمال شرط دو جمله ای یک نمونه تصادفی من یک سوال در مورد احتمال دو جمله ای شامل یک رویداد شرطی دارم. این مشکل مدام مرا اذیت می‌کند، زیرا در حالی که می‌دانم چگونه احتمال دوجمله‌ای را محاسبه کنم که یک متغیر تصادفی شکست خورده است، نمی‌دانم چگونه احتمال شرطی آن متغیر را محاسبه کنم. * * * سوال من این است: **70%** کل محموله ها از **کارخانه A** است که **10% معیوب** است. **30%** از کل محموله ها از **کارخانه B** انجام می شود که **5% آن معیوب است**. یک محموله تصادفی وارد می شود و یک نمونه 20 پینتی گرفته می شود و 1 پینت معیوب است. _احتمال اینکه این محموله از کارخانه A آمده باشد چقدر است؟
دو جمله ای احتمال شرطی یک رویداد
63913
من آزمایشی را در یک طرح فاکتوریل انجام دادم: نور (PAR) را در سه تیمار گیاهخوار و همچنین شش تیمار مواد مغذی اندازه‌گیری کردم. آزمایش مسدود شد. من مدل خطی را به صورت زیر اجرا کرده ام (برای تکرار می توانید داده ها را از وب سایت من دانلود کنید) dat <- read.csv('http://www.natelemoine.com/testDat.csv') mod1 <- lm(light ~ Nutrient*Herbivore + BlockID, dat) نمودارهای باقیمانده بسیار خوب به نظر می رسند par(mfrow=c(2,2)) نمودار(mod1) وقتی من به در جدول ANOVA، اثرات اصلی مواد مغذی و گیاهخوار را می بینم. anova(mod1) تجزیه و تحلیل جدول واریانس پاسخ: نور Df Sum Sq Mean Sq F value Pr(>F) Nutrient 5 4.5603 0.91206 7.1198 5.152e-06 *** Herbivore 2 2.1358 1.06061.060 1.069 *** BlockID 9 5.6186 0.62429 4.8734 9.663e-06 *** Nutrient:Herbivore 10 1.7372 0.17372 1.3561 0.2058882 باقیمانده ها 153 1529-19. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 با این حال، جدول رگرسیون اثرات اصلی غیر قابل توجه و تعاملات قابل توجه را نشان می دهد. خلاصه (mod1) تماس: lm (فرمول = نور ~ ماده مغذی * گیاهخوار + شناسه بلوک، داده = داده) باقیمانده ها: حداقل 1Q Median 3Q Max -0.96084 -0.19573 0.01328 0.24176 0.74200 ضریب تخمینی خطای t مقدار Pr(>|t|) (برق) 1.351669 0.138619 9.751 < 2e-16 *** Nutrientb 0.170548 0.160064 1.066 0.28833 Nutrientc -0.001 -0.28833 Nutrientc -0.001 -0.28833 0.98919 Nutrientd -0.163537 0.160064 -1.022 0.30854 Nutriente -0.392894 0.160064 -2.455 0.01522 * Nutrientf 0.1376810 0.1376010 0.1376010 0.1376010 0.1376010 0. HerbivorePaired -0.074901 0.160064 -0.468 0.64049 HerbivoreZebra -0.036931 0.160064 -0.231 0.81784 ... Nutrientb:HerbivorePaired 0.0040.0396040 0.85811 Nutrientc:HerbivorePaired 0.323127 0.226364 1.427 0.15548 Nutrientd:HerbivorePaired 0.642734 0.226364 2.839 0.0005513 Nutrientd:HerbivorePaired 0.226364 2.006 0.04665 * Nutrientf:HerbivorePaired 0.384195 0.226364 1.697 0.09168. Nutrientb:HerbivoreZebra 0.064540 0.226364 0.285 0.77594 Nutrientc:HerbivoreZebra 0.279311 0.226364 1.234 0.21913 Nutrientd:Z3ebra1605. 0.226364 2.369 0.01911 * ماده مغذی:HerbivoreZebra 0.394504 0.226364 1.743 0.08338. Nutrientf:HerbivoreZebra 0.324598 0.226364 1.434 0.15362 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقیمانده: 0.3579 در 153 درجه آزادی، R-squared چندگانه: 0.4176، R-squared تعدیل شده: 0.3186 F-آمار: 4.219 در 26 و 153 DF، p-value: 8.64-8. سؤال قبلاً به صورت چندگانه مطرح و پاسخ داده شده است پست ها در پست‌های قبلی، موضوع حول انواع مختلف SS مورد استفاده در anova() و lm() بود. با این حال، من فکر نمی کنم این موضوع اینجا باشد. اول از همه، طراحی متعادل است: با (dat, tapply(light, list(Nutrient, Herbivore), length)) دوم اینکه استفاده از گزینه Anova() جدول anova را تغییر نمی دهد. این تعجب آور نیست زیرا طراحی متعادل است. Anova(mod1, type=2) Anova(mod1, type=3) تغییر کنتراست نتایج را (از لحاظ کیفی) تغییر نمی دهد. من هنوز تفسیرهای تقریباً معکوس از anova() در مقابل summary() دریافت می کنم. گزینه‌ها(contrasts=c(contr.sum,contr.poly)) mod2 <- lm(سبک ~ Nutrient*Herbivore + BlockID, dat) anova(mod2) خلاصه (mod2) من گیج شدم زیرا همه چیز خواندن بر روی رگرسیون که با ANOVA موافق نیست، تفاوت‌هایی را در نحوه استفاده R از SS برای توابع summary() و anova() نشان می‌دهد. با این حال، در طراحی متعادل، انواع SS معادل هستند و نتایج در اینجا تغییر نمی کنند. چگونه می توانم بسته به اینکه از کدام خروجی استفاده می کنم، تفسیرهای کاملاً متضادی داشته باشم؟
ANOVA و رگرسیون نتایج متضادی را در R ارائه می دهند
96377
متغیر وابسته من فساد است. من می خواهم تأثیر آزادی مطبوعات و دموکراسی را بر فساد آزمایش کنم. معیار آزادی مطبوعات از 1 تا 100 متغیر است و متغیر دموکراسی از 1 تا 7 مقیاس بندی شده است. آیا می توانم یک اصطلاح تعاملی بین آزادی مطبوعات و دموکراسی ایجاد کنم؟
آیا می توانم یک عبارت تعامل با متغیرهای ترتیبی در یک مدل رگرسیون چندگانه داشته باشم؟
49149
چگونه می توانم مشخص کنم که یک متغیر به طور یکنواخت از مقادیر گسسته $1,2,\ldots,10$ در JAGS نمونه برداری شود؟ حدس می‌زنم می‌خواهم از توزیع dcat() استفاده کنم، اما هنوز مستندات خوبی از پارامترها برای این کار پیدا نکرده‌ام.
توزیع طبقه بندی در JAGS
19599
می‌دانم آیا کسی راهی برای اجرای یک مدل میانجی‌گری چندگانه در R می‌داند. می‌دانم که بسته میانجی‌گری چندین مدل میانجی‌گری ساده را امکان‌پذیر می‌کند، اما من می‌خواهم یک مدل را اجرا کنم که چندین مدل میانجی‌گری را به‌طور همزمان ارزیابی کند. من فرض می‌کنم که می‌توانم این کار را در یک چارچوب SEM (تحلیل مسیر) انجام دهم، اما نمی‌دانم آیا کسی جدید از بسته‌ای است که آمارهای معمول تجزیه و تحلیل میانجی‌گری را برای چند واسطه (اثرات غیرمستقیم، نسبت اثر کل از طریق میانجی‌گری و غیره) محاسبه می‌کند. و می تواند از bootstrapping استفاده کند. من می دانم که این یک راه دور است، اما فکر کردم باید قبل از سرمایه گذاری زمان برای توسعه از ابتدا بپرسم. به روز رسانی: (11/11/2013) از زمانی که این سوال را چند سال پیش پرسیدم، یاد گرفتم که از بسته فوق العاده R lavaan برای انجام میانجیگری چندگانه استفاده کنم. کد مثالی در اینجا آمده است: مدل <- ' # نتیجه مدل outcomeVar ~ c*xVar + b1*medVar1 + b2*medVar2 # مدل های واسطه medVar1 ~ a1*xVar medVar2 ~ a2*xVar # اثرات غیر مستقیم (IDE) medVar1IDE := a1*b1 medVar2IDE := a2*b2 sumIDE := (a1*b1) + (a2*b2) # اثر کل کل := c + (a1*b1) + (a2*b2) medVar1 ~~ medVar2 # مدل همبستگی بین واسطه‌ها توجه داشته باشید که a1,a2,b1, b2 و c برچسب هستند. سپس مدل را اجرا کنید: fit <- sem(model, data=dataframe) و به خروجی نگاه کنید: summary(fit, fit.measures=TRUE, standardize=TRUE, rsquare=TRUE) در نهایت فواصل اطمینان بوت استرپ را ایجاد کنید: boot.fit < - parameterEstimates(fit, boot.ci.type=bca.simple) برای جزئیات بیشتر به وب سایت lavaan مراجعه کنید: http://lavaan.ugent.be/
تحلیل میانجیگری چندگانه در R
90802
من همیشه فکر می‌کردم که وقتی با رگرسیون لجستیک چندجمله‌ای سروکار داریم، این ایده مدل‌سازی خطی توابع «لجستیکی» چگالی احتمال دسته‌های مختلف پاسخ بود (همانطور که در اینجا توضیح داده شد). من در اطراف لجستیک علامت نقل قول قرار دادم زیرا از توابع لجستیک واقعی، $\log\left(\frac{\pi_j(x)}{1-\pi_j(x)}\right)$ استفاده نمی کنیم، اما از مخرج استفاده نمی کنیم. برابر با چگالی یک دسته خاص محور است. سپس من پسوند یک مدل log-linear را کشف کردم، جایی که لگاریتم های توزیع احتمال، $\log(\pi_j(x))$، به طور مستقیم مدل می شوند، همانطور که در اینجا توضیح داده شد. در پایان روز، هنوز هم بسیار شبیه به فرض قبلی است. با این حال، زمانی که وجود این فرمول جایگزین را کشف کردم، مشکلی داشتم که در فرمول «ملوجیت» بسته «R» توضیح داده شده است (pdf). اساساً، هر $\log(\pi_j(x))$ با $\alpha_j+\bar{\beta}\cdot\bar{x}$ مدل‌سازی می‌شود، جایی که $\alpha_j$ یک وقفه است که مشخصه هر دسته پاسخ است. و بردار ضرایب خطی، $\bar{\beta}$، برای هر دسته یکسان است. سوال من شاید یک سوال واقعی نباشد، اما چرا این ابهام؟
ابهام با مدل های لاجیت چند جمله ای
9182
من چندین متغیر (در اینجا: وزن، قطر افقی، قیمت و ساختگی) مربوط به عوامل مختلف دارم (اینجا: سیب، پرتقال، موز و آووکادو): وزن میوه HorDiam قیمت ساختگی سیب 60 60 5 4 سیب 50 70 8 6 نارنجی 80 75 7 2 نارنجی 72 70 9 8 موز 40 30 3 1 موز 45 35 4 2 موز 80 50 8 3 آووکادو 100 60 13 8 آووکادو 95 70 14 6 باید آزمایش کنم که آیا می توانم برخی از گونه ها را با هم گروه بندی کنم: آیا سیب و پرتقال تفاوت قابل توجهی دارند؟ ANOVA به من می گوید که آیا وزن (یا قطر افقی یا قیمت) به طور قابل توجهی در بین گونه ها متفاوت است. تست توکی به من نشان می دهد که آیا وزن یک گونه به طور قابل توجهی با وزن یک گونه دیگر متفاوت است (دو به دو). به نظر می رسد خوشه بندی فقط می تواند مشاهدات فردی را با هم گروه بندی کند، نه گونه ها را. من نمی توانم آزمون (یا الگوریتم) مناسب را پیدا کنم تا به من بگوید برای یک متغیر واحد (وزن) یا برای همه آنها (وزن، horDiam و قیمت)، سیب را می توان با پرتقال و/یا با موز گروه بندی کرد. هر پیشنهادی؟ من یک کد _R_ برای این مثال ایجاد کردم: ### CREATE TABLE Fruit<-c(سیب، سیب، پرتقال، پرتقال، موز، موز، موز، آووکادو آووکادو) وزن<-c(60،50،80،72،40،45،85،90،95) horDiam<-c(60,70,75,70,30,35,50,60,70) Price<-c(5,8,7,9,3,4,8,13,14) ساختگی<-c (4,6,2,8,1,2,3,8,6) myData<-data.frame(Fruit=Fruit, Weight=Weight, horDiam=horDiam، Price=Price، Dummy=Dummy) نام ردیف (myData)<-c(Apple1, Apple2، Orange1، Orange2، Banana1، Banana2، Banana3، Avocado1 Avocado2) ### ANOVA fit.aov<-list() summaryAOV<-list() برای (i در 1:3){ fit.aov[[i]]<-aov(myData[,i+1]~myData[,1]) summaryAOV[[i]]<-summary(fit.aov[[ i]]) } ### TUKEY par(mfrow=c(1,3)) testTukey<-list() mainTukey<-c(وزن، Horiz. قطر، قیمت) برای (i در 1:3){ testTukey[[i]]<-TukeyHSD(fit.aov[[i]]، conf.level = 0.95) نمودار(testTukey[[i]]، main=mainTukey[i]) } ### CLUSTERING plot( hclust(dist(myData), method=ward) ) ### خوشه بندی با P-VALUE تناسب <- pvclust(t(myData[,-1]), method.hclust=ward, method.dist=euclidean) plot(fit) pvrect(fit, alpha=0.95)
گروه بندی چند متغیره: خوشه بندی، آنوا، توکی
45647
من در حال انجام مطالعه ای در مورد رابطه بین دو مورد مثلا A و B هستم. داده ها شامل اطلاعات چاپ شده بر روی گزارش های سالانه مثلاً 2000 - 2010 (10 سال) است. برای هر آیتم، یعنی A و B، متغیرهای فرعی وجود دارد. مورد الف دارای 3 متغیر با 9 شاخص و مورد ب دارای 1 متغیر با 2 شاخص است. داده های مورد A به صورت کلمات هستند. من از تحلیل محتوا برای محاسبه تعداد دفعاتی که هر شاخص در هر گزارش برای هر سال ذکر شده است استفاده کردم. برای مورد B، داده ها بر حسب درصد هستند، بنابراین من 2 مقدار درصد متفاوت برای هر سال (10 سال) دارم. من می خواهم رابطه (مثبت، منفی یا خنثی) بین این موارد را با مورد A به عنوان متغیر مستقل و مورد B متغیر وابسته خود پیدا کنم. چگونه در این مورد اقدام کنم؟ به من گفته اند که از SPSS استفاده کنم، اما نمی دانم از چه روشی استفاده کنم. برای تعیین رابطه بین این دو مورد، چگونه باید تحلیل خود را انجام دهم؟
چگونه داده ها را از گزارش های سالانه جمع آوری کنیم؟
63917
آیا بسته R برای اجرای کمند آرام برای مدل خطرات متناسب کاکس وجود دارد؟ متشکرم.
بسته R (کنج آرام برای مدل خطرات متناسب کاکس)
99533
فرض کنید 1000 دارت پرتاب می کنید که هر دارت 0.5 احتمال گلزنی دارد. برای 500 دارت اول هر یک 1 امتیاز و برای 500 دارت دوم هر یک 3 امتیاز دارد. اگر 1500 امتیاز کسب کنید، به احتمال زیاد چند دارت 3 امتیازی کسب کرده اید؟ اگر از روش درستنمایی استفاده کنم، باید تابع زیر را به حداکثر برسانم: $$ \binom{500}{k} \binom{500}{1500-3k}$$ که $k$ از 334$ تا $500$ متغیر است. حداکثر در k $ = 398 $ اتفاق می افتد. با این حال، اگر سعی کنم انتظارات را پیدا کنم، ارزش متفاوتی دریافت می کنم. از این سوال می توانیم اولین دارت را به عنوان توزیع دو جمله ای با $B_1(500,0.5)$ و دارت دوم را به عنوان توزیع دو جمله ای $B_2$ با پارامترهای مشابه مدل کنیم. سپس باید $$ E [B_2 | را پیدا کنیم B_1 + 3B_2 = 1500]$$ که معلوم می‌شود 375$ است. سوال من این است که با توجه به اینکه مقادیر متفاوتی برای هر کدام به دست می‌آورم، کدام رویکرد را انتخاب کنم؟
حداکثر احتمال یا غیره
64031
آیا کسی ایده ای دارد که چگونه می توان سری های زمانی را با توجه به ویژگی های خاص تشخیص داد؟ تنها ویژگی‌های سری زمانی که من می‌شناسم، ایستایی/ناپایداری و هموسکداستیتیتی/هتروسکداستیتی هستند. اما آیا امکان دیگری برای تشخیص سری های زمانی وجود دارد؟
خواص سری زمانی
16908
من برای تعریف نوع توزیع مورد استفاده در نرم افزار به کمک نیاز دارم تا بتوانم از کتابخانه توزیع استاندارد برای این منظور استفاده کنم. بابت عدم استفاده از اصطلاحات مناسب عذرخواهی می کنم. مقدار مرکز و یک پارامتر آلفا (0 تا 1) را می گیرد و N مقدار را در یک محدوده مشخص تولید می کند، به طوری که مقادیر در اطراف این مقدار مرکز خوشه بندی می شوند. هرچه آلفا کمتر باشد کمتر مرکز هستند. به عنوان مثال، اگر من محدوده 1-5 را با مرکز 4 تغذیه کنم، آلفا=0.5 و 20 مقدار بخواهم، نتیجه چیزی شبیه به این خواهد بود: 1:1 ضربدر 2:3 ضربدر 3:4 ضربدر 4:7 ضربدر 5 :5 بار شما ایده را دریافت می کنید. با تشکر P.S. در صورتی که ممکن است کمک کند، من چند عصاره از کد ارائه کردم کد تابع چگالی احتمال: تابع خصوصی ارزیابیProbabilityDensityFunction(){ $probabilityDensityFunction=array(); برای ($i = 0؛ $i < $this->valueRange->getNumberOfValues(); $i++) $probabilityDensityFunction[$i] = $this->probabilityFunction() * $this->probabilityCenteredCoefficient($i); بازگشت $probabilityDensityFunction; } تابع خصوصی probabilityFunction(){ return (1 - $this->settings->getAlpha()) / (1 - pow($this->settings->getAlpha()، $this->valueRange->getNumberOfValues() - $this->CentralValueSerialNumber() + 1) + $this->settings->getAlpha() - pow($this->settings->getAlpha()، $this->CentralValueSerialNumber())); } private double centerBasedCoefficient(int valueIndex) { return Math.pow(parameters.alpha, distanceFromCenter(valueIndex)+1); } تابع خصوصی distanceFromCentralValue($serialNumber){ return abs($this->CentralValueSerialNumber() - $serialNumber - 1); } و در اینجا کد تابع تجمعی تابع خصوصی ارزیابیCumulativeDistributionFunction(){ $cumulativeDistributionFunction = array(); $cumulativeDistributionFunction[0] = $this->probabilityFunction->getValue(0); برای ($i = 1؛ $i < $this->getValueRange()->getNumberOfValues(); $i++) $cumulativeDistributionFunction[$i] = $cumulativeDistributionFunction[$i - 1] + $this->probabilityFunction->getValue ($i)؛ بازگشت $cumulativeDistributionFunction. } و در اینجا نحوه دریافت مقادیر توزیع شده تابع عمومی getValue(){ return $this->multinomialDistribution()+$this->cumulativeFunction->getValueRange()->getFromValue(); } تابع خصوصی multinomialDistribution(){ $rnd= lcg_value(); // تصادفی (0,1) برای ($i=0; $i<$this->cumulativeFunction->getValueRange()->getNumberOfValues(); $i++) if ($this->cumulativeFunction->getValue($i ) > $rnd) بازگشت $i; avêtin جدید Exception (همیشه باید یک مقدار برگرداند); }
نام مناسب برای این نوع توزیع
11746
ضریب پیرسون بین دو متغیر بسیار زیاد است (r=.65). اما وقتی مقادیر متغیر را رتبه بندی می کنم و همبستگی Spearman را اجرا می کنم، مقدار ضریب بسیار کمتر است (r=.30). * تعبیر این چیست؟
چه چیزی می تواند باعث ایجاد تفاوت های بزرگ در ضریب همبستگی بین همبستگی پیرسون و اسپیرمن برای یک مجموعه داده معین شود؟
80397
من می‌خواهم کسی بتواند به من اشاره کند که ماشین‌های بردار پشتیبان برای طول جغرافیایی استفاده می‌شوند. منطقی به نظر می رسد که پیچیدگی احتمالی در SVM برای مدل سازی متغیرهای وابسته به مکان عالی باشد. در این مورد، من سعی دارم افسردگی را وابسته به کد پستی ایالات متحده مدل کنم. ایده من این است که این کدهای پستی را به طول و عرض جغرافیایی تبدیل کنم و سپس از یک SVM استفاده کنیم. آیا قبلاً از این روش استفاده شده است، آیا کسی روش دیگری را توصیه می کند؟
پشتیبانی از ماشین برداری برای داده های طول و عرض جغرافیایی
49141
پیش‌بینی‌های من که از یک مدل رگرسیون لجستیک (glm در R) می‌آیند، همانطور که انتظار داشتم بین 0 و 1 محدود نمی‌شوند. درک من از رگرسیون لجستیک این است که پارامترهای ورودی و مدل شما به صورت خطی ترکیب می شوند و پاسخ با استفاده از تابع پیوند لاجیت به احتمال تبدیل می شود. از آنجایی که تابع logit بین 0 و 1 محدود شده است، انتظار داشتم پیش‌بینی‌های من بین 0 و 1 محدود شود. اما این چیزی نیست که من هنگام اجرای رگرسیون لجستیک در R می‌بینم: data(iris) iris.sub <- subset(iris, گونه%in%c(versicolor،virginica)) مدل <- glm(Species ~ Sepal.Length + Sepal.Width، data = iris.sub، family = binomial(link = logit)) hist(predict(model)) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/0BHU5. png) اگر چیزی باشد خروجی predict(model) برای من عادی به نظر می رسد. آیا کسی می تواند به من توضیح دهد که چرا مقادیری که من دریافت می کنم احتمال نیستند؟
درک پیش بینی های رگرسیون لجستیک
90211
من در حال تجزیه و تحلیل خطر برای رانندگان هستم، یعنی مرگ و میر راننده / مسافت طی شده. با گذشت زمان مسافت طی شده افزایش می یابد (افراد بیشتر رانندگی می کنند) در حالی که مرگ و میر راننده ceteris paribus کاهش می یابد (وسایل نقلیه ایمن تر هستند.) برای مقابله با این واریانس های ناپایدار، آیا باید ریسک را به صورت log (مرگ/فاصله) یا log (مرگ ها)/log (فاصله) تعریف کنم.
آیا باید ضریب 2 متغیر را وارد کنم یا از ضریب 2 متغیر ثبت شده استفاده کنم؟
63919
من یک متغیر تصادفی با علامت $N$ دارم. سپس متغیرهای تصادفی با نشان‌دهنده $X_1$، $X_2$، ...، $X_N$ را دارم که بر اساس توزیع یکنواخت توزیع شده‌اند. همچنین متغیرهای تصادفی با نشان‌دهنده $Y_1$، $Y_2$، ...، $Y_N$ بر اساس همین توزیع احتمال توزیع شده‌اند. اگر متغیر $S_X$ را طوری در نظر بگیریم که $S_X=\sum_{i=1}^{N}X_i$ و $S_Y$ طوری که $S_Y=\sum_{i=1}^{N}Y_i$. آیا $S_X$ و $S_Y$ متقابل مستقل هستند؟ اگر این مشکل را به هر عدد $A$ از مجموع بسط دهیم، به عنوان مثال $S_X$، $S_Y$ و $S_Z$ زمانی که $A=3$ است. آیا این متغیرهای $A$ مستقل از یکدیگر هستند؟ خیلی ممنون.
آیا این متغیرها مستقل از یکدیگر هستند؟
48237
من با پارامتر مقیاس مورد استفاده در مدل های لاجیت و پروبیت مواجه شدم. کسی میدونه چیه و چه کاربردی داره؟ اگر از آن استفاده نکنم چه مشکلی پیش می آید؟
پارامتر مقیاس
6920
من در حال تجزیه و تحلیل برخی از داده‌ها هستم که می‌خواهم رگرسیون خطی معمولی را انجام دهم، اما این امکان پذیر نیست زیرا من با یک تنظیم آنلاین با جریان پیوسته داده‌های ورودی (که به سرعت برای حافظه بیش از حد بزرگ می‌شود) سروکار دارم و نیاز دارم. برای به روز رسانی تخمین پارامترها در حالی که این در حال مصرف است. یعنی نمی‌توانم همه آن را در حافظه بارگذاری کنم و رگرسیون خطی را روی کل مجموعه داده انجام دهم. من یک مدل رگرسیون چند متغیره خطی ساده را فرض می‌کنم، یعنی y = Ax + b + e بهترین الگوریتم برای ایجاد تخمین به‌روزرسانی مداوم پارامترهای رگرسیون خطی A و b چیست؟ در حالت ایده‌آل: * من الگوریتمی را می‌خواهم که بیشترین پیچیدگی فضا و زمان O(N*M) را در هر به‌روزرسانی داشته باشد، که در آن N ابعاد متغیر مستقل (x) و M ابعاد متغیر وابسته (y) است. * من می خواهم بتوانم برخی از پارامترها را برای تعیین میزان به روز رسانی پارامترها توسط هر نمونه جدید مشخص کنم، به عنوان مثال. 0.000001 به این معنی است که نمونه بعدی یک میلیونیم برآورد پارامتر را ارائه می دهد. این امر نوعی فروپاشی نمایی برای اثر نمونه ها در گذشته های دور ایجاد می کند.
رگرسیون خطی آنلاین کارآمد
99535
من مشکلی دارم که مدتهاست من را درگیر خود کرده است. این شامل مدل های خطی و توابع spline است. من باید «زمان پس از تشخیص» را مدل کنم، زمانی که برخی از افراد هرگز تشخیصی نداشتند. من از مدل پواسون استفاده می کنم که در آن زمان را بر اساس سن و زمان از زمان تشخیص تقسیم کرده ام. مجموعه داده‌ها ممکن است به این شکل باشد (با میلیون‌ها میلیون ردیف و 95٪ بدون تشخیص) : تشخیص سن موضوع TIME_SINCE_DIAGNOSIS EVENT/OUTCOME 1 30 A 0 0 1 31 A 1 0 1 32 A 451 0 2 46 B 1 0 103 22 غیر 0 یا - 0 103 23 غیر 0 یا - 0 . . . متوجه شدید.. حالا من می خواهم مدلی داشته باشم که چیزی شبیه به این باشد: log ( OUTCOME ) = Spline ( AGE ) + DIAGNOSIS * Spline ( TIME_SINCE_DIAGNOSIS ) + offset (logrisktime ) و سپس ترسیم خطر پیش بینی شده برای تشخیص های مختلف از A و B به عنوان تابعی از زمان پس از تشخیص با توجه به اینکه تشخیص در سن = 30 بود، و در همان نمودار برای تشخیص = NON اما در عوض به عنوان تابعی از سن (با سال از 30 در محور x). من دوست دارم هم کسانی که دارای تشخیص هستند و هم آنهایی که دارای تشخیص = NON هستند در یک مدل باشند تا بتوانیم کنتراست/ترکیب خطی از اثرات را انجام دهیم. مدل و نمودار انجام شده است، اما مشکل من این است که مدل بالا همچنین برای کسانی که هیچ تشخیصی ندارند، یک spline در طول زمان از زمان تشخیص ایجاد می کند (یعنی DIAGNOSIS = NON). بنابراین، من می‌خواهم مدلی از این نوع داشته باشم که متغیرهای شاخص را برای تشخیص‌های مختلف ایجاد کردم: R: factor(A) factor(B) fator(NON) SAS: class A B NON; log ( OUTCOME ) = Spline ( AGE ) + NON + A* Spline ( TIME_SINCE_DIAGNOSIS ) + B* Spline ( TIME_SINCE_DIAGNOSIS ) + offset ( logrisktime ) با من هستید؟ بنابراین می‌خواهم برای هر سطح از متغیر «تشخیص» (که با تشخیص*اسپلاین(time_since_diagnosis) یک اسپلاین منحصربفرد از متغیر «زمان از تشخیص» ایجاد کنم، اما به استثنای یک سطح (کسانی که هیچ تشخیص) هیچ اسپلاین اختصاص داده نشده است. ایده؟ ممنون، پیتر
اسپلاین منحصربه‌فرد برای گروه‌های مختلف در یک مدل خطی (و اصلاً اسپلاین برای یک گروه وجود ندارد)
20892
من جدولی از جزئیات مشتری با اطلاعات جمعیت شناختی و کل زمان مشتری دارم که نشان می دهد مشتری چه مدت مشتری بوده است. من باید بتوانم این جدول را به صورت موقت پرس و جو کنم، به عنوان مثال ممکن است بپرسم متوسط ​​کل زمان مشتری برای همه مشتریان در فلوریدا و با درآمد کمتر از 100 هزار نفر چقدر است. اطلاعات دموگرافیک ترکیبی از متغیرهای اسمی، ترتیبی و نسبتی و مقادیر تهی زیادی است، بنابراین یک رگرسیون لجستیک خطی مناسب نیست. من در آزمایش اهمیت آماری زیرمجموعه های این نوع تحلیل مشکل دارم. من معمولاً به این شکل کاوش می کنم: میانگین کل زمان مشتری برای همه مشتریان چقدر است؟ 13452 مشتری، 1.7 ماه و سپس پیگیری کنید: میانگین کل زمان مشتری برای همه مشتریان در فلوریدا چقدر است؟ 3124 مشتری، 2.5 ماه پس از آن شاید: میانگین کل زمان مشتری برای همه مشتریان در فلوریدا با درآمد کمتر از 100 هزار چقدر است؟ 2534 مشتری، 2.8 ماه من می دانم که چگونه می توانم یک جدول احتمالی باینری تنظیم کنم و زمانی که متغیر وابسته باینری است از آزمون کای دو استفاده کنم، اما در اینجا متغیر وابسته میانگین مقادیر نسبت سطح در زیر مجموعه است، بنابراین من گیر کرده همکارم پیشنهاد داد سوپرست را بگیرید، ببینید چند نمونه در زیرمجموعه خواهد بود و سپس آن تعداد نمونه را از سوپرست بردارید و میانگین را محاسبه کنید، اما این کار را 10000 بار انجام دهید. سپس می توانم از آزمون های معنی داری معمولی با استفاده از توزیع نرمال استفاده کنم. اما این به نظر من کمی... بی‌ظرافت است، نه اینکه بگوییم کند، و حتی مطمئن نیستم که این رویکرد معتبر باشد. ویرایش: برای روشن شدن، چگونه می توانم آزمایش کنم که آیا تغییر در میانگین متغیر وابسته (کل زمان مشتری) در هر زیر مجموعه در هر مورد از میانگین در سوپرمجموعه، با توجه به تغییر، از نظر آماری معنادار است (در برخی سطح اطمینان). در حجم نمونه؟ هر فکری بسیار قدردانی خواهد شد.
معنی‌داری آماری زیرمجموعه‌ها با استفاده از متغیر وابسته غیر باینری
96373
من با مدل های پروبیت کاملاً جدید هستم و اخیراً سؤالاتی در مورد یکی از مدل ها پرسیدم. می خواستم ببینم یکی از شما می تواند در تفسیر آن نتایج کمک کند. FYI همه متغیرهای وابسته ثبت شده اند و ناهمگونی با استفاده از خطاهای استاندارد قوی مراقبت شده است. سپس از دستور margins, dydx(*) برای داشتن اثر حاشیه ای استفاده کردم. هدف اصلی من دیدن احتمال داشتن و مؤسسه است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/IZers.png) از وقتی که گذاشتید متشکریم!
تفسیر اثر حاشیه ای مدل پروبیت
90115
من N الگوریتم طبقه‌بندی‌کننده باینری دارم که روی یک مجموعه قطار واحد آموزش داده شده و روی مجموعه آزمایشی آزمایش شده است. 1) کدام آزمون آماری برای محاسبه اختلاف آماری آنها مناسب است؟ 2) استفاده از آزمون مک نمار با روش زوجی گزینه معتبری است؟ * من ANOVA را می‌شناسم که روی مجموعه‌های قطار/آزمون K کار می‌کند، در حالی که من یک مجموعه قطار/آزمایش دارم.
آزمون معناداری آماری بر روی الگوریتم های چندگانه و مجموعه داده های منفرد
45643
در حال مطالعه کتاب های رگرسیون خطی هستم. جملاتی در مورد هنجار L1 و L2 وجود دارد. من آنها را می شناسم، فقط نمی فهمم چرا استاندارد L1 برای مدل های پراکنده. آیا کسی می تواند توضیح ساده ای بدهد؟ با تشکر
چرا هنجار L1 برای مدل های پراکنده
97465
من در حال مقایسه دو جمعیت مختلف (با اندازه های مختلف) از مدل ها هستم، برای هر فرد یک امتیاز دارم. من مایلم نه تنها تفاوت این دو میانگین بلکه حداکثر مقدار را با هم مقایسه کنم. من در گذشته یاد گرفته‌ام که هنگام مقایسه میانگین‌ها بین گروه‌ها، آزمون معناداری را انجام دهم، اما این اولین بار است که سعی می‌کنم همین کار را با یک مقدار شدید (در این مورد حداکثر) انجام دهم. به طور خلاصه، سوال من این است: راه درست برای دانستن اینکه آیا تفاوت $max(P_1) - max(P_2)$ قابل توجه است چیست؟
اهمیت تفاوت بین دو حد (حداکثر/حداقل)
12219
به نظر می رسد مدل رگرسیون لجستیک من موفقیت ها را به خوبی شناسایی می کند (حدود 85٪ - 94٪)، اما در شناسایی شکست ها ناکام است (فقط شناسایی 18٪ - 32٪ به درستی). من فکر کرده ام که موفقیت و شکست را متفاوت وزن کنم، اما مطمئن نیستم که چگونه این کار را انجام دهم. من سعی کردم: Fr <- ifelse (y==0, 2, 1) model <- glm(y~factor( x1) + ضریب (x2)، وزن = Fr، خانواده = دو جمله ای، داده = داده) اما از این طریق هیچ بهبودی حاصل نشد.
بهترین راه برای کاهش درصد منفی کاذب در مدل چیست؟
27724
من در واقع در حال بررسی یک نسخه خطی هستم که در آن نویسندگان 5-6 مدل رگرسیون لاجیت را با AIC مقایسه می کنند. با این حال، برخی از مدل‌ها دارای شرایط تعاملی هستند بدون اینکه عبارت‌های متغیر کمکی را در بر بگیرند. آیا هرگز انجام این کار منطقی است؟ برای مثال (مخصوص مدل های لاجیت نیست): M1: Y = X1 + X2 + X1*X2 M2: Y = X1 + X2 M3: Y = X1 + X1*X2 (فقدان X2) M4: Y = X2 + X1*X2 (فقدان X1) M5: Y = X1*X2 (فقدان X1 و X2) من همیشه این تصور را داشتم که اگر اصطلاح تعامل را دارید X1*X2 شما همچنین به X1 + X2 نیاز دارید. بنابراین، مدل های 1 و 2 خوب هستند، اما مدل های 3-5 مشکل ساز خواهند بود (حتی اگر AIC پایین تر باشد). آیا این درست است؟ آیا این یک قانون است یا بیشتر یک دستورالعمل؟ آیا کسی مرجع خوبی دارد که دلیل این امر را توضیح دهد؟ فقط می‌خواهم مطمئن شوم که هیچ چیز مهمی را در بررسی اشتباه منتقل نمی‌کنم. ممنون برای هر فکری، دن
آیا همه اصطلاحات تعاملات در مدل رگرسیونی به اصطلاحات جداگانه خود نیاز دارند؟
19591
ما اغلب در تحقیقات بازار با تداعی‌های ویژگی برند (بله/خیر) مواجه می‌شویم، و اغلب نیاز به انجام تحلیل عاملی داریم (ما از PCA تحت Factor در SPSS استفاده می‌کنیم) تا داده‌ها را به چیزی مفید و قابل تفسیر کاهش دهیم. بهترین روش کاهش داده زمانی که داده های باینری دارید چیست؟ متغیرهای جایگزین با انتخاب یک متغیر منفرد برای نشان دادن یک نتیجه پیچیده‌تر، خطر نتایج گمراه‌کننده بالقوه را دارند. به نظر نمی رسد که امتیازات فاکتورها ایده آل باشند زیرا داده ها باینری هستند. و اگر از مقیاس های جمع شده استفاده می کنیم، آیا باید از کل یا میانگین یا شاید معیار دیگری برای گرایش مرکزی استفاده کنیم؟
تحلیل عاملی بر روی داده های باینری و مقیاس های جمع شده
19594
من یک مدل رگرسیون خطی چندگانه دارم و باید اهمیت شیب ها را آزمایش کنم. استاد من می گوید که دو راه برای انجام آن وجود دارد - پس از کدام باید استفاده کنم؟ سوالات در آزمون دارای خطای استاندارد رگرسیون ها به همراه مقدار تخمینی رگرسیون ها نیز خواهد بود.
چگونه می توانم تصمیم بگیرم که آیا از آزمون والد یا F در آزمایش اهمیت ضریب شیب استفاده کنم؟
90116
من سعی می کنم پارامترهای انتقال داده های یک مدل پنهان مارکوف را با استفاده از MATLAB کشف کنم. با استفاده از تابع hmmtrain داخلی، می‌توانم پارامترها را به خوبی تخمین بزنم (من از قبل می‌دانم که قرار است در حال حاضر چگونه باشند) اما همیشه کمی خاموش هستند. بنابراین کاری که من می خواهم انجام دهم این است که یک فاصله اطمینان برای این پارامترها ایجاد کنم. اکنون، من کمی در وب برای این مورد جستجو کرده ام و به نظر می رسد که انجام این کار آسان نیست. به نظر می رسد «ساده ترین» راه حل بوت استرپ است، اما من شخصاً نمی دانم چگونه می توانم چنین چیزی را در MATLAB برای مدلی به پیچیدگی HMM پیاده سازی کنم. آیا کسی مرجعی دارد که بتوانم به آن نگاه کنم که بتواند به من کمک کند تا یک اسکریپت برای این کار بنویسم، یا کسی بسته ای را در آنجا می شناسد که قبلاً این را ساخته است؟ مشکل اصلی من این است که نمی دانم چگونه یک روش بوت استرپ می تواند مشکل HMM را حل کند. آیا کل ایده HMM این نیست که دنباله خاصی به دست می آورید که از آن در مورد پارامترها یاد می گیرید؟ آیا قطع کردن آن به منظور بوت استرپ به طور خودکار خطاهایی ایجاد نمی کند؟
فاصله اطمینان برای مدل مارکوف پنهان (متلب ترجیح داده می شود)
19593
فرض کنید ما علاقه مند به تقریب انتظار زیر هستیم: $$\mathbb{E}[h(x)] = \int h(x)\pi(x) dx$$ که در آن $h(x)$ یک تابع دلخواه است و $\pi(x)$ توزیعی است که فقط تا یک ثابت نرمال کننده شناخته می شود. ما می‌توانیم این انتظار را با استفاده از نمونه‌بردار Metropolis-Hastings برای ترسیم نمونه‌های $\\{x_t\\}_{t=1}^N$ از یک زنجیره مارکوف با توزیع ثابت $\pi(x)$ تقریبی کنیم، ابتدا تابع وزن MH: $$w(x,x') = \frac{\pi(x')T(x',x)}{\pi(x)T(x,x')}$$ * نمونه $x_0$ از پیشنهاد دلخواه * برای $t = 1...N$ * پیشنهاد $x'$ با نمونه‌برداری از $T(x_t,\cdot)$ * اگر $w(x_t,x') > r$ (where $r \sim \mathcal{U}(0,1)$) سپس $x_{t+1} = x'$ other $x_{t+1} = x_t$ * $S \ چپ چپ S + h(x_{t+1})$ با دادن تقریب نهایی: $$\mathbb{E}[h(x)] \approx \frac{S}{N}$$ سؤال این است که آیا می‌توانیم همین کار را انجام دهیم ترفند (نمونه برداری از زنجیره مارکوف با توزیع ثابت $\pi$) با استفاده از مونت کارلو متوالی (فیلتر ذرات) و استفاده از وزن به جای یک قانون ساده قبول/رد. مقایسه، در تئوری، مشابه نمونه‌گیری رد معمولی در مقابل نمونه‌گیری اهمیت است. برای انجام این کار، روش زیر را در نظر بگیرید: ابتدا مجموعه ای از N ذره را نمونه برداری کنید: $\\{x_0^{(i)}\\}_{i=1}^N$ از پیشنهاد دلخواه، سپس حلقه L زیر را اجرا کنید. بار: * برای هر $x_t^{(i)}$ $x_{t+1}^{(i)}$ را با نمونه برداری از وزن $T(x_t^{(i)}،\cdot)$ * پیشنهاد کنید هر $x^{(i)}$ توسط $w(x_t^{(i)},x_{t+1}^{(i)})$ * $S \lefttarrow S + \sum_{i=1} ^N w(x_t^{(i)},x_{t+1}^{(i)})h(x_{t+1}^{(i)})$ * نمونه مجدد N ذره جدید $x_{t+1}^{(i)}$ متناسب با وزنها با دادن تقریب نهایی: $$\mathbb{E}[h(x)] \approx \frac{S}{N L}$$ این روش از چند جهت متفاوت از روش‌های نمونه‌گیری اهمیت متوالی معمولی یا نمونه‌برداری اهمیت تطبیقی ​​است. اول از همه، توزیع پیشنهاد ($T(\cdot,\cdot)$) با رسیدن نمونه‌های جدید تغییر نمی‌کند، همچنین پیشنهادی نیست که سعی کند نزدیک به توزیع بهینه IS $\frac{ باشد. |h(x)|\pi(x)}{Z}$. در عوض، پیشنهاد بهتر به عنوان یک هسته انتقال مارکوف دیده می شود و باید با تابع وزن دهی مناسب ترکیب شود تا اطمینان حاصل شود که انتقال ها با زنجیره مارکوف مورد نظر مطابقت دارند. در واقع، این روش بسیار شبیه (اما نه یکسان) به اجرای زنجیره‌های مارکوف مستقل $N$ است. سوال به چند موضوع برمی گردد. اول، آیا این روش حتی در اهداف بیان شده آن نیز صحیح است، یعنی: اگر ذرات $\\{x_t^{(i)}\\}_{i=1}^N$ بر اساس $\pi(\cdot توزیع شوند )$، پس از یک حلقه از رویه فوق، $\\{x_{t+1}^{(i)}\\}_{i=1}^N$ مطابق با $\pi(\cdot)$؟ همچنین، اگر این درست باشد، آیا این رویکرد مزیتی نسبت به نمونه‌گر اصلی متروپلیس-هیستینگ که ابتدا ارائه شد، دارد؟ آیا کسی می‌تواند به مقاله‌ای اشاره کند که به طور خاص به این ایده مربوط می‌شود: SMC نمونه‌برداری از زنجیره‌های ثابت مارکوف؟ من فرض می کنم این از نظر فنی یک روش MCMC است، بنابراین، آیا چیزی به عنوان MCMC وزن دار یا کلان شهر وزن دار وجود دارد؟ یا این شبیه به ایده بازیافت زباله برای روش های MCMC است (من زیاد با آن آشنا نیستم)؟ * * * ویرایش‌های بعدی: با تفکر بیشتر، به نظر می‌رسد که نمونه‌های متوالی بر اساس $\pi(\cdot)$ توزیع نشده‌اند، زیرا تابع وزن‌دهی شرط تعادل دقیق را برآورده نمی‌کند، مگر اینکه $\pi(x)$ باشد. یکنواخت این را می توان با در نظر گرفتن تابع انتقال متقارن $T(x,x')$ $$ \begin{eqnarray*} \pi(x)w(x,x') = \pi(x')w(x'x) مشاهده کرد ) \\\ \pi(x)\frac{\pi(x')}{\pi(x)} = \pi(x')\frac{\pi(x)}{\pi(x')} \\\ \pi(x') = \pi(x) \end{eqnarray*} $$ این جزئیات را می توان با استفاده از تابع وزن دهی دقیق $\min(1,w(x,x'))$ و اطمینان از اینکه هر از حالت های قبلی در مجموعه وزنی با وزن برابر با $1-w(x,x')$ گنجانده شده است. اگر این کار انجام شود، روش بسیار شبیه به اجرای موازی زنجیره‌های مارکوف $N$ است. این زنجیره ها به هر حال مستقل نخواهند بود، زیرا برخی از فعل و انفعالات پیچیده بین زنجیره ها وجود دارد (به دلیل مرحله نمونه گیری مجدد ترکیبی). من نمی توانم ببینم که اگر چنین باشد، چه تأثیری خواهد داشت. با این حال، ممکن است انجام این کار هنوز هم شایستگی داشته باشد زیرا نمونه های وزنی هنوز می توانند در محاسبه انتظار نهایی استفاده شوند. یعنی به نظر می‌رسد این روش هنوز هم ممکن است به هدف یک نمونه‌بردار MCMC بدون رد دست یابد. * * * ویرایش های بیشتر: باید تمایز دیگری را روشن کنم. به نظر می رسد روش نمونه گیری با اهمیت تعمیم یافته که در 14.2 از _روش های آماری مونت کارلو_ پوشش داده شده است، بسیار نزدیک به روش SMC است که من نوشتم. با این حال، آنها در واقع کاملا متفاوت هستند. اول از همه در این روش، مانند MH، پشتیبانی برای توزیع پیشنهاد $T(x,x')$ نیازی به پشتیبانی از پیشنهاد هدف $\pi(x)$ ندارد (طبق مورد نیاز Lemma 14.1)، در عوض، الزامات پشتیبانی خارج از ارگودیسیته زنجیره مارکوف شبیه‌سازی شده است. این باعث می‌شود که $T(x,x')$ به طور قابل توجهی با ترکیب تابع هسته $K(x,x')$ و پیشنهاد $g(x)$ موجود در GIS متفاوت باشد. با این حال، روش مونت کارلو جمعیت، s
مونت کارلو متوالی (فیلتر ذرات) با وزن دهی متروپلیس-هیستینگ
48233
من از Matlab استفاده می کنم، من یک ماتریس 600 دلار \ برابر 9 دلار دارم که هر ردیف نشان دهنده 9 ویژگی است که سعی می کنم با استفاده از رگرسیون لجستیک ارزیابی کنم. 1. می‌دانم که باید مقیاس‌بندی ویژگی را انجام دهم، اما آیا باید آن را هم در مجموعه آموزشی و هم در مجموعه تست انجام دهم؟ 2. من 9 تا ویژگی دارم، تا چه درجه باید منظم سازی انجام بدم... تا چه درجه بالاتر برای 9 ویژگی باید در نظر بگیرم؟ 3. چگونه بررسی کنم که کدام ویژگی ها بیشتر یا کمتر نقش دارند؟ 4. چگونه مجموعه تمرین و تست خود را تقسیم کنم که کدام نسبت ایده آل ترین است؟
انتخاب متغیر و رگرسیون لجستیک
80395
من می خواهم بدانم دانش ریشه شناختی (تاریخ کلمات) چقدر سریع منسوخ می شود. فکر کردم بتوانم چندین نسخه از یک فرهنگ لغت را که در مدت زمان طولانی منتشر شده است مقایسه کنم. مشکل من این است که حجم این دیکشنری در این مدت از چهار به دوازده هزار کلمه افزایش یافته است و نمی دانم در این شرایط چگونه حجم نمونه را انتخاب کنم.
حجم نمونه برای چند جمعیت مختلف
20890
ببخشید که سوال احمقانه ای می پرسم، اما در استفاده از بسته بندی شده مشکل دارم. رگرسیون خطی من بسیار ساده است، بین پیشنهاد و تقاضا: > linearModel <\- lm(demand~offer) و مدل من نیز باید با استفاده از segmented باشد: > piecewiseModel <\- segmented(lm(demand~offer), seg. Z = ~ پیشنهاد، psi = NA) اما من یک پیام خطا دارم و واقعاً نمی توانم دلیلی برای آن پیدا کنم: خطا در seg.lm.fit(y, XREG، Z، PSI، وزن‌ها، offs، opz) : (برخی) psi تخمین زده شده خارج از محدوده آن در اینجا داده‌های من است: پیشنهاد تقاضا 1155 39.3 362 23.5 357 22.4 111 6.1 703 35.9 494 35.5 427.6 35.5 427 468 28.6 973 41.3 235 16.9 180 18.2 69 9 305 28.6 106 12.7 155 11.8 422 27.9 44 21.6 1008 23214 45114. 40.7 531 22.4 143 17.4 251 14.3 216 14.6 57 6.6 146 10.6 226 14.3 169 3.4 32 5.1 75 4.1 104 14.6 4.7 4.1 104 462 22.6 295 8.6 196 7.7 50 7.8 739 34.7 287 15.6 226 18.5 706 35 127 16.5 85 11.3 234 7.7 234 7.7 1874 1874 1534. 9.2 81 11.8 18 3.9
چگونه می توان از بسته قطعه بندی شده برای برازش رگرسیون خطی تکه ای با یک نقطه شکست استفاده کرد؟
72520
اگر هزاران پیش‌بینی‌کننده با خوشه‌هایی داشته باشم که بسیار همبسته هستند، چه رویکرد انتخاب متغیری را باید در نظر بگیرم؟ به عنوان مثال ممکن است من یک مجموعه پیش بینی $X:= \\{A_1,A_2,A_3,A_4,...,A_{39},B_1,B_2,...,B_{44},C_1,C_2, داشته باشم. ..\\}$ با کاردینالیتی $|X| > 2000 دلار موردی را در نظر بگیرید که در آن همه $\rho(A_i,A_j)$ بسیار زیاد هستند، و به طور مشابه برای $B$, $C$, .... پیش بینی کننده های همبسته به طور طبیعی همبستگی ندارند. این نتیجه فرآیند مهندسی ویژگی است. این به این دلیل است که همه $A_i$ از همان داده های اساسی با تغییرات کوچک در روش مهندسی دست، به عنوان مثال، مهندسی شده اند. من از یک باند عبور نازک‌تر در $A_2$ نسبت به $A_1$ در رویکرد حذف نویز استفاده می‌کنم، اما بقیه موارد یکسان است. هدف من بهبود دقت نمونه در مدل طبقه بندی من است. یک روش فقط این است که همه چیز را امتحان کنید: گاروت غیر منفی، برآمدگی، کمند، شبکه های الاستیک، یادگیری زیرفضای تصادفی، یادگیری PCA/منیفولد، کمترین رگرسیون زاویه و انتخاب یکی از بهترین ها در مجموعه داده های نمونه من. اما روش های خاصی که در مقابله با موارد فوق خوب هستند، قدردانی می شوند. توجه داشته باشید که داده های خارج از نمونه من از نظر حجم نمونه گسترده است.
انتخاب متغیر با گروه هایی از پیش بینی کننده ها که همبستگی بالایی دارند
97461
من سعی می کنم عملکرد یک فرم کوتاه و بلند یک پرسشنامه را با هم مقایسه کنم. فرم بلند دارای 25 مورد و فرم کوتاه دارای 8 مورد از 25 مورد است. آیا می توان از تست DeLong برای مقایسه منحنی های ROC استفاده کرد؟ اگر نه کدام آزمون برای این تحلیل مناسب تر است؟
تست DeLong برای مقایسه منحنی های ROC
11745
هنگام مشخص کردن یک معیار اطلاعاتی، فرد مایل است که ویژگی «گروه‌بندی» زیر را داشته باشد (ر.ک.، Cover&Thomas، فصل 2 تمرین 46) $$H(p_1, p_2,\dots, p_n)=H(p_1+p_2, p_3,\ نقطه ها، p_n)+(p_1+p_2)H(\frac{p_1}{p_1+p_2},\frac{p_2}{p_1+p_2})$$ (با نام مستعار بازگشتی). یک اصل موضوعی مشابه گروه بندی برای آنتروپی Reny در Jizba، Arimitzu استفاده شده است. آیا کسی می تواند معنای شهودی آن را بیان کند و چرا مطلوب است؟ همچنین در توصیف بدیهی به استنباط بر اساس معیارهای آنتروپی، فرد دارای مجموعه‌ای از ویژگی‌ها (یا بدیهیات) است (شور و جانسون). آیا ویژگی Grouping فوق با هر یک از بدیهیات **استنتاج** مبتنی بر آنتروپی ارتباطی دارد؟ به طور کلی، آیا ارتباطی بین بدیهیات در توصیف بدیهی معیارهای آنتروپی (اطلاعات) و بدیهیات در توصیف بدیهی استنتاج بر اساس معیارهای آنتروپی وجود دارد؟ من می دانم که برخی از اتصالات می گویند که خاصیت تقارن آنتروپی مربوط به خاصیت عدم تغییر استنتاج است، افزایش آنتروپی مربوط به استقلال سیستم از استنتاج و غیره است.
خاصیت آنتروپی
90117
پایان نامه افتخارات من به زودی انجام می شود و هنوز به عنوان عالی فکر نکرده ام. من چیزی می‌خواهم که هوشمندانه باشد (شاید با استفاده از یک یا دو جناس)، اما همچنین بینشی در مورد کاری که انجام می‌دهم بدهد. ترجیحاً در قالب «پایان‌نامه: پایان‌نامه درخشان» همه دوقطه را دوست دارند. پس پایان نامه من در مورد چیست؟ این یک پایان نامه آماری است که به بررسی روابط بین تعدادی از متغیرهای اقتصادی و قیمت طلا می پردازد. آنچه من دریافتم این است که 12 سال گذشته تمام روابط بین طلا و سایر عوامل را از بین برده است. همچنین شایان ذکر است که طلا در ده سال اخیر رونق داشته است. داشتم به چیزی در این زمینه فکر می کردم: The Gold Rush: مدل سازی قیمت طلا، اما عالی نیست.
به من کمک کنید عنوانی شوخ طبع برای مقاله خود بیاورم
78468
من با برخی از داده ها سروکار دارم که ترسیم شده به این صورت است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/k118s.png) می خواهم سطحی از اهمیت را به ادعای خود اضافه کنم که مقادیر از دو دوره زمانی در نیمه دوم آزمایش متفاوت است (داده ها در فرکانس 60 هرتز نمونه برداری می شوند، خطاهای استاندارد میانگین سایه می اندازند). من دو روش را امتحان کردم: * مقایسه در هر بازه به معنای بیش از این بازه - دریافت $p = 2.8 \times 10^{-1}$ * مقایسه همه مقادیر در بازه - دریافت $p = 5.6 \times 10^{-53 }$ اکنون، اولین رویکرد به من می گوید که ادعای من تقریباً به طور قابل توجهی توسط داده های من پشتیبانی نمی شود. مورد دوم به من می گوید که چنین است - اما مقدار p که من دریافت می کنم به طرز مضحکی پایین است، اگرچه رویکرد معقول به نظر می رسد و من آن را متورم نمی نامم. ممکن است لطفاً به من بگویید که چه چیزی بهتر است یا چگونه به من توصیه می کنید که این کار را انجام دهم؟ من سعی کرده‌ام یک مدل ترکیبی را برای این کار تطبیق دهم، اما دوره زمانی غیرخطی این کار را کمی دشوار می‌کند و مطمئناً آزمایش چند مدل با چندین مؤلفه غیرخطی مدتی طول می‌کشد. من قصد دارم این کار را در نهایت انجام دهم، اما در حال حاضر به دنبال رویکردی تا حدودی سریعتر (حتی اگر دقیق تر) هستم.
اهمیت تفاوت دوره زمانی در فاصله زمانی
64038
استدلال اساسی که رگرسیون ریج و کمند بر آن استوار است چیست؟ من از طریق ویکی قاعده‌سازی Tikhonov رفتم که در آن ذکر شد > در بسیاری از موارد، ماتریس tikhonov به عنوان ماتریس هویت انتخاب می‌شود و به راه‌حل‌هایی با هنجارهای کوچک‌تر اولویت می‌دهد. در موارد دیگر، عملگرهای پایین گذر (مثلاً یک عملگر تفاوت یا یک عملگر فوریه وزنی) ممکن است برای اعمال همواری در صورتی که بردار زیربنایی عمدتاً پیوسته باشد، استفاده شود. می‌خواهم بفهمم که چرا راه‌حل‌هایی با معیارهای کوچک‌تر جذاب‌تر هستند؟ نرمی می توانم بدست بیاورم اما چرا هنجارهای کوچکتر؟
چرا منظم کردن بزرگی ضریب تعمیم رگرسیون خطی را بهبود می بخشد؟
99537
من در حال آماده کردن ارائه ای در مورد مدل های تجزیه و تحلیل بقا، با تمرکز خاص بر روی مدل کاکس هستم. من مدتی است که از چنین مدلی (شامل تعمیم ریسک های رقیب آن) استفاده می کنم، اما هنوز نمی توانم راه آسانی برای فکر کردن به عبارت خطای مدل، $\varepsilon$ پیدا کنم. فرض کنید من در مورد تجزیه و تحلیل بقای دو متغیره ساده هستم (با $x_1$ و $x_2$). فرم عملکردی مدل کاکس برای نرخ خطر این است: $$ h(t| x_1, x_2) = h_0(t) \exp(x_1 \beta_1 + x_2 \beta_2). $$ سوال من این است: اگر بخواهید برای دانشجویان فارغ التحصیل با درک نسبتاً خوبی از اقتصاد سنجی/آمار توضیح دهید که چگونه عبارت خطا در فرم عملکردی وارد می شود، چگونه انجام می دهید؟ من همیشه در خطر اولیه $h_0(t)$ فکر می‌کردم که مؤلفه خطای مدل را حاوی می‌کند، اما با فرض اینکه این درست باشد، چگونه می‌توان این را رسمی کرد؟ میشه لطفا یک کتاب درسی خوب به عنوان مرجع معرفی کنید؟ (از دیدگاه آمار زیستی یا از دیدگاه اقتصاد سنجی). خیلی ممنون
تفسیر عبارت خطا در مدل PH کاکس
95190
من در حال انجام **متاآنالیز** از تعداد زیادی مطالعه هستم. در هر مطالعه **وزن دو گروه** (ماهیان با و بدون انگل داخلی) مقایسه شده است. من علاقه مند هستم که **وزن بتواند وجود/عدم وجود انگل را توضیح دهد**. از طرح جنگلی به نظر می رسد واضح است که در هر قاره (و برای کل جهان) ** ترجیح واضحی نسبت به ماهی های بزرگتر وجود دارد. من مطالعاتی از سرتاسر دنیا دارم، یعنی **اصطلاح ماهی بزرگتر نسبی است**. ماهی بزرگتر در آفریقا در مقایسه با کوچکترین ماهی در استرالیا می تواند بسیار کوچک باشد. **به همین دلیل من از مدل اثر تصادفی استفاده کرده ام**. با توجه به برخی کتاب های درسی باید انتخاب خوبی باشد. **آیا مدل اثر تصادفی برای شرایط من مناسب است؟** لطفاً می توانید در **تفسیر خروجی مدل** به من کمک کنید؟ برخی چیزها را درک نمی کنم: P-value از نتایج مدل بسیار مهم است. بنابراین به احتمال زیاد این وزن ارتباطی با آلودگی انگل دارد. با این حال، آزمون ناهمگنی نیز قابل توجه است. آیا این بدان معناست که **مدل من فرض توزیع نرمال باقیمانده ها را برآورده نمی کند؟** به طور مشابه در مورد یک رگرسیون ساده؟ **و در مورد tau^2، tau، I^2 و H^2 چطور؟ آیا هیچ کدام از آنها شبیه R-squared است؟ library(metafor) mod_weight <- rma(yi, vi, data = dat_weight); خلاصه (mod_weight) مدل اثرات تصادفی (k = 62؛ tau^2 تخمین‌گر: REML) انحراف logLik AIC BIC AICc -65.0051 130.0103 134.0103 138.2320 134.2217:134.2172 0.3618 (SE = 0.0808) tau (ریشه مربع مقدار tau^2 تخمین زده شده): 0.6015 I^2 (ناهمگنی کل / تنوع کل): 86.67% H^2 (تغییرات کل / تنوع نمونه برداری): 7.50 تست ناهمگنی: Q( df = 61) = 395.7163، p-val < .0001 نتایج مدل: تخمین se zval pval ci.lb ci.ub 0.8007 0.0853 9.3830 <.0001 0.6334 0.9679 *** **_P.S. تحقیق انگل ماهی یک داستان ساختگی است :)_**
درک خروجی مدل متاآنالیز به زبان ساده
19590
چگونه Breusch-Pagan نمی تواند برای سریالی مانند آن عدد تهی را رد کند؟ > x = c(rnorm(10)، rnorm(100، sd=10)، rnorm(100، sd=25)) > mod = lm(x[-1]^2~x[-210]^2) > plot(mod$res,type='l') > bptest(mod) داده های آزمون Breusch-Pagan دانشجویی شده: mod BP = 1.1085، df = 1، p-value = 0.2924 واریانس به شدت تغییر می کند، آیا کسی می تواند دلیل آن را توضیح دهد؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Aidn1.png)
چرا آزمون بروش-پگان شکست می خورد؟
90110
در یک مسئله طبقه بندی چند طبقه، می خواهم اهمیت طبقه بندی کننده خود را در برابر فرضیه صفر (در این مورد، سطح شانس) اندازه گیری کنم. در این مقاله، در بخش 3.4، برای یک طبقه‌بندی‌کننده باینری، به عنوان یک آزمون دوجمله‌ای پیشنهاد شده است. مقدار p حاصل یک اندازه گیری است. برای یک نسخه چند کلاسه، چگونه می توانم چنین اندازه گیری کنم؟ * آیا تست چند جمله ای مناسب است؟ * یا باید یک تست دو جمله ای را به صورت یک در مقابل همه اعمال کنم و مقادیر p را برای هر کلاس ارزیابی کنم؟ در اینجا یک آزمون مجذور کای بر روی یک ماتریس سردرگمی اعمال می شود. آیا این روش ارزیابی می تواند معیاری برای من باشد؟ پیشاپیش ممنون
آزمون اهمیت برای طبقه بندی کننده چند کلاسه
64035
من خوانده‌ام که اعتبارسنجی متقاطع ترک یک بیرون، یک برآورد نسبتاً _تخمین بی‌طرفانه از عملکرد تعمیم واقعی_ ارائه می‌کند (به عنوان مثال در اینجا) و این یک ویژگی سودمند CV ترک یک‌نفره است. با این حال، من نمی‌دانم که چگونه این از ویژگی‌های CV-one-out نتیجه می‌شود. چرا **سوگیری** این برآوردگر در مقایسه با دیگران کم است؟ ### به‌روزرسانی: من به بررسی موضوع ادامه می‌دهم، و معتقدم این به این موضوع مربوط می‌شود که این تخمین‌گر نسبت به اعتبارسنجی K-fold بدبینانه‌تر است، زیرا از همه داده‌ها به جز یک نمونه استفاده می‌کند، اما چنین خواهد بود. خواندن یک مشتق ریاضی از این عالی است.
اعتبار سنجی متقاطع یک طرفه: برآورد نسبتاً بی طرفانه از عملکرد تعمیم؟
99531
سوال من خیلی ساده است. آمار توصیفی مانند میانگین، میانه، sd و غیره برای داده‌های سری زمانی تنها با 9 امتیاز به همان روشی که برای داده‌های غیرهمبسته محاسبه می‌شود؟ یا ریاضیات کاملاً متفاوت است؟ با تشکر
آیا انحراف استاندارد، CI95٪، میانگین، میانه برای داده های نامرتبط و همبسته (سری های زمانی) به همان روش محاسبه می شود؟
16906
حتی اگر آزمون F معنی دار نباشد، باز هم می توانید از آزمون تفاوت معنی دار کمتر استفاده کنید؟
حتی اگر آزمون F معنی دار نباشد، باز هم می توانید از آزمون تفاوت معنی دار کمتر استفاده کنید؟
97464
در این وب سایت آمده است که اگر تقارن مرکب برآورده شود، کرویت نیز وجود دارد. آیا نمی توان مجموعه داده ای ساخت که دارای تقارن ترکیبی کامل باشد اما کرویت کامل نداشته باشد؟ چرا/چرا نه؟ به طور شهودی برای من واضح نیست زیرا در ارزش اسمی تقارن مرکب (واریانس‌ها در شرایط تقریباً برابر، و کوواریانس‌های بین جفت‌های شرایط نیز تقریباً برابر) و کروی (تقریباً واریانس‌های مساوی از تفاوت‌های بین داده‌های یک شرکت‌کننده در زمان‌های مختلف) به نظر می‌رسد. چیزهای کاملا متفاوت من در مورد زمینه ANOVA با اندازه گیری های مکرر فکر می کنم.
چرا تقارن مرکب برای ایجاد کروی کافی است؟