_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
5870 | فرض کنید ما سه متغیر مستقل داریم: $$\eqalign{ X_{1}\sim &B(n,\frac{1}{2}+\beta) \cr X_{2}\sim &B(n,\frac{ 1}{2}) \cr X_{3}\sim &B(n,\frac{1}{2}-\beta). }$$ من به دنبال توزیع $$\max(X_{1},X_{2},X_{3})-\min(X_{1},X_{2},X_{3}) هستم .$$ برای $n$ به اندازه کافی بزرگ، $$\Pr(\max(X_{1},X_{2},X_{3})=k)\تقریبا داریم \Pr(X_{1}=k)$$ و به طور مشابه $$\Pr(\min(X_{1},X_{2},X_{3})=k)\تقریبا \Pr(X_{3}= k).$$ بنابراین با استفاده از این دو، داریم: $$\eqalign{ &\Pr(\max(X_{1},X_{2},X_{3})-\min(X_{1},X_{2},X_{3})=k) \cr &\تقریبا \ Pr(X_{1}-X_{3}=k) \cr &=(\frac{1}{2}+\beta)^k (\frac{1}{2}-\beta)^{2n+k}\sum\limits_{i=k}^{n}\binom{n}{i}\binom{n}{i-k} \left (\frac{1+2\beta}{1-2\beta} \right)^{2i} }$$ اما به نظر نمیرسد که تخمین آن آسان باشد... من به روش دیگری فکر میکردم. متغیرهای دوجملهای را میتوان با توزیعهای نرمال تقریب زد و مجموع متغیرهای معمولی توزیع شده کاملاً مشخص است، بنابراین محاسبه آن آسان است. **سوال**: آیا نابرابری هایی وجود دارد که بتواند تقریب بهتری ارائه دهد؟ من فقط از کرانوف چرنوف اطلاع دارم اما اینجا خیلی مفید نیست. | محدوده متغیرهای دوجمله ای غیر یکسان توزیع شده |
68358 | میخواهم SD/فاصلههای اطمینان قابل مقایسه برای دو پارامتر را پیدا کنم. یک پارامتر تنها توسط یک مطالعه (جدید) اندازه گیری شده است که خطای استاندارد را گزارش می کند. در اینجا، مقدار _t_، اندازه نمونه و SD ارائه شده است. دیگری (ضریب همبستگی) با 10 مطالعه (قدیمیتر) اندازهگیری شده است، در برخی به عنوان میانگین در بین آزمودنیها، در برخی در تمام کارآزماییها (نادیده گرفتن افراد). تنها مقادیر موجود برای همه مطالعات n شرکتکنندگان و میانگین ضریب همبستگی است. بسیاری از آنها اطلاعات کافی برای محاسبه SDهای قابل مقایسه را گزارش نمی کنند. من معتقدم که در مجموع، _r_ تقریباً در 10 مطالعه این مجموعه قابل مقایسه است. فکر نمی کنم بتوانم SD نمونه را بین آزمودنی ها در مجموعه 1 با SD بین مطالعه در مجموعه 2 به طور مستقیم مقایسه کنم. مطالعه؟ من سعی نمیکنم این دو مقدار را با استفاده از یک آزمون مقایسه کنم (از نظر فیزیولوژیکی غیرقابل مقایسه هستند)، فقط میخواهم آنها را در مقیاسی مشابه نگاه کنم. اگر نتوانم کمیت مناسبی به دست بیاورم، به سادگی غیررسمی باشم و روی یک SD برای مجموعه 10 مطالعه و دو SD برای مجموعه یک مطالعه تمرکز کنم، تا منعکس کنم که یکی از آنها خیلی بیشتر تخمین زده شده است. دقیقا از دیگری | |
76212 | من در R کار می کنم. می خواهم یک تحلیل رگرسیون برای پیش بینی قیمت در برابر عبارات در یک فیلد متنی اجرا کنم. من مجموعه داده ای از لیست های حراج جواهرات، با قیمت پرداخت شده، تاریخ، و توضیحات بدون ساختار نوع کالا دارم: نوشتار، تاریخ، قیمت_دلار گردنبند یاقوت، اسپانیایی، 1925،45000 انگشتر الماس، 0.7 قیراط، برش بزیر، 1972,24000 گردنبند الماس,1980,87000 ... من می دانم چگونه برای اجرای یک رگرسیون خطی برای قیمت در برابر تاریخ: داده <- read.csv('jewels.csv') lm1 <- lm(data$price~data$date) خلاصه (lm1) اکنون کاری که میخواهم انجام دهم ساختن است یک مدل مشابه، با استفاده از کلمات موجود در قسمت توضیحات که بیشتر با قیمت های بالاتر مرتبط هستند. به طور شهودی حدس میزنم که اینها شامل «الماس» و «گردنبند» هستند، در حالی که (مثلاً) «آمیتیست» و «حلقه» با قیمتهای پایینتری همراه بودند، اما آیا راهی وجود دارد که بتوانم مدلی برای بررسی این موضوع بسازم؟ احساس من این است که باید کارهای زیر را انجام دهم: * قسمت متن را به یک کیسه کلمات (بردار) تبدیل کنید * کلمات توقف را حذف کنید * هر کلمه را برای شمارش کلی عادی کنید(؟) * نوعی رگرسیون را در برابر قیمت اجرا کنید. من واقعاً از راهنمایی در مورد نحوه نزدیک شدن به هر مرحله استقبال می کنم. | |
68354 | وقتی یک رگرسیون با خطاهای استاندارد قوی در Stata محاسبه میشود، $R^2$ تنظیمشده نشان داده نمیشود. این برای من شگفتانگیز است زیرا ارزش $R^2$ در رگرسیونهای دارای خطاهای استاندارد قوی بیتأثیر است. آیا دلیلی آماری برای نقل قول نکردن $R^2$ تعدیل شده در هنگام استفاده از خطاهای استاندارد قوی در رگرسیون وجود دارد؟ علاوه بر این، اگر متغیرهای بیشتری اضافه کنم، تست F ناپدید می شود. (مثلاً با 9 متغیر که نشان می دهد اما با 13 نه)، آیا این به همین دلیل است؟ چگونه می توانیم چنین نتایجی را گزارش کنیم و با این موضوع مقابله کنیم؟ | |
112295 | من اخیراً کتابخانه ریاضی Apache Commons را نصب کرده ام تا در مورد برخی از آمارهای اولیه در پروژه خود به من کمک کند. اساساً چیزی که من نیاز دارم محاسبه ضریب همبستگی برای 2 آرایه است که می توانم با استفاده از کلاس PearsonsCorrelation این کار را انجام دهم. با این حال، متوجه شدم که وقتی یکی از متغیرها اسمی است، باید از یک نوع خاص از پیرسون استفاده کنم - ضریب همبستگی نقطه ای بیسری. آیا می توانید به من بگویید آیا کتابخانه جاوا مشابهی وجود دارد که بتواند ضریب Point Biserial را محاسبه کند، زیرا من در جستجوی خود شانسی نداشتم. با تشکر از کمک شما! با احترام، | |
86645 | من مقداری خوشه بندی به یک ماتریس با 30 متغیر تصادفی انجام داده ام که هر متغیر دارای 13000 مشاهده است. من 10 خوشه دریافت کردم و اکنون باید با محاسبه واریانس در هر خوشه آزمایش کنم که خوشه بندی چقدر خوب است. آیا کسی می داند چگونه می توانم واریانس را محاسبه کنم؟ من به راحتی می توانم واریانس هر ستون را در ماتریس خود محاسبه کنم (مثلاً واریانس هر متغیر تصادفی) اما می خواهم واریانس کل خوشه را محاسبه کنم. کسی میدونه چطور میشه انجامش داد؟ به عنوان مثال داده <- data.frame(x=c(2,2,2,3,7), y=c(30,40,40,30,10), z=c(1,2,3,4,5 ), cluster=c('a','a','c','a','c')) نامزدها <- dlply(data,.(cluster),function(data){ laply(data[,-4],var) }) این واریانس در هر ستون برای هر برچسب خوشه (a,c) می دهد. به نظر من این رویکرد درستی نیست. | |
90805 | چگونه می توانم تفاوت معنی داری بین میزان مرگ و میر 4 گروه (هر گروه با n متفاوت) آزمایش کنم: گروه 1: میزان مرگ و میر = 30.9٪، n = 55 گروه 2: mr = 0٪، n = 4 گروه 3: mr = 23.3٪، n = 30 گروه 4: mr = 24.6٪، n = 69 آیا انجام یک آزمون t بین هر گروه کافی است؟ به نظر می رسد که این روشی پیچیده برای ارائه نتایج است. | آزمایش تفاوت معنی داری در میزان مرگ و میر بین چند گروه |
76210 | آیا کسی می تواند به من یک طرح خودآموز برای تبدیل شدن به یک تحلیلگر آماری را پیشنهاد دهد؟ من به چیزی شبیه به طرح مطالعه خود برای تحلیلگر کمی نیاز دارم | |
81986 | در کتاب درسی _ریاضیات جامع جدید برای سطح O_ نوشته گریر (1983)، من انحراف میانگین محاسبه شده را به این صورت می بینم: > تفاوت مطلق بین مقادیر منفرد و میانگین را جمع کنید. سپس میانگین آن را دریافت کنید. در سرتاسر فصل از عبارت **انحراف میانگین** استفاده شده است. اما اخیراً چندین مرجع دیده ام که از عبارت **انحراف استاندارد** استفاده می کنند و این کاری است که آنها انجام می دهند: > محاسبه مجذورات تفاوت بین مقادیر واحد و میانگین. سپس میانگین آنها و در نهایت ریشه پاسخ را دریافت کنید. من هر دو روش را روی یک مجموعه داده مشترک امتحان کردم و پاسخ آنها متفاوت است. من آمارگیر نیستم وقتی سعی می کردم انحراف را به بچه هایم آموزش دهم، گیج شدم. پس به طور خلاصه، آیا عبارات _انحراف استاندارد_ و _معنی انحراف_ یکسان هستند یا کتاب درسی قدیمی من اشتباه است؟ | |
65876 | من داشتم این آموزش مربوط به الگوریتم EM را در http://aass.oru.se/~tdt/ml/extra-readings/EM_algorithm.pdf می خواندم. همانطور که در آموزش داده شده است  میتوانیم ببینیم که در هر مرحله E انتظار احتمال را بر توزیع پسینی محاسبه میکنیم. متغیرهای پنهان و آنها آن را به حداکثر میرسانند. احتمال ورود مورد انتظار نسبت به متغیرهای پنهان توزیع پسین تنها با احتمال بیش از دادههای مشاهدهشده محدود میشود. سوالات من این است: * چرا $L(\theta)$ غیر محدب است؟ آیا امکان محدب بودن $L(\theta)$ وجود ندارد؟ * علاوه بر این، چرا $l(\theta | \theta_n)$ یک تابع محدب است که در شکل نشان داده شده است؟ | |
108132 | 1) اگر از فرمول $$r = \displaystyle \frac{\displaystyle\sum_{i=1}^n \left( x_i - \bar{x} \right) \left( y_i - \bar{y} استفاده کنیم. \right)}{\sqrt{\displaystyle \sum_{i=1}^n \left( x_i - \bar{x}\right)^2 \cdot \sum_{i=1}^n \left( y_i - \bar{y}\right)^2}}$$ برای محاسبه $r$، $r = \frac{0}{0}$ دریافت میکنیم. 2) اگر $r$ را به عنوان اندازه گیری قدرت و ماهیت رابطه خطی بین دو متغیر ببینیم، $r = 0$ بدست می آوریم زیرا در این مورد رابطه خطی وجود ندارد. 3) اگر یک تناسب مثبت کامل $r = 1$ و یک تناسب منفی کامل $r = -1$ را به دست آورد، به نظر می رسد که باید $r = 1$ یا $-1$ بدست آوریم. (به نظر من این اشتباه است.) کدام صحیح است؟  | |
102929 | من یک مدل جلوههای ترکیبی/تصادفی دارم $$\mathbf{y}_i=\mathbf{X}_i\boldsymbol\beta+\mathbf{Z}_i\mathbf b_i+\boldsymbol\epsilon_i,$$ که در آن اثرات تصادفی $\mathbf b_i $ دارای ماتریس واریانس- کوواریانس است $$D=\text{cov}(\mathbf b_i)=\left(\begin{array}{cc} \sigma_{1}^{2} & \sigma_{12}\\\ \sigma_{12} & \sigma_{2}^{2} \end{ آرایه}\right).$$ میخواهم $H_0:\sigma_2^2=0$ را آزمایش کنم. من می دانم که در زیر تهی $\sigma_{12}=0$. اما من حاضر نیستم که $\sigma_{12}=0$ را تحت گزینه جایگزین محدود کنم، یعنی $\sigma_{12}$ و $\sigma^2_1$ نامشخص هستند. من می دانم که برخی از آزمایش ها با فرض اثرات تصادفی مستقل توسعه یافته اند. به عنوان مثال، بسته «RLRsim» میتواند آزمون نسبت درستنمایی دقیق (محدود) مبتنی بر شبیهسازی را برای آزمایش وجود یک جزء واریانس منفرد انجام دهد. علاوه بر این، طبق گفته @StasK، بوت استرپ در مرز فضای پارامتر مجموعه ای از مسائل و مشکلات خاص خود را دارد که منجر به ناسازگاری می شود. بنابراین نمیدانم که آیا هیچ راهحل یا مرجع بالقوهای برای آزمون مؤلفههای واریانس فردی بدون فرض اثرات تصادفی مستقل وجود دارد؟ اگر به راحتی در دسترس باشد یا بتوان آن را به راحتی اجرا کرد، عالی خواهد بود. با تشکر | |
60249 | من برنامه ای را توسعه می دهم که در آن دائماً نمونه هایی از نبض قلب دریافت می کنم. من یک بازه $t$ ثانیه تعریف کردم. در هر $t$ ثانیه من $n$ نمونه دارم. در هر بازه، میخواهم تمایل آن نمونههای $n$ را محاسبه کنم. برای مثال، فرض کنید من $n = 5$ دارم و نمونه هایی با مقادیر $\\{70، 88، 95، 103، 115\\}$ دارم. میخواهم تشخیص دهم که در نبض قلبم رشد کرده است، و میخواهم اندازهگیری برای سرعت رشد/کاهش/تقریباً بدون تغییر داشته باشم. من به دو روش برای حل این مشکل فکر کردم. 1. من تقریب خطی را برای نمونه های $n$ با استفاده از رگرسیون خطی با اعمال حداقل مربعات پیاده سازی شده توسط معادلات عادی محاسبه می کنم. (من هر نمونه را به عنوان بردار دو مختصات با مختصات x$ به عنوان زمان و مختصات y$ به عنوان ضربان قلب در نظر میگیرم). من از معادلات نرمال یک تابع خطی به شکل $y = mx+b$ دریافت می کنم و معیار من برای گرایش، شیب است، یعنی مقدار $m$. 2. روش دوم محاسبه همبستگی (همبستگی پیرسون) بین بردار $x$ و بردار $y$ است که $x$ زمان و $y$ نبض قلب است. می پرسم به نظر شما کدام رویکرد برای مشکل من (تعیین تمایل نبض های قلب) بهتر است. یا الگوریتم بهتری برای حل این مشکل دارید؟ | گرایش مجموعه ای از نمونه ها را محاسبه کنید |
76150 | 1. استقلال 2. همجنسگرایی * * * این سوال از یک مسابقه آنلاین با یک پاسخ درست است، اما مطمئن نیستم که موافق باشم. من می فهمم که جواب همجنس بازی است، اما آیا استقلال اینجا هم نقض نمی شود؟ از آنجایی که هتروسکداستیکی نشان می دهد که باقیمانده ها با X همبستگی دارند، پس یک _وابستگی_ با x وجود دارد. بنابراین استقلال هم نقض می شود. کسی میتونه توضیح بده لطفا | |
7196 | دادههایی که میخواهم تجزیه و تحلیل کنم شامل مجموعهای از آرا مشابه سیستم رایگیری در اینجا در stackexchange است. رای ها باینری هستند، یعنی آیتم ها می توانند رای های بالا یا منفی دریافت کنند. داده ها در یک آزمایش کنترل شده A/B جمع آوری شده است. من می خواهم گروه کنترل را با گروه درمان بر اساس برخی استانداردهای طلایی مقایسه کنم. یعنی برای برخی از آیتم ها می دانم که رای صحیح (طبق استاندارد طلا) باید چه می بود. با این حال، تعداد رای ها در هر مورد متفاوت است و می تواند بین گروه کنترل و درمان متفاوت باشد. فرضیه من این است که درمان خطا رای گیری را کاهش می دهد. اما من مطمئن نیستم که از کدام آزمون آماری استفاده کنم. | |
108859 | دادههایی که من استفاده میکنم پیوسته هستند و ممکن است تا حدی منحرف باشند، اما احتمالاً مقادیر پرت زیادی ندارند. به من پیشنهاد شده است که یک قانون کلی خوب است که همبستگی های پیرسون و اسپیرمن را بررسی کنیم، و اگر آنها متفاوت هستند گزارش دومی را گزارش کنیم، به این دلیل که تفاوت بین این دو ممکن است نشان دهنده این باشد که مفروضات _r_ پیرسون برآورده نشده است. | |
13999 | پاسخ به این سوال در SO مجموعه ای از تقریباً 125 نام یک تا دو حرفی را برگرداند: http://stackoverflow.com/questions/6979630/what-1-2-letter- object-names-conflict-with-existing -r-objects [1] Ad am ar as bc bd bp br BR bs by c C [14] cc cd ch ci CJ ck Cl cm cn cq cs Cs cv [27] d D dc dd de df dg dn do ds dt e E [40] el ES F FF fn gc gl go H Hi hm I ic [53] id ID اگر IJ Im In ip is J lh ll lm lo [66] Lo ls lu m MH mn ms N nc nd nn ns on [79] Op P pa pf pi Pi pm pp ps pt ق qf qq [92] qr qt r Re rf rk rl rm rt s sc sd SJ [105] sn sp ss t T te tr ts tt tz ug UG UN [118] V VA Vd vi Vo w W y و R کد واردات: nms <- c(Ad، am، ar، as، bc، bd، bp، br، BR، bs، by، c، «C»، «cc»، «cd»، «ch»، «ci»، «CJ»، «ck»، «Cl»، «cm»، «cn»، «cq»، «cs»، «Cs» cv، d، D، dc، dd، de df، dg، dn، do، ds، dt، e، E، el، ES، F، FF، «fn»، «gc»، «gl»، «go»، «H»، «سلام»، «hm»، «I»، «ic»، «id»، «ID»، «if»، «IJ Im، In، ip، is، J، lh، «ll»، «lm»، «lo»، «Lo»، «ls»، «lu»، «m»، «MH»، «mn»، «ms»، «N»، «nc»، «nd nn، ns، on، Op، P، pa، pf، pi، Pi، pm، pp، ps، pt، q، qf، qq، qr، qt، «r»، «Re»، «rf»، «rk»، «rl»، «rm»، «rt»، «s»، «sc»، «sd»، «SJ»، «sn»، «sp ss، t، T، te، tr، ts، tt، tz، ug، UG، UN، V، VA، Vd، vi، Vo، w، W، y) از آنجایی که هدف این سوال این بود که فهرستی به یاد ماندنی از نام اشیا تهیه کنیم که باید از آن اجتناب کرد، و بیشتر انسان ها در معناسازی از یک بلوک متنی چندان خوب نیستند، می خواهم این را تجسم کنم. متأسفانه من دقیقاً از بهترین راه برای انجام این کار مطمئن نیستم. من به چیزی شبیه طرح ساقه و برگ فکر کرده بودم، فقط از آنجایی که مقادیر تکراری وجود ندارد، هر برگ به جای اینکه موجه باقی بماند، در ستون مناسب قرار گرفت. یا یک اقتباس به سبک wordcloud که در آن حروف بر اساس شیوع آن اندازه میشوند. ** چگونه می توان این را به وضوح و کارآمدتر تجسم کرد؟** تجسم هایی که یکی از موارد زیر را با روح این سوال مطابقت می دهند: * هدف اصلی: افزایش قابلیت به خاطر سپردن مجموعه ای از نام ها با آشکار کردن الگوها در داده ها * جایگزین هدف: برجسته کردن ویژگیهای جالب مجموعه نامها (به عنوان مثال که به تجسم توزیع، رایجترین حروف، و غیره کمک میکند) پاسخها در R ترجیح داده میشوند، اما همه ایدههای جالب هستند. خوش آمدید نادیده گرفتن نام های تک حرفی مجاز است، زیرا ارائه آنها به عنوان یک لیست جداگانه آسان تر است. | |
56858 | این سوال در مورد آزمون فرضیه در چارچوب بیزی است که من تازه وارد آن هستم. فرض کنید من دو مدل پواسون مستقل با پارامترهای $\lambda_1$ و $\lambda_2$ دارم به طوری که $X \sim Pois(\lambda_1)$ و $Y \sim Pois(\lambda_2)$. مشاهدات $n$ از هر یک از توزیع های $X$ و $Y$ گرفته شده است. اگر پیشین های $\pi (\lambda_1)$ و $\pi (\lambda_2)$ را ارائه کنم، می توانم پسین های $\pi (\lambda_1 |x)$ و $\pi (\lambda_2 |y)$ را دریافت کنم. سوال من این است که چگونه می توانم این فرضیه را که $\lambda_1 = \lambda_2$ در برابر فرضیه جایگزین $\lambda_1 < \lambda_2$ با استفاده از رویکرد بیزی آزمایش کنم؟ کاری که من انجام دادم این بود که بازه معتبر 95% را برای $\lambda_1$ پیدا کردم که به عنوان $C_1$ نشان دادم. و سپس فرضیه صفر خود را $H_0:\lambda_2 \در C_1$ در مقابل $H_1:\lambda_2>max (C_1)$ قرار دادم و برای به حداقل رساندن خطر بیز آزمایش کردم. آیا این روش مناسبی برای آزمون فرضیه است؟ اگر نه، چه راه بهتری وجود دارد؟ با تشکر | آزمون فرضیه بیزی دو پارامتر |
85426 | من دانشجویی هستم که در حال حاضر اولین درس آمار خود را می گذرانم. من با اصطلاح آمار آزمون گیج شدم. در ادامه (این را در برخی از کتاب های درسی دیدم)، به نظر می رسد $t$ یک مقدار مشخص است که از یک نمونه خاص محاسبه شده است. $$ t=\frac{\overline{x} - \mu_0}{s / \sqrt{n}} $$ با این حال، در موارد زیر (این را در برخی کتابهای درسی دیگر دیدم)، به نظر میرسد $T$ تصادفی است. متغیر $$ T=\frac{\overline{X} - \mu_0}{S / \sqrt{n}} $$ بنابراین، آیا عبارت آمار آزمون به معنای یک مقدار خاص یا یک متغیر تصادفی است یا **هردو* *؟ متشکرم! | |
115287 | من نتوانستم دوره تحلیل رگرسیون خود را بگذرانم زیرا مدرس نگفت چه نوع تحلیلی روی داده ها می خواهد. مشکل این بود: > شاخص یکپارچگی زیستی (IBI) معیاری از کیفیت آب در > نهرها است. معیارهای IBI و کاربری زمین برای مجموعهای از جریانها در رگرسیون بومی منطقه اوزارک > هایلند آرکانزاس به عنوان بخشی از یک مطالعه جمعآوری شد. جدول > زیر دادههای IBI را نشان میدهد و مساحت حوضه کیلومتر مربع است > برای نهرهای نمونه اصلی با مساحت کمتر یا مساوی 70 > $\text{km}^2$. > > از روش های عددی و گرافیکی برای توصیف متغیر IBI استفاده کنید. همین کار را برای منطقه انجام دهید. نتایج خود را خلاصه کنید. منطقه IBI 21 47 34 76 6 33 47 78 10 62 49 78 23 33 32 64 12 83 16 67 29 61 49 85 28 46 8 53 57 530 9 4 7 10 26 56 31 39 52 89 21 32 8 43 18 29 5 55 18 81 26 82 27 82 26 85 32 59 2 74 59 80 58 88 19 29 16 14 28 91 34 72 70 89 69 80 54 84 39 54 9 71 21 75 54 84 26 79 من نمی دانم از چه روشی باید استفاده کنم و چه نوع تحلیلی مفید خواهد بود. آیا این نوع سوالات در مطالعات پایه طبیعی است؟ آیا باید سعی کنم کتابی در مورد تجزیه و تحلیل رگرسیون پیدا کنم که حاوی تمرینات دقیق تری باشد؟ | |
52534 | ## موقعیت: n احتمال، هر کدام احتمال رخ دادن خود را دارند و در صورت وقوع، سود خاص خود را دارند. بنابراین پرداخت مورد انتظار $E_n$ $\sum\limits_{i=1}^n \text{احتمال}_i*\text{payout}_i$ است و واریانس مورد انتظار $\sum\limits_{i=1}^n است ( \text{payout}_i- \text{پرداخت مورد انتظار})^2* \text{احتمال}_i$ ## سوال: اگر این فعالیت 5 بار تکرار می شود، پرداخت مورد انتظار $5* \text{انتظار پرداخت}$ است اما واریانس 5 برابر واریانس مورد انتظار نیست. با ادامه این فعالیت باید به نسبت کوچکتر شود. اما چگونه می توانم واریانس را از طریق تکرار محاسبه کنم؟ | |
36207 | من یک قاب داده دارم که شامل دو سری زمانی است: تاریخ و شماره نسخه انتشارات Emacs و Firefox. با استفاده از یک دستور ggplot2 میتوان نموداری ساخت که از لس (به نحوی که کمی سرگرمکننده به نظر میرسد، که من بدم نمیآید) برای تبدیل نقاط به خطوط استفاده میکند. چگونه می توانم خطوط را به آینده گسترش دهم؟ من میخواهم تعیین کنم که شمارههای نسخه Emacs و Firefox کجا و چه زمانی با هم تلاقی میکنند، و اگر راهی برای نشان دادن محدوده خطا وجود دارد، بهتر است. با توجه به اینکه ggplot2 خطوط را ترسیم می کند، باید یک مدل داشته باشد، اما من نمی دانم چگونه به آن بگویم که خطوط را گسترش دهد یا مدل را بیرون بیاورد و کاری با آن انجام دهد. > library(ggplot2) > برنامهها <- read.csv(http://www.miskatonic.org/files/se-program-versions.csv) > programs$Date <- as.Date(programs$Date, format =%B %d, %Y) > head(programs) تاریخ نسخه برنامه 1 Emacs 24.1 2012-06-10 2 Emacs 23.4 2012-01-29 3 Emacs 23.3 2011-03-10 4 Emacs 23.2 2010-05-08 5 Emacs 23.1 2009-07-29 6 Emacs 22.3 22.3 22.3 2008-09=program Firefox)) تاریخ نسخه برنامه 18 Firefox 16 2012-10-09 19 Firefox 15 2012-08-28 20 Firefox 14 2012-06-26 21 Firefox 13 2012-06-15 22 Firefox2 12-08-2012- 11 13/03/2012 > ggplot (برنامهها، aes(y = نسخه، x = تاریخ، رنگ = برنامه)) + geom_point() + geom_smooth(span = 0.5، fill = NA)  (توجه: من مجبور شدم فایرفاکس اولیه را رد کنم نسخه ها و 0.1 را به 0.01 و غیره تبدیل کنید، زیرا نقطه یک و نقطه ده از نظر حسابی با هم برابر هستند. میدانم که فایرفاکس هر شش هفته یک بار منتشر میشود، اما هنوز وجود ندارند، و من علاقهمندم که یک پاسخ کلی برای این سؤال پیشبینی داشته باشم.) | |
29462 | آیا درست است که بگوییم توالی حالت پنهان در مدل مارکوف پنهان یک زنجیره مارکوف است؟ با تشکر | |
17831 | من چندین ماتریس واریانس/کوواریانس نمونه دارم، مثلاً $[C_1...C_n]$. این ماتریسهای کوواریانس با بلوکهایی از نمونههای نرمال چند متغیره همبسته مطابقت دارند (یعنی نمونههای مورد استفاده برای تخمین C_1$ کاملاً مستقل نیستند، اما کاملاً مستقل از نمونههای مورد استفاده برای تخمین C_2$ هستند). در واقع، یک ماتریس واریانس/کوواریانس واقعی $C$ وجود دارد. $C_i$ باید نمونه هایی از یک توزیع با انتظار $C$ باشد. من همچنین دو مدل تودرتو دارم که منجر به پیشبینی این ماتریس واریانس/کوواریانس واقعی میشود (مثلاً $V_0$ و $V_1$). من به دنبال این هستم که به طور رسمی آزمایش کنم که آیا $V_1$ برای $[C_1...C_n]$ بهتر از V_0$ است یا خیر (مدل V_0$ در داخل $V_1$ تو در تو قرار دارد). من به دنبال یک راه استاندارد برای انجام این کار بودهام، اما به نظر نمیرسد چیزی پیدا کنم (مثلاً آزمایشهای لامبدای Wilks و دیگر آزمایشهای نوع MANOVA دقیقاً آن چیزی نیست که من به دنبال آن هستم). آیا راهی برای نوشتن احتمال $[C_1...C_n]$ با توجه به $V_0$ (یا $V_1$) وجود دارد؟ یا روش دیگری برای مقایسه تناسب این مدل ها؟ | |
29463 | من باید بررسی کنم که آیا تفاوت قابل توجهی در ارزش سهام بازار بین 2 نسخه بسته بندی (A و B) یک نوشیدنی معین وجود دارد یا خیر: برای بسته بندی A من نمونه ای از 600 خرید دارم که روی آنها محاسبه می کنم. میانگین ارزش خرید بسته بندی A و همچنین میانگین ارزش خرید کل دسته. هر دو پیامد دارای توزیع نرمال هستند، بنابراین نسبت آنها - سهم ارزش - از توزیع کوشی است. آیا کسی می تواند به من راهنمایی کند که چگونه یک آمار توزیع کوشی را پیدا کنم که با آن بتوانم فرضیه تفاوت بین 2 نسخه بسته بندی در سهام ارزش را تأیید کنم؟ (برای بسته بندی B نمونه 650 است). | |
36166 | من به دنبال ابزار/نرم افزاری هستم که بتواند PDF را به فرمت متن برای استخراج متن تبدیل کند. فایل های PDF که من استفاده می کنم، حاوی جداول زیادی است. من سعی کردم از PDF Miner استفاده کنم، اما در هنگام تبدیل جداول PDF به متن مشکلات زیادی پیدا کردم. آیا کسی می تواند ابزاری را معرفی کند که کارآمد باشد؟ با تشکر | |
87119 | من می دانم که رویکردهای مختلفی برای مقابله با ارزش های گمشده وجود دارد. از من خواسته شده است که داده هایی را که حاوی مقادیر گمشده هستند تجزیه و تحلیل کنم. نویسنده یک مقیاس، زمانی که کمتر از 3 مقدار گم شده در یک مورد وجود داشته باشد، رتبهبندی را توصیه کرده است. من علاقه مند به مشاوره در مورد چگونگی انجام این کار هستم. برای مثال، اگر 25 مورد وجود داشته باشد: 3 مورد وجود ندارد، 5 مقدار 2 و 8 مقدار از 1. با تقسیم 18 بر 22 مقدار 0.8 به دست می آید. آیا این بدان معناست که هر مقدار از دست رفته با مقدار 1 جایگزین می شود؟ هر توصیه ای قابل تقدیر است، باب | |
109260 | من به تازگی این ویدیو را تماشا کردم: https://www.youtube.com/watch?v=Fk02TW6reiA فرمولی برای محاسبه پاسخ برای مشکل زیر نشان می دهد: * هر 3 دقیقه 2 مشتری در یک فروشگاه وجود دارد * بنابراین وجود دارد انتظار 6 مشتری در هر 9 دقیقه * احتمال وجود 4 یا کمتر در فروشگاه در 9 دقیقه چقدر است؟ * پاسخ این است: P(0;6)+...+P(4;6) که حدود 0.28 است این منطقی است و به خوبی توضیح داده شده است. با این حال، numpy با توزیع پواسون اساساً مانند یک مولد اعداد تصادفی رفتار می کند: http://docs.scipy.org/doc/numpy/reference/generated/numpy.random.poisson.html ما می توانیم لامبدا را مثلاً 5 و چند عدد را مشخص کنیم. مورد نظر هستند (آگومان دوم) و یک لیست بزرگ از اعداد صحیح دریافت کنید: >>> import numpy به عنوان np >>> s = np.random.poisson(5, 10000) >>> آرایه s([2, 4, 4, ..., 3, 4, 3]) >>> len(s) 10000 اینها دو چیز کاملاً متفاوت به نظر می رسند. چگونه از استفاده از فرمول پواسون برای محاسبه امکان تعداد معینی از رویدادها در یک بازه زمانی به لیستی از اعداد صحیح به ظاهر تصادفی می رسید؟ | |
115246 | از آنجایی که هسته PCA همان PCA در فضای ابعاد بالاتر است، آیا بردارهای ویژه به دست آمده نباید متعامد باشند؟ فرض کنید، من $n$ نقاط داده دارم و اجازه دهید $a$ و $b$ دو بردار ویژه از ماتریس کوواریانس داده های نقشه برداری شده باشند، و $\alpha \in \mathbb{R}^n$ و $\beta \در \mathbb {R}^n$ بردارهای ویژه مربوط به مسئله هسته PCA باشد (که با انجام تحلیل ویژه ماتریس هسته $K$ بدست می آید). سپس $a$ و $b$ را می توان به صورت ترکیب خطی داده های ورودی نوشت، یعنی $$a = \sum_{i=1}^n \alpha_i \phi(x_i)$$ و $$b = \sum_{j =1}^n \beta_j \phi(x_j).$$ حاصلضرب داخلی آنها این است: $$\langle a,b \rangle \,=\, \left\langle \sum_{i=1}^n \alpha_i \phi(x_i) ,\sum_{j=1}^n \beta_j \phi(x_j)\right\rangle \, = \, \sum_{i=1}^ n\sum_{j=1}^n \alpha_i \beta_j K_{ij}.$$ چرا این مقدار صفر است؟ | |
71297 | من دارم روی چیزی شبیه مشکل زیر کار می کنم. من یک دسته کاربر و N کتاب دارم. هر کاربر یک رتبه بندی مرتب از همه کتاب هایی که خوانده است (که احتمالاً زیرمجموعه ای از کتاب های N است) ایجاد می کند، به عنوان مثال، کتاب 1 > کتاب 40 > کتاب 25. اکنون می خواهم این رتبه بندی کاربران را به یک رتبه بندی مرتب شده تبدیل کنم. همه کتاب ها آیا رویکردهای خوب یا استانداردی برای امتحان وجود دارد؟ تا کنون، من به مدلهای بردلی-تری که برای مقایسههای زوجی اعمال میشوند فکر میکنم، اما نمیخواهم چیز دیگری وجود داشته باشد. | |
94312 | لطفا این سوال احمقانه را ببخشید، من نسبتاً تازه وارد آمار هستم. این کد R را در نظر بگیرید: a = c(1,2,3,4,3,2,3,4,5,5,6,5,4,3,4,5,6,7,8,7,6 ,6,5,6,7,10,9) b = c(10,9,7,6,5,6,7,8,4,6,6,5,4,5,6,5,4,5,6,7,5,4,4,5, 4,3,2) mean((a - mean(a))*(b-mean(b))) [1] -2.42524 cov(a,b) [1] -2.518519 چرا این دو مقدار متفاوت هستند؟ آیا مقادیر میانگین و مورد انتظار یکسان نیستند؟ | مطمئن نیستم که بفهمم R چگونه کوواریانس را محاسبه می کند |
67320 | چگونه آزمون های فرضیه را با داده های بزرگ انجام می دهید؟ من اسکریپت متلب زیر را نوشتم تا بر سردرگمی خود تأکید کنم. تنها کاری که انجام می دهد این است که دو سری تصادفی تولید می کند و یک رگرسیون خطی ساده از یک متغیر روی دیگری اجرا می کند. این رگرسیون را چندین بار با استفاده از مقادیر تصادفی مختلف انجام می دهد و میانگین ها را گزارش می کند. چیزی که تمایل دارد اتفاق بیفتد این است که با افزایش حجم نمونه، مقادیر p به طور متوسط بسیار کوچک می شوند. من می دانم که چون قدرت یک آزمون با حجم نمونه افزایش می یابد، با توجه به یک نمونه به اندازه کافی بزرگ، مقادیر p به اندازه کافی کوچک می شوند، حتی با داده های تصادفی، برای رد هر آزمون فرضیه. من از اطراف پرسیدم و برخی از مردم گفتند که با داده های بزرگ مهم تر است که به اندازه اثر نگاه کنید، یعنی. این که آیا آزمون مهم است و تأثیر آن به اندازه کافی بزرگ است که ما به آن اهمیت دهیم. این به این دلیل است که در اندازههای نمونه بزرگ، مقادیر p تفاوتهای بسیار کوچکی دارند، همانطور که در اینجا توضیح داده شده است. با این حال، اندازه اثر را می توان با مقیاس بندی داده ها تعیین کرد. در زیر متغیر توضیحی را به اندازه کافی کوچک میکنم که با توجه به اندازه نمونه به اندازه کافی بزرگ، تأثیر قابل توجهی روی متغیر وابسته دارد. بنابراین من میپرسم، اگر این مشکلات وجود داشته باشد، چگونه میتوانیم بینشی از Big Data بدست آوریم؟ %make میانگین %تصمیم بگیرید از چند مقدار میانگین obs_inside_average = 100; %میانگین شمارنده میانگین_count = 1; برای average_i = 1:obs_inside_average، %do حلقه رگرسیون %تعداد مشاهدات n = 1000; %اولین متغیر مستقل (ترم ثابت) x(1:10,1) = 1; % ایجاد متغیر وابسته و یک رگرسیور برای i = 1:10, y(i,1) = 100 + 100*rand(); x(i,2) = 0.1*rand(); پایان % محاسبه ضرایب بتا = (x'*x)\x'*y; % محاسبه باقی مانده ها u = y - x*beta. % محاسبه مجموع مربعات باقیمانده s_2 = (n-2)\u'*u; % محاسبه t-statistics design = s_2*inv(x'*x); % محاسبه خطاهای استاندارد stn_err = [sqrt(design(1,1));sqrt(design(2,2))]; % محاسبه t-statistics t_stat(1,1) = sqrt(design(1,1))\(beta(1,1) - 0); t_stat(2،1) = sqrt(طراحی(2،2))\(بتا(2،1) - 0); % محاسبه p-statistics p_val(1,1) = 2*(1 - tcdf(abs(t_stat(1,1)), n-2)); p_val(2,1) = 2*(1 - tcdf(abs(t_stat(2,1))، n-2)); %save first beta to data ستون 1 data(average_i,1) = beta(1,1); %save second beta to data ستون 2 data(average_i,2) = beta(2,1); %save first s.e. به داده ستون 3 data(average_i,3) = stn_err(1,1); %save second s.e. به داده ستون 4 data(average_i,4) = stn_err(2,1); %save first t-stat to data ستون 5 data(average_i,5) = t_stat(1,1); %save second t-stat to data ستون 6 data(average_i,6) = t_stat(2,1); %save first p-val to data ستون 7 data(average_i,7) = p_val(1,1); %save second p-val to data ستون 8 data(average_i,8) = p_val(2,1); پایان % محاسبه میانگین بتا اول و دوم b1_average = mean(data(:,1)); b2_average = mean(data(:,2)); بتا = [b1_average;b2_average]; % محاسبه اول و دوم s.e. میانگین se1_average = mean(data(:,3)); se2_average = mean(data(:,4)); stn_err = [se1_average;se2_average]; % محاسبه میانگین t-stat اول و دوم t1_average = mean(data(:,5)); t2_average = mean(data(:,6)); t_stat = [t1_average;t2_average]; % محاسبه میانگین p-val اول و دوم p1_average = mean(data(:,7)); p2_average = mean(data(:,8)); p_val = [p1_average;p2_average]; بتا stn_err t_stat p_val | |
90807 | من اطلاعات بسیاری از سفرها (همان مسیر) را دارم. محتوای سفر: «طول جغرافیایی»، «طول جغرافیایی»، و «زمان در ایستگاه اتوبوس». من می خواهم سفرهایی را که در یک جهت هستند شناسایی کنم (باید دو خوشه باشند: یک جهت و جهت مخالف). آیا الگوریتمی وجود دارد که بتواند این کار را انجام دهد؟ | چگونه جهت داده های ترافیک را خوشه بندی کنیم؟ |
96409 | من دو مجموعه را که در SAS اجرا کردم، در رابطه با مدلهای رگرسیون مکعبی اسپلاین، پیوست میکنم. من تازه وارد آمار هستم و تمام تلاشم را می کنم تا یاد بگیرم اما اینجا گیر کرده ام. چگونه می توانم SAS را بر اساس دو یا 3 انحراف استاندارد از مقدار پیش بینی شده با استفاده از splines انتخاب کنم؟ با تشکر گزینه ها ls=75 ps=54 center formdlim =-; داده a; شناسه ورودی $ totalVol DIM Lame; اگر کم نور 325 بود، حذف کنید. /*if totalVol='.' سپس حذف کنید؛ اگر totalVol>36 سپس Vol='totalVol'; اگر totalVol<-2 سپس Vol='totalVol';*/ datalines; 6 18.6 117 0 6 8.2 118 0 6 18.4 119 0 6 26.2 120 0 6 18 121 0 6 17.9 122 0 6 18.8 123 0 6 1405618 20.1 126 0 6 20.2 127 0 6 20.4 128 0 6 8.4 129 0 6 21 130 0 6 8.1 131 0 6 13 132 0 6 13.3 1381 1381 135 0 6 9.3 136 0 6 . 137 0 6 21.3 138 0 6 24.7 139 0 6 18.9 140 0 6 24.1 141 0 6 17.9 142 0 6 19.4 143 0 6 18.9 1456 146. 146 0 6 21.4 147 0 6 21.4 148 0 6 19.4 149 0 6 16.7 150 0 6 18.8 151 0 6 19.3 152 0 6 20.6 1541 1530. 155 0 6 19.5 156 0 6 11.1 157 0 6 19 158 0 6 7.3 159 0 6 20.4 160 0 6 19.6 161 0 6 7 162 0 158 1614 7 7.7 165 0 6 19.6 166 0 6 19.2 167 0 6 8.2 168 0 6 6.7 169 0 6 . 170 0 6 7.8 171 0 6 8.4 172 0 6 8.1 173 0 6 19.2 174 0 6 20.5 175 0 6 17.8 176 0 6 . 177 0 6 11.7 178 0 6 5.8 179 0 6 6.9 180 0 6 12.4 181 0 6 . 182 0 6 14.4 183 0 6 17.2 184 0 6 10 185 0 6 16.6 186 0 6 17.2 187 0 6 5.2 188 0 6 20 189 0 185 0 6 190. 6 6.7 192 0 6 8.3 193 0 6 18.3 194 0 6 18.9 195 0 6 20.5 196 0 6 10 197 0 6 21.3 198 0 6 19.3 608 198 0 6 19.3 608. 201 0 6 20.3 202 0 6 20.3 203 0 6 . 204 0 6 21.5 205 0 6 9.6 206 0 6 . 207 0 6 . 208 0 6 . 209 0 6 7.2 210 0 6 18.8 211 0 6 18.9 212 0 6 19.4 213 0 6 18.8 214 0 6 22.7 215 0 6 11 216 0 6 . 217 0 6 . 218 0 6 . 219 0 6. 220 0 6 . 221 0 6 . 222 0 6 7.9 224 0 6 19.8 225 0 6 16.6 226 0 6 17.6 227 0 6 16.5 228 0 6 . 229 0 6 8.6 230 0 6 19.7 231 0 6 18.7 232 0 6 17.7 233 0 6 . 234 0 6 21.6 235 0 6 18.9 236 0 6 17.7 237 0 6 20.4 238 0 6 20.7 240 0 6 18.2 241 0 6 19 249 249 024 024 0 6 18.2 245 0 6 18.5 246 0 6 8.4 247 0 6 17.6 248 0 6 11.2 249 0 6 10.7 250 0 6 20.9 251 0 6256 6251 6 6.7 254 0 6 18.7 255 0 6 17.6 256 0 6 17.8 257 0 6 7.5 258 0 6 16.8 259 0 6 16.6 260 0 6 . 261 0 6 7.5 262 0 6 6.6 263 0 6 7 264 0 6 14.7 265 0 6 17.5 266 0 6 17.6 267 0 6 16.5 268 0 6 227 268 0 6 2617 0 6 11.6 271 0 6 19.1 272 0 6 15.6 273 0 6 18 274 0 6 17.2 275 0 6 15.1 276 0 6 15.5 277 0 6 270 270 6 270 6 15.5 280 0 6 17.1 281 0 6 14.7 282 0 6 16.1 283 0 6 16.5 284 0 6 16.3 285 0 6 15.9 286 0 6 2814 6 15.5 289 0 6 17.1 290 0 6 16.6 291 0 6 16.7 292 0 6 6.5 293 0 6 15.3 294 0 6 16.2 295 0 6 16.2 295 0 6 6.5 6.5 294 18.6 298 0 6 14.8 299 0 6 15.6 300 0 6 16.6 301 0 6 19 302 0 6 7 303 0 6 14.8 304 0 6 13 3014 06 6 13 3014 06 307 0 6 14.4 308 0 6 9.1 309 0 6 . 310 0 6 . 311 0 6 . 312 0 6 . 313 0 6 10.1 315 0 6 13.6 316 0 6 14.3 317 0 6 13.6 318 0 6 16 319 0 6 14.5 320 0 6 12.3 3213 3213 06. 323 0 6 15.3 324 0 6 6.7 325 0 6 6 326 0 6 7.8 327 0 6 15.6 328 0 6 15.7 329 0 6 7.5 330 0 6 316 310 6 310. 6 14 361 0 6 6.8 362 0 6 15.1 363 0 6 14.4 364 0 6 | مجموعه انحراف استاندارد برای مدل رگرسیون مکعبی اسپلاین |
113120 | برای تفسیر نتایج مدلم به کمک شما نیاز دارم. برای کوتاه کردن داستان، من یک متغیر وابسته پیوسته $Y$، و دو عامل $A$ و $B$ دارم، که هر کدام دارای سطوح $2$$(A_1، A_2، B_1، B_2)$ هستند. علاقه اصلی من تفاوت بین $A_1$ و $A_2$ است، با این حال من تاثیر $B$ را در نظر میگیرم. مشاهدات مستقل نیستند، به عبارت دیگر، هر موضوع بیش از $1$ مشاهدات داشته است، بنابراین، من از یک مدل ترکیبی با $A$، $B$ و تعامل $AB$ به عنوان اثرات ثابت و موضوع استفاده کردم. به عنوان یک اثر تصادفی. همه اثرات ثابت $3$ از نظر آماری معنی دار بودند، A با $\text{p -value}$ $0.0001$، $B$ با $\text{p -value}$ $0.0038$ و $AB$ با $\ text{p -value}$ از $0.00032$. من از رایانه خواستم که برش را انجام دهد و یک جفت را آزمایش کند، $A_1$ در مقابل $A_2$ برای $B_1$ و برای $B_2$. برای B_2$ از نظر آماری معنیدار بود، با این حال، برای $B_1$ علیرغم مشاهده اختلاف میانگین، با $\text{p -value}$ 0.057$... بنابراین برای B_1$ تفاوتها از نظر آماری معنیدار نیستند. (ممکن است به دلیل کمبود قدرت باشد، من از عبارات بدی مانند تقریبا قابل توجه استفاده نمی کنم)، اما در کل، عامل $A$ از نظر آماری معنی دار است! حالا نتیجه من از این تحلیل چه باید باشد؟ چه چیزی را باید گزارش کنم و چگونه؟ برای راحتی شما، دو طرحی را که رایانه به من داده است، پیوست می کنم، به شما کمک می کند مشکل من را ببینید.   همه وسایلی که می بینید معنی تنظیم شده (آنچه SAS، NCSS و دیگران به معنای حداقل مربع می گویند). باز هم، هدف من این است که ببینم آیا $A_1$ نسبت به $A_2$ برتری دارد، جایی که مقادیر پایین تر $Y$ بهتر است. پیشاپیش از شما متشکرم. | |
87118 | من اکنون از **توزیع نمایی** برای مدلسازی **فاصله های زمانی دنباله ای از رویدادهای تصادفی** استفاده می کنم. از آنجایی که می توانم چندین لامدا مختلف را برای این مدل انتخاب کنم، می خواهم بفهمم کدام لامدا از آنها مطابقت دارد. بهترین داده های آموزشی به نظر من واگرایی Kullback–Leibler از برخی کاغذها برای انجام این کار استفاده میشود، اما: * نمیدانم آیا این روش مناسب است یا نه * من نمیدانم چگونه کار کنم، همچنین در یادگیری ماشینی تازه کار هستم. کسی میتونه کمکم کنه؟ | |
76155 | من با برخی از داده ها سر و کار دارم که در آن برخی از متغیرهای طبقه بندی که به ندرت رخ می دهند مربوط به یک هدف پیش بینی باینری هستند. به عنوان مثال شرکای بازاریابی... برخی 1000 سرنخ ارسال می کنند اما بسیاری دیگر کمتر از 10 عدد کوچک را در یک مجموعه داده با بیش از 20 هزار نمونه ارسال می کنند. به طور معمول، ما با این کار با گروه بندی همه شرکای نادر تحت متغیر Else و استفاده از آن به عنوان مقوله مرجع در رگرسیون لجستیک مقابله می کنیم. من نمی دانم که مزایا و معایب رسیدگی به این موضوع چیست و آیا راه بهتری برای مقابله با آن در مرحله پیش پردازش وجود دارد. | |
101263 | من می دانم که سؤال کلی در مورد واریانس سوگیری قبلاً پرسیده شده است. من رویکرد مکررگرایی و مفهوم انتخاب مدل و تأثیر سوگیری و واریانس را بر دقت یک پیشبینی درک میکنم. من به دنبال توضیح شهودی سوگیری و واریانس از دیدگاه **بیزی هستم.** | مبادله واریانس تعصب از دیدگاه بیزی |
60247 | گفته می شود که $S_{xx} = \sum_{i=1}^n(x_i−\overline x)^2 = \sum_{i=1}^n x_i^2 −n\overline x^2$. من گمان می کنم این جبر ساده است، اما هنوز چیزی را از دست می دهم. این چگونه کار می کند؟ علاوه بر این، ویکیپدیا اشاره میکند که MSE $\sum_i \frac{(X_i - \overline X)^2}{n-2}$ است. با این حال، متن من اشاره می کند که SSE $\sum_i (Y_i-\hat{Y})^2$ است. اما باید اینطور باشد که $MSE = \frac{SSE}{n-2}$. آیا Xs و Ys را می توان به صورت مترادف به این صورت استفاده کرد؟ به نظر من اشتباه است. | سوالات مربوط به تعاریف و نمادگذاری (MSE، SSE، Sxx) |
60244 | SAS چگونه مقادیر t را محاسبه می کند؟ برای مثال، فرض کنید ما دو متغیر داریم: intercept (که همیشه وجود دارد) و دما در مدلی که در حال کاهش دما بر میزان مرگ و میر در یک منطقه خاص است. t مقدار -1.39 (برق) (B) (دما) چگونه می توان (B) را محاسبه کرد؟ من میدانم که به طور نمادین، اگر دما برابر $b_1$ در نظر گرفته شود، ما $\frac{b_1- \beta_1}{s({b_1})}$ داریم. من فرض میکنم آنها در اینجا آزمایش میکنند که آیا $\beta = 0$ است یا نه، بنابراین ما میتوانیم صورتگر را فقط b_1$ بسازیم. برای بدست آوردن این داده ها می توان به کجا در خروجی SAS معمولی نگاه کرد؟ | یافتن داده ها در خروجی SAS برای رگرسیون خطی |
60245 | من با پکیج changepoint R در R کار می کنم و همه چیز را به جز مقدار جریمه درک می کنم. می دانم که واحدهای تغییر را در میانگین تغییر می دهد، اما هنوز نمی دانم چگونه آن را تفسیر کنم. چگونه بفهمم که چقدر مهم است؟ اگر «pen.value = 0.20» قرار دهم، 8 نقطه تغییر میگیرم، اما اگر «pen.value = 0.30» قرار دهم، فقط 5 نقطه تغییر دریافت میکنم. چگونه بفهمم که آن 3 نقطه تغییر مهم هستند؟ چگونه باید بدانم که به کدام مقدار بچسبم؟ و چگونه این ارزش ها را تفسیر می کنید؟ | مقدار جریمه در تحلیل نقطه تغییر |
48234 | من در حال خواندن یک گزارش تحقیق هستم. در آن گزارش، آنها از برخی روش های آماری ابتدایی برای تجزیه و تحلیل داده های خود استفاده کردند. یک کمیتی وجود دارد که آنها محاسبه کرده اند به نام سهم (یک عامل)، اما تعریفی برای آن ارائه نکرده اند. من گیج شده ام. من هرگز در مورد سهم یک عامل نشنیده ام. به نظر می رسد که آنها از این عوامل برای ساخت یک مدل خطی استفاده می کنند، به عنوان مثال. $y=ax+b$. آیا کسی معنی را در این زمینه می داند؟ | آیا مفهومی به نام مشارکت در آمار وجود دارد؟ |
63912 | من سعی می کنم بفهمم چرا از روش های خاصی برای مقایسه مدل ها در آمار بیزی استفاده می شود. DIC اغلب در مقایسه مدل بیزی استفاده می شود. با این حال، من تحت این تصور هستم که می توان احتمال و/یا BIC را نیز محاسبه کرد. به طور خاص، به من گفته شده است که محاسبه احتمال میتواند به «نحوه حاشیهسازی پارامترها» بستگی داشته باشد. این به چه معناست؟ آیا دلایل دیگری وجود دارد که چرا برخی افراد BIC را ترجیح نمی دهند؟ | مقایسه مدل بیزی: چه چیزی در MCMC وجود دارد که استفاده از RSS یا BIC را سخت می کند؟ |
11749 | من می خواهم ظاهر نشریات را در یک انجمن شبیه سازی کنم و باید بدانم توزیع احتمال سؤال جدید در یک انجمن چقدر است. در اولین شبیه سازی من از توزیع نرمال استفاده کردم، اما فکر می کنم بهترین توزیع می تواند توزیع نمایی باشد. | توزیع احتمال سوالات در یک انجمن |
60246 | من یک مجموعه داده دارم که گروهی از شرکتکنندگان است که هر یک از دو دستگاه را میپذیرند یا رد میکنند، و میخواهم آزمایش کنم که آیا این دو دستگاه با نرخهای متفاوتی پذیرفته میشوند یا خیر. جدول خلاصه به این صورت پذیرش کلی پذیرش رد X 124 20 Y 111 33 بهترین آزمون آماری برای تعیین اینکه آیا تفاوت بین میزان پذیرش X و میزان پذیرش Y قابل توجه است چیست؟ من از دادههای باینری استفاده نمیکنم، بنابراین اینجا از عمق من خارج است. | تست داده های باینری |
90801 | من یک مجموعه محدود A از مقادیر گسسته دارم و یک جریان بسته (شبکه کامپیوتری) دارم که در آن به هر بسته مقداری از A اختصاص داده شده است. میخواهم تعیین کنم که آیا امکان پیشبینی بلندمدت وجود دارد (مثلاً بعد از یک دقیقه) مشخصه (در رابطه با A) جریان این بسته با انجام مشاهدات کوتاه مدت (مثلاً پس از چند ثانیه) از چند بسته اول جریان. به عنوان اولین قدم می خواهم یک طول مشاهده کوتاه مدت مناسب را تعیین کنم. در ابتدا، من میخواستم بستههای چند ثانیه اول جریان را جمعآوری کنم، مقادیر A آنها را میانگینگیری کنم تا یک میانگین A-مقدار کوتاهمدت به دست بیاورم و این میانگین و std آن را مقایسه کنم. توسعه دهنده با میانگین و std. توسعه دهنده از مشاهده بلند مدت سپس برنامه این بود که مدت زمان مشاهده کوتاه مدت (1/2/3/... ثانیه) تا پایان کوتاه مدت افزایش یابد. توسعه دهنده در یک مرز مشخص است با این حال، متوجه شدم که توزیع مقادیر A از مشاهده بلندمدت بسیار کج است (تصویر را ببینید، محور x A است) و اکنون کمی گم کرده ام که چگونه باید ادامه دهم.  مطالعه کردم تا توزیع های اریب را مقایسه کنم، میانه ترجیح داده می شود، اما نمی دانم که آیا می توانم میانگین را با میانه و ساده تغییر دهم یا نه طبق برنامه پیش بروید یا اگر موارد دیگری وجود دارد که باید در نظر گرفته شود؟ علاوه بر این، آیا باید به عنوان پیش نیاز نشان دهم که توزیع کوتاه مدت با توزیع بلندمدت یکسان است (مثلاً نمایی)؟ | آیا برای مقایسه مشاهده کوتاه مدت و بلند مدت باید میانگین یا میانه را در نظر بگیرم؟ |
64033 | من یک مدل «ARIMA(0،2،1)» دارم. چگونه مؤلفه $\hat{e}_t$ مدل را تخمین بزنم. من تئوری های زیادی خوانده ام که من را بیشتر گیج می کند. آیا روش عملی برای تخمین این $\hat{e}_t$ وجود دارد؟ آیا «R» به آن هم کمکی میکند؟ من می دانم که مدل «ARIMA(0،2،1)» من را می توان به صورت $Y_{t} = 2Y_{t-1} - Y_{t-2} + e_{t} + \theta e_{t- نوشت 1} دلار من می خواهم 1 بار آینده را پیش بینی کنم. در آن صورت، معادله پیشبینی من به صورت $\hat Y_{t}(1) = 2Y_{t} -Y_{t-1} + \theta \hat e_{t}$ داده میشود. من ارزش خود را برای Y_{t} = 7.8 دلار و Y_{t-1} = 7.8 دلار می دانم. من مقدار \theta خود را 0.6816- می دانم که از خروجی R به دست آوردم. مشکل من اکنون این است که چگونه می توانم مقدار $\hat e_{t} $ خود را تعیین کنم تا بتوانم $ \hat Y_{t}(1)$ را پیدا کنم؟ من یک کد «R» دارم که همه این پیشبینیها را به من میدهد، اما میخواهم بدانم «R» چگونه اولین پیشبینی من را ایجاد کرد و چگونه برآورد $\hat e_{t} $ را پیدا کرد. با تشکر برای نگاه کردن! | چگونه می توانم $e_t$ را از یک مدل میانگین متحرک تخمین بزنم؟ |
64037 | من این مخلوط از دوجمله ای جابجا شده و یکنواخت گسسته را دارم: $$ P(R=r)=\left\\{ \pi\binom{m-1}{r-1} (1-\xi)^{r- 1}\xi^{m-r}+(1-\pi){1\over m}\right\\} $$ با ثابت کردن $\xi$, $\pi$, $m$ برای مقادیر خاص، چگونه می توان من N مقدار تولید می کنم برای متغیر تصادفی $R$؟ به عنوان مثال N = 100، 300 و 900 را فرض کنید. | شبیه سازی نمونه از مدل مخلوط در R |
20891 | کار با فرمول کوواریانس تعمیم یافته برای بردار، $x$، من دارم: $E[(x-\mu)(x-\mu)^T)] = E(xx^t) - \mu E(x^T )$ اما عبارت $E(x^T)$ برای من چندان منطقی نیست. آیا کسی ایده ای دارد که چرا من این اصطلاح را با جبر ماتریسی خود دریافت می کنم؟ | آیا جابجایی رفت و آمد از طریق انتظار انجام می شود؟ |
60241 | درک (اساسی) من از فاصله اطمینان 95% این است که فاصله زمانی است که اگر 100 نمونه تصادفی از جامعه بگیرید، میانگین نمونه 95 برابر می شود. سوال من این است، من اغلب می بینم که از فواصل اطمینان در موقعیت هایی استفاده می شود که من آنها را توصیفی می نامم، نه استنتاجی. آیا این روش درست و صحیحی برای استفاده از آنهاست؟ به عنوان مثال، اگر من تک تک واشرها را در کارخانه خود اندازه بگیرم و میانگین را با فاصله اطمینان 95 درصد ترسیم کنم، چه می گویم؟ اگر 100 بار «نمونه» را دوباره بگیرم، همان میانگین را 100 بار دریافت خواهم کرد. اما من استدلال میکنم که داشتن یک فاصله اطمینان مفید است، زیرا از نظر اندازه نمونه و گسترش دادهها عملکرد توصیفی دارد. فرض کنید من همه واشرهای کارخانه خود را هر ماه اندازه میگیرم و میخواهم از فواصل اطمینان استفاده کنم تا ببینم بین میانگین قطر بین این ماه و ماه قبل تفاوت معنیداری وجود دارد یا خیر. آیا این مفهوم ناقص است زیرا من به جای نمونه ها به جمعیت ها نگاه می کنم؟ اگر من 100% از میانگین هر ماه مطمئن باشم، آیا سؤالات مهم دیگر اهمیتی ندارند؟ من می دانم که این ممکن است یک سوال احمقانه باشد، پیوند به مطالب خواندنی مناسب با سپاس پذیرفته شده است! | فاصله اطمینان برای جمعیت |
49143 | من باید داده های عینی جرم (نمایه شده) را با تجزیه و تحلیل مداخله سری زمانی تجزیه و تحلیل کنم. با این حال، من فقط شاخص سالانه از سال 2003 تا 2011 دارم. من همچنین داده های جنایی ذهنی دارم و می خواهم ببینم آیا رابطه ای بین این دو داده مختلف در طول زمان وجود دارد یا خیر. چه تحلیلی را توصیه می کنید؟ همچنین آزمون t با این نوع داده ها چه چیزی را نشان می دهد؟ | تجزیه و تحلیل داده های جرم: آزمون t یا سری زمانی؟ |
49144 | من در تلاش برای کشف نحوه گزارش دادن داده های طبقه بندی شده و پیوسته در یک جدول با مشکل مواجه هستم. من می خواهم یک جدول توصیفی ایجاد کنم که برخی از داده های طبقه بندی شده و پیوسته از 3 گروه درمانی که داشتم را خلاصه کند. | ایجاد جدول تشریحی |
72521 | ## تعیین احتمال شرط دو جمله ای یک نمونه تصادفی من یک سوال در مورد احتمال دو جمله ای شامل یک رویداد شرطی دارم. این مشکل مدام مرا اذیت میکند، زیرا در حالی که میدانم چگونه احتمال دوجملهای را محاسبه کنم که یک متغیر تصادفی شکست خورده است، نمیدانم چگونه احتمال شرطی آن متغیر را محاسبه کنم. * * * سوال من این است: **70%** کل محموله ها از **کارخانه A** است که **10% معیوب** است. **30%** از کل محموله ها از **کارخانه B** انجام می شود که **5% آن معیوب است**. یک محموله تصادفی وارد می شود و یک نمونه 20 پینتی گرفته می شود و 1 پینت معیوب است. _احتمال اینکه این محموله از کارخانه A آمده باشد چقدر است؟ | دو جمله ای احتمال شرطی یک رویداد |
63913 | من آزمایشی را در یک طرح فاکتوریل انجام دادم: نور (PAR) را در سه تیمار گیاهخوار و همچنین شش تیمار مواد مغذی اندازهگیری کردم. آزمایش مسدود شد. من مدل خطی را به صورت زیر اجرا کرده ام (برای تکرار می توانید داده ها را از وب سایت من دانلود کنید) dat <- read.csv('http://www.natelemoine.com/testDat.csv') mod1 <- lm(light ~ Nutrient*Herbivore + BlockID, dat) نمودارهای باقیمانده بسیار خوب به نظر می رسند par(mfrow=c(2,2)) نمودار(mod1) وقتی من به در جدول ANOVA، اثرات اصلی مواد مغذی و گیاهخوار را می بینم. anova(mod1) تجزیه و تحلیل جدول واریانس پاسخ: نور Df Sum Sq Mean Sq F value Pr(>F) Nutrient 5 4.5603 0.91206 7.1198 5.152e-06 *** Herbivore 2 2.1358 1.06061.060 1.069 *** BlockID 9 5.6186 0.62429 4.8734 9.663e-06 *** Nutrient:Herbivore 10 1.7372 0.17372 1.3561 0.2058882 باقیمانده ها 153 1529-19. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 با این حال، جدول رگرسیون اثرات اصلی غیر قابل توجه و تعاملات قابل توجه را نشان می دهد. خلاصه (mod1) تماس: lm (فرمول = نور ~ ماده مغذی * گیاهخوار + شناسه بلوک، داده = داده) باقیمانده ها: حداقل 1Q Median 3Q Max -0.96084 -0.19573 0.01328 0.24176 0.74200 ضریب تخمینی خطای t مقدار Pr(>|t|) (برق) 1.351669 0.138619 9.751 < 2e-16 *** Nutrientb 0.170548 0.160064 1.066 0.28833 Nutrientc -0.001 -0.28833 Nutrientc -0.001 -0.28833 0.98919 Nutrientd -0.163537 0.160064 -1.022 0.30854 Nutriente -0.392894 0.160064 -2.455 0.01522 * Nutrientf 0.1376810 0.1376010 0.1376010 0.1376010 0.1376010 0. HerbivorePaired -0.074901 0.160064 -0.468 0.64049 HerbivoreZebra -0.036931 0.160064 -0.231 0.81784 ... Nutrientb:HerbivorePaired 0.0040.0396040 0.85811 Nutrientc:HerbivorePaired 0.323127 0.226364 1.427 0.15548 Nutrientd:HerbivorePaired 0.642734 0.226364 2.839 0.0005513 Nutrientd:HerbivorePaired 0.226364 2.006 0.04665 * Nutrientf:HerbivorePaired 0.384195 0.226364 1.697 0.09168. Nutrientb:HerbivoreZebra 0.064540 0.226364 0.285 0.77594 Nutrientc:HerbivoreZebra 0.279311 0.226364 1.234 0.21913 Nutrientd:Z3ebra1605. 0.226364 2.369 0.01911 * ماده مغذی:HerbivoreZebra 0.394504 0.226364 1.743 0.08338. Nutrientf:HerbivoreZebra 0.324598 0.226364 1.434 0.15362 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقیمانده: 0.3579 در 153 درجه آزادی، R-squared چندگانه: 0.4176، R-squared تعدیل شده: 0.3186 F-آمار: 4.219 در 26 و 153 DF، p-value: 8.64-8. سؤال قبلاً به صورت چندگانه مطرح و پاسخ داده شده است پست ها در پستهای قبلی، موضوع حول انواع مختلف SS مورد استفاده در anova() و lm() بود. با این حال، من فکر نمی کنم این موضوع اینجا باشد. اول از همه، طراحی متعادل است: با (dat, tapply(light, list(Nutrient, Herbivore), length)) دوم اینکه استفاده از گزینه Anova() جدول anova را تغییر نمی دهد. این تعجب آور نیست زیرا طراحی متعادل است. Anova(mod1, type=2) Anova(mod1, type=3) تغییر کنتراست نتایج را (از لحاظ کیفی) تغییر نمی دهد. من هنوز تفسیرهای تقریباً معکوس از anova() در مقابل summary() دریافت می کنم. گزینهها(contrasts=c(contr.sum,contr.poly)) mod2 <- lm(سبک ~ Nutrient*Herbivore + BlockID, dat) anova(mod2) خلاصه (mod2) من گیج شدم زیرا همه چیز خواندن بر روی رگرسیون که با ANOVA موافق نیست، تفاوتهایی را در نحوه استفاده R از SS برای توابع summary() و anova() نشان میدهد. با این حال، در طراحی متعادل، انواع SS معادل هستند و نتایج در اینجا تغییر نمی کنند. چگونه می توانم بسته به اینکه از کدام خروجی استفاده می کنم، تفسیرهای کاملاً متضادی داشته باشم؟ | ANOVA و رگرسیون نتایج متضادی را در R ارائه می دهند |
96377 | متغیر وابسته من فساد است. من می خواهم تأثیر آزادی مطبوعات و دموکراسی را بر فساد آزمایش کنم. معیار آزادی مطبوعات از 1 تا 100 متغیر است و متغیر دموکراسی از 1 تا 7 مقیاس بندی شده است. آیا می توانم یک اصطلاح تعاملی بین آزادی مطبوعات و دموکراسی ایجاد کنم؟ | آیا می توانم یک عبارت تعامل با متغیرهای ترتیبی در یک مدل رگرسیون چندگانه داشته باشم؟ |
49149 | چگونه می توانم مشخص کنم که یک متغیر به طور یکنواخت از مقادیر گسسته $1,2,\ldots,10$ در JAGS نمونه برداری شود؟ حدس میزنم میخواهم از توزیع dcat() استفاده کنم، اما هنوز مستندات خوبی از پارامترها برای این کار پیدا نکردهام. | توزیع طبقه بندی در JAGS |
19599 | میدانم آیا کسی راهی برای اجرای یک مدل میانجیگری چندگانه در R میداند. میدانم که بسته میانجیگری چندین مدل میانجیگری ساده را امکانپذیر میکند، اما من میخواهم یک مدل را اجرا کنم که چندین مدل میانجیگری را بهطور همزمان ارزیابی کند. من فرض میکنم که میتوانم این کار را در یک چارچوب SEM (تحلیل مسیر) انجام دهم، اما نمیدانم آیا کسی جدید از بستهای است که آمارهای معمول تجزیه و تحلیل میانجیگری را برای چند واسطه (اثرات غیرمستقیم، نسبت اثر کل از طریق میانجیگری و غیره) محاسبه میکند. و می تواند از bootstrapping استفاده کند. من می دانم که این یک راه دور است، اما فکر کردم باید قبل از سرمایه گذاری زمان برای توسعه از ابتدا بپرسم. به روز رسانی: (11/11/2013) از زمانی که این سوال را چند سال پیش پرسیدم، یاد گرفتم که از بسته فوق العاده R lavaan برای انجام میانجیگری چندگانه استفاده کنم. کد مثالی در اینجا آمده است: مدل <- ' # نتیجه مدل outcomeVar ~ c*xVar + b1*medVar1 + b2*medVar2 # مدل های واسطه medVar1 ~ a1*xVar medVar2 ~ a2*xVar # اثرات غیر مستقیم (IDE) medVar1IDE := a1*b1 medVar2IDE := a2*b2 sumIDE := (a1*b1) + (a2*b2) # اثر کل کل := c + (a1*b1) + (a2*b2) medVar1 ~~ medVar2 # مدل همبستگی بین واسطهها توجه داشته باشید که a1,a2,b1, b2 و c برچسب هستند. سپس مدل را اجرا کنید: fit <- sem(model, data=dataframe) و به خروجی نگاه کنید: summary(fit, fit.measures=TRUE, standardize=TRUE, rsquare=TRUE) در نهایت فواصل اطمینان بوت استرپ را ایجاد کنید: boot.fit < - parameterEstimates(fit, boot.ci.type=bca.simple) برای جزئیات بیشتر به وب سایت lavaan مراجعه کنید: http://lavaan.ugent.be/ | تحلیل میانجیگری چندگانه در R |
90802 | من همیشه فکر میکردم که وقتی با رگرسیون لجستیک چندجملهای سروکار داریم، این ایده مدلسازی خطی توابع «لجستیکی» چگالی احتمال دستههای مختلف پاسخ بود (همانطور که در اینجا توضیح داده شد). من در اطراف لجستیک علامت نقل قول قرار دادم زیرا از توابع لجستیک واقعی، $\log\left(\frac{\pi_j(x)}{1-\pi_j(x)}\right)$ استفاده نمی کنیم، اما از مخرج استفاده نمی کنیم. برابر با چگالی یک دسته خاص محور است. سپس من پسوند یک مدل log-linear را کشف کردم، جایی که لگاریتم های توزیع احتمال، $\log(\pi_j(x))$، به طور مستقیم مدل می شوند، همانطور که در اینجا توضیح داده شد. در پایان روز، هنوز هم بسیار شبیه به فرض قبلی است. با این حال، زمانی که وجود این فرمول جایگزین را کشف کردم، مشکلی داشتم که در فرمول «ملوجیت» بسته «R» توضیح داده شده است (pdf). اساساً، هر $\log(\pi_j(x))$ با $\alpha_j+\bar{\beta}\cdot\bar{x}$ مدلسازی میشود، جایی که $\alpha_j$ یک وقفه است که مشخصه هر دسته پاسخ است. و بردار ضرایب خطی، $\bar{\beta}$، برای هر دسته یکسان است. سوال من شاید یک سوال واقعی نباشد، اما چرا این ابهام؟ | ابهام با مدل های لاجیت چند جمله ای |
9182 | من چندین متغیر (در اینجا: وزن، قطر افقی، قیمت و ساختگی) مربوط به عوامل مختلف دارم (اینجا: سیب، پرتقال، موز و آووکادو): وزن میوه HorDiam قیمت ساختگی سیب 60 60 5 4 سیب 50 70 8 6 نارنجی 80 75 7 2 نارنجی 72 70 9 8 موز 40 30 3 1 موز 45 35 4 2 موز 80 50 8 3 آووکادو 100 60 13 8 آووکادو 95 70 14 6 باید آزمایش کنم که آیا می توانم برخی از گونه ها را با هم گروه بندی کنم: آیا سیب و پرتقال تفاوت قابل توجهی دارند؟ ANOVA به من می گوید که آیا وزن (یا قطر افقی یا قیمت) به طور قابل توجهی در بین گونه ها متفاوت است. تست توکی به من نشان می دهد که آیا وزن یک گونه به طور قابل توجهی با وزن یک گونه دیگر متفاوت است (دو به دو). به نظر می رسد خوشه بندی فقط می تواند مشاهدات فردی را با هم گروه بندی کند، نه گونه ها را. من نمی توانم آزمون (یا الگوریتم) مناسب را پیدا کنم تا به من بگوید برای یک متغیر واحد (وزن) یا برای همه آنها (وزن، horDiam و قیمت)، سیب را می توان با پرتقال و/یا با موز گروه بندی کرد. هر پیشنهادی؟ من یک کد _R_ برای این مثال ایجاد کردم: ### CREATE TABLE Fruit<-c(سیب، سیب، پرتقال، پرتقال، موز، موز، موز، آووکادو آووکادو) وزن<-c(60،50،80،72،40،45،85،90،95) horDiam<-c(60,70,75,70,30,35,50,60,70) Price<-c(5,8,7,9,3,4,8,13,14) ساختگی<-c (4,6,2,8,1,2,3,8,6) myData<-data.frame(Fruit=Fruit, Weight=Weight, horDiam=horDiam، Price=Price، Dummy=Dummy) نام ردیف (myData)<-c(Apple1, Apple2، Orange1، Orange2، Banana1، Banana2، Banana3، Avocado1 Avocado2) ### ANOVA fit.aov<-list() summaryAOV<-list() برای (i در 1:3){ fit.aov[[i]]<-aov(myData[,i+1]~myData[,1]) summaryAOV[[i]]<-summary(fit.aov[[ i]]) } ### TUKEY par(mfrow=c(1,3)) testTukey<-list() mainTukey<-c(وزن، Horiz. قطر، قیمت) برای (i در 1:3){ testTukey[[i]]<-TukeyHSD(fit.aov[[i]]، conf.level = 0.95) نمودار(testTukey[[i]]، main=mainTukey[i]) } ### CLUSTERING plot( hclust(dist(myData), method=ward) ) ### خوشه بندی با P-VALUE تناسب <- pvclust(t(myData[,-1]), method.hclust=ward, method.dist=euclidean) plot(fit) pvrect(fit, alpha=0.95) | گروه بندی چند متغیره: خوشه بندی، آنوا، توکی |
45647 | من در حال انجام مطالعه ای در مورد رابطه بین دو مورد مثلا A و B هستم. داده ها شامل اطلاعات چاپ شده بر روی گزارش های سالانه مثلاً 2000 - 2010 (10 سال) است. برای هر آیتم، یعنی A و B، متغیرهای فرعی وجود دارد. مورد الف دارای 3 متغیر با 9 شاخص و مورد ب دارای 1 متغیر با 2 شاخص است. داده های مورد A به صورت کلمات هستند. من از تحلیل محتوا برای محاسبه تعداد دفعاتی که هر شاخص در هر گزارش برای هر سال ذکر شده است استفاده کردم. برای مورد B، داده ها بر حسب درصد هستند، بنابراین من 2 مقدار درصد متفاوت برای هر سال (10 سال) دارم. من می خواهم رابطه (مثبت، منفی یا خنثی) بین این موارد را با مورد A به عنوان متغیر مستقل و مورد B متغیر وابسته خود پیدا کنم. چگونه در این مورد اقدام کنم؟ به من گفته اند که از SPSS استفاده کنم، اما نمی دانم از چه روشی استفاده کنم. برای تعیین رابطه بین این دو مورد، چگونه باید تحلیل خود را انجام دهم؟ | چگونه داده ها را از گزارش های سالانه جمع آوری کنیم؟ |
63917 | آیا بسته R برای اجرای کمند آرام برای مدل خطرات متناسب کاکس وجود دارد؟ متشکرم. | بسته R (کنج آرام برای مدل خطرات متناسب کاکس) |
99533 | فرض کنید 1000 دارت پرتاب می کنید که هر دارت 0.5 احتمال گلزنی دارد. برای 500 دارت اول هر یک 1 امتیاز و برای 500 دارت دوم هر یک 3 امتیاز دارد. اگر 1500 امتیاز کسب کنید، به احتمال زیاد چند دارت 3 امتیازی کسب کرده اید؟ اگر از روش درستنمایی استفاده کنم، باید تابع زیر را به حداکثر برسانم: $$ \binom{500}{k} \binom{500}{1500-3k}$$ که $k$ از 334$ تا $500$ متغیر است. حداکثر در k $ = 398 $ اتفاق می افتد. با این حال، اگر سعی کنم انتظارات را پیدا کنم، ارزش متفاوتی دریافت می کنم. از این سوال می توانیم اولین دارت را به عنوان توزیع دو جمله ای با $B_1(500,0.5)$ و دارت دوم را به عنوان توزیع دو جمله ای $B_2$ با پارامترهای مشابه مدل کنیم. سپس باید $$ E [B_2 | را پیدا کنیم B_1 + 3B_2 = 1500]$$ که معلوم میشود 375$ است. سوال من این است که با توجه به اینکه مقادیر متفاوتی برای هر کدام به دست میآورم، کدام رویکرد را انتخاب کنم؟ | حداکثر احتمال یا غیره |
64031 | آیا کسی ایده ای دارد که چگونه می توان سری های زمانی را با توجه به ویژگی های خاص تشخیص داد؟ تنها ویژگیهای سری زمانی که من میشناسم، ایستایی/ناپایداری و هموسکداستیتیتی/هتروسکداستیتی هستند. اما آیا امکان دیگری برای تشخیص سری های زمانی وجود دارد؟ | خواص سری زمانی |
16908 | من برای تعریف نوع توزیع مورد استفاده در نرم افزار به کمک نیاز دارم تا بتوانم از کتابخانه توزیع استاندارد برای این منظور استفاده کنم. بابت عدم استفاده از اصطلاحات مناسب عذرخواهی می کنم. مقدار مرکز و یک پارامتر آلفا (0 تا 1) را می گیرد و N مقدار را در یک محدوده مشخص تولید می کند، به طوری که مقادیر در اطراف این مقدار مرکز خوشه بندی می شوند. هرچه آلفا کمتر باشد کمتر مرکز هستند. به عنوان مثال، اگر من محدوده 1-5 را با مرکز 4 تغذیه کنم، آلفا=0.5 و 20 مقدار بخواهم، نتیجه چیزی شبیه به این خواهد بود: 1:1 ضربدر 2:3 ضربدر 3:4 ضربدر 4:7 ضربدر 5 :5 بار شما ایده را دریافت می کنید. با تشکر P.S. در صورتی که ممکن است کمک کند، من چند عصاره از کد ارائه کردم کد تابع چگالی احتمال: تابع خصوصی ارزیابیProbabilityDensityFunction(){ $probabilityDensityFunction=array(); برای ($i = 0؛ $i < $this->valueRange->getNumberOfValues(); $i++) $probabilityDensityFunction[$i] = $this->probabilityFunction() * $this->probabilityCenteredCoefficient($i); بازگشت $probabilityDensityFunction; } تابع خصوصی probabilityFunction(){ return (1 - $this->settings->getAlpha()) / (1 - pow($this->settings->getAlpha()، $this->valueRange->getNumberOfValues() - $this->CentralValueSerialNumber() + 1) + $this->settings->getAlpha() - pow($this->settings->getAlpha()، $this->CentralValueSerialNumber())); } private double centerBasedCoefficient(int valueIndex) { return Math.pow(parameters.alpha, distanceFromCenter(valueIndex)+1); } تابع خصوصی distanceFromCentralValue($serialNumber){ return abs($this->CentralValueSerialNumber() - $serialNumber - 1); } و در اینجا کد تابع تجمعی تابع خصوصی ارزیابیCumulativeDistributionFunction(){ $cumulativeDistributionFunction = array(); $cumulativeDistributionFunction[0] = $this->probabilityFunction->getValue(0); برای ($i = 1؛ $i < $this->getValueRange()->getNumberOfValues(); $i++) $cumulativeDistributionFunction[$i] = $cumulativeDistributionFunction[$i - 1] + $this->probabilityFunction->getValue ($i)؛ بازگشت $cumulativeDistributionFunction. } و در اینجا نحوه دریافت مقادیر توزیع شده تابع عمومی getValue(){ return $this->multinomialDistribution()+$this->cumulativeFunction->getValueRange()->getFromValue(); } تابع خصوصی multinomialDistribution(){ $rnd= lcg_value(); // تصادفی (0,1) برای ($i=0; $i<$this->cumulativeFunction->getValueRange()->getNumberOfValues(); $i++) if ($this->cumulativeFunction->getValue($i ) > $rnd) بازگشت $i; avêtin جدید Exception (همیشه باید یک مقدار برگرداند); } | نام مناسب برای این نوع توزیع |
11746 | ضریب پیرسون بین دو متغیر بسیار زیاد است (r=.65). اما وقتی مقادیر متغیر را رتبه بندی می کنم و همبستگی Spearman را اجرا می کنم، مقدار ضریب بسیار کمتر است (r=.30). * تعبیر این چیست؟ | چه چیزی می تواند باعث ایجاد تفاوت های بزرگ در ضریب همبستگی بین همبستگی پیرسون و اسپیرمن برای یک مجموعه داده معین شود؟ |
80397 | من میخواهم کسی بتواند به من اشاره کند که ماشینهای بردار پشتیبان برای طول جغرافیایی استفاده میشوند. منطقی به نظر می رسد که پیچیدگی احتمالی در SVM برای مدل سازی متغیرهای وابسته به مکان عالی باشد. در این مورد، من سعی دارم افسردگی را وابسته به کد پستی ایالات متحده مدل کنم. ایده من این است که این کدهای پستی را به طول و عرض جغرافیایی تبدیل کنم و سپس از یک SVM استفاده کنیم. آیا قبلاً از این روش استفاده شده است، آیا کسی روش دیگری را توصیه می کند؟ | پشتیبانی از ماشین برداری برای داده های طول و عرض جغرافیایی |
49141 | پیشبینیهای من که از یک مدل رگرسیون لجستیک (glm در R) میآیند، همانطور که انتظار داشتم بین 0 و 1 محدود نمیشوند. درک من از رگرسیون لجستیک این است که پارامترهای ورودی و مدل شما به صورت خطی ترکیب می شوند و پاسخ با استفاده از تابع پیوند لاجیت به احتمال تبدیل می شود. از آنجایی که تابع logit بین 0 و 1 محدود شده است، انتظار داشتم پیشبینیهای من بین 0 و 1 محدود شود. اما این چیزی نیست که من هنگام اجرای رگرسیون لجستیک در R میبینم: data(iris) iris.sub <- subset(iris, گونه%in%c(versicolor،virginica)) مدل <- glm(Species ~ Sepal.Length + Sepal.Width، data = iris.sub، family = binomial(link = logit)) hist(predict(model))  اگر چیزی باشد خروجی predict(model) برای من عادی به نظر می رسد. آیا کسی می تواند به من توضیح دهد که چرا مقادیری که من دریافت می کنم احتمال نیستند؟ | درک پیش بینی های رگرسیون لجستیک |
90211 | من در حال تجزیه و تحلیل خطر برای رانندگان هستم، یعنی مرگ و میر راننده / مسافت طی شده. با گذشت زمان مسافت طی شده افزایش می یابد (افراد بیشتر رانندگی می کنند) در حالی که مرگ و میر راننده ceteris paribus کاهش می یابد (وسایل نقلیه ایمن تر هستند.) برای مقابله با این واریانس های ناپایدار، آیا باید ریسک را به صورت log (مرگ/فاصله) یا log (مرگ ها)/log (فاصله) تعریف کنم. | آیا باید ضریب 2 متغیر را وارد کنم یا از ضریب 2 متغیر ثبت شده استفاده کنم؟ |
63919 | من یک متغیر تصادفی با علامت $N$ دارم. سپس متغیرهای تصادفی با نشاندهنده $X_1$، $X_2$، ...، $X_N$ را دارم که بر اساس توزیع یکنواخت توزیع شدهاند. همچنین متغیرهای تصادفی با نشاندهنده $Y_1$، $Y_2$، ...، $Y_N$ بر اساس همین توزیع احتمال توزیع شدهاند. اگر متغیر $S_X$ را طوری در نظر بگیریم که $S_X=\sum_{i=1}^{N}X_i$ و $S_Y$ طوری که $S_Y=\sum_{i=1}^{N}Y_i$. آیا $S_X$ و $S_Y$ متقابل مستقل هستند؟ اگر این مشکل را به هر عدد $A$ از مجموع بسط دهیم، به عنوان مثال $S_X$، $S_Y$ و $S_Z$ زمانی که $A=3$ است. آیا این متغیرهای $A$ مستقل از یکدیگر هستند؟ خیلی ممنون. | آیا این متغیرها مستقل از یکدیگر هستند؟ |
48237 | من با پارامتر مقیاس مورد استفاده در مدل های لاجیت و پروبیت مواجه شدم. کسی میدونه چیه و چه کاربردی داره؟ اگر از آن استفاده نکنم چه مشکلی پیش می آید؟ | پارامتر مقیاس |
6920 | من در حال تجزیه و تحلیل برخی از دادهها هستم که میخواهم رگرسیون خطی معمولی را انجام دهم، اما این امکان پذیر نیست زیرا من با یک تنظیم آنلاین با جریان پیوسته دادههای ورودی (که به سرعت برای حافظه بیش از حد بزرگ میشود) سروکار دارم و نیاز دارم. برای به روز رسانی تخمین پارامترها در حالی که این در حال مصرف است. یعنی نمیتوانم همه آن را در حافظه بارگذاری کنم و رگرسیون خطی را روی کل مجموعه داده انجام دهم. من یک مدل رگرسیون چند متغیره خطی ساده را فرض میکنم، یعنی y = Ax + b + e بهترین الگوریتم برای ایجاد تخمین بهروزرسانی مداوم پارامترهای رگرسیون خطی A و b چیست؟ در حالت ایدهآل: * من الگوریتمی را میخواهم که بیشترین پیچیدگی فضا و زمان O(N*M) را در هر بهروزرسانی داشته باشد، که در آن N ابعاد متغیر مستقل (x) و M ابعاد متغیر وابسته (y) است. * من می خواهم بتوانم برخی از پارامترها را برای تعیین میزان به روز رسانی پارامترها توسط هر نمونه جدید مشخص کنم، به عنوان مثال. 0.000001 به این معنی است که نمونه بعدی یک میلیونیم برآورد پارامتر را ارائه می دهد. این امر نوعی فروپاشی نمایی برای اثر نمونه ها در گذشته های دور ایجاد می کند. | رگرسیون خطی آنلاین کارآمد |
99535 | من مشکلی دارم که مدتهاست من را درگیر خود کرده است. این شامل مدل های خطی و توابع spline است. من باید «زمان پس از تشخیص» را مدل کنم، زمانی که برخی از افراد هرگز تشخیصی نداشتند. من از مدل پواسون استفاده می کنم که در آن زمان را بر اساس سن و زمان از زمان تشخیص تقسیم کرده ام. مجموعه دادهها ممکن است به این شکل باشد (با میلیونها میلیون ردیف و 95٪ بدون تشخیص) : تشخیص سن موضوع TIME_SINCE_DIAGNOSIS EVENT/OUTCOME 1 30 A 0 0 1 31 A 1 0 1 32 A 451 0 2 46 B 1 0 103 22 غیر 0 یا - 0 103 23 غیر 0 یا - 0 . . . متوجه شدید.. حالا من می خواهم مدلی داشته باشم که چیزی شبیه به این باشد: log ( OUTCOME ) = Spline ( AGE ) + DIAGNOSIS * Spline ( TIME_SINCE_DIAGNOSIS ) + offset (logrisktime ) و سپس ترسیم خطر پیش بینی شده برای تشخیص های مختلف از A و B به عنوان تابعی از زمان پس از تشخیص با توجه به اینکه تشخیص در سن = 30 بود، و در همان نمودار برای تشخیص = NON اما در عوض به عنوان تابعی از سن (با سال از 30 در محور x). من دوست دارم هم کسانی که دارای تشخیص هستند و هم آنهایی که دارای تشخیص = NON هستند در یک مدل باشند تا بتوانیم کنتراست/ترکیب خطی از اثرات را انجام دهیم. مدل و نمودار انجام شده است، اما مشکل من این است که مدل بالا همچنین برای کسانی که هیچ تشخیصی ندارند، یک spline در طول زمان از زمان تشخیص ایجاد می کند (یعنی DIAGNOSIS = NON). بنابراین، من میخواهم مدلی از این نوع داشته باشم که متغیرهای شاخص را برای تشخیصهای مختلف ایجاد کردم: R: factor(A) factor(B) fator(NON) SAS: class A B NON; log ( OUTCOME ) = Spline ( AGE ) + NON + A* Spline ( TIME_SINCE_DIAGNOSIS ) + B* Spline ( TIME_SINCE_DIAGNOSIS ) + offset ( logrisktime ) با من هستید؟ بنابراین میخواهم برای هر سطح از متغیر «تشخیص» (که با تشخیص*اسپلاین(time_since_diagnosis) یک اسپلاین منحصربفرد از متغیر «زمان از تشخیص» ایجاد کنم، اما به استثنای یک سطح (کسانی که هیچ تشخیص) هیچ اسپلاین اختصاص داده نشده است. ایده؟ ممنون، پیتر | اسپلاین منحصربهفرد برای گروههای مختلف در یک مدل خطی (و اصلاً اسپلاین برای یک گروه وجود ندارد) |
20892 | من جدولی از جزئیات مشتری با اطلاعات جمعیت شناختی و کل زمان مشتری دارم که نشان می دهد مشتری چه مدت مشتری بوده است. من باید بتوانم این جدول را به صورت موقت پرس و جو کنم، به عنوان مثال ممکن است بپرسم متوسط کل زمان مشتری برای همه مشتریان در فلوریدا و با درآمد کمتر از 100 هزار نفر چقدر است. اطلاعات دموگرافیک ترکیبی از متغیرهای اسمی، ترتیبی و نسبتی و مقادیر تهی زیادی است، بنابراین یک رگرسیون لجستیک خطی مناسب نیست. من در آزمایش اهمیت آماری زیرمجموعه های این نوع تحلیل مشکل دارم. من معمولاً به این شکل کاوش می کنم: میانگین کل زمان مشتری برای همه مشتریان چقدر است؟ 13452 مشتری، 1.7 ماه و سپس پیگیری کنید: میانگین کل زمان مشتری برای همه مشتریان در فلوریدا چقدر است؟ 3124 مشتری، 2.5 ماه پس از آن شاید: میانگین کل زمان مشتری برای همه مشتریان در فلوریدا با درآمد کمتر از 100 هزار چقدر است؟ 2534 مشتری، 2.8 ماه من می دانم که چگونه می توانم یک جدول احتمالی باینری تنظیم کنم و زمانی که متغیر وابسته باینری است از آزمون کای دو استفاده کنم، اما در اینجا متغیر وابسته میانگین مقادیر نسبت سطح در زیر مجموعه است، بنابراین من گیر کرده همکارم پیشنهاد داد سوپرست را بگیرید، ببینید چند نمونه در زیرمجموعه خواهد بود و سپس آن تعداد نمونه را از سوپرست بردارید و میانگین را محاسبه کنید، اما این کار را 10000 بار انجام دهید. سپس می توانم از آزمون های معنی داری معمولی با استفاده از توزیع نرمال استفاده کنم. اما این به نظر من کمی... بیظرافت است، نه اینکه بگوییم کند، و حتی مطمئن نیستم که این رویکرد معتبر باشد. ویرایش: برای روشن شدن، چگونه می توانم آزمایش کنم که آیا تغییر در میانگین متغیر وابسته (کل زمان مشتری) در هر زیر مجموعه در هر مورد از میانگین در سوپرمجموعه، با توجه به تغییر، از نظر آماری معنادار است (در برخی سطح اطمینان). در حجم نمونه؟ هر فکری بسیار قدردانی خواهد شد. | معنیداری آماری زیرمجموعهها با استفاده از متغیر وابسته غیر باینری |
96373 | من با مدل های پروبیت کاملاً جدید هستم و اخیراً سؤالاتی در مورد یکی از مدل ها پرسیدم. می خواستم ببینم یکی از شما می تواند در تفسیر آن نتایج کمک کند. FYI همه متغیرهای وابسته ثبت شده اند و ناهمگونی با استفاده از خطاهای استاندارد قوی مراقبت شده است. سپس از دستور margins, dydx(*) برای داشتن اثر حاشیه ای استفاده کردم. هدف اصلی من دیدن احتمال داشتن و مؤسسه است.  از وقتی که گذاشتید متشکریم! | تفسیر اثر حاشیه ای مدل پروبیت |
90115 | من N الگوریتم طبقهبندیکننده باینری دارم که روی یک مجموعه قطار واحد آموزش داده شده و روی مجموعه آزمایشی آزمایش شده است. 1) کدام آزمون آماری برای محاسبه اختلاف آماری آنها مناسب است؟ 2) استفاده از آزمون مک نمار با روش زوجی گزینه معتبری است؟ * من ANOVA را میشناسم که روی مجموعههای قطار/آزمون K کار میکند، در حالی که من یک مجموعه قطار/آزمایش دارم. | آزمون معناداری آماری بر روی الگوریتم های چندگانه و مجموعه داده های منفرد |
45643 | در حال مطالعه کتاب های رگرسیون خطی هستم. جملاتی در مورد هنجار L1 و L2 وجود دارد. من آنها را می شناسم، فقط نمی فهمم چرا استاندارد L1 برای مدل های پراکنده. آیا کسی می تواند توضیح ساده ای بدهد؟ با تشکر | چرا هنجار L1 برای مدل های پراکنده |
97465 | من در حال مقایسه دو جمعیت مختلف (با اندازه های مختلف) از مدل ها هستم، برای هر فرد یک امتیاز دارم. من مایلم نه تنها تفاوت این دو میانگین بلکه حداکثر مقدار را با هم مقایسه کنم. من در گذشته یاد گرفتهام که هنگام مقایسه میانگینها بین گروهها، آزمون معناداری را انجام دهم، اما این اولین بار است که سعی میکنم همین کار را با یک مقدار شدید (در این مورد حداکثر) انجام دهم. به طور خلاصه، سوال من این است: راه درست برای دانستن اینکه آیا تفاوت $max(P_1) - max(P_2)$ قابل توجه است چیست؟ | اهمیت تفاوت بین دو حد (حداکثر/حداقل) |
12219 | به نظر می رسد مدل رگرسیون لجستیک من موفقیت ها را به خوبی شناسایی می کند (حدود 85٪ - 94٪)، اما در شناسایی شکست ها ناکام است (فقط شناسایی 18٪ - 32٪ به درستی). من فکر کرده ام که موفقیت و شکست را متفاوت وزن کنم، اما مطمئن نیستم که چگونه این کار را انجام دهم. من سعی کردم: Fr <- ifelse (y==0, 2, 1) model <- glm(y~factor( x1) + ضریب (x2)، وزن = Fr، خانواده = دو جمله ای، داده = داده) اما از این طریق هیچ بهبودی حاصل نشد. | بهترین راه برای کاهش درصد منفی کاذب در مدل چیست؟ |
27724 | من در واقع در حال بررسی یک نسخه خطی هستم که در آن نویسندگان 5-6 مدل رگرسیون لاجیت را با AIC مقایسه می کنند. با این حال، برخی از مدلها دارای شرایط تعاملی هستند بدون اینکه عبارتهای متغیر کمکی را در بر بگیرند. آیا هرگز انجام این کار منطقی است؟ برای مثال (مخصوص مدل های لاجیت نیست): M1: Y = X1 + X2 + X1*X2 M2: Y = X1 + X2 M3: Y = X1 + X1*X2 (فقدان X2) M4: Y = X2 + X1*X2 (فقدان X1) M5: Y = X1*X2 (فقدان X1 و X2) من همیشه این تصور را داشتم که اگر اصطلاح تعامل را دارید X1*X2 شما همچنین به X1 + X2 نیاز دارید. بنابراین، مدل های 1 و 2 خوب هستند، اما مدل های 3-5 مشکل ساز خواهند بود (حتی اگر AIC پایین تر باشد). آیا این درست است؟ آیا این یک قانون است یا بیشتر یک دستورالعمل؟ آیا کسی مرجع خوبی دارد که دلیل این امر را توضیح دهد؟ فقط میخواهم مطمئن شوم که هیچ چیز مهمی را در بررسی اشتباه منتقل نمیکنم. ممنون برای هر فکری، دن | آیا همه اصطلاحات تعاملات در مدل رگرسیونی به اصطلاحات جداگانه خود نیاز دارند؟ |
19591 | ما اغلب در تحقیقات بازار با تداعیهای ویژگی برند (بله/خیر) مواجه میشویم، و اغلب نیاز به انجام تحلیل عاملی داریم (ما از PCA تحت Factor در SPSS استفاده میکنیم) تا دادهها را به چیزی مفید و قابل تفسیر کاهش دهیم. بهترین روش کاهش داده زمانی که داده های باینری دارید چیست؟ متغیرهای جایگزین با انتخاب یک متغیر منفرد برای نشان دادن یک نتیجه پیچیدهتر، خطر نتایج گمراهکننده بالقوه را دارند. به نظر نمی رسد که امتیازات فاکتورها ایده آل باشند زیرا داده ها باینری هستند. و اگر از مقیاس های جمع شده استفاده می کنیم، آیا باید از کل یا میانگین یا شاید معیار دیگری برای گرایش مرکزی استفاده کنیم؟ | تحلیل عاملی بر روی داده های باینری و مقیاس های جمع شده |
19594 | من یک مدل رگرسیون خطی چندگانه دارم و باید اهمیت شیب ها را آزمایش کنم. استاد من می گوید که دو راه برای انجام آن وجود دارد - پس از کدام باید استفاده کنم؟ سوالات در آزمون دارای خطای استاندارد رگرسیون ها به همراه مقدار تخمینی رگرسیون ها نیز خواهد بود. | چگونه می توانم تصمیم بگیرم که آیا از آزمون والد یا F در آزمایش اهمیت ضریب شیب استفاده کنم؟ |
90116 | من سعی می کنم پارامترهای انتقال داده های یک مدل پنهان مارکوف را با استفاده از MATLAB کشف کنم. با استفاده از تابع hmmtrain داخلی، میتوانم پارامترها را به خوبی تخمین بزنم (من از قبل میدانم که قرار است در حال حاضر چگونه باشند) اما همیشه کمی خاموش هستند. بنابراین کاری که من می خواهم انجام دهم این است که یک فاصله اطمینان برای این پارامترها ایجاد کنم. اکنون، من کمی در وب برای این مورد جستجو کرده ام و به نظر می رسد که انجام این کار آسان نیست. به نظر می رسد «ساده ترین» راه حل بوت استرپ است، اما من شخصاً نمی دانم چگونه می توانم چنین چیزی را در MATLAB برای مدلی به پیچیدگی HMM پیاده سازی کنم. آیا کسی مرجعی دارد که بتوانم به آن نگاه کنم که بتواند به من کمک کند تا یک اسکریپت برای این کار بنویسم، یا کسی بسته ای را در آنجا می شناسد که قبلاً این را ساخته است؟ مشکل اصلی من این است که نمی دانم چگونه یک روش بوت استرپ می تواند مشکل HMM را حل کند. آیا کل ایده HMM این نیست که دنباله خاصی به دست می آورید که از آن در مورد پارامترها یاد می گیرید؟ آیا قطع کردن آن به منظور بوت استرپ به طور خودکار خطاهایی ایجاد نمی کند؟ | فاصله اطمینان برای مدل مارکوف پنهان (متلب ترجیح داده می شود) |
19593 | فرض کنید ما علاقه مند به تقریب انتظار زیر هستیم: $$\mathbb{E}[h(x)] = \int h(x)\pi(x) dx$$ که در آن $h(x)$ یک تابع دلخواه است و $\pi(x)$ توزیعی است که فقط تا یک ثابت نرمال کننده شناخته می شود. ما میتوانیم این انتظار را با استفاده از نمونهبردار Metropolis-Hastings برای ترسیم نمونههای $\\{x_t\\}_{t=1}^N$ از یک زنجیره مارکوف با توزیع ثابت $\pi(x)$ تقریبی کنیم، ابتدا تابع وزن MH: $$w(x,x') = \frac{\pi(x')T(x',x)}{\pi(x)T(x,x')}$$ * نمونه $x_0$ از پیشنهاد دلخواه * برای $t = 1...N$ * پیشنهاد $x'$ با نمونهبرداری از $T(x_t,\cdot)$ * اگر $w(x_t,x') > r$ (where $r \sim \mathcal{U}(0,1)$) سپس $x_{t+1} = x'$ other $x_{t+1} = x_t$ * $S \ چپ چپ S + h(x_{t+1})$ با دادن تقریب نهایی: $$\mathbb{E}[h(x)] \approx \frac{S}{N}$$ سؤال این است که آیا میتوانیم همین کار را انجام دهیم ترفند (نمونه برداری از زنجیره مارکوف با توزیع ثابت $\pi$) با استفاده از مونت کارلو متوالی (فیلتر ذرات) و استفاده از وزن به جای یک قانون ساده قبول/رد. مقایسه، در تئوری، مشابه نمونهگیری رد معمولی در مقابل نمونهگیری اهمیت است. برای انجام این کار، روش زیر را در نظر بگیرید: ابتدا مجموعه ای از N ذره را نمونه برداری کنید: $\\{x_0^{(i)}\\}_{i=1}^N$ از پیشنهاد دلخواه، سپس حلقه L زیر را اجرا کنید. بار: * برای هر $x_t^{(i)}$ $x_{t+1}^{(i)}$ را با نمونه برداری از وزن $T(x_t^{(i)}،\cdot)$ * پیشنهاد کنید هر $x^{(i)}$ توسط $w(x_t^{(i)},x_{t+1}^{(i)})$ * $S \lefttarrow S + \sum_{i=1} ^N w(x_t^{(i)},x_{t+1}^{(i)})h(x_{t+1}^{(i)})$ * نمونه مجدد N ذره جدید $x_{t+1}^{(i)}$ متناسب با وزنها با دادن تقریب نهایی: $$\mathbb{E}[h(x)] \approx \frac{S}{N L}$$ این روش از چند جهت متفاوت از روشهای نمونهگیری اهمیت متوالی معمولی یا نمونهبرداری اهمیت تطبیقی است. اول از همه، توزیع پیشنهاد ($T(\cdot,\cdot)$) با رسیدن نمونههای جدید تغییر نمیکند، همچنین پیشنهادی نیست که سعی کند نزدیک به توزیع بهینه IS $\frac{ باشد. |h(x)|\pi(x)}{Z}$. در عوض، پیشنهاد بهتر به عنوان یک هسته انتقال مارکوف دیده می شود و باید با تابع وزن دهی مناسب ترکیب شود تا اطمینان حاصل شود که انتقال ها با زنجیره مارکوف مورد نظر مطابقت دارند. در واقع، این روش بسیار شبیه (اما نه یکسان) به اجرای زنجیرههای مارکوف مستقل $N$ است. سوال به چند موضوع برمی گردد. اول، آیا این روش حتی در اهداف بیان شده آن نیز صحیح است، یعنی: اگر ذرات $\\{x_t^{(i)}\\}_{i=1}^N$ بر اساس $\pi(\cdot توزیع شوند )$، پس از یک حلقه از رویه فوق، $\\{x_{t+1}^{(i)}\\}_{i=1}^N$ مطابق با $\pi(\cdot)$؟ همچنین، اگر این درست باشد، آیا این رویکرد مزیتی نسبت به نمونهگر اصلی متروپلیس-هیستینگ که ابتدا ارائه شد، دارد؟ آیا کسی میتواند به مقالهای اشاره کند که به طور خاص به این ایده مربوط میشود: SMC نمونهبرداری از زنجیرههای ثابت مارکوف؟ من فرض می کنم این از نظر فنی یک روش MCMC است، بنابراین، آیا چیزی به عنوان MCMC وزن دار یا کلان شهر وزن دار وجود دارد؟ یا این شبیه به ایده بازیافت زباله برای روش های MCMC است (من زیاد با آن آشنا نیستم)؟ * * * ویرایشهای بعدی: با تفکر بیشتر، به نظر میرسد که نمونههای متوالی بر اساس $\pi(\cdot)$ توزیع نشدهاند، زیرا تابع وزندهی شرط تعادل دقیق را برآورده نمیکند، مگر اینکه $\pi(x)$ باشد. یکنواخت این را می توان با در نظر گرفتن تابع انتقال متقارن $T(x,x')$ $$ \begin{eqnarray*} \pi(x)w(x,x') = \pi(x')w(x'x) مشاهده کرد ) \\\ \pi(x)\frac{\pi(x')}{\pi(x)} = \pi(x')\frac{\pi(x)}{\pi(x')} \\\ \pi(x') = \pi(x) \end{eqnarray*} $$ این جزئیات را می توان با استفاده از تابع وزن دهی دقیق $\min(1,w(x,x'))$ و اطمینان از اینکه هر از حالت های قبلی در مجموعه وزنی با وزن برابر با $1-w(x,x')$ گنجانده شده است. اگر این کار انجام شود، روش بسیار شبیه به اجرای موازی زنجیرههای مارکوف $N$ است. این زنجیره ها به هر حال مستقل نخواهند بود، زیرا برخی از فعل و انفعالات پیچیده بین زنجیره ها وجود دارد (به دلیل مرحله نمونه گیری مجدد ترکیبی). من نمی توانم ببینم که اگر چنین باشد، چه تأثیری خواهد داشت. با این حال، ممکن است انجام این کار هنوز هم شایستگی داشته باشد زیرا نمونه های وزنی هنوز می توانند در محاسبه انتظار نهایی استفاده شوند. یعنی به نظر میرسد این روش هنوز هم ممکن است به هدف یک نمونهبردار MCMC بدون رد دست یابد. * * * ویرایش های بیشتر: باید تمایز دیگری را روشن کنم. به نظر می رسد روش نمونه گیری با اهمیت تعمیم یافته که در 14.2 از _روش های آماری مونت کارلو_ پوشش داده شده است، بسیار نزدیک به روش SMC است که من نوشتم. با این حال، آنها در واقع کاملا متفاوت هستند. اول از همه در این روش، مانند MH، پشتیبانی برای توزیع پیشنهاد $T(x,x')$ نیازی به پشتیبانی از پیشنهاد هدف $\pi(x)$ ندارد (طبق مورد نیاز Lemma 14.1)، در عوض، الزامات پشتیبانی خارج از ارگودیسیته زنجیره مارکوف شبیهسازی شده است. این باعث میشود که $T(x,x')$ به طور قابل توجهی با ترکیب تابع هسته $K(x,x')$ و پیشنهاد $g(x)$ موجود در GIS متفاوت باشد. با این حال، روش مونت کارلو جمعیت، s | مونت کارلو متوالی (فیلتر ذرات) با وزن دهی متروپلیس-هیستینگ |
48233 | من از Matlab استفاده می کنم، من یک ماتریس 600 دلار \ برابر 9 دلار دارم که هر ردیف نشان دهنده 9 ویژگی است که سعی می کنم با استفاده از رگرسیون لجستیک ارزیابی کنم. 1. میدانم که باید مقیاسبندی ویژگی را انجام دهم، اما آیا باید آن را هم در مجموعه آموزشی و هم در مجموعه تست انجام دهم؟ 2. من 9 تا ویژگی دارم، تا چه درجه باید منظم سازی انجام بدم... تا چه درجه بالاتر برای 9 ویژگی باید در نظر بگیرم؟ 3. چگونه بررسی کنم که کدام ویژگی ها بیشتر یا کمتر نقش دارند؟ 4. چگونه مجموعه تمرین و تست خود را تقسیم کنم که کدام نسبت ایده آل ترین است؟ | انتخاب متغیر و رگرسیون لجستیک |
80395 | من می خواهم بدانم دانش ریشه شناختی (تاریخ کلمات) چقدر سریع منسوخ می شود. فکر کردم بتوانم چندین نسخه از یک فرهنگ لغت را که در مدت زمان طولانی منتشر شده است مقایسه کنم. مشکل من این است که حجم این دیکشنری در این مدت از چهار به دوازده هزار کلمه افزایش یافته است و نمی دانم در این شرایط چگونه حجم نمونه را انتخاب کنم. | حجم نمونه برای چند جمعیت مختلف |
20890 | ببخشید که سوال احمقانه ای می پرسم، اما در استفاده از بسته بندی شده مشکل دارم. رگرسیون خطی من بسیار ساده است، بین پیشنهاد و تقاضا: > linearModel <\- lm(demand~offer) و مدل من نیز باید با استفاده از segmented باشد: > piecewiseModel <\- segmented(lm(demand~offer), seg. Z = ~ پیشنهاد، psi = NA) اما من یک پیام خطا دارم و واقعاً نمی توانم دلیلی برای آن پیدا کنم: خطا در seg.lm.fit(y, XREG، Z، PSI، وزنها، offs، opz) : (برخی) psi تخمین زده شده خارج از محدوده آن در اینجا دادههای من است: پیشنهاد تقاضا 1155 39.3 362 23.5 357 22.4 111 6.1 703 35.9 494 35.5 427.6 35.5 427 468 28.6 973 41.3 235 16.9 180 18.2 69 9 305 28.6 106 12.7 155 11.8 422 27.9 44 21.6 1008 23214 45114. 40.7 531 22.4 143 17.4 251 14.3 216 14.6 57 6.6 146 10.6 226 14.3 169 3.4 32 5.1 75 4.1 104 14.6 4.7 4.1 104 462 22.6 295 8.6 196 7.7 50 7.8 739 34.7 287 15.6 226 18.5 706 35 127 16.5 85 11.3 234 7.7 234 7.7 1874 1874 1534. 9.2 81 11.8 18 3.9 | چگونه می توان از بسته قطعه بندی شده برای برازش رگرسیون خطی تکه ای با یک نقطه شکست استفاده کرد؟ |
72520 | اگر هزاران پیشبینیکننده با خوشههایی داشته باشم که بسیار همبسته هستند، چه رویکرد انتخاب متغیری را باید در نظر بگیرم؟ به عنوان مثال ممکن است من یک مجموعه پیش بینی $X:= \\{A_1,A_2,A_3,A_4,...,A_{39},B_1,B_2,...,B_{44},C_1,C_2, داشته باشم. ..\\}$ با کاردینالیتی $|X| > 2000 دلار موردی را در نظر بگیرید که در آن همه $\rho(A_i,A_j)$ بسیار زیاد هستند، و به طور مشابه برای $B$, $C$, .... پیش بینی کننده های همبسته به طور طبیعی همبستگی ندارند. این نتیجه فرآیند مهندسی ویژگی است. این به این دلیل است که همه $A_i$ از همان داده های اساسی با تغییرات کوچک در روش مهندسی دست، به عنوان مثال، مهندسی شده اند. من از یک باند عبور نازکتر در $A_2$ نسبت به $A_1$ در رویکرد حذف نویز استفاده میکنم، اما بقیه موارد یکسان است. هدف من بهبود دقت نمونه در مدل طبقه بندی من است. یک روش فقط این است که همه چیز را امتحان کنید: گاروت غیر منفی، برآمدگی، کمند، شبکه های الاستیک، یادگیری زیرفضای تصادفی، یادگیری PCA/منیفولد، کمترین رگرسیون زاویه و انتخاب یکی از بهترین ها در مجموعه داده های نمونه من. اما روش های خاصی که در مقابله با موارد فوق خوب هستند، قدردانی می شوند. توجه داشته باشید که داده های خارج از نمونه من از نظر حجم نمونه گسترده است. | انتخاب متغیر با گروه هایی از پیش بینی کننده ها که همبستگی بالایی دارند |
97461 | من سعی می کنم عملکرد یک فرم کوتاه و بلند یک پرسشنامه را با هم مقایسه کنم. فرم بلند دارای 25 مورد و فرم کوتاه دارای 8 مورد از 25 مورد است. آیا می توان از تست DeLong برای مقایسه منحنی های ROC استفاده کرد؟ اگر نه کدام آزمون برای این تحلیل مناسب تر است؟ | تست DeLong برای مقایسه منحنی های ROC |
11745 | هنگام مشخص کردن یک معیار اطلاعاتی، فرد مایل است که ویژگی «گروهبندی» زیر را داشته باشد (ر.ک.، Cover&Thomas، فصل 2 تمرین 46) $$H(p_1, p_2,\dots, p_n)=H(p_1+p_2, p_3,\ نقطه ها، p_n)+(p_1+p_2)H(\frac{p_1}{p_1+p_2},\frac{p_2}{p_1+p_2})$$ (با نام مستعار بازگشتی). یک اصل موضوعی مشابه گروه بندی برای آنتروپی Reny در Jizba، Arimitzu استفاده شده است. آیا کسی می تواند معنای شهودی آن را بیان کند و چرا مطلوب است؟ همچنین در توصیف بدیهی به استنباط بر اساس معیارهای آنتروپی، فرد دارای مجموعهای از ویژگیها (یا بدیهیات) است (شور و جانسون). آیا ویژگی Grouping فوق با هر یک از بدیهیات **استنتاج** مبتنی بر آنتروپی ارتباطی دارد؟ به طور کلی، آیا ارتباطی بین بدیهیات در توصیف بدیهی معیارهای آنتروپی (اطلاعات) و بدیهیات در توصیف بدیهی استنتاج بر اساس معیارهای آنتروپی وجود دارد؟ من می دانم که برخی از اتصالات می گویند که خاصیت تقارن آنتروپی مربوط به خاصیت عدم تغییر استنتاج است، افزایش آنتروپی مربوط به استقلال سیستم از استنتاج و غیره است. | خاصیت آنتروپی |
90117 | پایان نامه افتخارات من به زودی انجام می شود و هنوز به عنوان عالی فکر نکرده ام. من چیزی میخواهم که هوشمندانه باشد (شاید با استفاده از یک یا دو جناس)، اما همچنین بینشی در مورد کاری که انجام میدهم بدهد. ترجیحاً در قالب «پایاننامه: پایاننامه درخشان» همه دوقطه را دوست دارند. پس پایان نامه من در مورد چیست؟ این یک پایان نامه آماری است که به بررسی روابط بین تعدادی از متغیرهای اقتصادی و قیمت طلا می پردازد. آنچه من دریافتم این است که 12 سال گذشته تمام روابط بین طلا و سایر عوامل را از بین برده است. همچنین شایان ذکر است که طلا در ده سال اخیر رونق داشته است. داشتم به چیزی در این زمینه فکر می کردم: The Gold Rush: مدل سازی قیمت طلا، اما عالی نیست. | به من کمک کنید عنوانی شوخ طبع برای مقاله خود بیاورم |
78468 | من با برخی از داده ها سروکار دارم که ترسیم شده به این صورت است:  می خواهم سطحی از اهمیت را به ادعای خود اضافه کنم که مقادیر از دو دوره زمانی در نیمه دوم آزمایش متفاوت است (داده ها در فرکانس 60 هرتز نمونه برداری می شوند، خطاهای استاندارد میانگین سایه می اندازند). من دو روش را امتحان کردم: * مقایسه در هر بازه به معنای بیش از این بازه - دریافت $p = 2.8 \times 10^{-1}$ * مقایسه همه مقادیر در بازه - دریافت $p = 5.6 \times 10^{-53 }$ اکنون، اولین رویکرد به من می گوید که ادعای من تقریباً به طور قابل توجهی توسط داده های من پشتیبانی نمی شود. مورد دوم به من می گوید که چنین است - اما مقدار p که من دریافت می کنم به طرز مضحکی پایین است، اگرچه رویکرد معقول به نظر می رسد و من آن را متورم نمی نامم. ممکن است لطفاً به من بگویید که چه چیزی بهتر است یا چگونه به من توصیه می کنید که این کار را انجام دهم؟ من سعی کردهام یک مدل ترکیبی را برای این کار تطبیق دهم، اما دوره زمانی غیرخطی این کار را کمی دشوار میکند و مطمئناً آزمایش چند مدل با چندین مؤلفه غیرخطی مدتی طول میکشد. من قصد دارم این کار را در نهایت انجام دهم، اما در حال حاضر به دنبال رویکردی تا حدودی سریعتر (حتی اگر دقیق تر) هستم. | اهمیت تفاوت دوره زمانی در فاصله زمانی |
64038 | استدلال اساسی که رگرسیون ریج و کمند بر آن استوار است چیست؟ من از طریق ویکی قاعدهسازی Tikhonov رفتم که در آن ذکر شد > در بسیاری از موارد، ماتریس tikhonov به عنوان ماتریس هویت انتخاب میشود و به راهحلهایی با هنجارهای کوچکتر اولویت میدهد. در موارد دیگر، عملگرهای پایین گذر (مثلاً یک عملگر تفاوت یا یک عملگر فوریه وزنی) ممکن است برای اعمال همواری در صورتی که بردار زیربنایی عمدتاً پیوسته باشد، استفاده شود. میخواهم بفهمم که چرا راهحلهایی با معیارهای کوچکتر جذابتر هستند؟ نرمی می توانم بدست بیاورم اما چرا هنجارهای کوچکتر؟ | چرا منظم کردن بزرگی ضریب تعمیم رگرسیون خطی را بهبود می بخشد؟ |
99537 | من در حال آماده کردن ارائه ای در مورد مدل های تجزیه و تحلیل بقا، با تمرکز خاص بر روی مدل کاکس هستم. من مدتی است که از چنین مدلی (شامل تعمیم ریسک های رقیب آن) استفاده می کنم، اما هنوز نمی توانم راه آسانی برای فکر کردن به عبارت خطای مدل، $\varepsilon$ پیدا کنم. فرض کنید من در مورد تجزیه و تحلیل بقای دو متغیره ساده هستم (با $x_1$ و $x_2$). فرم عملکردی مدل کاکس برای نرخ خطر این است: $$ h(t| x_1, x_2) = h_0(t) \exp(x_1 \beta_1 + x_2 \beta_2). $$ سوال من این است: اگر بخواهید برای دانشجویان فارغ التحصیل با درک نسبتاً خوبی از اقتصاد سنجی/آمار توضیح دهید که چگونه عبارت خطا در فرم عملکردی وارد می شود، چگونه انجام می دهید؟ من همیشه در خطر اولیه $h_0(t)$ فکر میکردم که مؤلفه خطای مدل را حاوی میکند، اما با فرض اینکه این درست باشد، چگونه میتوان این را رسمی کرد؟ میشه لطفا یک کتاب درسی خوب به عنوان مرجع معرفی کنید؟ (از دیدگاه آمار زیستی یا از دیدگاه اقتصاد سنجی). خیلی ممنون | تفسیر عبارت خطا در مدل PH کاکس |
95190 | من در حال انجام **متاآنالیز** از تعداد زیادی مطالعه هستم. در هر مطالعه **وزن دو گروه** (ماهیان با و بدون انگل داخلی) مقایسه شده است. من علاقه مند هستم که **وزن بتواند وجود/عدم وجود انگل را توضیح دهد**. از طرح جنگلی به نظر می رسد واضح است که در هر قاره (و برای کل جهان) ** ترجیح واضحی نسبت به ماهی های بزرگتر وجود دارد. من مطالعاتی از سرتاسر دنیا دارم، یعنی **اصطلاح ماهی بزرگتر نسبی است**. ماهی بزرگتر در آفریقا در مقایسه با کوچکترین ماهی در استرالیا می تواند بسیار کوچک باشد. **به همین دلیل من از مدل اثر تصادفی استفاده کرده ام**. با توجه به برخی کتاب های درسی باید انتخاب خوبی باشد. **آیا مدل اثر تصادفی برای شرایط من مناسب است؟** لطفاً می توانید در **تفسیر خروجی مدل** به من کمک کنید؟ برخی چیزها را درک نمی کنم: P-value از نتایج مدل بسیار مهم است. بنابراین به احتمال زیاد این وزن ارتباطی با آلودگی انگل دارد. با این حال، آزمون ناهمگنی نیز قابل توجه است. آیا این بدان معناست که **مدل من فرض توزیع نرمال باقیمانده ها را برآورده نمی کند؟** به طور مشابه در مورد یک رگرسیون ساده؟ **و در مورد tau^2، tau، I^2 و H^2 چطور؟ آیا هیچ کدام از آنها شبیه R-squared است؟ library(metafor) mod_weight <- rma(yi, vi, data = dat_weight); خلاصه (mod_weight) مدل اثرات تصادفی (k = 62؛ tau^2 تخمینگر: REML) انحراف logLik AIC BIC AICc -65.0051 130.0103 134.0103 138.2320 134.2217:134.2172 0.3618 (SE = 0.0808) tau (ریشه مربع مقدار tau^2 تخمین زده شده): 0.6015 I^2 (ناهمگنی کل / تنوع کل): 86.67% H^2 (تغییرات کل / تنوع نمونه برداری): 7.50 تست ناهمگنی: Q( df = 61) = 395.7163، p-val < .0001 نتایج مدل: تخمین se zval pval ci.lb ci.ub 0.8007 0.0853 9.3830 <.0001 0.6334 0.9679 *** **_P.S. تحقیق انگل ماهی یک داستان ساختگی است :)_** | درک خروجی مدل متاآنالیز به زبان ساده |
19590 | چگونه Breusch-Pagan نمی تواند برای سریالی مانند آن عدد تهی را رد کند؟ > x = c(rnorm(10)، rnorm(100، sd=10)، rnorm(100، sd=25)) > mod = lm(x[-1]^2~x[-210]^2) > plot(mod$res,type='l') > bptest(mod) داده های آزمون Breusch-Pagan دانشجویی شده: mod BP = 1.1085، df = 1، p-value = 0.2924 واریانس به شدت تغییر می کند، آیا کسی می تواند دلیل آن را توضیح دهد؟  | چرا آزمون بروش-پگان شکست می خورد؟ |
90110 | در یک مسئله طبقه بندی چند طبقه، می خواهم اهمیت طبقه بندی کننده خود را در برابر فرضیه صفر (در این مورد، سطح شانس) اندازه گیری کنم. در این مقاله، در بخش 3.4، برای یک طبقهبندیکننده باینری، به عنوان یک آزمون دوجملهای پیشنهاد شده است. مقدار p حاصل یک اندازه گیری است. برای یک نسخه چند کلاسه، چگونه می توانم چنین اندازه گیری کنم؟ * آیا تست چند جمله ای مناسب است؟ * یا باید یک تست دو جمله ای را به صورت یک در مقابل همه اعمال کنم و مقادیر p را برای هر کلاس ارزیابی کنم؟ در اینجا یک آزمون مجذور کای بر روی یک ماتریس سردرگمی اعمال می شود. آیا این روش ارزیابی می تواند معیاری برای من باشد؟ پیشاپیش ممنون | آزمون اهمیت برای طبقه بندی کننده چند کلاسه |
64035 | من خواندهام که اعتبارسنجی متقاطع ترک یک بیرون، یک برآورد نسبتاً _تخمین بیطرفانه از عملکرد تعمیم واقعی_ ارائه میکند (به عنوان مثال در اینجا) و این یک ویژگی سودمند CV ترک یکنفره است. با این حال، من نمیدانم که چگونه این از ویژگیهای CV-one-out نتیجه میشود. چرا **سوگیری** این برآوردگر در مقایسه با دیگران کم است؟ ### بهروزرسانی: من به بررسی موضوع ادامه میدهم، و معتقدم این به این موضوع مربوط میشود که این تخمینگر نسبت به اعتبارسنجی K-fold بدبینانهتر است، زیرا از همه دادهها به جز یک نمونه استفاده میکند، اما چنین خواهد بود. خواندن یک مشتق ریاضی از این عالی است. | اعتبار سنجی متقاطع یک طرفه: برآورد نسبتاً بی طرفانه از عملکرد تعمیم؟ |
99531 | سوال من خیلی ساده است. آمار توصیفی مانند میانگین، میانه، sd و غیره برای دادههای سری زمانی تنها با 9 امتیاز به همان روشی که برای دادههای غیرهمبسته محاسبه میشود؟ یا ریاضیات کاملاً متفاوت است؟ با تشکر | آیا انحراف استاندارد، CI95٪، میانگین، میانه برای داده های نامرتبط و همبسته (سری های زمانی) به همان روش محاسبه می شود؟ |
16906 | حتی اگر آزمون F معنی دار نباشد، باز هم می توانید از آزمون تفاوت معنی دار کمتر استفاده کنید؟ | حتی اگر آزمون F معنی دار نباشد، باز هم می توانید از آزمون تفاوت معنی دار کمتر استفاده کنید؟ |
97464 | در این وب سایت آمده است که اگر تقارن مرکب برآورده شود، کرویت نیز وجود دارد. آیا نمی توان مجموعه داده ای ساخت که دارای تقارن ترکیبی کامل باشد اما کرویت کامل نداشته باشد؟ چرا/چرا نه؟ به طور شهودی برای من واضح نیست زیرا در ارزش اسمی تقارن مرکب (واریانسها در شرایط تقریباً برابر، و کوواریانسهای بین جفتهای شرایط نیز تقریباً برابر) و کروی (تقریباً واریانسهای مساوی از تفاوتهای بین دادههای یک شرکتکننده در زمانهای مختلف) به نظر میرسد. چیزهای کاملا متفاوت من در مورد زمینه ANOVA با اندازه گیری های مکرر فکر می کنم. | چرا تقارن مرکب برای ایجاد کروی کافی است؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.