_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
109538
لطفاً از من حمایت کنید تا این سوال را حل کنم: در یک مدل رگرسیون ساده y = b0 + b1*x + u پنج فرض اصلی داریم 1 خطی بودن در پارامترها 2 نمونه گیری تصادفی 3 صفر میانگین شرطی 4 تغییر در x 5 همسانی علاوه بر 5 فرض ، فرض اضافی برای آزمون فرضیه معتبر برآوردگرهای OLS در کوچک چیست نمونه ها؟
فرضیه آزمون فرضیه معتبر برآوردگرهای OLS در نمونه های کوچک
20131
من می خواهم یک ماتریس کنتراست در مورد یک مدل خطی ایجاد کنم. من یک عامل با سه سطح دارم: T، N و A. من تضادهای «T» در مقابل «N»، «T» در مقابل «A» و «T» در مقابل (ترکیب «N» و «A») را می‌خواهم. این آخرین تضاد با سطوح ترکیبی است که باعث دردسر می شود. نتیجه درست را می توانم با تعریف مجدد N و A به سطح ترکیبی جدید L و سپس یک ماتریس کنتراست یک ستونی T = 1، L = -1 به دست بیاورم. اما وقتی این سطح به دو قسمت تقسیم می شود، چگونه باید این کار را انجام داد؟ ستون T = 2، N = -1، A = -1 نتیجه کنتراست یک col بالا را نشان نمی دهد. من آن را در R پیاده‌سازی می‌کنم. تعداد مشاهدات T=30، N=14، A=15 است.
چگونه یک ماتریس کنتراست با سطوح ترکیبی برای یک متغیر طبقه‌بندی طراحی کنیم؟
59757
من یک تست دوربین-واتسون را محاسبه کردم و به $$\eqalign{ d&=2.207551844، \\\ dL&= 1.6164، \\\ dU&= 1.7896 رسیدم. }$$ من می‌خواهم $$H_0 \gt 0,\ H_1 \le 0.$$ را آزمایش کنم. اگر $H_0 \lt 0، H_1 \ge 0$ باشد چه اتفاقی می افتد؟ لطفاً در مورد تفسیر چنین آزمایشی به من اشاره کنید!
تفسیر آزمون دوربین واتسون؟
90436
من یک توزیع مشترک دارم که به صورت زیر فاکتور می‌شود: $$ q(w) = \prod_{i=1}^{N} t_i $$ که در آن هر $t_i$ یک توزیع نرمال سه بعدی است که برخی به معنای $\mu_i$ هستند. و واریانس $\mathbf{I}\sigma_i$ که در آن $I$ هویت است و $\sigma_i$ دقت است که همچنین سه بعدی است رفتار ناهمسانگرد حال، اگر من بخواهم این را در یک توزیع چند متغیره بزرگ ($q(w)$) که دارای بعد $N \times 3$ است ترکیب کنم، صرفاً باید بردارهای میانگین و سیگما را روی هم قرار دهیم. من فکر می کنم، بله، زیرا فاکتورسازی به معنای استقلال است، اما می خواستم بررسی کنم.
دستکاری توزیع های گاوسی
41041
من از بسته POT در R برای برازش توزیع پارتو تعمیم یافته به داده های خود استفاده می کنم. برای انتخاب آستانه تقریبی، من از «tcplot()» و «mrlplot()» به روش زیر استفاده می کنم («x» داده های حاوی بردار است) tcplot(x,u.range=c(0,quantile(x, probs=0.995))) mrlplot(x,u.range=c(0,quantile(x,probs=0.995)),col=c(سبز،سیاه،سبز),nt=200) اما گاهی اوقات کمی گیج می شوم به عنوان مقداری که به عنوان آستانه انتخاب خواهم کرد. به‌ویژه همانطور که در این سایت ذکر شد که > تفسیر این طرح‌ها اغلب مستلزم قضاوت ذهنی خوبی است، برای مثال، با توجه به طرح زیر، آستانه چقدر خواهد بود؟ ![پایداری پارامتر و نمودار MRL](http://i.stack.imgur.com/f3oZh.png)
انتخاب آستانه برای توزیع پارتو تعمیم یافته در R
59755
کسی میتونه لطفا نقطه تغییر رو برای من توضیح بده من از پکیج در R استفاده می کنم و واقعاً معنی روش های مختلف، مزایا و معایب هر کدام را نمی فهمم و به خصوص ارزش جریمه را نمی دانم. وقتی مقدار جریمه را افزایش می دهید، این به چه معناست و چه کاربردی دارد؟ من مقدار زیادی تحقیق آنلاین انجام داده‌ام، اما فقط سایت‌های cran R و Quick R را پیدا می‌کنم که خوب هستند، اما روشی که آنها می‌گویند آن را برای من قطع نمی‌کند. خیلی ممنون
تجزیه و تحلیل نقطه را تغییر دهید
11707
با توجه به مقاله ویکی پدیا در مورد تخمین بی طرفانه انحراف معیار، SD نمونه $$s = \sqrt{\frac{1}{n-1} \sum_{i=1}^n (x_i - \overline{x})^ 2}$$ یک تخمین‌گر مغرضانه از SD جمعیت است. بیان می کند که $E(\sqrt{s^2}) \neq \sqrt{E(s^2)}$. NB. متغیرهای تصادفی مستقل هستند و هر کدام $x_{i} \sim N(\mu,\sigma^{2})$ سؤال من دوگانه است: * اثبات مغرضانه بودن چیست؟ * چگونه می توان انتظار انحراف معیار نمونه را محاسبه کرد دانش من از ریاضیات/آمار فقط متوسط ​​است.
چرا انحراف استاندارد نمونه یک تخمین‌گر مغرضانه $\sigma$ است؟
62347
من یک ماتریس کوواریانس $n \times n$ دارم و می‌خواهم با استفاده از خوشه‌بندی سلسله مراتبی، متغیرها را به خوشه‌های $k$ تقسیم کنم (مثلاً برای مرتب‌سازی یک ماتریس کوواریانس). آیا یک تابع فاصله معمولی بین متغیرها (به عنوان مثال بین ستون ها/ردیف های ماتریس کوواریانس مربع) وجود دارد؟ یا اگر تعداد بیشتری وجود دارد، آیا مرجع خوبی در مورد موضوع وجود دارد؟
فاصله بین متغیرهایی که ماتریس کوواریانس می سازند چقدر است؟
90431
من سعی می کنم تعداد وسایل نقلیه مورد نیاز در هر مدل را برای به حداکثر رساندن استفاده و حجم رزرو پیش بینی کنم، اما به دیوار آجری برخورد کردم. من برخی از تجزیه و تحلیل های اکتشافی را انجام داده ام و استفاده از روزهای رزرو تحت تأثیر قرار می گیرد. همچنین روزهای رزرو تحت تأثیر طول رزرو و رزرو هر خودرو است. من متوجه شده‌ام که رزروهای 5x 4 روزه به هدف می‌رسند، اما تعداد وسایل نقلیه مورد نیاز به محبوبیت مدل بستگی دارد، اما مطمئن نیستم کجا بروم.
پیش بینی تعداد وسایل نقلیه مورد نیاز
13334
من از SAS برای تخمین برخی از مدل های لجستیکی استفاده می کنم. معمولاً من با پزشکان یا دانشمندان علوم اجتماعی کار می کنم و نسبت شانس معیار ترجیحی است. اما من در حال حاضر با یک مشتری در اقتصاد/حقوق کار می کنم و او اثرات حاشیه ای و خطاهای استاندارد آنها را می خواهد و آنها را به وسیله متغیرهای دیگر می خواهد. این کار در SAS آسان نیست، اما، با کمک پشتیبانی فنی، متوجه شدم که می‌توانید این کار را با PROC NLMIXED انجام دهید، فکر می‌کنم پس از آن به گزینه out = der نیاز دارید. چیزی شبیه به این proc nlmixed data=olivia.small; p=1/(1+exp(-(Intercept+ba*log_fund_age + bb*log_fund_size + bc*yield + bd*loaded + be*log_assets))); مدل vote_code_num ~ binomial(1,p); parms intercept 36.43 ba -14.55 bb -0.98 bc -0.37 bd 2.2 be -0.07; پیش بینی p*(1-p)*ba out=a der; پیش بینی p*(1-p)*bb out=b der; پیش بینی p*(1-p)*bc out=c der; پیش بینی p*(1-p)*bd out=d der; پیش بینی p*(1-p)*be out=e der; جایی که سال = 2003; اجرا؛ اما پس از آن مجموعه داده های خروجی a، b، c، d و e مشتقات و انحرافات استاندارد خود را برای هر مشاهده در مجموعه داده دارند، نه برای میانگین متغیرهای دیگر. یافتن میانگین همه آن مشتقات آسان است، اما 1) آیا این همان مقدار حاشیه در میانگین سایر متغیرها است؟ و 2) پس چگونه می توان خطاهای استاندارد را دریافت کرد؟ پیتر
اثرات حاشیه ای یک مدل لجستیک و خطاهای استاندارد آنها
46897
در برنامه نویسی کامپیوتر، اولین برنامه کلاسیک برای یادگیری/آموزش یک زبان یا سیستم جدید وجود دارد که به آن سلام، دنیا می گویند. http://en.wikipedia.org/wiki/Hello_world_program آیا اولین تجسم داده کلاسیک برای استفاده از یک بسته نموداری وجود دارد؟ اگر چنین است، آن چیست؟ و اگر نه، چه نامزدهای خوبی خواهند بود؟
آیا «سلام، دنیا» برای گرافیک آماری وجود دارد؟
48647
داده‌های من شبیه این ویژگی هستند nobs.ctrls nobs.cases A 0 0 B 8 1 C 24 0 D 116 0 E 41 2 F 6 11 من کنترل‌های بسیار بیشتری («ctrls») نسبت به موارد (1000 در مقابل 50) دارم. اعداد به این معنی است که، برای مثال، صفت C 24 بار در 1000 کنترل دیده می شود، اما در موارد ('nobs.cases') اصلا دیده نمی شود. بهترین راه برای آزمایش اهمیت داده های این نوع چیست؟ آیا باید N را کنترل کنم؟ صفات مستقل هستند. 24 بار لزوماً به این معنی نیست که در 24 مورد از 1000 رخ می دهد. من نوعی تجزیه و تحلیل تلفیقی انجام داده ام بنابراین در واقع نمی دانم چند نفر این ویژگی را دارند، یعنی ممکن است بیش از یک نفر در یک فرد باشد. من به SNPها در توالی‌یابی داده‌ها در بین ژن‌ها نگاه می‌کنم، با هر «ویژگی» واقعاً یک ژن.
تجزیه و تحلیل طرح مورد-شاهدی بی‌نظیر طبقه‌بندی شده
46895
من می دانم که چگونه از R استفاده کنم اما در بخش آماری اینجا گیر کرده ام: باید نتایج یک تست قابلیت استفاده نرم افزار را تجسم کنم که در آن تعداد کل کلیک های هر آزمایش کننده برای هر یک از سه وظیفه ای که باید انجام می دادند، بود. ثبت شده است. کل زمان مورد نیاز برای هر یک از سه کار نیز ثبت شد. من فقط می‌خواهم نتایج 10 آزمایش‌کننده را تجسم کنم، بنابراین به استفاده از طرح نوار فکر می‌کردم، اما نمی‌توانم طرحی را در نظر بگیرم که بتوانم تعداد کلیک‌ها و همچنین زمان لازم را در یک طرح منطقی قرار دهم. من داده ها را در دو فایل .csv دارم (اگر مهم باشد). همچنین به نظر شما آیا باید از اخطارهایی آگاه باشم؟ مثلا باید چیزی را عادی کنم؟ هر گونه کمکی قدردانی خواهد شد! مارتین
چه نوع نموداری برای تجسم نتایج آزمون کاربردپذیری نرم افزار؟
20139
کسی می تواند در این مورد به من کمک کند؟ من باید یک رگرسیون انجام دهم تا آلفاها را در این معادله زیر تخمین بزنم، اما به نظر نمی رسد که این معادله را در قالبی دریافت کنم که بتوانم از رگرسیون استفاده کنم. Ii فقط به دنبال ساده کردن این معادله بود تا من می تواند چیزی را به شکل Y = ثابت + آلفا0 * چیزی + آلفا1 * چیزی .. و غیره دریافت کند تا ضرایب رگرسیون آلفای من باشد. هر توصیه ای بسیار قدردانی خواهد شد، بسیار متشکرم! D(T) مخفف موجودی در زمان T و R(T) مخفف نرخ بهره در زمان T است. D(T) = D(0) * exp[alpha0 * T + alpha 1 * T^2 / 2 + آلفا 3 * (R(T) - R(0))] * ((1 / df(T)) ^ آلفا3 که در آن df(T) = exp(مجموع از i به N از - R(TI) * dTI) (بنابراین df(T) اساسا یک عدد ثابت است)
چگونه می توان این معادله را به معادله ای تبدیل کرد که بتوان از رگرسیون برای تخمین ضرایب استفاده کرد؟
38829
من می‌خواهم داده‌های تصادفی را با اعمال برخی آزمایش‌ها بر روی جریان بایت مشاهده‌شده شناسایی کنم. من قبلاً از تست مربع کای در تجزیه و تحلیل فرکانس استفاده کردم که خوب کار می کند. برای کاهش نرخ مثبت کاذب، می‌خواهم تست‌های دیگری مانند تست اجراها را اعمال کنم، که دنباله‌های یکنواخت را در توالی بایت بررسی می‌کند (نه اجراها در سطح باینری، بلکه در سطح بایت [مقادیر از 0 - 255] ) چند مقاله پیدا کردم که رویه را توصیف می کند، اما پیاده سازی من کار نمی کند، احتمالاً چیزی را اشتباه متوجه شده ام. مقالات متأسفانه به زبان آلمانی هستند، اما چیزی که آنها به طور کلی می گویند، 1 است) ما دنباله بایت ها را به طور یکنواخت افزایش یا کاهش می دهیم (یعنی 3 | 1، 6، 9، 44، 74 | 11 | 6، 251، 46 |. ... => دو دنباله یکنواخت افزایشی). 2) احتمال، هر دنباله باید از نظر تئوری رخ دهد، با p = r / (r+1) تعریف می شود!، جایی که r طول اجرا است. در مجموع من 6 دسته دارم، که در آن دسته شماره. 6 شامل همه اجراها > 5 می شود. وقتی این آزمایش را روی داده های خود انجام می دهم، توزیع خی دو را دریافت می کنم که بسیار زیاد است، اما داده ها قطعا تصادفی هستند (مقدار مجذور کای بین 80 - 100). من این آزمایش را چندین بار روی نمونه‌های مختلف انجام دادم، توزیع ثابت می‌ماند و مقدار خی دو نیز ثابت می‌ماند، اما خیلی زیاد. من در مورد محاسبه احتمال 100٪ مطمئن نیستم. پیشاپیش از کمک شما بسیار سپاسگزارم
تست و Chi Square Distribution را اجرا می کند
20136
آیا کسی مجموعه‌ای از داده‌ها را می‌شناسد که در دسترس عموم و بزرگ هستند (به عنوان مثال، در بالپارک پتابایتی). در حالت ایده‌آل، مجموعه داده‌ها با تحلیل‌های یادگیری ماشین مرتبط هستند. شاید چیزی از حوزه های فیزیک، شیمی، پردازش زبان طبیعی؟ حدس می‌زنم می‌توان گفت که وب خود چنین مجموعه داده‌ای است، اما من به دنبال چیزی ساختارمندتر از آن هستم. پیشاپیش ممنون
مجموعه داده در مقیاس پتابایتی در دسترس عموم است؟
97710
من باید الگوریتم یک مقاله علمی را بازتولید کنم و یکی را انتخاب کردم که از یادگیری تقویتی استفاده می کند. با این حال، من نحوه محاسبه تابع احتمال انتقال ($f$) مورد استفاده در تکرار را نمی‌دانم: ![Q-value iteration](http://i.stack.imgur.com/4H6tG.png) مقاله می گوید: > برای اجرای الگوریتم تکرار Q-value (جدول 2)، ابتدا تابع احتمال انتقال f محاسبه شد. سوال من این است: چگونه محاسبه شد؟
چگونه تابع احتمال انتقال را محاسبه کنم؟
17424
یک قضیه نسبتاً رایج وجود دارد که بیان می‌کند: مجموع $n$ متغیرهای مستقل به دنبال توزیع نمایی $\mathrm{Exp}(\alpha)$ از توزیع گاما $\mathrm{Gamma} (n, 1/\) پیروی می‌کنند. alpha)$ (همچنین به عنوان توزیع Erlang نیز شناخته می شود). من از این قضیه در پایان نامه خود استفاده می کنم. از من خواسته شده است که به مقاله ای که معرفی می کند استناد کنم، یا اگر امکانش نیست، حداقل به مقاله ای استناد کنم که به صراحت به آن اشاره کرده است. کسی از این قبیل مقاله ها سراغ دارد؟
برای اثبات اینکه مجموع n متغیر نمایی از توزیع گاما پیروی می کند، چه مرجعی می توانم ذکر کنم؟
13335
من در حال حاضر در حال تلاش برای پیش بینی احتمال رویدادهای با احتمال کم (~1٪) هستم. من DB بزرگ با 200000 وکتور (~2000 مثال به علاوه) با 200 ویژگی دارم. من سعی می کنم بهترین ویژگی ها را برای مشکلم پیدا کنم. روش توصیه شده چیست؟ (در پایتون یا R ترجیح داده می شود، اما نه لزوما) با تشکر!
انتخاب ویژگی برای پیش‌بینی رویداد با احتمال کم
29717
من چندین مجموعه 10 تایی دارم که می خواهم آنها را با هم مقایسه کنم. هر رتبه‌دهنده فقط می‌تواند رأی _بله_ یا _خیر بدهد، با این حال این تصمیم ناهنجار است و آرای _بله فقط حدود 10٪ از کل آرا را تشکیل می‌دهد (و این انتظار می‌رود، یعنی چنین نسبتی از نظر عینی درست است). کدام یک از آمارهای توافق بین رتبه‌بندی در این مورد مناسب است؟
آمار بین رتبه‌بندی‌کننده برای رتبه‌بندی‌های منحرف
78801
من یک مبتدی در محاسبه همبستگی هستم و احتمالاً می خواهم یک سؤال بسیار ساده بپرسم. اگر من دو متغیر داشته باشم که بخواهم همبستگی را روی آنها انجام دهم و آن متغیرها اندازه نابرابر داشته باشند، آیا این روی نتیجه همبستگی من تأثیر می گذارد؟ با تشکر
سوال همبستگی پیرسون
29712
من در حال انجام پروژه ای هستم که در آن تعیین می کنم چه عواملی (در مجموع 3) در دقت ضربه زدن به تخته دارت نقش دارند. هر عامل دارای دو سطح کم و زیاد است. برای مثال یکی از فاکتورها مسافت و کمترین فاصله (نزدیک ترین به تخته دارت) 2 متر و بیشترین فاصله 4 متر است. فاکتور دیگری که من از آن استفاده می کنم دست چپ و راست برای پرتاب است. مشکل من این است که چگونه پاسخ را اندازه گیری کنم؟ آیا باید روی تخته دارت دو ناحیه را نشان دهم که یکی از آنها به عنوان چشم گاو (موفقیت) و دیگری شکست در نظر گرفته می شود؟ یا باید فاصله بین چشم گاو و دارت را بر حسب سانتی متر اندازه بگیرم تا مشخص شود کدام دارت نزدیکتر شده است؟ روش مناسب کدام است؟
آزمایش با دارت، چگونه باید پاسخ را اندازه‌گیری کنم؟
76448
من باید یک سیستم توصیه بسازم که اطلاعات زیادی در مورد کاربران (سن، جنس، مکان، درآمد و غیره) داشته باشد، اما اطلاعات بسیار کمی در مورد ترجیحات کاربران (یعنی 1-2 محصول از 100 برای هر کاربر مصرف شود). من حدود 50 هزار رکورد دارم و فکر می کنم استفاده از پروفایل کاربران ممکن است مفید باشد. اولین واکنش من به عنوان یک اقتصاددان استفاده از لوجیت چندجمله ای شرطی است. با توجه به یک پست روشنگری در اینجا، ممکن است ایده خوبی نباشد. آیا کسی می تواند به من بگوید که از چه نوع الگوریتم توصیه باید استفاده کنم؟ (بسته R مورد توجه خاص است)
نحوه ادغام اطلاعات پروفایل کاربران در یک سیستم توصیه گر
44769
من می دانم که مواد زیادی وجود دارد که p-value را توضیح می دهد. با این حال درک این مفهوم بدون توضیح بیشتر آسان نیست. در اینجا تعریف p-value از ویکی‌پدیا آمده است: > p-value احتمال به دست آوردن یک آمار آزمایشی حداقل به اندازه آن چیزی است که واقعاً مشاهده شد، با فرض اینکه فرضیه صفر > درست باشد. (http://en.wikipedia.org/wiki/P-value) **اولین سوال** من مربوط به عبارت حداقل به همان حدی است که واقعاً مشاهده شد. درک من از منطق زیربنای استفاده از p-value به شرح زیر است: اگر مقدار p کوچک باشد، بعید است که مشاهده با فرض صفر رخ داده باشد و ممکن است برای توضیح مشاهده به یک فرضیه جایگزین نیاز داشته باشیم. اگر مقدار p خیلی کوچک نباشد، این احتمال وجود دارد که مشاهده فقط با فرض صفر انجام شده باشد و فرضیه جایگزین برای توضیح مشاهده ضروری نیست. بنابراین اگر کسی بخواهد روی یک فرضیه پافشاری کند باید نشان دهد که مقدار p فرضیه صفر بسیار کوچک است. با در نظر گرفتن این دیدگاه، درک من از عبارت مبهم این است که p-value $\min[P(X<x),P(x<X)]$ است، اگر PDF آمار یک‌وجهی باشد، جایی که $X $ آمار آزمون و $x$ مقدار آن است که از مشاهده بدست می آید. آیا این درست است؟ اگر درست است، آیا استفاده از PDF دووجهی آمار همچنان قابل اجراست؟ اگر دو قله PDF به خوبی از هم جدا شده باشند و مقدار مشاهده شده جایی در ناحیه چگالی احتمال کم بین دو قله باشد، مقدار p احتمال کدام بازه را نشان می دهد؟ **سوال دوم** در مورد تعریف دیگری از p-value از Wolfram MathWorld است: > احتمال اینکه یک متغیر مقداری بزرگتر یا مساوی با > مقدار مشاهده شده را کاملاً تصادفی فرض کند. > (http://mathworld.wolfram.com/P-Value.html) فهمیدم که عبارت به طور کاملاً تصادفی باید به عنوان فرضیه صفر تعبیر شود. درست است؟ **سوال سوم** به استفاده از فرضیه صفر مربوط می شود. بیایید فرض کنیم که شخصی می خواهد اصرار کند که یک سکه منصفانه است. او این فرضیه را بیان می کند که بسامد نسبی سرها 0.5 است. سپس فرض صفر این است که فرکانس نسبی هدها 0.5 نیست. در این حالت، در حالی که محاسبه مقدار p فرضیه صفر دشوار است، محاسبه برای فرضیه جایگزین آسان است. البته مشکل را می توان با مبادله نقش دو فرضیه حل کرد. سوال من این است که رد یا پذیرش مستقیماً بر اساس p-value فرضیه جایگزین اصلی (بدون ارائه فرضیه صفر) این است که آیا خوب است یا خیر. اگر مشکلی ندارد، هنگام محاسبه مقدار p یک فرضیه صفر، راه حل معمول برای چنین مشکلاتی چیست؟ * * * ** من یک سوال جدید گذاشتم که بر اساس بحث در این تاپیک بیشتر روشن شده است.**
درک مقدار p
29719
من داده‌های آزمایشی را دارم که می‌توان از آن برای تشخیص سلول‌های طبیعی و تومور استفاده کرد. طبق منحنی ROC برای این منظور خوب به نظر می رسد (مساحت زیر منحنی 0.9 است): ![منحنی ROC](http://i.stack.imgur.com/oijy4.png) **سوالات من این است:** 1. چگونه می توان نقطه برش این تست و فاصله اطمینان آن را تعیین کرد که در آن قرائت ها باید مبهم ارزیابی شوند؟ 2. بهترین راه برای تجسم این (با استفاده از 'ggplot2') چیست؟ نمودار با استفاده از بسته‌های «ROCR» و «ggplot2» ارائه می‌شود: #install.packages(ggplot2، ROCR، verification) #اگر هنوز نصب نشده باشد library(ggplot2) library(ROCR) library( تأیید) d <-read.csv2(data.csv, sep=;) قبل <- with(d,prediction(x,test)) perf <- performance(pred,tpr, fpr) auc <-performance(pred,meter = auc)@y.values[[1]] rd < - data.frame(x=perf@x.values[[1]],y=perf@y.values[[1]]) p <- ggplot(rd,aes(x=x,y=y)) + geom_path(size=1) p <- p + geom_segment(aes(x=0,y=0,xend=1,yend=1),colour= black,linetype= 2) p <- p + geom_text(aes(x=1, y= 0, hjust=1, vjust=0, label=paste(sep = , AUC = ,round(auc,3) )),colour=black,size=4) p <- p + scale_x_continuous(name= نرخ مثبت کاذب) p < - p + scale_y_continuous (نام = نرخ مثبت واقعی) p <- p + opts( axis.text.x = theme_text (اندازه = 10)، axis.text.y = theme_text (اندازه = 10)، axis.title.x = theme_text (اندازه = 12، چهره = مورب)، axis.title.y = theme_text (اندازه = 12، چهره = italic,angle=90), legend.position = none, legend.title = theme_blank()، panel.background = theme_blank()، panel.grid.minor = theme_blank()، panel.grid.major = theme_line(colour='grey'), plot.background = theme_blank() ) p data.csv داده های زیر را در خود دارد: x;گروه;ترتیب;تست 56;تومور;1;1 55;تومور;1;1 52;تومور;1;1 60؛ تومور؛ 1؛ 1؛ 54؛ تومور؛ 1؛ 1؛ 43؛ تومور؛ 1؛ 1؛ 52؛ تومور؛ 1؛ 1؛ 1 57؛ تومور؛ 1؛ 1؛ 50؛ تومور؛ 1؛ 1؛ 34؛ تومور؛ 1؛ 1؛ 24 ;عادی 25; عادی; 2; 0 23; عادی; 2; 0 23; عادی; 2; 0 19; عادی; 2; 0 56; عادی; 2; 0 44; عادی; 2; 0
چگونه بهترین نقطه برش و فاصله اطمینان آن را با استفاده از منحنی ROC در R تعیین کنیم؟
44490
امروز سر کلاس با معلم آمارم بحث می کردم چون سر موضوع بیان مجدد گیر کرده بودیم. او تصمیم گرفت اگر بتوانم با استفاده از اینترنت به او ثابت کنم که چیزی مربوط به تبدیل واحد در حین بیان مجدد است، اعتبار بیشتری به من بدهد. هنگامی که یک تبدیل توان با توان -1/2$ یا $-1$ انجام می دهید، قرار است واحدها و مقدار را به منفی تغییر دهید (یعنی برای توان 1$- ممکن است $ دریافت کنید. -32.8 دلار - گالن / مایل). آیا قرار است آن را به 32.8 دلار گالن / مایل برگردانید؟
تبدیل واحدهای بیان مجدد
14819
از آنجایی که من فقط با اصول مربوط به درختان تصمیم آشنا هستم، می خواهم بپرسم، با خطر بیان یک سوال احمقانه: آیا می توان پارتیشن بندی بازگشتی را با میانگین گروه به عنوان پاسخ/هدف انجام داد؟ به‌عنوان مثال، به‌جای «rpart()» «R» با استفاده از معنی، آیا می‌توان درختی مشابه با میانه‌ها ایجاد کرد؟ من می خواهم این کار را انجام دهم زیرا متغیر وابسته پیوسته ای که می خواهم بررسی کنم دارای یک سری نقاط پرت است که به وضوح بر مقادیر میانگین تأثیر می گذارد (مخصوصاً وقتی تعداد مشاهدات در هر گره کوچکتر شود). آیا من در مسیر درستی هستم یا باید از روش های دیگری استفاده کنم؟ آیا پیش پردازش داده ها جایگزین دیگری خواهد بود (شاید پوشش مقادیر در حد بالایی)؟ با تشکر
پارتیشن بندی بازگشتی با استفاده از میانه (به جای میانگین)
101334
من اکنون در حال محاسبه کشش برای مدل لاجیت شرطی اسکلوگیت ویژه جایگزین هستم. Stata هیچ دستور یا منوی برای محاسبه کشش ندارد. من از فرمول محبوب: (1-p) (بتا) (X) برای کشش مستقیم استفاده کردم. اما برای کشش متقاطع متفاوت است. فرمول ارائه شده این است: -p(i)p(j).بتا که در آن i و j جایگزین های سطح متغیر وابسته هستند، به عنوان مثال در ماشین حمل و نقل و راه آهن.
الاستیسیته متقاطع آسکلوژیت
12881
من با مشکل یادگیری خوشه ها از یک ماتریس عدم تشابه زوجی مواجه هستم. اندازه‌گیری‌هایی که من امتحان می‌کنم متریک نیستند (متقارن نیستند، برابری مثلثی ندارند)، مانند واگرایی KL. آیا روش های خوشه بندی وجود دارد که بتوانم برای یافتن خوشه ها از این نوع ماتریس ها استفاده کنم؟ اگر برچسب‌هایی در دسترس دارم، از چه نوع تکنیک‌های اعتبارسنجی خوشه‌ای می‌توانم استفاده کنم؟
آیا روش هایی برای خوشه بندی بر اساس معیارهای عدم تشابه زوجی وجود دارد؟
41040
وقتی یک مدل درخت رگرسیون را در R قرار می دهم، می توانم به نحوی به درخت رسم شده نگاه کنم تا تعاملات پیش بینی کننده ها را بفهمم. با این حال، زمانی که من یک مدل جنگل تصادفی را انتخاب می کنم، نمی توانم درختی را ترسیم کنم زیرا تعداد آنها بسیار زیاد است. من به نوعی می توانم ترتیب اهمیت پیش بینی کننده ها را بیابم (با استفاده از تابع varImpPlot)، اما نمی دانم چگونه تعاملات را از مدل تشخیص دهم. به هر حال، طرح اهمیت فقط ترتیب اهمیت پیش بینی کننده ها را می دهد، چگونه می توانم بفهمم که دقیقاً چه تعداد از آنها باید برای بررسی بیشتر گنجانده شوند. متشکرم.
چگونه می توان تعاملات را در یک مدل جنگل تصادفی تشخیص داد؟
44763
من مشکل رگرسیون زیر را دارم، حدود 60 متغیر مستقل دارم. برخی از آنها با دیگران همبستگی بالایی دارند. من حدود 3 میلیون مشاهده دارم (1) - هدف اصلی من پیش بینی خارج از نمونه است، بنابراین سوال اصلی من این است: در این مورد از کدام روش منظم سازی استفاده کنم؟ چند سؤال دیگر (فرض هایی که من دارم، احتمالاً کمی گیج شده) (2) - رگرسیون ریج، در حالی که ضرایب را به طور کامل حذف نمی کند، آن ضرایب را پایین نگه می دارد که شبکه کمند/الاستیک/BIC کاملاً حذف می کند. آیا این درست است؟ (اگر اینطور نیست، آیا مشکلی ایجاد می شود؟) (3) - اگر من می خواستم از AIC/BIC در این مورد استفاده کنم، باید تمام ترکیبات ممکن 60 متغیر مستقل را آزمایش کنم؟ (4) - آیا منطقی است که با AIC/BIC شروع کنیم، سپس با متغیرهای مستقل باقیمانده رگرسیون رج انجام دهیم؟ (من حدس می‌زنم رگرسیون پشته _after_ AIC/BIC ممکن است منطقی باشد زیرا برخی از متغیرهای مستقل با بقیه همبستگی دارند؟) با تشکر
از بین BIC / AIC / رج / توری الاستیک چه چیزی را انتخاب کنید؟
14810
چگونه می توانم نوسانات سهام را بر حسب **درصد** محاسبه کنم؟ آیا باید از تابع sd() بدون هیچ محاسبه دیگری استفاده کنم؟ با تشکر
چگونه نوسانات سهام را بر حسب درصد محاسبه کنیم؟
11869
من یک سوال گسترده در مورد اعتبار سنجی پنجره کشویی دارم. به طور خاص، من به دنبال استفاده از Rapid Miner برای پیش‌بینی ارزش‌های آتی یک سری مالی با استفاده از مقادیر «تاخر» آن سری و سایر متغیرهای کمکی هستم. من با اپراتور windowing در این نرم افزار آزمایش کرده ام و مقادیر را برای آماده سازی برای مدل سازی عقب انداخته ام. چیزی که من در مورد آن گیج شده‌ام، و گمان می‌کنم که این یک فرآیند کلی است، نه فقط چیزی متمرکز بر Rapid Miner و بنابراین در اینجا از آن می‌پرسم، فرآیند آموزش/ارزیابی پنجره‌های کشویی است. 1. آیا کسی منابعی برای یادگیری در مورد فرآیندهای پنجره کشویی برای ساخت مدل های داده کاوی در سری های زمانی دارد؟ 2. به طور خاص هنگام ساخت یک مدل، من _ فکر می کنم_ می فهمم که از k نمونه برای آموزش یک مدل استفاده می شود (به عنوان مثال SVM) و عملکرد این مدل با پیش بینی رکوردهای بعدی m تعیین می شود. سپس پنجره مقداری به جلو کشیده می شود و از k رکوردهای بعدی برای آموزش استفاده می شود و ارزیابی روی رکوردهای m بعدی انجام می شود. این کار تا پایان داده ها ادامه دارد. آیا درک من درست است؟ چگونه یک مدل نهایی برای استفاده در داده های آینده ساخته می شود؟ آیا همیشه روی آخرین رکوردهای k دوباره آموزش داده می شود و این آخرین k رکوردها فقط برای ایجاد مدل نهایی استفاده می شوند؟
اعتبار سنجی پنجره کشویی برای سری های زمانی
95263
من فهرستی از نمرات دانش آموزان در علوم (X، بین 0 تا 100٪) و اینکه آیا آنها به دانشگاه رفته اند یا نه (Y) دارم. نمرات بالا در علوم نشان دهنده تمرکز بالاتر پذیرفته شدگان کالج و نمرات پایین رتبه دوم را داشتند (دانشجویان برای مدرک هنر و غیره رفتند). نمرات در محدوده متوسط ​​نرخ ضربه کمتری داشتند. اکثر دانش آموزان در علوم نمرات پایین تری دارند. من نمونه خود را به 5 سطل تقسیم کردم: 0-10، 10-20، 20-80، 80-90، 90-100. Chi-Sq قابل توجه است. من این سطل‌ها را به متغیرهای طبقه‌بندی ساختگی تبدیل کردم و سپس ضریب LR را محاسبه کردم که برای 80-90، 90-100 (+ives)، و 0-10 (-ive) معنی‌دار بود. من به این نتیجه رسیدم که وقتی نمرات بالاتر باشد، شانس گرفتن پذیرش زیاد است. وقتی نمرات پایین باشد، بعید است که دانشجو به دانشگاه برود. Q1. آیا در عوض باید از علامت ها به عنوان متغیر پیوسته استفاده کنم؟ فرضیه اصلی من این است: بالاترین نمرات منجر به پذیرش در کالج می شود، در حالی که کمترین نمره به معنای عدم پذیرش دانشگاه است. Q2. داده ها قبلا خطی بودند. با این حال، اگر داده‌ها در نمودار زیر نشان داده می‌شد، چه می‌کنید، آیا به نظر شما دسته‌بندی آن منطقی‌تر است؟ نرخ بازدید رویداد برای یک محدوده خاص بالاتر است و سپس کاهش می یابد. دسته‌بندی آن در سطل‌ها کمک می‌کند تا من فقط باید عملکرد آن سطل را تجزیه و تحلیل کنم (تمرکز اصلی مطالعه). آیا استفاده از متغیرهای ساختگی تأثیر روابط غیر خطی را از بین می برد؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/gQjYY.jpg)
رگرسیون لجستیک مستمر در مقابل طبقه بندی برای نمره و پذیرش
11868
فرض کنید یک مدل پواسون با پراکندگی بیش از حد دارید. علاوه بر مدل‌های دوجمله‌ای منفی، سایر تکنیک‌های رگرسیون مدل‌سازی داده‌های شمارش مناسب دیگر چیست؟
چه مدل‌های شمارش داده‌ای را در کنار مدل دوجمله‌ای منفی در هنگام پراکندگی بیش از حد انتخاب کنیم؟
12885
من همیشه معتقد بودم که زمان نباید به عنوان پیش‌بینی‌کننده در رگرسیون‌ها (از جمله گام‌ها) استفاده شود، زیرا در این صورت، فرد به سادگی خود روند را «توصیف» می‌کند. اگر هدف یک مطالعه یافتن پارامترهای محیطی مانند دما و غیره است که واریانس، مثلاً، فعالیت یک حیوان را توضیح می‌دهند، در آن صورت نمی‌دانم که زمان چگونه می‌تواند مفید باشد؟ به عنوان یک پروکسی برای پارامترهای اندازه گیری نشده؟ برخی از روندهای زمانی در داده‌های فعالیت گرازهای بندری را می‌توان در اینجا مشاهده کرد: -> چگونه شکاف‌ها را در یک سری زمانی هنگام انجام GAMM مدیریت کنیم؟ مشکل من این است: وقتی زمان را در مدل خود لحاظ می کنم (در روزهای جولیان اندازه گیری می شود)، سپس 90٪ از تمام پارامترهای دیگر ناچیز می شوند (هموارتر ts-shrinkage از mgcv آنها را بیرون می زند). اگر زمان را کنار بگذارم، برخی از آنها قابل توجه هستند... سوال این است: آیا زمان به عنوان یک پیش بینی کننده مجاز است (شاید حتی لازم باشد؟) یا تحلیل من را به هم می زند؟ پیشاپیش با تشکر فراوان
آیا گنجاندن زمان به عنوان پیش بینی در مدل های ترکیبی مجاز است؟
9807
من یک نظرسنجی با استفاده از مقیاس لیکرت 1 تا 5 (کاملاً موافق / موافق / خنثی / مخالف / کاملاً مخالف) بر روی 12 سؤال انجام دادم که به 3 عبارت تقسیم می شوند که پاسخ دهنده بسته به میزان موافقت آنها ارزشی بین 1 تا 5 قرار می دهد. یا مخالف - در مجموع 36 بیانیه وجود دارد. پاسخ دهندگان: گروه 1 گروه 2 معماران انگلستان 140 معماران پاسخ داده شده ایالات متحده 100 مهندسان پاسخ داده شده UK 140 پاسخ دهندگان مهندسین ایالات متحده 100 پاسخ دهندگان پیمانکاران انگلستان 140 پاسخ دهندگان پیمانکاران ایالات متحده 100 پاسخ داده ها در اکسل است. ### سوالات: 1. چگونه آنها را در SPSS وارد کنم؟ 2. چگونه می توانم تعداد پاسخ ها را برای هر گیرنده تعیین کنم؟ 3. چگونه می توانم فراوانی پاسخ ها یعنی موافق/مخالف و غیره را برای هر گروه تعیین کنم؟ 4. چگونه می توانم هر سوال (12 سوال) را رتبه بندی کنم؟ به یاد داشته باشید که برای هر سوال 3 عبارت جداگانه وجود دارد. 5. چگونه معماران بریتانیایی را با معماران آمریکایی مقایسه کنم تا همخوانی را نشان دهم یا خیر؟ 6. چگونه ارتباط بین دو گروه بریتانیا و ایالات متحده را نشان می دهد؟ 7. آیا SPSS نمودارهایی را برای من ایجاد می کند که فرکانس یا همبستگی را نشان می دهند؟
کار با مقیاس لیکرت در SPSS
12888
دو مشکل زیر را در نظر بگیرید: 1. ما می خواهیم رگرسیون خطی انجام دهیم، جایی که می دانیم مدل واقعی در واقع خطی است. در حالت کلی، رگرسیون خطی شامل یک افست است. با این حال، با استفاده از دانش قبلی، می دانیم که مدل واقعی در واقع دارای افست 0 است. بنابراین واضح است که بهتر است مدل را برازش کنیم در حالی که آن افست را 0 محدود کنیم. 2. ما می خواهیم یک توزیع $p(z)$ را تخمین بزنیم و حالت آن را پیدا کنید ما $p$ را با استفاده از تخمین‌گر چگالی تخمین می‌زنیم که $\tilde{p}$ باشد. اکنون، دوباره، برخی از ویژگی‌های حالت را می‌دانیم، به‌طوری‌که برای برخی تابع $F(z_{mode}) = 0$. سپس، (شاید؟) بهتر است به جای یافتن حالت $\tilde{p} حالت $\tilde{p}(z)$ را در حالی که $F(z)$ را به $0$ محدود می کنیم، پیدا کنیم. $ بدون این محدودیت. سوال من این است: آیا نتایج شناخته شده ای در مورد ترکیب این نوع دانش قبلی وجود دارد (اگر درست باشد)؟ نتیجه ای که نشان می دهد راه حل ما با استفاده از دانش قبلی بهتر است یا غیره؟ امیدوارم خیلی مبهم نباشد. من علاقه مند به خواندن بیشتر در این مورد هستم. با تشکر
چه نوع نتایجی در مورد دانش قبلی وجود دارد؟
90038
من در حال تخمین مدلی برای یک تکلیف هستم و متوجه شدم که بین دو متغیر مستقل همبستگی 0.9 وجود دارد. بنابراین اگر اشتباه نکنم باید یک متغیر را حذف کرده و رگرسیون را دوباره انجام دهم. با این حال، از من خواسته شده است که مدل log-log را تخمین بزنم و سپس همبستگی بین متغیرها از 0.9 به 0.5 کاهش یابد. بنابراین در مدل جدید، آیا هنوز باید یکی از متغیرها را حذف کنم؟ همچنین، برای اینکه تصمیم بگیرم کجا یک متغیر را حذف کنم، کدام باید باشد؟ آیا همبستگی 0.6 به اندازه کافی زیاد است که به مدل مشکل بدهد؟
نحوه برخورد با چند خطی ناقص
44494
در الگوریتم مدل مبحث LDA، من این فرض را دیدم. اما نمی دانم چرا توزیع دیریکله را انتخاب کردم؟ نمی دانم می توانیم از توزیع یکنواخت روی چند ملیتی به صورت جفت استفاده کنیم؟
چرا توزیع دیریکله برای توزیع چندجمله ای مقدم است؟
46891
من یک مجموعه داده حاوی اطلاعات قیمت سهام بر اساس تیک به تیک دارم. من می خواهم همبستگی را در R محاسبه کنم که دردسری نیست. اما طول بردارها متفاوت است، زیرا یک سهم بیشتر از دیگری معامله می شود. من می‌توانم بر اساس دقیقه جمع‌آوری کنم، اما این باعث می‌شود که بردارهای طول نابرابر به‌دلیل اینکه معاملات در هر دقیقه برای هر سهام صورت نمی‌گیرد، باقی می‌ماند. من حدس می زنم که این به یک سوال آماری خلاصه می شود. آیا می توانم همبستگی را با طول بردارهای مختلف با توجه به دوره زمانی یکسانی محاسبه کنم؟ من به این فکر کردم که قیمت قبلی را در شکاف‌های دقیقه‌ای خالی برای دستیابی به طول برداری برابر وارد کنم، اما شاید رویکرد متفاوتی وجود داشته باشد؟ من از R استفاده می کنم. با تشکر * * * از پاسخ های شما متشکرم. من راه‌حل‌های پیشنهادی را بررسی کرده‌ام، و فکر می‌کنم نمونه‌برداری/نمونه‌سازی پایین‌تر در این مورد بهترین خواهد بود. آیا راهی برای کدنویسی زیر در R وجود دارد؟ My hunch یک حلقه if است که در صورت وجود زمان، قاب داده مربوطه را بررسی می کند، در غیر این صورت، قیمت قبلی را می گیرد و قیمت جدیدی را برای زمان از دست رفته وارد می کند. این چیزی است که من می خواهم تولید کنم: دو ستون جداگانه، قیمت و زمان، برای هر سهام. اگر زمان برای سهام X وجود دارد اما برای سهام Y وجود ندارد، باید قیمت قبلی را در بردار قرار داد. طبق مثال زیر: X Y قیمت زمان قیمت زمان 10 540 20 540 11 541 21 541 12 542 22 543 13 544 23 544 14 545 24 545 زمان قیمت زمان قیمت 10 540 211 10 540 211 542 21 542 12 543 22 543 13 544 23 544 14 545 24 545
همبستگی با طول بردار متفاوت - دوره زمانی یکسان
12887
من یک تازه کار هستم که شروع به خواندن در مورد داده کاوی می کنم. من دانش اولیه هوش مصنوعی و آمار را دارم. از آنجایی که بسیاری می گویند که یادگیری ماشین نیز نقش مهمی در داده کاوی ایفا می کند، آیا قبل از اینکه بتوانم به داده کاوی ادامه دهم، لازم است در مورد یادگیری ماشین مطالعه کنیم؟
چگونه شروع به خواندن در مورد داده کاوی کنیم؟
11867
چگونه می توانم مقادیر اطلاعات متقابل زیر را با هم مقایسه کنم؟ من فقط به این فکر می کنم که مناسب ترین راه برای نمایش آنها در جدول گزارش من چیست. من آنها را با این فرمول محاسبه می کنم ![http://d.pr/chkK](http://i.stack.imgur.com/g1i2L.png) که e و c خوشه هستند و تقاطع آن تعداد عناصر مشترک برای هر زوج e و c من یک مقدار I دارم (اطلاعات متقابل). به طور متوالی میانگین تمام e متعلق به یک دسته (در فرمول نشان داده نشده است) را می گیرم و در نهایت با جدولی مانند: cat1 0.0123 cat2 0.0012 cat3 0.0009 cat4 0.0100 ... مقادیر وابستگی متقابل معمولاً بسیار پایین هستند (حدود 0.01) ، زیرا n (مجموع اسناد موجود در مجموعه) بسیار زیاد است. آیا باید از معیار دیگری استفاده کنم یا ... پیشنهاد شما چیست؟ با تشکر
چگونه می توانم مقادیر اطلاعات متقابل زیر را با هم مقایسه کنم؟
29714
من یک داده گسسته خام (منحنی) دارم. من باید روش هایی برای تشخیص ویژگی های هر منحنی پیدا کنم. برخی از ویژگی های نمونه: 1) رشد پایدار 2) رشد سریع 3) سقوط سریع 4) سقوط سریع 5) و به همین ترتیب در اینجا نمونه خوبی از این نوع منحنی ها وجود دارد (روسی): ![توضیح تصویر را اینجا وارد کنید](http://i .stack.imgur.com/OWefy.png) چگونه می توانم این کار را انجام دهم؟
آیا روش هایی برای تشخیص خودکار ویژگی های یک منحنی وجود دارد؟
71868
داده های من (پانل، 19 کشور، 7 سال، متغیر نتیجه ترتیبی) دارای اثرات درونی (کشورها در طول زمان)، بین تأثیرات (بین کشورها) است و به نظر می رسد که شیب خطوط (آزمون خطوط موازی) بین موارد مختلف متفاوت است. دسته بندی های نتیجه چگونه می توان مدل را در SPSS به درستی تخمین زد؟
کدام مدل برای داده هایی که دارای درون افکت، بین افکت ها و خطوط غیر موازی است
28045
ببخشید اگر عنوان گیج کننده است. اینجا زبان مادری نیست من یک مطالعه پیمایشی انجام دادم که دارای 15 سوال 7 درجه ای مقیاس لیکرت بود. هر سوال این است که از مردم بخواهید در مورد میزان خلاقیت یک شی در تصویر قضاوت کنند. من در کل 153 پاسخ دریافت کردم. چیزی که من سعی می کنم بفهمم این است که آیا افرادی که به این نظرسنجی پاسخ دادند قضاوت مشابهی با کارشناسان داشتند یا خیر. من 15 کارشناس دارم که همان نظرسنجی را تکمیل کردند و میانگین امتیاز را برای هر تصویر محاسبه کردند. برای 153 پاسخ (من این گروه را جمعیت می نامم)، میانگین امتیاز هر تصویر را نیز محاسبه کردم. در اینجا میانگین رتبه بندی داده های دو گروه (E-experts، C-crowd) E C 3.36 2.33 1.43 1.53 1.07 1.19 2.43 2.69 2.14 1.92 4.64 4.22 4.71 4.22 4.71 4.30 4.33 5.07 4.78 4.36 3.41 4.64 5.02 6.14 5.50 5.79 5.73 6.00 5.95 اولین سوال من در مورد داده ها این است که آیا دو گروه قضاوت مشابهی داشتند؟ آیا می توانم یک آزمون t ساده با مقایسه میانگین امتیاز 15 سوال انجام دهم و نتیجه را بگویم؟ دوم، از آنجایی که من نظرسنجی را برای طراحی اپلیکیشن انجام می دهم. در سیستم واقعی، برای هر تصویر، من می توانم انتظار داشته باشم که فقط 15-20 نفر به آن امتیاز دهند. بنابراین می‌خواهم بدانم که آیا 153 پاسخی که اکنون جمع‌آوری کردم، می‌گویند که قضاوت‌های مشابهی را انجام می‌دهند که آن کارشناسان (15=n) انجام می‌دهند، آیا می‌توانم بگویم که 15 نفر تصادفی نیز می‌توانند قضاوت مشابهی انجام دهند؟ چگونه می توانم بدانم که یک نمونه کوچک (یک نمونه فرعی) عملکردی مشابه یک نمونه بزرگ دارد؟ یکی از راه هایی که من به آن فکر می کنم این است که 15 نفر از 153 پاسخ را برای 10000 بار به صورت تصادفی انتخاب کنم و از میانگین رتبه بندی برای مقایسه با میانگین رتبه بندی 153 پاسخ استفاده کنم. اما مطمئن نیستم که آیا این روش درستی برای انجام آن است یا خیر. لطفاً اگر از زبان من گیج می شوید، اطلاعات بیشتری بخواهید.
چگونه می توانم بفهمم که یک نمونه فرعی کوچک تصادفی عملکرد خوبی دارد؟
114388
من تعجب می کنم که چگونه می توانم میانگین نمودار را با نوار خطا داده های جدول بندی شده متقاطع در بسته R خط بکشم. داده‌های من به این شکل به نظر می‌رسند که میانگین مرحله درمان شکن سبز صورتی قرمز در حال چرخش 0.06779080 0.1964575 0.010335260 0.005861540 0.05828315 FRM 0.1721165300.180.170.18 0.013183020 0.09467819 KNO3 0.24755945 0.2863050 0.007866763 0.002554247 0.06097948 LFR 0.08055945 0.080831258 0.000000000 0.07710268 نمک 0.38564291 0.4419331 0.050551620 0.001115087 0.14508939 انحراف استاندارد مرحله درمان انحراف استاندارد مرحله درمان 0.38564291 تبدیل به رنگ سبز صورتی01. 0.14157770 0.003498454 0.0037076134 0.032316651 FRM 0.02710538 0.03422274 0.017164023 0.0143484928 0.0143484928 K. 0.05372195 0.12865178 0.003552846 0.0006738978 0.001983925 LFR 0.04366554 0.05611974 0.0091801100 0.0091801000 0.029396442 نمک 0.03035888 0.12908778 0.028818513 0.0004681397 0.050566535
رسم نمودار خطی با نوار خطا در R از داده های جدول بندی شده متقاطع
28047
یک سازمان غیرانتفاعی اهداکنندگانی با تعهدات ماهانه دارد که می توانید آنها را به عنوان اشتراک در نظر بگیرید. **بهترین راه برای نشان دادن خریدهای جدید، لغو و رشد خالص برای هر ماه چیست؟ رابطه رشد خالص = خریدهای جدید - لغو است. زمان مشابه نمودار می تواند برای سود خالص (کسب و کار) یا درآمد خالص (مالی شخصی) مناسب باشد. اولین مشکل (و مهمتر) طراحی است: باید جذاب باشد و برای افراد غیر فنی به راحتی قابل درک باشد. طراحی واقعا پاسخ این سوال است. مشکل دوم، که در پاسخ لازم نیست، پیاده‌سازی است: من ترجیح می‌دهم این را در SAS، Excel، SharePoint یا برخی از کتابخانه‌های جاوا اسکریپت--- یا شاید R پیاده‌سازی کنم. یک داستان پشت نمودار این است که خریدهای جدید دارای امتیاز بالایی هستند نرخ لغو، بنابراین آنها هم کمک می کنند و هم به رشد خالص آسیب می رسانند. (با این حال، لغوها تشخیص نمی دهند که تعهد جدید بود یا قدیمی.) رئیس من این نمودار نمونه را ترسیم کرد: ![نمونه نمودار](http://i48.tinypic.com/2mq6w07.jpg) در اینجا یک طرح جدید با ایده ای از پست xan در این طرح، لغو به صورت ضمنی است، بنابراین من توانستم با حذف یک عنصر نمودار، آن را ساده کنم. ![طراحی 2](http://i.stack.imgur.com/iBG4n.png) این نمودار از گزارش اتحادیه اروپا مشابه است: واردات، صادرات و تراز تجاری را نشان می دهد. ![نسخه اتحادیه اروپا](https://learnr.files.wordpress.com/2009/09/export_import_graph5.png?w=600) نسخه نهایی من این است: ![نسخه رشد خالص 2](http:/ /i.stack.imgur.com/0AOfn.png)
روش موثر برای تجسم رشد / سود / درآمد خالص؟
95847
اجازه دهید $X$ یک توزیع پواسون با پارامتر $\lambda$ داشته باشد. برآوردگر حداکثر درستنمایی $\alpha=\mathbb P(X=0)$ را پیدا کنید. در یک نمونه با اندازه 100 از توزیع پواسون، مشخص شد که میانگین 0.75 است. یک فاصله اطمینان تقریبی 95٪ برای ${\alpha}$ را محاسبه کنید. برای MLE، ما می خواهیم $e^{-\lambda}$ را به حداکثر برسانیم، اما آیا این یک ثابت نیست؟ برای فاصله اطمینان، فکر می‌کنم بازه‌ای از شعاع $\frac{0.075}{0.075/100}$ باشد، اما کاملاً به یاد ندارم. چند سال از سطوح A...
برآوردگر حداکثر درستنمایی و فاصله اطمینان را محاسبه کنید
19850
من در تلاشم تا بفهمم که آیا رابطه ای بین 5 نرخ مختلف بازار سهام در یک دوره 5 ساله وجود دارد یا خیر. از سوی استاد راهنما به من توصیه شد که از ضریب همبستگی همخوانی استفاده کنم که متاسفانه مطالعه نکرده ام و مطمئن نیستم که چگونه باید ادامه دهم. همچنین به من توصیه شد که از Timeseries روی داده ها استفاده کنم. در حال حاضر من در حال مطالعه این نظریه از یک کتاب هستم، اما اگر کسی بتواند به من توصیه کند که چگونه باید ادامه دهم، سپاسگزار خواهم بود.
چگونه می توان با اعمال ضریب همبستگی تطابق بر روی داده های بازار سهام اقدام کرد؟
114380
من اطلاعاتی برای حدود 1800 پیام ایمیل دارم و در حال ساخت ابزاری در اکسل هستم که به تیم من امکان می‌دهد معیار را در لحظه ایجاد کند -- آنها می‌توانند ویژگی‌های مختلف یک پیام را انتخاب کنند (مثلاً اندازه مخاطب) و میانگین عملکرد پیام های مشابه گذشته من از COUNTIF برای نشان دادن میانگین تعداد پیام‌های مشابه استفاده می‌کنم، با این ایده که میانگین عملکرد یک یا دو پیام کمتر از پنج یا شش (یا بیشتر) قابل اعتماد است. من نمی‌دانم آیا روش معنی‌داری برای استفاده از انحراف معیار برای نشان دادن قابل اعتماد بودن نمونه‌ای که تولید کرده‌اند وجود دارد یا خیر. به عنوان مثال، آیا مقایسه انحراف معیار نرخ باز برای کل جمعیت با انحراف معیار نرخ باز برای نمونه مورد نظر آنها مفید است؟ (از آخرین کلاس آماری من چندین سال می گذرد، و من تازه شروع به جمع آوری این چیزها کردم.)
آیا مقایسه انحراف معیار روشی معتبر برای ارزیابی سودمندی یک نمونه است؟
95846
من از SVM برای طبقه بندی ویژگی هایم استفاده کردم. با اعتبارسنجی متقاطع، در مجموعه آزمایشی خود، دقت 81٪ را به دست آوردم. من می خواهم اندازه گیری کنم که این چقدر خوب / بد است. آیا اصطلاح فنی برای معنی آماری خوب/بد است؟ با SVM من پیش بینی می کنیم که یک بردار ویژگی 8 بعدی در 1 از 2 کلاس قرار دارد. من می خواستم از یک تست جایگشت برای یافتن مقدار p استفاده کنم، اما نمی دانم از چه چیزی برای آمار تست استفاده کنم. 1. از چه چیزی می توانم برای آمار آزمون استفاده کنم؟ 2. آیا این خط فکری اشتباه است؟ چه کار دیگری می توانم انجام دهم تا نشان دهم که 81٪ یک خط پایه خوب/بد است؟ با تشکر از همه کمک!
رایج ترین روش ارزیابی طبقه بندی کننده SVM
110010
من در واقع یک رگرسیون خطی را بدون وقفه «lm(y~ -1 + a + b + c + d )» انجام می‌دهم، که در آن «b»، «c» و «d» فاکتورهایی هستند. (می دانم که انجام آن بدون رهگیری معمولاً ایده خوبی نیست، اما برای مشکل من ضروری است) و در تعیین ضریب خود با R متوجه چیز عجیبی شدم: R تمام مقادیر ممکن b را تخمین می زند اما اینطور نیست. یک کنتراست مجموع! و اگر c را به عنوان اولین متغیر قرار دهم (که عددی نیست) این کار را برای c انجام می دهد اما دیگر برای b این کار را نمی کند؟ کسی میدونه از کجا میاد؟ آیا به این دلیل است که مدل من رهگیری ندارد؟ و آیا می توانم آن را بدون قرار دادن رهگیری در مدل خود تغییر دهم؟
Rlm بدون رهگیری کنتراست عجیب و غریب
1699
من در حال تلاش برای حل یک پرتفوی کارآمد در R هستم. چگونه می توانم محدودیت های خود را برای یک نقطه مماس برای 2 پرتفوی دارایی پرخطر، و یک نرخ بدون ریسک معین را به تابع Rsolve.QP ترجمه کنم؟ بنابراین اساساً من معادلات زیر را دارم: w = وزن اولین دارایی پرریسک R1 = میانگین بازده اولین دارایی پرخطر R2 = میانگین بازده دومین دارایی پرخطر sd1 = sdev اولین دارایی پرخطر sd2 = sdev دارایی پرخطر دوم corr = همبستگی بین دو دارایی پرخطر rf = نرخ بدون ریسک بازده پرتفوی، R = R2*(1-w)+R1*w برنامه نویس استاندارد نمونه کارها، SD = sqrt((sd1*w)^2+(sd2*(1-w))^2+2*w*(1-w)*corr*sd1*sd2) اکنون باید حداکثر کنم R-rf در حالی که SD را به حداقل می رساند (که شارپ من را به حداکثر می رساند). بگذارید سیگما ماتریس کوواریانس باشد. بنابراین تابع من برای کمینه کردن W^T*sigma*W است که در آن W بردار وزن است. اکنون به طور همزمان باید بازده اضافی (R-rf) و W^T*1=1 را به حداکثر برسانم. من نمی دانم چگونه آن را در تابع محدودیت ها بیان کنم. من در نحوه بیان این محدودیت ها همانطور که توسط http://pbil.univ-lyon1.fr/library/quadprog/html/solve.QP.html انتظار می رود، گیج شده ام. اگر شما همچنین می توانید به من یک مشتق حل شده از فرمول نهایی را اشاره کنید، مفید خواهد بود و همچنین من نمی توانم به فرمول نهایی برسم.
پورتفولیوی مماس در R
95267
هدف من خوشه‌بندی 126 سری زمانی مربوط به 26 هفته (بنابراین هر سری زمانی دارای 26 مشاهده است) با تقسیم‌بندی حول مدویدها. قبل از خوشه بندی، می خواستم مقایسه کنم که کدام اندازه گیری فاصله مناسب ترین است: تاب زمانی اقلیدسی یا پویا. من از هر فاصله برای خوشه بندی و مقایسه بر اساس نمودار شبح استفاده کردم. آیا راهی وجود دارد که بتوانم اندازه گیری های مختلف فاصله را مقایسه کنم؟ سوال اضافی: آیا آمار GAP برای تصمیم گیری برای انتخاب چند خوشه کافی است؟ یا باید تعداد خوشه ها را با روش های مختلف ارزیابی کنم یا دو یا سه روش را با هم مقایسه کنم؟ برای هر پیشنهادی ممنون خواهم بود.
چگونه اندازه‌های فاصله مختلف را در خوشه‌بندی سری‌های زمانی مقایسه کنیم؟
95269
سوال دقیق تر ![سوال](http://i.imgur.com/DVazCqR.png) من برای شروع پاسخ دادن به این سوال به نوعی مشکل دارم. رویکرد اولیه من به $g(x)= x^2$ خواهد بود زیرا این تابع محدب است و مقادیر مورد انتظار $(T-P)^2$ و $(S-P)^2$ را پیدا می کند. با این حال، من می ترسم که خیلی خاص باشد، زیرا سؤال می خواهد برای هر تابع محدب ثابت شود. آیا راهی برای اثبات کلی تر این موضوع وجود دارد؟
نشان دهید که $\mathbb{E}(g(T-p)) < \mathbb{E}(g(S-p))$ برای هر تابع محدب $g$ اگر $T$ و $S$ تخمینگر $p$ باشند
28044
هنگامی که من تجزیه و تحلیل خوشه ای را در SAS انجام می دهم، گزارش SAS گاهی هشداری شبیه به این را برمی گرداند: اخطار: پیوندها برای حداقل فاصله بین خوشه ها در 4 سطح در تاریخچه خوشه شناسایی شده است. بسته به روش های خوشه بندی (همه روش های خوشه بندی سلسله مراتبی) که انتخاب می کنم، تعداد پیوندها تغییر خواهد کرد. اما صرف نظر از روش ها، می خواهم بدانم آیا راه حلی برای این موضوع وجود دارد؟ یا نادیده گرفتن این امر درست است زیرا این موضوع از این واقعیت ناشی می شود که فاصله مقادیر واقعاً به یکدیگر نزدیک هستند؟
تجزیه و تحلیل خوشه ای با مسئله پیوندها
92814
من یک مجموعه داده با 90 مجموعه مختلف از اصطلاحات GO دارم (مثلاً یک مجموعه می‌تواند (GO:0014075، GO:0060742، GO:2001238، GO:0071478). من می‌خواهم همپوشانی بین همه این گروه ها برای نمایش همپوشانی بین بسیاری از گروه ها، نمی دانم من می توانم از یک نمودار ون استفاده کنم، اما این با یک گروه بزرگ از مقایسه ها کار نمی کند.
از چه نوع نمودارهایی می توان برای نشان دادن همپوشانی بین بسیاری از مجموعه ها استفاده کرد؟
108757
تعدادی از اقدامات منظم سازی در ادبیات موجود است که برای مبتدیان به نوعی گیج کننده است. پنالتی کلاسیک **ریج** توسط Hoerl & Kennard (1970, Technometrics 12, 55-67) است. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/uMQkC.png) یکی دیگر از اصلاحات در این مورد **lasso** توسط Tibshirani (1996, Journal of the Royal Statistical Society B 58, 267–288)، به این صورت تعریف شده است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Y5eY5.png) دیگری پنالتی **پنالتی خالص الاستیک** است (Zou and Hastie 2005, Journal of the Royal Statistical Society B 67, 301-320) که ترکیبی خطی از پنالتی کمند و پنالتی برجستگی است. بنابراین مجازات این هر دو را به عنوان موارد شدید پوشش می دهد. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/rnP5w.png) جریمه دیگری که می توانم پیدا کنم ** پنالتی پل** است که در Frank & Friedman (1993, Technometrics 35, 109) معرفی شد. -148). جایی که λ ̃ = (λ، γ). این ویژگی یک پارامتر تنظیم اضافی γ را دارد که درجه ترجیح بردار ضریب تخمینی را برای همسویی با جهت‌های محور داده اصلی و در نتیجه استاندارد شده در فضای رگرسیور کنترل می‌کند. این شامل جریمه کمند (γ = 1) و جریمه رج (γ = 2) به عنوان موارد خاص است. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/KHdyi.png) سوال من این است: **_آیا ترجیحاتی در مورد نوع مجازات برای استفاده وجود دارد - چیزی از کتاب های درسی آماری یا خارج از آن_* *؟ یا این فقط آزمون و خطا است؟ لطفا به زبان عامی توضیح دهید.
چگونه تصمیم بگیریم که از کدام مجازات استفاده کنیم؟ هر دستورالعمل کلی یا قانون شست خارج از کتاب درسی
108750
من با مجموعه داده ای مانند زیر کار می کنم: _X_ = c1 c2 c3 c4 c5 y a c f h j 0 a d f i k 0 a c g h j 1 a c f h k 0 b d g h k 0 b e f h j 0 من سعی می کنم یک مدل رگرسیون لجستیک ایجاد کنم که بتواند «مدل رگرسیون لجستیک» را پیش بینی کند ( 0 یا 1) بر اساس ویژگی های _X_. اطلاعات در مورد _X_: مقادیر «c1»–«c5» همه فاکتورها هستند. ویژگی‌ها دارای تعداد سطوح متفاوتی هستند (مثلاً «c1»: 2 سطح، «c2»: 4 سطح، «c3»: 3 سطح، و غیره) تقریباً 10٪ از «y» 1 است. من سعی کردم از SVM استفاده کنم و GLM بدون هیچ نتیجه خوبی. مدل <- svm(y ~ .، داده = X) pred <- پیش بینی (مدل، X) جدول (pred,X$y) y pred FALSE TRUE FALSE 1332 113 TRUE 0 0 و مدل <- glm(y ~ ., family=binomial(logit), data=X) pred <- predict(model, X, type=response) جدول (pred,X$y) pred FALSE TRUE 4.2260288377431e-08 2 0 4.24333100181876e-08 1 0 ... 0.706714407238236 1 1 0.72921'm کارکرده ویژگی‌هایی با مقادیر پیوسته هنگام ایجاد یک مدل پیش‌بینی، اما من واقعاً نمی‌دانم چگونه با فاکتورها با مشکل مقابله کنم. دوستان برای این نوع مشکلات چه چیزی را پیشنهاد می کنید؟ تغییر از رگرسیون لجستیک به چیز دیگری یا استفاده از توابع دیگر به جز GLM و SVM؟
رگرسیون لجستیک با ویژگی های چند طبقه در R
28040
فرض کنید نمونه ای از اعداد بزرگ دارید و می خواهید مقداری توزیع پیوسته را به این اعداد تطبیق دهید. شما مقداری توزیع دریافت خواهید کرد که به طور کلی بسیار لکه دار است، به عنوان مثال. ضریب مقیاس بزرگی دارد. برای اهداف عددی این ممکن است بسیار ناخوشایند باشد. حالا چه اتفاقی می‌افتد اگر داده‌ها را مجدداً مقیاس کند و سپس توزیع را متناسب کند؟ در مورد توزیع های متغیر مقیاس نباید تفاوتی وجود داشته باشد. شما فقط توزیع را دوباره مقیاس کنید. در مورد توزیع هایی که ثابت مقیاس نیستند چطور؟ به طور شهودی، می‌توانم بگویم که مقیاس‌بندی و سپس جا افتادن آن خطرناک است. اگر به عنوان مثال محاسبه کنید، ممکن است یک خطای جدی معرفی کنید. یک کمیت از توزیع حاصل. بنابراین چگونه می توان با چنین داده های عظیمی برخورد کرد - آیا مقیاس بندی نامطلوب است؟
مقیاس بندی داده های عظیم و تخمین توزیع
8505
رگرسیون پواسون یک GLM با تابع log-link است. یک راه جایگزین برای مدل‌سازی داده‌های تعداد غیرعادی توزیع‌شده، پیش‌پردازش با گرفتن گزارش (یا بهتر است بگوییم، log(1+count) برای رسیدگی به 0ها است). اگر رگرسیون حداقل مربعات را در پاسخ های شمارش log انجام دهید، آیا این به رگرسیون پواسون مربوط می شود؟ آیا می تواند پدیده های مشابه را مدیریت کند؟
رگرسیون پواسون در مقابل رگرسیون حداقل مربعات log-count?
95844
با توجه به قاب داده زیر: df <- data.frame(x1 = c(26, 28, 19, 27, 23, 31, 22, 1, 2, 1, 1, 1), x2 = c(5, 5, 7، 5، 7، 4، 2، 0، 0، 0، 0، 1)، x3 = c(8، 6، 5، 7، 5، 9، 5، 1، 0، 1، 0، 1)، x4 = c(8، 5، 3، 8، 1، 3، 4، 0، 0، 1، 0، 0)، x5 = c(1، 1، 1، 1، 1، 0، 1، 0، 0، 0، 0، 0)، x6 = c(2، 3، 1، 0، 1، 1، 3، 37، 49، 39، 28، 30)) به طوری که > df x1 x2 x3 x4 x5 x6 1 26 5 8 8 1 2 2 28 5 6 5 1 3 3 19 7 5 3 1 1 4 27 5 7 8 1 0 5 23 7 5 1 1 1 6 31 4 9 3 0 1 7 22 2 5 4 1 3 8 1 0 1 0 0 37 9 2 0 0 0 0 49 10 1 0 1 1 0 39 11 0 1 0 1 1 1 0 0 30 من می خواهم این 12 فرد را با استفاده از خوشه های سلسله مراتبی و با استفاده از همبستگی به عنوان اندازه گیری فاصله گروه بندی کنم. بنابراین این کاری است که من انجام دادم: clus <- hcluster(df, method = 'corr') و این نمودار 'clus' است: ![dendogram](http://i.stack.imgur.com/ALfbr.png ) این «df» در واقع یکی از 69 موردی است که من در حال انجام تجزیه و تحلیل خوشه ای بر روی آن هستم. برای رسیدن به یک نقطه برش، به چندین دندوگرام نگاه کردم و با پارامتر «h» در «cutree» بازی کردم تا زمانی که از نتیجه‌ای که برای اکثر موارد منطقی بود راضی شدم. این عدد k = 0.5 بود. بنابراین این گروه بندی است که ما بعداً به آن رسیدیم: > data.frame(df, cluster = cutree(clus, h = 0.5)) x1 x2 x3 x4 x5 x6 cluster 1 26 5 8 8 1 2 1 2 28 5 6 5 1 3 1 3 19 7 5 3 1 1 1 4 27 5 7 8 1 0 1 5 23 7 5 1 1 1 1 6 31 4 9 3 0 1 1 7 22 2 5 4 1 3 1 8 1 0 1 0 0 37 2 9 2 0 0 0 0 1 0 49 1 0 39 2 11 1 0 0 0 0 28 2 12 1 1 1 0 0 30 2 با این حال، من در تفسیر قطع 5. در این مورد مشکل دارم. من نگاهی به اینترنت انداختم، از جمله صفحات راهنما «?hcluster»، «?hclust» و «?cutree»، اما بدون موفقیت. دورترین کاری که من برای درک فرآیند انجام دادم این است: ابتدا، نگاهی به نحوه ادغام می‌اندازم: > clus$merge [,1] [,2] [1,] -9 -11 [2 ,] -8 -10 [3،] 1 2 [4،] -12 3 [5،] -1 -4 [6،] -3 -5 [7،] -2 -7 [8،] -6 7 [9,] 5 8 [10,] 6 9 [11,] 4 10 یعنی همه چیز با پیوستن به مشاهدات 9 و 11 شروع شد، سپس مشاهدات 8 و 10، سپس مراحل 1 و 2 (یعنی پیوستن به 9، 11، 8 و 10) و غیره. خواندن در مورد مقدار «ادغام» «hcluster» به درک ماتریس بالا کمک می کند. اکنون به ارتفاع هر پله نگاهی می اندازیم: > clus$height [1] 1.284794e-05 3.423587e-04 7.856873e-04 1.107160e-03 3.186764e-03 6.4633286e-03 6.463587e-05. 1.539053e-02 3.060367e-02 6.125852e-02 1.381041e+00 > clus$height > 0.5 [1] FALSE FALSE FALSE FALSE FALSE FALSE FALSE FALSE FALSE که فقط در مرحله FALSE متوقف می شود. قد بالاخره میره بالاتر از 0.5 (همانطور که Dendogram قبلاً اشاره کرده بود، BTW). حالا سوال من اینجاست: **ارتفاعات را چگونه تفسیر کنم؟** آیا باقیمانده ضریب همبستگی است (لطفا سکته قلبی نکنید)؟ من می توانم ارتفاع مرحله اول (پیوستن به مشاهدات 9 و 11) را به این صورت بازتولید کنم: > 1 - cor(as.numeric(df[9, ])، as.numeric(df[11, ])) [1] 1.284794e-05 و همچنین برای مرحله زیر که به مشاهدات 8 و 10 می پیوندد: > 1 - cor(as.numeric(df[8, ]), as.numeric(df[10, ])) [1] 0.0003423587 اما مرحله بعدی شامل پیوستن به آن 4 مشاهدات است، و من نمی دانم: 1. روش صحیح محاسبه ارتفاع این پله 2. معنای واقعی هر یک از آن ارتفاعات چیست.
نحوه تفسیر ارتفاع دندروگرام برای خوشه بندی با همبستگی
104206
ما همه 10000 متخصص را در یک صنعت خاص مورد بررسی قرار دادیم. این صنعت به شدت تحت نظارت است، بنابراین ما اطلاعات تماس با همه افراد مورد علاقه خود را داریم. ما سعی کردیم با 100 درصد جمعیت تماس بگیریم. ما اکنون یک مجموعه داده حاوی 2000 پاسخ داریم، زیرا 20٪ از جمعیت ما با تکمیل نظرسنجی موافقت کردند. هنگام اجرای این نظرسنجی، هیچ گونه احتمال نمونه گیری وجود نداشت و اصلاً خوشه بندی نبود. زمانی که بر اساس ایالت محل سکونت تقسیم می شود، تغییرات زیادی در نرخ پاسخ وجود دارد. از آنجایی که تنوع حالت در این صنعت مهم است، ما قصد داریم وزن‌های این مجموعه داده‌های نهایی را محاسبه کنیم تا هر آماری که اجرا می‌کنیم به‌جای 20 درصدی که پاسخ دادند، به کل جمعیت تعمیم یابد. من معتقدم که وزن ها باید به عنوان وزن های پس از طبقه بندی در نظر گرفته شوند، اما مطمئن نیستم. من تصور نمی‌کنم که این مجموعه داده‌های بسیار پیچیده‌ای برای تجزیه و تحلیل باشد، اما مطمئن نیستم که آیا این یک نوع مورد خاص است -- به هیچ‌وجه نمونه‌برداری را شامل نمی‌شود، اما در عین حال کل جهان نیست. . من از هر گونه راهنمایی کدگذاری (به هر زبان آماری) برای توصیه تنظیم تجزیه و تحلیل نظرسنجی که برای داده‌های این ساختار منطقی‌تر است، قدردانی می‌کنم. اگر بخواهم حدس بزنم، این کد R است که از آن استفاده خواهم کرد: # با مجموعه داده «x» شروع کنید و یک ستون پنج اضافه کنید، زیرا 20٪ پاسخ دادند x$wgt <- 5 # به همه افراد در مجموعه داده ها وزن پنج را بدهید. # فقط یک ستون 5 تایی برای دستور 'svydesign' ارائه دهید y <- svydesign( ~ 1 , data = x , weights = ~ wgt ) # یک جدول با مفصل مورد نظر ایجاد کنید توزیع، در اینجا فقط با دو حالت مثال pop.types <- data.frame( state = c( state 1 , state 2 , Freq = c( 5000 , 5000 ) ) # ایجاد طرح بررسی پس از طبقه بندی z <- postStratify(y, ~ state, pop.types) # از اجرای آمار و فواصل اطمینان لذت ببرید svymean(~ variable.to.analyze, z) confint( svymean(~ variable.to.analyze, z)) ucla یک آموزش پس از طبقه بندی در stata دارد که باعث می شود فکر کنم ممکن است ساخت خط svyset مانند این هوشمندتر باشد - gen total_pop = 10000 ژن pststr_wgt = . جایگزین pststr_wgt = 5000 if state == state 1:state جایگزین pststr_wgt = 5000 if state == state 2:state svyset _n , fpc( total_pop ) poststrata( state ) postweight( pststr_wgt ) با تشکر!!
توصیه هایی برای تجزیه و تحلیل یک نظرسنجی از کل قاب نمونه با نرخ پاسخ 20٪
104209
برای برازش ضرایب $f(x_1, x_2) = a + b x_1\log x_2$ باید از کدام الگوریتم رگرسیون استفاده کنم؟ آیا رگرسیون خطی با متغیر مستقل $x_1 \log x_2$ کار خواهد کرد؟
مدل رگرسیون برای $f(x_1، x_2) = a + b x_1\log x_2$
26781
من سعی می کنم الگوریتمی را بفهمم که مناطق مشابه یک تصویر را با استفاده از PCA شناسایی می کند. الگوریتم اساساً تصویر را به بلوک های مربعی همپوشانی تقسیم می کند و سپس PCA را با هر بلوک به عنوان یک بعد انجام می دهد. در مرحله بعد، یک نوع واژگانی از اجزای اصلی را انجام می دهد تا بلوک های مشابه را نزدیک به یکدیگر مرتب کند. در نهایت مناطق مشابه بر اساس فاصله در لیست و چند اندازه گیری دیگر انتخاب می شوند. بخش PCA الگوریتم به شرح زیر است: > تصویری با بلوک‌های همپوشانی از پیکسل‌های $b$ ($\sqrt{b} \times > \sqrt{b}$ پیکسل در اندازه) کاشی‌کاری شده است، که هر کدام فرض می‌شود. به طور قابل توجهی > کوچکتر از اندازه مناطق تکراری قابل شناسایی باشد. اجازه دهید $ \vec > x_i,i=1,...,N_b,$ این بلوک‌ها را به صورت برداری شده نشان دهد، جایی که > $N_b=\left(\sqrt{N}-\sqrt{b}+1 \right)^ 2 دلار ما اکنون یک نمایش جایگزین از این بلوک ها را بر اساس تجزیه و تحلیل مؤلفه اصلی > (PCA) در نظر می گیریم[15]. فرض کنید بلوک‌های $\vec x_i$ میانگین صفر هستند، و محاسبه > ماتریس کوواریانس به صورت: \begin{equation*} \tag{1.1} C = \sum_{i=1}^{N_b} > \vec x_i \vec x_i^T \end{معادله*} بردارهای ویژه متعامد،$\vec > e_j$،از ماتریس $C$، با مقادیر ویژه مربوطه، $\lambda_j$، > رضایت بخش: \begin{equation*} \tag{1.2} C \vec e_j = \lambda_j \vec e_j، > \end{معادله*} اصل را تعریف می‌کند. اجزاء، که در آن $j=1،\dots،b$ و $ > \lambda_1 \geq \lambda_2 \geq \cdots \geq \lambda_b$. بردارهای ویژه، > $\vec e_j$، یک پایه خطی جدید برای هر بلوک تصویر تشکیل می دهند، $\vec x_i$: > \begin{equation*} \tag{1.3} \vec x_i = \sum_{j=1}^ b a_j \vec e_j، > \end{معادله*} که در آن $a_j = \vec x_i^T \vec e_j$، و $\vec a_i = \left(a_i > \dots a_b \right)$ نمایش جدیدی برای هر بلوک تصویر است. ابعاد این نمایش را می توان با کوتاه کردن مجموع معادله (1.3) به اولین عبارات $N_t$ کاهش داد. توجه داشته باشید که نمایش > بر روی اولین بردارهای ویژه $N_t$ از مبنای PCA بهترین تقریب > $N_t$-بعدی را به معنای حداقل مربعات به دست می دهد، اگر توزیع > بردارها، $\vec x_i$، چند برابر باشد. گاوسی بعدی > [15]. بنابراین، این نمایش ابعاد کاهش‌یافته، فضایی مناسب برای شناسایی بلوک‌های مشابه در حضور نویزهای مخرب فراهم می‌کند، زیرا برش پایه، تغییرات جزئی را حذف می‌کند. من ترجمه الگوریتم را به MATLAB/Octave کامل کرده ام اما به نظر نمی رسد که درست کار کند. در زیر تصویر آزمایشی من با تصویری از داده ها به صورت برداری و نتایج PCA است. در اینجا $N_b = 225$ و $ b=4$. در جدول PCA تمام ردیف های باقی مانده 0 یا -1 هستند. ![تصویر آزمایشی.](http://i.stack.imgur.com/LGF49.gif) (لطفاً تصویر آزمایشی را در سمت چپ دانلود کنید. فقط دو بلوک یکسان هستند.) ![داده های ورودی.](http:// i.stack.imgur.com/G05rI.png) ![نتایج PCA.](http://i.stack.imgur.com/n4wGK.png) چیزی که من نمی فهمم این است چگونه یک مرتب سازی واژگانی در داده های PCA شباهت را نشان می دهد. انتظار من این بود که ردیف 1 و 4 در خروجی PCA یکسان باشند و PCA به من اجازه دهد تا ستون های بالاتر را برای افزایش تطابق حذف کنم. مشابه روشی که تبدیل کسینوس گسسته اطلاعات «مهم» را به تعداد کمتری از مقادیر مجموعه داده منتقل می‌کند. من تأیید کرده‌ام که الگوریتم PCA من بیشتر با دستور «princomp()» MATLAB مطابقت دارد (نشانه‌ها متفاوت است) بنابراین نباید بفهمم PCA چه چیزی به من می‌گوید. سوال من این است که چگونه یک مرتب سازی بر روی نتایج PCA شباهت خود را نشان می دهد؟ این تجزیه و تحلیل اجزای اصلی همه را پاک می کند. bSide = 2; % اندازه ضلع یک بلوک %Read B&W image chanData = imread('./randS.gif'); %تنظیم مقادیر ورودی [imageWidth,imageHeight] = size(chanData); tic(); %محاسبه ثابت های مشتق شده N = imageHeight * imageWidth; b = bSide^2; Nb = (sqrt(N) - sqrt(b) + 1)^2; printf(ET:%d - ,toc()); printf(ثوابت مشتق تمام شده: N:%d b:%d Nb:%d\n,N,b,Nb); ٪ مجموعه ای از مشاهدات M متغیر X = صفر (b,Nb); %نمایش بلوک تصویر ورودی u = صفر (b,Nb)؛ %Temp برای ضرایب محاسبه میانگین صفر = صفر (Nb,2); % مختصات بلوک در این مکان %ماتریس ما را ایجاد کنید که داده های ابعاد %X = صفر ([Nb,b]); %b ستون بر اساس ردیف Nb %پر کردن ماتریس ابعاد iWidth = imageWidth - bSide + 1; ردیف = 1; ستون = 1; برای i = 1:Nb %Setup local variables Xtemp = zeros(1,b); ٪ هر بلوک به ستونی از ردیف های bSide برای j = 1 تبدیل می شود: bSide پایین ترX = (j - 1)*bSide + 1; Xtemp(lowerX:lowerX+(bSide-1)) = chanData(ردیف+(j-1)، ستون:ستون+(bSide-1)); پایان %این بردار را به عنوان یک ستون به آرایه اضافه کنید X(:,i) = Xtemp; حالا یک بردار میانگین بسازید u(i) = mean(X(:,i)); مختصات این بلوک را در یک ماتریس دو ستونی ذخیره کنید. coords(i,1) = row; coords(i,2) = ستون; اگر ستون == ردیف iWidth = ro، شاخص های ماتریس منبع ما را به روز کنید
استفاده از PCA برای شناسایی مناطق مشابه در یک تصویر
49773
من مجموعه عظیمی (حدود 100000) سری زمانی دارم. من باید بین 5 تا 10 سری زمانی را نشان دهم که به صورت نیمه تصادفی در یک نمودار انتخاب شده اند. اندازه نمودار بسیار محدود است - طرح برای هر سری زمانی فقط 100 پیکسل در 800 پیکسل است. نمی توان پیش بینی کرد کدام سری زمانی با هم نمایش داده می شوند - آنها باید به طور مستقل طرح شوند. دامنه همه متغیرها بسیار متفاوت است: برای یک سری زمانی می تواند بین 0-3000 و برای سری دیگر 0 تا 50 باشد. محدوده کلی همه متغیرها 0-60000 است. من می‌خواهم از نمودارهای افق استفاده کنم: http://timelyportfolio.blogspot.com/2012/08/more-on-horizon-charts.html، اما اگر با استفاده از 4 باند طرح‌هایی بسازم، تقریباً تمام سری‌های زمانی مسطح به نظر می‌رسند. اگر من با استفاده از 32 باند رسم کنم - نمودارها از نمودارهای افق به نمودارهای نقشه حرارتی تغییر می کنند. آیا این ایده خوبی است که محدوده باندها یکنواخت نباشد؟ یعنی باند اول: 0-100، دوم: 100-1000 سوم: 1000-5000، چهارم: 5000-60000.
چگونه طرح های خوب برای سری های زمانی متعدد طراحی کنیم؟
28041
برخی از افراد در حال انجام یک بازی آنلاین هستند. هر بار که شخصی بازی می کند، یک صفحه بازی جدید به صورت تصادفی تولید می شود. در نسل هیئت مدیره جدید، بازیکن همچنین می تواند یک سلاح ویژه را انتخاب کند. (انتخاب سلاح روی تولید تخته تأثیر نمی گذارد.) با گذشت زمان، داده های مشاهده شده به این صورت است: بازیکن اسلحه برد 3 5 0 # بازیکن 3 از سلاح 5 استفاده کرد و 4 2 1 # بازیکن 4 از سلاح 2 استفاده کرد و 8 1 1 برد بازیکن # 8 از هیچ سلاحی استفاده نکرد و برنده شد برای اینکه بفهمم آیا برخی از بازیکنان با برخی سلاح‌ها بهتر هستند و برخی دیگر با سلاح‌های دیگر، این را به عنوان تدارکات بیزی مدل‌سازی کرده‌ام. رگرسیون: $logit(Pr(Win=1)) = \alpha_{p,w}$\alpha_{p,w} \sim N(\mu_{w},\sigma^2)$ بنابراین، $\mu_w $ اثر سلاح $w$ در همه بازیکنان است و $\alpha_{p,w}$ اثر بازیکن $p$ با سلاح $w$ است. از آنجایی که این یک مدل بیزی است، قبلی برای $\alpha_{p,w}$ $\mu_w$ است، بنابراین در تئوری، می‌توانم $\alpha_{p,w}$ را برای همه ترکیب‌های $p$ و $ تخمین بزنم. w$ حتی اگر برخی از بازیکنان هرگز از برخی سلاح ها استفاده نکنند. (به عنوان مثال، JAGS این کار را با حلقه های تو در تو روی بازیکنان و سلاح ها انجام می دهد.) اما آیا این ایده بدی است؟ همچنین آیا نام خاصی برای این نوع مدل وجود دارد؟ P.S. لطفاً اگر می توانید عنوان و برچسب ها را ویرایش کنید.
مزایا و معایب تخمین پارامترها برای مشاهدات از دست رفته؟
104208
چگونه محاسبه IDF را انجام دهم؟ من مطمئن نیستم که آیا IDF باید در سطح هر کلاس محاسبه شود یا برای کل مجموعه اسناد (که شامل چندین کلاس است).
چگونه محاسبه IDF را انجام دهم؟
28042
من می‌خواهم نمودارهای غیر چرخه‌ای جهت‌دار تصادفی متصل را تولید کنم، و نمی‌خواهم راهی برای پر کردن یک ماتریس مجاورت در R وجود داشته باشد که نشان‌دهنده موارد فوق‌الذکر باشد. چیزی شبیه به این خوب خواهد بود (که با Mathematica انجام می شود): http://mathematica.stackexchange.com/q/608 با تشکر.
ماتریس مجاورت تصادفی در R
93147
من یک مطالعه قدیمی را تکرار می‌کنم و دو مجموعه از برآوردهای موجود دارم که اثر مشابهی را اندازه‌گیری می‌کنند، یعنی وجود یک آیتم مورد مطالعه در حافظه در طول زمان: a <-c(.42، 0.31، 0.26، 0.11، 0.02، 0.001، 0.001، 0.001، 0.1) b <-c(.17، 0.14، 0.03، 0.025، 0.06، 0.08، 0.06، 0.06، 0.08) هر دو سری تخمین ها بر اساس داده های بسیار مشابه هستند، اما به نظر می رسد تخمین ها پس از مرحله اولیه شباهت، به شدت از یکدیگر منحرف می شوند. نویسندگان اصلی این موضوع را به اثرات کف و تفاوت‌های مربوط به پردازش نسبت می‌دهند. من می خواهم آن اثرات را در مدل خود تخمین بزنم زیرا به نظر می رسد در آنجا مشکلات زیادی ایجاد می کنند. در مدل من (استنتاج بیزی)، a و b با استفاده از یک ساختار رگرسیونی تخمین زده می‌شوند، به عنوان مثال: $$ a \sim dnorm(\mu_a, \tau_a)\\\ \mu_a \leftarrow \lambda_a t^{-\beta} \\\ \tau_a \sim dgamma(0.1،0.001)\\\ \beta \sim dbeta(0,4)\\\ \lambda_a \sim dunif(0,1)\\\ $$ جایی که $t$ زمان است. در نتیجه اثرات عجیب در برآوردهای بالا، تخمین $\beta$ آسیب می بیند و منحنی های حاصل آنقدر که من انتظار دارم با داده ها مطابقت ندارند. آیا می توان با افزودن پارامتری که افکت کف را رمزگذاری می کند، این مشکل را برطرف کرد: $$ \mu_a \leftarrow \lambda_a t^{-\beta} + f\\\ f \sim dbeta(0,1) $$ Where $ f$ پارامتر اثر کف است. آیا منطقی است که این پارامتر را فقط به شرایطی اضافه کنیم که اثر کف رخ می دهد؟ یا بهتر است آن را به همه شرایط اضافه کنیم؟
اثرات کف در برآورد بیزی، آیا می توانم مجددا پارامتر کنم؟
95848
اجازه دهید $X_1,...,X_n$ یک نمونه تصادفی از توزیع نرمال تا شده با چگالی باشد... $f(x)= \sqrt{\dfrac{2}{\pi}} \theta^{-1 } e^{(-x^{2} \theta^{-2})/2}$ برای $x>0$ و $\theta>0$، 0 در غیر این صورت. سوال می‌پرسد... UMP را برای اندازه آزمایش $\alpha$ برای $H_0:\theta = \theta_0$ در مقابل $H_0:\theta > \theta_0$ پیدا کنید. منطقه بحرانی را برای مقدار تعیین کنید. بنابراین نسبت احتمال برابر است... $$\dfrac{L(f(x,\theta_1))}{L(f(x,\theta_0))}= \bigg(\dfrac{\theta_1}{\theta_0} \bigg)^{-n} exp\bigg[{\sum{x^{2}_{i}}\frac{\theta_{0}^{-2}-\theta_{1}^{-2}}{2}} \bigg] $$ ما می دانیم که UMP وجود دارد زیرا تابع در $\sum x_{i}^{2}= T(x)$ در حال کاهش است. بنابراین اگر $T(x)<k$، عدد تهی را رد می کنیم. من در مورد چگونگی پیدا کردن $k$ مطمئن نیستم زیرا نمی دانم چگونه توزیع $T(x)$ را پیدا کنم. هر گونه ایده در این مورد بسیار قدردانی خواهد شد.
UMP از Folded Normal، یافتن مقدار بحرانی
95261
من تابع زیر را برای محاسبه آنتروپی اجرا کردم: از گزارش واردات ریاضی def calc_entropy(probs): my_sum = 0 برای p در probs: اگر p > 0: my_sum += p * log(p, 2) return - my_sum نتیجه: >> > calc_entropy ([1/7.0، 1/7.0، 5/7.0]) 1.1488348542809168 >>> از scipy.stats آنتروپی # را با استفاده از بسته داخلی وارد کنید # همان پاسخ را بدهید >>> آنتروپی([1/7.0, 1/7.0, 5/7.0], base=2) 1.148834854280916 درک من این بود آنتروپی بین 0 و 1 است، 0 به معنای بسیار قطعی است، و 1 به معنی بسیار نامشخص است. چرا اندازه آنتروپی را بیشتر از 1 می گیرم؟ من می دانم که اگر اندازه پایه log را افزایش دهم، اندازه گیری آنتروپی کوچکتر می شود، اما فکر می کردم پایه 2 استاندارد است، بنابراین فکر نمی کنم مشکل این باشد. من باید یک چیز واضح را از دست بدهم، اما چه چیزی؟
چرا آنتروپی اطلاعات بیشتر از 1 است؟
104882
**نظرات:** ابتدا می‌خواهم از نویسنده بسته جدید tsoutliers تشکر کنم که تشخیص پرت سری زمانی چن و لیو را اجرا می‌کند که در مجله انجمن آماری آمریکا در سال 1993 در نرم‌افزار متن باز منتشر شد. $ R$. این بسته 5 نوع مختلف پرت را به صورت تکراری در داده های سری زمانی شناسایی می کند: 1. Outlier افزایشی (AO) 2. Outlier نوآوری (IO) 3. Level Shift (LS) 4. تغییر موقت (TC) 5. Seasonal Level Shift (SLS) چیزی که حتی عالی‌تر است این است که این بسته auto.arima را از بسته پیش‌بینی پیاده‌سازی می‌کند، بنابراین تشخیص نقاط پرت بدون درز است. همچنین این بسته نمودارهای خوبی برای درک بهتر داده های سری زمانی تولید می کند. **سوالات من در زیر آمده است:** من سعی کردم چند نمونه را با استفاده از این بسته اجرا کنم و عالی کار کرد. نقاط پرت افزایشی و تغییر سطح بصری هستند. با این حال، من 2 سوال در مورد ارائه تغییرات پرت موقت و نوآورانه داشتم که قادر به درک آنها نیستم. نمونه تغییر موقت Outlier: مثال زیر را در نظر بگیرید: library(tsoutliers) library(expsmooth) library(fma) outlier.chicken <- tsoutliers::tso(chicken,types = c(AO,LS,TC) ,maxit.iloop=10) outlier.chicken plot(outlier.chicken) برنامه به درستی یک سطح را تشخیص می دهد شیفت و تغییر موقت در مکان زیر. موارد پرت: نوع ind time coefhat tstat 1 LS 12 1935 37.14 3.153 2 TC 20 1943 36.38 3.350 در زیر طرح و سؤالات من آمده است. * چگونه تغییر موقت را در قالب معادله بنویسیم؟ (تغییر سطح را می توان به راحتی به عنوان یک متغیر باینری نوشت، در هر زمان قبل از 1935/Obs 12 0 است و هر زمان بعد از 1935 و بعد از آن 1 است.) معادله تغییر موقت در کتابچه راهنمای بسته و مقاله به صورت : $$ L ارائه شده است. (B) = \frac{1} {1-\delta B} $$ که $\delta$ 0.7 است. من فقط در تلاش هستم که این را به مثال بالا ترجمه کنم. * سوال دوم من در مورد پرت نوآوری است، من تا به حال در عمل به نقطه پرت نوآوری برخورد نکرده ام. هر مثال عددی یا نمونه موردی بسیار مفید خواهد بود. ![outliers](http://i.stack.imgur.com/xxJ3H.png) **ویرایش:** @Irishstat، تابع tsoutliers در شناسایی نقاط پرت و پیشنهاد یک مدل ARIMA مناسب کار بسیار خوبی انجام می دهد. با نگاهی به مجموعه داده نیل، کاربرد auto.arima را در زیر ببینید و سپس اعمال tsoutliers (با پیش‌فرض‌هایی که شامل auto.arima است): سری auto.arima(Nile): Nile ARIMA(1،1،1) ضرایب: ar1 ma1 0.2544 - 0.8741 s.e. 0.1194 0.0605 sigma^2 تخمین زده شده به عنوان 19769: log likelihood=-630.63 AIC=1267.25 AICc=1267.51 BIC=1275.04 پس از اعمال تابع tsoutliers، A Outlier LS، Outlier0، 0 را توصیه می کند. nile.outliers <- tsoutliers(Nile,types = c(AO,LS,TC)) nile.outliers سری: Nile ARIMA(0,0,0) با میانگین غیر صفر ضرایب: intercept LS29 AO43 1097.7500 -242.2289 -399.5211 s.e. 22.6783 26.7793 120.8446 sigma^2 تخمین زده شده به عنوان 14401: احتمال ورود به سیستم=-620.65 AIC=1249.29 AICc=1249.71 BIC=1259.71 نقاط پرت: نوع ind time 11LS coefhat 29 -29 tstat. -9.045 2 AO 43 1913 -399.5 -3.306 ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/NMq9k.jpg)
تشخیص نقاط پرت در سری زمانی (LS/AO/TC) با استفاده از بسته tsoutliers در R. چگونه نقاط پرت را در قالب معادله نشان دهیم؟
61061
من سعی می کنم بهترین راه را برای آزمایش دقت یک مدل پیش بینی برای نتیجه بازی بین دو تیم تصادفی بیابم. این مدل برای هر بازی شانسی را ارائه می دهد که تیم A برنده می شود (شانس برنده شدن). من تقریباً 3500 نمونه جمع آوری کرده ام که شانس برنده شدن را با نتیجه واقعی مقایسه می کند. به عنوان یک معیار خام، شانس برنده شدن را به سطل هایی با افزایش 5٪ ​​(یا بزرگتر در جایی که اندازه نمونه کوچک بود) تقسیم کردم. در هر سطل، میانگین شانس برد را با درصد بازی‌های برنده شده مقایسه کردم. در اینجا نحوه سازماندهی داده‌های خود تا کنون: ![https://lh4.googleusercontent.com/-vOIredJFWq8/Ua- AABHJYPI/AAAAAAAAMg/DjZHtjaoYbA/w887-h737-no/XVMv-5.jpg](http://i .stack.imgur.com/BTrlV.jpg) * براکت یکسان است به عنوان bin * کم-بالا محدوده شانس برد برای هر سطل است، به عنوان مثال 20٪ تا 24٪ شانس تیم A برنده شود، و غیره * بازی تعداد نقاط داده یا نمونه در هر سطل است * تساوی باخت نتایج احتمالی هر نمونه است. من عمدتاً روی بردها تمرکز می‌کنم * % برد من نتایج مشاهده شده از نمونه‌ها در هر سطل است * XVM پیش‌بینی‌شده میانگین شانس برد همه نقاط داده در هر سطل است. در نگاه اول می‌توانم بگویم کاملاً دقیق است، با این حال می‌خواهم روش یا مقادیر مشخصی داشته باشم تا نشان دهم چقدر دقیق است. من حدس می‌زنم که شکستن آن در سطل‌ها تقریباً مانند تنظیم فواصل اطمینان (معتبر؟) باشد. دیگر چگونه به این موضوع نزدیک شویم؟
چگونه دقت یک مدل پیش بینی را آزمایش کنیم؟
60087
آیا انجام چندین رگرسیون لجستیک باینری به جای انجام یک رگرسیون چندجمله ای امکان پذیر است؟ از این سوال: رگرسیون لجستیک چند جمله ای در مقابل رگرسیون لجستیک باینری من می بینم که رگرسیون چند جمله ای ممکن است خطاهای استاندارد کمتری داشته باشد. با این حال، بسته ای که من می خواهم از آن استفاده کنم به رگرسیون چند جمله ای تعمیم داده نشده است (ncvreg: http://cran.r-project.org/web/packages/ncvreg/ncvreg.pdf) و بنابراین می خواستم بدانم که آیا من می تواند به سادگی چندین رگرسیون لجستیک باینری را به جای آن انجام دهد.
چندین رگرسیون لجستیک در مقابل رگرسیون چند جمله ای
114385
اخیراً در حال یادگیری عمیق یادگیری هستم و بین اصطلاحات (یا مثلاً فناوری ها) سردرگم شده ام. تفاوت بین شبکه عصبی کانولوشن (CNN)، ماشین‌های محدود بولتزمن (RBM) و رمزگذارهای خودکار چیست؟ برای من Auto-Encoder و CNN خیلی شبیه هستند؟؟؟
تفاوت بین CNN، RBM، و رمزگذار خودکار چیست؟
92817
**هدف:** بهترین توزیع را برای ستون های یک مجموعه داده (30 هزار رکورد) قرار دهید تا بتوانم به تولید داده های آزمایشی که در توزیع مشابه هستند ادامه دهم. **کاری که تاکنون انجام داده‌ام:** با استفاده از R، تابع MASS 'fitdistr' را پیدا کرده و پیاده‌سازی کرده‌ام و کد نوشته شده است که تعدادی از توزیع‌ها را بررسی می‌کند و احتمال ورود به سیستم را برمی‌گرداند. **مشکل:** من احتمال log را دارم، و فکر می کنم که باید بزرگترین احتمال ورود به سیستم را به عنوان نشانه ای از بهترین تناسب انتخاب کنم. با این حال، مطمئن نیستم که آیا این تفسیر درستی از مستندات است و/یا اینکه آیا باید بیشتر از این پیش بروم، مثلاً با محاسبه AIC یا BIC و استفاده از آنها. آیا کسی می‌تواند راهنمایی‌هایی در مورد نحوه تفسیر شکل احتمال ورود به سیستم و (در صورت لزوم) تجزیه و تحلیل بیشتر برای انتخاب صحیح بهترین توزیع ارائه دهد؟ col distn loglik bestfit 1: colA normal -163390.570 2: colA t -163383.684 yes 3: colA weibull -165727.706 4: colB normal -111180.070 5: colB t -163383.684 -109978.545 بله 7: colC نرمال -339501.693 8: colC t -334629.199 بله 9: colC وایبول -335920.848 10: colD نرمال -291132.858 11: 2890D -2490D weibull -287746.432 بله 13: colE نرمال -6609.996 14: colE t -6610.760 15: colE weibull 781.283 بله
نحوه تفسیر خروجی های log-likelihood از MASS::fitdistr (R)
104201
**پیشینه طرح های دو مرحله ای** در کارآزمایی های بالینی، ما اغلب به نرخ پاسخ $p$ برای یک درمان تجربی علاقه مندیم. در یک کارآزمایی معمولی، ممکن است $n$ بیمار را در معرض درمان قرار دهیم و تعداد کل پاسخ‌های $X$ را مشاهده کنیم تا فرضیه صفر $H_0: p \leq p_0$ را در برابر یک جایگزین یک‌طرفه $H_1: p آزمایش کنیم. > p_0$، که در آن $p_0$ می تواند نرخ پاسخ برای یک درمان استاندارد مراقبت باشد. به منظور محدود کردن مواجهه بیمار با یک درمان ناکارآمد، طرح‌های دو مرحله‌ای محبوب هستند: در مرحله اول، $n_1$ بیمار درمان می‌شوند و تعداد پاسخ‌ها $X_1$ مشاهده می‌شود. اگر $r_1$ یا کمتر پاسخ داده شود، آزمایش به پایان می رسد. اگر $X_1 > r_1$، مرحله دوم انجام می شود: بیماران اضافی ثبت نام می شوند تا زمانی که در مجموع $n$ بیمار تحت درمان قرار گیرند، و تعداد کل پاسخ ها $X$ مشاهده می شود. اگر بیش از $r$ کل پاسخ ها وجود داشته باشد، فرضیه صفر رد می شود. در غیر این صورت، باطل رد نمی شود و درمان جدید بی اثر تلقی می شود (یا حداقل برتر از استاندارد مراقبت نیست). پارامترهای $n_1، r_1، n، $ و $r$ توسط محقق قبل از انجام مطالعه انتخاب می‌شوند. **مشکل** هنگام کار بر روی طراحی چنین مطالعه ای، به پدیده ای برخورد کردم که دوست دارم آن را بهتر درک کنم. به طور شهودی به نظر می رسد که افزایش برش $r_1$ باید خطای نوع 1 تست را کاهش دهد. ممکن است دلیل این باشد که برای مقادیر بزرگتر $r_1$، احتمال کمتری دارد که مطالعه به مرحله دوم پیش برود، و بنابراین احتمال کمتری وجود دارد که فرد در نهایت عدد صفر را رد کند. با این حال، به نظر می رسد که همیشه اینطور نیست. برای مثال، با پارامترهای $n_1 = 20، n = 30، r = 25،$ و $p_0 = 0.6$، خطای نوع 1 را برای $r = 10$ یکسان (حداکثر 9 رقم) یافتم. برای $r = 15$ (من $\alpha = 0.001510074$ دریافت کردم). در واقع، من برای همه مقادیر $r_1 \leq 15$ یک عدد را دریافت می کنم. کد من را در زیر ببینید. **سوال من** بنابراین سوال من این است که آیا تغییر مقدار $r_1$ در برخی موارد بر خطای نوع 1 تاثیر نمی گذارد؟ آیا می توانید به من کمک کنید شهودم را اصلاح کنم تا بفهمم چرا این درست است؟ **کد** در اینجا یک تابع سریع برای محاسبه خطای نوع 1 (و همچنین قدرت، برای یک جایگزین معین، و اندازه نمونه مورد انتظار) برای طرح های دو مرحله ای نوشته ام. ##### تابعی برای محاسبه خطای نوع 1، توان و اندازه نمونه مورد انتظار برای طراحی دو مرحله ای #####. پارامترهای p0 و p1 به ترتیب نرخ پاسخ زیر ##### null و جایگزین هستند. twoStage = تابع(n، n1، r1، r، p0، p1){ # خطای نوع 1 = P(رد H0 | p = p0) # = P(X1 > r1 && X > r | p = p0)] n2 = n - n1 x1 = (r1 + 1): n1 آلفا = مجموع (dbinom(x1، n1، p0)*(1 - pbinom(r-x1، n2، p0))) # توان = P (رد H0 | p = p1) # = P(X1 > r1 && X > r | p = p1)] # مانند بالا، اما با p = توان p1 = مجموع (dbinom(x1، n1، p1)*(1 - pbinom(r-x1، n2، p1))) # تعداد مورد انتظار ثبت‌نام تحت H0 انتظار می رود.n = n1 + (1 - pbinom(r1، n1، p0))*n2 بازگشت (cbind(n = n، n1 = n1، r1 = r1، r = r، p0 = p0، p1 = p1، آلفا = آلفا، قدرت = قدرت، انتظار می‌رود.n = انتظار می‌رود.n)) } ##### مثال: > twoStage(n=30, n1=20، r1=5، r=25، p0=0.6، p1=0.85)[alpha] آلفا 0.001510074 > twoStage(n=30، n1=20، r1=10، r=25، p0=0.6 ، p1=0.85)[alpha] آلفا 0.001510074
خطای نوع 1 طراحی دو مرحله ای
82335
من با autoKrige و Gstat کار می کنم. می خواستم بدونم که آیا می توان به دو مدل مختلف مانند Exp with Gau اضافه کرد؟ > می دانم اگر چیزی شبیه به این قرار دهم > kriging_result<-autoKrige(z~1,data,grid,model=Sph,fix.values ​​= > c(0,NA,NA)) برنامه از آن مدل استفاده می کند برای تناسب با واریوگرام، اما چگونه می توانم دو مدل را > ترکیب کنم؟ > > از طرف دیگر، در gstat می دانم که اگر از fit.variogram استفاده کنم، variogram به صورت خودکار > fit است، اما اگر از چیزی شبیه این g1<-vgm(60000,Sph,1500,0, > add.to = استفاده کنم. vgm(3000، Exp، 60، nugget = 0)) fit<-fit.variogram(vario,vg1, > fit.sills = TRUE، fit.ranges = TRUE، fit.method = 7، debug.level = 1، > warn.if.neg = FALSE ) کار نمی کند بنابراین، چگونه می توانم این کار را انجام دهم؟ ممنون > برای کمک
Automap یا Gstat سوال در مورد نحوه مناسب کردن واریوگرام
51370
داگلاس آلتمن در کتاب آمار عملی عالی برای تحقیقات پزشکی در صفحه 235 می نویسد: «از آنجایی که خطای استانداردی که برای محاسبه فاصله اطمینان استفاده می شود با خطای مورد استفاده در آزمون فرضیه متفاوت است، گاهی اوقات ممکن است اتفاق بیفتد[...] که فاصله اطمینان مقدار را حذف کند. در فرضیه صفر مشخص می شود زمانی که فرضیه نتیجه غیر قابل توجهی می دهد_ آیا کسی می تواند نظر دهد که چرا SE در آزمون فرضیه نسبت به ساخت فواصل اطمینان و کدام فرمول در هر مورد مناسب است؟
خطای استاندارد مورد استفاده در آزمون فرضیه و ساخت فاصله اطمینان
110260
من می خواهم میانگین یک جامعه را تخمین بزنم و بهترین برآوردگر را با حداقل واریانس میانگین تخمین زده انتخاب کنم. فرض کنید من دو برآوردگر est1 و est2 دارم و آنها می‌توانند به هر نوع طراحی نمونه‌گیری مانند نمونه‌گیری تصادفی ساده، نمونه‌گیری طبقه‌ای، نمونه‌برداری احتمال نابرابر و غیره اشاره کنند. 1) میانگین نمونه $\hat{\mu}$ را از نمونه اصلی محاسبه کنید 2) یک شبیه سازی بوت استرپینگ انجام دهید (Nboots=1000) نمونه برداری مجدد از نمونه های اصلی با جایگزینی. برای هر نمونه شبیه سازی شده، میانگین نمونه $\hat{\mu}_{i}$ و همچنین فاصله اطمینان 95% را با استفاده از هر یک از برآوردگرهای $\hat{\mu}_{i}+/-1.96\ محاسبه کنید. بار \sigma_{i}^{k}$، که $\sigma_{i}^{k}$ به واریانس تخمینی میانگین با استفاده از نمونه i و تخمین‌گر k اشاره دارد. (k=1,2). 3) کران پایین (LB)، کران بالاتر (HB) و فاصله اطمینان واقعی (CI) را برای هر برآوردگر محاسبه کنید. LB برای برآوردگر 1 به صورت زیر تعریف می شود: $\frac{\text{تعداد اجراهایی که}\ \hat{\mu}>\hat{\mu}_{i}-1.96\times \sigma_{i}^{ 1}}{Nboots}$ UB برای برآوردگر 1 به صورت زیر تعریف می‌شود: $\frac{\text{تعداد اجراهایی که}\ \hat{\mu}<\hat{\mu}_{i}+1.96\times \sigma_{i}^{1}}{Nboots}$ CI واقعی برای برآوردگر 1 به صورت زیر تعریف می‌شود: $\frac{\ متن{تعداد اجراهایی که}\ \hat{\mu}_{i}-1.96\times \sigma_{i}^{1}<\hat{\mu}<\hat{\mu}_{i}+1.96\times \sigma_{i}^{1}}{Nboots}$ 4) برآوردگر با سپس یک LB، HB و CI بزرگتر به عنوان بهترین برآوردگر انتخاب می شود. سوالات من عبارتند از: 1) آیا کسی می تواند نظریه یا مرجعی در مورد استفاده از این روش برای مقایسه برآوردگرها به من ارائه دهد؟ 2) در صورتی که یکی از برآوردگرهای من برآوردگر بوت استرپینگ باشد، آیا به این معنی است که برای هر نمونه شبیه سازی شده بوت استرپینگ $i$، باید دوباره شبیه سازی بوت استرپینگ را انجام دهم تا $\sigma_{i}^{\text{ را تخمین بزنم. بوت استرپ}}$؟ با تشکر
استفاده از شبیه سازی بوت استرپینگ برای مقایسه برآوردگرها در نظرسنجی
82337
فرض کنید یک مدل مقطعی ساده دارید $$ y=\alpha + \beta T +\epsilon $$ که در آن $T$ باینری است. این اساساً یک آزمون t است، اما اجازه می‌دهیم با آن مانند یک رگرسیون رفتار کنیم. شما به تأثیر $T$ در لحظه اول و دوم نتیجه علاقه دارید. (شاید GLS یا IRLS را نیز انجام داده باشید، اگرچه سوال من باید متعامد با آن انتخاب باشد.) ممکن است مدلی مانند $$ g(\hat\epsilon^2) = \alpha +\delta T + \eta $ را انتخاب کنید. $ اگر فرض کنید که $\epsilon = \hat\epsilon$، تخمین شما از $\delta$ خوب است (یا به اندازه برآورد شما از میانگین مدل). اما $\hat\epsilon$ فقط به اندازه تخمین های مدل میانگین است که ممکن است بسیار نامشخص باشد. آیا راه های استانداردی برای مقابله با این موضوع وجود دارد؟ من اقتصاد سنجی سری های زمانی را به طور عمیق مطالعه نکرده ام، اما با نگاهی به تعاریف ARCH/GARCH/و غیره این تصور را دریافت نمی کنم که عدم قطعیت در باقیمانده ها هنگام تلاش برای تخمین اثر متغیرهای مستقل بر واریانس در نظر گرفته می شود. از نتیجه من می توانم نمونه برداری از بردار پارامتر چند متغیره با توزیع نرمال را تصور کنم تا تخمین های زیادی از مدل میانگین بدست آوریم و مدل واریانس را بارها برازش کنم. اما پس چگونه عدم قطعیت در باقیمانده ها را با عدم قطعیت در ضرایب مدل واریانس در هر تکرار ترکیب می کنید؟ شاید شما آن را مانند یک مشکل انتساب چندگانه، در نظر گرفتن باقیمانده ها به عنوان داده های گم شده در نظر بگیرید؟ اما به هر حال کل این رویکرد از نظر محاسباتی بسیار فشرده خواهد بود. ویرایش: و اگر شما IRLS را انجام دهید و سپس در هر تکرار IRLS این کار را انجام دهید، به خصوص از نظر محاسباتی فشرده خواهد بود. پیشنهادات برای کار قبلی در این مورد بسیار قدردانی خواهد شد.
ناهمگونی/واریانس شرطی و عدم قطعیت در باقیمانده های تخمین زده شده
25359
تاو کندال یک معیار ارتباطی بین دو متغیر تصادفی است، مثلاً $X$ و $Y$. اگر $X$ و $Y$ مستقل باشند، آنگاه $\tau = 0$. با این حال، $\tau = 0$ به معنای استقلال نیست زیرا تائو کندال فقط ارتباط یکنواخت را نشان می دهد. آیا شرایطی وجود دارد که تحت آن هم ارزی وجود داشته باشد؟ _ویرایش برای حساب نظر @Cardinal_ بگویید که $X > 0$ و $Y > 0$.
تاو و استقلال کندال
110261
من یک داده تجزیه و تحلیل نظرسنجی دارم که پاسخ هایی در رابطه با رضایت مصرف کننده دارد (در مقیاس 1 تا 5) و سعی می کنم یک مدل رگرسیون خطی را برای آن برازش دهم. طبق درک من، فرض اساسی برای رگرسیون خطی این است که متغیرهای مستقل نباید همبستگی معناداری را نشان دهند. اما در مورد من، از آنجایی که پاسخ‌ها توسط افراد (هوموساپین‌ها) پر می‌شوند، پاسخ‌ها همبستگی‌هایی را در یک دسته و در بین دسته‌ها (غذا، تسهیلات و غیره) نشان می‌دهند. آیا این باعث نگرانی است؟ آیا می توانم همچنان ادامه دهم و رگرسیون خطی را اعمال کنم یا باید پاسخ های همبسته را ترکیب کنم؟ همچنین اگر بخواهم پاسخ ها را ترکیب کنم، چگونه باید این کار را انجام دهم؟ من مجبور شدم بر اساس یک کارت امتیازی در پاسخ ها (متغیرهای مستقل و وابسته) تغییراتی ایجاد کنم: عالی 100 خیلی خوب 90 خوب 75 خوب 25 ضعیف 0 دو رویکرد در ذهن دارم: 1. می توانم یک رگرسیون خطی بر اساس کارت امتیازی اجرا کنم. 2. من پاسخ های متغیر وابسته خود را به عنوان عالی، بسیار خوب، خوب، منصفانه، ضعیف نگه می دارم، پاسخ ها را به متغیرهای مستقل را با توجه به کارت امتیازی و اعمال یک رگرسیون لجستیک ترتیبی می‌توانید به من کمک کنید تا مناسب‌ترین رویکرد را انتخاب کنم. با تشکر
رگرسیون در تحلیل پیمایشی
92810
من کمی در مورد پیوند رکورد مطالعه کرده ام، اما به نظر من یک الزام این است که همه فیلدهای هر دو منبع قابل مقایسه باشند. برای مثال، با منابع A و B، یک فرض این است که می‌توانیم یک اندازه گیری «مقایسه‌کننده» در همه زمینه‌های آنها ایجاد کنیم. بنابراین برای مثال هر دو A و B ممکن است شامل نام و نام خانوادگی، مکان و غیره باشند و ما آنها را با اندازه‌گیری فاصله رشته، فاصله جغرافیایی و غیره مقایسه می‌کنیم. اما اگر اینطور نباشد چه؟ یعنی اگر A و B برخی از فیلدها را به اشتراک بگذارند، اما نه همه فیلدها؟ اگر این فیلدهای به اشتراک گذاشته نشده اطلاعاتی در مورد مطابقت داشتن هر دو رکورد ارائه دهند چه؟ برای مثال، منبع A ممکن است شامل «هزینه‌های خانوار» باشد، و B ممکن است شامل متغیرهای «تعداد فرزندان» یا «وضعیت مدنی» باشد. آیا ایجاد فاصله سنج برای مقایسه اینها ضروری است؟ چرا نباید آنها را جداگانه استفاده کرد؟
هنگامی که منابع دارای فیلدهای مختلف هستند، پیوند را ضبط کنید
51377
من موفق به تخمین پریودوگرام داده‌های نمونه‌گیری ناهموار با استفاده از روش Lomb-Scargle شدم. با تجزیه و تحلیل دامنه فرکانس، فیلتر کردن یک باند فرکانس و سپس اعمال IFFT و دریافت سیگنال فیلتر شده جالب خواهد بود (البته این سیگنال به طور یکنواخت و کاملاً متفاوت از سیگنال اصلی است). روش Lomb-Scargle این روش را نمی دهد. آیا رویکرد مشترکی وجود دارد؟ آیا من اینجا چیزی را از دست داده ام؟ متشکرم
داده‌های نمونه‌گیری ناهموار و روش Lomb-Scargle
60089
من در حال خواندن این مقاله بودم که در آن ذکر شده است اجازه دهید F(·) CDF یک متغیر تصادفی پیوسته X باشد و $\phi^{−1}(·)$ معکوس CDF N(0,1) باشد. تبدیل X به Z را با Z = $\phi^{−1}(F(X))$ در نظر بگیرید. سپس به راحتی می توان دریافت که Z بدون توجه به F، نرمال است. $\phi^{−1}(F(X))$ در اینجا چه چیزی را نشان می دهد. من کمی گیج هستم. توضیحات بچه ها به من کمک می کند؟
سردرگمی مربوط به یک مشتق در مقاله مربوط به گاوسی
64501
من دو مدل خطی با ماتریس‌های مدل مرتبط به شرح زیر در نظر می‌گیرم: \begin{معادله*} \text{Model} \ 1 \\\ \begin{bmatrix} \mu_1 \\\ \mu_2 \\\ \vdots \\\ \ mu_n \end{bmatrix} = \begin{bmatrix} 1 & x_{12} & x_{13} \\\ 1 & x_{22} & x_{23} \\\ \vdots & \vdots & \vdots \\\ 1 & x_{n2} & x_{n3} \end{bmatrix} \begin{bmatrix} \beta_0 \\\ \ beta_1 \\\ \beta_2 \\\ \end{bmatrix}. = \begin{bmatrix} 1 & cx_{12} + x_{13} & x_{13} \\\ 1 & cx_{22} + x_{23}& x_{23} \\\ \vdots & \vdots & \vdots \\\ 1 & cx_{n2} + x_{n3} & x_{n3} \end{bmatrix} \ شروع{bmatrix} \beta^*_0 \\\ \beta^*_1 \\\ \beta^*_2 \\\ \end{bmatrix} . \end{معادله*} $$y\sim N(\mu,I_n \sigma^2)$$ تحت چه شرایطی $\frac{\hat\beta_1}{\hat\sigma_{\beta_1}} = \frac است {\hat\beta^*_1}{\hat\sigma_{\beta^*_1}}$ و چگونه می توان آن را ثابت کرد؟
رابطه بین برآوردها در 2 مدل خطی
104203
اولاً، من قدردانی می کنم که بحث در مورد $r^2$ به طور کلی توضیحاتی را در مورد $R^2$ (یعنی ضریب تعیین در رگرسیون) برانگیخته است. مشکلی که من به دنبال پاسخ آن هستم تعمیم آن به تمام موارد همبستگی بین دو متغیر است. بنابراین، مدت زیادی است که در مورد واریانس مشترک متحیر بودم. من چند توضیح ارائه کرده ام اما همه آنها مشکل ساز به نظر می رسند: 1. این فقط یک اصطلاح دیگر برای کوواریانس است. این مورد نمی تواند باشد، زیرا ادبیات تحلیل عاملی بین PCA و EFA با بیان اینکه دومی واریانس مشترک را به حساب می آورد و اولی اینطور نیست (PCA بدیهی است که کوواریانس را حسابداری می کند از این جهت که بر روی یک ماتریس کوواریانس عمل می کند، بنابراین مشترک است. واریانس باید یک مفهوم متمایز باشد). 2. ضریب همبستگی مجذور ($r^2$) است. ببینید: * http://www.philender.com/courses/linearmodels/notes1/var1.html، یا * http://www.strath.ac.uk/aer/materials/4dataanalysisineducationalresearch/unit6/correlationcoefficient/ حس بیشتر مشکل در اینجا تفسیر _how است که به معنای واریانس مشترک است. برای مثال، یکی از تفسیرهای «اشتراک واریانس» ${\rm cov}(A,B)/[{\rm var}(A)+{\rm var}(B)]$ است. $r^2$ به آن کاهش نمی‌یابد، یا در واقع یک مفهوم کاملاً شهودی [${\rm cov}(A,B)^2/({\rm var}(A)\times{\rm var}( ب))$; که یک شی 4 بعدی است]. پیوندهای بالا هر دو سعی می کنند آن را از طریق نمودار Ballentine توضیح دهند. آنها کمک نمی کنند. اولا، دایره ها به یک اندازه هستند (که به دلایلی برای تصویر مهم به نظر می رسد)، که واریانس های نابرابر را در نظر نمی گیرد. می توان فرض کرد که نمودارهای بالنتین برای متغیرهای استاندارد شده است، بنابراین واریانس برابر است، در این صورت بخش همپوشانی برای کوواریانس بین دو متغیر استاندارد شده (همبستگی) محاسبه می شود. بنابراین $r$، نه $r^2$. **TL;DR:** توضیحات واریانس مشترک این را می گوید: > با مجذور کردن ضریب، می دانید که دو متغیر چه مقدار واریانس را بر حسب درصد > به اشتراک می گذارند. چرا چنین می شود؟
چرا $r^2$ بین دو متغیر نشان دهنده نسبت واریانس مشترک است؟
93144
من در مورد استفاده از nnetar سردرگم هستم. تمام داده های سری زمانی آموزش من اعداد مثبت هستند، اما نتایج پیش بینی به دست آمده از nnetar اعداد منفی را برمی گرداند. کد زیر myts من است <- ts(data, freq = 5) fit <- nnetar(myts) fcast <- forecast(fit, h = 100) با این حال، اگر من فقط مدت زمان کوتاهی را پیش بینی کنم، به عنوان مثال، h = 10 یا 20. مقادیر برگشتی مثبت هستند. آیا من کار اشتباهی انجام دادم؟ متشکرم.
nnetar مقادیر پیش بینی منفی را برمی گرداند
61067
اجازه دهید $P$ یک توزیع ناشناخته در $(-\infty,\infty)$ باشد. اجازه دهید $X_1,\ldots,X_n$ یک نمونه iid از $P$ باشد. اجازه دهید $c_1,\ldots,c_n\in(-\infty,\infty)$ مجموعه‌ای از ثابت‌ها باشد. ما $Y_1،\ldots،Y_n$ را مشاهده می کنیم، که در آن $Y_i = 1(X_i <c_i)$ است. (یعنی $Y_i=1$ اگر $X_i<c_i$ باشد و در غیر این صورت $0$ است.) من به دنبال برآوردگرهای معقول توزیع $P$ هستم. و منظور من از معقول چیست؟ برای سادگی فرض کنید که $P$ روی [0,1] پشتیبانی می‌شود و $c_i$ یک نمونه iid از Uniform[0,1] است. $P$ احتمالا اتم دارد، اما اگر پاسخ‌های بیشتری را دعوت کند، می‌توانیم آن را نادیده بگیریم. اگر با احتمال $1$ بیش از انتخاب $c_i$، $\hat{P}_n$ در توزیع به $P$ همگرا شود، $\hat{P}_n$ را تخمین‌گر معقول $P$ بنامید. . توجه: ما در واقع می توانیم $c_i$ را به عنوان نقاط طراحی که می تواند توسط آزمایشگر انتخاب شود در نظر بگیریم. به نظر می رسد که این یک موضوع جداگانه است، و من نمی خواهم این سوال را پیچیده کنم. اما اگر برآوردگر دارید که به مجموعه خاصی از $c_i$ نیاز دارد، این نیز خوب است.
تخمین توزیع از مشاهدات بالا/پایین
64505
آیا قوانینی برای محاسبه میانگین درصد وجود دارد یا مانند محاسبه هر میانگین دیگر است (یعنی همه درصدها را با هم جمع کنید و بر حجم نمونه تقسیم کنید)؟
محاسبه میانگین درصدها
25353
من یک مدل خوب از زمان تا سکته مغزی را با استفاده از یک پیش‌بینی‌کننده خطر سکته مغزی (امتیاز خطر فرامینگهام) با مفروضات cox ph ساخته‌ام. این امتیاز بر اساس سن، جنسیت، فشار خون کنترل شده / کنترل نشده، عوامل خطر قلبی عروقی را شامل می شود و می توانید در اینجا مشاهده کنید: http://www.framinghamheartstudy.org/risk/index.html من فرض کرده ام که یک پیش بینی کننده زمان خواهد بود. برای رویداد در جمعیت من با این حال، سن را شامل می شود، در واقع 85٪ +/-3٪ با سن همبستگی دارد. بنابراین سوال من این است: چگونه می توانم به طور موثر ارزیابی کنم که آیا این یک پیش بینی کننده _ بهتر از سن به تنهایی است یا خیر. (اگر اینطور نباشد از نظر بالینی تقریباً بی فایده است) شهود من این بوده است که سن را به تنهایی و سپس امتیاز فرامینگهام را به تنهایی در مدل با پیش بینی کننده های کنترل کننده وارد کنم و سپس AIC را بین این دو تناسب مقایسه کنم و یکی را انتخاب کنم که AIC را بیشتر تغییر می دهد - در مقایسه با مدلی که فقط پیش‌بینی‌کننده‌های کنترلی در آن وجود دارد. آیا این به طور کلی راه حل خوبی برای این موضوع است؟ یا صرفاً اشتباه است.
نحوه انتخاب بهترین از بین دو پیش بینی کننده بسیار همبسته در رگرسیون خطرات متناسب کاکس
110266
من سعی می کنم یک فیلتر مشارکتی برای توصیه محصولات به مشتریان در صنعت مد انجام دهم. من از رویکرد معمول KNN برای ایجاد شباهت بین محصولات استفاده می کنم. من افرادی را دیده‌ام که قبل از انتخاب فیلتر مشارکتی از SVD (تجزیه ارزش واحد) استفاده می‌کردند، اما به نظر می‌رسید که همه آن‌ها با پیش‌بینی نقدهای فیلم سر و کار داشتند. من می‌خواهم بدانم که آیا در مورد من، استفاده از SVD(svd() در R) قبل از فیلتر مشترک مناسب است یا نه، آیا باید مقادیر صفر/فقدان را با مقادیر غیرصفر جایگزین کنم. نکته دوم با این ایده است که SVD معمولی در هنگام برخورد با داده های پراکنده چندان مفید نیست.
آیا همیشه قبل از انجام KNN باید svd انجام داد؟
10900
من باید اعداد تصادفی را برای الگوریتم خود بر اساس توزیع های احتمال تولید کنم. من توزیعی می‌خواهم که دارای دم‌های سنگین و بدون اریب باشد، که بتواند اعدادی دور از پارامتر مکان تولید کند. باید پارامتری برای کنترل سنگینی دم وجود داشته باشد (مثلاً مانند توزیع لوی که آلفا سنگینی دم را تعیین می کند). من توزیع t (برای درجات آزادی کمتر) و توزیع لاپلاس را به عنوان دو احتمال شناسایی کرده‌ام. * آیا دلایلی وجود دارد که t یا laplace را برای هدفم ترجیح دهم؟ * به غیر از توزیع t و توزیع لاپلاس، آیا توزیعی به جز cauchy یا levy وجود دارد که برای هدف من مفید باشد؟
توزیع های دم بلند برای تولید اعداد تصادفی با پارامترهایی برای کنترل سنگینی دم
61069
پیشینه: مقاله _this_ را در مورد هک روز در مورد ادعای تقلب در مقیاس بزرگ در آزمون ISC خواندم. _this_ را به عنوان منبع می دهد. این یکی از تصاویر این سایت است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/TXLKZ.png) هک یک روز در مورد ماهیت تقلب گمانه زنی می خواهد که داده ها نشان می دهد. ** چالش من این است: توزیع واقعی (غیر تقلب) را از این نتیجه دستکاری شده تعیین کنید و پاسخ خود را با استفاده قوی و مناسب از آمار توجیه کنید.**
آزمون ISC - تقلب یا نه
93146
من سعی می کنم اندازه مجموعه داده خود را که از 200000 پروژه تشکیل شده است، کاهش دهم. هر پروژه با اندازه و مقدار باینری آن تعریف می شود که اگر پروژه دارای کاربران فعال باشد 1 و در غیر این صورت 0 است. اکثر اندازه های پروژه کمتر از 1000 (80٪ از مجموعه داده) هستند. من می خواهم پروژه ها را گروه بندی کنم و برای هر گروه تعداد پروژه های دارای کاربران فعال را می شمارم. من مطمئن نیستم که چگونه این پروژه ها را گروه بندی کنم. به ویژه، آیا بهتر است پروژه ها را به دسته هایی با فواصل مساوی (0-500، 501-1000، 1001-1500، ...) یا به دسته هایی با تعداد پروژه های مشابه (در نتیجه، من نابرابر خواهم داشت) گروه بندی کنیم. فواصل مانند 0-10، 11-15، 16-40، 41-100، 101-120، ...)؟
مقوله های با اندازه مساوی در مقابل دسته های با اندازه نابرابر
10904
مزایا و معایب یادگیری در مورد ویژگی های توزیع به صورت الگوریتمی (از طریق شبیه سازی کامپیوتری) در مقابل ریاضی چیست؟ به نظر می رسد شبیه سازی های کامپیوتری می تواند یک روش یادگیری جایگزین باشد، به ویژه برای آن دسته از دانش آموزانی که تازه وارد هستند که در حساب دیفرانسیل و انتگرال احساس قدرت نمی کنند. همچنین به نظر می‌رسد که شبیه‌سازی‌های کدگذاری می‌توانند درک زودتر و شهودی‌تری از مفهوم توزیع ارائه دهند.
مزایا و معایب یادگیری در مورد توزیع به صورت الگوریتمی (شبیه سازی) در مقابل ریاضی چیست؟
10907
من داده هایی با خطای استاندارد دارم که در زیر برای وضوح گنجانده شده است، X Y Error در Y 0.0105574 -28.831027 0.04422 0.0070382 -27.800385 0.04225 0.0052787 -27.3020204088 -27.054207 0.04185 0.0035191 -27.000188 0.04143 0.0030164 -26.891275 0.04108 من پارامترهای **a** و **b** را از رگرسیون رگرسیون به دست آوردم از رگرسیون **a** و **b** با استفاده از حداقل وزن b***x +** از عبارت **y داده ها ( _fit_ در gnuplot). رگرسیون چیزی را که «خطای استاندارد مجانبی» نامیده می‌شد مرتبط با این پارامترها را برگرداند. من معتقدم این خطا با استفاده از انحراف از نقطه برازش به نقاط واقعی محاسبه شده است (معادله 34/35 در اینجا) و برای ارزیابی کیفیت برازش استفاده می شود. با این حال، این خطای مورد علاقه من نیست. من به دنبال تعیین مقدار نقطه داده در X=0.0 از تابع برازش _با خطای استاندارد_ مانند مقادیر دیگرم هستم. خروجی رگرسیون این بود: مجموعه نهایی پارامترها خطای استاندارد مجانبی a = -19389.1 +/- 752 (3.878%) b = -26.7951 +/- 0.03915 (0.1461%) بنابراین، برای اینکه کاملاً مشخص باشیم، **چگونه می توانم خطای استاندارد را در نقطه (X,Y)=(0.0, -26.7951) با استفاده از عملکرد مناسب من **؟ من انتظار دارم که خطا در این نقطه محاسبه شده بسیار بزرگتر از خطاهای مقادیر گزارش شده در مقادیر Y جدول من باشد. من می توانم ببینم که چگونه gnuplot ابزار مناسبی برای این کار نیست، زیرا تنها با استفاده از خطای استاندارد در ورودی من، نقاط داده من را وزن می کند. کاری که من باید انجام دهم این است که خطا را در نقاط داده اصلی خود منتشر کنم تا خطا در خط رگرسیون به دست آید. این یک تمرین بسیار ابتدایی به نظر می رسد، برای ناآگاهی آماری من متاسفم. با تشکر
به دست آوردن خطای استاندارد در نقطه داده به دست آمده از رگرسیون خطی