_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
109538 | لطفاً از من حمایت کنید تا این سوال را حل کنم: در یک مدل رگرسیون ساده y = b0 + b1*x + u پنج فرض اصلی داریم 1 خطی بودن در پارامترها 2 نمونه گیری تصادفی 3 صفر میانگین شرطی 4 تغییر در x 5 همسانی علاوه بر 5 فرض ، فرض اضافی برای آزمون فرضیه معتبر برآوردگرهای OLS در کوچک چیست نمونه ها؟ | فرضیه آزمون فرضیه معتبر برآوردگرهای OLS در نمونه های کوچک |
20131 | من می خواهم یک ماتریس کنتراست در مورد یک مدل خطی ایجاد کنم. من یک عامل با سه سطح دارم: T، N و A. من تضادهای «T» در مقابل «N»، «T» در مقابل «A» و «T» در مقابل (ترکیب «N» و «A») را میخواهم. این آخرین تضاد با سطوح ترکیبی است که باعث دردسر می شود. نتیجه درست را می توانم با تعریف مجدد N و A به سطح ترکیبی جدید L و سپس یک ماتریس کنتراست یک ستونی T = 1، L = -1 به دست بیاورم. اما وقتی این سطح به دو قسمت تقسیم می شود، چگونه باید این کار را انجام داد؟ ستون T = 2، N = -1، A = -1 نتیجه کنتراست یک col بالا را نشان نمی دهد. من آن را در R پیادهسازی میکنم. تعداد مشاهدات T=30، N=14، A=15 است. | چگونه یک ماتریس کنتراست با سطوح ترکیبی برای یک متغیر طبقهبندی طراحی کنیم؟ |
59757 | من یک تست دوربین-واتسون را محاسبه کردم و به $$\eqalign{ d&=2.207551844، \\\ dL&= 1.6164، \\\ dU&= 1.7896 رسیدم. }$$ من میخواهم $$H_0 \gt 0,\ H_1 \le 0.$$ را آزمایش کنم. اگر $H_0 \lt 0، H_1 \ge 0$ باشد چه اتفاقی می افتد؟ لطفاً در مورد تفسیر چنین آزمایشی به من اشاره کنید! | تفسیر آزمون دوربین واتسون؟ |
90436 | من یک توزیع مشترک دارم که به صورت زیر فاکتور میشود: $$ q(w) = \prod_{i=1}^{N} t_i $$ که در آن هر $t_i$ یک توزیع نرمال سه بعدی است که برخی به معنای $\mu_i$ هستند. و واریانس $\mathbf{I}\sigma_i$ که در آن $I$ هویت است و $\sigma_i$ دقت است که همچنین سه بعدی است رفتار ناهمسانگرد حال، اگر من بخواهم این را در یک توزیع چند متغیره بزرگ ($q(w)$) که دارای بعد $N \times 3$ است ترکیب کنم، صرفاً باید بردارهای میانگین و سیگما را روی هم قرار دهیم. من فکر می کنم، بله، زیرا فاکتورسازی به معنای استقلال است، اما می خواستم بررسی کنم. | دستکاری توزیع های گاوسی |
41041 | من از بسته POT در R برای برازش توزیع پارتو تعمیم یافته به داده های خود استفاده می کنم. برای انتخاب آستانه تقریبی، من از «tcplot()» و «mrlplot()» به روش زیر استفاده می کنم («x» داده های حاوی بردار است) tcplot(x,u.range=c(0,quantile(x, probs=0.995))) mrlplot(x,u.range=c(0,quantile(x,probs=0.995)),col=c(سبز،سیاه،سبز),nt=200) اما گاهی اوقات کمی گیج می شوم به عنوان مقداری که به عنوان آستانه انتخاب خواهم کرد. بهویژه همانطور که در این سایت ذکر شد که > تفسیر این طرحها اغلب مستلزم قضاوت ذهنی خوبی است، برای مثال، با توجه به طرح زیر، آستانه چقدر خواهد بود؟  | انتخاب آستانه برای توزیع پارتو تعمیم یافته در R |
59755 | کسی میتونه لطفا نقطه تغییر رو برای من توضیح بده من از پکیج در R استفاده می کنم و واقعاً معنی روش های مختلف، مزایا و معایب هر کدام را نمی فهمم و به خصوص ارزش جریمه را نمی دانم. وقتی مقدار جریمه را افزایش می دهید، این به چه معناست و چه کاربردی دارد؟ من مقدار زیادی تحقیق آنلاین انجام دادهام، اما فقط سایتهای cran R و Quick R را پیدا میکنم که خوب هستند، اما روشی که آنها میگویند آن را برای من قطع نمیکند. خیلی ممنون | تجزیه و تحلیل نقطه را تغییر دهید |
11707 | با توجه به مقاله ویکی پدیا در مورد تخمین بی طرفانه انحراف معیار، SD نمونه $$s = \sqrt{\frac{1}{n-1} \sum_{i=1}^n (x_i - \overline{x})^ 2}$$ یک تخمینگر مغرضانه از SD جمعیت است. بیان می کند که $E(\sqrt{s^2}) \neq \sqrt{E(s^2)}$. NB. متغیرهای تصادفی مستقل هستند و هر کدام $x_{i} \sim N(\mu,\sigma^{2})$ سؤال من دوگانه است: * اثبات مغرضانه بودن چیست؟ * چگونه می توان انتظار انحراف معیار نمونه را محاسبه کرد دانش من از ریاضیات/آمار فقط متوسط است. | چرا انحراف استاندارد نمونه یک تخمینگر مغرضانه $\sigma$ است؟ |
62347 | من یک ماتریس کوواریانس $n \times n$ دارم و میخواهم با استفاده از خوشهبندی سلسله مراتبی، متغیرها را به خوشههای $k$ تقسیم کنم (مثلاً برای مرتبسازی یک ماتریس کوواریانس). آیا یک تابع فاصله معمولی بین متغیرها (به عنوان مثال بین ستون ها/ردیف های ماتریس کوواریانس مربع) وجود دارد؟ یا اگر تعداد بیشتری وجود دارد، آیا مرجع خوبی در مورد موضوع وجود دارد؟ | فاصله بین متغیرهایی که ماتریس کوواریانس می سازند چقدر است؟ |
90431 | من سعی می کنم تعداد وسایل نقلیه مورد نیاز در هر مدل را برای به حداکثر رساندن استفاده و حجم رزرو پیش بینی کنم، اما به دیوار آجری برخورد کردم. من برخی از تجزیه و تحلیل های اکتشافی را انجام داده ام و استفاده از روزهای رزرو تحت تأثیر قرار می گیرد. همچنین روزهای رزرو تحت تأثیر طول رزرو و رزرو هر خودرو است. من متوجه شدهام که رزروهای 5x 4 روزه به هدف میرسند، اما تعداد وسایل نقلیه مورد نیاز به محبوبیت مدل بستگی دارد، اما مطمئن نیستم کجا بروم. | پیش بینی تعداد وسایل نقلیه مورد نیاز |
13334 | من از SAS برای تخمین برخی از مدل های لجستیکی استفاده می کنم. معمولاً من با پزشکان یا دانشمندان علوم اجتماعی کار می کنم و نسبت شانس معیار ترجیحی است. اما من در حال حاضر با یک مشتری در اقتصاد/حقوق کار می کنم و او اثرات حاشیه ای و خطاهای استاندارد آنها را می خواهد و آنها را به وسیله متغیرهای دیگر می خواهد. این کار در SAS آسان نیست، اما، با کمک پشتیبانی فنی، متوجه شدم که میتوانید این کار را با PROC NLMIXED انجام دهید، فکر میکنم پس از آن به گزینه out = der نیاز دارید. چیزی شبیه به این proc nlmixed data=olivia.small; p=1/(1+exp(-(Intercept+ba*log_fund_age + bb*log_fund_size + bc*yield + bd*loaded + be*log_assets))); مدل vote_code_num ~ binomial(1,p); parms intercept 36.43 ba -14.55 bb -0.98 bc -0.37 bd 2.2 be -0.07; پیش بینی p*(1-p)*ba out=a der; پیش بینی p*(1-p)*bb out=b der; پیش بینی p*(1-p)*bc out=c der; پیش بینی p*(1-p)*bd out=d der; پیش بینی p*(1-p)*be out=e der; جایی که سال = 2003; اجرا؛ اما پس از آن مجموعه داده های خروجی a، b، c، d و e مشتقات و انحرافات استاندارد خود را برای هر مشاهده در مجموعه داده دارند، نه برای میانگین متغیرهای دیگر. یافتن میانگین همه آن مشتقات آسان است، اما 1) آیا این همان مقدار حاشیه در میانگین سایر متغیرها است؟ و 2) پس چگونه می توان خطاهای استاندارد را دریافت کرد؟ پیتر | اثرات حاشیه ای یک مدل لجستیک و خطاهای استاندارد آنها |
46897 | در برنامه نویسی کامپیوتر، اولین برنامه کلاسیک برای یادگیری/آموزش یک زبان یا سیستم جدید وجود دارد که به آن سلام، دنیا می گویند. http://en.wikipedia.org/wiki/Hello_world_program آیا اولین تجسم داده کلاسیک برای استفاده از یک بسته نموداری وجود دارد؟ اگر چنین است، آن چیست؟ و اگر نه، چه نامزدهای خوبی خواهند بود؟ | آیا «سلام، دنیا» برای گرافیک آماری وجود دارد؟ |
48647 | دادههای من شبیه این ویژگی هستند nobs.ctrls nobs.cases A 0 0 B 8 1 C 24 0 D 116 0 E 41 2 F 6 11 من کنترلهای بسیار بیشتری («ctrls») نسبت به موارد (1000 در مقابل 50) دارم. اعداد به این معنی است که، برای مثال، صفت C 24 بار در 1000 کنترل دیده می شود، اما در موارد ('nobs.cases') اصلا دیده نمی شود. بهترین راه برای آزمایش اهمیت داده های این نوع چیست؟ آیا باید N را کنترل کنم؟ صفات مستقل هستند. 24 بار لزوماً به این معنی نیست که در 24 مورد از 1000 رخ می دهد. من نوعی تجزیه و تحلیل تلفیقی انجام داده ام بنابراین در واقع نمی دانم چند نفر این ویژگی را دارند، یعنی ممکن است بیش از یک نفر در یک فرد باشد. من به SNPها در توالییابی دادهها در بین ژنها نگاه میکنم، با هر «ویژگی» واقعاً یک ژن. | تجزیه و تحلیل طرح مورد-شاهدی بینظیر طبقهبندی شده |
46895 | من می دانم که چگونه از R استفاده کنم اما در بخش آماری اینجا گیر کرده ام: باید نتایج یک تست قابلیت استفاده نرم افزار را تجسم کنم که در آن تعداد کل کلیک های هر آزمایش کننده برای هر یک از سه وظیفه ای که باید انجام می دادند، بود. ثبت شده است. کل زمان مورد نیاز برای هر یک از سه کار نیز ثبت شد. من فقط میخواهم نتایج 10 آزمایشکننده را تجسم کنم، بنابراین به استفاده از طرح نوار فکر میکردم، اما نمیتوانم طرحی را در نظر بگیرم که بتوانم تعداد کلیکها و همچنین زمان لازم را در یک طرح منطقی قرار دهم. من داده ها را در دو فایل .csv دارم (اگر مهم باشد). همچنین به نظر شما آیا باید از اخطارهایی آگاه باشم؟ مثلا باید چیزی را عادی کنم؟ هر گونه کمکی قدردانی خواهد شد! مارتین | چه نوع نموداری برای تجسم نتایج آزمون کاربردپذیری نرم افزار؟ |
20139 | کسی می تواند در این مورد به من کمک کند؟ من باید یک رگرسیون انجام دهم تا آلفاها را در این معادله زیر تخمین بزنم، اما به نظر نمی رسد که این معادله را در قالبی دریافت کنم که بتوانم از رگرسیون استفاده کنم. Ii فقط به دنبال ساده کردن این معادله بود تا من می تواند چیزی را به شکل Y = ثابت + آلفا0 * چیزی + آلفا1 * چیزی .. و غیره دریافت کند تا ضرایب رگرسیون آلفای من باشد. هر توصیه ای بسیار قدردانی خواهد شد، بسیار متشکرم! D(T) مخفف موجودی در زمان T و R(T) مخفف نرخ بهره در زمان T است. D(T) = D(0) * exp[alpha0 * T + alpha 1 * T^2 / 2 + آلفا 3 * (R(T) - R(0))] * ((1 / df(T)) ^ آلفا3 که در آن df(T) = exp(مجموع از i به N از - R(TI) * dTI) (بنابراین df(T) اساسا یک عدد ثابت است) | چگونه می توان این معادله را به معادله ای تبدیل کرد که بتوان از رگرسیون برای تخمین ضرایب استفاده کرد؟ |
38829 | من میخواهم دادههای تصادفی را با اعمال برخی آزمایشها بر روی جریان بایت مشاهدهشده شناسایی کنم. من قبلاً از تست مربع کای در تجزیه و تحلیل فرکانس استفاده کردم که خوب کار می کند. برای کاهش نرخ مثبت کاذب، میخواهم تستهای دیگری مانند تست اجراها را اعمال کنم، که دنبالههای یکنواخت را در توالی بایت بررسی میکند (نه اجراها در سطح باینری، بلکه در سطح بایت [مقادیر از 0 - 255] ) چند مقاله پیدا کردم که رویه را توصیف می کند، اما پیاده سازی من کار نمی کند، احتمالاً چیزی را اشتباه متوجه شده ام. مقالات متأسفانه به زبان آلمانی هستند، اما چیزی که آنها به طور کلی می گویند، 1 است) ما دنباله بایت ها را به طور یکنواخت افزایش یا کاهش می دهیم (یعنی 3 | 1، 6، 9، 44، 74 | 11 | 6، 251، 46 |. ... => دو دنباله یکنواخت افزایشی). 2) احتمال، هر دنباله باید از نظر تئوری رخ دهد، با p = r / (r+1) تعریف می شود!، جایی که r طول اجرا است. در مجموع من 6 دسته دارم، که در آن دسته شماره. 6 شامل همه اجراها > 5 می شود. وقتی این آزمایش را روی داده های خود انجام می دهم، توزیع خی دو را دریافت می کنم که بسیار زیاد است، اما داده ها قطعا تصادفی هستند (مقدار مجذور کای بین 80 - 100). من این آزمایش را چندین بار روی نمونههای مختلف انجام دادم، توزیع ثابت میماند و مقدار خی دو نیز ثابت میماند، اما خیلی زیاد. من در مورد محاسبه احتمال 100٪ مطمئن نیستم. پیشاپیش از کمک شما بسیار سپاسگزارم | تست و Chi Square Distribution را اجرا می کند |
20136 | آیا کسی مجموعهای از دادهها را میشناسد که در دسترس عموم و بزرگ هستند (به عنوان مثال، در بالپارک پتابایتی). در حالت ایدهآل، مجموعه دادهها با تحلیلهای یادگیری ماشین مرتبط هستند. شاید چیزی از حوزه های فیزیک، شیمی، پردازش زبان طبیعی؟ حدس میزنم میتوان گفت که وب خود چنین مجموعه دادهای است، اما من به دنبال چیزی ساختارمندتر از آن هستم. پیشاپیش ممنون | مجموعه داده در مقیاس پتابایتی در دسترس عموم است؟ |
97710 | من باید الگوریتم یک مقاله علمی را بازتولید کنم و یکی را انتخاب کردم که از یادگیری تقویتی استفاده می کند. با این حال، من نحوه محاسبه تابع احتمال انتقال ($f$) مورد استفاده در تکرار را نمیدانم:  مقاله می گوید: > برای اجرای الگوریتم تکرار Q-value (جدول 2)، ابتدا تابع احتمال انتقال f محاسبه شد. سوال من این است: چگونه محاسبه شد؟ | چگونه تابع احتمال انتقال را محاسبه کنم؟ |
17424 | یک قضیه نسبتاً رایج وجود دارد که بیان میکند: مجموع $n$ متغیرهای مستقل به دنبال توزیع نمایی $\mathrm{Exp}(\alpha)$ از توزیع گاما $\mathrm{Gamma} (n, 1/\) پیروی میکنند. alpha)$ (همچنین به عنوان توزیع Erlang نیز شناخته می شود). من از این قضیه در پایان نامه خود استفاده می کنم. از من خواسته شده است که به مقاله ای که معرفی می کند استناد کنم، یا اگر امکانش نیست، حداقل به مقاله ای استناد کنم که به صراحت به آن اشاره کرده است. کسی از این قبیل مقاله ها سراغ دارد؟ | برای اثبات اینکه مجموع n متغیر نمایی از توزیع گاما پیروی می کند، چه مرجعی می توانم ذکر کنم؟ |
13335 | من در حال حاضر در حال تلاش برای پیش بینی احتمال رویدادهای با احتمال کم (~1٪) هستم. من DB بزرگ با 200000 وکتور (~2000 مثال به علاوه) با 200 ویژگی دارم. من سعی می کنم بهترین ویژگی ها را برای مشکلم پیدا کنم. روش توصیه شده چیست؟ (در پایتون یا R ترجیح داده می شود، اما نه لزوما) با تشکر! | انتخاب ویژگی برای پیشبینی رویداد با احتمال کم |
29717 | من چندین مجموعه 10 تایی دارم که می خواهم آنها را با هم مقایسه کنم. هر رتبهدهنده فقط میتواند رأی _بله_ یا _خیر بدهد، با این حال این تصمیم ناهنجار است و آرای _بله فقط حدود 10٪ از کل آرا را تشکیل میدهد (و این انتظار میرود، یعنی چنین نسبتی از نظر عینی درست است). کدام یک از آمارهای توافق بین رتبهبندی در این مورد مناسب است؟ | آمار بین رتبهبندیکننده برای رتبهبندیهای منحرف |
78801 | من یک مبتدی در محاسبه همبستگی هستم و احتمالاً می خواهم یک سؤال بسیار ساده بپرسم. اگر من دو متغیر داشته باشم که بخواهم همبستگی را روی آنها انجام دهم و آن متغیرها اندازه نابرابر داشته باشند، آیا این روی نتیجه همبستگی من تأثیر می گذارد؟ با تشکر | سوال همبستگی پیرسون |
29712 | من در حال انجام پروژه ای هستم که در آن تعیین می کنم چه عواملی (در مجموع 3) در دقت ضربه زدن به تخته دارت نقش دارند. هر عامل دارای دو سطح کم و زیاد است. برای مثال یکی از فاکتورها مسافت و کمترین فاصله (نزدیک ترین به تخته دارت) 2 متر و بیشترین فاصله 4 متر است. فاکتور دیگری که من از آن استفاده می کنم دست چپ و راست برای پرتاب است. مشکل من این است که چگونه پاسخ را اندازه گیری کنم؟ آیا باید روی تخته دارت دو ناحیه را نشان دهم که یکی از آنها به عنوان چشم گاو (موفقیت) و دیگری شکست در نظر گرفته می شود؟ یا باید فاصله بین چشم گاو و دارت را بر حسب سانتی متر اندازه بگیرم تا مشخص شود کدام دارت نزدیکتر شده است؟ روش مناسب کدام است؟ | آزمایش با دارت، چگونه باید پاسخ را اندازهگیری کنم؟ |
76448 | من باید یک سیستم توصیه بسازم که اطلاعات زیادی در مورد کاربران (سن، جنس، مکان، درآمد و غیره) داشته باشد، اما اطلاعات بسیار کمی در مورد ترجیحات کاربران (یعنی 1-2 محصول از 100 برای هر کاربر مصرف شود). من حدود 50 هزار رکورد دارم و فکر می کنم استفاده از پروفایل کاربران ممکن است مفید باشد. اولین واکنش من به عنوان یک اقتصاددان استفاده از لوجیت چندجمله ای شرطی است. با توجه به یک پست روشنگری در اینجا، ممکن است ایده خوبی نباشد. آیا کسی می تواند به من بگوید که از چه نوع الگوریتم توصیه باید استفاده کنم؟ (بسته R مورد توجه خاص است) | نحوه ادغام اطلاعات پروفایل کاربران در یک سیستم توصیه گر |
44769 | من می دانم که مواد زیادی وجود دارد که p-value را توضیح می دهد. با این حال درک این مفهوم بدون توضیح بیشتر آسان نیست. در اینجا تعریف p-value از ویکیپدیا آمده است: > p-value احتمال به دست آوردن یک آمار آزمایشی حداقل به اندازه آن چیزی است که واقعاً مشاهده شد، با فرض اینکه فرضیه صفر > درست باشد. (http://en.wikipedia.org/wiki/P-value) **اولین سوال** من مربوط به عبارت حداقل به همان حدی است که واقعاً مشاهده شد. درک من از منطق زیربنای استفاده از p-value به شرح زیر است: اگر مقدار p کوچک باشد، بعید است که مشاهده با فرض صفر رخ داده باشد و ممکن است برای توضیح مشاهده به یک فرضیه جایگزین نیاز داشته باشیم. اگر مقدار p خیلی کوچک نباشد، این احتمال وجود دارد که مشاهده فقط با فرض صفر انجام شده باشد و فرضیه جایگزین برای توضیح مشاهده ضروری نیست. بنابراین اگر کسی بخواهد روی یک فرضیه پافشاری کند باید نشان دهد که مقدار p فرضیه صفر بسیار کوچک است. با در نظر گرفتن این دیدگاه، درک من از عبارت مبهم این است که p-value $\min[P(X<x),P(x<X)]$ است، اگر PDF آمار یکوجهی باشد، جایی که $X $ آمار آزمون و $x$ مقدار آن است که از مشاهده بدست می آید. آیا این درست است؟ اگر درست است، آیا استفاده از PDF دووجهی آمار همچنان قابل اجراست؟ اگر دو قله PDF به خوبی از هم جدا شده باشند و مقدار مشاهده شده جایی در ناحیه چگالی احتمال کم بین دو قله باشد، مقدار p احتمال کدام بازه را نشان می دهد؟ **سوال دوم** در مورد تعریف دیگری از p-value از Wolfram MathWorld است: > احتمال اینکه یک متغیر مقداری بزرگتر یا مساوی با > مقدار مشاهده شده را کاملاً تصادفی فرض کند. > (http://mathworld.wolfram.com/P-Value.html) فهمیدم که عبارت به طور کاملاً تصادفی باید به عنوان فرضیه صفر تعبیر شود. درست است؟ **سوال سوم** به استفاده از فرضیه صفر مربوط می شود. بیایید فرض کنیم که شخصی می خواهد اصرار کند که یک سکه منصفانه است. او این فرضیه را بیان می کند که بسامد نسبی سرها 0.5 است. سپس فرض صفر این است که فرکانس نسبی هدها 0.5 نیست. در این حالت، در حالی که محاسبه مقدار p فرضیه صفر دشوار است، محاسبه برای فرضیه جایگزین آسان است. البته مشکل را می توان با مبادله نقش دو فرضیه حل کرد. سوال من این است که رد یا پذیرش مستقیماً بر اساس p-value فرضیه جایگزین اصلی (بدون ارائه فرضیه صفر) این است که آیا خوب است یا خیر. اگر مشکلی ندارد، هنگام محاسبه مقدار p یک فرضیه صفر، راه حل معمول برای چنین مشکلاتی چیست؟ * * * ** من یک سوال جدید گذاشتم که بر اساس بحث در این تاپیک بیشتر روشن شده است.** | درک مقدار p |
29719 | من دادههای آزمایشی را دارم که میتوان از آن برای تشخیص سلولهای طبیعی و تومور استفاده کرد. طبق منحنی ROC برای این منظور خوب به نظر می رسد (مساحت زیر منحنی 0.9 است):  **سوالات من این است:** 1. چگونه می توان نقطه برش این تست و فاصله اطمینان آن را تعیین کرد که در آن قرائت ها باید مبهم ارزیابی شوند؟ 2. بهترین راه برای تجسم این (با استفاده از 'ggplot2') چیست؟ نمودار با استفاده از بستههای «ROCR» و «ggplot2» ارائه میشود: #install.packages(ggplot2، ROCR، verification) #اگر هنوز نصب نشده باشد library(ggplot2) library(ROCR) library( تأیید) d <-read.csv2(data.csv, sep=;) قبل <- with(d,prediction(x,test)) perf <- performance(pred,tpr, fpr) auc <-performance(pred,meter = auc)@y.values[[1]] rd < - data.frame(x=perf@x.values[[1]],y=perf@y.values[[1]]) p <- ggplot(rd,aes(x=x,y=y)) + geom_path(size=1) p <- p + geom_segment(aes(x=0,y=0,xend=1,yend=1),colour= black,linetype= 2) p <- p + geom_text(aes(x=1, y= 0, hjust=1, vjust=0, label=paste(sep = , AUC = ,round(auc,3) )),colour=black,size=4) p <- p + scale_x_continuous(name= نرخ مثبت کاذب) p < - p + scale_y_continuous (نام = نرخ مثبت واقعی) p <- p + opts( axis.text.x = theme_text (اندازه = 10)، axis.text.y = theme_text (اندازه = 10)، axis.title.x = theme_text (اندازه = 12، چهره = مورب)، axis.title.y = theme_text (اندازه = 12، چهره = italic,angle=90), legend.position = none, legend.title = theme_blank()، panel.background = theme_blank()، panel.grid.minor = theme_blank()، panel.grid.major = theme_line(colour='grey'), plot.background = theme_blank() ) p data.csv داده های زیر را در خود دارد: x;گروه;ترتیب;تست 56;تومور;1;1 55;تومور;1;1 52;تومور;1;1 60؛ تومور؛ 1؛ 1؛ 54؛ تومور؛ 1؛ 1؛ 43؛ تومور؛ 1؛ 1؛ 52؛ تومور؛ 1؛ 1؛ 1 57؛ تومور؛ 1؛ 1؛ 50؛ تومور؛ 1؛ 1؛ 34؛ تومور؛ 1؛ 1؛ 24 ;عادی 25; عادی; 2; 0 23; عادی; 2; 0 23; عادی; 2; 0 19; عادی; 2; 0 56; عادی; 2; 0 44; عادی; 2; 0 | چگونه بهترین نقطه برش و فاصله اطمینان آن را با استفاده از منحنی ROC در R تعیین کنیم؟ |
44490 | امروز سر کلاس با معلم آمارم بحث می کردم چون سر موضوع بیان مجدد گیر کرده بودیم. او تصمیم گرفت اگر بتوانم با استفاده از اینترنت به او ثابت کنم که چیزی مربوط به تبدیل واحد در حین بیان مجدد است، اعتبار بیشتری به من بدهد. هنگامی که یک تبدیل توان با توان -1/2$ یا $-1$ انجام می دهید، قرار است واحدها و مقدار را به منفی تغییر دهید (یعنی برای توان 1$- ممکن است $ دریافت کنید. -32.8 دلار - گالن / مایل). آیا قرار است آن را به 32.8 دلار گالن / مایل برگردانید؟ | تبدیل واحدهای بیان مجدد |
14819 | از آنجایی که من فقط با اصول مربوط به درختان تصمیم آشنا هستم، می خواهم بپرسم، با خطر بیان یک سوال احمقانه: آیا می توان پارتیشن بندی بازگشتی را با میانگین گروه به عنوان پاسخ/هدف انجام داد؟ بهعنوان مثال، بهجای «rpart()» «R» با استفاده از معنی، آیا میتوان درختی مشابه با میانهها ایجاد کرد؟ من می خواهم این کار را انجام دهم زیرا متغیر وابسته پیوسته ای که می خواهم بررسی کنم دارای یک سری نقاط پرت است که به وضوح بر مقادیر میانگین تأثیر می گذارد (مخصوصاً وقتی تعداد مشاهدات در هر گره کوچکتر شود). آیا من در مسیر درستی هستم یا باید از روش های دیگری استفاده کنم؟ آیا پیش پردازش داده ها جایگزین دیگری خواهد بود (شاید پوشش مقادیر در حد بالایی)؟ با تشکر | پارتیشن بندی بازگشتی با استفاده از میانه (به جای میانگین) |
101334 | من اکنون در حال محاسبه کشش برای مدل لاجیت شرطی اسکلوگیت ویژه جایگزین هستم. Stata هیچ دستور یا منوی برای محاسبه کشش ندارد. من از فرمول محبوب: (1-p) (بتا) (X) برای کشش مستقیم استفاده کردم. اما برای کشش متقاطع متفاوت است. فرمول ارائه شده این است: -p(i)p(j).بتا که در آن i و j جایگزین های سطح متغیر وابسته هستند، به عنوان مثال در ماشین حمل و نقل و راه آهن. | الاستیسیته متقاطع آسکلوژیت |
12881 | من با مشکل یادگیری خوشه ها از یک ماتریس عدم تشابه زوجی مواجه هستم. اندازهگیریهایی که من امتحان میکنم متریک نیستند (متقارن نیستند، برابری مثلثی ندارند)، مانند واگرایی KL. آیا روش های خوشه بندی وجود دارد که بتوانم برای یافتن خوشه ها از این نوع ماتریس ها استفاده کنم؟ اگر برچسبهایی در دسترس دارم، از چه نوع تکنیکهای اعتبارسنجی خوشهای میتوانم استفاده کنم؟ | آیا روش هایی برای خوشه بندی بر اساس معیارهای عدم تشابه زوجی وجود دارد؟ |
41040 | وقتی یک مدل درخت رگرسیون را در R قرار می دهم، می توانم به نحوی به درخت رسم شده نگاه کنم تا تعاملات پیش بینی کننده ها را بفهمم. با این حال، زمانی که من یک مدل جنگل تصادفی را انتخاب می کنم، نمی توانم درختی را ترسیم کنم زیرا تعداد آنها بسیار زیاد است. من به نوعی می توانم ترتیب اهمیت پیش بینی کننده ها را بیابم (با استفاده از تابع varImpPlot)، اما نمی دانم چگونه تعاملات را از مدل تشخیص دهم. به هر حال، طرح اهمیت فقط ترتیب اهمیت پیش بینی کننده ها را می دهد، چگونه می توانم بفهمم که دقیقاً چه تعداد از آنها باید برای بررسی بیشتر گنجانده شوند. متشکرم. | چگونه می توان تعاملات را در یک مدل جنگل تصادفی تشخیص داد؟ |
44763 | من مشکل رگرسیون زیر را دارم، حدود 60 متغیر مستقل دارم. برخی از آنها با دیگران همبستگی بالایی دارند. من حدود 3 میلیون مشاهده دارم (1) - هدف اصلی من پیش بینی خارج از نمونه است، بنابراین سوال اصلی من این است: در این مورد از کدام روش منظم سازی استفاده کنم؟ چند سؤال دیگر (فرض هایی که من دارم، احتمالاً کمی گیج شده) (2) - رگرسیون ریج، در حالی که ضرایب را به طور کامل حذف نمی کند، آن ضرایب را پایین نگه می دارد که شبکه کمند/الاستیک/BIC کاملاً حذف می کند. آیا این درست است؟ (اگر اینطور نیست، آیا مشکلی ایجاد می شود؟) (3) - اگر من می خواستم از AIC/BIC در این مورد استفاده کنم، باید تمام ترکیبات ممکن 60 متغیر مستقل را آزمایش کنم؟ (4) - آیا منطقی است که با AIC/BIC شروع کنیم، سپس با متغیرهای مستقل باقیمانده رگرسیون رج انجام دهیم؟ (من حدس میزنم رگرسیون پشته _after_ AIC/BIC ممکن است منطقی باشد زیرا برخی از متغیرهای مستقل با بقیه همبستگی دارند؟) با تشکر | از بین BIC / AIC / رج / توری الاستیک چه چیزی را انتخاب کنید؟ |
14810 | چگونه می توانم نوسانات سهام را بر حسب **درصد** محاسبه کنم؟ آیا باید از تابع sd() بدون هیچ محاسبه دیگری استفاده کنم؟ با تشکر | چگونه نوسانات سهام را بر حسب درصد محاسبه کنیم؟ |
11869 | من یک سوال گسترده در مورد اعتبار سنجی پنجره کشویی دارم. به طور خاص، من به دنبال استفاده از Rapid Miner برای پیشبینی ارزشهای آتی یک سری مالی با استفاده از مقادیر «تاخر» آن سری و سایر متغیرهای کمکی هستم. من با اپراتور windowing در این نرم افزار آزمایش کرده ام و مقادیر را برای آماده سازی برای مدل سازی عقب انداخته ام. چیزی که من در مورد آن گیج شدهام، و گمان میکنم که این یک فرآیند کلی است، نه فقط چیزی متمرکز بر Rapid Miner و بنابراین در اینجا از آن میپرسم، فرآیند آموزش/ارزیابی پنجرههای کشویی است. 1. آیا کسی منابعی برای یادگیری در مورد فرآیندهای پنجره کشویی برای ساخت مدل های داده کاوی در سری های زمانی دارد؟ 2. به طور خاص هنگام ساخت یک مدل، من _ فکر می کنم_ می فهمم که از k نمونه برای آموزش یک مدل استفاده می شود (به عنوان مثال SVM) و عملکرد این مدل با پیش بینی رکوردهای بعدی m تعیین می شود. سپس پنجره مقداری به جلو کشیده می شود و از k رکوردهای بعدی برای آموزش استفاده می شود و ارزیابی روی رکوردهای m بعدی انجام می شود. این کار تا پایان داده ها ادامه دارد. آیا درک من درست است؟ چگونه یک مدل نهایی برای استفاده در داده های آینده ساخته می شود؟ آیا همیشه روی آخرین رکوردهای k دوباره آموزش داده می شود و این آخرین k رکوردها فقط برای ایجاد مدل نهایی استفاده می شوند؟ | اعتبار سنجی پنجره کشویی برای سری های زمانی |
95263 | من فهرستی از نمرات دانش آموزان در علوم (X، بین 0 تا 100٪) و اینکه آیا آنها به دانشگاه رفته اند یا نه (Y) دارم. نمرات بالا در علوم نشان دهنده تمرکز بالاتر پذیرفته شدگان کالج و نمرات پایین رتبه دوم را داشتند (دانشجویان برای مدرک هنر و غیره رفتند). نمرات در محدوده متوسط نرخ ضربه کمتری داشتند. اکثر دانش آموزان در علوم نمرات پایین تری دارند. من نمونه خود را به 5 سطل تقسیم کردم: 0-10، 10-20، 20-80، 80-90، 90-100. Chi-Sq قابل توجه است. من این سطلها را به متغیرهای طبقهبندی ساختگی تبدیل کردم و سپس ضریب LR را محاسبه کردم که برای 80-90، 90-100 (+ives)، و 0-10 (-ive) معنیدار بود. من به این نتیجه رسیدم که وقتی نمرات بالاتر باشد، شانس گرفتن پذیرش زیاد است. وقتی نمرات پایین باشد، بعید است که دانشجو به دانشگاه برود. Q1. آیا در عوض باید از علامت ها به عنوان متغیر پیوسته استفاده کنم؟ فرضیه اصلی من این است: بالاترین نمرات منجر به پذیرش در کالج می شود، در حالی که کمترین نمره به معنای عدم پذیرش دانشگاه است. Q2. داده ها قبلا خطی بودند. با این حال، اگر دادهها در نمودار زیر نشان داده میشد، چه میکنید، آیا به نظر شما دستهبندی آن منطقیتر است؟ نرخ بازدید رویداد برای یک محدوده خاص بالاتر است و سپس کاهش می یابد. دستهبندی آن در سطلها کمک میکند تا من فقط باید عملکرد آن سطل را تجزیه و تحلیل کنم (تمرکز اصلی مطالعه). آیا استفاده از متغیرهای ساختگی تأثیر روابط غیر خطی را از بین می برد؟  | رگرسیون لجستیک مستمر در مقابل طبقه بندی برای نمره و پذیرش |
11868 | فرض کنید یک مدل پواسون با پراکندگی بیش از حد دارید. علاوه بر مدلهای دوجملهای منفی، سایر تکنیکهای رگرسیون مدلسازی دادههای شمارش مناسب دیگر چیست؟ | چه مدلهای شمارش دادهای را در کنار مدل دوجملهای منفی در هنگام پراکندگی بیش از حد انتخاب کنیم؟ |
12885 | من همیشه معتقد بودم که زمان نباید به عنوان پیشبینیکننده در رگرسیونها (از جمله گامها) استفاده شود، زیرا در این صورت، فرد به سادگی خود روند را «توصیف» میکند. اگر هدف یک مطالعه یافتن پارامترهای محیطی مانند دما و غیره است که واریانس، مثلاً، فعالیت یک حیوان را توضیح میدهند، در آن صورت نمیدانم که زمان چگونه میتواند مفید باشد؟ به عنوان یک پروکسی برای پارامترهای اندازه گیری نشده؟ برخی از روندهای زمانی در دادههای فعالیت گرازهای بندری را میتوان در اینجا مشاهده کرد: -> چگونه شکافها را در یک سری زمانی هنگام انجام GAMM مدیریت کنیم؟ مشکل من این است: وقتی زمان را در مدل خود لحاظ می کنم (در روزهای جولیان اندازه گیری می شود)، سپس 90٪ از تمام پارامترهای دیگر ناچیز می شوند (هموارتر ts-shrinkage از mgcv آنها را بیرون می زند). اگر زمان را کنار بگذارم، برخی از آنها قابل توجه هستند... سوال این است: آیا زمان به عنوان یک پیش بینی کننده مجاز است (شاید حتی لازم باشد؟) یا تحلیل من را به هم می زند؟ پیشاپیش با تشکر فراوان | آیا گنجاندن زمان به عنوان پیش بینی در مدل های ترکیبی مجاز است؟ |
9807 | من یک نظرسنجی با استفاده از مقیاس لیکرت 1 تا 5 (کاملاً موافق / موافق / خنثی / مخالف / کاملاً مخالف) بر روی 12 سؤال انجام دادم که به 3 عبارت تقسیم می شوند که پاسخ دهنده بسته به میزان موافقت آنها ارزشی بین 1 تا 5 قرار می دهد. یا مخالف - در مجموع 36 بیانیه وجود دارد. پاسخ دهندگان: گروه 1 گروه 2 معماران انگلستان 140 معماران پاسخ داده شده ایالات متحده 100 مهندسان پاسخ داده شده UK 140 پاسخ دهندگان مهندسین ایالات متحده 100 پاسخ دهندگان پیمانکاران انگلستان 140 پاسخ دهندگان پیمانکاران ایالات متحده 100 پاسخ داده ها در اکسل است. ### سوالات: 1. چگونه آنها را در SPSS وارد کنم؟ 2. چگونه می توانم تعداد پاسخ ها را برای هر گیرنده تعیین کنم؟ 3. چگونه می توانم فراوانی پاسخ ها یعنی موافق/مخالف و غیره را برای هر گروه تعیین کنم؟ 4. چگونه می توانم هر سوال (12 سوال) را رتبه بندی کنم؟ به یاد داشته باشید که برای هر سوال 3 عبارت جداگانه وجود دارد. 5. چگونه معماران بریتانیایی را با معماران آمریکایی مقایسه کنم تا همخوانی را نشان دهم یا خیر؟ 6. چگونه ارتباط بین دو گروه بریتانیا و ایالات متحده را نشان می دهد؟ 7. آیا SPSS نمودارهایی را برای من ایجاد می کند که فرکانس یا همبستگی را نشان می دهند؟ | کار با مقیاس لیکرت در SPSS |
12888 | دو مشکل زیر را در نظر بگیرید: 1. ما می خواهیم رگرسیون خطی انجام دهیم، جایی که می دانیم مدل واقعی در واقع خطی است. در حالت کلی، رگرسیون خطی شامل یک افست است. با این حال، با استفاده از دانش قبلی، می دانیم که مدل واقعی در واقع دارای افست 0 است. بنابراین واضح است که بهتر است مدل را برازش کنیم در حالی که آن افست را 0 محدود کنیم. 2. ما می خواهیم یک توزیع $p(z)$ را تخمین بزنیم و حالت آن را پیدا کنید ما $p$ را با استفاده از تخمینگر چگالی تخمین میزنیم که $\tilde{p}$ باشد. اکنون، دوباره، برخی از ویژگیهای حالت را میدانیم، بهطوریکه برای برخی تابع $F(z_{mode}) = 0$. سپس، (شاید؟) بهتر است به جای یافتن حالت $\tilde{p} حالت $\tilde{p}(z)$ را در حالی که $F(z)$ را به $0$ محدود می کنیم، پیدا کنیم. $ بدون این محدودیت. سوال من این است: آیا نتایج شناخته شده ای در مورد ترکیب این نوع دانش قبلی وجود دارد (اگر درست باشد)؟ نتیجه ای که نشان می دهد راه حل ما با استفاده از دانش قبلی بهتر است یا غیره؟ امیدوارم خیلی مبهم نباشد. من علاقه مند به خواندن بیشتر در این مورد هستم. با تشکر | چه نوع نتایجی در مورد دانش قبلی وجود دارد؟ |
90038 | من در حال تخمین مدلی برای یک تکلیف هستم و متوجه شدم که بین دو متغیر مستقل همبستگی 0.9 وجود دارد. بنابراین اگر اشتباه نکنم باید یک متغیر را حذف کرده و رگرسیون را دوباره انجام دهم. با این حال، از من خواسته شده است که مدل log-log را تخمین بزنم و سپس همبستگی بین متغیرها از 0.9 به 0.5 کاهش یابد. بنابراین در مدل جدید، آیا هنوز باید یکی از متغیرها را حذف کنم؟ همچنین، برای اینکه تصمیم بگیرم کجا یک متغیر را حذف کنم، کدام باید باشد؟ آیا همبستگی 0.6 به اندازه کافی زیاد است که به مدل مشکل بدهد؟ | نحوه برخورد با چند خطی ناقص |
44494 | در الگوریتم مدل مبحث LDA، من این فرض را دیدم. اما نمی دانم چرا توزیع دیریکله را انتخاب کردم؟ نمی دانم می توانیم از توزیع یکنواخت روی چند ملیتی به صورت جفت استفاده کنیم؟ | چرا توزیع دیریکله برای توزیع چندجمله ای مقدم است؟ |
46891 | من یک مجموعه داده حاوی اطلاعات قیمت سهام بر اساس تیک به تیک دارم. من می خواهم همبستگی را در R محاسبه کنم که دردسری نیست. اما طول بردارها متفاوت است، زیرا یک سهم بیشتر از دیگری معامله می شود. من میتوانم بر اساس دقیقه جمعآوری کنم، اما این باعث میشود که بردارهای طول نابرابر بهدلیل اینکه معاملات در هر دقیقه برای هر سهام صورت نمیگیرد، باقی میماند. من حدس می زنم که این به یک سوال آماری خلاصه می شود. آیا می توانم همبستگی را با طول بردارهای مختلف با توجه به دوره زمانی یکسانی محاسبه کنم؟ من به این فکر کردم که قیمت قبلی را در شکافهای دقیقهای خالی برای دستیابی به طول برداری برابر وارد کنم، اما شاید رویکرد متفاوتی وجود داشته باشد؟ من از R استفاده می کنم. با تشکر * * * از پاسخ های شما متشکرم. من راهحلهای پیشنهادی را بررسی کردهام، و فکر میکنم نمونهبرداری/نمونهسازی پایینتر در این مورد بهترین خواهد بود. آیا راهی برای کدنویسی زیر در R وجود دارد؟ My hunch یک حلقه if است که در صورت وجود زمان، قاب داده مربوطه را بررسی می کند، در غیر این صورت، قیمت قبلی را می گیرد و قیمت جدیدی را برای زمان از دست رفته وارد می کند. این چیزی است که من می خواهم تولید کنم: دو ستون جداگانه، قیمت و زمان، برای هر سهام. اگر زمان برای سهام X وجود دارد اما برای سهام Y وجود ندارد، باید قیمت قبلی را در بردار قرار داد. طبق مثال زیر: X Y قیمت زمان قیمت زمان 10 540 20 540 11 541 21 541 12 542 22 543 13 544 23 544 14 545 24 545 زمان قیمت زمان قیمت 10 540 211 10 540 211 542 21 542 12 543 22 543 13 544 23 544 14 545 24 545 | همبستگی با طول بردار متفاوت - دوره زمانی یکسان |
12887 | من یک تازه کار هستم که شروع به خواندن در مورد داده کاوی می کنم. من دانش اولیه هوش مصنوعی و آمار را دارم. از آنجایی که بسیاری می گویند که یادگیری ماشین نیز نقش مهمی در داده کاوی ایفا می کند، آیا قبل از اینکه بتوانم به داده کاوی ادامه دهم، لازم است در مورد یادگیری ماشین مطالعه کنیم؟ | چگونه شروع به خواندن در مورد داده کاوی کنیم؟ |
11867 | چگونه می توانم مقادیر اطلاعات متقابل زیر را با هم مقایسه کنم؟ من فقط به این فکر می کنم که مناسب ترین راه برای نمایش آنها در جدول گزارش من چیست. من آنها را با این فرمول محاسبه می کنم  که e و c خوشه هستند و تقاطع آن تعداد عناصر مشترک برای هر زوج e و c من یک مقدار I دارم (اطلاعات متقابل). به طور متوالی میانگین تمام e متعلق به یک دسته (در فرمول نشان داده نشده است) را می گیرم و در نهایت با جدولی مانند: cat1 0.0123 cat2 0.0012 cat3 0.0009 cat4 0.0100 ... مقادیر وابستگی متقابل معمولاً بسیار پایین هستند (حدود 0.01) ، زیرا n (مجموع اسناد موجود در مجموعه) بسیار زیاد است. آیا باید از معیار دیگری استفاده کنم یا ... پیشنهاد شما چیست؟ با تشکر | چگونه می توانم مقادیر اطلاعات متقابل زیر را با هم مقایسه کنم؟ |
29714 | من یک داده گسسته خام (منحنی) دارم. من باید روش هایی برای تشخیص ویژگی های هر منحنی پیدا کنم. برخی از ویژگی های نمونه: 1) رشد پایدار 2) رشد سریع 3) سقوط سریع 4) سقوط سریع 5) و به همین ترتیب در اینجا نمونه خوبی از این نوع منحنی ها وجود دارد (روسی):  چگونه می توانم این کار را انجام دهم؟ | آیا روش هایی برای تشخیص خودکار ویژگی های یک منحنی وجود دارد؟ |
71868 | داده های من (پانل، 19 کشور، 7 سال، متغیر نتیجه ترتیبی) دارای اثرات درونی (کشورها در طول زمان)، بین تأثیرات (بین کشورها) است و به نظر می رسد که شیب خطوط (آزمون خطوط موازی) بین موارد مختلف متفاوت است. دسته بندی های نتیجه چگونه می توان مدل را در SPSS به درستی تخمین زد؟ | کدام مدل برای داده هایی که دارای درون افکت، بین افکت ها و خطوط غیر موازی است |
28045 | ببخشید اگر عنوان گیج کننده است. اینجا زبان مادری نیست من یک مطالعه پیمایشی انجام دادم که دارای 15 سوال 7 درجه ای مقیاس لیکرت بود. هر سوال این است که از مردم بخواهید در مورد میزان خلاقیت یک شی در تصویر قضاوت کنند. من در کل 153 پاسخ دریافت کردم. چیزی که من سعی می کنم بفهمم این است که آیا افرادی که به این نظرسنجی پاسخ دادند قضاوت مشابهی با کارشناسان داشتند یا خیر. من 15 کارشناس دارم که همان نظرسنجی را تکمیل کردند و میانگین امتیاز را برای هر تصویر محاسبه کردند. برای 153 پاسخ (من این گروه را جمعیت می نامم)، میانگین امتیاز هر تصویر را نیز محاسبه کردم. در اینجا میانگین رتبه بندی داده های دو گروه (E-experts، C-crowd) E C 3.36 2.33 1.43 1.53 1.07 1.19 2.43 2.69 2.14 1.92 4.64 4.22 4.71 4.22 4.71 4.30 4.33 5.07 4.78 4.36 3.41 4.64 5.02 6.14 5.50 5.79 5.73 6.00 5.95 اولین سوال من در مورد داده ها این است که آیا دو گروه قضاوت مشابهی داشتند؟ آیا می توانم یک آزمون t ساده با مقایسه میانگین امتیاز 15 سوال انجام دهم و نتیجه را بگویم؟ دوم، از آنجایی که من نظرسنجی را برای طراحی اپلیکیشن انجام می دهم. در سیستم واقعی، برای هر تصویر، من می توانم انتظار داشته باشم که فقط 15-20 نفر به آن امتیاز دهند. بنابراین میخواهم بدانم که آیا 153 پاسخی که اکنون جمعآوری کردم، میگویند که قضاوتهای مشابهی را انجام میدهند که آن کارشناسان (15=n) انجام میدهند، آیا میتوانم بگویم که 15 نفر تصادفی نیز میتوانند قضاوت مشابهی انجام دهند؟ چگونه می توانم بدانم که یک نمونه کوچک (یک نمونه فرعی) عملکردی مشابه یک نمونه بزرگ دارد؟ یکی از راه هایی که من به آن فکر می کنم این است که 15 نفر از 153 پاسخ را برای 10000 بار به صورت تصادفی انتخاب کنم و از میانگین رتبه بندی برای مقایسه با میانگین رتبه بندی 153 پاسخ استفاده کنم. اما مطمئن نیستم که آیا این روش درستی برای انجام آن است یا خیر. لطفاً اگر از زبان من گیج می شوید، اطلاعات بیشتری بخواهید. | چگونه می توانم بفهمم که یک نمونه فرعی کوچک تصادفی عملکرد خوبی دارد؟ |
114388 | من تعجب می کنم که چگونه می توانم میانگین نمودار را با نوار خطا داده های جدول بندی شده متقاطع در بسته R خط بکشم. دادههای من به این شکل به نظر میرسند که میانگین مرحله درمان شکن سبز صورتی قرمز در حال چرخش 0.06779080 0.1964575 0.010335260 0.005861540 0.05828315 FRM 0.1721165300.180.170.18 0.013183020 0.09467819 KNO3 0.24755945 0.2863050 0.007866763 0.002554247 0.06097948 LFR 0.08055945 0.080831258 0.000000000 0.07710268 نمک 0.38564291 0.4419331 0.050551620 0.001115087 0.14508939 انحراف استاندارد مرحله درمان انحراف استاندارد مرحله درمان 0.38564291 تبدیل به رنگ سبز صورتی01. 0.14157770 0.003498454 0.0037076134 0.032316651 FRM 0.02710538 0.03422274 0.017164023 0.0143484928 0.0143484928 K. 0.05372195 0.12865178 0.003552846 0.0006738978 0.001983925 LFR 0.04366554 0.05611974 0.0091801100 0.0091801000 0.029396442 نمک 0.03035888 0.12908778 0.028818513 0.0004681397 0.050566535 | رسم نمودار خطی با نوار خطا در R از داده های جدول بندی شده متقاطع |
28047 | یک سازمان غیرانتفاعی اهداکنندگانی با تعهدات ماهانه دارد که می توانید آنها را به عنوان اشتراک در نظر بگیرید. **بهترین راه برای نشان دادن خریدهای جدید، لغو و رشد خالص برای هر ماه چیست؟ رابطه رشد خالص = خریدهای جدید - لغو است. زمان مشابه نمودار می تواند برای سود خالص (کسب و کار) یا درآمد خالص (مالی شخصی) مناسب باشد. اولین مشکل (و مهمتر) طراحی است: باید جذاب باشد و برای افراد غیر فنی به راحتی قابل درک باشد. طراحی واقعا پاسخ این سوال است. مشکل دوم، که در پاسخ لازم نیست، پیادهسازی است: من ترجیح میدهم این را در SAS، Excel، SharePoint یا برخی از کتابخانههای جاوا اسکریپت--- یا شاید R پیادهسازی کنم. یک داستان پشت نمودار این است که خریدهای جدید دارای امتیاز بالایی هستند نرخ لغو، بنابراین آنها هم کمک می کنند و هم به رشد خالص آسیب می رسانند. (با این حال، لغوها تشخیص نمی دهند که تعهد جدید بود یا قدیمی.) رئیس من این نمودار نمونه را ترسیم کرد:  در اینجا یک طرح جدید با ایده ای از پست xan در این طرح، لغو به صورت ضمنی است، بنابراین من توانستم با حذف یک عنصر نمودار، آن را ساده کنم.  این نمودار از گزارش اتحادیه اروپا مشابه است: واردات، صادرات و تراز تجاری را نشان می دهد.  نسخه نهایی من این است:  | روش موثر برای تجسم رشد / سود / درآمد خالص؟ |
95847 | اجازه دهید $X$ یک توزیع پواسون با پارامتر $\lambda$ داشته باشد. برآوردگر حداکثر درستنمایی $\alpha=\mathbb P(X=0)$ را پیدا کنید. در یک نمونه با اندازه 100 از توزیع پواسون، مشخص شد که میانگین 0.75 است. یک فاصله اطمینان تقریبی 95٪ برای ${\alpha}$ را محاسبه کنید. برای MLE، ما می خواهیم $e^{-\lambda}$ را به حداکثر برسانیم، اما آیا این یک ثابت نیست؟ برای فاصله اطمینان، فکر میکنم بازهای از شعاع $\frac{0.075}{0.075/100}$ باشد، اما کاملاً به یاد ندارم. چند سال از سطوح A... | برآوردگر حداکثر درستنمایی و فاصله اطمینان را محاسبه کنید |
19850 | من در تلاشم تا بفهمم که آیا رابطه ای بین 5 نرخ مختلف بازار سهام در یک دوره 5 ساله وجود دارد یا خیر. از سوی استاد راهنما به من توصیه شد که از ضریب همبستگی همخوانی استفاده کنم که متاسفانه مطالعه نکرده ام و مطمئن نیستم که چگونه باید ادامه دهم. همچنین به من توصیه شد که از Timeseries روی داده ها استفاده کنم. در حال حاضر من در حال مطالعه این نظریه از یک کتاب هستم، اما اگر کسی بتواند به من توصیه کند که چگونه باید ادامه دهم، سپاسگزار خواهم بود. | چگونه می توان با اعمال ضریب همبستگی تطابق بر روی داده های بازار سهام اقدام کرد؟ |
114380 | من اطلاعاتی برای حدود 1800 پیام ایمیل دارم و در حال ساخت ابزاری در اکسل هستم که به تیم من امکان میدهد معیار را در لحظه ایجاد کند -- آنها میتوانند ویژگیهای مختلف یک پیام را انتخاب کنند (مثلاً اندازه مخاطب) و میانگین عملکرد پیام های مشابه گذشته من از COUNTIF برای نشان دادن میانگین تعداد پیامهای مشابه استفاده میکنم، با این ایده که میانگین عملکرد یک یا دو پیام کمتر از پنج یا شش (یا بیشتر) قابل اعتماد است. من نمیدانم آیا روش معنیداری برای استفاده از انحراف معیار برای نشان دادن قابل اعتماد بودن نمونهای که تولید کردهاند وجود دارد یا خیر. به عنوان مثال، آیا مقایسه انحراف معیار نرخ باز برای کل جمعیت با انحراف معیار نرخ باز برای نمونه مورد نظر آنها مفید است؟ (از آخرین کلاس آماری من چندین سال می گذرد، و من تازه شروع به جمع آوری این چیزها کردم.) | آیا مقایسه انحراف معیار روشی معتبر برای ارزیابی سودمندی یک نمونه است؟ |
95846 | من از SVM برای طبقه بندی ویژگی هایم استفاده کردم. با اعتبارسنجی متقاطع، در مجموعه آزمایشی خود، دقت 81٪ را به دست آوردم. من می خواهم اندازه گیری کنم که این چقدر خوب / بد است. آیا اصطلاح فنی برای معنی آماری خوب/بد است؟ با SVM من پیش بینی می کنیم که یک بردار ویژگی 8 بعدی در 1 از 2 کلاس قرار دارد. من می خواستم از یک تست جایگشت برای یافتن مقدار p استفاده کنم، اما نمی دانم از چه چیزی برای آمار تست استفاده کنم. 1. از چه چیزی می توانم برای آمار آزمون استفاده کنم؟ 2. آیا این خط فکری اشتباه است؟ چه کار دیگری می توانم انجام دهم تا نشان دهم که 81٪ یک خط پایه خوب/بد است؟ با تشکر از همه کمک! | رایج ترین روش ارزیابی طبقه بندی کننده SVM |
110010 | من در واقع یک رگرسیون خطی را بدون وقفه «lm(y~ -1 + a + b + c + d )» انجام میدهم، که در آن «b»، «c» و «d» فاکتورهایی هستند. (می دانم که انجام آن بدون رهگیری معمولاً ایده خوبی نیست، اما برای مشکل من ضروری است) و در تعیین ضریب خود با R متوجه چیز عجیبی شدم: R تمام مقادیر ممکن b را تخمین می زند اما اینطور نیست. یک کنتراست مجموع! و اگر c را به عنوان اولین متغیر قرار دهم (که عددی نیست) این کار را برای c انجام می دهد اما دیگر برای b این کار را نمی کند؟ کسی میدونه از کجا میاد؟ آیا به این دلیل است که مدل من رهگیری ندارد؟ و آیا می توانم آن را بدون قرار دادن رهگیری در مدل خود تغییر دهم؟ | Rlm بدون رهگیری کنتراست عجیب و غریب |
1699 | من در حال تلاش برای حل یک پرتفوی کارآمد در R هستم. چگونه می توانم محدودیت های خود را برای یک نقطه مماس برای 2 پرتفوی دارایی پرخطر، و یک نرخ بدون ریسک معین را به تابع Rsolve.QP ترجمه کنم؟ بنابراین اساساً من معادلات زیر را دارم: w = وزن اولین دارایی پرریسک R1 = میانگین بازده اولین دارایی پرخطر R2 = میانگین بازده دومین دارایی پرخطر sd1 = sdev اولین دارایی پرخطر sd2 = sdev دارایی پرخطر دوم corr = همبستگی بین دو دارایی پرخطر rf = نرخ بدون ریسک بازده پرتفوی، R = R2*(1-w)+R1*w برنامه نویس استاندارد نمونه کارها، SD = sqrt((sd1*w)^2+(sd2*(1-w))^2+2*w*(1-w)*corr*sd1*sd2) اکنون باید حداکثر کنم R-rf در حالی که SD را به حداقل می رساند (که شارپ من را به حداکثر می رساند). بگذارید سیگما ماتریس کوواریانس باشد. بنابراین تابع من برای کمینه کردن W^T*sigma*W است که در آن W بردار وزن است. اکنون به طور همزمان باید بازده اضافی (R-rf) و W^T*1=1 را به حداکثر برسانم. من نمی دانم چگونه آن را در تابع محدودیت ها بیان کنم. من در نحوه بیان این محدودیت ها همانطور که توسط http://pbil.univ-lyon1.fr/library/quadprog/html/solve.QP.html انتظار می رود، گیج شده ام. اگر شما همچنین می توانید به من یک مشتق حل شده از فرمول نهایی را اشاره کنید، مفید خواهد بود و همچنین من نمی توانم به فرمول نهایی برسم. | پورتفولیوی مماس در R |
95267 | هدف من خوشهبندی 126 سری زمانی مربوط به 26 هفته (بنابراین هر سری زمانی دارای 26 مشاهده است) با تقسیمبندی حول مدویدها. قبل از خوشه بندی، می خواستم مقایسه کنم که کدام اندازه گیری فاصله مناسب ترین است: تاب زمانی اقلیدسی یا پویا. من از هر فاصله برای خوشه بندی و مقایسه بر اساس نمودار شبح استفاده کردم. آیا راهی وجود دارد که بتوانم اندازه گیری های مختلف فاصله را مقایسه کنم؟ سوال اضافی: آیا آمار GAP برای تصمیم گیری برای انتخاب چند خوشه کافی است؟ یا باید تعداد خوشه ها را با روش های مختلف ارزیابی کنم یا دو یا سه روش را با هم مقایسه کنم؟ برای هر پیشنهادی ممنون خواهم بود. | چگونه اندازههای فاصله مختلف را در خوشهبندی سریهای زمانی مقایسه کنیم؟ |
95269 | سوال دقیق تر  من برای شروع پاسخ دادن به این سوال به نوعی مشکل دارم. رویکرد اولیه من به $g(x)= x^2$ خواهد بود زیرا این تابع محدب است و مقادیر مورد انتظار $(T-P)^2$ و $(S-P)^2$ را پیدا می کند. با این حال، من می ترسم که خیلی خاص باشد، زیرا سؤال می خواهد برای هر تابع محدب ثابت شود. آیا راهی برای اثبات کلی تر این موضوع وجود دارد؟ | نشان دهید که $\mathbb{E}(g(T-p)) < \mathbb{E}(g(S-p))$ برای هر تابع محدب $g$ اگر $T$ و $S$ تخمینگر $p$ باشند |
28044 | هنگامی که من تجزیه و تحلیل خوشه ای را در SAS انجام می دهم، گزارش SAS گاهی هشداری شبیه به این را برمی گرداند: اخطار: پیوندها برای حداقل فاصله بین خوشه ها در 4 سطح در تاریخچه خوشه شناسایی شده است. بسته به روش های خوشه بندی (همه روش های خوشه بندی سلسله مراتبی) که انتخاب می کنم، تعداد پیوندها تغییر خواهد کرد. اما صرف نظر از روش ها، می خواهم بدانم آیا راه حلی برای این موضوع وجود دارد؟ یا نادیده گرفتن این امر درست است زیرا این موضوع از این واقعیت ناشی می شود که فاصله مقادیر واقعاً به یکدیگر نزدیک هستند؟ | تجزیه و تحلیل خوشه ای با مسئله پیوندها |
92814 | من یک مجموعه داده با 90 مجموعه مختلف از اصطلاحات GO دارم (مثلاً یک مجموعه میتواند (GO:0014075، GO:0060742، GO:2001238، GO:0071478). من میخواهم همپوشانی بین همه این گروه ها برای نمایش همپوشانی بین بسیاری از گروه ها، نمی دانم من می توانم از یک نمودار ون استفاده کنم، اما این با یک گروه بزرگ از مقایسه ها کار نمی کند. | از چه نوع نمودارهایی می توان برای نشان دادن همپوشانی بین بسیاری از مجموعه ها استفاده کرد؟ |
108757 | تعدادی از اقدامات منظم سازی در ادبیات موجود است که برای مبتدیان به نوعی گیج کننده است. پنالتی کلاسیک **ریج** توسط Hoerl & Kennard (1970, Technometrics 12, 55-67) است.  یکی دیگر از اصلاحات در این مورد **lasso** توسط Tibshirani (1996, Journal of the Royal Statistical Society B 58, 267–288)، به این صورت تعریف شده است:  دیگری پنالتی **پنالتی خالص الاستیک** است (Zou and Hastie 2005, Journal of the Royal Statistical Society B 67, 301-320) که ترکیبی خطی از پنالتی کمند و پنالتی برجستگی است. بنابراین مجازات این هر دو را به عنوان موارد شدید پوشش می دهد.  جریمه دیگری که می توانم پیدا کنم ** پنالتی پل** است که در Frank & Friedman (1993, Technometrics 35, 109) معرفی شد. -148). جایی که λ ̃ = (λ، γ). این ویژگی یک پارامتر تنظیم اضافی γ را دارد که درجه ترجیح بردار ضریب تخمینی را برای همسویی با جهتهای محور داده اصلی و در نتیجه استاندارد شده در فضای رگرسیور کنترل میکند. این شامل جریمه کمند (γ = 1) و جریمه رج (γ = 2) به عنوان موارد خاص است.  سوال من این است: **_آیا ترجیحاتی در مورد نوع مجازات برای استفاده وجود دارد - چیزی از کتاب های درسی آماری یا خارج از آن_* *؟ یا این فقط آزمون و خطا است؟ لطفا به زبان عامی توضیح دهید. | چگونه تصمیم بگیریم که از کدام مجازات استفاده کنیم؟ هر دستورالعمل کلی یا قانون شست خارج از کتاب درسی |
108750 | من با مجموعه داده ای مانند زیر کار می کنم: _X_ = c1 c2 c3 c4 c5 y a c f h j 0 a d f i k 0 a c g h j 1 a c f h k 0 b d g h k 0 b e f h j 0 من سعی می کنم یک مدل رگرسیون لجستیک ایجاد کنم که بتواند «مدل رگرسیون لجستیک» را پیش بینی کند ( 0 یا 1) بر اساس ویژگی های _X_. اطلاعات در مورد _X_: مقادیر «c1»–«c5» همه فاکتورها هستند. ویژگیها دارای تعداد سطوح متفاوتی هستند (مثلاً «c1»: 2 سطح، «c2»: 4 سطح، «c3»: 3 سطح، و غیره) تقریباً 10٪ از «y» 1 است. من سعی کردم از SVM استفاده کنم و GLM بدون هیچ نتیجه خوبی. مدل <- svm(y ~ .، داده = X) pred <- پیش بینی (مدل، X) جدول (pred,X$y) y pred FALSE TRUE FALSE 1332 113 TRUE 0 0 و مدل <- glm(y ~ ., family=binomial(logit), data=X) pred <- predict(model, X, type=response) جدول (pred,X$y) pred FALSE TRUE 4.2260288377431e-08 2 0 4.24333100181876e-08 1 0 ... 0.706714407238236 1 1 0.72921'm کارکرده ویژگیهایی با مقادیر پیوسته هنگام ایجاد یک مدل پیشبینی، اما من واقعاً نمیدانم چگونه با فاکتورها با مشکل مقابله کنم. دوستان برای این نوع مشکلات چه چیزی را پیشنهاد می کنید؟ تغییر از رگرسیون لجستیک به چیز دیگری یا استفاده از توابع دیگر به جز GLM و SVM؟ | رگرسیون لجستیک با ویژگی های چند طبقه در R |
28040 | فرض کنید نمونه ای از اعداد بزرگ دارید و می خواهید مقداری توزیع پیوسته را به این اعداد تطبیق دهید. شما مقداری توزیع دریافت خواهید کرد که به طور کلی بسیار لکه دار است، به عنوان مثال. ضریب مقیاس بزرگی دارد. برای اهداف عددی این ممکن است بسیار ناخوشایند باشد. حالا چه اتفاقی میافتد اگر دادهها را مجدداً مقیاس کند و سپس توزیع را متناسب کند؟ در مورد توزیع های متغیر مقیاس نباید تفاوتی وجود داشته باشد. شما فقط توزیع را دوباره مقیاس کنید. در مورد توزیع هایی که ثابت مقیاس نیستند چطور؟ به طور شهودی، میتوانم بگویم که مقیاسبندی و سپس جا افتادن آن خطرناک است. اگر به عنوان مثال محاسبه کنید، ممکن است یک خطای جدی معرفی کنید. یک کمیت از توزیع حاصل. بنابراین چگونه می توان با چنین داده های عظیمی برخورد کرد - آیا مقیاس بندی نامطلوب است؟ | مقیاس بندی داده های عظیم و تخمین توزیع |
8505 | رگرسیون پواسون یک GLM با تابع log-link است. یک راه جایگزین برای مدلسازی دادههای تعداد غیرعادی توزیعشده، پیشپردازش با گرفتن گزارش (یا بهتر است بگوییم، log(1+count) برای رسیدگی به 0ها است). اگر رگرسیون حداقل مربعات را در پاسخ های شمارش log انجام دهید، آیا این به رگرسیون پواسون مربوط می شود؟ آیا می تواند پدیده های مشابه را مدیریت کند؟ | رگرسیون پواسون در مقابل رگرسیون حداقل مربعات log-count? |
95844 | با توجه به قاب داده زیر: df <- data.frame(x1 = c(26, 28, 19, 27, 23, 31, 22, 1, 2, 1, 1, 1), x2 = c(5, 5, 7، 5، 7، 4، 2، 0، 0، 0، 0، 1)، x3 = c(8، 6، 5، 7، 5، 9، 5، 1، 0، 1، 0، 1)، x4 = c(8، 5، 3، 8، 1، 3، 4، 0، 0، 1، 0، 0)، x5 = c(1، 1، 1، 1، 1، 0، 1، 0، 0، 0، 0، 0)، x6 = c(2، 3، 1، 0، 1، 1، 3، 37، 49، 39، 28، 30)) به طوری که > df x1 x2 x3 x4 x5 x6 1 26 5 8 8 1 2 2 28 5 6 5 1 3 3 19 7 5 3 1 1 4 27 5 7 8 1 0 5 23 7 5 1 1 1 6 31 4 9 3 0 1 7 22 2 5 4 1 3 8 1 0 1 0 0 37 9 2 0 0 0 0 49 10 1 0 1 1 0 39 11 0 1 0 1 1 1 0 0 30 من می خواهم این 12 فرد را با استفاده از خوشه های سلسله مراتبی و با استفاده از همبستگی به عنوان اندازه گیری فاصله گروه بندی کنم. بنابراین این کاری است که من انجام دادم: clus <- hcluster(df, method = 'corr') و این نمودار 'clus' است:  این «df» در واقع یکی از 69 موردی است که من در حال انجام تجزیه و تحلیل خوشه ای بر روی آن هستم. برای رسیدن به یک نقطه برش، به چندین دندوگرام نگاه کردم و با پارامتر «h» در «cutree» بازی کردم تا زمانی که از نتیجهای که برای اکثر موارد منطقی بود راضی شدم. این عدد k = 0.5 بود. بنابراین این گروه بندی است که ما بعداً به آن رسیدیم: > data.frame(df, cluster = cutree(clus, h = 0.5)) x1 x2 x3 x4 x5 x6 cluster 1 26 5 8 8 1 2 1 2 28 5 6 5 1 3 1 3 19 7 5 3 1 1 1 4 27 5 7 8 1 0 1 5 23 7 5 1 1 1 1 6 31 4 9 3 0 1 1 7 22 2 5 4 1 3 1 8 1 0 1 0 0 37 2 9 2 0 0 0 0 1 0 49 1 0 39 2 11 1 0 0 0 0 28 2 12 1 1 1 0 0 30 2 با این حال، من در تفسیر قطع 5. در این مورد مشکل دارم. من نگاهی به اینترنت انداختم، از جمله صفحات راهنما «?hcluster»، «?hclust» و «?cutree»، اما بدون موفقیت. دورترین کاری که من برای درک فرآیند انجام دادم این است: ابتدا، نگاهی به نحوه ادغام میاندازم: > clus$merge [,1] [,2] [1,] -9 -11 [2 ,] -8 -10 [3،] 1 2 [4،] -12 3 [5،] -1 -4 [6،] -3 -5 [7،] -2 -7 [8،] -6 7 [9,] 5 8 [10,] 6 9 [11,] 4 10 یعنی همه چیز با پیوستن به مشاهدات 9 و 11 شروع شد، سپس مشاهدات 8 و 10، سپس مراحل 1 و 2 (یعنی پیوستن به 9، 11، 8 و 10) و غیره. خواندن در مورد مقدار «ادغام» «hcluster» به درک ماتریس بالا کمک می کند. اکنون به ارتفاع هر پله نگاهی می اندازیم: > clus$height [1] 1.284794e-05 3.423587e-04 7.856873e-04 1.107160e-03 3.186764e-03 6.4633286e-03 6.463587e-05. 1.539053e-02 3.060367e-02 6.125852e-02 1.381041e+00 > clus$height > 0.5 [1] FALSE FALSE FALSE FALSE FALSE FALSE FALSE FALSE FALSE که فقط در مرحله FALSE متوقف می شود. قد بالاخره میره بالاتر از 0.5 (همانطور که Dendogram قبلاً اشاره کرده بود، BTW). حالا سوال من اینجاست: **ارتفاعات را چگونه تفسیر کنم؟** آیا باقیمانده ضریب همبستگی است (لطفا سکته قلبی نکنید)؟ من می توانم ارتفاع مرحله اول (پیوستن به مشاهدات 9 و 11) را به این صورت بازتولید کنم: > 1 - cor(as.numeric(df[9, ])، as.numeric(df[11, ])) [1] 1.284794e-05 و همچنین برای مرحله زیر که به مشاهدات 8 و 10 می پیوندد: > 1 - cor(as.numeric(df[8, ]), as.numeric(df[10, ])) [1] 0.0003423587 اما مرحله بعدی شامل پیوستن به آن 4 مشاهدات است، و من نمی دانم: 1. روش صحیح محاسبه ارتفاع این پله 2. معنای واقعی هر یک از آن ارتفاعات چیست. | نحوه تفسیر ارتفاع دندروگرام برای خوشه بندی با همبستگی |
104206 | ما همه 10000 متخصص را در یک صنعت خاص مورد بررسی قرار دادیم. این صنعت به شدت تحت نظارت است، بنابراین ما اطلاعات تماس با همه افراد مورد علاقه خود را داریم. ما سعی کردیم با 100 درصد جمعیت تماس بگیریم. ما اکنون یک مجموعه داده حاوی 2000 پاسخ داریم، زیرا 20٪ از جمعیت ما با تکمیل نظرسنجی موافقت کردند. هنگام اجرای این نظرسنجی، هیچ گونه احتمال نمونه گیری وجود نداشت و اصلاً خوشه بندی نبود. زمانی که بر اساس ایالت محل سکونت تقسیم می شود، تغییرات زیادی در نرخ پاسخ وجود دارد. از آنجایی که تنوع حالت در این صنعت مهم است، ما قصد داریم وزنهای این مجموعه دادههای نهایی را محاسبه کنیم تا هر آماری که اجرا میکنیم بهجای 20 درصدی که پاسخ دادند، به کل جمعیت تعمیم یابد. من معتقدم که وزن ها باید به عنوان وزن های پس از طبقه بندی در نظر گرفته شوند، اما مطمئن نیستم. من تصور نمیکنم که این مجموعه دادههای بسیار پیچیدهای برای تجزیه و تحلیل باشد، اما مطمئن نیستم که آیا این یک نوع مورد خاص است -- به هیچوجه نمونهبرداری را شامل نمیشود، اما در عین حال کل جهان نیست. . من از هر گونه راهنمایی کدگذاری (به هر زبان آماری) برای توصیه تنظیم تجزیه و تحلیل نظرسنجی که برای دادههای این ساختار منطقیتر است، قدردانی میکنم. اگر بخواهم حدس بزنم، این کد R است که از آن استفاده خواهم کرد: # با مجموعه داده «x» شروع کنید و یک ستون پنج اضافه کنید، زیرا 20٪ پاسخ دادند x$wgt <- 5 # به همه افراد در مجموعه داده ها وزن پنج را بدهید. # فقط یک ستون 5 تایی برای دستور 'svydesign' ارائه دهید y <- svydesign( ~ 1 , data = x , weights = ~ wgt ) # یک جدول با مفصل مورد نظر ایجاد کنید توزیع، در اینجا فقط با دو حالت مثال pop.types <- data.frame( state = c( state 1 , state 2 , Freq = c( 5000 , 5000 ) ) # ایجاد طرح بررسی پس از طبقه بندی z <- postStratify(y, ~ state, pop.types) # از اجرای آمار و فواصل اطمینان لذت ببرید svymean(~ variable.to.analyze, z) confint( svymean(~ variable.to.analyze, z)) ucla یک آموزش پس از طبقه بندی در stata دارد که باعث می شود فکر کنم ممکن است ساخت خط svyset مانند این هوشمندتر باشد - gen total_pop = 10000 ژن pststr_wgt = . جایگزین pststr_wgt = 5000 if state == state 1:state جایگزین pststr_wgt = 5000 if state == state 2:state svyset _n , fpc( total_pop ) poststrata( state ) postweight( pststr_wgt ) با تشکر!! | توصیه هایی برای تجزیه و تحلیل یک نظرسنجی از کل قاب نمونه با نرخ پاسخ 20٪ |
104209 | برای برازش ضرایب $f(x_1, x_2) = a + b x_1\log x_2$ باید از کدام الگوریتم رگرسیون استفاده کنم؟ آیا رگرسیون خطی با متغیر مستقل $x_1 \log x_2$ کار خواهد کرد؟ | مدل رگرسیون برای $f(x_1، x_2) = a + b x_1\log x_2$ |
26781 | من سعی می کنم الگوریتمی را بفهمم که مناطق مشابه یک تصویر را با استفاده از PCA شناسایی می کند. الگوریتم اساساً تصویر را به بلوک های مربعی همپوشانی تقسیم می کند و سپس PCA را با هر بلوک به عنوان یک بعد انجام می دهد. در مرحله بعد، یک نوع واژگانی از اجزای اصلی را انجام می دهد تا بلوک های مشابه را نزدیک به یکدیگر مرتب کند. در نهایت مناطق مشابه بر اساس فاصله در لیست و چند اندازه گیری دیگر انتخاب می شوند. بخش PCA الگوریتم به شرح زیر است: > تصویری با بلوکهای همپوشانی از پیکسلهای $b$ ($\sqrt{b} \times > \sqrt{b}$ پیکسل در اندازه) کاشیکاری شده است، که هر کدام فرض میشود. به طور قابل توجهی > کوچکتر از اندازه مناطق تکراری قابل شناسایی باشد. اجازه دهید $ \vec > x_i,i=1,...,N_b,$ این بلوکها را به صورت برداری شده نشان دهد، جایی که > $N_b=\left(\sqrt{N}-\sqrt{b}+1 \right)^ 2 دلار ما اکنون یک نمایش جایگزین از این بلوک ها را بر اساس تجزیه و تحلیل مؤلفه اصلی > (PCA) در نظر می گیریم[15]. فرض کنید بلوکهای $\vec x_i$ میانگین صفر هستند، و محاسبه > ماتریس کوواریانس به صورت: \begin{equation*} \tag{1.1} C = \sum_{i=1}^{N_b} > \vec x_i \vec x_i^T \end{معادله*} بردارهای ویژه متعامد،$\vec > e_j$،از ماتریس $C$، با مقادیر ویژه مربوطه، $\lambda_j$، > رضایت بخش: \begin{equation*} \tag{1.2} C \vec e_j = \lambda_j \vec e_j، > \end{معادله*} اصل را تعریف میکند. اجزاء، که در آن $j=1،\dots،b$ و $ > \lambda_1 \geq \lambda_2 \geq \cdots \geq \lambda_b$. بردارهای ویژه، > $\vec e_j$، یک پایه خطی جدید برای هر بلوک تصویر تشکیل می دهند، $\vec x_i$: > \begin{equation*} \tag{1.3} \vec x_i = \sum_{j=1}^ b a_j \vec e_j، > \end{معادله*} که در آن $a_j = \vec x_i^T \vec e_j$، و $\vec a_i = \left(a_i > \dots a_b \right)$ نمایش جدیدی برای هر بلوک تصویر است. ابعاد این نمایش را می توان با کوتاه کردن مجموع معادله (1.3) به اولین عبارات $N_t$ کاهش داد. توجه داشته باشید که نمایش > بر روی اولین بردارهای ویژه $N_t$ از مبنای PCA بهترین تقریب > $N_t$-بعدی را به معنای حداقل مربعات به دست می دهد، اگر توزیع > بردارها، $\vec x_i$، چند برابر باشد. گاوسی بعدی > [15]. بنابراین، این نمایش ابعاد کاهشیافته، فضایی مناسب برای شناسایی بلوکهای مشابه در حضور نویزهای مخرب فراهم میکند، زیرا برش پایه، تغییرات جزئی را حذف میکند. من ترجمه الگوریتم را به MATLAB/Octave کامل کرده ام اما به نظر نمی رسد که درست کار کند. در زیر تصویر آزمایشی من با تصویری از داده ها به صورت برداری و نتایج PCA است. در اینجا $N_b = 225$ و $ b=4$. در جدول PCA تمام ردیف های باقی مانده 0 یا -1 هستند.  (لطفاً تصویر آزمایشی را در سمت چپ دانلود کنید. فقط دو بلوک یکسان هستند.)   چیزی که من نمی فهمم این است چگونه یک مرتب سازی واژگانی در داده های PCA شباهت را نشان می دهد. انتظار من این بود که ردیف 1 و 4 در خروجی PCA یکسان باشند و PCA به من اجازه دهد تا ستون های بالاتر را برای افزایش تطابق حذف کنم. مشابه روشی که تبدیل کسینوس گسسته اطلاعات «مهم» را به تعداد کمتری از مقادیر مجموعه داده منتقل میکند. من تأیید کردهام که الگوریتم PCA من بیشتر با دستور «princomp()» MATLAB مطابقت دارد (نشانهها متفاوت است) بنابراین نباید بفهمم PCA چه چیزی به من میگوید. سوال من این است که چگونه یک مرتب سازی بر روی نتایج PCA شباهت خود را نشان می دهد؟ این تجزیه و تحلیل اجزای اصلی همه را پاک می کند. bSide = 2; % اندازه ضلع یک بلوک %Read B&W image chanData = imread('./randS.gif'); %تنظیم مقادیر ورودی [imageWidth,imageHeight] = size(chanData); tic(); %محاسبه ثابت های مشتق شده N = imageHeight * imageWidth; b = bSide^2; Nb = (sqrt(N) - sqrt(b) + 1)^2; printf(ET:%d - ,toc()); printf(ثوابت مشتق تمام شده: N:%d b:%d Nb:%d\n,N,b,Nb); ٪ مجموعه ای از مشاهدات M متغیر X = صفر (b,Nb); %نمایش بلوک تصویر ورودی u = صفر (b,Nb)؛ %Temp برای ضرایب محاسبه میانگین صفر = صفر (Nb,2); % مختصات بلوک در این مکان %ماتریس ما را ایجاد کنید که داده های ابعاد %X = صفر ([Nb,b]); %b ستون بر اساس ردیف Nb %پر کردن ماتریس ابعاد iWidth = imageWidth - bSide + 1; ردیف = 1; ستون = 1; برای i = 1:Nb %Setup local variables Xtemp = zeros(1,b); ٪ هر بلوک به ستونی از ردیف های bSide برای j = 1 تبدیل می شود: bSide پایین ترX = (j - 1)*bSide + 1; Xtemp(lowerX:lowerX+(bSide-1)) = chanData(ردیف+(j-1)، ستون:ستون+(bSide-1)); پایان %این بردار را به عنوان یک ستون به آرایه اضافه کنید X(:,i) = Xtemp; حالا یک بردار میانگین بسازید u(i) = mean(X(:,i)); مختصات این بلوک را در یک ماتریس دو ستونی ذخیره کنید. coords(i,1) = row; coords(i,2) = ستون; اگر ستون == ردیف iWidth = ro، شاخص های ماتریس منبع ما را به روز کنید | استفاده از PCA برای شناسایی مناطق مشابه در یک تصویر |
49773 | من مجموعه عظیمی (حدود 100000) سری زمانی دارم. من باید بین 5 تا 10 سری زمانی را نشان دهم که به صورت نیمه تصادفی در یک نمودار انتخاب شده اند. اندازه نمودار بسیار محدود است - طرح برای هر سری زمانی فقط 100 پیکسل در 800 پیکسل است. نمی توان پیش بینی کرد کدام سری زمانی با هم نمایش داده می شوند - آنها باید به طور مستقل طرح شوند. دامنه همه متغیرها بسیار متفاوت است: برای یک سری زمانی می تواند بین 0-3000 و برای سری دیگر 0 تا 50 باشد. محدوده کلی همه متغیرها 0-60000 است. من میخواهم از نمودارهای افق استفاده کنم: http://timelyportfolio.blogspot.com/2012/08/more-on-horizon-charts.html، اما اگر با استفاده از 4 باند طرحهایی بسازم، تقریباً تمام سریهای زمانی مسطح به نظر میرسند. اگر من با استفاده از 32 باند رسم کنم - نمودارها از نمودارهای افق به نمودارهای نقشه حرارتی تغییر می کنند. آیا این ایده خوبی است که محدوده باندها یکنواخت نباشد؟ یعنی باند اول: 0-100، دوم: 100-1000 سوم: 1000-5000، چهارم: 5000-60000. | چگونه طرح های خوب برای سری های زمانی متعدد طراحی کنیم؟ |
28041 | برخی از افراد در حال انجام یک بازی آنلاین هستند. هر بار که شخصی بازی می کند، یک صفحه بازی جدید به صورت تصادفی تولید می شود. در نسل هیئت مدیره جدید، بازیکن همچنین می تواند یک سلاح ویژه را انتخاب کند. (انتخاب سلاح روی تولید تخته تأثیر نمی گذارد.) با گذشت زمان، داده های مشاهده شده به این صورت است: بازیکن اسلحه برد 3 5 0 # بازیکن 3 از سلاح 5 استفاده کرد و 4 2 1 # بازیکن 4 از سلاح 2 استفاده کرد و 8 1 1 برد بازیکن # 8 از هیچ سلاحی استفاده نکرد و برنده شد برای اینکه بفهمم آیا برخی از بازیکنان با برخی سلاحها بهتر هستند و برخی دیگر با سلاحهای دیگر، این را به عنوان تدارکات بیزی مدلسازی کردهام. رگرسیون: $logit(Pr(Win=1)) = \alpha_{p,w}$\alpha_{p,w} \sim N(\mu_{w},\sigma^2)$ بنابراین، $\mu_w $ اثر سلاح $w$ در همه بازیکنان است و $\alpha_{p,w}$ اثر بازیکن $p$ با سلاح $w$ است. از آنجایی که این یک مدل بیزی است، قبلی برای $\alpha_{p,w}$ $\mu_w$ است، بنابراین در تئوری، میتوانم $\alpha_{p,w}$ را برای همه ترکیبهای $p$ و $ تخمین بزنم. w$ حتی اگر برخی از بازیکنان هرگز از برخی سلاح ها استفاده نکنند. (به عنوان مثال، JAGS این کار را با حلقه های تو در تو روی بازیکنان و سلاح ها انجام می دهد.) اما آیا این ایده بدی است؟ همچنین آیا نام خاصی برای این نوع مدل وجود دارد؟ P.S. لطفاً اگر می توانید عنوان و برچسب ها را ویرایش کنید. | مزایا و معایب تخمین پارامترها برای مشاهدات از دست رفته؟ |
104208 | چگونه محاسبه IDF را انجام دهم؟ من مطمئن نیستم که آیا IDF باید در سطح هر کلاس محاسبه شود یا برای کل مجموعه اسناد (که شامل چندین کلاس است). | چگونه محاسبه IDF را انجام دهم؟ |
28042 | من میخواهم نمودارهای غیر چرخهای جهتدار تصادفی متصل را تولید کنم، و نمیخواهم راهی برای پر کردن یک ماتریس مجاورت در R وجود داشته باشد که نشاندهنده موارد فوقالذکر باشد. چیزی شبیه به این خوب خواهد بود (که با Mathematica انجام می شود): http://mathematica.stackexchange.com/q/608 با تشکر. | ماتریس مجاورت تصادفی در R |
93147 | من یک مطالعه قدیمی را تکرار میکنم و دو مجموعه از برآوردهای موجود دارم که اثر مشابهی را اندازهگیری میکنند، یعنی وجود یک آیتم مورد مطالعه در حافظه در طول زمان: a <-c(.42، 0.31، 0.26، 0.11، 0.02، 0.001، 0.001، 0.001، 0.1) b <-c(.17، 0.14، 0.03، 0.025، 0.06، 0.08، 0.06، 0.06، 0.08) هر دو سری تخمین ها بر اساس داده های بسیار مشابه هستند، اما به نظر می رسد تخمین ها پس از مرحله اولیه شباهت، به شدت از یکدیگر منحرف می شوند. نویسندگان اصلی این موضوع را به اثرات کف و تفاوتهای مربوط به پردازش نسبت میدهند. من می خواهم آن اثرات را در مدل خود تخمین بزنم زیرا به نظر می رسد در آنجا مشکلات زیادی ایجاد می کنند. در مدل من (استنتاج بیزی)، a و b با استفاده از یک ساختار رگرسیونی تخمین زده میشوند، به عنوان مثال: $$ a \sim dnorm(\mu_a, \tau_a)\\\ \mu_a \leftarrow \lambda_a t^{-\beta} \\\ \tau_a \sim dgamma(0.1،0.001)\\\ \beta \sim dbeta(0,4)\\\ \lambda_a \sim dunif(0,1)\\\ $$ جایی که $t$ زمان است. در نتیجه اثرات عجیب در برآوردهای بالا، تخمین $\beta$ آسیب می بیند و منحنی های حاصل آنقدر که من انتظار دارم با داده ها مطابقت ندارند. آیا می توان با افزودن پارامتری که افکت کف را رمزگذاری می کند، این مشکل را برطرف کرد: $$ \mu_a \leftarrow \lambda_a t^{-\beta} + f\\\ f \sim dbeta(0,1) $$ Where $ f$ پارامتر اثر کف است. آیا منطقی است که این پارامتر را فقط به شرایطی اضافه کنیم که اثر کف رخ می دهد؟ یا بهتر است آن را به همه شرایط اضافه کنیم؟ | اثرات کف در برآورد بیزی، آیا می توانم مجددا پارامتر کنم؟ |
95848 | اجازه دهید $X_1,...,X_n$ یک نمونه تصادفی از توزیع نرمال تا شده با چگالی باشد... $f(x)= \sqrt{\dfrac{2}{\pi}} \theta^{-1 } e^{(-x^{2} \theta^{-2})/2}$ برای $x>0$ و $\theta>0$، 0 در غیر این صورت. سوال میپرسد... UMP را برای اندازه آزمایش $\alpha$ برای $H_0:\theta = \theta_0$ در مقابل $H_0:\theta > \theta_0$ پیدا کنید. منطقه بحرانی را برای مقدار تعیین کنید. بنابراین نسبت احتمال برابر است... $$\dfrac{L(f(x,\theta_1))}{L(f(x,\theta_0))}= \bigg(\dfrac{\theta_1}{\theta_0} \bigg)^{-n} exp\bigg[{\sum{x^{2}_{i}}\frac{\theta_{0}^{-2}-\theta_{1}^{-2}}{2}} \bigg] $$ ما می دانیم که UMP وجود دارد زیرا تابع در $\sum x_{i}^{2}= T(x)$ در حال کاهش است. بنابراین اگر $T(x)<k$، عدد تهی را رد می کنیم. من در مورد چگونگی پیدا کردن $k$ مطمئن نیستم زیرا نمی دانم چگونه توزیع $T(x)$ را پیدا کنم. هر گونه ایده در این مورد بسیار قدردانی خواهد شد. | UMP از Folded Normal، یافتن مقدار بحرانی |
95261 | من تابع زیر را برای محاسبه آنتروپی اجرا کردم: از گزارش واردات ریاضی def calc_entropy(probs): my_sum = 0 برای p در probs: اگر p > 0: my_sum += p * log(p, 2) return - my_sum نتیجه: >> > calc_entropy ([1/7.0، 1/7.0، 5/7.0]) 1.1488348542809168 >>> از scipy.stats آنتروپی # را با استفاده از بسته داخلی وارد کنید # همان پاسخ را بدهید >>> آنتروپی([1/7.0, 1/7.0, 5/7.0], base=2) 1.148834854280916 درک من این بود آنتروپی بین 0 و 1 است، 0 به معنای بسیار قطعی است، و 1 به معنی بسیار نامشخص است. چرا اندازه آنتروپی را بیشتر از 1 می گیرم؟ من می دانم که اگر اندازه پایه log را افزایش دهم، اندازه گیری آنتروپی کوچکتر می شود، اما فکر می کردم پایه 2 استاندارد است، بنابراین فکر نمی کنم مشکل این باشد. من باید یک چیز واضح را از دست بدهم، اما چه چیزی؟ | چرا آنتروپی اطلاعات بیشتر از 1 است؟ |
104882 | **نظرات:** ابتدا میخواهم از نویسنده بسته جدید tsoutliers تشکر کنم که تشخیص پرت سری زمانی چن و لیو را اجرا میکند که در مجله انجمن آماری آمریکا در سال 1993 در نرمافزار متن باز منتشر شد. $ R$. این بسته 5 نوع مختلف پرت را به صورت تکراری در داده های سری زمانی شناسایی می کند: 1. Outlier افزایشی (AO) 2. Outlier نوآوری (IO) 3. Level Shift (LS) 4. تغییر موقت (TC) 5. Seasonal Level Shift (SLS) چیزی که حتی عالیتر است این است که این بسته auto.arima را از بسته پیشبینی پیادهسازی میکند، بنابراین تشخیص نقاط پرت بدون درز است. همچنین این بسته نمودارهای خوبی برای درک بهتر داده های سری زمانی تولید می کند. **سوالات من در زیر آمده است:** من سعی کردم چند نمونه را با استفاده از این بسته اجرا کنم و عالی کار کرد. نقاط پرت افزایشی و تغییر سطح بصری هستند. با این حال، من 2 سوال در مورد ارائه تغییرات پرت موقت و نوآورانه داشتم که قادر به درک آنها نیستم. نمونه تغییر موقت Outlier: مثال زیر را در نظر بگیرید: library(tsoutliers) library(expsmooth) library(fma) outlier.chicken <- tsoutliers::tso(chicken,types = c(AO,LS,TC) ,maxit.iloop=10) outlier.chicken plot(outlier.chicken) برنامه به درستی یک سطح را تشخیص می دهد شیفت و تغییر موقت در مکان زیر. موارد پرت: نوع ind time coefhat tstat 1 LS 12 1935 37.14 3.153 2 TC 20 1943 36.38 3.350 در زیر طرح و سؤالات من آمده است. * چگونه تغییر موقت را در قالب معادله بنویسیم؟ (تغییر سطح را می توان به راحتی به عنوان یک متغیر باینری نوشت، در هر زمان قبل از 1935/Obs 12 0 است و هر زمان بعد از 1935 و بعد از آن 1 است.) معادله تغییر موقت در کتابچه راهنمای بسته و مقاله به صورت : $$ L ارائه شده است. (B) = \frac{1} {1-\delta B} $$ که $\delta$ 0.7 است. من فقط در تلاش هستم که این را به مثال بالا ترجمه کنم. * سوال دوم من در مورد پرت نوآوری است، من تا به حال در عمل به نقطه پرت نوآوری برخورد نکرده ام. هر مثال عددی یا نمونه موردی بسیار مفید خواهد بود.  **ویرایش:** @Irishstat، تابع tsoutliers در شناسایی نقاط پرت و پیشنهاد یک مدل ARIMA مناسب کار بسیار خوبی انجام می دهد. با نگاهی به مجموعه داده نیل، کاربرد auto.arima را در زیر ببینید و سپس اعمال tsoutliers (با پیشفرضهایی که شامل auto.arima است): سری auto.arima(Nile): Nile ARIMA(1،1،1) ضرایب: ar1 ma1 0.2544 - 0.8741 s.e. 0.1194 0.0605 sigma^2 تخمین زده شده به عنوان 19769: log likelihood=-630.63 AIC=1267.25 AICc=1267.51 BIC=1275.04 پس از اعمال تابع tsoutliers، A Outlier LS، Outlier0، 0 را توصیه می کند. nile.outliers <- tsoutliers(Nile,types = c(AO,LS,TC)) nile.outliers سری: Nile ARIMA(0,0,0) با میانگین غیر صفر ضرایب: intercept LS29 AO43 1097.7500 -242.2289 -399.5211 s.e. 22.6783 26.7793 120.8446 sigma^2 تخمین زده شده به عنوان 14401: احتمال ورود به سیستم=-620.65 AIC=1249.29 AICc=1249.71 BIC=1259.71 نقاط پرت: نوع ind time 11LS coefhat 29 -29 tstat. -9.045 2 AO 43 1913 -399.5 -3.306  | تشخیص نقاط پرت در سری زمانی (LS/AO/TC) با استفاده از بسته tsoutliers در R. چگونه نقاط پرت را در قالب معادله نشان دهیم؟ |
61061 | من سعی می کنم بهترین راه را برای آزمایش دقت یک مدل پیش بینی برای نتیجه بازی بین دو تیم تصادفی بیابم. این مدل برای هر بازی شانسی را ارائه می دهد که تیم A برنده می شود (شانس برنده شدن). من تقریباً 3500 نمونه جمع آوری کرده ام که شانس برنده شدن را با نتیجه واقعی مقایسه می کند. به عنوان یک معیار خام، شانس برنده شدن را به سطل هایی با افزایش 5٪ (یا بزرگتر در جایی که اندازه نمونه کوچک بود) تقسیم کردم. در هر سطل، میانگین شانس برد را با درصد بازیهای برنده شده مقایسه کردم. در اینجا نحوه سازماندهی دادههای خود تا کنون:  * براکت یکسان است به عنوان bin * کم-بالا محدوده شانس برد برای هر سطل است، به عنوان مثال 20٪ تا 24٪ شانس تیم A برنده شود، و غیره * بازی تعداد نقاط داده یا نمونه در هر سطل است * تساوی باخت نتایج احتمالی هر نمونه است. من عمدتاً روی بردها تمرکز میکنم * % برد من نتایج مشاهده شده از نمونهها در هر سطل است * XVM پیشبینیشده میانگین شانس برد همه نقاط داده در هر سطل است. در نگاه اول میتوانم بگویم کاملاً دقیق است، با این حال میخواهم روش یا مقادیر مشخصی داشته باشم تا نشان دهم چقدر دقیق است. من حدس میزنم که شکستن آن در سطلها تقریباً مانند تنظیم فواصل اطمینان (معتبر؟) باشد. دیگر چگونه به این موضوع نزدیک شویم؟ | چگونه دقت یک مدل پیش بینی را آزمایش کنیم؟ |
60087 | آیا انجام چندین رگرسیون لجستیک باینری به جای انجام یک رگرسیون چندجمله ای امکان پذیر است؟ از این سوال: رگرسیون لجستیک چند جمله ای در مقابل رگرسیون لجستیک باینری من می بینم که رگرسیون چند جمله ای ممکن است خطاهای استاندارد کمتری داشته باشد. با این حال، بسته ای که من می خواهم از آن استفاده کنم به رگرسیون چند جمله ای تعمیم داده نشده است (ncvreg: http://cran.r-project.org/web/packages/ncvreg/ncvreg.pdf) و بنابراین می خواستم بدانم که آیا من می تواند به سادگی چندین رگرسیون لجستیک باینری را به جای آن انجام دهد. | چندین رگرسیون لجستیک در مقابل رگرسیون چند جمله ای |
114385 | اخیراً در حال یادگیری عمیق یادگیری هستم و بین اصطلاحات (یا مثلاً فناوری ها) سردرگم شده ام. تفاوت بین شبکه عصبی کانولوشن (CNN)، ماشینهای محدود بولتزمن (RBM) و رمزگذارهای خودکار چیست؟ برای من Auto-Encoder و CNN خیلی شبیه هستند؟؟؟ | تفاوت بین CNN، RBM، و رمزگذار خودکار چیست؟ |
92817 | **هدف:** بهترین توزیع را برای ستون های یک مجموعه داده (30 هزار رکورد) قرار دهید تا بتوانم به تولید داده های آزمایشی که در توزیع مشابه هستند ادامه دهم. **کاری که تاکنون انجام دادهام:** با استفاده از R، تابع MASS 'fitdistr' را پیدا کرده و پیادهسازی کردهام و کد نوشته شده است که تعدادی از توزیعها را بررسی میکند و احتمال ورود به سیستم را برمیگرداند. **مشکل:** من احتمال log را دارم، و فکر می کنم که باید بزرگترین احتمال ورود به سیستم را به عنوان نشانه ای از بهترین تناسب انتخاب کنم. با این حال، مطمئن نیستم که آیا این تفسیر درستی از مستندات است و/یا اینکه آیا باید بیشتر از این پیش بروم، مثلاً با محاسبه AIC یا BIC و استفاده از آنها. آیا کسی میتواند راهنماییهایی در مورد نحوه تفسیر شکل احتمال ورود به سیستم و (در صورت لزوم) تجزیه و تحلیل بیشتر برای انتخاب صحیح بهترین توزیع ارائه دهد؟ col distn loglik bestfit 1: colA normal -163390.570 2: colA t -163383.684 yes 3: colA weibull -165727.706 4: colB normal -111180.070 5: colB t -163383.684 -109978.545 بله 7: colC نرمال -339501.693 8: colC t -334629.199 بله 9: colC وایبول -335920.848 10: colD نرمال -291132.858 11: 2890D -2490D weibull -287746.432 بله 13: colE نرمال -6609.996 14: colE t -6610.760 15: colE weibull 781.283 بله | نحوه تفسیر خروجی های log-likelihood از MASS::fitdistr (R) |
104201 | **پیشینه طرح های دو مرحله ای** در کارآزمایی های بالینی، ما اغلب به نرخ پاسخ $p$ برای یک درمان تجربی علاقه مندیم. در یک کارآزمایی معمولی، ممکن است $n$ بیمار را در معرض درمان قرار دهیم و تعداد کل پاسخهای $X$ را مشاهده کنیم تا فرضیه صفر $H_0: p \leq p_0$ را در برابر یک جایگزین یکطرفه $H_1: p آزمایش کنیم. > p_0$، که در آن $p_0$ می تواند نرخ پاسخ برای یک درمان استاندارد مراقبت باشد. به منظور محدود کردن مواجهه بیمار با یک درمان ناکارآمد، طرحهای دو مرحلهای محبوب هستند: در مرحله اول، $n_1$ بیمار درمان میشوند و تعداد پاسخها $X_1$ مشاهده میشود. اگر $r_1$ یا کمتر پاسخ داده شود، آزمایش به پایان می رسد. اگر $X_1 > r_1$، مرحله دوم انجام می شود: بیماران اضافی ثبت نام می شوند تا زمانی که در مجموع $n$ بیمار تحت درمان قرار گیرند، و تعداد کل پاسخ ها $X$ مشاهده می شود. اگر بیش از $r$ کل پاسخ ها وجود داشته باشد، فرضیه صفر رد می شود. در غیر این صورت، باطل رد نمی شود و درمان جدید بی اثر تلقی می شود (یا حداقل برتر از استاندارد مراقبت نیست). پارامترهای $n_1، r_1، n، $ و $r$ توسط محقق قبل از انجام مطالعه انتخاب میشوند. **مشکل** هنگام کار بر روی طراحی چنین مطالعه ای، به پدیده ای برخورد کردم که دوست دارم آن را بهتر درک کنم. به طور شهودی به نظر می رسد که افزایش برش $r_1$ باید خطای نوع 1 تست را کاهش دهد. ممکن است دلیل این باشد که برای مقادیر بزرگتر $r_1$، احتمال کمتری دارد که مطالعه به مرحله دوم پیش برود، و بنابراین احتمال کمتری وجود دارد که فرد در نهایت عدد صفر را رد کند. با این حال، به نظر می رسد که همیشه اینطور نیست. برای مثال، با پارامترهای $n_1 = 20، n = 30، r = 25،$ و $p_0 = 0.6$، خطای نوع 1 را برای $r = 10$ یکسان (حداکثر 9 رقم) یافتم. برای $r = 15$ (من $\alpha = 0.001510074$ دریافت کردم). در واقع، من برای همه مقادیر $r_1 \leq 15$ یک عدد را دریافت می کنم. کد من را در زیر ببینید. **سوال من** بنابراین سوال من این است که آیا تغییر مقدار $r_1$ در برخی موارد بر خطای نوع 1 تاثیر نمی گذارد؟ آیا می توانید به من کمک کنید شهودم را اصلاح کنم تا بفهمم چرا این درست است؟ **کد** در اینجا یک تابع سریع برای محاسبه خطای نوع 1 (و همچنین قدرت، برای یک جایگزین معین، و اندازه نمونه مورد انتظار) برای طرح های دو مرحله ای نوشته ام. ##### تابعی برای محاسبه خطای نوع 1، توان و اندازه نمونه مورد انتظار برای طراحی دو مرحله ای #####. پارامترهای p0 و p1 به ترتیب نرخ پاسخ زیر ##### null و جایگزین هستند. twoStage = تابع(n، n1، r1، r، p0، p1){ # خطای نوع 1 = P(رد H0 | p = p0) # = P(X1 > r1 && X > r | p = p0)] n2 = n - n1 x1 = (r1 + 1): n1 آلفا = مجموع (dbinom(x1، n1، p0)*(1 - pbinom(r-x1، n2، p0))) # توان = P (رد H0 | p = p1) # = P(X1 > r1 && X > r | p = p1)] # مانند بالا، اما با p = توان p1 = مجموع (dbinom(x1، n1، p1)*(1 - pbinom(r-x1، n2، p1))) # تعداد مورد انتظار ثبتنام تحت H0 انتظار می رود.n = n1 + (1 - pbinom(r1، n1، p0))*n2 بازگشت (cbind(n = n، n1 = n1، r1 = r1، r = r، p0 = p0، p1 = p1، آلفا = آلفا، قدرت = قدرت، انتظار میرود.n = انتظار میرود.n)) } ##### مثال: > twoStage(n=30, n1=20، r1=5، r=25، p0=0.6، p1=0.85)[alpha] آلفا 0.001510074 > twoStage(n=30، n1=20، r1=10، r=25، p0=0.6 ، p1=0.85)[alpha] آلفا 0.001510074 | خطای نوع 1 طراحی دو مرحله ای |
82335 | من با autoKrige و Gstat کار می کنم. می خواستم بدونم که آیا می توان به دو مدل مختلف مانند Exp with Gau اضافه کرد؟ > می دانم اگر چیزی شبیه به این قرار دهم > kriging_result<-autoKrige(z~1,data,grid,model=Sph,fix.values = > c(0,NA,NA)) برنامه از آن مدل استفاده می کند برای تناسب با واریوگرام، اما چگونه می توانم دو مدل را > ترکیب کنم؟ > > از طرف دیگر، در gstat می دانم که اگر از fit.variogram استفاده کنم، variogram به صورت خودکار > fit است، اما اگر از چیزی شبیه این g1<-vgm(60000,Sph,1500,0, > add.to = استفاده کنم. vgm(3000، Exp، 60، nugget = 0)) fit<-fit.variogram(vario,vg1, > fit.sills = TRUE، fit.ranges = TRUE، fit.method = 7، debug.level = 1، > warn.if.neg = FALSE ) کار نمی کند بنابراین، چگونه می توانم این کار را انجام دهم؟ ممنون > برای کمک | Automap یا Gstat سوال در مورد نحوه مناسب کردن واریوگرام |
51370 | داگلاس آلتمن در کتاب آمار عملی عالی برای تحقیقات پزشکی در صفحه 235 می نویسد: «از آنجایی که خطای استانداردی که برای محاسبه فاصله اطمینان استفاده می شود با خطای مورد استفاده در آزمون فرضیه متفاوت است، گاهی اوقات ممکن است اتفاق بیفتد[...] که فاصله اطمینان مقدار را حذف کند. در فرضیه صفر مشخص می شود زمانی که فرضیه نتیجه غیر قابل توجهی می دهد_ آیا کسی می تواند نظر دهد که چرا SE در آزمون فرضیه نسبت به ساخت فواصل اطمینان و کدام فرمول در هر مورد مناسب است؟ | خطای استاندارد مورد استفاده در آزمون فرضیه و ساخت فاصله اطمینان |
110260 | من می خواهم میانگین یک جامعه را تخمین بزنم و بهترین برآوردگر را با حداقل واریانس میانگین تخمین زده انتخاب کنم. فرض کنید من دو برآوردگر est1 و est2 دارم و آنها میتوانند به هر نوع طراحی نمونهگیری مانند نمونهگیری تصادفی ساده، نمونهگیری طبقهای، نمونهبرداری احتمال نابرابر و غیره اشاره کنند. 1) میانگین نمونه $\hat{\mu}$ را از نمونه اصلی محاسبه کنید 2) یک شبیه سازی بوت استرپینگ انجام دهید (Nboots=1000) نمونه برداری مجدد از نمونه های اصلی با جایگزینی. برای هر نمونه شبیه سازی شده، میانگین نمونه $\hat{\mu}_{i}$ و همچنین فاصله اطمینان 95% را با استفاده از هر یک از برآوردگرهای $\hat{\mu}_{i}+/-1.96\ محاسبه کنید. بار \sigma_{i}^{k}$، که $\sigma_{i}^{k}$ به واریانس تخمینی میانگین با استفاده از نمونه i و تخمینگر k اشاره دارد. (k=1,2). 3) کران پایین (LB)، کران بالاتر (HB) و فاصله اطمینان واقعی (CI) را برای هر برآوردگر محاسبه کنید. LB برای برآوردگر 1 به صورت زیر تعریف می شود: $\frac{\text{تعداد اجراهایی که}\ \hat{\mu}>\hat{\mu}_{i}-1.96\times \sigma_{i}^{ 1}}{Nboots}$ UB برای برآوردگر 1 به صورت زیر تعریف میشود: $\frac{\text{تعداد اجراهایی که}\ \hat{\mu}<\hat{\mu}_{i}+1.96\times \sigma_{i}^{1}}{Nboots}$ CI واقعی برای برآوردگر 1 به صورت زیر تعریف میشود: $\frac{\ متن{تعداد اجراهایی که}\ \hat{\mu}_{i}-1.96\times \sigma_{i}^{1}<\hat{\mu}<\hat{\mu}_{i}+1.96\times \sigma_{i}^{1}}{Nboots}$ 4) برآوردگر با سپس یک LB، HB و CI بزرگتر به عنوان بهترین برآوردگر انتخاب می شود. سوالات من عبارتند از: 1) آیا کسی می تواند نظریه یا مرجعی در مورد استفاده از این روش برای مقایسه برآوردگرها به من ارائه دهد؟ 2) در صورتی که یکی از برآوردگرهای من برآوردگر بوت استرپینگ باشد، آیا به این معنی است که برای هر نمونه شبیه سازی شده بوت استرپینگ $i$، باید دوباره شبیه سازی بوت استرپینگ را انجام دهم تا $\sigma_{i}^{\text{ را تخمین بزنم. بوت استرپ}}$؟ با تشکر | استفاده از شبیه سازی بوت استرپینگ برای مقایسه برآوردگرها در نظرسنجی |
82337 | فرض کنید یک مدل مقطعی ساده دارید $$ y=\alpha + \beta T +\epsilon $$ که در آن $T$ باینری است. این اساساً یک آزمون t است، اما اجازه میدهیم با آن مانند یک رگرسیون رفتار کنیم. شما به تأثیر $T$ در لحظه اول و دوم نتیجه علاقه دارید. (شاید GLS یا IRLS را نیز انجام داده باشید، اگرچه سوال من باید متعامد با آن انتخاب باشد.) ممکن است مدلی مانند $$ g(\hat\epsilon^2) = \alpha +\delta T + \eta $ را انتخاب کنید. $ اگر فرض کنید که $\epsilon = \hat\epsilon$، تخمین شما از $\delta$ خوب است (یا به اندازه برآورد شما از میانگین مدل). اما $\hat\epsilon$ فقط به اندازه تخمین های مدل میانگین است که ممکن است بسیار نامشخص باشد. آیا راه های استانداردی برای مقابله با این موضوع وجود دارد؟ من اقتصاد سنجی سری های زمانی را به طور عمیق مطالعه نکرده ام، اما با نگاهی به تعاریف ARCH/GARCH/و غیره این تصور را دریافت نمی کنم که عدم قطعیت در باقیمانده ها هنگام تلاش برای تخمین اثر متغیرهای مستقل بر واریانس در نظر گرفته می شود. از نتیجه من می توانم نمونه برداری از بردار پارامتر چند متغیره با توزیع نرمال را تصور کنم تا تخمین های زیادی از مدل میانگین بدست آوریم و مدل واریانس را بارها برازش کنم. اما پس چگونه عدم قطعیت در باقیمانده ها را با عدم قطعیت در ضرایب مدل واریانس در هر تکرار ترکیب می کنید؟ شاید شما آن را مانند یک مشکل انتساب چندگانه، در نظر گرفتن باقیمانده ها به عنوان داده های گم شده در نظر بگیرید؟ اما به هر حال کل این رویکرد از نظر محاسباتی بسیار فشرده خواهد بود. ویرایش: و اگر شما IRLS را انجام دهید و سپس در هر تکرار IRLS این کار را انجام دهید، به خصوص از نظر محاسباتی فشرده خواهد بود. پیشنهادات برای کار قبلی در این مورد بسیار قدردانی خواهد شد. | ناهمگونی/واریانس شرطی و عدم قطعیت در باقیمانده های تخمین زده شده |
25359 | تاو کندال یک معیار ارتباطی بین دو متغیر تصادفی است، مثلاً $X$ و $Y$. اگر $X$ و $Y$ مستقل باشند، آنگاه $\tau = 0$. با این حال، $\tau = 0$ به معنای استقلال نیست زیرا تائو کندال فقط ارتباط یکنواخت را نشان می دهد. آیا شرایطی وجود دارد که تحت آن هم ارزی وجود داشته باشد؟ _ویرایش برای حساب نظر @Cardinal_ بگویید که $X > 0$ و $Y > 0$. | تاو و استقلال کندال |
110261 | من یک داده تجزیه و تحلیل نظرسنجی دارم که پاسخ هایی در رابطه با رضایت مصرف کننده دارد (در مقیاس 1 تا 5) و سعی می کنم یک مدل رگرسیون خطی را برای آن برازش دهم. طبق درک من، فرض اساسی برای رگرسیون خطی این است که متغیرهای مستقل نباید همبستگی معناداری را نشان دهند. اما در مورد من، از آنجایی که پاسخها توسط افراد (هوموساپینها) پر میشوند، پاسخها همبستگیهایی را در یک دسته و در بین دستهها (غذا، تسهیلات و غیره) نشان میدهند. آیا این باعث نگرانی است؟ آیا می توانم همچنان ادامه دهم و رگرسیون خطی را اعمال کنم یا باید پاسخ های همبسته را ترکیب کنم؟ همچنین اگر بخواهم پاسخ ها را ترکیب کنم، چگونه باید این کار را انجام دهم؟ من مجبور شدم بر اساس یک کارت امتیازی در پاسخ ها (متغیرهای مستقل و وابسته) تغییراتی ایجاد کنم: عالی 100 خیلی خوب 90 خوب 75 خوب 25 ضعیف 0 دو رویکرد در ذهن دارم: 1. می توانم یک رگرسیون خطی بر اساس کارت امتیازی اجرا کنم. 2. من پاسخ های متغیر وابسته خود را به عنوان عالی، بسیار خوب، خوب، منصفانه، ضعیف نگه می دارم، پاسخ ها را به متغیرهای مستقل را با توجه به کارت امتیازی و اعمال یک رگرسیون لجستیک ترتیبی میتوانید به من کمک کنید تا مناسبترین رویکرد را انتخاب کنم. با تشکر | رگرسیون در تحلیل پیمایشی |
92810 | من کمی در مورد پیوند رکورد مطالعه کرده ام، اما به نظر من یک الزام این است که همه فیلدهای هر دو منبع قابل مقایسه باشند. برای مثال، با منابع A و B، یک فرض این است که میتوانیم یک اندازه گیری «مقایسهکننده» در همه زمینههای آنها ایجاد کنیم. بنابراین برای مثال هر دو A و B ممکن است شامل نام و نام خانوادگی، مکان و غیره باشند و ما آنها را با اندازهگیری فاصله رشته، فاصله جغرافیایی و غیره مقایسه میکنیم. اما اگر اینطور نباشد چه؟ یعنی اگر A و B برخی از فیلدها را به اشتراک بگذارند، اما نه همه فیلدها؟ اگر این فیلدهای به اشتراک گذاشته نشده اطلاعاتی در مورد مطابقت داشتن هر دو رکورد ارائه دهند چه؟ برای مثال، منبع A ممکن است شامل «هزینههای خانوار» باشد، و B ممکن است شامل متغیرهای «تعداد فرزندان» یا «وضعیت مدنی» باشد. آیا ایجاد فاصله سنج برای مقایسه اینها ضروری است؟ چرا نباید آنها را جداگانه استفاده کرد؟ | هنگامی که منابع دارای فیلدهای مختلف هستند، پیوند را ضبط کنید |
51377 | من موفق به تخمین پریودوگرام دادههای نمونهگیری ناهموار با استفاده از روش Lomb-Scargle شدم. با تجزیه و تحلیل دامنه فرکانس، فیلتر کردن یک باند فرکانس و سپس اعمال IFFT و دریافت سیگنال فیلتر شده جالب خواهد بود (البته این سیگنال به طور یکنواخت و کاملاً متفاوت از سیگنال اصلی است). روش Lomb-Scargle این روش را نمی دهد. آیا رویکرد مشترکی وجود دارد؟ آیا من اینجا چیزی را از دست داده ام؟ متشکرم | دادههای نمونهگیری ناهموار و روش Lomb-Scargle |
60089 | من در حال خواندن این مقاله بودم که در آن ذکر شده است اجازه دهید F(·) CDF یک متغیر تصادفی پیوسته X باشد و $\phi^{−1}(·)$ معکوس CDF N(0,1) باشد. تبدیل X به Z را با Z = $\phi^{−1}(F(X))$ در نظر بگیرید. سپس به راحتی می توان دریافت که Z بدون توجه به F، نرمال است. $\phi^{−1}(F(X))$ در اینجا چه چیزی را نشان می دهد. من کمی گیج هستم. توضیحات بچه ها به من کمک می کند؟ | سردرگمی مربوط به یک مشتق در مقاله مربوط به گاوسی |
64501 | من دو مدل خطی با ماتریسهای مدل مرتبط به شرح زیر در نظر میگیرم: \begin{معادله*} \text{Model} \ 1 \\\ \begin{bmatrix} \mu_1 \\\ \mu_2 \\\ \vdots \\\ \ mu_n \end{bmatrix} = \begin{bmatrix} 1 & x_{12} & x_{13} \\\ 1 & x_{22} & x_{23} \\\ \vdots & \vdots & \vdots \\\ 1 & x_{n2} & x_{n3} \end{bmatrix} \begin{bmatrix} \beta_0 \\\ \ beta_1 \\\ \beta_2 \\\ \end{bmatrix}. = \begin{bmatrix} 1 & cx_{12} + x_{13} & x_{13} \\\ 1 & cx_{22} + x_{23}& x_{23} \\\ \vdots & \vdots & \vdots \\\ 1 & cx_{n2} + x_{n3} & x_{n3} \end{bmatrix} \ شروع{bmatrix} \beta^*_0 \\\ \beta^*_1 \\\ \beta^*_2 \\\ \end{bmatrix} . \end{معادله*} $$y\sim N(\mu,I_n \sigma^2)$$ تحت چه شرایطی $\frac{\hat\beta_1}{\hat\sigma_{\beta_1}} = \frac است {\hat\beta^*_1}{\hat\sigma_{\beta^*_1}}$ و چگونه می توان آن را ثابت کرد؟ | رابطه بین برآوردها در 2 مدل خطی |
104203 | اولاً، من قدردانی می کنم که بحث در مورد $r^2$ به طور کلی توضیحاتی را در مورد $R^2$ (یعنی ضریب تعیین در رگرسیون) برانگیخته است. مشکلی که من به دنبال پاسخ آن هستم تعمیم آن به تمام موارد همبستگی بین دو متغیر است. بنابراین، مدت زیادی است که در مورد واریانس مشترک متحیر بودم. من چند توضیح ارائه کرده ام اما همه آنها مشکل ساز به نظر می رسند: 1. این فقط یک اصطلاح دیگر برای کوواریانس است. این مورد نمی تواند باشد، زیرا ادبیات تحلیل عاملی بین PCA و EFA با بیان اینکه دومی واریانس مشترک را به حساب می آورد و اولی اینطور نیست (PCA بدیهی است که کوواریانس را حسابداری می کند از این جهت که بر روی یک ماتریس کوواریانس عمل می کند، بنابراین مشترک است. واریانس باید یک مفهوم متمایز باشد). 2. ضریب همبستگی مجذور ($r^2$) است. ببینید: * http://www.philender.com/courses/linearmodels/notes1/var1.html، یا * http://www.strath.ac.uk/aer/materials/4dataanalysisineducationalresearch/unit6/correlationcoefficient/ حس بیشتر مشکل در اینجا تفسیر _how است که به معنای واریانس مشترک است. برای مثال، یکی از تفسیرهای «اشتراک واریانس» ${\rm cov}(A,B)/[{\rm var}(A)+{\rm var}(B)]$ است. $r^2$ به آن کاهش نمییابد، یا در واقع یک مفهوم کاملاً شهودی [${\rm cov}(A,B)^2/({\rm var}(A)\times{\rm var}( ب))$; که یک شی 4 بعدی است]. پیوندهای بالا هر دو سعی می کنند آن را از طریق نمودار Ballentine توضیح دهند. آنها کمک نمی کنند. اولا، دایره ها به یک اندازه هستند (که به دلایلی برای تصویر مهم به نظر می رسد)، که واریانس های نابرابر را در نظر نمی گیرد. می توان فرض کرد که نمودارهای بالنتین برای متغیرهای استاندارد شده است، بنابراین واریانس برابر است، در این صورت بخش همپوشانی برای کوواریانس بین دو متغیر استاندارد شده (همبستگی) محاسبه می شود. بنابراین $r$، نه $r^2$. **TL;DR:** توضیحات واریانس مشترک این را می گوید: > با مجذور کردن ضریب، می دانید که دو متغیر چه مقدار واریانس را بر حسب درصد > به اشتراک می گذارند. چرا چنین می شود؟ | چرا $r^2$ بین دو متغیر نشان دهنده نسبت واریانس مشترک است؟ |
93144 | من در مورد استفاده از nnetar سردرگم هستم. تمام داده های سری زمانی آموزش من اعداد مثبت هستند، اما نتایج پیش بینی به دست آمده از nnetar اعداد منفی را برمی گرداند. کد زیر myts من است <- ts(data, freq = 5) fit <- nnetar(myts) fcast <- forecast(fit, h = 100) با این حال، اگر من فقط مدت زمان کوتاهی را پیش بینی کنم، به عنوان مثال، h = 10 یا 20. مقادیر برگشتی مثبت هستند. آیا من کار اشتباهی انجام دادم؟ متشکرم. | nnetar مقادیر پیش بینی منفی را برمی گرداند |
61067 | اجازه دهید $P$ یک توزیع ناشناخته در $(-\infty,\infty)$ باشد. اجازه دهید $X_1,\ldots,X_n$ یک نمونه iid از $P$ باشد. اجازه دهید $c_1,\ldots,c_n\in(-\infty,\infty)$ مجموعهای از ثابتها باشد. ما $Y_1،\ldots،Y_n$ را مشاهده می کنیم، که در آن $Y_i = 1(X_i <c_i)$ است. (یعنی $Y_i=1$ اگر $X_i<c_i$ باشد و در غیر این صورت $0$ است.) من به دنبال برآوردگرهای معقول توزیع $P$ هستم. و منظور من از معقول چیست؟ برای سادگی فرض کنید که $P$ روی [0,1] پشتیبانی میشود و $c_i$ یک نمونه iid از Uniform[0,1] است. $P$ احتمالا اتم دارد، اما اگر پاسخهای بیشتری را دعوت کند، میتوانیم آن را نادیده بگیریم. اگر با احتمال $1$ بیش از انتخاب $c_i$، $\hat{P}_n$ در توزیع به $P$ همگرا شود، $\hat{P}_n$ را تخمینگر معقول $P$ بنامید. . توجه: ما در واقع می توانیم $c_i$ را به عنوان نقاط طراحی که می تواند توسط آزمایشگر انتخاب شود در نظر بگیریم. به نظر می رسد که این یک موضوع جداگانه است، و من نمی خواهم این سوال را پیچیده کنم. اما اگر برآوردگر دارید که به مجموعه خاصی از $c_i$ نیاز دارد، این نیز خوب است. | تخمین توزیع از مشاهدات بالا/پایین |
64505 | آیا قوانینی برای محاسبه میانگین درصد وجود دارد یا مانند محاسبه هر میانگین دیگر است (یعنی همه درصدها را با هم جمع کنید و بر حجم نمونه تقسیم کنید)؟ | محاسبه میانگین درصدها |
25353 | من یک مدل خوب از زمان تا سکته مغزی را با استفاده از یک پیشبینیکننده خطر سکته مغزی (امتیاز خطر فرامینگهام) با مفروضات cox ph ساختهام. این امتیاز بر اساس سن، جنسیت، فشار خون کنترل شده / کنترل نشده، عوامل خطر قلبی عروقی را شامل می شود و می توانید در اینجا مشاهده کنید: http://www.framinghamheartstudy.org/risk/index.html من فرض کرده ام که یک پیش بینی کننده زمان خواهد بود. برای رویداد در جمعیت من با این حال، سن را شامل می شود، در واقع 85٪ +/-3٪ با سن همبستگی دارد. بنابراین سوال من این است: چگونه می توانم به طور موثر ارزیابی کنم که آیا این یک پیش بینی کننده _ بهتر از سن به تنهایی است یا خیر. (اگر اینطور نباشد از نظر بالینی تقریباً بی فایده است) شهود من این بوده است که سن را به تنهایی و سپس امتیاز فرامینگهام را به تنهایی در مدل با پیش بینی کننده های کنترل کننده وارد کنم و سپس AIC را بین این دو تناسب مقایسه کنم و یکی را انتخاب کنم که AIC را بیشتر تغییر می دهد - در مقایسه با مدلی که فقط پیشبینیکنندههای کنترلی در آن وجود دارد. آیا این به طور کلی راه حل خوبی برای این موضوع است؟ یا صرفاً اشتباه است. | نحوه انتخاب بهترین از بین دو پیش بینی کننده بسیار همبسته در رگرسیون خطرات متناسب کاکس |
110266 | من سعی می کنم یک فیلتر مشارکتی برای توصیه محصولات به مشتریان در صنعت مد انجام دهم. من از رویکرد معمول KNN برای ایجاد شباهت بین محصولات استفاده می کنم. من افرادی را دیدهام که قبل از انتخاب فیلتر مشارکتی از SVD (تجزیه ارزش واحد) استفاده میکردند، اما به نظر میرسید که همه آنها با پیشبینی نقدهای فیلم سر و کار داشتند. من میخواهم بدانم که آیا در مورد من، استفاده از SVD(svd() در R) قبل از فیلتر مشترک مناسب است یا نه، آیا باید مقادیر صفر/فقدان را با مقادیر غیرصفر جایگزین کنم. نکته دوم با این ایده است که SVD معمولی در هنگام برخورد با داده های پراکنده چندان مفید نیست. | آیا همیشه قبل از انجام KNN باید svd انجام داد؟ |
10900 | من باید اعداد تصادفی را برای الگوریتم خود بر اساس توزیع های احتمال تولید کنم. من توزیعی میخواهم که دارای دمهای سنگین و بدون اریب باشد، که بتواند اعدادی دور از پارامتر مکان تولید کند. باید پارامتری برای کنترل سنگینی دم وجود داشته باشد (مثلاً مانند توزیع لوی که آلفا سنگینی دم را تعیین می کند). من توزیع t (برای درجات آزادی کمتر) و توزیع لاپلاس را به عنوان دو احتمال شناسایی کردهام. * آیا دلایلی وجود دارد که t یا laplace را برای هدفم ترجیح دهم؟ * به غیر از توزیع t و توزیع لاپلاس، آیا توزیعی به جز cauchy یا levy وجود دارد که برای هدف من مفید باشد؟ | توزیع های دم بلند برای تولید اعداد تصادفی با پارامترهایی برای کنترل سنگینی دم |
61069 | پیشینه: مقاله _this_ را در مورد هک روز در مورد ادعای تقلب در مقیاس بزرگ در آزمون ISC خواندم. _this_ را به عنوان منبع می دهد. این یکی از تصاویر این سایت است:  هک یک روز در مورد ماهیت تقلب گمانه زنی می خواهد که داده ها نشان می دهد. ** چالش من این است: توزیع واقعی (غیر تقلب) را از این نتیجه دستکاری شده تعیین کنید و پاسخ خود را با استفاده قوی و مناسب از آمار توجیه کنید.** | آزمون ISC - تقلب یا نه |
93146 | من سعی می کنم اندازه مجموعه داده خود را که از 200000 پروژه تشکیل شده است، کاهش دهم. هر پروژه با اندازه و مقدار باینری آن تعریف می شود که اگر پروژه دارای کاربران فعال باشد 1 و در غیر این صورت 0 است. اکثر اندازه های پروژه کمتر از 1000 (80٪ از مجموعه داده) هستند. من می خواهم پروژه ها را گروه بندی کنم و برای هر گروه تعداد پروژه های دارای کاربران فعال را می شمارم. من مطمئن نیستم که چگونه این پروژه ها را گروه بندی کنم. به ویژه، آیا بهتر است پروژه ها را به دسته هایی با فواصل مساوی (0-500، 501-1000، 1001-1500، ...) یا به دسته هایی با تعداد پروژه های مشابه (در نتیجه، من نابرابر خواهم داشت) گروه بندی کنیم. فواصل مانند 0-10، 11-15، 16-40، 41-100، 101-120، ...)؟ | مقوله های با اندازه مساوی در مقابل دسته های با اندازه نابرابر |
10904 | مزایا و معایب یادگیری در مورد ویژگی های توزیع به صورت الگوریتمی (از طریق شبیه سازی کامپیوتری) در مقابل ریاضی چیست؟ به نظر می رسد شبیه سازی های کامپیوتری می تواند یک روش یادگیری جایگزین باشد، به ویژه برای آن دسته از دانش آموزانی که تازه وارد هستند که در حساب دیفرانسیل و انتگرال احساس قدرت نمی کنند. همچنین به نظر میرسد که شبیهسازیهای کدگذاری میتوانند درک زودتر و شهودیتری از مفهوم توزیع ارائه دهند. | مزایا و معایب یادگیری در مورد توزیع به صورت الگوریتمی (شبیه سازی) در مقابل ریاضی چیست؟ |
10907 | من داده هایی با خطای استاندارد دارم که در زیر برای وضوح گنجانده شده است، X Y Error در Y 0.0105574 -28.831027 0.04422 0.0070382 -27.800385 0.04225 0.0052787 -27.3020204088 -27.054207 0.04185 0.0035191 -27.000188 0.04143 0.0030164 -26.891275 0.04108 من پارامترهای **a** و **b** را از رگرسیون رگرسیون به دست آوردم از رگرسیون **a** و **b** با استفاده از حداقل وزن b***x +** از عبارت **y داده ها ( _fit_ در gnuplot). رگرسیون چیزی را که «خطای استاندارد مجانبی» نامیده میشد مرتبط با این پارامترها را برگرداند. من معتقدم این خطا با استفاده از انحراف از نقطه برازش به نقاط واقعی محاسبه شده است (معادله 34/35 در اینجا) و برای ارزیابی کیفیت برازش استفاده می شود. با این حال، این خطای مورد علاقه من نیست. من به دنبال تعیین مقدار نقطه داده در X=0.0 از تابع برازش _با خطای استاندارد_ مانند مقادیر دیگرم هستم. خروجی رگرسیون این بود: مجموعه نهایی پارامترها خطای استاندارد مجانبی a = -19389.1 +/- 752 (3.878%) b = -26.7951 +/- 0.03915 (0.1461%) بنابراین، برای اینکه کاملاً مشخص باشیم، **چگونه می توانم خطای استاندارد را در نقطه (X,Y)=(0.0, -26.7951) با استفاده از عملکرد مناسب من **؟ من انتظار دارم که خطا در این نقطه محاسبه شده بسیار بزرگتر از خطاهای مقادیر گزارش شده در مقادیر Y جدول من باشد. من می توانم ببینم که چگونه gnuplot ابزار مناسبی برای این کار نیست، زیرا تنها با استفاده از خطای استاندارد در ورودی من، نقاط داده من را وزن می کند. کاری که من باید انجام دهم این است که خطا را در نقاط داده اصلی خود منتشر کنم تا خطا در خط رگرسیون به دست آید. این یک تمرین بسیار ابتدایی به نظر می رسد، برای ناآگاهی آماری من متاسفم. با تشکر | به دست آوردن خطای استاندارد در نقطه داده به دست آمده از رگرسیون خطی |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.