_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
90931
در یک مدل خطی از جمله ANOVA می توان یک روند (به عنوان مثال، خطی بودن، اثر درجه دوم و غیره) را در بین اثرات مرتب شده (ضرایب رگرسیون یا سطوح عامل) از طریق اختصاص وزن های مناسب آزمایش کرد. برای مثال، فرض کنید که ما یک مدل رگرسیون سری زمانی داریم $Y=\alpha+\beta_1X_1+\beta_2X_2+\beta_3X_3+\beta_4X_4+\epsilon$ که در آن $Y$ بردار طول $n$، $X_i$ یک متغیر توضیحی طول است. $n$ ($i=1,2,3,4$) و $\epsilon$ باقیمانده است بردار روندهای خطی و درجه دوم بین چهار اثر با فاصله مساوی (و مرتب شده) $\beta_1، \beta_2، \beta_3، \beta_4$ را می توان با وزن های -3، -1، 1، 3، و 1، -1 آزمایش کرد. -1، 1 به ترتیب. هنگامی که این اثرات با فاصله یکسان نیستند، چنین وزن هایی را می توان از طریق ضرایب چند جمله ای متعامد به دست آورد. درک من این است که به طور معمول روند نمایی در میان برخی از اثرات متوالی را می توان از طریق تغییر log متغیر پاسخ آزمایش کرد. با این حال، وضعیتی که من با آن روبرو هستم مستقیماً در مورد متغیر پاسخ نیست، بلکه تخمین اثر (یا ضرایب رگرسیون، به عنوان مثال، 30 اثر مرتب شده مشابه مدل خطی بالا) است. بنابراین چالشی که من در اینجا با آن روبرو هستم این است که چگونه می توان وزن ها را هنگام آزمایش روند نمایی پیدا کرد، زمانی که تأثیرات با فواصل مساوی یا نابرابر هستند؟ P.S. در اینجا دو مقیاس زمانی وجود دارد که ممکن است باعث سردرگمی شود. در سطح زمانی محلی، هر متغیر توضیحی $X_i$ در مدل رگرسیون سری زمانی، یک رویداد علّی را کد می‌کند که برای مدت کوتاهی ادامه دارد. در سطح بالاتر زمانی، توالی آن رویدادهای علّی و اثرات تخمینی آنها وجود دارد. من برای یک روند خطی، می توانم یک آزمایش فرضیه خطی کلی با وزن های مناسب برای آن اثرات انجام دهم. با این حال، من چندان مطمئن نیستم که آیا انجام همین کار برای یک روند نمایی (یا اثر اشباع) امکان پذیر است یا خیر.
چگونه می توان وزن ها را هنگام آزمایش روند نمایی تعریف کرد؟
72441
من تازه وارد آمار هستم و از من خواسته شد که یک مدل آماری ایجاد کنم، که شروع کرده بودم، اکنون از من می خواهند که تطابق و عدم تطابق را انجام دهم، اما در مورد این اصطلاحات چیزی نمی دانم جز اینکه تطابق احتمال این است که یک جفت با توجه به اینکه یکی از زوجین دارای ویژگی و مخالف آن برای ناهماهنگی است، هر دو دارای ویژگی خاصی خواهند بود. هنوز نمی دانم چرا باید آنها را پیدا کنم و ارزش هر دو برای یک مدل مناسب چقدر است.
نقش تطابق و ناسازگاری در مدل سازی
100106
فرض کنید یک متغیر عادی دو متغیره $\mathbf{x}=(x_1,x_2)$ با میانگین $\mu$ و ماتریس کوواریانس $\Sigma$ داشته باشید. من از $\mathbf{x}$ به $(\theta,r)$ می‌روم که در آن $x_1 = r \cos \theta$ و $x_2 = r \sin \theta$: نمایش در مختصات قطبی $\mathbf{ x}$. سوال من این است: آیا می توان تابع مشخصه $(\theta,r)$ را استخراج کرد؟ و تابع مشخصه $\theta$؟
نحوه استخراج تابع مشخصه یک مختصات قطبی نمایش یک نرمال دو متغیره
91943
در گذشته به من گفته شده است که ضرایب نیمه جزئی بهتر است، اما به خاطر نمی‌آورم که چرا باید چنین باشد. به نظر می‌رسد جستجوی گوگل نشان می‌دهد که بسیاری از محققان از یکی یا دیگری استفاده می‌کنند و برخی هر دو را گزارش می‌کنند. با فرض اینکه قصد دارم فقط یکی را گزارش کنم، آیا دلیل خوبی برای استفاده از یکی به جای دیگری یا استفاده از یکی به جای دیگری در شرایط خاص وجود دارد؟ آیا دلیل خوبی برای گزارش هر دو وجود دارد؟
آیا بهتر است قدرت پیش بینی کننده های رگرسیون را با استفاده از همبستگی های نیمه جزئی ارزیابی کنیم یا ضرایب استاندارد؟
79419
من اکنون روی یک مشکل طبقه بندی کار می کنم. مجموعه ویژگی های تولید شده را می توان به دو گروه تقسیم کرد. من یک مطالعه مقایسه ای انجام دادم: از همه ویژگی ها استفاده کنید. فقط از ویژگی های گروه 1 استفاده کنید. و فقط از امکانات گروه 2 استفاده کنید. به نظر می رسد که عملکرد استفاده از تمام ویژگی ها بدترین هستند. چگونه می توان این نوع مشاهده را درک کرد؟
عملکرد طبقه بندی و انتخاب مجموعه ویژگی
79416
آیا راه‌های دیگری برای نمایش داده‌های قسمت به کل سری‌های زمانی به جای استفاده از نمودار مساحتی مانند نمونه زیر وجود دارد؟ من می خواهم تغییرات جمعیت را سال به سال برجسته کنم. و من افرادی را دارم که این موضوع را کمی گیج کننده می دانند. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/pTvHu.png)
آیا راه های دیگری برای نمایش داده های سری زمانی جز به کل در نمودار به جز نمودار مساحتی وجود دارد؟
29641
فرض کنید من آزمایشی را اجرا می کنم که می تواند 2 نتیجه داشته باشد، و فرض می کنم که توزیع درست زیربنایی 2 نتیجه، یک توزیع دو جمله ای با پارامترهای $n$ و $p$ است: ${\rm Binomial}( n، p)$. من می توانم خطای استاندارد، $SE_X = \frac{\sigma_X}{\sqrt{n}}$ را از شکل واریانس ${\rm Binomial}(n, p)$ محاسبه کنم: $$ \sigma^ {2}_{X} = npq$$ که در آن $q = 1-p$. بنابراین، $\sigma_X=\sqrt{npq}$. برای خطای استاندارد دریافت می‌کنم: $SE_X=\sqrt{pq}$، اما در جایی دیده‌ام که $SE_X = \sqrt{\frac{pq}{n}}$. چه غلطی کردم؟
خطای استاندارد برای میانگین نمونه ای از متغیرهای تصادفی دو جمله ای
100700
من تعداد پرندگان را در یک گله شمردم که شمارش هایی مانند این به دست آمد: set.seed(1) number.birds.in.flock <- sample(51:500, 10) number.birds.in.گله # [1] 170 218 307 456 140 450 470 343 329 78 من گونه هایی را که هر کدام را تشکیل دادند ثبت کردم گله: گونه <- c(rep(species.x, 5), rep(species.y, 5)) سپس تعداد گله هایی را که در حال تغذیه بودند شمارش کردم: set.seed(1) number.birds تغذیه <- number.birds.in.flock - sample(1:50,10) و تعداد پرندگان گله که هوشیار بودند: number.birds.vigilant <- من تعداد گله‌هایی را که در حال تغذیه بودند مدل‌سازی کردم. ابتدا number.birds.feeding را به یک نسبت تبدیل کردم: نسبت.تغذیه <- number.birds.feeding/number.birds.in.flock از یک مدل خطی تعمیم یافته دو جمله ای با number.birds.in.flock استفاده کردم. به عنوان وزن: glm(proportion.feeding ~ گونه ها، وزن ها = number.birds.in.flock، خانواده = دوجمله ای) سوال من اینجاست، همچنین می توانم «number.birds.in.flock» را هم به عنوان وزن و هم به عنوان متغیر توضیحی مانند این: glm(proportion.feeding ~ species + number.birds.in.flock, weights = number.birds.in.flock, family = دوجمله ای)
رگرسیون لجستیک: آیا می توان از وزن ها به عنوان یک متغیر پیش بینی کننده استفاده کرد؟
25992
فرض کنید 3 نمونه بردارید و یک فاصله اطمینان 99% برای هر مجموعه داده گزارش دهید. چگونه احتمال اینکه همه مجموعه داده ها حاوی میانگین جمعیت واقعی هستند را محاسبه کنید؟ آمار دیگری ارائه نشده است.
احتمال اینکه فواصل اطمینان چندگانه حاوی میانگین جمعیت واقعی باشد
17119
من وب سایت های زیادی را جستجو کردم تا بدانم لیفت دقیقا چه کاری انجام می دهد؟ نتایجی که من پیدا کردم همه مربوط به استفاده از آن در برنامه ها بود نه خود. من از عملکرد پشتیبانی و اطمینان اطلاع دارم. از ویکی‌پدیا، در داده‌کاوی، لیفت معیاری از عملکرد یک مدل در پیش‌بینی یا طبقه‌بندی موارد است، که بر اساس مدل انتخاب تصادفی اندازه‌گیری می‌شود. اما چگونه؟ اطمینان*پشتیبانی ارزش بالابر است. من فرمول های دیگری را هم جستجو کردم، اما نمی توانم بفهمم چرا نمودارهای بالابر در دقت مقادیر پیش بینی شده مهم هستند، منظورم این است که می خواهم بدانم چه خط مشی و دلیلی پشت بالا بردن وجود دارد؟
اندازه گیری بالابر در داده کاوی
50027
مدلی که استفاده خواهد شد به صورت $e(n) = d(n) - y(n)$ با $y(n) = x(n)^Tw(n)$ تعریف می شود. که در آن $e(n)$ عبارت خطای n-امین مشاهده است، $x(n)$ بردار ورودی مشاهدات n-ام، $d(n)$ خروجی هدف از مشاهده n-ام و آخرین اما نه کم‌اهمیت $y(n)$ متغیر وابسته مشاهده شده مشاهده n ام. تفاوت وزن در شیب دارترین رویکرد مناسب به صورت $\Delta w(n) = - \mu \frac{\partial \mathbb{E}[e^2(n)]}{\partial w(n)}$ تعریف می‌شود. که در آن $w(n)$ یک بردار $m\ برابر 1$ از وزن است. بنابراین می توانیم معادله زیر را بنویسیم $w(n+1) = w(n) - \mu \frac{\partial \mathbb{E}[e^2(n)]}{\partial w(n)} $ اگر فرض کنیم که $\lim_{n \to \infty} x(n)x(n)^T = R_{xx}$ که یک ماتریس محدود با رتبه ستون کامل و $\lim_{n \to است. \infty} x(n)d(n) = R_{dx}$ که به همین ترتیب یک ماتریس محدود با رتبه ستون کامل است، می‌توانیم مشتق $\frac{\partial \mathbb{E}[e^2(n) را محاسبه کنیم. ]}{\partial w(n)}$ به صورت زیر: از $e^2(n) = [d(n) - x(n)^Tw(n)]^2$ دریافت می کنیم $\frac{\partial \mathbb{E}[e^2(n)]}{\partial w(n)} = \mathbb{E}[-2x(n)[d(n)-x(n) ^Tw(n)]]$ بنابراین اگر راست ترین عبارت را تقسیم کنیم، $-2\mathbb{E}[x(n)d(n)] = -2R_{dx}$ و $-2\mathbb{E}[x(n)x(n)^Tw(n)] = -2R_{xx}w(n)$ (*) طبق مفروضات قبلی. چیزی که من متوجه نمی شوم این است که چرا (*) درست است. از آنجایی که $x(n)$ و $w(n)$ به متغیرهای تصادفی وابسته هستند، نمی‌دانم چگونه می‌توانیم برابری را بدست آوریم که آشکارا با ثابت بودن یا مستقل بودن $w(n)$ بدست می‌آید. x(n)$ برای مرجع به http://www.ee.cityu.edu.hk/~hcso/it6303_4.pdf اسلاید شماره 19 مراجعه کنید. یک اشاره در جهت درست بسیار قابل تقدیر است :)
سوال در مورد مجانبی روش شیب دارترین فرود در زمینه فیلتر تطبیقی
79110
من به دنبال مقالات مروری هستم که بررسی های جامعی از P-values، P-values ​​تنظیم شده و آزمون های آماری رایج در بیوانفورماتیک ارائه می دهند.
مروری بر مقالات مربوط به P-values، P-values ​​تعدیل شده و آزمون های آماری رایج در بیوانفورماتیک
100102
من سعی می‌کنم رویکرد جستجوی خط را در Gradient Descent (http://en.wikipedia.org/wiki/Line_search) درک کنم. به نظر می رسد که یک پیاده سازی ساده در حالی که (معیارهای خاتمه برآورده نشده است) 1) گرادیان را در یک مکان فعلی محاسبه می کند 2) در آن جهت حرکت می کند تا زمانی که تابع هدف شروع به افزایش می کند 3) مکان فعلی را روی مکان قبل از افزایش در مرحله تنظیم می کند. 2 4) GOTO 1 آیا این درک درست است؟
جستجوی ساده خطی برای گرادیان نزول
66110
من ابری از نقاط دارم که می‌توان آنها را خوشه‌بندی کرد تا هر مجموعه از نقاط در خوشه را بتوان با یک تابع معکوس برازش کرد: $f(x) = cte / x$. وقتی معیارهای متمایز با منحنی معکوس تناسب دارند، چه رویکردی برای خوشه‌بندی مجموعه داده‌های من خواهد بود. من در بخش محاسباتی هستم، من به دنبال یک الگوریتم برازش ساده برای یک صفحه نمایش زیبا با منحنی هایی هستم که با داده ها مطابقت دارند و بنابراین چندین نقطه را مشخص می کنند.
خوشه بندی توابع معکوس برازش ابر
50026
بگویید من نمونه های نامنظمی از دو فرآیند تصادفی دارم که هر دو بر اساس یک فرآیند مشاهده نشده، $Z(t)$ هستند. SDE آنها $\mathrm{d}X(t) = \mathrm{d}Z(t-u(t)) + \epsilon(t)$ $\mathrm{d}Y(t) = \mathrm{d}Z است (t-v(t)) + \eta(t)$ که $\epsilon(t)$ و $\eta(t)$ نویز سفید هستند و $Z(t)$ هر فرآیند Levy است. تاخیرهای $u(t)$ و $v(t)$ مستقل، پیوسته و $\ge0$ هستند. من علاقه مند به تاخیر نسبی، $u(t) - v(t)$، بین دو فرآیند مشاهده شده هستم. آیا پیشنهادی در مورد چگونگی برآورد انتظارات آن دارید؟ لحظه دومش چطور؟
نحوه تخمین تاخیر زمانی تصادفی
34678
اگر به درستی متوجه شده باشم، تصحیح بنجامینی-هوکبرگ (BH) برای تصحیح میزان اکتشافات نادرست (FDR) هنگام آزمایش مجموعه‌ای از متغیرهای تصادفی $m$، $\\{X_1، \ldots، X_m\ استفاده می‌شود. \}$ در برابر $m$ فرضیه های صفر $\\{H_0^1, \ldots, H_0^m\\}$ که $k\leq m$ می تواند درست باشد حال موقعیتی را در نظر بگیرید که در آن شما مجموعه ای از متغیرهای تصادفی دارید که _sorted_ هستند. برای مثال، $\\{Y_1,\ldots,Y_m\\}$ با $Y_m\leq\ldots \leq Y_1$ و هر $Y_i\sim F_i$ (یعنی بر اساس $F_i$ توزیع شده است). نمونه ای از چنین سناریویی، مقادیر ویژه یک ماتریس تصادفی است. اکنون فرض کنید که با توجه به یک فرضیه صفر $H_0$، و آزمون آماری $T_i$، $Y_i$ها به ترتیب نزولی آزمایش می شوند - یعنی $Y_1$، سپس $Y_2$، و به همین ترتیب، تا $H_0 دلار نادرست است. آیا اصلاح BH در اینجا نیز قابل اعمال است یا اساساً سناریوی متفاوتی است؟ یا اصلاً بحث کنترل FDR مطرح نمی شود؟
در مورد کاربرد بنجامینی-هخبرگ
66118
ببخشید اگر این سوال خیلی گسترده است، اما می‌خواهم راهی برای مقابله با شبه تکرار فضایی در دستورات وجود داشته باشد؟ من یک طرح درمان تقسیم پلات دارم و می‌خواهم برای هر سال آزمایشم دستورات (شاید با استفاده از NMS) اجرا کنم تا ببینم چگونه روابط بین کرت‌های مختلف که درمان‌های مختلف را دریافت می‌کنند تغییر می‌کند. نگرانی من این است که به دلیل ماهیت طراحی طرح تقسیم شده، این داده ها واقعاً مستقل نیستند و این ممکن است بر نتایج تنظیم تأثیر بگذارد ...
روش های برخورد با داده های غیر مستقل در احکام
55216
در برخی از کتاب‌های درسی، واگرایی KL در اثبات نابرابری هوفدینگ نشان داده می‌شود (به عنوان مثال، معادله (5) این ماده). در مقابل، به نظر می‌رسد اکثر کتاب‌های درسی دیگر به این واقعیت اشاره نکرده‌اند. من می دانم که واگرایی KL اساساً واگرایی برگمن است، یعنی تفاوت بین مقدار واقعی یک تابع محدب و تقریب خطی محلی. اما من نمی دانم چرا در نابرابری هوفدینگ جایی برای واگرایی KL وجود دارد؟ هر توضیحی به طور شهودی دارید؟
چرا واگرایی KL در اثبات نابرابری هوفدینگ ظاهر می شود؟
66113
**اول:** من می خواهم یک CFA با 7 متغیر پنهان و 39 متغیر مشاهده شده اجرا کنم. برای راهنمایی در مورد اینکه چگونه CFA خود را ساختم، از این ویدیوی یوتیوب استفاده کردم: http://www.youtube.com/watch?v=JkZGWUUjdLg طبق روندی که در کلیپ ذکر شده در بالا توضیح داده شد، به نظر من دقیقاً درست است. با این حال CFA اجرا نمی شود و خروجی این پیام را می خواند: مدل احتمالاً ناشناس است. برای دستیابی به قابلیت شناسایی، احتمالاً لازم است 15 محدودیت اضافی اعمال شود. اولین سوال من این است که چرا CFA اجرا نمی شود و چرا می گوید باید 15 محدودیت دیگر اضافه کنم؟ به درک من این CFA درست است. **دوم:** من یک SEM با 9 نهفته و 49 متغیر مشاهده شده اجرا می کنم. این مدل نیز اجرا نمی‌شود، و وقتی خروجی را بررسی می‌کنم اینگونه می‌خواند: تکرار به حد مجاز رسیده است، بنابراین نتایج زیر نادرست هستند. من نمی فهمم این یعنی چه. کسی میدونه مشکل این SEM چیه؟ محاسبه حجم نمونه مورد نیاز نشان می دهد که من به 289 شرکت کننده نیاز دارم. من 325 شرکت‌کننده دارم، اگرچه آنها از مجموعه داده‌های کوچک‌تری تشکیل شده‌اند که در 3 یا 4 برابر برای رسیدن به حجم نمونه کافی تشکیل شده‌اند (آیا ممکن است این مشکل باشد؟).
مشکلات مربوط به SEM و CFA در AMOS
77057
من یک مجموعه داده متشکل از شش متغیر محیطی مستقل (همه دو جمله ای: موجود / غایب) و یک متغیر وابسته (دو جمله ای: بیماری موجود / غایب) دارم. برای تعیین ترکیب عواملی که بیشترین احتمال منجر به بیماری را دارند، ابتدا باید یک نظرسنجی Expert Opinion انجام دهم که در آن از چندین متخصص بخواهم همه ترکیبات ممکن متغیرها را بر اساس احتمال منجر به بروز بیماری رتبه بندی کنند. . سپس، پارامترهای رگرسیون را برای هر متغیر با استفاده از یک رویکرد تحلیل مشترک به دست می‌آورم که در آن هر متخصص با یک سطح مطابقت دارد (طراحی سلسله مراتبی)، شش متغیر محیطی متغیرهای مستقل هستند و رتبه‌بندی‌ها متغیر وابسته هستند. با وجود شش متغیر عامل، در مجموع 64 ترکیب متعامد ممکن وجود دارد. من این تعداد زیاد ترکیب‌های ممکن را کاهش دادم (در حالی که تعامد را حفظ کردم) با استفاده از بسته «AlgDesign» R. در اینجا کدی است که تنها با قطعات خروجی مرتبط دنبال می‌شود: level.design = c(2،2،2،2،2، 2) full.design <- gen.factorial(levels.design) X1 X2 X3 X4 X5 X6 1 -1 -1 -1 -1 -1 -1 2 1 -1 -1 -1 -1 -1 3 -1 1 -1 -1 -1 -1 ................. 63 -1 1 1 1 1 1 64 1 1 1 1 1 1 set.seed(69) کسری <- optFederov(~., data=full.design, approximate=FALSE, criterion=D) fractional نتیجه یک زیرمجموعه 12 ترکیبی که باید در تحلیل مشترک گنجانده شوند: $design X1 X2 X3 X4 X5 X6 4 1 1 -1 -1 -1 -1 5 -1 -1 1 -1 -1 -1 ....... ......... 57 -1 -1 -1 1 1 1 با توجه به آنچه که من درک می کنم، انجام یک تحلیل رگرسیون در تمام 64 ترکیب باید به همان پارامترهای رگرسیونی منتهی شود که اگر فقط از کاهش یافته استفاده کنم. مجموعه (یعنی 12 ترکیب از طرح فاکتوریل کسری). سوالات: 1. آیا کد و خروجی حاصل منطقی است؟ 2. آیا کسی می تواند به من یک مرجع خوب و ساده در مورد نحوه عملکرد این طرح کسری اشاره کند؟ می ترسم با انتخاب زیرمجموعه ای که نتایج متفاوتی از نتایج بدست آمده در صورت استفاده از طرح فاکتوریل کامل ایجاد کند، کارها را اشتباه انجام دهم.
طرح های فاکتوریل کامل و کسری
77055
من در موقعیتی هستم که در آن فهرستی از 500 ژن را با استفاده از روشی پیچیده به دست آوردم که از میان آنها زیرگروهی متشکل از 60 ژن را پیدا کردم که بر اساس یک حاشیه نویسی جهش یافته جهش یافته اند. برای تأیید اینکه غنی‌سازی تصادفی نبوده است، ۱۰۰۰ فهرست تصادفی از ۵۰۰ ژن (طول) ایجاد کردم و ژن‌ها را برای جهش‌ها حاشیه‌نویسی کردم. سپس تعداد ژن های جهش یافته در لیست های تصادفی را با تعداد ژن های جهش یافته در لیست مرجع y مقایسه کردم. با این حال، این مقایسه این واقعیت را در نظر نمی گیرد که در فهرست مرجع من، ژن های جهش یافته ممکن است بین آنها مرتبط باشند. چگونه می توانم این را کنترل کنم؟ من به هیچ وجه نمی توانم روابط را تخمین بزنم و نمی توانم روشی را تکرار کنم که با آن لیست مرجع ژن ها را در لیست 1000 لیست تولید شده به طور تصادفی بدست آوردم زیرا زمان بر است. نظر یا تست آماری در مورد این موضوع دارید؟ بهترین، اف.
آزمون غنی سازی و روابط بین متغیرها
61461
من سعی می کنم داده های استفاده از سرور را با استفاده از CPU مرتبط کنم. به عنوان مثال، تعداد X تراکنش روی سرور با مقدار Y استفاده از CPU مرتبط است. تراکنش ها به صورت ساعتی گزارش می شوند و میزان استفاده از CPU بر اساس هر دقیقه گزارش می شود. رویکرد فعلی این است که میانگین استفاده از CPU را در طول یک ساعت محاسبه کنید و سپس آن را بر اساس داده‌های تراکنش ساعتی ترسیم کنید. نگرانی من این است که ممکن است یک جهش در بار وجود داشته باشد که فقط چند دقیقه طول بکشد که استفاده از CPU را در این مدت به سطح بحرانی برساند، اما این افزایش (و کاهش عملکرد سرور) زمانی که CPU کار می کند از بین می رود. متوسط آیا راه بهتری برای نزدیک شدن به این موضوع وجود دارد؟ ممکن است داده‌های بار دانه‌ای بیشتر در دسترس نباشد، بنابراین از هرگونه کمکی قدردانی می‌شود.
یافتن همبستگی بین داده های انباشته و غیر انباشته
83494
من در حال ساختن برنامه‌ای هستم که در آن مکان خاصی انتخاب می‌شود، چندین سرویس نظرسنجی می‌شوند تا نتایج آن مکان خاص را برگردانند و روی نقشه نشان داده شوند. من نتایج منابع مختلف را در رنگ های مختلف روی نقشه نشان داده ام، بنابراین می توانید این احساس را داشته باشید که کدام نتایج بهترین هستند. در این مثال، تعریف دقیق «بهترین» دشوار است، اما به معنایی است که معمولاً نزدیک‌ترین نقطه به نقطه شروع است، زیرا همه چیز lat/lon است، سپس می‌توانم فاصله هر یک از نقطه شروع را محاسبه کنم. من به محاسبه میانگین مجذور مجذور فواصل فکر می کردم، زیرا این به نفع مجموعه های نتیجه ای است که نزدیک ترین نقاط را دارند. این ممکن است در غیر این صورت نتایج خوبی را که فقط چند نقطه دورافتاده دارند، منحرف کند، اما ارزش یک بار رفتن را دارد آیا الگوریتم های خوبی وجود دارد که در این موقعیت کمک کند؟ من الگوریتم های خوشه بندی را بررسی کرده ام، اما آنها برای سازماندهی داده ها در گروه ها خوب هستند. با این حال، در این مورد، من قبلاً می دانم که گروه ها چه هستند، فقط می خواهم بدانم کدام گروه به نقطه هدف من نزدیک است، با تشکر
کدام گروه از نتایج به نقطه مرکزی نزدیکتر است؟
61468
از یک وب سایت > می توانید فکر کنید که Correspondence Analysis یک نسخه داده طبقه بندی شده > PCA است. اما کاربرد اصلی Correspondence Analysis با > PCA متفاوت است و بیشتر شبیه خوشه بندی یا تحلیل عاملی است. با مکاتبات > تجزیه و تحلیل، ما می توانیم روابط بین داده های مشاهده شده شما را تجزیه و تحلیل و تجسم کنیم و ببینیم کدام بخش از داده ها با بخش دیگری از داده ها مرتبط است. ویکی‌پدیا همچنین می‌گوید > از نظر مفهومی شبیه به تجزیه و تحلیل مؤلفه‌های اصلی است، اما برای > داده‌های طبقه‌بندی و نه پیوسته کاربرد دارد. به روشی مشابه با تجزیه و تحلیل اصلی > مؤلفه، ابزاری برای نمایش یا خلاصه کردن مجموعه ای از داده ها به صورت گرافیکی دو بعدی فراهم می کند. اما من روند جزئیات آن را درک نمی کنم، زیرا نمی دانم که تجزیه و تحلیل مکاتبات در تلاش برای حل چه نوع مشکلی است؟ آیا یک فرمول ریاضی واضح برای مسئله وجود دارد؟ با تشکر و احترام!
فرمول ریاضی تجزیه و تحلیل مکاتبات؟
55213
من در حال تجزیه و تحلیل داده های پانل چند متغیره هستم که شامل متغیرهای سری زمانی همبسته خودکار است. متغیر پاسخ باینری است و من یک وقفه تصادفی را برای محاسبه بین تنوع موضوع در نظر می‌گیرم. بنابراین به نظر می رسد که یک رگرسیون لجستیک با اثر مختلط مناسب باشد. آیا می توان گفت اگر ساختار همبستگی خودکار را نادیده بگیرم، تخمین پارامترهای من همچنان بی طرف خواهد بود، اما خطاهای استاندارد آنها خیلی کم بایاس می شوند؟ برای رفع این مشکل، آیا می توانم از بلوک بوت استرپ برای تخمین خطاهای استاندارد بی طرفانه برای پارامترهای مدل خود استفاده کنم؟
آیا خطاهای استاندارد پارامترهای بوت استرپ در داده های سری زمانی بی طرفانه هستند؟
24640
@vucko به من پاسخ عالی به سوالم داد، متأسفانه با استفاده از کد Mathematica. من سعی می کنم آن را در R بازنویسی کنم و در توابع R که تخمین چگالی هسته را ارائه می دهند گم شده ام. من مجموعه داده دو متغیره با بیش از 46000 ردیف دارم (بنابراین من همچنین به دنبال راه حلی با کارایی بالا هستم -- راه حل @vucko بسیار وقت گیر است). من می خواهم تخمین چگالی هسته را اعمال کنم و تصمیم بگیرم که آیا نقطه ای در ناحیه ای با سطح تخمین چگالی (به ترتیب سطح اطمینان) قرار دارد یا خیر. ![ برآورد هسته ](http://i.stack.imgur.com/lDgfo.jpg) @vucko در پاسخ خود دو گروه را انتخاب کرد. فقط باید بدانم که آیا نقطه ای در گروه سبز نهفته است یا نه. و این باید با R انجام شود. من با توابع «kde» و «bkde2D» آزمایش کردم، اما آنها عملکرد مورد نظر را به عنوان Mathematica «SmoothKernelDistribution» به من ارائه نمی دهند. میشه لطفا جهت رو نشون بدم؟ برای توزیع نرمال، تابع «بیضی» را پیدا کردم که داده ها را با مقداری اطمینان تقریب می زد و از تابع «inside.owin» استفاده می کرد.
Mathematica SmoothKernel معادل توزیع در R
73311
من در حال بررسی تاثیر میراث شرکت بر نگرش مصرف کننده نسبت به شرکت/برند هستم. برای این منظور من دو متن ایجاد کرده ام: * یکی تاریخچه شرکت را فاش می کند * و دیگری - متن کنترل - برخی اطلاعات کلی در مورد شرکت را آشکار می کند. نتایج من نشان داد که این دو متن نه تنها از نظر ادراک میراث، بلکه از نظر اعتبار و باورپذیری اطلاعات با هم تفاوت دارند. بنابراین متن با جزئیات تاریخ نیز معتبرتر تلقی می شود. و همچنین گفته می شود که این نگرش را تحت تأثیر قرار می دهد. سوالات من این است: 1. آیا می توانم از اعتبار متن درک شده به عنوان متغیر کمکی در ANCOVA استفاده کنم، اگرچه بعد از درمان اندازه گیری می شود و ناشی از آن است؟ 2. چگونه می توانم خروجی ANCOVA را در این مورد تفسیر کنم؟ آیا می توانم هر دو اثر را جدا کنم - یکی از دستکاری و یکی از متغیرهای کمکی؟ 3. آیا تحلیل میانجی‌گری یکی از راه‌حل‌های ممکن برای بررسی اینکه آیا تأثیر درمان بر متغیر وابسته من به طور کامل توسط اعتبار متن واسطه می‌شود یا خیر است؟
چگونه می توان نتایج حاصل از آزمایش را تفسیر کرد که در آن متغیر کمکی تحت تأثیر تنظیم آزمایشی قرار می گیرد؟
50028
به خوبی شناخته شده است که در فرض صفر، مقدار p توزیع یکنواختی دارد. با این حال، چگونه می توانیم توزیع را برای مقادیر q تعیین کنیم (مقادیر p تنظیم شده با نرخ کشف نادرست)؟ من حدس می‌زنم که دیگر یکنواخت نیست زیرا کمترین همیشه افزایش می‌یابد. با تشکر
توزیع مقادیر q در زیر صفر چقدر است
24642
مشکلی که من روی آن کار می‌کنم را می‌توان به صورت زیر فرمول‌بندی کرد: $S$ مجموعه‌ای از رویدادهای $X_i$ است که در آن هر $X_i$ تعداد دفعات متفاوتی رخ داده است. همچنین، اگر فکر می کنید که این فرآیند به نوبه خود. در هر رخداد $X_i$، با یکی از رویدادهای $Y_{i,j}$ دنبال می‌شود. چیزی که من می‌خواهم بررسی کنم این است که آیا یک - یا هر عددی- از $Y_{i,j}$ به طور قابل‌توجهی بیشتر از سایرین رخ می‌دهد. ابتدا به این فکر کردم که میانگین و واریانس تعداد دفعاتی که $Y_{i,j}$ اتفاق می‌افتد را به طور جداگانه برای هر $X_i$ محاسبه کنم. پس از آن، می‌توانم یک آزمون t را انجام دهم که در آن $t={( {mean}_i -Y_{i,j} )}/ {stddev}_i $. و اگر هر $Y_{i,j}$ به طور قابل توجهی بیشتر از این میانگین با آلفای 0.05 بود، آنگاه نتیجه خواهم گرفت که نسبت وقوع این $Y_{i^*، j^*}$ به طور قابل توجهی بیشتر است. نسبت به دیگران سپس متوجه شدم که ممکن است لازم باشد stddev را با ریشه $n$ تقسیم کنیم، جایی که $n$ تعداد وقوع هر $X_i$ معین است. پس از آن، من دوباره به این نتیجه‌گیری شک کردم، زیرا فکر می‌کردم که آزمون‌های فرضیه بر اساس فرمول‌های نسبت ممکن است معرف بهتری از مسئله مورد نظر باشد. از آنجایی که من آمارگیر نیستم، به این فکر افتادم که در این مورد راهنمایی بخواهم. به نظر شما چه رویکردی برای این مشکل مناسب است؟
فرمول آزمون فرضیه صحیح برای این مشکل کدام است؟
100101
من در حال حاضر مشغول کار بر روی پروژه ای هستم که تلاش می کند یک متغیر تغییر محیطی را پیش بینی کند. من شخصاً طرفدار زیادی از پروژه نیستم، اما هنوز هم می خواهم بهترین کار ممکن را انجام دهم. به هر حال، اجازه دهید ابتدا خصوصیات داده ها را شرح دهم و سپس سؤال خود را بیان کنم. متغیر محیطی که ما سعی می کنیم مدل سازی کنیم پیوسته است و از 0 تا 25 متغیر است (می تواند مقادیری مانند 0.1345 یا 1.2335 یا 5.674 داشته باشد). متغیر محیطی همچنین دارای جرم قابل توجهی در صفر است (حدود 30٪ داده ها مقادیر صفر هستند)، و بیشتر داده ها در محدوده بین > 0 و <1\ قرار دارند. برای پیچیده تر کردن همه چیز، حدود 3٪ از داده ها دارای مقادیر شدید بیشتر از 2 هستند. به نظر من، توزیع داده ها شبیه توزیع Tweedie است. ما حدود 5 میلیون مشاهده در مجموعه داده داریم. ما قصد داریم متغیر محیطی را با استفاده از مجموعه ای از هشت متغیر توضیحی پیش بینی کنیم. ما یک هفته است که پیش‌بینی محیط‌زیست را مدل‌سازی کرده‌ایم و قدرت پیش‌بینی نتایج ما ناچیز بوده است. در اینجا روش‌های مدل‌سازی متفاوتی وجود دارد که من استفاده کرده‌ام: 1. مدل GLM با توزیع tweedie (تابع glm در r). این رویکرد مدل، تغییرات محیطی را زمانی که متغیرها دارای مقادیر کم هستند، بیش از حد برآورد می کند. اکثر مقادیر بین 0 - 1 به طور قابل توجهی بیش از حد تخمین زده می شوند و مدل مقادیر بالا را نیز به خوبی پیش بینی نمی کند. رویکرد GLM تناسب بسیار بدی برای داده‌های ما ایجاد می‌کند. 2. مدل افزودنی تعمیم یافته با توزیع تویدی (تابع bam از بسته mgcv در r). این رویکرد با داده ها کمی بهتر از مدل بالا مطابقت دارد، اما همچنان مقادیر در محدوده پایین را به طور قابل توجهی بیش از حد برآورد می کند. 3. مدل درختی رگرسیون (مدل rpart در r). مدل درختی رگرسیون به دقت مقادیر را در محدوده پایین توزیع پیش‌بینی می‌کند، اما در پیش‌بینی مقادیر صفر شکست می‌خورد و همچنین برای مقادیر بزرگ‌تر از 2 عملکرد ضعیفی دارد. 4. مدل رگرسیون تقویت‌شده (بسته dismo در r با استفاده از gbm.step). مدل به طور قابل توجهی مقادیر را در محدوده پایین توزیع بیش از حد برآورد می کند. به عنوان مثال، اگر مقادیر 0.23 باشد، مقادیر 1.67 و غیره را پیش بینی می کند. من معتقدم مدل gbm.step برای داده‌های ما ناکافی است، زیرا خانواده توزیع در بسته فقط خانواده برنولی (=دوجمله‌ای)، پواسون، لاپلاس یا گاوسی را مدل می‌کند. هیچ کدام به طور دقیق توزیع ما را توصیف نمی کند. از آنجایی که مجموعه داده ما بسیار بزرگ است، من داده ها را 50/50 به مجموعه داده های آزمایشی و آموزشی تقسیم کردم و تناسب مدل را بر روی انواع آمار آزمون برای مجموعه داده های آزمایشی ارزیابی کردم. با دانستن ساختار داده‌هایمان، آیا کسی می‌تواند به رویکردهای مدل‌سازی ما فکر کند که احتمالاً نتایج پیش‌بینی‌کننده بهتری تولید می‌کند؟ من هنوز در تکنیک‌های یادگیری ماشینی تازه کار هستم و امیدوارم کسی از تکنیک‌های دیگری که می‌توان استفاده کرد بداند. قوی ترین زبان برنامه من R است، اما می توانم این تحلیل را در پایتون یا استاتا نیز انجام دهم.
درختان رگرسیون / درختان رگرسیون تقویت شده برای توزیع Tweedie در R
50024
ببخشید سوال نسبتا ابتدایی، اما من در حال خواندن این مقاله در مورد سرطان تیروئید در فوکوشیما بودم و گزارش شد که در سال مالی گذشته 3 مورد از 38000 کودک شناسایی شده است. وب‌سایت دیگری به من می‌گوید که برای افراد 15 تا 19 ساله در بریتانیا (نمی‌توانم ارقام ژاپنی را پیدا کنم) حدود 1.6 در هر 100000 نفر در سال است که 0.6 در هر 38000 خواهد بود. فرد منطقی در من فکر می‌کند که سه مورد به جای صفر یا یک در یک سال فقط یک مشکل آماری است، اما شخص Think Of The Children در من می‌گوید که وقوع آن پنج برابر بیشتر است. بنابراین، آیا کسی می تواند از نظر آماری به من در مورد این ارقام اطمینان دهد/من را نگران کند؟ (PS: متوجه هستم که افزایش آزمایش‌ها مخصوصاً به دنبال مشکلات تیروئید ممکن است آمار سال گذشته را با یافتن زودتر تومورها منحرف کند، اما آیا می‌توانیم در اینجا این موضوع را نادیده بگیریم؟)
با توجه به نرخ وقوع بیماری تاریخی x در 100000، احتمال y در 100000 چقدر است؟
61464
با خواندن ویکی‌پدیا در مورد تجزیه و تحلیل همبستگی متعارف (CCA) برای دو بردار تصادفی $X$ و $Y$، می‌پرسیدم که آیا PCA همان CCA با X$ و $Y$ است؟ با تشکر و احترام!
آیا PCA همان CCA برای همان بردار تصادفی است؟
77056
من در حال تجزیه و تحلیل داده هایی هستم که به اندازه معاملات در طول زمان مربوط می شود و می خواهم آزمایش کنم که تغییرات از نظر آماری معنی دار هستند. شکل زیر خلاصه کاری است که من می خواهم انجام دهم. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/3Zxv3.jpg) به عنوان مثال، برای گره WW زیر (با میانگین اندازه شرط 60) و گره W (میانگین اندازه شرط 55)، من می خواهم آزمایش کنم که آیا تغییر در اندازه شرط از W به WW قابل توجه است یا خیر. تا به حال، من فقط تفاوت میانگین بین دو نمونه را با استفاده از بازماندگانی که در WW شرط‌بندی کرده‌اند محاسبه کرده‌ام (بنابراین مطابقت 220 WW با 220 W و نادیده گرفتن 5 از مشتریانی که انصراف داده‌اند). آیا این خوب است؟ من با این رویکرد به هیچ وجه ریزش مجموعه داده را در نظر نمی‌گیرم. . ثانیا، داده ها کمی کج هستند، بنابراین من می خواهم آن را winsorized کنم. من رویکرد فقط winsorizing در هر گره (به عنوان مثال 10 در هر دم) را امتحان کرده بودم. بنابراین به دست آوردن میانگین winsorized بی اهمیت است، اما فرمول انحراف استاندارد winsorized تعداد نقاط داده winsorized (STDEV*N-1/N*2K-1) در اکسل را در نظر می گیرد. من همچنین اختلاف میانگین را winsor می‌کردم، یک خطای استاندارد با فرمول «winsorized» مناسب دریافت می‌کردم و یک آمار t را محاسبه می‌کردم. که تا الان خوب کار می کرد من دیگر نمی خواهم در هر گره winsorize کنم. با برگزیدن 10 بالا و 10 پایین در هر گره، من مقادیری را که ممکن است از نظر بزرگی در مجموعه داده پرت نباشند حذف می‌کنم - این اتفاق می‌افتد که آنها 10 بالا و پایین در یک گره خاص هستند. من می‌خواهم کل مجموعه داده را winsorize کنم، بنابراین برای مثال، یک بردار از تمام شرط‌های قرار داده شده بین شرط 1 و شرط 4 و winsorizing 50 بالا و پایین دریافت کنم. سپس ادامه دهید و میانگین هر گره را بر اساس این داده ها محاسبه کنید. مشکل در محاسبه خطای استاندارد برای آزمون t (یا آزمون غیر پارامتری، در صورت لزوم) است. آیا می توانم ادامه دهم و انحراف معیار را به صورت عادی محاسبه کنم (حتی اگر داده ها winsorized شده باشند)؟ من فکر نمی‌کنم حتی بتوانم فرمول انحراف استاندارد winsorized را اعمال کنم زیرا مقداری برای 'k' در بالا (تعداد نقاط داده winsorized) نخواهم داشت. با winsorized در ابتدا به جای هر گره، من نمی دانم که کدام نقاط داده در هر گره winsorized شده اند. آیا من در این مسیر کاملاً اشتباه هستم؟
Winsorizing داده ها
55212
من 3 گروه در متغیر وابسته خود دارم. اندازه نمونه در 3 بسیار متفاوت است. من در گروه اول حدود 10000، در گروه دوم 35000 و در گروه سوم 100000 دارم. سوال من این است: آیا باید قبل از مدل سازی از گروه 2 و 3 نمونه برداری کنیم؟ پل آلیسون در کتاب خود در مورد رگرسیون لجستیک با استفاده از SAS به طور خلاصه در مورد این موضوع صحبت می کند، جایی که او می گوید اگر دو گروه با اندازه های نمونه متفاوت دارید، می توانیم یک نمونه را پایین بیاوریم و در نهایت رهگیری معادله رگرسیون را تنظیم کنیم. من می خواهم بدانم که چگونه این کار در یک موقعیت چند جمله ای کار می کند. هر کمکی قابل تقدیر است. اگر کسی بتواند به من کمک کند که معادلات برای یک مدل لاجیت چند جمله ای چگونه به نظر می رسند، با تنظیم رهگیری ها عالی خواهد بود. من معتقدم دو معادله وجود دارد. تعجب می کنم که چگونه رهگیری ها تنظیم می شوند. متشکرم
لاجیت چندجمله ای با حجم نمونه های مختلف در سه گروه
22775
من الگوریتم EM را درک می‌کنم، برای مثال می‌دانم که چگونه $Q(\theta، \theta^t)$ را دریافت می‌کنیم، اما در ترجمه یک مشکل دنیای واقعی به چارچوب EM مشکل دارم. به عنوان مثال، این مشکل به من داده می شود که در آن هر سند $x$ به یک کلاس $y$ طبقه بندی می شود، که در آن اسناد $M$ و کلاس های $K$ وجود دارد. $V$ واژگان است و $C(w,x)$ تعداد دفعاتی است که یک کلمه $w$ در سند $x$ ظاهر می شود. توزیع احتمال مشترک این است: $$ P(x, y) = P(y)\prod P(w\mid y)،\quad w\in V$$ من باید معادلات به روز رسانی را برای الگوریتم EM استخراج کنم که حداکثر احتمال ورود داده های ناقص پارامترها $P(y)$ و $P(w\mid y)$ هستند. اما من نمی فهمم از کجا شروع کنم. به عنوان مثال، معادله $Q$ برای این مسئله چگونه فرموله می شود؟
فرمول ساده مسئله برای الگوریتم EM
89635
من با دوست پسرم تاریخ تولد یکسانی دارم، همان تاریخ اما در همان سال، تولدهای ما فقط 5 ساعت یا بیشتر از هم فاصله دارند. من می دانم که شانس ملاقات با کسی که در همان تاریخ با من به دنیا آمده است نسبتاً زیاد است و من چند نفر را می شناسم که تولدم را با آنها به اشتراک می گذارم، اگرچه برای اندکی که در مورد پارادوکس تولد خوانده ام، لازم نیست. همان سال در نظر گرفته شود. ما قبلاً در مورد احتمالات بحث کرده ایم و من هنوز راضی نیستم. منظور من این بود که اگر احتمالات در یک رابطه را در نظر بگیرید (+ موفقیت در آن برای مدت X) شانس بسیار کمی است. من تعداد عواملی را که باید در نظر بگیرم بسیار زیاد می‌دانم (تا حدی، جنسیت و سن، در دسترس بودن، احتمال جدایی در منطقه ما، و غیره) آیا حتی ممکن است احتمالات را در مورد چیزی شبیه به این محاسبه کنیم؟ چگونه در مورد آن اقدام می کنید؟
پارادوکس تولد با پیچش (بزرگ): احتمال به اشتراک گذاشتن دقیقاً همان تاریخ تولد با شریک زندگی؟
55215
هنگام استفاده از کتابخانه weka برای خوشه بندی، آیا راهی برای یافتن بهترین تعداد خوشه وجود دارد. روش های EM تعریف شده اند اما نحوه استفاده از این روش ها در کد جاوا. لطفا پیشنهاد دهید
روشی برای تعیین بهترین تعداد خوشه ها
100103
من تازه وارد یادگیری عمیق هستم. لطفا کمکم کنید.. شبکه باور چیست. چه فایده ای دارد؟ چگونه شبکه های اعتقادی را یاد بگیریم؟ آیا شبکه باور عمیق یک شبکه اعتقادی با لایه های متعدد است؟
آیا شبکه باور عمیق یک شبکه اعتقادی است؟
31849
من در مورد آمار بیزی یاد می‌کردم و اغلب در مقالات > ما رویکرد بیزی را اتخاذ می‌کنیم یا چیزی مشابه خوانده‌ام. من همچنین کمتر متوجه شدم: > ما یک رویکرد **کاملاً** بیزی را اتخاذ می کنیم (تاکید من). آیا تفاوتی بین این رویکردها به لحاظ عملی یا نظری وجود دارد؟ FWIW، من از بسته MCMCglmm در R استفاده می کنم در صورتی که مرتبط باشد.
کاملا بیزی در مقابل بیزی
31843
من مطمئن نیستم که از کدام آزمون برای تجزیه و تحلیل داده هایم استفاده کنم. وضعیت به شرح زیر است: من دو برنامه کامپیوتری دارم که دقیقاً همین کار را انجام می دهند. هر دو مقدار زیادی از کد منبع را به اشتراک می گذارند، اما برخی از بخش ها با فناوری های مختلف توسعه یافته اند. من می خواهم تأثیر فناوری های مختلف را آزمایش کنم. من همان تغییرات را روی هر دو برنامه انجام دادم و پس از هر تغییر، برخی از ویژگی های کد منبع را اندازه گرفتم. تغییرات به صورت زنجیره ای انجام شد. من تغییر 2 را روی نتیجه انجام تغییر 1 روی نسخه اولیه و غیره انجام دادم. حالا با کمک ویژگی هایی که بعد از هر تغییر اندازه گیری می شود، می خواهم آزمایش کنم که آیا برنامه ای که با فناوری A نوشته شده است نسبت به برنامه ای که با فناوری B نوشته شده است راحت تر تغییر می کند یا خیر. به نظر شما کدام آزمون آماری بهترین انتخاب است؟ من به آزمون تی دانشجویی برای نمونه های زوجی یا آزمون رتبه بندی علامت دار ویلکاکسون فکر کردم. اما من مطمئن نیستم که آیا این آزمایشات برای این وضعیت قابل اجرا هستند یا خیر.
از کدام آزمون برای مقایسه تغییرات در کد منبع کامپیوتر استفاده کنیم؟
28113
اول، من می خواهم توضیح دهم که این یک سوال بسیار اساسی است. من تازه از R (و به طور کلی برنامه نویسی) استفاده می کنم. من یک data.frame با 3 ستون دارم: بلوک، شرط متوسط ​​1، شرط متوسط ​​2. بلوک ها از 1 تا 9 اجرا می شوند و میانگین زمان پاسخگویی در بین موضوعات است. کاری که می‌خواهم انجام دهم این است که هر دو میانگین را ترسیم کنم، یکی برای هر شرط، در حالی که در محور x پیشرفت بلوک‌ها وجود دارد. بنابراین، انتظار دارم برای هر شرطی که بالای محور x اجرا می شود یک خط داشته باشم. سوال من این است که از چه تابع نموداری استفاده کنم. من تقریباً با همه امتحان کرده‌ام، اما آنچه که فکر می‌کردم به کار می‌رود (به سادگی ترسیم یک بردار با دو ستون به عنوان ورودی، در مقابل ستون بلوک) کار نمی‌کند، این خطا را می‌دهد: طول‌های 'x' و 'y' متفاوت هستند بنابراین من فکر کردم ابتدا فقط یک شرط را رسم کنم و سپس خط دیگر را با دستور دوم اضافه کنم. من با موفقیت یک شرط را همانطور که می خواستم ترسیم کردم: plot(meanrts2[,3],meanrts2[,2],ylab=RT,xlab=block,type=l) بنابراین در اینجا من سومین شرط را انتخاب می کنم و ستون دوم برای انجام رسم، اما چیزی که من می خواهم این است که دو ستون موازی داشته باشند، هر کدام با رنگ های متفاوت. من abline را امتحان کردم، از ستون‌های دیگری که هنوز به عنوان آرگومان ترسیم نکرده‌ام استفاده کردم، اما مشخصات a=، b= نامعتبر را دریافت کردم. از هر پیشنهادی بسیار استقبال می‌شود. هر اطلاعات دیگری که من از دست دادم، همیشه می توانید بپرسید.
طرح با 2 شرط روی محور y
55211
فرض کنید مجموعه داده ای داریم که از 100 نمونه تشکیل شده است، هر نمونه به یکی از 6 کلاس {1،2،3،4،5،6} تعلق دارد. علاوه بر این، 70 درصد از نمونه ها متعلق به کلاس 3 هستند. برای مشکل طبقه بندی، اگر خروجی طبقه بندی کننده همیشه 3 باشد، دقت 70 درصد به دست می آید! آیا راهی برای اندازه‌گیری دقت با داده‌های با سوگیری شدید مانند آنچه در بالا وجود دارد وجود دارد؟
اندازه‌گیری دقت در مجموعه داده‌های مغرضانه
73319
من در تلاش برای پیاده سازی تجزیه و تحلیل مؤلفه اصلی (PCA) در یک رویه تکرار نمونه کار هستم. (رویال تکرار شبیه رگرسیون است: یک بردار وجود دارد که سود یک دارایی را تحت سناریوهای مختلف اقتصادی نشان می دهد، من باید ترکیبی خطی از بردارهای دارایی دیگر را پیدا کنم که بیشترین تناسب را با یک دارایی اولیه دارد). ضرایبی که از رگرسیون به دست می‌آورم باید به من بگوید چه تعداد دارایی باید بخرم و بفروشم تا تقریباً همان بازدهی را داشته باشم که می‌خواهم تکرار کنم. مشکلی با رگرسیون وجود دارد زیرا ماتریس دارایی کاندید شرطی نیست: دارایی ها همبستگی بالایی نشان می دهند. این امید وجود دارد که اجزای اصلی متعامد بتوانند این مشکل را حل کنند. من باید یک تجزیه PCA از ماتریس دارایی های نامزد انجام دهم، فقط اولین مولفه های $n$ را بگیرم، بهینه سازی را انجام دهم و ضرایب مؤلفه ها را بدست بیاورم. سپس باید ضرایب را به یک پایه اصلی تبدیل کنم. اکنون مشکل: PCA معمولاً با داده‌های میانگین کار می‌کند، اما اگر میانگین‌ها را از داده‌های اصلی کم کنم، نمی‌دانم چگونه ضرایب حاصل را در مورد خود تفسیر کنم و نمی‌دانم چگونه عملیات را معکوس کنم. تا کنون من تجزیه ویژه یک ماتریس کوواریانس را انجام می‌دهم، سپس از بردارهای ویژه برای ایجاد یک تبدیل متعامد داده‌ها استفاده می‌کنم که میانگین‌مرکز نیست. سپس من یک رگرسیون را اجرا می کنم (در واقع بهینه سازی هنجار L1) برای بدست آوردن ضرایب و تبدیل آنها به پایه اصلی. نتایج بد نیستند، اما اگر این کار را کاملاً اشتباه انجام می‌دهم، نمی‌توانم در مورد مشکل تمرکز کردن فکر نکنم. من امیدوار بودم که یک دلیل ریاضی دقیق برای این مشکل پیدا کنم، اما متاسفانه موفق نشدم. من در این امر بسیار مبتذل هستم و مهارت های ریاضی من از خوب بودن فاصله زیادی دارد، بنابراین اگر بتوانید بینش هایی در مورد مشکل میانگین محوری در PCA به اشتراک بگذارید، واقعاً از کمک شما سپاسگزارم.
تجزیه و تحلیل مؤلفه اصلی برای تکرار نمونه کارها
22773
آیا می توان دو روش مختلف نمونه برداری از یک توزیع نرمال دو متغیره با یک ماتریس همبستگی غیرهویت داشت، به گونه ای که یک روش «به طور پیوسته» به نمونه ای منجر شود که ماتریس همبستگی نمونه آن به ماتریس همبستگی توزیع نزدیکتر باشد. ? من تعریف دقیقی از معنای به طور مداوم ندارم. من از یک آماردان حرفه ای شنیدم که روشی که نمونه ای را ارائه می دهد که همبستگی آن همیشه به توزیع زیربنایی نزدیک است ممکن است مطلوب نباشد، زیرا ماتریس های همبستگی نمونه محاسبه شده از نمونه های مختلف با استفاده از روش یکسان باید مقداری تصادفی وجود داشته باشد. من این جمله را شگفت‌انگیز دیدم زیرا انتظار داشتم که بهتر است یک همبستگی نمونه تا حد امکان نزدیک به همبستگی توزیع نرمال اصلی باشد. اما من در این زمینه به اندازه کافی آگاه نیستم که بتوانم علیه آن بیانیه استدلال کنم. ویرایش: «نمونه‌گیری» در بحث من شامل استفاده از کوپول گاوسی و ماتریس همبستگی برای تولید نمونه بود. در این صورت، اگر نمونه‌های زیادی را در یک حلقه محاسبه کنم و نمونه‌ای که نزدیک‌ترین تطابق را دارد به همبستگی مورد نظر به‌عنوان نمونه _the_ برگردانم، آیا کار بدی انجام می‌دهم؟
مقایسه دو روش نمونه گیری از توزیع نرمال دو متغیره
55210
من یک نمونه‌گر گیبس را برای توزیع مشترک استخراج می‌کنم، که در آن شرط‌بندی پارامترهای مختلف حاصلضرب دو توزیع نرمال غیر استاندارد است. معمولاً دیده‌ام که در نمونه‌گیری گیبس، افراد شرایط خود را از توزیع استاندارد نمونه‌برداری می‌کنند. اما اگر از دو نرمال نمونه برداری کنم و سپس نمونه ها را ضرب کنم باید خوب باشم یا باید از استپ متروپلیس هستینگز داخل گیبس استفاده کنم؟
محصول نمونه گیری گیبس از نرمال ها به صورت شرطی
31846
من سعی می کنم AR1 را با استفاده از `dlmModReg()` مدل کنم. هدف اصلی این است که ph را یک متغیر نگه داریم تا اگر ph > 1 باشد، بدانم که بازگشت میانگین رخ نمی دهد. کد من در زیر آمده است: buildFun <- function(x) {dlmModReg(e1, addInt = FALSE, dV = exp(x[1]), dW = exp(x[2]))} fit <- dlmMLE(e0, parm = c(0,0), buildFun) dlmRes <- buildFun(fit$par) ResFilt <- dlmFilter(e, dlmRes) R <- unlist(dlmSvd2var(ResFilt$U.R, ResFilt$D.R)) Q <- R + as.vector(V(dlmRes)) e تعدادی باقی مانده از OLS است و من سعی می کنم مدل کنم e با استفاده از AR1 سوال من: * آیا Q من اشتباه محاسبه می شود زیرا سعی می کنم یک فاصله اطمینان ایجاد کنم ResFilt$f و مقادیر Q حداقل 20 مرتبه بزرگتر از ResFilt$f هستند؟
مدلسازی AR1 با استفاده از dlmModReg
24641
من مقالات زیادی را در مورد **تحلیل متمایز خطی** در وب مرور کردم. می توانم بگویم که بیشتر آن را فهمیده ام. این چیزی است که من فهمیدم. شما داده‌ها را می‌گیرید، میانگین **داده**، **میانگین هر کلاس**، **پراکندگی بین کلاس**، **پراکندگی در یک کلاس** را محاسبه می‌کنید. از این اطلاعات برای نمایش داده های چند بعدی بر روی یک خط و در نتیجه کاهش ابعاد استفاده کنید. با این حال، من نمی دانم چگونه از آن برای **آموزش و آزمایش مجموعه داده ها** استفاده کنم. همچنین، من می دانم که **Y = X نقطه W** Y داده های پیش بینی شده است X داده اصلی و W بردار محاسبه شده برای طرح ریزی است. بنابراین، آیا **W** را ذخیره کنم و از آن برای نمایش داده های جدید استفاده کنم؟ امیدوارم در مسیر درست باشم!
تجزیه و تحلیل تشخیص خطی برای آموزش و آزمایش مجموعه داده ها
28115
من از معیار برآورد فقر در سطح شهرستان از برآوردهای درآمد و فقر منطقه کوچک (SAIPE) به عنوان متغیر وابسته در تحلیل رگرسیون استفاده می‌کنم. این مقدار خود نتیجه یک مدل است و با کران های بازه اطمینان 90% بالا و پایین کامل می شود. برای روشن بودن، هر یک از بیش از 3000 مشاهدات من دارای ارزش تخمینی و فاصله اطمینان خاص خود بر اساس حجم نمونه برای آن شهرستان است (با هدف 2.5٪ از جمعیت). به مدل رگرسیون من یکی از راه هایی که من تصور کرده ام این است که یک قرعه کشی تصادفی از یک توزیع با استفاده از مقدار تخمینی و فاصله اطمینان برای هر مشاهده انجام دهم. سپس رگرسیون خود را با استفاده از این مقدار شبیه سازی شده برای متغیر وابسته در تحلیل رگرسیونی خود مجددا اجرا می کنم و نتایج مدل را با مدل با استفاده از مقدار تخمین زده مقایسه می کنم. با شبیه سازی مقادیر جدید و مقایسه چندین بار، متوجه می شوم که یافته های من تا چه اندازه نسبت به تخمین های متغیر وابسته حساس هستند. یکی از مؤلفه‌های کلیدی این، کشیدن یک عدد تصادفی بر اساس مقدار تخمینی و فواصل اطمینان بالا و پایین است. داده ها در سمت چپ و راست در 0 و 100 سانسور می شوند و مقدار تخمین زده شده در فاصله اطمینان مرکزی قرار نمی گیرد: abs(estimate-cl) != abs(estimate-cu) بحث اینجا برای من جالب بود: نمونه برداری از اعداد تصادفی از توزیعی با فواصل اطمینان نامتقارن که توسط یک تخمین بوت استرپ ایجاد شده است اما یک نسخه اصلاح شده از کد فقط مقدار تخمینی را تولید می کند در اینجا یک مثال با استفاده از 6 رکورد اول از 2008 SAIPE sample.size<-c(1258.850,4405.300,745.900,539.725,1444.850,273.02) POV08L90<-c(8.77،8.24،18.08،13.90،10.55،22.45) POV08H90<-c(12.54،11.18،24.82،20.87،15.27،33.83) POV08<-c(10.7,9.9,24.5,18.5,13.1,33.6) test.data<-data.frame(sample.size,POV08L90,POV08H90,POV08) gammaGenerate<-function(dat){ for(i طول (dat$sample.size)){ n<-dat[isample.size] cl<-dat[iPOV08L90] cu<-dat[iPOV08H90] barx<-dat[iPOV08] تالفا = qt( p=0.95,df=n-1) s = (cu - cl)*sqrt(n)/(2*تالفا) کاپا = 6*s*s*n*( cl - barx + talpha*s/sqrt(n) ) gamma.shape = 4/(kappa*kappa) gamma.scale = s/sqrt(gamma.shape) gamma.shift = barx - gamma.shape*gamma.scale print(c(barx,(rgamma(n = 5, shape = gamma.shape) + gamma.shift))) } } gammaGenerate(test.data) هر کمکی که می توانید ارائه دهید - یا راهنمایی من به روش بهتری برای مقابله با عدم قطعیت در متغیر وابسته من، یا توضیحی برای اینکه چرا گامای من همیشه روی 0 قرار می گیرد خیلی خوش آمدید
شبیه سازی مقادیر از یک مقدار تخمینی و فاصله اطمینان در R
87641
این سوال به آمار اولیه یک توزیع نرمال مربوط می شود، اما من نمی توانم آن را بفهمم. میانگین و 95% فاصله اطمینان برای یک توزیع به من داده شده است، اما می خواهم انحراف معیار را بدانم. در مثال من: $$ \mu=53.4\quad 95\%\ c.i.=(52.3, 54.3) $$ من فکر می کردم که راه حل برای $\sigma$ چیزی شبیه به: $54.3=53.4+ (SE*1.96) )$$ $$SE=(54.3-53.4)/1.96=0.46$$ و سپس، $$SE=\frac{\sigma}{\sqrt{n}}$$ $$\sigma=0.46*\sqrt{n}$$ بنابراین، اگر من $n$ را نمی‌دانم، آیا این امکان وجود دارد؟
با توجه به میانگین و فاصله اطمینان 95 درصد، آیا برای محاسبه انحراف معیار باید حجم نمونه را بدانم؟
31840
من به دنبال یک کتاب خوب برای مطالعه در مورد ژنتیک آماری هستم. من هیچ پیش زمینه ای در زیست شناسی، یادگیری در شیمی، خواندن برخی از کتاب های گریفیث در مورد تجزیه و تحلیل ژنتیکی ندارم، اما من فقط به ژنتیک آماری علاقه مند هستم. من این کتاب را سفارش داده‌ام که در جدیدترین نسخه AmStat توسط همکار TAM بررسی شده است. اما من می خواهم بدانم آیا موارد دیگری وجود دارد که به عنوان پشتیبان از آنها استفاده کنم. آیا لانگ خیلی سخت است؟
یک کتاب درسی خوب در زمینه ژنتیک آماری برای کسی که سابقه زیست شناسی زیادی ندارد چیست؟
28117
من یک نسخه خطی در روش بوت استرپ برای آزمایش فرضیه های یک میانگین دارم و می خواهم آن را برای چاپ ارسال کنم، اما یک دوگانگی اخلاقی دارم. من اعتراض علیه الزویر را به دلیل اقدامات تجاری غیراخلاقی آنها امضا کرده ام، و خواندن کل موضوع واقعاً باعث شد که اخلاقیات سایر مجلات دانشگاهی انتفاعی را زیر سوال ببرم. بنابراین می‌خواهم در مجله‌ای غیرانتفاعی، ترجیحاً منبع باز، منتشر کنم، حتی اگر می‌دانم که چنین مجلاتی از نظر اعتبار هنوز با مجلات معتبرتر در نظر گرفته نمی‌شوند. خوشبختانه، از آنجایی که من در حال حاضر سابقه کار دارم، این برای من اهمیت زیادی ندارد. من از هر گونه توصیه قدردانی می کنم.
توصیه ای برای ژورنال منبع باز بررسی شده؟
77675
من یک درخت طبقه بندی را اعتبار سنجی متقاطع می کنم و می توانم تعداد مشاهدات اشتباه طبقه بندی شده توسط اندازه های مختلف درخت را ترسیم کنم. سوال من این است که برگرداندن عدد اشتباه طبقه‌بندی‌شده برای یک اندازه درخت مشخص، زمانی که _k_ اجراهای متفاوتی از آن درخت اندازه وجود داشت (که در هر کدام از اجراهای _k_ احتمالاً تعداد متفاوتی را به اشتباه طبقه‌بندی کرده‌اند) به چه معناست؟ چندین متنی که خوانده‌ام می‌گویند که میانگین بالای چین‌های _k است که باید برای هر اندازه درخت بازگردانده شود، اما فکر نمی‌کنم این چیزی باشد که من دریافت می‌کنم زیرا اعدادی که می‌بینم برای «عدد طبقه‌بندی نشده» ترسیم شده است. همیشه اعداد صحیح کامل در اینجا یک مثال وجود دارد: library('ISLR') attach (Carseats) High = cut (Sales, c(-Inf, 8, Inf), labels=c(Small، Large)) Carseats = data.frame( Carseats, High) set.seed(2) train = sample(1:nrow(Carseats), 200) library('tree') tr0 = tree(High ~ . -Sales, data=Carseats, subset=train) set.seed(3) tr0.cv = cv.tree(tr0, FUN=prune.misclass) plot.tree.sequence(tr0.cv) tr0. cv$dev #[1] 55 55 53 52 50 56 69 65 80 # اینها مانند میانگین ها در میان k تاها به نظر نرسید **به روز رسانی** از مثال من، در اینجا اندازه های مختلف درخت و مقدار توسعه دهنده متناظر آنها وجود دارد (در اینجا به معنی عدد اشتباه طبقه بندی شده است) tr0.cv$size [1] 19 17 14 13 9 7 3 2 1 tr0.cv$dev [1] 55 55 53 52 50 56 69 65 80 بنابراین ما برای درختی با اندازه 19 داریم، عدد اشتباه طبقه بندی شده 55 است. آیا این می گوید که در 10 اجرا، مجموع همه کلاس های اشتباه 55 بوده است؟ بنابراین حدود 5.5 کلاس اشتباه به طور متوسط، برای هر درخت منفرد متناسب با اندازه 19؟ این مشکوک به نظر می‌رسد، زیرا وقتی درختی با اندازه 19 را جا می‌دهم، می‌بینم که عدد به اشتباه 21 طبقه‌بندی شده است. بالا ~ - فروش، داده = صندلی اتومبیل، زیر مجموعه = قطار) تعداد گره های پایانه: 19 میانگین باقیمانده. انحراف: 0.4282 = 77.51 / 181 میزان خطای طبقه بندی اشتباه: 0.105 = 21 / 200 با انجام این کار 10 بار انتظار می رود مجموع اعداد اشتباه طبقه بندی شده تقریباً 200 باشد، که کاملاً با 55 گزارش شده متفاوت است. البته، من می دانم که در 10 متفاوت است. اجرا می شود مقداری تنوع در تعداد اشتباه طبقه بندی شده وجود دارد، اما این به نظر می رسد یک اختلاف بیش از حد بزرگ است. آیا من چیزی را از دست داده ام؟
درختان و اعتبارسنجی متقاطع - # کلاس اشتباه
61465
یک نمونه iid $X_1، \dots، X_n$، از توزیع خوب رفتار با pdf $f(X)$ را در نظر بگیرید. سوال من این است: چه کلاس هایی از آمار $S(X_1، \dots، X_n)$ هستند که بطور مجانبی نرمال هستند؟ من در مورد نرمال بودن مجانبی آمارهای خاص (مانند میانگین نمونه) می دانم، اما فکر می کنم خوب است فهرستی از همه خانواده ها یا طبقات آماری که به طور مجانبی نرمال هستند داشته باشیم. من فکر می کنم M-estimators نمونه ای از چنین کلاس هایی هستند، اما آیا موارد دیگر وجود دارد؟
طبقات آمار عادی مجانبی
24645
فرض کنید من یک سیستم توصیه‌کننده ساخته‌ام که (مثلاً با توجه به رتبه‌بندی فیلم‌ها یا هر چیز دیگری از بسیاری از کاربران) فهرستی از 10 فیلم توصیه‌شده برای تماشای هر کاربر تولید می‌کند. تصور کنید که من همچنین تعداد زیادی از آیتم‌های فیلم را به همراه فهرست رتبه‌بندی کاربران همراه با فیلم‌هایی که واقعاً تصمیم به تماشای آن‌ها داشتند، دارم. بنابراین من می خواهم از این مجموعه داده برای ارزیابی سیستم خود استفاده کنم. من در ادبیات دیده ام که این وظایف پیشنهاد برخی موارد خوب معمولاً با استفاده از دقت، یادآوری و امتیازات F1 ارزیابی می شوند (به عنوان مثال به [1] مراجعه کنید). حدس می‌زنم که باید به ویژه به دقت در 10 علاقه مند باشم. با این حال من کاملاً مطمئن نیستم که چگونه باید این معیارها را در سناریویی که در بالا توضیح دادم محاسبه کرد (یا اینکه آیا معنی دارند). ظاهراً ترجیح داده شده این است که نمونه را به طور تصادفی به بخش آموزش و آزمایش تقسیم کنیم. و سپس داده های آموزشی را به الگوریتم من وارد کنید تا بتواند لیستی از 10 پیش بینی را ارائه دهد. اکنون دقت به نظر منطقی است، من می‌توانم از 10 پیش‌بینی بررسی کنم که واقعاً چه تعداد از این موارد در فیلم‌هایی که کاربر در داده‌های آزمایشی تماشا می‌کند یافت می‌شود. با این حال، برای یادآوری، اگر کاربر فیلم های زیادی را در داده های تست تماشا کرده است، مثلاً 50 یا بیشتر. هیچ راهی برای به دست آوردن نمره یادآوری خوب وجود ندارد، صرفاً به این دلیل که سیستم من محدود به تولید تنها 10 فیلم بود و من حداکثر 1/5 = 0.2 فراخوان را دریافت می کردم. از طرف دیگر، اگر آزمایش را فقط به حدس زدن 10 فیلم تماشا شده بعدی کاربر محدود کنم (به طوری که فرصتی برای یادآوری کامل وجود داشته باشد)، دقت و یادآوری همیشه دقیقاً یک عدد خواهد بود (اگر تعداد توصیه شده و شماره مربوط به کاربر یکسان است، دقت و فراخوانی نیز همیشه یکسان است). آیا من کار اشتباهی انجام می دهم؟ یا این معیارها در سناریوی در نظر گرفته شده چندان منطقی نیستند؟
آیا اندازه گیری فراخوان در سیستم های توصیه گر منطقی است؟
18383
ادعا می شود که نقشه های خودسازماندهی قادر به تجسم/خوشه بندی داده های با ابعاد بالا در یک فضای ابعادی کوچکتر هستند. من در درک این جمله مشکلاتی دارم. یک مجموعه داده شش بعدی را در نظر بگیرید. بردار کتاب کد/بردار مرجع نیز شش بعدی است. طبق الگوریتم SOM، به روز رسانی این بردارهای مرجع نیز در فضای برداری شش بعدی انجام می شود. اگر نقشه دو بعدی را در نظر بگیریم، چگونه باید نقشه بین فضای داده های شش بعدی و فضای نقشه دو بعدی را درک کنم؟
مسائل کاهش ابعاد در نقشه های خودسازماندهی (SOM)
22779
من 5 نمونه (از همین جامعه) دارم. من می‌خواهم گامای Goodman- Kruskal ($\gamma$) را برای جامعه بر اساس گامای 5 نمونه ($G_i$) محاسبه کنم. هر داده دارای 2 متغیر ترتیبی (X و Y) است، اما X و Y نمونه های مختلف قابل مقایسه نیستند، بنابراین من نمی توانم همه نمونه ها را در یک کیسه قرار دهم و گامای این مجموعه جدید را محاسبه کنم. من می توانم G_i$ را برای هر نمونه و خطای استاندارد را برای $G_i$ محاسبه کنم و باید این $G_i$ را ترکیب کنم. علاوه بر این، من می خواهم فرضیه $ \gamma \ne 0$ را آزمایش کنم و بنابراین به خطای استاندارد برای G ترکیبی نیاز دارم. فقط برای اضافه کردن اطلاعات، من در R کار می کنم و از تابع GKgamma از vcdExtra استفاده می کنم. بسته برای محاسبه خود گاما و خطای استاندارد.
چگونه بسیاری از معیارهای گامای Goodman-Kruskal را ترکیب کنیم؟
93541
من یک متغیر $\mu$ با توزیع دارم، با توجه به $\phi$ $ \mu|\phi \sim N(\phi, \sigma^2)$، و توزیع $\phi$ $\phi \ است. سیم کارت N(\nu، \tau^2)$. (در اینجا $\sigma^2،\nu$ و $\tau^2$ شناخته شده است). من باید توزیع قبلی حاشیه ای $\mu$ را پیدا کنم، اما مطمئن نیستم که این به چه معناست. هر کمکی واقعا قدردانی خواهد شد. با تشکر
معنی توزیع قبلی حاشیه ای
77671
من دو سری زمانی دارم که می‌خواهم علیت گرنجر مقادیر تاخیری $x$ را در $y$ آزمایش کنم، $y$ به rate-return تغییر می‌کند و $x$ مثبت یا منفی rate-return است. ، که در همه جا مثبت است، و 0 در جایی که منفی است، جایی که هر دو متغیر ثابت هستند. من مدل را با مقداری مرتبه اتورگرسیو p (با استفاده از 2 برای خلاصه نویسی) برازش می کنم: \begin{معادله} y_t = \beta_0 + \beta_1 y_{t-1} + \beta_2 y_{t-2} + \gamma_1 x_{t- 1} + \gamma_2 x_{t-2} + \epsilon_t \end{equation} جایی که می‌خواهم آزمایش کنم $H_0:$ $\gamma_1 = \gamma_2 = 0$ با بررسی عبارت $\epsilon_t$ برای نرمال بودن، فرضیه خطاهای توزیع شده عادی را رد کنید. آزمایش هتروسکداستیکیته با IID انجام دهید. فرضیه صفر واریانس ثابت را رد نکنید (0.07 = p). تست همبستگی خودکار با استفاده از بروش- گادفری LM و آزمون جایگزین دوربین، که در آن هر دو در رد فرضیه صفر عدم همبستگی سریالی شکست می خورند. آزمایش ARCH-LM را انجام دهید، این آزمایش فرضیه صفر عدم وجود اثرات ARCH را قبول نمی کند. در پاسخ به این سوال: پس از برازش یک GARCH(1,1) (که از نظر تئوری با استفاده از این نوع داده های سری زمانی دقیق ترین است، جایی که متغیرها را با نرخ-بازده برازش می کنم)، به شکل: \ شروع{معادله} y_t = \delta_0 + \delta_1 y_{t-1} + \delta_2 y_{t-2} + \rho_1 x_{t-1} + \rho_2 x_{t-2} + u_t \end{equation} پیدا کردن خطاهای ARCH و GARCH و تفسیر آنها. آیا هنوز می توانم یک تست علیت گرنجر در این مدل انجام دهم،$H_0:$ $\rho_1 =\rho_2 = 0$؟ یا باید تست ARCH-LM را نادیده بگیرم و مدل را با استفاده از newey west s.e مطابقت دهم؟ باید اشاره کنم که با برازش 3 مدل مختلف، فقط GARCH متوجه می‌شود که X granger باعث Y $(p= 0.0473)$ می‌شود، در حالی که new west se و نرمال ols نمی‌توانند تهی X را رد کنند، گرنجر باعث Y $(p نمی‌شود. = 0.3) دلار.
آزمایش علیت گرنجر پس از برازش GARCH(1,1)
89630
وقتی هیچ یک از متغیرهای پیش بینی کننده معنی دار نیستند چه کار کنم؟ تمام مقادیر p بزرگتر از سطح معنی داری 0.05 هستند.
چه متغیرهایی را در مدل نگه دارم؟ رگرسیون خطی چندگانه
28116
من کار رگرسیون را انجام می‌دهم و متغیرهای پاسخ در مجموعه داده‌ام دارای توزیع اریب هستند. برای سادگی، بگویید که من یک مدل Y~X دارم و Y (متغیر پاسخ) در [1,5] است اما مقادیر بسیار بیشتری در محدوده [4,5] نسبت به [1,2] وجود دارد. محدوده در نتیجه یک پیش بینی اکثریت که 4.5 را برای Y بدون توجه به مقدار X پیش بینی می کند، می تواند با رگرسیون خطی کامل شود، اگر فقط به خطای MSE نگاه کنم. من نمی‌پرسم آیا روشی روشمند برای تصحیح MSE وجود دارد تا این مورد را در نظر بگیریم و شاید پیش‌بینی‌کننده اکثریت را وقتی که Y=1 اشتباه می‌گیرد بیشتر جریمه کنیم تا زمانی که Y=5 اشتباه می‌کند. اساساً من به دنبال یک اندازه گیری خطای منصفانه برای داده های منحرف هستم. **به روز رسانی:** برای سادگی، فرض کنید پیش بینی کننده اکثریت برای همه چیز 4.5 را بدون توجه به مقدار X پیش بینی می کند. پیش بینی کننده من 1 را به طور دقیق پیش بینی می کند اما همیشه 4.4 را برای 5 پیش بینی می کند. مجموعه آزمون برای Y یک 1 است و بقیه 200 عدد و هر کدام برابر با 5 است. بر اساس MSE، پیش بینی اکثریت بهتر از پیش بینی کننده من است، اما هیچ معنایی ندارد. من می‌خواهم MSE را تغییر دهم تا پیش‌بینی‌های دقیق برای 1 در مقایسه با پیش‌بینی‌های دقیق برای 5 مورد استفاده قرار گیرد. شاید بتوانم هر باقیمانده را در معکوس فرکانس Y واقعی ضرب کنم؟ همچنین چگونه می توانم از چنین MSE برای مواردی که Y پیوسته است استفاده کنم؟ **به روز رسانی 2:** بنابراین برخی از افراد پیشنهاد کردند که شاید Y باید به درستی نمونه برداری شود و من باید یک نمونه فرعی از داده های خود را پیدا کنم که توزیع یکنواخت Y را ارائه دهد. این در مورد من امکان پذیر نیست. بگویید من در حال خزیدن در آمازون هستم و بیشتر رتبه هایی که می بینم 5 هستند (از آنجایی که آمازون محصولات زیر عملکرد را حذف می کند) اما مواردی با رتبه 1 نیز وجود دارد. حال اگر از یک پیش بینی اکثریت استفاده کنم که در همه جا 5 را پیش بینی می کند، SVM من را از نظر مقدار MSE شکست می دهد، اما پیش بینی اکثریت هیچ ارزشی برای سیستم من نمی آورد. علاوه بر این، من نمی‌خواهم داده‌هایم را صرفاً برای یکنواخت کردن توزیع رتبه‌بندی‌ها دور بریزم. من معتقدم که باید با انتخاب مناسب متریک (اندازه گیری خطا) یک توزیع نمونه باشد. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/nTK14.png)
میانگین مربعات خطا برای داده های دارای توزیع اریب
38497
آیا maximin یک الگوریتم یادگیری ماشینی است یا به سادگی مفهوم دیگری است که برای افزایش احتمال برنده شدن استفاده می شود؟
آیا maximin یک الگوریتم یادگیری ماشینی است؟
32635
وقتی من اقتصاد سنجی بیزی را مطالعه می کنم، کتاب ابتدا توزیع گاما- نرمال را به عنوان (مزوج) قبل معرفی می کند، سپس توزیع پسین همان توزیع قبلی را خواهد داشت. اما سوال من این است که چرا نمی‌توانیم از توزیع ساده دیگری مانند توزیع عادی مانند توزیع عادی استفاده کنیم، چرا باید از توزیع عجیب ترکیبی استفاده کنیم؟
توزیع گاما نرمال به صورت قبلی
93543
مجموعه داده زیر را در نظر بگیرید: شناسه بیمار، جنسیت، سن، فشار خون سیستولیک، فشار خون دیاستولیک 1، مرد، 66، 120، 80 1، مرد، 66، 119، 83 2، زن، 45، 119، 90 3، زن، 55، 120، 19 با استفاده از این مجموعه داده، می توانم محاسبه کنم که توزیع سیستولیک چگونه است. اندازه‌گیری فشار خون برای مردان 60 تا 70 ساله و غیره است. من سعی می‌کنم راهی برای ایجاد یک مجموعه داده مصنوعی مجزا با تعداد بیماران بیشتر از نمونه اصلی پیدا کنم که همچنان با توزیع عناصر داده مجموعه داده اصلی مطابقت داشته باشد. من حدس می‌زنم که مشکل باید به صورت مرحله‌ای بررسی شود، یعنی ابتدا داده‌های مصنوعی را برای همه مردان، برای گروه سنی 1، سپس گروه سنی 2 و غیره تولید کنید، سپس با یک گروه جدید شروع کنید و آن را دنبال کنید. من فکر می کنم که این باید چیزی نامیده شود، اما مطمئن نیستم که اصطلاح مناسب چیست، بنابراین هرگونه اشاره ای قابل قدردانی است. آیا ابزاری وجود دارد که بتواند در این مورد کمک کند؟
تولید داده بر اساس داده های موجود و توزیع آنها
73310
من تعداد افراد مبتلا به بیماری در هر پنجک محرومیت را در طول پنج سال مختلف دارم. ما علاقه مندیم که آیا تعداد تشخیص ها در پنجک های محروم تر سریع تر افزایش می یابد یا خیر. داده ها به این شکل است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/QZwzV.png) به نظر من خیلی سریعتر در پنجک های محروم تر در سمت چپ افزایش می یابد. (Q1 و Q2). من فکر کردم مربع چی بهترین رویکرد است اما: تست = ساختار (لیست (Q1 = c(98L, 109L, 263L, 323L, 312L), Q2 = c(90L, 113L, 199L, 237L, 247L), Q3 = c( 70 لیتر، 83 لیتر، 133 لیتر، 166 لیتر، 182 لیتر)، Q4 = c(20L، 39L، 60L، 87L، 90L)، Q5 = c(38L، 50L، 75L، 101L، 115L))، .Names = c(Q1، Q2، Q3، Q4 , Q5), class = data.frame, row.names = c(2008/09, 2009/10، 2010/11, 2011/12، 2012/13)) chisq.test(test) داده های آزمون Chi-squared پیرسون: تست X-squared = 17.285، df = 16، p -value = 0.3674 چیزی که من می بینم گم شده است این است که سال ها واقعاً مرتب شده اند، ما به دنبال یک افزایش می یابد، اما البته مربع کای آنها را به عنوان اسمی در نظر می گیرد. فکر نمی‌کنم بتوانم از رگرسیون لجستیک استفاده کنم، زیرا من فقط به حجم موردی نگاه می‌کنم- تعداد زیادی از افراد را ندارم که اختلالی برای مقایسه با آنها ندارند، فقط در طول زمان افزایش می‌یابند. یا این رویکرد درستی است و واقعاً مهم نیست؟ با تشکر
آیا مربع کای بهترین رویکرد برای بررسی تعداد موارد در سال است؟
24648
اگر بخواهم ماتریس زیر را به صورت ناپارامتری بوت کنم (با جایگزینی): 1 2 15 12 14 22 3 5 1 9 29 19 2 22 12 11 9 13 14 3 6 16 17 23 5 34 14 22 3 1 12 3 آیا من فقط ردیف ها را به هم می زنم تا ماتریس هایی مانند: 5 34 22 12 13 16 14 3 6 16 17 23 2 22 12 11 9 13 3 5 1 9 29 19 2 25 14 12 12 به دست آوریم. 13 16 یا آیا همه عناصر را به هم می‌ریزم تا ردیف‌هایی با هر ترکیبی از همه مقادیر موجود در ماتریس اصلی به دست آید؟ ستون ها نشان دهنده گونه های مختلف جانوری و ردیف ها مناطق مختلف جنگلی هستند، عناصر تعداد حیوانات مشاهده شده در هر منطقه است. من به دنبال ایجاد فواصل اطمینان برای شاخص تنوع کل جنگل هستم. من شاخص تنوع (شاخص شانون) را با جمع کردن ردیف‌ها برای بدست آوردن تعداد گونه‌ها برای کل جنگل‌ها تعریف می‌کنم، سپس یک شاخص تنوع را روی این ردیف‌ها انجام می‌دهم. یک مقدار واحد را برمی گرداند.
بوت استرپ با تعویض
38495
من در جریان تجزیه و تحلیل داده‌هایی هستم که فکر می‌کردم نسبتاً ساده‌اند، اما خودم را نیازمند راهنمایی می‌دانم. تابع «lmer()» پیشنهاد شده است، اما با وجود مشورت با هر منبعی که به دستم می رسد، در مورد گروه هایی که باید در هنگام شناسایی اثرات تصادفی گنجانده شوند، نامشخص هستم. فکر می کنم به اندازه کافی در مورد R می دانم که خودم را به دردسر بیاندازم، بنابراین اگر این واضح است، لطفاً پیشاپیش عذرخواهی من را بپذیرید! طرح: سه بلوک [که واحدهای آزمایشی و تیمارها به طور تصادفی به آنها اختصاص داده شدند] که هر کدام شامل هر ترکیبی از 3 گونه ('spp') و 4 تیمار ('trt') بود. پاسخ (PN) به صورت هفتگی به مدت 10 هفته (هفته) اندازه گیری شد. من انتظار دارم که گونه ها متفاوت باشد، بنابراین - برای ساده کردن - من یک مدل جداگانه برای هر گونه اجرا می کنم. در هر یک از trt spp x trt، من سه واحد دارم که پاسخ میانگین (meanPN) و واریانس (varPN) را مجاز می‌دانند، بنابراین من از meanPN به عنوان پاسخ و اراده خود استفاده می‌کنم. وزن مدل با `1/varPN`. مدل من: meanPN ~ Trt + Block + Time (+ فعل و انفعالات) + خطا ممکن است عبارت (به استثنای تعاملات در حال حاضر که سعی می کنم ذهنم را در این مورد بپیچم) این باشد: lmer(meanPN ~ Trt + (Trt| هفته) + ( 1|Block) , data=SumExpt,weights=1/varPN) آیا می توانید به من کمک کنید تا بفهمم چرا باید استفاده کنم (1|هفته) در مقابل (Trt|هفته) \- یا شاید، چه زمانی هر مورد مناسب است؟ همچنین، آیا باید «Week» را به عنوان متغیر تکراری شناسایی کرد یا اینکه R آن را بر اساس کاراکتر لوله تفسیر می‌کند؟ در نهایت، اگر آنچه را که خوانده‌ام به درستی بفهمم، برهم‌کنش‌ها در مخرج‌های محاسبه آماره F انجام می‌شوند. آیا این درک درستی است؟
فرمول‌بندی یک بیانیه مدل با استفاده از lmer برای اقدامات مکرر در یک طرح مسدود شده در R
38940
من رگرسیون خطرات متناسب کاکس را در R اجرا می کنم و می خواهم گزینه طبقه بندی یکی از متغیرهای پیوسته خود را برای فاکتور آزمایش کنم (من از از دست رفتن مشکل داده آگاه هستم، فقط بررسی می کنم). چیز دیگری که می خواهم بررسی کنم، قرار دادن تفاوت بین 2 ادامه است. متغیرها به جای قرار دادن هر دو در داخل رگرسیون. [این در واقع آزمایش این است که آیا فشار نبض، به عنوان مثال، تفاوت بین فشار خون سیستولیک و دیاستولیک از هر یک به طور جداگانه مهمتر است یا خیر] سوال من این است: بهترین راه برای مقایسه بین تغییرات مختلف رگرسیون ها چیست (بگذارید فرض کنیم که من از step() در هر یک از تلاش ها استفاده خواهم کرد. هیچ مقدار از دست رفته در دیتافریم وجود ندارد. من بین AIC، R2 (از coxph) و تطابق coxph خیلی گیج شده ام. آیا کسی می تواند مسائل را برای من روشن کند؟ آیا گزینه دیگری برای مقایسه بین مدل های مختلف بر روی داده های مشابه وجود دارد؟ با تشکر
به دنبال راه هایی برای مقایسه بین مدل های coxph هستید
73313
من یک تازه کار در این زمینه هستم، بنابراین امیدوارم کسی بتواند مشکل زیر را به زبان انگلیسی ساده برای من توضیح دهد. فرض کنید می خواهم از MAP برای تخمین برخی پارامترها بر اساس برخی مشاهدات استفاده کنم. من می دانم که روش محاسبه MAP این است: $$ \theta(x) = {\rm argmax} \ f(X|\theta) g(\theta) $$ که در آن $g$ قبلی است. با این حال، من نمی توانم هیچ پاسخی را به صورت آنلاین در مورد نحوه محاسبه این با استفاده از یک مثال دنیای واقعی پیدا کنم. بنابراین سوال پیشنهادی من این است: فرض کنید از 100 نفر پرسیده اید که قرار است در یک انتخابات به چه کسانی رای دهند (از 2 کاندید A و B)، و فرض کنید نتیجه نهایی 60٪ آنها می گویند که به A رای می دهند. چگونه نتیجه یک انتخابات را با استفاده از MAP تخمین می زنید اگر: 1. نامزد A دارای محبوبیت 40٪ و نامزد B 60٪ شناخته شده باشد (فرض کنید این توزیع قبلی است) 2. محبوبیت ناشناخته من هم به این پاسخ نگاه کردم اما هنوز گیج هستم: نمونه ای از حداکثر تخمین پسینی
نحوه محاسبه حداکثر تخمین احتمال پسینی (MAP) با / بدون پیشین
4569
من می‌خواهم اطلاعاتی را از افراد در این زمینه در مورد تصحیح تداوم Yates برای جداول احتمالی ۲×۲ جمع‌آوری کنم. مقاله ویکی‌پدیا اشاره می‌کند که ممکن است بیش از حد تنظیم شود، و بنابراین فقط در معنای محدودی استفاده می‌شود. پست مرتبط در اینجا بینش بیشتری ارائه نمی دهد. بنابراین برای افرادی که به طور منظم از این تست ها استفاده می کنند، نظر شما چیست؟ آیا استفاده از اصلاح بهتر است یا خیر؟ و یک مثال در دنیای واقعی که نتایج متفاوتی را در سطح اطمینان 95 درصد به همراه خواهد داشت. توجه داشته باشید که این یک مشکل تکلیف بود، اما کلاس ما اصلاً با تصحیح تداوم یتس سر و کار ندارد، بنابراین راحت بخوابید که بدانید شما تکالیف من را برای من انجام نمی دهید. samp <- matrix(c(13, 12, 15, 3), byrow = TRUE, ncol = 2) colnames(samp) <- c(No، Yes) rownames(samp) <- c(Female ، مذکر) chisq.test(samp، صحیح = درست) chisq.test(samp، صحیح = نادرست) با تشکر!
تصحیح تداوم Yates برای جداول احتمالی 2×2
93546
با توجه به اینکه من می خواهم Weka را در یک رایانه شخصی اجرا کنم، آیا استفاده از تقویت با یک شبکه عصبی پیشخور سه لایه به عنوان یادگیرنده پایه ایده خوبی است؟ چرا یا چرا نه؟ فکر می‌کنم تقویت به قدرت محاسباتی زیادی نیاز دارد، زیرا چندین یادگیرنده پایه را آموزش می‌دهد و آنها را میانگین می‌دهد (راست می‌گویم؟)، اما چگونه می‌توانم بدانم که کارآمد خواهد بود یا بدون در نظر گرفتن یادگیرنده پایه (دوباره برای یک رایانه شخصی)؟
تقویت در Weka با تک کامپیوتر
51779
فرض کنید من توزیع درآمد گسسته را برای مریلند و توزیع متوسط ​​را برای ایالات متحده تخمین زده ام. الگوریتم یا روشی برای تخمین توزیع درآمد برای مثال برای پنسیلوانیا بر اساس این دو اطلاعات چیست؟ من می دانم که آوردن برخی اطلاعات اضافی که به توضیح دو توزیع درآمد متفاوت کمک می کند، کمک خواهد کرد. چگونه می توانم این اطلاعات را در الگوریتم ترکیب کنم؟
چگونه یک توزیع را تخمین بزنیم؟
4568
با تشکر از همه پاسخ برای سوال محاسبه میزان بروز برای مطالعه اپیدمیولوژیک در بیمارستان. و در اینجا قسمت دوم این سوال مطرح می شود: پس در مورد میزان شیوع چیست؟ من «سلامت عمومی جدید» را طبق پیشنهاد چی خوانده‌ام، کتاب می‌گوید که شیوع معمولاً هنگام استفاده از نرخ بروز معمولی در دسترس نیست، اما فرمول دیگری را در اینجا دیدم: «تعداد کل موارد در آن دوره زمانی»/ «کل بیماران». روزهای خواب در آن دوره زمانی، دوباره من را متحیر کرد، آن چیست؟ من هرگز نشنیده ام که شیوع با استفاده از مخرج به عنوان روزهای بستری بیمار محاسبه شود. با تشکر
محاسبه میزان بروز برای مطالعه اپیدمیولوژیک - میزان شیوع این بار
31841
من یک مجموعه داده دارم که در آن درجه بالایی از چند خطی وجود دارد، که همه متغیرها با یکدیگر و متغیر وابسته همبستگی مثبت دارند. با این حال، در برخی از مدل‌هایی که اجرا می‌کنم، چند ضریب منفی قابل‌توجه دریافت می‌کنم. اساساً دو ضریب وجود دارد که بسته به اینکه چه متغیرهایی را در مدل قرار دهم می توانم علائم آنها را دستکاری کنم. درک من این است که اگر ماتریس واریانس کوواریانس فقط حاوی مقادیر مثبت باشد، پس همه ضرایب نیز باید مثبت باشند. آیا این درست است؟
علائم تغییر ضرایب
101274
من با یک مجموعه داده کوچک (21 مشاهده) کار می کنم و نمودار QQ معمولی زیر را در R دارم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/kLcP7.jpg) با دیدن اینکه نمودار انجام می دهد از نرمال بودن پشتیبانی نمی کند، چه چیزی می توانم در مورد توزیع اساسی استنباط کنم؟ به نظر من توزیعی که بیشتر به سمت راست انحراف داشته باشد، مناسب تر است، درست است؟ همچنین، چه نتایج دیگری می توانیم از داده ها بگیریم؟
نحوه تفسیر نمودار QQ
93542
من سعی می کنم انحنای یک تصویر مداد را بر اساس پیکسل های تصویر و سایه خاکستری آنها ارزیابی کنم. من سعی می کنم انحنای خط را در هر نقطه از ضربه به دست بیاورم. بخشی که من مطمئن نیستم محاسبه انحنای خود با توجه به نویز است. در اینجا نحوه پردازش من است: 1. درمان تصویر. کنتراست را بیشتر کنید و پیکسل ها را زیر یک آستانه خاکستری رها کنید. من می خواهم یک نمودار پراکنده از سکته مغزی نگه دارم و سفید را در تصویر دور بریزم. 2. موقعیت یک پیکسل را روی خط محاسبه کنید. من از فضای انتشار (R. R. Coifman و S. Lafon) برای ارزیابی فاصله بین پیکسل ها و در نتیجه موقعیت آنها در خط استفاده می کنم. 3. محاسبه انحنا در هر پیکسل. در اینجا قسمتی است که من چندان به آن اطمینان ندارم. بیشتر بیان انحنای یک خط که من دیده ام، نویز را در نظر نمی گیرد (در اینجا ضخامت ضربه). من از یک تقریب بر اساس انحنای یک تابع با توجه به مشتق آن استفاده می کنم. من مشتق را بر اساس میانگین نقاط به اندازه کافی در فضای انتشار ارزیابی می کنم. 4. حالا من برای هر پیکسل فاصله فضای انتشار و انحنای آنها را دارم. من می توانم میانگین آن را داشته باشم، اما در حالت ایده آل نباید سر و صدای زیادی وجود داشته باشد. بنابراین واقعاً، من خیلی مطمئن نیستم که چگونه به اینجا بروم. می دانم که می توانم به روشی که توضیح دادم به چیزی معنادار دست پیدا کنم، اما نتیجه به شدت به مقیاس ارزیابی انحنا بستگی دارد. داشتن سوگیری در نتیجه چندان بد نیست، زیرا من بیشتر به مقایسه انحنا در نقاط مختلف علاقه دارم.
انحنای ضربه مداد
51770
ویرایش: من کد STAN خود را تغییر داده‌ام و به نظر می‌رسد در حال دریافت اعداد نزدیک به استفاده از «arima» R هستم. کد اصلی که اکنون به انتها منتقل شده است، نادرست بود. من از STAN برای چیزهای ساده استفاده می کنم، اما می خواهم یک رگرسیون خطی انجام دهم که نویز ARMA(1,1) دارد. من شنیده ام که این اساساً معادل AR(1) + White Noise است. من تلاشی انجام داده ام که اعداد معقولی را ارائه می دهد، اما نمی توانم بگویم که آیا واقعاً همان کاری را که فکر می کنم انجام می دهم انجام می دهم یا خیر. دلیل تلاش من برای انجام این کار این است که داده ها یک سری زمانی دمای آب و هوا هستند، که بنابراین به صورت سریالی همبستگی دارند، و بنابراین معتقدم رگرسیون OLS - که برای محاسبه روند استفاده می شود - عدم قطعیت در رگرسیون را دست کم می گیرد. در SE از ضرایب شیب و قطع منعکس شده است. (و همچنین در خطای باقی مانده؟) کد من با استفاده از `rstan`: temps <- structure(c(-0.59, -0.17, 0.05, -0.7, -0.27, -0.94, -0.69, -0.96, -0.58, -0.35، -0.58، -0.54، -0.48، -1.41، 0.82-، 0.73-، 0.48-، 0.37-، 0.07-، 0.16-، 0.58-، 0.43-، 0.16-، 0.19-، 0.81-، 0.37-، 0.52-، 0.55-، 0.51-، 0.85-- 0.72-، 0.43-، 0.63-، 0.16، 0.26-، 0.14-، 0.48-، 0.61-، 0.36-، 0.05-، 0.22، 0.34-، 0.23-، 0.2-، 0.18-، 0.51، 0.2-، 0.23، 0.28-، -0. 0.09، 0.45، 0.27-، 0.12-، 0.35-، 0.21-، 0.11، 0.37، 0.09، 0.18-، 0.14، 0.35، 0.16-، 0.62، 0.04، 0.32، 0.12-، 0.22-، 0.41-، 0.41- - -0.57، 0.16، 0.31-، 0.12، 0.06، 0.19-، 0.1، 0.01-، 0.16، 0.81، 0.13-، 0.53، 0.31، 0.06، 0.34، 0.27، 0.23، 0. 0.51، 0.52، 0.39، 0.34، 0.73، 0.3، 0.38، 0.66، 0.6، 0.35، 0.55، 0.98، 0.89، 0.67، 0.86، 0.1، 0.6، 0.86، 0.1، 0.7، 1.3 0.53, 0.48), .Tsp = c(1880, 2012, 1), class = ts) stan.code1 <- data { int<lower=1> N ; x[N] واقعی; واقعی y[N] ; } پارامترها { آلفا واقعی ; بتا واقعی؛ کاپا واقعی؛ real<lower=0> sigma0 ; } model { سیگما واقعی[N] ; آلفا ~ کوشی (0، 5) ; بتا ~ کوشی (0، 5) ; کاپا ~ گاما (1.2، 1); sigma0 ~ گاما (3، 1) ; sigma[1] <- sigma0 ; y[1] ~ نرمال (آلفا + بتا * x[1]، سیگما[1]). برای (n در 2:N) { sigma[n] <- sigma0 + kappa * sigma[n-1] ; y[n] ~ نرمال (آلفا + بتا * x[n]، سیگما[n]) ; } } stan.list1 <- list (N=length (temps), x=1880:2012, y=temps) stan.model1 <- stan (model_code=stan.code1, model_name=GISS NH Jan, data= stan.list1, iter=15000, chain=4) print (stan.model1, digits_summary=8) اگر از آنها برای پرتاب خطوط روی داده ها با استفاده از abline استفاده کنم منطقی به نظر می رسند: 1. آیا واقعاً یک رگرسیون خطی با نویز AR(1) به اضافه نویز سفید انجام داده ام؟ 1,1) به نظر من $\kappa={1-\theta}\over{1-\phi}}$ 2 به درستی -- یا من شانس آوردم، یا کسی نسخه صحیحی از کد STAN را ارسال خواهد کرد -- چگونه می توانم از کاپا در محاسبه فاصله عدم قطعیت بزرگتر در اطراف رگرسیون استفاده کنم. EDIT: کد اصلی که استفاده کردم، با `rstan`: temps < - ساختار(c(-0.59، -0.17، 0.05، -0.7، -0.27، -0.94، -0.69، 0.96-، 0.58-، 0.35-، 0.58-، 0.54-، 0.48-، 1.41-، 0.82-، 0.73-، 0.48-، 0.37-، 0.07-، 0.16-، 0.58-، 0.43-، 0.19-، -0.16- 0.81-، 0.37-، 0.52-، 0.55-، 0.51-، 0.85-، 0.43-، 0.72-، 0.43-، 0.63-، 0.16، 0.26-، 0.14-، 0.48-، 0.61-، 0.36-، 0.05-، 0.22-، 0.22- 0.23، -0.2، 0.18-، 0.51-، 0.2-، 0.28، 0.53-، 0.07-، 0.09، 0.45-، 0.27-، 0.12-، 0.35-، 0.21-، 0.11، 0.37، 0.09، 0.15-، 0.18-، 0.3 0.62، 0.04، 0.32، 0.12-، 0.41، 0.28، 0.4-، 0.34-، 0.2، 0.26، 0.27-، 0.44، 0.11-، 0.15-، 0.68، 0.24، 0.68، 0.24، 0.3، 0.24، 0.0. 0.04-، 0.01-، 0.22-، 0.14-، 0.26-، 0.42-، 0.01-، 0.1-، 0.57-، 0.16، 0.31-، 0.12، 0.06، 0.19-، 0.1، 0.01-، 0.1-، 0.01-، 0.01- 0.53، 0.31، 0.06، 0.34، 0.23، 0.57، 0.07، 0.41، 0.51، 0.52، 0.39، 0.34، 0.73، 0.3، 0.38، 0.66، 0.5، 0.6، 0.66، 0.5، 0.8، 0.8 0.67، 0.86، 0.6، 1.31، 0.2، 0.75، 0.72، 0.53، 0.48)، .Tsp = c(1880, 2012, 1), class = ts) stan.code1 <- data {1 int<lower > N ; x[N] واقعی; واقعی y[N] ; } پارامترها { آلفا واقعی ; بتا واقعی؛ کاپا واقعی؛ واقعی<lower=0> سیگما ; } model { alpha ~ cauchy (0, 5) ; بتا ~ کوشی (0، 5) ; kappa ~ cauchy (0، 5) ; سیگما ~ گاما (3، 1) ; y[1] ~ نرمال (آلفا + بتا * x[1]، سیگما)؛ برای (n در 2:N) { y[n] ~ نرمال (آلفا + بتا * x[n] + کاپا * y[n-1]، سیگما) ; } } s
استفاده از STAN (مربوط به BUGS/JAGS) برای انجام رگرسیون خطی با نویز ARMA(1,1)؟
77674
من خانواده خاصی از مدل‌ها با متغیرهای تصادفی پنهان (که در داده‌ها مشاهده نمی‌شوند) دارم، که یک برآوردگر ثابت برای آن‌ها دارم. من اکنون EM را روی آن اجرا می کنم، به این معنی که تخمین ثابت را دریافت می کنم و EM را با آن مقداردهی اولیه می کنم و آن را برای چند تکرار دیگر اجرا می کنم. من می دانم که EM با ماکسیماهای محلی مشکل دارد و همچنین به طور خاص برای خانواده مدلی که من کار می کنم نیز هست. اما، با این حال، من فکر می‌کنم وقتی EM را با یک تخمین ثابت مقداردهی اولیه می‌کنید، فقط می‌توانید تخمین خود را بهبود ببخشید (آن را کارآمدتر کنید) و با حداکثرهای محلی مشکلی نخواهید داشت. آیا چیزی در ادبیات برای حمایت از آن وجود دارد؟
وقتی EM را با یک تخمین ثابت مقداردهی اولیه می کنید چه اتفاقی می افتد؟
74091
من مجموعه‌ای از توزیع‌های نرمال مستقل از X_1$ تا X_5$ (با میانگین و انحرافات استاندارد) دارم که نشان‌دهنده زمان پایان برای شناگران در یک مسافت معین است. داده های واقعی به شرح زیر است: $$X_1(60, 3.0)$$$$X_2(61, 1.0)$$$$X_3(58, 2.3)$$$$X_4(63, 2.4)$$$$X_5 (61, 1.7)$$ بنابراین شناگر 1 ($X_1$) میانگین زمان تمام کردن 60 ثانیه با انحراف استاندارد 3.0 ثانیه سوال 1: احتمال وقوع رویدادی که در آن $X_i$ اول تمام شود چقدر است. به عنوان مثال $$P(X_1 \lt X_i, i=2,\ldots,n)$$ سوال 2: اگر این را برای همه شناگران محاسبه کنم، آیا می توانم به سادگی نتایج را برای تعیین محتمل ترین ترتیب پایان سفارش دهم؟ این تکلیف نیست. بر اساس پاسخ به این سؤال اعتبارسنجی متقاطع، سعی کردم این مشکل را _بر اساس__ پاسخ اول حل کنم. یعنی $$\Pr(X_1 \le X_i, i=2,\ldots,n) = \int_{-\infty}^{\infty} \phi_1(t) [1 - \Phi_2(t)]\cdots[ 1 - \Phi_n(t)]dt$$ جایی که $\phi_i$ پی دی اف $X_i$ و $\Phi_i$ آن است CDF. بر اساس این فرمول، نتایجی که به دست آوردم این بود: $$\Pr(X_1 \le X_i, i=2\ldots5) = 0.259653$$ $$\Pr(X_2 \le X_i, i=1,3\ldots5) = 0.214375$$$$\Pr(X_3 \le X_i، i=1\ldots2، 4\ldots5) = 0.611999$$$$\Pr(X_4 \le X_i، i=1\ldots3، 5) = 0.0263479$$$$\Pr(X_5 \le X_i، i=1\ldots4) = 0.0697597$ با این حال، احتمالات زمانی که باید به 1.182135 اضافه می شوند به 1.0 اضافه کنید. من مطمئن نیستم که آیا فرمول نادرست است یا اجرای من از انتگرال (من از Excel و روش ذوزنقه ای استفاده کردم). من همچنین سعی کردم با استفاده از روش Dillip (از سؤال فوق) مشکل را به صورت زیر حل کنم: \begin{align*} P(X_1 < \max X_i) &= P\\{(X_1 <X_2) \cup \cdots \ فنجان (X_1 < X_n)\\\ &\leq \sum_{i=2}^n P(X_1 < X_i)\\\ &= \sum_{i=2}^n Q\left(\frac{\mu_1 - \mu_i}{\sqrt{\sigma_1^2 + \sigma_i^2}}\right) \end{align*} با این حال، احتمال نتایج در اکثر موارد بسیار بیشتر از 1 بود، بنابراین این رویکرد را کنار گذاشتیم. در ضمن، $\max X_i$ دقیقا به چه معناست؟ هر گونه کمک در محاسبه احتمال قدردانی می شود.
$P(X_1 < \min(X_i،\ldots، X_n))$ در متغیرهای تصادفی معمولی مختلف
56749
فرض کنید ما یک مدل ریاضی داریم که احتمال یافتن روغن در یک مکان را بر حسب سیستم 10 سطل با احتمالات بسیار کم، مثلاً 2 درصد، به 20 درصد برای بهترین سطل، ارائه می دهد. همچنین فرض می کنیم که یکی از معیارهایی که برای نظارت بر عملکرد این مدل استفاده می کنیم Powerstat (ضریب جینی) است. [برای اطمینان: این سوال در مورد مناسب بودن Powerstat برای این کار نیست]. احتمالاً، این نشان می‌دهد که این مدل تا چه اندازه می‌تواند حملات موفق نفتی آینده را از شکست متمایز کند. فرض کنید یک کمپین حفاری با 1000 آزمایش داشته ایم. قبل از حفاری، آن 1000 مکان توسط مدل بر روی 10 سطل تقسیم شدند، به عنوان مثال مانند {50,75,100,125,150,150,125,100,75,50}. فرض کنید 100 چاه نفت را در بین آن 1000 آزمایش توزیع شده مانند {0، 2، 6، 14، 13، 18، 11، 13، 10، 8} پیدا کرده ایم. اکنون می توانیم Powerstat را با توجه به این نتیجه محاسبه کنیم. ما می‌خواهیم تعیین کنیم که آیا Powerstat مدل برای این مجموعه داده‌های 1000 حفاری به طور قابل‌توجهی با آنچه که انتظار داریم در صورت کارکرد مدل همانطور که در بالا کار می‌کند، پیدا کنیم، انحراف دارد یا خیر. ما می‌توانیم دقیقاً (حداقل در تئوری) Powerstat را برای همه پیامدهای ممکن و احتمالات آنها محاسبه کنیم یا با شبیه‌سازی مونت کارلو آن را تخمین بزنیم و یک فاصله اطمینان را از این طریق تعیین کنیم. بحث اصلی ما این است که آیا در این فرآیند باید از اطلاعاتی که در واقع 100 چاه نفت پیدا کرده ایم استفاده کنیم یا نه؟ بنابراین، در مورد MC، آیا باید نتایج حفاری تصادفی را بر اساس یک مدل دوجمله‌ای، احتمال‌های سطل و جمعیت‌های سطل تولید کنیم و همه نتایج را که مجموعاً به 100 نمی‌رسند دور بریزیم یا باید از همه نمونه‌ها صرف‌نظر از تعداد کل ضربه‌های نفتی آن‌ها استفاده کنیم؟ در یک دیدگاه، عدد 100 چاه نفت یک نتیجه کم و بیش دلخواه کمپین است و تنها یکی از تحقق طیف وسیعی از اعداد قابل تصور است (در واقع چیزی بین 0 تا 1000، با احتمالات متفاوت). استفاده از مجموع 100 داده شده به همان اندازه دلخواه با استفاده از کمی اطلاعات خواهد بود، به عنوان مثال، استفاده از اطلاعات روی bin 10 (شامل 8 ضربه نفت)، یا مجموع bin 1-5 و 6-10 (هر کدام از که منجر به فواصل مختلف می شود). دیدگاه دیگر این است که ما باید از تمام اطلاعاتی که داریم استفاده کنیم. که داشتن نتیجه 100 چیزی در مورد کیفیت مدل می گوید و ما باید آن را در نظر بگیریم. بنابراین، سؤال این است: کدام دیدگاه صحیح است؟ PS: من برای ایجاد یک عنوان توصیفی مشکل داشتم. هر گونه بهبود استقبال می شود.
تعیین فواصل اطمینان: استفاده از اطلاعات جزئی در مورد نتایج احتمالی
4564
مشخص است که انتشار باورها نتیجه دقیقی را روی درختان می دهد، آیا نمونه های جالبی وجود دارد که انتشار باور تعمیم یافته دقیق باشد؟ (*ویرایش** درخت پیوند جالب نیست زیرا دقیقاً بدون GBP قابل حل است) در ظاهر، انتشار باور پیام ها را بین دسته ها و جداکننده ها ارسال می کند، در حالی که GBP سلسله مراتب کلی منطقه را امکان پذیر می کند. این به نرخ همگرایی کمک می‌کند، اما نمی‌دانم که آیا این نیز کلاس مسائل استنتاج قابل حل را گسترش می‌دهد؟ **ویرایش**: همانطور که توماس مینکا اشاره می کند، الگوریتم درخت پیوند را می توان به عنوان نسخه ای از انتشار باور تعمیم یافته مشاهده کرد. اما می توان آن را به عنوان نسخه ای از انتشار باور (خوشه ای) نیز مشاهده کرد. چیزی که من به طور خاص تعجب می کنم این است که آیا GBP می تواند برای هر مشکلی که BP نمی تواند راه حل دقیقی ارائه دهد. انگیزه این است که با راه حل دقیق GBP در تعداد محدودی از مراحل نتیجه می دهد و شما می توانید نتیجه را به عنوان نوعی عامل بندی جبری مسئله، با روح مقاله قانون توزیع تعمیم یافته مشاهده کنید.
انتشار باور تعمیم یافته چه زمانی دقیق است؟
32634
آیا بهتر است قبل از استفاده از Arima یک سری را از هم جدا کنیم (با فرض اینکه به آن نیاز دارد) یا بهتر است از پارامتر d در Arima استفاده کنیم؟ من متعجب شدم که بسته به اینکه کدام مسیر با مدل و داده های مشابه طی می شود، مقادیر برازش چقدر متفاوت است. یا کاری را اشتباه انجام می دهم؟ install.packages(forecast) library(forecast) wineindT<-window(wineind, start=c(1987,1), end=c(1994,8)) wineindT_diff <-diff(wineindT) #ضرایب و سایر معیارها هستند مشابه modA<-Arima(wineindT,order=c(1,1,0)) summary(modA) modB<-Arima(wineindT_diff,order=c(1,0,0)) summary(modB) #مقادیر مناسب از modA A<-forecast.Arima(modA,1)$fitted #fitted from modB, تنظیمات مقدار اولیه به مقدار اول در سری اصلی B<-diffinv(forecast.Arima(modB,1)$fitted,xi=wineindT[1]) plot(A, col=red) lines(B, col=blue) **ADD:** لطفا توجه داشته باشید که من یک بار سری را متفاوت می کنم و آریما (1،0،0) را برازش می کنم، سپس آریما (1،1،0) را به سری اصلی منطبق می کنم. من (فکر می‌کنم) تفاوت مقادیر برازش را برای arima(1,0,0) در فایل متفاوت معکوس می‌کنم. من مقادیر برازش را مقایسه می کنم - نه پیش بینی ها. در اینجا طرح (قرمز آریما (1،1،0) و آبی آریما (1،0،0) در سری های متفاوت پس از بازگشت به مقیاس اصلی است) : ![توضیح تصویر را اینجا وارد کنید](http: //i.stack.imgur.com/mQjAb.jpg) **پاسخ به پاسخ دکتر هیندمن:** 1) آیا می توانید در کد R توضیح دهید که برای انجام چه کاری باید انجام دهم برای مطابقت دادن دو مقدار برازش شده (و احتمالاً پیش بینی ها) (با اجازه دادن به تفاوت اندک به دلیل اولین نقطه در پاسخ شما) بین Arima (1,1,0) و Arima (1,0,0) در سری تفاضل دستی ? من فرض می‌کنم که این مربوط به عدم گنجاندن میانگین در modA است، اما من کاملاً مطمئن نیستم که چگونه ادامه دهم. 2) در مورد شماره 3 شما. می دانم که چیزهای بدیهی را از دست داده ام، اما $\hat{X}_t = X_{t-1} + \phi(X_{t-1}-X_{t-2}) $ و $\hat{Y نیستم }_t = \phi (X_{t-1}-X_{t-2})$ یکسان است وقتی $\hat{Y}_t$ به عنوان $\hat{X}_t - X_{t-1}$ تعریف شود ? آیا می گویید من به اشتباه بی تفاوت هستم؟
سری زمانی تفاوت قبل از آریما یا درون آریما
56747
من می‌خواهم داده‌های تصادفی را از یک توزیع نرمال محدود با استفاده از R ایجاد کنم. به عنوان مثال، ممکن است بخواهم متغیری را از یک توزیع نرمال با 'mean=3, sd= 2' شبیه‌سازی کنم و هر مقدار بزرگتر از 5 از همان توزیع مجدد نمونه‌گیری شود. توزیع نرمال بنابراین، برای عملکرد کلی، می توانم موارد زیر را انجام دهم. rnorm(n=100، mean=3، sd=2) سپس چند فکر داشتم: * یک تابع «ifelse» را با یک حلقه تکرار کنید تا زمانی که همه مقادیر محدود شوند تا در محدوده قرار بگیرند. * مقادیر بسیار بیشتر از مقدار مورد نیاز را شبیه سازی کنید و اولین «n» را می گیرد که محدودیت را برآورده می کند. * از شبیه سازهای متغیر معمولی بردار اجتناب کنید و به جای آن از یک حلقه for با یک do while در داخل برای شبیه سازی هر مشاهده در یک زمان و حلقه در صورت لزوم استفاده کنید. همه موارد بالا کمی نابسامان به نظر می رسند. ### سوال * یک راه ساده برای شبیه سازی یک متغیر عادی تصادفی محدود در R از نرمال با میانگین = 3، sd = 2 و حداکثر = 5 چیست؟ * به طور کلی تر، یک راه کلی خوب برای ترکیب محدودیت ها در متغیرهای شبیه سازی شده در R چیست؟
نرمال محدود را در کران پایین یا بالا در R شبیه سازی کنید
93547
من در حال انجام مطالعه ای هستم که در آن گروه $3$ $n= 2$، $n= 5$، $n=17$ دارم. هر گروه دارای ناهنجاری گوش داخلی متفاوتی است، پس از نصب ایمپلنت گوش، نمرات گفتار (داده های ترتیبی) و شنوایی (داده های پیوسته) آنها را در 1 و 2 سال اندازه گیری کردم. گروهی که فقط بیماران 2 دلاری دارند باید از آمار حذف شوند. برای دو گروه باقیمانده، بیشتر داده ها به طور معمول توزیع می شوند و بیشتر واریانس ها برای گفتار (داده های ترتیبی) مشابه هستند، اما برای نمرات شنوایی (داده های پیوسته) مشابه نیستند. نمی‌دانم که آیا آزمون $U$-Mann-Whitney باید به دلایل زیر استفاده شود: 1. داده‌های ترتیبی DV: اگرچه داده‌ها معمولاً توزیع می‌شوند و بیشتر واریانس‌ها مشابه هستند، اما ترتیبی به این معنی است که فقط یک M-W می‌تواند انجام شود. 2. مقیاس داده DV: داده ها فقط به طور معمول با همگنی واریانس در 2/3 معیارها توزیع می شوند، بنابراین دوباره M-W؟ یا باید از آزمون t$-تست استفاده شود (اما آیا آزمون t$-تجانس واریانس را فرض نمی کند)؟
تست من ویتنی
28789
من روی نظارت بر فرآیند چند متغیره با استفاده از روش NLPCA کار می کنم. برای پیاده سازی این روش به کد متلب نیاز دارم.
تجزیه و تحلیل مولفه های اصلی غیرخطی کد متلب
74099
در حال حاضر در حال نوشتن مقاله ای با چندین آزمایش تک نمونه ای ویلکاکسون هستیم. در حالی که تجسم تست‌های دو نمونه‌ای از طریق _boxplots_ آسان است، می‌دانستم که آیا **روش خوبی برای تجسم نتایج تست یک نمونه وجود دارد؟** # داده‌های مثال pd <- c(0.80، 0.83، 1.89، 1.04، 1.45، 1.38، 1.91، 1.64، 0.73، 1.46، 1.15، 0.88، 0.90، 0.74، 1.21) wilcox.test(pd، mu = 1.1) # آزمون رتبه امضا شده Wilcoxon # # داده: pd # V = 72، p-value = 0.5245 # فرضیه جایگزین: مکان واقعی برابر نیست 1.1 ... و همچنین: من می خواهم به جای V-value، Z-value را دریافت کنم. می‌دانم که اگر به‌جای «آمار» از بسته سکه استفاده کنم، مقادیر z را خواهم داشت، اما به نظر می‌رسد بسته «کوین» قادر به انجام آزمایش تک‌نمونه‌ای Wilcoxon نیست.
چگونه می توان آزمون تک نمونه ای را به بهترین نحو تجسم کرد؟
11645
بنابراین ساختار داده‌های ما به این صورت است: ما شرکت‌کنندگان $M$ داریم، هر شرکت‌کننده را می‌توان به 3 گروه (_G_ $\in {A,B,C}$) طبقه‌بندی کرد، و برای هر شرکت‌کننده، نمونه‌های $N$ داریم. متغیر پیوسته و ما سعی می‌کنیم مقادیری را پیش‌بینی کنیم که یا 0 یا 1 هستند. چگونه از matlab برای آزمایش تعامل بین متغیر پیوسته و متغیر طبقه‌ای در پیش‌بینی این مقادیر استفاده می‌کنیم؟
کدگذاری تعامل بین پیش بینی کننده اسمی و پیوسته برای رگرسیون لجستیک در متلب
4561
برای یک مقاله دانشگاهی، باید مقایسه کنم که آیا دو نسخه برنامه از نظر آماری تفاوت معنی داری دارند یا خیر. مقایسه از نظر عملکرد زمان اجرا ساده است -- من تعیین می کنم که آیا فواصل اطمینان برای دو مجموعه اندازه گیری همپوشانی دارند یا خیر. با این حال، در مورد ردپای حافظه، من هیچ مجموعه ای از اندازه گیری ندارم، زیرا ردپای حافظه از اندازه گیری به اندازه گیری متفاوت نیست (به عنوان مثال، نسخه 1 دارای ردپای ثابت 920 کیلوبایت است و نسخه 2 1040 کیلوبایت مصرف می کند). آیا راهی برای مقایسه هر دو مقدار از نظر آماری صحیح وجود دارد؟
مقایسه دو مقدار به روش آماری صحیح
56740
من سعی می کنم معیاری برای محاسبه همبستگی ترجیحات کاربر برای پروژه نهایی خود (یک فروشگاه اینترنتی برای کفش) در مدرسه ارائه کنم. در ابتدا قصد داشتم رتبه‌بندی کاربران را لحاظ کنم و از ضریب همبستگی پیرسون استفاده کنم، اما ساختن یک سیستم رتبه‌بندی ممکن است بخشی از امتحان باشد، بنابراین باید فعلاً آن را کنار بگذارم. تصمیم گرفتم خریدها را مستقیماً مقایسه کنم و مقادیر باینری را بر اساس تعداد خریدهای کاربر اول در نظر بگیرم. البته این خیلی دقیق نیست. بنابراین، پس از بررسی ویژگی‌های مختلف کفش، سعی می‌کنم اولویت‌ها را در برندها و سبک‌ها لحاظ کنم. به ازای هر کفشی که توسط هر دو خریداری می شود، 1 تعلق می گیرد (0 اگر کفش فقط توسط user1 خریداری شود)، برای مارک ها و مدل ها به ترتیب 0.8 و 0.6 فکر می کردم. اما بعد موضوع را گم می کنم. من مطمئن نیستم که چگونه متغیرها را به روشی مرتبط ترکیب کنم. من واقعاً از هرگونه راهنمایی یا راهنمایی قدردانی می کنم. (همچنین، این بخشی از پروژه ای است که من تصمیم گرفتم در خودم بسازم و قطعاً لازم نیست. من با پرسیدن در اینجا سعی نمی کنم تقلب کنم، فقط می خواهم یاد بگیرم.)
محاسبه ترجیحات کاربر بر اساس خرید: نحوه ترکیب متغیرهای مختلف برای مقایسه
38491
اگر یک فرآیند خودرگرسیون فضایی داشته باشیم، می‌توانیم مدلی را برای کنترل خودرگرسیون با تاخیر مکانی تخمین بزنیم، $$y=\rho W y + X\beta + \epsilon$$ که در آن $\rho$ نقطه قوت است. همبستگی فضایی، و $W$ ماتریسی از وزن های فضایی است. بسته 'spdep' برای R حاوی دستور 'lagsarlm' است که برای تخمین دقیق این مدل طراحی شده است. این بسته شامل روش هایی برای ایجاد وزنه ها می باشد. اما به نظر می‌رسد که بین تناسب مدل بین «lagsarlm()» و «lm()» که برازش مدل مشابهی است، تفاوت وجود دارد. به عنوان مثال، مثال داده شده با `?lagsarlm` در R. library(spdep) data(oldcol) COL.lag <- lagsarlm(CRIME ~ INC + HOVAL, data=COL.OLD, nb2listw(COL.nb, style =W)، روش = eigen, quiet=TRUE) خلاصه (COL.lag) باقیمانده: حداقل 1Q میانه 3Q Max -37.68585 -5.35636 0.05421 6.02013 23.20555 نوع: ضرایب تاخیر: (خطاهای استاندارد مجانبی) Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) 45.079251 7.177347 6.2808 3.369e-10 INC -1.031616 0.305143 -3.3808 0.0007229 0.0007229 HOVAL 26589.289 -0. -3.0049 0.0026570 Rho: 0.43102، مقدار تست LR: 9.9736، p-value: 0.001588 خطای استاندارد مجانبی: 0.11768 z-value: 3.6626، p-value: 0.000 Walue: 0.159: 0.002 p-value: 0.00024962 ما می‌توانیم با محاسبه متغیر تاخیر فضایی واقعی، crime.lag <- lag.listw(nb2listw(COL.nb، style=W)، COL تخمین بزنیم که چه (من فکر می‌کنم) باید همان مدل باشد. OLD$CRIME) linearlag <- lm(CRIME ~ crime.lag + INC + HOVAL، داده=COL.OLD) باقیمانده ها: حداقل 1Q Median 3Q Max -38.644 -6.103 0.266 6.563 21.610 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 38.18099 9.21531 4.143 0.000149 *** crime.lag 0.55733 0.15029 3.709 0.000570 *** INC -0.8354 -0.8654 0.018864 * HOVAL -0.26358 0.09136 -2.885 0.005986 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 10.12 در 45 درجه آزادی چندگانه R-squared: 0.6572، R-squared تنظیم شده: 0.633 آمار: 28.75 در 3 و 45 DF، p-value: 1.543e-10 این دو مدل، که به نظر من باید یکسان باشند، در واقع از نظر هر پارامتر و در تناسب مدل، تفاوت قابل توجهی با یکدیگر دارند (با مدل «linearlag» که AIC بسیار پایین‌تری ارائه می‌کند). آیا دلایلی وجود دارد که چرا باید چنین باشد؟ چرا نباید از مدل دوم استفاده کنم و روش های خاص را کنار بگذارم؟
اختلاف بین lm() با تاخیر و ()lagsarlm
25203
من یک سری زمانی دارم که شامل مؤلفه های فصلی دوگانه است و می خواهم این سری را به مؤلفه های سری زمانی زیر (روند، مؤلفه فصلی 1، مؤلفه فصلی 2 و مؤلفه نامنظم) تجزیه کنم. تا آنجا که من می دانم، روش STL برای تجزیه یک سری در R فقط یک مولفه فصلی را مجاز می کند، بنابراین من دو بار سعی کردم سریال را تجزیه کنم. ابتدا، با تنظیم فرکانس به عنوان اولین مؤلفه فصلی با استفاده از کد زیر: ser = ts(data, freq=48) dec_1 = stl(ser, s.window=per) سپس مؤلفه نامنظم را تجزیه کردم. سری تجزیه شده ('dec_1') با تنظیم فرکانس به عنوان دومین مؤلفه فصلی، به این ترتیب: ser2 = ts(dec_1$time.series[,3]، freq=336) dec_2 = stl(ser2, s.window=per) من خیلی به این رویکرد اطمینان ندارم. و من می خواهم بدانم آیا راه های دیگری برای تجزیه سریالی که فصلی های متعدد دارد وجود دارد؟ همچنین، متوجه شده‌ام که تابع «tbats()» در بسته پیش‌بینی R به فرد اجازه می‌دهد یک مدل را در یک سری با فصلی‌های متعدد قرار دهد، اما نمی‌گوید چگونه یک سری را با آن تجزیه کنیم.
چگونه می توان یک سری زمانی را با چندین مؤلفه فصلی تجزیه کرد؟
74095
من در درک تعریف سریع در جمله زیر مشکل بزرگی دارم: ما باید آن را ضعیف وابسته کنیم، که زمانی رخ می‌دهد که همبستگی بین $x_{t}$ و $x_{t+h}$ به سمت صفر می‌رود. به اندازه کافی سریع به عنوان $h\rightarrow \infty$. بنابراین در متن گفته شد که به طور رسمی به این معنی است: $corr(x_{t},x_{t+h}) \rightarrow 0$ as $h\rightarrow \infty$. با توجه به اینکه همبستگی یک فرآیند پیاده‌روی تصادفی $corr(y_{t}, y_{t+h} = \sqrt{t/(t+h)}$ است و این شرط را نقض می‌کند، نمی‌دانم سریع به چه معناست. یا من اشتباه می کنم؟
تعریف رسمی مجانبی نامرتبط
74090
من یک مجموعه داده از N نفر، T مورد دارم. فرض کنید N=100 و T=10. هر فرد تمرین زیر را انجام می دهد. 1. 2 مورد تصادفی از مجموعه T=10 به او نشان داده می شود و آنها را به عنوان رتبه های 1 و 2 رتبه بندی می کند. 2. در پایان، مجموعه داده به اندازه 100x10 است، که در آن هر ردیف دارای 4 ورودی عددی است (دو مورد از آنها 1 خواهد بود، و دو مورد دیگر 2) و 6 ورودی خالی خواهند بود. هدف من این است که 10 مورد را با یکدیگر مقایسه کنم و به یک مقدار رتبه تخمینی برای یک مورد معین برسم. بهترین راه برای تجزیه و تحلیل چنین داده هایی چیست؟ متشکرم.
تجزیه و تحلیل داده های رتبه مکرر
38492
من چندین درمان (8) را در سه نقطه زمانی مقایسه می کنم. برای سهولت تجزیه و تحلیل، من این داده ها را روی یک جدول ANOVA دو طرفه در Prism ترکیب کردم و تجزیه و تحلیل را اجرا کردم. دو نقطه زمانی اول تفاوت آماری بین متغیرهای گروه بندی شده داشتند و دومی هیچ تفاوتی نداشت. وقتی دقیقاً همان داده‌ها را مجدداً اجرا کردم، در یک نقطه زمانی، گروه دوم و سوم دارای تفاوت‌های آماری بودند و در گروه اول هیچ‌یک وجود نداشت. قدرت معناداری به طور معمول در یک طرفه بیشتر از دو طرفه بود. من مطمئن نیستم که بفهمم چرا علامتی که برای گروه اول از طریق دو طرفه پیدا شد در آزمایش یک طرفه ناپدید شد. آیا من هر دو را گزارش می‌دهم که آزمایش را بیان کنم که مقادیر وارد شده است؟ آیا یکی را انتخاب کنم یا دیگری و آن نتایج را ارائه کنم؟ کسی میتونه روشن کنه؟ من از Prism v5 استفاده می کنم.
P-value 2-way ANOVA در مقابل 1-way ANOVA
33873
من یک سوال در مورد واریانس، تست زوجی و حداقل تفاوت قابل تشخیص (MDD) دارم. نمونه های جفت شده: $$ MDD (δ) = \sqrt{ \frac{σ^2}{n} (t_{(α/2,n-1)} + t_{(1-β، n-1)}) } $$ من مجموعه‌ای از نمونه‌های پایه ($A$) دارم که در زمان 0 نمونه‌برداری شده‌اند. از آنجا که به دست آوردن آن نمونه‌ها مخرب است، نمی‌توانم از همان نمونه دوبار نمونه‌برداری مجدد کنم (مثلاً مشابه نمونه خاک). بنابراین من نمی توانم فرض کنم که نمونه گیری مجدد در آینده همان واریانس نمونه گیری پایه را داشته باشد. برای اندازه‌گیری میزان بزرگی این خطا، مجموعه دومی از نمونه‌ها ($B$) را در مجاورت اولین نمونه‌ها ($A$) گرفته‌ام، که به من یک عدد ($n = 15$) از جفت‌های $A-B$ می‌دهد. . نمونه $B$ نیز در زمان 0 گرفته می شود. اگر من یک آزمون t زوجی را روی این دو جامعه نمونه اجرا کنم، نمی توانم فرضیه صفر را رد کنم ($H_0: A\neq B$). احتمالاً باید اشاره کنم که هر دو جامعه نمونه $A$، $B$ و تفاوت ($A-B$) به طور معمول توزیع شده اند. Q1: اگر بخواهم MDD را برای میانگین خط پایه تخمین بزنم، چگونه این خطای نمونه را در معادله ادغام کنم؟ Q2: آیا می توانم به سادگی واریانس را از نمونه پایه بگیرم و واریانس تفاوت ها را اضافه کنم ($A-B$)؟ Q3: اگر نمونه ها فرضیه صفر را رد نکنند چه؟ آیا می توانم فرض کنم که نمونه ها مستقل هستند و از واریانس تلفیقی استفاده می کنند؟
واریانس صحیح برای حداقل تفاوت قابل تشخیص
104172
آیا نمودار زیر یک هیستوگرام 2 بعدی است یا یک هیستوگرام 3 بعدی؟ از یک طرف دارای 2 بعد داده است، اما از طرف دیگر، خود نمودار سه بعدی است. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/fWVZy.png)
هیستوگرام 2 بعدی یا هیستوگرام 3 بعدی؟
74320
من در حال انجام آزمایش‌هایی بر روی الگوریتم‌های تصادفی هستم و می‌خواهم آن را به صورت علمی انجام دهم. کدام خطای استاندارد نسبی میانگین (RSEM) قابل قبول است؟ می دانم که اغلب از RSEM<30% یا RSEM<25% استفاده می شود، اما آیا این برای الگوریتم های تصادفی نیز صدق می کند؟ چه مقاله/کتابی را می توانم استناد کنم که استاندارد قابلیت اطمینان را ارائه دهد؟ این به طور بهینه یک استاندارد برای رشته علوم کامپیوتر یا الگوریتم های تصادفی است، اما یک استاندارد قابلیت اطمینان عمومی نیز خوب است. * * * جزئیات: من فقط * http://www.cdc.gov/nchs/data/statnt/statnt24.pdf را پیدا کردم که متاسفانه فقط برای بخش بهداشت است. * http://scholar.google.de/scholar?cluster=1360212642214424308&hl=en&as_sdt=0,5 آماری را برای الگوریتم های تصادفی پوشش می دهد، اما متأسفانه به خطاهای استاندارد اشاره ای نمی کند.
استاندارد قابلیت اطمینان از طریق خطای استاندارد نسبی برای علوم کامپیوتر یا الگوریتم های تصادفی
17773
به عنوان مثال، من داده های زیان تاریخی دارم و در حال محاسبه چندک های شدید (ارزش در معرض خطر یا حداکثر ضرر احتمالی) هستم. نتایج به دست آمده برای تخمین زیان است یا پیش بینی آنها؟ کجا می توان خط کشید؟ من گیج شده ام. پیشاپیش از کمک شما بسیار سپاسگزارم.
تفاوت بین تخمین و پیش بینی چیست؟
25200
این سوال به عنوان تکالیف به من اختصاص داده شده است: > یک مطالعه شبیه سازی را برای بررسی عملکرد بوت استرپ برای > به دست آوردن 95% فواصل اطمینان بر روی میانگین نمونه تک متغیره > انجام دهید. > > باید به پوشش بازه اطمینان (چه نسبتی > بازه اطمینان حاوی میانگین واقعی است؟) و تغییرات مونت کارلو > (محدوده اطمینان بالا و پایین بین > شبیه سازی ها چقدر متفاوت است؟) نگاه کنید. > > می توانید انتخاب کنید که کدام روش بوت استرپ را ارزیابی کنید. نکته گیج کننده این است که هیچ داده ای برای استفاده در شبیه سازی ها به ما داده نشده است. با توجه به این واقعیت، تکلیف را چگونه تفسیر کنم؟
تفسیر سوال بوت استرپ
104174
من یک مدل طبقه بندی دارم که اجرای آن کند است. من داده‌های آزمایشی را با 3 کلاس تولید می‌کنم (داده‌های واقعی در حال حاضر 21 کلاس دارند و در حال رشد هستند)، و طبقه‌بندی کننده را اجرا کرده‌ام و پس از عقب نگه‌داشتن 80 درصد (مشابه نرخ داده واقعی) برچسب‌ها و ماتریس سردرگمی دریافت می‌کنم. سپس پیش‌بینی طبقه‌بندی کننده را در مقابل واقعی آزمایش می‌کنیم. من باید حساسیت طبقه‌بندی‌کننده را به داده‌ها آزمایش کنم و یک انتخاب دارم، الف) می‌توانم مجموعه‌های داده جدید را بارها و بارها تولید کنم و طبقه‌بندی کنم، یا ب) می‌توانم مجموعه داده‌ای را بگیرم و روی همان مجموعه داده k-fold کنم. مزایا و معایب هر کدام چیست (زمان اجرا باید به اندازه کافی مشابه باشد). مراجع علمی قدردانی شد.
طبقه بندی k-fold یا اجرای مجدد آزمایش؟
74093
من در تلاش برای درک منطق d-Separation در شبکه های بیزی علی هستم. من می‌دانم الگوریتم چگونه کار می‌کند، اما دقیقاً نمی‌دانم **_why_** جریان اطلاعات همانطور که در الگوریتم گفته شده کار می‌کند. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/gPnim.png) برای مثال در نمودار بالا، اجازه دهید فکر کنیم که فقط X به ما داده شده است و هیچ متغیر دیگری مشاهده نشده است. سپس طبق قوانین جداسازی d، جریان اطلاعات از X به D: 1. X بر A تأثیر می گذارد که $P(A)\neq P(A|X)$ است. این مشکلی ندارد، زیرا A باعث X می شود و اگر ما در مورد اثر X بدانیم، این بر باور ما در مورد علت A تأثیر می گذارد. اطلاعات جریان می یابد. 2. X بر B تأثیر می گذارد که $P(B)\neq P(B|X)$ است. این مشکلی ندارد، زیرا A توسط دانش ما در مورد X تغییر کرده است، تغییر در A می تواند بر باورهای ما در مورد علت آن، B نیز تأثیر بگذارد. 3. X بر C تأثیر می گذارد که $P(C)\neq P(C|X)$ است. این مشکلی ندارد زیرا ما می دانیم که B با دانش ما در مورد اثر غیرمستقیم آن، X، سوگیری دارد، و از آنجایی که B با X سوگیری دارد، این بر همه اثرات مستقیم و غیرمستقیم B تأثیر می گذارد. C یک اثر مستقیم B است و تحت تأثیر دانش ما در مورد X است. خوب، تا این مرحله، همه چیز برای من خوب است زیرا جریان اطلاعات بر اساس روابط شهودی علت و معلولی رخ می دهد. اما من رفتار خاص به اصطلاح V-structures یا Collider را در این طرح دریافت نمی کنم. با توجه به تئوری d-Separation، B و D علل رایج C در نمودار بالا هستند و می گوید که اگر C یا هر یک از فرزندان آن را مشاهده نکنیم، اطلاعات جریان از X در C مسدود می شود. خوب، OK. اما سوال من این است **_چرا؟_** از سه مرحله بالا، که از X شروع شد، دیدیم که C تحت تأثیر دانش ما در مورد X است و جریان اطلاعات بر اساس رابطه علت و معلولی رخ می دهد. تئوری d-Separation می گوید که ما نمی توانیم از C به D برویم زیرا C مشاهده نمی شود. اما من فکر می کنم از آنجایی که می دانیم C مغرضانه است و D علت C است، D نیز باید تحت تأثیر قرار گیرد در حالی که نظریه برعکس می گوید. من به وضوح چیزی را در الگوی فکرم گم کرده ام اما نمی توانم آن را ببینم. بنابراین من نیاز به توضیح دارم که چرا جریان اطلاعات در C مسدود شده است، اگر C مشاهده نشود.
درک نظریه جدایی d در شبکه های بیزی علی