_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
34612
من در حال تلاش برای تخمین MLE برای توزیع نمایی با استفاده از «fmincon» در Maltab هستم. من برای تخمین پارامترم مشکل دارم. به عنوان مثال، من یک توزیع نمایی را با یک پارامتر انتخاب شده شبیه سازی می کنم و سپس از داده های شبیه سازی شده در MLE خود استفاده می کنم. بنابراین امیدوارم بتوانم همان پارامتری را پیدا کنم که داده های شبیه سازی شده خود را با آن تولید کردم. مشکلی که من دارم این است که نمی‌توانم «fmincon» را برای ارزیابی پارامتر صحیح دریافت کنم... همیشه کران بالایی (مجموعه کران قبل از تخمین) پارامترم را به من می‌دهد. چرا؟ به من گفته شد که یک MLE می تواند به داده ها بسیار حساس باشد ... ساختار داده ها. بینش برای من وجود دارد؟
تخمین MLE: به داده ها حساس هستید؟
95989
فرض کنید من می خواهم تعداد کل N تیله را در بین M کیسه های تیله تخمین بزنم. فرض بر این است که تیله ها به طور معمول توزیع می شوند. من نمی توانم همه آنها را بشمارم، بنابراین تصمیم گرفتم از کیسه های S نمونه برداری کنم. من میانگین # تیله ها را از کیسه های S دریافت می کنم، سپس آن را میانگین برای کیسه های M فرض می کنم و ضرب می کنم. من به اندازه S چقدر از N فاصله دارم؟ چقدر می توانم اعتماد به نفس داشته باشم؟
اگر تعداد کل بیت ها را بر اساس میانگین تعداد بیت ها در سطل های نمونه برداری شده محاسبه کنم، فاصله اطمینان چقدر است؟
66138
اخیراً به مطالعه ای برخوردم که دو نتیجه زیر را نشان می دهد: * در سطح شرکت، متغیر مستقل $X_{it}$ تأثیر مثبتی بر متغیر وابسته $Y_{it}$ دارد. به طور مشخص، این مطالعه نشان می‌دهد که ضریب رگرسیون سری زمانی بازده تحقق‌یافته در مورد تغییرات سود (با قیمت سهام) تقریباً برای همه شرکت‌ها مثبت است. یعنی آنها یک رگرسیون سری زمانی برای هر شرکت اجرا می کنند و به توزیع بتا نگاه می کنند. هر دو میانگین و میانه مثبت هستند، تنها 10.7٪ بتای منفی دارند. * در سطح کل، آنها رابطه معکوس را پیدا می کنند، یعنی تغییرات سود کل (اعم از ارزش یا وزن برابر) دارای بتای منفی بر بازده کل سهام است. من نسبتاً از این یافته شگفت زده شده ام. من سعی کردم آن را به صورت آنلاین جستجو کنم و ابتدا به نظر می رسید که مشکل درک من را می توان با _ مغالطه زیست محیطی_ حل کرد (به ویکی پدیا مراجعه کنید). با این حال، من دیگر اینطور فکر نمی کنم. اگر درست بگویم، مکانیسم پشت این مغالطه اکولوژیکی متفاوت است. به عنوان مثال، مثال سوادآموزی-مهاجرت را از ویکی پدیا در نظر بگیرید: در هر گروه/ایالت، بی سوادی برای مهاجران بیشتر است، اما از آنجایی که مهاجران در ایالت های با سواد بالاتر ساکن می شوند، در مجموع، تأثیر منفی بین درصد مهاجرت و بی سوادی وجود دارد. بنابراین، اگر من آن را به درستی بفهمم، این تأثیر به این دلیل رخ می دهد که گروه ها، در این مورد ایالت ها، برای شروع متفاوت هستند و مهاجران می توانند ایالت ها را انتخاب کنند. بیایید فرض کنیم که مهاجران به صورت تصادفی در یک ایالت نمونه گیری می شوند. سپس این اثر کار نمی کند، درست است؟ با این حال، در مثال من، هیچ نمونه انتخابی وجود ندارد، حداقل چیزی که من از آن مطلع هستم، زیرا گروه ها دوره های زمانی هستند. به این معنا که در هر دوره زمانی، همه شرکت‌های موجود در یک نمونه جمع می‌شوند و شرکت‌ها واقعاً نمی‌توانند دوره زمانی را انتخاب کنند. البته ممکن است شرکت ها در شرایط بد اقتصادی ورشکسته باشند، بنابراین حجم نمونه بین دوره های مختلف متفاوت است. اما بیایید برای یک ثانیه از آن چشم پوشی کنیم و فرض کنیم که تعداد شرکت ها در کل نمونه ثابت می ماند: چگونه ممکن است که ضریب رگرسیون در کل در مقایسه با توزیع ضرایب رگرسیون در سطح شرکت اینقدر متفاوت باشد؟ هم یک پاسخ رسمی و هم یک پاسخ شهودی (شاید یک مثال کوچک) عالی خواهد بود.
رگرسیون کل در مقابل رگرسیون سطح شرکت - چگونه ضرایب رگرسیون می توانند تا این حد متفاوت باشند؟
66134
من یک مجموعه داده بیان ریزآرایه (46 نمونه، هزاران ویژگی) دارم و می‌خواهم ابتدا انتخاب ویژگی را انجام دهم و بر اساس این زیرمجموعه ویژگی‌ها (بر اساس تعداد نمونه‌های کاهش‌یافته من نباید بیشتر از 4 یا 5 باشد) یک مدل طبقه بندی کننده ساخت. با توجه به کاهش احتمالات 46 نمونه، می خواهم برای کسانی که قبلاً با این نوع مشکلات مواجه شده اند، از شما راهنمایی بخواهم. در تجربه شما، چه استراتژی های انتخابی بهترین کار را انجام داده اند (روش های فیلتر در مقابل بسته بندی؟ به طور خاص؟) آیا از اعتبارسنجی متقابل در انتخاب ویژگی استفاده می کنید؟ با این مجموعه داده کاهش یافته من نمی توانم مجموعه داده خود را تقسیم کنم و از یک قسمت برای انتخاب ویژگی و قسمت دیگر برای ساخت طبقه بندی کننده استفاده کنم. من تاکنون از نرم افزار Weka استفاده کرده ام. با توجه به این وضعیت و امکاناتی که این نرم افزار ارائه می دهد، آیا می توانم انتخاب ویژگی را به طور جداگانه انجام دهم (Select Attributes) و پس از آن، ویژگی های بی فایده را از arff (پنجره پیش پردازش) حذف کنم و بعداً طبقه بندی کننده را بسازم (پنجره طبقه بندی) یا باید آیا از یک متا طبقه بندی کننده (به عنوان مثال AttributeSelectedClassifier) ​​استفاده می کنم؟ مطمئن نیستم که این آخرین گزینه چه زمانی توصیه می شود. آیا با این کار بهتر از روش قبلی از بیش از حد برازش جلوگیری می شود؟ با عرض پوزش اگر پست به اندازه کافی دقیق نیست، اما هرگونه تجربه مرتبط با این نوع مشکلات، هر پیشنهادی برای خط لوله (و در صورت امکان در weka)، قدردانی خواهد شد. خیلی ممنون
داده های ریزآرایه: پیشنهاداتی در مورد انتخاب ویژگی + طرح آموزش مدل؟
66131
می خواستم بدانم که تعریف مدل مؤلفه های واریانس چیست؟ من آن را به صورت آنلاین جستجو کردم، و متوجه شدم که اغلب با مدل‌های جلوه‌های ترکیبی ظاهر می‌شود، اما نتوانستم بفهمم چیست، و تفاوت و ارتباط آن با مدل‌های اثر ترکیبی چیست. با تشکر
مدل مولفه واریانس چیست؟
29625
من باید 10 خوشه از 100 نمونه با بعد 100 پیدا کنم. من به دو پیاده سازی k-means دسترسی دارم. هر دوی آنها میانگین را با 10 نمونه انتخاب شده به طور تصادفی مقداردهی اولیه می کنند. وقتی این الگوریتم‌ها را روی نمونه‌هایم اجرا می‌کنم، می‌بینم که بلافاصله همگرا می‌شوند: پس از یک بار تکرار، راه‌حل با نتیجه زیر پایدار است: 1. نمونه‌هایی که با میانگین‌ها منطبق هستند به این خوشه‌ها اختصاص می‌یابند. 2. بقیه (90) ) نمونه ها به خوشه **یک** اختصاص داده می شوند، به عنوان مثال. خوشه شماره 8. چگونه می تواند باشد؟ آیا یک باگ آشکار (مشترک) در این دو پیاده سازی وجود دارد یا صرفاً نتیجه برخی ویژگی های خاص نمونه ها است؟ من می دانم که نمونه ها همگی متعامد با یکدیگر هستند ($X = V \cdot \Lambda^{-1/2}$، که در آن $V$ و $\Lambda$ بردارهای ویژه و مقادیر -ماتریس دیگری هستند)، اما من ارتباطی نمی بینم در اینجا پیاده سازی خواناتر (در متلب) است. توجه داشته باشید که در یک نمونه اسباب بازی دو بعدی ساده، هر دو پیاده سازی به خوبی کار می کنند. تابع [z، میانگین] = kmeans(X, k) % ورودی: X: (d x n) n مشاهده در ستون‌هایی با اندازه d % k: تعداد خوشه‌ها % خروجی: z: (k x 1) بردار تخصیص % به معنای: ( d x k) ماتریسی که ستون‌های آن بردارهای میانگین هستند [d n] = size(X); max_iter = 300; tol = 1e-4; معنی = X(:، randperm(n)(1:k)); z = صفر (n, 1); iter = 0; تغییر = inf; err = inf; while (تغییر > tol && iter < max_iter) % گام انتساب برای i = 1:n diff = معنی - repmat(X(:,i), 1, k); [_, best_mean] = min(norm(diff, 'cols')); z(i) = best_mean; مرحله به روز رسانی پایان % برای j = 1:k ind = (z == j) ./ sum(z == j); means(:, j) = X * ind; پایان % خطای به روز رسانی old_err = err; خطا = 0; برای i = 1:n err = err + norm(means(:، z(i)) - X(:، i)، 'cols'); تغییر پایان = old_err - err; iter = iter + 1; پایان پایان
اگر k-means در حداقل محلی شروع شود چه؟
34610
راهی برای تجزیه و تحلیل بقای دو (یا بیشتر) ریسک رقیب متقابل منحصر به فرد به عنوان ترکیبی از دو منحنی بقای مختلف وجود دارد. چیزی شبیه آنچه در A.C. Ghani et al. _روش های تخمین نسبت مرگ و میر موردی برای یک رمان، بیماری عفونی نوظهور_. مجله آمریکایی اپیدمیولوژی (2005) جلد. 162، شماره 5 چیزی که من به دنبال آن هستم بسته ای است که به تولید چیزی شبیه این شکل کمک می کند: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/huf3p.jpg) جایی که بقا است منحنی یک نتیجه و 1- منحنی بقای نتیجه دیگر در نهایت در نقطه خاصی که ترکیبی از این دو نتیجه است به هم می رسند.
بسته های R (یا کد SAS) برای تولید دو منحنی Kaplan-Meier به طور همزمان؟
92611
مجموعه ای متشکل از 100 فیوز به شرح زیر بررسی می شود: پنج فیوز به صورت تصادفی انتخاب و آزمایش می شوند. اگر هر پنج در آمپراژ صحیح ضربه بزنند، لات پذیرفته می شود. احتمال قبولی لات با وجود 20 فیوز معیوب چقدر است؟ به نظر می رسد این یک مشکل توزیع دو جمله ای است. آیا این درست است؟ احتمال فیوز معیوب: $\frac{20}{100}=.2 \longrightarrow 0.8$ فیوزهای خوب احتمال اینکه لات پذیرفته شود: $$b(5;5,.8)={5\choose5}(.8 )^5(.2)^0$$
احتمال قبولی لات با وجود 20 فیوز معیوب چقدر است؟
79297
من یک سوال در مورد شبیه سازی توزیع های نرمال چند متغیره دارم: آیا باید از Cholesky یا SVD برای محاسبه ماتریس جذر کوواریانس استفاده کنیم؟ کدام یک از نظر محاسباتی سریعتر است؟ کدام قوی تر است؟ من از Python و numpy.linalg.svd یا numpy.linalg.cholesky استفاده می کنم.
با استفاده از Cholesky یا Singular Value Decomposition، نرمال چند متغیره را شبیه سازی کنید
73593
من یک مشکل دارم، من در حال یادگیری احتمالات هستم (من یک برنامه نویس هستم) و شروع به این کار دارم: > (منبع: Minka.) همسایه من دو فرزند دارد. با فرض اینکه جنسیت یک کودک > مانند یک سکه است، به احتمال زیاد، پیشینی، همسایه من > یک پسر و یک دختر دارد، به احتمال 1/2. احتمالات دیگر - دو پسر > یا دو دختر - احتمال 1/4 و 1/4 دارند. > > * الف. فرض کنید از او می‌پرسم که آیا پسری دارید یا خیر، و او می‌گوید بله. احتمال اینکه یکی از بچه ها دختر باشد چقدر است؟ > > * ب. در عوض فرض کنید که یکی از فرزندانش را می بینم که تحت کنترل است و > پسر است. احتمال اینکه فرزند دیگر دختر باشد چقدر است؟ حالا استدلال من این است: BB = 1/4 = 0.25 BG = 1/4 = 0.25 GB = 1/4 = 0.25 GG = 1/4 = 0.25 بنابراین برای a.، احتمال G را فقط با جمع کردن p بدست می‌آورم. (B,G) + p(G,B) = 0.5 و برای b. p(G|B) = p(G,B)/p(B) = 0.5/0.5 = 1 که اشتباه است اما دلیل آن را متوجه نمی شوم.
احتمال یادگیری استدلال بد مشروط و بدون قید و شرط
3804
فرض کنید من در حال مدل سازی مجموعه ای از فرآیندها با استفاده از یک بتا-دو جمله ای قبلی هستم. من می‌توانم مدل‌های بتا-دوجمله‌ای پارامتری بسازم که میانگین آن‌ها در گروه‌های بزرگی از فرآیندها باشد تا مقدمات معقول، هرچند درشت، ارائه دهد. $p_i \sim \beta B(n، \alpha_i، \beta_i)$ (تقریبا) من می‌دانم چگونه با استفاده از داده‌های جزئی مشاهده‌شده از طریق قانون بیز، آن پیشین‌ها را به‌روزرسانی کنم. با این حال، برای زیرمجموعه‌ای از پیشین‌ها، من در واقع داده‌های تاریخی کمی دارم که می‌خواهم آن‌ها را در پیشین ادغام کنم، آن را $h_j$، جایی که $j \in h$ زیرمجموعه‌ای از $i$s است. . بنابراین نتیجه یک توزیع به روز شده است، آن را $p'_i$ نامید. این داده های اضافی یک اسکالر است. برای مثال، اگر من یک دوجمله ای بتا با $n=9$، $\alpha=2$ و $\beta=3$ داشته باشم (به مثال های تابع «dbetabin.ab» در بسته VGAM R مراجعه کنید) ، حالت 3 دارد، اما من ممکن است اطلاعات قبلی بیشتری داشته باشم که نشان می دهد حالت باید به 6 نزدیک تر باشد. اتفاقاً می دانم که این اطلاعات اضافی فقط پیش بینی اندکی است (مثلاً $r$ از 0.4). اما هنوز بهتر از هیچ است، و برای این فرآیند خاص، پیش‌بینی‌کننده بهتری نسبت به مقدار پیش‌بینی‌شده بتای دوجمله‌ای قبلی من ($r$ حدود 0.3) شناخته شده است. بنابراین، چیزی که من به دنبال آن هستم، راهی برای به‌روزرسانی بتا-دوجمله‌ای با استفاده از این اسکالر است، به طوری که نتیجه نیز یک بتا-دوجمله‌ای است، که می‌توانم آن را مانند هر یک از مدل‌های فرآیند دیگر خود با ورود داده به‌روزرسانی کنم. (یعنی من به یک عبارت بسته نیاز دارم.) $(\alpha'_i, \beta'_i) = f(\alpha_i, \beta_i, h_i, \theta)$, $\theta$ با پیش بینی نسبی تخمین زده شده بتا-دوجمله ای اصلی و اسکالر $h$ ارتباط دارد. یک رویکرد معقول در اینجا چیست؟ آیا راهی برای تنظیم پارامترهای $\alpha$ و $\beta$ وجود دارد تا گرایش مرکزی به مقدار مناسبی به سمت اسکالر با پیش‌بینی متوسط ​​کشیده شود؟ من خوشحالم که از اعتبار سنجی متقاطع یا چیزی برای شناسایی یک پارامتر وزنی استفاده کنم، اگر این راه درستی برای این کار باشد. با تشکر
به روز رسانی یک بتا دو جمله ای
23488
اندرو نگ در دوره آموزش ماشینی استنفورد به کاربرد ML در فناوری اطلاعات اشاره کرد. مدتی بعد وقتی DDoS با اندازه متوسط ​​(حدود 20 هزار ربات) را در سایت خود دریافت کردم، تصمیم گرفتم با استفاده از طبقه‌بندی شبکه عصبی ساده با آن مبارزه کنم. من این اسکریپت پایتون را در حدود 30 دقیقه نوشته‌ام: https://github.com/SaveTheRbtz/junk/tree/master/neural_networks_vs_ddos از pyBrain استفاده می‌کند و 3 لاگ nginx را به عنوان ورودی می‌گیرد، دو تای آنها برای آموزش شبکه عصبی: 1. با پرس و جوهای خوب 2. با موارد بد و یک گزارش برای طبقه بندی از پرس و جوهای بد.. 0.0.0.0 - - [20/Dec/2011:20:00:08 +0400] POST /forum/index.php HTTP/1.1 503 107 http://www.mozilla-europe.org/ - ...و خوب... 0.0.0.0 - - [20/Dec/2011:15:00:03 +0400] GET /forum/rss.php?topic=347425 HTTP/1.0 200 1685 - Mozilla/5.0 (Windows; U; Windows NT 5.1; pl; rv:1.9) Gecko/20080532906 ... یک فرهنگ لغت می سازد: ['__UA___OS_U'، '__UA_EMPTY'، '__REQ___METHOD_POST'، '__REQ___HTTP_VER_HTTP/1.0'، '__REQ___URL___NETLOC_'، '__REQ____THOD_POST، '__REQ___THOD_Ph/s '__REQ___URL___PATH_/forum/index.php'، '__REQ___URL___SCHEME_'، '__REQ___HTTP_VER_HTTP/1.1'، '__UA___VER_Firefox/3.0'، '__REFER__uro,'__REFER_____NE. '__UA___OS_Windows'، '__UA___BASE_Mozilla/5.0'، '__CODE_503'، '__UA___OS_pl'، '__REFER___PATH_/'، '__REFER___SCHEME_http'، '__NO_RE '__REQ___METHOD_GET'، '__UA___OS_Windows NT 5.1'، '__UA___OS_rv:1.9'، '__REQ___URL___QS_topic'، '__UA___VER_Gecko/2008/2008/2008/2005 هر شبکه ما را آموزش می دهد. ما باید طبقه بندی کنیم_ ... 0.0.0.0 - - [20/Dec/2011:20:00:01 +0400] GET /forum/viewtopic.php?t=425550 HTTP/1.1 502 107 - BTWebClient /3000(25824) ... به ویژگی-بردار تبدیل می شود: [نادرست، نادرست، نادرست، غلط، درست، نادرست، نادرست، درست، درست، نادرست، نادرست، نادرست، نادرست، نادرست، نادرست، نادرست، نادرست، نادرست، درست، درست، نادرست، نادرست، نادرست، نادرست، نادرست] این مسیر استانداردی برای تقسیم مجموعه داده ها به مجموعه های آموزشی و آزمایشی، آموزش شبکه های عصبی و انتخاب بهترین وجود دارد. پس از این فرآیند (که بسته به اندازه مجموعه داده می تواند زمان زیادی طول بکشد) در نهایت می توانیم گزارش ها را با استفاده از شبکه آموزش دیده طبقه بندی کنیم. اما در اینجا تعدادی از مسائل مربوط به این رویکرد وجود دارد: 1. یادگیری ماشینی نظارت شده برای آن نوع مشکل تا حدی اشتباه است، زیرا برای _تشخیص ربات ها_ ابتدا نیاز به _تشخیص ربات ها_ و آموزش شبکه عصبی با آن داده ها دارم. 2. من رفتار مشتری را به حساب نمی‌آورم. بهتر است نمودار انتقال صفحه به صفحه را برای هر کاربر در نظر بگیرید. 3. من محلی بودن مشتریان را به حساب نمی‌آورم. اگر یکی از کامپیوترهای موجود در شبکه به ویروس آلوده شده باشد، احتمال آلوده شدن کامپیوترهای دیگر در آن شبکه بیشتر است. 4. من داده های موقعیت جغرافیایی را در حساب کاربری نمی گیرم. البته اگر سایتی را در روسیه راه اندازی می کنید، شانس کمی برای مشتریان برزیلی وجود دارد. 5. من نمی دانم که آیا استفاده از شبکه عصبی و طبقه بندی برای حل چنین مشکلی راه درستی بوده است یا خیر. شاید با سیستم تشخیص ناهنجاری بهتر بودم. 6. زمانی که روش ML آنلاین (یا به اصطلاح استریم) باشد بهتر است تا بتوان آن را در پرواز آموزش داد. **بنابراین سوال اینجاست:** اگر با مشکل مشابه دفاع در برابر حمله DDoS با توجه به گزارش‌های وب سرور فعلی (شامل کلاینت‌ها و ربات‌های خوب) و داده‌های تاریخی (گزارش‌های روز قبل) با مشکل مشابه مواجه می‌شوید، چه می‌کنید. /هفته/ماه با مشتریان بیشتر خوب)؟ کدام رویکرد یادگیری ماشینی را انتخاب می کنید. از کدام الگوریتم ها استفاده می کنید؟
استفاده از یادگیری ماشین برای فیلتر کردن DDoS
104040
من در تلاش برای درک تفاوت بین روش‌های مختلف نمونه‌برداری مجدد (شبیه‌سازی مونت کارلو، راه‌اندازی پارامتری، راه‌اندازی غیرپارامتری، جک‌نفینگ، اعتبارسنجی متقابل، تست‌های تصادفی‌سازی، و تست‌های جایگشت) و اجرای آنها در زمینه خودم با استفاده از R. وضعیت زیر - من می خواهم ANOVA را با متغیر _Y_ ('Yvar') و متغیر _X_ ('Xvar') انجام دهم. «Xvar» قاطعانه است. من به موارد زیر علاقه مند هستم: (1) اهمیت مقادیر p - نرخ کشف نادرست (2) اندازه اثر سطوح Xvar Yvar <- c(8،9،10،13،12، 14،18،12 ,8,9, 1,3,2,3,4) Xvar <- c(rep(A، 5)، rep(B، 5)، rep(C، 5)) mydf <- data.frame (Yvar، Xvar) آیا می‌توانید تفاوت‌های نمونه‌گیری را با مثال‌های کار شده صریح توضیح دهم که چگونه این روش نمونه‌گیری مجدد کار می‌کند؟ **ویرایش ها:** اینها تلاش های من هستند: **Bootstrap** 10 نمونه بوت استرپ، تعداد نمونه نمونه با جایگزینی، به این معنی است که نمونه ها را می توان تکرار کرد boot.samples <- list() for(i در 1:10) { t.xvar <- Xvar[ نمونه(طول(Xvar)، طول(Xvar)، جایگزین=TRUE) ] t.yvar <- Yvar[ نمونه(طول(Yvar)، length(Yvar), replace=TRUE) ] b.df <- data.frame (t.xvar, t.yvar) boot.samples[[i]] <- b.df } str(boot.samples) boot.samples [1] ** جایگشت:** 10 نمونه جایگشت، تعداد نمونه نمونه بدون جایگزین permt.samples <- list() for(i در 1:10) { t.xvar <- Xvar[ نمونه(طول(Xvar)، طول(Xvar)، جایگزین=FALSE) ] t.yvar <- Yvar[ نمونه(طول(Yvar)، طول(Yvar)، جایگزین=FALSE) ] b .df <- data.frame (t.xvar، t.yvar) permt.samples[[i]] <- b.df } str(permt.samples) permt.samples[1] **شبیه سازی مونت کارو** اگرچه اصطلاح نمونه برداری مجدد اغلب برای اشاره به هر شبیه سازی تصادفی یا شبه تصادفی مکرر استفاده می شود، وقتی نمونه گیری مجدد از یک توزیع نظری شناخته شده انجام می شود، اصطلاح صحیح است. شبیه سازی مونته کارلو. من در مورد تمام عبارات بالا و اینکه آیا ویرایش های بالا من درست هستند مطمئن نیستم. من اطلاعاتی در مورد jacknife پیدا کردم، اما نتوانستم آن را در شرایط خودم رام کنم.
روش‌های نمونه‌گیری مجدد/شبیه‌سازی: مونت کارلو، بوت استرپینگ، جک نایفینگ، اعتبارسنجی متقاطع، آزمایش‌های تصادفی‌سازی و آزمایش‌های جایگشت
72460
داده ها شامل توزیع دسته و زیرمجموعه هستند. دسته ها موضوعاتی در یک مسابقه مانند: موسیقی، ورزش، کسب و کار هستند. هر دسته دارای سه سطح برای انتخاب است: پایه، استاندارد و پیشرفته. به عنوان مثال: یک کاربر ممکن است در سطوح مختلف یک مسابقه در مورد موسیقی شرکت کند. فرض کنید که تعداد سوالاتی که سعی شده است 100 سوال باشد. کاربر در سطوح مختلف به آنها پاسخ داده است. 40 برای پایه، 40 برای استاندارد و 20 برای پیشرفته. داده ها شامل تعداد سوالاتی است که در هر دسته برای هر کاربر انجام شده است. بهترین راه برای نمایش این داده ها در یک نمودار چیست؟ هر نمودار حداکثر شامل 5 دسته اصلی است.
نمایش داده ها در چندین دسته و دسته های فرعی
66132
من با استفاده از بسته MatchIt در R یک همگروهی همسان ایجاد کرده‌ام. فهرستی از اعضای گروه درمان و گروه کنترل را دارم. اما من نمی توانم بفهمم که کدام موضوع درمانی با کدام گروه کنترل مطابقت دارد. آیا کسی می تواند به من اشاره کند؟ برای من خیلی مهم است. پیشاپیش ممنون
درک خروجی MatchIt در R
73844
من سعی می‌کنم وارد مدل‌سازی اقتصادسنجی/تجاری شوم و جهان متغیرهای خارج از آنجا بسیار زیاد است. عملاً متغیرهایی به طور مداوم به روز می شوند (نرخ ارز، نرخ بهره، قیمت سهام و غیره)، در حالی که متغیرهایی نیز وجود دارند که ماهانه (آمار اشتغال، خرده فروشی) و فصلی (GDP) تغییر می کنند. چیزی که من به آن علاقه دارم این است که همه اینها را در یک مدل واحد ادغام کنم، حتی اگر فواصل هر یک از آنها طول متفاوتی داشته باشد. برخی از ایده هایی که داشته ام: 1. در نظر گرفتن هر متغیر کمتر به عنوان یک مداخله نسبت به متغیرهای اغلب در حال تغییر و استفاده از متغیرهای گام/نبض برای نشان دادن زمان گزارش (البته من در مورد تجزیه و تحلیل مداخله به غیر از آن اطلاعات زیادی ندارم. از اصول اولیه، شاید کسی بتواند من را به برخی ادبیات راهنمایی کند؟) 2. ایجاد متغیرهای ساختگی برای متغیرهای کمتر که مقادیر با تاخیر روزانه را نشان می دهند، یعنی برای هر فصلنامه متغیر 90*(تعداد چهارم) مقدار متغیرهای ساختگی وجود خواهد داشت، که هر کدام با مقداری در هر 90 موقعیت در آرایه مربوط به تغییر نسبت به قبلی است، یا هر مجموعه 90 مقدار شاخص یکسانی خواهد بود (نه نرخی از تغییر). آیا می توانم برخی از افکار شما را بشنوم؟
ساخت مدل هایی با فواصل نابرابر بین مشاهدات سری های زمانی
73592
من در حال حاضر محاسبات را از طریق یک طراحی ناپیوستگی رگرسیون فازی اجرا می کنم. فرض کنید اطلاعات من به شکل زیر است: * $Z$: **متغیر انتساب** ; اگر $Z > Z_0$ باشد، آنگاه فرد با احتمال مشخصی $p_D$ به درمان اختصاص داده می شود (از آنجایی که ما در چارچوب RDD فازی، $p_D<1$ هستیم). * $D$: **وضعیت درمان** ; $D=1$ اگر فرد تحت درمان باشد، 0 در غیر این صورت. * $X$: مجموعه ای از متغیرهای برون زا. * $Y$: **متغیر نتیجه باینری**. تا آنجا که من می دانم - به عنوان مثال نگاه کنید. [1] - اجرای یک RDD فازی معادل اعمال متغیرهای ابزاری با استفاده از $Z$ به عنوان ابزار است (از این رو در مرحله اول باید $D$ روی $Z$ و $X$ پسرفت داشته باشیم). برای تخمین مدل از طریق Stata از کد زیر استفاده کردم: biprobit (Y = X D) (D = X Z) طبق برخی تحقیقاتی که انجام داده ام - به pdf نیکولز در [2] مراجعه کنید - بسته `-biprobit-` باید به دلیل ماهیت باینری متغیر درون زا ($D$) مورد نیاز است. آیا کدهای بالا را صحیح می دانید؟ آیا می توان از یک مدل احتمال خطی ساده مانند این استفاده کرد؟ ivregress 2sls Y X (D=Z) با تشکر از هر کمکی، Stefano > [1] Angrist, J. D., Pischke, J. (2008). _ اقتصاد سنجی عمدتاً بی ضرر: یک > همراه تجربه گرا _. انتشارات دانشگاه پرینستون > > [2]: > http://www.google.it/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CDQQFjAA&url=http://www.stata.com/meeting/chicago11 /materials/chi11_nichols.pdf&ei=GvVnUvKOFIPv4gT- > moH4DQ&usg=AFQjCNGv9pmEIOIvhVsmmMq38q05pRbFbg&bvm=bv.55123115,d.bGE
طراحی ناپیوستگی رگرسیون فازی در Stata
55272
من در نحوه برخورد با متغیر نتیجه خود و در نتیجه اینکه کدام تحلیل رگرسیون را باید اعمال کنم، تردید دارم. من با یک متغیر شمارش کار می کنم، یعنی دفعاتی که یک فرد در مجموع روی 45 سوال گفت نمی دانم. توزیع بسیار دارای انحراف مثبت است و عدد صفر بالایی دارد. و مدرکی دال بر پراکندگی بیش از حد شدید وجود دارد. من معتقدم این به این دلیل است که وقتی به یک سوال می گویید نمی دانم، احتمال بیشتری وجود دارد که این کار را در مورد سوالات دیگر انجام دهید، زیرا همه آنها در یک موضوع هستند. بنابراین 45 آزمایش مستقل نیستند. من می توانم مجدداً یک نسبت محاسبه کنم و یک رگرسیون دوجمله ای اضافی اعمال کنم (با تعداد آزمایش = 45) و برآورد کننده هایی که به دست می آورم گزارش اختلاف احتمال امتیاز 1 (= نمی دانم، DK) در یک سؤال خاص است. (نسبت شانس). یا می‌توانم آن را به‌عنوان شمارشی در نظر بگیرم که توزیع آن به یک توزیع دوجمله‌ای منفی اضافه تقریبی می‌کند (زیرا میانگین احتمال گفتن «نمی‌دانم» در یک آزمایش کم است، یعنی 0.05). سپس ضرایب رگرسیون لاگ تعداد تفاوت در دفعاتی که پاسخ دهنده می گوید DK (نسبت نرخ حادثه) را به من می دهد. حال سوال من این است که آیا رگرسیون دو جمله ای اضافی منفی بهتر از رگرسیون دو جمله ای اضافی برای پراکندگی بیش از حد اصلاح می شود؟ احساس می‌کنم اجازه می‌دهم واریانس دو بار تصادفی باشد، یک بار برای «دوجمله‌ای منفی به جای poisson» و یک بار برای اجازه دادن به «پارامتر اضافی» برای تخمین تغییرات. یا اینکه این دو روش یکسان خواهند بود، و آیا می توانم آزادانه بر اساس تفسیری که ترجیح می دهم (نسبت شانس در مقابل نرخ بروز) انتخاب کنم؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ryvHp.png) از پاسخ Glen_b متوجه شدم که برای توزیع دوجمله ای منفی نظری واریانس سریعتر از میانگین افزایش می یابد. چگونه می توانم این را در توزیع تجربی خود ارزیابی کنم، زیرا من فقط یک اندازه گیری از میانگین و واریانس دارم؟ آیا باید این را برای گروه های مختلف پاسخ دهندگان، مثلاً مردان و زنان، مقایسه کنم و افزایش میانگین و واریانس آنها را با هم مقایسه کنم؟ آیا انجام تست های GOF برای Bin و Negbin به من جواب قاطع می دهد؟
توزیع دو جمله ای اضافی منفی یا توزیع دو جمله ای اضافی
73594
به نظر می رسد سوال من بسیار ابتدایی است اما جستجوی من هیچ سوال مشابهی ارائه نداده است. من مجموعه داده کوچکی از 8 مقدار $(x,y)$ با عدم قطعیت برای $y$ (متغیر وابسته) دارم و این نظریه وابستگی درجه دوم $y=a x^2 + b x + c$ را پیش‌بینی می‌کند. من می‌خواهم این مجموعه داده را با معادله درجه دوم برازش دهم و فواصل اطمینان را برای پارامترهای $a$, $b$, $c$ بر اساس هر دو بر اساس باقیمانده‌ها محاسبه کنم (آنها بسیار کوچک هستند، یعنی مدل درجه دوم داده‌های تجربی را با بسیار توصیف می‌کند. باقیمانده های کوچک) و در عدم قطعیت اعلام شده برای هر اندازه گیری (عدم قطعیت ها بسیار بزرگتر از باقیمانده ها هستند). صحیح ترین راه برای این کار چیست؟
فواصل اطمینان پارامتر که شامل خطا در داده ها می شود
104047
دنبال این موضوع آیا میانگین یک متغیر تصادفی تک متغیره همیشه با انتگرال تابع کمیت آن برابر است؟ من سعی کردم کار مشابهی را برای یک انتظار مشروط انجام دهم. به نظر می رسد مهارت های تصادفی من کمی زنگ زده است. برای یک r.v پیوسته با پشتیبانی روی خط واقعی، من فکر می‌کنم که دارای $ E[X|X<q_\theta] = \int_{-\infty}^\infty x f(x|x<q_\theta)dx = ... = \ frac{1}{F(q_\theta)} \int_{-\infty}^{q_\theta} x f(x)dx = \frac{1}{\theta} \int_{0}^{\theta}F^{-1} (p) dp$ که $q_\theta$ مقدار $\theta$ و $f(x)$ چگالی است، $F(x) $ cdf و $F^{-1}(x)$ تابع quantile است. ویرایش: راه حل من تاکنون $E[X|X<q_\theta]=\int xf(x|x<q_\theta)dx = \int x \frac{f(x)P(x<q_\theta است |X=x)}{\int f(u)P(u<q_\theta|X=u)du}dx = \frac{1}{\int f(u) 1{(u<q_\theta)}du} \int x f(x) 1{(x<q_\theta)}dx= \frac{1}{F(q_\theta)} \int_{-\infty} ^{q_\theta} xf(x)dx = \frac{1}{\theta} \int_{0}^{\theta}F^{-1} (p) dp$ با استفاده از رابطه $f(x|B)=\frac{f(x)P(B|X=x)}{\int f(x)P(B|X=x)dx}$ اینجا را ببینید http://www. math.uah.edu/stat/dist/Conditional.html مشکلی نیست؟ پیشاپیش برای هر گونه پیشنهادی بسیار متشکرم!
انتظار شرطی از طریق تابع انتگرال بیش از کوانتیل
29628
من سعی می کنم کریجینگ معمولی را بفهمم. بگویید من 3 اندازه گیری ارتفاع دارم: Z1، Z2 و Z3 که در موقعیت های X گرفته شده است: X1، X2 و X3. من همچنین مقداری semivariogram را فرض می‌کنم: g(h) و این فرآیند ثابت است. از آنجایی که من متوجه شدم، وزن‌های کریجینگ در این مورد باید باشد؟: $ L = M^{-1}*Gs $ Where: $L=\ \left( \begin{array}{ccc} l_1 \\\ l_2 \\ \ l_3 \\\ \mu\end{آرایه} \راست) $ $\ M = \left( \begin{array}{ccc} g(0) && g(X2-X1) && g(X3-X1) && 1 \\\ g(X2-X1) && g(0) && g(X3-X2) && 1 \\\ g(X3-X1) && g(X3-X2) && g (0) && 1 \\\ 1 && 1 && 1 && 0 \end{آرایه} \راست)$ $Gs=\ \چپ( \begin{آرایه}{ccc} g(|X1 - Xs|) \\\ g(|X2 - Xs|) \\\ g(|X3 - Xs|) \\\ 1 \end{آرایه} \راست) $ و ارتفاع Zs در موقعیت x Xs باید با ? برآورد شود: $\ Z(Xs)=\sum_{i=1}^3 l_i*Zi$ آیا معکوس ماتریس خواهد بود مشکل ایجاد کند؟ من یک اسکریپت Matlab در اینترنت پیدا کردم که به جای آن از Moore-Penrose pseudoinverse استفاده می کرد. دلیل اینکه من این سوال را می‌پرسم این است که یک اسکریپت Matlab را روی آن کدنویسی کردم که X و Z تصادفی را ترسیم می‌کرد. و به نظر می رسید که در اکثر مواقع خوب کار می کند، اما هر از چند گاهی تخمین دیوانه ای برای Z(Xs) برمی گرداند. بنابراین من فقط سعی می‌کنم بفهمم که آیا این نظریه را اشتباه متوجه شده‌ام، آیا معکوس ماتریس گاهی اوقات حالت بدی پیدا می‌کند یا اینکه من به تازگی در کدنویسی Matlab خود دچار مشکل شده‌ام. این اسکریپت Matlab من است: % kriging.m n = 3; X = 1000*rand(1,n); Z = 1000 + 100*randn(1,n); stem(X,Z,'b'); نگه دارید؛ a0 = 300; محدوده % c0 = 4; % مقیاس M = ones(n+1,n+1); برای r = 1 : n برای c = 1 : n Xr = X(r); Xc = X(c); h = abs (Xr - Xc)؛ M(r,c) = c0*(1-exp( -(h/a0)^2)); انتهای انتهایی M(n+1,n+1) = 0 MI = inv(M) Xs = 500; hs = abs (X - Xs)؛ Gs = c0*(1-exp( -(hs/a0).^2)); Gs = [Gs 1]' L = MI*Gs; L = L(1:n) Zs = Z*L stem(Xs,Zs,'r') و در اینجا مثالی از یک نتیجه دیوانه وجود دارد: X = 117.4177 296.6759 318.7783 Z = 1.0e+003 * 0.9679 1.00912 M = 1.00912. 0 1.2010 1.4508 1.0000 1.2010 0 0.0217 1.0000 1.4508 0.0217 0 1.0000 1.0000 1.0000 1.0000 0 MI = 0.83831 - 0.83831 - 0.83831 5.4. 5.2214 -55.8175 50.5960 -6.3666 -4.3883 50.5960 -46.2077 6.2710 1.0956 -6.3666 6.2710 -1.4516 -1.4516 Gs = 3.2423.231. 1.0000 L = 0.7441 -9.9423 10.1982 Zs = -2.1255e+003 ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/bJjIB.png)
کیس ثابت کریجینگ معمولی
50040
من یک متغیر پاسخ ترتیبی (دارای 4 سطح) و 3 متغیر کمکی طبقه بندی دارم (هر کدام به ترتیب سطوح مختلف 3، 5، 2 و 4 دارند). ما همچنین با مشاهدات مکرر سر و کار داریم. من یک مدل رگرسیون لجستیک ترتیبی چند جمله ای را در SAS نصب کردم، اما در مورد خروجی مطمئن نیستم. تعداد کل مشاهدات تقریباً 1700 است. این کدی است که من استفاده می کنم (من مرتب سازی کردم): > > proc glimmix data=mydata METHOD=LAPLACE; > کلاس ID Resp A B C D; > مدل Resp = A B C D / راه حل dist=پیوند چند جمله ای=CUMLOGIT; > > > % من تصادفی _ باقی مانده _ /subject=ID را امتحان کردم. اما کار نکرد > > > random intercept/subject=ID; > اجرا؛ > تخمین، خطای استاندارد، DF، t Value، و Pr > |t| را برای هر سطح برای متغیرهای کمکی، به جز خط پایه، دریافت می‌کنم. با این حال، برای متغیر D (4 سطح وجود دارد)، من این مقادیر را فقط برای یک سطح دریافت می کنم. یه چیز دیگه برای همون متغیر D باید DF 3 باشه ولی تو جدول _Type III Tests of Fixed Effects_ که از SAS گرفته شده برابر 1 میشه. کسی میدونه اینجا چی میشه؟
نتایج حاصل از مدل رگرسیون لجستیک ترتیبی چند جمله ای
55279
فرض کنید یک جدول دارید: مرگ سیگار کشیدن کم متوسط ​​زیاد بله 50 100 150 نه 4 10 14 می دانم که آزمون مربع کای بهترین برای تعیین استقلال متغیرها است، اما چگونه می توان یک مدل برای این داده ها ایجاد کرد که در آن مرگ متغیر پاسخ است.
مدل طبقه بندی
3805
من یه مدل خیلی ساده دارم این مدل از داده هایی استفاده می کند که به عنوان توزیع های پیوسته داده نمی شوند، اما توسط صدک ها توصیف می شوند. بهترین راه برای نمونه برداری از این سطل های صدکی، زمانی که سطل ها دارای اندازه نابرابر هستند، چیست؟ بنابراین، برای مثال، برای انتخاب وزن بدن برای یک فرد معین، یک عدد تصادفی بین 0-100 انتخاب می‌کنم، سپس این مقدار را با نزدیک‌ترین صدک مطابقت می‌دهم. من درون یابی یا برون یابی نمی کنم، فقط مقداری را که می کشم با نزدیکترین سطل مطابقت می دهم. (برون یابی با توجه به داده ها ایده خوبی نیست.) بیایید بگوییم، برای وزن بدن، صدک های من 25، 50 و 75 است. اما این اندازه سطل های 37.5 (0-37.5)، 25 (37.5-62.5) را نشان می دهد. ، و 37.5 (62.5-100). بنابراین به دلیل نابرابر بودن اندازه‌های سطل، من هر دو سطل 25% و 75% را بسیار بیشتر از نمونه‌برداری از سطل میانی، 50%، نمونه‌برداری می‌کنم. این برعکس چیزی است که من دوست دارم اتفاق بیفتد. من می‌توانم سطل‌ها را وزن کنم، اما به نظر خودسر می‌رسد. یا، به جای اینکه عدد تصادفی خود را از یک توزیع یکنواخت 0-100 ترسیم کنم، می توانم آن را از یک توزیع معمولی در مرکز میانه بکشم، اما این نیز دلخواه به نظر می رسد. یا، در عوض، دوست دارم متقاعد شوم که واقعاً در اینجا مشکلی ندارم. هیچ ایده ای در مورد اینکه چگونه می توانم این را بهتر تنظیم کنم؟ با تشکر
نمونه برداری با سطل های نابرابر؟
22282
این یک مشکل فنی است که من در تحقیقات با آن مواجه شدم. ببخشید اگر برای آماردانان حرفه ای ساده است. اجازه دهید $X_1، \cdots، X_n$ متغیرهای تصادفی استاندارد کوشی iid باشند. چه تخمین یا فرمول دقیقی برای میانه $\sum_{i=1}^n |X_i|$ وجود دارد؟ برای $n=1$، می توان آن را به صراحت محاسبه کرد که میانه $1$ است: $$ \mathbb{P}\left[X \leq t\right] = \frac{2}{\pi}\int_0^t \; \frac{1}{1+x^2}\; dx = \frac{2}{\pi} \left.\arctan x \right|_{0}^t = \frac{2}{\pi} \arctan t. $$ در مورد $n>1$ چطور؟ پیشنهادی دارید؟
بیان برای میانه مجموع متغیرهای تصادفی نیمه کوشی
24593
چه محدوده ای از حجم نمونه احتمال یافتن معنی داری را در مربع کای 2×2 افزایش می دهد؟ بین هنرمندان (36=n) و غیرهنرمندان (20=n) در 2 سطح خلقی (اختلال خفیف یا شدید) با بیش از 5 در هر سلول رابطه معناداری پیدا نکردم.
چه محدوده ای از حجم نمونه احتمال یافتن معنی داری را در مربع کای 3×2 افزایش می دهد؟
72466
در تجربیات و خوانش‌های من، Kaplan-Meier همیشه برای محاسبه بقای افتراقی بین تعداد معینی از گروه‌ها استفاده شده است. با این حال، من به دنبال ارزیابی زمان بهبودی از یک رویداد خاص هستم که با سطوح فعالیت اندازه‌گیری می‌شود. در زمان صفر، همه اساساً «مرده» (غیر متحرک) هستند و با گذشت زمان دوباره تحرک خود را به دست می‌آورند. به نظر می رسد کاپلان مایر منفی است، آیا این امکان پذیر است؟ یا باید به دنبال استراتژی مدلسازی متفاوتی باشم؟
Kaplan Meier - آیا می توانم برای ارزیابی بهبود عملکرد، نه فقط از دست دادن، استفاده کنم؟
72467
من سعی می‌کنم مجموعه‌ای از متغیرهای تصادفی مرتبط علّی را تولید کنم و این کار را با رویکرد مونت کارلو شروع کردم. خط مبنا یک هیستوگرام اندازه گیری شده دو بعدی است که من مقادیر تصادفی را از آن ترسیم می کنم. در مثال‌های عینی من، این متغیرها شتاب $\bf{a}$ و سرعت $\bf{v}$ هستند - بنابراین واضح است که $v_{i+1} = v_{i} + a_i * dt$ باید حفظ شود. رویکرد ساده لوح فعلی من این است: من با مقداری $v_0$ شروع می کنم. سپس یک $a_0$ تصادفی با توجه به احتمال اندازه گیری شده $\bf{a}$ برای مقدار $v_0$ ایجاد می کنم. با استفاده از این $a_0$ می توانم $v_1$ را محاسبه کنم و کل روند دوباره شروع می شود. بنابراین وقتی شتاب‌های ایجاد شده $\bf{a}$ را در سطل‌های $\bf{v}$ بررسی می‌کنم، همه چیز خوب است. اما من بدیهی است که این به هیچ وجه به توزیع حاشیه ای $\bf{v}$ احترام نمی گذارد. من تا حدودی با روش‌های مونت کارلو اولیه آشنا هستم، اگرچه آنطور که ممکن است حدس بزنید فاقد پیش‌زمینه نظری هستم. اگر این دو متغیر با ماتریس همبستگی _just_ به هم متصل شوند، خوب می‌شوم، اما ارتباط علی بین این دو باعث سردرد من می‌شود. من نتوانستم در جایی مثالی برای این نوع مشکل پیدا کنم - ممکن است اصطلاحات اشتباهی را در گوگل جستجو کنم. خوشحال می شوم اگر کسی بتواند به من برخی ادبیات/مثال یا روش امیدوارکننده را برای دستیابی به این موضوع راهنمایی کند. (یا به من بگویید که با توجه به ورودی های من واقعاً امکان پذیر نیست - این چیزی است که من گهگاه حدس می زنم...) **ویرایش:** هدف واقعی کل این روش: من مجموعه ای از اندازه گیری ها را دارم $\bf{a} $ و $\bf{v}$، در یک هیستوگرام دو بعدی $N(a,v)$ نشان داده شده است. با توجه به این ورودی، می‌خواهم مجموعه‌هایی از $\bf{a_r}$ و $\bf{v_r}$ تصادفی ایجاد کنم که توزیع اندازه‌گیری شده را بازتولید می‌کنند.
ایجاد متغیرهای تصادفی وابسته به علی
55271
من به دنبال یک بسته نرم افزاری هستم که بتواند تجزیه و تحلیل پایداری را انجام دهد که توسط: Eberhart, S.A. and W.A. Russell, 1966 انجام شده است. پارامترهای پایداری برای مقایسه واریته ها. Crop Sci., 6: 36-40. یک روش کاملا قدیمی است اما هنوز بسیار مورد استقبال قرار می گیرد. همچنین می‌خواهم آنالیز مدل AMMI را برای آنالیز GxE انجام دهم. آیا بسته نرم افزاری R وجود دارد که بتواند این کار را انجام دهد؟
آیا بسته نرم افزاری R که بتواند GxE و تجزیه و تحلیل پایداری را انجام دهد؟
96774
تاکنون آزمایش‌های خودم برای تطبیق چنین توزیع مخلوطی با داده‌های شبیه‌سازی شده یا واقعی در R ناموفق بوده است (حتی اگر داده‌ها از یک مخلوط t دو جزء شبیه‌سازی شده باشند!!!). من می خواهم همین کار را در متلب امتحان کنم. اما چندین حرفه ای که با آنها صحبت کرده ام می گویند که ممکن است به طور کلی تطبیق چنین توزیعی سخت باشد زیرا دم های سنگین در t دانش آموز و مسطح بودن تابع احتمال در نتیجه حاصل می شود. بنابراین من بسیار علاقه مند خواهم بود اگر هر یک از شما تا به حال توانسته باشد چنین توزیعی را با موفقیت انجام دهد - قبل از اینکه بخواهم همین کار را در matlab، stata، C و ... انجام دهم، همه پارامترها باید تخمین زده شوند (قانون اختلاط، جزء میانگین، انحراف استاندارد مؤلفه (یا به طور متناوب عوامل مقیاس‌پذیر)، درجات آزادی مؤلفه). هر الگوریتم و زبان برنامه نویسی میره! برای مثالی از پارامترسازی مولفه به عنوان مثال مراجعه کنید. اینجا: http://en.wikipedia.org/wiki/Student%27s_t-distribution#Non- standardized_Student.27s_t-distribution پیشاپیش بسیار متشکرم!!!
برازش خودکار یک توزیع مخلوط با دو مولفه t دانش آموزی با مقیاس تک متغیره
22284
در رگرسیون خطی ساده، $t = \frac{\hat\beta_1 - \beta_1}{\hat\sigma \sqrt{S_{xx}}} $ آمار آزمون برای فرض صفر $H_0 است: \beta_1 = 0$ . چگونه می توانم $t^2$ را به عنوان یک توزیع F بیان کنم، یعنی به عنوان نسبت دو متغیر تصادفی مجذور کای مستقل تقسیم بر درجات آزادی مربوطه آنها؟ تا اینجا من $t^2 = \frac{\hat\beta_1^2}{\hat\sigma^2 / S_{xx}}$ از $\beta_1 = 0$ دارم و سپس نشان دادم که مخرج $ \hat\sigma^2 = \frac{\sum (y_i - (\hat\beta_0 + \hat\beta_1x_1)^2 }{n} = \frac{\sum e_i^2}{n}$ یک توزیع خی دو تقسیم بر درجات آزادی آن است، زیرا $e_i$ خطای $i$ است و $e_i$s متغیرهای تصادفی مستقل و معمولاً توزیع شده هستند ایده چگونه نشان دهد که عدد $\hat\beta_1^2 S_{xx}$ نیز یک توزیع مربع کای است... چگونه می توانم این کار را انجام دهم؟
در رگرسیون خطی ساده، چگونه نشان دهم که آماره آزمون مجذور فرضیه صفر دارای توزیع F است؟
55273
من یک رگرسیون خطی چندگانه با چند متغیر مستقل در آن دارم. اکثر آنها در p<0.001 معنی دار هستند. R² این مدل 0.83 است. وقتی متغیرهای بیشتری اضافه می‌کنم، متغیرهای قدیمی و جدید همگی بسیار مهم هستند، اما R² اصلاً بهبود نمی‌یابد. این به من چه می گوید؟
ضریب بسیار معنی دار R² را افزایش نمی دهد
93207
آیا می توان زیر مجموعه های واقعی یک جمعیت را با کل جمعیت واقعی مقایسه و آزمایش کرد؟ یعنی فرض کنید برای یک تیم بیسبال می‌خواهیم بدانیم چه بازیکنانی در درصد پایه تیم سهیم هستند، چه بازیکنانی به آن آسیب می‌زنند، و کدام بازیکنان با نرخی غیرقابل تشخیص از تیم عمل می‌کنند؟ ما تعداد واقعی فرصت‌ها را برای تیم داریم و تعداد واقعی دفعاتی که یک نفر به پایه رسیده است، و سپس همه بازیکنان و همه فرصت‌ها و موفقیت‌های آنها را داریم. هر بازیکن (و امتیاز) زیرمجموعه ای از تیم (و نرخ کلی آن) است. آیا با مقایسه هر بازیکن با تیم به سادگی یک مربع کای انجام می شود؟ آیا ابتدا باید اعداد آن بازیکن را از تیم کم کرد تا بازیکن را با سایر اعضای تیم مقایسه کرد؟ یا، همانطور که ساده تر است، آیا می توان هر بازیکن را با تیم (از جمله آن بازیکن) مقایسه کرد؟ آیا راه بهتری برای اجرای این نوع تحلیل وجود دارد تا به این سوال پاسخ دهیم که کدام زیرمجموعه به عملکرد جمعیت کمک می کند و کدامیک به عملکرد جمعیت آسیب می زند؟ با تشکر از شما برای هر گونه کمک در این مورد!
مقایسه زیر مجموعه ای از جمعیت با کل جمعیت؟
73596
من از معیارهای گلمن و روبین یا گیوکه استفاده می کنم. با این حال، آنها برای نمونه برداری از توزیع چند وجهی، مثلا p(x) قابل استفاده نیستند، زیرا یک زنجیره می تواند در حالت محلی گیر کند. در چنین مواردی، زنجیره ثابت به نظر می رسد و دو معیار همگرایی نتیجه بدی را به همراه خواهد داشت که خاتمه نمونه گیری بی خطر است، در واقع اینطور نیست. هنگامی که من به مشکلات اسباب بازی رسیدگی، من اولین یا دومین لحظه از توزیع هدف شناخته شده است. فاصله بین مقدار و تقریب آن با استفاده از زنجیره مربوطه به عنوان یک معیار همگرایی استفاده شد، اما عملا قابل اجرا نیست. آیا معیار همگرایی MCMC وجود دارد که از توزیع های هدف استفاده کند؟
بهترین معیار همگرایی MCMC چیست؟
63959
من دو ماتریس دارم، هر دو 46175 * 741 (ردیف متغیرها بر اساس ستون افراد/مشاهدات). ماتریس A شامل یک متغیر طبقه بندی شده (شاید وابسته) است (0/1/2 یا NA) و ماتریس B پیوسته و مستقل است (از 0 تا زوج 100). می خواهم ببینم آیا رابطه ای بین این داده ها وجود دارد یا خیر. اولا، آیا من فکر می کنم که LDA در R یک روش معتبر برای آزمایش این است؟ اگر بله، دقیقاً چگونه این را اجرا کنم؟ z <- lda(data= MatrixA, x= MatrixB, grouping=MatrixB) نزدیکترین چیزی است که من دریافت کرده ام، اما کار نمی کند. دریافت می کنم: z <- lda(data= MatrixA , x= MatrixB, grouping=MatrixB) خطا در lda.default(x, grouping, ...) : nrow(x) و length(grouping) متفاوت هستند قطعه داده: Matrix ------------------------- SampleA SampleB SampleC NA 0 1 NA NA NA 1 2 0 0 0 0 ماتریس B ----------------------- SampleA SampleB SampleC 0 0 0 83 124 56 39 45 5 12714 12477 8751 ماتریس ها حاوی داده هایی در مورد افراد مشابه، به ترتیب ستون ها و ردیف ها ماتریس A حاوی ژنوتیپ ها (اطلاعات ژنتیکی) است که یا 0/1/2 است یا نمی توان به دست آورد (NA). MatrixB تعداد خوانش هایی است که با آن منطقه تراز شده است. بنابراین صفر در این با صفر در MatrixA یکسان نیست و بیشتر شبیه NA آن است.
تحلیل تفکیک خطی در R
24595
من در حال حاضر با کسی بحث می کنم که چگونه داده ها را با اندازه گیری های متعدد برای هر موضوع به درستی درمان کنم. در این مورد داده ها برای هر موضوع در مدت زمان کوتاهی برای شرایط مختلف هر موضوع جمع آوری شد. همه اندازه‌گیری‌ها دقیقاً یک متغیر را جمع‌آوری می‌کنند، فقط چندتایی. اکنون یک گزینه این است که داده ها را بر اساس شرایط گروه بندی کنید و اهمیتی ندهید که چندین نقطه داده از یک موضوع می آیند. با این حال، نقاط داده از هر موضوع احتمالاً کاملاً مستقل نیستند. گزینه دیگر این است که ابتدا میانگین تمام اندازه گیری ها را برای هر شرط از هر موضوع گرفته و سپس میانگین ها را با هم مقایسه کنید. با این حال، این احتمالاً بر اهمیت تأثیر می گذارد، زیرا در تحلیل نهایی در نظر گرفته نشده است که میانگین ها خطای کمتری دارند. چگونه می توانید چنین داده هایی را به درستی تجزیه و تحلیل کنید؟ آیا این به نوعی در SPSS رعایت شده است؟ در اصل باید بتوان حاشیه خطا را هنگام محاسبه میانگین محاسبه کرد و آن را در تحلیل نهایی در نظر گرفت، اما من حدس نمی‌زنم که SPSS به نوعی این محاسبه را پشت سر من انجام می‌دهد.
نحوه برخورد صحیح چندین نقطه داده در هر موضوع
22285
این یک سوال تکلیفی است، اما من علاقه ای به پاسخ ندارم. سوال این است: > دانش آموزی برای امتحان آینده آماده می شود. استاد دوره > 30 سوال برای مطالعه به کلاس داده است و قصد دارد 10 سوال از > را برای استفاده در امتحان واقعی انتخاب کند. فرض کنید دانش آموز می داند که چگونه 25 سوال از 30 سوال را حل کند. > > الف) احتمال اینکه دانش آموز در آزمون کامل شود چقدر است؟ > > ب) احتمال اینکه دانش آموز حداقل 8 سوال > صحیح را در آزمون بگیرد چقدر است؟ بنابراین بگذارید رویداد A رویدادی باشد که یک سوال در آزمون قرار می گیرد و B رویدادی باشد که من می دانم چگونه به آن پاسخ دهم. بنابراین P(A) = 10/30 و P(B) = 25/30 اکنون احتمال اینکه یک سوال در آزمون باشد و من می دانم چگونه آن را حل کنم P(AandB) = (10/30)*(25/) است. 30). آیا این درست است؟ اگر نه چرا؟ همچنین لطفاً مطمئن شوید که چگونه به درستی نشان می دهید که چگونه می توانید به راحتی ادعا کنید که احتمال درست گرفتن کمتر از 5 سؤال صفر است زیرا اگر تصادفاً 5 سؤال از سؤالات توسط استاد انتخاب شده باشد که پنج سؤال را من نمی دانم حل کنید، من هنوز می دانم چگونه 25 سوال باقی مانده را حل کنم. با تشکر از کمک شما.
احتمال اینکه یک نمونه تصادفی دارای عناصر خاصی باشد
50042
در ابتدا، من باید از اصطلاحات نامرتب خود عذر خواهی کنم، زیرا در کل موضوع کاملاً تازه کار هستم. یک فضای فاز دو بعدی واقعی را تصور کنید که ویژگی های مرتبط با آب و هوا را نشان می دهد. من مجموعه‌ای از N متغیر از یک توزیع دو متغیره دلخواه دارم که این ویژگی‌ها را در منطقه A در دهه 1950 نشان می‌دهد. و من مجموعه دیگری از N متغیر از توزیع دلخواه دیگری دارم (که البته باید کاملاً شبیه اولین باشد) که این خصوصیات را در همان منطقه در دهه 1990 نشان می دهد. چیزی که می خواهم بررسی کنم شباهت یا واگرایی است. و همچنین اگر مجموعه سومی از نقاط که من از منطقه B دارم، بیشتر شبیه به منطقه A در دهه 1990 باشد، منطقه A به خودش در دهه 1950 است. امیدوارم به چیزی که میخوام برسی؟
یافتن اندازه گیری فاصله / واگرایی / شباهت مناسب در یک فضای فاز دو بعدی واقعی
24623
من اخیراً از الگوریتم Lasso مطلع شدم و متوجه شدم که بسته glmnet می تواند برای حل آن استفاده شود. (من بسته glmnet را روی R دارم). اگر یک ماتریس $A$ و یک بردار $y$ داشته باشم چگونه می توانم مشکل کمند کوچک کردن $\|y-Ax\| را حل کنم. + \lambda \|x\|_1$؟ همچنین، چگونه می توانم مشکل محدود را حل کنم: $\|y-Ax\|$ s.t را به حداقل برسانم. $\|x\|_1 \leq t$؟ هر گونه کمک بسیار قدردانی می شود. با تشکر
استفاده از glmnet برای حل مشکل LASSO
34613
بنابراین از من سؤالی پرسیده شد که بر اساس کدام معیارهای مرکزی L1 (یعنی کمند) و L2 (یعنی رگرسیون خط الراس) تخمین زده می شود. پاسخ L1=میانگین و L2=میانگین است. آیا هیچ نوع استدلال شهودی برای این وجود دارد؟ یا باید جبری تعیین کرد؟ اگر چنین است، چگونه می توانم این کار را انجام دهم؟
رگرسیون L1 میانگین را تخمین می زند در حالی که تخمین رگرسیون L2 میانگین را برآورد می کند؟
73598
من یک مدل رگرسیون چندگانه دارم که در آن نزدیک به 20 متغیر مستقل دارم. این متغیرها به طور متوسط ​​با یکدیگر همبستگی دارند (به عنوان مثال، حداکثر VIF حدود 4 است که اکثر آنها در 2s هستند). یکی از ضرایب از نظر آماری معنادار است و زمانی منفی است که من انتظار داشتم مثبت باشد. من می دانم که علائم اشتباه می تواند به دلایل مختلفی مانند چند خطی بودن، داده های از دست رفته، متغیرهای حذف شده و غیره باشد، اما نمی دانم که آیا توضیح ساده تری برای علامت اشتباه وجود دارد. تفسیر معمول ضرایب این است که وقتی متغیر مستقل را با 1 واحد تغییر می دهیم و هر چیز دیگری را ثابت نگه می داریم، تأثیر روی متغیر وابسته را نشان می دهد. با این حال، تفسیر فوق تنها در صورتی دقیق است که متغیرهای مستقل کاملاً با یکدیگر همبستگی نداشته باشند. در صورت وجود همبستگی متوسط ​​بین متغیرهای مستقل، وقتی یکی از آنها را 1 واحد افزایش می‌دهیم، بقیه نیز به میزان متوسطی (بسته به علامت همبستگی) بالا/پایین می‌روند و از این رو تنها راه پیش‌بینی است. تأثیر تغییر واحد یک متغیر مستقل، ارزیابی تأثیر آن بر سایر متغیرهای مستقل و سپس ارزیابی تأثیر کلی بر متغیر وابسته است. وقتی چنین تحلیلی را انجام می‌دهیم، به خوبی می‌توانیم متوجه شویم که علامت اشتباه مشکلی نیست زیرا افزایش آن متغیر به میزان 1 واحد ممکن است منجر به افزایش متغیر وابسته از طریق تغییرات در سایر متغیرهای مستقل در مدل شود. آیا توضیحات بالا منطقی است یا چیزی را از دست داده ام؟
تفسیر ضرایب رگرسیون در حضور همبستگی متوسط
11703
مثال آسان زیر را از رگرسیون glm با افست فرض کنید: numberofdrugs<-rpois(84,10) Healthvalue<-rpois(84,75) سن<-rnorm(84,50,5) test<-glm(Healthvalue~ سن , خانواده = سم، افست = ورود (تعداد داروها)) خلاصه (تست) برازش (آزمون) #چگونه یکی را دریافت کنیم از این مقادیر به صورت دستی؟ * چگونه می توانم مقادیر برازش شده را به صورت دستی محاسبه کنم؟ * همچنین، چرا تخمینی از log (تعداد داروها) وجود ندارد؟ * در کتاب _Generalized Linear Models_ در صفحه 205-207 مثالی وجود دارد که افست تخمین زده شده است. برای اینکه ببینیم ضریب به یک نزدیک است یا خیر انجام شد. این 0.903 است (اگر این کتاب کلاسیک را دارید به صفحه 207 مراجعه کنید) و از این پس، تقریباً یک نرخ ثابت در تعداد حوادث آسیب وجود دارد! سوالات مرتبط قبلی پرسیده شد: * چه زمانی از افست استفاده کنیم؟ * آیا هنگام پیش‌بینی امتیازات هاکی از افست استفاده کنیم؟
چگونه یک افست را در رگرسیون پواسون به درستی تخمین و تفسیر کنیم؟
94515
وقتی از مدلی استفاده می‌کنم که توزیع خاصی از داده‌ها را در نظر می‌گیرد، در مورد اینکه چقدر باید به طور جدی این فرض را بررسی کنم گیج می‌شوم. برای مثال، اگر از برخی آزمون‌های آماری (مثلاً بر اساس p-value) برای اعتبارسنجی استفاده کنیم، فکر می‌کنم اگر حجم نمونه بزرگ است، تقریباً همیشه باید null را رد کنیم. برای مثال، مهم نیست که اندازه برخی از موجودات چقدر از توزیع نرمال پیروی می کند، به دلایل مختلف توزیع نرمال نیست (به عنوان مثال، نمی تواند یک مقدار منفی باشد؛ مقادیر اندازه گیری شده هرگز واقعاً پیوسته نیستند زیرا دقت ابزار اندازه گیری و غیره). می خواهم بدانم نگرش صحیح برای اعتبار سنجی مفروضات پارامتریک چیست؟
اعتبار سنجی توزیع های فرضی در مدل های پارامتری
94514
صفحه ویکی‌پدیا برخی از سناریوها را فهرست می‌کند: > اگرچه هر دو معیار مفید هستند، اما کاربردهای آماری متفاوتی دارند. در > تحقیقات پزشکی، نسبت شانس معمولاً برای مطالعات مورد-شاهدی استفاده می شود، > به عنوان شانس، اما نه احتمال، معمولاً تخمین زده می شود. خطر نسبی معمولاً در کارآزمایی‌های تصادفی‌سازی و کنترل‌شده و مطالعات کوهورت استفاده می‌شود. هنگامی که > بروز پیامدها در جمعیت مورد مطالعه نادر است (به طور کلی > به معنای کمتر از 10٪ تفسیر می شود)، نسبت شانس به عنوان یک > تخمین خوب از نسبت خطر در نظر گرفته می شود. با این حال، با رایج‌تر شدن نتایج، نسبت شانس و نسبت ریسک واگرا می‌شوند، با نسبت شانس بیش از حد برآورد یا کمتر از برآورد نسبت ریسک زمانی که برآوردها به ترتیب بیشتر یا کمتر از 1 هستند. وقتی تخمین‌هایی از بروز پیامدها در دسترس است، روش‌هایی برای تبدیل نسبت‌های شانس به نسبت‌های ریسک وجود دارد. با این حال، توضیح نمی دهد که چرا از نسبت های ریسک در برخی زمینه ها و نسبت های شانس در برخی دیگر استفاده می شود.
وقتی به ارتباط بین متغیرهای باینری نگاه می کنیم، چه زمانی نسبت شانس بهتر از نسبت ریسک است و بالعکس؟
50041
من یک آمارگیر اصلی نیستم، اما سعی کرده‌ام چند کتاب بخوانم و موضوع را بفهمم. من روی پروژه ای کار می کنم که باید از نمونه انتخاب هکمن استفاده کنم. مشکل من این است که نمی توانم بفهمم این مدل چگونه کار می کند. اگر مثالی در اکسل دریافت کنم، درک این موضوع برای من بسیار مفید خواهد بود. من در گوگل سرچ کردم اما به سایتی برخورد نکردم که گام به گام توضیح داده شود و چگونه باید تفسیر شود. اگر کسی مرا راهنمایی کند که چگونه از این مدل استفاده کنم بسیار سپاسگزار خواهم بود.
مدل انتخاب هکمن
23484
من به چند روش اساسی برای اندازه‌گیری پیچیدگی شبکه‌های عصبی برخورد کرده‌ام: * ساده‌لوح و غیررسمی: شمارش تعداد نورون‌ها، نورون‌های پنهان، لایه‌ها یا لایه‌های پنهان * بعد VC (Eduardo D. Sontag [1998] بعد VC of شبکه های عصبی [pdf].) * یک دوره پیچیدگی محاسباتی مجانبی و دانه بندی شده با معادل TC^0_d$. آیا جایگزین های دیگری وجود دارد؟ ترجیح داده می شود: * اگر بتوان از متریک پیچیدگی برای اندازه گیری شبکه های عصبی از پارادایم های مختلف (برای اندازه گیری پشتیبان، شبکه های عصبی دینامیک، همبستگی آبشاری و غیره) در یک مقیاس استفاده کرد. به عنوان مثال، بعد VC را می توان برای انواع مختلف در شبکه ها (یا حتی چیزهایی غیر از شبکه های عصبی) استفاده کرد، در حالی که تعداد نورون ها فقط بین مدل های بسیار خاص که عملکرد فعال سازی، سیگنال ها (مجموع پایه در مقابل اسپک ها) و موارد دیگر مفید است. ویژگی های شبکه یکسان است. * اگر مطابقت خوبی با معیارهای استاندارد پیچیدگی توابع قابل یادگیری توسط شبکه دارد * اگر به راحتی می توان متریک را در شبکه های خاص محاسبه کرد (البته این مورد آخر ضروری نیست.) ### یادداشت ها این سوال بر اساس یک سوال کلی تر در CogSci.SE.
جایگزین های بعد VC برای اندازه گیری پیچیدگی شبکه های عصبی چیست؟
92613
در مورد آزمایش فرضیه‌های مربوط به میانگین $\mu$ یک جمعیت واحد، من چیزهایی مانند تست $t$ تک نمونه را می‌دانم که در آن یک فرضیه صفر وجود دارد: $H_0: \mu = \mu_0$، و یک آمار آزمون $. t = \frac{\bar{x} - \mu_0}{s/\sqrt{n}}$ برای تصمیم گیری در مورد رد یا پذیرش فرضیه صفر استفاده می شود. من با مفهوم آزمون نسبت درستنمایی مواجه شدم که در آن آزمون بر اساس چیزی شبیه $$\lambda(\textbf{x})=\frac{\sup_{\Theta_0}L(\theta|x)}{\sup_{\ است. Theta}L(\theta|x)}$$ این آزمون نسبت درستنمایی چگونه با آزمون یک نمونه $t$ مقایسه می شود یا مرتبط است. بدیهی است که آزمون $t$ که من ذکر کردم در مورد ابزار است و LRT چیزی در مورد پرداختن به ابزارها نمی گوید. بنابراین خارج از پرداختن به معنی مقایسه این دو معنی ندارد. اما آیا این به این معنی است که وقتی برای آزمایش ابزاری باید از تست $t$ استفاده کنم و خارج از معامله با LRT مرتبط می شود؟ بنابراین LRT در همان زمینه برخورد با ابزاری که آزمون $t$ با آن سروکار دارد، چه خواهد بود؟
آزمون t تک نمونه ای و آزمون نسبت احتمال
18911
این سوالی است که از سوال قبلی من ایجاد شد. اساساً من سعی می کنم یک مدل پیش بینی برای امتیاز فیلم بسازم. بنابراین من باید در مجموعه داده‌هایم با ویژگی‌های عددی مانند actor_id، director_id، budget و غیره سر و کار داشته باشم. بنابراین سوال من این است که چگونه باید با آن ویژگی ها برای طبقه بندی خود برخورد کنم.
چگونه با اطلاعات با طول متغیر برخورد کنیم؟
38961
برابری زیر به ما داده می شود: $B(k;n,p)=B(k;n+1,p) + pb(k;n,p)$ که $B$ cdf دو جمله ای است، $b$ برابر است pdf دو جمله ای، $n$ تعداد آزمایشات و $p$ احتمال موفقیت است. چگونه می توانیم این برابری را با استفاده از یک تفسیر احتمالی، بدون استفاده از هیچ جبری نشان دهیم؟
شهود پشت نتیجه برای دوجمله ای
73599
من سعی می کنم پارامترهای یک متغیر توزیع شده پارتو را در R محاسبه کنم. من از مدل زیر استفاده می کنم: form = rank~bet*(downloads)^(-alp)+eps که به طور گسترده در ادبیات برای محاسبه استفاده می شود. تخمینی برای «رتبه»، با توجه به تعدادی فروش (یا «دانلود» در این مورد). من 39 مشاهده برای «رتبه» و «دانلود» دارم، اما وقتی از دستور «nls» در «R» استفاده می‌کنم، خطای زیر را دریافت می‌کنم: «ماتریس گرادیان منفرد در تخمین‌های پارامتر اولیه»». کسی میدونه چطوری میتونم این مشکل رو حل کنم؟ داده ها: دانلودها 421 190 143 115 64 46 776 949 854 776 776 597 609 537 535 548 568 616 500 83 42 40 81 1047 1047 1047 9 10 13 11 11 11 12 8 رتبه 216 237 271 311 394 416 126 93 90 94 99 121 114 103 101 96 103 106 1024 474 103 518 485 479 695 679 628 480 632 917 611 923 767 596 633 844
نحوه محاسبه پارامترهای پارتو
77658
فرض کنید $X$ یک متغیر تصادفی است، پس درست است که بگوییم $$ E \left[g \left(X_i \right) \right] = E\left[g \left(X_j \right) \right] $ دلار اگر چنین است، چرا چنین است؟ خیلی ممنون
انتظار تابعی از یک متغیر تصادفی
38967
من خوانده‌ام که وقتی توزیع نمونه‌ها از حالت نرمال خارج می‌شوند، آزمون t به طور معقولی قوی است. البته، این توزیع نمونه از تفاوت ها است که مهم است. من برای دو گروه اطلاعات دارم. یکی از گروه ها به شدت به متغیر وابسته گرایش دارد. حجم نمونه برای هر دو گروه بسیار کوچک است (33 نفر در یکی و 45 نفر در گروه دیگر). آیا باید فرض کنم که تحت این شرایط، آزمون t من در برابر نقض فرض نرمال بودن قوی خواهد بود؟
وقتی توزیع نمونه‌ها غیرعادی هستند، آزمون t نمونه‌های مستقل چقدر قوی است؟
73335
من سعی می کنم روی مشکلی کار کنم که حاوی نمادی است که به خاطر ندارم قبلاً آن را دیده باشم - _I_. فکر می‌کنم اهمیت ویژه‌ای دارد، اما برای جستجوی آن مشکل دارم. بخش مربوط به مسئله: نمونه تصادفی X1، ...Xn را از pdf در نظر بگیرید f(x; θ) = 0.5(1 + θx) _I_ [-1,1](x) اگر کمک کند، زمینه مشکل تخمین نقطه ای است.
من در این زمینه چه چیزی را نشان می دهد؟
32615
من به تازگی شروع به کار بر روی مدل‌های گرافیکی کرده‌ام، به‌ویژه در شبکه پواسون مارکوف، که با توزیع‌های شرطی مانند این مشخص می‌شود: $$p\left ( X_{j} |X_{k}=x_{k},\ forall k\neq j,\Theta \right )\sim Poisson\left ( e^{\theta _{j}+\sum _{j\neq k}\theta _{kj}x_{k}} \right )$$ اگر مقدار مشخصی از $ \theta$ داشته باشم، آیا حق دارم نمونه داده را از آن شبکه توسط نمونه‌گر گیبس دریافت کنم؟ به نظر می رسد انجام این کار درست است، اما من نتایج عجیبی را در استفاده بیشتر از داده های شبیه سازی شده به دست آوردم.
نمونه برداری از مدل گرافیکی
93202
من از درخت تصمیم و جنگل تصادفی برای مشکل طبقه بندی استفاده می کنم. خروجی باینری {0،1} است و برخی از متغیرهای ورودی دسته‌بندی و بقیه پیوسته هستند. می خواهم بدانم آیا می توان نسبت شانس را از یکی از این مدل ها استخراج کرد؟ نسبت شانس مشابه آنهایی است که معمولاً با استفاده از رگرسیون لجستیک به دست می آیند. من از R با بسته «rpart» و «randomforest» استفاده می‌کنم، بنابراین بهترین پاسخ یک توضیح تئوری و یک کد R است. با تشکر
نسبت شانس از درخت تصمیم و جنگل تصادفی
24624
من با ارسال این سوال در اینجا احتمالاً چندین قانون را زیر پا می گذارم ، اما واقعاً می خواهم پاسخ این سؤال را پیدا کنم و بعد از چندین ساعت جستجو ، به نظر می رسد به جایی نمی رسم. من قبلاً این سؤال را در StackOverflow ارسال کردم و هیچ پاسخی دریافت نکردم (حدس من این است که 90٪ از کاربران R اینجا هستند و 80٪ از آنها StackOverflow را دنبال نمی کنند). در اینجا هم سوال را تکرار می کنم تا مجبور نباشید برای پاسخگویی در آنجا وارد شوید. من بسیار قدردان هر کمکی خواهم بود. من سعی می کنم دسته ای از مناطق ROC را برای مجموعه داده های مختلف و الگوریتم های مختلف ترسیم کنم. من سه متغیر دارم: Scheme که الگوریتم مورد استفاده را مشخص می کند، Dataset مجموعه داده ای است که الگوریتم روی آن آزمایش می شود و Area_under_ROC. من از کتابخانه شبکه در R با دستور زیر استفاده می کنم: dotplot(Scheme ~ Area_under_ROC | Dataset, data = simulationSummary, layout = c(4,6)) و این چیزی است که دریافت می کنم: dotplot of Scheme در مقابل Area_under_ROC، شرطی در مجموعه داده آنچه من می خواهم بدانم این است که * چگونه می توان برچسب ها را در محور y ساخت قابل خواندن؟ در حال حاضر، همه آنها به هم فشرده شده اند. * چگونه می توانم پانل را دوباره مرتب کنم به گونه ای که مجموعه داده های علامت گذاری شده با 100 به جای ستون دوم، ستون آخر را تشکیل دهند، اما بقیه ستون ها ثابت بمانند؟ من بسیار قدردان هر گونه نظر یا اشاره خواهم بود. با تشکر فراوان
تنظیم دقیق یک نقطه نقطه در بسته شبکه R
22280
آیا کسی می داند که آیا R نوسانات را به صورت یک عدد محاسبه می کند یا مستقیماً در مقدار درصد؟ و تاریخی؟ به عنوان مثال خروجی من برای نوسانات ضمنی در حدود 1.58 است. آیا به این معنی است که دارایی دارای نوسانات ضمنی 1.58٪ یا 158٪ است؟ پیشاپیش برای کمک متشکریم
نوسانات ضمنی در نرم افزار R
38962
من می‌دانم که جفریز قبلی تحت پارامترسازی مجدد ثابت است. با این حال، چیزی که من نمی فهمم این است که چرا این ویژگی مورد نظر است. چرا نمی خواهید قبل از تغییر متغیرها تغییر کند؟
چرا Jeffreys قبلی مفید است؟
86894
من یک رگرسیون خطی چندگانه با 2 پیش بینی انجام داده ام. برای اینکه ببینم پیش بینی من چقدر خوب است، می توانم یک مطالعه اعتبارسنجی متقاطع انجام دهم. اما می‌خواستم بدانم آیا اعتبارسنجی متقاطع درست می‌شود، زیرا حجم نمونه من بسیار کوچک است (N=22 کشور اروپایی). فکر می‌کنم می‌توانم با LOOCV (تایید متقاطع ترک یک خارج) ادامه دهم. برای تحلیل رگرسیون خطی، LOOCV همان PRESS است. من می دانم که PRESS برای مقایسه مدل ها بین خودشان مفید است. در مورد من، من فقط یک رگرسیون خطی چندگانه با حجم نمونه بسیار کوچک دارم (n=22 کشور). 1 متغیر پاسخ و 2 پیش بینی کننده و می خواهم بدانم آیا مدل من از نظر پیش بینی خوب است یا خیر. R-squared چیزی در مورد پیش بینی به من نمی گوید. چگونه می توانم بدانم که آیا مدل من برای پیش بینی مناسب است؟ برای آن، من می توانم از LOOCV استفاده کنم نه؟ یا LOOCV برای مقایسه مدل ها بین خودشان مفید است؟ چگونه می توانم بدانم که آیا مدل من برای پیش بینی مناسب است؟ با تشکر از کمک شما،
آیا LOOCV مفید است؟
103209
من روی برخی مشکلات مربوط به پیش‌بینی ارزش‌های آینده کار می‌کنم. من باید در مقطعی در آینده یک مجموع جمع‌آوری کنم. سوال من این است: بهترین راه برای پیش بینی ارزش های آینده چیست؟ اول، می خواهم اشاره کنم که ده ها هزار نقطه مختلف وجود دارد، بنابراین من قصد دارم از بسته های plyr یا dplyr استفاده کنم. دو راه برای انجام این کار رفته ام: 1. پیش بینی سری های زمانی 2. رگرسیون خطی همچنین، قبل از اینکه کسی بپرد و بگوید شما نمی توانید برون یابی را با رگرسیون خطی انجام دهید! من آن و دلایل مشکل را درک می کنم. اما، در مثال زیر، چرا ممکن است مشکل باشد؟ در اینجا نمونه ای از داده هایی است که من ساخته ام که برخی از داده ها را تقلید می کند. مقادیر x ماه هستند. y=c(100,90,70,20,15,11,19,17,10,10,12,14,13,14,11,10,9,7,5,1,0,1,0, 0) x=1:طول(y) نمودار(y~x) نمودار(cumsum(y)~x) نمودار(پیش بینی(csy.ts، h=60)) plot(پیش بینی(y.ts، h=60)) plot(cumsum(y)~log(x)) y.ts=ts(y,f=12,s=1) csy.ts=ts(cumsum(y ),f=12,s=1) # من خودسرانه 5 سال دیگر را برای پیش بینی انتخاب کردم y.ts_fcast=forecast(y.ts,60)$mean fcast_total=cumsum(c(y,y.ts_fcast)) max(fcast_total) # می دهد 459 csy.ts_fcast=forecast(csy.ts,60)$mean csy.ts_fcast[60] # می دهد 457 fit=lm(cumsum(y )~log(x)) fit$coef[2]*log(84)+fit$coef[1] # می دهد 616 به طور شهودی منطقی است که 459 باید تقریباً عدد مناسبی باشد. با این حال، چرا رگرسیون اشتباه است؟ با توجه به نکته بالا که برون یابی مشکلی با رگرسیون است، درک من این است که معمولاً یک مشکل است زیرا ممکن است یک افت غافلگیرکننده در داده ها در محدوده برون یابی شده وجود داشته باشد که در مجموعه آموزشی وجود ندارد. با این حال، داده cumsum(y) شبیه یک منحنی لگاریتمی واقعاً خوب به نظر می رسد (همچنین همیشه در حال افزایش است) بنابراین من نگران هیچ افت نیستم (حتی یک سنبله نادر به نظر می رسد، و حتی اگر افزایش پیدا کند، جزئی خواهد بود. درصد داده‌های cumsum(y) و مانند چنین نقطه‌ای به نظر نمی‌رسد). هنگام تایپ این پست اتفاقی دیدم که پست دیگری در مورد نقض استقلال ذکر شده بود که به احتمال زیاد یکی از مسائل اینجاست. من فقط مطمئن نیستم چرا.
پیش‌بینی سری‌های زمانی در مقابل برون‌یابی رگرسیون خطی
24625
بنابراین، با توجه به اینکه نمی‌دانم چند حالت داده‌های من را «تولید» کرده‌اند، به دنبال روش‌هایی برای انتخاب بهترین تعداد حالت‌های پنهان برای یک مدل مارکوف پنهان هستم. یکی از روش‌هایی که من زیاد دیده‌ام این است که مدل‌های زیادی را با تعداد حالت‌های مختلف یاد بگیرم و سپس BIC را روی آنها انجام دهیم. روش دیگر این است که یک فرآیند دیریکله (که من چیزی در مورد آن نمی دانم) روی تعداد حالت ها قرار دهید و وضعیت های بعدی را یاد بگیرید. بنابراین، چرا به دست آوردن حالت های بعدی در مقایسه با استفاده از BIC ارزش هزینه و زمان دارد؟ آیا از این طریق اطلاعات بیشتری کسب می کنم؟ فقط سعی می کنم بفهمم آیا ارزشش را دارد یا خیر، تلاش برای ساختن یک HMM با یک DP در کار من
معیار کامل اطلاعات خلفی در مقابل بیزی برای انتخاب تعداد حالت های HMM
22283
در اینجا یک سوال احتمال وجود دارد (احتمالاً واقعاً ساده) من مطمئن نیستم چگونه حل کنم: توزیع گاما $X\sim \mathcal{G}(\alpha,\beta)$ با $\mu = 20$ و $\sigma^2 = 80$ $P(X \le 24)$ = ? سوال قبلی پیدا کردن مقادیر $\alpha$ و $\beta$ بود که با استفاده از $\mu$ = $\alpha$$\beta$ و $\sigma^2$ = $\alpha$$\beta انجام دادم. ^ 2 دلار برای cdf توزیع گاما، کتاب درسی من می گوید $P(X \le x) = F(x; \alpha، \beta) = F(x / \beta; \alpha,1)$ که در آن $F(x / \beta \alpha,1)$ توزیع استاندارد گامای cdf است $$ F(x;\alpha,1) = \frac{1}{\Gamma(\alpha)}\int_0^x {y^{\alpha-1}e^{-y}} \text{d}y $$ برای ادغام آن، به نظر می‌رسد باید از قانون زنجیره استفاده کنم، اما استاد ما هرگز مثالی انجام نداد. آیا روش میانبر وجود دارد؟ ما هرگز از یکپارچه سازی در یک مثال واقعی استفاده نکرده ایم، فقط برای تعریف pdf و دریافت cdf برای توزیع های مختلف. **ویرایش** مثال‌های کتاب درسی من که شامل مسائل توزیع گامای استاندارد است، می‌گوید که مقادیر $F(x;\alpha)$ را در جدول A.4 پیوست جستجو کنید. وقتی نگاه کردم، جدول A.4 وجود نداشت، که واقعاً من را ناامید کرد. آیا جداول استاندارد توزیع گاما به صورت آنلاین وجود دارد که بتوانم آن را چاپ کنم و با تکلیف تحویل دهم؟ Wolfram Alpha رو چک کردم ولی نداشتن. Casio چیزی دارد، اما من مطمئن نیستم که پارامترهای شکل و مقیاس چیست. **ویرایش 2** آن جدول را پیدا کردم. در جلوی کتاب، جدول A.5 درست بعد از A.3 آمده است، به همین دلیل فکر کردم A.4 گم شده است. من به کتابخانه رفتم تا ببینم آیا آنها همان کتاب درسی را دارند یا خیر. آنها این کار را کردند، و یک نفر عقل سلیم داشت (که من نداشتم) به پشت کتاب نگاه کند، و آنجا بود. کمک بیشتری لازم نیست.
سردرگمی در مورد توزیع گاما CDF
93561
من X پیش‌بینی‌کننده احتمالی برای پاسخ دارم Y. در مورد من X >> Y. در اجراهای خود از cv.glmnet (ترک کردن و همه پارامترهای پیش‌فرض دیگر) متوجه شده‌ام که اگر سعی کنم با استفاده از lambda.min پیش‌بینی کنم که به سادگی مقدار میانگین Y را برمی گرداند. اگر پیش بینی را با گزینه های lambda < lambda.min اجرا کنم، پیش بینی های واقعی را ارائه می دهد - که خطای کمتری نسبت به استفاده از مقدار میانگین دارند. ی. من مطمئن نیستم اینجا چه خبر است. گویی کد به دلایلی روی پیش‌بینی‌کننده ساختگی (پاسخ میانگین) پیش‌فرض است. به نظر می رسد که این رفتار تابعی به اندازه X است. در اینجا یک مثال ساده وجود دارد: x=replicate(100,rnorm(10)) y=replicate(1,rnorm(10)) cvfit=cv.glmnet(x,y ,nfolds=10) ypred1=predict(cvfit,newx=x,s=lambda.min) (در موردی که من تازه اجرا کردم، این یک `cvfit$lambda.min = 0.8453387` به دست می دهد و همه ورودی ها در ypred1 مقدار میانگین y هستند، بنابراین، بیایید یک لامبدا متفاوت انتخاب کنیم. (ypred1-y)^2) = 1.20 mse2=mean((ypred2-y)^2) = 0.03 می‌دانم که newx=x برای هیچ کار واقعی معنی ندارد، اما نمی‌دانم چرا پیش‌بینی‌هایی را که انجام می‌دهد برمی‌گرداند.
چرا cv.glmnet یک lambda.min می دهد که به وضوح لامبدا برای حداقل خطا نیست؟
28449
من کدی را برای محاسبه حدود اطمینان پواسون نوشته ام (الف) با استفاده از مجذور کای، و (ب) از اصول اولیه، با استفاده از معادله تابع جرم احتمال پواسون. با این حال، دو مجموعه از نتایج با هم موافق نیستند. به عنوان مثال، برای لامبدا = 10 و 95٪ حدود اطمینان، من: 95٪: مجذور چی [4.80, 18.39] دقیق [3، 17] اختلاف برای محدودیت های اطمینان گسترده تر است: 3 سیگما: مجذور کای [3.08، 23.64 ] دقیق [1، 21] توجه داشته باشید که نتیجه «دقیق» من اولین k _خارج_ را نشان می دهد محدودیت های اطمینان (به عبارت دیگر، محدوده [4،16] کاملاً در محدوده 95٪ است). نتیجه 95% مربع Chi من در بالا با چندین ماشین حساب محدود پواسون آنلاین موافق است. برای مثال Statpages [4.80، 18.39] را نیز می دهد. با این حال، نتیجه دقیق نیز درست به نظر می رسد. برای 95٪، ماشین حساب آنلاین در Stattrek به نظر می‌رسد که نتایجی مشابه من دارد [3،17]. به طور دقیق تر، در اینجا احتمال تجمعی برای لامبدا=10 از جدولی در اینجا آورده شده است: 0 - 2 رویداد: ناچیز 3 1.0% 4 2.9% ... 15 95.1% 16 97.3% 17 98.6% بنابراین، حدود اطمینان 95 برای 4 است. به 16 رویداد، شامل، که با خروجی برنامه من موافق است، که می گوید <= 3 رویداد، یا >= 17 رویداد، خارج از محدوده 95٪ هستند. آیا من این را در جایی اشتباه کرده ام؟ آیا فقط لامبدا=10 برای دقیق بودن روش مجذور کای بسیار کوچک است؟ اگر لامبدا را به 100 برسانم، به دست می‌آورم: 95%: مجذور چی [81.36، 121.63] دقیق [80، 120] 3 سیگما: مربع چی [72.65، 133.83] دقیق [70، 131] اساساً تفاوتی ندارد. من می توانم با این واقعیت زندگی کنم که نتیجه غیر دقیق مستمر است، اما نه با عدم دقت. **ویرایش** با تشکر از نظرات، همه. همانطور که متوجه شدم، پاسخ اساسی این است که هر دو محدودیت‌هایی برای اعتماد به نفس دارند، اما متفاوت هستند، و من نباید انتظار داشته باشم که آنها یکسان باشند، و آیا فقط باید با آن زندگی کنم - درست است؟ برای پیشینه، این برای تجزیه و تحلیل ارائه دهندگان مراقبت های بهداشتی و یافتن تفاوت قابل توجهی با میانگین است. نکته مهم در اینجا (به هر حال برای من) این نیست که با انگشت به سمت کسی نرویم و بگوییم که آنها خارج از محدودیت های 2 یا 3 SD هستند، در حالی که تجزیه و تحلیل دیگری می تواند نشان دهد که آنها واقعاً در محدوده هستند. به همین دلیل، من اهمیتی نمی‌دهم که یک روش گسسته به من پوشش دقیق 95٪ نمی‌دهد - من فقط باید نقاط پرت را به طور مثبت شناسایی کنم. پیشینه خودم آمار نیست، اما روش دقیق را می‌دانم، و خوشحالم که پاسخ «درست» را می‌دهد (علی‌رغم این واقعیت که فرآیندها واقعاً برای پواسون مناسب نیستند). با این حال، من تبدیل پواسون/چی-دو را درک نمی‌کنم، و برای این برنامه از آن راضی نیستم، زیرا «به اشتباه» نقاط پرت را در انتهای محدوده اضافه می‌کند (بدون اشاره به از دست دادن مقادیر پرت «واقعی» در بالا). با این حال، به طور جهانی دقیقاً برای این برنامه استفاده می شود. آیا منصفانه است که بگویم روش دقیق برای این کاربرد بهتر است و تقریب به سادگی همین است و نادرست است؟
مشکل تطبیق الگوریتم های توزیع پواسون دقیق و غیر دقیق
38965
اگر «X» یک متغیر تصادفی غیرمنفی باشد که نشان دهنده عمر جزء دارای تابع توزیع «F» است، میانگین عمر باقیمانده با $$ m(t) = E(X-t | X >t) = \frac{1} تعریف می شود. {\bar F(t)} \int_t^\infty (x-t) d\nu(x), t\geq 0 $$ در کاغذ R. C. Gupta و D. M. بردلی (2003) نماینده میانگین عمر باقیمانده بر حسب نرخ شکست اشاره کرد که با نوشتن $$x - t = \int_{t}^{x} du$$ و با استفاده از قضیه تونلی فرمول معادل $$ m بدست می‌آید. (t) = \frac{1}{\bar F(t)}\int_t^\infty \int_t^x du d\nu(x) = \frac{1}{\bar F(t)}\int_t^\infty \int_u^\infty d\nu(x) du = \frac{1}{\bar F(t) }\int_t^\infty \bar{F}(u) du $$ چگونه می توانیم با جایگزینی انتگرال بالا و استفاده از قضیه تونلی به این نتیجه دست پیدا کنیم؟
میانگین عمر باقیمانده
86890
من در حال برنامه ریزی یک پروژه توسعه مقیاس هستم و با یک سوال گیر کردم: من دو ساختار دارم که هر کدام یک محور ماتریس را تشکیل می دهند. هر دو سازه می توانند همبستگی داشته باشند و می توانند مرتبط باشند، اما نیازی به این کار نیست. آنها در پایان یک امتیاز کلی را با هم تشکیل نمی دهند. من از یک مقیاس برای هر ساختار برای تعیین موقعیت سازمان در هر محور از ماتریس استفاده خواهم کرد. اگر در حال توسعه آیتم هایی برای هر ساختار هستم، آیا به دو یا یک تحلیل عاملی اکتشافی نیاز دارم؟ ایده من یک تحلیل عاملی متفاوت برای هر سازه برای یافتن حوزه ها/عوامل هر سازه بود. با این حال، مقاله‌ای دیدم که دو ساختار مختلف را در یک تحلیل عاملی تحلیل می‌کرد. آیا موارد در هر دو ساختار فقط بار متقاطع نمی‌شوند، بنابراین اگر من آن را در یک تحلیل عاملی انجام دهم، اساساً یک خوشه در ماتریس من تشکیل می‌دهند؟ ببخشید اگر ممکن است این سوال برای برخی بی اهمیت به نظر برسد، من در حال حاضر گیج هستم. متشکرم
تحلیل یک یا دو عاملی؟
22288
من این سوال را نوشتم که قبلاً به آن پاسخ داده شد. اگر > دوز به اندازه کافی بالا باشد، می میرند. من در حال بررسی تعداد کسانی هستم که بعد از یک روز مرده اند. به دلایل عملی، دوز دریافتی آنها مستقیماً تحت کنترل من نیست. من تصمیم گرفتم اعدادی را که بعد از یک > روز مرده اند به عنوان توزیع دوجمله ای، Bin(n,p) مدل کنم. > > برای اینکه بفهمم p برای مدل من چیست، آزمایشی با 300 جاندار انجام دادم و تعداد آنها را که بعد از یک روز مرده بودند را شمردم. > > در آزمایش مورد علاقه، آنها را در معرض یک تقویت کننده بالقوه > اثرات سمی قرار داده ام. می‌خواهم بدانم که آیا تعداد بیشتری از ارگانیسم‌ها مرده‌اند. برای یک نتیجه خاص m، می توانم به راحتی > احتمال m یا بیشتر را محاسبه کنم. اگر این کمتر از 1٪ باشد، می‌پذیرم که تقویت‌کننده مفروض کار می‌کند در غیر این صورت این فرضیه را که تقویت‌کننده مفروض یک تقویت‌کننده واقعی اثرات سمی است رد می‌کنم. > > من نمی دانم که آیا تجزیه و تحلیل من از تقویت کننده فرضی باید عدم قطعیت در مقدار p را در نظر بگیرد. اگر چنین است، چگونه این کار را انجام دهم؟ (من با R خوب هستم و در صورت لزوم می توانم برنامه نویسی کنم.) > > به روز رسانی: فقط می خواهم تأکید کنم که فقط برایم مهم است که تقویت کننده من کار کند، یعنی > ارگانیسم های بیشتری از آنچه انتظار دارم می میرند. هر پاسخی باید مواردی را که جانداران کمتر از حد انتظار می‌میرند را کنار بگذارد. متوجه شدم که یک جزئیات مهم را کنار گذاشته ام. تصور کنید آلل های H و h وجود دارد. جمعیتی که من میزان مرگ و میر خود را در آنها محاسبه می کنم همه HH هستند. با این حال، جمعیتی که من تقویت‌کننده‌ام را در آن اندازه‌گیری می‌کنم، زمانی است که یک ارگانیسم HH با ارگانیسم hh تلاقی می‌کند: به طور متوسط ​​25٪ HH، 50٪ Hh و 25٪ hh. متأسفانه من نمی توانم ژنوتیپ موجودات زنده را بررسی کنم. با این حال، من قادر به بررسی ژنوتیپ ارگانیسم هایی هستم که می میرند. بنابراین برای روشن بودن، من اعداد دقیق HH، Hh و Hh را در جمعیت اولیه نمی دانم. با این حال، من اعداد دقیقی از تعداد موجودات مرده HH، Hh و Hh دارم. سوالی که می خواهم به آن بپردازم این است که آیا تعداد ارگانیسم های مرده hh بیشتر از آن چیزی است که من انتظار دارم. آیا راهی برای تغییر پاسخ سوال قبلی برای توضیح این موضوع وجود دارد؟
تأثیر عدم قطعیت در پارامتر یک مدل احتمال بر تصمیمات - پیگیری
93560
من تصمیم می‌گیرم چند پیش‌بینی‌کننده در مدل خود لحاظ کنم - من در حال حاضر 4 عدد دارم. وقتی از تابع «جهش()» استفاده می‌کنم، کوچک‌ترین مقدار برای خطای استاندارد باقی‌مانده، مدل سه پیش‌بینی‌کننده است، اما وقتی از «stepAIC» استفاده می‌کنم، این مقدار است. مدل دو پیش بینی به کدامیک باید تکیه کنم و چرا؟
Leaps() یا AIC برای انتخاب مدل
24627
من یک فایل .sav را در PSPP باز می کنم (یک جایگزین منبع باز برای SPSS) با > get file=...sav حالا می خواهم ببینم چند ردیف وجود دارد.
تعداد ردیف ها / موارد در PSPP
18333
همانطور که متوجه شدم، با نرمال کردن کوواریانس با استفاده از معادله $$\rho_{i,j}=\frac{cov(X_i, X_j)}{\sigma_i \sigma_j}$$ که $\sigma_i=\sqrt{ E[(X_i-\mu_i)^2]}$ انحراف استاندارد X_i$ است. نگرانی من این است که اگر انحراف معیار برابر با صفر باشد چه؟ آیا شرطی وجود دارد که تضمین کند آن را صفر نمی کند؟ با تشکر
اگر انحراف معیار یک متغیر 0 باشد چه همبستگی وجود دارد؟
58591
با توجه به یک دنباله $\mathbf{x} = (x_1,x_2,\dots,x_n)$ که از فرآیند گاوسی $GP(\mu_1,\Sigma_1)$ و یک دنباله هدف $\mathbf{y} نمونه برداری شده است. = (y_1,y_2,\dots,y_n)$ نمونه برداری از فرآیند گاوسی دیگر $GP(\mu_2,\Sigma_2)$، آیا کسی تستی می‌داند که آیا $\mathbf{x}$ و $\mathbf{y}$ از یک توزیع می‌آیند؟ حدس می‌زنم می‌خواهم بدانم که احتمال $\mathbf{x}$ و $\mathbf{y}$ از یک توزیع هستند (آیا این احتمال هم خوب است؟). من فرض نمی کنم که هیچ یک از $\mu_1،\mu_2،\Sigma_1$ یا $\Sigma_2$ شناخته شده باشند. همچنین، اگر این کمک کند، با فرض اینکه پزشکان عمومی ثابت هستند (اما در مرکز نیستند) مشکلی ندارم.
چگونه می توان آزمایش کرد که آیا دو نمونه از یک فرآیند گاوسی توزیع شده اند؟
86898
من سه وب سایت پیدا کردم که زمان طلوع و غروب خورشید را در محلی که من زندگی می کنم فهرست می کند. اما از آنجایی که این زمان‌ها گاهی اوقات چند دقیقه متفاوت است، می‌خواهم بدانم آیا روشی وجود دارد که بفهمم کدام یک درست‌ترین پیش‌بینی است. شنیده‌ام که آمار روش‌هایی را برای مقایسه مدل‌ها ارائه می‌کند، اما از طرف دیگر، حدس می‌زنم قبل از اینکه بتوانم بگویم خطا چقدر است، باید خوب بودن زمان‌ها را با فرمولی اندازه‌گیری کنم. بنابراین، اگر کسی از یک آمارگیر بپرسد که چگونه می تواند اندازه گیری کند که کدام مدل زمان غروب و طلوع خورشید را دقیق ترین پیش بینی می کند، از چه نوع آزمایشی برای اندازه گیری خوبی استفاده می کند؟
آیا می توان از آمار برای اندازه گیری دقیق ترین مدل استفاده کرد
55277
من معمولاً می‌توانم به سرعت تقریب عادی توزیع پسین را بدست بیاورم، اما گاهی اوقات با راه‌اندازی یک MCMC کارآمد از همان مدل مشکل دارم. آیا می توانم به نحوی از نتایج تقریب عادی برای بهبود MCMC استفاده کنم؟ (من به چیزی در راستای اتصال SD تقریبی به SD پیشنهادی MCMC فکر می‌کنم.) من از کلاس‌های NormApprox و MCMC PyMC استفاده می‌کنم، اما به پیشنهادهایی که از چارچوب‌های دیگر نیز استفاده می‌کنند علاقه‌مندم.
MCMC کارآمد با استفاده از تقریب طبیعی خلفی
22757
من یک خطا دارم که می گوید > الگوریتم تخمین بعد از 50 تکرار همگرا نشد و > پیش بینی انجام نشد. برای جلوگیری از این خطا چه کار کنم؟ مانند اینکه چگونه می توانم داده ها را قبل از پیش بینی بررسی کنم؟
SAS' PROC ARIMA همگرا نمی شود
77654
شما از 1000 مرد و 1000 زن نمونه گرفته اید. مردان با احتمال مشاهده شده $p_1 = 0.642$، بله پاسخ می دهند، زنان 0.591$ = p_2 $. می توانید تفاوت را محاسبه کنید، $p_1-p_2 = 0.051$. واریانس این تفاوت مجموع واریانس های درون جنسیتی است، $var(p_1-p_2) = var(p_1)+var(p_2)$. بنابراین، $var(p_i) = p_i(1-p_i)/1000$ زیرا این واریانس 1000 پاسخ توزیع شده برنولی به طور متوسط ​​است. حال، فرض کنید می‌خواهیم همه 2000 پاسخ را میانگین بگیریم. می‌توانیم $p=(.642+.591) /2$ را به عنوان میانگین بله در نظر بگیریم. اما واریانس آمار $p$ ما چیست؟ آیا باید $p(1-p)/2000$ را بگیرم زیرا واریانس توزیع برنولی از 2000 نمونه است یا $2*p(1-p)/1000$ زیرا واریانس های 1000 مرد و 1000 زن را جمع می کنیم که هر کدام برابر است. به $p(1-p)/1000$؟ 4 برابر تفاوت بین $p(1-p)/2000$ و $2*p(1-p)/1000$ وجود دارد. من می دانم که ترکیب خطی واریانس های $var(X)$ و $var(Y)$ $var(aX+bY) = a^2var(X) + b^2var(Y)$ است. به ویژه، این بدان معنی است که واریانس تفاوت مجموع واریانس ها، $var(X-Y) = var(X)+var(Y)$، همانطور که در بالا استفاده شد، و واریانس میانگین $var ({X+Y) است. بیش از 2}) = {var(X) + var(Y)\بیش از 4}$. ما در اینجا ضریب 4 را می بینیم. می بینیم که واریانس میانگین باید 4 برابر کمتر از واریانس مجموع باشد. با این حال، مربی فرمول $2*p(1-p)/1000$ را برای مقایسه واریانس میانگین انتخاب می‌کند که 4 برابر بزرگ‌تر از $p(1-p)/2000$ است. چرا؟
واریانس میانگین میانگین ها
94511
چه تفاوتی بین شبکه عصبی، شبکه بیزی، درخت تصمیم و شبکه پتری وجود دارد، اگرچه همه آنها مدل های گرافیکی هستند و رابطه علت و معلولی را به صورت بصری نشان می دهند. متشکرم
تفاوت بین شبکه بیز، شبکه عصبی، شبکه پتری و درخت تصمیم
112479
بیایید فرض کنیم که مدل گرافیکی زیر را داریم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/7ltkY.png) این نمودار توزیع مشترک $P(p,x_1,x_2,x_3) را کد می کند. ,x_4) = P(p)\prod_{i=1}^{4}P(x_i|p)$. در استنباط بیزی، اگر $x_1,x_2,x_3$ را بدانیم، پس یک پیش بینی کامل بیزی برای $x_4$ به صورت زیر داده می شود: $$ P(x_4|x_3,x_2,x_1) = \int_{p}P(x_4 |p)P(p|x_3,x_2,x_1)dp$$ من از مدلی مانند بالا به صورت زیر تفسیر کردم: سیستم احتمالی یک $p$ را از $P(p)$ انتخاب می کند. سپس این $p$ انتخاب شده داده‌هایی را به صورت $x_1\sim P(x_1|p)، x_2\sim P(x_2|p)، x_3\sim P(x_3|p)$ تولید می‌کند. ما ارزش واقعی $p$ را نمی دانیم و بنابراین با استفاده از توزیع پسین آن با توجه به داده ها، روی تمام مقادیر ممکن $p$ ادغام می کنیم تا توزیع پیش بینی پسین x_4$ را بدست آوریم. در این تفسیر، مقدار $p$ پس از انتخاب از قبلی، در طول تولید داده، ثابت می ماند. اما فقدان دانش ما در مورد آن ما را به ادغام تمام مقادیر ممکن برای استنتاج $x_4$ سوق می دهد. این را می توان به عنوان یک مدل مولد در نظر گرفت. سوال من این است که آیا تفسیر من در اینجا درست است؟ من این را می‌پرسم، زیرا منابعی را در وب دیده‌ام که نشان می‌دهند $p$ در طول تولید $x_i$s تغییر می‌کند. اگر اینطور بود، آیا نباید هر یک از این مقادیر مختلف به عنوان متغیرهای تصادفی مختلف مانند $p_1$ برای $x_1$، $p_2$ برای $x_2$، و غیره نامگذاری شوند؟ این به شدت من را گیج کرده است. من از هر نظر قدردانی می کنم.
آیا پارامتر در طول تولید داده در استنتاج بیزی تغییر می کند؟
4507
فرض کنید $G = (V,E)$ یک گراف غیر چرخه ای جهت دار باشد. فرض کنید $i \rightarrow j$ یک یال باشد به طوری که والدین $j$ دقیقاً عبارتند از: * والدین $i$، * و $i$. اجازه دهید $L\left(G \right)$ مجموعه ای باشد که توسط {a vertex و والدین آن، برای همه رئوس در $G$} تعریف شده است. اجازه دهید $G' = (V,F)$ که در آن $F$ $E$ است با $j \rightarrow i$ به جای $i \rightarrow j$. با توجه به مجموعه‌ای از متغیرهای تصادفی $(X_{v})_{v \in V}$ که چگالی اتصال را می‌توان روی $L\left(G \right)$ فاکتور گرفت، می‌خواهم نشان دهم که چگالی اتصال همچنین می تواند بیش از $L\left(G'\right)$ فاکتور شود. * * * اجازه دهید $P$ والدین $i$ در نمودار $G$ باشند، بنابراین والدین $j$ در نمودار $G'$. بنابراین می‌خواهم نشان دهم که $g_{i}$ و $g_{j}$ وجود دارد که: $g_{i}(x_{i},x_{j},x_{P}) \times g_{ j}(x_{j}، x_{P}) = f_{i}(x_{i}، x_{P}) \ بار f_{j}(x_{i}، x_{j}، x_{P})$. من مطمئن نیستم که آیا می توانم فقط در نظر بگیرم که مبادله $i$ و $j$ وجود دارد یا خیر، و می توانم $g_{i}=f_{j}$ و $g_{j}=f_{i}$ را بگیرم. یا شاید، کاری با احتمالات شرطی و فرمول بیز وجود دارد.
فاکتورسازی چگالی مشترک بر روی یک گراف جهت دار
64075
من سعی می کنم 2 برنامه کامپیوتر X و Y را برای سرعت مقایسه کنم. من می خواهم تعیین کنم که کدام یک سریعتر است. مثلاً می‌توانم آن برنامه‌ها را 20 بار کرنومتر کنم، میانگین را بگیرم و بگویم برنامه‌ای که کمترین میانگین را دارد سریع‌ترین برنامه است. با این حال، من چیز زیادی در مورد آمار نمی دانم - آیا این کاری که من انجام می دهم در واقع درست است؟ چه راهی معنادارتر برای آزمایش آنها خواهد بود؟
چگونه می توان به روشی معنی دار آماری را اندازه گیری کرد که کدام برنامه سریعتر از برنامه دیگر است؟
77657
من در حال نوشتن پایان نامه پایانی خود در مطالعات چینی هستم و قصد دارم یک آزمون کیفی انجام دهم، اما از آنجایی که داده های زیادی دارم، می خواهم آن را به صورت کمی تجزیه و تحلیل کنم. من این کار را کردم اما در مورد **روش های تست** مطمئن نیستم \- می توانید به من کمک کنید؟ کاری که انجام دادم این است: من در حال تجزیه و تحلیل تفاوت های طراحی بین الف) انگلیسی و چینی و ب) نسخه آلمانی و چینی وب سایت ها هستم. من 50 نسخه چینی، 47 نسخه انگلیسی و 37 نسخه آلمانی دارم. من سعی می کنم **تست کنم که آیا تفاوت های یافت شده قابل توجه هستند**. آیا این کار را درست انجام می دهم؟ در اینجا چند تصویر از اکسل وجود دارد. 1. سوالات بله/خیر: برخی از معیارها فقط می پرسند که آیا سایت چیزی دارد یا نه (مانند سازگاری اینترنت اکسپلورر 6 (IE6)). چیزی که من دریافت می کنم این است: 30 x بله. 20 x خیر - برای نسخه چینی 15 x بله. 22 x خیر - برای نسخه آلمانی 17 x بله. 30 x خیر - برای نسخه انگلیسی آیا می توانم از **آزمون Chi-square** برای این نوع داده ها استفاده کنم؟ از آنجایی که ممکن است داده ها را به ژانرهایی تقسیم کنم، ممکن است به مجموعه داده های بسیار کوچکی برسم. آیا **تست دقیق فیشر** بهتر است؟ (به تصاویر در لینک مراجعه کنید). 2. مقادیر «0، 1، 2، 3»: من همچنین در حال تجزیه و تحلیل چیزهایی مانند قابلیت مشاهده دکمه های رسانه های اجتماعی هستم (0 = قابل مشاهده نیست، 3 = بسیار قابل مشاهده است). برای اینکه تفاوت های قابل توجهی در میانگین پیدا کنم آیا می توانم **t-Test** را شرکت کنم؟ از آنجایی که فقط یک طرف مهم است (نسخه چینی عدد بالاتری می گیرد؟) آیا من در آزمون یک طرفه شرکت می کنم یا دو طرفه؟ اکسل همچنین از من می‌پرسد که آیا داده‌ها جفت شده‌اند، آیا من واریانس‌های یکسان یا واریانس‌های متفاوت دارم - این به چه معناست؟ (برای نتایج من به تصاویر صفحه در پیوند بالا مراجعه کنید). 3. و در نهایت داده هایی را برای عرض و ارتفاع وب سایت ها به دست آوردم. آیا می توانم از **t-test** برای تجزیه و تحلیل داده ها استفاده کنم؟ من **طرح جعبه/جعبه و نمودار Whiskers** را انجام دادم اما مطمئن نیستم که علاوه بر اینکه یک نمای کلی سریع به من می دهد، چه کاری برای من انجام می دهد - یا می توانم تفاوت های قابل توجهی را نیز با آن ببینم؟ (به اسکرین شات ها در پیوند نمودارها مراجعه کنید - به نظر می رسد یکی تفاوت هایی با دیگری دارد.) لطفاً با گفتن اینکه آیا روش های آزمایشی استفاده شده درست هستند به من کمک کنید و تأیید کنید که می توانم از آنها استفاده کنم یا خیر. ضمناً من تمام داده ها را در اکسل تجزیه و تحلیل می کنم زیرا هیچ تجربه ای با هیچ ابزار دیگری ندارم (و برای رشته من چنین چیزی اصلاً لازم نیست اما به هر حال می خواهم این کار را انجام دهم).
کدام روش آزمون برای داده های من مناسب است؟
73336
من سعی می کنم یک تست طراحی کنم و بین انواع آزمایشی که باید انجام دهم سردرگم هستم. در اینجا شرح کاری است که من انجام می دهم: این یک آزمایش اندازه گیری مکرر است. بنابراین، ابتدا یک گراف پیوند گره بدون رنگ G1 به یک شرکت‌کننده داده می‌شود و سؤالاتی در مورد گراف می‌پرسد. متغیر وابسته مدت زمانی است که شرکت کننده برای پاسخ دادن به سوالات نیاز دارد. سپس یک نمودار رنگی G2 به همان شرکت‌کننده داده می‌شود و مجموعه‌ای از سوالات پرسیده می‌شود. این با معکوس کردن ترتیب گروه ها متعادل می شود. بعد این روش را تکرار می کنم با این تفاوت که این بار G1 رنگی و G2 بدون رنگ ارائه می کنم. در مجموع، من 4 حالت/گروه دارم که آزمایش را به ترتیب زیر انجام می‌دهند: 1. G1-بدون رنگ G2-رنگی 2-G2-رنگی G1-بی رنگی 3.G1-رنگی G2-بی رنگی 4.G2-بی رنگی G1- رنگی من زمان را برای هر مورد اندازه می‌گیرم. دو نمودار تقریباً برابر هستند. تنها دلیلی که من از دو نمودار متفاوت استفاده می‌کنم این است که نمی‌توانم از یک نمودار در هر دو شرایط برای یک گروه استفاده کنم، زیرا اگر این کار را انجام داده‌ام، شرکت‌کننده پاسخ‌های خود را از شرایط قبلی به خاطر می‌آورد. حالا من مطمئن نیستم که این روش را چه نامی بگذارم؟ آیا باید یک متغیر مستقل را در نظر بگیرم (یعنی وجود/غیاب رنگ در نمودار) یا اینکه دو IV مختلف را در نظر بگیرم (رنگ + کدام نمودار استفاده شده است (G1/G2؟)). به عبارت دیگر، آیا این فقط یک تست وابسته به t است یا یک ANOVA دو طرفه (نمی دانم کدام یک)؟
آیا افزودن مجموعه داده در اندازه گیری های مکرر، نوع آزمایش را تغییر می دهد؟
113713
من برخی از داده ها را بر اساس ترکیبی از دو لگ نرمال تولید کردم: $f(x) = p \cdot \mathcal LN(\mu_1, \sigma) + (1-p) \cdot \mathcal LN (\mu_2, \sigma)$ اکنون می خواهم از MCMC برای یافتن پارامترهای $p، \mu_1، \mu_2، \sigma$ استفاده کنم اما مطمئن نیستم چه چیزی را انتخاب کنم. به عنوان تابع قبلی و پیشنهادی. برای قبلی من این را انتخاب کردم: $p \sim Beta$ اما کدام هایپرپارامترها بهترین هستند؟ $\mu_1، \mu_2 \sim نرمال$، دوباره چه هایپرپارامترهایی؟ $\sigma \sim معکوس~Gamma$; هایپرپارامترها؟ پیشنهاد کمی دشوارتر است زیرا $p$ باید از بازه $[0,1]$ ترسیم شود. بنابراین $p \sim کوتاه شده~Normal$ در $[0,1]$; آیا این منطقی است؟ $\mu_1، \mu_2، \sigma \sim نرمال$ اما چگونه از $\sigma$ منفی اجتناب کنم؟ آیا بسته MCMC «R» وجود دارد که به توابع پیشنهاد سفارشی اجازه دهد؟
چه چیزی را برای عملکرد قبلی و پیشنهادی برای MCMC یک مخلوط انتخاب کنید
76237
فرض کنید ما در حال اجرای یک تست A/B در وب سایت خود هستیم که فقط بازدیدکنندگان آمریکایی و فرانسوی دارد (با فرض اینکه هر دو گروه حدود نیمی از بازدیدکنندگان را تشکیل می دهند). اگرچه این عمل خوبی نیست، اما بازدیدکنندگان را بر اساس کشورشان تقسیم می کنیم و دو بنر متفاوت به آنها نشان می دهیم. هدف نهایی انتخاب بنری با نرخ کلیک (CTR) بالاتر است. شکست موفقیت CTR banner_A 1850 31400 0.056 --> بازدیدکنندگان فرانسوی banner_B 1950 32000 0.057 --> بازدیدکنندگان آمریکایی یکی از راه های آزمایش اهمیت آماری این است که فقط از این اعداد استفاده کنید و آزمون خی دو پیرسون را انجام دهید. در این مورد p-value به نظر می رسد 0.321 باشد. و CTR بالاتر banner_B از نظر آماری ناچیز به نظر می رسد. با این حال، بیایید همچنین فرض کنیم که **51٪** از بازدیدکنندگان قبلی که روی این نوع بنرها کلیک کردند، بازدیدکنندگان فرانسوی بودند (به زیر مراجعه کنید). بنابراین، اولویت ها در CTR ها در وهله اول برابر نبودند. شکست موفقیت CTR banner_Past 5100 80000 0.060 --> بازدیدکنندگان فرانسوی banner_Past 4900 80200 0.058 --> بازدیدکنندگان آمریکایی چگونه می توانیم این نوع گرایش 51% اطلاعات **قبلی** را در آزمون معناداری آماری خود رمزگذاری کنیم؟
رمزگذاری دانش قبلی در آزمون AB
57143
کمک کند. مشکل: با توجه به یک توزیع گاوسی محدود - به نظر می‌رسد نتایج مشابهی تولید می‌کند، یعنی میانگین و انحراف استاندارد یکسان به‌طور تصادفی. تعریف: مجموعه داده ها ویژگی های یک توزیع گاوسی را نشان می دهد. مجموعه داده محدود است. هر مقدار از مجموعه داده یک عدد صحیح است. اجازه دهید **mu** و **سیگما** میانگین و انحراف معیار را نشان دهند. بگذارید **a** و **b** نمایانگر کران پایین و بالایی باشند. نظرات: سعی شد از هر دو تابع rtnorm یا rttruncnorm در برنامه نویسی R استفاده شود. وقتی مقداری از هر یک از این توابع دریافت می کنم، به سادگی نتیجه را به نزدیکترین عدد صحیح گرد می کنم. هنگامی که من انتخاب می کنم به unbound یکی از تابع به عنوان مثال. از -Inf به Inf، متوجه شدم که می‌توانم یک مجموعه داده تجربی را که کاملاً شبیه به داده‌های اصلی است، بازتولید کنم، به جز داشتن مقادیر داده‌ای که آشکارا خارج از مرزهای اصلی [a,b] هستند، اما بله، به هدف می‌رسم. مو و سیگما هنگامی که من نتیجه خود را با استفاده از این توابع محدود کردم، انحراف معیار موثر در مقایسه با انحراف استاندارد اصلی کوچکتر است. من سر و دم توزیع را جدا می‌کنم و یک سیگما مؤثر باقی می‌گذارم که دامنه کوچک‌تری را در بر می‌گیرد. در حالی که می‌دانم می‌توانم با استفاده از (X-mu)/sigma که X یک مقدار تصادفی است، بین توزیع‌های کوتاه‌شده و غیرقطعی ضرب و جابه‌جا شوم، هدف واقعی بازتولید یک توزیع گاوسی کوتاه‌شده تجربی است که مطابق با مجموعه داده‌های گاوسی کوتاه‌شده اصلی است. . به عنوان مثال، من سعی کردم به سادگی انحراف استاندارد هدف را در تابع rtnorm برای یک مجموعه داده محدود [a,b] افزایش دهم تا یک انحراف استاندارد مؤثر ایجاد کنم که معادل انحراف استاندارد اصلی است. با این حال، این رویکرد شکست خورد. این منجر به افزایش انحراف استاندارد تا حدودی شد، اما انحراف استاندارد موثر به سقفی رسید که کمتر از سیگمای هدف بود، بنابراین هرگز انحراف استاندارد، میانگین و مرزهای اصلی را متوجه نشدند. به یاد داشته باشید، من بر این فرض پیش می روم که از آنجایی که من یک توزیع گاوسی محدود واقعی و دنیای واقعی با میانگین و انحراف معیار معین دارم، به این فکر می کنم که می توانم نتیجه مشابهی را که به طور تصادفی تولید شده است، به طور مطلق بازتولید کنم. آیا من اشتباه می کنم؟ چه کاری ممکن است متفاوت انجام دهم؟ من از هر بینشی که هر یک از شما ممکن است به من بدهید قدردانی می کنم. کمک شما واقعاً قابل استقبال و ارزشمند خواهد بود.
Normal کوتاه شده -- یک مجموعه داده تولید شده به طور تصادفی را بازتولید کنید
77655
من در طول زمان از n آزمودنی که به یک سؤال مقیاس لیکرت روزانه پاسخ می‌دهند، اندازه‌گیری‌های تکراری انجام داده‌ام، بنابراین داده‌های من طی چند ماه ترتیبی و طولی هستند. البته همه افراد به هر نظرسنجی روزانه پاسخ نمی دهند. هدف من ارزیابی این است که آیا تفاوت آماری در پاسخ های نظرسنجی بین مردان و زنان گروه من وجود دارد یا خیر. ![پاسخ‌های امتیاز لیکرت در مقابل جنسیت برای داده‌های طولی](http://i.stack.imgur.com/DJWYd.png) ممکن است از شکل حدس بزنید که زنان (جنسیت = 2) نمرات 6 و 7 را بیشتر از مردان انتخاب می‌کنند. ، حتی اگر تعداد کلی پاسخ ها برابر با 6 یا 7 کم باشد (عرض میله ها). اولین قبولی من در این کار اجرای یک آزمون من ویتنی برای هر نمره نظرسنجی بین دو گروه بود، اما می دانم که این فرض استقلال را نقض می کند. تنها فکر دیگر من این بود که فقط نمره میانه را برای هر کاربر پیدا کنم (بنابراین پاسخ های کاربر را در طول زمان به یک ویژگی منفرد برابر با میانگین او جمع کنید) و آزمایش من ویتنی را روی توزیع میانه ها اجرا کنید. آیا این نادیده گرفتن بعد زمانی اهمیت دارد؟ من مطمئن نیستم که مناسب است این را نیز به عنوان دو سری زمانی (مذکر/مونث) مثلاً میانگین پاسخ نظرسنجی در نظر بگیریم، و به دنبال تست هایی بگردیم که این دو سری را با هم مقایسه کنند؟
داده های ترتیبی و طولی
93564
من PCA را روی داده های آموزشی پیاده سازی کرده ام و نتیجه آماده است. حالا من می خواهم از همان PCA در تست استفاده کنم. آیا راهی برای انجام همان PCA در آزمون مانند آموزش در weka وجود دارد؟
از همان PCA در آزمون به عنوان آموزش در weka استفاده کنید
58595
من به دنبال راهنمایی در مورد بهترین روش برای پاسخ به این سوال هستم. **سناریوی کلی:** ما چندین ماشین تست A،B،C،D و غیره داریم که هر کدام یک قطعه یکسان را که به طور تصادفی انتخاب شده تست می کنند و یک نتیجه Pass یا Fail ارائه می دهند. همه ماشین‌ها آزمایش یکسانی را انجام می‌دهند و می‌توانند هر قطعه‌ای را آزمایش کنند، اما ممکن است یک ماشین دارای نقص‌هایی باشد که باعث سوگیری نسبت به عبور یا خرابی بیش از حد انتظار می‌شود. **سوال:** چگونه می توانم ماشین های آزمایشی را تشخیص دهم که دارای سوگیری هستند (قطعات بیشتری را نسبت به آنچه انتظار می رود رد می کنند یا از کار می افتند) و میزان سوگیری نمونه آنها را از کل کمیت می کنم؟ با فرض اینکه تعداد نتایج ماشین بایاس زیر مجموعه های کوچکی از تعداد کلی نتایج است. **افکار:** با توجه به مقادیر ممکن، عبور و یا شکست این فرآیند برنولی است؟ من به این فکر می‌کردم که یک آزمون مجذور کای می‌تواند راهی برای نزدیک شدن به این موضوع باشد، اما توزیع قبلی برای کار با آن ندارم. آیا توزیع قبلی باید از مرحله آزمایش اولیه با استفاده از نتایج آزمایش اندازه گیری شود؟ با این حال، من می‌خواهم زیرمجموعه‌های آزمایشی را با زیرمجموعه‌های قبلی تولید شده از ترکیب خود زیر مجموعه‌ها مقایسه کنم، خوب نیست؟ راه دیگری برای فکر کردن به این موضوع این است که N نفر سکه را برگردانند، که برخی از آنها مغرضانه هستند. شما می‌توانید نتایج هر چرخش سکه‌ها را مستقل از سایرین اندازه‌گیری کنید و آن‌ها را با نتیجه مورد انتظار مقایسه کنید، اگر نتایج متفاوت باشد، سکه‌ها را مغرضانه می‌دانید و نیازی به دانستن چیزی در مورد سکه‌های دیگر ندارید. مشکل من این است که نمی‌دانم نتیجه مورد انتظار باید چه باشد و فقط می‌توانم نتایج آزمایش‌ها را اندازه‌گیری کنم و هر زیر مجموعه از نتایج ماشین‌ها را با نتایج کلی مقایسه کنم؟ پیشاپیش ممنون
تشخیص سوگیری در زیر مجموعه فرآیندهای برنولی
18336
من می خواهم ریشه واحد را با استفاده از روش های مختلف detrending از سری حذف کنم. لطفا کمک کنید.
گرایش فانتزی سری های زمانی
31828
من مجموعه‌ای از نتایج فوتبال را دریافت کرده‌ام و می‌خواهم یک مدل احتمالی از امتیازات فوتبال همانطور که در دیکسون، کولز (1997، http://www.math.ku.dk/~rolf/teaching/thesis/DixonColes) توضیح داده شده است، بسازم. pdf). آنها پارامترها را بر اساس حداکثر احتمال تخمین می زنند و مدل فرض می کند که متغیرها پواسون مستقل هستند. اکنون 2 سوال دارم: * چگونه باید داده های خود را برای وارد کردن آنها در مدل تبدیل کنم؟ * چه بسته هایی در R برای تخمین حداکثر احتمال با این ماهیت بهترین هستند؟
برآورد حداکثر احتمال در مدل پواسون برای امتیازات فوتبال (فوتبال).
101297
خوب یا بهترین روش برای محاسبه این چیست؟ من دو نمودار مانند این دارم![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/iGGf6.png) خط سیاه مقدار واقعی است. خط قرمز مقدار از تخمینگر است. من می توانم هر مقدار محور Y را از هر مقدار محور X فراخوانی کنم. من می خواهم بدانم کدام یک از برآوردگر من می تواند مقدار دقیق تری را تخمین بزند. خیلی ممنون
نحوه محاسبه دقت از دو نمودار بدون معادله اما من تمام ارزش های آنها را دارم؟
101299
من یک برنامه نویس تازه کار با **pyMC** هستم. من مدلی به شکل زیر دارم $$\rho=\sqrt(x^2+y^2)$$ $$z=f(x,y)=\frac{c^3}{\log(c)+ 1}\frac{\log\rho}{\rho^2}+\frac{5.3}{r^2}\rho^{-3}$$ و من می‌خواهم قسمت عقبی پارامترهای داده شده $c$ را پیدا کنم و $r$ با خطاهای مربوط به آنها فرض کنید من یک داده واقعی دارم که از مشاهده مدل داده شده به دست می آید و فایل داده شامل ستون های $x$، $y$ و $z$ است و نقاط داده 5000 امتیاز هستند. اگر برای $c$ و $r$ اولویت های **یکنواخت** را در نظر بگیرم. چگونه می توانم مدل خود را بسازم که در هر نقطه ($x$,$y$) مقدار $z$ را محاسبه و با $z$ مشاهده شده مقایسه کند؟
چگونه با pyMC یک مدل بسازیم
60753
من می‌دانم که مقیاس‌گذاری چند بعدی (MDS) همانند انجام تجزیه و تحلیل اجزای اصلی (PCA) در صورت استفاده از فاصله اقلیدسی است، این به عنوان MDS متریک شناخته می‌شود. اما من در کتابی به این موضوع برخورد کردم که نشان داده شده است (چتفیلد و کالینز 1980) که مقادیر ویژه $XX^T$ (ماتریس محصول خارجی غیرعادی) برابر با مقادیر ویژه $X^TX$ (ماتریس محصول داخلی غیرعادی شده است) ) و بردارهای ویژه $XX^T$ و $X^TX$ با یک تبدیل خطی مرتبط هستند X نشان دهنده ماتریسی از داده ها با ویژگی های $n$ (ردیف ها) و $m$ نمونه ها (ستون ها) است. اکنون نمی توانم این کتاب چتیلد و کالینز را از جایی دریافت کنم و می توانم بفهمم که مقادیر ویژه برابر هستند. اما بردارهای ویژه PCA و MDS متریک چگونه به یکدیگر مرتبط هستند؟
مقادیر ویژه MDS و PCA و بردارهای ویژه
103604
برای درک من، آزمون هم انباشتگی جوهانسن، ابتدا آزمایش خواهد کرد که آیا سری های زمانی دارای هم انباشتگی صفر هستند، در صورت رد شدن، آزمون جوهانسن یک هم انباشتگی را آزمایش می کند، اگر رد شود، دو هم انباشتگی بیشتر را آزمایش می کند. اگر نمی توانید عدد صفر را رد کنید. فرضیه برای بار دوم در ردیف به این معنی است که سری زمان یک هم انباشتگی دارد. من از matlab استفاده می کنم و با استفاده از تست جوهانسن به این نتیجه می رسم: به عکس مراجعه کنید. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/JTV6l.png) به نظر من نتایج عجیب هستند، زیرا شما نمی توانید فرضیه صفر همجمعی صفر را رد کنید، اما می توانید فرضیه صفر را رد کنید. یک همگرایی.. کسی توضیحی دارد؟
شفاف سازی متلب هم انباشتگی جوهانسن
45286
من در وب سایتی کار می کنم که در آن نتایج بازی های شطرنج را که مردم انجام داده اند جمع آوری می کنم. با نگاهی به رتبه‌بندی بازیکن و تفاوت بین امتیاز او و حریف، نموداری با نقاط نشان‌دهنده برد (سبز)، تساوی (آبی) و باخت (قرمز) ترسیم می‌کنم. با این اطلاعات، من همچنین یک الگوریتم رگرسیون لجستیک را برای دسته‌بندی برش‌ها برای برد و برد/تساوی پیاده‌سازی کردم. با استفاده از رتبه بندی و تفاوت به عنوان دو ویژگی من، یک طبقه بندی کننده دریافت می کنم و سپس مرزهای مربوط به جایی که طبقه بندی کننده پیش بینی خود را تغییر می دهد را روی نمودار ترسیم می کنم. از آنجایی که قبلاً هرگز این کار را انجام نداده‌ام، از یک رگرسیون لجستیک بسیار ابتدایی استفاده کردم، که در آن فقط تتا را به تمام صفرها مقداردهی می‌کنم و سپس نزول گرادیان را در یک مجموعه آموزشی اجرا می‌کنم و از نتایج همانطور که هست استفاده می‌کنم. در اینجا کد شبه من برای نزول گرادیان است. آلفا نرخ یادگیری است، J تابع هزینه، و تتا بردار ضریب است (فکر می‌کنم اسمش همین است). h تابع فرضیه و m تعداد مثال های آموزشی است. آلفا = 1.0 100 بار انجام دهید: برای هر ویژگی یک آرایه تتا موقت ایجاد کنید: مجموع تمام مثال‌های (h(xi) - yi) * xi_j tempTheta_j = theta_j - (alpha/m * مجموع) تنظیم تتا = tempTheta محاسبه J = (-1/m) * مجموع تمام مثالهای ((yi * log(h(xi)) + ((1 - yi) * log(1 - h(xi)))) اگر J افزایش یافته است، آلفا را بر 10 تقسیم کنید 1/(1 + e^-(Theta^T * xi)) وقتی این را روی مجموعه داده ای که نمایه شطرنج خودم را نشان می دهد آزمایش می کنم، نتایج معقولی دریافت می کنم که می توانم خوشحال باشم با: ![12842311: نتیجه صحیح](http://i.stack.imgur.com/BiQrw.png) برای مدتی، همه نمونه هایی که امتحان کردم، نمودارهای جالبی را ارائه دادند کائو، که بیش از 250 تورنمنت به نام خود داشت، و در نتیجه 1000+ بازی، برای یک مجموعه تمرینی بسیار بزرگ، نتیجه آشکارا نادرست بود. ![12905349: نتیجه نادرست](http://i.stack.imgur.com/AhxHO.png) خوب، خوب نبود. بنابراین نرخ یادگیری اولیه را از 1.0 به 100.0 به عنوان اولین ایده افزایش دادم. به نظر نتایج درستی برای کوین به دست آمد: ![12905349: نتیجه صحیح](http://i.stack.imgur.com/3IYuA.png) متأسفانه، وقتی آن را روی خودم و مجموعه داده های کوچکترم امتحان کردم، من پدیده عجیبی را دریافت کردم که برای یکی از پیش بینی ها فقط یک خط صاف در 0 داد: ![12842311: نادرست است. نتیجه](http://i.stack.imgur.com/dkHio.png) تتا را بررسی کردم، گفت [[2.3707682771730836]، [21.22408286825226]، [-19081.906528679192] است. سومین متغیر آموزشی (واقعاً دوم، از آنجایی که x_0 = 1) تفاوت در رتبه‌بندی‌ها است، بنابراین زمانی که اختلاف کوچک‌ترین بیت مثبت باشد، فرمول رگرسیون لجستیک منفی می‌شود، و تابع سیگموئید y = 0 را پیش‌بینی می‌کند. تفاوت فقط کمی مثبت است، به طور مشابه، بسیار بالا می رود و y = 1 را پیش بینی می کند. من نرخ یادگیری اولیه را از 1.0 کاهش دادم. 100.0، و تصمیم گرفتیم در عوض سعی کنیم آهسته تر آن را کاهش دهیم. بنابراین به جای اینکه وقتی تابع هزینه افزایش می‌یابد، آن را با ضریب ده کاهش دادم، آن را دو ضریب کاهش دادم. متأسفانه این به هیچ وجه نتیجه را برای من تغییر نداد. حتی اگر تعداد حلقه‌های نزول گرادیان را از 100 به 1000 افزایش دادم، همچنان آن نتیجه اشتباه را پیش‌بینی می‌کرد. من هنوز کاملاً مبتدی در رگرسیون لجستیک هستم (من به تازگی کلاس یادگیری ماشین را در coursera به پایان رساندم و این اولین بار است که سعی می کنم هر یک از الگوریتم هایی را که در آنجا یاد گرفتم پیاده سازی کنم)، بنابراین به میزان شهودم رسیده ام. اگر کسی به من کمک کند بفهمم اینجا چه مشکلی دارد، چه کار اشتباهی انجام می‌دهم، و چگونه می‌توانم آن را برطرف کنم، بسیار سپاسگزار خواهم بود. ویرایش: من آن را روی مجموعه داده دیگری نیز امتحان کردم که حدود 300 نقطه داده داشت و یک بار دیگر یک خط سبز صاف و یک خط آبی معمولی دریافت کردم. الگوریتم اساساً برای هر دو یکسان است، فقط برخی از نتایج متفاوت برای y زیرا من در حال انجام طبقه بندی چند کلاسه هستم.
رگرسیون لجستیک در برخی موارد با شکست مواجه می شود
67204
من احساس می کنم این ممکن است در جای دیگری پرسیده شده باشد، اما نه واقعاً با نوع توصیف اولیه ای که نیاز دارم. می دانم که غیرپارامتری به جای میانگین برای مقایسه... چیزی به میانه متکی است. من همچنین معتقدم که به جای انحراف معیار بر درجات آزادی(؟) تکیه دارد. هر چند اگر اشتباه می کنم مرا تصحیح کنید. من تحقیقات بسیار خوبی انجام داده‌ام، یا فکر می‌کردم، تلاش کرده‌ام مفهوم را بفهمم، کار پشت آن چیست، نتایج آزمایش واقعاً چه معنایی دارد، و/یا حتی با نتایج آزمایش چه باید کرد. با این حال، به نظر می رسد که هیچ کس هرگز وارد آن منطقه نشده است. به خاطر سادگی، بیایید به آزمون U Mann-Whitney بچسبیم، که من متوجه شدم بسیار محبوب است (و همچنین ظاهراً مورد سوء استفاده قرار گرفته و بیش از حد مورد استفاده قرار گرفته است تا مدل مربع خود را به یک سوراخ دایره ای وادار کند). اگر می‌خواهید بقیه تست‌ها را هم توصیف کنید، راحت باشید، اگرچه احساس می‌کنم وقتی یکی را فهمیدم، می‌توانم بقیه را به روشی مشابه با آزمون‌های t مختلف و غیره درک کنم. داده ها و من این نتیجه را دریافت می کنم: 2 نمونه Mann-Whitney - اطلاعات تست نوع مشتری H0: تفاوت میانه = 0 هکتار: تفاوت میانه ≠ 0 اندازه مشتری بزرگ تعداد کوچک 45 55 میانه 2 2 آمار Mann-Whitney: 2162.00 p-value (دو طرفه، تنظیم شده برای کراوات): 0.4156 من با روش های دیگر آشنا هستم، اما اینجا چه چیزی متفاوت است؟ آیا باید بخواهیم مقدار p کمتر از 0.05 باشد؟ آمار من ویتنی به چه معناست؟ فایده ای داره؟ آیا این اطلاعات در اینجا فقط تأیید می کند یا تأیید نمی کند که منبع خاصی از داده های من باید استفاده شود یا نباید استفاده شود؟ من تجربه معقولی در زمینه رگرسیون و اصول اولیه دارم، اما در مورد این چیزهای ناپارامتریک ویژه بسیار کنجکاو هستم - که می دانم کاستی های خودش را دارد. فقط تصور کنید من یک کلاس پنجم هستم و ببینید آیا می توانید آن را برای من توضیح دهید.
یک آزمون ناپارامتریک دقیقاً چه کاری انجام می دهد و با نتایج چه می کنید؟
93569
از آنجایی که ما از تابع لجستیک برای تبدیل ترکیب خطی ورودی به خروجی غیر خطی استفاده می کنیم، چگونه می توان رگرسیون لجستیک را یک طبقه بندی کننده خطی در نظر گرفت؟ رگرسیون خطی درست مانند یک شبکه عصبی بدون لایه پنهان است، پس چرا شبکه های عصبی طبقه بندی کننده غیرخطی در نظر گرفته می شوند و رگرسیون لجستیک خطی است؟
چرا رگرسیون لجستیک یک طبقه بندی کننده خطی است؟
17014
من هنوز با انتقال از STATISTICA/SPSS به R مشکل دارم. برای درک R، از داده‌های ChickWeight از بسته R استفاده کردم. یک فاکتور بین جوجه/آزمودنی ها، «رژیم غذایی» و یک فاکتور درون جوجه/آزمودنی ها وجود دارد. زمان که برای تجزیه و تحلیل وزن از آن استفاده کردم. با استفاده از دفترچه راهنمای R، من از تابع «aov()» استفاده کردم: Chicken.anova <- aov(وزن ~ (زمان * رژیم غذایی) + خطا (جوجه/زمان) + (رژیم غذایی)، داده = وزن جوجه) یک مجموعه از جلوه‌ها با «Chick» به عنوان عبارت خطا. این اثرات شامل اثر بین جوجه رژیم غذایی (طبق انتظار) و همچنین اثرات درون آزمودنی ها (غیر منتظره) بود. «aov()» نیز مجموعه دومی از افکت‌ها را به همراه داشت، با تعامل «Chick» با «Time» به عنوان عبارت خطا. وقتی داده‌ها را تغییر دادم، به طوری که «زمان» را می‌توان به‌عنوان یک اندازه‌گیری مکرر توسط STATISTICA در نظر گرفت، و سپس از فاکتور «رژیم غذایی» بین آزمودنی‌ها و فاکتور درون آزمودنی «زمان» برای تجزیه و تحلیل وزن استفاده کردم، آناووا نتایج متفاوتی را نشان داد. آشناتر) الگوی اثر. فاکتور بین آزمودنی‌ها اکنون فقط «رژیم غذایی» به عنوان تأثیر، با مقدار F 7.14، و «زمان(DAYS)» و تعامل «رژیم غذایی» با «زمان» («زمان» با «DAYS») فهرست شده است. درون موضوعات من فکر می‌کردم که anovas را به خوبی درک کرده‌ام، اما نمی‌توانم مزیت نتیجه «aov()» را نسبت به نتیجه STATISTICA درک کنم. دلیل این تفاوت چیست؟ نتایج تجزیه و تحلیل «aov()» و STATISTICA در زیر نشان داده شده است. کد R و نتایج ####aov() خلاصه (Chicken.anova <- aov(وزن ~ (زمان * رژیم غذایی) + + خطا (جوجه/زمان) + (رژیم غذایی)، داده=وزن جوجه)) خطا: Chick Df Sum Sq Mean Sq F مقدار Pr(>F) Time 1 89700 89700 12.4668 0.0009853 *** رژیم 3 121337 40446 5.6212 0.0023723 ** زمان:رژیم 1 2482 2482 0.3450 0.5599840 باقیمانده 44 316586 -- 71ign. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطا: Chick:Time Df Sum Sq Mean Sq F value Pr(>F) Time 1 1962914 348.424 <2.42e -16 *** زمان:رژیم 3 84222 28074 4.9834 0.004464 ** باقیمانده 46 259142 5634 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 نتایج آماری SS Degr. از MS F p Freedom Intercept 5567063 1 5567063 1425.22 0.000000 Diet 83716 3 27905 7.144 0.000489 خطای 179681 46 3904 2462463906 روزه 259.603 0.000000 روز*رژیم غذایی 76737 27 2842 4.932 0.000000 خطا 238578 414 576
R's aov() در مقابل STATISTICA و داده های ChickWeight
103608
من سعی می کنم نتیجه یک RCT را با استفاده از R ارزیابی کنم. شرکت کنندگان به طور تصادفی برای تکمیل یکی از دو مداخله آنلاین برای افسردگی تعیین شدند. می خواهم ببینم آیا تفاوتی در نمرات افسردگی پس آزمون بین گروه ها وجود دارد، در حالی که قبل از مداخله میزان افسردگی را کنترل می کنم. به عبارت دیگر، من می خواهم یک ANCOVA را با استفاده از نمرات افسردگی پایه به عنوان متغیر کمکی انجام دهم. من رویه‌هایی را دنبال می‌کنم که در «کشف آمار در R» (فیلد، مایل، و فیلد، 2013) توضیح داده شده است، اما کاملاً مطمئن هستم که روش‌هایی که استفاده می‌کنم با اندازه‌های نمونه نابرابر من سازگاری ندارند (درمان n = 43؛ کنترل n = 35). این دستور R من است: ancova.depression<-aov(depression.post ~ depresion.pre + Group, data=data.depression) Anova(ancova.depression, type=III) آیا رویکردهای دیگری وجود دارد که ممکن است مناسب تر باشد برای مجموعه داده من؟
ANCOVA در R با اندازه نمونه نابرابر
94689
من یک متغیر وابسته «هزینه» و یک متغیر مستقل «VPT» دارم. من می‌خواهم با Transformation Box-Cox یک تبدیل قدرت روی VPT انجام دهم. در پایان من به دنبال چیزی شبیه به این هستم: C~ I(VPT^(lambda)) مراحل دریافت لامبدا چیست؟ من خواندم که می توان این کار را با کتابخانه Mass انجام داد، اما گزینه های دیگر برای دریافت لامبدا نیز باز است.
تبدیل توان با استفاده از تبدیل Box-Cox
79765
من روی طبقه بندی متن دودویی با استفاده از sklearn کار می کنم: 1. طول هر نمونه زیاد نیست (~ 200-500 کاراکتر) 2. از TF-IDF برای بدست آوردن کلمات مهم به عنوان TfidfVetorizer استفاده می کنم (sublinear_tf=False, max_df=0.5, stop_words ='english'، max_features = 5000) 3. SGDClassifier به صورت زیر استفاده می شود: SGDClassifier(loss='hinge', alpha=.0001, n_iter=50, penalty=l2, shuffle=False , class_weight='auto') طبقه بندی کننده یادآوری خوبی را برای هر دو کلاس باینری نشان می دهد (~80) ٪، اما دقت ضعیف برای کلاس 1 (~40٪). همانطور که در برنامه من، دقت مهمتر از یادآوری است، من نمی دانم چگونه می توانم دقت را حتی با کاهش اندکی یادآوری بهبود بخشم؟ من با SGDClassifier وسواس ندارم. سایر طبقه بندی کننده ها خوب هستند.
افزایش دقت در طبقه بندی متن