_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
34612 | من در حال تلاش برای تخمین MLE برای توزیع نمایی با استفاده از «fmincon» در Maltab هستم. من برای تخمین پارامترم مشکل دارم. به عنوان مثال، من یک توزیع نمایی را با یک پارامتر انتخاب شده شبیه سازی می کنم و سپس از داده های شبیه سازی شده در MLE خود استفاده می کنم. بنابراین امیدوارم بتوانم همان پارامتری را پیدا کنم که داده های شبیه سازی شده خود را با آن تولید کردم. مشکلی که من دارم این است که نمیتوانم «fmincon» را برای ارزیابی پارامتر صحیح دریافت کنم... همیشه کران بالایی (مجموعه کران قبل از تخمین) پارامترم را به من میدهد. چرا؟ به من گفته شد که یک MLE می تواند به داده ها بسیار حساس باشد ... ساختار داده ها. بینش برای من وجود دارد؟ | تخمین MLE: به داده ها حساس هستید؟ |
95989 | فرض کنید من می خواهم تعداد کل N تیله را در بین M کیسه های تیله تخمین بزنم. فرض بر این است که تیله ها به طور معمول توزیع می شوند. من نمی توانم همه آنها را بشمارم، بنابراین تصمیم گرفتم از کیسه های S نمونه برداری کنم. من میانگین # تیله ها را از کیسه های S دریافت می کنم، سپس آن را میانگین برای کیسه های M فرض می کنم و ضرب می کنم. من به اندازه S چقدر از N فاصله دارم؟ چقدر می توانم اعتماد به نفس داشته باشم؟ | اگر تعداد کل بیت ها را بر اساس میانگین تعداد بیت ها در سطل های نمونه برداری شده محاسبه کنم، فاصله اطمینان چقدر است؟ |
66138 | اخیراً به مطالعه ای برخوردم که دو نتیجه زیر را نشان می دهد: * در سطح شرکت، متغیر مستقل $X_{it}$ تأثیر مثبتی بر متغیر وابسته $Y_{it}$ دارد. به طور مشخص، این مطالعه نشان میدهد که ضریب رگرسیون سری زمانی بازده تحققیافته در مورد تغییرات سود (با قیمت سهام) تقریباً برای همه شرکتها مثبت است. یعنی آنها یک رگرسیون سری زمانی برای هر شرکت اجرا می کنند و به توزیع بتا نگاه می کنند. هر دو میانگین و میانه مثبت هستند، تنها 10.7٪ بتای منفی دارند. * در سطح کل، آنها رابطه معکوس را پیدا می کنند، یعنی تغییرات سود کل (اعم از ارزش یا وزن برابر) دارای بتای منفی بر بازده کل سهام است. من نسبتاً از این یافته شگفت زده شده ام. من سعی کردم آن را به صورت آنلاین جستجو کنم و ابتدا به نظر می رسید که مشکل درک من را می توان با _ مغالطه زیست محیطی_ حل کرد (به ویکی پدیا مراجعه کنید). با این حال، من دیگر اینطور فکر نمی کنم. اگر درست بگویم، مکانیسم پشت این مغالطه اکولوژیکی متفاوت است. به عنوان مثال، مثال سوادآموزی-مهاجرت را از ویکی پدیا در نظر بگیرید: در هر گروه/ایالت، بی سوادی برای مهاجران بیشتر است، اما از آنجایی که مهاجران در ایالت های با سواد بالاتر ساکن می شوند، در مجموع، تأثیر منفی بین درصد مهاجرت و بی سوادی وجود دارد. بنابراین، اگر من آن را به درستی بفهمم، این تأثیر به این دلیل رخ می دهد که گروه ها، در این مورد ایالت ها، برای شروع متفاوت هستند و مهاجران می توانند ایالت ها را انتخاب کنند. بیایید فرض کنیم که مهاجران به صورت تصادفی در یک ایالت نمونه گیری می شوند. سپس این اثر کار نمی کند، درست است؟ با این حال، در مثال من، هیچ نمونه انتخابی وجود ندارد، حداقل چیزی که من از آن مطلع هستم، زیرا گروه ها دوره های زمانی هستند. به این معنا که در هر دوره زمانی، همه شرکتهای موجود در یک نمونه جمع میشوند و شرکتها واقعاً نمیتوانند دوره زمانی را انتخاب کنند. البته ممکن است شرکت ها در شرایط بد اقتصادی ورشکسته باشند، بنابراین حجم نمونه بین دوره های مختلف متفاوت است. اما بیایید برای یک ثانیه از آن چشم پوشی کنیم و فرض کنیم که تعداد شرکت ها در کل نمونه ثابت می ماند: چگونه ممکن است که ضریب رگرسیون در کل در مقایسه با توزیع ضرایب رگرسیون در سطح شرکت اینقدر متفاوت باشد؟ هم یک پاسخ رسمی و هم یک پاسخ شهودی (شاید یک مثال کوچک) عالی خواهد بود. | رگرسیون کل در مقابل رگرسیون سطح شرکت - چگونه ضرایب رگرسیون می توانند تا این حد متفاوت باشند؟ |
66134 | من یک مجموعه داده بیان ریزآرایه (46 نمونه، هزاران ویژگی) دارم و میخواهم ابتدا انتخاب ویژگی را انجام دهم و بر اساس این زیرمجموعه ویژگیها (بر اساس تعداد نمونههای کاهشیافته من نباید بیشتر از 4 یا 5 باشد) یک مدل طبقه بندی کننده ساخت. با توجه به کاهش احتمالات 46 نمونه، می خواهم برای کسانی که قبلاً با این نوع مشکلات مواجه شده اند، از شما راهنمایی بخواهم. در تجربه شما، چه استراتژی های انتخابی بهترین کار را انجام داده اند (روش های فیلتر در مقابل بسته بندی؟ به طور خاص؟) آیا از اعتبارسنجی متقابل در انتخاب ویژگی استفاده می کنید؟ با این مجموعه داده کاهش یافته من نمی توانم مجموعه داده خود را تقسیم کنم و از یک قسمت برای انتخاب ویژگی و قسمت دیگر برای ساخت طبقه بندی کننده استفاده کنم. من تاکنون از نرم افزار Weka استفاده کرده ام. با توجه به این وضعیت و امکاناتی که این نرم افزار ارائه می دهد، آیا می توانم انتخاب ویژگی را به طور جداگانه انجام دهم (Select Attributes) و پس از آن، ویژگی های بی فایده را از arff (پنجره پیش پردازش) حذف کنم و بعداً طبقه بندی کننده را بسازم (پنجره طبقه بندی) یا باید آیا از یک متا طبقه بندی کننده (به عنوان مثال AttributeSelectedClassifier) استفاده می کنم؟ مطمئن نیستم که این آخرین گزینه چه زمانی توصیه می شود. آیا با این کار بهتر از روش قبلی از بیش از حد برازش جلوگیری می شود؟ با عرض پوزش اگر پست به اندازه کافی دقیق نیست، اما هرگونه تجربه مرتبط با این نوع مشکلات، هر پیشنهادی برای خط لوله (و در صورت امکان در weka)، قدردانی خواهد شد. خیلی ممنون | داده های ریزآرایه: پیشنهاداتی در مورد انتخاب ویژگی + طرح آموزش مدل؟ |
66131 | می خواستم بدانم که تعریف مدل مؤلفه های واریانس چیست؟ من آن را به صورت آنلاین جستجو کردم، و متوجه شدم که اغلب با مدلهای جلوههای ترکیبی ظاهر میشود، اما نتوانستم بفهمم چیست، و تفاوت و ارتباط آن با مدلهای اثر ترکیبی چیست. با تشکر | مدل مولفه واریانس چیست؟ |
29625 | من باید 10 خوشه از 100 نمونه با بعد 100 پیدا کنم. من به دو پیاده سازی k-means دسترسی دارم. هر دوی آنها میانگین را با 10 نمونه انتخاب شده به طور تصادفی مقداردهی اولیه می کنند. وقتی این الگوریتمها را روی نمونههایم اجرا میکنم، میبینم که بلافاصله همگرا میشوند: پس از یک بار تکرار، راهحل با نتیجه زیر پایدار است: 1. نمونههایی که با میانگینها منطبق هستند به این خوشهها اختصاص مییابند. 2. بقیه (90) ) نمونه ها به خوشه **یک** اختصاص داده می شوند، به عنوان مثال. خوشه شماره 8. چگونه می تواند باشد؟ آیا یک باگ آشکار (مشترک) در این دو پیاده سازی وجود دارد یا صرفاً نتیجه برخی ویژگی های خاص نمونه ها است؟ من می دانم که نمونه ها همگی متعامد با یکدیگر هستند ($X = V \cdot \Lambda^{-1/2}$، که در آن $V$ و $\Lambda$ بردارهای ویژه و مقادیر -ماتریس دیگری هستند)، اما من ارتباطی نمی بینم در اینجا پیاده سازی خواناتر (در متلب) است. توجه داشته باشید که در یک نمونه اسباب بازی دو بعدی ساده، هر دو پیاده سازی به خوبی کار می کنند. تابع [z، میانگین] = kmeans(X, k) % ورودی: X: (d x n) n مشاهده در ستونهایی با اندازه d % k: تعداد خوشهها % خروجی: z: (k x 1) بردار تخصیص % به معنای: ( d x k) ماتریسی که ستونهای آن بردارهای میانگین هستند [d n] = size(X); max_iter = 300; tol = 1e-4; معنی = X(:، randperm(n)(1:k)); z = صفر (n, 1); iter = 0; تغییر = inf; err = inf; while (تغییر > tol && iter < max_iter) % گام انتساب برای i = 1:n diff = معنی - repmat(X(:,i), 1, k); [_, best_mean] = min(norm(diff, 'cols')); z(i) = best_mean; مرحله به روز رسانی پایان % برای j = 1:k ind = (z == j) ./ sum(z == j); means(:, j) = X * ind; پایان % خطای به روز رسانی old_err = err; خطا = 0; برای i = 1:n err = err + norm(means(:، z(i)) - X(:، i)، 'cols'); تغییر پایان = old_err - err; iter = iter + 1; پایان پایان | اگر k-means در حداقل محلی شروع شود چه؟ |
34610 | راهی برای تجزیه و تحلیل بقای دو (یا بیشتر) ریسک رقیب متقابل منحصر به فرد به عنوان ترکیبی از دو منحنی بقای مختلف وجود دارد. چیزی شبیه آنچه در A.C. Ghani et al. _روش های تخمین نسبت مرگ و میر موردی برای یک رمان، بیماری عفونی نوظهور_. مجله آمریکایی اپیدمیولوژی (2005) جلد. 162، شماره 5 چیزی که من به دنبال آن هستم بسته ای است که به تولید چیزی شبیه این شکل کمک می کند:  جایی که بقا است منحنی یک نتیجه و 1- منحنی بقای نتیجه دیگر در نهایت در نقطه خاصی که ترکیبی از این دو نتیجه است به هم می رسند. | بسته های R (یا کد SAS) برای تولید دو منحنی Kaplan-Meier به طور همزمان؟ |
92611 | مجموعه ای متشکل از 100 فیوز به شرح زیر بررسی می شود: پنج فیوز به صورت تصادفی انتخاب و آزمایش می شوند. اگر هر پنج در آمپراژ صحیح ضربه بزنند، لات پذیرفته می شود. احتمال قبولی لات با وجود 20 فیوز معیوب چقدر است؟ به نظر می رسد این یک مشکل توزیع دو جمله ای است. آیا این درست است؟ احتمال فیوز معیوب: $\frac{20}{100}=.2 \longrightarrow 0.8$ فیوزهای خوب احتمال اینکه لات پذیرفته شود: $$b(5;5,.8)={5\choose5}(.8 )^5(.2)^0$$ | احتمال قبولی لات با وجود 20 فیوز معیوب چقدر است؟ |
79297 | من یک سوال در مورد شبیه سازی توزیع های نرمال چند متغیره دارم: آیا باید از Cholesky یا SVD برای محاسبه ماتریس جذر کوواریانس استفاده کنیم؟ کدام یک از نظر محاسباتی سریعتر است؟ کدام قوی تر است؟ من از Python و numpy.linalg.svd یا numpy.linalg.cholesky استفاده می کنم. | با استفاده از Cholesky یا Singular Value Decomposition، نرمال چند متغیره را شبیه سازی کنید |
73593 | من یک مشکل دارم، من در حال یادگیری احتمالات هستم (من یک برنامه نویس هستم) و شروع به این کار دارم: > (منبع: Minka.) همسایه من دو فرزند دارد. با فرض اینکه جنسیت یک کودک > مانند یک سکه است، به احتمال زیاد، پیشینی، همسایه من > یک پسر و یک دختر دارد، به احتمال 1/2. احتمالات دیگر - دو پسر > یا دو دختر - احتمال 1/4 و 1/4 دارند. > > * الف. فرض کنید از او میپرسم که آیا پسری دارید یا خیر، و او میگوید بله. احتمال اینکه یکی از بچه ها دختر باشد چقدر است؟ > > * ب. در عوض فرض کنید که یکی از فرزندانش را می بینم که تحت کنترل است و > پسر است. احتمال اینکه فرزند دیگر دختر باشد چقدر است؟ حالا استدلال من این است: BB = 1/4 = 0.25 BG = 1/4 = 0.25 GB = 1/4 = 0.25 GG = 1/4 = 0.25 بنابراین برای a.، احتمال G را فقط با جمع کردن p بدست میآورم. (B,G) + p(G,B) = 0.5 و برای b. p(G|B) = p(G,B)/p(B) = 0.5/0.5 = 1 که اشتباه است اما دلیل آن را متوجه نمی شوم. | احتمال یادگیری استدلال بد مشروط و بدون قید و شرط |
3804 | فرض کنید من در حال مدل سازی مجموعه ای از فرآیندها با استفاده از یک بتا-دو جمله ای قبلی هستم. من میتوانم مدلهای بتا-دوجملهای پارامتری بسازم که میانگین آنها در گروههای بزرگی از فرآیندها باشد تا مقدمات معقول، هرچند درشت، ارائه دهد. $p_i \sim \beta B(n، \alpha_i، \beta_i)$ (تقریبا) من میدانم چگونه با استفاده از دادههای جزئی مشاهدهشده از طریق قانون بیز، آن پیشینها را بهروزرسانی کنم. با این حال، برای زیرمجموعهای از پیشینها، من در واقع دادههای تاریخی کمی دارم که میخواهم آنها را در پیشین ادغام کنم، آن را $h_j$، جایی که $j \in h$ زیرمجموعهای از $i$s است. . بنابراین نتیجه یک توزیع به روز شده است، آن را $p'_i$ نامید. این داده های اضافی یک اسکالر است. برای مثال، اگر من یک دوجمله ای بتا با $n=9$، $\alpha=2$ و $\beta=3$ داشته باشم (به مثال های تابع «dbetabin.ab» در بسته VGAM R مراجعه کنید) ، حالت 3 دارد، اما من ممکن است اطلاعات قبلی بیشتری داشته باشم که نشان می دهد حالت باید به 6 نزدیک تر باشد. اتفاقاً می دانم که این اطلاعات اضافی فقط پیش بینی اندکی است (مثلاً $r$ از 0.4). اما هنوز بهتر از هیچ است، و برای این فرآیند خاص، پیشبینیکننده بهتری نسبت به مقدار پیشبینیشده بتای دوجملهای قبلی من ($r$ حدود 0.3) شناخته شده است. بنابراین، چیزی که من به دنبال آن هستم، راهی برای بهروزرسانی بتا-دوجملهای با استفاده از این اسکالر است، به طوری که نتیجه نیز یک بتا-دوجملهای است، که میتوانم آن را مانند هر یک از مدلهای فرآیند دیگر خود با ورود داده بهروزرسانی کنم. (یعنی من به یک عبارت بسته نیاز دارم.) $(\alpha'_i, \beta'_i) = f(\alpha_i, \beta_i, h_i, \theta)$, $\theta$ با پیش بینی نسبی تخمین زده شده بتا-دوجمله ای اصلی و اسکالر $h$ ارتباط دارد. یک رویکرد معقول در اینجا چیست؟ آیا راهی برای تنظیم پارامترهای $\alpha$ و $\beta$ وجود دارد تا گرایش مرکزی به مقدار مناسبی به سمت اسکالر با پیشبینی متوسط کشیده شود؟ من خوشحالم که از اعتبار سنجی متقاطع یا چیزی برای شناسایی یک پارامتر وزنی استفاده کنم، اگر این راه درستی برای این کار باشد. با تشکر | به روز رسانی یک بتا دو جمله ای |
23488 | اندرو نگ در دوره آموزش ماشینی استنفورد به کاربرد ML در فناوری اطلاعات اشاره کرد. مدتی بعد وقتی DDoS با اندازه متوسط (حدود 20 هزار ربات) را در سایت خود دریافت کردم، تصمیم گرفتم با استفاده از طبقهبندی شبکه عصبی ساده با آن مبارزه کنم. من این اسکریپت پایتون را در حدود 30 دقیقه نوشتهام: https://github.com/SaveTheRbtz/junk/tree/master/neural_networks_vs_ddos از pyBrain استفاده میکند و 3 لاگ nginx را به عنوان ورودی میگیرد، دو تای آنها برای آموزش شبکه عصبی: 1. با پرس و جوهای خوب 2. با موارد بد و یک گزارش برای طبقه بندی از پرس و جوهای بد.. 0.0.0.0 - - [20/Dec/2011:20:00:08 +0400] POST /forum/index.php HTTP/1.1 503 107 http://www.mozilla-europe.org/ - ...و خوب... 0.0.0.0 - - [20/Dec/2011:15:00:03 +0400] GET /forum/rss.php?topic=347425 HTTP/1.0 200 1685 - Mozilla/5.0 (Windows; U; Windows NT 5.1; pl; rv:1.9) Gecko/20080532906 ... یک فرهنگ لغت می سازد: ['__UA___OS_U'، '__UA_EMPTY'، '__REQ___METHOD_POST'، '__REQ___HTTP_VER_HTTP/1.0'، '__REQ___URL___NETLOC_'، '__REQ____THOD_POST، '__REQ___THOD_Ph/s '__REQ___URL___PATH_/forum/index.php'، '__REQ___URL___SCHEME_'، '__REQ___HTTP_VER_HTTP/1.1'، '__UA___VER_Firefox/3.0'، '__REFER__uro,'__REFER_____NE. '__UA___OS_Windows'، '__UA___BASE_Mozilla/5.0'، '__CODE_503'، '__UA___OS_pl'، '__REFER___PATH_/'، '__REFER___SCHEME_http'، '__NO_RE '__REQ___METHOD_GET'، '__UA___OS_Windows NT 5.1'، '__UA___OS_rv:1.9'، '__REQ___URL___QS_topic'، '__UA___VER_Gecko/2008/2008/2008/2005 هر شبکه ما را آموزش می دهد. ما باید طبقه بندی کنیم_ ... 0.0.0.0 - - [20/Dec/2011:20:00:01 +0400] GET /forum/viewtopic.php?t=425550 HTTP/1.1 502 107 - BTWebClient /3000(25824) ... به ویژگی-بردار تبدیل می شود: [نادرست، نادرست، نادرست، غلط، درست، نادرست، نادرست، درست، درست، نادرست، نادرست، نادرست، نادرست، نادرست، نادرست، نادرست، نادرست، نادرست، درست، درست، نادرست، نادرست، نادرست، نادرست، نادرست] این مسیر استانداردی برای تقسیم مجموعه داده ها به مجموعه های آموزشی و آزمایشی، آموزش شبکه های عصبی و انتخاب بهترین وجود دارد. پس از این فرآیند (که بسته به اندازه مجموعه داده می تواند زمان زیادی طول بکشد) در نهایت می توانیم گزارش ها را با استفاده از شبکه آموزش دیده طبقه بندی کنیم. اما در اینجا تعدادی از مسائل مربوط به این رویکرد وجود دارد: 1. یادگیری ماشینی نظارت شده برای آن نوع مشکل تا حدی اشتباه است، زیرا برای _تشخیص ربات ها_ ابتدا نیاز به _تشخیص ربات ها_ و آموزش شبکه عصبی با آن داده ها دارم. 2. من رفتار مشتری را به حساب نمیآورم. بهتر است نمودار انتقال صفحه به صفحه را برای هر کاربر در نظر بگیرید. 3. من محلی بودن مشتریان را به حساب نمیآورم. اگر یکی از کامپیوترهای موجود در شبکه به ویروس آلوده شده باشد، احتمال آلوده شدن کامپیوترهای دیگر در آن شبکه بیشتر است. 4. من داده های موقعیت جغرافیایی را در حساب کاربری نمی گیرم. البته اگر سایتی را در روسیه راه اندازی می کنید، شانس کمی برای مشتریان برزیلی وجود دارد. 5. من نمی دانم که آیا استفاده از شبکه عصبی و طبقه بندی برای حل چنین مشکلی راه درستی بوده است یا خیر. شاید با سیستم تشخیص ناهنجاری بهتر بودم. 6. زمانی که روش ML آنلاین (یا به اصطلاح استریم) باشد بهتر است تا بتوان آن را در پرواز آموزش داد. **بنابراین سوال اینجاست:** اگر با مشکل مشابه دفاع در برابر حمله DDoS با توجه به گزارشهای وب سرور فعلی (شامل کلاینتها و رباتهای خوب) و دادههای تاریخی (گزارشهای روز قبل) با مشکل مشابه مواجه میشوید، چه میکنید. /هفته/ماه با مشتریان بیشتر خوب)؟ کدام رویکرد یادگیری ماشینی را انتخاب می کنید. از کدام الگوریتم ها استفاده می کنید؟ | استفاده از یادگیری ماشین برای فیلتر کردن DDoS |
104040 | من در تلاش برای درک تفاوت بین روشهای مختلف نمونهبرداری مجدد (شبیهسازی مونت کارلو، راهاندازی پارامتری، راهاندازی غیرپارامتری، جکنفینگ، اعتبارسنجی متقابل، تستهای تصادفیسازی، و تستهای جایگشت) و اجرای آنها در زمینه خودم با استفاده از R. وضعیت زیر - من می خواهم ANOVA را با متغیر _Y_ ('Yvar') و متغیر _X_ ('Xvar') انجام دهم. «Xvar» قاطعانه است. من به موارد زیر علاقه مند هستم: (1) اهمیت مقادیر p - نرخ کشف نادرست (2) اندازه اثر سطوح Xvar Yvar <- c(8،9،10،13،12، 14،18،12 ,8,9, 1,3,2,3,4) Xvar <- c(rep(A، 5)، rep(B، 5)، rep(C، 5)) mydf <- data.frame (Yvar، Xvar) آیا میتوانید تفاوتهای نمونهگیری را با مثالهای کار شده صریح توضیح دهم که چگونه این روش نمونهگیری مجدد کار میکند؟ **ویرایش ها:** اینها تلاش های من هستند: **Bootstrap** 10 نمونه بوت استرپ، تعداد نمونه نمونه با جایگزینی، به این معنی است که نمونه ها را می توان تکرار کرد boot.samples <- list() for(i در 1:10) { t.xvar <- Xvar[ نمونه(طول(Xvar)، طول(Xvar)، جایگزین=TRUE) ] t.yvar <- Yvar[ نمونه(طول(Yvar)، length(Yvar), replace=TRUE) ] b.df <- data.frame (t.xvar, t.yvar) boot.samples[[i]] <- b.df } str(boot.samples) boot.samples [1] ** جایگشت:** 10 نمونه جایگشت، تعداد نمونه نمونه بدون جایگزین permt.samples <- list() for(i در 1:10) { t.xvar <- Xvar[ نمونه(طول(Xvar)، طول(Xvar)، جایگزین=FALSE) ] t.yvar <- Yvar[ نمونه(طول(Yvar)، طول(Yvar)، جایگزین=FALSE) ] b .df <- data.frame (t.xvar، t.yvar) permt.samples[[i]] <- b.df } str(permt.samples) permt.samples[1] **شبیه سازی مونت کارو** اگرچه اصطلاح نمونه برداری مجدد اغلب برای اشاره به هر شبیه سازی تصادفی یا شبه تصادفی مکرر استفاده می شود، وقتی نمونه گیری مجدد از یک توزیع نظری شناخته شده انجام می شود، اصطلاح صحیح است. شبیه سازی مونته کارلو. من در مورد تمام عبارات بالا و اینکه آیا ویرایش های بالا من درست هستند مطمئن نیستم. من اطلاعاتی در مورد jacknife پیدا کردم، اما نتوانستم آن را در شرایط خودم رام کنم. | روشهای نمونهگیری مجدد/شبیهسازی: مونت کارلو، بوت استرپینگ، جک نایفینگ، اعتبارسنجی متقاطع، آزمایشهای تصادفیسازی و آزمایشهای جایگشت |
72460 | داده ها شامل توزیع دسته و زیرمجموعه هستند. دسته ها موضوعاتی در یک مسابقه مانند: موسیقی، ورزش، کسب و کار هستند. هر دسته دارای سه سطح برای انتخاب است: پایه، استاندارد و پیشرفته. به عنوان مثال: یک کاربر ممکن است در سطوح مختلف یک مسابقه در مورد موسیقی شرکت کند. فرض کنید که تعداد سوالاتی که سعی شده است 100 سوال باشد. کاربر در سطوح مختلف به آنها پاسخ داده است. 40 برای پایه، 40 برای استاندارد و 20 برای پیشرفته. داده ها شامل تعداد سوالاتی است که در هر دسته برای هر کاربر انجام شده است. بهترین راه برای نمایش این داده ها در یک نمودار چیست؟ هر نمودار حداکثر شامل 5 دسته اصلی است. | نمایش داده ها در چندین دسته و دسته های فرعی |
66132 | من با استفاده از بسته MatchIt در R یک همگروهی همسان ایجاد کردهام. فهرستی از اعضای گروه درمان و گروه کنترل را دارم. اما من نمی توانم بفهمم که کدام موضوع درمانی با کدام گروه کنترل مطابقت دارد. آیا کسی می تواند به من اشاره کند؟ برای من خیلی مهم است. پیشاپیش ممنون | درک خروجی MatchIt در R |
73844 | من سعی میکنم وارد مدلسازی اقتصادسنجی/تجاری شوم و جهان متغیرهای خارج از آنجا بسیار زیاد است. عملاً متغیرهایی به طور مداوم به روز می شوند (نرخ ارز، نرخ بهره، قیمت سهام و غیره)، در حالی که متغیرهایی نیز وجود دارند که ماهانه (آمار اشتغال، خرده فروشی) و فصلی (GDP) تغییر می کنند. چیزی که من به آن علاقه دارم این است که همه اینها را در یک مدل واحد ادغام کنم، حتی اگر فواصل هر یک از آنها طول متفاوتی داشته باشد. برخی از ایده هایی که داشته ام: 1. در نظر گرفتن هر متغیر کمتر به عنوان یک مداخله نسبت به متغیرهای اغلب در حال تغییر و استفاده از متغیرهای گام/نبض برای نشان دادن زمان گزارش (البته من در مورد تجزیه و تحلیل مداخله به غیر از آن اطلاعات زیادی ندارم. از اصول اولیه، شاید کسی بتواند من را به برخی ادبیات راهنمایی کند؟) 2. ایجاد متغیرهای ساختگی برای متغیرهای کمتر که مقادیر با تاخیر روزانه را نشان می دهند، یعنی برای هر فصلنامه متغیر 90*(تعداد چهارم) مقدار متغیرهای ساختگی وجود خواهد داشت، که هر کدام با مقداری در هر 90 موقعیت در آرایه مربوط به تغییر نسبت به قبلی است، یا هر مجموعه 90 مقدار شاخص یکسانی خواهد بود (نه نرخی از تغییر). آیا می توانم برخی از افکار شما را بشنوم؟ | ساخت مدل هایی با فواصل نابرابر بین مشاهدات سری های زمانی |
73592 | من در حال حاضر محاسبات را از طریق یک طراحی ناپیوستگی رگرسیون فازی اجرا می کنم. فرض کنید اطلاعات من به شکل زیر است: * $Z$: **متغیر انتساب** ; اگر $Z > Z_0$ باشد، آنگاه فرد با احتمال مشخصی $p_D$ به درمان اختصاص داده می شود (از آنجایی که ما در چارچوب RDD فازی، $p_D<1$ هستیم). * $D$: **وضعیت درمان** ; $D=1$ اگر فرد تحت درمان باشد، 0 در غیر این صورت. * $X$: مجموعه ای از متغیرهای برون زا. * $Y$: **متغیر نتیجه باینری**. تا آنجا که من می دانم - به عنوان مثال نگاه کنید. [1] - اجرای یک RDD فازی معادل اعمال متغیرهای ابزاری با استفاده از $Z$ به عنوان ابزار است (از این رو در مرحله اول باید $D$ روی $Z$ و $X$ پسرفت داشته باشیم). برای تخمین مدل از طریق Stata از کد زیر استفاده کردم: biprobit (Y = X D) (D = X Z) طبق برخی تحقیقاتی که انجام داده ام - به pdf نیکولز در [2] مراجعه کنید - بسته `-biprobit-` باید به دلیل ماهیت باینری متغیر درون زا ($D$) مورد نیاز است. آیا کدهای بالا را صحیح می دانید؟ آیا می توان از یک مدل احتمال خطی ساده مانند این استفاده کرد؟ ivregress 2sls Y X (D=Z) با تشکر از هر کمکی، Stefano > [1] Angrist, J. D., Pischke, J. (2008). _ اقتصاد سنجی عمدتاً بی ضرر: یک > همراه تجربه گرا _. انتشارات دانشگاه پرینستون > > [2]: > http://www.google.it/url?sa=t&rct=j&q=&esrc=s&source=web&cd=1&cad=rja&ved=0CDQQFjAA&url=http://www.stata.com/meeting/chicago11 /materials/chi11_nichols.pdf&ei=GvVnUvKOFIPv4gT- > moH4DQ&usg=AFQjCNGv9pmEIOIvhVsmmMq38q05pRbFbg&bvm=bv.55123115,d.bGE | طراحی ناپیوستگی رگرسیون فازی در Stata |
55272 | من در نحوه برخورد با متغیر نتیجه خود و در نتیجه اینکه کدام تحلیل رگرسیون را باید اعمال کنم، تردید دارم. من با یک متغیر شمارش کار می کنم، یعنی دفعاتی که یک فرد در مجموع روی 45 سوال گفت نمی دانم. توزیع بسیار دارای انحراف مثبت است و عدد صفر بالایی دارد. و مدرکی دال بر پراکندگی بیش از حد شدید وجود دارد. من معتقدم این به این دلیل است که وقتی به یک سوال می گویید نمی دانم، احتمال بیشتری وجود دارد که این کار را در مورد سوالات دیگر انجام دهید، زیرا همه آنها در یک موضوع هستند. بنابراین 45 آزمایش مستقل نیستند. من می توانم مجدداً یک نسبت محاسبه کنم و یک رگرسیون دوجمله ای اضافی اعمال کنم (با تعداد آزمایش = 45) و برآورد کننده هایی که به دست می آورم گزارش اختلاف احتمال امتیاز 1 (= نمی دانم، DK) در یک سؤال خاص است. (نسبت شانس). یا میتوانم آن را بهعنوان شمارشی در نظر بگیرم که توزیع آن به یک توزیع دوجملهای منفی اضافه تقریبی میکند (زیرا میانگین احتمال گفتن «نمیدانم» در یک آزمایش کم است، یعنی 0.05). سپس ضرایب رگرسیون لاگ تعداد تفاوت در دفعاتی که پاسخ دهنده می گوید DK (نسبت نرخ حادثه) را به من می دهد. حال سوال من این است که آیا رگرسیون دو جمله ای اضافی منفی بهتر از رگرسیون دو جمله ای اضافی برای پراکندگی بیش از حد اصلاح می شود؟ احساس میکنم اجازه میدهم واریانس دو بار تصادفی باشد، یک بار برای «دوجملهای منفی به جای poisson» و یک بار برای اجازه دادن به «پارامتر اضافی» برای تخمین تغییرات. یا اینکه این دو روش یکسان خواهند بود، و آیا می توانم آزادانه بر اساس تفسیری که ترجیح می دهم (نسبت شانس در مقابل نرخ بروز) انتخاب کنم؟  از پاسخ Glen_b متوجه شدم که برای توزیع دوجمله ای منفی نظری واریانس سریعتر از میانگین افزایش می یابد. چگونه می توانم این را در توزیع تجربی خود ارزیابی کنم، زیرا من فقط یک اندازه گیری از میانگین و واریانس دارم؟ آیا باید این را برای گروه های مختلف پاسخ دهندگان، مثلاً مردان و زنان، مقایسه کنم و افزایش میانگین و واریانس آنها را با هم مقایسه کنم؟ آیا انجام تست های GOF برای Bin و Negbin به من جواب قاطع می دهد؟ | توزیع دو جمله ای اضافی منفی یا توزیع دو جمله ای اضافی |
73594 | به نظر می رسد سوال من بسیار ابتدایی است اما جستجوی من هیچ سوال مشابهی ارائه نداده است. من مجموعه داده کوچکی از 8 مقدار $(x,y)$ با عدم قطعیت برای $y$ (متغیر وابسته) دارم و این نظریه وابستگی درجه دوم $y=a x^2 + b x + c$ را پیشبینی میکند. من میخواهم این مجموعه داده را با معادله درجه دوم برازش دهم و فواصل اطمینان را برای پارامترهای $a$, $b$, $c$ بر اساس هر دو بر اساس باقیماندهها محاسبه کنم (آنها بسیار کوچک هستند، یعنی مدل درجه دوم دادههای تجربی را با بسیار توصیف میکند. باقیمانده های کوچک) و در عدم قطعیت اعلام شده برای هر اندازه گیری (عدم قطعیت ها بسیار بزرگتر از باقیمانده ها هستند). صحیح ترین راه برای این کار چیست؟ | فواصل اطمینان پارامتر که شامل خطا در داده ها می شود |
104047 | دنبال این موضوع آیا میانگین یک متغیر تصادفی تک متغیره همیشه با انتگرال تابع کمیت آن برابر است؟ من سعی کردم کار مشابهی را برای یک انتظار مشروط انجام دهم. به نظر می رسد مهارت های تصادفی من کمی زنگ زده است. برای یک r.v پیوسته با پشتیبانی روی خط واقعی، من فکر میکنم که دارای $ E[X|X<q_\theta] = \int_{-\infty}^\infty x f(x|x<q_\theta)dx = ... = \ frac{1}{F(q_\theta)} \int_{-\infty}^{q_\theta} x f(x)dx = \frac{1}{\theta} \int_{0}^{\theta}F^{-1} (p) dp$ که $q_\theta$ مقدار $\theta$ و $f(x)$ چگالی است، $F(x) $ cdf و $F^{-1}(x)$ تابع quantile است. ویرایش: راه حل من تاکنون $E[X|X<q_\theta]=\int xf(x|x<q_\theta)dx = \int x \frac{f(x)P(x<q_\theta است |X=x)}{\int f(u)P(u<q_\theta|X=u)du}dx = \frac{1}{\int f(u) 1{(u<q_\theta)}du} \int x f(x) 1{(x<q_\theta)}dx= \frac{1}{F(q_\theta)} \int_{-\infty} ^{q_\theta} xf(x)dx = \frac{1}{\theta} \int_{0}^{\theta}F^{-1} (p) dp$ با استفاده از رابطه $f(x|B)=\frac{f(x)P(B|X=x)}{\int f(x)P(B|X=x)dx}$ اینجا را ببینید http://www. math.uah.edu/stat/dist/Conditional.html مشکلی نیست؟ پیشاپیش برای هر گونه پیشنهادی بسیار متشکرم! | انتظار شرطی از طریق تابع انتگرال بیش از کوانتیل |
29628 | من سعی می کنم کریجینگ معمولی را بفهمم. بگویید من 3 اندازه گیری ارتفاع دارم: Z1، Z2 و Z3 که در موقعیت های X گرفته شده است: X1، X2 و X3. من همچنین مقداری semivariogram را فرض میکنم: g(h) و این فرآیند ثابت است. از آنجایی که من متوجه شدم، وزنهای کریجینگ در این مورد باید باشد؟: $ L = M^{-1}*Gs $ Where: $L=\ \left( \begin{array}{ccc} l_1 \\\ l_2 \\ \ l_3 \\\ \mu\end{آرایه} \راست) $ $\ M = \left( \begin{array}{ccc} g(0) && g(X2-X1) && g(X3-X1) && 1 \\\ g(X2-X1) && g(0) && g(X3-X2) && 1 \\\ g(X3-X1) && g(X3-X2) && g (0) && 1 \\\ 1 && 1 && 1 && 0 \end{آرایه} \راست)$ $Gs=\ \چپ( \begin{آرایه}{ccc} g(|X1 - Xs|) \\\ g(|X2 - Xs|) \\\ g(|X3 - Xs|) \\\ 1 \end{آرایه} \راست) $ و ارتفاع Zs در موقعیت x Xs باید با ? برآورد شود: $\ Z(Xs)=\sum_{i=1}^3 l_i*Zi$ آیا معکوس ماتریس خواهد بود مشکل ایجاد کند؟ من یک اسکریپت Matlab در اینترنت پیدا کردم که به جای آن از Moore-Penrose pseudoinverse استفاده می کرد. دلیل اینکه من این سوال را میپرسم این است که یک اسکریپت Matlab را روی آن کدنویسی کردم که X و Z تصادفی را ترسیم میکرد. و به نظر می رسید که در اکثر مواقع خوب کار می کند، اما هر از چند گاهی تخمین دیوانه ای برای Z(Xs) برمی گرداند. بنابراین من فقط سعی میکنم بفهمم که آیا این نظریه را اشتباه متوجه شدهام، آیا معکوس ماتریس گاهی اوقات حالت بدی پیدا میکند یا اینکه من به تازگی در کدنویسی Matlab خود دچار مشکل شدهام. این اسکریپت Matlab من است: % kriging.m n = 3; X = 1000*rand(1,n); Z = 1000 + 100*randn(1,n); stem(X,Z,'b'); نگه دارید؛ a0 = 300; محدوده % c0 = 4; % مقیاس M = ones(n+1,n+1); برای r = 1 : n برای c = 1 : n Xr = X(r); Xc = X(c); h = abs (Xr - Xc)؛ M(r,c) = c0*(1-exp( -(h/a0)^2)); انتهای انتهایی M(n+1,n+1) = 0 MI = inv(M) Xs = 500; hs = abs (X - Xs)؛ Gs = c0*(1-exp( -(hs/a0).^2)); Gs = [Gs 1]' L = MI*Gs; L = L(1:n) Zs = Z*L stem(Xs,Zs,'r') و در اینجا مثالی از یک نتیجه دیوانه وجود دارد: X = 117.4177 296.6759 318.7783 Z = 1.0e+003 * 0.9679 1.00912 M = 1.00912. 0 1.2010 1.4508 1.0000 1.2010 0 0.0217 1.0000 1.4508 0.0217 0 1.0000 1.0000 1.0000 1.0000 0 MI = 0.83831 - 0.83831 - 0.83831 5.4. 5.2214 -55.8175 50.5960 -6.3666 -4.3883 50.5960 -46.2077 6.2710 1.0956 -6.3666 6.2710 -1.4516 -1.4516 Gs = 3.2423.231. 1.0000 L = 0.7441 -9.9423 10.1982 Zs = -2.1255e+003  | کیس ثابت کریجینگ معمولی |
50040 | من یک متغیر پاسخ ترتیبی (دارای 4 سطح) و 3 متغیر کمکی طبقه بندی دارم (هر کدام به ترتیب سطوح مختلف 3، 5، 2 و 4 دارند). ما همچنین با مشاهدات مکرر سر و کار داریم. من یک مدل رگرسیون لجستیک ترتیبی چند جمله ای را در SAS نصب کردم، اما در مورد خروجی مطمئن نیستم. تعداد کل مشاهدات تقریباً 1700 است. این کدی است که من استفاده می کنم (من مرتب سازی کردم): > > proc glimmix data=mydata METHOD=LAPLACE; > کلاس ID Resp A B C D; > مدل Resp = A B C D / راه حل dist=پیوند چند جمله ای=CUMLOGIT; > > > % من تصادفی _ باقی مانده _ /subject=ID را امتحان کردم. اما کار نکرد > > > random intercept/subject=ID; > اجرا؛ > تخمین، خطای استاندارد، DF، t Value، و Pr > |t| را برای هر سطح برای متغیرهای کمکی، به جز خط پایه، دریافت میکنم. با این حال، برای متغیر D (4 سطح وجود دارد)، من این مقادیر را فقط برای یک سطح دریافت می کنم. یه چیز دیگه برای همون متغیر D باید DF 3 باشه ولی تو جدول _Type III Tests of Fixed Effects_ که از SAS گرفته شده برابر 1 میشه. کسی میدونه اینجا چی میشه؟ | نتایج حاصل از مدل رگرسیون لجستیک ترتیبی چند جمله ای |
55279 | فرض کنید یک جدول دارید: مرگ سیگار کشیدن کم متوسط زیاد بله 50 100 150 نه 4 10 14 می دانم که آزمون مربع کای بهترین برای تعیین استقلال متغیرها است، اما چگونه می توان یک مدل برای این داده ها ایجاد کرد که در آن مرگ متغیر پاسخ است. | مدل طبقه بندی |
3805 | من یه مدل خیلی ساده دارم این مدل از داده هایی استفاده می کند که به عنوان توزیع های پیوسته داده نمی شوند، اما توسط صدک ها توصیف می شوند. بهترین راه برای نمونه برداری از این سطل های صدکی، زمانی که سطل ها دارای اندازه نابرابر هستند، چیست؟ بنابراین، برای مثال، برای انتخاب وزن بدن برای یک فرد معین، یک عدد تصادفی بین 0-100 انتخاب میکنم، سپس این مقدار را با نزدیکترین صدک مطابقت میدهم. من درون یابی یا برون یابی نمی کنم، فقط مقداری را که می کشم با نزدیکترین سطل مطابقت می دهم. (برون یابی با توجه به داده ها ایده خوبی نیست.) بیایید بگوییم، برای وزن بدن، صدک های من 25، 50 و 75 است. اما این اندازه سطل های 37.5 (0-37.5)، 25 (37.5-62.5) را نشان می دهد. ، و 37.5 (62.5-100). بنابراین به دلیل نابرابر بودن اندازههای سطل، من هر دو سطل 25% و 75% را بسیار بیشتر از نمونهبرداری از سطل میانی، 50%، نمونهبرداری میکنم. این برعکس چیزی است که من دوست دارم اتفاق بیفتد. من میتوانم سطلها را وزن کنم، اما به نظر خودسر میرسد. یا، به جای اینکه عدد تصادفی خود را از یک توزیع یکنواخت 0-100 ترسیم کنم، می توانم آن را از یک توزیع معمولی در مرکز میانه بکشم، اما این نیز دلخواه به نظر می رسد. یا، در عوض، دوست دارم متقاعد شوم که واقعاً در اینجا مشکلی ندارم. هیچ ایده ای در مورد اینکه چگونه می توانم این را بهتر تنظیم کنم؟ با تشکر | نمونه برداری با سطل های نابرابر؟ |
22282 | این یک مشکل فنی است که من در تحقیقات با آن مواجه شدم. ببخشید اگر برای آماردانان حرفه ای ساده است. اجازه دهید $X_1، \cdots، X_n$ متغیرهای تصادفی استاندارد کوشی iid باشند. چه تخمین یا فرمول دقیقی برای میانه $\sum_{i=1}^n |X_i|$ وجود دارد؟ برای $n=1$، می توان آن را به صراحت محاسبه کرد که میانه $1$ است: $$ \mathbb{P}\left[X \leq t\right] = \frac{2}{\pi}\int_0^t \; \frac{1}{1+x^2}\; dx = \frac{2}{\pi} \left.\arctan x \right|_{0}^t = \frac{2}{\pi} \arctan t. $$ در مورد $n>1$ چطور؟ پیشنهادی دارید؟ | بیان برای میانه مجموع متغیرهای تصادفی نیمه کوشی |
24593 | چه محدوده ای از حجم نمونه احتمال یافتن معنی داری را در مربع کای 2×2 افزایش می دهد؟ بین هنرمندان (36=n) و غیرهنرمندان (20=n) در 2 سطح خلقی (اختلال خفیف یا شدید) با بیش از 5 در هر سلول رابطه معناداری پیدا نکردم. | چه محدوده ای از حجم نمونه احتمال یافتن معنی داری را در مربع کای 3×2 افزایش می دهد؟ |
72466 | در تجربیات و خوانشهای من، Kaplan-Meier همیشه برای محاسبه بقای افتراقی بین تعداد معینی از گروهها استفاده شده است. با این حال، من به دنبال ارزیابی زمان بهبودی از یک رویداد خاص هستم که با سطوح فعالیت اندازهگیری میشود. در زمان صفر، همه اساساً «مرده» (غیر متحرک) هستند و با گذشت زمان دوباره تحرک خود را به دست میآورند. به نظر می رسد کاپلان مایر منفی است، آیا این امکان پذیر است؟ یا باید به دنبال استراتژی مدلسازی متفاوتی باشم؟ | Kaplan Meier - آیا می توانم برای ارزیابی بهبود عملکرد، نه فقط از دست دادن، استفاده کنم؟ |
72467 | من سعی میکنم مجموعهای از متغیرهای تصادفی مرتبط علّی را تولید کنم و این کار را با رویکرد مونت کارلو شروع کردم. خط مبنا یک هیستوگرام اندازه گیری شده دو بعدی است که من مقادیر تصادفی را از آن ترسیم می کنم. در مثالهای عینی من، این متغیرها شتاب $\bf{a}$ و سرعت $\bf{v}$ هستند - بنابراین واضح است که $v_{i+1} = v_{i} + a_i * dt$ باید حفظ شود. رویکرد ساده لوح فعلی من این است: من با مقداری $v_0$ شروع می کنم. سپس یک $a_0$ تصادفی با توجه به احتمال اندازه گیری شده $\bf{a}$ برای مقدار $v_0$ ایجاد می کنم. با استفاده از این $a_0$ می توانم $v_1$ را محاسبه کنم و کل روند دوباره شروع می شود. بنابراین وقتی شتابهای ایجاد شده $\bf{a}$ را در سطلهای $\bf{v}$ بررسی میکنم، همه چیز خوب است. اما من بدیهی است که این به هیچ وجه به توزیع حاشیه ای $\bf{v}$ احترام نمی گذارد. من تا حدودی با روشهای مونت کارلو اولیه آشنا هستم، اگرچه آنطور که ممکن است حدس بزنید فاقد پیشزمینه نظری هستم. اگر این دو متغیر با ماتریس همبستگی _just_ به هم متصل شوند، خوب میشوم، اما ارتباط علی بین این دو باعث سردرد من میشود. من نتوانستم در جایی مثالی برای این نوع مشکل پیدا کنم - ممکن است اصطلاحات اشتباهی را در گوگل جستجو کنم. خوشحال می شوم اگر کسی بتواند به من برخی ادبیات/مثال یا روش امیدوارکننده را برای دستیابی به این موضوع راهنمایی کند. (یا به من بگویید که با توجه به ورودی های من واقعاً امکان پذیر نیست - این چیزی است که من گهگاه حدس می زنم...) **ویرایش:** هدف واقعی کل این روش: من مجموعه ای از اندازه گیری ها را دارم $\bf{a} $ و $\bf{v}$، در یک هیستوگرام دو بعدی $N(a,v)$ نشان داده شده است. با توجه به این ورودی، میخواهم مجموعههایی از $\bf{a_r}$ و $\bf{v_r}$ تصادفی ایجاد کنم که توزیع اندازهگیری شده را بازتولید میکنند. | ایجاد متغیرهای تصادفی وابسته به علی |
55271 | من به دنبال یک بسته نرم افزاری هستم که بتواند تجزیه و تحلیل پایداری را انجام دهد که توسط: Eberhart, S.A. and W.A. Russell, 1966 انجام شده است. پارامترهای پایداری برای مقایسه واریته ها. Crop Sci., 6: 36-40. یک روش کاملا قدیمی است اما هنوز بسیار مورد استقبال قرار می گیرد. همچنین میخواهم آنالیز مدل AMMI را برای آنالیز GxE انجام دهم. آیا بسته نرم افزاری R وجود دارد که بتواند این کار را انجام دهد؟ | آیا بسته نرم افزاری R که بتواند GxE و تجزیه و تحلیل پایداری را انجام دهد؟ |
96774 | تاکنون آزمایشهای خودم برای تطبیق چنین توزیع مخلوطی با دادههای شبیهسازی شده یا واقعی در R ناموفق بوده است (حتی اگر دادهها از یک مخلوط t دو جزء شبیهسازی شده باشند!!!). من می خواهم همین کار را در متلب امتحان کنم. اما چندین حرفه ای که با آنها صحبت کرده ام می گویند که ممکن است به طور کلی تطبیق چنین توزیعی سخت باشد زیرا دم های سنگین در t دانش آموز و مسطح بودن تابع احتمال در نتیجه حاصل می شود. بنابراین من بسیار علاقه مند خواهم بود اگر هر یک از شما تا به حال توانسته باشد چنین توزیعی را با موفقیت انجام دهد - قبل از اینکه بخواهم همین کار را در matlab، stata، C و ... انجام دهم، همه پارامترها باید تخمین زده شوند (قانون اختلاط، جزء میانگین، انحراف استاندارد مؤلفه (یا به طور متناوب عوامل مقیاسپذیر)، درجات آزادی مؤلفه). هر الگوریتم و زبان برنامه نویسی میره! برای مثالی از پارامترسازی مولفه به عنوان مثال مراجعه کنید. اینجا: http://en.wikipedia.org/wiki/Student%27s_t-distribution#Non- standardized_Student.27s_t-distribution پیشاپیش بسیار متشکرم!!! | برازش خودکار یک توزیع مخلوط با دو مولفه t دانش آموزی با مقیاس تک متغیره |
22284 | در رگرسیون خطی ساده، $t = \frac{\hat\beta_1 - \beta_1}{\hat\sigma \sqrt{S_{xx}}} $ آمار آزمون برای فرض صفر $H_0 است: \beta_1 = 0$ . چگونه می توانم $t^2$ را به عنوان یک توزیع F بیان کنم، یعنی به عنوان نسبت دو متغیر تصادفی مجذور کای مستقل تقسیم بر درجات آزادی مربوطه آنها؟ تا اینجا من $t^2 = \frac{\hat\beta_1^2}{\hat\sigma^2 / S_{xx}}$ از $\beta_1 = 0$ دارم و سپس نشان دادم که مخرج $ \hat\sigma^2 = \frac{\sum (y_i - (\hat\beta_0 + \hat\beta_1x_1)^2 }{n} = \frac{\sum e_i^2}{n}$ یک توزیع خی دو تقسیم بر درجات آزادی آن است، زیرا $e_i$ خطای $i$ است و $e_i$s متغیرهای تصادفی مستقل و معمولاً توزیع شده هستند ایده چگونه نشان دهد که عدد $\hat\beta_1^2 S_{xx}$ نیز یک توزیع مربع کای است... چگونه می توانم این کار را انجام دهم؟ | در رگرسیون خطی ساده، چگونه نشان دهم که آماره آزمون مجذور فرضیه صفر دارای توزیع F است؟ |
55273 | من یک رگرسیون خطی چندگانه با چند متغیر مستقل در آن دارم. اکثر آنها در p<0.001 معنی دار هستند. R² این مدل 0.83 است. وقتی متغیرهای بیشتری اضافه میکنم، متغیرهای قدیمی و جدید همگی بسیار مهم هستند، اما R² اصلاً بهبود نمییابد. این به من چه می گوید؟ | ضریب بسیار معنی دار R² را افزایش نمی دهد |
93207 | آیا می توان زیر مجموعه های واقعی یک جمعیت را با کل جمعیت واقعی مقایسه و آزمایش کرد؟ یعنی فرض کنید برای یک تیم بیسبال میخواهیم بدانیم چه بازیکنانی در درصد پایه تیم سهیم هستند، چه بازیکنانی به آن آسیب میزنند، و کدام بازیکنان با نرخی غیرقابل تشخیص از تیم عمل میکنند؟ ما تعداد واقعی فرصتها را برای تیم داریم و تعداد واقعی دفعاتی که یک نفر به پایه رسیده است، و سپس همه بازیکنان و همه فرصتها و موفقیتهای آنها را داریم. هر بازیکن (و امتیاز) زیرمجموعه ای از تیم (و نرخ کلی آن) است. آیا با مقایسه هر بازیکن با تیم به سادگی یک مربع کای انجام می شود؟ آیا ابتدا باید اعداد آن بازیکن را از تیم کم کرد تا بازیکن را با سایر اعضای تیم مقایسه کرد؟ یا، همانطور که ساده تر است، آیا می توان هر بازیکن را با تیم (از جمله آن بازیکن) مقایسه کرد؟ آیا راه بهتری برای اجرای این نوع تحلیل وجود دارد تا به این سوال پاسخ دهیم که کدام زیرمجموعه به عملکرد جمعیت کمک می کند و کدامیک به عملکرد جمعیت آسیب می زند؟ با تشکر از شما برای هر گونه کمک در این مورد! | مقایسه زیر مجموعه ای از جمعیت با کل جمعیت؟ |
73596 | من از معیارهای گلمن و روبین یا گیوکه استفاده می کنم. با این حال، آنها برای نمونه برداری از توزیع چند وجهی، مثلا p(x) قابل استفاده نیستند، زیرا یک زنجیره می تواند در حالت محلی گیر کند. در چنین مواردی، زنجیره ثابت به نظر می رسد و دو معیار همگرایی نتیجه بدی را به همراه خواهد داشت که خاتمه نمونه گیری بی خطر است، در واقع اینطور نیست. هنگامی که من به مشکلات اسباب بازی رسیدگی، من اولین یا دومین لحظه از توزیع هدف شناخته شده است. فاصله بین مقدار و تقریب آن با استفاده از زنجیره مربوطه به عنوان یک معیار همگرایی استفاده شد، اما عملا قابل اجرا نیست. آیا معیار همگرایی MCMC وجود دارد که از توزیع های هدف استفاده کند؟ | بهترین معیار همگرایی MCMC چیست؟ |
63959 | من دو ماتریس دارم، هر دو 46175 * 741 (ردیف متغیرها بر اساس ستون افراد/مشاهدات). ماتریس A شامل یک متغیر طبقه بندی شده (شاید وابسته) است (0/1/2 یا NA) و ماتریس B پیوسته و مستقل است (از 0 تا زوج 100). می خواهم ببینم آیا رابطه ای بین این داده ها وجود دارد یا خیر. اولا، آیا من فکر می کنم که LDA در R یک روش معتبر برای آزمایش این است؟ اگر بله، دقیقاً چگونه این را اجرا کنم؟ z <- lda(data= MatrixA, x= MatrixB, grouping=MatrixB) نزدیکترین چیزی است که من دریافت کرده ام، اما کار نمی کند. دریافت می کنم: z <- lda(data= MatrixA , x= MatrixB, grouping=MatrixB) خطا در lda.default(x, grouping, ...) : nrow(x) و length(grouping) متفاوت هستند قطعه داده: Matrix ------------------------- SampleA SampleB SampleC NA 0 1 NA NA NA 1 2 0 0 0 0 ماتریس B ----------------------- SampleA SampleB SampleC 0 0 0 83 124 56 39 45 5 12714 12477 8751 ماتریس ها حاوی داده هایی در مورد افراد مشابه، به ترتیب ستون ها و ردیف ها ماتریس A حاوی ژنوتیپ ها (اطلاعات ژنتیکی) است که یا 0/1/2 است یا نمی توان به دست آورد (NA). MatrixB تعداد خوانش هایی است که با آن منطقه تراز شده است. بنابراین صفر در این با صفر در MatrixA یکسان نیست و بیشتر شبیه NA آن است. | تحلیل تفکیک خطی در R |
24595 | من در حال حاضر با کسی بحث می کنم که چگونه داده ها را با اندازه گیری های متعدد برای هر موضوع به درستی درمان کنم. در این مورد داده ها برای هر موضوع در مدت زمان کوتاهی برای شرایط مختلف هر موضوع جمع آوری شد. همه اندازهگیریها دقیقاً یک متغیر را جمعآوری میکنند، فقط چندتایی. اکنون یک گزینه این است که داده ها را بر اساس شرایط گروه بندی کنید و اهمیتی ندهید که چندین نقطه داده از یک موضوع می آیند. با این حال، نقاط داده از هر موضوع احتمالاً کاملاً مستقل نیستند. گزینه دیگر این است که ابتدا میانگین تمام اندازه گیری ها را برای هر شرط از هر موضوع گرفته و سپس میانگین ها را با هم مقایسه کنید. با این حال، این احتمالاً بر اهمیت تأثیر می گذارد، زیرا در تحلیل نهایی در نظر گرفته نشده است که میانگین ها خطای کمتری دارند. چگونه می توانید چنین داده هایی را به درستی تجزیه و تحلیل کنید؟ آیا این به نوعی در SPSS رعایت شده است؟ در اصل باید بتوان حاشیه خطا را هنگام محاسبه میانگین محاسبه کرد و آن را در تحلیل نهایی در نظر گرفت، اما من حدس نمیزنم که SPSS به نوعی این محاسبه را پشت سر من انجام میدهد. | نحوه برخورد صحیح چندین نقطه داده در هر موضوع |
22285 | این یک سوال تکلیفی است، اما من علاقه ای به پاسخ ندارم. سوال این است: > دانش آموزی برای امتحان آینده آماده می شود. استاد دوره > 30 سوال برای مطالعه به کلاس داده است و قصد دارد 10 سوال از > را برای استفاده در امتحان واقعی انتخاب کند. فرض کنید دانش آموز می داند که چگونه 25 سوال از 30 سوال را حل کند. > > الف) احتمال اینکه دانش آموز در آزمون کامل شود چقدر است؟ > > ب) احتمال اینکه دانش آموز حداقل 8 سوال > صحیح را در آزمون بگیرد چقدر است؟ بنابراین بگذارید رویداد A رویدادی باشد که یک سوال در آزمون قرار می گیرد و B رویدادی باشد که من می دانم چگونه به آن پاسخ دهم. بنابراین P(A) = 10/30 و P(B) = 25/30 اکنون احتمال اینکه یک سوال در آزمون باشد و من می دانم چگونه آن را حل کنم P(AandB) = (10/30)*(25/) است. 30). آیا این درست است؟ اگر نه چرا؟ همچنین لطفاً مطمئن شوید که چگونه به درستی نشان می دهید که چگونه می توانید به راحتی ادعا کنید که احتمال درست گرفتن کمتر از 5 سؤال صفر است زیرا اگر تصادفاً 5 سؤال از سؤالات توسط استاد انتخاب شده باشد که پنج سؤال را من نمی دانم حل کنید، من هنوز می دانم چگونه 25 سوال باقی مانده را حل کنم. با تشکر از کمک شما. | احتمال اینکه یک نمونه تصادفی دارای عناصر خاصی باشد |
50042 | در ابتدا، من باید از اصطلاحات نامرتب خود عذر خواهی کنم، زیرا در کل موضوع کاملاً تازه کار هستم. یک فضای فاز دو بعدی واقعی را تصور کنید که ویژگی های مرتبط با آب و هوا را نشان می دهد. من مجموعهای از N متغیر از یک توزیع دو متغیره دلخواه دارم که این ویژگیها را در منطقه A در دهه 1950 نشان میدهد. و من مجموعه دیگری از N متغیر از توزیع دلخواه دیگری دارم (که البته باید کاملاً شبیه اولین باشد) که این خصوصیات را در همان منطقه در دهه 1990 نشان می دهد. چیزی که می خواهم بررسی کنم شباهت یا واگرایی است. و همچنین اگر مجموعه سومی از نقاط که من از منطقه B دارم، بیشتر شبیه به منطقه A در دهه 1990 باشد، منطقه A به خودش در دهه 1950 است. امیدوارم به چیزی که میخوام برسی؟ | یافتن اندازه گیری فاصله / واگرایی / شباهت مناسب در یک فضای فاز دو بعدی واقعی |
24623 | من اخیراً از الگوریتم Lasso مطلع شدم و متوجه شدم که بسته glmnet می تواند برای حل آن استفاده شود. (من بسته glmnet را روی R دارم). اگر یک ماتریس $A$ و یک بردار $y$ داشته باشم چگونه می توانم مشکل کمند کوچک کردن $\|y-Ax\| را حل کنم. + \lambda \|x\|_1$؟ همچنین، چگونه می توانم مشکل محدود را حل کنم: $\|y-Ax\|$ s.t را به حداقل برسانم. $\|x\|_1 \leq t$؟ هر گونه کمک بسیار قدردانی می شود. با تشکر | استفاده از glmnet برای حل مشکل LASSO |
34613 | بنابراین از من سؤالی پرسیده شد که بر اساس کدام معیارهای مرکزی L1 (یعنی کمند) و L2 (یعنی رگرسیون خط الراس) تخمین زده می شود. پاسخ L1=میانگین و L2=میانگین است. آیا هیچ نوع استدلال شهودی برای این وجود دارد؟ یا باید جبری تعیین کرد؟ اگر چنین است، چگونه می توانم این کار را انجام دهم؟ | رگرسیون L1 میانگین را تخمین می زند در حالی که تخمین رگرسیون L2 میانگین را برآورد می کند؟ |
73598 | من یک مدل رگرسیون چندگانه دارم که در آن نزدیک به 20 متغیر مستقل دارم. این متغیرها به طور متوسط با یکدیگر همبستگی دارند (به عنوان مثال، حداکثر VIF حدود 4 است که اکثر آنها در 2s هستند). یکی از ضرایب از نظر آماری معنادار است و زمانی منفی است که من انتظار داشتم مثبت باشد. من می دانم که علائم اشتباه می تواند به دلایل مختلفی مانند چند خطی بودن، داده های از دست رفته، متغیرهای حذف شده و غیره باشد، اما نمی دانم که آیا توضیح ساده تری برای علامت اشتباه وجود دارد. تفسیر معمول ضرایب این است که وقتی متغیر مستقل را با 1 واحد تغییر می دهیم و هر چیز دیگری را ثابت نگه می داریم، تأثیر روی متغیر وابسته را نشان می دهد. با این حال، تفسیر فوق تنها در صورتی دقیق است که متغیرهای مستقل کاملاً با یکدیگر همبستگی نداشته باشند. در صورت وجود همبستگی متوسط بین متغیرهای مستقل، وقتی یکی از آنها را 1 واحد افزایش میدهیم، بقیه نیز به میزان متوسطی (بسته به علامت همبستگی) بالا/پایین میروند و از این رو تنها راه پیشبینی است. تأثیر تغییر واحد یک متغیر مستقل، ارزیابی تأثیر آن بر سایر متغیرهای مستقل و سپس ارزیابی تأثیر کلی بر متغیر وابسته است. وقتی چنین تحلیلی را انجام میدهیم، به خوبی میتوانیم متوجه شویم که علامت اشتباه مشکلی نیست زیرا افزایش آن متغیر به میزان 1 واحد ممکن است منجر به افزایش متغیر وابسته از طریق تغییرات در سایر متغیرهای مستقل در مدل شود. آیا توضیحات بالا منطقی است یا چیزی را از دست داده ام؟ | تفسیر ضرایب رگرسیون در حضور همبستگی متوسط |
11703 | مثال آسان زیر را از رگرسیون glm با افست فرض کنید: numberofdrugs<-rpois(84,10) Healthvalue<-rpois(84,75) سن<-rnorm(84,50,5) test<-glm(Healthvalue~ سن , خانواده = سم، افست = ورود (تعداد داروها)) خلاصه (تست) برازش (آزمون) #چگونه یکی را دریافت کنیم از این مقادیر به صورت دستی؟ * چگونه می توانم مقادیر برازش شده را به صورت دستی محاسبه کنم؟ * همچنین، چرا تخمینی از log (تعداد داروها) وجود ندارد؟ * در کتاب _Generalized Linear Models_ در صفحه 205-207 مثالی وجود دارد که افست تخمین زده شده است. برای اینکه ببینیم ضریب به یک نزدیک است یا خیر انجام شد. این 0.903 است (اگر این کتاب کلاسیک را دارید به صفحه 207 مراجعه کنید) و از این پس، تقریباً یک نرخ ثابت در تعداد حوادث آسیب وجود دارد! سوالات مرتبط قبلی پرسیده شد: * چه زمانی از افست استفاده کنیم؟ * آیا هنگام پیشبینی امتیازات هاکی از افست استفاده کنیم؟ | چگونه یک افست را در رگرسیون پواسون به درستی تخمین و تفسیر کنیم؟ |
94515 | وقتی از مدلی استفاده میکنم که توزیع خاصی از دادهها را در نظر میگیرد، در مورد اینکه چقدر باید به طور جدی این فرض را بررسی کنم گیج میشوم. برای مثال، اگر از برخی آزمونهای آماری (مثلاً بر اساس p-value) برای اعتبارسنجی استفاده کنیم، فکر میکنم اگر حجم نمونه بزرگ است، تقریباً همیشه باید null را رد کنیم. برای مثال، مهم نیست که اندازه برخی از موجودات چقدر از توزیع نرمال پیروی می کند، به دلایل مختلف توزیع نرمال نیست (به عنوان مثال، نمی تواند یک مقدار منفی باشد؛ مقادیر اندازه گیری شده هرگز واقعاً پیوسته نیستند زیرا دقت ابزار اندازه گیری و غیره). می خواهم بدانم نگرش صحیح برای اعتبار سنجی مفروضات پارامتریک چیست؟ | اعتبار سنجی توزیع های فرضی در مدل های پارامتری |
94514 | صفحه ویکیپدیا برخی از سناریوها را فهرست میکند: > اگرچه هر دو معیار مفید هستند، اما کاربردهای آماری متفاوتی دارند. در > تحقیقات پزشکی، نسبت شانس معمولاً برای مطالعات مورد-شاهدی استفاده می شود، > به عنوان شانس، اما نه احتمال، معمولاً تخمین زده می شود. خطر نسبی معمولاً در کارآزماییهای تصادفیسازی و کنترلشده و مطالعات کوهورت استفاده میشود. هنگامی که > بروز پیامدها در جمعیت مورد مطالعه نادر است (به طور کلی > به معنای کمتر از 10٪ تفسیر می شود)، نسبت شانس به عنوان یک > تخمین خوب از نسبت خطر در نظر گرفته می شود. با این حال، با رایجتر شدن نتایج، نسبت شانس و نسبت ریسک واگرا میشوند، با نسبت شانس بیش از حد برآورد یا کمتر از برآورد نسبت ریسک زمانی که برآوردها به ترتیب بیشتر یا کمتر از 1 هستند. وقتی تخمینهایی از بروز پیامدها در دسترس است، روشهایی برای تبدیل نسبتهای شانس به نسبتهای ریسک وجود دارد. با این حال، توضیح نمی دهد که چرا از نسبت های ریسک در برخی زمینه ها و نسبت های شانس در برخی دیگر استفاده می شود. | وقتی به ارتباط بین متغیرهای باینری نگاه می کنیم، چه زمانی نسبت شانس بهتر از نسبت ریسک است و بالعکس؟ |
50041 | من یک آمارگیر اصلی نیستم، اما سعی کردهام چند کتاب بخوانم و موضوع را بفهمم. من روی پروژه ای کار می کنم که باید از نمونه انتخاب هکمن استفاده کنم. مشکل من این است که نمی توانم بفهمم این مدل چگونه کار می کند. اگر مثالی در اکسل دریافت کنم، درک این موضوع برای من بسیار مفید خواهد بود. من در گوگل سرچ کردم اما به سایتی برخورد نکردم که گام به گام توضیح داده شود و چگونه باید تفسیر شود. اگر کسی مرا راهنمایی کند که چگونه از این مدل استفاده کنم بسیار سپاسگزار خواهم بود. | مدل انتخاب هکمن |
23484 | من به چند روش اساسی برای اندازهگیری پیچیدگی شبکههای عصبی برخورد کردهام: * سادهلوح و غیررسمی: شمارش تعداد نورونها، نورونهای پنهان، لایهها یا لایههای پنهان * بعد VC (Eduardo D. Sontag [1998] بعد VC of شبکه های عصبی [pdf].) * یک دوره پیچیدگی محاسباتی مجانبی و دانه بندی شده با معادل TC^0_d$. آیا جایگزین های دیگری وجود دارد؟ ترجیح داده می شود: * اگر بتوان از متریک پیچیدگی برای اندازه گیری شبکه های عصبی از پارادایم های مختلف (برای اندازه گیری پشتیبان، شبکه های عصبی دینامیک، همبستگی آبشاری و غیره) در یک مقیاس استفاده کرد. به عنوان مثال، بعد VC را می توان برای انواع مختلف در شبکه ها (یا حتی چیزهایی غیر از شبکه های عصبی) استفاده کرد، در حالی که تعداد نورون ها فقط بین مدل های بسیار خاص که عملکرد فعال سازی، سیگنال ها (مجموع پایه در مقابل اسپک ها) و موارد دیگر مفید است. ویژگی های شبکه یکسان است. * اگر مطابقت خوبی با معیارهای استاندارد پیچیدگی توابع قابل یادگیری توسط شبکه دارد * اگر به راحتی می توان متریک را در شبکه های خاص محاسبه کرد (البته این مورد آخر ضروری نیست.) ### یادداشت ها این سوال بر اساس یک سوال کلی تر در CogSci.SE. | جایگزین های بعد VC برای اندازه گیری پیچیدگی شبکه های عصبی چیست؟ |
92613 | در مورد آزمایش فرضیههای مربوط به میانگین $\mu$ یک جمعیت واحد، من چیزهایی مانند تست $t$ تک نمونه را میدانم که در آن یک فرضیه صفر وجود دارد: $H_0: \mu = \mu_0$، و یک آمار آزمون $. t = \frac{\bar{x} - \mu_0}{s/\sqrt{n}}$ برای تصمیم گیری در مورد رد یا پذیرش فرضیه صفر استفاده می شود. من با مفهوم آزمون نسبت درستنمایی مواجه شدم که در آن آزمون بر اساس چیزی شبیه $$\lambda(\textbf{x})=\frac{\sup_{\Theta_0}L(\theta|x)}{\sup_{\ است. Theta}L(\theta|x)}$$ این آزمون نسبت درستنمایی چگونه با آزمون یک نمونه $t$ مقایسه می شود یا مرتبط است. بدیهی است که آزمون $t$ که من ذکر کردم در مورد ابزار است و LRT چیزی در مورد پرداختن به ابزارها نمی گوید. بنابراین خارج از پرداختن به معنی مقایسه این دو معنی ندارد. اما آیا این به این معنی است که وقتی برای آزمایش ابزاری باید از تست $t$ استفاده کنم و خارج از معامله با LRT مرتبط می شود؟ بنابراین LRT در همان زمینه برخورد با ابزاری که آزمون $t$ با آن سروکار دارد، چه خواهد بود؟ | آزمون t تک نمونه ای و آزمون نسبت احتمال |
18911 | این سوالی است که از سوال قبلی من ایجاد شد. اساساً من سعی می کنم یک مدل پیش بینی برای امتیاز فیلم بسازم. بنابراین من باید در مجموعه دادههایم با ویژگیهای عددی مانند actor_id، director_id، budget و غیره سر و کار داشته باشم. بنابراین سوال من این است که چگونه باید با آن ویژگی ها برای طبقه بندی خود برخورد کنم. | چگونه با اطلاعات با طول متغیر برخورد کنیم؟ |
38961 | برابری زیر به ما داده می شود: $B(k;n,p)=B(k;n+1,p) + pb(k;n,p)$ که $B$ cdf دو جمله ای است، $b$ برابر است pdf دو جمله ای، $n$ تعداد آزمایشات و $p$ احتمال موفقیت است. چگونه می توانیم این برابری را با استفاده از یک تفسیر احتمالی، بدون استفاده از هیچ جبری نشان دهیم؟ | شهود پشت نتیجه برای دوجمله ای |
73599 | من سعی می کنم پارامترهای یک متغیر توزیع شده پارتو را در R محاسبه کنم. من از مدل زیر استفاده می کنم: form = rank~bet*(downloads)^(-alp)+eps که به طور گسترده در ادبیات برای محاسبه استفاده می شود. تخمینی برای «رتبه»، با توجه به تعدادی فروش (یا «دانلود» در این مورد). من 39 مشاهده برای «رتبه» و «دانلود» دارم، اما وقتی از دستور «nls» در «R» استفاده میکنم، خطای زیر را دریافت میکنم: «ماتریس گرادیان منفرد در تخمینهای پارامتر اولیه»». کسی میدونه چطوری میتونم این مشکل رو حل کنم؟ داده ها: دانلودها 421 190 143 115 64 46 776 949 854 776 776 597 609 537 535 548 568 616 500 83 42 40 81 1047 1047 1047 9 10 13 11 11 11 12 8 رتبه 216 237 271 311 394 416 126 93 90 94 99 121 114 103 101 96 103 106 1024 474 103 518 485 479 695 679 628 480 632 917 611 923 767 596 633 844 | نحوه محاسبه پارامترهای پارتو |
77658 | فرض کنید $X$ یک متغیر تصادفی است، پس درست است که بگوییم $$ E \left[g \left(X_i \right) \right] = E\left[g \left(X_j \right) \right] $ دلار اگر چنین است، چرا چنین است؟ خیلی ممنون | انتظار تابعی از یک متغیر تصادفی |
38967 | من خواندهام که وقتی توزیع نمونهها از حالت نرمال خارج میشوند، آزمون t به طور معقولی قوی است. البته، این توزیع نمونه از تفاوت ها است که مهم است. من برای دو گروه اطلاعات دارم. یکی از گروه ها به شدت به متغیر وابسته گرایش دارد. حجم نمونه برای هر دو گروه بسیار کوچک است (33 نفر در یکی و 45 نفر در گروه دیگر). آیا باید فرض کنم که تحت این شرایط، آزمون t من در برابر نقض فرض نرمال بودن قوی خواهد بود؟ | وقتی توزیع نمونهها غیرعادی هستند، آزمون t نمونههای مستقل چقدر قوی است؟ |
73335 | من سعی می کنم روی مشکلی کار کنم که حاوی نمادی است که به خاطر ندارم قبلاً آن را دیده باشم - _I_. فکر میکنم اهمیت ویژهای دارد، اما برای جستجوی آن مشکل دارم. بخش مربوط به مسئله: نمونه تصادفی X1، ...Xn را از pdf در نظر بگیرید f(x; θ) = 0.5(1 + θx) _I_ [-1,1](x) اگر کمک کند، زمینه مشکل تخمین نقطه ای است. | من در این زمینه چه چیزی را نشان می دهد؟ |
32615 | من به تازگی شروع به کار بر روی مدلهای گرافیکی کردهام، بهویژه در شبکه پواسون مارکوف، که با توزیعهای شرطی مانند این مشخص میشود: $$p\left ( X_{j} |X_{k}=x_{k},\ forall k\neq j,\Theta \right )\sim Poisson\left ( e^{\theta _{j}+\sum _{j\neq k}\theta _{kj}x_{k}} \right )$$ اگر مقدار مشخصی از $ \theta$ داشته باشم، آیا حق دارم نمونه داده را از آن شبکه توسط نمونهگر گیبس دریافت کنم؟ به نظر می رسد انجام این کار درست است، اما من نتایج عجیبی را در استفاده بیشتر از داده های شبیه سازی شده به دست آوردم. | نمونه برداری از مدل گرافیکی |
93202 | من از درخت تصمیم و جنگل تصادفی برای مشکل طبقه بندی استفاده می کنم. خروجی باینری {0،1} است و برخی از متغیرهای ورودی دستهبندی و بقیه پیوسته هستند. می خواهم بدانم آیا می توان نسبت شانس را از یکی از این مدل ها استخراج کرد؟ نسبت شانس مشابه آنهایی است که معمولاً با استفاده از رگرسیون لجستیک به دست می آیند. من از R با بسته «rpart» و «randomforest» استفاده میکنم، بنابراین بهترین پاسخ یک توضیح تئوری و یک کد R است. با تشکر | نسبت شانس از درخت تصمیم و جنگل تصادفی |
24624 | من با ارسال این سوال در اینجا احتمالاً چندین قانون را زیر پا می گذارم ، اما واقعاً می خواهم پاسخ این سؤال را پیدا کنم و بعد از چندین ساعت جستجو ، به نظر می رسد به جایی نمی رسم. من قبلاً این سؤال را در StackOverflow ارسال کردم و هیچ پاسخی دریافت نکردم (حدس من این است که 90٪ از کاربران R اینجا هستند و 80٪ از آنها StackOverflow را دنبال نمی کنند). در اینجا هم سوال را تکرار می کنم تا مجبور نباشید برای پاسخگویی در آنجا وارد شوید. من بسیار قدردان هر کمکی خواهم بود. من سعی می کنم دسته ای از مناطق ROC را برای مجموعه داده های مختلف و الگوریتم های مختلف ترسیم کنم. من سه متغیر دارم: Scheme که الگوریتم مورد استفاده را مشخص می کند، Dataset مجموعه داده ای است که الگوریتم روی آن آزمایش می شود و Area_under_ROC. من از کتابخانه شبکه در R با دستور زیر استفاده می کنم: dotplot(Scheme ~ Area_under_ROC | Dataset, data = simulationSummary, layout = c(4,6)) و این چیزی است که دریافت می کنم: dotplot of Scheme در مقابل Area_under_ROC، شرطی در مجموعه داده آنچه من می خواهم بدانم این است که * چگونه می توان برچسب ها را در محور y ساخت قابل خواندن؟ در حال حاضر، همه آنها به هم فشرده شده اند. * چگونه می توانم پانل را دوباره مرتب کنم به گونه ای که مجموعه داده های علامت گذاری شده با 100 به جای ستون دوم، ستون آخر را تشکیل دهند، اما بقیه ستون ها ثابت بمانند؟ من بسیار قدردان هر گونه نظر یا اشاره خواهم بود. با تشکر فراوان | تنظیم دقیق یک نقطه نقطه در بسته شبکه R |
22280 | آیا کسی می داند که آیا R نوسانات را به صورت یک عدد محاسبه می کند یا مستقیماً در مقدار درصد؟ و تاریخی؟ به عنوان مثال خروجی من برای نوسانات ضمنی در حدود 1.58 است. آیا به این معنی است که دارایی دارای نوسانات ضمنی 1.58٪ یا 158٪ است؟ پیشاپیش برای کمک متشکریم | نوسانات ضمنی در نرم افزار R |
38962 | من میدانم که جفریز قبلی تحت پارامترسازی مجدد ثابت است. با این حال، چیزی که من نمی فهمم این است که چرا این ویژگی مورد نظر است. چرا نمی خواهید قبل از تغییر متغیرها تغییر کند؟ | چرا Jeffreys قبلی مفید است؟ |
86894 | من یک رگرسیون خطی چندگانه با 2 پیش بینی انجام داده ام. برای اینکه ببینم پیش بینی من چقدر خوب است، می توانم یک مطالعه اعتبارسنجی متقاطع انجام دهم. اما میخواستم بدانم آیا اعتبارسنجی متقاطع درست میشود، زیرا حجم نمونه من بسیار کوچک است (N=22 کشور اروپایی). فکر میکنم میتوانم با LOOCV (تایید متقاطع ترک یک خارج) ادامه دهم. برای تحلیل رگرسیون خطی، LOOCV همان PRESS است. من می دانم که PRESS برای مقایسه مدل ها بین خودشان مفید است. در مورد من، من فقط یک رگرسیون خطی چندگانه با حجم نمونه بسیار کوچک دارم (n=22 کشور). 1 متغیر پاسخ و 2 پیش بینی کننده و می خواهم بدانم آیا مدل من از نظر پیش بینی خوب است یا خیر. R-squared چیزی در مورد پیش بینی به من نمی گوید. چگونه می توانم بدانم که آیا مدل من برای پیش بینی مناسب است؟ برای آن، من می توانم از LOOCV استفاده کنم نه؟ یا LOOCV برای مقایسه مدل ها بین خودشان مفید است؟ چگونه می توانم بدانم که آیا مدل من برای پیش بینی مناسب است؟ با تشکر از کمک شما، | آیا LOOCV مفید است؟ |
103209 | من روی برخی مشکلات مربوط به پیشبینی ارزشهای آینده کار میکنم. من باید در مقطعی در آینده یک مجموع جمعآوری کنم. سوال من این است: بهترین راه برای پیش بینی ارزش های آینده چیست؟ اول، می خواهم اشاره کنم که ده ها هزار نقطه مختلف وجود دارد، بنابراین من قصد دارم از بسته های plyr یا dplyr استفاده کنم. دو راه برای انجام این کار رفته ام: 1. پیش بینی سری های زمانی 2. رگرسیون خطی همچنین، قبل از اینکه کسی بپرد و بگوید شما نمی توانید برون یابی را با رگرسیون خطی انجام دهید! من آن و دلایل مشکل را درک می کنم. اما، در مثال زیر، چرا ممکن است مشکل باشد؟ در اینجا نمونه ای از داده هایی است که من ساخته ام که برخی از داده ها را تقلید می کند. مقادیر x ماه هستند. y=c(100,90,70,20,15,11,19,17,10,10,12,14,13,14,11,10,9,7,5,1,0,1,0, 0) x=1:طول(y) نمودار(y~x) نمودار(cumsum(y)~x) نمودار(پیش بینی(csy.ts، h=60)) plot(پیش بینی(y.ts، h=60)) plot(cumsum(y)~log(x)) y.ts=ts(y,f=12,s=1) csy.ts=ts(cumsum(y ),f=12,s=1) # من خودسرانه 5 سال دیگر را برای پیش بینی انتخاب کردم y.ts_fcast=forecast(y.ts,60)$mean fcast_total=cumsum(c(y,y.ts_fcast)) max(fcast_total) # می دهد 459 csy.ts_fcast=forecast(csy.ts,60)$mean csy.ts_fcast[60] # می دهد 457 fit=lm(cumsum(y )~log(x)) fit$coef[2]*log(84)+fit$coef[1] # می دهد 616 به طور شهودی منطقی است که 459 باید تقریباً عدد مناسبی باشد. با این حال، چرا رگرسیون اشتباه است؟ با توجه به نکته بالا که برون یابی مشکلی با رگرسیون است، درک من این است که معمولاً یک مشکل است زیرا ممکن است یک افت غافلگیرکننده در داده ها در محدوده برون یابی شده وجود داشته باشد که در مجموعه آموزشی وجود ندارد. با این حال، داده cumsum(y) شبیه یک منحنی لگاریتمی واقعاً خوب به نظر می رسد (همچنین همیشه در حال افزایش است) بنابراین من نگران هیچ افت نیستم (حتی یک سنبله نادر به نظر می رسد، و حتی اگر افزایش پیدا کند، جزئی خواهد بود. درصد دادههای cumsum(y) و مانند چنین نقطهای به نظر نمیرسد). هنگام تایپ این پست اتفاقی دیدم که پست دیگری در مورد نقض استقلال ذکر شده بود که به احتمال زیاد یکی از مسائل اینجاست. من فقط مطمئن نیستم چرا. | پیشبینی سریهای زمانی در مقابل برونیابی رگرسیون خطی |
24625 | بنابراین، با توجه به اینکه نمیدانم چند حالت دادههای من را «تولید» کردهاند، به دنبال روشهایی برای انتخاب بهترین تعداد حالتهای پنهان برای یک مدل مارکوف پنهان هستم. یکی از روشهایی که من زیاد دیدهام این است که مدلهای زیادی را با تعداد حالتهای مختلف یاد بگیرم و سپس BIC را روی آنها انجام دهیم. روش دیگر این است که یک فرآیند دیریکله (که من چیزی در مورد آن نمی دانم) روی تعداد حالت ها قرار دهید و وضعیت های بعدی را یاد بگیرید. بنابراین، چرا به دست آوردن حالت های بعدی در مقایسه با استفاده از BIC ارزش هزینه و زمان دارد؟ آیا از این طریق اطلاعات بیشتری کسب می کنم؟ فقط سعی می کنم بفهمم آیا ارزشش را دارد یا خیر، تلاش برای ساختن یک HMM با یک DP در کار من | معیار کامل اطلاعات خلفی در مقابل بیزی برای انتخاب تعداد حالت های HMM |
22283 | در اینجا یک سوال احتمال وجود دارد (احتمالاً واقعاً ساده) من مطمئن نیستم چگونه حل کنم: توزیع گاما $X\sim \mathcal{G}(\alpha,\beta)$ با $\mu = 20$ و $\sigma^2 = 80$ $P(X \le 24)$ = ? سوال قبلی پیدا کردن مقادیر $\alpha$ و $\beta$ بود که با استفاده از $\mu$ = $\alpha$$\beta$ و $\sigma^2$ = $\alpha$$\beta انجام دادم. ^ 2 دلار برای cdf توزیع گاما، کتاب درسی من می گوید $P(X \le x) = F(x; \alpha، \beta) = F(x / \beta; \alpha,1)$ که در آن $F(x / \beta \alpha,1)$ توزیع استاندارد گامای cdf است $$ F(x;\alpha,1) = \frac{1}{\Gamma(\alpha)}\int_0^x {y^{\alpha-1}e^{-y}} \text{d}y $$ برای ادغام آن، به نظر میرسد باید از قانون زنجیره استفاده کنم، اما استاد ما هرگز مثالی انجام نداد. آیا روش میانبر وجود دارد؟ ما هرگز از یکپارچه سازی در یک مثال واقعی استفاده نکرده ایم، فقط برای تعریف pdf و دریافت cdf برای توزیع های مختلف. **ویرایش** مثالهای کتاب درسی من که شامل مسائل توزیع گامای استاندارد است، میگوید که مقادیر $F(x;\alpha)$ را در جدول A.4 پیوست جستجو کنید. وقتی نگاه کردم، جدول A.4 وجود نداشت، که واقعاً من را ناامید کرد. آیا جداول استاندارد توزیع گاما به صورت آنلاین وجود دارد که بتوانم آن را چاپ کنم و با تکلیف تحویل دهم؟ Wolfram Alpha رو چک کردم ولی نداشتن. Casio چیزی دارد، اما من مطمئن نیستم که پارامترهای شکل و مقیاس چیست. **ویرایش 2** آن جدول را پیدا کردم. در جلوی کتاب، جدول A.5 درست بعد از A.3 آمده است، به همین دلیل فکر کردم A.4 گم شده است. من به کتابخانه رفتم تا ببینم آیا آنها همان کتاب درسی را دارند یا خیر. آنها این کار را کردند، و یک نفر عقل سلیم داشت (که من نداشتم) به پشت کتاب نگاه کند، و آنجا بود. کمک بیشتری لازم نیست. | سردرگمی در مورد توزیع گاما CDF |
93561 | من X پیشبینیکننده احتمالی برای پاسخ دارم Y. در مورد من X >> Y. در اجراهای خود از cv.glmnet (ترک کردن و همه پارامترهای پیشفرض دیگر) متوجه شدهام که اگر سعی کنم با استفاده از lambda.min پیشبینی کنم که به سادگی مقدار میانگین Y را برمی گرداند. اگر پیش بینی را با گزینه های lambda < lambda.min اجرا کنم، پیش بینی های واقعی را ارائه می دهد - که خطای کمتری نسبت به استفاده از مقدار میانگین دارند. ی. من مطمئن نیستم اینجا چه خبر است. گویی کد به دلایلی روی پیشبینیکننده ساختگی (پاسخ میانگین) پیشفرض است. به نظر می رسد که این رفتار تابعی به اندازه X است. در اینجا یک مثال ساده وجود دارد: x=replicate(100,rnorm(10)) y=replicate(1,rnorm(10)) cvfit=cv.glmnet(x,y ,nfolds=10) ypred1=predict(cvfit,newx=x,s=lambda.min) (در موردی که من تازه اجرا کردم، این یک `cvfit$lambda.min = 0.8453387` به دست می دهد و همه ورودی ها در ypred1 مقدار میانگین y هستند، بنابراین، بیایید یک لامبدا متفاوت انتخاب کنیم. (ypred1-y)^2) = 1.20 mse2=mean((ypred2-y)^2) = 0.03 میدانم که newx=x برای هیچ کار واقعی معنی ندارد، اما نمیدانم چرا پیشبینیهایی را که انجام میدهد برمیگرداند. | چرا cv.glmnet یک lambda.min می دهد که به وضوح لامبدا برای حداقل خطا نیست؟ |
28449 | من کدی را برای محاسبه حدود اطمینان پواسون نوشته ام (الف) با استفاده از مجذور کای، و (ب) از اصول اولیه، با استفاده از معادله تابع جرم احتمال پواسون. با این حال، دو مجموعه از نتایج با هم موافق نیستند. به عنوان مثال، برای لامبدا = 10 و 95٪ حدود اطمینان، من: 95٪: مجذور چی [4.80, 18.39] دقیق [3، 17] اختلاف برای محدودیت های اطمینان گسترده تر است: 3 سیگما: مجذور کای [3.08، 23.64 ] دقیق [1، 21] توجه داشته باشید که نتیجه «دقیق» من اولین k _خارج_ را نشان می دهد محدودیت های اطمینان (به عبارت دیگر، محدوده [4،16] کاملاً در محدوده 95٪ است). نتیجه 95% مربع Chi من در بالا با چندین ماشین حساب محدود پواسون آنلاین موافق است. برای مثال Statpages [4.80، 18.39] را نیز می دهد. با این حال، نتیجه دقیق نیز درست به نظر می رسد. برای 95٪، ماشین حساب آنلاین در Stattrek به نظر میرسد که نتایجی مشابه من دارد [3،17]. به طور دقیق تر، در اینجا احتمال تجمعی برای لامبدا=10 از جدولی در اینجا آورده شده است: 0 - 2 رویداد: ناچیز 3 1.0% 4 2.9% ... 15 95.1% 16 97.3% 17 98.6% بنابراین، حدود اطمینان 95 برای 4 است. به 16 رویداد، شامل، که با خروجی برنامه من موافق است، که می گوید <= 3 رویداد، یا >= 17 رویداد، خارج از محدوده 95٪ هستند. آیا من این را در جایی اشتباه کرده ام؟ آیا فقط لامبدا=10 برای دقیق بودن روش مجذور کای بسیار کوچک است؟ اگر لامبدا را به 100 برسانم، به دست میآورم: 95%: مجذور چی [81.36، 121.63] دقیق [80، 120] 3 سیگما: مربع چی [72.65، 133.83] دقیق [70، 131] اساساً تفاوتی ندارد. من می توانم با این واقعیت زندگی کنم که نتیجه غیر دقیق مستمر است، اما نه با عدم دقت. **ویرایش** با تشکر از نظرات، همه. همانطور که متوجه شدم، پاسخ اساسی این است که هر دو محدودیتهایی برای اعتماد به نفس دارند، اما متفاوت هستند، و من نباید انتظار داشته باشم که آنها یکسان باشند، و آیا فقط باید با آن زندگی کنم - درست است؟ برای پیشینه، این برای تجزیه و تحلیل ارائه دهندگان مراقبت های بهداشتی و یافتن تفاوت قابل توجهی با میانگین است. نکته مهم در اینجا (به هر حال برای من) این نیست که با انگشت به سمت کسی نرویم و بگوییم که آنها خارج از محدودیت های 2 یا 3 SD هستند، در حالی که تجزیه و تحلیل دیگری می تواند نشان دهد که آنها واقعاً در محدوده هستند. به همین دلیل، من اهمیتی نمیدهم که یک روش گسسته به من پوشش دقیق 95٪ نمیدهد - من فقط باید نقاط پرت را به طور مثبت شناسایی کنم. پیشینه خودم آمار نیست، اما روش دقیق را میدانم، و خوشحالم که پاسخ «درست» را میدهد (علیرغم این واقعیت که فرآیندها واقعاً برای پواسون مناسب نیستند). با این حال، من تبدیل پواسون/چی-دو را درک نمیکنم، و برای این برنامه از آن راضی نیستم، زیرا «به اشتباه» نقاط پرت را در انتهای محدوده اضافه میکند (بدون اشاره به از دست دادن مقادیر پرت «واقعی» در بالا). با این حال، به طور جهانی دقیقاً برای این برنامه استفاده می شود. آیا منصفانه است که بگویم روش دقیق برای این کاربرد بهتر است و تقریب به سادگی همین است و نادرست است؟ | مشکل تطبیق الگوریتم های توزیع پواسون دقیق و غیر دقیق |
38965 | اگر «X» یک متغیر تصادفی غیرمنفی باشد که نشان دهنده عمر جزء دارای تابع توزیع «F» است، میانگین عمر باقیمانده با $$ m(t) = E(X-t | X >t) = \frac{1} تعریف می شود. {\bar F(t)} \int_t^\infty (x-t) d\nu(x), t\geq 0 $$ در کاغذ R. C. Gupta و D. M. بردلی (2003) نماینده میانگین عمر باقیمانده بر حسب نرخ شکست اشاره کرد که با نوشتن $$x - t = \int_{t}^{x} du$$ و با استفاده از قضیه تونلی فرمول معادل $$ m بدست میآید. (t) = \frac{1}{\bar F(t)}\int_t^\infty \int_t^x du d\nu(x) = \frac{1}{\bar F(t)}\int_t^\infty \int_u^\infty d\nu(x) du = \frac{1}{\bar F(t) }\int_t^\infty \bar{F}(u) du $$ چگونه می توانیم با جایگزینی انتگرال بالا و استفاده از قضیه تونلی به این نتیجه دست پیدا کنیم؟ | میانگین عمر باقیمانده |
86890 | من در حال برنامه ریزی یک پروژه توسعه مقیاس هستم و با یک سوال گیر کردم: من دو ساختار دارم که هر کدام یک محور ماتریس را تشکیل می دهند. هر دو سازه می توانند همبستگی داشته باشند و می توانند مرتبط باشند، اما نیازی به این کار نیست. آنها در پایان یک امتیاز کلی را با هم تشکیل نمی دهند. من از یک مقیاس برای هر ساختار برای تعیین موقعیت سازمان در هر محور از ماتریس استفاده خواهم کرد. اگر در حال توسعه آیتم هایی برای هر ساختار هستم، آیا به دو یا یک تحلیل عاملی اکتشافی نیاز دارم؟ ایده من یک تحلیل عاملی متفاوت برای هر سازه برای یافتن حوزه ها/عوامل هر سازه بود. با این حال، مقالهای دیدم که دو ساختار مختلف را در یک تحلیل عاملی تحلیل میکرد. آیا موارد در هر دو ساختار فقط بار متقاطع نمیشوند، بنابراین اگر من آن را در یک تحلیل عاملی انجام دهم، اساساً یک خوشه در ماتریس من تشکیل میدهند؟ ببخشید اگر ممکن است این سوال برای برخی بی اهمیت به نظر برسد، من در حال حاضر گیج هستم. متشکرم | تحلیل یک یا دو عاملی؟ |
22288 | من این سوال را نوشتم که قبلاً به آن پاسخ داده شد. اگر > دوز به اندازه کافی بالا باشد، می میرند. من در حال بررسی تعداد کسانی هستم که بعد از یک روز مرده اند. به دلایل عملی، دوز دریافتی آنها مستقیماً تحت کنترل من نیست. من تصمیم گرفتم اعدادی را که بعد از یک > روز مرده اند به عنوان توزیع دوجمله ای، Bin(n,p) مدل کنم. > > برای اینکه بفهمم p برای مدل من چیست، آزمایشی با 300 جاندار انجام دادم و تعداد آنها را که بعد از یک روز مرده بودند را شمردم. > > در آزمایش مورد علاقه، آنها را در معرض یک تقویت کننده بالقوه > اثرات سمی قرار داده ام. میخواهم بدانم که آیا تعداد بیشتری از ارگانیسمها مردهاند. برای یک نتیجه خاص m، می توانم به راحتی > احتمال m یا بیشتر را محاسبه کنم. اگر این کمتر از 1٪ باشد، میپذیرم که تقویتکننده مفروض کار میکند در غیر این صورت این فرضیه را که تقویتکننده مفروض یک تقویتکننده واقعی اثرات سمی است رد میکنم. > > من نمی دانم که آیا تجزیه و تحلیل من از تقویت کننده فرضی باید عدم قطعیت در مقدار p را در نظر بگیرد. اگر چنین است، چگونه این کار را انجام دهم؟ (من با R خوب هستم و در صورت لزوم می توانم برنامه نویسی کنم.) > > به روز رسانی: فقط می خواهم تأکید کنم که فقط برایم مهم است که تقویت کننده من کار کند، یعنی > ارگانیسم های بیشتری از آنچه انتظار دارم می میرند. هر پاسخی باید مواردی را که جانداران کمتر از حد انتظار میمیرند را کنار بگذارد. متوجه شدم که یک جزئیات مهم را کنار گذاشته ام. تصور کنید آلل های H و h وجود دارد. جمعیتی که من میزان مرگ و میر خود را در آنها محاسبه می کنم همه HH هستند. با این حال، جمعیتی که من تقویتکنندهام را در آن اندازهگیری میکنم، زمانی است که یک ارگانیسم HH با ارگانیسم hh تلاقی میکند: به طور متوسط 25٪ HH، 50٪ Hh و 25٪ hh. متأسفانه من نمی توانم ژنوتیپ موجودات زنده را بررسی کنم. با این حال، من قادر به بررسی ژنوتیپ ارگانیسم هایی هستم که می میرند. بنابراین برای روشن بودن، من اعداد دقیق HH، Hh و Hh را در جمعیت اولیه نمی دانم. با این حال، من اعداد دقیقی از تعداد موجودات مرده HH، Hh و Hh دارم. سوالی که می خواهم به آن بپردازم این است که آیا تعداد ارگانیسم های مرده hh بیشتر از آن چیزی است که من انتظار دارم. آیا راهی برای تغییر پاسخ سوال قبلی برای توضیح این موضوع وجود دارد؟ | تأثیر عدم قطعیت در پارامتر یک مدل احتمال بر تصمیمات - پیگیری |
93560 | من تصمیم میگیرم چند پیشبینیکننده در مدل خود لحاظ کنم - من در حال حاضر 4 عدد دارم. وقتی از تابع «جهش()» استفاده میکنم، کوچکترین مقدار برای خطای استاندارد باقیمانده، مدل سه پیشبینیکننده است، اما وقتی از «stepAIC» استفاده میکنم، این مقدار است. مدل دو پیش بینی به کدامیک باید تکیه کنم و چرا؟ | Leaps() یا AIC برای انتخاب مدل |
24627 | من یک فایل .sav را در PSPP باز می کنم (یک جایگزین منبع باز برای SPSS) با > get file=...sav حالا می خواهم ببینم چند ردیف وجود دارد. | تعداد ردیف ها / موارد در PSPP |
18333 | همانطور که متوجه شدم، با نرمال کردن کوواریانس با استفاده از معادله $$\rho_{i,j}=\frac{cov(X_i, X_j)}{\sigma_i \sigma_j}$$ که $\sigma_i=\sqrt{ E[(X_i-\mu_i)^2]}$ انحراف استاندارد X_i$ است. نگرانی من این است که اگر انحراف معیار برابر با صفر باشد چه؟ آیا شرطی وجود دارد که تضمین کند آن را صفر نمی کند؟ با تشکر | اگر انحراف معیار یک متغیر 0 باشد چه همبستگی وجود دارد؟ |
58591 | با توجه به یک دنباله $\mathbf{x} = (x_1,x_2,\dots,x_n)$ که از فرآیند گاوسی $GP(\mu_1,\Sigma_1)$ و یک دنباله هدف $\mathbf{y} نمونه برداری شده است. = (y_1,y_2,\dots,y_n)$ نمونه برداری از فرآیند گاوسی دیگر $GP(\mu_2,\Sigma_2)$، آیا کسی تستی میداند که آیا $\mathbf{x}$ و $\mathbf{y}$ از یک توزیع میآیند؟ حدس میزنم میخواهم بدانم که احتمال $\mathbf{x}$ و $\mathbf{y}$ از یک توزیع هستند (آیا این احتمال هم خوب است؟). من فرض نمی کنم که هیچ یک از $\mu_1،\mu_2،\Sigma_1$ یا $\Sigma_2$ شناخته شده باشند. همچنین، اگر این کمک کند، با فرض اینکه پزشکان عمومی ثابت هستند (اما در مرکز نیستند) مشکلی ندارم. | چگونه می توان آزمایش کرد که آیا دو نمونه از یک فرآیند گاوسی توزیع شده اند؟ |
86898 | من سه وب سایت پیدا کردم که زمان طلوع و غروب خورشید را در محلی که من زندگی می کنم فهرست می کند. اما از آنجایی که این زمانها گاهی اوقات چند دقیقه متفاوت است، میخواهم بدانم آیا روشی وجود دارد که بفهمم کدام یک درستترین پیشبینی است. شنیدهام که آمار روشهایی را برای مقایسه مدلها ارائه میکند، اما از طرف دیگر، حدس میزنم قبل از اینکه بتوانم بگویم خطا چقدر است، باید خوب بودن زمانها را با فرمولی اندازهگیری کنم. بنابراین، اگر کسی از یک آمارگیر بپرسد که چگونه می تواند اندازه گیری کند که کدام مدل زمان غروب و طلوع خورشید را دقیق ترین پیش بینی می کند، از چه نوع آزمایشی برای اندازه گیری خوبی استفاده می کند؟ | آیا می توان از آمار برای اندازه گیری دقیق ترین مدل استفاده کرد |
55277 | من معمولاً میتوانم به سرعت تقریب عادی توزیع پسین را بدست بیاورم، اما گاهی اوقات با راهاندازی یک MCMC کارآمد از همان مدل مشکل دارم. آیا می توانم به نحوی از نتایج تقریب عادی برای بهبود MCMC استفاده کنم؟ (من به چیزی در راستای اتصال SD تقریبی به SD پیشنهادی MCMC فکر میکنم.) من از کلاسهای NormApprox و MCMC PyMC استفاده میکنم، اما به پیشنهادهایی که از چارچوبهای دیگر نیز استفاده میکنند علاقهمندم. | MCMC کارآمد با استفاده از تقریب طبیعی خلفی |
22757 | من یک خطا دارم که می گوید > الگوریتم تخمین بعد از 50 تکرار همگرا نشد و > پیش بینی انجام نشد. برای جلوگیری از این خطا چه کار کنم؟ مانند اینکه چگونه می توانم داده ها را قبل از پیش بینی بررسی کنم؟ | SAS' PROC ARIMA همگرا نمی شود |
77654 | شما از 1000 مرد و 1000 زن نمونه گرفته اید. مردان با احتمال مشاهده شده $p_1 = 0.642$، بله پاسخ می دهند، زنان 0.591$ = p_2 $. می توانید تفاوت را محاسبه کنید، $p_1-p_2 = 0.051$. واریانس این تفاوت مجموع واریانس های درون جنسیتی است، $var(p_1-p_2) = var(p_1)+var(p_2)$. بنابراین، $var(p_i) = p_i(1-p_i)/1000$ زیرا این واریانس 1000 پاسخ توزیع شده برنولی به طور متوسط است. حال، فرض کنید میخواهیم همه 2000 پاسخ را میانگین بگیریم. میتوانیم $p=(.642+.591) /2$ را به عنوان میانگین بله در نظر بگیریم. اما واریانس آمار $p$ ما چیست؟ آیا باید $p(1-p)/2000$ را بگیرم زیرا واریانس توزیع برنولی از 2000 نمونه است یا $2*p(1-p)/1000$ زیرا واریانس های 1000 مرد و 1000 زن را جمع می کنیم که هر کدام برابر است. به $p(1-p)/1000$؟ 4 برابر تفاوت بین $p(1-p)/2000$ و $2*p(1-p)/1000$ وجود دارد. من می دانم که ترکیب خطی واریانس های $var(X)$ و $var(Y)$ $var(aX+bY) = a^2var(X) + b^2var(Y)$ است. به ویژه، این بدان معنی است که واریانس تفاوت مجموع واریانس ها، $var(X-Y) = var(X)+var(Y)$، همانطور که در بالا استفاده شد، و واریانس میانگین $var ({X+Y) است. بیش از 2}) = {var(X) + var(Y)\بیش از 4}$. ما در اینجا ضریب 4 را می بینیم. می بینیم که واریانس میانگین باید 4 برابر کمتر از واریانس مجموع باشد. با این حال، مربی فرمول $2*p(1-p)/1000$ را برای مقایسه واریانس میانگین انتخاب میکند که 4 برابر بزرگتر از $p(1-p)/2000$ است. چرا؟ | واریانس میانگین میانگین ها |
94511 | چه تفاوتی بین شبکه عصبی، شبکه بیزی، درخت تصمیم و شبکه پتری وجود دارد، اگرچه همه آنها مدل های گرافیکی هستند و رابطه علت و معلولی را به صورت بصری نشان می دهند. متشکرم | تفاوت بین شبکه بیز، شبکه عصبی، شبکه پتری و درخت تصمیم |
112479 | بیایید فرض کنیم که مدل گرافیکی زیر را داریم:  این نمودار توزیع مشترک $P(p,x_1,x_2,x_3) را کد می کند. ,x_4) = P(p)\prod_{i=1}^{4}P(x_i|p)$. در استنباط بیزی، اگر $x_1,x_2,x_3$ را بدانیم، پس یک پیش بینی کامل بیزی برای $x_4$ به صورت زیر داده می شود: $$ P(x_4|x_3,x_2,x_1) = \int_{p}P(x_4 |p)P(p|x_3,x_2,x_1)dp$$ من از مدلی مانند بالا به صورت زیر تفسیر کردم: سیستم احتمالی یک $p$ را از $P(p)$ انتخاب می کند. سپس این $p$ انتخاب شده دادههایی را به صورت $x_1\sim P(x_1|p)، x_2\sim P(x_2|p)، x_3\sim P(x_3|p)$ تولید میکند. ما ارزش واقعی $p$ را نمی دانیم و بنابراین با استفاده از توزیع پسین آن با توجه به داده ها، روی تمام مقادیر ممکن $p$ ادغام می کنیم تا توزیع پیش بینی پسین x_4$ را بدست آوریم. در این تفسیر، مقدار $p$ پس از انتخاب از قبلی، در طول تولید داده، ثابت می ماند. اما فقدان دانش ما در مورد آن ما را به ادغام تمام مقادیر ممکن برای استنتاج $x_4$ سوق می دهد. این را می توان به عنوان یک مدل مولد در نظر گرفت. سوال من این است که آیا تفسیر من در اینجا درست است؟ من این را میپرسم، زیرا منابعی را در وب دیدهام که نشان میدهند $p$ در طول تولید $x_i$s تغییر میکند. اگر اینطور بود، آیا نباید هر یک از این مقادیر مختلف به عنوان متغیرهای تصادفی مختلف مانند $p_1$ برای $x_1$، $p_2$ برای $x_2$، و غیره نامگذاری شوند؟ این به شدت من را گیج کرده است. من از هر نظر قدردانی می کنم. | آیا پارامتر در طول تولید داده در استنتاج بیزی تغییر می کند؟ |
4507 | فرض کنید $G = (V,E)$ یک گراف غیر چرخه ای جهت دار باشد. فرض کنید $i \rightarrow j$ یک یال باشد به طوری که والدین $j$ دقیقاً عبارتند از: * والدین $i$، * و $i$. اجازه دهید $L\left(G \right)$ مجموعه ای باشد که توسط {a vertex و والدین آن، برای همه رئوس در $G$} تعریف شده است. اجازه دهید $G' = (V,F)$ که در آن $F$ $E$ است با $j \rightarrow i$ به جای $i \rightarrow j$. با توجه به مجموعهای از متغیرهای تصادفی $(X_{v})_{v \in V}$ که چگالی اتصال را میتوان روی $L\left(G \right)$ فاکتور گرفت، میخواهم نشان دهم که چگالی اتصال همچنین می تواند بیش از $L\left(G'\right)$ فاکتور شود. * * * اجازه دهید $P$ والدین $i$ در نمودار $G$ باشند، بنابراین والدین $j$ در نمودار $G'$. بنابراین میخواهم نشان دهم که $g_{i}$ و $g_{j}$ وجود دارد که: $g_{i}(x_{i},x_{j},x_{P}) \times g_{ j}(x_{j}، x_{P}) = f_{i}(x_{i}، x_{P}) \ بار f_{j}(x_{i}، x_{j}، x_{P})$. من مطمئن نیستم که آیا می توانم فقط در نظر بگیرم که مبادله $i$ و $j$ وجود دارد یا خیر، و می توانم $g_{i}=f_{j}$ و $g_{j}=f_{i}$ را بگیرم. یا شاید، کاری با احتمالات شرطی و فرمول بیز وجود دارد. | فاکتورسازی چگالی مشترک بر روی یک گراف جهت دار |
64075 | من سعی می کنم 2 برنامه کامپیوتر X و Y را برای سرعت مقایسه کنم. من می خواهم تعیین کنم که کدام یک سریعتر است. مثلاً میتوانم آن برنامهها را 20 بار کرنومتر کنم، میانگین را بگیرم و بگویم برنامهای که کمترین میانگین را دارد سریعترین برنامه است. با این حال، من چیز زیادی در مورد آمار نمی دانم - آیا این کاری که من انجام می دهم در واقع درست است؟ چه راهی معنادارتر برای آزمایش آنها خواهد بود؟ | چگونه می توان به روشی معنی دار آماری را اندازه گیری کرد که کدام برنامه سریعتر از برنامه دیگر است؟ |
77657 | من در حال نوشتن پایان نامه پایانی خود در مطالعات چینی هستم و قصد دارم یک آزمون کیفی انجام دهم، اما از آنجایی که داده های زیادی دارم، می خواهم آن را به صورت کمی تجزیه و تحلیل کنم. من این کار را کردم اما در مورد **روش های تست** مطمئن نیستم \- می توانید به من کمک کنید؟ کاری که انجام دادم این است: من در حال تجزیه و تحلیل تفاوت های طراحی بین الف) انگلیسی و چینی و ب) نسخه آلمانی و چینی وب سایت ها هستم. من 50 نسخه چینی، 47 نسخه انگلیسی و 37 نسخه آلمانی دارم. من سعی می کنم **تست کنم که آیا تفاوت های یافت شده قابل توجه هستند**. آیا این کار را درست انجام می دهم؟ در اینجا چند تصویر از اکسل وجود دارد. 1. سوالات بله/خیر: برخی از معیارها فقط می پرسند که آیا سایت چیزی دارد یا نه (مانند سازگاری اینترنت اکسپلورر 6 (IE6)). چیزی که من دریافت می کنم این است: 30 x بله. 20 x خیر - برای نسخه چینی 15 x بله. 22 x خیر - برای نسخه آلمانی 17 x بله. 30 x خیر - برای نسخه انگلیسی آیا می توانم از **آزمون Chi-square** برای این نوع داده ها استفاده کنم؟ از آنجایی که ممکن است داده ها را به ژانرهایی تقسیم کنم، ممکن است به مجموعه داده های بسیار کوچکی برسم. آیا **تست دقیق فیشر** بهتر است؟ (به تصاویر در لینک مراجعه کنید). 2. مقادیر «0، 1، 2، 3»: من همچنین در حال تجزیه و تحلیل چیزهایی مانند قابلیت مشاهده دکمه های رسانه های اجتماعی هستم (0 = قابل مشاهده نیست، 3 = بسیار قابل مشاهده است). برای اینکه تفاوت های قابل توجهی در میانگین پیدا کنم آیا می توانم **t-Test** را شرکت کنم؟ از آنجایی که فقط یک طرف مهم است (نسخه چینی عدد بالاتری می گیرد؟) آیا من در آزمون یک طرفه شرکت می کنم یا دو طرفه؟ اکسل همچنین از من میپرسد که آیا دادهها جفت شدهاند، آیا من واریانسهای یکسان یا واریانسهای متفاوت دارم - این به چه معناست؟ (برای نتایج من به تصاویر صفحه در پیوند بالا مراجعه کنید). 3. و در نهایت داده هایی را برای عرض و ارتفاع وب سایت ها به دست آوردم. آیا می توانم از **t-test** برای تجزیه و تحلیل داده ها استفاده کنم؟ من **طرح جعبه/جعبه و نمودار Whiskers** را انجام دادم اما مطمئن نیستم که علاوه بر اینکه یک نمای کلی سریع به من می دهد، چه کاری برای من انجام می دهد - یا می توانم تفاوت های قابل توجهی را نیز با آن ببینم؟ (به اسکرین شات ها در پیوند نمودارها مراجعه کنید - به نظر می رسد یکی تفاوت هایی با دیگری دارد.) لطفاً با گفتن اینکه آیا روش های آزمایشی استفاده شده درست هستند به من کمک کنید و تأیید کنید که می توانم از آنها استفاده کنم یا خیر. ضمناً من تمام داده ها را در اکسل تجزیه و تحلیل می کنم زیرا هیچ تجربه ای با هیچ ابزار دیگری ندارم (و برای رشته من چنین چیزی اصلاً لازم نیست اما به هر حال می خواهم این کار را انجام دهم). | کدام روش آزمون برای داده های من مناسب است؟ |
73336 | من سعی می کنم یک تست طراحی کنم و بین انواع آزمایشی که باید انجام دهم سردرگم هستم. در اینجا شرح کاری است که من انجام می دهم: این یک آزمایش اندازه گیری مکرر است. بنابراین، ابتدا یک گراف پیوند گره بدون رنگ G1 به یک شرکتکننده داده میشود و سؤالاتی در مورد گراف میپرسد. متغیر وابسته مدت زمانی است که شرکت کننده برای پاسخ دادن به سوالات نیاز دارد. سپس یک نمودار رنگی G2 به همان شرکتکننده داده میشود و مجموعهای از سوالات پرسیده میشود. این با معکوس کردن ترتیب گروه ها متعادل می شود. بعد این روش را تکرار می کنم با این تفاوت که این بار G1 رنگی و G2 بدون رنگ ارائه می کنم. در مجموع، من 4 حالت/گروه دارم که آزمایش را به ترتیب زیر انجام میدهند: 1. G1-بدون رنگ G2-رنگی 2-G2-رنگی G1-بی رنگی 3.G1-رنگی G2-بی رنگی 4.G2-بی رنگی G1- رنگی من زمان را برای هر مورد اندازه میگیرم. دو نمودار تقریباً برابر هستند. تنها دلیلی که من از دو نمودار متفاوت استفاده میکنم این است که نمیتوانم از یک نمودار در هر دو شرایط برای یک گروه استفاده کنم، زیرا اگر این کار را انجام دادهام، شرکتکننده پاسخهای خود را از شرایط قبلی به خاطر میآورد. حالا من مطمئن نیستم که این روش را چه نامی بگذارم؟ آیا باید یک متغیر مستقل را در نظر بگیرم (یعنی وجود/غیاب رنگ در نمودار) یا اینکه دو IV مختلف را در نظر بگیرم (رنگ + کدام نمودار استفاده شده است (G1/G2؟)). به عبارت دیگر، آیا این فقط یک تست وابسته به t است یا یک ANOVA دو طرفه (نمی دانم کدام یک)؟ | آیا افزودن مجموعه داده در اندازه گیری های مکرر، نوع آزمایش را تغییر می دهد؟ |
113713 | من برخی از داده ها را بر اساس ترکیبی از دو لگ نرمال تولید کردم: $f(x) = p \cdot \mathcal LN(\mu_1, \sigma) + (1-p) \cdot \mathcal LN (\mu_2, \sigma)$ اکنون می خواهم از MCMC برای یافتن پارامترهای $p، \mu_1، \mu_2، \sigma$ استفاده کنم اما مطمئن نیستم چه چیزی را انتخاب کنم. به عنوان تابع قبلی و پیشنهادی. برای قبلی من این را انتخاب کردم: $p \sim Beta$ اما کدام هایپرپارامترها بهترین هستند؟ $\mu_1، \mu_2 \sim نرمال$، دوباره چه هایپرپارامترهایی؟ $\sigma \sim معکوس~Gamma$; هایپرپارامترها؟ پیشنهاد کمی دشوارتر است زیرا $p$ باید از بازه $[0,1]$ ترسیم شود. بنابراین $p \sim کوتاه شده~Normal$ در $[0,1]$; آیا این منطقی است؟ $\mu_1، \mu_2، \sigma \sim نرمال$ اما چگونه از $\sigma$ منفی اجتناب کنم؟ آیا بسته MCMC «R» وجود دارد که به توابع پیشنهاد سفارشی اجازه دهد؟ | چه چیزی را برای عملکرد قبلی و پیشنهادی برای MCMC یک مخلوط انتخاب کنید |
76237 | فرض کنید ما در حال اجرای یک تست A/B در وب سایت خود هستیم که فقط بازدیدکنندگان آمریکایی و فرانسوی دارد (با فرض اینکه هر دو گروه حدود نیمی از بازدیدکنندگان را تشکیل می دهند). اگرچه این عمل خوبی نیست، اما بازدیدکنندگان را بر اساس کشورشان تقسیم می کنیم و دو بنر متفاوت به آنها نشان می دهیم. هدف نهایی انتخاب بنری با نرخ کلیک (CTR) بالاتر است. شکست موفقیت CTR banner_A 1850 31400 0.056 --> بازدیدکنندگان فرانسوی banner_B 1950 32000 0.057 --> بازدیدکنندگان آمریکایی یکی از راه های آزمایش اهمیت آماری این است که فقط از این اعداد استفاده کنید و آزمون خی دو پیرسون را انجام دهید. در این مورد p-value به نظر می رسد 0.321 باشد. و CTR بالاتر banner_B از نظر آماری ناچیز به نظر می رسد. با این حال، بیایید همچنین فرض کنیم که **51٪** از بازدیدکنندگان قبلی که روی این نوع بنرها کلیک کردند، بازدیدکنندگان فرانسوی بودند (به زیر مراجعه کنید). بنابراین، اولویت ها در CTR ها در وهله اول برابر نبودند. شکست موفقیت CTR banner_Past 5100 80000 0.060 --> بازدیدکنندگان فرانسوی banner_Past 4900 80200 0.058 --> بازدیدکنندگان آمریکایی چگونه می توانیم این نوع گرایش 51% اطلاعات **قبلی** را در آزمون معناداری آماری خود رمزگذاری کنیم؟ | رمزگذاری دانش قبلی در آزمون AB |
57143 | کمک کند. مشکل: با توجه به یک توزیع گاوسی محدود - به نظر میرسد نتایج مشابهی تولید میکند، یعنی میانگین و انحراف استاندارد یکسان بهطور تصادفی. تعریف: مجموعه داده ها ویژگی های یک توزیع گاوسی را نشان می دهد. مجموعه داده محدود است. هر مقدار از مجموعه داده یک عدد صحیح است. اجازه دهید **mu** و **سیگما** میانگین و انحراف معیار را نشان دهند. بگذارید **a** و **b** نمایانگر کران پایین و بالایی باشند. نظرات: سعی شد از هر دو تابع rtnorm یا rttruncnorm در برنامه نویسی R استفاده شود. وقتی مقداری از هر یک از این توابع دریافت می کنم، به سادگی نتیجه را به نزدیکترین عدد صحیح گرد می کنم. هنگامی که من انتخاب می کنم به unbound یکی از تابع به عنوان مثال. از -Inf به Inf، متوجه شدم که میتوانم یک مجموعه داده تجربی را که کاملاً شبیه به دادههای اصلی است، بازتولید کنم، به جز داشتن مقادیر دادهای که آشکارا خارج از مرزهای اصلی [a,b] هستند، اما بله، به هدف میرسم. مو و سیگما هنگامی که من نتیجه خود را با استفاده از این توابع محدود کردم، انحراف معیار موثر در مقایسه با انحراف استاندارد اصلی کوچکتر است. من سر و دم توزیع را جدا میکنم و یک سیگما مؤثر باقی میگذارم که دامنه کوچکتری را در بر میگیرد. در حالی که میدانم میتوانم با استفاده از (X-mu)/sigma که X یک مقدار تصادفی است، بین توزیعهای کوتاهشده و غیرقطعی ضرب و جابهجا شوم، هدف واقعی بازتولید یک توزیع گاوسی کوتاهشده تجربی است که مطابق با مجموعه دادههای گاوسی کوتاهشده اصلی است. . به عنوان مثال، من سعی کردم به سادگی انحراف استاندارد هدف را در تابع rtnorm برای یک مجموعه داده محدود [a,b] افزایش دهم تا یک انحراف استاندارد مؤثر ایجاد کنم که معادل انحراف استاندارد اصلی است. با این حال، این رویکرد شکست خورد. این منجر به افزایش انحراف استاندارد تا حدودی شد، اما انحراف استاندارد موثر به سقفی رسید که کمتر از سیگمای هدف بود، بنابراین هرگز انحراف استاندارد، میانگین و مرزهای اصلی را متوجه نشدند. به یاد داشته باشید، من بر این فرض پیش می روم که از آنجایی که من یک توزیع گاوسی محدود واقعی و دنیای واقعی با میانگین و انحراف معیار معین دارم، به این فکر می کنم که می توانم نتیجه مشابهی را که به طور تصادفی تولید شده است، به طور مطلق بازتولید کنم. آیا من اشتباه می کنم؟ چه کاری ممکن است متفاوت انجام دهم؟ من از هر بینشی که هر یک از شما ممکن است به من بدهید قدردانی می کنم. کمک شما واقعاً قابل استقبال و ارزشمند خواهد بود. | Normal کوتاه شده -- یک مجموعه داده تولید شده به طور تصادفی را بازتولید کنید |
77655 | من در طول زمان از n آزمودنی که به یک سؤال مقیاس لیکرت روزانه پاسخ میدهند، اندازهگیریهای تکراری انجام دادهام، بنابراین دادههای من طی چند ماه ترتیبی و طولی هستند. البته همه افراد به هر نظرسنجی روزانه پاسخ نمی دهند. هدف من ارزیابی این است که آیا تفاوت آماری در پاسخ های نظرسنجی بین مردان و زنان گروه من وجود دارد یا خیر.  ممکن است از شکل حدس بزنید که زنان (جنسیت = 2) نمرات 6 و 7 را بیشتر از مردان انتخاب میکنند. ، حتی اگر تعداد کلی پاسخ ها برابر با 6 یا 7 کم باشد (عرض میله ها). اولین قبولی من در این کار اجرای یک آزمون من ویتنی برای هر نمره نظرسنجی بین دو گروه بود، اما می دانم که این فرض استقلال را نقض می کند. تنها فکر دیگر من این بود که فقط نمره میانه را برای هر کاربر پیدا کنم (بنابراین پاسخ های کاربر را در طول زمان به یک ویژگی منفرد برابر با میانگین او جمع کنید) و آزمایش من ویتنی را روی توزیع میانه ها اجرا کنید. آیا این نادیده گرفتن بعد زمانی اهمیت دارد؟ من مطمئن نیستم که مناسب است این را نیز به عنوان دو سری زمانی (مذکر/مونث) مثلاً میانگین پاسخ نظرسنجی در نظر بگیریم، و به دنبال تست هایی بگردیم که این دو سری را با هم مقایسه کنند؟ | داده های ترتیبی و طولی |
93564 | من PCA را روی داده های آموزشی پیاده سازی کرده ام و نتیجه آماده است. حالا من می خواهم از همان PCA در تست استفاده کنم. آیا راهی برای انجام همان PCA در آزمون مانند آموزش در weka وجود دارد؟ | از همان PCA در آزمون به عنوان آموزش در weka استفاده کنید |
58595 | من به دنبال راهنمایی در مورد بهترین روش برای پاسخ به این سوال هستم. **سناریوی کلی:** ما چندین ماشین تست A،B،C،D و غیره داریم که هر کدام یک قطعه یکسان را که به طور تصادفی انتخاب شده تست می کنند و یک نتیجه Pass یا Fail ارائه می دهند. همه ماشینها آزمایش یکسانی را انجام میدهند و میتوانند هر قطعهای را آزمایش کنند، اما ممکن است یک ماشین دارای نقصهایی باشد که باعث سوگیری نسبت به عبور یا خرابی بیش از حد انتظار میشود. **سوال:** چگونه می توانم ماشین های آزمایشی را تشخیص دهم که دارای سوگیری هستند (قطعات بیشتری را نسبت به آنچه انتظار می رود رد می کنند یا از کار می افتند) و میزان سوگیری نمونه آنها را از کل کمیت می کنم؟ با فرض اینکه تعداد نتایج ماشین بایاس زیر مجموعه های کوچکی از تعداد کلی نتایج است. **افکار:** با توجه به مقادیر ممکن، عبور و یا شکست این فرآیند برنولی است؟ من به این فکر میکردم که یک آزمون مجذور کای میتواند راهی برای نزدیک شدن به این موضوع باشد، اما توزیع قبلی برای کار با آن ندارم. آیا توزیع قبلی باید از مرحله آزمایش اولیه با استفاده از نتایج آزمایش اندازه گیری شود؟ با این حال، من میخواهم زیرمجموعههای آزمایشی را با زیرمجموعههای قبلی تولید شده از ترکیب خود زیر مجموعهها مقایسه کنم، خوب نیست؟ راه دیگری برای فکر کردن به این موضوع این است که N نفر سکه را برگردانند، که برخی از آنها مغرضانه هستند. شما میتوانید نتایج هر چرخش سکهها را مستقل از سایرین اندازهگیری کنید و آنها را با نتیجه مورد انتظار مقایسه کنید، اگر نتایج متفاوت باشد، سکهها را مغرضانه میدانید و نیازی به دانستن چیزی در مورد سکههای دیگر ندارید. مشکل من این است که نمیدانم نتیجه مورد انتظار باید چه باشد و فقط میتوانم نتایج آزمایشها را اندازهگیری کنم و هر زیر مجموعه از نتایج ماشینها را با نتایج کلی مقایسه کنم؟ پیشاپیش ممنون | تشخیص سوگیری در زیر مجموعه فرآیندهای برنولی |
18336 | من می خواهم ریشه واحد را با استفاده از روش های مختلف detrending از سری حذف کنم. لطفا کمک کنید. | گرایش فانتزی سری های زمانی |
31828 | من مجموعهای از نتایج فوتبال را دریافت کردهام و میخواهم یک مدل احتمالی از امتیازات فوتبال همانطور که در دیکسون، کولز (1997، http://www.math.ku.dk/~rolf/teaching/thesis/DixonColes) توضیح داده شده است، بسازم. pdf). آنها پارامترها را بر اساس حداکثر احتمال تخمین می زنند و مدل فرض می کند که متغیرها پواسون مستقل هستند. اکنون 2 سوال دارم: * چگونه باید داده های خود را برای وارد کردن آنها در مدل تبدیل کنم؟ * چه بسته هایی در R برای تخمین حداکثر احتمال با این ماهیت بهترین هستند؟ | برآورد حداکثر احتمال در مدل پواسون برای امتیازات فوتبال (فوتبال). |
101297 | خوب یا بهترین روش برای محاسبه این چیست؟ من دو نمودار مانند این دارم خط سیاه مقدار واقعی است. خط قرمز مقدار از تخمینگر است. من می توانم هر مقدار محور Y را از هر مقدار محور X فراخوانی کنم. من می خواهم بدانم کدام یک از برآوردگر من می تواند مقدار دقیق تری را تخمین بزند. خیلی ممنون | نحوه محاسبه دقت از دو نمودار بدون معادله اما من تمام ارزش های آنها را دارم؟ |
101299 | من یک برنامه نویس تازه کار با **pyMC** هستم. من مدلی به شکل زیر دارم $$\rho=\sqrt(x^2+y^2)$$ $$z=f(x,y)=\frac{c^3}{\log(c)+ 1}\frac{\log\rho}{\rho^2}+\frac{5.3}{r^2}\rho^{-3}$$ و من میخواهم قسمت عقبی پارامترهای داده شده $c$ را پیدا کنم و $r$ با خطاهای مربوط به آنها فرض کنید من یک داده واقعی دارم که از مشاهده مدل داده شده به دست می آید و فایل داده شامل ستون های $x$، $y$ و $z$ است و نقاط داده 5000 امتیاز هستند. اگر برای $c$ و $r$ اولویت های **یکنواخت** را در نظر بگیرم. چگونه می توانم مدل خود را بسازم که در هر نقطه ($x$,$y$) مقدار $z$ را محاسبه و با $z$ مشاهده شده مقایسه کند؟ | چگونه با pyMC یک مدل بسازیم |
60753 | من میدانم که مقیاسگذاری چند بعدی (MDS) همانند انجام تجزیه و تحلیل اجزای اصلی (PCA) در صورت استفاده از فاصله اقلیدسی است، این به عنوان MDS متریک شناخته میشود. اما من در کتابی به این موضوع برخورد کردم که نشان داده شده است (چتفیلد و کالینز 1980) که مقادیر ویژه $XX^T$ (ماتریس محصول خارجی غیرعادی) برابر با مقادیر ویژه $X^TX$ (ماتریس محصول داخلی غیرعادی شده است) ) و بردارهای ویژه $XX^T$ و $X^TX$ با یک تبدیل خطی مرتبط هستند X نشان دهنده ماتریسی از داده ها با ویژگی های $n$ (ردیف ها) و $m$ نمونه ها (ستون ها) است. اکنون نمی توانم این کتاب چتیلد و کالینز را از جایی دریافت کنم و می توانم بفهمم که مقادیر ویژه برابر هستند. اما بردارهای ویژه PCA و MDS متریک چگونه به یکدیگر مرتبط هستند؟ | مقادیر ویژه MDS و PCA و بردارهای ویژه |
103604 | برای درک من، آزمون هم انباشتگی جوهانسن، ابتدا آزمایش خواهد کرد که آیا سری های زمانی دارای هم انباشتگی صفر هستند، در صورت رد شدن، آزمون جوهانسن یک هم انباشتگی را آزمایش می کند، اگر رد شود، دو هم انباشتگی بیشتر را آزمایش می کند. اگر نمی توانید عدد صفر را رد کنید. فرضیه برای بار دوم در ردیف به این معنی است که سری زمان یک هم انباشتگی دارد. من از matlab استفاده می کنم و با استفاده از تست جوهانسن به این نتیجه می رسم: به عکس مراجعه کنید.  به نظر من نتایج عجیب هستند، زیرا شما نمی توانید فرضیه صفر همجمعی صفر را رد کنید، اما می توانید فرضیه صفر را رد کنید. یک همگرایی.. کسی توضیحی دارد؟ | شفاف سازی متلب هم انباشتگی جوهانسن |
45286 | من در وب سایتی کار می کنم که در آن نتایج بازی های شطرنج را که مردم انجام داده اند جمع آوری می کنم. با نگاهی به رتبهبندی بازیکن و تفاوت بین امتیاز او و حریف، نموداری با نقاط نشاندهنده برد (سبز)، تساوی (آبی) و باخت (قرمز) ترسیم میکنم. با این اطلاعات، من همچنین یک الگوریتم رگرسیون لجستیک را برای دستهبندی برشها برای برد و برد/تساوی پیادهسازی کردم. با استفاده از رتبه بندی و تفاوت به عنوان دو ویژگی من، یک طبقه بندی کننده دریافت می کنم و سپس مرزهای مربوط به جایی که طبقه بندی کننده پیش بینی خود را تغییر می دهد را روی نمودار ترسیم می کنم. از آنجایی که قبلاً هرگز این کار را انجام ندادهام، از یک رگرسیون لجستیک بسیار ابتدایی استفاده کردم، که در آن فقط تتا را به تمام صفرها مقداردهی میکنم و سپس نزول گرادیان را در یک مجموعه آموزشی اجرا میکنم و از نتایج همانطور که هست استفاده میکنم. در اینجا کد شبه من برای نزول گرادیان است. آلفا نرخ یادگیری است، J تابع هزینه، و تتا بردار ضریب است (فکر میکنم اسمش همین است). h تابع فرضیه و m تعداد مثال های آموزشی است. آلفا = 1.0 100 بار انجام دهید: برای هر ویژگی یک آرایه تتا موقت ایجاد کنید: مجموع تمام مثالهای (h(xi) - yi) * xi_j tempTheta_j = theta_j - (alpha/m * مجموع) تنظیم تتا = tempTheta محاسبه J = (-1/m) * مجموع تمام مثالهای ((yi * log(h(xi)) + ((1 - yi) * log(1 - h(xi)))) اگر J افزایش یافته است، آلفا را بر 10 تقسیم کنید 1/(1 + e^-(Theta^T * xi)) وقتی این را روی مجموعه داده ای که نمایه شطرنج خودم را نشان می دهد آزمایش می کنم، نتایج معقولی دریافت می کنم که می توانم خوشحال باشم با:  برای مدتی، همه نمونه هایی که امتحان کردم، نمودارهای جالبی را ارائه دادند کائو، که بیش از 250 تورنمنت به نام خود داشت، و در نتیجه 1000+ بازی، برای یک مجموعه تمرینی بسیار بزرگ، نتیجه آشکارا نادرست بود.  خوب، خوب نبود. بنابراین نرخ یادگیری اولیه را از 1.0 به 100.0 به عنوان اولین ایده افزایش دادم. به نظر نتایج درستی برای کوین به دست آمد:  متأسفانه، وقتی آن را روی خودم و مجموعه داده های کوچکترم امتحان کردم، من پدیده عجیبی را دریافت کردم که برای یکی از پیش بینی ها فقط یک خط صاف در 0 داد:  تتا را بررسی کردم، گفت [[2.3707682771730836]، [21.22408286825226]، [-19081.906528679192] است. سومین متغیر آموزشی (واقعاً دوم، از آنجایی که x_0 = 1) تفاوت در رتبهبندیها است، بنابراین زمانی که اختلاف کوچکترین بیت مثبت باشد، فرمول رگرسیون لجستیک منفی میشود، و تابع سیگموئید y = 0 را پیشبینی میکند. تفاوت فقط کمی مثبت است، به طور مشابه، بسیار بالا می رود و y = 1 را پیش بینی می کند. من نرخ یادگیری اولیه را از 1.0 کاهش دادم. 100.0، و تصمیم گرفتیم در عوض سعی کنیم آهسته تر آن را کاهش دهیم. بنابراین به جای اینکه وقتی تابع هزینه افزایش مییابد، آن را با ضریب ده کاهش دادم، آن را دو ضریب کاهش دادم. متأسفانه این به هیچ وجه نتیجه را برای من تغییر نداد. حتی اگر تعداد حلقههای نزول گرادیان را از 100 به 1000 افزایش دادم، همچنان آن نتیجه اشتباه را پیشبینی میکرد. من هنوز کاملاً مبتدی در رگرسیون لجستیک هستم (من به تازگی کلاس یادگیری ماشین را در coursera به پایان رساندم و این اولین بار است که سعی می کنم هر یک از الگوریتم هایی را که در آنجا یاد گرفتم پیاده سازی کنم)، بنابراین به میزان شهودم رسیده ام. اگر کسی به من کمک کند بفهمم اینجا چه مشکلی دارد، چه کار اشتباهی انجام میدهم، و چگونه میتوانم آن را برطرف کنم، بسیار سپاسگزار خواهم بود. ویرایش: من آن را روی مجموعه داده دیگری نیز امتحان کردم که حدود 300 نقطه داده داشت و یک بار دیگر یک خط سبز صاف و یک خط آبی معمولی دریافت کردم. الگوریتم اساساً برای هر دو یکسان است، فقط برخی از نتایج متفاوت برای y زیرا من در حال انجام طبقه بندی چند کلاسه هستم. | رگرسیون لجستیک در برخی موارد با شکست مواجه می شود |
67204 | من احساس می کنم این ممکن است در جای دیگری پرسیده شده باشد، اما نه واقعاً با نوع توصیف اولیه ای که نیاز دارم. می دانم که غیرپارامتری به جای میانگین برای مقایسه... چیزی به میانه متکی است. من همچنین معتقدم که به جای انحراف معیار بر درجات آزادی(؟) تکیه دارد. هر چند اگر اشتباه می کنم مرا تصحیح کنید. من تحقیقات بسیار خوبی انجام دادهام، یا فکر میکردم، تلاش کردهام مفهوم را بفهمم، کار پشت آن چیست، نتایج آزمایش واقعاً چه معنایی دارد، و/یا حتی با نتایج آزمایش چه باید کرد. با این حال، به نظر می رسد که هیچ کس هرگز وارد آن منطقه نشده است. به خاطر سادگی، بیایید به آزمون U Mann-Whitney بچسبیم، که من متوجه شدم بسیار محبوب است (و همچنین ظاهراً مورد سوء استفاده قرار گرفته و بیش از حد مورد استفاده قرار گرفته است تا مدل مربع خود را به یک سوراخ دایره ای وادار کند). اگر میخواهید بقیه تستها را هم توصیف کنید، راحت باشید، اگرچه احساس میکنم وقتی یکی را فهمیدم، میتوانم بقیه را به روشی مشابه با آزمونهای t مختلف و غیره درک کنم. داده ها و من این نتیجه را دریافت می کنم: 2 نمونه Mann-Whitney - اطلاعات تست نوع مشتری H0: تفاوت میانه = 0 هکتار: تفاوت میانه ≠ 0 اندازه مشتری بزرگ تعداد کوچک 45 55 میانه 2 2 آمار Mann-Whitney: 2162.00 p-value (دو طرفه، تنظیم شده برای کراوات): 0.4156 من با روش های دیگر آشنا هستم، اما اینجا چه چیزی متفاوت است؟ آیا باید بخواهیم مقدار p کمتر از 0.05 باشد؟ آمار من ویتنی به چه معناست؟ فایده ای داره؟ آیا این اطلاعات در اینجا فقط تأیید می کند یا تأیید نمی کند که منبع خاصی از داده های من باید استفاده شود یا نباید استفاده شود؟ من تجربه معقولی در زمینه رگرسیون و اصول اولیه دارم، اما در مورد این چیزهای ناپارامتریک ویژه بسیار کنجکاو هستم - که می دانم کاستی های خودش را دارد. فقط تصور کنید من یک کلاس پنجم هستم و ببینید آیا می توانید آن را برای من توضیح دهید. | یک آزمون ناپارامتریک دقیقاً چه کاری انجام می دهد و با نتایج چه می کنید؟ |
93569 | از آنجایی که ما از تابع لجستیک برای تبدیل ترکیب خطی ورودی به خروجی غیر خطی استفاده می کنیم، چگونه می توان رگرسیون لجستیک را یک طبقه بندی کننده خطی در نظر گرفت؟ رگرسیون خطی درست مانند یک شبکه عصبی بدون لایه پنهان است، پس چرا شبکه های عصبی طبقه بندی کننده غیرخطی در نظر گرفته می شوند و رگرسیون لجستیک خطی است؟ | چرا رگرسیون لجستیک یک طبقه بندی کننده خطی است؟ |
17014 | من هنوز با انتقال از STATISTICA/SPSS به R مشکل دارم. برای درک R، از دادههای ChickWeight از بسته R استفاده کردم. یک فاکتور بین جوجه/آزمودنی ها، «رژیم غذایی» و یک فاکتور درون جوجه/آزمودنی ها وجود دارد. زمان که برای تجزیه و تحلیل وزن از آن استفاده کردم. با استفاده از دفترچه راهنمای R، من از تابع «aov()» استفاده کردم: Chicken.anova <- aov(وزن ~ (زمان * رژیم غذایی) + خطا (جوجه/زمان) + (رژیم غذایی)، داده = وزن جوجه) یک مجموعه از جلوهها با «Chick» به عنوان عبارت خطا. این اثرات شامل اثر بین جوجه رژیم غذایی (طبق انتظار) و همچنین اثرات درون آزمودنی ها (غیر منتظره) بود. «aov()» نیز مجموعه دومی از افکتها را به همراه داشت، با تعامل «Chick» با «Time» به عنوان عبارت خطا. وقتی دادهها را تغییر دادم، به طوری که «زمان» را میتوان بهعنوان یک اندازهگیری مکرر توسط STATISTICA در نظر گرفت، و سپس از فاکتور «رژیم غذایی» بین آزمودنیها و فاکتور درون آزمودنی «زمان» برای تجزیه و تحلیل وزن استفاده کردم، آناووا نتایج متفاوتی را نشان داد. آشناتر) الگوی اثر. فاکتور بین آزمودنیها اکنون فقط «رژیم غذایی» به عنوان تأثیر، با مقدار F 7.14، و «زمان(DAYS)» و تعامل «رژیم غذایی» با «زمان» («زمان» با «DAYS») فهرست شده است. درون موضوعات من فکر میکردم که anovas را به خوبی درک کردهام، اما نمیتوانم مزیت نتیجه «aov()» را نسبت به نتیجه STATISTICA درک کنم. دلیل این تفاوت چیست؟ نتایج تجزیه و تحلیل «aov()» و STATISTICA در زیر نشان داده شده است. کد R و نتایج ####aov() خلاصه (Chicken.anova <- aov(وزن ~ (زمان * رژیم غذایی) + + خطا (جوجه/زمان) + (رژیم غذایی)، داده=وزن جوجه)) خطا: Chick Df Sum Sq Mean Sq F مقدار Pr(>F) Time 1 89700 89700 12.4668 0.0009853 *** رژیم 3 121337 40446 5.6212 0.0023723 ** زمان:رژیم 1 2482 2482 0.3450 0.5599840 باقیمانده 44 316586 -- 71ign. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطا: Chick:Time Df Sum Sq Mean Sq F value Pr(>F) Time 1 1962914 348.424 <2.42e -16 *** زمان:رژیم 3 84222 28074 4.9834 0.004464 ** باقیمانده 46 259142 5634 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 نتایج آماری SS Degr. از MS F p Freedom Intercept 5567063 1 5567063 1425.22 0.000000 Diet 83716 3 27905 7.144 0.000489 خطای 179681 46 3904 2462463906 روزه 259.603 0.000000 روز*رژیم غذایی 76737 27 2842 4.932 0.000000 خطا 238578 414 576 | R's aov() در مقابل STATISTICA و داده های ChickWeight |
103608 | من سعی می کنم نتیجه یک RCT را با استفاده از R ارزیابی کنم. شرکت کنندگان به طور تصادفی برای تکمیل یکی از دو مداخله آنلاین برای افسردگی تعیین شدند. می خواهم ببینم آیا تفاوتی در نمرات افسردگی پس آزمون بین گروه ها وجود دارد، در حالی که قبل از مداخله میزان افسردگی را کنترل می کنم. به عبارت دیگر، من می خواهم یک ANCOVA را با استفاده از نمرات افسردگی پایه به عنوان متغیر کمکی انجام دهم. من رویههایی را دنبال میکنم که در «کشف آمار در R» (فیلد، مایل، و فیلد، 2013) توضیح داده شده است، اما کاملاً مطمئن هستم که روشهایی که استفاده میکنم با اندازههای نمونه نابرابر من سازگاری ندارند (درمان n = 43؛ کنترل n = 35). این دستور R من است: ancova.depression<-aov(depression.post ~ depresion.pre + Group, data=data.depression) Anova(ancova.depression, type=III) آیا رویکردهای دیگری وجود دارد که ممکن است مناسب تر باشد برای مجموعه داده من؟ | ANCOVA در R با اندازه نمونه نابرابر |
94689 | من یک متغیر وابسته «هزینه» و یک متغیر مستقل «VPT» دارم. من میخواهم با Transformation Box-Cox یک تبدیل قدرت روی VPT انجام دهم. در پایان من به دنبال چیزی شبیه به این هستم: C~ I(VPT^(lambda)) مراحل دریافت لامبدا چیست؟ من خواندم که می توان این کار را با کتابخانه Mass انجام داد، اما گزینه های دیگر برای دریافت لامبدا نیز باز است. | تبدیل توان با استفاده از تبدیل Box-Cox |
79765 | من روی طبقه بندی متن دودویی با استفاده از sklearn کار می کنم: 1. طول هر نمونه زیاد نیست (~ 200-500 کاراکتر) 2. از TF-IDF برای بدست آوردن کلمات مهم به عنوان TfidfVetorizer استفاده می کنم (sublinear_tf=False, max_df=0.5, stop_words ='english'، max_features = 5000) 3. SGDClassifier به صورت زیر استفاده می شود: SGDClassifier(loss='hinge', alpha=.0001, n_iter=50, penalty=l2, shuffle=False , class_weight='auto') طبقه بندی کننده یادآوری خوبی را برای هر دو کلاس باینری نشان می دهد (~80) ٪، اما دقت ضعیف برای کلاس 1 (~40٪). همانطور که در برنامه من، دقت مهمتر از یادآوری است، من نمی دانم چگونه می توانم دقت را حتی با کاهش اندکی یادآوری بهبود بخشم؟ من با SGDClassifier وسواس ندارم. سایر طبقه بندی کننده ها خوب هستند. | افزایش دقت در طبقه بندی متن |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.