_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
97292
من سعی می کنم مدلی برای داده های زیر پیدا کنم. من نمی توانم تصمیم بگیرم که آیا داده ها ثابت هستند یا نه. من نمی خواهم اختلافات را بی جهت بگیرم. من نتایج مدل ها را در زیر قرار داده ام. من فکر می کنم ARIMA (0،1،3) بهترین مدل است زیرا AIC پایین ترین است. نظر شما چیست؟ ![داده](http://i.stack.imgur.com/dDBI0.png) [1] 3.78937537 2.15208174 -0.89160064 -1.73332645 -0.83482963 -0.41333146 -0.41333144 -0.41333144 - -2.20777662 -1.35331581 -1.87955944 -1.49146551 2.49103865 [13] 4.58664031 3.98372753 3.49151073 2.49151073 2.885 2.49151073 2.885. 2.00031840 [19] 1.74083830 -0.61761601 -2.88803617 -0.61886754 2.57402611 1.89283706 [25] -1.075423734 -1.07542734 -1.075426734 -2.51596702 -0.86119264 0.18702439 [31] 0.71532140 0.57777386 3.35966227 5.69130104 2.56164574 [3.56164583] 5.42012156 4.91012242 3.19472611 3.25517135 2.99351748 [43] 2.04710036 3.00828776 3.97207206 3.97207206 2.645 2.645 -1.43062776 [49] -0.86202757 2.17878741 4.93325672 3.31060112 0.35611519 0.46807870 [55] 1.66715874653. 1.55933575 0.63240519 1.28472844 [61] 1.38605161 0.18651983 0.79863043 2.87366933 4.44551597 [4.4551597] 4.38651983 3.35830065 1.53707953 0.08623542 0.97667994 -0.42280994 [73] -3.58389281 -3.55316081 -2.55628421 -3.5628421 -3.427 -2.55628421 -3.427 -4.72314008 [79] -2.32487771 -0.38168241 -0.89383414 -0.58963196 0.77158269 1.07205599 [85] 0.729508241. 1.72134300 0.31586665 0.34106233 [91] -1.31065867 -2.64398487 -0.47188919 1.33507435 -0.55269545 - 0.55269545 [8.55269545 -2.745 -2.745 - 0.55269545] -3.07342362 -2.60963150 -0.96491699 -0.11554423 0.07801436 [103] 1.03953592 0.63529388 0.1031077544425 106. -4.69707317 [109] -6.83755810 -5.48216561 -2.18589446 -1.34859551 -4.25464826 -4.44676908 [115] -0.725238075 -2.45630323 -4.70575810 -5.66265488 -5.50397286 [121] -5.64958955 -5.48545360 -2.79058869 -1.105288814 -3.10528814 -3.10528814 -3. [127] -2.73350349 -2.21617434 -1.52494934 -1.58548803 -2.49378602 -1.69527130 [133] 0.74873392 0.90582734 2.92103049 5.83058432 6.36187212 [139] 5.22905256 4.00941490 3.03523663 1.93713509 1.674717241435] 1.674717241435] 2.32354111 5.63314456 6.62253314 3.30169519 -0.53170457 -2.45563036 [151] -3.33244848 -3.77673924 -3.77673924 -3.77673924 -3.375 -0.16490056 3.04228090 [157] 3.92168880 1.24849940 -1.63284318 -1.07538492 1.65080853 1.66193852 - 1423 -0.55887445 0.41598367 0.86267051 2.37980973 3.33955626 [169] 2.06034558 -0.23641280 -0.58777694 -0.58777694 -0.58777694 -0.58777694 -0.58775692 -0.5877692 -0.5875692 -0.0. -0.97577373 [175] -1.32154837 -0.63551008 2.42331965 4.81896345 3.87979306 0.95525157 [181] -1.50232528 -1.5023252 -3.03952767 -0.28938790 1.58862094 2.81297712 [187] 3.46355587 3.35284181 3.33816359 2.3969691838785867850. [193] -0.24116984 1.61287955 0.67580375 -0.41342769 -2.12526810 -3.82541756 [199] -1.64497472 -0.73580375 -0.41342769 -2.12526810 -3.82541756 [199] -1.64497472 -0.73580375 = سفارش داده‌ها c(0, 1, 3)) ضرایب: ma1 ma2 ma3 1.0905 -0.4871 -0.6763 s.e. 0.0750 0.1390 ​​0.0760 sigma^2 تخمین زده شده به صورت 0.8477: احتمال ورود = 268.35-، aic = 542.7 تماس: arima(x = داده9، سفارش = c(1، 0، 1)) ضرایب: ضرایب: 0.1 ma1 070070 s.e. 0.0497 0.0213 0.4983 sigma^2 برآورد شده به عنوان 1.097: احتمال ورود = 296.55-، aic = 599.11
انتخاب مدل ARIMA
21224
من از این مشکل خیلی گیج شدم با توجه به دو متغیر $X_1$ و $X_2$، به طوری که $X_i \sim \mathrm{Gam}(a_i, b)$، توزیع مشترک $X_1$ و $X_2$ را پیدا کنید. من درک می کنم که اگر متغیرها مستقل باشند چگونه باید ادامه داد، اما حالت کلی کمی نامشخص است. با تشکر از کمک شما!
توزیع مشترک دو متغیر تصادفی گاما
69616
من یک مجموعه داده دارم که در آن متغیر پاسخ تعدادی از حیوانات را اندازه می‌گیرم. من از این متغیر پاسخ به عنوان متغیر وابسته در یک مدل مختلط خطی استفاده کردم که برای آن 5 متغیر توضیحی دارم. دو تا از این متغیرهای توضیحی اگر در یک مدل وارد شوند، تو در تو قرار می‌گیرند، زیرا به هر حیوان و سایت تحقیقی که در آن واقع شده‌اند اشاره می‌کنند. بنابراین سایت (فردی) خواهد بود. اگر آنها را تودرتو نکنم اما آنها را جداگانه وارد کنم، برنامه با خطاهای محاسباتی مواجه می شود و یکی از دو متغیر را بیرون می اندازد. من از SPSS استفاده می کنم. سپس تعداد کاملی از مدل‌های مختلف را با تمام ترکیب‌های مختلف متغیرهای توضیحی ایجاد کردم و آنها را بر اساس AIC رتبه‌بندی کردم. سپس متوجه شدم که تعدادی از مدل ها دقیقا همان AIC را دارند. این‌ها مدل‌هایی بودند که با وجود یکسان بودن، یا فقط فردی را به‌عنوان متغیر توضیحی یا سایت (فرد) را شامل می‌شدند. اگر مدل، با همه مساوی بودن، فقط حاوی سایت بود، AIC متفاوت بود. اکنون سؤالات من این است: الف) آیا این نتایج منطقی هستند؟ من نمی توانم به اشتباهی که انجام می دهم فکر کنم، اما کمی نگران همان مقدار برای AIC هستم. ب) آیا می توانم مدل ها را از این طریق مقایسه کنم - مقایسه متغیرهای تو در تو با متغیرهای غیر تو در تو؟
مدل های خطی مخلوط با AIC دقیقا یکسان؟
69612
من داده‌هایی را جمع‌آوری کرده‌ام که پاسخ‌دهندگان پاسخ‌های زیر را ارائه می‌دهند 1. علاقه‌ای به مشارکت ندارند 2. فقط اطلاعاتی در مورد موضوع دریافت می‌کنند اما شرکت نمی‌کنند 3. مشاوره در مورد موضوع 4. مسئولیت هر یک از چهار موضوع زیر را بر عهده می‌گیرند. تعیین اولویت ها 2. افزایش درآمد 3. توزیع وجوه 4. نظارت من می خواهم آزمایش کنم که آیا موضوع بر روش ترجیحی مشارکت تأثیر می گذارد یا خیر. **آیا می توانید از آزمون فریدمن برای بررسی اینکه آیا پاسخ ها در موضوعات مختلف متفاوت است استفاده کنید؟**
آیا از آزمون فریدمن برای آزمایش تفاوت در دسته ها در چهار مبحث استفاده می شود؟
21229
آیا تفاوتی بین ANCOVA (که تحت «مدل خطی عمومی (GLM)» انجام می‌شود) و رگرسیون سلسله مراتبی (همانطور که تحت «رگرسیون» انجام می‌شود) در SPSS وجود دارد؟ من اثرات اصلی و تعامل X1 (پیوسته) و X2 (مقوله ای) را روی Y (پیوسته) آزمایش می کنم. من می دانم که GLM دارای رگرسیون است و یکی از مزایای اصلی استفاده از GLM نسبت به تابع رگرسیون این است که GLM (عامل) کدگذاری ساختگی ایجاد می کند. در رگرسیون، این باید قبل از وارد کردن فاکتور طبقه‌بندی در کادر تحلیل انجام شود. همین امر در مورد محصول تعامل نیز صدق می کند. من شخصاً خروجی GLM (ANCOVA) را راحت‌تر درک می‌کنم.
تفاوت بین ANCOVA و رگرسیون سلسله مراتبی
97293
من داده های ریزآرایه ای دارم که در آنها سه تکرار بیولوژیکی برای هر یک از شرایط وجود دارد. من به یک تخمین عددی علاقه مند هستم که چقدر تکرارها با یکدیگر مطابقت دارند، بنابراین فکر کردم باید به واریانس نگاه کنم. فکر می‌کنم می‌توانم آن را به‌صورت جداگانه برای هر کاوشگر محاسبه کنم، اما فکر کردم ممکن است با نگاه کردن به همه کاوشگرها به طور همزمان اطلاعات بیشتری وجود داشته باشد (چیزی که مربوط به اعتدال است). من به عنوان شروع به این موضوع پرداخته ام، اما مطمئن نیستم که چگونه این کار را انجام دهم.
محاسبه واریانس برای داده های ریزآرایه؟
69611
من در محاسبه $\mathrm{E}\left(T_{1} T_{2}^{-1}\right)$ بسیار مشکل دارم که در آن $T_{i}$ یک متغیر تصادفی است که بر اساس Birnbaum-Saunders توزیع شده است. توزیع آیا پیشنهادی در مورد نحوه محاسبه عبارت وجود دارد؟
محاسبه مقدار مورد انتظار BS2
86973
آیا کسی می تواند توضیح دهد که چرا رگرسیون ریج انتخاب ویژگی را انجام نمی دهد اگرچه از منظم سازی استفاده می کند؟ بنابراین، مانند LASSO ضرایب رگرسیون را جریمه می‌کند، اما چگونه می‌توانیم از همه ویژگی‌ها برای همه مقادیر لامبدا (پنالتی) در محدوده استفاده کنیم؟ چرا در صورت جریمه بالا به ضرایب صفر نمی رسیم؟ من می دانم که این یک سوال بسیار اساسی است، اما از هر پاسخی قدردانی می کنم. با تشکر
چرا رگرسیون رج انتخاب ویژگی را انجام نمی دهد، اگرچه از منظم سازی استفاده می کند؟
1866
به دنبال سوالات اخیری که در اینجا داشتیم. مشتاق بودم بدانم آیا کسی برخورد کرده است یا می تواند ** کد R را برای انجام تحلیل توان سفارشی بر اساس شبیه سازی برای یک مدل خطی به اشتراک بگذارد؟ مکان مناسب برای شروع با تشکر
نحوه شبیه سازی تحلیل توان سفارشی یک مدل lm (با استفاده از R)
19504
من در حال تنظیم یک تحلیل خطی از یک متغیر وابسته پیوسته منفرد، با چندین متغیر مستقل پیوسته (تا 11!) هستم. من علاقه مند به انجام کاری مانند ANCOVA هستم که سهم نسبی و تنوع مشترک بین متغیرها را نشان دهد. اما درک من این است که ANCOVA نیاز به داشتن یک متغیر طبقه بندی دارد، که داده های من ندارند. من قبلاً تجزیه و تحلیل رگرسیون چندگانه را انجام داده ام که یک شبکه همبستگی به دست می دهد، اما همواریاسیون بین متغیرها را نشان نمی دهد. آیا تحلیل دیگری وجود دارد که باید در نظر بگیرم؟ آیا باید داده های خود را مجبور کنم تا در تجزیه و تحلیل ANCOVA قرار گیرند؟ در اینجا نمونه ای از داده ها برای وضوح آورده شده است. DV iv1 iv2 iv3 iv4 iv5 iv6 -0.34 2.05 7.77 0.00 3.91 2.23 10.80 -0.40 2.23 0.53 3.14 1.67 3.34 13.93 0.00 - 0.24 2.33 13.95 -0.39 0.00 1.48 0.00 2.62 3.06 10.04 -0.32 0.79 0.00 0.00 5.51 3.94 10.24 0.24 0.24 0.00 0.00 0.00 0.00. 13.85 1.58 1.34 0.00 0.00 3.41 2.20 13.05 1.07 4.05 2.99 0.00 2.89 3.47 8.09 -0.44 2.31 1.81 0.05 - 0.05 2.94 2.68 0.00 10.29 1.47 11.76
متغیرهای مستقل پیوسته چندگانه، var وابسته تک: کدام تحلیل؟
21220
من یک دانشجوی دکترا هستم و در مورد اینکه چه آزمونی را برای تأیید آزمایش انتخاب کنم، مشکلاتی دارم. امیدوارم بتوانید به من کمک کنید! آزمایش من: من تعداد زیر مجموعه ای از سلول ها را در اضافه کاری مگس سرکه می شمارم. من یک جهش یافته و یک کنترل نوع وحشی دارم. من مگس‌ها را در مقاطع زمانی مختلف تشریح می‌کنم: فقط بسته شده، 1 روز پس از بسته شدن، 3 dae، 6 dae، 9 dae، 12 dae و 15 dae. برای هر نقطه زمانی من یک عدد n حدود 50 برای نمونه دارم. تعداد نمونه بسته به روز و جهش یا نوع وحشی محدوده 0-9 دارد. مشکل: اتفاقی که با این سلول‌ها می‌افتد این است که در جمعیت نوع وحشی، تعداد سلول‌ها اضافه نمی‌شود، در حالی که در جهش‌یافته‌ها کاهش می‌یابد. علاوه بر این، جمعیت نوع وحشی به طور متوسط ​​حدود 6 (در همه روزهای تشریح) است، در حالی که جهش یافته با 4 شروع می شود و به 2 کاهش می یابد. مانند tukey) برای نشان دادن تفاوت بین نوع وحشی و کنترل برای هر روز، اما در این سناریو یک آنوا فقط به من می‌گوید که همه نوع وحشی با همان جهش‌یافته جدا شده متفاوت هستند. (حتی در زمان eclosion!) به دلیل تفاوت اساسی آنها، یا اینکه مثلا mutant dae15 با جهش یافته dae0,1,3 متفاوت است. علاوه بر این، چیزی که من می‌خواهم با آن آزمایش کنم این نیست که نوع وحشی با جهش یافته در یک نقطه زمانی خاص متفاوت است، بلکه این است که تعداد جهش‌یافته‌ها به روشی متفاوت در مقایسه با اعداد کنترل کاهش می‌یابد. راه‌حل‌های ممکن: یک احتمال می‌تواند انجام یک آنووا روی یک نمونه نرمال‌شده باشد: می‌توانم هر عددی را تقسیم کنم (و منظورم اعداد واحد شمارش است، نه میانگین) که برای میانگین روز بسته شدن به دست می‌آورم، و یک آنووا انجام دهم. در این نسبت (بنابراین من می‌خواهم دو جمعیت را به روز انسداد عادی کنم و دیگر فرقی نمی‌کند که تعداد خام آنها متفاوت باشد)، اما چیزی به من می‌گوید که همه آمارها را به هم می‌زنم: من مطمئن نیستم که آیا این رویکرد از نظر آماری درست است یا خیر. احتمال دیگری که به آن فکر می‌کردم استفاده از نوعی تحلیل همبستگی یا رگرسیون است، اما در مثالی که پیدا کردم هرگز این رویکرد را در نوع آزمایشم پیدا نکردم، بنابراین مطمئن نیستم که چگونه آن را حل کنم. در کتابچه‌های مختلف، همیشه این نوع رویکرد را به آزمایش‌های کوچک‌تر نشان می‌دهد، مانند مقایسه فشار خون و فرض قهوه، و با اعداد بسیار کمتر، بنابراین مطمئن نیستم که با پاک کردن 600 نقطه مختلف با هم چه نتیجه‌ای خواهم داشت. امکان دیگر مقایسه شیب دو خط مختلف است، اما مطمئن نیستم که چگونه می توانم این کار را با توجه به همه شمارش های مختلف و نه تنها میانگین نهایی انجام دهم. کسی به آزمون کپلن مایر پیشنهاد داد، اما من نمی‌توانم ببینم چگونه می‌توان این نوع تست‌ها (لوگرانک) را با در نظر گرفتن تمام شمارش‌هایی که یک نقطه زمانی تشکیل می‌دهند و نه تنها میانگین نهایی، اعمال کرد. اگر راه‌حل بهتری پیدا نکردم چگونه می‌خواهم این کار را انجام دهم: فقط یک آنووا (بله، یک مجموعه از شمارش‌ها معمولاً توزیع می‌شود) روی اعداد خام انجام دهید و نشان دهید که اگرچه Wt Day0 و Day15 از نظر آماری متفاوت نیستند، در حالی که Day0 و Day15 از جهش یافته از نظر آماری متفاوت هستند (یا حتی Day0 از Day12 و غیره). شاید این کافی باشد و من فقط به این مشکل بیش از حد فکر می کنم، اما به نظر نمی رسد که به طور کامل آنچه را که تجزیه و تحلیل می کنم توصیف کند. اگر ایده ای دارید که چگونه می توان این مشکل را حل کرد، ممنون می شوم!
چه آزمون آماری برای خط زمانی شمارش سلول اعمال می شود؟
21221
من یک پرسشنامه دارم که در آن برخی از سؤالات مربوط به محدوده هستند، پاسخ های جایگزین عبارتند از: * 0 * 1 - 15 * 16 - 30 * 31 - 45 * 46 - 60 * 60+ (اعداد دقیقه در هفته هستند، نه اینکه مهم باشد ) اگر بخواهم نتیجه را به عنوان یک عدد متوسط ​​ارائه کنم، چگونه این کار را انجام دهم؟ فکر من در حال حاضر این است که میانگین را در محدوده (1 - 15 => 7) در نظر بگیرم، چند بار انتخاب شده است. سپس آن را برای همه گزینه ها جمع کنید و بر تعداد کل پاسخ ها تقسیم کنید. هنوز مطمئن نیستم که چگونه با مقدار 60+ مدیریت شود. اما ساده به نظر می رسد و از آنجایی که به نظر مشکلی است که باید اغلب رخ دهد، ممکن است روش بهتری وجود داشته باشد. **ویرایش:** کمی پیشینه: نظرسنجی مربوط به منابع ناکارآمدی در محل کار است، مانند مشکلات کندی سرورها، کندی کامپیوتر، استفاده از برنامه های اشتباه و غیره. سوالات برای چندین حوزه و برای هر حوزه کاربر وجود دارد. به تخمین میزان زمان از دست رفته در هفته در آن منطقه خاص پاسخ خواهد داد. من به دنبال یک میانگین بودم زیرا فکر می‌کردم این روشی موثر برای ارائه نتایج است. به طور متوسط، یک توسعه دهنده X دقیقه در هفته را به دلیل یک محل کار ناکارآمد از دست می دهد. این بدان معناست که ما می توانیم در پول Y صرفه جویی کنیم اگر .... نیازی به دقیق بودن آن نیست، فقط به عنوان یک شاخص استفاده می شود و انگیزه ای برای تغییر ایجاد می کند.
مقدار متوسط ​​از محدوده ها در یک نظرسنجی
21222
بهترین مراحل (توصیه شده) پیش پردازش قبل از اجرای k-means چیست؟
آیا عادی سازی میانگین و مقیاس بندی ویژگی برای خوشه بندی k-means مورد نیاز است؟
1863
من یک آزمایش اندازه گیری مکرر درون آزمودنی ها را اجرا کردم که در آن متغیر مستقل دارای 3 سطح بود. متغیر وابسته معیار صحت است و به صورت صحیح / نادرست ثبت می شود. زمان صرف شده برای ارائه پاسخ نیز ثبت شد. ANOVA اندازه گیری های مکرر درون آزمودنی ها برای تعیین اینکه آیا تفاوت معنی داری در صحت (DV) بین 3 سطح IV وجود دارد یا خیر، استفاده می شود. اکنون، می‌خواهم تجزیه و تحلیل کنم که آیا در زمانی که پاسخ‌ها 1) صحیح و 2) نادرست هستند، تفاوت قابل توجهی در زمان ارائه پاسخ‌ها وجود دارد. مشکل من این است: در سراسر سطوح، تعداد متفاوتی از پاسخ های صحیح / نادرست وجود دارد، به عنوان مثال. سطح 1 دارای 67 پاسخ صحیح، سطح 2 دارای 30 پاسخ، سطح 3 دارای 25 پاسخ است. چگونه می توانم زمان صرف شده برای همه پاسخ های صحیح را در 3 سطح مقایسه کنم؟ من فکر می کنم این به معنای عدم تعادل آن است؟ آیا می توانم 3 ANOVAS یک طرفه را برای انجام یک مقایسه زوجی انجام دهم، در حالی که برای محاسبه هر مقایسه، p را به سمت پایین تنظیم کنم؟ با تشکر
ممکن است یک نامتعادل در افراد اقدامات مکرر؟
28242
بر اساس پاسخ‌های سؤال نحوه ترسیم نمودار کنار هم که در «نمایش گرافیکی به‌عنوان کمکی برای تجزیه و تحلیل» ذکر شد، من خودم در نظر دارم این تابع را پیاده‌سازی کنم. مشکل این است که من نمی دانم چگونه از نتیجه تابع aov() استفاده کنم. باید ببینم چند فاکتور وجود دارد، نام فاکتورها، اثرات اصلی و اثرات متقابل آنها چیست، و غیره. من با مستندات «aov()» مشورت کردم، اما هنوز هیچ سرنخی برای انجام این کار ندارم. باید راه دیگری بسیار پیچیده غیر از چیزی مانند «t.test(x,y)$p.value» باشد. کمکم می کنی؟
چگونه از نتیجه عملکرد aov استفاده کنیم؟
65750
سلام من به دنبال حل المسائل بهینه سازی محدب قوی در پایتون هستم. مشکل من خیلی پیچیده نیست، اساسا یک برنامه qp محدود ساده است. من از توزیع رایگان پایتون 2.7 Enthought بر روی یک دستگاه ویندوز 64 بیتی استفاده می کنم. من به http://cvxopt.org/install/index.html برخوردم که نصب این روی ویندوز خیلی آسان به نظر نمی رسد. به موسک هم برخوردم که کمی زیاده روی به نظر می رسد. آیا کسی راه حل خوبی می شناسد، آیا مردم از cvxopt در ویندوز استفاده می کنند؟
بهینه سازی محدب پایتون
1865
عرشه استاندارد دارای 52 کارت، 26 کارت قرمز و 26 کارت سیاه است. یک اجرا حداکثر بلوک به هم پیوسته از کارت ها است که همان رنگ را دارد. به عنوان مثال * (R,B,R,B,...,R,B) دارای 52 ران است. * (R,R,R,...,R,B,B,B,...,B) دارای 2 اجرا می باشد. تعداد مورد انتظار دویدن در یک دسته کارت های به هم ریخته چقدر است؟
تعداد مورد انتظار اجراهای همرنگ در یک دسته استاندارد کارت چقدر است؟
11734
من یک anova سه طرفه با مجموع مربع های نوع III در c++ پیاده سازی کرده ام. از آنجایی که برخی از آزمایش‌های من (مشاهدات) مهم‌تر هستند (آموزنده‌تر)، می‌خواهم به آن‌ها وزن بالاتری در تحلیل خود بدهم. به عنوان مثال، آزمایشی که بسیار مهم است دارای وزن 10 و آزمایش نسبتاً مهم دارای وزن 5 و غیره است. برای اجرای آن، چنین مشاهداتی را با توجه به وزن متناظر آن، 10 بار، 5 بار، تکرار می کنم، ... من از همان مفهوم در 2way anova استفاده کردم، اما در آنجا از فرمول های معمولی مجموع مربع ها استفاده کردم، زیرا طراحی من متعادل بود. . بنابراین من فقط مقدار هر مشاهده و تعداد دفعاتی که آن را دیده ام در وزن ضرب کردم. در اینجا، تکرار موارد، ماتریس طراحی را بسیار بزرگ می کند و پیچیدگی محاسباتی را افزایش می دهد. حالا مشکل اینجاست که اگر نخواهم آنها را تکرار کنم، اما از ماتریس وزن استفاده کنم، چطور؟ و اگر وزن ها مقادیر صحیح نباشند (بنابراین من واقعا نمی توانم یک مورد را 0.3 بار تکرار کنم) چه می شود؟ من این فرمول را اینجا پیدا کردم: H^=X(X'WX)-1XW بنابراین وزن هایم را در ماتریس W قرار دادم و از این فرمول استفاده کردم. برای بررسی اینکه آیا کار می کند، از روش معمولی و مشاهدات تکراری به اندازه وزن استفاده کردم و آن را به متلب دادم. اما من مقادیر مختلف SS دریافت کردم. لطفاً لطفاً به من بگویید چگونه باید این فرمول را تغییر دهم؟ با تشکر
چگونه یک ANOVA وزنی سه طرفه را در طراحی نامتعادل پیاده سازی کنیم؟
17066
بهترین طبقه بندی کننده کلاس 2 خارج از جعبه چیست؟ بله، حدس می‌زنم این سوال میلیون دلاری است، و بله، من از قضیه نهار مجانی خبر ندارم و سوالات قبلی را نیز خوانده‌ام: * نظرسنجی: بهترین خارج از جعبه چیست 2- طبقه بندی کننده کلاس برای برنامه شما؟ * و بدترین طبقه بندی با این حال، من علاقه مند به خواندن بیشتر در مورد این موضوع هستم. منبع اطلاعات خوبی که شامل مقایسه کلی ویژگی ها، مزیت ها و ویژگی های طبقه بندی کننده های مختلف باشد چیست؟
یک منبع خوب که شامل مقایسه مزایا و معایب طبقه‌بندی‌کننده‌های مختلف باشد چیست؟
81074
مدرس من فقط ** قضیه حد مرکزی لیندبرگ-لوی** و نسخه چند متغیره ** CLT کاملتر لیندبرگ** را پوشش داد. من مفهوم اصلی را درک کردم و می توانم آن را استخراج کنم، و غیره. اما اگر کسی بتواند توضیح دهد که چگونه همه اینها در برنامه های زندگی واقعی تحلیل **اقتصاد سنجی** استفاده می شود، به درک من کمک زیادی می کند؟ من برخی ادعاها را خوانده ام که CLT فقط روی یک تکه کاغذ خوب است. برخی از برنامه‌ها یا مراجع واقعاً جالب در صنعت قدردانی می‌شوند.
CLT چقدر در برنامه ها مفید است؟
69613
من خواندم که وقتی یک سری را با لگاریتم تبدیل می کنیم و سپس تابع معکوس را اعمال می کنیم، بایاس وجود دارد، اما فقط در پیش بینی مقادیر میانگین. منظورش رو دقیقا متوجه نمیشم در کتاب سری های زمانی مقدماتی با R، بخشی در مورد این موضوع وجود دارد: > تعصب در میانگین در نتیجه اعمال تبدیل معکوس > به یک سری باقی مانده به وجود می آید. به عنوان مثال، اگر سری های زمانی سفید گاوسی > نویز $w_{t}$، با میانگین صفر و انحراف استاندارد σ باشند، پس توزیع > تبدیل معکوس (ضد ورود) سری log-> نرمال است. با میانگین $e^{σ ^{2}/2}$. این را می توان از نظر تئوری یا > به صورت تجربی با شبیه سازی در کد زیر تأیید کرد: set.seed(1) sigma <- 1 w <- rnorm(1e+06, sd = sigma) mean(w) [1] 4.69e- 05 > mean(exp(w)) [1] 1.65 > exp(sigma^2/2) [1] 1.65 > کد در بالا نشان می دهد که میانگین ضد ورود به سیستم نویز سفید گاوسی > و میانگین مورد انتظار از توزیع log-normal برابر هستند. از این رو، > برای یک سری باقیمانده نویز سفید گاوسی، ضریب تصحیح > $e^{σ^{2}/2}$ باید برای پیش‌بینی میانگین‌ها اعمال شود. در همان بخش، می‌گوید که پیش‌بینی تعدیل‌شده {$x'_{t}$} با ضریب تصحیح تجربی این است: $$\hat{x}'_{t} = e^{\hat{\log x_ {t}}}\sum_{t=1}^{n}\frac{e^z_{t}}{n}$$ که $\hat{\log x_{t}}$ سری پیش‌بینی‌شده توسط را مدل رگرسیون لگ کسی میدونه این یعنی چی؟ تا آنجا که من متوجه شدم، زمانی که ما یک لگاریتم را به یک سری اعمال می کنیم و یک مدل (خطی) را به مقادیر به دست می آوریم، به صورت زیر عمل می کنیم: $$\log x_{t} = \alpha t + \beta + z_{ t}$$ که در آن $z_{t}$ باقی مانده است. بنابراین، من فکر می کنم که تبدیل معکوس با: $$x_{t} = e^{\alpha t + \beta} e^{z_{t}}$$ داده می شود، اما، پیش بینی میانگین ها چیست و چگونه است. آیا در این رویه دخالت دارد؟ حدس می‌زنم $\displaystyle \frac{e^z_{t}}{n}$ باشد، اما نمی‌توانم توجیهی ببینم. **UPDATE**: فرض کنید از مدلی که در بالا توضیح داده شد برای پیش‌بینی برخی مقادیر $p_{t}$ استفاده می‌کنیم. از آنجایی که ما از یک تبدیل لگاریتمی استفاده کردیم، برای برگرداندن آن، باید این کار را برای همه $t$ جدید انجام دهیم: $$\exp{p_{ŧ}}$$ با این حال، کتاب می گوید که برای اعمال تصحیح برای هر جدید مقدار پیش‌بینی‌شده، باید این کار را انجام دهیم: $$p_{\text{t}}^{\text{corrected}} = p_{t} \frac {1}{n}\sum_{t=1}^{n} e^{\hat z_t}$$ چرا؟ من فکر می کردم که میانگین پیش بینی مغرضانه است اما مقادیر فردی آن نیست.
تصحیح بایاس تبدیلات لگاریتمی
28246
من تعریف AIC برای مدل پارامتری را یاد گرفتم. اما چیزی که می خواهم بدانم این است که آیا نسخه نیمه پارامتریک AIC وجود دارد؟ آیا در مورد آن شنیده اید؟ و اگر می دانی لطفا لینکی را به من نشان بده تا ببینم.
AIC برای مدل نیمه پارامتریک
49487
من می خواهم روابط بین دسته بندی سایت ها و فراوانی گونه ها را از طریق PCoA یا CAP با استفاده از Vegan::capscale مطالعه کنم. برای انجام این کار، نمرات گونه‌ها را روی انتصابم قرار می‌دهم. با این حال، من با گزینه های مختلف مقیاس بندی و تفسیر آنها گیج می شوم. از آنچه من فهمیدم: با scaling=1، فلش جهتی را از مبدأ نشان می دهد که سایت ها برای این گونه فراوانی بیشتری دارند. با مقیاس‌بندی=2، می‌خواهیم همبستگی بین گونه‌ها را تحلیل کنیم. انتظار می‌رود گونه‌هایی که زاویه کمی بین فلش‌هایشان دارند، همبستگی مثبت قوی داشته باشند. با مقیاس‌بندی=-2، const=sqrt(nrow(dune)-1)، همبستگی بین گونه‌ها و محورها به دست می‌آید. این از Jari Oksanen می آید. من 3 گزینه مختلف را مقایسه کردم (کدهای زیر را ببینید)، به نظر می رسد تفاوت ها فقط به طول فلش مربوط می شود. از این رو، با توجه به اینکه مهم ترین آنها طول نسبی فلش ها (نسبت به یکدیگر) است، آیا من مجاز به استفاده از مقیاس 2-= (همبستگی محورهای گونه) هستم برای تجزیه و تحلیل همبستگی های مکان- گونه و همبستگی گونه-گونه؟ یک سوال دیگر، آیا آستانه قابل قبولی در ارزش همبستگی گونه-محور وجود دارد، که زیر آن در نظر می گیریم که گونه ها همبستگی ندارند (منظورم این است که گونه ها از نظر فراوانی در سایت ها تفاوت ندارند، به استثنای موارد روابط غیر خطی) . اگر بله، این تغییر آستانه را بسته به روش مقیاس‌بندی مورد استفاده و اینکه ترتیب محدود است یا خیر، انجام دهید. علاوه بر این، اگر بخواهم یک بردار را برای یک متغیر کمی محیطی قرار دهم، می‌توانم از مقیاس‌بندی=-2 نیز استفاده کنم، از کدام آستانه همبستگی؟ library(vegan) library(ggplot2) library(grid) data(dune) data(dune.env) dune=sqrt(dune) mcap=capscale(dune~1,dist=bray) #PCoA #sites scores dims=c (1،2) site=scores(mcap,display=wa,choices=dims) site.env=cbind(site,dune.env) #spider برای سطوح مدیریت dev.new();plot(mcap);coord_spider=with(dune.env,ordispider(mcap,Management,col=blue,label= F,choices=dims));dev.off() coord_spider=as.data.frame(cbind(coord_spider[,],site.env)) names(coord_spider)[1:4]=c(MDS1,MDS2, MDS1end،MDS2end) #species امتیازات #scaling1 cor.min=0.6 #زیر این آستانه، فلش ها رسم نمی شوند زیرا همبستگی بیش از حد هفته در نظر گرفته می شود cor_sp=as.data.frame(scores(mcap, dis=sp, scaling=1,choices=dims)) cor_sp$cor=with(cor_sp,sqrt(MDS1^2+MDS2^2)) cor_sp$sup= FALSE;cor_sp$sup[cor_sp$cor>=cor.min]<-TRUE cor_sp$lab=row.names(cor_sp) cor_sp=cor_sp[cor_sp$sup==TRUE,] cor_sp_s1=cor_sp #scaling2 cor.min=0.6 #زیر این آستانه، فلش‌ها رسم نمی‌شوند زیرا همبستگی بیش از حد هفته در نظر گرفته می‌شود cor_sp=as.data.frame(scores(mcap , dis=sp, scaling=2,choices=dims)) cor_sp$cor=with(cor_sp,sqrt(MDS1^2+MDS2^2)) cor_sp$sup=FALSE;cor_sp$sup[cor_sp$cor>=cor.min]<-TRUE cor_sp$lab=row.names(cor_sp ) cor_sp=cor_sp[cor_sp$sup==TRUE،] cor_sp_s2=cor_sp #مقیاس‌سازی -2، همبستگی بین گونه ها و محورها #از Jari Oksanen در https://stat.ethz.ch/pipermail/r-sig-ecology/2010-August/001448.html cor.min=0.6 #زیر این آستانه، فلش ها رسم نمی شوند زیرا همبستگی بیش از حد هفته در نظر گرفته می شود cor_sp=as.data.frame(scores(mcap, dis=sp, scaling=-2, const = sqrt(nrow(dune)-1),choices=dims)) cor_sp$cor=with(cor_sp,sqrt(MDS1^2+MDS2^2)) cor_sp$sup=FALSE;cor_sp$sup [cor_sp$cor>=cor.min]<-TRUE cor_sp$lab=row.names(cor_sp) cor_sp=cor_sp[cor_sp$sup==TRUE،] cor_sp_s3=cor_sp #plot mon.plot1=ggplot(data=site.env)+theme_bw()+ geom_point(aes(x=MDS1,y=MDS2,color=Management) )# les sites #add spider mon.plot2=mon.plot1+ geom_segment(data=coord_spider,aes(x=MDS1,y=MDS2,xend=MDS1end,yend=MDS2end,colour=Management),lwd=0.5,alpha=1/3)+ geom_point(data=coord_spider,aes(x=MDS1,y=MDS2,colour=Management),cex=3,shape=19) #نمرات گونه ها را به عنوان بردار اضافه کنید #scaling1 mon.plot_s1=mon.plot2+ggtitle(مقیاس سازی 1 )+ geom_point(aes(x=0,y=0),shape=21,fill=black,color=black,size=3)+#central point geom_segment(data=cor_sp_s1,aes(x=0,y =0،xend=MDS1،yend=MDS2)،پیکان = پیکان(طول = واحد(0.3cm)))+#فلش geom_text(data = cor_sp_s1، aes(x = MDS1، y = MDS2، label = lab)، اندازه = 3)#labels #scaling2 mon.plot_s2=mon.plot2+ggtitle(مقیاس سازی 2)+ geom_point(aes(x=0,y=0),shape=21,fill=black,color=black,size=3)+#central point geom_segment(data=cor_sp_s2,aes(x=0,y =0،xend=MDS1،yend=MDS2)،پیکان = پیکان(طول = واحد(0.3cm)))+#فلش geom_text(data = cor_sp_s2، aes(x = MDS1، y = MDS2، label = lab)، اندازه = 3)#labels #scaling -2، همبستگی بین گونه‌ها و محورها mon.plot_s3=mon.plot2+ggtitle(مقیاس‌سازی - 2)+ geom_point(aes(x=0,y=0),shape=21,fill=black,color=black,size=3)+#central point geom_segment(d
روش های مقیاس بندی گونه ها در PCoA یا CAP با استفاده از وگان::capscale؟
28245
توزیع تک جمله زیر چگونه است؟ $$X^a \cdot Y^b$$ که در آن $X$ و $Y$ متغیرهای تصادفی عادی هستند و $a$ و $b$ اعداد طبیعی هستند. برای مثال، وقتی $X \sim N(0,1)$، $a=2$، و $b=0$ یک توزیع Chi-squared است که دارای واریانس 2 است. اگر $n$ داشته باشیم چه می شود. متغیرهای مستقل $X_1، X_2، \dots، X_n$، با $X_i \sim N(0،\sigma^2)$ و برخی اعداد طبیعی $p_1، p_2، \dots,p_n$. در مورد واریانس r.v. زیر چه می توانیم بگوییم؟ $X_1^{p_1} \cdot X_2^{p_2} \cdots X_n^{p_n}$$
توزیع تک اسمی $X^a \cdot Y^b$
46368
آیا کسی می تواند به من بگوید که تجزیه و تحلیل اعتبار متقاطع دقیقاً چه نتیجه ای می دهد؟ آیا فقط دقت متوسط ​​است یا هر مدلی را با پارامترهای تنظیم شده می دهد؟ چون، جایی شنیدم که از اعتبارسنجی متقاطع برای تنظیم پارامتر استفاده می شود.
اعتبار سنجی متقاطع و تنظیم پارامتر
43626
من یک مدل حداقل مربعات جزئی را تخمین زدم که در آن ماتریس X دارای ستون های نرمال شده بود. اکنون می‌خواهم مقدار را برای یک نمونه جدید پیش‌بینی کنم (که یک بردار فرکانس است که با یک جمع می‌شود.) فرض می‌کنم اگر فقط از مقادیر فرکانس خام استفاده کنم، مقدار پیش‌بینی‌شده در همان مقیاس سناریویی نخواهد بود نمونه جدید از ماتریس نرمال شده X گرفته شد. (یعنی مقایسه مقادیر برازش شده مدل با مقدار پیش‌بینی‌شده نمونه جدید.) من به این فکر می‌کردم که نمونه جدید را به عنوان ردیف پایینی ماتریس X غیرعادی‌شده اصلی اضافه کنم، عادی‌سازی کنم، و سپس از مقادیر این ردیف پایین جدید استفاده کنم. برای پیش بینی از طرف دیگر، می‌توانم با استفاده از میانگین ستون و انحرافات استاندارد از X غیرعادی‌شده اصلی استانداردسازی کنم. آیا یک روش بر روش دیگر ترجیح داده می‌شود؟ آیا راه بهتری وجود دارد؟
چگونه ارزش نمونه جدید را پیش‌بینی می‌کنید، زمانی که داده‌های آموزشی عادی شدند؟
46360
اخیرا مقاله‌ای خواندم که در آن نویسندگان ادعا می‌کنند که برای مقایسه عملکرد پیش‌بینی دو مدل غیر تودرتو، مدل‌های A و B، یک روش معتبر این است که مدل‌های A و B را بر روی یک مجموعه داده برازش کنیم و میانگین را مقایسه کنیم. احتمال مدل‌های برازش شده در مجموعه داده‌های نگهدارنده محاسبه شده است. تنها چیزی که لازم است این است که مدل های A و B به صورت چگالی احتمال برای یک متغیر بیان شوند. من از زبان مقاله استفاده می‌کنم: به‌طور دقیق، مقادیری که مقایسه می‌شوند، مدل‌های برازشی هستند که در نقاط داده ارزیابی می‌شوند، نه احتمالات. با پذیرش این احتمال به عنوان معیار دقت پیش‌بینی، این روش برای بررسی صحت پیش‌بینی جذابیت بصری دارد، اگرچه من تردید دارم. آیا می توان این احتمالات را به طور معناداری بدون نوعی عادی سازی مقایسه کرد؟ احتمالات خارج از نمونه به یک نمی رسد. من نمی‌توانم مثال ساده‌ای بیاورم که در آن این آزمایش نتیجه جعلی بدهد. به روز رسانی: من توانستم یک مثال ساده تولید کنم که در آن مقایسه مستقیم احتمالات خارج از نمونه یک نتیجه گمراه کننده به دست آورد: اجازه دهید متغیر وابسته y یک روند خطی به اضافه عبارت خطای معمولی توزیع شده باشد، و اجازه دهید متغیر توضیحی x یک روند خطی به اضافه باشد. عبارت خطای عادی توزیع شده مستقل 100 امتیاز برای y و x ایجاد کنید. مدل A یک رگرسیون خطی است، در حالی که برای مدل B من از یک رگرسیون با خطاهای Student-t توزیع شده (با دو درجه آزادی) استفاده کردم. من روی 50 امتیاز اول تمرین کردم و در ست دوم 50 امتیازی تست کردم و با تمرین و ست های تست به جای هم تکرار کردم. من با سه انتخاب واریانس برای فرآیند تولید داده تکرار کردم. مدل B میانگین بالاتری را از احتمال نمونه در همه موارد ارائه کرد. این مثال کمی ساختگی است اما نگرانی من را نشان می دهد.
مقایسه مدل‌های غیر تودرتو با احتمال خارج از نمونه
90747
اگر دوست دارم درگیری و شیب تصادفی متناسب باشم و اگر آن را به عنوان (رنگ | نویسنده) در مقایسه با (1+رنگ | نویسنده) بنویسم ، آیا آنها یکسان هستند؟
برازش بریدگی و شیب تصادفی در lmer برای lme4.
104941
من از R برای تجزیه و تحلیل داده ها استفاده می کنم. R یک تابع corr برای محاسبه همبستگی ارائه می دهد. این تابع سه رویکرد/الگوریتم مختلف را برای تخمین «corr» ارائه می‌کند که پیرسون، اسپیرمن و کندال هستند. چه زمانی باید از هر یک از این روش ها استفاده کنم؟ چه عواملی تعیین می کند که کدام روش باید استفاده شود؟
چه زمانی باید از هر یک از این روش ها برای محاسبه همبستگی استفاده کنم؟
81079
مشکل اینجاست: من در حال ساخت یک الگوریتم یادگیری ماشین هستم که ورودی و خروجی برخی از نرم‌افزارهایی که نوشته‌ام را می‌گیرد و نمی‌دانم چند خط داده تولید کنم تا به نتایجی برسم که «خوب» هستند. من متوجه هستم که پاسخ این است هرچه بیشتر بهتر اما من به دنبال هر نوع حداقل نیاز هستم. من همچنین متوجه هستم که هر چه تعداد متغیرها بیشتر باشد، تعداد خطوط داده بیشتر مورد نیاز است. بنابراین من به دنبال یک قانون سرانگشتی برای تعداد متغیرها به تعداد خطوط داده هستم.
آیا روش ساده ای برای محاسبه حداقل تعداد خطوط داده مورد نیاز برای الگوریتم یادگیری ماشین با متغیرهای x وجود دارد؟
68054
من سعی می کنم بفهمم دقیقاً چه چیزی در مرحله E الگوریتم تخمین زده شده است. طبق تمام تعاریف، در مرحله E، مقادیر انتظار شرطی، یا احتمالات پسین متغیرهای پنهان با استفاده از فرمول بیز (احتمال پسین=پیش (یا احتمال حاشیه) x احتمال/احتمال شواهد) محاسبه می شود. حال، سوال من این است که آیا این احتمالات پسینی که من «تخمین می‌زنم» یا «محاسبه می‌کنم» در واقع اعداد هستند یا با توجه به پارامترهای تکرار فعلی (و آن‌هایی هستند که باید به M-step وصل کنم) توابعی هستند؟ جایی که احتمال شواهد محتمل است، با argmax قبلی محاسبه شده در مرحله M قبلی محاسبه شده است.
مرحله الکترونیکی در الگوریتم EM با استفاده از برآورد MAP (مدل های مارکوف مختلط)، چه چیزی را محاسبه می کند؟
80283
من تجزیه و تحلیل مؤلفه های اصلی را بر روی متغیرهای پیوسته که 16 زبان را توصیف می کنند، انجام دادم. با استفاده از دو محور اول که 76% واریانس را توضیح می دهند، باید فاصله بین هر جفت زبان را همانطور که در دو محور اول نشان داده شده است محاسبه کنم. برای آزمایش در آزمون مانتل همبستگی بین فواصل در متغیرهای زبانی و فواصل جغرافیایی. کسی می تواند به من کمک کند: چگونه می توانم این کار را انجام دهم؟ به سلامتی
PCA در مورد متغیرهای زبانی: فاصله زبان ها چقدر است؟
90744
بیایید بگوییم که من یک عکس مانند تصویر دارم. این شبیه یک هیستوگرام است، اما در واقع اینطور نیست، به این معنا که من شکل را از مجموعه داده‌ای از مقادیر شروع نکردم. در واقع، من فقط احتمال (محور y) را برای هر نوار دارم. من همچنین نقطه مرکزی هر سطل و عرض سطل هر سطل را دارم. توجه داشته باشید که نمودار نرمال شده است به طوری که مساحت زیر سطل ها برابر با یک باشد. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/CQWGd.jpg) کاری که اکنون می‌خواهم انجام دهم، محاسبه متقابل این احتمالات است. معمولا من از این فرمول استفاده می کنم: $g(y) = \frac{ 1 }{ y^2 } f\left( \frac{ 1 }{ y } \right) $ اما اکنون نمی توانم این کار را انجام دهم. می خواهید هر f(x) را فرض کنید. با داشتن یک هیستوگرام، من فقط (1./dataset) را رسم می کنم تا متقابل (به شکل هیستوگرام) را به دست بیاورم، و سپس نرمال می کنم (با این فرض که مجموعه داده اصلی قبلاً مانند نمونه در حالت عادی نرمال سازی نشده است) تقریب خوبی از توزیع نرخ دارند. با این حال، در این مورد، من مجموعه داده را ندارم. من فقط نقاط y (در واقع p(x) و x (مرکز bin برای هر bin) را دارم. به من توصیه شده است که از فرمول زیر (در متلب) استفاده کنم: plot(1./x, y) و این به من تابعی با همان شکل تابع متقابل می دهد، اما نرمال سازی نشده است. من _فکر می کنم_ می توانم این نتیجه را بگیرم و آن را عادی کنم، و این باید خوب کار کند. با این حال، نمی دانم آیا روش دیگری وجود دارد که فقط از x و p(x) برای بدست آوردن مقادیر متقابل استفاده کند. متشکرم.
چگونه از x و p(x) نمودار متقابل بدست آوریم؟
11739
یک درمان به یک دست آزمودنی داده شد و یک متریک پیامد واحد برای هر دو دست، دو بار قبل و چندین بار پس از درمان اندازه‌گیری شد. بهترین روش برای ارزیابی اثربخشی درمان چیست؟ «گروه‌های» درمان‌شده و درمان‌نشده واقعاً جفت هستند.
قبل و بعد، درمان شده و درمان نشده اما از یک موضوع
1860
من در حال مطالعه جمعیتی از افراد هستم که همگی با یک امتیاز قابل اندازه گیری علاقه (از 2- تا 2) شروع می کنند [آن را قدیمی می نامند]، سپس همه آنها به یک نمره جدید تغییر می کنند (همچنین از 2- تا 2 متغیر است. ) [جدید]. بنابراین تمام تغییرات در تغییر است (که می تواند مثبت یا منفی باشد)، و همچنین انواع مختلفی از پیش بینی ها وجود دارد که به توضیح تنوع در میزان تغییر کمک می کنند. مدل اولیه من به سادگی این است: تغییر = a + bx + e که در آن x بردار پیش بینی من است. اما اکنون نگران این هستم که برخی از این پیش بینی کننده ها با نمره پایه (قدیمی) مرتبط باشند. پس آیا این مشخصات بهتری است؟ تغییر = a + bx + قدیمی + e یا شاید جدید = a + bx + قدیمی + e با تشکر!
انتخاب های مشخصات رگرسیون
43627
کار من شامل ساخت مدل‌های آماری/اقتصادی با استفاده از مدل‌ساز R و SPSS است. همچنین در حال گذراندن دوره دکتری (پاره وقت) اقتصاد سنجی هستم. به منظور انجام تجسم داده ها / مدل های پیشرفته تر، در حال فکر کردن به انتخاب یک زبان برنامه نویسی دیگر هستم. هر پیشنهادی بسیار قدردانی خواهد شد.
یادگیری یک زبان برنامه نویسی اضافی (غیر از R)؟
60702
من متوجه شدم که در توزیع Normal، احتمال $P(x=c)$ برابر با صفر است، در حالی که برای توزیع پواسون، زمانی که $c$ یک عدد صحیح غیر منفی باشد، برابر صفر نخواهد بود. سوال من این است: آیا احتمال وجود هر ثابتی در توزیع نرمال برابر با صفر است زیرا مساحت زیر هر منحنی را نشان می دهد؟ یا فقط یک قانون برای حفظ کردن است؟
چرا برای هر مقدار معینی از توزیع نرمال احتمال صفر است؟
43622
یک تابع ضرر خوب برای یک مدل پیش‌بینی که توسط قماربازان استفاده می‌شود چیست؟ من اخیراً کمی در مورد توابع از دست دادن مطالعه کرده ام. من همیشه فقط با MSE رفتم (مثلاً برای چند پروژه شبکه عصبی) و سوالی نپرسیدم. من دقیقا متوجه نشدم که MSE واقعا چقدر دلخواه است. و با صحبت در مورد این، آیا کسی می تواند یک موقعیت عملی ساده را توضیح دهد که در آن MSE می تواند به عنوان تابع ضرر صحیح مشتق شود؟ به هر حال، من با Log-Loss (که همان آنتروپی متقاطع است) برخورد کردم و به دلیل کنجکاوی در مورد برخی از مدل های احتمالی علاقه مند هستم. من می‌دانم که چگونه می‌توان این تابع ضرر را از نظریه اطلاعات استخراج کرد، اما وقتی در مورد احتمالات صحبت می‌کنیم، اغلب درگیر نوعی قمار بر روی یک نتیجه هستیم. برای من روشن نیست که انتقال کارآمد اطلاعات به نوع ابزاری که معمولاً در یک مدل پیش‌بینی‌کننده/احتمالی به دنبال آن است، ترجمه می‌شود. برای مثال، اگر من مدلی داشتم که قرار بود برنده انتخابات ریاست جمهوری 2012 ایالات متحده را پیش بینی کند، و از آن برای جابجایی پول در بازار آینده مانند Intrade استفاده کرده بودم، چگونه می توانم یک تابع ضرر را برای پیش بینی خود تعیین کنم - با فرض اینکه بتوانم با نوسانات بازار به شرط بندی ادامه دهم؟ برای هر بازاری که من می‌توانم در مورد وقوع رویدادی شرط‌بندی کنم، باید یک نوع چیز مشابه اعمال شود. یا واقعاً این پشیمانی است و آیا پشیمانی کاملاً متفاوت از عملکرد از دست دادن است؟
یک عملکرد باخت قمار؟
112526
من در حال حاضر روی پروژه ای کار می کنم که در آن باید مقادیر پرت را از مجموعه داده های غیرعادی توزیع شده حذف کنم. مجموعه داده‌ها زیرمجموعه‌های یک پایگاه داده نسبتاً بزرگ (مرتب از میلیون‌ها مشاهده) هستند که به گروه‌هایی از 30 تا 200+ مشاهدات بر اساس نوع محصول مورد بررسی تقسیم شده‌اند. داده‌ها، داده‌های قیمت‌گذاری هستند که می‌توانند در مجموعه داده‌ها غیرعادی باشند به دلیل احتمال سفارش‌های عجله‌ای و انواع دیگر شرایط غیرعادی که تحت آن خرید انجام می‌شود که می‌تواند قیمت‌ها را بالاتر یا پایین‌تر از محدوده معمولی افزایش دهد. مشکل در تلاش برای شناسایی این مقادیر پرت این است که همه گروه‌های مشاهدات از توزیع نرمال پیروی نمی‌کنند، بنابراین آزمایش‌های پرت بر اساس نرمال بودن در آزمایش مقادیر پرت در این نوع داده‌ها دقیق نیستند. رویکرد فعلی من برای این مشکل اندازه‌گیری انحراف استاندارد از میانگین برای پرچم‌گذاری همه مقادیر کمتر از سه انحراف از میانگین گروه است، این برای پرچم‌گذاری مشاهدات برای بررسی اداری بعداً استفاده می‌شود. سپس چولگی را با استفاده از ضریب چولگی پیرسون اندازه گیری می کنم. اگر مقدار این آمار فراتر از یک آستانه معین ±. . این اندازه گیری چولگی با یک اندازه گیری جدید چولگی در هر تکرار با همان نوع حذف مشاهدات بر اساس پارامتر ذکر شده در پاراگراف قبلی تکرار می شود. سپس مقادیر حذف شده به بررسی اداری داده می شود تا مشخص شود که آیا آنها مقادیر پرت واقعی هستند یا خیر، با توجه ویژه به مقادیر در 3 انحراف استاندارد. آیا این رویکرد خوبی برای حذف موارد پرت در این مورد است؟ من تجربه زیادی با تشخیص پرت در داده‌هایی که به توزیع عادی تعلق ندارند، ندارم. بنابراین مراحل ذکر شده به صراحت عبارتند از 1. محاسبه انحراف از میانگین برای هر مشاهده 2. محاسبه چولگی مخزن مشاهده در صورت چولگی>. 4 حذف مشاهدات صدک 99 در صورت چولگی<.4 حذف مشاهدات صدک 1. 3. مقادیر حذف شده سپس در زیر قرار می گیرند. بررسی برای تعیین وضعیت پرت با توجه ویژه به مقادیر در 3 انحراف استاندارد از میانگین.
حذف پرت در داده های غیر عادی
90740
من در زمینه پردازش تصویر مبتدی هستم، و من اصطلاحات زیادی را که عجیب و غریب است. وجود دارد: 1. لحظه ها 2. مشخصه های محلی و جهانی 3. انرژی تصویر 4. دمای رنگ هر کدام از آنها چه چیزی را در تصویر نشان می دهند؟
انرژی معنای این اصطلاح در پردازش تصویر چیست؟
43629
بیایید فرض کنیم پیش‌بینی‌کننده‌های x1-x5 و متغیرهای وابسته y1-y9 در یک مجموعه داده داریم. ما یک فرضیه خاص در مورد x1 داریم: این فرضیه باید تأثیرات متفاوتی بر 9 متغیر وابسته y1-y9 ما داشته باشد. ما 9 رگرسیون انجام می دهیم، و متوجه می شویم که x1 به طور قابل توجهی تمام y را با p<.001 پیش بینی می کند. اکنون می‌خواهیم بفهمیم که آیا این تأثیرات (بسیار قابل توجه) با یکدیگر متفاوت هستند (فقط به این دلیل که تأثیرات قابل توجهی دارند به این معنی نیست که آنها به یک اندازه قوی هستند). دو سوال: (1) چه اطلاعاتی که یک رگرسیون در اختیار ما قرار می دهد به ما بینشی نسبت به این سوال می دهد؟ بتا غیر استاندارد؟ بتا استاندارد شده؟ تی (2) آیا آزمون آماری وجود دارد که بتوانیم برای یافتن اینکه آیا نقاط قوت پیش بینی ها بین (y1 ON x1) و (y2 ON x1) و (y3 ON x1) متفاوت است یا خیر، انجام دهیم؟ نرم افزاری که می توانم استفاده کنم R و SPSS است. رشته روانشناسی/پزشکی است.
مقایسه اثرات y1 ON x در مقابل y2 ON x در رگرسیون های مختلف
81071
کدام ضریب همبستگی برای مقایسه 2 سری زمانی مناسب تر است؟ من می خواهم تغییرات یک متغیر را برای 2 منطقه مقایسه کنم، داده های منطقه ای 30 سال گذشته را داشته باشم. آیا همبستگی پیرسون خوب است یا باید به tau b کندال یا rho اسپیرمن تکیه کنم و چرا؟ من سعی کردم آن را در گوگل جستجو کنم و آنچه را که پیدا کردم تجزیه و تحلیل کنم، اما هنوز مطمئن نیستم.
مقایسه سری های زمانی: همبستگی پیرسون، tau b کندال یا rho اسپیرمن؟
68057
من یک مشکل طبقه بندی متنی دارم که از دو دسته تشکیل شده است - صفر و یک. تا به حال سعی کردم آن را با ایجاد یک ماتریس اصطلاح سند حل کنم و آن را از طریق SVM (با استفاده از بسته RTextTools) اجرا کنم. این یک قطعه کد است: (R) مدل‌های <- train_models(container, algorithms=c(SVM)) نتایج <- classify_models(container, models) analytics <- create_analytics(container, results) View(summary(analytics)) > > عملکرد الگوریتم >>SVM_PRECISION SVM_RECALL SVM_FSCORE >> 0.64 0.63 0.63 سوالات من به شرح زیر است: 1. چرا همه مقادیر پیش بینی شده در ماتریس نتیجه بین 0.5-1 هستند؟ مگه قرار نیست 0-1 باشه؟ 2. چگونه می توانم (در R) ببینم که زیر کدام **_threshold_** این مقادیر دقت و فراخوان محاسبه می شوند؟ چگونه می توانم این آستانه را برای به دست آوردن مقادیر مختلف تغییر دهم؟ 3. نمرات فراخوان/دقت دقیقاً چگونه محاسبه می شود؟ منظورم این است که فرضاً ما باید _theta_ را از هم جدا کنیم که تمام امتیازهای بالای آن از کلاس 1 هستند و بقیه 0 هستند. آیا این امتیازات خروجی فقط یک میانگین ساده از دو کلاس دقت/یادآوری هستند؟ آیا میانگین وزنی است؟ 4. چگونه می توانم در R دو مقدار آستانه متفاوت برای هر کلاس ایجاد کنم (با آنچه در بین آن ها با عنوان ناشناس مشخص شده است)؟
فرو رفتن عمیق در محاسبات یادآوری، دقت و آستانه در R
43621
من باید آزمایشی طراحی کنم که در آن سایش ابزار یک عامل باشد (نه یک پاسخ). من در تلاش برای مطالعه به حداقل رساندن سایش ابزار نیستم. من سعی دارم تاثیر سایش ابزار را به همراه 3 عامل دیگر بر تعداد یک نوع نقص خاص مطالعه کنم. از چه نوع طراحی استفاده کنم؟ من در نظر گرفتم که سایش ابزار را به 3 شرایط (کم، متوسط، زیاد) تقسیم کنم و سپس هر درمان را در شرایط انجام دهم. اما مطمئن نیستم که روش درستی باشد. سایش ابزار به عنوان عامل بسیار مهمی در میزان عیب در نظر گرفته می شود. تعاملات نیز در اینجا مهم هستند. این یک عملیات آهنگری است. عوامل دیگر عبارتند از دمای بیلت، محل لکه گیری و ارتفاع پنکیک. من فرصت های تکرار زیادی دارم و برای هر درمان حداقل 10 قسمت برنامه ریزی می کنم. خیلی ممنون - کلی
آزمایش طراحی شده که در آن سایش ابزار یک عامل مهم است
54617
من در سری های زمانی R دستکاری می کنم که می تواند **بازبینی** را ارائه دهد. من به طور کلی از بسته xts استفاده می کنم اما از ویرایش ها پشتیبانی نمی کند. آیا بسته ای وجود دارد که به آن رسیدگی کند؟ از طرف دیگر، آیا بهترین روش برای ذخیره و دستکاری ویرایش‌ها وجود دارد؟
چگونه با سری های زمانی با تجدید نظر برخورد کنیم؟
81076
هنگام مطالعه سری های زمانی، یک بار این جمله را شنیدم که > تست ریشه واحد قدرت کمتری دارد. بدینوسیله دو سوال دارم: 1. قدرتمند بودن یک آزمون به چه معناست؟ 2. چه چیزی باعث می شود تست ریشه واحد قدرت کمتری داشته باشد؟
آزمون توان آماری ریشه واحد
81073
من سعی کردم بین این معیارهای فاصله (از دست دادن) رابطه ای پیدا کنم، اما هیچ مرجعی پیدا نکردم. با این حال، من فکر می کنم باید چیزی شبیه به این باشد: $$ \sqrt 2*D_{KL} < L_1 < L_2 $$ درست است؟
چه رابطه ای بین ضرر Kullback و ضرر L1 و L2 وجود دارد؟
49480
در مورد روش های نمونه گیری اطلاعات زیادی ندارم. من جمعیت زیادی با اندازه 2000000 دارم. من از یکی از آن ماشین حساب های اندازه نمونه استفاده کردم. می گوید که من به حجم نمونه تقریباً 10000 نیاز دارم. من در تلاش برای یافتن احتمال **p** موفقیت برای جمعیت هستم. آزمایش تمام 2000000 عضو جمعیت برای من امکان پذیر نیست. به همین دلیل نمونه گیری می کنم. من فرض می کنم که ماشین حساب اندازه نمونه به معنای یک نمونه تصادفی ساده بدون جایگزینی است. من خوانده ام که یک نمونه تصادفی ساده با جایگزینی تضمین می کند که کوواریانس بین دو متغیر 0 ~~ است، یعنی مستقل ~~. چه زمانی باید با جایگزینی به جای بدون جایگزینی انتخاب کرد؟ اگر با جایگزینی نمونه برداری کنیم، به سادگی آزمایشات برنولی را انجام می دهیم. من فکر می کنم این کار استفاده از ابزارهای آماری (کدام؟) را آسان تر می کند. باز هم از جاهل نمونه برداری می کنیم.
نمونه برداری با تعویض یا بدون تعویض؟
52617
من داده های سری زمانی برای مجموعه ای از شهرها دارم که به حدود 10 سال قبل بازمی گردد. من همچنین تقریباً 30 سال است که داده ها را در سطح ایالتی دارم. رویدادی حدود 20 سال پیش رخ داد، که در داده‌های طولانی‌تر، سطح ایالت، اما نه داده‌های شهر، ثبت شده است، که من می‌خواهم آن را در سطح شهر بررسی کنم. آنچه من فکر می کنم ممکن است مفید باشد ایجاد نوعی مدل ARIMA است که داده های حالت را به عنوان یک متغیر برون زا پسرفت می کند. اگر بخواهم این کار را انجام دهم، چگونه می توانم از مدل برای تکمیل داده های شهر استفاده کنم به طوری که در همان نقطه ای که داده های واقعی شهر شروع می شود به پایان برسد؟ آیا قبلاً یک روش متعارف برای انجام چنین کاری وجود دارد؟ با تشکر از هر کمکی که می توانید بفرمایید (مرجع ادبیات، کتابخانه های R و غیره)
پر کردن داده های ARIMA با متغیر برون زا
49488
اولین سوال من و فکر می کنم ساده لوحانه اینجاست. من سعی می کنم یک کسب و کار خاص را مدل کنم و ساده ترین مدلی که می خواهم آزمایش کنم این است: 1. یک کیسه سکه با سوگیری متفاوت وجود دارد. 2. در هر مرحله، یک سکه با احتمال مساوی انتخاب می شود. 3. سکه انتخاب شده برگردانده شده و به کیسه برگردانده می شود. هدف کسب‌وکار پیش‌بینی نرخ سر در آزمایش‌های آینده است (احتمالاً با استفاده از استنتاج بیزی). این مرا به این فکر انداخت که آیا من مسائل را بیش از حد پیچیده نمی کنم؟ آیا این فرآیند (از لحاظ مشاهده ای) معادل یک سکه مغرضانه نیست؟ پیشاپیش متشکرم
برگرداندن سکه های تصادفی از یک کیسه - معادل یک سکه؟
68050
(احتمالاً مربوط به آیا معادل ناپارامتری Tukey HSD وجود دارد؟) با توجه به مجموعه ای از چندین متغیر توزیع شده نمایی (که نشان دهنده داده هایی است که به این شکل مدل شده است)، می خواهم بررسی کنم که آیا یکی از آنها میانگین به طور قابل توجهی بالاتر از بقیه دارد. . اگر متغیرها به طور معمول توزیع می شدند، من از آزمون توکی استفاده می کردم. با این حال، این مورد نیست، و من به دنبال جایگزین ساده ترین تا حد ممکن هستم. **برخی پیشینه در مورد داده** روش ها و بازارهای جایگزین که از آنها کالاها را می خریم هر روز با هم مقایسه می شوند. داده‌ها به صورت روزانه جمع‌آوری می‌شوند (یعنی فقط قیمت و تعداد تراکنش‌ها در روز را دارم که به یک میانگین تبدیل می‌شود). توزیع وجوه برای روز بعد بر اساس تحلیل روز قبل است: بهترین روش بیشتر وجوه را دریافت می کند و روش های دیگر بقیه را به اشتراک می گذارند. به طور معمول، 5-10 روش جایگزین با 10000 تراکنش یا بیشتر در هر روش در روز مقایسه می شود. **جایگزین های فعلی** بر اساس دانش محدودم، دو روش ممکن برای مقایسه روش ها ارائه کردم: 1. بر اساس سوال ارجاع شده در بالا، می توان از نسخه های ناپارامتریک آزمون توکی استفاده کرد. 2. از آنجایی که تنها متغیر بالاترین میانگین با بقیه متغیرها مقایسه می شود، فکر می کنم با اصلاح _bonferroni_ بتوان آن را با دومین متغیر بالاتر مقایسه کرد. به عنوان مثال از آلفای مؤثر = 0.05 / تعداد متغیرها استفاده کنید. این ممکن است بسیار محافظه کارانه باشد، اما از آنجایی که اعداد بالا هستند، نتایج قابل استفاده هستند (یعنی اکثر روزها نتایج قابل توجهی دارند). **سوالات من** 1. آیا روش های فوق به عنوان راه حل مورد ارائه شده منطقی هستند؟ به طور خاص، روش (2) ساده است و نتایج قابل استفاده دارد، اما مطمئن نیستم که از نظر آماری درست باشد. 2. من علاقه مند به پیشنهادات دیگری برای انجام این تحلیل هستم. همانطور که اشاره شد، من بیشتر به سادگی و تعمیم و کمتر به دریافت بهترین مقادیر اهمیت علاقه دارم.
مقایسه میانگین چندین متغیر با توزیع نمایی
113652
من باید روندهای زمانی را برای برخی از متغیرهای آب و هوایی با مقادیر گمشده محاسبه کنم. به عنوان مثال، آخرین روزهای یخبندان به عنوان آخرین روز سال با حداقل دمای کمتر از 0 درجه سانتیگراد تعریف می شود. با این حال، در برخی سال ها هیچ روز یخبندان وجود ندارد. داده‌های من مانند: lfd <- c(NA, NA, NA, NA, NA, 190, 192, 189, 200, 185, 205, 203, 200, 207, NA, NA, 205) سال <- seq(1957 ، length.out = length(lfd)) اکنون از رگرسیون خطی در R استفاده می کنم (تابع lm) برای محاسبه روند زمانی. به نظر می‌رسد که نتایج برای مجموعه داده‌هایی با مقادیر زیادی از دست رفته غیرمنطقی است. چگونه می توانم روندهای زمانی را با مقادیر گمشده محاسبه کنم؟ با تشکر از هر گونه پیشنهاد.
روندهای زمانی با مقادیر گمشده
62707
در «R»، می‌خواهم نام‌های چند خطی را به برخی از مجموعه‌های داده در «boxplot» بدهم، مانند این: boxplot(rnorm(10)، rnorm(10، mean=2)، names=c(Normal، Shifted \n*)) در اینجا، به نظر می‌رسد نام‌ها با خطوط انتهایی خود تراز هستند، که باعث همپوشانی متن با محور می‌شود. چگونه می توانم نام های چند خطی داشته باشم که به جای اینکه به سمت بالا به سمت پایین کشیده شوند؟
نام های چندخطی (برچسب های x) در باکس پلات
52612
من سعی می کنم کشش قیمت عرضه را برای کشاورزان مقیاس کوچک در مالاوی تخمین بزنم و داده های سری زمانی برای 34 سال دارم. من دو مشکل دارم: اول اینکه قیمت ها بسیار پایین هستند به طوری که وقتی لاگ های آنها را می گیرم مقادیر منفی می گیرند، به عنوان یک راه حل به هر مقدار 1 عدد اضافه کردم و گزارش های مثبت دریافت کردم اما نمی دانم چگونه نتیجه را با آن تفسیر کنم. 1 که اضافه کردم دوم اینکه می‌خواهم روش مشخصی برای تخمین مدل در «Stata» پیدا کنم، من فقط از رگرسیون استفاده کردم. من از کمک شما قدردانی خواهم کرد
نحوه سازماندهی داده ها و اجرای مدل nerlovian
57173
من اعتبار دهی متقاطع خود را 100 بار برای چندین روش تکرار کردم. حالا می‌خواهم از آزمون t برای بررسی معنی‌دار بودن نتایج استفاده کنم. با این حال، من مطمئن نیستم که حجم نمونه چقدر است. آیا حجم نمونه مقدار اولیه نمونه است یا مقدار اولیه نمونه × 100 است؟ ویرایش ##: برای دانشگاه باید 3 نوع سرطان را طبقه بندی کنیم و تخمینی از عملکرد مدلمان ارائه دهیم. ما یک مجموعه داده با 100 نمونه دریافت کردیم. ما داده ها را با استفاده از نمونه گیری طبقه ای با نسبت 0.3 و 0.7 به یک مجموعه آموزشی و آزمایشی تقسیم کردیم. مجموعه آموزشی حاصل از 69 نمونه و مجموعه آزمون از 31 نمونه تشکیل شده است. ما به دلیل این مقاله از اعتبارسنجی متقاطع مکرر استفاده کردیم: http://www.cse.iitb.ac.in/~tarung/smt/papers_ppt/ency-cross-validation.pdf اعتبارسنجی متقابل مکرر در همان مجموعه آموزشی انجام می شود ، اما با چین ها هر بار به طور تصادفی انتخاب می شوند، بنابراین باید هر بار متفاوت باشند. اهمیتی که ما می خواهیم آزمایش کنیم این است که دقت یک مدل به طور قابل توجهی بهتر از دقت یک مدل دیگر باشد.
اعتبارسنجی متقاطع 100×10 برابری، اندازه نمونه هنگام انجام یک آزمون معناداری چقدر است؟
43623
من دو سال قبض آب و برق ساعتی دارم. داده های سال اول مربوط به قبل از انجام مقاوم سازی در خانه و سال دوم پس از انجام مقاوم سازی است. چگونه می توانم دو سری زمانی را از نظر آماری مقایسه کنم تا در یک بازه زمانی خاص از روز ادعای صرفه جویی در تقاضا داشته باشم. آیا می توان این کار را در R انجام داد، اگر چنین است چگونه؟
مقایسه داده‌های سری زمانی قبض آب و برق قبل از بهسازی با داده‌های پس از مقاوم‌سازی
49483
این احتمالاً بسیار احمقانه به نظر می رسد، اما این بخشی از یک سؤال بزرگتر است، در مورد توزیع نمونه ابزار، که من در درک آن با مشکل مواجه هستم، پس لطفاً با من تحمل کنید. اگر زمان بین فرود هواپیماها را ثبت کنم و 250 مشاهده داشته باشم، آیا آن 250 مشاهده جمعیت من است یا اصطلاح جمعیت به همه مقادیر اشاره دارد، یعنی اگر تا پایان زمان ضبط در آنجا نشسته بودم؟ من فرض می کنم دومی است، اما فقط می خواهم دوباره بررسی کنم.
جمعیت در واقع به چه چیزی اشاره دارد؟
104949
من داشتم این [مقاله][1] مربوط به فرآیندهای پراکنده گاوسی آنلاین را می خواندم. با این حال، من متوجه نشدم که مخرج در معادله 1 چگونه به دست آمده است؟![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/vr3dG.png) قرار بود P(D) باشد. . من متوجه نشدم که مخرج چگونه به دست آمده است. علاوه بر این، این مقاله می گوید که ممکن است خلفی گوسی نباشد. نمی دانم چرا اینطور است؟
سردرگمی مربوط به فرآیند گاوسی خلفی
17065
هنگام تخمین فاصله اطمینان میانگین، فکر می‌کنم هم روش bootstrap t و هم روش bootstrap ناپارامتری می‌توانند اعمال شوند، اما اولی به کمی محاسبات بیشتری نیاز دارد. من نمی دانم که مزایا و معایب بوت استرپ t نسبت به بوت استرپ معمولی ناپارامتریک چیست؟ چرا؟ آیا منابعی برای توضیح این موضوع وجود دارد؟
فاصله اطمینان میانگین را با روش بوت استرپ t یا به سادگی با بوت استرپ تخمین بزنید؟
57179
من سعی می کنم توابع پاسخ ضربه ای را برای یک مدل VAR با استفاده از تجزیه Cholesky برنامه ریزی کنم. موضوع این است که وقتی در ادبیات می خوانم کاملاً نمی فهمم چگونه باید این کار را انجام دهم. فرض کنید من دارم: $$ \begin{bmatrix}x_t\\y_t\\z_t\end{bmatrix}=\begin{bmatrix}\alpha_1\\\alpha_2\\\alpha_3\end{bmatrix}+\begin{bmatrix}b_{11}&b_{ 12}&b_{13} \\b_{21}&b_{22}&b_{23}\\b_{31}&b_{32}&b_{33}\end{bmatrix}\begin{bmatrix}x_{t-1}\\y_{t- 1}\\z_{t-1}\end{bmatrix}+\begin{bmatrix}u_{1t}\\ u_{2t}\\ u_{3t}\end{bmatrix} $$ که می‌توانیم آن را به صورت $$ \mathbf{x}_t=\mathbf{a}+\mathbf{B}\mathbf{x}_{t بنویسیم -1}+\mathbf{u}_t. $$ بعلاوه، فرض کنید ماتریس کوواریانس $\mathbf{u}_t$ $$ Cov(\mathbf{u}_t)=\Sigma_u=PP^\prime باشد. $$ حال، فرض کنید من پاسخ‌های ضربه‌ای به یک شوک واحد را در $u_{1t}$ می‌خواهم. من افکت‌ها را می‌خواهم مثلاً $\mathbf{x}_t، \، \mathbf{x}_{t+1}، \، \mathbf{x}_{t+2}$ و $\mathbf{x} _{t+3}$. همانطور که متوجه شدم، متعامدسازی با ضرب بردار خطا در $P$ انجام می شود. بیایید پاسخ های دوره $t$ را به شوک $\mathbf{x}_t^*$ فراخوانی کنیم. آیا چیزی که به آن علاقه دارم این است (فرض کنید شوک واحد در $u_{1t}$ به گونه ای که $\mathbf{u}_t^*=\begin{bmatrix}1&0&0\end{bmatrix}^\prime$): $$ \mathbf{x}_t^*=P\mathbf{u}^*_t=P\begin{bmatrix}1\\0\\0\end{bmatrix}\\ \mathbf{x}_{t+1} ^*=\mathbf{B}\mathbf{x}^*_t=\mathbf{B}P\mathbf{u}^*_t\\ \mathbf{x}_{t+2}^*=\mathbf{B}\mathbf{x}^*_{t+1}=\mathbf{B}\mathbf{B}P\mathbf{u}^ *_t\\ \mathbf{x}_{t+3}^*=\mathbf{B}\mathbf{x}^*_{t+2}=\mathbf{B}\mathbf{B}\mathbf{B}P\ mathbf{u}^*_t $$ حال، این را گسترش دهید تا تاخیرهای بیشتری را در بر گیرد (مثلاً 4). سپس مدل $$ \mathbf{x}_t=\mathbf{a}+\sum_{k=1}^4\mathbf{B}_k\mathbf{x}_{t-k}+\mathbf{u}_t است . $$ بنابراین تکانه ها عبارتند از: $$ \mathbf{x}_t^*=P\mathbf{u}^*_t=P\begin{bmatrix}1\\0\\0\end{bmatrix}\\ \mathbf{x}_{t+1}^*=\mathbf{B}_1\mathbf{x}^*_t=\mathbf{B}_1P\mathbf{u}^*_t\\ \mathbf{x}_{t+2}^*=\mathbf{B}_1\mathbf{x}^*_{t+1}+\mathbf{B}_2\mathbf{x}^*_t=\ mathbf{B}_1\mathbf{B}_1P\mathbf{u}^*_t + \mathbf{B}_2P\mathbf{u}^*_t\\ \mathbf{x}_{t+3}^*=\mathbf{B}_1\mathbf{x}^*_{t+2}+\mathbf{B}_2\mathbf{x}^*_{t +1} +\mathbf{B}_3\mathbf{x}^*_{t}=\mathbf{B}_1\mathbf{B}_1\mathbf{B}_1P\mathbf{u}^*_t + \mathbf{B}_1\mathbf{B}_2P\mathbf{u}^*_t+\mathbf{B}_2\mathbf{B}_1P\mathbf{u}^*_t+\mathbf{B}_3P\mathbf{ u}^*_t $$ آیا این طرز فکر صحیح است؟ اگر چنین است، پس این کد R ساده باید خوب باشد: library(vars) set.seed(1) x <- rnorm(100) set.seed(2) y <- rnorm(100) set.seed(3) z < - rnorm(100) data <- cbind(x, y, z) model <- VAR(data, p=4, type = const) u <- ماتریس (c(1، 0، 0)، ncol=1) P <- chol(cov(موجودات(مدل))) B1 <- Acoef(مدل)[[1]] B2 <- Acoef(مدل)[[2 ]] B3 <- Acoef(مدل)[[3]] B4 <- Acoef(مدل)[[4]] xt <- P %*% u xt1 <- B1 %*% xt xt2 <- B1 %*% xt1 + B2 %*% xt xt3 <- B1 %*% xt2 + B2 %*% xt1 + B1 %*% xt هر ورودی بسیار قدردانی خواهد شد!
توابع پاسخ ضربه ای برنامه برای VAR
57172
من مجموعه‌ای از $n$ نقطه‌های داده $(y_i،\bf{x}_i)$ در $\mathbb{R}^{p+1}$ دارم و می‌خواهم مدل زیر را در «R» تخمین بزنم: $$\underset{\bf{b}\in\mathbb{R}^{p}}{\arg.\min}\;\sum_{i=1}^n(y_i-\bf{x}_i' \bf{b})^2$$ $$u.c.\;\;\;0\leq \bf{x}_i'\bf{b}\leq 1\;\;\;\برای همه i$$ کسی به یک راه کارآمد برای انجام این کار اشاره دارد؟ آیا پارامترسازی مجدد مسئله OLS وجود دارد که این امکان را فراهم کند؟
(پیش‌بینی) OLS را در R محدود کرد
52611
در بخش چمپیونشیپ انگلیس، 24 تیم وجود دارد که 8 تیم از آنها با حرف B شروع می شوند (مثلا بولتون) امشب (5 مارس 2013) همه 24 تیم در این بخش با یکدیگر بازی می کنند. به طور تصادفی، 8 تیمی که با B شروع می‌کنند، با هم بازی می‌کنند، یعنی 4 بازی از این 8 تیم (هر بازی 2 تیم وجود دارد!) احتمال این اتفاق چقدر است؟
اتفاقی لیگ فوتبال
48282
این مشکلی است که من در محل کار با آن مواجه هستم. مشاهداتی دارم $X_i$, $i = 1,2,3,...N > M$. باید بخواهم $S = \sum_{i=1}^M X_i$ را محاسبه کنم. متأسفانه، $M$ تصادفی و بسیار پر سر و صدا است. به نظر می رسد، من چند معیار خوبی خشن دارم، $w_i$ برای هر یک از $X_i$. یعنی $w_i$ کم، یعنی من خیلی به $X_i$ اعتماد ندارم، $w_i$ بالا، یعنی من خیلی به $X_i$ اعتماد دارم. علاوه بر این، به طور کلی با بزرگ شدن $i$، $X_i$ کوچک می شود. (وابستگی زیادی بین $M$ و $X_i$ وجود دارد) در این برنامه، معلوم می‌شود که _میانگین_$X_i$ می‌تواند بسیار قابل اعتماد (یعنی با انحراف استاندارد نسبتاً کوچک) توسط: $A = \ محاسبه شود. frac{\sum_{i=1}^M w_i X_i}{\sum_{i=1}^M w_i}$. ما می دانیم که انحراف استاندارد $A$ با اجرای تعدادی آزمایش مستقل و محاسبه انحراف استاندارد نمونه نسبتاً کوچک است. اما، من به طور مشابه به یک تخمین خوب (یعنی انحراف استاندارد کوچک) از مجموع مستقیم $X_i$ و رویکرد واضح نیاز دارم: $M * A$ دارای واریانس بسیار زیادی برای برنامه ما است. درک می کنید که این بسیار مبهم است، اما آیا فکری در مورد چگونگی ادامه دادن دارید؟
چگونه می توان مجموع تصادفی عناصر غیرقابل اعتماد را به طور قابل اعتماد تخمین زد؟
20574
ما دو سری زمانی داریم: $X_t$ و $R_t$، و مدلی که می گوید $R_{t+1} = (\mu(X_t) - \frac{1}{2}\sigma^2(X_t)) \Delta T + \sigma(X_t) \sqrt{\Delta T} \epsilon_t$، که در آن $\Delta T$ ثابت و $\epsilon_t$-s داده می شود مستقل هستند که معمولاً با میانگین صفر و واریانس واحد توزیع می شوند. علاوه بر این، ما فرض می کنیم که توابع $\mu(x)$ و $\sigma(x)$ برای سادگی خطی هستند. من می خواهم از یک روش استاندارد (MLE به ذهنم می رسد) برای تخمین پارامترهای توابع $\mu(x)$ و $\sigma(x)$ استفاده کنم، اما مطمئن نیستم که چگونه این کار را انجام دهم. برای پاسخ های دقیق ممنون می شوم، زیرا من واقعاً در زمینه آمار تجربه ندارم.
تخمین حداکثر احتمال زمانی که پارامترها توابع یک سری داده دیگر هستند
104944
فرض کنید من یک مجموعه داده با اطلاعات زیر دارم: * N شیء، که هر کدام را می توان رتبه بندی کرد * تعداد رتبه بندی ها در هر شی متغیر است (ارایه دهنده ها نامشخص هستند)، به عنوان مثال، 30 شیء هر کدام با یک شناسه منحصر به فرد وجود دارد * هر ردیف دارای رتبه‌بندی پیش‌بینی‌شده، رتبه‌بندی واقعی و تفاوت بین این دو، که یک مقدار ترتیبی است، می‌گویند بین 0 تا 10 چگونه ثبات رتبه‌بندی‌ها را برای هر شی و برای کل اندازه‌گیری کنم مجموعه داده؟ اساساً توزیع تفاوت ها در هر شی وجود دارد. راه های مختلف برای برخورد با این مشکل چیست؟ متشکرم.
تجزیه و تحلیل داده های ترتیبی با ارزیابی های متعدد در واحد ... رویکرد درست؟
90745
برای مثال، فهرست‌ها می‌توانند چیزی شبیه به: $$\{1.123213، 5.154543، 2.134121، 7.34534، 12.223432، 8.16571، 100.45645، 222.423، 222.423، 222.423، حذف $4. 222.423\}$. $$\{232.123213, 323.154543, 232.134121, 123.34534, 222.223432, 8545.16571,\\ 4335.45645, 1222.4$ من می خواهم حذف کنم $\{8545.16571، 4335.45645، 1222.423\}$. اندازه ثابت نیست و محدوده ممکن است متفاوت باشد. آیا راهی برای حذف این مقادیر غیر طبیعی بزرگ از لیست من وجود دارد؟
مقادیر غیرعادی بزرگ را از لیستی از داده ها فیلتر کنید
68055
من دوست دارم یک آنووا با اندازه گیری های مکرر دو طرفه راه اندازی کنم. من 4 مدل را با 4 سن مقایسه می کنم و می بینم که آیا نتایج متفاوت است یا خیر، این باید در حدود 16 گروه باشد، زیرا 4*4=16 (تا اینجا خیلی خوب است) اما از برخی از گروه ها من داده ها را ندارم بنابراین هنوز 2 گروه دارم. عواملی که باید برای 16 گروه اما نه بیشتر از 15 تا 14 مورد آزمایش قرار گیرند. این به دلیل اشتباه نیست، بلکه به این دلیل است که گروه های تحت این شرایط فقط بد هستند و توصیه های استاندارد را رعایت نمی کنند. با این حال، اگر سعی کنم اندازه‌گیری‌های مکرر دو طرفه از جمله گروه‌های گمشده‌ام را انجام دهم، نمی‌توانم آن را اجرا کنم. آیا راهی برای رسیدگی به این گروه های از دست رفته وجود دارد؟ با سلام
2 راه ANOVA اگر گروه از دست رفته است
101233
در یک مدل لجستیکی با پیش‌بینی‌کننده دوگانه، شانس‌های تفسیر آنلاین محتوایی کاملاً وجود دارد. مشکل من درک ضرایب زمانی است که بیش از 2 سطح برای یک متغیر طبقه بندی وجود دارد. چگونه شانس را تعریف می کنید؟ داده ها: X یک پیش بینی کننده طبقه بندی منفرد با 4 سطح است: نوجوان، بزرگسال، بالغ، سالمند. Y: 1 = سیگار کشیدن، 0 = عدم سیگار کشیدن. LR: ما از متغیرهای ساختگی n-1 استفاده می کنیم. من بزرگسالان را به عنوان سطل مرجع انتخاب کردم زیرا بالاترین غلظت را داشت. (خوب؟؟) ________ | رهگیری | p بزرگسال | -4.3801 | 0 نوجوان | -0.32456 | 0 بالغ | 1.45119 | 0 قدیمی | -0.9891 | 0 **تفسیر ضرایب** نوجوان: نوجوانان کمتر سیگار می کشند (در بزرگسالی؟). در واقع، یک نوجوان 28٪ (exp-0.32456 -1) کمتر از بزرگسالان سیگار می کشد. آیا شانس سیگار کشیدن نوجوانان همیشه در مقابل گروه مرجع ذکر می شود؟ بالغ: افراد بالغ بیشتر سیگاری هستند (در بزرگسالی؟). در واقع، افراد بالغ 326 درصد بیشتر از بزرگسالان سیگار می کشند. آیا شانس سیگار کشیدن بالغ همیشه در مقابل گروه مرجع ذکر می شود؟
تفسیر ضرایب در مدل رگرسیون لجستیک با متغیر طبقه‌ای بیش از 2 سطح
62705
من می خواستم یک نمودار حباب ایجاد کنم که به معنای نمودار پراکندگی با یک متغیر جداگانه است که قطر حباب را نشان می دهد. آیا راهی برای استفاده از حباب به عنوان نمودار دایره ای وجود دارد؟ من واقعاً دوست دارم این کار را در MS Excel انجام دهم، اما نمی دانم که آیا امکان پذیر است یا خیر. * * * من مشکل دیگری با کد ارائه شده در پست قبلی دارم. اکنون که به نظر می رسد اولین مشکل حل شده است، یک مشکل در خط Set rngRow = Range(ThisWorkbook.Names(PieChartValues).RefersTo) وجود دارد و من سعی کردم PieChartValues ​​را با محدوده ردیف اول تا آخر جایگزین کنم. که در آن مقادیر نمودارهای دایره ای (مقادی که نمودار دایره ای از آنها تولید می شود) - مانند A1:G12 و همه داده ها در آن محدوده برگه در برگه ای که من در آن کار می کنم B نامیده می شود بدون نقل قول باید بنویسم `Set rngRow = Range(ThisWorkbook.Names(“B”).RefersTo)` * * * سعی کردم کد پیوند پیشنهادی را پیاده سازی کنم قبلاً در VBA این Sub PieMarkers () Dim chtMarker As Chart Dim chtMain به عنوان نمودار Dim intPoint به عنوان عدد صحیح Dim است rngRow As Range Dim lngPointIndex As Long Application.ScreenUpdating = False Set chtMarker = ActiveSheet.ChartObjects(chtMarker). Chart Set chtMain = ActiveSheet.ChartObjects(chtMain).ChartMain Set ActiveSheet.ChartObjects(chtMain). Chart Set rngRow = Range(ThisWorkbook.Names(PieChartValues).RefersTo) برای هر rngRow In Range(PieChartValues).ردیف chtMarker.SeriesCollection=rMarng.Val. Parent.CopyPicture xlScreen، xlPicture lngPointIndex = lngPointIndex + 1 chtMain.SeriesCollection(1).Points(lngPointIndex). Paste بعدی lngPointIndex = 0 Application.ScreenUpdating = True End Sub هنگامی که من خطی را اجرا می‌کنم که نشانگر آن است. ActiveSheet.ChartObjects (chtMarker). نمودار آیا کسی ایده ای دارد که چرا؟ من یک شیء دایره ای به نام دقیقا chtMarker دارم، بنابراین شی باید آنجا باشد
نمودار حباب با نمودار دایره ای به عنوان حباب
48759
من یک سری زمانی $x_t$ دارم. اگر از تبدیل $u_t = log(x_t) - log(x_{t-1})$ استفاده کنم، سری زمانی جدید من $u_t$ دارای ویژگی های نویز سفید (تصادفی) است. من نمی دانم که آیا تفسیر عملی برای $u_t$ وجود دارد؟ با تشکر از کمک شما.
تفسیر عملی برای $u_t = \log(x_t) - \log(x_{t-1})$
60703
من یادگیری ماشین و آمار را به طور خلاصه مطالعه کرده ام. من از رگرسیون خطی برای حل مسائل با مجموعه های ثابت متغیرها استفاده کرده ام، اما مطمئن نیستم که چگونه به مسئله زیر نزدیک شوم. با توجه به تعداد زیادی عکس برچسب گذاری شده، می خواهم از این برچسب ها برای تخمین احتمال وجود یک شی خاص در عکس استفاده کنم. من به انبوهی از داده‌ها دسترسی دارم که قبلاً به‌عنوان حاوی اشیایی که به دنبال آن هستیم یا نه طبقه‌بندی شده‌اند (اما توجه داشته باشید که این یک مشکل طبقه‌بندی نیست، از احتمالات برای رتبه‌بندی عکس‌ها استفاده می‌شود). به عنوان مثال. اگر عکسی با _کک_و_نوشیدن_ برچسب گذاری شده باشد، به احتمال زیاد حاوی کوکاکولا است. اما اگر عکسی با _کک_ و _کرک_ برچسب گذاری شده باشد، به احتمال زیاد حاوی کوکاکولا نیست. اگر عکسی به طور جداگانه با _crack_ یا _drink_ برچسب گذاری شده باشد، چیز زیادی در مورد آنچه ممکن است در عکس باشد به ما نمی گوید. چگونه می توان فرمول فرضیه ای برای این مسئله ساخت؟
رویکردی برای حل احتمال اینکه یک عکس حاوی یک شی بر اساس برچسب ها باشد
113650
فرض کنید سکه های X$ دارید که هر کدام با احتمال متفاوتی برای فرود سرها (به عنوان مثال سکه 1 10 درصد شانس فرود سرها، سکه 2 20 درصد شانس فرود سرها و غیره دارد). حال، فرض کنید که شما سکه $i$ coin $Y_i$ را بارها برگردانده اید (هر سکه دارای مقدار متفاوتی از تلنگرها است). ما می دانیم که هر سکه چند بار ورق خورده است. حالا فرض کنید این کار را هر روز برای مدت طولانی انجام می دهید و آن اطلاعات را ثبت می کنید. به عنوان مثال، با 2 سکه، در روز 1: 50 تلنگر کل، 30 سر کل، coin1 20 بار و coin2 30 بار ورق خورد. روز 2: 80 تلنگر، 66 سر کل، coin1 60 تلنگر، coin2 20 تلنگر. آنچه می دانیم: کل تلنگرها، کل سرها، چند بار ورق زدن هر سکه. با توجه به آن، آیا راهی برای تعیین احتمال تقریبی این وجود دارد که سکه داده شده سر برگرداند؟ در مثال بالا، coin1 دارای 100% احتمال سر و coin2 دارای 33% احتمال است.
احتمال وقوع رویداد زمانی که داده ها با بسیاری از رویدادهای مستقل در طول زمان تجمیع می شوند
48758
من در مورد چگونگی تفسیر مستقیم مقدار خطای استاندارد میانگین (SEM) نامشخص هستم. به عنوان مثال، وقتی میانگینی به صورت 5.00 + 0.50SEM گزارش می شود، چگونه مستقیماً 0.50 را به 5.00 مرتبط می کنید؟ برای اجرای سریع نظریه پایه در مورد خطای استاندارد: 1. انحراف استاندارد (SD) معیاری از پراکندگی در اطراف میانگین 2 است. SEM SD توزیع نمونه برای میانگین نمونه 3 است. این توزیع نمونه گیری مشتق شده است. از میانگین تعداد نامتناهی نمونه از یک جامعه آماری و به طور معمول طبق قضیه حد مرکزی 4 توزیع می شود. در یک توزیع نرمال، 68.3٪ از مقادیر (به طور تصادفی انتخاب شده) در 1SD +، 95.4٪ + 2SD و 99.7٪ + 3SD قرار دارند. 5. SEM با افزایش حجم نمونه کاهش می یابد. همان روش SD به عنوان یک آمار توصیفی؟ یعنی برای نمونه ای با میانگین 5.00 و SEM 0.50، آیا درست است که میانگین جامعه واقعی بین 4.50 و 5.50 با احتمال 68.3٪ باشد؟ سوال 2: آیا برای جامعه آماری معینی که نمونه گیری می شود، توزیع نمونه با حجم نمونه تغییر می کند (نقطه 5 داده شده)؟ یعنی نکته 3) باید این باشد: ... از میانگین تعداد بی نهایت نمونه با اندازه معین از یک جامعه آماری...؟ سؤال 3: از آنجایی که SEM مستقیماً محاسبه نمی شود، بلکه از روی SD یک نمونه تخمین زده می شود، انحراف از توزیع نرمال نمونه چه تأثیری بر محاسبه SEM دارد؟ به عبارت دیگر، اگر نمونه ای به عنوان مثال توزیع بسیار اریب داشته باشد، محاسبه SD نامناسب است (این ویژگی فقط یک توزیع عادی است)، بنابراین آیا هنوز هم می توان SEM را به طور قابل اعتماد از SD تخمین زد؟
تفسیر مقدار عددی خطای استاندارد میانگین
48280
از نوازندگان ویولن خواسته شد به 5 ویولن از کم‌ترین تا ثروتمندترین ویولن را در مقیاس «[0 1]»، «0.05-افزایش»، «همیشه‌ترین = 1» و «همیشه حداقل = 0» امتیاز دهند. سپس از آنها خواسته شد که یک محدودیت مقبولیت تعیین کنند، یعنی نقطه ای را در امتداد مقیاس تعیین کنند که بالاتر از آن ویولن ها از نظر غنا قابل قبول در نظر گرفته شوند. با تنظیم قابل قبول = 1 و غیر قابل قبول = 0، یک متغیر باینری برای هر بازیکن، علاوه بر رتبه بندی آنها، به دست می آید. بنابراین، به عنوان مثال، برای یک بازیکن، متغیرهای «رتبه = [0.3 0.45 0 1 0.85]» و برای «حد = 0.45»، «acc = [0 1 0 1 1]» دارم. من از ضریب همبستگی تطابق لین برای بررسی سازگاری درون و بین افراد برای مورد رتبه‌بندی استفاده می‌کنم. با این حال، این برای متغیر قابل قبول امکان پذیر نیست: وقتی بازیکنی حد = 0 خود را تعیین می کند، سپس acc = [1 1 1 1 1] و از این رو وجود واریانس صفر مشکل ساز می شود. من سعی می کنم روش خوب و جالبی برای تجزیه و تحلیل داده های باینری پیدا کنم، شاید سازگاری در رتبه بندی ها را با ثبات در محدودیت های مقبولیت، یا روابط عمیق تر بین دو متغیر مقایسه کنم. من در آمار زیاد تجربه ندارم، بنابراین هر گونه پیشنهاد و ایده پذیرفته می شود. من در درجه اول با متلب کار می کنم.
کدام تحلیل همبستگی برای متغیرهای باینری و ترتیبی مناسب است؟
60701
ذرات در یک محیط مایع با غلظت 4 ذره در میلی لیتر معلق می شوند. مقدار زیادی از سوسپانسیون کاملاً هم زده می شود و سپس 3 میلی لیتر از آن خارج می شود. اجازه دهید X$ تعداد ذرات موجود در 3 میلی لیتر باشد. به موارد زیر پاسخ دهید: الف- توزیع X یک توزیع پواسون است، پارامتر آن ($\lambda$) چیست؟ ب- احتمال اینکه ذره ای از 3 میلی لیتر خارج نشود را بیابید. ج- احتمال خروج یک ذره از 3 میلی لیتر را بیابید.
چگونه این مثال را با استفاده از توزیع پواسون حل کنیم؟
104943
![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/qTI9v.jpg) چگونه می توانم میانگین طرحواره اول را محاسبه کنم؟ من مقادیر فردی نمونه را ندارم. Std. انحراف (B) 0.6441 است.
نحوه محاسبه میانگین در آمار گروهی
20579
من سعی می کنم یک رگرسیون ساده فرآیند گاوسی را در جاوا پیاده سازی کنم. تقریباً تمام مراحل را از کتاب http://www.GaussianProcess.org/gpml دریافت کردم. با اجرای الگوریتم 2.1 در صفحه 19 من می توانم نتایجی را ایجاد کنم اما: من رفتار عجیبی دارم که تمام نقاط داده پیش بینی شده در جایی که من هیچ هدفی ندارم ارزش صفر دارند. آیا کسی این رفتار را می داند یا می تواند توضیح دهد که کجا ممکن است اشتباه کرده باشم؟ در طرح من، خط قرمز مقادیر پیش بینی شده را نشان می دهد، سیاه اهداف هستند. در اینجا کد جاوا پیش بینی و کوواریانس وجود دارد. آرایه پارامتر شامل مقیاس طول و نویز است، من با آرایه‌های آرایه‌ها به عنوان ورودی x برای تابع کووایانس کار می‌کنم: private double generateCOV_RADIAL(int i, int j) { double covar = Math.pow (پارامتر[1]، 2.0) * Math.exp(-1.0 * (Math.pow(i - j, 2.0)/(2 * Math.pow(پارامتر[0]، 2.0)))); if(i==j) covar += Math.pow(پارامتر[2], 2); بازگشت کوار; } public void predict(int predictFuture) IllegalArgumentException, IllegalAccessException, InvocationTargetException{ RealMatrix y = MatrixUtils.createColumnRealMatrix(this.targets); میانگین دو برابر = StatUtils.mean(this.targets); for(int i = 0; i < this.targets.length;i++) { targets[i] -= mean; } RealMatrix K = MatrixUtils.createRealMatrix(cov); //ماتریس هویت برای I RealMatrix k_eye = MatrixUtils.createRealIdentityMatrix(cov.length); //choleski(K + sigman^2*I) CholeskyDecomposition L = null; try { L = new CholeskyDecompositionImpl( K.add( k_eye.scalarMultiply(Math.pow(پارامتر[2], 2)) ) ); } catch (NonSquareMatrixException e) { e.printStackTrace(); } catch (NotSymmetricMatrixException e) { e.printStackTrace(); } catch (NotPositiveDefiniteMatrixException e) { e.printStackTrace(); } //معکوس Ltranspose برای بخش چپ RealMatrix L_transpose_1 = new LUDecompositionImpl(L.getLT()).getSolver().getInverse(); //معکوس Ltranspose برای تقسیم سمت چپ RealMatrix L_1 = new LUDecompositionImpl(L.getL()).getSolver().getInverse(); //alpha = L'\(L\y) RealMatrix alpha = L_transpose_1.multiply(L_1).multiply(y); دو برابر L_diag = 0.0; for(int i = 0; i < L.getL().getColumnDimension();i++) { L_diag += Math.log(L.getL().getEntry(i,i)); } double logpyX = - y.transpose().multiply(alpha).scalarMultiply(0.5).getData()[0][0] - L_diag - predictFuture * Math.log(2 * Math.PI) * 0.5; double[] fstar = new double[targets.length + predictFuture]; double[] V = new double[targets.length + predictFuture]; for(int i = 0;i < targets.length + predictFuture;i++) { double[] kstar = new double[targets.length]; for(int j = 0; j < targets.length;j++) { double covar = (Double)covMethod.invoke(this,j,i); kstar[j] = covar; } //f*=k_*^T * آلفا fstar[i] = MatrixUtils.createColumnRealMatrix(kstar).transpose().multiply(alpha).getData()[0][0]; fstar[i] += mean; //v = L\k_* RealMatrix v = L_1.multiply(MatrixUtils.createColumnRealMatrix(kstar)); //V[fstar] = k(x_*,x_*) - v^T*v double covar = (Double)covMethod.invoke(this,i,i); V[i] = covar - v.transpose().multiply(v).getData()[0][0] + Math.pow(پارامتر[2],2); } this.predicted_mean = fstar; this.predicted_variance = V; } متشکرم![GP Example](http://i.stack.imgur.com/hfjBL.jpg)
اجرای فرآیند گاوسی
100746
PDF تفاوت دو متغیر تصادفی توزیع شده i.i.d لاپلاس چیست؟ من می دانم که تفاوت دو متغیر i.i.d Normal همچنان توزیع نرمال است. از آنجایی که ویژگی های توزیع لاپلاس مشابه توزیع نرمال است، حدس می زنم که این تفاوت در توزیع لاپلاس نیز باشد. من سعی کردم این را با استفاده از Mathematica حل کنم. نه توابع PDF و نه یکپارچه سازی پاسخ درستی نمی دهند. متشکرم
تفاوت بین دو توزیع لاپلاس i.i.d؟
62706
من یک صفحه گسترده دارم که در آن محتوا به این صورت سازماندهی شده است: محتوا | دسته 1 | دسته 2 | دسته 3 | ... _________|___________|___________|___________| ... مطالب 1| x | | x | ... مطالب 2| | x | | ... ... چگونه می توانم این اطلاعات را موثرتر ارائه دهم؟ به عنوان مثال، آیا یک کتابخانه جاوا اسکریپت وجود دارد که بتوانم از آن استفاده کنم یا چیزی شبیه به آن، که در آن بتوانیم فقط ردیف هایی را که به برخی دسته ها مرتبط هستند نشان دهیم، یا یک دسته را به یک ردیف و غیره تنظیم کنیم؟ پیشاپیش ممنون
چگونه ردیف هایی را که می توانند چندین دسته داشته باشند ارائه کنیم؟
52618
در مسئله زیر بررسی کنید که مناسب است از تقریب معمولی برای دو جمله ای استفاده کنید. سپس از توزیع نرمال برای تخمین احتمالات درخواستی استفاده کنید. مشخص است که 85٪ از تمام محصولات جدید معرفی شده در فروشگاه های مواد غذایی طی 2 سال شکست می خورند (از بازار خارج می شوند). اگر یک فروشگاه زنجیره ای مواد غذایی 68 محصول جدید معرفی کرد، احتمالات زیر را پیدا کنید. (پاسخ های خود را به چهار رقم اعشار گرد کنید.) (الف) در عرض 2 سال 47 یا بیشتر شکست می خورند (ب) در عرض 2 سال 58 یا کمتر شکست می خورند. (ج) در عرض 2 سال 15 یا بیشتر موفق شوند. (د) در عرض 2 سال کمتر از 10 موفق شوند
کمک توزیع
48287
من SVD را بر روی ماتریسی محاسبه می کنم که نسخه تجربی $E[XY^{\top}]$ برای مقداری $X \in \mathbb{R}^{m \times 1}$ و $Y \in \mathbb است. {R}^{n \times 1}$. من نمی‌پرسم آیا روش‌های استانداردی برای پیش‌پردازش $x_1،\ldots،x_l$ و $y_1،\ldots،y_l$ قبل از انجام این کار وجود دارد (غیر از تفریق میانگین و تقسیم بر انحراف استاندارد). این به سوال اینجا مربوط می شود: نرمال سازی متغیرها برای SVD / PCA.
چگونه داده ها را برای SVD پیش پردازش می کنید؟
52614
من مجموعاً 31 نفر جمعیت دارم، از این تعداد 20 نفر جمعیت تمام کننده درمان دارم. می خواهم آزمایشی را روی SPSS انجام دهم تا مشخص کنم که آیا بین 20 فردی که درمان را کامل کرده اند و گروه به طور کلی تفاوت قابل توجهی وجود دارد یا خیر. متغیرهایی که من سعی می کنم مقایسه کنم سن، وزن، قد و BMI است. من برای کل جمعیت و زیر گروه به طور جداگانه توصیفی اجرا کرده ام، می توانم ببینم تفاوت کمی بین گروه ها وجود دارد اما می خواهم اهمیت آماری را بدانم.
آیا بین جامعه مورد مطالعه من و یک زیر گروه در آن تفاوت آماری معناداری وجود دارد؟
48286
من دو مدل دارم اول، $$z=\alpha_1x+\alpha_2+\epsilon$$ و دوم، $$z=\beta_1x+\beta_2y+\beta_3+\epsilon.$$ چه عواملی بر اینکه $\alpha_1\approx\beta_1$ تأثیر می‌گذارد؟ توجه داشته باشید که من اهمیتی نمی‌دهم که هر کدام از مدل‌ها با چه دقتی $z$ را پیش‌بینی می‌کنند. من فقط به این موضوع اهمیت می دهم که ضریب عبارت $x$ در هر دو مدل چقدر شبیه است. فرض کنید هر دو $x$ و $y$ در واقع $z$ را پیش‌بینی می‌کنند و تعاملی ندارند.
فکر کردن در مورد اینکه چگونه افزودن متغیرهای اضافی بر رگرسیون خطی تأثیر می گذارد
54618
من علاقه مند به توسعه جستجوی محاسباتی برخی از انواع RNA های غیر کد کننده (ncRNA ها) روی یک ژنوم جدید هستم. من سوالاتی در رابطه با ماهیت آزمایش خود دارم، زیرا این یک مطالعه اکتشافی است و می توانم با اعمال استراتژی های مختلف جستجوی BLAST نتایج متفاوتی ایجاد کنم. خروجی نهایی شامل تعداد متفاوتی از هر نوع ncRNA برای هر استراتژی BLAST است. چگونه می توانم استراتژی های جستجوی خوبی طراحی کنم، با توجه به اینکه این اولین جستجو در این ژنوم جدید است؟ مراجع قدردانی خواهند شد. با تشکر
طراحی استراتژی های جستجوی ژنومی برای RNA های غیر کد کننده با استفاده از BLAST
113651
آیا پس از اجرای مدل لاجیت چند جمله ای، داشتن ضریب مثبت با اثر حاشیه ای / تاثیر منفی قابل قبول است؟
ضریب مثبت اما اثر حاشیه ای منفی در mlogit
54613
من کمیت ظاهراً جالبی به نام پیچیدگی بیزی دیده‌ام که در این مورد به صورت $-2(\overline{\n\mathfrak{L}} - \ln\mathfrak{L}_\mathrm{max})$ تعریف می‌شود. . من مطمئن نیستم که این برای چه استفاده می شود. به عنوان مثال، چه نوع آزمایش هایی را می توان روی این کمیت انجام داد و چه چیزی را نشان می دهد؟
تست های پیچیدگی بیزی
48756
آیا کسی می تواند بهترین روش را برای پیش بینی فاصله زمانی بین دو رویداد پیشنهاد دهد؟ به عنوان مثال، با توجه به اینکه دیابتی ها در معرض خطر بیشتری برای ابتلا به فشار خون هستند، من می خواهم فاصله زمانی تا زمانی که بیماران پس از تشخیص دیابت به فشار خون مبتلا می شوند را پیش بینی کنم. من هم متغیر وابسته به زمان و هم متغیر مستقل خواهم داشت. آیا این نیاز به یک رویکرد طولی دارد؟
چگونه فاصله زمانی بین دو شرط را پیش بینی کنیم
54610
من سعی می کنم یک سری کلماتی را که توسط کاربران ارائه می شود تأیید کنم. من سعی می‌کنم یک سیستم امتیازدهی ارائه کنم که احتمال اینکه مجموعه کلمات واقعاً کلمات معتبری هستند را تعیین کند. ورودی زیر را فرض کنید: xxx yyyy zzz اولین کاری که انجام می‌دهم این است که هر کلمه را به صورت جداگانه در مقابل پایگاه داده‌ای از کلماتی که دارم بررسی می‌کنم. بنابراین، فرض کنید xxx در پایگاه داده بود، بنابراین ما 100٪ مطمئن هستیم که یک کلمه معتبر است. سپس بیایید بگوییم که «yyyy» در پایگاه داده وجود ندارد، اما یک تغییر احتمالی از املای آن وجود دارد (مثلاً «yyyy»). ما به «Yyy» نمره 100٪ نمی دهیم، اما شاید چیزی کمتر (مثلاً 90٪). سپس `zzz` اصلاً در پایگاه داده وجود ندارد. بنابراین، `zzz` امتیاز 0٪ دریافت می کند. بنابراین چیزی شبیه به این داریم: xxx = 100% yyyy = 90% zzz = 0% در ادامه فرض کنید که کاربران یکی از این دو را می‌خواهند: 1. فهرستی از همه کلمات معتبر (به احتمال زیاد) ارائه کنید. 2. فهرستی از همه ارائه دهید. کلمات نامعتبر (احتمالا) 3. ارائه فهرستی از ترکیبی از کلمات معتبر و نامعتبر (به احتمال زیاد) به طور کلی، سیستم امتیازدهی خوبی برای تعیین نمره اطمینان `xxx yyy zzz` یک سری کلمات معتبر است؟ من به دنبال چیز خیلی پیچیده ای نیستم، اما گرفتن میانگین نمرات درست به نظر نمی رسد. اگر برخی از کلمات موجود در لیست کلمات معتبر باشند، من فکر می کنم این احتمال را افزایش می دهد که کلمه ای که در پایگاه داده یافت نمی شود یک کلمه واقعی نیز باشد (این فقط یک محدودیت پایگاه داده است که آن کلمه خاص را در بر ندارد). توجه: ورودی به طور کلی حداقل 2 کلمه (و بیشتر 2 کلمه) خواهد بود، اما می تواند 3، 4، 5 باشد (و شاید در برخی موارد نادر حتی بیشتر باشد). **مثال 1:** نمرات زیر را بگویید: xxx = 100% yyyy = 100% zzz = 0% میانگین 66.66% است. اما از آنجایی که در حال حاضر دو کلمه در لیست در پایگاه داده وجود دارد، این احتمال وجود دارد که zzz نیز یک کلمه واقعی باشد. امتیاز دادن به این سری از کلمات فقط 66.66٪ کم به نظر می رسد.
پیشنهاد فرمول برای یک سیستم امتیازدهی، راه حل وزنی
52785
من فقط یک زبان شناس هستم، بنابراین دانش من در مورد آمار بسیار ابتدایی است. من یک مدل رگرسیون لجستیک را با R تطبیق دادم (با «lrm(فرمول، y=T، x=T)»)، و وقتی از گزینه «تأیید اعتبار(lrm)» استفاده می‌کنم، آماری را دریافت می‌کنم که واقعاً نمی‌فهمم. index.orig آموزش تست خوشبینی index.corrected n Dxy 0.5984 0.6112 0.5461 0.0651 0.5333 40 R2 0.3258 0.3676 0.2929 0.0747 0.00000.2500 0.0747 0.2500. -0.0105 0.0105 -0.0105 40 شیب 1.0000 1.0000 0.8427 0.1573 0.8427 40 Emax 0.0000 0.0000 0.0399 0.0399 0.0399 0.0399 D 0.3176 0.2394 0.0782 0.1931 40 U -0.0177 -0.0177 0.0092 -0.0269 0.0092 0.0092 40 Q 0.2890 0.3353 0.2303 0.2303 0.23010 0.1010 B 0.1772 0.1972 -0.0201 0.2064 40 g 1.4632 1.6642 1.3460 0.3182 1.1449 40 gp 0.2840 0.3011 0.2703' 0.2703' 0.2703' 0.2703'0. که من فکر می کنم «R2» و «Dxy» قرار است آماری از میزان خوب بودن پیش بینی کننده ها باشند، اما مطمئن نیستم که چگونه باید مقادیر را تفسیر کنم، آیا «Dyx = 0.651» تصحیح شده به این معنی است که یک همبستگی قوی وجود دارد؟ در حالی که R2 = 0.0747 تصحیح شده به این معنی است که همبستگی بسیار ضعیف است؟ من فکر می کنم مدل بیش از حد نصب شده است، اما مطمئن نیستم که درست می گویم. همچنین سایر آمارها برای من کاملاً عجیب است. «Emax، D، U، Q، B، g» و «gp» چیست؟
نحوه تفسیر آمار (Emax، D، U، Q، B، و غیره) اعتبار بوت استرپ رگرسیون لجستیک
48753
مدتی است که با خودهمبستگی فضایی کار می‌کنم و اکنون سعی می‌کنم از برآوردگرهای سنتی‌تری مانند Moran's I یا Geary's C به تخمین‌گر جدید APLE حرکت کنم. من مقالات لی در مورد APLE و همچنین مرجع در پروژه R را خواندم. اما من هنوز یک چیز بسیار اساسی را از دست می دهم، زیرا هنوز چیزی را متوجه نشده بودم: نتایج آمار APLE گفته می شود که یک فرم بسته است اما من متوجه نشدم که کدام است. به عنوان مثال، در حالی که Moran's I can gom از -1 به 1 است، نتوانستم مرزهای احتمالی آمار APLE را بفهمم. جالب‌تر اینکه، من آزمایش‌هایی را روی داده‌های قدیمی‌تر خود انجام داده‌ام، با استفاده از بسته spdep در R، و به نظرم می‌رسد که APLE می‌تواند تا 2 برسد. کسی در این مورد اشاره‌ای دارد؟ لطفا، هر گونه بینش در اینجا بسیار قدردانی خواهد شد.
نتایج احتمالی تخمین‌گر تقریبی پروفایل-احتمال‌یابی (APLE) برای خودهمبستگی فضایی
48755
من یک مدل لاجیت دارم و سعی می کنم مقادیر پیش بینی شده و مشاهده شده تولید شده توسط مدل را درک و مقایسه کنم. فرض کنید مجموعه داده 100 مقدار داشت و من تمام احتمالات پیش بینی شده را تولید می کنم و سپس احتمالات واقعی را از مجموعه داده ها پیدا می کنم. اگر من مقادیر پیش بینی شده را با مقادیر مشاهده شده مقایسه می کنم، فکر می کنم دو راه برای انجام آن وجود دارد. یکی این است که آن را ارزش بر اساس مقدار انجام دهیم، در حالی که دومی گروه‌بندی بر اساس «احتمالات پیش‌بینی‌شده» است. روش 1: x_value pred_val obs_val 100 0.30 0.34 102 0.33 0.36 104 0.35 0.37 106 0.40 0.40 ... من همچنین فکر می کنم راهی برای تجمیع این مقادیر وجود دارد. بنابراین من به این فکر می کنم که تمام مقادیر x را در جایی که احتمالات پیش بینی شده بین 10 تا 20 درصد است جمع آوری کنم، سپس مقدار میانگین پیش بینی شده را از آن محدوده و به دنبال آن مقدار پیش بینی شده برای آن محدوده را بیابم. روش 2: Pred_probs pred_val obs_val 10 تا 20% vals 0.10 0.11 21 تا 30% vals 0.12 0.16 31 تا 50% vals 0.15 0.30 چیزی که من تعجب می کنم این است: 1. زمانی که داده ها وجود دارد، چه چیزی استفاده می شود. لیستی از پیش بینی و مقادیر مشاهده شده برای هر مقدار معین x؟ 2. آیا انجام کاری همانطور که در «روش 2» مشخص شده است، منطقی است؟
مقادیر مشاهده شده در مقابل مقادیر پیش بینی شده از یک مدل لاجیت
95107
من با موفقیت از DBN ها برای طبقه بندی برای MNIST و برخی وظایف دیگر استفاده کرده ام. من در فکر انجام کاهش ابعاد قبل از تمرین بودم تا عملکرد را افزایش دهم. با این حال، وقتی سعی کردم از خروجی PCA برای آموزش یک شبکه باور عمیق استفاده کنم، نتایج بسیار بد بود. من می‌دانم که DBNها ویژگی‌هایی را از تصویر یاد می‌گیرند و ممکن است PCA داده‌ها را در فضایی پخش کند که در آن چیزها دیگر شبیه به هم نباشند، اما من انتظار چنین نتیجه بدی را نداشتم. هیچ ایده ای دارید که چرا این می تواند باشد؟ من مخصوصاً متعجب شدم زیرا این مقاله با موفقیت از آن استفاده کرده است: کاغذ اینجاست متشکرم!
شبکه های باور عمیق و PCA
104948
فرض کنید از یک روبات سوالی می پرسم: چرا معادلات دیفرانسیل جزئی اصلا جالب نیست؟ فرض کنید ربات احمق است و سوال من را در کلاس گربه ها دسته بندی می کند، بنابراین با این پاسخ می گوید: گربه ها کرکی و عالی هستند. بنابراین من بارها و بارها سؤال خود را تکرار می کنم و متأسفانه ربات همچنان به کلاس گربه ها می زند. ضربه های متوالی نمونه ای از یک عامل خطر است. این نشان می دهد که شاید مشکلی در کلاس گربه ها در مغز ربات وجود دارد. شاید کلمه PDEs به عنوان متن نمونه در زیر کلاس برای ترسیم ظاهر شود. فرض کنید من مجموعه‌ای از کلاس‌ها دارم (مثلاً «گربه‌ها»، «سگ‌ها») که همگی عوامل خطر یکسانی دارند (مثلاً «ضربه‌های متوالی»، «نمرات بد کاربر» و غیره). هر فاکتور خطر دارای وزن خاص خود است که می توانم از 0-10 تنظیم کنم که در آن 0 اساساً به این معنی است که می توانم فاکتور خطر را به طور کامل رها کنم و 10 مهمترین آن است. برای هر کلاس، من می توانم وقوع هر یک از عوامل خطر را در وزن مربوط به آن ضرب کنم و همه آنها را جمع کنم تا یک امتیاز ریسک برای کلاس بدست بیاورم. بنابراین، هر کلاس دارای یک امتیاز ریسک است و من می‌توانم روی اصلاح کلاس‌هایی با بالاترین امتیاز ریسک تمرکز کنم. سوال من این است: چگونه می توانم وزن عوامل خطر را به طور بهینه انتخاب کنم تا به من بگویم که واقعاً خطرناک ترین کلاس ها چیست؟ این یک سوال کاملا باز است. من به دنبال ایده‌ها، مقالات، کتاب‌ها یا تکنیک‌های آماری هستم که ممکن است برای این تلاش مفید باشد. خیلی ممنون
چگونه تعیین کنیم که آیا یک شاخص ریسک واقعاً یک شاخص ریسک است یا خیر
104323
من در مدرسه از تجزیه و تحلیل کای اسکوئر استفاده کرده ام، اما در درس غایب بودم، و هیچ وقت کاملاً متوجه آن نشدم. من در گذشته با آن موفق بوده‌ام، اما اکنون سعی می‌کنم از مقادیر درصد استفاده کنم و پاسخ‌های مورد انتظارم را دریافت نمی‌کنم. من در حال انجام یک نظرسنجی و مقایسه یافته‌هایم با میانگین‌های ملی هستم، اما وقتی از درصدها استفاده می‌کنم (مانند درصد شرکت‌کنندگان بین 21 تا 29 سال)، اعداد بسیار کوچکی به دست می‌آورم (2.3٪ 0.023 است). اگر از درصدها برای مقدار مورد انتظار استفاده کنم، آیا مهم است؟ به عنوان مثال: Chi² برای گروه سنی 21-29 $ (0.084 - 0.1642)^2 / 0.1642 = 0.039187$ است. مقدار مجذور کای کل 0.1368 است که بسیار کوچکتر از مقدار جدول chi مربع 0.5% برای 8 درجه است. آزادی، 17.535، اما اعداد بسیار دور به نظر می رسند. آیا باید اعداد کامل را پیدا کنم؟
درصدهای تجزیه و تحلیل مربع کای
48752
پاسخ سوال من ممکن است برای اکثر شما آسان باشد. من شروع به یادگیری آمار و کد نویسی در R می کنم بنابراین سوالات من در سطح پایه هستند. من یک مجموعه داده از (دو گروه، تکرار) دارم. داده‌های من بر اساس گروه‌ها تقسیم می‌شوند، بنابراین من 24 نمونه در گروه 1 و 20 نمونه در گروه 2 دارم. داده‌های من دارای تکرار هستند. بنابراین هر مجموعه دارای 4 تکرار است، بنابراین من 6 مجموعه در گروه 1 و 5 مجموعه در گروه 2 دارم. از این رو برای سهولت در هنگام جایگشت به آنها شاخص هایی اختصاص داده ام (شاخص های 1-11). کاری که اکنون می‌خواهم انجام دهم، تجزیه و تحلیل جایگشت معمولی برای به دست آوردن آمار آزمون است. من از روش غیر پارامتریک با نمونه برداری مجدد با جایگزینی استفاده می کنم. شک\مشکل من در کدنویسی R این است که باید داده ها را با هم ترکیب کنم و سپس گروه ها را مجدداً نمونه برداری کنم. وقتی سعی می‌کنم این کار را انجام دهم، ** باید مطمئن شوم که اندازه نمونه را برای گروه‌های مربوطه حفظ می‌کنم (یعنی پس از نمونه‌گیری مجدد از برچسب‌های گروه، مجموعه داده جدید من همچنان باید شامل 6 مجموعه (24 نمونه) در گروه 1 و 5 باشد ( 20 نمونه) در گروه 2.** من قادر به دستیابی به دومی نیستم من چیزی شبیه به این را در کدم امتحان کردم: n_resamples=100 permdat=function(dat){. برای (i در 6:nc) { برای (j در 1:n_resamples) { inds=unique(dat$ind) cc=dat$grp[dat$ind==inds] pcc=sample(cc,replace=T) # #برای نمونه‌برداری مجدد با جایگزینی #m<-list() pdat=dat for(i در 1:length(inds)) { pdat$grp[pdat$ind==inds[i]]=pcc[i] #browser () } با تشکر از همه شما برای کمک
نمونه برداری مجدد با تجزیه و تحلیل جایگشت جایگزین
78411
بابت اختلاط ایجاد شده عذرخواهی میکنم من سعی می کنم یک تجزیه و تحلیل دی آلل با سه والدین در طیور انجام دهم. من سعی کردم از برنامه SAS05 استفاده کنم اما کار نکرد، حدس می‌زنم برای آنالیز دی آلل که شامل 4 تا 12 والدین است طراحی شده است. من از هر توصیه یا راهنمایی در مورد نحوه انجام آنالیز دی آلل با 3 والدین با استفاده از R یا SAS قدردانی خواهم کرد. متشکرم
تجزیه و تحلیل دی آلل
48757
من خواندم که الگوریتم k-means فقط به یک حداقل محلی و نه به یک حداقل جهانی همگرا می شود. چرا این است؟ من منطقاً می توانم به این فکر کنم که چگونه مقداردهی اولیه می تواند بر خوشه بندی نهایی تأثیر بگذارد و احتمال خوشه بندی زیر بهینه وجود دارد، اما چیزی پیدا نکردم که از نظر ریاضی آن را ثابت کند. همچنین، چرا k-means یک فرآیند تکراری است؟ آیا نمی‌توانیم تابع هدف w.r.t را تا حدی متمایز کنیم. به مرکز، آن را با صفر برابر کنید تا مرکزهایی که این تابع را به حداقل می‌رسانند، پیدا کنید؟ چرا باید از شیب نزول برای رسیدن به حداقل گام به گام استفاده کنیم؟
چرا k-means حداقل جهانی را ارائه نمی دهد؟
99658
من در مورد نتایج یادگیری ماشین در مجموعه داده خود کمی گیج هستم. اگر کسی بتواند من را در این مورد روشن کند سپاسگزار خواهم بود: وقتی ویژگی ها از نظر آماری بین دو گروه متفاوت است، آیا یادگیری ماشینی نمی تواند کلاس مناسب را با دقت معقولی پیش بینی کند؟ داده‌ها شامل 9 ویژگی است که 8 مورد از آن‌ها بین گروه‌ها تفاوت معنی‌داری داشتند (ttest مستقل دو دنباله). کل مشاهدات 71 (30 و 41) بود. با این حال، یادگیری ماشین تنها قادر به تولید حدود 65٪ دقت طبقه بندی (10 برابر اعتبار متقاطع) بود. من از SVM با هسته RBF، kNN، Random Forest و Naive Bayes استفاده کرده ام. سوال من این است که آیا طبیعی است؟ آیا زمانی که ویژگی ها بین گروه ها تفاوت معنی داری نداشتند، می توان دقت طبقه بندی بالاتری را به دست آورد؟ با تشکر
دقت طبقه بندی پایین برای ویژگی های آماری متفاوت
80309
اگر دو متغیر A={20 مقدار} و B={20 مقدار} داشته باشیم و بخواهیم همبستگی بین این دو متغیر را اندازه گیری کنیم. فرض کنید n مقدار اول با هم همبستگی بالایی دارند اما مقادیر m باقیمانده همبستگی ندارند. همبستگی کلی بین A و B ممکن است نشان دهنده اهمیت رابطه نباشد. تصور کنید که فقط همبستگی ضعیفی در برخی مقادیر وجود دارد، اما چندین مقدار مطابقت واقعاً خوبی بین A و B نشان می‌دهند. ضرایب همبستگی سنتی چنین رابطه‌ای را نشان نمی‌دهند. آیا معیار یا روش آماری وجود دارد که بتواند چنین رابطه ای را بین A و B تشخیص دهد؟
همبستگی زیربعدی بین 2 متغیر را شناسایی کنید
80301
من خروجی های مصرف انرژی را از دو دستگاه مقایسه می کنم که فعالیت بدنی را در یک محیط زندگی آزاد در مدت 10 روز دنبال می کنند. آب دارای برچسب مضاعف معیار پذیرفته شده برای این است، اما 1) این تکنیک فقط کل مصرف انرژی را نشان می دهد و 2) من از این در مطالعه خود استفاده نکردم... هر دو دستگاهی که استفاده کردم قبلاً در برابر DLW تأیید شده اند. این دستگاه‌ها اطلاعات بسیار بیشتری نسبت به DLW می‌دهند، یعنی زمان صرف شده در آستانه‌های خاص PA و تعداد دفعات در هر آستانه. من می خواهم میزان توافق بین دو دستگاه را ارزیابی کنم. من می‌دانم که نمودارهای بلند-آلتمن معمولاً برای ارزیابی توافق بین دستگاه‌های اندازه‌گیری استفاده می‌شوند، اما من در تلاش هستم تا تصمیم بگیرم از کدام آزمون بدون اندازه‌گیری مرجع/معیار استفاده کنم. من حدس می‌زنم که یک همبستگی پایه اطلاعاتی را ارائه می‌دهد، اما فکر می‌کردم آیا کسی می‌تواند اطلاعات و/یا راهنمایی بیشتری برای تجزیه و تحلیل آماری پیچیده‌تر ارائه دهد. شاید یک رگرسیون / مجموع مربع ها اختصاص یابد؟ هر گونه کمکی بسیار قدردانی خواهد شد.
مقایسه دو دستگاه اندازه گیری بدون اندازه گیری معیار