_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
97292
|
من سعی می کنم مدلی برای داده های زیر پیدا کنم. من نمی توانم تصمیم بگیرم که آیا داده ها ثابت هستند یا نه. من نمی خواهم اختلافات را بی جهت بگیرم. من نتایج مدل ها را در زیر قرار داده ام. من فکر می کنم ARIMA (0،1،3) بهترین مدل است زیرا AIC پایین ترین است. نظر شما چیست؟  [1] 3.78937537 2.15208174 -0.89160064 -1.73332645 -0.83482963 -0.41333146 -0.41333144 -0.41333144 - -2.20777662 -1.35331581 -1.87955944 -1.49146551 2.49103865 [13] 4.58664031 3.98372753 3.49151073 2.49151073 2.885 2.49151073 2.885. 2.00031840 [19] 1.74083830 -0.61761601 -2.88803617 -0.61886754 2.57402611 1.89283706 [25] -1.075423734 -1.07542734 -1.075426734 -2.51596702 -0.86119264 0.18702439 [31] 0.71532140 0.57777386 3.35966227 5.69130104 2.56164574 [3.56164583] 5.42012156 4.91012242 3.19472611 3.25517135 2.99351748 [43] 2.04710036 3.00828776 3.97207206 3.97207206 2.645 2.645 -1.43062776 [49] -0.86202757 2.17878741 4.93325672 3.31060112 0.35611519 0.46807870 [55] 1.66715874653. 1.55933575 0.63240519 1.28472844 [61] 1.38605161 0.18651983 0.79863043 2.87366933 4.44551597 [4.4551597] 4.38651983 3.35830065 1.53707953 0.08623542 0.97667994 -0.42280994 [73] -3.58389281 -3.55316081 -2.55628421 -3.5628421 -3.427 -2.55628421 -3.427 -4.72314008 [79] -2.32487771 -0.38168241 -0.89383414 -0.58963196 0.77158269 1.07205599 [85] 0.729508241. 1.72134300 0.31586665 0.34106233 [91] -1.31065867 -2.64398487 -0.47188919 1.33507435 -0.55269545 - 0.55269545 [8.55269545 -2.745 -2.745 - 0.55269545] -3.07342362 -2.60963150 -0.96491699 -0.11554423 0.07801436 [103] 1.03953592 0.63529388 0.1031077544425 106. -4.69707317 [109] -6.83755810 -5.48216561 -2.18589446 -1.34859551 -4.25464826 -4.44676908 [115] -0.725238075 -2.45630323 -4.70575810 -5.66265488 -5.50397286 [121] -5.64958955 -5.48545360 -2.79058869 -1.105288814 -3.10528814 -3.10528814 -3. [127] -2.73350349 -2.21617434 -1.52494934 -1.58548803 -2.49378602 -1.69527130 [133] 0.74873392 0.90582734 2.92103049 5.83058432 6.36187212 [139] 5.22905256 4.00941490 3.03523663 1.93713509 1.674717241435] 1.674717241435] 2.32354111 5.63314456 6.62253314 3.30169519 -0.53170457 -2.45563036 [151] -3.33244848 -3.77673924 -3.77673924 -3.77673924 -3.375 -0.16490056 3.04228090 [157] 3.92168880 1.24849940 -1.63284318 -1.07538492 1.65080853 1.66193852 - 1423 -0.55887445 0.41598367 0.86267051 2.37980973 3.33955626 [169] 2.06034558 -0.23641280 -0.58777694 -0.58777694 -0.58777694 -0.58777694 -0.58775692 -0.5877692 -0.5875692 -0.0. -0.97577373 [175] -1.32154837 -0.63551008 2.42331965 4.81896345 3.87979306 0.95525157 [181] -1.50232528 -1.5023252 -3.03952767 -0.28938790 1.58862094 2.81297712 [187] 3.46355587 3.35284181 3.33816359 2.3969691838785867850. [193] -0.24116984 1.61287955 0.67580375 -0.41342769 -2.12526810 -3.82541756 [199] -1.64497472 -0.73580375 -0.41342769 -2.12526810 -3.82541756 [199] -1.64497472 -0.73580375 = سفارش دادهها c(0, 1, 3)) ضرایب: ma1 ma2 ma3 1.0905 -0.4871 -0.6763 s.e. 0.0750 0.1390 0.0760 sigma^2 تخمین زده شده به صورت 0.8477: احتمال ورود = 268.35-، aic = 542.7 تماس: arima(x = داده9، سفارش = c(1، 0، 1)) ضرایب: ضرایب: 0.1 ma1 070070 s.e. 0.0497 0.0213 0.4983 sigma^2 برآورد شده به عنوان 1.097: احتمال ورود = 296.55-، aic = 599.11
|
انتخاب مدل ARIMA
|
21224
|
من از این مشکل خیلی گیج شدم با توجه به دو متغیر $X_1$ و $X_2$، به طوری که $X_i \sim \mathrm{Gam}(a_i, b)$، توزیع مشترک $X_1$ و $X_2$ را پیدا کنید. من درک می کنم که اگر متغیرها مستقل باشند چگونه باید ادامه داد، اما حالت کلی کمی نامشخص است. با تشکر از کمک شما!
|
توزیع مشترک دو متغیر تصادفی گاما
|
69616
|
من یک مجموعه داده دارم که در آن متغیر پاسخ تعدادی از حیوانات را اندازه میگیرم. من از این متغیر پاسخ به عنوان متغیر وابسته در یک مدل مختلط خطی استفاده کردم که برای آن 5 متغیر توضیحی دارم. دو تا از این متغیرهای توضیحی اگر در یک مدل وارد شوند، تو در تو قرار میگیرند، زیرا به هر حیوان و سایت تحقیقی که در آن واقع شدهاند اشاره میکنند. بنابراین سایت (فردی) خواهد بود. اگر آنها را تودرتو نکنم اما آنها را جداگانه وارد کنم، برنامه با خطاهای محاسباتی مواجه می شود و یکی از دو متغیر را بیرون می اندازد. من از SPSS استفاده می کنم. سپس تعداد کاملی از مدلهای مختلف را با تمام ترکیبهای مختلف متغیرهای توضیحی ایجاد کردم و آنها را بر اساس AIC رتبهبندی کردم. سپس متوجه شدم که تعدادی از مدل ها دقیقا همان AIC را دارند. اینها مدلهایی بودند که با وجود یکسان بودن، یا فقط فردی را بهعنوان متغیر توضیحی یا سایت (فرد) را شامل میشدند. اگر مدل، با همه مساوی بودن، فقط حاوی سایت بود، AIC متفاوت بود. اکنون سؤالات من این است: الف) آیا این نتایج منطقی هستند؟ من نمی توانم به اشتباهی که انجام می دهم فکر کنم، اما کمی نگران همان مقدار برای AIC هستم. ب) آیا می توانم مدل ها را از این طریق مقایسه کنم - مقایسه متغیرهای تو در تو با متغیرهای غیر تو در تو؟
|
مدل های خطی مخلوط با AIC دقیقا یکسان؟
|
69612
|
من دادههایی را جمعآوری کردهام که پاسخدهندگان پاسخهای زیر را ارائه میدهند 1. علاقهای به مشارکت ندارند 2. فقط اطلاعاتی در مورد موضوع دریافت میکنند اما شرکت نمیکنند 3. مشاوره در مورد موضوع 4. مسئولیت هر یک از چهار موضوع زیر را بر عهده میگیرند. تعیین اولویت ها 2. افزایش درآمد 3. توزیع وجوه 4. نظارت من می خواهم آزمایش کنم که آیا موضوع بر روش ترجیحی مشارکت تأثیر می گذارد یا خیر. **آیا می توانید از آزمون فریدمن برای بررسی اینکه آیا پاسخ ها در موضوعات مختلف متفاوت است استفاده کنید؟**
|
آیا از آزمون فریدمن برای آزمایش تفاوت در دسته ها در چهار مبحث استفاده می شود؟
|
21229
|
آیا تفاوتی بین ANCOVA (که تحت «مدل خطی عمومی (GLM)» انجام میشود) و رگرسیون سلسله مراتبی (همانطور که تحت «رگرسیون» انجام میشود) در SPSS وجود دارد؟ من اثرات اصلی و تعامل X1 (پیوسته) و X2 (مقوله ای) را روی Y (پیوسته) آزمایش می کنم. من می دانم که GLM دارای رگرسیون است و یکی از مزایای اصلی استفاده از GLM نسبت به تابع رگرسیون این است که GLM (عامل) کدگذاری ساختگی ایجاد می کند. در رگرسیون، این باید قبل از وارد کردن فاکتور طبقهبندی در کادر تحلیل انجام شود. همین امر در مورد محصول تعامل نیز صدق می کند. من شخصاً خروجی GLM (ANCOVA) را راحتتر درک میکنم.
|
تفاوت بین ANCOVA و رگرسیون سلسله مراتبی
|
97293
|
من داده های ریزآرایه ای دارم که در آنها سه تکرار بیولوژیکی برای هر یک از شرایط وجود دارد. من به یک تخمین عددی علاقه مند هستم که چقدر تکرارها با یکدیگر مطابقت دارند، بنابراین فکر کردم باید به واریانس نگاه کنم. فکر میکنم میتوانم آن را بهصورت جداگانه برای هر کاوشگر محاسبه کنم، اما فکر کردم ممکن است با نگاه کردن به همه کاوشگرها به طور همزمان اطلاعات بیشتری وجود داشته باشد (چیزی که مربوط به اعتدال است). من به عنوان شروع به این موضوع پرداخته ام، اما مطمئن نیستم که چگونه این کار را انجام دهم.
|
محاسبه واریانس برای داده های ریزآرایه؟
|
69611
|
من در محاسبه $\mathrm{E}\left(T_{1} T_{2}^{-1}\right)$ بسیار مشکل دارم که در آن $T_{i}$ یک متغیر تصادفی است که بر اساس Birnbaum-Saunders توزیع شده است. توزیع آیا پیشنهادی در مورد نحوه محاسبه عبارت وجود دارد؟
|
محاسبه مقدار مورد انتظار BS2
|
86973
|
آیا کسی می تواند توضیح دهد که چرا رگرسیون ریج انتخاب ویژگی را انجام نمی دهد اگرچه از منظم سازی استفاده می کند؟ بنابراین، مانند LASSO ضرایب رگرسیون را جریمه میکند، اما چگونه میتوانیم از همه ویژگیها برای همه مقادیر لامبدا (پنالتی) در محدوده استفاده کنیم؟ چرا در صورت جریمه بالا به ضرایب صفر نمی رسیم؟ من می دانم که این یک سوال بسیار اساسی است، اما از هر پاسخی قدردانی می کنم. با تشکر
|
چرا رگرسیون رج انتخاب ویژگی را انجام نمی دهد، اگرچه از منظم سازی استفاده می کند؟
|
1866
|
به دنبال سوالات اخیری که در اینجا داشتیم. مشتاق بودم بدانم آیا کسی برخورد کرده است یا می تواند ** کد R را برای انجام تحلیل توان سفارشی بر اساس شبیه سازی برای یک مدل خطی به اشتراک بگذارد؟ مکان مناسب برای شروع با تشکر
|
نحوه شبیه سازی تحلیل توان سفارشی یک مدل lm (با استفاده از R)
|
19504
|
من در حال تنظیم یک تحلیل خطی از یک متغیر وابسته پیوسته منفرد، با چندین متغیر مستقل پیوسته (تا 11!) هستم. من علاقه مند به انجام کاری مانند ANCOVA هستم که سهم نسبی و تنوع مشترک بین متغیرها را نشان دهد. اما درک من این است که ANCOVA نیاز به داشتن یک متغیر طبقه بندی دارد، که داده های من ندارند. من قبلاً تجزیه و تحلیل رگرسیون چندگانه را انجام داده ام که یک شبکه همبستگی به دست می دهد، اما همواریاسیون بین متغیرها را نشان نمی دهد. آیا تحلیل دیگری وجود دارد که باید در نظر بگیرم؟ آیا باید داده های خود را مجبور کنم تا در تجزیه و تحلیل ANCOVA قرار گیرند؟ در اینجا نمونه ای از داده ها برای وضوح آورده شده است. DV iv1 iv2 iv3 iv4 iv5 iv6 -0.34 2.05 7.77 0.00 3.91 2.23 10.80 -0.40 2.23 0.53 3.14 1.67 3.34 13.93 0.00 - 0.24 2.33 13.95 -0.39 0.00 1.48 0.00 2.62 3.06 10.04 -0.32 0.79 0.00 0.00 5.51 3.94 10.24 0.24 0.24 0.00 0.00 0.00 0.00. 13.85 1.58 1.34 0.00 0.00 3.41 2.20 13.05 1.07 4.05 2.99 0.00 2.89 3.47 8.09 -0.44 2.31 1.81 0.05 - 0.05 2.94 2.68 0.00 10.29 1.47 11.76
|
متغیرهای مستقل پیوسته چندگانه، var وابسته تک: کدام تحلیل؟
|
21220
|
من یک دانشجوی دکترا هستم و در مورد اینکه چه آزمونی را برای تأیید آزمایش انتخاب کنم، مشکلاتی دارم. امیدوارم بتوانید به من کمک کنید! آزمایش من: من تعداد زیر مجموعه ای از سلول ها را در اضافه کاری مگس سرکه می شمارم. من یک جهش یافته و یک کنترل نوع وحشی دارم. من مگسها را در مقاطع زمانی مختلف تشریح میکنم: فقط بسته شده، 1 روز پس از بسته شدن، 3 dae، 6 dae، 9 dae، 12 dae و 15 dae. برای هر نقطه زمانی من یک عدد n حدود 50 برای نمونه دارم. تعداد نمونه بسته به روز و جهش یا نوع وحشی محدوده 0-9 دارد. مشکل: اتفاقی که با این سلولها میافتد این است که در جمعیت نوع وحشی، تعداد سلولها اضافه نمیشود، در حالی که در جهشیافتهها کاهش مییابد. علاوه بر این، جمعیت نوع وحشی به طور متوسط حدود 6 (در همه روزهای تشریح) است، در حالی که جهش یافته با 4 شروع می شود و به 2 کاهش می یابد. مانند tukey) برای نشان دادن تفاوت بین نوع وحشی و کنترل برای هر روز، اما در این سناریو یک آنوا فقط به من میگوید که همه نوع وحشی با همان جهشیافته جدا شده متفاوت هستند. (حتی در زمان eclosion!) به دلیل تفاوت اساسی آنها، یا اینکه مثلا mutant dae15 با جهش یافته dae0,1,3 متفاوت است. علاوه بر این، چیزی که من میخواهم با آن آزمایش کنم این نیست که نوع وحشی با جهش یافته در یک نقطه زمانی خاص متفاوت است، بلکه این است که تعداد جهشیافتهها به روشی متفاوت در مقایسه با اعداد کنترل کاهش مییابد. راهحلهای ممکن: یک احتمال میتواند انجام یک آنووا روی یک نمونه نرمالشده باشد: میتوانم هر عددی را تقسیم کنم (و منظورم اعداد واحد شمارش است، نه میانگین) که برای میانگین روز بسته شدن به دست میآورم، و یک آنووا انجام دهم. در این نسبت (بنابراین من میخواهم دو جمعیت را به روز انسداد عادی کنم و دیگر فرقی نمیکند که تعداد خام آنها متفاوت باشد)، اما چیزی به من میگوید که همه آمارها را به هم میزنم: من مطمئن نیستم که آیا این رویکرد از نظر آماری درست است یا خیر. احتمال دیگری که به آن فکر میکردم استفاده از نوعی تحلیل همبستگی یا رگرسیون است، اما در مثالی که پیدا کردم هرگز این رویکرد را در نوع آزمایشم پیدا نکردم، بنابراین مطمئن نیستم که چگونه آن را حل کنم. در کتابچههای مختلف، همیشه این نوع رویکرد را به آزمایشهای کوچکتر نشان میدهد، مانند مقایسه فشار خون و فرض قهوه، و با اعداد بسیار کمتر، بنابراین مطمئن نیستم که با پاک کردن 600 نقطه مختلف با هم چه نتیجهای خواهم داشت. امکان دیگر مقایسه شیب دو خط مختلف است، اما مطمئن نیستم که چگونه می توانم این کار را با توجه به همه شمارش های مختلف و نه تنها میانگین نهایی انجام دهم. کسی به آزمون کپلن مایر پیشنهاد داد، اما من نمیتوانم ببینم چگونه میتوان این نوع تستها (لوگرانک) را با در نظر گرفتن تمام شمارشهایی که یک نقطه زمانی تشکیل میدهند و نه تنها میانگین نهایی، اعمال کرد. اگر راهحل بهتری پیدا نکردم چگونه میخواهم این کار را انجام دهم: فقط یک آنووا (بله، یک مجموعه از شمارشها معمولاً توزیع میشود) روی اعداد خام انجام دهید و نشان دهید که اگرچه Wt Day0 و Day15 از نظر آماری متفاوت نیستند، در حالی که Day0 و Day15 از جهش یافته از نظر آماری متفاوت هستند (یا حتی Day0 از Day12 و غیره). شاید این کافی باشد و من فقط به این مشکل بیش از حد فکر می کنم، اما به نظر نمی رسد که به طور کامل آنچه را که تجزیه و تحلیل می کنم توصیف کند. اگر ایده ای دارید که چگونه می توان این مشکل را حل کرد، ممنون می شوم!
|
چه آزمون آماری برای خط زمانی شمارش سلول اعمال می شود؟
|
21221
|
من یک پرسشنامه دارم که در آن برخی از سؤالات مربوط به محدوده هستند، پاسخ های جایگزین عبارتند از: * 0 * 1 - 15 * 16 - 30 * 31 - 45 * 46 - 60 * 60+ (اعداد دقیقه در هفته هستند، نه اینکه مهم باشد ) اگر بخواهم نتیجه را به عنوان یک عدد متوسط ارائه کنم، چگونه این کار را انجام دهم؟ فکر من در حال حاضر این است که میانگین را در محدوده (1 - 15 => 7) در نظر بگیرم، چند بار انتخاب شده است. سپس آن را برای همه گزینه ها جمع کنید و بر تعداد کل پاسخ ها تقسیم کنید. هنوز مطمئن نیستم که چگونه با مقدار 60+ مدیریت شود. اما ساده به نظر می رسد و از آنجایی که به نظر مشکلی است که باید اغلب رخ دهد، ممکن است روش بهتری وجود داشته باشد. **ویرایش:** کمی پیشینه: نظرسنجی مربوط به منابع ناکارآمدی در محل کار است، مانند مشکلات کندی سرورها، کندی کامپیوتر، استفاده از برنامه های اشتباه و غیره. سوالات برای چندین حوزه و برای هر حوزه کاربر وجود دارد. به تخمین میزان زمان از دست رفته در هفته در آن منطقه خاص پاسخ خواهد داد. من به دنبال یک میانگین بودم زیرا فکر میکردم این روشی موثر برای ارائه نتایج است. به طور متوسط، یک توسعه دهنده X دقیقه در هفته را به دلیل یک محل کار ناکارآمد از دست می دهد. این بدان معناست که ما می توانیم در پول Y صرفه جویی کنیم اگر .... نیازی به دقیق بودن آن نیست، فقط به عنوان یک شاخص استفاده می شود و انگیزه ای برای تغییر ایجاد می کند.
|
مقدار متوسط از محدوده ها در یک نظرسنجی
|
21222
|
بهترین مراحل (توصیه شده) پیش پردازش قبل از اجرای k-means چیست؟
|
آیا عادی سازی میانگین و مقیاس بندی ویژگی برای خوشه بندی k-means مورد نیاز است؟
|
1863
|
من یک آزمایش اندازه گیری مکرر درون آزمودنی ها را اجرا کردم که در آن متغیر مستقل دارای 3 سطح بود. متغیر وابسته معیار صحت است و به صورت صحیح / نادرست ثبت می شود. زمان صرف شده برای ارائه پاسخ نیز ثبت شد. ANOVA اندازه گیری های مکرر درون آزمودنی ها برای تعیین اینکه آیا تفاوت معنی داری در صحت (DV) بین 3 سطح IV وجود دارد یا خیر، استفاده می شود. اکنون، میخواهم تجزیه و تحلیل کنم که آیا در زمانی که پاسخها 1) صحیح و 2) نادرست هستند، تفاوت قابل توجهی در زمان ارائه پاسخها وجود دارد. مشکل من این است: در سراسر سطوح، تعداد متفاوتی از پاسخ های صحیح / نادرست وجود دارد، به عنوان مثال. سطح 1 دارای 67 پاسخ صحیح، سطح 2 دارای 30 پاسخ، سطح 3 دارای 25 پاسخ است. چگونه می توانم زمان صرف شده برای همه پاسخ های صحیح را در 3 سطح مقایسه کنم؟ من فکر می کنم این به معنای عدم تعادل آن است؟ آیا می توانم 3 ANOVAS یک طرفه را برای انجام یک مقایسه زوجی انجام دهم، در حالی که برای محاسبه هر مقایسه، p را به سمت پایین تنظیم کنم؟ با تشکر
|
ممکن است یک نامتعادل در افراد اقدامات مکرر؟
|
28242
|
بر اساس پاسخهای سؤال نحوه ترسیم نمودار کنار هم که در «نمایش گرافیکی بهعنوان کمکی برای تجزیه و تحلیل» ذکر شد، من خودم در نظر دارم این تابع را پیادهسازی کنم. مشکل این است که من نمی دانم چگونه از نتیجه تابع aov() استفاده کنم. باید ببینم چند فاکتور وجود دارد، نام فاکتورها، اثرات اصلی و اثرات متقابل آنها چیست، و غیره. من با مستندات «aov()» مشورت کردم، اما هنوز هیچ سرنخی برای انجام این کار ندارم. باید راه دیگری بسیار پیچیده غیر از چیزی مانند «t.test(x,y)$p.value» باشد. کمکم می کنی؟
|
چگونه از نتیجه عملکرد aov استفاده کنیم؟
|
65750
|
سلام من به دنبال حل المسائل بهینه سازی محدب قوی در پایتون هستم. مشکل من خیلی پیچیده نیست، اساسا یک برنامه qp محدود ساده است. من از توزیع رایگان پایتون 2.7 Enthought بر روی یک دستگاه ویندوز 64 بیتی استفاده می کنم. من به http://cvxopt.org/install/index.html برخوردم که نصب این روی ویندوز خیلی آسان به نظر نمی رسد. به موسک هم برخوردم که کمی زیاده روی به نظر می رسد. آیا کسی راه حل خوبی می شناسد، آیا مردم از cvxopt در ویندوز استفاده می کنند؟
|
بهینه سازی محدب پایتون
|
1865
|
عرشه استاندارد دارای 52 کارت، 26 کارت قرمز و 26 کارت سیاه است. یک اجرا حداکثر بلوک به هم پیوسته از کارت ها است که همان رنگ را دارد. به عنوان مثال * (R,B,R,B,...,R,B) دارای 52 ران است. * (R,R,R,...,R,B,B,B,...,B) دارای 2 اجرا می باشد. تعداد مورد انتظار دویدن در یک دسته کارت های به هم ریخته چقدر است؟
|
تعداد مورد انتظار اجراهای همرنگ در یک دسته استاندارد کارت چقدر است؟
|
11734
|
من یک anova سه طرفه با مجموع مربع های نوع III در c++ پیاده سازی کرده ام. از آنجایی که برخی از آزمایشهای من (مشاهدات) مهمتر هستند (آموزندهتر)، میخواهم به آنها وزن بالاتری در تحلیل خود بدهم. به عنوان مثال، آزمایشی که بسیار مهم است دارای وزن 10 و آزمایش نسبتاً مهم دارای وزن 5 و غیره است. برای اجرای آن، چنین مشاهداتی را با توجه به وزن متناظر آن، 10 بار، 5 بار، تکرار می کنم، ... من از همان مفهوم در 2way anova استفاده کردم، اما در آنجا از فرمول های معمولی مجموع مربع ها استفاده کردم، زیرا طراحی من متعادل بود. . بنابراین من فقط مقدار هر مشاهده و تعداد دفعاتی که آن را دیده ام در وزن ضرب کردم. در اینجا، تکرار موارد، ماتریس طراحی را بسیار بزرگ می کند و پیچیدگی محاسباتی را افزایش می دهد. حالا مشکل اینجاست که اگر نخواهم آنها را تکرار کنم، اما از ماتریس وزن استفاده کنم، چطور؟ و اگر وزن ها مقادیر صحیح نباشند (بنابراین من واقعا نمی توانم یک مورد را 0.3 بار تکرار کنم) چه می شود؟ من این فرمول را اینجا پیدا کردم: H^=X(X'WX)-1XW بنابراین وزن هایم را در ماتریس W قرار دادم و از این فرمول استفاده کردم. برای بررسی اینکه آیا کار می کند، از روش معمولی و مشاهدات تکراری به اندازه وزن استفاده کردم و آن را به متلب دادم. اما من مقادیر مختلف SS دریافت کردم. لطفاً لطفاً به من بگویید چگونه باید این فرمول را تغییر دهم؟ با تشکر
|
چگونه یک ANOVA وزنی سه طرفه را در طراحی نامتعادل پیاده سازی کنیم؟
|
17066
|
بهترین طبقه بندی کننده کلاس 2 خارج از جعبه چیست؟ بله، حدس میزنم این سوال میلیون دلاری است، و بله، من از قضیه نهار مجانی خبر ندارم و سوالات قبلی را نیز خواندهام: * نظرسنجی: بهترین خارج از جعبه چیست 2- طبقه بندی کننده کلاس برای برنامه شما؟ * و بدترین طبقه بندی با این حال، من علاقه مند به خواندن بیشتر در مورد این موضوع هستم. منبع اطلاعات خوبی که شامل مقایسه کلی ویژگی ها، مزیت ها و ویژگی های طبقه بندی کننده های مختلف باشد چیست؟
|
یک منبع خوب که شامل مقایسه مزایا و معایب طبقهبندیکنندههای مختلف باشد چیست؟
|
81074
|
مدرس من فقط ** قضیه حد مرکزی لیندبرگ-لوی** و نسخه چند متغیره ** CLT کاملتر لیندبرگ** را پوشش داد. من مفهوم اصلی را درک کردم و می توانم آن را استخراج کنم، و غیره. اما اگر کسی بتواند توضیح دهد که چگونه همه اینها در برنامه های زندگی واقعی تحلیل **اقتصاد سنجی** استفاده می شود، به درک من کمک زیادی می کند؟ من برخی ادعاها را خوانده ام که CLT فقط روی یک تکه کاغذ خوب است. برخی از برنامهها یا مراجع واقعاً جالب در صنعت قدردانی میشوند.
|
CLT چقدر در برنامه ها مفید است؟
|
69613
|
من خواندم که وقتی یک سری را با لگاریتم تبدیل می کنیم و سپس تابع معکوس را اعمال می کنیم، بایاس وجود دارد، اما فقط در پیش بینی مقادیر میانگین. منظورش رو دقیقا متوجه نمیشم در کتاب سری های زمانی مقدماتی با R، بخشی در مورد این موضوع وجود دارد: > تعصب در میانگین در نتیجه اعمال تبدیل معکوس > به یک سری باقی مانده به وجود می آید. به عنوان مثال، اگر سری های زمانی سفید گاوسی > نویز $w_{t}$، با میانگین صفر و انحراف استاندارد σ باشند، پس توزیع > تبدیل معکوس (ضد ورود) سری log-> نرمال است. با میانگین $e^{σ ^{2}/2}$. این را می توان از نظر تئوری یا > به صورت تجربی با شبیه سازی در کد زیر تأیید کرد: set.seed(1) sigma <- 1 w <- rnorm(1e+06, sd = sigma) mean(w) [1] 4.69e- 05 > mean(exp(w)) [1] 1.65 > exp(sigma^2/2) [1] 1.65 > کد در بالا نشان می دهد که میانگین ضد ورود به سیستم نویز سفید گاوسی > و میانگین مورد انتظار از توزیع log-normal برابر هستند. از این رو، > برای یک سری باقیمانده نویز سفید گاوسی، ضریب تصحیح > $e^{σ^{2}/2}$ باید برای پیشبینی میانگینها اعمال شود. در همان بخش، میگوید که پیشبینی تعدیلشده {$x'_{t}$} با ضریب تصحیح تجربی این است: $$\hat{x}'_{t} = e^{\hat{\log x_ {t}}}\sum_{t=1}^{n}\frac{e^z_{t}}{n}$$ که $\hat{\log x_{t}}$ سری پیشبینیشده توسط را مدل رگرسیون لگ کسی میدونه این یعنی چی؟ تا آنجا که من متوجه شدم، زمانی که ما یک لگاریتم را به یک سری اعمال می کنیم و یک مدل (خطی) را به مقادیر به دست می آوریم، به صورت زیر عمل می کنیم: $$\log x_{t} = \alpha t + \beta + z_{ t}$$ که در آن $z_{t}$ باقی مانده است. بنابراین، من فکر می کنم که تبدیل معکوس با: $$x_{t} = e^{\alpha t + \beta} e^{z_{t}}$$ داده می شود، اما، پیش بینی میانگین ها چیست و چگونه است. آیا در این رویه دخالت دارد؟ حدس میزنم $\displaystyle \frac{e^z_{t}}{n}$ باشد، اما نمیتوانم توجیهی ببینم. **UPDATE**: فرض کنید از مدلی که در بالا توضیح داده شد برای پیشبینی برخی مقادیر $p_{t}$ استفاده میکنیم. از آنجایی که ما از یک تبدیل لگاریتمی استفاده کردیم، برای برگرداندن آن، باید این کار را برای همه $t$ جدید انجام دهیم: $$\exp{p_{ŧ}}$$ با این حال، کتاب می گوید که برای اعمال تصحیح برای هر جدید مقدار پیشبینیشده، باید این کار را انجام دهیم: $$p_{\text{t}}^{\text{corrected}} = p_{t} \frac {1}{n}\sum_{t=1}^{n} e^{\hat z_t}$$ چرا؟ من فکر می کردم که میانگین پیش بینی مغرضانه است اما مقادیر فردی آن نیست.
|
تصحیح بایاس تبدیلات لگاریتمی
|
28246
|
من تعریف AIC برای مدل پارامتری را یاد گرفتم. اما چیزی که می خواهم بدانم این است که آیا نسخه نیمه پارامتریک AIC وجود دارد؟ آیا در مورد آن شنیده اید؟ و اگر می دانی لطفا لینکی را به من نشان بده تا ببینم.
|
AIC برای مدل نیمه پارامتریک
|
49487
|
من می خواهم روابط بین دسته بندی سایت ها و فراوانی گونه ها را از طریق PCoA یا CAP با استفاده از Vegan::capscale مطالعه کنم. برای انجام این کار، نمرات گونهها را روی انتصابم قرار میدهم. با این حال، من با گزینه های مختلف مقیاس بندی و تفسیر آنها گیج می شوم. از آنچه من فهمیدم: با scaling=1، فلش جهتی را از مبدأ نشان می دهد که سایت ها برای این گونه فراوانی بیشتری دارند. با مقیاسبندی=2، میخواهیم همبستگی بین گونهها را تحلیل کنیم. انتظار میرود گونههایی که زاویه کمی بین فلشهایشان دارند، همبستگی مثبت قوی داشته باشند. با مقیاسبندی=-2، const=sqrt(nrow(dune)-1)، همبستگی بین گونهها و محورها به دست میآید. این از Jari Oksanen می آید. من 3 گزینه مختلف را مقایسه کردم (کدهای زیر را ببینید)، به نظر می رسد تفاوت ها فقط به طول فلش مربوط می شود. از این رو، با توجه به اینکه مهم ترین آنها طول نسبی فلش ها (نسبت به یکدیگر) است، آیا من مجاز به استفاده از مقیاس 2-= (همبستگی محورهای گونه) هستم برای تجزیه و تحلیل همبستگی های مکان- گونه و همبستگی گونه-گونه؟ یک سوال دیگر، آیا آستانه قابل قبولی در ارزش همبستگی گونه-محور وجود دارد، که زیر آن در نظر می گیریم که گونه ها همبستگی ندارند (منظورم این است که گونه ها از نظر فراوانی در سایت ها تفاوت ندارند، به استثنای موارد روابط غیر خطی) . اگر بله، این تغییر آستانه را بسته به روش مقیاسبندی مورد استفاده و اینکه ترتیب محدود است یا خیر، انجام دهید. علاوه بر این، اگر بخواهم یک بردار را برای یک متغیر کمی محیطی قرار دهم، میتوانم از مقیاسبندی=-2 نیز استفاده کنم، از کدام آستانه همبستگی؟ library(vegan) library(ggplot2) library(grid) data(dune) data(dune.env) dune=sqrt(dune) mcap=capscale(dune~1,dist=bray) #PCoA #sites scores dims=c (1،2) site=scores(mcap,display=wa,choices=dims) site.env=cbind(site,dune.env) #spider برای سطوح مدیریت dev.new();plot(mcap);coord_spider=with(dune.env,ordispider(mcap,Management,col=blue,label= F,choices=dims));dev.off() coord_spider=as.data.frame(cbind(coord_spider[,],site.env)) names(coord_spider)[1:4]=c(MDS1,MDS2, MDS1end،MDS2end) #species امتیازات #scaling1 cor.min=0.6 #زیر این آستانه، فلش ها رسم نمی شوند زیرا همبستگی بیش از حد هفته در نظر گرفته می شود cor_sp=as.data.frame(scores(mcap, dis=sp, scaling=1,choices=dims)) cor_sp$cor=with(cor_sp,sqrt(MDS1^2+MDS2^2)) cor_sp$sup= FALSE;cor_sp$sup[cor_sp$cor>=cor.min]<-TRUE cor_sp$lab=row.names(cor_sp) cor_sp=cor_sp[cor_sp$sup==TRUE,] cor_sp_s1=cor_sp #scaling2 cor.min=0.6 #زیر این آستانه، فلشها رسم نمیشوند زیرا همبستگی بیش از حد هفته در نظر گرفته میشود cor_sp=as.data.frame(scores(mcap , dis=sp, scaling=2,choices=dims)) cor_sp$cor=with(cor_sp,sqrt(MDS1^2+MDS2^2)) cor_sp$sup=FALSE;cor_sp$sup[cor_sp$cor>=cor.min]<-TRUE cor_sp$lab=row.names(cor_sp ) cor_sp=cor_sp[cor_sp$sup==TRUE،] cor_sp_s2=cor_sp #مقیاسسازی -2، همبستگی بین گونه ها و محورها #از Jari Oksanen در https://stat.ethz.ch/pipermail/r-sig-ecology/2010-August/001448.html cor.min=0.6 #زیر این آستانه، فلش ها رسم نمی شوند زیرا همبستگی بیش از حد هفته در نظر گرفته می شود cor_sp=as.data.frame(scores(mcap, dis=sp, scaling=-2, const = sqrt(nrow(dune)-1),choices=dims)) cor_sp$cor=with(cor_sp,sqrt(MDS1^2+MDS2^2)) cor_sp$sup=FALSE;cor_sp$sup [cor_sp$cor>=cor.min]<-TRUE cor_sp$lab=row.names(cor_sp) cor_sp=cor_sp[cor_sp$sup==TRUE،] cor_sp_s3=cor_sp #plot mon.plot1=ggplot(data=site.env)+theme_bw()+ geom_point(aes(x=MDS1,y=MDS2,color=Management) )# les sites #add spider mon.plot2=mon.plot1+ geom_segment(data=coord_spider,aes(x=MDS1,y=MDS2,xend=MDS1end,yend=MDS2end,colour=Management),lwd=0.5,alpha=1/3)+ geom_point(data=coord_spider,aes(x=MDS1,y=MDS2,colour=Management),cex=3,shape=19) #نمرات گونه ها را به عنوان بردار اضافه کنید #scaling1 mon.plot_s1=mon.plot2+ggtitle(مقیاس سازی 1 )+ geom_point(aes(x=0,y=0),shape=21,fill=black,color=black,size=3)+#central point geom_segment(data=cor_sp_s1,aes(x=0,y =0،xend=MDS1،yend=MDS2)،پیکان = پیکان(طول = واحد(0.3cm)))+#فلش geom_text(data = cor_sp_s1، aes(x = MDS1، y = MDS2، label = lab)، اندازه = 3)#labels #scaling2 mon.plot_s2=mon.plot2+ggtitle(مقیاس سازی 2)+ geom_point(aes(x=0,y=0),shape=21,fill=black,color=black,size=3)+#central point geom_segment(data=cor_sp_s2,aes(x=0,y =0،xend=MDS1،yend=MDS2)،پیکان = پیکان(طول = واحد(0.3cm)))+#فلش geom_text(data = cor_sp_s2، aes(x = MDS1، y = MDS2، label = lab)، اندازه = 3)#labels #scaling -2، همبستگی بین گونهها و محورها mon.plot_s3=mon.plot2+ggtitle(مقیاسسازی - 2)+ geom_point(aes(x=0,y=0),shape=21,fill=black,color=black,size=3)+#central point geom_segment(d
|
روش های مقیاس بندی گونه ها در PCoA یا CAP با استفاده از وگان::capscale؟
|
28245
|
توزیع تک جمله زیر چگونه است؟ $$X^a \cdot Y^b$$ که در آن $X$ و $Y$ متغیرهای تصادفی عادی هستند و $a$ و $b$ اعداد طبیعی هستند. برای مثال، وقتی $X \sim N(0,1)$، $a=2$، و $b=0$ یک توزیع Chi-squared است که دارای واریانس 2 است. اگر $n$ داشته باشیم چه می شود. متغیرهای مستقل $X_1، X_2، \dots، X_n$، با $X_i \sim N(0،\sigma^2)$ و برخی اعداد طبیعی $p_1، p_2، \dots,p_n$. در مورد واریانس r.v. زیر چه می توانیم بگوییم؟ $X_1^{p_1} \cdot X_2^{p_2} \cdots X_n^{p_n}$$
|
توزیع تک اسمی $X^a \cdot Y^b$
|
46368
|
آیا کسی می تواند به من بگوید که تجزیه و تحلیل اعتبار متقاطع دقیقاً چه نتیجه ای می دهد؟ آیا فقط دقت متوسط است یا هر مدلی را با پارامترهای تنظیم شده می دهد؟ چون، جایی شنیدم که از اعتبارسنجی متقاطع برای تنظیم پارامتر استفاده می شود.
|
اعتبار سنجی متقاطع و تنظیم پارامتر
|
43626
|
من یک مدل حداقل مربعات جزئی را تخمین زدم که در آن ماتریس X دارای ستون های نرمال شده بود. اکنون میخواهم مقدار را برای یک نمونه جدید پیشبینی کنم (که یک بردار فرکانس است که با یک جمع میشود.) فرض میکنم اگر فقط از مقادیر فرکانس خام استفاده کنم، مقدار پیشبینیشده در همان مقیاس سناریویی نخواهد بود نمونه جدید از ماتریس نرمال شده X گرفته شد. (یعنی مقایسه مقادیر برازش شده مدل با مقدار پیشبینیشده نمونه جدید.) من به این فکر میکردم که نمونه جدید را به عنوان ردیف پایینی ماتریس X غیرعادیشده اصلی اضافه کنم، عادیسازی کنم، و سپس از مقادیر این ردیف پایین جدید استفاده کنم. برای پیش بینی از طرف دیگر، میتوانم با استفاده از میانگین ستون و انحرافات استاندارد از X غیرعادیشده اصلی استانداردسازی کنم. آیا یک روش بر روش دیگر ترجیح داده میشود؟ آیا راه بهتری وجود دارد؟
|
چگونه ارزش نمونه جدید را پیشبینی میکنید، زمانی که دادههای آموزشی عادی شدند؟
|
46360
|
اخیرا مقالهای خواندم که در آن نویسندگان ادعا میکنند که برای مقایسه عملکرد پیشبینی دو مدل غیر تودرتو، مدلهای A و B، یک روش معتبر این است که مدلهای A و B را بر روی یک مجموعه داده برازش کنیم و میانگین را مقایسه کنیم. احتمال مدلهای برازش شده در مجموعه دادههای نگهدارنده محاسبه شده است. تنها چیزی که لازم است این است که مدل های A و B به صورت چگالی احتمال برای یک متغیر بیان شوند. من از زبان مقاله استفاده میکنم: بهطور دقیق، مقادیری که مقایسه میشوند، مدلهای برازشی هستند که در نقاط داده ارزیابی میشوند، نه احتمالات. با پذیرش این احتمال به عنوان معیار دقت پیشبینی، این روش برای بررسی صحت پیشبینی جذابیت بصری دارد، اگرچه من تردید دارم. آیا می توان این احتمالات را به طور معناداری بدون نوعی عادی سازی مقایسه کرد؟ احتمالات خارج از نمونه به یک نمی رسد. من نمیتوانم مثال سادهای بیاورم که در آن این آزمایش نتیجه جعلی بدهد. به روز رسانی: من توانستم یک مثال ساده تولید کنم که در آن مقایسه مستقیم احتمالات خارج از نمونه یک نتیجه گمراه کننده به دست آورد: اجازه دهید متغیر وابسته y یک روند خطی به اضافه عبارت خطای معمولی توزیع شده باشد، و اجازه دهید متغیر توضیحی x یک روند خطی به اضافه باشد. عبارت خطای عادی توزیع شده مستقل 100 امتیاز برای y و x ایجاد کنید. مدل A یک رگرسیون خطی است، در حالی که برای مدل B من از یک رگرسیون با خطاهای Student-t توزیع شده (با دو درجه آزادی) استفاده کردم. من روی 50 امتیاز اول تمرین کردم و در ست دوم 50 امتیازی تست کردم و با تمرین و ست های تست به جای هم تکرار کردم. من با سه انتخاب واریانس برای فرآیند تولید داده تکرار کردم. مدل B میانگین بالاتری را از احتمال نمونه در همه موارد ارائه کرد. این مثال کمی ساختگی است اما نگرانی من را نشان می دهد.
|
مقایسه مدلهای غیر تودرتو با احتمال خارج از نمونه
|
90747
|
اگر دوست دارم درگیری و شیب تصادفی متناسب باشم و اگر آن را به عنوان (رنگ | نویسنده) در مقایسه با (1+رنگ | نویسنده) بنویسم ، آیا آنها یکسان هستند؟
|
برازش بریدگی و شیب تصادفی در lmer برای lme4.
|
104941
|
من از R برای تجزیه و تحلیل داده ها استفاده می کنم. R یک تابع corr برای محاسبه همبستگی ارائه می دهد. این تابع سه رویکرد/الگوریتم مختلف را برای تخمین «corr» ارائه میکند که پیرسون، اسپیرمن و کندال هستند. چه زمانی باید از هر یک از این روش ها استفاده کنم؟ چه عواملی تعیین می کند که کدام روش باید استفاده شود؟
|
چه زمانی باید از هر یک از این روش ها برای محاسبه همبستگی استفاده کنم؟
|
81079
|
مشکل اینجاست: من در حال ساخت یک الگوریتم یادگیری ماشین هستم که ورودی و خروجی برخی از نرمافزارهایی که نوشتهام را میگیرد و نمیدانم چند خط داده تولید کنم تا به نتایجی برسم که «خوب» هستند. من متوجه هستم که پاسخ این است هرچه بیشتر بهتر اما من به دنبال هر نوع حداقل نیاز هستم. من همچنین متوجه هستم که هر چه تعداد متغیرها بیشتر باشد، تعداد خطوط داده بیشتر مورد نیاز است. بنابراین من به دنبال یک قانون سرانگشتی برای تعداد متغیرها به تعداد خطوط داده هستم.
|
آیا روش ساده ای برای محاسبه حداقل تعداد خطوط داده مورد نیاز برای الگوریتم یادگیری ماشین با متغیرهای x وجود دارد؟
|
68054
|
من سعی می کنم بفهمم دقیقاً چه چیزی در مرحله E الگوریتم تخمین زده شده است. طبق تمام تعاریف، در مرحله E، مقادیر انتظار شرطی، یا احتمالات پسین متغیرهای پنهان با استفاده از فرمول بیز (احتمال پسین=پیش (یا احتمال حاشیه) x احتمال/احتمال شواهد) محاسبه می شود. حال، سوال من این است که آیا این احتمالات پسینی که من «تخمین میزنم» یا «محاسبه میکنم» در واقع اعداد هستند یا با توجه به پارامترهای تکرار فعلی (و آنهایی هستند که باید به M-step وصل کنم) توابعی هستند؟ جایی که احتمال شواهد محتمل است، با argmax قبلی محاسبه شده در مرحله M قبلی محاسبه شده است.
|
مرحله الکترونیکی در الگوریتم EM با استفاده از برآورد MAP (مدل های مارکوف مختلط)، چه چیزی را محاسبه می کند؟
|
80283
|
من تجزیه و تحلیل مؤلفه های اصلی را بر روی متغیرهای پیوسته که 16 زبان را توصیف می کنند، انجام دادم. با استفاده از دو محور اول که 76% واریانس را توضیح می دهند، باید فاصله بین هر جفت زبان را همانطور که در دو محور اول نشان داده شده است محاسبه کنم. برای آزمایش در آزمون مانتل همبستگی بین فواصل در متغیرهای زبانی و فواصل جغرافیایی. کسی می تواند به من کمک کند: چگونه می توانم این کار را انجام دهم؟ به سلامتی
|
PCA در مورد متغیرهای زبانی: فاصله زبان ها چقدر است؟
|
90744
|
بیایید بگوییم که من یک عکس مانند تصویر دارم. این شبیه یک هیستوگرام است، اما در واقع اینطور نیست، به این معنا که من شکل را از مجموعه دادهای از مقادیر شروع نکردم. در واقع، من فقط احتمال (محور y) را برای هر نوار دارم. من همچنین نقطه مرکزی هر سطل و عرض سطل هر سطل را دارم. توجه داشته باشید که نمودار نرمال شده است به طوری که مساحت زیر سطل ها برابر با یک باشد.  کاری که اکنون میخواهم انجام دهم، محاسبه متقابل این احتمالات است. معمولا من از این فرمول استفاده می کنم: $g(y) = \frac{ 1 }{ y^2 } f\left( \frac{ 1 }{ y } \right) $ اما اکنون نمی توانم این کار را انجام دهم. می خواهید هر f(x) را فرض کنید. با داشتن یک هیستوگرام، من فقط (1./dataset) را رسم می کنم تا متقابل (به شکل هیستوگرام) را به دست بیاورم، و سپس نرمال می کنم (با این فرض که مجموعه داده اصلی قبلاً مانند نمونه در حالت عادی نرمال سازی نشده است) تقریب خوبی از توزیع نرخ دارند. با این حال، در این مورد، من مجموعه داده را ندارم. من فقط نقاط y (در واقع p(x) و x (مرکز bin برای هر bin) را دارم. به من توصیه شده است که از فرمول زیر (در متلب) استفاده کنم: plot(1./x, y) و این به من تابعی با همان شکل تابع متقابل می دهد، اما نرمال سازی نشده است. من _فکر می کنم_ می توانم این نتیجه را بگیرم و آن را عادی کنم، و این باید خوب کار کند. با این حال، نمی دانم آیا روش دیگری وجود دارد که فقط از x و p(x) برای بدست آوردن مقادیر متقابل استفاده کند. متشکرم.
|
چگونه از x و p(x) نمودار متقابل بدست آوریم؟
|
11739
|
یک درمان به یک دست آزمودنی داده شد و یک متریک پیامد واحد برای هر دو دست، دو بار قبل و چندین بار پس از درمان اندازهگیری شد. بهترین روش برای ارزیابی اثربخشی درمان چیست؟ «گروههای» درمانشده و درماننشده واقعاً جفت هستند.
|
قبل و بعد، درمان شده و درمان نشده اما از یک موضوع
|
1860
|
من در حال مطالعه جمعیتی از افراد هستم که همگی با یک امتیاز قابل اندازه گیری علاقه (از 2- تا 2) شروع می کنند [آن را قدیمی می نامند]، سپس همه آنها به یک نمره جدید تغییر می کنند (همچنین از 2- تا 2 متغیر است. ) [جدید]. بنابراین تمام تغییرات در تغییر است (که می تواند مثبت یا منفی باشد)، و همچنین انواع مختلفی از پیش بینی ها وجود دارد که به توضیح تنوع در میزان تغییر کمک می کنند. مدل اولیه من به سادگی این است: تغییر = a + bx + e که در آن x بردار پیش بینی من است. اما اکنون نگران این هستم که برخی از این پیش بینی کننده ها با نمره پایه (قدیمی) مرتبط باشند. پس آیا این مشخصات بهتری است؟ تغییر = a + bx + قدیمی + e یا شاید جدید = a + bx + قدیمی + e با تشکر!
|
انتخاب های مشخصات رگرسیون
|
43627
|
کار من شامل ساخت مدلهای آماری/اقتصادی با استفاده از مدلساز R و SPSS است. همچنین در حال گذراندن دوره دکتری (پاره وقت) اقتصاد سنجی هستم. به منظور انجام تجسم داده ها / مدل های پیشرفته تر، در حال فکر کردن به انتخاب یک زبان برنامه نویسی دیگر هستم. هر پیشنهادی بسیار قدردانی خواهد شد.
|
یادگیری یک زبان برنامه نویسی اضافی (غیر از R)؟
|
60702
|
من متوجه شدم که در توزیع Normal، احتمال $P(x=c)$ برابر با صفر است، در حالی که برای توزیع پواسون، زمانی که $c$ یک عدد صحیح غیر منفی باشد، برابر صفر نخواهد بود. سوال من این است: آیا احتمال وجود هر ثابتی در توزیع نرمال برابر با صفر است زیرا مساحت زیر هر منحنی را نشان می دهد؟ یا فقط یک قانون برای حفظ کردن است؟
|
چرا برای هر مقدار معینی از توزیع نرمال احتمال صفر است؟
|
43622
|
یک تابع ضرر خوب برای یک مدل پیشبینی که توسط قماربازان استفاده میشود چیست؟ من اخیراً کمی در مورد توابع از دست دادن مطالعه کرده ام. من همیشه فقط با MSE رفتم (مثلاً برای چند پروژه شبکه عصبی) و سوالی نپرسیدم. من دقیقا متوجه نشدم که MSE واقعا چقدر دلخواه است. و با صحبت در مورد این، آیا کسی می تواند یک موقعیت عملی ساده را توضیح دهد که در آن MSE می تواند به عنوان تابع ضرر صحیح مشتق شود؟ به هر حال، من با Log-Loss (که همان آنتروپی متقاطع است) برخورد کردم و به دلیل کنجکاوی در مورد برخی از مدل های احتمالی علاقه مند هستم. من میدانم که چگونه میتوان این تابع ضرر را از نظریه اطلاعات استخراج کرد، اما وقتی در مورد احتمالات صحبت میکنیم، اغلب درگیر نوعی قمار بر روی یک نتیجه هستیم. برای من روشن نیست که انتقال کارآمد اطلاعات به نوع ابزاری که معمولاً در یک مدل پیشبینیکننده/احتمالی به دنبال آن است، ترجمه میشود. برای مثال، اگر من مدلی داشتم که قرار بود برنده انتخابات ریاست جمهوری 2012 ایالات متحده را پیش بینی کند، و از آن برای جابجایی پول در بازار آینده مانند Intrade استفاده کرده بودم، چگونه می توانم یک تابع ضرر را برای پیش بینی خود تعیین کنم - با فرض اینکه بتوانم با نوسانات بازار به شرط بندی ادامه دهم؟ برای هر بازاری که من میتوانم در مورد وقوع رویدادی شرطبندی کنم، باید یک نوع چیز مشابه اعمال شود. یا واقعاً این پشیمانی است و آیا پشیمانی کاملاً متفاوت از عملکرد از دست دادن است؟
|
یک عملکرد باخت قمار؟
|
112526
|
من در حال حاضر روی پروژه ای کار می کنم که در آن باید مقادیر پرت را از مجموعه داده های غیرعادی توزیع شده حذف کنم. مجموعه دادهها زیرمجموعههای یک پایگاه داده نسبتاً بزرگ (مرتب از میلیونها مشاهده) هستند که به گروههایی از 30 تا 200+ مشاهدات بر اساس نوع محصول مورد بررسی تقسیم شدهاند. دادهها، دادههای قیمتگذاری هستند که میتوانند در مجموعه دادهها غیرعادی باشند به دلیل احتمال سفارشهای عجلهای و انواع دیگر شرایط غیرعادی که تحت آن خرید انجام میشود که میتواند قیمتها را بالاتر یا پایینتر از محدوده معمولی افزایش دهد. مشکل در تلاش برای شناسایی این مقادیر پرت این است که همه گروههای مشاهدات از توزیع نرمال پیروی نمیکنند، بنابراین آزمایشهای پرت بر اساس نرمال بودن در آزمایش مقادیر پرت در این نوع دادهها دقیق نیستند. رویکرد فعلی من برای این مشکل اندازهگیری انحراف استاندارد از میانگین برای پرچمگذاری همه مقادیر کمتر از سه انحراف از میانگین گروه است، این برای پرچمگذاری مشاهدات برای بررسی اداری بعداً استفاده میشود. سپس چولگی را با استفاده از ضریب چولگی پیرسون اندازه گیری می کنم. اگر مقدار این آمار فراتر از یک آستانه معین ±. . این اندازه گیری چولگی با یک اندازه گیری جدید چولگی در هر تکرار با همان نوع حذف مشاهدات بر اساس پارامتر ذکر شده در پاراگراف قبلی تکرار می شود. سپس مقادیر حذف شده به بررسی اداری داده می شود تا مشخص شود که آیا آنها مقادیر پرت واقعی هستند یا خیر، با توجه ویژه به مقادیر در 3 انحراف استاندارد. آیا این رویکرد خوبی برای حذف موارد پرت در این مورد است؟ من تجربه زیادی با تشخیص پرت در دادههایی که به توزیع عادی تعلق ندارند، ندارم. بنابراین مراحل ذکر شده به صراحت عبارتند از 1. محاسبه انحراف از میانگین برای هر مشاهده 2. محاسبه چولگی مخزن مشاهده در صورت چولگی>. 4 حذف مشاهدات صدک 99 در صورت چولگی<.4 حذف مشاهدات صدک 1. 3. مقادیر حذف شده سپس در زیر قرار می گیرند. بررسی برای تعیین وضعیت پرت با توجه ویژه به مقادیر در 3 انحراف استاندارد از میانگین.
|
حذف پرت در داده های غیر عادی
|
90740
|
من در زمینه پردازش تصویر مبتدی هستم، و من اصطلاحات زیادی را که عجیب و غریب است. وجود دارد: 1. لحظه ها 2. مشخصه های محلی و جهانی 3. انرژی تصویر 4. دمای رنگ هر کدام از آنها چه چیزی را در تصویر نشان می دهند؟
|
انرژی معنای این اصطلاح در پردازش تصویر چیست؟
|
43629
|
بیایید فرض کنیم پیشبینیکنندههای x1-x5 و متغیرهای وابسته y1-y9 در یک مجموعه داده داریم. ما یک فرضیه خاص در مورد x1 داریم: این فرضیه باید تأثیرات متفاوتی بر 9 متغیر وابسته y1-y9 ما داشته باشد. ما 9 رگرسیون انجام می دهیم، و متوجه می شویم که x1 به طور قابل توجهی تمام y را با p<.001 پیش بینی می کند. اکنون میخواهیم بفهمیم که آیا این تأثیرات (بسیار قابل توجه) با یکدیگر متفاوت هستند (فقط به این دلیل که تأثیرات قابل توجهی دارند به این معنی نیست که آنها به یک اندازه قوی هستند). دو سوال: (1) چه اطلاعاتی که یک رگرسیون در اختیار ما قرار می دهد به ما بینشی نسبت به این سوال می دهد؟ بتا غیر استاندارد؟ بتا استاندارد شده؟ تی (2) آیا آزمون آماری وجود دارد که بتوانیم برای یافتن اینکه آیا نقاط قوت پیش بینی ها بین (y1 ON x1) و (y2 ON x1) و (y3 ON x1) متفاوت است یا خیر، انجام دهیم؟ نرم افزاری که می توانم استفاده کنم R و SPSS است. رشته روانشناسی/پزشکی است.
|
مقایسه اثرات y1 ON x در مقابل y2 ON x در رگرسیون های مختلف
|
81071
|
کدام ضریب همبستگی برای مقایسه 2 سری زمانی مناسب تر است؟ من می خواهم تغییرات یک متغیر را برای 2 منطقه مقایسه کنم، داده های منطقه ای 30 سال گذشته را داشته باشم. آیا همبستگی پیرسون خوب است یا باید به tau b کندال یا rho اسپیرمن تکیه کنم و چرا؟ من سعی کردم آن را در گوگل جستجو کنم و آنچه را که پیدا کردم تجزیه و تحلیل کنم، اما هنوز مطمئن نیستم.
|
مقایسه سری های زمانی: همبستگی پیرسون، tau b کندال یا rho اسپیرمن؟
|
68057
|
من یک مشکل طبقه بندی متنی دارم که از دو دسته تشکیل شده است - صفر و یک. تا به حال سعی کردم آن را با ایجاد یک ماتریس اصطلاح سند حل کنم و آن را از طریق SVM (با استفاده از بسته RTextTools) اجرا کنم. این یک قطعه کد است: (R) مدلهای <- train_models(container, algorithms=c(SVM)) نتایج <- classify_models(container, models) analytics <- create_analytics(container, results) View(summary(analytics)) > > عملکرد الگوریتم >>SVM_PRECISION SVM_RECALL SVM_FSCORE >> 0.64 0.63 0.63 سوالات من به شرح زیر است: 1. چرا همه مقادیر پیش بینی شده در ماتریس نتیجه بین 0.5-1 هستند؟ مگه قرار نیست 0-1 باشه؟ 2. چگونه می توانم (در R) ببینم که زیر کدام **_threshold_** این مقادیر دقت و فراخوان محاسبه می شوند؟ چگونه می توانم این آستانه را برای به دست آوردن مقادیر مختلف تغییر دهم؟ 3. نمرات فراخوان/دقت دقیقاً چگونه محاسبه می شود؟ منظورم این است که فرضاً ما باید _theta_ را از هم جدا کنیم که تمام امتیازهای بالای آن از کلاس 1 هستند و بقیه 0 هستند. آیا این امتیازات خروجی فقط یک میانگین ساده از دو کلاس دقت/یادآوری هستند؟ آیا میانگین وزنی است؟ 4. چگونه می توانم در R دو مقدار آستانه متفاوت برای هر کلاس ایجاد کنم (با آنچه در بین آن ها با عنوان ناشناس مشخص شده است)؟
|
فرو رفتن عمیق در محاسبات یادآوری، دقت و آستانه در R
|
43621
|
من باید آزمایشی طراحی کنم که در آن سایش ابزار یک عامل باشد (نه یک پاسخ). من در تلاش برای مطالعه به حداقل رساندن سایش ابزار نیستم. من سعی دارم تاثیر سایش ابزار را به همراه 3 عامل دیگر بر تعداد یک نوع نقص خاص مطالعه کنم. از چه نوع طراحی استفاده کنم؟ من در نظر گرفتم که سایش ابزار را به 3 شرایط (کم، متوسط، زیاد) تقسیم کنم و سپس هر درمان را در شرایط انجام دهم. اما مطمئن نیستم که روش درستی باشد. سایش ابزار به عنوان عامل بسیار مهمی در میزان عیب در نظر گرفته می شود. تعاملات نیز در اینجا مهم هستند. این یک عملیات آهنگری است. عوامل دیگر عبارتند از دمای بیلت، محل لکه گیری و ارتفاع پنکیک. من فرصت های تکرار زیادی دارم و برای هر درمان حداقل 10 قسمت برنامه ریزی می کنم. خیلی ممنون - کلی
|
آزمایش طراحی شده که در آن سایش ابزار یک عامل مهم است
|
54617
|
من در سری های زمانی R دستکاری می کنم که می تواند **بازبینی** را ارائه دهد. من به طور کلی از بسته xts استفاده می کنم اما از ویرایش ها پشتیبانی نمی کند. آیا بسته ای وجود دارد که به آن رسیدگی کند؟ از طرف دیگر، آیا بهترین روش برای ذخیره و دستکاری ویرایشها وجود دارد؟
|
چگونه با سری های زمانی با تجدید نظر برخورد کنیم؟
|
81076
|
هنگام مطالعه سری های زمانی، یک بار این جمله را شنیدم که > تست ریشه واحد قدرت کمتری دارد. بدینوسیله دو سوال دارم: 1. قدرتمند بودن یک آزمون به چه معناست؟ 2. چه چیزی باعث می شود تست ریشه واحد قدرت کمتری داشته باشد؟
|
آزمون توان آماری ریشه واحد
|
81073
|
من سعی کردم بین این معیارهای فاصله (از دست دادن) رابطه ای پیدا کنم، اما هیچ مرجعی پیدا نکردم. با این حال، من فکر می کنم باید چیزی شبیه به این باشد: $$ \sqrt 2*D_{KL} < L_1 < L_2 $$ درست است؟
|
چه رابطه ای بین ضرر Kullback و ضرر L1 و L2 وجود دارد؟
|
49480
|
در مورد روش های نمونه گیری اطلاعات زیادی ندارم. من جمعیت زیادی با اندازه 2000000 دارم. من از یکی از آن ماشین حساب های اندازه نمونه استفاده کردم. می گوید که من به حجم نمونه تقریباً 10000 نیاز دارم. من در تلاش برای یافتن احتمال **p** موفقیت برای جمعیت هستم. آزمایش تمام 2000000 عضو جمعیت برای من امکان پذیر نیست. به همین دلیل نمونه گیری می کنم. من فرض می کنم که ماشین حساب اندازه نمونه به معنای یک نمونه تصادفی ساده بدون جایگزینی است. من خوانده ام که یک نمونه تصادفی ساده با جایگزینی تضمین می کند که کوواریانس بین دو متغیر 0 ~~ است، یعنی مستقل ~~. چه زمانی باید با جایگزینی به جای بدون جایگزینی انتخاب کرد؟ اگر با جایگزینی نمونه برداری کنیم، به سادگی آزمایشات برنولی را انجام می دهیم. من فکر می کنم این کار استفاده از ابزارهای آماری (کدام؟) را آسان تر می کند. باز هم از جاهل نمونه برداری می کنیم.
|
نمونه برداری با تعویض یا بدون تعویض؟
|
52617
|
من داده های سری زمانی برای مجموعه ای از شهرها دارم که به حدود 10 سال قبل بازمی گردد. من همچنین تقریباً 30 سال است که داده ها را در سطح ایالتی دارم. رویدادی حدود 20 سال پیش رخ داد، که در دادههای طولانیتر، سطح ایالت، اما نه دادههای شهر، ثبت شده است، که من میخواهم آن را در سطح شهر بررسی کنم. آنچه من فکر می کنم ممکن است مفید باشد ایجاد نوعی مدل ARIMA است که داده های حالت را به عنوان یک متغیر برون زا پسرفت می کند. اگر بخواهم این کار را انجام دهم، چگونه می توانم از مدل برای تکمیل داده های شهر استفاده کنم به طوری که در همان نقطه ای که داده های واقعی شهر شروع می شود به پایان برسد؟ آیا قبلاً یک روش متعارف برای انجام چنین کاری وجود دارد؟ با تشکر از هر کمکی که می توانید بفرمایید (مرجع ادبیات، کتابخانه های R و غیره)
|
پر کردن داده های ARIMA با متغیر برون زا
|
49488
|
اولین سوال من و فکر می کنم ساده لوحانه اینجاست. من سعی می کنم یک کسب و کار خاص را مدل کنم و ساده ترین مدلی که می خواهم آزمایش کنم این است: 1. یک کیسه سکه با سوگیری متفاوت وجود دارد. 2. در هر مرحله، یک سکه با احتمال مساوی انتخاب می شود. 3. سکه انتخاب شده برگردانده شده و به کیسه برگردانده می شود. هدف کسبوکار پیشبینی نرخ سر در آزمایشهای آینده است (احتمالاً با استفاده از استنتاج بیزی). این مرا به این فکر انداخت که آیا من مسائل را بیش از حد پیچیده نمی کنم؟ آیا این فرآیند (از لحاظ مشاهده ای) معادل یک سکه مغرضانه نیست؟ پیشاپیش متشکرم
|
برگرداندن سکه های تصادفی از یک کیسه - معادل یک سکه؟
|
68050
|
(احتمالاً مربوط به آیا معادل ناپارامتری Tukey HSD وجود دارد؟) با توجه به مجموعه ای از چندین متغیر توزیع شده نمایی (که نشان دهنده داده هایی است که به این شکل مدل شده است)، می خواهم بررسی کنم که آیا یکی از آنها میانگین به طور قابل توجهی بالاتر از بقیه دارد. . اگر متغیرها به طور معمول توزیع می شدند، من از آزمون توکی استفاده می کردم. با این حال، این مورد نیست، و من به دنبال جایگزین ساده ترین تا حد ممکن هستم. **برخی پیشینه در مورد داده** روش ها و بازارهای جایگزین که از آنها کالاها را می خریم هر روز با هم مقایسه می شوند. دادهها به صورت روزانه جمعآوری میشوند (یعنی فقط قیمت و تعداد تراکنشها در روز را دارم که به یک میانگین تبدیل میشود). توزیع وجوه برای روز بعد بر اساس تحلیل روز قبل است: بهترین روش بیشتر وجوه را دریافت می کند و روش های دیگر بقیه را به اشتراک می گذارند. به طور معمول، 5-10 روش جایگزین با 10000 تراکنش یا بیشتر در هر روش در روز مقایسه می شود. **جایگزین های فعلی** بر اساس دانش محدودم، دو روش ممکن برای مقایسه روش ها ارائه کردم: 1. بر اساس سوال ارجاع شده در بالا، می توان از نسخه های ناپارامتریک آزمون توکی استفاده کرد. 2. از آنجایی که تنها متغیر بالاترین میانگین با بقیه متغیرها مقایسه می شود، فکر می کنم با اصلاح _bonferroni_ بتوان آن را با دومین متغیر بالاتر مقایسه کرد. به عنوان مثال از آلفای مؤثر = 0.05 / تعداد متغیرها استفاده کنید. این ممکن است بسیار محافظه کارانه باشد، اما از آنجایی که اعداد بالا هستند، نتایج قابل استفاده هستند (یعنی اکثر روزها نتایج قابل توجهی دارند). **سوالات من** 1. آیا روش های فوق به عنوان راه حل مورد ارائه شده منطقی هستند؟ به طور خاص، روش (2) ساده است و نتایج قابل استفاده دارد، اما مطمئن نیستم که از نظر آماری درست باشد. 2. من علاقه مند به پیشنهادات دیگری برای انجام این تحلیل هستم. همانطور که اشاره شد، من بیشتر به سادگی و تعمیم و کمتر به دریافت بهترین مقادیر اهمیت علاقه دارم.
|
مقایسه میانگین چندین متغیر با توزیع نمایی
|
113652
|
من باید روندهای زمانی را برای برخی از متغیرهای آب و هوایی با مقادیر گمشده محاسبه کنم. به عنوان مثال، آخرین روزهای یخبندان به عنوان آخرین روز سال با حداقل دمای کمتر از 0 درجه سانتیگراد تعریف می شود. با این حال، در برخی سال ها هیچ روز یخبندان وجود ندارد. دادههای من مانند: lfd <- c(NA, NA, NA, NA, NA, 190, 192, 189, 200, 185, 205, 203, 200, 207, NA, NA, 205) سال <- seq(1957 ، length.out = length(lfd)) اکنون از رگرسیون خطی در R استفاده می کنم (تابع lm) برای محاسبه روند زمانی. به نظر میرسد که نتایج برای مجموعه دادههایی با مقادیر زیادی از دست رفته غیرمنطقی است. چگونه می توانم روندهای زمانی را با مقادیر گمشده محاسبه کنم؟ با تشکر از هر گونه پیشنهاد.
|
روندهای زمانی با مقادیر گمشده
|
62707
|
در «R»، میخواهم نامهای چند خطی را به برخی از مجموعههای داده در «boxplot» بدهم، مانند این: boxplot(rnorm(10)، rnorm(10، mean=2)، names=c(Normal، Shifted \n*)) در اینجا، به نظر میرسد نامها با خطوط انتهایی خود تراز هستند، که باعث همپوشانی متن با محور میشود. چگونه می توانم نام های چند خطی داشته باشم که به جای اینکه به سمت بالا به سمت پایین کشیده شوند؟
|
نام های چندخطی (برچسب های x) در باکس پلات
|
52612
|
من سعی می کنم کشش قیمت عرضه را برای کشاورزان مقیاس کوچک در مالاوی تخمین بزنم و داده های سری زمانی برای 34 سال دارم. من دو مشکل دارم: اول اینکه قیمت ها بسیار پایین هستند به طوری که وقتی لاگ های آنها را می گیرم مقادیر منفی می گیرند، به عنوان یک راه حل به هر مقدار 1 عدد اضافه کردم و گزارش های مثبت دریافت کردم اما نمی دانم چگونه نتیجه را با آن تفسیر کنم. 1 که اضافه کردم دوم اینکه میخواهم روش مشخصی برای تخمین مدل در «Stata» پیدا کنم، من فقط از رگرسیون استفاده کردم. من از کمک شما قدردانی خواهم کرد
|
نحوه سازماندهی داده ها و اجرای مدل nerlovian
|
57173
|
من اعتبار دهی متقاطع خود را 100 بار برای چندین روش تکرار کردم. حالا میخواهم از آزمون t برای بررسی معنیدار بودن نتایج استفاده کنم. با این حال، من مطمئن نیستم که حجم نمونه چقدر است. آیا حجم نمونه مقدار اولیه نمونه است یا مقدار اولیه نمونه × 100 است؟ ویرایش ##: برای دانشگاه باید 3 نوع سرطان را طبقه بندی کنیم و تخمینی از عملکرد مدلمان ارائه دهیم. ما یک مجموعه داده با 100 نمونه دریافت کردیم. ما داده ها را با استفاده از نمونه گیری طبقه ای با نسبت 0.3 و 0.7 به یک مجموعه آموزشی و آزمایشی تقسیم کردیم. مجموعه آموزشی حاصل از 69 نمونه و مجموعه آزمون از 31 نمونه تشکیل شده است. ما به دلیل این مقاله از اعتبارسنجی متقاطع مکرر استفاده کردیم: http://www.cse.iitb.ac.in/~tarung/smt/papers_ppt/ency-cross-validation.pdf اعتبارسنجی متقابل مکرر در همان مجموعه آموزشی انجام می شود ، اما با چین ها هر بار به طور تصادفی انتخاب می شوند، بنابراین باید هر بار متفاوت باشند. اهمیتی که ما می خواهیم آزمایش کنیم این است که دقت یک مدل به طور قابل توجهی بهتر از دقت یک مدل دیگر باشد.
|
اعتبارسنجی متقاطع 100×10 برابری، اندازه نمونه هنگام انجام یک آزمون معناداری چقدر است؟
|
43623
|
من دو سال قبض آب و برق ساعتی دارم. داده های سال اول مربوط به قبل از انجام مقاوم سازی در خانه و سال دوم پس از انجام مقاوم سازی است. چگونه می توانم دو سری زمانی را از نظر آماری مقایسه کنم تا در یک بازه زمانی خاص از روز ادعای صرفه جویی در تقاضا داشته باشم. آیا می توان این کار را در R انجام داد، اگر چنین است چگونه؟
|
مقایسه دادههای سری زمانی قبض آب و برق قبل از بهسازی با دادههای پس از مقاومسازی
|
49483
|
این احتمالاً بسیار احمقانه به نظر می رسد، اما این بخشی از یک سؤال بزرگتر است، در مورد توزیع نمونه ابزار، که من در درک آن با مشکل مواجه هستم، پس لطفاً با من تحمل کنید. اگر زمان بین فرود هواپیماها را ثبت کنم و 250 مشاهده داشته باشم، آیا آن 250 مشاهده جمعیت من است یا اصطلاح جمعیت به همه مقادیر اشاره دارد، یعنی اگر تا پایان زمان ضبط در آنجا نشسته بودم؟ من فرض می کنم دومی است، اما فقط می خواهم دوباره بررسی کنم.
|
جمعیت در واقع به چه چیزی اشاره دارد؟
|
104949
|
من داشتم این [مقاله][1] مربوط به فرآیندهای پراکنده گاوسی آنلاین را می خواندم. با این حال، من متوجه نشدم که مخرج در معادله 1 چگونه به دست آمده است؟ قرار بود P(D) باشد. . من متوجه نشدم که مخرج چگونه به دست آمده است. علاوه بر این، این مقاله می گوید که ممکن است خلفی گوسی نباشد. نمی دانم چرا اینطور است؟
|
سردرگمی مربوط به فرآیند گاوسی خلفی
|
17065
|
هنگام تخمین فاصله اطمینان میانگین، فکر میکنم هم روش bootstrap t و هم روش bootstrap ناپارامتری میتوانند اعمال شوند، اما اولی به کمی محاسبات بیشتری نیاز دارد. من نمی دانم که مزایا و معایب بوت استرپ t نسبت به بوت استرپ معمولی ناپارامتریک چیست؟ چرا؟ آیا منابعی برای توضیح این موضوع وجود دارد؟
|
فاصله اطمینان میانگین را با روش بوت استرپ t یا به سادگی با بوت استرپ تخمین بزنید؟
|
57179
|
من سعی می کنم توابع پاسخ ضربه ای را برای یک مدل VAR با استفاده از تجزیه Cholesky برنامه ریزی کنم. موضوع این است که وقتی در ادبیات می خوانم کاملاً نمی فهمم چگونه باید این کار را انجام دهم. فرض کنید من دارم: $$ \begin{bmatrix}x_t\\y_t\\z_t\end{bmatrix}=\begin{bmatrix}\alpha_1\\\alpha_2\\\alpha_3\end{bmatrix}+\begin{bmatrix}b_{11}&b_{ 12}&b_{13} \\b_{21}&b_{22}&b_{23}\\b_{31}&b_{32}&b_{33}\end{bmatrix}\begin{bmatrix}x_{t-1}\\y_{t- 1}\\z_{t-1}\end{bmatrix}+\begin{bmatrix}u_{1t}\\ u_{2t}\\ u_{3t}\end{bmatrix} $$ که میتوانیم آن را به صورت $$ \mathbf{x}_t=\mathbf{a}+\mathbf{B}\mathbf{x}_{t بنویسیم -1}+\mathbf{u}_t. $$ بعلاوه، فرض کنید ماتریس کوواریانس $\mathbf{u}_t$ $$ Cov(\mathbf{u}_t)=\Sigma_u=PP^\prime باشد. $$ حال، فرض کنید من پاسخهای ضربهای به یک شوک واحد را در $u_{1t}$ میخواهم. من افکتها را میخواهم مثلاً $\mathbf{x}_t، \، \mathbf{x}_{t+1}، \، \mathbf{x}_{t+2}$ و $\mathbf{x} _{t+3}$. همانطور که متوجه شدم، متعامدسازی با ضرب بردار خطا در $P$ انجام می شود. بیایید پاسخ های دوره $t$ را به شوک $\mathbf{x}_t^*$ فراخوانی کنیم. آیا چیزی که به آن علاقه دارم این است (فرض کنید شوک واحد در $u_{1t}$ به گونه ای که $\mathbf{u}_t^*=\begin{bmatrix}1&0&0\end{bmatrix}^\prime$): $$ \mathbf{x}_t^*=P\mathbf{u}^*_t=P\begin{bmatrix}1\\0\\0\end{bmatrix}\\ \mathbf{x}_{t+1} ^*=\mathbf{B}\mathbf{x}^*_t=\mathbf{B}P\mathbf{u}^*_t\\ \mathbf{x}_{t+2}^*=\mathbf{B}\mathbf{x}^*_{t+1}=\mathbf{B}\mathbf{B}P\mathbf{u}^ *_t\\ \mathbf{x}_{t+3}^*=\mathbf{B}\mathbf{x}^*_{t+2}=\mathbf{B}\mathbf{B}\mathbf{B}P\ mathbf{u}^*_t $$ حال، این را گسترش دهید تا تاخیرهای بیشتری را در بر گیرد (مثلاً 4). سپس مدل $$ \mathbf{x}_t=\mathbf{a}+\sum_{k=1}^4\mathbf{B}_k\mathbf{x}_{t-k}+\mathbf{u}_t است . $$ بنابراین تکانه ها عبارتند از: $$ \mathbf{x}_t^*=P\mathbf{u}^*_t=P\begin{bmatrix}1\\0\\0\end{bmatrix}\\ \mathbf{x}_{t+1}^*=\mathbf{B}_1\mathbf{x}^*_t=\mathbf{B}_1P\mathbf{u}^*_t\\ \mathbf{x}_{t+2}^*=\mathbf{B}_1\mathbf{x}^*_{t+1}+\mathbf{B}_2\mathbf{x}^*_t=\ mathbf{B}_1\mathbf{B}_1P\mathbf{u}^*_t + \mathbf{B}_2P\mathbf{u}^*_t\\ \mathbf{x}_{t+3}^*=\mathbf{B}_1\mathbf{x}^*_{t+2}+\mathbf{B}_2\mathbf{x}^*_{t +1} +\mathbf{B}_3\mathbf{x}^*_{t}=\mathbf{B}_1\mathbf{B}_1\mathbf{B}_1P\mathbf{u}^*_t + \mathbf{B}_1\mathbf{B}_2P\mathbf{u}^*_t+\mathbf{B}_2\mathbf{B}_1P\mathbf{u}^*_t+\mathbf{B}_3P\mathbf{ u}^*_t $$ آیا این طرز فکر صحیح است؟ اگر چنین است، پس این کد R ساده باید خوب باشد: library(vars) set.seed(1) x <- rnorm(100) set.seed(2) y <- rnorm(100) set.seed(3) z < - rnorm(100) data <- cbind(x, y, z) model <- VAR(data, p=4, type = const) u <- ماتریس (c(1، 0، 0)، ncol=1) P <- chol(cov(موجودات(مدل))) B1 <- Acoef(مدل)[[1]] B2 <- Acoef(مدل)[[2 ]] B3 <- Acoef(مدل)[[3]] B4 <- Acoef(مدل)[[4]] xt <- P %*% u xt1 <- B1 %*% xt xt2 <- B1 %*% xt1 + B2 %*% xt xt3 <- B1 %*% xt2 + B2 %*% xt1 + B1 %*% xt هر ورودی بسیار قدردانی خواهد شد!
|
توابع پاسخ ضربه ای برنامه برای VAR
|
57172
|
من مجموعهای از $n$ نقطههای داده $(y_i،\bf{x}_i)$ در $\mathbb{R}^{p+1}$ دارم و میخواهم مدل زیر را در «R» تخمین بزنم: $$\underset{\bf{b}\in\mathbb{R}^{p}}{\arg.\min}\;\sum_{i=1}^n(y_i-\bf{x}_i' \bf{b})^2$$ $$u.c.\;\;\;0\leq \bf{x}_i'\bf{b}\leq 1\;\;\;\برای همه i$$ کسی به یک راه کارآمد برای انجام این کار اشاره دارد؟ آیا پارامترسازی مجدد مسئله OLS وجود دارد که این امکان را فراهم کند؟
|
(پیشبینی) OLS را در R محدود کرد
|
52611
|
در بخش چمپیونشیپ انگلیس، 24 تیم وجود دارد که 8 تیم از آنها با حرف B شروع می شوند (مثلا بولتون) امشب (5 مارس 2013) همه 24 تیم در این بخش با یکدیگر بازی می کنند. به طور تصادفی، 8 تیمی که با B شروع میکنند، با هم بازی میکنند، یعنی 4 بازی از این 8 تیم (هر بازی 2 تیم وجود دارد!) احتمال این اتفاق چقدر است؟
|
اتفاقی لیگ فوتبال
|
48282
|
این مشکلی است که من در محل کار با آن مواجه هستم. مشاهداتی دارم $X_i$, $i = 1,2,3,...N > M$. باید بخواهم $S = \sum_{i=1}^M X_i$ را محاسبه کنم. متأسفانه، $M$ تصادفی و بسیار پر سر و صدا است. به نظر می رسد، من چند معیار خوبی خشن دارم، $w_i$ برای هر یک از $X_i$. یعنی $w_i$ کم، یعنی من خیلی به $X_i$ اعتماد ندارم، $w_i$ بالا، یعنی من خیلی به $X_i$ اعتماد دارم. علاوه بر این، به طور کلی با بزرگ شدن $i$، $X_i$ کوچک می شود. (وابستگی زیادی بین $M$ و $X_i$ وجود دارد) در این برنامه، معلوم میشود که _میانگین_$X_i$ میتواند بسیار قابل اعتماد (یعنی با انحراف استاندارد نسبتاً کوچک) توسط: $A = \ محاسبه شود. frac{\sum_{i=1}^M w_i X_i}{\sum_{i=1}^M w_i}$. ما می دانیم که انحراف استاندارد $A$ با اجرای تعدادی آزمایش مستقل و محاسبه انحراف استاندارد نمونه نسبتاً کوچک است. اما، من به طور مشابه به یک تخمین خوب (یعنی انحراف استاندارد کوچک) از مجموع مستقیم $X_i$ و رویکرد واضح نیاز دارم: $M * A$ دارای واریانس بسیار زیادی برای برنامه ما است. درک می کنید که این بسیار مبهم است، اما آیا فکری در مورد چگونگی ادامه دادن دارید؟
|
چگونه می توان مجموع تصادفی عناصر غیرقابل اعتماد را به طور قابل اعتماد تخمین زد؟
|
20574
|
ما دو سری زمانی داریم: $X_t$ و $R_t$، و مدلی که می گوید $R_{t+1} = (\mu(X_t) - \frac{1}{2}\sigma^2(X_t)) \Delta T + \sigma(X_t) \sqrt{\Delta T} \epsilon_t$، که در آن $\Delta T$ ثابت و $\epsilon_t$-s داده می شود مستقل هستند که معمولاً با میانگین صفر و واریانس واحد توزیع می شوند. علاوه بر این، ما فرض می کنیم که توابع $\mu(x)$ و $\sigma(x)$ برای سادگی خطی هستند. من می خواهم از یک روش استاندارد (MLE به ذهنم می رسد) برای تخمین پارامترهای توابع $\mu(x)$ و $\sigma(x)$ استفاده کنم، اما مطمئن نیستم که چگونه این کار را انجام دهم. برای پاسخ های دقیق ممنون می شوم، زیرا من واقعاً در زمینه آمار تجربه ندارم.
|
تخمین حداکثر احتمال زمانی که پارامترها توابع یک سری داده دیگر هستند
|
104944
|
فرض کنید من یک مجموعه داده با اطلاعات زیر دارم: * N شیء، که هر کدام را می توان رتبه بندی کرد * تعداد رتبه بندی ها در هر شی متغیر است (ارایه دهنده ها نامشخص هستند)، به عنوان مثال، 30 شیء هر کدام با یک شناسه منحصر به فرد وجود دارد * هر ردیف دارای رتبهبندی پیشبینیشده، رتبهبندی واقعی و تفاوت بین این دو، که یک مقدار ترتیبی است، میگویند بین 0 تا 10 چگونه ثبات رتبهبندیها را برای هر شی و برای کل اندازهگیری کنم مجموعه داده؟ اساساً توزیع تفاوت ها در هر شی وجود دارد. راه های مختلف برای برخورد با این مشکل چیست؟ متشکرم.
|
تجزیه و تحلیل داده های ترتیبی با ارزیابی های متعدد در واحد ... رویکرد درست؟
|
90745
|
برای مثال، فهرستها میتوانند چیزی شبیه به: $$\{1.123213، 5.154543، 2.134121، 7.34534، 12.223432، 8.16571، 100.45645، 222.423، 222.423، 222.423، حذف $4. 222.423\}$. $$\{232.123213, 323.154543, 232.134121, 123.34534, 222.223432, 8545.16571,\\ 4335.45645, 1222.4$ من می خواهم حذف کنم $\{8545.16571، 4335.45645، 1222.423\}$. اندازه ثابت نیست و محدوده ممکن است متفاوت باشد. آیا راهی برای حذف این مقادیر غیر طبیعی بزرگ از لیست من وجود دارد؟
|
مقادیر غیرعادی بزرگ را از لیستی از داده ها فیلتر کنید
|
68055
|
من دوست دارم یک آنووا با اندازه گیری های مکرر دو طرفه راه اندازی کنم. من 4 مدل را با 4 سن مقایسه می کنم و می بینم که آیا نتایج متفاوت است یا خیر، این باید در حدود 16 گروه باشد، زیرا 4*4=16 (تا اینجا خیلی خوب است) اما از برخی از گروه ها من داده ها را ندارم بنابراین هنوز 2 گروه دارم. عواملی که باید برای 16 گروه اما نه بیشتر از 15 تا 14 مورد آزمایش قرار گیرند. این به دلیل اشتباه نیست، بلکه به این دلیل است که گروه های تحت این شرایط فقط بد هستند و توصیه های استاندارد را رعایت نمی کنند. با این حال، اگر سعی کنم اندازهگیریهای مکرر دو طرفه از جمله گروههای گمشدهام را انجام دهم، نمیتوانم آن را اجرا کنم. آیا راهی برای رسیدگی به این گروه های از دست رفته وجود دارد؟ با سلام
|
2 راه ANOVA اگر گروه از دست رفته است
|
101233
|
در یک مدل لجستیکی با پیشبینیکننده دوگانه، شانسهای تفسیر آنلاین محتوایی کاملاً وجود دارد. مشکل من درک ضرایب زمانی است که بیش از 2 سطح برای یک متغیر طبقه بندی وجود دارد. چگونه شانس را تعریف می کنید؟ داده ها: X یک پیش بینی کننده طبقه بندی منفرد با 4 سطح است: نوجوان، بزرگسال، بالغ، سالمند. Y: 1 = سیگار کشیدن، 0 = عدم سیگار کشیدن. LR: ما از متغیرهای ساختگی n-1 استفاده می کنیم. من بزرگسالان را به عنوان سطل مرجع انتخاب کردم زیرا بالاترین غلظت را داشت. (خوب؟؟) ________ | رهگیری | p بزرگسال | -4.3801 | 0 نوجوان | -0.32456 | 0 بالغ | 1.45119 | 0 قدیمی | -0.9891 | 0 **تفسیر ضرایب** نوجوان: نوجوانان کمتر سیگار می کشند (در بزرگسالی؟). در واقع، یک نوجوان 28٪ (exp-0.32456 -1) کمتر از بزرگسالان سیگار می کشد. آیا شانس سیگار کشیدن نوجوانان همیشه در مقابل گروه مرجع ذکر می شود؟ بالغ: افراد بالغ بیشتر سیگاری هستند (در بزرگسالی؟). در واقع، افراد بالغ 326 درصد بیشتر از بزرگسالان سیگار می کشند. آیا شانس سیگار کشیدن بالغ همیشه در مقابل گروه مرجع ذکر می شود؟
|
تفسیر ضرایب در مدل رگرسیون لجستیک با متغیر طبقهای بیش از 2 سطح
|
62705
|
من می خواستم یک نمودار حباب ایجاد کنم که به معنای نمودار پراکندگی با یک متغیر جداگانه است که قطر حباب را نشان می دهد. آیا راهی برای استفاده از حباب به عنوان نمودار دایره ای وجود دارد؟ من واقعاً دوست دارم این کار را در MS Excel انجام دهم، اما نمی دانم که آیا امکان پذیر است یا خیر. * * * من مشکل دیگری با کد ارائه شده در پست قبلی دارم. اکنون که به نظر می رسد اولین مشکل حل شده است، یک مشکل در خط Set rngRow = Range(ThisWorkbook.Names(PieChartValues).RefersTo) وجود دارد و من سعی کردم PieChartValues را با محدوده ردیف اول تا آخر جایگزین کنم. که در آن مقادیر نمودارهای دایره ای (مقادی که نمودار دایره ای از آنها تولید می شود) - مانند A1:G12 و همه داده ها در آن محدوده برگه در برگه ای که من در آن کار می کنم B نامیده می شود بدون نقل قول باید بنویسم `Set rngRow = Range(ThisWorkbook.Names(“B”).RefersTo)` * * * سعی کردم کد پیوند پیشنهادی را پیاده سازی کنم قبلاً در VBA این Sub PieMarkers () Dim chtMarker As Chart Dim chtMain به عنوان نمودار Dim intPoint به عنوان عدد صحیح Dim است rngRow As Range Dim lngPointIndex As Long Application.ScreenUpdating = False Set chtMarker = ActiveSheet.ChartObjects(chtMarker). Chart Set chtMain = ActiveSheet.ChartObjects(chtMain).ChartMain Set ActiveSheet.ChartObjects(chtMain). Chart Set rngRow = Range(ThisWorkbook.Names(PieChartValues).RefersTo) برای هر rngRow In Range(PieChartValues).ردیف chtMarker.SeriesCollection=rMarng.Val. Parent.CopyPicture xlScreen، xlPicture lngPointIndex = lngPointIndex + 1 chtMain.SeriesCollection(1).Points(lngPointIndex). Paste بعدی lngPointIndex = 0 Application.ScreenUpdating = True End Sub هنگامی که من خطی را اجرا میکنم که نشانگر آن است. ActiveSheet.ChartObjects (chtMarker). نمودار آیا کسی ایده ای دارد که چرا؟ من یک شیء دایره ای به نام دقیقا chtMarker دارم، بنابراین شی باید آنجا باشد
|
نمودار حباب با نمودار دایره ای به عنوان حباب
|
48759
|
من یک سری زمانی $x_t$ دارم. اگر از تبدیل $u_t = log(x_t) - log(x_{t-1})$ استفاده کنم، سری زمانی جدید من $u_t$ دارای ویژگی های نویز سفید (تصادفی) است. من نمی دانم که آیا تفسیر عملی برای $u_t$ وجود دارد؟ با تشکر از کمک شما.
|
تفسیر عملی برای $u_t = \log(x_t) - \log(x_{t-1})$
|
60703
|
من یادگیری ماشین و آمار را به طور خلاصه مطالعه کرده ام. من از رگرسیون خطی برای حل مسائل با مجموعه های ثابت متغیرها استفاده کرده ام، اما مطمئن نیستم که چگونه به مسئله زیر نزدیک شوم. با توجه به تعداد زیادی عکس برچسب گذاری شده، می خواهم از این برچسب ها برای تخمین احتمال وجود یک شی خاص در عکس استفاده کنم. من به انبوهی از دادهها دسترسی دارم که قبلاً بهعنوان حاوی اشیایی که به دنبال آن هستیم یا نه طبقهبندی شدهاند (اما توجه داشته باشید که این یک مشکل طبقهبندی نیست، از احتمالات برای رتبهبندی عکسها استفاده میشود). به عنوان مثال. اگر عکسی با _کک_و_نوشیدن_ برچسب گذاری شده باشد، به احتمال زیاد حاوی کوکاکولا است. اما اگر عکسی با _کک_ و _کرک_ برچسب گذاری شده باشد، به احتمال زیاد حاوی کوکاکولا نیست. اگر عکسی به طور جداگانه با _crack_ یا _drink_ برچسب گذاری شده باشد، چیز زیادی در مورد آنچه ممکن است در عکس باشد به ما نمی گوید. چگونه می توان فرمول فرضیه ای برای این مسئله ساخت؟
|
رویکردی برای حل احتمال اینکه یک عکس حاوی یک شی بر اساس برچسب ها باشد
|
113650
|
فرض کنید سکه های X$ دارید که هر کدام با احتمال متفاوتی برای فرود سرها (به عنوان مثال سکه 1 10 درصد شانس فرود سرها، سکه 2 20 درصد شانس فرود سرها و غیره دارد). حال، فرض کنید که شما سکه $i$ coin $Y_i$ را بارها برگردانده اید (هر سکه دارای مقدار متفاوتی از تلنگرها است). ما می دانیم که هر سکه چند بار ورق خورده است. حالا فرض کنید این کار را هر روز برای مدت طولانی انجام می دهید و آن اطلاعات را ثبت می کنید. به عنوان مثال، با 2 سکه، در روز 1: 50 تلنگر کل، 30 سر کل، coin1 20 بار و coin2 30 بار ورق خورد. روز 2: 80 تلنگر، 66 سر کل، coin1 60 تلنگر، coin2 20 تلنگر. آنچه می دانیم: کل تلنگرها، کل سرها، چند بار ورق زدن هر سکه. با توجه به آن، آیا راهی برای تعیین احتمال تقریبی این وجود دارد که سکه داده شده سر برگرداند؟ در مثال بالا، coin1 دارای 100% احتمال سر و coin2 دارای 33% احتمال است.
|
احتمال وقوع رویداد زمانی که داده ها با بسیاری از رویدادهای مستقل در طول زمان تجمیع می شوند
|
48758
|
من در مورد چگونگی تفسیر مستقیم مقدار خطای استاندارد میانگین (SEM) نامشخص هستم. به عنوان مثال، وقتی میانگینی به صورت 5.00 + 0.50SEM گزارش می شود، چگونه مستقیماً 0.50 را به 5.00 مرتبط می کنید؟ برای اجرای سریع نظریه پایه در مورد خطای استاندارد: 1. انحراف استاندارد (SD) معیاری از پراکندگی در اطراف میانگین 2 است. SEM SD توزیع نمونه برای میانگین نمونه 3 است. این توزیع نمونه گیری مشتق شده است. از میانگین تعداد نامتناهی نمونه از یک جامعه آماری و به طور معمول طبق قضیه حد مرکزی 4 توزیع می شود. در یک توزیع نرمال، 68.3٪ از مقادیر (به طور تصادفی انتخاب شده) در 1SD +، 95.4٪ + 2SD و 99.7٪ + 3SD قرار دارند. 5. SEM با افزایش حجم نمونه کاهش می یابد. همان روش SD به عنوان یک آمار توصیفی؟ یعنی برای نمونه ای با میانگین 5.00 و SEM 0.50، آیا درست است که میانگین جامعه واقعی بین 4.50 و 5.50 با احتمال 68.3٪ باشد؟ سوال 2: آیا برای جامعه آماری معینی که نمونه گیری می شود، توزیع نمونه با حجم نمونه تغییر می کند (نقطه 5 داده شده)؟ یعنی نکته 3) باید این باشد: ... از میانگین تعداد بی نهایت نمونه با اندازه معین از یک جامعه آماری...؟ سؤال 3: از آنجایی که SEM مستقیماً محاسبه نمی شود، بلکه از روی SD یک نمونه تخمین زده می شود، انحراف از توزیع نرمال نمونه چه تأثیری بر محاسبه SEM دارد؟ به عبارت دیگر، اگر نمونه ای به عنوان مثال توزیع بسیار اریب داشته باشد، محاسبه SD نامناسب است (این ویژگی فقط یک توزیع عادی است)، بنابراین آیا هنوز هم می توان SEM را به طور قابل اعتماد از SD تخمین زد؟
|
تفسیر مقدار عددی خطای استاندارد میانگین
|
48280
|
از نوازندگان ویولن خواسته شد به 5 ویولن از کمترین تا ثروتمندترین ویولن را در مقیاس «[0 1]»، «0.05-افزایش»، «همیشهترین = 1» و «همیشه حداقل = 0» امتیاز دهند. سپس از آنها خواسته شد که یک محدودیت مقبولیت تعیین کنند، یعنی نقطه ای را در امتداد مقیاس تعیین کنند که بالاتر از آن ویولن ها از نظر غنا قابل قبول در نظر گرفته شوند. با تنظیم قابل قبول = 1 و غیر قابل قبول = 0، یک متغیر باینری برای هر بازیکن، علاوه بر رتبه بندی آنها، به دست می آید. بنابراین، به عنوان مثال، برای یک بازیکن، متغیرهای «رتبه = [0.3 0.45 0 1 0.85]» و برای «حد = 0.45»، «acc = [0 1 0 1 1]» دارم. من از ضریب همبستگی تطابق لین برای بررسی سازگاری درون و بین افراد برای مورد رتبهبندی استفاده میکنم. با این حال، این برای متغیر قابل قبول امکان پذیر نیست: وقتی بازیکنی حد = 0 خود را تعیین می کند، سپس acc = [1 1 1 1 1] و از این رو وجود واریانس صفر مشکل ساز می شود. من سعی می کنم روش خوب و جالبی برای تجزیه و تحلیل داده های باینری پیدا کنم، شاید سازگاری در رتبه بندی ها را با ثبات در محدودیت های مقبولیت، یا روابط عمیق تر بین دو متغیر مقایسه کنم. من در آمار زیاد تجربه ندارم، بنابراین هر گونه پیشنهاد و ایده پذیرفته می شود. من در درجه اول با متلب کار می کنم.
|
کدام تحلیل همبستگی برای متغیرهای باینری و ترتیبی مناسب است؟
|
60701
|
ذرات در یک محیط مایع با غلظت 4 ذره در میلی لیتر معلق می شوند. مقدار زیادی از سوسپانسیون کاملاً هم زده می شود و سپس 3 میلی لیتر از آن خارج می شود. اجازه دهید X$ تعداد ذرات موجود در 3 میلی لیتر باشد. به موارد زیر پاسخ دهید: الف- توزیع X یک توزیع پواسون است، پارامتر آن ($\lambda$) چیست؟ ب- احتمال اینکه ذره ای از 3 میلی لیتر خارج نشود را بیابید. ج- احتمال خروج یک ذره از 3 میلی لیتر را بیابید.
|
چگونه این مثال را با استفاده از توزیع پواسون حل کنیم؟
|
104943
|
 چگونه می توانم میانگین طرحواره اول را محاسبه کنم؟ من مقادیر فردی نمونه را ندارم. Std. انحراف (B) 0.6441 است.
|
نحوه محاسبه میانگین در آمار گروهی
|
20579
|
من سعی می کنم یک رگرسیون ساده فرآیند گاوسی را در جاوا پیاده سازی کنم. تقریباً تمام مراحل را از کتاب http://www.GaussianProcess.org/gpml دریافت کردم. با اجرای الگوریتم 2.1 در صفحه 19 من می توانم نتایجی را ایجاد کنم اما: من رفتار عجیبی دارم که تمام نقاط داده پیش بینی شده در جایی که من هیچ هدفی ندارم ارزش صفر دارند. آیا کسی این رفتار را می داند یا می تواند توضیح دهد که کجا ممکن است اشتباه کرده باشم؟ در طرح من، خط قرمز مقادیر پیش بینی شده را نشان می دهد، سیاه اهداف هستند. در اینجا کد جاوا پیش بینی و کوواریانس وجود دارد. آرایه پارامتر شامل مقیاس طول و نویز است، من با آرایههای آرایهها به عنوان ورودی x برای تابع کووایانس کار میکنم: private double generateCOV_RADIAL(int i, int j) { double covar = Math.pow (پارامتر[1]، 2.0) * Math.exp(-1.0 * (Math.pow(i - j, 2.0)/(2 * Math.pow(پارامتر[0]، 2.0)))); if(i==j) covar += Math.pow(پارامتر[2], 2); بازگشت کوار; } public void predict(int predictFuture) IllegalArgumentException, IllegalAccessException, InvocationTargetException{ RealMatrix y = MatrixUtils.createColumnRealMatrix(this.targets); میانگین دو برابر = StatUtils.mean(this.targets); for(int i = 0; i < this.targets.length;i++) { targets[i] -= mean; } RealMatrix K = MatrixUtils.createRealMatrix(cov); //ماتریس هویت برای I RealMatrix k_eye = MatrixUtils.createRealIdentityMatrix(cov.length); //choleski(K + sigman^2*I) CholeskyDecomposition L = null; try { L = new CholeskyDecompositionImpl( K.add( k_eye.scalarMultiply(Math.pow(پارامتر[2], 2)) ) ); } catch (NonSquareMatrixException e) { e.printStackTrace(); } catch (NotSymmetricMatrixException e) { e.printStackTrace(); } catch (NotPositiveDefiniteMatrixException e) { e.printStackTrace(); } //معکوس Ltranspose برای بخش چپ RealMatrix L_transpose_1 = new LUDecompositionImpl(L.getLT()).getSolver().getInverse(); //معکوس Ltranspose برای تقسیم سمت چپ RealMatrix L_1 = new LUDecompositionImpl(L.getL()).getSolver().getInverse(); //alpha = L'\(L\y) RealMatrix alpha = L_transpose_1.multiply(L_1).multiply(y); دو برابر L_diag = 0.0; for(int i = 0; i < L.getL().getColumnDimension();i++) { L_diag += Math.log(L.getL().getEntry(i,i)); } double logpyX = - y.transpose().multiply(alpha).scalarMultiply(0.5).getData()[0][0] - L_diag - predictFuture * Math.log(2 * Math.PI) * 0.5; double[] fstar = new double[targets.length + predictFuture]; double[] V = new double[targets.length + predictFuture]; for(int i = 0;i < targets.length + predictFuture;i++) { double[] kstar = new double[targets.length]; for(int j = 0; j < targets.length;j++) { double covar = (Double)covMethod.invoke(this,j,i); kstar[j] = covar; } //f*=k_*^T * آلفا fstar[i] = MatrixUtils.createColumnRealMatrix(kstar).transpose().multiply(alpha).getData()[0][0]; fstar[i] += mean; //v = L\k_* RealMatrix v = L_1.multiply(MatrixUtils.createColumnRealMatrix(kstar)); //V[fstar] = k(x_*,x_*) - v^T*v double covar = (Double)covMethod.invoke(this,i,i); V[i] = covar - v.transpose().multiply(v).getData()[0][0] + Math.pow(پارامتر[2],2); } this.predicted_mean = fstar; this.predicted_variance = V; } متشکرم
|
اجرای فرآیند گاوسی
|
100746
|
PDF تفاوت دو متغیر تصادفی توزیع شده i.i.d لاپلاس چیست؟ من می دانم که تفاوت دو متغیر i.i.d Normal همچنان توزیع نرمال است. از آنجایی که ویژگی های توزیع لاپلاس مشابه توزیع نرمال است، حدس می زنم که این تفاوت در توزیع لاپلاس نیز باشد. من سعی کردم این را با استفاده از Mathematica حل کنم. نه توابع PDF و نه یکپارچه سازی پاسخ درستی نمی دهند. متشکرم
|
تفاوت بین دو توزیع لاپلاس i.i.d؟
|
62706
|
من یک صفحه گسترده دارم که در آن محتوا به این صورت سازماندهی شده است: محتوا | دسته 1 | دسته 2 | دسته 3 | ... _________|___________|___________|___________| ... مطالب 1| x | | x | ... مطالب 2| | x | | ... ... چگونه می توانم این اطلاعات را موثرتر ارائه دهم؟ به عنوان مثال، آیا یک کتابخانه جاوا اسکریپت وجود دارد که بتوانم از آن استفاده کنم یا چیزی شبیه به آن، که در آن بتوانیم فقط ردیف هایی را که به برخی دسته ها مرتبط هستند نشان دهیم، یا یک دسته را به یک ردیف و غیره تنظیم کنیم؟ پیشاپیش ممنون
|
چگونه ردیف هایی را که می توانند چندین دسته داشته باشند ارائه کنیم؟
|
52618
|
در مسئله زیر بررسی کنید که مناسب است از تقریب معمولی برای دو جمله ای استفاده کنید. سپس از توزیع نرمال برای تخمین احتمالات درخواستی استفاده کنید. مشخص است که 85٪ از تمام محصولات جدید معرفی شده در فروشگاه های مواد غذایی طی 2 سال شکست می خورند (از بازار خارج می شوند). اگر یک فروشگاه زنجیره ای مواد غذایی 68 محصول جدید معرفی کرد، احتمالات زیر را پیدا کنید. (پاسخ های خود را به چهار رقم اعشار گرد کنید.) (الف) در عرض 2 سال 47 یا بیشتر شکست می خورند (ب) در عرض 2 سال 58 یا کمتر شکست می خورند. (ج) در عرض 2 سال 15 یا بیشتر موفق شوند. (د) در عرض 2 سال کمتر از 10 موفق شوند
|
کمک توزیع
|
48287
|
من SVD را بر روی ماتریسی محاسبه می کنم که نسخه تجربی $E[XY^{\top}]$ برای مقداری $X \in \mathbb{R}^{m \times 1}$ و $Y \in \mathbb است. {R}^{n \times 1}$. من نمیپرسم آیا روشهای استانداردی برای پیشپردازش $x_1،\ldots،x_l$ و $y_1،\ldots،y_l$ قبل از انجام این کار وجود دارد (غیر از تفریق میانگین و تقسیم بر انحراف استاندارد). این به سوال اینجا مربوط می شود: نرمال سازی متغیرها برای SVD / PCA.
|
چگونه داده ها را برای SVD پیش پردازش می کنید؟
|
52614
|
من مجموعاً 31 نفر جمعیت دارم، از این تعداد 20 نفر جمعیت تمام کننده درمان دارم. می خواهم آزمایشی را روی SPSS انجام دهم تا مشخص کنم که آیا بین 20 فردی که درمان را کامل کرده اند و گروه به طور کلی تفاوت قابل توجهی وجود دارد یا خیر. متغیرهایی که من سعی می کنم مقایسه کنم سن، وزن، قد و BMI است. من برای کل جمعیت و زیر گروه به طور جداگانه توصیفی اجرا کرده ام، می توانم ببینم تفاوت کمی بین گروه ها وجود دارد اما می خواهم اهمیت آماری را بدانم.
|
آیا بین جامعه مورد مطالعه من و یک زیر گروه در آن تفاوت آماری معناداری وجود دارد؟
|
48286
|
من دو مدل دارم اول، $$z=\alpha_1x+\alpha_2+\epsilon$$ و دوم، $$z=\beta_1x+\beta_2y+\beta_3+\epsilon.$$ چه عواملی بر اینکه $\alpha_1\approx\beta_1$ تأثیر میگذارد؟ توجه داشته باشید که من اهمیتی نمیدهم که هر کدام از مدلها با چه دقتی $z$ را پیشبینی میکنند. من فقط به این موضوع اهمیت می دهم که ضریب عبارت $x$ در هر دو مدل چقدر شبیه است. فرض کنید هر دو $x$ و $y$ در واقع $z$ را پیشبینی میکنند و تعاملی ندارند.
|
فکر کردن در مورد اینکه چگونه افزودن متغیرهای اضافی بر رگرسیون خطی تأثیر می گذارد
|
54618
|
من علاقه مند به توسعه جستجوی محاسباتی برخی از انواع RNA های غیر کد کننده (ncRNA ها) روی یک ژنوم جدید هستم. من سوالاتی در رابطه با ماهیت آزمایش خود دارم، زیرا این یک مطالعه اکتشافی است و می توانم با اعمال استراتژی های مختلف جستجوی BLAST نتایج متفاوتی ایجاد کنم. خروجی نهایی شامل تعداد متفاوتی از هر نوع ncRNA برای هر استراتژی BLAST است. چگونه می توانم استراتژی های جستجوی خوبی طراحی کنم، با توجه به اینکه این اولین جستجو در این ژنوم جدید است؟ مراجع قدردانی خواهند شد. با تشکر
|
طراحی استراتژی های جستجوی ژنومی برای RNA های غیر کد کننده با استفاده از BLAST
|
113651
|
آیا پس از اجرای مدل لاجیت چند جمله ای، داشتن ضریب مثبت با اثر حاشیه ای / تاثیر منفی قابل قبول است؟
|
ضریب مثبت اما اثر حاشیه ای منفی در mlogit
|
54613
|
من کمیت ظاهراً جالبی به نام پیچیدگی بیزی دیدهام که در این مورد به صورت $-2(\overline{\n\mathfrak{L}} - \ln\mathfrak{L}_\mathrm{max})$ تعریف میشود. . من مطمئن نیستم که این برای چه استفاده می شود. به عنوان مثال، چه نوع آزمایش هایی را می توان روی این کمیت انجام داد و چه چیزی را نشان می دهد؟
|
تست های پیچیدگی بیزی
|
48756
|
آیا کسی می تواند بهترین روش را برای پیش بینی فاصله زمانی بین دو رویداد پیشنهاد دهد؟ به عنوان مثال، با توجه به اینکه دیابتی ها در معرض خطر بیشتری برای ابتلا به فشار خون هستند، من می خواهم فاصله زمانی تا زمانی که بیماران پس از تشخیص دیابت به فشار خون مبتلا می شوند را پیش بینی کنم. من هم متغیر وابسته به زمان و هم متغیر مستقل خواهم داشت. آیا این نیاز به یک رویکرد طولی دارد؟
|
چگونه فاصله زمانی بین دو شرط را پیش بینی کنیم
|
54610
|
من سعی می کنم یک سری کلماتی را که توسط کاربران ارائه می شود تأیید کنم. من سعی میکنم یک سیستم امتیازدهی ارائه کنم که احتمال اینکه مجموعه کلمات واقعاً کلمات معتبری هستند را تعیین کند. ورودی زیر را فرض کنید: xxx yyyy zzz اولین کاری که انجام میدهم این است که هر کلمه را به صورت جداگانه در مقابل پایگاه دادهای از کلماتی که دارم بررسی میکنم. بنابراین، فرض کنید xxx در پایگاه داده بود، بنابراین ما 100٪ مطمئن هستیم که یک کلمه معتبر است. سپس بیایید بگوییم که «yyyy» در پایگاه داده وجود ندارد، اما یک تغییر احتمالی از املای آن وجود دارد (مثلاً «yyyy»). ما به «Yyy» نمره 100٪ نمی دهیم، اما شاید چیزی کمتر (مثلاً 90٪). سپس `zzz` اصلاً در پایگاه داده وجود ندارد. بنابراین، `zzz` امتیاز 0٪ دریافت می کند. بنابراین چیزی شبیه به این داریم: xxx = 100% yyyy = 90% zzz = 0% در ادامه فرض کنید که کاربران یکی از این دو را میخواهند: 1. فهرستی از همه کلمات معتبر (به احتمال زیاد) ارائه کنید. 2. فهرستی از همه ارائه دهید. کلمات نامعتبر (احتمالا) 3. ارائه فهرستی از ترکیبی از کلمات معتبر و نامعتبر (به احتمال زیاد) به طور کلی، سیستم امتیازدهی خوبی برای تعیین نمره اطمینان `xxx yyy zzz` یک سری کلمات معتبر است؟ من به دنبال چیز خیلی پیچیده ای نیستم، اما گرفتن میانگین نمرات درست به نظر نمی رسد. اگر برخی از کلمات موجود در لیست کلمات معتبر باشند، من فکر می کنم این احتمال را افزایش می دهد که کلمه ای که در پایگاه داده یافت نمی شود یک کلمه واقعی نیز باشد (این فقط یک محدودیت پایگاه داده است که آن کلمه خاص را در بر ندارد). توجه: ورودی به طور کلی حداقل 2 کلمه (و بیشتر 2 کلمه) خواهد بود، اما می تواند 3، 4، 5 باشد (و شاید در برخی موارد نادر حتی بیشتر باشد). **مثال 1:** نمرات زیر را بگویید: xxx = 100% yyyy = 100% zzz = 0% میانگین 66.66% است. اما از آنجایی که در حال حاضر دو کلمه در لیست در پایگاه داده وجود دارد، این احتمال وجود دارد که zzz نیز یک کلمه واقعی باشد. امتیاز دادن به این سری از کلمات فقط 66.66٪ کم به نظر می رسد.
|
پیشنهاد فرمول برای یک سیستم امتیازدهی، راه حل وزنی
|
52785
|
من فقط یک زبان شناس هستم، بنابراین دانش من در مورد آمار بسیار ابتدایی است. من یک مدل رگرسیون لجستیک را با R تطبیق دادم (با «lrm(فرمول، y=T، x=T)»)، و وقتی از گزینه «تأیید اعتبار(lrm)» استفاده میکنم، آماری را دریافت میکنم که واقعاً نمیفهمم. index.orig آموزش تست خوشبینی index.corrected n Dxy 0.5984 0.6112 0.5461 0.0651 0.5333 40 R2 0.3258 0.3676 0.2929 0.0747 0.00000.2500 0.0747 0.2500. -0.0105 0.0105 -0.0105 40 شیب 1.0000 1.0000 0.8427 0.1573 0.8427 40 Emax 0.0000 0.0000 0.0399 0.0399 0.0399 0.0399 D 0.3176 0.2394 0.0782 0.1931 40 U -0.0177 -0.0177 0.0092 -0.0269 0.0092 0.0092 40 Q 0.2890 0.3353 0.2303 0.2303 0.23010 0.1010 B 0.1772 0.1972 -0.0201 0.2064 40 g 1.4632 1.6642 1.3460 0.3182 1.1449 40 gp 0.2840 0.3011 0.2703' 0.2703' 0.2703' 0.2703'0. که من فکر می کنم «R2» و «Dxy» قرار است آماری از میزان خوب بودن پیش بینی کننده ها باشند، اما مطمئن نیستم که چگونه باید مقادیر را تفسیر کنم، آیا «Dyx = 0.651» تصحیح شده به این معنی است که یک همبستگی قوی وجود دارد؟ در حالی که R2 = 0.0747 تصحیح شده به این معنی است که همبستگی بسیار ضعیف است؟ من فکر می کنم مدل بیش از حد نصب شده است، اما مطمئن نیستم که درست می گویم. همچنین سایر آمارها برای من کاملاً عجیب است. «Emax، D، U، Q، B، g» و «gp» چیست؟
|
نحوه تفسیر آمار (Emax، D، U، Q، B، و غیره) اعتبار بوت استرپ رگرسیون لجستیک
|
48753
|
مدتی است که با خودهمبستگی فضایی کار میکنم و اکنون سعی میکنم از برآوردگرهای سنتیتری مانند Moran's I یا Geary's C به تخمینگر جدید APLE حرکت کنم. من مقالات لی در مورد APLE و همچنین مرجع در پروژه R را خواندم. اما من هنوز یک چیز بسیار اساسی را از دست می دهم، زیرا هنوز چیزی را متوجه نشده بودم: نتایج آمار APLE گفته می شود که یک فرم بسته است اما من متوجه نشدم که کدام است. به عنوان مثال، در حالی که Moran's I can gom از -1 به 1 است، نتوانستم مرزهای احتمالی آمار APLE را بفهمم. جالبتر اینکه، من آزمایشهایی را روی دادههای قدیمیتر خود انجام دادهام، با استفاده از بسته spdep در R، و به نظرم میرسد که APLE میتواند تا 2 برسد. کسی در این مورد اشارهای دارد؟ لطفا، هر گونه بینش در اینجا بسیار قدردانی خواهد شد.
|
نتایج احتمالی تخمینگر تقریبی پروفایل-احتمالیابی (APLE) برای خودهمبستگی فضایی
|
48755
|
من یک مدل لاجیت دارم و سعی می کنم مقادیر پیش بینی شده و مشاهده شده تولید شده توسط مدل را درک و مقایسه کنم. فرض کنید مجموعه داده 100 مقدار داشت و من تمام احتمالات پیش بینی شده را تولید می کنم و سپس احتمالات واقعی را از مجموعه داده ها پیدا می کنم. اگر من مقادیر پیش بینی شده را با مقادیر مشاهده شده مقایسه می کنم، فکر می کنم دو راه برای انجام آن وجود دارد. یکی این است که آن را ارزش بر اساس مقدار انجام دهیم، در حالی که دومی گروهبندی بر اساس «احتمالات پیشبینیشده» است. روش 1: x_value pred_val obs_val 100 0.30 0.34 102 0.33 0.36 104 0.35 0.37 106 0.40 0.40 ... من همچنین فکر می کنم راهی برای تجمیع این مقادیر وجود دارد. بنابراین من به این فکر می کنم که تمام مقادیر x را در جایی که احتمالات پیش بینی شده بین 10 تا 20 درصد است جمع آوری کنم، سپس مقدار میانگین پیش بینی شده را از آن محدوده و به دنبال آن مقدار پیش بینی شده برای آن محدوده را بیابم. روش 2: Pred_probs pred_val obs_val 10 تا 20% vals 0.10 0.11 21 تا 30% vals 0.12 0.16 31 تا 50% vals 0.15 0.30 چیزی که من تعجب می کنم این است: 1. زمانی که داده ها وجود دارد، چه چیزی استفاده می شود. لیستی از پیش بینی و مقادیر مشاهده شده برای هر مقدار معین x؟ 2. آیا انجام کاری همانطور که در «روش 2» مشخص شده است، منطقی است؟
|
مقادیر مشاهده شده در مقابل مقادیر پیش بینی شده از یک مدل لاجیت
|
95107
|
من با موفقیت از DBN ها برای طبقه بندی برای MNIST و برخی وظایف دیگر استفاده کرده ام. من در فکر انجام کاهش ابعاد قبل از تمرین بودم تا عملکرد را افزایش دهم. با این حال، وقتی سعی کردم از خروجی PCA برای آموزش یک شبکه باور عمیق استفاده کنم، نتایج بسیار بد بود. من میدانم که DBNها ویژگیهایی را از تصویر یاد میگیرند و ممکن است PCA دادهها را در فضایی پخش کند که در آن چیزها دیگر شبیه به هم نباشند، اما من انتظار چنین نتیجه بدی را نداشتم. هیچ ایده ای دارید که چرا این می تواند باشد؟ من مخصوصاً متعجب شدم زیرا این مقاله با موفقیت از آن استفاده کرده است: کاغذ اینجاست متشکرم!
|
شبکه های باور عمیق و PCA
|
104948
|
فرض کنید از یک روبات سوالی می پرسم: چرا معادلات دیفرانسیل جزئی اصلا جالب نیست؟ فرض کنید ربات احمق است و سوال من را در کلاس گربه ها دسته بندی می کند، بنابراین با این پاسخ می گوید: گربه ها کرکی و عالی هستند. بنابراین من بارها و بارها سؤال خود را تکرار می کنم و متأسفانه ربات همچنان به کلاس گربه ها می زند. ضربه های متوالی نمونه ای از یک عامل خطر است. این نشان می دهد که شاید مشکلی در کلاس گربه ها در مغز ربات وجود دارد. شاید کلمه PDEs به عنوان متن نمونه در زیر کلاس برای ترسیم ظاهر شود. فرض کنید من مجموعهای از کلاسها دارم (مثلاً «گربهها»، «سگها») که همگی عوامل خطر یکسانی دارند (مثلاً «ضربههای متوالی»، «نمرات بد کاربر» و غیره). هر فاکتور خطر دارای وزن خاص خود است که می توانم از 0-10 تنظیم کنم که در آن 0 اساساً به این معنی است که می توانم فاکتور خطر را به طور کامل رها کنم و 10 مهمترین آن است. برای هر کلاس، من می توانم وقوع هر یک از عوامل خطر را در وزن مربوط به آن ضرب کنم و همه آنها را جمع کنم تا یک امتیاز ریسک برای کلاس بدست بیاورم. بنابراین، هر کلاس دارای یک امتیاز ریسک است و من میتوانم روی اصلاح کلاسهایی با بالاترین امتیاز ریسک تمرکز کنم. سوال من این است: چگونه می توانم وزن عوامل خطر را به طور بهینه انتخاب کنم تا به من بگویم که واقعاً خطرناک ترین کلاس ها چیست؟ این یک سوال کاملا باز است. من به دنبال ایدهها، مقالات، کتابها یا تکنیکهای آماری هستم که ممکن است برای این تلاش مفید باشد. خیلی ممنون
|
چگونه تعیین کنیم که آیا یک شاخص ریسک واقعاً یک شاخص ریسک است یا خیر
|
104323
|
من در مدرسه از تجزیه و تحلیل کای اسکوئر استفاده کرده ام، اما در درس غایب بودم، و هیچ وقت کاملاً متوجه آن نشدم. من در گذشته با آن موفق بودهام، اما اکنون سعی میکنم از مقادیر درصد استفاده کنم و پاسخهای مورد انتظارم را دریافت نمیکنم. من در حال انجام یک نظرسنجی و مقایسه یافتههایم با میانگینهای ملی هستم، اما وقتی از درصدها استفاده میکنم (مانند درصد شرکتکنندگان بین 21 تا 29 سال)، اعداد بسیار کوچکی به دست میآورم (2.3٪ 0.023 است). اگر از درصدها برای مقدار مورد انتظار استفاده کنم، آیا مهم است؟ به عنوان مثال: Chi² برای گروه سنی 21-29 $ (0.084 - 0.1642)^2 / 0.1642 = 0.039187$ است. مقدار مجذور کای کل 0.1368 است که بسیار کوچکتر از مقدار جدول chi مربع 0.5% برای 8 درجه است. آزادی، 17.535، اما اعداد بسیار دور به نظر می رسند. آیا باید اعداد کامل را پیدا کنم؟
|
درصدهای تجزیه و تحلیل مربع کای
|
48752
|
پاسخ سوال من ممکن است برای اکثر شما آسان باشد. من شروع به یادگیری آمار و کد نویسی در R می کنم بنابراین سوالات من در سطح پایه هستند. من یک مجموعه داده از (دو گروه، تکرار) دارم. دادههای من بر اساس گروهها تقسیم میشوند، بنابراین من 24 نمونه در گروه 1 و 20 نمونه در گروه 2 دارم. دادههای من دارای تکرار هستند. بنابراین هر مجموعه دارای 4 تکرار است، بنابراین من 6 مجموعه در گروه 1 و 5 مجموعه در گروه 2 دارم. از این رو برای سهولت در هنگام جایگشت به آنها شاخص هایی اختصاص داده ام (شاخص های 1-11). کاری که اکنون میخواهم انجام دهم، تجزیه و تحلیل جایگشت معمولی برای به دست آوردن آمار آزمون است. من از روش غیر پارامتریک با نمونه برداری مجدد با جایگزینی استفاده می کنم. شک\مشکل من در کدنویسی R این است که باید داده ها را با هم ترکیب کنم و سپس گروه ها را مجدداً نمونه برداری کنم. وقتی سعی میکنم این کار را انجام دهم، ** باید مطمئن شوم که اندازه نمونه را برای گروههای مربوطه حفظ میکنم (یعنی پس از نمونهگیری مجدد از برچسبهای گروه، مجموعه داده جدید من همچنان باید شامل 6 مجموعه (24 نمونه) در گروه 1 و 5 باشد ( 20 نمونه) در گروه 2.** من قادر به دستیابی به دومی نیستم من چیزی شبیه به این را در کدم امتحان کردم: n_resamples=100 permdat=function(dat){. برای (i در 6:nc) { برای (j در 1:n_resamples) { inds=unique(dat$ind) cc=dat$grp[dat$ind==inds] pcc=sample(cc,replace=T) # #برای نمونهبرداری مجدد با جایگزینی #m<-list() pdat=dat for(i در 1:length(inds)) { pdat$grp[pdat$ind==inds[i]]=pcc[i] #browser () } با تشکر از همه شما برای کمک
|
نمونه برداری مجدد با تجزیه و تحلیل جایگشت جایگزین
|
78411
|
بابت اختلاط ایجاد شده عذرخواهی میکنم من سعی می کنم یک تجزیه و تحلیل دی آلل با سه والدین در طیور انجام دهم. من سعی کردم از برنامه SAS05 استفاده کنم اما کار نکرد، حدس میزنم برای آنالیز دی آلل که شامل 4 تا 12 والدین است طراحی شده است. من از هر توصیه یا راهنمایی در مورد نحوه انجام آنالیز دی آلل با 3 والدین با استفاده از R یا SAS قدردانی خواهم کرد. متشکرم
|
تجزیه و تحلیل دی آلل
|
48757
|
من خواندم که الگوریتم k-means فقط به یک حداقل محلی و نه به یک حداقل جهانی همگرا می شود. چرا این است؟ من منطقاً می توانم به این فکر کنم که چگونه مقداردهی اولیه می تواند بر خوشه بندی نهایی تأثیر بگذارد و احتمال خوشه بندی زیر بهینه وجود دارد، اما چیزی پیدا نکردم که از نظر ریاضی آن را ثابت کند. همچنین، چرا k-means یک فرآیند تکراری است؟ آیا نمیتوانیم تابع هدف w.r.t را تا حدی متمایز کنیم. به مرکز، آن را با صفر برابر کنید تا مرکزهایی که این تابع را به حداقل میرسانند، پیدا کنید؟ چرا باید از شیب نزول برای رسیدن به حداقل گام به گام استفاده کنیم؟
|
چرا k-means حداقل جهانی را ارائه نمی دهد؟
|
99658
|
من در مورد نتایج یادگیری ماشین در مجموعه داده خود کمی گیج هستم. اگر کسی بتواند من را در این مورد روشن کند سپاسگزار خواهم بود: وقتی ویژگی ها از نظر آماری بین دو گروه متفاوت است، آیا یادگیری ماشینی نمی تواند کلاس مناسب را با دقت معقولی پیش بینی کند؟ دادهها شامل 9 ویژگی است که 8 مورد از آنها بین گروهها تفاوت معنیداری داشتند (ttest مستقل دو دنباله). کل مشاهدات 71 (30 و 41) بود. با این حال، یادگیری ماشین تنها قادر به تولید حدود 65٪ دقت طبقه بندی (10 برابر اعتبار متقاطع) بود. من از SVM با هسته RBF، kNN، Random Forest و Naive Bayes استفاده کرده ام. سوال من این است که آیا طبیعی است؟ آیا زمانی که ویژگی ها بین گروه ها تفاوت معنی داری نداشتند، می توان دقت طبقه بندی بالاتری را به دست آورد؟ با تشکر
|
دقت طبقه بندی پایین برای ویژگی های آماری متفاوت
|
80309
|
اگر دو متغیر A={20 مقدار} و B={20 مقدار} داشته باشیم و بخواهیم همبستگی بین این دو متغیر را اندازه گیری کنیم. فرض کنید n مقدار اول با هم همبستگی بالایی دارند اما مقادیر m باقیمانده همبستگی ندارند. همبستگی کلی بین A و B ممکن است نشان دهنده اهمیت رابطه نباشد. تصور کنید که فقط همبستگی ضعیفی در برخی مقادیر وجود دارد، اما چندین مقدار مطابقت واقعاً خوبی بین A و B نشان میدهند. ضرایب همبستگی سنتی چنین رابطهای را نشان نمیدهند. آیا معیار یا روش آماری وجود دارد که بتواند چنین رابطه ای را بین A و B تشخیص دهد؟
|
همبستگی زیربعدی بین 2 متغیر را شناسایی کنید
|
80301
|
من خروجی های مصرف انرژی را از دو دستگاه مقایسه می کنم که فعالیت بدنی را در یک محیط زندگی آزاد در مدت 10 روز دنبال می کنند. آب دارای برچسب مضاعف معیار پذیرفته شده برای این است، اما 1) این تکنیک فقط کل مصرف انرژی را نشان می دهد و 2) من از این در مطالعه خود استفاده نکردم... هر دو دستگاهی که استفاده کردم قبلاً در برابر DLW تأیید شده اند. این دستگاهها اطلاعات بسیار بیشتری نسبت به DLW میدهند، یعنی زمان صرف شده در آستانههای خاص PA و تعداد دفعات در هر آستانه. من می خواهم میزان توافق بین دو دستگاه را ارزیابی کنم. من میدانم که نمودارهای بلند-آلتمن معمولاً برای ارزیابی توافق بین دستگاههای اندازهگیری استفاده میشوند، اما من در تلاش هستم تا تصمیم بگیرم از کدام آزمون بدون اندازهگیری مرجع/معیار استفاده کنم. من حدس میزنم که یک همبستگی پایه اطلاعاتی را ارائه میدهد، اما فکر میکردم آیا کسی میتواند اطلاعات و/یا راهنمایی بیشتری برای تجزیه و تحلیل آماری پیچیدهتر ارائه دهد. شاید یک رگرسیون / مجموع مربع ها اختصاص یابد؟ هر گونه کمکی بسیار قدردانی خواهد شد.
|
مقایسه دو دستگاه اندازه گیری بدون اندازه گیری معیار
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.