_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
4961
برخلاف سایر مقالات، مدخل ویکی‌پدیا برای این موضوع را برای یک فرد غیر ریاضی (مثل من) غیرقابل خواندن یافتم. من ایده اصلی را درک کردم که شما از مدل هایی با قوانین کمتر استفاده می کنید. چیزی که من نمی‌فهمم این است که چگونه می‌توانید از مجموعه‌ای از قوانین به یک «نمره منظم‌سازی» برسیم که می‌توانید از آن برای مرتب‌سازی مدل‌ها از کمترین به بیش‌ترین حد مناسب استفاده کنید. آیا می توانید یک روش منظم سازی ساده را توضیح دهید؟ من به زمینه تجزیه و تحلیل سیستم های معاملاتی آماری علاقه مند هستم. خیلی خوب است اگر بتوانید توضیح دهید که آیا می توانم منظم سازی را برای تجزیه و تحلیل دو مدل پیش بینی زیر اعمال کنم: مدل 1 - قیمت زمانی که افزایش می یابد: * exp_moving_avg (قیمت، دوره = 50) > exp_moving_avg (قیمت، دوره = 200) مدل 2 - افزایش قیمت زمانی period=200) بالا رفتن اما من بیشتر علاقه مندم که در مورد نحوه منظم کردن شما احساس کنم. بنابراین اگر مدل های بهتری برای توضیح آن می شناسید لطفا انجام دهید.
منظم سازی در انگلیسی ساده چیست؟
3268
من حدود ده گروه (شرکت) دارم. هر گروه با گروه دیگری مرتبط است. داده هایی که من دارم نشان دهنده قدرت اتصال است. تصور کنید تعداد دفعاتی است که فردی از گروه A یک ایمیل به گروه B ارسال کرده است. قدرت یک اتصال می تواند 0 باشد. دو ارتباط بین دو گروه وجود دارد، A-B و B-A. الف) راه خوبی برای تجسم این موضوع چیست؟ مثلاً می‌توانم تصور کنم که هر گروه یک دایره است. خطوط دایره ها را به هم متصل می کنند و ضخامت خط نشان دهنده قدرت اتصال است. اینکه بتوانید اندازه گروه ها را مشخص کنید یک امتیاز مثبت است اما الزامی نیست. ب) آیا ابزار نرم افزاری برای تجسم این موضوع می شناسید؟ این ابزار نباید خیلی گران باشد یا باید به عنوان یک نسخه آزمایشی در دسترس باشد زیرا در حال حاضر فقط یک اثبات مفهوم است. لازم نیست که مبتنی بر وب باشد. با تشکر
تجسم ارتباطات بین گروه ها
14044
من یک ANOVA یک طرفه را روی 8 گروه انجام داده ام. من می‌دانم که درجه آزادی برای آن آزمون 7 است، اما نمی‌دانم چگونه می‌توان درجات آزادی را برای آزمون‌های تعقیبی تعیین کرد: من یک سری آزمون t را به عنوان مقایسه چندگانه پس‌هک با استفاده از Holm انجام دادم. روش سیدک کاهش میزان خطای خانوادگی. چگونه می توان فهمید که درجات آزادی برای چنین آزمون هایی چقدر است؟ آیا به سادگی «n1 + n1 - 2» است، همانطور که برای آزمون های t معمولی است؟ اگر چنین است، از آنجایی که اندازه نمونه‌های من برای آزمون t-hoc مورد نظر به ترتیب 893 و 169 است، آیا اندازه نمونه کمی بالا می‌رود و باعث می‌شود نرخ خطای نوع I من افزایش یابد؟ با تشکر
درجات آزادی برای آزمون های پس از آن
37535
من یک رگرسیون چندگانه را با استفاده از 10 متغیر مستقل و تک متغیر وابسته (رفتار شکایت مصرف کننده) اجرا کردم. یکی از آن متغیرهای مستقل جنسیت بود. $R^2$ برای خود مدل $0.157 بود (F=20.50، p =.000)$ که در حالی که بالاترین امتیاز R^2$ حداقل معنی دار نبود. پایین در جدول ضرایب جنسیت $(\beta = -.083, p = 0.006)$. همانطور که سرپرست من توضیح داد، نمره قابل توجهی است که جایگزین را می پذیرد و با CCB رابطه منفی دارد. از نظر تفسیری، به این معنی است که مردان بیشتر از زنان شکایت می کنند (مرد = 1 زن = 2). حالا کمی کنجکاو شدم و برای تست تفاوت میانگین ها تست t انجام دادم و همانطور که مشخص شد بین گروه های جنسیتی تفاوت معنی داری وجود ندارد. اینجاست که من کمی گیج می شوم... مطمئن نیستم که چگونه می خواهم این نتایج را تفسیر کنم. فقط به نظر می رسد که شاید آنها با یکدیگر در تضاد هستند؟
تضاد بین اثر معنی دار در رگرسیون چندگانه، اما آزمون t غیر معنی دار به تنهایی
57345
من سعی می کنم تفاوت بین این پارامترها و کاربرد آنها را درک کنم. امیدوار بودم که برخی اصلاحات/توضیحات را در اظهارات من دریافت کنم. من یک مجموعه آموزشی و یک مجموعه اعتبار سنجی متقابل دارم. من از آمار بیزی استفاده می کنم، متوجه شدم که AIC و BIC را نمی توان در این زمینه استفاده کرد. AIC و BIC ارزیابی می کنند که مدل چقدر با مجموعه آموزشی مطابقت دارد. DIC ارزیابی می کند که چگونه مدل با برخی از داده های آینده (یعنی مجموعه اعتبار سنجی متقابل) مطابقت دارد. بنابراین در صورت استفاده از روش‌های MLE، آیا باید AIC و BIC را در مجموعه اعتبارسنجی متقاطع محاسبه کرد؟ برعکس، هنگام استفاده از روش‌های بیزی، آیا نیازی به محاسبه DIC برای مجموعه اعتبارسنجی متقاطع نیست زیرا طبق تعریف به داده‌های آینده مربوط می‌شود؟ ممنون مارک
AIC، BIC، DIC، معیارهای انتخاب مدل
14045
از «?combine» در randomForest: > مؤلفه های confusion، err.rate، mse و rsq (و همچنین > مؤلفه های مربوطه در مؤلفه آزمایشی، در صورت وجود) شی > ترکیبی NULL خواهد بود. چرا اجزای err.rate، mse و rsq برای ترکیب ترکیبی NULL هستند؟ آیا روش کارآمدی برای محاسبه مجدد این معیارها وجود دارد؟ من می‌پرسم زیرا می‌خواهم راهی برای استفاده از روش نمونه‌گیری مجدد «oob» با مدل «parRF» در caret بیابم.
با ترکیب جنگل‌های تصادفی در R، چرا مولفه‌های err.rate، mse و rsq NULL هستند؟
58042
فرض کنید ما یک زنجیره مارکوف با ماتریس احتمال $$ P = \begin{pmatrix} 0.25 & 0.25 & 0.5 & 0 & 0 \\\ 0 & 0.66 & 0 & 0.33 & 0 \\\ 0 & 0.25 & 0.25 & 0.5 داریم. 0.25 \\\ 0.5 و 0 و 0 & 0.25 & 0.25 \\\ 0 & 0 & 0 & 0.2 & 0.8 \end{pmatrix} $$ من گیج شده‌ام، ممکن است واقعاً ابتدایی به نظر برسد اما نمی‌خواهم آن را در امتحان به شانس بسپارم. کلاس های ارتباطی چه خواهد بود. من فکر می‌کردم که تنها یکی وجود خواهد داشت که همه ایالت‌ها با هم ارتباط برقرار می‌کنند، بنابراین کاهش‌ناپذیر است. اما حالت های 4 و 5 می توانند یک کلاس باشند؟ متاسفم برای سوال اساسی ما یک مدرس ضعیف داشتیم و مجبور بودیم این را بیشتر از کتاب یاد بگیریم.
کلاس های ارتباطی را برای این زنجیره مارکوف تعیین کنید
106042
در حال کار بر روی مشکل استخراج حداقل زیرمجموعه معیارها در یک مشکل مکان یابی، به PCA متوسل شدم، من فقط 26 فرد (اندازه گیری) دارم، طبیعتاً فکر کردم عاقلانه است که بپرسم آیا این تعداد کافی است یا خیر. من نتایج را به دست می‌آورم، موضوع این نیست، فقط می‌دانم که آیا می‌توانم به آنها اعتماد کنم یا نه. بنابراین حدس می‌زنم، یک سوال تکمیلی این خواهد بود: **_تعداد اقدامات ایده‌آل برای اطمینان از تجزیه و تحلیل PCA جامد چقدر است؟_** با تشکر از پاسخ‌های شما، روز خوبی داشته باشید!
آیا تعداد ایده آلی از اقدامات در PCA وجود دارد؟
57349
من در زمینه مدل سازی با جلوه های ترکیبی کاملاً جدید هستم. برای مبتدی مانند من، حدس می‌زنم که چندین سطح از پیچیدگی را در تجزیه و تحلیل خود ترکیب کنم: مشاهدات زوجی و متغیرهای پاسخ محدود. امیدوارم در توضیحاتم واضح باشم و حداقل در مورد برخی از چالش هایی که با آن روبرو هستم، نظرات مفیدی دریافت کنم. پیشاپیش ممنون به طور خلاصه، هدف من مقایسه عملکرد انواع مدل های توزیع گونه ها بر اساس چندین شاخص عملکرد، در مجموعه ای از 89 گونه است. **متغیرهای پاسخ:** متریک AUC (محدود شده بین 0 و 1) یا شاخص بویس (محدود شده بین 1- و 1) **اثر ثابت:** نوع_مدل (مدل_اقلیمی،_مدل_استفاده_زمین) **اثر تصادفی:** 89 گونه، 10 تکرار برای هر یک از 89 گونه که حدس می‌زنم می‌توان انجام داد: `fit1<-lme(model_performance_value~model_type, random=~1|species, data=dat)` با استفاده از خلاصه (fit1) دریافت می کنم: اثرات ثابت: model_performance_value ~ model_type Value Std.Error DF t-value p-value (intercept) ) 0.6362836 0.028055699 1690 22.67930 0 technologyunbiased_boyce 0.1680262 0.007156959 1690 23.47732 0 (1) آیا گرفتن مقادیر p 0 (با استفاده از aov(fit1) <0.001 شد) خوب است؟ (2) آیا فکر می کنید DF ها خوب هستند؟ (3) اگر از AUC به عنوان متغیر پاسخ استفاده کنم، به [0,1] و اگر از شاخص Boyce استفاده کنم، به [-1,1] محدود می شود. آیا باید از مدل های دیگری با چنین متغیرهای پاسخی استفاده کنم؟ **در نظر گرفتن مقایسه های جفت شده:** متغیر پاسخ گونه A replicate 1 climatic_model با متغیر پاسخ گونه A replicate 1 land_use_model جفت می شود. تکرارها بین انواع مدل اما در یک گونه معین جفت می شوند. متغیر دیگری به نام paired_id ساختم. این متغیر به صورت species_replicate نوشته شده است و 10 تکرار در 89 گونه = 890 مقدار می گیرد. model_type species replicate paired_id clim A 1 A_1 land A 1 A_1 clim A 2 A_2 land A 2 A_2 clim B 1 B_1 دنبال کردن این لینک (مثال در زمینه بسیار ساده تر) http://www2.compute.dtu.dk/~hmad/ GLM/Slides_2012/week09/lect09.pdf، انجام دادم: fit1<-lme(model_performance_value~model_type, random=~1|species/paired_id, data=subset) مقدار p 0 و DF=890 بدست آوردم. با این حال، من مطمئن نیستم که به هیچ وجه به این روش کار کند. من حدس می زنم پیچیده تر از این است. کسی راهنمایی هایی برای من دارد؟ هر گونه کمک بسیار قدردانی!
مدل‌سازی اثر مختلط با مشاهدات زوجی و متغیرهای پاسخ محدود
84030
من اطلاعاتی از قیمت یک محصول قبل از عرضه نسخه جدیدتر و بعد از عرضه نسخه جدیدتر دارم. من می خواهم شیب محصول را قبل از محصول جدید مدل کنم و محصول جدید را پست کنم. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ffsHQ.png) با نگاهی به داده ها، مشخص است که این نقطه در چه زمانی است و شیب منفی محصول در طول زمان افزایش می یابد. مدل های خطی چندان منطقی نبودند، زیرا رهگیری ها متفاوت هستند و واقع بینانه نیستند؟ PRE: Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 668.12155 2.25824 295.86 <2e-16 *** pre -0.23071 0.01968 -11.72 <2e-16 *** POST (بعد از روز 150): ضرایب Estim St. خطای t مقدار Pr(>|t|) (Intercept) 821.00351 10.96838 74.85 <2e-16 *** post -1.13929 0.04899 -23.25 <2e-16 *** هر گونه راهنمایی در مورد نحوه برخورد با این مشکل مفید خواهد بود.
مدل سازی شیب ها در طول زمان
90800
(برای این بحث ممکن است مدل تک پارامتری و داده های تک متغیری را فرض کنیم). من می‌دانم که «اطلاعات مشاهده‌شده» ارزیابی‌شده در MLE انحنا را اندازه‌گیری می‌کند و از این رو میزان اطلاعاتی را که داده‌های ما به ما می‌دهند، اندازه‌گیری می‌کند. اطلاعات مشاهده شده در اینجا به این اشاره دارد که قبلاً یک نمونه به دست آورده باشید و سپس $-d^2l/d\theta^2$ را محاسبه کنید ($l$ در اینجا log- احتمال است). من همچنین تعریف Fisher Information را می‌دانم و می‌دانم که $l$ قبل از ترسیم داده‌ها تصادفی است. با این حال، از نظر یک توضیح شهودی، ویکی‌پدیا و منابع مختلف دیگر می‌گویند که اطلاعات فیشر مقداری از انحنا را نشان می‌دهد یا همچنان اطلاعات را به همان روشی که برای اطلاعات مشاهده‌شده توضیح دادم به ما می‌گوید. این، من مخالفم وقتی من $I(\theta)$ را با میانگین انحنای روی همه $l$ ممکن ارزیابی می کنم، باید در نظر داشته باشیم که $\theta$ لازم نیست اوج $l$ باشد - برای برخی $l$، اینطور است: اما برای $l$ دیگر، ممکن است بسیار دور از قله باشیم، و انحنای این مناظر در اطلاعات فیشر ممکن است منجر به جلوه‌های خنده‌دار شود. چرا ما به انحنای $\theta$ برای این $l$ عجیب اهمیت می دهیم که در آن $\theta$ مشخصاً تخمین خوبی نیست؟ اساسا، من در توضیح شهودی ارائه شده برای اطلاعات فیشر قانع نیستم. آیا توضیح شهودی که معمولاً ارائه می شود، صحیح است؟
اطلاعات فیشر به عنوان اندازه گیری انحنا و در نتیجه اطلاعات
57072
برخی از تردیدهای رگرسیون.. بگویید، من می‌خواهم تفاوت تأثیر BMI در سن شروع دیابت را برای بیماران پرفشاری خون و غیر پرفشاری خون تعیین کنم. من مدل رگرسیون خطی چندگانه را با سن شروع دیابت به عنوان متغیر پیامد و BMI در حین تشخیص (متغیر پیوسته) و جنسیت (دودویی) به عنوان متغیرهای پیش بینی کننده انجام داده ام. یعنی پیش بینی سن شروع دیابت از روی BMI تنظیم شده برای جنسیت. (age_at_diag ~ bmi + جنسیت) این کار به طور جداگانه برای بیماران دیابتی پرفشاری خون و بیماران دیابتی غیر فشار خون بالا انجام می شود. حالا سوال من این است، 1. به جای اینکه آن را جداگانه انجام دهم و ضرایب را مقایسه کنم، می توانم متغیر فشار خون (باینری) را در معادله بالا اضافه کنم، یعنی «سن_در_دیاگ ~ bmi + جنسیت + فشار خون بالا» 2. تفاوت بین سن_در_دیاگ ~ bmi چیست؟ + جنسیت + فشار خون بالا و «سن_در_دیاگ ~ bmi + جنسیت * فشار خون بالا» (به عنوان مثال فشار خون بالا به عنوان یک اصطلاح تعاملی) 3. چگونه می توانید خروجی های MLR زیر را تفسیر کنید Call: lm(فرمول = aad ~ diab_bmi * hyper + جنسیت * hyper, data = t2d) باقیمانده ها: Min 1Q Median 3Q Max -31.431 -6.605 -0.479 6.51 41.083 ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (تقاطع) 57.14978 0.99077 57.682 < 2e-16 *** diab_bmi -0.25695 0.02781 -9.239 < 2e-16 *** hyper1 11.58879 <3.58879 2e-16 *** genderMale -1.99808 0.36447 -5.482 4.35e-08 *** diab_bmi:hyper1 -0.19536 0.03877 -5.039 4.79e-07 *** hyper1:genderMale 5.209 -4001. 0.00374 ** و تماس: lm(فرمول = aad ~ diab_bmi + جنسیت + hyper، داده = t2d) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -30.629 -6.667 -0.480 6.475 39.449 ضرایب: برآورد. خطای t مقدار Pr(>|t|) (برق) 60.84250 0.70204 86.67 <2e-16 *** diab_bmi -0.35801 0.01941 -18.44 <2e-16 *** جنسیتMale -2.7106240 -2.7106240 *** hyper 4.34875 0.25437 17.10 <2e-16 *** --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1
رگرسیون خطی چندگانه
2170
بگوییم برخی از یافته‌های قبلی یک اثر منحنی X بر Y را شناسایی کرده‌اند، (به ویژه اینکه X تأثیر مثبتی بر Y دارد و X^2 تأثیر منفی دارد). می‌خواهید ببینید آیا این موضوع برای نمونه کاملاً متفاوت شما صدق می‌کند (اگرچه همه چیزهای دیگر بین مطالعات، سازه‌ها/اندازه‌ها دقیقاً یکسان هستند). نه مطالعه قبلی و نه مطالعه من تجربی نیستند (بنابراین من X را دستکاری نمی کنم، فقط آن را مشاهده می کنم). هیچ دلیل نظری واضحی وجود ندارد که چرا یک اثر منحنی رخ می دهد. من چند نمونه از نحوه انجام من در حال حاضر ارائه خواهم داد تا ببینم آیا این درست است یا نه، اما می خواهم نظرات و نظرات مردم را در مورد آنچه که آنها معتقدند روشی ارجح است، اگر هر یک از پیشنهادات من نامناسب است، و البته اگر جایگزین های دیگر هستند. مثال‌ها: 1) به سادگی نمودار پراکندگی دو متغیره را بررسی کنید و نوعی از خط هموارسازی را با میانگین Y بر روی سطل‌های X (مثلاً LOESS) قرار دهید. اگرچه گیج کننده می تواند یک مسئله باشد، اگر یک اثر منحنی وجود داشته باشد، احتمالاً شاهدی در توزیع آن خواهد بود. 2) نمودار رگرسیون جزئی یا سایر تکنیک های تجسم را برای شناسایی تأثیر X بر Y مستقل از سایر متغیرهای مخدوش کننده بررسی کنید. 3) از برخی از انواع معیارهای انتخاب مدل استفاده کنید (مثلاً BIC)، و تعیین کنید که آیا مدلی شامل X^2 بر مدل بدون X^2 ترجیح داده می شود یا خیر. ضریب رگرسیون معنی دار همانطور که گفتم هر پیشنهاد دیگری نیز پذیرفته می شود. ویرایش: در این زمینه، نگرانی اصلی من این است که تشخیص دهم آیا تأثیر X بر Y به بهترین شکل به روشی مشابه مطالعه قبلی نشان داده می شود. در حالی که آنها می توانند نکات قابل توجه دیگری برای مقایسه بین مطالعات باشند (مانند میزان تأثیر X بر Y)، این نگرانی اصلی من نیست.
روش ترجیحی برای شناسایی اثر منحنی در چارچوب رگرسیون چند متغیره
106049
من با تعدادی ورودی و یک خروجی باینری مشکل دارم که سعی کردم چندین طبقه بندی کننده برای حل آن آموزش دهم. متأسفانه هیچ یک از طبقه بندی کننده ها (MLP، SVM، bagging) به سطح مورد نیاز از دقت دست پیدا نکرده اند. من به این فکر می کنم که با تقسیم مجموعه داده ها به دو قسمت، و استفاده از یک طبقه بندی کننده متفاوت در هر نیمه، یا همان طبقه بندی کننده اما با پارامترهای مختلف (یا پارامترهای یکسان، اما مشکل متفاوتی را یاد می گیرد، مشکل را تقسیم کنم). یک رویکرد این است که مشخصه ای را انتخاب کنید که بیشترین همبستگی را با خروجی دارد و داده ها را به گونه ای تقسیم کنید که کمترین مقدار در یک مجموعه و بالاترین مقدار در مجموعه دیگر باشد. من دوست دارم که یک مجموعه دقت بسیار خوبی را ارائه دهد، در حالی که دیگری دقت کمتری نسبت به مجموعه داده های ترکیبی داشت. آیا روش جایگزینی برای تقسیم مشکل وجود دارد که هر کسی بتواند پیشنهاد دهد؟
چگونه یک مشکل طبقه بندی را تقسیم بندی کنیم
3261
فرض کنید شما روشی برای تخمین کوواریانس جمعیت یک متغیر تصادفی با ارزش برداری با توجه به مشاهدات آن متغیر تصادفی دارید، مثلاً $f(Z) \rightarrow C$، که در آن سطرهای $Z$ مشاهدات متغیر تصادفی هستند. آیا می توان از این فرآیند برای اجرای رگرسیون حداقل مربعات $y = x^T\beta + \epsilon$ برای بردار $n$-بعدی $x$ سوء استفاده کرد؟ ایده این است که یک بردار مشاهدات $y$ داشته باشد، آن را $Y$، و یک ماتریس از مشاهدات زوجی $x$، آن را $X$ بنامیم، سپس کوواریانس $Z = [ را محاسبه کنیم. X\; Y]$ (ماتریس کنار بردار را به هم بپیوندید) از طریق $f$، آن را $C$ بنامید، سپس اجازه دهید $\hat{\beta} = C_{1:n,1:n}^{-1} C_{ 1:n،n+1}$. چند سوال: 1. آیا این در شرایط خوش بینانه کار می کند؟ (یک شبیه‌سازی ساده در Matlab نشان می‌دهد که دقت زیاد نیست، اما نتایج در حدود 4 سیگ انجیر است، بنابراین حدس می‌زنم که باشد.) 2. آیا این یک ترفند شناخته شده است؟ اگر چنین است، آیا نامی دارد که بتوانم آن را در گوگل جستجو کنم یا آنقدر پیش پا افتاده است که نیازی به نام ندارد؟ 3. مهم‌تر از همه، اگر $f$ بتواند با ورودی‌هایی که برخی از مقادیر گم شده‌اند (مثلاً MCAR - کاملاً تصادفی از دست رفته است) برخورد کند، در چه شرایطی این تکنیک برای رگرسیون با مقادیر از دست رفته رفتار منطقی خواهد داشت؟ **ویرایش** من _am_ فرض می‌کنم که $x$ از یک فرآیند میانگین صفر گرفته شده است و رگرسیون هیچ عبارت رهگیری ندارد.
استفاده از تخمینگر کوواریانس برای انجام رگرسیون خطی؟
106041
من فهرستی از بردارهای عددی دارم، نه لزوماً طول یکسان. من می خواهم نموداری دریافت کنم که در آن هر بردار در لیست به صورت عمودی بالای یک برچسب برای آن بردار در محور x رسم شود. آیا یک راه خودکار برای انجام این کار در R وجود دارد؟ در اینجا یک مجموعه نمونه از داده ها آورده شده است: yl = structure(list(A = c(4.232886، 3.338263، 1.765557، 1.438516)، B = c(3.046518، 4.500074، 1.508675، 3.225، 1.508675، 3.225، 3.2328675 1.519653)، C = c(5.788882، 7.644319)، .Names = c(A، B، C)) در این مورد من برچسب های A، B و C را در محور x می خواهم، و مقادیر داده مربوطه به صورت عمودی موازی با محور y رسم شده است.
رسم یک آرایه پارگی - لیستی از بردارها در R
37390
من مجموعه داده های چند هزار زنجیره مارکوف مرتبه اول خود را در حدود 10 خوشه دسته بندی کردم. آیا روش توصیه شده ای وجود دارد که چگونه می توانم این خوشه ها را ارزیابی کنم و بفهمم موارد موجود در خوشه ها چه چیزهایی را به اشتراک می گذارند و چه تفاوتی با سایر خوشه ها دارند؟ بنابراین من می توانم جمله ای مانند فرآیندها در خوشه A پس از رسیدن به آنجا در حالت Y باقی بمانند، که برای فرآیندهای دیگر خوشه ها صادق نیست. ماتریس‌های انتقال آن زنجیره‌های مارکوف بیش از حد بزرگ هستند که فقط «نگاه کنیم و ببینیم». آنها نسبتاً پراکنده هستند، اگر این می تواند کمک کند. ایده من این بود که همه ماتریس های انتقال را در یک خوشه جمع کنم و آن را به صورت شدت در یک تصویر رسم کنم (در مقیاس 0 تا 255). آیا چیزی حرفه ای تر وجود دارد که باید آن را امتحان کنم؟
ارزیابی خوشه های زنجیره مارکوف مرتبه اول
70775
من می خواهم بپرسم تابع هدف خاصی که طبقه بندی کننده جنگل تصادفی Scikit- Learn در هر گره برای گزینه Entropy بهینه سازی می کند چیست. درک من این است که آنتروپی در اینجا به عنوان معیاری برای تقسیم داده های آموزشی که به یک گره خاص به زیر درخت چپ و راست می رسد استفاده می شود، با اطمینان از اینکه تقسیم به گونه ای انجام می شود که داده های آموزشی در هر تقسیم به همان اندازه خالص باشد. ممکن است. با این حال، چه تابعی برای تقسیم داده ها استفاده می شود؟ جداکننده خطی؟ جداکننده خطی تراز محور؟ مقطع مخروطی؟
هدفی که طبقه‌بندی‌کننده جنگل تصادفی Scikit-learn در هر گره بهینه‌سازی می‌کند چیست؟
14048
من از روش **aplpack** بسته faces() در R برای رسم نمودار چرنوف از داده های زیر استفاده کرده ام. من می‌خواهم یک چهره فقط با چهار متغیر «a»، «b»، «c» و «d» ترسیم کنم تا توضیح دهم چرا برنامه «A» بهتر از برنامه «B» است. با این حال، روش faces() از این متغیرها برای چندین ویژگی دیگر چهره نیز استفاده می کند. آیا می توانید به من کمک کنید تا با این چهار متغیر یک چهره چرنوف با چهار ویژگی ترسیم کنم. به عنوان مثال: طول: a، عرض: d، چشم: b، و بینی: c. فقط من می خواستم نمودار چهره برنامه های A و B را فقط با این چهار ویژگی چهره تشخیص دهم و بقیه ویژگی های چهره باید بین برنامه های A و B نمودار چهره یکسان باشد. prog a b c d A 0.8 7900 70 27 B 0.3 1920 393 43
ترسیم نمودار چرنوف در R تنها با چهار ویژگی صورت؟
49887
چه روش خوشه ای برای مطالعه ای با 16 متغیر مقوله ای و کمی مناسب است؟ این یک مطالعه مشاهده ای با اندازه گیری های مکرر است. در متنی خواندم که k-means اگر داده‌ها عمدتاً کمی باشد، بهتر است، اگرچه ممکن است آن را اشتباه تفسیر کرده باشم. همچنین، چه روش هایی برای حذف متغیرهای خاص قبل از انجام تحلیل خوشه ای بهتر است. من مقالات مشابه مطالعه ای را که در حال تجزیه و تحلیل آن هستم خواندم و برخی ترجیح دادند ابتدا یک PCA یا تجزیه و تحلیل عملکرد متمایز را برای تأیید تعداد خوشه های انتخابی انجام دهند. افکار و نظرات؟
روش خوشه ای مناسب؟
3262
قصد دارم در این ترم به آموزش آمار به دانشجویان پزشکی کمک کنم. من داستان های ترسناک زیادی درباره ترس این دانش آموزان از یادگیری آمار شنیده ام. آیا کسی می تواند پیشنهاد دهد که با این ترس چه باید کرد؟ (یا به افرادی که در این مورد بحث می کنند پیوند دهید، یا پیشنهاداتی را از تجربه خودتان ارائه دهید)
چگونه به دانش آموزانی که از آمار می ترسند آموزش دهیم؟
18212
من در اطراف Google Scholar برای اولین اشاره‌ای به این طبقه‌بندی خاص جستجو می‌کنم و شانس زیادی برای یافتن منبع قطعی نداشتم. من دیده ام که برخی منابع در اواخر دهه 1980 و برخی دیگر در اوایل دهه 1930 ذکر کرده اند. آیا کسی می داند که طبقه بندی کننده ساده بیز چه زمانی توسعه یافته و/یا اولین بار به عنوان یک تکنیک طبقه بندی مورد استفاده قرار گرفته است؟
منشاء طبقه بندی کننده ساده بیز؟
37396
من در حال کار بر روی یک مشکل برای پیش‌بینی/طبقه‌بندی احساس کلی حجم زیادی از متن هستم که می‌توانم آن را در روز بعد تأیید کنم. هر نقطه داده یک روز است و از چندین مقاله تشکیل شده است. من کلمات را بر حسب فرکانس در آن مقالات جمع می کنم تا یک طبقه بندی کننده بیزی را آموزش دهم. من سعی کردم احساسات را با استفاده از تمام داده های قبلی پیش بینی کنم. بنابراین در روز N از تمام داده های 1:N-1 استفاده می کنم. با این حال دقت پیش‌بینی بیش از 110 نمونه آزمون تنها 51 درصد بود. متوجه شدم که پیش‌بینی‌ها در زمان اضافه بدتر می‌شوند، زیرا 20 نمونه آزمایش اول 70 درصد دقیق بودند. هنگامی که من فقط از نمونه های 1:20 در مجموعه آموزشی خود برای تمام پیش بینی های بعدی استفاده کردم، مدل با نرخ 57٪ دقیق بود. بنابراین سوال من این است که چگونه می توان بهترین ویژگی ها را در آن داده های اولیه 20 روزه تعیین کرد. آیا باید فقط از ویژگی های برتر X استفاده کنم؟ یا این 57 درصد فقط تصادفی بودن من را وسوسه می کند که مسیری بی ثمر را دنبال کنم؟ آیا می‌توان مدل بهتری برای طبقه‌بندی احساسات باینری مقدار زیادی از متن به عنوان مثبت یا منفی (بایزهای چند جمله‌ای، مجموع) استفاده کرد؟ ممنون، ریکی
افزودن نمونه های آموزشی به طبقه بندی کننده بیزی دقت را کاهش می دهد
71420
تقاضای هفتگی یک محصول دارای تابع احتمال تقاضا، x احتمال (fx) ------------------------ 0 0,1 1 025 2 0,4 3 0,15 4 0,10 5 یا بیشتر 0 به سختی می توانم مقدار * مورد انتظار، * واریانس و * انحراف استاندارد برای تقاضای هفتگی را پیدا کنم. از کجا باید شروع کنم؟
تقاضا با اندازه گیری های مختلف
18219
من مطالعه‌ای دارم که در آن پروفایل‌های فیس‌بوک شرکت‌کنندگان توسط گروهی از دانش‌آموزان رتبه‌بندی شدند. سپس شرکت‌کنندگان به‌طور تصادفی به یکی از سه گروه تقسیم شدند: **شرایط نامطمئن** (که در آن می‌توانستند رتبه پسندیده-بهترین یا کمترین پسندیده را به آنها اختصاص دهند، اما به آنها گفته نمی‌شود کدام یک)، **پسندیده- بهترین شرایط** (جایی که بالاترین رتبه را به آنها اختصاص داده اند) و **شرایط لایک-کمترین** (جایی که کمترین رتبه را به آنها اختصاص داده اند). هنگامی که رتبه‌بندی‌های خود را دیدند، اندازه‌گیری خلق و خو را تکمیل کردند و سپس به نوبه خود توانستند نمایه‌های فیس‌بوک افرادی که به آن‌ها رتبه‌بندی می‌کردند را جذاب ارزیابی کنند. پس از این، آنها معیاری از سبک دلبستگی (ECR-S)، عزت نفس (RSES)، اندازه گیری خلق و خوی را برای بار دوم و معیاری از میزان فکر کردن آنها در مورد گروه رتبه بندی در 15 دقیقه گذشته تکمیل کردند. **متغیرهای وابسته** در این مطالعه **سطح جذابیت** و **افکار گزارش شده** شرکت کنندگان به گروه رتبه بندی دانش آموزان، و همچنین **اندازه گیری کلی خلق و خو** (خلق در هر دو) است. نقاط زمانی جمع و میانگین شده). **لطفاً با من همراه باشید زیرا من در آمار کاملاً مبتدی هستم، اما تجزیه و تحلیل داده ها من را به شدت گیج کرده است. ** **IV** من در مطالعه **شرط** است که می خواهم ببینم آیا تفاوت معنی داری بین گروه ها در متغیرهای وابسته وجود دارد یا خیر. با این حال، معیارهای سبک دلبستگی و عزت نفس را نیز دارم، داده‌هایی که سرپرست من قصد دارد از آنها در مطالعات آینده استفاده کند، اما همچنین می‌خواهد من آن‌ها را در داده‌های خود لحاظ کنم. مشکل این است که من نمی دانم آنها در کجا قرار می گیرند! در ابتدا فکر می‌کردم که هرگونه تأثیر عدم قطعیت بر روی DVها ممکن است به واسطه سبک دلبستگی و عزت نفس باشد، اما از آنجایی که اندازه‌گیری‌ها پس از رتبه‌بندی انجام شده‌اند، دقیقاً IV نیستند، زیرا ممکن است تحت تأثیر قرار گرفته باشند. رتبه بندی داده شده لطفاً هر گونه کمکی در مورد چگونگی تجزیه و تحلیل این موضوع بسیار قدردانی خواهد شد. به من گفته شده است که باید از ANOVA های جداگانه استفاده کنم، اما به دلیل تورم خانوادگی نرخ خطای نوع I، این کار را توجیه نمی کنم. من در فکر استفاده از MANOVA برای تجزیه و تحلیل جاذبه و افکار گزارش شده (همبستگی در r = 0.34، p <.01) بر اساس شرایط، با ANOVA یک طرفه برای خلق و خو بر اساس شرایط بودم. اما مطمئن نیستم که چگونه با سبک دلبستگی و عزت نفس برخورد کنم. لطفا کمک کنید!
برخورد با متغیرهای مزاحم در موقعیت MANOVA
106047
من دو ویژگی را در برگهای یک دندروگرام برای یک فاصله درخت معین (2،3،...) به هم مرتبط می کنم. وقتی جفت A-B را در فاصله x پیدا کردم، تکرار B-A را نیز در همان مجموعه برای فاصله x در امتداد شاخه های درخت خواهم داشت. نتیجه این است که به ازای هر دو برگ، برای مثال یک جفت (x=2,y=-3) و (x=-3,y=2) خواهم داشت. اگر من یک پراکندگی انجام دهم این تقارن در امتداد xy خواهد بود. بسیار برجسته باشد آیا این می تواند مقادیر همبستگی من را سوگیری کند؟ آیا باید از شر جفت های اضافی خلاص شوم، اما کدام یک را انتخاب کنم؟ یا مهم نیست؟ آیا ایده ای برای انجام این وظایف با توجه به ساختار درختی دارید؟
همبستگی پیرسون با جفت های متقارن؟
71426
نمودار پیوست شده را به عنوان هیستوگرام نتیجه ($Y$) در نظر بگیرید که نتیجه یک رگرسیون خطی خواهد بود. واضح است که هیستوگرام نشان می دهد که نتیجه به طور معمول توزیع نشده است. چگونه می توانم تبدیلی به دست بیاورم که داده ها را نرمال کند تا بتوانم یک رگرسیون خطی را جابجا کنم؟ هدف من مقایسه اثر TRT (درمان) در مقابل CTRL (کنترل) است. یکی از رگرسیون های آشکار این است: $Y = \mathrm{TRT} + \text{دیگر متغیرهای کمکی}$ از آنجایی که $Y$ نرمال نیست، به نظر شما آیا می توانم با در نظر گرفتن $Y$ به عنوان ضریب و TRT به عنوان نتیجه، اثر TRT را ارزیابی کنم. و متناسب با یک رگرسیون لجستیک؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/WYw6D.png)
سوال در رگرسیون برازش
38715
این اساساً یک سؤال تحقیقاتی نیست، بلکه درخواست کمک برای ارائه برخی از منابع مفید در مورد تجزیه و تحلیل مسیر به من است. به نظر می رسد این یک تکنیک مد روز است، اما کمی پیچیده به نظر می رسد. آیا کتاب یا PDF کامل قابل دانلودی وجود دارد که بتوانم جزئیات تئوری و کاربرد آن را بیابم؟ من باید تکنیک متغیرهای مختلط را یاد بگیرم. ساده ترین نرم افزار برای انجام تحلیل مسیر کدام است؟ من در مورد AMOS شنیده ام. آیا نمی توانیم آن را در SPSS انجام دهیم؟ همچنین می‌خواهم منابعی را پیشنهاد کنم که بتوانم نحوه استفاده از نرم‌افزار ارجاع‌شده را برای تحلیل مسیر با انواع مختلف متغیرها یاد بگیرم.
مرجع تحلیل مسیر
83568
من سعی می کنم یک تابع چگالی احتمال مشترک را در یک فضای ابعادی بسیار بالا (حدود 15 یا حتی بیشتر) تخمین بزنم. من در مورد روش های فرآیند دیریکله برای انجام این نوع کارها شنیده ام. آیا مقاله / پایان نامه دکترا / کتاب خوبی برای یادگیری در این مورد می شناسید؟ از کمک شما متشکرم
تخمین چگالی احتمال با فرآیند دیریکله
37391
در توزیع دو جمله ای پواسون، هر آزمایش یا بله (1) یا خیر (0) است. آیا توزیعی وجود دارد که در آن هر آزمایش یا بله (N) یا خیر (0) باشد؟ من می خواهم موقعیتی را مدل کنم که مثلاً 10 کارگر دارم. هر کارگر می تواند در یک روز واحدهای $N$ کالا تولید کند یا با احتمال شناخته شده شکست بخورد و چیزی تولید نکند. $N$ می تواند برای هر کارگر متفاوت باشد. من باید توزیع کالا را بعد از یک روز کاری بدانم. توزیع دو جمله ای پواسون در صورتی که هر کارگر 1 کالا تولید کند به من پاسخ می دهد.
توزیع دو جمله ای پواسون اصلاح شده
70779
فرض کنید من چندین جدول دارم که نشان دهنده 10 کشور است و جداول حاوی user_id و user_score هستند. مثال: جدول CountryA جدول CountryB user_id | user_score user_id | امتیاز_کاربر --------------------- --------------------- 001 | 001 1245 | 002 1023 | 002 1563 | 950 : : : 1000 | 850 1000 | 1600 کاری که من سعی می کنم انجام دهم این است که یک جدول صدک بسازم که در آن هر سطر برای کشور و هر ستون 10، 20.. 10، 20 .... 100 امتیاز کشورA، امتیاز .... امتیاز من شروع به انجام دادن کرده ام. این در پایتون، سوال من بیشتر به محاسبه صدک مربوط می شود. در پایان می‌خواهم بدانم برای رسیدن به صدک معین باید چه امتیازی کسب کنید. بر اساس آنچه در ویکی پدیا (http://en.wikipedia.org/wiki/Percentile) آمده است. با استفاده از `n = P/100 * N + 1/2` رتبه را می‌گیرم اما امتیاز را نمی‌گیرم. برگردیم به مشکلم، اگر بخواهم از این استفاده کنم، باید جدول را بر اساس نمره مرتب کنم و سپس از «1000» به عنوان «N» استفاده کنم و سپس با پاسخی که از فرمول به دست می‌آورم ببینم کدام ردیف است. آیا این روش درستی است؟ اگر روش درست باشد، بهتر است user_id، user_score را در فایل csv بنویسم و ​​آن را در R بارگذاری کنم، و ممکن است R عملکرد خوبی برای مدیریت این موضوع داشته باشد؟
محاسبه صدک
34848
من با یک فیلد تصادفی گاوسی کار می کنم که می توان آن را با pdf مشترک به صورت زیر توصیف کرد: $$X\mid \sim N\left ( \mu, \sigma^{2} \left ( I-C \right )^{- 1}\right )$$ که در آن $C$ یک ماتریس ساخت یافته است، $c_{ij}=0$ اگر $i$ و $j$ همسایه نیستند. من با استنتاج بیزی در چنین زمینه هایی کار می کنم. بنابراین سوال اصلی این است که چگونه از چنین ماتریس ساختاری نمونه برداری کنیم؟ هر قرعه کشی باید همان ساختار قبلی باشد، یعنی صفر برای غیر همسایگان و $I-C$ باید مثبت و قطعی باشد. اگرچه مقالاتی در مورد نحوه تولید ماتریس قطعی مثبت توسط MCMC وجود دارد، اما من هیچ مقاله ای در مورد نحوه ترسیم یک ماتریس ساخت یافته پیدا نکردم.
MCMC برای ماتریس ساخت یافته
18214
روش های رایج انتخاب متغیر مبتنی بر داده (به عنوان مثال، جلو، عقب، گام به گام، همه زیر مجموعه ها) تمایل به ارائه مدل هایی با ویژگی های نامطلوب دارند، از جمله: 1. ضرایب بایاس از صفر. 2. خطاهای استاندارد بسیار کوچک و فواصل اطمینان بسیار باریک. 3. تست آمار و مقادیر p که معنای تبلیغ شده را ندارند. 4. برآورد برازش مدل که بیش از حد خوش بینانه است. 5. عباراتی که می‌توانند بی‌معنا باشند (مثلاً حذف اصطلاحات درجه پایین‌تر). با این حال، روش‌های انتخاب متغیر همچنان ادامه دارد. با توجه به مشکلات انتخاب متغیر، چرا این رویه ها ضروری هستند؟ انگیزه استفاده از آنها چیست؟ چند پیشنهاد برای شروع بحث .... * تمایل به ضرایب رگرسیون قابل تفسیر؟ (در مدلی با تعداد IV های زیاد اشتباه می کنید؟) * واریانس معرفی شده توسط متغیرهای نامربوط را حذف کنید؟ * حذف کوواریانس / افزونگی های غیر ضروری در بین متغیرهای مستقل؟ * تعداد تخمین پارامترها را کاهش دهید (مسائل قدرت، اندازه نمونه) آیا موارد دیگری نیز وجود دارد؟ آیا مسائلی که توسط تکنیک‌های انتخاب متغیر مورد توجه قرار می‌گیرند، بیشتر یا کمتر از مشکلاتی که رویه‌های انتخاب متغیر معرفی می‌کنند، اهمیت دارند؟ چه زمانی باید از آنها استفاده کرد؟ چه زمانی نباید از آنها استفاده کرد؟
چرا انتخاب متغیر ضروری است؟
22798
من سعی می کنم با استفاده از دستور quickicc به دنبال استفاده از xtmixed یک icc انجام دهم. من سعی می کنم تکرارپذیری را در یک نمونه 24 نفری با اندازه گیری QT (معیار دپلاریزاسیون بطنی) بررسی کنم. هر فرد قرائت های مختلفی از QT دارد. برخی 31 دارند در حالی که برخی دیگر 5 در زمان های مختلف توسط یک خواننده اندازه گیری شده اند. سوال من: آیا می توان با استفاده از دستور xtmixed تجزیه و تحلیل انجام داد، زمانی که تعداد obs ها در هنگام تست قابلیت اطمینان تست-آزمون مجدد متفاوت است یا حتی مناسب است؟ علاوه بر این، من نمی دانم که آیا من از دستورات به درستی استفاده می کنم مانند زمانی که از دستور xtmixed qt || study_id:` من یک رشته تکراری دریافت می کنم که بی انتها ادامه می یابد. هر گونه کمکی قدردانی خواهد شد.
استفاده از xtmixed با دستور quickicc
30540
من یک رگرسیون مربوط به درآمد فلزات را به یک شاخص فلزی در هر یک از 25 کارخانه مختلف اجرا کرده ام. در 24 مورد از کارخانه ها، $R^2$ بیشتر از 0.75 است. در یک کارخانه R^2$ 0.061 است. چرا R^2$ در یک کارخانه بسیار کم است؟
چگونه r-squared در همه گروه ها به جز گروهی که در آن بسیار کم است می تواند بسیار زیاد باشد؟
34846
سری زمانی را که باید با OLS تخمین زده شود در نظر بگیرید: $Y_t = a + \bf{X}_t\bf{b} + e_t$ که در آن $Y_t$ منحرف است، $\bf{X}_t$ بردار مقادیر رگرسیون است. در زمان $t$، $\bf{b}$ بردار برآورد ضرایب است. سناریو (1): ماتریس طراحی به گونه‌ای است که چولگی در پاسخ کاملاً توسط ماتریس طراحی در نظر گرفته می‌شود - یعنی هیچ غیر عادی در باقیمانده‌ها وجود ندارد. آیا برآورد ضرایب ما حداقل واریانس است؟ سناریوی (2): ماتریس طراحی به گونه‌ای است که چولگی در پاسخ به باقیمانده‌ها جریان می‌یابد (فرض کنید برای این سناریو که وابسته دارای چولگی اصلی و باقیمانده دارای چولگی کوچک‌تر است، اما همچنان در آزمون فرضیه غیرعادی بودن بیش‌تر می‌آید. برآورد باقیمانده ها). آیا برآورد ضرایب ما حداقل واریانس است؟ از چه تخمین‌گری استفاده کنم (فقط 1 را می‌دانم: گونه‌ای از بوت استرپ Wild که کج بودن را به حساب می‌آورد)؟
چولگی در متغیر وابسته (OLS، گاوس مارکوف، غیر نرمال بودن)
34843
من یک مدل لجستیکی دارم که با تابع 'nls' در R ساخته‌ام. می‌خواهم از میانگین‌گیری مدل بیزی برای انتخاب متغیر استفاده کنم، اما نمی‌توانم بسته‌ای برای آن در R پیدا کنم. آیا بسته‌های مناسبی وجود دارد؟ اگر نه، آیا می توان یک فیلمنامه نه چندان پیچیده برای آن ساخت؟ مثال داده: y<-sample(c(1,0),100,replace=T) var1<-sample(c(1,0),100,replace=T) var2<-sample(c(1,0) ,100,replace=T) var3<-sample(c(1,0),100,replace=T) مدل: Sw<- تابع(y1, N1,N2,N3) { SA <- nls(y1~exp(c+(a1*N1)+(a2*N2)+(a3*N3))/(1+exp(c+(a1*N1)+(a2*N2)+(a3*n3)) ) ,start=list(a1=-0.2,a2=-0.2,a3=-0.2,c=0.2)) SA } مدل <- Sw(y, var1,var2,var3) چگونه می توانم میانگین مدل بیزی را در این مورد انجام دهم؟ من 190 مشاهدات دارم که حدود 70 عدد 1 و 120 0 هستند. من در کل 13 متغیر دارم.
میانگین مدل بیزی در R
37392
فرض کنید من یک جدول $m$ در $n$ $X_{ij} \in \\{0,1\\}$ دارم، که در هر ردیف، ورودی‌های $r$ به‌طور تصادفی بر روی 1 تنظیم شده‌اند (بقیه 0 هستند )، یعنی $\sum_j X_{ij}=r$. من می دانم که به عنوان مثال مجموع ستون $\sum_i X_{i1} $ دارای توزیع دوجمله ای $\mathrm{Bin}(m, r/n) $ است. اما توزیع مشترک همه مجموع ستون ها، یعنی $(\sum_i X_{i1},\; ...,\;\sum_i X_{in})$ چیست؟
توزیع مشترک مجموع ستون ها زمانی که مجموع ردیف ثابت است
70772
من چندین مجموعه داده گسسته با محدوده کوچک (2- تا +2) دارم که می‌خواهم آنها را در برابر فرضیه صفر توزیع حول محور صفر آزمایش کنم. آزمون رتبه امضا شده Wilcoxon به عنوان یک انتخاب مناسب به من پیشنهاد شد و برخی از پاسخ ها در این سایت از این موضوع پشتیبانی می کنند. مسئله این است که برای برخی از مجموعه داده ها، بخش بزرگی از جفت دلتاها 0 هستند، به این معنی که بیشتر نمونه ها دور ریخته می شوند. نتیجه این است که برخی از مجموعه‌های داده با اطمینان 95 درصد آزمون را پشت سر می‌گذارند در حالی که برخی دیگر با توزیع تقریباً یکسان در آن شکست می‌خورند. یک آزمون جایگزین خوب برای چنین سناریویی چه خواهد بود؟
جایگزینی برای آزمون رتبه‌بندی علامت‌دار Wilcoxon، برای داده‌هایی که بسیاری از جفت‌ها برابر هستند
113465
تلاش برای ایجاد لیستی از متغیرهای مهم برای یک مدل رگرسیونی. من 82 متغیر دارم، بنابراین برای اینکه فقط متغیرهای مهم را شامل شود، لیستی از همبستگی ها ایجاد کردم و آنها را مرتب کردم. من می خواهم متغیرهایی را با همبستگی > 0.5 و <-0.5 وارد کنم. من یک حلقه for ایجاد کردم، اما در دریافت لیست مشکل دارم. کامپوزیت یک قاب داده است sortedcor <- sort(cor(composite)[,1]) regvar = 0 for (i in sortedcor){ if (sortedcor[i] < 0.5){ regvar[] <- i } } دریافت این خطا : خطا در if (sortedcor[i] < 0.5) { : آرگومان با طول صفر است علاوه بر این: پیام های هشدار: 1: در اگر (sortedcor[i] < 0.5) { : شرط طول > 1 دارد و فقط عنصر اول استفاده خواهد شد
اگر مقدار در ترتیب بیشتر از 0.5 باشد، از حلقه for فهرست ایجاد کنید
30545
من با آمار کاملاً غریبه هستم (به غیر از دوره های اجباری در کالج)، اما اخیراً با یک سناریوی جالب در دنیای واقعی روبرو شدم. اخیرا شروع به دویدن کردم. برای اندازه گیری زمان و مسافت گوشی جی پی اس را با خودم می برم. مسیری را انتخاب کردم (حدود 4 کیلومتر، اما دقیقاً نمی دانم) و شروع به دویدن کردم. من مشاهده کرده ام که فاصله اندازه گیری شده ثابت نیست، اگرچه مسیر یکسان است. گاهی اوقات فاصله اندازه گیری شده کمی بیشتر از 4 کیلومتر و گاهی کمی کمتر است. من به دقت GPS گوشی خود علاقه مند هستم. اما یک مشکل کوچک وجود دارد: وقتی می رسم، معمولا (اما نه همیشه) گوشی را چک می کنم و اگر مسافت کمتر از 4 کیلومتر باشد، به دویدن ادامه می دهم تا به 4 کیلومتر برسم. بنابراین با وجود اینکه تمام اندازه‌گیری‌ها را در تاریخچه ذخیره کرده‌ام، نمی‌توانم از آنها برای محاسبه مقدار میانگین استفاده کنم، زیرا گاهی اوقات کمی بیشتر می‌دویم تا به 4 کیلومتر برسم. با این حال، چیزی که من می دانم این است که در طول 20 دویدن من، حداقل مسافت حدود 3.9 کیلومتر و حداکثر 4.05 کیلومتر بود. بنابراین چیزی که به آن علاقه دارم این است که GPS من چقدر دقیق است و طول مسیر چقدر است. من انتظار دارم که پاسخ چیزی در امتداد خطوط باشد با اطمینان X٪، مسیر Y کیلومتر طول دارد و GPS دارای Z٪ تغییر فاصله است. یا اینکه برای محاسبه آن باید میانگین دقیق را بدانم؟
چگونه دقت GPS گوشی را در اندازه گیری مسافت ارزیابی کنیم؟
96264
فرض کنید من یک نقطه $P_1$ در نمودار پراکندگی دوبعدی دارم. مختصات $P_1$ $(x_1، y_1)$ است. $x_1$ دارای انحراف استاندارد $\pm u_1$ و $y_1$ دارای انحراف استاندارد $\pm v_1$ است. من همچنین یک امتیاز $P_2$ دارم. مختصات $P_2$ $(x_2، y_2)$ است، با انحرافات استاندارد به ترتیب $\pm u_2$ و $\pm v_2$. چگونه می توانم تصمیم بگیرم که آیا $P_1$ و $P_2$ از نظر آماری معنی دار متفاوت هستند؟
P-value برای دو متغیر
38711
به عنوان مثال، هشدار به نقاشی‌های معمولی هنگام تشخیص ارقام دست‌نویس. برخی از افکار سریع: * یک ورودی بد ممکن است برای داده‌های آموزشی پرت باشد * یک ورودی بد ممکن است باعث پیوندهای قابل توجه بین برچسب‌های مختلف شود.
چگونه می توان ورودی های بد را هنگام طراحی یک طبقه بندی تشخیص داد؟
38710
من این داده ها را در R ایجاد می کنم: set.seed(111) ds=rnorm(1000) وقتی تست Box-Ljung را برای آزمایش استقلال انجام می دهم: Box.test(ds,type='Ljung',lag=log(length(ds ))) به من p-value=0.5957 داد که منطقی است. با این حال، وقتی این کار را انجام دادم: Box.test(ds[180:299],type='Ljung',lag=log(length(ds[180:299])) به من p-value=0.00162045 داد، یعنی خود همبستگی این زیر دنباله به طور قابل توجهی با صفر متفاوت است. این اتفاق برای برخی از دنباله های دیگر نیز می افتد. با این حال، من سری زمانی را با استفاده از تابع '$rnorm$' در R با 1000 نقطه داده تولید کردم. کسی میتونه لطفا در این مورد توضیح بده؟ پیشاپیش خیلی ممنون برای راحتی شما خوانندگانی که از R استفاده نمی کنید، زیر دنباله ds[180:299] را می توانید از اینجا دریافت کنید: http://ykang.hostoi.com/ds120.pdf
تست Box-Ljung در سری های نویز سفید
104991
من تجزیه و تحلیل رگرسیون چندگانه (MLR) داده‌هایم را انجام داده‌ام و $R^2$ و $r$ را پیدا کردم و سپس برای حذف مشکل چند خطی از PCA استفاده کردم. این تجزیه و تحلیل PC برابر با متغیرهای من ایجاد کرد، من فقط آن عواملی را انتخاب کردم که ارزش ویژه بزرگتر از 1 پس از چرخش (چرخش varimax) داشتند. حالا من گیج شده‌ام که اگر نمرات فاکتورهای تنها رایانه‌های شخصی انتخابی را به عنوان متغیرهای مستقل در MLR قرار دهم، $r$ و $R^2$ کمتر از امتیازهای بدست آمده توسط MLR ساده بدست می‌آورم، اما باید بیشتر باشد. کجا اشتباه می کنم؟
تجزیه و تحلیل رگرسیون مؤلفه های اصلی با استفاده از SPSS
106045
من معیاری از همبستگی را در یک گراف/شبکه ​​تحت دو شرایط آزمایشی مختلف اندازه‌گیری می‌کنم تا تعیین کنم که آیا تفاوت معنی‌داری در اندازه‌گیری داده‌شده توسط تغییر شرط وجود دارد یا خیر. من این محاسبه را برای تعدادی (N=5) گراف/شبکه ​​ناهمگن تکرار می کنم به این معنا که ممکن است تعداد گره ها/پیوندهای متفاوتی داشته باشند. برای اجتناب از وابستگی به این نمودارها/شبکه‌ها، من هر اندازه‌گیری را با جمع هر دو معیار در هر شرایط عادی می‌کنم. من اکنون به سادگی از آزمون t بین هر دو مجموعه نسبت‌ها استفاده می‌کنم، زیرا تعداد نمونه‌ها محدود است، اما با توجه به ماهیت محاسباتم نگرانی‌هایی دارم. کدام آزمون آماری در این مورد راحت تر است؟
آزمون آماری بر روی جفت درصد
38712
اجازه دهید ${(x_1,x_2,z_1,z_2)}$ بردارهای با ارزش واقعی با طول مساوی با $${\hat{r}_p(x_1,x_2) \approx \hat{r}_p(z_1,z_2) باشد. > 0}$$ $${\hat{r}_p(x_1,z_1) \approx \hat{r}_p(x_2,z_2) > 0}$$ که در آن $\hat{r}_p$ نشان‌دهنده ضریب همبستگی تخمینی پیرسون است. اکنون دو رگرسیون خطی ساده را انجام دهید $$x_1 = \hat\beta_{0,1}+\hat\beta_{1,1}z_{1}+\hat{e}_1$$ $$x_2 = \hat\beta_ {0,2}+\hat\beta_{1,2}z_{2}+\hat{e}_2$$ (ضرایب دارای دو زیرنویس هستند تا مشخص شود که این دو معادله رگرسیونی ضرایب خود را به اشتراک نگذارید.) هدف از رگرسیون ها استخراج باقیمانده $\hat{e}_i$ به عنوان نسخه هایی از $x_i$ تنظیم شده برای/غیر همبستگی با $z_i$ مربوطه است. سوال من این است که آیا می توان گزاره های کلی را در مورد بزرگی ${\hat{r}_p(\hat{e}_1,\hat{e}_2)}$ در رابطه با مقدار ${\hat{r} بیان کرد. _p(x_1,x_2)}$، یعنی همبستگی تخمینی بین $x_i$ که انتظار می رود با تنظیم برای (حذف همبستگی خطی با) رشد یا کوچک شود. $z_i$؟
بزرگی همبستگی پیرسون پس از تعدیل با رگرسیون خطی ساده
37395
مثال متعارفی که وضعیتی را نشان می دهد که رگرسیون خطی قوی نسبت به رگرسیون خطی حداقل مربع برتری دارد چیست؟ من سعی داشتم شرایطی را شبیه سازی کنم که برخی از خطاها (20٪ از آنها) از توزیع t-student و 80٪ از نرمال ایجاد می شود - هر دو توزیع با واریانس یکسان! در مجموعه داده‌ها با مشاهده 50، و من نمی‌توانم به وضوح ببینم که رگرسیون قوی بهتر است، کد R من برای این آزمایش اینجاست: کتابخانه (MASS) n=50 # اندازه مجموعه داده N=1000 # تعداد رگرسیون wynik=matrix(0, N,2) # ماتریس با ضرایب تخمینی v=5 # پارامتر توزیع t-student Sd=(v/(v-2))^.5 # انحراف معیار توزیع گاوسی a=1 # ضریب برای (i در 1:N){ x=rnorm(n,mean=1,sd=Sd) e_norm< -rnorm(n,sd=Sd) e_t<-rt(10, df=v ) y_norm=a*x+e_norm y_t=a*x+c(e_t,rnorm(40,sd=Sd)) # wariant 2 część تا outliery Zm1=lm(y_t~x)$coef[2] Zm2=rlm(y_t~x)$coef[2 ] wynik[i,1]=Zm1 wynik[i,2]=Zm2 plot(1,1,main=paste(i)) } plot(density(wynik[,1]),main=density of LS estimator(black) and robust estimator (سبز)) خطوط(density(wynik[, 2])، col=green) # مقدار میانگین LS و برآوردگر قوی colMeans(wynik)
مثال متعارفی که مزیت رگرسیون خطی قوی را نسبت به رگرسیون خطی LS نشان می دهد چیست؟
113468
من سعی می کنم بازدیدهای خودکار از یک وب سایت را شناسایی کنم. یک مجموعه داده معمولی برای یک کلاینت خودکار به این شکل است: userid: visit_time1, visit_time2, ... 94562: 5, 10, 15, 25, 30 ^ missed بنابراین دوره زمان بازدید '5' است. گاهی اوقات (همانطور که در بالا مشخص کردم)، مشتری خودکار یک دوره را از دست می دهد، اما زمان بازدید بعدی همچنان مضربی صحیح از دوره خواهد بود. لطفا توجه داشته باشید که داده ها نیز تا حدودی نویز دارند. بنابراین یک مجموعه داده واقعی تر به نظر می رسد: userid: visit_time1، visit_time2، ... 94562: 5, 11, 14, 25, 30 ^ missed در حالی که یک کلاینت غیر خودکار مجموعه داده ای خواهد داشت که بیشتر شبیه به: 13345: 5، 21، 34، 89 بدون الگوی واضح. من سعی کردم یک وکتور با '1' در نمایه های زمان بازدید و '0' در هر جای دیگر بسازم. سپس خود همبستگی را انجام دادم و برای تعیین ذهنی اینکه آیا مشتری در یک بازه زمانی منظم از آن بازدید می کند یا خیر، بسیار خوب کار کرد. این بر اساس این سوال از DSP stackexchange بود. من همچنین به آزمایش واریانس فواصل بین بازدیدها فکر کردم، اما برخی از فواصل مضرب دوره پایه هستند و این میانگین را منحرف می کند.
تشخیص خودکار بودن بازدیدهای وب سایت
30543
سلام به کاربران StackExchange، **پیش مقدمه:** به من وظیفه داده شده است که یک تجزیه و تحلیل خوشه ای (یا احتمالاً تجزیه و تحلیل طبقه پنهان، همانطور که در حال فکر کردن هستم) انجام دهم تا گروه های غیرهمپوشانی از افراد مشابه را که دارای ویژگی های روانی-اجتماعی مشابه هستند، بیابم. همانطور که در مجموعه داده اندازه گیری شد. فرضیه‌های پیشینی در مورد تعداد گروه‌ها و ویژگی‌های آن‌ها وجود دارد، اما با این وجود، تحلیل باید اکتشافی باشد تا تأییدی. مجموعه داده شامل چندین هزار موضوع و حدود دوجین متغیر مورد علاقه است. تا اینجای کار خیلی خوبه. با این حال، یک نکته وجود دارد: این بررسی از یک **طراحی طبقه بندی شده چند مرحله ای پیچیده** ناشی می شود، که آشکارا فرض SRS و خطاهای استاندارد سنتی ناشی از آن را نقض می کند. چنین طرح هایی اغلب برای ارائه استنباط معتبر نیاز به بوت استرپ دارند. وزن های رصدی توسط معماران بررسی ارائه شده است. **سوال من:** با توجه به اینکه آمار اکتشافی است و تاییدی نیست، و هیچ گونه استنباط رسمی در این تحلیل بیمار محور (حتی تخمین های دقیق مانند فواصل اطمینان) تولید نمی شود، آیا این بررسی پیچیده می تواند انجام شود. طراحی با حسن نیت نادیده گرفته شود؟ تنها هشدار ممکن است یکی از اعتبارات خارجی باشد. برخی از گروه های جمعیتی بیش از حد نمونه برداری شده اند. اما استفاده از وزن‌های مشاهده‌ای هنگام محاسبه ماتریس‌های فاصله/کوواریانس باید این را در نظر بگیرد، نه؟ خیلی ممنون، برندن
آیا می توان نمونه گیری پیچیده را برای آنالیزهای اکتشافی بیمار محور نادیده گرفت؟
38719
این سوال در ابتدا در SO ارسال شده بود و قنان به من پیشنهاد کرد که آن را در اینجا پست کنم :) سوال من: اجازه دهید یک ماتریس همبستگی داشته باشید. شما می خواهید همبستگی هایی که در کنار 1 هستند و -1 به سمت 1 می روند، در حالی که همبستگی های کنار 0 در آنجا باقی می مانند. ساده ترین راه استفاده از مقادیر مطلق است، به عنوان مثال. اگر «Rho» ماتریس همبستگی شما باشد، از «abs(Rho)» استفاده خواهید کرد. آیا راهی وجود دارد که از نظر نظری صحیح تر از روش بالا باشد؟ به عنوان مثال: اگر از Normal p.d.f استفاده کنم چه می شود. به جای قدر مطلق؟ Rho تنظیم شده = N(Rho، mu = 0، سیگما = stdev(Rho)) که در آن N p.d.f عادی است. تابع آیا راه بهتری دارید؟ به روز رسانی: رومن لوشتریک به من پیشنهاد کرد از کد R زیر استفاده کنم: x <- runif(min = -1، max = 1، n = 100) tr <- (x - min(x))/diff(range(x)) نقاط قوت و ضعف هر روش چیست؟ با تشکر
بهترین راه برای نگاشت ماتریس همبستگی از [-1، 1] فضا به [0، 1]
83561
من قبلاً از توزیع های نمایی برای تخمین توزیع های احتمال حداکثر آنتروپی استفاده کرده ام. آیا مشابهی برای نمایی وجود دارد که به اعداد صحیح محدود شود؟ اگر چنین است، آیا کسی برای آن توزیع اشاره‌گرهایی به تخمین‌گرهای شکل بسته دارد؟
آیا یک آنالوگ ماکزیمم آنتروپی شکل بسته از توزیع نمایی وجود دارد، اما محدود به اعداد صحیح است؟
83565
با استفاده از مدل بردلی تری لوس 2: ما می خواهیم 41 اسکریپت را با مقایسه زوجی (بسته BTL2) رتبه بندی کنیم. **اما مجموعه داده ما ناقص است**. ما می‌توانیم نمرات توانایی ایجاد کنیم، اما امتیازات در پایان رتبه‌بندی تخمین‌های بزرگی دارند (s.e). همچنین وقتی آیتم‌های ساختگی می‌سازیم که همیشه برنده یا همیشه بازنده هستند. بنابراین می‌خواهیم مقیاس را درست کنیم: بهترین آیتم نمره توانایی 10 را دریافت می‌کند و بدترین آیتم نمره توانایی -10 (برای آدمک‌ها). آیا این کار با BTL2 امکان پذیر است، اگر چنین است، چگونه می توانیم این کار را انجام دهیم/ برطرف کنیم؟
استفاده از BTL2: آیا می‌توانیم مقیاس امتیازات توانایی را اصلاح کنیم؟
85814
من در حال انجام یک متاآنالیز هستم، اما یک سوال دارم: من در حال ارزیابی سه استراتژی مختلف درمانی (A,B,C) برای هر یک از این استراتژی‌های درمانی هستم که حدود 20 مقاله دارم که نتایج را توصیف می‌کنند. اکنون سؤال من اینجاست: هر یک از آن مقالات میانگین سنی را توصیف می‌کنند، با این حال، برخی محدوده، برخی انحراف معیار، و برخی فقط میانگین ارائه می‌دهند. آیا آزمون آماری وجود دارد که چگونه می توانم این میانگین ها را با هم مقایسه کنم؟ اگر چنین است، از چه آزمایشی استفاده کنم. سوال دوم من در مورد مقایسه سه گروه با یکدیگر است. به عنوان مثال، درصد فشار خون بالا در گروه A 65 درصد، در گروه B 70 درصد و در گروه C 75 درصد است. من تعداد کل بیماران را برای این گروه ها دارم (حدود 400 تا 500 برای همه گروه ها). داده‌ها از مطالعات گذشته‌نگر استخراج می‌شوند، بنابراین بیماران با هم مطابقت ندارند. از چه آزمایشی استفاده کنم؟ از کمک شما بسیار سپاسگزارم!
مقایسه سه وسیله
85815
فرض کنید جمعیتی وجود دارد که خودسرانه به مجموعه ای از زیرجمعیت ها تقسیم شده است که به طور کامل جمعیت اصلی را پوشش می دهد. فرض کنید برای برخی از متغیرها، ما فقط _ پنجک_های هر زیرجمعیت (یا مجموعه ثابتی از چندک ها) را می دانیم، اما توزیع آن را نه. با این حال، صدک کل جمعیت (و البته توزیع) ناشناخته است. آیا راهی برای تخمین چندک کل جمعیت وجود دارد؟ این ممکن است وضعیتی عجیب به نظر برسد، اما برای بسیاری از آمارهای اقتصادی منتشر شده که دسترسی به داده‌های کامل امکان‌پذیر نیست، فقط خلاصه‌ای از آن‌ها امکان‌پذیر است. ویرایش (توضیح): ممکن است _نه_ فرض کنید که هر زیرجمعیت به طور تصادفی ترسیم شده است. در واقع، هر کدام به احتمال زیاد سوگیری خاص خود را دارند. EDIT2: جزئیات اضافی... (1) ممکن است فرض کنید متغیر غیرمنفی است، و علاوه بر این، ما تخمین مناسبی برای حداقل مقدار آن در کل جمعیت داریم. (2) برآوردهای خشن یا تصفیه نشده خوب است. به روز رسانی نهایی: با گسترش پیشنهادات و تکه کدهای @whuber، فکر کردم یک مثال خوب با برخی از داده های دنیای واقعی (اگر کنجکاو هستید دستمزد ساعتی) اضافه کنم که مرزهای بالایی/پایینی جمعیت نهایی را به همراه این مقدار نشان می دهد. کمیت های جمعیت _شناخته_، که اتفاقاً برای این مورد موجود بود. من همچنین برخی از فرضیات محافظه کارانه را در مورد مقادیر حداقل و حداکثر هر زیرجمعیت مطرح کرده ام، که کمک می کند تا فاصله ها را کمی سفت کنید. ![مثال فاصله](http://i.stack.imgur.com/x20AT.png)
چندک های جمعیت را از چندک های زیرجمعیت ها تخمین بزنید
47474
من یک مجموعه داده برای یک ANOVA ترکیبی 2 (بین) x 3 (داخل) x 3 (در داخل) x 3 (در داخل) دارم. من باید حجم نمونه لازم را برای یافتن یک نتیجه قابل توجه برای یکی از تعاملات 3 طرفه از جمله فاکتور بین آزمودنی ها و دو عامل درون آزمودنی ها پیدا کنم. من سعی می‌کنم ساده‌ترین/بهترین راه را برای شبیه‌سازی اضافه شدن شرکت‌کنندگان اضافی بر اساس داده‌های فعلی پیدا کنم. من در حال حاضر 24 موضوع در مجموع دارم (12 در هر یک از گروه های بین موضوعات). من همچنین با R، MATLAB و Python آشنا هستم. من سوالات مشابهی را در سایت پیدا کرده ام، اما به نظر می رسد هیچ یک از آنها سعی در مدل سازی شبیه سازی بر اساس داده های موجود ندارند.
تعیین حجم نمونه مورد نیاز در یک آنالیز واریانس ترکیبی 4 طرفه برای رسیدن به اهمیت
106040
معیار مناسب (یا مزایای معایب برای هر کدام) برای وزن دادن به نرخ مرگ و میر در سراسر کشورها چیست: کل جمعیت یا تعداد کل مرگ و میرها؟ به عنوان مثال، اگر شما نرخ مرگ و میر بیماری های قلبی عروقی استاندارد شده در سن را برای 5 کشور با اندازه های مختلف اما در غیر این صورت قابل مقایسه دارید و می خواهید میانگین را بیابید، دلایل یا مناسب بودن وزن دهی بر اساس جمعیت یا تعداد مرگ و میرها چیست؟
وزن دهی مناسب برای میانگین ها
83563
من سعی می کنم دیدگاه جدیدی در مورد برخی از داده ها در مورد محرومیت از خواب و اقدامات مقابله ای پیدا کنم و پیشاپیش از همه برای سرمایه گذاری مغز در مشکل من تشکر می کنم. در اینجا شرح مختصری از تحقیق من آمده است، امیدوارم به درک سوال من کمک کند. من بررسی کردم که چگونه تاکتیک‌های مختلف مقابله به غلبه بر اثرات منفی محرومیت از خواب در یک موقعیت رقابتی کمک می‌کنند. بنابراین من شرکت‌کنندگان را جفت کردم و به آنها اجازه دادم تا یک وظیفه زمان واکنش رقابتی را در برابر یکدیگر انجام دهند. زوج‌ها همیشه شامل یک شرکت‌کننده محروم از خواب و یک شرکت‌کننده کاملاً استراحت بودند. این عامل درونی من است و می توانم بگویم از نظر تحلیل چندسطحی سطح یک است. IV دوم من سه تاکتیک متقابل است که شرکت‌کنندگان محروم از خواب ارائه شده‌اند، که منجر به سه نوع دوتایی مختلف می‌شود که در یک طرح ANOVA (با دوتایی یک متغیر کانونی) بین فاکتورهای من خواهد بود. اما فکر کردن به تحلیل چندسطحی این IV دوم یک متغیر مختلط است، بنابراین همه پیش‌بینی‌کننده‌های من طبقه‌بندی و در سطح پایین‌تر هستند. فقط اثر تصادفی دوتایی (که به من توصیه شد با تجزیه و تحلیل چند سطحی به آن بپردازم) در سطح بالایی است. سؤال(های) من اکنون: چگونه می توانم این کار را در SPSS انجام دهم (من نحوی را که تا کنون تولید کرده ام را در زیر اضافه می کنم) و آیا استدلال چندسطحی من تا اینجا منطقی است (انجام یک تحلیل چندسطحی ایده من نبود و با توجه به طراحی). و دانش محدود من در مورد موضوع من 100٪ مطمئن نیستم که حتی رویکرد درستی است). باز هم: پیشاپیش از اینکه مشکل من را خواندید و فکر کردید متشکرم. * * * زمان مختلط /CRITERIA=CIN(95) MXITER(100) MXSTEP(10) SCORING(1) SINGULAR(0.000000000001) HCONVERGE(0، ABSOLUTE) LCONVERGE(0، ABSOLUTE) PCONVERGE0SOLUTE=0،10. SSTYPE(3) /METHOD=REML /PRINT=CPS DSCRIPTIVES G SOLUTION TESTCOV /RANDOM=INTERCEPT | SUBJECT(Dyad) COVTYPE(VC) /REPEATED=Sleep*Counter_Tactic | SUBJECT(Dyad) COVTYPE(CSH).
تجزیه و تحلیل چندسطحی داده‌های دوتایی با همه پیش‌بینی‌کننده‌های طبقه‌بندی و در سطح ۱
83569
من از این روش برای کاهش تعداد متغیرها برای یک مدل استفاده کرده ام، اما فکر بدی به ذهنم رسیده است. با توجه به ماهیت بوت استرپ، آیا ممکن است با استفاده تصادفی از متغیرها، در واقع متغیرهای همبسته و هم خطی را تبلیغ کنید؟ من 2 متغیر X بسیار غالب دارم که دیگران را به نویز نزدیک می کند. متوجه شدم که بوت استرپ متغیرهای دیگری را ارتقا می‌دهد و اساساً به من می‌دهد، آنچه فکر می‌کردم، مدل بهتری برای بیرون کشیدن این متغیرهای X جزئی است. x1 با x2 مرتبط است، اما x1 پیش بینی بهتری برای y است که هر بار که x1 وجود ندارد، یک بوت استرپ را اجرا کنید x2 اکنون به عنوان یک پیش بینی کننده در بسیاری از مدل های منفرد تبلیغ می شود x2 اکنون سهم قابل توجهی دارد فقط زیرا x1 در موارد کافی وجود ندارد. یک خطای معتبری که مرتکب شده ام؟
متغیرهای مرتبط و بوت استرپ جنگل مشکل ممکن است؟
15791
من به دنبال آزمونی برای داده‌های دایره‌ای هستم که معادل آنالیز واریانس اندازه‌گیری‌های مکرر خطی است (من آزمایشی با استفاده از شرکت‌کنندگان انسانی دارم که در آن نمونه‌های مشابهی از شرکت‌کنندگان شرایط آزمایشی متعددی را انجام می‌دهند و متغیر وابسته یک زاویه است). من متوجه 3 تست برای انجام ANOVA بر روی داده های دایره ای شده ام: 1. Watson & Williams (1956)، 2. Harrison & Kanji (1986)، 3. Anderson & Wu (1995) http://fmatoolbox.sourceforge.net/API/ FMAToolbox/General/CircularANOVA.html آیا این آزمایش‌ها به نمونه‌های مستقل نیاز دارند (همانطور که گمان می‌کنم در مورد تست Watson-Williams) یا می توان از آنها در داده های اندازه گیری مکرر استفاده کرد؟ اگر اولی بود، آیا آزمایش دیگری وجود دارد که خواسته من را انجام دهد؟
اندازه گیری های مکرر ANOVA برای داده های دایره ای / زاویه ای / جهت
38203
> **تکراری احتمالی:** > میانگین هندسی وزنی در مقابل میانگین وزنی من تفاوت بین WHM و WGM را جستجو کردم. چه زمانی از هر کدام استفاده کنیم؟ وقتی نه؟
میانگین هارمونیک وزنی در مقابل میانگین هندسی وزنی
37393
من سعی می‌کنم ویژگی‌های عددی یک پیام متنی را شناسایی کنم که آن را به عنوان یک هرزنامه یا به طور خاص، یک سوال بد در سایت‌هایی مانند این یکی می‌سازد. به عنوان مثال، آیا چیزهایی مانند تراکم حروف بزرگ مهم هستند؟ آیا کسی می تواند بر اساس تجربه پیشنهادی بدهد؟
چه خصوصیاتی از یک متن آن را به یک سوال هرزنامه/بد تبدیل می کند؟
34849
من به تازگی در رشته مهندسی فارغ التحصیل شدم که در آن زمینه بسیار قوی در ریاضیات محض دارم، اما متاسفانه در دوره ام هیچ آماری مطالعه نکردم. من حساب دیفرانسیل و انتگرال، نظریه احتمال، نظریه اندازه گیری، تجزیه و تحلیل و غیره را می دانم. اما هیچ دوره ای در زمینه رگرسیون و غیره گذرانده ام. قصد دارم در ماه های آینده برای چندین موقعیت تحلیلگر در بانک ها/شرکت های سرمایه گذاری مختلف درخواست دهم. در میان برخی از آنها، آنها به طور خاص از متقاضیان می خواهند که دانش خوبی در آمار داشته باشند. به چه تکنیک‌ها/مفاهیم آماری نیاز دارم و آیا باید یاد بگیرم (خود مطالعه) که یک تحلیلگر مالی به آن نیاز دارد؟ اساساً من به تجزیه و تحلیل و محاسبه داده های آماری و مالی خواهم پرداخت، چه تکنیک هایی را باید یاد بگیرم؟ آیا باید با رگرسیون، سری زمانی و غیره شروع کنم؟ همانطور که از ویکی پدیا گرفته شده است، این کاری است که من احتمالا انجام می دهم: > تحلیلگران مالی از صفحه گسترده و بسته های نرم افزاری آماری برای تجزیه و تحلیل داده های مالی، شناسایی روندها و توسعه پیش بینی ها استفاده می کنند. آنها بر اساس نتایج خود، گزارش می نویسند و ارائه می دهند، معمولاً توصیه هایی برای خرید یا فروش یک سرمایه گذاری یا اوراق بهادار خاص ارائه می کنند. اگر مسئول مدیریت دارایی ها باشند، تحلیلگران ارشد ممکن است در واقع تصمیم به خرید یا فروش برای شرکت یا مشتری بگیرند. سایر تحلیلگران از داده ها برای اندازه گیری ریسک های مالی مرتبط با اتخاذ یک تصمیم سرمایه گذاری خاص استفاده می کنند. بنابراین، برای انجام موارد فوق (در نقل قول) به چه مفاهیم/ابزارها/تکنیک ها/روش های آماری نیاز دارم؟ من به تازگی کتاب جورج اسندکور: روش های آماری را دریافت کردم، اما کدام مفاهیم/تکنیک های اصلی بیشتر توسط تحلیلگران استفاده می شود؟ من می خواهم به سرعت به آن موضوعات اول شروع کنم.
یک تحلیلگر (مالی) به چه ابزارهای آماری نیاز دارد؟
6886
فرض کنید من یک شبکه عصبی دارم، با متغیرهای ورودی $a, b, c, d, f, g$ و متغیرهای خروجی$ m, n, o, p, q$. با توجه به مقادیر ورودی مختلف، شبکه عصبی مربوط به $m، n، o، p، q$ را خروجی خواهد داد. اکنون می‌خواهم بهترین مقادیر ورودی را پیدا کنم که می‌توانند $m، n$ را به حداکثر برسانند، در حالی که $o,p,q$ را با وزن‌های مختلف به حداقل برسانند. بنابراین چگونه می توانم بهترین $a، b، c، d، f، g$ را پیدا کنم؟ در حال حاضر من از یک روش ساده استفاده می‌کنم که $x= w_1 m + w_2n+w_3 \frac{1}{o}+w_4 \frac{1}{p}+w_5 \frac{1}{q}$ را محاسبه می‌کند، سپس پیدا می‌کند ورودی برای حداکثر سازی x. با این حال، این روش ساده فرض می‌کند که $m، n، o، p، q$ مستقل هستند، که اینطور نیست. پس چگونه باید این مشکل را حل کنم؟ با تشکر فراوان.
چگونه بهترین مقدار ورودی را برای این مشکل ساده پیدا کنیم؟
85816
من سعی می کنم مجموعه داده های بسیار بزرگ (25000 ردیف) از پیش بینی های مالی را تجزیه و تحلیل کنم. پیش‌بینی‌ها معمولاً از الگوریتم‌ها مشتق نمی‌شوند، بلکه از سوی تعداد زیادی تحلیل‌گر به دست می‌آیند که درآمد و هزینه‌های موجودیت مربوطه خود را پیش‌بینی می‌کنند. پیش‌بینی از 5 فصل قبل شروع می‌شود و هر سه ماه یک‌بار بازنگری می‌شود و یک سری زمانی از 5 پیش‌بینی به من می‌دهد. داده ها همچنین شامل مقدار واقعی هستند که به من امکان می دهد درصد خطای پیش بینی را محاسبه کنم. با این حال، داده ها درآمدها و هزینه ها را جمع می کنند و بین ارزها تفاوتی قائل نمی شوند. بنابراین، یک پیش‌بینی ممکن است از -10^6 در t-2 به 10^7 در t-1 بازنگری شود، و ممکن است واقعی به 10^3 برسد که منجر به PE عظیم می‌شود. تا کنون، ما توانسته‌ایم تعیین کنیم که یک نوسان کم در پیش‌بینی‌ها منجر به ارائه یک پیش‌بینی نهایی بهتر می‌شود (که به عنوان میانگین/میانگین درصد مطلق خطا اندازه‌گیری می‌شود). این از خرد کردن «دستی» داده‌ها ناشی می‌شود، اما من گمان می‌کنم که خوشه‌بندی یا سایر تکنیک‌های ML می‌تواند الگوهای مفیدتری را نشان دهد. بنابراین، اگر ایده‌ای سریع در مورد چگونگی * یافتن الگوها در پیش‌بینی‌ها * یافتن وجوه مشترک پیش‌بینی‌های خوب * حل مسئله یک PE سرسام‌آور برای مقادیر واقعی کوچک دارید - مشتاق گوش دادن و یادگیری هستم. من در تقسیم دستی داده ها بر اساس چندک های APE، نوسانات، یا بر اساس ترتیب بزرگی واقعی تا حدودی موفق بوده ام، اما من گمان می کنم که این می تواند با خوشه بندی داده ها خودکار شود، اما من نمی دانم چگونه می توانم این کار را با نوع داده ای که در اینجا در اختیار دارم انجام دهم. با تشکر فراوان، هنینگ P.S.: من R، MatLab و Weka را در اختیار دارم (اگرچه تمام محاسبات قبلی در R انجام شده است).
جمع آوری بینش از داده های پیش بینی مالی سه ماهه
87714
بگویید من یک کیسه با 10 توپ (یا قرمز یا آبی) دارم و می دانم که 8 توپ قرمز هستند. چگونه می توانم احتمال رسم یک توپ قرمز را محاسبه کنم اگر اولین توپی که بدون جایگزینی انتخاب کردم قرمز باشد $>75\%$؟ امیدوارم این واضح باشد. با تشکر
آیا راهی برای محاسبه احتمال ترسیم X+ > y% زمان با توجه به X- وجود دارد؟
109959
من بر مشکل یادگیری نظارت کرده ام که در آن اهداف زاویه دارند. اگر من رگرسیون ساده را انجام دهم، اعداد 360 و 1 برای مدل من بسیار دور خواهند بود، اما در واقع آنها نزدیک هستند و پیش‌بینی مختصات x و y درست به نظر نمی‌رسد، زیرا در اینجا سعی می‌کنم فقط یک عدد را پیش‌بینی کنم. راه درست انجام چنین مشکلی چیست؟ ![نقاط آبی نشان دهنده اهداف است](http://i.stack.imgur.com/7t7aw.png)
رگرسیون برای داده های زاویه ای / دایره ای
31867
آیا کسی می‌تواند به خوبی تفاوت‌های بین رویکرد بیزی و مکرر به احتمال را ارائه دهد؟ از آنچه من درک می کنم: دیدگاه مکررگرایان این است که داده ها یک نمونه تصادفی تکرارپذیر (متغیر تصادفی) با فراوانی/احتمال خاص است (که به عنوان فراوانی نسبی یک رویداد تعریف می شود که تعداد آزمایش ها به بی نهایت نزدیک می شود). پارامترها و احتمالات زیربنایی در طول این فرآیند قابل تکرار ثابت می مانند و این تغییر به دلیل تغییر در X_n$ و _نه_ توزیع احتمال (که برای یک رویداد/فرآیند خاص ثابت است) است. دیدگاه بیزی این است که _data_ ثابت است در حالی که فرکانس/احتمال برای یک رویداد خاص می تواند تغییر کند به این معنی که پارامترهای توزیع تغییر می کند. در واقع، داده‌هایی که دریافت می‌کنید، توزیع قبلی یک پارامتر را تغییر می‌دهد که برای هر مجموعه داده به‌روزرسانی می‌شود. به نظر من رویکرد مکرر گرایی عملی/منطقی تر است زیرا منطقی به نظر می رسد که رویدادها احتمال خاصی دارند و این تنوع در نمونه گیری ما است. علاوه بر این، بیشتر تجزیه و تحلیل داده‌های حاصل از مطالعات معمولاً با استفاده از رویکرد مکررگرا (یعنی فواصل اطمینان، آزمون فرضیه با مقادیر p و غیره) انجام می‌شود، زیرا به راحتی قابل درک است. من فقط به این فکر می‌کردم که آیا کسی می‌تواند خلاصه‌ای سریع از تفسیر خود از رویکرد بیزی در مقابل مکررگرا به من ارائه دهد که شامل معادل‌های آماری بیزی از مقدار p مکرر و فاصله اطمینان است. علاوه بر این، نمونه های خاصی از مواردی که 1 روش بر دیگری ارجحیت دارد، قدردانی می شود.
تفسیرهای بیزی در مقابل مکرر گرا از احتمال
87713
اگر من یک متغیر پاسخی داشته باشم که با ریشه مربع تبدیل شده است، و یک متغیر توضیحی که به صورت log تبدیل شده است، و می‌خواهم مدل را با استفاده از آمار خلاصه زیر تبدیل کنم، به طوری که Y~ (X)^2، چگونه تفسیر می‌کنم. معنی رابطه بین X و Y با استفاده از ضریب بتا تخمین زده شده است؟ من فکر کردم که اینگونه تفسیر شده است: اگر 1٪ ​​افزایش در X وجود داشته باشد، تقریباً تغییر sqrt(2.1014))/100 واحد افزایش در Y وجود دارد. باقیمانده ها: Min 1Q Median 3Q Max -37.051 -12.096 -4.908 9.701 68.071 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) -3.0147 2.0827 -1.448 0.148 Dose.Back 2.1014 0.1679 12.514 <2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 16.28 در 1154 درجه آزادی چندگانه R-squared: 0.1195، R-squared تنظیم شده: 0.1-0.1 آمار: 156.6 در 1 و 1154 DF، p-value: < 2.2e-16
تبدیل پشت
112732
هنگام انجام یادگیری عمیق، به‌ویژه dnn، نشان داده می‌شود که هر لایه را به روشی بدون نظارت از قبل آموزش دهید، سپس وزن‌ها را با استفاده از داده‌های برچسب‌گذاری شده به روش نظارت شده تنظیم کنید. مشکل من این است که از آنجایی که ما هر لایه را به روشی بدون نظارت از قبل آزمایش می کنیم، پس چگونه می توانم آن پارامترهای فوق را انتخاب کنم، برای مثال، هر لایه یک رمزگذار خودکار پراکنده است، بنابراین پارامترهای فوق شامل تنظیم $\lambda$، پراکندگی هستند. $\rho$، کنترل پرنالیت $\beta$ و تعداد واحدها در هر لایه پنهان $n$، تعداد لایه ها $l$. آیا قرار است این کار را به این صورت انجام دهم: مجموعه‌ای از پارامترهای فوق‌العاده $(\lambda، \rho، \beta، n، l)$ را انتخاب کنم، هر لایه را از قبل آموزش دهم (تا زمانی که همگرایی یا بیش از تعداد تکرارها بیشتر شود)، سپس تنظیم دقیق (تا زمان همگرایی)، و در نهایت کار را انجام دهید (به عنوان مثال طبقه بندی) و دقت را بررسی کنید. و سپس مجموعه دیگری از پارامترهای فوق را امتحان کنید؟ این می تواند بسیار وقت گیر باشد، آیا ایده بهتری وجود دارد؟
فراپارامترها برای پیش‌آموزش و تنظیم دقیق
112736
بنابراین این واقعاً من را آزار می دهد و امیدوارم در صورت امکان توضیحی (ساده!) بدهم. فرض کنید من یک مدل رگرسیون خطی مشخص کرده‌ام: $$ Y = \beta_0 + \beta_1 X + \epsilon $$ و یک جایگزین: $$ Y = \beta_0 + \beta_1 X + \beta_2 X^2 + \epsilon $$ و من سعی می کنم $\beta$s را تخمین بزنم، مثلاً شاید از طریق OLS (روش دقیقی که فکر نمی کنم مرتبط باشد). سوال من این است: تفسیر دقیق $\beta$s که می‌خواهم تخمین بزنم چیست؟ سردرگمی از این واقعیت ناشی می شود که مقادیر جمعیت $\beta_1$ در هر یک از مشخصات احتمالاً متفاوت است، و این با درک من از ضرایب جمعیت سازگار نیست. من همیشه $\beta$s را به عنوان مشتق جزئی $X$ در $Y$ 'در واقعیت' تفسیر کرده بودم. یعنی، اگر بخواهید X را با ثابت نگه داشتن رگرسیورهای دیگر تغییر در مقدار مورد انتظار Y تغییر دهید. با ارائه یک مدل مشخص‌تر و بهتر، اطمینان حاصل می‌شود که تخمین $\beta_1$ دقیق‌تر می‌شود (با جدا کردن متغیرهای همبسته). در اصطلاح خطا). این برای درک من مهم بود. $\beta_1$ مشروط به مشخصات مدل من نبود - این یک ویژگی ثابت جمعیت باقی ماند - بلکه برآوردگر ما برای $\beta_1$ (b1) تغییر کرد و بسته به مدل کم و بیش دقیق شد. همه خوب و خوب، اما این تفسیر در مثال بالا کاملاً کار نمی کند. فرض کنید رابطه بین $X$ و $Y$ منحنی است. اگر محدود شده بودید که فقط $X$ را شامل کنید و نه چند جمله‌ای مرتبه بالاتر، احتمالاً $\beta_1$ که تغییر در $E[Y]$ را با تغییر در $X$ به بهترین شکل توصیف می‌کند، متفاوت از زمانی خواهد بود که شما برای چند جمله ای های مرتبه بالاتر (در مشخصات 2) اجازه داده شد. بنابراین، برای آرگومان‌ها، DGP $$ E[Y] = 1 + 10 X - 2 X^2 $$ بود که در آن $0<X<2$ بود تا اطمینان حاصل شود که چند جمله‌ای خیلی زیاد تأثیر نمی‌گذارد. در این صورت آیا ارزش واقعی X$ در مشخصات 1 باید 10 باشد؟ یا برای تطبیق آن با DGP زمانی که $X^2$ مشخص نشده است باید ~6 باشد؟ به نظر می رسد اگر این دومی باشد درک من این است که ضرایب جمعیت به مشخصات بستگی ندارد دود می شود! لطفا کمک کنید!
پارامترهای جمعیتی یک رگرسیون
112738
من یک مولتی گراف جهت دار دارم که برای نشان دادن یک انجمن گفتگوی آنلاین استفاده می شود، جایی که هر بازیگر می تواند نظرات خود را در یک بحث مشارکت دهد و نظرات خود را توسط بازیگران دیگر بیان کند. کدام معیارهای مرکزیت برای یک مولتی گراف جهت دار مناسب تر هستند؟ آیا می توانم از معیارهای مرکزیت استاندارد استفاده شده برای نمودارهای باینری غیر جهت دار استفاده کنم (مثلاً نزدیکی، بینابینی، بردار ویژه)، یا این باعث ایجاد مشکل می شود؟
معیارهای مرکزیت برای یک مولتی گراف جهت دار
77696
من 3 ناظر دارم که هر کدام چندین رصد انجام می دهند که در آن یک پدیده را می شمارند. من سعی می کنم خطای بین ناظر و درون ناظر را برای این مطالعه کمی سازی کنم. من در این کار تازه کار هستم و گزینه های تجزیه و تحلیل را کاملا گیج کننده می بینم. شخصی استفاده از ICC را توصیه کرد. من برخی از داده های زیر را با تعداد کلمات در یک صفحه به عنوان متغیر شمارش مسخره کرده ام - این ساختار داده من را تقلید می کند. من Shrout and Fleiss (1979) را خواندم، و از آنجایی که می‌خواهم به جمعیتی از ناظران تعمیم دهم، به نظر می‌رسد که من مدل اثرات تصادفی دو طرفه، ICC (2،1) را می‌خواهم. مسائل من عبارتند از: 1. برای خطای درون ناظر (یا توافق)، آیا باید فقط یک ناظر را در هر ICC وارد کنم؟ به عبارت دیگر، ICC را برای مشاهدات مکرر درون ناظران دریافت کنید؟ 2. برای خطای بین ناظر (یا توافق)، باید همه ناظران و مشاهدات مکرر را بگنجانم یا مشاهدات مکرر را طوری جمع کنم که برای هر ناظر فقط یک نفر وجود داشته باشد؟ 3. همچنین نمی‌دانم ICC را برای یک مشاهده می‌خواهم یا مشاهدات متوسط ​​[یعنی ICC(2,1) در مقابل ICC(2,k)]. کد: # داده با مشاهدات مکرر dat <- data.frame( pages = c(page1، page2، page3، page4، page5)، Peter1 = c(236, 179, 203, 218 ، 195)، Peter2 = c(232، 181، 198، 212، 197)، Peter3 = c(225، 176، 205، 216، 191)، Paul1 = c(227، 177، 204، 218، 196)، Paul2 = c(236، 179، 209، 222، 199)، Mary1 = c(234، 184، 201، 216 ), Mary2 = c(238, 182, 200، 218، 193)، Mary3 = c(240، 176، 206، 221، 197)) کتابخانه (روان) # قابلیت اطمینان درون ناظر؟ ICC(x = dat[, paste0(پیتر، 1:3)]) ICC(x = dat[, paste0(پل، 1:2)]) ICC(x = dat[, paste0(مریم , 1:3)]) # قابلیت اطمینان بین ناظران؟ ICC (x = dat[, -1])
خطای درون و بین ناظر و ضریب همبستگی درون کلاسی (ICC)
40698
من یک پایگاه داده با تست هایی دارم که یا قبولی هستند یا ناموفق و حدود 25 فیلد توضیحات. هر قسمت توضیحات یا یک بولی است یا بین 3 تا 10 گزینه دارد. من می خواهم با استفاده از R به پایگاه داده Postgres خود قلاب کنم و زیرمجموعه ای از داده ها را استخراج کنم که امیدواریم نماینده کل پایگاه داده باشد. سپس می‌خواهم بدانم کدام فیلدها با شکست‌های تست مرتبط هستند. با تشکر از کمک شما!
آزمون آماری برای یافتن متغیرهای عامل شکست
40697
عنوان سوال کمکی نمی کند، اما سعی می کنم آن را توضیح دهم: من داده های تاریخی (نقاط هفتگی) از 2001/01/01 تا دیروز دارم و متغیر من دارای الگوی فصلی قوی 12 ماهه است (داده های آب و هوا). من از تابع stlf() (از بسته R 'پیش بینی') برای پیش بینی های هفتگی استفاده می کنم - و اتفاقاً نتایج بسیار خوبی هم دریافت می کنم. مشکل این است که برای برخی از مدل‌ها داده‌های 2 سال آخر را ندارم، بنابراین برای این مدل‌ها اطلاعات من از 2001/01/01 تا 2010/12/31 می‌رود. چه کاری می توانم انجام دهم تا این پیش بینی ها را به آینده برسانم؟ به عبارت دیگر، من باید این پیش بینی ها را به هفته جاری تعمیم دهم. آنچه من دارم: داده های 2001/01/01 - 2010/12/31 آنچه من نیاز دارم: پیش بینی برای هفته های آینده. برای ایجاد سردرگمی، من نکاتی را از ماه گذشته دارم، اما نمی دانم چگونه از این مزیت استفاده کنم. با تشکر برای هر گونه کمک!
پیش بینی ها را به داده های موجود تعمیم دهید
6883
در همین راستا با این سوال، آیا روش خوبی برای نمایش نتایج رگرسیون در متلب از یک رگرسیون یا چند رگرسیون به شکل جدول یا نمودار وجود دارد؟
نمایش نتایج رگرسیون در متلب
113466
هیچ بسته ای در CRAN موجود نیست، بنابراین من امیدوار بودم که شخصی در جامعه تابع/بسته خود را نوشته باشد. من می بینم که در MATLAB انجام شده است، بنابراین ممکن است مجبور باشم با آن شروع کنم و خودم کد را بنویسم... توضیحات الگوریتم - RUSBoost: بهبود عملکرد طبقه بندی هنگام کج بودن داده های آموزشی مثالی از کد MATLAB (که شامل کدهایی برای تقویت است. علاوه بر نمونه برداری کم)
آیا کسی اجرای RUSBoost را در R به طور عمومی به اشتراک گذاشته است؟
103132
من دو متغیر $s_1$ و $s_2$ به طور مشترک توزیع شده دارم. من اکنون به دنبال انتظار شرطی $$ E(s_1|s_1>r_1,\ s_2>r_2) $$ هستم که $r_1$ و $r_2$ ثابت هستند. ایده چگونگی رسیدن به این و منابعی که می توان آن را خواند نیز بسیار قدردانی می شود.
انتظار توزیع نرمال مشروط
47470
من سعی کرده‌ام با امتحان‌های مقدماتی قدیمی برخی از اصول آمار را به خودم بیاموزم. مشکل اینجاست: فرض کنید $X_1، \ldots، X_n$ یک نمونه تصادفی از یک توزیع نرمال با میانگین $\theta$ و واریانس $\sigma^2$ هستند، که $\sigma^2$ ثابت است و $\theta> 0$ یک پارامتر است. برآوردگر حداکثر احتمال $\sqrt{\theta}$ را پیدا کنید. **کار من تاکنون:** تابع احتمال $$L(\theta|\mathbf{x})=(2\pi \sigma^2)^{-n/2} \text{exp}\ را دارم Big(-\frac{1}{2\sigma^2}\sum_{i=1}^{n}(x_i-\theta) \Big).$$ سپس، متمایز کردن $L(\theta|\mathbf{x})$ با توجه به تتا، و برابر کردن نتیجه با صفر، $$\sum_{i=1}^{n}(x_i-\theta)=0 \به معنای \تتا است. =\frac{1}{n}\sum_{i=1}^{n}x_i \hspace{3mm} (=\bar{x}).$$ دومین مشتق منفی است در اینجا، بنابراین MLE $\theta$ $\hat{\theta}=\bar{X}$ است. بنابراین، با ویژگی تغییر ناپذیری MLEs، MLE $\sqrt{\theta}$ $\sqrt{\hat{\theta}}=\sqrt{\bar{X}} است.$ **سوال:** سوال من در مورد فرض $\theta>0$ است (من کاملاً مطمئن هستم که $\sqrt{\bar{X}}$ اگر هیچ محدودیتی در $\theta$ وجود نداشته باشد خوب خواهد بود). بنابراین، برای $\theta>0$، آیا MLE برای $\theta$ چیزی شبیه $\max\\{\bar{X},0\\}$ خواهد بود؟ من از هرگونه بازخورد، اصلاح و غیره بسیار سپاسگزارم.
حداکثر احتمال عملکرد میانگین در یک فضای پارامتر محدود
77694
ما یک نامه جمع آوری کمک مالی ماهانه در غیرانتفاعی من انجام می دهیم. من می دانم چگونه تست هایی را در R تنظیم کنم تا مقایسه کنم که آیا نسبت پاسخ و مبلغ دریافتی بین دو نامه به طور قابل توجهی متفاوت است یا خیر، اما می خواهم همه دوازده را برای سال گذشته مقایسه کنم. فکر می کنم آزمایشی برای انجام آن وجود دارد، اما نمی دانم چه خواهد بود. آیا کسی می تواند راهی برای بررسی همزمان 12 نمونه پیشنهاد دهد؟
تست فرضیه برای بیش از دو نمونه؟
113462
من تجزیه و تحلیل خوشه‌بندی سلسله مراتبی را روی مجموعه داده‌ای از 25 جمعیت ویروسی با استفاده از 3 جزء ویروسی (متغیر) برای ساخت دندروگرام با روش میانگین و محاسبه فاصله همبستگی انجام می‌دهم. ما ابتدا از روش hclust() برای تولید یک نمودار استفاده کردیم، اما همچنان باید از دندروگرام با تجزیه و تحلیل آماری پشتیبانی کنیم. بنابراین پس از جابجایی داده ها، pvclust() را برای تولید دندروگرام انتخاب می کنیم. با این حال، نمودارهای ساخته شده توسط pvclust و طرح تولید شده توسط hclust کاملاً متفاوت هستند. ما از داده های یکسان و پارامترهای مشابه (روش متوسط ​​و فاصله همبستگی) استفاده کردیم، اما نتایج بسیار متفاوت است. چرا ممکن است این باشد؟ در اینجا مجموعه داده https://github.com/yingfengisu/RSHOP/blob/master/TVA1.csv # hclust > ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/PaHfr.png) ######### روش hclust ############# sd.data=scale(tav.data) dd=as.dist(1-cor(t(sd.data))) # نمودار فاصله مبتنی بر همبستگی(hclust(dd, روش = متوسط), main=میانگین پیوند با فاصله مبتنی بر همبستگی,xlab= ، sub=, labels=tav.labs) > ​​![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/i02XB.png) * * * # pvclust > ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/EDRjX.png) ######### روش pvclust ############# ### tav.data0 = tav.data[,c(1,2,3)] نام ردیف(tav.data0)<-tav.labs tav.data0 = as.data.frame(t(tav.data0)) sd.data0 = scale(tav.data0) library(pvclust) result=pvclust(sd.data0,method.hclust=average, method.dist=correlation ,nboot=100,r=seq(0.7,1.4,by=.1)) plot(نتیجه) > ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/CH3Fl.png)
چرا خوشه بندی سلسله مراتبی pvclust در مقابل hclust نتایج متفاوتی به دست آورد؟
73377
من اخیراً خواندن «بانوی مزه چای» را به پایان رساندم، کتابی سرگرم‌کننده درباره تاریخ آمار. در پایان کتاب، نویسنده، دیوید سالزبورگ، سه مسئله فلسفی باز در آمار را پیشنهاد می‌کند، که راه‌حل‌هایی که او استدلال می‌کند پیامدهای بزرگ‌تری برای کاربرد نظریه آماری در علم خواهد داشت. من قبلاً در مورد این مشکلات نشنیده بودم، بنابراین به واکنش دیگران نسبت به آنها علاقه مند هستم. من در حال جست‌وجوی در قلمرویی هستم که در مورد آن اطلاعات کمی دارم، بنابراین فقط می‌خواهم تصویر سالزبورگ از این مشکلات را توصیف کنم و در زیر دو سؤال کلی درباره این مشکلات مطرح کنم. مشکلات فلسفی سالزبورگ عبارتند از: > 1. آیا می توان از مدل های آماری برای تصمیم گیری استفاده کرد؟ > 2. معنای احتمال در زندگی واقعی چیست؟ > 3. آیا مردم واقعاً احتمال را درک می کنند؟ > **آمار و تصمیم گیری** به عنوان مثالی از مسئله ارائه شده در سوال 1، سالزبورگ پارادوکس زیر را ارائه می کند. فرض کنید ما یک قرعه کشی با 10000 بلیط بدون شماره ترتیب می دهیم. اگر با رد این فرضیه برای بلیط هایی با احتمالات زیر، مثلاً 001، از احتمال برای تصمیم گیری در مورد برنده شدن هر بلیط در قرعه کشی استفاده کنیم، فرضیه بلیط برنده برای همه بلیط های لاتاری را رد خواهیم کرد! سالزبورگ از این مثال استفاده می کند تا استدلال کند که منطق با نظریه احتمال ناسازگار است، زیرا نظریه احتمال در حال حاضر درک شده است، و بنابراین، ما در حال حاضر ابزار خوبی برای ادغام آمار (که در شکل مدرن آن تا حد زیادی بر اساس آن استوار است) نداریم. نظریه احتمال) با ابزار منطقی تصمیم گیری. **معنای احتمال** به عنوان یک انتزاع ریاضی، سالزبورگ استدلال می‌کند که احتمال به خوبی کار می‌کند، اما وقتی تلاش می‌کنیم نتایج را در زندگی واقعی اعمال کنیم، با این مشکل مواجه می‌شویم که احتمال در زندگی واقعی معنای مشخصی ندارد. به طور دقیق تر، وقتی می گوییم فردا 95 درصد احتمال بارندگی وجود دارد، مشخص نیست که این 95 درصد برای چه نهادهایی اعمال می شود. آیا برای مجموعه آزمایش‌های احتمالی که می‌توانیم برای کسب دانش درباره باران انجام دهیم، کاربرد دارد؟ آیا برای مجموعه افرادی که ممکن است بیرون بروند و خیس شوند صدق می کند؟ سالزبورگ استدلال می کند که فقدان وسیله ای برای تفسیر احتمالات برای هر مدل آماری مبتنی بر احتمال (یعنی اکثر آنها) مشکل ایجاد می کند. **آیا مردم احتمال را درک می کنند؟** سالزبورگ استدلال می کند که یکی از تلاش ها برای حل مسائل با فقدان ابزار مشخص برای تفسیر احتمال، از طریق مفهوم احتمال شخصی است که توسط جیمی ساواژ و برونو د فینتی پیشنهاد شده است، که احتمال را درک می کند. به عنوان باورهای شخصی در مورد احتمال رویدادهای آینده. با این حال، برای اینکه احتمال شخصی مبنایی منسجم برای احتمال فراهم کند، افراد باید درک مشترکی از احتمال چیست و ابزار مشترکی برای استفاده از شواهد برای نتیجه‌گیری درباره احتمال داشته باشند. متأسفانه، شواهدی مانند آنچه که توسط کانمن و تورسکی ارائه شده است، نشان می‌دهد که باورهای شخصی ممکن است مبنای دشواری برای ایجاد یک مبنای منسجم برای احتمالات باشد. سالزبورگ پیشنهاد می‌کند که روش‌های آماری که احتمالات را به‌عنوان باورها مدل‌سازی می‌کنند (شاید مانند روش‌های بیزی؟ من دانشم را در اینجا گسترش می‌دهم) باید با این مشکل مقابله کنند. **سوالات من** 1. مشکلات سالزبورگ واقعاً تا چه حد برای آمارهای مدرن مشکل دارند؟ 2. آیا پیشرفتی در جهت یافتن راه حلی برای این مشکلات داشته ایم؟
سه مسئله باز فلسفی در آمار
15790
من یک سوال در مورد آزمایش این فرضیه دارم که یک ضریب رگرسیون خاص در یک طرح ساده OLS با همه مفروضات خوب صفر است یا خیر. به ویژه معادله 3.12، در کتاب تبشیرانی و همتایان، _Elements of Statistical Learning_ امتیاز z را به صورت $$z = \beta/\hat\sigma\sqrt{v_j}$$ تعریف می کند سوال من این است که با توجه به ضرایب رگرسیون همه به طور مشترک نرمال هستند، چگونه می توانیم یک ضریب را به این صورت جدا کنیم؟ آیا این یک امتیاز z مشروط با فرض اینکه همه نسخه‌های بتا ارزش خاصی دارند، است؟
محاسبه مقادیر ضریب رگرسیون در OLS
15794
ترسیم اندازه اثر (r) برای یک همبستگی در قالب یک نمودار پراکندگی آسان است. با این حال، چگونه می توانم واریانس را رسم کنم (r-squared)؟ نظری در مورد بهترین عملکرد دارید؟
چگونه می توان به صورت گرافیکی یک اندازه اثر مربعی r را نشان داد؟
101254
من در یافتن نقاط پرت با استفاده از خوشه بندی مشکلاتی دارم. data.frame حدود 20000 مشاهده است و هر ردیف دارای انواع مختلفی از متغیرها (عددی، اسمی و باینری) است. کاری که من می خواهم انجام دهم این است که نقاط پرت را با خوشه بندی تشخیص دهم. من ماتریس عدم تشابه را با استفاده از تابع daisy() در R محاسبه کرده ام: diss = daisy(data,metric=gower) و می دانم که می توانم از توابع pam() و hclust() برای انجام خوشه بندی استفاده کنم. اما چگونه می توانم نقاط پرت را بعد از آن پیدا کنم؟ کد R من برای پیدا کردن نقاط پرت از pam(): kmedoid = pam(diss,k=10,diss=T) مراکز = kmedoid$id.med distMat = as.matrix(diss) فاصله = rep(-99, 20000) برای (k در 1:20000) {فاصله[k] = min(distMat[centers,k]) } پرت = ترتیب (فاصله‌ها، کاهش=T)[1:5] پرت = داده[فرج] پرت من نمی‌دانم درست است یا نه، زیرا هر بار که مقدار متفاوت k را در pam امتحان کردم، به نظر می‌رسد که نتیجه بسیار متفاوت است. ). بنابراین سوال اصلی این است: ** وقتی kmedoid و hc را در زیر محاسبه کردم، چگونه می توانم نقاط پرت را پیدا کنم؟** kmedoid = pam(data,k=10,diss=T) hc = hclust(data ) من در گوگل جستجو کردم، اما اطلاعات زیادی در این مورد وجود نداشت. من به برنامه نویسی مسلط نیستم، بنابراین فقط استفاده از بسته و تابع موجود در R کمک زیادی به من می کند:) و **آیا روش بهتری برای یافتن موارد پرت وجود دارد؟** با تشکر!
تشخیص پرت با استفاده از ماتریس خوشه بندی و عدم تشابه در R
87717
آیا هنگام انجام یک رگرسیون دو جمله ای چندگانه، آیا می توان رگرسیون را با یک متغیر طبقه ای به عنوان x همزمان با طبقه بندی y انجام داد؟ اکثر متغیرهای x من به جز دو متغیر پیوسته هستند، در حالی که متغیرهای y من همگی دسته‌بندی هستند.
رگرسیون دو جمله ای با متغیر توضیحی طبقه ای
103799
آیا داده های موجود در دو ستون مانند اندازه کفش (متغیر x) و تعداد جفت (فرکانس f) داده های گروه بندی شده یا گروه بندی نشده در نظر گرفته می شوند؟ آیا داده های گروه بندی شده لزوماً به وجود یا طبقه بندی از طریق فواصل کلاس دلالت دارد؟
داده های گروه بندی شده و گروه بندی نشده - تفاوت چیست؟
40692
در جدول متقاطع، اگر مقدار باقیمانده تنظیم شده برای یک سلول کمتر از -1.96 یا بیشتر از 1.96 باشد، می‌توان گفت که این سلول در وابستگی تعیین‌کننده است (فرض کنید پیرسون 0.03 باشد). با این حال، آیا این علامت واقعا مهم است؟ یعنی اگه 2.5- رو بگیرم میتونم بگم که متغیرها همبستگی منفی دارن؟ من یک جدول متقاطع با دو متغیر ایجاد می کنم: عضویت در خوشه (تولید شده توسط kmeans) و چند ویژگی شرکت. بنابراین، اگر من این -2.5 را در یک سلول (خوشه 3 x شرکت های صنعتی) دریافت کنم، آیا می توانم بگویم که خوشه 3 از شرکت های صنعتی فقیر است؟ متشکرم.
آیا علامت باقیمانده های تنظیم شده در جدول متقاطع اهمیت دارد؟
87711
من به دنبال یک دوره کوتاه (1 هفته یا کمتر) هستم که جنبه های نظری و کاربردی تجزیه و تحلیل مؤلفه های اصلی را به روشی دقیق ریاضی آموزش دهد. من دوره های دانشگاهی را در مورد آمار چند متغیره به طور کلی یا مدل خطی دیده ام، اما نه فقط PCA. سفر مشکلی نیست، بنابراین از دوره های خوب بین المللی استقبال می شود، البته تا زمانی که به زبان انگلیسی باشند. همچنین، من نمی خواهم فقط یاد بگیرم که چگونه یک PCA را با استفاده از بسته نرم افزاری اجرا کنم و نتایج را تفسیر کنم. من می خواهم تئوری زیربنایی دقیق را نیز یاد بگیرم. من نمی توانم در یک دوره ترم طولانی شرکت کنم، و نه می خواهم یک کلاس فقط وب انجام دهم.
توصیه هایی برای یک سمینار یا دوره کوتاه و در عین حال از لحاظ نظری دقیق در مورد تجزیه و تحلیل اجزای اصلی
72305
من سعی می کنم از روش بوت استرپینگ استفاده کنم تا اساساً همان کاری را انجام دهم که یک $F$-test انجام می دهد - تعیین اینکه آیا مدل محدود شده یا نامحدود بهتر است. دو مدل من در زیر آمده است: lm3 <- lm (قمار ~ جنسیت + وضعیت + درآمد + کلامی، داده = نوجوان) lm4 <- lm (قمار ~ درآمد، داده = teengamb) من در درک مفهوم پشت آن کمی مشکل دارم این بوت استرپینگ من می توانم 1000 بار نمونه برداری کنم و برای هر مدل 1000 مدل خطی بگیرم (مجموع 2000). با آن ها چه کنم؟ آیا تست های F را برای هر جفت محاسبه کنم؟ با تشکر - کمی گیج شده است، و هر راهنمایی عالی خواهد بود.
R - امکان استفاده از bootstrapping برای آزمایش مدل محدود/نامحدود وجود دارد؟
103137
خوانده‌ام: * انتخاب مدل و اعتبارسنجی متقابل: راه درست * اعتبار متقابل و/یا داده‌های آزمایشی. همیشه از هر دو استفاده کنید یا یکی می تواند دیگری را حذف کند؟ اما من هنوز آن را نمی فهمم مشکل من ساختن یک SVM ساده، تنظیم پارامترهای آن و محاسبه خطای تعمیم است. فرض کنید من یک مجموعه داده با e.g. 10 ویژگی و 200 نمونه. من نمی خواهم داده ها را هدر دهم، زیرا نسبتاً کوچک هستند. رویکرد من این خواهد بود: 1. تقسیم مجموعه داده (به عنوان مثال، 70/30) با روش نگهدارنده به آموزش / اعتبار سنجی و مجموعه آزمایشی. 2. یک اعتبارسنجی متقاطع n برابری مکرر روی مجموعه آموزشی انجام دهید. من میزان خطا (نرخ طبقه بندی اشتباه) را پس از انجام تا زدن ها محاسبه می کنم (به سادگی همه نمونه های طبقه بندی اشتباه را شمارش می کنم). سعی می‌کنم هر بار که n فولد کامل انجام می‌شود، میزان خطا (یا هر تابع ضرر دیگری؟) را به حداقل برسانم. من نرخ خطا را ذخیره می کنم و پارامترهایی را با کمترین میزان خطا انتخاب می کنم. سپس مدل را روی مجموعه آموزشی کامل با پارامترهای تخمین زده مجدداً آموزش می دهم. 3. محاسبه خطای تعمیم با مجموعه تست. مشکلات: * هر چه مجموعه آزمایشی من بزرگتر باشد، مجموعه قطار کوچکتر می شود، بنابراین اطلاعات بالقوه را دور می ریزم. آیا می توان این را از طریق یک cv n-fold انباشته حل کرد؟ * آیا واقعاً باید یک cv n-fold REPEATED بسازم؟ آیا امکانات دیگری وجود دارد؟ * آیا نرخ خطا یک تابع ضرر است یا باید تابع دیگری را انتخاب کنم (مثلاً تابع خطای تجربی یا mse، اما پس از آن به یک خروجی احتمال نیاز دارم، درست است؟)؟
انتخاب پارامتر SVM و تست مدل با اعتبارسنجی متقابل
88473
من با یک چالش روبرو هستم: نوشتن مدل تعادل عمومی خودم در متلب. من می خواهم برای: 1. دانش اولیه مورد نیاز در ریاضیات 2. دانش اولیه مورد نیاز در برنامه نویسی با منابع در صورت امکان. من دانشجوی کارشناسی ارشد اقتصاد هستم، اما حاضرم برای رسیدن به هدفم تلاش لازم را انجام دهم. پیشاپیش سپاس فراوان
مراحل نوشتن مدل تعادل عمومی خودم در متلب
115168
من در یک مشکل آماری گیر کرده ام و نمی دانم که آیا کسی می تواند به خطا در منطق من اشاره کند. تصور کنید برای یک سفر کمپینگ برای 50 نفر برنامه ریزی می کنید. هر فرد به طور متوسط ​​2.0 پوند غذا در روز مصرف می کند، با انحراف معیار 0.7 پوند. کمترین مقدار غذایی که باید همراه داشته باشید تا 97.5% مطمئن شوید که غذای کافی خواهید داشت چقدر است؟ **خط اول استدلال:** انحراف استاندارد برای میانگین مقدار مصرف شده توسط یک نفر **0.7/sqrt(50)** انحراف استاندارد برای کل مقدار مصرف شده توسط هر 50 نفر **sqrt(50) است. *0.7** بنابراین پاسخ مورد نظر **2.0*50 + 2*sqrt(50)*0.7.** **خط دوم استدلال:** SD(n*x) = n*SD(x). بنابراین، انحراف معیار برای مقدار مصرف شده توسط 50 نفر **50*0.7** راه حل مورد نظر **2.0*50 + 2*50*0.7** است که می دانم خط دوم استدلال اشتباه است. کسی میتونه توضیح بده چرا؟ با تشکر ** ویرایش ** به نظر من خطا این است که انحراف معیار برای مقدار مصرفی 50 نفر 50*0.7 نیست، زیرا افراد مستقل هستند. VAR (مقدار مصرف شده توسط 50 نفر) != VAR(50 * مقدار مصرف شده توسط یک نفر)
نحوه مدل سازی توزیع نمونه از مجموع نمونه
31630
من فهرستی از تیم‌های لیگ محلی فوتبال دارم که از 1 تا 10 رتبه‌بندی شده‌اند، جایی که تیم برتر (اول) دارای بیشترین برد (و در نتیجه «امتیاز») است. من سعی می کنم یک لیست قدرت ایجاد کنم، به طوری که اگر تیم رتبه دهم در مقابل تیم رده اول پیروز شد، بازی مهمتر از این است که اگر تیم رتبه اول در برابر تیم رده دهم برنده شود. بخشی از این فرمول شامل محاسبه قدرت حریف است. برای این من از این فرمول استفاده می کردم: ضرب کننده قدرت حریف = ([تعداد تیم ها] - [مقام رتبه بندی]) / 100 می خواستم بدانم آیا کسی روش دیگری (بهتر) برای ایجاد ضریب برای مقایسه تیم ها دارد؟ محاسبه نهایی قدرت من چندین فاکتور دیگر دارد، از جمله امتیازهای کسب شده، اهمیت مسابقه و غیره.
مقایسه تفاوت بین دو رتبه
35827
> تجزیه و تحلیل رگرسیون به فرد کمک می کند تا بفهمد که چگونه مقدار معمولی متغیر وابسته > تغییر می کند... \-- > http://en.wikipedia.org/wiki/Regression_analysis این به چه معناست؟ در مورد چه ارزش معمولی صحبت می کند؟ به دنبال چه نوع تغییری است؟ مثبت یا منفی یا چی؟ تغییر در چه چیزی؟ درصد؟ من گیج شده ام. درس‌های آموخته شده: * پاسخ سبز شده از این جهت خوب است که وضوح مشخصی داشت * اسناد ویکی‌پدیا تعداد زیادی اطلاعات، که اکثر آنها غیرقابل خواندن و غیرقابل استفاده هستند * اکثر (80%) ppl، در حالی که مطمئناً معنی خوبی دارند، فقط نمی‌دانم چگونه خوب ارائه کنم. پاسخ ها * و فقط انسان... عیب های زیادی دارد و در نتیجه سوالات خوبی را می بندد
تجزیه و تحلیل رگرسیون چگونه به درک چگونگی تغییر مقدار معمولی متغیر وابسته کمک می کند؟
88476
بنابراین من سعی کرده ام به صورت جبری ثابت کنم که برازش بیش از حد یک مدل منجر به مقادیر واریانس بیشتر برای تخمین پارامترها می شود. من نزدیک شده ام (مشکل را به نشان دادن یک ماتریس خاص کاهش دادم، قطعی مثبت است) اما من واقعاً از رویکردهایی که در پیش گرفته ام خوشم نمی آید و می خواهم ببینم آیا راه ساده تری وجود دارد یا خیر. اگر کسی استراتژی خوبی برای استفاده یا مدرکی از قبل موجود می داند، متشکرم!
به‌دنبال اثباتی که نشان دهد برازش بیش از حد یک مدل منجر به تخمین‌های واریانس بیشتر می‌شود (تحت OLS)
103138
فرض کنید می‌خواهم تعداد افرادی را در 10 شهرستان مختلف بشمارم که ویژگی x$ دارند. از آنجایی که هر یک از 10 شهرستان دارای اندازه‌ها و مناطق مختلف جمعیت هستند، می‌خواهم داده‌های شمارش را بر اساس اندازه جمعیت و منطقه مقیاس‌بندی کنم. آیا این فرمول صحیح برای استفاده است: $$\frac{\text{تعداد افراد در شهرستان با x}}{\text{اندازه جمعیت شهرستان} \cdot \text{منطقه شهرستان}}$$
مقیاس بندی داده های شمارش بر اساس اندازه جمعیت و مساحت
77860
من 100000 دنباله باینری تصادفی دارم مثل این 01011101101001100111001100100001010... 11110111001110000110001100001010101... 00110010100011111000100010101010101... 10001001110101000111000101010011110... 111001001111000101010 و ... من همچنین یک دنباله باینری اصلی مانند این ms = 00110101010100010101110010010010110 دارم. سوال من این است که چگونه می توانم بهترین دنباله تصادفی را برای پیش بینی شماره دنباله اصلی بعدی پیدا کنم؟
کمک به پیش بینی توالی باینری
15798
من یک آرایه numpy با ستون های _m_ و ردیف های _n_ دارم، ستون ها ابعاد و سطرها نقاط داده هستند. اکنون باید مقادیر هسته را برای هر ترکیبی از نقاط داده محاسبه کنم. برای یک هسته خطی $K(\mathbf{x}_i,\mathbf{x}_j) = \langle \mathbf{x}_i,\mathbf{x}_j \rangle$ من به سادگی می‌توانم «dot(X,X.T )` چگونه می توانم به طور موثر همه مقادیر را برای هسته گاوسی محاسبه کنم $K(\mathbf{x}_i,\mathbf{x}_j) = \exp{-\frac{\|\mathbf{x}_i-\mathbf{x}_j\|_2^2}{s^2 }}$ با یک _s_ داده شده؟
چگونه یک هسته گاوسی را به طور موثر در numpy محاسبه کنیم
103861
من دو متغیر دارم، یکی با 2 دسته و دیگری با 6 دسته. برای آزمایش اینکه آیا رابطه ای بین این متغیرها وجود دارد یا خیر، تست دقیق فیشر را انجام دادم که نتیجه قابل توجهی داشت. حال می‌خواهم بدانم که برای کدام یک از دسته‌های متغیر دوم، موضوعات مربوطه نسبت به موضوعاتی که در این دسته خاص متغیر دوم نیستند، توزیع متفاوتی از متغیر اول (یکی با 2 دسته) دارند. برای این منظور می خواستم کارهای زیر را انجام دهم: برای هر دسته c از متغیر دوم (c در {1,...,6}): همه موضوعات متعلق به دسته c و همه موضوعات غیر متعلق به دسته c را با هم گروه بندی کنید. منجر به یک متغیر باینری جدید متغیر2_c می شود. تست دقیق فیشر را بین متغیر2_c و متغیر اول (متغیر دارای 2 دسته) انجام دهید. به نظر شما این رویه موجه است یا مشکلی در این زمینه می بینید؟ یا راه بهتری برای این کار وجود دارد؟ پیشاپیش از شما متشکرم
تست دسته های خاص پس از آزمون دقیق فیشر در جداول 2 x k