_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
100434 | من کنجکاو هستم که بدانم آیا تفسیر و گزارش دادههای بهدستآمده در مقیاس لیکرت (1: کاملاً موافق تا 5: کاملاً مخالف)، با یافتن مقدار میانه بهجای میانگینگیری همه مقادیر برای یک مورد خاص، رویه فعلی در زمینه آماری است. مورد لطفاً لینک اینجا را ببینید سوال دوم من این است که چگونه تصمیم بگیریم که آیا باید از 1: برای کاملاً مخالفم به جای کاملاً موافقم استفاده کنیم به طوری که: 1: کاملاً مخالف 2: مخالف 3: عدم تصمیم 4: موافق 5: کاملاً موافقم 1: کاملاً موافقم 2 :موافق 3:بی تصمیم 4:مخالف 5:کاملا مخالفم | داده های ترتیبی را بر اساس مقیاس لیکرت تفسیر کنید |
19804 | فکر میکنم مشکل خیلی سادهای با دادههای از دست رفته دارم، اما کمی گم شدهام زیرا به نظر میرسد همه مطالبی که میخوانم روی موارد بسیار پیچیدهتری متمرکز شدهاند. من یک متغیر تصادفی $X$ دارم که دارای توزیع دو جمله ای با پارامترهای $n$ و $p$ (یعنی $X\sim B(n,p)$) است، که $p$ ناشناخته است ($n$ شناخته شده است. ). من نمونههای مستقل $K$ از X$ دارم، اجازه دهید $X_1،\dotsc،X_K$ باشند، اما برخی از آنها گم شدهاند، به این معنا که مقادیر $R_iX_i$ را مشاهده میکنم، جایی که $R_i\in\\{ 0,1\\}$. من می دانم که $R_i = 0$ وقتی $X_i< C$، برای برخی ثابت های شناخته شده $C$، در غیر این صورت $R_i=1$. این به این معنی است که دادههای گمشده من MNAR (از دست رفته نه تصادفی) هستند، اما «مکانیسم» را که منجر به از دست رفتن آنها میشود، میدانم، که فکر میکنم همان چیزی است که پرونده من را آسانتر میکند. ویرایش: این یک مورد سانسور چپ با داده های Binomial است. چگونه می توانم $p$ را تخمین بزنم؟ من همچنین علاقه مند به یافتن فاصله اطمینان برای $p$ هستم. ارجاعات و پیوندها بسیار قدردانی می شوند. پیشاپیش ممنون | مورد ساده MNAR داده از دست رفته |
47429 | وقتی یک آزمون t-1 نمونه ای انجام می دهید، چرا minitab فقط یک کران بالا یا یک کران پایین را برای فاصله اطمینان می دهد؟ بنابراین اگر $H_0: \mu = \mu_0$ و $H_a: \mu < \mu_0$ یا $H_a: \mu > \mu_0$ را آزمایش کنیم، چرا فقط یک کران بالا یا پایین یک فاصله اطمینان به ترتیب برگردانده میشود؟ در حالی که آزمایش $H_a: \mu \neq \mu_0$ هر دو کران پایین و بالا را برمیگرداند. | Minitab و خروجی |
47399 | در حال حاضر من با مشکل رسیدگی به حجم نمونه بسیار کوچک مواجه هستم که شامل 8 مشاهده با 24 متغیر است. من می خواهم ابتدا فقط OLS ساده را با یک متغیر وابسته و 23 متغیر مستقل انجام دهم و از این ضرایب برای تخمین برآوردهای NLS استفاده کنم. این برآوردها برای مطالعات بیشتر مورد استفاده قرار خواهند گرفت. واضح است که مشکل این است که پارامترهای بیشتری نسبت به مشاهدات دریافت کردم. من سعی کردم مشاهدات خود را بوت استرپ کنم و فقط OLS ساده را با تعدادی پارامتر با تکرارهای بوت استرپ بین 50 تا 50000 انجام دهم تا نتایج خود را بهبود بخشم، اما در واقع، اهمیت برخی از ضرایب حتی کاهش یافت. آیا حتی می توان ضرایب تا حدودی قابل توجهی را در اینجا استخراج کرد؟ چه کار دیگری می توانم انجام دهم؟ من در اینجا تازه کار هستم، بنابراین هنوز نمی دانم چگونه جدولی با داده های نمونه اضافه کنم. متاسفم از هر کمکی متشکرم، TheJoez | چگونه از OLS یا NLS در حجم نمونه بسیار کوچک استفاده کنیم؟ |
112829 | من 383 نمونه دارم که دارای بایاس شدید برای برخی از مقادیر رایج هستند، چگونه می توانم 95٪ CI را برای میانگین محاسبه کنم؟ من CI که من محاسبه کردم خیلی دور به نظر می رسد، که فرض می کنم به این دلیل است که داده های من وقتی هیستوگرام می سازم شبیه منحنی نیستند. بنابراین فکر می کنم باید از چیزی مانند بوت استرپینگ استفاده کنم که آن را به خوبی درک نمی کنم. | چگونه فواصل اطمینان را برای توزیع غیر عادی محاسبه کنم؟ |
108148 | من می خواهم مهم ترین متغیرها را از یک نتیجه PCA بدست بیاورم. من دو خوشه در طرح می بینم. من اکنون این امکان وجود دارد که تنها یک متغیر وجود نداشته باشد که باعث این امر شود، بنابراین شاید مجبور باشم بیش از یک متغیر را دریافت کنم. من از بسته R Adegenet استفاده می کنم. داده های اصلی من یک ماتریس است که در آن ردیف ها مقالات PubMed و ستون ها کلمات کلیدی MeSH هستند. داده ها به SNP-مانند تبدیل شده اند تا روش را با داده های ورودی جدید تطبیق دهند. لطفاً اگر فکر میکنید من کار نادرستی را با این بسته انجام میدهم، بسته R صحیح را به من نشان دهید، من فقط آن را انتخاب کردم زیرا قبلاً میدانستم چگونه کار میکند.  # کتابخانه کد R(adegenet) #بارگیری SNPs myPath <- pubmed_result_metagenomics_ALL_parsed. fasta#core SNP های بازیابی شده با kSNP از 188 سویه H. parasuis، سویه های برچسب گذاری شده با فنوتیپ NK را از تجزیه و تحلیل حذف کرد. اندازههای kSNP k-mer آزمایششده 25، 20 و 15 بودند، اجرائی را انتخاب میکردند که SNPهای بیشتری به دست آورد، یعنی 15. # تجزیه و تحلیل مؤلفه اصلی (PCA) pca1 <- glPca(core_SNPs_matrix) # 10 جزء ذخیره شده pca1 # ترسیم PCA colorplot myCol <- colorplot(pca1$scores,pca1$scores, transp=TRUE, cex=4) abline(h=0, = 0، رنگ = خاکستری) add.scatter.eig(pca1$eig[1:40],2,1,2, posi=topright, inset=.05, ratio=.3) title(دو بعد اول PCA \n بر اساس 1359 مقالات metagenomcs \n و 3459 اصطلاح MeSH) dev.copy2pdf(file = Figure_12.pdf) #Save as.pdf# | مهم ترین متغیرها را از PCA خارج کنید |
91820 | آیا کسی از ادبیاتی میشناسد که در مورد ایده فرآیندهای پیادهروی تصادفی در حالتهای مدل مارکوف-سوئیچینگ بحث کند؟ من در تلاش برای یافتن چیزی هستم که نظریه/تطابق پشت آن را مورد بحث قرار دهد (بیشتر مدل های M-S و RW را بدون اشاره به فرآیند تصادفی خاص تر در مدل M-S مقایسه می کنند) | پیاده روی تصادفی در ایالت های مارکوف-سوئیچینگ |
100435 | برای این سوال به کمک نیاز دارم این از یک سخنرانی در مورد برآوردگرهای حداکثر احتمال بدست آمد.  سعی کردم ببینم آیا می توانم تابع حد را برای Qn استخراج کنم که فکر می کنم 1 باشد اگر تتا = 0 1/2 - |theta -2| برای 3/2 <= تتا <= 5/2 0 در غیر این صورت (از نبود mathjax متاسفم. به دلایلی نمی توانم آن را به کار بیاورم) اما در مورد چگونگی یافتن حداکثر تخمین مطمئن نیستم از هر دو تتا در قسمت ج. | استخراج مقدار حدی یک برآوردگر |
115234 | من یک سری زمانی (std) از 324 مشاهده بدون مقادیر گمشده دارم که از ژانویه 1987 شروع شده و در دسامبر 2013 به پایان می رسد. در R، کد: lm(dstd ~ lstd) که در آن 'dstd' متغیر متمایز است، از طریق: dstd<-diff(std,differences=1) و lstd متغیر عقب افتاده از طریق: lstd<-lag(std, k است. =1) کار نمی کند، زیرا خطای زیر را می دهد: Error in model.frame.default(formula = dstd ~ lstd، drop.unused.levels = TRUE): طول متغیرها متفاوت است (برای 'lstd' یافت می شود) که البته طبیعی است زیرا طول 'dstd' 323 است در حالی که طول 'lstd' 324 است. جستجو برای خطا، na.omit به عنوان پاسخ برای مدل های دیگر پیشنهاد شده است. با این حال، هیچ ترکیبی از na.omit یا na.exclude کار نخواهد کرد. این ویدیو (در زمان مربوطه) با اشاره به این متغیرها می گوید شما باید اینها را تغییر دهید. من سعی کردم هنگام تشکیل یک شی دیگر و همچنین زیرمجموعه در مدل رگرسیون را حذف کنم، اما به نظر می رسد هیچ کدام از اینها کار نمی کند. برای رفع این مشکل به چه کدی نیاز دارم؟ در اینجا یک مثال حداقل قابل تکرار وجود دارد: یک شی 'stdshort' با همان ویژگی های شی والد، از طریق این کد ایجاد می شود: > stdshort<-dput(window(std, 1987, 1989, 12)) structure(c(4.5, 4.7، 4.2، 4.4، 3.9، 3.9، 3.7، 3.7، 3.4، 3.6، 3.5، 3.1، 3.5، 3.3، 3.7، 3.7، 3.7، 3.8، 3.6، 3.5، 3.5، 3.3، 3.5، 3.5، 3.4)، .Tsp = c(1987، . ts) کد زیر مراحل ذکر شده قبلی را تکرار می کند: تفاضل، عقب ماندگی و رگرسیون خطی. ابتدا یک شی متفاوت ایجاد می شود. ساختار شی dtstdshort به این صورت است: > dstdshort<-diff(stdshort,differences=1) > dput(dstdshort) structure(c(0.2, -0.5, 0.2, -0.5, 0, -0.2, 0, -0.3, 0.2 ، -0.1، -0.4، 0.4، -0.2، 0.4، 0، 0، 0.0999999999999996، -0.2، -0.1، 0، 0.2 -، 0.2، 0، -0.1)، .Tsp = c(1987.08333333333، 1989 dsh, 12)، کلاس زیر ، برای 1 دوره عقب افتاده ساخته شده است. این ساختار است: > lstdshort<-lag(stdshort,k=1) > dput(lstdshort) ساختار(c(4.5، 4.7، 4.2، 4.4، 3.9، 3.9، 3.7، 3.7، 3.4، 3.6، 3.5، 3. 3.5، 3.3، 3.7، 3.7، 3.7، 3.8، 3.6، 3.5، 3.5، 3.3، 3.5، 3.5، 3.4)،. خطای زیر (با کد): > lm(dstdshort ~ lstdshort) خطا در model.frame.default(فرمول = dstdshort ~ lstdshort، drop.unused.levels = TRUE) : طول متغیرها متفاوت است (برای 'lstdshort' یافت شد) | رگرسیون یک متغیر متفاوت بر روی یک متغیر با تاخیر. چگونه می توانم خطای R را برطرف کنم؟ |
112828 | من در حال نوشتن پایان نامه ای در مورد اعتبار تست های تمرین تعادل هستم. من باید تست ها را مقایسه کنم و ببینم که آیا آنها در تست تعادل در سالمندان با یکدیگر ارتباط دارند یا خیر. یک گروه کنترل و مداخله وجود دارد و از 9 آزمون مختلف تعادل برای آزمون هر آزمودنی استفاده شد. باید ببینیم که آیا تست ها با یکدیگر مرتبط هستند یا خیر. | از کدام تست استفاده کنم نیاز به مقایسه تست ها با یکدیگر قبل و بعد از مداخله |
47393 | میپرسم آیا اینجا جای مناسبی برای پرسیدن این سوال است؟ به طور معمول باید اینطور باشد :). من اخیراً در حال خواندن مقالاتی در مورد تکمیل ماتریس هستم مانند اینجا و اینجا. من هنوز آزمایشی انجام نداده ام، اما در مورد مشکل زیر می دانم، فرض کنید برخی از عناصر $E_1,E_2,....,E_n$ را دارم و فرض کنید اطلاعاتی در مورد عناصر $m$ $E_1 دارم. ...،E_m$ مانند $m < n$. فرض کنید در این مرحله یکی از الگوریتم های تکمیل ماتریس را اعمال کردم و ماتریس $n \times n$ را دریافت کردم، چگونه برچسب ها (نام ها) را به ستون های تکمیل شده اختصاص دهیم؟ مشکل این است که ترتیب ستون ها می تواند دلخواه باشد، بنابراین ممکن است از نظر ریاضی درست باشد اما اگر برچسب ها به درستی تخصیص داده نشده باشند، ممکن است معنای واقعی نداشته باشد. | تکمیل ماتریس: چگونه می توان نام ها را به ستون های تکمیل شده اختصاص داد؟ |
47396 | من از بسته twang برای محاسبه وزن امتیاز گرایش در مجموعه داده های مشاهده ای خود استفاده کرده ام. وینیت «twang» از بسته «بررسی» برای اعمال PS وزنی در تحلیلها استفاده میکند، اما مثالی برای تخمین خطر متناسب کاکس ارائه نمیکند. بسته survey تابعی به نام svycoxph() را ارائه می دهد که به نظر می رسد این کار را انجام می دهد. با این حال، وقتی از «coxph()» از بسته «بقا» استفاده میکنم، آرگومان «weight=» را روی PS وزنی استخراجشده از شی «ps()» «twang» قرار میدهم، یک تخمین HR مشابه دریافت میکنم، البته بسیار باریک تر 95% CI. **آیا میتوانم از وزنهای امتیاز گرایش استخراجشده از یک شی ps از بسته «twang» به عنوان بردار در آرگومان «weight=» بسته «coxph()»» استفاده کنم؟** آیا باید یک مثال اضافه کنم؟ **بهروزرسانی:** وقتی یک عبارت «cluster(patient ID)» را در فرمول «coxph» اضافه کردم، هم HR و هم 95% CI با خروجی «syvcoxph» یکسان شدند. بنابراین من حدس می زنم که این کار را انجام داد. اما آیا می توانم نتیجه بگیرم که استفاده از این خوب است؟ | استفاده از امتیازهای گرایش از توانگ در coxph |
112769 | مکتب فکری خاصی وجود دارد که بر اساس آن گستردهترین رویکرد برای آزمونهای آماری «ترکیبی» بین دو رویکرد است: رویکرد فیشر و نیمن-پیرسون. ادعا میشود که این دو رویکرد «ناسازگار» هستند و از این رو «ترکیبی» حاصل یک «مشکل نامنسجم» است. من یک کتابشناسی و چند نقل قول در زیر ارائه خواهم کرد، اما فعلاً کافی است بگوییم که در مقاله ویکیپدیا در مورد آزمون فرضیههای آماری، در مورد آن بسیار نوشته شده است. در اینجا در CV، این نکته بارها توسط @Michael Lew بیان شد. من دو سوال در مورد این خط فکری دارم: 1. چرا رویکردهای F و N-P ناسازگار هستند و چرا ترکیبی ادعا می شود که ناسازگار است؟ توجه داشته باشید که من حداقل شش مقاله ضد هیبریدی را خوانده ام (به پایین مراجعه کنید)، اما هنوز مشکل یا استدلال را درک نمی کنم. همچنین توجه داشته باشید که من پیشنهاد نمی کنم که آیا F یا N-P رویکرد بهتری است. من پیشنهاد نمی کنم در مورد چارچوب های متداول در مقابل بیزی بحث کنم. در عوض، سؤال این است: پذیرش این که هر دو رویکرد F و N-P معتبر و معنادار هستند، چه چیزی در مورد ترکیبی آنها بد است؟ 2. این دیدگاه ضد هیبریدی تا چه حد در میان آماردانان حرفه ای پذیرفته شده است؟ آیا این یک موقعیت عجیب و غریب است، یا شاید یک امر پیش پا افتاده؟ در اینجا من وضعیت را درک می کنم. رویکرد فیشر این است که مقدار $p$-value را محاسبه کرده و آن را به عنوان مدرکی در برابر فرضیه صفر در نظر بگیرد. هرچه $p$ کوچکتر باشد، شواهد قانع کننده تر است. محقق قرار است این شواهد را با دانش پیشینه خود ترکیب کند، تصمیم بگیرد که آیا به اندازه کافی قانع کننده است یا خیر، و بر اساس آن اقدام کند. (توجه داشته باشید که دیدگاه های فیشر در طول سال ها تغییر کرد، اما به نظر می رسد این چیزی است که او در نهایت به آن همگرا شده است.) در مقابل، رویکرد نیمن-پیرسون این است که $\alpha$ را زودتر انتخاب کنید و سپس بررسی کنید که آیا $p\le\ آلفا$; اگر چنین است، آن را معنی دار نامید و فرضیه صفر را رد کنید (در اینجا بخش بزرگی از داستان N-P را که هیچ ارتباطی با بحث فعلی ندارد حذف می کنم). همچنین پاسخ عالی @gung را در چه زمانی از چارچوب فیشر و نیمن-پیرسون استفاده کنیم؟ رویکرد ترکیبی این است که مقدار $p$ را محاسبه میکند، آن را گزارش میکند (به طور ضمنی با این فرض که هر چه کوچکتر بهتر)، و همچنین نتایج را اگر $p\le\alpha$ (معمولاً $\alpha=0.05$) و غیر معنیدار باشد، معنیدار میدانیم. در غیر این صورت. این قرار است نامنسجم باشد. چگونه ممکن است انجام دو کار معتبر به طور همزمان باطل باشد، من را می زند. ضد هیبریدیست ها به طور خاص ناهماهنگ، عمل گسترده گزارش دادن $p$-values را به صورت $p<0.05$، $p<0.01$، یا $p<0.001$ (یا حتی $p\ll0.0001$) می بینند. همیشه قوی ترین نابرابری انتخاب می شود. به نظر می رسد استدلال این است که (الف) قدرت شواهد را نمی توان به درستی ارزیابی کرد زیرا $p$ دقیق گزارش نشده است، و (ب) افراد تمایل دارند عدد سمت راست در نابرابری را به عنوان $\alpha$ تفسیر کنند و آن را مشاهده کنند. به عنوان میزان خطای نوع I، و این اشتباه است. من نمی توانم مشکل بزرگی را در اینجا ببینم. اولاً، گزارش دقیق $p$ مطمئناً روش بهتری است، اما هیچ کس واقعاً اهمیت نمی دهد که $p$ به عنوان مثال باشد. 0.02 دلار یا 0.03 دلار، بنابراین گرد کردن آن در مقیاس گزارش آنقدر بد نیست (و به هر حال پایین آمدن از $\sim 0.0001 دلار منطقی نیست، ببینید چگونه باید مقادیر p کوچک گزارش شوند؟). دوم، اگر توافق بر این باشد که همه چیز زیر 0.05$ را معنی دار بدانیم، آنگاه نرخ خطا $\alpha=0.05$ و $p\ne \alpha$ خواهد بود، همانطور که @gung در تفسیر ارزش p در آزمون فرضیه توضیح می دهد. حتی اگر این موضوع به طور بالقوه گیج کننده است، اما به نظر من گیج کننده تر از سایر مسائل در آزمایش های آماری (خارج از ترکیب) نیست. همچنین، هر خواننده می تواند $\alpha$ مورد علاقه خود را هنگام خواندن یک مقاله ترکیبی و در نتیجه میزان خطای خود را در ذهن داشته باشد. **بنابراین مسئله بزرگ چیست؟** یکی از دلایلی که میخواهم این سوال را بپرسم این است که به معنای واقعی کلمه دردناک است که ببینم چه مقدار از مقاله ویکیپدیا در مورد آزمایش فرضیههای آماری به هیبرید برزخی اختصاص داده شده است. به دنبال Halpin & Stam، ادعا میکند که فلان لیندکوئیست مقصر است (حتی یک اسکن بزرگ از کتاب درسی او با «اشتباهات» با رنگ زرد برجسته شده است) و البته مقاله ویکی درباره خود لیندکوئیست با همین اتهام شروع میشود. اما پس از آن، شاید من چیزی را از دست داده ام. * * * ## مراجع * گیگرنزر، 1993، سوپرایگو، ایگو، و شناسه در استدلال آماری \-- اصطلاح هیبرید را معرفی کرد و آن را میشمش ناهمدوس نامید - کوهن، 1994، زمین گرد است. $p<.05$) \-- _مقاله ای بسیار محبوب با تقریباً 3k نقل قول، عمدتاً در مورد مسائل مختلف اما مطلوب به نقل از Gigerenzer_ * گودمن، 1999، به سوی آمار پزشکی مبتنی بر شواهد. 1: مغالطه ارزش P * هابارد و بایاری، 2003، سردرگمی در مورد معیارهای شواهد ($p$'s) در مقابل خطاها ($\alpha$'s) در آزمون های آماری کلاسیک \-- یکی از مقالات شیواتر که علیه آن استدلال می کنند. هیبرید_ * هالپین و استام، 2006، استنتاج استقرایی یا رفتار استقرایی: فیشر و رویکردهای نیمن-پیرسون به آزمون آماری در تحقیقات روانشناختی (1940-1960) _[رایگان پس از ثبت نام] - کتاب درسی 1940 لیندکوئیست را برای معرفی مقصر می داند. | آیا «ترکیبی» بین رویکردهای فیشر و نیمن-پیرسون برای آزمایش های آماری واقعاً یک «مشکل نامنسجم» است؟ |
91825 | من میخواهم یک پیشبینی سری زمانی راهاندازی کنم تا نمودارهای فن از فواصل پیشبینی حاشیهای ایجاد کنم. کارآمدترین راه برای انجام این کار چیست؟ یه همچین چیزی؟ داده های library(boot) <- load(mydata) boot_data <- tsboot(data, NULL, ...) prediction_paths <- data(boot.array(boot_data)) ... من فکر می کنم که این احتمالاً کند است: ابتدا اعداد تصادفی تولید می کند تا تخمین نقطه غیر ضروری را ایجاد کند، سپس همان اعداد تصادفی را از دانه ذخیره شده دوباره ایجاد می کند تا ماتریس ایجاد کند. از مسیرهای پیش بینی آیا بهتر است الگوریتم بوت استرپ خود را بنویسم که تخمین نقطه را نادیده می گیرد و مستقیماً ماتریک مورد نیاز مسیرهای پیش بینی را ایجاد می کند؟ به عنوان مثال در امتداد خطوط: شاخصها <- نمونه (1:طول(داده)، R*N) کم (شاخص) <- c(R,N) مسیرهای پیشبینی <- داده(شاخص) یا به دلیل اجرای بهتر tsboot هنوز سریعتر است که می توانم به آن امیدوار باشم؟ | R: کارآمدترین راه برای بوت استرپ نمودارهای فن |
101355 | این موضوع امروز مطرح شد و روشهای متعددی مطرح شده است. من به دنبال راهی مناسب برای تجزیه و تحلیل این داده ها هستم. ما پنج مارک مواد (پارچه) داریم که هر مارک چهار نمونه مختلف از یک تکه پارچه گرفته شده است. سپس هر نمونه بین 10-12 مشاهده از دوام گرفته شده است. بهترین راه برای دسته بندی و تجزیه و تحلیل این داده ها چیست؟ یکی از پیشنهاداتی که مطرح شد، گروه بندی همه نمونه ها با هم بود (به عنوان مثال، ترکیب 10 مشاهدات چهار نمونه برای داشتن 40 مشاهده کل برای برند A). دیگری استفاده از یک مدل خطی عمومی برای انجام یک ANOVA تودرتو نامتعادل، با نام تجاری به عنوان یک عامل ثابت و نمونه به عنوان یک عامل تصادفی بود. ایده دیگر محاسبه میانگین و خطای استاندارد برای هر یک از چهار نمونه مختلف با استفاده از مشاهدات 10-12، سپس استفاده از وزن برای محاسبه بهترین برآورد کلی میانگین برای هر یک از چهار نمونه و استفاده از آن (به عبارت دیگر، سپس هر برند چهار مشاهده خواهد داشت که از میانگین وزنی مشاهدات خود تشکیل شده است. در نهایت، این ایده مطرح شد که یکی از نمونه ها به صورت تصادفی از چهار نمونه نمونه برداری شود و برای بررسی تفاوت میانگین ها از آزمون ANOVA یک طرفه و آزمون تعقیبی استفاده شود. روش مناسب (حتی اگر هیچ یک از موارد فوق نباشد) برای برخورد با داده ها در این فرمت چیست؟ ممنون از وقتی که گذاشتید ویرایش: فراموش نکنید که ذکر کنید، در حالت ایده آل چیزی که ما به دنبال آن هستیم تفاوت بین مارک ها (در صورت وجود) است. | چگونه این داده ها (تفاوت میان میانگین ها) را تجزیه و تحلیل کنیم؟ |
100438 | من میخواهم بدانم چگونه هنگام استفاده از JAGS در رگرسیون بیزی، توزیع قبلی مناسبی را روی سیگما تنظیم کنم. این چیزی است که من دارم: model{ for( i در 1 : N ) { y[i] ~ dnorm(y_hat[i], tau ) y_hat[i] <- inprod(b[1:K], x[i, 1:K]) } sigma ~ dunif(0,10000) #tau ~ dgamma(.001,.001) tau <- pow(sigma,-2) for(j در 1:K) {b[j] ~ dnorm(1/K,4*K*K) } } K تعداد متغیرهای پیش بینی کننده من است. اگر y[i] با محدوده شناخته شده 0 تا 1 (یا هر محدوده شناخته شده) داشته باشم، چگونه می توانم از این دانش برای تغییر توزیعی که در سیگما انتخاب کرده ام استفاده کنم؟ به نظر می رسد کمی احمقانه است که توزیع قبلی را انتخاب کنید، مانند آنچه من انجام داده ام، در حالی که هیچ شانسی در دنیا وجود ندارد که نزدیک به 10000 باشد. | تنظیم توزیع قبلی مناسب روی سیگما برای رگرسیون بیزی |
72568 | یکی از نظر ریاضی ثابت میکند که اگر مفروضات یک مدل برآورده شوند، نرخ پوشش بازه اطمینان 100p\%$ $100p\%$ است. اما پس از آن آمار در جهان اعمال می شود، جایی که مفروضات مدل ممکن است برآورده نشوند. آیا مطالعاتی وجود دارد که نرخ پوشش فواصل اطمینان اعمال شده در دنیای واقعی را با نرخ های پوشش نظری مقایسه کند؟ | نرخ پوشش فواصل اطمینان در واقعیت |
86015 | این سوال را در طول مصاحبه با آمازون دریافت کردم: * 50٪ از همه افرادی که اولین مصاحبه را دریافت می کنند، مصاحبه دوم را دریافت می کنند * 95٪ از دوستان شما که مصاحبه دوم را دریافت کرده اند احساس می کنند که اولین مصاحبه خوبی داشته اند * 75٪ از دوستان شما که آیا مصاحبه دوم دریافت نکردید احساس می کنید که آنها مصاحبه اول خوبی داشته اند اگر احساس می کنید که مصاحبه اول خوبی داشته اید، احتمال اینکه مصاحبه دوم را دریافت کنید چقدر است؟ میشه لطفا یکی توضیح بده چطوری اینو حل کنم؟ من در تجزیه کلمه مسئله به ریاضی مشکل دارم (مصاحبه مدتهاست تمام شده است). من می دانم که ممکن است یک راه حل عددی واقعی وجود نداشته باشد، اما توضیحی در مورد اینکه چگونه می توانید از طریق این مشکل عبور کنید کمک خواهد کرد. ویرایش: خب من یک مصاحبه دوم گرفتم. اگر کسی کنجکاو است، توضیحی ارائه داده بودم که ترکیبی از پاسخهای زیر بود: اطلاعات کافی، دوستان نمونه نماینده نیستند، و غیره و فقط از طریق برخی احتمالات صحبت کردم. این سوال در پایان مرا گیج کرد، با تشکر از همه پاسخ ها. | سوال مصاحبه آمازون - احتمال مصاحبه دوم |
18263 | دقیقاً در دسترس ترین توضیح را نمی توان در اینجا پیدا کرد، اما من به دنبال چیز شهودی تر، نمونه هایی از برنامه ها و غیره هستم. کمک بسیار قدردانی می شود. | توضیح انگلیسی ساده مدل های مخلوط برنولی؟ |
86012 | لطفا نمودار زیر را در نظر بگیرید:  هر گره نشان دهنده یک جشن عروسی است در حالی که هر لبه رابطه بین دو طرف است که به صورت بیان شده است. از تعداد افرادی که در هر دو عروسی شرکت کردند (با وزن صفر در صورت عدم حضور مشترک).  هر گره $V_i$ دو ویژگی دارد: **اندازه** $S_i$، تعداد افراد شرکت کننده و **زمان ** T_i$، سالی که عروسی برگزار شد. هر یال $E_{ij}$ دارای یک ویژگی است: **weight** $W_{ij}$، تعداد شرکتکنندگانی که $V_i$ و $V_j$ مشترک هستند. من علاقه مندم که هر رابطه $E_{ij}$ را با کل مجموعه داده مقایسه کنم تا بفهمم کدام رابطه قویتر/ضعیفتر از حد انتظار است. به عبارت دیگر، من می خواهم از داده ها یک مقدار معیار - یا مجموعه داده میانگین را هنگام کنترل دو ویژگی گره **اندازه** ($S_i$ و $S_j$) و **زمان** ( $T_i$ و $T_j$) - برای هر یال و سپس مقایسه میانگین با مقدار واقعی $W_{ij}$. * * * > **به زبان ساده، چیزی که میخواهم از دادههایم استنباط کنم این است که آیا انجمن > شرکت در یک مهمانی علفهای هرز $V_i$ یک علاقه یا ضدیت را نشان میدهد > با جامعه شرکت کننده در $V_j$.** * * * به دلیل محدود بودن جعبه ابزار آماری من، به سادگی به تجزیه و تحلیل رگرسیون با **وزن** ('shared_ppl' در اسکریپت R زیر) به عنوان پاسخ یا وابسته ادامه دادم. متغیر بهعنوان پیشبینیکننده از «mult_size» (بهعنوان $S_i \times S_j$) و «time_diff» (بهعنوان $\left|T_i - T_j\right|$) استفاده کردم. همانطور که منطقی است فرض کنیم، می خواهم آزمایش کنم که آیا **اندازه** طرفین با **وزن** و تفاوت **زمان** با **وزن** مرتبط است یا خیر، و می خواهم برای تخمین علامت و کمیت هر دو همبستگی. در مثال ساده من (برای اسکریپت کامل به زیر مراجعه کنید) رگرسیون خطی > $\mathbf{shared\\_ppl} = \beta_0 + \beta_1 \times \mathbf{mult\\_size} + > > \beta_2 \times \mathbf{ time\\_diff}$ ضرایب زیر را برمی گرداند: Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) -6395.7169331 3558.2955398 -1.797 0.0891. multi_size 0.0016097 0.0008846 1.820 0.0855 . time_diff -7.1564129 3.0076486 -2.379 0.0286 * (توجه: من میدانم که p-value برای mult_size کمی بالاتر از استاندارد 0.05 است، اما همچنان به خاطر مثال آن را به طور قابل توجهی با shared_ppl در نظر میگیریم) من می توانم برای هر $E_{ij}$ مورد انتظار پیش بینی کنم $\hat{W}_{ij}$ و سپس آن را با $W_{ij}$ واقعی مقایسه کنید. به طور خاص، کاری که من انجام دادم محاسبه تفاوت (که در اسکریپت به عنوان تغییر نشان داده شده است) از فاصله اطمینان 0.95 تولید شده توسط مدل بود. سپس 1. مقدار 0 نشان می دهد که $W_{ij}$ از رابطه $E_{ij}$ در بازه اطمینان 0.95 برای $\hat{W}_{ij}$ است که توسط تحلیل رگرسیون پیشبینی شده است. بالاتر از 2. مقدار -14.37 نشان می دهد که $W_{kl}$ از رابطه $E_{kl}$ در مقایسه با 0.95 از 14.37 نفر کمتر است. فاصله اطمینان برای $\hat{W}_{kl}$. offset برای هر رابطه در زیر رسم شده است  * * * > سپس، با توجه به مدل من در بالا، می توانم از داده ها استنباط کنم که > > 1. $V_i$ و $V_j$ نه میل متقابل یا ضدیت را نشان نمی دهند، > در حالی که > 2. $V_k$ و $V_l$ متقابل را نشان نمی دهند. antipathy > **آیا تحلیل من و نتیجه گیری های آن از نظر آماری صحیح است؟** * * * _برای کسانی که می خواهند مثال را در R تکرار کنند، در اینجا کتابخانه کد_(igraph) # Weddings از http://www. huffingtonpost.com/2011/10/02/famous-married-couples-ou_n_980125.html # ایجاد یک نمودار کامل (همه رئوس) متصل هستند) g <- graph.full(7) # اختصاص ویژگی به گراف V(g)$name <- c(Ozzie\nAnd\nSharon Osbourne, Ali Hewson\nAnd\nBono, Jamie Lee Curtis\ nAnd\nکریستوفر مهمان، کوین بیکن\nو\nKyra Sedgwick، Rita ویلسون\nو\nتام هنکس، جان تراولتا\nو\nکلی پرستون، دیوید بووی\nو\nایمان) V(g)$سال <- c(2000,2001,2004,2005,2008,2009,2011 ) V(g)$size <- c(200,300,80,90,100,400,500) وزن E(g)$ <- c(100,20,11,10,20,0,21,6,10,70,40,100,8,3,0,2,14,100,100,150) # ایجاد طرح برای طرح طرح <- layout.circle(g) # Plot 1 plot(g, layout=layout, vertex.size=V(g)$size*0.1) # Plot 2 plot(g, layout=layout, vertex.label=, vertex. size=V(g)$size*0.1, edge.label=E(g)$weight) # ایجاد چارچوب داده برای تجزیه و تحلیل: یک ردیف برای هر جفت رئوس v_pairs <- get.edges(g, E(g)) v_pairs <- cbind(v_pairs, E(g)$weight) v_pairs <- cbind(v_pairs, V(g)$year[v_pairs[,1]] * V(g)$year[v_pairs[,2]]) v_pairs <- cbind(v_pairs, abs(V(g)$year[v_pairs[,1]] - V(g)$year[v_pairs[,2]])) | تجزیه و تحلیل رگرسیون برای تخمین تمایل یا ضدیت در میان مهمانی های عروسی افراد مشهور |
100297 | من میخواهم طبقهبندیکننده را با استفاده از Bayes ساده بسازم. من می دانم که ساده و بی تکلف، یادگیری تحت نظارت است که به داده های برچسب گذاری شده برای مجموعه آموزشی نیاز دارد. با این حال، من فقط داده هایی دارم که هیچ برچسبی روی آن وجود ندارد. آیا روشی برای برچسب زدن به داده های آموزشی بدون برچسب وجود دارد یا فقط باید آن را به صورت دستی برچسب گذاری کنیم؟ من می خواهم داده های خود را با دو کلاس برچسب گذاری کنم. داده های من همه در متغیر پیوسته هستند و دارای سه ویژگی برای تعیین کلاس هستند. ویرایش: > من برنامه جاوا مفیدی پیدا کردم که از MVE برای پرت چند متغیره استفاده می کند > تشخیص در این پیوند: http://www.kimvdlinde.com/professional/mve.html > > من از آن برنامه برای برچسب زدن داده ها استفاده می کنم که همه هستند. در متغیر پیوسته > اگر دادههای من سه ویژگی طبقهبندی دارند، از چه روشی میتوانم برای برچسبگذاری دادهها استفاده کنم؟ آیا هنوز امکان برچسب گذاری دستی وجود دارد؟ | ساخت مجموعه آموزشی از داده های بدون برچسب |
3944 | با مطالعه روش ها و نتایج تجزیه و تحلیل آماری، به ویژه در اپیدمیولوژی، اغلب در مورد **_تعدیل_** یا **_کنترل_** مدل ها می شنوم. چگونه هدف آن را برای یک غیر آمارگیر توضیح می دهید؟ چگونه نتایج خود را پس از کنترل یک متغیر خاص تفسیر می کنید؟ بازدیدهای کوچک در Stata یا R، یا اشارهگر به یکی آنلاین، گوهری واقعی است. | تنظیم مدل را به زبان انگلیسی ساده توضیح دهید |
3082 | این در ادامه یک سوال Stackoverflow در مورد به هم زدن یک آرایه به صورت تصادفی است. الگوریتمهای ثابتی وجود دارد (مانند Knuth-Fisher-Yates Shuffle) که باید به جای تکیه بر پیادهسازیهای موقت «سادهانگیز» برای به هم زدن یک آرایه استفاده کرد. من اکنون علاقه مندم که ثابت کنم (یا رد کنم) که الگوریتم ساده لوح من خراب است (مانند: همه جایگشت های ممکن را با احتمال مساوی تولید نمی کند). الگوریتم اینجاست: > چند بار حلقه بزنید (طول آرایه باید انجام شود)، و در هر تکرار، > دو شاخص آرایه تصادفی بگیرید و دو عنصر را در آنجا عوض کنید. بدیهی است که این به اعداد تصادفی بیشتری نسبت به KFY (دو برابر بیشتر) نیاز دارد، اما جدای از آن آیا به درستی کار می کند؟ و تعداد مناسب تکرار چقدر خواهد بود (آیا طول آرایه کافی است)؟ | این الگوریتم به هم زدن ساده لوحانه چه اشکالی دارد؟ |
3080 | شما اغلب در مطبوعات با مطالعات مختلفی مواجه می شوید که به نتایج خلاف جهت می رسد. اینها می توانند مربوط به آزمایش یک داروی تجویزی جدید یا شایستگی یک ماده مغذی خاص یا هر چیز دیگری برای آن موضوع باشند. وقتی دو مطالعه از این دست به نتایج متناقضی میرسند، چگونه میتوانید بگویید کدام یک از این دو به حقیقت نزدیکتر است؟ | وقتی نتایج متناقضی به شما می دهند، چگونه تشخیص دهید کدام مطالعه بهتر است؟ |
100299 | چگونه الگوریتم svm برای محاسبه داده های از دست رفته در یک مجموعه داده استفاده می شود. من به پیاده سازی دستی الگوریتم svm برای یافتن مقادیر گمشده با مثال نیاز دارم | پیاده سازی دستی svm برای یافتن مقادیر از دست رفته |
73405 | فکر می کردم در ترکیبات نسبتاً خوب هستم، اما این پازل برای من دردسر ایجاد می کند! من یک کیسه با توپ های $N$ دارم. به صورت تصادفی یکی را انتخاب می کنم، علامت گذاری می کنم و دوباره داخل کیسه می گذارم. من این عمل را $D$ بار تکرار می کنم. احتمال اینکه من دقیقاً با توپ های تمیز $C$ دست پیدا کنم چقدر است؟ | نقاشی با تکرار |
72354 | من داده های نیم سال خرید در سایت تجارت الکترونیکی دارم (100 هزار خرید توسط 60 هزار مشتری). در سادهترین چارچوب تست A/B، مشتریان تصادفی در خرید بعدی پس از تکمیل سفارش، تخفیف دریافت میکنند («دیسک» = 0/1 زیر). میخواهم تخمین بزنم که «دیسک» تا چه اندازه بر فاصله بین سفارشها تأثیر گذاشته است («تفاوت»). با پیروی از اصل KISS، من فقط تمام مشتریان 1 بار را حذف می کنم و ln('diff') را روی دیسک عقب می اندازم، اما به هیچ وجه این اثر را مشاهده نمی کنم. من دو مشکل واضح دارم: 1. داده ها بسیار سانسور شده است، 60% مشتریان فقط یک بار ظاهر شدند. 2. تعصب انتخاب - خریداران مکرر شانس بیشتری برای دریافت تخفیف داشتند تا آدرس (1)، به Cox-model `coxph(Surv) مراجعه کنم. (تفاوت، رویداد) ~ disc + cluster(customer_id))` (و اثر را مشاهده کنید!)، اما نمی توان فهمید که آیا این بهترین روش برای مدیریت خرابی های متعدد است یا خیر بار (خرید) به ازای هر مشتری. برای (2)، من به معرفی «تفاوت» با تأخیر فکر می کنم، اما نمی دانم چگونه این کار را در یک مورد سانسور شده انجام دهم. چندین بحث مرتبط وجود داشت (RFM و مدلسازی ارزش طول عمر مشتری در R، تجزیه و تحلیل بقا با چندین رویداد)، اما من نتوانستم راهحلی برای مشکلاتم پیدا کنم. بسته BTYD نیز وجود دارد، اما پارامتریک نیست. حدس بزنید این سؤال بسیار استاندارد است، اما نمی توان راهنمای گام به گام (CrossValidated) را پیدا کرد. | مدلسازی پارامتری ارزش طول عمر مشتری با استفاده از تحلیل بقا (کاکس). |
72353 | آیا استانداردسازی (تبدیل z) همه متغیرهای ترتیبی (من فقط سؤالات مقیاس لیکرت دارم) قبل از اجرای PCA منطقی است؟ یا اینکه تبدیل z فقط برای داشتن متغیرهایی با مقیاس های مختلف استفاده می شود؟ | z-تغییر سوالات در مقیاس لیکرت قبل از اجرای pca |
73402 | من یک مجموعه داده با یک متغیر پاسخ باینری به عنوان سلولهای بقای غیر صفر (y=0) یا سلولهای بقای صفر (y=1) دارم و میخواهم مدلی با متغیر توضیحی X بسازم. میدانم که سادهترین روش روش استفاده از رگرسیون لجستیک است. با این حال، در مورد من، استفاده از مدل پواسون از نظر بیولوژیکی مناسب تر است. بنابراین، تعداد سلول های زنده مانده از توزیع پواسون $f(k,\lambda)$ پیروی می کند و پاسخ (احتمال داشتن سلول بقای صفر) توزیع پواسون در $k=0$ است. بنابراین، مدل من را می توان $y=f(0,\lambda)=e^{-\lambda}$، که در آن $\lambda=g(\beta,x)$ نوشت. $\lambda$ تابعی از $x$ با پارامتر $\beta$ است. من سعی می کنم $\beta$ را با استفاده از MLE تخمین بزنم. اکنون در مورد اینکه کدام تابع احتمال را باید استفاده کنم کمی سردرگم هستم. آیا فرض میکنم $y$ از توزیع دوجملهای پیروی میکند: $y\sim B(1,e^{-\lambda})$، تا بتوانم MLE را روی تابع درستنمایی از این توزیع دوجملهای انجام دهم؟ در مورد توزیع پواسون چطور؟ در برآورد استفاده نمی شود؟ فرض کنید $\beta^{*}$ پارامتر تخمینی است که $\lambda^{*}$ را میدهد. این بدان معنی است که احتمال داشتن سلولهای بقای صفر از توزیع $B(1,e^{-\lambda^{*}})$ پیروی میکند و سلولهای بقا از یک پواسون $f(k,\lambda^{*}) پیروی میکنند. توزیع دلار؟ | تابع احتمال در این مورد چیست؟ |
72350 | من در مورد R اطلاعات کافی ندارم. در اینجا دو احتمال وجود دارد که من در مورد استفاده از R متصور هستم: 1. شما به R مسلط هستید. شما می توانید به راحتی از R برای تقریباً هر نوع تحلیلی استفاده کنید. اگر تجربه کار با پکیج را ندارید، می توانید خیلی سریع (دقیقه) آن را یاد بگیرید و با فرض اینکه به طور کلی با آنالیز آشنا هستید، از آن استفاده کنید. 2. شما به R مسلط نیستید. بر اساس نیاز خود چند بسته R خاص را یاد گرفتید و استفاده می کنید. شما نمی توانید به راحتی از R برای تجزیه و تحلیل هایی استفاده کنید که شامل بسته هایی که قبلاً می شناسید نیست. من می دانم که این یک دوگانگی نادرست است، اما امیدوارم بتواند سوالات من را نشان دهد. سوالات من عبارتند از: 1. آیا اکثر کاربران R مسلط هستند، یا مسلط نیستند که در بالا توضیح داده شد؟ 2. من قدردانی می کنم که مسلط شدن به R بسیار سودمند خواهد بود، اما همچنین می دانم که این امر مستلزم سرمایه گذاری زمانی قابل توجهی است. چنین سرمایه گذاری برای چه نوع کاربرانی ارزش آن را دارد؟ 3. چه تعداد از کاربران مسلط R نیز به استفاده از نرم افزارهای دیگر متوسل می شوند؟ میدانم که این سؤالها نسبتاً ذهنی هستند، اما فکر میکنم سؤالهای دیگری در مورد R نیز همینطور باشد (مثلاً «چه بستههای R در کار روزانهتان بیشتر مفید است؟»). ویرایش: به دلیل سوالم اشاره می کنم. من هرگز از R استفاده نکردهام و تجزیه و تحلیلهای نسبتاً پیچیده را به طور منظم انجام میدهم (مانند تطبیق امتیاز تمایل، مدلسازی معادلات ساختاری، تحلیلهای رشد نهفته، نظریه پاسخ آیتم). من از سه یا چهار بسته آماری مختلف برای انجام این تحلیل ها استفاده می کنم. من خوش شانس بودم که این بسته های نرم افزاری را برای انجام کارهای مورد نیاز خود پیدا کردم، اما احساس می کنم در نهایت آنقدر خوش شانس نخواهم بود. من دائماً در حال بحث در مورد یادگیری R هستم، علیرغم اینکه در غیر این صورت بسیار مشغول هستم. | آیا مسلط به R مفیدتر است یا فقط بسته های منتخبی را یاد بگیرید که آنچه شما نیاز دارید را انجام می دهند؟ |
72356 | من یک جریان داده دارم (یک مقدار صحیح در ثانیه): 480, 481, 479, 482,... اگر این مقادیر را در نمودار دو بعدی نشان دهم، چیزی شبیه (برای مقادیر محدود):  اکنون میخواهم موتیف مشابهی را در این جریان داده کشف کنم. من در مورد تقریب Symbolic Aggregate خوانده ام، اما همانطور که متوجه شدم، می توانم از آن برای داده های آفلاین استفاده کنم (اگر 10000 مقدار سری زمانی داشته باشم) و اکنون سوال من این است: * چگونه می توانم یک موتیف در یک جریان داده پیدا کنم؟ * در واقع من می خواهم این کار را در R انجام دهم. آیا بسته ای می شناسید که با آن بتوانم این کار را در R پیاده سازی کنم؟ | پیدا کردن موتیف در یک سری زمانی آنلاین (زمان واقعی). |
112824 | من از یک مدل UIP ساده برای پیش بینی نرخ ارز با استفاده از نرخ بهره با افق دوازده ماهه استفاده می کنم. معادله ای که من استفاده می کنم این است: $E(t+12) - E(t) = α + β(I*(t) - I(t))$. من رگرسیون خطی OLS را در دوره درون نمونه اعمال می کنم تا $α$ و $β$ بدست آوریم و سپس از این مقادیر برای محاسبه پیش بینی استفاده می کنم. به عنوان مثال، اگر از نقاط داده $t=1$ تا $t=24$ برای بدست آوردن $α$ و $β$ با OLS استفاده کنم، آنگاه $E(t=25) - E(t=13) = α + β (I*(t=13) - I(t=13))$. این به من یک پیش بینی برای $E(t=25) - E(t=13)$ می دهد. زمانی که من یک سری زمانی کامل از پیش بینی ها را داشتم (با استفاده از یک رگرسیون چرخشی خودکار، اما اصلا توجهی به این ندارد)، می توانم از رگرسیون خطی دیگری برای مقایسه مقادیر پیش بینی شده با مقادیر واقعی استفاده کنم و ببینم که پس از این واقعیت بر اساس $R چقدر خوب عمل کرده ام. ^2$ ارزش این رگرسیون جدید. مشکلی که در این رویکرد می بینم این است که من از $E(t=1)$ تا $E(t=24)$ برای پیش بینی $E(t=25) - E(t=13)$ استفاده می کنم: این یک همپوشانی 11 ماهه بین دوره پیش بینی و دوره نمونه است! بنابراین من نگران هستم که این باعث شود توانایی پیشبینی من بسیار بهتر از آنچه هست به نظر برسد. اما شاید من به این موضوع درست فکر نمی کنم. آیا این واقعاً یک مشکل است یا اصلاً روی نتیجه تأثیر نمی گذارد؟ اگر واقعاً مشکلی وجود دارد، میتوانم با کاهش 12 ماه دوره نمونه اولیه و پیشبینی $E(t=25) - E(t=13)$ با استفاده از $E(t=1)$ از شر همپوشانی خلاص شوم. به $E(t=12)$. با این حال این توانایی پیش بینی من را ضعیف می کند، بنابراین ترجیح نمی دهم. لطفا به من بگویید چه کار کنم! پیشاپیش از همه کسانی که می توانند به من کمک کنند تشکر می کنم. | آیا این نوع همپوشانی بین دادههای درون نمونه و پیشبینی باعث افزایش R^2$ میشود؟ |
73406 | در تکنیک طبقه بندی مبتنی بر درخت تصمیم. تفاوت بین رویکردهای مختلف مانند آنتروپی، شاخص جینی چیست؟ چه زمانی از آنتروپی و چه زمانی از شاخص جینی استفاده کنیم؟ | آنتروپی در طبقه بندی درخت تصمیم |
86018 | من سعی می کنم از رگرسیون خطی ساده برای ایجاد فاصله پیش بینی 95% برای متغیر پاسخ پیوسته (Y) با استفاده از متغیر ورودی پیوسته (X) استفاده کنم. هنگام بررسی دادههایم، متوجه شدم که اگر X و Y را log-transform کنم، مفروضات واریانس یکسان و نرمال بودن اساسا برآورده میشوند، اما اگر من هر دو متغیر را ثبت نکنم، اینطور نیست. من می توانم تمام کدهای R مورد نیاز برای بدست آوردن فاصله پیش بینی داده های تبدیل شده را اجرا کنم و به صورت آنلاین و جاهای دیگر نحوه تفسیر این بازه را خوانده ام. با این حال، آیا راهی برای بدست آوردن بازه پیشبینی 95 درصدی در مقیاس تبدیلنشده با استفاده از فاصله پیشبینی 95 درصدی در مقیاس log-transformed وجود دارد؟ به عبارت دیگر، من علاقه مندم که به جای پاسخ میانه، در مورد پاسخ میانگین شرطی صحبت کنم (که طبق آنچه خوانده ام، باید فاصله پیش بینی خود را چگونه تفسیر کنم). من میتوانم نقطههای پایانی بازه را تعیین کنم، اما تقریباً مطمئن هستم که این اشتباه است زیرا E(e^{Y}) معمولاً برابر با e^{E(Y)} نیست. | فاصله پیش بینی در مقیاس تبدیل نشده |
87942 | من یک نمونه 72 نفری دارم. 0 تا از اینها دارای ویژگی من در حال بررسی است. چگونه می توانم 95٪ CI را وقتی نسبت 0٪ است محاسبه کنم؟ | محاسبه 95% CI از نسبت 0% |
73400 | من داده های تجربی و محاسباتی برای n ژن در ماتریس داده ها دارم. ردیف ها ژن ها و ستون ها مقادیر آن هستند. اکنون دادهها از دو منبع میآیند: 1. نتایج پیشبینی محاسباتی در قالب مقادیر p از آزمون دقیق فیشر. 2. داده های حاصل از آزمایش ها را در 4 نقطه زمانی مختلف بشمارید. این داده های شمارش اساساً تعداد سیگنال هایی است که در هر نقطه زمانی دریافت می کنید و می تواند هر عدد مثبتی باشد. هیچ محدودیت ثابتی وجود ندارد. من به رتبهبندی ژنها علاقهمندم و بنابراین، میخواهم بدانم آیا راهی برای ترکیب پیشبینی محاسباتی و نتایج شمارش تجربی در قالب یک آمار یا برخی از طریق معادله وجود دارد؟ من فکر کردم آنها را بر اساس مقادیر p و سپس بر اساس داده های شمارش مرتب کنم، اما فکر می کنم انجام این کار بسیار ساده لوحانه است. | ترکیب تعداد و P-Values |
87943 | من اکنون با Stata کار می کنم و متوجه شدم که ریشه واحد در رگرسیون خود دارم. چگونه می توانم این را تصحیح کنم، زیرا من می توانم همه جا بخوانم که تست چه کار می کند، اما اگر ریشه واحد دارید، بعد چه باید کرد؟ متاسفم، این یکی از اولین باری است که با Stata کار می کنم، بنابراین همه چیز واقعا گیج کننده است. | تست دیکی-فولر تقویت شده |
91253 | بهترین نرم افزار تجسم داده های منبع باز چیست؟ من به موارد زیر نیاز دارم: 1. می توانم داده ها را از مایکروسافت اکسل وارد کنم (وارد کردن داده ها از پایگاه داده اوراکل نیز خوب است، اما این اجباری نیست). 2. نمودارهای تولید شده توسط نرم افزار را می توان به مایکروسافت پاورپوینت صادر کرد (کپی و چسباندن برای من خوب است). 3. منبع باز و آسان برای استفاده. | بهترین نرم افزار تجسم داده های منبع باز برای استفاده با پاورپوینت |
87947 | من 399 مقدار ادعای داده دارم، میخواهم آنها را با استفاده از توزیع گاما تطبیق دهم. من این کار را در نرمافزار Matlab انجام دادهام، اما نتیجهام این است: > > [phat,pci] = gamfit(data) phat = 1.0e+004 * 0.0001 2.8951 چرا 1.0e+004* را دریافت میکنم؟ با تشکر | تفسیر برآوردهای توزیع گاما |
100290 | من اخیراً به مطالعه مدلسازی افزایشی پرداختهام، که در بازاریابی برای مطالعه تأثیر افزایشی یک اقدام خاص بر روی یک گروه درمانی علیه یک گروه کنترل استفاده میشود. با این حال، من در مورد اصول اولیه این شکل از مدل سازی بسیار سردرگم هستم: به طور خاص در مورد فرمول های مورد استفاده در محاسبات آن. لطفاً مثال زیر را در نظر بگیرید: |CampaignName | نوع گروه | TotalPeople | پاسخگویان | میانگین هزینه | |-------------|------------|------------|-------- -----|--------------| |ToysRus | کنترل | 80 | 10 | 30 | |ToysRus | درمان | 800 | 130 | 39 | با فرض اینکه ما بفهمیم: 1. نرخ پاسخ برای گروه درمان 2. نرخ پاسخ افزایشی 3. هزینه افزایشی به ازای هر مشتری 4. کل هزینه افزایشی به دلیل هدفیابی، من میدانم که برای **1.**، ما به سادگی از فرمول استفاده کنید: تعداد پاسخ دهندگان در گروه درمان / تعداد کل. از افراد در گروه درمان و این میزان پاسخ در گروه درمان خواهد بود - درصد افرادی از گروه درمانی که به درمان ما پاسخ دادند. به همین ترتیب میتوانیم نرخ پاسخ را برای گروه کنترل پیدا کنیم. برای **2.**، من گیج شدم. من درک می کنم که فرمول این است: میزان پاسخ از گروه درمان - میزان پاسخ از گروه کنترل اما من شخصاً از فرمول زیر در تمرین خود استفاده کردم: تعداد پاسخ دهندگان در گروه درمان - خیر. پاسخ دهندگان در گروه کنترل / تعداد کل. از میان افراد گروه درمان میدانم که پاسخی که به این دلیل دریافت میکنم قطعا اشتباه است، اما نمیتوانم خودم را متقاعد کنم که چرا این فرمول اشتباه است. در نگاه اول برای من شهودی به نظر می رسد. اما فکر میکنم ریاضیات پایه در اینجا در حال بازی است، که متاسفانه در حال حاضر نمیتوانم آن را ببینم. فکر می کنم شاید به تفاوت های کمی و کیفی بین گروه ها ربط داشته باشد؟ یعنی یکی کنترل است و دیگری گروه درمانی و هر دو سایزهای متفاوتی دارند پس کم کردن فوراً منطقی نیست؟ مثل مقایسه سیب و موز؟ حتی اگر بتوانیم فرمول خود را اعمال کنیم، نمیدانم چگونه تفسیر آن ممکن است. با این حال، من نمی توانم خودم را قانع کنم! برای **3.**، من فکر می کنم فرمول زیر اعمال می شود: میانگین هزینه برای هر مشتری در گروه درمان - میانگین هزینه برای هر مشتری در گروه کنترل. برای **4.**، مطمئن نیستم، اما فکر میکنم از این موارد استفاده کنیم: پاسخ افزایشی * کل no. افراد در گروه کنترل اما چگونه این را بفهمیم؟ آیا ما با هزینههای افزایشی خود به گروه کنترل تعمیم میدهیم تا پیشبینی کنیم که اگر پیشنهادات/تبلیغات/و غیره خود را هدایت کنیم، گروه «درمان نشده» یا گروه کنترل چقدر هزینه میکنند؟ در آنها؟ **در آخر**، اگر افرادی که به این سوال پاسخ میدهند، مطالعه بیشتر را به من پیشنهاد دهند، سپاسگزار خواهم بود. شاید شما احساس می کنید که من باید اصول تناسب یا درصدها را مطالعه کنم تا بتوانم با چنین محاسبات پایه ای در مدل سازی افزایشی راحت باشم؟ یا شاید شما احساس می کنید که کتاب های خاصی در بازاریابی یا مدل سازی افزایشی وجود دارد که به من کمک می کند؟ خیلی ممنون | در مورد ریاضیات پایه در مدل سازی افزایشی/افزایشی سردرگم هستم |
100262 | من در مورد محبوبیت برخی از اصطلاحات بحث می کردم و از ترندهای گوگل برای نتیجه گیری در مورد کاهش محبوبیت آنها استفاده کردم. در اینجا نمونه ای از سوالات مربوط به برخی از بزرگترین دانشکده های مهندسی فرانسه است. من به سرعت به کاهش علاقه / محبوبیت این مدارس نتیجه گرفتم. اما با فکر دیگری، فکر کردم که آیا کاهش ممکن است توضیح دیگری داشته باشد. گرایش های گوگل یک عدد نسبی، متناسب با تعداد کل پرس و جوها، می دهد. آیا ممکن است جمعیتی که به گوگل دسترسی دارند در این سال ها آنقدر تکامل یافته باشد که نتوانیم به کاهش علاقه نتیجه بگیریم؟ منظورم این است که اکثر پرسشها باید از سوی افراد تحصیل کرده/ثروتمند و محققین باشد. بنابراین با دموکراتیزه شدن دسترسی به اینترنت، کسر افراد ثروتمند/تحصیل کرده بیش از کل باید کاهش می یافت. بنابراین توضیح کاهش پرس و جوها نسبت به کل. چگونه می توانیم این اثر را نشان دهیم؟ چگونه می توانیم این اثر را حذف کنیم؟ | گوگل داده ها را برای علاقه مندی می کند |
97899 | من یک مجموعه داده با یک متغیر پاسخ باینری (بقا) و 3 متغیر توضیحی دارم (A' = 3 سطح، 'B' = 3 سطح، 'C' = 6 سطح). در این مجموعه داده، داده ها با 100 نفر در هر دسته ABC متعادل هستند. من قبلاً تأثیر این متغیرهای «A»، «B» و «C» را با این مجموعه داده مطالعه کردم. اثرات آنها قابل توجه است. من یک زیر مجموعه دارم. در هر دسته «ABC»، 25 نفر از 100 نفر، که تقریباً نیمی از آنها زنده و نیمی مرده هستند (زمانی که کمتر از 12 نفر زنده یا مرده هستند، تعداد با دسته دیگر تکمیل شد)، برای متغیر چهارم بیشتر مورد بررسی قرار گرفتند. ('D'). من سه مشکل را در اینجا می بینم: 1. من باید داده ها را وزن کنم، تصحیحات رویدادهای نادر که در کینگ و ژنگ (2001) توضیح داده شده است تا در نظر گرفتن تقریبی 50٪ - 50٪ با نسبت 0/1 در نمونه بزرگتر برابر نیست. 2. این نمونهگیری غیرتصادفی 0 و 1 منجر به احتمال متفاوتی برای نمونهگیری افراد در هر یک از دستههای «ABC» میشود، بنابراین فکر میکنم باید از نسبتهای واقعی هر دسته به جای نسبت کلی 0/ استفاده کنم. 1 در نمونه بزرگ 3. این متغیر چهارم دارای 4 سطح است، و داده ها واقعاً در این 4 سطح متعادل نیستند (90٪ داده ها در 1 از این سطوح قرار دارند، مثلاً سطح D2). من مقاله King and Zheng (2001) و همچنین این سوال CV را که من را به مقاله King and Zheng (2001) هدایت کرد و بعداً این مقاله دیگر را که باعث شد بسته logistf را امتحان کنم را به دقت خوانده ام (من از R استفاده می کنم. ). من سعی کردم آنچه را که از کینگ و ژنگ (2001) فهمیدم به کار ببرم، اما مطمئن نیستم کاری که انجام دادم درست باشد. من متوجه شدم که دو روش وجود دارد: * برای روش تصحیح قبلی، متوجه شدم که شما فقط رهگیری را اصلاح کنید. در مورد من، رهگیری رده «A1B1C1» است، و در این دسته بقا 100 درصد است، بنابراین بقا در مجموعه داده بزرگ و زیرمجموعه یکسان است، و بنابراین اصلاح چیزی را تغییر نمیدهد. من گمان می کنم که این روش نباید به هر حال در مورد من صدق کند، زیرا من یک نسبت واقعی کلی ندارم، بلکه نسبتی برای هر دسته دارم، و این روش آن را نادیده می گیرد. * برای روش وزن دهی: من _w i_ را محاسبه کردم، و با توجه به آنچه در مقاله فهمیدم: تمامی کاری که محققان باید انجام دهند این است که _w i_ را در معادله (8) محاسبه کنند، آن را به عنوان وزن برنامه کامپیوتری خود انتخاب کنند و سپس یک مدل لاجیت اجرا کنید». بنابراین من ابتدا «glm» خود را به صورت زیر اجرا کردم: glm(R~ A+B+C+D، وزن=wi، داده=زیرداده، خانواده=دوجمله ای) مطمئن نیستم که باید «A»، «B» و «C» به عنوان متغیرهای توضیحی، زیرا من معمولاً انتظار دارم که آنها تأثیری بر بقای این نمونه فرعی نداشته باشند (هر دسته شامل حدود 50٪ مرده و زنده است). به هر حال نباید خروجی ها را زیاد تغییر دهد اگر قابل توجه نیستند. با این اصلاح، من برای سطح «D2» (سطح اکثر افراد)، مناسب نیست، اما برای سطوح دیگر «D» اصلاً («D2» برتری دارد). نمودار بالا سمت راست را ببینید: >  متناسب با یک مدل «glm» غیر وزنی > و یک مدل «glm» وزن شده با _w i_ . هر نقطه نشان دهنده یک > دسته است. «نسبت در مجموعه داده بزرگ» نسبت واقعی 1 در دسته > «ABC» در مجموعه داده بزرگ است، «نسبت در مجموعه داده فرعی» نسبت واقعی 1 در دسته «ABC» در مجموعه داده فرعی است، و «مدل > پیشبینیها» پیشبینیهای مدلهای «glm» هستند که با مجموعه دادههای فرعی مطابقت دارند. > هر نماد 'pch' نشان دهنده سطح معینی از 'D' است. مثلث ها در سطح «D2» هستند. فقط بعداً وقتی دیدم «logistf» وجود دارد، فکر میکنم شاید به این سادگی هم نباشد. الان مطمئن نیستم. هنگام انجام «logistf(R~ A+B+C+D، وزنها=wi، داده=زیرداده، خانواده=دوجملهای»»، تخمینهایی دریافت میکنم، اما تابع پیشبینی کار نمیکند و آزمایش مدل پیشفرض مجذور chi بینهایت را برمیگرداند. مقادیر (به جز یک) و تمام مقادیر p = 0 (به جز 1). سؤالات: * آیا من به درستی کینگ و ژنگ (2001) را درک کردم؟ (چقدر از درک آن فاصله دارم؟) * در تناسب «glm» من، «A»، «B» و «C» تأثیرات قابل توجهی دارند. همه اینها به این معنی است که من مقدار زیادی از نسبت های نصف/نیمه 0 و 1 را در زیرمجموعه خود و به طور متفاوت در دسته های مختلف «ABC» دور می کنم – اینطور نیست؟ * آیا می توانم تصحیح وزن کینگ و ژنگ (2001) را علیرغم اینکه مقدار تاو و مقدار $\bar y$ برای هر دسته «ABC» به جای مقادیر جهانی دارم اعمال کنم؟ * آیا این مشکلی است که متغیر 'D' من تا این حد نامتعادل است، و اگر چنین است، چگونه می توانم آن را مدیریت کنم؟ (با توجه به اینکه من قبلاً باید برای تصحیح رویداد نادر وزن کنم...آیا دوبار وزن کردن یعنی وزن کردن وزنه ها امکان پذیر است؟) با تشکر! **ویرایش**: ببینید اگر A، B و C را از مدل ها حذف کنم چه اتفاقی می افتد. من نمی فهمم چرا چنین تفاوت هایی وجود دارد. >  بدون A، B و C به عنوان > متغیرهای توضیحی در مدل ها مناسب است | چگونه می توان تصحیحات نادر وقایع شرح داده شده در کینگ و ژنگ (2001) را انجام داد؟ |
86019 | من از رویکرد پارامتری و رویکردهای ناپارامتریک (رگرسیون خطی محلی) طراحی ناپیوستگی رگرسیون (RDD) برای محاسبه اثر درمان با استفاده از Stata استفاده میکنم. برای بدست آوردن داده های نوشته شده توسط کاربر و کنگره 102، این کار را انجام می دهم: net get rd استفاده از votex رویکرد خطی محلی: rd lne d,bw(0.20) mbw(100) ker(rec) دو متغیر مشخص شده است. فرض بر این است که درمان از صفر به یک در Z=0 می پرد. متغیر اختصاصی Z is d متغیر درمان X_T نامشخص متغیر نتیجه y است lne تخمین پهنای باند .2 ------------------------------------------------ ---------------------------- lne | Coef. Std. اشتباه z P>|z| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ لوالد | -.1046939 .1147029 -0.91 0.361 -.3295075 .1201197 ------------------------------------------------ ---------------------------- تا جایی که من متوجه شدم این معادل زیر است: gen win_d=win*d reg lne d win_d if d>=-0.2 & d<=0.2 منبع | SS df MS تعداد obs = 267 -------------+---------------------------- -- F( 3, 263) = 0.43 مدل | 0.271662326 3.090554109 Prob > F = 0.7339 Residual | 55.7885045 263.212123591 R-squared = 0.0048 ----------------------------------------- --- Adj R-squared = -0.0065 مجموع | 56.0601668 266.210752507 Root MSE = 0.46057 ---------------------------------------- ------------------------------------ lne | Coef. Std. اشتباه t P>|t| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ d | .8450601 .7855123 1.08 0.283 -.7016333 2.391753 برد | -.1046939 .1257913 -0.83 0.406 -.3523801 .1429923 win_d | -.8707605 1.048807 -0.83 0.407 -2.935887 1.194366 _cons | 21.44195 .0925378 231.71 0.000 21.25974 21.62415 ------------------------------------------------ ---------------------------- با این حال، وقتی از رویکرد پارامتری استفاده می کنیم (مثلاً با چند جمله ای مرتبه یک)، از همه استفاده می کنیم مشاهدات اما، سعی می کنم ببینم چگونه می توان رویکرد پارامتری را با رویکرد ناپارامتریک با همان تعداد مشاهده که در رویکرد ناپارامتریک مشاهده می شود، مقایسه کرد. بنابراین، من به صورت زیر عمل می کنم: reg lne d win if d>=-0.2 & d<=0.2 Source | SS df MS تعداد obs = 267 -------------+---------------------------- -- F( 2, 264) = 0.30 مدل | 0.125446108 2.062723054 Prob > F = 0.7440 Residual | 55.9347207 264.211873942 R-squared = 0.0022 -------------+--------------------------- --- Adj R-squared = -0.0053 مجموع | 56.0601668 266.210752507 Root MSE = 0.4603 ----------------------------------------- ------------------------------------- lne | Coef. Std. اشتباه t P>|t| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ d | .3566172 .5201877 0.69 0.494 -.6676274 1.380862 برد | -.0964314 .1253232 -0.77 0.442 -.3431916 .1503288 _cons | 21.39136 .0696112 307.30 0.000 21.2543 21.52843 ------------------------------------------------ ---------------------------- نگرانی من این است که چرا نتیجه رویکرد ناپارامتریک (-.1046939) با رویکرد پارامتری یکسان نیست. (-.0964314)، اگرچه ما از مشاهدات یکسانی برای هر دو استفاده می کنیم. | طراحی ناپیوستگی رگرسیون پارامتریک در مقابل نتایج متفاوت ناپارامتریک |
87946 | من تعداد زیادی سری زمانی با دوره دارم: روز، هفته یا ماه. با تابع 'stl()' یا با 'loess(x~y)' می توانم روندهای سری های زمانی خاص را ببینم. من باید تشخیص دهم که روند سری های زمانی در حال افزایش یا کاهش است. چگونه می توانم آن را مدیریت کنم؟ من سعی کردم ضرایب رگرسیون خطی را با 'lm(x~y)' محاسبه کنم و با ضریب شیب بازی کنم. ('اگر |شیب|>2 و شیب>0 سپس' روند افزایشی، 'در غیر این صورت | شیب|>2 و شیب<0' - کاهش می یابد). شاید روش دیگری و موثرتر برای تشخیص روند وجود داشته باشد؟ متشکرم! برای مثال: «timeserie1»، «timeserie2» دارم. من به یک الگوریتم ساده نیاز دارم که به من بگوید timeserie2 یک الگوریتم افزایشی است، و در timeserie1، روند افزایش یا کاهش نیست. از چه معیارهایی استفاده کنم؟ `timeseries1`: 1774 1706 1288 1276 2350 1821 1712 1654 1680 1451 1275 2140 1747 1749 1770 1797 1485 1797 1485 1297 1721 1797 1452 1328 2363 1998 1864 2088 2084 594 884 1968 1858 1640 1823 1938 1490 1312 2312 19312 19316 193116 2228 1756 1465 1716 1601 1340 1192 2231 1768 1623 1444 1575 1375 1267 2475 1630 1505 1810 122412411 1613 1710 1546 1290 1366 2427 1783 1588 1505 1398 1226 1321 2299 1047 1735 1633 1508 1323 131716 131712 1572 1273 1365 2373 2074 1809 1889 1521 1314 1512 2462 1836 1750 1808 1585 1387 1428 2176 17208 1720215 1194 2159 1840 1684 1711 1653 1360 1422 2328 1798 1723 1827 1499 1289 1476 2219 1824 1606 169324 169324 1728 1743 1697 1511 1285 1426 2076 1792 1519 1478 1191 1122 1241 2105 1818 1599 1663 1319 15174 121711 2000 1518 1479 1586 1848 2113 1648 1542 1220 1299 1452 2290 1944 1701 1709 1462 1312 1365 2365 211810 1312 1312 1493 1523 2382 1938 1658 1713 1525 1413 1363 2349 1923 1726 1862 1686 1534 1280 2233 1733 152015 137201 2024 1645 1510 1469 1533 1281 1212 2099 1769 1684 1842 1654 1369 1353 2415 1948 1841 1928 1928 17290 172901 1700 1838 1614 1528 1268 2192 1705 1494 1697 1588 1324 1193 2049 1672 1801 1487 1319 1289 111271 130271 2053 1639 1372 2198 1692 1546 1809 1787 1360 1182 2157 1690 1494 1731 1633 1299 1291 2164 1315121611 1396 2308 2110 2128 2316 2249 1789 1886 2463 2257 2212 2608 2284 2034 1996 2686 2459 2340 23740 237832 654 1068 1720 1904 1666 1877 2100 504 1482 1686 1707 1306 1417 2135 1787 1675 1934 1931 1432401201 1931 14324 1306 1620 1232 1199 `timeseries2`: 122 155 124 97 155 134 115 122 162 115 102 163 135 120 139 160 126 12114 162 160 126 12114 121 182 139 145 135 147 60 58 153 145 130 126 143 129 98 171 145 107 133 115 113 96 175 1211 1017 1014 143 111 104 132 110 80 159 131 113 123 123 104 101 179 127 105 133 127 101 97 164 134 124 123 123 127 101 101 130 115 79 104 191 137 114 131 109 95 119 173 158 137 128 119 109 120 182 140 133 113 121 110 129 110 129 11591 108 95 167 138 125 105 139 118 115 166 140 112 116 139 121 109 164 135 118 121 112 111 102 166 1131111 112 156 134 121 116 114 91 86 141 160 116 118 112 84 114 165 141 109 123 122 110 100 162 1415 123 121 142 130 139 134 121 118 164 147 125 120 134 107 130 158 141 144 148 124 135 118 212 178 1514 1617 178 1514 1617 144 138 152 136 123 223 189 160 153 190 136 144 276 213 199 211 196 170 179 460 480 499 550 368 518 593 507 611 569 741 635 563 577 498 456 446 677 552 515 441 438 462 530 699 629 555 641 625 515 530 699 629 555 641 625 515 506 500 533 777 598 541 532 513 434 510 714 631 1087 1249 1102 913 888 1147 1056 1073 1075 11326 1073 1075 11326 1189 1062 999 974 1174 1097 1055 1053 1097 1065 1171 843 441 552 779 883 773 759 890 404 729 703 404 729 890 404 729 703 813 876 841 742 715 960 862 743 806 732 669 621 | R روند افزایش/کاهش سری های زمانی را تشخیص می دهد |
30319 | من با این پست وبلاگ در مورد رگرسیون حداقل زاویه برخورد کردم، و در نقطه ای او می گوید: > * متغیر $x_1$ را که بیشترین همبستگی را با باقیمانده دارد پیدا کنید. (توجه داشته باشید که > متغیری که بیشترین همبستگی را با باقیمانده دارد، معادل آن است که > کمترین زاویه را با باقیمانده ایجاد می کند، نام آن از آنجاست.) > > * در جهت این متغیر حرکت کنید تا زمانی که متغیر دیگری $x_2$ > باشد. به عنوان مرتبط. > > اما من نتوانستم آن را تجسم کنم. منظور او با باقیمانده بردارها منهای میانگین بردارها است، درست می گویم؟ یک تفسیر هندسی از همبستگی متغیر با باقیمانده چه می تواند باشد؟ مثلاً مثال دوبعدی این تفسیر چه خواهد بود؟ | تفسیر هندسی همبستگی یک متغیر و باقیمانده |
43893 | فرض کنید من یک بردار مرتب دارم که در آن عنصر اول تعداد بازدید از یک وب سایت در یک دوره زمانی معین توسط IP منحصر به فرد با بیشترین تعداد بازدید است، عنصر دوم تعداد بازدیدهای IP منحصر به فرد با دوم است. بیشترین تعداد بازدید و غیره من می دانم که ممکن است در هر سایت تغییراتی وجود داشته باشد، اما آیا به طور کلی یک الگوی فرضی برای شکل این بردار وجود دارد؟ آیا برای مثال، از توزیع قانون قدرت پیروی می کند؟ | آیا بازدیدکنندگان منحصر به فرد یک وب سایت از قانون قدرت پیروی می کنند؟ |
64124 | من سعی می کنم با استفاده از تعداد کمی از مشاهدات، احتمال یک رویداد را تخمین بزنم. تخمینگر سادهلوح $\hat{p} =\frac{\text{تعداد مشاهدات مثبت}}{\text{تعداد کل مشاهدات}}$ به خوبی کار میکند که تعداد کل مشاهدات به اندازه کافی بزرگ باشد، اما اگر فقط داشته باشید با چند مشاهدات، این احتمال وجود دارد که شما به اشتباه به احتمال 0 یا 100 درصد نتیجه بگیرید. فکر می کنم می توانید یک توزیع قبلی بر روی احتمال تخمین زده شده (مثلاً یکنواخت) تنظیم کنید و به دنبال برآوردگرهای بهتر باشید. من فکر می کنم این مشکل قبلاً بارها حل شده است، پس کجا باید نگاه کنم؟ | تخمین احتمال یا فرکانس با N کم؟ |
15091 | به عنوان مثال برآورد احتمال شکست 10 (ده) کسب و کار کوچک 3 (سه) یا کمتر در سال اول فعالیت | چه مدلی برای تخمین احتمال وقوع چیزی مناسب است؟ |
35607 | در حال حاضر در حال انجام پایان نامه سال چهارم خود هستم که به بررسی مراحل اخلاقی کودکان/نوجوانان می پردازد. DV مرحله اخلاقی است (متغیر طبقه بندی، مراحل 1، 2، 3، یا 4) و IV ها گروه سنی هستند (من در حال حاضر 2 دارم، اما ممکن است به طور بالقوه 3 داشته باشم) و جنسیت، بنابراین طرح من یا 2 x خواهد بود. 2 یا 3 x 2. سرپرستم به من گفته است که رگرسیون لجستیک راه حلی است، اما در کلاس های آمار قبلی ما پوشش داده نشده است (حداقل نه رگرسیون لجستیک چند جمله ای) و او گفت در غیر این صورت می توانم از 2 تست مربع کای، یکی برای هر جنسیت استفاده کنم. پس من نمی توانم هیچ گونه تعامل بین گروه های سنی و جنسیت را بررسی کنم. آیا کسی می تواند به من بگوید بهترین روش برای استفاده از چه روشی خواهد بود، و اگر بخواهم از رگرسیون لجستیک استفاده کنم، آیا به جای دوجمله ای چند جمله ای است، با توجه به اینکه DV من دوگانه نیست؟ | رگرسیون لجستیک دو جمله ای / چند جمله ای یا کای دو |
97891 | فرض کنید من دو مدل دارم که با فراخوانی «glm()» روی یک داده اما با فرمولها و/یا خانوادههای متفاوت ایجاد شدهاند. اکنون میخواهم با پیشبینی دادههای ناشناخته مقایسه کنم که کدام مدل بهتر است. چیزی شبیه این: mod1 <- glm(formula1, family1, data) mod2 <- glm(formula2, family2, data) mu1 <- predict(mod1, newdata, type = response) mu2 <- predict(mod2, newdata, type = response) 1. چگونه می توانم بگویم کدام یک از پیش بینی های 'mu1' یا 'mu2' بهتر است؟ 2. آیا دستور ساده ای برای محاسبه احتمال گزارش یک پیش بینی وجود دارد؟ | مقایسه مدل های GLM با استفاده از پیش بینی |
43898 | من یک سری زمانی دارم که با ساخت همبستگی خودکار دارد و ممکن است ناهمسان باشد. من میانگین نمونه این سری زمانی را محاسبه کرده ام و می خواهم آماره t مربوط به این فرضیه که میانگین این سری زمانی صفر است را محاسبه کنم. درک من این است که از آنجایی که سریهای زمانی من همبستگی خودکار و احتمالاً ناهمسان است، باید از یک آماره t استفاده کنم بر اساس روش نیوی وست برای وابستگی سریال تنظیم شده است. 1. من در درک روش و نحوه پیاده سازی آن در Matlab مشکل دارم. تا آنجا که من متوجه شدم، نیوی وست در رگرسیون ها برای به دست آوردن خطاهای استاندارد HAC استفاده می شود، زیرا خطاهای استاندارد OLS مبنای قابل اعتمادی برای استنتاج تحت همبستگی سریال عبارت خطا در یک رگرسیون نیستند. اما در مورد من، من چیزی را پسرفت نمیکنم، پس روش نیوی وست چگونه جا میگیرد؟ بدون خود همبستگی و همبستگی، من به سادگی میانگین نمونه (منهای 0) را بر خطای استاندارد (انحراف استاندارد نمونه بر جذر تعداد مشاهدات) تقسیم میکردم. بنابراین نیازی به پسرفت چیزی نیست. 2. چگونه می توانم محاسبه آمار t-Newey-West را در Matlab پیاده سازی کنم؟ | آمار تی نیوی وست |
91259 | من سعی میکنم یک MC زمان گسسته با احتمالهای انتقالی که به برخی از تابعهای پارامترها مانند $p_{ij} = f(X_0,X_1)$ بستگی دارد، مدلسازی کنم. فرض کنید یک مدل log-linear را در نظر بگیرید که در آن $p_{ij} = e^{\beta_0+\beta_1X_0+\beta_2X_1}$ است. اکنون من مشاهدات مجموعی برای توزیع دولتی q دارم. من می خواهم $\beta_0،\beta_1،\beta_2$ را تخمین بزنم که عبارت را به حداقل می رساند، $\sum_{t=1}^T||q^tP-q^{t+1}||_2$ که در آن $P$ ماتریسی با ورودیهای $p_{ij}$ است که من سعی کردهام مطالبی را بیابم که با چنین مدل پارامتری برای احتمالات انتقال سروکار دارد، اما هیچ چیز واقعاً مفیدی پیدا نکردهام. من قدردان پیشنهادها یا پیوندهایی به برخی منابع در مورد چگونگی حل این موضوع هستم. با تشکر PS: همچنین این را در math.stackexchange ارسال کرده اید. گیج شد که جای مناسب تری است. | ماتریس انتقال پارامتریک در زنجیره مارکوف |
35606 | من مجموعه ای از داده ها از دو نمونه (شاهد و تیمار شده) دریافت کرده ام که هر کدام حاوی چندین هزار مقدار است که باید در R مورد آزمایش معنی داری قرار گیرند. t و آنها دارای کراوات هستند. توزیعها ناشناخته هستند و شکل توزیعهای کنترل و تیمار شده ممکن است متفاوت باشد، بنابراین میخواهم از یک آزمون ناپارامتریک برای مقایسه اینکه آیا تفاوت بین نمونهها برای 10 عامل مختلف معنیدار است استفاده کنم. من فکر کردم از تست کولموگروف اسمیرنوف استفاده کنم، اما واقعا برای کراوات مناسب نیست. من اخیراً به یک کتابخانه R جدید به نام Matching برخورد کردم که نسخه بوت استرپ تست K-S را اجرا می کند و اتصالات را تحمل می کند. حالا این واقعا ایده خوبی است یا باید به جای آن از تست دیگری استفاده کنم؟ و آیا باید مقدار p را تنظیم کنم؟ | آیا جایگزینی برای آزمون کولموگروف-اسمیرنوف برای داده های مرتبط با تصحیح وجود دارد؟ |
43891 | من یک مجموعه داده بسیار ساده متشکل از سه ستون دارم: کلاس سایبان حقیقت زمین، کلاس سایبان روش 1 و کلاس سایبان روش 2. هر ردیف در ستون ها نشان دهنده کلاس سایبان (یعنی 1 تا 5) است. من یک ماتریس خطا در اکسل تولید کردم و دقت کلی و خط را محاسبه کردم (شکل 1). با این حال، اکنون باید آزمایش کنم که آیا روش یک با استفاده از معادلات پیوست شده تفاوت قابل توجهی با روش دو دارد یا خیر (شکل 2 و 3). من میتوانم از کمک برای محاسبه موارد زیر با استفاده از R یا Excel استفاده کنم: 1. امتیاز Z 2. کلاه K 3. واریانس کلاه K آیا بستهای در R وجود دارد که من نادیده گرفتهام که بتواند به من در این محاسبات کمک کند؟ شکل 1 شکل 2 شکل 3  منبع: Assessing the Accuracy of Remotely Sensed Data (Congalton, 2009) | چگونه ماتریس های خطا، K hat و var(K hat) را محاسبه کنیم؟ |
111069 | من سعی می کنم بفهمم که داشتن یک طبقه بندی کننده SVM (خطی) (با حاشیه های نرم) با توجه به مدل تولیدی داده ها به چه معناست. و میدانم که هیچ مقالهای روی آن ندیدهام، و نمیتوانم به تنهایی نظریه را گسترش دهم. حداقل دو مشکل: * عبارت جریمه $C \sum \xi_i$ نامحدود خواهد شد. بی نهایت $\xi_i$ متناهی وجود خواهد داشت. * محدودیت های بی نهایت زیادی وجود خواهد داشت $y(w.x_i - b) \ge 1-\xi_i$ آیا پیشنهاد یا مرجعی دارید؟ با تشکر | آیا نظریه ای در مورد SVM ها با داده های بی نهایت وجود دارد؟ |
100294 | من از مدل پواسون استفاده می کنم. تئوری من X_1$ مثبت و منفی X_1^2$ را پیشنهاد می کند. با این حال، نتایج یک تخمین ناچیز و مثبت برای X_1$ و یک تخمین مثبت و قابل توجه برای $X_1^2$ را نشان میدهد. وقتی X_1$ مهم نیست اما X_1^2$ مهم است چگونه باید نتیجه را تفسیر کنم؟ با تشکر | تفسیر زمانی که فقط عبارت مجذور مهم است |
73409 | من سری زمانی از چندین متغیر از 60 ردیف یا بیشتر از داده های شمارش دارم. من می خواهم یک مدل رگرسیون 'y ~ x' انجام دهم. من انتخاب کرده ام که از GLM های شبه پواسون و دوجمله ای منفی استفاده کنم زیرا پراکندگی بیش از حد و غیره وجود دارد. x حداقل. : 24000 1st Qu.: 72000 Median :117095 Mean :197607 Qu. 3:291388 Max. حداقل : 607492 سال : 136345 شماره اول: 405239 میانه : 468296 میانگین : 515937 سومین شماره: 633089 حداکثر. :1218937 خود داده ها بسیار زیاد هستند و بنابراین شاید بهتر باشد اینها را به عنوان داده های شمارش مدل کنیم (این چیزی است که من سعی می کنم بررسی کنم - در آن مرحله می توانم داده های شمارش را به صورت پیوسته مدل کنم). به نظر می رسد این تمرین بسیار رایج است، چیزی که می خواهم بدانم انگیزه این کار است؟ آیا متنی وجود دارد که واقعاً مشکل مدلسازی دادههای تعداد زیاد با توزیع پواسون را نشان دهد؟ شاید چیزی که فاکتوریل در توزیع را نشان می دهد کار را دشوار می کند. | وقتی بتوانم داده های شمارش را به صورت پیوسته مدل کنم |
72359 | من فهرستی از سوابق افرادی دارم که در مقاطع مختلف زمانی تحت درمان قرار گرفته اند. برخی از افراد چندین بار این درمان را دریافت کرده اند. من از یک الگوریتم تطبیق رشته استفاده میکنم تا تشخیص دهم کدام رکورد به همان شخص مربوط میشود. سوال من این است: چگونه می توانم میزان دقت تطابق را آزمایش کنم؟ من می توانم به نمونه تصادفی از رکوردهای تطبیق نگاه کنم و به صورت دستی خطاها را بررسی کنم و یک مقدار p را بر اساس آن محاسبه کنم، اما این خطای عدم تطابق رکوردهایی را که باید مطابقت داشته باشند نادیده می گیرد. من برای هر اشاره ای سپاسگزار خواهم بود! | تست دقت الگوریتم تطبیق رشته؟ |
6005 | من در نوشتن توابع در R کمی تازه کار هستم. در اینجا یک تابع پایه دارم که یک الگو را جستجو می کند و با توجه به مجموعه داده های لیست، نمایه های محل وقوع را برمی گرداند. function(pattern,list) grep(pattern,list,ignore.case=T) گاهی اوقات در طول تجزیه و تحلیل متوجه شدم که باید این کار را برای یک مجموعه داده بزرگتر انجام دهم. ایده این است که به دنبال وقوع یک دامنه (الگوی) در هر یک از ردیفهای d7_dataset بگردیم (زیرا هر ردیف نشاندهنده یک دنباله پروتئین است و هر ستون یک دامنه است) به طوری که بتوانم تعداد دنبالههایی را که حاوی یا دارند شمارش کنم. domain(pattern در این مورد) بنابراین من این seqs را نوشتم <- c() for (i in 1:nrow(d7_dataset)){ pos <- find_domain(CIDRγ13, d7_dataset[i,]) if (!is.na(pos[1])) seqs <- c(seqs,1) } total_seqs <- sum(seqs) total_seqs با این حال به نظر می رسد می تواند باشد به عنوان یک تابع منفرد نوشته شده است تا بتوانم تکراری را حذف کرده و آن را به گونه ای ساده کنم که به اندازه کافی عمومی باشد تا بتوان در مجموعه داده های متعدد اعمال شود. آیا ایده ای در مورد چگونگی تطبیق آن با یک عملکرد واحد دارید؟ به طور خلاصه، با توجه به یک الگو یا لیست الگوها و یک مجموعه داده (به عنوان یک چارچوب داده) برای جستجو، تعداد دنبالهها (ردیفهای مجموعه داده) را که حاوی الگوی داده شده است، برگردانید. کم و بیش مانند این نتایج <– جستجو (لیستی از الگوهای جستجو، مجموعه داده) نتایج باید مانند تعداد الگوهای pat1 40 pat2 3 pat3 0 باشد. . . . خیلی خوب است اگر آرگومان الگو لیستی را برای جستجو بپذیرد متشکرم | یک تابع R برای انجام جستجوها |
10059 | * آیا می توان تجزیه و تحلیل خوشه ای 2 مرحله ای را در R انجام داد؟ * آیا کسی می تواند منبعی در مورد آن به من ارائه دهد؟ | خوشه بندی دو مرحله ای در R |
91258 | من سعی می کنم یک مدل لاجیت چند جمله ای را با استفاده از یک متغیر افست با بسته mlogit R با استفاده از نحو اینجا [https://stat.ethz.ch/R-manual/R-devel/library/stats/html/formula، تخمین بزنم. html] به نظر می رسد که راه درست برای انجام این کار استفاده از چیزی شبیه به این است v <- mFormula(choice ~ gc + log_gc + offset(log_attr) + 0) که سپس به تخمین مدل به عنوان مدل منتقل می کنید <- mlogit(v, mlogit_data) چاپ ضرایب به نظر می رسد نشان دهنده این است که پارامتر تخمین زده نشده است model$ضرایب gc log_gc -0.003023088 -0.477115780 attr(fixed) gc log_gc اما این پارامترها دقیقاً مشابه پارامترها هستند اگر متغیر log_attr را اصلاً لحاظ نکنم، متوجه می شوم... یعنی v_no_log_attr <- mFormula(choice ~ gc + log_gc + 0) model_no_log_attr <- mlogit(v_no_log_attr، mlogit_data) model_no_log_attr$8002 g ضریب 800 g. -0.477115780 attr(fixed) gc log_gc FALSE FALSE با توجه به اینکه داده ها دارای تغییرات قابل توجهی در این متغیر هستند، من احساس می کنم که این غیرمنتظره است و بسته mlogit به سادگی متغیر offset را نادیده می گیرد.  آیا این کار با این بسته امکان پذیر است؟ آیا من در مورد نحوه انجام تخمین سوء تفاهم دارم؟ | چگونه یک مدل mlogit (بسته R) را با یک متغیر ثابت (offset) تخمین بزنیم |
100263 | اول از همه، من آمارگیر نیستم، اما روش هایی را به خودم آموزش می دهم که برای پروژه ای که اکنون انجام می دهم، نیاز دارم. من یک مجموعه داده دو بعدی از N مشاهدات دارم. برای مشاهده ith، مدخل اول تعداد تخمینی خطوط در فصل چهارم یک کتاب است و مدخل دوم تعداد واقعی خطوط در آن فصل است. همه مقادیر بزرگ هستند (بنابراین حدس میزنم استفاده از توزیعهای پواسون فایدهای ندارد)، و پس از ورود به هر دو ورودی، یک خط خوب دریافت میکنم. هیچ ناهمسانی وجود ندارد و توزیع باقیمانده ها طبیعی به نظر می رسد. سوال من این است که آیا به هر حال باید از روش هایی برای شمارش داده ها استفاده کنم؟ اگر نه، چگونه می توانم آن را توجیه کنم؟ اگر بله، یک توزیع دوجمله ای منفی کار را انجام می دهد؟ | من یک تناسب OLS خوب برای متغیرهای عدد صحیح دریافت کردم، آیا هنوز باید از روش های داده های شمارش استفاده کنم؟ |
52595 | من در حال ایجاد فواصل اطمینان نسبت دو جمله ای برای مجموعه داده های بیمار حاوی دفعات بازدید از پرستار در منزل در طول هفته قبل از پذیرش در بیمارستان هستم. فرکانس مقولههای ویزیت خانگی مقادیر صحیح 1، 2، 3 و... هستند و مشاهدات برای یک بیمار خاص را میتوان مستقل از سایر بیماران فرض کرد. برای مجموعه داده 100 بیمار چیزی شبیه به این به نظر می رسد: خیر. بازدیدها: فراوانی: % کل: 1 10 10% 2 50 50% 3 30 30% 5 10 10% مجموع: 100 100% بنابراین در این مثال من در حال ساختن هستم 95% CI را برای $p_1 = 0.10$، $p_2 = 0.50$ جدا کنید، و غیره با $n=100$. من از قانون سه برای محاسبه 95% CI $= [0, 3/n]$ برای دفعات بازدیدها استفاده میکنم (در این مورد تعداد بازدیدها $= 4$) که در مجموعه داده مشاهده نشد. با این حال به نظرم رسید که میتوانم به طور مکانیکی از قانون سه برای محاسبه 95% CI استفاده کنم. آیا این معقول است؟ | آیا قانون سه در برخی موارد نامناسب است؟ |
6008 | من سعی میکنم بررسی پیشبینی پسین بیزی را انجام دهم که به موجب آن DIC را برای مدل برازش شده خود محاسبه میکنم و با DIC از دادههای شبیهسازی شده از مدل برازش شده مقایسه میکنم. من میتوانم DIC را از winBUGS خارج کنم، اما مطمئن نیستم که چگونه احتمال (برای DIC) را خارج از winBUGS (یعنی بدون نصب مدلهای جدید) محاسبه کنم. همه ادبیات در رابطه با توابع اختلاف برای بررسی مدل کاملاً کلی هستند و دارای نمادهایی مانند p(D|theta) هستند که من آن را درک می کنم، اما وقتی می خواهم واقعاً محاسبه را انجام دهم به من کمک نمی کند. با توجه به مجموعه ای از مقادیر پارامتر، و مجموعه داده های Y_rep - چگونه احتمال را محاسبه کنم؟ | چگونه احتمال یک مدل بیزی را محاسبه کنیم؟ |
7394 | من خیلی جستجو کرده ام و فقط می توانم جداولی را پیدا کنم که مقادیر بحرانی را تا n=30 نشان می دهند. آیا کسی می تواند یک روش ساده برای تخمین این مقدار برای $\alpha$ مختلف ارائه دهد، یا به من اشاره کند؟ | چگونه یک مقدار بحرانی همبستگی اسپیرمن را برای n=100 تخمین بزنیم؟ |
10057 | بسیاری از مقالات دانشگاهی با تمرکز بر یادگیری آماری در محیط کاربردی مالی مدلی را آموزش می دهند که مجموعه پارامترهای آنها، B، رابطه y(t) = B*x(t) + e(t) y را تعریف می کند که می تواند 0-1 باشد. پاسخ کدگذاری شده برای افزایش (یا نه) قیمت دارایی در زمان t. با نادیده گرفتن جزئیات مدل، سوال من به شرح زیر است: با توجه به اینکه شما در همان زمان که ویژگی های خود را ضبط می کنید، پاسخ را پیش بینی می کنید، چگونه از این مدل استفاده می کنید؟ به طور شهودی فکر میکنم خوب است، فضای ورودی من میگوید که شاهد افزایش y خواهیم بود، اما از آنجایی که آنها همزمان هستند، میتوانم بروم و ببینم y در واقع چه کرده است. آیا دیدگاه مدل خود را حقیقت می دانم و بر اساس این اطلاعات (مثلا) سیگنال معاملاتی ایجاد می کنم؟ هر گونه بینش عملی بسیار قدردانی خواهد شد. | طبقه بندی در یک محیط مالی کاربردی |
100267 | من بارها و بارها فرضیه صفر را رد کرده ام یا در رد کردن ناموفق بوده ام. در عدم رد مورد، به این نتیجه میرسید که شواهد کافی برای رد وجود ندارد و «به جلو میروید» (یعنی یا دادههای بیشتری جمعآوری میکنید، آزمایش را پایان میدهید و غیره)، اما وقتی «انجام میدهید» فرضیه صفر را رد میکنید، با ارائه _برخی_ شواهد برای فرضیه جایگزین، واقعا نمی توانید اثبات کنید که فرضیه جایگزین شما واقعا درست است. بنابراین، پس از رد فرضیه صفر، گام های بعدی رایج چیست؟ چه ابزارها/تکنیک هایی را برای تحلیل بیشتر مشکل به کار می گیرند تا یافته ها قطعی تر شود؟ «گامهای بعدی» منطقی بهعنوان آماردانی که تجزیه و تحلیل بیشتر را تضمین میکند، چیست؟ به عنوان مثال: $H_0: \mu_1 = \mu_0$ $H_1: \mu_1 > \mu_0$ (مثلاً جهت مورد انتظار را میدانیم) هنگامی که فرضیه صفر را در سطحی از اهمیت رد میکنیم، برخی شواهد برای جایگزین داریم. درست است، اما ما نمی توانیم به این نتیجه برسیم. اگر واقعاً بخواهم آن نتیجه را به طور قطعی بگیرم (ببخشید بازی دو کلمه ای) چه باید بکنم؟ من هرگز در طول دوران کارشناسی به این سوال فکر نکرده ام، اما اکنون که در حال انجام آزمایش های زیادی از فرضیه ها هستم، نمی توانم فکر کنم که چه چیزی در پیش است :) | حالا که من فرضیه صفر را رد کردم، بعد چه می شود؟ |
92784 | من مشاهدات (متغیر y) را از افراد در سنین مختلف (متغیر x) جمع آوری کرده ام. برخی از افراد چندین نقطه داده را ارائه کردند (از 2 تا 10)، در حالی که دیگران فقط یک نقطه را ارائه کردند. می خواهم ببینم آیا x با y همبستگی دارد یا خیر. چگونه می توانم این واقعیت را توضیح دهم که برخی از افراد مشاهدات بیشتری نسبت به دیگران داشته اند؟ این مجموعه داده سری زمانی نیست. با تشکر برای هر گونه کمک! | چگونه برای محاسبه همبستگی زمانی که تعداد متغیری از مشاهدات برای هر موضوع جمع آوری می شود؟ |
7391 | من ادعا کرده ام که مشکل محاسبه توزیع صفر آماره $D_n^+$ کلموگروف برای یک اندازه نمونه محدود بر روی مسئله محاسبه تعداد مسیرهای شبکه ای که زیر قطر باقی می مانند و بنابراین می توان با رای گیری حل کرد نگاشت می شود. قضیه من با مسیرهای شبکه و مشکل رای آشنا هستم. من همچنین با بیان توزیع $D_n^+$ به عنوان یک سری انتگرال آشنا هستم. اما من نمیدانم که چگونه یک مشکل روی دیگری نگاشت. آیا کسی می تواند مقاله یا کتابی را توضیح دهد یا به من اشاره کند؟ من همچنین ادعا میکنم که توزیع تهی کولموگروف-اسمیرنوف $D_n = \max(D_n^+,D_n^-)$ روی یک مشکل مسیر شبکه دیگر که میتواند با یک قضیه رأی دو طرفه حل شود، نگاشت میشود. من نمی دانم یک نسخه دو طرفه از مشکل رای گیری چه خواهد بود. باز هم، کسی می تواند توضیح دهد یا به من توضیح دهد؟ در نهایت، آیا یک چارچوب کلی پیرامون همه اینها وجود دارد؟ آیا می توان آمار کویپر را با یک مشکل دیگر مسیر شبکه ترسیم کرد؟ تست KS دو نمونه؟ آمار AD؟ | کولموگروف-اسمیرنوف و مسیرهای مشبک |
92739 | من یک ECM را در Stata اجرا کرده ام، که در آن مدل من دارای شش متغیر است که 3 رابطه هم انباشته پیدا کرده است. هنگام قرار دادن این جدول در مقاله، ضرایبی که باید در مورد هر متغیر گزارش کنم چیست و عبارت تصحیح خطا کجاست؟ با توجه به اینکه 3 رابطه هم انباشته وجود دارد، چند عبارت تصحیح خطا وجود دارد؟ | مدل تصحیح خطا در Stata |
84260 | سعی کردهام راهی برای میانگین GLMM دوجملهای منفی با استفاده از بسته MuMin R پیدا کنم، اما به نظر میرسد برای GLMM دوجملهای منفی کار نمیکند، هیچ جایگزینی وجود ندارد؟ پیشاپیش متشکرم | مدل میانگین برای GLMM دو جمله ای منفی در R |
33078 | من مجموعهای از دادهها را دارم که به روش خاصی مرتب نشدهاند، اما وقتی به وضوح ترسیم میشوند دو روند متمایز دارند. به دلیل تمایز واضح بین این دو سری، یک رگرسیون خطی ساده واقعاً در اینجا کافی نیست. آیا راه ساده ای برای به دست آوردن دو خط روند خطی مستقل وجود دارد؟ برای سابقه، من از پایتون استفاده میکنم و با برنامهنویسی و تجزیه و تحلیل دادهها، از جمله یادگیری ماشین، راحت هستم، اما در صورت لزوم، حاضرم به R بپرم.  | داده ها دارای دو روند هستند. چگونه خطوط روند مستقل استخراج کنیم؟ |
95000 | من از اسکریپت «allfitdist» استفاده میکنم تا براساس آزمایشهای موجود (BIC، AIK و غیره...) ببینم کدام توزیع با دادههای من مطابقت دارد - همه اینها از اسکریپت با استفاده از تابع «fitdist» در جعبه ابزار آمار نشات میگیرند. من موفق به انجام این کار میشوم و یک هیستورگرام خوب با توزیعهای مختلف که روی دادههایم قرار گرفتهاند، دریافت میکنم. این سوال چیزی شبیه به چیزی است که من با آن دست و پنجه نرم می کنم، اما می خواهم یک گام فراتر بروم و بدانم آیا می توان پارامترهای بیشتر (به عنوان مثال چولگی و کشیدگی) توزیع های خروجی را بدست آورد. من به معنای واقعی کلمه نمی دانم چگونه می توانم این کار را انجام دهم. خروجی یک فاصله هنجار فقط شامل میانگین و st.dev است، اما از شکل به نظر می رسد که چولگی و کشیدگی وجود دارد - من باور نمی کنم که هر دو دقیقاً صفر باشند، با توجه به اینکه داده های من بازده بازار سهام است ( مگر اینکه تابع fitdist استفاده شده این را به عنوان یک فرض داشته باشد؟) اگر مفید باشد، می توانم تصویری از خروجی ارسال کنم. | کاوش عمیق تر در تابع FitDist |
45131 | من یک HMM دو حالته دارم و از Baum-Welch برای تخمین تمام پارامترهای مدل از جمله ماتریس Transition استفاده می کنم. سپس از Viterbi برای استنتاج توالی حالت پنهان بهینه استفاده می کنم. من از چنین HMM برای استنباط حالتهای پنهان استفاده میکنم که 1 یا 0 هستند. با این حال، در حال حاضر این مدل حالتهای پنهانی را که بهعنوان 1 پیشبینی میشود، بیشتر از آنچه میخواهم به من میدهد. چیزی که من می خواهم در آن زمان داشته باشم یک سیستم امتیازدهی خوب برای حالت های پنهان است به طوری که می توانم ایالت ها را بر اساس احتمال 1/0 بودن آنها با توجه به همه داده ها و پارامترها رتبه بندی کنم. من به دو رویکرد متفاوت برای محدود کردن تعداد حالتهای پیشبینیشده به عنوان 1 برای حالتهای پنهان خود فکر میکنم: **Q1.** آیا این امکان وجود دارد، و در کدام مرحله از روش من، باید حداکثر تعداد حالتهای پیشبینیشده را 1 محدود کنم. ? آیا باید به جای تخمین زدن، شکل خاصی از ماتریس انتقال را در نظر بگیرم و سپس سایر پارامترهای مدل را متناسب کنم؟ من در اینجا آماده پیشنهادات هستم. **Q2.** همچنین میتوانم از برخی احتمالات پسین هر حالت (با توجه به همه دادهها) برای فیلتر کردن برخی از حالتهای پیشبینیشده بهعنوان 1 بیرون استفاده کنم. چگونه باید احتمال پسین هر حالت پیش بینی شده توسط ویتربی را محاسبه کنم؟ به عنوان مثال، من می خواهم بردار احتمالاتی را با طول توالی پیش بینی شده ویتربی محاسبه کنم که احتمال پسینی هر حالت پنهان را نشان می دهد. با تشکر | HMM یک بررسی پسینی برای حالت های پنهان و موارد دیگر |
84097 | اگر همبستگی بین گویه ای منفی و ضریب رگرسیون مثبت باشد چگونه می توانم نتایج را تفسیر کنم؟ من برای اطمینان از اینکه بتوانم روی رگرسیون کار کنم، همبستگی را اجرا کردم. نقطه بحث من کجا باید متمرکز شود؟ در مورد همبستگی یا رگرسیون؟ | کدام ضریب: همبستگی یا رگرسیون؟ |
43890 | من داده های بارش روزانه برای دو مکان در طول دو سال را دارم. من باید آنها را با هم مقایسه کنم تا ببینم آیا تفاوت سالانه (ترکیب داده های دو ساله) وجود دارد یا خیر و آیا در هر ماه خاصی تفاوت وجود دارد (یک ماه نیز ترکیبی از داده های دو ساله است). آیا این به بهترین وجه با استفاده از یک آنالیز واریانس دوطرفه 2×12 تحلیل میشود (اگرچه N برای ماههای مختلف متفاوت است)، یا تعداد زیادی از آزمونهای t دانشجویی همان چیزی است که من نیاز دارم یا هر دو؟ | آیا استفاده از یک ANOVA یا چند آزمون t بهترین راه برای مقایسه داده های ماهانه و سالانه است؟ |
100214 | من در مورد اینکه مفروضات رگرسیون خطی چیست، کمی سردرگم هستم. تا کنون بررسی کردم که آیا: * همه متغیرهای توضیحی با متغیر پاسخ همبستگی خطی دارند یا خیر. (این مورد بود) * بین متغیرهای توضیحی هم خطی وجود داشت. (هم خطی کمی وجود داشت). * فواصل کوک از نقاط داده مدل من زیر 1 است (این مورد است، همه فواصل زیر 0.4 هستند، بنابراین هیچ نقطه تأثیری وجود ندارد). * باقیمانده ها به طور معمول توزیع می شوند. (ممکن است اینطور نباشد) اما من سپس موارد زیر را خواندم: > نقض نرمال بودن اغلب به این دلیل رخ می دهد که (الف) توزیع های > متغیرهای وابسته و/یا مستقل خود به طور قابل توجهی غیر عادی هستند، و/یا (ب) ) فرض خطی بودن نقض می شود. **سوال 1** به نظر می رسد که متغیرهای مستقل و وابسته باید به طور عادی توزیع شوند، اما تا آنجا که من می دانم اینطور نیست. متغیر وابسته من و همچنین یکی از متغیرهای مستقل من معمولاً توزیع نمی شوند. آیا آنها باید باشند؟ **سؤال 2** نمودار QQ نرمال باقیمانده ها به این شکل است:  که کمی با توزیع نرمال متفاوت است. shapiro.test نیز این فرضیه صفر را رد می کند که باقیمانده ها از یک توزیع نرمال هستند: > shapiro.test(residuals(lmresult)) W = 0.9171، p-value = 3.618e-06 باقیمانده ها در مقابل مقادیر برازش به نظر می رسد: png) اگر باقیمانده های من نیستند، چه کاری می توانم انجام دهم به طور معمول توزیع شده است؟ آیا به این معنی است که مدل خطی کاملاً بی فایده است؟ | مفروضات مدل های خطی و اینکه اگر باقیمانده ها به طور معمول توزیع نشده باشند چه باید کرد |
95001 | من یک مدل رگرسیون دارم و می خواهم اهمیت نسبی پیش بینی کننده ها را تعیین کنم. من از بسته `relaimpo` در r استفاده کردم. بسته می گوید که 98.84 درصد از واریانس توسط متغیر پاسخ مدل توضیح داده شده است: C واریانس پاسخ کل: 115.4857 تجزیه و تحلیل بر اساس 161187 مشاهدات 10 رگرسیور: I(VPT^(-0.66)) TPA S SD TPA:VPT S:SD TPA :SD TPA:S SD:VPT S:VPT نسبت واریانس توضیح داده شده توسط مدل: 98.84٪ معیارها را عادی نکردم. معیارها عادی نیستند (rela=FALSE). اینها معیارهای اهمیت نسبی من هستند: معیارهای اهمیت نسبی: lmg I(VPT^(-0.66)) 0.2647988336 TPA 0.0776291924 S 0.0816760485 SD 0.2661375234 0.2661375234 0.2661375234 0.2661375234 0.2661375234 0.2661375234 0.2661375234 0.2661375234 0.2661375234 TPA:VPT79 S. 0.0036628215 TPA:SD 0.0002298444 TPA:S 0.0002684624 SD:VPT 0.0065747570 S:VPT 0.0114800491 «0.79» را جمع می کنند. آیا آنها نباید به 0.9884 جمع شوند؟ اگر چنین است، چرا این کار را نمی کنند؟ | LMG به R2 مدل خلاصه نمی شود |
10053 | من سعی می کنم خوب بودن تناسب را برای یک بردار از داده های شمارش به یک دوجمله ای آزمایش کنم. برای انجام این کار از تابع «goodfit()» در بسته «vcd» استفاده میکنم. با این حال، وقتی تابع را اجرا میکنم، «NaN» را برای مقدار p آزمون مجذور کای برمیگرداند. در تنظیمات من، بردار داده های شمارش با 75 عنصر دارم. > library(vcd) > شمارش <- c(32، 35، 44، 35، 41، 33، 42، 49، 36، 41، 42، 45، 38، 43، 36، 35، 40، 40، 43، 34 ، 39، 31، 40، 39، 36، 37، 37، 37، 32، 48، 41، 32، 37، 36، 49، 37، 41، 36، 34، 37، 41، 32، 36، 36، 30، 33، 33، 42، 39، 36، 29، 31، 41، 36، 39، 40، 37، 39، 39، 31، 39، 37، 40، 33، 41، 34، 46، 35، 41، 44، 38، 44، 34، 42) > test.gof <- goodfit( counts، type=binomial، + par=list(size=length(counts) prob=0.5)) همه چیز به خوبی کار می کند، اما وقتی شی goodfit() را بررسی می کنم، موارد زیر را دریافت می کنم: > summary(test.gof) تست خوب بودن برازش برای توزیع دو جمله ای X^2 df P(> X^ 2) Pearson NaN 75 NaN Likelihood Ratio 21.48322 19 0.3107244 پیام هشدار: در summary.goodfit(test.gof): تقریب مجذور کای ممکن است نادرست باشد من در ابتدا مشکوک بودم که این یک مشکل با اندازه نمونه کوچک است، اما من همچنین مجموعه داده ای با 50 مشاهده دارم که NaN را برای مقدار p بر نمی گرداند. . من همچنین سعی کردهام روش goodfit() را با نتایج مشابه به ML تغییر دهم. چرا این تابع در این مورد «NaN» تولید می کند؟ آیا تابع جایگزینی برای محاسبه GOF بر روی داده های شمارش وجود دارد؟ | مقدار p NaN هنگام استفاده از مناسبت R در داده های دوجمله ای |
95944 | من با نتیجه پواسون و تفسیر نمایی برای تجزیه و تحلیل نیاز قطعات یدکی اشتباه گرفته ام. من سعی می کنم تعداد قطعات یدکی مورد نیاز را برای یک اقلام حذف و تعویض یکبار مصرف محاسبه کنم. از یک پرونده واقعی؛ اگر: 1. دوره گارانتی برای یک قطعه $t=400 ساعت $ باشد. 2. **نرخ خرابی ثابت** برای قطعه $\lambda=0,003534$ 1/ساعت است بنابراین میانگین زمان خرابی $MTTF=1/ \lambda=283{\rm hours}$، اگر من از توزیع پواسون برای محاسبه تعداد یدکی مورد نیاز استفاده کنم تا 400 ساعت برای این مورد کمبود نداشته باشیم. قطعه با حداقل احتمال 95 درصد، محلول 4 قطعه زاپاس است. (دلیل این است: مقدار x اول که زیر نابرابری 4 را برآورده می کند. $$ {P(x=0)\lor P(x=1)\lor P(x=2)\lor P(x=3)\lor P(x=4) }>0,95 $$ ) با این حال به طور منطقی $MTTF$ می گوید که میانگین زمان بین رویدادهای شکست 283 ساعت خواهد بود، بنابراین حتی قطعه در ساعت 1 از کار می افتد، سپس من به 1 نیاز دارم. قطعه یدکی بنابراین در این مرحله من بسیار گیج هستم زیرا 1 و 4 بسیار متفاوت هستند و عواقب بسیار جدی دارند. (هزینه، رضایت مشتری و غیره) من همچنین نمودار قابلیت اطمینان را برای این قسمت داشتم. (${\rm Reliability}=e^{-\lambda(t)}$) مشاهده نمودار نیز کمکی به من نکرد! لطفا توضیح دهید منطق من کجا و چرا شکست می خورد؟ فکر می کنم با درک ماهیت واقعی توزیع نمایی و معنای نرخ شکست یا MTTF مشکل دارم.  | نتیجه پواسون و تفسیر نمایی برای تجزیه و تحلیل نیاز قطعات یدکی |
85638 | من در دانشگاهم ML انجام می دهم و استاد اصطلاح انتظار (E) را ذکر کرد، در حالی که سعی داشت مواردی را در مورد فرآیندهای گاوسی برای ما توضیح دهد. اما از نحوه توضیح او فهمیدم که E همان میانگین μ است. درست متوجه شدم؟ اگر یکسان است، پس می دانید چرا هر دو علامت استفاده می شود؟ همچنین دیدم که E را می توان به عنوان یک تابع، مانند E($x^2$) استفاده کرد، اما من آن را برای μ ندیدم. آیا کسی می تواند به من کمک کند تا تفاوت بین این دو را بهتر درک کنم؟ | آیا توقع همان حد است؟ |
85633 | فکر می کنم این سوال نسبتاً ساده است اما هنوز نتوانسته ام راهی پیدا کنم. من یک سیگنال دارم که با 256 اندازه گیری (ممکن است 1024 هم باشد) در زنده نمونه برداری می کنم. سیگنال معمولاً به مربعی مانند این نزدیک می شود:  هدف من این است که تشخیص دهم چه زمانی سیگنال شروع به مربع نبودن می کند و تبدیل به یک نمایه Shark Fin مانند این:  در حالت ایده آل، من یک تابع دارم (فیلتر؟) که الگوی باله کوسه را مقایسه می کند و سیگنال اندازه گیری شده و یک مقدار (به عنوان مثال بر حسب %) ) برای بیان بله یا خیر، پتنت در سیگنال موجود است یا نیست (با درصد مشخصی از شباهت). دامنه و فرکانس سیگنال متغیر است که استفاده از فیلتر همسان را غیرممکن میکند (اگر اشتباه میکنم لطفاً اصلاح کنید). من معتقدم که باید به Wavelet Transform نگاه کنم، اما نتوانستم بفهمم این چگونه کار می کند. می توانید به من توضیح دهید که چگونه این تشخیص الگو را در سیگنال خود اعمال کنم؟ من زبان یا پلتفرمی را که الگوریتم در آن اجرا شود، تعیین نکردهام. اولین قدم این است که بفهمید الگوی چگونه کار می کند. از کمک شما متشکرم. | الگو را در سیگنال پیدا کنید - فرکانس و دامنه متغیر |
10055 | من جدولی دارم که میخواهم آن را به نمودار تبدیل کنم (گراف میلهای یا نمودار خطی) ستون اول مقادیر ثابتی دارد. بیست مقدار مختلف برای این مقادیر ثابت شبیه سازی شده و در ستون های بعدی نگهداری می شوند. من می خواهم نموداری از ستون ثابت را در برابر تمام بیست ستون مختلف شبیه سازی شده رسم کنم. چگونه در مورد آن اقدام کنم؟ من از R2.12.1 استفاده می کنم > نام جدول:bygrace V1 V2 V3 V4 V5 100 16 11 -6 1 120 -17 -12 7 -2 140 18 13 -8 3 150 -19 -14 9 -4 210 20 15 -10 - 5 مقدار برای V1 عبارتند از: 100،120،140 V2:16,-17,18,-19,20 V3:11,-12,13,-14,15 V4:-6,7,-8,9,10 V5.1,-2,3,-4 ,-5 در واقع، جدول من شبیه جدول بالا است. ستون اول V1 نشان دهنده حق بیمه های پرداخت شده توسط یک شرکت بیمه است، مثلاً در سال گذشته (برای 5 بیمه گذار/بیمه نامه) پس از تجزیه و تحلیل انتقادی پرتفوی، شرکت تصمیم می گیرد مبلغ حق بیمه را برای برخی از مشتریان افزایش یا کاهش دهد. با این حال، شرکت دقیقاً نمی داند که چقدر باید حق بیمه را کاهش دهد، از ترس اینکه مشتریان خود را از دست بدهد. به همین دلیل، چهار سناریو/شبیه سازی مختلف در نظر گرفته شده است که به ترتیب توسط چهار ستون بعدی (V2 تا V5) نشان داده می شوند. اکنون وظیفه این است که مقادیر حق بیمه را در V1 در برابر این چهار سناریو مختلف ترسیم کنیم (نوار نمودار یا نمودار خط، من فکر می کنم نوار بهتر خواهد بود). و سوال من این است که آیا می توان این کار را در یک گراف / یکباره انجام داد؟ اگر بله، چگونه باید در مورد آن اقدام کنم؟ یا باید حق بیمه را در مقابل هر ستون جداگانه ترسیم کنم؟ در واقع تمام دیروز و امروز را صرف این کار کرده ام اما نتوانسته ام به نتیجه مطلوب برسم. یکی به من جواب داد تا تلاش کنم. و من این کار را انجام می دهم زیرا ایده ای به من داده است و من از او بسیار سپاسگزارم! با تشکر فراوان از همه برای کمک آنها Owusu Isaac | نحوه تبدیل جدول به نمودار در R |
44264 | من مجموعه ای از داده ها را دارم که در آن برای هر نقطه جدید $x$ باید بدانم با توجه به داده های گذشته، این نقطه چقدر محتمل است. من می توانم فرض کنم که داده ها از یک مدل خطی پیروی می کنند. می دانم که می توانم یک رگرسیون خطی ساده پیدا کنم و از $ \sigma^2 = \frac{1}{N-2}\sum{e_i^2} $ برای بدست آوردن واریانس عبارت خطا استفاده کنم. سپس از آن توزیع نرمال برای یافتن احتمال ارزش x$ جدید من استفاده کنید. اکنون مسئله دشوار پیش میآید: اما اگر نتوانم فرض کنم که مدل درست است و نیاز به ترکیب عدم قطعیت در شیب و قطع وجود دارد، چه؟ | احتمال x داده های گذشته و فرض مدل خطی |
112827 | من به دنبال توصیه هایی در مورد اینکه آیا بهتر است از انحراف استاندارد نمونه (SD) برای توزیع دوجمله ای استفاده شود یا از SD تحلیلی (یا واریانس) استفاده شود، بوده ام. این برای آزمایشهایی با دادههای دقت است، بنابراین هر آزمودنی چندین پاسخ دوجملهای (درست یا نادرست) ارائه میکند که منجر به نمره دقت بین 0 تا 1 (Ncorrect / Ntotal) میشود. من میانگین را در بین موضوعات دریافت می کنم. با فرض اینکه هرکدام به همان میزان مشارکت داشته باشند، آیا باید از SD نمونه نمرات دقت فردی استفاده کنم یا از معادله تحلیلی استفاده کنم («sqrt(pq/n») که در آن «n» تعداد پاسخ ها / موضوع است)؟ این یک پرس و جو فقط برای اهداف توصیفی است. من میتوانم از یک رگرسیون لجستیک چند سطحی برای مدلسازی استفاده کنم، اما فقط به دنبال توصیفهای ساده هستم. **مثال:** هر آزمودنی 20 بار تلاش می کند و 6 موضوع با دقت 0.95، 0.80، 0.80، 0.65، 0.90، 0.70 وجود دارد. میانگین دقت 0.8 خواهد بود و بنابراین SD تحلیلی این دقت sqrt(0.8 * 0.2 / 20) = 0.089 است. با این حال، SD آن شش عدد محاسبه شده بر روی نمونه 0.114 است. کدام تخمین SD برای استفاده بهتر است؟ | انحراف معیار تحلیلی یا نمونه با داده های دوجمله ای |
44267 | من روی پیشبینی جنگل تصادفی با تمرکز بر اهمیت متغیرهای پیشبینیکننده کار میکنم و یک سوال در مورد درک mtry و استفاده واقعی از متغیرها در درختان جنگل تصادفی در R (بسته تصادفی جنگل) دارم. من یک نمونه با بیش از 1000 مشاهده و یک بردار پاسخ با طبقه بندی به 2 کلاس دارم: 0 و 1. من 4 متغیر مستقل دارم. برای آزمایش پارامترهای زیر را انتخاب کردم: rftry1=randomForest(x,y,xtest,ytest,mtry=4,ntree=500, اهمیت=TRUE,keep.forest=TRUE,do.trace=TRUE,replace=TRUE, keep.inbag=TRUE,proximity=TRUE) سپس بررسی میکنم که کدام متغیرها واقعاً در جنگل استفاده شدهاند و کاربرد بسیار ناهنجاری را پیدا میکنم: > varUsed(rftry1) [1] 2436 1758 1988 1156 استفاده در واقع به طور چشمگیری از متغیر اول تا چهارم کاهش می یابد. آیا واقعاً بر پیش بینی تأثیر می گذارد؟ چرا اینطوری میشه؟ سپس آزمایش را با mtry=2 دوباره اجرا کردم، و میزان استفاده به طور کلی کاهش یافته است، اما همچنان متناسب با استفاده از آزمایش اول است. MeanDecreaseAccuracy MeanDecreaseGini 1 0.006535855 2.177148 2 0.224706591 127.106268 3 0.006633846 5.020456 4 0.080175 فراوانی استفاده از متغیر در درختان بر اهمیت تغییر ترتیب اهمیت متغیرها تأثیر نمی گذارد. بنابراین 2 سوال اصلی من عبارتند از: 1) من حدس میزنم نمیدانم mtry دقیقاً چه کنترلهایی دارد (تعداد متغیرهای نمونهگیری شده در هر تقسیم را خواندهام). من متوجه شده ام که با mtry 2 و 4 برخی از متغیرها مجدداً در درخت استفاده شده اند، در حالی که با m=1 آنها استفاده نشده اند و درختان بسیار کوتاه تر بودند. آیا وقتی می گویم: mtry=2 به درستی متوجه می شوم به این معنی که در هر تقسیم به جای اینکه یک متغیر بعدی را به طور قطعی برای تقسیم بر روی آن انتخاب کنیم، به طور تصادفی از بین 2 انتخاب می کنیم؟ اگر من به طور کلی 4 متغیر دارم، و متغیر 1 برای اولین تقسیم استفاده شده است - انتخاب من برای تقسیم دختر چپ و دختر راست چیست؟ 2) آیا mtry به استفاده نامتعادل از متغیرها برای تقسیم مربوط است؟ چرا متغیرها به این شکل استفاده میشوند و آیا بر نتیجه پیشبینی تأثیر میگذارد تا سوگیری شود؟ همه متغیرهای من به صورت فاکتورهایی هستند که 3 دارای 2 سطح و یکی دارای 3 سطح است. ممنون از پاسخ های شما! | متری و استفاده نامتعادل از متغیرهای پیش بینی در جنگل تصادفی |
112751 | ## سوال مقادیر گرفته شده از پنجره های مجاور در یک پنجره کشویی همبستگی دارند. اگر من یک مقدار p را از هر پنجره محاسبه کنم، چگونه می توانم این واقعیت را که بسیاری از ویندوزها را آزمایش کرده ام، با توجه به اینکه ویندوزها مستقل نیستند، تصحیح کنم؟ ## جزئیات من نقاط دادهای دارم (توالیبندی موقعیتهای شروع خواندن) که میتوانند هر یک از مجموعه محدودی از مقادیر مشخص (موقعیتهای ژنومی در یک ژن) را بگیرند. تعداد نقاط داده ای که یک مقدار معین را می گیرند به وضوح به صورت دوجمله ای توزیع می شوند: $$ X_i \sim B(n,1/L) $$ که در آن n تعداد نقاط داده در کل (تعداد خوانده شده) و L تعداد مقادیری که هر کدام می توانند بگیرند (یعنی طول ژن). بنابراین احتمال دریافت $x$ یا بیشتر از یک نقطه شروع می شود: $$ P(X_i \geq x) = 1 - P(X_i \leq x-1) $$ و احتمال اینکه هر موقعیتی در ژن تعداد خوانده شده یا بیشتر آن $ P(X \geq x) \times L $ است. اکنون وضعیتی را در نظر بگیرید که در آن تعداد نقاط داده ای که در پنجره ای از موقعیت ها قرار می گیرند، علاقه مندیم. تعداد خواندهها در یک پنجره مشخص به وضوح توزیع میشود: $$ W_i \sim B(n,s/L) $$ که در آن s اندازه پنجره است. ما به راحتی میتوانیم این احتمال را محاسبه کنیم که هر پنجره داده شده x$ یا بیشتر خوانده شود. اما احتمال اینکه پنجره _any_ $x$ یا بیشتر خوانده شود چقدر است. ما نمیتوانیم به سادگی در تعداد پنجرهها ($L-s)$ ضرب کنیم زیرا پنجرهها مستقل نیستند و این به سرعت به مقادیر p بزرگتر از یک منجر میشود. بنابراین سوال من این است که چگونه احتمال اینکه هر پنجره با اندازه $s$ حاوی $x$ یا بیشتر باشد را محاسبه کنم؟ | تصحیح برای تست های متعدد بر روی پنجره های کشویی غیر مستقل |
5092 | من یک تازه کار در آمار هستم، بنابراین اگر سوالی در مورد مرگ مغزی می پرسم پیشاپیش عذرخواهی می کنم. من برای پاسخ به سؤالم جستجو کردم، اما متوجه شدم که بسیاری از موضوعات یا خیلی خاص هستند، یا به سرعت فراتر از آن چیزی هستند که من در حال حاضر درک می کنم. من چند کار شبیه سازی دارم که شامل مجموعه داده های بزرگی است که شبیه سازی کامل آنها غیرممکن است. برای کوچکترین مجموعه داده من، یک اجرای جامع، توزیع زیر را از نتایج از مجموع 9180900 آزمایش ارائه می کند. نتیجه/فرکانس: * 0 7183804 * 1 1887089 * 2 105296 * 3 4571 * 4 140 اعداد _معنی_ مهم نیست. آنچه مهم است این است که مجموعه دادههای بزرگتری که دارم میتواند به میلیاردها آزمایش کشیده شود و اجرای آن بسیار زمانبر باشد. من باید حجم کار را محدود کنم. من احساس میکنم باید بتوانم از مجموعه کامل آزمایشها نمونهبرداری کنم تا توزیعی را برای نمونه به دست بیاورم، و استنباط کنم (در برخی محدودهها) که نتایج یک شبیهسازی جامع تقریباً همان توزیع را نشان میدهد. هیچ سوگیری ذاتی در آزمایشهایی که اجرا میشوند وجود ندارد، بنابراین انتخاب تصادفی یکنواخت ورودیها باید یک نمونه معتبر ارائه کند. چیزی که من هنوز نمی فهمم این است که چگونه باید اندازه نمونه خود را انتخاب کنم. به ویژه، توزیع دنباله عجیبی از خود نشان می دهد، و من می ترسم که نمونه برداری خیلی کوچک فرکانس های پایین تر را از دست بدهد. (140 رخداد 4 فقط 0.0015٪ از جمعیت را تشکیل می دهند!) بنابراین، سوال من این است که بهترین راه برای محاسبه حجم نمونه که با آن بتوانم سطح خوبی را در نتایج خود ابراز کنم، چیست؟ یا اینکه سوال اشتباهی میپرسم؟ | چگونه می توان حجم نمونه را برای شبیه سازی محاسبه کرد تا سطح خوبی را در نتایج خود اثبات کنم؟ |
44261 | با توجه به * یک مجموعه داده با نمونههای $x_i$ همراه با کلاسهای $N$ که در آن هر نمونه $x_i$ دقیقاً به یک کلاس $y_i$ تعلق دارد * یک طبقهبندی کننده چند کلاسه پس از آموزش و آزمایش، من اساساً یک جدول با کلاس _true_ $y_i$ دارم. و کلاس _predicted_ $a_i$ برای هر نمونه $x_i$ در مجموعه تست. بنابراین برای هر نمونه من یک تطابق ($y_i= a_i$) یا یک خطا ($y_i\neq a_i$) دارم. چگونه می توانم کیفیت مسابقه را ارزیابی کنم؟ مسئله این است که برخی از کلاس ها می توانند اعضای زیادی داشته باشند، یعنی نمونه های زیادی به آن تعلق دارند. بدیهی است که اگر 50٪ از تمام نقاط داده متعلق به یک کلاس باشد و طبقه بندی نهایی من در کل 50٪ درست باشد، من چیزی به دست نیاورده ام. من میتوانستم یک طبقهبندیکننده بیاهمیت بسازم که بزرگترین کلاس را بدون توجه به ورودی آن خروجی میدهد. آیا روش استانداردی برای تخمین کیفیت طبقهبندیکننده بر اساس نتایج مجموعه تستهای شناخته شده مسابقات و بازدیدها برای هر کلاس وجود دارد؟ شاید حتی مهم باشد که نرخ تطبیق را برای هر کلاس خاص تشخیص دهیم؟ ساده ترین رویکردی که می توانم به آن فکر کنم این است که مطابقت های صحیح بزرگترین کلاس را حذف کنم. دیگه چی؟ | نحوه تعیین کیفیت یک طبقه بندی کننده چند کلاسه |
4491 | من از کد زیر برای درج خطوط عمودی در نمودار سری زمانی استفاده می کنم: abline(v=as.Date(2007-09-19),col=red,lty=2) abline(v=as.Date (2008-03-10),col=red,lty=2) abline(v=as.Date(2008-04-28),col=red,lty=2) abline(v=as.Date(2009-08-07),col=red,lty=2) اما من ترجیح می دهم مثلث کوچکی که در محور پایین به سمت بالا باشد، همراه با یک برچسب را ترجیح می دهم. نکات؟ | قرار دادن فلش های کوچک (مثلث) در محور پایین به سمت بالا با R |
113193 | من به دنبال مدل سازی تعداد تونل های مرتفع در مزارع با 13 عامل دیگر هستم. عوامل عبارتند از: عرض جغرافیایی، درصد جمعیت با دسترسی به غذا، درصد هکتار از سبزیجات در هر شهرستان، نزدیکی به ساحل، درصد فروش مستقیم، درصد مزارع با برنامه CSA، درصد فروش مستقیم و غیره و غیره. به من گفته شده است که از توزیع و کنترل پواسون برای باقیمانده ها استفاده کنید، اما نتایج عالی نیستند. آیا از مدل صحیح استفاده می کنم؟ این مدل برای توصیف شرایط اطراف تونل های مرتفع در نظر گرفته شده است نه اینکه لزوماً محل قرارگیری آنها را پیش بینی کند. در حال حاضر ضریب پراکندگی بیش از حد من حدود 6.2 است ... آیا می توان آن را بهبود بخشید؟ | آیا من از مدل صحیح استفاده می کنم، اگر چنین است چه چیزی را باید تعمیر کنم؟ |
10051 | من به دنبال نسخه ای با اندازه گیری های مکرر از تست Logrank هستم. اگر درست گفته باشم، من به دنبال معادلی از آزمون فریدمن برای داده های بقا هستم. پیشنهادی در مورد کجا نگاه کردن دارید؟ (و کد R همیشه مورد استقبال قرار خواهد گرفت :) ) با تشکر. | آیا نسخه آگاه از اندازه گیری های مکرر از آزمون لوگرانک وجود دارد؟ |
84323 | من یک داده پانل (21 سال) دارم و سعی می کنم بفهمم که آیا باید از طراحی ناپیوستگی رگرسیون (RDD) استفاده کنم یا از یکپارچگی پانل. من یک تصادفی در متغیر انتساب دارم و بنابراین هیچ مشکلی با استفاده از RDD ندارم. من می توانم علیت (اثر درمان متوسط محلی) را بررسی کنم. سؤالات من این است: اول، چرا باید از RDD بر روی همجمعی پانل استفاده کرد. دوم اینکه چگونه می توان علیت از RDD را با علیت گرنجر ناشی از هم انباشتگی پانل مرتبط کرد (با فرض اینکه هم انباشتگی وجود دارد و بنابراین تخمین مدل تصحیح خطای برداری امکان پذیر است). تا جایی که من متوجه شدم، وقتی متغیر انتساب دارید و آن متغیر تصادفی است، همیشه از RDD استفاده می کنید (البته می توان از هم انباشتگی پانل استفاده کرد)، اما اگر متغیر انتساب ندارید و آن متغیر تصادفی نیست یا اگر شما یک متغیر انتساب ندارید، سپس با هم ادغام پنل ادامه می دهید. اگر بتوانید به من اطلاع دهید که آیا درک من درست است یا خیر، بسیار ممنون می شوم. لطفا در صورت امکان مقالات را معرفی کنید. توجه داشته باشید که متغیر وابسته من در فرم رشد (مثلاً رشد ثروت) در RDD است، اما اگر مجبور باشم از هم انباشتگی پانل استفاده کنم، برای بلندمدت متغیر وابسته به شکل سطح و برای کوتاه مدت در فرم رشد خواهم داشت. مثال: فرض کنید من یک متغیر باینری (treat) دارم و متغیر وابسته y است. دو رویکرد متفاوت در RDD وجود دارد: رویکرد غیر پارامتری و پارامتری. در رویکرد پارامتریک از تمامی مشاهدات استفاده می کنیم و سپس ضریب روی درمان را اثر علی می نامند (از سایر متغیرهای کنترلی نیز می توانیم استفاده کنیم). در رویکرد هم انباشتگی، ما از تمام مشاهدات استفاده می کنیم و می توانیم رابطه بلندمدت بین درمان و y (به علاوه سایر متغیرها) را بررسی کنیم. با این حال، نگرانی در اینجا این است که رفتار متغیر باینری است در حالی که سایر متغیرها (متغیرهای وابسته و کنترل) پیوسته هستند. من همه متغیرهای پیوسته را آزمایش کردم و متوجه شدم که از مرتبه 1 یکپارچه شده اند. معنی داره؟. این قبل از تصمیم به استفاده از هم انباشتگی مهم است زیرا باید همه متغیرها از مرتبه 1 ادغام شوند. چگونه می توانم نتایج هم انباشتگی و RDD را مقایسه کنم؟ | طراحی ناپیوستگی رگرسیون در مقابل هم ادغام پانل |
5327 | دانش من (بسیار ابتدایی) از مدل رگرسیون توبیت، آنطور که ترجیح میدهم، از یک کلاس نیست. در عوض، من تکههایی از اطلاعات را از طریق چندین جستجوی اینترنتی از اینجا و آنجا جمعآوری کردهام. بهترین حدس من در مفروضات رگرسیون کوتاه این است که آنها بسیار شبیه فرضیات حداقل مربعات معمولی (OLS) هستند. من هیچ ایده ای ندارم که آیا این درست است، هر چند. از این رو سؤال من: _ مفروضاتی که باید هنگام انجام رگرسیون توبیت بررسی کنم، چیست؟_ _**نکته:_** _شکل اصلی این سوال به رگرسیون کوتاه اشاره داشت، که مدلی که من استفاده می کردم یا درباره آن سوال می کردم نبود. من سوال رو اصلاح کردم._ | مفروضات بکارگیری مدل رگرسیون توبیت چیست؟ |
5093 | من در حال حاضر روی یک روش پیشبینی مبتنی بر RandomForest با استفاده از دادههای توالی پروتئین کار میکنم. من دو مدل مدل اول (NF) را با استفاده از مجموعه ویژگی های استاندارد و مدل دوم (HF) با استفاده از ویژگی های ترکیبی تولید کرده ام. من ضریب همبستگی متیوز (MCC) و محاسبه دقت را انجام داده ام و نتایج زیر به شرح زیر است: ** مدل 1 (NF): دقت آموزش - 62.85% دقت تست - 56.38 MCC - 0.1673** **مدل 2 (HF): آموزش دقت - 60.34 دقت تست - 61.78 MCC - 0.1856** داده های تست یک مجموعه داده مستقل است (یعنی در داده های آموزشی گنجانده نشده است). از آنجایی که در دقت و MCC بین مدلها تعادل وجود دارد، در مورد قدرت پیشبینی مدلها سردرگم هستم. آیا می توانید نظرات خود را در مورد اینکه کدام مدل را برای تجزیه و تحلیل بیشتر در نظر بگیرم به اشتراک بگذارید؟ به غیر از Accuracy و MCC آیا معیار دیگری وجود دارد که باید برای اعتبارسنجی در نظر بگیرم؟ پیشاپیش ممنون | اعتبار سنجی آماری مدل های RandomForest |
86380 | من تا حدودی یک تنظیم اندازه گیری مکرر دارم اما می خواستم بررسی کنم که آیا آنووا یک طرفه اندازه گیری مکرر را می توان در اینجا اعمال کرد (با فرض اینکه مفروضات اساسی نرمال بودن، کروی بودن و غیره برآورده شوند). موقعیت: دادههای سری زمانی N آزمودنی که یک متغیر باینری (بله/خیر) را خود گزارش میدهند، و همچنین یک اندازهگیری پیوسته X را با هر گزارش خود ارائه میدهند. فرضیه: اندازه گیری X در روزهای دارای گزارش بله در مقایسه با روزهای دارای گزارش خیر متفاوت است. ایده تجزیه و تحلیل: برای هر موضوع به طور جداگانه میانگین X را برای روزهای بله و نه اندازه گیری کنید. X یک اندازه گیری مکرر برای هر موضوع است. یک ANOVA اندازه گیری مکرر یک طرفه را اجرا کنید. سوال اصلی من این است: اگر اندازه گیری مکرر به طور متوالی تکرار نشود (بله و نه روزها می توانند در هر ترتیبی باشند)، به نظر نمی رسد مهم باشد؟ | ANOVA اندازه گیری مکرر با تکرارهای غیر متوالی |
5097 | این ادامه سوالی است که قبلاً ارسال کردم. من در حال ارزیابی دو مدل RF هستم که با استفاده از دو مجموعه از ویژگیهای مختلف تولید میشوند > NF - Test_Accuracy > دقت آموزش (500 ویژگی) > > HF - Test_Accuracy < دقت آموزش (125 ویژگی) تست و آموزش با استفاده از مجموعههای دادههای مستقل و دقت از میانگین اعتبارسنجی 5 ضربدری به دست می آید. تفاوت بین مدل ها در تعداد امکانات است. من می ترسم که ممکن است در یکی از مدل ها بیش از حد برازش وجود داشته باشد (برای من مشخص نیست که کدام مدل می تواند بیش از حد برازش داشته باشد، زیرا من از مجموعه داده مستقل و اعتبارسنجی k-cross در مجموعه داده ها استفاده کرده ام). میخواهم بدانم روشهای استاندارد (ابزارها/کتابخانهها) که میتوانند برای ارزیابی اضافهبرازش مورد استفاده قرار گیرند، چیست. | چگونه می توان overfitting را ارزیابی کرد؟ |
85637 | من باید یک رگرسیون چندگانه سلسله مراتبی انجام دهم. دادههای من شامل یک متغیر وابسته پیوسته، 2 متغیر پیشبینیکننده پیوسته و یک IV مقولهای با 3 سطح است. باید ارزیابی کنم که آیا یک اثر متقابل بین هر یک از متغیرهای پیشبینیکننده پیوسته و IV طبقهای در پیشبینی DV من رخ میدهد یا خیر. خوانده ام که لازم است متغیرهای k-1 را با کد ساختگی با k تعداد سطوح در متغیر طبقه بندی کنیم، آیا این در مورد من درست است؟ اگر چنین است، من 2 متغیر ساختگی باینری خواهم داشت. آیا برای ایجاد عبارت تعامل، متغیر پیش بینی کننده x dummyvariable1 x dummyvariable2 را ضرب می کنم و این عبارت را در مدل وارد می کنم؟ یا آیا من 2 عبارت تعاملی ایجاد می کنم: 1 ایجاد شده با ضرب پیش بینی x dummyvariable 1 و دیگری با ضرب پیش بینی x dummyvariable2 و سپس هر دو عبارت را به طور همزمان در مدل وارد می کنم؟ من یک دانشجوی روانشناسی در مقطع کارشناسی هستم، بنابراین دانش زیادی از آمار ندارم و برای یافتن پاسخی برای این سوال در مطالعهام تلاش کردهام که بتوانم آن را درک کنم. من از SPSS استفاده خواهم کرد. هر کمکی واقعاً قابل قدردانی خواهد بود، حتی اگر بتوانید من را برای مطالعه راهنمایی کنید. با تشکر | تعامل رگرسیون چندگانه با طبقه IV با 3 سطح |
38524 | من نتایج کاملا متفاوتی از lmer() و lme() گرفتم! فقط به ضرایب std.errors نگاه کنید. در هر دو مورد کاملاً متفاوت است. چرا اینطور است و کدام مدل درست است؟ > mix1c = lmer(logInd ~ 0 + crit_i + Year:crit_i + (1 + Year|Taxon)، data = datai) > mix1d = lme(logInd ~ 0 + crit_i + Year:crit_i، تصادفی = ~ 1 + سال|Taxon , data = datai) > > summary(mix1d) مدل اثرات مختلط خطی متناسب با REML داده ها: datai AIC BIC logLik 4727.606 4799.598 -2351.803 اثرات تصادفی: فرمول: ~1 + سال | ساختار تاکسون: کلی مثبت-معین، پارامترسازی Log-Cholesky StdDev Corr (Intercept) 9.829727e-08 (Intr) Year 3.248182e-04 0.619 باقیمانده 4.933979e-01 اثرات ثابت: +00_ind. Std.Error DF t-value p-value crit_iA 29.053940 4.660176 99 6.234515 0.0000 crit_iF 0.184840 3.188341 99 0.05793900.057939 0.057974 crit_i. 5.464541 99 2.258301 0.0261 crit_iW 5.324854 5.152019 99 1.033547 0.3039 crit_iA:سال -0.012272 0.02583060.0202306 -0.012272 0.0258306 crit_iF:Year 0.002237 0.001598 2881 1.399542 0.1618 crit_iU:Year -0.003870 0.002739 2881 -1.412988 0.1578 -1.412988 0.1500Y. 0.002582 2881 -0.118278 0.9059 همبستگی: crit_A crit_F crit_U crit_W cr_A:Y cr_F:Y cr_U:Y crit_iF 0 crit_iU 0 0 crit_iW 0_1A:0Yrit crit_iF:سال 0 -1 0 0 0 crit_iU:سال 0 0 -1 0 0 0 crit_iW:سال 0 0 0 0 -1 0 0 0 باقیمانده درون گروهی استاندارد شده: حداقل Q1 Med Q3 حداکثر -6.9837049565305 -6.983704958 -305. 0.43356564 5.15742550 تعداد مشاهدات: 2987 تعداد گروه ها: 103 > خلاصه (mix1c) مدل خطی ترکیبی متناسب با REML فرمول: logInd ~ 0 + crit_i + Year:crit_i + (1 + سال | Taxon) داده: datai AIC BIC logLik انحراف REMLdev 2961 3033 -1469 2893 2937 اثرات تصادفی: نام گروه ها Variance Std.Dev. Corr Taxon (Intercept) 6.9112e+03 83.13360 Year 1.7582e-03 0.04193 -1.000 Residual 1.2239e-01 0.34985 تعداد obs: 2987، گروهها: Estimatex, Effects10 خطای t مقدار crit_iA 29.0539403 18.0295239 1.611 crit_iF 0.1848404 12.3352135 0.015 crit_iU 12.3405800 21.141.24904. 19.9323887 0.267 CRIT_IA: سال -0.0122717 0.0090916 -1.350 CRIT_IF: سال 0.0022365 0.0062202 0.360 CRIT_IU: سال -0.0038701 0.01066088 -0.363 crit_iW:Year -0.0003054 0.0100511 -0.030 همبستگی اثرات ثابت: crit_A crit_F crit_U crit_W cr_A:Y cr_F:Y cr_U:Y crit_iF 0.0000.00 crit_iW 0.000 0.000 0.000 crit_iA:Yer -1.000 0.000 0.000 0.000 crit_iF:Yer 0.000 -1.000 0.000 0.000 0.000 0.000 0.000 Yer 0.000 -1.000 0.000 0.000 0.000 crit_iW:Yer 0.000 0.000 0.000 -1.000 0.000 0.000 0.000 > | نتایج کاملاً متفاوت از lmer() و lme() |
5090 | بسته R dlm فیلتر کردن و صاف کردن ('dlmFilter' و 'dlmSmooth') را برای مدل هایی با اثرات رگرسیون پیاده سازی می کند، اما پیش بینی (هنوز) برای این مدل ها در دسترس نیست: mod <- dlmModSeas(4)+dlmModReg(cbind(rnorm(100) ),rnorm(100))) fi <- dlmFilter(rnorm(100),mod) f <- dlmForecast(fi,nAhead=12) خطا در dlmForecast(fi, nAhead = 12): dlmForecast فقط با مدل های ثابت کار می کند چگونه می توانم این کار را در R انجام دهم؟ با تشکر از کمک شما! | پیش بینی فضای حالت گاوسی با اثرات رگرسیون |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.