_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
79142 | من واقعاً از چند نکته در مورد بخش اول سؤال زیر سپاسگزارم: اجازه دهید $f_n, n\in \mathbb{N}$ دنباله ای از متغیرهای تصادفی iid بیش از $(\Omega, A,P)$ باشند. یعنی $P(\\{f_1 \in A\\})=P(\\{f_2 \in A\\})= ···$ برای همه $A \in \mathbb{B}$. اگر یک $c \in \Re$ وجود دارد، نشان دهید که $P\Bigg(\Bigg\\{\lim_{n \to \infty}\frac{1}{n}\sum\limits_{i= 1}^n f_i=c\Bigg\\}\Bigg) >0,$ سپس $P(\\{|f_n|>n$ برای بی نهایت $n\\})=0.$ سپس نتیجه بگیرید که $f_1$ (و بنابراین همچنین $f_2,f_3,..$ به دلیل توزیع یکسان) قابل ادغام است. | یکپارچگی دنباله ای از متغیرهای تصادفی iid |
52489 | من 3 مجموعه داده دارم و می خواهم بدانم از چه آزمایشی می توانم استفاده کنم تا بفهمم آیا آن مجموعه داده ها توزیع یکسانی دارند یا خیر. ویرایش 1: اگر از آزمونهای فرضیه برای نشان دادن تفاوتی بین میانگین و واریانس مجموعه دادهها استفاده کنم، آیا به این معنی است که توزیع یکسانی دارند؟ متشکرم. | چگونه می توانم بدانم که 3 مجموعه داده توزیع یکسان/متفاوت دارند؟ |
69406 | آیا کسی می تواند توضیح دهد که چگونه یک OLS ادغام شده تنظیم می شود، زمانی که رگرسیون ها متغیرهای کل هستند که فقط با زمان متغیر هستند (یعنی برای مقطع مقطعی در هر زمان _t_ تغییر نمی کنند)؟ اگر رگرسیون تلفیقی به صورت زیر بیان شود: $$\;Y_{i,t} = \;X_t \;\beta_i + \;\epsilon_{i,t} $$ بردار پاسخ $Y$ روی هم چیده میشود: به عبارت دیگر ، ما سری های زمانی هر $Y_i$ را روی هم قرار می دهیم تا فقط یک بردار پاسخ از ابعاد (TN x 1) تشکیل شود. رگرسیون X باید به طور مشابه روی هم چیده شود تا بردار بعد (TN x 1) به دست آید. مسئله اینجاست که X فقط با زمان متغیر است، به این معنی که بردار پشتهای «rep(X, N)» خواهد بود: یعنی همان بردار X N بار تکرار میشود. آیا اجرای OLS تلفیقی با چنین رگرسیور پشتهای معتبر است؟ ممنون | OLS ادغام شده با رگرسیورهای متغیر زمان |
13524 | هنگام تخمین خلفی از طریق MCMC، آیا دستورالعملهایی در مورد بهترین روش نمونهگیری بسته به ماهیت مدل وجود دارد؟ انواع مختلفی از MCMC وجود دارد - برای مثال نمونهگر گیبس، الگوریتم متروپلیس، و الگوریتم متروپلیس-هیستینگ. گیلکس و همکاران (1996) بحث خوبی در مورد تغییرات MCMC دارد. مورد خاص من شامل تخمین پسین با اختلاط بازده امنیتی نمونه مشاهده شده با مدل تعادل قبلی بازده امنیتی است. سری های بازگشتی اغلب ناهمگون هستند و همبستگی های مقطعی دارند و در سراسر رژیم های بازار ثابت نیستند. | روش نمونهگیری برای انتخاب در تخمین زنجیره مارکوف مونت کارلو |
43453 | من باید یک جدول داده های خام برای آزمایش علمی خود ایجاد کنم، اما مطمئن نیستم که سطح عدم قطعیت هنگام اندازه گیری روز چقدر خواهد بود. چگونه می توانم سطح عدم قطعیت را هنگام اندازه گیری یک دوره زمانی تعیین کنم؟ | سطح عدم قطعیت هنگام اندازه گیری یک دوره زمانی؟ |
4753 | من علاقه مند به یافتن چند تکنیک عملی (و به خوبی پذیرفته شده) برای یافتن عوامل اساسی یک ماتریس پراکنده هستم. به طور خاص، من یک ماتریس پراکنده بسیار بزرگ دارم که سلولهای آن از یک توزیع تقریباً هندسی پر شدهاند. در شکل طبیعی ماتریس مربع است. مقادیر موجود در سلولها نشاندهنده اتفاقات مورد x مورد در مورد 1 روی مورب و در مورد 2 در زیر قطر است. در صورت لزوم، می توانم ماتریس را به آیتم های بسیار جالبی زیر مجموعه کنم تا آن را مستطیلی کنم. من معتقدم که عوامل معناداری در زیربنای این ساختار وجود دارد. با این حال، درک من این است که چون ماتریس پراکنده است، تحلیل عاملی رویکرد مناسبی نیست. چه رویکردی می توانم اتخاذ کنم که به احتمال زیاد بتوانم الگوهای قابل تفسیر را در داده ها پیدا کنم؟ دیدم که سوال دیگری وجود دارد که در مورد انواع پراکنده PCA ارجاع میدهد، اما فکر میکنم به دنبال چیزی بیشتر شبیه به یک راهحل عامل چرخش مورب هستم. من مایلم تا حدودی به خواندن های پیشنهادی بپردازم، اما تجربه قبلی من با تحلیل عاملی (و تکنیک های مرتبط) محدود است، و ترجیح می دهم پاسخ نسبتاً ساده ای داشته باشم (یکی با کد R حتی بهتر است). | چگونه می توان عوامل معنادار را از یک ماتریس پراکنده استخراج کرد؟ |
13521 | من در حال حاضر در حال تجزیه و تحلیل یک مجموعه داده متشکل از زوج های مدیر- زیردست هستم. دادهها به صورت مقطعی جمعآوری شدند و مجموعه دادهها شامل برخی از متغیرهای یکسان جمعآوریشده از هر دو عضو زوج (مانند سن، مدت تصدی رابطه، اعتماد بینفردی) و همچنین برخی از متغیرهای منحصربهفرد برای هر عضو است. متأسفانه تعداد زیادی شرکت کننده دارم که شرکایشان نظرسنجی هایشان را پر نکرده اند. می خواستم بدانم که آیا این موارد جفت نشده می تواند در تحلیل من مفید باشد؟ به عنوان مثال، هنگام انجام یک EFA یا CFA در مقیاس، آیا میتوانم همه مدیران (از جمله افراد جفت نشده) را شامل شود یا این روش بد است زیرا افراد جفت نشده بخشی از تحلیلهای رگرسیون و/یا مسیر من نخواهند بود؟ من در حال مطالعه تجزیه و تحلیل داده های Dyadic توسط David A. Kenny و همکاران هستم، اما تاکنون نتوانسته ام پاسخی برای این سوال پیدا کنم. | آیا هنگام تجزیه و تحلیل داده های دوتایی، می توان از موارد جفت نشده در هر بخشی از تجزیه و تحلیل استفاده کرد؟ |
20722 | در صورت وجود یک تعامل غیر قابل توجه بین X و M بر روی Y، آیا سرکوب کردن وقفه در نمودار که رابطه بین X و Y را نشان می دهد (که X معنی دار است) صحیح است. خط تعدیل کننده در این مورد از مبدأ عبور می کند و هر سطح از عامل (M) را در صفر نشان می دهد (یعنی مرد و زن برای جنسیت). SPSS این گزینه را تحت پراکندگی پراکنده فراهم می کند. | آیا سرکوب کردن وقفه در نمودار رگرسیون مناسب است؟ |
43455 | همانطور که در این موضوع تعریف شده است. کسی میدونه چجوری انجامش بدم؟ | استخراج راه حل کمند شکل بسته: شرایط بهینه KKT |
19772 | لطفاً کسی می تواند به من بگوید که چگونه می توان R نقطه شکست را در یک مدل خطی تکه ای (به عنوان یک پارامتر ثابت یا تصادفی) تخمین زد، در حالی که من همچنین نیاز به تخمین اثرات تصادفی دیگر دارم؟ من یک مثال اسباببازی را در زیر آوردهام که با رگرسیون یک چوب هاکی / چوب شکسته با واریانس شیب تصادفی و یک واریانس تصادفی قطع y برای نقطه شکست 4 مطابقت دارد. من میخواهم به جای تعیین نقطه شکست آن را تخمین بزنم. این می تواند یک اثر تصادفی (ترجیحا) یا یک اثر ثابت باشد. library(lme4) str(sleepstudy) #توابع پایه bp = 4 b1 <- تابع(x, bp) ifelse(x <bp, bp - x, 0) b2 <- تابع(x, bp) ifelse(x <bp, 0، x - bp) #مدل جلوههای مختلط با نقطه شکست = 4 (mod <- lmer(واکنش ~ b1(روز، bp) + b2(روزها، bp) + (b1(روزها، bp) + b2(روزها، bp) | موضوع)، داده = مطالعه خواب)) #نقشه با نقطه شکست = 4 xyplot( واکنش ~ روز | موضوع، مطالعه خواب، aspect = xy، layout = c(6,3)، type = c(g، p، r)، xlab = روزهای محرومیت از خواب، ylab = میانگین زمان واکنش (ms)، panel = function(x,y) { panel.points(x,y) panel.lmline(x,y) pred <- predict(lm(y ~ b1 (x، bp) + b2(x، bp))، newdata = data.frame(x = 0:9)) panel.lines(0:9، pred، lwd=1، lty=2, col=red) } ) خروجی: مدل خطی ترکیبی متناسب با فرمول REML: واکنش ~ b1(روز، bp) + b2(روز، bp) + (b1(روز، bp) + b2(روز، bp) | موضوع) داده ها: مطالعه خواب AIC BIC logLik انحراف REMLdev 1751 1783 -865.6 1744 1731 اثرات تصادفی: نام گروه ها Variance Std.Dev. موضوع Corr (Intercept) 1709.489 41.3460 b1 (روزها، bp) 90.238 9.4994 -0.797 b2 (روزها، bp) 59.348 7.7038 0.118 -0.008 0.118 -0.008 0.008 -0.008 0.008 - 0.063 تعداد 797 bp باقیمانده 180، گروه ها: موضوع، 18 اثرات ثابت: برآورد Std. مقدار خطای t (تقاطع) 289.725 10.350 27.994 b1 (روزها، bp) -8.781 2.721 -3.227 b2 (روزها، bp) 11.710 2.184 5.362 همبستگی b1 (در اثر ثابت) b1 (روز، bp) -0.761 b2(روز، bp) -0.054 0.181  | تخمین نقطه شکست در یک چوب شکسته / مدل خطی تکهای با افکتهای تصادفی در R [کد و خروجی شامل] |
52488 | من یک تابع $X$ دارم که lognormal است (0,1) و سپس تابع دیگری $\log Y = 4 + 2 \log(X) + \epsilon$ که در آن $\epsilon \sim \mathcal N(0,1) $ من می خواهم $E(Y|X)$ را به عنوان تخمینگر Rao Blackwellized تخمین بزنم. من سعی کردم مشکل را اینگونه امتحان کنم: Nsim <- 10000 x <- rlnorm(Nsim) z <- rnorm(Nsim,4+2*log(x),1) برآوردگر استاندارد مونتکارلو sum(epx(z)) خواهد بود. /Nsim من در مورد برآورد Rao Blackwellized سردرگم هستم. آیا فقط p <- 4+2 * log(x) sum(p)/Nsim خواهد بود | چگونه می توان تابع داده شده را با استفاده از رویکرد Rao Blackwellization تخمین زد؟ |
80178 | من می خواهم یک اندازه گیری نتیجه عملکردی را با درد مرتبط کنم. با این حال، معیار پیامد عملکردی شامل درد به عنوان یکی از 21 سوال آن است. بر اساس نحوه محاسبه اندازه گیری نتیجه، درد 5 درصد ارزش آن را تشکیل می دهد. آیا 5٪ به اندازه کافی کوچک است که یک همبستگی هنوز معتبر باشد؟ ضریب همبستگی حاصل 0.71 بود، که نشان میدهد بیش از 50 درصد تنوع در اندازهگیری نتیجه را میتوان با درد توضیح داد. از آنجایی که 50٪ بسیار بزرگتر از 5٪ است، آیا می توانم نتیجه بگیرم که همبستگی بین درد و نتیجه عملکردی بسیار بالاتر از مقداری است که از نظر ریاضی برای اندازه گیری نتیجه با استفاده از درد محاسبه می شود؟ | در یک همبستگی، جبران یک متغیر تابع دیگری است |
79149 | نقشه های خود سازماندهی چقدر از مشکلات حداقل محلی رنج می برند؟ من فرض میکنم که جهت اصلی شبکه میتواند جهتگیری اصلی روی شکل حاصل از شبکه داشته باشد، اما آیا این تأثیر زیادی بر تناسب دارد (مثلاً میانگین مربعات اختلاف از دادهها به نقاط شبکه اختصاصیافته)، یا تفاوتها نسبتاً کوچک هستند؟ | نقشه های خود سازماندهی چقدر از مشکلات حداقل محلی رنج می برند؟ |
101526 | برای پایان نامه کارشناسی ارشدم می خواهم چندین آزمایش را تنظیم کنم. یکی از مواردی که استاد من از آن شکایت کرده است این است که اکثر آزمایشات علوم کامپیوتر از نظر علمی کمبود دارند. برای اینکه در این دام نیفتم، میخواهم آزمایشهایم را به درستی طراحی کنم. متأسفانه من نتوانستم ادبیات زیادی در مورد طراحی آزمایش CS پیدا کنم. (به جز علوم کامپیوتر تجربی: نیاز به تغییر فرهنگی D. Feitelson که در اینجا موجود است که بیشتر جذاب است تا یک راهنما.) به یاد دارم که در آمار مردم اغلب از فرضیه H_0 و H_1 همراه با نوع I و خطای نوع دوم من نمی دانم که آیا این در زمینه علوم کامپیوتر قابل اجرا است؟ یک مثال سریع که می توانم به آن فکر کنم: > H_0: هر دو روش خروجی یکسانی را در این سناریو ایجاد می کنند > > H_1: یک روش خروجی بدتری در این سناریو ایجاد می کند (بدتر: بر اساس > متریک X) اما پس چگونه می توانم مقدار را محاسبه کنم. خطاهای نوع اول و دوم؟ در یک معیار سرعت میتوانم آزمایشها را چندین بار اجرا کنم و سپس احتمالاً محاسبه کنم که چقدر احتمال دارد که نتیجه معیار هنوز اشتباه باشد. با این حال اغلب من فقط می خواهم خروجی دو روش قطعی را مقایسه کنم. اندازه گیری کیفیت بر اساس یک معیار خاص. این نتیجه با اجرای چندین بار آزمایش تغییر نمی کند. اونوقت چیکار کنم؟ آیا رویکرد فرضیه صفر برای این نوع آزمایش ها مناسب نیست؟ | طراحی آزمایش های علوم کامپیوتر (فرضیه ها و خطاها؟) |
80173 | من یک رگرسیون خطی انجام داده ام. این شکل مدل است: متغیر پاسخ محدود (0-1) ~ فاکتور 1 (2 سطح) + فاکتور 2 (5 سطح) + تعامل بین فاکتور 1: عامل 2 + فاکتور 3 (2 سطح) حجم نمونه حدود 350 است. من نمودار را ترسیم کردم باقیمانده در برابر مقادیر پیش بینی شده از آن مدل:  همانطور که وجود دارد الگوی متمایز در باقیمانده ها، به نظر می رسد رگرسیون خطی مدل مناسبی نیست. من اخیرا چندین رگرسیون خطی دیگر را با داده های مختلف انجام داده ام و بارها این الگو را در باقیمانده ها دیده ام. آیا این الگو اطلاعاتی در مورد بهترین مدل برای استفاده ارائه می دهد؟ آیا باید اصطلاح تعامل اضافه شود؟ آیا یک پیش بینی گم شده است؟ آیا باید از مدل غیر خطی استفاده کرد؟ یا در عوض، آیا این الگوی خاص در باقیمانده ها در واقع هیچ شاخصی برای استفاده از چه مدلی ارائه نمی دهد؟ | الگوهای موجود در باقیمانده ها از رگرسیون خطی رسم می کنند: آیا آنها به ما می گویند از چه مدلی استفاده کنیم؟ |
80175 | من نمی دانم که آیا یک روش معمول برای تشخیص یک مدل خطی چند متغیره وجود دارد؟ به عنوان مثال: y <- rmvt(n=100، sigma=diag(3)، df=3) پاسخ # 3 به صورت t-dist x1 چند متغیره کروی <- rchisq(100, 2) # x1 به صورت مجذور کای x2 توزیع شده است. <- rt(100) # x2 به صورت t مناسب توزیع شده <- lm(as.matrix(y)~x1+x2) # با رگرسیون چند متغیره مطابقت دارد چگونه می توانید تشخیص دهید که آیا مدل به خوبی برازش شده است؟ | تشخیص مدل برای رگرسیون خطی چند متغیره |
17633 | من باید ماتریسهای تصادفی غیرمربع را با ردیفهای $R$ و ستونهای $C$ ایجاد کنم، عناصری که بهطور تصادفی با میانگین = 0 توزیع شدهاند، و به گونهای محدود شوند که طول (هنجار L2) هر سطر 1$ و طول هر ستون باشد. $\sqrt{\frac{R}{C}}$ است. به طور معادل، مجموع مقادیر مربع برای هر ردیف 1 و برای هر ستون $\frac{R}{C}$ است. تاکنون یک راه برای رسیدن به این هدف پیدا کردهام: به سادگی عناصر ماتریس را بهطور تصادفی مقداردهی اولیه کنید (به عنوان مثال از توزیع یکنواخت، نرمال یا لاپلاس با میانگین صفر و واریانس دلخواه)، سپس به طور متناوب سطرها و ستونها را به طول ${\rm} = نرمال کنید. 1$ که با عادی سازی ردیف به پایان می رسد. به نظر می رسد این مقدار نسبتاً سریع به نتیجه دلخواه همگرا می شود (به عنوان مثال برای $R=40$ و $C=80$، واریانس طول ستون معمولاً ~ $~0.00001$ پس از تکرار $2$ است)، اما من مطمئن نیستم که آیا من می تواند به طور کلی به این نرخ همگرایی سریع (برای ابعاد مختلف ماتریس و توزیع عناصر اولیه) بستگی داشته باشد. سوال من این است: آیا راهی برای رسیدن به نتیجه دلخواه وجود دارد (${\rm row \ lengths} = 1$, ${\rm column \ lengths} = \sqrt{\frac{R}{C}}$) مستقیماً بدون تکرار بین عادی سازی سطر/ستون؟ به عنوان مثال چیزی شبیه به الگوریتم عادی سازی یک بردار تصادفی (عناصر را به صورت تصادفی راه اندازی کنید، مجموع مقادیر مربع را اندازه بگیرید، سپس هر عنصر را با یک اسکالر مشترک مقیاس کنید). اگر نه، آیا یک توصیف ساده برای نرخ همگرایی (مثلاً تعداد تکرارها تا خطای $< \epsilon$) روش تکراری شرح داده شده در بالا وجود دارد؟ | ماتریس های تصادفی با محدودیت در طول سطر و ستون |
101520 | لطفاً کسی می تواند به من بگوید که شرایط نظم برای توزیع مجانبی آزمون نسبت درستنمایی چیست؟ هر جا را که نگاه می کنم نوشته شده است «تحت شرایط نظم» یا «تحت قواعد احتمالی». دقیقا شرایطش چیه؟ اینکه مشتقات لگ احتمال اول و دوم وجود دارد و ماتریس اطلاعات صفر نباشد؟ یا کلا چیز دیگری؟ | شرایط منظم برای آزمون نسبت درستنمایی چیست؟ |
52481 | در «سریهای زمانی کاربردی اقتصادسنجی» اندرز، بارها به مفهوم «سفارش مدل VAR» برخورد کردم و مطمئن نیستم که مفهوم را درست درک کرده باشم. تا آنجا که من متوجه شدم، این مفهوم به مشکل بازیابی $\epsilon$ واقعی معادلات ساختاری زیرین مربوط می شود. نگاه کردن به عنوان مثال در VAR زیر به شکل استاندارد: $y_t = a_{10} + a_{11}y_{t-1} + a_{12}z_{t-1} + e_{1t}$z_t $ = a_{20} + a_{21}y_{t-1} + a_{22}z_{t-1} + e_{2t}$ مشکل اینجاست که این دو خطا در واقع هستند ترکیبی از شوک های اساسی $\epsilon_{yt}$ و $\epsilon_{zt}$ معادلات ساختاری، که ما نمی دانیم. در اینجا، اندرز اشاره می کند که (...) اگر ضریب همبستگی بین $e_{1t}$ و $e_{2t}$ کم باشد، احتمالاً ترتیب مهم نیست، و بالعکس. مشکل من این است که مفهوم نظم دهی و چگونگی تأثیر آن بر مشکل شناسایی اختلالات در مدل ساختاری را درک نمی کنم. آیا منظور به ترتیب متغیرهای مستقل در VAR است؟ | سفارش در مدل های VAR |
77033 | من 20 عکس گرفته ام. هر عکس شامل یک نمونه موزه از یک پرنده و یک نمودار رنگی بود. در هر عکس، روشنایی قسمت خاصی از پرهای پرنده و روشنایی قسمت خاصی از نمودار رنگی را اندازه گرفتم. در هر عکس، مقدار نمودار رنگ باید 50 باشد. اما به دلیل تغییر شرایط نور از عکسی به عکس دیگر، مقادیر روشنایی نمودار رنگ گاهی زیر 50 و گاهی بالای 50 است. بنابراین، روشنایی پرهای پرنده باید بر این اساس تنظیم شود. چارچوب داده نمایشی از مقادیر روشنایی به دست آمده برای نمودار رنگی و مقادیر روشنایی به دست آمده برای پرهای پرنده است: set.seed(50) data.frame(brightness.colour.chart = c(sample(40:55, 20, جایگزین = T))، brightness.bird.plumage = نمونه (seq(1, 10, 0.1), 20)) brightness.colour.chart روشنایی.پرنده.پر 1 51 6.6 2 47 2.7 3 43 7.3 4 52 8.4 5 48 3.6 6 40 6.5 7 51 5.9 8 50 3.1 9 40 9.6 10 414 414 4.2 13 50 4.4 14 41 5.8 15 44 9.9 16 50 5.7 17 53 1.9 18 45 6.1 19 41 3.7 20 42 4.3 بهترین راه برای تنظیم مقدار روشنایی هر پرنده برای مقادیر ثابت plum عکس ها چیست؟ | چگونه مقادیر اندازه گیری شده را بسته به مقادیر کنترل تنظیم کنیم؟ |
73776 | آیا کسی میداند که آیا در زمینه مدلسازی موضوعی و تحلیل کلاسهای پنهان، اکتشافی وجود دارد که تعداد خوبی از کلاسهای پنهان را تعیین کند؟ | اکتشافی برای تعیین تعداد کلاس های نهفته |
13526 | من سعی می کنم یک نمودار حداقل، حداکثر، متوسط با خطوط افقی ایجاد کنم، که در آن محور عمودی نشان دهنده سال های سری است، چیزی شبیه به این نمودار در  من قبلاً دادههای نمودار را ایجاد کردهام، فقط نمیدانم چگونه ادامه دهم | ساخت نمودار افقی حداکثر-دقیقه میانگین در اکسل |
6195 | من این سوال را در سایت matemathics stackexchange پرسیدم و پیشنهاد شد اینجا بپرسم. من روی یک پروژه سرگرمی کار می کنم و برای مشکل زیر به کمک نیاز دارم. ### کمی زمینه بیایید بگوییم مجموعه ای از آیتم ها با توضیح ویژگی ها و قیمت وجود دارد. لیستی از ماشین ها و قیمت ها را تصور کنید. همه خودروها دارای لیستی از ویژگی ها هستند، به عنوان مثال. اندازه موتور، رنگ، قدرت اسب بخار، مدل، سال و غیره برای هر ساخت، چیزی شبیه به این: فورد: V8، سبز، دستی، 200 اسب بخار، 2007، 200 دلار V6، قرمز، اتوماتیک، 140 اسب بخار، 2010، 300 دلار V6، آبی، دستی , 140hp, 2005, 100$ ... از این هم فراتر می رویم، لیست خودروهای با قیمت با مدتی منتشر می شود- فاصله زمانی که به این معنی است که ما به داده های قیمت تاریخی دسترسی داریم. ممکن است همیشه دقیقاً همان خودروها را شامل نشود. ### مشکل من می خواهم بدانم که چگونه می توان قیمت هر خودرو را بر اساس این اطلاعات پایه مدل کرد، مهمتر از همه خودروهایی که در لیست اولیه نیستند. فورد، v6، قرمز، اتوماتیک، 130 اسب بخار، 2009 برای ماشین فوق، تقریباً مشابه یکی در لیست است، فقط از نظر قدرت اسب بخار و سال کمی متفاوت است. برای قیمت گذاری این، چه چیزی لازم است؟ _چیزی که من به دنبالش هستم چیزی عملی و ساده است، اما همچنین میخواهم درباره روشهای پیچیدهتر بشنوم که چگونه میتوان چنین چیزی را مدل کرد. : 1) استفاده از داده های تاریخی برای جستجوی ماشین X. اگر پیدا نشد، قیمتی وجود ندارد. البته این بسیار محدود است و تنها می توان از آن در ترکیب با مقداری کاهش زمان برای تغییر قیمت خودروهای شناخته شده در طول زمان استفاده کرد. 2) استفاده از طرح وزن دهی ویژگی های خودرو همراه با خودروی نمونه قیمت گذاری شده. اساساً قیمت پایه وجود دارد و ویژگی ها فقط با برخی عوامل آن را تغییر می دهند. بر این اساس قیمت هر خودرو به دست می آید. ثابت شد که اولی کافی نیست و دومی ثابت شد که همیشه درست نیست و شاید بهترین رویکرد را برای استفاده از وزنه ها نداشتم. به نظر می رسد این نیز برای حفظ وزن ها کمی سنگین باشد، بنابراین به همین دلیل فکر کردم که شاید راهی وجود داشته باشد که بتوان از داده های تاریخی به عنوان آمار به نحوی برای بدست آوردن وزن یا چیز دیگری استفاده کرد. فقط نمی دانم از کجا شروع کنم. ### سایر جنبه های مهم * در برخی از پروژه های نرم افزاری که دارم ادغام می شوند. یا با استفاده از کتابخانه های موجود یا الگوریتم نوشتن خودم. * هنگامی که داده های تاریخی جدید وارد می شوند، سریع محاسبه می شود. پیشاپیش بسیار متشکرم و مشتاقانه منتظر خواندن پیشنهادات شما هستم! | چگونه قیمت ها را مدل کنیم؟ |
17638 | من یک مدل تصادفی دارم که برای شبیه سازی سری های زمانی برخی از فرآیندها استفاده می شود. من به تأثیر تغییر یک پارامتر به یک مقدار خاص علاقه مند هستم و می خواهم تفاوت بین سری های زمانی (مثلا مدل A و مدل B) و نوعی فاصله اطمینان مبتنی بر شبیه سازی را نشان دهم. من به سادگی چندین شبیه سازی از مدل A و دسته ای از مدل B را اجرا می کنم و سپس میانه ها را در هر نقطه زمانی کم می کنم تا تفاوت میانه را در طول زمان بیابم. من از همین روش برای یافتن چندک های 2.5 و 97.5 استفاده کردم. این یک رویکرد بسیار محافظهکارانه به نظر میرسد، زیرا من هر سری زمانی را به طور مشترک در نظر نمیگیرم (به عنوان مثال، هر نقطه در زمانهای قبلی و آینده مستقل از بقیه در نظر گرفته میشود). آیا راه بهتری برای این کار وجود دارد؟ | فواصل اطمینان برای تفاوت در سری های زمانی |
45316 | من نمیدانم که آیا معادلی بین ماشینهای محدود شده بولتزمن و شبکههای مارکوف زوجی از نظر استنتاج MAP وجود دارد؟ به طور خاص، اجازه دهید $y \in \\{0,1\\}^m$ لایه خروجی/مرئی باشد و $h\in \\{0,1\\}^k$ لایه پنهان باشد. به طور خاص $k < n$ (ممکن است $\ll$ باشد.) تخمین MAP روی RBM ها را می توان به صورت \begin{equation} \text{arg}\max_{y \in \\{0,1\\}^ نوشت n ,h \\in \\{0,1\\}^k} y^T A h + u^t y + v^t h ~~~(1). \end{equation} برای برخی از $A، y، $ و $v$ داده شده است. اکنون، یک شبکه مارکوف زوجی را در نظر بگیرید که فقط روی $y$ تعریف شده است، جایی که استنتاج با \begin{equation} \text{arg}\max_{y \\\{0,1\\}^n} y^ داده میشود. T B y + w^t y ~~~(2)، \end{equation} برای برخی از $B$ و $w$ داده شده است. سوال من این است که با توجه به یک RBM با ماتریس $A$ و بردارهای $u$ و $v$، آیا $B$ و $w$ وجود دارد که (1) و (2) برای همان $y$ ماکزیمم شوند. ? اگر نه به طور کلی، آیا این تحت برخی شرایط درست است؟ آیا برعکس (یعنی با توجه به $B$ و $w$، با RBM معادل بدست می آید) با $k < n$ درست است؟ | ماشینهای محدود بولتزمن و شبکههای مارکوف: رابطه در استنتاج؟ |
80172 | من یک رگرسیون خطی چند متغیره انجام دادم به این صورت که: fit<-lm(as.matrix(y)~mwtkg+mbmi+mage,data=x) که $y$ یک نتایج چند متغیره 500$ \ برابر 26$ است. سپس، من در تعجب هستم که چگونه anova(fit) را توضیح دهم: > anova(fit) تجزیه و تحلیل جدول واریانس Df Pillai تقریباً F num Df den Df Pr(>F) (برق) 1 0.99959 63064 25 651 < 2.2e- 16 *** mwtkg 1 0.03506 1 25 651 0.5403 mbmi 1 0.20862 7 25 651 < 2.2e-16 *** mage 1 0.09016 3 25 651 4.567e-05 *** Residuals 675 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 سه مقدار Dfs، Pillai و P برای مدل چه معنایی دارند؟ | چگونه شی anova را برای یک رگرسیون خطی چند متغیره توضیح دهیم؟ |
46666 | من در این مورد تعجب می کنم. چه زمانی بهتر است از انتخابگر Dantzig (اندازه گیری خطای هنجار بی نهایت به اضافه تنظیم کننده L1)، LASSO (میانگین اندازه گیری خطای مربع به اضافه تنظیم کننده L1) و LAD LASSO (اندازه گیری خطای حاوی حداقل انحراف مطلق به اضافه L1) استفاده شود. تنظیم کننده)؟ برای روشن شدن مسائل، مسائل کمینه سازی حل شده در هر کدام را نقل قول می کنم: LASSO $$ \min_{\beta} \left| \mathbb{y} - \mathbb{X} \boldsymbol{\beta}\right|_2 + \lambda \left|\boldsymbol{\beta}\right|_1 $$ LAD - LASSO $$ \min_{\beta} \چپ| \mathbb{y} - \mathbb{X} \boldsymbol{\beta}\right|_1 + \lambda \left|\boldsymbol{\beta}\right|_1 $$ انتخابگر Dantzig $$ \min_{\beta} \ چپ| \mathbb{X}^T( \mathbb{y} - \mathbb{X} \boldsymbol{\beta})\right|_{\infty} + \lambda \left|\boldsymbol{\beta}\right|_1 $$ در اینجا $\mathbb{y}$ نشان دهنده مشاهدات است، $\mathbb{X}$ نشان دهنده توابع پایه برای هر مشاهده است. $\boldsymbol{\beta}$ ضرایب رگرسیون هستند. زیرنویس ها انتخاب هنجارهای مورد استفاده را نشان می دهد. $\lambda$ یک ضریب مثبت است که معمولاً توسط اعتبارسنجی متقاطع $n$ تعیین میشود. اگر معیاری وجود داشته باشد، آیا می توان این را از مجموعه داده تعیین کرد؟ ویرایش: فکر میکنم یک سوال معقولتر این است: تناسب به دست آمده از هر یک از این روشها چه ویژگیهایی دارد. به عنوان مثال، من به دنبال چیزی شبیه به این هستم که LAD-LASSO در مقایسه با LASSO نسبت به نقاط پرت حساسیت کمتری دارد. http://hansheng.gsm.pku.edu.cn/pdf/2007/LAD-Lasso.pdf همچنین لطفاً اگر می توانید منابعی را ارائه دهید. | انتخاب Dantzig، LASSO، LAD LASSO |
20721 | چگونه می توانم فراوانی کلمات موجود در مجموعه ای را که از توزیع zipfian پیروی می کنند، گسسته کنم؟ آیا روش های استاندارد وجود دارد؟ باید سطلهایی با اندازه افزایش نمایی ایجاد کند. هدف من تبدیل این فرکانس واقعی پیوسته به چند سطل برای ایجاد ویژگی های باینری در زمینه های تصادفی شرطی (CRF) است. من دوست دارم بتوانم به راحتی تعداد سطل/تقسیمات مورد نظر خود را تعریف کنم تا کم و بیش دقیق باشم. برای شفافتر شدن، فهرستی بهترتیب «freq» ایجاد کردهام که فراوانی و فراوانی تجمعی هر کلمه را در مجموعه مورد مطالعه به من میدهد: #1 word1 freq1 cumFreq1 #2 word2 freq2 cumFreq2 #3 ... سپس هنگام تولید ویژگیها در مجموعه آموزشی، برای هر wordx که میخواهم به آن قسمت ویژگی که به آن تعلق دارد اختصاص دهم یا یک برچسب «NOT_IN_DICTIONARY» اگر wordx هرگز نبود. در مجموعه مورد مطالعه یافت شد. من می خواهم سطل-برچسب هایی ایجاد کنم تا کلمات را با فرکانس مشابه گروه بندی کنند. | فرکانس کلماتی که به دنبال توزیع zipfian هستند را گسسته کنید |
20723 | من دو توزیع دو متغیره $A$ و $B$ دارم. برای برخی از مشاهدات جدید $x$، میخواهم احتمال تعلق آن به $A$ و نه $B$ را محاسبه کنم. من میتوانم فرض کنم که $A$ و $B$ توزیعهای نرمال دو متغیره هستند (اما اگر روشی وجود داشته باشد که فرض نمیکند که مایلم بدانم)، اما نمیتوانم ماتریسهای کوواریانس آنها را یکسان فرض کنم. تا کنون، من فاصله mahalanobis را از $x$ تا $A$ و از $x$ تا $B$ محاسبه کردهام، اما مطمئن نیستم از آنجا به کجا بروم. همچنین باید اشاره کنم که این کار را برای بسیاری از موضوعاتی که فاصله بین $A$ و $B$ برای آنها یکسان نخواهد بود انجام خواهم داد. اگر راهی برای در نظر گرفتن این مورد در هنگام ارزیابی $P(x\in A ~\wedge\نه B)$ وجود دارد، این نیز خوب است. | طبقه بندی مشاهدات جدید به دو دسته دو متغیره |
46669 | من به اثرات ترکیبی 12 پیشبینیکننده پیوسته/بازهای بر یک نتیجه دوتایی/دوجملهای علاقهمندم و بنابراین از رگرسیون لجستیک استفاده میکنم. ابتدا 12 رگرسیون لجستیک دو متغیره جداگانه را اجرا کردم. همه دارای B مثبت بودند. سپس زمانی که من رگرسیون لجستیک چندگانه (روش ورود) را اجرا کردم، برخی از این پیش بینی کننده ها اکنون به طور منفی با نتیجه مرتبط شده اند. من مطمئن نیستم که از این نتیجه چه کنم. آیا این غیرعادی است؟ وقتی این اتفاق می افتد این به چه معناست؟ خیلی ممنون برای هر راهنمایی! بانی | رگرسیون لجستیک باینری: جهت B در موارد متعدد نسبت به دو متغیره متفاوت است |
20093 | من اخیراً این ایمیل را از یک دانشجوی فارغ التحصیل دریافت کردم، و اغلب سؤالات مشابهی دریافت می کنم، که فکر کردم آن را در اینجا پست کنم: > من از تحلیل عاملی، رگرسیون چندگانه و SEM استفاده می کنم و در حال حاضر > فرضیات آماری را بررسی می کنم. من تعداد زیادی پرت تک متغیره و > چند متغیره پیدا کرده ام. اگر همه آنها را حذف کنم، به معنای یک قطعه بزرگ > از اندازه نمونه من است ($N \حدود 350$). من همچنین مشکلاتی با غیر نرمال بودن، غیرخطی بودن، ناهمسانی (رگرسیون چندگانه) و > کوواریانس های باقیمانده استاندارد شده بزرگ (SEM) دارم. > > من سعی کرده ام تأثیر نقاط پرت را کاهش دهم (به آنها یک مقدار > یک واحد بزرگتر/کوچکتر از افراطی ترین مقدار غیر پرت بعدی اختصاص دهم)، و > تبدیل ها (عمدتاً متغیرها اریب باقی مانده اند و برخی از نقاط پرت > باقی می مانند). وقتی نتایج اصلی را با دادههای تغییر یافته مقایسه میکنم، اثر > کمی وجود دارد. با توجه به این موضوع، نمیدانم که آیا میتوان دادهها را همانطور که هست رها کرد؟ من تمایل دارم، به ویژه به این دلیل که این داده ها از یک جمعیت > غیر بالینی است و من از اقدامات بالینی استفاده کرده ام. | آیا هنگام انجام مدلسازی معادلات ساختاری، دادهها را در مواجهه با موارد پرت و غیرعادی بدون تغییر رها کنیم؟ |
80177 | من یک متغیر پیش بینی کننده (ارتفاع آب بر حسب متر) و یک متغیر پاسخ (نرخ تغذیه پرندگان) دارم. رابطه بین آنها شبیه به آنچه در نمودار زیر نشان داده شده است به نظر می رسد. tidal_effect <- iris[,3:4] library(plyr); tidal_effect <- rename(tidal_effect, c(Petal.Length = feeding.rate، Petal.Width = water.height)) tidal_effect_extra <- data.frame(water.height = sample(seq(2.5 ، 3، 0.1)، 50، جایگزینی = T)، نرخ تغذیه = نمونه (دنباله (4، 4.5، 0.1)، 50، جایگزین = T)) tidal_effect_extra <- rbind(tidal_effect, tidal_effect_extra) library(ggplot2) ggplot(tidal_effect_extra, aes(water.height, feeding.rate)) + geom_point() + xlab. ارتفاع (متر)) ![توضیحات تصویر را وارد کنید اینجا] (http://i.stack.imgur.com/w9OyE.jpg) من در نظر دارم ارتفاع آب را به یک فاکتور سه سطح برش دهم. همانطور که در نمودار بالا مشاهده می شود، نقطه واضحی که در آن برای کاهش ارتفاع آب در حدود 0.7، 2.5 و 3 است، به این معنی که فاصله بین مقادیر حداقل/حداکثر در هر سطح از فاکتور برابر نیست. می توانم پیش بینی کننده را کاهش دهم. متغیری مانند این: tidal_effect_extra$water.height.cut <- cut(tidal_effect_extra$water.height, breaks = c(0, 0.7, 2.5, 3), labels = c(کم، متوسط، بالا)) و سپس این مدل را اجرا کنید: lm(feeding.rate ~ water.height.cut، tidal_effect_extra) سوال من: آیا مشکلی وجود دارد برش ارتفاع آب به گروه هایی که در آنها فاصله بین مقادیر حداقل/حداکثر در هر سطح از ضریب برابر نیست؟ | خوب است که متغیر پیوسته را به فواصل نامنظم برش دهیم؟ |
46668 | من در حال انجام یک طبقه بندی احساسات باینری (مثبت/منفی) با RapidMiner هستم. مشکل من اینه که حدود 400 مدرک مثبت و 1350 مدرک منفی دارم. من دقت بسیار خوبی دریافت می کنم اما بنابراین دقت و فراخوانی من برای کلاس مثبت حدود 60-70٪ است. آیا هیچ عملگر یا روشی وجود دارد که می تواند به من کمک کند تا فراخوانی/دقت بهتری (نمره f1) بدست بیاورم؟ فکر کردم Sample (Bootstrapping) می تواند به من کمک کند. اما این عملگر فقط کل مجموعه داده را به بالا یا پایین اندازه می دهد؟ | مشکل توزیع نابرابر طبقات در طبقه بندی احساسات |
20729 | وقتی سعی میکنید از بین مدلهای مختلف یا تعداد ویژگیهایی که باید شامل شوند، انتخاب کنید، مثلاً پیشبینی، میتوانم به دو رویکرد فکر کنم. 1. داده ها را به مجموعه های آموزشی و آزمایشی تقسیم کنید. بهتر است از بوت استرپینگ یا اعتبارسنجی متقاطع k-fold استفاده کنید. هر بار روی مجموعه آموزشی تمرین کنید و خطای مجموعه تست را محاسبه کنید. خطای آزمایش نمودار در برابر تعداد پارامترها. معمولاً چیزی شبیه این دریافت میکنید: 2. احتمال مدل را با ادغام کردن مقادیر پارامترها محاسبه کنید. به عنوان مثال، $\int_\theta P(D|\theta)P(\theta)d \theta$ را محاسبه کنید و آن را بر اساس تعداد پارامترها رسم کنید. سپس چیزی شبیه به این دریافت می کنیم: بنابراین سوالات من این است: 1. آیا این رویکردها برای حل این مشکل مناسب هستند (تصمیم گیری در مورد تعداد پارامترهایی که باید در مدل خود لحاظ کنید یا از بین تعدادی مدل انتخاب کنید)؟ 2. آیا آنها معادل هستند؟ احتمالا نه. آیا آنها با مفروضات خاص یا در عمل همان مدل بهینه را ارائه خواهند داد؟ 3. به غیر از تفاوت فلسفی معمول در تعیین دانش قبلی در مدل های بیزی و غیره، مزایا و معایب هر رویکرد چیست؟ کدام یک را انتخاب می کنید؟ **به روز رسانی:** من همچنین سوال مرتبط را در مورد مقایسه AIC و BIC پیدا کردم. به نظر می رسد که روش 1 من به طور مجانبی معادل AIC و روش 2 به طور مجانبی با BIC مرتبط است. اما من هم آنجا خواندم که BIC معادل Leave-One-Out CV است. این بدان معناست که حداقل خطای آموزشی و حداکثر درستنمایی بیزی معادل هستند که در آن LOO CV معادل K-fold CV است. یک مقاله شاید بسیار جالب یک نظریه مجانبی برای انتخاب مدل خطی توسط جون شائو به این مسائل مربوط می شود. | بهترین رویکرد برای انتخاب مدل بیزی یا اعتبار متقابل؟ |
48545 | من اولین کسی خواهم بود که اعتراف میکنم که احتمالاً در بالای سرم هستم اما... سعی میکنم یک رگرسیون گام به گام رو به جلو انجام دهم (با استفاده از SPSS 20). دارای 7 متغیر پیش بینی کننده (عوامل شامل موارد از یک نظرسنجی) و یک متغیر نتیجه که شامل مقادیر 43.07- تا 25.45+ است که در آن 0.0 بهترین مکان است. ENG نتیجه است (بنابراین تلاش برای یافتن عواملی که به بهترین شکل تعامل را پیشبینی میکنند) اما در مدل تعاملی که من استفاده میکنم، تعامل نتیجه تعادل بین چالش و ظرفیت است، بنابراین تفاوت بین چالش و ظرفیت امتیاز تعامل را به دست میدهد. انواع؛ تراز کامل 0.0 خواهد بود. چالش بیشتر از ظرفیت = اعداد مثبت. چالش کمتر از ظرفیت = اعداد منفی. جهتپذیری در مدل مهم است، زیرا دور شدن از تعامل (0.0) به سمت ارزشهای مثبت منجر به غرق شدن افراد میشود (چالش بیشتر از ظرفیت). راه دیگر کم استفاده است (چالش کمتر از ظرفیت). امیدوارم این منطقی باشد. | آیا متغیر نتیجه در رگرسیون گام به گام رو به جلو می تواند دارای اعداد منفی باشد؟ |
46663 | من یک سری زمانی ماهانه دارم که مدل رگرسیون سری زمانی شامل روند خطی و 11 متغیر ساختگی را برای فصلی بودن برای آن برازش داده ام. سپس، سریهای زمانی اصلی را در سطح فصلی جمعآوری کردم. سپس دوباره همان مدل را برای داده های فصلی با تمایل خطی و سه متغیر ساختگی برازش کردم. سوال این است: **چگونه می توان اهمیت روندهای تخمینی را در هر دو مدل و همچنین فصلی بودن مقایسه کرد؟** به یاد بیاورید که داده های پاسخ در هر دو مدل متفاوت است، اندازه داده ها متفاوت است و تعداد پارامترها نیز متفاوت است. | مقایسه قدرت روند و فصلی برای سطوح مختلف تجمع |
13293 | بنابراین همانطور که میدانم SOM در درجه اول یک ابزار تجسم است و خوشهبندی گام بعدی منطقی بعد از ایجاد یک SOM از دادهها است. به طور معمول، خوشهبندی ذهنی است، زیرا پس از مشاهده SOM خود، میتوانید N خوشه را ببینید و سپس از آنجا به سمت خوشهبندی (k به معنی، سلسله مراتبی و غیره) گرههای SOM با این N به عنوان پارامتر بروید. آیا یک روش غیر موضوعی (شاید ناپارامتریک؟) برای خوشه بندی گره های SOM (یعنی بدون نگاه کردن به SOM برای تعیین تعداد خوشه های متمایز) وجود دارد؟ با تشکر | خوشه بندی خودکار/هدف SOM |
7208 | من از کاپا کوهن برای محاسبه توافق بین دو قاضی استفاده می کنم. به صورت زیر محاسبه می شود: $ \frac{P(A) - P(E)}{1 - P(E)} $ که $P(A)$ نسبت توافق و $P(E)$ احتمال توافق تصادفی اکنون برای مجموعه داده زیر، نتایج مورد انتظار را دریافت می کنم: قضاوت های کاربر A: - 1، درست - 2، قضاوت های نادرست کاربر B: - 1، نادرست - 2، نادرست نسبت توافق شده: 0.5 توافق تصادفی: 0.625 کاپا برای کاربر A و ب: -0.3333333333333333 می بینیم که هر دو داور خیلی خوب توافق نکرده اند. اما در مورد زیر که هر دو قاضی یک معیار را ارزیابی میکنند، کاپا صفر را ارزیابی میکند: قضاوتهای کاربر A: - 1، قضاوتهای نادرست کاربر B: - 1، نسبت نادرست توافق شده: 1.0 توافق تصادفی: 1.0 کاپا برای کاربر A و B: 0 اکنون می توانم ببینم که توافق به طور تصادفی 1 است که منجر به صفر بودن کاپا می شود، اما آیا این به عنوان یک نتیجه قابل اعتماد به حساب می آید؟ مشکل این است که من معمولاً بیش از دو قضاوت در هر معیار ندارم، بنابراین همه آنها هرگز به هیچ کاپا بزرگتر از 0 ارزیابی نمی شوند، که فکر می کنم خیلی نماینده نیست. آیا من با محاسباتم درست هستم؟ آیا می توانم از روش دیگری برای محاسبه بین توافق استفاده کنم؟ در اینجا می بینیم که کاپا برای قضاوت های متعدد به خوبی کار می کند: قضاوت های کاربر A: - 1، نادرست - 2، درست - 3، نادرست - 4، نادرست - 5، قضاوت های کاربر A درست: - 1، درست - 2، درست - 3 , نادرست - 4, درست - 5, نادرست نسبت توافق شده: 0.4 توافق تصادفی: 0.5 کاپا برای کاربر A و B: -0.19999999999999996 | آیا می توان از کاپا کوهن فقط برای دو قضاوت استفاده کرد؟ |
13296 | من یک پیکره متنی دارم که از روی آن احتمالات تکی هر کلمه را محاسبه کرده ام. حال، اجازه دهید $p_{i}$ و $p_{j}$ به ترتیب احتمالات یکگرام $i$ و $j$ باشند، احتمال اینکه یک جفت کلمه $i$ و $j$ با آن همزمان شوند چقدر خواهد بود. زمانی که استقلال بین $i$ و $j$ فرض میشود (در حداکثر فاصله 1 کلمه) اتفاق میافتد؟ **ویرایش:** در اینجا $p_{i}$ احتمال $i$ بودن هر کلمه داده شده است. منظور من از احتمال وقوع همزمان، این است که کلمه $i$ و $j$ همزمان در یک دنباله تصادفی از سه کلمه برگرفته شده از پیکره اتفاق بیفتد. منظور من از همزمانی این است که $i$ و $j$ در هر جایی از این دنباله تصادفی 3 کلمهای در حداکثر فاصله کلمه 1 رخ میدهند. (برای مثال، $i$*$j$ و $ij$ هر دو معتبر هستند. وقوع $i$ و $j$ اما $i**j$ یک اتفاق همزمان معتبر نیست زیرا فاصله بین $i$ و $j$ بیش از 1 است.) و در نهایت $ijij$ به عنوان 3 اتفاق همزمان به حساب می آید. | چگونه می توان احتمال وقوع همزمان را با فرض استقلال از احتمالات یک گرم محاسبه کرد؟ |
20726 | در این مقاله > Anderson, M.J. (2001). روشی جدید برای تحلیل واریانس چند متغیره ناپارامتریک. _Austral Ecology_, **26**, 32-46 رویکرد MANOVA بسیار مفیدی یافتم که می تواند تا حدودی با غیر عادی بودن کنار بیاید. می خواستم بدانم که آیا امکان و معقول است که فواصل ماهالانوبیس را به عنوان روش تشابه لحاظ کنیم؟ در واقع سوال من در مورد تابع بسته R Vegan «adonis» است که این نوع MANOVA را پیادهسازی میکند، اما فاصلههای Mahalanobis را به عنوان معیار تشابه مجاز نمیداند. اگرچه از طریق تابع طراح امکان ایجاد هر اندازه گیری فاصله در آدونیس را فراهم می کند، اما من کاملاً نمی توانم با آن نحو کنار بیایم. آیا تجربه ای در این مورد دارید؟ | فاصله MANOVA جایگشتی و ماهالانوبیس در R |
48542 | من با یک متغیر وابسته مربوط به قیمت یک دارایی و درصد تغییر در قیمت آن دارایی سروکار دارم. مشکل این نوع تجزیه و تحلیل، مانند زمانی که سهام واحد تجزیه و تحلیل هستند، این است که از چیزی پیروی می کند که به نظر می رسد یک مهره توزیع log-normal دارای بازه [-1، +inf) است. من هرگز با تبدیل این نوع DV برای تجزیه و تحلیل OLS برخورد نکرده ام. هر چیزی که من از نظر ادبیات پیدا می کنم در مورد سهام است و اینکه چرا آنها از یک log-normal پیروی می کنند و نه نحوه برخورد با آن برای هر نوع رگرسیون خطی. همچنین اگر «عادیتر» (بدون جناس) و بهتر باشد، میتوانم به نوع دیگری از تحلیل بپردازم. یک مثال: اگر یک دارایی X وجود داشته باشد که ارزش آن 10 باشد (t = 0) و فردا (t = 1) ارزش آن 0.01 باشد، این تقریباً 100٪ کاهش قیمت است و اساساً می تواند ادامه یابد. نه پایین تر با این حال، اگر در عوض به ارزش 1000 (در t = 1) افزایش یابد، این یک افزایش 9900٪ است. از آنجایی که دادههای من با الگویی مانند دارایی مطابقت دارند، من یک دم سمت راست بلند و توزیعی دارم که طبیعی به نظر میرسد. داشتم فکر می کردم چطور باهاش کنار بیام. | تغییر درصد تغییر: توزیع منطقی؟ |
13528 | این ادامه سوال قبلی من است، چگونه می توانم تخمین چگالی پسینی را از پیشین و احتمالی که در درک چگونگی محاسبه احتمال یک مجموعه پارامتر با توجه به احتمال آن مشکل دارم محاسبه کنم. به عنوان مثال، در پاسخ به سوال قبل، از احتمال برای وزن دادن به احتمال نمونه گیری از توزیع های قبلی استفاده شده است. با این حال، پاسخ به من پیشنهاد کرد که از یک الگوریتم نمونهبرداری متوالی استفاده کنم، بنابراین رویکرد متروپلیس-هیستینگ را امتحان کردم. با این حال، برای من روشن نیست که چگونه می توانم از احتمالات برای تعیین احتمال پذیرش مجموعه پارامترهای پیشنهادی استفاده کنم. من می توانم به طور تجربی تخمین بزنم (با استفاده از تابع R «fitdistr») که احتمال آن تقریباً $L\sim\textrm{log-}N(8, 0.7)$ است، تصور می کنم که بتوانم احتمال را به صورت «plnorm(L, 8, 0.7)` و احتمال پذیرش به عنوان $P(L_\textrm{new})/P(L_\textrm{old})$. اما آیا راهی برای انجام این کار بدون فرض اینکه احتمال دارای توزیع خاصی است وجود دارد؟ یا اینکه چنین فرضی یک رویه استاندارد است؟ | چگونه می توانم یک احتمال را از روی احتمال محاسبه کنم، به عنوان مثال. در الگوریتم متروپلیس-هیستینگ؟ |
7209 | هدف من پیشبینی احتمالات سه ماهه پیشفرض مشتری است: من اطلاعاتی در مورد 2 میلیون نفر دارم که بهطور متوسط با احتمال 0.3 درصد بهطور متوسط نکول میکنند. بنابراین من به نمونهبرداری از کلاس اکثریت (غیر پیشفرض) برای صرفهجویی در زمان محاسبات فکر میکنم (روشهای هسته میتوانند بسیار پرهزینه باشند، من در مورد تصحیح پیشبینیهای احتمال میدانم) - گزینه دیگر فقط گرفتن نمونه فرعی از دادهها است. . به نظر شما نسبت خوبی از پیش فرض ها به غیر پیش فرض ها در نمونه یادگیری من چیست؟ با تشکر از کمک شما! | چه مقدار زیر نمونه برداری باید انجام شود؟ |
114141 | من دقیقاً نمی فهمم در فرمول ضریب همبستگی چه می گذرد. در صورت حساب کواریانس و در مخرج انحراف معیار متغیر x ضرب در انحراف معیار متغیر y را داریم. بنابراین در نهایت نسبت کوواریانس به حاصل ضرب دو انحراف معیار است. تقسیم بر حاصل ضرب دو انحراف معیار چه کاری انجام می دهد تا به ما در تعیین همبستگی کمک کند؟ من سعی کردم آن را ترسیم کنم تا به درک بصری آن کمک کنم زیرا به نظرم این کمک می کند، اما در مورد آنچه باید به دنبال آن باشم گیر کرده ام. | چرا مخرج ضریب همبستگی SD از X در SD از Y ضرب می شود؟ |
7207 | من تفاوت های رسمی بین آنها را درک می کنم، چیزی که می خواهم بدانم این است که چه زمانی استفاده از یکی در مقابل دیگری مناسب تر است. * آیا آنها همیشه بینش تکمیلی در مورد عملکرد یک سیستم طبقه بندی/تشخیص داده شده ارائه می دهند؟ * آیا معقول است که هر دو آنها را مثلاً در یک مقاله ارائه کنیم؟ (چه زمانی منطقی است که هر دوی آنها را به جای یکی از آنها تهیه کنیم؟). * آیا هیچ توصیفگر جایگزین (شاید مدرن تر) وجود دارد که جنبه های مربوط به ROC و یادآوری دقیق را برای یک سیستم طبقه بندی نشان دهد؟ من به آرگومان هایی برای موارد باینری و چند کلاسه (مثلاً به عنوان یک در برابر همه) علاقه مند هستم. | ROC در مقابل منحنیهای دقت و فراخوان |
105690 | من یک سوال دارم: چگونه می توانم از پیش بینی های پنجره نورد در R استفاده کنم: من 2 مجموعه داده دارم: 1. داده های ماهانه که از Google دانلود کردم. 2. داده های ماهانه ای که از CBS (دفتر مرکزی آمار در هلند) دانلود کردم، می خواهم آزمایش کنم که آیا می توانم یک مدل پیش بینی معتبر، بر اساس مثلا 6 سال داده گوگل، با استفاده از پیش بینی های پنجره چرخشی ایجاد کنم یا خیر. اولین شهود من این بود که یک مدل ARIMA را بر روی داده های گوگل قرار دهم و با محاسبه RMSE این مدل را روی داده های واقعی CBS آزمایش کنم. اما این کارآمد نیست زیرا من باید این کار را برای هر ماه انجام دهم و ماه های زیادی برای تجزیه و تحلیل دارم. آیا راهی خودکار در R برای انجام این کار وجود دارد؟ | پیشبینیهای پنجرهای در R |
10369 | فرض کنید مشاهدات جفتی ترسیم شده i.i.d. به صورت $X_i \sim \mathcal{N}\left(0,\sigma_x^2\right), Y_i \sim \mathcal{N}\left(0,\sigma_y^2\right),$ برای $i=1 ,2,\ldots,n$. اجازه دهید $Z_i = X_i + Y_i,$ و با $Z_{i_j}$ نشان دهیم $j$امین بزرگترین مقدار مشاهده شده $Z$. توزیع (شرطی) $X_{i_j}$ چیست؟ (یا معادل آن $Y_{i_j}$) یعنی، توزیع $X_i$ مشروط به این است که $Z_i$ بزرگترین $j$m از $n$ ارزش مشاهده شده $Z$ باشد؟ من حدس میزنم که با $\rho = \frac{\sigma_x}{\sigma_y} \به 0$، توزیع $X_{i_j}$ فقط به توزیع بدون قید و شرط X$ همگرا میشود، در حالی که به صورت $\rho \ به \infty$، توزیع $X_{i_j}$ به توزیع بی قید و شرط از $j$th آمار سفارش از $X$ همگرا می شود. اما در وسط، من نامطمئن هستم. | توزیع قطعات غیر مخلوط بر اساس ترتیب مخلوط |
29890 | > **تکراری احتمالی:** > ارزیابی فاصله قطعی توزیع عادی عنوان تغییر کرد و سوال در زیر ویرایش شد. چگونه ممکن است که یک تابع چگالی احتمال که به صورت زیر تعریف شده است بتواند مقادیری بالاتر از 1 را برگرداند؟! آیا در تعریف من از این pdf خطایی وجود دارد؟ float gauss_pdf = exp( -pow(x-mean, 2.0) / (2.0 * pow(sigma, 2.0)) ) / ( sigma * sqrt(2*M_PI)); به عنوان مثال، برای x = 0.0908182، mean = 0.0552096 و سیگما = 0.0241953، 5.583 را برمی گرداند **EDIT:** خوب، آنچه من نیاز دارم احتمال مربوطه است، بنابراین باید CDF را محاسبه کنم (یعنی P(X < x )) برای آن میانگین و سیگما. چگونه می توانم CDF را محاسبه کنم؟ | نحوه محاسبه احتمال توزیع نرمال CDF |
46661 | من از بسته R ltm برای ایجاد یک رگرسیون لجستیک 2 پارامتری استفاده می کنم. ماتریس ورودی پراکنده است - بسیاری از کاربران زیرمجموعه کوچکی از موارد موجود در بانک اقلام را گرفته اند. برای برخی از مجموعه های داده من با این خطا مواجه می شوم: خطا در if (any(ind <- pr == 0)) pr[ind] <- sqrt(.Machine$double.eps) : مقدار از دست رفته که در آن TRUE/ FALSE مورد نیاز است مطمئن نیستم مشکل چیست. در اکثر مجموعه های داده من تکرار نمی شود. هر فکری؟ | خطا در استفاده از بسته ltm R |
77060 | من با دانش آموز دیگری با سابقه آمار مشورت می کنم، اما مطمئنم که او چیزی می گوید که با آنچه در مورد داده هایم به من گفته شده در تضاد است. من یک متغیر پاسخ روزانه دارم که بر روی 16 نفر در یک GLMM اندازه گیری شده است که اثر تصادفی آن فرد است. بیش از 6000 روز 6000 مقدار وجود دارد. من چندین متغیر مشترک دارم که فقط یکی از آنها در مقیاس زمانی یکسان اندازه گیری می شود، دمای روزانه. سایر متغیرها یا در مقیاس ماهانه متفاوت هستند یا در مقیاس ماهانه x فردی. من همیشه بر این فرض کار کردهام که GLMM به اندازه کافی قدرتمند است که بتواند این کار را انجام دهد، اما این مردی که به من مشاوره میدهد میگوید که باید میانگین پاسخهایم را به صورت ماهانه (همانطور برای متغیر دما) بهطوری که آنها در زمانهای یکسان تغییر کنند، کار کردهام. مقیاس اما من مطمئن هستم که این اطلاعات مهم را به طور غیر ضروری دور می اندازد. وقتی مشکلات مربوط به مقیاس را در آمار جستجو میکنم، پاسخهای بسیار متفاوتی را در رابطه با مقادیر نسبی متغیرها دریافت میکنم، بنابراین حتی اگر ممکن است کمی روشن کنید که مشکل من را چه نامی بگذارم و کجا میتوانم مرجعی پیدا کنم که سؤال من را حل کند. راه | آیا باید میانگین حسابی متغیرهایی را که در مقیاس های زمانی کوچکتر تغییر می کنند در یک رگرسیون خطی در نظر بگیرم؟ |
101523 | یک نمونه اسباببازی معروف در یادگیری ماشینی، بهویژه با یادگیری درختهای تصمیمگیری، مجموعه داده معروف «بازی تنیس» است. آیا منبع رسمی برای مجموعه داده وجود دارد که بتوان آن را در کارهای علمی نقل کرد؟ | منبع اصلی مجموعه داده play tennis. |
70357 | من انتظار دارم که گروه 1 و 2 بسیار شبیه و گروه 3 متفاوت باشند. من از یک مجموعه داده بسیار بزرگ استفاده می کنم و احساس می کنم که برق مشکلی نخواهد داشت. در ابتدا احساس کردم که انتظار یک ANOVA قابل توجه را دارم، و سپس در مقایسه های برنامه ریزی شده انتظار دارم 1 در مقابل 2 غیر قابل توجه باشد در حالی که 1 در مقابل 3 و 2 در مقابل 3 باید قابل توجه باشد. در حالی که در واقع دادههای من اینگونه بود، من اکنون فکر میکنم که این راه اشتباهی برای انجام کارها بوده است. هنگام مقایسه 1 با 2، آیا باید به جای آن از تست هم ارزی (مثلاً http://www.cscu.cornell.edu/news/statnews/stnews85.pdf) استفاده می کردم؟ اگر چنین است، چگونه میتوانم با استفاده از SPSS یا برخی نرمافزارهای رایج دیگر این کار را انجام دهم؟ | ANOVA مستقل یک طرفه که در آن انتظار دارم دو سطح بسیار مشابه و سطح دیگر متفاوت باشند. تست مناسب چیست؟ |
45310 | با استفاده از جامعه زیر: نمونه <- c(41.5، 56.7، 54.2، 98.9، 56.7، 43.9، 35.8، 28.8) هنگام محاسبه دستی آنها، نتیجه متفاوتی برای فواصل اطمینان بالا و پایین دریافت می کنم. تابع t.test() کتابخانه. s <- sd(نمونه) # انحراف استاندارد se <- s/sqrt(NROW(نمونه)) # خطای استاندارد # استفاده از t.test() پایین تر <- (t.test(نمونه))$conf.int[1] # بازده 34.11755 بالا <- (t.test(sample))$conf.int[2] # بازده 70.00745 # محاسبه دستی کمتر <- میانگین(نمونه)-(1.96*se) # بازدهی 37.18821 بالا <- میانگین(نمونه)+(1.96*se) # بازدهی 66.93679 میتواند توضیح دهد اینجا چه خبر است؟ ** به روز رسانی: ** با تشکر برای اطلاعات همه! این واقعاً روشنگر بود. | فاصله اطمینان متفاوت به R منجر می شود، چرا؟ |
10361 | سوال تکلیف من: > یک بازرس مشکوک است که مواد غذایی در کارخانه ای که در حال بازرسی است > آلوده به یک ماده شیمیایی مضر بوده است. چنین آلودگی شیمیایی > در 5 درصد از کارخانه های تولید کننده این ماده غذایی رخ می دهد. بازرس یک تست A > برای ماده شیمیایی دارد که در صورت وجود > ماده شیمیایی با اطمینان 100 درصد مثبت می شود، اما در 10 درصد موارد > که ماده شیمیایی وجود ندارد، آزمایش مثبت می شود. او تصمیم می گیرد از این آزمایش برای کمک به او استفاده کند > تصمیم بگیرد که آیا آلودگی وجود دارد یا خیر. > > 1. فرض کنید که احتمال آلودگی قبلی برابر با نرخ پایه > است و آزمایش بازرس نتیجه مثبت را نشان می دهد. احتمال آلودگی پسین را محاسبه کنید. > 2. بازرس آزمایش B دیگری برای ماده شیمیایی c دارد که فقط 50٪ موارد زمانی که c وجود دارد > مثبت را ثبت می کند، اما این مزیت را دارد که هرگز > مثبت کاذب نمی دهد (به عنوان مثال، اگر c وجود نداشته باشد، آزمایش انجام می شود. هرگز نگو > هست). نتایج دو آزمون A و B با توجه به وجود یا عدم وجود c مستقل هستند. معلوم می شود که وقتی بازرس از تست B استفاده می کند، > نتایج منفی است. علاوه بر این، بازرس می داند که کارخانه > ضعیف نگهداری می شود. میزان آلودگی در کارخانه هایی با تعمیر و نگهداری ضعیف دو برابر بیشتر از میزان آلودگی در کارخانه ها است. احتمال آلودگی پسین را محاسبه کنید. > می دانم که اینها باید نسبتاً ابتدایی باشند، اما من گیر کردم. برای شماره 1 به پاسخی رسیده ام، اما مطمئن نیستم که درست باشد: با استفاده از قانون بیز، احتمال باید $P(c|مثبت) = \frac{P(مثبت|c)P(c)}{P باشد. (مثبت)}$ حالا فکر می کنم که $P(مثبت)$ باید باشد: $P(مثبت) = P(مثبت،c)+P(مثبت،\neg c) = P(مثبت|c)P(c) + P(مثبت|\neg c)P(\neg c)$ بنابراین: $P(c|مثبت) = \frac{P(مثبت|c)P(c)}{P(مثبت|c) P(c) + P(مثبت|\neg c) P(\neg c)}$ $P(c|مثبت) = \frac{1 * 0.05}{1 * 0.05 + 0.1 * 0.95} = 0.34$ **آیا این درست است؟** در قسمت شماره 2 فکر کردم چون قرار است مستقل باشند این باید وجود داشته باشد: $ P(A_{positive} \cap B_{negative}|c) = P(A_{مثبت} |c)*P(B_{منفی}|c) $ ابتدا نرخ پایه را تنظیم کردم و شماره 1 را مجدداً محاسبه کردم: $P(c|A_{مثبت}) = \frac{1 * 0.1}{1 * 0.1 + 0.1 * 0.9} = 0.52 $ سؤال می گوید: نتایج منفی است. بنابراین B باید باشد: $P(c|B_{منفی}) = \frac{P(B_{منفی}|c)P(c)}{P(B_{منفی}|c) P(c) + P( B_{منفی}|\neg ج) P(\neg c)} = \frac{0.5 * 0.1}{0.5 * 0.1 + 1 * 0.9} = 0.05$ P(c|A_{مثبت} \cap B_{منفی}) = \frac{P(A_{مثبت} \cap B_{منفی}|c) * P(c)}{P(A_{مثبت} \cap B_{منفی})} = \frac{P(A_{مثبت}|c) * P(B_{منفی}|ج) * P(c)}{P(A_{positive} \cap B_{negative})} $ **بعدش باید چکار کنم؟** | قانون بیز و نرخ پایه |
10363 | من کنجکاو در مورد رویههای تکرارشوندهای هستم که میتوان برای کشف شکل عملکردی تابع «y = f(A, B, C) + error_term» استفاده کرد که در آن تنها ورودی من مجموعهای از مشاهدات است («y»، «A» ، B و C). لطفاً توجه داشته باشید که شکل عملکردی «f» ناشناخته است. مجموعه داده زیر را در نظر بگیرید: AA BB CC DD EE FF == == == == == == 98 11 66 84 67 10500 71 44 48 12 47 7250 54 28 90 73 95 5465 71 44 48 12 37 0 79 43 3221 68 79 1 65 9 4721 53 2 90 10 18 3095 38 75 41 97 40 4558 29 99 46 28 96 5336 274 221 89 78 39 492 10 28 39 59 64 1178 11 59 56 25 5 3418 10 4 79 98 24 431 86 36 84 14 67 10526 29776 29776 2976 12 43 3 5411 14 63 2 9 52 368 99 62 56 81 26 13334 56 4 72 65 33 3495 51 40 62 11 52 5178 29 2024 29 724 17 72 1926 44 45 30 25 5 3360 6 3 65 16 87 288 در این مثال، فرض کنید که می دانیم FF = f(AA، BB، CC، DD، EE) + عبارت خطا، اما مطمئن نیستیم در مورد شکل عملکردی «f(...)». برای یافتن شکل عملکردی «f(...)» از چه روشی/از چه روشی استفاده می کنید؟ (نقطه امتیاز: بهترین حدس شما در تعریف «f» با توجه به دادههای بالا چیست؟ :-) و بله، یک پاسخ «درست» وجود دارد که «R^2» بیش از 0.99 به دست میدهد.) | داده کاوی: چگونه باید فرم عملکردی را پیدا کنم؟ |
48547 | در چند ماه، من چارچوبی را برای استفاده از شبکه های عصبی (کتابخانه FANN) در یک نرم افزار تجارت نمودار ایجاد کرده ام. این چارچوب به من اجازه میدهد هر ورودی را برای NN ترکیب کنم، نرخ یادگیری، تکانه، متغیرهای تابع فعالسازی، تعداد لایهها و تعداد نورونها را در آنها انتخاب کنم... تقریباً هر چیزی که کتابخانه FANN ارائه میدهد. زیر رابط کاربری است. (نسخه tl;dr در زیر)  اساساً، من نمی دانم اکنون با آن چه کار کنم. اینترنت تا کنون تنها منبع اطلاعات من بوده است و من از هر چیزی سپاسگزار خواهم بود زیرا در حال حاضر تقریباً گیر کرده ام و نمی توانم جایی حرکت کنم (این پروژه برای مدرک کارشناسی ارشد من الزامی است). من تنظیمات مختلفی را امتحان کردهام و در حال حاضر، فقط ورودیها و پارامترهای NN را بدون هدف تغییر میدهم. مشکل این است که هر کاری که انجام می دهم و سپس با تدریس شروع می کنم، NN فقط خودش را به صفر تقریب می زند. من یادگیری افزایشی، یادگیری دسته ای، مقادیر مختلف نرخ یادگیری و حرکت را امتحان کرده ام. به عنوان خروجی که با آن شبکه را آموزش میدهم، از شیب منحنی رگرسیون خطی برای میلههای X زیر استفاده میکنم (10 در تصویر در قسمت Output Window). من از انواع چیزها برای ورودی استفاده کرده ام. تصویر دو نوسان ساز CCI را نشان می دهد - هر دو دارای 10 به عنوان پنجره ورودی هستند که به این معنی است که در مجموع 20 ورودی به شبکه عصبی وجود دارد، تفاوت بین آنها طول میانگین متحرک ساده داخلی (15 و 50) است و هر دوی آنها هستند. از آنجایی که من از سیگموئید دوقطبی به عنوان تابع فعال سازی استفاده می کنم، با حداکثر و حداقل کل مجموعه داده در محدوده -1، 1 مقیاس شده است. اما واقعاً، من میتوانم خود قیمت، حجم یا روز/ساعت، هر میانگین یا هر مشتق دیگری مانند CCI را به عنوان ورودی وارد کنم و انتخاب کنم که چگونه باید مقیاس شود (با حداقل/حداکثر کل مجموعه داده یا بر اساس حداقل/حداکثر پنجره ورودی). من چیزهای ساده ای مانند انتخاب فقط قیمت های بسته 10 میله آخر یا چیزهای فوق العاده پیچیده مانند سه CCI با طول های مختلف، دو میانگین متحرک نمایی، ساعت، روز، آخرین تغییر حجم را امتحان کرده ام.....بیش از 50 ورودی وجود داشت، من از تنظیمات لایه پنهان مختلف استفاده کرده ام... ...اما در نهایت، شبکه عصبی تقریباً به صفر می رسد. من نمی دانم این به چه معناست. من فکر می کردم که شبکه عصبی به سادگی می گوید: با این کار زحمت ندهید، هیچ رابطه ای بین ورودی هایی که استفاده می کنید و شیب منحنی رگرسیون خطی وجود ندارد. اما بعد فکر میکنم نمیتواند درست باشد - میتوانم ببینم که واقعاً دو قسمت بالا و پایین وجود دارد، میتوانم ببینم که واقعاً الگوهایی وجود دارند که دو CCI را ترکیب میکنند که به طور مکرر کار میکنند (الگوهایی که در کتابی برای مبتدیان معاملات روزانه توضیح داده شده است). من از داده های معاملاتی 3 ماهه S&P 500 e-mini استفاده می کنم که با 1000 تیک گروه بندی شده اند. من فکر می کردم که شاید 3 ماه خیلی زیاد باشد، احتمالاً باید فقط یک ماه تلاش کنم و خوب، تقریب به صفر هنوز اتفاق می افتد، اما فقط زمان بیشتری می برد. تنها با استفاده از یک مجموعه داده واقعاً محدود (مانند چند روز)، شبکه عصبی در واقع تلاش میکند خودش را جا دهد، اما من به وضوح میتوانم بگویم که برای چنین بازه زمانی کوتاهی بیش از حد آموزش دیده است. من شبکههای عصبی را زیاد مطالعه کردهام، با این حال احساس میکنم برخی فرضیات نادرست در مورد نحوه استفاده یا عدم استفاده از آنها داشتهام. تا اینجا، من فکر می کردم که استفاده از ورودی های مختلف و شیب رگرسیون خطی به عنوان خروجی، NN را به یافتن رابطه ای بین این دو سوق می دهد. من می خواهم NN حتی کوچکترین رابطه ای را که پیدا شده اغراق کند و فکر کردم که ممکن است این کار با استفاده از تکانه بالا و نرخ یادگیری بالا انجام شود... NN هنوز تقریباً به صفر می رسد :( شاید NN اصلاً قرار نیست اینطور کار کند ... من چیزهای زیادی در مورد آنها یاد گرفته ام، اما خیلی کم می دانم که بتوانم به نتیجه ای برسم. **TL;DR**: شبکه عصبی من برای انواع ورودی های مختلف با تنظیمات مختلف به صفر می رسد، آیا می دانید چرا ایده، توصیه، منبع جالبی در مورد استفاده از شبکه عصبی برای تجارت وجود دارد؟ می دانید، حداقل، کجا دیگر بپرسید **ویرایش - مشکل پیدا شد، پاسخ من را در زیر ببینید**؟ | استفاده از تجارت شبکه عصبی در بورس اوراق بهادار، بخش 2 |
93170 | من داده ها را با متغیرهای طبقه بندی و متغیرهای پیوسته دارم، اما نیاز به یافتن ارزش اطلاعات در تجزیه و تحلیل داده های توضیحی است. فقط دلیل محاسبه مقدار اطلاعات برای هر متغیر را در ابتدای تجزیه و تحلیل داده ها بیان کنید و نقطه برش INFORMATION VALUE برای مراقبت از تجزیه و تحلیل چقدر خواهد بود. | چرا ارزش اطلاعات را محاسبه می کنیم؟ |
46664 | من یک مجموعه آموزشی با 140 نمونه و بدون مجموعه اعتبار سنجی متقاطع جداگانه دارم. مجموعه داده شامل 7 اندازه گیری از هر یک از 20 شی است، از این رو 140 نمونه. هر یک از 7 اندازه گیری برچسب یکسانی دارند. مشکل من انتخاب طرح اعتبار متقاطع (CV) است. من می خواستم 20 برابر CV انجام دهم. اما این تقریباً همیشه مغرضانه خواهد بود زیرا زیر مجموعههای تصادفی اندازهگیریهای شی متفاوتی را در هم خواهند داشت. در عوض، تصمیم گرفتم هر بار یک شی را کنار بگذارم، به عنوان مثال، در هر اجرای CV 20 برابری، یک مجموعه اعتبارسنجی شامل یکی از 7 نمونه است و 133 مورد باقیمانده مجموعه آموزشی خواهند بود. به نظر شما این یک طرح CV منصفانه است؟ | اعتبار سنجی متقاطع یک شی را کنار بگذارید. |
6945 | در قرعه کشی، 1/10 از 50 000 000 بلیط جایزه می دهد. حداقل بلیط هایی که باید بخرند تا حداقل 50 درصد شانس برنده شدن داشته باشند چقدر است؟ بسیار خوشحال خواهم شد اگر بتوانید روش خود را هنگام حل این مشکل توضیح دهید. اگر می خواهید این را به عنوان تکلیف در نظر بگیرید. | حداقل بلیط های مورد نیاز برای احتمال مشخص شده برنده شدن در قرعه کشی |
48544 | این سوالی است که من را درگیر کرده است زیرا می بینم که این عمل در بسیاری از مقالات پزشکی انجام شده است. این سناریو است: شما یک مدل پیش آگهی از جمعیت عمومی بیماران مبتلا به سرطان پستان با معیارهای خروج معقول مانند هیچ سرطان قبلی ایجاد می کنید. متغیرهای شما در نهایت سن، وضعیت گیرنده HER2 و وضعیت گیرنده استروژن هستند. آنچه من در بسیاری از مقالات می بینم این است که نویسندگان مدل را تأیید می کنند، اما سپس آن را روی گروه های متعددی از بیماران با ویژگی های بسیار خاص آزمایش می کنند. مانند عملکرد آزمایش فقط برای بیماران HER2+ و ER+، یا فقط در بیماران جوانی که در مرحله III هستند. سپس آنها چیزهایی از این قبیل میگویند: «این مدل روی بیماران ER+/HER2- عملکرد خوبی داشت، اما در کل بیماران HER2+ عملکرد خوبی نداشت». چیزی در دل من می گوید که تمرین یک مدل بر روی یک جمعیت گسترده بیماران و سپس آزمایش آن بر روی چندین زیرمجموعه مختلف از بیماران (مثلاً فقط بیماران مرحله III یا فقط بیماران کمتر از 50 سال که سیاه پوست هستند) تمرین خوبی نیست. من از نظر آموزش یک آمارگیر نیستم، بنابراین هیچ مدرکی برای این موضوع ندارم. کسی میداند که آیا در این عمل مشکلات جانبداری وجود دارد؟ | آموزش یک مدل بر روی یک جمعیت گسترده بیماران، سپس آزمایش بر روی یک جمعیت زیر مجموعه خاص |
104237 | من در مورد عملکرد یک پارامتر در تنظیم یک مدل اثر مختلط خطی (مدل سلسله مراتبی/چند سطحی) کمی گیج شده ام. به این ترتیب می فهمم که یک مدل چند سطحی (قطع و شیب تصادفی) تنظیم شده است: سطح 1: $$ y_{ij}=\beta_{0j}+\beta_{1j}x_{ij}+e_{ij} $$ (مشاهده $i$-th در گروه $j$ توسط یک رهگیری برای گروه $j$، یک شیب برای گروه $j$ پیش بینی کننده (در اینجا اولین و تنها) تخمین زده می شود و یک عبارت خطا برای گروه $j$.) سطح 2: قطع در هر گروه: $\beta_{0j}=\beta_0+u_{0j}$ (وقفه برای گروه $j$ توسط یک رهگیری جهانی و یک متغیر تصادفی برای گروه $j$.) `شیب در هر گروه:` $\beta_{1j}=\beta_1+u_{1j}$ (شیب برای گروه $j$ است تخمین زده شده توسط یک وقفه جهانی برای اولین پیش بینی کننده و یک متغیر تصادفی برای $j$-th گروه اولین پیش بینی کننده.) اما من با روش دیگری برای نوشتن وقفه در هر گروه روبرو شده ام: `فاصله برای گروه:` $\beta_{ 0j}=\beta_0+\beta_{0ij}x_{0ij}+u_{0j}$ تفسیر من از این خواهد بود: فاصله گروه $j$ توسط یک جهانی تخمین زده میشود رهگیری و شیب برای $i$-th مشاهده در گروه $j$ ضرب با پیش بینی $x$ برای رهگیری و یک متغیر تصادفی برای گروه $j$. اولین سوال من این است که آیا زیرنویس شیب و پیش بینی کننده رهگیری خاص گروه را به درستی تفسیر می کنم؟ این چیزی است که من حدس میزنم: $\beta_{0ij}$: $0:=$ فقط برای ثبات وجود دارد. $i:=$ مشاهده; گروه $j:=$. (1) چرا متغیر $x_{0ij}$ و پارامتر/ضریب $\beta_{0ij}$ گنجانده شده است؟ (2) آیا آنها در واقع به عنوان یک پیش بینی ثابت در تخمین شیب عمل می کنند؟ (3) آیا واقعاً سه اشتراک مورد نیاز است؟ (4) من این ادعا را خواندم که $x_{0ij}$ و $\beta_{0ij}$ به منظور تقارن کردن مدل گنجانده شده اند. این به چه معناست؟ | تفسیر فرمول ریاضی مدل اثر مختلط |
59636 | من سعی میکنم منحنی کاپلان-مایر دادههایم را با R رسم کنم. در حال حاضر، دادهها در قالب زیر هستند: بیمار_id;تعداد_روزها;بقا 1;100;T1;200;F 1;300;F2;50 ;F... بقا در زمینه من نباید به معنای واقعی کلمه تفسیر شود: به معنای پیشرفت بیماری است که فقط در موارد بیشتر ارزیابی می شود. یا نقاط زمانی با فاصله کمتر. من در تعیین اینکه تابع Surv چه چیزی را به عنوان ورودی انتظار دارد مشکل دارم؟ چگونه باید داده ها را آماده کنم؟ سعی کردهام دادههایم را مستقیماً به «Surv» برسانم: Surv(data$number_of_days,data$survival) با این حال به نظر میرسد هر بیمار چندین بار (یک بار در هر نقطه زمانی) شمارش میکند. بنابراین حدس من این است که ابتدا باید نوعی تغییر در دادههایم اعمال کنم. من نسبتاً مطمئن هستم که این مشکل تبدیل داده های طولی به داده های رویداد باید نسبتاً رایج باشد، بنابراین چگونه نامیده می شود؟ آیا قبلاً در جایی اجرا شده است؟ با تشکر | چگونه داده های طولی را برای تجزیه و تحلیل بقا آماده می کنید؟ |
59637 | اخیراً من شروع به تأیید پیش بینی دمای روزانه توسط ارائه دهندگان مختلف کردم. من خطاهای پیشبینی مطلق را برای هر یک از ارائهدهندگان محاسبه کردم، و در حال برنامهریزی برای انجام ANOVA هستم تا بررسی کنم که آیا تفاوت در میانگین خطای مطلق بین ارائهدهندگان قابل توجه است یا خیر. بنابراین اجازه دهید بگوییم که نمونه من شامل 110 خطای پیش بینی دمای حداکثر روزانه برای 5 ارائه دهنده مختلف است. خطاهای پیش بینی به عنوان تفاوت بین دمای واقعی، به دست آمده از نزدیکترین ایستگاه گزارش آب و هوا و پیش بینی های هر یک از ارائه دهندگان به دست می آید. چیزی که من را در اینجا گیج می کند استقلال نمونه است، زیرا من از همان مجموعه مقادیر دمای واقعی برای به دست آوردن خطاهای هر یک از پیش بینی ها استفاده می کنم. هر چه بیشتر در مورد استقلال نمونه ها می خوانم بیشتر گیج می شوم. آیا در این مورد فرض استقلال نقض می شود؟ علاوه بر این، توزیع نمونه تقریباً نمایی است، بنابراین سعی کردم با تبدیل آن را به توزیع نرمال تقریب دهم. با این حال، آزمونهای معنیداری نرمال بودن نشان میدهد که توزیع همچنان غیر نرمال است، با مقدار p 0.01. چگونه می توانم تعیین کنم که آیا فرض توزیع نرمال به طور جدی نقض نشده است، زیرا در بسیاری از رشته ها خوانده ام که آزمایش را می توان انجام داد حتی اگر فرض نرمال بودن به طور متوسط نقض شود؟ | استقلال نمونه ها |
110185 | این یک سوال بعدی است که آیا PCA برای مقایسه زیر مجموعههای دادههای تابلویی مناسب است؟ معلوم می شود که، بله، PCA مناسب است. اما راههای بسیار دیگری نیز برای کاهش دادههای n بعدی به ابعاد 1-3 وجود دارد که میتوان آنها را تجسم کرد، و من در دریافت یک نمای کلی از مجموعه تکنیکهای موجود برای انجام این کار با مشکل مواجه هستم. مثلاً در این سؤال و این سؤال به چند مورد اشاره شده است. سوال اخیر پیوندی به کاهش ابعاد غیرخطی در ویکی پدیا دارد که برای یک مقاله ویکی پدیا در مورد یک موضوع فنی نسبتاً جامع و حتی دایره المعارفی است. اما هنوز ویکی پدیا است و من دوست دارم همه چیز را در یک مکان داشته باشم. _edit:_ این سوال هم از امروز هست. **آیا مرجع تا حدودی جامعی برای کاهش ابعاد وجود دارد؟** به عنوان مثال، من واقعاً می خواهم توضیحی در مورد اینکه چرا رویکردهای مبتنی بر چندگانه (مانند ISOMAP) متفاوت یا بهتر از رویکردهای مبتنی بر فاصله (مثلاً کلاسیک) هستند، توضیح دهم. MDS). در حالت ایدهآل، این شامل برخی از درمانهای معیارهای فاصله مختلف نیز میشود. در نهایت **من سعی می کنم به انواع سوالاتی که هر تکنیک برای پاسخگویی طراحی شده است دست پیدا کنم**. بدیهی است که این موضوع می تواند بزرگتر از آن چیزی باشد که من فکر می کنم. من می دانم که، به عنوان مثال، نقشه های خودسازمانده نوعی شبکه عصبی هستند، و شبکه های عصبی کاملاً متفاوت از، مثلاً، مقیاس بندی چند بعدی هستند. من امیدوارم که مرجع یا مجموعه ای از مراجع وجود داشته باشد که نیازی به دانستن جزئیات زیربنایی هر رویکرد نداشته باشد. یادگیری همه چیزهایی که باید در مورد آمار بدانیم یک فرآیند طولانی است و من هنوز کاملاً به آنجا نرسیده ام (اگرچه تا حدی به لطف این سایت پیشرفت خوبی دارم). | مرجع تکنیک های کاهش ابعاد |
70355 | من باید اعداد تصادفی را بر اساس داده های همبستگی جزئی موجود (نه داده های همبستگی یا کوواریانس) ایجاد کنم. به طور خاص، یک ماتریس 12*168 بر اساس یک ماتریس همبستگی جزئی 12*12. ایده شبیه سازی یک ماتریس داده است که می تواند برای آزمایش چند جزء از یک پروژه استفاده شود. هر گونه کمک در این زمینه قدردانی خواهد شد. من به اطراف نگاه کردم اما هیچ موضوعی پیدا نکردم که در مورد انجام این کار با داده های همبستگی جزئی صحبت کند. اگر کسی ایده ای در مورد پیاده سازی در متلب داشته باشد، این یک امتیاز خواهد بود! پیشاپیش بسیار متشکرم موارد اضافی: با پوزش از هرگونه ابهام. - منظور من از ماتریس همبستگی جزئی، ماتریسی است که شامل همبستگی های جزئی است که برای هر دو جفت با جدا کردن اثر جزئی همه جفت های دیگر محاسبه می شود. -هدف این است: با توجه به ماتریسی از مقادیر همبستگی جزئی، آیا راهی وجود دارد که بتوانم یک مجموعه داده (12*168) تولید کنم که این مقادیر همبستگی جزئی را داشته باشد؟ -اگر روشی برای تبدیل همبستگی جزئی به مقادیر همبستگی وجود داشته باشد، قابل قدردانی است. بازم ممنون | تولید اعداد تصادفی بر اساس داده های همبستگی جزئی |
104234 | من تعدادی از اشیاء (مانند دانش آموزان) و نمرات آنها (احتمالاً به رتبه های صدک تبدیل شده است) در رویدادهای مختلف (مثلاً آزمون) دارم. من میخواهم دانشآموزانی را شناسایی کنم که به طور مداوم نمرات بالایی (مثلاً 10 درصد برتر) در رویدادها کسب کردند. اولین ایده من برای هر دانش آموز این بود که رتبه های صدک خود را در آزمون ها به طور میانگین (یا میانه بگیریم). با این حال، آیا این روش را توصیه می کنید؟ آیا اخطارهایی وجود دارد که باید از آن آگاه باشم؟ من سعی کردم یک جستجوی سریع وب انجام دهم و کسی این کار را انجام نداده است. | میانگین رتبه های صدکی |
9416 | من آزمایشی برای یافتن پهنای باند موثر n/w انجام داده ام. داده هایی که من بر حسب کیلوبیت بر ثانیه دریافت کردم 223، 221، 510، 220، 471، 229، 222، 221، 220، 221 است. چگونه می توانم پهنای باند موثر را پیدا کنم؟ میانگین 275.8 می دهد. اما اگر من فقط 4 راند اول را انجام داده باشم، میانگین آن 293.5 است. چگونه می توانم مقدار معقول تری به عنوان پهنای باند موثر پیدا کنم. یا اینکه میانگین گیری روش صحیحی برای انجام این کار است؟ | چگونه با استفاده از آمار، پهنای باند موثر را به درستی پیدا کنیم؟ |
806 | اخیراً سؤالات متعددی در مورد عادی سازی وجود داشته است. برخی از موقعیت هایی که هرگز نباید داده های خود را عادی سازی کنید، چیست و چه گزینه هایی وجود دارد؟ | چه زمانی نباید از نرمال سازی استفاده کرد؟ |
80171 | متاسفم اگر این را دقیق توصیف نمی کنم. من توزیع طول یک پروتئین را دارم. برای پروتئینهایی که نزدیک به میانگین طول هستند، با توجه به اینکه پروتئینهای بسیار بیشتری با این میانگین وجود دارد، نقاط داده بسیار بیشتری دارم. بنابراین من بیشتر مطمئن هستم که خواص آن پروتئین هایی با حجم نمونه بزرگ بومی تر هستند. با این حال، هنگامی که به دنباله های توزیع نزدیک می شوید، اندازه نمونه شما کاهش می یابد، بنابراین خواص آن پروتئین هایی با طول های بزرگ یا کوچک ممکن است خطای بیشتری داشته باشند زیرا حجم نمونه کمتر است. آیا کسی می تواند به من کمک کند که برای مقایسه طول ها باید با چه چیزی نرمال کنم؟ من می دانم که این یک مشکل شناخته شده در آمار است، اما مطمئن نیستم که نام آن چیست. | مقایسه توزیع نمونه برای توزیعهای نمونه جمعیتی پایینتر باید با چه چیزی نرمالسازی کنم؟ |
6224 | من از تابع lmer در بسته lme4 به منظور ارزیابی اثرات 2 اثر ثابت طبقه بندی شده (گروه حیوانی 1 درجه: جوندگان و مورچه ها؛ 2 درجه زیستگاه: خاک برهنه و زیر پوشش) بر شکار بذر (یک متغیر وابسته به تعداد) استفاده کردم. ). من 2 سایت دارم، با 10 درخت در هر سایت و 4 ایستگاه بذر در هر درخت. Site و Tree فاکتورهای تصادفی من (از نظر فلسفی) هستند، اما با توجه به اینکه من فقط دو سطح برای Site دارم، باید به عنوان یک عامل ثابت در نظر گرفته شود. من در مورد نحوه تفسیر نتایج سؤالاتی دارم: 1. من یک معیار انتخاب مدل را بر اساس QAICc ایجاد کردم، اما بهترین مدل (QAICc پایین) هیچ اثر ثابت قابل توجهی ندارد و سایر مدلها با QAIC بالاتر (مثلاً مدل کامل) فاکتورهای ثابت قابل توجهی پیدا کرد. آیا این منطقی است؟ 2. با توجه به یک عامل ثابت که برای مدل مهم است، چگونه تشخیص دهم که کدام سطح از عامل ثابت بر متغیر پاسخ تأثیر می گذارد؟ در نهایت، همبستگی بین عوامل ثابت حاکی از برآورد نادرست مدل است؟ FullModel=lmer(SeedPredation ~ AnimalGroup*Microhabitat*Site + (1|Site:Tree) + (1|obs), data=datos, family=poisson) QAICc(FM)104.9896 enterGeneralized مدل مختلط خطی متناسب با تقریب لاپلاس فرمول: SP ~ AG * MH * سایت + (1 | Site:Tree) + (1 | obs) داده: datos AIC BIC logLik انحراف 101.8 125.6 -40.9 81.8 اثرات تصادفی: نام گروه ها Variance Std.Dev. obs (Intercept) 0.20536 0.45317 Site:Tree (Intercept) 1.19762 1.09436 تعداد obs: 80 گروه: obs, 80; Site:Tree, 20 Fixed Effects: Estimate Std. خطای z مقدار Pr(>|z|) (قطع) 0.01161 0.47608 0.024 0.9805 AGR -18.97679 3130.76500 -0.006 0.9952 MHUC -1.60706 -1.60704 0.2051 -1.60704 0.201 -1 -0.91424 0.74506 -1.227 0.2198 AGR:MHUC 19.92369 3130.76508 0.006 0.9949 AGR:Site2 1.02241 4431.84909 MHUC 0.09. 1.80029 0.86235 2.088 0.0368 * AGR:MHUC:Site2 -3.49042 4431.84933 -0.001 0.9994 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 همبستگی جلوه های ثابت: (Intr) AGR MHUC Site2 AGR:MHUC AGR:S2 MHUC:S AGR 0.000 MHUC -0. 0.000 Site2 -0.639 0.000 0.180 AGR:MHUC 0.000 -1.000 0.000 0.000 AGR:Site2 0.000 -0.706 0.000 0.000 0.706 MHUC:Site2 0.208 -0.008 -0.708 -0.000 0.000 AGR:MHUC:S2 0.000 0.706 0.000 0.000 -0.706 -1.000 0.000 کد اینجا BestModel=lmer(SP ~ AG * MH + (1|Site:Tree) + (1|obs, family, data=pois) ) QAICc(M) 101.4419 مدل مختلط خطی تعمیم یافته متناسب با تقریب لاپلاس فرمول: SP ~ AG + AG:MH + (1 | Site:Tree) + (1 | obs) داده ها: datos AIC BIC logLik انحراف 100.3 114.6 -44.15 Nasndom 88. Variance Std.Dev. obs (Intercept) 0.76027 0.87194 Site:Tree (Intercept) 1.14358 1.06938 تعداد obs: 80 گروه: obs, 80; Site:Tree, 20 Fixed Effects: Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) -0.5153 0.4061 -1.269 0.205 AGR -18.7146 2603.4397 -0.007 0.994 AGA:MHUC -0.7301 -0.7301 -0.7301 0.5048 A. 17.7221 2603.4397 0.007 0.995 | تفسیر خروجی GLMM (متن صحیح) |
80179 | من می خواهم چند توزیع دو بعدی را نمایش دهم، اما مطمئن نیستم که چگونه آنها را به درستی نگاشت کنم. توزیعهای من دارای نوکهای باریکی هستند، بنابراین نقشهبرداری خطی احتمالات برای رنگ، بیشتر اطلاعات را پنهان میکند. من دو روش را امتحان کرده ام، انجام یک تنظیم گاما یا قطع مقادیر بالا در برخی از آستانه ها، در هر دو مورد سعی می کنم توزیع جینی خاصی را برای رنگ های نمایش داده شده هدف قرار دهم. اگرچه نتایج خیلی خوب نیست. من احساس میکنم که تبدیلهای گاما واقعاً به CDF معکوس توزیع رنگ من نزدیک نیست. من تمایلی به استفاده از یک روش کاملاً محلی ندارم، زیرا نمی خواهم تمام تفاوت کنتراست مطلق را از دست بدهم. آیا تبدیل های پارامتریک دیگری وجود دارد که بتوانم آن را امتحان کنم؟ | نگاشت تن یک توزیع دو بعدی |
10366 | من در دریافت $\bar u$ (برای نشان دادن میانگین مقادیر $u_i$) به عنوان برچسب برای محور x در شکل eps خروجی مشکل دارم. هر گونه کمکی قدردانی خواهد شد! با تشکر فراوان | استفاده از عبارت LaTeX در gnuplot |
59630 | من مجموعه داده ای دارم که حداکثر شامل 150 نمونه است (تقسیم شده به آموزش و آزمایش)، با ویژگی های بسیاری (بیش از 1000). من باید طبقهبندیکنندهها و روشهای انتخاب ویژگی را با هم مقایسه کنم که عملکرد خوبی روی دادهها دارند. بنابراین، من از سه روش طبقه بندی (J48، NB، SVM) و 2 روش انتخاب ویژگی (CFS، WrapperSubset) با روش های مختلف جستجو (Greedy، BestFirst) استفاده می کنم. در حین مقایسه، دقت تمرین (تا زدن متقاطع 5 برابر) و دقت تست را بررسی می کنم. در اینجا یکی از نتایج J48 و CFS-BestFirst آمده است: { accuracyTraining : 95.83, accuracyTest : 98.21 } بسیاری از نتایج اینگونه هستند و در SVM نتایج زیادی وجود دارد که نشان می دهد دقت تست بسیار بالاتر از آموزش است. (آموزش: 60٪، آزمون: 98٪) چگونه می توانم این نوع نتایج را به طور معناداری تفسیر کنم؟ اگر پایین تر بود، می گویم بیش از حد مناسب است. آیا در مورد سوگیری و واریانس در این مورد با مشاهده همه نتایج چیزی می توان گفت؟ چه کاری می توانم انجام دهم تا این طبقه بندی معنادار شود، مانند انتخاب مجدد مجموعه های آموزشی و آزمایشی یا فقط استفاده از اعتبارسنجی متقابل در همه داده ها؟ من 73 مورد آموزش و 58 نمونه تست دارم. برخی از پاسخ ها این اطلاعات را در زمان ارسال نداشتند. | دقت تست بالاتر از آموزش چگونه تفسیر کنیم؟ |
6226 | من در حال انجام یک تحلیل سری زمانی هستم. من بیشتر تحلیلهایم را در R انجام میدهم، جایی که میتوانم از NA برای نشان دادن در دسترس نیست استفاده کنم (مثلاً یک نقطه داده از دست رفته). اما من در حال آماده سازی داده ها در OpenOffice هستم. در حال حاضر، من سلول ها را برای داده های از دست رفته خالی می گذارم. آیا راه بهتری برای اعلام NA بودن یک سلول وجود دارد؟ | نمایش داده های از دست رفته در صفحه گسترده OpenOffice |
80823 | ### زمینه _این سوال از R استفاده می کند، اما در مورد مسائل آماری کلی است._ من در حال تجزیه و تحلیل اثرات عوامل مرگ و میر (درصد مرگ و میر ناشی از بیماری و انگلی) بر نرخ رشد جمعیت پروانه در طول زمان هستم، جایی که جمعیت لارو از 12 نمونه نمونه برداری شد. سایت ها یک بار در سال به مدت 8 سال. داده های نرخ رشد جمعیت یک روند چرخه ای واضح اما نامنظم را در طول زمان نشان می دهد. بقایای یک مدل خطی تعمیم یافته ساده (نرخ رشد ~ % بیماری + % انگلی + سال) روند چرخه ای مشابه واضح اما نامنظمی را در طول زمان نشان دادند. بنابراین، مدلهای حداقل مربعات تعمیمیافته با همان شکل نیز با ساختارهای همبستگی مناسب برای مقابله با خودهمبستگی زمانی، به عنوان مثال، به دادهها برازش داده شدند. ساختارهای همبستگی متقارن مرکب، نظم فرآیند اتورگرسیو 1 و ساختارهای همبستگی میانگین متحرک اتورگرسیو. همه مدلها دارای اثرات ثابت مشابهی بودند، با استفاده از AIC مقایسه شدند و توسط REML برازش شدند (برای مقایسه ساختارهای همبستگی مختلف توسط AIC). من از بسته R nlme و تابع gls استفاده می کنم. ### سوال 1 باقیماندههای مدلهای GLS هنوز الگوهای چرخهای تقریباً یکسانی را هنگام ترسیم زمان نمایش میدهند. آیا چنین الگوهایی همیشه باقی خواهند ماند، حتی در مدل هایی که به طور دقیق ساختار خودهمبستگی را توضیح می دهند؟ من برخی از داده های ساده شده اما مشابه را در R در زیر سوال دوم خود شبیه سازی کرده ام، که این مسئله را نشان می دهد _بر اساس درک فعلی من از روش های مورد نیاز برای ارزیابی الگوهای همبستگی موقتی در باقیمانده های مدل_، که اکنون می دانم اشتباه هستند (پاسخ را ببینید). ### سوال 2 من مدلهای GLS را با تمام ساختارهای همبستگی احتمالی ممکن به دادههایم برازش دادهام، اما هیچکدام در واقع به طور قابلتوجهی بهتر از GLM بدون ساختار همبستگی مناسب نیستند: فقط یک مدل GLS تا حدی بهتر است (امتیاز AIC = 1.8 کمتر)، در حالی که بقیه مقادیر AIC بالاتری دارند. با این حال، این تنها زمانی است که همه مدلها توسط REML برازش میشوند، نه ML که در آن مدلهای GLS به وضوح بسیار بهتر هستند، اما من از کتابهای آمار میدانم که شما فقط باید از REML برای مقایسه مدلهایی با ساختارهای همبستگی مختلف و اثرات ثابت یکسان به دلایلی استفاده کنید. من در اینجا به جزئیات نمی پردازم. با توجه به ماهیت آشکارا همبستگی زمانی داده ها، اگر هیچ مدلی حتی نسبتاً بهتر از GLM ساده نباشد، بهترین راه برای تصمیم گیری از کدام مدل برای استنتاج، با فرض استفاده از روش مناسب (در نهایت می خواهم استفاده کنم) چیست. AIC برای مقایسه ترکیبات متغیرهای مختلف)؟ ### «شبیهسازی» Q1 در حال بررسی الگوهای باقیمانده در مدلهای با و بدون ساختارهای همبستگی مناسب، ایجاد متغیر پاسخ شبیهسازی شده با اثر چرخهای «زمان» و اثر خطی مثبت «x»: زمان <- 1:50 x <- نمونه (تکرار (1:25، هر = 2)، 50) y <- rnorm(50،5،5) + (5 + 15*sin(2*pi*time/25)) + (x/1) y باید یک روند چرخه ای را در زمان با تغییرات تصادفی نشان دهد: نمودار (زمان، y) و یک رابطه خطی مثبت با x با تصادفی variation: plot(x,y) یک مدل افزودنی خطی ساده از y ~ time + x ایجاد کنید: نیاز(nlme) m1 <- gls(y ~ time + x, method=REML) مدل الگوهای چرخهای واضحی را در باقیماندهها هنگام ترسیم در برابر «زمان» نشان میدهد، همانطور که انتظار میرود: نمودار (زمان، m1$residuals) و فقدان خوب و واضحی از هر گونه الگو یا روند در باقیماندهها هنگام ترسیم در برابر «x» باید باشد. : plot(x, m1$residuals) یک مدل ساده از y ~ time + x که شامل یک ساختار همبستگی خودرگرسیون از مرتبه 1 است، باید با داده ها بسیار بهتر از مدل قبلی مطابقت داشته باشد زیرا ساختار خودهمبستگی، زمانی که با استفاده از AIC ارزیابی میشود: m2 <- gls(y ~ زمان + x، همبستگی = corAR1(form=~time)، روش = REML) AIC(m1،m2) با این حال، مدل هنوز باید تقریباً نمایش داده شود باقیماندههای همبسته خودکار «زمان» یکسان: طرح (زمان، m2$ باقیمانده) از راهنمایی شما بسیار متشکرم. | آیا الگوهای باقیمانده خودهمبسته حتی در مدل هایی با ساختارهای همبستگی مناسب باقی می مانند و چگونه بهترین مدل ها را انتخاب کنیم؟ |
41145 | ما به یک سیستم هشدار اولیه نیاز داریم. من با سروری سروکار دارم که مشخص است مشکلات عملکردی تحت بارگذاری دارد. خطاها همراه با مهر زمانی در یک پایگاه داده ثبت می شوند. برخی از مراحل مداخله دستی وجود دارد که میتوان برای کاهش بار سرور انجام داد، اما تنها در صورتی که کسی از این موضوع آگاه باشد... با توجه به مجموعهای از زمانهایی که خطاها رخ داده است، چگونه میتوانم شروع یک جهش در خطاها را شناسایی کنم (در زمان واقعی)؟ ما می توانیم به صورت دوره ای یا روی هر رخداد خطا محاسبه کنیم. ما نگران خطاهای گاه به گاه نیستیم، اما آستانه خاصی نداریم. من فقط میتوانم هر زمان که مثلاً سه خطا در عرض پنج دقیقه دریافت میکنیم به کسی اطلاع دهم، اما مطمئن هستم که راه بهتری وجود دارد... من میخواهم بتوانم حساسیت الگوریتم را بر اساس بازخوردهای sysadmin تنظیم کنم. . در حال حاضر، آنها دوست دارند نسبتاً حساس باشد، حتی اگر میدانیم که میتوانیم انتظارات مثبت کاذب را داشته باشیم. من یک آماردان نیستم، که مطمئنم واضح است، و پیاده سازی آن باید با ابزارهای موجود ما نسبتاً ساده باشد: SQL Server و ASP JScript قدیمی. من به دنبال پاسخ در کد نیستم، اما اگر به نرم افزار اضافی نیاز داشته باشد، احتمالاً برای ما کار نخواهد کرد (اگرچه برای کنجکاوی خودم از راه حل های غیر عملی اما ایده آل به عنوان نظر استقبال می کنم). | روشی ساده برای شناسایی الگوریتمی افزایش خطاهای ثبت شده |
6225 | همانطور که سوال بیان می کند - آیا می توان فرضیه صفر را اثبات کرد؟ از درک (محدود) من از فرضیه، پاسخ منفی است، اما نمی توانم توضیح دقیقی برای آن ارائه دهم. آیا سوال پاسخ قطعی دارد؟ | آیا می توان فرضیه صفر را اثبات کرد؟ |
40899 | مطمئن نیستم که آیا این یک سوال معتبر است. می خواستم بدانم که آیا پاسخ های خوبی برای این سوال وجود دارد: > در چه شرایطی منحنی توان در > آزمون فرضیه صاف یا پیوسته نیست؟ با تشکر | شرایطی که در آن منحنی توان در آزمون فرضیه صاف یا پیوسته نیست |
33809 | من دو مدل رگرسیون لجستیک دارم که از مجموعه داده های یکسان و متغیر باینری وابسته یکسان استفاده می کنند، اما با اندازه های نمونه متفاوت به دلیل IV های مختلف. چگونه می توانم این دو مدل را جدا از استفاده از ماتریس طبقه بندی مقایسه کنم؟ | چگونه دو مدل رگرسیون لجستیک را مقایسه کنم؟ |
59638 | آیا هدف از آزمایش جایگشت آزمایش این است که چندین گروه از نمونه ها از توزیع یکسانی می آیند؟ من متوجه شدم که مراحل آن عبارتند از > مراحل یک محاسبه مبتنی بر جایگشت سطح اهمیت یک > آمار آزمون به شرح زیر است: > > i) یک آمار آزمون را انتخاب کنید، به عنوان مثال. یک نمره t برای مقایسه دو گروه، > > ii) آمار آزمون را برای ژن مورد نظر محاسبه کنید، > > iii) برچسب ها را بر روی نمونه ها به طور تصادفی تغییر دهید، و آزمون > آمار را برای برچسب های بازآرایی مجدد دوباره محاسبه کنید. تکرار برای تعداد زیادی (شاید > 1000) جایگشت، و در نهایت، > > iv) کسری از مواردی را محاسبه کنید که در آن آمار آزمون از iii) > از آمار آزمون واقعی از ii بیشتر شود. در مرحله اول چه نوع آمار آزمونی را باید انتخاب کرد؟ مثال از امتیاز t استفاده می کند که تفاوت بین دو گروه را اندازه می گیرد. اما به نظر من هر آماری جواب می دهد، نه لزوماً اندازه گیری تفاوت بین دو گروه. آیا درست است؟ با تشکر و احترام! | چگونه آمار آزمون را برای تست جایگشت انتخاب کنیم؟ |
80824 | سرپرست من یک متغیر پاسخ به من داده است که یک متغیر شمارش است، همراه با 15 متغیر توضیحی. از آنجایی که پاسخ یک شمارش است، من به انجام رگرسیون پواسون یا منفی دو جمله ای روی پاسخ فکر می کردم. با این حال، پس از محاسبه جدول همبستگی و VIFها، متوجه شدم که برخی از متغیرهای توضیحی همبستگی بالایی دارند. من از سرپرستم پرسیدم که آیا می توانم از شر برخی از متغیرهای توضیحی خلاص شوم تا از مشکل چند خطی بودن جلوگیری کنم، اما او جواب منفی داد. چگونه می توانم با خیال راحت GLM را به داده ای تحمیل کنم که هم خطی بالایی دارد (برخی از ضرایب همبستگی بیش از 90/0 است)؟ | استفاده از مدل خطی تعمیم یافته برای داده هایی با هم خطی بالا |
86260 | من مدلی با این فرمول دارم: $$ Y_n=aX_n^b + e_n $$ $$ X_n \in [0,2] \quad\quad a = 1.5 \quad\quad b = 0.5 \quad \quad e_n = N (μ = 0، σ^2 = 1) $$ من می خواهم مقدار $Y_n$ را با استفاده از الگوریتم Metropolis Hastings پیش بینی کنم یا الگوریتم گیبز در این شرایط: (1) اگر N = 1 و X_1$ = 1، سپس Y_1$ = 0.5 (2) اگر N = 1 و X_1$ = 2، سپس Y_1$ = 1.2 (3) اگر N = 2 و $X_1$ = 1 و $X_2$ = 2 سپس Y_1$ = 0.5 و $Y_2$ = 1.2 چرا «متروپلیس هستینگز» را به جای «گیبز» انتخاب کردید و بالعکس؟ دلایل شما؟ مزایا؟ معایب؟ | چگونه می توان مقدار Yn را در این فرمول با متروپلیس هاستینگز یا گیبس پیش بینی کرد؟ |
51328 | موقعیتی به من داده می شود که در آن یک میانگین ناشناخته، mu و یک واریانس شناخته شده دارم. من اطلاعات قبلی در مورد میانگین دارم که از توزیع نرمال پیروی می کند و میانگین و واریانس خاصی دارد که داده شده است. اطلاعات نمونه ندارم از اینجا به کجا بروم تا احتمالات متغیر مورد علاقه خود را پیدا کنم؟ | آمار بیزی - توزیع نرمال: واریانس شناخته شده، میانگین ناشناخته |
5270 | من دادههایی دارم که پس از جستجوی زیاد، به این نتیجه رسیدم که احتمالاً از استفاده از یک مدل جلوههای ترکیبی خطی سود میبرند. فکر میکنم در اینجا نتیجه جالبی دارم، اما در فهمیدن اینکه چگونه همه نتایج را تفسیر کنم کمی مشکل دارم. این چیزی است که من از تابع summary() در R بدست میآورم: > summary(nonzero.lmer) مدل خطی ترکیبی متناسب با فرمول REML: relative.sents.A ~ relative.sents.B + (1 | id.A) + ( 1 |. چکیده) داده ها: غیرصفر AIC BIC logLik انحراف REMLdev -698.8 -683.9 354.4 -722.6 -708.8 اثرات تصادفی: نام گروه ها Variance Std.Dev. id.A (Intercept) 1.0790e-04 0.0103877 abstract (Intercept) 3.0966e-05 0.0055647 Residual 2.9675e-04 0.0172263 تعداد obs: 146، گروه: 146; Abstract, 52 Fixed Effects: Estimate Std. مقدار خطای t (Intercept) 0.017260 0.003046 5.667 relative.sents.B 0.428808 0.080050 5.357 همبستگی اثرات ثابت: (Intr) rltv.snts.B -0.742 سوال من متغیر وابسته است. (relative.sents.A) و relative.sents.B زمانی که عوامل تصادفی فاکتورگیری شوند. من جمع می کنم که مقدار t 5.357 برای relative.sents.B باید معنی دار باشد. اما آیا این نشان می دهد که جهت اثر چیست؟ من فکر می کنم که چون ضریب شیب مثبت است، به این معنی است که با افزایش relative.sents.B، متغیر وابسته من نیز افزایش می یابد. آیا این درست است؟ کتابی که استفاده میکنم به طور خلاصه اشاره میکند که همبستگی گزارش شده در اینجا یک همبستگی عادی نیست، اما به جزئیات نمیپردازد. به طور معمول، من آنجا را نگاه می کنم تا جهت و اندازه اثر را بفهمم. آیا این اشتباه است؟ اگر در هر دو مورد اشتباه میکنم، پس راه خوب (امیدوارم نسبتاً ساده) برای کشف جهت و اندازه اثر چیست؟ | تفسیر اندازه و جهت اثرات ثابت در یک مدل خطی اثر مختلط |
55667 | با توجه به سوال زیر...  من هنوز نمی دانم چرا $$P(T|L)$$ است و نه $$P(L|T)$$  لطفاً از هر توصیه ای قدردانی کنید. | بیان احتمال |
41143 | سوال من مربوط به: تخمین حداکثر احتمال و تخمین آماری مرتبه n و آماره مرتبه n است. من سعی می کنم به سوالات پاسخ دهم و از شما بچه ها می خواهم که به آن نگاه کنید و از آن انتقاد کنید، زیرا می خواهم همه پاسخ ها واضح باشد :) > با توجه به $$ f_{\theta}(x)= e^{ (\theta -x)}$$for $x \ge \theta$، در غیر این صورت > $f_\theta = 0$ > > نشان دادم که MLE $\hat \theta_n $of $\theta= min(x_1,x_2, ... x_n) = > X_{(1)}$ باید به سؤالات زیر در مورد این توزیع پاسخ دهم: > a.) cdf $\hat \theta_n $ > > b چیست. ) pdf $\hat \theta_n $ چیست و توزیع آن را رسم کنید > > c.) از این توزیع نمونه ای به اندازه $n$ می گیریم و به طور تصادفی مقدار بسیار غیر معمول $\hat \theta_n = را گرفتیم. q_{1-\alpha}$ که در آن > $q_{1-\alpha}$ مقدار $1-\alpha$ از توزیع > $\hat\theta_n$ است. $q_{1-\alpha}$ را به عنوان تابعی از $\theta$ و > $\alpha$ > > d تعیین کنید.) مجدداً از اندازه $n$ نمونه می گیریم و اکنون با بدست آوردن > $\ بسیار خوش شانس بودیم. hat\theta_n=q_0$ که در آن $q_0$، چندک 0 از توزیع $\hat \theta_n$ > است. $q_o$ > > e را تعیین کنید.)X_1=3، X_2=4، X_3=10$ را مشاهده می کنیم. با پاسخ های c.) و d.) ما > اکنون باید بتوانیم یک بازه اطمینان 95٪ برای $\theta$ بدست آوریم، تلاش من: a.) cdf $F_{\hat\theta_n}1-( 1-(F_{\theta}(x))^n= 1-e^{n\theta - nx}$ b.) $f_{\hat\theta_n}= ne^{n\theta - nx} = \frac{d}{dx}( 1-e^{n\theta - nx})$. ج) $1-\alpha =F(q_{1-\alpha})= 1-e^{n\theta -nq_{1-\alpha}} \implies \ln{(1-\alpha)}= n\theta-nq_{1-\alpha} \implies -nq_{1-\alpha}= \ln{(1-\alpha)}-n\theta \implies q_{1-\alpha}=-\frac{\ln{(1-\alpha)}}{n} +\theta$$ d.)$$0=F(q_0)= 1- e^{n\theta -nq_0} \implies 1=e^{n(\theta-q_0)} \implies q_0=\theta$$ e.) ما به یک بازه اطمینان $1-\alpha$ نیاز داریم برای $\theta$. اجازه دهید $c_l$ و $c_u$ مرزهای پایین و بالایی فاصله اطمینان $\theta$ را نشان دهند. من $$P(c_l < \hat\theta_n < c_r)= 1-\alpha $$ را با نیاز به $$P(\hat\theta_n \le c_l) =P(\hat\theta_n \ge c_r)= \ حل خواهم کرد frac{1}2{}\alpha $$ اکنون معادلات زیر را پیدا کردم $$1-e^{n\theta-nc_l} = \frac{\alpha}{2}\implies \ln(1-\frac{1}{2}\alpha)=n\theta-nc_l \implies c_l = -\frac{\ln(1-\frac{1 }{2}\alpha)}{n}+\theta $$ به طور مشابه $$e^{n\theta-nc_u}= \frac{1}{2} \alpha \implies c_u=-\frac{\ln(\frac{1}{2}\alpha)}{n}+\theta $$ حالا متوجه شدم که، هر مقدار که $\theta$ باشد: $$P(-\ frac{\ln(1-\frac{1}{2}\alpha)}{n}+\theta <\hat\theta_n <-\frac{\ln(\frac{1}{2}\alpha)}{n}+\theta ) = 1-\alpha $$ با مرتب کردن مجدد نابرابری ها، می بینیم که این معادل $$ P است (\frac{\ln(\frac{1}{2}\alpha)}{n}+\hat\theta_n <\theta < \frac{\ln(1-\frac{1}{2}\alpha)}{n}+\hat\theta_n ) = 1-\alpha$$ بنابراین، یک بازه اطمینان 100$(1-\alpha) $% برای $\theta$ توسط: $$\left( \frac{\ln(\frac{1}{2}\alpha)}{n}+\hat\theta_n <\theta < \frac{\ln(1-\frac{1}{2}\alpha)}{n}+\hat\theta_n \right) $$ با نگاهی به مشاهده، حداقل (X1, X2, X3) = 3 داریم و n = 3. بنابراین فاصله اطمینان 95% ما باید این باشد: $$\left( \frac{\ln(\frac{0.05}{2})}{3}+3 <\theta < \frac{\ln(1-\frac{0.05}{2})}{3}+3 \right) $$این فاصله [1.77، 2.99] است. | چند سوال در مورد فواصل اطمینان، چندک و cdf/pdf |
18002 | من سعی کردم آزمایش های شرح داده شده در این مقاله را بازتولید کنم و می خواستم خروجی سیستم خود را با آنچه در مقاله توضیح داده شده مقایسه کنم. من به دنبال مقایسه آماری سیستم ها هستم (در مورد آزمایش فرضیه ها واقعاً مطمئن نیستم). به طور دقیق تر مجموعه داده شامل تصاویر دسته بندی خاصی از اتاق ها (حمام، اتاق نشیمن و غیره) است که در 6 خانه مختلف به دست آمده است. در آزمایش، ما از 5 خانه برای آموزش یک طبقهبندیکننده و از خانه ششم برای آزمایش آن استفاده میکنیم (نویسنده آن را ترک یکاوت نامیده است، اما دقیقاً مطمئن نیستم که دقیقاً همینطور باشد). نتایج، نرخ طبقه بندی صحیح برای هر اتاق در هر تا است. آیا شما ایده ای دارید؟ | چگونه می توان نتایج یک استراتژی ترک یکی را با هم مقایسه کرد؟ |
805 | من سعی میکنم خطای استاندارد (SE) را برای ارزش پیشبینی مثبت (PPV)، مقدار پیشبینی منفی (NPV) و نسبت شانس تشخیصی (DOR) که با استفاده از نرخهای مثبت واقعی، مثبت کاذب، منفی واقعی به دست آوردهام محاسبه کنم. و منفی کاذب در یک نمونه. من می توانم 95% CI بگیرم اما نه SE. متشکرم! | چگونه می توانم SE را برای PPV، NPV و DOR محاسبه کنم؟ |
7202 | ### زمینه: من داده های ادغام شده را با ابعاد زمان و مقطع دارم. این داده های نامتعادل بدون طیف کاملی از مشاهدات زمانی برای هر مقطع از مشاهدات است. به نوعی مانند داده های پانل نامتعادل است؟ من می خواهم با تعداد محدودی از مشاهدات بدون از دست دادن هیچ داده ای ادامه دهم. ### سوالات: * چگونه می توانم نتایج رگرسیون (حداقل مربعات تعمیم یافته؟) را در SPSS با این نوع داده ها دریافت کنم؟ * هنگام ارزیابی نتایج باید به چه نکاتی توجه کنم؟ | رگرسیون با داده های تلفیقی در SPSS |
18004 | من در مورد اجرای عملی یک تقسیم باینری در یک درخت تصمیم کنجکاو هستم - زیرا به سطوح یک پیشبینی کننده طبقهبندی $X{j}$ مربوط میشود. به طور خاص، من اغلب از نوعی طرح نمونهبرداری (مانند کیسهگیری، نمونهبرداری بیش از حد و غیره) در هنگام ساختن یک مدل پیشبینی با استفاده از درخت تصمیم استفاده میکنم - به منظور بهبود دقت و ثبات پیشبینی آن. در طول این روالهای نمونهبرداری، این امکان وجود دارد که یک متغیر طبقهبندی به یک الگوریتم برازش درختی با کمتر از مجموعه سطح کامل ارائه شود. فرض کنید یک متغیر X در سطوح «{A,B,C,D,E}» است. در یک نمونه، شاید فقط سطوح «{A,B,C,D}» وجود داشته باشد. سپس، هنگامی که درخت حاصل برای پیش بینی استفاده می شود، مجموعه کامل ممکن است وجود داشته باشد. در ادامه این مثال، میگوییم درختی روی X تقسیم میشود و «{A,B}» را به سمت چپ و «{C,D}» را به سمت راست میفرستد. من انتظار دارم که منطق تقسیم باینری پس از مواجهه با داده های جدید بگوید: اگر X دارای مقدار A یا B است، به سمت چپ ارسال کنید، در غیر این صورت، این مورد را به راست ارسال کنید. آنچه به نظر می رسد در برخی از پیاده سازی ها اتفاق می افتد این است که اگر X دارای مقدار A یا B است، به سمت چپ ارسال کنید، اگر X دارای مقدار C یا D است، به سمت راست ارسال کنید. وقتی این مورد مقدار E را به خود می گیرد، الگوریتم خراب می شود. روش درست برای انجام یک تقسیم باینری چیست؟ به نظر می رسد راه بسیار قوی تر اغلب اجرا می شود، اما نه همیشه (به Rpart زیر مراجعه کنید). ** در اینجا چند مثال وجود دارد: ** Rpart شکست می خورد، بقیه خوب هستند. #تست درختان و مقادیر از دست رفته خلاصه(لحیم کاری) جدول(لحیم کننده$PadType) # ایجاد قطار و اعتبارسنجی set.seed(12345) t_rows<-sample(1:nrow(solder),size=360, replace=FALSE) train_solder<- solder[t_rows,] val_solder<-solder[-t_rows,] #نگاهی به PadType جدول(train_solder$PadType) table(val_solder$PadType) #تعدادی را به سطوح از دست رفته تنظیم کنید(train_solder$PadType)[train_solder$PadType %in% c('L8','L9','W4','W9')] <- MISSING #برازش چندین درخت، ممکن است مجبور شود با پارامترها بازی کند تا آنها را بر روی متغیر ####RPART mod_rpart<-rpart(Solder~PadType,data=train_solder) predict(mod_rpart,val_solder) #خطا در model.frame.default(Terms, newdata, na.action = na.action, xlev = attr( شیء، : #factor 'PadType' دارای سطح(های) جدید D6، L6، L7، L8, L9, W4 ####TREE mod_tree<-tree(Solder~PadType,data=train_solder,split=gini) predict(mod_tree,val_solder) #خوب کار می کند ####ctree mod_ctree<-ctree(Solder~ PadType,data=train_solder,control=ctree_control(mincriterion = 0.05)) predict (mod_ctree,val_solder) #بخوبی کار می کند | تفاوت در اجرای تقسیم های باینری در درخت های تصمیم |
89663 | من اخیراً در یک کلاس آمار با PLS-DA آشنا شدم. من می توانم PLS-DA را به صورت ریاضی انجام دهم، اما واقعاً در توضیح آن مشکل دارم. می خواستم بدانم آیا کسی می تواند به من کمک کند که چگونه PLS-DA را به روش غیر ریاضی برای افراد غیر روحانی توضیح دهم؟ | توضیح PLS-DA برای یک فرد غیر روحانی |
89661 | من در حال مبارزه با نحوه قرار دادن مسئله زیر با ریاضیات ساده هستم. فرض کنید من 2 متغیر N & p دارم. 2 نمونه N N1 و N2 و 2 نمونه از p p1 و p2 هستند. اکنون لطفاً عبارت زیر را در نظر بگیرید: abs(N1p1 - N2p2) (یعنی تفاوت مطلق بین 2 نمونه از Np) اکنون باید به این سؤال پاسخ دهم: از تفاوت فوق، چه مقدار (در درصد) به دلیل واریانس برای N است و چگونه بسیار به دلیل p. بنابراین من باید محاسبه کنم: A1 = abs (N1 - N2) A2 = abs (p1 - p1) و از آنجایی که تفاوت کلی در abs (N1p1 - N2p2) فقط به دلیل تفاوت بین N1، N2 و p1، p2 است، من باید قادر به نشان دادن A1 + A2 = 100٪ بنابراین سؤال من این است که چگونه می توان A1 و A2 را طوری به دست آورد که در 100٪ جمع شوند؟ یا راه دیگری برای پاسخ به این سوال وجود دارد: از بین تفاوت abs (N1p1 - N2p2)، چه مقدار (در درصد) به دلیل واریانس برای N و چقدر به دلیل p است. ? با تشکر از کمک شما. | یک ریاضی ساده؟ |
41146 | هدف تخمین نسبت (یا تعداد) یک گونه خاص در میان نمونه جمع آوری شده است. به دلیل تعداد زیاد نمی توان از کل نمونه شمارش کرد. بنابراین من باید نسبتی از نمونه را انتخاب کنم (تقریباً نمونه را بر اساس اندازه یا وزن تقسیم کنید)، به عنوان مثال 1/3 از این نمونه. سوال من این است: آیا این نمونه برداری مجدد بر فاصله اطمینان نسبت تخمینی برای این گونه تأثیر می گذارد؟ به خصوص اگر گونه نادر باشد (نسبت تقریبا 0 است)؟ آیا تفسیر تحلیلی وجود دارد؟ با تشکر | اگر تعداد من از نسبت (نمونهگیری مجدد) یک نمونه باشد، آیا بر فاصله اطمینان تأثیر میگذارد؟ |
114024 | در یک کتاب، نحو SPSS را برای انجام تبدیل رتبه تراز شده به روش ANOVA دو طرفه پیدا کرده ام. این روش به این صورت است: \- ذخیره باقیمانده ها با انجام یک ANOVA استاندارد \- استفاده از Aggregate برای تعیین اثرات برای میانگین گروه (mij برای تعامل، ai به عنوان عامل اول، bj برای عامل دوم) \- حذف اثر متقابل از باقی مانده برای تعیین تعامل (ran )، حذف افکتهای تکی برای تعیین اثرات اصلی (ra) \- تبدیل باقیماندهها به رتبهها \- اجرای مدل کامل بر روی این رتبهها برای تعامل / اثرات اصلی، به ترتیب نحو عبارت است از: Unianova x بر اساس داروهای گروهی /save=resid (rab) /design=گروه داروهای گروه*داروها. ra=rab را محاسبه کنید. مجموع /outfile=* mode=addvariables /break=group drugs /mij=mean(x). جمع کردن /outfile=* mode=addvariables /break=group /ai=mean(x). جمع /outfile=* mode=addvariables /break=drugs /bj=mean(x). جمع /outfile=* mode=addvariables /break= /mm=mean(x). محاسبه rab=rab-(mij - ai - bj + mm). ra=ra-(ai + bj - 2*mm) را محاسبه کنید. Rank variables=ra rab (A) /rank into rar rabr. Unianova rabr توسط داروهای گروهی /طراحی=گروه داروهای گروه*داروها. Unianova rar توسط داروهای گروهی /طراحی=گروه داروهای گروه*داروها. اکنون میخواهم این را با طرح خود تطبیق دهم که یک عامل تصادفی اضافی موضوع دارد. دستور ANOVA اولیه من به این صورت خواهد بود: Unianova x بر اساس تکرار شرط موضوع / تصادفی=موضوع /method=SSTYPE(3) /intercept=INCLUDE /save=RESID (rab) /criteria=ALPHA(.05) /design=تکرار شرط شرط موضوع*شرط تکرار*تکرار موضوع*موضوع. با این حال، اکنون مطمئن نیستم **چگونه می توان سومین اثر تصادفی** را در روند تبدیل رتبه تراز شده بعدی لحاظ کرد. هر گونه راهنمایی تا حد زیادی قدردانی می شود! با تشکر (منبع: http://www.uni-koeln.de/~a0032/statistik/buch/nonpar-anova-buch.pdf، به زبان آلمانی) | Aligned Rank Transform برای ANOVA اثرات مختلط در SPSS |
11615 | طرح تحقیق من به شرح زیر است: **من این موارد را بین آزمودنی ها دارم:** * شرایط آزمایش - 5 سطح * وضعیت کاربر فیس بوک - 2 سطح (بله/خیر) ** سرپرست من همچنین از من می خواهد که ببینم آیا تأثیرات قابل توجهی وجود دارد یا خیر از:** * جنسیت - 2 سطح * وضعیت رابطه - 2 سطح * رضایت از رابطه - 2 سطح ** و اینها در داخل آزمودنی های IV:** * خلق و خوی در زمان 1 * خلق و خو در زمان 2 **من همچنین سه DV دارم** * سطح جذابیت * فراوانی فکر * حالت خلق و خوی من در حال بررسی تأثیر یک شرایط خاص بر روی کاربران فیس بوک، در مقابل کاربران غیر فیس بوک هستم. در این مورد میخواهم ببینم که آیا تفاوتهایی بین جنسیتها وجود دارد یا خیر. اینکه آیا بین افراد در یک رابطه تفاوت وجود دارد یا نه در یک رابطه و تأثیر رضایت از رابطه. این یک مطالعه بزرگ است، اما من در مورد چگونگی توصیف طرح مطمئن نیستم. ### سوال * چگونه باید طراحی این مطالعه را توصیف کنم؟ ### افکار اولیه من فکر می کنم باید یک طرح MANOVA باشد، با این حال آنچه که من گیج کننده می یابم IV های مختلف هستند. آیا این یک MANOVA فاکتوریل 2×5 است؟ من خیلی گیج شدم با همه IV هایی که در اطراف پرواز می کنند. | چگونه می توان طرحی را با ترکیبی از شرایط تجربی، متغیرهای پیش بینی کننده و متغیرهای چندگانه نتیجه توصیف کرد؟ |
14586 | آیا ابزاری برای همکاری از راه دور در تنظیمات پیش بینی یا یادگیری ماشین وجود دارد؟ من به دنبال یک محیط محاسباتی هستم که شامل کنترل منبع مناسب باشد، نحوه تطبیق مجموعه دادههای مختلف با الگوریتمهای مختلف را پیگیری کند و ترکیب پیشبینیهای مختلف را تسهیل کند. چه ابزارهایی برای این کار مفید خواهند بود؟ | مدیریت پروژه برای همکاری از راه دور در پیش بینی |
5271 | من یک مدل خطی برازش دارم و اکنون تست عدم تناسب را انجام می دهم. اگر مدل برازش خوبی داشته باشد، انحراف باقیمانده باید از توزیع $\chi^2$ پیروی کند. مدلی که من تازه اجرا کردم تناسب بسیار ضعیفی دارد و اکنون می خواهم این را به صورت بصری نشان دهم. من از کد R زیر برای رسم مقدار انحراف باقیمانده و توزیع $\chi^2$ که باید از آن حاصل شود (تحت فرضیه برازش خوب) استفاده کرده ام. df <- 384162 resdev <- 750749 x <- seq(از=350000، به=800000، توسط=1) y <- dchisq(x، df=df) plot(x، y، type='l') abline( v=resdev، col='red') همه چیز خوب کار می کند، به جز اینکه اکنون مقادیر محور X نمایش داده می شوند در نماد علمی چگونه قالب بندی مقادیر محور را کنترل کنم؟ میدانم اگر از نشانهگذاری معمولی استفاده کنم ممکن است شلوغ باشد، بنابراین آیا میتوانم برچسبهایی مانند «350k» را برای 350000 قالببندی کنم؟ | نحوه تغییر فرمت محور X در نمودار |
5275 | اجازه دهید $\\{x_i\\}_{i=1}^n$ یک نمونه از توزیع گاوسی چند متغیره ${\cal N}(0, \Sigma_X)$ و $\\{y_i\\}_{ باشد. i=1}^m$ نمونه ای از ${\cal N}(0, \Sigma_Y)$ باشد. آیا آزمون های فرضیه برای $\Sigma_X = \Sigma_Y$ وجود دارد؟ اشاره به ادبیات مرتبط بسیار قدردانی خواهد شد. | آزمون دو نمونه ای برای توزیع های نرمال چند متغیره با این فرض که میانگین ها یکسان هستند |
109291 | من با یک ویژگی بیولوژیکی سروکار دارم که میتوان آن را در دستههای $2^{20}$ طبقهبندی کرد. من همچنین دو مجموعه داده بسیار بزرگ از 1 و 3 میلیون ورودی دارم. در واقع، تنها حدود 30 هزار دسته در دومی مشاهده شد، و حتی کمتر در اولی. بنابراین، تعداد زیادی از دستهها دارای شمارش صفر و تعداد کمی دارای تعداد نسبتاً کوچک هستند. میخواهم بگویم که آیا نمونهها از جمعیتهای متفاوتی میآیند، یعنی توزیع ویژگیهای فوق را مقایسه کنید. تنها تستی که می توانم به آن فکر کنم، $\chi^2$ پیرسون است، که (تا آنجا که من می دانم) در مورد تعداد کم قابل اجرا نیست. هر گونه توصیه (از جمله ادبیات در مورد این موضوع) قدردانی خواهد شد. | مقایسه مجموعه داده های دسته بندی بزرگ با تعداد کم یا صفر |
11105 | من یک تازه کار در آمار هستم. من در حال تکمیل پایان نامه ام در الگوریتم تکاملی هستم. من باید تعدادی اعداد تصادفی را از توزیع لاپلاس تولید کنم. چگونه می توانم این کار را با استفاده از متلب انجام دهم؟ توضیح آسان و ساده قدردانی خواهد شد. پیشاپیش ممنون | تولید اعداد تصادفی با استفاده از توزیع لاپلاس |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.