_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
50094
در آزمایش خود، آزمودنی ها را به یکی از 3 درمان A، B یا C اختصاص دادم. در هر درمان، یک آزمودنی واحد با دو مدل به صورت متوالی مورد آزمایش قرار گرفت. توالی آزمون تصادفی شد. پاسخ آزمودنی ها به عنوان واکنش (1) یا بدون واکنش (0) طبقه بندی شد. در مجموع، تنظیمات داده‌های من این بود: * **موضوع**: شناسه آزمودنی‌ها. * **درمان**: A، B، یا C -- بین متغیر موضوع. * **مدل**: M یا F -- در متغیر موضوع. * **توالی**: دنباله آزمون، کدام مدل ابتدا مورد آزمایش قرار گرفت -- بین متغیر موضوعی. * **پاسخ**: 0 یا 1 -- متغیر وابسته باینری. من علاقه مندم ببینم که آیا آزمودنی ها در پاسخ خود بین انواع مدل، در بین درمان ها، و آیا تعاملی بین درمان و مدل وجود دارد یا خیر. در اینجا یک مدل GLMM است که من به طور آزمایشی ساخته‌ام: full.glmm <- lmer(Response~Treatment * Model + Sequence + (1|Treatment/Subject), family=binomial, data=rsp10) من در مورد بیانیه اثر تصادفی مطمئن نیستم. , قسمت `(1|درمان/موضوع)`. آیا هر متغیری باید قبل از | باشد و آیا ساختار تودرتوی من به درستی تعریف شده است (موضوع در داخل درمان قرار دارد)؟ اگر نه، ساختار صحیح چیست؟
نحوه ساخت مدل GLMM برای اندازه گیری های مکرر با پاسخ های دودویی با lmer
79719
فرض کنید داده‌ها به ترتیب $y_i=f(x_i)+\varepsilon_i$، $\varepsilon_i$ iid هستند و انتظار صفر با واریانس $\sigma^2$ دارند. رگرسیون چند جمله ای محلی $$ است {\min_{\alpha(x_0)،\beta_j(x_0)،j=1،\cdots,d}}{\sum\limits_{i=1}^{N}}{K_\lambda}({x _0},x_i)\left[y_i-\alpha({x_0})-{\sum\limits_{j=1}^{d}}\beta_j({x_0})x_i^j\right]^2 $$ راه حل این است \begin{eqnarray*} \hat{f}(x)&=&\hat{\alpha}(x_0)+\sum\limits_{j=1}^{d}\beta_j(x_0) x_0^j \\\ &=& b(x_0)^T(B^TW(x_0)B)^{-1}B^TW(x_0)y \\\ &=& \sum_{i=1}^{N}l_i(x_0)y_i \end{eqnarray*} که $b(x)^T=(1 \, x \, x^2 \, \cdots \, x^d )^T$, $B$ یک ماتریس $N \times (d+1)$ با $i$th ردیف $b(x_i)^T$ و $W(x_0)$ یک $N است \times N$ ماتریس مورب با $i$th عنصر قطری ${K_\lambda}({x_0},x_i)$. ${K_\lambda}({x_0},x_i)$ یک تابع هسته است. دیدن $Var[\hat{f}(x_0)]=\sigma^2\|l(x_0)\|^2$ آسان است، سوال من این است که چگونه می توان $\|l(x_0)\|$ را افزایش داد با $d$.
نحوه نشان دادن واریانس رگرسیون چند جمله ای محلی با درجه افزایش می یابد
58697
من رگرسیون را با استفاده از جنگل های تصادفی برای پیش بینی قیمت ها بر اساس چندین ویژگی انجام می دهم. کد در پایتون با استفاده از Scikit-learn نوشته شده است. چگونه تصمیم می گیرید که آیا باید متغیرهای خود را با استفاده از «exp»/«log» قبل از استفاده از آن برای مطابقت با مدل رگرسیون تبدیل کنید؟ آیا هنگام استفاده از رویکرد Ensemble مانند Random Forest ضروری است؟
چه زمانی متغیرهای خود را هنگام انجام رگرسیون خطی Log/Exp کنید؟
29580
مقدمه: من یک مجموعه داده با یک مسئله p بزرگ، n کوچک کلاسیک دارم. تعداد نمونه های موجود **n** =150 در حالی که تعداد پیش بینی کننده های ممکن **p** =400. نتیجه یک متغیر پیوسته است. من می‌خواهم «مهم‌ترین» توصیف‌کننده‌ها را پیدا کنم، یعنی آن‌هایی که بهترین نامزدها برای توضیح نتیجه و کمک به ساختن یک نظریه هستند. پس از تحقیق در مورد این موضوع، متوجه شدم که LASSO و Elastic Net معمولاً برای موارد p بزرگ، n کوچک استفاده می شوند. برخی از پیش‌بینی‌کننده‌های من بسیار همبسته هستند و من می‌خواهم گروه‌بندی‌های آنها را در ارزیابی اهمیت حفظ کنم، بنابراین، **Elastic Net** را انتخاب کردم. من تصور می کنم که می توانم از مقادیر مطلق ضرایب رگرسیون به عنوان معیار اهمیت استفاده کنم (لطفاً اگر اشتباه می کنم، من را اصلاح کنید؛ مجموعه داده من استاندارد شده است). **مشکل:** از آنجایی که تعداد نمونه های من کم است، چگونه می توانم به یک مدل پایدار برسم؟ رویکرد فعلی من یافتن بهترین پارامترهای تنظیم (لامبدا و آلفا) در جستجوی شبکه‌ای در 90 درصد مجموعه داده با اعتبارسنجی متقاطع 10 برابری با میانگین امتیاز MSE است. سپس مدل را با بهترین پارامترهای تنظیم در کل 90٪ مجموعه داده آموزش می دهم. من می توانم مدل خود را با استفاده از مجذور R بر روی 10 درصد از مجموعه داده (که تنها 15 نمونه را شامل می شود) ارزیابی کنم. با اجرای مکرر این روش، واریانس زیادی در ارزیابی‌های مربع R یافتم. همچنین، تعداد پیش‌بینی‌کننده‌های غیر صفر و همچنین ضرایب آنها متفاوت است. **چگونه می توانم ارزیابی پایدارتری از اهمیت پیش بینی کننده ها و ارزیابی پایدارتر از عملکرد مدل نهایی داشته باشم؟** آیا می توانم به طور مکرر روش خود را برای ایجاد تعدادی مدل و سپس ضرایب رگرسیون متوسط ​​اجرا کنم؟ یا باید از تعداد وقوع یک پیش بینی کننده در مدل ها به عنوان امتیاز اهمیت آن استفاده کنم؟ در حال حاضر، من حدود 40-50 پیش بینی غیر صفر دریافت می کنم. آیا برای ثبات بهتر باید تعداد پیش بینی کننده ها را سخت تر جریمه کنم؟ هر کمکی بسیار قدردانی خواهد شد!
ثبات مدل هنگام برخورد با مشکل بزرگ $p$، $n$ کوچک
58693
در http://www.academia.edu/1067827/Defence_of_Empirical_Evidence، پل کاکشات استدلال می کند که خطای نوع باید در نظر گرفته شود. بنابراین نوع میانگین بهای تمام شده واحد نفت دلار/بشکه و نوع میانگین بهای تمام شده واحد مداد دلار/مداد است. او استدلال می کند که این دو اساساً غیرقابل مقایسه هستند، بنابراین برای مطالعات همبستگی نامناسب هستند. سوال من این است که آیا این درست است؟
در نظر گرفتن خطاهای نوع/واحد مربوط به آمار و مطالعات همبستگی؟
58523
من می توانم ضرایب همبستگی تتراکوریک و پلی کوریک را با نرم افزار محاسبه کنم، اما نمی دانم فورمول ضریب تتراکوریک یا پلی کوریک چیست.
ضریب همبستگی تتراکوریک چقدر است؟
94491
من در حال آموزش یک طبقه بندی کننده برای یک مشکل طبقه بندی نظارت شده هستم. برخی از ویژگی های من تعامل دارند، چگونه باید این شرایط تعامل را عادی کنم؟ برای مثال، اگر x1 و x2 با هم تعامل داشته باشند، عبارت تعامل x1*x2 است. آیا باید مقادیر x1*x2 قبل از نرمال شدن x1 و x2 محاسبه شود و سپس نرمال شود. یا باید x1*x2 از مقادیر نرمال شده x1 و x2 محاسبه شود؟
چگونه شرایط تعامل را عادی کنیم؟
24527
من در حال حاضر پروژه ای را انجام می دهم که شامل تشخیص چاله ها و شبکه های عصبی است. تا کنون، من یک گوشی اندرویدی دارم که قرائت‌های شتاب‌سنج را می‌خواند و محور X، Y، Z و همچنین دامنه و زمان فعلی را در یک فایل CSV می‌نویسد. سپس داده ها با استفاده از نرمال سازی min-max نرمال می شوند و از خوانش های محور Y از فایل CSV استفاده می کنند. مشکلی که من برای شبکه عصبی برای یادگیری یک چاله با آن مواجه هستم این است که چه داده هایی را باید به شبکه عصبی Back Propagation تغذیه کنم؟ آیا باید یک آستانه تعیین کنم و وقتی محور Y به این نقطه رسید، 5 نقطه قبلی و 5 نقطه بعد را بگیرم و سپس با 11 ورودی شبکه را تغذیه کنم؟ من نمی خواهم شبکه را بیش از حد آموزش دهم و هر بار آن را با داده ها در موقعیت های مختلف تغذیه کنم. آموزش - من همچنین شروع به جمع‌آوری داده‌های جمع‌آوری‌شده و ایجاد یک مجموعه داده آموزشی می‌کنم - آیا باید مواردی مانند خواندن برای جاده‌های معمولی/دست‌انداز/دست‌اندازهای سرعت و همچنین چاله‌ها را قرار دهم؟ حجم یک مجموعه آموزشی چقدر باید باشد؟ یا اینکه داده های بیشتر بهتر است واقعا درست است؟ این همان چیزی است که داده های گودال به نظر می رسد. ![http://i.stack.imgur.com/4cSzt.png](http://i.stack.imgur.com/ZKGth.png) داده های speedbump اینگونه به نظر می رسد. ![http://i.stack.imgur.com/7BLjq.png](http://i.stack.imgur.com/m38eG.png) نمونه ای از داده های جمع آوری شده: X-Axis Y-Axis Z- Axis Timestamp -0.371827, 8.513097, 5.441484, 165401 -0.601749، 7.976613، 5.326523، 165601 -0.333506، 8.053253، 5.441484، 165801 -0.256866، 8.206536، 8.206536، 8406، 840. 0.049697، 8.398136، 5.364844، 166202 -0.371827، 8.436457، 5.211563، 166400 -0.256866، 8.551417، 8.551417، 726. -0.256866، 8.513097، 5.403164، 166801 -0.333506، 8.474776، 5.709726، 167000 -0.563428، 8.628059، 8.628057، 72676. -0.563428، 7.401808، 4.713398، 167402 -1.981280، 5.447472، 4.406836، 167602 POTHOLE -0.180225، 5.605075 چاله -0.984952، 8.053253، 4.445156، 168001 -1.214874، 8.666378، 5.671406، 168201 -0.525108، 7.23210207 - 0.525108، 7.23210207 -1.138233، 7.286847، 5.824687، 168600 -0.601749، 10.045910، 5.288203، 168801 -0.180225، 8.2061137، 8.2061734، 250 0.279619، 7.861651، 5.518125، 169200 0.202978، 8.934620، 5.824687، 169401 -0.065264، 8.32131495، 8.32131494، 8.32131494، 84684. -0.065264، 8.628057، 5.709726، 169800 -0.716710، 8.014933، 5.748047، 170001 -0.141905، 8.513094، 8.513094، 8.5130914، 85. -0.026944، 8.206534، 5.594766، 170401 -0.601749، 8.168214، 5.058281، 170601 الگوریتم الگوریتم پیشنهادی من این است که یک آستانه معینی را در هنگام ضربه زدن به آستانه معینی از یک آستانه معینی روی خط محوری 2. مانند <7 سپس 5 نقطه قبلی و 5 امتیاز پس از آن را به NN منتقل کنید.
مشاوره ورودی داده های شبکه عصبی انتشار برگشتی
91461
بعدازظهر بخیر، می‌خواهم در مورد گنجاندن یک عامل تودرتو به عنوان یک اثر تصادفی در یک GLMM راهنمایی بپرسم. من تاپیک های دیگر این انجمن را خوانده ام اما هنوز نمی توانم به سوالم پاسخ دهم. هر کمکی بسیار قدردانی می شود! من کودکان را روی 12 تکلیف حل مسئله/استفاده از ابزار آزمایش کردم که می توان آنها را با توجه به فراوانی رفتار استفاده از ابزار مربوطه مشاهده شده در میمون های بزرگ وحشی (کم، زیاد) به 2 گروه تقسیم کرد. هر کودک یک مجموعه تصادفی متشکل از 4 بازی، 2 کار کم و 2 کار با فرکانس بالا دریافت کرد. اینها متغیرها هستند: متغیر وابسته: موفقیت (بله، خیر) اثرات ثابت: سن (بر حسب ماه) جنس (مرد، زن) فراوانی (کم، زیاد) اثرات تصادفی: مهارت استفاده از ابزار موضوعی (رده بندی توسط کارکنان مهد کودک، 1 = زیر میانگین، 2=متوسط، 3=بالاتر از میانگین) موقعیت وظیفه (1-4) وظیفه (1-12) سوال اصلی تحقیق من این است که آیا متغیر فرکانس قادر به پیش بینی است موفقیت Task در فرکانس تودرتو است، زیرا وظیفه 1-6 = کم و 7-12 = زیاد است. تا آنجا که من از موضوعات دیگر فهمیدم، نحوه مدل سازی واقعیت تودرتو نیز به نحوه کدگذاری فاکتور تودرتو (??) بستگی دارد. می‌خواستم بدانم که آیا باید عبارت (1|فرکانس/وظیفه) را وارد کنم تا مشخص کنم که وظیفه در فرکانس تودرتو است و آیا این عبارت درست است یا اینکه فقط شامل (1|وظیفه) باشد، زیرا وظیفه عدد قبلاً سطح فرکانس را نشان می دهد. در حالت ایده‌آل، من دوست داشتم وظیفه یا فرکانس/وظیفه را به عنوان یک اثر ثابت اضافه کنم، اما تعداد پارامترها در آن زمان خیلی زیاد می‌شود. داشتم با (1|فرکانس/وظیفه) بازی می کردم و متوجه شدم که نمی توانم خروجی را هم تفسیر کنم. R یک ردیف با frequency:task و frequency به من می دهد. اشتباه به نظر می رسد، زیرا من نمی خواهم فرکانس را به عنوان یک عامل تصادفی داشته باشم... برای هر کمکی بسیار سپاسگزار خواهم بود. پیشاپیش از شما بسیار سپاسگزارم. اوا
شامل یک عامل تو در تو به عنوان اثر تصادفی در یک GLMM
34373
اگر یک نویز در طول زمان $t\in[a,b]$ ایجاد شود، و همبستگی‌های مقدار نویز در زمان‌های $t_0$ و $t_1$ بر اساس تابع چگالی توزیع می‌شوند که فقط بستگی دارد. در فاصله $|t_0-t_1|$ بین آنها، پس توزیع نویز چگونه است؟ چگونه همبستگی ها توزیع جهانی را تعیین می کنند؟ آیا برای مثال، لزوماً باید معادل برخی از نسخه های مدل Ising باشد؟ خیلی ممنون
همبستگی نویز بسته به فاصله
73654
این یک spinoff از نحوه محاسبه فاصله اطمینان میانگین میانگین است؟ و مربوط به هنگام استنباط در مورد میانگین های گروهی، آیا فواصل معتبر به واریانس درون موضوعی حساس هستند در حالی که فواصل اطمینان حساس نیستند؟ مجموعه داده 1 در اینجا از لینک اول بالا گرفته شده است. مجموعه داده 2 تقریباً همان میانگین تجربی را دارد اما در واریانس آزمایش متفاوت است. اولین سوال من این است: 1) چگونه یک فاصله اطمینان را برای میانگین کلی برای هر یک از این مجموعه داده ها محاسبه کنم؟ اگر من پاسخ @Stéphane Laurent را در دو سوال مرتبط بفهمم، باید یکسان باشند. اگر این درست باشد، این به شدت مخالف تمام شهود علمی من است و همچنین به نظر می رسد یک پارادوکس باشد. 2) چگونه ممکن است که فاصله اطمینان ظاهراً هم به خطای آزمایش حساس باشد و هم به آن حساس نباشد؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/zvYXu.png) مجموعه داده 1: ارزش آزمایشی 1 34 1 41 1 39 2 45 2 51 2 52 3 29 3 31 3 35 ساختار(لیست (آزمایش = ساختار (c(1L, 1L, 1L, 2L, 2L, 2L، 3L، 3L، 3L)، .Label = c(1، 2، 3)، class = factor)، مقدار = c(34، 41، 39، 45، 51، 52، 29، 31، 35))، .Names = c(Experiment، Value)، row.names = c(NA، -9L)، class = data.frame) مجموعه داده 2: مقدار آزمایش 1 38.20744 1 37.99410 1 37.96299 2 49.27085 2 49.40519 2 49.24894 3 31.811237334.3738. ساختار(لیست(آزمایش = ساختار(c(1L, 1L, 1L, 2L, 2L, 2L, 3L, 3L, 3L), .Label = c(1, 2, 3), class = فاکتور)، مقدار = c(38.2074373061779، 37.9941025108851، 37.9629896019425، 49.2708491636015، 49.4051867974062، 49.2489418702291، 31.8125943239769، 31.797، 31.797 31.7383364604132 ))، .Names = c(Experiment، Value)، row.names = c(NA, -9L)، class = data.frame)
پارادوکس احتمالی: محاسبه فاصله اطمینان با خطای درون آزمایشی
50091
به عبارت دیگر، آیا ممکن است هر یک از تکنیک های مختلف رگرسیون جریمه شده (مانند رگرسیون پشته، کمند، و شبکه الاستیک) به دلیل مقادیر اولیه بد انتخاب شده برای پارامترهای مدل، به طور کامل راه حل بهینه را برای یک مدل رگرسیونی از دست بدهد؟
آیا تکنیک‌های رگرسیون جریمه‌شده الگوریتم‌هایی حریص هستند؟
58690
آیا کسی می تواند به من در مورد کد R برای پیاده سازی الگوریتم EM کمک کند. اگر مقدار شروع متفاوتی را انتخاب کنم، مقدار متفاوتی دریافت کردم. واضح است که این خوب نیست و مقدار $\mu$, $\sigma$ پس از چند بار تکرار به NA می رود. این کد من است da1=read.table(anythin.Rdata, header=TRUE) y=as.vector(da1[,2]) n=length(y) mu=matrix(NA,1000,2) sigma= ماتریس(NA,1000,2) w=ماتریس(NA,1000,2) mu[1,]=c(2,4) سیگما[1,]=c(0.5،0.1) w[1،]=c(0.5،0.5) xi1=0 xi2=0 برای (i در 2:1000){ # E گام xi1=w[i-1,1]*dnorm(y,mean=mu[i-1,1],sd=sigma[i-1,1])/(w[i-1,1]*dnorm( y، میانگین = mu[i-1,1],sd=sigma[i-1,1])+w[i-1,2]*dnorm(y,mean=mu[i-1,2],sd=sigma[i -1،2])) xi2=w[i-1,2]*dnorm(y,mean=mu[i-1,2],sd=sigma[i-1,2])/(w[i-1,1]*dnorm( y، میانگین = mu[i-1,1],sd=sigma[i-1,1])+w[i-1,2]*dnorm(y,mean=mu[i-1,2],sd=sigma[i -1،2])) # M گام w[i,1]=sum(xi1) w[i,2]=sum(xi2) mu[i,1]=sum(xi1*y)/sum(xi1) mu[i,2]= sum(xi2*y)/sum(xi2) sigma[i,1]=sum(xi1*(mu[i,1]-y)^2)/sum(xi1) sigma[i,2]=sum(xi2*(mu[i,2]-y)^2)/sum(xi2)}
الگوریتم EM برای ترکیب گاوسی
58692
یک سوال وجود دارد اگر تعامل اثرات مستقیم من در رگرسیون را از بین ببرد چه می شود؟ پاسخ داده شد که اثرات اصلی واقعی در مدل بدون تعامل است. من شرایط برعکس دارم. اثرات اصلی در مرحله 1 معنی دار نیستند. یک اثر اصلی در مرحله 2 پس از اضافه کردن تعامل معنی دار است، اما تعامل معنی دار نیست. آیا می توانم به درستی فرض کنم که این یک اثر اصلی واقعی نیست؟ DV: گناه مرحله 1: اعتقاد اخلاقی (MC) + صحبت کردن (SO) مرحله 2: MC + SO + MCxSO
اگر فقط زمانی که تعامل گنجانده شده باشد، یک اثر اصلی واقعی است؟
50067
من مقاله ای را در مورد روش تجزیه و تحلیل داده های GWAS multi-SNP می خوانم، نویسنده یک مدل خطی $y = \beta_g g + \epsilon$ برازش داده است، که در آن $g$ یک بردار ژنوتیپ برای یک ژن واحد است، $\beta_g$ ضریب رگرسیون واقعی است، $\epsilon$ خطا است، با فرض اینکه خط رگرسیون از مبدا عبور کند. اجازه دهید $\hat{y}$، $b_g$، $s^2(g)$ و $s^2(y)$ تخمینی از $y$، $\beta_g$، $\sigma^2(g باشد. )$ و $\sigma^2(y)$ به ترتیب، از آنجایی که وقفه $b_{g0} = \overline{y} - b_g \overline{x} = 0$، ما $\overline{y} = داریم b_g \overline{x}$، نتیجه می‌شود که \begin{align*} SSR &= \sum (\hat{y} - \overline{y})^2 \\\ &= \sum (b_g g_i - \overline {y})^2 \\\ &= \sum(b_g g_i - b_g \overline{g})^2 \\\ &= b_g^2 \sum (g_i - \overline{g})^2 \\\ &= b_g^2 s^2(g)(n-1) \end{align*} \begin{align} r^2 &= \frac{SSR}{SSR + SSE} \notag\\\ &= \frac{b_g^2 s^2(g)(n-1)}{b_g^2 s^2(g)(n-1) + s^2(y)(n-1)} \notag\\\ &= \frac{b_g^2 s^2(g)}{b_g^2 s^2(g) + s^2(y)} \end{تراز کردن}. معادله فوق کاملاً شبیه آنچه نویسنده در اولین معادله خود ارائه می دهد است، اما اساساً متفاوت هستند مگر اینکه نویسنده در مورد مقادیر واقعی و تخمینی اشتباه گرفته شده باشد. معادله دوم در مورد $\hat{r^2}_{locus}$ کاملاً از درک من دور است، هر کمکی قدردانی خواهد شد. ## **مقاله اصلی را می‌توانید در اینجا پیدا کنید**![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/6GaxO.png)
تقریب واریانس توضیح داده شده
66187
من از SPSS برای انجام رگرسیون کاکس استفاده می کنم. پس از یافتن همه متغیرهای کمکی معنی دار، جدولی به نام ماتریس همبستگی ضرایب رگرسیون وجود دارد. سوال من این است که چه نوع اطلاعاتی را می توانم از این جدول تفسیر کنم؟ اگر همبستگی بالایی بین ضرایب رگرسیون دو متغیر کمکی ببینم، برای مثال بین ضرایب رگرسیون PCPT و LTCPT در جدول زیر 0.99 است. آیا به این معنی است که باید بیشتر مراقب نتایج باشم؟ من شباهت بین همه متغیرها را بررسی کرده ام. با توجه به ماتریس شباهت، هیچ همبستگی بالایی بین PCPT و LTCPT وجود ندارد. ماتریس همبستگی ضرایب رگرسیون: ACT ATP ALT LTCPT MALTCPT OIWSF_YEAR ATP 0.109 ALT -.126.044 LTCPT.055.008 -.240 MALTCPT.031.025.025.0952.0952. -.079.166.062 PCPT.044 -.072 -.252.990.053.156
تفسیر ماتریس همبستگی ضرایب رگرسیون در رگرسیون کاکس؟
73652
من سعی می کنم برخی از داده های گسسته را حذف کنم و در یافتن مدلی برای توصیف روند مشکل دارم. تعدادی نقطه داده گسسته وجود دارد و یک خطای خطی با گذشت زمان ایجاد می شود. من برخی از داده های نماینده را در اکسل ایجاد کردم: Unbiased: ![Unbiased](http://i.stack.imgur.com/4fv72.png) Biased data: ![Biased](http://i.stack.imgur.com /02Qit.png) داده های گسسته در اینجا 1،2،3 با بایاس خطی مثبت در طول زمان است. حداقل مربعات سنتی عملکرد ضعیفی دارند، حداقل مربعات متعامد بهتر از این کار نمی کنند. من چند مدل دیگر را امتحان کردم که موفقیت آمیز نبود. من توانسته ام روند را به صورت بصری بررسی کنم و برخی از ~2 ها را انتخاب کنم، یک رگرسیون خطی انجام دهم و سپس بایاس را کم کنم. من می‌خواهم این کار را به صورت برنامه‌نویسی در بسیاری از مجموعه‌های داده انجام دهم، بنابراین یک روش عمومی برای انجام این قابلیت اطمینان ضروری است. آیا ایده ای در مورد نحوه کاهش داده ها و حذف سوگیری دارید؟ داده های واقعی: داده ها
گرایش به داده های گسسته
55118
فرض کنید مشکل زیر به ما داده می شود: پیش بینی کنید که کدام مشتریان به احتمال زیاد در 3 ماه آینده خرید خود را از فروشگاه ما متوقف می کنند. برای هر مشتری، ماه را می دانیم که یکی از آنها شروع به خرید در فروشگاه ما کرده است و علاوه بر این، ویژگی های رفتاری زیادی را در مجموع ماهانه داریم. بزرگترین مشتری پنجاه ماه است که خرید کرده است. اجازه دهید زمانی را که مشتری شروع به خرید کرده است را با $t$ ($t \in [0,50]$) نشان دهیم. می توان فرض کرد که تعداد مشتریان بسیار زیاد است. اگر مشتری به مدت سه ماه خرید خود را متوقف کند و سپس دوباره بازگردد، به عنوان یک مشتری جدید رفتار می شود، بنابراین یک رویداد (توقف خرید) می تواند تنها یک بار رخ دهد. دو راه حل به ذهن من می رسد: **رگرسیون لجستیک** \- برای هر مشتری و هر ماه (شاید به جز 3 ماه جدید)، می توانیم بگوییم که آیا مشتری از خرید منصرف شده است یا نه، بنابراین می توانیم نمونه های چرخشی را با یک مشاهده انجام دهیم. به ازای هر مشتری و ماه ما می‌توانیم از تعداد ماه‌هایی که از آغاز شروع شده است به‌عنوان یک متغیر طبقه‌بندی برای به دست آوردن مقداری معادل تابع خطر پایه استفاده کنیم. **مدل Cox Extended** \- این مشکل را می توان با استفاده از مدل Extended Cox نیز مدلسازی کرد. به نظر می رسد که این مشکل بیشتر برای تحلیل بقا مناسب است. **سوال:** مزایای تجزیه و تحلیل بقا در مسائل مشابه چیست؟ تجزیه و تحلیل بقا به دلایلی اختراع شد، بنابراین باید مزیت جدی وجود داشته باشد. دانش من در تجزیه و تحلیل بقا خیلی عمیق نیست و فکر می کنم که بیشتر مزایای بالقوه مدل کاکس را می توان با استفاده از رگرسیون لجستیک نیز به دست آورد. * معادل مدل کاکس طبقه بندی شده را می توان با استفاده از تعامل $t$ و متغیر طبقه بندی به دست آورد. * مدل تعامل کاکس را می توان با فرو بردن جمعیت به چند زیر جمعیت و تخمین LR برای هر زیر جمعیت به دست آورد. تنها مزیتی که می بینم این است که مدل کاکس انعطاف پذیرتر است. به عنوان مثال، ما به راحتی می توانیم احتمال توقف خرید مشتری را در 6 ماه محاسبه کنیم.
مدل کاکس در مقابل رگرسیون لجستیک
77579
از نتایج من، به نظر می‌رسد که GLM Gamma با اکثر مفروضات مطابقت دارد، اما آیا نسبت به LM تغییر شکل یافته پیشرفت ارزشمندی است؟ بیشتر ادبیاتی که من پیدا کرده ام مربوط به پواسون یا GLM های دوجمله ای است. من مقاله ارزیابی فرضیات مدل خطی تعمیم یافته با استفاده از تصادفی سازی را بسیار مفید یافتم، اما فاقد نمودارهای واقعی مورد استفاده برای تصمیم گیری است. امیدوارم کسی با تجربه بتواند مرا در مسیر درست راهنمایی کند. من می خواهم توزیع متغیر پاسخ خود T را که توزیع آن در زیر رسم شده است، مدل کنم. همانطور که می بینید، چولگی مثبت است: ![Valid XHTML](http://i.imgur.com/EJLgGdy.jpg). من باید دو عامل طبقه بندی را در نظر بگیرم: METH و CASEPART. توجه داشته باشید که این مطالعه عمدتاً اکتشافی است و اساساً به عنوان یک مطالعه آزمایشی قبل از نظریه‌پردازی یک مدل و انجام DoE حول آن عمل می‌کند. من مدل های زیر را در R با نمودارهای تشخیصی آنها دارم: `LM.LOG<-lm(log10(T)~factor(METH)+factor(CASEPART),data=tdat)` ![Valid XHTML](http:/ /i.imgur.com/jAYBWS7.jpg) ![XHTML معتبر](http://i.imgur.com/CekkIN2.jpg) ` GLM.GAMMA<-glm(T~factor(METH)*factor(CASEPART),data=tdat,family=Gamma(link='log')) ` ![XHTML معتبر](http://i.imgur .com/4VZOa5S.jpg) ![XHTML معتبر](http://i.imgur.com/PQKcfLx.jpg) ` GLM.GAUS<-glm(T~factor(METH)*factor(CASEPART),data=tdat,family=gaussian(link='log'))` ![XHTML معتبر](http://i.imgur .com/iY9PHeh.jpg) ![Valid XHTML](http://i.imgur.com/HV5idKy.jpg) من همچنین به موارد زیر دست یافتم مقادیر P از طریق آزمایش Shapiro-Wilks روی باقیمانده ها: ` LM.LOG: 2.347e-11 GLM.GAMMA: 0.6288 GLM.GAUS: 0.6288` من مقادیر AIC و BIC را محاسبه کردم، اما اگر درست باشم، به من نمی گویند بیشتر به دلیل خانواده های مختلف در GLMs/LM است. همچنین، من مقادیر شدید را یادداشت کردم، اما نمی توانم آنها را به عنوان موارد پرت طبقه بندی کنم، زیرا علت خاص واضحی وجود ندارد. با تشکر برای هر بینش!
GLM گامای log-linked در مقابل GLM gaussian log-linked در مقابل LM log-transformed
66181
[این سوال شبیه به نحوه ارزیابی بهبود از یک درمان است؟] من تلاش می کنم آنچه را که به نظر می رسد بهبود آشکار در عملکرد در نتیجه برخی تغییرات در یک برنامه نرم افزاری است، توصیف کنم. من برنامه را پنج بار بدون بهینه سازی ('A' نشان دهنده زمان برای چنین کاری است) و پنج بار با بهینه سازی ('B') اجرا کرده ام. A = [12.6، 12.6، 12.5، 12.7، 12.7] B = [4.3، 3.3، 4.3، 3.2، 3.3] به عنوان یک فرد غیرمستقیم، به نظر می رسد که این نشان دهنده یک بهبود معقول در عملکرد باشد. با این حال، من نمی دانم چگونه مشروعیت آن بهبود را مشخص کنم. آیا حجم نمونه من به اندازه ای بزرگ است که به من اجازه دهد از نقطه نظر آماری ادعایی داشته باشم؟ آیا می توانم با هر بیانیه بهبود عملکرد یا خود اندازه گیری ها اطمینان را محاسبه کنم؟
چگونه می توان تأثیر بهینه سازی را بر بهبود عملکرد نرم افزار بر اساس پنج آزمایش با و بدون بهینه سازی ارزیابی کرد؟
72129
چه زمانی به جای آمار نمونه، پارامتر جمعیت را محاسبه کنیم؟ در صورت وجود چنین موردی از کدام ابزار آماری باید از پارامتر جمعیت یا آمار نمونه استفاده کنیم؟ یک شرکت خودروسازی می خواهد میانگین سنی خودروهای برند خود را که هنوز در راه هستند، بداند. چگونه جمعیت مناسب را تعریف می کنید؟ آیا شرکت خودروسازی پارامتر جمعیت یا نمونه آماری را محاسبه خواهد کرد؟ چرا؟
چه زمانی به جای آمار نمونه، پارامتر جمعیت را محاسبه کنیم؟
12873
من سعی می‌کنم مشکلی را حل کنم که مربوط به انتساب داده‌های از دست رفته از مطالعه داده‌های تابلویی است (مطمئن نیستم که از مطالعه داده‌های پانل به درستی استفاده می‌کنم - همانطور که امروز آن را آموختم.) من کل داده‌های تعداد مرگ و میر را برای سال 2003 دارم. تا سال 2009، تمام ماه ها، مرد و زن، برای 8 منطقه مختلف و برای 4 گروه سنی. چارچوب داده چیزی شبیه به این است: ناحیه جنسیت سال ماه گروه سنی مجموع مرگ‌ها مرد شمالی 2006 11 01-4 0 مرد شمالی 2006 11 05-14 1 مرد شمالی 2006 11 15+ 83 مرد شمالی 2006 12 020 12 020 شمالی مرد 2006 12 05-14 0 نر شمالی 2006 12 15+ 106 زن جنوبی 2003 1 0 6 زن جنوبی 2003 1 01-4 0 زن جنوبی 2003 1 05-14 3 مونث جنوبی 313 2003 2 0 6 زن جنوبی 2003 2 01-4 0 زن جنوبی 2003 2 05-14 1 زن جنوبی 2003 2 15+ 111 زن جنوبی 2003 3 0 2 زن جنوبی 2003 3 01-4 زن جنوبی 2003 3 01-4 20 زن جنوبی 14 2003 3 15+ 141 زن جنوبی 2003 4 0 4 برای 10 ماه پخش شده در سال های 2007 و 2008 برخی از کل مرگ و میرها از همه ولسوالی ها ثبت نشده است. من سعی می کنم این مقادیر گم شده را از طریق روش انتساب چندگانه تخمین بزنم. یا با استفاده از مدل های خطی تعمیم یافته یا مدل های SARIMA. بزرگترین مشکل من استفاده از نرم افزار و کدنویسی است. من یک سوال در Stackoverflow پرسیدم، جایی که می‌خواهم داده‌ها را در گروه‌های کوچک‌تری استخراج کنم، مانند این: جنسیت منطقه ماه سال گروه سنی TotalDeaths Northern Male 2003 1 01-4 0 Northern Male 2003 2 01-4 1 Northern Male 2003 3 01-4 0 نر شمالی 2003 4 01-4 3 نر شمالی 2003 5 01-4 4 Northern Male 2003 6 01-4 6 Northern Male 2003 7 01-4 5 Northern Male 2003 8 01-4 0 Northern Male 2003 9 01-4 1 Northern Male 2003 10 Northern Male 2003 1020 01-4 01-4 0 Northern Male 2003 12 01-4 1 Northern Male 2004 1 01-4 1 Northern Male 2004 2 01-4 0 Going to Northern Male 2006 11 01-4 0 Northern Male 2006 12 01-4 0 اما یکی پیشنهاد داد من بیاورم سوال اینجاست - شاید یک جهت بخواهید؟ در حال حاضر من نمی‌توانم این داده‌ها را به‌عنوان یک مطالعه پانل/سری زمانی مناسب در R وارد کنم. هدف نهایی من استفاده از این داده‌ها و بسته «amelia2» با عملکردهای آن برای محاسبه «TotalDeaths» برای ماه‌های خاصی در سال 2007 و 2008، جایی که داده ها از دست رفته است. هر گونه کمک، نحوه انجام این کار و شاید پیشنهاداتی در مورد چگونگی مقابله با این مشکل، سپاسگزاریم. اگر این کمک کند، من سعی می کنم رویکردی مشابه آنچه که کلینت رابرتز در پایان نامه دکترای خود انجام داد را دنبال کنم. **ویرایش:** پس از ایجاد متغیر «زمان» و «گروه» طبق پیشنهاد @Matt: > head(dat) ناحیه جنسیت سال ماه سن گروه غیرطبیعی طبیعی گروه زمان کل 1 Khayelitsha زن 2001 1 0 0 6 6 1 Khayelitsha. Female.0 2 Khayelitsha Female 2001 1 01-4 1 3 4 1 Khayelitsha.Female.01-4 3 Khayelitsha Female 2001 1 05-14 0 0 0 1 Khayelitsha.Female.05-14 4 Khayelitsha Female 2001 1 15up 8 73 81 1 Khayelitsha.Female.05-14 1 15up 8 73 81 1 Khayelitsha.Female 0 2 9 11 2 Khayelitsha.Female.0 6 Khayelitsha Female 2001 2 01-4 0 2 2 2 Khayelitsha.Female.01-4 همانطور که متوجه شدید، در واقع جزئیات بیشتری طبیعی و غیرطبیعی وجود دارد.
انتساب چندگانه برای داده های شمارش از دست رفته در یک سری زمانی از یک مطالعه پانل
28183
من در SVM و کرنل متخصص نیستم، پس اگر سوال احمقانه ای پرسیدم ببخشید. در واقع، ابتدا می خواهم بدانم چگونه یک مجموعه داده را تجزیه و تحلیل کنم تا الگوی آن را کشف کنم. و دوم، چگونه می توانم بهترین تابع هسته را برای طبقه بندی یک مجموعه داده انتخاب کنم؟ پیشاپیش از هرگونه کمکی متشکرم
انتخاب هسته
1571
من سعی می کنم (در R) یک آزمون فرضیه مکرر در بیزی را با محاسبه عوامل بیز مدل های صفر (H0) و جایگزین (H1) بازسازی کنم. این مدل به سادگی یک رگرسیون خطی ساده است که سعی می کند روند دمای جهانی را تشخیص دهد. داده ها از سال 1995 تا 2009 (اینجا). بنابراین، H0 هیچ روندی نیست (یعنی شیب = 0)، یا به طور مشابه، مدل H0 یک مدل خطی است که فقط نقطه ی قطع دارد. بنابراین من lm() هر دو مدل را محاسبه کردم تا به مقادیر احتمال log منفی که به طور قابل توجهی متفاوت هستند برسم. مقدار p برای مدل H1 lm() 0.0877 است. من همچنین با استفاده از MCMCpack این را به روش بیزی محاسبه کردم و مقادیر احتمال log منفی را دریافت کردم که **super duper uber** متفاوت است. مقادیر لاگ درستنمایی 13.7 و 4.3 تقریباً 10000 برابر اختلاف نسبت درستنمایی آنهاست (که در آن بیش از 100 تعیین کننده در نظر گرفته می شود). میانگین و sds برآوردها بسیار مشابه هستند، پس چرا من مقادیر احتمال متفاوتی را دریافت می کنم؟ (مخصوصاً برای مدل بیزی H0) من احساس می کنم در درک من در مورد احتمالات حاشیه ای شکافی وجود دارد، اما نمی توانم مشکل را مشخص کنم. با تشکر از کتابخانه (MCMCpack) ## داده: http://www.cru.uea.ac.uk/cru/data/temperature/hadcrut3gl.txt head(hadcru, 2) ## سال 1 2 3 4 5 6 7 8 9 10 ## 1 1850 -0.691 -0.357 -0.816 -0.586 -0.385 -0.311 -0.237 -0.340 -0.510 -0.504 ## 2 1851 -0.345 -0.394 -0.503 -0.480 -0.391 -0.264 -0.279 -0.175 -0.175 -0.211 #211#g #1 #1. -0.259 -0.318 -0.443 ## 2 -0.141 -0.151 -0.288 hadcru.lm <- lm(میانگین ~ 1 + سال، داده = زیر مجموعه (hadcru، (سال <= 2009 و سال >= 1995))) hadcru.l صفر <- lm(میانگین ~ 1، داده = زیر مجموعه (hadcru، (سال <= 2009 و سال >= 1995))) hadcru.mcmc <- MCMCregress(میانگین ~ 1 + سال، داده = زیرمجموعه (hadcru، (سال <= 2009 و سال >= 1995))، نازک = 100، mcmc = 100000، b0 = c(-20، 0)، B0 = c(.00001، 0.00001)، حاشیه = لاپلاس) hadcru.mcmc.zero <- MCMCregress (میانگین ~ 1، داده = زیر مجموعه (hadcru، (سال <= 2009 و سال >= 1995))، نازک = 100، mcmc = 100000، b0 = c(0)، B0 = c(.00001), marginal = Laplace) -logLik(hadcru.lm) ## 'log Lik.' -14.55338 (df=3) -logLik(hadcru.lm.zero) ## 'log Lik.' -12.80723 (df=2) attr(hadcru.mcmc، logmarglike) ## [,1] ## [1,] -13.65188 attr(hadcru.mcmc.zero، logmarglike) ## [,1] # # [1،] -4.310564 ![alt متن](http://www.skepticscience.com/images/HadCRUT_1995_2009.gif)
بازآفرینی آزمون فرضیه صفر سنتی با روش‌های بیزی
91468
من واقعاً از این موضوع ناراحت هستم، بنابراین امیدوارم بتوانید به من کمک کنید تا گروهی از افرادی که در یک دوره آموزشی شرکت می کنند، به منظور سنجش اینکه آیا دوره آموزشی در بهبود دانش شرکت کنندگان موثر است یا خیر. ما موارد زیر را انجام دادیم: شرکت‌کنندگان یک پیش‌آزمون (فقط درست یا نادرست) را انجام می‌دهند قبل از اینکه شرکت‌کنندگان در آموزش شرکت‌کنندگان در آموزش، پس‌آزمون را تکمیل کنند (فقط درست یا نادرست) پس از آموزش، هر دو آزمون پیش و پس آزمون دقیقاً مشابه هستند. سوالات، اما آزمون با بارکد برچسب گذاری نشده است، بنابراین من هیچ راهی ندارم که بدانم آیا یک پرسشنامه خاص قبل و بعد متعلق به یک فرد است یا خیر، هر مقاله از 20 امتیاز گرفته شده است، و نمراتی که در SPSS برای هر دانش آموز برای پرسشنامه قبل و بعد از آن وارد کرده ام، بنابراین برای این کار می توانم فقط از آزمون t زوجی استفاده کنم و آیا این تفسیر همچنان معتبر است یا جایگزینی وجود دارد که بتوانم برای یافتن اهمیت مداخله استفاده کنم. و اینکه آیا موثر بوده یا نه؟ یا باید از مجموع نمرات قبل و بعد آزمون t را انجام دهم؟ خیلی ممنون
آیا می توانم یک آزمون t زوجی را روی یک پرسشنامه قبل و بعد اما بدون جفت کردن همان دانش آموز برای قبل و بعد انجام دهم؟
72120
من از مدلسازی خطی خودکار در SPSS استفاده می کنم. آیا کسی اینجا می داند که گزینه تبدیلی که در آن روش پیشنهاد می شود چیست؟
تبدیل های مورد استفاده در روش مدلسازی خطی خودکار در SPSS
22273
من درک می کنم که چرا میانگین ورودی به یک شبکه عصبی عادی شده است تا از مشکلات عددی با اعداد بسیار بزرگ و بسیار کوچک جلوگیری شود. همچنین، خوب است که گره بایاس به اندازه سایر داده های ورودی باشد. اما چرا انحراف معیار معمولاً نرمال می شود؟ البته انحراف استاندارد بالاتر به این معنی است که تغییرات تأثیر بیشتری دارند، اما آیا به هر حال وزنه ها با آن سازگار نمی شوند؟ با تشکر
چرا انحراف استاندارد ورودی شبکه عصبی را عادی کنیم؟
55113
من قبلاً می دانستم که در هنگام استفاده از مدل رگرسیون خطی چندین فرض وجود دارد. اما نمی توانم بفهمم چرا برخی از آنها وجود دارند. آنها عبارتند از: 1. خطاهای مستقل 2. توزیع نرمال خطاها 3. homoscedasticity چرا نمی توانم به سادگی از روش حداقل مربعات بدون این مفروضات استفاده کنم؟ می‌خواهم بدانم اگر برخی از مفروضات نامعتبر باشند، چگونه روی $R^2$، شیب و p-value تأثیر می‌گذارد. به عنوان مثال: اگر فرض خطای مستقل نادرست باشد، مقدار p کمتر از مقدار واقعی آن است.
مفروضات رگرسیون خطی از کجا می آیند؟
111236
فرض کنید من یک مدل ترکیبی خطی را به صورت زیر در نظر بگیرم: lme(پاسخ ~ 1، تصادفی = ~1| مکان | کاربر | ماشین). بنابراین ماشین در داخل کاربر که در داخل مکان تو در تو قرار می گیرد. فرض کنید 4 مکان، 8 کاربر و 16 ماشین وجود دارد. فرض کنید در مجموع 96 آزمایش (بر روی همه مکان‌ها، کاربران و ماشین‌ها) انجام شده است. epsilon_{ijkl}$ که در آن $\alpha$ مربوط به مکان، $\beta$ به کاربر و $\gamma$ مربوط به ماشین است. بنابراین $i \in \\{1,2,3,4\\}$, $j \in \\{1,...,8\\}$ و $k \in \\{1,.. .,16\\}$. حالا، فرض کنید می‌خواستم به تغییرپذیری $\alpha$ نگاه کنم و نوعی تست مجذور خی بر روی واریانس آن انجام دهم. من فرض می کنم df که استفاده می کنم چیزی به ترتیب (4-1) باشد، زیرا اندازه نمونه 4 است. مسلماً، اگر آمار پیچیده‌تر باشد، ممکن است تغییر کند، اما «n» برای آن 4 است. حالا، اگر بخواهم همین کار را برای $\beta$ انجام دهم، از n از 8 استفاده می کنم. برای $\gamma$ از n از 16 استفاده می کنم. با این حال، اگر به واریانس $ نگاه کنم چه می شد. \epsilon$. آیا از n (96-4-8-16) = 68 استفاده کنم؟ بنابراین اگر تست من n-1 df داشته باشد، از df = 67 استفاده می کنم؟ با تشکر
df مناسب برای یک مدل مختلط خطی هنگام بررسی واریانس
55119
فرض کنید $X_1, \dots , X_n$ یک نمونه تصادفی از $f(x|\mu,\sigma)=\displaystyle\frac{1}{\sigma}\displaystyle e^{\displaystyle-\frac{x- است. \mu}{\sigma}}، x>\mu، \sigma>0$. چگونه می توان $\text{cov}(\bar{X_n},X_{(1)})$ را محاسبه کرد. _توجه:_ $X_{(1)}$ آمار مرتبه اول است.
$\text{cov}(\bar{X_n},X_{(1)})$ را محاسبه کنید
114042
من در حال حاضر در تلاش برای تجزیه و تحلیل داده های یک آزمایش خودم هستم و برخی از دستورالعمل ها را در مورد استفاده از تابع lme() برای R جستجو کرده ام، زیرا به دنبال تجزیه و تحلیل داده های خود با رویکرد اثرات مختلط خطی هستم. با این حال، 1. در صورتی که lme() کار کند، مطمئن نیستم که چگونه یک مدل را به داده های خود تطبیق دهم. 2. در صورتی که گزینه های بهتری نسبت به lme() وجود داشته باشد، خوشحال می شوم که در مورد استفاده صحیح از این توابع کمکی بکنید. آزمودنی‌های آزمایش من به‌طور تصادفی به یکی از دو زمینه (بین آزمودنی‌ها عامل B) اختصاص داده شدند و در این زمینه همه آزمودنی‌ها یک کار را انجام دادند که به عنوان ترکیبی از دو عامل درون آزمودنی‌ها (W1 و W2) ساخته شد. علاوه بر این، آزمودنی ها پرسشنامه شخصیتی را پر کرده اند، بنابراین هر آزمودنی ارزشی برای این کار دارد که من باید آن را در تحلیل خود لحاظ کنم (Pers). متغیر نتیجه یک متغیر پیوسته است (زمان واکنش، RT). داده ها به این شکل است: B نفر موضوع W1 W2 RT A 23 1 m x 187 A 23 1 m y 333 A 23 1 n x 112 A 23 1 n y 110 A 5 2 m x 313 ... ... ... ... . .. ... B 11 19 m x 911 B 11 19 m y 248 B 11 19 n x 411 B 11 19 n y 212 B -9 20 m x 666 ... ... ... ... ... ... من علاقه مند به تجزیه و تحلیلی هستم که اطلاعاتی در مورد تعاملات هر چهار عامل (B) به من بدهد. ، Pers، W1 و W2)، بنابراین تعامل چهار طرفه. وقتی فقط B را شامل می‌شود، به نظرم می‌رسد که می‌دانم هنگام استفاده از lme(). کد من به این شکل است (nb: من تضادهایی را بین شرایط مختلف قبل از کد lme() واقعی با استفاده از تابع ()contrast ایجاد کردم: > baselinemodel = lme(RT ~ 1, random = ~1|subject/W1/W2, داده = df، روش = ML) > W1model = به روز رسانی (خط پایه، .~. +W1) > W2model = به روز رسانی (W1model, .~ +W2) > Bmodel = به روز رسانی(W2model، .~. +B) > W1W2mod = به روز رسانی(Bmodel، .~. +W1:W2) > W1Bmod = به روز رسانی(W1W2mod، .~. +W1:B) > W2Bmod = به روز رسانی(W1Bmod، .~. +W2:B) > fullmodel = به روز رسانی(W2bmodel, .~. +W1:W2:B) یعنی. من یک مدل پایه شامل فقط رهگیری و مشخص کردن W1 و W2 به عنوان تو در تو در درون سوژه ها ایجاد کردم (از این رو آنها را به عنوان عوامل درون سوژه ها تعریف کردم) و سپس به صورت متوالی پیش بینی کننده های بیشتری و تعاملات آنها را اضافه کردم تا در نهایت بتوانم اینها را با هم مقایسه کنم. مدل‌هایی که از تابع anova() استفاده می‌کنند: > anova (پایه، W1model، W2model، Bmodel، W1W2mod، W1Bmod، W2Bmod، fullmodel) طبیعتاً من همچنین با استفاده از > خلاصه (fullmodel) به تضادهای از پیش تعریف شده خود نگاهی می‌اندازم، این رویکرد را بسیار شهودی می‌دانم، تا زمانی که سعی نکنم پیش‌بینی‌کننده پیوسته Pers را علاوه بر B وارد کنم. بنابراین اینجاست که من گیر کرده ام اگر کسی بتواند 1. به من توضیح دهد که چگونه Pers را علاوه بر B، W1 و W2 بگنجانم (یعنی چگونه یک پیش‌بینی‌کننده پیوسته که بین سوژه‌ها متفاوت است، و تعامل آن با عوامل دیگر را در تجزیه و تحلیل خود لحاظ کنم) 2. و در صورتی که lme() تابع بهینه برای اهداف من نباشد چگونه می توانم یک تحلیل قابل مقایسه با تابع دیگری انجام دهم (بنابراین دامنه بسیار باریک من از R را گسترش می دهم) طبیعتاً قبل از شروع به ارسال این سؤال، کمی جستجو کرده اند، اما متأسفانه دیگرانی که به نظر می رسید مسائل مرتبط با آن را داشتند در دریافت پاسخ چندان موفق نبودند (تحلیل طرح ترکیبی با متغیرهای طبقه بندی شده و پیوسته) پیشاپیش از شما متشکرم
lme() با چندین عامل موضوعی درون و بین (طبقه ای و پیوسته).
111235
من سعی می کنم مقادیر همبستگی را بررسی کنم. یه مشکل بزرگ پیش میاد روشی که من استفاده کردم در بسته **corpcor** در R است. من یک ستون به عنوان داده از دست رفته دارم. من ابتدا ماتریس همبستگی را محاسبه می کنم. cluster1corMatrix<-cor(cluster1Analytes,method=spearman) سپس یک ماتریس همبستگی دریافت می کنم. وقتی همبستگی های جزئی را با استفاده از توابع cor2pcor به شرح زیر انجام دادم، با یک مشکل بزرگ مواجه شدم. ## هشتادمین ستون و سطر 80 همه NA هستند. cluster1corMatrix<-cluster1corMatrix[-80,] cluster1corMatrix<-cluster1corMatrix[,-80] ### در بالا مقدار گمشده ستون را حذف می کند cluster1PcorMatrix<-cor2pcor(cluster1corMatrix) بیشتر همبستگی منفی می شود. مهمتر از همه، برخی از همبستگی ها، به عنوان مثال، همبستگی 0.9 در همبستگی جزئی به 0.91- تبدیل می شود. روشی که من استفاده کردم در بسته **corpcor** در R است. کسی می تواند در مورد آن نظر بدهد؟ آیا تغییر همبستگی 0.9 به -0.9 در همبستگی جزئی منطقی است؟ با تشکر فراوان برای خواندن این پست.
عجیب: همبستگی جزئی مقادیر همبستگی ها را به منفی تغییر داد؟
34379
من سعی می کنم از طریق کلاس مدل های گرافیکی احتمالی Coursera (هفته 7: پیش بینی Baeysian) کار کنم و چندین سوال دارم. 1. در توزیع دیریکله، من در تلاش برای درک اینکه چرا یک -1 در توان تتا وجود دارد، مشکل دارم: $$P(\theta)=Dir(\alpha_1, ..., \alpha_k) = \frac{1} {Z} \cdot \prod_{j} \theta_{j}^{\alpha_{j}-1}$$ 2. چگونه از اینجا دریافت می‌کنید: $$P(X)=\int_{\theta}P(X|\theta)P(\theta)d\theta$$ به اینجا: $$P(X=x^{i}|\theta) = \ int_{\theta} \frac{1}{Z} \cdot \theta_{i} \prod_{j} \theta_{j}^{\alpha_{j}-1}$$ 3. همچنین، چطور مرحله ادغام موارد زیر را انجام دهید؟: $$\int_{\theta} \frac{1}{Z} \cdot \theta_{i} \prod_{j} \theta_{j}^{\alpha_{j}- 1} = { \alpha_{i}\over{\sum_{j} \alpha_{j}} }$$ اینها یادداشت های سخنرانی هستند. سوالات من به اسلاید اول مربوط می شود.
برای درک دیریکله به کمک نیاز دارید (کلاس PGM هفته هفتم کورسرا - پیش‌بینی بیزی)
72121
من آزمایشی دارم که در آن می‌خواهم تعیین کنم آیا یک سکه مغرضانه است یا خیر. من از توزیع دو جمله ای برای نگاه کردن به چرخش سکه استفاده می کنم. من داده‌ها را از نمونه‌ای از 30 تلنگر جمع‌آوری کردم و دریافتم که در 24 مورد از تلنگرها، نتیجه سر بود. من می خواهم قدرت این آزمایش را محاسبه کنم. در اینجا من فقط به یک آزمون یک طرفه علاقه مند هستم: binom.test(24, 30, p=0.5, alternative=greater) چگونه می توانم قدرت این تحلیل را محاسبه کنم؟
تحلیل توان برای سکه بایاس در R
77570
من سعی می‌کنم SVM یک کلاسه را برای تشخیص تازگی انجام دهم، بنابراین از اعتبارسنجی متقاطع برای یافتن بهترین پارامتر $\nu$ برای آن استفاده می‌کنم، اما متوجه شدم که معمولاً یک پارامتر بزرگ $\nu$ دریافت می‌کنم که منجر به اشتباه بزرگ می‌شود. نرخ مثبت چگونه پارامتر $\nu$ را برای یک SVM یک کلاس تنظیم و پیدا کنیم؟
چگونه پارامتر $\nu$ را برای SVM one-clss تنظیم کنیم؟
112698
بنابراین متوجه شدم که قبلاً این سؤال مطرح شده است: به عنوان مثال. موارد استفاده مربوط به تجزیه و تحلیل خوشه ای متریک های مختلف فاصله چیست؟ اما من پاسخ‌ها را تا حدودی متناقض با آنچه پیشنهاد شده در ادبیات ممکن یافتم. اخیراً دو مقاله را خوانده ام که در آنها به استفاده از الگوریتم kmeans با معیارهای دیگر اشاره شده است، برای مثال ویرایش فاصله بین رشته ها و فاصله حرکت دهنده زمین بین توزیع ها. با توجه به اینکه این مقالات به استفاده از kmeans با معیارهای دیگر بدون مشخص کردن _how_ اشاره می‌کنند، به‌ویژه وقتی صحبت از محاسبه میانگین مجموعه نقاط می‌شود، به من پیشنهاد می‌کند که شاید روشی «استاندارد» برای مقابله با این موضوع وجود داشته باشد که من آن را انتخاب نمی‌کنم. بالا در برای مثال این مقاله را در نظر بگیرید که اجرای سریع‌تری از الگوریتم k-means را ارائه می‌دهد. نویسنده با نقل قول از پاراگراف 4 در مقدمه می گوید که الگوریتم او می تواند با هر متریک فاصله جعبه سیاه استفاده شود و در پاراگراف بعدی فاصله ویرایش را به عنوان یک مثال خاص ذکر می کند. الگوریتم او هنوز میانگین مجموعه ای از نقاط را محاسبه می کند و اشاره ای نمی کند که چگونه این ممکن است نتایج را با معیارهای دیگر تحت تأثیر قرار دهد (من به ویژه در مورد اینکه میانگین چگونه با فاصله ویرایش کار می کند گیج هستم). این مقاله دیگر استفاده از k-means را برای خوشه بندی دست های پوکر برای انتزاع نگهدارنده تگزاس توصیف می کند. اگر به صفحه 2 پایین ستون سمت چپ بروید، نویسنده می نویسد و سپس k-means برای محاسبه یک انتزاع با تعداد دلخواه خوشه با استفاده از فاصله حرکت دهنده زمین بین هر جفت هیستوگرام به عنوان متریک فاصله استفاده می شود. من واقعاً به دنبال کسی نیستم که این مقالات را برای من توضیح دهد، اما آیا روش استانداردی را برای استفاده از k-means با سایر معیارها از دست داده ام؟ به نظر می‌رسد میانگین‌گیری استاندارد با فاصله حرکت‌دهنده زمین می‌تواند به صورت اکتشافی کار کند، اما به نظر می‌رسد فاصله ویرایش اصلاً با قالب مناسب نیست. من از هر بینشی که کسی می تواند ارائه دهد قدردانی می کنم. **(ویرایش)**: من پیش رفتم و k-means را روی هیستوگرام های توزیع با استفاده از فاصله حرکت دهنده زمین (مشابه آنچه در مقاله پوکر است) امتحان کردم و به نظر می رسید که خوب کار کرده است، خوشه هایی که خروجی آن برای آنها بسیار خوب به نظر می رسید. مورد استفاده من برای میانگین گیری فقط هیستوگرام ها را به عنوان بردار در نظر گرفتم و به روش معمولی میانگین گرفتم. تنها چیزی که متوجه شدم این است که مجموع تمام نقاط فاصله تا میانگین همیشه به صورت یکنواخت کاهش نمی یابد. اگرچه در عمل، علیرغم مشکلات یکنواخت، در یک دقیقه محلی در 10 تکرار ثابت می شود. می‌خواهم فرض کنم که این همان کاری است که آنها در مقاله دوم انجام دادند، تنها سؤالی که باقی می‌ماند این است که وقتی از چیزی مانند فاصله ویرایش استفاده می‌کنید، چگونه میانگین می‌گیرید؟
استفاده از k-means با سایر معیارها
25724
آیا به هر حال می توان بوت استرپ BCa، tilted و ABC را در R بدون استفاده از بسته های داخلی، یعنی 'boot' انجام داد؟ با تشکر
بوت استرپینگ در R
114046
اگر از مدل خطی تعمیم یافته زیر استفاده شده است، چگونه باید عبارت خطا را تفسیر کنم؟ تابع پیوند: توزیع گزارش طبیعی: توزیع گاما یعنی $\ln E(Y)=X\beta$ و $E(Y)=\exp(X\beta)$ به نظر می رسد که عبارت خطا باید افزودنی باشد: $Y =\exp(X\beta)+\epsilon$ با این حال، پس از مقداری جبر، با اجازه دادن به $Y=\exp(X\beta)\psi$ تبدیل می شود. $\psi_i=\frac{\epsilon_i}{\exp(x_i'\beta)}+1$ بنابراین، $\epsilon$ افزایشی است اما $\psi$ ضربی است. من با این مقاله اشتباه گرفته ام: خطاهای ضربی: Log-normal یا گاما؟ توسط فرث، 1988 فرث مدل خطاهای ضربی را برای متغیر پاسخ توزیع شده گاما ایجاد کرد. با این حال، پس از محاسبه توسط R یا SAS، چگونه عبارت خطا را تفسیر کنم؟ آیا Rglm() یا SAS proc genmod مدل خطای ضربی را در اختیار ما قرار می دهد (مانند Firth، 1988)؟ علاوه بر این، چرا مدل زیر در R یا SAS موجود نیست؟ توزیع: تابع پیوند توزیع لگ نرمال: هویت به نظر می رسد (در بسیاری از متون) که باید پاسخ را تغییر شکل دهیم و مدل زیر را اعمال کنیم (یا با استفاده از OLS): توزیع: تابع پیوند توزیع نرمال: هویت با این حال، در مقایسه با مدل گاما (لینک ورود)، ما باید مدل زیر را بسازیم: توزیع: تابع پیوند توزیع lognormal: گزارش طبیعی، اما نمی توان آن را در R glm یا SAS proc genmod تخمین زد. پس از چند تحقیق در مورد موضوع خانواده نمایی طبیعی، http://en.wikipedia.org/wiki/Natural_exponential_family حدس می‌زنم که الگوریتم در Rglm() یا ژنمود SAS proc نمی‌تواند مدل‌هایی را حل کند که در آن توزیع در آن نیست. خانواده نمایی طبیعی (اگر از Fisher-scoring استفاده شود، نه شبه درستنمایی) به نظر می رسد برای حل مدل های مدل های log-normal بدون log-transform باید شبه درستنمایی اعمال شود. با این حال، همه اینها حدس من است. من به برخی ادبیات (مقالات ژورنالی، کتاب و غیره) برای ترغیب دیگران نیاز دارم که مورد استناد قرار گیرند. یا اثبات دقیق تر ممکن است مفید باشد.
خطای ضربی و خطای افزایشی برای مدل خطی تعمیم یافته
111231
من در حال خواندن مقالاتی هستم که در مورد «مدل های عامل خطی» بحث می کنند که به نظر می رسد معادله کلی را که اغلب در رگرسیون OLS استفاده می شود، توصیف می کند. وقتی مردم به یک مدل رگرسیون خطی اشاره می کنند، آیا اساساً فقط به یک مدل عامل خطی اشاره می کنند؟ اصطلاح مدل عامل خطی در کجای آمار جای می گیرد و اگر اصلاً وجود دارد، چرا باید تمایز قائل شد؟
مدل ضریب خطی در مقابل مدل رگرسیون خطی
111230
من می خواهم نمرات دریافت شده در دو معیار جداگانه را با یک مقیاس سوم مقایسه کنم. هر کدام از آنها نمرات خام در دسترس دارند و من می‌پرسیدم که آیا امتیاز z را برای دو معیار فاصله اول پیدا کرده‌ام و ترکیب/میانگین می‌توانم سپس سه نتیجه را با اندازه‌گیری فاصله سوم برای همبستگی مقایسه کنم؟
ترکیب دو اندازه فاصله برای همبستگی با یک سوم - چگونه؟
114040
من در مورد تجزیه و تحلیل داده های طبقه بندی شده مطالعه می کردم (به عنوان مثال Agresti (2010): تجزیه و تحلیل داده های طبقه بندی ترتیبی). علاوه بر تجزیه و تحلیل داده‌ها با یک پاسخ ترتیبی با کمک مدل‌های اثرات مختلط تجمعی شانس متناسب، به نظر می‌رسد برخی افراد به عنوان مثال پیشنهاد می‌کنند. برای استفاده از تابع «glmer()» از «lme4» در «R» برای متناسب کردن طیف وسیعی از مدل‌ها. داده‌های من به این صورت است: 1. پاسخ ترتیبی: مقیاس پنج نقطه‌ای با $1<2<3<4<5$ ($1$ بدترین، $3$ خنثی، $5$ بهترین است) 2. یک نوع پیش‌گوی طبقه‌بندی تک با 5 سطح 3. موضوعات به عنوان اصطلاح اثرات تصادفی که من در نحو lme4 مشخص می کنم: (نوع | موضوعات) با قطع و شیب برای هر موضوع هر آزمودنی آیتم های 320 دلاری را دید (40 دلار برای سطح 1 دلار، 40 دلار برای سطح 2 دلار، 40 دلار برای سطح 3 دلار، 160 دلار برای سطح 4 دلار) و به هر یک از آنها امتیاز داد. مجموعه داده بسیار خوب به نظر می رسد و از آنجایی که فقط حاوی یک پیش بینی کننده است، برای آشنایی با تجزیه و تحلیل داده های طبقه بندی بسیار خوب است. با این حال، من نمی‌دانستم که آیا روش‌های جایگزینی برای تجزیه و تحلیل چنین داده‌هایی به غیر از برخورد با پاسخ به عنوان یک متغیر پیوسته و استفاده از «lmer()» یا «aov()» وجود دارد. و اگر توصیه یا توصیه ای وجود دارد، مردم می توانند در اینجا ارائه دهند. در اینجا جایگزینی است که در مورد آن خواندم. می توان یک مجموعه داده با یک پاسخ ترتیبی را به زیر مجموعه هایی تقسیم کرد که هر کدام فقط شامل دو سطح از پاسخ ترتیبی هستند. چند سوال در این مورد دارم. چگونه می‌توانید آن مجموعه داده را به زیرمجموعه‌هایی تقسیم کنید که پاسخ ترتیبی 5 دلاری داشته باشید؟ بر اساس ترتیب پاسخ من، منطقی ترین انتخاب به نظر من می رسد: زیر مجموعه $A$ با سطوح $1$ و $2$، زیر مجموعه $B$ با سطوح $2$ و $3$، زیر مجموعه $C$ با سطوح $3$ و $4$ ، زیر مجموعه $D$ با سطوح $4$ و $5$. من این کار را با مجموعه داده‌های «شراب» از بسته «تعدادی» امتحان کردم. اما این به دلیل عدم همگرایی، غیرقابل شناسایی بودن مدل و غیره، به طرز ناخوشایندی با شکست مواجه خواهد شد (من از «lme4 1.1.8» استفاده می کنم). این مثال شراب است: data(wine, package = ordinal) # کتابخانه مجموعه داده شراب (lme4) زیر <- wine$rating %in% grep([1-2], wine$rating, value = TRUE) sub12 <- زیر مجموعه (شراب، زیر مجموعه = زیر) sub12$ رتبه <- ضریب (sub12$ رتبه، مرتب = FALSE) glmer12 <- glmer (رتبه ~ دما + تماس + (دمای | داور)، داده = زیر 12، خانواده = دوجمله ای) # جایگزین کردن (1 | داور) برای (مقاومت | داور) آن را بهتر نمی کند # اخطاری نمی دهد glm12 <- glm (رتبه ~ دما + تماس، داده = زیر 12، خانواده = دو جمله ای) فرعی <- wine$rating %in% grep([2-3], wine$rating, مقدار = TRUE) sub23 <- زیر مجموعه (شراب، زیرمجموعه = فرعی) رتبه فرعی 23$ <- ضریب(sub23$ رتبه، مرتب = FALSE) glmer23 <- glmer(رتبه ~ دما + تماس + (دمای | داور)، داده = زیر23 ، خانواده = دو جمله ای) زیر <- wine$rating %in% grep([3-4]، wine$rating، value = TRUE) sub34 <- زیر مجموعه (شراب، زیرمجموعه = فرعی) رتبه بندی فرعی 34$ <- ضریب(زیر رتبه بندی $34، مرتب = FALSE) glmer34 <- glmer(رتبه ~ دما + تماس + (دمای | قاضی)، داده = زیر 34، خانواده = دوجمله ای) البته مجموعه داده شراب نسبتاً کوچک است (و ما کاملاً یا شبه جداسازی داریم) و مال من نیست، اما اگر داده های ترتیبی را تجزیه و تحلیل کنم چقدر احتمال دارد که با مشکل مشابه مواجه شوم. این راه
جایگزین‌های مدل‌های اثرات مختلط شانس متناسب
91466
اگر X و Y متغیرهای تصادفی مستقل هستند به طوری که X = A + B و Y = C + D؟ آیا جفت های (الف، ج)، (ب، ج)، (الف، د)، (ب، د) نیز مستقل هستند؟ منظور من از این است که آیا A و C مستقل هستند، B و C مستقل هستند و غیره.
تجزیه متغیرهای تصادفی مستقل
74000
من در مورد مسئله مکرر و بیزی می خواندم (این مقاله کمک زیادی کرده است، به خصوص با مثال؛ همچنین این مقاله)، و با آن کنار نیامده ام. در حال حاضر به نظر می رسد که تعبیر فراوانی و بیزی از احتمال وجود دارد. و به طور جداگانه، رویکرد مکرر و بیزی به مشکلات. اولی در مورد مسئله باور در مقابل فرکانس است (در مقاله دوم نشان داده شده است). مورد بعدی در مقاله اول نشان داده شده است. هر دو در کنار هم به نظر من اینگونه به نظر می رسند: * تفسیر مکرر گرایانه از رویکرد مکرر گرایی تضمین می کند که در درصدی از زمان برای تعداد زیادی کارآزمایی با فرض تنها توزیع احتمال، بدون توجه به پارامتری که دریافت می کنیم، درست است تا زمانی که فرض کنیم که ما طیف خوبی از داده ها را دریافت خواهیم کرد. * تفسیر مکرر رویکرد بیزی تضمین می کند که در درصدی از زمان برای تعداد زیاد کارآزمایی با فرض توزیع احتمال و قبلی، بدون توجه به داده هایی که به دست می آوریم، تا زمانی که فرض کنیم محدوده خوبی به دست خواهیم آورد. از پارامترها * تفسیر بیزی از رویکرد مکررگرا می گوید که ما با فرض یک درصد فقط توزیع احتمال درست می گوییم، بدون توجه به اینکه کدام پارامتر را بدست آوریم، تا زمانی که عادلانه بودن تصادفی بودن داده ها را فرض کنیم. * تفسیر بیزی از رویکرد بیزی می گوید که ما با فرض یک درصد با فرض توزیع احتمال و قبل، درست می گوییم، مهم نیست کدام داده را به دست آوریم، تا زمانی که عادلانه بودن تصادفی بودن پارامترها را فرض کنیم. این تنها دیدگاه ثابتی است که من توانسته ام از آنچه خوانده ام شکل دهم. با این حال، من هنوز فکر می‌کنم شاید چیزی را از دست داده‌ام (چون در واقع این دیدگاه را در هیچ جای دیگری پیدا نکرده‌ام، نتیجه‌گیری خودم است)، بنابراین با فرض صفر که اشتباه می‌کنم، اشتباه من کجاست؟
تفاسیر بیزی و مکرر در مقابل رویکردها
5733
من روی یک تابع مونت کارلو برای ارزیابی چندین دارایی با بازدهی جزئی همبسته کار می کنم. در حال حاضر، من فقط یک ماتریس کوواریانس ایجاد می‌کنم و به تابع «rmvnorm()» در R می‌خورم. این واقعاً یک سؤال دو قسمتی است: 1) چگونه می توانم نوعی PDF یا CDF را تخمین بزنم در حالی که تمام چیزی که دارم برخی از داده های دنیای واقعی بدون توزیع شناخته شده است؟ 2) چگونه می توانم مقادیر مرتبط مانند rmvnorm را تولید کنم، اما برای این توزیع ناشناخته (و غیر عادی)؟ با تشکر
مقادیر چند متغیره تصادفی را از داده های تجربی ایجاد کنید
55112
من روی مشکلات مرور کار کرده‌ام، و این یکی من را کاملاً مبهوت کرده است. اجازه دهید $X_1 ... X_{10}$ یک نمونه تصادفی از توزیع $N(3,\sigma^2)$ باشد که $\sigma^2$ ناشناخته است. با استفاده از آزمون نسبت درستنمایی، یک آزمون منطقه بحرانی در سطح 5% را برای $H_0 تعیین کنید: \sigma^2 = 1 $ در مقابل $H_1 : \sigma^2 \neq 1$ (و به طور معمول، $\sigma^2 > 0 دلار). به نظر می رسد که در حالت کلی، زمانی که فرد در حال آزمایش یک فرضیه در مورد واریانس است، از آماره خی دو استفاده می شود که چیزی شبیه به یک هدف نهایی به من می دهد، اما من مطمئن نیستم که چگونه به آنجا برسم. pdf مشترک برای 10 r.v.s باید $\large(\frac{1}{\sqrt{2\pi\sigma^2}})^{10}\cdot e^-\frac{\sum_{i=1 باشد }^{10} (X_i - 3)^2}{2\sigma^2}$ بر اساس فرضیه صفر، این بازده $\large(\frac{1}{\sqrt{2\pi}})^{10}\cdot e^-\frac{\sum_{i=1}^{10} (X_i - 3)^2} {2}$، از آنجایی که $\sigma^2 = 1$ تحت فرضیه جایگزین، داریم $\large(\frac{1}{\sqrt{2\pi\hat\sigma^2}})^{10}\cdot e^-\frac{\sum_{i=1}^{10} (X_i - 3)^2}{2\hat\sigma^2}$ با تنظیم اینها به ترتیب به عنوان صورت و مخرج، دریافت می کنم $\LARGE\frac{\exp(^-\frac{\sum_{i=1}^{10} (X_i - 3)^2}{2})}{(\frac{1}{\hat{\ سیگما}})^{10}\cdot \exp(^-\frac{\sum_{i=1}^{10} (X_i - 3)^2}{2\hat\sigma^2})} = \Lambda$ من معتقدم که صورتگر دارای 0 پارامتر آزاد است و مخرج دارای 1 است. برای بدست آوردن احتمال log، من $ln(\ را اعمال می کنم. Lambda)$، و می دانیم که $\hat\sigma^2$ را می توان به صورت $\frac{1}{10}\sum_{i=1}^{10} نشان داد (X_i-3)^2$، بنابراین ساده سازی بیشتر $-2Ln(\Lambda) = \sum(X_i-3)^2-10+10ln(\frac{10}{\sum(Xi-3)^2 را به دست می آورد })$ با توجه به مشکل، این باید یک آمار $\chi_{10}^2$ باشد، اما من نمی دانم چگونه این را (احتمالاً گرافیکی) توجیه کنم؟ باز هم، من تا حد زیادی از کمک قدردانی می کنم! ویرایش (و پاسخ پیشنهادی من) )$، و از آنجایی که من صرفاً به دنبال این هستم که ببینم آیا این یکنواخت است، می توانم این را به $\hat\sigma^2-ln(\hat\sigma^2)$ ساده کنم، که یک نمودار سریع نشان می دهد یکنواخت نبودن این بدان معنی است که ما می خواهیم یک آزمون دو طرفه را تحت فرضیه صفر انجام دهیم. می دانیم که $\hat\sigma^2$ از توزیع $\chi^2_10$ پیروی می کند، بنابراین $H_0$ را در زمانی که $n*\sigma^2< $$\chi_{.025,10}^2$ و در $n*\sigma^2>\chi_{.975،10}^2$
آزمون فرضیه توزیع نرمال، واریانس ناشناخته میانگین شناخته شده
22277
فرض کنید کسی می خواهد خوب بودن تناسب بین توزیع نظری و توزیع تجربی را به روشی گرافیکی ارزیابی کند. نمودار Q-Q نرمال اگر توزیع نظری نرمال باشد خوب است. اما اگر توزیع نظری نرمال نباشد چه؟ آیا می توانید از روش گرافیکی لگاریتمی دوگانه استفاده کنید؟
حسن تناسب بین توزیع تجربی و توزیع نظری
25726
من در حال تجزیه و تحلیل یک مقاله در مورد استنتاج بیزی برای قابلیت اطمینان شبکه هستم و در تلاش برای تأیید اعتبار برخی از فرمول‌ها (در نگاه اول بسیار ساده) گیر کردم. فرض کنید احتمال شکست توزیع بتا را به صورت قبلی کوتاه کرده است: $$ \pi _{1}\left ( p_{i}|\gamma ,\alpha \right )=\frac{\alpha \left ( 1-p_{ i} \right )^{\alpha -1}}{\left ( 1-\gamma \right )^{\alpha }}, i=\overline{1,n}، \gamma <p_{i}<1$$ که در آن $\gamma$ آستانه پایین‌تری در $p_{i}$ است و $\alpha$ فقط یک پارامتر ثابت است (یعنی دارای بدون تراکم قبلی). مرحله دوم قبل برای پارامتر $\gamma$ است و یک توزیع بتا با پارامترهای $ \alpha +1 $ و $1$ است. یعنی $$\pi _{2}\left ( \gamma |\alpha \right )=(\alpha +1)(1-\gamma)^{\alpha},\, 0<\gamma <1, \, 0<\alpha<1$$ می‌خواهم قبل از $p_{i}$ را مشروط به $\alpha$ به تنهایی پیدا کنم، یعنی $\pi\left( p_{i}|\alpha\right)$. من تجزیه $$\pi \left ( p_{i}, \gamma|\alpha \right )=\pi_{1}\left ( p_{i}|\gamma,\alpha \right )\cdot \pi_ را اعمال می کنم {2}\left ( \gamma|\alpha \right )$$ و حاشیه‌سازی بیش از $\gamma$ باید چیزی را که من دنبالش می‌گردم ارائه دهد: $$\pi\left( p_{i}|\alpha\right)=\int_{0}^{1}\alpha\left ( \alpha +1 \right )\left ( 1-p_{i} \right )^{\alpha -1}d\gamma=\alpha\left ( \alpha +1 \right )\left ( 1-p_{i} \right )^{\alpha -1}$$ اما این با یکی ادغام نمی‌شود و مقاله پاسخ دیگری می‌دهد (که با یک ادغام می‌شود): $$\pi\left( p_{i}|\alpha\right)= \alpha\left ( \ alpha +1 \right )p_{i}\left ( 1-p_{i} \right )^{\alpha -1}$$ و نمی‌توانم بفهمم چه چیزی را از دست داده‌ام. شاید کسی بتواند به من سرنخی بدهد که چه چیزی را از دست داده ام؟
توزیع قبلی حاشیه ای با پارامترهای محدود
111237
من مدل زیر را دارم که می‌خواهم آن را دوباره بسازم: $Y_{i,t}=a+bx_{i,t}+cx_{i,t-1}+e_{i,t}$ اکنون در تعجب هستم آیا این همان مدل بالا است: $Y_{i,t}=a+ d\Delta x_{i,t}+e_{i,t}$، جایی که $\Delta x_{i,t}=x_{i,t} - x_{i,t-1}$؟ من معتقدم این درست است اما فقط باید 100٪ مطمئن باشم. متشکرم
مشکل مشخصات مدل
72126
من دانش آموزی هستم که در کلاس فرآیندهای تصادفی شرکت می کنم. من دیده ام که مقدار مورد انتظار یک متغیر تصادفی گسسته برابر با میانگین حسابی توزیع به شرط مقادیری است که می گیرد. آیا برای همه متغیرهای تصادفی صرف نظر از توزیع درست است؟ آیا مورد یا مثالی وجود دارد که مقدار مورد انتظار با میانگین حسابی متفاوت باشد؟ ثانیا فکر می کنم فقط برای متغیرهای تصادفی گسسته کاربرد دارد. من فکر می کنم برای متغیرهای تصادفی پیوسته، pdf در نقاط خاصی صفر است. بنابراین در آن صورت می توانم بگویم که مقدار مورد انتظار برابر با میانگین متغیر تصادفی نیست؟
مقدار مورد انتظار یک متغیر تصادفی متفاوت از میانگین حسابی
22271
تابع 'mcmcsamp()' شبیه سازی هایی را از توزیع های خلفی یک مدل مخلوط بیزی مجهز به تابع 'lmer()' ایجاد می کند. توزیع های قبلی چیست؟ آیا کتاب یا مقاله ای وجود دارد که یک مطالعه ریاضی از مدل مخلوط بیزی با این پیشین ها ارائه دهد؟
چه توزیع های قبلی در mcmcsamp() از lme4 استفاده می شود؟
88529
من این سردرگمی مربوط به اجرای matlab liblinear را دارم. من سعی می کنم از رگرسیون لجستیک منظم L1 استفاده کنم. من مدل را با تعصب آموزش داده ام. اکنون وقتی پیش‌بینی را فراخوانی می‌کنم [predicted_label, accuracy, biryar_values/prob_estimates] = ... predict(testing_label_vector, testing_instance_matrix, model, 'liblinear_options','col'] آیا لازم است یک ویژگی اضافی با ویژگی‌هایی برای اصطلاح سوگیری اضافه کنم. منظورم این است که وقتی مدل را یاد بگیرم اگر 10 ویژگی داشته باشم، 11 وزن خواهد داشت یکی برای بایاس حالا وقتی مجموعه داده خود را برای آزمایش ارائه می‌کنم، آیا باید یک ستون اضافی در «matrix_testing_instance» اضافه کنم
سردرگمی مربوط به اجرای matlab liblinear
74009
من سعی می‌کنم از یک تحلیل متمایز خطی جریمه‌شده برای انتخاب ویژگی استفاده کنم. بسته «R» مورد استفاده «penalizedLDA» بود. از درک من، من باید تعداد بردارها، k، استفاده شده و بارگذاری از بردارها را بدانم تا 10 ویژگی برتر (مثلاً بگوییم) را تعیین کنم. به نظر من باید قدر مطلق 10 بالاترین بارگذاری را انتخاب کنم. آیا کسی می تواند توضیح دهد که چگونه باید خروجی اجرای یک LDA جریمه شده با استفاده از بسته penalizedLDA را به درستی تفسیر کرد. ساختار داده های خروجی من: > str(out) فهرست 10 $ discrim: num [1:401, 1:35] -0.00842 -0.01026 -0.01266 -0.01543 -0.01879 ... $ xproj : num [1:6937, 1:35] 40 52.4 52.8 38.1 53.6 ... $ K : int 35 $ crits :List of 35 ..$ : num [1:4] 1165 1165 1165 1165 ..$ : num [1:4] 294 294 294 294 294 $. 1:5] 25.9 25.9 25.9 25.9 25.9 ..$ : num [1:4] 19.7 19.7 19.7 19.7 ..$ : num [1:4] 15.9 15.9 15.9 15.9 ..$ : num [1:4] .8$ : num [1:4] .8$ . : num [1:4] 1.88 1.89 1.89 1.89 ..$ : num [1:4] 1.35 1.35 1.35 1.35 ..$ : num [1:6] 0.801 0.801 0.801 0.801 0.801 0.8 $ num. [1:4] 0.793 0.793 0.793 0.793 ..$ : num [1:4] 0.508 0.508 0.508 0.508 ..$ : num [1:4] 0.378 0.378 0.378 0.378 $. 0.28 0.28 0.28 0.28 ..$ : num [1:4] 0.164 0.164 0.164 0.164 ..$ : num [1:4] 0.147 0.147 0.147 0.147 0.147 0.147 0.147 0.147 $. 0.0943 0.0943 0.0943 ..$ : num [1:6] 0.0906 0.0906 0.0906 0.0906 0.0906 ... ..$ : num [1:4] 0.0774 0.0774 0.074 $ num [1:4] 0.0528 0.0528 0.0528 0.0528 ..$ : num [1:5] 0.0442 0.0442 0.0442 0.0442 0.0442 ..$ : num [0.37] 0.30 0.037 ..$ : num [1:5] 0.0317 0.0317 0.0317 0.0317 0.0317 ..$ : num [1:4] 0.0223 0.0223 0.0223 0.0223 0.0223 0.0317 0.0223 0.0223 $. 0.0172 0.0172 0.0172 ..$ : عدد [1:4] 0.0126 0.0126 0.0126 0.0126 ..$ : عدد [1:4] 0.0104 0.0104 0.0104 0.0104 0.0104 0.0104 $] 0.00787 0.00787 0.00787 0.00787 ..$ : num [1:4] 0.00576 0.00576 0.00576 0.00576 ..$ : num [1:4] 0.004 0.004 0.004 0.00454 ..$ : num [1:4] 0.00436 0.00436 0.00436 0.00436 ..$ : num [1:4] 0.00328 0.00328 0.00328 0.00328 0.00328 0.00328 0.00328 0.0036 0.00436 ..$ 0.00281 0.00281 0.00281 0.00281 ..$ : num [1:4] 0.00225 0.00225 0.00225 0.00225 ..$ : num [1:4] 0.001 0.001 0.001 0.00186 $ 0.327 0.318 0.367 0.478 ... ..- attr(*, names)= chr [1:401] Spec400 Spec405 Spec410 Spec415 ... $ x : num [1:6937, 1 :401] 0.13038 -0.08583 0.00923 0.16059 0.02393 ... ..- attr(*, dimnames)=لیست ​​2 .. ..$ : NULL .. ..$ : chr [1:401] Spec400 Spec405 Spec410 Spec415 ... $ y : num [1:6937, 1] 1 1 1 1 1 1 1 1 1 1 ... - attr(*, class)= chr penlda
تفسیر خروجی از تجزیه و تحلیل تفکیک خطی جریمه شده R با استفاده از بسته پنالتی LDA
110544
هدف من آموزش یک طبقه بندی کننده لجستیک است. نمونه های من در مجموعه داده من مقداری نویز برچسب دارند اما برای هر برچسب می توانم احتمال درستی این برچسب را بدهم. بهترین راه برای گنجاندن این احتمالات در حین برازش مدل من چیست؟ من از بسته glmnet در R برای آزمایشاتم استفاده می کنم. با توجه به راهنما می توانید یک بردار 2 ستونی به عنوان متغیر پاسخ بدهید. بنابراین آیا درست است که احتمال کلاس 1 بودن در ستون اول و احتمال کلاس 2 بودن در ستون دوم را ارائه دهیم؟ و وزن ها را برای هر نمونه 1 قرار دهید. آیا این درست است؟
رگرسیون لجستیک با استفاده از احتمالات برچسب های کلاس
27385
من می خواهم: i) بررسی کنم که آیا نسبت شانس (OR) برای هر سطح عامل به طور قابل توجهی متفاوت است. **ویرایش**: این مدلی است که من استفاده کردم: NewMod2C <- glm(formula = surv ~ as.factor(season) + as.factor(pgrp) + as.factor(sline) + as.factor(tb5) + as.factor(gest3) + as.factor(int3) + as.factor(agit) + as.factor(teat2)، خانواده = دو جمله ای (پیوند = logit)، data = lesna) summary(NewMod2C) confint(NewMod2C) data.frame(exp(NewMod2C$coefficients)) exp.NewMod2C.coefficients. (فاکتور) 6.5599000 as.factor(season)2 0.7203071 as.factor(pgrp)2 1.3495993 as.factor(pgrp)3 1.0388424 as.factor(pgrp)4 1.1013092 as.factor(pgrp)26.1013092 as. as.factor(tb5)2 0.8663428 as.factor(tb5)3 0.7307868 as.factor(tb5)4 0.6555165 as.factor(tb5)5 0.5770979 as.factor(gest3)2 1.397868 as.factor(tb5)4 as.factor(int3)2 0.8146875 as.factor(int3)3 0.2941530 as.factor(agit)2 0.6305899 as.factor(agit)3 0.7208870 as.factor(teat2)2 1.326377445 areatte آیا راهی برای تعیین اینکه مثلاً سطوح «pgrp» به طور قابل توجهی متفاوت است یا خیر؟ as.factor(pgrp)2 1.3495993 a as.factor(pgrp)3 1.0388424 b as.factor(pgrp)4 1.1013092 c با تشکر.
آزمایش $t$-test با استفاده از R
91885
من فکر می کردم بهترین راه برای تعیین تأثیر هر پارامتر تصادفی بر نتیجه به دست آمده از شبیه سازی مونت کارلو چیست. من متوجه شدم که من یک سوال مشابه را در اینجا پرسیده ام، اما این بار این سوال را به صورت کلی تر مطرح می کنم زیرا قبلاً هیچ پاسخی دریافت نکردم. **زمینه**: من اساساً شبیه سازی مونت کارلو را اجرا می کنم که در آن به طور تصادفی از 65 توزیع عادی و 2 توزیع یکنواخت نمونه برداری می کنم. سپس، این مقادیر را به یک معادله خطی وارد کرده و آن را برای 500000 تکرار اجرا می کنم. من فقط می خواستم بهترین راه را برای تعیین تأثیر نسبی هر یک از این 67 (در مجموع) متغیر تصادفی بر روی نتیجه نهایی شبیه سازی مونت کارلو خود تعیین کنم.
تاثیر هر پارامتر بر شبیه سازی مونت کارلو
25723
لطفاً اگر اشتباه می‌کنم، چون در R خوب نیستم، لطفاً مرا تصحیح کنید. فکر می‌کنم می‌توانم با اجرای تحلیل حداقل مربعات جزئی با X استاندارد شده و بدون ماتریس Y استاندارد شده، یک ترکیب خطی برای حداکثر کردن همبستگی بین پیش‌بینی‌کننده‌ها و متغیرهای وابسته پیدا کنم. اما چگونه می توانم این کار را با pls یا هر بسته دیگری در R انجام دهم؟ آیا با تنظیمات پیش فرض این کار را انجام می دهد؟
چگونه می توان یک ترکیب خطی از پیش بینی کننده ها را پیدا کرد که همبستگی بین نمره آن و متغیر وابسته را در R به حداکثر می رساند
111238
مقاله از اینجا آمده است: https://www.cs.toronto.edu/~hinton/absps/fastnc.pdf (1) چرا RBM در بالا قرار دارد؟ (2) چرا یک RBM معادل یک شبکه سیگموئید بی نهایت در نظر گرفته می شود؟ (3) آیا زنجیره ای از RBM های انباشته یک DBM (ماشین عمیق بولتزمن) است یا یک DBN؟
3 سوال مفهومی در مورد DBN (شبکه باور عمیق)
77572
من یک ماتریس $N \times P$ $X$ دارم (با ماتریس کوواریانس واریانس $\Sigma$ $P \times P$) و از R برای محاسبه حاصلضرب تانسور $E\\{(X-\mu) استفاده می کنم. (X-\mu)' \otimes (X-\mu)(X-\mu)'\\}$ (محصول تانسور `%o%` در R). من مطمئن نیستم که چگونه این عبارت را ارزیابی کنم، اما می دانم که نتیجه باید یک ماتریس $P^2 \times P^2$ باشد. آیا محاسبه ساده حاصل ضرب تانسور با استفاده از ماتریس کوواریانس واریانس به صورت $\Sigma \otimes \Sigma$ صحیح است؟
محاسبه کوواریانس متقاطع تانسور
74007
فرض کنید من ویژگی های معمولی استانداردی دارم $X_i \in \\{X_i : i \in \\{1,...,1000\\}\\}$. من این مجموعه پیش‌بینی‌کننده‌ها را با تبدیل‌های زیر گسترش می‌دهم: $\\{X_i,X_i^2,X_iI(X_i > 0): i \\{1,...,1000\\}\\}$. اگر Lasso $X_i^2$ یا $X_iI(X_i > 0)$ را انتخاب کند، اما نه خود $X_i$ را چه اتفاقی می‌افتد. چه کار کنم؟ آیا این حتی یک مشکل است؟
چه می شود اگر کمند اصطلاحات تبدیل شده را انتخاب کند اما اصطلاحات تبدیل نشده را انتخاب کند
28180
برخلاف بسیاری از موضوعات موجود در این سایت که تست‌های دیکسون و گراب را توصیه می‌کنند، نویسنده یک پاسخ، در این تاپیک، ادعا می‌کند که «واقعاً، اینها مدت‌ها پیش بی‌اعتبار شده‌اند» و از ۲ روش دیگر حمایت می‌کند. من خود را واجد شرایط نمی دانم که این استدلال ها را مرتب کنم، اما می خواهم بپرسم که آیا بین آماردانان در مورد شایستگی هر یک از این موضع ها اتفاق نظر وجود دارد؟
آزمایش‌های پرت تک متغیره: آیا روش‌های دیکسون و گراب بی اعتبار شده‌اند؟
73384
من در حال انجام یک مطالعه شبه تجربی هستم که در آن تغییرات در نگرش به برند را در طول زمان برای چهار برند، همه در درون موضوع مقایسه می‌کنم. بین زمان 1 و زمان 2، شرکت‌کنندگان اطلاعاتی را مشاهده می‌کنند و من می‌خواهم ببینم که چگونه بر رتبه‌بندی آن‌ها از هر برند تأثیر می‌گذارد. من می‌خواهم از ANCOVA برای کنترل نگرش‌های برند Time 1 استفاده کنم و سپس به دنبال تغییرات در نگرش‌ها در زمان 2 باشم. آیا باید فقط هر چهار نگرش برند Time 1 را در ANCOVA به عنوان متغیرهای کمکی قرار دهم؟ این عجیب به نظر می رسد زیرا من احساس می کنم آنها باید با نگرش های مربوط به زمان 2 خود مطابقت داشته باشند. DV نگرش برند است. یا باید از امتیازات تفاوت استفاده کنم؟ هر گونه کمکی قدردانی خواهد شد. با تشکر الکس.
چند متغیر کمکی در ANCOVA؟ یا تفاوت امتیازات؟
25727
من مدلی برای داده ها در آزمایش خود دارم که بیان می کند داده ها دارای توزیع Gumbel با مکان و مقیاس شناخته شده هستند. سپس به مشاهداتی با امتیازهای بسیار بالا که گمان می‌کنم پرت هستند نگاه می‌کنم. آیا یک رویکرد بیزی (یا غیر آن) برای به دست آوردن این احتمال وجود دارد که این مشاهدات از توزیع اصلی Gumbel است؟ در نتیجه، من می‌خواهم تصمیم بگیرم که آیا این مشاهدات را از توزیع اصلی Gumbel می‌پذیرم یا نه. ### ویرایش من در واقع با داده های بیولوژیکی کار می کنم و هم به صورت تجربی و هم از طریق مجموعه ای از مفروضات نشان داده ام که توزیع در واقع از نوع Gumbel با پارامترهایی است که می توان از خود داده ها و/یا از دیدگاه نظری تخمین زد. برخی از فرضیات اکنون، در حالی که بیشتر داده ها در راستای این توزیع رفتار می کنند، من می خواهم این احتمال را پیدا کنم که مشاهدات با مقادیر بسیار بزرگ ممکن است از همان توزیع گامبل نباشند، اما به دلیل پدیده دیگری است که در این توزیع که می خواهم توضیح داده نشده است. برای تشخیص در این مورد، به روز رسانی داده ها با استفاده از مشاهده جدید مفید نخواهد بود (به ویژه با توجه به اینکه این مشاهده ممکن است از متغیر تصادفی دیگری با توزیع متفاوت باشد). من می توانم احتمال یک طرفه بودن مشاهده را با استفاده از آن محاسبه کنم. $1-F(x)$$ از درک (بسیار محدود) من از آمار و احتمال، می ترسم که نقل این مقدار اشتباه باشد. نگرانی اصلی من این است که این احتمال مشاهده مشاهدات شدیدتر است و _نه_ احتمال اینکه این مشاهده از توزیع نباشد. نظری در این مورد دارید؟
چگونه می توان نقاط پرت را از یک توزیع Gumbel با پارامترهای شناخته شده شناسایی کرد؟
74003
در SVD به اصطلاح افزایشی که برای فیلتر کردن مشارکتی استفاده می شود: http://www.machinelearning.org/proceedings/icml2007/papers/407.pdf http://www2.research.att.com/~volinsky/papers/ieeecomputer. pdf http://www.quuxlabs.com/blog/2010/09/matrix-factorization-a-simple-tutorial- and-implementation-in-python/ کاربر x آیتم ماتریس R با استفاده از نزول گرادیان به عنوان QP فاکتور می شود. در SVD کلاسیک ماتریس مورب S وجود دارد که مقادیر منفرد را نگه می دارد. چه اتفاقی برای آن ماتریس در این فرمول می افتد؟ آیا صرفاً حذف شده است و هنوز آن را SVD می نامند یا به طور ضمنی بخشی از Q و / یا P است؟
SVD افزایشی در فیلتر مشارکتی
104497
ما می دانیم که اگر دو متغیر از نظر عملکردی مستقل باشند، استقلال تصادفی نیز وجود خواهد داشت. آیا کسی می تواند برای من مثالی بزند که عکس آن درست نیست، یعنی X و Y مستقل هستند (تصادفی) اما از نظر عملکرد مستقل نیستند. خیلی ممنون
رابطه بین استقلال تصادفی و استقلال عملکردی
104492
من می خواهم متاآنالیز را روی مطالعاتی انجام دهم که اندازه گیری نتیجه دوگانه دارند. من داده‌های خام را برای همه مطالعاتی که در متاآنالیز خود گنجانده‌ام دارم، بنابراین می‌توانم بهترین آمار را برای استفاده انتخاب کنم. با این حال، برای من مشخص نیست که چه آماری برای متاآنالیز مناسب‌تر است و نمی‌توانم مقاله‌ای پیدا کنم که این موضوع را مورد بحث قرار دهد. من از رگرسیون لجستیک باینری در SPSS استفاده کرده ام (اما در صورت لزوم می توانم از R استفاده کنم). در خلاصه مدل SPSS دو اندازه شبه R-square - Cox و Snell R مربع و Nagelkerke R مربع. اینها ممکن است بهترین آمار برای استفاده در یک متاآنالیز باشند. با این حال، من (در این انجمن و جاهای دیگر) خوانده‌ام که مقادیر شبه مربع R لزوماً مفیدترین خروجی‌های تولید شده توسط رگرسیون لجستیک نیستند. شاید بهتر باشد از فواصل اطمینان مقادیر بتا برای پیش بینی هایی که به آنها علاقه دارم استفاده کنم؟ یا شاید آمار دیگری؟ هر گونه کمکی بسیار قدردانی خواهد شد.
متاآنالیز رگرسیون لجستیک
27387
من سعی می کنم کدهایی را برای ارزیابی مبتنی بر فاصله فرآیند نقطه بنویسم مانند توابع $G$، $F$ و $K$. در اجرای $K$ موردی وجود دارد که **اثر لبه** را برای اندازه گیری $K$ بی طرفانه در نظر بگیریم. یک راه حل ساده (!) اما کامل (همچنین رایج) در نظر گرفتن سطح تقاطع دایره ای است که روی هر نقطه ترسیم شده است ($center(x,y)$) با شعاع مشخص ($r$) با ناحیه مورد مطالعه. اگرچه مفهوم ($K$) صرفاً آماری است، تلاقی یک دایره با ناحیه (در حالت ساده یک مستطیل اما معمولاً یک چند ضلعی) یک مسئله هندسی خالص است. ایده ای در مورد: * **چگونه ناحیه تقاطع یک دایره با چندضلعی شکل دلخواه را پیدا کنیم**؟ * **چگونه وزنه ها را با K$ به طور موثرتری پیدا کنیم**؟
جلوه های لبه در K-function
55803
چندی پیش در ارائه یک مطالعه مورد شاهدی شرکت کردم که ثبت نام برای آن هنوز در حال انجام بود. این مدرس، دانشجوی دکتری با تحصیلات آماری پایه، خاطرنشان کرد: در حالی که در گروه درمان، سن قبلاً به طور طبیعی توزیع شده بود، توزیع متناظر در گروه کنترل هنوز از حالت نرمال فاصله داشت و بنابراین آنها به طور فعال به دنبال افرادی با «حق» بودند. سن برای رسیدن به منحنی گاوسی خوب. من احساس قوی دارم که ادامه به این روش در بهترین حالت مشکل ساز است: نمونه گیری از این طریق نه تصادفی است و نه مستقل، و سن معمولاً نه در جمعیت عمومی (که احتمالاً گروه کنترل از آن انتخاب شده است) و نه در بیماران مبتلا به آن بیماری توزیع می شود. (که البته بروز آن به سن بستگی دارد). از سوی دیگر، شاید به هیچ وجه مشکل ساز نباشد، زیرا می توان آن را به عنوان تطبیق موارد با کنترل ها دید. من از پیامدهای آنالیزهای مختلف مطمئن نیستم، به ویژه: آیا می توان انتظار داشت که استنباط در مورد اثر درمان تحت تأثیر قرار گیرد (سن پیش بینی کننده قوی دوره بیماری است)؟
پیامدهای نمونه گیری برای دستیابی به توزیع معین در یک متغیر چیست؟
74002
در زیر کل فروش سه ماهه را در سمت چپ (متغیر وابسته) و نمونه ای از فروش در سمت راست دارم. این دو متغیر 98.7 درصد همبستگی دارند. برای پیش بینی X از چه مدلی استفاده کنم؟ برای اون مدل باید ثابت بزارم؟ تنظیمات فصلی؟ موارد پرت حذف شود؟ مهمترین معیار، به حداقل رساندن خطای پیش‌بینی نمونه است. Q3'10 40.19 0.2386 Q4'10 39.36 0.2000 Q1'11 51.25 0.2173 Q2'11 54.99 0.2630 Q3'11 50.38 0.2242 Q4'11 Q4'11 0.2242 Q4'11 67.39 0.3548 Q2'12 77.14 0.3716 Q3'12 72.54 0.3451 Q4'12 80.21 0.3816 Q1'13 94.57 0.4661 Q2'13 Q2'13 102.494 102.13
برای این سری زمانی کوتاه باید از چه مدلی استفاده کرد؟
73385
با توجه به توزیع شرطی $p(x|y)$ و قبل از متغیرهای پنهان $p(y|\theta)$ با فراپارامتر ناشناخته $\theta$. اکنون ما i.i.d را مشاهده کرده ایم. نمونه های x$. علاوه بر رویکرد بیز و بیز تجربی، آیا می‌توان متغیرهای پنهان $y$ و فراپارامتر $\theta$ را مستقیماً با به حداکثر رساندن احتمال ناقص $p(x,y|\theta)$ تخمین زد؟ از دیدگاه بیزی، معادل یافتن حالت مشترک $p(y,\theta|x)$ است که یک تخت غیر اطلاعاتی قبل از $\theta$ داده شده است.
به حداکثر رساندن احتمال ناقص
27389
در اثبات قضیه 6.5 از کتاب دورویه و همکاران، آخرین نابرابری چگونه به دست می آید؟ $$ \begin{تراز شده} \mathbb{E}\left\\{|\eta(X)-1/2|\mathbf{I}_{\\{g(X)\ne g^*(X) \\}}\راست\\} &\leq \mathbb{E}\left\\{\mathbf{I}_{\\{\eta(X)\ne1/2\\}}|\eta(X)-\tilde\eta(X)|\mathbf {I}_{\\{g(X)\ne g^*(X)\\}}\right\\}\\\ &= \mathbb{E}\left\\{|\eta(X)-\tilde\eta(X)|\mathbf{I}_{\\{g(X)\ne g^*(X)\\}}\mathbf{I}_{\\{|\eta(X)-1/2|\leq\epsilon\\}}\mathbf{I}_{\\{\ eta(X)\ne1/2\\}}\right\\}\\\ &\+ \mathbb{E}\left\\{|\eta(X)-\tilde\eta(X)|\mathbf{I}_{\\{g(X)\ne g^*(X)\\} }\mathbf{I}_{\\{|\eta(X)-1/2|>\epsilon\\}}\right\\}\\\ &\leq \sqrt{\mathbb{E}\left\\{(\tilde\eta(X) - \eta(X))^2\right\\}}\\\ &\times \Bigg(\sqrt{\mathbb {P}\left\\{|\eta(X)-1/2|\leq\epsilon,\eta(X)\ne1/2\right\\}}\\\ &+\sqrt{\mathbb{P}\left\\{g(X)\ne g^*(X),|\eta(X)-1/2|>\epsilon\right\\}}\Bigg ) \end{aligned} $$ توجه داشته باشید که $\eta(x) = \mathbb{E}\\{Y|X=x\\}$ تابع رگرسیون است، $\tilde\eta(x)$ یک تقریب از $\eta(x)$، $g^*(x)$ طبقه‌بندی کننده بیز $$ g^*(x) = \begin{cases} 0 & \text{if } \eta(x)\leq\ است dfrac{1}{2} \\\ 1 & \text{وگرنه} \end{cases}$$ و در نهایت $g(x)$ مانند $g^*(x)$ با $\tilde\eta(x)$ جایگزین $\eta(x)$ شد. $\epsilon>0$ ثابت است. $\mathbf{I}_A$ تابع نشانگر مجموعه $A$ است.
نمونه ای از نابرابری کوشی-شوارتز
113344
من 5 مجموعه داده دارم که می‌خواهم یک توزیع مدل را در آنها قرار دهم. من می خواهم از توزیع یکسان برای هر مجموعه داده استفاده کنم اما با پارامترهای متفاوت. بنابراین من از MLE برای محاسبه بهترین پارامترها برای یک دسته کامل از توزیع‌ها استفاده می‌کنم و پارامتری را انتخاب می‌کنم که بهترین با تمام 5 مجموعه داده مطابقت دارد. اینجا جایی است که من کمی گیر کردم. در اولین تلاشم، برای هر یک از مجموعه داده ها و هر توزیع مدل، هنجار L_2$ خطا را بین مجموعه داده اصلی و مقدار پیش بینی شده از مدل محاسبه کردم. این بردار خطای 5 مقداری را به من داد که بزرگی آن را گرفتم و بهترین را متناسب با مقدار کم‌ترین مقدار نامیدم. با انجام این کار، توزیعی را دریافت می کنم که (از نظر من) بهترین تناسب به نظر می رسد (من همه آنها را فقط برای مقایسه ترسیم کردم). این هیجان انگیز است، اما نمی دانم به اندازه کافی سختگیرانه است یا نه. سپس تصمیم گرفتم روش دیگری را امتحان کنم و Kolmogorov-Smirnov را با مجموعه داده اصلی خود و توزیع مدل از MLE انجام دادم. من مقادیر $D$ را در بردار خطای خود ذخیره کردم و بزرگی آن بردار را با حداقل مقدار بهترین اندازه گرفتم. و توزیعی مشابه با رویکرد $L_2$ داد! من هیجان زده بودم تا اینکه متوجه شدم که آزمون KS نباید برای آزمایش توزیع مدل در برابر داده هایی که از آن تولید شده است استفاده شود. بنابراین سپس مطالعه بیشتری انجام دادم و برای هر یک از 5 مجموعه داده اصلی مورد استفاده در MLE، یک مجموعه داده جدید با استفاده از نمونه‌گیری مجدد بوستراپ با جایگزینی ایجاد کردم. من از این مجموعه داده‌های نمونه‌برداری مجدد برای مقایسه با توزیع‌های مدل استفاده کردم و مقادیر $D$ را در بردار خطای خود ذخیره کردم و مجدداً بزرگی را گرفتم، با بهترین تناسب کمترین مقدار. این بار توزیع متفاوتی را به بهترین شکل ارائه داد. یکی که خیلی خوب به نظر می رسد (از نظر چشم) اما تقریباً به خوبی اصلی به نظر نمی رسد (باز هم از نظر چشم). تجربه من در این نوع کار بسیار محدود است اما اکنون نمی دانم به چه چیزی اعتماد کنم. هر دو توزیع در واقع تناسب خوبی دارند. یکی که توسط هنجار $L_2$ انتخاب شده است، به نظر من بهترین است، اما به سختی سختگیرانه است. این نگران‌کننده است که آزمون KS با داده‌های اصلی انتخاب شده است، زیرا تست تحت آن شرایط ناقص است. ممکن است که روش $L_2$ و آزمون KS با نمونه‌گیری مجدد هر دو صحیح باشند و اساساً مانند دریافت پاسخ‌های مختلف بر اساس انتخاب هنجار باشد (در این مورد، هنجار L_2$ و احتمالاً L_\infty $ هنجار دلار). آیا کاری که من انجام دادم ناقص است یا راهی برای تعیین اینکه کدام رویکرد را بهتر از دیگری انتخاب کنم وجود دارد؟
نحوه توجیه تناسب توزیع خوب است
99980
چگونه تابع چگالی احتمال توزیع Wishart را به تابع توزیع Wishart معکوس تبدیل کنم؟ من می خواهم کل روند را بدانم.
چگونه می توانم Wishart را به صورت تحلیلی به Wishart معکوس تبدیل کنم؟
113348
من یک رگرسیون اثرات ثابت را در Stata اجرا می کنم. اگر به درستی متوجه شده باشم، متغیری که در طول زمان ثابت شده باشد از رگرسیون حذف می شود. بنابراین، نباید بر نتایج رگرسیون تأثیر بگذارد. با این حال، این مورد نیست. من یک رگرسیون اثرات ثابت با یک متغیر ثابت زمان اجرا کردم. Stata این متغیر را از رگرسیون حذف کرد. وقتی به صورت دستی آن را حذف کردم و دوباره رگرسیون را اجرا کردم، نتیجه پیش‌بینی‌شده از متغیر دیگری در 5% قابل توجه بود، اما علامت تغییر کرد! آیا توضیح قابل قبولی برای این موضوع وجود دارد؟
یک رگرسیون اثرات ثابت در Stata که با گنجاندن یک متغیر ثابت زمانی تغییر می کند
99989
من مفاهیم خطای عدم تناسب و خطای محض را درک نمی کنم. چیزی که من می دانم این است: $\bullet$ _خطای عدم تناسب:_ خطایی که زمانی رخ می دهد که تحلیل یک یا چند عبارت یا عامل مهم را از مدل فرآیند حذف کند. $\bullet$ _خطای خالص:_ I برای مقادیر مکرر متغیر وابسته، Y برای مقدار ثابت متغیر مستقل، X رخ می دهد. لطفا این دو عبارت را برای من توضیح دهید؟ اگر مشاهدات مکرر وجود نداشته باشد، آیا خطای محض رخ می دهد؟ اگر نه، آیا ممکن است خطای عدم تناسب رخ دهد؟ آیا لازم است آنها به طور همزمان رخ دهند؟ آیا فقدان خطای تناسب نمی تواند تنها به باقیمانده کمک کند؟ یعنی $$\text{Residual Error=Lack of fit error + Pure Error}$$ If Pure Error=0، پس نمی تواند $$\text{Residual Error=Lack of fit error}$$ باشد زیرا ما تست را انجام دهید $$F=\frac{\text{میانگین مربع به دلیل عدم تناسب}}{\text{میانگین مربع به دلیل خطای خالص}}$$ خوب است مقدار بزرگتر خطای خالص. آیا به این معنی نیست که مشاهدات ما بسیار ناهمگن هستند. آیا داشتن واحدهای همگن خوب نیست؟
عدم تناسب و خطای محض
27388
می ترسم در آمار متخصص نباشم، اما مشکل خاصی دارم که علاقه مند به حل آن هستم. من تقریباً مطمئن هستم که این منطقه از قبل دارای ادبیات زیادی است، اما در یافتن چیزی که مستقیماً با کاری که انجام می‌دهم قابل استفاده باشد، مشکل دارم، بنابراین اگر کسی بتواند مرا در مسیر درست هدایت کند، عالی خواهد بود. برای توضیح این مشکل مثالی می زنم: بگویید من ماشینی دارم که سکه های مغرضانه تولید می کند. تابع چگالی احتمال پیوسته زیرینی دارد که از آن برای انتخاب عدد 0 < p < 1 استفاده می کند، سپس یک سکه ایجاد می کند که با احتمال p بالا می آید. وظیفه من تخمین عملکردی است که ماشین برای تولید این سکه ها استفاده می کند. من اجازه دارم سکه ها را برگردانم، و به تعداد بسیار زیادی سکه دسترسی دارم، اما هر کدام پس از یک مقدار مشخص، تصادفی، از من سلب می شود. تعداد تلنگرها لزوما زیاد نیست. چگونه می توانم این کار را انجام دهم؟ فکر اولیه من این بود که فقط هر توزیع دوجمله ای حاصل را جمع کرده و بر تعداد کل سکه های آزمایش شده تقسیم کنم. اما من تقریباً مطمئن هستم که این نتیجه خوبی نمی دهد. من به طور ضعیفی از تخمین چگالی هسته آگاهم، اما تخصص کافی برای دانستن اینکه آیا می توان از آن برای این نوع کارها استفاده کرد یا نه، یا چه چیزی را باید بدانم از نظر تطبیق آن با این کار، ندارم.
تخمین پی دی اف زیربنایی از آزمایشات دوجمله ای
22497
من روش های آماری مونت کارلو را توسط رابرت و کاسلا می خوانم و مسئله 1.3 می پرسد > در مثال 1.1، توزیع متغیر تصادفی $Z=\min(X,Y)$ > مورد علاقه بود. توزیع $Z$ را در حالت زیر استخراج کنید > _سانسور اطلاعاتی،_ که در آن $Y\sim N(\theta,\sigma^2)$ و $X\sim > N(\theta,\theta^2\sigma ^2) دلار. به مسائل شناسایی توجه کنید. اکنون تقریباً مطمئناً چیزی را از دست می دهم، اما درک من این است که سانسور اطلاعاتی زمانی اتفاق می افتد که $X$ و $Y$ مستقل نباشند. با این حال، تنها دانستن مستقل نبودن آنها اطلاعات کافی برای دریافت توزیع مشترک نیست، اما اگر مستقل باشند، من هیچ مشکلی در شناسایی نمی بینم. _افزوده شده:_ اگر $X$ و $Y$ مستقل باشند، نوشتن توزیع $Z$ ساده اما خسته کننده است، این خستگی با این واقعیت تشدید می شود که توزیع $X$ یک تابع دلتا است وقتی $\theta$ 0 دلار است. با این حال، برای یک توزیع معین، می‌توانیم $\theta$ را به عنوان چهارمین سوم توزیع (بدیهی منحصربه‌فرد) پیدا کنیم، و با توجه به $\theta$، $\sigma^2$ فقط یک پارامتر مقیاس‌بندی است، بنابراین هیچ مشکلی در شناسایی وجود ندارد. که می توانم ببینم بنابراین، به طور خلاصه، سؤالات من این است: * تعریف سانسور اطلاعاتی دقیقاً چیست و چرا سانسور در این تمرین آموزنده است؟ * اگر قرار است ما X$ و $Y$ را مستقل در نظر بگیریم، چه مسائلی در مورد قابلیت شناسایی باید مورد توجه قرار گیرد؟ _اضافه_تر_ با توضیح Ocram در مورد _سانسور اطلاعاتی_ اکنون مشخص شده است که مسائل قابل شناسایی که باید به آن توجه شود این بود که هیچ موردی وجود نداشت. اگر پارامترهای توزیع‌های شکست و سانسور مجزا بودند، مشکلات شناسایی وجود داشت زیرا می‌توانیم دو توزیع را تعویض کنیم و نتیجه یکسانی به دست آوریم. اگر فردی آگاه تر از من احساس می کند که به خصوص کیشوت است، لطفاً صفحه ویکی پدیا سانسور را روشن کنید.
مشکل با سانسور اطلاعاتی
99986
آنتروپی به صورت $H$ = -$\int p(x)$ $log$ $p(x)$ $dx$ تعریف می‌شود. توزیع کوشی به صورت $f(x)$ = $\frac{\gamma}{ تعریف می‌شود. \pi}$ $\frac{1}{\gamma^2 + x^2} $ لطفاً مراحل محاسبه آنتروپی توزیع کوشی را نشان دهم که $log$($\gamma$) + $log$($4$$\tau$)
آنتروپی توزیع کوشی (لورنتس).
114044
اجازه دهید $a \sim\mathcal{N}(6.532056,0.06532056)$,$b \sim\mathcal{N}(8.390961,0.08390961)$ و $c \sim\mathcal{N}(8.736566،0.066)$. ما از نماد $\mathcal{N}(\mu,\sigma^2)$ استفاده می‌کنیم مگر اینکه خلاف آن مشخص شده باشد. ما دو متغیر عادی $x = a-b$ و $y = a-c$ می سازیم. بنابراین، $x \sim\mathcal{N}(-1.858905,0.14923017)$ و $y \sim\mathcal{N}(-2.20451,0.15268622)$ همبستگی بین $x$ و $y$ یعنی $\textrm{cor }(x,y)= \frac{\textrm{var}(a)}{\sigma_x \times \sigma_y}$ با استفاده از خصوصیات اساسی کوواریانس. حل، $\textrm{cor}(x,y)=0.4327346392418512 \تقریباً 0.433$ که می‌توان آن را در ماتریس نوشت (بگذارید $ mat $ نامیده شود) برای \begin{bmatrix} 1.0 و 0.433 \\\\[0.3 em] 0.433 & 1.0 \\\\[0.3em] \end{bmatrix} اکنون می‌خواهم $\Pr[-\infty<x<0 \textrm{ و } -\infty<y<0]$ را پیدا کنم. من از روش pmvnorm بسته mvtnorm با فراخوانی pr<-pmvnorm(mean=c(-1.858905,-2.20451)، corr=mat، low=rep(-Inf، 2)، upper=rep(0,2) استفاده کردم. )) نتیجه 0.9575448 شد. به همین ترتیب وقتی می‌خواهم در «Mathematica/Java» (پیاده‌سازی الگوریتم Genz موجود در اینترنت) محاسبه کنم، نتیجه 0.9999992445813132 است. من کد Mathematica را در زیر آورده ام. لطفاً در اینجا توجه داشته باشید، استدلال دوم در این مورد، انحراف معیار است. px = NormalDistribution[-1.858905000000001، 0.38630320992712447] py = NormalDistribution[-2.20451، 0.3907508413298685] pxy[pxy =Productability[b] 0 && -Infinity < y < 0, {x, y} \[Distributed] pxy] اشتباهی که انجام می دهم چیست؟ برای دامنه برنامه من (تجسم) این تفاوت بسیار پرهزینه است، به خصوص به این دلیل که من آن را روی بیش از 700000 نقطه داده اجرا می کنم.
تفاوت در خروجی با mvtnorm و Mathematica/Java
73387
![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/VIoz3.jpg) من هم خودم نتیجه را ثابت کردم، اما اثبات من بسیار طولانی تر بود. با این حال، ظاهراً فقط در این دو خط قابل انجام است. با این حال، من واقعاً قدم اول را در اینجا نمی‌بینم. لطفاً کسی می تواند به من توضیح دهد که چرا اولین برابری برقرار است؟
$Cov(\hat{\epsilon})$ در مدل رگرسیون خطی
73389
من وظیفه داشتم مجموعه ای از داده ها را با حدود 6000 رکورد که هر کدام 60 یا بیشتر کیفیت مرتبط با آنها دارند (اجازه دهید X1، X2، ... باشند) بررسی کنم و تعیین کنم که 8 عامل اصلی که تعیین می کنند یک رکورد چیست. یک نام مشخص خواهد داشت (سه عدد وجود دارد، فرض کنید، A، B، و C). اکثر این X ها فقط دو مقدار ممکن دارند، بنابراین به راحتی می توان با آنها مقابله کرد. با این حال یک X وجود دارد که دارای 6 مقدار و یک X با 8 مقدار است که من تشخیص داده‌ام که نسبتاً مهم هستند. در حال حاضر، من فقط علاقه مند به یافتن عواملی در میان داده هایی هستم که منجر به یک رکورد به عنوان رویداد A می شود. احتمالات همه ضریب A را محاسبه کنید و سپس از قضیه بیز برای محاسبه احتمال رخداد A با توجه به X استفاده کنید. مطمئن نیستم چگونه باید به تحلیل خود ادامه دهم. من همچنین به بررسی تقاطع‌های رویدادها پرداختم، اما احساس می‌کنم که این زمان بزرگی است که بینش کمی به دست می‌دهد، زیرا این امر مستلزم شمارش تمام تقاطع‌ها است و وقتی می‌خواهید به 5+ فاکتور نگاه کنید، میزان شمارش شما باید باشد. انجام دادن مضحک است (به عنوان مثال، اگر می خواهید به 5 عامل نگاه کنید، باید 2^5 رویداد مختلف را پیدا کنید، زیرا ممکن است رویدادها در یک راستا قرار گیرند. این باعث ایجاد مشکلاتی می شود، به ویژه زمانی که من من به عواملی نگاه می کنم که 6 یا 8 احتمال مختلف دارند). من چند کلاس جاوا ساده نوشتم تا در یک فایل متنی جدا شده از برگه ها بخوانم و تمام شمارش ها و محاسبات را برای رویدادهای فردی و برخی از تقاطع ها برای من انجام دهم و همچنین یک صفحه گسترده اکسل دارم که ابتدا آن را تنظیم کردم، اما به نظر می رسید که برای انجام محاسبات نسبتاً کند باشید. علاوه بر افزودن کد خاص (یا فرمول های خاص در اکسل) برای انتخاب هر رویداد جداگانه، مطمئن نیستم که چگونه می توانم این احتمالات را به طور موثر محاسبه کنم. و مطمئن نیستم که آیا محاسبه این احتمالات مشروط تقاطع ها به من کمک می کند تا به این سوال کلی پاسخ دهم که 8 عامل اصلی که به رویداد A کمک می کنند کدامند.
یافتن مرتبط ترین عواملی که منجر به یک رویداد می شود
32702
> **تکراری احتمالی:** > اگر تعامل اثرات مستقیم من را در رگرسیون از بین ببرد چه؟ من به دلیل داشتن اثرات متقابل در مدل تحقیقم، تحلیل رگرسیون سلسله مراتبی را روی داده هایم انجام دادم. همه متغیرها پیوسته هستند. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/5BQB5.jpg) R2 از 0.695 در model1 (فقط جلوه اصلی) به 0.734 در model2 (اثرات و تعامل اصلی) افزایش یافته است (sig. F تغییر = 0.000). تمام مفروضات برای تحلیل رگرسیون برآورده شده است. با این حال، من دو مشکل با جدول ضرایب دارم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/AtYtX.jpg) 1. همانطور که در جدول مشاهده می کنید، بتای ناچیز مقدار **ZSC** در model1 در model2 معنی دار شد! خوبه؟ من گیج شدم! کدام مقدار را برای رد/پذیرش فرضیه مربوطه باید در نظر بگیرم؟ B مدل 1 (که فرضیه را رد می کند) یا 2 (که آن را تایید می کند!!)؟ 2. اگرچه مقدار بتا برای **ZSC_X_CS** قابل توجه است، اما علامت مثبت آن خلاف فرضیه است! طبق ادبیات و همچنین منطق، قرار است علامت منفی داشته باشد! چگونه باید با این فرضیه برخورد کنم؟ قبول؟ رد کردن؟ تا حدی قبول؟!!!
چگونه یک اثر اصلی ناچیز را که با حضور اثرات متقابل در تحلیل رگرسیون تعدیل شده معنادار شد، تفسیر کنیم؟
55805
من باید چند آزمایش ریشه واحد را برای یک پروژه انجام دهم، فقط در مورد نحوه تفسیر داده ها مطمئن نیستم (این چیزی است که از من خواسته شده است). این یکی از نتایج من است: تست dfuller تقاضای Dickey-Fuller برای ریشه واحد تعداد obs = 50 ----------- Interpolated Dickey-Fuller ---------- تست 1% بحرانی 5% بحرانی 10% ارزش آماری بحرانی ارزش ارزش ------------------------------------------------ ----------------- Z(t) -1.987 -3.580 -2.930 -2.600 ------------------------------------------------ ----------------- p-value تقریبی MacKinnon برای Z(t) = 0.2924 در مورد مقادیر بحرانی و نتایج p-value چه می گویم؟
نتایج حاصل از آزمایشات ریشه واحد را چگونه تفسیر می کنید؟
73386
من تعداد سلول های مربوط به عملکرد میکروارگانیسم های مختلف را دارم و می خواهم توزیع آنها را با هم مقایسه کنم. فرض بر این است که آنها پس از تبدیل log از یک توزیع نرمال پیروی می کنند، اما من نمی توانم تمام داده ها را به دلیل محدودیت ابزار اندازه گیری ثبت کنم، بنابراین منحنی نرمال بسیار مشابهی به دست می آوریم، اما در نقطه ای که نمی توانم ثبت نام کنم، قطع می شود. داده ها، و اگر آزمون K-S را اجرا کنم، از فرضیه نرمال بودن پشتیبانی نمی کند (اما n بزرگ است). سوالات من: به نظر من این می تواند یک مشکل معمولی باشد، بنابراین چگونه می توانید در این موارد عادی بودن را نشان دهید؟ یا غیر ممکن است؟ فکر می کنم تست کروسکال-والیس می تواند در مورد من کارساز باشد، اما نمی دانم که آیا باید چیز دیگری را در نظر بگیرم یا خیر. کسی به من پیشنهاد داده است که از ANOVA استفاده کنم به دلیل اینکه n من بسیار زیاد است (n>2000) در هر میکروارگانیسم، با وجود عدم نرمال بودن، آیا این درست است؟ بعد از خواندن نظرات فکر می کنم سانسور درستی دارم. من دیده ام که در تجزیه و تحلیل بقا از تخمینگر Kaplan-Maier استفاده شده است، اما این مورد متفاوت است. آیا بهتر است فقط داده های سانسور شده را حذف کنید و یک تست غیر پارامتری اجرا کنید؟
مقایسه تعداد سلول ها با سانسور درست
27384
من در حال تجزیه و تحلیل نتایج یک آزمایش با استفاده از ANOVA ترکیبی (ثابت و اثرات تصادفی) با اثرات تو در تو هستم و فقط به کسی نیاز دارم تا تأیید کند که من مدل مناسب را دارم. جلوه های طراحی عبارتند از: * محصول - ثابت، 5 سطح - این اثر اصلی مورد علاقه است * دسته ای - تصادفی، 3 سطح - تو در تو در داخل محصول * روز - تصادفی، 6 سطح - این یک عامل مسدود کننده در طراحی در هر روز، چندین نمونه از هر محصول / دسته به ترتیب تصادفی آزمایش می شود. بنابراین ما یک آزمایش کامل و متعادل در هر روز داریم. این مدل ANOVA است که فکر می‌کنم به آن نیاز دارم: روز + محصول + دسته (محصول) + روز x دسته (محصول) آیا من درست فکر می‌کنم که عبارت خطای مناسب برای محصول مربع میانگین دسته‌ای در محصول است؟ من از مجموع مربع های نوع III استفاده کرده ام. من واقعاً علاقه مند به آزمایش تفاوت بین محصولات هستم، بنابراین مدل در فاکتورهای تصادفی عمدتاً فقط برای اطمینان از بدست آوردن باقیمانده صحیح برای این مقایسه مهم است. با این حال، آزمایشات برای اثرات ناشی از Day و Batch-in-Product در درجه دوم اهمیت قرار دارند.
فرموله کردن یک مدل ترکیبی با اثرات ثابت و تصادفی تو در تو
104491
یک توزیع دارای تابع مشخصه $\phi(t)$ = $(1-t^2/2)exp(-t^2/4), -\infty < t < \infty$ نشان می دهد که توزیع کاملاً $ است. $ پیوسته و تابع چگالی توزیع را بنویسید. تلاش: $\int_{-\infty}^{\infty}|(1-t^2/2)exp(-t^2/4)|dt $ = $(-2/t)(1-t^ 2/2)exp(-t^2/4)-2exp(-t^2/4)|_{-\infty}^{0}$ نتیجه مشابه برای $[0,\infty]$ زیرا t است مربع من کاملاً مطمئن نیستم که ادغام را درست انجام داده باشم، اما اگر بتوانم نشان دهم که مقدار مطلق $\phi(t)$ کمتر از $\infty$ است، آنگاه تابع کاملاً پیوسته است.
نمایش تابع مشخصه کاملاً پیوسته است
26381
من سعی می کنم برخی از داده های سری زمانی را مدل کنم، و در مورد خط تاخیر ضربه خورده و پنجره کشویی برای تبدیل داده های ورودی مطالعه کرده ام. طبق درک من، یک پنجره کشویی با اندازه پنجره 1 ورودی ها را در هر مرحله زمانی یک بار جابجا می کند و آنها را به یک شبکه عصبی پیشخور تغذیه باز می گرداند. هدف| ورودی 2| 1 0 3| 2 1 4| 3 2 5| 4 3 6| 5 4 7| 6 5 در درک من، یک خط تاخیر ضربه خورده با تاخیر 2 دو ورودی و خروجی اخیر را می گیرد و آنها را به یک شبکه عصبی بازگشتی باز می گرداند y(t) = f(x(t-1),y(t-1) ) آیا تفاوتی وجود دارد؟ چرا اسم های مختلف وجود دارد؟ لطفا اگر اشتباه می کنم اصلاح کنید.
تفاوت بین خط تاخیر ضربه خورده و پنجره کشویی در شبکه عصبی چیست؟
29520
> **تکراری احتمالی:** > اگر تعامل اثرات مستقیم من را در رگرسیون از بین ببرد چه؟ من فقط تعجب می کنم که چرا افزودن یک اصطلاح تعاملی به مدل رگرسیون، اثر اصلی را از معنی دار به ناچیز تغییر می دهد؟ من یک رگرسیون پواسون را با استفاده از یک پایگاه داده اجرا می کنم (بیش از 40000 نفر). همه 3 توضیح می دهند. متغیرها قبل از افزودن برهمکنش بین زمان و گروه سنی معنی دار بودند. پس از افزودن ضریب نفوذ، زمان ناچیز شد (از 0001/0p< به 6/0 تغییر یافت) گروه های سنی معنی دار باقی ماندند. اصطلاح تعامل فقط بین زمان و یکی از گروه های سنی معنی دار است. ضمنا زمان وسط و مربع رو تست کردم معنی دار نبود. پیشنهادی دارید؟
عبارت تعامل، اهمیت متغیر اثر اصلی را تغییر می دهد
26380
من به دنبال توضیح هستم: آیا قبل از انجام تجزیه و تحلیل مؤلفه اصلی (PCA) باید تجزیه و تحلیل همبستگی را اجرا کنیم یا این به طور ضمنی تحت چارچوب PCA قرار می گیرد؟ من در راه نوشتن یک طرح تحقیقاتی هستم: * پیش بینی کننده هایی را با رابطه خطی بالا با فرآیند جدا کنید. * PCA را اجرا کنید تا پیش بینی کننده های همبسته را به متغیرهای مؤلفه اصلی غیر همبسته تبدیل کنید. من نمی دانم که آیا تجزیه و تحلیل همبستگی باید به طور جداگانه روی مجموعه داده انجام شود تا پیش بینی کننده های بسیار همبسته قبل از اعمال PCA انتخاب شوند.
آیا PCA یا همبستگی ها باید ابتدا در زمینه پیش بینی های همبسته در رگرسیون بررسی شوند؟
32007
من می خواهم فرضیه بیولوژیکی خود را با رویکرد آماری تأیید کنم. خط قرمز روی تصویر نشان دهنده فرکانس متوسط ​​برخی از پدیده های بیولوژیکی برای کل کروموزوم است. کروموزوم از میلیون ها پایه تشکیل شده است که می توان آنها را به عنوان موقعیت درک کرد. به طوری که در مجموع میلیون ها موقعیت داریم. سپس من با استفاده از قانون خاصی، 100 موقعیت را انتخاب می کنم. برای این 100 موقعیت فرکانس همان پدیده بیولوژیکی را تعیین می کنم (به طوری که من 100 نقطه ایزوله دارم، به ازای هر x y وجود دارد و همانطور که در تصویر مشاهده می شود با خطوط به هم متصل می شوند). از آنجا که تصویر فقط این موقعیت ها را نشان می دهد، خط قرمز نشان دهنده میانگین تصویر نیست (این نشان دهنده میانگین کل کروموزوم است). من می خواهم نشان دهم که فرکانس در موقعیت های خاص من به طور قابل توجهی بالاتر از حد متوسط ​​است (به طوری که فرآیند بیولوژیکی که مشاهده می کنم واقعاً وجود دارد). داده های من از پایگاه داده است، بنابراین خروجی من همان چیزی است که با استفاده از این پایگاه داده محاسبه کردم - هیچ اندازه گیری یا داده دیگری از این نوع وجود ندارد. محور y تعداد را نشان می دهد نه نسبت ها. نقاط مجاور در نمودار همسایه‌های کروموزوم هستند، بنابراین می‌توان انتظار داشت که دو همسایه روی کروموزوم‌ها فرآیند بیولوژیکی مشابه/مشابهی را تجربه کنند. من یک دانشمند کامپیوتر هستم (با یک دوره آمار، بنابراین ایده ای دارم) - نحوه انجام دقیق آن قدردانی خواهد شد. با این حال، توصیه در مورد روش استفاده ممکن است به اندازه کافی منصفانه باشد :-) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/8vtfF.jpg)
از کدام روش آماری برای اثبات تفاوت معنادار برای عکس خود استفاده کنم؟
55800
من سعی می‌کنم درباره چیزی که آن را «پایداری تخمینی» می‌نامم، استدلال کنم، و امیدوارم بتوانید به من بگویید که آیا زبان فنی مرتبطی وجود دارد یا نه، تا بتوانم در مورد آن یاد بگیرم و سپس یک آموزش در مورد این موضوع برای کمتر اشتباه بنویسم. منظور من از تخمین ثبات چیست؟ این سه گزاره مختلف را در نظر بگیرید: 1. ما 50% مطمئن هستیم که یک سکه (که منصفانه شناخته می شود) روی سر فرود می آید. 2. ما 50% مطمئن هستیم که مت در مهمانی حاضر خواهد شد. 3. ما 50 درصد مطمئن هستیم که هوش مصنوعی قوی تا سال 2080 اختراع خواهد شد. این تخمین ها متفاوت هستند. یکی از دلایلی که آنها احساس متفاوتی دارند این است که برآوردها درجات مختلفی از ثبات دارند. در مورد (1) ما انتظار نداریم اطلاعاتی به دست آوریم که تخمین احتمال ما را تغییر دهد. اما برای موارد (2) و (3)، ممکن است به اطلاعاتی برسیم که باعث می‌شود تخمین را به بالا یا پایین تنظیم کنیم. بنابراین تخمین (1) پایدارتر است، اما من مطمئن نیستم که چگونه باید این مقدار را تعیین کرد. آیا باید در مورد اجرای شبیه‌سازی مونت کارلو از شواهد آینده و نگاه کردن به چیزی مانند واریانس توزیع تخمین‌های حاصل از آن فکر کنم؟ چه اتفاقی می‌افتد وقتی که یک توزیع احتمال کامل برای مثال باشد. زمانی که هوش مصنوعی قوی اختراع شد؟ (آیا ثبات چگالی احتمال را برای هر سال محاسبه می‌کنید، سپس نتیجه را میانگین می‌دهید؟) در اینجا برخی ملاحظات دیگر وجود دارد که برای ارتباط رسمی‌تر با ملاحظات ثبات تخمین مفید است: * اگر متغیری را تخمین بزنیم، یک توزیع احتمال محدود (قبل از شواهد آتی که در تلاشیم ثبات را ارزیابی کنیم) با داشتن داده های زیادی مطابقت دارد. داده های جدید، در آن صورت، سهم کمتری از نظر تغییر میانگین و کاهش واریانس خواهند داشت. * تفاوت هایی در عدم قطعیت مدل بین این سه مورد وجود دارد. من می دانم هنگام پیش بینی ورق سکه از چه مدلی استفاده کنم. روش من برای پیش بینی اینکه آیا مت در یک مهمانی ظاهر می شود یا نه، متزلزل تر است، اما من تا حدودی از کاری که انجام می دهم می دانم. در مورد Strong AI، من واقعاً ایده خوبی از کاری که انجام می دهم ندارم. احتمالاً عدم قطعیت مدل به ثبات تخمین مربوط می شود، زیرا هر چه عدم قطعیت مدل بیشتر باشد، می توانیم با کاهش عدم قطعیت مدل، تخمین خود را تغییر دهیم. * تفاوت دیگر بین این سه مورد، درجه ای است که اقدامات ما به ما امکان می دهد برآوردهای خود را بهبود بخشیم و ثبات آنها را افزایش دهیم. به عنوان مثال، می‌توانیم با تماس با مت، عدم قطعیت را کاهش دهیم و ثبات تخمین خود را در مورد مت افزایش دهیم، اما واقعاً هیچ راه خوبی برای به دست آوردن تخمین‌های بهتر از جدول‌های زمانی قوی هوش مصنوعی نداریم (غیر از انتظار). * ارزش اطلاعات بر نحوه برخورد ما با تأخیر تأثیر می گذارد. به نظر می رسد برآوردهایی که در مواجهه با شواهدی که انتظار داریم در آینده به دست آوریم، ناپایدار هستند، دلالت بر VoI بالاتری داشته باشند. این دلیلی برای پذیرش تاخیر در اعمال ما ایجاد می کند. یا اگر بتوانیم به راحتی اطلاعاتی را جمع آوری کنیم که تخمین های ما را دقیق تر و پایدارتر می کند، به این معنی است که دلیل بیشتری برای پرداخت هزینه جمع آوری آن اطلاعات داریم. اگر انتظار داشته باشیم اطلاعات را فراموش کنیم، یا انتظار داشته باشیم که خود آینده ما اطلاعات را در نظر نگیرد، ناسازگاری پویا مهم می شود. این دلیل دیگری است که چرا تخمین ها ممکن است ناپایدار باشند. یک استراتژی ممکن در اینجا این است که پیشاپیش متعهد شویم که برآوردهایمان به میانگین بازگردد. با تشکر برای هر فکری!
چه زبان فنی برای توصیف درجه ای که احتمالات احتمالاً توسط داده های آینده اصلاح می شوند؟
99984
من از boot.ci برای محاسبه تخمین‌های بازه‌ای BCa از میانه‌ها استفاده می‌کردم، اما زمانی که داده‌ها مقادیر بسیار یکسانی داشتند با مشکلاتی مواجه شدم - که می‌تواند به راحتی برای داده‌های ترتیبی، اما همچنین داده‌های بازه‌ای گسسته یا با دقت پایین اتفاق بیفتد. اگر من اغتشاشات عددی بسیار کوچک تصادفی را به داده ها اضافه کنم تا همه مقادیر متفاوت باشند، BCa دوباره کار می کند و فواصلی مطابق با روش صدک به من می دهد. من دو سوال دارم: 1) آیا این راه حل قانونی است؟ 2) آیا نمی توان کد BCa را برای رسیدگی به این موارد مرزی تغییر داد؟ اگرچه روش صدک برای این مجموعه داده‌ها کار می‌کند، من ترجیح می‌دهم بسته به پیام‌های خطایی که دریافت می‌کنم مجبور نباشم روش‌ها را تغییر دهم، و همچنین بسیار بهتر است که یک روش را در یک مقاله گزارش کنم. به نظر می رسد BCa بهترین روش برای محاسبه فواصل اطمینان بوت استرپ باشد و اعتقاد بر این است که در بیشتر موارد کار می کند: Kirby KN، Gerlanc D. BootES: یک بسته R برای فواصل اطمینان بوت استرپ در اندازه افکت. روش‌های Behav Res, 2013. در اینجا کد R وجود دارد که این مشکل را نشان می‌دهد: # بارگذاری کتابخانه بوت بسته (بوت) # کد تعیین‌کننده را بسازید set.seed(0) # میانه را به‌عنوان آمار مورد علاقه نمونه مدیان تعریف کنید <- تابع(x, د) {return(median(x[d]))} # استفاده از بسیاری از تکرارهای تکراری <- 10000 # A داده‌های داده مشکل‌ساز 1 <- c(1، 2، 2، 2، 2، 2، 2، 2، 3، 3، 4، 4، 5) خطا: # خطا در bca.ci(boot.out، conf، index[1L]، L = L، t = t.o، t0 = t0.o، : # تنظیم تخمینی 'w' بی نهایت است b <- boot(data1, samplemedian, R = replicates) boot.ci(b, type = bca) # یک اغتشاش ناچیز به اپسیلون داده اضافه کنید <- 1e-10 data1 <- data1 + runif(length(data1)، -epsilon، epsilon) # boot.ci اکنون (2، 3) را به عنوان بازه اطمینان BCa b <- boot(data1، samplemedian، R = replicates) boot.ci(b، type = bca) # یکی دیگر از داده های مجموعه داده مشکل ساز2 <- c(1, 1, 2, 2, 2, 2, 2 , 2, 2, 3, 3, 4, 4, 5) # تخمین نقطه 2 samplemedian(data2) # boot.ci برمی گرداند (1، 1) و اخطارهای زیر را صادر می کند: # اخطار: فواصل BCa استفاده می شود چندک های شدید # برخی از فواصل BCa ممکن است ناپایدار باشند # پیام هشدار: # در norm.inter(t, adj.alpha): آمار مرتبه شدید به عنوان نقطه پایانی استفاده می شود. <- boot(data2, samplemedian, R = replicates) boot.ci(b, type = bca) # افزودن یک ناچیز اختلال در اپسیلون داده <- 1e-10 data2 <- data2 + runif(length(data2)، -epsilon، epsilon) # boot.ci اکنون (2، 3) به عنوان فاصله اطمینان BCa b <- boot(data2، samplemedian, R = replicates) boot.ci(b, type = bca) پیشاپیش از کمک شما متشکریم! پیر
چرا boot.ci BCa روی داده های گسسته خراب می شود؟
220
اگر $X_1، ...، X_n$ متغیرهای تصادفی مستقل با توزیع یکسان باشند، در مورد توزیع $\min(X_1، ...، X_n)$ به طور کلی چه می توان گفت؟
حداقل مجموعه ای از متغیرهای تصادفی چگونه توزیع می شود؟
26387
فرض کنید من یک مدل لاجیت تو در تو دارم. من می توانم احتمال انتخاب خاصی را برای هر تصمیم گیرنده تخمین بزنم. اکنون، می‌خواهم یک یا چند گزینه را حذف کنم (اگرچه هر لانه حداقل یک گزینه را نگه می‌دارد). چگونه می توانم احتمالات انتخاب جدید را تخمین بزنم/شبیه سازی کنم؟ به عنوان یک مثال ساده، من ممکن است یک مدل لاجیت (غیر تودرتو در این مورد، اما شما این ایده را دریافت کنید) در مورد انتخاب میوه تخمین بزنم. فردی را در نظر بگیرید که در واقع یک موز را به جای یک سیب و یک پرتقال انتخاب کرده است. من می توانم احتمال انتخاب هر نوع میوه را تخمین بزنم. فرض کنید که یک موز دیگر یک انتخاب نیست. حالا چه شانسی دارد که سیب را انتخاب کند؟ و پرتقال؟ با تشکر
تخمین تغییرات احتمالات انتخاب با حذف انتخاب در لوجیت تودرتو
55807
دفاع از مشکل راهزن چند مسلح از ویکی‌پدا: در نظریه احتمال، مسئله راهزن چند مسلح (که گاهی مشکل راهزن K-[1] یا N-armed نامیده می‌شود) مشکلی است که یک قمارباز در ردیفی از ماشین‌های بازی با آن مواجه است، که گاهی اوقات شناخته شده است. به عنوان راهزنان یک دست، زمانی که تصمیم می گیرید با کدام دستگاه ها بازی کنید، هر دستگاه را چند بار و به چه ترتیبی بازی کنید یک پاداش تصادفی از یک توزیع خاص برای آن ماشین فراهم می کند. به عبارت دیگر مشکلات راهزن چند مسلح (MAB) یک کلاس از مسائل تخصیص منابع متوالی است که مربوط به تخصیص یک یا چند منبع در میان چندین جایگزین است. پروژه های (رقابتی) / تسلیحات. چنین مشکلاتی بین تصمیم‌گیری (تخصیص منابع) که پاداش‌های جاری بالایی را به همراه دارد، در مقابل تصمیم‌گیری‌هایی که دستاوردهای فعلی را با چشم‌انداز پاداش‌های بهتر در آینده قربانی می‌کنند، تضاد دارند. آیا اجرای جاوا برای این الگوریتم ها وجود دارد؟
الگوریتم های راهزن چند مسلح در جاوا؟
99983
من داده هایی دارم که نشان دهنده برخی از جنبه های رفتار انسان است. من می‌خواهم آن را (بدون نظارت) در نمایه‌های رفتاری دسته‌بندی کنم. در حال حاضر، برخی از متغیرهای من مقوله ای هستند (با 2 یا چند دسته)، و برخی پیوسته هستند (بیشتر درصد هستند). تعداد کمی از متغیرها از این نظر پیچیده تر هستند که یک دسته دارای پیوستگی بیشتری است و دیگری چنین داده اضافی ندارد. سوال من این است که چگونه می توان این داده ها را دسته بندی کرد. رویکردهای (متداول؟) برای مقابله با آن چیست؟ من به کد یا هیچ چیز دیگری نیازی ندارم، بلکه به برخی از مراجع یا دستورالعمل‌هایی نیاز دارم که به من کمک می‌کنند تا بفهمم چگونه با این چالش کنار بیایم. اگر توابع «R» را می شناسید که چنین تحلیلی را تسهیل می کند، عالی است، اما ضروری نیست. با تشکر
خوشه‌بندی داده‌هایی که دارای ترکیبی از متغیرهای پیوسته و طبقه‌ای هستند
51604
اگر موضوعی که در X رتبه بالاتری دارد در > Y نیز رتبه بالاتری داشته باشد، اگر موضوعی که در X رتبه بالاتری دارد در > Y رتبه پایین تری داشته باشد، جفت ناسازگار است. اگر آزمودنی ها در X طبقه بندی یکسانی داشته باشند جفت مساوی است. /یا > Y. بگویید من یک جدول دارم (به عنوان مثال، $n_{11}$ اولین خانه است: $i=1$، $j=1$) \begin{array}{rrrr} 1 &3 &10 &6 \\\ 2 &3 &10 &7 \\\ 1 &6 &14 &12 \\\ 0 &1 &9 &11 \end{array} آیا می‌توانید به من کمک کنید تا نحوه انتخاب همخوان و جفت ناسازگار؟ درک من برای همخوانی این است: ابتدا $n_{11}$ را انتخاب می‌کنیم، سپس $n_{22}$ 3$ است که بزرگ‌تر از $1$ است ($Y$ بالاتر و $X$ بالاتر). بنابراین ما $1(3+10+7+6+14+12+1+9+11)$ داریم، درست است؟ سپس $n_{13}$ چطور؟ برای $n_{13}$، 7$ ($n_{24}$) داریم که کمتر از $n_{13}$ ($Y$ پایین‌تر) است. پس ما این جفت را حساب نمی کنیم درست است؟ من در مورد ناسازگار گیج شده ام، چگونه می توانید جفت های ناسازگار را انتخاب کنید؟
روندهای ترتیبی و یافتن جفت های همخوان و ناسازگار
38091
> **تکراری احتمالی:** > اگر تعامل اثرات مستقیم من را در رگرسیون از بین ببرد چه؟ من سه فرضیه در آزمایش خود دارم و تفسیر تعامل در رابطه با بقیه نتایج چیزی است که با آن مشکل دارم. 1. اولین مورد این است که IV در مدل (با دو سطح) به یک DV مربوط می شود اما به دیگری مربوط نمی شود (زمان 1، اما نه زمان 2). اندازه گیری های مکرر GLM نشان داد که IV با DVs _both_ مرتبط است. 2. فرضیه دوم این بود که یک متغیر کمکی به یک DV مربوط می شود و نه با دیگری. با استفاده از اندازه گیری مکرر GLM این فرضیه تایید شد. 3. یک تعامل بین IV، DV و متغیر کمکی را پیش بینی کرد. (یک اندازه گیری مکرر GLM با IV (ضریب ثابت)، DVs (داخل فاکتور)، متغیر کمکی). چیزی که من پیدا کردم هیچ اثر متغیر کمکی، هیچ اثر متقابل نبود، اما اثر اصلی من برای IV و DV ها از بین رفت (075/0=p) (فرضیه اول). حالا می دانم که p=0.05 همه چیز نیست، بنابراین دو سوال دارم. چگونه می توانم این واقعیت را تفسیر کنم که تأثیر اصلی من برای فرضیه یک ناپدید شد اگر: 1. شما 0.05=p را نقطه برش سیاه و سفید در نظر نمی گیرید؟ 2. شما _do_ p=0.05 را نقطه برش سیاه و سفید در نظر می گیرید؟ آیا نحوه تفسیر من از نتایج فرضیه یک یا معنای آنها را تغییر می دهد؟ آیا آن را زائد می کند؟
تعامل اثرات اصلی را در اقدامات مکرر GLM سرکوب می کند؟
5450
در یک رگرسیون، اصطلاح تعامل هر دو اثر مستقیم مرتبط را از بین می برد. آیا تعامل را کنار بگذارم یا نتیجه را گزارش کنم؟ این تعامل بخشی از فرضیه اصلی نبود.
اگر تعامل اثرات مستقیم من را در رگرسیون از بین ببرد چه؟
104493
f = fopen('train-images-idx3-ubyte','r'); [a,count] = fread(f,4,'int32'); g = fopen('train-labels-idx1-ubyte','r'); [l,count] = fread(g,2,'int32'); fprintf(1، 'شروع به تبدیل تصاویر آموزشی MNIST (چاپ 60 نقطه)\n'); n = 1000; Df = سلول (1،10); برای d=0:9، Df{d+1} = fopen(['digit' num2str(d) '.ascii'],'w'); پایان؛ برای i=1:60، fprintf('.'); تصاویر خام = fread(f,28*28*n,'uchar'); rawlabels = fread(g,n,'uchar'); rawimages = reshape(rawimages,28*28,n); برای j=1:n, fprintf(Df{rawlabels(j)+1},'%3d',rawimages(:,j)); fprintf(Df{rawlabels(j)+1},'\n'); پایان؛ پایان؛ fprintf(1,'\n'); برای d=0:9، fclose(Df{d+1}); D = load(['digit' num2str(d) '.ascii'],'-ascii'); fprintf('%5d ارقام کلاس %d\n',size(D,1),d); save(['digit' num2str(d) '.mat'],'D','-mat'); پایان؛ کسی میتونه این کد رو توضیح بده
آشنایی با کد متلب برای تبدیل تصاویر ورودی خام به فرمت متلب
99981
من رگرسیون هسته دو متغیره را با استفاده از تابع sm.regression انجام می دهم: http://cran.r-project.org/web/packages/sm/sm.pdf گزینه ای برای مقایسه تخمین ناپارامتریک با مدل خطی وجود دارد. در صورت درخواست، مقدار p را برمی‌گرداند که تخمین ناپارامتری با خطی متفاوت نیست (فرضیه صفر). کسی میدونه برای محاسبه p-value از چه تستی استفاده میشه؟ هیچ جا پیداش نمیکنم پاسخ ممکن است در: Bowman, A.W. (2006). مقایسه سطوح ناپارامتریک مدلسازی آماری، 6، 279-299. متشکرم!
آزمون R در sm.regression برای مقایسه مدل مرجع با رگرسیون هسته چیست؟