_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
50094 | در آزمایش خود، آزمودنی ها را به یکی از 3 درمان A، B یا C اختصاص دادم. در هر درمان، یک آزمودنی واحد با دو مدل به صورت متوالی مورد آزمایش قرار گرفت. توالی آزمون تصادفی شد. پاسخ آزمودنی ها به عنوان واکنش (1) یا بدون واکنش (0) طبقه بندی شد. در مجموع، تنظیمات دادههای من این بود: * **موضوع**: شناسه آزمودنیها. * **درمان**: A، B، یا C -- بین متغیر موضوع. * **مدل**: M یا F -- در متغیر موضوع. * **توالی**: دنباله آزمون، کدام مدل ابتدا مورد آزمایش قرار گرفت -- بین متغیر موضوعی. * **پاسخ**: 0 یا 1 -- متغیر وابسته باینری. من علاقه مندم ببینم که آیا آزمودنی ها در پاسخ خود بین انواع مدل، در بین درمان ها، و آیا تعاملی بین درمان و مدل وجود دارد یا خیر. در اینجا یک مدل GLMM است که من به طور آزمایشی ساختهام: full.glmm <- lmer(Response~Treatment * Model + Sequence + (1|Treatment/Subject), family=binomial, data=rsp10) من در مورد بیانیه اثر تصادفی مطمئن نیستم. , قسمت `(1|درمان/موضوع)`. آیا هر متغیری باید قبل از | باشد و آیا ساختار تودرتوی من به درستی تعریف شده است (موضوع در داخل درمان قرار دارد)؟ اگر نه، ساختار صحیح چیست؟ | نحوه ساخت مدل GLMM برای اندازه گیری های مکرر با پاسخ های دودویی با lmer |
79719 | فرض کنید دادهها به ترتیب $y_i=f(x_i)+\varepsilon_i$، $\varepsilon_i$ iid هستند و انتظار صفر با واریانس $\sigma^2$ دارند. رگرسیون چند جمله ای محلی $$ است {\min_{\alpha(x_0)،\beta_j(x_0)،j=1،\cdots,d}}{\sum\limits_{i=1}^{N}}{K_\lambda}({x _0},x_i)\left[y_i-\alpha({x_0})-{\sum\limits_{j=1}^{d}}\beta_j({x_0})x_i^j\right]^2 $$ راه حل این است \begin{eqnarray*} \hat{f}(x)&=&\hat{\alpha}(x_0)+\sum\limits_{j=1}^{d}\beta_j(x_0) x_0^j \\\ &=& b(x_0)^T(B^TW(x_0)B)^{-1}B^TW(x_0)y \\\ &=& \sum_{i=1}^{N}l_i(x_0)y_i \end{eqnarray*} که $b(x)^T=(1 \, x \, x^2 \, \cdots \, x^d )^T$, $B$ یک ماتریس $N \times (d+1)$ با $i$th ردیف $b(x_i)^T$ و $W(x_0)$ یک $N است \times N$ ماتریس مورب با $i$th عنصر قطری ${K_\lambda}({x_0},x_i)$. ${K_\lambda}({x_0},x_i)$ یک تابع هسته است. دیدن $Var[\hat{f}(x_0)]=\sigma^2\|l(x_0)\|^2$ آسان است، سوال من این است که چگونه می توان $\|l(x_0)\|$ را افزایش داد با $d$. | نحوه نشان دادن واریانس رگرسیون چند جمله ای محلی با درجه افزایش می یابد |
58697 | من رگرسیون را با استفاده از جنگل های تصادفی برای پیش بینی قیمت ها بر اساس چندین ویژگی انجام می دهم. کد در پایتون با استفاده از Scikit-learn نوشته شده است. چگونه تصمیم می گیرید که آیا باید متغیرهای خود را با استفاده از «exp»/«log» قبل از استفاده از آن برای مطابقت با مدل رگرسیون تبدیل کنید؟ آیا هنگام استفاده از رویکرد Ensemble مانند Random Forest ضروری است؟ | چه زمانی متغیرهای خود را هنگام انجام رگرسیون خطی Log/Exp کنید؟ |
29580 | مقدمه: من یک مجموعه داده با یک مسئله p بزرگ، n کوچک کلاسیک دارم. تعداد نمونه های موجود **n** =150 در حالی که تعداد پیش بینی کننده های ممکن **p** =400. نتیجه یک متغیر پیوسته است. من میخواهم «مهمترین» توصیفکنندهها را پیدا کنم، یعنی آنهایی که بهترین نامزدها برای توضیح نتیجه و کمک به ساختن یک نظریه هستند. پس از تحقیق در مورد این موضوع، متوجه شدم که LASSO و Elastic Net معمولاً برای موارد p بزرگ، n کوچک استفاده می شوند. برخی از پیشبینیکنندههای من بسیار همبسته هستند و من میخواهم گروهبندیهای آنها را در ارزیابی اهمیت حفظ کنم، بنابراین، **Elastic Net** را انتخاب کردم. من تصور می کنم که می توانم از مقادیر مطلق ضرایب رگرسیون به عنوان معیار اهمیت استفاده کنم (لطفاً اگر اشتباه می کنم، من را اصلاح کنید؛ مجموعه داده من استاندارد شده است). **مشکل:** از آنجایی که تعداد نمونه های من کم است، چگونه می توانم به یک مدل پایدار برسم؟ رویکرد فعلی من یافتن بهترین پارامترهای تنظیم (لامبدا و آلفا) در جستجوی شبکهای در 90 درصد مجموعه داده با اعتبارسنجی متقاطع 10 برابری با میانگین امتیاز MSE است. سپس مدل را با بهترین پارامترهای تنظیم در کل 90٪ مجموعه داده آموزش می دهم. من می توانم مدل خود را با استفاده از مجذور R بر روی 10 درصد از مجموعه داده (که تنها 15 نمونه را شامل می شود) ارزیابی کنم. با اجرای مکرر این روش، واریانس زیادی در ارزیابیهای مربع R یافتم. همچنین، تعداد پیشبینیکنندههای غیر صفر و همچنین ضرایب آنها متفاوت است. **چگونه می توانم ارزیابی پایدارتری از اهمیت پیش بینی کننده ها و ارزیابی پایدارتر از عملکرد مدل نهایی داشته باشم؟** آیا می توانم به طور مکرر روش خود را برای ایجاد تعدادی مدل و سپس ضرایب رگرسیون متوسط اجرا کنم؟ یا باید از تعداد وقوع یک پیش بینی کننده در مدل ها به عنوان امتیاز اهمیت آن استفاده کنم؟ در حال حاضر، من حدود 40-50 پیش بینی غیر صفر دریافت می کنم. آیا برای ثبات بهتر باید تعداد پیش بینی کننده ها را سخت تر جریمه کنم؟ هر کمکی بسیار قدردانی خواهد شد! | ثبات مدل هنگام برخورد با مشکل بزرگ $p$، $n$ کوچک |
58693 | در http://www.academia.edu/1067827/Defence_of_Empirical_Evidence، پل کاکشات استدلال می کند که خطای نوع باید در نظر گرفته شود. بنابراین نوع میانگین بهای تمام شده واحد نفت دلار/بشکه و نوع میانگین بهای تمام شده واحد مداد دلار/مداد است. او استدلال می کند که این دو اساساً غیرقابل مقایسه هستند، بنابراین برای مطالعات همبستگی نامناسب هستند. سوال من این است که آیا این درست است؟ | در نظر گرفتن خطاهای نوع/واحد مربوط به آمار و مطالعات همبستگی؟ |
58523 | من می توانم ضرایب همبستگی تتراکوریک و پلی کوریک را با نرم افزار محاسبه کنم، اما نمی دانم فورمول ضریب تتراکوریک یا پلی کوریک چیست. | ضریب همبستگی تتراکوریک چقدر است؟ |
94491 | من در حال آموزش یک طبقه بندی کننده برای یک مشکل طبقه بندی نظارت شده هستم. برخی از ویژگی های من تعامل دارند، چگونه باید این شرایط تعامل را عادی کنم؟ برای مثال، اگر x1 و x2 با هم تعامل داشته باشند، عبارت تعامل x1*x2 است. آیا باید مقادیر x1*x2 قبل از نرمال شدن x1 و x2 محاسبه شود و سپس نرمال شود. یا باید x1*x2 از مقادیر نرمال شده x1 و x2 محاسبه شود؟ | چگونه شرایط تعامل را عادی کنیم؟ |
24527 | من در حال حاضر پروژه ای را انجام می دهم که شامل تشخیص چاله ها و شبکه های عصبی است. تا کنون، من یک گوشی اندرویدی دارم که قرائتهای شتابسنج را میخواند و محور X، Y، Z و همچنین دامنه و زمان فعلی را در یک فایل CSV مینویسد. سپس داده ها با استفاده از نرمال سازی min-max نرمال می شوند و از خوانش های محور Y از فایل CSV استفاده می کنند. مشکلی که من برای شبکه عصبی برای یادگیری یک چاله با آن مواجه هستم این است که چه داده هایی را باید به شبکه عصبی Back Propagation تغذیه کنم؟ آیا باید یک آستانه تعیین کنم و وقتی محور Y به این نقطه رسید، 5 نقطه قبلی و 5 نقطه بعد را بگیرم و سپس با 11 ورودی شبکه را تغذیه کنم؟ من نمی خواهم شبکه را بیش از حد آموزش دهم و هر بار آن را با داده ها در موقعیت های مختلف تغذیه کنم. آموزش - من همچنین شروع به جمعآوری دادههای جمعآوریشده و ایجاد یک مجموعه داده آموزشی میکنم - آیا باید مواردی مانند خواندن برای جادههای معمولی/دستانداز/دستاندازهای سرعت و همچنین چالهها را قرار دهم؟ حجم یک مجموعه آموزشی چقدر باید باشد؟ یا اینکه داده های بیشتر بهتر است واقعا درست است؟ این همان چیزی است که داده های گودال به نظر می رسد.  داده های speedbump اینگونه به نظر می رسد.  نمونه ای از داده های جمع آوری شده: X-Axis Y-Axis Z- Axis Timestamp -0.371827, 8.513097, 5.441484, 165401 -0.601749، 7.976613، 5.326523، 165601 -0.333506، 8.053253، 5.441484، 165801 -0.256866، 8.206536، 8.206536، 8406، 840. 0.049697، 8.398136، 5.364844، 166202 -0.371827، 8.436457، 5.211563، 166400 -0.256866، 8.551417، 8.551417، 726. -0.256866، 8.513097، 5.403164، 166801 -0.333506، 8.474776، 5.709726، 167000 -0.563428، 8.628059، 8.628057، 72676. -0.563428، 7.401808، 4.713398، 167402 -1.981280، 5.447472، 4.406836، 167602 POTHOLE -0.180225، 5.605075 چاله -0.984952، 8.053253، 4.445156، 168001 -1.214874، 8.666378، 5.671406، 168201 -0.525108، 7.23210207 - 0.525108، 7.23210207 -1.138233، 7.286847، 5.824687، 168600 -0.601749، 10.045910، 5.288203، 168801 -0.180225، 8.2061137، 8.2061734، 250 0.279619، 7.861651، 5.518125، 169200 0.202978، 8.934620، 5.824687، 169401 -0.065264، 8.32131495، 8.32131494، 8.32131494، 84684. -0.065264، 8.628057، 5.709726، 169800 -0.716710، 8.014933، 5.748047، 170001 -0.141905، 8.513094، 8.513094، 8.5130914، 85. -0.026944، 8.206534، 5.594766، 170401 -0.601749، 8.168214، 5.058281، 170601 الگوریتم الگوریتم پیشنهادی من این است که یک آستانه معینی را در هنگام ضربه زدن به آستانه معینی از یک آستانه معینی روی خط محوری 2. مانند <7 سپس 5 نقطه قبلی و 5 امتیاز پس از آن را به NN منتقل کنید. | مشاوره ورودی داده های شبکه عصبی انتشار برگشتی |
91461 | بعدازظهر بخیر، میخواهم در مورد گنجاندن یک عامل تودرتو به عنوان یک اثر تصادفی در یک GLMM راهنمایی بپرسم. من تاپیک های دیگر این انجمن را خوانده ام اما هنوز نمی توانم به سوالم پاسخ دهم. هر کمکی بسیار قدردانی می شود! من کودکان را روی 12 تکلیف حل مسئله/استفاده از ابزار آزمایش کردم که می توان آنها را با توجه به فراوانی رفتار استفاده از ابزار مربوطه مشاهده شده در میمون های بزرگ وحشی (کم، زیاد) به 2 گروه تقسیم کرد. هر کودک یک مجموعه تصادفی متشکل از 4 بازی، 2 کار کم و 2 کار با فرکانس بالا دریافت کرد. اینها متغیرها هستند: متغیر وابسته: موفقیت (بله، خیر) اثرات ثابت: سن (بر حسب ماه) جنس (مرد، زن) فراوانی (کم، زیاد) اثرات تصادفی: مهارت استفاده از ابزار موضوعی (رده بندی توسط کارکنان مهد کودک، 1 = زیر میانگین، 2=متوسط، 3=بالاتر از میانگین) موقعیت وظیفه (1-4) وظیفه (1-12) سوال اصلی تحقیق من این است که آیا متغیر فرکانس قادر به پیش بینی است موفقیت Task در فرکانس تودرتو است، زیرا وظیفه 1-6 = کم و 7-12 = زیاد است. تا آنجا که من از موضوعات دیگر فهمیدم، نحوه مدل سازی واقعیت تودرتو نیز به نحوه کدگذاری فاکتور تودرتو (??) بستگی دارد. میخواستم بدانم که آیا باید عبارت (1|فرکانس/وظیفه) را وارد کنم تا مشخص کنم که وظیفه در فرکانس تودرتو است و آیا این عبارت درست است یا اینکه فقط شامل (1|وظیفه) باشد، زیرا وظیفه عدد قبلاً سطح فرکانس را نشان می دهد. در حالت ایدهآل، من دوست داشتم وظیفه یا فرکانس/وظیفه را به عنوان یک اثر ثابت اضافه کنم، اما تعداد پارامترها در آن زمان خیلی زیاد میشود. داشتم با (1|فرکانس/وظیفه) بازی می کردم و متوجه شدم که نمی توانم خروجی را هم تفسیر کنم. R یک ردیف با frequency:task و frequency به من می دهد. اشتباه به نظر می رسد، زیرا من نمی خواهم فرکانس را به عنوان یک عامل تصادفی داشته باشم... برای هر کمکی بسیار سپاسگزار خواهم بود. پیشاپیش از شما بسیار سپاسگزارم. اوا | شامل یک عامل تو در تو به عنوان اثر تصادفی در یک GLMM |
34373 | اگر یک نویز در طول زمان $t\in[a,b]$ ایجاد شود، و همبستگیهای مقدار نویز در زمانهای $t_0$ و $t_1$ بر اساس تابع چگالی توزیع میشوند که فقط بستگی دارد. در فاصله $|t_0-t_1|$ بین آنها، پس توزیع نویز چگونه است؟ چگونه همبستگی ها توزیع جهانی را تعیین می کنند؟ آیا برای مثال، لزوماً باید معادل برخی از نسخه های مدل Ising باشد؟ خیلی ممنون | همبستگی نویز بسته به فاصله |
73654 | این یک spinoff از نحوه محاسبه فاصله اطمینان میانگین میانگین است؟ و مربوط به هنگام استنباط در مورد میانگین های گروهی، آیا فواصل معتبر به واریانس درون موضوعی حساس هستند در حالی که فواصل اطمینان حساس نیستند؟ مجموعه داده 1 در اینجا از لینک اول بالا گرفته شده است. مجموعه داده 2 تقریباً همان میانگین تجربی را دارد اما در واریانس آزمایش متفاوت است. اولین سوال من این است: 1) چگونه یک فاصله اطمینان را برای میانگین کلی برای هر یک از این مجموعه داده ها محاسبه کنم؟ اگر من پاسخ @Stéphane Laurent را در دو سوال مرتبط بفهمم، باید یکسان باشند. اگر این درست باشد، این به شدت مخالف تمام شهود علمی من است و همچنین به نظر می رسد یک پارادوکس باشد. 2) چگونه ممکن است که فاصله اطمینان ظاهراً هم به خطای آزمایش حساس باشد و هم به آن حساس نباشد؟  مجموعه داده 1: ارزش آزمایشی 1 34 1 41 1 39 2 45 2 51 2 52 3 29 3 31 3 35 ساختار(لیست (آزمایش = ساختار (c(1L, 1L, 1L, 2L, 2L, 2L، 3L، 3L، 3L)، .Label = c(1، 2، 3)، class = factor)، مقدار = c(34، 41، 39، 45، 51، 52، 29، 31، 35))، .Names = c(Experiment، Value)، row.names = c(NA، -9L)، class = data.frame) مجموعه داده 2: مقدار آزمایش 1 38.20744 1 37.99410 1 37.96299 2 49.27085 2 49.40519 2 49.24894 3 31.811237334.3738. ساختار(لیست(آزمایش = ساختار(c(1L, 1L, 1L, 2L, 2L, 2L, 3L, 3L, 3L), .Label = c(1, 2, 3), class = فاکتور)، مقدار = c(38.2074373061779، 37.9941025108851، 37.9629896019425، 49.2708491636015، 49.4051867974062، 49.2489418702291، 31.8125943239769، 31.797، 31.797 31.7383364604132 ))، .Names = c(Experiment، Value)، row.names = c(NA, -9L)، class = data.frame) | پارادوکس احتمالی: محاسبه فاصله اطمینان با خطای درون آزمایشی |
50091 | به عبارت دیگر، آیا ممکن است هر یک از تکنیک های مختلف رگرسیون جریمه شده (مانند رگرسیون پشته، کمند، و شبکه الاستیک) به دلیل مقادیر اولیه بد انتخاب شده برای پارامترهای مدل، به طور کامل راه حل بهینه را برای یک مدل رگرسیونی از دست بدهد؟ | آیا تکنیکهای رگرسیون جریمهشده الگوریتمهایی حریص هستند؟ |
58690 | آیا کسی می تواند به من در مورد کد R برای پیاده سازی الگوریتم EM کمک کند. اگر مقدار شروع متفاوتی را انتخاب کنم، مقدار متفاوتی دریافت کردم. واضح است که این خوب نیست و مقدار $\mu$, $\sigma$ پس از چند بار تکرار به NA می رود. این کد من است da1=read.table(anythin.Rdata, header=TRUE) y=as.vector(da1[,2]) n=length(y) mu=matrix(NA,1000,2) sigma= ماتریس(NA,1000,2) w=ماتریس(NA,1000,2) mu[1,]=c(2,4) سیگما[1,]=c(0.5،0.1) w[1،]=c(0.5،0.5) xi1=0 xi2=0 برای (i در 2:1000){ # E گام xi1=w[i-1,1]*dnorm(y,mean=mu[i-1,1],sd=sigma[i-1,1])/(w[i-1,1]*dnorm( y، میانگین = mu[i-1,1],sd=sigma[i-1,1])+w[i-1,2]*dnorm(y,mean=mu[i-1,2],sd=sigma[i -1،2])) xi2=w[i-1,2]*dnorm(y,mean=mu[i-1,2],sd=sigma[i-1,2])/(w[i-1,1]*dnorm( y، میانگین = mu[i-1,1],sd=sigma[i-1,1])+w[i-1,2]*dnorm(y,mean=mu[i-1,2],sd=sigma[i -1،2])) # M گام w[i,1]=sum(xi1) w[i,2]=sum(xi2) mu[i,1]=sum(xi1*y)/sum(xi1) mu[i,2]= sum(xi2*y)/sum(xi2) sigma[i,1]=sum(xi1*(mu[i,1]-y)^2)/sum(xi1) sigma[i,2]=sum(xi2*(mu[i,2]-y)^2)/sum(xi2)} | الگوریتم EM برای ترکیب گاوسی |
58692 | یک سوال وجود دارد اگر تعامل اثرات مستقیم من در رگرسیون را از بین ببرد چه می شود؟ پاسخ داده شد که اثرات اصلی واقعی در مدل بدون تعامل است. من شرایط برعکس دارم. اثرات اصلی در مرحله 1 معنی دار نیستند. یک اثر اصلی در مرحله 2 پس از اضافه کردن تعامل معنی دار است، اما تعامل معنی دار نیست. آیا می توانم به درستی فرض کنم که این یک اثر اصلی واقعی نیست؟ DV: گناه مرحله 1: اعتقاد اخلاقی (MC) + صحبت کردن (SO) مرحله 2: MC + SO + MCxSO | اگر فقط زمانی که تعامل گنجانده شده باشد، یک اثر اصلی واقعی است؟ |
50067 | من مقاله ای را در مورد روش تجزیه و تحلیل داده های GWAS multi-SNP می خوانم، نویسنده یک مدل خطی $y = \beta_g g + \epsilon$ برازش داده است، که در آن $g$ یک بردار ژنوتیپ برای یک ژن واحد است، $\beta_g$ ضریب رگرسیون واقعی است، $\epsilon$ خطا است، با فرض اینکه خط رگرسیون از مبدا عبور کند. اجازه دهید $\hat{y}$، $b_g$، $s^2(g)$ و $s^2(y)$ تخمینی از $y$، $\beta_g$، $\sigma^2(g باشد. )$ و $\sigma^2(y)$ به ترتیب، از آنجایی که وقفه $b_{g0} = \overline{y} - b_g \overline{x} = 0$، ما $\overline{y} = داریم b_g \overline{x}$، نتیجه میشود که \begin{align*} SSR &= \sum (\hat{y} - \overline{y})^2 \\\ &= \sum (b_g g_i - \overline {y})^2 \\\ &= \sum(b_g g_i - b_g \overline{g})^2 \\\ &= b_g^2 \sum (g_i - \overline{g})^2 \\\ &= b_g^2 s^2(g)(n-1) \end{align*} \begin{align} r^2 &= \frac{SSR}{SSR + SSE} \notag\\\ &= \frac{b_g^2 s^2(g)(n-1)}{b_g^2 s^2(g)(n-1) + s^2(y)(n-1)} \notag\\\ &= \frac{b_g^2 s^2(g)}{b_g^2 s^2(g) + s^2(y)} \end{تراز کردن}. معادله فوق کاملاً شبیه آنچه نویسنده در اولین معادله خود ارائه می دهد است، اما اساساً متفاوت هستند مگر اینکه نویسنده در مورد مقادیر واقعی و تخمینی اشتباه گرفته شده باشد. معادله دوم در مورد $\hat{r^2}_{locus}$ کاملاً از درک من دور است، هر کمکی قدردانی خواهد شد. ## **مقاله اصلی را میتوانید در اینجا پیدا کنید** | تقریب واریانس توضیح داده شده |
66187 | من از SPSS برای انجام رگرسیون کاکس استفاده می کنم. پس از یافتن همه متغیرهای کمکی معنی دار، جدولی به نام ماتریس همبستگی ضرایب رگرسیون وجود دارد. سوال من این است که چه نوع اطلاعاتی را می توانم از این جدول تفسیر کنم؟ اگر همبستگی بالایی بین ضرایب رگرسیون دو متغیر کمکی ببینم، برای مثال بین ضرایب رگرسیون PCPT و LTCPT در جدول زیر 0.99 است. آیا به این معنی است که باید بیشتر مراقب نتایج باشم؟ من شباهت بین همه متغیرها را بررسی کرده ام. با توجه به ماتریس شباهت، هیچ همبستگی بالایی بین PCPT و LTCPT وجود ندارد. ماتریس همبستگی ضرایب رگرسیون: ACT ATP ALT LTCPT MALTCPT OIWSF_YEAR ATP 0.109 ALT -.126.044 LTCPT.055.008 -.240 MALTCPT.031.025.025.0952.0952. -.079.166.062 PCPT.044 -.072 -.252.990.053.156 | تفسیر ماتریس همبستگی ضرایب رگرسیون در رگرسیون کاکس؟ |
73652 | من سعی می کنم برخی از داده های گسسته را حذف کنم و در یافتن مدلی برای توصیف روند مشکل دارم. تعدادی نقطه داده گسسته وجود دارد و یک خطای خطی با گذشت زمان ایجاد می شود. من برخی از داده های نماینده را در اکسل ایجاد کردم: Unbiased:  Biased data:  داده های گسسته در اینجا 1،2،3 با بایاس خطی مثبت در طول زمان است. حداقل مربعات سنتی عملکرد ضعیفی دارند، حداقل مربعات متعامد بهتر از این کار نمی کنند. من چند مدل دیگر را امتحان کردم که موفقیت آمیز نبود. من توانسته ام روند را به صورت بصری بررسی کنم و برخی از ~2 ها را انتخاب کنم، یک رگرسیون خطی انجام دهم و سپس بایاس را کم کنم. من میخواهم این کار را به صورت برنامهنویسی در بسیاری از مجموعههای داده انجام دهم، بنابراین یک روش عمومی برای انجام این قابلیت اطمینان ضروری است. آیا ایده ای در مورد نحوه کاهش داده ها و حذف سوگیری دارید؟ داده های واقعی: داده ها | گرایش به داده های گسسته |
55118 | فرض کنید مشکل زیر به ما داده می شود: پیش بینی کنید که کدام مشتریان به احتمال زیاد در 3 ماه آینده خرید خود را از فروشگاه ما متوقف می کنند. برای هر مشتری، ماه را می دانیم که یکی از آنها شروع به خرید در فروشگاه ما کرده است و علاوه بر این، ویژگی های رفتاری زیادی را در مجموع ماهانه داریم. بزرگترین مشتری پنجاه ماه است که خرید کرده است. اجازه دهید زمانی را که مشتری شروع به خرید کرده است را با $t$ ($t \in [0,50]$) نشان دهیم. می توان فرض کرد که تعداد مشتریان بسیار زیاد است. اگر مشتری به مدت سه ماه خرید خود را متوقف کند و سپس دوباره بازگردد، به عنوان یک مشتری جدید رفتار می شود، بنابراین یک رویداد (توقف خرید) می تواند تنها یک بار رخ دهد. دو راه حل به ذهن من می رسد: **رگرسیون لجستیک** \- برای هر مشتری و هر ماه (شاید به جز 3 ماه جدید)، می توانیم بگوییم که آیا مشتری از خرید منصرف شده است یا نه، بنابراین می توانیم نمونه های چرخشی را با یک مشاهده انجام دهیم. به ازای هر مشتری و ماه ما میتوانیم از تعداد ماههایی که از آغاز شروع شده است بهعنوان یک متغیر طبقهبندی برای به دست آوردن مقداری معادل تابع خطر پایه استفاده کنیم. **مدل Cox Extended** \- این مشکل را می توان با استفاده از مدل Extended Cox نیز مدلسازی کرد. به نظر می رسد که این مشکل بیشتر برای تحلیل بقا مناسب است. **سوال:** مزایای تجزیه و تحلیل بقا در مسائل مشابه چیست؟ تجزیه و تحلیل بقا به دلایلی اختراع شد، بنابراین باید مزیت جدی وجود داشته باشد. دانش من در تجزیه و تحلیل بقا خیلی عمیق نیست و فکر می کنم که بیشتر مزایای بالقوه مدل کاکس را می توان با استفاده از رگرسیون لجستیک نیز به دست آورد. * معادل مدل کاکس طبقه بندی شده را می توان با استفاده از تعامل $t$ و متغیر طبقه بندی به دست آورد. * مدل تعامل کاکس را می توان با فرو بردن جمعیت به چند زیر جمعیت و تخمین LR برای هر زیر جمعیت به دست آورد. تنها مزیتی که می بینم این است که مدل کاکس انعطاف پذیرتر است. به عنوان مثال، ما به راحتی می توانیم احتمال توقف خرید مشتری را در 6 ماه محاسبه کنیم. | مدل کاکس در مقابل رگرسیون لجستیک |
77579 | از نتایج من، به نظر میرسد که GLM Gamma با اکثر مفروضات مطابقت دارد، اما آیا نسبت به LM تغییر شکل یافته پیشرفت ارزشمندی است؟ بیشتر ادبیاتی که من پیدا کرده ام مربوط به پواسون یا GLM های دوجمله ای است. من مقاله ارزیابی فرضیات مدل خطی تعمیم یافته با استفاده از تصادفی سازی را بسیار مفید یافتم، اما فاقد نمودارهای واقعی مورد استفاده برای تصمیم گیری است. امیدوارم کسی با تجربه بتواند مرا در مسیر درست راهنمایی کند. من می خواهم توزیع متغیر پاسخ خود T را که توزیع آن در زیر رسم شده است، مدل کنم. همانطور که می بینید، چولگی مثبت است: . من باید دو عامل طبقه بندی را در نظر بگیرم: METH و CASEPART. توجه داشته باشید که این مطالعه عمدتاً اکتشافی است و اساساً به عنوان یک مطالعه آزمایشی قبل از نظریهپردازی یک مدل و انجام DoE حول آن عمل میکند. من مدل های زیر را در R با نمودارهای تشخیصی آنها دارم: `LM.LOG<-lm(log10(T)~factor(METH)+factor(CASEPART),data=tdat)`   ` GLM.GAMMA<-glm(T~factor(METH)*factor(CASEPART),data=tdat,family=Gamma(link='log')) `   ` GLM.GAUS<-glm(T~factor(METH)*factor(CASEPART),data=tdat,family=gaussian(link='log'))`   من همچنین به موارد زیر دست یافتم مقادیر P از طریق آزمایش Shapiro-Wilks روی باقیمانده ها: ` LM.LOG: 2.347e-11 GLM.GAMMA: 0.6288 GLM.GAUS: 0.6288` من مقادیر AIC و BIC را محاسبه کردم، اما اگر درست باشم، به من نمی گویند بیشتر به دلیل خانواده های مختلف در GLMs/LM است. همچنین، من مقادیر شدید را یادداشت کردم، اما نمی توانم آنها را به عنوان موارد پرت طبقه بندی کنم، زیرا علت خاص واضحی وجود ندارد. با تشکر برای هر بینش! | GLM گامای log-linked در مقابل GLM gaussian log-linked در مقابل LM log-transformed |
66181 | [این سوال شبیه به نحوه ارزیابی بهبود از یک درمان است؟] من تلاش می کنم آنچه را که به نظر می رسد بهبود آشکار در عملکرد در نتیجه برخی تغییرات در یک برنامه نرم افزاری است، توصیف کنم. من برنامه را پنج بار بدون بهینه سازی ('A' نشان دهنده زمان برای چنین کاری است) و پنج بار با بهینه سازی ('B') اجرا کرده ام. A = [12.6، 12.6، 12.5، 12.7، 12.7] B = [4.3، 3.3، 4.3، 3.2، 3.3] به عنوان یک فرد غیرمستقیم، به نظر می رسد که این نشان دهنده یک بهبود معقول در عملکرد باشد. با این حال، من نمی دانم چگونه مشروعیت آن بهبود را مشخص کنم. آیا حجم نمونه من به اندازه ای بزرگ است که به من اجازه دهد از نقطه نظر آماری ادعایی داشته باشم؟ آیا می توانم با هر بیانیه بهبود عملکرد یا خود اندازه گیری ها اطمینان را محاسبه کنم؟ | چگونه می توان تأثیر بهینه سازی را بر بهبود عملکرد نرم افزار بر اساس پنج آزمایش با و بدون بهینه سازی ارزیابی کرد؟ |
72129 | چه زمانی به جای آمار نمونه، پارامتر جمعیت را محاسبه کنیم؟ در صورت وجود چنین موردی از کدام ابزار آماری باید از پارامتر جمعیت یا آمار نمونه استفاده کنیم؟ یک شرکت خودروسازی می خواهد میانگین سنی خودروهای برند خود را که هنوز در راه هستند، بداند. چگونه جمعیت مناسب را تعریف می کنید؟ آیا شرکت خودروسازی پارامتر جمعیت یا نمونه آماری را محاسبه خواهد کرد؟ چرا؟ | چه زمانی به جای آمار نمونه، پارامتر جمعیت را محاسبه کنیم؟ |
12873 | من سعی میکنم مشکلی را حل کنم که مربوط به انتساب دادههای از دست رفته از مطالعه دادههای تابلویی است (مطمئن نیستم که از مطالعه دادههای پانل به درستی استفاده میکنم - همانطور که امروز آن را آموختم.) من کل دادههای تعداد مرگ و میر را برای سال 2003 دارم. تا سال 2009، تمام ماه ها، مرد و زن، برای 8 منطقه مختلف و برای 4 گروه سنی. چارچوب داده چیزی شبیه به این است: ناحیه جنسیت سال ماه گروه سنی مجموع مرگها مرد شمالی 2006 11 01-4 0 مرد شمالی 2006 11 05-14 1 مرد شمالی 2006 11 15+ 83 مرد شمالی 2006 12 020 12 020 شمالی مرد 2006 12 05-14 0 نر شمالی 2006 12 15+ 106 زن جنوبی 2003 1 0 6 زن جنوبی 2003 1 01-4 0 زن جنوبی 2003 1 05-14 3 مونث جنوبی 313 2003 2 0 6 زن جنوبی 2003 2 01-4 0 زن جنوبی 2003 2 05-14 1 زن جنوبی 2003 2 15+ 111 زن جنوبی 2003 3 0 2 زن جنوبی 2003 3 01-4 زن جنوبی 2003 3 01-4 20 زن جنوبی 14 2003 3 15+ 141 زن جنوبی 2003 4 0 4 برای 10 ماه پخش شده در سال های 2007 و 2008 برخی از کل مرگ و میرها از همه ولسوالی ها ثبت نشده است. من سعی می کنم این مقادیر گم شده را از طریق روش انتساب چندگانه تخمین بزنم. یا با استفاده از مدل های خطی تعمیم یافته یا مدل های SARIMA. بزرگترین مشکل من استفاده از نرم افزار و کدنویسی است. من یک سوال در Stackoverflow پرسیدم، جایی که میخواهم دادهها را در گروههای کوچکتری استخراج کنم، مانند این: جنسیت منطقه ماه سال گروه سنی TotalDeaths Northern Male 2003 1 01-4 0 Northern Male 2003 2 01-4 1 Northern Male 2003 3 01-4 0 نر شمالی 2003 4 01-4 3 نر شمالی 2003 5 01-4 4 Northern Male 2003 6 01-4 6 Northern Male 2003 7 01-4 5 Northern Male 2003 8 01-4 0 Northern Male 2003 9 01-4 1 Northern Male 2003 10 Northern Male 2003 1020 01-4 01-4 0 Northern Male 2003 12 01-4 1 Northern Male 2004 1 01-4 1 Northern Male 2004 2 01-4 0 Going to Northern Male 2006 11 01-4 0 Northern Male 2006 12 01-4 0 اما یکی پیشنهاد داد من بیاورم سوال اینجاست - شاید یک جهت بخواهید؟ در حال حاضر من نمیتوانم این دادهها را بهعنوان یک مطالعه پانل/سری زمانی مناسب در R وارد کنم. هدف نهایی من استفاده از این دادهها و بسته «amelia2» با عملکردهای آن برای محاسبه «TotalDeaths» برای ماههای خاصی در سال 2007 و 2008، جایی که داده ها از دست رفته است. هر گونه کمک، نحوه انجام این کار و شاید پیشنهاداتی در مورد چگونگی مقابله با این مشکل، سپاسگزاریم. اگر این کمک کند، من سعی می کنم رویکردی مشابه آنچه که کلینت رابرتز در پایان نامه دکترای خود انجام داد را دنبال کنم. **ویرایش:** پس از ایجاد متغیر «زمان» و «گروه» طبق پیشنهاد @Matt: > head(dat) ناحیه جنسیت سال ماه سن گروه غیرطبیعی طبیعی گروه زمان کل 1 Khayelitsha زن 2001 1 0 0 6 6 1 Khayelitsha. Female.0 2 Khayelitsha Female 2001 1 01-4 1 3 4 1 Khayelitsha.Female.01-4 3 Khayelitsha Female 2001 1 05-14 0 0 0 1 Khayelitsha.Female.05-14 4 Khayelitsha Female 2001 1 15up 8 73 81 1 Khayelitsha.Female.05-14 1 15up 8 73 81 1 Khayelitsha.Female 0 2 9 11 2 Khayelitsha.Female.0 6 Khayelitsha Female 2001 2 01-4 0 2 2 2 Khayelitsha.Female.01-4 همانطور که متوجه شدید، در واقع جزئیات بیشتری طبیعی و غیرطبیعی وجود دارد. | انتساب چندگانه برای داده های شمارش از دست رفته در یک سری زمانی از یک مطالعه پانل |
28183 | من در SVM و کرنل متخصص نیستم، پس اگر سوال احمقانه ای پرسیدم ببخشید. در واقع، ابتدا می خواهم بدانم چگونه یک مجموعه داده را تجزیه و تحلیل کنم تا الگوی آن را کشف کنم. و دوم، چگونه می توانم بهترین تابع هسته را برای طبقه بندی یک مجموعه داده انتخاب کنم؟ پیشاپیش از هرگونه کمکی متشکرم | انتخاب هسته |
1571 | من سعی می کنم (در R) یک آزمون فرضیه مکرر در بیزی را با محاسبه عوامل بیز مدل های صفر (H0) و جایگزین (H1) بازسازی کنم. این مدل به سادگی یک رگرسیون خطی ساده است که سعی می کند روند دمای جهانی را تشخیص دهد. داده ها از سال 1995 تا 2009 (اینجا). بنابراین، H0 هیچ روندی نیست (یعنی شیب = 0)، یا به طور مشابه، مدل H0 یک مدل خطی است که فقط نقطه ی قطع دارد. بنابراین من lm() هر دو مدل را محاسبه کردم تا به مقادیر احتمال log منفی که به طور قابل توجهی متفاوت هستند برسم. مقدار p برای مدل H1 lm() 0.0877 است. من همچنین با استفاده از MCMCpack این را به روش بیزی محاسبه کردم و مقادیر احتمال log منفی را دریافت کردم که **super duper uber** متفاوت است. مقادیر لاگ درستنمایی 13.7 و 4.3 تقریباً 10000 برابر اختلاف نسبت درستنمایی آنهاست (که در آن بیش از 100 تعیین کننده در نظر گرفته می شود). میانگین و sds برآوردها بسیار مشابه هستند، پس چرا من مقادیر احتمال متفاوتی را دریافت می کنم؟ (مخصوصاً برای مدل بیزی H0) من احساس می کنم در درک من در مورد احتمالات حاشیه ای شکافی وجود دارد، اما نمی توانم مشکل را مشخص کنم. با تشکر از کتابخانه (MCMCpack) ## داده: http://www.cru.uea.ac.uk/cru/data/temperature/hadcrut3gl.txt head(hadcru, 2) ## سال 1 2 3 4 5 6 7 8 9 10 ## 1 1850 -0.691 -0.357 -0.816 -0.586 -0.385 -0.311 -0.237 -0.340 -0.510 -0.504 ## 2 1851 -0.345 -0.394 -0.503 -0.480 -0.391 -0.264 -0.279 -0.175 -0.175 -0.211 #211#g #1 #1. -0.259 -0.318 -0.443 ## 2 -0.141 -0.151 -0.288 hadcru.lm <- lm(میانگین ~ 1 + سال، داده = زیر مجموعه (hadcru، (سال <= 2009 و سال >= 1995))) hadcru.l صفر <- lm(میانگین ~ 1، داده = زیر مجموعه (hadcru، (سال <= 2009 و سال >= 1995))) hadcru.mcmc <- MCMCregress(میانگین ~ 1 + سال، داده = زیرمجموعه (hadcru، (سال <= 2009 و سال >= 1995))، نازک = 100، mcmc = 100000، b0 = c(-20، 0)، B0 = c(.00001، 0.00001)، حاشیه = لاپلاس) hadcru.mcmc.zero <- MCMCregress (میانگین ~ 1، داده = زیر مجموعه (hadcru، (سال <= 2009 و سال >= 1995))، نازک = 100، mcmc = 100000، b0 = c(0)، B0 = c(.00001), marginal = Laplace) -logLik(hadcru.lm) ## 'log Lik.' -14.55338 (df=3) -logLik(hadcru.lm.zero) ## 'log Lik.' -12.80723 (df=2) attr(hadcru.mcmc، logmarglike) ## [,1] ## [1,] -13.65188 attr(hadcru.mcmc.zero، logmarglike) ## [,1] # # [1،] -4.310564  | بازآفرینی آزمون فرضیه صفر سنتی با روشهای بیزی |
91468 | من واقعاً از این موضوع ناراحت هستم، بنابراین امیدوارم بتوانید به من کمک کنید تا گروهی از افرادی که در یک دوره آموزشی شرکت می کنند، به منظور سنجش اینکه آیا دوره آموزشی در بهبود دانش شرکت کنندگان موثر است یا خیر. ما موارد زیر را انجام دادیم: شرکتکنندگان یک پیشآزمون (فقط درست یا نادرست) را انجام میدهند قبل از اینکه شرکتکنندگان در آموزش شرکتکنندگان در آموزش، پسآزمون را تکمیل کنند (فقط درست یا نادرست) پس از آموزش، هر دو آزمون پیش و پس آزمون دقیقاً مشابه هستند. سوالات، اما آزمون با بارکد برچسب گذاری نشده است، بنابراین من هیچ راهی ندارم که بدانم آیا یک پرسشنامه خاص قبل و بعد متعلق به یک فرد است یا خیر، هر مقاله از 20 امتیاز گرفته شده است، و نمراتی که در SPSS برای هر دانش آموز برای پرسشنامه قبل و بعد از آن وارد کرده ام، بنابراین برای این کار می توانم فقط از آزمون t زوجی استفاده کنم و آیا این تفسیر همچنان معتبر است یا جایگزینی وجود دارد که بتوانم برای یافتن اهمیت مداخله استفاده کنم. و اینکه آیا موثر بوده یا نه؟ یا باید از مجموع نمرات قبل و بعد آزمون t را انجام دهم؟ خیلی ممنون | آیا می توانم یک آزمون t زوجی را روی یک پرسشنامه قبل و بعد اما بدون جفت کردن همان دانش آموز برای قبل و بعد انجام دهم؟ |
72120 | من از مدلسازی خطی خودکار در SPSS استفاده می کنم. آیا کسی اینجا می داند که گزینه تبدیلی که در آن روش پیشنهاد می شود چیست؟ | تبدیل های مورد استفاده در روش مدلسازی خطی خودکار در SPSS |
22273 | من درک می کنم که چرا میانگین ورودی به یک شبکه عصبی عادی شده است تا از مشکلات عددی با اعداد بسیار بزرگ و بسیار کوچک جلوگیری شود. همچنین، خوب است که گره بایاس به اندازه سایر داده های ورودی باشد. اما چرا انحراف معیار معمولاً نرمال می شود؟ البته انحراف استاندارد بالاتر به این معنی است که تغییرات تأثیر بیشتری دارند، اما آیا به هر حال وزنه ها با آن سازگار نمی شوند؟ با تشکر | چرا انحراف استاندارد ورودی شبکه عصبی را عادی کنیم؟ |
55113 | من قبلاً می دانستم که در هنگام استفاده از مدل رگرسیون خطی چندین فرض وجود دارد. اما نمی توانم بفهمم چرا برخی از آنها وجود دارند. آنها عبارتند از: 1. خطاهای مستقل 2. توزیع نرمال خطاها 3. homoscedasticity چرا نمی توانم به سادگی از روش حداقل مربعات بدون این مفروضات استفاده کنم؟ میخواهم بدانم اگر برخی از مفروضات نامعتبر باشند، چگونه روی $R^2$، شیب و p-value تأثیر میگذارد. به عنوان مثال: اگر فرض خطای مستقل نادرست باشد، مقدار p کمتر از مقدار واقعی آن است. | مفروضات رگرسیون خطی از کجا می آیند؟ |
111236 | فرض کنید من یک مدل ترکیبی خطی را به صورت زیر در نظر بگیرم: lme(پاسخ ~ 1، تصادفی = ~1| مکان | کاربر | ماشین). بنابراین ماشین در داخل کاربر که در داخل مکان تو در تو قرار می گیرد. فرض کنید 4 مکان، 8 کاربر و 16 ماشین وجود دارد. فرض کنید در مجموع 96 آزمایش (بر روی همه مکانها، کاربران و ماشینها) انجام شده است. epsilon_{ijkl}$ که در آن $\alpha$ مربوط به مکان، $\beta$ به کاربر و $\gamma$ مربوط به ماشین است. بنابراین $i \in \\{1,2,3,4\\}$, $j \in \\{1,...,8\\}$ و $k \in \\{1,.. .,16\\}$. حالا، فرض کنید میخواستم به تغییرپذیری $\alpha$ نگاه کنم و نوعی تست مجذور خی بر روی واریانس آن انجام دهم. من فرض می کنم df که استفاده می کنم چیزی به ترتیب (4-1) باشد، زیرا اندازه نمونه 4 است. مسلماً، اگر آمار پیچیدهتر باشد، ممکن است تغییر کند، اما «n» برای آن 4 است. حالا، اگر بخواهم همین کار را برای $\beta$ انجام دهم، از n از 8 استفاده می کنم. برای $\gamma$ از n از 16 استفاده می کنم. با این حال، اگر به واریانس $ نگاه کنم چه می شد. \epsilon$. آیا از n (96-4-8-16) = 68 استفاده کنم؟ بنابراین اگر تست من n-1 df داشته باشد، از df = 67 استفاده می کنم؟ با تشکر | df مناسب برای یک مدل مختلط خطی هنگام بررسی واریانس |
55119 | فرض کنید $X_1, \dots , X_n$ یک نمونه تصادفی از $f(x|\mu,\sigma)=\displaystyle\frac{1}{\sigma}\displaystyle e^{\displaystyle-\frac{x- است. \mu}{\sigma}}، x>\mu، \sigma>0$. چگونه می توان $\text{cov}(\bar{X_n},X_{(1)})$ را محاسبه کرد. _توجه:_ $X_{(1)}$ آمار مرتبه اول است. | $\text{cov}(\bar{X_n},X_{(1)})$ را محاسبه کنید |
114042 | من در حال حاضر در تلاش برای تجزیه و تحلیل داده های یک آزمایش خودم هستم و برخی از دستورالعمل ها را در مورد استفاده از تابع lme() برای R جستجو کرده ام، زیرا به دنبال تجزیه و تحلیل داده های خود با رویکرد اثرات مختلط خطی هستم. با این حال، 1. در صورتی که lme() کار کند، مطمئن نیستم که چگونه یک مدل را به داده های خود تطبیق دهم. 2. در صورتی که گزینه های بهتری نسبت به lme() وجود داشته باشد، خوشحال می شوم که در مورد استفاده صحیح از این توابع کمکی بکنید. آزمودنیهای آزمایش من بهطور تصادفی به یکی از دو زمینه (بین آزمودنیها عامل B) اختصاص داده شدند و در این زمینه همه آزمودنیها یک کار را انجام دادند که به عنوان ترکیبی از دو عامل درون آزمودنیها (W1 و W2) ساخته شد. علاوه بر این، آزمودنی ها پرسشنامه شخصیتی را پر کرده اند، بنابراین هر آزمودنی ارزشی برای این کار دارد که من باید آن را در تحلیل خود لحاظ کنم (Pers). متغیر نتیجه یک متغیر پیوسته است (زمان واکنش، RT). داده ها به این شکل است: B نفر موضوع W1 W2 RT A 23 1 m x 187 A 23 1 m y 333 A 23 1 n x 112 A 23 1 n y 110 A 5 2 m x 313 ... ... ... ... . .. ... B 11 19 m x 911 B 11 19 m y 248 B 11 19 n x 411 B 11 19 n y 212 B -9 20 m x 666 ... ... ... ... ... ... من علاقه مند به تجزیه و تحلیلی هستم که اطلاعاتی در مورد تعاملات هر چهار عامل (B) به من بدهد. ، Pers، W1 و W2)، بنابراین تعامل چهار طرفه. وقتی فقط B را شامل میشود، به نظرم میرسد که میدانم هنگام استفاده از lme(). کد من به این شکل است (nb: من تضادهایی را بین شرایط مختلف قبل از کد lme() واقعی با استفاده از تابع ()contrast ایجاد کردم: > baselinemodel = lme(RT ~ 1, random = ~1|subject/W1/W2, داده = df، روش = ML) > W1model = به روز رسانی (خط پایه، .~. +W1) > W2model = به روز رسانی (W1model, .~ +W2) > Bmodel = به روز رسانی(W2model، .~. +B) > W1W2mod = به روز رسانی(Bmodel، .~. +W1:W2) > W1Bmod = به روز رسانی(W1W2mod، .~. +W1:B) > W2Bmod = به روز رسانی(W1Bmod، .~. +W2:B) > fullmodel = به روز رسانی(W2bmodel, .~. +W1:W2:B) یعنی. من یک مدل پایه شامل فقط رهگیری و مشخص کردن W1 و W2 به عنوان تو در تو در درون سوژه ها ایجاد کردم (از این رو آنها را به عنوان عوامل درون سوژه ها تعریف کردم) و سپس به صورت متوالی پیش بینی کننده های بیشتری و تعاملات آنها را اضافه کردم تا در نهایت بتوانم اینها را با هم مقایسه کنم. مدلهایی که از تابع anova() استفاده میکنند: > anova (پایه، W1model، W2model، Bmodel، W1W2mod، W1Bmod، W2Bmod، fullmodel) طبیعتاً من همچنین با استفاده از > خلاصه (fullmodel) به تضادهای از پیش تعریف شده خود نگاهی میاندازم، این رویکرد را بسیار شهودی میدانم، تا زمانی که سعی نکنم پیشبینیکننده پیوسته Pers را علاوه بر B وارد کنم. بنابراین اینجاست که من گیر کرده ام اگر کسی بتواند 1. به من توضیح دهد که چگونه Pers را علاوه بر B، W1 و W2 بگنجانم (یعنی چگونه یک پیشبینیکننده پیوسته که بین سوژهها متفاوت است، و تعامل آن با عوامل دیگر را در تجزیه و تحلیل خود لحاظ کنم) 2. و در صورتی که lme() تابع بهینه برای اهداف من نباشد چگونه می توانم یک تحلیل قابل مقایسه با تابع دیگری انجام دهم (بنابراین دامنه بسیار باریک من از R را گسترش می دهم) طبیعتاً قبل از شروع به ارسال این سؤال، کمی جستجو کرده اند، اما متأسفانه دیگرانی که به نظر می رسید مسائل مرتبط با آن را داشتند در دریافت پاسخ چندان موفق نبودند (تحلیل طرح ترکیبی با متغیرهای طبقه بندی شده و پیوسته) پیشاپیش از شما متشکرم | lme() با چندین عامل موضوعی درون و بین (طبقه ای و پیوسته). |
111235 | من سعی می کنم مقادیر همبستگی را بررسی کنم. یه مشکل بزرگ پیش میاد روشی که من استفاده کردم در بسته **corpcor** در R است. من یک ستون به عنوان داده از دست رفته دارم. من ابتدا ماتریس همبستگی را محاسبه می کنم. cluster1corMatrix<-cor(cluster1Analytes,method=spearman) سپس یک ماتریس همبستگی دریافت می کنم. وقتی همبستگی های جزئی را با استفاده از توابع cor2pcor به شرح زیر انجام دادم، با یک مشکل بزرگ مواجه شدم. ## هشتادمین ستون و سطر 80 همه NA هستند. cluster1corMatrix<-cluster1corMatrix[-80,] cluster1corMatrix<-cluster1corMatrix[,-80] ### در بالا مقدار گمشده ستون را حذف می کند cluster1PcorMatrix<-cor2pcor(cluster1corMatrix) بیشتر همبستگی منفی می شود. مهمتر از همه، برخی از همبستگی ها، به عنوان مثال، همبستگی 0.9 در همبستگی جزئی به 0.91- تبدیل می شود. روشی که من استفاده کردم در بسته **corpcor** در R است. کسی می تواند در مورد آن نظر بدهد؟ آیا تغییر همبستگی 0.9 به -0.9 در همبستگی جزئی منطقی است؟ با تشکر فراوان برای خواندن این پست. | عجیب: همبستگی جزئی مقادیر همبستگی ها را به منفی تغییر داد؟ |
34379 | من سعی می کنم از طریق کلاس مدل های گرافیکی احتمالی Coursera (هفته 7: پیش بینی Baeysian) کار کنم و چندین سوال دارم. 1. در توزیع دیریکله، من در تلاش برای درک اینکه چرا یک -1 در توان تتا وجود دارد، مشکل دارم: $$P(\theta)=Dir(\alpha_1, ..., \alpha_k) = \frac{1} {Z} \cdot \prod_{j} \theta_{j}^{\alpha_{j}-1}$$ 2. چگونه از اینجا دریافت میکنید: $$P(X)=\int_{\theta}P(X|\theta)P(\theta)d\theta$$ به اینجا: $$P(X=x^{i}|\theta) = \ int_{\theta} \frac{1}{Z} \cdot \theta_{i} \prod_{j} \theta_{j}^{\alpha_{j}-1}$$ 3. همچنین، چطور مرحله ادغام موارد زیر را انجام دهید؟: $$\int_{\theta} \frac{1}{Z} \cdot \theta_{i} \prod_{j} \theta_{j}^{\alpha_{j}- 1} = { \alpha_{i}\over{\sum_{j} \alpha_{j}} }$$ اینها یادداشت های سخنرانی هستند. سوالات من به اسلاید اول مربوط می شود. | برای درک دیریکله به کمک نیاز دارید (کلاس PGM هفته هفتم کورسرا - پیشبینی بیزی) |
72121 | من آزمایشی دارم که در آن میخواهم تعیین کنم آیا یک سکه مغرضانه است یا خیر. من از توزیع دو جمله ای برای نگاه کردن به چرخش سکه استفاده می کنم. من دادهها را از نمونهای از 30 تلنگر جمعآوری کردم و دریافتم که در 24 مورد از تلنگرها، نتیجه سر بود. من می خواهم قدرت این آزمایش را محاسبه کنم. در اینجا من فقط به یک آزمون یک طرفه علاقه مند هستم: binom.test(24, 30, p=0.5, alternative=greater) چگونه می توانم قدرت این تحلیل را محاسبه کنم؟ | تحلیل توان برای سکه بایاس در R |
77570 | من سعی میکنم SVM یک کلاسه را برای تشخیص تازگی انجام دهم، بنابراین از اعتبارسنجی متقاطع برای یافتن بهترین پارامتر $\nu$ برای آن استفاده میکنم، اما متوجه شدم که معمولاً یک پارامتر بزرگ $\nu$ دریافت میکنم که منجر به اشتباه بزرگ میشود. نرخ مثبت چگونه پارامتر $\nu$ را برای یک SVM یک کلاس تنظیم و پیدا کنیم؟ | چگونه پارامتر $\nu$ را برای SVM one-clss تنظیم کنیم؟ |
112698 | بنابراین متوجه شدم که قبلاً این سؤال مطرح شده است: به عنوان مثال. موارد استفاده مربوط به تجزیه و تحلیل خوشه ای متریک های مختلف فاصله چیست؟ اما من پاسخها را تا حدودی متناقض با آنچه پیشنهاد شده در ادبیات ممکن یافتم. اخیراً دو مقاله را خوانده ام که در آنها به استفاده از الگوریتم kmeans با معیارهای دیگر اشاره شده است، برای مثال ویرایش فاصله بین رشته ها و فاصله حرکت دهنده زمین بین توزیع ها. با توجه به اینکه این مقالات به استفاده از kmeans با معیارهای دیگر بدون مشخص کردن _how_ اشاره میکنند، بهویژه وقتی صحبت از محاسبه میانگین مجموعه نقاط میشود، به من پیشنهاد میکند که شاید روشی «استاندارد» برای مقابله با این موضوع وجود داشته باشد که من آن را انتخاب نمیکنم. بالا در برای مثال این مقاله را در نظر بگیرید که اجرای سریعتری از الگوریتم k-means را ارائه میدهد. نویسنده با نقل قول از پاراگراف 4 در مقدمه می گوید که الگوریتم او می تواند با هر متریک فاصله جعبه سیاه استفاده شود و در پاراگراف بعدی فاصله ویرایش را به عنوان یک مثال خاص ذکر می کند. الگوریتم او هنوز میانگین مجموعه ای از نقاط را محاسبه می کند و اشاره ای نمی کند که چگونه این ممکن است نتایج را با معیارهای دیگر تحت تأثیر قرار دهد (من به ویژه در مورد اینکه میانگین چگونه با فاصله ویرایش کار می کند گیج هستم). این مقاله دیگر استفاده از k-means را برای خوشه بندی دست های پوکر برای انتزاع نگهدارنده تگزاس توصیف می کند. اگر به صفحه 2 پایین ستون سمت چپ بروید، نویسنده می نویسد و سپس k-means برای محاسبه یک انتزاع با تعداد دلخواه خوشه با استفاده از فاصله حرکت دهنده زمین بین هر جفت هیستوگرام به عنوان متریک فاصله استفاده می شود. من واقعاً به دنبال کسی نیستم که این مقالات را برای من توضیح دهد، اما آیا روش استانداردی را برای استفاده از k-means با سایر معیارها از دست داده ام؟ به نظر میرسد میانگینگیری استاندارد با فاصله حرکتدهنده زمین میتواند به صورت اکتشافی کار کند، اما به نظر میرسد فاصله ویرایش اصلاً با قالب مناسب نیست. من از هر بینشی که کسی می تواند ارائه دهد قدردانی می کنم. **(ویرایش)**: من پیش رفتم و k-means را روی هیستوگرام های توزیع با استفاده از فاصله حرکت دهنده زمین (مشابه آنچه در مقاله پوکر است) امتحان کردم و به نظر می رسید که خوب کار کرده است، خوشه هایی که خروجی آن برای آنها بسیار خوب به نظر می رسید. مورد استفاده من برای میانگین گیری فقط هیستوگرام ها را به عنوان بردار در نظر گرفتم و به روش معمولی میانگین گرفتم. تنها چیزی که متوجه شدم این است که مجموع تمام نقاط فاصله تا میانگین همیشه به صورت یکنواخت کاهش نمی یابد. اگرچه در عمل، علیرغم مشکلات یکنواخت، در یک دقیقه محلی در 10 تکرار ثابت می شود. میخواهم فرض کنم که این همان کاری است که آنها در مقاله دوم انجام دادند، تنها سؤالی که باقی میماند این است که وقتی از چیزی مانند فاصله ویرایش استفاده میکنید، چگونه میانگین میگیرید؟ | استفاده از k-means با سایر معیارها |
25724 | آیا به هر حال می توان بوت استرپ BCa، tilted و ABC را در R بدون استفاده از بسته های داخلی، یعنی 'boot' انجام داد؟ با تشکر | بوت استرپینگ در R |
114046 | اگر از مدل خطی تعمیم یافته زیر استفاده شده است، چگونه باید عبارت خطا را تفسیر کنم؟ تابع پیوند: توزیع گزارش طبیعی: توزیع گاما یعنی $\ln E(Y)=X\beta$ و $E(Y)=\exp(X\beta)$ به نظر می رسد که عبارت خطا باید افزودنی باشد: $Y =\exp(X\beta)+\epsilon$ با این حال، پس از مقداری جبر، با اجازه دادن به $Y=\exp(X\beta)\psi$ تبدیل می شود. $\psi_i=\frac{\epsilon_i}{\exp(x_i'\beta)}+1$ بنابراین، $\epsilon$ افزایشی است اما $\psi$ ضربی است. من با این مقاله اشتباه گرفته ام: خطاهای ضربی: Log-normal یا گاما؟ توسط فرث، 1988 فرث مدل خطاهای ضربی را برای متغیر پاسخ توزیع شده گاما ایجاد کرد. با این حال، پس از محاسبه توسط R یا SAS، چگونه عبارت خطا را تفسیر کنم؟ آیا Rglm() یا SAS proc genmod مدل خطای ضربی را در اختیار ما قرار می دهد (مانند Firth، 1988)؟ علاوه بر این، چرا مدل زیر در R یا SAS موجود نیست؟ توزیع: تابع پیوند توزیع لگ نرمال: هویت به نظر می رسد (در بسیاری از متون) که باید پاسخ را تغییر شکل دهیم و مدل زیر را اعمال کنیم (یا با استفاده از OLS): توزیع: تابع پیوند توزیع نرمال: هویت با این حال، در مقایسه با مدل گاما (لینک ورود)، ما باید مدل زیر را بسازیم: توزیع: تابع پیوند توزیع lognormal: گزارش طبیعی، اما نمی توان آن را در R glm یا SAS proc genmod تخمین زد. پس از چند تحقیق در مورد موضوع خانواده نمایی طبیعی، http://en.wikipedia.org/wiki/Natural_exponential_family حدس میزنم که الگوریتم در Rglm() یا ژنمود SAS proc نمیتواند مدلهایی را حل کند که در آن توزیع در آن نیست. خانواده نمایی طبیعی (اگر از Fisher-scoring استفاده شود، نه شبه درستنمایی) به نظر می رسد برای حل مدل های مدل های log-normal بدون log-transform باید شبه درستنمایی اعمال شود. با این حال، همه اینها حدس من است. من به برخی ادبیات (مقالات ژورنالی، کتاب و غیره) برای ترغیب دیگران نیاز دارم که مورد استناد قرار گیرند. یا اثبات دقیق تر ممکن است مفید باشد. | خطای ضربی و خطای افزایشی برای مدل خطی تعمیم یافته |
111231 | من در حال خواندن مقالاتی هستم که در مورد «مدل های عامل خطی» بحث می کنند که به نظر می رسد معادله کلی را که اغلب در رگرسیون OLS استفاده می شود، توصیف می کند. وقتی مردم به یک مدل رگرسیون خطی اشاره می کنند، آیا اساساً فقط به یک مدل عامل خطی اشاره می کنند؟ اصطلاح مدل عامل خطی در کجای آمار جای می گیرد و اگر اصلاً وجود دارد، چرا باید تمایز قائل شد؟ | مدل ضریب خطی در مقابل مدل رگرسیون خطی |
111230 | من می خواهم نمرات دریافت شده در دو معیار جداگانه را با یک مقیاس سوم مقایسه کنم. هر کدام از آنها نمرات خام در دسترس دارند و من میپرسیدم که آیا امتیاز z را برای دو معیار فاصله اول پیدا کردهام و ترکیب/میانگین میتوانم سپس سه نتیجه را با اندازهگیری فاصله سوم برای همبستگی مقایسه کنم؟ | ترکیب دو اندازه فاصله برای همبستگی با یک سوم - چگونه؟ |
114040 | من در مورد تجزیه و تحلیل داده های طبقه بندی شده مطالعه می کردم (به عنوان مثال Agresti (2010): تجزیه و تحلیل داده های طبقه بندی ترتیبی). علاوه بر تجزیه و تحلیل دادهها با یک پاسخ ترتیبی با کمک مدلهای اثرات مختلط تجمعی شانس متناسب، به نظر میرسد برخی افراد به عنوان مثال پیشنهاد میکنند. برای استفاده از تابع «glmer()» از «lme4» در «R» برای متناسب کردن طیف وسیعی از مدلها. دادههای من به این صورت است: 1. پاسخ ترتیبی: مقیاس پنج نقطهای با $1<2<3<4<5$ ($1$ بدترین، $3$ خنثی، $5$ بهترین است) 2. یک نوع پیشگوی طبقهبندی تک با 5 سطح 3. موضوعات به عنوان اصطلاح اثرات تصادفی که من در نحو lme4 مشخص می کنم: (نوع | موضوعات) با قطع و شیب برای هر موضوع هر آزمودنی آیتم های 320 دلاری را دید (40 دلار برای سطح 1 دلار، 40 دلار برای سطح 2 دلار، 40 دلار برای سطح 3 دلار، 160 دلار برای سطح 4 دلار) و به هر یک از آنها امتیاز داد. مجموعه داده بسیار خوب به نظر می رسد و از آنجایی که فقط حاوی یک پیش بینی کننده است، برای آشنایی با تجزیه و تحلیل داده های طبقه بندی بسیار خوب است. با این حال، من نمیدانستم که آیا روشهای جایگزینی برای تجزیه و تحلیل چنین دادههایی به غیر از برخورد با پاسخ به عنوان یک متغیر پیوسته و استفاده از «lmer()» یا «aov()» وجود دارد. و اگر توصیه یا توصیه ای وجود دارد، مردم می توانند در اینجا ارائه دهند. در اینجا جایگزینی است که در مورد آن خواندم. می توان یک مجموعه داده با یک پاسخ ترتیبی را به زیر مجموعه هایی تقسیم کرد که هر کدام فقط شامل دو سطح از پاسخ ترتیبی هستند. چند سوال در این مورد دارم. چگونه میتوانید آن مجموعه داده را به زیرمجموعههایی تقسیم کنید که پاسخ ترتیبی 5 دلاری داشته باشید؟ بر اساس ترتیب پاسخ من، منطقی ترین انتخاب به نظر من می رسد: زیر مجموعه $A$ با سطوح $1$ و $2$، زیر مجموعه $B$ با سطوح $2$ و $3$، زیر مجموعه $C$ با سطوح $3$ و $4$ ، زیر مجموعه $D$ با سطوح $4$ و $5$. من این کار را با مجموعه دادههای «شراب» از بسته «تعدادی» امتحان کردم. اما این به دلیل عدم همگرایی، غیرقابل شناسایی بودن مدل و غیره، به طرز ناخوشایندی با شکست مواجه خواهد شد (من از «lme4 1.1.8» استفاده می کنم). این مثال شراب است: data(wine, package = ordinal) # کتابخانه مجموعه داده شراب (lme4) زیر <- wine$rating %in% grep([1-2], wine$rating, value = TRUE) sub12 <- زیر مجموعه (شراب، زیر مجموعه = زیر) sub12$ رتبه <- ضریب (sub12$ رتبه، مرتب = FALSE) glmer12 <- glmer (رتبه ~ دما + تماس + (دمای | داور)، داده = زیر 12، خانواده = دوجمله ای) # جایگزین کردن (1 | داور) برای (مقاومت | داور) آن را بهتر نمی کند # اخطاری نمی دهد glm12 <- glm (رتبه ~ دما + تماس، داده = زیر 12، خانواده = دو جمله ای) فرعی <- wine$rating %in% grep([2-3], wine$rating, مقدار = TRUE) sub23 <- زیر مجموعه (شراب، زیرمجموعه = فرعی) رتبه فرعی 23$ <- ضریب(sub23$ رتبه، مرتب = FALSE) glmer23 <- glmer(رتبه ~ دما + تماس + (دمای | داور)، داده = زیر23 ، خانواده = دو جمله ای) زیر <- wine$rating %in% grep([3-4]، wine$rating، value = TRUE) sub34 <- زیر مجموعه (شراب، زیرمجموعه = فرعی) رتبه بندی فرعی 34$ <- ضریب(زیر رتبه بندی $34، مرتب = FALSE) glmer34 <- glmer(رتبه ~ دما + تماس + (دمای | قاضی)، داده = زیر 34، خانواده = دوجمله ای) البته مجموعه داده شراب نسبتاً کوچک است (و ما کاملاً یا شبه جداسازی داریم) و مال من نیست، اما اگر داده های ترتیبی را تجزیه و تحلیل کنم چقدر احتمال دارد که با مشکل مشابه مواجه شوم. این راه | جایگزینهای مدلهای اثرات مختلط شانس متناسب |
91466 | اگر X و Y متغیرهای تصادفی مستقل هستند به طوری که X = A + B و Y = C + D؟ آیا جفت های (الف، ج)، (ب، ج)، (الف، د)، (ب، د) نیز مستقل هستند؟ منظور من از این است که آیا A و C مستقل هستند، B و C مستقل هستند و غیره. | تجزیه متغیرهای تصادفی مستقل |
74000 | من در مورد مسئله مکرر و بیزی می خواندم (این مقاله کمک زیادی کرده است، به خصوص با مثال؛ همچنین این مقاله)، و با آن کنار نیامده ام. در حال حاضر به نظر می رسد که تعبیر فراوانی و بیزی از احتمال وجود دارد. و به طور جداگانه، رویکرد مکرر و بیزی به مشکلات. اولی در مورد مسئله باور در مقابل فرکانس است (در مقاله دوم نشان داده شده است). مورد بعدی در مقاله اول نشان داده شده است. هر دو در کنار هم به نظر من اینگونه به نظر می رسند: * تفسیر مکرر گرایانه از رویکرد مکرر گرایی تضمین می کند که در درصدی از زمان برای تعداد زیادی کارآزمایی با فرض تنها توزیع احتمال، بدون توجه به پارامتری که دریافت می کنیم، درست است تا زمانی که فرض کنیم که ما طیف خوبی از داده ها را دریافت خواهیم کرد. * تفسیر مکرر رویکرد بیزی تضمین می کند که در درصدی از زمان برای تعداد زیاد کارآزمایی با فرض توزیع احتمال و قبلی، بدون توجه به داده هایی که به دست می آوریم، تا زمانی که فرض کنیم محدوده خوبی به دست خواهیم آورد. از پارامترها * تفسیر بیزی از رویکرد مکررگرا می گوید که ما با فرض یک درصد فقط توزیع احتمال درست می گوییم، بدون توجه به اینکه کدام پارامتر را بدست آوریم، تا زمانی که عادلانه بودن تصادفی بودن داده ها را فرض کنیم. * تفسیر بیزی از رویکرد بیزی می گوید که ما با فرض یک درصد با فرض توزیع احتمال و قبل، درست می گوییم، مهم نیست کدام داده را به دست آوریم، تا زمانی که عادلانه بودن تصادفی بودن پارامترها را فرض کنیم. این تنها دیدگاه ثابتی است که من توانسته ام از آنچه خوانده ام شکل دهم. با این حال، من هنوز فکر میکنم شاید چیزی را از دست دادهام (چون در واقع این دیدگاه را در هیچ جای دیگری پیدا نکردهام، نتیجهگیری خودم است)، بنابراین با فرض صفر که اشتباه میکنم، اشتباه من کجاست؟ | تفاسیر بیزی و مکرر در مقابل رویکردها |
5733 | من روی یک تابع مونت کارلو برای ارزیابی چندین دارایی با بازدهی جزئی همبسته کار می کنم. در حال حاضر، من فقط یک ماتریس کوواریانس ایجاد میکنم و به تابع «rmvnorm()» در R میخورم. این واقعاً یک سؤال دو قسمتی است: 1) چگونه می توانم نوعی PDF یا CDF را تخمین بزنم در حالی که تمام چیزی که دارم برخی از داده های دنیای واقعی بدون توزیع شناخته شده است؟ 2) چگونه می توانم مقادیر مرتبط مانند rmvnorm را تولید کنم، اما برای این توزیع ناشناخته (و غیر عادی)؟ با تشکر | مقادیر چند متغیره تصادفی را از داده های تجربی ایجاد کنید |
55112 | من روی مشکلات مرور کار کردهام، و این یکی من را کاملاً مبهوت کرده است. اجازه دهید $X_1 ... X_{10}$ یک نمونه تصادفی از توزیع $N(3,\sigma^2)$ باشد که $\sigma^2$ ناشناخته است. با استفاده از آزمون نسبت درستنمایی، یک آزمون منطقه بحرانی در سطح 5% را برای $H_0 تعیین کنید: \sigma^2 = 1 $ در مقابل $H_1 : \sigma^2 \neq 1$ (و به طور معمول، $\sigma^2 > 0 دلار). به نظر می رسد که در حالت کلی، زمانی که فرد در حال آزمایش یک فرضیه در مورد واریانس است، از آماره خی دو استفاده می شود که چیزی شبیه به یک هدف نهایی به من می دهد، اما من مطمئن نیستم که چگونه به آنجا برسم. pdf مشترک برای 10 r.v.s باید $\large(\frac{1}{\sqrt{2\pi\sigma^2}})^{10}\cdot e^-\frac{\sum_{i=1 باشد }^{10} (X_i - 3)^2}{2\sigma^2}$ بر اساس فرضیه صفر، این بازده $\large(\frac{1}{\sqrt{2\pi}})^{10}\cdot e^-\frac{\sum_{i=1}^{10} (X_i - 3)^2} {2}$، از آنجایی که $\sigma^2 = 1$ تحت فرضیه جایگزین، داریم $\large(\frac{1}{\sqrt{2\pi\hat\sigma^2}})^{10}\cdot e^-\frac{\sum_{i=1}^{10} (X_i - 3)^2}{2\hat\sigma^2}$ با تنظیم اینها به ترتیب به عنوان صورت و مخرج، دریافت می کنم $\LARGE\frac{\exp(^-\frac{\sum_{i=1}^{10} (X_i - 3)^2}{2})}{(\frac{1}{\hat{\ سیگما}})^{10}\cdot \exp(^-\frac{\sum_{i=1}^{10} (X_i - 3)^2}{2\hat\sigma^2})} = \Lambda$ من معتقدم که صورتگر دارای 0 پارامتر آزاد است و مخرج دارای 1 است. برای بدست آوردن احتمال log، من $ln(\ را اعمال می کنم. Lambda)$، و می دانیم که $\hat\sigma^2$ را می توان به صورت $\frac{1}{10}\sum_{i=1}^{10} نشان داد (X_i-3)^2$، بنابراین ساده سازی بیشتر $-2Ln(\Lambda) = \sum(X_i-3)^2-10+10ln(\frac{10}{\sum(Xi-3)^2 را به دست می آورد })$ با توجه به مشکل، این باید یک آمار $\chi_{10}^2$ باشد، اما من نمی دانم چگونه این را (احتمالاً گرافیکی) توجیه کنم؟ باز هم، من تا حد زیادی از کمک قدردانی می کنم! ویرایش (و پاسخ پیشنهادی من) )$، و از آنجایی که من صرفاً به دنبال این هستم که ببینم آیا این یکنواخت است، می توانم این را به $\hat\sigma^2-ln(\hat\sigma^2)$ ساده کنم، که یک نمودار سریع نشان می دهد یکنواخت نبودن این بدان معنی است که ما می خواهیم یک آزمون دو طرفه را تحت فرضیه صفر انجام دهیم. می دانیم که $\hat\sigma^2$ از توزیع $\chi^2_10$ پیروی می کند، بنابراین $H_0$ را در زمانی که $n*\sigma^2< $$\chi_{.025,10}^2$ و در $n*\sigma^2>\chi_{.975،10}^2$ | آزمون فرضیه توزیع نرمال، واریانس ناشناخته میانگین شناخته شده |
22277 | فرض کنید کسی می خواهد خوب بودن تناسب بین توزیع نظری و توزیع تجربی را به روشی گرافیکی ارزیابی کند. نمودار Q-Q نرمال اگر توزیع نظری نرمال باشد خوب است. اما اگر توزیع نظری نرمال نباشد چه؟ آیا می توانید از روش گرافیکی لگاریتمی دوگانه استفاده کنید؟ | حسن تناسب بین توزیع تجربی و توزیع نظری |
25726 | من در حال تجزیه و تحلیل یک مقاله در مورد استنتاج بیزی برای قابلیت اطمینان شبکه هستم و در تلاش برای تأیید اعتبار برخی از فرمولها (در نگاه اول بسیار ساده) گیر کردم. فرض کنید احتمال شکست توزیع بتا را به صورت قبلی کوتاه کرده است: $$ \pi _{1}\left ( p_{i}|\gamma ,\alpha \right )=\frac{\alpha \left ( 1-p_{ i} \right )^{\alpha -1}}{\left ( 1-\gamma \right )^{\alpha }}, i=\overline{1,n}، \gamma <p_{i}<1$$ که در آن $\gamma$ آستانه پایینتری در $p_{i}$ است و $\alpha$ فقط یک پارامتر ثابت است (یعنی دارای بدون تراکم قبلی). مرحله دوم قبل برای پارامتر $\gamma$ است و یک توزیع بتا با پارامترهای $ \alpha +1 $ و $1$ است. یعنی $$\pi _{2}\left ( \gamma |\alpha \right )=(\alpha +1)(1-\gamma)^{\alpha},\, 0<\gamma <1, \, 0<\alpha<1$$ میخواهم قبل از $p_{i}$ را مشروط به $\alpha$ به تنهایی پیدا کنم، یعنی $\pi\left( p_{i}|\alpha\right)$. من تجزیه $$\pi \left ( p_{i}, \gamma|\alpha \right )=\pi_{1}\left ( p_{i}|\gamma,\alpha \right )\cdot \pi_ را اعمال می کنم {2}\left ( \gamma|\alpha \right )$$ و حاشیهسازی بیش از $\gamma$ باید چیزی را که من دنبالش میگردم ارائه دهد: $$\pi\left( p_{i}|\alpha\right)=\int_{0}^{1}\alpha\left ( \alpha +1 \right )\left ( 1-p_{i} \right )^{\alpha -1}d\gamma=\alpha\left ( \alpha +1 \right )\left ( 1-p_{i} \right )^{\alpha -1}$$ اما این با یکی ادغام نمیشود و مقاله پاسخ دیگری میدهد (که با یک ادغام میشود): $$\pi\left( p_{i}|\alpha\right)= \alpha\left ( \ alpha +1 \right )p_{i}\left ( 1-p_{i} \right )^{\alpha -1}$$ و نمیتوانم بفهمم چه چیزی را از دست دادهام. شاید کسی بتواند به من سرنخی بدهد که چه چیزی را از دست داده ام؟ | توزیع قبلی حاشیه ای با پارامترهای محدود |
111237 | من مدل زیر را دارم که میخواهم آن را دوباره بسازم: $Y_{i,t}=a+bx_{i,t}+cx_{i,t-1}+e_{i,t}$ اکنون در تعجب هستم آیا این همان مدل بالا است: $Y_{i,t}=a+ d\Delta x_{i,t}+e_{i,t}$، جایی که $\Delta x_{i,t}=x_{i,t} - x_{i,t-1}$؟ من معتقدم این درست است اما فقط باید 100٪ مطمئن باشم. متشکرم | مشکل مشخصات مدل |
72126 | من دانش آموزی هستم که در کلاس فرآیندهای تصادفی شرکت می کنم. من دیده ام که مقدار مورد انتظار یک متغیر تصادفی گسسته برابر با میانگین حسابی توزیع به شرط مقادیری است که می گیرد. آیا برای همه متغیرهای تصادفی صرف نظر از توزیع درست است؟ آیا مورد یا مثالی وجود دارد که مقدار مورد انتظار با میانگین حسابی متفاوت باشد؟ ثانیا فکر می کنم فقط برای متغیرهای تصادفی گسسته کاربرد دارد. من فکر می کنم برای متغیرهای تصادفی پیوسته، pdf در نقاط خاصی صفر است. بنابراین در آن صورت می توانم بگویم که مقدار مورد انتظار برابر با میانگین متغیر تصادفی نیست؟ | مقدار مورد انتظار یک متغیر تصادفی متفاوت از میانگین حسابی |
22271 | تابع 'mcmcsamp()' شبیه سازی هایی را از توزیع های خلفی یک مدل مخلوط بیزی مجهز به تابع 'lmer()' ایجاد می کند. توزیع های قبلی چیست؟ آیا کتاب یا مقاله ای وجود دارد که یک مطالعه ریاضی از مدل مخلوط بیزی با این پیشین ها ارائه دهد؟ | چه توزیع های قبلی در mcmcsamp() از lme4 استفاده می شود؟ |
88529 | من این سردرگمی مربوط به اجرای matlab liblinear را دارم. من سعی می کنم از رگرسیون لجستیک منظم L1 استفاده کنم. من مدل را با تعصب آموزش داده ام. اکنون وقتی پیشبینی را فراخوانی میکنم [predicted_label, accuracy, biryar_values/prob_estimates] = ... predict(testing_label_vector, testing_instance_matrix, model, 'liblinear_options','col'] آیا لازم است یک ویژگی اضافی با ویژگیهایی برای اصطلاح سوگیری اضافه کنم. منظورم این است که وقتی مدل را یاد بگیرم اگر 10 ویژگی داشته باشم، 11 وزن خواهد داشت یکی برای بایاس حالا وقتی مجموعه داده خود را برای آزمایش ارائه میکنم، آیا باید یک ستون اضافی در «matrix_testing_instance» اضافه کنم | سردرگمی مربوط به اجرای matlab liblinear |
74009 | من سعی میکنم از یک تحلیل متمایز خطی جریمهشده برای انتخاب ویژگی استفاده کنم. بسته «R» مورد استفاده «penalizedLDA» بود. از درک من، من باید تعداد بردارها، k، استفاده شده و بارگذاری از بردارها را بدانم تا 10 ویژگی برتر (مثلاً بگوییم) را تعیین کنم. به نظر من باید قدر مطلق 10 بالاترین بارگذاری را انتخاب کنم. آیا کسی می تواند توضیح دهد که چگونه باید خروجی اجرای یک LDA جریمه شده با استفاده از بسته penalizedLDA را به درستی تفسیر کرد. ساختار داده های خروجی من: > str(out) فهرست 10 $ discrim: num [1:401, 1:35] -0.00842 -0.01026 -0.01266 -0.01543 -0.01879 ... $ xproj : num [1:6937, 1:35] 40 52.4 52.8 38.1 53.6 ... $ K : int 35 $ crits :List of 35 ..$ : num [1:4] 1165 1165 1165 1165 ..$ : num [1:4] 294 294 294 294 294 $. 1:5] 25.9 25.9 25.9 25.9 25.9 ..$ : num [1:4] 19.7 19.7 19.7 19.7 ..$ : num [1:4] 15.9 15.9 15.9 15.9 ..$ : num [1:4] .8$ : num [1:4] .8$ . : num [1:4] 1.88 1.89 1.89 1.89 ..$ : num [1:4] 1.35 1.35 1.35 1.35 ..$ : num [1:6] 0.801 0.801 0.801 0.801 0.801 0.8 $ num. [1:4] 0.793 0.793 0.793 0.793 ..$ : num [1:4] 0.508 0.508 0.508 0.508 ..$ : num [1:4] 0.378 0.378 0.378 0.378 $. 0.28 0.28 0.28 0.28 ..$ : num [1:4] 0.164 0.164 0.164 0.164 ..$ : num [1:4] 0.147 0.147 0.147 0.147 0.147 0.147 0.147 0.147 $. 0.0943 0.0943 0.0943 ..$ : num [1:6] 0.0906 0.0906 0.0906 0.0906 0.0906 ... ..$ : num [1:4] 0.0774 0.0774 0.074 $ num [1:4] 0.0528 0.0528 0.0528 0.0528 ..$ : num [1:5] 0.0442 0.0442 0.0442 0.0442 0.0442 ..$ : num [0.37] 0.30 0.037 ..$ : num [1:5] 0.0317 0.0317 0.0317 0.0317 0.0317 ..$ : num [1:4] 0.0223 0.0223 0.0223 0.0223 0.0223 0.0317 0.0223 0.0223 $. 0.0172 0.0172 0.0172 ..$ : عدد [1:4] 0.0126 0.0126 0.0126 0.0126 ..$ : عدد [1:4] 0.0104 0.0104 0.0104 0.0104 0.0104 0.0104 $] 0.00787 0.00787 0.00787 0.00787 ..$ : num [1:4] 0.00576 0.00576 0.00576 0.00576 ..$ : num [1:4] 0.004 0.004 0.004 0.00454 ..$ : num [1:4] 0.00436 0.00436 0.00436 0.00436 ..$ : num [1:4] 0.00328 0.00328 0.00328 0.00328 0.00328 0.00328 0.00328 0.0036 0.00436 ..$ 0.00281 0.00281 0.00281 0.00281 ..$ : num [1:4] 0.00225 0.00225 0.00225 0.00225 ..$ : num [1:4] 0.001 0.001 0.001 0.00186 $ 0.327 0.318 0.367 0.478 ... ..- attr(*, names)= chr [1:401] Spec400 Spec405 Spec410 Spec415 ... $ x : num [1:6937, 1 :401] 0.13038 -0.08583 0.00923 0.16059 0.02393 ... ..- attr(*, dimnames)=لیست 2 .. ..$ : NULL .. ..$ : chr [1:401] Spec400 Spec405 Spec410 Spec415 ... $ y : num [1:6937, 1] 1 1 1 1 1 1 1 1 1 1 ... - attr(*, class)= chr penlda | تفسیر خروجی از تجزیه و تحلیل تفکیک خطی جریمه شده R با استفاده از بسته پنالتی LDA |
110544 | هدف من آموزش یک طبقه بندی کننده لجستیک است. نمونه های من در مجموعه داده من مقداری نویز برچسب دارند اما برای هر برچسب می توانم احتمال درستی این برچسب را بدهم. بهترین راه برای گنجاندن این احتمالات در حین برازش مدل من چیست؟ من از بسته glmnet در R برای آزمایشاتم استفاده می کنم. با توجه به راهنما می توانید یک بردار 2 ستونی به عنوان متغیر پاسخ بدهید. بنابراین آیا درست است که احتمال کلاس 1 بودن در ستون اول و احتمال کلاس 2 بودن در ستون دوم را ارائه دهیم؟ و وزن ها را برای هر نمونه 1 قرار دهید. آیا این درست است؟ | رگرسیون لجستیک با استفاده از احتمالات برچسب های کلاس |
27385 | من می خواهم: i) بررسی کنم که آیا نسبت شانس (OR) برای هر سطح عامل به طور قابل توجهی متفاوت است. **ویرایش**: این مدلی است که من استفاده کردم: NewMod2C <- glm(formula = surv ~ as.factor(season) + as.factor(pgrp) + as.factor(sline) + as.factor(tb5) + as.factor(gest3) + as.factor(int3) + as.factor(agit) + as.factor(teat2)، خانواده = دو جمله ای (پیوند = logit)، data = lesna) summary(NewMod2C) confint(NewMod2C) data.frame(exp(NewMod2C$coefficients)) exp.NewMod2C.coefficients. (فاکتور) 6.5599000 as.factor(season)2 0.7203071 as.factor(pgrp)2 1.3495993 as.factor(pgrp)3 1.0388424 as.factor(pgrp)4 1.1013092 as.factor(pgrp)26.1013092 as. as.factor(tb5)2 0.8663428 as.factor(tb5)3 0.7307868 as.factor(tb5)4 0.6555165 as.factor(tb5)5 0.5770979 as.factor(gest3)2 1.397868 as.factor(tb5)4 as.factor(int3)2 0.8146875 as.factor(int3)3 0.2941530 as.factor(agit)2 0.6305899 as.factor(agit)3 0.7208870 as.factor(teat2)2 1.326377445 areatte آیا راهی برای تعیین اینکه مثلاً سطوح «pgrp» به طور قابل توجهی متفاوت است یا خیر؟ as.factor(pgrp)2 1.3495993 a as.factor(pgrp)3 1.0388424 b as.factor(pgrp)4 1.1013092 c با تشکر. | آزمایش $t$-test با استفاده از R |
91885 | من فکر می کردم بهترین راه برای تعیین تأثیر هر پارامتر تصادفی بر نتیجه به دست آمده از شبیه سازی مونت کارلو چیست. من متوجه شدم که من یک سوال مشابه را در اینجا پرسیده ام، اما این بار این سوال را به صورت کلی تر مطرح می کنم زیرا قبلاً هیچ پاسخی دریافت نکردم. **زمینه**: من اساساً شبیه سازی مونت کارلو را اجرا می کنم که در آن به طور تصادفی از 65 توزیع عادی و 2 توزیع یکنواخت نمونه برداری می کنم. سپس، این مقادیر را به یک معادله خطی وارد کرده و آن را برای 500000 تکرار اجرا می کنم. من فقط می خواستم بهترین راه را برای تعیین تأثیر نسبی هر یک از این 67 (در مجموع) متغیر تصادفی بر روی نتیجه نهایی شبیه سازی مونت کارلو خود تعیین کنم. | تاثیر هر پارامتر بر شبیه سازی مونت کارلو |
25723 | لطفاً اگر اشتباه میکنم، چون در R خوب نیستم، لطفاً مرا تصحیح کنید. فکر میکنم میتوانم با اجرای تحلیل حداقل مربعات جزئی با X استاندارد شده و بدون ماتریس Y استاندارد شده، یک ترکیب خطی برای حداکثر کردن همبستگی بین پیشبینیکنندهها و متغیرهای وابسته پیدا کنم. اما چگونه می توانم این کار را با pls یا هر بسته دیگری در R انجام دهم؟ آیا با تنظیمات پیش فرض این کار را انجام می دهد؟ | چگونه می توان یک ترکیب خطی از پیش بینی کننده ها را پیدا کرد که همبستگی بین نمره آن و متغیر وابسته را در R به حداکثر می رساند |
111238 | مقاله از اینجا آمده است: https://www.cs.toronto.edu/~hinton/absps/fastnc.pdf (1) چرا RBM در بالا قرار دارد؟ (2) چرا یک RBM معادل یک شبکه سیگموئید بی نهایت در نظر گرفته می شود؟ (3) آیا زنجیره ای از RBM های انباشته یک DBM (ماشین عمیق بولتزمن) است یا یک DBN؟ | 3 سوال مفهومی در مورد DBN (شبکه باور عمیق) |
77572 | من یک ماتریس $N \times P$ $X$ دارم (با ماتریس کوواریانس واریانس $\Sigma$ $P \times P$) و از R برای محاسبه حاصلضرب تانسور $E\\{(X-\mu) استفاده می کنم. (X-\mu)' \otimes (X-\mu)(X-\mu)'\\}$ (محصول تانسور `%o%` در R). من مطمئن نیستم که چگونه این عبارت را ارزیابی کنم، اما می دانم که نتیجه باید یک ماتریس $P^2 \times P^2$ باشد. آیا محاسبه ساده حاصل ضرب تانسور با استفاده از ماتریس کوواریانس واریانس به صورت $\Sigma \otimes \Sigma$ صحیح است؟ | محاسبه کوواریانس متقاطع تانسور |
74007 | فرض کنید من ویژگی های معمولی استانداردی دارم $X_i \in \\{X_i : i \in \\{1,...,1000\\}\\}$. من این مجموعه پیشبینیکنندهها را با تبدیلهای زیر گسترش میدهم: $\\{X_i,X_i^2,X_iI(X_i > 0): i \\{1,...,1000\\}\\}$. اگر Lasso $X_i^2$ یا $X_iI(X_i > 0)$ را انتخاب کند، اما نه خود $X_i$ را چه اتفاقی میافتد. چه کار کنم؟ آیا این حتی یک مشکل است؟ | چه می شود اگر کمند اصطلاحات تبدیل شده را انتخاب کند اما اصطلاحات تبدیل نشده را انتخاب کند |
28180 | برخلاف بسیاری از موضوعات موجود در این سایت که تستهای دیکسون و گراب را توصیه میکنند، نویسنده یک پاسخ، در این تاپیک، ادعا میکند که «واقعاً، اینها مدتها پیش بیاعتبار شدهاند» و از ۲ روش دیگر حمایت میکند. من خود را واجد شرایط نمی دانم که این استدلال ها را مرتب کنم، اما می خواهم بپرسم که آیا بین آماردانان در مورد شایستگی هر یک از این موضع ها اتفاق نظر وجود دارد؟ | آزمایشهای پرت تک متغیره: آیا روشهای دیکسون و گراب بی اعتبار شدهاند؟ |
73384 | من در حال انجام یک مطالعه شبه تجربی هستم که در آن تغییرات در نگرش به برند را در طول زمان برای چهار برند، همه در درون موضوع مقایسه میکنم. بین زمان 1 و زمان 2، شرکتکنندگان اطلاعاتی را مشاهده میکنند و من میخواهم ببینم که چگونه بر رتبهبندی آنها از هر برند تأثیر میگذارد. من میخواهم از ANCOVA برای کنترل نگرشهای برند Time 1 استفاده کنم و سپس به دنبال تغییرات در نگرشها در زمان 2 باشم. آیا باید فقط هر چهار نگرش برند Time 1 را در ANCOVA به عنوان متغیرهای کمکی قرار دهم؟ این عجیب به نظر می رسد زیرا من احساس می کنم آنها باید با نگرش های مربوط به زمان 2 خود مطابقت داشته باشند. DV نگرش برند است. یا باید از امتیازات تفاوت استفاده کنم؟ هر گونه کمکی قدردانی خواهد شد. با تشکر الکس. | چند متغیر کمکی در ANCOVA؟ یا تفاوت امتیازات؟ |
25727 | من مدلی برای داده ها در آزمایش خود دارم که بیان می کند داده ها دارای توزیع Gumbel با مکان و مقیاس شناخته شده هستند. سپس به مشاهداتی با امتیازهای بسیار بالا که گمان میکنم پرت هستند نگاه میکنم. آیا یک رویکرد بیزی (یا غیر آن) برای به دست آوردن این احتمال وجود دارد که این مشاهدات از توزیع اصلی Gumbel است؟ در نتیجه، من میخواهم تصمیم بگیرم که آیا این مشاهدات را از توزیع اصلی Gumbel میپذیرم یا نه. ### ویرایش من در واقع با داده های بیولوژیکی کار می کنم و هم به صورت تجربی و هم از طریق مجموعه ای از مفروضات نشان داده ام که توزیع در واقع از نوع Gumbel با پارامترهایی است که می توان از خود داده ها و/یا از دیدگاه نظری تخمین زد. برخی از فرضیات اکنون، در حالی که بیشتر داده ها در راستای این توزیع رفتار می کنند، من می خواهم این احتمال را پیدا کنم که مشاهدات با مقادیر بسیار بزرگ ممکن است از همان توزیع گامبل نباشند، اما به دلیل پدیده دیگری است که در این توزیع که می خواهم توضیح داده نشده است. برای تشخیص در این مورد، به روز رسانی داده ها با استفاده از مشاهده جدید مفید نخواهد بود (به ویژه با توجه به اینکه این مشاهده ممکن است از متغیر تصادفی دیگری با توزیع متفاوت باشد). من می توانم احتمال یک طرفه بودن مشاهده را با استفاده از آن محاسبه کنم. $1-F(x)$$ از درک (بسیار محدود) من از آمار و احتمال، می ترسم که نقل این مقدار اشتباه باشد. نگرانی اصلی من این است که این احتمال مشاهده مشاهدات شدیدتر است و _نه_ احتمال اینکه این مشاهده از توزیع نباشد. نظری در این مورد دارید؟ | چگونه می توان نقاط پرت را از یک توزیع Gumbel با پارامترهای شناخته شده شناسایی کرد؟ |
74003 | در SVD به اصطلاح افزایشی که برای فیلتر کردن مشارکتی استفاده می شود: http://www.machinelearning.org/proceedings/icml2007/papers/407.pdf http://www2.research.att.com/~volinsky/papers/ieeecomputer. pdf http://www.quuxlabs.com/blog/2010/09/matrix-factorization-a-simple-tutorial- and-implementation-in-python/ کاربر x آیتم ماتریس R با استفاده از نزول گرادیان به عنوان QP فاکتور می شود. در SVD کلاسیک ماتریس مورب S وجود دارد که مقادیر منفرد را نگه می دارد. چه اتفاقی برای آن ماتریس در این فرمول می افتد؟ آیا صرفاً حذف شده است و هنوز آن را SVD می نامند یا به طور ضمنی بخشی از Q و / یا P است؟ | SVD افزایشی در فیلتر مشارکتی |
104497 | ما می دانیم که اگر دو متغیر از نظر عملکردی مستقل باشند، استقلال تصادفی نیز وجود خواهد داشت. آیا کسی می تواند برای من مثالی بزند که عکس آن درست نیست، یعنی X و Y مستقل هستند (تصادفی) اما از نظر عملکرد مستقل نیستند. خیلی ممنون | رابطه بین استقلال تصادفی و استقلال عملکردی |
104492 | من می خواهم متاآنالیز را روی مطالعاتی انجام دهم که اندازه گیری نتیجه دوگانه دارند. من دادههای خام را برای همه مطالعاتی که در متاآنالیز خود گنجاندهام دارم، بنابراین میتوانم بهترین آمار را برای استفاده انتخاب کنم. با این حال، برای من مشخص نیست که چه آماری برای متاآنالیز مناسبتر است و نمیتوانم مقالهای پیدا کنم که این موضوع را مورد بحث قرار دهد. من از رگرسیون لجستیک باینری در SPSS استفاده کرده ام (اما در صورت لزوم می توانم از R استفاده کنم). در خلاصه مدل SPSS دو اندازه شبه R-square - Cox و Snell R مربع و Nagelkerke R مربع. اینها ممکن است بهترین آمار برای استفاده در یک متاآنالیز باشند. با این حال، من (در این انجمن و جاهای دیگر) خواندهام که مقادیر شبه مربع R لزوماً مفیدترین خروجیهای تولید شده توسط رگرسیون لجستیک نیستند. شاید بهتر باشد از فواصل اطمینان مقادیر بتا برای پیش بینی هایی که به آنها علاقه دارم استفاده کنم؟ یا شاید آمار دیگری؟ هر گونه کمکی بسیار قدردانی خواهد شد. | متاآنالیز رگرسیون لجستیک |
27387 | من سعی می کنم کدهایی را برای ارزیابی مبتنی بر فاصله فرآیند نقطه بنویسم مانند توابع $G$، $F$ و $K$. در اجرای $K$ موردی وجود دارد که **اثر لبه** را برای اندازه گیری $K$ بی طرفانه در نظر بگیریم. یک راه حل ساده (!) اما کامل (همچنین رایج) در نظر گرفتن سطح تقاطع دایره ای است که روی هر نقطه ترسیم شده است ($center(x,y)$) با شعاع مشخص ($r$) با ناحیه مورد مطالعه. اگرچه مفهوم ($K$) صرفاً آماری است، تلاقی یک دایره با ناحیه (در حالت ساده یک مستطیل اما معمولاً یک چند ضلعی) یک مسئله هندسی خالص است. ایده ای در مورد: * **چگونه ناحیه تقاطع یک دایره با چندضلعی شکل دلخواه را پیدا کنیم**؟ * **چگونه وزنه ها را با K$ به طور موثرتری پیدا کنیم**؟ | جلوه های لبه در K-function |
55803 | چندی پیش در ارائه یک مطالعه مورد شاهدی شرکت کردم که ثبت نام برای آن هنوز در حال انجام بود. این مدرس، دانشجوی دکتری با تحصیلات آماری پایه، خاطرنشان کرد: در حالی که در گروه درمان، سن قبلاً به طور طبیعی توزیع شده بود، توزیع متناظر در گروه کنترل هنوز از حالت نرمال فاصله داشت و بنابراین آنها به طور فعال به دنبال افرادی با «حق» بودند. سن برای رسیدن به منحنی گاوسی خوب. من احساس قوی دارم که ادامه به این روش در بهترین حالت مشکل ساز است: نمونه گیری از این طریق نه تصادفی است و نه مستقل، و سن معمولاً نه در جمعیت عمومی (که احتمالاً گروه کنترل از آن انتخاب شده است) و نه در بیماران مبتلا به آن بیماری توزیع می شود. (که البته بروز آن به سن بستگی دارد). از سوی دیگر، شاید به هیچ وجه مشکل ساز نباشد، زیرا می توان آن را به عنوان تطبیق موارد با کنترل ها دید. من از پیامدهای آنالیزهای مختلف مطمئن نیستم، به ویژه: آیا می توان انتظار داشت که استنباط در مورد اثر درمان تحت تأثیر قرار گیرد (سن پیش بینی کننده قوی دوره بیماری است)؟ | پیامدهای نمونه گیری برای دستیابی به توزیع معین در یک متغیر چیست؟ |
74002 | در زیر کل فروش سه ماهه را در سمت چپ (متغیر وابسته) و نمونه ای از فروش در سمت راست دارم. این دو متغیر 98.7 درصد همبستگی دارند. برای پیش بینی X از چه مدلی استفاده کنم؟ برای اون مدل باید ثابت بزارم؟ تنظیمات فصلی؟ موارد پرت حذف شود؟ مهمترین معیار، به حداقل رساندن خطای پیشبینی نمونه است. Q3'10 40.19 0.2386 Q4'10 39.36 0.2000 Q1'11 51.25 0.2173 Q2'11 54.99 0.2630 Q3'11 50.38 0.2242 Q4'11 Q4'11 0.2242 Q4'11 67.39 0.3548 Q2'12 77.14 0.3716 Q3'12 72.54 0.3451 Q4'12 80.21 0.3816 Q1'13 94.57 0.4661 Q2'13 Q2'13 102.494 102.13 | برای این سری زمانی کوتاه باید از چه مدلی استفاده کرد؟ |
73385 | با توجه به توزیع شرطی $p(x|y)$ و قبل از متغیرهای پنهان $p(y|\theta)$ با فراپارامتر ناشناخته $\theta$. اکنون ما i.i.d را مشاهده کرده ایم. نمونه های x$. علاوه بر رویکرد بیز و بیز تجربی، آیا میتوان متغیرهای پنهان $y$ و فراپارامتر $\theta$ را مستقیماً با به حداکثر رساندن احتمال ناقص $p(x,y|\theta)$ تخمین زد؟ از دیدگاه بیزی، معادل یافتن حالت مشترک $p(y,\theta|x)$ است که یک تخت غیر اطلاعاتی قبل از $\theta$ داده شده است. | به حداکثر رساندن احتمال ناقص |
27389 | در اثبات قضیه 6.5 از کتاب دورویه و همکاران، آخرین نابرابری چگونه به دست می آید؟ $$ \begin{تراز شده} \mathbb{E}\left\\{|\eta(X)-1/2|\mathbf{I}_{\\{g(X)\ne g^*(X) \\}}\راست\\} &\leq \mathbb{E}\left\\{\mathbf{I}_{\\{\eta(X)\ne1/2\\}}|\eta(X)-\tilde\eta(X)|\mathbf {I}_{\\{g(X)\ne g^*(X)\\}}\right\\}\\\ &= \mathbb{E}\left\\{|\eta(X)-\tilde\eta(X)|\mathbf{I}_{\\{g(X)\ne g^*(X)\\}}\mathbf{I}_{\\{|\eta(X)-1/2|\leq\epsilon\\}}\mathbf{I}_{\\{\ eta(X)\ne1/2\\}}\right\\}\\\ &\+ \mathbb{E}\left\\{|\eta(X)-\tilde\eta(X)|\mathbf{I}_{\\{g(X)\ne g^*(X)\\} }\mathbf{I}_{\\{|\eta(X)-1/2|>\epsilon\\}}\right\\}\\\ &\leq \sqrt{\mathbb{E}\left\\{(\tilde\eta(X) - \eta(X))^2\right\\}}\\\ &\times \Bigg(\sqrt{\mathbb {P}\left\\{|\eta(X)-1/2|\leq\epsilon,\eta(X)\ne1/2\right\\}}\\\ &+\sqrt{\mathbb{P}\left\\{g(X)\ne g^*(X),|\eta(X)-1/2|>\epsilon\right\\}}\Bigg ) \end{aligned} $$ توجه داشته باشید که $\eta(x) = \mathbb{E}\\{Y|X=x\\}$ تابع رگرسیون است، $\tilde\eta(x)$ یک تقریب از $\eta(x)$، $g^*(x)$ طبقهبندی کننده بیز $$ g^*(x) = \begin{cases} 0 & \text{if } \eta(x)\leq\ است dfrac{1}{2} \\\ 1 & \text{وگرنه} \end{cases}$$ و در نهایت $g(x)$ مانند $g^*(x)$ با $\tilde\eta(x)$ جایگزین $\eta(x)$ شد. $\epsilon>0$ ثابت است. $\mathbf{I}_A$ تابع نشانگر مجموعه $A$ است. | نمونه ای از نابرابری کوشی-شوارتز |
113344 | من 5 مجموعه داده دارم که میخواهم یک توزیع مدل را در آنها قرار دهم. من می خواهم از توزیع یکسان برای هر مجموعه داده استفاده کنم اما با پارامترهای متفاوت. بنابراین من از MLE برای محاسبه بهترین پارامترها برای یک دسته کامل از توزیعها استفاده میکنم و پارامتری را انتخاب میکنم که بهترین با تمام 5 مجموعه داده مطابقت دارد. اینجا جایی است که من کمی گیر کردم. در اولین تلاشم، برای هر یک از مجموعه داده ها و هر توزیع مدل، هنجار L_2$ خطا را بین مجموعه داده اصلی و مقدار پیش بینی شده از مدل محاسبه کردم. این بردار خطای 5 مقداری را به من داد که بزرگی آن را گرفتم و بهترین را متناسب با مقدار کمترین مقدار نامیدم. با انجام این کار، توزیعی را دریافت می کنم که (از نظر من) بهترین تناسب به نظر می رسد (من همه آنها را فقط برای مقایسه ترسیم کردم). این هیجان انگیز است، اما نمی دانم به اندازه کافی سختگیرانه است یا نه. سپس تصمیم گرفتم روش دیگری را امتحان کنم و Kolmogorov-Smirnov را با مجموعه داده اصلی خود و توزیع مدل از MLE انجام دادم. من مقادیر $D$ را در بردار خطای خود ذخیره کردم و بزرگی آن بردار را با حداقل مقدار بهترین اندازه گرفتم. و توزیعی مشابه با رویکرد $L_2$ داد! من هیجان زده بودم تا اینکه متوجه شدم که آزمون KS نباید برای آزمایش توزیع مدل در برابر داده هایی که از آن تولید شده است استفاده شود. بنابراین سپس مطالعه بیشتری انجام دادم و برای هر یک از 5 مجموعه داده اصلی مورد استفاده در MLE، یک مجموعه داده جدید با استفاده از نمونهگیری مجدد بوستراپ با جایگزینی ایجاد کردم. من از این مجموعه دادههای نمونهبرداری مجدد برای مقایسه با توزیعهای مدل استفاده کردم و مقادیر $D$ را در بردار خطای خود ذخیره کردم و مجدداً بزرگی را گرفتم، با بهترین تناسب کمترین مقدار. این بار توزیع متفاوتی را به بهترین شکل ارائه داد. یکی که خیلی خوب به نظر می رسد (از نظر چشم) اما تقریباً به خوبی اصلی به نظر نمی رسد (باز هم از نظر چشم). تجربه من در این نوع کار بسیار محدود است اما اکنون نمی دانم به چه چیزی اعتماد کنم. هر دو توزیع در واقع تناسب خوبی دارند. یکی که توسط هنجار $L_2$ انتخاب شده است، به نظر من بهترین است، اما به سختی سختگیرانه است. این نگرانکننده است که آزمون KS با دادههای اصلی انتخاب شده است، زیرا تست تحت آن شرایط ناقص است. ممکن است که روش $L_2$ و آزمون KS با نمونهگیری مجدد هر دو صحیح باشند و اساساً مانند دریافت پاسخهای مختلف بر اساس انتخاب هنجار باشد (در این مورد، هنجار L_2$ و احتمالاً L_\infty $ هنجار دلار). آیا کاری که من انجام دادم ناقص است یا راهی برای تعیین اینکه کدام رویکرد را بهتر از دیگری انتخاب کنم وجود دارد؟ | نحوه توجیه تناسب توزیع خوب است |
99980 | چگونه تابع چگالی احتمال توزیع Wishart را به تابع توزیع Wishart معکوس تبدیل کنم؟ من می خواهم کل روند را بدانم. | چگونه می توانم Wishart را به صورت تحلیلی به Wishart معکوس تبدیل کنم؟ |
113348 | من یک رگرسیون اثرات ثابت را در Stata اجرا می کنم. اگر به درستی متوجه شده باشم، متغیری که در طول زمان ثابت شده باشد از رگرسیون حذف می شود. بنابراین، نباید بر نتایج رگرسیون تأثیر بگذارد. با این حال، این مورد نیست. من یک رگرسیون اثرات ثابت با یک متغیر ثابت زمان اجرا کردم. Stata این متغیر را از رگرسیون حذف کرد. وقتی به صورت دستی آن را حذف کردم و دوباره رگرسیون را اجرا کردم، نتیجه پیشبینیشده از متغیر دیگری در 5% قابل توجه بود، اما علامت تغییر کرد! آیا توضیح قابل قبولی برای این موضوع وجود دارد؟ | یک رگرسیون اثرات ثابت در Stata که با گنجاندن یک متغیر ثابت زمانی تغییر می کند |
99989 | من مفاهیم خطای عدم تناسب و خطای محض را درک نمی کنم. چیزی که من می دانم این است: $\bullet$ _خطای عدم تناسب:_ خطایی که زمانی رخ می دهد که تحلیل یک یا چند عبارت یا عامل مهم را از مدل فرآیند حذف کند. $\bullet$ _خطای خالص:_ I برای مقادیر مکرر متغیر وابسته، Y برای مقدار ثابت متغیر مستقل، X رخ می دهد. لطفا این دو عبارت را برای من توضیح دهید؟ اگر مشاهدات مکرر وجود نداشته باشد، آیا خطای محض رخ می دهد؟ اگر نه، آیا ممکن است خطای عدم تناسب رخ دهد؟ آیا لازم است آنها به طور همزمان رخ دهند؟ آیا فقدان خطای تناسب نمی تواند تنها به باقیمانده کمک کند؟ یعنی $$\text{Residual Error=Lack of fit error + Pure Error}$$ If Pure Error=0، پس نمی تواند $$\text{Residual Error=Lack of fit error}$$ باشد زیرا ما تست را انجام دهید $$F=\frac{\text{میانگین مربع به دلیل عدم تناسب}}{\text{میانگین مربع به دلیل خطای خالص}}$$ خوب است مقدار بزرگتر خطای خالص. آیا به این معنی نیست که مشاهدات ما بسیار ناهمگن هستند. آیا داشتن واحدهای همگن خوب نیست؟ | عدم تناسب و خطای محض |
27388 | می ترسم در آمار متخصص نباشم، اما مشکل خاصی دارم که علاقه مند به حل آن هستم. من تقریباً مطمئن هستم که این منطقه از قبل دارای ادبیات زیادی است، اما در یافتن چیزی که مستقیماً با کاری که انجام میدهم قابل استفاده باشد، مشکل دارم، بنابراین اگر کسی بتواند مرا در مسیر درست هدایت کند، عالی خواهد بود. برای توضیح این مشکل مثالی می زنم: بگویید من ماشینی دارم که سکه های مغرضانه تولید می کند. تابع چگالی احتمال پیوسته زیرینی دارد که از آن برای انتخاب عدد 0 < p < 1 استفاده می کند، سپس یک سکه ایجاد می کند که با احتمال p بالا می آید. وظیفه من تخمین عملکردی است که ماشین برای تولید این سکه ها استفاده می کند. من اجازه دارم سکه ها را برگردانم، و به تعداد بسیار زیادی سکه دسترسی دارم، اما هر کدام پس از یک مقدار مشخص، تصادفی، از من سلب می شود. تعداد تلنگرها لزوما زیاد نیست. چگونه می توانم این کار را انجام دهم؟ فکر اولیه من این بود که فقط هر توزیع دوجمله ای حاصل را جمع کرده و بر تعداد کل سکه های آزمایش شده تقسیم کنم. اما من تقریباً مطمئن هستم که این نتیجه خوبی نمی دهد. من به طور ضعیفی از تخمین چگالی هسته آگاهم، اما تخصص کافی برای دانستن اینکه آیا می توان از آن برای این نوع کارها استفاده کرد یا نه، یا چه چیزی را باید بدانم از نظر تطبیق آن با این کار، ندارم. | تخمین پی دی اف زیربنایی از آزمایشات دوجمله ای |
22497 | من روش های آماری مونت کارلو را توسط رابرت و کاسلا می خوانم و مسئله 1.3 می پرسد > در مثال 1.1، توزیع متغیر تصادفی $Z=\min(X,Y)$ > مورد علاقه بود. توزیع $Z$ را در حالت زیر استخراج کنید > _سانسور اطلاعاتی،_ که در آن $Y\sim N(\theta,\sigma^2)$ و $X\sim > N(\theta,\theta^2\sigma ^2) دلار. به مسائل شناسایی توجه کنید. اکنون تقریباً مطمئناً چیزی را از دست می دهم، اما درک من این است که سانسور اطلاعاتی زمانی اتفاق می افتد که $X$ و $Y$ مستقل نباشند. با این حال، تنها دانستن مستقل نبودن آنها اطلاعات کافی برای دریافت توزیع مشترک نیست، اما اگر مستقل باشند، من هیچ مشکلی در شناسایی نمی بینم. _افزوده شده:_ اگر $X$ و $Y$ مستقل باشند، نوشتن توزیع $Z$ ساده اما خسته کننده است، این خستگی با این واقعیت تشدید می شود که توزیع $X$ یک تابع دلتا است وقتی $\theta$ 0 دلار است. با این حال، برای یک توزیع معین، میتوانیم $\theta$ را به عنوان چهارمین سوم توزیع (بدیهی منحصربهفرد) پیدا کنیم، و با توجه به $\theta$، $\sigma^2$ فقط یک پارامتر مقیاسبندی است، بنابراین هیچ مشکلی در شناسایی وجود ندارد. که می توانم ببینم بنابراین، به طور خلاصه، سؤالات من این است: * تعریف سانسور اطلاعاتی دقیقاً چیست و چرا سانسور در این تمرین آموزنده است؟ * اگر قرار است ما X$ و $Y$ را مستقل در نظر بگیریم، چه مسائلی در مورد قابلیت شناسایی باید مورد توجه قرار گیرد؟ _اضافه_تر_ با توضیح Ocram در مورد _سانسور اطلاعاتی_ اکنون مشخص شده است که مسائل قابل شناسایی که باید به آن توجه شود این بود که هیچ موردی وجود نداشت. اگر پارامترهای توزیعهای شکست و سانسور مجزا بودند، مشکلات شناسایی وجود داشت زیرا میتوانیم دو توزیع را تعویض کنیم و نتیجه یکسانی به دست آوریم. اگر فردی آگاه تر از من احساس می کند که به خصوص کیشوت است، لطفاً صفحه ویکی پدیا سانسور را روشن کنید. | مشکل با سانسور اطلاعاتی |
99986 | آنتروپی به صورت $H$ = -$\int p(x)$ $log$ $p(x)$ $dx$ تعریف میشود. توزیع کوشی به صورت $f(x)$ = $\frac{\gamma}{ تعریف میشود. \pi}$ $\frac{1}{\gamma^2 + x^2} $ لطفاً مراحل محاسبه آنتروپی توزیع کوشی را نشان دهم که $log$($\gamma$) + $log$($4$$\tau$) | آنتروپی توزیع کوشی (لورنتس). |
114044 | اجازه دهید $a \sim\mathcal{N}(6.532056,0.06532056)$,$b \sim\mathcal{N}(8.390961,0.08390961)$ و $c \sim\mathcal{N}(8.736566،0.066)$. ما از نماد $\mathcal{N}(\mu,\sigma^2)$ استفاده میکنیم مگر اینکه خلاف آن مشخص شده باشد. ما دو متغیر عادی $x = a-b$ و $y = a-c$ می سازیم. بنابراین، $x \sim\mathcal{N}(-1.858905,0.14923017)$ و $y \sim\mathcal{N}(-2.20451,0.15268622)$ همبستگی بین $x$ و $y$ یعنی $\textrm{cor }(x,y)= \frac{\textrm{var}(a)}{\sigma_x \times \sigma_y}$ با استفاده از خصوصیات اساسی کوواریانس. حل، $\textrm{cor}(x,y)=0.4327346392418512 \تقریباً 0.433$ که میتوان آن را در ماتریس نوشت (بگذارید $ mat $ نامیده شود) برای \begin{bmatrix} 1.0 و 0.433 \\\\[0.3 em] 0.433 & 1.0 \\\\[0.3em] \end{bmatrix} اکنون میخواهم $\Pr[-\infty<x<0 \textrm{ و } -\infty<y<0]$ را پیدا کنم. من از روش pmvnorm بسته mvtnorm با فراخوانی pr<-pmvnorm(mean=c(-1.858905,-2.20451)، corr=mat، low=rep(-Inf، 2)، upper=rep(0,2) استفاده کردم. )) نتیجه 0.9575448 شد. به همین ترتیب وقتی میخواهم در «Mathematica/Java» (پیادهسازی الگوریتم Genz موجود در اینترنت) محاسبه کنم، نتیجه 0.9999992445813132 است. من کد Mathematica را در زیر آورده ام. لطفاً در اینجا توجه داشته باشید، استدلال دوم در این مورد، انحراف معیار است. px = NormalDistribution[-1.858905000000001، 0.38630320992712447] py = NormalDistribution[-2.20451، 0.3907508413298685] pxy[pxy =Productability[b] 0 && -Infinity < y < 0, {x, y} \[Distributed] pxy] اشتباهی که انجام می دهم چیست؟ برای دامنه برنامه من (تجسم) این تفاوت بسیار پرهزینه است، به خصوص به این دلیل که من آن را روی بیش از 700000 نقطه داده اجرا می کنم. | تفاوت در خروجی با mvtnorm و Mathematica/Java |
73387 |  من هم خودم نتیجه را ثابت کردم، اما اثبات من بسیار طولانی تر بود. با این حال، ظاهراً فقط در این دو خط قابل انجام است. با این حال، من واقعاً قدم اول را در اینجا نمیبینم. لطفاً کسی می تواند به من توضیح دهد که چرا اولین برابری برقرار است؟ | $Cov(\hat{\epsilon})$ در مدل رگرسیون خطی |
73389 | من وظیفه داشتم مجموعه ای از داده ها را با حدود 6000 رکورد که هر کدام 60 یا بیشتر کیفیت مرتبط با آنها دارند (اجازه دهید X1، X2، ... باشند) بررسی کنم و تعیین کنم که 8 عامل اصلی که تعیین می کنند یک رکورد چیست. یک نام مشخص خواهد داشت (سه عدد وجود دارد، فرض کنید، A، B، و C). اکثر این X ها فقط دو مقدار ممکن دارند، بنابراین به راحتی می توان با آنها مقابله کرد. با این حال یک X وجود دارد که دارای 6 مقدار و یک X با 8 مقدار است که من تشخیص دادهام که نسبتاً مهم هستند. در حال حاضر، من فقط علاقه مند به یافتن عواملی در میان داده هایی هستم که منجر به یک رکورد به عنوان رویداد A می شود. احتمالات همه ضریب A را محاسبه کنید و سپس از قضیه بیز برای محاسبه احتمال رخداد A با توجه به X استفاده کنید. مطمئن نیستم چگونه باید به تحلیل خود ادامه دهم. من همچنین به بررسی تقاطعهای رویدادها پرداختم، اما احساس میکنم که این زمان بزرگی است که بینش کمی به دست میدهد، زیرا این امر مستلزم شمارش تمام تقاطعها است و وقتی میخواهید به 5+ فاکتور نگاه کنید، میزان شمارش شما باید باشد. انجام دادن مضحک است (به عنوان مثال، اگر می خواهید به 5 عامل نگاه کنید، باید 2^5 رویداد مختلف را پیدا کنید، زیرا ممکن است رویدادها در یک راستا قرار گیرند. این باعث ایجاد مشکلاتی می شود، به ویژه زمانی که من من به عواملی نگاه می کنم که 6 یا 8 احتمال مختلف دارند). من چند کلاس جاوا ساده نوشتم تا در یک فایل متنی جدا شده از برگه ها بخوانم و تمام شمارش ها و محاسبات را برای رویدادهای فردی و برخی از تقاطع ها برای من انجام دهم و همچنین یک صفحه گسترده اکسل دارم که ابتدا آن را تنظیم کردم، اما به نظر می رسید که برای انجام محاسبات نسبتاً کند باشید. علاوه بر افزودن کد خاص (یا فرمول های خاص در اکسل) برای انتخاب هر رویداد جداگانه، مطمئن نیستم که چگونه می توانم این احتمالات را به طور موثر محاسبه کنم. و مطمئن نیستم که آیا محاسبه این احتمالات مشروط تقاطع ها به من کمک می کند تا به این سوال کلی پاسخ دهم که 8 عامل اصلی که به رویداد A کمک می کنند کدامند. | یافتن مرتبط ترین عواملی که منجر به یک رویداد می شود |
32702 | > **تکراری احتمالی:** > اگر تعامل اثرات مستقیم من را در رگرسیون از بین ببرد چه؟ من به دلیل داشتن اثرات متقابل در مدل تحقیقم، تحلیل رگرسیون سلسله مراتبی را روی داده هایم انجام دادم. همه متغیرها پیوسته هستند.  R2 از 0.695 در model1 (فقط جلوه اصلی) به 0.734 در model2 (اثرات و تعامل اصلی) افزایش یافته است (sig. F تغییر = 0.000). تمام مفروضات برای تحلیل رگرسیون برآورده شده است. با این حال، من دو مشکل با جدول ضرایب دارم:  1. همانطور که در جدول مشاهده می کنید، بتای ناچیز مقدار **ZSC** در model1 در model2 معنی دار شد! خوبه؟ من گیج شدم! کدام مقدار را برای رد/پذیرش فرضیه مربوطه باید در نظر بگیرم؟ B مدل 1 (که فرضیه را رد می کند) یا 2 (که آن را تایید می کند!!)؟ 2. اگرچه مقدار بتا برای **ZSC_X_CS** قابل توجه است، اما علامت مثبت آن خلاف فرضیه است! طبق ادبیات و همچنین منطق، قرار است علامت منفی داشته باشد! چگونه باید با این فرضیه برخورد کنم؟ قبول؟ رد کردن؟ تا حدی قبول؟!!! | چگونه یک اثر اصلی ناچیز را که با حضور اثرات متقابل در تحلیل رگرسیون تعدیل شده معنادار شد، تفسیر کنیم؟ |
55805 | من باید چند آزمایش ریشه واحد را برای یک پروژه انجام دهم، فقط در مورد نحوه تفسیر داده ها مطمئن نیستم (این چیزی است که از من خواسته شده است). این یکی از نتایج من است: تست dfuller تقاضای Dickey-Fuller برای ریشه واحد تعداد obs = 50 ----------- Interpolated Dickey-Fuller ---------- تست 1% بحرانی 5% بحرانی 10% ارزش آماری بحرانی ارزش ارزش ------------------------------------------------ ----------------- Z(t) -1.987 -3.580 -2.930 -2.600 ------------------------------------------------ ----------------- p-value تقریبی MacKinnon برای Z(t) = 0.2924 در مورد مقادیر بحرانی و نتایج p-value چه می گویم؟ | نتایج حاصل از آزمایشات ریشه واحد را چگونه تفسیر می کنید؟ |
73386 | من تعداد سلول های مربوط به عملکرد میکروارگانیسم های مختلف را دارم و می خواهم توزیع آنها را با هم مقایسه کنم. فرض بر این است که آنها پس از تبدیل log از یک توزیع نرمال پیروی می کنند، اما من نمی توانم تمام داده ها را به دلیل محدودیت ابزار اندازه گیری ثبت کنم، بنابراین منحنی نرمال بسیار مشابهی به دست می آوریم، اما در نقطه ای که نمی توانم ثبت نام کنم، قطع می شود. داده ها، و اگر آزمون K-S را اجرا کنم، از فرضیه نرمال بودن پشتیبانی نمی کند (اما n بزرگ است). سوالات من: به نظر من این می تواند یک مشکل معمولی باشد، بنابراین چگونه می توانید در این موارد عادی بودن را نشان دهید؟ یا غیر ممکن است؟ فکر می کنم تست کروسکال-والیس می تواند در مورد من کارساز باشد، اما نمی دانم که آیا باید چیز دیگری را در نظر بگیرم یا خیر. کسی به من پیشنهاد داده است که از ANOVA استفاده کنم به دلیل اینکه n من بسیار زیاد است (n>2000) در هر میکروارگانیسم، با وجود عدم نرمال بودن، آیا این درست است؟ بعد از خواندن نظرات فکر می کنم سانسور درستی دارم. من دیده ام که در تجزیه و تحلیل بقا از تخمینگر Kaplan-Maier استفاده شده است، اما این مورد متفاوت است. آیا بهتر است فقط داده های سانسور شده را حذف کنید و یک تست غیر پارامتری اجرا کنید؟ | مقایسه تعداد سلول ها با سانسور درست |
27384 | من در حال تجزیه و تحلیل نتایج یک آزمایش با استفاده از ANOVA ترکیبی (ثابت و اثرات تصادفی) با اثرات تو در تو هستم و فقط به کسی نیاز دارم تا تأیید کند که من مدل مناسب را دارم. جلوه های طراحی عبارتند از: * محصول - ثابت، 5 سطح - این اثر اصلی مورد علاقه است * دسته ای - تصادفی، 3 سطح - تو در تو در داخل محصول * روز - تصادفی، 6 سطح - این یک عامل مسدود کننده در طراحی در هر روز، چندین نمونه از هر محصول / دسته به ترتیب تصادفی آزمایش می شود. بنابراین ما یک آزمایش کامل و متعادل در هر روز داریم. این مدل ANOVA است که فکر میکنم به آن نیاز دارم: روز + محصول + دسته (محصول) + روز x دسته (محصول) آیا من درست فکر میکنم که عبارت خطای مناسب برای محصول مربع میانگین دستهای در محصول است؟ من از مجموع مربع های نوع III استفاده کرده ام. من واقعاً علاقه مند به آزمایش تفاوت بین محصولات هستم، بنابراین مدل در فاکتورهای تصادفی عمدتاً فقط برای اطمینان از بدست آوردن باقیمانده صحیح برای این مقایسه مهم است. با این حال، آزمایشات برای اثرات ناشی از Day و Batch-in-Product در درجه دوم اهمیت قرار دارند. | فرموله کردن یک مدل ترکیبی با اثرات ثابت و تصادفی تو در تو |
104491 | یک توزیع دارای تابع مشخصه $\phi(t)$ = $(1-t^2/2)exp(-t^2/4), -\infty < t < \infty$ نشان می دهد که توزیع کاملاً $ است. $ پیوسته و تابع چگالی توزیع را بنویسید. تلاش: $\int_{-\infty}^{\infty}|(1-t^2/2)exp(-t^2/4)|dt $ = $(-2/t)(1-t^ 2/2)exp(-t^2/4)-2exp(-t^2/4)|_{-\infty}^{0}$ نتیجه مشابه برای $[0,\infty]$ زیرا t است مربع من کاملاً مطمئن نیستم که ادغام را درست انجام داده باشم، اما اگر بتوانم نشان دهم که مقدار مطلق $\phi(t)$ کمتر از $\infty$ است، آنگاه تابع کاملاً پیوسته است. | نمایش تابع مشخصه کاملاً پیوسته است |
26381 | من سعی می کنم برخی از داده های سری زمانی را مدل کنم، و در مورد خط تاخیر ضربه خورده و پنجره کشویی برای تبدیل داده های ورودی مطالعه کرده ام. طبق درک من، یک پنجره کشویی با اندازه پنجره 1 ورودی ها را در هر مرحله زمانی یک بار جابجا می کند و آنها را به یک شبکه عصبی پیشخور تغذیه باز می گرداند. هدف| ورودی 2| 1 0 3| 2 1 4| 3 2 5| 4 3 6| 5 4 7| 6 5 در درک من، یک خط تاخیر ضربه خورده با تاخیر 2 دو ورودی و خروجی اخیر را می گیرد و آنها را به یک شبکه عصبی بازگشتی باز می گرداند y(t) = f(x(t-1),y(t-1) ) آیا تفاوتی وجود دارد؟ چرا اسم های مختلف وجود دارد؟ لطفا اگر اشتباه می کنم اصلاح کنید. | تفاوت بین خط تاخیر ضربه خورده و پنجره کشویی در شبکه عصبی چیست؟ |
29520 | > **تکراری احتمالی:** > اگر تعامل اثرات مستقیم من را در رگرسیون از بین ببرد چه؟ من فقط تعجب می کنم که چرا افزودن یک اصطلاح تعاملی به مدل رگرسیون، اثر اصلی را از معنی دار به ناچیز تغییر می دهد؟ من یک رگرسیون پواسون را با استفاده از یک پایگاه داده اجرا می کنم (بیش از 40000 نفر). همه 3 توضیح می دهند. متغیرها قبل از افزودن برهمکنش بین زمان و گروه سنی معنی دار بودند. پس از افزودن ضریب نفوذ، زمان ناچیز شد (از 0001/0p< به 6/0 تغییر یافت) گروه های سنی معنی دار باقی ماندند. اصطلاح تعامل فقط بین زمان و یکی از گروه های سنی معنی دار است. ضمنا زمان وسط و مربع رو تست کردم معنی دار نبود. پیشنهادی دارید؟ | عبارت تعامل، اهمیت متغیر اثر اصلی را تغییر می دهد |
26380 | من به دنبال توضیح هستم: آیا قبل از انجام تجزیه و تحلیل مؤلفه اصلی (PCA) باید تجزیه و تحلیل همبستگی را اجرا کنیم یا این به طور ضمنی تحت چارچوب PCA قرار می گیرد؟ من در راه نوشتن یک طرح تحقیقاتی هستم: * پیش بینی کننده هایی را با رابطه خطی بالا با فرآیند جدا کنید. * PCA را اجرا کنید تا پیش بینی کننده های همبسته را به متغیرهای مؤلفه اصلی غیر همبسته تبدیل کنید. من نمی دانم که آیا تجزیه و تحلیل همبستگی باید به طور جداگانه روی مجموعه داده انجام شود تا پیش بینی کننده های بسیار همبسته قبل از اعمال PCA انتخاب شوند. | آیا PCA یا همبستگی ها باید ابتدا در زمینه پیش بینی های همبسته در رگرسیون بررسی شوند؟ |
32007 | من می خواهم فرضیه بیولوژیکی خود را با رویکرد آماری تأیید کنم. خط قرمز روی تصویر نشان دهنده فرکانس متوسط برخی از پدیده های بیولوژیکی برای کل کروموزوم است. کروموزوم از میلیون ها پایه تشکیل شده است که می توان آنها را به عنوان موقعیت درک کرد. به طوری که در مجموع میلیون ها موقعیت داریم. سپس من با استفاده از قانون خاصی، 100 موقعیت را انتخاب می کنم. برای این 100 موقعیت فرکانس همان پدیده بیولوژیکی را تعیین می کنم (به طوری که من 100 نقطه ایزوله دارم، به ازای هر x y وجود دارد و همانطور که در تصویر مشاهده می شود با خطوط به هم متصل می شوند). از آنجا که تصویر فقط این موقعیت ها را نشان می دهد، خط قرمز نشان دهنده میانگین تصویر نیست (این نشان دهنده میانگین کل کروموزوم است). من می خواهم نشان دهم که فرکانس در موقعیت های خاص من به طور قابل توجهی بالاتر از حد متوسط است (به طوری که فرآیند بیولوژیکی که مشاهده می کنم واقعاً وجود دارد). داده های من از پایگاه داده است، بنابراین خروجی من همان چیزی است که با استفاده از این پایگاه داده محاسبه کردم - هیچ اندازه گیری یا داده دیگری از این نوع وجود ندارد. محور y تعداد را نشان می دهد نه نسبت ها. نقاط مجاور در نمودار همسایههای کروموزوم هستند، بنابراین میتوان انتظار داشت که دو همسایه روی کروموزومها فرآیند بیولوژیکی مشابه/مشابهی را تجربه کنند. من یک دانشمند کامپیوتر هستم (با یک دوره آمار، بنابراین ایده ای دارم) - نحوه انجام دقیق آن قدردانی خواهد شد. با این حال، توصیه در مورد روش استفاده ممکن است به اندازه کافی منصفانه باشد :-)  | از کدام روش آماری برای اثبات تفاوت معنادار برای عکس خود استفاده کنم؟ |
55800 | من سعی میکنم درباره چیزی که آن را «پایداری تخمینی» مینامم، استدلال کنم، و امیدوارم بتوانید به من بگویید که آیا زبان فنی مرتبطی وجود دارد یا نه، تا بتوانم در مورد آن یاد بگیرم و سپس یک آموزش در مورد این موضوع برای کمتر اشتباه بنویسم. منظور من از تخمین ثبات چیست؟ این سه گزاره مختلف را در نظر بگیرید: 1. ما 50% مطمئن هستیم که یک سکه (که منصفانه شناخته می شود) روی سر فرود می آید. 2. ما 50% مطمئن هستیم که مت در مهمانی حاضر خواهد شد. 3. ما 50 درصد مطمئن هستیم که هوش مصنوعی قوی تا سال 2080 اختراع خواهد شد. این تخمین ها متفاوت هستند. یکی از دلایلی که آنها احساس متفاوتی دارند این است که برآوردها درجات مختلفی از ثبات دارند. در مورد (1) ما انتظار نداریم اطلاعاتی به دست آوریم که تخمین احتمال ما را تغییر دهد. اما برای موارد (2) و (3)، ممکن است به اطلاعاتی برسیم که باعث میشود تخمین را به بالا یا پایین تنظیم کنیم. بنابراین تخمین (1) پایدارتر است، اما من مطمئن نیستم که چگونه باید این مقدار را تعیین کرد. آیا باید در مورد اجرای شبیهسازی مونت کارلو از شواهد آینده و نگاه کردن به چیزی مانند واریانس توزیع تخمینهای حاصل از آن فکر کنم؟ چه اتفاقی میافتد وقتی که یک توزیع احتمال کامل برای مثال باشد. زمانی که هوش مصنوعی قوی اختراع شد؟ (آیا ثبات چگالی احتمال را برای هر سال محاسبه میکنید، سپس نتیجه را میانگین میدهید؟) در اینجا برخی ملاحظات دیگر وجود دارد که برای ارتباط رسمیتر با ملاحظات ثبات تخمین مفید است: * اگر متغیری را تخمین بزنیم، یک توزیع احتمال محدود (قبل از شواهد آتی که در تلاشیم ثبات را ارزیابی کنیم) با داشتن داده های زیادی مطابقت دارد. داده های جدید، در آن صورت، سهم کمتری از نظر تغییر میانگین و کاهش واریانس خواهند داشت. * تفاوت هایی در عدم قطعیت مدل بین این سه مورد وجود دارد. من می دانم هنگام پیش بینی ورق سکه از چه مدلی استفاده کنم. روش من برای پیش بینی اینکه آیا مت در یک مهمانی ظاهر می شود یا نه، متزلزل تر است، اما من تا حدودی از کاری که انجام می دهم می دانم. در مورد Strong AI، من واقعاً ایده خوبی از کاری که انجام می دهم ندارم. احتمالاً عدم قطعیت مدل به ثبات تخمین مربوط می شود، زیرا هر چه عدم قطعیت مدل بیشتر باشد، می توانیم با کاهش عدم قطعیت مدل، تخمین خود را تغییر دهیم. * تفاوت دیگر بین این سه مورد، درجه ای است که اقدامات ما به ما امکان می دهد برآوردهای خود را بهبود بخشیم و ثبات آنها را افزایش دهیم. به عنوان مثال، میتوانیم با تماس با مت، عدم قطعیت را کاهش دهیم و ثبات تخمین خود را در مورد مت افزایش دهیم، اما واقعاً هیچ راه خوبی برای به دست آوردن تخمینهای بهتر از جدولهای زمانی قوی هوش مصنوعی نداریم (غیر از انتظار). * ارزش اطلاعات بر نحوه برخورد ما با تأخیر تأثیر می گذارد. به نظر می رسد برآوردهایی که در مواجهه با شواهدی که انتظار داریم در آینده به دست آوریم، ناپایدار هستند، دلالت بر VoI بالاتری داشته باشند. این دلیلی برای پذیرش تاخیر در اعمال ما ایجاد می کند. یا اگر بتوانیم به راحتی اطلاعاتی را جمع آوری کنیم که تخمین های ما را دقیق تر و پایدارتر می کند، به این معنی است که دلیل بیشتری برای پرداخت هزینه جمع آوری آن اطلاعات داریم. اگر انتظار داشته باشیم اطلاعات را فراموش کنیم، یا انتظار داشته باشیم که خود آینده ما اطلاعات را در نظر نگیرد، ناسازگاری پویا مهم می شود. این دلیل دیگری است که چرا تخمین ها ممکن است ناپایدار باشند. یک استراتژی ممکن در اینجا این است که پیشاپیش متعهد شویم که برآوردهایمان به میانگین بازگردد. با تشکر برای هر فکری! | چه زبان فنی برای توصیف درجه ای که احتمالات احتمالاً توسط داده های آینده اصلاح می شوند؟ |
99984 | من از boot.ci برای محاسبه تخمینهای بازهای BCa از میانهها استفاده میکردم، اما زمانی که دادهها مقادیر بسیار یکسانی داشتند با مشکلاتی مواجه شدم - که میتواند به راحتی برای دادههای ترتیبی، اما همچنین دادههای بازهای گسسته یا با دقت پایین اتفاق بیفتد. اگر من اغتشاشات عددی بسیار کوچک تصادفی را به داده ها اضافه کنم تا همه مقادیر متفاوت باشند، BCa دوباره کار می کند و فواصلی مطابق با روش صدک به من می دهد. من دو سوال دارم: 1) آیا این راه حل قانونی است؟ 2) آیا نمی توان کد BCa را برای رسیدگی به این موارد مرزی تغییر داد؟ اگرچه روش صدک برای این مجموعه دادهها کار میکند، من ترجیح میدهم بسته به پیامهای خطایی که دریافت میکنم مجبور نباشم روشها را تغییر دهم، و همچنین بسیار بهتر است که یک روش را در یک مقاله گزارش کنم. به نظر می رسد BCa بهترین روش برای محاسبه فواصل اطمینان بوت استرپ باشد و اعتقاد بر این است که در بیشتر موارد کار می کند: Kirby KN، Gerlanc D. BootES: یک بسته R برای فواصل اطمینان بوت استرپ در اندازه افکت. روشهای Behav Res, 2013. در اینجا کد R وجود دارد که این مشکل را نشان میدهد: # بارگذاری کتابخانه بوت بسته (بوت) # کد تعیینکننده را بسازید set.seed(0) # میانه را بهعنوان آمار مورد علاقه نمونه مدیان تعریف کنید <- تابع(x, د) {return(median(x[d]))} # استفاده از بسیاری از تکرارهای تکراری <- 10000 # A دادههای داده مشکلساز 1 <- c(1، 2، 2، 2، 2، 2، 2، 2، 3، 3، 4، 4، 5) خطا: # خطا در bca.ci(boot.out، conf، index[1L]، L = L، t = t.o، t0 = t0.o، : # تنظیم تخمینی 'w' بی نهایت است b <- boot(data1, samplemedian, R = replicates) boot.ci(b, type = bca) # یک اغتشاش ناچیز به اپسیلون داده اضافه کنید <- 1e-10 data1 <- data1 + runif(length(data1)، -epsilon، epsilon) # boot.ci اکنون (2، 3) را به عنوان بازه اطمینان BCa b <- boot(data1، samplemedian، R = replicates) boot.ci(b، type = bca) # یکی دیگر از داده های مجموعه داده مشکل ساز2 <- c(1, 1, 2, 2, 2, 2, 2 , 2, 2, 3, 3, 4, 4, 5) # تخمین نقطه 2 samplemedian(data2) # boot.ci برمی گرداند (1، 1) و اخطارهای زیر را صادر می کند: # اخطار: فواصل BCa استفاده می شود چندک های شدید # برخی از فواصل BCa ممکن است ناپایدار باشند # پیام هشدار: # در norm.inter(t, adj.alpha): آمار مرتبه شدید به عنوان نقطه پایانی استفاده می شود. <- boot(data2, samplemedian, R = replicates) boot.ci(b, type = bca) # افزودن یک ناچیز اختلال در اپسیلون داده <- 1e-10 data2 <- data2 + runif(length(data2)، -epsilon، epsilon) # boot.ci اکنون (2، 3) به عنوان فاصله اطمینان BCa b <- boot(data2، samplemedian, R = replicates) boot.ci(b, type = bca) پیشاپیش از کمک شما متشکریم! پیر | چرا boot.ci BCa روی داده های گسسته خراب می شود؟ |
220 | اگر $X_1، ...، X_n$ متغیرهای تصادفی مستقل با توزیع یکسان باشند، در مورد توزیع $\min(X_1، ...، X_n)$ به طور کلی چه می توان گفت؟ | حداقل مجموعه ای از متغیرهای تصادفی چگونه توزیع می شود؟ |
26387 | فرض کنید من یک مدل لاجیت تو در تو دارم. من می توانم احتمال انتخاب خاصی را برای هر تصمیم گیرنده تخمین بزنم. اکنون، میخواهم یک یا چند گزینه را حذف کنم (اگرچه هر لانه حداقل یک گزینه را نگه میدارد). چگونه می توانم احتمالات انتخاب جدید را تخمین بزنم/شبیه سازی کنم؟ به عنوان یک مثال ساده، من ممکن است یک مدل لاجیت (غیر تودرتو در این مورد، اما شما این ایده را دریافت کنید) در مورد انتخاب میوه تخمین بزنم. فردی را در نظر بگیرید که در واقع یک موز را به جای یک سیب و یک پرتقال انتخاب کرده است. من می توانم احتمال انتخاب هر نوع میوه را تخمین بزنم. فرض کنید که یک موز دیگر یک انتخاب نیست. حالا چه شانسی دارد که سیب را انتخاب کند؟ و پرتقال؟ با تشکر | تخمین تغییرات احتمالات انتخاب با حذف انتخاب در لوجیت تودرتو |
55807 | دفاع از مشکل راهزن چند مسلح از ویکیپدا: در نظریه احتمال، مسئله راهزن چند مسلح (که گاهی مشکل راهزن K-[1] یا N-armed نامیده میشود) مشکلی است که یک قمارباز در ردیفی از ماشینهای بازی با آن مواجه است، که گاهی اوقات شناخته شده است. به عنوان راهزنان یک دست، زمانی که تصمیم می گیرید با کدام دستگاه ها بازی کنید، هر دستگاه را چند بار و به چه ترتیبی بازی کنید یک پاداش تصادفی از یک توزیع خاص برای آن ماشین فراهم می کند. به عبارت دیگر مشکلات راهزن چند مسلح (MAB) یک کلاس از مسائل تخصیص منابع متوالی است که مربوط به تخصیص یک یا چند منبع در میان چندین جایگزین است. پروژه های (رقابتی) / تسلیحات. چنین مشکلاتی بین تصمیمگیری (تخصیص منابع) که پاداشهای جاری بالایی را به همراه دارد، در مقابل تصمیمگیریهایی که دستاوردهای فعلی را با چشمانداز پاداشهای بهتر در آینده قربانی میکنند، تضاد دارند. آیا اجرای جاوا برای این الگوریتم ها وجود دارد؟ | الگوریتم های راهزن چند مسلح در جاوا؟ |
99983 | من داده هایی دارم که نشان دهنده برخی از جنبه های رفتار انسان است. من میخواهم آن را (بدون نظارت) در نمایههای رفتاری دستهبندی کنم. در حال حاضر، برخی از متغیرهای من مقوله ای هستند (با 2 یا چند دسته)، و برخی پیوسته هستند (بیشتر درصد هستند). تعداد کمی از متغیرها از این نظر پیچیده تر هستند که یک دسته دارای پیوستگی بیشتری است و دیگری چنین داده اضافی ندارد. سوال من این است که چگونه می توان این داده ها را دسته بندی کرد. رویکردهای (متداول؟) برای مقابله با آن چیست؟ من به کد یا هیچ چیز دیگری نیازی ندارم، بلکه به برخی از مراجع یا دستورالعملهایی نیاز دارم که به من کمک میکنند تا بفهمم چگونه با این چالش کنار بیایم. اگر توابع «R» را می شناسید که چنین تحلیلی را تسهیل می کند، عالی است، اما ضروری نیست. با تشکر | خوشهبندی دادههایی که دارای ترکیبی از متغیرهای پیوسته و طبقهای هستند |
51604 | اگر موضوعی که در X رتبه بالاتری دارد در > Y نیز رتبه بالاتری داشته باشد، اگر موضوعی که در X رتبه بالاتری دارد در > Y رتبه پایین تری داشته باشد، جفت ناسازگار است. اگر آزمودنی ها در X طبقه بندی یکسانی داشته باشند جفت مساوی است. /یا > Y. بگویید من یک جدول دارم (به عنوان مثال، $n_{11}$ اولین خانه است: $i=1$، $j=1$) \begin{array}{rrrr} 1 &3 &10 &6 \\\ 2 &3 &10 &7 \\\ 1 &6 &14 &12 \\\ 0 &1 &9 &11 \end{array} آیا میتوانید به من کمک کنید تا نحوه انتخاب همخوان و جفت ناسازگار؟ درک من برای همخوانی این است: ابتدا $n_{11}$ را انتخاب میکنیم، سپس $n_{22}$ 3$ است که بزرگتر از $1$ است ($Y$ بالاتر و $X$ بالاتر). بنابراین ما $1(3+10+7+6+14+12+1+9+11)$ داریم، درست است؟ سپس $n_{13}$ چطور؟ برای $n_{13}$، 7$ ($n_{24}$) داریم که کمتر از $n_{13}$ ($Y$ پایینتر) است. پس ما این جفت را حساب نمی کنیم درست است؟ من در مورد ناسازگار گیج شده ام، چگونه می توانید جفت های ناسازگار را انتخاب کنید؟ | روندهای ترتیبی و یافتن جفت های همخوان و ناسازگار |
38091 | > **تکراری احتمالی:** > اگر تعامل اثرات مستقیم من را در رگرسیون از بین ببرد چه؟ من سه فرضیه در آزمایش خود دارم و تفسیر تعامل در رابطه با بقیه نتایج چیزی است که با آن مشکل دارم. 1. اولین مورد این است که IV در مدل (با دو سطح) به یک DV مربوط می شود اما به دیگری مربوط نمی شود (زمان 1، اما نه زمان 2). اندازه گیری های مکرر GLM نشان داد که IV با DVs _both_ مرتبط است. 2. فرضیه دوم این بود که یک متغیر کمکی به یک DV مربوط می شود و نه با دیگری. با استفاده از اندازه گیری مکرر GLM این فرضیه تایید شد. 3. یک تعامل بین IV، DV و متغیر کمکی را پیش بینی کرد. (یک اندازه گیری مکرر GLM با IV (ضریب ثابت)، DVs (داخل فاکتور)، متغیر کمکی). چیزی که من پیدا کردم هیچ اثر متغیر کمکی، هیچ اثر متقابل نبود، اما اثر اصلی من برای IV و DV ها از بین رفت (075/0=p) (فرضیه اول). حالا می دانم که p=0.05 همه چیز نیست، بنابراین دو سوال دارم. چگونه می توانم این واقعیت را تفسیر کنم که تأثیر اصلی من برای فرضیه یک ناپدید شد اگر: 1. شما 0.05=p را نقطه برش سیاه و سفید در نظر نمی گیرید؟ 2. شما _do_ p=0.05 را نقطه برش سیاه و سفید در نظر می گیرید؟ آیا نحوه تفسیر من از نتایج فرضیه یک یا معنای آنها را تغییر می دهد؟ آیا آن را زائد می کند؟ | تعامل اثرات اصلی را در اقدامات مکرر GLM سرکوب می کند؟ |
5450 | در یک رگرسیون، اصطلاح تعامل هر دو اثر مستقیم مرتبط را از بین می برد. آیا تعامل را کنار بگذارم یا نتیجه را گزارش کنم؟ این تعامل بخشی از فرضیه اصلی نبود. | اگر تعامل اثرات مستقیم من را در رگرسیون از بین ببرد چه؟ |
104493 | f = fopen('train-images-idx3-ubyte','r'); [a,count] = fread(f,4,'int32'); g = fopen('train-labels-idx1-ubyte','r'); [l,count] = fread(g,2,'int32'); fprintf(1، 'شروع به تبدیل تصاویر آموزشی MNIST (چاپ 60 نقطه)\n'); n = 1000; Df = سلول (1،10); برای d=0:9، Df{d+1} = fopen(['digit' num2str(d) '.ascii'],'w'); پایان؛ برای i=1:60، fprintf('.'); تصاویر خام = fread(f,28*28*n,'uchar'); rawlabels = fread(g,n,'uchar'); rawimages = reshape(rawimages,28*28,n); برای j=1:n, fprintf(Df{rawlabels(j)+1},'%3d',rawimages(:,j)); fprintf(Df{rawlabels(j)+1},'\n'); پایان؛ پایان؛ fprintf(1,'\n'); برای d=0:9، fclose(Df{d+1}); D = load(['digit' num2str(d) '.ascii'],'-ascii'); fprintf('%5d ارقام کلاس %d\n',size(D,1),d); save(['digit' num2str(d) '.mat'],'D','-mat'); پایان؛ کسی میتونه این کد رو توضیح بده | آشنایی با کد متلب برای تبدیل تصاویر ورودی خام به فرمت متلب |
99981 | من رگرسیون هسته دو متغیره را با استفاده از تابع sm.regression انجام می دهم: http://cran.r-project.org/web/packages/sm/sm.pdf گزینه ای برای مقایسه تخمین ناپارامتریک با مدل خطی وجود دارد. در صورت درخواست، مقدار p را برمیگرداند که تخمین ناپارامتری با خطی متفاوت نیست (فرضیه صفر). کسی میدونه برای محاسبه p-value از چه تستی استفاده میشه؟ هیچ جا پیداش نمیکنم پاسخ ممکن است در: Bowman, A.W. (2006). مقایسه سطوح ناپارامتریک مدلسازی آماری، 6، 279-299. متشکرم! | آزمون R در sm.regression برای مقایسه مدل مرجع با رگرسیون هسته چیست؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.