_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
71387
|
درک من این است که تجزیه و تحلیل توان، اگر و تنها در صورتی که از اندازه اثر مشاهده شده به عنوان اندازه اثر جمعیت هدف استفاده کند، پسهک است.
|
چه زمانی (اگر همیشه) انجام یک تجزیه و تحلیل توان پس از مدتی ایده خوبی است؟
|
33005
|
نتیجه مورد نظر بیماری بله/خیر (کد 1/0) است و متغیر پیوسته مورد نظر بر حسب nmol/L اندازه گیری می شود. خروجی رگرسیون نشان می دهد که یک واحد تغییر در پیش بینی کننده (احتمالاً افزایش 1 نانومول در لیتر) منجر به کاهش 3٪ در بیماری می شود. این قابل توجه است. با این حال، فکر میکنم کاهش بیماری برای هر 10 نانومول در لیتر افزایش در متغیر پیوسته معنادارتر باشد. آیا این امکان پذیر است؟ اتفاقاً من طبق پیشنهاد قبلی log تبدیل به پایه 2 را انجام دادم و این نشان داد که دو برابر شدن متغیر پیوسته منجر به کاهش 35٪ در نتیجه بیماری شد.
|
چگونه می توانم اثر مربوط به افزایش $k$-واحد در پیش بینی کننده در رگرسیون لجستیک را دریافت کنم؟
|
112610
|
من میخواهم یک مدل لجستیک چندسطحی چندجملهای را بسازم. متأسفانه من نتوانستم بسته ای را پیدا کنم که این را اجرا کند. من 'gsem' 'Stata' را امتحان کردم اما بسیار کند است و همگرا نمی شود. به همین دلیل است که میپرسیدم آیا میتوان مدلهای دوجملهای متضاد را تخمین زد، آنها را ترکیب کرد و مدل چندجملهای را تقریب زد. بنابراین من به یک رویکرد رسیدم اما در بخش ترکیب گیر کردم. دو سوال: 1. آیا رویکرد من صحیح/قابل انجام است؟ 2. اگر بله، چگونه می توانم پیش بینی های دسته پایه را محاسبه کنم **رویکرد:** Data $ D $ دارای یک متغیر وابسته $ y \in \\{1,2,3\\} $ است. من داده های خود را به دو زیر مجموعه تقسیم کردم: $ D_{1,2} $ و $ D_{1,3} $. جایی که $D_{1,2}$ شامل همه ردیفها با $ y \in \\{1,2\\};$ $D_{2,3}$ از همه جایی که $y \in \\{1,3 \\}$ اکنون مدل $$ logit(p_i) = \ln\left(\frac{P(Y_i = 1)}{1-P(Y_i = 1)}\right)=\dots را محاسبه کردم $$ با $i \in \\{1,2\\}$ مربوط به مجموعه داده $D_{1,i}$ و $\dots$ نماد مشخصات مدل است. با پیشبینی این مدل، پیشبینیهای $\hat{p_i}$ را دریافت میکنم، به این معنی که احتمال استفاده از $i$ جایگزین بیش از $1$ است. با نشان دادن $\hat{p_i}$ = `pi^`، مجموعه داده های حاصل به صورت زیر به نظر می رسد: y p2^ p3^ 1 0.2 0.1 1 0.7 0.8 2 0.6 . 3 . 0.1 ... **این منجر به سوال دوم من می شود:** اگر بخواهم $\hat y$ را پیش بینی کنم، چه کاری باید انجام دهم؟ و چگونه می توانم احتمال p1^ را محاسبه کنم، به این معنی که احتمال گرفتن 1 روی 2 و 3 است. من از هر کمکی ممنونم!
|
برآورد مدل های لجستیک چند سطحی چند جمله ای توسط مدل های دو جمله ای
|
113021
|
13 متغیر وجود دارد که با استفاده از لاجیت رگرسیون شده اند. همه متغیرها متغیرهای طبقه ای هستند. اکنون هدف من دیدن تعامل بین دو متغیر است. هنگامی که من Logit خود را اجرا می کنم، درجه آزادی آن تمام می شود و از این رو STATA هیچ نتیجه ای ارائه نمی دهد. مثال Q= i.A i.S i.Ec i.Pr i.xx i.dd#i.ii آیا می توانم 11 متغیر خود را پیوسته در نظر بگیرم و عبارت تعامل را اضافه کنم. اگر بله، چگونه از انجام خود پشتیبانی کنم. مثال Q = A S Ec Pr xx i.dd#i.ii
| |
102865
|
من در حال یادگیری تجزیه و تحلیل آماری هستم و اکنون در مورد محاسبه خطای استاندارد میانگین سردرگم هستم. مجموعه داده من به نظر می رسد.. شرط A: حیوان 1 - 3،4،4،3،6 حیوان 2 - 5،5،5،8،7 شرایط B: حیوان 3 - 3،4،5،1،6 حیوان 4 - 3،1،1،4،8 چگونه می توانم خطای استاندارد میانگین شرط A را محاسبه کنم؟ من با دو روش گیج شدم 1) به سادگی میانگین را برای دو حیوان بگیرید و از ابزار آنها استفاده کنید، مانند میانگین برای حیوانات 1: 4 میانگین برای حیوانات 2: 6 میانگین کلی: 5 SD: $\sqrt{\frac{\left [\left(6-5\right)^{2} + \left(4-5\right)^{2}\right]}{2-1}} = \sqrt{2}$ SE: $\frac{\sqrt{2}}{\sqrt{2}} = 1$ یا شاید با استفاده از همه اندازهگیریها مانند SD: $\sqrt{\frac{\left[\left( 3-5\راست)^{2} + \left(4-5\راست)^{2} + \left(4-5\راست)^2 + ...... + \left(8-5\right)^2 + \left(7-5\right)^{2}\right]}{\left(10-1\right)}} = \sqrt{\frac{24} {9}}$ SE: $\frac{\sqrt{\frac{24}{9}}}{\sqrt{10}} = 0.51$ کدام درست است؟ پیشاپیش ممنون
| |
102867
|
سوال تصادفی جنگل mtry
|
|
102866
|
آیا تبدیل log متغیر وابسته بر خودهمبستگی تأثیر می گذارد؟
|
|
18608
|
من یک جدول داده بزرگ (~500000 ردیف) از معیارهای نرمال شده (براساس امتیاز Z) دارم که به این صورت است: +------+----------------- ---------------------------------------------------------------------------------------------- شناسه | M1 | M2 | M3 | M4 | +------+---------------------------------------- -----+---------------+ | 1 | -0.3993408978 | 1.1276756525 | -0.0048326259 | -1.3967152834 | | 2 | -0.3244025409 | 1.3201564550 | -0.0548842102 | -1.3317097425 | | 3 | -0.3025048971 | 1.0483477116 | -0.0849148855 | -1.3642125130 | | 4 | -0.2436245084 | 1.2600721121 | 0.0101827132 | -1.2992069721 | | 5 | -0.2781734169 | 0.3511493504 | -0.3752114475 | -1.4617208242 | | 6 | -0.2815801203 | 0.3369039595 | -0.3201552033 | -1.4617208242 | | 7 | -0.2197803259 | 0.5600918531 | -0.1750069261 | -1.3967152834 | | 8 | -0.1579796672 | 0.3966214657 | -0.0949251130 | -1.3967152834 | | 9 | -0.1209969074 | 0.0815875754 | -0.0799097717 | -1.4292180538 | | 10 | -0.1910693198 | -0.6976287961 | -0.2500836253 | -1.5917314291 | +------+---------------------------------------- -----+---------------+...500000 ردیف من همچنین یک نقطه پرس و جو دارم که شبیه این است: +------------------------------------------------ -------------+ | M1 | M2 | M3 | M4 | +------------------------------------------------ -------------+ | -0.5185617805 | 0.0669142157 | -0.2050375938 | -1.6918823719 | +------------------------------------------------ -------------+ (1 ردیف) سپس از نقطه پرس و جو برای ایجاد لیستی از 300 همسایه نزدیک به آن (با یک الگوریتم k-NN چند بعدی) استفاده می کنم. ** کاری که من می خواهم انجام دهم این است که قبل از انجام جستجوی k-NN، داده ها را با PCA تبدیل کنم.** می توانم این کار را با کتابخانه ALGLIB INPUT PARAMETERS: X - مجموعه داده، آرایه[0..NPoints-1 انجام دهم. ,0..NVars-1]. ماتریس فقط شامل متغیرهای مستقل است. NPoints - اندازه مجموعه داده، NPoints>=0 NVars - تعداد متغیرهای مستقل، NVars>=1 OUTPUT: اطلاعات - کد بازگشتی: * -4، اگر زیربرنامه SVD همگرا نشده باشد * -1، اگر پارامترهای اشتباه ارسال شده باشد (NPoints <0، NVars<1) * 1، اگر کار حل شود S2 - آرایه[0..NVars-1]. مقادیر واریانس مربوط به بردارهای پایه. V - ماتریس آرایه[0..NVars-1,0..NVars-1] که ستون های آن بردارهای پایه را ذخیره می کنند. بنابراین تا آنجا که من متوجه شدم، S2 حاوی داده های تبدیل شده من خواهد بود - **اما چگونه نقطه پرس و جو را به همان روش تبدیل کنم - تا بتوانم از آن برای جستجوی K-NN در داده های تبدیل شده استفاده کنم؟** حدس می زنم. من باید از 'V' استفاده کنم - ستونی که بردارهای پایه را ذخیره می کند. و سپس من حدس می زنم که نوعی عملیات ماتریسی برای تبدیل نقطه پرس و جو من در مورد بردار پایه مناسب است؟ آیا من در فرضیاتم درست هستم؟ چگونه این کار را انجام دهم؟ همه اینها برای من بسیار جدید است و من هیچ سابقه مرتبطی ندارم، بنابراین اگر ممکن است لطفاً یک توضیح مرد عادی ارائه دهید.
|
تجزیه و تحلیل مؤلفه اصلی قبل از جستجوی نزدیکترین همسایه
|
82514
|
این یک سوال اساسی در مورد آموزش یک مدل است. با توجه به پارامترهای زیر، معیارهایی را برای اعمال حداقل تعداد تاها و تکرارها برای اعتبارسنجی متقاطع مجموعه ای از مدل ها برای رگرسیون به کار خواهم برد. 200 سطر و 46 ستون، 300 سطر و 53 ستون، 400 سطر و 60 ستون، من مطمئن نیستم که این خط را کجا بکشم. 10 تا و 50 تکرار، 10 تا و 100 تکرار، 10 تا و 5 تکرار خوانده و اعمال کرده ام و نتایج مخلوط شده است. من همچنین خوانده ام که K به درصد نمونه آزمایشی بستگی دارد. به نظر می رسد که به داده ها نیز وابسته است. چگونه می توانم یک عدد حداقل را برای این دو متغیر فرموله و اعمال کنم.
| |
70071
|
من با R و تجزیه و تحلیل داده های فراطیفی تازه کار هستم. با این حال، در تحقیقات خود دریافتم که بسیاری نسبت به استفاده از تجزیه و تحلیل تفکیک گام به گام (با استفاده از فاصله Wilk's Lambda یا Mahalanobis) برای یافتن بهترین زیرمجموعه متغیرهایی که با آن می توان عملکرد تمایز رضایت بخش را به دست آورد، هشدار می دهند. من با چند پیشنهاد روبرو شده ام: PLS: http://cran.r-project.org/web/packages/pls/ و LARS: http://cran.r-project.org/web/packages/lars/index. html، و من تازه متوجه شده ام که شاید پاسخ های ارائه شده به این لینک زیر مفید باشد: جایگزین های مدرن و به راحتی برای رگرسیون گام به گام کدامند؟ با توجه به ماهیت داده های فراطیفی (بسیار همبسته و بسیار زائد) من می خواهم 10 باند اول را پیدا کنم که در تمایز بین حدود 30 گونه گیاه کارآمدترین هستند. هر پیشنهادی با ارزش تر خواهد بود.
|
جایگزین هایی برای تجزیه و تحلیل تمایز گام به گام برای انتخاب ویژگی در داده های ابرطیفی
|
71381
|
تازه وارد اینجاست که سوال من را تایپ می کند، پس اگر جواب نداد ببخشید. من سعی میکنم برای یک مسئله طبقهبندی چند متغیره یک **_طبقهبندیکننده_ بیزی_** ارائه کنم که در آن ورودی دارای **_توزیع نرمال چند متغیره_** است. من انتخاب می کنم که از یک تابع تفکیک تعریف شده به عنوان $\log (احتمال \ بار قبل)$ استفاده کنم. با این حال، از توزیع، $f(x \mid\mu,\Sigma) = (2\pi)^{-N \times d/2}\det(\Sigma)^{-N/2}exp[( -1/2)(x-\mu)^{\top}\Sigma^{-1}(x-\mu)]$ من با یک عبارت $-\log(det(S_i))$ مواجه میشوم که در آن $S_i $ ماتریس کوواریانس نمونه من برای یک کلاس خاص است. از آنجایی که ورودی من در واقع یک داده تصویر مربعی را نشان می دهد، $S_i$ من تا حدی همبستگی را کشف می کند و در نتیجه $det(S_i)$ صفر است. سپس تابع تفکیک من همه به $\infty$ تبدیل می شود که برای من فاجعه بار است. من می دانم که اینجا باید خیلی چیزها اشتباه باشد، کسی حاضر است به من کمک کند؟
|
تخمین پارامترها در طبقه بندی چند متغیره که ماتریس کوواریانس نمونه تعیین کننده صفر را به دست می آورد
|
18606
|
من می خواهم بدانم که آیا مطالعه نمودارهای باقیمانده با توجه به متغیر وابسته زمانی که من یک رگرسیون تک متغیره دارم، منطقی است یا خیر. اگر منطقی باشد، یک همبستگی قوی، خطی و رو به رشد بین باقیمانده ها (روی محور y) و مقادیر تخمینی متغیر وابسته (در محور x) به چه معناست؟ 
|
آیا مطالعه نمودارهای باقیمانده با توجه به متغیر وابسته منطقی است؟
|
33208
|
پیشاپیش به خاطر هر زبان نادرستی که ممکن است در اینجا استفاده کنم عذرخواهی می کنم، زیرا آموزش رسمی زیادی در زمینه آمار ندارم. من نموداری از شدت در مقابل طول موج (پروفایل شدت) با نوارهای خطای مرتبط در شدت در هر طول موج دارم. فرض بر این است که این خطاها در حال حاضر مستقل هستند. سپس هموارسازی گاوسی را روی نمایه شدت اعمال کردم (فرایند مشابه آنچه در اینجا توضیح داده شده است: http://imaging.mrc-cbu.cam.ac.uk/imaging/PrinciplesSmoothing)، و می دانم چگونه گاوسی را محاسبه کنم. خطاهای PDF وزن شده برای نمایه شدت هموار. با این حال، همپوشانی بین پنجرههای هموارسازی گاوسی به این معنی است که خطا در شدت هموار در یک طول موج معین دیگر مستقل از خطاهای شدت در طول موجهای نزدیک نیست. اجازه دهید $ I_k $ و $ \sigma_k $ به ترتیب شدت هموار شده در طول موج $ k $ و خطای مربوط به آن را نشان دهند. به دلیل این همبستگی با خطاهای نزدیک، من حدس میزنم که این بدان معناست که گفتن اینکه فاصله اطمینان 68% هنوز $ I_k \pm \sigma_k $ است، نامناسب است. اگر چنین است، چگونه می توانم یک خطا را در $ I_k $ محاسبه کنم که می توانم از آن برای نقل قول فواصل اطمینان استفاده کنم؟
|
فواصل اطمینان در نمودارهایی با نوارهای خطای همبسته؟
|
2467
|
طبقه بندی پس از تحلیل عاملی
|
|
18607
|
آیا تابعی در R وجود دارد که مو و سیگما یک ماتریس کوواریانس حسابی را بگیرد و مو و سیگما یک ماتریس کوواریانس مبتنی بر لگ را برگرداند؟ من کد تابعی را دارم که معکوس را پیاده سازی می کند - از log-covariance به کوواریانس خطی - در R (در صورت مفید بودن در زیر چسبانده می شود). توجه داشته باشید که ریاضیات Meucci این کد پیادهسازی در ضمیمه صفحه 5 پیوست شده است.: linreturn <- function(mu,Sigma) { m <- exp(mu+diag(Sigma)/2)-1 x1 <- outer(mu,mu +) x2 <- بیرونی(دیاگ(سیگما)، دیاگ(سیگما)،+)/2 S <- exp(x1+x2)*(exp(Sigma)-1) list(mean=m,vcov=S) } کد شبیهسازی اعتبار رویکرد فوق را تأیید میکند: # آزمایش با دو دارایی # مقداردهی اولیه با بازده متوسط گزارش و ماتریس کوواریانس مبتنی بر log m1 <- c( 0.05، 0.12، 0.1) S1 <- ماتریس (c(.1، 0.05 , .02 , .05 , .1 , .03 , 0.02 , .03 , .1 , nrow = 3 ) # شبیه سازی log-return رسم از ماتریس کوواریانس مبتنی بر log با فرض توزیع نرمال set.seed(1001) library( MASS) log برمیگرداند <- MASS::mvrnorm(2000000,mu=m1,Sigma=S1) # تبدیل به بازده حسابی arithmeticReturn = exp( logReturns ) - 1 colMeans(arithmeticReturn ) # ایجاد ماتریس کوواریانس مبتنی بر محاسبات var( arithmetic results with comparenreturn) linreturn(m1, S1) یا اینکه آیا تابعی در متلب وجود دارد که این روال را انجام دهد؟ (من می توانم منبع باز را تجزیه و تحلیل کنم و آن را به R منتقل کنم.) با تشکر
|
تابع تبدیل محاسبات به ماتریس کوواریانس مبتنی بر لگ؟
|
35561
|
من از تابع prcomp() برای انجام آنالیز PCA در R استفاده کردم. با این حال، یک اشکال در آن تابع وجود دارد به طوری که پارامتر na.action کار نمی کند. من برای stackoverflow کمک خواستم. دو کاربر در آنجا دو روش متفاوت برای برخورد با مقادیر «NA» ارائه کردند. با این حال، مشکل هر دو راه حل این است که وقتی یک مقدار 'NA' وجود دارد، آن ردیف حذف می شود و در تجزیه و تحلیل PCA در نظر گرفته نمی شود. مجموعه داده واقعی من یک ماتریس 100×100 است و نمیخواهم یک ردیف کامل را فقط به این دلیل که حاوی یک مقدار «NA» است از دست بدهم. مثال زیر نشان می دهد که تابع ()prcomp هیچ مولفه اصلی را برای سطر 5 بر نمی گرداند زیرا حاوی مقدار NA است. d <- data.frame(V1 = نمونه (1:100، 10)، V2 = نمونه (1:100، 10)، V3 = نمونه (1:100، 10)) نتیجه <- prcomp(d، مرکز = TRUE , scale = TRUE, na.action = na.omit) result$x # $ d$V1[5] <- NA # $ نتیجه <- prcomp(~V1+V2, data=d, center = TRUE, scale = TRUE, na.action = na.omit) result$x می خواستم بدانم که آیا می توانم مقادیر NA را روی یک مقدار عددی خاص در مرکز تنظیم کنم «و مقیاس» روی «TRUE» تنظیم میشوند تا تابع «prcomp()» کار کند و ردیفهای حاوی «NA» را حذف نکند، اما بر نتیجه کار نیز تأثیری نداشته باشد. تجزیه و تحلیل PCA من در مورد جایگزینی مقادیر «NA» با مقدار میانه در یک ستون یا با مقدار بسیار نزدیک به 0 فکر کردم. آیا کسی می تواند راه خوبی برای حل این مشکل بیاندیشد؟
|
جایگزینی مقادیر NA برای تجزیه و تحلیل PCA
|
18605
|
در کتاب کدام شاخص های اقتصادی بهترین پیش بینی انتخابات ریاست جمهوری است؟، نیت سیلور به متغیری به نام «حاشیه پیروزی حزب فعلی» برای انتخابات ریاست جمهوری ایالات متحده اشاره می کند. میخواستم بدونم منبع رایگانی برای این داده ها وجود داره؟
|
کجا می توان اطلاعات حاشیه پیروزی حزب فعلی را پیدا کرد؟
|
18604
|
من یک مجموعه داده آموزشی دارم که با استفاده از پکیج «pvclust» R در آن تجزیه و تحلیل خوشهای انجام دادهام. من یک دندروگرام از نتایج دارم و در حال حاضر به دنبال بهترین راه برای استفاده از اطلاعات برای ایجاد مدل(های) از داده ها هستم. آیا کسی میتواند منبعی را به من توصیه کند تا من را در فرآیند رفتن از خوشهبندی به مدل پیشبینی راهنمایی کند؟ به عبارت دیگر، چگونه می توانم یک دندروگرام بخوانم تا مناسب ترین مدل (ها) را بسازم.
|
چگونه از تحلیل خوشه ای در ایجاد یک مدل استفاده کنم؟
|
78827
|
فرض کنید که فردی دادهها را به مجموعههای آموزش/اعتبار/آزمایش برای کاربرد بیشتر برخی از الگوریتمهای طبقهبندی تقسیم میکند، و این اتفاق میافتد که مجموعه آموزشی شامل همه برچسبهای کلاسی که در مجموعه داده کامل وجود داشت، نمیشود، به عنوان مثال، برخی از رکوردها با برچسب x فقط در مجموعه اعتبارسنجی ظاهر می شود و نه در آموزش. آیا این پارتیشن بندی معتبر است؟ موارد فوق می تواند عواقب زیادی داشته باشد مانند اینکه ماتریس سردرگمی دیگر مربع نیست، همچنین در طول الگوریتم ممکن است یک خطا را ارزیابی کنیم و این تحت تأثیر برچسب های نادیده در مجموعه آموزشی قرار می گیرد. سوال دوم این است: آیا معمول است که الگوریتم های پارتیشن بندی به موضوع فوق توجه کنند و داده ها را به روشی که مجموعه آموزشی دارای تمام برچسب های موجود است تقسیم بندی کنند؟ متشکرم
|
برچسب های کلاس در پارتیشن های داده
|
87000
|
فرض کنید $X_n$are iid $N(0,1)$ متغیرهای تصادفی. $S_n := \sum_{i=1}^n X_n$ را تعریف کنید. سپس $S_n$ یک پیاده روی تصادفی است. از آنجایی که $Var(S_n) = n$ و $Cov(S_n, S_m) = \min(n,m)$، $S_n$ در دو لحظه اول ثابت نیست. در زیر نمودار R از یک مسیر نمونه $S_n$، نمونه ACF آن (اگرچه ثابت نیست) و نمونه PACF آن (اگرچه ثابت نیست) آمده است. چرا ACF نمونه آن به صورت خطی کاهش می یابد؟ چرا PACF نمونه آن پس از تاخیر 1 صفر می شود؟ با تشکر 
|
نمونه ACF و PACF از یک پیاده روی تصادفی
|
114621
|
چگونه از این متغیر تصادفی دو جمله ای منفی برای حل این مشکل استفاده می شود؟
|
|
8974
|
به نظر می رسد در مورد نمودارهای دایره ای بحث فزاینده ای وجود دارد. استدلال اصلی علیه آن به نظر می رسد: * مساحت با قدرت کمتر از طول درک می شود. * نمودارهای دایره ای نسبت داده های نقطه به پیکسل بسیار پایینی دارند، با این حال، من فکر می کنم که می توانند به نحوی در هنگام به تصویر کشیدن نسبت ها مفید باشند. من با استفاده از جدول در بیشتر موارد موافقم، اما زمانی که شما در حال نوشتن یک گزارش تجاری هستید و صدها جدول را وارد کرده اید، چرا نمودار دایره ای ندارید؟ من کنجکاو هستم که نظر جامعه در مورد این موضوع چیست. از مراجع بیشتر استقبال می شود. من چند پیوند را اضافه می کنم: * http://www.juiceanalytics.com/writing/the-problem-with-pie-charts/ * http://www.usf.uni-osnabrueck.de/~breiter/tools/ piechart/warning.en.html * * * برای نتیجه گیری این سوال تصمیم گرفتم نمونه ای از نمودار دایره ای در مقابل نمودار وافل بسازم. با تشکر از همه برای پاسخ های شما! :) 
|
مشکلات نمودار دایره ای
|
87005
|
من یک مجموعه داده دارم - با ستونهایی مانند «شماره تراکنش»، «شماره فروشگاه»، «بخش»، «بخش فرعی»، «شماره خط»، «تعداد»، «فروش خالص»، «میزان کاهش قیمت»، «فروش ناخالص»، هزینه کالا، حاشیه. سوال من این است - من مطمئن نیستم که با چه ستون هایی باید ارتباط را پیدا کنم. اگر من «تحلیل سبد بازار» را انجام میدهم، با چه قوانینی میتوانم ادامه دهم. این سوال منطقی است - هر کمکی عالی خواهد بود من برای دریافت خروجی زیر کدنویسی انجام دادم: چگونه قوانین زیر را تفسیر کنیم: inspect(subset(trans.rules, subset=lift>2.5)) lhs rhs پشتیبانی از افزایش اطمینان 1 { Subdivision=142} => {Division=DIV08} 0.06129886 1 8.230485 2 {Subdivision=118} => {Division=DIV07} 0.12100035 1 7.414138 3 {cnt_dtnct_itm=2} => {cnt_itm.=2} 0.14830530 1 6.3435572 1 6.3435572 1 => {Division=DIV08} 0.06129886 1 8.230485 5 {Subdivision=118, Markdown.Amount=0} => {Division=DIV07} 0.08635751 1 7.414138 6 {8}Subdivision=11,Quant=1 0.08895323 1 7.414138 7 {Subdivision=118, cnt_itm.=1} => {Division=DIV07} 0.09698997 1 7.414138 8 {Subdivision=118, cnt_it_dtnc = IV} 0.09698997 1 7.414138 9 {Store.No=599666, Subdivision=118} => {Division=DIV07} 0.12100035 1 7.414138 10 {Quantity=2, cnt_dnt=2, cnt_dnt=2} 0.13417861 1 6.343572 11 {Markdown.Amount=0, cnt_dtnct_itm=2} => {cnt_itm.=2} 0.08570858 1 6.343572 12 {Store. {cnt_itm.=2} 0.14830530 1 6.343572 13 {Subdivision=118, Quantity=1, Markdown.Amount=0} => {Division=DIV07} 0.06494284 1 7.414138 1 7.414138 1 7.414138 {Smountdown=ndown. cnt_itm.=1} => {Division=DIV07} 0.07038387 1 7.414138 15 {Subdivision=118, Markdown.Amount=0, cnt_dtnct_itm=1} => {Division=DIV07} 7.414138 0.070 {Store.No=599666, Subdivision=118, Markdown.Amount=0} => {Division=DIV07} 0.08635751 1 7.414138 17 {Subdivision=118, Quantity=1, cnt_itm.=1} =>7 Division=DIV07} 1 7.414138 18 {Subdivision=118, Quantity=1, cnt_dtnct_itm=1} => {Division=DIV07} 0.08895323 1 7.414138 19 {Store.No=599666, Quantity=1D, Quantity=1, Quantity=1 0.08895323 1 7.414138 20 {Subdivision=118, cnt_dtnct_itm=1, cnt_itm.=1} => {Division=DIV07} 0.09698997 1 7.414138 No 21,414138 No21,414138 = 219 cnt_itm.=1} => {Division=DIV07} 0.09698997 1 7.414138 22 {Store.No=599666, Subdivision=118, cnt_dtnct_itm=1} => {Division=DIV07} 7.414138 0.09 {Quantity=2, Markdown.Amount=0, cnt_dtnct_itm=2} => {cnt_itm.=2} 0.07772176 1 6.343572 24 {Store.No=599666, Quantity=2,
|
قوانین انجمن در R
|
87007
|
لطفاً اگر اشتباه میکنم، من را تصحیح کنید، اما نظریه SVM یک کلاس بیان میکند که پارامتر nu کران بالایی (UB) نقاط پرت در مجموعه داده آموزشی و کران پایین (LB) تعداد SVها است. بگویید من از هسته گاوسی RBF استفاده می کنم، بنابراین با ایده پارامتر nu، مهم نیست که چه مقدار گاما را انتخاب می کنم، مدل باید بتواند نتایجی را تولید کند، به طوری که پارامتر nu همان UB نقاط پرت در آموزش باشد. مجموعه داده؟ با این حال، این چیزی نیست که من با آزمایش چند مثال ساده با LibSVM در Matlab مشاهده کردم: [heart_scale_label, heart_scale_inst] = libsvmread('../heart_scale'); ind_good = (heart_scale_label==1); heart_scale_label = heart_scale_label(ind_good); heart_scale_inst = heart_scale_inst(ind_good); train_data = heart_scale_inst; قطار_برچسب = برچسب_مقیاس_قلب; گاما = 0.01; nu=0.01; model = svmtrain(train_label, train_data, ['-s 2 -t 2 -n ' num2str(nu) ' -g ' num2str(gamma) ' -h 0']); [predict_label_Tr, accuracy_Tr, dec_values_Tr] = svmpredict(train_label, train_data, model); accuracy_Tr با استفاده از گاما = 0.01، من دقت دادههای آموزشی را با استفاده از گاما 97.50 = 100 I، دقت دادههای آموزشی را 42.50 میگیرم، آیا نباید برای بدست آوردن همان کسر پرت در مجموعه داده آموزشی، به دادهها اضافه شود؟ چه زمانی گامای بزرگتر انتخاب می شود؟
|
LibSVM یک کلاس طبقه بندی پارامتر nu کسری از نقاط پرت نیست؟
|
104400
|
فرض کنید من به کشش درآمدی خانوارها برای یک کالای خاص علاقه مند هستم. من در اصل، تابعی از درآمد است. اکنون، من دو راه دارم که چگونه می توانم داده ها را به دست بیاورم (انواع مختلف داده): 1) یا می توانم به عنوان مثال داده های تابلویی را برای هزینه متوسط درآمد خانوار برای یک کالا به دست بیاورم (یعنی یک مقدار که میانگین درآمد یک جمعیت را توصیف می کند. و متوسط هزینه مربوط به یک کالا در یک دوره زمانی). 2) یا می توانم یک داده مقطعی برای اینکه خانوارها بر اساس درآمدشان برای یک کالا هزینه کرده اند، بدست بیاورم. توجه: در واقع من میتوانم چندین مقطع را برای سالهای متمادی دریافت کنم، اما آنها به یک پانل تبدیل نمیشوند. اکنون این دو مجموعه داده از منابع مختلف می آیند، و من می خواهم کشش های درآمد حاصل از رگرسیون هزینه ~ درآمد را مقایسه کنم (این را به عنوان یک ساده سازی در نظر بگیرید). سوال من این است - _ برای اینکه بتوانم این کشش ها را با هم مقایسه کنم، به چه چیزی نیاز دارم؟ در نتیجه، من میتوانم بسیاری از کششهای متوسط خانوار را برای دورههای زمانی مختلف (مجموعه داده 2) دریافت کنم و میتوانم آنها را میانگین بگیرم (هر دو مجموعه داده به طور کلی دوره یکسانی را پوشش میدهند). پس آیا این دو مقدار در اصل یکسان هستند؟ منظورم این است که بدیهی است که باید اثرات قیمت را در نظر بگیرم، زیرا در اولین مجموعه داده ممکن است هزینه ها بر اساس آن تغییر کند نه درآمد). اما چه جنبه های نظری دیگری باید در نظر گرفته شود؟ من متحیر هستم، زیرا این دو کمیت به اصطلاح از «ابعاد» متفاوتی ناشی میشوند، و مطمئن نیستم که مقایسه آنطور که قبلاً توضیح دادم ساده باشد. متشکرم!
|
ابعاد مختلف تنوع
|
9659
|
ادغام سریع یک توزیع پسین
|
|
107420
|
محاسبه احتمال فراهندسی با تقریب
|
|
107421
|
سردرگمی مربوط به کران های آنلاین برای الگوریتم های بیزی
|
|
113682
|
بر اساس این سند: http://www.bodowinter.com/tutorial/bw_LME_tutorial2.pdf من می توانم با مقایسه مدل هایی که می خواهم بدانم با مدل تهی، P-value کلی جلوه های ثابت را دریافت کنم. در مورد من می خواهم تأثیر تعامل سه طرفه را بدانم. بنابراین ابتدا مدل تهی را اجرا می کنم: lmer86 <- lmer(IntensityMax ~ (1| مورد) + (1+ vowel3|speaker) + جنسیت + vowel3 + Language, data=data1.frame, REML=FALSE, na.action= na.omit) سپس مدلی را که می خواهم آزمایش کنم اجرا می کنم: lmer81 <- lmer(IntensityMax ~ (1|آیتم) + (1+صدا3|بلندگو) + جنسیت*ووا3*زبان، داده=data1.frame، REML=FALSE، na.action=na.omit) و در نهایت این مدل ها را با استفاده از تابع ANOVA مقایسه می کنم: anova (lmer81,lmer86) و این نتیجه است: Data: data1.frame مدل ها: lmer86: IntensityMax ~ (1 | آیتم) + (1 + مصوت3 | گوینده) + جنسیت + مصوت3 + lmer86: زبان lmer81: IntensityMax ~ (1 | مورد) + (1 + مصوت3 | گوینده) + جنسیت * واکه3 * lmer81: زبان Df AIC BIC logLik انحراف Chisq Chi Df Pr(> Chisq) lmer86 14 13349 13432 -6660.5 13321 lmer81 26 13319 13474 -6633.6 13267 53.813 12 2.951e-07 *** --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 سپس می دانم که تعامل سه طرفه تأثیر مهمی است. آیا من در مسیر درست هستم؟
| |
107422
|
من در حال تصمیم گیری هستم که کدام یک از دو موضوع زیر را به عنوان یک درس انتخابی در ترم آینده انتخاب کنم. 1. تجزیه و تحلیل مختلط 2. نظریه معادلات دیفرانسیل جزئی در حالت ایده آل من می خواهم هر دو را انتخاب کنم. با این حال، کارهای دیگری برای انجام دادن خواهم داشت. بنابراین، من می خواهم چیزی را انتخاب کنم که مستقیماً با آمار و احتمال مرتبط باشد. هر پیشنهادی؟ متشکرم!
| |
19367
|
چگونه می توانم دو دنباله تصادفی از اعداد ایجاد کنم که 50$\%$ با یکدیگر همبستگی دارند؟ هر دنباله واریانس متفاوتی دارد.
|
ایجاد دو دنباله تصادفی با همبستگی 50$\%$؟
|
14380
|
تدوین یک مدل ریاضی برای یک مسئله یکی از ذهنی ترین جنبه های آمار و در عین حال یکی از مهمترین آنها است. بهترین مراجعی که به این موضوع مهم اما اغلب نادیده گرفته می شود کدامند؟ و کدام آماردان معروف چیزی در امتداد این جمله گفت: اجازه دهید داده ها مدل را هدایت کنند؟
|
توصیه های کلی در مورد مدل سازی
|
44078
|
من سعی می کنم یک نمودار تعاملی برای این مجموعه از داده ها ایجاد کنم، اما می خواهم آن را با ggplot2 بسازم. من سعی میکنم VP را با استفاده از پیشبینیکنندههای G و P پیشبینی کنم، (اینها ستونهایی در مجموعه دادهها هستند که متوجه شدم با یکدیگر تعامل دارند، و متوجه شدم که تأثیر قابلتوجهی بر VP دارند). درک نحو برای ggplot2 برای من دشوار بوده است، بنابراین میپرسم آیا کسی اینجا آن را آسان میبیند و میتواند با دادههای من یکی بسازد و کد را به من نشان دهد. آخرین باری که سعی کردم به خودم بیاموزم که چگونه با توابع تعریف شده توسط کاربر نمودار بسازم، 6 ساعت وقت صرف اشکال زدایی کردم. امیدوارم کسی بتواند به سادگی من را از طریق مراحل راهنمایی کند تا مجبور نباشم دوباره آن را طی کنم. مدل «VP~G+P+G*P» در R خواهد بود. امیدوارم چیزی شبیه نمودار جعبه تعاملی که در پاسخ این پست یافت میشود بسازم.  * * * یادداشت ها: هنگام ایجاد مدل رگرسیون من چندین متغیر داشتم، اما متوجه شدم که G و P تنها تعامل مهم را داشتند. بنابراین من در تلاش برای ایجاد یک نمودار تعامل برای تجزیه بیشتر داده ها هستم. نظری در مورد کارایی و منطقی بودن این کار دارید؟ همچنین، نظرات در مورد تناسب بسیار ضعیف طرح تعامل؟ در این مورد که تناسب ضعیفی دارد چه باید بکنم؟ آیا می توان گفت که هیچ الگوی وجود ندارد؟ به عنوان مرجع، من سعی میکنم درصد رایای را که یک نامزد کسب میکند، VP، بر اساس تغییر نرخ تورم، P، و تغییر نرخ رشد، G، پیشبینی کنم. در اینجا نمودار تعامل من است: ! .stack.imgur.com/Q2vDL.png) نکته2: من نمودار تعامل خود را با تابع تعریف شده توسط کاربر که در اینجا یافت می شود ایجاد کردم. طرحی که آنها ساخته اند به خوبی با داده های آنها مطابقت دارد، اما طرح من با داده های من مطابقت ندارد. علاوه بر این، نمودار من از باقیمانده ها تقریباً مشابه نمودار تعامل است. در صفحه MIT، نمودار باقیمانده در مقابل نمودار تعامل بسیار متفاوت است، به علاوه به راحتی می توان یک الگو را در آن مشاهده کرد.
|
چگونه می توانم یک نمودار تعامل در ggplot2 ایجاد و تفسیر کنم؟
|
105503
|
فرض کنید که من با تقسیم داده های پوششی که از یک نمونه تومور بدست می آید بر نمونه مرجع و سپس گرفتن log2 این تقسیم، یک سیگنال نسبت گزارش پوشش ایجاد کرده ام. سوال من این است: ** چگونه می توان سطح نویز را از روی داده ها از نظر آماری تخمین زد؟ ** به طور معمول، اگر مشکلی در ژنوم وجود نداشته باشد، سیگنال نسبت log باید حول محور صفر باشد. با این حال، برخی از بخشهای ژنوم به دلیل سرطان تغییر میکنند (حذف یا تقویت میشوند) و این خود را در سیگنال نسبت لاگ با نشان دادن انحراف از صفر نشان میدهد. اما سیگنال کاملاً تمیز نیست و تمام انحراف از صفر ناشی از سرطان نیست. سر و صدا نیز وجود دارد بنابراین، سوال این است که چگونه می توانیم سطح نویز را با فرض اینکه نویز توزیع نرمال دارد، تخمین بزنیم. برخی از اصطلاحات: * داده های پوشش برای یک نقطه از ژنوم، تعداد خوانده شده هایی است که با ژنوم مرجع در آن نقطه خاص تراز شده است. * خواندن خروجی ابزارهای توالی یابی با استفاده از بیش از DNA یا RNA و غیره است.
|
تخمین سطح نویز در داده های سرطان با توان عملیاتی بالا
|
2466
|
بگو من جمعیتی بالغ بر 50 میلیون چیز منحصر به فرد دارم و 10 میلیون نمونه (با جایگزینی) می گیرم... نمودار اولی که پیوست کرده ام نشان می دهد که چند بار از همان چیزی نمونه برداری می کنم، که نسبتاً نادر است. جمعیت بزرگتر از نمونه من است. با این حال، اگر جمعیت من فقط 10 میلیون چیز باشد، و من 10 میلیون نمونه را انتخاب کنم، همانطور که نمودار دوم نشان می دهد، اغلب از همان چیزهایی که تکرار می شوند نمونه برداری می کنم. سوال من این است - از جدول فراوانی مشاهدات من (داده های موجود در نمودارهای میله ای) آیا می توان تخمینی از اندازه جمعیت اصلی زمانی که ناشناخته است بدست آورد؟ و اگر بتوانید اشارهای به نحوه انجام این کار در R ارائه دهید عالی خواهد بود
| |
70925
|
برای درک خروجی یکی از مدلهای lme، مثال سادهتری را با استفاده از lm ارائه کردم (بنابراین فاکتور تصادفی وجود ندارد). متوجه شدم که مدل برازش شده من به نظر نمی رسد به درستی با داده ها مطابقت داشته باشد، زیرا مقادیر y پیش بینی شده به شدت از مقادیر داده شده هنگام استفاده از پیش بینی (lm) منحرف می شوند. مجموعه داده های من این است: a = c(rep(1:10، 4)) b = c(10,20,30,40,50,60,70,80,90,100, 5,8,10,14,17, 22,27,35,42,50, 90,82,73,64,56,48,40,33,25,18, 5،6،8،10،12،14،17،20،23،26) c = c(rep(مرد، 10)، rep(مونث، 10)، rep(مرد، 10) , rep(زن، 10)) d = c(rep(کم، 20)، rep(بالا، 20)) e = data.frame(yval = b, xval = a، جنسیت = c، آموزش = د) از نظر گرافیکی به نظر می رسد: کتابخانه(ماشین) scatterplot(yval~xval | آموزش، صاف = F، شبکه = T، گسترش = F، reg.line = T، داده = e، xlab = x، ylab = y) scatterplot(yval~xval | جنسیت، صاف = F، شبکه = T، گسترش = F، reg.line = T، داده = e، xlab = x، ylab = y) و مدل خطی این است: lm2 = lm(yval~xval+sex+xval:sex+education+xval:education, data = e) خلاصه (lm2) با استفاده از e_pred = e e_pred$pred = predict(lm2) من مقادیر پیش بینی شده را دریافت می کنم که به هیچ وجه با داده های واقعی مطابقت ندارند: e = cbind(e,e_pred$pred) آیا این به این دلیل است که بیش از یک تعامل مهم وجود دارد؟ خیلی ممنون (پیشاپیش) که خواندید و شاید جواب دادید!!
|
پیش بینی (lm) با دو تعامل ممکن است یا نادرست؟
|
105027
|
من قبلاً در اینجا یک سؤال مرتبط با این موضوع پرسیدم: چه زمانی حداکثر احتمال همان حداقل مربعات است که می دانم می دانم چگونه Levenberg Marquardt (LM) را می توان برای تابع هدف اعمال کرد. در مقاله در صفحه 315: http://www.ssc.upenn.edu/~fdiebold/papers/paper55/DRAfinal.pdf، نویسندگان همچنین بیان میکنند که: «ما با تکرار مارکوارت و برنت–هال–هال– احتمال را به حداکثر میرسانیم. الگوریتم های هاسمن با استفاده از مشتقات عددی، گام بهینه و معیار همگرایی 10^-6 برای تغییر هنجار بردار پارامتر از یک تکرار به تکرار دیگر. کسی میدونه منظورشون از این دقیقا چیه؟ آیا LM را به طور کامل اجرا میکنید و سپس مجموعه پارامترهای بهینه پیدا شده را میگیرید و از آنها به عنوان حدسهای اولیه برای الگوریتم BHHH استفاده میکنید، سپس BHHH را اجرا میکنید و آن راهحلها را به عنوان حدسهای اولیه به LM میبرید و تا زمان همگرایی تکرار میکنید؟ یا گام به گام تکرار می شوند؟ بنابراین شما همان کار فوق را انجام می دهید، اما به جای اجرای یک بهینه سازی کامل هر بار، به سادگی یک مرحله در یک زمان انجام می دهید؟ حتی بهترین حدس های شما بسیار خوشایند خواهد بود. باز
|
ترکیب BHHH و Levenberg Marquardt
|
36034
|
وظیفه به شرح زیر است: یکی از مشتریان من در سال گذشته در حال جمعآوری آماری از خرید یک کالای خاص (بگذارید آن را مانا نامگذاری کنیم) در مغازه خود داشته است. قیمت مانا در آن دوره زمانی بسیار بالا و پایین رفت - گاهی اوقات در محدوده چند سنت در واحد حجم. آزمایش این فرضیه ارزشمند به نظر می رسد که هر زمان که قیمت مانا کمی کاهش یابد، تقاضا برای مانا افزایش می یابد. چگونه می توان این را به درستی آزمایش کرد؟ شاید بتوانید پیوندهایی به مطالبی که هر رویکرد مشابهی را توصیف می کند در اختیار من قرار دهید؟ پیشاپیش ممنون
|
نحوه آزمون فرضیه وابستگی بین قیمت و تقاضا
|
12976
|
شاید این یک سوال ساده لوحانه باشد پس من را سرزنش نکنید. نمیدانم که آیا دو خوشهبندی معادل انجام یک خوشهبندی و سپس یک انتخاب متغیر است (در نهایت یک خوشهبندی جدید دنبال میشود)؟ آیا این رویکردها نتایج متفاوتی دارند؟
|
دو خوشه بندی و انتخاب متغیر
|
70920
|
من در حال خواندن TPE توسط Lehmann andCasella بودم که در آنجا به این مثال رسیدم: If $X\sim\text{Bin}(n,p)$ و ما یک $\text{beta}(a,b)$ را برای $p در نظر می گیریم. $. برآوردگر بیز در این مورد $\frac{x+a}{n+a+b}$ است. اگر $a=b=0$، این برآوردگر $x/n$ است، اما چگالی قبلی در این مورد نامناسب است. اگر $1\leq x \leq n-1$ با $x/n$ به عنوان میانگین خلفی باشد، چگالی خلفی مناسب است. هنگامی که $x=0$ یا $x=n$، قسمت عقبی دیگر مناسب نیست. **با این حال، هر برآوردگر $\delta(x)$ که $\delta(0)=0$ و $\delta(n)=1$ را برآورده کند، ضرر مورد انتظار بعدی محدود است و در $\delta(x)= به حداقل می رسد. x/n$.** من نمی توانم این قسمت آخر را تأیید کنم.
|
پیشین بیزی نامناسب
|
105480
|
داده های چند گزینه ای رگرسیون لجستیک ساده یا رگرسیون لجستیک چند جمله ای
|
|
112081
|
تابع انرژی یک RBM گاوسی چگونه مشتق می شود؟
|
|
41756
|
فرض کنید نمونه ای به اندازه n=9 داریم که مجموع آن برابر با 27 و مجموع مقادیر مربعی آن برابر با 113 است. میانگین نمونه 27/9=3 و میانگین مقادیر مربع 113/9 = 12.56 است. واریانس نمونه $S^2 = E(\overline X^2) - E(\overline X)^2 = 12.55 - 9 = 3.56 دلار
|
چگونه واریانس نمونه را محاسبه کنیم؟
|
70387
|
من یک مجموعه داده با 20 کیلو متغیر دارم. من سعی کردم برخی از ویژگی ها را از طریق «Boruta» و «FSelector» انتخاب کنم اما به دلیل کمبود حافظه نتوانستم به آن دست پیدا کنم. من همچنین سعی کردم از bigmemory استفاده کنم اما نتوانستم این کار را انجام دهم. اکنون، من به این فکر می کنم که ستون های مجموعه داده خود را به k-fold تقسیم کنم، به عنوان مثال. 20 برابر، سپس ویژگیهای هر فولد را انتخاب میکنم. پس از آن، ویژگی های انتخاب شده برای هر فولد ترکیب شده و الگوریتم انتخاب یک بار دیگر بر روی آنها اعمال می شود. آیا این راه حل معتبری است؟ آیا احتمال از دست دادن یک ویژگی مهم با راه حل بالا وجود دارد؟
|
انتخاب ویژگی k-fold
|
35825
|
من یک سوال تحقیقاتی پایان نامه دارم که شامل آن چیزی است که من فکر می کنم به طور مناسب با استفاده از ANOVA 4 طرفه تجزیه و تحلیل می شود. متغیر وابسته نمره اضطراب ریاضی است (از مقیاس لیکرت 5 درجه ای استفاده می کند). متغیرهای مستقل، برای این بخش از تجزیه و تحلیل، شامل دستههایی میشوند: ریاضی/آمار و حسابداری/مالی با معیارهای شکست (نیاز به یا تکرار دوره) و موفقیت (نمره درس C یا بهتر با یا بدون نیاز اولیه به تکرار) برای هر کدام. * * * من فکر می کنم این یک ANOVA چهار طرفه با استفاده از دو سطح برای هر عامل است: ریاضی/آمار-تکرار: بله یا خیر ACC/FIN-تکرار: بله یا خیر ریاضی/آمار-موفقیت: بله یا خیر ACC/FIN -موفقیت: بله یا خیر * * * فرضیه صفر: هیچ اثر اصلی قابل توجهی به دلیل شکست یا موفقیت در دوره های مانع وجود ندارد (4 عامل با 2 سطح: تکرار ریاضی یا آمار (بله یا نه) ریاضی یا آمار موفقیت (بله یا خیر) آیا اثرات متقابل قابل توجهی بین عوامل تجربه دوره مانع وجود دارد؟ فرضیه صفر: هیچ اثر متقابل قابل توجهی به دلیل شکست یا موفقیت در دوره های مانع وجود ندارد. * * * من این یادداشت را در مورد تفکرم برای این موضوع به استادم ارسال کردم... نکته در مورد یافته های مورد انتظار: دانش آموزانی که بیان می کنند نیاز به تکرار ریاضی دارند (به عنوان مثال) اما هنوز آن را تکرار نکرده اند ممکن است نمره اضطراب ریاضی به طور غیرعادی بالایی داشته باشند که می تواند نشان دهد به عنوان یک اثر متقابل قابل توجه بین تکرار MAT/STAT و گذراندن MAT/STAT. * * * آیا من این وضعیت را بیش از حد پیچیده کرده ام یا واقعاً باید به این شکل با آن برخورد کرد؟ من نگرانم که فروپاشی تعاملات احتمالی را از دست بدهد. همچنین آیا Minitab ابزار خوبی برای این تحلیل خواهد بود؟ من چندین صد شرکت کننده و داده های نامتعادل را پیش بینی می کنم.
|
چگونه به درستی آنالیز کنیم: ANOVA 4 طرفه؟
|
71030
|
من محاسبهای انجام دادهام که نمونهای از رکوردها حداقل دارای 1 رکورد معیوب با فرض جایگزینی است. 20000000 رکورد در جمعیت وجود دارد که 7000 معیوب هستند و من 200000 نمونه میگیرم. با فرض جایگزینی، احتمال اینکه حداقل 1 نمونه از 200000 نمونه دارای یک رکورد معیوب باشد این است: 1 - (7000/20000000)^200000 = 1 - 3.9 x 10^(-31) اگر من فرض جایگزینی رکورد را حذف کنم هر نمونه، من معتقدم که محاسبه می شود: حاصل ضرب [1- 7,000/(20,000,000 -n] با n=0 تا n=(200,000 - 1) مشکل من این است که من اکنون نمی دانم چگونه حاصل محاسبه ترتیب را انجام دهم. در اکسل می توانم 200,000 فردی را ایجاد کنم. احتمالات و ضرب آنها در هم، اما می ترسم گرد کردن مشکل باشد (احتمال 1 بود - 2.7 x 10^(-31)) آیا کسی می تواند پیشنهاد دهد که چگونه می توانم این حاصل ضرب یک محاسبه دنباله را با دقت بیشتری انجام دهم؟
|
انجام محاسبات حاصل ضرب یک دنباله،
|
44072
|
من از بسته «پیشبینی» در R استفاده میکنم. میخواستم بدانم تابع «ets()» چگونه مقدار $\alpha$، $\beta$ و $\gamma$ را پیدا میکند؟ آیا با به حداقل رساندن SSE یا برخی معیارهای دیگر است؟
|
مقادیر $\alpha$، $\beta$ و $\gamma$ در ets در بسته پیشبینی
|
29417
|
عادی سازی داده های نمونه برای خوشه بندی
|
|
78194
|
دانش آموزان بر اساس دو جنبه به گروه A یا B اختصاص داده می شوند: یک نمره از یک امتحان و ارزیابی معلم خود. دانشآموزانی که هم نمره بالا و هم ارزشیابی مثبت دارند وارد گروه A میشوند، دانشآموزان دیگر در گروه B. میدانم که نمره بسیار تأثیرگذارتر از ارزشیابی معلم است. من نمرات امتحانی 1000 دانش آموز را دارم. من همچنین می دانم که آیا دانش آموزان به گروه A یا B اختصاص داده شده اند یا خیر. می خواهم بدانم که آیا میانگین نمره دانش آموزان در گروه A بالاتر از میانگین نمره در گروه B است. من به این رگرسیون فکر می کنم (که معتقدم معادل یک است. مستقیم t-test): $\text{Grade}_i=\alpha+\beta*\text{DumA}_i+\epsilon_i$ که در آن $\text{Grade}_i$ است نمره دانش آموز i. اگر دانش آموز i در گروه A باشد $\text{DumA}_i$ برابر با 1 و در غیر این صورت 0 است. آیا دانش آموزان گروه A نمره بالاتری دارند اگر آلفا بر اساس آزمون t استاندارد معنی دار باشد؟ توجه داشته باشید که دانشآموزان گروه A معمولاً نمره بالاتری دارند زیرا تکلیف بیشتر بر اساس نمره است. به نظر من ساختگی درون زا است و بنابراین تخمین آلفا نادرست است. آیا تعبیر من درست است؟ آیا این به این معنی است که نمی توان میانگین دو گروه را با هم مقایسه کرد؟ آیا جایگزینی وجود دارد؟ هر گونه فکر بسیار قدردانی می شود!
| |
78195
|
در فرضیه آماری آزمایش لهامن و رومانو، ویرایش دوم، مشکلی وجود دارد که می گوید: اگر فضای نمونه اقلیدسی باشد و $P_0$ و $P_1$ دارای چگالی نسبت به معیار lebesgue باشند، در هر آزمون قدرتمندترین تست غیرتصادفی وجود دارد. سطح معناداری $\alpha$. چرا نتیجه مستقیم قضیه نیمن-پیرسون نیست؟ فرضیه هر دو ساده است و $P_0$ و $P_1$ دارای چگالی هستند!
| |
44393
|
اشتقاق خطای پیشبینی/تعمیم
|
|
113437
|
استفاده صحیح از ضریب تغییرات
|
|
14383
|
بگو من مدلی را با استفاده از proc reg data = data نصب کرده ام. مدل a = b; اجرا؛ چگونه می توانم آزمایش کنم که مثلاً ضریب b کمتر از 1 باشد؟
|
در SAS چگونه می توانم یک آزمون یک طرفه ضریب را در رگرسیون خطی انجام دهم؟
|
71036
|
فرض کنید من دو یا چند جمعیت نمونه از بردارهای با ارزش پیوسته n بعدی دارم. آیا روشی ناپارامتریک برای آزمایش وجود دارد که آیا این نمونه ها از یک توزیع هستند؟ اگر چنین است، آیا تابعی در R یا پایتون برای این وجود دارد؟
|
آزمایش کنید که آیا توزیع های چند بعدی یکسان هستند یا خیر
|
111729
|
در درک من، یک درخت مدل به صورت بازگشتی یک مجموعه داده را تقسیم بندی می کند، و سپس از یک مدل رگرسیون خطی در هر گره برگ استفاده می کند. از طرف دیگر، یک اسپلاین رگرسیون چند جمله ای های مختلف را به صورت تکه تکه به هم اضافه می کند تا به مدل نهایی برسد. با فرض اینکه اسپلاین رگرسیون مدل های خطی را با هم جمع می کند، تفاوت بین این دو نوع مدل چیست؟
|
تفاوت بین درخت مدل و اسپلاین فیت چیست؟
|
79934
|
PCA در مقابل تحلیل عاملی
|
|
18603
|
من به ویکیپدیا اجازه میدهم نحوه محاسبه NPS را توضیح دهد: > امتیاز خالص تبلیغکننده با پرسیدن یک سوال از مشتریان در مقیاس رتبهبندی > 0 تا 10 به دست میآید، که در آن 10 «بسیار محتمل» و 0 «اصلاً محتمل نیست» است. : چقدر احتمال دارد که شرکت ما را به یک دوست > یا همکار توصیه کنید؟ بر اساس پاسخهایشان، مشتریان به یکی از سه گروه تقسیم میشوند: مروجین (ردهبندی 9 تا 10)، غیرفعالها (رتبهبندی 7 تا 8)، و مخالفان (ردهبندی 0 تا 6). سپس درصد Detractors از درصد Promoterها کم می شود تا امتیاز خالص پروموتر (NPS) به دست آید. NPS > می تواند تا 100- پایین باشد (همه یک نفر مخالف هستند) یا تا 100+ > (همه یک پروموگر هستند). ما چندین سال است که این نظرسنجی را به صورت دوره ای اجرا می کنیم. هر بار صدها پاسخ دریافت می کنیم. امتیاز حاصل در طول زمان بین 20-30 امتیاز تغییر کرده است. من سعی میکنم بفهمم کدام حرکات امتیازی، در صورت وجود، مهم هستند. اگر این خیلی سخت باشد، من همچنین علاقه مندم که حاشیه خطا را در اصول اولیه محاسبه کشف کنم. حاشیه خطای هر «سطل» (مروج، منفعل، مخالف) چقدر است؟ شاید حتی اگر من فقط به میانگین نمرات نگاه کنم، حاشیه خطا چقدر است و داده ها را به یک عدد در هر نظرسنجی کاهش می دهم؟ آیا این من را به جایی می رساند؟ هر ایده ای در اینجا مفید است. به جز «از NPS استفاده نکن». این تصمیم خارج از توانایی من برای تغییر است!
|
چگونه می توانم حاشیه خطا را در نتیجه NPS (امتیاز خالص پروموتر) محاسبه کنم؟
|
71034
|
من قرار است یک سری ویژگی های عموما مفید را از یک متن استخراج کنم. موارد استفاده متفاوت است، اما یکی از آنها می تواند دسته بندی متن باشد. البته یکی از مواردی که در اینجا به ذهن متبادر می شود طولانی بودن متن است. اما چگونه می توانم این را در یک ویژگی (یا مجموعه ای از ویژگی ها) که قرار است مقادیری بین 0.0 و 1.0 داشته باشد، رمزگذاری کنم. سخت است که بگوییم کد روی چه متن هایی اجرا می شود. بیشتر آنها احتمالاً مقالههای خبری آنلاین هستند، برخی مقالات ویکیپدیا هستند (برای مثال، این مقاله بسیار طولانیتر از مقاله استاندارد خبری بیبیسی شما است: http://en.wikipedia.org/wiki/Barack_Obama)، یا ممکن است فقط توییتهایی داشته باشیم. اگر بالا شناخته شده باشد، یک کار ساده این خواهد بود: feature_value = text_length/upper_bound اما کران بالایی را نمی دانم. می توانم حدس بزنم، اما ممکن است مواردی داشته باشم که feature_value بزرگتر از 1.0 باشد. به نوعی این نیز یک مشکل نسبتاً عمومی به نظر می رسد، که احتمالاً راه حل های خوبی برای آن وجود دارد. من حدس می زنم من فقط نمی دانم به کجا نگاه کنم. بنابراین، هر گونه نکات بسیار قدردانی می شود!
|
چگونه مقادیر عددی را به ویژگی ML در محدوده [0;1] تبدیل کنیم؟
|
71038
|
من مجموعه داده ای دارم که شامل چند صد تراکنش از سه تامین کننده است که در بیش از 100 کشور در یک دوره سه ساله فعالیت می کنند. ما دریافتیم که کشور فروش عامل مهمی در قیمت های به دست آمده نیست (محصولات کم و بیش کالاهای جهانی هستند). تمام قیمت ها در طول زمان به طور قابل توجهی کاهش یافته است. هر روز میتواند چندین تراکنش با قیمتهای متفاوت از یک تامینکننده (یعنی در کشورهای مختلف) داشته باشد. من می خواهم آزمایش کنم که آیا تفاوت آماری معنی داری در قیمت هایی که توسط تامین کنندگان مختلف دریافت می شود وجود دارد یا خیر. داده ها چیزی شبیه به این هستند: کشور X 1/1/2010 200 دلار تامین کننده یک کشور Y 1/1/2010 209 دلار تامین کننده A کشور Z 1/1/2010 $187 تامین کننده یک کشور A 1/1/2010 200 دلار تامین کننده B کشور X 1 /2/2010 $188 تامین کننده B هر گونه ایده در مورد چگونگی انجام این؟.....
|
رگرسیون داده هایی که شامل تاریخ می شود
|
3364
|
R package ltm: نحوه دستکاری عنوان در نمودار منحنی مشخصه دسته پاسخ آیتم
|
|
44077
|
فرض کنید، من سه نقطه زمانی، «Ta»، «Tb» و «Tc» دارم. بگذارید Ta کنترل و Tb و Tc اثر دارو 4 ساعت و 8 ساعت پس از درمان باشد. برای هر جفت نقطه زمانی، من حدود 15000 مشاهده (ژن ها، برای بیان دیفرانسیل، به طور دقیق) مقایسه می کنم. بنابراین، برای هر جفت نقطه زمانی، برای هر ژن، مقدار p به دست میآید. هدف من به دست آوردن تمام آن ژن هایی است که ممکن است به دلیل درمان دارویی تأثیر داشته باشند. حالا برای تصحیح تست های متعدد از روش BH استفاده می کنم. با این حال، من در مورد روش اعمال FDR سردرگمی دارم. > مورد الف: من میتوانم تمام مقادیر p را از همه جفتهای نقطهی زمانی با هم جمع کنم > (Ta.Tb، Tb.Tc، Tc.Ta، هر ژن سه بار وجود دارد) و یک بار آزمایش چندگانه را در این تلفیقی تصحیح کنم. مجموعه > > مورد B: میتوانم آزمایشهای متعدد را در هر جفت نقطه زمانی اصلاح کنم (به طور جداگانه برای Ta.Tb، Tb.Tc، Tc.Ta). من مطمئن نیستم که آیا اجماع وجود دارد > اینکه کدام یک را به کار بگیرم و چرا. درک من: برای مورد A، فرض کنید تعداد زیادی رویداد بسیار معنی دار بین Ta و Tb وجود داشته باشد، سپس، ممکن است رویدادهایی را که در غیر این صورت از نظر آماری معنی دار هستند (با مقادیر p محاسبه شده) از دست بدهید. به عنوان مثال، آنها پس از اصلاح FDR به دلیل مقادیر p پایین در سایر جفتهای نقطه زمانی، ناچیز میشوند. به عنوان مثال، اگر اثر کلی دارو (به معنی بیشتر ژن ها) در Tb.Tc در مقایسه با Ta.Tb قوی نباشد، ممکن است اصلاً نبینیم که اثر دارو در Tb.Tc وجود دارد. . و در مورد B، احتمالاً رویدادهای مهم تری دریافت خواهید کرد، یعنی موارد مثبت کاذب بیشتری نیز وجود دارد؟ بسیار ممنون می شوم اگر کسی بتواند این موضوع را روشن کند. خیلی ممنون.
|
تست چندگانه و FDR روی چند جفت
|
76561
|
من در تعیین کمیت موافقت/اختلاف هیستوگرام هایی که با داده های همبستگی خودکار پر شده اند، مشکل دارم. زمینه: من با gps-data روی سرعت هایی کار می کنم که با 1Hz ضبط شده اند. بنابراین بدیهی است که یک همبستگی بین $v_i$ و $v_{i+1}$ (و $v_{i+2}$ و غیره) وجود دارد، که در صورت افزایش/کاهش فراوانی نمونهگیری قویتر/ضعیفتر میشود. بنابراین اکنون دو هیستوگرام پر از چنین مقادیر سرعتی دارم که مایلم آنها را با هم مقایسه کنم. معمولا من برای چیزی شبیه به $\chi^2$ تست می روم. اما در اینجا من در مورد نحوه تعیین عدم قطعیت در تعداد $N_i$ مشاهده شده در هر bin گم شده ام. من فقط می دانم که با توجه به همبستگی، $\sqrt{N_i}$ مطمئناً اشتباه است. من به یک رویکرد مبتنی بر مونت کارلو فکر میکردم، یعنی انجام تعداد زیادی شبه آزمایش، شمارش این که چقدر توافق مشاهدهشده بهتر/بدتر از توافق بین دو هیستوگرام است که میخواهم آزمایش کنم. اما به نظر می رسد بیش از حد است - و بدیهی است که زمان بیشتری نسبت به اتصال همه اعداد به فرمول مناسب نیاز دارد.
|
توافق کمی از هیستوگرام های پر شده با داده های همبسته خودکار
|
71033
|
من می فهمم که Posterior چیست، اما مطمئن نیستم که دومی به چه معناست؟ این 2 چه تفاوتی دارند؟ کوین پی مورفی در کتاب درسی خود، یادگیری ماشینی: دیدگاه احتمالی، اشاره کرد که این یک حالت باور درونی است. واقعا این به چه معناست؟ من تحت این تصور بودم که یک پیشین نشان دهنده باور یا تعصب درونی شماست، کجا اشتباه می کنم؟
|
تفاوت بین توزیع پیش بینی پسین و پسین چیست؟
|
7089
|
من به فرمولی برای احتمال یک رویداد در توزیع برنولی با متغیر n نیاز دارم $X\in\\{0,1\\}^n$ با احتمالات $P(X_i=1)=p_i$ برای یک عنصر و برای جفت عناصر $P(X_i=1 \wedge X_j=1)=p_{ij}$. به طور معادل می توانم میانگین و کوواریانس X$ را بدهم. قبلاً یاد گرفتم که توزیعهای $\\{0,1\\}^n$ زیادی وجود دارد که دارای ویژگیها هستند، همانطور که توزیعهای زیادی با میانگین و کوواریانس مشخص وجود دارد. من به دنبال یک توزیع متعارف در $\\{0,1\\}^n$ هستم، همانطور که Gaussian یک توزیع متعارف برای $R^n$ و یک میانگین و کوواریانس معین است.
|
فرمول احتمال برای توزیع چند متغیره-برنولی
|
112082
|
من 10 مجموعه داده با توزیع نرمال و انجام تست های معناداری روی هر یک دارم. با این تعداد مجموعه داده، شانس خوبی وجود دارد که برخی به طور تصادفی قابل توجه باشند. من قصد دارم روش بونفرونی را برای حل این مشکل امتحان کنم، اما روش دیگری که برای من پیش آمد یک روش دو جمله ای است. به عنوان مثال، اگر مقدار p برای هر معناداری فردی 0.01 باشد، احتمال به دست آوردن یک نتیجه معنی دار از B (10، 0.01) تبعیت می کند. سپس می توانید احتمال هر تعداد نتیجه قابل توجه را ایجاد کنید. آیا این روش مشروع است؟ من هیچ مشکلی در آن نمی بینم و در یک تاپیک دیگر ذکر شده است اما به نظر می رسد زیاد رایج نیست و می خواهم بدانم آیا استفاده از آن مشکلی دارد یا خیر.
| |
7084
|
### زمینه: در رابطه با سوال اینجا به سوال جالب تری برخوردم. من معتقدم که سوال به اندازه کافی بزرگ و متمایز است که موضوع خود را داشته باشد. البته ممکن است اشتباه کنم، در آن صورت برای درهم ریختگی عذرخواهی می کنم... من مجموعه داده ای از مقادیر تجربی دارم که از یک توزیع ناشناخته آمده است. سپس داده ها در یک تجزیه و تحلیل استفاده می شوند و به عنوان معیاری برای اهمیت نتایج تجزیه و تحلیل، من می خواهم داده های تصادفی را از همان توزیع نمونه برداری کنم و تجزیه و تحلیل خود را روی این مجموعه داده ها (مثلاً 1000 برابر اندازه مجموعه داده اصلی) اجرا کنم. ) برای دیدن اینکه آیا نتایج حاصل از مقادیر تجربی انحراف قابل توجهی را از داده های تصادفی نشان می دهد یا خیر. من به ترسیم نمونههایی از یک توزیع نرمال فکر میکردم، زیرا طبیعیتر به نظر میرسد که نمونهها از توزیع نرمال آمده باشند. با این حال، باید به نوعی از فرض عادی بودن خود حمایت کنم. من در ابتدا به استفاده از نوعی تست نرمال بودن فکر می کردم، اما پس از مطالعه در مورد این موضوع مانند طبیعی بودن چیست؟ و تست نرمال بودن: اساسا بی فایده است؟ رشته ها و البته مقاله ویکی پدیا در مورد تست های عادی. من احساس میکنم که این آزمایشها روشی قابل قبول برای تأیید مفروضات نرمال بودن نیستند. ### سوال: 1. چگونه می توان عادی بودن را بدون استفاده از نشانه های بصری مانند نمودار QQ تایید کرد؟ (اعتبار بخشی از نرم افزار بزرگتر خواهد بود) 2. آیا می توان نمره خوبی تناسب را محاسبه کرد؟ * * * _**ویرایش:**_ همانطور که درخواست شد، سعی می کنم جزئیاتی در مورد داده ها اضافه کنم. داده های موجود از یک آزمایش بیولوژیکی است، با این حال ابزار دقیق دارای تنوع بالایی بین اجراها است. تحلیلی که ذکر کردم مقادیر اندازه گیری شده را می گیرد و با استفاده از یک مدل ریاضی معنای عملکردی داده های اندازه گیری شده را ارزیابی می کند. برای انجام این کار، باید ببینم که نرخ دادههای غیرمرتبط/ناهمبسته و ساختهشده در همان تحلیل چقدر است، از این رو قصد مدلسازی با مقادیر تصادفی شده است. امیدوارم این دیدگاه من را روشن کند. * * * **_EDIT2:_** یک سری سوال وجود داشته است که در مورد سوال توضیح داده شده است. هم در اینجا و هم در نظرات زیر سعی کردم در حد توانم شرایطم را توضیح دهم. به نظر میرسد که ما از عدم تطابق ارتباطی رنج میبریم... نمیدانم چگونه میتوانم بدون نوشتن یک جدول طولانی و پیچیدهتر کردن مسائل یا سادهکردن بیرحمانه تصویر بزرگتر، مثالی بزنم. من شک ندارم که همه کسانی که وقت خود را صرف کردند و پاسخ دادند بهترین نیت را دارند، اما واقعاً ممنون می شوم اگر بتوانید به جای پرس و جو بیشتر و بیشتر در مورد انگیزه های پشت سر چرایی انجام کارها به این روش، روی سؤال مورد نظر تمرکز کنید. و نه راه دیگری
|
توجیه تقریب نرمال داده های تجربی
|
12978
|
آیا راهی برای اجرای تابع «sem» (بسته R **sem**) با استفاده از روش WLS وجود دارد؟ علاوه بر این، من یک مجموعه داده بسیار کوچک (20 مشاهده) دارم، آیا می توانم با استفاده از تکنیک بوت استرپینگ بر این مشکل غلبه کنم؟
|
برآوردگر WLS و بوت استرپینگ در بسته sem
|
6949
|
من به دنبال کتاب/مطالعه موردی و غیره در مورد چگونگی ساخت یک مدل تشخیص تقلب در سطح تراکنش هستم. چیزی کاربردی به جای تئوری واقعا مفید خواهد بود.
|
آیا کتاب/مواد مرجع خوبی برای کمک به ساختن مدل تشخیص تقلب در سطح txn وجود دارد؟
|
15475
|
من در درک یک تکه کاغذ مشکل دارم. از هرگونه راهنمایی یا کمک بسیار سپاسگزاریم. می گوید: > حسگر Z(i) را در فواصل 1 ثانیه ضبط می کند و پس زمینه > مقادیر U(i) را با استفاده از فرمول محاسبه می کند: > > U(i)=R*U(i-1)+(1-R)* Z(i)، > > که در آن R یک عامل ثابت است و U(0) از داده های پیش اندازه گیری محاسبه می شود. حالا آیا این فرمول معروف است یا خیر؟ آیا صدای مخلوط گاوسی دو مدتی است؟ سپس دقیقاً به این صورت می گوید: > واریانس δU(i) این مقادیر از مقادیر محاسبه شده محاسبه می شود > U(i): > > δU(i)=k*sqrt(U(i)/T) > > که در آن k عامل سیگما و T زمان اندازه گیری داده شده است. من نمی دانم چگونه واریانس چیزی شبیه به آن شد. من اصطلاح T و تابع sqrt را میدانم اما فرمول کلی آن را نمیدانم.
|
چگونه می توان واریانس میانگین متحرک وزنی را استخراج کرد؟
|
86756
|
بنابراین من مجموعه ای از 9 مقادیر x,y دارم و باید شیب/شیب داده ها و خطای مربوط به آن را پیدا کنم. بدون خطا، من از تابع LINEST Excels استفاده میکردم، اما از آنجایی که خطاهای مقادیر y من بزرگ هستند (بدون خطای مقدار x)، به LINEST نیاز دارم تا این موارد را در نظر بگیرد. چگونه این کار را انجام دهم؟ با تشکر
|
عدم قطعیت در گرادیان داده ها
|
71031
|
من در حال تلاش برای خوشه بندی داده ها با استفاده از Mclust هستم. داده ها در اصل از یک ماتریس عدم تشابه هستند که از طریق مقیاس بندی چند بعدی در R («MASS::isoMDS») تبدیل شده است. همانطور که با تعداد ابعاد مختلف آزمایش میکنم، دریافتم که با تعداد ابعاد بزرگتر (~50 نسبت به ~10 برای مقادیر کوچکتر امتحان شده) انواع مدلهای خاصی مقادیر «NA» را برای BIC با تعداد مؤلفههای بیشتر، یعنی خوشهها، برمیگردانند. . کتابچه راهنمای Mclust بیان می کند > مقادیر از دست رفته مربوط به مدل ها و تعداد خوشه هایی است که > مقادیر پارامتر برای آنها مناسب نیست (با استفاده از مقداردهی اولیه پیش فرض). برای دادههای چند متغیره، مقداردهی اولیه پیشفرض برای همه مدلها از طبقهبندی > از خوشهبندی سلسله مراتبی بر اساس یک مدل نامحدود استفاده میکند. آیا کسی میتواند توضیح دهد که چه چیزی باعث عدم تناسب مقادیر پارامتر میشود و چگونه به تعداد ابعاد مورد استفاده مربوط میشود؟ دانستن این موضوع ممکن است به من در درک بهتر ارزش بالقوه یا عدم وجود آن ابعاد بعدی کمک کند. در موارد مرتبط، در مواردی که من امتحان کردهام، نوع مدل VVV در تعداد کمتری از مؤلفهها و سپس EVI و VEV، سپس VEI و VII متوقف میشود و 4 مورد دیگر (EEI، EII، EEE، و EEV) برمیگردند. حداکثر 9 مؤلفه را به طور پیش فرض تعیین می کند. اگر مفید باشد، میتوانم تعداد دیگری از ابعاد را اجرا کنم تا الگوی واضحتری به دست بیاورم.
|
چرا برخی از خوشه بندی های مبتنی بر مدل با تعداد زیادی از ابعاد سازگاری ندارند؟
|
88805
|
http://imgur.com/FeFf3e9 پیوند imgur به یک اسکرین شات از بخش مربوطه در متن من است. من در درک اینکه چگونه اگر $H(x, \infty)=F(x)$ توزیع حاشیه ای $x$ باشد، چگونه $F(x) = x، 0 < x < 1$ حاشیه یکنواخت است، مشکل دارم. چگونه توزیع حاشیه ای می تواند یکنواخت باشد اگر برابر $F(x)=x$ باشد؟ علاوه بر این، چگونه یک تابع CDF می تواند یکنواخت باشد؟ «یکنواخت» در این متن به چه چیزی اشاره دارد؟
|
کمک به درک توزیع حاشیه ای یکنواخت در خانواده Farlie-Morgenstern.
|
15477
|
من از تابع **bptest** بسته lmtest برای استفاده از تست Breusch-Pagan استفاده می کنم. من یک نتیجه عجیب دریافت می کنم، با انجام موارد زیر: > m <- lm(prices[,1]~prices[,2]+0) > bptest(formula(mod)) داده های آزمون Breusch-Pagan دانشجویی شده: formula(mod) BP = 0.458، df = 0، p-value < 2.2e-16 > m <- lm(prices[,1]~prices[,2]) > bptest(formula(m)) دادههای آزمون بروش-پاگان را دانشجو کرد: فرمول (m) BP = 0.0503، df = 1، p-value = 0.8225، همانطور که میبینید اگر من فاصله را روی صفر قرار دهم (`+ 0`) دریافت میکنم مقدار p بسیار پایین است، سپس اگر دوباره آزمایش را با وقفه انجام دهم، مقدار p خوبی دریافت می کنم. تنظیم وقفه روی صفر نیز «df = 0» را برمیگرداند، بنابراین، مشکلی پیش آمد. کسی میتونه دلیلشو برام توضیح بده؟ متشکرم
|
چرا تست Breusch-Pagan با شکست مواجه می شود اگر رهگیری را روی صفر تنظیم کنم؟
|
86757
|
من به یک مدل تخمین ترکیبی نگاه می کنم و دوست دارم بفهمم که چگونه می توان واریانس را از آن بدست آورد. برای زمینه، مدلهایی را که میخواهم در زیر ترکیب کنم، قبل از ادامه سؤال در مورد واریانس مدل ترکیبی ارائه میدهم. مدل اول به صورت زیر ارائه می شود: $\pi = x\beta+u$ که در آن: * $\pi$ بردار $n \times 1$ از بازده تعادل CAPM برای دارایی ها است. * $x$ ماتریس $n \times n$ $I_n$ است که بارهای عاملی برای مدل ما هستند. * $\beta$ بردار $n \times 1$ از معنی ناشناخته برای فرآیند بازگشت دارایی است. * $u$ یک ماتریس $n \times n$ از باقیمانده های رگرسیون است که در آن $E(u)=0$ است. و $Var(u)=E(u'u)=\Phi$ و $\Phi$ غیر مفرد است. مدل دوم به صورت زیر ارائه می شود: $q=p\beta+v$ که در آن: * $q$ بردار $k \times 1$ است که باید با آن مخلوط شود. * $x$ ماتریس $k \times n$ است که در آن بازده مدل دوم به مدل اول نگاشت می شود. * $\beta$ بردار $n \times 1$ از معنی ناشناخته برای فرآیند بازگشت دارایی است. * $v$ یک ماتریس $k \times k$ از باقیمانده های رگرسیون است که در آن $E(v)=0$ است. و $Var(v)=E(v'v)=\Omega$ و $\Omega$ غیر مفرد است. سپس مدل مختلط توسط: $ \Bigg[\begin{matrix} \pi\\\ q \end{matrix}\Bigg] = \Bigg[\begin{matrix} x\\\ p \end{matrix} داده میشود. \Bigg] \hat\beta+ \Bigg[\begin{matrix} u\\\ v \end{matrix}\Bigg] $ اکنون $\Bigg[\begin{matrix}u\\\v\end{matrix}\Bigg]$ باید خطای مدل باشد و من به واریانس خطا علاقه مند هستم. من میدانم که $Var(X) = E(XX) - E(X)^2$، زیرا $E(X)$ در هر دو مورد صفر است، حداقل با توجه به درک من، این موضوع برای من باقی میماند: $Var\Bigg(\Bigg[\begin{matrix}u\\\v\end{matrix}\Bigg]\Bigg)=\Bigg[\begin{matrix}u\\\v\end{matrix}\Bigg ]'\Bigg[\begin{matrix}u\\\v\end{matrix}\Bigg]$، با این حال، در حال بررسی فرمولاسیونی هستم که میخوانم: $Var\Bigg(\Bigg[\begin{matrix}u\\\v\end{matrix}\Bigg]\Bigg)=\Bigg[\begin{matrix}u\\\v\end{matrix}\Bigg ][\begin{matrix}u' v'\end{matrix}]$. آیا هر دو نمایش Var معادل هستند، آیا درک من اشتباه است یا چیز دیگری گم شده است؟
|
واریانس یک مدل تخمین مختلط
|
47750
|
من یک مجموعه آموزشی دارم که برای آموزش یک طبقه بندی کننده SVM استفاده می شود، مدل یافت شده برای پیش بینی مجموعه داده ای از چندین نمونه بدون برچسب استفاده می شود. من می خواهم بدانم چگونه می توان شاخص خوبی از پیش بینی را استخراج کرد. من مقالاتی برای تخمین احتمال پیشبینی با استفاده از فاصله از ابر صفحه SVM پیدا کردم، اما یک مثال دور لزوماً به معنای یک مثال طبقهبندی شده نیست. آیا روش دیگری برای ارزیابی این سوال وجود دارد؟
|
شاخص اهمیت پیشبینی دادههای بدون برچسب
|
112087
|
من یک دیتافریم با ستون زیر دارم: Year، Temperature، Num.Species که همه متغیرهای عددی هستند. هر ردیف نشان دهنده تعداد گونه های مشاهده شده در یک سال خاص و میانگین دمای آن سال است. من می خواهم آزمایش کنم که آیا شیب رگرسیون Year~Temperature با شیب رگرسیون Year~Temperature هنگام استفاده از Num.Species به عنوان یک فاکتور وزنی متفاوت است یا خیر. با توجه به آنچه من تا به حال فهمیدم، انجام این کار با ANCOVA امکان پذیر است. اما هیچ متغیر دسته بندی در داده های من وجود ندارد. هر گونه کمکی قدردانی خواهد شد!
| |
88809
|
من یک مجموعه داده با 2 کلاس و یک روش خاص برای ساختن یک طبقه بندی کننده باینری دارم. من می خواهم عملکرد آن را اندازه گیری کنم و آزمایش کنم که آیا به طور قابل توجهی بالاتر از سطح شانس است یا خیر. من عملکرد آن را با اعتبارسنجی متقابل مکرر اندازه میگیرم (به زیر مراجعه کنید). **سوال من این است: چگونه اهمیت را آزمایش کنیم؟** در اینجا روش اعتبارسنجی متقاطع من است. من از اعتبارسنجی متقاطع طبقه بندی شده 100 برابری مونت کارلو استفاده می کنم (البته من دقیقاً مطمئن نیستم که این عبارت درست باشد؛ به نظر می رسد برخی از افراد آن را _boostrap_، یا _out-of-bootstrap_، یا _leave-group-out_ cross-validation) می نامند: در هر فولد به طور تصادفی موارد تست $K=4$، 2 مورد از هر کلاس را انتخاب می کنم، طبقه بندی کننده را بر روی داده های باقی مانده آموزش می دهم و این ها را طبقه بندی می کنم. 4 مورد. فرض کنید من طبقه بندی های صحیح $a_i$ را دریافت کردم. این کار $N=100$ بار تکرار میشود، و بنابراین من تعداد کلی طبقهبندی صحیح $A = \Sigma a_i$ را دریافت میکنم. من میانگین دقت طبقهبندی $A/400$ و انحراف استاندارد دقتهای فردی $a_i/4$ را گزارش میکنم. * نکته 1: به دلایلی که فکر می کنم در اینجا خیلی مهم نیستند، نمی توانم K$ را افزایش دهم و نمی توانم از اعتبارسنجی متقاطع k-fold معمولی استفاده کنم، بنابراین این رویکرد مونت کارلو تنها روش ممکن برای من است. واریانس برآوردگر من بسیار زیاد است، اما من کار دیگری ندارم. * نکته 2: @FrankHarrel می گوید که دقت طبقه بندی یک قاعده امتیاز دهی نامناسب ناپیوسته است. من می دانم، اما در این مورد خاص با آن خوب هستم. من در اینجا هیچ مدلی را بهینه نمی کنم، طبقه بندی کننده من قبلاً داده شده است. اکنون، ساده لوحانه فکر میکنم که یک طبقهبندی تصادفی هر مورد را با احتمال 50% پیشبینی میکند، بنابراین تعداد طبقهبندیهای صحیح تحت فرضیه صفر طبقهبندیکننده سطح شانس، $\mathrm{Binom}(400, 0.5) \approx \mathcal{ خواهد بود. N}(200,100)$، بنابراین می توانم به سادگی آزمایش کنم که آیا $A$ من در $\alpha$% بالایی است (مثلا 1٪ صدک این توزیع دو جمله ای / نرمال. با این حال، تصمیم گرفتم که یک تست درهم ریختگی انجام دهم. من برچسبهایم را به هم میزنم، سپس از کل روش بالا با 100 تا زدن استفاده میکنم تا دقت متوسط به هم ریخته $B_j$ را به دست بیاورم، و این مخلوط کردن $M=100$ را بارها تکرار میکنم. هدف نمونه برداری از دقت در فرضیه صفر است. پس از به دست آوردن 100 مقدار $B_j$، به توزیع آنها نگاه می کنم. میانگین بسیار نزدیک به 200 است که خوب است. با این حال، واریانس **خیلی** بزرگتر از 100 است، حدود 1500 است. من نمی دانم چگونه ممکن است. بعد از اینکه دقیقتر نگاه کردم، متوجه شدم که در داخل هر مخلوط، واریانس طبقهبندی صحیح بیش از 100 برابر حدود 1 است، همانطور که انتظار میرفت: $4*0.5*(1-0.5)=1$. اما در داخل برخی از اینها، میانگین تعداد طبقهبندیهای صحیح کمی کمتر از 2 است، و در برخی از اینها کمی بیش از 2 است. این تغییرات اضافی باعث میشود واریانس $B_j$ بسیار بالا باشد. در مقابل، اگر در داخل هر مخلوط از یک طبقهبندی واقعاً تصادفی به جای طبقهبندیکننده ساخته شده بر روی یک مجموعه آموزشی مطابق با روش من استفاده کنم، آنگاه به خوبی از $\mathcal{N}(200,100)$ B_j$ پیروی میکنم. چگونه ممکن است؟ **آیا از توزیع دوجمله ای یا تجربی برای تست های آماری استفاده کنم؟** تفاوت بسیار زیاد است. اگر باید از روش تجربی استفاده کنم، آیا راهی برای تقریب آن بدون انجام عملاً درهم ریختگی (که طول می کشد) وجود دارد؟ **به روز رسانی** در واقع یک راه سوم برای آزمایش اهمیت وجود دارد که به ذهنم می رسد: من می توانم به فاصله اطمینان $A$ خود نگاه کنم و ببینم آیا 200 را حذف می کند یا خیر. هر به هم زدن با این حال، من در مورد اینکه فاصله اطمینان را بر اساس چه واریانسی باید بسازم سردرگم هستم: آیا این انحراف استاندارد $a_i$ است یا خطای استاندارد میانگین $a_i$؟ تفاوت البته بسیار زیاد است. اگر تعداد کل نمونهها زیاد باشد، میتوان چینهای مونت کارلوی من را مستقل فرض کرد و حدس میزنم میتوانم خطای استاندارد میانگین $a_i$ را بگیرم. اما اگر تعداد کل نمونه ها زیاد نباشد، دیگر مستقل نیستند. از سوی دیگر، انحراف معیار بیش از حد بزرگ است که برای آزمایش مفید باشد. به نظر می رسد که باید واریانس $a_i$ را بر جذر _تعداد موثر تاها_ (که کمتر از 100 خواهد بود) تقسیم کنم، اما نمی دانم چگونه آن را تخمین بزنم.
|
آزمایش اهمیت صحت طبقهبندی تأیید شده متقاطع: درهمرفتن در مقابل آزمون دو جملهای
|
97858
|
در رگرسیون، مقدار بتا نشان دهنده افزایش $y$ است اگر $x$ یک واحد تغییر کند. بتای استاندارد شده همان اطلاعات را می دهد، اما برای افزایش انحرافات استاندارد. اما چرا $y$ نمی تواند 2 SD افزایش یابد اگر $x$ به عنوان مثال 1 SD افزایش یابد؟ منظورم این است که اگر تاثیر به اندازه کافی سنگین باشد؟ همچنین، من فرض کردم ضریب همبستگی صرفاً معیاری برای میزان تفاوت دو متغیر با هم، مستقل از شیب است. اما در رگرسیون، شیب وابسته به ضریب همبستگی است. آیا این دو اطلاعات متفاوت هستند؟
|
محدوده بتای استاندارد شده در رگرسیون خطی
|
4276
|
من یک سنسور دارم که دادههای شتابسنج را در حین راهرفتن شخص میگیرد. چیزی که من علاقه مند به استخراج آن هستم، هر قطعه سیگنال در هنگام برداشتن یک مرحله است. محور Z همان چیزی است که استفاده می شود زیرا برای تشخیص تغییرات در مراحل فقط یک محور مورد نیاز است. تصاویر زیر نمونه سیگنال راه رفتن محور Z را نشان می دهد (برای 400 تکرار). نیمه اول سیگنال فوق (برای 200 تکرار).  سوژه ابتدا ثابت می ایستد و سپس در ~X=30 شروع به راه رفتن می کند. توجه کنید که چگونه یک الگوی ظاهری هنگام راه رفتن کاربر وجود دارد. آنچه من علاقه مند به استفاده از Autocorrelation برای صاف کردن سیگنال محور Z با استفاده از Matlab برای صاف کردن سیگنال هستم (بر اساس تصویر زیر). متأسفانه، من سابقه پردازش سیگنال قوی ندارم و درک مناسبی از Matlab دارم. چگونه می توانم سیگنال راه رفتن را صاف کنم تا بتوانم مراحل را استخراج کنم؟ ادبیاتی که من استفاده میکنم نشان میدهد که میتوان مراحل را با نگاه کردن به قلههای سیگنال هموار استخراج کرد.  منابع دیگر استفاده از مدلهای پنهان مارکوف را برای استخراج هر یک از چرخههای راه رفتن پیشنهاد کردهاند، اما من قبل از اینکه به یک رویکرد پردازش سیگنال سادهتر فکر کنم. استفاده از چیزی پیشرفته را در نظر بگیرید. با این حال، اگر بخواهم این مسیر را دنبال کنم، بهترین استراتژی چه خواهد بود؟
| |
40402
|
من مشکل زیر را دارم: می خواهم داده های زیر را تجزیه و تحلیل کنم: فروش محصولات در سال با توجه به * نوع محصول * گروه محصول (انواع محصولات مشابه با هم گروه بندی می شوند) * کشوری که در آن فروخته شده است * نوع محصول کاربردی که برای آن فروخته شده است. بنابراین به جز سال، همه آن متغیرها دسته بندی هستند. از چه روش های آماری می توان برای ایجاد پیش بینی برای آینده و تحلیل داده های موجود و **اثرات و تعاملات** عوامل ذکر شده در بالا بر ارقام فروش استفاده کرد؟ اگر فاکتورهای عددی باشد، فکر میکنم رگرسیون میتواند کمک کند - در این مورد چه کاری میتوان انجام داد؟ (دانش من در مورد آمار تا به حال بسیار محدود است.)
|
چگونه می توان اثرات چندین متغیر عمدتاً طبقه بندی شده را بر روی یک مقدار عددی پیدا کرد؟
|
76567
|
من قصد دارم یک رگرسیون چرخشی در Stata انجام دهم و فقط می خواهم R-squared را بدست بیاورم. من قصد دارم آن را ساده نگه دارم، من یک برنامه کامل نمی نویسم، اما در صورت لزوم، من برای چنین پیشنهاداتی نیز آماده هستم. در حال حاضر من خطوطی دارم که با آنها فقط تخمین ضرایب بتا و خطاهای استاندارد را بدست میآورم. من فقط این را مستقیماً وارد رابط کاربری گرافیکی می کنم. tsset time rolling _b _se، window(60) keep(date) clear: regress y x اندازه مراحل 1 است و بنابراین دستور مربوطه از خطوط کد حذف می شود. من این را بر اساس کتابچه راهنمای stata (http://www.stata.com/manuals13/tsrolling.pdf) قرار دادم. با این حال، من در این راهنما R-squared ذکر شده را نمی بینم. من همچنین این موضوع را به طور گسترده در گوگل جستجو کردم و به بخش استاتالیست نگاه کردم اما نتوانستم راه حلی پیدا کنم. پیشنهادات برای به دست آوردن ستونی که شامل R-squared هر رگرسیون باشد بسیار قدردانی خواهد شد. دان
|
مربع R از رگرسیون غلتشی در Stata 12
|
13736
|
من با اصطلاحات آمار آشنا نیستم، بنابراین نمی توانم آن را در گوگل جستجو کنم مگر اینکه بدانم نام آن چیست. مشکل من این است: من یک تست دارم (به دلیل نداشتن اصطلاح بهتر) که در آن از مردم می خواهم که پاسخی را انتخاب کنند. در پایان آزمون میپرسم که آیا آن شخص برنامهنویس یا طراح است، از صفر تا ده نمره میدهم و سپس میخواهم نتایج را از هر دو جامعه ترسیم کنم. مشکل این است که در حال حاضر پاسخ های بیشتری از توسعه دهندگان دارم (حدود 2 به 1). منصفانه ترین راه برای عادی سازی این داده ها چیست؟ نتایج بسیار شبیه منحنیهای زنگ هستند، آیا باید نمودارها را طوری مقیاسبندی کنم که مطابقت داشته باشند؟ می توانید آزمون را در اینجا ببینید: http://method.ac/test
|
چگونه می توان توزیع های یک متغیر را برای دو گروه با اندازه های نمونه متفاوت به صورت گرافیکی مقایسه کرد؟
|
40407
|
اخیراً من یک مشکل ابتدایی در مورد توزیع دوجمله ای را حل می کردم، این مسئله درخواست می کند که $P(X<=2)$ را تعیین کند، که در آن $X$ محصولات ناسازگار است، نمونه 50 واحد است، و کسر ناسازگار 0.02 است. راه حل پیشنهادی این است: $$ P(X\le2) = P(X=0) + P(X=1) + P(X=2). $$ من با این راه حل موافق نیستم، فکر می کنم باید این باشد: $$ P(X\le2) = P(0<X<=2) = P(X=1) + P(X=2)، $ $ زیرا $X=0$ نشان دهنده عدم واحدهای ناسازگار است. هنگامی که در مسئله دیگری درخواست می شود احتمال تعیین حداقل 1 محصول ناسازگار باشد تأیید می شود و راه حل پیشنهادی این است: $P(X\ge1)=1-P(X=0)$. نظر شما در این مورد چیست؟
|
معنی P(X=0) در توزیع دوجمله ای
|
92371
|
من به دنبال معادل بودن از نظر پارامترهای دو مدل هستم. مجموعه داده $(x_1، y_1)،...، (x_n، y_n)$ را در نظر بگیرید و i.d. اکنون اجازه دهید ابتدا فرض کنیم که $Y$ با مثلاً 4 سطح طبقه بندی شده است. سپس یک مدل رگرسیون لجستیک تجمعی با فرض شانس های متناسب $\mbox{logit}(P(Y\leq j|X)=\alpha_j+\beta X$ داده می شود. مدل نسبت ادامه رو به جلو توسط $\mbox{log}( P(Y=j|Y\geq j,X)=\gamma_j+\theta X$ آیا می توانم رابطه بین آن را به من ثابت کنم $\alpha_j،\gamma_j،\theta$ و $\beta$ هم ارزی این دو مدل با پیوند log-log تکمیلی ایجاد شده است.
|
نسبت ادامه و مدل شانس متناسب تجمعی
|
69957
|
مسئله روز من این است: در حال حاضر به خودم اقتصاد سنجی می آموزم و از رگرسیون لجستیک استفاده می کنم. من مقداری کد SAS دارم و میخواهم قبل از اینکه بخواهم آن را به R تبدیل کنم، مطمئن شوم که آن را به خوبی درک کردهام (من ندارم و SAS را نمیدانم). در این کد، میخواهم احتمال «کارمند بیکار» بودن یک نفر را مدل کنم. منظور من سن بین 15 تا 64 سال و تدبیر = بیکار است. من می خواهم سعی کنم این نتیجه را با متغیرهای زیر پیش بینی کنم: جنس، سن و idnat (شماره ملیت). (سایر موارد مساوی هستند). کد SAS : /* نرخ بیکاری : تعداد بیکاری در بین نیروی کار */ proc logistic data=ensus; class sex(ref=Man) age idnat(ref=spanish) / param=glm; درایت کلاسی (رف=اول); تدبیر مدل = سن جنسیت idnat / لینک = logit; جایی که 15<=سن<=64 و درایت در (کارمند بیکار); وزن وزن؛ فرمت سن سن C. درایت $activity. idnat $nat_dom. ملیت دلاری جنسیت $M_W.; ls به معنای جنسیت / obsmargins ilink; lsmeans idnat / obsmargins ilink; ls به معنی سن / obsmargins ilink; اجرا؛ این نمونه ای از ظاهر پایگاه داده است: idnat جنسیت تدبیر [1،] انگلیسی زن 42 کارمند [2،] فرانسوی زن 31 بیکار [3 ,] اسپانیایی زن 19 کارمند [4،] انگلیسی مرد 45 بیکار [5،] انگلیسی مرد 34 کارمند [6،] اسپانیایی زن 25 کارمند [7،] اسپانیایی مرد 39 بیکار [8 ,] اسپانیایی زن 44 بیکار [9،] اسپانیایی مرد 29 کارمند [10،] اسپانیایی مرد 62 بازنشسته [11،] اسپانیایی مرد 64 بازنشسته [12،] انگلیسی زن 53 بیکار [13] ,] انگلیسی مرد 43 بیکار [14،] فرانسوی مرد 61 بازنشسته [15،] فرانسوی مرد 50 کارمند این همان نتیجه ای است که من می خواهم به دست بیاورم: ارزش وجه متغیر شاخص ChiSq جنسیت زنان 56.6% 0.00001 -8.9% مردان 65.5% ملیت 1:اسپانیایی 62.6% 2 :فرانسوی 51.2% 0.00001 -11.4% 3:انگلیسی 48.0% 0.00001 -14.6% سن <25 سال 33.1% 0.00001 -44.9% Ref:26<x<54yo 78.0% 55yo=< 48.7% 0.00001 - 48.7% 0.00001-0.00001 (من موارد فوق را اینگونه تفسیر می کنم: در شرایط مساوی، زنان 9/8- درصد شانس شاغل شدن در مقابل مردان دارند و افراد کمتر از 25 سال 9/44- درصد شانس شاغل بودن نسبت به افراد بین 26 تا 54 سال دارند). بنابراین اگر به خوبی درک کنم، بهترین رویکرد استفاده از رگرسیون لجستیک باینری (link=logit) خواهد بود. این از ارجاعات مرد در مقابل زن (جنس)، کارمند در مقابل بیکار (از متغیر تدبیر) استفاده می کند... من فرض می کنم تدبیر به طور خودکار توسط SAS به یک متغیر باینری (0-1) تبدیل می شود. این اولین تلاش من در R است. من هنوز آن را بررسی نکردهام (به رایانه شخصی خودم نیاز دارم): ### قبل از استفاده از تابع glm ### همه پیشبینیکنندهها را به فاکتورها تغییر دهید و مرجع سطح را تغییر دهید. $sex), ref = Man) recens$idnat <- relevel(factor(recens$idnat), ref = اسپانیایی) recens$tact <- relevel(factor(recens$tact), ref = کارمند) recens$ageC <- relevel(factor(recens$ageC), ref = Ref : De 26 a 54 ans) ### محاسبات احتمالات با تابع glm، متغیرهای قالببندی شده ###، و شرایط با محدودیت زیر مجموعه به از 15 سال تا 64 ### و فقط کارمند و بیکار. glm1 <- glm(فعالیت ~ جنسیت + سن C + idnat، داده=recens، وزن = وزن، زیرمجموعه= recens$age[(15<= recens$ سن | recens$ سن <= 64)] و recens$tact %in% c(کارمند، بیکار)، خانواده = quasibinomial (logit)) سوالات من: در حال حاضر، به نظر می رسد که بسیاری از آنها وجود دارد. توابع برای انجام یک رگرسیون لجستیک در R مانند glm که به نظر می رسد مناسب است. با این حال، پس از بازدید از بسیاری از انجمن ها، به نظر می رسد بسیاری از مردم توصیه می کنند که سعی نکنید دقیقاً SAS PROC LOGISTIC، به ویژه عملکرد LSMEENS را بازتولید کنید. دکتر فرانک هارل، (نویسنده بسته:rms) برای یک. با این حال، حدس میزنم مشکل بزرگ من LSMEENS و گزینههای آن Obsmargins و ILINK باشد. حتی پس از خواندن مکرر شرح آن، به سختی می توانم بفهمم که چگونه کار می کند. تا اینجا، چیزی که من از Obsmargin فهمیدم این است که به ساختار کل جمعیت پایگاه داده احترام می گذارد (یعنی محاسبات با نسبت کل جمعیت انجام می شود). به نظر می رسد ILINK برای به دست آوردن مقدار احتمال پیش بینی شده (نرخ بیکاری، نرخ اشتغال) برای هر یک از پیش بینی کننده ها (به عنوان مثال زن و سپس مرد) به جای مقدار یافت شده توسط مدل (نمایی) استفاده می شود؟ به طور خلاصه، چگونه می توان این کار را از طریق R، با lrm از rms یا lsmeans انجام داد؟ من واقعاً در همه اینها گم شده ام. اگر کسی بتواند آن را برای من بهتر توضیح دهد و به من بگوید که آیا در مسیر درستی هستم، روزم را بهتر می کند. از کمک شما متشکرم و بابت تمام اشتباهات انگلیسی من متاسفم
|
رگرسیون لجستیک SAS را به R تبدیل کنید
|
72295
|
احتمال اینکه عنصر i از همه عناصر قبلی بزرگتر باشد چقدر است؟
|
|
86759
|
برای شروع، من یک فرد غیر روحانی هستم. من یک مدل پروبیت را با استفاده از GRETL تخمین زده ام. همه جلوه های حاشیه ای 0 هستند (نه خیلی کوچک یا چیزی - اما صفر). من قبلا از چند مدل پروبیت و لاجیت استفاده کرده ام و هرگز برای من اتفاق نیفتاده است. من یک تخمین لاجیت برای همان مدل انجام دادم، و اوکی بود (اثرات حاشیه ای غیر صفر). چگونه می توانم اثرات حاشیه ای صفر را در تخمین پروبیت توضیح دهم؟ پیشاپیش از همه تشکر می کنم!
|
مدل پروبیت - اثرات حاشیه ای: همه صفر
|
104990
|
من چندین مجموعه توزیع احتمال دارم. من میخواهم سازگاری بین توزیعهای داخل هر مجموعه را با اطمینان تخمین بزنم. ادبیات شامل روش هایی برای مقایسه دو توزیع است: واگرایی Kullback-Leibler، فاصله حرکت دهنده زمین، ... اما من نتوانستم چیزی برای بیش از دو توزیع پیدا کنم. من می توانم شاخصی را تصور کنم که بر روی یکی از این روش ها ساخته شده است. برای مثال، من میتوانم ابتدا همه توزیعهای احتمال را در یک توزیع ادغام کنم. و سپس از میانگین (یا میانه) KL متقارن (یا هر فاصله/واگرایی/...) بین توزیع ادغام شده و همه توزیع های دیگر در مجموعه در نظر گرفته شده استفاده کنید. اما قبل از شروع کاری غیرعادی، ترجیح میدهم مطمئن باشم که هیچ چیز از قبل وجود ندارد.
| |
43279
|
یکی از ویژگی های تجزیه و تحلیل اجزای اصلی (PCA) این است که بعد اول آموزنده ترین بعد بعد دوم و غیره است. آیا این ویژگی برای مقیاس بندی چند بعدی (MDS) نیز صادق است؟
|
آیا بعد اول در مقیاس بندی چند بعدی آموزنده تر است؟
|
104260
|
من یک رویداد نادر را مدلسازی میکنم (مثلاً 1 در 10000) و از یک مجموعه قطار نمونهبرداری شده برای تأیید اعتبار و آموزش مدل خود استفاده میکنم. من از ROC به عنوان یک معیار عملکرد جهانی استفاده میکنم، اما دلایل تجاری وجود دارد که میخواهم بتوانم مثبت کاذب را در حد مشخصی که توسط افراد تجاری ما مشخص شده است (مثلا 0.95) ارتباط برقرار کنم. بر اساس مجموعه قطار نمونه برداری شده بیش از حد، مدل من یک ROC 0.97 تولید می کند (5 برابر اعتبار متقاطع). اگر من به منحنی نگاه کنم، می توانم تعیین کنم که نرخ مثبت کاذب در برش 0.95 0.0003 است. به این نکته توجه کنید که وقتی یک مجموعه تست را نمره می دهم و همه مشاهدات را با احتمال 0.95 یا بیشتر انجام می دهم، آیا می توانم بگویم که به طور متوسط 0.0003 از آن ها مثبت کاذب خواهد بود؟ یا آیا باید 0.0003 را تنظیم کنم تا توزیع کلاس واقعی رویداد نادر خود را محاسبه کنم؟
|
ROC و نرخ مثبت کاذب با نمونه برداری بیش از حد
|
28972
|
من امیدوار بودم که بتوانید اطلاعاتی در مورد چگونگی تفسیر و ارائه ضرایب سطح گروه و درجات آزادی در یک مدل اثرات مختلط (در مورد من: لجستیک) ارائه دهید. من کاملاً از نحوه درک آنها به معنای کلاسیک آگاه هستم، قطعاً در مدل های OLS معمولی و رگرسیون لجستیک. با این حال، من هنوز در بیشتر کتاب های راهنمای اختصاص داده شده به مدل سازی جلوه های ترکیبی (مثلاً گلمن و هیل) با روش بسیار کاملی برخورد نکرده ام. در واقع، به نظر میرسد که بیشتر آنها روی پیشبینیکنندههای سطح یک (یا سطح فردی) متمرکز هستند و پیشبینیکنندههای سطح دو (یا سطح گروه) را بیشتر بهعنوان «کارهایی که شما هم میتوانید انجام دهید» در نظر میگیرند، که معمولاً فقط یک یا دو مورد آموزشی برای آنها وجود دارد. نمونه ها مسئله من این است که من یک مدل لاجیت اثرات مختلط با تعدادی پیش بینیگر گروهی دارم که اکثر آنها فرضیه های مورد علاقه مرتبط با سوال تحقیق من را تشکیل می دهند. من پانزده پیش بینی گروه و یک اثر تصادفی برای گروه دارم ($j = 59$)، با بیش از 60000 مشاهده کل در سطح فردی. من یک متغیر سطح گروهی برای فرضیه مورد علاقه دارم که برای آن مقدار $p$ از 0.06 تا 0.05 متفاوت است، مشروط به مشخصات مدل. تخمین مدل با استفاده از تابع glmmPQL در `R` (به عنوان مثال) می گوید DF برای متغیرهای سطح گروه $43$ است (یعنی: $59 - 15 - $1). اگر چنین است، آیا میتوانم نتایج را برای آن متغیر خاص بهعنوان معنیدار در 1.1 ارائه کنم، با توجه به اینکه متغیرهای سطح گروه میانگینهای گروه را تخمین میزنند، که برای آن مقدار N$ بهطور قابلتوجهی کوچکتر است؟ یا اینکه درک ضرایب سطح گروه در یک مدل اثرات مختلط بیشتر از این است؟ بابت هرگونه سردرگمی در سوالم پوزش می طلبم و از هر نظری که ممکن است داشته باشید قدردانی می کنم.
|
تفسیر ضرایب/درجات آزادی سطح گروه در مدل اثرات مختلط
|
115133
|
من یک مجموعه داده با 32 تخمین اندازه اثر دارم - فقط 11 مورد از آنها یک مقدار را برای تعدیل کننده مستمر مورد علاقه (سطح اضطراب نمونه ها) گزارش می کنند. تجزیه و تحلیل کامل موردی (محدود به 11 مورد) نشان میدهد که اضطراب پیشبینیکننده معنیداری برای اندازههای اثر در متارگرسیون است. من می خواهم از تکنیک های انتساب برای پر کردن مقادیر از دست رفته استفاده کنم تا ببینم آیا رابطه بین اضطراب و اندازه اثر (d) هنوز قابل توجه است یا خیر. اگر این کار را با استفاده از تابع موش در R انجام دهم، به طور خودکار d (اندازه اثر) را به عنوان پیش بینی کننده انتخاب می کند تا مقادیر قابل قبول اضطراب را به عنوان پیش بینی در ماتریس نشان داده شود. مسئله من این است که این حالت دایره ای به نظر می رسد \- من قبلاً می دانم که اضطراب d را پیش بینی می کند، بنابراین استفاده از d برای پیش بینی مقادیر گمشده اضطراب به نظر می رسد بازی تنیس بدون تور است و مطمئناً به طور مصنوعی رابطه را تقویت می کند. از طرف دیگر - مطمئناً نمی دانم که افزایش اضطراب d را پیش بینی می کند یا اینکه آیا افزایش اضطراب نتیجه اندازه اثر است - آنها ممکن است تأثیر متقابل داشته باشند. (d منعکس کننده یک سوگیری برای تهدید است، که ادبیات نشان می دهد که می تواند یک _علت یا پیامد_ اضطراب باشد...). به نظر می رسد که این استفاده از d را در انتساب مشروع تر می کند. همچنین، به نظر می رسد توصیه این است که از تمام متغیرهایی که در مدل اعمال شده پس از انتساب ظاهر می شوند (که البته d را به عنوان نتیجه نیز شامل می شود) در فرآیند انتساب استفاده شود (ون بورن، 1999). بنابراین با توجه به این موضوع، آیا باید به سادگی اندازه اثر را به عنوان پیشبینیکننده اضطراب برای انتساب حذف کنم و به جای آن به سایر متغیرهای جمعیت شناختی تکیه کنم یا فقط نمونهبرداری تصادفی از دادههای مشاهدهشده را انجام دهم؟ انجام این کار نیز اشتباه به نظر می رسد، زیرا به نظر می رسد با توجه به اینکه ما ایده ای از رابطه بین d و اضطراب داریم، عدم قطعیت کاذب در داده های منتسب ایجاد می کند. هر گونه کمک یا مرجع برای حل این مشکل بسیار قدردانی خواهد شد. لطفا اگر چیزی نامشخص است به من اطلاع دهید.
|
انتساب داده ها برای متاآنالیز با استفاده از بسته موش در R
|
28974
|
زمینه: می گویند من سعی می کنم غلظت یک ماده شیمیایی را تعیین کنم، بنابراین غلظت های شناخته شده ماده شیمیایی را می گیرم و یک منحنی استاندارد می سازم (6 اندازه گیری در هر استاندارد) سپس مجهول خود را 6 بار اندازه می گیرم. کاری که **می توانم** انجام دهم این است: می توانم از رگرسیون خطی برای تعیین محدودیت های اطمینان برای غلظت هر خوانده شده _مستقل_ از نمونه ناشناخته خود استفاده کنم (با استفاده از متغیر انتخاب و ذخیره پیش بینی ها از دستور REGRESSION، اما این چیزی نیست که می خواهم. من یک تخمین واحد (با خطای std یا کرانهای CI) از نمونه مجهول من را می خواهم که هر دو را به حساب می آورد: الف) خطا در مدل رگرسیون من ساخته شده از غلظت های استاندارد من. و ب) خطا در اندازه گیری من از یک نمونه ناشناخته من. چگونه می توانم این کار را در SPSS انجام دهم؟ اگر بخواهم مقادیر پیشبینیشده را از GENLINMIXED، MIXED یا GLM ذخیره کنم، یا هیچ مقدار پیشبینیشدهای برای ناشناختهام دریافت نمیکنم (زیرا هیچ مقدار وابسته فهرست نشده است) یا یک تخمین و خطای منحصربهفرد برای هر اندازهگیری تکراری ناشناختهام (زمانی که میخواهم برآورد گروه، نه برآورد برای هر تکرار). در اینجا چند نمونه از داده هایی است که من ساخته ام. بسته به تحلیلی که می خواهید امتحان کنید، ممکن است لازم باشد ابتدا VARSTOCASES را اجرا کنید. من نمیخواهم این سوال طولانی باشد، بنابراین آن را در این قالب ارسال میکنم: فهرست دادهها /conc read1 read2 read3 read3 read4 read5 read6 stdCurve. شروع دیتا 0.00446.00515.00450.00519.00500.00492 1 100.10054.10484.10086.10877.10293.102030. .21797 .21949 .18936 .19672 1 300 .32355 .31071 .30802 .30414 .30014 .26003 1 400 .42793 .39879 1 500 .47858 .47810 .55102 .49355 .51650 .46561 1 600 .66123 .62981 .62180 .70905.74126.71843.69953.77222 1 800.86298.75166.86441.77430.82915.85193. .79323 .93604 1 1000 .90955 1.00724 1.02682 .95047 1.03176 1.16755 1. .56990 .55395 .58641 .51932 .59506 .55967 0 داده پایانی.
|
چگونه می توانم میانگین موضوع (بدون خطا) را با اندازه گیری های مکرر در SPSS پیش بینی کنم؟
|
79245
|
من به دنبال مشاوره در مورد مدل های رگرسیون جریمه شده برای انتخاب متغیرهای کمکی در مطالعات اپیدمیولوژیک هستم. یکی از کارهای دشواری که من با آن روبرو هستم، انتخاب ویژگی است در حالی که هنوز سعی می کنم عوامل مخدوش کننده را در نظر بگیرم. در طول تحصیلات آکادمیک، روش های مختلفی از جمله روش های انتخاب گام به گام و هدفمند به من آموزش داده شده است. با این حال، این اواخر بیشتر شبیه یک هنر است تا علم. من اخیراً مدلهای رگرسیون جریمهشده را از طریق مطالعات مستقل آموختهام، اگرچه برای اهداف پیشبینی به کار میروند. من نمیپرسم آیا منابع معتبری وجود دارد که رگرسیون جریمهشده را برای مطالعات اپیدمیولوژیک به عنوان یک روش انتخاب ویژگی کارآمد پیشنهاد کند؟
| |
76563
|
من نمونه زیر را دارم. حالا باید تست کنم: $$H_0\\!:\mu=60,\\!000 \quad \text{Vs.}\quad H_a\\!:\mu>60,\\!000$$ دارم آن را در «نرمافزار R» محاسبه کردم اما نتیجه را نمیفهمم. قیمت <- c(60,250,400,550,517,380,425,280,389,559) عدد <- c(3,3,4,5,4,3,6,3,4,5) داده <- data.frame(قیمت, تعداد) قیمت <- data$Price # $ num <- data$Number # تست آمار xbar <- میانگین(قیمت) mu0 <- 60000 ثانیه <- sd(قیمت) n <- طول(قیمت) t <- (xbar-mu0)/(s/sqrt(n)) t #آمار مرجع آلفا <- 0.05 t.alpha <- qt(1-alpha, df=n-1) t.alpha _آیا باید قدر مطلق آماره t را در نظر بگیرم یا خیر؟_
|
تفسیر آزمون فرضیه
|
89170
|
من یک توزیع مشترک دارم که می توان آن را به صورت زیر نوشت: $$ p(\Theta | D) \propto p(D|\Theta) \; p(w|\lambda) \; p(\lambda) \; p(\phi) $$ که در آن $\Theta = \\{w، \lambda، \phi\\}$. توزیع قبلی روی $\lambda$ و $\phi$ با استفاده از توزیع گاما با برخی پارامترهای مقیاس اولیه و شکل مدلسازی میشود. قبل از $w$ با عبارت $p(w|\lambda)$ که یک نرمال چند متغیره با میانگین $0$ و مقداری دقت توسط $\lambda \Sigma^{-1}$ است داده میشود. عبارت احتمال با $p(D|\Theta)$ داده می شود. اکنون، میخواهم بهروزرسانیهای پارامترهای $\lambda$ و $\phi$ را برای یک $w$ معین دریافت کنم. بنابراین، برای تخمین معین $w$، من میخواهم تخمینهای قبلی توزیع گاما را برای $\lambda$ و $\phi$ بهروزرسانی کنم. از آنجایی که گاما قبلی مزدوج با عبارت احتمال است که به صورت عادی مدلسازی میشود، من حدس میزنم که برخی بهروزرسانیهای صریح برای این پارامترها وجود داشته باشد. با این حال، من چیز زیادی در این مورد نمی دانم و نمی دانم چگونه باید ادامه دهم. همچنین، $p(w|\lambda)$ قبلی این وابستگی را به $\lambda$ دارد و من مطمئن نیستم که آیا این یک مشکل است. قدردان هر پیشنهادی در مورد نحوه شروع به ادامه کار باشید.
|
به روز رسانی پارامترهای هایپر برای توزیع های مزدوج
|
11384
|
من می خواهم یک PCA را روی یک مجموعه داده اعمال کنم که متشکل از متغیرهای نوع مخلوط (پیوسته و باینری) است. برای نشان دادن این روش، یک مثال حداقل تکرارپذیر را در R در زیر میچسبانم. # ایجاد مجموعه مجموعه داده مصنوعی.seed(12345) n <- 100 x1 <- rnorm(n) x2 <- runif(n، -2، 2) x3 <- x1 + x2 + rnorm(n) x4 <- rbinom(n ، 1، 0.5) x5 <- rbinom(n، 1، 0.6) داده <- data.frame(x1، x2, x3, x4, x5) # ماتریس همبستگی با ضرایب مناسب # محصول-محور پیرسون: 2 متغیر پیوسته # Point-biserial: 1 متغیر پیوسته و 1 متغیر باینری # Phi: 2 متغیر باینری # برای اهداف آزمایشی از کتابخانه تابع hetcor (polycor) استفاده کنید ) C <- as.matrix(hetcor(data=data)) # اجرای PCA pca <- princomp(covmat=C) L <- loadings(pca) حال، من تعجب می کنم که چگونه امتیازات مؤلفه را محاسبه کنم (یعنی متغیرهای خام وزن شده با بارگذاری مؤلفه). هنگامی که مجموعه داده متشکل از متغیرهای پیوسته است، امتیازهای مؤلفه به سادگی با ضرب (مقیاس شده) داده های خام و بردارهای ویژه ذخیره شده در ماتریس بارگذاری (L در مثال بالا) به دست می آید. هر گونه اشاره خواهد شد تا حد زیادی قدردانی می شود.
|
امتیازات PCA و جزء بر اساس ترکیبی از متغیرهای پیوسته و باینری
|
30277
|
میخواهم بدانم کدام تکنیک برای تجزیه و تحلیل دادههای جمعآوریشده از طریق نظرسنجی خودگردان مناسب است. برخی از اطلاعات زمینه به شرح زیر است: موضوع: حمایت از شیردهی و محل کار محیط: محوطه دانشگاه حجم نمونه: 30-40 زن شاغل که از سال 2011 تا 2012 در مرخصی زایمان بودند (6 ماه اول) فرضیه: حمایت از شیردهی بر شروع و مدت شیردهی تأثیر می گذارد. نمونه سوالات: آیتم های اجتماعی و جمعیت شناختی به منظور توصیف زنان، سوالات مقیاس لیکرت که به: سیاست های دانشگاه و فرهنگ کار، حمایت فوری مدیر، حمایت فوری همکاران و جریان کار می پردازد. سوالات نزدیکی در رابطه با قصد شیردهی وجود خواهد داشت. این بر اساس سوال قبلی من در مورد رویکرد نمونه گیری و آنچه که باید به عنوان واحد تجزیه و تحلیل در نظر گرفته شود، استوار است. من واقعا از همه کمک ها و توجه شما قدردانی می کنم. بهترین،
| |
11387
|
فرض کنید من دنباله هایی از نمادها دارم که می توانند پنج مقدار داشته باشند: A، B، C، X، Y. طول متوسط دنباله ها حدود 7 است. مهم است که نمادهای A، B، C ** اهمیت بیشتری داشته باشند* * نسبت به X و Y که ممکن است به عنوان هر آنچه با A، B یا C متفاوت باشد در نظر گرفته شوند، باید آن داده ها را بین دو کلاس طبقه بندی کنم: مثبت و منفی. کلاس مثبت از دنباله هایی تشکیل شده است که عموماً به خوبی تراز شده اند مانند X X A B Y C A B C X X A Y A X B C X X توجه داشته باشید که نمونه های مثبت معمولاً دارای نمادهای A، B و C به ترتیب هستند. مثالهای منفی مانند B X A X X X C C A Y X X B به نظر درهمتر میآیند اولین فکر من این بود که آنتروپی کلید این مشکل است. من مقالات مختلفی را بررسی کردم اما هیچ چیز واقعاً راضی کننده نبود. بنابراین سوال من این است: از کدام ویژگی برای هدف طبقه بندی استفاده می کنید؟
|
طبقه بندی توالی نمادها
|
81400
|
من در مقایسه ضرایب مدل های رگرسیون لجستیک خود در Stata مشکل دارم. من یک متغیر وابسته (DV) کارآفرین بودن و چندین متغیر مستقل (IV) مانند سن، جنسیت، تحصیلات، شغل والدین و تحصیلات کارآفرینی دارم. به جز سن IV، همه IV ها متغیرهای ساختگی هستند. هنگام اجرای مدل رگرسیون لجستیک ('logit D1A expl_age expl_gen expl_edu expl_par expl_ent')، میخواستم بررسی کنم که این مدل برای افرادی که تحصیلات کارآفرینی دارند ('expl_ent=1') و کسانی که این آموزش را ندارند چگونه به نظر میرسد ( «expl_ent=0») با اجرای دستور: logit D1A expl_age i.expl_gen i.expl_edu i.expl_par if expl_ent==1 logit D1A expl_age i.expl_gen i.expl_edu i.expl_par if expl_ent==0 این دو مدل متفاوت با دو اندازه نمونه متفاوت به من می دهد. اکنون، میخواهم بررسی کنم که آیا $β$ برای متغیر ساختگی expl_par در مدل فقط با افرادی که دارای تحصیلات کارآفرینی هستند، تفاوت قابلتوجهی با $β$ برای همان متغیر دارد، اما در مدلی که فقط افراد دارای تحصیلات کارآفرینی هستند. تی تحصیلات کارآفرینی داشت. به طور رسمی تر: چگونه می توانم بررسی کنم که آیا ضریب متغیر x در مدل A، تفاوت قابل توجهی با ضریب متغیر x در مدل B دارد؟ تا آنجا که من نگران هستم یک آزمون t این کار را انجام می دهد، اما نمی توانم در مورد چگونگی انجام این کار فکر کنم.
|
مقایسه ضرایب در رگرسیون لجستیک با نمونه های مختلف
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.