_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
71387
درک من این است که تجزیه و تحلیل توان، اگر و تنها در صورتی که از اندازه اثر مشاهده شده به عنوان اندازه اثر جمعیت هدف استفاده کند، پس‌هک است.
چه زمانی (اگر همیشه) انجام یک تجزیه و تحلیل توان پس از مدتی ایده خوبی است؟
33005
نتیجه مورد نظر بیماری بله/خیر (کد 1/0) است و متغیر پیوسته مورد نظر بر حسب nmol/L اندازه گیری می شود. خروجی رگرسیون نشان می دهد که یک واحد تغییر در پیش بینی کننده (احتمالاً افزایش 1 نانومول در لیتر) منجر به کاهش 3٪ در بیماری می شود. این قابل توجه است. با این حال، فکر می‌کنم کاهش بیماری برای هر 10 نانومول در لیتر افزایش در متغیر پیوسته معنادارتر باشد. آیا این امکان پذیر است؟ اتفاقاً من طبق پیشنهاد قبلی log تبدیل به پایه 2 را انجام دادم و این نشان داد که دو برابر شدن متغیر پیوسته منجر به کاهش 35٪ در نتیجه بیماری شد.
چگونه می توانم اثر مربوط به افزایش $k$-واحد در پیش بینی کننده در رگرسیون لجستیک را دریافت کنم؟
112610
من می‌خواهم یک مدل لجستیک چند‌سطحی چندجمله‌ای را بسازم. متأسفانه من نتوانستم بسته ای را پیدا کنم که این را اجرا کند. من 'gsem' 'Stata' را امتحان کردم اما بسیار کند است و همگرا نمی شود. به همین دلیل است که می‌پرسیدم آیا می‌توان مدل‌های دوجمله‌ای متضاد را تخمین زد، آنها را ترکیب کرد و مدل چندجمله‌ای را تقریب زد. بنابراین من به یک رویکرد رسیدم اما در بخش ترکیب گیر کردم. دو سوال: 1. آیا رویکرد من صحیح/قابل انجام است؟ 2. اگر بله، چگونه می توانم پیش بینی های دسته پایه را محاسبه کنم **رویکرد:** Data $ D $ دارای یک متغیر وابسته $ y \in \\{1,2,3\\} $ است. من داده های خود را به دو زیر مجموعه تقسیم کردم: $ D_{1,2} $ و $ D_{1,3} $. جایی که $D_{1,2}$ شامل همه ردیف‌ها با $ y \in \\{1,2\\};$ $D_{2,3}$ از همه جایی که $y \in \\{1,3 \\}$ اکنون مدل $$ logit(p_i) = \ln\left(\frac{P(Y_i = 1)}{1-P(Y_i = 1)}\right)=\dots را محاسبه کردم $$ با $i \in \\{1,2\\}$ مربوط به مجموعه داده $D_{1,i}$ و $\dots$ نماد مشخصات مدل است. با پیش‌بینی این مدل، پیش‌بینی‌های $\hat{p_i}$ را دریافت می‌کنم، به این معنی که احتمال استفاده از $i$ جایگزین بیش از $1$ است. با نشان دادن $\hat{p_i}$ = `pi^`، مجموعه داده های حاصل به صورت زیر به نظر می رسد: y p2^ p3^ 1 0.2 0.1 1 0.7 0.8 2 0.6 . 3 . 0.1 ... **این منجر به سوال دوم من می شود:** اگر بخواهم $\hat y$ را پیش بینی کنم، چه کاری باید انجام دهم؟ و چگونه می توانم احتمال p1^ را محاسبه کنم، به این معنی که احتمال گرفتن 1 روی 2 و 3 است. من از هر کمکی ممنونم!
برآورد مدل های لجستیک چند سطحی چند جمله ای توسط مدل های دو جمله ای
113021
13 متغیر وجود دارد که با استفاده از لاجیت رگرسیون شده اند. همه متغیرها متغیرهای طبقه ای هستند. اکنون هدف من دیدن تعامل بین دو متغیر است. هنگامی که من Logit خود را اجرا می کنم، درجه آزادی آن تمام می شود و از این رو STATA هیچ نتیجه ای ارائه نمی دهد. مثال Q= i.A i.S i.Ec i.Pr i.xx i.dd#i.ii آیا می توانم 11 متغیر خود را پیوسته در نظر بگیرم و عبارت تعامل را اضافه کنم. اگر بله، چگونه از انجام خود پشتیبانی کنم. مثال Q = A S Ec Pr xx i.dd#i.ii
102865
من در حال یادگیری تجزیه و تحلیل آماری هستم و اکنون در مورد محاسبه خطای استاندارد میانگین سردرگم هستم. مجموعه داده من به نظر می رسد.. شرط A: حیوان 1 - 3،4،4،3،6 حیوان 2 - 5،5،5،8،7 شرایط B: حیوان 3 - 3،4،5،1،6 حیوان 4 - 3،1،1،4،8 چگونه می توانم خطای استاندارد میانگین شرط A را محاسبه کنم؟ من با دو روش گیج شدم 1) به سادگی میانگین را برای دو حیوان بگیرید و از ابزار آنها استفاده کنید، مانند میانگین برای حیوانات 1: 4 میانگین برای حیوانات 2: 6 میانگین کلی: 5 SD: $\sqrt{\frac{\left [\left(6-5\right)^{2} + \left(4-5\right)^{2}\right]}{2-1}} = \sqrt{2}$ SE: $\frac{\sqrt{2}}{\sqrt{2}} = 1$ یا شاید با استفاده از همه اندازه‌گیری‌ها مانند SD: $\sqrt{\frac{\left[\left( 3-5\راست)^{2} + \left(4-5\راست)^{2} + \left(4-5\راست)^2 + ...... + \left(8-5\right)^2 + \left(7-5\right)^{2}\right]}{\left(10-1\right)}} = \sqrt{\frac{24} {9}}$ SE: $\frac{\sqrt{\frac{24}{9}}}{\sqrt{10}} = 0.51$ کدام درست است؟ پیشاپیش ممنون
102867
سوال تصادفی جنگل mtry
102866
آیا تبدیل log متغیر وابسته بر خودهمبستگی تأثیر می گذارد؟
18608
من یک جدول داده بزرگ (~500000 ردیف) از معیارهای نرمال شده (براساس امتیاز Z) دارم که به این صورت است: +------+----------------- ---------------------------------------------------------------------------------------------- شناسه | M1 | M2 | M3 | M4 | +------+---------------------------------------- -----+---------------+ | 1 | -0.3993408978 | 1.1276756525 | -0.0048326259 | -1.3967152834 | | 2 | -0.3244025409 | 1.3201564550 | -0.0548842102 | -1.3317097425 | | 3 | -0.3025048971 | 1.0483477116 | -0.0849148855 | -1.3642125130 | | 4 | -0.2436245084 | 1.2600721121 | 0.0101827132 | -1.2992069721 | | 5 | -0.2781734169 | 0.3511493504 | -0.3752114475 | -1.4617208242 | | 6 | -0.2815801203 | 0.3369039595 | -0.3201552033 | -1.4617208242 | | 7 | -0.2197803259 | 0.5600918531 | -0.1750069261 | -1.3967152834 | | 8 | -0.1579796672 | 0.3966214657 | -0.0949251130 | -1.3967152834 | | 9 | -0.1209969074 | 0.0815875754 | -0.0799097717 | -1.4292180538 | | 10 | -0.1910693198 | -0.6976287961 | -0.2500836253 | -1.5917314291 | +------+---------------------------------------- -----+---------------+...500000 ردیف من همچنین یک نقطه پرس و جو دارم که شبیه این است: +------------------------------------------------ -------------+ | M1 | M2 | M3 | M4 | +------------------------------------------------ -------------+ | -0.5185617805 | 0.0669142157 | -0.2050375938 | -1.6918823719 | +------------------------------------------------ -------------+ (1 ردیف) سپس از نقطه پرس و جو برای ایجاد لیستی از 300 همسایه نزدیک به آن (با یک الگوریتم k-NN چند بعدی) استفاده می کنم. ** کاری که من می خواهم انجام دهم این است که قبل از انجام جستجوی k-NN، داده ها را با PCA تبدیل کنم.** می توانم این کار را با کتابخانه ALGLIB INPUT PARAMETERS: X - مجموعه داده، آرایه[0..NPoints-1 انجام دهم. ,0..NVars-1]. ماتریس فقط شامل متغیرهای مستقل است. NPoints - اندازه مجموعه داده، NPoints>=0 NVars - تعداد متغیرهای مستقل، NVars>=1 OUTPUT: اطلاعات - کد بازگشتی: * -4، اگر زیربرنامه SVD همگرا نشده باشد * -1، اگر پارامترهای اشتباه ارسال شده باشد (NPoints <0، NVars<1) * 1، اگر کار حل شود S2 - آرایه[0..NVars-1]. مقادیر واریانس مربوط به بردارهای پایه. V - ماتریس آرایه[0..NVars-1,0..NVars-1] که ستون های آن بردارهای پایه را ذخیره می کنند. بنابراین تا آنجا که من متوجه شدم، S2 حاوی داده های تبدیل شده من خواهد بود - **اما چگونه نقطه پرس و جو را به همان روش تبدیل کنم - تا بتوانم از آن برای جستجوی K-NN در داده های تبدیل شده استفاده کنم؟** حدس می زنم. من باید از 'V' استفاده کنم - ستونی که بردارهای پایه را ذخیره می کند. و سپس من حدس می زنم که نوعی عملیات ماتریسی برای تبدیل نقطه پرس و جو من در مورد بردار پایه مناسب است؟ آیا من در فرضیاتم درست هستم؟ چگونه این کار را انجام دهم؟ همه اینها برای من بسیار جدید است و من هیچ سابقه مرتبطی ندارم، بنابراین اگر ممکن است لطفاً یک توضیح مرد عادی ارائه دهید.
تجزیه و تحلیل مؤلفه اصلی قبل از جستجوی نزدیکترین همسایه
82514
این یک سوال اساسی در مورد آموزش یک مدل است. با توجه به پارامترهای زیر، معیارهایی را برای اعمال حداقل تعداد تاها و تکرارها برای اعتبارسنجی متقاطع مجموعه ای از مدل ها برای رگرسیون به کار خواهم برد. 200 سطر و 46 ستون، 300 سطر و 53 ستون، 400 سطر و 60 ستون، من مطمئن نیستم که این خط را کجا بکشم. 10 تا و 50 تکرار، 10 تا و 100 تکرار، 10 تا و 5 تکرار خوانده و اعمال کرده ام و نتایج مخلوط شده است. من همچنین خوانده ام که K به درصد نمونه آزمایشی بستگی دارد. به نظر می رسد که به داده ها نیز وابسته است. چگونه می توانم یک عدد حداقل را برای این دو متغیر فرموله و اعمال کنم.
70071
من با R و تجزیه و تحلیل داده های فراطیفی تازه کار هستم. با این حال، در تحقیقات خود دریافتم که بسیاری نسبت به استفاده از تجزیه و تحلیل تفکیک گام به گام (با استفاده از فاصله Wilk's Lambda یا Mahalanobis) برای یافتن بهترین زیرمجموعه متغیرهایی که با آن می توان عملکرد تمایز رضایت بخش را به دست آورد، هشدار می دهند. من با چند پیشنهاد روبرو شده ام: PLS: http://cran.r-project.org/web/packages/pls/ و LARS: http://cran.r-project.org/web/packages/lars/index. html، و من تازه متوجه شده ام که شاید پاسخ های ارائه شده به این لینک زیر مفید باشد: جایگزین های مدرن و به راحتی برای رگرسیون گام به گام کدامند؟ با توجه به ماهیت داده های فراطیفی (بسیار همبسته و بسیار زائد) من می خواهم 10 باند اول را پیدا کنم که در تمایز بین حدود 30 گونه گیاه کارآمدترین هستند. هر پیشنهادی با ارزش تر خواهد بود.
جایگزین هایی برای تجزیه و تحلیل تمایز گام به گام برای انتخاب ویژگی در داده های ابرطیفی
71381
تازه وارد اینجاست که سوال من را تایپ می کند، پس اگر جواب نداد ببخشید. من سعی می‌کنم برای یک مسئله طبقه‌بندی چند متغیره یک **_طبقه‌بندی‌کننده_ بیزی_** ارائه کنم که در آن ورودی دارای **_توزیع نرمال چند متغیره_** است. من انتخاب می کنم که از یک تابع تفکیک تعریف شده به عنوان $\log (احتمال \ بار قبل)$ استفاده کنم. با این حال، از توزیع، $f(x \mid\mu,\Sigma) = (2\pi)^{-N \times d/2}\det(\Sigma)^{-N/2}exp[( -1/2)(x-\mu)^{\top}\Sigma^{-1}(x-\mu)]$ من با یک عبارت $-\log(det(S_i))$ مواجه می‌شوم که در آن $S_i $ ماتریس کوواریانس نمونه من برای یک کلاس خاص است. از آنجایی که ورودی من در واقع یک داده تصویر مربعی را نشان می دهد، $S_i$ من تا حدی همبستگی را کشف می کند و در نتیجه $det(S_i)$ صفر است. سپس تابع تفکیک من همه به $\infty$ تبدیل می شود که برای من فاجعه بار است. من می دانم که اینجا باید خیلی چیزها اشتباه باشد، کسی حاضر است به من کمک کند؟
تخمین پارامترها در طبقه بندی چند متغیره که ماتریس کوواریانس نمونه تعیین کننده صفر را به دست می آورد
18606
من می خواهم بدانم که آیا مطالعه نمودارهای باقیمانده با توجه به متغیر وابسته زمانی که من یک رگرسیون تک متغیره دارم، منطقی است یا خیر. اگر منطقی باشد، یک همبستگی قوی، خطی و رو به رشد بین باقیمانده ها (روی محور y) و مقادیر تخمینی متغیر وابسته (در محور x) به چه معناست؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/rRmqk.png)
آیا مطالعه نمودارهای باقیمانده با توجه به متغیر وابسته منطقی است؟
33208
پیشاپیش به خاطر هر زبان نادرستی که ممکن است در اینجا استفاده کنم عذرخواهی می کنم، زیرا آموزش رسمی زیادی در زمینه آمار ندارم. من نموداری از شدت در مقابل طول موج (پروفایل شدت) با نوارهای خطای مرتبط در شدت در هر طول موج دارم. فرض بر این است که این خطاها در حال حاضر مستقل هستند. سپس هموارسازی گاوسی را روی نمایه شدت اعمال کردم (فرایند مشابه آنچه در اینجا توضیح داده شده است: http://imaging.mrc-cbu.cam.ac.uk/imaging/PrinciplesSmoothing)، و می دانم چگونه گاوسی را محاسبه کنم. خطاهای PDF وزن شده برای نمایه شدت هموار. با این حال، همپوشانی بین پنجره‌های هموارسازی گاوسی به این معنی است که خطا در شدت هموار در یک طول موج معین دیگر مستقل از خطاهای شدت در طول موج‌های نزدیک نیست. اجازه دهید $ I_k $ و $ \sigma_k $ به ترتیب شدت هموار شده در طول موج $ k $ و خطای مربوط به آن را نشان دهند. به دلیل این همبستگی با خطاهای نزدیک، من حدس می‌زنم که این بدان معناست که گفتن اینکه فاصله اطمینان 68% هنوز $ I_k \pm \sigma_k $ است، نامناسب است. اگر چنین است، چگونه می توانم یک خطا را در $ I_k $ محاسبه کنم که می توانم از آن برای نقل قول فواصل اطمینان استفاده کنم؟
فواصل اطمینان در نمودارهایی با نوارهای خطای همبسته؟
2467
طبقه بندی پس از تحلیل عاملی
18607
آیا تابعی در R وجود دارد که مو و سیگما یک ماتریس کوواریانس حسابی را بگیرد و مو و سیگما یک ماتریس کوواریانس مبتنی بر لگ را برگرداند؟ من کد تابعی را دارم که معکوس را پیاده سازی می کند - از log-covariance به کوواریانس خطی - در R (در صورت مفید بودن در زیر چسبانده می شود). توجه داشته باشید که ریاضیات Meucci این کد پیاده‌سازی در ضمیمه صفحه 5 پیوست شده است.: linreturn <- function(mu,Sigma) { m <- exp(mu+diag(Sigma)/2)-1 x1 <- outer(mu,mu +) x2 <- بیرونی(دیاگ(سیگما)، دیاگ(سیگما)،+)/2 S <- exp(x1+x2)*(exp(Sigma)-1) list(mean=m,vcov=S) } کد شبیه‌سازی اعتبار رویکرد فوق را تأیید می‌کند: # آزمایش با دو دارایی # مقداردهی اولیه با بازده متوسط ​​گزارش و ماتریس کوواریانس مبتنی بر log m1 <- c( 0.05، 0.12، 0.1) S1 <- ماتریس (c(.1، 0.05 , .02 , .05 , .1 , .03 , 0.02 , .03 , .1 , nrow = 3 ) # شبیه سازی log-return رسم از ماتریس کوواریانس مبتنی بر log با فرض توزیع نرمال set.seed(1001) library( MASS) log برمی‌گرداند <- MASS::mvrnorm(2000000,mu=m1,Sigma=S1) # تبدیل به بازده حسابی arithmeticReturn = exp( logReturns ) - 1 colMeans(arithmeticReturn ) # ایجاد ماتریس کوواریانس مبتنی بر محاسبات var( arithmetic results with comparenreturn) linreturn(m1, S1) یا اینکه آیا تابعی در متلب وجود دارد که این روال را انجام دهد؟ (من می توانم منبع باز را تجزیه و تحلیل کنم و آن را به R منتقل کنم.) با تشکر
تابع تبدیل محاسبات به ماتریس کوواریانس مبتنی بر لگ؟
35561
من از تابع prcomp() برای انجام آنالیز PCA در R استفاده کردم. با این حال، یک اشکال در آن تابع وجود دارد به طوری که پارامتر na.action کار نمی کند. من برای stackoverflow کمک خواستم. دو کاربر در آنجا دو روش متفاوت برای برخورد با مقادیر «NA» ارائه کردند. با این حال، مشکل هر دو راه حل این است که وقتی یک مقدار 'NA' وجود دارد، آن ردیف حذف می شود و در تجزیه و تحلیل PCA در نظر گرفته نمی شود. مجموعه داده واقعی من یک ماتریس 100×100 است و نمی‌خواهم یک ردیف کامل را فقط به این دلیل که حاوی یک مقدار «NA» است از دست بدهم. مثال زیر نشان می دهد که تابع ()prcomp هیچ مولفه اصلی را برای سطر 5 بر نمی گرداند زیرا حاوی مقدار NA است. d <- data.frame(V1 = نمونه (1:100، 10)، V2 = نمونه (1:100، 10)، V3 = نمونه (1:100، 10)) نتیجه <- prcomp(d، مرکز = TRUE , scale = TRUE, na.action = na.omit) result$x # $ d$V1[5] <- NA # $ نتیجه <- prcomp(~V1+V2, data=d, center = TRUE, scale = TRUE, na.action = na.omit) result$x می خواستم بدانم که آیا می توانم مقادیر NA را روی یک مقدار عددی خاص در مرکز تنظیم کنم «و مقیاس» روی «TRUE» تنظیم می‌شوند تا تابع «prcomp()» کار کند و ردیف‌های حاوی «NA» را حذف نکند، اما بر نتیجه کار نیز تأثیری نداشته باشد. تجزیه و تحلیل PCA من در مورد جایگزینی مقادیر «NA» با مقدار میانه در یک ستون یا با مقدار بسیار نزدیک به 0 فکر کردم. آیا کسی می تواند راه خوبی برای حل این مشکل بیاندیشد؟
جایگزینی مقادیر NA برای تجزیه و تحلیل PCA
18605
در کتاب کدام شاخص های اقتصادی بهترین پیش بینی انتخابات ریاست جمهوری است؟، نیت سیلور به متغیری به نام «حاشیه پیروزی حزب فعلی» برای انتخابات ریاست جمهوری ایالات متحده اشاره می کند. میخواستم بدونم منبع رایگانی برای این داده ها وجود داره؟
کجا می توان اطلاعات حاشیه پیروزی حزب فعلی را پیدا کرد؟
18604
من یک مجموعه داده آموزشی دارم که با استفاده از پکیج «pvclust» R در آن تجزیه و تحلیل خوشه‌ای انجام داده‌ام. من یک دندروگرام از نتایج دارم و در حال حاضر به دنبال بهترین راه برای استفاده از اطلاعات برای ایجاد مدل(های) از داده ها هستم. آیا کسی می‌تواند منبعی را به من توصیه کند تا من را در فرآیند رفتن از خوشه‌بندی به مدل پیش‌بینی راهنمایی کند؟ به عبارت دیگر، چگونه می توانم یک دندروگرام بخوانم تا مناسب ترین مدل (ها) را بسازم.
چگونه از تحلیل خوشه ای در ایجاد یک مدل استفاده کنم؟
78827
فرض کنید که فردی داده‌ها را به مجموعه‌های آموزش/اعتبار/آزمایش برای کاربرد بیشتر برخی از الگوریتم‌های طبقه‌بندی تقسیم می‌کند، و این اتفاق می‌افتد که مجموعه آموزشی شامل همه برچسب‌های کلاسی که در مجموعه داده کامل وجود داشت، نمی‌شود، به عنوان مثال، برخی از رکوردها با برچسب x فقط در مجموعه اعتبارسنجی ظاهر می شود و نه در آموزش. آیا این پارتیشن بندی معتبر است؟ موارد فوق می تواند عواقب زیادی داشته باشد مانند اینکه ماتریس سردرگمی دیگر مربع نیست، همچنین در طول الگوریتم ممکن است یک خطا را ارزیابی کنیم و این تحت تأثیر برچسب های نادیده در مجموعه آموزشی قرار می گیرد. سوال دوم این است: آیا معمول است که الگوریتم های پارتیشن بندی به موضوع فوق توجه کنند و داده ها را به روشی که مجموعه آموزشی دارای تمام برچسب های موجود است تقسیم بندی کنند؟ متشکرم
برچسب های کلاس در پارتیشن های داده
87000
فرض کنید $X_n$are iid $N(0,1)$ متغیرهای تصادفی. $S_n := \sum_{i=1}^n X_n$ را تعریف کنید. سپس $S_n$ یک پیاده روی تصادفی است. از آنجایی که $Var(S_n) = n$ و $Cov(S_n, S_m) = \min(n,m)$، $S_n$ در دو لحظه اول ثابت نیست. در زیر نمودار R از یک مسیر نمونه $S_n$، نمونه ACF آن (اگرچه ثابت نیست) و نمونه PACF آن (اگرچه ثابت نیست) آمده است. چرا ACF نمونه آن به صورت خطی کاهش می یابد؟ چرا PACF نمونه آن پس از تاخیر 1 صفر می شود؟ با تشکر ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/BOSpg.jpg)
نمونه ACF و PACF از یک پیاده روی تصادفی
114621
چگونه از این متغیر تصادفی دو جمله ای منفی برای حل این مشکل استفاده می شود؟
8974
به نظر می رسد در مورد نمودارهای دایره ای بحث فزاینده ای وجود دارد. استدلال اصلی علیه آن به نظر می رسد: * مساحت با قدرت کمتر از طول درک می شود. * نمودارهای دایره ای نسبت داده های نقطه به پیکسل بسیار پایینی دارند، با این حال، من فکر می کنم که می توانند به نحوی در هنگام به تصویر کشیدن نسبت ها مفید باشند. من با استفاده از جدول در بیشتر موارد موافقم، اما زمانی که شما در حال نوشتن یک گزارش تجاری هستید و صدها جدول را وارد کرده اید، چرا نمودار دایره ای ندارید؟ من کنجکاو هستم که نظر جامعه در مورد این موضوع چیست. از مراجع بیشتر استقبال می شود. من چند پیوند را اضافه می کنم: * http://www.juiceanalytics.com/writing/the-problem-with-pie-charts/ * http://www.usf.uni-osnabrueck.de/~breiter/tools/ piechart/warning.en.html * * * برای نتیجه گیری این سوال تصمیم گرفتم نمونه ای از نمودار دایره ای در مقابل نمودار وافل بسازم. با تشکر از همه برای پاسخ های شما! :) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/oMPL4.jpg)
مشکلات نمودار دایره ای
87005
من یک مجموعه داده دارم - با ستون‌هایی مانند «شماره تراکنش»، «شماره فروشگاه»، «بخش»، «بخش فرعی»، «شماره خط»، «تعداد»، «فروش خالص»، «میزان کاهش قیمت»، «فروش ناخالص»، هزینه کالا، حاشیه. سوال من این است - من مطمئن نیستم که با چه ستون هایی باید ارتباط را پیدا کنم. اگر من «تحلیل سبد بازار» را انجام می‌دهم، با چه قوانینی می‌توانم ادامه دهم. این سوال منطقی است - هر کمکی عالی خواهد بود من برای دریافت خروجی زیر کدنویسی انجام دادم: چگونه قوانین زیر را تفسیر کنیم: inspect(subset(trans.rules, subset=lift>2.5)) lhs rhs پشتیبانی از افزایش اطمینان 1 { Subdivision=142} => {Division=DIV08} 0.06129886 1 8.230485 2 {Subdivision=118} => {Division=DIV07} 0.12100035 1 7.414138 3 {cnt_dtnct_itm=2} => {cnt_itm.=2} 0.14830530 1 6.3435572 1 6.3435572 1 => {Division=DIV08} 0.06129886 1 8.230485 5 {Subdivision=118, Markdown.Amount=0} => {Division=DIV07} 0.08635751 1 7.414138 6 {8}Subdivision=11,Quant=1 0.08895323 1 7.414138 7 {Subdivision=118, cnt_itm.=1} => {Division=DIV07} 0.09698997 1 7.414138 8 {Subdivision=118, cnt_it_dtnc = IV} 0.09698997 1 7.414138 9 {Store.No=599666, Subdivision=118} => {Division=DIV07} 0.12100035 1 7.414138 10 {Quantity=2, cnt_dnt=2, cnt_dnt=2} 0.13417861 1 6.343572 11 {Markdown.Amount=0, cnt_dtnct_itm=2} => {cnt_itm.=2} 0.08570858 1 6.343572 12 {Store. {cnt_itm.=2} 0.14830530 1 6.343572 13 {Subdivision=118, Quantity=1, Markdown.Amount=0} => {Division=DIV07} 0.06494284 1 7.414138 1 7.414138 1 7.414138 {Smountdown=ndown. cnt_itm.=1} => {Division=DIV07} 0.07038387 1 7.414138 15 {Subdivision=118, Markdown.Amount=0, cnt_dtnct_itm=1} => {Division=DIV07} 7.414138 0.070 {Store.No=599666, Subdivision=118, Markdown.Amount=0} => {Division=DIV07} 0.08635751 1 7.414138 17 {Subdivision=118, Quantity=1, cnt_itm.=1} =>7 Division=DIV07} 1 7.414138 18 {Subdivision=118, Quantity=1, cnt_dtnct_itm=1} => {Division=DIV07} 0.08895323 1 7.414138 19 {Store.No=599666, Quantity=1D, Quantity=1, Quantity=1 0.08895323 1 7.414138 20 {Subdivision=118, cnt_dtnct_itm=1, cnt_itm.=1} => {Division=DIV07} 0.09698997 1 7.414138 No 21,414138 No21,414138 = 219 cnt_itm.=1} => {Division=DIV07} 0.09698997 1 7.414138 22 {Store.No=599666, Subdivision=118, cnt_dtnct_itm=1} => {Division=DIV07} 7.414138 0.09 {Quantity=2, Markdown.Amount=0, cnt_dtnct_itm=2} => {cnt_itm.=2} 0.07772176 1 6.343572 24 {Store.No=599666, Quantity=2,
قوانین انجمن در R
87007
لطفاً اگر اشتباه می‌کنم، من را تصحیح کنید، اما نظریه SVM یک کلاس بیان می‌کند که پارامتر nu کران بالایی (UB) نقاط پرت در مجموعه داده آموزشی و کران پایین (LB) تعداد SVها است. بگویید من از هسته گاوسی RBF استفاده می کنم، بنابراین با ایده پارامتر nu، مهم نیست که چه مقدار گاما را انتخاب می کنم، مدل باید بتواند نتایجی را تولید کند، به طوری که پارامتر nu همان UB نقاط پرت در آموزش باشد. مجموعه داده؟ با این حال، این چیزی نیست که من با آزمایش چند مثال ساده با LibSVM در Matlab مشاهده کردم: [heart_scale_label, heart_scale_inst] = libsvmread('../heart_scale'); ind_good = (heart_scale_label==1); heart_scale_label = heart_scale_label(ind_good); heart_scale_inst = heart_scale_inst(ind_good); train_data = heart_scale_inst; قطار_برچسب = برچسب_مقیاس_قلب; گاما = 0.01; nu=0.01; model = svmtrain(train_label, train_data, ['-s 2 -t 2 -n ' num2str(nu) ' -g ' num2str(gamma) ' -h 0']); [predict_label_Tr, accuracy_Tr, dec_values_Tr] = svmpredict(train_label, train_data, model); accuracy_Tr با استفاده از گاما = 0.01، من دقت داده‌های آموزشی را با استفاده از گاما 97.50 = 100 I، دقت داده‌های آموزشی را 42.50 می‌گیرم، آیا نباید برای بدست آوردن همان کسر پرت در مجموعه داده آموزشی، به داده‌ها اضافه شود؟ چه زمانی گامای بزرگتر انتخاب می شود؟
LibSVM یک کلاس طبقه بندی پارامتر nu کسری از نقاط پرت نیست؟
104400
فرض کنید من به کشش درآمدی خانوارها برای یک کالای خاص علاقه مند هستم. من در اصل، تابعی از درآمد است. اکنون، من دو راه دارم که چگونه می توانم داده ها را به دست بیاورم (انواع مختلف داده): 1) یا می توانم به عنوان مثال داده های تابلویی را برای هزینه متوسط ​​درآمد خانوار برای یک کالا به دست بیاورم (یعنی یک مقدار که میانگین درآمد یک جمعیت را توصیف می کند. و متوسط ​​هزینه مربوط به یک کالا در یک دوره زمانی). 2) یا می توانم یک داده مقطعی برای اینکه خانوارها بر اساس درآمدشان برای یک کالا هزینه کرده اند، بدست بیاورم. توجه: در واقع من می‌توانم چندین مقطع را برای سال‌های متمادی دریافت کنم، اما آنها به یک پانل تبدیل نمی‌شوند. اکنون این دو مجموعه داده از منابع مختلف می آیند، و من می خواهم کشش های درآمد حاصل از رگرسیون هزینه ~ درآمد را مقایسه کنم (این را به عنوان یک ساده سازی در نظر بگیرید). سوال من این است - _ برای اینکه بتوانم این کشش ها را با هم مقایسه کنم، به چه چیزی نیاز دارم؟ در نتیجه، من می‌توانم بسیاری از کشش‌های متوسط ​​خانوار را برای دوره‌های زمانی مختلف (مجموعه داده 2) دریافت کنم و می‌توانم آنها را میانگین بگیرم (هر دو مجموعه داده به طور کلی دوره یکسانی را پوشش می‌دهند). پس آیا این دو مقدار در اصل یکسان هستند؟ منظورم این است که بدیهی است که باید اثرات قیمت را در نظر بگیرم، زیرا در اولین مجموعه داده ممکن است هزینه ها بر اساس آن تغییر کند نه درآمد). اما چه جنبه های نظری دیگری باید در نظر گرفته شود؟ من متحیر هستم، زیرا این دو کمیت به اصطلاح از «ابعاد» متفاوتی ناشی می‌شوند، و مطمئن نیستم که مقایسه آن‌طور که قبلاً توضیح دادم ساده باشد. متشکرم!
ابعاد مختلف تنوع
9659
ادغام سریع یک توزیع پسین
107420
محاسبه احتمال فراهندسی با تقریب
107421
سردرگمی مربوط به کران های آنلاین برای الگوریتم های بیزی
113682
بر اساس این سند: http://www.bodowinter.com/tutorial/bw_LME_tutorial2.pdf من می توانم با مقایسه مدل هایی که می خواهم بدانم با مدل تهی، P-value کلی جلوه های ثابت را دریافت کنم. در مورد من می خواهم تأثیر تعامل سه طرفه را بدانم. بنابراین ابتدا مدل تهی را اجرا می کنم: lmer86 <- lmer(IntensityMax ~ (1| مورد) + (1+ vowel3|speaker) + جنسیت + vowel3 + Language, data=data1.frame, REML=FALSE, na.action= na.omit) سپس مدلی را که می خواهم آزمایش کنم اجرا می کنم: lmer81 <- lmer(IntensityMax ~ (1|آیتم) + (1+صدا3|بلندگو) + جنسیت*ووا3*زبان، داده=data1.frame، REML=FALSE، na.action=na.omit) و در نهایت این مدل ها را با استفاده از تابع ANOVA مقایسه می کنم: anova (lmer81,lmer86) و این نتیجه است: Data: data1.frame مدل ها: lmer86: IntensityMax ~ (1 | آیتم) + (1 + مصوت3 | گوینده) + جنسیت + مصوت3 + lmer86: زبان lmer81: IntensityMax ~ (1 | مورد) + (1 + مصوت3 | گوینده) + جنسیت * واکه3 * lmer81: زبان Df AIC BIC logLik انحراف Chisq Chi Df Pr(> Chisq) lmer86 14 13349 13432 -6660.5 13321 lmer81 26 13319 13474 -6633.6 13267 53.813 12 2.951e-07 *** --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 سپس می دانم که تعامل سه طرفه تأثیر مهمی است. آیا من در مسیر درست هستم؟
107422
من در حال تصمیم گیری هستم که کدام یک از دو موضوع زیر را به عنوان یک درس انتخابی در ترم آینده انتخاب کنم. 1. تجزیه و تحلیل مختلط 2. نظریه معادلات دیفرانسیل جزئی در حالت ایده آل من می خواهم هر دو را انتخاب کنم. با این حال، کارهای دیگری برای انجام دادن خواهم داشت. بنابراین، من می خواهم چیزی را انتخاب کنم که مستقیماً با آمار و احتمال مرتبط باشد. هر پیشنهادی؟ متشکرم!
19367
چگونه می توانم دو دنباله تصادفی از اعداد ایجاد کنم که 50$\%$ با یکدیگر همبستگی دارند؟ هر دنباله واریانس متفاوتی دارد.
ایجاد دو دنباله تصادفی با همبستگی 50$\%$؟
14380
تدوین یک مدل ریاضی برای یک مسئله یکی از ذهنی ترین جنبه های آمار و در عین حال یکی از مهمترین آنها است. بهترین مراجعی که به این موضوع مهم اما اغلب نادیده گرفته می شود کدامند؟ و کدام آماردان معروف چیزی در امتداد این جمله گفت: اجازه دهید داده ها مدل را هدایت کنند؟
توصیه های کلی در مورد مدل سازی
44078
من سعی می کنم یک نمودار تعاملی برای این مجموعه از داده ها ایجاد کنم، اما می خواهم آن را با ggplot2 بسازم. من سعی می‌کنم VP را با استفاده از پیش‌بینی‌کننده‌های G و P پیش‌بینی کنم، (اینها ستون‌هایی در مجموعه داده‌ها هستند که متوجه شدم با یکدیگر تعامل دارند، و متوجه شدم که تأثیر قابل‌توجهی بر VP دارند). درک نحو برای ggplot2 برای من دشوار بوده است، بنابراین می‌پرسم آیا کسی اینجا آن را آسان می‌بیند و می‌تواند با داده‌های من یکی بسازد و کد را به من نشان دهد. آخرین باری که سعی کردم به خودم بیاموزم که چگونه با توابع تعریف شده توسط کاربر نمودار بسازم، 6 ساعت وقت صرف اشکال زدایی کردم. امیدوارم کسی بتواند به سادگی من را از طریق مراحل راهنمایی کند تا مجبور نباشم دوباره آن را طی کنم. مدل «VP~G+P+G*P» در R خواهد بود. امیدوارم چیزی شبیه نمودار جعبه تعاملی که در پاسخ این پست یافت می‌شود بسازم. ![ggplot](http://i.stack.imgur.com/46vxN.png) * * * یادداشت ها: هنگام ایجاد مدل رگرسیون من چندین متغیر داشتم، اما متوجه شدم که G و P تنها تعامل مهم را داشتند. بنابراین من در تلاش برای ایجاد یک نمودار تعامل برای تجزیه بیشتر داده ها هستم. نظری در مورد کارایی و منطقی بودن این کار دارید؟ همچنین، نظرات در مورد تناسب بسیار ضعیف طرح تعامل؟ در این مورد که تناسب ضعیفی دارد چه باید بکنم؟ آیا می توان گفت که هیچ الگوی وجود ندارد؟ به عنوان مرجع، من سعی می‌کنم درصد رای‌ای را که یک نامزد کسب می‌کند، VP، بر اساس تغییر نرخ تورم، P، و تغییر نرخ رشد، G، پیش‌بینی کنم. در اینجا نمودار تعامل من است: ! .stack.imgur.com/Q2vDL.png) نکته2: من نمودار تعامل خود را با تابع تعریف شده توسط کاربر که در اینجا یافت می شود ایجاد کردم. طرحی که آنها ساخته اند به خوبی با داده های آنها مطابقت دارد، اما طرح من با داده های من مطابقت ندارد. علاوه بر این، نمودار من از باقیمانده ها تقریباً مشابه نمودار تعامل است. در صفحه MIT، نمودار باقیمانده در مقابل نمودار تعامل بسیار متفاوت است، به علاوه به راحتی می توان یک الگو را در آن مشاهده کرد.
چگونه می توانم یک نمودار تعامل در ggplot2 ایجاد و تفسیر کنم؟
105503
فرض کنید که من با تقسیم داده های پوششی که از یک نمونه تومور بدست می آید بر نمونه مرجع و سپس گرفتن log2 این تقسیم، یک سیگنال نسبت گزارش پوشش ایجاد کرده ام. سوال من این است: ** چگونه می توان سطح نویز را از روی داده ها از نظر آماری تخمین زد؟ ** به طور معمول، اگر مشکلی در ژنوم وجود نداشته باشد، سیگنال نسبت log باید حول محور صفر باشد. با این حال، برخی از بخش‌های ژنوم به دلیل سرطان تغییر می‌کنند (حذف یا تقویت می‌شوند) و این خود را در سیگنال نسبت لاگ با نشان دادن انحراف از صفر نشان می‌دهد. اما سیگنال کاملاً تمیز نیست و تمام انحراف از صفر ناشی از سرطان نیست. سر و صدا نیز وجود دارد بنابراین، سوال این است که چگونه می توانیم سطح نویز را با فرض اینکه نویز توزیع نرمال دارد، تخمین بزنیم. برخی از اصطلاحات: * داده های پوشش برای یک نقطه از ژنوم، تعداد خوانده شده هایی است که با ژنوم مرجع در آن نقطه خاص تراز شده است. * خواندن خروجی ابزارهای توالی یابی با استفاده از بیش از DNA یا RNA و غیره است.
تخمین سطح نویز در داده های سرطان با توان عملیاتی بالا
2466
بگو من جمعیتی بالغ بر 50 میلیون چیز منحصر به فرد دارم و 10 میلیون نمونه (با جایگزینی) می گیرم... نمودار اولی که پیوست کرده ام نشان می دهد که چند بار از همان چیزی نمونه برداری می کنم، که نسبتاً نادر است. جمعیت بزرگتر از نمونه من است. با این حال، اگر جمعیت من فقط 10 میلیون چیز باشد، و من 10 میلیون نمونه را انتخاب کنم، همانطور که نمودار دوم نشان می دهد، اغلب از همان چیزهایی که تکرار می شوند نمونه برداری می کنم. سوال من این است - از جدول فراوانی مشاهدات من (داده های موجود در نمودارهای میله ای) آیا می توان تخمینی از اندازه جمعیت اصلی زمانی که ناشناخته است بدست آورد؟ و اگر بتوانید اشاره‌ای به نحوه انجام این کار در R ارائه دهید عالی خواهد بود![متن جایگزین](http://i.stack.imgur.com/XOEyE.png)
70925
برای درک خروجی یکی از مدل‌های lme، مثال ساده‌تری را با استفاده از lm ارائه کردم (بنابراین فاکتور تصادفی وجود ندارد). متوجه شدم که مدل برازش شده من به نظر نمی رسد به درستی با داده ها مطابقت داشته باشد، زیرا مقادیر y پیش بینی شده به شدت از مقادیر داده شده هنگام استفاده از پیش بینی (lm) منحرف می شوند. مجموعه داده های من این است: a = c(rep(1:10، 4)) b = c(10,20,30,40,50,60,70,80,90,100, 5,8,10,14,17, 22,27,35,42,50, 90,82,73,64,56,48,40,33,25,18, 5،6،8،10،12،14،17،20،23،26) c = c(rep(مرد، 10)، rep(مونث، 10)، rep(مرد، 10) , rep(زن، 10)) d = c(rep(کم، 20)، rep(بالا، 20)) e = data.frame(yval = b, xval = a، جنسیت = c، آموزش = د) از نظر گرافیکی به نظر می رسد: کتابخانه(ماشین) scatterplot(yval~xval | آموزش، صاف = F، شبکه = T، گسترش = F، reg.line = T، داده = e، xlab = x، ylab = y) scatterplot(yval~xval | جنسیت، صاف = F، شبکه = T، گسترش = F، reg.line = T، داده = e، xlab = x، ylab = y) و مدل خطی این است: lm2 = lm(yval~xval+sex+xval:sex+education+xval:education, data = e) خلاصه (lm2) با استفاده از e_pred = e e_pred$pred = predict(lm2) من مقادیر پیش بینی شده را دریافت می کنم که به هیچ وجه با داده های واقعی مطابقت ندارند: e = cbind(e,e_pred$pred) آیا این به این دلیل است که بیش از یک تعامل مهم وجود دارد؟ خیلی ممنون (پیشاپیش) که خواندید و شاید جواب دادید!!
پیش بینی (lm) با دو تعامل ممکن است یا نادرست؟
105027
من قبلاً در اینجا یک سؤال مرتبط با این موضوع پرسیدم: چه زمانی حداکثر احتمال همان حداقل مربعات است که می دانم می دانم چگونه Levenberg Marquardt (LM) را می توان برای تابع هدف اعمال کرد. در مقاله در صفحه 315: http://www.ssc.upenn.edu/~fdiebold/papers/paper55/DRAfinal.pdf، نویسندگان همچنین بیان می‌کنند که: «ما با تکرار مارکوارت و برنت–هال–هال– احتمال را به حداکثر می‌رسانیم. الگوریتم های هاسمن با استفاده از مشتقات عددی، گام بهینه و معیار همگرایی 10^-6 برای تغییر هنجار بردار پارامتر از یک تکرار به تکرار دیگر. کسی میدونه منظورشون از این دقیقا چیه؟ آیا LM را به طور کامل اجرا می‌کنید و سپس مجموعه پارامترهای بهینه پیدا شده را می‌گیرید و از آن‌ها به عنوان حدس‌های اولیه برای الگوریتم BHHH استفاده می‌کنید، سپس BHHH را اجرا می‌کنید و آن راه‌حل‌ها را به عنوان حدس‌های اولیه به LM می‌برید و تا زمان همگرایی تکرار می‌کنید؟ یا گام به گام تکرار می شوند؟ بنابراین شما همان کار فوق را انجام می دهید، اما به جای اجرای یک بهینه سازی کامل هر بار، به سادگی یک مرحله در یک زمان انجام می دهید؟ حتی بهترین حدس های شما بسیار خوشایند خواهد بود. باز
ترکیب BHHH و Levenberg Marquardt
36034
وظیفه به شرح زیر است: یکی از مشتریان من در سال گذشته در حال جمع‌آوری آماری از خرید یک کالای خاص (بگذارید آن را مانا نامگذاری کنیم) در مغازه خود داشته است. قیمت مانا در آن دوره زمانی بسیار بالا و پایین رفت - گاهی اوقات در محدوده چند سنت در واحد حجم. آزمایش این فرضیه ارزشمند به نظر می رسد که هر زمان که قیمت مانا کمی کاهش یابد، تقاضا برای مانا افزایش می یابد. چگونه می توان این را به درستی آزمایش کرد؟ شاید بتوانید پیوندهایی به مطالبی که هر رویکرد مشابهی را توصیف می کند در اختیار من قرار دهید؟ پیشاپیش ممنون
نحوه آزمون فرضیه وابستگی بین قیمت و تقاضا
12976
شاید این یک سوال ساده لوحانه باشد پس من را سرزنش نکنید. نمی‌دانم که آیا دو خوشه‌بندی معادل انجام یک خوشه‌بندی و سپس یک انتخاب متغیر است (در نهایت یک خوشه‌بندی جدید دنبال می‌شود)؟ آیا این رویکردها نتایج متفاوتی دارند؟
دو خوشه بندی و انتخاب متغیر
70920
من در حال خواندن TPE توسط Lehmann andCasella بودم که در آنجا به این مثال رسیدم: If $X\sim\text{Bin}(n,p)$ و ما یک $\text{beta}(a,b)$ را برای $p در نظر می گیریم. $. برآوردگر بیز در این مورد $\frac{x+a}{n+a+b}$ است. اگر $a=b=0$، این برآوردگر $x/n$ است، اما چگالی قبلی در این مورد نامناسب است. اگر $1\leq x \leq n-1$ با $x/n$ به عنوان میانگین خلفی باشد، چگالی خلفی مناسب است. هنگامی که $x=0$ یا $x=n$، قسمت عقبی دیگر مناسب نیست. **با این حال، هر برآوردگر $\delta(x)$ که $\delta(0)=0$ و $\delta(n)=1$ را برآورده کند، ضرر مورد انتظار بعدی محدود است و در $\delta(x)= به حداقل می رسد. x/n$.** من نمی توانم این قسمت آخر را تأیید کنم.
پیشین بیزی نامناسب
105480
داده های چند گزینه ای رگرسیون لجستیک ساده یا رگرسیون لجستیک چند جمله ای
112081
تابع انرژی یک RBM گاوسی چگونه مشتق می شود؟
41756
فرض کنید نمونه ای به اندازه n=9 داریم که مجموع آن برابر با 27 و مجموع مقادیر مربعی آن برابر با 113 است. میانگین نمونه 27/9=3 و میانگین مقادیر مربع 113/9 = 12.56 است. واریانس نمونه $S^2 = E(\overline X^2) - E(\overline X)^2 = 12.55 - 9 = 3.56 دلار
چگونه واریانس نمونه را محاسبه کنیم؟
70387
من یک مجموعه داده با 20 کیلو متغیر دارم. من سعی کردم برخی از ویژگی ها را از طریق «Boruta» و «FSelector» انتخاب کنم اما به دلیل کمبود حافظه نتوانستم به آن دست پیدا کنم. من همچنین سعی کردم از bigmemory استفاده کنم اما نتوانستم این کار را انجام دهم. اکنون، من به این فکر می کنم که ستون های مجموعه داده خود را به k-fold تقسیم کنم، به عنوان مثال. 20 برابر، سپس ویژگی‌های هر فولد را انتخاب می‌کنم. پس از آن، ویژگی های انتخاب شده برای هر فولد ترکیب شده و الگوریتم انتخاب یک بار دیگر بر روی آنها اعمال می شود. آیا این راه حل معتبری است؟ آیا احتمال از دست دادن یک ویژگی مهم با راه حل بالا وجود دارد؟
انتخاب ویژگی k-fold
35825
من یک سوال تحقیقاتی پایان نامه دارم که شامل آن چیزی است که من فکر می کنم به طور مناسب با استفاده از ANOVA 4 طرفه تجزیه و تحلیل می شود. متغیر وابسته نمره اضطراب ریاضی است (از مقیاس لیکرت 5 درجه ای استفاده می کند). متغیرهای مستقل، برای این بخش از تجزیه و تحلیل، شامل دسته‌هایی می‌شوند: ریاضی/آمار و حسابداری/مالی با معیارهای شکست (نیاز به یا تکرار دوره) و موفقیت (نمره درس C یا بهتر با یا بدون نیاز اولیه به تکرار) برای هر کدام. * * * من فکر می کنم این یک ANOVA چهار طرفه با استفاده از دو سطح برای هر عامل است: ریاضی/آمار-تکرار: بله یا خیر ACC/FIN-تکرار: بله یا خیر ریاضی/آمار-موفقیت: بله یا خیر ACC/FIN -موفقیت: بله یا خیر * * * فرضیه صفر: هیچ اثر اصلی قابل توجهی به دلیل شکست یا موفقیت در دوره های مانع وجود ندارد (4 عامل با 2 سطح: تکرار ریاضی یا آمار (بله یا نه) ریاضی یا آمار موفقیت (بله یا خیر) آیا اثرات متقابل قابل توجهی بین عوامل تجربه دوره مانع وجود دارد؟ فرضیه صفر: هیچ اثر متقابل قابل توجهی به دلیل شکست یا موفقیت در دوره های مانع وجود ندارد. * * * من این یادداشت را در مورد تفکرم برای این موضوع به استادم ارسال کردم... نکته در مورد یافته های مورد انتظار: دانش آموزانی که بیان می کنند نیاز به تکرار ریاضی دارند (به عنوان مثال) اما هنوز آن را تکرار نکرده اند ممکن است نمره اضطراب ریاضی به طور غیرعادی بالایی داشته باشند که می تواند نشان دهد به عنوان یک اثر متقابل قابل توجه بین تکرار MAT/STAT و گذراندن MAT/STAT. * * * آیا من این وضعیت را بیش از حد پیچیده کرده ام یا واقعاً باید به این شکل با آن برخورد کرد؟ من نگرانم که فروپاشی تعاملات احتمالی را از دست بدهد. همچنین آیا Minitab ابزار خوبی برای این تحلیل خواهد بود؟ من چندین صد شرکت کننده و داده های نامتعادل را پیش بینی می کنم.
چگونه به درستی آنالیز کنیم: ANOVA 4 طرفه؟
71030
من محاسبه‌ای انجام داده‌ام که نمونه‌ای از رکوردها حداقل دارای 1 رکورد معیوب با فرض جایگزینی است. 20000000 رکورد در جمعیت وجود دارد که 7000 معیوب هستند و من 200000 نمونه میگیرم. با فرض جایگزینی، احتمال اینکه حداقل 1 نمونه از 200000 نمونه دارای یک رکورد معیوب باشد این است: 1 - (7000/20000000)^200000 = 1 - 3.9 x 10^(-31) اگر من فرض جایگزینی رکورد را حذف کنم هر نمونه، من معتقدم که محاسبه می شود: حاصل ضرب [1- 7,000/(20,000,000 -n] با n=0 تا n=(200,000 - 1) مشکل من این است که من اکنون نمی دانم چگونه حاصل محاسبه ترتیب را انجام دهم. در اکسل می توانم 200,000 فردی را ایجاد کنم. احتمالات و ضرب آنها در هم، اما می ترسم گرد کردن مشکل باشد (احتمال 1 بود - 2.7 x 10^(-31)) آیا کسی می تواند پیشنهاد دهد که چگونه می توانم این حاصل ضرب یک محاسبه دنباله را با دقت بیشتری انجام دهم؟
انجام محاسبات حاصل ضرب یک دنباله،
44072
من از بسته «پیش‌بینی» در R استفاده می‌کنم. می‌خواستم بدانم تابع «ets()» چگونه مقدار $\alpha$، $\beta$ و $\gamma$ را پیدا می‌کند؟ آیا با به حداقل رساندن SSE یا برخی معیارهای دیگر است؟
مقادیر $\alpha$، $\beta$ و $\gamma$ در ets در بسته پیش‌بینی
29417
عادی سازی داده های نمونه برای خوشه بندی
78194
دانش آموزان بر اساس دو جنبه به گروه A یا B اختصاص داده می شوند: یک نمره از یک امتحان و ارزیابی معلم خود. دانش‌آموزانی که هم نمره بالا و هم ارزشیابی مثبت دارند وارد گروه A می‌شوند، دانش‌آموزان دیگر در گروه B. می‌دانم که نمره بسیار تأثیرگذارتر از ارزشیابی معلم است. من نمرات امتحانی 1000 دانش آموز را دارم. من همچنین می دانم که آیا دانش آموزان به گروه A یا B اختصاص داده شده اند یا خیر. می خواهم بدانم که آیا میانگین نمره دانش آموزان در گروه A بالاتر از میانگین نمره در گروه B است. من به این رگرسیون فکر می کنم (که معتقدم معادل یک است. مستقیم t-test): $\text{Grade}_i=\alpha+\beta*\text{DumA}_i+\epsilon_i$ که در آن $\text{Grade}_i$ است نمره دانش آموز i. اگر دانش آموز i در گروه A باشد $\text{DumA}_i$ برابر با 1 و در غیر این صورت 0 است. آیا دانش آموزان گروه A نمره بالاتری دارند اگر آلفا بر اساس آزمون t استاندارد معنی دار باشد؟ توجه داشته باشید که دانش‌آموزان گروه A معمولاً نمره بالاتری دارند زیرا تکلیف بیشتر بر اساس نمره است. به نظر من ساختگی درون زا است و بنابراین تخمین آلفا نادرست است. آیا تعبیر من درست است؟ آیا این به این معنی است که نمی توان میانگین دو گروه را با هم مقایسه کرد؟ آیا جایگزینی وجود دارد؟ هر گونه فکر بسیار قدردانی می شود!
78195
در فرضیه آماری آزمایش لهامن و رومانو، ویرایش دوم، مشکلی وجود دارد که می گوید: اگر فضای نمونه اقلیدسی باشد و $P_0$ و $P_1$ دارای چگالی نسبت به معیار lebesgue باشند، در هر آزمون قدرتمندترین تست غیرتصادفی وجود دارد. سطح معناداری $\alpha$. چرا نتیجه مستقیم قضیه نیمن-پیرسون نیست؟ فرضیه هر دو ساده است و $P_0$ و $P_1$ دارای چگالی هستند!
44393
اشتقاق خطای پیش‌بینی/تعمیم
113437
استفاده صحیح از ضریب تغییرات
14383
بگو من مدلی را با استفاده از proc reg data = data نصب کرده ام. مدل a = b; اجرا؛ چگونه می توانم آزمایش کنم که مثلاً ضریب b کمتر از 1 باشد؟
در SAS چگونه می توانم یک آزمون یک طرفه ضریب را در رگرسیون خطی انجام دهم؟
71036
فرض کنید من دو یا چند جمعیت نمونه از بردارهای با ارزش پیوسته n بعدی دارم. آیا روشی ناپارامتریک برای آزمایش وجود دارد که آیا این نمونه ها از یک توزیع هستند؟ اگر چنین است، آیا تابعی در R یا پایتون برای این وجود دارد؟
آزمایش کنید که آیا توزیع های چند بعدی یکسان هستند یا خیر
111729
در درک من، یک درخت مدل به صورت بازگشتی یک مجموعه داده را تقسیم بندی می کند، و سپس از یک مدل رگرسیون خطی در هر گره برگ استفاده می کند. از طرف دیگر، یک اسپلاین رگرسیون چند جمله ای های مختلف را به صورت تکه تکه به هم اضافه می کند تا به مدل نهایی برسد. با فرض اینکه اسپلاین رگرسیون مدل های خطی را با هم جمع می کند، تفاوت بین این دو نوع مدل چیست؟
تفاوت بین درخت مدل و اسپلاین فیت چیست؟
79934
PCA در مقابل تحلیل عاملی
18603
من به ویکی‌پدیا اجازه می‌دهم نحوه محاسبه NPS را توضیح دهد: > امتیاز خالص تبلیغ‌کننده با پرسیدن یک سوال از مشتریان در مقیاس رتبه‌بندی > 0 تا 10 به دست می‌آید، که در آن 10 «بسیار محتمل» و 0 «اصلاً محتمل نیست» است. : چقدر احتمال دارد که شرکت ما را به یک دوست > یا همکار توصیه کنید؟ بر اساس پاسخ‌هایشان، مشتریان به یکی از سه گروه تقسیم می‌شوند: مروجین (رده‌بندی 9 تا 10)، غیرفعال‌ها (رتبه‌بندی 7 تا 8)، و مخالفان (رده‌بندی 0 تا 6). سپس درصد Detractors از درصد Promoterها کم می شود تا امتیاز خالص پروموتر (NPS) به دست آید. NPS > می تواند تا 100- پایین باشد (همه یک نفر مخالف هستند) یا تا 100+ > (همه یک پروموگر هستند). ما چندین سال است که این نظرسنجی را به صورت دوره ای اجرا می کنیم. هر بار صدها پاسخ دریافت می کنیم. امتیاز حاصل در طول زمان بین 20-30 امتیاز تغییر کرده است. من سعی می‌کنم بفهمم کدام حرکات امتیازی، در صورت وجود، مهم هستند. اگر این خیلی سخت باشد، من همچنین علاقه مندم که حاشیه خطا را در اصول اولیه محاسبه کشف کنم. حاشیه خطای هر «سطل» (مروج، منفعل، مخالف) چقدر است؟ شاید حتی اگر من فقط به میانگین نمرات نگاه کنم، حاشیه خطا چقدر است و داده ها را به یک عدد در هر نظرسنجی کاهش می دهم؟ آیا این من را به جایی می رساند؟ هر ایده ای در اینجا مفید است. به جز «از NPS استفاده نکن». این تصمیم خارج از توانایی من برای تغییر است!
چگونه می توانم حاشیه خطا را در نتیجه NPS (امتیاز خالص پروموتر) محاسبه کنم؟
71034
من قرار است یک سری ویژگی های عموما مفید را از یک متن استخراج کنم. موارد استفاده متفاوت است، اما یکی از آنها می تواند دسته بندی متن باشد. البته یکی از مواردی که در اینجا به ذهن متبادر می شود طولانی بودن متن است. اما چگونه می توانم این را در یک ویژگی (یا مجموعه ای از ویژگی ها) که قرار است مقادیری بین 0.0 و 1.0 داشته باشد، رمزگذاری کنم. سخت است که بگوییم کد روی چه متن هایی اجرا می شود. بیشتر آنها احتمالاً مقاله‌های خبری آنلاین هستند، برخی مقالات ویکی‌پدیا هستند (برای مثال، این مقاله بسیار طولانی‌تر از مقاله استاندارد خبری بی‌بی‌سی شما است: http://en.wikipedia.org/wiki/Barack_Obama)، یا ممکن است فقط توییت‌هایی داشته باشیم. اگر بالا شناخته شده باشد، یک کار ساده این خواهد بود: feature_value = text_length/upper_bound اما کران بالایی را نمی دانم. می توانم حدس بزنم، اما ممکن است مواردی داشته باشم که feature_value بزرگتر از 1.0 باشد. به نوعی این نیز یک مشکل نسبتاً عمومی به نظر می رسد، که احتمالاً راه حل های خوبی برای آن وجود دارد. من حدس می زنم من فقط نمی دانم به کجا نگاه کنم. بنابراین، هر گونه نکات بسیار قدردانی می شود!
چگونه مقادیر عددی را به ویژگی ML در محدوده [0;1] تبدیل کنیم؟
71038
من مجموعه داده ای دارم که شامل چند صد تراکنش از سه تامین کننده است که در بیش از 100 کشور در یک دوره سه ساله فعالیت می کنند. ما دریافتیم که کشور فروش عامل مهمی در قیمت های به دست آمده نیست (محصولات کم و بیش کالاهای جهانی هستند). تمام قیمت ها در طول زمان به طور قابل توجهی کاهش یافته است. هر روز می‌تواند چندین تراکنش با قیمت‌های متفاوت از یک تامین‌کننده (یعنی در کشورهای مختلف) داشته باشد. من می خواهم آزمایش کنم که آیا تفاوت آماری معنی داری در قیمت هایی که توسط تامین کنندگان مختلف دریافت می شود وجود دارد یا خیر. داده ها چیزی شبیه به این هستند: کشور X 1/1/2010 200 دلار تامین کننده یک کشور Y 1/1/2010 209 دلار تامین کننده A کشور Z 1/1/2010 $187 تامین کننده یک کشور A 1/1/2010 200 دلار تامین کننده B کشور X 1 /2/2010 $188 تامین کننده B هر گونه ایده در مورد چگونگی انجام این؟.....
رگرسیون داده هایی که شامل تاریخ می شود
3364
R package ltm: نحوه دستکاری عنوان در نمودار منحنی مشخصه دسته پاسخ آیتم
44077
فرض کنید، من سه نقطه زمانی، «Ta»، «Tb» و «Tc» دارم. بگذارید Ta کنترل و Tb و Tc اثر دارو 4 ساعت و 8 ساعت پس از درمان باشد. برای هر جفت نقطه زمانی، من حدود 15000 مشاهده (ژن ها، برای بیان دیفرانسیل، به طور دقیق) مقایسه می کنم. بنابراین، برای هر جفت نقطه زمانی، برای هر ژن، مقدار p به دست می‌آید. هدف من به دست آوردن تمام آن ژن هایی است که ممکن است به دلیل درمان دارویی تأثیر داشته باشند. حالا برای تصحیح تست های متعدد از روش BH استفاده می کنم. با این حال، من در مورد روش اعمال FDR سردرگمی دارم. > مورد الف: من می‌توانم تمام مقادیر p را از همه جفت‌های نقطه‌ی زمانی با هم جمع کنم > (Ta.Tb، Tb.Tc، Tc.Ta، هر ژن سه بار وجود دارد) و یک بار آزمایش چندگانه را در این تلفیقی تصحیح کنم. مجموعه > > مورد B: می‌توانم آزمایش‌های متعدد را در هر جفت نقطه زمانی اصلاح کنم (به طور جداگانه برای Ta.Tb، Tb.Tc، Tc.Ta). من مطمئن نیستم که آیا اجماع وجود دارد > اینکه کدام یک را به کار بگیرم و چرا. درک من: برای مورد A، فرض کنید تعداد زیادی رویداد بسیار معنی دار بین Ta و Tb وجود داشته باشد، سپس، ممکن است رویدادهایی را که در غیر این صورت از نظر آماری معنی دار هستند (با مقادیر p محاسبه شده) از دست بدهید. به عنوان مثال، آنها پس از اصلاح FDR به دلیل مقادیر p پایین در سایر جفت‌های نقطه زمانی، ناچیز می‌شوند. به عنوان مثال، اگر اثر کلی دارو (به معنی بیشتر ژن ها) در Tb.Tc در مقایسه با Ta.Tb قوی نباشد، ممکن است اصلاً نبینیم که اثر دارو در Tb.Tc وجود دارد. . و در مورد B، احتمالاً رویدادهای مهم تری دریافت خواهید کرد، یعنی موارد مثبت کاذب بیشتری نیز وجود دارد؟ بسیار ممنون می شوم اگر کسی بتواند این موضوع را روشن کند. خیلی ممنون.
تست چندگانه و FDR روی چند جفت
76561
من در تعیین کمیت موافقت/اختلاف هیستوگرام هایی که با داده های همبستگی خودکار پر شده اند، مشکل دارم. زمینه: من با gps-data روی سرعت هایی کار می کنم که با 1Hz ضبط شده اند. بنابراین بدیهی است که یک همبستگی بین $v_i$ و $v_{i+1}$ (و $v_{i+2}$ و غیره) وجود دارد، که در صورت افزایش/کاهش فراوانی نمونه‌گیری قوی‌تر/ضعیف‌تر می‌شود. بنابراین اکنون دو هیستوگرام پر از چنین مقادیر سرعتی دارم که مایلم آنها را با هم مقایسه کنم. معمولا من برای چیزی شبیه به $\chi^2$ تست می روم. اما در اینجا من در مورد نحوه تعیین عدم قطعیت در تعداد $N_i$ مشاهده شده در هر bin گم شده ام. من فقط می دانم که با توجه به همبستگی، $\sqrt{N_i}$ مطمئناً اشتباه است. من به یک رویکرد مبتنی بر مونت کارلو فکر می‌کردم، یعنی انجام تعداد زیادی شبه آزمایش، شمارش این که چقدر توافق مشاهده‌شده بهتر/بدتر از توافق بین دو هیستوگرام است که می‌خواهم آزمایش کنم. اما به نظر می رسد بیش از حد است - و بدیهی است که زمان بیشتری نسبت به اتصال همه اعداد به فرمول مناسب نیاز دارد.
توافق کمی از هیستوگرام های پر شده با داده های همبسته خودکار
71033
من می فهمم که Posterior چیست، اما مطمئن نیستم که دومی به چه معناست؟ این 2 چه تفاوتی دارند؟ کوین پی مورفی در کتاب درسی خود، یادگیری ماشینی: دیدگاه احتمالی، اشاره کرد که این یک حالت باور درونی است. واقعا این به چه معناست؟ من تحت این تصور بودم که یک پیشین نشان دهنده باور یا تعصب درونی شماست، کجا اشتباه می کنم؟
تفاوت بین توزیع پیش بینی پسین و پسین چیست؟
7089
من به فرمولی برای احتمال یک رویداد در توزیع برنولی با متغیر n نیاز دارم $X\in\\{0,1\\}^n$ با احتمالات $P(X_i=1)=p_i$ برای یک عنصر و برای جفت عناصر $P(X_i=1 \wedge X_j=1)=p_{ij}$. به طور معادل می توانم میانگین و کوواریانس X$ را بدهم. قبلاً یاد گرفتم که توزیع‌های $\\{0,1\\}^n$ زیادی وجود دارد که دارای ویژگی‌ها هستند، همانطور که توزیع‌های زیادی با میانگین و کوواریانس مشخص وجود دارد. من به دنبال یک توزیع متعارف در $\\{0,1\\}^n$ هستم، همانطور که Gaussian یک توزیع متعارف برای $R^n$ و یک میانگین و کوواریانس معین است.
فرمول احتمال برای توزیع چند متغیره-برنولی
112082
من 10 مجموعه داده با توزیع نرمال و انجام تست های معناداری روی هر یک دارم. با این تعداد مجموعه داده، شانس خوبی وجود دارد که برخی به طور تصادفی قابل توجه باشند. من قصد دارم روش بونفرونی را برای حل این مشکل امتحان کنم، اما روش دیگری که برای من پیش آمد یک روش دو جمله ای است. به عنوان مثال، اگر مقدار p برای هر معناداری فردی 0.01 باشد، احتمال به دست آوردن یک نتیجه معنی دار از B (10، 0.01) تبعیت می کند. سپس می توانید احتمال هر تعداد نتیجه قابل توجه را ایجاد کنید. آیا این روش مشروع است؟ من هیچ مشکلی در آن نمی بینم و در یک تاپیک دیگر ذکر شده است اما به نظر می رسد زیاد رایج نیست و می خواهم بدانم آیا استفاده از آن مشکلی دارد یا خیر.
7084
### زمینه: در رابطه با سوال اینجا به سوال جالب تری برخوردم. من معتقدم که سوال به اندازه کافی بزرگ و متمایز است که موضوع خود را داشته باشد. البته ممکن است اشتباه کنم، در آن صورت برای درهم ریختگی عذرخواهی می کنم... من مجموعه داده ای از مقادیر تجربی دارم که از یک توزیع ناشناخته آمده است. سپس داده ها در یک تجزیه و تحلیل استفاده می شوند و به عنوان معیاری برای اهمیت نتایج تجزیه و تحلیل، من می خواهم داده های تصادفی را از همان توزیع نمونه برداری کنم و تجزیه و تحلیل خود را روی این مجموعه داده ها (مثلاً 1000 برابر اندازه مجموعه داده اصلی) اجرا کنم. ) برای دیدن اینکه آیا نتایج حاصل از مقادیر تجربی انحراف قابل توجهی را از داده های تصادفی نشان می دهد یا خیر. من به ترسیم نمونه‌هایی از یک توزیع نرمال فکر می‌کردم، زیرا طبیعی‌تر به نظر می‌رسد که نمونه‌ها از توزیع نرمال آمده باشند. با این حال، باید به نوعی از فرض عادی بودن خود حمایت کنم. من در ابتدا به استفاده از نوعی تست نرمال بودن فکر می کردم، اما پس از مطالعه در مورد این موضوع مانند طبیعی بودن چیست؟ و تست نرمال بودن: اساسا بی فایده است؟ رشته ها و البته مقاله ویکی پدیا در مورد تست های عادی. من احساس می‌کنم که این آزمایش‌ها روشی قابل قبول برای تأیید مفروضات نرمال بودن نیستند. ### سوال: 1. چگونه می توان عادی بودن را بدون استفاده از نشانه های بصری مانند نمودار QQ تایید کرد؟ (اعتبار بخشی از نرم افزار بزرگتر خواهد بود) 2. آیا می توان نمره خوبی تناسب را محاسبه کرد؟ * * * _**ویرایش:**_ همانطور که درخواست شد، سعی می کنم جزئیاتی در مورد داده ها اضافه کنم. داده های موجود از یک آزمایش بیولوژیکی است، با این حال ابزار دقیق دارای تنوع بالایی بین اجراها است. تحلیلی که ذکر کردم مقادیر اندازه گیری شده را می گیرد و با استفاده از یک مدل ریاضی معنای عملکردی داده های اندازه گیری شده را ارزیابی می کند. برای انجام این کار، باید ببینم که نرخ داده‌های غیرمرتبط/ناهمبسته و ساخته‌شده در همان تحلیل چقدر است، از این رو قصد مدل‌سازی با مقادیر تصادفی شده است. امیدوارم این دیدگاه من را روشن کند. * * * **_EDIT2:_** یک سری سوال وجود داشته است که در مورد سوال توضیح داده شده است. هم در اینجا و هم در نظرات زیر سعی کردم در حد توانم شرایطم را توضیح دهم. به نظر می‌رسد که ما از عدم تطابق ارتباطی رنج می‌بریم... نمی‌دانم چگونه می‌توانم بدون نوشتن یک جدول طولانی و پیچیده‌تر کردن مسائل یا ساده‌کردن بی‌رحمانه تصویر بزرگ‌تر، مثالی بزنم. من شک ندارم که همه کسانی که وقت خود را صرف کردند و پاسخ دادند بهترین نیت را دارند، اما واقعاً ممنون می شوم اگر بتوانید به جای پرس و جو بیشتر و بیشتر در مورد انگیزه های پشت سر چرایی انجام کارها به این روش، روی سؤال مورد نظر تمرکز کنید. و نه راه دیگری
توجیه تقریب نرمال داده های تجربی
12978
آیا راهی برای اجرای تابع «sem» (بسته R **sem**) با استفاده از روش WLS وجود دارد؟ علاوه بر این، من یک مجموعه داده بسیار کوچک (20 مشاهده) دارم، آیا می توانم با استفاده از تکنیک بوت استرپینگ بر این مشکل غلبه کنم؟
برآوردگر WLS و بوت استرپینگ در بسته sem
6949
من به دنبال کتاب/مطالعه موردی و غیره در مورد چگونگی ساخت یک مدل تشخیص تقلب در سطح تراکنش هستم. چیزی کاربردی به جای تئوری واقعا مفید خواهد بود.
آیا کتاب/مواد مرجع خوبی برای کمک به ساختن مدل تشخیص تقلب در سطح txn وجود دارد؟
15475
من در درک یک تکه کاغذ مشکل دارم. از هرگونه راهنمایی یا کمک بسیار سپاسگزاریم. می گوید: > حسگر Z(i) را در فواصل 1 ثانیه ضبط می کند و پس زمینه > مقادیر U(i) را با استفاده از فرمول محاسبه می کند: > > U(i)=R*U(i-1)+(1-R)* Z(i)، > > که در آن R یک عامل ثابت است و U(0) از داده های پیش اندازه گیری محاسبه می شود. حالا آیا این فرمول معروف است یا خیر؟ آیا صدای مخلوط گاوسی دو مدتی است؟ سپس دقیقاً به این صورت می گوید: > واریانس δU(i) این مقادیر از مقادیر محاسبه شده محاسبه می شود > U(i): > > δU(i)=k*sqrt(U(i)/T) > > که در آن k عامل سیگما و T زمان اندازه گیری داده شده است. من نمی دانم چگونه واریانس چیزی شبیه به آن شد. من اصطلاح T و تابع sqrt را می‌دانم اما فرمول کلی آن را نمی‌دانم.
چگونه می توان واریانس میانگین متحرک وزنی را استخراج کرد؟
86756
بنابراین من مجموعه ای از 9 مقادیر x,y دارم و باید شیب/شیب داده ها و خطای مربوط به آن را پیدا کنم. بدون خطا، من از تابع LINEST Excels استفاده می‌کردم، اما از آنجایی که خطاهای مقادیر y من بزرگ هستند (بدون خطای مقدار x)، به LINEST نیاز دارم تا این موارد را در نظر بگیرد. چگونه این کار را انجام دهم؟ با تشکر
عدم قطعیت در گرادیان داده ها
71031
من در حال تلاش برای خوشه بندی داده ها با استفاده از Mclust هستم. داده ها در اصل از یک ماتریس عدم تشابه هستند که از طریق مقیاس بندی چند بعدی در R («MASS::isoMDS») تبدیل شده است. همانطور که با تعداد ابعاد مختلف آزمایش می‌کنم، دریافتم که با تعداد ابعاد بزرگ‌تر (~50 نسبت به ~10 برای مقادیر کوچک‌تر امتحان شده) انواع مدل‌های خاصی مقادیر «NA» را برای BIC با تعداد مؤلفه‌های بیشتر، یعنی خوشه‌ها، برمی‌گردانند. . کتابچه راهنمای Mclust بیان می کند > مقادیر از دست رفته مربوط به مدل ها و تعداد خوشه هایی است که > مقادیر پارامتر برای آنها مناسب نیست (با استفاده از مقداردهی اولیه پیش فرض). برای داده‌های چند متغیره، مقداردهی اولیه پیش‌فرض برای همه مدل‌ها از طبقه‌بندی > از خوشه‌بندی سلسله مراتبی بر اساس یک مدل نامحدود استفاده می‌کند. آیا کسی می‌تواند توضیح دهد که چه چیزی باعث عدم تناسب مقادیر پارامتر می‌شود و چگونه به تعداد ابعاد مورد استفاده مربوط می‌شود؟ دانستن این موضوع ممکن است به من در درک بهتر ارزش بالقوه یا عدم وجود آن ابعاد بعدی کمک کند. در موارد مرتبط، در مواردی که من امتحان کرده‌ام، نوع مدل VVV در تعداد کمتری از مؤلفه‌ها و سپس EVI و VEV، سپس VEI و VII متوقف می‌شود و 4 مورد دیگر (EEI، EII، EEE، و EEV) برمی‌گردند. حداکثر 9 مؤلفه را به طور پیش فرض تعیین می کند. اگر مفید باشد، می‌توانم تعداد دیگری از ابعاد را اجرا کنم تا الگوی واضح‌تری به دست بیاورم.
چرا برخی از خوشه بندی های مبتنی بر مدل با تعداد زیادی از ابعاد سازگاری ندارند؟
88805
http://imgur.com/FeFf3e9 پیوند imgur به یک اسکرین شات از بخش مربوطه در متن من است. من در درک اینکه چگونه اگر $H(x, \infty)=F(x)$ توزیع حاشیه ای $x$ باشد، چگونه $F(x) = x، 0 < x < 1$ حاشیه یکنواخت است، مشکل دارم. چگونه توزیع حاشیه ای می تواند یکنواخت باشد اگر برابر $F(x)=x$ باشد؟ علاوه بر این، چگونه یک تابع CDF می تواند یکنواخت باشد؟ «یکنواخت» در این متن به چه چیزی اشاره دارد؟
کمک به درک توزیع حاشیه ای یکنواخت در خانواده Farlie-Morgenstern.
15477
من از تابع **bptest** بسته lmtest برای استفاده از تست Breusch-Pagan استفاده می کنم. من یک نتیجه عجیب دریافت می کنم، با انجام موارد زیر: > m <- lm(prices[,1]~prices[,2]+0) > bptest(formula(mod)) داده های آزمون Breusch-Pagan دانشجویی شده: formula(mod) BP = 0.458، df = 0، p-value < 2.2e-16 > m <- lm(prices[,1]~prices[,2]) > bptest(formula(m)) داده‌های آزمون بروش-پاگان را دانشجو کرد: فرمول (m) BP = 0.0503، df = 1، p-value = 0.8225، همانطور که می‌بینید اگر من فاصله را روی صفر قرار دهم (`+ 0`) دریافت می‌کنم مقدار p بسیار پایین است، سپس اگر دوباره آزمایش را با وقفه انجام دهم، مقدار p خوبی دریافت می کنم. تنظیم وقفه روی صفر نیز «df = 0» را برمی‌گرداند، بنابراین، مشکلی پیش آمد. کسی میتونه دلیلشو برام توضیح بده؟ متشکرم
چرا تست Breusch-Pagan با شکست مواجه می شود اگر رهگیری را روی صفر تنظیم کنم؟
86757
من به یک مدل تخمین ترکیبی نگاه می کنم و دوست دارم بفهمم که چگونه می توان واریانس را از آن بدست آورد. برای زمینه، مدل‌هایی را که می‌خواهم در زیر ترکیب کنم، قبل از ادامه سؤال در مورد واریانس مدل ترکیبی ارائه می‌دهم. مدل اول به صورت زیر ارائه می شود: $\pi = x\beta+u$ که در آن: * $\pi$ بردار $n \times 1$ از بازده تعادل CAPM برای دارایی ها است. * $x$ ماتریس $n \times n$ $I_n$ است که بارهای عاملی برای مدل ما هستند. * $\beta$ بردار $n \times 1$ از معنی ناشناخته برای فرآیند بازگشت دارایی است. * $u$ یک ماتریس $n \times n$ از باقیمانده های رگرسیون است که در آن $E(u)=0$ است. و $Var(u)=E(u'u)=\Phi$ و $\Phi$ غیر مفرد است. مدل دوم به صورت زیر ارائه می شود: $q=p\beta+v$ که در آن: * $q$ بردار $k \times 1$ است که باید با آن مخلوط شود. * $x$ ماتریس $k \times n$ است که در آن بازده مدل دوم به مدل اول نگاشت می شود. * $\beta$ بردار $n \times 1$ از معنی ناشناخته برای فرآیند بازگشت دارایی است. * $v$ یک ماتریس $k \times k$ از باقیمانده های رگرسیون است که در آن $E(v)=0$ است. و $Var(v)=E(v'v)=\Omega$ و $\Omega$ غیر مفرد است. سپس مدل مختلط توسط: $ \Bigg[\begin{matrix} \pi\\\ q \end{matrix}\Bigg] = \Bigg[\begin{matrix} x\\\ p \end{matrix} داده می‌شود. \Bigg] \hat\beta+ \Bigg[\begin{matrix} u\\\ v \end{matrix}\Bigg] $ اکنون $\Bigg[\begin{matrix}u\\\v\end{matrix}\Bigg]$ باید خطای مدل باشد و من به واریانس خطا علاقه مند هستم. من می‌دانم که $Var(X) = E(XX) - E(X)^2$، زیرا $E(X)$ در هر دو مورد صفر است، حداقل با توجه به درک من، این موضوع برای من باقی می‌ماند: $Var\Bigg(\Bigg[\begin{matrix}u\\\v\end{matrix}\Bigg]\Bigg)=\Bigg[\begin{matrix}u\\\v\end{matrix}\Bigg ]'\Bigg[\begin{matrix}u\\\v\end{matrix}\Bigg]$، با این حال، در حال بررسی فرمولاسیونی هستم که می‌خوانم: $Var\Bigg(\Bigg[\begin{matrix}u\\\v\end{matrix}\Bigg]\Bigg)=\Bigg[\begin{matrix}u\\\v\end{matrix}\Bigg ][\begin{matrix}u' v'\end{matrix}]$. آیا هر دو نمایش Var معادل هستند، آیا درک من اشتباه است یا چیز دیگری گم شده است؟
واریانس یک مدل تخمین مختلط
47750
من یک مجموعه آموزشی دارم که برای آموزش یک طبقه بندی کننده SVM استفاده می شود، مدل یافت شده برای پیش بینی مجموعه داده ای از چندین نمونه بدون برچسب استفاده می شود. من می خواهم بدانم چگونه می توان شاخص خوبی از پیش بینی را استخراج کرد. من مقالاتی برای تخمین احتمال پیش‌بینی با استفاده از فاصله از ابر صفحه SVM پیدا کردم، اما یک مثال دور لزوماً به معنای یک مثال طبقه‌بندی شده نیست. آیا روش دیگری برای ارزیابی این سوال وجود دارد؟
شاخص اهمیت پیش‌بینی داده‌های بدون برچسب
112087
من یک دیتافریم با ستون زیر دارم: Year، Temperature، Num.Species که همه متغیرهای عددی هستند. هر ردیف نشان دهنده تعداد گونه های مشاهده شده در یک سال خاص و میانگین دمای آن سال است. من می خواهم آزمایش کنم که آیا شیب رگرسیون Year~Temperature با شیب رگرسیون Year~Temperature هنگام استفاده از Num.Species به عنوان یک فاکتور وزنی متفاوت است یا خیر. با توجه به آنچه من تا به حال فهمیدم، انجام این کار با ANCOVA امکان پذیر است. اما هیچ متغیر دسته بندی در داده های من وجود ندارد. هر گونه کمکی قدردانی خواهد شد!
88809
من یک مجموعه داده با 2 کلاس و یک روش خاص برای ساختن یک طبقه بندی کننده باینری دارم. من می خواهم عملکرد آن را اندازه گیری کنم و آزمایش کنم که آیا به طور قابل توجهی بالاتر از سطح شانس است یا خیر. من عملکرد آن را با اعتبارسنجی متقابل مکرر اندازه می‌گیرم (به زیر مراجعه کنید). **سوال من این است: چگونه اهمیت را آزمایش کنیم؟** در اینجا روش اعتبارسنجی متقاطع من است. من از اعتبارسنجی متقاطع طبقه بندی شده 100 برابری مونت کارلو استفاده می کنم (البته من دقیقاً مطمئن نیستم که این عبارت درست باشد؛ به نظر می رسد برخی از افراد آن را _boostrap_، یا _out-of-bootstrap_، یا _leave-group-out_ cross-validation) می نامند: در هر فولد به طور تصادفی موارد تست $K=4$، 2 مورد از هر کلاس را انتخاب می کنم، طبقه بندی کننده را بر روی داده های باقی مانده آموزش می دهم و این ها را طبقه بندی می کنم. 4 مورد. فرض کنید من طبقه بندی های صحیح $a_i$ را دریافت کردم. این کار $N=100$ بار تکرار می‌شود، و بنابراین من تعداد کلی طبقه‌بندی صحیح $A = \Sigma a_i$ را دریافت می‌کنم. من میانگین دقت طبقه‌بندی $A/400$ و انحراف استاندارد دقت‌های فردی $a_i/4$ را گزارش می‌کنم. * نکته 1: به دلایلی که فکر می کنم در اینجا خیلی مهم نیستند، نمی توانم K$ را افزایش دهم و نمی توانم از اعتبارسنجی متقاطع k-fold معمولی استفاده کنم، بنابراین این رویکرد مونت کارلو تنها روش ممکن برای من است. واریانس برآوردگر من بسیار زیاد است، اما من کار دیگری ندارم. * نکته 2: @FrankHarrel می گوید که دقت طبقه بندی یک قاعده امتیاز دهی نامناسب ناپیوسته است. من می دانم، اما در این مورد خاص با آن خوب هستم. من در اینجا هیچ مدلی را بهینه نمی کنم، طبقه بندی کننده من قبلاً داده شده است. اکنون، ساده لوحانه فکر می‌کنم که یک طبقه‌بندی تصادفی هر مورد را با احتمال 50% پیش‌بینی می‌کند، بنابراین تعداد طبقه‌بندی‌های صحیح تحت فرضیه صفر طبقه‌بندی‌کننده سطح شانس، $\mathrm{Binom}(400, 0.5) \approx \mathcal{ خواهد بود. N}(200,100)$، بنابراین می توانم به سادگی آزمایش کنم که آیا $A$ من در $\alpha$% بالایی است (مثلا 1٪ صدک این توزیع دو جمله ای / نرمال. با این حال، تصمیم گرفتم که یک تست درهم ریختگی انجام دهم. من برچسب‌هایم را به هم می‌زنم، سپس از کل روش بالا با 100 تا زدن استفاده می‌کنم تا دقت متوسط ​​​​به هم ریخته $B_j$ را به دست بیاورم، و این مخلوط کردن $M=100$ را بارها تکرار می‌کنم. هدف نمونه برداری از دقت در فرضیه صفر است. پس از به دست آوردن 100 مقدار $B_j$، به توزیع آنها نگاه می کنم. میانگین بسیار نزدیک به 200 است که خوب است. با این حال، واریانس **خیلی** بزرگتر از 100 است، حدود 1500 است. من نمی دانم چگونه ممکن است. بعد از اینکه دقیق‌تر نگاه کردم، متوجه شدم که در داخل هر مخلوط، واریانس طبقه‌بندی صحیح بیش از 100 برابر حدود 1 است، همانطور که انتظار می‌رفت: $4*0.5*(1-0.5)=1$. اما در داخل برخی از این‌ها، میانگین تعداد طبقه‌بندی‌های صحیح کمی کمتر از 2 است، و در برخی از این‌ها کمی بیش از 2 است. این تغییرات اضافی باعث می‌شود واریانس $B_j$ بسیار بالا باشد. در مقابل، اگر در داخل هر مخلوط از یک طبقه‌بندی واقعاً تصادفی به جای طبقه‌بندی‌کننده ساخته شده بر روی یک مجموعه آموزشی مطابق با روش من استفاده کنم، آنگاه به خوبی از $\mathcal{N}(200,100)$ B_j$ پیروی می‌کنم. چگونه ممکن است؟ **آیا از توزیع دوجمله ای یا تجربی برای تست های آماری استفاده کنم؟** تفاوت بسیار زیاد است. اگر باید از روش تجربی استفاده کنم، آیا راهی برای تقریب آن بدون انجام عملاً درهم ریختگی (که طول می کشد) وجود دارد؟ **به روز رسانی** در واقع یک راه سوم برای آزمایش اهمیت وجود دارد که به ذهنم می رسد: من می توانم به فاصله اطمینان $A$ خود نگاه کنم و ببینم آیا 200 را حذف می کند یا خیر. هر به هم زدن با این حال، من در مورد اینکه فاصله اطمینان را بر اساس چه واریانسی باید بسازم سردرگم هستم: آیا این انحراف استاندارد $a_i$ است یا خطای استاندارد میانگین $a_i$؟ تفاوت البته بسیار زیاد است. اگر تعداد کل نمونه‌ها زیاد باشد، می‌توان چین‌های مونت کارلوی من را مستقل فرض کرد و حدس می‌زنم می‌توانم خطای استاندارد میانگین $a_i$ را بگیرم. اما اگر تعداد کل نمونه ها زیاد نباشد، دیگر مستقل نیستند. از سوی دیگر، انحراف معیار بیش از حد بزرگ است که برای آزمایش مفید باشد. به نظر می رسد که باید واریانس $a_i$ را بر جذر _تعداد موثر تاها_ (که کمتر از 100 خواهد بود) تقسیم کنم، اما نمی دانم چگونه آن را تخمین بزنم.
آزمایش اهمیت صحت طبقه‌بندی تأیید شده متقاطع: درهم‌رفتن در مقابل آزمون دو جمله‌ای
97858
در رگرسیون، مقدار بتا نشان دهنده افزایش $y$ است اگر $x$ یک واحد تغییر کند. بتای استاندارد شده همان اطلاعات را می دهد، اما برای افزایش انحرافات استاندارد. اما چرا $y$ نمی تواند 2 SD افزایش یابد اگر $x$ به عنوان مثال 1 SD افزایش یابد؟ منظورم این است که اگر تاثیر به اندازه کافی سنگین باشد؟ همچنین، من فرض کردم ضریب همبستگی صرفاً معیاری برای میزان تفاوت دو متغیر با هم، مستقل از شیب است. اما در رگرسیون، شیب وابسته به ضریب همبستگی است. آیا این دو اطلاعات متفاوت هستند؟
محدوده بتای استاندارد شده در رگرسیون خطی
4276
من یک سنسور دارم که داده‌های شتاب‌سنج را در حین راه‌رفتن شخص می‌گیرد. چیزی که من علاقه مند به استخراج آن هستم، هر قطعه سیگنال در هنگام برداشتن یک مرحله است. محور Z همان چیزی است که استفاده می شود زیرا برای تشخیص تغییرات در مراحل فقط یک محور مورد نیاز است. تصاویر زیر نمونه سیگنال راه رفتن محور Z را نشان می دهد (برای 400 تکرار). نیمه اول سیگنال فوق (برای 200 تکرار). ![محور Z از شتاب سنج در نیمه اول چرخه نرمال راه رفتن](http://i.stack.imgur.com/aCP0X.jpg) سوژه ابتدا ثابت می ایستد و سپس در ~X=30 شروع به راه رفتن می کند. توجه کنید که چگونه یک الگوی ظاهری هنگام راه رفتن کاربر وجود دارد. آنچه من علاقه مند به استفاده از Autocorrelation برای صاف کردن سیگنال محور Z با استفاده از Matlab برای صاف کردن سیگنال هستم (بر اساس تصویر زیر). متأسفانه، من سابقه پردازش سیگنال قوی ندارم و درک مناسبی از Matlab دارم. چگونه می توانم سیگنال راه رفتن را صاف کنم تا بتوانم مراحل را استخراج کنم؟ ادبیاتی که من استفاده می‌کنم نشان می‌دهد که می‌توان مراحل را با نگاه کردن به قله‌های سیگنال هموار استخراج کرد. ![هدف](http://i.stack.imgur.com/TaxQC.png) منابع دیگر استفاده از مدل‌های پنهان مارکوف را برای استخراج هر یک از چرخه‌های راه رفتن پیشنهاد کرده‌اند، اما من قبل از اینکه به یک رویکرد پردازش سیگنال ساده‌تر فکر کنم. استفاده از چیزی پیشرفته را در نظر بگیرید. با این حال، اگر بخواهم این مسیر را دنبال کنم، بهترین استراتژی چه خواهد بود؟
40402
من مشکل زیر را دارم: می خواهم داده های زیر را تجزیه و تحلیل کنم: فروش محصولات در سال با توجه به * نوع محصول * گروه محصول (انواع محصولات مشابه با هم گروه بندی می شوند) * کشوری که در آن فروخته شده است * نوع محصول کاربردی که برای آن فروخته شده است. بنابراین به جز سال، همه آن متغیرها دسته بندی هستند. از چه روش های آماری می توان برای ایجاد پیش بینی برای آینده و تحلیل داده های موجود و **اثرات و تعاملات** عوامل ذکر شده در بالا بر ارقام فروش استفاده کرد؟ اگر فاکتورهای عددی باشد، فکر می‌کنم رگرسیون می‌تواند کمک کند - در این مورد چه کاری می‌توان انجام داد؟ (دانش من در مورد آمار تا به حال بسیار محدود است.)
چگونه می توان اثرات چندین متغیر عمدتاً طبقه بندی شده را بر روی یک مقدار عددی پیدا کرد؟
76567
من قصد دارم یک رگرسیون چرخشی در Stata انجام دهم و فقط می خواهم R-squared را بدست بیاورم. من قصد دارم آن را ساده نگه دارم، من یک برنامه کامل نمی نویسم، اما در صورت لزوم، من برای چنین پیشنهاداتی نیز آماده هستم. در حال حاضر من خطوطی دارم که با آنها فقط تخمین ضرایب بتا و خطاهای استاندارد را بدست می‌آورم. من فقط این را مستقیماً وارد رابط کاربری گرافیکی می کنم. tsset time rolling _b _se، window(60) keep(date) clear: regress y x اندازه مراحل 1 است و بنابراین دستور مربوطه از خطوط کد حذف می شود. من این را بر اساس کتابچه راهنمای stata (http://www.stata.com/manuals13/tsrolling.pdf) قرار دادم. با این حال، من در این راهنما R-squared ذکر شده را نمی بینم. من همچنین این موضوع را به طور گسترده در گوگل جستجو کردم و به بخش استاتالیست نگاه کردم اما نتوانستم راه حلی پیدا کنم. پیشنهادات برای به دست آوردن ستونی که شامل R-squared هر رگرسیون باشد بسیار قدردانی خواهد شد. دان
مربع R از رگرسیون غلتشی در Stata 12
13736
من با اصطلاحات آمار آشنا نیستم، بنابراین نمی توانم آن را در گوگل جستجو کنم مگر اینکه بدانم نام آن چیست. مشکل من این است: من یک تست دارم (به دلیل نداشتن اصطلاح بهتر) که در آن از مردم می خواهم که پاسخی را انتخاب کنند. در پایان آزمون می‌پرسم که آیا آن شخص برنامه‌نویس یا طراح است، از صفر تا ده نمره می‌دهم و سپس می‌خواهم نتایج را از هر دو جامعه ترسیم کنم. مشکل این است که در حال حاضر پاسخ های بیشتری از توسعه دهندگان دارم (حدود 2 به 1). منصفانه ترین راه برای عادی سازی این داده ها چیست؟ نتایج بسیار شبیه منحنی‌های زنگ هستند، آیا باید نمودارها را طوری مقیاس‌بندی کنم که مطابقت داشته باشند؟ می توانید آزمون را در اینجا ببینید: http://method.ac/test
چگونه می توان توزیع های یک متغیر را برای دو گروه با اندازه های نمونه متفاوت به صورت گرافیکی مقایسه کرد؟
40407
اخیراً من یک مشکل ابتدایی در مورد توزیع دوجمله ای را حل می کردم، این مسئله درخواست می کند که $P(X<=2)$ را تعیین کند، که در آن $X$ محصولات ناسازگار است، نمونه 50 واحد است، و کسر ناسازگار 0.02 است. راه حل پیشنهادی این است: $$ P(X\le2) = P(X=0) + P(X=1) + P(X=2). $$ من با این راه حل موافق نیستم، فکر می کنم باید این باشد: $$ P(X\le2) = P(0<X<=2) = P(X=1) + P(X=2)، $ $ زیرا $X=0$ نشان دهنده عدم واحدهای ناسازگار است. هنگامی که در مسئله دیگری درخواست می شود احتمال تعیین حداقل 1 محصول ناسازگار باشد تأیید می شود و راه حل پیشنهادی این است: $P(X\ge1)=1-P(X=0)$. نظر شما در این مورد چیست؟
معنی P(X=0) در توزیع دوجمله ای
92371
من به دنبال معادل بودن از نظر پارامترهای دو مدل هستم. مجموعه داده $(x_1، y_1)،...، (x_n، y_n)$ را در نظر بگیرید و i.d. اکنون اجازه دهید ابتدا فرض کنیم که $Y$ با مثلاً 4 سطح طبقه بندی شده است. سپس یک مدل رگرسیون لجستیک تجمعی با فرض شانس های متناسب $\mbox{logit}(P(Y\leq j|X)=\alpha_j+\beta X$ داده می شود. مدل نسبت ادامه رو به جلو توسط $\mbox{log}( P(Y=j|Y\geq j,X)=\gamma_j+\theta X$ آیا می توانم رابطه بین آن را به من ثابت کنم $\alpha_j،\gamma_j،\theta$ و $\beta$ هم ارزی این دو مدل با پیوند log-log تکمیلی ایجاد شده است.
نسبت ادامه و مدل شانس متناسب تجمعی
69957
مسئله روز من این است: در حال حاضر به خودم اقتصاد سنجی می آموزم و از رگرسیون لجستیک استفاده می کنم. من مقداری کد SAS دارم و می‌خواهم قبل از اینکه بخواهم آن را به R تبدیل کنم، مطمئن شوم که آن را به خوبی درک کرده‌ام (من ندارم و SAS را نمی‌دانم). در این کد، می‌خواهم احتمال «کارمند بیکار» بودن یک نفر را مدل کنم. منظور من سن بین 15 تا 64 سال و تدبیر = بیکار است. من می خواهم سعی کنم این نتیجه را با متغیرهای زیر پیش بینی کنم: جنس، سن و idnat (شماره ملیت). (سایر موارد مساوی هستند). کد SAS : /* نرخ بیکاری : تعداد بیکاری در بین نیروی کار */ proc logistic data=ensus; class sex(ref=Man) age idnat(ref=spanish) / param=glm; درایت کلاسی (رف=اول); تدبیر مدل = سن جنسیت idnat / لینک = logit; جایی که 15<=سن<=64 و درایت در (کارمند بیکار); وزن وزن؛ فرمت سن سن C. درایت $activity. idnat $nat_dom. ملیت دلاری جنسیت $M_W.; ls به معنای جنسیت / obsmargins ilink; lsmeans idnat / obsmargins ilink; ls به معنی سن / obsmargins ilink; اجرا؛ این نمونه ای از ظاهر پایگاه داده است: idnat جنسیت تدبیر [1،] انگلیسی زن 42 کارمند [2،] فرانسوی زن 31 بیکار [3 ,] اسپانیایی زن 19 کارمند [4،] انگلیسی مرد 45 بیکار [5،] انگلیسی مرد 34 کارمند [6،] اسپانیایی زن 25 کارمند [7،] اسپانیایی مرد 39 بی‌کار [8 ,] اسپانیایی زن 44 بیکار [9،] اسپانیایی مرد 29 کارمند [10،] اسپانیایی مرد 62 بازنشسته [11،] اسپانیایی مرد 64 بازنشسته [12،] انگلیسی زن 53 بیکار [13] ,] انگلیسی مرد 43 بیکار [14،] فرانسوی مرد 61 بازنشسته [15،] فرانسوی مرد 50 کارمند این همان نتیجه ای است که من می خواهم به دست بیاورم: ارزش وجه متغیر شاخص ChiSq جنسیت زنان 56.6% 0.00001 -8.9% مردان 65.5% ملیت 1:اسپانیایی 62.6% 2 :فرانسوی 51.2% 0.00001 -11.4% 3:انگلیسی 48.0% 0.00001 -14.6% سن <25 سال 33.1% 0.00001 -44.9% Ref:26<x<54yo 78.0% 55yo=< 48.7% 0.00001 - 48.7% 0.00001-0.00001 (من موارد فوق را اینگونه تفسیر می کنم: در شرایط مساوی، زنان 9/8- درصد شانس شاغل شدن در مقابل مردان دارند و افراد کمتر از 25 سال 9/44- درصد شانس شاغل بودن نسبت به افراد بین 26 تا 54 سال دارند). بنابراین اگر به خوبی درک کنم، بهترین رویکرد استفاده از رگرسیون لجستیک باینری (link=logit) خواهد بود. این از ارجاعات مرد در مقابل زن (جنس)، کارمند در مقابل بیکار (از متغیر تدبیر) استفاده می کند... من فرض می کنم تدبیر به طور خودکار توسط SAS به یک متغیر باینری (0-1) تبدیل می شود. این اولین تلاش من در R است. من هنوز آن را بررسی نکرده‌ام (به رایانه شخصی خودم نیاز دارم): ### قبل از استفاده از تابع glm ### همه پیش‌بینی‌کننده‌ها را به فاکتورها تغییر دهید و مرجع سطح را تغییر دهید. $sex), ref = Man) recens$idnat <- relevel(factor(recens$idnat), ref = اسپانیایی) recens$tact <- relevel(factor(recens$tact), ref = کارمند) recens$ageC <- relevel(factor(recens$ageC), ref = Ref : De 26 a 54 ans) ### محاسبات احتمالات با تابع glm، متغیرهای قالب‌بندی شده ###، و شرایط با محدودیت زیر مجموعه به از 15 سال تا 64 ### و فقط کارمند و بیکار. glm1 <- glm(فعالیت ~ جنسیت + سن C + idnat، داده=recens، وزن = وزن، زیرمجموعه= recens$age[(15<= recens$ سن | recens$ سن <= 64)] و recens$tact %in% c(کارمند، بیکار)، خانواده = quasibinomial (logit)) سوالات من: در حال حاضر، به نظر می رسد که بسیاری از آنها وجود دارد. توابع برای انجام یک رگرسیون لجستیک در R مانند glm که به نظر می رسد مناسب است. با این حال، پس از بازدید از بسیاری از انجمن ها، به نظر می رسد بسیاری از مردم توصیه می کنند که سعی نکنید دقیقاً SAS PROC LOGISTIC، به ویژه عملکرد LSMEENS را بازتولید کنید. دکتر فرانک هارل، (نویسنده بسته:rms) برای یک. با این حال، حدس می‌زنم مشکل بزرگ من LSMEENS و گزینه‌های آن Obsmargins و ILINK باشد. حتی پس از خواندن مکرر شرح آن، به سختی می توانم بفهمم که چگونه کار می کند. تا اینجا، چیزی که من از Obsmargin فهمیدم این است که به ساختار کل جمعیت پایگاه داده احترام می گذارد (یعنی محاسبات با نسبت کل جمعیت انجام می شود). به نظر می رسد ILINK برای به دست آوردن مقدار احتمال پیش بینی شده (نرخ بیکاری، نرخ اشتغال) برای هر یک از پیش بینی کننده ها (به عنوان مثال زن و سپس مرد) به جای مقدار یافت شده توسط مدل (نمایی) استفاده می شود؟ به طور خلاصه، چگونه می توان این کار را از طریق R، با lrm از rms یا lsmeans انجام داد؟ من واقعاً در همه اینها گم شده ام. اگر کسی بتواند آن را برای من بهتر توضیح دهد و به من بگوید که آیا در مسیر درستی هستم، روزم را بهتر می کند. از کمک شما متشکرم و بابت تمام اشتباهات انگلیسی من متاسفم
رگرسیون لجستیک SAS را به R تبدیل کنید
72295
احتمال اینکه عنصر i از همه عناصر قبلی بزرگتر باشد چقدر است؟
86759
برای شروع، من یک فرد غیر روحانی هستم. من یک مدل پروبیت را با استفاده از GRETL تخمین زده ام. همه جلوه های حاشیه ای 0 هستند (نه خیلی کوچک یا چیزی - اما صفر). من قبلا از چند مدل پروبیت و لاجیت استفاده کرده ام و هرگز برای من اتفاق نیفتاده است. من یک تخمین لاجیت برای همان مدل انجام دادم، و اوکی بود (اثرات حاشیه ای غیر صفر). چگونه می توانم اثرات حاشیه ای صفر را در تخمین پروبیت توضیح دهم؟ پیشاپیش از همه تشکر می کنم!
مدل پروبیت - اثرات حاشیه ای: همه صفر
104990
من چندین مجموعه توزیع احتمال دارم. من می‌خواهم سازگاری بین توزیع‌های داخل هر مجموعه را با اطمینان تخمین بزنم. ادبیات شامل روش هایی برای مقایسه دو توزیع است: واگرایی Kullback-Leibler، فاصله حرکت دهنده زمین، ... اما من نتوانستم چیزی برای بیش از دو توزیع پیدا کنم. من می توانم شاخصی را تصور کنم که بر روی یکی از این روش ها ساخته شده است. برای مثال، من می‌توانم ابتدا همه توزیع‌های احتمال را در یک توزیع ادغام کنم. و سپس از میانگین (یا میانه) KL متقارن (یا هر فاصله/واگرایی/...) بین توزیع ادغام شده و همه توزیع های دیگر در مجموعه در نظر گرفته شده استفاده کنید. اما قبل از شروع کاری غیرعادی، ترجیح می‌دهم مطمئن باشم که هیچ چیز از قبل وجود ندارد.
43279
یکی از ویژگی های تجزیه و تحلیل اجزای اصلی (PCA) این است که بعد اول آموزنده ترین بعد بعد دوم و غیره است. آیا این ویژگی برای مقیاس بندی چند بعدی (MDS) نیز صادق است؟
آیا بعد اول در مقیاس بندی چند بعدی آموزنده تر است؟
104260
من یک رویداد نادر را مدل‌سازی می‌کنم (مثلاً 1 در 10000) و از یک مجموعه قطار نمونه‌برداری شده برای تأیید اعتبار و آموزش مدل خود استفاده می‌کنم. من از ROC به عنوان یک معیار عملکرد جهانی استفاده می‌کنم، اما دلایل تجاری وجود دارد که می‌خواهم بتوانم مثبت کاذب را در حد مشخصی که توسط افراد تجاری ما مشخص شده است (مثلا 0.95) ارتباط برقرار کنم. بر اساس مجموعه قطار نمونه برداری شده بیش از حد، مدل من یک ROC 0.97 تولید می کند (5 برابر اعتبار متقاطع). اگر من به منحنی نگاه کنم، می توانم تعیین کنم که نرخ مثبت کاذب در برش 0.95 0.0003 است. به این نکته توجه کنید که وقتی یک مجموعه تست را نمره می دهم و همه مشاهدات را با احتمال 0.95 یا بیشتر انجام می دهم، آیا می توانم بگویم که به طور متوسط ​​0.0003 از آن ها مثبت کاذب خواهد بود؟ یا آیا باید 0.0003 را تنظیم کنم تا توزیع کلاس واقعی رویداد نادر خود را محاسبه کنم؟
ROC و نرخ مثبت کاذب با نمونه برداری بیش از حد
28972
من امیدوار بودم که بتوانید اطلاعاتی در مورد چگونگی تفسیر و ارائه ضرایب سطح گروه و درجات آزادی در یک مدل اثرات مختلط (در مورد من: لجستیک) ارائه دهید. من کاملاً از نحوه درک آنها به معنای کلاسیک آگاه هستم، قطعاً در مدل های OLS معمولی و رگرسیون لجستیک. با این حال، من هنوز در بیشتر کتاب های راهنمای اختصاص داده شده به مدل سازی جلوه های ترکیبی (مثلاً گلمن و هیل) با روش بسیار کاملی برخورد نکرده ام. در واقع، به نظر می‌رسد که بیشتر آنها روی پیش‌بینی‌کننده‌های سطح یک (یا سطح فردی) متمرکز هستند و پیش‌بینی‌کننده‌های سطح دو (یا سطح گروه) را بیشتر به‌عنوان «کارهایی که شما هم می‌توانید انجام دهید» در نظر می‌گیرند، که معمولاً فقط یک یا دو مورد آموزشی برای آنها وجود دارد. نمونه ها مسئله من این است که من یک مدل لاجیت اثرات مختلط با تعدادی پیش بینیگر گروهی دارم که اکثر آنها فرضیه های مورد علاقه مرتبط با سوال تحقیق من را تشکیل می دهند. من پانزده پیش بینی گروه و یک اثر تصادفی برای گروه دارم ($j = 59$)، با بیش از 60000 مشاهده کل در سطح فردی. من یک متغیر سطح گروهی برای فرضیه مورد علاقه دارم که برای آن مقدار $p$ از 0.06 تا 0.05 متفاوت است، مشروط به مشخصات مدل. تخمین مدل با استفاده از تابع glmmPQL در `R` (به عنوان مثال) می گوید DF برای متغیرهای سطح گروه $43$ است (یعنی: $59 - 15 - $1). اگر چنین است، آیا می‌توانم نتایج را برای آن متغیر خاص به‌عنوان معنی‌دار در 1.1 ارائه کنم، با توجه به اینکه متغیرهای سطح گروه میانگین‌های گروه را تخمین می‌زنند، که برای آن مقدار N$ به‌طور قابل‌توجهی کوچک‌تر است؟ یا اینکه درک ضرایب سطح گروه در یک مدل اثرات مختلط بیشتر از این است؟ بابت هرگونه سردرگمی در سوالم پوزش می طلبم و از هر نظری که ممکن است داشته باشید قدردانی می کنم.
تفسیر ضرایب/درجات آزادی سطح گروه در مدل اثرات مختلط
115133
من یک مجموعه داده با 32 تخمین اندازه اثر دارم - فقط 11 مورد از آنها یک مقدار را برای تعدیل کننده مستمر مورد علاقه (سطح اضطراب نمونه ها) گزارش می کنند. تجزیه و تحلیل کامل موردی (محدود به 11 مورد) نشان می‌دهد که اضطراب پیش‌بینی‌کننده معنی‌داری برای اندازه‌های اثر در متارگرسیون است. من می خواهم از تکنیک های انتساب برای پر کردن مقادیر از دست رفته استفاده کنم تا ببینم آیا رابطه بین اضطراب و اندازه اثر (d) هنوز قابل توجه است یا خیر. اگر این کار را با استفاده از تابع موش در R انجام دهم، به طور خودکار d (اندازه اثر) را به عنوان پیش بینی کننده انتخاب می کند تا مقادیر قابل قبول اضطراب را به عنوان پیش بینی در ماتریس نشان داده شود. مسئله من این است که این حالت دایره ای به نظر می رسد \- من قبلاً می دانم که اضطراب d را پیش بینی می کند، بنابراین استفاده از d برای پیش بینی مقادیر گمشده اضطراب به نظر می رسد بازی تنیس بدون تور است و مطمئناً به طور مصنوعی رابطه را تقویت می کند. از طرف دیگر - مطمئناً نمی دانم که افزایش اضطراب d را پیش بینی می کند یا اینکه آیا افزایش اضطراب نتیجه اندازه اثر است - آنها ممکن است تأثیر متقابل داشته باشند. (d منعکس کننده یک سوگیری برای تهدید است، که ادبیات نشان می دهد که می تواند یک _علت یا پیامد_ اضطراب باشد...). به نظر می رسد که این استفاده از d را در انتساب مشروع تر می کند. همچنین، به نظر می رسد توصیه این است که از تمام متغیرهایی که در مدل اعمال شده پس از انتساب ظاهر می شوند (که البته d را به عنوان نتیجه نیز شامل می شود) در فرآیند انتساب استفاده شود (ون بورن، 1999). بنابراین با توجه به این موضوع، آیا باید به سادگی اندازه اثر را به عنوان پیش‌بینی‌کننده اضطراب برای انتساب حذف کنم و به جای آن به سایر متغیرهای جمعیت شناختی تکیه کنم یا فقط نمونه‌برداری تصادفی از داده‌های مشاهده‌شده را انجام دهم؟ انجام این کار نیز اشتباه به نظر می رسد، زیرا به نظر می رسد با توجه به اینکه ما ایده ای از رابطه بین d و اضطراب داریم، عدم قطعیت کاذب در داده های منتسب ایجاد می کند. هر گونه کمک یا مرجع برای حل این مشکل بسیار قدردانی خواهد شد. لطفا اگر چیزی نامشخص است به من اطلاع دهید.
انتساب داده ها برای متاآنالیز با استفاده از بسته موش در R
28974
زمینه: می گویند من سعی می کنم غلظت یک ماده شیمیایی را تعیین کنم، بنابراین غلظت های شناخته شده ماده شیمیایی را می گیرم و یک منحنی استاندارد می سازم (6 اندازه گیری در هر استاندارد) سپس مجهول خود را 6 بار اندازه می گیرم. کاری که **می توانم** انجام دهم این است: می توانم از رگرسیون خطی برای تعیین محدودیت های اطمینان برای غلظت هر خوانده شده _مستقل_ از نمونه ناشناخته خود استفاده کنم (با استفاده از متغیر انتخاب و ذخیره پیش بینی ها از دستور REGRESSION، اما این چیزی نیست که می خواهم. من یک تخمین واحد (با خطای std یا کرانهای CI) از نمونه مجهول من را می خواهم که هر دو را به حساب می آورد: الف) خطا در مدل رگرسیون من ساخته شده از غلظت های استاندارد من. و ب) خطا در اندازه گیری من از یک نمونه ناشناخته من. چگونه می توانم این کار را در SPSS انجام دهم؟ اگر بخواهم مقادیر پیش‌بینی‌شده را از GENLINMIXED، MIXED یا GLM ذخیره کنم، یا هیچ مقدار پیش‌بینی‌شده‌ای برای ناشناخته‌ام دریافت نمی‌کنم (زیرا هیچ مقدار وابسته فهرست نشده است) یا یک تخمین و خطای منحصربه‌فرد برای هر اندازه‌گیری تکراری ناشناخته‌ام (زمانی که می‌خواهم برآورد گروه، نه برآورد برای هر تکرار). در اینجا چند نمونه از داده هایی است که من ساخته ام. بسته به تحلیلی که می خواهید امتحان کنید، ممکن است لازم باشد ابتدا VARSTOCASES را اجرا کنید. من نمی‌خواهم این سوال طولانی باشد، بنابراین آن را در این قالب ارسال می‌کنم: فهرست داده‌ها /conc read1 read2 read3 read3 read4 read5 read6 stdCurve. شروع دیتا 0.00446.00515.00450.00519.00500.00492 1 100.10054.10484.10086.10877.10293.102030. .21797 .21949 .18936 .19672 1 300 .32355 .31071 .30802 .30414 .30014 .26003 1 400 .42793 .39879 1 500 .47858 .47810 .55102 .49355 .51650 .46561 1 600 .66123 .62981 .62180 .70905.74126.71843.69953.77222 1 800.86298.75166.86441.77430.82915.85193. .79323 .93604 1 1000 .90955 1.00724 1.02682 .95047 1.03176 1.16755 1. .56990 .55395 .58641 .51932 .59506 .55967 0 داده پایانی.
چگونه می توانم میانگین موضوع (بدون خطا) را با اندازه گیری های مکرر در SPSS پیش بینی کنم؟
79245
من به دنبال مشاوره در مورد مدل های رگرسیون جریمه شده برای انتخاب متغیرهای کمکی در مطالعات اپیدمیولوژیک هستم. یکی از کارهای دشواری که من با آن روبرو هستم، انتخاب ویژگی است در حالی که هنوز سعی می کنم عوامل مخدوش کننده را در نظر بگیرم. در طول تحصیلات آکادمیک، روش های مختلفی از جمله روش های انتخاب گام به گام و هدفمند به من آموزش داده شده است. با این حال، این اواخر بیشتر شبیه یک هنر است تا علم. من اخیراً مدل‌های رگرسیون جریمه‌شده را از طریق مطالعات مستقل آموخته‌ام، اگرچه برای اهداف پیش‌بینی به کار می‌روند. من نمی‌پرسم آیا منابع معتبری وجود دارد که رگرسیون جریمه‌شده را برای مطالعات اپیدمیولوژیک به عنوان یک روش انتخاب ویژگی کارآمد پیشنهاد کند؟
76563
من نمونه زیر را دارم. حالا باید تست کنم: $$H_0\\!:\mu=60,\\!000 \quad \text{Vs.}\quad H_a\\!:\mu>60,\\!000$$ دارم آن را در «نرم‌افزار R» محاسبه کردم اما نتیجه را نمی‌فهمم. قیمت <- c(60,250,400,550,517,380,425,280,389,559) عدد <- c(3,3,4,5,4,3,6,3,4,5) داده <- data.frame(قیمت, تعداد) قیمت <- data$Price # $ num <- data$Number # تست آمار xbar <- میانگین(قیمت) mu0 <- 60000 ثانیه <- sd(قیمت) n <- طول(قیمت) t <- (xbar-mu0)/(s/sqrt(n)) t #آمار مرجع آلفا <- 0.05 t.alpha <- qt(1-alpha, df=n-1) t.alpha _آیا باید قدر مطلق آماره t را در نظر بگیرم یا خیر؟_
تفسیر آزمون فرضیه
89170
من یک توزیع مشترک دارم که می توان آن را به صورت زیر نوشت: $$ p(\Theta | D) \propto p(D|\Theta) \; p(w|\lambda) \; p(\lambda) \; p(\phi) $$ که در آن $\Theta = \\{w، \lambda، \phi\\}$. توزیع قبلی روی $\lambda$ و $\phi$ با استفاده از توزیع گاما با برخی پارامترهای مقیاس اولیه و شکل مدل‌سازی می‌شود. قبل از $w$ با عبارت $p(w|\lambda)$ که یک نرمال چند متغیره با میانگین $0$ و مقداری دقت توسط $\lambda \Sigma^{-1}$ است داده می‌شود. عبارت احتمال با $p(D|\Theta)$ داده می شود. اکنون، می‌خواهم به‌روزرسانی‌های پارامترهای $\lambda$ و $\phi$ را برای یک $w$ معین دریافت کنم. بنابراین، برای تخمین معین $w$، من می‌خواهم تخمین‌های قبلی توزیع گاما را برای $\lambda$ و $\phi$ به‌روزرسانی کنم. از آنجایی که گاما قبلی مزدوج با عبارت احتمال است که به صورت عادی مدل‌سازی می‌شود، من حدس می‌زنم که برخی به‌روزرسانی‌های صریح برای این پارامترها وجود داشته باشد. با این حال، من چیز زیادی در این مورد نمی دانم و نمی دانم چگونه باید ادامه دهم. همچنین، $p(w|\lambda)$ قبلی این وابستگی را به $\lambda$ دارد و من مطمئن نیستم که آیا این یک مشکل است. قدردان هر پیشنهادی در مورد نحوه شروع به ادامه کار باشید.
به روز رسانی پارامترهای هایپر برای توزیع های مزدوج
11384
من می خواهم یک PCA را روی یک مجموعه داده اعمال کنم که متشکل از متغیرهای نوع مخلوط (پیوسته و باینری) است. برای نشان دادن این روش، یک مثال حداقل تکرارپذیر را در R در زیر می‌چسبانم. # ایجاد مجموعه مجموعه داده مصنوعی.seed(12345) n <- 100 x1 <- rnorm(n) x2 <- runif(n، -2، 2) x3 <- x1 + x2 + rnorm(n) x4 <- rbinom(n ، 1، 0.5) x5 <- rbinom(n، 1، 0.6) داده <- data.frame(x1، x2, x3, x4, x5) # ماتریس همبستگی با ضرایب مناسب # محصول-محور پیرسون: 2 متغیر پیوسته # Point-biserial: 1 متغیر پیوسته و 1 متغیر باینری # Phi: 2 متغیر باینری # برای اهداف آزمایشی از کتابخانه تابع hetcor (polycor) استفاده کنید ) C <- as.matrix(hetcor(data=data)) # اجرای PCA pca <- princomp(covmat=C) L <- loadings(pca) حال، من تعجب می کنم که چگونه امتیازات مؤلفه را محاسبه کنم (یعنی متغیرهای خام وزن شده با بارگذاری مؤلفه). هنگامی که مجموعه داده متشکل از متغیرهای پیوسته است، امتیازهای مؤلفه به سادگی با ضرب (مقیاس شده) داده های خام و بردارهای ویژه ذخیره شده در ماتریس بارگذاری (L در مثال بالا) به دست می آید. هر گونه اشاره خواهد شد تا حد زیادی قدردانی می شود.
امتیازات PCA و جزء بر اساس ترکیبی از متغیرهای پیوسته و باینری
30277
می‌خواهم بدانم کدام تکنیک برای تجزیه و تحلیل داده‌های جمع‌آوری‌شده از طریق نظرسنجی خودگردان مناسب است. برخی از اطلاعات زمینه به شرح زیر است: موضوع: حمایت از شیردهی و محل کار محیط: محوطه دانشگاه حجم نمونه: 30-40 زن شاغل که از سال 2011 تا 2012 در مرخصی زایمان بودند (6 ماه اول) فرضیه: حمایت از شیردهی بر شروع و مدت شیردهی تأثیر می گذارد. نمونه سوالات: آیتم های اجتماعی و جمعیت شناختی به منظور توصیف زنان، سوالات مقیاس لیکرت که به: سیاست های دانشگاه و فرهنگ کار، حمایت فوری مدیر، حمایت فوری همکاران و جریان کار می پردازد. سوالات نزدیکی در رابطه با قصد شیردهی وجود خواهد داشت. این بر اساس سوال قبلی من در مورد رویکرد نمونه گیری و آنچه که باید به عنوان واحد تجزیه و تحلیل در نظر گرفته شود، استوار است. من واقعا از همه کمک ها و توجه شما قدردانی می کنم. بهترین،
11387
فرض کنید من دنباله هایی از نمادها دارم که می توانند پنج مقدار داشته باشند: A، B، C، X، Y. طول متوسط ​​دنباله ها حدود 7 است. مهم است که نمادهای A، B، C ** اهمیت بیشتری داشته باشند* * نسبت به X و Y که ممکن است به عنوان هر آنچه با A، B یا C متفاوت باشد در نظر گرفته شوند، باید آن داده ها را بین دو کلاس طبقه بندی کنم: مثبت و منفی. کلاس مثبت از دنباله هایی تشکیل شده است که عموماً به خوبی تراز شده اند مانند X X A B Y C A B C X X A Y A X B C X X توجه داشته باشید که نمونه های مثبت معمولاً دارای نمادهای A، B و C به ترتیب هستند. مثال‌های منفی مانند B X A X X X C C A Y X X B به نظر درهم‌تر می‌آیند اولین فکر من این بود که آنتروپی کلید این مشکل است. من مقالات مختلفی را بررسی کردم اما هیچ چیز واقعاً راضی کننده نبود. بنابراین سوال من این است: از کدام ویژگی برای هدف طبقه بندی استفاده می کنید؟
طبقه بندی توالی نمادها
81400
من در مقایسه ضرایب مدل های رگرسیون لجستیک خود در Stata مشکل دارم. من یک متغیر وابسته (DV) کارآفرین بودن و چندین متغیر مستقل (IV) مانند سن، جنسیت، تحصیلات، شغل والدین و تحصیلات کارآفرینی دارم. به جز سن IV، همه IV ها متغیرهای ساختگی هستند. هنگام اجرای مدل رگرسیون لجستیک ('logit D1A expl_age expl_gen expl_edu expl_par expl_ent')، می‌خواستم بررسی کنم که این مدل برای افرادی که تحصیلات کارآفرینی دارند ('expl_ent=1') و کسانی که این آموزش را ندارند چگونه به نظر می‌رسد ( «expl_ent=0») با اجرای دستور: logit D1A expl_age i.expl_gen i.expl_edu i.expl_par if expl_ent==1 logit D1A expl_age i.expl_gen i.expl_edu i.expl_par if expl_ent==0 این دو مدل متفاوت با دو اندازه نمونه متفاوت به من می دهد. اکنون، می‌خواهم بررسی کنم که آیا $β$ برای متغیر ساختگی expl_par در مدل فقط با افرادی که دارای تحصیلات کارآفرینی هستند، تفاوت قابل‌توجهی با $β$ برای همان متغیر دارد، اما در مدلی که فقط افراد دارای تحصیلات کارآفرینی هستند. تی تحصیلات کارآفرینی داشت. به طور رسمی تر: چگونه می توانم بررسی کنم که آیا ضریب متغیر x در مدل A، تفاوت قابل توجهی با ضریب متغیر x در مدل B دارد؟ تا آنجا که من نگران هستم یک آزمون t این کار را انجام می دهد، اما نمی توانم در مورد چگونگی انجام این کار فکر کنم.
مقایسه ضرایب در رگرسیون لجستیک با نمونه های مختلف