_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
7263
من در مورد استفاده از توزیع احتمال مشترک برای مخاطبانی می نویسم که احتمال بیشتری برای درک توزیع چند متغیره دارند، بنابراین در حال بررسی استفاده از بعدی هستم. با این حال، من نمی خواهم در حین انجام این کار معنی را از دست بدهم. به نظر می رسد ویکی پدیا نشان می دهد که اینها مترادف هستند. آیا آنها هستند؟ اگر نه، چرا که نه؟
تفاوت بین اصطلاحات توزیع مشترک و توزیع چند متغیره؟
2182
برای توضیح و استناد به متون آماری پایه، مقالات یا سایر مراجع، به کمک نیاز دارم که چرا به طور کلی استفاده از آمار حاشیه خطا (MOE) گزارش شده در نظرسنجی برای اعلام ساده لوحانه یک تساوی آماری نادرست است. یک مثال: کاندید A در نظرسنجی از کاندید B جلوتر است، 39 - 31 درصد، 4.5 درصد حاشیه خطا برای 500 رأی دهنده مورد بررسی. دوست من چنین دلایلی می‌دهد: > به دلیل پیچیدگی‌های مدل‌سازی آماری، حاشیه خطا > به این معنی است که پشتیبانی واقعی A می‌تواند تا 34.5 درصد و B می‌تواند > تا 35.5 درصد باشد. بنابراین، A و B در واقع در گرمای مرده > آماری هستند. از همه کمک ها در بیان واضح این نقص در استدلال دوستم قدردانی می کنم. من سعی کردم توضیح دهم که رد ساده لوحانه فرضیه A منجر به B می شود اگر $p_A-p_B < 2MOE$ باشد، نادرست است.
آیا می توانید توضیح دهید که چرا وقتی p_1-p_2 < 2 MOE، آماری ساده نیست؟
60921
تفاوت بین دو مجموعه آزمون آماری چیست؟ کدام یک برای یافتن اینکه آیا تفاوت بین گروه ها مهم تر از درون گروه ها است، برای داده های امضای ایزوتوپی پایدار غیر پارامتری توصیه می شود؟
تجزیه و تحلیل شباهت ها (ANOSIM) در مقابل کروسکال-والیس
61034
لطفا اجازه بدهید یک سوال اساسی بپرسم. من مکانیک Naive Bayes را برای متغیرهای گسسته درک می کنم و می توانم محاسبات را با دست دوباره انجام دهم. (کد HouseVotes84 تمام راه در زیر). با این حال - من در تلاش برای دیدن نحوه عملکرد مکانیک برای متغیرهای پیوسته هستم (کد مثال در زیر). بسته چگونه احتمالات شرطی «[، 1]» و «[، 2]» را در جدول زیر محاسبه می‌کند؟ از آنجایی که هر مقدار X منحصر به فرد است، آیا محدوده ای در اطراف هر نقطه ایجاد می کند و فرکانس های نسبی را در این محدوده ها محاسبه می کند (به عنوان مثال اگر نقطه + 0.311 باشد، آیا میزان بروز لکه های آبی و نارنجی را در محدوده 0.1 و به عنوان مثال ارزیابی می کند. +0.5؟) این ممکن است یک سوال اساسی باشد - اگر چنین است عذرخواهی می کنم. جدول A-پیشینی احتمالات: Y آبی نارنجی 0.5 0.5 احتمالات شرطی: مقادیر Y [,1] [,2] آبی 0.08703793 0.9238799 نارنجی 1.33486433 0.9988389 Code blue=rep(); orange=rep(orange,50); رنگ = c (آبی، نارنجی)؛ values1=rnorm(50,0,1); values2=rnorm(50,1,1); values=c(values1,values2) df=data.frame(colour,values) (model <- naiveBayes(colour ~ ., data = df)) (predict(model, df[1:10,])) (predict( مدل، df[1:10،]، نوع = خام)) (pred <- predict(model, df)) جدول (pred, df$colour) ## فقط داده‌های دسته‌بندی: داده کتابخانه (e1071) (HouseVotes84, package = mlbench) HouseVotes84=HouseVotes84[,1:3] (مدل <- naiveBayes(Class ~ ., data = HouseVotes84 )) (پیش بینی (مدل، HouseVotes84[1:10،])) (پیش‌بینی (مدل، HouseVotes84[1:10،]، نوع = خام)) (pred <- predict(model, HouseVotes84)) جدول (pred، HouseVotes84$Class)
بیز ساده بر روی متغیرهای پیوسته
32242
فرض کنید برای برخی از ویژگی ها (مثلاً قیمت مسکن) داده های هفتگی داریم. بگویید که ما 500 دلار داده هفته ای قیمت مسکن داریم. فرض کنید یک رویداد مهم در هفته 256 دلار اتفاق افتاده است. اگر بخواهیم تغییرات قابل توجهی را در قیمت مسکن بعد از هفته 256 دلار نسبت به قبل از هفته 256 دلار شناسایی کنیم، آیا بهتر است از مقیاس زمانی طولانی تری استفاده کنیم؟ شاید هفته ها را به ماه تبدیل کنید؟ چه مدل های دیگری را پیشنهاد می کنید؟
فواصل زمانی برای مدل سازی
60925
من یک متغیر وابسته به نام D و دو متغیر مستقل به نام V و H دارم. متغیر D می تواند مقادیر 1 یا 2 یا 3 یا 4 یا 5 را بگیرد. مقادیر متغیر H می تواند H1، H2، H3، H4 باشد. همینطور برای متغیر V که مقادیر V1، V2، V3 را می گیرد. من چندین سه تایی داده دارم به عنوان مثال: H1، V1، 1 H1، V2، 3 H1، V1، 2 H1، V2، 2 H3، V4، 5 H2، V2، 2 H1، V1، 4 و غیره... من می‌خواهم ببینم کدام منحنی‌ها برازش این داده‌ها هستند. اما من نمی توانم تصمیم بگیرم که چگونه این کار را انجام دهم. من کمی رگرسیون لجستیک ... رگرسیون لجستیک چندتومی را مطالعه کرده ام، اما مطمئن نیستم که بتواند به من کمک کند ...
سوال برازش داده ها
32287
به من گفته شده است که یک تحلیل عاملی را با استفاده از تابع stepwisefit در متلب اجرا کنم. اساساً، این تابع به شما کمک می‌کند مدلی متشکل از $T$ فاکتورها را تنظیم کنید. من به درستی می دانم که عوامل من **** همبسته هستند و می خواستم بدانم که آیا این تابع فرض می کند که فاکتورها نامرتبط هستند یا نه... آیا هنوز باید از این تابع استفاده کنم یا اگر اینطور نیست از کدام تابع استفاده کنم. /روش باید برای انجام تحلیل خود انتخاب کنم؟
آیا تابع stepwisefit در متلب همبستگی بین عوامل را کنترل می کند؟
2181
من علاقه مند به دریافت چند کتاب در مورد تجزیه و تحلیل چند متغیره هستم و به توصیه های شما نیاز دارم. از کتاب‌های رایگان همیشه استقبال می‌شود، اما اگر در مورد کتاب MVA غیر رایگان می‌شناسید، لطفاً آن را بیان کنید.
توصیه های کتاب برای تحلیل چند متغیره
60924
# پیش نیازها اگر من **به*** هیستوگرام $y_1، \ldots، y_m$، * به عنوان فرضیه ای برای توزیع زیربنایی برخی از متغیرهای تصادفی iid گسسته $X_1، \ldots، X_n$ در $\mathbb Z$ داده باشم. * جایی که $y_1، \ldots، y_m$ تحقق $Y_1، \ldots، Y_m$ به ترتیب با $$ Y_k := \sum_{i=1}^n \delta_{kX_i} \quad, k=1,\ldots, m. $$ در اینجا $\delta_{kX_i}$ دلتای کرونکر را نشان می‌دهد. اکنون، **به دنبال** یک آزمون آماری برای خوب بودن برازش برای توزیع فرضی هستم. تمام پارامترهای توزیع‌های $X_1،\ldots، X_n$ از قبل شناخته شده‌اند. # سوال رویکرد کلی به چنین مشکلی چیست؟
چگونه یک هیستوگرام را در برابر یک توزیع خاص آزمایش کنیم؟
114422
من یک مدل لجستیک چند متغیره را از داده‌هایم مشتق کردم که شامل یک پاسخ باینری و پنج پیش‌بینی‌کننده است. من سعی کردم احتمالات پیش‌بینی‌شده یکی از پیش‌بینی‌کننده‌های باینری (سیگار کشیدن) را محاسبه کنم که متغیرهای دیگر، پیوسته، را در مقادیر میانگین نگه می‌دارد. من ارزش های بزرگتر از یک را دریافت می کنم. آیا می توان مقدار احتمال پیش بینی شده را بزرگتر از یک بدست آورد؟ کسی میتونه توضیح بده؟
آیا مقدار احتمال پیش بینی شده از مدل لجستیک می تواند بیشتر از یک باشد؟
25381
من مدل خطی زیر را بر اساس سری های زمانی چند متغیره دارم: lm(فرمول = Y ~ X1 + X2 + X3 + X4 + X5 + X6 + X7، داده = model.data، na.action = na.omit) باقیمانده ها: حداقل 1Q میانه 3Q Max -0.0030132 -0.0002101 0.0000004 0.0002101 0.0035819 ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) -2.355e-06 3.813e-06 -0.618 0.53683 X1 4.322e-02 6.964e-03 6.206 5.49e-10 *** X2 -5.2e. -03 -6.340 2.32e-10 *** X3 -3.222e-02 8.182e-03 -3.939 8.21e-05 *** X4 9.367e-07 2.016e-07 4.647 3.37e-051 *** X15 9.980e-03 5.141 2.74e-07 *** X6 2.911e-02 1.005e-02 2.897 0.00377 ** X7 -1.677e-07 2.608e-08 -6.430 1.29e-10 *** --- Sign کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 '' 1 خطای استاندارد باقیمانده: 0.0003898 در 35773 درجه آزادی (3750 مشاهده به دلیل فقدان حذف شده است) R-squared چندگانه: 0.006066، R-squad تعدیل شده: 0.005872 F-آمار: 0.005872 F-319، 3737 F-statistic: p-value: < 2.2e-16 همه IV ها دارای p-value به اندازه کافی پایین هستند که قابل توجه در نظر گرفته شوند. با این حال، $R^2$ کمتر از 0.01 است. حال بیایید نگاهی به میانگین خطای مطلق این مدل بیندازیم. من یک Naive Model MAE را گزارش می کنم که به عنوان تفاوت بین آخرین $Y_t$ مشاهده شده و مقدار مشاهده شده بعدی $Y_{t+1}$ و یک Model MAE به عنوان میانگین abs باقیمانده ها محاسبه می شود. از همان فرمول Naive MAE برای مجموعه داده های خارج از نمونه استفاده می شود. Fcast MAE به عنوان تفاوت بین مقادیر پیش بینی شده بر اساس برازش مدل و مقادیر واقعی مشاهده شده در داده های خارج از نمونه محاسبه می شود. در اینجا مقادیر MAE برای خوانایی در 10000 ضرب می شوند. AIC -460198.9 ساده مدل MAE 4.005496 (0.0004005496) مدل MAE 2.812995 (0.0002812995) Naive Fcast MAE 2.436187 (0.0002436186. (0.0001710664) Fcast Yt+1 Impr % 29.78 بنابراین اگرچه $R^2$ بسیار کم است، پیش‌بینی MAE نسبت به یک معیار ساده و ساده کاملاً جالب است. به طور شهودی من در تلاش برای به دست آوردن این رابطه بین $R^2$ و MAE هستم. در پیشنهاد mpkitas من همچنین یک رگرسیون بر اساس پیش‌بینی ساده $Y_t$ برای مقایسه $R^2$، علاوه بر MAE اجرا کردم: summary(lm(data$NextY ~ data$Y, na.action = na.omit)) تماس: lm (فرمول = داده$NextY ~ داده$Y، na.action = na.omit) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -0.0029678 -0.0002104 0.0000016 0.0002113 0.0035384 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (فاصله) -1.590e-06 2.067e-06 -0.770 0.442 Y 3.447e-03 5.231e-03 0.659 0.510 خطای استاندارد باقیمانده: 0.00039 1 درجه آزادی (1 در 8 درجه آزادی از 8 سرویس8 حذف شده به دلیل عدم وجود) R-squared چندگانه: 1.213e-05، R-squared تنظیم شده: -1.581e-05 F-آمار: 0.4341 در 1 و 35781 DF، p-value: 0.51 چگونه می تواند $R^2$ چنین باشد اگر پیش بینی خیلی تصادفی باشد کم است؟
رابطه بین $R^2$ و MAE در پیش بینی
95434
میخواستم بدونم به غیر از نظرات ACF و PACF در مورد تفاوت این 2 مدل چیز دیگه ای هم هست که بگم؟ به طور خاص، من در این فکر بودم که پیش بینی با کدام مدل آسان تر است، آیا منطقی است، و چرا.
تفاوت بین مدل ARMA (2،1) و مدل ARMA (13،9) چیست؟
60817
من در تفسیر مقادیر z برای متغیرهای طبقه بندی شده در رگرسیون لجستیک مشکل دارم. در مثال زیر من یک متغیر دسته بندی با 3 کلاس دارم و با توجه به مقدار z، CLASS2 ممکن است مرتبط باشد در حالی که بقیه مناسب نیستند. اما حالا این به چه معناست؟ اینکه بتونم کلاس های دیگه رو با یکی ادغام کنم؟ اینکه کل متغیر ممکن است پیش بینی کننده خوبی نباشد؟ این فقط یک مثال است و مقادیر z واقعی در اینجا مربوط به یک مشکل واقعی نیستند، من فقط در تفسیر آنها مشکل دارم. برآورد Std. خطای z مقدار Pr(>|z|) CLASS0 6.069e-02 1.564e-01 0.388 0.6979 CLASS1 1.734e-01 2.630e-01 0.659 0.5098 0.5098 CLASS2 1.501-5 0.597e 0.0119 *
اهمیت پیش بینی کننده مقوله ای در رگرسیون لجستیک
114425
تابع احتمال یک توزیع لگ نرمال این است: $f(x; \mu, \sigma) \propto \prod_{i_1}^n \frac{1}{\sigma x_i} \exp \left ( - \frac{(\ ln{x_i} - \mu)^2}{2 \sigma^2} \right ) $ و Jeffreys's Prior است: $p(\mu,\sigma) \propto \frac{1}{\sigma^2} $ بنابراین با ترکیب این دو به دست می‌آید: $f(\mu,\sigma^2|x)= \prod_{i_1}^n \frac{1}{\sigma x_i} \exp \left ( - \frac{(\n{x_i} - \mu)^2}{2 \sigma^2} \راست ) \cdot \sigma^{-2} $ من می دانم که چگالی خلفی برای $\sigma^2$ گامای معکوس توزیع شده است، بنابراین باید $f(\sigma^2|x) = \int f(\ را محاسبه کنم. mu,\sigma^2|x) d\mu $ اما من نمی دانم از کجا شروع کنم. پس از نظر Glen_b، من به آن ضربه می زنم: $f(\mu,\sigma^2|x)= \prod_{i_1}^n \frac{1}{\sigma x_i} \exp \left ( - \frac{( \ln{x_i} - \mu)^2}{2 \sigma^2} \right ) \cdot \sigma^{-2} $ $= \sigma^{-n-2} \prod_{i=1}^n \frac{1}{x_i} \exp \left ( - \frac{1}{2\sigma^2} \sum_{i=1 }^n (\ln x_i - \mu ) \right) $ اما من نمی‌توانم این را به جایی ببینم. ایده دیگری که من دریافت کردم این است که $y_i=\ln(x_i)$ را تعریف کنم، سپس $y$ توزیع عادی است. بنابراین $f(\mu,\sigma^2 |y) = \left [ \prod_{i=1}^n \frac{1}{\sqrt{2 \pi}} \cdot \frac{1}{\ sigma} \exp \left ( - \frac{1}{2 \sigma^2} (y_i - \mu)^2 \right ) \right ] \cdot \frac{1}{\sigma^2}$ $ \propto \sigma^{-n-2} \cdot \exp \left ( - \frac{1}{2 \sigma^2} \sum_{i=1 }^n (y_i - \bar y)^2 + n(\bar y - \mu)^2 \right ) $ $ = \sigma^{-n-2} \cdot \exp \left ( - \frac{1}{2 \sigma^2} ( (n-1)s^2 + n(\bar y - \mu)^2 ) \right ) $ $ = \sigma^{-n -2} \cdot \exp \left ( - \frac{1}{2 \sigma^2} ( (n-1)s^2 \right ) \exp \left (n(\bar y - \mu)^2 ) \right ) $ سپس ادغام کنید: $ \sigma^{-n-2} \cdot \exp \left ( - \frac{1}{2 \sigma^2} ( (n-1)s ^2 \right ) \int \exp \left ( - \frac{1}{2 \sigma^2} n(\bar y - \mu)^2 ) \right ) d \mu $ توسط روشی را که پیشنهاد کردید دریافت کردم: $ \int \exp \left ( - \frac{1}{2 \sigma^2} n(\bar y - \mu)^2 ) \right ) d \mu = \sqrt{\ frac{2\pi \sigma^2}{n}} $ بنابراین: $ \propto (\sigma^2)^{-(n+1)/2} \exp \left ( - \frac{1}{2 \sigma^2} ( (n-1)s^2 \right ) $ که در واقع گامای معکوس توزیع شده است، اما مطمئن نیستم که این درست باشد، همچنین همان نتیجه ای است که من دریافت می کنم یک احتمال عادی من این را در ادبیات پیدا کردم (بدون هیچ توضیح بیشتر): ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/1lOV4.png)
استخراج چگالی خلفی برای احتمال لگ نرمال و پیشین جفریس
52833
فرض کنید من جریانی از داده‌های کلیک دارم که به این شکل است: شناسه کاربر، SHIRT-COLOR، URL 1، آبی، http://a.com/apple.html 2، مشکی، http://a.com/ banana.html 2, black,http://a.com/apple.html 1,آبی,http://a.com/cherry.html 3,قرمز,http://a.com/cherry.html 4,آبی,http://a.com/apple.html 4,آبی,http://a.com/cherry.html 5,قرمز,http://a.com/banana.html سعی می کنم بفهمید که آیا رنگ پیراهن پیش بینی کننده کلیک ها است یا خیر. بنابراین، آیا آدرس‌های اینترنتی خاص در میان افرادی که پیراهن قرمز دارند، «محبوب‌تر» هستند تا در میان جمعیت عمومی؟ یا راه دیگری برای گفتن آن: آیا فردی که پیراهن قرمز دارد بیشتر روی URLی که در بین پیراهن های قرمز محبوب است کلیک می کند؟ تعداد URL ها و User-ID ها هزاران نفر است، اما رنگ های کوتاه فقط تعداد انگشت شماری هستند. امیدوارم کسی بتواند به من کمک کند تا بفهمم این چه نوع مشکلی است (خوشه‌بندی؟ خوشه‌بندی فازی؟ مجذور کای؟) و هر راهنمایی برای حل آن.
آیا تعیین می کنید که آیا گروه های مختلف کاربران بیشتر روی URL های خاص کلیک می کنند؟
93110
اگر عدم قطعیت یک تابع $f(x,y)$ با: $$\delta f = |f_{best}|\sqrt{ \left( \frac{\delta x}{x_{best}} \ راست)^2 + \left( \frac{\delta y}{y_{best}} \راست)^2}$$ اگر $x_{best}$ یا $y_{best}$ صفر باشند، چه کنیم؟ احتمالاً، $\delta x$ و $\delta y$ لازم نیست صفر باشند.
فرمول عدم قطعیت اگر مقدار بهترین اندازه گیری شود، صفر است
93119
من به عنوان یک اپیدمیولوژیست آموزش دیده ام. در اوایل کارم، مدل‌های آماری یک جعبه سیاه بودند و در صورت شک به من توصیه می‌شد که به دیدن یک آمارگیر بروم. این هرگز برای من خوب نبود، بنابراین به مدل‌سازی آماری علاقه مند شدم و از آن زمان به وقت خود آمار و نظریه احتمال را یاد گرفتم. اکنون می توانم روش های آماری را یاد بگیرم، بفهمم و به کار ببرم که برای من جدید هستند، اما برای اولین بار مدلی پیدا کردم که احتمالاً به مشکلی که با آن دست و پنجه نرم می کنم کمک می کند، اما تا آنجا که می توانم بگویم وجود دارد. هیچ نرم افزاری برای تخمین پارامترهای این مدل وجود ندارد. کل این حوزه از مدل سازی آماری در واقع برای من یک رمز و راز کامل است و دوست دارم اینطور نباشد. بنابراین... کدام منابع مناسب ترین قدم اول برای یک تازه کار است که می خواهد یاد بگیرد چگونه برنامه های خود را برای تخمین مدل های آماری بنویسد؟
آموزش نوشتن الگوریتم های تخمین خود - از کجا شروع کنیم؟
104255
با توجه به آنچه من متوجه شدم، ما فقط می توانیم یک تابع رگرسیون بسازیم که در فاصله زمانی داده های آموزشی قرار دارد. به عنوان مثال (فقط یکی از پانل ها لازم است): ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/gAILq.png) چگونه می توانم آینده را با استفاده از یک رگرسیون KNN پیش بینی کنم؟ باز هم، به نظر می رسد که فقط تابعی را تقریب می زند که در فاصله زمانی داده های آموزشی قرار دارد. سوال من: مزایای استفاده از رگرسیور KNN چیست؟ می‌دانم که ابزار بسیار قدرتمندی برای طبقه‌بندی است، اما به نظر می‌رسد که در سناریوی رگرسیون ضعیف عمل می‌کند.
چرا کسی باید از KNN برای رگرسیون استفاده کند؟
71884
منظور من از n-sigma چیزی شبیه به سه یا شش سیگما است. به نظر می رسد هر دو آزمون دانشجو و n-sigma با فواصل اطمینان مرتبط باشند. من می بینم که آزمون t برای برخی از فواصل اطمینان بیان شده در درصد انجام می شود، به عنوان مثال. 95% که در آن n-sigma به این معنی است که شما بازه = n انحراف استاندارد را می گیرید. بنابراین، به نظر می رسد که ترجمه از یکی به دیگری ساده است. اما من نمی بینم که کسی در مورد آن بحث کند.
n-sigma چگونه با آزمون t (Student) مرتبط است؟
47717
من یک سوال بسیار اساسی دارم در مورد اینکه چگونه می توان پاسخ های دو گروه از افراد، گروه = A و گروه = B را به یک آزمون مقایسه کرد. پاسخ ها در `x` ذخیره می شوند. مجموعه داده اولیه من به شکل زیر است: گروه شناسه x 1 A 15 2 A 17 3 A 22 ... 50 B 22 51 B 12 52 B 13 ... ایده اولیه من این بود که 'x' را به دو متغیر 'xA' تقسیم کنم. ` و `xB`، و سپس هر دو را بر اساس گروهشان مرتب کنید، مانند این: xA xB 15 12 17 13 22 22 ... ... سپس می خواستم یک تست ساده پیرسون را بین «xA» و «xB» تازه ایجاد شده اجرا کنم. به نظر من این استراتژی تقریباً مصنوعی به نظر می رسد: من متغیرها را قبل از مقایسه مرتب می کنم، که به احتمال زیاد نوعی وابستگی خطی پیدا می کند... من علاقه مندم که ارزیابی کنم که آیا نوعی مطابقت بین موضوعات این دو وجود دارد یا خیر. در پاسخگویی به آزمون ناخوشایند من همچنین به این فکر کردم که یک آزمون ویلکاکسون در مورد برابری میانه های دو متغیر اتخاذ کنم. کدام استراتژی را پیشنهاد می کنید؟
مقایسه پاسخ های دو گروه به یک آزمون
32246
من رگرسیون ریج را در یک ماژول Python/C پیاده‌سازی می‌کنم و با این مشکل کوچک روبرو شده‌ام. ایده این است که من می‌خواهم درجات آزادی مؤثر را با فاصله کم و بیش مساوی نمونه‌برداری کنم (مانند نمودار صفحه 65 در «عناصر یادگیری آماری»)، به عنوان مثال، نمونه: $$\mathrm{df}(\lambda) =\sum_{i=1}^{p}\frac{d_i^2}{d_i^2+\lambda}، $$ که $d_i^2$ هستند مقادیر ویژه ماتریس $X^TX$، از $\mathrm{df}(\lambda_{\max})\تقریباً 0$ تا $\mathrm{df}(\lambda_{\min})=p$. یک راه آسان برای تنظیم اولین محدودیت این است که اجازه دهید $\lambda_{\max}=\sum_i^p d_i^2/c$ (با فرض $\lambda_{\max} \gg d_i^2$)، که در آن $c$ یک ثابت کوچک است و تقریباً حداقل درجه آزادی را نشان می دهد که می خواهید نمونه برداری کنید (به عنوان مثال $c=0.1$). محدودیت دوم البته $\lambda_{\min}=0$ است. همانطور که عنوان نشان می دهد، پس باید از $\lambda$ از $\lambda_{\min}$ تا $\lambda_{\max}$ در مقیاسی استفاده کنم، به طوری که $\mathrm{df}(\lambda)$ باشد نمونه برداری شده (تقریبا)، مثلاً در فواصل $0.1$ از $c$ تا $p$...آیا راه آسانی برای انجام این کار وجود دارد؟ من فکر کردم معادله $\mathrm{df}(\lambda)$ را برای هر $\lambda$ با استفاده از روش نیوتن-رافسون حل کنم، اما این تکرارهای زیادی را اضافه می کند، به خصوص زمانی که $p$ بزرگ باشد. پیشنهادی دارید؟
پیاده سازی رگرسیون پشته: انتخاب یک شبکه هوشمند برای $\lambda$؟
66120
من یک طرح دو طرفه اندازه گیری های تکراری دارم (3×2)، و می خواهم نحوه محاسبه اندازه افکت ها (جزئی و مجذور) را بیابم. من یک ماتریس با داده‌های موجود در آن دارم (به نام a) مانند (اندازه‌گیری‌های مکرر) A.a A.b B.a B.b C.a C.b 1 514.0479 483.4246 541.1342 516.4149 595.5404 5808.809.809 569.7574 599.1509 621.4725 656.8136 3 738.2037 660.3058 812.2970 735.8543 767.0683 738.7920 738.7938 4 1061 641.2478 682.7028 694.3569 761.6241 5 599.3417 637.2846 599.4951 632.5684 626.4102 677.2634 63958 729.3096 669.4189 728.8995 716.4605 idata = Caps Lower A a A b B a B b C a C b من می دانم چگونه ANOVA اقدامات مکرر را با بسته خودرو انجام دهم (نوع 3 SS در زمینه من استاندارد است، اگرچه می دانم که منجر به خطای منطقی.. اگر کسی بخواهد آن را برای من توضیح دهد که انگار 5 ساله هستم، دوست دارم برای درک آن): خلاصه (Anova(lm(a ~ 1)، idata=idata،type=3، idesign=~Caps*Lower))، multivariate=FALSE) فکر می کنم کاری که می خواهم انجام دهم این است که این قسمت از چاپ خلاصه: تک متغیره نوع III ANOVA با اندازه گیری های مکرر با فرض کرویت SS num Df خطا SS den Df F Pr(>F) (رهگیری) 14920141 1 153687 5 485.4072 3.577e-06 *** Caps 33782 2 8770 10 19.2589 0.000372 *** پایینی 195 1 1301.5301.13087. Caps:Lower 2481 2 907 10 13.6740 0.001376 ** و از آن برای محاسبه ETA جزئی مربع استفاده کنید. بنابراین، اگر اشتباه نکنم، باید SS را از ستون اول بردارم و برای هر افکت بر (خود + خطای SS برای آن سطر) تقسیم کنم. آیا این راه درستی است؟ اگر چنین است، چگونه آن را انجام دهم؟ من نمی توانم بفهمم که چگونه می توانم مقادیر را از چاپ خلاصه شده ارجاع دهم. با تشکر
جزئی $\eta^2$ برای ANOVA اندازه گیری های مکرر (با بسته ماشین R)
32243
وقتی تعداد درمان‌های بیشتری نسبت به کنترل وجود دارد، آیا می‌توان تطبیق 1 به 1 (بدون جایگزینی) انجام داد؟ زمانی که درمان‌های کمتری نسبت به کنترل وجود دارد، انجام 1 به 1 منطقی است، اما مطمئن نیستم که اگر درمان‌های بیشتری وجود داشته باشد، می‌توان این کار را انجام داد. به نظر راه خوبی برای معرفی سوگیری است و حذف انتخابی درمان شده منطقی نیست. حدس می‌زنم تطبیق کامل امکان خوبی است زمانی که کنترل کمتری نسبت به درمان وجود دارد، اما اگر بخواهم در همان مورد 1-به-1 را انجام دهم چه؟ تنها راهی که می توانم به آن فکر کنم این است که به طور تصادفی تعداد کمتری از تیمارها را نسبت به شاهد نمونه برداری کنم و 1 به 1 انجام دهم و این کار را چندین بار انجام دهم...
چگونه می توان تطبیق 1 به 1 را زمانی که تعداد افراد تحت درمان بیشتر از افراد کنترل شده است انجام داد؟
32241
اگر دو متغیر طبقه‌بندی را وارد کنم و در رگرسیون خطی قطع کنم، چه مشکلی پیش می‌آید؟ با: y~x1+x2 هر دو «x1» و «x2» متغیرهای طبقه‌بندی هستند، فرض کنید «x1» دارای 3 سطح، «x2» دارای 2 سطح است. من آنها را به صورت زیر رمزگذاری کردم: x1 مربوط به یک ماتریس طراحی از سه ستون است، هر ستون دارای مقادیر 0-1 است که نشان می دهد مشاهده به آن سطح تعلق دارد یا خیر. x2 مربوط به یک ماتریس طراحی از دو ستون است، هر ستون دارای مقادیر 0-1 است که نشان می دهد آیا مشاهده به آن سطح تعلق دارد یا خیر. من می خواستم یک مورد ایجاد کنم که چند خطی را نشان دهد. اما به نظر می رسد هر دو رگرسیون خطی در زیر به خوبی کار می کنند. * * * x1=factor(rep(1:3, 100)) x2=factor(rep(1:2, 150)) y=rnorm(300) summary(lm(y~x1+x2+1)) خلاصه( lm(y~x1+x2-1))
اگر دو متغیر طبقه‌بندی را وارد کنم و در رگرسیون خطی قطع کنم، چه مشکلی پیش می‌آید؟
97073
من می خواهم انواع مختلفی از تکنیک های انتساب را مقایسه کنم، به عنوان مثال روش هایی که امکان پر کردن فیلدهای داده از دست رفته در یک قاب داده را فراهم می کند. در حال حاضر، من فقط از بسته R موش استفاده می کنم که از انتساب چندگانه با معادلات زنجیره ای استفاده می کند. در زیر، من مراحلی را که دنبال می‌کنم شرح می‌دهم و اگر این رویکرد معقولی باشد، از نظرات خود سپاسگزارم. 1. داده‌هایی که در حال حاضر استفاده می‌کنم گزیده‌ای از مجموعه داده پسران است (که در «موش» گنجانده شده است)، که در آن مطمئن می‌شوم که متغیر منطقه «reg» همیشه وجود دارد. df <- boys[,c(سن،hgt،wgt،bmi،hc،reg)] df <- df[which(!(df[,factor.variable.name ] %in% NA))،] 2. برای اینکه بتوانم نتایج انتساب را با هم مقایسه کنم، به صورت log-transform و نرمال/متمرکز «df» در ستون قرار می‌دهم. 3. یک ستون اضافی حاوی یک مقدار عددی «numeric.class» است که نشانگر مقدار «reg» اضافه می‌شود. 4. من مقادیر 5 متغیر عددی «age»، «hgt»، «wgt»، «bmi»، «hc» را با یک مدل خطی دو سطحی که از «numeric.class» به عنوان کلاس استفاده می‌کند، درج می‌کنم. متغیر، که من توسط predMatr[1:5,1:5] انجام می‌دهم <- (ماتریس(data=1, 5, ncol=5) -diag(5)) predMatr[numeric.class] <- -2 predMatr[reg] <- 0 روش <- c(rep(2l.norm,5)،، ) و فراخوانی `imp < - موش (df، meth=روش، pred=predMatr، maxit=30، m=1)». 5. برای اندازه گیری عملکرد این، من در واقع «df» را در فراخوانی «موش» از آخرین مرحله با یک Dataframe اعتبارسنجی که به روش زیر از قبل پردازش شده است، جایگزین می کنم. 6. با تنظیم درصد اعتبار سنجی روی مثلاً 10% و رفتن به ستون به ستون، به طور تصادفی 10% از تمام ورودی های غیر NA را در یک ستون معین با NA انتخاب و جایگزین می کنم. من این رویکرد طبقه بندی شده را انتخاب کردم زیرا معمولاً ردیف های کاملی وجود ندارد، بلکه فقط ورودی های منفرد (یا احتمالاً چندگانه) وجود دارد. 7. برای ورودی‌هایی که «NA»های اضافی را معرفی کردم، RMSE را بر اساس ستون محاسبه می‌کنم، یعنی میانگین مجذور تفاوت بین مقادیر وارد شده و مقادیر واقعی. 8. مراحل 5-7 را تکرار می‌کنم و در هر ستون 10% از ورودی‌ها را با 'NA' جایگزین می‌کنم، جایی که مطمئن می‌شوم که این ورودی‌ها زودتر جایگزین نشده‌اند. به این ترتیب، من برای هر متغیر عددی 10 برابر فریم های داده اعتبارسنجی متقابل و 10 RMSE دریافت می کنم. من سؤالات زیر را دارم: 1. آیا اشکال روشی در این رویکرد وجود دارد؟ 2. به طور خاص آیا من مدل خطی دو سطحی را به روش صحیح پیاده سازی کردم؟ (آیا باید متغیرهای ساختگی را معرفی می کردم؟) 3. آیا RMSE به ازای هر ویژگی عددی، به طور میانگین در 10 برابر، روش معقولی برای اندازه گیری کیفیت انتساب است؟ 4. همانطور که من آن را توصیف می کنم، من فقط مقادیر انتساب اول (`m=1`) را با مقادیر واقعی مقایسه می کنم. معقول ترین راه برای گنجاندن چندین انتساب در RMSE چیست؟ **ویرایش**: در زیر اسکریپت R من را پیدا می کنید: library(موش) library(lattice) library(mi) # تعداد تاها را تعیین می کند. k <- 10 # کاهش داده پسران به 5 ویژگی و 1 طبقه‌بندی کننده df <- boys[,c(age, hgt , wgt, bmi, hc reg)] number.features <- 5 factor.variable.name <- reg numeric.feature.names <- c(age، hgt، wgt، bmi، hc) # مطمئن شوید که طبقه‌بندی‌کننده منطقه همیشه وجود دارد df <- df[which(!(df[,factor.variable.name] %in% NA))،] # # معرفی متغیر کلاس عددی (برای موش‌ها لازم است) l=unique(as. کاراکتر (df[,factor.variable.name])) # تعیین سطوح منحصر به فرد df[numeric.class] <- as.numeric(factor(df[,factor.variable.name], level=l)) # نوشتن سطوح عددی به عنوان ویژگی جدید # z-transform ویژگی های عددی df[,numeric.feature.names]<- log(df[, numeric.feature.names]) df[,numeric.feature.names]<- data.frame(lapply(df[,numeric.feature.names]، FUN=scale)) # برای ایجاد مجموعه‌های CV، شاخص‌های غیرNA را در نظر بگیرید. idx.list <- list(which(!(df$ سن %in% NA))، که(!(df$hgt %in% NA))، که(!(df$wgt %in% NA))، bmi .NNA.idx <- which(!(df$bmi %in% NA))، که(!(df$hc %in% NA))) idx.meta.df <- data.frame(طول = عدد صحیح(شماره.ویژگی ها)، باقیمانده = عدد صحیح(شماره.ویژگی ها)، بزرگتر فولدز=عدد صحیح(شماره.ویژگی ها)) # تعداد ویژگی های NA را برای (i در (1:عدد) ذخیره می کند .features)){ idx.meta.df$length[i] <- length(idx.list[[i]])} # تقسیم تعداد ویژگی های NA بر اساس تعداد چین ها. باقیمانده برای بزرگتر کردن چند تای اول idx.meta.df$foldsize <- idx.meta.df$length %/% k idx.meta.df$largerfolds <- idx.meta.df$length %% k # هر نمایه را به هم بزنید list idx.list<- lapply(idx.list,sample) #initialize لیست خالی k لیست از indices fold.idx <- rep(list((list())),k) # مقداردهی اولیه شاخص های CV برای (i در (1:k)){ for (j در 1:number.features){ # نیاز به درمان ویژه برای foldsize > طول # اندازه بلوک شاخص‌ها برای شماره i ویژگی j با idx.meta.df$foldsize[j] # به‌جز اولین مورد داده می‌شود. idx.meta.df$large
آیا روش زیر برای اندازه گیری کیفیت یک انتساب خوب است؟
57646
من داده هایی از یک مقیاس ترتیبی دارم که امتیاز آن از 1 تا 4 متغیر است. هر آزمودنی دارای 9 ارزیابی در این مقیاس است (مطالعه یک طرح متقاطع 9 طرفه است) و هیچ داده گمشده ای وجود ندارد. تحلیل آماری مناسب برای داده های ترتیبی که می تواند همبستگی درون آزمودنی ها را نیز توضیح دهد چیست؟ به هر حال SAS نرم افزار ترجیحی برای تجزیه و تحلیل است.
نحوه تجزیه و تحلیل داده های اندازه گیری مکرر ترتیبی
97019
ما سه سال داده برای بازدیدهای آنلاین در سطح روزانه داریم. ما می خواهیم بازدیدهای روزانه را برای 90 روز آینده پیش بینی کنیم. بهترین روش برای ثبت فصلی روزهای هفته، فصول تعطیلات، و همچنین رانش چیست. آیا می توان این کار را با موفقیت در R انجام داد؟ ما در حال حاضر از R استفاده می کنیم. ما ARIMA را در نظر گرفته ایم اما فصلی بودن را نمی گیرد. هنگام تبدیل داده ها به یک سری زمانی در R، فرکانس چقدر باید باشد؟ آیا باید از ARIMA با رگرسیورها استفاده کنیم؟
پیش بینی روزانه
93117
من در حال خواندن < مبانی پردازش آماری زبان طبیعی > هستم. در مورد رابطه بین آنتروپی اطلاعات و مدل زبان عبارت زیر را دارد: > ... نکته اساسی در اینجا این است که اگر یک مدل بیشتر از ساختار یک زبان را در بر بگیرد، آنتروپی مدل باید کمتر باشد. به عبارت دیگر، می‌توانیم آنتروپی را به‌عنوان معیاری برای کیفیت مدل‌هایمان شکایت کنیم... اما در مورد این مثال چطور: فرض کنید ماشینی داریم که کاراکترهای A و B $2 دلاری را یکی یکی تف می‌دهد. و طراح ماشین A و B را با احتمال مساوی می سازد. من طراح نیستم و سعی می کنم از طریق آزمایش آن را مدل کنم. در طی یک آزمایش اولیه، می‌بینم که ماشین دنباله نویسه‌های زیر را تقسیم می‌کند: > A, B, A بنابراین من ماشین را به صورت $P(A)=\frac{2}{3}$ و $P(B)=\ مدل می‌کنم. فراکس{1}{3}$. و ما می توانیم آنتروپی این مدل را به صورت زیر محاسبه کنیم: $$ \frac{-2}{3}\cdot\log{\frac{2}{3}}-\frac{1}{3}\cdot\log{\ frac{1}{3}}= 0.918\quad\text{bit} $$ (پایه آن 2 دلار است) اما پس از آن، طراح در مورد طراحی خود به من گفت، بنابراین من مدل خود را با این اطلاعات بیشتر اصلاح کردم. مدل جدید به این صورت است: $P(A)=\frac{1}{2}$ $P(B)=\frac{1}{2}$ و آنتروپی این مدل جدید است: $$ \frac {-1}{2}\cdot\log{\frac{1}{2}}-\frac{1}{2}\cdot\log{\frac{1}{2}} = 1\quad\text {bit} $$ دوم ظاهراً مدل بهتر از مدل اول است. اما آنتروپی افزایش یافت. منظور من این است که به دلیل خودسری مدل مورد آزمایش، نمی توانیم کورکورانه بگوییم که آنتروپی کوچکتر نشان دهنده مدل بهتری است. آیا کسی می تواند این موضوع را روشن کند؟
چرا می توانیم از آنتروپی برای اندازه گیری کیفیت یک مدل زبان استفاده کنیم؟
88275
من می خواهم یک نمودار برای مجموعه ای از همبستگی های IV با یک DV اضافه کنم. من همچنین یک مدل رگرسیون چندگانه را اجرا کرده ام. آیا چیزی شبیه به نمودار زیر خوب به نظر می رسد؟ و احتمالاً روی فلش هایی که روابط فرضی را نشان می دهند، بنویسید: _H1، H2..._؟ (که با استفاده از همبستگی پیرسون مورد آزمایش قرار گرفتند). یا موارد زیر نمایانگر کل رگرسیون است؟ من از SEM استفاده نمی کنم، اگر چنین نموداری فقط برای SEM قابل استفاده است، به من اطلاع دهید. ![1](http://www.popularsocialscience.com/wp- content/uploads/2013/01/Competence.png)!
نمودار برای همبستگی و رگرسیون
25387
من یک مجموعه داده با دو کلاس همپوشانی دارم، هفت نقطه در هر کلاس، نقاط در فضای دو بعدی هستند. در R، و من 'svm' را از بسته 'e1071' اجرا می کنم تا یک hyperplane جداکننده برای این کلاس ها بسازم. من از دستور زیر استفاده می کنم: svm(x, y, scale = FALSE, type = 'C-classification', kernel = 'linear', cost = 50000) که در آن 'x' حاوی نقاط داده من و 'y' حاوی آنها است. برچسب ها دستور یک svm-object را برمی‌گرداند که من از آن برای محاسبه پارامترهای $w$ (بردار معمولی) و $b$ (برق) ابرصفحه جداکننده استفاده می‌کنم. شکل (الف) در زیر نقاط من و هایپرپلان برگردانده شده توسط دستور 'svm' را نشان می دهد (بیایید این ابر صفحه را بهینه بنامیم). نقطه آبی با علامت O مبدا فاصله را نشان می دهد، خطوط نقطه چین حاشیه را نشان می دهد، دایره شده نقاطی هستند که دارای $\xi$ غیر صفر هستند (متغیرهای شل). شکل (ب) ابر صفحه دیگری را نشان می دهد که ترجمه موازی یک بهینه در 5 است (b_new = b_optimal - 5). دیدن اینکه برای این ابر صفحه تابع هدف $$ 0.5||w||^2 + cost \sum \xi_i $$ (که توسط svm طبقه‌بندی C به حداقل می‌رسد) مقدار کمتری نسبت به ابر صفحه بهینه دارد، دشوار نیست. در شکل (الف) نشان داده شده است. بنابراین به نظر می رسد مشکلی با این تابع `svm` وجود دارد؟ یا جایی اشتباه کردم؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/H7QB6.png) در زیر کد R که در این آزمایش استفاده کردم آمده است. library(e1071) get_obj_func_info <- function(w, b, c_par, x, y) { xi <- rep(0, nrow(x)) for (i in 1:nrow(x)) { xi[i] <- 1 - as.numeric(as.character(y[i]))*(sum(w*x[i,]) + b) if (xi[i] < 0) xi[i] <- 0} بازگشت(list(obj_func_value = 0.5*sqrt(sum(w * w)) + c_par*sum(xi)، sum_xi = sum(xi)، xi = xi)) } x < - ساختار(c(41.8226593092589, 56.1773406907411، 63.3546813814822, 66.4912298720281, 72.1002963174962, 77.649309469458, 29.096305465561, 38.6250 44.2351239706747, 53.7648760293253, 31.5087701279719, 24.3314294372308, 21.9189647758150, 69494933 26.2543850639859, 43.7456149360141, 52.4912298720281, 20.6453186185178, 45.313889181287, 29.71183 33.0396571934088, 17.9008386892901, 42.5694092520593, 27.4305907479407, 49.3546813814822, 40.69409 24.2940422573947، 36.9603428065912)، .Dim = c(14L، 2L)) y <- ساختار(c(2L, 2L, 2L, 2L, 2L, 2L, 2L, 1L, 1,1,1,1, 1L, 1L, 1,1 ، .Label = c(-1, 1), class = factor) a <- svm(x, y, scale = FALSE, type = 'C-classification', kernel = 'خطی', هزینه = 50000) w <- t(a$coefs) %*% a$SV; b <- -a$rho; obj_func_str1 <- get_obj_func_info(w, b, 50000, x, y) obj_func_str2 <- get_obj_func_info(w, b - 5, 50000, x, y)
با e1071 libsvm مشکل دارید؟
55648
من وضعیتی دارم که در آن ما یک مقدار زمان عمر مشتری را با استفاده از برخی متغیرهای باینری محاسبه می کنیم (یعنی آیا ویجت xyz را خریداری کرده اند؟ و غیره) و ضرب در عددی است که معتقدیم ارزش این رفتارها تقریبی است. CLV = x1 * 500 + x2 * 300 + x3 * 100 مشکل زمانی پیش می‌آید که یک همکار می‌خواهد یک رگرسیون لجستیک انجام دهد تا مشخص کند کدام مشتریان CLV بالاتر از یک آستانه خاص خواهند داشت (یعنی اگر CLV >= 1000، y = 1، در غیر این صورت y = 0`) و از «x1»، «x2» و «x3» به عنوان متغیر استفاده کنید. من کاملاً مطمئن هستم که این یک نه است زیرا اساساً اطلاعاتی را به مدل درز می کند، اما برای همکارم توضیح دادن این موضوع برایم سخت است. آیا کسی قبلاً با این موضوع برخورد کرده است یا منبع خوبی می شناسد که این موضوع را برای کسی که سواد ریاضی و باهوش است اما تجربه زیادی در زمینه مدل سازی ندارد توضیح دهد؟
بیش از حد / نشت داده ها را برای یک همکار توضیح دهید
114427
من می خواهم مدلی را انتخاب کنم که بهترین عملکرد را برای یک مجموعه داده بسیار بزرگ داشته باشد. با این حال، مجموعه داده ها برای محاسبه یک مدل در زمان معقول بسیار بزرگ است. اگر چنین است، روش زیر یک رویکرد منطقی است: هر مدل را به $n$ زیرمجموعه تصادفی کوچکتر از مجموعه داده اصلی منطبق کنید و میانگین AIC را محاسبه کنید. سپس مدلی را با کمترین میانگین AIC انتخاب کنید.
انتخاب مدل با استفاده از میانگین AIC برای مجموعه داده های بسیار بزرگ
47710
من دسته‌ای از سؤالات را از جریان توییتر با استفاده از یک عبارت منظم برای انتخاب هر توییتی که حاوی متنی است که با یک نوع سؤال شروع می‌شود جمع‌آوری می‌کنم: چه کسی، چه، چه زمانی، کجا و غیره و با علامت سؤال ختم می‌شود. به این ترتیب، من در نهایت چندین سوال غیر مفید در پایگاه داده خود دریافت می کنم، مانند: چه کسی اهمیت می دهد؟، این چیست؟ و غیره و برخی موارد مفید مانند: چند وقت یکبار دعوای بسکتبال برگزار می شود؟، وزن یک خرس قطبی چقدر است؟ و غیره با این حال، من فقط به سوالات مفید علاقه مند هستم. من حدود 3000 سوال دارم، 2000 تا از آنها مفید نیستند، 1000 تا از آنها مفید هستند که به صورت دستی آنها را برچسب زده ام. من سعی می کنم از یک طبقه بندی کننده ساده بیزی (که با NLTK ارائه می شود) استفاده کنم تا سعی کنم سؤالات را به طور خودکار طبقه بندی کنم تا مجبور نباشم سؤالات مفید را به صورت دستی انتخاب کنم. برای شروع، سعی کردم سه کلمه اول یک سوال را به عنوان ویژگی انتخاب کنم اما این خیلی کمکی نمی کند. از 100 سؤال، طبقه‌بندی‌کننده تنها حدود 10 تا 15 درصد را برای سؤالات مفید پیش‌بینی کرده است. همچنین نتوانست سؤالات مفیدی را از سؤالاتی که پیش بینی می کرد مفید نبود، انتخاب کند. من ویژگی های دیگری مانند: شامل تمام کلمات از جمله طول سوالات را امتحان کرده ام اما نتایج تغییر قابل توجهی نداشته است. آیا پیشنهادی در مورد اینکه چگونه باید ویژگی ها را انتخاب کنم یا ادامه دهم؟ با تشکر
انتخاب ویژگی هایی برای شناسایی سوالات توییتر به عنوان مفید
52163
ویکی‌پدیا ادعا می‌کند که علیت گرنجر تا حدودی به‌عنوان راهی برای اثبات رویداد A ناشی از رویداد B پذیرفته شده است. آیا تا به حال برای اثبات اینکه یک شرکت مسئول حادثه صنعتی بوده است که منطقه‌ای از زمین را آلوده کرده است، از آن استفاده شده است؟ آیا برای این کار مناسب خواهد بود؟
آیا علیت گرنجر با موفقیت در پرونده مسئولیت صنعتی استفاده شده است؟
110212
من در حال حاضر سعی می کنم یک مدل AR را با برخی از داده های مالی تطبیق دهم. سری زمانی $Y_t$ در سطوح به وضوح غیر ثابت است. با این حال به نظر می رسد اولین تفاوت $dY_t$ ثابت است (و این توسط تست دیکی-فولر تقویت شده پشتیبانی می شود). بنابراین من ترتیب $p$ مدل AR را با استفاده از $dY_t$ تعیین کردم. اکنون می‌خواهم پارامترهای مدل $p$ را با کمینه کردن برخی تابع هدف (مثلاً مجموع باقیمانده‌های مربع) تخمین بزنم. آیا این کمینه سازی باید با توجه به داده های اصلی (سطح) باشد یا داده های متفاوت؟ به عبارت دیگر، آیا پارامترهای خود را طوری انتخاب می‌کنم که باقیمانده‌های مربعی بین مدل برازش شده و $dY_t$ به حداقل برسد یا آن‌ها را طوری انتخاب کنم که پس از «تفاوت نکردن» مدل، باقی‌مانده‌های مربعی به حداقل برسد. Y_t$؟ (منظورم از تفاوت نکردن گرفتن مقادیر برازش مدل AR و اضافه کردن آنها به صورت متوالی به $Y_{t=0}$) من می دانم که همه اینها را می توان به طور خودکار با استفاده از پیاده سازی ARIMA در یک بسته نرم افزاری مدیریت کرد - این بیشتر است. برای بهبود درک من از آنچه در حال وقوع است. با تشکر از کمک شما!
تعیین پارامترها در مدل AR برای سری های زمانی غیر ثابت
96248
من و سرپرستم یک آزمایش تصادفی را در یک کشور در حال توسعه انجام داده ایم. به دلیل مشکلات اداری در آنجا متاسفانه مشکل عدم پاسخگویی داریم. این عدم پاسخ نیز به دلیل نقص در آزمایشی که انتخاب خود را معرفی کرد، تصادفی نیست. از این رو، نمی‌توانیم امیدوار باشیم که گمشده‌ای را به صورت تصادفی یا مشابه بفروشیم. آنچه توسط یکی از همکاران به ما پیشنهاد شد این است که به جای آن میانگین اثر درمان را مشخص کنیم. به طور خاص، به دو مقاله اشاره شد: مانسکی، 1990، محدوده های ناپارامتری در اثرات درمان و لی، 2009، تخمین محدودیت های تیز بر اثرات درمان. از آنجایی که من با این ادبیات آشنایی ندارم، امیدوارم بتوانم راهنمایی بگیرم. من نمی توانم تفاوت بین عرض این مرزها را کاملاً درک کنم، یعنی چه زمانی آموزنده خواهند بود؟ خوشحال می شوم در مورد آمار ریاضی پشت این عرض ها اشاره یا توضیحی داشته باشم. تا آنجا که من می بینم، باید از کران های لی (2009) استفاده کنم، اما مطمئن نیستم که بتوانم روی میانگین اثر درمان برای همه افراد در مطالعه یا برای یک گروه فرعی محدودیتی داشته باشم.
محدوده اثر درمان
57648
در بخش 9.2.3 استنتاج آماری Casella، آنها ساختار فاصله اطمینان خود را برای پارامتر $\theta$ بر اساس یک آمار با ارزش واقعی $T$ با cdf $F_T(t| \theta)$ قرار دادند. 1. آنها ابتدا فرض می کنند که $T$ یک متغیر تصادفی پیوسته است. سپس با تبدیل انتگرال احتمال، متغیر تصادفی پیوسته $F (T | \theta)$ به طور یکنواخت بر روی $(0، 1)$ توزیع می شود و بنابراین یک محور است که می تواند برای ایجاد یک منطقه اطمینان استفاده شود. ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/taOUd.png) 2. آنها می گویند وضعیتی که $T$ گسسته است مشابه است، اما چند جزئیات فنی اضافی برای در نظر گرفتن دارد. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/0cHrG.png) سوال من این است که $T$ چه زمانی توزیع گسسته دارد. در چنین حالتی، $F (T | \theta)$ به طور قابل شمارش مقادیر زیادی را می گیرد و به طور یکنواخت روی $(0، 1)$ توزیع نمی شود. آیا توزیع $F (T | \theta)$ به $\theta$ بستگی دارد و بنابراین یک محور نیست؟ در چنین حالتی، چرا کازلا هنوز می تواند آن را به عنوان یک محور فکر کند، یا من چیزی را از دست می دهم؟ با تشکر و احترام!
آیا چرخاندن یک CDF گسسته یک محور ارائه می دهد؟
57642
من به یک آزمایش فاکتوریل با دو عامل فکر می کنم. هر دو عامل فاکتورهای دستوری هستند. فاکتور 1 دارای دو سطح کوچک و بزرگ است. فاکتور 2 دارای چهار سطح است: هرگز، گاهی اوقات، مکرر و اغلب. من همچنین می‌خواهم آزمایش را در چندین مکان انجام دهم، بنابراین مکان را به‌عنوان نوعی «بلاک» درج می‌کنم. من انتظار دارم پاسخ‌های بزرگ‌تری برای افزایش سطوح هر دو عامل داشته باشد، و همچنین انتظار دارم اثر متقابل داشته باشد. بنابراین، من مدلی به شرح زیر دارم: «Response ~ Block + Factor1*Factor2 + error» که حداقل 40 مشاهده، شاید 80، شاید 120 یا موارد دیگر خواهد داشت تا زمانی که بتوانم یک اثر را تشخیص دهم. من تعدادی از متغیرهای پاسخ را اندازه می‌گیرم، که بیشتر آنها تعداد یا 0 کوتاه شده (تاخیر پاسخ) خواهند بود. من در تعجب هستم که چگونه می توان پاسخ های مدل خود را با انتظار اندازه اثر متوسط ​​شبیه سازی کرد. من می‌خواهم بدانم چه اندازه نمونه برای تشخیص اثر متوسط ​​از درمان‌هایم مناسب است، اما به اندازه کافی با شبیه‌سازی آشنا نیستم تا بدانم با چنین مشکلی از کجا شروع کنم. هر گونه راهنمایی یا راهنمایی یا درخواست برای اطلاعات بیشتر بسیار قدردانی خواهد شد. اطلاعات اضافی: من از R برای انجام همه کارها استفاده می کنم. ویرایش: من پاسخ مارک تی پترسون به سوالم را اجرا کردم و آن را برای تناسب با تنظیمات آزمایشی خاص خود و تلاش برای شبیه‌سازی داده‌های poisson تغییر دادم، اما وقتی تابع را اجرا می‌کنم اخطارهایی دریافت می‌کنم. خوشبختانه، چند پاسخ مرتبط در CrossValidate وجود دارد: نمونه‌های داده را از رگرسیون پواسون تولید کنید. من به یادگیری نحوه شبیه سازی داده های دیگر برای مطابقت با انواع دیگر متغیرهای پاسخی که اندازه گیری خواهم کرد، ادامه خواهم داد.
شبیه سازی پاسخ ها از یک آزمایش فاکتوریل برای تحلیل توان
6907
به این تصویر نگاه کنید: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Io7JY.jpg) اگر نمونه ای از چگالی قرمز بکشیم، انتظار می رود برخی از مقادیر کمتر از 0.25 باشد در حالی که آن تولید چنین نمونه ای از توزیع آبی غیرممکن است. در نتیجه، فاصله کولبک-لایبلر از چگالی قرمز تا چگالی آبی بی نهایت است. با این حال، این دو منحنی به نوعی طبیعی از هم متمایز نیستند. سوال من اینجاست: آیا اقتباسی از فاصله کول بک-لایبلر وجود دارد که فاصله محدودی بین این دو منحنی ایجاد کند؟ متشکرم مارکو
اقتباسی از فاصله کولبک-لایبلر؟
57640
من تعدادی مجموعه داده EEG دارم که در حال آزمایش آنها بر روی دو کلاس هستم. من می‌توانم نرخ خطای مناسبی را از LDA دریافت کنم (توزیع‌های شرطی کلاس گاوسی نیستند، اما دارای دنباله‌های مشابه و جداسازی کافی خوب هستند)، و بنابراین می‌خواهم ROC پیش‌بینی‌کننده LDA را در برابر مجموعه‌های داده از موضوعات دیگر رسم کنم. در اینجا یک نمودار معمولی برای پیش‌بینی‌کننده است که در برابر یک آزمایش آزمایشی آزمایش شده است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/FK1aw.png) من چند بسته مختلف (pROC و ROCR) را امتحان کرده‌ام ) و نتایج یکسان است. سوال من این است که آرنج تیز چه خبر است؟ آیا این فقط یک مصنوع از طرح ریزی تولید شده توسط LDA است، یعنی اتفاقاً یک صخره وجود دارد که در آن عملکرد طبقه بندی کننده به شدت کاهش می یابد؟
چرا یک آرنج تیز در منحنی های ROC من وجود دارد؟
52169
من با یک مجموعه داده کار می کنم تا عملکرد دانش آموزان را با متغیرهای مختلف از سطح کلاس / مدرسه / ناحیه / استان مدل کنم. اگرچه عملکرد دانش‌آموز بسیار پایین است--~70% نمرات عملکرد خواندن 0 است. من تجربه کار با مدل‌های ناپارامتریک را ندارم، اما فرض می‌کنم باید از یکی برای این توزیع غیرعادی استفاده کنم. من با یک مدل لاجیت بازی می کنم و از یک آستانه بالا/پایین برای عملکرد دانش آموزان استفاده می کنم. چه مدل های دیگری را باید با این نوع داده ها کاوش کنم؟ این توزیع امتیاز است: امتیاز-شماره 0-630 1- 2 2- 1 3- 1 5- 1 8- 1 9- 2 10- 2 11- 4 13- 2 14- 1 18- 10 19- 1 20- 2 21- 1 22- 3 23- 2 28- 3 29- 2
مدل سازی یک متغیر نتیجه که به شدت به سمت 0 منحرف شده است
64550
من داده های تابلویی با اندازه گیری های مکرر از خانواده ها دارم. احتمالاً ناهمگونی در پانل‌ها وجود دارد که باید به آن توجه کنم. من در حال برنامه ریزی برای استفاده از رگرسیون پواسون هستم، اما مطمئن نیستم که بهترین راه برای کنترل ناهمگنی چیست.
بهترین راه برای کنترل ناهمگونی درون گروهی چیست؟
108207
در R، خروجی رگرسیون لجستیک احتمالات پیش بینی شده را به شما می دهد. آیا نمی توان مقدار آستانه $\alpha$ را تعیین کرد، به طوری که هر $p > \alpha$ به عنوان $1$ و و $p \leq \alpha$ به عنوان $0 $ طبقه بندی شود؟ آیا بسته caret می تواند این کار را انجام دهد؟
مقدار برش در رگرسیون لجستیک
82131
هدف آزمایش فعلی من بررسی تأثیر شرایط مشاهده، دشواری و درک عمق بر درک اشیا است. من بیشتر به تأثیر تفاوت های فردی در درک عمق علاقه دارم. من قبلاً مدل خود را به‌عنوان یک ANOVA ترکیبی با شرایط مشاهده (دو چشمی، تک چشمی) و دشواری (5 سطح) به‌عنوان عوامل اندازه‌گیری مکرر و توانایی درک عمق به‌عنوان عامل بین سوژه‌ها مشخص کرده‌ام (داده‌های خام برای این مورد از نظر لگاریتمی، من شرکت‌کنندگان را به دو گروه تقسیم کردم [خوب در مقابل ضعیف] بسته به اینکه امتیاز آنها در کدام سمت آستانه قرار گیرد). از آنجایی که من به تفاوت‌های فردی علاقه دارم، ایده استفاده از مدل‌های ترکیبی جذاب است، اما نمی‌توانم کاملاً درک کنم که چگونه با استفاده از این تکنیک تأثیر درک عمق را کشف کنم. من درک می کنم که شرایط و سختی تماشا فاکتورهای ثابتی هستند. من فکر می‌کنم که هم شناسه و هم درک عمق افکت‌های تصادفی هستند، بنابراین می‌توانم مدل را به این صورت مشخص کنم: «fit.1 <- lme(دقت ~ دشواری*نما، تصادفی=~1|ID/DepthPerception، data=mydata)». آیا من فکر می کنم که می توانم داده های درک عمق را به شکل لگاریتمی خود بگذارم درست است؟ با داشتن این مدل، نمی توانم بفهمم که چگونه اثر درک عمق را تفسیر کنم - فقط اثرات ثابت در نتایج نشان داده می شود.
مشخصات مدل ترکیبی در R - بررسی تفاوت های فردی
59613
به طور فرضی، بگویید من دارم سه متغیر آشکار برای اندازه‌گیری اضطراب و سه متغیر آشکار (موضوع) برای اندازه‌گیری استرس دارم. سپس می‌خواهم از هر دو برای پیش‌بینی نمرات افسردگی استفاده کنم، که آن‌ها را نیز از طریق سه متغیر آشکار ارزیابی می‌کنم. من به سادگی می توانم امتیازهای هر یک از متغیرهای آشکار را اضافه کنم و امتیازهای ترکیبی برای اضطراب/استرس/افسردگی ایجاد کنم، سپس یک رگرسیون چندگانه اجرا کنم. این رویکرد در شکل زیر نشان داده شده است. ![رگرسیون چندگانه](http://i.stack.imgur.com/lSo8j.png) یا می‌توانم مدل‌سازی متغیر پنهان را مانند شکل زیر انجام دهم. ![Latent variable modelling](http://i.stack.imgur.com/Jo3GU.png) هر وقت این کار را انجام دادم، R Squared افزایش یافته است. چرا این اتفاق می افتد؟ آیا دلایل به گونه ای است که ممکن است R Squared ثابت بماند یا کاهش یابد؟
چرا مدل سازی متغیر پنهان در رگرسیون تمایل به بالا بردن مربعات R دارد؟
64558
برای دو گروه (a و b) با تعداد مشاهدات نامساوی (n=10 و n=30) میانگین و sd آنها را آورده ام. محاسبه میانگین وزنی بسیار ساده است. اما چگونه می توانم sd این میانگین وزنی را استخراج کنم؟ لطفاً مجموعه داده‌های ساختگی زیر را در نظر بگیرید: a <- rnorm(10,1,1) b <- rnorm(30,1,1) weight_a <- 1/4 weight_b <- 3/4 # محاسبه میانگین وزنی میانگین وزنی <- میانگین (a)*weight_a + mean(b)*weight_b # این همان میانگین را به دست می دهد: mean(c(a,b)) # محاسبه وزن sd weighted_sd <- sqrt(sd(a)^2*weight_a+sd(b)^2*weight_b) # این همان sd را نمی دهد: sd(c(a,b)) چه چیزی را از دست داده ام؟
انحراف استاندارد وزنی از میانگین
82137
آزمایشی را در نظر بگیرید که در آن زمان واکنش افراد در سه شرایط اندازه گیری می شود. از آنجا که هر موضوعی در هر شرایطی شرکت می کند، این یک طراحی معمولی درون موضوعی است. حالا می‌خواهم بدانم که آیا آنووا یک طرفه درون سوژه‌ها کاملاً معادل آنوای دو طرفه است که فاکتور دوم آن موضوع است. من قبلاً چند فصل در مورد این موضوع خوانده ام اما تفاوت بین هر دو روش هرگز به طور صریح مورد بحث قرار نگرفته است. بنابراین، 1. آیا استفاده از یکی در مقایسه با دیگری مزیتی دارد؟ 2. آیا رویکرد چند سطحی با موضوع به عنوان اثر تصادفی و شرط به عنوان یک اثر ثابت حتی بهتر است؟ 3. اگر تأثیر زمان فرض شود چه می شود (مثلاً خستگی). آیا این می تواند به عنوان یک عامل سوم نیز مدل شود؟ من می دانم که این سؤالات بسیار مبهم/گسترده هستند، اما امیدوارم به هر حال بتوانی نکاتی را به من ارائه کنی. پیشاپیش ممنون
یک طرفه در آزمودنی ها آنووا
95430
من یک مدل با چندین دسته برای چندین متغیر طبقه بندی دارم. من به پیش بینی علاقه دارم. تاکنون از step() استفاده کرده ام. مشکلی که در آن وجود دارد این است که به اصطلاح، متغیرهای دارای دسته های متعدد را به عنوان یک بلوک در نظر نمی گیرد. بنابراین در خروجی، ممکن است 2 سطح از x1 را دریافت کنم و بگویم 1 از سطوح x2. سوال من این است که آیا راهی برای انجام این کار با استفاده از step() s.t وجود دارد که یک متغیر کامل (مانند همه دسته ها) انتخاب/رد شود؟ و اگر نه، آیا راه دیگری برای انجام این کار در R با استفاده از دستور دیگری وجود دارد؟
داده های دسته بندی با دسته های متعدد (انتخاب متغیر)
12425
من به دنبال آموزش طبقه بندی کننده ای هستم که بین اشیاء نوع A و نوع B با یک مجموعه آموزشی نسبتاً بزرگ متشکل از 10000 شیء تمایز قائل شود که حدود نیمی از آنها نوع A و نیمی از آنها نوع B هستند. . مجموعه داده شامل 100 ویژگی پیوسته است که ویژگی های فیزیکی سلول ها (اندازه، میانگین شعاع و غیره) را به تفصیل شرح می دهد. تجسم داده ها در نمودارهای پراکنده زوجی و نمودارهای چگالی به ما می گوید که همپوشانی قابل توجهی در توزیع سلول های سرطانی و طبیعی در بسیاری از ویژگی ها وجود دارد. من در حال حاضر جنگل های تصادفی را به عنوان یک روش طبقه بندی برای این مجموعه داده کاوش می کنم و نتایج خوبی را می بینم. با استفاده از R، جنگل های تصادفی قادر به طبقه بندی صحیح حدود 90٪ از اشیاء هستند. یکی از کارهایی که می‌خواهیم امتحان کنیم و انجام دهیم، ایجاد نوعی «نمره قطعیت» است که میزان اطمینان ما از طبقه‌بندی اشیاء را کمیت می‌کند. ما می‌دانیم که طبقه‌بندی‌کننده ما هرگز 100% دقیق نخواهد بود، و حتی اگر دقت بالایی در پیش‌بینی‌ها به دست آید، از تکنسین‌های آموزش‌دیده می‌خواهیم که تشخیص دهند کدام اشیاء واقعاً «نوع A» و «نوع B» هستند. بنابراین به‌جای ارائه پیش‌بینی‌های سازش ناپذیر «نوع A» یا «نوع B»، می‌خواهیم برای هر شی امتیازی ارائه کنیم که توضیح دهد چگونه یک شی «A» یا «B» است. به عنوان مثال، اگر امتیازی بین 0 تا 10 ایجاد کنیم، نمره 0 ممکن است نشان دهد که یک شی بسیار شبیه به اشیاء «نوع A» است، در حالی که نمره 10 نشان می دهد که یک شی بسیار شبیه به «نوع B» است. . به این فکر می کردم که می توانم از آرای موجود در جنگل های تصادفی برای ایجاد چنین امتیازی استفاده کنم. از آنجایی که طبقه‌بندی در جنگل‌های تصادفی با رأی اکثریت در جنگل درختان تولید شده انجام می‌شود، من فرض می‌کنم که اشیایی که 100 درصد درختان آن‌ها را «نوع A» انتخاب کرده‌اند، با اشیایی که مثلاً 51 درصد به آنها رأی داده‌اند، متفاوت است. از درختان «نوع A» باشد. در حال حاضر، من سعی کرده ام یک آستانه دلخواه برای نسبت آرایی که یک شی باید دریافت کند تا به عنوان «نوع A» یا «نوع B» طبقه بندی شود، تنظیم کنم، و اگر آستانه عبور نشود، به عنوان «نامشخص» طبقه بندی می شود. برای مثال، اگر این شرط را اجباری کنم که 80٪ یا بیشتر از درختان باید در مورد تصمیمی برای تصویب یک طبقه بندی توافق کنند، متوجه می شوم که 99٪ از پیش بینی های کلاس درست است، اما حدود 40٪ از اشیاء به عنوان دریافت می شوند. نامشخص`. پس آیا منطقی است که از اطلاعات رای گیری برای به دست آوردن اطمینان از پیش بینی ها استفاده کنیم؟ یا اینکه با افکارم در مسیر اشتباهی حرکت می کنم؟
ایجاد امتیاز قطعیت از آراء در جنگل های تصادفی؟
6806
من یک دیتافریم df دارم همانطور که در زیر نشان داده شده است نام موقعیت 1 HLA 1:1-15 2 HLA 1:2-16 3 HLA 1:3-17 من می خواهم ستون موقعیت را بر اساس کاراکتر : به دو ستون دیگر تقسیم کنم. به طوری که من نام seq position 1 HLA 1 1-15 2 HLA 1 2-16 3 HLA 1 3-17 را می گیرم بنابراین فکر کردم این کار را انجام می دهد ترفند، df <- transform(df,pos = as.character(position)) df_split<- strsplit(df$pos, split=:) #این هک را از پست لیست پستی قدیمی پیدا کردم df <- transform(df, seq_name= sapply(df_split، [[، 1)،pos2= sapply(df_split، [[، 2)) یک خطا خطا در strsplit(df$pos, split = :): آرگومان غیر کاراکتری چه مشکلی می تواند داشته باشد؟ چگونه می‌توانید در R به این امر دست یابید. من موردم را در اینجا ساده کرده‌ام، در واقع چارچوب داده تا بیش از صد هزار ردیف اجرا می‌شود.
تقسیم یک ستون عددی برای یک دیتافریم
64553
مدل ساده چند سطحی $$ \begin{align} Y_{ij} &= X_{ij} B + u_{ij}, \\\ B &= Z_{j}R + e_{j} را در نظر بگیرید. \\\ \end{align} $$ چه اتفاقی می‌افتد اگر اولاً بردار پارامترهای $B$ با رگرسیون خطی (OLS) تخمین زده شود، سپس بردار تخمین OLS روی $Z_{j}$ (به‌جای REML) رگرسیون شود؟ هر گونه پیشنهاد مرجع (مقاله یا کتاب درسی) بسیار مفید خواهد بود.
مدل چندسطحی با تخمین دو مرحله ای
102968
من به نظرات شما نیاز دارم در حال حاضر، شکافی بین دانش نظری و اجرای عملی احساس می‌کنم. مورد مشکل: در مطالعه‌ام، یک برنامه آموزشی یکسان، حدود 10 جلسه با دو گروه خاص از افراد در یک شعبه در دو مرکز انجام دادم (تسهیلات1: n=30؛ تسهیلات2: n=15). هدف اولیه من ردیابی بلندمدت رشد مقیاس‌های روان‌سنجی در طول آموزش (جلسه اول، جلسه پنجم، جلسه دهم) بود. به عنوان مثال من از مقیاس های استاندارد برای پرسش در مورد جهت گیری یادگیری استفاده کردم. من همچنین برخی از داده های جمعیت شناختی مانند جنس، سن، بالاترین مدرک تحصیلی و غیره را ردیابی کردم. بنا به دلایلی، پس از ردیابی پایه در مرکز 1 بیش از 50 درصد ترک تحصیل کردم، اما در تسهیلات 2 ترک تحصیل نکردم. در نهایت، اندازه‌های نمونه نهایی من عبارتند از: n=15 جانشین آموزشی در تسهیلات 1، اما n=15 بازمانده از تحصیل در مرکز 1، و n=15 جانشین آموزشی در مرکز 2. کاری که می‌خواهم انجام دهم: انجام یک تجزیه و تحلیل اکتشافی ترک تحصیل برای پاسخ به این سوال که آیا در مقایسه با جانشینان آموزشی در مورد داده‌های جمعیت‌شناختی و مقیاس‌های روان‌سنجی، نوعی «ترک تحصیل» وجود دارد یا خیر. 1) آیا n = 15 جانشین آموزشی در تسهیلات 1 را با n = 15 بازمانده از تحصیل در تسهیلات 1 مقایسه می کنید یا جانشینان آموزشی در تسهیلات 2 (n = 15) را در گروه مقایسه جانشینان قرار می دهید؟ با این حال، من تمایل به مقایسه n=15 با n=15 به دلیل اندازه نمونه برابر دارم. 2) می‌خواهم هر دو گروه را از نظر توزیع جنسیتی و اینکه آیا افراد با تحصیلات پایین در مقایسه با افراد با تحصیلات عالی بیشتر هستند مقایسه کنم. هر گونه پیشنهادی برای تحقق این امر وجود دارد؟ 3) می خواهم متغیرهای روان سنجی را بررسی کنم. در مورد آزمون های t یاد گرفتم که به دلیل تجمع خطای آلفا باید مراقب باشیم. اکنون مطمئن نیستم که آیا می توانم یک MANOVA را با یک متغیر مستقل (ترک تحصیل - بدون انصراف) و چندین متغیر وابسته (حدود 10 سازه روان سنجی، مقیاس بندی فاصله) انجام دهم. تا اینجا خیلی ممنون! :)
انتخاب رویکرد آماری صحیح برای تجزیه و تحلیل ترک تحصیل
106093
من چندین متغیر سری زمانی محیطی دارم (به عنوان مثال: دما، اکسیژن محلول، رسانایی، عمق) که هر چند دقیقه به مدت چند ماه اندازه گیری می شود. متغیرها در فواصل زمانی مختلف اندازه گیری می شوند، اما من می توانم یک مجموعه داده درون یابی ایجاد کنم که همه داده ها در زمان های یکسان قرار گیرند. من می خواهم بتوانم بفهمم که این متغیرها چگونه با یکدیگر مرتبط هستند. به عنوان مثال من به سؤالی مانند این علاقه دارم: > آیا افزایش عمق با کاهش دما مرتبط است؟ متغیرها ممکن است به طور همزمان تغییر کنند، اما به احتمال زیاد بین تغییر در عمق و تغییر دما کمی تاخیر وجود دارد. به علاوه، من می خواهم به متغیرهای زیادی نگاه کنم - نه فقط 2. من به چرخه ها یا روندهای یک سری زمانی علاقه ای ندارم - اینکه چگونه ممکن است یکی روی دیگری تأثیر بگذارد. من مطمئن نیستم از کجا شروع کنم - آیا این فقط یک رگرسیون چندگانه است؟ چگونه زمان تاخیر را در نظر بگیرم؟ آیا می توانید موضوعاتی را پیشنهاد کنید که بتوانم در مورد آنها مطالعه کنم؟
نحوه تجزیه و تحلیل سری های زمانی متغییر چندگانه - پیشنهاد مرجع
102967
برای انتخاب ویژگی، آزمون‌های جایگشت به نفع آن دسته از متغیرهای طبقه‌بندی با تعداد سطوح زیاد هستند [White1994]. علاوه بر این، پیشنهاد شده است [Deng2011] که از جایگشت های جزئی می توان برای افزایش کارایی استفاده کرد. با این حال، آیا جایگشت جزئی نیز می تواند مشکل سوگیری را حل کند؟
انتخاب ویژگی با جایگشت جزئی
57647
من سعی کردم یک مدل AR(1) را متناسب کنم و در حال بررسی برآوردهای مدل بودم. من یک سوال در مورد خروجی داشتم (در SAS - Proc ARIMA اجرا شد): همبستگی خودکار باقیمانده تا تاخیر 6 غیر قابل توجه بود (به عبارت دیگر - همبستگی خودکار وجود ندارد). با این حال، پس از تاخیر 6 قابل توجه است. * این به چه معناست؟ * آیا این بدان معناست که مدل نیاز به بهبود دارد؟ * همچنین، چرا پس از تاخیر 6 قابل توجه است؟ * * * بررسی خودکار همبستگی باقیمانده ها (مقادیر برجسته شده مقادیر همبستگی خودکار هستند و مقادیر معنی دار به صورت مورب هستند) [To Lag] [Chi-Square] [DF] [Pr > ChiSq] [Autocorrelations] 6 9.46 5 0.0922 ** 0.026 0.023 0.092 -0.01 0.089 0.127** 12 24.68 11 *0.0101* ** 0.17 0.178 -0.095 -0.042 -0.056 -0.103** 18 34.42 17 * 0.0072 * 0.0072* 0.0074 * 0.0074 * 0.0056 ** 0.1 0.1 -0.151 -0.005** 24 38.86 23 *0.0206* **-0.046 0.042 0.133 -0.008 -0.029 -0.017** 30 51.21 29 * 0.0067* 0.0067* 0.0067* 0.0067* 0.017*0.01. 0.054 0.015 **
ARIMA -- خود همبستگی باقیمانده تا تاخیر 6 غیر معنی دار و بیش از تاخیر 6 معنی دار است
82133
من در حال انجام خوشه بندی سلسله مراتبی بیزی هستم. از درک من، سه نکته اساسی برای این الگوریتم وجود دارد. 1. از احتمالات حاشیه ای استفاده کنید تا تصمیم بگیرید کدام خوشه ها را ادغام کنید. 2. می پرسد که احتمال این که همه داده ها در یک ادغام بالقوه از یک جزء مخلوط تولید شده باشند چقدر است. مقایسه با بسیاری از فرضیات به صورت نمایی در سطوح پایین تر درخت 3. مدل مولد استفاده شده یک مدل مخلوط فرآیند دیریکله (DPM) است. درک دو نکته اول آسان است، اما چرا مدل مولد DPM است؟ آیا ویژگی های خاصی از DPM وجود دارد که آن را برای این منظور کاملاً مناسب می کند؟ آیا گزینه های دیگری وجود دارد؟
مدل مخلوط فرآیند دیریکله با خوشه‌بندی سلسله مراتبی بیزی
35657
برای یافتن ارتباط بین حمایت همسالان (متغیر مستقل) و رضایت شغلی (متغیر وابسته) مایلم از آزمون کای دو استفاده کنم. حمایت همتایان از نظر میزان حمایت در چهار گروه قرار می گیرد: 1=بسیار کمتر، 2=تا حدی، 3=به میزان زیاد و 4=به میزان بسیار زیاد. رضایت شغلی به دو دسته تقسیم می شود: 0=ناراضی و 1=راضی. خروجی SPSS می گوید بیش از 37.5 درصد فرکانس های سلولی کمتر از 5 است. حجم نمونه من 101 است و نمی خواهم دسته ها را در متغیر مستقل به تعداد کمتر کاهش دهم. در این شرایط آیا تست دیگری وجود دارد که بتوان این ارتباط را آزمایش کرد؟
کاربرد تست کای اسکوئر در صورتی که بسیاری از سلول ها فرکانس کمتر از 5 داشته باشند
110219
من داده ای مانند این دارم: افراد Y روز X ID1 30 0 0 ID1 40 1 0 ID1 60 2 1 ID1 70 3 0 ID2 20 0 0 ID2 40 1 1 ID2 50 2 0 ... ... ... .. برای این داده ها، Y امتیازدهی دانش است، X متغیری است که در شب گذشته کتاب خوانده است. در این مثال، من فرض می‌کنم که Y هر روز افزایش می‌یابد (10 وقتی دانش‌آموز دیشب کتاب نخوانده است / 20 وقتی دانش‌آموز دیشب کتاب خوانده است). با این حال، اگر من مدل را در GEE یا مدل ترکیبی بسازم، آنها همیشه نمی توانند فرض من را تأیید کنند. مدل در GEE و مدل مختلط: Y = B0 + B1*X + B2*Day + B3*X*Day به عنوان عنوان عنوان، وقتی از تعامل بین زمان و متغیر کمکی زمان در مدل ترکیبی یا GEE استفاده می کنیم، چه اتفاقی می افتد؟
آیا می توان از تعامل بین زمان و متغیر کمکی در مدل ترکیبی یا GEE استفاده کرد؟
2728
من یک مجموعه داده را با استفاده از دستور pam (از بسته {cluster}) خوشه‌بندی می‌کنم، و می‌خواهم در مورد تعداد خوشه‌های مورد استفاده تصمیم بگیرم. من توانستم The_Elbow_Method را در R پیاده سازی کنم (به ویکی مراجعه کنید) برای انجام این کار. اما این برای من هیچ معیار محکمی (مثلاً AIC) برای تصمیم گیری فراهم نمی کند. من با بسته {clValid} آمدم که امیدوارکننده به نظر می‌رسد، اما می‌خواستم بدانم آیا **راه‌حل‌های R دیگری (شما می‌شناسید) برای انتخاب تعداد خوشه‌ها برای pam وجود دارد؟** اگر کسی می‌خواهد این چند کد ساختگی است. مثال‌ها را نشان دهید: داده (عنبیه) سر (عنبیه) نیاز دارد (خوشه) pam (عنبیه[,1:4]، 3)
الگوریتم انتخاب تعداد خوشه ها هنگام استفاده از pam در R؟
52161
X,Y دقیقاً توسط یک رابطه غیر خطی ناشناخته به هم مرتبط هستند. آیا یک آنالوگ منظم از همبستگی وجود دارد که اطلاعاتی در مورد این رابطه بدهد؟
تشخیص روابط غیر خطی بین توزیع ها؟
60074
تا آنجایی که من متوجه شدم، آزمون والد در زمینه رگرسیون لجستیک برای تعیین اینکه آیا یک متغیر پیش‌بینی‌کننده خاص $X$ معنی‌دار است یا خیر استفاده می‌شود. این فرضیه صفر بودن ضریب مربوطه را رد می کند. آزمون شامل تقسیم مقدار ضریب بر خطای استاندارد $\sigma$ است. چیزی که من در مورد آن گیج شده‌ام این است که $X/\sigma$ به عنوان Z-score نیز شناخته می‌شود و نشان می‌دهد که چقدر احتمال دارد که یک مشاهده داده شده از توزیع نرمال (با میانگین صفر) بیاید.
آزمون والد برای رگرسیون لجستیک
99389
فقط تعجب می کنم که چرا در ادبیات توزیع Weibull همیشه برای اشکال مثبت تعریف می شود، در حالی که گسترش در جهت منفی امکان پذیر است و خواص مفید زیادی دارد. فرض کنید $X \propto \mathrm{Weibull}(\theta, \lambda)$، یعنی Weibull- توزیع شده با شکل $\theta > 0$ و مقیاس $\lambda > 0$ با PDF $$ p_X(x) = \frac{\theta}{\lambda}\left(\frac{x}{\lambda}\right)^{\theta-1}e^{-\left(x/\lambda\right)^\theta} ، \quad x > 0\. $$ $Y=1/X$ سپس توزیع معکوس Weibull را با PDF $$ p_{Y}(y) = \left|\left(1/y\right)'_y\right| p_X\left(1/y\right) = \frac{\theta}{\lambda y^2} \left(\frac{1}{\lambda y} \right)^{\theta-1} e^{ -\left(1/\lambda y\right)^\theta} = \frac{\theta}{\lambda^{-1}} \left(\frac{y}{\lambda^{-1}}\right)^{-\theta-1} e^{-\left(y/\lambda^{-1} \right)^{- \تتا}}. $$ یعنی. اگر اشکال منفی مجاز باشد، می‌توان گفت $Y \propto \mathrm{Weibull}(-\theta,\lambda^{-1})$ (فقط $\theta$ در جلوی $p_X(x)$ دارد با $|\theta|$ جایگزین شود. CDF/mean/mode و غیره نیز نیاز به انطباق بسیار جزئی برای اشکال منفی دارد. من حدس می‌زنم که همین ترفند برای کل خانواده گامای تعمیم‌یافته ممکن است، و به عنوان مثال. سپس گامای معکوس عضو آن خواهد شد.
توزیع وایبول با پارامتر شکل منفی
93800
من سعی می کنم از lars استفاده کنم (پیاده سازی متلب:http://www.ece.ubc.ca/~xiaohuic/code/LARS/LARS.htm). من می‌خواهم با استفاده از این کد یک اعتبارسنجی متقاطع روی داده‌هایم انجام دهم. من شک زیر را دارم: این کد یک پارامتر t دارد، آیا این پارامتری است که باید در حین اعتبارسنجی متقاطع تنظیم شود؟ اگر داده نشود، پیش فرض بی نهایت در نظر گرفته می شود. و ضرایب (ماتریس وزن) از ابعاد دلخواه محاسبه می شود. آیا کسی می تواند به من کمک کند تا بفهمم در این کد چه خبر است؟ من می‌خواهم با استفاده از lars یک اعتبارسنجی متقاطع روی داده‌هایم انجام دهم. **ویرایش** من همچنین سعی می کنم از تابع کمند داخلی با متلب استفاده کنم. دارای گزینه ای برای انجام اعتبار سنجی متقابل است. خروجی B و Fit Statistics، که در آن B ضرایب Fitted، یک ماتریس p-by-L است، که در آن p تعداد پیش بینی کننده ها (ستون ها) در X، و L تعداد مقادیر Lambda است. حالا با توجه به نمونه آزمایشی جدید، چگونه می توانم خروجی را با استفاده از این مدل محاسبه کنم؟ با تشکر
تنظیم پارامتر در متلب لارس (کند).
25383
من مدلی دارم که با تعدادی فاکتور به عنوان متغیرهای اثر ثابت ساخته ام. تا به حال همه آنها دو مقدار داشتند به عنوان مثال. جزر و مد بالا / جزر و مد و بنابراین وقتی خلاصه را اجرا می کردم یک واریانس برای متغیر نشان می دهد (اما یک 2 در کنار مواردی که به عنوان as.factor کد شده بودند) داشت. بعد از اجرای ناگهانی یک افکت ثابت با چهار شناسه (سطح جزر و مد) لحظه‌ای داشتم و متوجه شدم که مقدار نشان‌داده شده اثری است برای شناسه دوم و اکنون البته سوم و چهارم. مسئله این است که من می‌خواستم نتایج را همانطور که در این جدول نتایج نشان داده شده است تفسیر کنم: جدول 3. تخمین‌های پارامتر میانگین مدل و مقادیر اهمیت نسبی برای متغیرهای مؤثر بر نرخ‌های علوفه‌جویی لوله‌کشی بالغ در نیوجرسی، 2007-2009. تخمین پارامتر 95% CI Intercept 11.78 10.07 13.49 Habitat Intertidal 3.97 2.45 5.49 Wrack 1.37 0.46 3.20 Ephemeral Pool 2.65 4.62 9.92 Tidal pond.27ore. 2.32 0.03 4.61 Sand flat 2.30 4.34 0.26 جزر و مد کم 3.98 3.05 4.91 زیاد 1.62 1.36 4.60 سرعت باد 0.01 0.02 0.04 توجه داشته باشید که نشان می دهد که ارزش نسبی را نشان نمی دهد. بدیهی است که آنها مدلی شبیه به این Rate Foraging~Habitat+Tide Level+Wind Speed ​​+ (1|Site) اجرا کرده بودند. (و جزر و مد یا جزر و مد در مثال بالا) من می توانم نمونه ای از نتایج خود را در اینجا به شما ارائه دهم: > testm1<-lmer(Feeding~Age+Tide+mean.catch.rate+mean.for.rate+(1|Brood), data=ABMnoD, REML=FALSE) > testm1 مدل مخلوط خطی متناسب با حداکثر احتمال فرمول: تغذیه ~ سن + جزر و مد + mean.catch.rate + mean.for.rate + (1 | Brood) داده: ABMnoD AIC BIC logLik انحراف REMLdev 350.3 366.1 -166.1 332.3 312.5 اثرات تصادفی: گروه ها واریانس نام Std.Dev. Brood (Intercept) 0.00 0.00 Residual 132.93 11.53 تعداد obs: 43, group: Brood, 7 Fixed effect: Estimate Std. خطای t مقدار (Intercept) 94.05421 5.76798 16.306 Age -0.38108 0.31678 -1.203 Tide2 2.01871 5.38376 0.375 Tide3 -4.4222874 -4.422894 -5. -13.03191 5.54832 -2.349 mean.catch.rate 0.88214 1.66752 0.529 mean.for.rate -0.09334 1.13695 -0.082 همبستگی اثرات ثابت: (Intr2Tidege: Tide2nct) سن -0.282 Tide2 -0.433 -0.133 Tide3 -0.314 -0.189 0.514 Tide4 -0.308 -0.405 0.510 0.558 men.ctch.rt 0.072 -0.205 0.230.4280. -0.236 0.070 -0.218 -0.386 -0.260 -0.956 از آنجایی که برای یافتن بهترین مدل‌های مناسب در حال اجرا بودم، نتایجی با فرمت زیر از مدل‌های مؤلفه model.avg دریافت کردم: df logLik AICc Delta Weight 3 6 - 167.43 349.19 0.00 0.55 13 7 -166.86 350.92 1.72 0.23 23 7 -166.90 351.00 1.80 0.22 کدهای اصطلاح: mean.catch.rate mean.for.rate Tide 1 2 3 ضرایب میانگین میانگین مدل: Estim. خطای z مقدار Pr(>|z|) (برق) 94.6299 5.0785 18.633 < 2e-16 *** Tide2 0.3714 5.2833 0.070 0.943965 Tide3 -6.1620 4.949 4.949 -16.4001 4.9791 3.294 0.000989 *** mean.catch.rate 0.4728 0.4387 1.078 0.281208 mean.for.rate 0.3170 0.3052 0.3052 1.0393-1.039if S. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 ضرایب میانگین مدل کامل (با انقباض): (برق) Tide2 Tide3 Tide4 mean.catch.rate mean.for. نرخ 94.629898 0.371350 -6.162041 -16.400131 0.109312 0.070415 اهمیت متغیر نسبی: (مقطع) سن mean.catch.rate mean.for.rate Tide 1.00 0.00 0.23 0.22 1.00 1.00>Dfindt % 97.5 % (Intercept) 84.6762427 104.5835534 Tide2 -9.9837967 10.7264976 Tide3 -15.8622641 3.5381824 Tide4 -26.159061. -0.3870958 1.3326081 mean.for.rate -0.2811417 0.9151314 من فقط مطمئن نیستم که چگونه مقادیر گروه اول را از هر دسته دریافت کنم
درک اینکه یک عامل در یک مدل چیست
60073
می‌خواهم اگر کسی می‌تواند به من بگوید که آیا فاصله اطمینان برای تفاوت بین دو نسبت را درست محاسبه کرده‌ام. حجم نمونه 34 نفر است که از این تعداد 19 نفر زن و 15 نفر مرد می باشند. بنابراین اختلاف نسبت ها 0.1176471 است. من فاصله اطمینان 95% را برای تفاوت بین 0.1183872- و 0.3536814 محاسبه می کنم. از آنجایی که فاصله اطمینان از صفر می گذرد، این تفاوت از نظر آماری معنی دار نیست. در زیر کارهای من در R، با نتایج به عنوان نظرات: f <- 19/34 # 0.5588235 m <- 15/34 # 0.4411765 n <- 34 # 34 تفاوت <- f-m # 0.1176471 کمتر <- different-1.96*sqrt((f*(1-f))/n+(m*(1-m))/n) # -0.1183872 upper <- different+1.96*sqrt((f*(1-f)) /n+(m*(1-m))/n) # 0.3536814
فاصله اطمینان برای تفاوت بین نسبت ها
113793
من به یک مشکل تطبیق شکل برخورد کردم و یک اصطلاحی که در مورد آن خواندم «پخت قطعی» است. من یاد گرفتم که به تبدیل مشکلات گسسته کمک می کند، به عنوان مثال. **مشکل فروشنده دوره گرد** به مشکلات مداوم برای کمک به چسبیدن به حداقل های محلی. من دقیقاً متوجه نشدم که تعریف این روش دقیقاً چیست. کسی میتونه توضیح بده؟
تعریف روش بازپخت قطعی
48833
من یک سوال نسبتاً ساده در مورد تخمین‌زن‌های چگالی هسته (چند متغیری) دارم، اما به نظر می‌رسد که پاسخ آن را در جایی پیدا نمی‌کنم: آیا این تخمین‌گرها قرار است یک تابع چگالی احتمال مناسب (ادغام با 1.0) را مشخص کنند؟ من در حال حاضر یک بسته نرم افزاری کوچک شامل برآوردگرهای چگالی هسته و به ویژه یک تخمینگر چگالی هسته محصول برای حالت چند متغیره را با استفاده از فرمول موجود در اینجا و قانون کلی اسکات برای انتخاب پهنای باند پیاده سازی می کنم. به نظر می‌رسد تخمین‌گر شکل کلی توزیع را به درستی دریافت می‌کند، اما مقادیر چگالی به وضوح چگالی احتمال کلاسیک نیستند، زیرا ادغام آن‌ها مقداری بسیار برتر از 1 را به دست می‌دهد. اگر این مقادیر درست باشد من یک سوال بعدی دارم در صورتی که برآوردگر قرار نیست چگالی احتمالی منظم را ارائه دهد: آیا راه آسانی برای تبدیل تابع برآوردگر به PDF استاندارد (یعنی عادی سازی تابع) وجود دارد؟
آیا محصولات KDE توابع چگالی مناسب هستند؟
64551
این ممکن است یک سوال ساده باشد اما من در این مشکل گیر کردم. من از بسته پارتیشن بندی بازگشتی (rpart) در R برای ساختن درخت طبقه بندی استفاده می کنم. من یک درخت از یک داده نمونه تولید کردم (برای آزمایش rpart). من داده‌های نمونه را با استفاده از فرمول rpart's fit = rpart (فرمول، داده =، روش =، کنترل =) برازش کردم این درخت طبقه‌بندی را به من داد. من می توانم خلاصه را ببینم، درخت را ترسیم کنم، نتیجه را ترسیم کنم. اما سوال من این است که چگونه می توانم از نتیجه آن برای پیش بینی استفاده کنم؟ من می خواهم یک داده ورودی به درخت ارائه کنم و می خواهم الگوریتم طبقه بندی صحیح ورودی را ارائه دهد. اما فکر می کنم کاری به درخت ندارم مگر اینکه بتوانم پیش بینی کنم. من ممکن است نتیجه را اشتباه تفسیر کنم. لطفا در این مورد به من شفاف سازی کنید.
نحوه استفاده از نتیجه rpart در پیش بینی
52165
من در حال بررسی این هستم که آیا فاکتورهای ارتفاع (3 سطح) و فاصله (3 سطح) تأثیر قابل توجهی بر نسبت ماده‌هایی دارند که توسط نرهایی که از یک منبع مرکزی تابش می‌کنند جفت می‌شوند. طرح نمونه‌برداری من به شکل یک ماتریس 3×3 با یک گیاه در هر یک از 9 تیمار فاصله ارتفاع به نظر می‌رسد. من قصد دارم از هر گیاه به تعداد مساوی از ماده ها نمونه برداری کنم تا مقدار نسبت خود را بدست بیاورم. من متوجه شدم که باید آن طرح 3x3 را تکرار کنم، اما نمی‌دانم که چگونه رگرسیون لجستیک بین 5/10 در مقابل 15/30 تمایز قائل می‌شود و آیا تعداد ردیف‌های طرح 3x3 برابر با حجم نمونه من است.
تکرار در رگرسیون لجستیک: شناسایی عوامل مهم
113797
من با تفسیر رگرسیون بتا با بسته r GAMLSS آشنا نیستم. کاغذها و دفترچه راهنمای بسته به من کمکی نکرد. من یک رگرسیون بتای متورم صفر-یک مدل کردم. متغیر y(usage) از داده های نسبت [0,1] تشکیل شده است. ![y=usage](http://i.stack.imgur.com/6LBE2.jpg) باید چهار پارامتر برای توزیع بتا (mu، sigma، nu، tau) مشخص می‌کردم. ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/rxBlN.jpg) داده های زیر خلاصه را نشان می دهد![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ ZDqVU.jpg) * * * **سوال** قصد من نشان دادن رابطه بین متغیرهای y و x است. بنابراین من یک سوال دارم: 1.) چگونه می توانم با استناد به خلاصه حدس بزنم که بیشتر یا کمتر x1، x2، x3 و x4 بر y تأثیر مثبت دارد؟ (من حدس می زنم mu فقط این امکان را تعریف می کند که y جایی بین یک و صفر است، nu: y 0 است و tau=y 1 است)
تفسیر رگرسیون بتای متورم صفر-یک با R (GAMLSS)
6802
من می خواهم چند روش انتخاب متغیر را با هم مقایسه کنم. من می خواهم این کار را با استفاده از شبیه سازی انجام دهم. من از این واقعیت آگاه هستم که این پاسخ نهایی به این سوال که کدام روش بهترین است؟ نخواهد بود، اما من فقط به دنبال یک اشاره هستم. برای انجام چنین شبیه‌سازی‌هایی به روشی برای ترسیم یک مدل خطی تصادفی نیاز دارم. آیا الگوریتم قابل قبولی برای ترسیم «مدل خطی تصادفی» وجود دارد؟ منظور من از روشی است که به خوبی پذیرفته شده است، به عنوان مثال در برخی مقالات علمی استفاده شده است. من به دنبال روش ساده بودم: 1) $n$ و $k$ را انتخاب کنید، که نشان دهنده تعداد مشاهدات و تعداد متغیرها است. 2) ماتریس تصادفی $X$ را با رسم هر عنصر با استفاده از توزیع یکنواخت $(0,1)$ ایجاد کنید. 3) پارامترها را با استفاده از توزیع یکنواخت $(0,1)$ ایجاد کنید. 4) باقیمانده ها را با استفاده از توزیع عادی $(0,\sigma^2)$ برای برخی از $\sigma^2$ انتخابی ثابت و دلخواه ایجاد کنید 5) $Y=X\beta + \epsilon$ را محاسبه کنید
مفهوم یک مدل خطی تصادفی
48837
من ANOVA اندازه گیری های مکرر دو طرفه (سطح 3 و 5) را با کنتراست های برنامه ریزی شده بعد از آن اجرا می کنم. من علاقه مند به مقایسه 1) سطوح فاکتور اول بین خود هستم (مثلاً A1B با A2B، A2B با A3B) 2) مقایسه های زوجی (مانند A1B1 و A2B4) سؤال: برخی منابع ادعا می کنند که باید اندازه افکت را برای هر کنتراست گزارش کنم. . من نمی دانم که آیا این منطقی است زیرا طراحی اقدامات تکراری است. اگر چنین است، تضادها چگونه باید محاسبه شوند؟ من فکر نمی کنم فرمول استاندارد برای d کوهن در این مورد کار کند زیرا همبستگی را در نظر نمی گیرد.
اندازه اثر در تحلیل کنتراست
60075
مشخص شده است که مجموع باقیمانده ها در مدل رگرسیون خطی صفر است. به طور مشابه $\sum e_{i}X_{i} = 0$. آیا اگر X را جایگزین Y کنیم، همین امر صادق است؟
سوال خواص رگرسیون خطی
2726
آیا راهی برای داشتن نمودار R به یک شی یا اتصال در حافظه به جای یک فایل با نام وجود دارد؟ من دوست دارم که یک سرور رسم نمودارهای زیادی را بدون رفتن به یک فایل ایجاد کند. بسته قاهره از اتصال استفاده می کند، اما به نظر نمی رسد کار کند. کاری که من می خواهم انجام دهم چیزی شبیه به این است: library(Cairo) plot.to.var <- function(data) { tc = textConnection(output, w) CairoPDF(tc) plot(data) dev.off( ) خروجی tc.close() } وقتی این کار را انجام می دهم، CairoPDF یک وصله اتصال را ذکر می کند که نمی توانم مرجعی برای آن پیدا کنم، که به من اجازه می دهد این کار را انجام دهم، حتی اگر مستندات نشان می دهد این کار من تمایل خاصی به استفاده از قاهره ندارم، فقط دیدم که در اسناد به این موضوع اشاره شده است. هر ایده ای؟
R به یک اتصال رسم می کند؟
82136
از بحث زیر چگونه ضرایب استاندارد شده را به ضرایب غیر استاندارد تبدیل کنیم؟ به نظر می رسد محاسبه ضرایب غیر استاندارد از یک رگرسیون با استفاده از متغیرهای کمکی مقیاس شده، بی اهمیت به نظر می رسد. با این حال، من در گسترش همان مفهوم به یک رگرسیون دارای یک اثر تصادفی مشکل دارم. علاقه من به پیش‌بینی مقادیر جدید از مجموعه داده‌ای است که برای ساخت مدل استفاده نشده است و با یک عامل $j$ خوشه‌بندی می‌شوند. $$ \hat{Y}_{i,j} = \beta_{0}^{'} + \sum_{i}\beta_{i}^{'}x_{i,j} + b_{j}$ $ جایی که $$ \beta_{0}^{'} = \hat{\beta_{0}} - \sum_{i} \frac{\hat{\beta_{i}}\mu_{i}}{\sigma_ {i}} \\\\[1em] \beta_{i}^{'} = \frac{\hat{\beta}_{i}}{\sigma_{i}} \\\\[1em] b_{j} \ sim N(0,\sigma_{b}^2) $$ و $\mu_{i}$ و $\sigma_{i}$ میانگین و انحراف استاندارد متغیر کمکی $i$ مورد استفاده در برازش مدل هستند. آیا اگر یک اثر تصادفی گنجانده شود، آیا معادلات بالا هنوز معتبر هستند؟ همچنین، چگونه می‌توانید $\sigma_{b}^2$ را به واحدهای خام تبدیل کنید؟ من همچنین متغیرهای کمکی مورد استفاده برای ساخت مدل را با میانگین کل مقیاس بندی می کنم، آیا این مناسب است؟
استاندارد شده به ضرایب غیر استاندارد با اثرات تصادفی؟
9779
من یک سوال در StackOverflow پرسیدم که برای آن به من پیشنهاد شد از فیلتر Kalman استفاده کنم. سوال به شرح زیر است: http://stackoverflow.com/questions/5726358/what-class-of-algorithms-reduce- margin-of-error-in-continuous-stream-of-input/5728373#5728373 > یک ماشین دارد اندازه گیری می کند و اعداد گسسته را به طور مداوم به من می دهد > مثل این: > > 1 2 5 7 8 10 11 12 13 14 18 > > بیایید بگوییم که این اندازه گیری ها می توانند 2 نقطه خاموش شوند و هر 5 ثانیه یک اندازه گیری > ایجاد می شود. من می خواهم اندازه گیری هایی را نادیده بگیرم که ممکن است > بالقوه یکسان باشند > > مانند پیوسته 2 و 3 می توانند یکسان باشند زیرا حاشیه خطا 2 است، پس چگونه > داده ها را به گونه ای تقسیم کنم که فقط اندازه گیری های متمایز را دریافت کنم، اما می خواهم > نیز وضعیتی را که در آن اندازه‌گیری‌ها به‌طور مداوم > افزایش می‌یابد، به این صورت کنترل کنید: > > 1 2 3 4 5 6 7 8 9 10 > > در این صورت اگر مدام از اعداد متوالی با اختلاف > کمتر از 2 ممکن است اندازه گیری های واقعی را از دست بدهیم. حالا چگونه می توانم فیلتر کالمن را برای حل این مشکل اعمال کنم؟ تمام مثال‌هایی که من می‌بینم تخمین‌های خطای چندگانه دارند، در حالی که من یک چیز را می‌دانم که هر اندازه‌گیری می‌تواند با یک مقدار Q خاموش باشد و همه مثال‌ها روی بردارهای چند بعدی نیز کار می‌کنند، آن بردارهای بیش از حد چندگانه.
چگونه فیلتر کالمن را روی داده های یک بعدی اعمال کنیم؟
6807
من اخیراً با مدرک کارشناسی ارشد خود در زمینه مدل سازی پزشکی و بیولوژیکی فارغ التحصیل شده ام، همراه با پیش زمینه ریاضیات مهندسی. حتی با وجود اینکه برنامه آموزشی من شامل مقدار قابل توجهی از دروس در مورد آمار ریاضی بود (برای یک لیست به زیر مراجعه کنید)، که با نمرات بسیار بالا مدیریت می کردم، اغلب در نهایت به طور کامل از نظر تئوری و کاربردهای آمار غافل می شدم. باید بگویم، در مقایسه با ریاضیات محض، آمار واقعاً برای من معنای کمی دارد. به خصوص نمادها و زبان مورد استفاده اکثر آماردانان (از جمله استادان گذشته من) به طرز آزاردهنده ای پیچیده است و تقریباً هیچ یک از منابعی که تاکنون دیده ام (از جمله ویکی پدیا) نمونه های ساده ای نداشتند که به راحتی بتوان با آن ارتباط برقرار کرد و با نظریه ارائه شده مرتبط شد. .. این پس زمینه بودن. من همچنین به این واقعیت تلخ پی می‌برم که نمی‌توانم به عنوان یک محقق/مهندس بدون تسلط محکم بر آمار، به ویژه در زمینه بیوانفورماتیک، شغلی داشته باشم. من امیدوار بودم که بتوانم نکاتی را از آماردانان/ریاضیدانان با تجربه تر دریافت کنم. چگونه می توانم بر این مشکلی که در بالا به آن اشاره کردم غلبه کنم؟ آیا منابع خوبی را می شناسید؟ مانند کتاب‌ها، کتاب‌های الکترونیکی، دوره‌های آزاد (از طریق iTunes یا OpenCourseware برای سابق) و غیره. با تشکر، **ویرایش:** همانطور که اشاره کردم من نسبت به اکثر ادبیات تحت عنوان کلی کاملاً جانبدارانه (منفی) هستم. آمار، و از آنجایی که من نمی توانم تعدادی کتاب درسی بزرگ (و گران قیمت) برای هر شاخه آمار بخرم، چیزی که از نظر یک کتاب به آن نیاز دارم چیزی شبیه به آنچه Tipler & Mosca برای فیزیک است، است، اما در عوض برای آمار برای کسانی که در مورد Tipler نمی دانند. این کتاب درسی بزرگی است که اکثریت وسیعی از موضوعاتی را که ممکن است در طول تحصیلات عالی با آنها مواجه شود را پوشش می دهد و هر کدام را از مقدمه اولیه تا کمی عمیق تر با جزئیات ارائه می دهد. اساساً یک کتاب مرجع عالی است که آن را در سال اول تحصیل در دانشگاه خریداری کردم، هنوز هم هر چند وقت یک بار از آن استفاده می کنم. * * * دوره هایی که من در مورد آمار گذرانده ام: * یک دوره مقدماتی بزرگ، * فرآیندهای تصادفی ثابت، * فرآیندهای مارکوف، * روش های مونت کارلو * تجزیه و تحلیل بقا
معانی از نظریه آمار و کاربردها
112216
من در حال ساخت یک مدل در R با استفاده از GLM بر اساس این متغیر پیش بینی هستم. همانطور که می بینید، داده ها در مرکز توزیع متمرکز می شوند و سپس به شدت سقوط می کنند. آیا تحولی برای گسترده تر کردن این توزیع وجود دارد؟ گزینه دیگری که در نظر دارم این است که با استفاده از آرگومان وزن در GLM، نقاط داده را در انتهای آن وزن کنید. آیا دلیلی وجود دارد که این ایده بد باشد؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/pQhxZ.png)
توزیع باریک داشته باشید - به توزیع استاندارد نیاز دارید
60078
در نظر بگیرید که $b_{0} = Y_1 - b_1X_1$ که در اینجا $Y_1$ و $X_1$ مقادیر میانگین برای هر یک هستند. چگونه می توانم واریانس و سایر ویژگی های $b_0$ را استخراج کنم؟ من در انجام اثبات در آمار خیلی خوب نیستم. پیشاپیش ممنون
اثبات رهگیری رگرسیون خطی
113796
من از 'QME' 'R' 'Package' استفاده می کنم (از اینجا می توانید دانلود کنید) برای محاسبه ضریب تعمیم پذیری. * * * ## MWE * * * ################################################################ مثالی که در آن همه وجوه تصادفی در نظر گرفته می شوند. مجموعه داده #بار برنان (2001) شماره 4. داده (برنان.4) سر (برنان.4) ساپلی (برنان.4، کلاس) #برآورد تعمیم پذیری مولفه های واریانس مطالعه. formula.Brennan.4 <- as.formula(امتیاز ~ (1 | شخص) + (1 | آیتم) + (1 | رتبه: آیتم) + (1 | شخص: آیتم)) gVar.out <- gVar( data.g = Brennan.4, formula.g = formula.Brennan.4) gVar.out #کامل G مطالعه. gVar.out$N <- c(3، 12، 1، 3، 12) gCoef(gVar.out) من در مورد N گیج شده ام. چگونه N را در اینجا تعیین کنیم؟ هر گونه کمک در این زمینه بسیار قدردانی خواهد شد. با تشکر
شناسایی تعداد شرایطی که بر اساس آن مولفه های واریانس در نظریه تعمیم پذیری با استفاده از بسته QME R تقسیم می شوند.
60079
من آزمایشی دارم (به شکل بازی با کلمات) که به موجب آن از مردم خواسته می‌شود مجموعه‌ای از کلمات را برای توصیف ارتباط با یک موضوع انتخاب کنند تا فرد دیگری موضوع را حدس بزند. من ترتیب انتخاب کلمات سرنخ را ثبت می‌کنم و شرکت‌کننده می‌تواند هر تعداد کلمه را که دوست دارد از یک مجموعه معین (در مدت زمان مشخص) انتخاب کند تا زمانی که شخص دیگر درست حدس بزند. برای مثال، ممکن است به شرکت‌کنندگان مجموعه‌ای از کلمات مانند {لوکس، سریع، راحت، گران، مقرون‌به‌صرفه، ضروری، مکانیکی، سرگرم‌کننده، فورد، تویوتا، و غیره... } برای توصیف مورد «ماشین» داده شود. برای هر مورد خاص حدود 60 کلمه وجود دارد که بدون محدودیت در تعداد کلماتی که ممکن است انتخاب شوند (در محدوده زمانی آزمایش). با توجه به اینکه ما از مشخصات جمعیتی (مرد یا زن) تعداد زیادی از افرادی که یک بازی را انجام داده‌اند، می‌دانیم، یعنی ماشین‌ها را چگونه توصیف می‌کنند، بهترین راه برای مدل‌سازی آن چیست؟ هدف تعیین احتمال مرد یا زن بودن یک فرد پس از انجام همان بازی است (به شرطی که در کلمات انتخاب شده توسط زن و مرد تفاوت وجود داشته باشد). من می‌دانم اگر ترتیبی که افراد کلمات خاصی را بر اساس آن انتخاب می‌کنند نامربوط باشد و تعداد کلماتی که انتخاب می‌شوند ثابت باشد، چگونه می‌توان این کار را انجام داد. در آن صورت من به سادگی می‌توانم ارتباط بین کلمات فردی و جنسیت را تعیین کنم. با توجه به اینکه ترتیب انتخاب کلمات مهم به نظر می رسد، مطمئن نیستم که چگونه به این موضوع نزدیک شوم (کلمه اول مرتبط ترین است و با تمام شدن کلمات افراد کمتر مرتبط می شوند). همچنین تعداد کلمات انتخاب شده در هر بازی متفاوت خواهد بود. من به دنبال بینشی در مورد نحوه برخورد با این مشکل هستم، زیرا برای من روشن نیست که چگونه در مورد این موضوع اقدام کنم. من مطمئن نیستم که آیا با مدل مارکوف (ردیابی فکر در حین ارائه سرنخ)، توزیع ابر هندسی چندجمله ای (از آنجایی که کلمات سرنخی در بازی جایگزین نمی شوند) مطابقت دارد یا اینکه این می تواند به سادگی اعمال وزن ها بسته به زمان ارائه یک کلمه سرنخ باشد. بازی هر گونه راهنمایی بسیار قدردانی خواهد شد.
نحوه مدل سازی توزیع یک بازی کلمات به منظور یافتن همبستگی بین جمعیت شناسی و کلمات انتخاب شده
105615
من رگرسیون SVM را روی یک مجموعه داده در مجموعه داده نقطه ذوب Karthikeyan در اینجا اعمال می کنم. من از LIBSVM برای آن استفاده می کنم. پس از اعمال رگرسیون LIBSVM ضریب همبستگی مربع اعتبار متقاطع و مقدار RMS را برمی گرداند (من فقط به مقدار 1 علاقه دارم). آیا این مقدار همان ضریب تعیین (COD) است یا مقدار مجذور _R_؟ اگر بله، در چند مورد من مقادیر بزرگتر از 1 را دریافت می کنم، اما همانطور که خوانده ام، _R_ ² یا COD بین 0 تا 1 است. لطفاً توجه داشته باشید که این مقدار توسط LIBSVM برگردانده شده است.
ضریب همبستگی مربعات متقاطع در رگرسیون SVM
106095
برای مثال، پیش‌بینی 1 میلیون می‌تواند: 1. میانگین وزنی پیش‌بینی‌های مختلف. سابق شانس 0.5 2 میلیون، 0.5 شانس 0، برای ارزش مورد انتظار 1 میلیون. یا 2. پیش‌بینی می‌تواند توزیعی با محوریت حدود 1 میلیون باشد که در آن «اوج» توزیع اتفاقاً 1 میلیون است. یا 3. این مدل می‌تواند طیفی از پیش‌بینی‌های ممکن را تعیین کند، هر کدام با احتمال خاصی، و یکی از محتمل‌ترین آنها را انتخاب کند. سابق شانس 0.5 1 میلیون، 0.3 شانس 0، و 0.2 شانس 50000 - 1 میلیون محتمل ترین است، بنابراین این پیش بینی را انجام می دهد. 4. دیگر؟ من سعی می‌کنم یک مدل پیش‌بینی (در SAS یا SPSS) برای داده‌هایی با نسبت بالایی از صفر و داده‌های پیوسته ایجاد کنم که پس از یک آستانه مشخص شروع می‌شوند. (مثلاً هر چیزی بین 0 تا 1000 0 در نظر گرفته می شود). مطمئن نیستم که برای پیش‌بینی نتایج طبقه‌بندی شده (0، نه صفر) برای ضرب در نتایج حاصل از پیش‌بینی پیوسته، مدل دومی را اجرا کنم یا خیر. اگر مدل‌ها 1 یا 2 را انجام می‌دهند، من نباید مدل دومی را برای پیش‌بینی نتایج طبقه‌بندی کنم، اما اگر مدل سوم را انجام می‌دهد، باید این کار را انجام دهم. با تشکر من کمی از عمق خودم خارج شده ام
هنگام ساخت یک مدل پیش بینی که یک نتیجه پیوسته را پیش بینی می کند، چگونه می توان به پیش بینی نهایی رسید؟
60077
نحوه یافتن برآورد حداکثر درستنمایی برای پارامتر $a$ در توزیع: $$f(x)=\begin{cases} \frac{\left| x\راست| {a ^{2} } &\text{for } x \in\left[ -a;a\right] \\\0 &\text{for } x \not\in\left[ -a;a\ راست] \end{cases}$$ من مراحل زیر را انجام دادم: $$L\left( a;x_{1},...,x_{n}\right) = \prod_{i=1}^{n } \frac{\left| x_{i}\right| }{a^{2}} = \frac{ \prod_{i=1}^{n}\left| x_{i}\right| {a^{2n}}$$ $$\ln L = -2n \ln a + \sum_{i=1}^{n} \ln \left| x_{i}\right|$$ $$\frac{\partial \ln L}{\partial a} = \frac{-2n}{a}=0$$ بعد چه باید کرد؟ به طور معمول (در مثال‌های دیگر) چیزی شبیه به این دریافت کردم: $c*=\frac{1}{\overline{X}}$ که در آن $c*$ برخی از پارامترهای تخمینی است، اما در اینجا من $a*=\infty را دریافت خواهم کرد. $، که IMO اشتباه است.
برآورد حداکثر احتمال برای پارامتر $a$
9775
یک قاب داده داده می شود: d1 <-c(A، B، C، A) d2 <-c(A، V، C، F) d3 < -c(B، V، E، F) d4 <-c(A، B، C، A) data.frame(d1,d2,d3, d4) d1 d2 d3 d4 1 A A D A 2 B V B B 3 C C C 4 A F A A همچنین با توجه به اینکه هر ردیف ممکن است یک الگوی منحصر به فرد داشته باشد به طوری که وقوع مقادیر A,D,A (ردیف اول) نشان دهنده یک الگوی منحصر به فرد است که به کلاس 1 و آخرین F,A,A اختصاص داده شده است. ردیف همچنین نشان دهنده یک الگوی منحصر به فرد است که به کلاس 4 اختصاص داده شده است. من می خواهم چارچوب داده را برای جستجوی ردیف هایی که حاوی چنین الگوهای منحصر به فردی هستند دستکاری کنم. و ستون جدیدی را برگردانید که آنها را طوری طبقه بندی می کند که 0 نشان دهنده ردیف هایی است که هیچ یک از الگوها را ندارند. الگو باید دقیقاً همانطور که نشان داده شده است رخ دهد. d1 d2 d3 d4 class 1 A A D A 1 2 B V B B 0 3 C C C C 0 4 A F A A 4 من سعی کردم با استفاده از بسته sqldf از دستور select با واجد شرایط concat استفاده کنم، اما رویکرد مفیدی ارائه نمی دهد. من از ایده هایی در مورد نحوه انجام جستجو یا وجود بسته های مرتبط برای انجام این نوع جستجو سپاسگزارم. متشکرم
دستکاری و جستجوی چارچوب های داده
105619
من از R در RStudio در OS X نسخه استفاده می کنم. 10.9.2 در 1.7 گیگاهرتز Intel Core i7 با 8 گیگابایت رم. من سعی می کنم یک دستور PCA ('prcomp') را اجرا کنم و روی یک مجموعه داده با تقریباً 200000 سطر و 8 ستون رسم کنم. اعلان برنمی گردد و اکثر نمودارها نمایش داده نمی شوند (آنها روی مجموعه داده های کوچک 300 ردیفی کار می کنند). آیا از ابزار اشتباهی برای کار استفاده می کنم (R، سخت افزار)؟ آیا من کار دیگری را اشتباه انجام می دهم؟ پیشنهاد خوبی دارید؟
فرمان PCA زمان اجرای غیرعملی طولانی در R RStudio
9774
سال‌هاست که من تست‌های t را در مورد پاسخ به فعالیت پستی انجام می‌دهم. اخیراً با من به چالش کشیده شد که ما باید در واقع به جای پاسخ، آزمایش هایی را روی سود انجام دهیم. بنابراین، اجازه دهید این را در چارچوب قرار دهم. اگر دو گروه مشتری با حجم نمونه 10000 نفری دارید که دو پیشنهاد مختلف را پست کرده اید. یکی از کالاها (گروه الف) تحویل رایگان دریافت می کند و یکی 25 درصد تخفیف برای خرید بعدی (گروه ب) دریافت می کند. و فرض کنید دو گروه به صورت زیر پاسخ دادند. * گروه a - 10٪ از 10،000 مشتری پست شده پاسخ دادند * گروه b - 15٪ از 10،000 مشتری پست شده پاسخ دادند من یک آزمون t بر روی نرخ پاسخ (10٪ و 15٪) انجام خواهم داد، که درست است. از من خواسته شده است که آزمایشی در مورد سودآوری انجام دهم که تمایلی به انجام آن ندارم. دوباره برای قرار دادن این موضوع: * گروه a - سود 1 پوندی به ازای هر مشتری ارسال شده (یعنی 10000 پوند) * گروه ب - سود 1.50 پوندی به ازای هر مشتری ارسال شده (یعنی 15000 پوند) از من خواسته شده است که این کار را انجام دهم. سود 1 پوندی و 1.50 پوندی را آزمایش کنید، اما نگرانی من این است که عوامل متغیر زیادی وجود دارند که به سود نهایی کمک می کنند. ارقام، به عنوان مثال، حاشیه، هزینه پستی که مشتری دریافت کرده است و غیره، که واقعاً هنگام تنظیم گروه ها در نظر گرفته نمی شوند. آیا فکر می‌کنم برای این سناریوی خاص که آزمایش سود کار درستی نیست، در عوض آن‌طور که در حال حاضر انجام می‌دهیم بر روی پاسخ آزمایش کنید و سپس هنگام تصمیم‌گیری تجاری نهایی، تمام هزینه‌های متغیر دیگر را در نظر بگیرید؟
با توجه به دو پاسخ برای دو گروه، چگونه تصمیم بگیریم که چه چیزی را روی پاسخ یا سود آزمایش کنیم؟
95503
من یک مجموعه داده بزرگ بر اساس چندین هزار نظرسنجی دارم که هر کدام از صدها سؤال تشکیل شده است. من می خواهم یک درخت طبقه بندی را به صورت نیمه خودکار به صورت زیر تشکیل دهم. هر گره درخت می تواند موارد را بر اساس **تنها سوال** (که ممکن است چندین پاسخ ممکن داشته باشد) تقسیم کند. من می‌خواهم درخت را به‌صورت دستی بسازم، اما می‌خواهم نرم‌افزار در هر مرحله پیشنهاد کند که کدام سؤال می‌تواند داده‌ها را به بهترین شکل تقسیم کند[1]، و به من اجازه می‌دهد یکی را برای استفاده انتخاب کنم. (به عنوان مثال، ممکن است تصمیم بگیرم که تقسیم موارد بر اساس جنسیت پاسخ‌دهنده جالب نیست، حداقل در سطح بالا، بنابراین سؤال دیگری را برای گره ریشه درخت انتخاب می‌کنم). دو سوال * آیا نرم افزاری (ترجیحا رایگان) وجود دارد که این کار را انجام دهد؟ * آیا نرم افزاری وجود دارد که بتواند این کار را بدون نیاز به متغیر هدف انجام دهد؟ (که به نظر می رسد اکثر الگوریتم های درخت تصمیم به آن نیاز دارند) [1] من می دانم که «بهترین» در اینجا مبهم است. با خیال راحت راه‌های مختلفی را پیشنهاد کنید که ممکن است به تصمیم‌گیری در مورد «بهترین» علاقه داشته باشم، اگرچه احتمالاً با در دسترس بودن نرم‌افزاری که هر روشی را اجرا می‌کند هدایت می‌شوم. **به روز رسانی** عنوان و سوال را بر اساس پاسخ های اولیه تغییر دادم.
نرم افزار برای ساخت درخت تصمیم گیری کمکی
112213
در نجوم (و مطمئنم در جاهای دیگر نیز) استفاده از برش سیگما به عنوان طرح رد پرت بسیار رایج است. ایده این است که داده‌ها را رگرسیون کنید، تناسب را از نقاط کم کنید، و سپس تمام نقاط با باقیمانده‌هایی را که از چند برابر سیگما بیشتر از انحراف استاندارد یا انحراف مطلق میانه هستند، رد کنید. سوال من: آیا روش خوبی برای انتخاب خودکار سیگما بر اساس داده ها وجود دارد؟ من نقاطی دارم که مشاهدات با کیفیت بسیار بالایی دارند -- اندازه گیری ممکن است 15 قدر باشد و خطا در اندازه گیری چیزی در حدود 0.000001 است -- و برخی با مشاهدات با کیفیت بسیار پایین تر -- خطا در حدود 0.05 است. من فکر می‌کنم که برای این موارد مختلف، مقادیر متفاوتی از سیگما می‌خواهند. هر ایده ای؟ اکتشافی برای اهداف من خوب است.
چگونه هنگام برش سیگما، سیگما را انتخاب کنیم؟
105613
سلام، من یک تحلیلگر داده در یک سازمان غیرانتفاعی هستم و برای ایجاد یک «مدل امتیاز دهی دهنده» به کمک نیاز دارم تا به ما کمک کند اهداکنندگان بالقوه «خوب» را شناسایی کنیم. من سعی می کنم با شناسایی متغیرهای بالقوه برای اهداکنندگان در پایگاه داده اهداکنندگان خود و تخصیص امتیازهای وزنی برای هر متغیر، یک مدل امتیازدهی اهداکننده بسازم، به طوری که مجموع امتیازات وزنی می تواند به ما نشان دهد که یک اهداکننده چقدر خوب است ( روشی که من در حال اندازه گیری میزان خوب بودن زمان تنظیم شده کل اهدای $:=$ کل مبلغ اهدا شده/تعداد ماه ها به عنوان اهدا کننده هستم). به عنوان مثال، من 4 عامل را شناسایی کرده‌ام که ممکن است با کل اهدای تعدیل‌شده زمان ارتباط داشته باشند: تاریخ تولد، ایمیل، شماره تلفن و فرزندان. اگر ما این اطلاعات را در مورد اهداکننده داشتیم، اگر این اطلاعات را نداشتیم به آنها 1 و 0 دادم. کاری که من در ابتدا انجام دادم این بود که ضریب همبستگی هر متغیر را با کل اهدای تعدیل شده زمانی محاسبه کردم و سپس وزن هر متغیر را بر اساس ضریب همبستگی تنظیم کردم. به عنوان مثال، عامل 'فرزندان' دارای ضریب همبستگی 0.3 بود، بنابراین من نمره 30 دادم، در حالی که تاریخ تولد دارای ضریب همبستگی 0.02 بود، بنابراین من به آن نمره 2 دادم. سپس این نمرات را برای هر متغیر جمع کردم. ، ضریب همبستگی را برای نمره کل محاسبه کردم. سپس به صورت دستی نمرات را تنظیم کردم تا سعی کنم بالاترین ضریب همبستگی را برای نمره کل بدست بیاورم. بنابراین سوال من این است: **آیا این یک رویکرد معقول برای ایجاد یک سیستم امتیازدهی ساده است؟** آیا راه بهتری برای بهینه سازی روشی که من نمرات را برای بدست آوردن بهترین ضریب همبستگی کلی تنظیم می کنم وجود دارد؟ **یا باید از رگرسیون چندگانه برای استفاده از متغیرها برای پیش بینی کل اهدای تعدیل شده در زمان استفاده کنم؟** (من از این استفاده نکرده ام، زیرا متغیرهای من مقادیر متنوعی ندارند، فقط 1 یا 0 برای اینکه آیا یا ما آن اطلاعات را برای اهداکننده نداریم). هر گونه بینش یا راهنمایی در مورد جایی که می توانم بیشتر بیاموزم بسیار قدردانی خواهد شد.
آیا باید از ضریب همبستگی یا رگرسیون خطی چندگانه برای ساخت این مدل امتیازدهی استفاده کنم؟
24160
من مجذور خی 0.1185 با 1 درجه آزادی دارم. چگونه می توانم مقدار P را تعیین کنم؟
نمی توان مقدار P را تعیین کرد
93461
هنگامی که در مورد داده های طولی صحبت می کنیم، ممکن است به داده های جمع آوری شده در طول زمان از یک موضوع / واحد مطالعه به طور مکرر اشاره کنیم، بنابراین همبستگی هایی برای مشاهدات در همان موضوع وجود دارد، به عنوان مثال، شباهت درون موضوعی. هنگام صحبت در مورد داده های سری زمانی، ما همچنین به داده های جمع آوری شده در یک سری زمان اشاره می کنیم و به نظر می رسد بسیار شبیه به تنظیمات طولی ذکر شده در بالا باشد. من نمی دانم اگر کسی می تواند توضیح واضحی بین این دو اصطلاح ارائه دهد، چه رابطه ای با هم دارند و چه تفاوت هایی دارند؟
تفاوت بین اصطلاحات تحلیل سری زمانی و تحلیل داده های طولی چیست؟
112214
من سعی می کنم معادلات ساختاری را با دو متغیر نهفته مرتبه دوم و پنج متغیر پنهان مرتبه اول انجام دهم (از آنجایی که یک تصویر هزار کلمه ارزش دارد مدل خود را در زیر چسباندم). برای اجرای صحیح SEM، مراحلی را که در کتابی توسط باربارا برن (2010) توضیح داده شده است، دنبال می‌کنم. سوالات من این است: 1. آیا معقول است که واریانس باقیمانده های فاکتور مرتبه اول (res_F1--res_F5) را به 1 اصلاح کنیم؟ 2. آیا انتخاب کلاس مرجع (برای تنظیم وزن رگرسیون به 1) بسیار مهم است؟ زیرا، گاهی اوقات من برخی از نتایج را دریافت می کنم یا گاهی اوقات AMOS می گوید که واریانس res_F4 منفی است، که من نمی دانم چگونه آن را تفسیر کنم. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/qMShv.jpg)
واریانس SEM باقیمانده به 1 ثابت شد؟
105611
با عرض پوزش، زیرا این سوال از یک تازه کار است و قطعاً بسیاری از جزئیات مورد نیاز را برآورده نمی کند. از این رو، راهنمایی شما در ارائه اطلاعات صحیح برای پاسخگویی کافی به سوال من ممکن است اجتناب ناپذیر باشد. خلاصه ای از آنچه در حال حاضر ذهن من را آزار می دهد. من مجموعه داده ای را از یکی از همکارانم دریافت کرده ام که شامل حدود 5000 بیمار است و ما در تلاش هستیم تا تعیین کنیم که چگونه یک درمان اولیه بر متغیرهای پیامد مختلف تأثیر می گذارد. برخی از اینها مقوله ای (با 3 سطح) و برخی پیوسته هستند. متغیر طبقه‌ای در حال حاضر کمترین نگرانی من است، زیرا تا آنجا که می‌توانم بگویم، باید رگرسیون چند متغیره را انجام دهم، شاید با استفاده از MANOVA، ببینم این متغیر وابسته چگونه تحت تأثیر سایر متغیرهای مستقل قرار می‌گیرد. اکنون آنچه واقعاً مرا آزار می دهد توزیع داده های پیوسته است. این داده‌ها شامل داده‌های کلاسیک «شمارش» (تعداد دفعاتی که پس از درمان به پزشک مراجعه شده است) است، اما سپس حاوی «زمان برای بهبودی» است. داده های شمار یک توزیع پواسون را فرض می کنند، اما در این مورد var>mean ... بنابراین شاید شبه پواسون مناسب تر باشد. توزیع آن داده های شمار در شکل 1 نشان داده شده است. برخی افراد استدلال می‌کنند که این به مدل‌سازی رگرسیون خطی نیاز دارد، اما چیزی که نمی‌توانم به آن فکر کنم این است که زمان بهبودی نمی‌تواند صفر باشد یا اعداد منفی را بگیرد. و اگر کسی به توزیع داده ها نگاه کند، بسیار بیشتر از هر چیز دیگری پواسون به نظر می رسد (شکل 2). بنابراین آیا این در واقع به رگرسیون پواسون نیاز دارد؟ همچنین از نظر بیولوژیکی، زمان بهبودی احتمالاً کاملاً خطی نیست، بلکه بیشتر در امتداد آنچه در رشد کشت سلولی می‌بینیم، الگوی تصاعدی‌تری دارد و یک فاز خطی در آن وجود دارد. ![شکل 2](http://i.stack.imgur.com/ALZ2d.png) یا - و این من را به سوالی که در عنوان من است می رساند - به دلیل اندازه مجموعه داده، که نسبتاً بزرگ است، می توان می گوییم قضیه حد مرکزی درست است و من نباید نگران توزیع داده باشم؟ واضح است که نقشه های من به من می گوید که دارم، نه؟!؟ اگر من داده‌هایم را تبدیل کنم، همه چیز کاملاً خوب به نظر می‌رسد (شکل 3)... اما آیا یک مدل خطی کافی است زیرا مقادیر نمی‌توانند منفی یا صفر باشند؟ ![شکل 3](http://i.stack.imgur.com/jkUgY.png) من باقیمانده های یک مدل رگرسیون خطی را برای زمان بهبود داده ها در شکل 4 ترسیم کرده ام، که نشان می دهد دم ها انجام نمی دهند. واقعاً به خطی بودن پایبند باشید. سپس با استفاده از رگرسیون پواسون، باقیمانده های رگرسیون را رسم کردم (شکل 5). سپس بقایای یک مدل رگرسیون خطی با استفاده از تبدیل log (شکل 6). ![شکل 3 - مدل خطی](http://i.stack.imgur.com/eGQTO.png) ![شکل 4 - مدل پواسون](http://i.stack.imgur.com/HSpd1.png) ![شکل 6 - مدل خطی تبدیل شده لاگ](http://i.stack.imgur.com/A0OQP.png) فقط با نگاه کردن به آنچه در اینجا دارید، اطلاعات بیشتری نیاز دارید؟ آیا من در اینجا مسیر کاملاً اشتباهی را طی می کنم؟ و اگر منحنی نمایی را برای بهبود زمان در نظر بگیریم، برای اصلاح آن در فرآیند مدلسازی خود چه باید بکنم؟ و فقط به خاطر قاعده اعداد، آیا می‌توانم از این همه فکر صرف نظر کنم و به سادگی فرض کنم که CLT درست است؟ من در این زمینه بسیار تازه کار هستم، بنابراین هر گونه راهنمایی بیش از حد استقبال می شود. امیدوارم که وقت کسی را تلف نکرده باشم و اگر اطلاعات مهمی را در اینجا پست نمی کنم عذرخواهی می کنم. خوشحالم که یاد می‌گیریم، چه چیزی بیشتر مورد نیاز است.
در برخورد با توزیع غیر عادی در مجموعه داده های بزرگ، چه زمانی CLT را بیرون می اندازیم؟
107718
من یک بردار از فرکانس های مشاهده شده دارم که در برخی سلول ها مقادیر صفر دارند و یک بردار فرکانس های مورد انتظار تولید شده توسط یک مدل. من می‌خواهم به جای آزمون مجذور خی، یک آزمون نسبت درستنمایی انجام دهم، زیرا مدل‌های تودرتو متفاوتی دارم و می‌خواهم از تفاوت $2 \ln\cal{L}$ برای ارزیابی مدل‌ها استفاده کنم. سوال من این است که چگونه با سلول های صفر برخورد کنیم؟ آیا حذف سهم از سلول 0 مانند R-code زیر معقول است؟ یا باید سلول ها را ترکیب کنم یا تصحیح تداوم انجام دهم؟ مثال: مشاهده شده <- c(142,34,18,15,12,136,6,7,2,3,2,1,1,0,2) مورد انتظار <- c(141.99,53.33,32.59,23.66,18.78, 15.77،13.75،12.33،11.3،10.54، 9.98،9.57،9.29،9.1،9.02) 2 * (جمع (مشاهده شده * ورود به سیستم (مشاهده/مورد انتظار)، na.rm=TRUE)) [1] 455.8816
آزمون نسبت درستنمایی خوب بودن برازش با مقادیر صفر
93807
من سعی می‌کنم انتخاب‌های دانش‌آموزان را برای مطالعه سالی به سال مدل‌سازی کنم و فکر می‌کردم که HLM راهی برای رفتن است، با این حال من در چگونگی پیشرفت دچار مشکل شده‌ام. متغیری که من سعی می کنم پیش بینی کنم دارای 3 دسته است - فعال، تکمیل شده یا متوقف شده. من می‌خواهم تأثیر کلاس آنها، میزان مطالعه آنها (در سال) و اینکه آیا آنها دانشجوی تمام وقت یا پاره وقت هستند را بر روی این متغیر بیابم و ارزیابی کنم که چه درصدی از دانشجویان در هر گروه برای هر دانشکده در هر سال قرار می‌گیرند. (برای دانشجویان پاره وقت و تمام وقت). این مشکل من را به یاد نمونه کلاسیک HLM از نمرات آزمون‌های مختلف می‌اندازد، بنابراین من فرض کردم که HLM در این مورد نیز کاربرد دارد. اگر قدم اول را در جهت اشتباه برداشته‌ام، لطفاً به من اطلاع دهید. تلاش های من تاکنون در R با استفاده از بسته lme4 و lmer بوده است. من مثال زیر را از مشکل خود ایجاد کرده ام. من سعی کرده ام روابط مورد انتظار را تکرار کنم، اگرچه فقط به صورت خام - من واقعاً فقط سعی می کنم قالب داده هایی را که با آنها کار می کنم نشان دهم. library(lme4) class = rep(LETTERS[1:5]، هر = 20) P_F_time = نمونه (c(P، F)، 100، جایگزین = TRUE) سال = نمونه (1:7، 100، جایگزین = درست) برای (i در 1:100){ x = runif(1) if(سال[i] < 3){گزینه[i] = فعال بعدی } if(x < 0.25){ Choice[i] = Discont }else{ Choice[i] = کامل } } data = data.frame(کلاس، سال، انتخاب، P_F_time) fit = lmer(انتخاب ~ P_F_time + سال + (1 + P_F_time + سال | کلاس)، داده = داده) آیا این مدل رابطه ای را که توضیح دادم نشان می دهد؟ اگر چنین است - چگونه می توانم نتایج را به گونه ای مشاهده کنم که انتخاب های نسبی برای هر دانشکده در هر سال برای دانشجویان تمام وقت و پاره وقت را نشان دهد؟ همانطور که در بالا ذکر شد. از آنجایی که این زمینه ای است که من با آن آشنا نیستم، لطفاً در صورت نیاز اطلاعات یا توضیح بیشتری بخواهید. ممنون سام
مدلسازی انتخاب سلسله مراتبی
63527
مدل $Y = b_0 + b_1 x_1 + b_2 x_2 + \epsilon$ را در نظر بگیرید، که در آن ستون‌های $x_1$ و $x_2$ ماتریس طراحی دارای میانگین 0 و طول 1 هستند. یعنی $x_i' x_i = 1$، و $x_i' J = 0$، برای $i = 1، 2$، که $J$ یک بردار است که تماماً از یکها تشکیل شده است. فرض کنید $p$ همبستگی بین $x_1$ و $x_2$ باشد. نشان دهید که $$\begin{align}X'X & = \begin{pmatrix} n & 0 & 0 \\\ 0 & 1 & p \\\ 0 & p & 1 \end{pmatrix} \end{align } . $$ **من به راحتی می توانم آن را به صورت عددی با ماتریس $3 \times 3$ نشان دهم: $$\begin{align}X & = \begin{pmatrix} 1 & -\sqrt{.5} & -\sqrt{. 5} \\\ 1 & 0 & 0 \\\ 1 & \sqrt{.5} & \sqrt{.5} \end{pmatrix} \end{align} . $$ با این حال، من مطمئن نیستم که چگونه این را فراتر از $3 \times 3$ تعمیم دهم (به عنوان مثال، $10 \times 3$). هر گونه راهنمایی قدردانی خواهد شد. **
همبستگی نمادگذاری ماتریس حداقل مربعات
109710
من به مجموعه داده‌های R زیادی، پست‌ها در DASL و جاهای دیگر نگاه کرده‌ام، و نمونه‌های خیلی خوبی از مجموعه داده‌های جالب که تجزیه و تحلیل کوواریانس برای داده‌های تجربی را نشان می‌دهند، پیدا نکردم. مجموعه داده های «اسباب بازی» متعددی با داده های ساختگی در کتاب های درسی آماری وجود دارد. ** من می خواهم مثالی داشته باشم که در آن: ** * داده ها واقعی هستند، با یک داستان جالب * حداقل یک عامل درمانی و دو متغیر کمکی وجود دارد * حداقل یک متغیر کمکی تحت تأثیر یک یا چند عامل درمان قرار می گیرد. و یکی تحت تاثیر درمان ها قرار نمی گیرد. * تجربی به جای مشاهده، ترجیحا ## پس زمینه هدف واقعی من پیدا کردن یک مثال خوب برای قرار دادن در تصویر برای بسته R من است. اما یک هدف بزرگتر این است که مردم برای نشان دادن برخی نگرانی های مهم در تحلیل کوواریانس باید نمونه های خوبی ببینند. سناریوی ساختگی زیر را در نظر بگیرید (و لطفاً درک کنید که دانش من از کشاورزی در بهترین حالت سطحی است). * ما آزمایشی را انجام می دهیم که در آن کودها به صورت تصادفی در کرت ها قرار می گیرند و یک محصول کاشته می شود. پس از یک دوره رشد مناسب، محصول را برداشت می کنیم و برخی از ویژگی های کیفی را اندازه می گیریم - این متغیر پاسخ است. اما ما همچنین کل بارندگی در طول دوره رشد و اسیدیته خاک در زمان برداشت را ثبت می کنیم -- و البته کود مورد استفاده. بنابراین ما دو متغیر کمکی و یک درمان داریم. روش معمول برای تجزیه و تحلیل داده‌های حاصل، برازش یک مدل خطی با درمان به عنوان یک عامل، و اثرات افزایشی برای متغیرهای کمکی است. سپس برای جمع‌بندی نتایج، «میانگین تعدیل‌شده» (میانگین حداقل مربعات AKA)، که پیش‌بینی‌هایی از مدل برای هر کود است، در میانگین بارندگی و ۳ میانگین اسیدیته خاک محاسبه می‌شود. این همه چیز را در موقعیتی مساوی قرار می دهد، زیرا وقتی این نتایج را مقایسه می کنیم، میزان بارندگی و اسیدیته را ثابت نگه می داریم. اما احتمالاً این کار اشتباهی است - زیرا کود احتمالاً بر اسیدیته خاک و همچنین واکنش تأثیر می گذارد. این باعث می شود معنی تنظیم شده گمراه کننده باشد، زیرا اثر درمان شامل اثر آن بر اسیدیته است. یکی از راه‌های رسیدگی به این موضوع، حذف اسیدیته از مدل است، سپس ابزارهای تنظیم‌شده با بارندگی، مقایسه‌ای منصفانه را ارائه می‌دهند. اما اگر اسیدیته مهم باشد، این انصاف هزینه زیادی دارد، یعنی افزایش تغییرات باقیمانده. راه هایی برای حل این مشکل وجود دارد که با استفاده از یک نسخه تنظیم شده از اسیدیته در مدل به جای مقادیر اصلی آن، کار کنید. به‌روزرسانی آینده بسته R من **lsmeans** این کار را کاملاً آسان می‌کند. اما من می خواهم یک مثال خوب برای نشان دادن آن داشته باشم. من از هر کسی که بتواند مجموعه داده های گویا خوب را به من معرفی کند، بسیار سپاسگزار خواهم بود، و به درستی قدردانی خواهم کرد.
نمونه داده خوب مورد نیاز با متغیر کمکی تحت تأثیر درمان‌ها
112219
فرض کنید من یک بردار پاسخ و یک طرح ANOVA دارم (برای سادگی، فرض کنید که یک ANOVA یک طرفه با دو درمان است). چند مدل خطی تعمیم یافته (پواسون، دوجمله ای منفی و غیره) به داده ها برازش داده شده اند. این کار به طور جداگانه برای هر یک از واحدهای آزمایشی K انجام می شود. هر واحد یک بردار پاسخ متمایز دارد، اما ماتریس طراحی در بین واحدها یکسان است. چند راه برای تصمیم گیری برای استفاده از GLM خاص (یعنی توزیع پاسخ) برای هر واحد وجود دارد. به عنوان مثال می توان گفت که انتخاب توسط AIC به طور جداگانه برای هر واحد تعیین می شود. ظاهراً، استفاده از چنین GLM مخصوص واحد، تعداد بیشتری از پارامترهای مؤثر را به همراه دارد، بنابراین ممکن است استفاده از GLM یکسان برای همه واحدها به طور کلی بهتر عمل کند. مشکل این است که هیچ اثر درمانی در هیچ یک از واحدها وجود ندارد، بنابراین من نمی توانم یک منحنی ROC بسازم زیرا نیاز به داشتن هر دو مثبت واقعی و منفی واقعی دارد، و اولی در اینجا وجود ندارد. آنچه من می توانم و انجام خواهم داد این است که بررسی کنم آیا اندازه آزمایش حفظ شده است (یعنی یک استراتژی خوب باید منجر به فراخوانی حدود 5٪ از واحدها در هنگام آزمایش اثر درمان با مقدار p-value = 0.05 شود). من نمی دانم که آیا می توان آزمایش مستقیم تری و خارج از نمونه انجام داد. توجه داشته باشید که مقدار پاسخ پیش‌بینی‌شده بدون توجه به اینکه GLM از چه چیزی استفاده می‌شود، برابر با میانگین سلول مربوطه است. بنابراین، من باید دقت پیش‌بینی پاسخ آینده را مقایسه نکنم، بلکه دقت پیش‌بینی واریانس پاسخ یا برخی آمارهای دیگر را مقایسه کنم. به عنوان مثال فرض کنید برای هر واحد من 20 مشاهده در هر درمان دارم. من از 10 مشاهده در هر درمان برای تناسب چند GLM استفاده می کنم. هر GLM تخمینی از واریانس پاسخ را در هر سلول تولید می کند. با استفاده از نیمه دیگر نمونه، واریانس مشاهده شده در هر سلول و اختلاف بین مقادیر مشاهده شده و پیش بینی شده را محاسبه می کنم. معیارهای مغایرت در تمام واحدها خلاصه می شود. اگر قبلاً چنین چیزی دیده اید، لطفاً پیشنهادات و منابع را ارائه دهید. ممنون، جیمز
آزمایش بخش واریانس یک مدل خطی تعمیم یافته خارج از نمونه
37368
یکی از دوستان من مدل های $k$ از مخلوط کن می فروشد. برخی از مخلوط کن ها بسیار ساده و ارزان هستند، برخی دیگر بسیار پیچیده و گران تر هستند. داده های او برای هر ماه شامل قیمت های هر مخلوط کن (که توسط خودش تعیین می شود) و تعداد واحدهای فروخته شده برای هر مدل است. برای ایجاد مقداری نماد، او ماه ها $j=1,\dots,n$ بردارهای $$ (p_{1j},\dots,p_{kj}) \qquad \textrm{and} \qquad (n_{1j) را می‌داند. },\dots,n_{kj}) \, , $$ که $p_{ij}$ قیمت مخلوط کن مدل $i$ در طول ماه $j$ است و $n_{ij}$ تعداد واحدهای فروخته شده مخلوط کن مدل $i$ در طول ماه $j$ است. با توجه به داده‌ها، او می‌خواهد قیمت‌های $(p^*_1,\dots,p^*_k)$ را تعیین کند که ارزش فروش آینده مورد انتظار او را به حداکثر می‌رساند. من ایده هایی در مورد چگونگی شروع مدل سازی این مشکل با نوعی رگرسیون پواسون دارم، اما واقعاً نمی خواهم چرخ را دوباره اختراع کنم. همچنین خوب است ثابت کنیم که حداکثر مطلوب در شرایط خاصی وجود دارد. آیا کسی می تواند به من اشاره کند به ادبیات این نوع مشکل؟
مشکل بهینه سازی