_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
62455
به دلیل برخی وظایف A/B، باید چند تست برای نسبت ها در R انجام دهم. من می دانم که با توجه به s1، sc تعداد موفقیت دو نمونه و n1، nc تعداد کل آزمایش ها، می توانم این کار را برای H0 انجام دهم: s1/n1 = sc/nc prop.test(c(s1, sc), c (n1, nc), conf.level=.95, correct=FALSE, alternative='two.sided') برای بدست آوردن فاصله اطمینان اختلاف p1 - pc (زمانی که p=s/n) و p-value. اگر من نیاز به آزمایش H0 داشته باشم چه می شود: p1 - pc <= 0؟ من این را امتحان کردم اما مطمئن نیستم درست باشد: prop.test(c(s1, sc), c(n1, nc), conf.level=.95, correct=FALSE, alternative='greater') اشکالی ندارد برای بررسی از این طریق؟ چگونه می توانم آمار آزمون را با فرض واریانس تلفیقی محاسبه کنم؟
چگونه یک تست یک طرفه برای نسبت در R بسازیم
90237
در اینجا گزیده ای از یک سوال کتاب آمده است: > روش فاصله t فرض می کند که توزیع اساسی > تقریباً نرمال است. اگر بخواهیم 800 نمونه با اندازه نمونه 15 > از این توزیع نمایی و محاسبه بازه های t 95 درصد تولید کنیم، نسبت بازه هایی که میانگین واقعی 900 را در بر می گیرند چقدر > است؟ آیا این همان چیزی است که شما انتظار دارید؟ توضیح دهید. در اینجا کد R برای 800 نمونه آمده است. sims = 800 n = 15 نمونه نمونه <- replicate(sims, rexp(n, rate = lambda)) mu = 1/lambda نتایج <- as.numeric(sims) t.int <- matrix(FALSE, sims, 2) برای (i در 1:sims) { t.int[i, ] <- t.test(samples[, i], conf.level = 0.95)$conf.int نتایج[i] <- t.int[i, 1] < mu & t.int[i, 2] > mu } sum(نتایج)/sims خروجی هر بار تغییر می‌کند اما تعداد کمی 0.9175 هستند، 0.91، 0.905، 0.925 سؤال من این است که من واقعاً نمی‌فهمم که «تناسبی از فواصل که میانگین واقعی را در بر می‌گیرد» به چه معناست. 900 چگونه می توانم بفهمم این چه می پرسد و چه پاسخی دارد؟ آیا می پرسد که نتیجه R در یک مقدار مشخص چند برابر است؟ آیا قرار است کد را چندین بار با sims = 900 اجرا کنم و کمترین و بیشترین عدد را برای یک محدوده پیدا کنم؟
نسبت فواصل از روش t-interval
19592
بهترین روش آماری برای تجزیه و تحلیل نتایج تک باشگاهی فوتبال (فوتبال)؟ من تمام نتایج بیش از 100 سال را به ترتیب تاریخ دارم. آیا روش شناخته شده یا توصیه شده ای برای تجزیه و تحلیل نتایج، ایجاد نوعی ضریب برای کمک به پیش بینی نتایج یا حداقل نشان دادن پیشرفت +/- بر اساس هر نتیجه وجود دارد؟ بابت نوب معذرت میخوام
بهترین روش آماری برای تجزیه و تحلیل نتایج تک باشگاهی فوتبال (فوتبال).
94441
من سعی می کنم متغیرهای طبقه بندی را با بیش از دو کلاس تفسیر کنم. برخی از آنها قابل توجه هستند در حالی که سایر کلاس ها مهم نیستند. از بی اهمیت ها چه چیزی می توانم استنباط کنم؟ آیا این بدان معناست که موارد ناچیز و مقوله مرجع به یک اندازه بر متغیر وابسته تأثیر می گذارند؟ برای مثال: ETHNICITY (رده مرجع - هندی) سایر آسیایی: Sig = 0.273 exp(b) = 1.123 آفریقایی: Sig = 0.000 exp(b) = 0.148
نحوه تفسیر متغیرهای طبقه بندی ناچیز برای رگرسیون لجستیک
62183
من در حال نوشتن یک پایان نامه کارشناسی در مورد طبقه بندی رسمی جملات در انگلیسی از طریق نمایش ضمایر رسمی از متون خارجی (به عنوان مثال فرانسوی tu/vous) به انگلیسی (شما) هستم. واقعاً مرتبط نیست، پس به آن فکر نکنید. بنابراین می‌خواهم از LDA (تخصیص دیریکله نهفته) در بخش بزرگ‌تری از کلمات، یعنی جملات استفاده کنم. در حال حاضر من فقط از LDA دارای برچسب استفاده می کنم که در آن یک سند یک جمله دارای برچسب واحد است. بنابراین من به طور کامل زمینه را نادیده می گیرم که برای این کار واقعاً مهم است. در حال حاضر من دو ایده برای یک جمله نظارت شده LDA دارم: * بر اساس SLDA: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/nn82I.png) بر اساس چن (2010) اقتباس از موضوع مدل سازی جملات با مجموعه برچسب: ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/VO50F.png) آیا شما از کارهای مرتبط با LDA در بخش های بزرگتر، به عنوان مثال، اطلاع دارید؟ جملات یا پاراگراف ها؟
نظارت بر تخصیص دیریکله نهفته (LDA) در سطح جمله
94442
من سعی می کنم یاد بگیرم که چگونه تست کای دو استقلال را اجرا کنم. من دو متغیر خیالی ایجاد کرده ام، متغیر 1 و متغیر 2، و می خواهم بدانم که آیا آنها همبستگی دارند یا خیر. من با مقادیر زیر کار می کنم: متغیر 1 متغیر 2 ردیف مجموع گروه 1 100 200 300 گروه 2 150 300 450 گروه 3 200 400 600 گروه 4 250 500 750 گروه 5 300 600 تا 90. 400 800 3000 که جدول زیر را به من می دهد: مشاهده شده مورد انتظار (O – E) (O – E)^2 (O – E)^2/E 100 40 60 3600 90 150 60 90 8100 135 200 80 401 1201 150 22500 225 300 120 180 32400 270 200 80 120 14400 180 300 120 180 32400 270 400 160 240 32030 5705 90000 450 600 240 360 129600 540 که به من X^2 از 2700 می دهد. بنابراین، طبق این آزمون، متغیر 1 و متغیر 2 همبستگی ندارند. من فقط نمی بینم که چگونه این ممکن است درست باشد. آیا من آزمون را اشتباه اجرا می کنم یا تفسیر من از نحوه عملکرد آزمون نادرست است؟
این تست مجذور کای استقلال چه اشکالی دارد؟
62459
مزایای اضافه کردن متغیرها به یک مدل در مقایسه با اضافه کردن همه آنها به طور همزمان چیست؟ همانطور که در اکثر تحقیقات می بینم، اولین مدلی که آزمایش می شود شامل تمام متغیرهای کنترلی است، سپس در مدل دوم اولین پیش بینی کننده، سپس مدل دوم و به همین ترتیب تا زمانی که همه پیش بینی کننده ها در مدل قرار گیرند، اضافه می شود. آیا مزایایی در استفاده از این رویکرد وجود دارد، یا خوب است که فقط دو مدل را انجام دهید - یکی با کنترل‌ها و دیگری با کنترل‌ها + همه پیش‌بینی‌کننده‌های دیگر. (ص) - با توجه به رگرسیون لجستیک به این موضوع علاقه مند هستم
افزودن متغیرها به مدل یک به یک یا همزمان
59115
**مأموریت** من سعی می کنم راهی برای انجام برازش تناسبی تکرار شونده در R پیدا کنم. منطق رویه به این صورت است: یکی جدولی با مث. توزیع نمونه برخی از متغیرها بگذارید بگوییم این یکی است: نمونه 1 <- ساختار (c(6L, 14L, 46L, 16L, 6L, 21L, 62L, 169L, 327L, 174L, 44L, 72L, 43L, 100L, 186L, 23L, 72L, 100L, 186L, 23L ، .Dim = c(6L، 3L)، .Dimnames = list(c(Primary، Lowersec، Highersec، Highershort، Higherlong، University)، c(B، F، W))) جدول دیگری از منبع دیگری است، نمونه دیگری بگویید: sample2 <- structure(c(171796L, 168191L, 240671L, 69168L, 60079L, 168169L, 954045L, 1040981L, 1872732L, 726410L, 207366L, 425786L, 596239L, 596239L, 6049826L, 596239L, 6049826L . B، F، W))) اکنون، ما می خواهیم روابط بین متغیرهای موجود در sample1 را حفظ کنیم، اما می خواهیم این روابط را در توزیع حاشیه ای که در «sample2» می یابیم، اعمال کنید. Iterative Proportional Fitting این کار را همانطور که در اینجا توضیح داده شده انجام می دهد (احتمالاً نمی توانم توضیح بهتری ارائه دهم). من سعی کردم آن را در LEM انجام دهم، با نتیجه زیر: B F W Primary 124204.64 960173.6 637701.7 Lowerse 119749.12 1081459.0 612789.9 Highersec 336934.206.21017 Highersec 336934.210117 90512.27 736464.1 291816.6 Higherlong 43486.91 238593.0 119431.0 University 163186.85 418628.6 233835.5 من نتیجه 100% نیست، اما به احتمال 9% نسبت‌های شانس جدول اول در جدول حاصل حفظ می‌شوند، در حالی که توزیع‌های حاشیه‌ای (مجموع ردیف و ستون) با جدول ورودی دوم یکسان هستند. **مشکل** به طرز عجیبی، این الگوریتم کاملا مفید به راحتی در R در دسترس نیست، حداقل به شکل کاربر پسند. یکی از تابع‌هایی که احتمالاً مرتبط است، «cat::ipf()» است. با این حال، نمی توانم نحوه استفاده از آرگومان «حاشیه=» را بفهمم. من مطمئنا در این سوال تنها نیستم. مثال راهنما از یک جدول 3 بعدی استفاده می کند که همه چیز را گیج کننده تر می کند. علاوه بر این، برخی از توابع نوشته شده توسط کاربر وجود دارد، یکی در اینجا و دیگری در اینجا یافت می شود. متأسفانه اولی نتیجه اشتباهی می دهد. مورد دوم نیز بسیار غیرشفاف است، به‌جای اشیاء ماتریس R، به فایل‌های CSV از پیش فرمت‌شده خاص به عنوان ورودی نیاز دارد. **سوال** 1. لطفاً کسی می‌تواند توضیح دهد که چگونه از تابع «cat::ipf()» استفاده کنیم؟ 2. آیا توابع جایگزینی برای دستیابی به وظیفه تنظیم IPF با استفاده از ماتریس ها به عنوان ورودی وجود دارد؟ 3. (حل شده) آیا می توان این تابع را برای ارائه یک نتیجه مناسب برطرف کرد؟ متشکرم. **افزودن: من توانستم یک خروجی مناسب از تابع موجود در (3) دریافت کنم. پس از بررسی مشخص شد که تابع ماتریس را به عنوان ورودی برای توزیع حاشیه ای نمی پذیرد، بلکه فقط فهرستی از این توزیع های حاشیه ای را می پذیرد. پس عملا سوال حل می شود. با این حال، یک پاسخ مناسب برای 1 و 2 برای جامعه بزرگتر مفید خواهد بود، زیرا IPF در مدل های لاگ خطی کاملا ضروری است. ipf <- تابع (Margins_, seedAry, maxiter=100, closure=0.001) { #بررسی کنید تا ببینید مجموع هر حاشیه برابر است یا خیر مجموع حاشیه. <- unlist(lapply(Margins_, sum)) if(any(MarginSums. != MarginSums.[1])) warning(مجموع هر حاشیه برابر نیست) #مقادیر حاشیه صفر را با 0.001 حاشیه جایگزین کنید_ <- lapply( Margins_, function(x) { if(any(x == 0)) warning(صفر در marginsMtx با 0.001 جایگزین شد) x[x == 0] <- 0.001 x }) #بررسی کنید تا ببینید آیا تعداد ابعاد در آرایه seed برابر است با تعداد #حاشیه مشخص شده در marginsMtx numMargins <- length(dim(seedAry)) if(length(Margins_) != numMargins) { stop(number of حاشیه‌ها در حاشیه‌هاMtx با تعداد حاشیه‌ها در seedAry برابر نیست) } #تنظیم مقادیر اولیه نتیجه‌ای <- seedAry iter <- 0 marginChecks <- rep(1, numMargins) margins <- seq(1, numMargins) #به طور تکراری نسبت حاشیه‌ها تا زمان بسته شدن یا معیارهای تکرار در حالی که((any(marginChecks > بستن - 0 نتیجه <- sweep(نتیجه، حاشیه، حاشیه حاشیه، *) marginChecks[حاشیه] <- sum(abs(1 - marginCoeff)) } iter <- iter + 1 }
برازش تناسبی تکراری در R
62188
وظیفه من این است که داده های تجاری را بدون تبلیغات پیش بینی کنم و مشاهدات واقعی (با اثر تبلیغاتی) را با مقادیر پیش بینی شده مقایسه کنم تا تأثیر تبلیغات را اندازه گیری کنم. من گیج شده ام که آیا باید از حد اطمینان مقادیر پیش بینی شده استفاده کنم یا از حد پیش بینی برای محاسبه تفاوت معنی دار؟ فکر می کنم باید یک آزمون فرضیه انجام دهم. فرضیه صفر من این خواهد بود: هیچ اثری وجود ندارد، مشاهدات واقعی در فاصله زمانی قرار خواهند گرفت.
محدودیت های اطمینان یا پیش بینی برای تفاوت معنادار بین پیش بینی و مشاهده؟
90938
تعاریف **پیش های مزدوج نیمه مزدوج** و **پیش های مزدوج شرطی** چیست؟ آنها را در _تحلیل داده های بیزی_ گلمن یافتم، اما نتوانستم تعاریف آنها را پیدا کنم.
تعاریف مقدمات مزدوج نیمه مزدوج و شرطی چیست؟
29553
**وضعیت عملی**: من 120 روز اطلاعات جمع آوری شده در فصل بارانی دارم. به طور متوسط ​​در 52.5 از آن روزها باران بارید. 1. احتمال اینکه حداقل 30 روز یک بار باران ببارد چقدر است؟ 2. اگر حداقل 30 روز یک بار باران ببارد، پس احتمال اینکه در آن 30 روز به مدت 4 روز به صورت کششی به بارندگی ادامه دهد چقدر است؟ پاسخ من برای (1): من یک فرآیند پواسون را با $\lambda = 52.5/120 = 0.4375 $ در نظر گرفتم، عدم وقوع یک رویداد (در این مورد بدون باران) را در 30 روز محاسبه کردم و آن مقدار را از 1 کم کردم. برای به دست آوردن 0.9999 به عنوان احتمال باران در 30 روز. لطفا راهنمایی کنید که آیا من در مسیر درستی هستم و همچنین چگونه قسمت (2) سوال را پیش ببریم.
چگونه می توان احتمال بارندگی حداقل یک بار در یک دوره 30 روزه را محاسبه کرد؟
94443
مدل ARIMA برداری در تحلیل سری های زمانی چندگانه استفاده می شود. من فقط می دانم که آیا نرم افزار یا ابزاری برای ساخت مدل وجود دارد؟ برخی از ابزارها، مانند R، تنها پس از ساخته شدن Vector ARIMA توسط کاربر می توانند برای پیش بینی مقدار استفاده شوند. بنابراین آیا ابزاری وجود دارد که بتواند مدل بردار ARIMA را ایجاد کند؟ پیشاپیش متشکرم
آیا ابزاری وجود دارد که بتواند مدل سازی Vector ARIMA را در سری های زمانی انجام دهد؟
103641
طبق این سایت A Simple Learning Machine Method to Detect Covariate Shift، تغییر متغیر زمانی اتفاق می افتد که توزیع داده های آزمون و قطار یکسان یا مشابه نباشد. این سایت همچنین راهی برای بررسی اینکه آیا داده ها دارای تغییر متغیر هستند ارائه کرده است. با این حال، من از اعتبار روشی که سایت پیشنهاد کرده مطمئن نیستم و نمی دانم چگونه ضریب فی را اعمال کنم. اگر روش نامعتبر باشد، چگونه می توانم تشخیص دهم که داده ها دارای تغییر متغیر هستند؟ **اضافی:** این سایت راهی را ارائه می دهد که اگر داده ها دارای تغییر متغیر متغیر هستند، چه کاری انجام دهید.
چگونه تغییر متغیر را تشخیص دهیم؟
111196
با توجه به تنه درخت با دایره های متحدالمرکز، آیا می توانیم آب و هوا را برای هر سال پیش بینی کنیم؟ هر دایره متحدالمرکز یک سال است که درخت روی زمین بوده است. درونی ترین دایره قدیمی ترین سال و بیرونی ترین دایره سال جاری است. من مجموعه ای از داده ها دارم که می گوید از زمانی که میزان بارندگی قابل اندازه گیری است، برای هر سال چه مقدار بارندگی وجود داشته است. با توجه به این اطلاعات، آیا می‌توانیم بارندگی را برای درونی‌ترین سال‌ها پیش‌بینی کنیم؟ فکر کردم شاید اندازه دایره های متحدالمرکز به میزان بارندگی آن سال بستگی دارد. این یک رابطه مستقیم را فرض می کند. از من خواسته شد که به این موضوع به طور گسترده تری فکر کنم و به طور خاص به این موضوع به عنوان یک مدل مارکوف فکر کنم. 1. چگونه می توانم این پیش بینی را انجام دهم؟ آیا مدل مارکوف مکان خوبی برای شروع است یا راه های ساده تری برای نزدیک شدن به مشکل وجود دارد؟ 2. حتی اگر راه های دیگری وجود دارد، من می خواهم مدل مارکوف را نیز بررسی کنم. مکان خوبی برای شروع یادگیری در مورد مدل های مارکوف کجاست؟ هر گونه کمک و نظر بسیار قدردانی خواهد شد!
پیش بینی آب و هوا
11957
من یک مجموعه داده با 1500 بیمار با داده های مربوط به عود یک بیماری دارم. زمان پیگیری بین 1 تا 15 سال متغیر است. تقریباً 10٪ عود دارند. کاری که من می‌خواهم انجام دهم این است که یک مدل پیش‌بینی‌کننده برای عود در n گروه مشابه ایجاد کنم که خطر عود موقتی یکسانی دارند. این به این دلیل است که بتوانم در مورد یک طرح کنترل بهینه توصیه کنم. من می‌توانم مدل پیش‌بینی‌کننده را کاملاً درست کنم، اما مطمئن نیستم که از چه تکنیکی برای بهینه‌سازی فاصله برای کنترل‌ها استفاده کنم. من حدس می‌زنم که یک روش شبیه‌سازی نیروی بی رحم می‌تواند خوب باشد، اما مطمئن هستم که راه‌های دیگری برای انجام این کار وجود دارد. توصیه یا اشاره به ادبیات بسیار خوش آمدید. ویرایش: منظور من از کنترل، این است که هر چند وقت یکبار باید آنها را برای عود در کلینیک سرپایی دید و ارزیابی کرد. @rolando: 1) از آنچه قبلاً در مورد عود این بیماری شناخته شده است - بیماران را می توان به خطرات عود بالا، متوسط ​​و کم تقسیم کرد. این امر با توجه به مشاوره در مورد یک طرح کنترلی برای عود بسیار منطقی است. برخی از بیماران در عرض یک سال (2-3%)، برخی 3-5 سال و برخی بعد از 10 سال عود می کنند. بدیهی است که غربالگری بیماران دوم برای عود در 10 سال به جای سالانه همانطور که در گروه پرخطر نشان داده می شود، صرفه جویی خواهد داشت. با این حال، اینکه دقیقا چگونه می توانم از یک مدل پیش بینی استفاده کنم و گروه های مختلف را ایجاد کنم تا از نظر زمان عود همگن باشند، یکی از مشکلات من است. 2) n تعداد گروه های مختلف با خطر عود یکسان است - 1 را ببینید 3) با بهینه سازی روال های کنترل (نگاه کنید به 1) - یک بیمار با خطر عود کم نباید به اندازه یک بیمار با خطر عود بالا دیده شود. چگونه می توان فاصله زمانی بهینه برای کنترل در هر گروه را محاسبه کرد؟ //م
بهینه سازی روال های کنترل پس از ایجاد یک مدل پیش بینی
111197
داده های من به طور معمول توزیع نمی شوند. من باید سه گروه را برای موفقیت آنها در یادگیری مهارت مقایسه کنم. $n=4$ در هر گروه. من از سه روش ($M1$،$M2$ و$M3$) برای آموزش یک مهارت به کودکان دارای تاخیر رشد استفاده کرده ام. آیا هنوز هم می توانم از ANOVA استفاده کنم؟ آیا باید از اندازه گیری های مکرر ANOVA یا سری زمانی استفاده کنم؟ لطفا کمی نور بیاندازید
آیا می توانم از ANOVA استفاده کنم اگر نمونه به طور معمول توزیع نشده باشد؟
104000
فرض کنید من پایگاه داده ای از (هزاران) بازی شطرنج دارم. در شطرنج، هر بازیکنی امتیازی به نام ELO دارد که میزان قدرت این بازیکن را تخمین می‌زند. اگر رتبه ELO هر دو بازیکن را بدانیم، می‌توانیم تخمینی از احتمالات نتایج احتمالی مسابقه ارائه دهیم. در تئوری، بازیکنی که امتیازش 100 امتیاز بیشتر از حریف است، انتظار می رود که 64 درصد امتیاز کسب کند. این تئوری است. مهارت واقعی بازیکن می تواند متفاوت باشد. به عنوان مثال اگر واقعا خسته باشد یا از تمرین خارج شود، مهارت واقعی او کمتر از ELO او خواهد بود. بنابراین برای هر بازی من یک تخمین (اگر تساوی را حساب نکنیم، عملاً یک آزمایش دو جمله ای ساده است) از احتمال نتایج مختلف و خود نتیجه دارم. آیا روش آماری وجود دارد که با آن بتوانم صحت این تخمین را بررسی کنم؟ من به چیزی نیاز دارم که بتواند بگوید روش تخمین چقدر دقیق است، نه اینکه فرضیه صفر را رد کند که ربطی به مهارت های واقعی بازیکن ندارد.
چگونه یک سیستم رتبه بندی را تأیید می کنید؟
110823
من در مورد توزیع نرمال چوله چند متغیره کلی مشکل دارم. یک بردار $p\times 1$ وجود دارد، $\mathbf{y}=(\mathbf{y}_1',\mathbf{y}_2',\ldots,\mathbf{y}_n')',p> n$، که چگالی آن برابر است $$f_p(\mathbf{y})\propto\phi_p(\mathbf{y};\boldsymbol{\mu}،\Sigma)\prod_{i=1}^n\Phi(c_1+c_2\m athbf{1}'\mathbf{y}_i)=\phi_p(\mathbf{y};\boldsymbol{\mu}،\Sigma)\Phi_n(c_1+c_2A\mathbf{y})،$$ که در آن $\phi$ و $\Phi$ نشان دهنده pdf و cdf توزیع نرمال چند متغیره یا تک متغیره است. $c_1,c_2$ اسکالرهای ثابت هستند. $A$ یک ماتریس $n\times p$ است، $A=\left(\begin{array}{cccc} 1,\ldots,1 & & & 0\\\ & 1,\ldots,1\\\ & & \ddots\\\ 0 & & & 1,\ldots,1 \end{array}\right).$ هدف محاسبه میانگین و واریانس این توزیع است. گوپتا و همکاران (2004) آنها را برای توزیع خاصی با $p=n$ استخراج کرده اند و خسته کننده به نظر می رسند. می خواهم بدانم آیا راه حل ساده ای برای مشکل من وجود دارد؟ هر سرنخی خوش آمدید! با تشکر
میانگین و واریانس توزیع نرمال چوله چند متغیره کلی
111198
خودرگرسیون برداری دو متغیره زیر را در نظر بگیرید: $$X_t=\mu +X_{t-1}A+\varepsilon_t,\ \varepsilon_t \overset{iid}{\sim} MVN(0, V),\ X_t=(X_{1 ,t},X_{2,t})',$$ که در آن مفروضات روی ماتریس ضریب $A$ به گونه ای است که فرآیند $\\{X_t\\}$ ثابت است، یعنی هیچ ریشه واحدی وجود ندارد. _هدف یافتن یک عبارت خوب (از دیدگاه محاسباتی) برای ماتریس کوواریانس معکوس برای بردار $y=(X_{1,1}, X_{1,2},\dots , X_{1,T}، X_{2,1} \dots X_{2,T})'$_. در حالت تک متغیره، یعنی وقتی $\\{X_t\\}$ یک فرآیند AR(1) است مانند: $$ X_t=\mu + aX_{t-1}+\varepsilon_t،\ \varepsilon_t \sim N( 0، v) $$ سپس Chen و Deo (2009) عبارت راحت زیر را ارائه می دهند: $\Omega^{-1}=B'B,$ که در آن $$ B= \ \left( \begin{array}{cccc} \sqrt{1-a^2} & 0 & 0 & \dots & 0\\\ -a & 1 & 0 & \dots & 0\\\ 0 & -a & 1 &\dots & 0\\\ \vdots & \vdots & \vdots & \ddots & \vdots \\\ 0 & 0 & 0 & -a & 1 \end{array} \right)\ $$ و $v\Omega$ ماتریس کوواریانس $T\times T$ برای $(X_1,X_2,\dots,X_T)'$ است. اگر کمک کند، و من فکر می کنم کمک می کند، ممکن است فرض کنیم که $A$ مورب است به طوری که رگرسیون خودکار دو متغیره واقعاً دو فرآیند AR(1) جداگانه با نوآوری های احتمالاً مرتبط است. مشکل مربوط به تحقیقات است و من باید برای سرعت بخشیدن به محاسبات عددی اشکال دوخطی مانند $w'\Sigma^{-1} u$، برای برخی از بردارهای $w$ و $u$، که در آن $\Sigma$ برابر است. ماتریس کوواریانس $y$. من احساس می‌کنم که این ممکن است یک مشکل استاندارد باشد که در برخی از مقاله‌های قدیمی حل شده است - من واقعاً انتظار داشتم چیزی در یک کتاب درسی پیدا کنم - اما نمی‌توانم هیچ مرجع خوبی پیدا کنم. همه کمک ها، حتی اگر فقط نکات و پاسخ های کامل نباشند، بسیار قدردانی می شود. **به روز رسانی** در حالت قطری $A$، تمام عناصر $\Sigma$ به راحتی پیدا می شوند. ما $$\mathrm{Cov}(X_{i,t},X_{j,t+h})=A_{j,j}^h \frac{\mathrm{Cov}(\varepsilon_{i,t داریم },\varepsilon_{j,t})}{1-A_{i,i}A_{j,j}}=A_{j,j}^h \frac{V_{i,j}}{1-A_{i,i}A_{j,j}}.$$ توجه داشته باشید که کسر فقط 3 مقدار مختلف می گیرد، یکی برای $i=j=1$، یک برای $i=j=2$ و یکی برای $i\neq j$. این مقادیر مربوط به بلوک های مختلف $\Sigma$ است. معکوس هر یک از این بلوک ها را می توان مستقیماً با استفاده از عبارت Chen و Deo (من فکر می کنم) پیدا کرد. مشاهدات دیگر این است که با حرکت به بالا/پایین یا چپ/راست در این بلوک‌های ماتریس، قدرت عبارت $A_{j,j}$ فقط با $\pm 1$ افزایش می‌یابد.
آیا فرم مناسبی برای این ماتریس کوواریانس بزرگ وجود دارد؟
89474
من این رگرسیون لجستیک ترتیبی را در R اجرا کردم: mtcars_ordinal <- polr(as.factor(carb) ~ mpg, mtcars) این خلاصه مدل را دریافت کردم: summary(mtcars_ordinal) دوباره برازش برای دریافت Hessian Call: polr(فرمول = به عنوان .factor(carb) ~ mpg، data = mtcars) ضرایب: مقدار Std. خطای t مقدار mpg -0.2335 0.06855 -3.406 Intercepts: Value Std. خطای t مقدار 1|2 -6.4706 1.6443 -3.9352 2|3 -4.4158 1.3634 -3.2388 3|4 -3.8508 1.3087 -2.9425 4|6 -1.2829 1.3967 -1.2829 1.3967 1.5018 -0.3692 انحراف باقیمانده: 81.36633 AIC: 93.36633 من می توانم شانس ورود به سیستم ضریب mpg را به این صورت دریافت کنم: exp(coef(mtcars_ordinal)) mpg 0.7917679 و log ضریب قدیمی مانند log exp(mtcars_ordinal$zeta) 1|2 2|3 3|4 4|6 6|8 0.001548286 0.012084834 0.021262900 0.277242397 0.574406353 به من بگویید که این مدل به من افزایش می دهد. با یک واحد، شانس انتقال از دسته 1 کربوهیدرات > به هر یک از 5 دسته دیگر، 0.23- کاهش می یابد. اگر شانس گزارش > از آستانه 0.0015 عبور کند، مقدار پیش‌بینی‌شده برای یک خودرو > رده 2 «کربوهیدرات» خواهد بود. اگر شانس ورود به سیستم از آستانه 0.0121 عبور کند، > مقدار پیش‌بینی‌شده برای یک خودرو رده 3 «کربوهیدرات» و غیره خواهد بود.
تفسیر رگرسیون لجستیک ترتیبی
111192
من واقعاً نمی دانم داده های پاسخ من کدام نوع متغیر است. من نمی توانم پاسخی برای سوالم در شبکه جهانی بیابم. من نتایج یک نظرسنجی از 900 کشاورز را دارم. هر کشاورز گفت که چگونه در چند هکتار از یک آفت کش استفاده کرده است. بنابراین نتیجه می تواند شاید 0.11 = آنها در 11٪ از مزارع خود از یک آفت کش استفاده کردند یا 1 = استفاده در 100٪ از مزارع. حدس می‌زنم تعداد داده‌های آن بر اساس نسبت، اما مطمئن نیستم، زیرا نمونه مشابهی پیدا نکردم. توزیع داده ها در زیر نشان داده شده است (همچنین بسیاری از کشاورزان هستند که در 0٪ از مزارع خود از یک آفت کش استفاده می کنند: ![](http://s7.directupload.net/images/140808/ywnx9muy.jpg) من باید آن را بدانم، زیرا سعی می کنم با یک مدل خطی تعمیم یافته در R (با خطاهای پواسون، دوجمله ای یا گاما) تحلیلی از داده های خود انجام دهم شمارش داده‌ها بر اساس نسبت یا چیز دیگری، چه چیزی را حدس می‌زنید که داده‌های پیوسته است یا داده‌های شمارش بر اساس نسبت یا چیز دیگری؟
داده ها را بر اساس نسبت یا نوع متفاوت بشمارید؟
104003
اجازه دهید $c$ یک ثابت مثبت باشد. فرض کنید من $X$~$Unif(0,\theta)$ دارم و می‌خواهم فرضیه صفر $H_0: \theta \leq c$ را در برابر فرضیه جایگزین $H_1:\theta > c$ آزمایش کنم. فرض کنید من یک نمونه $X_1,...,X_n$ انجام دادم اما آنها را با اغتشاش مشاهده کردم - یعنی در واقع $Y_1:=X_1+\epsilon_1,...,Y_n:=X_n+\epsilon_n$ دارم که در آن $ \epsilon_i$ i.i.d هستند. ~ $N(0,\sigma^2)$. چگونه باید یک آزمون فرضیه را انجام دهم؟ ** ایده: ** من به استفاده از آزمون نسبت درستنمایی فکر می کردم، زیرا این امکان را به من می دهد تا آزمایش فرضیه را بر روی یک فرضیه صفر مرکب انجام دهم. من می توانم خطاهای تابع احتمال خود را با انحراف لباس با حالت عادی در نظر بگیرم. با این حال، وقتی می‌خواهم مقادیر بحرانی را تعریف کنم، مشکل دارم زیرا نمی‌دانم چگونه آمار آزمون را به هر توزیعی تقریب کنم و از این رو مناطق رد را استخراج کنم. **ایده 2:** آزمون نمره رائو، زیرا در اینجا من می دانم چگونه توزیع آماری آزمون را برای حجم نمونه بزرگ تقریب کنم، اما تنها شکل آزمون رائو که می دانم شامل فرضیه صفر نقطه است (یعنی آزمایش $\theta = c$) - متأسفانه، کران $c$ من کران بالایی محافظه کارانه است، بنابراین احتمال زیادی وجود دارد که $\theta$ کوچکتر از $c$ باشد و من این را نمی خواهم مورد رد شدن. ایده های دیگر نیز قدردانی خواهند شد.
آزمون فرضیه نقطه پایانی توزیع یکنواخت
95317
من یک تحقیق بزرگ با معلمان دبیرستان فیزیک برزیل انجام دادم و می خواستم نمونه من بتواند نماینده جمعیت معلمان دبیرستان فیزیک برزیل باشد. با این حال، هیچ کس در برزیل نمی داند که چند معلم وجود دارد، در کدام شهر هستند یا با چه کسانی تماس برقرار می کنند. بنابراین طی یک سال با معلمان، مدارس، دانشگاه ها، دبیران دولتی، اتحادیه های کارگری و برگزارکنندگان رویدادها تماس گرفتم و به بیش از 7000 نام معلم احتمالی رسیدم. برای ساختن نمونه خود، با علم به اینکه بسیاری از آنها به نظرسنجی پاسخ نمی‌دهند، 33 درصد از این 7000 نام را برای شرکت در تحقیق دعوت کردم. من به طور تصادفی این 33٪ را انتخاب کردم، اما نمی توانم با بسیاری از آنها تماس بگیرم و دیگران با جمعیت من مطابقت نداشتند (آنها دیگر معلم نیستند، آنها فقط در دانشگاه ها تدریس می کنند و غیره). در پایان یک سال تلاش برای تماس با این 33 درصد، حدود 300 پاسخ معتبر دریافت کردم. اما اکنون، با تمام داده‌های جمع‌آوری‌شده، مطمئن نیستم که آیا نمونه من می‌تواند یک نمونه‌گیری تصادفی ساده (SRS) در نظر گرفته شود و چگونه می‌توانم نتایج خود را اصلاح و اصلاح کنم تا آنها را به همه جامعه گسترش دهم، اگر نمونه من SRS نیست (یا یکی دیگر از روش های نمونه گیری شناخته شده قبلی). کسی میتونه کمکم کنه؟ متشکرم، آلیسون راموس آرتوسو
مشکلات نمونه (جمعیت نامعلوم)
95318
یک مدل گرافیکی که در [1] معادله (1) و (2) مشخص شده است را در نظر بگیرید. چرا محاسبه تابع پارتیشن در مدل های گرافیکی مهم است؟ چرا به آن نیاز داریم؟ من این تصور را داشتم که مردم پارتیشن را برای یافتن MAP محاسبه می کنند، اما ارمون برای یافتن حل کننده پارتیشن فرض می کند که یک حل کننده MAP دارد. آیا با درک اولیه من از دلیل محاسبه تابع پارتیشن مغایرت ندارد. یا شاید این: او فرض می کند که حل کننده MAP را برای مشکلات فرعی کوچک (در سطل ها) داشته باشد، اما برای انجام MAP روی کل مشکل باید تابع پارتیشن را داشته باشد. آیا این درک درستی است؟ [1] http://www.cs.cornell.edu/~ermonste/papers/LPCount.pdf
چرا محاسبه تابع پارتیشن در مدل های گرافیکی مهم است؟
29557
من جفت سریال های زمانی دارم که در طول سال ها مقدار یکسانی را تخمین می زنند. این برخی از داده های بقا است: تعداد افراد مرده در طول سال بیش از تعداد کل افراد در ابتدای سال. داده های اساسی مرتباً بازبینی می شوند، بنابراین من باید تأثیر تغییرات را ارزیابی کنم. در زیر یک مثال آورده شده است. ![the two series](http://i.stack.imgur.com/SmpCV.png) من می خواهم به طور خاص آزمایش کنم که آیا میانگین (که پارامتر مورد علاقه است) برای جفت های سری زمانی یکسان است (تجزیه و تحلیل خواهد شد برای بسیاری از جفت ها تکرار شود، لطفاً روی تصویر خاص تمرکز نکنید، اگرچه نسبتاً نماینده است). چند سوال دارم: 1. آیا از تست زوجی استفاده کنم یا خیر؟ 2. اگر جفت باشد، چگونه با کراوات ها، یعنی تفاوت های صفر (من همیشه کراوات های زیادی خواهم داشت) برخورد کنم؟ 3. من معتقدم که bootstrapping می تواند در این مورد مفید باشد. من نمونه تفاوت میانگین را بوت استرپ کردم. این یک توزیع متمرکز حول اختلاف میانگین مشاهده شده می دهد. چگونه می توانم مقدار p را از این توزیع محاسبه کنم؟ آیا به جای آن تست t-test را بوت استرپ کنیم؟
آزمون فرضیه: تغییرات سری زمانی کوچک
66608
من در حال نوشتن مقاله ای در مورد فروریختن تراس های کشاورزی باستانی در مدیترانه هستم و هنگام تلاش برای ایجاد یک معیار معنادار با مشکلی مواجه شدم. من نقاط خرابی تراس جی پی اس را نمونه برداری کرده و آنها را با GIS نقشه برداری کرده ام. من آسیب در میدان را در یک مقیاس ترتیبی ساده به نام وضعیت ارزیابی کرده ام، که در آن 1 آسیب جزئی و 2 فروپاشی کامل به سنگ بستر است. من یک فرضیه دارم که آسیب احتمالی دیوارهای سنگی تراس با توجه به دو عامل افزایش/کاهش می‌یابد: * افزایش: تعداد سایر نقاط شکست تراس در حوضه آبریز بالاتر نقطه نمونه. (از نظر هیدرولوژیکی، یک نقطه شکست تراس کانالی را برای رواناب سطحی ایجاد می کند تا بر روی تراس های پایینی ریخته شود، اشباع را افزایش می دهد، نفوذ اوج و غیره را افزایش می دهد، که احتمال خرابی بیشتری را به همراه دارد.) * کاهش: تعداد سایر نقاط شکست تراس مجاور. روی **همان** دیوار تراس. (استدلال این بار دیگر کانال‌های رواناب ترجیح داده شده است که احتمال آسیب بیشتر را در نقطه نمونه کاهش می‌دهند.) من سعی می‌کنم راهی برای استفاده از این بردارهای متضاد با هم پیدا کنم، اما به مشکل برخوردم. راه واضح این است که اولی (همسایگان) را با دومی (برادران) (همسایگان/برادر) تقسیم کنیم، بنابراین افزایش یا کاهش دیگری نسبت بالاتری به من می دهد که نشان دهنده آسیب احتمالی است. روشی که من ارزش هر یک را محاسبه می کنم، جمع کردن تمام مقادیر وضعیت نقاطی است که با پرس و جو فضایی من مطابقت دارند. با این حال، این منجر به برخی از نقاط می شود که مقدار 0 برای Neighbors و/یا مقدار 0 برای Brothers دارند، بنابراین یک تقسیم ساده در همه موارد به خوبی کار نمی کند. بنابراین می‌پرسم آیا راه‌هایی برای معنادارتر کردن این موضوع وجود دارد؟ من هیچ ارزیابی قبلی در مورد نتایج احتمالی چنین اقدامی ندارم، و نمی‌دانم که آیا باید انتظار همبستگی مثبت یا منفی (یا هر کدام) را داشته باشم.
ایجاد یک معیار آماری معنادار برای جغرافیای فیزیکی
50737
من سعی می‌کنم نشان دهم که اگر $X_n \rightarrow X $ در $r$-th میانگین باشد، آنگاه $E|X_n|^r \rightarrow E|X|^r$. (ویرایش: باید با $r \ge 1$ گفته می شد) سوال من این است که آیا مراحل زیر کافی است یا خیر: $[E|X_n - X|^r]^{\frac{1}{r}} \rightarrow 0$ به عنوان $n \rightarrow \infty$ تنظیم $r=1$ $E|X_n - X| \rightarrow 0$ به عنوان $n \rightarrow \infty$ و به این ترتیب: $E|X_n| \rightarrow E|X|$ به عنوان $n \rightarrow \infty$ بنابراین $E|X_n|^r \rightarrow E|X|^r$ به عنوان $n \rightarrow \infty$ افکار قابل تقدیر هستند.
مفهوم همگرایی در میانگین rth
50738
من روی پروژه داده‌کاوی مدرسه کار می‌کنم. در مرحله پیش پردازش، باید مقادیر پرت را از مجموعه داده‌هایم که دارای انحراف مثبت هستند حذف کنم (به توضیحات مراجعه کنید). من ایده ای برای حذف همه مقادیری دارم که بزرگتر از میانگین + 3 x انحراف استاندارد هستند، اما مطمئن نیستم که این روش برای مورد من مناسب باشد زیرا مجموعه داده به طور معمول توزیع نشده است. از چه تکنیکی استفاده کنم؟ var n میانگین sd میانه برش خورده دیوانه حداکثر محدوده چولگی کشیدگی se 1 1 41019 1668.99 1107.08 1453.68 1524.22 1026.05 10.9 5920.74 5909.847.5909.84.
چگونه می توان نقاط پرت را در مجموعه داده های ناهموار تشخیص داد؟
8399
من این سوال را در Electronics.Stackexchange ارسال کردم و یکی به من گفت که بهتر است آن را اینجا پست کنم. این یک پیاده سازی فیلتر ذرات با استفاده از متلب است اما نتایج هرگز مشاهدات را دنبال نمی کنند. تابع وزن دهی را به گاوسی تغییر دادم اما هنوز فایده ای نداشت. توجه: من در نظر نگرفتم که نویز فرآیند/اندازه گیری با زمان همبستگی دارد. آیا این به طور قابل توجهی دقت برنامه من را تغییر می دهد؟ اگر چنین است، چگونه آن را اصلاح کنم؟ **سوال قدیمی من** من در حال کار بر روی یک آزمایش فیلتر ذرات برای همجوشی چند حسگر هستم و به تازگی آن را در MATLAB برنامه ریزی کردم. با این حال، من برای مقادیر نهایی خود دقت بسیار پایینی دریافت می کنم. به‌علاوه، من ادبیات زیادی خواندم که در آن درباره pdf وضعیت و مشاهدات و غیره صحبت می‌کردند، اما دانش عملی من هنوز به شدت متزلزل است، زیرا هیچ آموزش رسمی در مورد فیلتر کردن/تخمین‌های بیزی و غیره ندیده‌ام. الگوریتم خود را مانند این ابداع کرده‌ام. : 1. Initialize particles = من آن را به صورت توزیع گاوسی انجام می دهم - 10 ذره 2. 10 ذره را با استفاده از انتقال حالت به جلو حرکت دهید معادله: \begin{equation} X_{t+1} = A \times X_t + 0.1 \times rand() \end{equation} من تاکنون فقط نویز گاوسی را تزریق می‌کنم. 1. با استفاده از مشاهده، وزن ذرات را محاسبه کنید. من این کار را مانند یک ریشه میانگین مربع تفاوت بین حالت پیش‌بینی‌شده و مشاهده انجام می‌دهم. به عنوان مثال، اگر آزیموت (a) = 40، pitch (p) = 3، roll(r) = 4 در حالت من و در مشاهده من a = 39، p = 3، r = 3 باشد، آنگاه من rms را انجام می دهم. = sqrt((40-39)^2 + (3-3)^2 + (4-3)^2). سپس وزن من به صورت 1/rms نسبت داده می شود تا با فاصله بین پیش بینی و مشاهده 2 نسبت معکوس داشته باشد. سپس این وزن ها را نرمال می کنم تا norm_weight = وزن / هنجار (وزن) را به دست بیاورم تا مجموع آنها برابر باشد. به یکی 3. سپس برای تمام مشاهدات به جلو ادامه می دهم. من هنوز نمونه‌گیری مجدد را وارد نکرده‌ام زیرا وقتی این آزمایش را اجرا می‌کنم، هیچ انحطاطی را تجربه نمی‌کنم، که این نیز بسیار گیج‌کننده است. کجا دارم اشتباه می کنم؟ من متوجه شدم که تعداد زیادی از معادلات بیزی را که در ادبیات ارائه شده است، یعنی \begin{معادله} p(x|z_t) = p(z_t|x)\times p(x)/p(z) محاسبه نکرده‌ام. \end{equation} و من هم نمی‌دانم در اینجا کجا قرار می‌گیرد. کسی میتونه لطفا کمکم کنه؟ کد متلب من به این شکل است: تابع resultx = فیلتر ذرات (نتیجه x_1، مشاهده x، A، نویزP) برای j = 1:length(observationx) برای i = 1:length(resultx_1) apriori_state{i} = A*resultx_1{i} + noiseP; rms(i) = sqrt((observationx{j}(1) - apriori_state{i}(1))^2 + (observationx{j}(2) - apriori_state{i}(2))^2); وزن (i) = 1/rms (i)؛ پایان؛ norm_weight = وزن / هنجار (وزن); برای i = 1:length(apriori_state) plot(apriori_state{i}); پایان disp(rms); disp(norm_weight); پایان
فیلتر ذرات در Matlab - چه مشکلی دارد؟
66605
به نظر می رسد بیش از چند مقاله وجود دارد که استفاده از کلمات خاص را برای تعریف احتمال یک رویداد بدون استفاده از خود احتمال عددی احاطه کرده است. به عنوان مثال، اگر مطمئن هستید که چیزی قرار است اتفاق بیفتد، احتمال وقوع آن 100٪ است. اگر تقریباً مطمئن هستید، احتمال رویداد 93٪ +/- 6٪ است. http://en.wikipedia.org/wiki/Words_of_estimative_probability در اصطلاحات انتخاباتی، ما کلماتی مانند اکثریت، کثرت، اقلیت، برخی کسری - اکثریت/اقلیت داریم. این کلمات به راحتی به نسبت های عددی تبدیل می شوند (در بیشتر موارد). با در نظر گرفتن این مثال‌ها، آیا مقاله‌ها یا قراردادهای پذیرفته‌شده‌ای برای کلماتی مانند «بسیار، بیشتر، چند، برخی» وجود دارد که به‌عنوان راهنمایی برای نسبت‌های عددی مرتبط با آن کلمات عمل می‌کند؟
کلماتی که نسبت های عددی یک گروه را تخمین می زنند
111443
من یک مدل را اجرا کرده ام و با داده هایی که دارم، انتظار نداشتم بهترین مدل را تولید کنم، اما باقی مانده های من واقعا عجیب هستند. متغیر نتیجه تعداد روزهای رفتن به یک وب سایت در یک ماه است (بنابراین گسسته 0-30) و من یک رگرسیون استاندارد اعمال کرده ام. model <\- step(lm(day_count_jun ~ vars, data=ml), direction=forward))) #forward-backward من چندین متغیر مستقل دارم و 5 تا از آنها را انتخاب کردم (با گام تابع در R). اگر فقط 5 متغیر و همه متغیرهایی را که دارم بگنجانم همین نتیجه است. R2 تنظیم شده 0.25 است در اینجا نمودار باقیمانده من است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/NPepm.png) آیا باید بفهمم که یکی از ضرایب من باید علامت منفی داشته باشد ? علاوه بر این، باقیمانده های من عادی نیستند. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/L5k9l.png) اگر داده های بیشتری نداشته باشم برای حل این مشکل چه کاری می توانم انجام دهم؟
تعبیر باقی مانده های عجیب
110824
من دو تجزیه و تحلیل HLM جداگانه انجام داده ام، که هر کدام با دو IV که DV یکسان را در یک نمونه پیش بینی می کند. مشکلی که من با آن روبرو شده ام این است که می خواهم ** بزرگی ** ضرایب حاصل را در هر تحلیل مقایسه کنم تا مشخص کنم که آیا معادل هستند یا خیر. من از داده های دوتایی استفاده می کنم، به همین دلیل از HLM استفاده کردم. در اینجا یک مثال ملموس تر آورده شده است: تجزیه و تحلیل 1: DV-1 IV-1 IV-2 تجزیه و تحلیل 2: DV-1 IV-3 IV-4 برای مشخص بودن، می‌خواهم نشان دهم که یک کدگذاری مبتنی بر کامپیوتر یک آزمون (به عنوان مثال. ، که IV-1 و IV-2 را تولید می کند) ضرایب مشابهی را به عنوان کدگذاری مبتنی بر انسان برای آزمایش یکسان تولید می کند (به عنوان مثال، IV-3 و IV-4). یعنی من دوست دارم بتوانم ضرایب به دست آمده برای IV-1 را با IV-3 (که همان متغیر هستند اما یکی با کامپیوتر و دیگری توسط انسان تولید شده) و IV-2 با IV مقایسه کنم. -4 (باز هم، این دو باید یک متغیر باشند، یکی توسط کامپیوتر و دیگری توسط انسان تولید می شود)، تا بررسی شود که آیا از نظر قدر معادل هستند یا خیر. آیا این امکان پذیر است؟ آیا آزمون آماری برای تعیین کمیت تفاوت وجود دارد؟ برای روشن شدن، من به خودی خود علاقه ای به میانجی گری ندارم. در عوض، من فقط به این علاقه دارم که آیا ضرایب حاصل از نظر بزرگی معادل هستند یا نه (صرف نظر از اینکه آیا آنها برای تغییرات متفاوت در DV محاسبه می شوند).
پرس و جو مربوط به HLM - مقایسه بزرگی ضرایب
96504
من سعی می کنم بهترین توزیعی را پیدا کنم که متناسب با داده هایم باشد (اندازه نمونه 7210). برخی از توزیع‌هایی که ارزش اندرسون-دارلینگ پایینی دارند، بسیار شبیه به داده‌های من هستند. اما تمام مقادیر p بی اهمیت هستند. آیا این به دلیل حجم نمونه است؟ به هر حال اگر من برای مثال برای Loglogistic نموداری انجام دهم، بسیار شبیه به توزیع داده های من است. BTW: من از MiniTab برای این کار استفاده می کنم. با تشکر توزیع AD P LRT P Normal 23,480 <0,005 Box-Cox Transformation 13,896 <0,005 Lognormal 15,057 <0,005 3-Parameter Lognormal 13,664 * 0,000 نمایی 2438,000 <2438,000 نمایی 1882,128 <0,010 0,000 Weibull 103,812 <0,010 3-Parameter Weibull 54,502 <0,005 0,000 Smallest Extreme Value 242,163 <0,010 Largest <4,Ma14 14,018 <0,005 3-پارامتر گاما 14,076 * 0,524 لجستیک 17,623 <0,005 لجستیک 13,213 <0,005 3-پارامتر لجستیک 12,822 * 0,004
p-value به اندازه نمونه بستگی دارد؟
61371
من سعی می‌کنم تحلیل عاملی داده‌هایم را که از ۲۱ مورد و ۲۳ متغیر داده‌های پیوسته تشکیل شده است، اجرا کنم. در حالت ایده‌آل، سعی می‌کنم سه عامل را استخراج کنم، اما با چهار، پنج و شش نیز تلاش کرده‌ام. با این حال، پیام خطا را دریافت می‌کنم: > سیستم از نظر محاسباتی منفرد است من فرض می‌کنم این به این دلیل است که موارد کافی ندارم. ### سوالات * چرا وقتی تعداد موارد کمتر از تعداد متغیرها باشد، تحلیل عاملی شکست می‌خورد؟ * برای محاسبه تحلیل عاملی چند مورد نیاز است؟
چرا وقتی تعداد موارد کمتر از تعداد متغیرها باشد، تحلیل عاملی شکست می خورد؟
59119
تصور کنید ما یک نمونه (40=n) از یک جامعه روی 2 متغیر داریم که برای آن کوواریانس را تخمین می زنیم (مثلاً 0.1). اگر نمونه دیگری (10=n) از همان جامعه داشته باشیم و کوواریانس را 0.2 تخمین بزنیم، انتظار داریم کوواریانس در جامعه چقدر باشد؟ آیا این خواهد بود: (4/5 * 0.1) + (1/5 * 0.2) = 0.12؟ یعنی آیا می توانیم کوواریانس ها را با توجه به حجم نمونه وزن کنیم؟ اگر بله، چگونه می توان داده ها را برای داشتن کوواریانس 0.12 ترکیب کرد، زیرا کپی کردن یک داده زیر دیگری انجام نمی دهد.
ترکیب کوواریانس ها
2492
یکی از همکاران سابق یک بار با من اینگونه استدلال کرد: > «ما معمولاً آزمون‌های نرمال بودن را برای نتایج فرآیندهایی اعمال می‌کنیم که، در زیر صفر، متغیرهای تصادفی را تولید می‌کنند که فقط به‌صورت مجانبی_ یا > _تقریباً نرمال هستند (با بخش « مجانبی» وابسته به برخی مقداری که ما نمی‌توانیم آن را بزرگ کنیم، در دوران حافظه ارزان، داده‌های بزرگ و پردازنده‌های سریع، تست‌های نرمال بودن باید همیشه رد شوند. null of normal> توزیع برای نمونه های بزرگ (البته نه دیوانه کننده) و بنابراین، > به طور انحرافی، تست های نرمال بودن باید فقط برای نمونه های کوچک استفاده شوند، زمانی که آنها احتمالاً قدرت کمتر و کنترل کمتری بر نرخ نوع I دارند. آیا این یک استدلال معتبر است؟ آیا این یک استدلال معروف است؟ آیا آزمون های شناخته شده ای برای فرضیه صفر «فازی تر» نسبت به نرمال بودن وجود دارد؟
آیا تست نرمال بودن اساساً بی فایده است؟
110826
من یک صفحه گسترده با هفت پارامتر و مقادیر آنها برای 9000 نمونه دارم. باید تعیین کنم که کدام پارامترهای وابسته و کدام مستقل هستند. لطفاً به من اطلاع دهید که کدام الگوریتم ممکن است مفید باشد. من به PCA و رگرسیون فکر کردم اما متوجه نشدم که چگونه می توانم از آنها برای تعیین پارامترهای مستقل و وابسته استفاده کنم.
تعیین متغیرهای مستقل و وابسته بدون آگاهی قبلی از ماهیت داده ها
111194
فرض کنید ما دو سری زمانی همزمان داریم، $Y_{1}$ و $Y_{2}$، و من می‌خواهم تاثیر علی $Y_{1}$ را روی $Y_{2}$ ارزیابی کنم. دلیل خوبی وجود دارد که فکر کنیم هر دو متغیر تحت تأثیر عوامل خارجی مختلفی هستند. $Y_{1}$ حاوی برخی مشاهدات برابر با 0 (در مورد من، حدود 12 از مجموع 100) است که کاملاً مستقل از بقیه داده ها (که هرگز برابر با 0 نیستند) ایجاد می شوند. یعنی گاهی اوقات $Y_1$ به صورت شبه تجربی خاموش می شود. بهترین راه برای محدود کردن دامنه تأثیرات احتمالی $Y_1$ بر روی $Y_2$ چیست؟ **زمینه** من به یک سازمان غیرانتفاعی کمک می‌کنم تأثیر مخارج تبلیغاتی خود را ارزیابی کند، Y_1$ روی Y_2$، بازدیدهای وب‌سایت‌شان. هر دو سری به‌طور تصاعدی نسبت به مهلت کمپین افزایش می‌یابند، بنابراین باقی‌مانده $\ln(Y_{1, t}) = \beta_{0} + \beta_{1}\ln(Y_{2, t}) + \epsilon_t دلار ثابت هستند. هر دو سری دارای همبستگی خودکار قابل توجهی نیز هستند. در چندین مرحله در طول کمپین، NFP دوباره قراردادها را با خریدار رسانه خود مذاکره کرد، که در نتیجه دوره‌های خاموشی تبلیغات برون‌زا ایجاد شد. من می خواهم بسیار راحت استنتاج رسم در مقطع عرضی. تجربه من با سری‌های زمانی اقتصادی این است که پارامترهای «علّی» اغلب با استفاده از ابزارهای بدنه یا محدودیت‌های علامت، ضعیف شناسایی می‌شوند. اما در مورد انجام استنتاج شبه تجربی در سری های زمانی چیز زیادی نمی دانم. هر گونه راهنمایی بسیار قدردانی خواهد شد.
استنتاج از یک سری زمانی گاهی تصادفی
8392
من گزارش‌هایی دارم که نشان می‌دهد کدام کاربران کدام برنامه‌ها را در سیستم‌های ما در دانشگاه اجرا می‌کنند. داده ها نام کاربری، زمان پردازش و مهر زمانی نمونه را نشان می دهد. من همچنین می دانم که هر کاربر در چه کلاس هایی قرار دارد. با توجه به این داده ها، آیا می توان به طور قابل اعتماد گفت که کدام اساتید/دوره ها از نرم افزار خاصی استفاده می کنند؟ من فکر می کنم این روش ممکن است قابل اعتمادتر از پرسیدن از اساتید باشد، که هرگز به سوالات ما پاسخ نمی دهند! چه روش آماری، در صورت وجود، در اینجا مناسب است؟ اشاره گر به تابع R مناسب قدردانی می شود. آیا تحلیل مؤلفه اصلی در اینجا مناسب است؟
چگونه می توان استفاده از نرم افزار مبتنی بر دوره را تعیین کرد؟
66604
من این پست را برای وضوح کامل اصلاح کردم. به ووبر و دیوید، از شما بچه ها برای پست هایتان متشکرم. من می خواهم یک شبیه سازی MC انجام دهم تا ببینم به احتمال زیاد تمایل در توزیع کشتی ها بر اساس ظرفیت TEU چیست (اگر قرار است کشتی های بیشتری در محدوده 1000-2000 TEU یا در محدوده 300-4000 TEU وجود داشته باشد. محدوده و غیره). اما برای انجام شبیه‌سازی MC، باید اعداد تصادفی را از یک توزیع خاص تولید کنم و نمی‌خواهم نرمال بودن یا لگ نرمال بودن یا هر توزیع دیگری را فرض کنم، اگر ابتدا خوب بودن تناسب را بررسی نکنم. موضوع این است که با در نظر گرفتن تعداد شناورهای اختصاص داده شده به هر کلاس TEU Range، چگونه می توانم اتصالات توزیع را دور بزنم؟ تعداد TEUS کلاس 13,000.01 - 14,000 TEUS 22 25% 8,000.01 - 9,000 TEUS 19 21% 4,000.01 - 5,000 TEUS 17 19% 7,010 TEUS 6,010 5,000.01 - 6,000 TEUS 6 7% 9,000.01 - 10,000 TEUS 5 6% 1,000.01 - 2,000 TEUS 4 4% 3,000.01 - 4,000 TEUS 110.04 - 4,000 TEUS 110.01 - 2 2% 2,000.01 - 3,000 TEUS 1 1% Grand Total 89
برازش توزیع به داده های نمونه
61373
من 4 امتیاز دامنه (میانگین) دارم، اما برای جمعیت در بسیاری از مطالعات آنها در چهار ضرب شده است (نپرس چرا)، اما میانگین من اینطور نیست. بنابراین من میانگین ها را بر چهار تقسیم کردم، اما آیا می توانم همین کار را برای انحرافات استاندارد انجام دهم؟ و از کدام انحرافات معیاری برای مقایسه میانگین ها استفاده کنم؟ آنهایی که از جمعیت عمومی هستند یا از گروه بیماران من؟ با تشکر
آیا می توانید یک انحراف معیار را تقسیم کنید؟
110825
من در حال حاضر روی این کار کار می کنم که می خواهم دو سری زمانی مختلف مانند فروش در سال 2012 و فروش در سال 2013 را با هم مقایسه کنم. لطفاً هر روش آماری را به من پیشنهاد دهید.
روش مقایسه دو سری زمانی متفاوت چیست؟
61376
من می خواهم یک منطقه مطمئن 1-$\alpha$ برای مقدار $\left(\Gamma_1,\Gamma_2\right)$ پیدا کنم. (که متغیرهای تصادفی نیستند) می توانم $m_i$ و $b_i$ متفاوتی را بدست بیاورم که $\Gamma_2=m_i\Gamma_1+b_i$ را برآورده کند. با $\left(m_i,b_i\right)=f\left(Y_{1i},\ldots,Y_{ki},X_1,\ldots,X_l\right)$. و $X_j\sim\mathcal{N}(\mu_j,\sigma^2)$ ; $Y_{ji}\sim\mathcal{N}(\theta_{ji},\sigma^2)$. برابری زمانی برقرار است که $\left(m_i,b_i\right)=f\left(\theta_{1i},\ldots,\theta_{ki},\mu_1,\ldots,\mu_l\right)$. سپس، من یک **سیستم خطی با ضرایب تصادفی دارم.** \begin{alignat*}{4} m_1\Gamma_1 & {}-{} & \Gamma_2 ={} & -b_1 \\\ m_2\Gamma_1 & { }-{} & \Gamma_2 ={} & -b_2 \\\ & {}\vdots{} & \vdots{} و \\\ m_n\Gamma_1 & {}-{} & \Gamma_2 ={} & -b_n \\\ \end{alignat*} به طور رسمی، می‌خواهم یک منطقه اطمینان برای راه حل پیدا کنم. این بدان معناست که یک منطقه S به طوری که $(1-\alpha)100\%$ بار شامل $\left(\Gamma_1,\Gamma_2\right)$ باشد. ** آیا این یک مشکل شناخته شده است؟ ** من نمی توانم چیزی در وب پیدا کنم. **آیا کسی می تواند به من کتاب یا مقاله ای را نشان دهد که در آن این کار انجام می شود؟** کمک بزرگی خواهد بود. من سعی کردم بازه های اطمینان همزمان $(1-\alpha)100\%$ (روش بونفرونی) را برای همه $m_i$ و $b_i$ پیدا کنم. سپس، برای هر جفت شیب و قطع y، یک ناحیه $S_i$ از مقادیر ممکن $(\Gamma_1,\Gamma_2)$ بدست آوردم. من به عنوان منطقه $S=\cap S_i$ می گیرم. متأسفانه مناطقی که به دست می‌آورم بزرگ‌تر از آن چیزی است که انتظار می‌رود. و آنها بسیار محافظه کار هستند، بیش از 10000 نمونه شبیه سازی هر بار ارزش را حفظ می کند. پیشاپیش از اینکه وقت گذاشتید و سوال را خواندید متشکرم :)
سیستم معادلات خطی با ضرایب تصادفی
66600
من از مجموعه داده golub از R با برچسب ها استفاده می کنم. labelgb <- factor(c(rep(ALL,27),rep(AML,11))) names(golub) <- labelgb من باید از روش تجربی Bayes در بسته limma استفاده کنم و مقادیر p را محاسبه کنم برای مجموعه داده golub با استفاده از تابع «eBayes()». fit = lmFit(golub) e = eBayes(fit) در تابع lmFit آرگومان طراحی چه کاری انجام می دهد و آیا برای مجموعه داده golub برای تامین آرگومان طراحی ضروری است؟
eBayes() lmFit()
32528
من مدل ARIMA(5,1,2) را با استفاده از تابع `auto.arima()` در R قرار داده ام و با نگاه کردن به ترتیب می توان گفت که این بهترین مدل برای پیش بینی نیست. اگر مقادیر پرت در سری داده‌ها وجود داشته باشد، چه روشی برای تطبیق مدل با چنین داده‌هایی وجود دارد؟
نحوه برازش یک مدل برای یک سری زمانی که حاوی مقادیر پرت است
28208
من از رگرسیون فرآیند گواسین برای انجام برخی مدل‌سازی استفاده می‌کنم. یکی از مسائلی که من با آن مواجه هستم، انتخاب ویژگی برای برخی از مدل های من است که اغلب ویژگی های مرتبط زیادی دارند. من مطمئن نیستم که بهترین راه برای کاهش # ویژگی ها چیست. من می‌دانم که برخی از توابع کوواریانس در GPR از تشخیص ربط خودکار استفاده می‌کنند، اما معتقدم برخی از فرضیات در مورد ویژگی‌هایی که این روش‌ها نیاز دارند وجود دارد (من فکر می‌کنم استقلال بین ویژگی‌ها برای ARD). کسی قبلا با این مسائل برخورد کرده؟ آیا پیشنهادی در مورد بهترین رویکرد برای کاهش ویژگی‌ها یا ایجاد ویژگی‌های مستقل از ویژگی‌های موجود دارید؟ آیا روشی برای پیش پردازش وجود دارد که می تواند کمک کند؟ من به PCA نگاه کرده‌ام، اما ویژگی‌ها فقط در صورت توزیع معمولی مشترک استقلال تضمین می‌شوند، که مطمئن نیستم ویژگی‌های من اینطور باشد. وقتی ویژگی‌های کمتری وجود دارد، GPR دقیق‌تر است و صدها ویژگی بالقوه دارم که می‌توانم از آنها استفاده کنم. با تشکر
رگرسیون فرآیند Guassian - انتخاب ویژگی
55767
> $X_1$، $X_2$، $X_3$ متغیرهای تصادفی مستقلی هستند که هر کدام دارای توزیع نمایی > هستند، اما به ترتیب با میانگین $2.0، 5.0، 10.0$. > اجازه دهید $Y$= کوچکترین یا حداقل مقدار این سه متغیر تصادفی باشد. > توزیع $Y$ را استخراج و شناسایی کنید. (تابع توزیع ممکن است مفید باشد). چگونه این سوال را حل کنم؟ آیا هر میانگین را به توزیع نمایی وصل کنم؟ ممنون میشم اگه کسی اینو برام توضیح بده ممنون
چگونه توزیع حداقل متغیرهای نمایی چندگانه را محاسبه کنیم؟
8396
نمی دانم چرا بسته پیش بینی 2.16 در R، Theil's U را تولید نمی کند؟ من واقعا از زحمات شما قدردانی می کنم.
چگونه Theil's U را با پکیج پیش بینی 2.16 در R تولید کنیم؟
66602
من یک مجموعه داده دوقلو از 248 جفت (166 MZ، 82 DZ) دارم که در یک نقطه زمانی جمع آوری شده است. من علاقه مند به بررسی رابطه بین یک نشانگر زیستی فیزیولوژیکی و سطوح بی خوابی گزارش شده توسط خودم هستم. نشانگر زیستی پیوسته است، اما من می‌خواهم آن را به برش‌های طبقه‌بندی تقسیم کنم تا تفسیر آن آسان‌تر شود (این روشی است که معمولاً در ادبیات با آن برخورد می‌شود). بنابراین، من یک پیش بینی قطعی و نتیجه مستمر دارم. می‌خواهم ابتدا این رابطه را بررسی کنم، و سپس بررسی کنم که آیا این رابطه با اضافه کردن سطوح فعالیت بدنی (خود گزارش‌دهی، مستمر) به‌عنوان یک پیش‌بینی‌کننده دیگر نیز تحت تأثیر قرار می‌گیرد یا خیر. بعد، بررسی می‌کنم که آیا فصل اندازه‌گیری (مقوله‌ای) روابط قابل‌توجهی را تعدیل می‌کند یا خیر. من چندین اختلال دارم که می‌خواهم آنها را تنظیم کنم (به عنوان مثال، جنسیت، BMI). من قصد دارم این روابط را ابتدا به صورت مقطعی (با محاسبه ماهیت همبسته داده ها) و سپس به طور جداگانه برای دوقلوهای MZ و DZ برای ارزیابی مخدوشگری ژنتیکی و خانوادگی مدل کنم. من می خواهم داده ها را در SPSS تجزیه و تحلیل کنم، اما در صورت لزوم به Stata و SAS دسترسی داشته باشم. هر دو متغیر بیومارکر و بی‌خوابی من غیرطبیعی هستند (به‌طور مثبت دارای انحراف هستند)، اما با مدل‌های غیرعادی که معمولاً با استفاده از مدل‌های ترکیبی خطی تعمیم‌یافته تحلیل می‌شوند، مطابقت ندارند. بنابراین، من می خواهم از مدل های GEE یا اثرات مختلط خطی با متغیرهای تبدیل شده استفاده کنم. با این حال، آیا رویکردی وجود دارد که مناسب/بهتر باشد که من از آن غافل باشم؟ همچنین، آیا کسی نظری دارد که آیا مدل سازی GEE یا اثرات مختلط برای این داده ها مناسب تر است؟ از هر نظر و پیشنهادی بسیار متشکرم.
روش‌هایی برای داده‌های دوقلو مقطعی (GEE، مدل‌سازی اثرات مختلط، GLMM)؟
50739
من یک پیش‌تحقیری انجام می‌دهم تا بفهمم بهترین زمان برای تماس با نانوایان برای نظرسنجی تلفنی چه زمانی است. طرح مطالعه مقدماتی من در اینجا است: 1. من جدولی از تمام 15000 شرکت نانوایی در یک کشور دارم. 2. من به طور تصادفی 20 شرکت نانوایی را برای هر ساعت از روز انتخاب می کنم، همه به جز از 19:00 تا 23:00 (7 عصر تا 11 بعد از ظهر) که در آنجا من انتظار نداشته باشید که کار کنند. 20 ساعت * 20 = 400 تماس 3. با آنها تماس می‌گیرم و مودبانه از آنها می‌پرسم که آیا به نظرسنجی من پاسخ خواهند داد. 4. برای هر تماسی که زمان شروع و پایان را ضبط می کنم، هر چه تماس طولانی تر باشد، بهتر است. 5. همچنین، اگر نانوا نظرسنجی را پذیرفت، و اگر اصلاً به تلفن پاسخ داد، ضبط می‌کنم چگونه این طرح را بهینه می‌کنید تا به تماس‌های کمتری نیاز داشته باشم؟ من در مورد استفاده از قضیه بیزی برای ایجاد اولویت های احساسی فکر می کنم. مثلاً در ساعت 03:00 آنها باید کار کنند بنابراین احتمال کم است یا در ساعت 13:00 کار اصلی تمام می شود بنابراین آنها بیشتر پاسخ خواهند داد. سپس من قصد دارم پیشینیان بیزی را با نرخ پاسخ اندازه گیری شده به روز کنم آیا ایده ای برای بهبود طراحی مطالعه خود دارید؟ به خصوص اینکه من به نمونه های کمتری نیاز دارم تا به خوبی قضاوت کنم که چه زمانی تماس بگیرم؟
نظرسنجی تلفنی، چه زمانی تماس بگیریم؟
22468
فرض کنید ما یک رگرسیون خطی ساده $y=\beta_0+\beta_1x+u$ را اجرا کردیم، باقیمانده‌ها $\hat{u_i}$ را ذخیره کردیم و هیستوگرام توزیع باقیمانده‌ها را رسم کردیم. اگر چیزی دریافت کنیم که شبیه توزیع آشنا به نظر می رسد، آیا می توانیم فرض کنیم که عبارت خطای ما این توزیع را دارد؟ بگو، اگر متوجه شدیم که باقیمانده ها شبیه توزیع نرمال هستند، آیا منطقی است که عبارت خطا را در جمعیت نرمال فرض کنیم؟ من فکر می کنم معقول است، اما چگونه می توان آن را توجیه کرد؟
تایید توزیع باقیمانده ها در رگرسیون خطی
111445
اجازه دهید دو توزیع احتمال زیر را در نظر بگیریم. واگرایی Kullback-Leibler که برابر 0.492820258$ است، می خواهم بدانم به طور کلی این عدد چه چیزی را به من نشان می دهد؟ به طور کلی، واگرایی Kullback-Leibler به من نشان می دهد که یک توزیع احتمال از دیگری چقدر فاصله دارد، درست است؟ شبیه اصطلاحات آنتروپی است اما از نظر اعداد به چه معناست؟ اگر من نتیجه 0.49 داشته باشم، می توانم بگویم که تقریباً یک توزیع 50٪ با توزیع دیگر فاصله دارد؟
تجزیه و تحلیل واگرایی کولبک-لایبلر
66601
پس از اجرای کد زیر: > library(gRim) > TA=table(ALL) > upp.model<\- dmod(~.^3, margin=colnames(ALL),data=TA) این پیام هشدار را دریافت می کنم: پیام هشدار : در loglin(object$datainfo$data، object$glist، fit = TRUE، print = print، : الگوریتم همگرا نشد اطلاعات مربوط به داده ها: str(TA) 'table' int [1:3، 1:2، 1:2، 1:2، 1:4، 1:2، 1:2، 1:2، 1:3، 1:4، 1 :2، 1:3، 1:2، 1:2، 1:2، 1:2، 1:3] 0 0 0 0 0 0 0 0 0 0 ... - attr(*, dimnames)=فهرست 17 ..$ a: chr [1:3] (vors\xe4tzliche leichte) K\xf6rperverletzung Sonst. StGB auf Stra\xdfen، Wegen oder Pl\xe4tzen ..$ b: chr [1:2] ja nein ..$ c: chr [1:2] ja nein ..$ d: chr [1:2] ja nein ..$ e: chr [1:4] 1-18 19-25 26-59 Sonst. ..$ f: chr [1:2] M W ..$ g: chr [1:2] Sonst keine Vorbeziehung ..$ h: chr [1:2] Sonst Keine Beziehung ..$ i: chr [1:3] Sonst. Sonstige Opfer Sonstige Gesch\xe4digtenspezifik ..$ j: chr [1:4] 10-18 19-25 26-36 37-88 ..$ k: chr [1:2] M Sonst ..$ l: chr. [1:3] Sonst. Ohne Sonstiger legaler Aufenthalt ..$ n: chr [1:2] ja Sonst. nein ..$ q: chr [1:3] Sonst im Bundesland in der Tatortgemeinde من واقعاً مطمئن نیستم که چگونه با این مشکل برخورد کنم. پیشنهادی دارید؟ متشکرم
پیام هشدار با عملکرد loglin/dmod، بسته gRim
15444
اگر یک RCT فرضی را در نظر بگیرید، مثلاً حجم نمونه 300 نفری را در نظر بگیرید که بر اساس روش جراحی (جراحی باز، جراحی بسته یا روش ترکیبی) به سه طبقه تقسیم شده است. انسداد در گروه های 2 نفره در هر طبقه انجام می شود. بدیهی است که هنگام ایجاد توالی تصادفی سازی، نمی توان از قبل از تعداد بیمارانی که به صورت تصادفی در هر طبقه قرار می گیرند، مطلع شد. بنابراین، برای هر قشر چند پاکت تصادفی باید تهیه شود؟ بر اساس داده‌های قبلی، انتظار می‌رود حدود 33/33/33 برای هر گروه باشد، اما اگر فقط 100 پاکت برای هر گروه ساخته شود، در صورت اشتباه بودن داده‌های تاریخی، انعطاف‌پذیری ایجاد نمی‌شود. آیا باید: * ایمن بازی کرد و 300 در هر لایه انجام داد (و پس از انجام آزمایشی تعداد زیادی باقی مانده است)، یا * تعداد مورد نیاز را بر اساس داده های قبلی، با یک عامل بافر داخلی حدس زد؟ هر گونه راهنمایی قدردانی خواهد شد!
هنگام استفاده از تصادفی سازی طبقه ای در یک RCT، چه تعداد پاکت برای هر لایه باید تهیه شود؟
22464
من در حال تجزیه و تحلیل نتایج یک آزمایش هستم. آزمایش (متاسفانه) بسیار بد طراحی شده بود.. به هر حال این چیزی است که من دارم .... در این آزمایش دو گروه از بیماران: کنترل سالم و با بیماری X. مریض ها برای سه ویزیت آمدند: در ویزیت اول اصلاً دارویی مصرف نکردند. در جلسه دوم داروی نوع 1 و در جلسه سوم داروی نوع 2 مصرف کردند. در هر جلسه از افراد بیمار نمونه خون برای آزمایش گرفته شد. گروه کنترل از افراد سالم تنها برای یک بار مراجعه کردند که در طی آن آزمایش خون نیز انجام شد. تمام آزمایش خون میزان پروتئین Y را اندازه گیری کرد. به طور خلاصه، من چهار نوع نمونه پروتئین Y دارم: از افراد سالم. از افراد بیمار که دارو دریافت نکرده اند. از افراد بیمار تحت داروهای نوع 1؛ از افراد بیمار تحت داروهای نوع 2. من سه فرضیه دارم که می‌خواهم آن‌ها را آزمایش کنم - 1. تفاوت آماری واضحی بین افراد بیمار و سالم (در طول مدت ملاقات‌ها) وجود دارد، یعنی از جنبه میزان پروتئین، هر دو نوع دارو. سطح پروتئین را به سطح پروتئین افراد سالم افزایش نداد. 2. اینکه این دارو سطح پروتئین را در افراد بیمار بهبود می بخشد و میزان پروتئین در واقع بین افراد بیمار تحت دارو و در بیمارانی که دارو مصرف نمی کنند از نظر آماری متفاوت است. 3. تفاوت آماری در میزان پروتئین اندازه گیری شده بین دو نوع دارو وجود ندارد. سوال من این است: چگونه باید آزمون های t را برای آزمایش این سه فرضیه (تضاد؟) طراحی کنم؟ در حالی که اجتناب از تست های همپوشانی (متعامد؟) متحیر ... هر گونه کمک خواهد بود قدردانی!
چگونه فرضیه ها را برای تفاوت های گروهی آزمایش کنیم؟
55762
فرض کنید یک متغیر طبقه بندی شده $X$ با سطوح $10$ داریم. ما در حال شمارش فراوانی متغیرهای دیگر در هر یک از سطوح 10$ هستیم. علاوه بر بررسی همبستگی های زوجی بین این سطوح (یعنی جدول همبستگی 10 دلار \ برابر 10 دلار)، چه معیارهای دیگری را می توانیم بررسی کنیم؟ همبستگی های زوجی چیزهایی را به ما می گویند مانند هر چه تعداد در یک سطح بیشتر باشد، در سطح دیگر کمتر باشد و غیره.
چیزهایی علاوه بر همبستگی های زوجی
51064
من می خواهم استقلال بین گروه های متغیرهای منطقی را تعیین کنم. مثلاً برای سه گروه می‌خواهم بدانم که آیا تعداد ماده‌ها (در مقابل مرد) بین گروه‌ها فرق می‌کند؟ من از آزمون مربع کای برای این کار استفاده می کنم. تفاوت بین استفاده از جدول احتمالی 2 ردیفی با جدول احتمالی 1 ردیفی با احتمالات جمعیت چیست؟ به عنوان مثال، با استفاده از مثال Agresti در مستندات chisq.test برای R: ## از Agresti(2007) p.39 M <- as.table(rbind(c(762, 327, 468, c(484,239,477))) dimnames(M) <- list(gender=c(M,F), party=c(دموکرات، مستقل، جمهوریخواه)) (Xsq <- chisq.test(M)) # خلاصه آزمایش را چاپ می‌کند Xsq$ انتظار می‌رود # تعداد مورد انتظار زیر عدد صفر که دریافت می‌کنم: X-squared = 30.0701، df = 2، p-value = 2.954e-07 جنس حزب جمهوریخواه مستقل دموکرات M 703.6714 319.6453 533.6834 F 542.3286 246.3547 411.3166 اگر از همان داده ها برای ایجاد بردارهای منطقی استفاده کنم: testChiSqPVal <- list(DemocratIsMale=p,(F62,4,) IndependentIsMale=c(rep(TRUE,327), rep(FALSE,239)), RepublicanIsMale=c(rep(TRUE,468),rep(FALSE,477))) و سپس یک جدول احتمالی یک ردیفی ایجاد کنید و محاسبه کنید مربع chi بردار احتمال را برای مطابقت با درصدهای گروه تنظیم می کند: library(plyr) tbl <- laply(testChiSqPVal, مجموع) Xsq <- chisq.test(tbl, p=laply(testChiSqPVal,length), rescale.p=TRUE) Xsq Xsq$expected من همان مقادیر مورد انتظار را در ردیف اول بالا دریافت می کنم، اما مجموع مربع chi متفاوت است: X-squared = 13.0882، df = 2، p-value = 0.001439 [1] 703.6714 319.6453 533.6834 واضح است که من در حال آزمایش دو فرضیه مختلف هستم، اما دقیقاً مطمئن نیستم که آنها چیستند.
مربع چی برای بردارهای منطقی: جدول احتمالی 2 ردیفی یا بردار 1 ردیفی؟
83225
من میانگین و انحراف معیار یک نمونه بزرگ (30k obs) و میانگین و std یک نمونه فرعی (2k obs) را دارم. میانگین ها ارقام درصدی هستند (یعنی بین 0 تا 100٪ و بنابراین یک متغیر عادی نیستند). همچنین ابزارها مستقل نیستند، زیرا یکی بر اساس نمونه فرعی از دیگری است. علیرغم یک سوال به ظاهر بی ضرر، من نتوانستم یک روش آزمایش مناسب پیدا کنم. هر گونه ایده در مورد چگونگی آزمایش اینکه آیا میانگین زیرنمونه با میانگین کل نمونه متفاوت است بسیار مورد استقبال قرار می گیرد.
آزمایش اینکه آیا میانگین یک گروه با میانگین کل نمونه متفاوت است یا خیر
92907
من در حال حاضر در مورد آزمون Shapiro-Wilk برای نرمال بودن و استفاده از R برای انجام آزمایش های ساده هستم. چیزی که من را گیج می کند این است که متوجه شدم برخی از نتایج یک مقدار W بالا تولید می کنند در حالی که p-value بسیار پایین است. اگر من این را به درستی درک کنم، مقدار W ممکن است بین 0 تا 1 باشد. W کوچک منجر به رد نرمال می شود در حالی که W بالا منجر به فرضیه جایگزین می شود. پس چگونه این به P-Value مربوط می شود؟ به عبارت دیگر، آیا p-value به نوعی از نتیجه W مشتق شده است؟ با توجه به این موضوع، در اینجا مثالی وجود دارد که من را گیج می کند: set.seed(1000) xgamma <- rgamma(5000,1,2) shapiro.test(xgamma) داده های تست نرمال Shapiro-Wilk: xgamma W = 0.811, p- مقدار < 2.2e-16 من 5000 مقدار گامای تصادفی ایجاد می کنم که منجر به W برابر با 0.811 (غیر منتظره) و p-value 22e-16 می شود. من فکر کردم که مقدار W باید کم باشد زیرا مقدار p در مقایسه بسیار کوچک است. چگونه باید مقدار W را در مقایسه با P-Value تفسیر کنم؟ پیشاپیش برای هر نظری متشکرم!
R: آزمون Shapiro-Wilk با رابطه W و P-Value؟
111448
من در مورد توزیع (حداکثر) طول اجرا با توجه به k آزمایش مستقل کنجکاو هستم که $p(X=1)=p_1، p(X=2)=p_2، ...، p(X=n)=p_n.$ برای مثال، برای پرتاب سکه برای 3 آزمایش مستقل، $p(X=H)=1/2، p(X=T)=1/2.$ $p(mrl=3)=2*(1/2)^3 برای HHH، TTT $$p(mrl=2)=4*(1/2)^3 برای HTT، THH، HHT، TTH $p (mrl=1)=1-p(mrl=3)-p(mrl=2) $ اما اگر برای n و k عمومی چه می شد؟ حدس من برای توزیع یکنواخت $E(mrl)=log_k n$ خواهد بود
توزیع (حداکثر) طول اجرا
61377
فرض کنید اطلاعاتی در مورد جمعیت یک کشور از مثلاً 1800 تا 2010 به شما داده شده است. همچنین برخی از متغیرهای توضیحی در مورد مهاجرت به آن کشور، نرخ تورم و سایر عوامل اجتماعی-اقتصادی به شما داده شده است. هدف پیش بینی جمعیت کشور در 100 سال آینده است. آیا ادبیاتی در مورد مدل های رشد جمعیت وجود دارد زیرا به نظر می رسد یک مدل رگرسیون خطی ساده کافی نخواهد بود. آیا یک مدل قطعی در این مورد بهتر است؟ من همچنین روش‌های سری زمانی را امتحان کرده‌ام، اما به نظر می‌رسد که تفاضل ساده یا تبدیل‌های log، سری را ثابت نمی‌کند که نمی‌توانم یک مدل ARIMA بسازم. من به دنبال ساخت یک مدل قابل تفسیر هستم.
چگونه رشد جمعیت را مدل کنیم؟
61372
من یک مدل رگرسیون لجستیک ترتیبی را با استفاده از SPSS و Minitab اجرا کردم. مجموعه داده دقیقاً یکسان است. نتایج دقیقاً یکسان است، اما در جهت مخالف. من مقادیر پیش فرض دو برنامه را دستکاری نکرده ام. نتیجه SPSS درست است. من این را از زمانی می دانم که وقتی این مجموعه داده را با استفاده از Minitab تجزیه و تحلیل می کنم، اما با استفاده از رگرسیون خطی آن (نه لاجیت ترتیبی)، خود Minitab چیزی شبیه به SPSS ارائه می دهد. اما رگرسیون ترتیبی Minitab یک پیش فرض عجیب را در نظر می گیرد. **همه بتاها در رگرسیون لجستیک Minitab نفی می شوند.** چرا اینطور است؟
چرا Minitab و SPSS نتایج متضادی در رگرسیون لجستیک ترتیبی می دهند؟
55761
من سعی می کنم مثالی را در یادداشت های دوره آمارم بفهمم، مثال مربوط به محاسبه بهترین مقدار برای آزمایش بعدی است. عملکرد خط بسیار ساده است: $$\ln(Y_i) = \ln(\theta^*_1 + \theta^*_2x_i) + \epsilon_i$$ این مثال در مثال قبلی کار می کند که در آن تخمین نقطه ای قبلا انجام شده است. به دست آمده برای $\theta^*_1$ و $\theta^*_2$ اینها عبارتند از: $$\theta = \begin{pmatrix} 3.9963\\\ 2.3792 \end{pmatrix}$$ مقادیر داده شده قبلاً عبارتند از: i y x 1 4.11 0 2 6.32 1 3 8.21 2 4 10.43 3 5 14.29 4 6 16.78 5 بنابراین سؤال این است که چگونه مقدار بهینه $x_7 را بدست آوریم. معادله ای که باید استفاده شود داده شده است، اما برای من چندان منطقی نیست، به خصوص خط آخر، جایی که برخی از اعداد به ظاهر تصادفی از جایی ظاهر می شوند. در اینجا نکات ارائه شده است: اجازه دهید بردار $p\times 1$$r_{n+1} = \frac{\delta f(x_{n+1}. \theta)}{\delta\theta}$$ $$ C_{n+1} = X_{n+1}'X_{n+1} = \begin{pmatrix}X_n\\\ r_{n+1}' \end{pmatrix}' \begin{pmatrix}X_n\\\ r_{n+1}' \end{pmatrix} $$ $$ \phi = |C_{n+1}| = |\begin{pmatrix}X_n\\\ r_{n+1}' \end{pmatrix}' \begin{pmatrix}X_n\\\ r_{n+1}' \end{pmatrix}| = |X_n'X_n+r_{n+1}r_{n+1}'| $$ $$ \بنابراین \phi = |C_{n+1} + r_{n+1}r_{n+1}'| = |C_n|(1 + r_{n+1}'C_n^{-1}r_{n+1}) $$ در اینجا مثال آمده است در آن مقدار $x، 0 \leq x \leq 2$ باید آزمایش بعدی انجام شود $$\ln(Y_i) = \ln(\theta^*_1 + \theta^*_2x_i) + \epsilon_i$$$$\theta = \begin{pmatrix} 3.9963\\\ 2.3792 \end{pmatrix}$$ $$ X'X = \begin{bmatrix}0.11777 & 0.11660\\\ 0.11660 & 0.33500 \end{bmatrix $7} $ شروع{bmatrix} \frac{1}{\theta_1 + \theta_2 x_7} & \frac{x_7}{\theta_1 + \theta_2 x_7}\end{bmatrix} $$ اکنون، در حالی که من دقیقاً همه اینها را نمی‌دانم - می‌توانم کار کنم چه می گوید چیزی که من را جذب می کند، بیت بعدی است. $$ \phi = \frac{12.9358 - 8.9781x_7 + 4.534x_7^2}{(3.9963 + 2.3792x_7)^2} $$ 12.9358، 8.9781، 4.534 از کجا آمده است؟ همچنین قسمت تقسیم این از کجا آمده است، بالای $\phi$ اصلاً بدون تقسیم محاسبه شد. در نهایت، $^2$ از کجا در مقسوم علیه آمده است؟ هر کمکی در اینجا بسیار قدردانی می‌شود، من احساس می‌کنم که بسیار ساده خواهد بود - من فقط چیزی را از دست داده‌ام. متشکرم EDIT پس از مشورت زیاد، این را فهمیدم: $$ \phi = \frac{X'X^{-1}_{00} + (X'X^{-1}_{0,1} + X 'X^{-1}_{1,0})x_7 + X'X^{-1}_{1,1}x_7^2}{(\theta_0 + \theta_1x_7)^2} $$ واقعاً فوق العاده خواهد بود اگر کسی بتواند تأیید کند که این مورد برای همه رگرسیون های غیر خطی است، یا اگر این مورد فقط برای این یکی باشد، و اگر برای معادلات دیگر چیزی متفاوت است.
مسئله ترتیبی برای n=1، رگرسیون غیر خطی
55769
من برای کلاس تئوری آماری خود در مشکلی گیر کرده ام. بنابراین مشکل به این صورت است: فرض کنید X متغیر تصادفی **گسسته** باشد، یعنی X دارای pmf است: $f(x)=\frac{1}{\theta}, x=1,2,. ..،\theta$ و نمونه ای با اندازه n، ${X_1،...، X_n}$ داریم. درست مانند حالت پیوسته، $T=Max(X_1,...,X_n)$ a) نشان دهید که T یک آمار کافی برای $\theta$ است. بنابراین من باید بفهمم که E(g(t)) چیست زیرا ما در صدد یافتن یک آمار کامل کافی با استفاده از تعریف هستیم. چیزی که من در آن گیر کرده ام این است که چگونه می توانم این را بفهمم زیرا این توزیع یکنواخت گسسته است و پیوسته نیست. چیزی که من تا الان دارم این است: $E(g(T))=\Sigma g(t)*f_t(t)$ که مطمئن نیستم درست باشد زیرا می دانم که $f_t(Max)=\frac {nt^{n-1}}{\theta^n}$. آیا می توانم $E(g(T))=\Sigma g(t)*\frac{nt^{n-1}}{\theta^n}$ را بفهمم؟ بنابراین من می‌توانم: $E(g(T))=\frac{n}{\theta^n}\Sigma g(t)*t^{n-1}$ اجازه دهید $h(t) =\frac {g(t)}{t}$ $=\frac{n}{\theta^n}\Sigma h(t)t^n$ مشکل این است که می دانم این تا بی نهایت منفجر می شود و تا 0 لایک نمی شود من به آن نیاز دارم برو آیا کسی می تواند کار من را بررسی کند و به من بگوید که آیا در جایی با این مشکل اشتباه می کنم؟ با تشکر
یافتن مقدار مورد انتظار یک متغیر تصادفی یکنواخت گسسته
161
اقتصاددانان اغلب در مورد یک سری زمانی صحبت می کنند که با مرتبه k، I(k) _ ادغام شده است. _k_ حداقل تعداد اختلاف مورد نیاز برای به دست آوردن یک سری زمانی ثابت است. با توجه به سطح اطمینان، ترتیب ادغام یک سری زمانی، از چه روش‌ها یا آزمون‌های آماری می‌توان استفاده کرد؟
از چه روش هایی می توان برای تعیین ترتیب ادغام یک سری زمانی استفاده کرد؟
22466
آیا می توانم تحلیل عاملی را به روش زیر درک کنم؟ فرض کنید من 5 متغیر مستقل دارم (A,B,C,D,E) تجزیه و تحلیل عاملی به من اجازه می دهد که (D,E) را به متغیرهای وابسته تبدیل کنم و به من اجازه می دهد که آنها را ترکیب خطی (A,B,C) کنم. . بنابراین من فقط باید داده های (A,B,C) و ماتریس $\Lambda$ را حمل کنم، سپس می توانم داده ها (D,E) را با داده ها (A,B,C) و ماتریس $\Lambda$ دوباره ایجاد کنم. فقط کاهش داده را انجام می دهد. درست میگم؟
درک تحلیل عاملی
26371
این یک سوال تکلیف است، بنابراین من به دنبال کمک برای گرفتن ایده مناسب هستم تا بتوانم بقیه کارها را خودم اجرا کنم. من اطلاعاتی در مورد وضعیت سربازی کهنه سرباز و درآمدهای ثبت شده دارم. یکی از سؤالات به شرح زیر است: > بازگشت به وضعیت جانبازی (متغیر شاخص، 0-نه > جانباز، 1-جانباز) را با در نظر گرفتن تفاوت میانگین درآمد ثبت شده برای > جانبازان و غیر جانبازان برآورد کنید. خطای استاندارد این تخمین را محاسبه کنید، > و نحوه محاسبه آن را شرح دهید. هم خطاهای استاندارد مبتنی بر homoskedasticity > و هم خطاهای استاندارد قوی (یعنی heteroskedasticity- > سازگار) را محاسبه کنید. در دوره آموزشی خود، ما فقط حدود 10 هفته پیش در مورد تمایز خطاهای استاندارد سازگار با همسواسکداستیسیته/هتروسکداستیسیته در زمینه رگرسیون اساسی بحث کردیم. مطالب مرتبط برای این سوال همه چیز در مورد مدل های متغیرهای ابزاری و روش های آزمایش اثربخشی علی درمان ها است. بنابراین در اینجا چند چیز بسیار ساده لوحانه وجود دارد که من معمولاً سعی می کنم یک خطای استاندارد را برای تأثیر وضعیت جانبازی بر روی دستمزد محاسبه کنم: (1) یک رگرسیون پایه با یک جمله ثابت و یک ضریب در شاخص وضعیت جانباز انجام دهید. پس آیا درست نیست که ضریب جانبازی نشان دهنده «حق بیمه ایثارگری» است؟ و بنابراین فرمول های اساسی برای خطاهای استاندارد مختلف برای این ضریب تخمینی باید اعمال شود؟ من مطمئن نیستم که این درست باشد. برای من روشن نیست که این ضریب چگونه تفاوت میانگین جمعیت را برای جمعیت جانباز و غیر جانباز نشان می دهد. (2) وانمود کنید که این یک آزمایش تصادفی است. جایگشت های بردار وضعیت جانبازی را بر روی همه افراد ترسیم کنید و وانمود کنید که دستمزد مشاهده شده آنها همیشه وضعیت جانبازی آنها را از بردار جایگشت ترسیم شده نشان می دهد. میانگین دستمزد جمعیت جانباز را منهای میانگین دستمزد غیر جانبازان محاسبه کنید. این کار را برای بسیاری از تکرارها انجام دهید تا یک میانگین مونت کارلو برای این تفاوت کهنه سرباز در مقابل غیر کهنه سرباز و یک خطای استاندارد بر اساس شبیه سازی بدست آورید. من به شدت در این مورد تردید دارم زیرا ممکن است تأثیرات علی زیادی در رابطه با وضعیت سربازی وجود داشته باشد که با فرض تصادفی‌سازی آنها را نادیده می‌گیریم، و علاوه بر این، اصلاً مشخص نیست که چگونه می‌توان از این رویکرد برای به دست آوردن برآورد سازگار با ناهمگونی استفاده کرد. من هیچ راهی برای بررسی درست بودن کاری که انجام می دهم ندارم، بنابراین کمی شبیه چاقو زدن در تاریکی است. من می‌توانم کدهای زیادی بنویسم که عملیات بالا را انجام می‌دهد، اما واقعاً چگونه بفهمم که آیا این کد به سؤال پاسخ می‌دهد؟ آیا منابع خوب و قابل خواندنی برای روش انجام رگرسیون بر روی متغیرهای شاخص وجود دارد، به خصوص زمانی که آمار مورد علاقه تفاوت میانگین ها در جمعیت هایی است که شاخص متفاوت است؟
خطاهای استاندارد سازگار با ناهمگونی برای تفاوت بین دو جمعیت؟
34905
من بسیار مشتاق ورزش هستم و تازه شروع به درک این موضوع کرده ام که چگونه می توانم ریاضیات را در مسائل و مسائل مربوط به ورزش به کار ببرم. من مشتاقم برای رگرسیون های خطی که انجام داده ام، و وزن های (خطی) که برای گل هایی که در لیگ برتر انگلیس به ثمر می رسم به دست بیاورم. مطالعات سبک Sabremetrics (http://en.wikipedia.org/wiki/Sabremetrics) در ورزش های مختلف انجام شده است، اما هرگز واقعاً برای فوتبال/فوتبال جذب نشده است. برای تلاش و کمک به این امر، یک باشگاه اخیرا جامع ترین مجموعه داده ای را که برای یک فصل کامل منتشر شده است (بیش از 200 متغیر برای هر بازیکن در هر 20 تیم) منتشر کرده است تا به مطالعات تحلیلی در بازی کمک کند. به طور خلاصه، از آنجایی که انجام آن نسبتاً آسان است (در سطح پایه با اکسل)، من مشتاق بودم که رگرسیون هایی را روی داده ها اجرا کنم تا وزن های خطی برای تعریف اهداف به ثمر رسیده در یک مدل پیش بینی تعیین کنم (بنابراین می توانید به طور مؤثر برای یک بازیکن ارزش گذاری کنید - به عنوان مثال. در بالا یا پایین مدل‌ها پیش‌بینی می‌کنند یا پیش‌بینی می‌کنند که در یک فصل چه امتیازی می‌توانند کسب کنند یا چه کسی ارزشمندتر است). من داده‌ها را گروه‌بندی کردم تا داده‌های طول فصل را برای همه 538 بازیکنی که در فصل 2011/12 بازی کردند (به‌جای بازی انفرادی) ارائه داد. سپس تمام بازیکنانی را که کمتر از 1000 دقیقه بازی کردند (حدود 25 درصد از فصل) و کمتر از 5 گل به ثمر رساندند را حذف کردم (تا سعی کنم موارد دور از انتظار را حذف کنم). این امر مجموعه داده ها را به تنها 65 بازیکن کاهش داد. سپس متغیرها را بررسی کردم و هر متغیری را که مرتبط نبود حذف کردم (مثلاً تعداد ضربه های دروازه بان، تعیین کننده تعداد گل های یک بازیکن نیست - زیرا بازیکن برای این مقدار 0 خواهد داشت زیرا بازیکن بیرون زمین است). و نه دروازه بان). سپس شروع به اجرای رگرسیون کردم و هر متغیری را با مقدار p بزرگتر از 0.05 (به عنوان مثال از نظر آماری ناچیز) حذف کردم. سپس گزینه های مختلف با مقادیر r2 بین 0.84 و 0.89 (بسته به تغییرات جزئی در متغیرها) برای من وجود دارد. http://img253.imageshack.us/img253/7638/revcreg6r2896.jpg (آخرین رگرسیونی بود که قبل از اجرای آن تنها با متغیرهای مهم اجرا کردم - بالاترین مقدار r2 در 0.896) http://img820.imageshack.us/img820/ 8695/revcreg7ar2848.jpg (در حال گرفتن رگرسیون بود در بالا و انداختن شانس های بزرگ که همه متغیرها را معنی دار می کند و یک r2 برابر با 0.848 می دهد) http://img4.imageshack.us/img4/4255/revcreg7br2868.jpg (در حال افزودن مجدد شانس های بزرگ بود، زیرا معنی دار بود زمانی که من تمام متغیرها را مرور می کردم و در تصویر اول در 0.16 فقط حاشیه ای ناچیز بود - یک نشان می دهد r2 از 0.868). http://img594.imageshack.us/img594/7743/revdreg7cr2881.jpg (در حال اضافه کردن تلاش از بازی ست شده روی هدف بود، زیرا مقدار p مشابهی با شانس های بزرگ داشت - r2 0.881 را می دهد). همه موارد فوق تعدادی سؤال به من داده است که اگر در مورد آنها توصیه کنید سپاسگزار خواهم بود: آیا کاری که من می خواهم انجام دهم ناقص است (مثلاً آیا اشتباه می کنم که سعی می کنم تجزیه و تحلیل رگرسیون را در این مورد اعمال کنم)؟ آیا یک r2 بیش از 0.84 برای پذیرش و آزمایش روی یک مجموعه داده بزرگتر در طول سالهای بیشتر رضایت بخش است؟ متغیر ضربه به هدف شامل گل ها شامل گل های زده شده است - بنابراین آیا می توانم از آن به عنوان یک متغیر مستقل برای تعیین گل های به ثمر رسیده استفاده کنم - که به عنوان متغیر وابسته رفتار می کنم؟ (همین مورد در مورد تلاش از بازی باز روی هدف نیز صدق می کند، اما به طور عجیبی این به عنوان یک ضریب منفی ظاهر می شود، در حالی که ضربات روی هدف که به طور موثر شامل همان داده ها می شود مثبت است). «شانس‌های بزرگ» (مثلاً شانس‌های بزرگ برای گلزنی) در اولین رگرسیون‌هایی که انجام دادم، قبل از اینکه با p-value 0.16 در اولین رگرسیون بالا به دست آمد، معنی‌دار بود - این معنادار بود، بنابراین آیا باید همچنان آن را به‌عنوان معنی‌دار در نظر بگیرم ( به عنوان شامل آن در R2 بهتر)؟ خطاهای برنده پنالتی (به عنوان مثال خطای روی بازیکن که منجر به پنالتی می شود) قابل توجه است، اما من انتظار دارم که این یک ضریب مثبت باشد (با فرض اینکه بازیکن پنالتی را گرفته و به ثمر برساند). با توجه به عدم شفافیت در مورد متغیر (فقط نمی توانم ببینم که این باید به شدت منفی باشد) آیا باید این را حذف کنم؟ امیدوارم در مورد کاری که سعی کرده‌ام انجام دهم کاملاً واضح بوده باشم، و برای هر گونه راهنمایی در جهت درست و توصیه‌های ارائه شده سپاسگزار خواهم بود. با تشکر
تلاش برای تعریف وزن های خطی برای گل های زده شده در لیگ برتر انگلیس
32527
من مدل زیر را دارم: $Y_1=\beta+\varepsilon_1+\varepsilon_2$ $Y_2=\beta+\varepsilon_3+\varepsilon_4$ $Y_3=\beta+\varepsilon_1+\varepsilon_4+\varepsilon_5$ $Y_4=\beta+\varepsilon_2+\varepsilon_3+\varepsilon_5$ $\varepsilon_i\thicksim \text{iid } \mathcal{N}(0,\sigma^2), \forall i$ من مایلم بهترین ها را به دست بیاورم (بی طرفانه و با حداقل واریانس) برآوردگر $\beta$. یعنی می‌خواهم $\hat{\beta}=f(Y_1,Y_2,Y_3,Y_4)$ را بدانم. چگونه باید آن را تهیه کنم؟ من واقعا از کمک شما قدردانی خواهم کرد.
برآورد بهینه یک میانگین از داده های غیر مستقل
93251
من می‌خواهم آزمایش کنم که آیا $\alpha$ برای یک مقیاس وابسته به آزمون شخصیت است که یک متغیر پیوسته است. من می‌دانم که روش‌های زیادی برای آزمایش وجود دارد که آیا دو $\alpha$ برای دو گروه مختلف به طور قابل‌توجهی متفاوت هستند، وقتی آزمایش یکسانی به آنها داده می‌شود. اما اگر متغیر گروه بندی دوگانه نباشد، بلکه پیوسته باشد چه؟ آیا باید فقط یک تقسیم متوسط ​​یا سوم انجام دهم تا به طور مصنوعی گروه های جداگانه ایجاد کنم و آزمایش کنم که آیا آنها $\alpha$ های متفاوتی دارند یا خیر؟ من چیزهای بدی در مورد تقسیم میانه شنیده ام (مانند کاهش قدرت و غیره)، بنابراین در استفاده از این روش مردد هستم. هر پیشنهادی؟
چگونه می توان آلفای کرونباخ را زمانی که متغیر گروه بندی پیوسته است مقایسه کرد؟
114670
تحلیل من در رابطه با طبقه بندی با استفاده از ساده لوح است. مشکل این است که مجموعه داده ها از نظر ویژگی های تصویر هستند، هنگام بررسی همبستگی، نشانه هایی از همبستگی زیاد بین ویژگی ها وجود دارد. بنابراین چگونه می توان با این وضعیت برخورد کرد
نحوه برخورد چند خطی در بین ویژگی ها
1369
من یک فاصله مشخص با انحراف معیار دارم. من اکنون چند 100 فاصله را شبیه سازی کرده ام و می خواهم از این فاصله ها یک نمونه 10-20 شبیه توزیع اصلی ترسیم کنم. آیا روش استانداردی برای انجام این کار وجود دارد؟
نمونه برداری بر اساس توزیع نرمال
25552
فرض کنید من می‌خواهم یک ماتریس متعامد $n \times n$ ایجاد کنم (یعنی $H^T H=I$) اما با این ویژگی که $1-e < (tr H)/n < 1+e$ برای مقداری تلرانس از پیش تعیین شده $e$. چگونه می توانم این کار را انجام دهم؟ در حالت ایده‌آل، من می‌خواهم که آنها توزیع Haar را داشته باشند (مشروط به محدودیت ردیابی) اما به هر روشی که توزیع «معقول» تولید می‌کند رضایت می‌دهم. دو رویکردی که در ذهن داشتم: 1) استفاده از چرخش‌های Givens/زوایای اویلر نزدیک به 0 2) (ویرایش) با استفاده از ماتریس‌های متقارن چولگی $L$ نزدیک به 0 و ارزیابی $\exp L$ توجه: برنامه‌های ممکن شامل تخمین بیزی از ماتریس های کوواریانس
تولید ماتریس های متعامد نزدیک به هویت
56230
من می خواهم همزمان دو سری زمانی همبسته را پیش بینی کنم. در اینجا طرحی از یک سری زمانی در مقابل سری دیگر آمده است: ![متغیرهای همبسته](http://imgur.com/SBFGwlz.png) در حال حاضر من رگرسیون خطی جداگانه ای برای هر دوی آنها دارم که به برخی از IV ها و عملکرد در حین متکی هستند. قابل قبول است من می خواهم راهی برای در نظر گرفتن رابطه بین آنها در هنگام پیش بینی پیدا کنم. آیا کسی می تواند استراتژی هایی را برای این کار پیشنهاد کند؟ من بیشتر در پایتون کار می کنم بنابراین هر چیزی که قبلاً در پایتون پیاده سازی شده باشد یک امتیاز است!
مدلسازی دو متغیر همبسته
114458
من اکنون با اندازه افکت LMM مشکل دارم. یک نفر اصرار داشت که باید اندازه های افکت را بعد از مقادیر p داشته باشم. سپس فکر کردم که می توانم از تخمین در خروجی مقایسه زوجی با استفاده از تابع lsmeans استفاده کنم. او با استفاده از تخمین قانع نشد و به من پیشنهاد کرد که از d کوهن استفاده کنم. سپس به محاسبه cohen'd نگاه می کنم. فقط از ابزار و SD گروه ها استفاده می کند. از واریانس LMM نمی آید. نکته دیگر نیز در مورد اندازه افکت است، من از تابع مختلط در afex در R استفاده کرده ام که به طور کلی مقادیر قابل توجهی از پارامترها را به من می دهد، اما اندازه افکت را برای من ارائه نمی دهد. سپس از نویسنده آن تابع ایمیل زدم که چگونه می توانم اندازه افکت داشته باشم، و او پاسخ داد که توافقی در مورد نحوه محاسبه اندازه افکت در LMM وجود ندارد، بنابراین او در آن تابع ارائه نکرد، اما دوباره همکارم اصرار کرد که من باید آن را داشته باشد. من احساس می‌کنم اگر اندازه اثر محاسبه‌شده از جدول ANOVA را بخواهم، پس اندازه اثر LMM نیست که محاسبه می‌کنم. این خروجی از LMM در afex است. > mixed3 <- mixed(peak_Mid ~ (1| مورد) + (1+vowel3|speaker) + sex*vowel3*Language, data=data1.frame, na.action=na.omit) Fitting 9 (g)lmer() مدل ها: [.........] به دست آوردن 8 مقدار p: [توجه: روش با امضای 'sparseMatrix#ANY' برای تابع انتخاب شده است «kronecker»، امضای هدف «dgCMatrix#ngCMatrix». ANY#sparseMatrix نیز معتبر خواهد بود ........] > خلاصه (مخلوط3) اثر stat ndf ddf F. مقیاس گذاری p.value stat.U ndf.U ddf.U F.scaling.U p.value U 1 (Intercept) 9500.922104 1 70.40672 1.0000000 7.529698e-77 9500.922104 1 70.40672 NA 7.529698e-77 2 جنسیت 15.980281 1 71.52842 1.0000000 1.5385215181. 71.52842 NA 1.538529e-04 3 vowel3 8.596702 2 27.40531 0.9916348 1.264905e-03 8.669222 2 27.40520-27.40520- NA 863 NA 861. 3.996819 2 70.74337 0.9909675 2.267036e-02 4.033250 2 70.74337 NA 2.194066e-02 5 جنسیت:صدادار3 1.7467398 1.7467398 1.7467398 1.7467398 02 1.813334e-01 1.769323 2 75.92257 NA 1.774036e-01 6 جنسیت:زبان 4.136050 2 170.78334 0.9964821 1.76125425-1.7615425. 170.78334 NA 1.737140e-02 7 vowel3:Language 1.573332 4 66.15951 0.9799283 1.917146e-01 1.605559 4 66.15951 0.9799283 1.605559 4 66.15951. sex:vowel3:Language 1.239002 4 195.29430 0.9894859 2.956981e-01 1.252168 4 195.29430 NA 2.903144e-01 > آیا LMM هیچ پیشنهادی برای محاسبه اندازه دارد؟
چگونه اندازه افکت مناسب را از LMM بدست آوریم؟
56238
این سوال رو اینجا میذارم چون جوابی از math- Exchange نگرفتم... =) دارم کتاب تحلیل سری های زمانی میخونم و فرمول اتوکوواریانس نمونه تو کتاب اینطور تعریف شده: $\widehat{ \گاما}(h) = n^{-1}\displaystyle\sum_{t=1}^{n-h}(x_{t+h}-\bar{x})(x_t-\bar{x})$ با $\widehat{\gamma }(-h) = \widehat{\gamma}(h)\;$ برای $\;h = 0,1، ...، n-1$. $\bar{x}$ میانگین است. آیا کسی می تواند به طور مستقیم توضیح دهد که چرا ما مجموع را بر $n$ تقسیم می کنیم نه بر $n-h$؟ کتاب توضیح می‌دهد که این به این دلیل است که فرمول بالا یک تابع قطعی غیر منفی است و بنابراین تقسیم بر $n$ ترجیح داده می‌شود، اما این برای من روشن نیست. آیا کسی می تواند این را ثابت کند یا مثال یا چیزی نشان دهد. من کمی گیج هستم x) برای من در ابتدا چیزی که بصری است تقسیم بر $n-h$ است. آیا این یک برآوردگر بی طرفانه یا مغرضانه خودکوواریانس است؟ ممنون میشم اگه راهنمایی کنید =)
سوال در مورد تابع اتوکوواریانس نمونه
85451
من می‌دانم که یک تابع R spatstat برای تولید ppp (فرایند نقطه پواسون) وجود دارد، اما من در پایتون کار می‌کنم و نمی‌دانم spatstat.ppp در پشت صحنه چه می‌کند. اگر آرایه‌ای از جفت‌های مرتب شده از x و y تصادفی (در محدوده فضایی) ایجاد کنم، آیا این یک ppp خواهد بود (یا چه تفاوتی با آن خواهد داشت؟ آیا x و y باید بر اساس توزیع پواسون (np.random.poisson) انتخاب شوند؟ من اسناد spatstat را در ppp و صفحات ویکی‌پدیا در مورد فرآیند Poisson point و توزیع پواسون خوانده‌ام، اما فقط مهارتی برای آمار ندارم. آیا تعداد رویدادها تصادفی است؟ یا کجا در فضا سقوط می کنند؟ از هر کمکی که می توانید بکنید متشکرم. (ps -- این مشکل کاملاً مکانی است و بعد زمانی وجود ندارد.)
پواسون در مورد فرآیند نقطه پواسون چیست؟ (یا می توانم با استفاده از جفت های مرتب شده تصادفی یکی تولید کنم؟)
32522
آیا دلیل شهودی برای کاهش اثرات تصادفی به سمت مقدار مورد انتظارشان در مدل مختلط خطی عمومی وجود دارد؟
چرا جلوه های تصادفی به سمت 0 کوچک می شوند؟
56237
من یک مبتدی در R هستم و نمی‌دانم چگونه نتایج خود را تفسیر کنم..... سوال من در مورد نتایجی است که پس از انجام رگرسیون در تابع تولید Translog برای داده‌های پانل به دست آوردم: $ log(y)=log (A) + \alpha_{K} log(K) + \alpha_{L} log(L) + \beta_{KL} log(K)log(L) + \beta_{L^2} log^2(L ) + \beta_{K^2} log^2(K)$ L مخفف labor و K به معنای سرمایه است. نتایجی که من برای تفاوت های درون، تصادفی و اول به دست آوردم به شرح زیر است: درون: #در ضرایب : برآورد Std. خطای t-value Pr(>|t|) K 1.0902e-05 1.0654e-06 10.2326 <2e-16 *** L -2.4009e-06 1.5086e-07 -15.9150 <2e-16 *** LK 1. -03 3.6069e-03 0.5486 0.5833 LL 3.0511e-02 1.3141e-03 23.2173 <2e-16 *** KK 5.0333e-02 2.6650e-03 18.8868 <2e-16 *** --- کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 مجموع مجذورات: 6886.3 مجموع مربعات باقیمانده: 1983.9 R-Squared : 0.71191 Adj. R-Squared: 0.69692 F-statistic: 10729.1 در 5 و 21709 DF، p-value: < 2.22e-16 > #رگرسیون ترانسلگ تصادفی > tl.random<-plm(Y ~ K + L + LK + LL + KK، data=panel, model=random) > summary(tl.random) Oneway افکت (انفرادی) مدل اثر تصادفی (تبدیل سوامی-آرواس) فراخوانی: plm(فرمول = Y ~ K + L + LK + LL + KK، داده = پانل، مدل = تصادفی) پانل متعادل: n=462، T= 48، N=22176 جلوه‌ها: var std.dev share idiosyncratic 0.09139 0.30230 0.397 فردی 0.13856 0.37224 0.603 تتا: 0.8836 باقیمانده: حداقل. 1 ق. میانه سوم چهارم حداکثر -3.16000 -0.14200 0.00724 0.15400 4.89000 Coefficients : Estimate Std. خطای t-value Pr(>|t|) (Intercept) 1.6266e+00 3.9030e-02 41.6763 <2e-16 *** K 9.0932e-06 1.0552e-06 8.6178 <2e-16 *** L - e-06 1.5023e-07 -16.7684 <2e-16 *** LK 2.7566e-03 3.6102e-03 0.7636 0.4451 LL 2.9491e-02 1.3138e-03 22.7566e-03 22.4474 K. 2.6659e-03 18.3117 <2e-16 *** --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 مجموع مجذورات: 7183.6 باقیمانده جمع مربع: 2070.2 R-Squared : 0.71181 Adj. R-Squared: 0.71162 F-statistic: 10951.9 در 5 و 22170 DF، p-value: < 2.22e-16 > #رگرسیون اولین تفاوت translog > tl.fd<-plm(Y ~ K + L + LK + LL + KK -1, data=panel, model=fd) > summary(tl.fd) Oneway اثر (انفرادی) اولین تفاوت مدل #تفاوت اول رگرسیون فراخوانی: plm(فرمول = Y ~ K + L + LK + LL + KK - 1، داده = پانل، مدل = fd) پانل متعادل: n=462، T =48، N = 22176 باقیمانده: حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر -1.4900 -0.0321 0.0199 0.0202 0.0715 0.9860 Coefficients : Estimate Std. خطای t-value Pr(>|t|) K 2.3847e-07 2.8965e-06 0.0823 0.9343856 L -8.0238e-07 2.3128e-07 -3.4693 0.0005Ke-206 L *** 6.7755e-03 -3.9829 6.831e-05 *** LL 5.6920e-02 2.3933e-03 23.7830 < 2.2e-16 *** KK 3.7811e-02 5.1254e-02 5.1254e-02 5.1254e-02 5.1254e-02 5.1254e-02 5.1254e-02 - Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 مجموع مجذورات: 426.54 باقیمانده جمع مربع: 269.92 R-Squared : 0.38799 Adj. R-Squared : 0.3879 سوال من این است: 1) آیا دلیلی وجود دارد که تخمین ضریب برای LK هم در داخل و هم به صورت تصادفی معنی دار نباشد؟ اما در تفاوت اول؟ 2) چرا نتایج بسیار مشابه درون و تصادفی ارائه می شود و چرا تفاوت اول با آنها متفاوت است؟ 3) آیا می توانم خطای استاندارد و مربع R را تفسیر کنم؟ آیا چیز دیگری هست که بتوانم تفسیر کنم؟ بهترین مدل از این سه کدام است؟ از کمک شما بسیار سپاسگزارم
تفسیر رگرسیون Translog
110314
من دو مجموعه از برچسب های نمونه متناظر با ویژگی های کم و بیش یکسان دارم. بیایید اولی را A و دومی را B بخوانیم. هر دو برچسب باینری هستند. دقت طبقه بندی برچسب A 66٪ است. دقت طبقه بندی برچسب B 58٪ است. برچسب مشترک C از برچسب های A و B با استفاده از عملیات AND محاسبه می شود، به عنوان مثال. اگر A و B هر دو True باشند، برچسب C درست است، در غیر این صورت برچسب C نادرست است. اکنون، شهود من به من می گوید که دقت طبقه بندی برای برچسب C باید بالاتر از A یا B یا حداقل برابر با B باشد. برچسب C ترکیبی از ویژگی های برچسب های A و B را دارد. اما دقت طبقه بندی آن 53 است. ٪. چه چیزی می دهد؟ آیا من به این موضوع اشتباه فکر می کنم؟ یا ممکن است یک خطا در روش باشد؟ برای بدست آوردن نسبت 50:50 از مجموعه داده در همه موارد نمونه برداری شده است. الگوریتم مورد استفاده SVM با هسته RBF از پیاده سازی SciKit است. دقت ها با استفاده از اعتبارسنجی متقاطع با تقسیم 10×80-20 به دست آمد. مقادیر ویژگی در پیش پردازش مقیاس بندی شدند.
برچسب مشترک بین دو مجموعه داده نتایج قابل توجهی بدتر ایجاد می کند
34903
من تازه وارد آمار هستم و این را پیدا کردم. > در آمار، θ، حرف یونانی کوچک «تتا»، نام معمولی برای > (بردار) پارامتر(های) برخی از توزیع احتمال عمومی است. یک مشکل رایج > یافتن مقدار(های) تتا است. توجه داشته باشید که هیچ معنی > در نامگذاری یک پارامتر به این شکل وجود ندارد. ما ممکن است آن را هر چیز دیگری بنامیم. در واقع، بسیاری از توزیع‌ها دارای پارامترهایی هستند که معمولاً نام‌های دیگری به آنها داده می‌شود. به عنوان مثال، نامگذاری میانگین و > انحراف توزیع نرمال μ (بخوانید: 'mu') و انحراف σ > ('sigma') رایج است. اما من هنوز نمی دانم که در انگلیسی ساده به چه معناست؟
تتا به چه معناست؟
114671
فرض کنید $x\in\mathbb{N}$ از توزیع ناشناخته تبعیت می کند، و من می توانم به طور متوالی و مستقل نمونه های نامحدودی از $x$ را بدست بیاورم. اکنون، با توجه به نرخ خطای $\epsilon$ و اطمینان $1-\delta$، آیا می توانم یک عدد $m$ به اندازه کافی بزرگ پیدا کنم که اگر نمونه های $m$ را ترسیم کنم، احتمال رسم نمونه فراتر از حداکثر مقدار $M$ وجود داشته باشد. مشاهده شده کمتر از $\epsilon$ با اطمینان $1-\delta$ است؟ (یعنی، اگر قبلاً یک نمونه $S_m = \\{x_1، \ldots، x_m\\}$، سپس $Pr[Pr[x_{m+1}>\text{max}\\{x_i | x_i\in S_m\\}]\geq\epsilon]\leq\delta$)
اندازه نمونه را با توجه به توزیع ناشناخته با نرخ خطا و اطمینان مشخص تعیین کنید
114675
من واقعاً می خواهم بفهمم ریاضی اینجا چگونه کار می کند. من سعی می کنم خطای استاندارد مقادیر برازش را برای یک مدل رگرسیون سری زمانی به دست بیاورم. در رگرسیون سری های غیرزمانی، می دانم که می توانم انتقال داده ها را در ماتریس واریانس - کوواریانس ضرایب مدل و سپس جابجا کنم. دوباره در مقادیر داده ضرب کنید تا خطاهای استاندارد مقادیر برازش شده را بدست آورید. اما من مطمئن نیستم که چگونه می توانم این کار را انجام دهم وقتی که یک اصطلاح اتورگرسیو را اضافه می کنم. require(forecast) require(tserieS) متغیر پاسخ Sablects <- rnorm(10) متغیرهای کمکی my.xreg <- cbind(rnorm(10),rbinom(10,1,0.5)) در داده های واقعی من، مقادیر عادی شده اند، بنابراین من تنظیم کردم وقفه در اینجا برابر با صفر است. m4<-arima(Sablects, order=c(2,0,0),fixed=c(0,NA,0,NA,NA),xreg=my.xreg) تابع پیش بینی خطاهای استانداردی را در من به من می دهد پیش بینی نمونه (مقادیر برازش مدل من). my.se<-predict(m4,newxreg=my.xreg,n.ahead=10)$se my.se حالا برای مقایسه خروجی my.se، می‌خواهم این کار را به صورت ریاضی انجام دهم اما نمی‌دانم چه کار کنم. برای مقادیر عبارت ar2 استفاده کنید. من از 1 به عنوان یک مکان نگهدار استفاده می کنم تا نشان دهم که خروجی من با مقادیر «my.se» بالای C <- cbind(rep(1,nrow(my.xreg)),my.xreg[,1],my برابری نمی کند. xreg[,2]) C من فکر می کنم این مقدار باید با اولین مقدار در my.se برابر باشد، اما مقدار مشابه my.se sqrt(t(C[1,]) %*% را تولید نمی کند. vcov(m4) %*% C[1,]) همچنین، من با ضرب ماتریس خیلی خوب نیستم، اما در اینجا کار من برای بدست آوردن همه مقادیر se است. se.output <- matrix(nrow=nrow(C)) مشخص کنید که حداکثر عدد i برابر با تعداد ردیف های C باشد. for(i در 1:nrow(C)){ # حلقه ضرب خود را برای هر ردیف (i) از «C» انجام دهید. برای هر تکرار، داده های جدید را در ردیف جدید se.output se.output[i] ذخیره کنید <- sqrt(t(C[i,]) %*% vcov(m4) %*% C[i,]) } se.output متشکرم
خطاهای استاندارد مقادیر برازش رگرسیون سری زمانی
32531
من به دنبال روشی برای تشخیص دنباله‌ها در داده‌های گسسته تک متغیره بدون مشخص کردن طول دنباله یا ماهیت دقیق دنباله از قبل هستم (مثلاً ویکی‌پدیا - کاوی دنباله‌ای را ببینید) در اینجا داده‌های مثال x <- c(round(rnorm(100) هستم. )*10)، c(1:5)، c(6،4،6)، گرد(rnorm(300)*10)، c(1:5)، round(rnorm(70)*10)، c(1:5)، round(rnorm(100)*10)، c(6،4،6)، round(rnorm(200)* 10)، c(1:5)، دور(rnorm(70)*10)، c(1:5)، c(6،4،6)، گرد(rnorm(70)*10)، c(1: 5) round(rnorm(100)*10)، c(6،4،6)، round(rnorm(200)*10)، c(1:5)، round(rnorm(70)*10)، c(1: 5)، c(6،4،6)) روش باید بتواند این واقعیت را شناسایی کند که x شامل دنباله 1،2،3،4،5 حداقل هشت بار و دنباله 6،4،6 حداقل پنج بار است. بارها (حداقل زیرا بخش عادی تصادفی به طور بالقوه می تواند همان دنباله را ایجاد کند). من بسته قوانین و arulesSequences را پیدا کردم اما نتوانستم آنها را با داده های تک متغیره کار کنم. آیا بسته های دیگری وجود دارد که در اینجا مناسب تر باشد؟ من می دانم که تنها هشت یا پنج مورد برای هر دنباله برای تولید اطلاعات آماری معنی دار کافی نیست، اما سوال من این بود که بپرسم آیا روش خوبی برای انجام این کار وجود دارد، با فرض اینکه داده ها چندین بار تکرار شوند. همچنین به بخش مهم آن توجه داشته باشید که این روش بدون اینکه از قبل بدانیم که ساختار داده دارای دنباله‌های «1،2،3،4،5» و «6،4،6» است، انجام می‌شود. هدف این بود که آن توالی‌ها را از «x» پیدا کنیم و مشخص کنیم کجا در داده‌ها رخ می‌دهد. هر گونه کمکی بسیار قدردانی خواهد شد! ** P.S ** این به پیشنهاد یک نظر stackoverflow در اینجا قرار داده شد... **به روز رسانی:** شاید به دلیل دشواری محاسباتی به دلیل تعداد ترکیبات، طول دنباله می تواند حداکثر مثلاً 5 باشد؟
تشخیص توالی r برای داده کاوی توالی تک متغیره
22462
بیایید بگوییم که من یک مدل رگرسیون لجستیک را جمع آوری می کنم که در آن چیزی (y) را بر اساس روز هفته پیش بینی می کنم. با این حال، مدل باید برای هر روز حساب کند. بنابراین، به جای: y = B0 + B1*(روز) که در آن روز یک متغیر طبقه بندی با 7 سطح است. این خواهد بود: y = B0 + B1 * (دوشنبه) + B2 * (سه شنبه) + B3 * (چهارشنبه) + ... + B7* (یکشنبه) من اساساً فکر می کنم که هر روز به یک ضریب جداگانه نیاز دارد زیرا هر روز دارای ضریب تاثیر متفاوت بر y با این حال، من فکر می‌کنم که هر کدام باید یک متغیر ساختگی باشند تا برای دوشنبه، 1 برای دوشنبه، و 0 برای غیر دوشنبه، و غیره باشد. من فقط کنجکاو هستم که آیا منطق آماری برای انجام این کار به روش دوم با روزهای جداگانه وجود دارد؟ بهترین راه برای انجام این کار چیست؟
از جمله روز هفته در مدل لاجیت
56234
فرض کنید یک زنجیره مارکوف وجود دارد که ماتریس انتقال آن به صورت زیر تعریف می‌شود. & 1 & 0 & 0 \\\ 0 & 1 & 0 & 0 \end{array} \right) $$ اکنون به من گفته شده است که کلاس‌های ارتباطی زیرمجموعه‌ای از حالت‌ها هستند که با یکدیگر ارتباط برقرار می‌کنند، یعنی $P_{ij} > 0$ و $P_{ji} > 0$. در مثال بالا 1 فقط با خودش ارتباط برقرار می کند، 2 و 4 با یکدیگر ارتباط برقرار می کنند، اما **حالت 3 با هیچ حالت دیگری حتی خودش** ارتباط برقرار نمی کند. بنابراین کلاس های ارتباطی {1} و {2،4} هستند. اما آیا {3} چنین کلاسی است؟ عجیب به نظر می رسد که اینطور نباشد، اما به نظر نمی رسد با تعریفی که من دیدم مطابقت داشته باشد. احتمالاً زنجیره هنوز قابل کاهش است؟ **ویرایش:** _مشکلی که در ابتدا ردیف بالای P به یک جمع نمی شد رفع شد.
زنجیره مارکوف تقلیل پذیر با حالتی که با هیچ ارتباطی برقرار نمی کند
104139
من به کمک نیاز دارم تا بفهمم با چه ساختار داده‌ای سروکار دارم، و بنابراین از چه مدل‌های تخمین و استنتاج می‌توانم استفاده کنم. * واحدها و دوره های متعددی وجود دارد. * بدون شناسه واحد، بنابراین هیچ راهی برای مطابقت با مشاهدات در طول زمان برای ایجاد مجموعه داده پانل سنتی شما وجود ندارد. * بدتر از آن، احتمال زیادی وجود دارد که واحد مشابه در یک دوره زمانی مشخص مشاهده شود. * این امر مشکلات همبستگی سریالی را ایجاد می کند که اگر بتوانم مشاهدات را به واحدها پیوند دهم می توان با آنها مقابله کرد. مثال * داده های هفتگی بازدید از فروشگاه های مواد غذایی را در نظر بگیرید. برای هر بازدید، اقلام خریداری شده، کل هزینه ها و کد پستی خریدار را می بینم. * اگر افراد به یک بازدید در هفته محدود می‌شدند و مجموعه داده دارای شناسه‌های خریدار بود (در اصل برچسب‌ها، به من امکان می‌داد افراد را در طول زمان ردیابی کنم)، من آن را یک مجموعه داده پنل معمولی در نظر می‌گرفتم. * اگر افراد به یک بازدید در هفته محدود می‌شدند، اما پانل هیچ شناسه‌ای نداشت، این را به یک مقطع تکراری نزدیک‌تر در نظر می‌گرفتم. * بازدیدهای چندگانه هفتگی و شناسه‌های فردی با آنچه که من پنل داده‌های معمولی می‌دانم مناسب نیستند، اما من این کار را دیده‌ام. سوال من این است: با بازدیدهای متعدد و بدون شناسه، با چه نوع مجموعه داده ای سروکار دارم؟ بخشی از مشکل این است که نمی‌دانیم چه چیزی را در ادبیات آمار/اقتصاد سنجی جستجو کنیم. من از هر گونه اشاره ای، از جمله ارجاع به مقالات تا حدی فنی، قدردانی می کنم.
داده های پانل بدون شناسه واحد
56236
من در حال حاضر در حال خواندن ریاضی پشت تست A/B هستم که توسط آمازون نوشته شده است و گیر کردم. در جایی می گویند: > برای تعیین فاصله اطمینان 95 درصد در هر طرف نرخ تبدیل، خطای استاندارد را با صدک 95 (یک دنباله) یک > توزیع نرمال استاندارد (مقدار ثابت برابر با 1.65) ضرب می کنیم. سپس آنها از آن ثابت برای محاسبه فاصله اطمینان استفاده می کنند: محدوده = نرخ تبدیل +- (1.65 x خطای استاندارد) جایی خواندم تا مقدار ثابت فوق الذکر را از جدول زیر دریافت کنم: http://www.sjsu.edu/faculty/gerstman /StatPrimer/t-table.pdf ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/PiSUh.png) مشکل این است که من نمی‌توان «1.65» را در جایی برای «95٪» دید و نزدیک‌ترین مقدار آن «1.960» است، از این رو سردرگمی من است. **کسی می تواند به من توضیح دهد که 1.65 از کجا می آید؟**
برای درک محاسبه در مورد فاصله اطمینان به کمک نیاز دارید
110311
آیا کسی تجربه ای در برخورد با وارد کردن داده ها در پرسشنامه دارد؟ من جدولی دارم که نشان دهنده ترجیحات افراد در لباس است. برخی از ارزش‌ها را قبلاً دارم، اما برخی دیگر گم شده‌اند و می‌خواهم نوعی تلقین را انجام دهم. آیا کسی مقاله‌ای دارد که حاوی اثبات استفاده از برخی الگوریتم‌های ورودی خاص برای چنین نوع داده‌هایی باشد؟
وارد کردن داده ها در پرسشنامه ها
96154
من یک سوال کلی در مورد رسیدگی به مقادیر پرت هنگام انجام تحلیل تک متغیره و چند متغیره دارم، اما می‌خواهم وضعیت خاص خود را برای وضوح بحث ارائه کنم. من با داده های زیست محیطی برای تقریباً 100 درخت کاج سروکار دارم که تقریباً به طور مساوی بین 4 گروه درمانی تقسیم شده اند. تقریباً 20 ویژگی مختلف برای هر درخت اندازه گیری شد. ویژگی ها تقریباً به اندازه گیری های مورفولوژیکی (یعنی سن درخت، اندازه، وضعیت آب، اندازه برگ ... دسته ای از شاخص های سلامت) و اندازه گیری های بیوشیمیایی (غلظت مواد شیمیایی مختلف مرتبط با پاسخ های تنش درخت) تقسیم می شوند. هدف تصویر بزرگ تجزیه و تحلیل من یافتن رابطه بین داده های ریخت شناسی و داده های بیوشیمیایی است. من چندین آزمایش را برای مقادیر پرت چند متغیره انجام دادم - که با یکدیگر توافق داشتند و 5 درخت را شناسایی کردند، بنابراین آنها را از مجموعه داده حذف کردم. دو درخت دیگر به طور رسمی به عنوان پرت چند متغیره شناسایی نشدند، اما پرت تک متغیره بودند (تعریف شده به صورت |Z|>2) در >5 ویژگی (هیچ درخت دیگری >2 نبود) بنابراین من آن دو درخت را نیز از مجموعه داده حذف کردم. پس از حذف آن 7 درخت، من با چند ده نقطه داده پرت تک متغیره در سراسر داده ها پراکنده می شوم. من چندین تکنیک چند متغیره از جمله PCA و CCorA و همچنین آزمون‌های ANOVA تک متغیره و post hoc (برای هر ویژگی، بر اساس چهار گروه درمانی) را انجام می‌دهم. برای تجزیه و تحلیل چند متغیره، آموزش من این است که نقاط داده پرت را با میانگین گروهی جایگزین کنم - به طوری که درخت بتواند به ساختار کلی داده چند متغیره (برای همه ویژگی های دیگر) کمک کند، اما نقطه پرت حذف می شود تا به طور مصنوعی حذف نشود. همبستگی آن ویژگی خاص را افزایش دهید. اگر من یک نقطه داده پرت را به این شکل مدیریت کنم، آیا باید آن را با میانگین گروهی برای تجزیه و تحلیل تک متغیره جایگزین کنم، یا باید تجزیه و تحلیل تک متغیره را روی مجموعه داده اصلی با درج مقدار پرت انجام دهم؟ همچنین برای پیشینه: من در جمع‌آوری این داده‌ها شرکت نداشتم، بنابراین معیارهای مبتنی بر تجربه برای شناسایی نقاط پرت ندارم - در برخی موارد ممکن است ابزارهای معیوب یا اندازه‌گیری‌های بد باشد، اما همچنین کاملاً ممکن است که یک نقطه پرت واقعی اندازه‌گیری شده باشد ( آنها در زیست شناسی گیاهی بسیار رایج هستند - گیاهان کارهای عجیب و غریب زیادی انجام می دهند).
زمان حذف/جایگزینی نقاط پرت برای انواع مختلف تحلیل
60134
یکی از فرضیه های اولیه در نظریه رگرسیون لجستیک استقلال مشاهدات است. هنگامی که مدل به داده‌ها برازش می‌شود (برای مثال با استفاده از روش بیشینه‌سازی احتمال)، می‌پرسم، آیا می‌توان استقلال باقیمانده‌ها را در رگرسیون لجستیک آزمایش کرد؟ (همانطور که رویه رایج در حوزه سری زمانی است) به نظر من، فرضیه استقلال در تئوری با اهمیت است زیرا تابع احتمال مبتنی بر آن واقعیت است. متأسفانه، من نتوانستم چیزی در این مورد پیدا کنم و در تعجب بودم که چرا.
آزمون فرضیه استقلال در رگرسیون لجستیک
57722
با حرکت آنلاین آموزش آمار، مربیان با مشکلات جدیدی در ارتباط با مدیریت دوره های خود مواجه می شوند. به عنوان مثال، جف لیک و راجر پنگ، امسال تقریباً 100000 دانش آموز را از طریق دوره آموزشی آموزش دادند. با چنین ثبت نام گسترده، راه حل های جدید برای درجه بندی ضروری است. راجر از درجه بندی خودکار استفاده کرد و جف از سیستم بررسی همتایان استفاده کرد. یکی از چالش های رویکرد دوم، توسعه روبریک های درجه بندی (عمومی) برای تجزیه و تحلیل داده ها است. با این حال، به نظر می رسد که توافق بسیار کمی در مورد ویژگی هایی که چنین روبریکی باید شامل شود، وجود دارد. در حالی که این سوال به طرز ناامیدکننده‌ای مبهم است، من فکر می‌کنم که یک بحث اجتماعی ممکن است واقعاً برای کسانی از ما که تلاش می‌کنیم چنین موضوعاتی را تولید کنیم، سودمند باشد. هر گونه پیشنهاد بسیار قدردانی می شود!
روبریک برای تجزیه و تحلیل خوب داده ها
104441
من سعی می کنم یک فرم تحلیلی برای توصیف این توابع چگالی احتمال پیدا کنم: ! باید از ترکیب خطی توابع پایه استفاده کنم (بنابراین می توانم از رگرسیون خطی برای یافتن ضرایب هر یک از پی دی اف ها استفاده کنم) اما مطمئن نیستم از کجا شروع کنم. همچنین زمانی که با یک گاوسی درهم می‌آید باید نسبتاً آسان باشد تا از نظر تحلیلی ادغام شود. $$ \int_{-\infty}^\infty \mathrm{d}\mu \quad p(\mu) \frac{1}{\sqrt{2\pi}\sigma} \exp \left[-\frac {\left(\mu - x \right)^2}{2\sigma^2} \right] = f(x) $$ من فقط درگیر ایده هایی برای توابع توزیع هستم. من با بسیاری به غیر از گاوس، ماکسولی و غیره آشنا نیستم. سعی کرده ام آنها را با ترکیبی خطی از چندجمله ای های گاوسی * تطبیق دهم، اما در نهایت با نوسانات زیادی مواجه شدم و برای دم دست راست مناسب نبودم. -سمت آیا کسی اینجاست که به نمودارها نگاه کند و فرم خوبی برای تابع توزیع بداند؟! پیشاپیش متشکرم
یافتن فرم تحلیلی برای توزیع ها با استفاده از رگرسیون خطی نیاز به ایده دارد
26372
من به دنبال یک کتاب مقدماتی هستم که به من کمک کند مهارت هایی در کار با توزیع های چند متغیره ایجاد کنم. به عنوان مثال، من می‌خواهم بتوانم با نرمال چند متغیره به راحتی کار کنم، چیزی بین یک دوره مقدماتی آمار که در مورد توزیع صحبت می‌کند و یک دوره رباتیک جدی که در مورد فیلتر کالمن صحبت می‌کند.
کتاب مقدماتی آمار چند متغیره
106356
من تفسیر ضریب همبستگی رتبه اسپیرمن را برای یک مجموعه داده دو بعدی محاسبه کردم. سپس با انجام یک آزمایش جایگشت اهمیت آن را آزمایش کردم و یک مقدار p به دست آوردم. من با تفسیر مقدار ضریب مشکل دارم. در حالی که من درک می کنم که ضریب رتبه اسپیرمن. مقدار نباید اشتباه شود / به عنوان اطلاعاتی در مورد اهمیت آن تفسیر شود، من هنوز تفسیر ساده ای برای مقدار ضریب ندارم. آزمون معناداری اساساً به ما نشان می دهد که در صورت رعایت فرضیه صفر، چقدر احتمال دارد که ضریب بزرگتر از ضریب مشاهده شده باشد، اما چیزی در مورد مقدار مشاهده شده که به عنوان نقطه شروع استفاده می شود، نمی گوید. آیا برای مثال مقدار 0.60 به این معنی است که 60٪ جفت های رتبه بندی شده بیشتری در مجموعه داده های من به دنبال یک تابع گسسته هلالی یکنواخت وجود دارد.
تفسیر ضریب همبستگی رتبه اسپیرمن - فراتر از اهمیت آن
52003
من سعی می کنم حجم نمونه مورد نیاز را با G*Power برای مطالعه پایان نامه خود محاسبه کنم. من یک MANOVA اقدامات مکرر را در درون/بین تعامل انجام خواهم داد. سوال من در فیلد تعداد اندازه گیری ها است، آیا این به سادگی تعداد DV ها است (من 3 عدد خواهم داشت) یا این را با تعداد دفعاتی که داده ها را در DV ها جمع آوری خواهم کرد (با 2 گروه در 2 بار) تکثیر کنم. کدام 12 خواهد بود)؟
فیلد ورودی «تعداد اندازه‌گیری‌ها» MANOVA اندازه‌گیری‌های توان تکراری
114676
من یک سوال بسیار مشابه را در انجمن لاتکس اینجا پرسیده ام، اما برای پرداختن به بخشی از سوالم که در آن می‌پرسم آیا راه بهتری برای تجسم داده‌های من وجود دارد یا خیر، می‌خواستم آن را در اینجا پست کنم. همانطور که می توانم کمی فنی تر به دست بیاورم: می توانم تعداد خوشه ها را انتخاب کنم، اما فکر می کنم از 20 بیشتر نخواهد شد. نگاشت ها یک بردار 100 بعدی برای هر کلمه ایجاد می کنند و خوشه ها از آنها با k-means تولید می شوند. فقط برای تکرار، مشکل برای من در روشی است که می توان داده های مهاجرتی را که در یک خوشه برای نگاشت اول و در خوشه دیگر در خوشه دوم قرار می گیرند، به روشی واضح و دقیق نشان داد.
تجسم مهاجرت خوشه
57729
آیا راهی برای ارتباط خطا در یک برازش (MSD - جابجایی میانگین مربعات) با خطای محاسبه انجام شده با پارامترهای مرتبط با تناسب وجود دارد؟ مشکل خاص من سر و کار داشتن با داده های طیف سنجی است. من می دانم که بسیاری از افراد از تکنیک های طیف سنجی برای تخمین غلظت مواد مختلف استفاده می کنند، اما من می خواهم بدانم که این اندازه گیری ها چقدر می توانند دقیق باشند (یعنی می خواهم خروجی چیزی مانند گونه A $20\% \pm 1\% است دریافت کنم. $ از نمونه داده شده). علاوه بر این، من می خواهم بدانم چگونه با موارد بسیار شدید، که در آن چندین نوع مختلف مواد وجود دارند، و ممکن است موارد قابل مشاهده ای داشته باشند که مستقیماً روی یکدیگر قرار می گیرند، برخورد کنم. یک مثال ساده ممکن است موارد زیر باشد: ![](http://terpconnect.umd.edu/~toh/spectrum/Demofitgauss2.GIF) می توانید ببینید که دو گونه برای داده ها مناسب هستند. اگر نواحی سپس با محاسبه به درصد تبدیل شوند، (یعنی نمونه گرفته شده 48٪ B، 52٪ A است) چگونه می توانیم از این مطمئن شویم و چقدر دقیق است؟ من می دانم که این بستگی به دقت تخمین موقعیت های این پیک ها دارد که (شاید) توسط کاربر ارائه می شود، بنابراین من به روشی علاقه مند هستم که یک خطای شناخته شده در پارامترها دریافت کند (مثلا $\pm 15$ در محور x برای خطا در موقعیت مرکز اوج، +-10 خطا در عرض پیک و غیره). من گمان می‌کنم که خطاها با همپوشانی قابل مشاهده‌ها بزرگ می‌شوند (یعنی مراکز اوج برای دو تابع برازش یکسان هستند). علاوه بر این، ممکن است این طیف‌ها دارای پس‌زمینه بزرگی باشند، که ممکن است خطا نیز داشته باشد و روی همه گونه‌های دیگر و خطاهای آنها تأثیر بگذارد. من مطمئن نیستم که آیا این پس‌زمینه به گونه‌ای متفاوت از سایر گونه‌ها رفتار می‌شود یا می‌توان با الگوریتمی مشابه با سایر گونه‌ها برخورد کرد. برای توضیح بیشتر نظر من، در اینجا تصویری از اندازه گیری طیف سنجی چندین ماده مختلف وجود دارد: ![\[image\]\(http://imgur.com/3mO80Bj\)](http://i.stack.imgur .com/4fb8M.jpg) در بالا به رنگ قرمز داده های خام داده شده توسط جذب نوری (داده های اندازه گیری شده)، در حالی که سیاه یک پس زمینه محاسبه شده است، و آبی یک مجموع محاسبه شده همه گونه ها از جمله پس زمینه. در پایین، پس‌زمینه محاسبه‌شده کم می‌شود (خطوط آبی و قرمز اکنون شامل پس‌زمینه محاسبه‌شده نمی‌شوند)، در حالی که چندین خط رنگی مختلف زیر، هر گونه مجزا برای ایجاد خط آبی خلاصه می‌شود. اینها اندازه گیری های محاسبه شده ای هستند که من علاقه مند به تخمین خطا در آنها هستم. همانطور که می بینید، خطا در این مثال برای اکثر اندازه گیری های محاسبه شده بسیار بزرگ است. هر گونه ممکن است چندین قله مرتبط با خود داشته باشد یا نداشته باشد، که می تواند با خط محاسبه شده زرد پررنگ نشان داده شود. علاوه بر این، می‌توانید ببینید که چندین مرکز پیک محاسبه‌شده در اطراف یک مکان قرار می‌گیرند، بنابراین این احتمالاً اطمینان از درست بودن اندازه‌گیری‌ها را کاهش می‌دهد، حتی اگر خط محاسبه‌شده مستقیماً روی داده‌های خام بیفتد. من میانگین جابجایی مجذور را به عنوان تخمینی سریع از میزان خوب بودن تناسب محاسبه کرده‌ام، اما می‌دانم که این هیچ کاری برای رفع نگرانی‌های بزرگتر از عدم قطعیت اندازه‌گیری محاسبه‌شده واقعی انجام نمی‌دهد. بیشترین کاری که من واقعاً در آمار انجام داده‌ام انحراف معیار و محاسبات مربوط به چندین اندازه‌گیری است، اما این کاملاً متفاوت است، زیرا به این می‌پردازد که چقدر می‌توانید تنها با یک اندازه‌گیری مطمئن باشید و تفاوت‌هایی را در چندین اندازه‌گیری مشاهده نکنید. آیا این مشکل با استفاده از فواصل اطمینان و سطوح اطمینان حل می شود؟ (باز هم می گویم که من با آمار بسیار تازه کار هستم و هرگز در مورد آن دوره گذرانده ام، بنابراین اگر این موضوع ابتدایی یا پیش پا افتاده است عذرخواهی می کنم)
خطا در تخمین با داده های پیوسته
51061
نمودار احتمال عادی به عنوان نموداری از جفت $n$ تعریف می شود: ($[100(i-0.5)/n]$ th $z$ صدک، $i$مین مشاهده). از نظر تئوری، نقاط باید نزدیک به یک خط مستقیم با شیب $\sigma$ قرار گیرند و $\mu$، جمعیت sd و میانگین متغیر تصادفی مشاهده شده را قطع کنند. **اما همانطور که در نتایج شبیه‌سازی با R نشان داده شده است، وقفه همیشه کمتر از $\mu$ به نظر می‌رسد، چرا؟** در اینجا کد R است که من استفاده کردم: simu = function(n) { y = sort(rnorm(n, 40, 0.1)) yperc = ((1:n)-.5)/n x = qnorm(yperc) plot(x,y) } simu(10000) و نموداری که دریافت می کنم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/goZhW.png) _**همچنین، نقاط وسط همیشه متراکم تر از نقاط دو طرف به نظر می رسند، چرا؟_** * * * پیوند @whuber در نظرات بسیار مفید است. من فقط چند یادداشت را در اینجا برای مراجعات بعدی می نویسم. با اعمال یک تابع درصد خطی بر روی دستورات، و تحت محدودیت تقارن، $f(i) = ai + b$، $f(n+1-i) = a(n+1-i) + b$ داریم. ، همچنین $f(n+1-i) + f(i) = 1$، با ترکیب اینها، $a(n+1) + 2b = 1$ بدست می آوریم، به $a$ مقدار دلخواه از $1/n$، سپس $b$ باید برابر با $-0.5/n$ باشد.
آیا نمودار احتمال عادی بطور سیستماتیک میانگین را دست کم می گیرد؟
102843
من یک تحقیق پزشکی دارم که در آن دو مجموعه داده دارم 1) گروه کنترل [افرادی که هیچ بیماری ندارند] 2) گروه مطالعه [افرادی که بیماری خاصی دارند] در هر دسته زیرگروه هایی مانند سن، جنسیت، محدوده فشار خون وجود دارد. ، محدوده کلسترول... اکنون من تعداد کمی از مشاهدات (حدود 50) را هم برای گروه کنترل و هم برای گروه مطالعه دریافت کردم. من پارامترهای مختلفی مانند فشار خون، سطح کلسترول و غیره را مشاهده می‌کنم. می‌خواهم اهمیت آماری این پارامترها (فشار خون / کلسترول) را در گروه مورد مطالعه ثابت کنم. بهترین راه برای انجام آن چیست. آیا باید از توزیع T استفاده کنم یا توزیع نرمال؟ همچنین هنگام محاسبه p-value، آیا باید هر زیر گروه در گروه مطالعه (بر اساس محدوده) را با زیر گروه مربوطه در گروه کنترل مقایسه کنم یا مقدار p را به عنوان یک کل برای مطالعه در مقابل گروه کنترل محاسبه کنم؟
از کدام آمار استفاده کنیم؟