_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
62455 | به دلیل برخی وظایف A/B، باید چند تست برای نسبت ها در R انجام دهم. من می دانم که با توجه به s1، sc تعداد موفقیت دو نمونه و n1، nc تعداد کل آزمایش ها، می توانم این کار را برای H0 انجام دهم: s1/n1 = sc/nc prop.test(c(s1, sc), c (n1, nc), conf.level=.95, correct=FALSE, alternative='two.sided') برای بدست آوردن فاصله اطمینان اختلاف p1 - pc (زمانی که p=s/n) و p-value. اگر من نیاز به آزمایش H0 داشته باشم چه می شود: p1 - pc <= 0؟ من این را امتحان کردم اما مطمئن نیستم درست باشد: prop.test(c(s1, sc), c(n1, nc), conf.level=.95, correct=FALSE, alternative='greater') اشکالی ندارد برای بررسی از این طریق؟ چگونه می توانم آمار آزمون را با فرض واریانس تلفیقی محاسبه کنم؟ | چگونه یک تست یک طرفه برای نسبت در R بسازیم |
90237 | در اینجا گزیده ای از یک سوال کتاب آمده است: > روش فاصله t فرض می کند که توزیع اساسی > تقریباً نرمال است. اگر بخواهیم 800 نمونه با اندازه نمونه 15 > از این توزیع نمایی و محاسبه بازه های t 95 درصد تولید کنیم، نسبت بازه هایی که میانگین واقعی 900 را در بر می گیرند چقدر > است؟ آیا این همان چیزی است که شما انتظار دارید؟ توضیح دهید. در اینجا کد R برای 800 نمونه آمده است. sims = 800 n = 15 نمونه نمونه <- replicate(sims, rexp(n, rate = lambda)) mu = 1/lambda نتایج <- as.numeric(sims) t.int <- matrix(FALSE, sims, 2) برای (i در 1:sims) { t.int[i, ] <- t.test(samples[, i], conf.level = 0.95)$conf.int نتایج[i] <- t.int[i, 1] < mu & t.int[i, 2] > mu } sum(نتایج)/sims خروجی هر بار تغییر میکند اما تعداد کمی 0.9175 هستند، 0.91، 0.905، 0.925 سؤال من این است که من واقعاً نمیفهمم که «تناسبی از فواصل که میانگین واقعی را در بر میگیرد» به چه معناست. 900 چگونه می توانم بفهمم این چه می پرسد و چه پاسخی دارد؟ آیا می پرسد که نتیجه R در یک مقدار مشخص چند برابر است؟ آیا قرار است کد را چندین بار با sims = 900 اجرا کنم و کمترین و بیشترین عدد را برای یک محدوده پیدا کنم؟ | نسبت فواصل از روش t-interval |
19592 | بهترین روش آماری برای تجزیه و تحلیل نتایج تک باشگاهی فوتبال (فوتبال)؟ من تمام نتایج بیش از 100 سال را به ترتیب تاریخ دارم. آیا روش شناخته شده یا توصیه شده ای برای تجزیه و تحلیل نتایج، ایجاد نوعی ضریب برای کمک به پیش بینی نتایج یا حداقل نشان دادن پیشرفت +/- بر اساس هر نتیجه وجود دارد؟ بابت نوب معذرت میخوام | بهترین روش آماری برای تجزیه و تحلیل نتایج تک باشگاهی فوتبال (فوتبال). |
94441 | من سعی می کنم متغیرهای طبقه بندی را با بیش از دو کلاس تفسیر کنم. برخی از آنها قابل توجه هستند در حالی که سایر کلاس ها مهم نیستند. از بی اهمیت ها چه چیزی می توانم استنباط کنم؟ آیا این بدان معناست که موارد ناچیز و مقوله مرجع به یک اندازه بر متغیر وابسته تأثیر می گذارند؟ برای مثال: ETHNICITY (رده مرجع - هندی) سایر آسیایی: Sig = 0.273 exp(b) = 1.123 آفریقایی: Sig = 0.000 exp(b) = 0.148 | نحوه تفسیر متغیرهای طبقه بندی ناچیز برای رگرسیون لجستیک |
62183 | من در حال نوشتن یک پایان نامه کارشناسی در مورد طبقه بندی رسمی جملات در انگلیسی از طریق نمایش ضمایر رسمی از متون خارجی (به عنوان مثال فرانسوی tu/vous) به انگلیسی (شما) هستم. واقعاً مرتبط نیست، پس به آن فکر نکنید. بنابراین میخواهم از LDA (تخصیص دیریکله نهفته) در بخش بزرگتری از کلمات، یعنی جملات استفاده کنم. در حال حاضر من فقط از LDA دارای برچسب استفاده می کنم که در آن یک سند یک جمله دارای برچسب واحد است. بنابراین من به طور کامل زمینه را نادیده می گیرم که برای این کار واقعاً مهم است. در حال حاضر من دو ایده برای یک جمله نظارت شده LDA دارم: * بر اساس SLDA:  بر اساس چن (2010) اقتباس از موضوع مدل سازی جملات با مجموعه برچسب:  آیا شما از کارهای مرتبط با LDA در بخش های بزرگتر، به عنوان مثال، اطلاع دارید؟ جملات یا پاراگراف ها؟ | نظارت بر تخصیص دیریکله نهفته (LDA) در سطح جمله |
94442 | من سعی می کنم یاد بگیرم که چگونه تست کای دو استقلال را اجرا کنم. من دو متغیر خیالی ایجاد کرده ام، متغیر 1 و متغیر 2، و می خواهم بدانم که آیا آنها همبستگی دارند یا خیر. من با مقادیر زیر کار می کنم: متغیر 1 متغیر 2 ردیف مجموع گروه 1 100 200 300 گروه 2 150 300 450 گروه 3 200 400 600 گروه 4 250 500 750 گروه 5 300 600 تا 90. 400 800 3000 که جدول زیر را به من می دهد: مشاهده شده مورد انتظار (O – E) (O – E)^2 (O – E)^2/E 100 40 60 3600 90 150 60 90 8100 135 200 80 401 1201 150 22500 225 300 120 180 32400 270 200 80 120 14400 180 300 120 180 32400 270 400 160 240 32030 5705 90000 450 600 240 360 129600 540 که به من X^2 از 2700 می دهد. بنابراین، طبق این آزمون، متغیر 1 و متغیر 2 همبستگی ندارند. من فقط نمی بینم که چگونه این ممکن است درست باشد. آیا من آزمون را اشتباه اجرا می کنم یا تفسیر من از نحوه عملکرد آزمون نادرست است؟ | این تست مجذور کای استقلال چه اشکالی دارد؟ |
62459 | مزایای اضافه کردن متغیرها به یک مدل در مقایسه با اضافه کردن همه آنها به طور همزمان چیست؟ همانطور که در اکثر تحقیقات می بینم، اولین مدلی که آزمایش می شود شامل تمام متغیرهای کنترلی است، سپس در مدل دوم اولین پیش بینی کننده، سپس مدل دوم و به همین ترتیب تا زمانی که همه پیش بینی کننده ها در مدل قرار گیرند، اضافه می شود. آیا مزایایی در استفاده از این رویکرد وجود دارد، یا خوب است که فقط دو مدل را انجام دهید - یکی با کنترلها و دیگری با کنترلها + همه پیشبینیکنندههای دیگر. (ص) - با توجه به رگرسیون لجستیک به این موضوع علاقه مند هستم | افزودن متغیرها به مدل یک به یک یا همزمان |
59115 | **مأموریت** من سعی می کنم راهی برای انجام برازش تناسبی تکرار شونده در R پیدا کنم. منطق رویه به این صورت است: یکی جدولی با مث. توزیع نمونه برخی از متغیرها بگذارید بگوییم این یکی است: نمونه 1 <- ساختار (c(6L, 14L, 46L, 16L, 6L, 21L, 62L, 169L, 327L, 174L, 44L, 72L, 43L, 100L, 186L, 23L, 72L, 100L, 186L, 23L ، .Dim = c(6L، 3L)، .Dimnames = list(c(Primary، Lowersec، Highersec، Highershort، Higherlong، University)، c(B، F، W))) جدول دیگری از منبع دیگری است، نمونه دیگری بگویید: sample2 <- structure(c(171796L, 168191L, 240671L, 69168L, 60079L, 168169L, 954045L, 1040981L, 1872732L, 726410L, 207366L, 425786L, 596239L, 596239L, 6049826L, 596239L, 6049826L . B، F، W))) اکنون، ما می خواهیم روابط بین متغیرهای موجود در sample1 را حفظ کنیم، اما می خواهیم این روابط را در توزیع حاشیه ای که در «sample2» می یابیم، اعمال کنید. Iterative Proportional Fitting این کار را همانطور که در اینجا توضیح داده شده انجام می دهد (احتمالاً نمی توانم توضیح بهتری ارائه دهم). من سعی کردم آن را در LEM انجام دهم، با نتیجه زیر: B F W Primary 124204.64 960173.6 637701.7 Lowerse 119749.12 1081459.0 612789.9 Highersec 336934.206.21017 Highersec 336934.210117 90512.27 736464.1 291816.6 Higherlong 43486.91 238593.0 119431.0 University 163186.85 418628.6 233835.5 من نتیجه 100% نیست، اما به احتمال 9% نسبتهای شانس جدول اول در جدول حاصل حفظ میشوند، در حالی که توزیعهای حاشیهای (مجموع ردیف و ستون) با جدول ورودی دوم یکسان هستند. **مشکل** به طرز عجیبی، این الگوریتم کاملا مفید به راحتی در R در دسترس نیست، حداقل به شکل کاربر پسند. یکی از تابعهایی که احتمالاً مرتبط است، «cat::ipf()» است. با این حال، نمی توانم نحوه استفاده از آرگومان «حاشیه=» را بفهمم. من مطمئنا در این سوال تنها نیستم. مثال راهنما از یک جدول 3 بعدی استفاده می کند که همه چیز را گیج کننده تر می کند. علاوه بر این، برخی از توابع نوشته شده توسط کاربر وجود دارد، یکی در اینجا و دیگری در اینجا یافت می شود. متأسفانه اولی نتیجه اشتباهی می دهد. مورد دوم نیز بسیار غیرشفاف است، بهجای اشیاء ماتریس R، به فایلهای CSV از پیش فرمتشده خاص به عنوان ورودی نیاز دارد. **سوال** 1. لطفاً کسی میتواند توضیح دهد که چگونه از تابع «cat::ipf()» استفاده کنیم؟ 2. آیا توابع جایگزینی برای دستیابی به وظیفه تنظیم IPF با استفاده از ماتریس ها به عنوان ورودی وجود دارد؟ 3. (حل شده) آیا می توان این تابع را برای ارائه یک نتیجه مناسب برطرف کرد؟ متشکرم. **افزودن: من توانستم یک خروجی مناسب از تابع موجود در (3) دریافت کنم. پس از بررسی مشخص شد که تابع ماتریس را به عنوان ورودی برای توزیع حاشیه ای نمی پذیرد، بلکه فقط فهرستی از این توزیع های حاشیه ای را می پذیرد. پس عملا سوال حل می شود. با این حال، یک پاسخ مناسب برای 1 و 2 برای جامعه بزرگتر مفید خواهد بود، زیرا IPF در مدل های لاگ خطی کاملا ضروری است. ipf <- تابع (Margins_, seedAry, maxiter=100, closure=0.001) { #بررسی کنید تا ببینید مجموع هر حاشیه برابر است یا خیر مجموع حاشیه. <- unlist(lapply(Margins_, sum)) if(any(MarginSums. != MarginSums.[1])) warning(مجموع هر حاشیه برابر نیست) #مقادیر حاشیه صفر را با 0.001 حاشیه جایگزین کنید_ <- lapply( Margins_, function(x) { if(any(x == 0)) warning(صفر در marginsMtx با 0.001 جایگزین شد) x[x == 0] <- 0.001 x }) #بررسی کنید تا ببینید آیا تعداد ابعاد در آرایه seed برابر است با تعداد #حاشیه مشخص شده در marginsMtx numMargins <- length(dim(seedAry)) if(length(Margins_) != numMargins) { stop(number of حاشیهها در حاشیههاMtx با تعداد حاشیهها در seedAry برابر نیست) } #تنظیم مقادیر اولیه نتیجهای <- seedAry iter <- 0 marginChecks <- rep(1, numMargins) margins <- seq(1, numMargins) #به طور تکراری نسبت حاشیهها تا زمان بسته شدن یا معیارهای تکرار در حالی که((any(marginChecks > بستن - 0 نتیجه <- sweep(نتیجه، حاشیه، حاشیه حاشیه، *) marginChecks[حاشیه] <- sum(abs(1 - marginCoeff)) } iter <- iter + 1 } | برازش تناسبی تکراری در R |
62188 | وظیفه من این است که داده های تجاری را بدون تبلیغات پیش بینی کنم و مشاهدات واقعی (با اثر تبلیغاتی) را با مقادیر پیش بینی شده مقایسه کنم تا تأثیر تبلیغات را اندازه گیری کنم. من گیج شده ام که آیا باید از حد اطمینان مقادیر پیش بینی شده استفاده کنم یا از حد پیش بینی برای محاسبه تفاوت معنی دار؟ فکر می کنم باید یک آزمون فرضیه انجام دهم. فرضیه صفر من این خواهد بود: هیچ اثری وجود ندارد، مشاهدات واقعی در فاصله زمانی قرار خواهند گرفت. | محدودیت های اطمینان یا پیش بینی برای تفاوت معنادار بین پیش بینی و مشاهده؟ |
90938 | تعاریف **پیش های مزدوج نیمه مزدوج** و **پیش های مزدوج شرطی** چیست؟ آنها را در _تحلیل داده های بیزی_ گلمن یافتم، اما نتوانستم تعاریف آنها را پیدا کنم. | تعاریف مقدمات مزدوج نیمه مزدوج و شرطی چیست؟ |
29553 | **وضعیت عملی**: من 120 روز اطلاعات جمع آوری شده در فصل بارانی دارم. به طور متوسط در 52.5 از آن روزها باران بارید. 1. احتمال اینکه حداقل 30 روز یک بار باران ببارد چقدر است؟ 2. اگر حداقل 30 روز یک بار باران ببارد، پس احتمال اینکه در آن 30 روز به مدت 4 روز به صورت کششی به بارندگی ادامه دهد چقدر است؟ پاسخ من برای (1): من یک فرآیند پواسون را با $\lambda = 52.5/120 = 0.4375 $ در نظر گرفتم، عدم وقوع یک رویداد (در این مورد بدون باران) را در 30 روز محاسبه کردم و آن مقدار را از 1 کم کردم. برای به دست آوردن 0.9999 به عنوان احتمال باران در 30 روز. لطفا راهنمایی کنید که آیا من در مسیر درستی هستم و همچنین چگونه قسمت (2) سوال را پیش ببریم. | چگونه می توان احتمال بارندگی حداقل یک بار در یک دوره 30 روزه را محاسبه کرد؟ |
94443 | مدل ARIMA برداری در تحلیل سری های زمانی چندگانه استفاده می شود. من فقط می دانم که آیا نرم افزار یا ابزاری برای ساخت مدل وجود دارد؟ برخی از ابزارها، مانند R، تنها پس از ساخته شدن Vector ARIMA توسط کاربر می توانند برای پیش بینی مقدار استفاده شوند. بنابراین آیا ابزاری وجود دارد که بتواند مدل بردار ARIMA را ایجاد کند؟ پیشاپیش متشکرم | آیا ابزاری وجود دارد که بتواند مدل سازی Vector ARIMA را در سری های زمانی انجام دهد؟ |
103641 | طبق این سایت A Simple Learning Machine Method to Detect Covariate Shift، تغییر متغیر زمانی اتفاق می افتد که توزیع داده های آزمون و قطار یکسان یا مشابه نباشد. این سایت همچنین راهی برای بررسی اینکه آیا داده ها دارای تغییر متغیر هستند ارائه کرده است. با این حال، من از اعتبار روشی که سایت پیشنهاد کرده مطمئن نیستم و نمی دانم چگونه ضریب فی را اعمال کنم. اگر روش نامعتبر باشد، چگونه می توانم تشخیص دهم که داده ها دارای تغییر متغیر هستند؟ **اضافی:** این سایت راهی را ارائه می دهد که اگر داده ها دارای تغییر متغیر متغیر هستند، چه کاری انجام دهید. | چگونه تغییر متغیر را تشخیص دهیم؟ |
111196 | با توجه به تنه درخت با دایره های متحدالمرکز، آیا می توانیم آب و هوا را برای هر سال پیش بینی کنیم؟ هر دایره متحدالمرکز یک سال است که درخت روی زمین بوده است. درونی ترین دایره قدیمی ترین سال و بیرونی ترین دایره سال جاری است. من مجموعه ای از داده ها دارم که می گوید از زمانی که میزان بارندگی قابل اندازه گیری است، برای هر سال چه مقدار بارندگی وجود داشته است. با توجه به این اطلاعات، آیا میتوانیم بارندگی را برای درونیترین سالها پیشبینی کنیم؟ فکر کردم شاید اندازه دایره های متحدالمرکز به میزان بارندگی آن سال بستگی دارد. این یک رابطه مستقیم را فرض می کند. از من خواسته شد که به این موضوع به طور گسترده تری فکر کنم و به طور خاص به این موضوع به عنوان یک مدل مارکوف فکر کنم. 1. چگونه می توانم این پیش بینی را انجام دهم؟ آیا مدل مارکوف مکان خوبی برای شروع است یا راه های ساده تری برای نزدیک شدن به مشکل وجود دارد؟ 2. حتی اگر راه های دیگری وجود دارد، من می خواهم مدل مارکوف را نیز بررسی کنم. مکان خوبی برای شروع یادگیری در مورد مدل های مارکوف کجاست؟ هر گونه کمک و نظر بسیار قدردانی خواهد شد! | پیش بینی آب و هوا |
11957 | من یک مجموعه داده با 1500 بیمار با داده های مربوط به عود یک بیماری دارم. زمان پیگیری بین 1 تا 15 سال متغیر است. تقریباً 10٪ عود دارند. کاری که من میخواهم انجام دهم این است که یک مدل پیشبینیکننده برای عود در n گروه مشابه ایجاد کنم که خطر عود موقتی یکسانی دارند. این به این دلیل است که بتوانم در مورد یک طرح کنترل بهینه توصیه کنم. من میتوانم مدل پیشبینیکننده را کاملاً درست کنم، اما مطمئن نیستم که از چه تکنیکی برای بهینهسازی فاصله برای کنترلها استفاده کنم. من حدس میزنم که یک روش شبیهسازی نیروی بی رحم میتواند خوب باشد، اما مطمئن هستم که راههای دیگری برای انجام این کار وجود دارد. توصیه یا اشاره به ادبیات بسیار خوش آمدید. ویرایش: منظور من از کنترل، این است که هر چند وقت یکبار باید آنها را برای عود در کلینیک سرپایی دید و ارزیابی کرد. @rolando: 1) از آنچه قبلاً در مورد عود این بیماری شناخته شده است - بیماران را می توان به خطرات عود بالا، متوسط و کم تقسیم کرد. این امر با توجه به مشاوره در مورد یک طرح کنترلی برای عود بسیار منطقی است. برخی از بیماران در عرض یک سال (2-3%)، برخی 3-5 سال و برخی بعد از 10 سال عود می کنند. بدیهی است که غربالگری بیماران دوم برای عود در 10 سال به جای سالانه همانطور که در گروه پرخطر نشان داده می شود، صرفه جویی خواهد داشت. با این حال، اینکه دقیقا چگونه می توانم از یک مدل پیش بینی استفاده کنم و گروه های مختلف را ایجاد کنم تا از نظر زمان عود همگن باشند، یکی از مشکلات من است. 2) n تعداد گروه های مختلف با خطر عود یکسان است - 1 را ببینید 3) با بهینه سازی روال های کنترل (نگاه کنید به 1) - یک بیمار با خطر عود کم نباید به اندازه یک بیمار با خطر عود بالا دیده شود. چگونه می توان فاصله زمانی بهینه برای کنترل در هر گروه را محاسبه کرد؟ //م | بهینه سازی روال های کنترل پس از ایجاد یک مدل پیش بینی |
111197 | داده های من به طور معمول توزیع نمی شوند. من باید سه گروه را برای موفقیت آنها در یادگیری مهارت مقایسه کنم. $n=4$ در هر گروه. من از سه روش ($M1$،$M2$ و$M3$) برای آموزش یک مهارت به کودکان دارای تاخیر رشد استفاده کرده ام. آیا هنوز هم می توانم از ANOVA استفاده کنم؟ آیا باید از اندازه گیری های مکرر ANOVA یا سری زمانی استفاده کنم؟ لطفا کمی نور بیاندازید | آیا می توانم از ANOVA استفاده کنم اگر نمونه به طور معمول توزیع نشده باشد؟ |
104000 | فرض کنید من پایگاه داده ای از (هزاران) بازی شطرنج دارم. در شطرنج، هر بازیکنی امتیازی به نام ELO دارد که میزان قدرت این بازیکن را تخمین میزند. اگر رتبه ELO هر دو بازیکن را بدانیم، میتوانیم تخمینی از احتمالات نتایج احتمالی مسابقه ارائه دهیم. در تئوری، بازیکنی که امتیازش 100 امتیاز بیشتر از حریف است، انتظار می رود که 64 درصد امتیاز کسب کند. این تئوری است. مهارت واقعی بازیکن می تواند متفاوت باشد. به عنوان مثال اگر واقعا خسته باشد یا از تمرین خارج شود، مهارت واقعی او کمتر از ELO او خواهد بود. بنابراین برای هر بازی من یک تخمین (اگر تساوی را حساب نکنیم، عملاً یک آزمایش دو جمله ای ساده است) از احتمال نتایج مختلف و خود نتیجه دارم. آیا روش آماری وجود دارد که با آن بتوانم صحت این تخمین را بررسی کنم؟ من به چیزی نیاز دارم که بتواند بگوید روش تخمین چقدر دقیق است، نه اینکه فرضیه صفر را رد کند که ربطی به مهارت های واقعی بازیکن ندارد. | چگونه یک سیستم رتبه بندی را تأیید می کنید؟ |
110823 | من در مورد توزیع نرمال چوله چند متغیره کلی مشکل دارم. یک بردار $p\times 1$ وجود دارد، $\mathbf{y}=(\mathbf{y}_1',\mathbf{y}_2',\ldots,\mathbf{y}_n')',p> n$، که چگالی آن برابر است $$f_p(\mathbf{y})\propto\phi_p(\mathbf{y};\boldsymbol{\mu}،\Sigma)\prod_{i=1}^n\Phi(c_1+c_2\m athbf{1}'\mathbf{y}_i)=\phi_p(\mathbf{y};\boldsymbol{\mu}،\Sigma)\Phi_n(c_1+c_2A\mathbf{y})،$$ که در آن $\phi$ و $\Phi$ نشان دهنده pdf و cdf توزیع نرمال چند متغیره یا تک متغیره است. $c_1,c_2$ اسکالرهای ثابت هستند. $A$ یک ماتریس $n\times p$ است، $A=\left(\begin{array}{cccc} 1,\ldots,1 & & & 0\\\ & 1,\ldots,1\\\ & & \ddots\\\ 0 & & & 1,\ldots,1 \end{array}\right).$ هدف محاسبه میانگین و واریانس این توزیع است. گوپتا و همکاران (2004) آنها را برای توزیع خاصی با $p=n$ استخراج کرده اند و خسته کننده به نظر می رسند. می خواهم بدانم آیا راه حل ساده ای برای مشکل من وجود دارد؟ هر سرنخی خوش آمدید! با تشکر | میانگین و واریانس توزیع نرمال چوله چند متغیره کلی |
111198 | خودرگرسیون برداری دو متغیره زیر را در نظر بگیرید: $$X_t=\mu +X_{t-1}A+\varepsilon_t,\ \varepsilon_t \overset{iid}{\sim} MVN(0, V),\ X_t=(X_{1 ,t},X_{2,t})',$$ که در آن مفروضات روی ماتریس ضریب $A$ به گونه ای است که فرآیند $\\{X_t\\}$ ثابت است، یعنی هیچ ریشه واحدی وجود ندارد. _هدف یافتن یک عبارت خوب (از دیدگاه محاسباتی) برای ماتریس کوواریانس معکوس برای بردار $y=(X_{1,1}, X_{1,2},\dots , X_{1,T}، X_{2,1} \dots X_{2,T})'$_. در حالت تک متغیره، یعنی وقتی $\\{X_t\\}$ یک فرآیند AR(1) است مانند: $$ X_t=\mu + aX_{t-1}+\varepsilon_t،\ \varepsilon_t \sim N( 0، v) $$ سپس Chen و Deo (2009) عبارت راحت زیر را ارائه می دهند: $\Omega^{-1}=B'B,$ که در آن $$ B= \ \left( \begin{array}{cccc} \sqrt{1-a^2} & 0 & 0 & \dots & 0\\\ -a & 1 & 0 & \dots & 0\\\ 0 & -a & 1 &\dots & 0\\\ \vdots & \vdots & \vdots & \ddots & \vdots \\\ 0 & 0 & 0 & -a & 1 \end{array} \right)\ $$ و $v\Omega$ ماتریس کوواریانس $T\times T$ برای $(X_1,X_2,\dots,X_T)'$ است. اگر کمک کند، و من فکر می کنم کمک می کند، ممکن است فرض کنیم که $A$ مورب است به طوری که رگرسیون خودکار دو متغیره واقعاً دو فرآیند AR(1) جداگانه با نوآوری های احتمالاً مرتبط است. مشکل مربوط به تحقیقات است و من باید برای سرعت بخشیدن به محاسبات عددی اشکال دوخطی مانند $w'\Sigma^{-1} u$، برای برخی از بردارهای $w$ و $u$، که در آن $\Sigma$ برابر است. ماتریس کوواریانس $y$. من احساس میکنم که این ممکن است یک مشکل استاندارد باشد که در برخی از مقالههای قدیمی حل شده است - من واقعاً انتظار داشتم چیزی در یک کتاب درسی پیدا کنم - اما نمیتوانم هیچ مرجع خوبی پیدا کنم. همه کمک ها، حتی اگر فقط نکات و پاسخ های کامل نباشند، بسیار قدردانی می شود. **به روز رسانی** در حالت قطری $A$، تمام عناصر $\Sigma$ به راحتی پیدا می شوند. ما $$\mathrm{Cov}(X_{i,t},X_{j,t+h})=A_{j,j}^h \frac{\mathrm{Cov}(\varepsilon_{i,t داریم },\varepsilon_{j,t})}{1-A_{i,i}A_{j,j}}=A_{j,j}^h \frac{V_{i,j}}{1-A_{i,i}A_{j,j}}.$$ توجه داشته باشید که کسر فقط 3 مقدار مختلف می گیرد، یکی برای $i=j=1$، یک برای $i=j=2$ و یکی برای $i\neq j$. این مقادیر مربوط به بلوک های مختلف $\Sigma$ است. معکوس هر یک از این بلوک ها را می توان مستقیماً با استفاده از عبارت Chen و Deo (من فکر می کنم) پیدا کرد. مشاهدات دیگر این است که با حرکت به بالا/پایین یا چپ/راست در این بلوکهای ماتریس، قدرت عبارت $A_{j,j}$ فقط با $\pm 1$ افزایش مییابد. | آیا فرم مناسبی برای این ماتریس کوواریانس بزرگ وجود دارد؟ |
89474 | من این رگرسیون لجستیک ترتیبی را در R اجرا کردم: mtcars_ordinal <- polr(as.factor(carb) ~ mpg, mtcars) این خلاصه مدل را دریافت کردم: summary(mtcars_ordinal) دوباره برازش برای دریافت Hessian Call: polr(فرمول = به عنوان .factor(carb) ~ mpg، data = mtcars) ضرایب: مقدار Std. خطای t مقدار mpg -0.2335 0.06855 -3.406 Intercepts: Value Std. خطای t مقدار 1|2 -6.4706 1.6443 -3.9352 2|3 -4.4158 1.3634 -3.2388 3|4 -3.8508 1.3087 -2.9425 4|6 -1.2829 1.3967 -1.2829 1.3967 1.5018 -0.3692 انحراف باقیمانده: 81.36633 AIC: 93.36633 من می توانم شانس ورود به سیستم ضریب mpg را به این صورت دریافت کنم: exp(coef(mtcars_ordinal)) mpg 0.7917679 و log ضریب قدیمی مانند log exp(mtcars_ordinal$zeta) 1|2 2|3 3|4 4|6 6|8 0.001548286 0.012084834 0.021262900 0.277242397 0.574406353 به من بگویید که این مدل به من افزایش می دهد. با یک واحد، شانس انتقال از دسته 1 کربوهیدرات > به هر یک از 5 دسته دیگر، 0.23- کاهش می یابد. اگر شانس گزارش > از آستانه 0.0015 عبور کند، مقدار پیشبینیشده برای یک خودرو > رده 2 «کربوهیدرات» خواهد بود. اگر شانس ورود به سیستم از آستانه 0.0121 عبور کند، > مقدار پیشبینیشده برای یک خودرو رده 3 «کربوهیدرات» و غیره خواهد بود. | تفسیر رگرسیون لجستیک ترتیبی |
111192 | من واقعاً نمی دانم داده های پاسخ من کدام نوع متغیر است. من نمی توانم پاسخی برای سوالم در شبکه جهانی بیابم. من نتایج یک نظرسنجی از 900 کشاورز را دارم. هر کشاورز گفت که چگونه در چند هکتار از یک آفت کش استفاده کرده است. بنابراین نتیجه می تواند شاید 0.11 = آنها در 11٪ از مزارع خود از یک آفت کش استفاده کردند یا 1 = استفاده در 100٪ از مزارع. حدس میزنم تعداد دادههای آن بر اساس نسبت، اما مطمئن نیستم، زیرا نمونه مشابهی پیدا نکردم. توزیع داده ها در زیر نشان داده شده است (همچنین بسیاری از کشاورزان هستند که در 0٪ از مزارع خود از یک آفت کش استفاده می کنند:  من باید آن را بدانم، زیرا سعی می کنم با یک مدل خطی تعمیم یافته در R (با خطاهای پواسون، دوجمله ای یا گاما) تحلیلی از داده های خود انجام دهم شمارش دادهها بر اساس نسبت یا چیز دیگری، چه چیزی را حدس میزنید که دادههای پیوسته است یا دادههای شمارش بر اساس نسبت یا چیز دیگری؟ | داده ها را بر اساس نسبت یا نوع متفاوت بشمارید؟ |
104003 | اجازه دهید $c$ یک ثابت مثبت باشد. فرض کنید من $X$~$Unif(0,\theta)$ دارم و میخواهم فرضیه صفر $H_0: \theta \leq c$ را در برابر فرضیه جایگزین $H_1:\theta > c$ آزمایش کنم. فرض کنید من یک نمونه $X_1,...,X_n$ انجام دادم اما آنها را با اغتشاش مشاهده کردم - یعنی در واقع $Y_1:=X_1+\epsilon_1,...,Y_n:=X_n+\epsilon_n$ دارم که در آن $ \epsilon_i$ i.i.d هستند. ~ $N(0,\sigma^2)$. چگونه باید یک آزمون فرضیه را انجام دهم؟ ** ایده: ** من به استفاده از آزمون نسبت درستنمایی فکر می کردم، زیرا این امکان را به من می دهد تا آزمایش فرضیه را بر روی یک فرضیه صفر مرکب انجام دهم. من می توانم خطاهای تابع احتمال خود را با انحراف لباس با حالت عادی در نظر بگیرم. با این حال، وقتی میخواهم مقادیر بحرانی را تعریف کنم، مشکل دارم زیرا نمیدانم چگونه آمار آزمون را به هر توزیعی تقریب کنم و از این رو مناطق رد را استخراج کنم. **ایده 2:** آزمون نمره رائو، زیرا در اینجا من می دانم چگونه توزیع آماری آزمون را برای حجم نمونه بزرگ تقریب کنم، اما تنها شکل آزمون رائو که می دانم شامل فرضیه صفر نقطه است (یعنی آزمایش $\theta = c$) - متأسفانه، کران $c$ من کران بالایی محافظه کارانه است، بنابراین احتمال زیادی وجود دارد که $\theta$ کوچکتر از $c$ باشد و من این را نمی خواهم مورد رد شدن. ایده های دیگر نیز قدردانی خواهند شد. | آزمون فرضیه نقطه پایانی توزیع یکنواخت |
95317 | من یک تحقیق بزرگ با معلمان دبیرستان فیزیک برزیل انجام دادم و می خواستم نمونه من بتواند نماینده جمعیت معلمان دبیرستان فیزیک برزیل باشد. با این حال، هیچ کس در برزیل نمی داند که چند معلم وجود دارد، در کدام شهر هستند یا با چه کسانی تماس برقرار می کنند. بنابراین طی یک سال با معلمان، مدارس، دانشگاه ها، دبیران دولتی، اتحادیه های کارگری و برگزارکنندگان رویدادها تماس گرفتم و به بیش از 7000 نام معلم احتمالی رسیدم. برای ساختن نمونه خود، با علم به اینکه بسیاری از آنها به نظرسنجی پاسخ نمیدهند، 33 درصد از این 7000 نام را برای شرکت در تحقیق دعوت کردم. من به طور تصادفی این 33٪ را انتخاب کردم، اما نمی توانم با بسیاری از آنها تماس بگیرم و دیگران با جمعیت من مطابقت نداشتند (آنها دیگر معلم نیستند، آنها فقط در دانشگاه ها تدریس می کنند و غیره). در پایان یک سال تلاش برای تماس با این 33 درصد، حدود 300 پاسخ معتبر دریافت کردم. اما اکنون، با تمام دادههای جمعآوریشده، مطمئن نیستم که آیا نمونه من میتواند یک نمونهگیری تصادفی ساده (SRS) در نظر گرفته شود و چگونه میتوانم نتایج خود را اصلاح و اصلاح کنم تا آنها را به همه جامعه گسترش دهم، اگر نمونه من SRS نیست (یا یکی دیگر از روش های نمونه گیری شناخته شده قبلی). کسی میتونه کمکم کنه؟ متشکرم، آلیسون راموس آرتوسو | مشکلات نمونه (جمعیت نامعلوم) |
95318 | یک مدل گرافیکی که در [1] معادله (1) و (2) مشخص شده است را در نظر بگیرید. چرا محاسبه تابع پارتیشن در مدل های گرافیکی مهم است؟ چرا به آن نیاز داریم؟ من این تصور را داشتم که مردم پارتیشن را برای یافتن MAP محاسبه می کنند، اما ارمون برای یافتن حل کننده پارتیشن فرض می کند که یک حل کننده MAP دارد. آیا با درک اولیه من از دلیل محاسبه تابع پارتیشن مغایرت ندارد. یا شاید این: او فرض می کند که حل کننده MAP را برای مشکلات فرعی کوچک (در سطل ها) داشته باشد، اما برای انجام MAP روی کل مشکل باید تابع پارتیشن را داشته باشد. آیا این درک درستی است؟ [1] http://www.cs.cornell.edu/~ermonste/papers/LPCount.pdf | چرا محاسبه تابع پارتیشن در مدل های گرافیکی مهم است؟ |
29557 | من جفت سریال های زمانی دارم که در طول سال ها مقدار یکسانی را تخمین می زنند. این برخی از داده های بقا است: تعداد افراد مرده در طول سال بیش از تعداد کل افراد در ابتدای سال. داده های اساسی مرتباً بازبینی می شوند، بنابراین من باید تأثیر تغییرات را ارزیابی کنم. در زیر یک مثال آورده شده است.  من می خواهم به طور خاص آزمایش کنم که آیا میانگین (که پارامتر مورد علاقه است) برای جفت های سری زمانی یکسان است (تجزیه و تحلیل خواهد شد برای بسیاری از جفت ها تکرار شود، لطفاً روی تصویر خاص تمرکز نکنید، اگرچه نسبتاً نماینده است). چند سوال دارم: 1. آیا از تست زوجی استفاده کنم یا خیر؟ 2. اگر جفت باشد، چگونه با کراوات ها، یعنی تفاوت های صفر (من همیشه کراوات های زیادی خواهم داشت) برخورد کنم؟ 3. من معتقدم که bootstrapping می تواند در این مورد مفید باشد. من نمونه تفاوت میانگین را بوت استرپ کردم. این یک توزیع متمرکز حول اختلاف میانگین مشاهده شده می دهد. چگونه می توانم مقدار p را از این توزیع محاسبه کنم؟ آیا به جای آن تست t-test را بوت استرپ کنیم؟ | آزمون فرضیه: تغییرات سری زمانی کوچک |
66608 | من در حال نوشتن مقاله ای در مورد فروریختن تراس های کشاورزی باستانی در مدیترانه هستم و هنگام تلاش برای ایجاد یک معیار معنادار با مشکلی مواجه شدم. من نقاط خرابی تراس جی پی اس را نمونه برداری کرده و آنها را با GIS نقشه برداری کرده ام. من آسیب در میدان را در یک مقیاس ترتیبی ساده به نام وضعیت ارزیابی کرده ام، که در آن 1 آسیب جزئی و 2 فروپاشی کامل به سنگ بستر است. من یک فرضیه دارم که آسیب احتمالی دیوارهای سنگی تراس با توجه به دو عامل افزایش/کاهش مییابد: * افزایش: تعداد سایر نقاط شکست تراس در حوضه آبریز بالاتر نقطه نمونه. (از نظر هیدرولوژیکی، یک نقطه شکست تراس کانالی را برای رواناب سطحی ایجاد می کند تا بر روی تراس های پایینی ریخته شود، اشباع را افزایش می دهد، نفوذ اوج و غیره را افزایش می دهد، که احتمال خرابی بیشتری را به همراه دارد.) * کاهش: تعداد سایر نقاط شکست تراس مجاور. روی **همان** دیوار تراس. (استدلال این بار دیگر کانالهای رواناب ترجیح داده شده است که احتمال آسیب بیشتر را در نقطه نمونه کاهش میدهند.) من سعی میکنم راهی برای استفاده از این بردارهای متضاد با هم پیدا کنم، اما به مشکل برخوردم. راه واضح این است که اولی (همسایگان) را با دومی (برادران) (همسایگان/برادر) تقسیم کنیم، بنابراین افزایش یا کاهش دیگری نسبت بالاتری به من می دهد که نشان دهنده آسیب احتمالی است. روشی که من ارزش هر یک را محاسبه می کنم، جمع کردن تمام مقادیر وضعیت نقاطی است که با پرس و جو فضایی من مطابقت دارند. با این حال، این منجر به برخی از نقاط می شود که مقدار 0 برای Neighbors و/یا مقدار 0 برای Brothers دارند، بنابراین یک تقسیم ساده در همه موارد به خوبی کار نمی کند. بنابراین میپرسم آیا راههایی برای معنادارتر کردن این موضوع وجود دارد؟ من هیچ ارزیابی قبلی در مورد نتایج احتمالی چنین اقدامی ندارم، و نمیدانم که آیا باید انتظار همبستگی مثبت یا منفی (یا هر کدام) را داشته باشم. | ایجاد یک معیار آماری معنادار برای جغرافیای فیزیکی |
50737 | من سعی میکنم نشان دهم که اگر $X_n \rightarrow X $ در $r$-th میانگین باشد، آنگاه $E|X_n|^r \rightarrow E|X|^r$. (ویرایش: باید با $r \ge 1$ گفته می شد) سوال من این است که آیا مراحل زیر کافی است یا خیر: $[E|X_n - X|^r]^{\frac{1}{r}} \rightarrow 0$ به عنوان $n \rightarrow \infty$ تنظیم $r=1$ $E|X_n - X| \rightarrow 0$ به عنوان $n \rightarrow \infty$ و به این ترتیب: $E|X_n| \rightarrow E|X|$ به عنوان $n \rightarrow \infty$ بنابراین $E|X_n|^r \rightarrow E|X|^r$ به عنوان $n \rightarrow \infty$ افکار قابل تقدیر هستند. | مفهوم همگرایی در میانگین rth |
50738 | من روی پروژه دادهکاوی مدرسه کار میکنم. در مرحله پیش پردازش، باید مقادیر پرت را از مجموعه دادههایم که دارای انحراف مثبت هستند حذف کنم (به توضیحات مراجعه کنید). من ایده ای برای حذف همه مقادیری دارم که بزرگتر از میانگین + 3 x انحراف استاندارد هستند، اما مطمئن نیستم که این روش برای مورد من مناسب باشد زیرا مجموعه داده به طور معمول توزیع نشده است. از چه تکنیکی استفاده کنم؟ var n میانگین sd میانه برش خورده دیوانه حداکثر محدوده چولگی کشیدگی se 1 1 41019 1668.99 1107.08 1453.68 1524.22 1026.05 10.9 5920.74 5909.847.5909.84. | چگونه می توان نقاط پرت را در مجموعه داده های ناهموار تشخیص داد؟ |
8399 | من این سوال را در Electronics.Stackexchange ارسال کردم و یکی به من گفت که بهتر است آن را اینجا پست کنم. این یک پیاده سازی فیلتر ذرات با استفاده از متلب است اما نتایج هرگز مشاهدات را دنبال نمی کنند. تابع وزن دهی را به گاوسی تغییر دادم اما هنوز فایده ای نداشت. توجه: من در نظر نگرفتم که نویز فرآیند/اندازه گیری با زمان همبستگی دارد. آیا این به طور قابل توجهی دقت برنامه من را تغییر می دهد؟ اگر چنین است، چگونه آن را اصلاح کنم؟ **سوال قدیمی من** من در حال کار بر روی یک آزمایش فیلتر ذرات برای همجوشی چند حسگر هستم و به تازگی آن را در MATLAB برنامه ریزی کردم. با این حال، من برای مقادیر نهایی خود دقت بسیار پایینی دریافت می کنم. بهعلاوه، من ادبیات زیادی خواندم که در آن درباره pdf وضعیت و مشاهدات و غیره صحبت میکردند، اما دانش عملی من هنوز به شدت متزلزل است، زیرا هیچ آموزش رسمی در مورد فیلتر کردن/تخمینهای بیزی و غیره ندیدهام. الگوریتم خود را مانند این ابداع کردهام. : 1. Initialize particles = من آن را به صورت توزیع گاوسی انجام می دهم - 10 ذره 2. 10 ذره را با استفاده از انتقال حالت به جلو حرکت دهید معادله: \begin{equation} X_{t+1} = A \times X_t + 0.1 \times rand() \end{equation} من تاکنون فقط نویز گاوسی را تزریق میکنم. 1. با استفاده از مشاهده، وزن ذرات را محاسبه کنید. من این کار را مانند یک ریشه میانگین مربع تفاوت بین حالت پیشبینیشده و مشاهده انجام میدهم. به عنوان مثال، اگر آزیموت (a) = 40، pitch (p) = 3، roll(r) = 4 در حالت من و در مشاهده من a = 39، p = 3، r = 3 باشد، آنگاه من rms را انجام می دهم. = sqrt((40-39)^2 + (3-3)^2 + (4-3)^2). سپس وزن من به صورت 1/rms نسبت داده می شود تا با فاصله بین پیش بینی و مشاهده 2 نسبت معکوس داشته باشد. سپس این وزن ها را نرمال می کنم تا norm_weight = وزن / هنجار (وزن) را به دست بیاورم تا مجموع آنها برابر باشد. به یکی 3. سپس برای تمام مشاهدات به جلو ادامه می دهم. من هنوز نمونهگیری مجدد را وارد نکردهام زیرا وقتی این آزمایش را اجرا میکنم، هیچ انحطاطی را تجربه نمیکنم، که این نیز بسیار گیجکننده است. کجا دارم اشتباه می کنم؟ من متوجه شدم که تعداد زیادی از معادلات بیزی را که در ادبیات ارائه شده است، یعنی \begin{معادله} p(x|z_t) = p(z_t|x)\times p(x)/p(z) محاسبه نکردهام. \end{equation} و من هم نمیدانم در اینجا کجا قرار میگیرد. کسی میتونه لطفا کمکم کنه؟ کد متلب من به این شکل است: تابع resultx = فیلتر ذرات (نتیجه x_1، مشاهده x، A، نویزP) برای j = 1:length(observationx) برای i = 1:length(resultx_1) apriori_state{i} = A*resultx_1{i} + noiseP; rms(i) = sqrt((observationx{j}(1) - apriori_state{i}(1))^2 + (observationx{j}(2) - apriori_state{i}(2))^2); وزن (i) = 1/rms (i)؛ پایان؛ norm_weight = وزن / هنجار (وزن); برای i = 1:length(apriori_state) plot(apriori_state{i}); پایان disp(rms); disp(norm_weight); پایان | فیلتر ذرات در Matlab - چه مشکلی دارد؟ |
66605 | به نظر می رسد بیش از چند مقاله وجود دارد که استفاده از کلمات خاص را برای تعریف احتمال یک رویداد بدون استفاده از خود احتمال عددی احاطه کرده است. به عنوان مثال، اگر مطمئن هستید که چیزی قرار است اتفاق بیفتد، احتمال وقوع آن 100٪ است. اگر تقریباً مطمئن هستید، احتمال رویداد 93٪ +/- 6٪ است. http://en.wikipedia.org/wiki/Words_of_estimative_probability در اصطلاحات انتخاباتی، ما کلماتی مانند اکثریت، کثرت، اقلیت، برخی کسری - اکثریت/اقلیت داریم. این کلمات به راحتی به نسبت های عددی تبدیل می شوند (در بیشتر موارد). با در نظر گرفتن این مثالها، آیا مقالهها یا قراردادهای پذیرفتهشدهای برای کلماتی مانند «بسیار، بیشتر، چند، برخی» وجود دارد که بهعنوان راهنمایی برای نسبتهای عددی مرتبط با آن کلمات عمل میکند؟ | کلماتی که نسبت های عددی یک گروه را تخمین می زنند |
111443 | من یک مدل را اجرا کرده ام و با داده هایی که دارم، انتظار نداشتم بهترین مدل را تولید کنم، اما باقی مانده های من واقعا عجیب هستند. متغیر نتیجه تعداد روزهای رفتن به یک وب سایت در یک ماه است (بنابراین گسسته 0-30) و من یک رگرسیون استاندارد اعمال کرده ام. model <\- step(lm(day_count_jun ~ vars, data=ml), direction=forward))) #forward-backward من چندین متغیر مستقل دارم و 5 تا از آنها را انتخاب کردم (با گام تابع در R). اگر فقط 5 متغیر و همه متغیرهایی را که دارم بگنجانم همین نتیجه است. R2 تنظیم شده 0.25 است در اینجا نمودار باقیمانده من است:  آیا باید بفهمم که یکی از ضرایب من باید علامت منفی داشته باشد ? علاوه بر این، باقیمانده های من عادی نیستند.  اگر داده های بیشتری نداشته باشم برای حل این مشکل چه کاری می توانم انجام دهم؟ | تعبیر باقی مانده های عجیب |
110824 | من دو تجزیه و تحلیل HLM جداگانه انجام داده ام، که هر کدام با دو IV که DV یکسان را در یک نمونه پیش بینی می کند. مشکلی که من با آن روبرو شده ام این است که می خواهم ** بزرگی ** ضرایب حاصل را در هر تحلیل مقایسه کنم تا مشخص کنم که آیا معادل هستند یا خیر. من از داده های دوتایی استفاده می کنم، به همین دلیل از HLM استفاده کردم. در اینجا یک مثال ملموس تر آورده شده است: تجزیه و تحلیل 1: DV-1 IV-1 IV-2 تجزیه و تحلیل 2: DV-1 IV-3 IV-4 برای مشخص بودن، میخواهم نشان دهم که یک کدگذاری مبتنی بر کامپیوتر یک آزمون (به عنوان مثال. ، که IV-1 و IV-2 را تولید می کند) ضرایب مشابهی را به عنوان کدگذاری مبتنی بر انسان برای آزمایش یکسان تولید می کند (به عنوان مثال، IV-3 و IV-4). یعنی من دوست دارم بتوانم ضرایب به دست آمده برای IV-1 را با IV-3 (که همان متغیر هستند اما یکی با کامپیوتر و دیگری توسط انسان تولید شده) و IV-2 با IV مقایسه کنم. -4 (باز هم، این دو باید یک متغیر باشند، یکی توسط کامپیوتر و دیگری توسط انسان تولید می شود)، تا بررسی شود که آیا از نظر قدر معادل هستند یا خیر. آیا این امکان پذیر است؟ آیا آزمون آماری برای تعیین کمیت تفاوت وجود دارد؟ برای روشن شدن، من به خودی خود علاقه ای به میانجی گری ندارم. در عوض، من فقط به این علاقه دارم که آیا ضرایب حاصل از نظر بزرگی معادل هستند یا نه (صرف نظر از اینکه آیا آنها برای تغییرات متفاوت در DV محاسبه می شوند). | پرس و جو مربوط به HLM - مقایسه بزرگی ضرایب |
96504 | من سعی می کنم بهترین توزیعی را پیدا کنم که متناسب با داده هایم باشد (اندازه نمونه 7210). برخی از توزیعهایی که ارزش اندرسون-دارلینگ پایینی دارند، بسیار شبیه به دادههای من هستند. اما تمام مقادیر p بی اهمیت هستند. آیا این به دلیل حجم نمونه است؟ به هر حال اگر من برای مثال برای Loglogistic نموداری انجام دهم، بسیار شبیه به توزیع داده های من است. BTW: من از MiniTab برای این کار استفاده می کنم. با تشکر توزیع AD P LRT P Normal 23,480 <0,005 Box-Cox Transformation 13,896 <0,005 Lognormal 15,057 <0,005 3-Parameter Lognormal 13,664 * 0,000 نمایی 2438,000 <2438,000 نمایی 1882,128 <0,010 0,000 Weibull 103,812 <0,010 3-Parameter Weibull 54,502 <0,005 0,000 Smallest Extreme Value 242,163 <0,010 Largest <4,Ma14 14,018 <0,005 3-پارامتر گاما 14,076 * 0,524 لجستیک 17,623 <0,005 لجستیک 13,213 <0,005 3-پارامتر لجستیک 12,822 * 0,004 | p-value به اندازه نمونه بستگی دارد؟ |
61371 | من سعی میکنم تحلیل عاملی دادههایم را که از ۲۱ مورد و ۲۳ متغیر دادههای پیوسته تشکیل شده است، اجرا کنم. در حالت ایدهآل، سعی میکنم سه عامل را استخراج کنم، اما با چهار، پنج و شش نیز تلاش کردهام. با این حال، پیام خطا را دریافت میکنم: > سیستم از نظر محاسباتی منفرد است من فرض میکنم این به این دلیل است که موارد کافی ندارم. ### سوالات * چرا وقتی تعداد موارد کمتر از تعداد متغیرها باشد، تحلیل عاملی شکست میخورد؟ * برای محاسبه تحلیل عاملی چند مورد نیاز است؟ | چرا وقتی تعداد موارد کمتر از تعداد متغیرها باشد، تحلیل عاملی شکست می خورد؟ |
59119 | تصور کنید ما یک نمونه (40=n) از یک جامعه روی 2 متغیر داریم که برای آن کوواریانس را تخمین می زنیم (مثلاً 0.1). اگر نمونه دیگری (10=n) از همان جامعه داشته باشیم و کوواریانس را 0.2 تخمین بزنیم، انتظار داریم کوواریانس در جامعه چقدر باشد؟ آیا این خواهد بود: (4/5 * 0.1) + (1/5 * 0.2) = 0.12؟ یعنی آیا می توانیم کوواریانس ها را با توجه به حجم نمونه وزن کنیم؟ اگر بله، چگونه می توان داده ها را برای داشتن کوواریانس 0.12 ترکیب کرد، زیرا کپی کردن یک داده زیر دیگری انجام نمی دهد. | ترکیب کوواریانس ها |
2492 | یکی از همکاران سابق یک بار با من اینگونه استدلال کرد: > «ما معمولاً آزمونهای نرمال بودن را برای نتایج فرآیندهایی اعمال میکنیم که، در زیر صفر، متغیرهای تصادفی را تولید میکنند که فقط بهصورت مجانبی_ یا > _تقریباً نرمال هستند (با بخش « مجانبی» وابسته به برخی مقداری که ما نمیتوانیم آن را بزرگ کنیم، در دوران حافظه ارزان، دادههای بزرگ و پردازندههای سریع، تستهای نرمال بودن باید همیشه رد شوند. null of normal> توزیع برای نمونه های بزرگ (البته نه دیوانه کننده) و بنابراین، > به طور انحرافی، تست های نرمال بودن باید فقط برای نمونه های کوچک استفاده شوند، زمانی که آنها احتمالاً قدرت کمتر و کنترل کمتری بر نرخ نوع I دارند. آیا این یک استدلال معتبر است؟ آیا این یک استدلال معروف است؟ آیا آزمون های شناخته شده ای برای فرضیه صفر «فازی تر» نسبت به نرمال بودن وجود دارد؟ | آیا تست نرمال بودن اساساً بی فایده است؟ |
110826 | من یک صفحه گسترده با هفت پارامتر و مقادیر آنها برای 9000 نمونه دارم. باید تعیین کنم که کدام پارامترهای وابسته و کدام مستقل هستند. لطفاً به من اطلاع دهید که کدام الگوریتم ممکن است مفید باشد. من به PCA و رگرسیون فکر کردم اما متوجه نشدم که چگونه می توانم از آنها برای تعیین پارامترهای مستقل و وابسته استفاده کنم. | تعیین متغیرهای مستقل و وابسته بدون آگاهی قبلی از ماهیت داده ها |
111194 | فرض کنید ما دو سری زمانی همزمان داریم، $Y_{1}$ و $Y_{2}$، و من میخواهم تاثیر علی $Y_{1}$ را روی $Y_{2}$ ارزیابی کنم. دلیل خوبی وجود دارد که فکر کنیم هر دو متغیر تحت تأثیر عوامل خارجی مختلفی هستند. $Y_{1}$ حاوی برخی مشاهدات برابر با 0 (در مورد من، حدود 12 از مجموع 100) است که کاملاً مستقل از بقیه داده ها (که هرگز برابر با 0 نیستند) ایجاد می شوند. یعنی گاهی اوقات $Y_1$ به صورت شبه تجربی خاموش می شود. بهترین راه برای محدود کردن دامنه تأثیرات احتمالی $Y_1$ بر روی $Y_2$ چیست؟ **زمینه** من به یک سازمان غیرانتفاعی کمک میکنم تأثیر مخارج تبلیغاتی خود را ارزیابی کند، Y_1$ روی Y_2$، بازدیدهای وبسایتشان. هر دو سری بهطور تصاعدی نسبت به مهلت کمپین افزایش مییابند، بنابراین باقیمانده $\ln(Y_{1, t}) = \beta_{0} + \beta_{1}\ln(Y_{2, t}) + \epsilon_t دلار ثابت هستند. هر دو سری دارای همبستگی خودکار قابل توجهی نیز هستند. در چندین مرحله در طول کمپین، NFP دوباره قراردادها را با خریدار رسانه خود مذاکره کرد، که در نتیجه دورههای خاموشی تبلیغات برونزا ایجاد شد. من می خواهم بسیار راحت استنتاج رسم در مقطع عرضی. تجربه من با سریهای زمانی اقتصادی این است که پارامترهای «علّی» اغلب با استفاده از ابزارهای بدنه یا محدودیتهای علامت، ضعیف شناسایی میشوند. اما در مورد انجام استنتاج شبه تجربی در سری های زمانی چیز زیادی نمی دانم. هر گونه راهنمایی بسیار قدردانی خواهد شد. | استنتاج از یک سری زمانی گاهی تصادفی |
8392 | من گزارشهایی دارم که نشان میدهد کدام کاربران کدام برنامهها را در سیستمهای ما در دانشگاه اجرا میکنند. داده ها نام کاربری، زمان پردازش و مهر زمانی نمونه را نشان می دهد. من همچنین می دانم که هر کاربر در چه کلاس هایی قرار دارد. با توجه به این داده ها، آیا می توان به طور قابل اعتماد گفت که کدام اساتید/دوره ها از نرم افزار خاصی استفاده می کنند؟ من فکر می کنم این روش ممکن است قابل اعتمادتر از پرسیدن از اساتید باشد، که هرگز به سوالات ما پاسخ نمی دهند! چه روش آماری، در صورت وجود، در اینجا مناسب است؟ اشاره گر به تابع R مناسب قدردانی می شود. آیا تحلیل مؤلفه اصلی در اینجا مناسب است؟ | چگونه می توان استفاده از نرم افزار مبتنی بر دوره را تعیین کرد؟ |
66604 | من این پست را برای وضوح کامل اصلاح کردم. به ووبر و دیوید، از شما بچه ها برای پست هایتان متشکرم. من می خواهم یک شبیه سازی MC انجام دهم تا ببینم به احتمال زیاد تمایل در توزیع کشتی ها بر اساس ظرفیت TEU چیست (اگر قرار است کشتی های بیشتری در محدوده 1000-2000 TEU یا در محدوده 300-4000 TEU وجود داشته باشد. محدوده و غیره). اما برای انجام شبیهسازی MC، باید اعداد تصادفی را از یک توزیع خاص تولید کنم و نمیخواهم نرمال بودن یا لگ نرمال بودن یا هر توزیع دیگری را فرض کنم، اگر ابتدا خوب بودن تناسب را بررسی نکنم. موضوع این است که با در نظر گرفتن تعداد شناورهای اختصاص داده شده به هر کلاس TEU Range، چگونه می توانم اتصالات توزیع را دور بزنم؟ تعداد TEUS کلاس 13,000.01 - 14,000 TEUS 22 25% 8,000.01 - 9,000 TEUS 19 21% 4,000.01 - 5,000 TEUS 17 19% 7,010 TEUS 6,010 5,000.01 - 6,000 TEUS 6 7% 9,000.01 - 10,000 TEUS 5 6% 1,000.01 - 2,000 TEUS 4 4% 3,000.01 - 4,000 TEUS 110.04 - 4,000 TEUS 110.01 - 2 2% 2,000.01 - 3,000 TEUS 1 1% Grand Total 89 | برازش توزیع به داده های نمونه |
61373 | من 4 امتیاز دامنه (میانگین) دارم، اما برای جمعیت در بسیاری از مطالعات آنها در چهار ضرب شده است (نپرس چرا)، اما میانگین من اینطور نیست. بنابراین من میانگین ها را بر چهار تقسیم کردم، اما آیا می توانم همین کار را برای انحرافات استاندارد انجام دهم؟ و از کدام انحرافات معیاری برای مقایسه میانگین ها استفاده کنم؟ آنهایی که از جمعیت عمومی هستند یا از گروه بیماران من؟ با تشکر | آیا می توانید یک انحراف معیار را تقسیم کنید؟ |
110825 | من در حال حاضر روی این کار کار می کنم که می خواهم دو سری زمانی مختلف مانند فروش در سال 2012 و فروش در سال 2013 را با هم مقایسه کنم. لطفاً هر روش آماری را به من پیشنهاد دهید. | روش مقایسه دو سری زمانی متفاوت چیست؟ |
61376 | من می خواهم یک منطقه مطمئن 1-$\alpha$ برای مقدار $\left(\Gamma_1,\Gamma_2\right)$ پیدا کنم. (که متغیرهای تصادفی نیستند) می توانم $m_i$ و $b_i$ متفاوتی را بدست بیاورم که $\Gamma_2=m_i\Gamma_1+b_i$ را برآورده کند. با $\left(m_i,b_i\right)=f\left(Y_{1i},\ldots,Y_{ki},X_1,\ldots,X_l\right)$. و $X_j\sim\mathcal{N}(\mu_j,\sigma^2)$ ; $Y_{ji}\sim\mathcal{N}(\theta_{ji},\sigma^2)$. برابری زمانی برقرار است که $\left(m_i,b_i\right)=f\left(\theta_{1i},\ldots,\theta_{ki},\mu_1,\ldots,\mu_l\right)$. سپس، من یک **سیستم خطی با ضرایب تصادفی دارم.** \begin{alignat*}{4} m_1\Gamma_1 & {}-{} & \Gamma_2 ={} & -b_1 \\\ m_2\Gamma_1 & { }-{} & \Gamma_2 ={} & -b_2 \\\ & {}\vdots{} & \vdots{} و \\\ m_n\Gamma_1 & {}-{} & \Gamma_2 ={} & -b_n \\\ \end{alignat*} به طور رسمی، میخواهم یک منطقه اطمینان برای راه حل پیدا کنم. این بدان معناست که یک منطقه S به طوری که $(1-\alpha)100\%$ بار شامل $\left(\Gamma_1,\Gamma_2\right)$ باشد. ** آیا این یک مشکل شناخته شده است؟ ** من نمی توانم چیزی در وب پیدا کنم. **آیا کسی می تواند به من کتاب یا مقاله ای را نشان دهد که در آن این کار انجام می شود؟** کمک بزرگی خواهد بود. من سعی کردم بازه های اطمینان همزمان $(1-\alpha)100\%$ (روش بونفرونی) را برای همه $m_i$ و $b_i$ پیدا کنم. سپس، برای هر جفت شیب و قطع y، یک ناحیه $S_i$ از مقادیر ممکن $(\Gamma_1,\Gamma_2)$ بدست آوردم. من به عنوان منطقه $S=\cap S_i$ می گیرم. متأسفانه مناطقی که به دست میآورم بزرگتر از آن چیزی است که انتظار میرود. و آنها بسیار محافظه کار هستند، بیش از 10000 نمونه شبیه سازی هر بار ارزش را حفظ می کند. پیشاپیش از اینکه وقت گذاشتید و سوال را خواندید متشکرم :) | سیستم معادلات خطی با ضرایب تصادفی |
66600 | من از مجموعه داده golub از R با برچسب ها استفاده می کنم. labelgb <- factor(c(rep(ALL,27),rep(AML,11))) names(golub) <- labelgb من باید از روش تجربی Bayes در بسته limma استفاده کنم و مقادیر p را محاسبه کنم برای مجموعه داده golub با استفاده از تابع «eBayes()». fit = lmFit(golub) e = eBayes(fit) در تابع lmFit آرگومان طراحی چه کاری انجام می دهد و آیا برای مجموعه داده golub برای تامین آرگومان طراحی ضروری است؟ | eBayes() lmFit() |
32528 | من مدل ARIMA(5,1,2) را با استفاده از تابع `auto.arima()` در R قرار داده ام و با نگاه کردن به ترتیب می توان گفت که این بهترین مدل برای پیش بینی نیست. اگر مقادیر پرت در سری دادهها وجود داشته باشد، چه روشی برای تطبیق مدل با چنین دادههایی وجود دارد؟ | نحوه برازش یک مدل برای یک سری زمانی که حاوی مقادیر پرت است |
28208 | من از رگرسیون فرآیند گواسین برای انجام برخی مدلسازی استفاده میکنم. یکی از مسائلی که من با آن مواجه هستم، انتخاب ویژگی برای برخی از مدل های من است که اغلب ویژگی های مرتبط زیادی دارند. من مطمئن نیستم که بهترین راه برای کاهش # ویژگی ها چیست. من میدانم که برخی از توابع کوواریانس در GPR از تشخیص ربط خودکار استفاده میکنند، اما معتقدم برخی از فرضیات در مورد ویژگیهایی که این روشها نیاز دارند وجود دارد (من فکر میکنم استقلال بین ویژگیها برای ARD). کسی قبلا با این مسائل برخورد کرده؟ آیا پیشنهادی در مورد بهترین رویکرد برای کاهش ویژگیها یا ایجاد ویژگیهای مستقل از ویژگیهای موجود دارید؟ آیا روشی برای پیش پردازش وجود دارد که می تواند کمک کند؟ من به PCA نگاه کردهام، اما ویژگیها فقط در صورت توزیع معمولی مشترک استقلال تضمین میشوند، که مطمئن نیستم ویژگیهای من اینطور باشد. وقتی ویژگیهای کمتری وجود دارد، GPR دقیقتر است و صدها ویژگی بالقوه دارم که میتوانم از آنها استفاده کنم. با تشکر | رگرسیون فرآیند Guassian - انتخاب ویژگی |
55767 | > $X_1$، $X_2$، $X_3$ متغیرهای تصادفی مستقلی هستند که هر کدام دارای توزیع نمایی > هستند، اما به ترتیب با میانگین $2.0، 5.0، 10.0$. > اجازه دهید $Y$= کوچکترین یا حداقل مقدار این سه متغیر تصادفی باشد. > توزیع $Y$ را استخراج و شناسایی کنید. (تابع توزیع ممکن است مفید باشد). چگونه این سوال را حل کنم؟ آیا هر میانگین را به توزیع نمایی وصل کنم؟ ممنون میشم اگه کسی اینو برام توضیح بده ممنون | چگونه توزیع حداقل متغیرهای نمایی چندگانه را محاسبه کنیم؟ |
8396 | نمی دانم چرا بسته پیش بینی 2.16 در R، Theil's U را تولید نمی کند؟ من واقعا از زحمات شما قدردانی می کنم. | چگونه Theil's U را با پکیج پیش بینی 2.16 در R تولید کنیم؟ |
66602 | من یک مجموعه داده دوقلو از 248 جفت (166 MZ، 82 DZ) دارم که در یک نقطه زمانی جمع آوری شده است. من علاقه مند به بررسی رابطه بین یک نشانگر زیستی فیزیولوژیکی و سطوح بی خوابی گزارش شده توسط خودم هستم. نشانگر زیستی پیوسته است، اما من میخواهم آن را به برشهای طبقهبندی تقسیم کنم تا تفسیر آن آسانتر شود (این روشی است که معمولاً در ادبیات با آن برخورد میشود). بنابراین، من یک پیش بینی قطعی و نتیجه مستمر دارم. میخواهم ابتدا این رابطه را بررسی کنم، و سپس بررسی کنم که آیا این رابطه با اضافه کردن سطوح فعالیت بدنی (خود گزارشدهی، مستمر) بهعنوان یک پیشبینیکننده دیگر نیز تحت تأثیر قرار میگیرد یا خیر. بعد، بررسی میکنم که آیا فصل اندازهگیری (مقولهای) روابط قابلتوجهی را تعدیل میکند یا خیر. من چندین اختلال دارم که میخواهم آنها را تنظیم کنم (به عنوان مثال، جنسیت، BMI). من قصد دارم این روابط را ابتدا به صورت مقطعی (با محاسبه ماهیت همبسته داده ها) و سپس به طور جداگانه برای دوقلوهای MZ و DZ برای ارزیابی مخدوشگری ژنتیکی و خانوادگی مدل کنم. من می خواهم داده ها را در SPSS تجزیه و تحلیل کنم، اما در صورت لزوم به Stata و SAS دسترسی داشته باشم. هر دو متغیر بیومارکر و بیخوابی من غیرطبیعی هستند (بهطور مثبت دارای انحراف هستند)، اما با مدلهای غیرعادی که معمولاً با استفاده از مدلهای ترکیبی خطی تعمیمیافته تحلیل میشوند، مطابقت ندارند. بنابراین، من می خواهم از مدل های GEE یا اثرات مختلط خطی با متغیرهای تبدیل شده استفاده کنم. با این حال، آیا رویکردی وجود دارد که مناسب/بهتر باشد که من از آن غافل باشم؟ همچنین، آیا کسی نظری دارد که آیا مدل سازی GEE یا اثرات مختلط برای این داده ها مناسب تر است؟ از هر نظر و پیشنهادی بسیار متشکرم. | روشهایی برای دادههای دوقلو مقطعی (GEE، مدلسازی اثرات مختلط، GLMM)؟ |
50739 | من یک پیشتحقیری انجام میدهم تا بفهمم بهترین زمان برای تماس با نانوایان برای نظرسنجی تلفنی چه زمانی است. طرح مطالعه مقدماتی من در اینجا است: 1. من جدولی از تمام 15000 شرکت نانوایی در یک کشور دارم. 2. من به طور تصادفی 20 شرکت نانوایی را برای هر ساعت از روز انتخاب می کنم، همه به جز از 19:00 تا 23:00 (7 عصر تا 11 بعد از ظهر) که در آنجا من انتظار نداشته باشید که کار کنند. 20 ساعت * 20 = 400 تماس 3. با آنها تماس میگیرم و مودبانه از آنها میپرسم که آیا به نظرسنجی من پاسخ خواهند داد. 4. برای هر تماسی که زمان شروع و پایان را ضبط می کنم، هر چه تماس طولانی تر باشد، بهتر است. 5. همچنین، اگر نانوا نظرسنجی را پذیرفت، و اگر اصلاً به تلفن پاسخ داد، ضبط میکنم چگونه این طرح را بهینه میکنید تا به تماسهای کمتری نیاز داشته باشم؟ من در مورد استفاده از قضیه بیزی برای ایجاد اولویت های احساسی فکر می کنم. مثلاً در ساعت 03:00 آنها باید کار کنند بنابراین احتمال کم است یا در ساعت 13:00 کار اصلی تمام می شود بنابراین آنها بیشتر پاسخ خواهند داد. سپس من قصد دارم پیشینیان بیزی را با نرخ پاسخ اندازه گیری شده به روز کنم آیا ایده ای برای بهبود طراحی مطالعه خود دارید؟ به خصوص اینکه من به نمونه های کمتری نیاز دارم تا به خوبی قضاوت کنم که چه زمانی تماس بگیرم؟ | نظرسنجی تلفنی، چه زمانی تماس بگیریم؟ |
22468 | فرض کنید ما یک رگرسیون خطی ساده $y=\beta_0+\beta_1x+u$ را اجرا کردیم، باقیماندهها $\hat{u_i}$ را ذخیره کردیم و هیستوگرام توزیع باقیماندهها را رسم کردیم. اگر چیزی دریافت کنیم که شبیه توزیع آشنا به نظر می رسد، آیا می توانیم فرض کنیم که عبارت خطای ما این توزیع را دارد؟ بگو، اگر متوجه شدیم که باقیمانده ها شبیه توزیع نرمال هستند، آیا منطقی است که عبارت خطا را در جمعیت نرمال فرض کنیم؟ من فکر می کنم معقول است، اما چگونه می توان آن را توجیه کرد؟ | تایید توزیع باقیمانده ها در رگرسیون خطی |
111445 | اجازه دهید دو توزیع احتمال زیر را در نظر بگیریم. واگرایی Kullback-Leibler که برابر 0.492820258$ است، می خواهم بدانم به طور کلی این عدد چه چیزی را به من نشان می دهد؟ به طور کلی، واگرایی Kullback-Leibler به من نشان می دهد که یک توزیع احتمال از دیگری چقدر فاصله دارد، درست است؟ شبیه اصطلاحات آنتروپی است اما از نظر اعداد به چه معناست؟ اگر من نتیجه 0.49 داشته باشم، می توانم بگویم که تقریباً یک توزیع 50٪ با توزیع دیگر فاصله دارد؟ | تجزیه و تحلیل واگرایی کولبک-لایبلر |
66601 | پس از اجرای کد زیر: > library(gRim) > TA=table(ALL) > upp.model<\- dmod(~.^3, margin=colnames(ALL),data=TA) این پیام هشدار را دریافت می کنم: پیام هشدار : در loglin(object$datainfo$data، object$glist، fit = TRUE، print = print، : الگوریتم همگرا نشد اطلاعات مربوط به داده ها: str(TA) 'table' int [1:3، 1:2، 1:2، 1:2، 1:4، 1:2، 1:2، 1:2، 1:3، 1:4، 1 :2، 1:3، 1:2، 1:2، 1:2، 1:2، 1:3] 0 0 0 0 0 0 0 0 0 0 ... - attr(*, dimnames)=فهرست 17 ..$ a: chr [1:3] (vors\xe4tzliche leichte) K\xf6rperverletzung Sonst. StGB auf Stra\xdfen، Wegen oder Pl\xe4tzen ..$ b: chr [1:2] ja nein ..$ c: chr [1:2] ja nein ..$ d: chr [1:2] ja nein ..$ e: chr [1:4] 1-18 19-25 26-59 Sonst. ..$ f: chr [1:2] M W ..$ g: chr [1:2] Sonst keine Vorbeziehung ..$ h: chr [1:2] Sonst Keine Beziehung ..$ i: chr [1:3] Sonst. Sonstige Opfer Sonstige Gesch\xe4digtenspezifik ..$ j: chr [1:4] 10-18 19-25 26-36 37-88 ..$ k: chr [1:2] M Sonst ..$ l: chr. [1:3] Sonst. Ohne Sonstiger legaler Aufenthalt ..$ n: chr [1:2] ja Sonst. nein ..$ q: chr [1:3] Sonst im Bundesland in der Tatortgemeinde من واقعاً مطمئن نیستم که چگونه با این مشکل برخورد کنم. پیشنهادی دارید؟ متشکرم | پیام هشدار با عملکرد loglin/dmod، بسته gRim |
15444 | اگر یک RCT فرضی را در نظر بگیرید، مثلاً حجم نمونه 300 نفری را در نظر بگیرید که بر اساس روش جراحی (جراحی باز، جراحی بسته یا روش ترکیبی) به سه طبقه تقسیم شده است. انسداد در گروه های 2 نفره در هر طبقه انجام می شود. بدیهی است که هنگام ایجاد توالی تصادفی سازی، نمی توان از قبل از تعداد بیمارانی که به صورت تصادفی در هر طبقه قرار می گیرند، مطلع شد. بنابراین، برای هر قشر چند پاکت تصادفی باید تهیه شود؟ بر اساس دادههای قبلی، انتظار میرود حدود 33/33/33 برای هر گروه باشد، اما اگر فقط 100 پاکت برای هر گروه ساخته شود، در صورت اشتباه بودن دادههای تاریخی، انعطافپذیری ایجاد نمیشود. آیا باید: * ایمن بازی کرد و 300 در هر لایه انجام داد (و پس از انجام آزمایشی تعداد زیادی باقی مانده است)، یا * تعداد مورد نیاز را بر اساس داده های قبلی، با یک عامل بافر داخلی حدس زد؟ هر گونه راهنمایی قدردانی خواهد شد! | هنگام استفاده از تصادفی سازی طبقه ای در یک RCT، چه تعداد پاکت برای هر لایه باید تهیه شود؟ |
22464 | من در حال تجزیه و تحلیل نتایج یک آزمایش هستم. آزمایش (متاسفانه) بسیار بد طراحی شده بود.. به هر حال این چیزی است که من دارم .... در این آزمایش دو گروه از بیماران: کنترل سالم و با بیماری X. مریض ها برای سه ویزیت آمدند: در ویزیت اول اصلاً دارویی مصرف نکردند. در جلسه دوم داروی نوع 1 و در جلسه سوم داروی نوع 2 مصرف کردند. در هر جلسه از افراد بیمار نمونه خون برای آزمایش گرفته شد. گروه کنترل از افراد سالم تنها برای یک بار مراجعه کردند که در طی آن آزمایش خون نیز انجام شد. تمام آزمایش خون میزان پروتئین Y را اندازه گیری کرد. به طور خلاصه، من چهار نوع نمونه پروتئین Y دارم: از افراد سالم. از افراد بیمار که دارو دریافت نکرده اند. از افراد بیمار تحت داروهای نوع 1؛ از افراد بیمار تحت داروهای نوع 2. من سه فرضیه دارم که میخواهم آنها را آزمایش کنم - 1. تفاوت آماری واضحی بین افراد بیمار و سالم (در طول مدت ملاقاتها) وجود دارد، یعنی از جنبه میزان پروتئین، هر دو نوع دارو. سطح پروتئین را به سطح پروتئین افراد سالم افزایش نداد. 2. اینکه این دارو سطح پروتئین را در افراد بیمار بهبود می بخشد و میزان پروتئین در واقع بین افراد بیمار تحت دارو و در بیمارانی که دارو مصرف نمی کنند از نظر آماری متفاوت است. 3. تفاوت آماری در میزان پروتئین اندازه گیری شده بین دو نوع دارو وجود ندارد. سوال من این است: چگونه باید آزمون های t را برای آزمایش این سه فرضیه (تضاد؟) طراحی کنم؟ در حالی که اجتناب از تست های همپوشانی (متعامد؟) متحیر ... هر گونه کمک خواهد بود قدردانی! | چگونه فرضیه ها را برای تفاوت های گروهی آزمایش کنیم؟ |
55762 | فرض کنید یک متغیر طبقه بندی شده $X$ با سطوح $10$ داریم. ما در حال شمارش فراوانی متغیرهای دیگر در هر یک از سطوح 10$ هستیم. علاوه بر بررسی همبستگی های زوجی بین این سطوح (یعنی جدول همبستگی 10 دلار \ برابر 10 دلار)، چه معیارهای دیگری را می توانیم بررسی کنیم؟ همبستگی های زوجی چیزهایی را به ما می گویند مانند هر چه تعداد در یک سطح بیشتر باشد، در سطح دیگر کمتر باشد و غیره. | چیزهایی علاوه بر همبستگی های زوجی |
51064 | من می خواهم استقلال بین گروه های متغیرهای منطقی را تعیین کنم. مثلاً برای سه گروه میخواهم بدانم که آیا تعداد مادهها (در مقابل مرد) بین گروهها فرق میکند؟ من از آزمون مربع کای برای این کار استفاده می کنم. تفاوت بین استفاده از جدول احتمالی 2 ردیفی با جدول احتمالی 1 ردیفی با احتمالات جمعیت چیست؟ به عنوان مثال، با استفاده از مثال Agresti در مستندات chisq.test برای R: ## از Agresti(2007) p.39 M <- as.table(rbind(c(762, 327, 468, c(484,239,477))) dimnames(M) <- list(gender=c(M,F), party=c(دموکرات، مستقل، جمهوریخواه)) (Xsq <- chisq.test(M)) # خلاصه آزمایش را چاپ میکند Xsq$ انتظار میرود # تعداد مورد انتظار زیر عدد صفر که دریافت میکنم: X-squared = 30.0701، df = 2، p-value = 2.954e-07 جنس حزب جمهوریخواه مستقل دموکرات M 703.6714 319.6453 533.6834 F 542.3286 246.3547 411.3166 اگر از همان داده ها برای ایجاد بردارهای منطقی استفاده کنم: testChiSqPVal <- list(DemocratIsMale=p,(F62,4,) IndependentIsMale=c(rep(TRUE,327), rep(FALSE,239)), RepublicanIsMale=c(rep(TRUE,468),rep(FALSE,477))) و سپس یک جدول احتمالی یک ردیفی ایجاد کنید و محاسبه کنید مربع chi بردار احتمال را برای مطابقت با درصدهای گروه تنظیم می کند: library(plyr) tbl <- laply(testChiSqPVal, مجموع) Xsq <- chisq.test(tbl, p=laply(testChiSqPVal,length), rescale.p=TRUE) Xsq Xsq$expected من همان مقادیر مورد انتظار را در ردیف اول بالا دریافت می کنم، اما مجموع مربع chi متفاوت است: X-squared = 13.0882، df = 2، p-value = 0.001439 [1] 703.6714 319.6453 533.6834 واضح است که من در حال آزمایش دو فرضیه مختلف هستم، اما دقیقاً مطمئن نیستم که آنها چیستند. | مربع چی برای بردارهای منطقی: جدول احتمالی 2 ردیفی یا بردار 1 ردیفی؟ |
83225 | من میانگین و انحراف معیار یک نمونه بزرگ (30k obs) و میانگین و std یک نمونه فرعی (2k obs) را دارم. میانگین ها ارقام درصدی هستند (یعنی بین 0 تا 100٪ و بنابراین یک متغیر عادی نیستند). همچنین ابزارها مستقل نیستند، زیرا یکی بر اساس نمونه فرعی از دیگری است. علیرغم یک سوال به ظاهر بی ضرر، من نتوانستم یک روش آزمایش مناسب پیدا کنم. هر گونه ایده در مورد چگونگی آزمایش اینکه آیا میانگین زیرنمونه با میانگین کل نمونه متفاوت است بسیار مورد استقبال قرار می گیرد. | آزمایش اینکه آیا میانگین یک گروه با میانگین کل نمونه متفاوت است یا خیر |
92907 | من در حال حاضر در مورد آزمون Shapiro-Wilk برای نرمال بودن و استفاده از R برای انجام آزمایش های ساده هستم. چیزی که من را گیج می کند این است که متوجه شدم برخی از نتایج یک مقدار W بالا تولید می کنند در حالی که p-value بسیار پایین است. اگر من این را به درستی درک کنم، مقدار W ممکن است بین 0 تا 1 باشد. W کوچک منجر به رد نرمال می شود در حالی که W بالا منجر به فرضیه جایگزین می شود. پس چگونه این به P-Value مربوط می شود؟ به عبارت دیگر، آیا p-value به نوعی از نتیجه W مشتق شده است؟ با توجه به این موضوع، در اینجا مثالی وجود دارد که من را گیج می کند: set.seed(1000) xgamma <- rgamma(5000,1,2) shapiro.test(xgamma) داده های تست نرمال Shapiro-Wilk: xgamma W = 0.811, p- مقدار < 2.2e-16 من 5000 مقدار گامای تصادفی ایجاد می کنم که منجر به W برابر با 0.811 (غیر منتظره) و p-value 22e-16 می شود. من فکر کردم که مقدار W باید کم باشد زیرا مقدار p در مقایسه بسیار کوچک است. چگونه باید مقدار W را در مقایسه با P-Value تفسیر کنم؟ پیشاپیش برای هر نظری متشکرم! | R: آزمون Shapiro-Wilk با رابطه W و P-Value؟ |
111448 | من در مورد توزیع (حداکثر) طول اجرا با توجه به k آزمایش مستقل کنجکاو هستم که $p(X=1)=p_1، p(X=2)=p_2، ...، p(X=n)=p_n.$ برای مثال، برای پرتاب سکه برای 3 آزمایش مستقل، $p(X=H)=1/2، p(X=T)=1/2.$ $p(mrl=3)=2*(1/2)^3 برای HHH، TTT $$p(mrl=2)=4*(1/2)^3 برای HTT، THH، HHT، TTH $p (mrl=1)=1-p(mrl=3)-p(mrl=2) $ اما اگر برای n و k عمومی چه می شد؟ حدس من برای توزیع یکنواخت $E(mrl)=log_k n$ خواهد بود | توزیع (حداکثر) طول اجرا |
61377 | فرض کنید اطلاعاتی در مورد جمعیت یک کشور از مثلاً 1800 تا 2010 به شما داده شده است. همچنین برخی از متغیرهای توضیحی در مورد مهاجرت به آن کشور، نرخ تورم و سایر عوامل اجتماعی-اقتصادی به شما داده شده است. هدف پیش بینی جمعیت کشور در 100 سال آینده است. آیا ادبیاتی در مورد مدل های رشد جمعیت وجود دارد زیرا به نظر می رسد یک مدل رگرسیون خطی ساده کافی نخواهد بود. آیا یک مدل قطعی در این مورد بهتر است؟ من همچنین روشهای سری زمانی را امتحان کردهام، اما به نظر میرسد که تفاضل ساده یا تبدیلهای log، سری را ثابت نمیکند که نمیتوانم یک مدل ARIMA بسازم. من به دنبال ساخت یک مدل قابل تفسیر هستم. | چگونه رشد جمعیت را مدل کنیم؟ |
61372 | من یک مدل رگرسیون لجستیک ترتیبی را با استفاده از SPSS و Minitab اجرا کردم. مجموعه داده دقیقاً یکسان است. نتایج دقیقاً یکسان است، اما در جهت مخالف. من مقادیر پیش فرض دو برنامه را دستکاری نکرده ام. نتیجه SPSS درست است. من این را از زمانی می دانم که وقتی این مجموعه داده را با استفاده از Minitab تجزیه و تحلیل می کنم، اما با استفاده از رگرسیون خطی آن (نه لاجیت ترتیبی)، خود Minitab چیزی شبیه به SPSS ارائه می دهد. اما رگرسیون ترتیبی Minitab یک پیش فرض عجیب را در نظر می گیرد. **همه بتاها در رگرسیون لجستیک Minitab نفی می شوند.** چرا اینطور است؟ | چرا Minitab و SPSS نتایج متضادی در رگرسیون لجستیک ترتیبی می دهند؟ |
55761 | من سعی می کنم مثالی را در یادداشت های دوره آمارم بفهمم، مثال مربوط به محاسبه بهترین مقدار برای آزمایش بعدی است. عملکرد خط بسیار ساده است: $$\ln(Y_i) = \ln(\theta^*_1 + \theta^*_2x_i) + \epsilon_i$$ این مثال در مثال قبلی کار می کند که در آن تخمین نقطه ای قبلا انجام شده است. به دست آمده برای $\theta^*_1$ و $\theta^*_2$ اینها عبارتند از: $$\theta = \begin{pmatrix} 3.9963\\\ 2.3792 \end{pmatrix}$$ مقادیر داده شده قبلاً عبارتند از: i y x 1 4.11 0 2 6.32 1 3 8.21 2 4 10.43 3 5 14.29 4 6 16.78 5 بنابراین سؤال این است که چگونه مقدار بهینه $x_7 را بدست آوریم. معادله ای که باید استفاده شود داده شده است، اما برای من چندان منطقی نیست، به خصوص خط آخر، جایی که برخی از اعداد به ظاهر تصادفی از جایی ظاهر می شوند. در اینجا نکات ارائه شده است: اجازه دهید بردار $p\times 1$$r_{n+1} = \frac{\delta f(x_{n+1}. \theta)}{\delta\theta}$$ $$ C_{n+1} = X_{n+1}'X_{n+1} = \begin{pmatrix}X_n\\\ r_{n+1}' \end{pmatrix}' \begin{pmatrix}X_n\\\ r_{n+1}' \end{pmatrix} $$ $$ \phi = |C_{n+1}| = |\begin{pmatrix}X_n\\\ r_{n+1}' \end{pmatrix}' \begin{pmatrix}X_n\\\ r_{n+1}' \end{pmatrix}| = |X_n'X_n+r_{n+1}r_{n+1}'| $$ $$ \بنابراین \phi = |C_{n+1} + r_{n+1}r_{n+1}'| = |C_n|(1 + r_{n+1}'C_n^{-1}r_{n+1}) $$ در اینجا مثال آمده است در آن مقدار $x، 0 \leq x \leq 2$ باید آزمایش بعدی انجام شود $$\ln(Y_i) = \ln(\theta^*_1 + \theta^*_2x_i) + \epsilon_i$$$$\theta = \begin{pmatrix} 3.9963\\\ 2.3792 \end{pmatrix}$$ $$ X'X = \begin{bmatrix}0.11777 & 0.11660\\\ 0.11660 & 0.33500 \end{bmatrix $7} $ شروع{bmatrix} \frac{1}{\theta_1 + \theta_2 x_7} & \frac{x_7}{\theta_1 + \theta_2 x_7}\end{bmatrix} $$ اکنون، در حالی که من دقیقاً همه اینها را نمیدانم - میتوانم کار کنم چه می گوید چیزی که من را جذب می کند، بیت بعدی است. $$ \phi = \frac{12.9358 - 8.9781x_7 + 4.534x_7^2}{(3.9963 + 2.3792x_7)^2} $$ 12.9358، 8.9781، 4.534 از کجا آمده است؟ همچنین قسمت تقسیم این از کجا آمده است، بالای $\phi$ اصلاً بدون تقسیم محاسبه شد. در نهایت، $^2$ از کجا در مقسوم علیه آمده است؟ هر کمکی در اینجا بسیار قدردانی میشود، من احساس میکنم که بسیار ساده خواهد بود - من فقط چیزی را از دست دادهام. متشکرم EDIT پس از مشورت زیاد، این را فهمیدم: $$ \phi = \frac{X'X^{-1}_{00} + (X'X^{-1}_{0,1} + X 'X^{-1}_{1,0})x_7 + X'X^{-1}_{1,1}x_7^2}{(\theta_0 + \theta_1x_7)^2} $$ واقعاً فوق العاده خواهد بود اگر کسی بتواند تأیید کند که این مورد برای همه رگرسیون های غیر خطی است، یا اگر این مورد فقط برای این یکی باشد، و اگر برای معادلات دیگر چیزی متفاوت است. | مسئله ترتیبی برای n=1، رگرسیون غیر خطی |
55769 | من برای کلاس تئوری آماری خود در مشکلی گیر کرده ام. بنابراین مشکل به این صورت است: فرض کنید X متغیر تصادفی **گسسته** باشد، یعنی X دارای pmf است: $f(x)=\frac{1}{\theta}, x=1,2,. ..،\theta$ و نمونه ای با اندازه n، ${X_1،...، X_n}$ داریم. درست مانند حالت پیوسته، $T=Max(X_1,...,X_n)$ a) نشان دهید که T یک آمار کافی برای $\theta$ است. بنابراین من باید بفهمم که E(g(t)) چیست زیرا ما در صدد یافتن یک آمار کامل کافی با استفاده از تعریف هستیم. چیزی که من در آن گیر کرده ام این است که چگونه می توانم این را بفهمم زیرا این توزیع یکنواخت گسسته است و پیوسته نیست. چیزی که من تا الان دارم این است: $E(g(T))=\Sigma g(t)*f_t(t)$ که مطمئن نیستم درست باشد زیرا می دانم که $f_t(Max)=\frac {nt^{n-1}}{\theta^n}$. آیا می توانم $E(g(T))=\Sigma g(t)*\frac{nt^{n-1}}{\theta^n}$ را بفهمم؟ بنابراین من میتوانم: $E(g(T))=\frac{n}{\theta^n}\Sigma g(t)*t^{n-1}$ اجازه دهید $h(t) =\frac {g(t)}{t}$ $=\frac{n}{\theta^n}\Sigma h(t)t^n$ مشکل این است که می دانم این تا بی نهایت منفجر می شود و تا 0 لایک نمی شود من به آن نیاز دارم برو آیا کسی می تواند کار من را بررسی کند و به من بگوید که آیا در جایی با این مشکل اشتباه می کنم؟ با تشکر | یافتن مقدار مورد انتظار یک متغیر تصادفی یکنواخت گسسته |
161 | اقتصاددانان اغلب در مورد یک سری زمانی صحبت می کنند که با مرتبه k، I(k) _ ادغام شده است. _k_ حداقل تعداد اختلاف مورد نیاز برای به دست آوردن یک سری زمانی ثابت است. با توجه به سطح اطمینان، ترتیب ادغام یک سری زمانی، از چه روشها یا آزمونهای آماری میتوان استفاده کرد؟ | از چه روش هایی می توان برای تعیین ترتیب ادغام یک سری زمانی استفاده کرد؟ |
22466 | آیا می توانم تحلیل عاملی را به روش زیر درک کنم؟ فرض کنید من 5 متغیر مستقل دارم (A,B,C,D,E) تجزیه و تحلیل عاملی به من اجازه می دهد که (D,E) را به متغیرهای وابسته تبدیل کنم و به من اجازه می دهد که آنها را ترکیب خطی (A,B,C) کنم. . بنابراین من فقط باید داده های (A,B,C) و ماتریس $\Lambda$ را حمل کنم، سپس می توانم داده ها (D,E) را با داده ها (A,B,C) و ماتریس $\Lambda$ دوباره ایجاد کنم. فقط کاهش داده را انجام می دهد. درست میگم؟ | درک تحلیل عاملی |
26371 | این یک سوال تکلیف است، بنابراین من به دنبال کمک برای گرفتن ایده مناسب هستم تا بتوانم بقیه کارها را خودم اجرا کنم. من اطلاعاتی در مورد وضعیت سربازی کهنه سرباز و درآمدهای ثبت شده دارم. یکی از سؤالات به شرح زیر است: > بازگشت به وضعیت جانبازی (متغیر شاخص، 0-نه > جانباز، 1-جانباز) را با در نظر گرفتن تفاوت میانگین درآمد ثبت شده برای > جانبازان و غیر جانبازان برآورد کنید. خطای استاندارد این تخمین را محاسبه کنید، > و نحوه محاسبه آن را شرح دهید. هم خطاهای استاندارد مبتنی بر homoskedasticity > و هم خطاهای استاندارد قوی (یعنی heteroskedasticity- > سازگار) را محاسبه کنید. در دوره آموزشی خود، ما فقط حدود 10 هفته پیش در مورد تمایز خطاهای استاندارد سازگار با همسواسکداستیسیته/هتروسکداستیسیته در زمینه رگرسیون اساسی بحث کردیم. مطالب مرتبط برای این سوال همه چیز در مورد مدل های متغیرهای ابزاری و روش های آزمایش اثربخشی علی درمان ها است. بنابراین در اینجا چند چیز بسیار ساده لوحانه وجود دارد که من معمولاً سعی می کنم یک خطای استاندارد را برای تأثیر وضعیت جانبازی بر روی دستمزد محاسبه کنم: (1) یک رگرسیون پایه با یک جمله ثابت و یک ضریب در شاخص وضعیت جانباز انجام دهید. پس آیا درست نیست که ضریب جانبازی نشان دهنده «حق بیمه ایثارگری» است؟ و بنابراین فرمول های اساسی برای خطاهای استاندارد مختلف برای این ضریب تخمینی باید اعمال شود؟ من مطمئن نیستم که این درست باشد. برای من روشن نیست که این ضریب چگونه تفاوت میانگین جمعیت را برای جمعیت جانباز و غیر جانباز نشان می دهد. (2) وانمود کنید که این یک آزمایش تصادفی است. جایگشت های بردار وضعیت جانبازی را بر روی همه افراد ترسیم کنید و وانمود کنید که دستمزد مشاهده شده آنها همیشه وضعیت جانبازی آنها را از بردار جایگشت ترسیم شده نشان می دهد. میانگین دستمزد جمعیت جانباز را منهای میانگین دستمزد غیر جانبازان محاسبه کنید. این کار را برای بسیاری از تکرارها انجام دهید تا یک میانگین مونت کارلو برای این تفاوت کهنه سرباز در مقابل غیر کهنه سرباز و یک خطای استاندارد بر اساس شبیه سازی بدست آورید. من به شدت در این مورد تردید دارم زیرا ممکن است تأثیرات علی زیادی در رابطه با وضعیت سربازی وجود داشته باشد که با فرض تصادفیسازی آنها را نادیده میگیریم، و علاوه بر این، اصلاً مشخص نیست که چگونه میتوان از این رویکرد برای به دست آوردن برآورد سازگار با ناهمگونی استفاده کرد. من هیچ راهی برای بررسی درست بودن کاری که انجام می دهم ندارم، بنابراین کمی شبیه چاقو زدن در تاریکی است. من میتوانم کدهای زیادی بنویسم که عملیات بالا را انجام میدهد، اما واقعاً چگونه بفهمم که آیا این کد به سؤال پاسخ میدهد؟ آیا منابع خوب و قابل خواندنی برای روش انجام رگرسیون بر روی متغیرهای شاخص وجود دارد، به خصوص زمانی که آمار مورد علاقه تفاوت میانگین ها در جمعیت هایی است که شاخص متفاوت است؟ | خطاهای استاندارد سازگار با ناهمگونی برای تفاوت بین دو جمعیت؟ |
34905 | من بسیار مشتاق ورزش هستم و تازه شروع به درک این موضوع کرده ام که چگونه می توانم ریاضیات را در مسائل و مسائل مربوط به ورزش به کار ببرم. من مشتاقم برای رگرسیون های خطی که انجام داده ام، و وزن های (خطی) که برای گل هایی که در لیگ برتر انگلیس به ثمر می رسم به دست بیاورم. مطالعات سبک Sabremetrics (http://en.wikipedia.org/wiki/Sabremetrics) در ورزش های مختلف انجام شده است، اما هرگز واقعاً برای فوتبال/فوتبال جذب نشده است. برای تلاش و کمک به این امر، یک باشگاه اخیرا جامع ترین مجموعه داده ای را که برای یک فصل کامل منتشر شده است (بیش از 200 متغیر برای هر بازیکن در هر 20 تیم) منتشر کرده است تا به مطالعات تحلیلی در بازی کمک کند. به طور خلاصه، از آنجایی که انجام آن نسبتاً آسان است (در سطح پایه با اکسل)، من مشتاق بودم که رگرسیون هایی را روی داده ها اجرا کنم تا وزن های خطی برای تعریف اهداف به ثمر رسیده در یک مدل پیش بینی تعیین کنم (بنابراین می توانید به طور مؤثر برای یک بازیکن ارزش گذاری کنید - به عنوان مثال. در بالا یا پایین مدلها پیشبینی میکنند یا پیشبینی میکنند که در یک فصل چه امتیازی میتوانند کسب کنند یا چه کسی ارزشمندتر است). من دادهها را گروهبندی کردم تا دادههای طول فصل را برای همه 538 بازیکنی که در فصل 2011/12 بازی کردند (بهجای بازی انفرادی) ارائه داد. سپس تمام بازیکنانی را که کمتر از 1000 دقیقه بازی کردند (حدود 25 درصد از فصل) و کمتر از 5 گل به ثمر رساندند را حذف کردم (تا سعی کنم موارد دور از انتظار را حذف کنم). این امر مجموعه داده ها را به تنها 65 بازیکن کاهش داد. سپس متغیرها را بررسی کردم و هر متغیری را که مرتبط نبود حذف کردم (مثلاً تعداد ضربه های دروازه بان، تعیین کننده تعداد گل های یک بازیکن نیست - زیرا بازیکن برای این مقدار 0 خواهد داشت زیرا بازیکن بیرون زمین است). و نه دروازه بان). سپس شروع به اجرای رگرسیون کردم و هر متغیری را با مقدار p بزرگتر از 0.05 (به عنوان مثال از نظر آماری ناچیز) حذف کردم. سپس گزینه های مختلف با مقادیر r2 بین 0.84 و 0.89 (بسته به تغییرات جزئی در متغیرها) برای من وجود دارد. http://img253.imageshack.us/img253/7638/revcreg6r2896.jpg (آخرین رگرسیونی بود که قبل از اجرای آن تنها با متغیرهای مهم اجرا کردم - بالاترین مقدار r2 در 0.896) http://img820.imageshack.us/img820/ 8695/revcreg7ar2848.jpg (در حال گرفتن رگرسیون بود در بالا و انداختن شانس های بزرگ که همه متغیرها را معنی دار می کند و یک r2 برابر با 0.848 می دهد) http://img4.imageshack.us/img4/4255/revcreg7br2868.jpg (در حال افزودن مجدد شانس های بزرگ بود، زیرا معنی دار بود زمانی که من تمام متغیرها را مرور می کردم و در تصویر اول در 0.16 فقط حاشیه ای ناچیز بود - یک نشان می دهد r2 از 0.868). http://img594.imageshack.us/img594/7743/revdreg7cr2881.jpg (در حال اضافه کردن تلاش از بازی ست شده روی هدف بود، زیرا مقدار p مشابهی با شانس های بزرگ داشت - r2 0.881 را می دهد). همه موارد فوق تعدادی سؤال به من داده است که اگر در مورد آنها توصیه کنید سپاسگزار خواهم بود: آیا کاری که من می خواهم انجام دهم ناقص است (مثلاً آیا اشتباه می کنم که سعی می کنم تجزیه و تحلیل رگرسیون را در این مورد اعمال کنم)؟ آیا یک r2 بیش از 0.84 برای پذیرش و آزمایش روی یک مجموعه داده بزرگتر در طول سالهای بیشتر رضایت بخش است؟ متغیر ضربه به هدف شامل گل ها شامل گل های زده شده است - بنابراین آیا می توانم از آن به عنوان یک متغیر مستقل برای تعیین گل های به ثمر رسیده استفاده کنم - که به عنوان متغیر وابسته رفتار می کنم؟ (همین مورد در مورد تلاش از بازی باز روی هدف نیز صدق می کند، اما به طور عجیبی این به عنوان یک ضریب منفی ظاهر می شود، در حالی که ضربات روی هدف که به طور موثر شامل همان داده ها می شود مثبت است). «شانسهای بزرگ» (مثلاً شانسهای بزرگ برای گلزنی) در اولین رگرسیونهایی که انجام دادم، قبل از اینکه با p-value 0.16 در اولین رگرسیون بالا به دست آمد، معنیدار بود - این معنادار بود، بنابراین آیا باید همچنان آن را بهعنوان معنیدار در نظر بگیرم ( به عنوان شامل آن در R2 بهتر)؟ خطاهای برنده پنالتی (به عنوان مثال خطای روی بازیکن که منجر به پنالتی می شود) قابل توجه است، اما من انتظار دارم که این یک ضریب مثبت باشد (با فرض اینکه بازیکن پنالتی را گرفته و به ثمر برساند). با توجه به عدم شفافیت در مورد متغیر (فقط نمی توانم ببینم که این باید به شدت منفی باشد) آیا باید این را حذف کنم؟ امیدوارم در مورد کاری که سعی کردهام انجام دهم کاملاً واضح بوده باشم، و برای هر گونه راهنمایی در جهت درست و توصیههای ارائه شده سپاسگزار خواهم بود. با تشکر | تلاش برای تعریف وزن های خطی برای گل های زده شده در لیگ برتر انگلیس |
32527 | من مدل زیر را دارم: $Y_1=\beta+\varepsilon_1+\varepsilon_2$ $Y_2=\beta+\varepsilon_3+\varepsilon_4$ $Y_3=\beta+\varepsilon_1+\varepsilon_4+\varepsilon_5$ $Y_4=\beta+\varepsilon_2+\varepsilon_3+\varepsilon_5$ $\varepsilon_i\thicksim \text{iid } \mathcal{N}(0,\sigma^2), \forall i$ من مایلم بهترین ها را به دست بیاورم (بی طرفانه و با حداقل واریانس) برآوردگر $\beta$. یعنی میخواهم $\hat{\beta}=f(Y_1,Y_2,Y_3,Y_4)$ را بدانم. چگونه باید آن را تهیه کنم؟ من واقعا از کمک شما قدردانی خواهم کرد. | برآورد بهینه یک میانگین از داده های غیر مستقل |
93251 | من میخواهم آزمایش کنم که آیا $\alpha$ برای یک مقیاس وابسته به آزمون شخصیت است که یک متغیر پیوسته است. من میدانم که روشهای زیادی برای آزمایش وجود دارد که آیا دو $\alpha$ برای دو گروه مختلف به طور قابلتوجهی متفاوت هستند، وقتی آزمایش یکسانی به آنها داده میشود. اما اگر متغیر گروه بندی دوگانه نباشد، بلکه پیوسته باشد چه؟ آیا باید فقط یک تقسیم متوسط یا سوم انجام دهم تا به طور مصنوعی گروه های جداگانه ایجاد کنم و آزمایش کنم که آیا آنها $\alpha$ های متفاوتی دارند یا خیر؟ من چیزهای بدی در مورد تقسیم میانه شنیده ام (مانند کاهش قدرت و غیره)، بنابراین در استفاده از این روش مردد هستم. هر پیشنهادی؟ | چگونه می توان آلفای کرونباخ را زمانی که متغیر گروه بندی پیوسته است مقایسه کرد؟ |
114670 | تحلیل من در رابطه با طبقه بندی با استفاده از ساده لوح است. مشکل این است که مجموعه داده ها از نظر ویژگی های تصویر هستند، هنگام بررسی همبستگی، نشانه هایی از همبستگی زیاد بین ویژگی ها وجود دارد. بنابراین چگونه می توان با این وضعیت برخورد کرد | نحوه برخورد چند خطی در بین ویژگی ها |
1369 | من یک فاصله مشخص با انحراف معیار دارم. من اکنون چند 100 فاصله را شبیه سازی کرده ام و می خواهم از این فاصله ها یک نمونه 10-20 شبیه توزیع اصلی ترسیم کنم. آیا روش استانداردی برای انجام این کار وجود دارد؟ | نمونه برداری بر اساس توزیع نرمال |
25552 | فرض کنید من میخواهم یک ماتریس متعامد $n \times n$ ایجاد کنم (یعنی $H^T H=I$) اما با این ویژگی که $1-e < (tr H)/n < 1+e$ برای مقداری تلرانس از پیش تعیین شده $e$. چگونه می توانم این کار را انجام دهم؟ در حالت ایدهآل، من میخواهم که آنها توزیع Haar را داشته باشند (مشروط به محدودیت ردیابی) اما به هر روشی که توزیع «معقول» تولید میکند رضایت میدهم. دو رویکردی که در ذهن داشتم: 1) استفاده از چرخشهای Givens/زوایای اویلر نزدیک به 0 2) (ویرایش) با استفاده از ماتریسهای متقارن چولگی $L$ نزدیک به 0 و ارزیابی $\exp L$ توجه: برنامههای ممکن شامل تخمین بیزی از ماتریس های کوواریانس | تولید ماتریس های متعامد نزدیک به هویت |
56230 | من می خواهم همزمان دو سری زمانی همبسته را پیش بینی کنم. در اینجا طرحی از یک سری زمانی در مقابل سری دیگر آمده است:  در حال حاضر من رگرسیون خطی جداگانه ای برای هر دوی آنها دارم که به برخی از IV ها و عملکرد در حین متکی هستند. قابل قبول است من می خواهم راهی برای در نظر گرفتن رابطه بین آنها در هنگام پیش بینی پیدا کنم. آیا کسی می تواند استراتژی هایی را برای این کار پیشنهاد کند؟ من بیشتر در پایتون کار می کنم بنابراین هر چیزی که قبلاً در پایتون پیاده سازی شده باشد یک امتیاز است! | مدلسازی دو متغیر همبسته |
114458 | من اکنون با اندازه افکت LMM مشکل دارم. یک نفر اصرار داشت که باید اندازه های افکت را بعد از مقادیر p داشته باشم. سپس فکر کردم که می توانم از تخمین در خروجی مقایسه زوجی با استفاده از تابع lsmeans استفاده کنم. او با استفاده از تخمین قانع نشد و به من پیشنهاد کرد که از d کوهن استفاده کنم. سپس به محاسبه cohen'd نگاه می کنم. فقط از ابزار و SD گروه ها استفاده می کند. از واریانس LMM نمی آید. نکته دیگر نیز در مورد اندازه افکت است، من از تابع مختلط در afex در R استفاده کرده ام که به طور کلی مقادیر قابل توجهی از پارامترها را به من می دهد، اما اندازه افکت را برای من ارائه نمی دهد. سپس از نویسنده آن تابع ایمیل زدم که چگونه می توانم اندازه افکت داشته باشم، و او پاسخ داد که توافقی در مورد نحوه محاسبه اندازه افکت در LMM وجود ندارد، بنابراین او در آن تابع ارائه نکرد، اما دوباره همکارم اصرار کرد که من باید آن را داشته باشد. من احساس میکنم اگر اندازه اثر محاسبهشده از جدول ANOVA را بخواهم، پس اندازه اثر LMM نیست که محاسبه میکنم. این خروجی از LMM در afex است. > mixed3 <- mixed(peak_Mid ~ (1| مورد) + (1+vowel3|speaker) + sex*vowel3*Language, data=data1.frame, na.action=na.omit) Fitting 9 (g)lmer() مدل ها: [.........] به دست آوردن 8 مقدار p: [توجه: روش با امضای 'sparseMatrix#ANY' برای تابع انتخاب شده است «kronecker»، امضای هدف «dgCMatrix#ngCMatrix». ANY#sparseMatrix نیز معتبر خواهد بود ........] > خلاصه (مخلوط3) اثر stat ndf ddf F. مقیاس گذاری p.value stat.U ndf.U ddf.U F.scaling.U p.value U 1 (Intercept) 9500.922104 1 70.40672 1.0000000 7.529698e-77 9500.922104 1 70.40672 NA 7.529698e-77 2 جنسیت 15.980281 1 71.52842 1.0000000 1.5385215181. 71.52842 NA 1.538529e-04 3 vowel3 8.596702 2 27.40531 0.9916348 1.264905e-03 8.669222 2 27.40520-27.40520- NA 863 NA 861. 3.996819 2 70.74337 0.9909675 2.267036e-02 4.033250 2 70.74337 NA 2.194066e-02 5 جنسیت:صدادار3 1.7467398 1.7467398 1.7467398 1.7467398 02 1.813334e-01 1.769323 2 75.92257 NA 1.774036e-01 6 جنسیت:زبان 4.136050 2 170.78334 0.9964821 1.76125425-1.7615425. 170.78334 NA 1.737140e-02 7 vowel3:Language 1.573332 4 66.15951 0.9799283 1.917146e-01 1.605559 4 66.15951 0.9799283 1.605559 4 66.15951. sex:vowel3:Language 1.239002 4 195.29430 0.9894859 2.956981e-01 1.252168 4 195.29430 NA 2.903144e-01 > آیا LMM هیچ پیشنهادی برای محاسبه اندازه دارد؟ | چگونه اندازه افکت مناسب را از LMM بدست آوریم؟ |
56238 | این سوال رو اینجا میذارم چون جوابی از math- Exchange نگرفتم... =) دارم کتاب تحلیل سری های زمانی میخونم و فرمول اتوکوواریانس نمونه تو کتاب اینطور تعریف شده: $\widehat{ \گاما}(h) = n^{-1}\displaystyle\sum_{t=1}^{n-h}(x_{t+h}-\bar{x})(x_t-\bar{x})$ با $\widehat{\gamma }(-h) = \widehat{\gamma}(h)\;$ برای $\;h = 0,1، ...، n-1$. $\bar{x}$ میانگین است. آیا کسی می تواند به طور مستقیم توضیح دهد که چرا ما مجموع را بر $n$ تقسیم می کنیم نه بر $n-h$؟ کتاب توضیح میدهد که این به این دلیل است که فرمول بالا یک تابع قطعی غیر منفی است و بنابراین تقسیم بر $n$ ترجیح داده میشود، اما این برای من روشن نیست. آیا کسی می تواند این را ثابت کند یا مثال یا چیزی نشان دهد. من کمی گیج هستم x) برای من در ابتدا چیزی که بصری است تقسیم بر $n-h$ است. آیا این یک برآوردگر بی طرفانه یا مغرضانه خودکوواریانس است؟ ممنون میشم اگه راهنمایی کنید =) | سوال در مورد تابع اتوکوواریانس نمونه |
85451 | من میدانم که یک تابع R spatstat برای تولید ppp (فرایند نقطه پواسون) وجود دارد، اما من در پایتون کار میکنم و نمیدانم spatstat.ppp در پشت صحنه چه میکند. اگر آرایهای از جفتهای مرتب شده از x و y تصادفی (در محدوده فضایی) ایجاد کنم، آیا این یک ppp خواهد بود (یا چه تفاوتی با آن خواهد داشت؟ آیا x و y باید بر اساس توزیع پواسون (np.random.poisson) انتخاب شوند؟ من اسناد spatstat را در ppp و صفحات ویکیپدیا در مورد فرآیند Poisson point و توزیع پواسون خواندهام، اما فقط مهارتی برای آمار ندارم. آیا تعداد رویدادها تصادفی است؟ یا کجا در فضا سقوط می کنند؟ از هر کمکی که می توانید بکنید متشکرم. (ps -- این مشکل کاملاً مکانی است و بعد زمانی وجود ندارد.) | پواسون در مورد فرآیند نقطه پواسون چیست؟ (یا می توانم با استفاده از جفت های مرتب شده تصادفی یکی تولید کنم؟) |
32522 | آیا دلیل شهودی برای کاهش اثرات تصادفی به سمت مقدار مورد انتظارشان در مدل مختلط خطی عمومی وجود دارد؟ | چرا جلوه های تصادفی به سمت 0 کوچک می شوند؟ |
56237 | من یک مبتدی در R هستم و نمیدانم چگونه نتایج خود را تفسیر کنم..... سوال من در مورد نتایجی است که پس از انجام رگرسیون در تابع تولید Translog برای دادههای پانل به دست آوردم: $ log(y)=log (A) + \alpha_{K} log(K) + \alpha_{L} log(L) + \beta_{KL} log(K)log(L) + \beta_{L^2} log^2(L ) + \beta_{K^2} log^2(K)$ L مخفف labor و K به معنای سرمایه است. نتایجی که من برای تفاوت های درون، تصادفی و اول به دست آوردم به شرح زیر است: درون: #در ضرایب : برآورد Std. خطای t-value Pr(>|t|) K 1.0902e-05 1.0654e-06 10.2326 <2e-16 *** L -2.4009e-06 1.5086e-07 -15.9150 <2e-16 *** LK 1. -03 3.6069e-03 0.5486 0.5833 LL 3.0511e-02 1.3141e-03 23.2173 <2e-16 *** KK 5.0333e-02 2.6650e-03 18.8868 <2e-16 *** --- کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 مجموع مجذورات: 6886.3 مجموع مربعات باقیمانده: 1983.9 R-Squared : 0.71191 Adj. R-Squared: 0.69692 F-statistic: 10729.1 در 5 و 21709 DF، p-value: < 2.22e-16 > #رگرسیون ترانسلگ تصادفی > tl.random<-plm(Y ~ K + L + LK + LL + KK، data=panel, model=random) > summary(tl.random) Oneway افکت (انفرادی) مدل اثر تصادفی (تبدیل سوامی-آرواس) فراخوانی: plm(فرمول = Y ~ K + L + LK + LL + KK، داده = پانل، مدل = تصادفی) پانل متعادل: n=462، T= 48، N=22176 جلوهها: var std.dev share idiosyncratic 0.09139 0.30230 0.397 فردی 0.13856 0.37224 0.603 تتا: 0.8836 باقیمانده: حداقل. 1 ق. میانه سوم چهارم حداکثر -3.16000 -0.14200 0.00724 0.15400 4.89000 Coefficients : Estimate Std. خطای t-value Pr(>|t|) (Intercept) 1.6266e+00 3.9030e-02 41.6763 <2e-16 *** K 9.0932e-06 1.0552e-06 8.6178 <2e-16 *** L - e-06 1.5023e-07 -16.7684 <2e-16 *** LK 2.7566e-03 3.6102e-03 0.7636 0.4451 LL 2.9491e-02 1.3138e-03 22.7566e-03 22.4474 K. 2.6659e-03 18.3117 <2e-16 *** --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 مجموع مجذورات: 7183.6 باقیمانده جمع مربع: 2070.2 R-Squared : 0.71181 Adj. R-Squared: 0.71162 F-statistic: 10951.9 در 5 و 22170 DF، p-value: < 2.22e-16 > #رگرسیون اولین تفاوت translog > tl.fd<-plm(Y ~ K + L + LK + LL + KK -1, data=panel, model=fd) > summary(tl.fd) Oneway اثر (انفرادی) اولین تفاوت مدل #تفاوت اول رگرسیون فراخوانی: plm(فرمول = Y ~ K + L + LK + LL + KK - 1، داده = پانل، مدل = fd) پانل متعادل: n=462، T =48، N = 22176 باقیمانده: حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر -1.4900 -0.0321 0.0199 0.0202 0.0715 0.9860 Coefficients : Estimate Std. خطای t-value Pr(>|t|) K 2.3847e-07 2.8965e-06 0.0823 0.9343856 L -8.0238e-07 2.3128e-07 -3.4693 0.0005Ke-206 L *** 6.7755e-03 -3.9829 6.831e-05 *** LL 5.6920e-02 2.3933e-03 23.7830 < 2.2e-16 *** KK 3.7811e-02 5.1254e-02 5.1254e-02 5.1254e-02 5.1254e-02 5.1254e-02 5.1254e-02 - Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 مجموع مجذورات: 426.54 باقیمانده جمع مربع: 269.92 R-Squared : 0.38799 Adj. R-Squared : 0.3879 سوال من این است: 1) آیا دلیلی وجود دارد که تخمین ضریب برای LK هم در داخل و هم به صورت تصادفی معنی دار نباشد؟ اما در تفاوت اول؟ 2) چرا نتایج بسیار مشابه درون و تصادفی ارائه می شود و چرا تفاوت اول با آنها متفاوت است؟ 3) آیا می توانم خطای استاندارد و مربع R را تفسیر کنم؟ آیا چیز دیگری هست که بتوانم تفسیر کنم؟ بهترین مدل از این سه کدام است؟ از کمک شما بسیار سپاسگزارم | تفسیر رگرسیون Translog |
110314 | من دو مجموعه از برچسب های نمونه متناظر با ویژگی های کم و بیش یکسان دارم. بیایید اولی را A و دومی را B بخوانیم. هر دو برچسب باینری هستند. دقت طبقه بندی برچسب A 66٪ است. دقت طبقه بندی برچسب B 58٪ است. برچسب مشترک C از برچسب های A و B با استفاده از عملیات AND محاسبه می شود، به عنوان مثال. اگر A و B هر دو True باشند، برچسب C درست است، در غیر این صورت برچسب C نادرست است. اکنون، شهود من به من می گوید که دقت طبقه بندی برای برچسب C باید بالاتر از A یا B یا حداقل برابر با B باشد. برچسب C ترکیبی از ویژگی های برچسب های A و B را دارد. اما دقت طبقه بندی آن 53 است. ٪. چه چیزی می دهد؟ آیا من به این موضوع اشتباه فکر می کنم؟ یا ممکن است یک خطا در روش باشد؟ برای بدست آوردن نسبت 50:50 از مجموعه داده در همه موارد نمونه برداری شده است. الگوریتم مورد استفاده SVM با هسته RBF از پیاده سازی SciKit است. دقت ها با استفاده از اعتبارسنجی متقاطع با تقسیم 10×80-20 به دست آمد. مقادیر ویژگی در پیش پردازش مقیاس بندی شدند. | برچسب مشترک بین دو مجموعه داده نتایج قابل توجهی بدتر ایجاد می کند |
34903 | من تازه وارد آمار هستم و این را پیدا کردم. > در آمار، θ، حرف یونانی کوچک «تتا»، نام معمولی برای > (بردار) پارامتر(های) برخی از توزیع احتمال عمومی است. یک مشکل رایج > یافتن مقدار(های) تتا است. توجه داشته باشید که هیچ معنی > در نامگذاری یک پارامتر به این شکل وجود ندارد. ما ممکن است آن را هر چیز دیگری بنامیم. در واقع، بسیاری از توزیعها دارای پارامترهایی هستند که معمولاً نامهای دیگری به آنها داده میشود. به عنوان مثال، نامگذاری میانگین و > انحراف توزیع نرمال μ (بخوانید: 'mu') و انحراف σ > ('sigma') رایج است. اما من هنوز نمی دانم که در انگلیسی ساده به چه معناست؟ | تتا به چه معناست؟ |
114671 | فرض کنید $x\in\mathbb{N}$ از توزیع ناشناخته تبعیت می کند، و من می توانم به طور متوالی و مستقل نمونه های نامحدودی از $x$ را بدست بیاورم. اکنون، با توجه به نرخ خطای $\epsilon$ و اطمینان $1-\delta$، آیا می توانم یک عدد $m$ به اندازه کافی بزرگ پیدا کنم که اگر نمونه های $m$ را ترسیم کنم، احتمال رسم نمونه فراتر از حداکثر مقدار $M$ وجود داشته باشد. مشاهده شده کمتر از $\epsilon$ با اطمینان $1-\delta$ است؟ (یعنی، اگر قبلاً یک نمونه $S_m = \\{x_1، \ldots، x_m\\}$، سپس $Pr[Pr[x_{m+1}>\text{max}\\{x_i | x_i\in S_m\\}]\geq\epsilon]\leq\delta$) | اندازه نمونه را با توجه به توزیع ناشناخته با نرخ خطا و اطمینان مشخص تعیین کنید |
114675 | من واقعاً می خواهم بفهمم ریاضی اینجا چگونه کار می کند. من سعی می کنم خطای استاندارد مقادیر برازش را برای یک مدل رگرسیون سری زمانی به دست بیاورم. در رگرسیون سری های غیرزمانی، می دانم که می توانم انتقال داده ها را در ماتریس واریانس - کوواریانس ضرایب مدل و سپس جابجا کنم. دوباره در مقادیر داده ضرب کنید تا خطاهای استاندارد مقادیر برازش شده را بدست آورید. اما من مطمئن نیستم که چگونه می توانم این کار را انجام دهم وقتی که یک اصطلاح اتورگرسیو را اضافه می کنم. require(forecast) require(tserieS) متغیر پاسخ Sablects <- rnorm(10) متغیرهای کمکی my.xreg <- cbind(rnorm(10),rbinom(10,1,0.5)) در داده های واقعی من، مقادیر عادی شده اند، بنابراین من تنظیم کردم وقفه در اینجا برابر با صفر است. m4<-arima(Sablects, order=c(2,0,0),fixed=c(0,NA,0,NA,NA),xreg=my.xreg) تابع پیش بینی خطاهای استانداردی را در من به من می دهد پیش بینی نمونه (مقادیر برازش مدل من). my.se<-predict(m4,newxreg=my.xreg,n.ahead=10)$se my.se حالا برای مقایسه خروجی my.se، میخواهم این کار را به صورت ریاضی انجام دهم اما نمیدانم چه کار کنم. برای مقادیر عبارت ar2 استفاده کنید. من از 1 به عنوان یک مکان نگهدار استفاده می کنم تا نشان دهم که خروجی من با مقادیر «my.se» بالای C <- cbind(rep(1,nrow(my.xreg)),my.xreg[,1],my برابری نمی کند. xreg[,2]) C من فکر می کنم این مقدار باید با اولین مقدار در my.se برابر باشد، اما مقدار مشابه my.se sqrt(t(C[1,]) %*% را تولید نمی کند. vcov(m4) %*% C[1,]) همچنین، من با ضرب ماتریس خیلی خوب نیستم، اما در اینجا کار من برای بدست آوردن همه مقادیر se است. se.output <- matrix(nrow=nrow(C)) مشخص کنید که حداکثر عدد i برابر با تعداد ردیف های C باشد. for(i در 1:nrow(C)){ # حلقه ضرب خود را برای هر ردیف (i) از «C» انجام دهید. برای هر تکرار، داده های جدید را در ردیف جدید se.output se.output[i] ذخیره کنید <- sqrt(t(C[i,]) %*% vcov(m4) %*% C[i,]) } se.output متشکرم | خطاهای استاندارد مقادیر برازش رگرسیون سری زمانی |
32531 | من به دنبال روشی برای تشخیص دنبالهها در دادههای گسسته تک متغیره بدون مشخص کردن طول دنباله یا ماهیت دقیق دنباله از قبل هستم (مثلاً ویکیپدیا - کاوی دنبالهای را ببینید) در اینجا دادههای مثال x <- c(round(rnorm(100) هستم. )*10)، c(1:5)، c(6،4،6)، گرد(rnorm(300)*10)، c(1:5)، round(rnorm(70)*10)، c(1:5)، round(rnorm(100)*10)، c(6،4،6)، round(rnorm(200)* 10)، c(1:5)، دور(rnorm(70)*10)، c(1:5)، c(6،4،6)، گرد(rnorm(70)*10)، c(1: 5) round(rnorm(100)*10)، c(6،4،6)، round(rnorm(200)*10)، c(1:5)، round(rnorm(70)*10)، c(1: 5)، c(6،4،6)) روش باید بتواند این واقعیت را شناسایی کند که x شامل دنباله 1،2،3،4،5 حداقل هشت بار و دنباله 6،4،6 حداقل پنج بار است. بارها (حداقل زیرا بخش عادی تصادفی به طور بالقوه می تواند همان دنباله را ایجاد کند). من بسته قوانین و arulesSequences را پیدا کردم اما نتوانستم آنها را با داده های تک متغیره کار کنم. آیا بسته های دیگری وجود دارد که در اینجا مناسب تر باشد؟ من می دانم که تنها هشت یا پنج مورد برای هر دنباله برای تولید اطلاعات آماری معنی دار کافی نیست، اما سوال من این بود که بپرسم آیا روش خوبی برای انجام این کار وجود دارد، با فرض اینکه داده ها چندین بار تکرار شوند. همچنین به بخش مهم آن توجه داشته باشید که این روش بدون اینکه از قبل بدانیم که ساختار داده دارای دنبالههای «1،2،3،4،5» و «6،4،6» است، انجام میشود. هدف این بود که آن توالیها را از «x» پیدا کنیم و مشخص کنیم کجا در دادهها رخ میدهد. هر گونه کمکی بسیار قدردانی خواهد شد! ** P.S ** این به پیشنهاد یک نظر stackoverflow در اینجا قرار داده شد... **به روز رسانی:** شاید به دلیل دشواری محاسباتی به دلیل تعداد ترکیبات، طول دنباله می تواند حداکثر مثلاً 5 باشد؟ | تشخیص توالی r برای داده کاوی توالی تک متغیره |
22462 | بیایید بگوییم که من یک مدل رگرسیون لجستیک را جمع آوری می کنم که در آن چیزی (y) را بر اساس روز هفته پیش بینی می کنم. با این حال، مدل باید برای هر روز حساب کند. بنابراین، به جای: y = B0 + B1*(روز) که در آن روز یک متغیر طبقه بندی با 7 سطح است. این خواهد بود: y = B0 + B1 * (دوشنبه) + B2 * (سه شنبه) + B3 * (چهارشنبه) + ... + B7* (یکشنبه) من اساساً فکر می کنم که هر روز به یک ضریب جداگانه نیاز دارد زیرا هر روز دارای ضریب تاثیر متفاوت بر y با این حال، من فکر میکنم که هر کدام باید یک متغیر ساختگی باشند تا برای دوشنبه، 1 برای دوشنبه، و 0 برای غیر دوشنبه، و غیره باشد. من فقط کنجکاو هستم که آیا منطق آماری برای انجام این کار به روش دوم با روزهای جداگانه وجود دارد؟ بهترین راه برای انجام این کار چیست؟ | از جمله روز هفته در مدل لاجیت |
56234 | فرض کنید یک زنجیره مارکوف وجود دارد که ماتریس انتقال آن به صورت زیر تعریف میشود. & 1 & 0 & 0 \\\ 0 & 1 & 0 & 0 \end{array} \right) $$ اکنون به من گفته شده است که کلاسهای ارتباطی زیرمجموعهای از حالتها هستند که با یکدیگر ارتباط برقرار میکنند، یعنی $P_{ij} > 0$ و $P_{ji} > 0$. در مثال بالا 1 فقط با خودش ارتباط برقرار می کند، 2 و 4 با یکدیگر ارتباط برقرار می کنند، اما **حالت 3 با هیچ حالت دیگری حتی خودش** ارتباط برقرار نمی کند. بنابراین کلاس های ارتباطی {1} و {2،4} هستند. اما آیا {3} چنین کلاسی است؟ عجیب به نظر می رسد که اینطور نباشد، اما به نظر نمی رسد با تعریفی که من دیدم مطابقت داشته باشد. احتمالاً زنجیره هنوز قابل کاهش است؟ **ویرایش:** _مشکلی که در ابتدا ردیف بالای P به یک جمع نمی شد رفع شد. | زنجیره مارکوف تقلیل پذیر با حالتی که با هیچ ارتباطی برقرار نمی کند |
104139 | من به کمک نیاز دارم تا بفهمم با چه ساختار دادهای سروکار دارم، و بنابراین از چه مدلهای تخمین و استنتاج میتوانم استفاده کنم. * واحدها و دوره های متعددی وجود دارد. * بدون شناسه واحد، بنابراین هیچ راهی برای مطابقت با مشاهدات در طول زمان برای ایجاد مجموعه داده پانل سنتی شما وجود ندارد. * بدتر از آن، احتمال زیادی وجود دارد که واحد مشابه در یک دوره زمانی مشخص مشاهده شود. * این امر مشکلات همبستگی سریالی را ایجاد می کند که اگر بتوانم مشاهدات را به واحدها پیوند دهم می توان با آنها مقابله کرد. مثال * داده های هفتگی بازدید از فروشگاه های مواد غذایی را در نظر بگیرید. برای هر بازدید، اقلام خریداری شده، کل هزینه ها و کد پستی خریدار را می بینم. * اگر افراد به یک بازدید در هفته محدود میشدند و مجموعه داده دارای شناسههای خریدار بود (در اصل برچسبها، به من امکان میداد افراد را در طول زمان ردیابی کنم)، من آن را یک مجموعه داده پنل معمولی در نظر میگرفتم. * اگر افراد به یک بازدید در هفته محدود میشدند، اما پانل هیچ شناسهای نداشت، این را به یک مقطع تکراری نزدیکتر در نظر میگرفتم. * بازدیدهای چندگانه هفتگی و شناسههای فردی با آنچه که من پنل دادههای معمولی میدانم مناسب نیستند، اما من این کار را دیدهام. سوال من این است: با بازدیدهای متعدد و بدون شناسه، با چه نوع مجموعه داده ای سروکار دارم؟ بخشی از مشکل این است که نمیدانیم چه چیزی را در ادبیات آمار/اقتصاد سنجی جستجو کنیم. من از هر گونه اشاره ای، از جمله ارجاع به مقالات تا حدی فنی، قدردانی می کنم. | داده های پانل بدون شناسه واحد |
56236 | من در حال حاضر در حال خواندن ریاضی پشت تست A/B هستم که توسط آمازون نوشته شده است و گیر کردم. در جایی می گویند: > برای تعیین فاصله اطمینان 95 درصد در هر طرف نرخ تبدیل، خطای استاندارد را با صدک 95 (یک دنباله) یک > توزیع نرمال استاندارد (مقدار ثابت برابر با 1.65) ضرب می کنیم. سپس آنها از آن ثابت برای محاسبه فاصله اطمینان استفاده می کنند: محدوده = نرخ تبدیل +- (1.65 x خطای استاندارد) جایی خواندم تا مقدار ثابت فوق الذکر را از جدول زیر دریافت کنم: http://www.sjsu.edu/faculty/gerstman /StatPrimer/t-table.pdf  مشکل این است که من نمیتوان «1.65» را در جایی برای «95٪» دید و نزدیکترین مقدار آن «1.960» است، از این رو سردرگمی من است. **کسی می تواند به من توضیح دهد که 1.65 از کجا می آید؟** | برای درک محاسبه در مورد فاصله اطمینان به کمک نیاز دارید |
110311 | آیا کسی تجربه ای در برخورد با وارد کردن داده ها در پرسشنامه دارد؟ من جدولی دارم که نشان دهنده ترجیحات افراد در لباس است. برخی از ارزشها را قبلاً دارم، اما برخی دیگر گم شدهاند و میخواهم نوعی تلقین را انجام دهم. آیا کسی مقالهای دارد که حاوی اثبات استفاده از برخی الگوریتمهای ورودی خاص برای چنین نوع دادههایی باشد؟ | وارد کردن داده ها در پرسشنامه ها |
96154 | من یک سوال کلی در مورد رسیدگی به مقادیر پرت هنگام انجام تحلیل تک متغیره و چند متغیره دارم، اما میخواهم وضعیت خاص خود را برای وضوح بحث ارائه کنم. من با داده های زیست محیطی برای تقریباً 100 درخت کاج سروکار دارم که تقریباً به طور مساوی بین 4 گروه درمانی تقسیم شده اند. تقریباً 20 ویژگی مختلف برای هر درخت اندازه گیری شد. ویژگی ها تقریباً به اندازه گیری های مورفولوژیکی (یعنی سن درخت، اندازه، وضعیت آب، اندازه برگ ... دسته ای از شاخص های سلامت) و اندازه گیری های بیوشیمیایی (غلظت مواد شیمیایی مختلف مرتبط با پاسخ های تنش درخت) تقسیم می شوند. هدف تصویر بزرگ تجزیه و تحلیل من یافتن رابطه بین داده های ریخت شناسی و داده های بیوشیمیایی است. من چندین آزمایش را برای مقادیر پرت چند متغیره انجام دادم - که با یکدیگر توافق داشتند و 5 درخت را شناسایی کردند، بنابراین آنها را از مجموعه داده حذف کردم. دو درخت دیگر به طور رسمی به عنوان پرت چند متغیره شناسایی نشدند، اما پرت تک متغیره بودند (تعریف شده به صورت |Z|>2) در >5 ویژگی (هیچ درخت دیگری >2 نبود) بنابراین من آن دو درخت را نیز از مجموعه داده حذف کردم. پس از حذف آن 7 درخت، من با چند ده نقطه داده پرت تک متغیره در سراسر داده ها پراکنده می شوم. من چندین تکنیک چند متغیره از جمله PCA و CCorA و همچنین آزمونهای ANOVA تک متغیره و post hoc (برای هر ویژگی، بر اساس چهار گروه درمانی) را انجام میدهم. برای تجزیه و تحلیل چند متغیره، آموزش من این است که نقاط داده پرت را با میانگین گروهی جایگزین کنم - به طوری که درخت بتواند به ساختار کلی داده چند متغیره (برای همه ویژگی های دیگر) کمک کند، اما نقطه پرت حذف می شود تا به طور مصنوعی حذف نشود. همبستگی آن ویژگی خاص را افزایش دهید. اگر من یک نقطه داده پرت را به این شکل مدیریت کنم، آیا باید آن را با میانگین گروهی برای تجزیه و تحلیل تک متغیره جایگزین کنم، یا باید تجزیه و تحلیل تک متغیره را روی مجموعه داده اصلی با درج مقدار پرت انجام دهم؟ همچنین برای پیشینه: من در جمعآوری این دادهها شرکت نداشتم، بنابراین معیارهای مبتنی بر تجربه برای شناسایی نقاط پرت ندارم - در برخی موارد ممکن است ابزارهای معیوب یا اندازهگیریهای بد باشد، اما همچنین کاملاً ممکن است که یک نقطه پرت واقعی اندازهگیری شده باشد ( آنها در زیست شناسی گیاهی بسیار رایج هستند - گیاهان کارهای عجیب و غریب زیادی انجام می دهند). | زمان حذف/جایگزینی نقاط پرت برای انواع مختلف تحلیل |
60134 | یکی از فرضیه های اولیه در نظریه رگرسیون لجستیک استقلال مشاهدات است. هنگامی که مدل به دادهها برازش میشود (برای مثال با استفاده از روش بیشینهسازی احتمال)، میپرسم، آیا میتوان استقلال باقیماندهها را در رگرسیون لجستیک آزمایش کرد؟ (همانطور که رویه رایج در حوزه سری زمانی است) به نظر من، فرضیه استقلال در تئوری با اهمیت است زیرا تابع احتمال مبتنی بر آن واقعیت است. متأسفانه، من نتوانستم چیزی در این مورد پیدا کنم و در تعجب بودم که چرا. | آزمون فرضیه استقلال در رگرسیون لجستیک |
57722 | با حرکت آنلاین آموزش آمار، مربیان با مشکلات جدیدی در ارتباط با مدیریت دوره های خود مواجه می شوند. به عنوان مثال، جف لیک و راجر پنگ، امسال تقریباً 100000 دانش آموز را از طریق دوره آموزشی آموزش دادند. با چنین ثبت نام گسترده، راه حل های جدید برای درجه بندی ضروری است. راجر از درجه بندی خودکار استفاده کرد و جف از سیستم بررسی همتایان استفاده کرد. یکی از چالش های رویکرد دوم، توسعه روبریک های درجه بندی (عمومی) برای تجزیه و تحلیل داده ها است. با این حال، به نظر می رسد که توافق بسیار کمی در مورد ویژگی هایی که چنین روبریکی باید شامل شود، وجود دارد. در حالی که این سوال به طرز ناامیدکنندهای مبهم است، من فکر میکنم که یک بحث اجتماعی ممکن است واقعاً برای کسانی از ما که تلاش میکنیم چنین موضوعاتی را تولید کنیم، سودمند باشد. هر گونه پیشنهاد بسیار قدردانی می شود! | روبریک برای تجزیه و تحلیل خوب داده ها |
104441 | من سعی می کنم یک فرم تحلیلی برای توصیف این توابع چگالی احتمال پیدا کنم: ! باید از ترکیب خطی توابع پایه استفاده کنم (بنابراین می توانم از رگرسیون خطی برای یافتن ضرایب هر یک از پی دی اف ها استفاده کنم) اما مطمئن نیستم از کجا شروع کنم. همچنین زمانی که با یک گاوسی درهم میآید باید نسبتاً آسان باشد تا از نظر تحلیلی ادغام شود. $$ \int_{-\infty}^\infty \mathrm{d}\mu \quad p(\mu) \frac{1}{\sqrt{2\pi}\sigma} \exp \left[-\frac {\left(\mu - x \right)^2}{2\sigma^2} \right] = f(x) $$ من فقط درگیر ایده هایی برای توابع توزیع هستم. من با بسیاری به غیر از گاوس، ماکسولی و غیره آشنا نیستم. سعی کرده ام آنها را با ترکیبی خطی از چندجمله ای های گاوسی * تطبیق دهم، اما در نهایت با نوسانات زیادی مواجه شدم و برای دم دست راست مناسب نبودم. -سمت آیا کسی اینجاست که به نمودارها نگاه کند و فرم خوبی برای تابع توزیع بداند؟! پیشاپیش متشکرم | یافتن فرم تحلیلی برای توزیع ها با استفاده از رگرسیون خطی نیاز به ایده دارد |
26372 | من به دنبال یک کتاب مقدماتی هستم که به من کمک کند مهارت هایی در کار با توزیع های چند متغیره ایجاد کنم. به عنوان مثال، من میخواهم بتوانم با نرمال چند متغیره به راحتی کار کنم، چیزی بین یک دوره مقدماتی آمار که در مورد توزیع صحبت میکند و یک دوره رباتیک جدی که در مورد فیلتر کالمن صحبت میکند. | کتاب مقدماتی آمار چند متغیره |
106356 | من تفسیر ضریب همبستگی رتبه اسپیرمن را برای یک مجموعه داده دو بعدی محاسبه کردم. سپس با انجام یک آزمایش جایگشت اهمیت آن را آزمایش کردم و یک مقدار p به دست آوردم. من با تفسیر مقدار ضریب مشکل دارم. در حالی که من درک می کنم که ضریب رتبه اسپیرمن. مقدار نباید اشتباه شود / به عنوان اطلاعاتی در مورد اهمیت آن تفسیر شود، من هنوز تفسیر ساده ای برای مقدار ضریب ندارم. آزمون معناداری اساساً به ما نشان می دهد که در صورت رعایت فرضیه صفر، چقدر احتمال دارد که ضریب بزرگتر از ضریب مشاهده شده باشد، اما چیزی در مورد مقدار مشاهده شده که به عنوان نقطه شروع استفاده می شود، نمی گوید. آیا برای مثال مقدار 0.60 به این معنی است که 60٪ جفت های رتبه بندی شده بیشتری در مجموعه داده های من به دنبال یک تابع گسسته هلالی یکنواخت وجود دارد. | تفسیر ضریب همبستگی رتبه اسپیرمن - فراتر از اهمیت آن |
52003 | من سعی می کنم حجم نمونه مورد نیاز را با G*Power برای مطالعه پایان نامه خود محاسبه کنم. من یک MANOVA اقدامات مکرر را در درون/بین تعامل انجام خواهم داد. سوال من در فیلد تعداد اندازه گیری ها است، آیا این به سادگی تعداد DV ها است (من 3 عدد خواهم داشت) یا این را با تعداد دفعاتی که داده ها را در DV ها جمع آوری خواهم کرد (با 2 گروه در 2 بار) تکثیر کنم. کدام 12 خواهد بود)؟ | فیلد ورودی «تعداد اندازهگیریها» MANOVA اندازهگیریهای توان تکراری |
114676 | من یک سوال بسیار مشابه را در انجمن لاتکس اینجا پرسیده ام، اما برای پرداختن به بخشی از سوالم که در آن میپرسم آیا راه بهتری برای تجسم دادههای من وجود دارد یا خیر، میخواستم آن را در اینجا پست کنم. همانطور که می توانم کمی فنی تر به دست بیاورم: می توانم تعداد خوشه ها را انتخاب کنم، اما فکر می کنم از 20 بیشتر نخواهد شد. نگاشت ها یک بردار 100 بعدی برای هر کلمه ایجاد می کنند و خوشه ها از آنها با k-means تولید می شوند. فقط برای تکرار، مشکل برای من در روشی است که می توان داده های مهاجرتی را که در یک خوشه برای نگاشت اول و در خوشه دیگر در خوشه دوم قرار می گیرند، به روشی واضح و دقیق نشان داد. | تجسم مهاجرت خوشه |
57729 | آیا راهی برای ارتباط خطا در یک برازش (MSD - جابجایی میانگین مربعات) با خطای محاسبه انجام شده با پارامترهای مرتبط با تناسب وجود دارد؟ مشکل خاص من سر و کار داشتن با داده های طیف سنجی است. من می دانم که بسیاری از افراد از تکنیک های طیف سنجی برای تخمین غلظت مواد مختلف استفاده می کنند، اما من می خواهم بدانم که این اندازه گیری ها چقدر می توانند دقیق باشند (یعنی می خواهم خروجی چیزی مانند گونه A $20\% \pm 1\% است دریافت کنم. $ از نمونه داده شده). علاوه بر این، من می خواهم بدانم چگونه با موارد بسیار شدید، که در آن چندین نوع مختلف مواد وجود دارند، و ممکن است موارد قابل مشاهده ای داشته باشند که مستقیماً روی یکدیگر قرار می گیرند، برخورد کنم. یک مثال ساده ممکن است موارد زیر باشد:  می توانید ببینید که دو گونه برای داده ها مناسب هستند. اگر نواحی سپس با محاسبه به درصد تبدیل شوند، (یعنی نمونه گرفته شده 48٪ B، 52٪ A است) چگونه می توانیم از این مطمئن شویم و چقدر دقیق است؟ من می دانم که این بستگی به دقت تخمین موقعیت های این پیک ها دارد که (شاید) توسط کاربر ارائه می شود، بنابراین من به روشی علاقه مند هستم که یک خطای شناخته شده در پارامترها دریافت کند (مثلا $\pm 15$ در محور x برای خطا در موقعیت مرکز اوج، +-10 خطا در عرض پیک و غیره). من گمان میکنم که خطاها با همپوشانی قابل مشاهدهها بزرگ میشوند (یعنی مراکز اوج برای دو تابع برازش یکسان هستند). علاوه بر این، ممکن است این طیفها دارای پسزمینه بزرگی باشند، که ممکن است خطا نیز داشته باشد و روی همه گونههای دیگر و خطاهای آنها تأثیر بگذارد. من مطمئن نیستم که آیا این پسزمینه به گونهای متفاوت از سایر گونهها رفتار میشود یا میتوان با الگوریتمی مشابه با سایر گونهها برخورد کرد. برای توضیح بیشتر نظر من، در اینجا تصویری از اندازه گیری طیف سنجی چندین ماده مختلف وجود دارد: ![\[image\]\(http://imgur.com/3mO80Bj\)](http://i.stack.imgur .com/4fb8M.jpg) در بالا به رنگ قرمز داده های خام داده شده توسط جذب نوری (داده های اندازه گیری شده)، در حالی که سیاه یک پس زمینه محاسبه شده است، و آبی یک مجموع محاسبه شده همه گونه ها از جمله پس زمینه. در پایین، پسزمینه محاسبهشده کم میشود (خطوط آبی و قرمز اکنون شامل پسزمینه محاسبهشده نمیشوند)، در حالی که چندین خط رنگی مختلف زیر، هر گونه مجزا برای ایجاد خط آبی خلاصه میشود. اینها اندازه گیری های محاسبه شده ای هستند که من علاقه مند به تخمین خطا در آنها هستم. همانطور که می بینید، خطا در این مثال برای اکثر اندازه گیری های محاسبه شده بسیار بزرگ است. هر گونه ممکن است چندین قله مرتبط با خود داشته باشد یا نداشته باشد، که می تواند با خط محاسبه شده زرد پررنگ نشان داده شود. علاوه بر این، میتوانید ببینید که چندین مرکز پیک محاسبهشده در اطراف یک مکان قرار میگیرند، بنابراین این احتمالاً اطمینان از درست بودن اندازهگیریها را کاهش میدهد، حتی اگر خط محاسبهشده مستقیماً روی دادههای خام بیفتد. من میانگین جابجایی مجذور را به عنوان تخمینی سریع از میزان خوب بودن تناسب محاسبه کردهام، اما میدانم که این هیچ کاری برای رفع نگرانیهای بزرگتر از عدم قطعیت اندازهگیری محاسبهشده واقعی انجام نمیدهد. بیشترین کاری که من واقعاً در آمار انجام دادهام انحراف معیار و محاسبات مربوط به چندین اندازهگیری است، اما این کاملاً متفاوت است، زیرا به این میپردازد که چقدر میتوانید تنها با یک اندازهگیری مطمئن باشید و تفاوتهایی را در چندین اندازهگیری مشاهده نکنید. آیا این مشکل با استفاده از فواصل اطمینان و سطوح اطمینان حل می شود؟ (باز هم می گویم که من با آمار بسیار تازه کار هستم و هرگز در مورد آن دوره گذرانده ام، بنابراین اگر این موضوع ابتدایی یا پیش پا افتاده است عذرخواهی می کنم) | خطا در تخمین با داده های پیوسته |
51061 | نمودار احتمال عادی به عنوان نموداری از جفت $n$ تعریف می شود: ($[100(i-0.5)/n]$ th $z$ صدک، $i$مین مشاهده). از نظر تئوری، نقاط باید نزدیک به یک خط مستقیم با شیب $\sigma$ قرار گیرند و $\mu$، جمعیت sd و میانگین متغیر تصادفی مشاهده شده را قطع کنند. **اما همانطور که در نتایج شبیهسازی با R نشان داده شده است، وقفه همیشه کمتر از $\mu$ به نظر میرسد، چرا؟** در اینجا کد R است که من استفاده کردم: simu = function(n) { y = sort(rnorm(n, 40, 0.1)) yperc = ((1:n)-.5)/n x = qnorm(yperc) plot(x,y) } simu(10000) و نموداری که دریافت می کنم:  _**همچنین، نقاط وسط همیشه متراکم تر از نقاط دو طرف به نظر می رسند، چرا؟_** * * * پیوند @whuber در نظرات بسیار مفید است. من فقط چند یادداشت را در اینجا برای مراجعات بعدی می نویسم. با اعمال یک تابع درصد خطی بر روی دستورات، و تحت محدودیت تقارن، $f(i) = ai + b$، $f(n+1-i) = a(n+1-i) + b$ داریم. ، همچنین $f(n+1-i) + f(i) = 1$، با ترکیب اینها، $a(n+1) + 2b = 1$ بدست می آوریم، به $a$ مقدار دلخواه از $1/n$، سپس $b$ باید برابر با $-0.5/n$ باشد. | آیا نمودار احتمال عادی بطور سیستماتیک میانگین را دست کم می گیرد؟ |
102843 | من یک تحقیق پزشکی دارم که در آن دو مجموعه داده دارم 1) گروه کنترل [افرادی که هیچ بیماری ندارند] 2) گروه مطالعه [افرادی که بیماری خاصی دارند] در هر دسته زیرگروه هایی مانند سن، جنسیت، محدوده فشار خون وجود دارد. ، محدوده کلسترول... اکنون من تعداد کمی از مشاهدات (حدود 50) را هم برای گروه کنترل و هم برای گروه مطالعه دریافت کردم. من پارامترهای مختلفی مانند فشار خون، سطح کلسترول و غیره را مشاهده میکنم. میخواهم اهمیت آماری این پارامترها (فشار خون / کلسترول) را در گروه مورد مطالعه ثابت کنم. بهترین راه برای انجام آن چیست. آیا باید از توزیع T استفاده کنم یا توزیع نرمال؟ همچنین هنگام محاسبه p-value، آیا باید هر زیر گروه در گروه مطالعه (بر اساس محدوده) را با زیر گروه مربوطه در گروه کنترل مقایسه کنم یا مقدار p را به عنوان یک کل برای مطالعه در مقابل گروه کنترل محاسبه کنم؟ | از کدام آمار استفاده کنیم؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.