_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
89188
من یک مدل پروبیت ایجاد کردم و آن را با یک نمونه فرعی تصادفی از مجموعه داده‌ام آزمایش کردم. من به طور خاص علاقه مندم که ببینم چند نقطه داده را می توانم پیش بینی کنم که FALSE هستند بدون اینکه تعداد زیادی از آنها در واقع درست باشد. با استفاده از آستانه 0.1 (به زیر مراجعه کنید)، توانستم FALSE را در حدود 30٪ با نرخ منفی کاذب 2.5٪ پیش بینی کنم. با این حال، من نمی دانم که آیا این بهینه است یا خیر. آیا راهی وجود دارد که بتوانم آستانه خود را انتخاب کنم که پیش بینی های FALSE را به حداکثر برساند و در عین حال منفی های کاذب را به حداقل برساند؟ glm.fit=glm(نتیجه~A+B+C+D+E+F+G,data=myData,family=binomial(link=probit)) test=mysample <- myData[sample(1:nrow( myData),10000,replace=FALSE)،] glm.probs =predict(glm.fit,test, type=response) glm.pred=rep(0,10000) glm.pred[glm.probs>.1]=1 x <- sum(glm.pred == 0 & test$Outcome == 1) y <- sum(glm.pred == 0)
بهینه سازی نرخ منفی کاذب پس از رگرسیون لجستیک
80534
این یک نمودار از داده های من است![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/OaPQx.png) این مقادیر هستند: xvalues ​​yvalues ​​1 1.091186 2 2.653722 3 3.309146 4 5.2065410755 7 10.013147 8 9.802291 9 10.667769 10 5.809750 11 9.624475 12 11.806013 13 13.587066 14 14.147757 14 14.144475 12.891355 17 19.435301 18 16.122108 19 17.768536 20 23.813027 21 21.819081 22 23.556074 23 21.768536 23 21.813027 22.932580 26 20.704689 27 25.530339 28 26.227371 29 26.051016 30 31.047145 من اکنون یک PCA و یک biplot آن را انجام می دهم![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/IqWXm.png) به گفته جرومی آنگلیم در: تفسیر دو پلات در تجزیه و تحلیل مولفه های اصلی در R _محورهای چپ و پایین بارگذاری ها را نشان می دهند. محورهای بالا و سمت راست نمرات مؤلفه اصلی را نشان می‌دهند. بیایید با بارگیری‌ها شروع کنیم: اینها را می‌توان در R با نوشتن تجسم کرد: نتایج <- prcomp(your_data) results$rotation PC1 PC2 xvalues ​​0.7235616 -0.6902599 yvalues ​​0.6902599 0.7235616 خلاصه (نتایج22 مؤلفه‌های PC1) 1.56606 نسبت واریانس 0.9835 0.01654 نسبت تجمعی 0.9835 1.00000 حالا اجازه دهید به فلش قرمز رنگ xvalues ​​نگاه کنیم. نوک آن در محور x بارگذاری ها حدود 0.25 است. ولی با توجه به لودینگ هایی که الان نوشتم باید حدود 0.72 باشه. چه چیزی را از دست داده ام؟ در نهایت، اجازه دهید به نقطه 1 نگاه کنیم. با توجه به محورها، این نمره مؤلفه اصلی را به من می گوید. آیا این مختصات در چارچوب مرجع جدید است؟ برای من منطقی نیست زیرا فکر می‌کنم مبدأ جدید محورها حول نقطه (15،15) در طرح 3 است. اگر به آن نگاه کنم (و حدس می‌زنم که در اینجا کاملاً در اشتباه هستم)، نقطه یک باید مختصاتی در حدود -20 یا بیشتر داشته باشد و نه 40. اشتباه من کجاست؟ **به روز رسانی** من سعی کردم این را ترسیم کنم: plot(pca_results$x) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/eyNwX.png) در اینجا می توان دید که نقطه اول مختصاتی که فکر می کردم باید داشته باشد. اما، هنوز، واحدهای در بای پلات چه هستند؟
واحدهای این بای پلات چیست؟
47185
من تحت تأثیر بسته «پیش‌بینی» R و همچنین به عنوان مثال هستم. بسته zoo برای سری های زمانی نامنظم و درونیابی مقادیر از دست رفته. برنامه من در زمینه پیش بینی ترافیک مرکز تماس است، بنابراین داده ها در تعطیلات آخر هفته (تقریبا) همیشه وجود ندارد، که می تواند به خوبی توسط zoo مدیریت شود. همچنین، برخی از نقاط گسسته ممکن است از دست رفته باشند، من فقط از «NA» R برای آن استفاده می کنم. مسئله این است: همه جادوی خوب بسته پیش‌بینی، مانند «eta()»، «auto.arima()» و غیره، به نظر می‌رسد که انتظار اشیاء ساده «ts» را داشته باشند، یعنی سری‌های زمانی equispaced که حاوی داده‌های گمشده نیستند. من فکر می‌کنم که برنامه‌های دنیای واقعی برای سری‌های زمانی فقط با فضای equispaced قطعاً وجود دارند، اما - به نظر من - محدود هستند. مشکل چند مقدار گسسته NA را می توان به راحتی با استفاده از هر یک از توابع درون یابی ارائه شده در zoo و همچنین با forecast::interp حل کرد. بعد از آن، پیش بینی را اجرا می کنم. سوالات من: 1. آیا کسی راه حل بهتری را پیشنهاد می کند؟ 2. **(سوال اصلی من)** حداقل در حوزه برنامه من، پیش بینی ترافیک مرکز تماس (و تا آنجا که می توانم بیشتر حوزه های مشکل دیگر را تصور کنم)، سری های زمانی با هم فاصله ندارند. حداقل ما طرح تکراری روزهای کاری یا چیزی مشابه داریم. بهترین راه برای مدیریت آن و همچنان استفاده از همه جادوی جالب بسته پیش بینی چیست؟ آیا باید سری های زمانی را فشرده کنم تا آخر هفته ها پر شود، پیش بینی را انجام دهم و سپس دوباره داده ها را بالا کنم تا مقادیر NA را در آخر هفته ها دوباره وارد کنم؟ (به نظر من این شرم آور است؟) آیا برنامه ای برای سازگاری کامل بسته پیش بینی با بسته های سری زمانی نامنظم مانند باغ وحش یا آن وجود دارد؟ اگر بله، چه زمانی و اگر نه، چرا که نه؟ من در زمینه پیش بینی (و به طور کلی آمار) کاملاً تازه کار هستم، بنابراین ممکن است چیز مهمی را نادیده بگیرم.
استفاده از بسته پیش بینی R با مقادیر گمشده و/یا سری های زمانی نامنظم
87550
در یک مدل coxph با 2 متغیر (مثلا سن و جنس)، چگونه می توانم مقادیر p را برای تست های LR، Wald و امتیازی که در خلاصه (coxphobject) در زیر می بینم، بدست بیاورم؟ تطابق = 0.653 (se = 0.058) Rsquare = 0.085 (حداکثر ممکن = 0.924) آزمون نسبت درستنمایی = 30.09 در 12 df، p=0.002708 آزمون والد = 34.73 در 12 آزمون Slog0.9 = df 00 34 در 12 df، p=0.0006736، قوی = 17.61 p=0.1279 من فکر می کنم آن مقادیری که در خلاصه به صورت p=... برای هر مدل نشان داده شده اند، مقادیر p برای مدل کامل هستند، اما نمی توانم بفهمم چگونه برای بازیابی آنها اگر فقط یک متغیر وجود داشته باشد، فرض کنید سن، آنگاه می‌توانم مقدار p را با استفاده از `summary(coxphobject)$coefficients[5]` بازیابی کنم، که همان چیزی است که برای تست Wald در `summary( می‌بینم. coxphobject)`. اما هنگامی که دو متغیر (سن و جنس) وجود دارد، summary(coxphobject)$coefficients[1,5] و summary(coxphobject)$coefficients[2،5] مقادیر p را برای سن و جنس به طور جداگانه ارائه می‌دهند. اما هر دوی آنها با مقادیر p که من برای مدل کامل در «خلاصه (coxphobject)» برای تست‌های LR، Wald و امتیاز می‌بینم، متفاوت هستند. من قدردان هر کمکی هستم. با تشکر
چگونه p-value را برای مدل کامل از R's coxph بدست آوریم؟
15268
من علاقه مندم که جملاتی از این دست دقیقاً به چه معنا هستند: > در مورد اول، شرکت کنندگان به درستی شهر بزرگتر را در 55 درصد > جفت ها، در دومی در 54 درصد از جفت ها، هر دو به طور قابل توجهی > متفاوت از شانس انتخاب کردند. آیا اساساً فقط تفاوت قابل توجهی با 50٪ است؟ به روز رسانی: یک مورد دیگر: اما اکنون یک مورد دیگر را پیدا کردم: در یک پیش آزمون، یک برند به عنوان کیفیت بالاتر رتبه بندی شده بود، و شرکت کنندگان می توانستند محصول با کیفیت بالاتر را 59 درصد از مواقع در یک آزمایش کور (به میزان قابل توجهی بالاتر) شناسایی کنند. از شانس، که 33 درصد بود). من هنوز متوجه نشدم 33 چگونه تعیین می شود؟ چگونه 33 می گیرند؟
بیشتر از شانس یعنی چه؟
39203
آنچه من سعی می کنم انجام دهم تجزیه و تحلیل نتایج آزمایشی است که انجام داده ام. یک مجموعه نمونه از نتایج مورد A B C D 1 2 3 1 8 2 11 11 14 5 3 2 3 4 3 4 12 7 8 7 5 6 6 9 4 A، B، C و D شرکت کنندگان متفاوتی هستند. من می خواهم تشخیص دهم که کدام شرکت کننده در نتایج خود در مقایسه با سایرین تفاوت بیشتری دارد.
تجزیه و تحلیل نتایج شرکت کنندگان برای دیدن اینکه چه کسی متفاوت تر است
39208
من یک الگوریتم ساده برای شناسایی محصولات مشابه بر اساس ویژگی های محصول دارم. هنگامی که آن ویژگی ها اندازه، وزن و قیمت (یعنی متغیرهای پیوسته) هستند، یک استراتژی حداقل مربعات ساده موثر است. برای یک محصول معین، محصولاتی را با کمترین مجموع مجذور تفاوت در ویژگی های محصول به عنوان مشابه انتخاب کنید. مسئله من اکنون این است که می خواهم ویژگی هایی را در نظر بگیرم که فقط می توانند به عنوان متغیرهای ساختگی نمایش داده شوند. یک مثال ممکن است یک تلویزیون پلاسما است. چیزی که من اکنون دارم یک متغیر ساختگی است که به درستی نامگذاری شده است، زیرا به نظر می رسد آنقدر متراکم است که نمی توانم بفهمم چگونه آن را در الگوریتم ادغام کنم. می‌دانم که رویکرد مبتنی بر نمودار یا نزدیک‌ترین همسایه یک تناسب طبیعی است، اما ترجیح می‌دهم همه چیز را ساده نگه دارم: LSE را می‌توان به راحتی با مقداری php انجام داد، نزدیک‌ترین همسایه به این معنی است که من باید R یا چیزی شبیه به آن را وارد کنم. آیا چیزی که من می پرسم امکان پذیر است؟
معرفی متغیرهای ساختگی به برآورد حداقل مربعات
15262
من یک محاسبات بسیار طولانی را در WinBUGS (میلیون تکرار) با استفاده از بسته R2WinBUGS از داخل R اجرا کردم: bugs.object <- bugs(...) اما R از کار افتاد. **چگونه می توانم bugs.object را دوباره بدون اجرای مجدد winbugs در R بارگذاری کنم؟** این را امتحان کردم (3 زنجیره دارم): out <- read.bugs(paste(coda, 1:3, .txt. , sep = )) اما ساختار داده out کاملاً با شی اشکال متفاوت است (همانطور که هست غیرقابل استفاده است). من سعی کردم آن را با «as.bugs.array» تبدیل کنم: bugs.object <- as.bugs.array(out, model.file = ttest.txt, n.iter = 1000000, n.burnin = 300000, n .thin = 2، program = WinBUGS) اما کار نمی کند.
چگونه می توان نتایج محاسبات WinBUGS را دوباره در شی باگ بارگذاری کرد؟
64654
من این سوال را پرسیدم و فکر کردم با انجام مراحل کتاب درسی راه حلی برای آن پیدا کردم. متأسفانه نظرات به من می گفت که من کاملاً در اشتباه بودم و فقط به طور تصادفی مدرک کار را به دست آوردم ، بنابراین اکنون واقعاً گم شده و ناامید هستم. برای رفع نشانه گذاری، مدل $$ y_i = \beta_0 + \beta_1 x_i + u_i، $$ که در آن $u_i$ عبارت خطا است. قبلاً نشان دادم که $\hat{\beta}_1 = \beta_1 + \sum_{i=1}^n w_i u_i$، که در آن $w_i = \frac{x_i - \bar{x}}{SST_x}$، و $SST_x = \sum_{i=1}^n (x_i - \bar{x})^2$. این کاری است که من تاکنون انجام داده‌ام: \begin{align} E[(\hat{\beta_1}-\beta_1) \bar{u}] &= E[\bar{u}\displaystyle\sum\limits_{i= 1}^n w_i u_i] \\\ &=\displaystyle\sum\limits_{i=1}^n E[w_i \bar{u} u_i] \\\ &=\displaystyle\sum\limits_{i=1}^n w_i E[\bar{u} u_i] \\\ &= \displaystyle\sum\limits_{i=1}^n w_i \left(Cov(\ نوار{u}، u_i) + E(\bar{u})E(u_i)\راست) \\\ &= \displaystyle\sum\limits_{i=1}^n w_i Cov(\bar{u}، u_i) \\\ &= \displaystyle\sum\limits_{i=1}^n w_i Cov\left(\frac{1}{n} \displaystyle\sum\limits_{i =1}^n u_i، u_i\right) \\\ &= \frac{1}{n}\displaystyle\sum\limits_{i=1}^n w_i Cov\left(\displaystyle\sum\limits_{i=1}^n u_i، u_i\right) \\\ &= \frac{1}{n}\displaystyle\sum\limits_{i=1}^n w_i E\left(\left[u_i - E(u_i)\right]\left[ \displaystyle\sum\limits_{i=1}^n u_i - E\left(\displaystyle\sum\limits_{i=1}^n u_i\right)\right]\right) \\\ &= \frac{1}{n}\displaystyle\sum\limits_{i=1 }^n w_i E\left(\left[u_i - E(u_i)\right]\left[ \displaystyle\sum\limits_{i=1}^n u_i - \displaystyle\sum\limits_{i=1}^n E\left(u_i\right)\right]\right) \\\ &= \frac{1}{n}\displaystyle\sum\limits_{i=1 }^n w_i E\left(\left[u_i - 0\right]\left[ \displaystyle\sum\limits_{i=1}^n u_i - 0\right]\right) \\\ &= \frac{1}{n}\displaystyle\sum\limits_{i=1}^n w_i E\left(u_i\displaystyle\sum\limits_{i=1} ^n u_i\right) \\\ &= \frac{1}{n}\displaystyle\sum\limits_{i=1}^n w_i \left[E\left(u_i u_1 +\cdots + u_i u_n \right)\right] \\\ &= \frac{1}{n}\displaystyle\sum\limits_{i=1}^n w_i \left [E\left(u_i u_1\right) +\cdots + E\left(u_i u_n \right)\right] \\\ \end{align} در در این نکته، می‌خواهم بگویم که چون فرض می‌کنیم خطاهای هر مشاهده عبارتند از i.i.d: \begin{align} &= \frac{1}{n}\displaystyle\sum\limits_{i=1}^n w_i \left [E(u_i) E(u_1) +\cdots + E(u_i) E(u_n)\right] \\\ \end{align} اما اگر این از آنجایی که $E(u_i) = 0، \forall i$، همه چیز فقط لغو می شود و من نیازی به استفاده از تعریف $w_i$ ندارم، که یکی از نظرات ذکر شده دفعه قبل باید استفاده می کردم. این در فصل 2 کتاب من است و کتاب می گوید که معلوم است که ... پس شاید بدیهی باشد. من مدام راهنمایی می‌پرسم اما احساس می‌کنم آنها را نمی‌فهمم، اما می‌خواهم به تلاش ادامه دهم. آیا این درست است؟ اگر نه، آیا کسی در مورد این بخش از مشکل، با فرض اینکه من در مسیر درست هستم، اشاره ای دارد؟ احتمالاً می‌توانم مراحل را کم‌تر پرمعنا کنم، اما می‌خواهم ابتدا مطمئن شوم که درست است. آخرین باری که این کار را انجام دادم، به نتیجه درستی رسیدم، اما اثبات تماماً اشتباه بود، بنابراین فرض می‌کنم که دوباره آن را به طور تصادفی درست کرده‌ام.
چگونه نشان دهم که $(\hat{\beta_1}-\beta_1)$ و $ \bar{u}$ همبستگی ندارند، یعنی $E[(\hat{\beta_1}-\beta_1) \bar{u} ] = 0 دلار؟
39206
من دو مجموعه داده با ارزش پیچیده دارم، **A** و **B** که می توانند به عنوان بردارهایی با تعداد عناصر یکسان در نظر گرفته شوند. مجموعه داده ها با استفاده از ضرب نقطه به نقطه مختلط با هم ضرب می شوند، به طوری که اولین عنصر **A** در اولین عنصر **B** ضرب می شود، عنصر دوم **A** در ضرب می شود. عنصر دوم **B** و غیره. ضرب مشابه عملگر نقطه Matlab، 'C = A.*B' است. مجموعه داده حاصل **C** است. **A** یک هسته فیلتر در حوزه فرکانس است که اثرات یک رسانه را بر روی سیگنال **B** مدل می کند. **B** بازتاب سیگنال از رسانه است. من می خواهم **B** را به عنوان نویز در نظر بگیرم. ضرب نقطه به نقطه **A** در **B** در حوزه فرکانس معادل یک پیچیدگی در حوزه زمان است. فرض کنید **A** یا **B** را نمی دانم، اما با استفاده از یک الگوریتم آماری می خواهم **B** را از **C** حذف کنم تا **A** را بدست بیاورم. **C** سیگنالی است که با آزمایش ثبت می شود و بنابراین **A** و **B** ناشناخته هستند. با این حال، می توانم ویژگی های آماری **A** و **B** را فرض کنم. این مشکل باعث سردرد من شده است زیرا معمولاً در ادبیات، **B** به عنوان سیگنال مورد نظر برای استخراج در نظر گرفته می شود و **A** به عنوان نویز ناخواسته حذف می شود. من می خواهم این کار را برعکس انجام دهم. این دلیلی است که من سعی کرده ام (شاید بیهوده) مشکل را به گونه ای دیگر بازنویسی کنم و همچنین به همین دلیل است که به تجزیه و تحلیل آماری روی آورده ام. من به راهنمایی در مورد نوع روش عددی برای استفاده نیاز دارم، و شاید یک مرجع خوب با چند نمونه مثال. من گمان می کنم که نوعی از الگوریتم پیش بینی خطی مورد استفاده در آمار عددی ممکن است در اینجا مفید باشد. * * * در اینجا اطلاعات دقیق تری وجود دارد که ممکن است مناسب باشد. با توجه به تنها **C**، اما نه **A** و **B**، می‌خواهم **A** و **B** را با استفاده از یک روش آماری تقریبی کنم. من به دنبال الگوریتم یا روشی هستم که به طور معقولی شناخته شده و مستند باشد (به عنوان مثال یک آموزش، کتاب یا مقاله در دسترس است و روش به خوبی کار می کند.) در اینجا چیزی است که در مورد مجموعه داده ها می دانم. من مطمئن هستم که این اظهارات را می توان به شکل دقیق تری نوشت. 1. مجموعه داده های **A** و **B** همبستگی ندارند. 2. **A** و **B** ثابت نیستند. 3. **A** دارای تنوع کمتری نسبت به **B** است. 4. هر دو قسمت واقعی و خیالی **A** منحنی های صاف هستند که در آن سرعت تغییر تدریجی است 5. بخش واقعی و خیالی. از **B** منحنی های مسیخ دار هستند و سرعت تغییر سریعتر از **A** است. کج شده ضرب **A** در **B** هیستوگرام **C** را منحرف می کند. آیا می توان هیستوگرام **C** را به نحوی از هم جدا کرد؟ 7. **A** نشان دهنده هسته تضعیف دامنه فرکانس یک سیگنال است، بنابراین نیاز به متغیرهای پیچیده است. 8. **B** نشان دهنده سیگنال در حوزه فرکانس است. سیگنال **B** توسط **A** اصلاح می شود. سیگنال **B** بازتابی از شکل موجی است که از یک محیط تضعیف کننده عبور داده شده است. 9. **A** اثرات محیط را بر روی شکل موج مدل می کند. 10. علیرغم اینکه **A** و **B** در حوزه فرکانس هستند، آنها چیزی جز مجموعه داده های اعداد مختلط نیستند. متناوباً، می‌توان مسئله را طوری فرمول‌بندی کرد که **A** دارای عناصری باشد که فقط از مقادیر واقعی تشکیل شده‌اند و **B** دارای مقادیر پیچیده و دارای بخش‌های واقعی و خیالی است. بنابراین، بخش خیالی **A** برای همه عناصر در مجموعه داده صفر است. همان عبارات بالا برای **A** و **B** صادق است. آیا این مشکل را آسان تر می کند؟ من نمی دانم که آیا روش های PCA یا تبدیل فوریه برای این مشکل مفید هستند؟ من مطمئن نیستم که کدام دسته از روش های آماری برای این نوع مسائل مفید باشد.
جداسازی دو مجموعه داده با ارزش پیچیده که با هم ضرب شده اند
35955
من به این مقاله مراجعه می کنم: Hayes JR, Groner JI. _استفاده از امتیازهای انتساب و تمایل متعدد برای آزمایش تاثیر صندلی ماشین و استفاده از کمربند ایمنی بر شدت آسیب ناشی از داده های ثبت تروما._ J Pediatr Surg. مه 2008؛ 43 (5): 924-7. در این مطالعه، انتساب چندگانه برای به دست آوردن 15 مجموعه داده کامل انجام شد. سپس امتیازات تمایل برای هر مجموعه داده محاسبه شد. سپس، برای هر واحد مشاهده ای، یک رکورد به طور تصادفی از یکی از 15 مجموعه داده تکمیل شده (شامل امتیاز تمایل مربوطه) انتخاب شد و بدین ترتیب یک مجموعه داده نهایی ایجاد شد که سپس با تطبیق امتیاز تمایل تجزیه و تحلیل شد. سؤالات من این است: آیا این روش معتبر برای انجام تطبیق امتیاز تمایل به دنبال انتساب چندگانه است؟ آیا راه های جایگزینی برای انجام آن وجود دارد؟ برای زمینه: در پروژه جدیدم، هدف من مقایسه اثرات 2 روش درمانی با استفاده از تطبیق امتیاز تمایل است. داده‌های گمشده‌ای وجود دارد و من قصد دارم از بسته «MICE» در R برای منتسب کردن مقادیر گم‌شده، سپس «twang» برای انجام تطابق امتیاز تمایل و سپس «lme4» برای تجزیه و تحلیل داده‌های منطبق استفاده کنم. **به روز رسانی1:** من این مقاله را پیدا کردم که رویکرد متفاوتی دارد: میترا، رابین و رایتر، جروم پی. امتیازات تمایل را بر روی همه مجموعه داده های منتسب محاسبه کنید و سپس آنها را با میانگین گیری جمع آوری کنید، که در روحیه انتساب چندگانه با استفاده از قانون روبین برای تخمین امتیاز است - اما آیا واقعاً برای امتیاز گرایش قابل اجرا است؟ واقعاً خوب خواهد بود اگر کسی در رزومه بتواند پاسخی را با نظر در مورد این 2 رویکرد مختلف و/یا هر روش دیگر ارائه دهد.
تطبیق امتیاز تمایل پس از انتساب چندگانه
66511
من می دانم که ترتیب تصادفی به این معنی است که مفهوم یک متغیر بزرگتر از متغیر دیگر است. اما من می خواهم مثالی برای تجسم/درک بهتر آن داشته باشم.
نمونه ای از ترتیب تصادفی
89524
اگر $X_1,X_2...X_N$ متغیرهای پواسون مستقل با پارامترهای $\lambda_1,\lambda_2...\lambda_3$ باشند، پس با توجه به $\sum_iX_i=N$، داریم که $X_i \sim \mathrm{Binom} (N,\frac{\lambda_i}{\sum_j\lambda_j})$ (مستقیماً از ویکی‌پدیا!) من به دنبال اثباتی برای این هستم -- من واقعاً آمار مربوطه را مطالعه نکرده ام تا بدانم چگونه به این مشکل حمله کنم. هر کمکی عالی خواهد بود. به سلامتی
متغیر تصادفی پواسون مشروط به مجموع
62689
آیا اصطلاحی وجود دارد که داده ای را نشان دهد که خارج از CL/SL برای کنترل فرآیند آماری است؟ به نظر می رسد که بیشتر آن را به سادگی داده های خارج از محدوده CL/SL می نامند، اما من می خواهم بدانم که آیا اصطلاح خاصی برای آن وجود دارد یا خیر.
آیا اصطلاحی برای نشان دادن داده های خارج از محدوده کنترل/مشخصات وجود دارد؟
109955
من شروع به بررسی مجموعه داده های فرکانس بالا کرده ام. من تا به حال فقط با داده های با فاصله منظم سروکار داشته ام، بنابراین نمی دانم بهترین عمل چیست. اگر من دو سری زمانی X و Y داشته باشم که Y متغیر وابسته است، اگر هر دو سری زمانی نامنظم باشند تنها راه رگرسیون Y در برابر X برای انجام نوعی درونیابی در هر دو سری است؟ یا راهی وجود دارد که زمان بین نقاط داده را مساوی در نظر بگیریم و سپس یک رگرسیون با تاخیر X در برابر Y انجام دهیم. فرض می‌کنم باید در نظر بگیریم که اگر یک نقطه داده برای X در زمان 0 میکروفون دریافت می‌کنید، سپس رگرسیون بعدی را در نظر بگیرید. نقطه داده در Y باید بعد از میکروفون xx رخ دهد، زیرا زمان می‌برد تا هر پاسخی در Y در رابطه با X رخ دهد. آیا راه خوبی برای تعیین مدت زمان پاسخ وجود دارد؟ یا این فقط یک فرض است؟
رگرسیون سری های زمانی نامنظم
19724
من یک سری بردار دارم که از یک نمونه در دو نقطه زمانی اندازه گیری می شود. نقطه زمان اول: 1.`[5،3،2،4،4،3،6،5]` (میانگین = 4.000) 2.`[5،6،3،3،4،3،4،5] ` (میانگین=4.125) 3.`[6،3،4،2،5،3،5،7]` (میانگین=4.375) ... و غیره میانگین کل = 4.17 نقطه زمان دوم: 1.`[1،2،1،2،1،3،4،5]` (میانگین = 2.375) 2.`[2،2،3،1،1،3،3،5]» (میانگین= 2.500) 3.`[1،3،1،2،2،3،5،4]» (میانگین = 2.625) .... و غیره. میانگین کل = 2.5 من می خواهم ببینم آیا واریانس برای هر کدام اندازه گیری/بردار بین دو نقطه زمانی تفاوت معنی داری دارد. با این حال، اندازه‌گیری دوم دارای میانگین کمتری است، که بنابراین می‌تواند واریانس کلی را ایجاد کند. چگونه واریانس دو شرط را در زمانی که میانگین ها متفاوت است مقایسه می کنید؟
چگونه می توان واریانس دو شرط را با میانگین های مختلف مقایسه کرد؟
87559
دو تابع با مدل مرتبط هستند > $a(x) = \int_{k_1}^{k_2} b(k)\exp(-kx)dk$ که در آن $a(x)$ داده‌های تجربی من است، و $b(k)$ اطلاعاتی است که می خواهم به دست بیاورم. یا اگر فضای k گسسته شده باشد، می توانم به صورت ماتریسی بنویسم: > $a = Mb$ حالا می خواهم این مسئله معکوس را با منظم سازی L1 با محدودیت b>=0 حل کنم: > min: $|Mb-a|^2 + \lambda|b|$ > > منوط به: $b\geq 0$ با $\lambda$ به عنوان پارامتر تنظیم. (در واقع این مشکل مشابه مشکل قبلی است، اما این بار تنظیم هنجار L1 است.) سؤالات من این است: 1. در حالی که حل کننده های کلی برای حداقل مربع نامحدود با مسائل نظم دهی L1 وجود دارد، من در یافتن یک حل کننده برای آن مشکل دارم. مورد محدود مانند اینجا. آیا حل کننده/روال موجود وجود دارد که بتوانم از آن استفاده کنم؟ اگر نه، آیا راه آسانی برای حل این مشکل وجود دارد؟ 2. سطح نویز را نمی دانم. شخصی روش اعتبارسنجی متقاطع را برای دریافت پارامتر منظم‌سازی پیشنهاد کرده است. من در درک این روش مشکلاتی دارم. آیا کسی می تواند توضیح ساده ای بدهد و منابع مناسب را برای درک بیشتر به من معرفی کند؟ خیلی ممنونم به روز رسانی: در مورد اولین سوال بالا، من متوجه شدم که این حل کننده Matlab واقعا عالی است.
رگرسیون حداقل مربعی با قاعده‌بندی L1 و محدودیت غیر منفی
31430
من بحث های قبلی در مورد اثرات متقابل و اثرات اصلی را مطالعه کرده ام و یک سوال در این زمینه دارم. من یک مدل انتخاب مقصد (لوجیت چند جمله‌ای) را اجرا می‌کنم، و یک متغیر پیوسته (فاصله بر حسب متر) و چندین متغیر ساختگی دارم که رفتار داده شده (فعالیت اصلی در مقصد) را محاسبه می‌کنند که فرضیه‌ام این است که اثر متقابل دارد. در این مدل خاص، تأثیر فاصله به خودی خود قابل توجه است و همچنین تعاملات بین فاصله و متغیرهای ساختگی قابل توجه است، اما وقتی سعی می‌کنم متغیرهای ساختگی را به تنهایی وارد کنم تا اثرات اصلی آنها را به دست بیاورم، مدل نمی‌تواند حتی پس از گنجاندن تنها یک متغیر ساختگی تخمین زده می شود. من این را در زیر نشان می‌دهم: 1. فاصله+فاصله*دوم2+فاصله*سنگ3 = اثرات اصلی و متقابل قابل توجه (مثلاً برهمکنش تخمین زده نشده) 2. فاصله*ساختگی2+فاصله*دوم3 = اثرات متقابل قابل توجه 3. فاصله+دوممی21 = مدل را نمی توان 4 تخمین زد. Distance+Dummy1+Dummy2+Distance*Dummy2+Distance*Dummy3 = مدل را نمی توان تخمین زد بنابراین سوال من این خواهد بود: 1\. آیا می توان فقط برای عبارات تعامل بدون تأثیرات اصلی با توجه به آنچه قبلا توضیح دادم، توضیح داد؟
شرایط تعامل و مدل های لاجیت
103950
من سعی می کنم برخی از نتایج آزمون فرضیه را که از تحلیل رگرسیون لجستیک دریافت می کنم، درک کنم. بگویید من 2 تخمین از احتمال وقوع یک رویداد دارم (بتای GLM من). در مقیاس لاجیت اینها عبارتند از log.odd.trt1 <- -0.803410 log.odd.trt2 <- 0.772911 در مقیاس احتمال اینها prob.trt.1 هستند <- 0.3092966 prob.trt.2 <- 0.684150 تفاوت بین دو شانس ورود -1.576321 است diff.log.odds <- -0.803410 - 0.772911 اگر این تفاوت را به مقیاس احتمال تبدیل کنید، 0.1713171 inv.logit(diff.log.odds) دریافت خواهید کرد در مقابل، تفاوت بین احتمالات -0.3748537 - prob.trt.1 - است. prob.trt.2 -1.576321 نیست -0.3748537. اینها با توجه به نحوه عملکرد تبدیل لاجیت معقول به نظر می رسند. با این حال، نگرانی من این است که آیا این به این معنی است که انجام آزمون‌های فرضیه‌ای معتبر است که بپرسند آیا تفاوت بین دو لگاریتم شانس صفر است. این بر خلاف سوال آیا شانس ورود به سیستم با 0 متفاوت است است. برخی زمینه ها: من از رگرسیون لجستیک برای مقایسه 2 درمان اجرا شده در طول 6 سال استفاده می کنم. من علاقه مندم که برای هر سال تعیین کنم که آیا بین 2 درمان تفاوت وجود دارد یا خیر. من از بسته R multcomp با یک ماتریس کنتراست برای انجام این مقایسه‌های چندگانه زوجی و همچنین انجام آزمایشی برای روند خطی در هر درمان استفاده می‌کنم. با این حال، مطمئن نیستم که آیا این کار را به درستی انجام می‌دهم، زیرا این فرضیه که من آن را اساساً آزمایش می‌کنم «تفاوت بین لاجیت‌ها صفر است» و تفاوت بین دو لاجیت مستقیماً به تفاوت بین دو احتمال نشان نمی‌دهد. تابع لاجیت معکوس من «inv.logit <- function(x) {1/(1+exp(-x))}» است.
آیا این مهم است که تفاوت بین دو پارامتر در مقیاس لاجیت به تفاوت آنها در مقیاس احتمال نشان داده نمی شود؟
20457
من مطمئن نیستم که این سوال درست باشد، اما آیا راهی برای ساخت ماتریس کوواریانس برای دو بردار که طول های متفاوتی دارند وجود دارد؟ اگر چنین است، چگونه؟ و آیا اندازه $(m+n) \times (m+n)$ خواهد داشت (با فرض اینکه طول دو بردار $m$ و $n$ باشد)؟
آیا می توان ماتریس کوواریانس را با حجم نمونه نابرابر محاسبه کرد؟
12606
همانطور که در سوال گفته شد، چه نوع تکنیک مدل سازی مناسب تر است؟ با تشکر
اگر مطمئن باشم که متغیر هدف من به طور معمولی نیست، اما بتا توزیع شده است، چه؟
88585
من نمونه هایی دارم که تنها چیزی که می دانم 70 درصد ماتریس فاصله است. من می دانم که برخی از این نقاط گروه هایی از نقاط مرتبط را تشکیل می دهند (هر نقطه از یک گروه به هر نقطه از همان گروه نزدیک است). من می خواهم این خوشه های نزدیک را پیدا کنم. من یک آستانه فاصله را انتخاب کردم. هر جفت نقطه نزدیکتر از این فاصله توسط یک یال به هم متصل می شود. سپس نموداری دریافت می کنم که در آن الگوریتم خوشه بندی گراف را اعمال می کنم. برای انتخاب بهترین پارامترها، می خواهم یک معیار کیفیت را انتخاب کنم. هدف من جمع‌بندی مجدد نقاطی است که گروه‌های به هم پیوسته را تشکیل می‌دهند. من ابتدا سعی کردم شبح‌های خوشه‌ها را برای پارامترهای مختلف مقایسه کنم، اما از اینکه 30 درصد از فواصل زوجی نادیده گرفته می‌شوند، احساس ناراحتی می‌کنم و مطمئن نیستم که این متریک با توجه به هدف من مناسب باشد. کسی معیار مناسب تری داره؟
انتخاب یک معیار ارزیابی برای الگوریتم خوشه بندی نمودار
35952
چگونه می توانم جمله زیر را اثبات کنم: با توجه به دو متغیر تصادفی، $X$ و $Y$، اگر $E(h(X)g(Y)) = E(h(X))E(g(Y) )$ برای همه $h$ و $g$ محدود و پیوسته، سپس $X$ و $Y$ مستقل هستند. من نمی دانم چگونه اثبات را شروع کنم. لطفا هر گونه مرجع مربوطه را ارائه دهید.
عدم همبستگی به معنای استقلال تحت شرایطی است؟
31438
من سعی می کنم روشی برای تقریب دنباله ها پیدا کنم. من تقریب نمادین SAX کیوگ را پیدا کردم اما برای سری‌های زمانی با ارزش واقعی کار می‌کند و من یک پایگاه داده از حدود 3000 دنباله دارم که هر کدام تعداد عناصر متفاوتی دارد، هر عنصر به شکل (a,r,b,c) است. ، b و c متغیرهای طبقه ای و r یک متغیر واقعی است. این یک سری زمانی چند بعدی ناهمگن است و من سعی می کنم قبل از هر چیز تکنیک های پیشرفته ای را برای درمان آنها پیدا کنم. لطفاً راهنمایی بفرمایید که چگونه به این موضوع نزدیک شویم؟ الساندرا
توالی های چند بعدی تقریبی
19721
من در حال حاضر در حال تنظیم آزمایشی هستم که ممکن است بخواهیم چندین مقایسه را انجام دهیم (یعنی مقایسه چندین درمان با یک کنترل به طور همزمان). محاسبه حجم نمونه مورد نیاز با استفاده از تصحیح بونفرونی بسیار ساده است. با این حال، روش بونفرونی بسیار محافظه کارانه است و من نگران هستم که زمان یا منابعی را برای گرفتن نمونه های بیشتر از آنچه واقعاً نیاز داریم تلف کنیم. آیا روش‌هایی برای محاسبه حجم نمونه مورد نیاز برای سایر روش‌های تصحیح، مانند تصحیح بنجامینی-هوچبرگ، هولم-بونفرونی، وست فال-یونگ وجود دارد؟ یا، طبق تجربه خود، آیا اصلاً با استفاده از هر یک از این روش های دیگر، احتمال کاهش قابل توجهی (بیش از 5٪) در حجم نمونه وجود دارد؟ آزمون مورد بحث یک مقایسه ساده از اثرات درمان بر روی یک متغیر نتیجه طبقه بندی است، با میانگین مورد انتظار 50٪.
محاسبات اندازه نمونه برای روش های بنجامینی-هوچبرگ، وست فال- یانگ، هولم-بونفرونی
12605
من با جنگل‌های تصادفی برای رگرسیون بازی می‌کردم و در تعیین اینکه دقیقاً معنای دو معیار اهمیت چیست و چگونه باید تفسیر شوند، مشکل دارم. تابع importance() برای هر متغیر دو مقدار می دهد: %IncMSE و IncNodePurity. آیا تفسیرهای ساده ای برای این 2 مقدار وجود دارد؟ به طور خاص برای «IncNodePurity»، آیا این صرفاً میزان افزایش RSS پس از حذف آن متغیر است؟ من از هر روشنگری بسیار قدردانی می کنم :)
اندازه گیری های اهمیت متغیر در جنگل های تصادفی
69430
من روی روش جدید خوشه‌بندی داده‌های افزایشی کار می‌کنم. من با یافتن مجموع کل سری داده ها (همه ویژگی ها) شروع می کنم، سپس مجموع ویژگی های فردی را پیدا می کنم، مقدار p را با تقسیم مجموع یک سری با مجموع تمام ویژگی ها برای هر دو سری محاسبه می کنم. سپس با استفاده از مجموع سری ها، مقدار p و مقدار (1-p)، با استفاده از جذر در مخرج، خطا را محاسبه کنید. من می خواهم بدانم 1) اهمیت یافتن جذر در فرمول خطا چیست؟ 2) چگونه می توان آستانه ای را که اعضای خوشه را تعیین می کند، پس از محاسبه ضریب نزدیکی محاسبه کرد؟ این الگوریتم با دو سری داده S1 و S2 شروع می شود. برای تعمیم این الگوریتم بعداً، سری داده ها را DSi می نامیم که i از 1 تا n متغیر است. j نقطه در هر DSi است. مرحله بعدی یافتن T، T(j)=S1(j)+S2(j) است. سپس احتمال نتیجه S1 را می توان به صورت زیر محاسبه کرد: سپس p=جمع S1(j) / مجموع T(j) را محاسبه کنید. خطا به صورت = [p*T(j) - Si(j)] / sqrt (T(j) _p_ (1-p)) وزن هر ویژگی = sqrt از (T(j)) محاسبه می‌شود. ضریب نزدیکی = مجموع [خطا*خطا(j) * وزن (j)] / مجموع وزن(j)
آستانه و ریشه میانگین مربعات خطا برای خوشه بندی داده ها
12604
من در حال انجام تجزیه و تحلیل خوشه ای k-means برای 6 عامل مؤلفه به دست آمده توسط PCA هستم. برای مراکز و دانه ها، من یک تجزیه و تحلیل خوشه ای سلسله مراتبی انجام داده ام. وقتی تجزیه و تحلیل خوشه‌ای k-means را اجرا می‌کنم، یک پیام هشدار دریافت می‌کنم: > Text: aggregate، فایلی که در دستور فرعی FILE ارجاع داده می‌شود، تعداد متغیرهای splitfile برابر با فایل کاری ندارد. فایل مرکز خوشه من (مجموعه به دست آمده با تجزیه و تحلیل سلسله مراتبی)، شامل 6 متغیر و 5 خوشه (دقیقاً مشابه ورودی تحلیل k-means) است. همچنین عنوان ستون اول فایل انبوه را به خوشه تغییر داده ام. کار دیگری برای حل این مشکل باید انجام دهم؟
k-به معنای خطای تحلیل خوشه سریع در SPSS است
19729
من اخیراً این سؤال را از یک دانش آموز دریافت کردم: > در یک مدل میانجی ساده، اگر اثر غیرمستقیم (ab) را > معنادار و تأثیر مستقیم (c') را کوچک و ناچیز بدانم، آیا > به این معنی است که دارم میانجیگری کامل یا میانجیگری جزئی؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/KBESX.jpg)
چگونه میانجیگری کامل در مقابل جزئی را در یک مدل میانجی ساده ایجاد می کنید؟
35954
اجازه دهید ابتدا تأیید کنم که اینجا واقعاً مکان صحیحی برای ارسال این است (ایده‌های دیگری که داشتم math.SE بود). گفته شد، * * * اجازه دهید $X_n$ یک زنجیره مارکوف در فضای حالت $\mathcal S$ باشد و برای $ y \in \mathcal S$ اجازه دهید $T_y = \min\\{ n \ge 1 : X_n =y \\}$ اولین زمان بازگشت به $y$ باشد. اجازه دهید $W_y = T_y - 1$ دقیقاً قبل از اولین بازگشت به $y$ باشد * توضیح دهید که چرا $W_y$ زمان توقف نیست * نشان دهید که ویژگی Strong Markov برای $X_n$ در زمان تصادفی $W_y اعمال نمی شود. $. **کار من** هنگام نشان دادن اینکه $W_y$ زمان توقف نیست، آیا نوشتن $$W_y = \bigcap_{i = 1}^{n-1} \\{X_i \ne y\\} کافی است \cap X_n = y$$ و ادعا کنید که چون $X_n$ به مجموعه $\\{X_0، X_1، \dots تعلق ندارد، X_{n-1}\\}$، ما داریم که $W_y$ زمان توقف نیست؟ * * * سپس، برای نشان دادن اینکه ویژگی Strong Markov اعمال نمی شود، می توانم $$\mathbf{P}(X_n = y \mid W_y = n-1, X_{n-1} = i, X_{n) بنویسم -2} = x_{n-2}، \dots، X_0 = y) = 1 \ne p(i, y)$$ که $p(i,y)$ یکی است احتمال انتقال مرحله از $i$ به $y$؟
اثبات زمان بدون توقف
35956
کتاب «قوی سیاه» طالب زمانی که چندین سال پیش منتشر شد، پرفروش‌ترین کتاب نیویورک تایمز بود. این کتاب هم اکنون به چاپ دوم رسیده است. طالب پس از ملاقات با آماردانان در JSM (یک کنفرانس آماری سالانه)، انتقاد خود از آمار را تا حدودی کاهش داد. اما نکته اصلی کتاب این است که آمار چندان مفید نیست زیرا بر توزیع نرمال و رویدادهای بسیار نادر تکیه دارد: «قوهای سیاه» توزیع عادی ندارند. به نظر شما این انتقاد درست است؟ آیا طالب برخی از جنبه های مهم مدل سازی آماری را از دست داده است؟ آیا می توان وقایع نادر را حداقل به این معنا پیش بینی کرد که احتمال وقوع آنها را بتوان تخمین زد؟
طالب و قو سیاه
69386
بگویید من $n$ مشاهده مستقل از دو متغیر تصادفی $x$ و $y$ دارم، که ممکن است همبستگی داشته باشند، و من می خواهم $r=E[x/y]$ را تخمین بزنم. من می‌توانم از $\bar{r}=\sum_i \frac{x_i}{y_i}$ برای تخمین $r$ استفاده کنم، اما چگونه فواصل اطمینان را تعیین کنم؟ **ویرایش**: یک مشاهده منفرد از نوع $(x_i,y_i)$ است و بدیهی است که می توانم $r_i=x_i/y_i$ را برای همه مشاهدات محاسبه کنم. آیا باید فاصله اطمینان کلاسیک را برای $r_i$ محاسبه کنم؟
محاسبه اطمینان فواصل نسبت متغیرهای همبسته
25289
> **تکراری احتمالی:** > تفاوت بین جلوه ثابت، جلوه تصادفی و جلوه ترکیبی > مدل ها چیست؟ آیا معیاری برای ایجاد چنین تفاوتی وجود دارد؟
چگونه می دانید چیزی یک اثر تصادفی یا یک اثر ثابت است؟
82082
آزمون ANOVA بر روی میانگین نمرات تخمین پارامتریک مطالعات فردی با جمعیت ثابت و شناخته شده یا جمعیت ناشناخته تصادفی استفاده می شود.
تفاوت بین مدل اثر ثابت و اثر تصادفی ANOVA چیست و چه زمانی باید اعمال شود؟
97765
فرض کنید دنباله ای از متغیرهای تصادفی توزیع شده مستقل (اما نه یکسان) به ما داده شده است. $\mathbb{E}X_t = \mu$. علاوه بر این، ما می دانیم که هر $X_t$ از یکی از $k$ توزیع های ثابت (اما ناشناخته)، که با $I_t \in \\{1,...,k\\}$ نشان داده شده است، ترسیم شده است، ما $I_t$ را مشاهده می کنیم. . من می‌خواهم این نمونه‌ها را با هم در یک تخمین‌گر برای $\mu$ ترکیب کنم، به‌گونه‌ای که MSE را به حداقل برساند، به‌ویژه تخمین‌گر وزنی را برای برخی از بردارهای وزنی در نظر بگیرید $\lambda = (\lambda_1,...,\lambda_n)$ $$ \mu(\lambda) = \sum_{t=1}^n \lambda_t X_t ، $$ جایی که $\sum_{t=1}^n \lambda_i = 1$. اجازه دادن به $\lambda_t = 1/n$ به تخمین‌گر بی‌طرفانه _ ساده‌لوح با واریانس $\frac{1}{n^2}\sum_{t=1}^n \mathbb{V}X_t$ (جایی که $\mathbb{V) اجازه می‌دهد }X$ نشان دهنده واریانس X است. از طرف دیگر، می دانیم که برآوردگر حداقل واریانس با $$ \lambda_t = \frac{(\mathbb{V}X_t)^{-1}}{\sum_{t=1}^n (\mathbb{V}) داده می شود. X_t)^{-1}} . $$ با این حال، ما فرض نمی‌کنیم که $\mathbb{V}X_t$ را می‌دانیم، و همچنین نمی‌توانیم فرض کنیم که $X_t$ بر اساس هر شکل مناسب، یعنی خانواده نمایی توزیع شده است. اما، چون می‌دانیم که X_t$ از کدام توزیع گرفته شده است، به نظر می‌رسد که انتخاب طبیعی واریانس در وزن‌دهی بالا را با لحظه دوم نمونه‌گیری شده جایگزین می‌کند، یعنی اجازه دهید $$ V_i = \frac{1}{N_i} \ sum_{t=1}^n \mathbb{1}\\{I_t = i\\}X_t^2 , $$ که $N_i = \sum_{t=1}^n \mathbb{1}\\{I_t = i\\}$ و $\mathbb{1}\\{\cdot\\}$ یک تابع نشانگر بولی است. با تعریف $V_t = \sum_{i=1}^k \mathbb{1}\\{I_t = i\\}V_i$، $$ \lambda_t = \frac{V_t^{-1}}{\sum_ داریم {t=1}^n V_t^{-1}} . $$ در حالی که به نظر می‌رسد این کار درستی است، اما نمی‌دانم در مورد MSE، یا سوگیری یا واریانس آن در رابطه با $\lambda$ بهینه و _ ساده‌لوحانه_ $\lambda$ چه می‌توان گفت. من برخی از نتایج را برای متغیرهای تصادفی توزیع شده معمولی پیدا کرده ام، اما هیچ چیز برای این مورد (متغیرهای تصادفی محدود شده) وجود ندارد.
ترکیب برآوردگرهای بی طرف با واریانس ناشناخته
86206
من چندین مدل نامزد دارم، و هر کدام باید بر اساس چندین متریک امتیازدهی شوند، که در آن هر معیار توزیع احتمال است. اساساً معیارها مانند متغیرهای وابسته هستند. سوال این است که آیا من می توانم احتمال آماری مشترک همه معیارهای ارائه شده به یک مدل را در نظر بگیرم (مثلاً جمع کردن احتمالات برای هر متریک با توجه به مدل)، و آن را در AIC یا BIC به عنوان احتمال کل وصل کنم؟ یا این امر برخی از مفروضات معیارها را نقض می کند؟
AIC، BIC: متغیرهای وابسته چندگانه
78245
من در حال مطالعه آمار کاربردی (آلمانی) هستم و در صفحه 140 در نتیجه بدیهیات کلموگروف بیان شده است که اگر $P(A)=0$ نمی‌توان نتیجه گرفت که $A=\emptyset$. به طور مشابه اگر $P(A)=1$ نیز نمی تواند نتیجه بگیرد که $A=S$. چرا اینطور است؟ همچنین، اگر $P(A)=0$، به این معنی است که رویداد A _تقریباً هرگز_ ممکن نیست و اگر $P(A)=1$ _تقریباً مطمئنا_ رخ خواهد داد. من در درک شهودی نیاز به عبارات بالا ( _تقریباً مطمئنا_ یا _تقریبا هرگز_ ) کمی مشکل دارم و چرا اگر $P(A)=1$**نمی توان نتیجه گرفت که $A=S$. [ویرایش حذف شده]
سوال در مورد پیامدهای بدیهیات کلموگروف
97764
من سعی می‌کردم زمانی که یک عنصر را از آرایه برنامه می‌خوانیم (مثلاً در پایتون) مقدار زمانی را که از کنار یک برنامه می‌گذرد، تخمین بزنم. بگویید که زمانی که تعدادی از عناصر را در برنامه زیر پیمایش کردم، زمانی $t_i$ دارم: array = [...] t_i_array = [] در حالی که i < n: t_start = time.start() n_i = random.randint( ) a.readKelements(n_i) t_end = time.start() t_i = t_end - t_start t_i_array.append(t_i) i++ تخمین صحیح برای میانگین زمانی که با خواندن 1 عنصر می گذرد چیست؟ (یعنی زمان برای هر عنصر، به جای عناصر در واحد زمان) آیا این است: $$\mu = \frac{\sum^{n}_{i=1} t_i}{\sum^{n}_{i=1 } n_i}$$ یا هست: $$\mu = \sum^{n}_{i=1} \frac{t_i}{n_i}$$ توجه داشته باشید که $t_i$ زمان خواندن عناصر $n_i$ است در تکرار i. اگر مقدار مورد نظر من را تخمین نزنند، پس تفاوت آنها چیست؟ چرا استدلال زیر ناقص است؟ $\frac{t_i}{n_i}$ میانگین زمان برای عبور از 1 عنصر است. پس، چرا این کار را چند بار انجام ندهیم و آن نتایج را میانگین نگیریم (آنچه معادله دوم من انجام می دهد). چرا این اشتباه است؟ اگر بتوانید آن موضوع را در یک سطح شهودی و در صورت امکان، در یک سطح ریاضی دقیق مطرح کنید، بهینه خواهد بود.
تخمین میانگین زمانی که با خواندن عنصر عناصر در یک حلقه/تکرار می گذرد
69431
**مقدمه مشکل** من در حال حاضر سعی می کنم ماشین های محدود مشروط بولتزمن را روی یک مسئله مجموعه داده سری زمانی اعمال کنم، به ویژه، مجموعه داده شامل 10 روز ثبت بازار سهام، و در هر روز، 50 ارزش سهام است. ضبط هایی ثبت می شوند که 5 دقیقه از یکدیگر فاصله دارند. بنابراین، به فرض من، هر روز را می توان به عنوان یک دنباله «{x0،x1،...،x50}» در نظر گرفت و هر ضبط در یک روز یک نمونه «x» است. **فرض من - اگر اشتباه می کنم لطفاً مرا تصحیح کنید** 1. هر روز ضبط یک دنباله است. 2. هدف C-RBM این است که یک توالی - یک روز ضبط سهام - را در مجموعه ای از ویژگی ها ترسیم کند. می تواند توسط هر الگوریتم رگرسیون به عنوان ورودی 3 استفاده شود. یک RBM متفاوت در هر دنباله آموزش داده می شود ** سوال** چگونه نمونه های ضبط شده یک دنباله را به یک دنباله تغذیه کنیم. RBM؟ آیا همه ویژگی های یک دنباله را در یک بردار بزرگ به هم متصل می کنیم و RBM را روی آن آموزش می دهیم؟ یا آیا از هر دنباله به عنوان یک مجموعه داده مینیاتوری استفاده می کنیم که «RBM» روی آن آموزش می بیند، اما عنصر زمان در اینجا تأکید نمی شود؟ این سؤال اساساً به این خلاصه می‌شود که چگونه، از دیدگاه انتزاعی، می‌توانیم از «C-RBM» برای استخراج ویژگی‌های پنهان از دنباله‌ها استفاده کنیم؟ پیشنهادات شما بسیار قدردانی خواهد شد. متشکرم
ماشین های بولتزمن محدود مشروط بر روی مجموعه داده سری زمانی
78240
از یک شبیه‌سازی کامپیوتری، من یک هیستوگرام از نتایج را ساخته‌ام و آن را عادی کرده‌ام به طوری که احتمال پیدا کردن یک نقطه $X$ در bin $b_j$ $\sum_j P(X \in b_j) =1$ باشد. از این رو من آنتروپی شانون هیستوگرام $H$ را محاسبه کرده ام تا بتوانم راهی برای تعیین کمیت پیش بینی $P$ داشته باشم. در حال حاضر، در حالی که به اندازه کافی به راحتی یک عدد را بدست می‌آورم، درک اینکه باید با آن چه کار کنم، مشکل دارم. اولین فکر من این بود که $H$ را برای $P$ در مقابل $H$ برای توزیع یکنواخت در همان محدوده $X$ مقایسه کنم، زیرا حداکثر آنتروپی را دارد (می‌دانیم که $X$ باید به یک محدوده محدود تعلق داشته باشد). یا می توانم محدوده $X$-را با مقداری حجم موثر $\Delta X$ مقایسه کنم، که در آن $\Delta X$ محدوده ای است که در آن توزیع یکنواخت با همان $H$ هیستوگرام من تعریف شده است. من آزادانه اعتراف می کنم که این مقایسه های شگفت انگیزی نیستند، زیرا هیستوگرام های من به هیچ وجه شبیه توزیع های یکنواخت نیستند. من در زمینه‌ای کار می‌کنم که به طور مرتب از $H$ به عنوان آمار استفاده نمی‌شود، بنابراین نمی‌توانم فقط یک عدد به خواننده‌ام بدهم و با آن کار تمام شود. با این حال، می دانم که این مقدار برای هیستوگرام من یک مقدار ارزشمند است. سوال من این است: چگونه آنتروپی شانون را برای هیستوگرام های تجربی/شبیه سازی شده گزارش، توصیف و مقایسه می کنید؟
تفسیر آنتروپی شانون
97945
_یک جعبه حاوی $n$ توپ هایی است که از 1 تا $n$ شماره گذاری شده اند. فرض کنید هر بار یک توپ را بردارید و آن را دوباره روی جعبه قرار دهید تا زمانی که یک توپ را دو بار انتخاب کنید. انتظار می رود چند توپ از جعبه بردارید؟_ اجازه دهید X$$ r باشد. v. مورد علاقه. پشتیبانی آن هر عدد طبیعی از $2$ تا $n+1$ است. اگر $k$ یکی از این اعداد باشد، برای به دست آوردن اولین تکرار در انتخاب $k$-th، $k-1$ قبلی باید متمایز و $k$-th برابر با برخی از آنها باشد، بنابراین، $$ \begin{align} \forall k\in\mathbb N\cap[2,\,n\\!+\\!1]\qquad \mathbb P(X=k) &= \frac nn\frac {n-1}n\ldots\frac {n-(k-2)}n \;\cdot\; \frac{k-1}n =\\\ &=\frac{(n-1)!}{(n-k+1)!}\frac{k-1}{n^{k-1}} =\\\ &= \frac{k-1}n\,\prod_{l=0}^{k-2}\left(1-\frac{l}n\right)\quad، \end{تراز }$$ به طوری که $$\begin{align} E(X) &= \sum_{k=2}^{n+1}\,k\cdot\frac{k-1}n\,\prod_{l=0}^{ k-2}\left(1-\frac{l}n\right) =\\\ &=\frac1n\sum_{k=2}^{n+1}\,k(k-1)\prod_{l=0}^{k-2}\left(1-\frac{l}n\ راست) \ چهار. \end{align}$$ با این حال، پاسخ کتاب $$E(X) = 2 + \sum_{k=1}^{n-1}\prod_{l=1}^k\left(1-\ است frac ln\right)\quad.$$ من چه اشتباهی می کنم؟ یا، اگر پاسخ ها در واقع یکسان است، چگونه می توان آن را نشان داد؟
مجموع محصولات در مقدار مورد انتظار
41806
من در حال خواندن این مقاله هستم که اولین رویکرد در انتخاب متغیر بیزی است. در بخش بحث می گوید که یکی از محدودیت های عمده روش خاص این است که نمی توان آن را با متغیر کلاسی که بیش از دو سطح دارد استفاده کرد. کسی میدونه چرا؟
چرا نمی توان از انتخاب متغیر بیزی با متغیرهای طبقه ای با بیش از 2 سطح استفاده کرد؟
90528
من می توانم از برخی توصیه ها در مورد نحوه رسیدگی به این وضعیت استفاده کنم. من یک ANOVA طرح بلوک کامل تصادفی (RCBD) با 5 بلوک و 8 تیمار دارم، پاسخ وزن خشک برخی از گیاهان است، 1 تکرار برای هر سلول در RCBD وجود دارد، به جز در 1 مورد که اندازه گیری به دلیل انجام نشد. به کارخانه در حال انقضا هنگامی که من ANOVA را با یک فاکتور بلوک ثابت انجام می دهم، باقیمانده ها تقریباً نرمال هستند اما همگن نیستند. من چند تبدیل ساده را امتحان کردم اما فایده ای نداشت (من آنقدرها هم به تبدیل ها علاقه ندارم، ترجیح می دهم از روش قوی استفاده کنم) من موفق شدم تخمین HC را اجرا کنم اما روش های مورد استفاده، Anova() از بسته خودرو و robustreg در SAS، Residual SS را تولید نمی کند، که برای محاسبه تست های همزمان نیاز دارم. علاوه بر این، من مطمئن نیستم که آیا این روش ها سلول های خالی را جبران می کنند. بچه ها می توانید من را در مسیر درست راهنمایی کنید؟
واریانس نابرابر، یک تکرار، سلول های خالی RCBD ANOVA
13556
$m$ قرعه کشی مستقل از هر یک از $n$ توزیع را در نظر بگیرید. $X_{i,j}$ برداشت $i_{th}$ از cdf $F_{j}(x)$. که $1 \leq i \leq m$ و $1 \leq j \leq n$. بنابراین ما $m\cdot n$ کشش کل از همه توزیع ها داریم. همچنین، محدوده های توزیع را همپوشانی فرض کنید. اجازه دهید $X_{\min,j}$ را حداقل تمام m قرعه کشی برای گروه $j$ بنامیم. به طور مشابه، $X_{\max,j}$ حداکثر همه قرعه‌کشی‌های $m$ برای گروه $j$ است. اکنون $$\min_j{X_{\max,j}}$$ حداقل تمام حداکثرهای گروه است. اجازه دهید گروه $j$ را که حاوی این حداقل است به عنوان $y$ برچسب گذاری کنیم. چگونه می توانم توزیع $X_{\min,y}$ را پیدا کنم؟ به عبارت دیگر، توزیع حداقل مقدار از $F_{y}(x)$، زمانی که تنها وسیله من برای دانستن اینکه کدام $F_{j}(x)$ F_{y}(x)$ است توسط ترتیب نسبی حداکثر تساوی آنها؟ این مشابه - اما دشوارتر از - این سوال است که به آن پاسخ داده شده است، و در مورد خاصی که همه توزیع‌ها یکسان هستند، یک یافته مشابه می‌خواهد: $F_{1}(x) = F_{2} (x) =F_{n}(x)$. من نمی توانم بفهمم که چگونه از این پاسخ به آنچه در اینجا به دنبال آن هستم حرکت کنم.
حداقل رسم از F(x)، که در آن حداکثر یک آماره ترتیبی از حداکثر رسم از توزیع های مختلف و در عین حال همپوشانی است؟
86208
اگر کسی بتواند مزایای استفاده از ناحیه تحت ROC برای ارزیابی توافقات بین دو ارزیاب را برای من توضیح دهد ممنون می شوم. در اینجا نمونه‌ای از دو ارزیاب در سری‌های زمانی بالینی وجود دارد که ریتمیک ضربان قلب را تجسم می‌کنند. ارزیاب ها ریتمیک را با استفاده از مقیاسی از 0 (طبیعی) تا بسیار شدید (4) ارزیابی کردند. آیا AUC معیار خوبی برای متغیرهای ترتیبی است؟ چگونه می توانیم مقادیر AUC را تفسیر کنیم؟ چگونه می توانیم مقادیر ویژگی و حساسیت را برای هر کلاس محاسبه کنیم؟ لطفاً توجه داشته باشید که مقادیر AUC در جدول آزمایشی هستند. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ZeWq4.jpg)
کمک در تفسیر مقادیر AUC از متغیرهای ترتیبی
62524
من به پیش بینی Y علاقه مند هستم و در حال مطالعه دو تکنیک اندازه گیری مختلف X1 و X2 هستم. مثلاً می‌خواهم طعم و مزه موز را پیش‌بینی کنم، یا با اندازه‌گیری مدت زمانی که روی میز خوابیده است، یا با اندازه‌گیری تعداد لکه‌های قهوه‌ای روی موز. می‌خواهم بدانم کدام یک از تکنیک‌های اندازه‌گیری بهتر است، آیا فقط یکی را انتخاب کنم؟ من می توانم یک مدل خطی در R ایجاد کنم: m1 = lm (Y ~ X1) m2 = lm (Y ~ X2) حال بیایید بگوییم «X1» یک پیش بینی برتر از طعم موز نسبت به «X2» است. هنگام محاسبه $R^2$ دو مدل، $R^2$ مدل m1 به وضوح بالاتر از مدل m2 است. قبل از نوشتن مقاله ای در مورد اینکه چگونه روش X1 بهتر از X2 است، می خواهم نشانه ای داشته باشم که تفاوت تصادفی نیست، احتمالاً به شکل یک مقدار p. چگونه می توان در مورد این اقدام کرد؟ وقتی از مارک‌های مختلف موز استفاده می‌کنم و به مدل Linear Mixed Effect که مارک موز را به‌عنوان یک جلوه تصادفی ترکیب می‌کند، چگونه این کار را انجام دهم؟
مدل خطی: مقایسه قدرت پیش‌بینی دو روش اندازه‌گیری مختلف
97943
من سعی می کنم یک مدل رگرسیون چند خطی بسازم، چندین متغیر توضیحی از period1 تا period2 تاثیر دارند. من باید قبل از مدل سازی، تبدیل داده ها را انجام دهم. بیایید ابتدا مسئله را ساده کنیم: فقط یک متغیر توضیحی باید تبدیل شود. 2 روش تبدیل داده در نظر گرفته شده است: * نرخ انتقال داده: `co <- تابع (متغیر، i){ var1 <- متغیر برای (p in (2:length(var1))){ var1[p] = var1[p-1] * i + var1[p] } return(var1) }` * منحنی S: `sc <- تابع(متغیر، j، k){ var2 <- متغیر برای (q in (1:length(var2))){ var2[q] = 1 + j * exp(k * var2[q]) } return(var2) }` سوال من این است: **چگونه می توانم بهترین ها را بدست بیاورم مقادیر i, j & k ?** ایده اولیه من به این صورت است: من از «lm()» و «stepAIC()» (در زیر «کتابخانه(MASS)») استفاده می کنم تا تمام ترکیبات ممکن از این ها را امتحان کنم. 3 پارامتر و ترکیبی که منجر به بالاترین مربع R و کمترین AIC می شود را حفظ کنید (مهم نیست پیش بینی ها/ضرایب ناچیز وجود داشته باشد). (در اینجا، «BoxTidwell()» (تحت «کتابخانه(ماشین)») استفاده نمی شود زیرا به من گفته شد که این 2 روش تبدیل باید در یک زمان برای یک متغیر اعمال شوند.) آیا روش بهتری برای تعیین پارامترها وجود دارد. ?
روشی را برای تخمین پارامترهای تبدیل داده در یک مدل رگرسیونی امتحان کنید
13620
> **تکراری احتمالی:** > prcomp() در مقابل lm() به R منجر می شود. من 4 بردار دارم که 4 قیمت سهام تاریخی هستند. این کد R من است: > x <- c(1,2,3,4,5,6) > y <- c(7,8,9,10,11,12) > z <- c(13, 14,15,16,17,18) > v <- c(19,20,21,22,23,24) > mod <- prcomp(~x+y+z+v+0) # نیاز دارم zero intercept > mod انحرافات استاندارد: [1] 3.741657e+00 2.128330e-16 7.837321e-48 4.073427e-79 چرخش: PC1 PC2 PC3 PC4 x 0.5 -0.8660250 000000+0.00. 0.5 0.2886751 -0.8164966 -1.751211e-16 z 0.5 0.2886751 0.4082483 7.071068e-01 v 0.5 0.2886751 0.2886751 0.2886751 0.2886751 0.2886751 0.2886751 0.2886751 0.2886751 0.2886751 0.2886751 0.2886751 0.2886751 0.4070 - 0.408. به من بگویید چگونه می توانم ضرایب هر متغیر را محاسبه کنم؟ متشکرم!
چگونه ضرایب را با استفاده از ()prcomp محاسبه کنیم؟
101558
من می خواهم از توزیع نرمال کوتاه شده زیر در WinBUGS برای تخمین پارامترهای SEM با استفاده از تحلیل بیزی استفاده کنم. for(j در 1:P){y1[i,j]~djl.dnorm.trunc(mu1[i,j],psi1[j],thd[j,z1[i,j]],thd[j, z1[i,j]+1])} من مشکلی در این دارم که آخرین مرحله در به روز رسانی ابزارها، ابزارهای به روز رسانی پاسخ نمی دهند. بعد از اینکه در تکرار 1 مقدار refresh را از 100 به 1 کاهش دادم، ابزارهای به روز رسانی متوقف شدند. چگونه می توانم این مشکل را حل کنم؟ هر گونه راهنمایی بسیار قدردانی خواهد شد.
نرمال کوتاه شده در WinBUGS
20757
من می خواهم در مورد نحوه محاسبه ترکیدگی توصیه ای داشته باشم. من با مجموعه‌ای از داده‌های متنی کار می‌کنم، که در آن هر ترم با فراوانی آنها در روزنامه برای 2 هفته محاسبه می‌شود، به عنوان مثال. apple در طول انتشار iphone4s آنها روز 1 = 10، روز 2 = 300، روز 3 = 25، و به همین ترتیب تا روز 14 خواهد بود. بنابراین اگر اصطلاح معروفی مانند اوباما که روز 1 = 100، روز 2 = 100، روز 3 = 105 به نظر می رسد ... از آنجایی که محبوب است اما برخی اصطلاحات دیگر که ترکانده و سیخ هستند، مانند سیب خواهند بود. آیا راهی وجود دارد که بتوانیم چنین ترکیدگی را اندازه گیری کنیم، من از انحراف معیار آگاه هستم، و آیا راه های دیگری وجود دارد؟ هدف نهایی این است که ترکیدگی (اوباما) تا حد امکان کوچک و ترکیدگی (سیب) تا حد امکان بالا باشد. با تشکر
چگونه ترکیدگی را محاسبه کنیم؟
46632
من داشتم این مقاله مربوط به مدیریت ویژگی های گمشده داده های زمانی فضایی چند متغیره را می خواندم. http://astro.temple.edu/~tua86150/Lou_IJCAI_11.pdf. در اینجا آنها سعی کرده اند از همبستگی زمانی مکانی بین صفات برای تلقی صفات گمشده سوء استفاده کنند. آنها برخی از داده های آئروسل را در نظر گرفته اند. اساساً من در این بخش سردرگمی داشتم > مدل سازی همبستگی ها در یک ترکیب منفرد > > در این بخش نحوه مدل سازی همبستگی زمانی هر بعد و همبستگی بین ابعاد چندگانه از یک دنباله > چند متغیره را شرح می دهیم. ما یک مدل احتمالی برای تخمین مقادیر گمشده می‌سازیم > مشروط به مقادیر مشاهده‌شده با بهره‌برداری از این دو نوع همبستگی. > > فرض کنید که یک دنباله m بعدی $X = {x_1,x_2,…,x_N}$ به طول N داده شده است، که در آن بردار $x_n$ در تیک زمانی $n^{th}$ دنباله مشاهده می شود (n > = 1,…,N) یک گاوسی چند متغیره m-بعدی است. برای هر مشاهده m-بعدی > بردار $x_n$ یک متغیر پنهان گاوسی $z_n$ > معرفی می کنیم به طوری که یک وابستگی خطی با نویز گاوسی بین هر کدام وجود دارد > $x_n$ و $z_n$ که به صورت $x_n = > Cz_n تعریف شده است. + v_n$، که در آن C پارامتر > ماتریس و v ~ N( v| 0,Σ ) است نویز گاوسی با میانگین صفر و > واریانس Σ. ما همچنین یک وابستگی خطی با نویز گاوسی بین دو متغیر نهفته مجاور $z_{n-1}$ و $z_n$ مربوط به دو مشاهده متوالی $x_{n-1}$ و $x_n$ به صورت $z_n تعریف می کنیم. = Az_{n-1} + w_n$، که در آن A پارامتر > و w ~ (w | 0، Γ)، w است نویز گاوسی با میانگین صفر و > واریانس Γ. > > بنابراین، انتشار و توزیع انتقال را می توان به صورت > $p(x_n|z_n) = N(x_n|Cz_n,\Sigma)$ $p(z_n|z_{n-1}) = > N(z_n| Az_{n-1},\tau)$ من در واقع متوجه نشدم که چگونه مدل سازی داده ها به این شکل به ما کمک می کند تا از همبستگی که مقاله ذکر کرده است استفاده کنیم. منظورم این است که چگونه از همبستگی ها در بالا استفاده می شود. آیا به این دلیل است که از $z_n = Az_{n-1} + w_n$ استفاده کرده‌ایم که وابستگی خطی متغیرهای پنهانی را که متغیرهای مشاهده‌شده x به آن‌ها وابسته هستند، تعریف می‌کند، که ما از همبستگی استفاده می‌کنیم. فقط می خواهم بدانم که راه درستی را طی می کنم. همچنین چه در مورد همبستگی بین ابعاد فردی (m که وجود دارد). آیا با $x_n = Cz_n + v_n$ توضیح داده می شود که وابستگی های خطی چند متغیره $x_n$ را با چند متغیره $z_n$ تعریف می کند. من فقط یک مبتدی در این هستم. پس لطفا با من تحمل کن
سردرگمی مربوط به مقاله مربوط به داده های مکانی-زمانی چند متغیره با ویژگی های گم شده است
80129
من سعی می کنم همبستگی دو متغیر را محاسبه کنم، اما آرایه در وسط از هم گسسته است - اما سعی می کنم یک ضریب همبستگی را به دست بیاورم. فایل اکسلی که آپلود کردم رو ببینید. از آنجا که گسست در وسط، مقداری جهش دارد و وقتی کل مجموعه را همبستگی می‌کنم، ضریب همبستگی را به دست می‌آورم که واقعاً منعکس کننده رابطه بین متغیرها نیست. چگونه می توانم یک ضریب همبستگی را محاسبه کنم؟ من می توانم دو همبستگی جداگانه محاسبه کنم اما آیا راهی برای جمع دو همبستگی وجود دارد؟
نحوه جمع کردن همبستگی ها، یا محاسبه همبستگی متغیرهای ناپیوسته
7891
با توجه به مجموعه داده‌ای $D$ و اندازه‌گیری فاصله، می‌خواهم مجموعه داده را به دو زیرمجموعه جداگانه $X، Y$ با اندازه مشخص (مثلا 80٪ و 20٪ از اندازه اصلی) تقسیم کنم، به طوری که حداقل فاصله همه جفت‌های $(x، y)$ با $x \در X$ و $y \در Y$ به حداکثر می‌رسد. من ارجاعی به خوشه بندی حداکثر حاشیه بدون محدودیت اندازه پیدا کردم، اما احساس من این است که محدودیت باید مشکل را آسان تر کند - آیا اینطور است؟ آیا راهی برای حل این مشکل وجود دارد؟
خوشه بندی حداکثر حاشیه با محدودیت اندازه
7890
من داده‌ای نسبت به شدت تصویر دارم که از 0 تا 255 متغیر است. برای برخی از مدل‌هایی که باید اجرا کنم، باید این داده‌های شدت را به مقیاس دیگری تبدیل کنم، که باید میانگین خاصی (مثلاً 1.5) و حداکثر مشخصی داشته باشد. (برای این مثال، 2). من اطلاعاتی در مورد نحوه تبدیل داده ها به مقیاس بر اساس حداقل و حداکثر، و همچنین به مقیاسی با میانگین و واریانس مشخص پیدا کرده ام، اما اینها در مورد من صدق نمی کنند - فقط می خواهم میانگین را مشخص کنم. و حداکثر، به دست آوردن ویژگی های دیگر از توزیع داده ها. هر ایده ای؟ با تشکر فراوان
چگونه داده ها را تبدیل به میانگین و حداکثر مقدار جدید کنیم؟
48577
نمونه گیری تصادفی ساده با جایگزینی اندازه جمعیت = $ N $ اندازه نمونه = $ n $ من علاقه مند به یادگیری در مورد توزیع متغیرهای تصادفی $ X_0، X_1، ...، X_n $ هستم، که در آن $ X_i $ تعداد واحدهایی است که دقیقاً یک انتخاب شده اند. تعداد $ i $ بار برای نمونه. توجه داشته باشید که: $$ \sum_{i=0}^n X_i = N $$
توزیع تعداد دفعاتی که واحدها برای یک نمونه تصادفی ساده انتخاب می شوند
103797
من درک می کنم که تجزیه و تحلیل اجزای اصلی چگونه کار می کند. با این حال، در مفهوم سری زمانی مالی، من نمی فهمم که چرا تعداد مشاهدات باید بیشتر از تعداد ابعاد باشد. من بیست اوراق بهادار (در این مورد ابعاد) برای ده دوره زمانی دارم و به من گفته شده است که PCA اینجا کار نخواهد کرد. چرا کار نمی کند؟ همچنین، تجزیه و تحلیل اجزای اصلی مجانبی چگونه به حل این مشکل کمک می کند؟ میشه لطفا یکی اینو توضیح بده؟ در صورت امکان سعی کنید از اصطلاحات ریاضی کمتری استفاده کنید (به جز اصول جبر خطی مانند مقادیر ویژه/بردار). اگر توضیح آن بدون استفاده از اصطلاحات تخصصی امکان پذیر نیست، لطفاً ادامه دهید و من وقت خود را صرف می کنم و سعی می کنم آن را درک کنم. پیشاپیش از کمک شما سپاسگزارم
تحلیل مؤلفه اصلی مجانبی
20756
من در حال انجام آزمایش‌هایی با شبکه‌های عصبی هستم و می‌خواستم برای تأیید روش‌شناسی و نتایجم از پشتیبانی درخواست کنم. تنظیم من: من داده های خود را به شکاف های زمانی 5 ثانیه ای جدا کرده ام، یعنی تمام مهرهای زمانی در عرض 5 ثانیه هستند. برای هر شکاف تقریباً دریافت می کنم. 1000 نمونه علاوه بر این، من 7 ویژگی برای هر نمونه دارم که به طور میانگین نرمال شده است. 4 عددی و 3 بولی هستند (0،1). توپولوژی شبکه من 7-15-1 است، الگوریتم آموزشی پس انتشار ارتجاعی (شبکه تکرارشونده اردن) با تابع فعال سازی سیگموئید و تابع خطای آتان است. من از اعتبارسنجی متقابل 5 برابری برای بررسی شبکه استفاده می کنم. ویژگی هدف هر نمونه یک مقدار بولی است. هدف من آموزش شبکه با داده های یک شکاف زمانی (شکاف زمانی n) و استفاده از آن برای رتبه بندی نمونه ها از شکاف زمانی بعدی (n+1) است (در مقیاس 0-1، بنابراین گره خروجی واحد ). من از شبکه های عصبی استفاده می کنم زیرا می خواهم عملکرد آن را با مدل های دیگر مانند SVM و رگرسیون لجستیک مقایسه کنم. در اینجا سؤالات من در مورد راه اندازی و نتایج است: 1. من می توانم تمام نمونه ها را با همه ویژگی ها در بازه زمانی جمع آوری کنم. آیا باید توزیع احتمال ویژگی هایی را که استفاده می کنم بررسی کنم یا میانگین نرمال سازی کافی است؟ 2. آیا استفاده از نتایج یک گره خروجی به عنوان تابع رتبه بندی منطقی است؟ 3. خطای آموزش به سرعت به زیر 0.1 می رسد (پس از 20-50 تکرار). با تکرارهای بیشتر (تا 10.000) بهتر نمی شود، اغلب بدتر می شود (خطا تا 0.4). خوب است که نرخ خطا به این سرعت کاهش یابد یا باید شک کنم؟ 4. آیا شبکه های عصبی به طور کلی فقط پس از آن قابل استفاده هستند، به عنوان مثال. 50000 تکرار؟ 5. آیا قبول نرخ خطای 0.1 منطقی است؟ البته، هر چه کمتر بهتر است، اما من نمی توانم بیشتر از این خطا را به حداقل برسانم. 6. خطای اعتبار متقاطع همیشه تقریباً است. دو برابر خطای آموزشی آیا این خیلی زیاد است؟ من خواندم وقتی خطای cv بسیار بزرگتر از خطای آموزشی است، شما از واریانس بالا رنج می برید آیا 0.2 در حال حاضر بزرگ است یا 0.4 بزرگ است؟ 7. از آنجایی که برای هر نمونه یک مقدار هدف دارم، برای هر طبقه‌بندی کننده یک ارزیابی f-measure نیز انجام می‌دهم. همیشه تقریبا 0.75. من 0.3 را به عنوان آستانه خطای طبقه بندی انتخاب کردم، یعنی زمانی که تفاوت بین مقدار ایده آل (0 یا 1) و مقدار پیش بینی شده در 0.3 باشد، طبقه بندی خوب است. آیا این مقدار خیلی بزرگ است یا می‌گویید که همیشه باید با آستانه طبقه‌بندی > 0.95 بروید؟ با تشکر از حمایت شما! با احترام، اندی
بررسی عملکرد مدل شبکه عصبی
46639
من از Octave برای ایجاد یک رگرسیون شبکه عصبی (3 لایه nn، استفاده از tanh به عنوان تابع فعال سازی، fmincg به عنوان بهینه ساز و خروجی پیوسته) استفاده می کنم. هدف این مدل پیش بینی تقاضا برای برخی از محصولات بر اساس متغیرهای متعدد (تقاضای گذشته محصولات، سطوح موجودی گذشته، سفارشات معلق و غیره) است. من همه ورودی ها و خروجی ها را عادی می کنم. ** کیفیت پیش‌بینی در نهایت با SFE (خطای پیش‌بینی آماری) ارزیابی می‌شود، که من در اکتاو آن را به صورت زیر تعریف کردم:** $$SFE=\frac{\sum_{i=1}^{m}abs(Y_m-Forecast_m )}{\sum_{i=1}^{m}Forecast_m}$$. **با وجود این، من مدل را به عنوان یک رگرسیون سنتی آموزش می دهم، با استفاده از مجموع خطاهای مربع به عنوان تابع هزینه (J):** $$J=\frac{\sum_{i=1}^{m }(Y_m- Forecast_m)^2}{2m}$$. من فکر می کنم این درست نیست، زیرا یادگیری باید به سمت هدف واقعی (SFE) انجام شود و J تأثیر انحرافات بزرگتر را بیش از حد برآورد می کند. اما از آنجایی که abs() مشتق ندارد، نمی‌دانم که چگونه تابع SFE می‌تواند تحت آموزش back-prop برای nn کار کند. ** تابع هزینه (J) چگونه باید تعریف شود تا مدل را به سمت SFE آموزش دهیم؟** من می خواهم از خود SFE استفاده کنم، اما آن را ممکن نمی دانم زیرا باید گرادیان را محاسبه کنم تا بهینه ساز برای کار (fmincg برای Octave) و abs() در 0 قابل تمایز نیستند. پاسخ باید این جنبه را برای بهینه ساز کار کند.
انتخاب تابع هزینه برای پیش بینی پیوسته شبکه عصبی
62295
من در حال مطالعه مقدمه ای بر خوشه بندی داده های بزرگ و با ابعاد بالا کوگان هستم زیرا می خواهم خوشه بندی را بهتر درک کنم (من هرگز با آن کار نکردم). تا به حال خوشه بندی برای من به معنای یافتن پارتیشنی از یک ابر داده s.t. یک تابع هدف معین به حداقل می رسد. چنین تابع هدفی با معرفی یکبار برای همیشه یک تابع فاصله _یا_ «مثل فاصله»، یعنی معیاری از عدم تشابه که نمی تواند هر 3 اصل را که فاصله را در یک مجموعه متریک تعریف می کند، برآورده کند، تعریف می شود. نمونه‌هایی از توابع «مثل فاصله» با 1 نشان داده شده است. $d(x,y):=|x-y|^2$، با $x,y\in\mathbb R$ 2. واگرایی Kullback-Leibner 3. Bregman و $ \varphi$-divergences اولین سوال من این است: چرا از توابع شبیه فاصله تا این اندازه از خوشه بندی استفاده می شود؟ آیا نباید هر زمان که امکان دارد از فاصله ها استفاده کنیم؟ من نمی دانم که آیا یک پاسخ مستقل از برنامه برای سؤال من وجود دارد یا خیر، اما من در جستجوی فهرستی از معیارها یا مثال هایی هستم که باید به جای فاصله ها، توابع مثل فاصله را انتخاب کنند. اگر یک تابع مثل فاصله اجازه می دهد تا یک الگوریتم خوشه بندی سریع و کارآمد بنویسید و محدب باشد، در برنامه ها (احتمالا؟) نیازی به معرفی یک تابع فاصله نیست. نظر شما در مورد این نکته چیست؟ آیا نمونه/مثال متقابلی برای به اشتراک گذاشتن دارید؟ برای مثال، چه چیزی باعث می‌شود $$d(x,y):=|x-y|^2$$ و واگرایی Kullback-Leibner $D_{KL}$ انتخاب جالب‌تر/بهتر/طبیعی‌تر در خوشه‌بندی برنامه‌ها نسبت به $$ باشد. d(x,y):=|x-y|$$ و مقدار اطلاعات $IV$؟ من از کمک شما تشکر می کنم.
فاصله ها در مقابل توابع مانند فاصله در خوشه بندی
69664
من می خواهم دو GLM را با متغیرهای وابسته دو جمله ای مقایسه کنم. نتایج عبارتند از: m1 <- glm (علائم ~ 1، داده = داده 2) m2 <- glm (علائم ~ phq_index، داده = داده 2) آزمون مدل نتایج زیر را به دست می دهد: ​ anova (m1، m2)​ بدون AIC logLik LR .stat df Pr(>Chisq) m1 1 4473.9 -2236.0 m2 9 4187.3 -2084.7 302.62 8 < 2.2e-16 *** من به مقایسه این نوع مدل ها با استفاده از مقادیر مجذور کای، تفاوت مجذور کای و آزمون تفاوت کای دو عادت دارم. از آنجایی که تمام مدل‌های دیگر در مقاله به این ترتیب مقایسه می‌شوند، و از آنجایی که من می‌خواهم آنها را در یک جدول با هم گزارش کنم: چرا دقیقاً این آزمایش مدل با سایر آزمایش‌های مدل من که در آن مقادیر کای‌دو و آزمون‌های تفاوت را دریافت می‌کنم متفاوت است؟ آیا می توانم مقادیر مجذور کای را از این تست بدست بیاورم؟ نتایج مقایسه‌های مدل‌های دیگر (به‌عنوان مثال، GLMER)، به این صورت است: #Df AIC BIC logLik Chisq Chi DF diff Pr(>Chisq) m3 13 11288 11393 -5630.9 392.16 m4 21 11222 -15929 15138. 300.14 8 0.001
مقایسه GLM های تودرتو از طریق chi-squared و loglikelihood
48100
با خواندن این کتاب، توضیحات زیر را در مورد درختان مدل برای پیش‌بینی عددی یافتم که در آن ویژگی‌های اسمی به ویژگی‌های باینری تبدیل می‌شوند. > قبل از ساختن یک درخت مدل، همه صفات اسمی > به متغیرهای باینری تبدیل می شوند که سپس به عنوان عدد در نظر گرفته می شوند. برای هر ویژگی اسمی >، مقدار متوسط ​​کلاس مربوط به هر مقدار ممکن در > مجموعه از نمونه های آموزشی محاسبه می شود و مقادیر بر اساس این میانگین ها > مرتب می شوند. سپس، اگر صفت اسمی k ممکن > مقدار داشته باشد، با k – 1 ویژگی باینری مصنوعی جایگزین می‌شود، اگر مقدار یکی از اولین i در ترتیب باشد و 1 مورد دیگر عاقلانه، 0 > است. بنابراین، > همه تقسیم‌ها باینری هستند: آنها شامل یک ویژگی عددی یا یک ویژگی باینری ترکیبی هستند که به عنوان عددی در نظر گرفته می‌شود. خب من نمیفهمم یعنی چی برای مثال، فرض کنید من یک ویژگی Fruits با چندین مقدار مانند «سیب»، «نارنجی»، «گلابی» با مقداری کلاس عددی «C1» برای هر نمونه دارم. من فکر می‌کنم که با «مقدار متوسط ​​کلاس» آن پاراگراف به میانگین «C1» برای «سیب»، «نارنجی»، «گلابی» اشاره دارد. اما پس برای تبدیل آن صفات اسمی به باینری چه کاری انجام می شود و چرا k مقادیر ممکن را می گیرد (در این مورد، k باید 3 باشد) و ویژگی های باینری k-1 را برمی گرداند؟ به هر حال، به نظر می رسد که کلاس NominalToBinary در اینجا دقیقاً این کار را انجام می دهد، اما من weka را نصب نکرده ام و نمی دانم چگونه از آن استفاده کنم. من همچنین با استفاده از Fruits به عنوان ویژگی از اینجا مثال زدم. ممنون میشم توضیح یا مثالی بدم خیلی ممنون
تغییر ویژگی ها از اسمی به باینری
44673
من این سوال را در انجمن ریاضی stackexchange بدون هیچ پاسخی ارسال کردم. شاید انجمن اشتباهی بود، پس اینجا امتحانش کردم. من سعی کردم اطلاعات چندگانه (MI) $I[\mathbf U] = \sum_{i=1}^n H[U_i] - H[\mathbf U]$ یک RV با توزیع یکنواخت در $L_1$ را محاسبه کنم. کره واحد در زیر محاسبات من است. چیزی که من را گیج می‌کند این است که برای $n=2$، MI باید بزرگ باشد، زیرا اگر $U_2$ داشته باشم، می‌توانم مقدار $U_1$ را به دو مقدار ممکن کاهش دهم. با این حال، فرمول من به من صفر می دهد. برای مقادیر بزرگتر $n$ حتی منفی می شود (که نباید اتفاق بیفتد زیرا MI همیشه مثبت است). من چه غلطی می کنم؟ **محاسبات** یک متغیر تصادفی توزیع شده یکنواخت در کره واحد $L_{1}$ دارای نمایش تصادفی $\boldsymbol{U}\stackrel{d}{=}\boldsymbol{Z}\odot\boldsymbol{X} است. $ ($\odot$ ضرب عنصر است) که در آن $Z_{i}\in\\{-1,1\\}$، $Z_{i}$ برنولی با $p=\frac{1}{2}$ و $\boldsymbol{X}$ دارای توزیع دیریکله با پارامترهای $\alpha_{1}=...=\alpha_{n است. }=1$ و $\boldsymbol{Z}$ و $\boldsymbol{X}$ مستقل هستند. برای محاسبه چند اطلاعات $\boldsymbol{U}$، از استقلال $\boldsymbol{Z}$ و $\boldsymbol{X}$ استفاده می‌کنم تا \begin{eqnarray*} I\left[\boldsymbol{ U}\right] & = & I\left[\boldsymbol{Z}\right]+I\left[\boldsymbol{X}\right] = I\left[\boldsymbol{X}\right] \end{eqnarray*} چون ضرایب $\boldsymbol{Z}$ مستقل هستند. توزیع حاشیه ای توزیع دیریکله یک توزیع $\beta$ با پارامترهای $\alpha=1$ و $\beta=n-1$ است. بنابراین، آنتروپی حاشیه ای \begin{eqnarray*} H[X_{i}] & = & \log B(\alpha,\beta)-(\alpha-1)\psi\left(\alpha\right)- است. (\beta-1)\psi\left(\beta\right)+(\alpha+\beta-2)\psi(\alpha+\beta)\\\ & = & \log\frac{\Gamma\left(1\right)\Gamma\left(n-1\right)}{\Gamma\left(n\right)}-(n-2)\psi\left(n- 1\راست)+(n-2)\psi(n). \end{eqnarray*} آنتروپی این توزیع دیریکله خاص \begin{eqnarray*} H\left[\boldsymbol{X}\right] & = & \log\frac{\Gamma\left(1\right)^ است. {n}}{\Gamma\left(n\right)}=-\log\Gamma\left(n\right). \end{eqnarray*} بنابراین، اطلاعات چندگانه با \begin{eqnarray*} I\left[\boldsymbol{X}\right] & = & داده می‌شود. n\log\Gamma\left(n-1\right)-n\log\Gamma\left(n\right)-n(n-2)\psi\left(n-1\right)+n(n- 2)\psi(n)+\log\Gamma\left(n\راست). \پایان{eqnarray*}
چند اطلاعات یک متغیر تصادفی توزیع شده یکنواخت در کره L1
111684
دو سوال در رابطه با داشتن افکت های ثابت در مدل DD دارم. من درمانی دارم که در زمان‌های مختلف اتفاق می‌افتد (به عنوان مثال، 2001، 2005، و غیره). من می‌خواهم مدل DD را متناسب کنم، بنابراین سال‌های درمان را به سال 0 به عنوان زمان درمان استاندارد می‌کنم. برای کنترل ناهمگونی سال درمان، اثرات ثابت سال واقعی را وارد کردم. $y_{it} = \beta_0 + \beta_1 \text{Treat} + \beta_2 \text{After} + \beta_3 (\text{Treat $\cdot$ After}) + \eta (\text{Ear Fixed Effects} )+ \gamma C_{it} + \epsilon_{it}$ سوال 1: آیا این مدل مشکلی دارد؟ سوال 2: آیا مشکلی برای گنجاندن اثرات ثابت با زمان ثابت به این مدل DD وجود دارد؟ برای مثال، اگر جلوه‌های ثابت سطح i ($\alpha_i$) و/یا شاخص‌های گروهی از جلوه‌های ثابت i را وارد کنم (مانند مرد/زن یا نژاد) چه می‌شود؟ متوجه شدم که DD زمان ثابت i-lvl FE را لغو می‌کند، اما اگر دوباره آن را در اینجا وارد کنم، چه؟
تفاوت در تفاوت ها با اثرات ثابت
44677
از یک نظرسنجی من داده هایی در مورد سه سوال مشابه از نوع لیکرت دارم (مقیاس های 1 تا 5). از آنجا که سؤالات اساساً یک چیز را می پرسند، من می خواهم فقط میانگین (میانگین) نمره را در هر سه سؤال گزارش کنم*. چگونه حاشیه خطا را برای آن محاسبه می کنید؟ * آیا فقط داده های هر سه سؤال را با هم جمع می کنید؟ اما پس از آن شما به طور موثر حجم نمونه خود را سه برابر می کنید و یک حاشیه خطا نسبتاً کمی دریافت می کنید. * آیا ابتدا میانگین سه پاسخ را برای هر پاسخگو محاسبه می کنید و سپس حاشیه خطا را محاسبه می کنید؟ اما آیا این انحراف معیار شما را کاهش می دهد؟ * آیا از بین سه سوال بیشترین حاشیه خطا را می گیرید؟ جایی شنیدم که یکی معمولاً بیشترین حاشیه خطا را گزارش می کند. آیا در این مورد صدق می کند؟ * یا چیز دیگری است؟ پیشاپیش از هر راهنمایی ممنونم *PS: من از بحث در مورد برخورد با داده های نوع لیکرت به عنوان متغیرهای پیوسته اطلاع دارم. در این مورد من چاره ای جز پذیرش آن ندارم.
حاشیه خطا برای میانگین چندین سوال در مقیاس لیکرت
44676
من داده های خود را با استفاده از بسته nlme تنظیم می کنم. نحو به شرح زیر است: model<-lme(بازده انرژی ~ADF + CP + DE، تصادفی =~1| مطالعه، داده = phuong). کسی میتونه به من بگه چطور R-squared این مدل رو پیدا کنم؟ من بسته lmmfit الکساندرا ماج (2011) را پیدا کردم: اما چندین تابع برای تخمین R-squared وجود دارد. میشه لطفا بگید کدوم رو اپلای کنم fm2<-lme(Eeff~ADF+CP+DE+ADF2+DE2، تصادفی=~1|Study,data=na.omit(binh)) خلاصه(fm2) مدل خطی با جلوه های مختلط برازش داده های REML: na.omit (binh) AIC BIC logLik 888.6144 915.1201 -436.3072 اثرات تصادفی: فرمول: ~1 | Study (Intercept) Residual StdDev: 3.304345 1.361858 اثرات ثابت: Eeff ~ ADF + CP + DE + ADF2 + DE2 Value Std.Error DF t-value p-value (Intercept) -0.66390 18.301-18.8 0.9720 ADF 1.16693 0.424561 158 2.748556 0.0067 CP 0.25723 0.097524 158 2.637575 0.0092 DE -36.01211538 -3.000046 0.0031 ADF2 -0.03708 0.011014 158 -3.366625 0.0010 DE2 4.77918 1.932924 158 2.472513 0.472513 ADFIn 0.014 ADF -0.107 CP -0.032 0.070 DE 0.978 -0.291 -0.043 ADF2 0.058 -0.982 -0.045 0.250 DE2 -0.978 0.308 0.039 -0.99 - استاندارد شده در 0.99G Q1 Med Q3 Max -2.28168116 -0.45260885 0.06528363 0.57071734 2.54144168 تعداد مشاهدات: 209 تعداد گروه ها: 46
R-squared مدل مختلط با استفاده از بسته lmmfit
8551
منحنی را که فقط نیمه اول منحنی زنگوله است چه می نامید. برای مثال، فرض کنید در یک منحنی زنگ معمولی نمرات حروف، تعداد کمی از دانش‌آموزان نمرات F را می‌گیرند، اکثراً نمرات C و فقط تعداد کمی نمره A می‌گیرند. من منحنی می خواهم که نیمه اول منحنی زنگ باشد تا چند دانش آموز نمره F را بگیرند و رایج ترین نمره نمره A باشد. (در واقع این کار را برای نمره دادن انجام نمی دهم. این فقط مثالی است که به ذهنم رسید.)
فقط نیمه اول منحنی زنگ را چه می نامید؟
108925
کد زیر پیش بینی 24 ساعت آینده قیمت برق من را با دو متغیر برون زا نشان می دهد. مشکل من این است که نمی دانم چگونه برای 3 روز آینده یا بیشتر پیش بینی کنم زیرا برای مثال وقتی می خواهم قیمت های روز دوم را پیش بینی کنم باید 24 ساعت اول را در نظر بگیرم (25-48). ). و زمان ساختگی ها و متغیرهای من نیز باید در گام های 24 ساعته رشد کند. من می دانم که یک حلقه یک راه حل است اما نمی دانم چگونه حلقه را ایجاد کنم. امیدوارم متوجه مشکل من شده باشید. مشکل بعدی من این است که باید با این داده ها یک شبکه عصبی ایجاد کنم. آیا کسی می تواند به من راهنمایی کند که چگونه این کار را انجام دهم؟ با تشکر از کمک شما =) tm1 <- (25:6552) arma.model = auto.arima(price$Price[tm1],start.p=5,start.q=5,max.p=5,max.q =5، xreg=cbind(sol.prod$Production[tm1],wind.prod$Production[tm1]، price$Price[1:6528])، trace=TRUE، stationary=TRUE) arma.model PriceForecast = پیش بینی(object=arma.model,n.ahead=24، xreg=cbind(sol.prod$Production[tm1]، wind.prod$Production[tm1]، price$Price[1:6528])، newxreg=cbind(sol.prod$Production[6553:6576],wind.prod$Production[6553:6576]، price$Price[6529:6552]))
مدل آریما - پیش بینی چند مرحله ای
59604
خوب، ممکن است این یک سوال احمقانه به نظر برسد و مطمئناً چنین احساسی دارد. و من احتمالاً با فکر کردن بیش از حد به آن یا چیزی دیگر، خودم را گم کرده‌ام، اما در اینجا آمده است: در آزمون C کوهران، نسبت بین بزرگترین واریانس در مجموعه‌ای از جمعیت‌ها تقسیم بر مجموع همه واریانس‌ها را می‌گیرید. این نسبت آمار آزمایشی است که برای آن می توانید مقادیر p جدول بندی شده را جستجو کنید و H_0$ را رد یا قبول کنید. این مستقیماً از نمونه‌هایی از یک کتاب (A.J. Underwood، _Experiments in ecology_) ناشی می‌شود. $H_0 = $ واریانس جمعیت برابر است $H_1 =$ واریانس ها ناهمگن هستند $\text{If: } P_{observed} < P_{critical} \rightarrow \text{Accept } H_0 $ در یک ANOVA $H_0$ برابر است که دو (یا هر تعداد) جمعیت مقایسه شده دارای واریانس های مساوی هستند، بنابراین مخالف منطقی $H_1$ هستند. (که حداقل دو میانگین تفاوت قابل توجهی دارند). با توجه به درس من و مثال های زیاد: $\text{If: }P_{مشاهده} < P_{critical} \rightarrow Reject \space H_0. $ این اصلا منطقی نیست، لطفا به من بگویید کجا اشتباه می کنم! PS. من سعی کردم برای یافتن پاسخ به اطراف جامعه نگاه کنم، اما مایلم این موضوع خاص توضیح داده شود. DS
سردرگمی در مورد مقادیر P
41117
من سعی می کنم بفهمم که چه نوع تجزیه و تحلیلی به من نتایجی را می دهد که به دنبال آن هستم. من 4 مغازه دارم و سعی می کنم بفهمم ویژگی های معمولی (به احتمال زیاد) مشتری آن 4 مغازه چیست و آیا تفاوت دارند یا خیر. داده ها به این شکل خواهند بود (فقط با پارامترهای بیشتر): نام مشتری، سن، جنسیت، فروشگاه آقای X، 20، مرد، فروشگاه 1 خانم Y، 40، زن، فروشگاه 3 و غیره...
رویکرد تحلیلی خوب برای یک مشکل
76682
فرمول $t$ در آزمون فرضیه به صورت زیر ارائه می‌شود: $$ t=\frac{\bar{X}-\mu}{\hat \sigma/\sqrt{n}}. $$ هنگامی که $n$ افزایش می یابد، $t$-value مطابق فرمول بالا افزایش می یابد. اما چرا با افزایش $\text{df}$ (که تابعی از $n$ است)، مقدار بحرانی $t$-در جدول $t$-کاهش می‌یابد؟
هنگامی که n افزایش می یابد، مقدار t در آزمون فرضیه افزایش می یابد، اما جدول t دقیقا برعکس است. چرا؟
112926
من از ویندوز XP استفاده می کنم و اخیراً به R 3.1.1 ارتقاء دادم و همه بسته ها را به روز کردم. عجیب است، من دیگر نمی توانم lmer را روی داده های خودم اجرا کنم. کد من زمانی کار می کرد که از R 2.15 استفاده می کردم. من همچنین سعی کردم از مجموعه داده sleepstudy در بسته lme4 استفاده کنم، و همه چیز خوب کار کرد. من به تغییر تعداد نهال در 16 کرت (8 در تیمار با تنوع بالا، 8 در تیمار با تنوع کم) در 6 تاریخ نگاه می‌کنم. در اینجا ساختار قاب داده است: >str (Dataset) 'data.frame': 96 obs. از 5 متغیر: Plot : Factor w/ 16 level 10B,12A13B...: 12 13 14 15 16 1 2 3 4 5 ... Trt : Factor w/ 2 level high, کم: 2 1 1 2 1 2 1 2 2 1 ... تاریخ : فاکتور با 6 سطح Apr-12, Apr-13،..: 1 1 1 1 1 1 1 1 1 1 ... Seed : int 0 0 2 7 1 0 8 0 2 5 ... سعی کردم کامل اجرا کنم مدل با تاریخ و تیمار به عنوان عوامل ثابت و نمودار به عنوان عامل تصادفی: > دانه <- lmer(Seed~Trt*Date+(1|Plot), Dataset) اما من همچنان این خطا را دریافت می کنم: خطا در get(ctr, mode = function, envir = parent.frame()) : object 'contr.Treatment' از حالت 'function' یافت نشد. من سعی کردم یک مدل ساده شده را فقط با درمان و نمودار یا فقط تاریخ و نمودار اجرا کنم، و همچنان همان خطا را دریافت می کنم. آیا هنگام وارد کردن داده ها به R کار بدی انجام دادم؟ هیچ ایده ای دارید که من چه کار اشتباهی انجام می دهم؟
مشکلات در اجرای lmer پس از ارتقاء به R 3.1.1
88572
من در مدلسازی چند سطحی کاملاً تازه کار هستم. من اولین مراحلم را با استفاده از بسته lme4 انجام می دهم. من یک ساختار داده تودرتو سه طرفه دارم (به عنوان مثال شهرها، افراد، آزمون های فردی). هم شهرها و هم افراد به عنوان فاکتور کدگذاری می شوند (به عنوان مثال cityA، cityB و غیره و 1 نشان دهنده شخص A است). سوال زیر مطرح می‌شود: من می‌خواهم مدلی را تخمین بزنم که در آن تست‌های فردی در افرادی که خودشان در شهرهای مختلف تودرتو هستند، قرار می‌گیرند. هدف من تخمین مدلی با شیب های تصادفی تو در تو برای افراد و شهرها است. در مورد ترتیب افکت های تصادفی مطمئن نیستم. آیا «(1|شهرها/افراد)» یا «(1|افراد/شهرها)» است. پیشاپیش سپاس فراوان! با احترام
lme4 مشخصات مدل اثرات تصادفی متقاطع
97896
من خطای تولید شده توسط اپراتورهایی که برش های مسطح را تحت سیستم های هدایت کننده مختلف انجام می دهند را اندازه گیری می کنم. من یک صفحه هدف را تعریف می کنم و سپس فاصله اقلیدسی را از نقاط نمونه برداری یکنواخت در صفحه هدف تا صفحه اجرا شده اندازه گیری می کنم. از آنجایی که صفحه هدف مرجع سیستم مختصات من است، آن را به عنوان صفحه $xz$ در $\mathbb{R}^3$ تعریف می‌کنم. صفحه اجرا شده $E$ به صورت $ax + توسط + cz + d=0$ با $b \neq 0$ تعریف می‌شود و با توجه به اینکه من نقاط را از $xz$ نمونه‌برداری می‌کنم و آنها را به $E$ و سپس $ می‌دهم. b$ هرگز نمی تواند $0$ باشد. سپس $E$ را می توان به صورت $y = -\frac{a}{b}x - -\frac{c}{b}z -\frac{d}{b}$ با $x \sim \mathcal{ بازنویسی کرد. U}(x_{min}، x_{max})$ و $z \sim \mathcal{U}(z_{min}، z_{max})$. البته، ابزار برش نیز مقداری (شاید معمولی) نویز تولید می کند که روی $y$ تأثیر می گذارد. متغیر تصادفی $y$ به طور معمول توزیع نمی شود (من آن را آزمایش کرده ام و برخی از نمودارهای qq آن را رسم کرده ام). من 2 سیستم هدایت کننده مختلف دارم و باید آزمایش کنم که آیا آنها با روش اندازه گیری توصیف شده در بالا تفاوت قابل توجهی دارند یا خیر. کدام روش را برای آزمایش فرضیه خود به من توصیه می کنید؟ ![یکی از روش ها به رنگ زرد، دیگری به رنگ سبز. من سعی می کنم نشان دهم که روش سبز بهتر است](http://i.stack.imgur.com/1tC4a.png) با تشکر!
آزمون فرضیه برای داده های غیر عادی
111068
من اهل پیشینه اقتصاد سنجی نیستم و از این رو با کتاب های درسی که ممکن است دارای میانگین متحرک بزرگ و مدل رگرسیون خودکار باشند آشنا نیستم. من مدل AR را از پردازش سیگنال تطبیقی ​​Simon Haykin پیدا کرده‌ام، اما مرتبه 2 است. من به دنبال یک مدل AR و MA بزرگ یا سفارش ترجیحاً بزرگتر از 10 هستم. متشکرم
مرجع برای مدل میانگین متحرک درخواست شده است
8771
با توجه به یک فاکتور با تعدادی سطوح، مثلاً نسخه های یک بنر تبلیغاتی در یک صفحه وب، که در آن اندازه گیری علاقه نرخ کلیک است (# کلیک / # دفعاتی که افزودن بنر مشاهده شده است)، آیا اصولی وجود دارد. روشی برای تعیین بهترین عملکرد تبلیغاتی، کنترل تست های متعدد؟ مقایسه‌های چندگانه Hsu با بهترین راه‌حل عالی به نظر می‌رسد (اما برای داده‌های پیوسته توزیع شده معمولی کار می‌کند). آیا کسی آنالوگ برای داده های پاسخ باینری می شناسد؟ ترجیحاً در R و ترجیحاً در زمینه glm که می‌توان متغیرهای کمکی را برای آن کنترل کرد. این آخرین قطعه حیاتی نیست، اما آزمایش به صورت تصادفی انجام می شود و یک وضعیت یک طرفه باید کافی باشد.
مقایسه چندگانه با داده های باینری: روش MCB Hsu
77959
Stata rreg و reg، قوی
30781
آیا می توانید از نمرات z مرکب در آزمون t اندازه گیری مکرر استفاده کنید؟
16513
من متوجه می شوم که هر زمان که نمودار تعاملی برای مثال یک آنالیز واریانس دو عاملی ساده می بینم، هیچ نوار خطایی وجود ندارد، فقط امتیاز برای میانگین تخمین زده شده است. آیا نمایش نوارهای خطا در نمودار تعامل برای ANOVA همیشه مناسب است؟ اگر بله چه زمانی می خواهید این کار را انجام دهید و چگونه محاسبه می شود؟ اگر نه چرا که نه؟
8777
در مطالعات ارتباط گسترده ژنوم: 1. اجزای اصلی چیست؟ 2. چرا از آنها استفاده می شود؟ 3. چگونه محاسبه می شوند؟ 4. آیا می توان مطالعات ارتباط گسترده ژنوم را بدون اجزای اصلی انجام داد؟ 5. آیا مجموعه داده‌های واقعی یا شبیه‌سازی‌شده‌ای وجود دارد که به‌طور رایگان در دسترس هستند و مرتبط با انجام مطالعات همبستگی گسترده ژنوم هستند؟
در مطالعات انجمن گسترده ژنوم، اجزای اصلی کدامند؟
40723
موازی بین LSA و pLSA
8774
تفاوت بین 'independence.test' در آزمون های R و CATT (کوکران و آرمیتاژ) چیست؟ این تست ها چگونه محاسبه می شوند؟ کجا و چگونه x=0.0 0.5 1.0 (مطالعات ژنتیکی) را برای هر دو آزمایش تعریف کنیم؟
تفاوت تست مستقل در R و آزمون روند کوکرین و آرمیتاژ چیست؟
47187
مقایسه ضرایب رگرسیون مدل ها با متغیرهای وابسته متفاوت
100609
من یک نظرسنجی گیرنده میکروداده و یک اهداکننده کلان (جمع) دارم. چگونه می توانم داده های (دسته ای باینری) را ترکیب کنم؟ تکنیک ها/نرم افزارهای تطبیق آماری که من با آنها آشنایی دارم، میکرو به میکرو هستند. علاوه بر این، یک جستجوی وب چیزی را نشان نداد (اما شاید عبارات من اشتباه بود). یک رویکرد (احتمالاً بیش از حد ساده شده / ساده لوحانه) این است: 1. ایجاد یک توزیع احتمال از پاسخ اهداکننده مورد نظر، به متغیرهای مشترک (هماهنگ) مانند سن، درآمد، و غیره... 2. پاسخ دهنده در گیرنده که بیشترین مطابقت با نمایه اهداکننده X (به عنوان مثال: نزدیکترین همسایه) به پاسخ بله با احتمال X (بر اساس #1) اختصاص داده می شود. هر گونه اشاره، نظر در مورد بالا، مراجع و نرم افزار (R یکی خوب است) بسیار قدردانی می شود.
77955
مقایسه دو وسیله
47189
چگونه می توان اهمیت تفاوت بین دو امتیاز z را تعیین کرد؟
44090
اگر درست به خاطر بیاورم، اگر جامعه نرمال است، اگر نمونه ای به اندازه n از آن بگیریم، می توانیم از آزمون Chi-Square برای واریانس استفاده کنیم تا ببینیم واریانس نمونه ما مقدار از پیش تعیین شده ای دارد یا خیر. آیا آزمون معادلی وجود دارد که بتوانیم در صورتی که جمعیت نرمال نیست اجرا کنیم؟
آنالوگ آزمون مربع چی برای واریانس برای جمعیت های غیر عادی
44091
من سعی می‌کنم با بهینه‌سازی یک تابع هدف، توزیع احتمال $Q$ را القا کنم و در تعجبم که چگونه می‌توان پراکندگی را برای $Q$ تشویق کرد در حالی که بهینه‌سازی محدب را حفظ کرد. به طور خاص، توزیع‌های $m$ وجود دارد: $q_i$ برای $i=1... m$، که در آن هر $q_i$، مثلاً، در یک سیمپلکس 10 بعدی قرار دارد. با توجه به مشاهدات خاصی، $Q=\\{q_1,...,q_m\\}$ را به صورت $F(Q) = \min_{q_i, i=1...m} \sum_i f(q_i)$ یاد می گیریم جایی که $f$ محدب است. این همه خوب و خوب است. اکنون، ما همچنین می‌خواهیم پراکندگی را برای $q_i$ تشویق کنیم، یعنی می‌خواهیم بیشتر احتمالات درون $q_i$ صفر باشد. من نمی‌دانم که آیا می‌توان برای $q_i$ تنظیم کرد تا با حفظ محدب بهینه‌سازی، به این امر دست یابیم.
اعمال پراکندگی بر روی احتمال
95007
من داده ها را برای 3 سال جمع آوری کردم و با مشکل همبستگی سریال مواجه شدم. برخی از کتاب ها به مشکل همبستگی سریال هنگام ادغام داده ها اشاره می کنند. سوال من این است: آیا امکان تست همبستگی سریال با داده های تلفیقی وجود دارد؟ همچنین در استفاده از مدل اثرات ثابت و مدل اثرات تصادفی آیا همبستگی سریال مشکل دارد؟ اگر بله، آیا می توان بررسی کرد که آیا همبستگی سریال وجود دارد؟ اگر همبستگی سریال وجود داشته باشد می توانم از دستور زیر در Stata استفاده کنم: vce(cluster id). اگر از این دستور استفاده کنم، هتروسکداستیکی بودن را هم تصحیح می کنم؟
چگونه همبستگی سریال را با OLS، FE و RE آزمایش کنیم؟
81251
من مفاهیم را بیشتر با تجسم می فهمم. بنابراین من یک نمودار ون برای متغیرهای تصادفی مستقل، غیرهمبسته و متعامد آماری ساختم. اما من در سردرگمی هستم که کدام یک از نمودار ون زیر درست است. نمودار ون-A یا ون نمودار-B؟ یا اشتباهی در تصویر وجود دارد. همچنین در اینجا مورد دو متغیر تصادفی در نظر گرفته شده است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/li9mg.jpg)
44099
فرض کنید $X$ و $Y$ دو توزیع عادی مستقل با توجه به $X\sim\mathcal{N}(0,P)$ و $Y\sim\mathcal{N}(0,Q)$ باشند. آیا گفتن موارد زیر درست است؟ 1. $\mathbb{E}[XY]=\mathbb{E}[X]\mathbb{E}[Y]=0$ 2. $\mathbb{E}[X^2Y]=\mathbb{E} [X^2]\mathbb{E}[Y]=0$ 3. $\mathbb{E}[XY^2]=\mathbb{E}[X]\mathbb{E}[Y^2]=0 $ 4. $\mathbb{E}[X^2Y^2]=\mathbb{E}[X^2]\mathbb{E}[Y^2]=PQ$
محصول متغیرهای گاوسی مستقل
44098
ممکن است سوال من کمی مبهم و احتمالاً خیلی گسترده به نظر برسد. به این دلیل است که من انتظار پاسخ مستقیم ندارم. من بخشی از دکترای خود را در جایی که نیاز به تجزیه و تحلیل یک پیش‌بینی بلندمدت قابلیت اطمینان داشتم، شروع می‌کنم. با این حال، پس از بررسی اولیه (با نام مستعار جستجو در پایگاه داده های مختلف، و همچنین جستجو در گوگل) هیچ مقاله آماری برای تجزیه و تحلیل سوال پیش بینی رفتار بلند مدت یک متغیر تصادفی پیدا نکردم. البته، بلندمدت وابسته به مشکل است، اما من به دنبال منابعی هستم که در آن سؤالاتی مانند «پیش‌بینی‌های بلندمدت چقدر معقول هستند»، «چگونه برآوردگرها را در پیش‌بینی‌های بلندمدت مقایسه کنیم»، «چه روش‌هایی در ارائه طولانی‌مدت معقول شکست می‌خورند». پیش‌بینی‌های مدت»، «پیش‌بینی بلندمدت بیزی در مقابل مکررگرا». هر نظر یا ارجاع به مقاله ای در این زمینه برای من بسیار جالب خواهد بود.
پیش بینی های بلند مدت
66516
معنی طراحی در ماتریس طراحی؟
103953
PCA روی داده های باینری
35959
CDF در یک شبیه سازی گسسته (کتاب جری بانک)
87555
مقیاس بندی متغیر به عقب در HMM Baum-Welch
16514
چرا این نمودار احتمال معمولی به درستی منحرف است؟
93949
من درآمد خالص 81 شرکت را در یک سال دارم و با درآمد خالص همان 81 شرکت 3 سال بعد مقایسه می کنم. چگونه می توانم مقایسه کنم (تفریق ساده میانگین ها یا آزمون t؟)، و چگونه بفهمم که از نظر آماری معنی دار است؟
80536
ANCOVA در مطالعات مشاهده ای: مفروضات چیست؟
103956
وقتی داده ها نامتعادل (اما نامحدود) هستند چگونه با شبکه های عصبی برخورد کنیم؟
12602
چرا راه‌اندازی باقیمانده‌ها از یک مدل اثرات مختلط، فواصل اطمینان ضد محافظه‌کاری را به همراه دارد؟