_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
93830
من در آزمون استعداد مصاحبه شغلی برای تفکر انتقادی به سوالی برخورد کردم. چیزی شبیه به این است: > جمهوری زورگانیان آداب و رسوم بسیار عجیبی دارد. زوج‌ها فقط آرزو دارند بچه‌های دختر داشته باشند، زیرا فقط زن‌ها می‌توانند ثروت خانواده را به ارث ببرند، بنابراین اگر فرزند پسر داشته باشند، بچه‌های بیشتری داشته باشند تا زمانی که دختر داشته باشند. اگر دختر داشته باشند از بچه دار شدن منصرف می شوند. نسبت > دختر به پسر در زورگانیه چقدر است؟ من با پاسخ مدلی که سوال نویس داده است، یعنی حدود 1:1 موافق نیستم. توجیه این بود که هر تولدی همیشه 50 درصد احتمال دارد که مرد یا زن باشد. آیا می‌توانید با یک پاسخ ریاضی قوی‌تر $\text{E}[G]:\text{E}[B]$ من را متقاعد کنید اگر $G$ تعداد دختران و B تعداد پسران در کشور باشد؟
تعداد مورد انتظار نسبت تولد دختر به پسر
57545
من در حال انجام یک آزمون معناداری بر روی نمره افزایش بین یک پیش آزمون (مثلا Y1) و یک پس آزمون (مثلا Y2) برای یک گروه درمانی و یک گروه کنترل هستم. اجازه دهید یک پیشینه مختصر در مورد آزمایش ارائه کنم. مشتری من با گروه بزرگی از مدارس برای بهبود سطح یادگیری بچه ها در ریاضی کار می کند. از این گروه بزرگ 653 دانش آموز در پیش آزمون مورد آزمایش قرار گرفتند. همچنین یک گروه کنترل شامل 213 دانش آموز بود که آنها نیز مورد آزمایش قرار گرفتند. پس از آن گروه مداخله تحت آموزش های ویژه (مداخله) همراه با کلاس های منظم قرار گرفت. و گروه کنترل فقط کلاس های منظمی داشتند. حدود 6 ماه بعد، یک پس آزمون انجام شد. اما این بار 739 دانش‌آموز (مجموعه‌ای از دانش‌آموزان گروه مداخله، ممکن است مقداری همپوشانی داشته باشند) از گروه مداخله و 210 دانش‌آموز (تقریباً همان گروه پیش‌آزمون) از گروه کنترل مورد آزمایش قرار گرفتند. مشکلی که من با آن روبرو هستم این است که چگونه می توان یک آزمون معنی داری در مورد تفاوت بین امتیازات افزایشی انجام داد. در اینجا روشی است که من قصد دارم از آن استفاده کنم. از آنجایی که من نمونه‌های بزرگی را از گروه مداخله و گروه کنترل برای پیش‌آزمون نمونه‌برداری می‌کنم، و تخمین‌هایی برای میانگین و SD دارم، CLT یک توزیع نرمال برای پیش‌آزمون هم برای مداخله و هم برای کنترل به من می‌دهد. همین استدلال در مورد پس آزمون نیز صدق می کند. حالا فرض می‌کنم اجراهای پیش و پس آزمون مستقل هستند. اکنون می توانم نرمال های Pre و Post test را برای ایجاد یک توزیع نرمال جدید برای Y2-Y1 ترکیب کنم. همان استدلال دوباره برای کنترل نیز صدق می کند. اکنون می‌خواهم از آزمون t ولش برای بررسی معنی‌داری آماری بین گروه‌ها استفاده کنم. اما من درجات آزادی و تعداد مشاهدات را هم برای مداخله و هم برای کنترل ندارم. من از معادله Welch-Satterthwaite برای بدست آوردن درجه آزادی برای هر گروه استفاده می کنم و سپس یکی را برای بدست آوردن تعداد مشاهدات اضافه می کنم. بعد از این می توانم تست t-Welch را اعمال کنم. وقتی این کار را انجام می‌دهم، مقادیر آمار t بسیار بالایی دریافت می‌کنم، بنابراین مطمئن نیستم که آیا آن را به روش درست انجام می‌دهم یا نه. لطفاً یکی به من بگوید که آیا منطق من نقصی دارد؟
آزمون معناداری بین نمرات افزایشی گروه مداخله و گروه کنترل
32348
من سعی می کنم سطح (ایزوکرون)، $z_i(x)$ را که برای آن $T(x,z)=0$ از اندازه گیری های پر سر و صدا $T(x,z)$ در همه جا و 3 نقطه کنترل تقریباً بدون نویز تخمین بزنم: ![isochrone](http://i.stack.imgur.com/6eDJG.png) به جای استفاده مستقیم از داده های $T(x,z)$، ابتدا گرادیان را تخمین می زنم: $T_x$ و $T_z$ با تفاوت های محدود در $T(x,z)$. من اکنون دو pde برای حل دارم: $ \frac{\partial}{\partial x}T=T_x, \frac{\partial}{\partial z}T=T_z$ دوباره با استفاده از تفاوت های محدود عملگرهای مشتق را به صورت ماتریس بیان می کنم. : $\ D_x T=T_x، D_z T=T_z $ که در آن $T_x$ و $T_z$ اکنون بردارهای ستونی هستند که با به هم پیوستن همه ستون های ماتریس های مربوطه خود به صورت عمودی، و $D_x$ و $D_z$ ماتریس هایی هستند که وقتی با بردار $T$ ضرب شوند، مشتق جزئی را با توجه به x و z به دست می دهند. علاوه بر این pde معادلاتی برای 3 نقطه کنترل نیز دارم: $ T(xc_i,zc_i)=0$ (وزن دار) حداقل مربعات خطا (LSE) چارچوبی است که به من امکان می دهد داده های معین و نامطمئن را با هم ترکیب کنم. معادلات خطی من (وزن دار) اکنون عبارتند از: $\ D_x T=T_x $ $\ D_z T=T_z $ $\ \alpha T(xc1,zc1) = 0$ $\ \alpha T(xc2,zc2) = 0$ $ \ \alpha T(xc3,zc3) = 0$ جایی که $\ \alpha $ را معرفی کردم: پارامتری که تعیین می کند نقاط کنترل چقدر هستند نسبت به اندازه گیری های $T(x,z)$ تجلیل شد. **آیا راهی برای تخمین $\alpha$ یا بیان آن به عنوان یک عبارت بصری تر وجود دارد؟** تا کنون فقط این پارامتر را تنظیم کرده ام و به صورت تکراری افست های نقاط کنترل را مقایسه کرده ام. خوب است که راه دیگری برای تنظیم این داشته باشید، به عنوان مثال. max مجاز z offset از نقطه کنترل به isochrone حاصل. **آیا آماردانان راه دیگری به جز LSE برای ترکیب داده های قطعی و نامطمئن دارند؟** آیا بیز چنین روشی است؟ اگر چنین است پیشینی در مثال من چیست؟
استنتاج از ترکیبی از داده های نامشخص و معین
52999
من در تجزیه و تحلیل آماری بسیار تازه کار هستم و با داده هایم مشکل دارم. اساساً متغیرهای دسته بندی من عبارتند از: ساختارهای دستوری (چهار مورد) و زبان ها (پنج مورد). تعداد کل این ساختارها 1218 است. اگر ترجیح مشاهده شده توسط برخی زبانها برای ساختارهای دستوری خاص صرفاً به دلیل شانس تصادفی است یا بین آنها رابطه وجود دارد، می خواهم به سؤال تحقیق پاسخ دهم. من آزمایش کای دو را اعمال کردم و مقدار p زیر را به دست آوردم: 1.5168E-140 (مقدار chi-square = 692.813، به دلیل تفاوت بسیار زیاد بین فرکانس های مشاهده شده و مورد انتظار، و df = 12). من واقعاً از این نتیجه متحیر هستم. حدس من این است که داده ها بسیار پراکنده هستند و آزمون کای اسکوئر در اینجا ناسازگار است. بنابراین آیا این واقعاً به این معنی است که نمونه مغرضانه است یا اینکه پاسخ دادن به آن سؤال تحقیق خاص در ابتدا منطقی نیست؟ یا شاید باید از تست دیگری استفاده کنم؟ پیشاپیش ممنون
مشکل در تست $\chi^2$
74295
من به تازگی متوجه شدم که یادگیری ماشین نیز رگرسیون لجستیک را به عنوان یکی از روش های خود دارد. لطفاً کسی می تواند تفاوت بین رگرسیون لجستیک در آمار و یادگیری ماشین را به من بگوید؟ من اسلایدهای سخنرانی در مورد رگرسیون لجستیک را از یک دوره یادگیری ماشین دیده‌ام، اما نمی‌توانم تفاوتی با پوشش رگرسیون لجستیک در یک دوره آمار ببینم. آیا رگرسیون لجستیک در یادگیری ماشین نیازی به بررسی چند خطی بودن ندارد؟ دلیلی که این را پرسیدم این بود که سعی کردم یک مجموعه داده را از طریق تابع 'glm' R با logit دو جمله ای اجرا کنم و سپس همان مجموعه داده را از طریق 'trainlogistic' Apache Mahout اجرا کردم. اما ضرایب حاصل متفاوت است. این دستوری است که من در R استفاده می‌کنم: w1.glm <- glm(anw ~ cs, data = w1, family = دوجمله‌ای) این نتیجه summary(w1.glm) است: glm(formula = anw ~ cs، خانواده = دو جمله ای، داده = w1) باقیمانده انحراف: حداقل 1Q میانه 3Q Max -2.5400 0.1073 0.1924 1.0047 1.0047 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) 0.42077 0.02588 16.26 <2e-16 *** cs 1.89342 0.06427 29.46 <2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف صفر: 11762.5 در 10660 درجه آزادی انحراف باقیمانده: 925. 10659 درجه آزادی و این فرمان من است استفاده در Mahout: /usr/local/mahout/bin/mahout trainlogistic --input w1.csv --output ./model --target anw --categories 2 --predictors cs --types numeric --features 20 -- passes 100 --rate 50 اجرای روی هادوپ، با استفاده از /usr/local/hadoop/bin/hadoop و HADOOP_CONF_DIR= MAHOUT-JOB: /usr/local/mahout/mahout-examples-0.8-job.jar 20 anw ~ -19.553*cs + -7.512*Intercept Term cs -19.55265 Intercept Term -7.5100005 -7.510005 0.000000000 0.000000000 0.0000000000 0.000000000 0.0000000000 -19.552646543 0.000000000 0.0000000000000 0.000000000 0.000000000 0.000000000 -7.511546797 0.000000000 0.000000000 0.000000000 0.00000000000000 0.000000000 13/11/01 02:04:47 INFO driver.MahoutDriver: برنامه 22118 ms طول کشید (دقیقه: 0.36863333333333333) **ویرایش:** دلیل پرسیدن سوال را در عنوان اضافه کرد. دستورات مورد استفاده برای اجرای 'glm' در R و 'trainlogistic' در Mahout اضافه شده است.
تفاوت بین رگرسیون لجستیک در آمار و یادگیری ماشین
65928
وقتی یک عدد تصادفی را با استفاده از روش زیر تولید می کنم: set.seed(123) rnorm(1) می خواهم بدانم در این مورد دقیقا چه اتفاقی می افتد؟ آیا R از جدول اعداد تصادفی می خواند؟ 123 دقیقا به چه چیزی اشاره دارد؟ آیا امکان دسترسی به این جدول برای دیدن ظاهر آن وجود دارد؟
مولد اعداد تصادفی R دقیقا چگونه کار می کند؟
93839
اجازه دهید $y_t$ یک فرآیند تصادفی باشد و $\tau_t$ مدت زمان بین $t$ و $t-1$ را نشان دهد. ARMA(p,q,r) با متغیرهای برون زا به صورت: $$ y_t = \ varepsilon_t + \sum_{i=1}^p \alpha_i y_{t-i} + \sum_{i=1}^q \theta_i \varepsilon_{t-i} + \sum_{i=0}^b \eta_i \tau_{t-i}.\,$$ که در آن $\eta_1، \ldots، \eta_b$ پارامترهای ورودی خارجی $\tau_t$ و $\varepsilon_t$ یک نویز سفید است. # سوال 1: خوانده ام که اگر و فقط در صورتی که ریشه های چند جمله ای AR خارج از دایره واحد باشند، این فرآیند ثابت است، اما آن را نمی فهمم. وقتی مدل شامل متغیرهای برونزا نباشد، اثبات را می‌فهمم، اما زمانی که شامل متغیرهایی باشد، این کار را انجام نمی‌دهم. > > اگر برای مثال $p=q=1$ و $r=0$ مدل $$y_t = \alpha_0 + \alpha_1 > y_{t-1} + \tau_t + \varepsilon_t,$$ باشد، فرض کنید که فرآیند $y_t$ به معنای ثابت است، سپس $$E(y_t) = \mu,$$ برای همه t. سپس $$E(y_t) = \alpha_0 + \alpha_1 E(y_{t-1}) +E(\tau_t) \rightarrow \mu=\alpha_0 +\alpha_1\mu +E(\tau_t)\right arrow \mu = \frac{\alpha_0 +E(\tau_t)}{1-\alpha_1}. $$ بنابراین فرآیند به طور متوسط ​​ثابت است اگر و فقط $\alpha_1 \neq1$ و فرآیند $\tau_t$ به طور متوسط ​​ثابت است. میشه لطفا در این مورد به من کمک کنید # سوال 2: می خواهم بپرسم چرا می خواهیم یک سری زمانی ثابت / معکوس باشد؟ شهود پشت این چیست؟ عدم ایستایی چه پیامدهایی دارد. لطفاً هر مرجعی را برای روشن شدن این موضوع توصیه می کنید؟ همچنین اگر پارامترهای ناشناخته مدل را بدون اعمال محدودیت برای آنها تخمین بزنم، این روی نتایج من تأثیر می گذارد؟ به چه معنا؟
زمانی که یک مدل ARMAX ثابت است؟ چرا ایستایی یا برگشت ناپذیری لازم است؟
57543
من یک دانشجوی کارشناسی ارشد CS هستم و برای پروژه نهایی خود یک الگوریتم رگرسیون ایجاد کردم که برای مجموعه داده‌های مقیاس بزرگ مناسب است (نمی‌گویم «داده بزرگ»، اما همچنان در مقیاس بزرگ است). برای نتایج نهایی، من به دنبال الگوریتم‌های رگرسیون هستم که با موفقیت روی چنین مجموعه داده‌های بزرگی کار می‌کنند، بنابراین می‌توانم از آنها به عنوان پایه‌ای برای الگوریتم خود استفاده کنم. من برای برخی از ویژگی های خاص مجموعه داده محدودیتی ندارم، بنابراین الگوریتم باید کلی باشد. آیا کسی ایده ای برای مدل های رگرسیونی دارد که بتوانم استفاده کنم؟ ویرایش: برای روشن شدن: بهترین کار برای من این است که مقاله ای پیدا کنم که یک (یا چند) مدل رگرسیون و عملکرد آنها را در مجموعه داده های مقیاس بزرگ نشان دهد. اگر کسی بتواند به من به یک مجموعه داده عمومی شناخته شده اشاره کند (البته بزرگ است) بسیار مفید خواهد بود. ممنون از کمکت، نیر
الگوریتم‌هایی برای تحلیل رگرسیون که می‌توانند مجموعه‌های داده در مقیاس بزرگ را مدیریت کنند
57546
من مجموعه ای از شهرها را دارم که بر اساس چندین معیار رتبه 1-10 را دارند. درصدی از کل جمعیت ساکن در این شهرها را هم دارم. من می‌خواهم شهرهایی با جمعیت کمتر بتوانند با شهرهای بزرگ‌تر رقابت کنند، بنابراین می‌خواهم به درصد جمعیت وزنی بدهم که اندازه جمعیت کوچک‌تر را جبران کند. چگونه این کار را انجام دهم؟
چگونه به جمعیت کوچکتر وزن بیشتری بدهم؟
9839
من سعی می کنم یک الگوریتم پیش بینی برای مجموعه ای از داده های دما بنویسم. من روی Holt-Winters تصمیم گرفتم زیرا به نظر می رسید یک الگوریتم پیش بینی سری زمانی ساده است و به راحتی می توانم آن را در پایتون کدنویسی کنم تا بفهمم چه اتفاقی در آن می افتد. هنگامی که من تابع هموارسازی را ترسیم می کنم همانطور که یاد می گیرد اینگونه به نظر می رسد. همانطور که می بینید، به خوبی از منحنی اصلی پیروی می کند. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/bZtGz.png) اما وقتی می‌خواهم یک منحنی آینده را برای یک سال (365 روز) ترسیم کنم - واقعاً سقوط می‌کند و می‌میرد. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/7mwJP.png) و برای من به طور مستقیم منطقی است که چرا اینطور می میرد. زیرا اگر آخرین معادله پیش‌بینی Holt-Winters را ببینید، در واقع فقط از آخرین نقطه هم در هموارسازی منحنی و هم در هموارسازی روند استفاده می‌کند. و ما می دانیم که هموارسازی نمایی به دلیل کل چیز نمایی حافظه بسیار کوتاهی دارد. بنابراین من متعجبم که واقعاً چگونه می توان از Holt-Winters برای پیش بینی استفاده کرد (مخصوصاً برای داده های فصلی 365 روز مانند این). اگر روش دیگری را می شناسید که می توانم برای این دامنه (پیش بینی دما) بررسی کنم، لطفاً به من اطلاع دهید. من اهل پایتون هستم، بنابراین اگر بتوانید منابعی مانند کتابخانه ها و غیره را برای انجام کار به من معرفی کنید بسیار مفید خواهد بود.
پیش‌بینی سری‌های زمانی دما با Holt-Winters
65929
من در stackoverflow پرسیدم اما آنها به من پیشنهاد می کنند برای پاسخ های بهتر به اینجا بروم. سوال رو کپی پیست میکنم تصمیم دارم کمی با شباهت ها و خوشه بندی متن بازی کنم. من قبلاً ماتریس tf-idf و symmatrix شباهت ها را ایجاد کرده ام. اکنون می خواهم چیزی را برای خوشه بندی در گروه ها پیاده سازی کنم. من تحقیقی انجام دادم و کتابخانه های hcluster (خوشه بندی سلسله مراتبی) و k-means را پیدا کردم. کدام یک از این موارد از نظر دقت بهتر است؟ آیا راه بهتری سراغ دارید حتی اگر کتابخانه آماده ای وجود نداشته باشد؟ اگر الگوریتم را می دانستم می توانستم کد را بنویسم. همچنین این راه O(n^3) است. اگر بخواهم کمی دقت را فدای محاسبه زمان کنم، آیا چیزی برای پیشنهاد دارید؟
خوشه بندی متن با پایتون
26115
من جنگل تصادفی را در کدم پیاده‌سازی می‌کنم، متوجه می‌شوم که وقتی یک درخت می‌سازم، خطای oob (میانگین مربع خطا از آنجایی که رگرسیون انجام می‌دهم) نزدیک به صفر است، در حالی که درخت بیشتری ساخته می‌شود، خطای oob تثبیت می‌شود، این خلاف است. شهودی، از آنجایی که کتاب درسی به من می‌آموزد که با ایجاد درخت‌های بیشتر، خطای oob باید کاهش یابد، پیاده‌سازی خود را با R مقایسه می‌کنم، oob من کمی کمتر از R است، زمانی که mtree=1000، اما وقتی mtree=1، oob من نزدیک به صفر است، در حالی که R بسیار بزرگ است. به عبارت ساده، با رشد و تثبیت درختان بیشتر، oob من افزایش می یابد. R و کتاب متنی نشان می دهد که با ساختن درختان بیشتر و تثبیت اوب کاهش می یابد. بنابراین، آیا اجرای من مشکلی دارد؟ چگونه باید الگوریتم خود را تنظیم کنم؟
با افزایش درخت، خطای تصادفی جنگل افزایش می یابد
57540
فرض کنید دو مجموعه داده $\mathbf{X}$ و $\mathbf{Y}$ دارای همبستگی $\rho_0$ هستند. آیا می توان در مورد همبستگی بین $\mathbf{X}_1$ و $\mathbf{Y}_1$ و $\mathbf{X}_2$ و $\mathbf{Y}_2$ چیزی گفت که در آن $\mathbf{X} _1\cup \mathbf{X}_2=\mathbf{X}$ و $\mathbf{Y}_1\cup\mathbf{Y}_2 = \mathbf{Y}$ and $0<|\mathbf{X}_1| = |\mathbf{Y}_1|<|\mathbf{X}|$? از نظر عملی، آیا رابطه (یا محدودیت) بین $r$ و $r_1$ و $r_2$ در مثال زیر وجود دارد؟ df.0 # برخی قاب داده حاوی x و y df.1 <- df.0[df.0$x>5, ] df.2 <- df.0[df.0$x<=5, ] r < - cor(df.0$x، df.0$y) r1<- cor(df.1$x، df.1$y) r2<- cor(df.2$x, df.2$y) من به چیزی شبیه $r \leq \max\{|r_1|،|r_2|\}$ فکر می‌کنم. بسیار خوشحالم اگر وجود نداشته باشد!
روابط بین corr(x,y) و corr(x,y) در یک زیر مجموعه
112432
من در استفاده از آزمون t سردرگم هستم. من پارامترهای فیزیکی آب رودخانه را دو بار (از همان سایت) - در زمستان و تابستان پایش کردم. حالا می‌خواهم تفاوت فصلی را روی خواص فیزیکی ببینم، مثلاً دمای آب. آیا باید از آزمون تی نمونه مستقل استفاده کنم. یا تست تی زوجی؟؟
آزمون t بر روی اثرات فصلی بر کیفیت آب
57548
سایت عالی من داده‌های معاملات ماهانه را برای نحوه تأمین مالی کشتی‌های جدید از 2005 تا 2012 جمع‌آوری کرده‌ام. داده ها شامل معاملات انجام شده توسط شرکت های حمل و نقل مختلف و مبلغی است که در هر معامله جمع آوری شده است. معاملات می تواند به دسته های زیر تقسیم شود: وام های بانکی، اوراق قرضه، IPOs و FO. وام های بانکی بهترین گزینه تامین مالی بوده است که 70 تا 80 درصد از کل سرمایه جذب شده قبل از سال 2008 را تشکیل می دهد. بنابراین من به دنبال انجام یک تحلیل سری زمانی هستم تا ببینم آیا یک شکست ساختاری (چو تست) در استفاده از وام های بانکی وجود داشته است یا خیر، و اینکه آیا سایر اشکال تامین مالی مانند اوراق قرضه، IPOs و FOs پس از بحران مالی افزایش یافته است. 2008). سوال من این است که آیا برای اثبات شکست ساختاری باید برای هر متغیر یک تست چو انجام دهم یا می توانم به نوعی همه متغیرها را در یک تحلیل ترکیب کنم؟ پیشاپیش متشکرم
چاو چند متغیر را تست کنید
57549
من یک رگرسیون خطی چند متغیره را با R انجام می‌دهم، و خودم را با باقیمانده‌های زیر در مقابل نمودار برازش می‌بینم: ![plot](http://i.stack.imgur.com/1azOo.png) همانطور که می‌بینید وجود دارد یک خط بسیار منظم از نقاط که به نظر می رسد از یک الگوی دقیق پیروی می کند. **سوالات من این است:** 1. چگونه چنین رفتاری را تفسیر کنم، و برای رفع آن چه کاری می توانم انجام دهم؟ 2. آیا راهی برای جداسازی/استخراج آن نقاط وجود دارد؟ می‌خواهم در مجموعه داده‌هایم به آنها نگاهی بیندازم تا ببینم آیا با بررسی آنها متوجه برخی الگوها در داده‌ها می‌شوم یا خیر. **اطلاعات اضافی:** مدل من این است: v.lm = lm(sqrt(v.stima$Y)~., data=v.stima) Y یک متغیر شمارشی (عدد صحیح غیر منفی) است. من از sqrt استفاده می کنم زیرا بدون آن طرح دارای شکل معمولی قیف است که نشان دهنده یک خطای غیر همسان است.
تفسیر باقیمانده ها در مقابل نمودار برازش و استخراج نقاط
90039
در چه نقطه ای می توان نمونه های بسیار بزرگ را به عنوان نسبتی از جمعیت به عنوان سرشماری در نظر گرفت؟ به عنوان مثال، اگر نمونه شما شامل 90 درصد واحدهای جامعه باشد، آیا می توان از استنباط های آماری استنباطی صرف نظر کرد؟ 80 درصد چطور؟ و غیره. . ..
چگونه باید از نمونه های بسیار بزرگ استفاده کرد؟
112433
من یک مجموعه داده متشکل از دو گروه دارم که طی سه روز آزمایش شده است. بنابراین من یک مدل ترکیبی خطی را به صورت زیر اجرا می‌کنم: «model1 = lme(پاسخ ~ روز*گروه، تصادفی=~1|ID، داده)»، که یک تعامل مهم را نشان می‌دهد. می‌خواهم بدانم که آیا تفاوتی بین گروه‌ها در تفاوت آنها نسبت به D1-D2، D2-D3، و D1-D3 وجود دارد، و به طور بالقوه چگونه گروه‌های 1 و 2 در هر یک از روزها متفاوت هستند. از آنجایی که می‌دانم تنها می‌توان کنتراست (n-1) را انجام داد، در ابتدا فقط کنتراست‌ها را برای دو مقایسه اول اجرا کردم، Contrasts(data$day) = t(ginv(c(-1,1,0),c( 0,-1,1))`(گروه نیازی به کنتراست نداشت زیرا فقط دو مورد وجود داشت) که خروجی را برای D1D2GR1 در مقابل D1D2GR2 و D2D3GR1 در مقابل نشان داد D2D3GR2 سپس در مورد گزینه ایجاد یک متغیر جدید که دو متغیر دیگر را ترکیب می کند (به نام newvar با D1G1، D2G1، D3G1، D1G2، D2G2، D3G2 به عنوان سطوح) خواندم تا بتوان تضادهای سفارشی بیشتری ایجاد کرد: D1D2 = c(-1،1،0،-1،1،0) D2D3 = c(0,-1,1,0,-1,1) D1GR = c(-1,0,0,1,0,0) D2GR = c(0,-1,0,0,1,0) D3GR = c(0,0,-1,0,0,1) کنتراست ماتریس = cbind(D1D2,D2D3,D1GR,D2GR,D3GR) تضادها(data$newvar) = t(ginv(contrastmatrix)) model2 = lme(response ~ newvar, random=~1|ID, data) **سوال 1:** آیا هر دو روش برای گرفتن کنتراست مناسب هستند و به روش صحیح انجام می شوند **سوال2:*؟ * آیا راهی برای به دست آوردن سه تضاد وجود دارد 1) D1D2GR1 در مقابل D1D2GR2; 2) D2D3GR1 در مقابل D2D3GR2; و 3) D1D3GR1 در مقابل D1D3GR2 مستقیماً از متغیر جدید؟ از آنجایی که من 6 سطح دارم، انجام این سه تضاد فقط نباید امکان این کار را داشته باشد؟ **سوال3:** اگر بخواهم تست های بعد از عمل مشابه کنتراست ها را اجرا کنم، چگونه می توانم این کار را برای مدل اول انجام دهم؟ و آیا اجرای آن برای مدل با 'newvar' به شکل زیر درست است؟ به عبارت دیگر، آیا تضادها این کار را روی ماتریس معکوس تعمیم یافته انجام می دهند و آزمایشات پس از آن روی ماتریس معکوس غیر تعمیم یافته انجام می دهند؟ glht(model2, linfct = mcp(newvar = t(contrastmatrix))) **سوال4:** در نهایت، من می خواهم اندازه افکت ها را برای افکت های مشاهده شده دریافت کنم. آیا درست است که برای تضادها بتوانم این را با «r = r<-sqrt(t^2/(t^2 + df))» با مقادیر t و df از خروجی دریافت کنم؟ چگونه می توانم این را از روی مقادیر z از خروجی post hoc محاسبه کنم؟ مقادیر z تقریباً دقیقاً مشابه مقادیر t هستند.
تضادهای خاص در مدل ترکیبی با تعامل
113227
من از GEE ها در SPSS 22 برای تجزیه و تحلیل داده های پایان نامه خود استفاده کرده ام و یک مشکل جالب را کشف کرده ام: زمانی که سعی می کنم بفهمم کدام زیرمجموعه از عوامل مدل دارای کمترین QICc هستند و بنابراین بهترین تناسب را با داده های من دارند، QICc همچنان کاهش می یابد. از بین بردن عوامل اکنون، من می دانم که QICc برای فاکتورهای بیشتر در مدل جریمه می کند (به نفع سادگی)، اما این کمی احمقانه می شود. صرفاً برای سرگرمی، شروع به حذف حتی عوامل مهم کردم و همچنان QICc کاهش می یابد... پیشینه بیشتر: من در حال مدل سازی داده های شمارش با استفاده از توزیع دوجمله ای منفی با پیوند log و ماتریس کوواریانس قابل مبادله هستم (انتخاب شده با استفاده از مقادیر QIC). من سه عامل دارم (بیایید آنها را A، B و C بنامیم) و دو متغیر کمکی. عوامل همگی دسته بندی شده اند و هر کدام دو سطح دارند. من می خواهم تأثیر عوامل و تعاملات احتمالی بین آنها را آزمایش کنم، بنابراین با مدل فاکتوریل کامل شروع کردم. تعامل 3 طرفه و دو تا از سه تعامل دو طرفه مهم نیستند، بنابراین تصمیم گرفتم آنها را از مدل حذف کنم و ببینم چه اتفاقی برای QICc افتاده است. لطفاً اگر این روش نادرست است، مرا تصحیح کنید... من به AIC و AICc عادت دارم! در اینجا خلاصه ای کوتاه از آنچه الگوی مقادیر QIC و QICc دریافت می کنم آورده شده است. همین الگو زمانی اتفاق می‌افتد که من از تابع شبه درست‌نمایی کامل log و تابع شبه درست‌نمایی لاگ هسته استفاده می‌کنم، اعداد خام فقط متفاوت هستند. بنابراین، به این صورت پیش می‌رود: فاکتورهای مدل = A، B، C، A*B، A*C، B*C، A*B*C QIC = 0.626 QICc = 16.597 (جایی که A*B*C، A*B ، و B*C مهم نیستند و با حذف فاکتورها این تغییر نمی کند.) A، B، C، A*B، A*C، B*C QIC = 0.624 QICc = 14.597 A، B، C، A*B، A*C QIC = 0.623 QICc = 12.597 A، B، C، A*B QIC = 0.624 QICc = 10.607 A، B، C QIC = 0.635 QICc = 8.64. و غیره. QICc به ازای هر عامل یا تعامل حذف شده حدود 2 کاهش می یابد. پس چمچه در اینجا چیست؟ آیا فاکتورهای مدل من در توضیح داده‌های من ساده هستند؟ اما پس چرا اهمیت؟ آیا من باید فقط با مدل کامل پیش بروم زیرا من واقعاً علاقه مند به آزمایش تمام تعاملات ممکن هستم و GEE واقعاً برای همان نوع مدل سازی که با روش های دیگر به آن عادت کرده ام در نظر گرفته نشده است؟ هر گونه کمکی واقعا قدردانی خواهد شد! پیشاپیش متشکرم
GEE در SPSS: مورد ارزش‌های QICc در حال کاهش
26117
چگونه Adaboost بهترین ویژگی ها را از داده های نمونه (یا بردار ویژگی واحد) انتخاب می کند؟ خوب است اگر کسی توضیح دهد که آیا عبارت بالا درست است یا نه. من دیده ام که در اسناد موجود در Adaboost از اصطلاح _features_ و _classifiers_ به جای یکدیگر استفاده می شود (این همان چیزی است که من فکر می کردم). به عنوان مثال: www.cs.nyu.edu/~eugenew/publications/viola-facedet04-talk.pdf لطفا توضیح دهید!
انتخاب ویژگی ها با استفاده از Adaboost
79854
من می دانم که 95٪ از مشاهدات در یک توزیع نرمال تقریباً کمتر از 2 انحراف استاندارد از میانگین قرار می گیرند. آیا وقتی توزیع دارای دم چربی باشد این تغییر می کند؟ نام قضیه ای که این را تضمین می کند چیست؟ پیشاپیش ممنون
2 قانون انحراف معیار
26118
من یک سوال دارم: > آیا یک آمار کافی باید یک به یک باشد؟ به عنوان مثال، آیا $T(x) = > x^2$ یا $T(x) = |x|$ می تواند آمار کافی باشد؟ من می دانم که یک به یک > توابع آمار کافی کافی است.
آمار کافی
26114
من در حال ساخت یک مدل در R با استفاده از ماشین بردار پشتیبانی (SVM) با هسته KBF هستم. به نظر می رسد مدل کاملاً خوب کار می کند. من می خواهم اهمیت نسبی متغیرهای پیش بینی را ارزیابی کنم. آیا کسی می تواند به من بگوید چگونه می توان این کار را انجام داد. آیا اسکریپت R برای آن وجود دارد؟
اهمیت SVM متغیرهای پیش بینی کننده
26110
من برخی از موارد توصیف شده توسط 43 دسته مانند این را دارم: مجموعه داده ها رده 1 رده 2... دسته 43 D1 مورد 1 1 0 0 ... 1 ... D1 مورد 3 1 0 0 ... 1 ... D2 مورد 4 1 0 0 .. 1 ... .. کاری که من انجام دادم ایجاد یک جدول فرکانس مانند این مجموعه داده Category1 Category2 ... Category43 D1 617 388 ... 827 D2 1234 7272 ... 1237 من در حال آزمایش هستم تا ببینم آیا رابطه ای بین نوع مجموعه داده و تعداد فرکانس دسته وجود دارد یا خیر. من داده های زیر را به عنوان خروجی dput دارم: structure(list(data.OldFrequency = c(617L, 388L, 6L, 9L, 1344L, 857L, 30L, 63L, 60L, 22L, 23L, 107L, 6L , 9 لیتر, 10 لیتر, 14 لیتر, 28 لیتر، 9 لیتر، 174 لیتر، 245 لیتر، 103 لیتر، 4096 لیتر، 121 لیتر، 6 لیتر، 48 لیتر، 189 لیتر، 33 لیتر، 1426 لیتر، 64 لیتر، 16 لیتر، 135 لیتر، 77 لیتر، 26 لیتر، 77 لیتر، 26 لیتر، 7، 40 لیتر، 14 لیتر 1022L, 38L, 1578L, 242L, 67L), data.NewFrequency = c(1220L, 959L, 307L, 29L, 5093L, 771L, , 65L, 125L, 120L,1,1,3L, 41 87 لیتر، 20 لیتر، 159 لیتر، 45 لیتر، 68 لیتر، 60 لیتر، 11 لیتر، 644 لیتر، 51 لیتر، 7053 لیتر، 159 لیتر، 6 لیتر، 162 لیتر، 208 لیتر، 52 لیتر، 3277 لیتر، 27 لیتر، 3277 لیتر، 27 لیتر، 59 لیتر، 59 لیتر 96L، 84L، 180L، 2991L، 2227L، 34L، 2249L، 37L، 29L))، .Names = c(data.OldFrequency، data.NewFrequency)، row.names = c(NA، -43 class = data.frame) در حال اجرا «chisq.test» با استفاده از این موارد زیر را به من می دهد: داده های آزمون Chi-squared Pearson: d X-squared = 2551.405، df = 42، p-value < 2.2e-16 پیام هشدار: در chisq.test(d): Chi - تقریب مربع ممکن است نادرست باشد. من در مورد اینکه چه فرضیه صفری در حال آزمایش است و پیامدهای این هستند. آیا کسی می تواند به من کمک کند که چگونه این را تفسیر کنم؟ من یک آمارگیر نیستم و دوست دارم کسی بتواند این را با کلمات ساده توضیح دهد. و چگونه پیام هشدار را برطرف کنم؟
این نتایج chi-square به چه معناست؟
37441
در حال مطالعه تاثیر سرمایه اجتماعی بر درآمد خانوارها هستم. من برای تخمین این اثر رگرسیون چندگانه انجام می دهم. برای این منظور، درآمد خانوارها به عنوان متغیر وابسته و سرمایه اجتماعی به عنوان متغیر توضیحی است. همچنین سرمایه انسانی و برخی دیگر از ویژگی های خانوار را به عنوان متغیرهای کنترلی برای رگرسیون چندگانه گنجانده ام. سرمایه اجتماعی و درآمد خانوار دارای علیت دو طرفه هستند زیرا استدلال می شود که سرمایه اجتماعی متغیر درونزا است. این امر از نظر تئوری و تجربی در مطالعات مختلف تحقیقاتی ثابت شده است. برای جلوگیری از این مشکل و به دست آوردن تخمین های بی طرفانه و ثابت. من قصد دارم از رگرسیون خطی دو مرحله ای (2SLS) یا تکنیک متغیر ابزاری استفاده کنم. آیا کسی می تواند پیشنهاد دهد که کدام روش در مورد من ارجح است و چگونه می توان تجزیه و تحلیل خود را دقیقاً در هر دو مورد انجام داد اگر: 1. ابزار معتبری دارم یا 2. ابزار معتبری برای متغیر درون زا ندارم؟
چگونه از مشکل علیت دو طرفه اجتناب کنیم؟
63805
بگوییم حداقل k 0 و حداکثر k 4 است. k از تابع جرم احتمال مشتق می شود، اگرچه من از فرمول استفاده نمی کنم زیرا p توزیع را ندارم. اگر من k(0) = 0.1852 k(1) = 0.4074 k(3) = 0.0926 k(4) = 0.0092 داشته باشم آیا تابعی وجود دارد که بتوانم از آن برای محاسبه منحنی استفاده کنم؟ برای توضیح کمی بیشتر، آنچه من واقعاً به دنبال آن هستم محاسبه تابع منحنی زنگ اریب با استفاده از k(0)، k(1)، k(n) و k(n-1) است، جایی که n می تواند هر عددی تا 50 باشد. من این k ها را به صورت دستی محاسبه می کنم زیرا این مجموعه شامل احتمالات متعدد است (مثلاً: تاس ریختن و برگرداندن سکه). همانطور که قبلا گفته شد، من p را برای توزیع نمی دانم.
نحوه پیدا کردن تابع منحنی توزیع اریب با محاسبه k=P برای 4 نقطه در طول منحنی
112430
گاهی محققین (به ویژه در همکاری ها) دو نظریه متضاد اما درست دارند: بین دو گروه تفاوت وجود دارد یا فقط تفاوت ناچیز وجود دارد. حالا از آمارگیرشان می پرسند. او چگونه باید به موقعیت نزدیک شود؟ اگر او یک آزمون فرضیه نقطه ای انجام دهد، طرف اختلاف را ترجیح می دهد زیرا فقط نظریه آنها را می توان در مورد فرضیه نقطه رد شده تأیید کرد، در حالی که رد نکردن فرضیه نقطه چیزی نمی آموزد. اگر او فقط تست هم ارزی انجام دهد، به دلیل مشابه، طرف اختلاف ناچیز را ترجیح می دهد. آیا باید هر دو را البته با تصحیح کثرت انجام دهد؟ بنابراین یک آزمون TOST برای هم ارزی _و_ یک آزمون فرضیه نقطه ای؟ یا یک TOST و یک آزمون مربوطه مربوطه؟ این روش سه نتیجه خواهد داشت: 1. هم ارزی هر دو پارامتر تا تفاوت های ناچیز. 2. تفاوت به اندازه کافی بزرگ. 3. چیزی برای یادگیری نیست زیرا هر دو فرضیه رد نشده اند. آیا چنین رویکرد et-et معقول است؟ چرا ما به سختی چنین تحلیل‌هایی را در نشریات مشاهده می‌کنیم؟ این یک سوال کلی برای استدلال است. بنابراین پاسخ های متعدد تشویق می شود و من این سوال را به مدل های خاصی محدود نمی کنم.
فرضیه نقطه و فرضیه هم ارزی به یکباره
37767
من هنگام تلاش برای تجزیه و تحلیل داده های آزمایش روانشناختی خود با یک مشکل جدی مواجه شدم. در اینجا جزئیات آزمایش آمده است: در هر کارآزمایی، آزمودنی‌ها با دایره‌های رنگی جانبی ارائه شدند. وقتی دایره قرمز بود باید دکمه سمت راست یا وقتی دایره آبی بود دکمه چپ را فشار می دادند. شرط سازگاری تعیین می کند که آیا محل دایره و سمت پاسخ مطابقت دارند (سازگار) یا نه (ناسازگار). اشباع رنگ ها نیز دستکاری شد (6 سطح اشباع: 15، 25، 35، 45، 60، 80%). بنابراین من از طرح 2 (شرایط سازگاری: سازگار، ناسازگار) × 6 (سطح اشباع رنگ: 15، 25، 35، 45، 60، 80٪) درون سوژه ها استفاده کردم. 13 نفر در این آزمایش شرکت کردند. برای هر آزمودنی، 224 مشاهده در هر شرایط آزمایشی وجود داشت. من می خواهم رابطه بین میانگین و واریانس هر شرایط آزمایشی را برای هر فرد تجزیه و تحلیل کنم. به طور کلاسیک، این رابطه خطی است، که منجر به همبستگی های بسیار بالایی برای هر موضوع می شود (r > 0.85). با این حال، در آزمایش من، مقادیر r از 0.15 تا 0.95 با میانگین 0.56 متغیر است. اکثر آزمودنی ها r<75/0 را نشان می دهند (11 از 13 آزمودنی)، که با یافته های سنتی فاصله زیادی دارد (> 0.85). بنابراین تصمیم گرفتم به تحلیل دیگری روی بیاورم. من فکر می کنم که داده ها با دو خط رگرسیون بهتر توصیف می شوند: یکی برای هر شرایط سازگاری (اما این فقط یک احساس گرافیکی است). حدس من این است که برای هر موضوع یک ANCOVA با std به عنوان متغیر وابسته، میانگین به عنوان متغیر کمکی و سازگاری به عنوان عامل انجام شود. اما نمی‌دانم که آیا این تحلیل درستی است یا خیر، و آیا می‌توان آن را به‌عنوان یک ANCOVA درون موضوعی در نظر گرفت. هر گونه کمکی قدردانی خواهد شد!
آیا ANCOVA برای آزمایش من مناسب است؟
79856
من تحقیقی انجام داده ام که در آن 120 نفر شرکت کردند. برای نظرسنجی خود دو تصویر بصری (تعالی و دلقک) ایجاد کردم. * نمونه 1 (60=n) مصاحبه را با فرد معمولی انجام داد * نمونه 2 (60=n) مصاحبه را با دلقک انجام داد بخش اول نظرسنجی (که شامل جمع آوری داده ها نمی شود) شرکت کننده باید به چند سوال پاسخ می داد. بر اساس بازخورد یک فرد معمولی یا دلقک. در پایان این روایت، شرکت‌کننده باید 8 سوال را پر می‌کرد که در آن‌ها شرکت‌کننده باید میزان اعتماد خود را به دلقک یا فرد معمولی تعریف می‌کرد. این درجه از اعتماد بر اساس مقیاس لیکرت (مقادیر گسسته) از 0 (مخالف) تا 7 (موافق) است. به مثال مراجعه کنید: http://imgur.com/K22QIkh.jpg بنابراین هدف تحقیق من این است که ببینم آیا تفاوت قابل توجهی در اعتماد وجود دارد: * مقایسه نتایج سوال 1 بین نمونه 1 با نمونه 2 (مقایسه کنید 60/ 60) * مقایسه نتایج سوال 2 بین نمونه 1 با نمونه 2 (مقایسه کنید 60/60) و به همین ترتیب برای هر هشت سوال. برای تجزیه و تحلیل داده ها از آزمون t تک نمونه ای استفاده کردم. در SPSS همه 120 نتیجه را زیر هم قرار دادم (0 تا 60 = نمونه 1، 61 تا 120 = نمونه 2) و تعریف کردم که 0 تا 60 گروه 1 و 61 تا 120 گروه 2 است. بنابراین، با انجام این کار می توانم مقایسه کنم. نتایج برای هر 8 سوال بین نمونه 1 و 2. این در نهایت نتایج زیر را به من داد: مثال را ببینید: http://imgur.com/2gMkrfB.jpg سوال اصلی من این است: با آلفای 0.05 به نظر می رسد همه نتایج سوالات قابل توجه هستند. با این حال سؤال 6 (vraag 6) هر دو دقیقاً میانگین یکسانی دارند، چگونه این تفاوت می تواند قابل توجه باشد؟ آیا من کار اشتباهی انجام می دهم؟ هر راهنمایی پذیرفته میشود :)
تحقیقی حاوی تفاوت آماری بین دو نمونه
63807
با استفاده از لحظه های نمونه، چگونه می توان برآوردگرهای میانگین و واریانس را بهبود بخشید اگر به عنوان مثال. چولگی و کشیدگی دقیقا مشخص است؟ و در مورد استفاده از تخمین‌ها برای اینها به جای آن، که هیچ کمکی نمی‌کند؟ به طور کلی، می‌خواهم بدانم آیا رویکردهای مشابهی برای انواع دیگر تخمین‌گرهای مکان و پراکندگی، مانند L-moments وجود دارد یا خیر.
چگونه می توان شرایط تخمین مکان و پراکندگی را در آمارهای مرتبه بالاتر بهبود بخشید؟
63801
در مقایسه‌های چندگانه، فرض کنید $q$-values ​​را محاسبه کرده‌ایم. آیا برای هر آزمایش یک $q$-value برای همه مقایسه های چندگانه است؟ با توجه به آستانه نرخ کشف نادرست (FDR) در FDR، آیا $q$-values ​​برای تعیین پذیرش یا رد هر یک از صفر استفاده می شود؟ آیا برای آزمایش فردی، **اگر و فقط اگر** مقدار q$ آن کمتر از آستانه FDR نباشد، رد می شود؟ چرا؟ با تشکر
اگر و فقط اگر q-value بیشتر از آستانه FDR نباشد، null را رد کنید؟
79857
من باید یک رگرسیون گام به گام به عقب را اجرا کنم. من فصل از عناصر یادگیری آماری را خواندم، اما توضیح در اینجا ضعیف است: > انتخاب گام به گام با مدل کامل شروع می شود، و به طور متوالی > پیش بینی کننده ای را که کمترین تأثیر را بر تناسب دارد حذف می کند. نامزد > برای حذف، متغیری است که دارای کمترین امتیاز Z است **این از > فصل 3.3.2 pg:59** گرفته شده است. در هر سطح با توجه به Z-score چه چیزی را حذف خواهم کرد؟ من باید بدانم که چگونه این الگوریتم قدم به قدم کار می کند. **ویرایش:** سعی می کنم کدها را روی متلب پیاده سازی کنم. نمی دانم کاملاً اشتباه می کنم یا نه :/ در مورد این تابع نظر دهید لطفاً تابع [] = BackwardStepWise(X,y,N,p) % X است Nxp ماتریس y است Nx1 ماتریس X = [ones(N,1 ) X]؛ درصد بردار برای نگهداری اعداد ستون v= 1:p; برای k=p-1:-1:1 % ایجاد ماتریس با ستون های انتخاب شده T= [ones(N,1)]; برای j=1:k %اضافه کردن ستون به ماتریس T = [T X(:,v(1,j)+1)]; endfor %evaluate beta beta = inv(T' * T) * T' * y; % محاسبه امتیاز Z برای هر ستون sigmahat_sq = (y-T*beta)'*(y-T*beta)/(N-p-1); TT = inv(T'*T); Zmin = 100000; Zminindex = -1; برای i=1:size(beta,2) z(i) = beta(i)/sqrt(sigmahat_sq*TT(i,i)); if(z(i) < Zmin) Zmin = z(i); Zminindex = i; endif endfor ستون %drop که کمترین امتیاز Z را دارد (ویرایش v بردار) v2 = []; برای i=1:size(v,2) if(i == Zminindex) continue; else v2 = [v2 v(i)]; endif endfor v = v2; endfor endfunction
انتخاب گام به گام به عقب
63802
فرض کنید که یکی دو منبع تغییرپذیری را با داده‌های $y_{ij}$ که از $j$th موضوع در $i$th جلسه به دست آمده است، بررسی می‌کند ($i=1,2؛ j=1,2..., n$) . یک مدل خطی اثرات مختلط را می توان به صورت زیر فرموله کرد، $$y_{ij} = \alpha_0 + b_i + c_j + \epsilon_{ij}$$ که $\alpha_0$ یک ثابت است، $b_i$ و $c_j$ هستند اثرات تصادفی برای $i$th جلسه و $j$th موضوع به ترتیب، و $\epsilon_{ij}$ یک عبارت باقی مانده است. با مفروضات $b_i ~\sim N(0، \tau_1^2)$، $c_j ~\sim N(0، \tau_2^2)$، و $\epsilon_{ij} ~\sim N(0، \ sigma^2)$، مقادیر همبستگی درون کلاسی (ICC) برای جلسات و موضوعات را می توان به ترتیب به صورت $$ICC_{session} = تعریف کرد. \frac{\tau_1^2}{\tau_1^2+\tau_2^2+\sigma^2}, ICC_{موضوع} = \frac{\tau_2^2}{\tau_1^2+\tau_2^2+\ sigma^2}.$$ و مقادیر ICC فوق را می‌توان از طریق «lmer» در بسته R «lme4» به‌دست آورد. من دو سوال دارم: 1. آیا راهی برای آزمایش اهمیت مقادیر ICC فوق در زمینه مدل LME، مشابه $F$-stat برای ICC که تحت ANOVA با اثرات تصادفی تعریف شده است، وجود دارد؟ 2. به طور شهودی هر چه تنوع بین دو جلسه بیشتر باشد (تفاوت بیشتر بین دو جلسه)، ICC جلسه بالاتر است. اما چگونه این شهود با این تصور که ICC قابلیت اطمینان، تکرارپذیری یا سازگاری را می سنجد، سازگار است؟ آیا قابل اعتماد بودن جلسه (یا تکرارپذیری، سازگاری) در مورد پاسخ هر دو آزمودنی که از یک جلسه می آید، در مورد تفاوت بین دو جلسه نیست؟
همبستگی درون طبقاتی در زمینه مدل خطی اثرات مختلط
79852
ببخشید سوال گنگ من، اما من یک رگرسیون لجستیک تک متغیره انجام دادم که علامت ضریب متغیر من منفی بود (و معنی دار بود). هنگامی که آن را در یک رگرسیون چند متغیره وارد کردم، علامت ضریب همان متغیر مثبت شد (هنوز معنی دار). چرا این اتفاق می افتد؟ آیا این به دلیل نقاط پرت یا خطی بودن بین متغیرها است (اگرچه همانطور که گفتم متغیرها قابل توجه هستند) یا چیزی ظریف تر است؟
چرا هنگام انجام رگرسیون لاجیت چند متغیره در مقابل تک متغیره، علائم ضرایب تغییر می کنند؟
3425
من مطمئن نیستم که این را چگونه باید نامگذاری کرد، بنابراین اگر اصطلاح بهتری می دانید، لطفاً من را اصلاح کنید. من دو لیست دارم یکی از 55 مورد (به عنوان مثال: بردار رشته ها)، دیگری از 92. نام آیتم ها مشابه هستند اما یکسان نیستند. من می خواهم بهترین نامزد * _s_ * را در لیست 92 به موارد موجود در لیست 55 پیدا کنم (سپس آن را مرور می کنم و مناسب را انتخاب می کنم). چگونه می توان آن را انجام داد؟ ایده‌هایی که داشتم: 1. دیدن همه مواردی که مطابقت دارند (با استفاده از فهرستی از فهرست؟) 2. یک ماتریس فاصله بین بردارهای رشته‌ها را امتحان کنید، اما مطمئن نیستم که چگونه آن را به بهترین شکل تعریف کنم (تعداد حروف یکسان، چطور؟ ترتیب رشته ها؟) پس چه بسته/توابع/زمینه تحقیقاتی با چنین کاری سروکار دارد و چگونه؟ به‌روزرسانی: در اینجا نمونه‌ای از بردارهایی است که می‌خواهم با vec55 تطبیق دهم <- c(Aeropyrum pernix، Archaeoglobus fulgidus، Candidatus_Korarchaeum_cryptofilum، Candidatus_Methanoregula_boonei_6A8، Cenarchaeum_symbioken, Desarchaeum_symbioken, Design_Sulfurosum Ferroplasma acidarmanus، Haloarcula_marismortui_ATCC_43049، Halobacterium sp.، Halobacterium_salinarum_R1، Haloferax volcanii، Haloquadratum_walsbyi، Hyperthermus_butylicus، Hyperthermus_butylicus، Ighermus_butylicus، Halobacterium_salinarum_R1. Metallosphaera_sedula_DSM_5348، Methanobacterium thermautotrophicus، Methanobrevibacter_smithii_ATCC_35061، Methanococcoides_burtonii_DSM_6242 ) vec91 <- c(Acidilobus51profundum45 T469، Aeropyrum pernix K1، Archaeoglobus fulgidus DSM 4304، Archaeoglobus profundus DSM 5631، Caldivirga maquilingensis IC-167، Candidatus Korarchaeum cryptofilum OPF8، Candidatos symbiosum A، Desulfurococcus kamchatkensis 1221n، Ferroglobus placidus DSM 10642، Halalkalicoccus jeotgali B3، Haloarcula marismortui ATCC 43049، Halobacterium salinarum R1، Halobacterium salinarum R1، H. NRC-1، Haloferax volcanii DS2، Halomicrobium mukohataei DSM 12286، Haloquadratum walsbyi DSM 16790، Halorhabdus utahensis DSM 12940، Halorubrum lacusprofundica، Halorubrum lacusprofundica DSM 5511، Hyperthermus butylicus DSM 5456، Ignicoccus hospitalis KIN4/I، Ignisphaera aggregans DSM 17230، Metallosphaera sedula DSM 5348، Methanobrevibacter ruminantium M1، Methanobrevibacter ruminantium M1، Methanobrevibacter، 6ATsmiti0 Methanocaldococcus fervens AG86، Methanocaldococcus infernus ME، Methanocaldococcus jannaschii DSM 2661، Methanocaldococcus sp. FS406-22، Methanocaldococcus vulcanius M7، Methanocella paludicola SANAE، Methanococcoides burtonii DSM 6242، Methanococcus aeolicus Nankai-3، Methanococcus maripaludis C5، Methanococcus maripaludis C5، Methanococcoides burtonii DSM 6242 maripaludis C7، Methanococcus maripaludis S2، Methanococcus vannielii SB، Methanococcus voltae A3، Methanocorpusculum labreanum Z، Methanoculleus marisnigri JR1، Methanohalobium evestigatum، SMMethanohalobium evestigatum SMMe73 5219، Methanoplanus petrolearius DSM 11571، Methanopyrus kandleri AV19، Methanosaeta thermophila PT، Methanosarcina acetivorans C2A، Methanosarcina barkeri str. Fusaro، Methanosarcina mazei Go1، Methanosphaera stadtmanae DSM 3091، Methanosphaerula palustris E1-9c، Methanospirillum hungatei JF-1، Methanothermobacter marburgensis str. Marburg، Methanothermobacter thermautotrophicus str. Delta H، Nanoarchaeum equitans Kin4-M، Natrialba magadii ATCC 43099، Natronomonas pharaonis DSM 2160، Nitrosopumilus maritimus SCM1، Picrophilus torridus DSM 97990lumstr. IM2، Pyrobaculum arsenaticum DSM 13514، Pyrobaculum calidifontis JCM 11548، Pyrobaculum islandicum DSM 4184، Pyrococcus abyssi GE5، Pyrococcus furiosus DSM 3638, Pyrococcus furiosus DSM 3638، Pyrococcus furiosus DSM 3638، Pyrobaculum calidifontis JCM 11548 hellenicus DSM 12710، Staphylothermus marinus F1، Sulfolobus acidocaldarius DSM 639، Sulfolobus islandicus L.D.8.5، Sulfolobus islandicus L.S.2.15، Sulfolobus islandicus M.14.25، Sulfolobus islandicus M.14.25، M.14.25 Sulfolobus islandicus M.16.4، Sulfolobus islandicus Y.G.57.14، Sulfolobus islandicus Y.N.15.51، Sulfolobus solfataricus P2، Sulfolobus tokodaii str. 7، Thermococcus gammatolerans EJ3، Thermococcus kodakarensis KOD1، Thermococcus onnurineus NA1، Thermococcus sibiricus MM 739، Thermofilum pendens Hrk 5، Thermoplasma acidophilum DSM 17228 neutrophilus V24Sta، Thermosphaera aggregans DSM 11486، Vulcanisaeta distributa DSM 14429، Archaeon methanogenic RC-I) (با تشکر)
چگونه دو بردار رشته (در R) را شبه مطابقت دهیم؟
2007
اگرچه من به عنوان یک مهندس آموزش دیده ام، اما متوجه شده ام که بیشتر به داده کاوی علاقه مند شده ام. در حال حاضر سعی می کنم در این زمینه بیشتر تحقیق کنم. به طور خاص، من می‌خواهم دسته‌های مختلف ابزارهای نرم‌افزاری را که وجود دارند و اینکه کدام ابزارها در هر دسته قابل توجه هستند و چرا آن‌ها قابل توجه هستند، بدانم. (توجه داشته باشید که من بهترین ابزارها را نگفتم، بلکه فقط ابزارهای قابل توجه را گفتم که مبادا جنگ شعله ای را شروع کنیم.) به خصوص ابزارهایی را که منبع باز و رایگان در دسترس هستند یادداشت کنید - اگرچه این را به این معنا نگیرید. من فقط به منبع باز و رایگان علاقه دارم.
بررسی ابزارهای نرم افزاری داده کاوی
79855
امروز از من پرسیده شد که آیا p-value 0.05 (دقیقا) معنی دار در نظر گرفته می شود (با توجه به آلفا = 5%) یا خیر. من جواب را نمی دانستم و گوگل هر دو پاسخ را نشان داد: (الف) نتیجه قابل توجه است اگر p کمتر از 5٪ باشد و (ب) اگر p کمتر از 5٪ یا برابر با 5٪ باشد. البته هیچ یک از این وب سایت ها به کسی استناد نکرده اند. چرا باید یکی - این دانش عمومی است و 5٪ خودسرانه هستند، به هر حال. اما این به من کمک نمی‌کند که به دانش‌آموزانم چیزی برای یادآوری بگویم. بنابراین، در اینجا سؤالات ناامیدانه من در مورد آزمایش فرضیه ها وجود دارد: اگر مقدار p دقیقاً آلفا باشد - آیا نتیجه را قابل توجه می دانم یا نه؟ و استناد معتبر در این مورد چیست؟ خیلی ممنون
آیا p=5.0% معنی دار است؟
79851
پس از حذف یکی از فاکتورهای بین موضوعی (ترتیب پرسشنامه ها) مجبور شدم تحلیل ها را تکرار کنم و ابزار جدیدی که برای تأثیرات دیگر به دست آوردم با آنچه قبلاً داشتم متفاوت بود. مگه میشه اینطوری؟ آیا به این دلیل است که درجات آزادی تغییر کرده است؟
تکرار آنالیز ANOVA پس از حذف یک عامل: میانگین های مختلف
113224
من انتظار داشتم که این با جزئیات توسط آموزش LIBSVM پوشش داده شود، اما پس از ساعت ها اتلاف وقت در گوگل برای یافتن پاسخ، مجبور شدم آن را کنار بگذارم. کاری که من سعی می کنم انجام دهم واقعاً بی اهمیت است. در حال حاضر من یک مجموعه داده مالی در قالب CSV دارم: زمان، اندیکاتور1، اندیکاتور2، اندیکاتور3، roc 20140508190000،0،-2،-1،-0.00361310835712725 20140508200000,1,-2,0,0.0216786501427154 20140508210000,-1,-2,1,-0.0252917584998426 20140508220000,0,-2,0,-0.0108397167220604 20140508230000,-1,-2,0,-0.0505725535527163 201405090,0,-2,0,0.0144560896277541 2014050910000,0,-2,0,-0.00361363061468619 2014050920000,1,025 2014050920000,1,-2019 2014050920000,1,-2 2014050930000,-1,-2,1,-0.0975645009756423 2014050940000,0,-2,1,-0.0144550448106373 2014050950000,-1,-2,1,-0.198670712324811 ... بنابراین ما ستون تاریخ/زمان و سپس چهار ویژگی در هر سطر داریم. بعداً می خواهم آخرین ستون (roc) را پیش بینی کنم. بدیهی است که این داده‌ها عادی نیستند و من قصد دارم از phraug برای تبدیل داده‌های خود به یک قالب مناسب LIBSVM استفاده کنم. اما نه به این سرعت... مشکل اینجاست. من نتوانستم هیچ نمونه ای پیدا کنم که نحوه قالب بندی داده های ورودی چند ردیفی را توضیح دهد. به عبارت دیگر، از آنجایی که من قصد دارم از SVR استفاده کنم، باید به نحوی SVM خود را با یک پنجره کشویی از مجموعه داده ها تغذیه کنم. برای مثال، فرض کنید می‌خواهم به موتور پنج ردیف بدهم تا مقدار خروجی ششم را پیش‌بینی کند: 20140508190000,0,-2,-1,-0.00361310835712725 20140508200000,1,-2,0,0.0216786501427154 20140508210000,-1,-2,1,-0.0252917584998426 20140508220000,0,-2,0,-0.0108397167220604 20140508230000,-1,-2,0,-0.0505725535527163 ایده آل در اینجا مقدار ردیف بعدی خواهد بود: 0.0144560896277541 سپس پنجره را یک ردیف به پایین می کشانیم: 20140508200000,1,-2,0,0.0216786501427154 20140508210000,-1,10008210000,-1,10000,-1,100,20000,-1,10000,-1,10000,-1-1-20000,1-2,0,0.0 20140508220000,0,-2,0,-0.0108397167220604 20140508230000,-1,-2,0,-0.0505725535527163 201405090,0,-2,0,0.0144560896277541 و ایده آل در اینجا این است: -0.00361363061468619 و غیره. یا می‌توانم قالب اصلی خود را حفظ کنم (نرمال شده) و روال آموزش/پیش‌بینی LIBSVM را برای انجام این کار پیکربندی کنم، _یا باید پنج ردیف خود را به یک ردیف تبدیل کنم_، و هیچ سرنخی برای انجام این کار ندارم. در واقع من واقعا امیدوارم که این کار از طریق برخی از کرنل هایپرپارام انجام شود و نه از طریق CSV. در غیر این صورت به یک فایل ورودی CSV متفاوت برای محدوده های مختلف مجموعه داده نیاز دارد. و این بسیار پیچیده و مستعد خطا خواهد بود. امیدوارم همه اینها منطقی باشد. آیا کسی می تواند به من در جهت درست راهنمایی کند؟ هر ورودی بسیار قدردانی خواهد شد. ** به روز رسانی: ** فکر می کنم دارم شروع به دیدن نور کرده ام! فقط برای روشن شدن - من با نحوه فرمت کردن داده های خود مشکلی ندارم _یکبار_ فرمت مورد نیاز را کاملاً درک می کنم. بیایید فرض کنیم من از رگرسیون و پنجره 3 روزه داده با سه مقدار ورودی در روز استفاده می کنم. طبق درک من، این شامل ایجاد یک بردار چند بعدی است، بنابراین این ماتریس ورودی مناسب برای یک بردار 3x3 است: answer_variable 1:day1-1 2:day1-2 3:day1-3 4:day2-1 5:day2- 2 6:day2-3 7:day3-1 8:day3-2 9:day3-3 برای SVC متغیر پاسخ من به احتمال زیاد یک int نشان دهنده یک دسته است، به عنوان مثال. بالا/پایین (-1/1) و برای SVR چیزی شبیه یک ROC نرمال شده (به عنوان مثال 0.014). آیا کسی می تواند این را تایید کند؟ پیشاپیش متشکرم :-)
نحوه قالب بندی داده های سری زمانی چند ردیفه برای رگرسیون LIBSVM
3423
من روی یک برنامه وب کار می کنم، و در حال ایجاد برخی داده ها و ابزارهایی برای آن هستم. برای یک سری خاص، من واریانس بسیار گسترده ای در مقادیر داده (0 تا میلیون ها) دارم. اکنون از نمودار ستونی برای مشاهده داده‌ها استفاده می‌کنیم، که البته باعث می‌شود برخی از ستون‌ها یک پیکسل بالاتر یا کوچکتر باشند. ما قبلاً راه‌هایی برای برش دادن داده‌ها داریم که کمی کمک می‌کند، اما می‌دانستم که آیا انواع مختلفی از تجسم‌سازی‌های رایج در آنجا وجود دارند که با این نوع موقعیت‌ها بهتر برخورد کنند. و اگر چنین است، اگر کتابخانه های JS وجود داشت که به پیاده سازی آنها کمک می کرد.
توصیه هایی برای نوع تجسم زمانی که داده ها دارای واریانس بسیار گسترده هستند
37449
فرض کنید به مجموعه‌ای از کاربران مجموعه‌ای از نظرسنجی‌ها می‌دهید، یا انتخابی از غذاها را به آنها می‌دهید، یا اجازه می‌دهید به گروهی از آهنگ‌ها گوش دهند (حدس بزنید مانند پاندورا). بنابراین با نگاهی به انتخاب هایی که همه کاربران انجام می دهند، می توانید کاربر 1 را با کاربر 5 بر اساس 10 انتخاب اول آنها مطابقت دهید. بنابراین شما با گرفتن کاربر 1، نظرسنجی بعدی (یا هر چیز دیگری) را به او ارائه می کنید و او انتخاب می کند، سپس من می توانم کاربر 5 را بگیرم و همان گزینه ها را به او ارائه کنم. من فکر می کنم پس از آن می توانم با احتمال خاصی بگویم که کاربر 5 همان موردی را که کاربر 1 بر اساس سابقه قبلی انتخاب کرده بود انتخاب می کند. این فرآیند آماری/ریاضی چیست؟ چگونه آن را به طور کلی کدنویسی کنم؟ (می‌دانم که اینجا مکان مناسبی برای آن نیست، اما فکر می‌کنم اگر بدانم نام این فرآیند چیست، بتوانم آن را پیدا کنم). خوب اکنون می بینم که برچسبی به نام مدل های پیش بینی وجود دارد، اما مطمئن نیستم که آیا این اصطلاح درستی است یا نه و چه شکل خاصی را می خواهم توصیف کنم؟
پیش بینی انتخاب کاربر بر اساس کاربر مشابه
4851
من سعی می کنم توزیع چندین متغیر تصادفی را از قبل محاسبه کنم. به طور خاص، این متغیرهای تصادفی نتایج عملکردهایی هستند که در مکان‌های یک ژنوم ارزیابی می‌شوند، بنابراین برای هر یک از مقادیر 10^8 یا 10^9 وجود خواهد داشت. توابع بسیار روان هستند، بنابراین فکر نمی‌کنم تنها با ارزیابی در هر 2/10/100، دقت زیادی را از دست بدهم؟ پایه یا بیشتر، اما صرف نظر از تعداد زیادی نمونه وجود خواهد داشت. برنامه من این است که جداول کمیت (شاید صدک) را برای هر تابع از قبل محاسبه کنم و در اجرای برنامه اصلی خود به آنها ارجاع دهم تا مجبور نباشم این آمار توزیع را در هر اجرا محاسبه کنم. اما من واقعاً نمی‌دانم چگونه می‌توانم این کار را به راحتی انجام دهم: ذخیره، مرتب‌سازی و کاهش یک آرایه از 10^9 شناور واقعاً امکان‌پذیر نیست، اما نمی‌توانم به راه دیگری فکر کنم که اطلاعات مربوط به آن را از دست ندهد. توزیع آیا راهی برای اندازه گیری چندک های توزیع نمونه وجود دارد که نیازی به ذخیره کل چیز در حافظه نداشته باشد؟
محاسبه / ذخیره سازی تجربی CDF کارآمد
108991
از کجا می توانم منابعی برای یادگیری در مورد تجزیه و تحلیل نقطه تغییر پیدا کنم؟ امیدوارم کسی بتواند یک **کتاب درسی** را برای خواندن به من توصیه کند و هم تحلیل نقطه تغییر تک متغیره و هم تحلیل نقطه تغییر _چند متغیره را پوشش دهد. همچنین بسیار مفید خواهد بود اگر کسی بتواند منابعی را به من نشان دهد که حاوی مثال کار شده (با استفاده از تحلیل نقطه تغییر) با استفاده از R است. بنابراین، من مطالب نظری و مطالب کاربردی را درک می کنم. خیلی ممنون.
از کجا می توانم منابعی برای یادگیری در مورد تجزیه و تحلیل نقطه تغییر پیدا کنم؟
4856
چگونه می توانم یک مدل AR(p) را به شکل فضای حالت بازنویسی کنم؟ Max(p)=5 و من می خواهم از Kalman Predictor استفاده کنم.
بازنویسی مدل AR به شکل State-Space
2008
من در حال بررسی مقالاتی هستم که به مقاله ای که در حال خواندن آن استناد می کنند - و می خواهم قضاوت کنم که آن مقاله استناد شده به خودی خود چقدر مهم یا خوب است. یکی از راه های شناخت این است که می دانستم آن مجله چقدر متمایز است. که من را به سؤال من سوق می دهد: ** چه معیارهایی برای اهمیت یا تاثیر مجله وجود دارد (و کجا می توانم آنها را پیدا کنم؟**) (من از امتیاز ضریب تاثیر اطلاع دارم. اما نمی دانم که آیا چنین اقدامات دیگری وجود دارد؟ معیارها، و که بیشتر برای مجلات آماری کاربرد دارند)
اقدامات اهمیت انتشار در آمار؟
37944
من در حال حاضر از بسته R lme4 استفاده می کنم. من از یک مدل جلوه‌های ترکیبی خطی با جلوه‌های تصادفی استفاده می‌کنم: library(lme4) mod1 <- lmer(r1 ~ (1 | سایت)، داده = نمونه_ست) #فقط جلوه‌های تصادفی mod2 <- lmer(r1 ~ p1 + (1 | سایت )، داده = مجموعه_نمونه) #یک اثر ثابت + # جلوه‌های تصادفی mod3 <- lmer(r1 ~ p1 + p2 + (1 | سایت)، داده = مجموعه_نمونه) #دو جلوه ثابت + # جلوه‌های تصادفی برای مقایسه مدل‌ها، من از تابع «anova» استفاده می‌کنم و به تفاوت‌های AIC نسبت به پایین‌ترین مدل AIC نگاه می‌کنم: anova (mod1، mod2، mod3) موارد بالا برای مقایسه مناسب هستند. مدل ها با این حال، من همچنین به روشی ساده برای تفسیر معیارهای مناسب برای هر مدل نیاز دارم. آیا کسی تجربه چنین اقداماتی را دارد؟ من تحقیقاتی انجام داده‌ام و مقالات مجلاتی در مورد R مربع برای اثرات ثابت مدل‌های اثرات مختلط وجود دارد: * Cheng, J., Edwards, L. J., Maldonado-Molina, M. M., Komro, K. A., & Muller, K. E. (2010) . تجزیه و تحلیل داده های طولی واقعی برای افراد واقعی: ساخت یک مدل ترکیبی به اندازه کافی خوب آمار در پزشکی، 29(4)، 504-520. doi: 10.1002/sim.3775 * Edwards, L. J., Muller, K. E., Wolfinger, R. D., Qaqish, B. F., & Schabenberger, O. (2008). یک آمار R2 برای اثرات ثابت در مدل مختلط خطی. آمار در پزشکی، 27(29)، 6137-6157. doi: 10.1002/sim.3429 با این حال، به نظر می رسد که انتقاداتی پیرامون استفاده از اقداماتی مانند آنچه در مقالات فوق ارائه شده است وجود دارد. آیا کسی می‌تواند چند معیار آسان برای تفسیر و تناسب را پیشنهاد کند که می‌تواند در مدل‌های من اعمال شود؟
برای مدل‌های جلوه‌های مختلط خطی، چه چیزی قابل تفسیر آسان است؟
4858
من کتاب خوبی به نام تحلیل داده های طولی کاربردی: مدل سازی تغییر و وقوع رویداد نوشته جودیت سینگر و جان ویلت خوانده ام. این کتاب نشان می‌دهد که با مدل‌سازی در 2 سطح، می‌توان تغییر فردی را در سطح 1 و در مدل سطح 2 برای تفاوت‌های سیستماتیک بین فردی در تغییر مدل کرد. کدهای R برای مثال‌ها فقط نحوه استفاده از «lme()» را برای تخمین اثرات ثابت و تصادفی نشان می‌دهند. با این حال، متن پیشنهاد می‌کند که باید مؤلفه‌های واریانس را برای تعیین اینکه آیا اثرات تصادفی معنی‌دار هستند یا خیر، آزمایش کنیم. برای مثال، یکی از کدها فقط موارد زیر را انجام می دهد: library(nlme) model.a <- lme(alcuse~ 1, alkol1, random= ~1 |id) summary(model.a) مدل اثرات مختلط خطی متناسب با REML داده ها: الکل1 AIC BIC logLik 679.0049 689.5087 -336.5025 اثرات تصادفی: فرمول: ~1 | id (Intercept) Residual StdDev: 0.7570578 0.7494974 جلوه‌های ثابت: alcuse ~ 1 Value Std.Error DF t-value p-value (Intercept) 0.9219549 0.09629638 16419 استاندارد شده است. باقیمانده ها: حداقل Q1 Med Q3 حداکثر -1.8892070 -0.3079143 -0.3029178 0.6110925 2.8562135 تعداد مشاهدات: 246 تعداد گروه ها: 82 اما متن موارد زیر را فهرست می کند: *9 -2 -0>0: خروجی * واریانس درون فرد: 0.562*** (s = 0.062) -> را می توان از خروجی به دست آورد (اثر تصادفی باقیمانده std. dev مربع) * بین واریانس فرد: 0.564*** (s = 0.119) کار من شامل یک تجزیه و تحلیل زیادی برای داده های طولی انجام شده است، بنابراین من واقعاً نیاز به درک این ایده دارم. کمک شما بسیار قدردانی می شود.
نحوه آزمایش افکت های تصادفی در یک مدل چندسطحی در R
18497
ویکی‌پدیا پیشنهاد می‌کند که یکی از راه‌های بررسی قابلیت اطمینان بین ارزیاب‌ها، استفاده از مدل اثرات تصادفی برای محاسبه همبستگی درون‌طبقه‌ای است. مثال همبستگی درون کلاسی در مورد نگاه کردن به $$\frac{\sigma_\alpha^2}{\sigma_\alpha^2+\sigma_\epsilon^2}$$ از یک مدل $$Y_{ij} = \mu صحبت می‌کند. + \alpha_i + \epsilon_{ij}$$ در جایی که Yij jمین مشاهده در گروه i است، μ یک کل مشاهده نشده است. میانگین، αi یک اثر تصادفی مشاهده نشده است که با همه مقادیر در گروه i مشترک است، و εij یک عبارت نویز مشاهده نشده است. این یک مدل جذاب است مخصوصاً به این دلیل که در داده‌های من هیچ رتبه‌دهنده‌ای همه چیز را رتبه‌بندی نکرده است (اگرچه اکثر آنها رتبه‌بندی ۲۰+ دارند)، و چیزها چندین بار (معمولاً ۳-۴) رتبه‌بندی می‌شوند. سوال شماره 0: آیا گروه i در آن مثال (گروه i) گروهی از چیزهایی است که رتبه بندی می شوند؟ سوال شماره 1: اگر من به دنبال قابلیت اطمینان بین ارزیاب هستم، آیا نیازی به یک مدل اثرات تصادفی با دو عبارت، یکی برای رتبه‌دهنده و دیگری برای چیز رتبه‌بندی‌شده، ندارم؟ به هر حال، هر دو تنوع احتمالی دارند. سوال شماره 2: چگونه می توانم این مدل را به بهترین شکل در R بیان کنم؟ به نظر می رسد که این سوال یک پیشنهاد زیبا دارد: lmer(اندازه گیری ~ 1 + (1 | موضوع) + (1 | سایت)، mydata) من به چند سوال نگاه کردم، و نحو پارامتر تصادفی برای lme برای من مبهم است. من صفحه راهنما را برای lme خواندم، اما توضیحات تصادفی بدون مثال برای من قابل درک نیست. این سوال تا حدودی شبیه به یک لیست طولانی از سوالات است، با این نزدیک ترین. با این حال، اکثراً R را با جزئیات مطرح نمی کنند.
محاسبه قابلیت اطمینان بین ارزیاب در R با تعداد متغیر رتبه‌بندی؟
70530
من به دنبال تغییرات در شیوع چاقی کودکان و همچنین سایر دسته های وزنی پس از مداخله هستم. من سعی می‌کنم بفهمم از کدام آزمون برای تغییرات در یک متغیر وابسته طبقه‌بندی استفاده کنم (من برای کودکانی که به شدت چاق، چاق، اضافه وزن، نرمال، کم وزن بودند) مقادیر 1-5 اختصاص دادم، قبل و بعد از مداخله.
چگونه می توان تغییر در سطح چاقی را قبل و بعد از مداخله ارزیابی کرد که چاقی یک متغیر ترتیبی است؟
14177
بگویید که در حال انجام یک تحقیق سیاسی هستید و می خواهید بدانید که چند نفر به حزب الف و چند نفر به حزب ب رای می دهند. (فقط دو انتخاب وجود دارد.) یک نظرسنجی تصادفی از 10 نفر انجام می دهید و متوجه می شوید که از 10 رای شما، 1 رای A، در حالی که 9 رای دیگر به B رای می دهند. میانگین نسبت مورد انتظار رای دهندگان A در جمعیت عمومی چیست؟ شهود اکثر مردم می گوید 0.1. اما من آن را محاسبه کردم و به صورت '0.0909090'، یعنی '1/11' در آمد. قطعاً ممکن است من در محاسباتم اشتباه کرده باشم. آیا می توانید به من بگویید که آیا نتیجه من منطقی است؟
نتیجه متضاد برای نمونه تصادفی
71667
روش مناسبی برای مقایسه دو مدل رگرسیون لجستیک با تعداد پارامترهای یکسان (یعنی مدل 1 در مدل 2 تو در تو نیست) چیست؟ در مورد من، من نمی‌توانم مدل‌ها را با یک مدل ابرمجموعه با همه پیش‌بینی‌کننده‌های هر دو مدل مقایسه کنم، زیرا گنجاندن پارامترهای متفاوت هر دو مدل به دلیل هم‌پایگی چندگانه منجر به عدم شناسایی می‌شود.
مقایسه مدل‌های رگرسیون لجستیک با تعداد پارامترهای یکسان
71664
من می خواهم اهمیت آماری یک مدل مخلوط گاوسی را که توسط Mclust محاسبه شده است، تخمین بزنم. خروجی Mclust شامل معیار اطلاعات بیزی بهینه (BIC) مورد استفاده برای انتخاب مدل بهینه و همچنین Log Likelihood مورد استفاده در محاسبه است. با این حال، تا آنجا که من می‌دانم، اینها فقط برای مقایسه مدل‌های مختلف برای داده‌های یکسان معنادار هستند. آیا راهی برای تخمین معنادار آماری مدل بهینه وجود دارد؟
چگونه می توانم اهمیت آماری مدل مخلوط گاوسی بهینه را از Mclust برآورد کنم؟
70533
من در حال تجزیه و تحلیل مجموعه ای از داده های مربوط به جوامع جزر و مدی هستم. داده ها درصد پوشش (از جلبک های دریایی، ماهی ها، صدف ها، و غیره) در کوادرات است. من عادت کرده‌ام به تجزیه و تحلیل متناظر (CA) از نظر تعداد گونه‌ها، و تجزیه و تحلیل مؤلفه‌های اصلی (PCA) به عنوان چیزی مفیدتر برای روندهای خطی محیطی (نه گونه‌ها) فکر کنم. من واقعاً شانسی نداشتم که بفهمم آیا PCA یا CA برای درصد جلد مناسب‌تر هستند یا نه (نمی‌توانم مقاله‌ای پیدا کنم)، و حتی مطمئن نیستم که چیزی که تا 100٪ محدود شده است چگونه توزیع می‌شود. ? من با این دستورالعمل تقریبی آشنا هستم که اگر طول اولین محور تجزیه و تحلیل مکاتبات detrended (DCA) بزرگتر از 2 باشد، می توانید با خیال راحت فرض کنید که CA باید استفاده شود. طول محور 1 DCA 2.17 بود که به نظر من مفید نیست.
استفاده از تحلیل مؤلفه های اصلی در مقابل تحلیل مکاتبات
4854
در رگرسیون لجستیک، آیا نیازی است که در مورد چند خطی بودن به همان اندازه که در رگرسیون مستقیم OLS نگران هستید، نگران باشید؟ به عنوان مثال، با یک رگرسیون لجستیک، در جایی که چند خطی وجود دارد، آیا باید محتاط باشید (همانطور که در رگرسیون OLS انجام می دهید) در استنتاج از ضرایب بتا؟ برای رگرسیون OLS یکی از راه حل های چند خطی بالا، رگرسیون پشته است، آیا چیزی شبیه به آن برای رگرسیون لجستیک وجود دارد؟ همچنین، حذف متغیرها، یا ترکیب متغیرها. چه رویکردهایی برای کاهش اثرات همخطی چندگانه در رگرسیون لجستیک منطقی است؟ آیا اساساً همان OLS هستند؟ (توجه: این برای هدف یک آزمایش طراحی شده نیست)
رگرسیون لجستیک - نگرانی ها / مشکلات چند خطی
106179
من توزیعی از نمرات عددی را با استفاده از داده های واقعی محاسبه کرده ام (توزیع مرجع من). پس از آن، من 100000 توزیع تصادفی از امتیازات عددی را با استفاده از نقاطی که به‌طور تصادفی در فضایی از نقاط ممکن انتخاب شده بودند، ایجاد کردم. بنابراین اکنون می‌خواهم توزیع مرجع خود را با این توزیع‌های تصادفی مقایسه کنم و آزمایش کنم که آیا توزیع مرجع تفاوت معنی‌داری با توزیع‌های تصادفی دارد یا خیر. با تشکر
یک توزیع را با چندین توزیع دیگر مقایسه کنید
18496
من یک نظرسنجی با بسیاری از پاسخ دهندگان انجام داده ام. مجموعه ای از سؤالات وجود داشت و از هر پاسخ دهنده 3 سؤال پرسیده شد (به طور یکنواخت به صورت تصادفی و به طور مستقل برای هر پاسخ دهنده انتخاب شدند). اکنون من علاقه مند به مقایسه کسری از پاسخ دهندگانی هستم که به سوال $i$ پاسخ صحیح داده اند با کسری که به سوال $j$ پاسخ صحیح داده اند. بهترین روش برای انجام این کار چیست؟ به خاطر داشته باشید که از تعداد کمی از پاسخ دهندگان هر دو سوال $i$ و $j$ پرسیده شده است (برای آنها، این یک طرح درون موضوعی بود)، در حالی که از بسیاری از پاسخ دهندگان فقط یک یا آن سوال پرسیده شده است (برای این زیر کلاس) از پاسخ دهندگان، بیشتر شبیه طرح بین موضوعی است). **گزینه #1.** می توانم تعداد کل پاسخ دهندگانی که به سوال $i$ پاسخ داده اند و تعداد کسانی که به آن پاسخ صحیح داده اند را بشمارم تا کسری را که به سوال $i$ پاسخ صحیح داده است، بدست بیاورم. به طور مشابه، من می توانم کسر پاسخ دهندگانی را که به سوال $j$ پاسخ صحیح داده اند محاسبه کنم. سپس می توانم این دو عدد را با هم مقایسه کنم. اساساً، من این واقعیت را نادیده می‌گیرم که از برخی کاربران هر دو سؤال پرسیده شده است. نگران نباش شاد باش این نوعی ترکیبی است بین طراحی درون سوژه ها/بین سوژه ها. **گزینه #2.** می‌توانم تمام پاسخ‌دهندگانی را که از هر دو سؤال $i$ و $j$ پرسیده شده بودند، فیلتر کنم. از بقیه پاسخ دهندگانی که از آنها سوال $i$ یا سوال $j$ پرسیده شد (اما نه هر دو)، سپس می توانم کسری را که به سوال $i$ پاسخ صحیح داده و کسری را که به سوال $j$ پاسخ صحیح داده است محاسبه کنم. این اساساً این را به یک طراحی بین موضوعات تبدیل می کند. **گزینه شماره 3.** می‌توانم فقط پاسخ‌های پاسخ‌دهندگانی را که هر دو سؤال را دیده‌اند نگه دارم و سپس با استفاده از آزمون استاندارد برای طرح‌های درون موضوعی مقایسه کنم. نقطه ضعف این است که من اکثر پاسخ ها را فیلتر کرده ام. احتمالاً فقط تعداد کمی از پاسخ دهندگان به طور تصادفی برای پاسخ به هر دو سؤال انتخاب شده اند. **گزینه شماره 4. ** من می توانم کار دیگری انجام دهم (شما به من بگویید چه کاری). آیا توصیه ای دارید؟ یا در هر یک از اینها مشکلاتی وجود دارد؟ آیا باید هر یک از این گزینه ها را رد کرد؟ شاید راهی برای ترکیب بهترین های هر دو دنیا وجود داشته باشد و هر دو گزینه شماره ۲ و گزینه شماره ۳ را به روشی هوشمندانه ترکیب کنیم؟
تجزیه و تحلیل داده ها برای طراحی ترکیبی درون موضوعی/بین موضوعی؟
18493
من روی بهبود مدل جنگل تصادفی کار می کنم. من مقداری خوشه‌بندی داده‌ها را با استفاده از بسته «pvclust» در R انجام داده‌ام. من از فاصله‌های بخش و اقلیدسی استفاده می‌کنم. سوال من این است که چگونه از نتایج تجزیه و تحلیل خوشه‌بندی به جنگل تصادفی بهتری بروم. آیا باید چندین شی «rf» را با تقسیم داده‌ها در امتداد لبه‌های تعریف‌شده در نتایج خوشه‌بندی اجرا کنم یا چیز دیگری است. هر گونه پیشنهادی قدردانی خواهد شد. بیشتر کارهای من در R است.
از خوشه ای به جنگل تصادفی بروید
106177
من داده های قبل از پست در مورد کیفیت زندگی، افسردگی و عزت نفس دارم. من فرض می کنم که تغییرات در عزت نفس از قبل به بعد باعث تغییراتی در افسردگی می شود که به نوبه خود باعث تغییر در کیفیت زندگی از قبل به بعد می شود. این به نظر من مانند دو رگرسیون چندگانه جداگانه است، اما مطمئن نیستم که آیا این می‌تواند در یک تحلیل واحد ترکیب شود یا همان چیزی است. نمی دانم چه نوع تحلیلی برای پاسخ به فرضیه من بهتر است.
متغیر A B را پیش بینی می کند، متغیر B C را پیش بینی می کند
2002
من مدل‌های رگرسیون LOESS را در R اجرا می‌کنم و می‌خواهم خروجی‌های 12 مدل مختلف را با اندازه‌های نمونه متفاوت مقایسه کنم. اگر به پاسخ دادن به سوال کمک کند، می توانم مدل های واقعی را با جزئیات بیشتری شرح دهم. اندازه‌های نمونه در اینجا آمده است: Fastballs vs RHH 2008-09: 2002 Fastballs vs LHH 2008-09: 2209 Fastballs vs RHH 2010: 527 Fastballs در مقابل LHH 2010: 449 RHHH909:449 Changeups در مقابل LHH 2008-09: 824 Changeups vs RHH 2010: 201 Changeups vs LHH 2010: 330 Curveballs vs RHH 2008-09: 488 Curveballs در مقابل LHH 2008-2004 RHH: 213 Curveballs در مقابل LHH 2010: 162 مدل رگرسیون LOESS یک تناسب سطحی است که در آن مکان X و مکان Y هر زمین بیس بال برای پیش‌بینی احتمال ضربه نوسانی و نوسانی استفاده می‌شود. با این حال، مایلم بین هر 12 مدل از این مدل ها مقایسه کنم، اما تنظیم یک بازه (یعنی span = 0.5) نتایج متفاوتی را به همراه خواهد داشت زیرا طیف وسیعی از اندازه نمونه وجود دارد. سوال اساسی من این است که چگونه می توانید طول مدل خود را تعیین کنید؟ بازه بالاتر تناسب را بیشتر صاف می کند، در حالی که دهانه پایین تر روندهای بیشتری را ثبت می کند اما در صورت وجود داده های بسیار کم، نویز آماری را معرفی می کند. من از یک دهانه بالاتر برای اندازه نمونه های کوچکتر و از یک دهانه کمتر برای اندازه نمونه های بزرگتر استفاده می کنم. چه کار کنم؟ هنگام تنظیم span برای مدل های رگرسیون LOESS در R، یک قانون کلی خوب چیست؟ پیشاپیش متشکرم
چگونه می توانم تصمیم بگیرم از چه بازه ای در رگرسیون LOESS در R استفاده کنم؟
112176
من نمی دانم بهترین راه برای پیش بینی چرخه تجاری بر اساس گذشته چیست. در حال حاضر داده‌های شاخص تولید ناخالص داخلی تعدیل‌شده فصلی را به فیلتر هودریک-پرسکات می‌دهم، مؤلفه چرخه‌ای را استخراج می‌کنم، آخرین نقطه داده را می‌گیرم، نقاط مشابه گذشته را پیدا می‌کنم و می‌بینم بعد از آن چه اتفاقی افتاده است. (تصویر پیوست را ببینید.) شاید راه بهتری برای برون یابی وجود داشته باشد؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/EpnIZ.jpg)
پیش بینی چرخه تجاری؟
106176
من یک مدل پیشنهادی برای عوامل تعیین کننده مسئولیت اجتماعی شرکت (مهم نیست) دارم. از بین متغیرهای مستقل خود دو متغیر به دست می‌آورم که از نظر آماری معنی‌دار نیستند. با توجه به رویکرد Wooldridge، برای اینکه بدانم آیا باید این دو متغیر را از مدل حذف کنم، باید یک آزمون F را با مدل محدود و نامحدود اجرا کنم، درست است؟ سوال من این است: آیا می توانم این straighaway را با نرم افزاری مانند Gretl یا SPSS انجام دهم؟ یا باید آمار را به صورت دستی بسازم؟ با تشکر برای پاسخ
F-test: تست مدل نامحدود در مقابل مدل محدود شده در گرتل و SPSS
18499
چه روش هایی برای آزمایش وجود هر نوع وابستگی در یک سری زمانی وجود دارد؟ این برخلاف چیزی مانند همبستگی خودکار است که نوع خاصی از وابستگی را آزمایش می کند. آیا چیزی وجود دارد که بتوان گفت که آیا وابستگی ها به طور کلی وجود دارند، بدون اینکه لزوماً نوع آن را مشخص کنیم؟ من **شنیده** چیزی به نام آزمون طیف دیفرانسیل را تجربه کرده ام، که بیان می کند که تغییرات هیستوگرام شده در سری زمانی باید در حدود صفر متقارن باشد اگر سری تغییرات مستقل باشد. (یعنی مجموعه $x_{t+1} - x_{t}$ را هیستوگرام کنید و باید حدود صفر متقارن باشد). اگه کسی مرجعی برای این تست داره ممنون میشم به روز رسانی: نظرات نشان می دهد که شکست در تست نویز سفید نشان دهنده وجود نوعی وابستگی است. درسته؟ من حدس می زنم که باید به تست بستگی داشته باشد. در اینجا برخی از آنها وجود دارد که من پیدا کرده ام. نظری در مورد کاربرد آنها در اینجا وجود دارد؟ بارتلت و کیو تست روش ولش روش پرز و. al. روش لوباتو و ولاسکو
آزمایش وجود وابستگی در سری های زمانی
71666
اگر میانگین زمان تعمیر (MTTR) 3 روز و میانگین زمان بین خرابی ها (MTBF) 9 روز باشد، و بنابراین در دسترس بودن MTBF/(MTTR + MTBF) = 9/12 = 75٪، می توانم انتظار داشته باشم. که، به طور متوسط، 75٪ از ماشین های من در روز در دسترس خواهد بود، فرض کنید من تعداد زیادی ماشین دارم؟ آیا برای اینکه این اتفاق بیفتد، آیا باید فرضیات را تأیید کرد؟
آیا در دسترس بودن (محاسبه شده با استفاده از میانگین زمان خرابی/تعمیر) باید با نسبت متوسط ​​واحدهای موجود در طول زمان مطابقت داشته باشد؟
18490
من این سوال را در Stackoverflow پرسیدم: http://stackoverflow.com/questions/8142118/incidence-rate-ratios-in-r-poisson- regression و به من توصیه شد که در اینجا پست کنید. من داده هایی دارم که به نظر می رسد این جمعیت گربه سنی جنسی 1 مرد 0-4 12 126526 2 مرد 5-9 12 128375 3 ماده 0-4 11 129280 4 مرد 10-14 4 127910 5 زن 0-4 1506 مرد 0-4 1381 4 8 125125 من میخواهم خروجی ای را که در stata میگیرم با این دستور کپی کنم poisson case i.agecat, exp(pop) irr که خروجی هایی مانند case | IRR Std. اشتباه z P>|z| [95% Conf. فاصله] ---------------------------------------------- -------------------------- agecat | 2 | .5125755 .0530442 -6.18 0.000 .4578054 .6669639 3 | .323456 .0381304 -9.60 0.000 .2665044 .4172274 جمعیت | (اکسپوژر) در R با دستوری مانند glm(cases~agecat, family = poisson(link = log) می دانم که باید ضرایب و فواصل اطمینان را افزایش دهم، اما فکر می کنم به نوعی افست هم نیاز دارم بنابراین بنابراین که رهگیری صفر است و برای هر واحد جمعیت می تواند کمک کند جزئیات بیشتر در اینجا به طور خاص، من فکر می‌کنم این موضوع به تنظیم اندازه جمعیت در stata با exp(pop) مربوط می‌شود - و نحوه تکرار آن در R.
نسبت‌های میزان بروز (Stata در مقابل R)
112174
این یک سوال مفهومی است در داده کاوی، این مشکل اغلب به وجود می آید که دانشمندان/مهندسین داده از حدس تخصصی برای توزیع اساسی داده های خود استفاده می کنند. غالباً فرض آنها بر اساس نتایج قبلی تحقیقات دانشگاهی است و واقعاً توزیع واقعی مجموعه داده را منعکس نمی کند. با این حال، من می خواهم توزیع واقعی مجموعه داده خود را دریافت کنم؟ هر توصیه ای از کجا شروع کنم؟ آیا این حتی برای بدست آوردن توزیع واقعی منطقی است؟ آیا این کار می تواند خودکار شود؟ من از پاسخ شما قدردانی می کنم! btw من بیشتر از R به عنوان ابزار تجزیه و تحلیل داده های خود استفاده می کنم
توزیع یک مجموعه داده را دریافت کنید
102664
آیا یک تابع مولد لحظه تبدیل فوریه یک تابع چگالی احتمال است؟ به عبارت دیگر، آیا یک تابع مولد لحظه فقط وضوح طیفی توزیع چگالی احتمال یک متغیر تصادفی است، یعنی روشی معادل برای توصیف یک تابع از نظر دامنه، فاز و فرکانس آن به جای پارامتر؟ اگر چنین است، آیا می‌توانیم یک تعبیر فیزیکی به این جانور بدهیم؟ من می‌پرسم زیرا در فیزیک آماری یک تابع مولد تجمعی، لگاریتم یک تابع مولد گشتاور، یک کمیت افزایشی است که یک سیستم فیزیکی را مشخص می‌کند. اگر انرژی را به‌عنوان یک متغیر تصادفی تصور می‌کنید، تابع تولید تجمعی آن تفسیر بسیار شهودی به عنوان پخش انرژی در سراسر یک سیستم دارد. آیا تفسیر شهودی مشابهی برای تابع مولد لحظه وجود دارد؟ من کاربرد ریاضی آن را درک می کنم، اما این فقط یک مفهوم ترفند نیست، مطمئناً معنایی پشت آن از نظر مفهومی وجود دارد؟
توابع مولد لحظه و تبدیل فوریه؟
102667
من یک مدل رگرسیون بر روی داده‌های خود با استفاده از جنگل‌های تصادفی در R ایجاد کرده‌ام. خروجی بسیار بزرگ است، می‌خواهم بدانم آیا راهی برای کاهش این تنها به قطعات ضروری برای پیش‌بینی وجود دارد؟ مجموعه داده های آموزشی شامل 20 متغیر و ~ 45000 ردیف است که همچنین بزرگ است. کد من در زیر لیست شده است. داده <- readRDS(data.Rds) require(data.table) require(doParallel) require(randomForest) train <- data[ which(set == train)] test <- data [که(مجموعه == تست)] rm(داده) x <- data.table(train[, 2:21, with=FALSE]) y <- as.vector(as.matrix(train[, 23, with=FALSE])) cl <- makeCluster(detectCores()) registerDoParallel(cl, cores=4) time <- system.time({rf.fit <- foreach (ntree=rep(500, 6)، .combine=combine، .multicombine=TRUE، .packages=randomForest) %dopar% {randomForest(x, y, ntree=ntree)}}) stopCluster(cl) saveRDS(rf.fit, rf.fit.Rds) خروجی این ~230 مگابایت است . وقتی مدل رو گرفتم میشه سایزش رو کم کرد تا کار باهاش ​​راحت تر بشه؟ هدف من از این کار شناسایی متغیرهای مهم و پیش بینی داده های جدید است.
کاهش اندازه مدل جنگل تصادفی
79632
من سعی می‌کنم بایاس و واریانس $\hat{\lambda}_{MLE}$ را در جایی که $X \sim نمایی(\lambda)$ محاسبه کنم. دوم اینکه آیا به CRLB می رسد؟ تلاش: $$f_x(X) = \lambda e^{-\lambda x}$$ $$L(\lambda; x_1,...,x_n) = \lambda^n e^{-\lambda \sum^n X_i}$$ $$\ell(\lambda; x_1،...x_n) = n ln(x) - \lambda \sum^n X_i$$ $$\hat{\lambda}_{MLE} = \frac{\sum^n X_i}{n} = \lambda^{-1}$$ به عنوان $\frac{d}{d\lambda} \ell( \lambda; وقتی $\hat{\lambda}_{MLE} = \frac{\sum^n X_i}{n}$، من معتقدم که $\hat{\lambda}_{MLE}$ بی طرفانه است. من در یافتن واریانس $\hat{\lambda}_{MLE}$ گیر کردم. از آنجایی که MLE بی طرف است، معتقدم که به CRLB می رسد.
بایاس و واریانس MLE را در یک خانواده نمایی محاسبه کنید
106171
به طور معمول احتمال حاشیه ای به صورت $p(x) = \sum_y p(x | y) \cdot p(y) $ محاسبه می شود حالا، فرض کنید من تمام این احتمالات را در سمت راست در logspace دارم (به عنوان logprobabilities). چجوری اینکارو بکنم؟!؟
چگونه می توان احتمال حاشیه ای را از احتمالات مشروط در logspace محاسبه کرد؟
112173
من از تحلیل رگرسیون لجستیک چند جمله ای برای تجزیه و تحلیل پاسخ های رفتاری گوزن ها به تله های دوربین بر اساس 7 متغیر پیش بینی کننده استفاده می کنم. من 2 مدل دارم که از نظر مقدار AIC بسیار نزدیک به هم هستند (فصل AIC 1005.103؛ فصل و درصد پوشش 1005.023). پوشش فصل و درصد بهترین مدل است (اما فقط اسمی). درصد پوشش به عنوان درصد آهو تحت پوشش ویژگی های توپوگرافی و پوشش گیاهی نسبت به دوربین تعریف می شود. اگر به تنهایی در نظر گرفته شود، مقدار AIC 1008.289 دارد. با این حال، فصل و پوشش ظاهراً ارتباط نزدیکی با هم دارند (که منطقی است). من نمی دانم که آیا استفاده از هر دو متغیر در یک مدل اضافی است یا سطح مشخصی از همبستگی مشکلی ندارد؟ یک میلیون ممنون
همبستگی بین متغیرهای پیش بینی در یک مدل AIC
71661
من یک برنامه ساده ساختم که رویدادها را با استفاده از API های eventbrite و meetup.com می گیرد و بر اساس کد پستی شما نمایش می دهد. اکنون سعی می‌کنم یک توصیه‌کننده رویداد ساده بسازم که از رویدادهایی که شما به‌عنوان علاقه‌مند/غیرعلاقه علامت‌گذاری کرده‌اید به عنوان مجموعه آموزشی استفاده کند. دو سوال اصلی در اینجا: * بهترین راه برای استخراج ویژگی ها از توضیحات رویدادها چیست؟ * اندازه مجموعه تمرینی چقدر باید باشد؟ من از LDA برای مدل‌سازی موضوعات بر اساس توضیحات استفاده کردم، بنابراین برای هر رویداد یک ماتریس ویژگی وجود دارد که موضوعات را نشان می‌دهد. سپس طبقه‌بندی‌کننده‌های مختلف خطی SVC، KNearestNeighbors، RandomForest را امتحان کردم، اما هیچ چیز نتایج خوبی به دست نمی‌دهد (بهتر از طبقه‌بندی تصادفی نیست). آیا LDA راه خوبی برای استخراج ویژگی ها برای این وضعیت است؟ همچنین مجموعه آموزشی فقط 356 رویداد است که 254 مورد از آنها منفی است. آیا من همه چیز را کاملاً اشتباه انجام می دهم؟ ;)
نحوه ساخت توصیه‌کننده رویداد فقط بر اساس توضیحات رویدادها
112172
من سعی می‌کنم بفهمم آزمون آماری مناسب برای داده‌هایی که DV پیوسته است و IVها طبقه‌بندی هستند، چیست. تعداد زیادی DV مختلف وجود دارد که من می‌خواهم آن‌ها را یکی یکی از طریق یک مدل اجرا کنم، بنابراین در یافتن چگونگی انجام آمارهای اکتشافی برای کشف دقیق گام‌های بعدی (یعنی روش‌شناسی) مشکل دارم. من فرض کرده بودم که رگرسیون کار می کند، اما در مورد نیاز به خطی بودن نگران هستم. آیا زمانی که IV ها مقوله ای در مقابل پیوسته هستند، این الزام همچنان برقرار است؟ آیا کسی می تواند به من کمک کند تا از تست مناسب استفاده کنم.
تجزیه و تحلیل برای استفاده با پیش بینی کننده های طبقه بندی شده و متغیرهای پاسخ مداوم
6963
تولید یک متغیر تصادفی با توزیع دیریکله با استفاده از متغیرهای گاما با پارامتر مقیاس یکسان آسان است. اگر: $ X_i \sim \text{Gamma}(\alpha_i، \بتا) $ سپس: $ \left(\frac{X_1}{\sum_j X_j},\; \ldots\; , \frac{X_n}{\ sum_j X_j}\right) \sim \text{Dirichlet}(\alpha_1,\;\ldots\;,\alpha_n) $ _مشکل_ اگر پارامترهای مقیاس برابر نباشند چه اتفاقی می افتد؟ $ X_i \sim \text{Gamma}(\alpha_i، \beta_i) $ سپس توزیع این متغیر چیست؟ $ \left(\frac{X_1}{\sum_j X_j},\; \ldots\; , \frac{X_n}{\sum_j X_j}\right) \sim \; ? $ برای من دانستن مقدار مورد انتظار این توزیع کافی است. من به یک فرمول جبری بسته تقریبی نیاز دارم که خیلی سریع توسط کامپیوتر قابل ارزیابی باشد. فرض کنید تقریب با دقت 0.01 کافی است. شما می توانید فرض کنید که: $ \alpha_i, \beta_i \in \mathbb{N} $ _Note_ به طور خلاصه، وظیفه یافتن تقریبی از این انتگرال است: $ f(\vec{\alpha}, \vec{\beta} ) = \int_{\mathbb{R}^n_+} \;\frac{x_1}{\sum_j x_j} \cdot \prod_j \frac{\beta_j^{\alpha_j}}{\Gamma(\alpha_j)} x_j^{\alpha_j - 1} e^{-\beta_j x_j} \;\; dx_1\ldots dx_n$
مقدار مورد انتظار توزیع دیریکله اصلاح شده چقدر است؟ (مشکل ادغام)
12485
من یک مجموعه داده دارم که می توانم مقادیری را از آن جمع آوری کنم، به عنوان مثال. مجموع، میانگین، واریانس... من می خواهم یک رگرسیون ساده روی ستون (x,y) انجام دهم. طبق ویکی پدیا، شکل بسته $\alpha,\beta$ \begin{equation} \alpha=\frac{Cov(x,y)}{Var(x)} \quad \mbox{and} \quad \ است. beta=\bar{y}-\beta\bar{x}. \end{equation} اما من همچنین می‌خواهم آمار بیشتری از رگرسیون داشته باشم، به عنوان مثال **r، r-square، معنی‌داری...** اساساً من می‌خواهم همان نتیجه‌ای را بگیرم که این کلاس SimpleReggression apache فقط با تغذیه تولید می‌کند. مقادیر جمع آوری شده به جای نقاط داده خام. توصیه ای در مورد نحوه انجام آن وجود دارد؟
رگرسیون ساده را بدون داده های خام انجام دهید
102665
من اطلاعاتی دارم که واقعاً نمی دانم چگونه آنها را تجزیه و تحلیل کنم. هر آزمودنی که همه آنها سالم/طبیعی شروع می‌شوند در طول درمان تحت یک سری آزمایشات تصویربرداری قرار می‌گیرند: اسکن 1 (پایه)، اسکن 2، اسکن 3، ... اسکن N. سپس این اسکن‌ها پردازش می‌شوند و پارامتر استاندارد طلایی، مثلاً G، اندازه گیری می شود. حال اگر G 10 درصد تغییر کند، درمان بیماران به حالت تعلیق در می آید. کاری که من می‌خواهم انجام دهم، اندازه‌گیری G برای هر اسکن برای هر موضوع است، می‌خواهم چندین پارامتر جدید دیگر (مثلاً A، B، C و D) را اندازه‌گیری کنم تا ببینم آیا آنها پیش‌بینی‌کننده‌ای هستند که G به میزان 10 درصد کاهش می‌یابد. اسکن بعدی چیزی شبیه A به مقدار معینی در اسکن 3 سقوط می کند که کاهش قابل توجه (10٪ یا بیشتر) در G را پیش بینی می کند. تاکنون من داده های خود را به دو مجموعه تقسیم کرده ام: آن دسته از افراد که افت بالینی قابل توجهی در G (غیر طبیعی) دارند. ) و کسانی که این کار را نمی کنند (عادی). تغییر در G می تواند در هر اسکن سری رخ دهد. آیا ایده ای در مورد بهترین روش برای نزدیک شدن به این تحلیل دارید؟
نظارت طولی: نحوه آزمایش اینکه آیا یک پارامتر قبل از استاندارد طلا تغییر می کند یا خیر
15455
بنابراین من سعی می کنم یک روش نیمه کارآمد برای محاسبه فرکانس بهینه (تکرارکننده) مجموعه ای از داده ها تعیین کنم. داده ها فقط در دوره های زمانی تصادفی وجود دارند، اما فرض بر این است که مجموعه داده ها کامل است. **به عنوان مثال:** بگویید که ما هر بار که فیلمی را تماشا می‌کردیم، داده‌هایی ضبط می‌کردیم که بیننده علاقه خود به فیلم را ثبت می‌کرد. دوست داشتنی بودن به وضوح بستگی به این دارد که چه فیلمی تماشا شده است. با این حال، چیزی که من به آن علاقه دارم فرکانس تماشای فیلم ها برای دوست داشتن مطلوب است. بعلاوه، حتی اگر دو فیلم پشت سر هم تماشا می‌شدند و بیننده آن‌ها را دوست داشت، این فرکانس نباید بهینه باشد مگر اینکه: 1. ثابت شود که بیننده می‌توانست به طور مداوم فیلم را با آن سرعت تماشا کند. 2. داده ها پرت نیستند و نتایج در جای دیگری از مجموعه داده ها بازتولید شده اند. چگونه می توان این کار را انجام داد؟ توجه داشته باشید که در این سناریو، داده‌ها را می‌توان همان‌طور که در حال شکل‌گیری بود پردازش کرد (می‌توانیم به بیننده بگوییم برای نتایج مطلوب، فیلم‌ها را با فرکانس x تماشا کند، اما هیچ تضمینی وجود ندارد که آن‌ها این کار را انجام دهند). با تشکر
فرکانس بهینه (تکرار شونده) مقادیر گسسته را تعیین کنید
18491
شاید سوال من بسیار ساده باشد، با این حال نتوانستم راه حل قابل اعتمادی برای مشکل خود پیدا کنم. مشکل من اینجاست: اگر این امر باعث ضرر مالی من برابر یا بالاتر از مقدار x$ (مثلاً به USD) شود، چیزی را به عنوان رویداد در نظر بگیرید. تعداد چنین رویدادهایی (در یک بازه زمانی خاص، مثلاً 10 سال) از توزیع پواسون با نرخ $\alpha$ پیروی می کند. اکنون سؤال من این است: تحت این چارچوب، توزیع تعداد «رویداد دیگری» که باعث ضرر من $\$\ x_1$ می‌شود، در آنجا $x_1 > x$ چگونه خواهد بود. من معتقدم که توزیع پواسون با نرخ $\alpha\frac{x}{x_1}$ خواهد بود؟ آیا درست است؟ چگونه می توانم این را از نظر ریاضی ثابت کنم؟ هر پیشنهادی بسیار قدردانی خواهد شد.
یک سوال در مورد توزیع پواسون
76503
فرض کنید من دو نفر دارم. من برای هر کدام از آنها یک ماتریس شبکه برای روزانه برای برخی از عادات روزانه آنها $(یعنی A، B، C، D)$ ایجاد می کنم. من این کار را برای، فرض کنید 60 دلار روز انجام می دهم. ![دو نفر و ماتریس‌های روزانه‌شان](http://www.chrisjvargo.com/Matrix%20Time%20Series.png) من حوصله تغییر مقادیر در ماتریس‌ها را به خود ندادم، اما بیایید فرض کنیم روز به روز متفاوت هستند. . در پایان روزهای 60 دلاری، می‌خواهم ببینم آیا ماتریس عادات روزانه «شخص 1» بر ماتریس «شخص 2» تأثیر گذاشته است یا خیر. اگر این ماتریس نبود، کاری شبیه به سری زمانی ARIMA انجام می‌دادم. آیا راهی برای پردازش ماتریس ها وجود دارد و اینکه «شخص 1» شخص 2 را پیش بینی می کند یا برعکس؟ برای هر آمار/بسته ای که ممکن است کار را انجام دهد باز است.
سری زمانی برای ماتریس های شبکه؟
106172
من یک متغیر دارم که مقادیر آن بین $-\infty$ و $\infty$ متفاوت است. من می خواهم محدودیت های آن را از $0$ به $1$ تغییر دهم. من می‌خواهم مقادیر بسیار کم را زمانی که مقادیر کمتر از $-1$ یا بیشتر از $1$ هستند و می‌خواهم بالاترین مقدار را به مقدار $0$ بدهم. کدام توزیع در اینجا بهترین است، و فرمول انجام این کار چیست؟ و در صورت امکان، می توانید من را به چند لینک خوب راهنمایی کنید تا بتوانم در مورد این موارد بیشتر بدانم؟
محدوده های متغیر از بی نهایت تا بی نهایت منفی - تغییر محدودیت ها
106170
من می خواهم بتوانم پیش بینی کنم که چه زمانی یک منبع خاص را تمام می کنم. وضعیت من مشابه* مخزن آب است. هر روز صفر یا بیشتر باران می بارد و مخزن را پر می کند. من نمی توانم از قبل بگویم چه مقدار باران در روز می بارد، اگر اصلاً وجود داشته باشد. هیچ گاه خروجی از مخزن وجود نخواهد داشت. هر روز می توانم مقدار موجود در مخزن را اندازه گیری کنم و ظرفیت آن تانک را می دانم. از آنجایی که در دسترس بودن مخازن یدکی و همچنین پر کردن مخزن در صورت در دسترس نبودن مخزن یدکی هزینه ای دارد، می خواهم از اندازه گیری های روزانه خود برای پیش بینی زمان پر شدن مخزن استفاده کنم. تجربه تاکنون نشان می دهد که این تانک حدود چهار سال ظرفیت دارد. حدود سه تا شش ماه طول می کشد تا یک تانک جدید را راه اندازی کنیم و بسته به اینکه چه اتفاقی می افتد کار کند. این چیزی است که ما می خواهیم از قبل برای آن برنامه ریزی کنیم. البته اگر سیل قریب الوقوع باشد می توان از مخازن اضطراری عبور کرد، اما هزینه آن بسیار زیاد است و باید از این کار اجتناب کرد. من یک رگرسیون خطی سطح آب روزانه را محاسبه کرده ام. این به من یک شیب و وقفه می دهد که از روی آن می توانم تاریخ عبور خط روند از ظرفیت مخزن را محاسبه کنم. با این حال، این هیچ نشانه ای از ایمانی که می توانم به این عدد داشته باشم به من نمی دهد. آیا استفاده از فرمول فاصله اطمینان برای محاسبه مشابه زمانی که منحنی CI از ظرفیت عبور می کند، مشروع است؟ آیا راه بهتری برای رسیدن به این هدف وجود دارد؟ داده ها به این شکل خواهند بود (مقادیر اختراع شده): ![مثال با روند.](http://i.stack.imgur.com/bW8Dv.png) * * * *مورد واقعی یک سیستم کامپیوتری انبار داده است. سطرها دارای یک ستون افزایش خودکار هستند. با نوشتن یک ردیف جدید، مقدار این ستون بالا می رود. هرگز پایین نمی آید. هیچ معادلی برای تخلیه قیاس مخزن آب وجود ندارد. اگر امروز بزرگترین مقدار را در این ستون اندازه‌گیری کنم و هیچ ردیفی یک شبه اضافه نشود، فردا که بپرسم همان مقدار را دریافت می‌کنم. اگر ردیف ها یک شبه نوشته می شد، اندازه گیری فردا بزرگتر از امروز خواهد بود. حتی اگر همه ردیف‌ها حذف شوند، افزایش خودکار به صفر بازنشانی نمی‌شود. ستون به عنوان یک عدد صحیح تعریف می شود که حداکثر مقدار آن کمی بیش از دو میلیارد است. اگر به این حد برسیم، نمی‌توانیم ردیف‌هایی را به جدول اضافه کنیم، زمان خاموشی سیستم داریم، سر رئیس من منفجر می‌شود، اقیانوس‌ها به خون تبدیل می‌شوند و غیره. ما نمی‌خواهیم این اتفاق بیفتد. دیسک‌هایی که این داده‌ها را ذخیره می‌کنند ده‌ها هزار دلار هزینه دارند، بنابراین، بدیهی است که ما نمی‌خواهیم هزینه سرمایه را زودتر از آنچه که باید داشته باشیم داشته باشیم. تعریف باید محور سوال من است.
ایمان به یک نتیجه تعمیم یافته
76500
من یک سری نقاط داده دارم که شامل 1) زمان و 2) برد یا باخت است. من می خواهم بتوانم نرخ برد کل را برای دوره های زمانی خاص تعیین کنم و آن را نمودار کنم. برای مثال، فرض کنید من با بوکسورها سر و کار دارم. مایلم بتوانم بگویم که بیل بوکسور در مسابقات بوکس در حدود نقطه 30 با نرخ برد 70 درصد به اوج خود می رسد و در حدود 40 دقیقه با نرخ برد 40 درصد سقوط می کند. از چه روش‌ها یا ابزارهای آماری برای به دست آوردن بینش در این مورد استفاده کنم؟
چگونه می توانم نرخ برد را در طول زمان تجزیه و تحلیل کنم (یعنی داده های روشن/خاموش در طول زمان)؟
106173
من می خواهم بررسی کنم که چگونه دو سری زمانی با هم مرتبط هستند - چگونه یکی از آنها سری دیگر را پیش بینی می کند. من اطلاعات 27 ساله دارم. من تجزیه و تحلیل خود را در SPSS (فرمان پیش بینی، ARIMA) انجام می دهم و دریافت می کنم: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/lMJpN.png) لطفاً کسی می تواند به من بگوید تفاوت بین R-squared و R-squared ثابت است و کدام یک از آنها در این مورد بهتر است؟ با قضاوت بر اساس R-squared، مدل خوب است حدس می زنم، در حالی که بر اساس Stationary R-squared آنقدر است. من خوانده ام که اگر یک روند (منظور آنها یک روند ساده است؟) یا تغییرات فصلی باشد، مربع R ثابت بهتر است. در مورد من، هر دو مقدار در مقاطع زمانی مختلف افزایش و کاهش یافته است: دوره‌هایی وجود داشت که مقادیر به‌طور مداوم بالا/افزایش یافتند و دوره‌هایی که به‌طور مداوم پایین/کاهش شدند. بنابراین پویایی های پیچیده ای وجود دارد که به سختی می توان گفت که آیا یک روند وجود دارد یا خیر. یعنی مربع R کافی است؟ از سوی دیگر، من خواندم که R-squared عمدتا برای تجزیه و تحلیل داده های ثابت مناسب است. داده های سری من به طور قطعی همبستگی خودکار دارند، بنابراین اگر آن را به درستی بفهمم، غیر ثابت است. بنابراین آیا باید از R-squared ثابت استفاده کنم؟ پیشاپیش متشکرم (با عرض پوزش، اکنون متوجه شدم که تمام کاماها را به نقاط جدول تبدیل نکردم. من از نسخه غیر انگلیسی SPSS استفاده می کنم. اما کاما با امتیاز برابر است)
سری زمانی: ثابت R-squared در مقابل R-squared (پیش بینی در SPSS)
112179
من باید یک مجموعه داده را تجزیه و تحلیل کنم، با طراحی بسیار درهم و برهم، مطمئن نیستم چگونه. من سعی خواهم کرد آن را ساده کنم. نوع جدیدی از بخیه ها اختراع شد و در مقابل 2 نوع بخیه قدیمی آزمایش شده است. من این را می نامم: درمان، کنترل 1 و کنترل 2. چند بیمار انتخاب شدند که نیاز به بخیه داشتند. هر بیمار (بر اساس نیاز، نه به صورت تصادفی) به یکی از دو تکنیک بخیه اختصاص داده شد. موارد دیگری نیز وجود دارد، اما فقط این دو مورد آزمایش قرار گرفتند. من این متغیر را نوع رویه می نامم. هر بیمار به یک بخیه یا بیشتر، حداکثر تا 5 بخیه نیاز داشت. مشکل این است که بیمارانی که به بیش از یک بخیه نیاز دارند، (گاهی اوقات) ترکیبی از بخیه های مختلف را دریافت می کنند. یعنی یک بیمار می تواند درمان و کنترل 1 داشته باشد و دیگری می تواند 2 درمان و 2 کنترل 2 و غیره داشته باشد... امیدوارم اینجا اصطلاحات را با هم قاطی نکنم اما واحد آزمایشی من بیمار است و واحد مشاهدات بخیه است. در داخل بیمار من 40 بخیه درمانی و 20 بخیه از هر کنترل دارم که همگی مربوط به 25 بیمار است. اندازه گیری مورد آزمایش این است که برای هر بخیه چند دقیقه طول کشید تا خونریزی متوقف شود. این متغیر می تواند مقادیری را داشته باشد: 0،0.5،1،1.5،2،2.5،... پزشکان ادعا می کنند که نوع روش، یعنی تکنیکی که استفاده می شود، اهمیت بالینی ندارد و نباید تاثیری داشته باشد. بنابراین آنها فکر می کنند که تجزیه و تحلیل می تواند این عامل را نادیده بگیرد. می خواستم از شما بپرسم که چگونه این داده ها را با و بدون در نظر گرفتن تکنیک تجزیه و تحلیل می کنید. من فکر می کنم باید نوعی مدل ترکیبی یا یک مدل معادلات برآورد تعمیم یافته باشد، اما مطمئن نیستم که این طرح را دقیقاً از نظر تودرتو، مسدود کردن و غیره تعریف کنم، و من می خواهم یک مدل را نیز در نظر بگیرم. کد SAS برای مدل‌سازی تفاوت‌های بین میانگین‌های 3 درمان مختلف، و من بدم نمی‌آید آن را با R تأیید کنم. برای راحتی شما، نموداری را که از طرح ساخته‌ام پیوست می‌کنم: دایره‌های آبی بخیه های درمانی، بخیه های قرمز بخیه های کنترل 1 و بخیه های سبز بخیه های کنترل 2 هستند. هر مستطیل زرد یک بیمار است و مستطیل‌های قهوه‌ای بزرگ تکنیک‌هایی هستند که باز هم می‌خواهم سعی کنم آن‌ها را جا بدهم و سعی کنم نتیجه آن را نادیده بگیرم. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/l7O51.png)
چگونه این طرح نامرتب را تحلیل کنیم؟
102660
متاسفم که چنین سوال صریحی می‌پرسم، اما وقتم تمام شده است و نمی‌توانم این موضوع به ظاهر ساده را بفهمم. این مقدار p برای $B_0$، یک رگرسیون متغیر تک است. $H_0: B_0=0$ و $H_1: B0 \neq 0$. $T_{calc} = (0.5681 - 0)/0.9284 = 0.6119$. سپس می گوید $p\text{-value}=2 \cdot (t\ge 0,6119) =2 \cdot 0.281525$. این 0.281525 دلار از کجا می آید؟ میدونم ربطی به جدول داره $n=8$. با عرض پوزش دوباره، من یک آزمایش در راه است، به دلایلی نمی توانم این را بفهمم. اکنون زمان زیادی را صرف این موضوع کردم و در 1.5 ساعت گذشته ویدیوهای یوتیوب را تماشا کردم و سعی کردم بفهمم این 0.2815... از کجا آمده است.
این مقدار p چگونه محاسبه شد؟
112178
یک مدل ANOVA معمولی همیشه به یک متغیر طبقه‌بندی به عنوان پیش‌بینی‌کننده (عامل/گروه) نیاز دارد، درست است؟ لطفا اگر غیر از این فکر می کنید دلیل را به من بگویید. بنابراین در صورت رگرسیون خطی با پیش‌بینی‌کننده‌های پیوسته، چگونه می‌توان از جدول ANOVA حتی استفاده کرد زیرا ANOVA حداقل به 1 متغیر طبقه‌بندی به عنوان پیش‌بین نیاز دارد؟ با تشکر
ANOVA برای آزمایش اهمیت کلی مدل در رگرسیون خطی تنها با پیش‌بینی‌کننده‌های پیوسته
38048
من اخیراً شروع به استفاده از مدل‌های گرافیکی احتمالی در coursera کرده‌ام و 2 هفته بعد از شروع به این باور رسیده‌ام که در Probability چندان عالی نیستم و در نتیجه حتی نمی‌توانم مبحث اول (شبکه بیزی) را دنبال کنم. با توجه به آنچه گفته شد، من می خواهم برای یادگیری این دوره تلاش کنم، بنابراین می توانید منابع دیگری را برای PGM یا Probability به من پیشنهاد دهید که می تواند در درک این دوره مفید باشد.
منابع خوب برای یادگیری مدل های گرافیکی احتمالی
33923
برای 86 شرکت و به مدت 103 روز، (i) توییت‌ها (متغیر 'hbVol') در مورد هر شرکت و (ii) بازدید از صفحه برای صفحه ویکی‌پدیای شرکتی ('wikiVol') جمع‌آوری کرده‌ام. متغیر وابسته، حجم معاملات سهام هر شرکت (stockVol0) است. ساختار داده های من به این صورت است: تاریخ شرکت hbVol wikiVol stockVol0 comp1 comp2 ... comp89 marketRet ------------------------------ ----------------------------------------------- 1 1 200 150 2423325 1 0 ... 0 -2.50 1 2 194 152 2455343 1 0 ... 0 -1.45 . . . . . . . .... 1 103 205 103 2563463 1 0 ... 0 1.90 2 1 752 932 7434124 0 1 ... 0 -2.50 2 2 932 823 7464354 0 1 ... 0 -1. . . . . . . .... . . . . . . . .... 86 103 3 55 32324 0 0 ... 1 1.90 همانطور که فهمیدم، این داده های سری زمانی مقطعی تلفیقی نامیده می شود. من Log-value همه متغیرها را برای هموار کردن تفاوت‌های بزرگ بین شرکت‌ها گرفته‌ام. یک مدل رگرسیونی با هر دو متغیر مستقل در stockVolo وابسته برمی‌گرداند: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Ud6hV.png) یک دوربین-واتسون 0,276 نشان می‌دهد که همبستگی خودکار قابل توجهی از باقی مانده ها با این حال، باقیمانده ها به شکل زنگ هستند، همانطور که از نمودار P-P زیر مشاهده می شود. تابع خودهمبستگی جزئی یک افزایش قابل توجه در یک تاخیر 1 تا 5 (بالاتر از حد بالا) را نشان می دهد که نتیجه گیری از آمار دوربین-واتسون را تأیید می کند: ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur. com/kvMce.png) وجود بقایای خودهمبسته مرتبه اول، فرض باقیمانده های نامرتبط را نقض می کند. روش رگرسیون OLS با این حال، روش‌های مختلفی برای مدیریت چنین سری‌هایی ایجاد شده است. یکی از روش هایی که در مورد آن مطالعه کردم، گنجاندن یک متغیر وابسته عقب افتاده به عنوان یک متغیر مستقل است. بنابراین من یک «stockVol1» با تاخیر ایجاد کردم و آن را به مدل اضافه کردم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/KQQz7.png) اکنون، Durbin-Watson در 2408 قابل قبول است. اما بدیهی است که R-squared به دلیل متغیر تاخیر بسیار زیاد است، ضرایب زیر را نیز ببینید: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/2vHzf.png) روش دیگری که در مورد آن خواندم در مواجهه با خودهمبستگی، خودرگرسیون با روش پریس- وینستن (یا کوکرین-اورکات) است. هنگامی که این کار را انجام دادید، مدل می‌خواند: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/zlIUP.png) این چیزی است که من نمی‌فهمم. دو روش مختلف، و من نتایج بسیار متفاوتی دریافت می کنم. پیشنهادهای دیگر برای تجزیه و تحلیل این داده ها عبارتند از (i) عدم درج متغیر تاخیری، اما تغییر فرمت متغیر وابسته با تفاوت (ii) انجام مدل های AR(1) یا ARIMA(1,0,0). من آن‌ها را محاسبه نکرده‌ام، زیرا اکنون به دلیل نتایج متفاوت دو آزمایشی که انجام دادم، نحوه ادامه کار را گم کرده‌ام. برای انجام یک رگرسیون مناسب روی داده های خود از چه مدلی استفاده کنم؟ من بسیار مشتاق درک این موضوع هستم، اما قبلاً هرگز مجبور به تجزیه و تحلیل مجموعه داده های سری زمانی مانند این نبودم.
چگونه می توان تجزیه و تحلیل سری های زمانی مقطعی را انجام داد؟
33928
بوفه آلاکارته را با n اتاق مختلف تصور کنید. با ورود به بوفه، اتاقی (مثلاً غذای آمریکایی، مکزیکی یا ایتالیایی) را انتخاب می کنید که در طول مدت بازدید خود در آن اقامت دارید. هنگامی که در یک اتاق قرار می گیرید، مجموعه کاملی از ظروف کوچک برای انتخاب دارید و اکثر مردم چندین غذای مختلف را انتخاب می کنند، به عنوان مثال. 1 بوریتو، 2 سالاد، 4 تاکو، 2 چورو. احتمالاً اینها نه انتخاب‌های مستقل و نه تصادفی هستند، اما نمی‌توانید به ذهن مشتریان خود وارد شوید. همچنین، اگرچه اتاق‌ها مضمون دارند (و مردم بیشتر بر اساس تمی که انتخاب کرده‌اند سفارش می‌دهند)، هر ظرفی در هر اتاق موجود است. با توجه به داده های کامل، نحوه توزیع ظروف در بازدید از یک اتاق را چگونه مدل می کنید؟ چگونه می توانید انحراف از انتظارات انتخاب یک بازدیدکننده معین را کمی کنید؟ از آنجایی که انتخاب غذا لزوما مستقل نیست، فکر می کنم اولین کار را طبق فرآیند دیریکله انجام دهم، اما مطمئن نیستم که درست باشد.
چگونه بسته های مصرفی را تعریف و مدل کنیم؟
102669
مدل گلدمن ساکس قبلاً در اینجا مورد بحث قرار گرفت. نمی‌دانم که آیا پیش‌بینی‌های آماری دیگری در دسترس عموم وجود دارد، یا حتی بهتر، مدل‌هایی از جمله داده‌های خام. به طور خاص، من فکر می کردم که مدل گلدمن ساکس برای جام 2010 چندان خوب کار نمی کند (به گزارش اصلی در صفحه 7 مراجعه کنید). همچنین شنیده ام که مقادیر واقعی یا تخمینی انتقال بازیکنان قدرت پیش بینی بالایی دارند، اما در مدل گلدمن ساکس گنجانده نشده اند.
مدل های پیش بینی جام جهانی فوتبال 2014
30750
من در حال تلاش برای یافتن حداکثر محلی برای یک تابع چگالی احتمال هستم (که با استفاده از روش تراکم R یافت می شود). من نمی توانم یک روش ساده نگاه به اطراف همسایگان را انجام دهم (که در آن فرد به اطراف یک نقطه نگاه می کند تا ببیند آیا حداکثر محلی نسبت به همسایگان آن است) زیرا حجم زیادی از داده وجود دارد. علاوه بر این، استفاده از چیزی مانند درون یابی Spline و سپس یافتن ریشه های مشتق 1 کارآمدتر و عمومی تر به نظر می رسد، در مقابل ساختن «نگاهی به اطراف همسایگان» با تحمل خطا و سایر پارامترها. بنابراین، سؤالات من: 1. با توجه به تابعی از 'splinefun'، چه روش هایی حداکثر محلی را پیدا می کنند؟ 2. آیا راه آسان/استانداردی برای یافتن مشتقات تابعی که با استفاده از «splinefun» برگردانده شده است وجود دارد؟ 3. آیا راه بهتر/استانداردی برای یافتن ماکزیمم محلی تابع چگالی احتمال وجود دارد؟ برای مرجع، در زیر نمودار تابع چگالی من است. سایر توابع چگالی که من با آنها کار می کنم از نظر شکل مشابه هستند. باید بگویم که من در R جدید هستم، اما در برنامه نویسی تازه کار نیستم، بنابراین ممکن است یک کتابخانه یا بسته استاندارد برای دستیابی به آنچه نیاز دارم وجود داشته باشد. ![عملکرد چگالی](http://i.stack.imgur.com/eF6ot.png) با تشکر از کمک شما!!
یافتن انتهای محلی تابع چگالی با استفاده از اسپلاین
38041
روز بخیر، من معتقدم که این موضوع بیشتر از هر چیز دیگری ناشی از عدم درک R است (چون من تا به تازگی از آن استفاده نکرده ام). آنچه من به دنبال آن هستم منابع یا اسنادی است که به من در حل مشکلم کمک کنند. من مجموعه ای از داده ها را دارم که روی آنها یک جفت تریسی تصمیم (هرس شده و هرس نشده) ایجاد کردم. من این کار را با استفاده از Weka و اعتبارسنجی متقاطع 10 برابری انجام دادم. اینجا مشکلی نبود. من برای درخت هرس شده دقت بالاتری دارم و برای هر ده چین دقت فردی دارم. من الان دارم روی این دو درخت تست آماری انجام میدم، میخوام تست T و تست Wilcoxon انجام بدم. پیشنهاد شد که از تابع ()experimentalComparison برای اعتبارسنجی متقاطع استفاده کنم، اما می‌توانم این کار را در weka انجام دهم. برای تست‌های آمار واقعی، من می‌توانم تست t را مشابه مثال اینجا با تغذیه دستی مقادیر از تست‌های فولد منفرد مشابه آنچه در کد در آن مثال وجود دارد، انجام دهم. آزمایش ویلکاکسون چیزی است که من را پرت می کند. من این مثال را پیدا کردم اما به من گفته شد که از تابع compAnalysis() در بسته DMwR استفاده کنم. من به مستندات آن نگاه کردم و کاملاً متوجه نشدم. می گوید برای اولین مقدار، نتایج را از «experiemntalComparison()» تغذیه کنید، به این معنی که من باید اعتبار متقاطع خود را با آن تابع انجام دهم (در مقابل weka). من نمی دانم چگونه می توان درخت هایی را که در weka این تابع ساختم، بدست آورد. مستندات به برخی از کلاس های کاربری «cv.rpartXse» اشاره دارد. بنابراین من به دلیل تازه وارد بودن به این زبان، در مورد چگونگی انجام این تست های آماری از طریق R شگفت زده شده ام.
سعی می‌کنم تست‌های آماری را در R اجرا کنم، اما در تلاشم چون تازه وارد این زبان هستم
109719
آیا از یک MANOVA دو طرفه برای بررسی اینکه آیا قد و وزن در گروه‌های سنی و جنسیت متفاوت است یا نه استفاده می‌کند، مانند استفاده از یک آنالیز واریانس دوطرفه برای بررسی اینکه آیا BMI (وزن وزن بر حسب کیلوگرم/هت بر حسب m$^2$) در گروه‌های سنی و جنسیت متفاوت است یا خیر. ?
MANOVA دو طرفه در مقابل ANOVA دو طرفه روی یک متغیر ترکیبی
47549
من مجموعه داده‌ای دارم که شامل یک معیار پیوسته از برگ‌های گیاهی است (نمرات PC1 تک تک برگ‌ها)، که متغیر وابسته است و سه مورد دیگر که باید به عنوان مستقل و توضیحی استفاده کنم. یکی هر سطح برگ، دیگری فرد و سومی تعداد برگ به ترتیب برای فرد است. از آنجایی که هر فرد دارای مقدار مشخص و نابرابر برگ است، من نمی توانم از ANCOVA ساده استفاده کنم. حدس می‌زنم راهی برای تودرتو کردن اثر تعداد برگ‌ها در اثر فردی وجود دارد، اما نمی‌دانم چگونه. من می خواهم به این سوال پاسخ دهم که آیا اندازه افراد نیز به همین ترتیب تحت تأثیر قرار می گیرند؟ درایو گوگل من با کل مجموعه داده در pdf. قابل توجه است که یک فرد می تواند تعداد برگ های متغیری داشته باشد، اما همچنین اینکه توالی برگ ها برای هر فرد، از پایین ترین تا بالاترین، منظم است. ستون اول اندازه برگ است، ستون دیگر جداگانه است و سپس کلاس برگ و سپس 4 عدد.
نوع طرح ANCOVA در R
38044
$$Y \sim Geometric(P)\\ P \sim \mathcal B(2, 1)$$ من سعی می کنم $E[Y]$ را بدون یافتن توزیع حاشیه ای $Y$ محاسبه کنم. من در اینجا به نکاتی نیاز دارم. من همچنین باید pmf $Y$ را پیدا کنم. رویکرد من به شرح زیر است: ادغام از 0، 1 روی $p: f(p)(1-f(p))^{(y-1)}$ که $f(p)$ پی دی اف $\mathcal است B(a, b)$. این منجر به جبر آشفته می شود. آیا من در مسیر درست هستم؟
اگر $Y \sim geometric(P)$ و $P \sim \mathcal B(2, 1)$ چگونه $E(Y)$ و pmf حاشیه $Y$ را محاسبه کنیم؟
76505
دو سری زمانی قیمت ها بین سال های 2009 و 2013 به من داده شده است. سری قیمت A داده های هفتگی است، سری B داده های ماهانه است. من می خواهم چند آمار توصیفی اولیه این دو سری زمانی (مانند میانگین، انحراف معیار و غیره) را با هم مقایسه کنم. به طور شهودی، من فقط نمی دانم که آیا تفاوت نمونه گیری دوره باید نگران کننده باشد... چه مشکلات بالقوه ای می تواند وجود داشته باشد، و آیا راه هایی برای کاهش تأثیر وجود دارد یا خیر... من حدس می زنم روش دیگر این است که، آیا من فقط اعداد پایان ماه سری A را برای مطابقت با فرکانس سری B انتخاب کنم. در مورد این رویکرد مطمئن نیستم زیرا ممکن است کیفیت آمار برای سری A به خطر بیفتد. بسیار متشکرم!
آیا فرکانس نمونه برداری برای تحلیل سری زمانی اهمیت دارد؟
33812
> **تکراری احتمالی:** > چرا گنجاندن طول و عرض جغرافیایی در حساب GAM برای همبستگی مکانی > خودکار است؟ من به تأثیر یک بردار پیش‌بینی‌کننده $X_i$ روی یک نتیجه باینری $Y_i$، با موقعیت مکانی متناظر $s_i$ علاقه‌مندم، بنابراین مدل اثرات تصادفی فضایی، \begin{equation} logit(P(Y_i) را در نظر گرفتم =1)) = X_i \بتا + Z(s_i) \end{معادله} که $Z(s_i)$ یک میانگین ثابت صفر است فرآیند تصادفی که ساختار کوواریانس آن تا تعدادی از پارامترهای $\theta$ شناخته شده است. به نظر می‌رسد که این مدل معمولاً با استفاده از الگوریتم‌های نمونه‌گیری بیزی مناسب است، که اجرای آن زمانی که $n$ بزرگ است ممکن است زمان زیادی طول بکشد، زیرا شما باید از توزیع مشترک خلفی $\beta، \theta$ و تصادفی نمونه برداری کنید. اثرات برای دور زدن پیچیدگی محاسباتی و تنظیم تخصصی مورد نیاز برای MCMC، به جای آن، مدل \begin{equation} logit(P(Y_i=1)) = X_i \beta + f(s_i) \end{equation} را در جایی که $f(s_i)$ توسط یک spline 2 بعدی تخمین زده می شود که می تواند در عرض چند ثانیه با بسته بازی در R مطابقت یابد. من در مطالعات شبیه‌سازی دریافته‌ام که این مدل در حذف خودهمبستگی فضایی از باقیمانده‌ها مؤثر است و تخمین‌های معقولی برای $\beta$ ارائه می‌دهد. این باعث تعجب من می شود که چرا این رویکرد در ادبیات برجسته نیست. چرا کاربران اغلب الگوریتم های نمونه گیری محاسباتی فشرده را انتخاب می کنند؟ آیا اشکالی یا چیزی به طور سیستماتیک در این رویکرد وجود ندارد؟
آیا می توانید از یک تابع spline مختصات فضایی برای کنترل همبستگی خودکار مکانی استفاده کنید؟
47545
من به دنبال یک مقاله تجربی هستم که یک رگرسیون تفاوت در تفاوت را انجام دهد که در آن کل رگرسیون انجام شده (درمان + پست + پست * درمان شده) با یک متغیر پیوسته (یا یک دسته بندی) تعامل داشته باشد... آیا ایده ای دارید از چنین کاغذی؟
تفاوت در تفاوت با اصطلاحات تعامل
87449
من یک مجموعه داده (داده های سری زمانی) از مقادیر توان سیگنال اندازه گیری شده از یک گیرنده رادیویی دارم. داده ها از یک آزمایش کنترل شده سرچشمه نمی گیرند. من دانش محدودی از فرآیندها و توزیع های اساسی دارم. مشاهدات من نتیجه یک یا چند فرآیند است. در هر صورت، یک فرآیند نویز پس زمینه وجود دارد. علاوه بر این، ممکن است یک یا چند فرآیند متعلق به سیگنال های فرستنده های رادیویی وجود داشته باشد. در اینجا سه ​​نمونه (هیستوگرام) آورده شده است. در حالت اول فقط نویز وجود دارد. مورد دوم و سوم، مخلوطی واقعی از نویز و بیش از یک فرستنده رادیویی وجود دارد. ![تنها مثال نویز](http://i.stack.imgur.com/7Pj0Z.png) ![مثال مختلط 1](http://i.stack.imgur.com/GV7S8.png) ![مثال مختلط 2] (http://i.stack.imgur.com/Hooxs.png) مشکل من این است. من می خواهم کسری از نمونه هایی را که به فرآیند نویز پس زمینه تعلق دارند، تخمین بزنم. ممکن است از صفر تا بسیاری از فرآیندهای بدون نویز وجود داشته باشد و من هیچ اطلاعات پیشینی در مورد این عدد ندارم. به طور کلی، جمعیت های فرعی از توزیع نرمال پیروی نمی کنند (محور x در نمودارهای بالا در واقع لگاریتمی است، به dB توجه کنید.) من هیچ اطلاعات پیشینی در مورد میانگین و واریانس آنها ندارم. مجموعه داده عظیم است. بنابراین، من به دنبال رویکردی هستم که نیازی به تنظیم دستی نداشته باشد. تا اینجای کار، من با یک آستانه ساده کار کردم تا نویز را از بقیه جدا کنم، اما این بسیار نادرست است، به خصوص زمانی که یک فرآیند سیگنال با میانگین بسیار نزدیک به نویز وجود دارد. آیا می توانید به من روش هایی را که می توان در اینجا اعمال کرد اشاره کنید؟ **ویرایش**: مطالعه بیشتر مرا به این فکر می‌کند که ممکن است بخواهم: * یک توصیف ریاضی از توزیع نویز پس‌زمینه (منحنی) از داده‌های تجربی خود استخراج کنم. * این منحنی را با داده های نمونه مطابقت دهید. * نسبت مساحت زیر منحنی برازش شده و تعداد کل نمونه ها را محاسبه کنید. سوال این است که چگونه منحنی را منطبق کنیم؟ الگوریتم‌هایی که تاکنون پیدا کردم یا به تعداد اجزای قبلی نیاز دارند و/یا محدودیت‌هایی در مورد توزیع‌هایی که در نظر گرفته‌اند دارند.
جداسازی مخلوط با کمی دانش پیشینی
87442
من یک متغیر اسمی و یک متغیر پیوسته (فاصله) دارم. SPSS crosstab شامل گزینه ای برای Eta است. آیا استفاده از eta برای آزمایش اثر متغیر اسمی باینری بر روی متغیر پیوسته مناسب است؟ چگونه می توانم نتیجه ای مانند Eta = 0.04 را تفسیر کنم؟ با تشکر
استفاده مناسب از Eta
47095
می دانم که $\beta$ (خطای نوع II) احتمال نادرست بودن فرضیه صفر است، اما رد نمی شود. قدرت آزمون $1-β$ تعریف شده است. من هنوز فکر می کردم که قدرت تست فقط در مواردی مهم است که $H_0$ رد نشود. با این حال نرم افزار آماری من قدرت آزمون را در مواردی که $H_0$ رد می کند نیز محاسبه می کند. به نظر من اطلاعات در مورد قدرت تست در مواردی که $H_0$ رد شود بی فایده است. آیا حقیقت دارد؟ یا اطلاعات مربوط به قدرت در مواردی که $H_0$ رد می شود برای نوعی تصمیم گیری آماری مفید است.
اهمیت قدرت آزمون t در حالتی که $H_0$ رد شود