_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
93830 | من در آزمون استعداد مصاحبه شغلی برای تفکر انتقادی به سوالی برخورد کردم. چیزی شبیه به این است: > جمهوری زورگانیان آداب و رسوم بسیار عجیبی دارد. زوجها فقط آرزو دارند بچههای دختر داشته باشند، زیرا فقط زنها میتوانند ثروت خانواده را به ارث ببرند، بنابراین اگر فرزند پسر داشته باشند، بچههای بیشتری داشته باشند تا زمانی که دختر داشته باشند. اگر دختر داشته باشند از بچه دار شدن منصرف می شوند. نسبت > دختر به پسر در زورگانیه چقدر است؟ من با پاسخ مدلی که سوال نویس داده است، یعنی حدود 1:1 موافق نیستم. توجیه این بود که هر تولدی همیشه 50 درصد احتمال دارد که مرد یا زن باشد. آیا میتوانید با یک پاسخ ریاضی قویتر $\text{E}[G]:\text{E}[B]$ من را متقاعد کنید اگر $G$ تعداد دختران و B تعداد پسران در کشور باشد؟ | تعداد مورد انتظار نسبت تولد دختر به پسر |
57545 | من در حال انجام یک آزمون معناداری بر روی نمره افزایش بین یک پیش آزمون (مثلا Y1) و یک پس آزمون (مثلا Y2) برای یک گروه درمانی و یک گروه کنترل هستم. اجازه دهید یک پیشینه مختصر در مورد آزمایش ارائه کنم. مشتری من با گروه بزرگی از مدارس برای بهبود سطح یادگیری بچه ها در ریاضی کار می کند. از این گروه بزرگ 653 دانش آموز در پیش آزمون مورد آزمایش قرار گرفتند. همچنین یک گروه کنترل شامل 213 دانش آموز بود که آنها نیز مورد آزمایش قرار گرفتند. پس از آن گروه مداخله تحت آموزش های ویژه (مداخله) همراه با کلاس های منظم قرار گرفت. و گروه کنترل فقط کلاس های منظمی داشتند. حدود 6 ماه بعد، یک پس آزمون انجام شد. اما این بار 739 دانشآموز (مجموعهای از دانشآموزان گروه مداخله، ممکن است مقداری همپوشانی داشته باشند) از گروه مداخله و 210 دانشآموز (تقریباً همان گروه پیشآزمون) از گروه کنترل مورد آزمایش قرار گرفتند. مشکلی که من با آن روبرو هستم این است که چگونه می توان یک آزمون معنی داری در مورد تفاوت بین امتیازات افزایشی انجام داد. در اینجا روشی است که من قصد دارم از آن استفاده کنم. از آنجایی که من نمونههای بزرگی را از گروه مداخله و گروه کنترل برای پیشآزمون نمونهبرداری میکنم، و تخمینهایی برای میانگین و SD دارم، CLT یک توزیع نرمال برای پیشآزمون هم برای مداخله و هم برای کنترل به من میدهد. همین استدلال در مورد پس آزمون نیز صدق می کند. حالا فرض میکنم اجراهای پیش و پس آزمون مستقل هستند. اکنون می توانم نرمال های Pre و Post test را برای ایجاد یک توزیع نرمال جدید برای Y2-Y1 ترکیب کنم. همان استدلال دوباره برای کنترل نیز صدق می کند. اکنون میخواهم از آزمون t ولش برای بررسی معنیداری آماری بین گروهها استفاده کنم. اما من درجات آزادی و تعداد مشاهدات را هم برای مداخله و هم برای کنترل ندارم. من از معادله Welch-Satterthwaite برای بدست آوردن درجه آزادی برای هر گروه استفاده می کنم و سپس یکی را برای بدست آوردن تعداد مشاهدات اضافه می کنم. بعد از این می توانم تست t-Welch را اعمال کنم. وقتی این کار را انجام میدهم، مقادیر آمار t بسیار بالایی دریافت میکنم، بنابراین مطمئن نیستم که آیا آن را به روش درست انجام میدهم یا نه. لطفاً یکی به من بگوید که آیا منطق من نقصی دارد؟ | آزمون معناداری بین نمرات افزایشی گروه مداخله و گروه کنترل |
32348 | من سعی می کنم سطح (ایزوکرون)، $z_i(x)$ را که برای آن $T(x,z)=0$ از اندازه گیری های پر سر و صدا $T(x,z)$ در همه جا و 3 نقطه کنترل تقریباً بدون نویز تخمین بزنم:  به جای استفاده مستقیم از داده های $T(x,z)$، ابتدا گرادیان را تخمین می زنم: $T_x$ و $T_z$ با تفاوت های محدود در $T(x,z)$. من اکنون دو pde برای حل دارم: $ \frac{\partial}{\partial x}T=T_x, \frac{\partial}{\partial z}T=T_z$ دوباره با استفاده از تفاوت های محدود عملگرهای مشتق را به صورت ماتریس بیان می کنم. : $\ D_x T=T_x، D_z T=T_z $ که در آن $T_x$ و $T_z$ اکنون بردارهای ستونی هستند که با به هم پیوستن همه ستون های ماتریس های مربوطه خود به صورت عمودی، و $D_x$ و $D_z$ ماتریس هایی هستند که وقتی با بردار $T$ ضرب شوند، مشتق جزئی را با توجه به x و z به دست می دهند. علاوه بر این pde معادلاتی برای 3 نقطه کنترل نیز دارم: $ T(xc_i,zc_i)=0$ (وزن دار) حداقل مربعات خطا (LSE) چارچوبی است که به من امکان می دهد داده های معین و نامطمئن را با هم ترکیب کنم. معادلات خطی من (وزن دار) اکنون عبارتند از: $\ D_x T=T_x $ $\ D_z T=T_z $ $\ \alpha T(xc1,zc1) = 0$ $\ \alpha T(xc2,zc2) = 0$ $ \ \alpha T(xc3,zc3) = 0$ جایی که $\ \alpha $ را معرفی کردم: پارامتری که تعیین می کند نقاط کنترل چقدر هستند نسبت به اندازه گیری های $T(x,z)$ تجلیل شد. **آیا راهی برای تخمین $\alpha$ یا بیان آن به عنوان یک عبارت بصری تر وجود دارد؟** تا کنون فقط این پارامتر را تنظیم کرده ام و به صورت تکراری افست های نقاط کنترل را مقایسه کرده ام. خوب است که راه دیگری برای تنظیم این داشته باشید، به عنوان مثال. max مجاز z offset از نقطه کنترل به isochrone حاصل. **آیا آماردانان راه دیگری به جز LSE برای ترکیب داده های قطعی و نامطمئن دارند؟** آیا بیز چنین روشی است؟ اگر چنین است پیشینی در مثال من چیست؟ | استنتاج از ترکیبی از داده های نامشخص و معین |
52999 | من در تجزیه و تحلیل آماری بسیار تازه کار هستم و با داده هایم مشکل دارم. اساساً متغیرهای دسته بندی من عبارتند از: ساختارهای دستوری (چهار مورد) و زبان ها (پنج مورد). تعداد کل این ساختارها 1218 است. اگر ترجیح مشاهده شده توسط برخی زبانها برای ساختارهای دستوری خاص صرفاً به دلیل شانس تصادفی است یا بین آنها رابطه وجود دارد، می خواهم به سؤال تحقیق پاسخ دهم. من آزمایش کای دو را اعمال کردم و مقدار p زیر را به دست آوردم: 1.5168E-140 (مقدار chi-square = 692.813، به دلیل تفاوت بسیار زیاد بین فرکانس های مشاهده شده و مورد انتظار، و df = 12). من واقعاً از این نتیجه متحیر هستم. حدس من این است که داده ها بسیار پراکنده هستند و آزمون کای اسکوئر در اینجا ناسازگار است. بنابراین آیا این واقعاً به این معنی است که نمونه مغرضانه است یا اینکه پاسخ دادن به آن سؤال تحقیق خاص در ابتدا منطقی نیست؟ یا شاید باید از تست دیگری استفاده کنم؟ پیشاپیش ممنون | مشکل در تست $\chi^2$ |
74295 | من به تازگی متوجه شدم که یادگیری ماشین نیز رگرسیون لجستیک را به عنوان یکی از روش های خود دارد. لطفاً کسی می تواند تفاوت بین رگرسیون لجستیک در آمار و یادگیری ماشین را به من بگوید؟ من اسلایدهای سخنرانی در مورد رگرسیون لجستیک را از یک دوره یادگیری ماشین دیدهام، اما نمیتوانم تفاوتی با پوشش رگرسیون لجستیک در یک دوره آمار ببینم. آیا رگرسیون لجستیک در یادگیری ماشین نیازی به بررسی چند خطی بودن ندارد؟ دلیلی که این را پرسیدم این بود که سعی کردم یک مجموعه داده را از طریق تابع 'glm' R با logit دو جمله ای اجرا کنم و سپس همان مجموعه داده را از طریق 'trainlogistic' Apache Mahout اجرا کردم. اما ضرایب حاصل متفاوت است. این دستوری است که من در R استفاده میکنم: w1.glm <- glm(anw ~ cs, data = w1, family = دوجملهای) این نتیجه summary(w1.glm) است: glm(formula = anw ~ cs، خانواده = دو جمله ای، داده = w1) باقیمانده انحراف: حداقل 1Q میانه 3Q Max -2.5400 0.1073 0.1924 1.0047 1.0047 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) 0.42077 0.02588 16.26 <2e-16 *** cs 1.89342 0.06427 29.46 <2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف صفر: 11762.5 در 10660 درجه آزادی انحراف باقیمانده: 925. 10659 درجه آزادی و این فرمان من است استفاده در Mahout: /usr/local/mahout/bin/mahout trainlogistic --input w1.csv --output ./model --target anw --categories 2 --predictors cs --types numeric --features 20 -- passes 100 --rate 50 اجرای روی هادوپ، با استفاده از /usr/local/hadoop/bin/hadoop و HADOOP_CONF_DIR= MAHOUT-JOB: /usr/local/mahout/mahout-examples-0.8-job.jar 20 anw ~ -19.553*cs + -7.512*Intercept Term cs -19.55265 Intercept Term -7.5100005 -7.510005 0.000000000 0.000000000 0.0000000000 0.000000000 0.0000000000 -19.552646543 0.000000000 0.0000000000000 0.000000000 0.000000000 0.000000000 -7.511546797 0.000000000 0.000000000 0.000000000 0.00000000000000 0.000000000 13/11/01 02:04:47 INFO driver.MahoutDriver: برنامه 22118 ms طول کشید (دقیقه: 0.36863333333333333) **ویرایش:** دلیل پرسیدن سوال را در عنوان اضافه کرد. دستورات مورد استفاده برای اجرای 'glm' در R و 'trainlogistic' در Mahout اضافه شده است. | تفاوت بین رگرسیون لجستیک در آمار و یادگیری ماشین |
65928 | وقتی یک عدد تصادفی را با استفاده از روش زیر تولید می کنم: set.seed(123) rnorm(1) می خواهم بدانم در این مورد دقیقا چه اتفاقی می افتد؟ آیا R از جدول اعداد تصادفی می خواند؟ 123 دقیقا به چه چیزی اشاره دارد؟ آیا امکان دسترسی به این جدول برای دیدن ظاهر آن وجود دارد؟ | مولد اعداد تصادفی R دقیقا چگونه کار می کند؟ |
93839 | اجازه دهید $y_t$ یک فرآیند تصادفی باشد و $\tau_t$ مدت زمان بین $t$ و $t-1$ را نشان دهد. ARMA(p,q,r) با متغیرهای برون زا به صورت: $$ y_t = \ varepsilon_t + \sum_{i=1}^p \alpha_i y_{t-i} + \sum_{i=1}^q \theta_i \varepsilon_{t-i} + \sum_{i=0}^b \eta_i \tau_{t-i}.\,$$ که در آن $\eta_1، \ldots، \eta_b$ پارامترهای ورودی خارجی $\tau_t$ و $\varepsilon_t$ یک نویز سفید است. # سوال 1: خوانده ام که اگر و فقط در صورتی که ریشه های چند جمله ای AR خارج از دایره واحد باشند، این فرآیند ثابت است، اما آن را نمی فهمم. وقتی مدل شامل متغیرهای برونزا نباشد، اثبات را میفهمم، اما زمانی که شامل متغیرهایی باشد، این کار را انجام نمیدهم. > > اگر برای مثال $p=q=1$ و $r=0$ مدل $$y_t = \alpha_0 + \alpha_1 > y_{t-1} + \tau_t + \varepsilon_t,$$ باشد، فرض کنید که فرآیند $y_t$ به معنای ثابت است، سپس $$E(y_t) = \mu,$$ برای همه t. سپس $$E(y_t) = \alpha_0 + \alpha_1 E(y_{t-1}) +E(\tau_t) \rightarrow \mu=\alpha_0 +\alpha_1\mu +E(\tau_t)\right arrow \mu = \frac{\alpha_0 +E(\tau_t)}{1-\alpha_1}. $$ بنابراین فرآیند به طور متوسط ثابت است اگر و فقط $\alpha_1 \neq1$ و فرآیند $\tau_t$ به طور متوسط ثابت است. میشه لطفا در این مورد به من کمک کنید # سوال 2: می خواهم بپرسم چرا می خواهیم یک سری زمانی ثابت / معکوس باشد؟ شهود پشت این چیست؟ عدم ایستایی چه پیامدهایی دارد. لطفاً هر مرجعی را برای روشن شدن این موضوع توصیه می کنید؟ همچنین اگر پارامترهای ناشناخته مدل را بدون اعمال محدودیت برای آنها تخمین بزنم، این روی نتایج من تأثیر می گذارد؟ به چه معنا؟ | زمانی که یک مدل ARMAX ثابت است؟ چرا ایستایی یا برگشت ناپذیری لازم است؟ |
57543 | من یک دانشجوی کارشناسی ارشد CS هستم و برای پروژه نهایی خود یک الگوریتم رگرسیون ایجاد کردم که برای مجموعه دادههای مقیاس بزرگ مناسب است (نمیگویم «داده بزرگ»، اما همچنان در مقیاس بزرگ است). برای نتایج نهایی، من به دنبال الگوریتمهای رگرسیون هستم که با موفقیت روی چنین مجموعه دادههای بزرگی کار میکنند، بنابراین میتوانم از آنها به عنوان پایهای برای الگوریتم خود استفاده کنم. من برای برخی از ویژگی های خاص مجموعه داده محدودیتی ندارم، بنابراین الگوریتم باید کلی باشد. آیا کسی ایده ای برای مدل های رگرسیونی دارد که بتوانم استفاده کنم؟ ویرایش: برای روشن شدن: بهترین کار برای من این است که مقاله ای پیدا کنم که یک (یا چند) مدل رگرسیون و عملکرد آنها را در مجموعه داده های مقیاس بزرگ نشان دهد. اگر کسی بتواند به من به یک مجموعه داده عمومی شناخته شده اشاره کند (البته بزرگ است) بسیار مفید خواهد بود. ممنون از کمکت، نیر | الگوریتمهایی برای تحلیل رگرسیون که میتوانند مجموعههای داده در مقیاس بزرگ را مدیریت کنند |
57546 | من مجموعه ای از شهرها را دارم که بر اساس چندین معیار رتبه 1-10 را دارند. درصدی از کل جمعیت ساکن در این شهرها را هم دارم. من میخواهم شهرهایی با جمعیت کمتر بتوانند با شهرهای بزرگتر رقابت کنند، بنابراین میخواهم به درصد جمعیت وزنی بدهم که اندازه جمعیت کوچکتر را جبران کند. چگونه این کار را انجام دهم؟ | چگونه به جمعیت کوچکتر وزن بیشتری بدهم؟ |
9839 | من سعی می کنم یک الگوریتم پیش بینی برای مجموعه ای از داده های دما بنویسم. من روی Holt-Winters تصمیم گرفتم زیرا به نظر می رسید یک الگوریتم پیش بینی سری زمانی ساده است و به راحتی می توانم آن را در پایتون کدنویسی کنم تا بفهمم چه اتفاقی در آن می افتد. هنگامی که من تابع هموارسازی را ترسیم می کنم همانطور که یاد می گیرد اینگونه به نظر می رسد. همانطور که می بینید، به خوبی از منحنی اصلی پیروی می کند.  اما وقتی میخواهم یک منحنی آینده را برای یک سال (365 روز) ترسیم کنم - واقعاً سقوط میکند و میمیرد.  و برای من به طور مستقیم منطقی است که چرا اینطور می میرد. زیرا اگر آخرین معادله پیشبینی Holt-Winters را ببینید، در واقع فقط از آخرین نقطه هم در هموارسازی منحنی و هم در هموارسازی روند استفاده میکند. و ما می دانیم که هموارسازی نمایی به دلیل کل چیز نمایی حافظه بسیار کوتاهی دارد. بنابراین من متعجبم که واقعاً چگونه می توان از Holt-Winters برای پیش بینی استفاده کرد (مخصوصاً برای داده های فصلی 365 روز مانند این). اگر روش دیگری را می شناسید که می توانم برای این دامنه (پیش بینی دما) بررسی کنم، لطفاً به من اطلاع دهید. من اهل پایتون هستم، بنابراین اگر بتوانید منابعی مانند کتابخانه ها و غیره را برای انجام کار به من معرفی کنید بسیار مفید خواهد بود. | پیشبینی سریهای زمانی دما با Holt-Winters |
65929 | من در stackoverflow پرسیدم اما آنها به من پیشنهاد می کنند برای پاسخ های بهتر به اینجا بروم. سوال رو کپی پیست میکنم تصمیم دارم کمی با شباهت ها و خوشه بندی متن بازی کنم. من قبلاً ماتریس tf-idf و symmatrix شباهت ها را ایجاد کرده ام. اکنون می خواهم چیزی را برای خوشه بندی در گروه ها پیاده سازی کنم. من تحقیقی انجام دادم و کتابخانه های hcluster (خوشه بندی سلسله مراتبی) و k-means را پیدا کردم. کدام یک از این موارد از نظر دقت بهتر است؟ آیا راه بهتری سراغ دارید حتی اگر کتابخانه آماده ای وجود نداشته باشد؟ اگر الگوریتم را می دانستم می توانستم کد را بنویسم. همچنین این راه O(n^3) است. اگر بخواهم کمی دقت را فدای محاسبه زمان کنم، آیا چیزی برای پیشنهاد دارید؟ | خوشه بندی متن با پایتون |
26115 | من جنگل تصادفی را در کدم پیادهسازی میکنم، متوجه میشوم که وقتی یک درخت میسازم، خطای oob (میانگین مربع خطا از آنجایی که رگرسیون انجام میدهم) نزدیک به صفر است، در حالی که درخت بیشتری ساخته میشود، خطای oob تثبیت میشود، این خلاف است. شهودی، از آنجایی که کتاب درسی به من میآموزد که با ایجاد درختهای بیشتر، خطای oob باید کاهش یابد، پیادهسازی خود را با R مقایسه میکنم، oob من کمی کمتر از R است، زمانی که mtree=1000، اما وقتی mtree=1، oob من نزدیک به صفر است، در حالی که R بسیار بزرگ است. به عبارت ساده، با رشد و تثبیت درختان بیشتر، oob من افزایش می یابد. R و کتاب متنی نشان می دهد که با ساختن درختان بیشتر و تثبیت اوب کاهش می یابد. بنابراین، آیا اجرای من مشکلی دارد؟ چگونه باید الگوریتم خود را تنظیم کنم؟ | با افزایش درخت، خطای تصادفی جنگل افزایش می یابد |
57540 | فرض کنید دو مجموعه داده $\mathbf{X}$ و $\mathbf{Y}$ دارای همبستگی $\rho_0$ هستند. آیا می توان در مورد همبستگی بین $\mathbf{X}_1$ و $\mathbf{Y}_1$ و $\mathbf{X}_2$ و $\mathbf{Y}_2$ چیزی گفت که در آن $\mathbf{X} _1\cup \mathbf{X}_2=\mathbf{X}$ و $\mathbf{Y}_1\cup\mathbf{Y}_2 = \mathbf{Y}$ and $0<|\mathbf{X}_1| = |\mathbf{Y}_1|<|\mathbf{X}|$? از نظر عملی، آیا رابطه (یا محدودیت) بین $r$ و $r_1$ و $r_2$ در مثال زیر وجود دارد؟ df.0 # برخی قاب داده حاوی x و y df.1 <- df.0[df.0$x>5, ] df.2 <- df.0[df.0$x<=5, ] r < - cor(df.0$x، df.0$y) r1<- cor(df.1$x، df.1$y) r2<- cor(df.2$x, df.2$y) من به چیزی شبیه $r \leq \max\{|r_1|،|r_2|\}$ فکر میکنم. بسیار خوشحالم اگر وجود نداشته باشد! | روابط بین corr(x,y) و corr(x,y) در یک زیر مجموعه |
112432 | من در استفاده از آزمون t سردرگم هستم. من پارامترهای فیزیکی آب رودخانه را دو بار (از همان سایت) - در زمستان و تابستان پایش کردم. حالا میخواهم تفاوت فصلی را روی خواص فیزیکی ببینم، مثلاً دمای آب. آیا باید از آزمون تی نمونه مستقل استفاده کنم. یا تست تی زوجی؟؟ | آزمون t بر روی اثرات فصلی بر کیفیت آب |
57548 | سایت عالی من دادههای معاملات ماهانه را برای نحوه تأمین مالی کشتیهای جدید از 2005 تا 2012 جمعآوری کردهام. داده ها شامل معاملات انجام شده توسط شرکت های حمل و نقل مختلف و مبلغی است که در هر معامله جمع آوری شده است. معاملات می تواند به دسته های زیر تقسیم شود: وام های بانکی، اوراق قرضه، IPOs و FO. وام های بانکی بهترین گزینه تامین مالی بوده است که 70 تا 80 درصد از کل سرمایه جذب شده قبل از سال 2008 را تشکیل می دهد. بنابراین من به دنبال انجام یک تحلیل سری زمانی هستم تا ببینم آیا یک شکست ساختاری (چو تست) در استفاده از وام های بانکی وجود داشته است یا خیر، و اینکه آیا سایر اشکال تامین مالی مانند اوراق قرضه، IPOs و FOs پس از بحران مالی افزایش یافته است. 2008). سوال من این است که آیا برای اثبات شکست ساختاری باید برای هر متغیر یک تست چو انجام دهم یا می توانم به نوعی همه متغیرها را در یک تحلیل ترکیب کنم؟ پیشاپیش متشکرم | چاو چند متغیر را تست کنید |
57549 | من یک رگرسیون خطی چند متغیره را با R انجام میدهم، و خودم را با باقیماندههای زیر در مقابل نمودار برازش میبینم:  همانطور که میبینید وجود دارد یک خط بسیار منظم از نقاط که به نظر می رسد از یک الگوی دقیق پیروی می کند. **سوالات من این است:** 1. چگونه چنین رفتاری را تفسیر کنم، و برای رفع آن چه کاری می توانم انجام دهم؟ 2. آیا راهی برای جداسازی/استخراج آن نقاط وجود دارد؟ میخواهم در مجموعه دادههایم به آنها نگاهی بیندازم تا ببینم آیا با بررسی آنها متوجه برخی الگوها در دادهها میشوم یا خیر. **اطلاعات اضافی:** مدل من این است: v.lm = lm(sqrt(v.stima$Y)~., data=v.stima) Y یک متغیر شمارشی (عدد صحیح غیر منفی) است. من از sqrt استفاده می کنم زیرا بدون آن طرح دارای شکل معمولی قیف است که نشان دهنده یک خطای غیر همسان است. | تفسیر باقیمانده ها در مقابل نمودار برازش و استخراج نقاط |
90039 | در چه نقطه ای می توان نمونه های بسیار بزرگ را به عنوان نسبتی از جمعیت به عنوان سرشماری در نظر گرفت؟ به عنوان مثال، اگر نمونه شما شامل 90 درصد واحدهای جامعه باشد، آیا می توان از استنباط های آماری استنباطی صرف نظر کرد؟ 80 درصد چطور؟ و غیره. . .. | چگونه باید از نمونه های بسیار بزرگ استفاده کرد؟ |
112433 | من یک مجموعه داده متشکل از دو گروه دارم که طی سه روز آزمایش شده است. بنابراین من یک مدل ترکیبی خطی را به صورت زیر اجرا میکنم: «model1 = lme(پاسخ ~ روز*گروه، تصادفی=~1|ID، داده)»، که یک تعامل مهم را نشان میدهد. میخواهم بدانم که آیا تفاوتی بین گروهها در تفاوت آنها نسبت به D1-D2، D2-D3، و D1-D3 وجود دارد، و به طور بالقوه چگونه گروههای 1 و 2 در هر یک از روزها متفاوت هستند. از آنجایی که میدانم تنها میتوان کنتراست (n-1) را انجام داد، در ابتدا فقط کنتراستها را برای دو مقایسه اول اجرا کردم، Contrasts(data$day) = t(ginv(c(-1,1,0),c( 0,-1,1))`(گروه نیازی به کنتراست نداشت زیرا فقط دو مورد وجود داشت) که خروجی را برای D1D2GR1 در مقابل D1D2GR2 و D2D3GR1 در مقابل نشان داد D2D3GR2 سپس در مورد گزینه ایجاد یک متغیر جدید که دو متغیر دیگر را ترکیب می کند (به نام newvar با D1G1، D2G1، D3G1، D1G2، D2G2، D3G2 به عنوان سطوح) خواندم تا بتوان تضادهای سفارشی بیشتری ایجاد کرد: D1D2 = c(-1،1،0،-1،1،0) D2D3 = c(0,-1,1,0,-1,1) D1GR = c(-1,0,0,1,0,0) D2GR = c(0,-1,0,0,1,0) D3GR = c(0,0,-1,0,0,1) کنتراست ماتریس = cbind(D1D2,D2D3,D1GR,D2GR,D3GR) تضادها(data$newvar) = t(ginv(contrastmatrix)) model2 = lme(response ~ newvar, random=~1|ID, data) **سوال 1:** آیا هر دو روش برای گرفتن کنتراست مناسب هستند و به روش صحیح انجام می شوند **سوال2:*؟ * آیا راهی برای به دست آوردن سه تضاد وجود دارد 1) D1D2GR1 در مقابل D1D2GR2; 2) D2D3GR1 در مقابل D2D3GR2; و 3) D1D3GR1 در مقابل D1D3GR2 مستقیماً از متغیر جدید؟ از آنجایی که من 6 سطح دارم، انجام این سه تضاد فقط نباید امکان این کار را داشته باشد؟ **سوال3:** اگر بخواهم تست های بعد از عمل مشابه کنتراست ها را اجرا کنم، چگونه می توانم این کار را برای مدل اول انجام دهم؟ و آیا اجرای آن برای مدل با 'newvar' به شکل زیر درست است؟ به عبارت دیگر، آیا تضادها این کار را روی ماتریس معکوس تعمیم یافته انجام می دهند و آزمایشات پس از آن روی ماتریس معکوس غیر تعمیم یافته انجام می دهند؟ glht(model2, linfct = mcp(newvar = t(contrastmatrix))) **سوال4:** در نهایت، من می خواهم اندازه افکت ها را برای افکت های مشاهده شده دریافت کنم. آیا درست است که برای تضادها بتوانم این را با «r = r<-sqrt(t^2/(t^2 + df))» با مقادیر t و df از خروجی دریافت کنم؟ چگونه می توانم این را از روی مقادیر z از خروجی post hoc محاسبه کنم؟ مقادیر z تقریباً دقیقاً مشابه مقادیر t هستند. | تضادهای خاص در مدل ترکیبی با تعامل |
113227 | من از GEE ها در SPSS 22 برای تجزیه و تحلیل داده های پایان نامه خود استفاده کرده ام و یک مشکل جالب را کشف کرده ام: زمانی که سعی می کنم بفهمم کدام زیرمجموعه از عوامل مدل دارای کمترین QICc هستند و بنابراین بهترین تناسب را با داده های من دارند، QICc همچنان کاهش می یابد. از بین بردن عوامل اکنون، من می دانم که QICc برای فاکتورهای بیشتر در مدل جریمه می کند (به نفع سادگی)، اما این کمی احمقانه می شود. صرفاً برای سرگرمی، شروع به حذف حتی عوامل مهم کردم و همچنان QICc کاهش می یابد... پیشینه بیشتر: من در حال مدل سازی داده های شمارش با استفاده از توزیع دوجمله ای منفی با پیوند log و ماتریس کوواریانس قابل مبادله هستم (انتخاب شده با استفاده از مقادیر QIC). من سه عامل دارم (بیایید آنها را A، B و C بنامیم) و دو متغیر کمکی. عوامل همگی دسته بندی شده اند و هر کدام دو سطح دارند. من می خواهم تأثیر عوامل و تعاملات احتمالی بین آنها را آزمایش کنم، بنابراین با مدل فاکتوریل کامل شروع کردم. تعامل 3 طرفه و دو تا از سه تعامل دو طرفه مهم نیستند، بنابراین تصمیم گرفتم آنها را از مدل حذف کنم و ببینم چه اتفاقی برای QICc افتاده است. لطفاً اگر این روش نادرست است، مرا تصحیح کنید... من به AIC و AICc عادت دارم! در اینجا خلاصه ای کوتاه از آنچه الگوی مقادیر QIC و QICc دریافت می کنم آورده شده است. همین الگو زمانی اتفاق میافتد که من از تابع شبه درستنمایی کامل log و تابع شبه درستنمایی لاگ هسته استفاده میکنم، اعداد خام فقط متفاوت هستند. بنابراین، به این صورت پیش میرود: فاکتورهای مدل = A، B، C، A*B، A*C، B*C، A*B*C QIC = 0.626 QICc = 16.597 (جایی که A*B*C، A*B ، و B*C مهم نیستند و با حذف فاکتورها این تغییر نمی کند.) A، B، C، A*B، A*C، B*C QIC = 0.624 QICc = 14.597 A، B، C، A*B، A*C QIC = 0.623 QICc = 12.597 A، B، C، A*B QIC = 0.624 QICc = 10.607 A، B، C QIC = 0.635 QICc = 8.64. و غیره. QICc به ازای هر عامل یا تعامل حذف شده حدود 2 کاهش می یابد. پس چمچه در اینجا چیست؟ آیا فاکتورهای مدل من در توضیح دادههای من ساده هستند؟ اما پس چرا اهمیت؟ آیا من باید فقط با مدل کامل پیش بروم زیرا من واقعاً علاقه مند به آزمایش تمام تعاملات ممکن هستم و GEE واقعاً برای همان نوع مدل سازی که با روش های دیگر به آن عادت کرده ام در نظر گرفته نشده است؟ هر گونه کمکی واقعا قدردانی خواهد شد! پیشاپیش متشکرم | GEE در SPSS: مورد ارزشهای QICc در حال کاهش |
26117 | چگونه Adaboost بهترین ویژگی ها را از داده های نمونه (یا بردار ویژگی واحد) انتخاب می کند؟ خوب است اگر کسی توضیح دهد که آیا عبارت بالا درست است یا نه. من دیده ام که در اسناد موجود در Adaboost از اصطلاح _features_ و _classifiers_ به جای یکدیگر استفاده می شود (این همان چیزی است که من فکر می کردم). به عنوان مثال: www.cs.nyu.edu/~eugenew/publications/viola-facedet04-talk.pdf لطفا توضیح دهید! | انتخاب ویژگی ها با استفاده از Adaboost |
79854 | من می دانم که 95٪ از مشاهدات در یک توزیع نرمال تقریباً کمتر از 2 انحراف استاندارد از میانگین قرار می گیرند. آیا وقتی توزیع دارای دم چربی باشد این تغییر می کند؟ نام قضیه ای که این را تضمین می کند چیست؟ پیشاپیش ممنون | 2 قانون انحراف معیار |
26118 | من یک سوال دارم: > آیا یک آمار کافی باید یک به یک باشد؟ به عنوان مثال، آیا $T(x) = > x^2$ یا $T(x) = |x|$ می تواند آمار کافی باشد؟ من می دانم که یک به یک > توابع آمار کافی کافی است. | آمار کافی |
26114 | من در حال ساخت یک مدل در R با استفاده از ماشین بردار پشتیبانی (SVM) با هسته KBF هستم. به نظر می رسد مدل کاملاً خوب کار می کند. من می خواهم اهمیت نسبی متغیرهای پیش بینی را ارزیابی کنم. آیا کسی می تواند به من بگوید چگونه می توان این کار را انجام داد. آیا اسکریپت R برای آن وجود دارد؟ | اهمیت SVM متغیرهای پیش بینی کننده |
26110 | من برخی از موارد توصیف شده توسط 43 دسته مانند این را دارم: مجموعه داده ها رده 1 رده 2... دسته 43 D1 مورد 1 1 0 0 ... 1 ... D1 مورد 3 1 0 0 ... 1 ... D2 مورد 4 1 0 0 .. 1 ... .. کاری که من انجام دادم ایجاد یک جدول فرکانس مانند این مجموعه داده Category1 Category2 ... Category43 D1 617 388 ... 827 D2 1234 7272 ... 1237 من در حال آزمایش هستم تا ببینم آیا رابطه ای بین نوع مجموعه داده و تعداد فرکانس دسته وجود دارد یا خیر. من داده های زیر را به عنوان خروجی dput دارم: structure(list(data.OldFrequency = c(617L, 388L, 6L, 9L, 1344L, 857L, 30L, 63L, 60L, 22L, 23L, 107L, 6L , 9 لیتر, 10 لیتر, 14 لیتر, 28 لیتر، 9 لیتر، 174 لیتر، 245 لیتر، 103 لیتر، 4096 لیتر، 121 لیتر، 6 لیتر، 48 لیتر، 189 لیتر، 33 لیتر، 1426 لیتر، 64 لیتر، 16 لیتر، 135 لیتر، 77 لیتر، 26 لیتر، 77 لیتر، 26 لیتر، 7، 40 لیتر، 14 لیتر 1022L, 38L, 1578L, 242L, 67L), data.NewFrequency = c(1220L, 959L, 307L, 29L, 5093L, 771L, , 65L, 125L, 120L,1,1,3L, 41 87 لیتر، 20 لیتر، 159 لیتر، 45 لیتر، 68 لیتر، 60 لیتر، 11 لیتر، 644 لیتر، 51 لیتر، 7053 لیتر، 159 لیتر، 6 لیتر، 162 لیتر، 208 لیتر، 52 لیتر، 3277 لیتر، 27 لیتر، 3277 لیتر، 27 لیتر، 59 لیتر، 59 لیتر 96L، 84L، 180L، 2991L، 2227L، 34L، 2249L، 37L، 29L))، .Names = c(data.OldFrequency، data.NewFrequency)، row.names = c(NA، -43 class = data.frame) در حال اجرا «chisq.test» با استفاده از این موارد زیر را به من می دهد: داده های آزمون Chi-squared Pearson: d X-squared = 2551.405، df = 42، p-value < 2.2e-16 پیام هشدار: در chisq.test(d): Chi - تقریب مربع ممکن است نادرست باشد. من در مورد اینکه چه فرضیه صفری در حال آزمایش است و پیامدهای این هستند. آیا کسی می تواند به من کمک کند که چگونه این را تفسیر کنم؟ من یک آمارگیر نیستم و دوست دارم کسی بتواند این را با کلمات ساده توضیح دهد. و چگونه پیام هشدار را برطرف کنم؟ | این نتایج chi-square به چه معناست؟ |
37441 | در حال مطالعه تاثیر سرمایه اجتماعی بر درآمد خانوارها هستم. من برای تخمین این اثر رگرسیون چندگانه انجام می دهم. برای این منظور، درآمد خانوارها به عنوان متغیر وابسته و سرمایه اجتماعی به عنوان متغیر توضیحی است. همچنین سرمایه انسانی و برخی دیگر از ویژگی های خانوار را به عنوان متغیرهای کنترلی برای رگرسیون چندگانه گنجانده ام. سرمایه اجتماعی و درآمد خانوار دارای علیت دو طرفه هستند زیرا استدلال می شود که سرمایه اجتماعی متغیر درونزا است. این امر از نظر تئوری و تجربی در مطالعات مختلف تحقیقاتی ثابت شده است. برای جلوگیری از این مشکل و به دست آوردن تخمین های بی طرفانه و ثابت. من قصد دارم از رگرسیون خطی دو مرحله ای (2SLS) یا تکنیک متغیر ابزاری استفاده کنم. آیا کسی می تواند پیشنهاد دهد که کدام روش در مورد من ارجح است و چگونه می توان تجزیه و تحلیل خود را دقیقاً در هر دو مورد انجام داد اگر: 1. ابزار معتبری دارم یا 2. ابزار معتبری برای متغیر درون زا ندارم؟ | چگونه از مشکل علیت دو طرفه اجتناب کنیم؟ |
63805 | بگوییم حداقل k 0 و حداکثر k 4 است. k از تابع جرم احتمال مشتق می شود، اگرچه من از فرمول استفاده نمی کنم زیرا p توزیع را ندارم. اگر من k(0) = 0.1852 k(1) = 0.4074 k(3) = 0.0926 k(4) = 0.0092 داشته باشم آیا تابعی وجود دارد که بتوانم از آن برای محاسبه منحنی استفاده کنم؟ برای توضیح کمی بیشتر، آنچه من واقعاً به دنبال آن هستم محاسبه تابع منحنی زنگ اریب با استفاده از k(0)، k(1)، k(n) و k(n-1) است، جایی که n می تواند هر عددی تا 50 باشد. من این k ها را به صورت دستی محاسبه می کنم زیرا این مجموعه شامل احتمالات متعدد است (مثلاً: تاس ریختن و برگرداندن سکه). همانطور که قبلا گفته شد، من p را برای توزیع نمی دانم. | نحوه پیدا کردن تابع منحنی توزیع اریب با محاسبه k=P برای 4 نقطه در طول منحنی |
112430 | گاهی محققین (به ویژه در همکاری ها) دو نظریه متضاد اما درست دارند: بین دو گروه تفاوت وجود دارد یا فقط تفاوت ناچیز وجود دارد. حالا از آمارگیرشان می پرسند. او چگونه باید به موقعیت نزدیک شود؟ اگر او یک آزمون فرضیه نقطه ای انجام دهد، طرف اختلاف را ترجیح می دهد زیرا فقط نظریه آنها را می توان در مورد فرضیه نقطه رد شده تأیید کرد، در حالی که رد نکردن فرضیه نقطه چیزی نمی آموزد. اگر او فقط تست هم ارزی انجام دهد، به دلیل مشابه، طرف اختلاف ناچیز را ترجیح می دهد. آیا باید هر دو را البته با تصحیح کثرت انجام دهد؟ بنابراین یک آزمون TOST برای هم ارزی _و_ یک آزمون فرضیه نقطه ای؟ یا یک TOST و یک آزمون مربوطه مربوطه؟ این روش سه نتیجه خواهد داشت: 1. هم ارزی هر دو پارامتر تا تفاوت های ناچیز. 2. تفاوت به اندازه کافی بزرگ. 3. چیزی برای یادگیری نیست زیرا هر دو فرضیه رد نشده اند. آیا چنین رویکرد et-et معقول است؟ چرا ما به سختی چنین تحلیلهایی را در نشریات مشاهده میکنیم؟ این یک سوال کلی برای استدلال است. بنابراین پاسخ های متعدد تشویق می شود و من این سوال را به مدل های خاصی محدود نمی کنم. | فرضیه نقطه و فرضیه هم ارزی به یکباره |
37767 | من هنگام تلاش برای تجزیه و تحلیل داده های آزمایش روانشناختی خود با یک مشکل جدی مواجه شدم. در اینجا جزئیات آزمایش آمده است: در هر کارآزمایی، آزمودنیها با دایرههای رنگی جانبی ارائه شدند. وقتی دایره قرمز بود باید دکمه سمت راست یا وقتی دایره آبی بود دکمه چپ را فشار می دادند. شرط سازگاری تعیین می کند که آیا محل دایره و سمت پاسخ مطابقت دارند (سازگار) یا نه (ناسازگار). اشباع رنگ ها نیز دستکاری شد (6 سطح اشباع: 15، 25، 35، 45، 60، 80%). بنابراین من از طرح 2 (شرایط سازگاری: سازگار، ناسازگار) × 6 (سطح اشباع رنگ: 15، 25، 35، 45، 60، 80٪) درون سوژه ها استفاده کردم. 13 نفر در این آزمایش شرکت کردند. برای هر آزمودنی، 224 مشاهده در هر شرایط آزمایشی وجود داشت. من می خواهم رابطه بین میانگین و واریانس هر شرایط آزمایشی را برای هر فرد تجزیه و تحلیل کنم. به طور کلاسیک، این رابطه خطی است، که منجر به همبستگی های بسیار بالایی برای هر موضوع می شود (r > 0.85). با این حال، در آزمایش من، مقادیر r از 0.15 تا 0.95 با میانگین 0.56 متغیر است. اکثر آزمودنی ها r<75/0 را نشان می دهند (11 از 13 آزمودنی)، که با یافته های سنتی فاصله زیادی دارد (> 0.85). بنابراین تصمیم گرفتم به تحلیل دیگری روی بیاورم. من فکر می کنم که داده ها با دو خط رگرسیون بهتر توصیف می شوند: یکی برای هر شرایط سازگاری (اما این فقط یک احساس گرافیکی است). حدس من این است که برای هر موضوع یک ANCOVA با std به عنوان متغیر وابسته، میانگین به عنوان متغیر کمکی و سازگاری به عنوان عامل انجام شود. اما نمیدانم که آیا این تحلیل درستی است یا خیر، و آیا میتوان آن را بهعنوان یک ANCOVA درون موضوعی در نظر گرفت. هر گونه کمکی قدردانی خواهد شد! | آیا ANCOVA برای آزمایش من مناسب است؟ |
79856 | من تحقیقی انجام داده ام که در آن 120 نفر شرکت کردند. برای نظرسنجی خود دو تصویر بصری (تعالی و دلقک) ایجاد کردم. * نمونه 1 (60=n) مصاحبه را با فرد معمولی انجام داد * نمونه 2 (60=n) مصاحبه را با دلقک انجام داد بخش اول نظرسنجی (که شامل جمع آوری داده ها نمی شود) شرکت کننده باید به چند سوال پاسخ می داد. بر اساس بازخورد یک فرد معمولی یا دلقک. در پایان این روایت، شرکتکننده باید 8 سوال را پر میکرد که در آنها شرکتکننده باید میزان اعتماد خود را به دلقک یا فرد معمولی تعریف میکرد. این درجه از اعتماد بر اساس مقیاس لیکرت (مقادیر گسسته) از 0 (مخالف) تا 7 (موافق) است. به مثال مراجعه کنید: http://imgur.com/K22QIkh.jpg بنابراین هدف تحقیق من این است که ببینم آیا تفاوت قابل توجهی در اعتماد وجود دارد: * مقایسه نتایج سوال 1 بین نمونه 1 با نمونه 2 (مقایسه کنید 60/ 60) * مقایسه نتایج سوال 2 بین نمونه 1 با نمونه 2 (مقایسه کنید 60/60) و به همین ترتیب برای هر هشت سوال. برای تجزیه و تحلیل داده ها از آزمون t تک نمونه ای استفاده کردم. در SPSS همه 120 نتیجه را زیر هم قرار دادم (0 تا 60 = نمونه 1، 61 تا 120 = نمونه 2) و تعریف کردم که 0 تا 60 گروه 1 و 61 تا 120 گروه 2 است. بنابراین، با انجام این کار می توانم مقایسه کنم. نتایج برای هر 8 سوال بین نمونه 1 و 2. این در نهایت نتایج زیر را به من داد: مثال را ببینید: http://imgur.com/2gMkrfB.jpg سوال اصلی من این است: با آلفای 0.05 به نظر می رسد همه نتایج سوالات قابل توجه هستند. با این حال سؤال 6 (vraag 6) هر دو دقیقاً میانگین یکسانی دارند، چگونه این تفاوت می تواند قابل توجه باشد؟ آیا من کار اشتباهی انجام می دهم؟ هر راهنمایی پذیرفته میشود :) | تحقیقی حاوی تفاوت آماری بین دو نمونه |
63807 | با استفاده از لحظه های نمونه، چگونه می توان برآوردگرهای میانگین و واریانس را بهبود بخشید اگر به عنوان مثال. چولگی و کشیدگی دقیقا مشخص است؟ و در مورد استفاده از تخمینها برای اینها به جای آن، که هیچ کمکی نمیکند؟ به طور کلی، میخواهم بدانم آیا رویکردهای مشابهی برای انواع دیگر تخمینگرهای مکان و پراکندگی، مانند L-moments وجود دارد یا خیر. | چگونه می توان شرایط تخمین مکان و پراکندگی را در آمارهای مرتبه بالاتر بهبود بخشید؟ |
63801 | در مقایسههای چندگانه، فرض کنید $q$-values را محاسبه کردهایم. آیا برای هر آزمایش یک $q$-value برای همه مقایسه های چندگانه است؟ با توجه به آستانه نرخ کشف نادرست (FDR) در FDR، آیا $q$-values برای تعیین پذیرش یا رد هر یک از صفر استفاده می شود؟ آیا برای آزمایش فردی، **اگر و فقط اگر** مقدار q$ آن کمتر از آستانه FDR نباشد، رد می شود؟ چرا؟ با تشکر | اگر و فقط اگر q-value بیشتر از آستانه FDR نباشد، null را رد کنید؟ |
79857 | من باید یک رگرسیون گام به گام به عقب را اجرا کنم. من فصل از عناصر یادگیری آماری را خواندم، اما توضیح در اینجا ضعیف است: > انتخاب گام به گام با مدل کامل شروع می شود، و به طور متوالی > پیش بینی کننده ای را که کمترین تأثیر را بر تناسب دارد حذف می کند. نامزد > برای حذف، متغیری است که دارای کمترین امتیاز Z است **این از > فصل 3.3.2 pg:59** گرفته شده است. در هر سطح با توجه به Z-score چه چیزی را حذف خواهم کرد؟ من باید بدانم که چگونه این الگوریتم قدم به قدم کار می کند. **ویرایش:** سعی می کنم کدها را روی متلب پیاده سازی کنم. نمی دانم کاملاً اشتباه می کنم یا نه :/ در مورد این تابع نظر دهید لطفاً تابع [] = BackwardStepWise(X,y,N,p) % X است Nxp ماتریس y است Nx1 ماتریس X = [ones(N,1 ) X]؛ درصد بردار برای نگهداری اعداد ستون v= 1:p; برای k=p-1:-1:1 % ایجاد ماتریس با ستون های انتخاب شده T= [ones(N,1)]; برای j=1:k %اضافه کردن ستون به ماتریس T = [T X(:,v(1,j)+1)]; endfor %evaluate beta beta = inv(T' * T) * T' * y; % محاسبه امتیاز Z برای هر ستون sigmahat_sq = (y-T*beta)'*(y-T*beta)/(N-p-1); TT = inv(T'*T); Zmin = 100000; Zminindex = -1; برای i=1:size(beta,2) z(i) = beta(i)/sqrt(sigmahat_sq*TT(i,i)); if(z(i) < Zmin) Zmin = z(i); Zminindex = i; endif endfor ستون %drop که کمترین امتیاز Z را دارد (ویرایش v بردار) v2 = []; برای i=1:size(v,2) if(i == Zminindex) continue; else v2 = [v2 v(i)]; endif endfor v = v2; endfor endfunction | انتخاب گام به گام به عقب |
63802 | فرض کنید که یکی دو منبع تغییرپذیری را با دادههای $y_{ij}$ که از $j$th موضوع در $i$th جلسه به دست آمده است، بررسی میکند ($i=1,2؛ j=1,2..., n$) . یک مدل خطی اثرات مختلط را می توان به صورت زیر فرموله کرد، $$y_{ij} = \alpha_0 + b_i + c_j + \epsilon_{ij}$$ که $\alpha_0$ یک ثابت است، $b_i$ و $c_j$ هستند اثرات تصادفی برای $i$th جلسه و $j$th موضوع به ترتیب، و $\epsilon_{ij}$ یک عبارت باقی مانده است. با مفروضات $b_i ~\sim N(0، \tau_1^2)$، $c_j ~\sim N(0، \tau_2^2)$، و $\epsilon_{ij} ~\sim N(0، \ sigma^2)$، مقادیر همبستگی درون کلاسی (ICC) برای جلسات و موضوعات را می توان به ترتیب به صورت $$ICC_{session} = تعریف کرد. \frac{\tau_1^2}{\tau_1^2+\tau_2^2+\sigma^2}, ICC_{موضوع} = \frac{\tau_2^2}{\tau_1^2+\tau_2^2+\ sigma^2}.$$ و مقادیر ICC فوق را میتوان از طریق «lmer» در بسته R «lme4» بهدست آورد. من دو سوال دارم: 1. آیا راهی برای آزمایش اهمیت مقادیر ICC فوق در زمینه مدل LME، مشابه $F$-stat برای ICC که تحت ANOVA با اثرات تصادفی تعریف شده است، وجود دارد؟ 2. به طور شهودی هر چه تنوع بین دو جلسه بیشتر باشد (تفاوت بیشتر بین دو جلسه)، ICC جلسه بالاتر است. اما چگونه این شهود با این تصور که ICC قابلیت اطمینان، تکرارپذیری یا سازگاری را می سنجد، سازگار است؟ آیا قابل اعتماد بودن جلسه (یا تکرارپذیری، سازگاری) در مورد پاسخ هر دو آزمودنی که از یک جلسه می آید، در مورد تفاوت بین دو جلسه نیست؟ | همبستگی درون طبقاتی در زمینه مدل خطی اثرات مختلط |
79852 | ببخشید سوال گنگ من، اما من یک رگرسیون لجستیک تک متغیره انجام دادم که علامت ضریب متغیر من منفی بود (و معنی دار بود). هنگامی که آن را در یک رگرسیون چند متغیره وارد کردم، علامت ضریب همان متغیر مثبت شد (هنوز معنی دار). چرا این اتفاق می افتد؟ آیا این به دلیل نقاط پرت یا خطی بودن بین متغیرها است (اگرچه همانطور که گفتم متغیرها قابل توجه هستند) یا چیزی ظریف تر است؟ | چرا هنگام انجام رگرسیون لاجیت چند متغیره در مقابل تک متغیره، علائم ضرایب تغییر می کنند؟ |
3425 | من مطمئن نیستم که این را چگونه باید نامگذاری کرد، بنابراین اگر اصطلاح بهتری می دانید، لطفاً من را اصلاح کنید. من دو لیست دارم یکی از 55 مورد (به عنوان مثال: بردار رشته ها)، دیگری از 92. نام آیتم ها مشابه هستند اما یکسان نیستند. من می خواهم بهترین نامزد * _s_ * را در لیست 92 به موارد موجود در لیست 55 پیدا کنم (سپس آن را مرور می کنم و مناسب را انتخاب می کنم). چگونه می توان آن را انجام داد؟ ایدههایی که داشتم: 1. دیدن همه مواردی که مطابقت دارند (با استفاده از فهرستی از فهرست؟) 2. یک ماتریس فاصله بین بردارهای رشتهها را امتحان کنید، اما مطمئن نیستم که چگونه آن را به بهترین شکل تعریف کنم (تعداد حروف یکسان، چطور؟ ترتیب رشته ها؟) پس چه بسته/توابع/زمینه تحقیقاتی با چنین کاری سروکار دارد و چگونه؟ بهروزرسانی: در اینجا نمونهای از بردارهایی است که میخواهم با vec55 تطبیق دهم <- c(Aeropyrum pernix، Archaeoglobus fulgidus، Candidatus_Korarchaeum_cryptofilum، Candidatus_Methanoregula_boonei_6A8، Cenarchaeum_symbioken, Desarchaeum_symbioken, Design_Sulfurosum Ferroplasma acidarmanus، Haloarcula_marismortui_ATCC_43049، Halobacterium sp.، Halobacterium_salinarum_R1، Haloferax volcanii، Haloquadratum_walsbyi، Hyperthermus_butylicus، Hyperthermus_butylicus، Ighermus_butylicus، Halobacterium_salinarum_R1. Metallosphaera_sedula_DSM_5348، Methanobacterium thermautotrophicus، Methanobrevibacter_smithii_ATCC_35061، Methanococcoides_burtonii_DSM_6242 ) vec91 <- c(Acidilobus51profundum45 T469، Aeropyrum pernix K1، Archaeoglobus fulgidus DSM 4304، Archaeoglobus profundus DSM 5631، Caldivirga maquilingensis IC-167، Candidatus Korarchaeum cryptofilum OPF8، Candidatos symbiosum A، Desulfurococcus kamchatkensis 1221n، Ferroglobus placidus DSM 10642، Halalkalicoccus jeotgali B3، Haloarcula marismortui ATCC 43049، Halobacterium salinarum R1، Halobacterium salinarum R1، H. NRC-1، Haloferax volcanii DS2، Halomicrobium mukohataei DSM 12286، Haloquadratum walsbyi DSM 16790، Halorhabdus utahensis DSM 12940، Halorubrum lacusprofundica، Halorubrum lacusprofundica DSM 5511، Hyperthermus butylicus DSM 5456، Ignicoccus hospitalis KIN4/I، Ignisphaera aggregans DSM 17230، Metallosphaera sedula DSM 5348، Methanobrevibacter ruminantium M1، Methanobrevibacter ruminantium M1، Methanobrevibacter، 6ATsmiti0 Methanocaldococcus fervens AG86، Methanocaldococcus infernus ME، Methanocaldococcus jannaschii DSM 2661، Methanocaldococcus sp. FS406-22، Methanocaldococcus vulcanius M7، Methanocella paludicola SANAE، Methanococcoides burtonii DSM 6242، Methanococcus aeolicus Nankai-3، Methanococcus maripaludis C5، Methanococcus maripaludis C5، Methanococcoides burtonii DSM 6242 maripaludis C7، Methanococcus maripaludis S2، Methanococcus vannielii SB، Methanococcus voltae A3، Methanocorpusculum labreanum Z، Methanoculleus marisnigri JR1، Methanohalobium evestigatum، SMMethanohalobium evestigatum SMMe73 5219، Methanoplanus petrolearius DSM 11571، Methanopyrus kandleri AV19، Methanosaeta thermophila PT، Methanosarcina acetivorans C2A، Methanosarcina barkeri str. Fusaro، Methanosarcina mazei Go1، Methanosphaera stadtmanae DSM 3091، Methanosphaerula palustris E1-9c، Methanospirillum hungatei JF-1، Methanothermobacter marburgensis str. Marburg، Methanothermobacter thermautotrophicus str. Delta H، Nanoarchaeum equitans Kin4-M، Natrialba magadii ATCC 43099، Natronomonas pharaonis DSM 2160، Nitrosopumilus maritimus SCM1، Picrophilus torridus DSM 97990lumstr. IM2، Pyrobaculum arsenaticum DSM 13514، Pyrobaculum calidifontis JCM 11548، Pyrobaculum islandicum DSM 4184، Pyrococcus abyssi GE5، Pyrococcus furiosus DSM 3638, Pyrococcus furiosus DSM 3638، Pyrococcus furiosus DSM 3638، Pyrobaculum calidifontis JCM 11548 hellenicus DSM 12710، Staphylothermus marinus F1، Sulfolobus acidocaldarius DSM 639، Sulfolobus islandicus L.D.8.5، Sulfolobus islandicus L.S.2.15، Sulfolobus islandicus M.14.25، Sulfolobus islandicus M.14.25، M.14.25 Sulfolobus islandicus M.16.4، Sulfolobus islandicus Y.G.57.14، Sulfolobus islandicus Y.N.15.51، Sulfolobus solfataricus P2، Sulfolobus tokodaii str. 7، Thermococcus gammatolerans EJ3، Thermococcus kodakarensis KOD1، Thermococcus onnurineus NA1، Thermococcus sibiricus MM 739، Thermofilum pendens Hrk 5، Thermoplasma acidophilum DSM 17228 neutrophilus V24Sta، Thermosphaera aggregans DSM 11486، Vulcanisaeta distributa DSM 14429، Archaeon methanogenic RC-I) (با تشکر) | چگونه دو بردار رشته (در R) را شبه مطابقت دهیم؟ |
2007 | اگرچه من به عنوان یک مهندس آموزش دیده ام، اما متوجه شده ام که بیشتر به داده کاوی علاقه مند شده ام. در حال حاضر سعی می کنم در این زمینه بیشتر تحقیق کنم. به طور خاص، من میخواهم دستههای مختلف ابزارهای نرمافزاری را که وجود دارند و اینکه کدام ابزارها در هر دسته قابل توجه هستند و چرا آنها قابل توجه هستند، بدانم. (توجه داشته باشید که من بهترین ابزارها را نگفتم، بلکه فقط ابزارهای قابل توجه را گفتم که مبادا جنگ شعله ای را شروع کنیم.) به خصوص ابزارهایی را که منبع باز و رایگان در دسترس هستند یادداشت کنید - اگرچه این را به این معنا نگیرید. من فقط به منبع باز و رایگان علاقه دارم. | بررسی ابزارهای نرم افزاری داده کاوی |
79855 | امروز از من پرسیده شد که آیا p-value 0.05 (دقیقا) معنی دار در نظر گرفته می شود (با توجه به آلفا = 5%) یا خیر. من جواب را نمی دانستم و گوگل هر دو پاسخ را نشان داد: (الف) نتیجه قابل توجه است اگر p کمتر از 5٪ باشد و (ب) اگر p کمتر از 5٪ یا برابر با 5٪ باشد. البته هیچ یک از این وب سایت ها به کسی استناد نکرده اند. چرا باید یکی - این دانش عمومی است و 5٪ خودسرانه هستند، به هر حال. اما این به من کمک نمیکند که به دانشآموزانم چیزی برای یادآوری بگویم. بنابراین، در اینجا سؤالات ناامیدانه من در مورد آزمایش فرضیه ها وجود دارد: اگر مقدار p دقیقاً آلفا باشد - آیا نتیجه را قابل توجه می دانم یا نه؟ و استناد معتبر در این مورد چیست؟ خیلی ممنون | آیا p=5.0% معنی دار است؟ |
79851 | پس از حذف یکی از فاکتورهای بین موضوعی (ترتیب پرسشنامه ها) مجبور شدم تحلیل ها را تکرار کنم و ابزار جدیدی که برای تأثیرات دیگر به دست آوردم با آنچه قبلاً داشتم متفاوت بود. مگه میشه اینطوری؟ آیا به این دلیل است که درجات آزادی تغییر کرده است؟ | تکرار آنالیز ANOVA پس از حذف یک عامل: میانگین های مختلف |
113224 | من انتظار داشتم که این با جزئیات توسط آموزش LIBSVM پوشش داده شود، اما پس از ساعت ها اتلاف وقت در گوگل برای یافتن پاسخ، مجبور شدم آن را کنار بگذارم. کاری که من سعی می کنم انجام دهم واقعاً بی اهمیت است. در حال حاضر من یک مجموعه داده مالی در قالب CSV دارم: زمان، اندیکاتور1، اندیکاتور2، اندیکاتور3، roc 20140508190000،0،-2،-1،-0.00361310835712725 20140508200000,1,-2,0,0.0216786501427154 20140508210000,-1,-2,1,-0.0252917584998426 20140508220000,0,-2,0,-0.0108397167220604 20140508230000,-1,-2,0,-0.0505725535527163 201405090,0,-2,0,0.0144560896277541 2014050910000,0,-2,0,-0.00361363061468619 2014050920000,1,025 2014050920000,1,-2019 2014050920000,1,-2 2014050930000,-1,-2,1,-0.0975645009756423 2014050940000,0,-2,1,-0.0144550448106373 2014050950000,-1,-2,1,-0.198670712324811 ... بنابراین ما ستون تاریخ/زمان و سپس چهار ویژگی در هر سطر داریم. بعداً می خواهم آخرین ستون (roc) را پیش بینی کنم. بدیهی است که این دادهها عادی نیستند و من قصد دارم از phraug برای تبدیل دادههای خود به یک قالب مناسب LIBSVM استفاده کنم. اما نه به این سرعت... مشکل اینجاست. من نتوانستم هیچ نمونه ای پیدا کنم که نحوه قالب بندی داده های ورودی چند ردیفی را توضیح دهد. به عبارت دیگر، از آنجایی که من قصد دارم از SVR استفاده کنم، باید به نحوی SVM خود را با یک پنجره کشویی از مجموعه داده ها تغذیه کنم. برای مثال، فرض کنید میخواهم به موتور پنج ردیف بدهم تا مقدار خروجی ششم را پیشبینی کند: 20140508190000,0,-2,-1,-0.00361310835712725 20140508200000,1,-2,0,0.0216786501427154 20140508210000,-1,-2,1,-0.0252917584998426 20140508220000,0,-2,0,-0.0108397167220604 20140508230000,-1,-2,0,-0.0505725535527163 ایده آل در اینجا مقدار ردیف بعدی خواهد بود: 0.0144560896277541 سپس پنجره را یک ردیف به پایین می کشانیم: 20140508200000,1,-2,0,0.0216786501427154 20140508210000,-1,10008210000,-1,10000,-1,100,20000,-1,10000,-1,10000,-1-1-20000,1-2,0,0.0 20140508220000,0,-2,0,-0.0108397167220604 20140508230000,-1,-2,0,-0.0505725535527163 201405090,0,-2,0,0.0144560896277541 و ایده آل در اینجا این است: -0.00361363061468619 و غیره. یا میتوانم قالب اصلی خود را حفظ کنم (نرمال شده) و روال آموزش/پیشبینی LIBSVM را برای انجام این کار پیکربندی کنم، _یا باید پنج ردیف خود را به یک ردیف تبدیل کنم_، و هیچ سرنخی برای انجام این کار ندارم. در واقع من واقعا امیدوارم که این کار از طریق برخی از کرنل هایپرپارام انجام شود و نه از طریق CSV. در غیر این صورت به یک فایل ورودی CSV متفاوت برای محدوده های مختلف مجموعه داده نیاز دارد. و این بسیار پیچیده و مستعد خطا خواهد بود. امیدوارم همه اینها منطقی باشد. آیا کسی می تواند به من در جهت درست راهنمایی کند؟ هر ورودی بسیار قدردانی خواهد شد. ** به روز رسانی: ** فکر می کنم دارم شروع به دیدن نور کرده ام! فقط برای روشن شدن - من با نحوه فرمت کردن داده های خود مشکلی ندارم _یکبار_ فرمت مورد نیاز را کاملاً درک می کنم. بیایید فرض کنیم من از رگرسیون و پنجره 3 روزه داده با سه مقدار ورودی در روز استفاده می کنم. طبق درک من، این شامل ایجاد یک بردار چند بعدی است، بنابراین این ماتریس ورودی مناسب برای یک بردار 3x3 است: answer_variable 1:day1-1 2:day1-2 3:day1-3 4:day2-1 5:day2- 2 6:day2-3 7:day3-1 8:day3-2 9:day3-3 برای SVC متغیر پاسخ من به احتمال زیاد یک int نشان دهنده یک دسته است، به عنوان مثال. بالا/پایین (-1/1) و برای SVR چیزی شبیه یک ROC نرمال شده (به عنوان مثال 0.014). آیا کسی می تواند این را تایید کند؟ پیشاپیش متشکرم :-) | نحوه قالب بندی داده های سری زمانی چند ردیفه برای رگرسیون LIBSVM |
3423 | من روی یک برنامه وب کار می کنم، و در حال ایجاد برخی داده ها و ابزارهایی برای آن هستم. برای یک سری خاص، من واریانس بسیار گسترده ای در مقادیر داده (0 تا میلیون ها) دارم. اکنون از نمودار ستونی برای مشاهده دادهها استفاده میکنیم، که البته باعث میشود برخی از ستونها یک پیکسل بالاتر یا کوچکتر باشند. ما قبلاً راههایی برای برش دادن دادهها داریم که کمی کمک میکند، اما میدانستم که آیا انواع مختلفی از تجسمسازیهای رایج در آنجا وجود دارند که با این نوع موقعیتها بهتر برخورد کنند. و اگر چنین است، اگر کتابخانه های JS وجود داشت که به پیاده سازی آنها کمک می کرد. | توصیه هایی برای نوع تجسم زمانی که داده ها دارای واریانس بسیار گسترده هستند |
37449 | فرض کنید به مجموعهای از کاربران مجموعهای از نظرسنجیها میدهید، یا انتخابی از غذاها را به آنها میدهید، یا اجازه میدهید به گروهی از آهنگها گوش دهند (حدس بزنید مانند پاندورا). بنابراین با نگاهی به انتخاب هایی که همه کاربران انجام می دهند، می توانید کاربر 1 را با کاربر 5 بر اساس 10 انتخاب اول آنها مطابقت دهید. بنابراین شما با گرفتن کاربر 1، نظرسنجی بعدی (یا هر چیز دیگری) را به او ارائه می کنید و او انتخاب می کند، سپس من می توانم کاربر 5 را بگیرم و همان گزینه ها را به او ارائه کنم. من فکر می کنم پس از آن می توانم با احتمال خاصی بگویم که کاربر 5 همان موردی را که کاربر 1 بر اساس سابقه قبلی انتخاب کرده بود انتخاب می کند. این فرآیند آماری/ریاضی چیست؟ چگونه آن را به طور کلی کدنویسی کنم؟ (میدانم که اینجا مکان مناسبی برای آن نیست، اما فکر میکنم اگر بدانم نام این فرآیند چیست، بتوانم آن را پیدا کنم). خوب اکنون می بینم که برچسبی به نام مدل های پیش بینی وجود دارد، اما مطمئن نیستم که آیا این اصطلاح درستی است یا نه و چه شکل خاصی را می خواهم توصیف کنم؟ | پیش بینی انتخاب کاربر بر اساس کاربر مشابه |
4851 | من سعی می کنم توزیع چندین متغیر تصادفی را از قبل محاسبه کنم. به طور خاص، این متغیرهای تصادفی نتایج عملکردهایی هستند که در مکانهای یک ژنوم ارزیابی میشوند، بنابراین برای هر یک از مقادیر 10^8 یا 10^9 وجود خواهد داشت. توابع بسیار روان هستند، بنابراین فکر نمیکنم تنها با ارزیابی در هر 2/10/100، دقت زیادی را از دست بدهم؟ پایه یا بیشتر، اما صرف نظر از تعداد زیادی نمونه وجود خواهد داشت. برنامه من این است که جداول کمیت (شاید صدک) را برای هر تابع از قبل محاسبه کنم و در اجرای برنامه اصلی خود به آنها ارجاع دهم تا مجبور نباشم این آمار توزیع را در هر اجرا محاسبه کنم. اما من واقعاً نمیدانم چگونه میتوانم این کار را به راحتی انجام دهم: ذخیره، مرتبسازی و کاهش یک آرایه از 10^9 شناور واقعاً امکانپذیر نیست، اما نمیتوانم به راه دیگری فکر کنم که اطلاعات مربوط به آن را از دست ندهد. توزیع آیا راهی برای اندازه گیری چندک های توزیع نمونه وجود دارد که نیازی به ذخیره کل چیز در حافظه نداشته باشد؟ | محاسبه / ذخیره سازی تجربی CDF کارآمد |
108991 | از کجا می توانم منابعی برای یادگیری در مورد تجزیه و تحلیل نقطه تغییر پیدا کنم؟ امیدوارم کسی بتواند یک **کتاب درسی** را برای خواندن به من توصیه کند و هم تحلیل نقطه تغییر تک متغیره و هم تحلیل نقطه تغییر _چند متغیره را پوشش دهد. همچنین بسیار مفید خواهد بود اگر کسی بتواند منابعی را به من نشان دهد که حاوی مثال کار شده (با استفاده از تحلیل نقطه تغییر) با استفاده از R است. بنابراین، من مطالب نظری و مطالب کاربردی را درک می کنم. خیلی ممنون. | از کجا می توانم منابعی برای یادگیری در مورد تجزیه و تحلیل نقطه تغییر پیدا کنم؟ |
4856 | چگونه می توانم یک مدل AR(p) را به شکل فضای حالت بازنویسی کنم؟ Max(p)=5 و من می خواهم از Kalman Predictor استفاده کنم. | بازنویسی مدل AR به شکل State-Space |
2008 | من در حال بررسی مقالاتی هستم که به مقاله ای که در حال خواندن آن استناد می کنند - و می خواهم قضاوت کنم که آن مقاله استناد شده به خودی خود چقدر مهم یا خوب است. یکی از راه های شناخت این است که می دانستم آن مجله چقدر متمایز است. که من را به سؤال من سوق می دهد: ** چه معیارهایی برای اهمیت یا تاثیر مجله وجود دارد (و کجا می توانم آنها را پیدا کنم؟**) (من از امتیاز ضریب تاثیر اطلاع دارم. اما نمی دانم که آیا چنین اقدامات دیگری وجود دارد؟ معیارها، و که بیشتر برای مجلات آماری کاربرد دارند) | اقدامات اهمیت انتشار در آمار؟ |
37944 | من در حال حاضر از بسته R lme4 استفاده می کنم. من از یک مدل جلوههای ترکیبی خطی با جلوههای تصادفی استفاده میکنم: library(lme4) mod1 <- lmer(r1 ~ (1 | سایت)، داده = نمونه_ست) #فقط جلوههای تصادفی mod2 <- lmer(r1 ~ p1 + (1 | سایت )، داده = مجموعه_نمونه) #یک اثر ثابت + # جلوههای تصادفی mod3 <- lmer(r1 ~ p1 + p2 + (1 | سایت)، داده = مجموعه_نمونه) #دو جلوه ثابت + # جلوههای تصادفی برای مقایسه مدلها، من از تابع «anova» استفاده میکنم و به تفاوتهای AIC نسبت به پایینترین مدل AIC نگاه میکنم: anova (mod1، mod2، mod3) موارد بالا برای مقایسه مناسب هستند. مدل ها با این حال، من همچنین به روشی ساده برای تفسیر معیارهای مناسب برای هر مدل نیاز دارم. آیا کسی تجربه چنین اقداماتی را دارد؟ من تحقیقاتی انجام دادهام و مقالات مجلاتی در مورد R مربع برای اثرات ثابت مدلهای اثرات مختلط وجود دارد: * Cheng, J., Edwards, L. J., Maldonado-Molina, M. M., Komro, K. A., & Muller, K. E. (2010) . تجزیه و تحلیل داده های طولی واقعی برای افراد واقعی: ساخت یک مدل ترکیبی به اندازه کافی خوب آمار در پزشکی، 29(4)، 504-520. doi: 10.1002/sim.3775 * Edwards, L. J., Muller, K. E., Wolfinger, R. D., Qaqish, B. F., & Schabenberger, O. (2008). یک آمار R2 برای اثرات ثابت در مدل مختلط خطی. آمار در پزشکی، 27(29)، 6137-6157. doi: 10.1002/sim.3429 با این حال، به نظر می رسد که انتقاداتی پیرامون استفاده از اقداماتی مانند آنچه در مقالات فوق ارائه شده است وجود دارد. آیا کسی میتواند چند معیار آسان برای تفسیر و تناسب را پیشنهاد کند که میتواند در مدلهای من اعمال شود؟ | برای مدلهای جلوههای مختلط خطی، چه چیزی قابل تفسیر آسان است؟ |
4858 | من کتاب خوبی به نام تحلیل داده های طولی کاربردی: مدل سازی تغییر و وقوع رویداد نوشته جودیت سینگر و جان ویلت خوانده ام. این کتاب نشان میدهد که با مدلسازی در 2 سطح، میتوان تغییر فردی را در سطح 1 و در مدل سطح 2 برای تفاوتهای سیستماتیک بین فردی در تغییر مدل کرد. کدهای R برای مثالها فقط نحوه استفاده از «lme()» را برای تخمین اثرات ثابت و تصادفی نشان میدهند. با این حال، متن پیشنهاد میکند که باید مؤلفههای واریانس را برای تعیین اینکه آیا اثرات تصادفی معنیدار هستند یا خیر، آزمایش کنیم. برای مثال، یکی از کدها فقط موارد زیر را انجام می دهد: library(nlme) model.a <- lme(alcuse~ 1, alkol1, random= ~1 |id) summary(model.a) مدل اثرات مختلط خطی متناسب با REML داده ها: الکل1 AIC BIC logLik 679.0049 689.5087 -336.5025 اثرات تصادفی: فرمول: ~1 | id (Intercept) Residual StdDev: 0.7570578 0.7494974 جلوههای ثابت: alcuse ~ 1 Value Std.Error DF t-value p-value (Intercept) 0.9219549 0.09629638 16419 استاندارد شده است. باقیمانده ها: حداقل Q1 Med Q3 حداکثر -1.8892070 -0.3079143 -0.3029178 0.6110925 2.8562135 تعداد مشاهدات: 246 تعداد گروه ها: 82 اما متن موارد زیر را فهرست می کند: *9 -2 -0>0: خروجی * واریانس درون فرد: 0.562*** (s = 0.062) -> را می توان از خروجی به دست آورد (اثر تصادفی باقیمانده std. dev مربع) * بین واریانس فرد: 0.564*** (s = 0.119) کار من شامل یک تجزیه و تحلیل زیادی برای داده های طولی انجام شده است، بنابراین من واقعاً نیاز به درک این ایده دارم. کمک شما بسیار قدردانی می شود. | نحوه آزمایش افکت های تصادفی در یک مدل چندسطحی در R |
18497 | ویکیپدیا پیشنهاد میکند که یکی از راههای بررسی قابلیت اطمینان بین ارزیابها، استفاده از مدل اثرات تصادفی برای محاسبه همبستگی درونطبقهای است. مثال همبستگی درون کلاسی در مورد نگاه کردن به $$\frac{\sigma_\alpha^2}{\sigma_\alpha^2+\sigma_\epsilon^2}$$ از یک مدل $$Y_{ij} = \mu صحبت میکند. + \alpha_i + \epsilon_{ij}$$ در جایی که Yij jمین مشاهده در گروه i است، μ یک کل مشاهده نشده است. میانگین، αi یک اثر تصادفی مشاهده نشده است که با همه مقادیر در گروه i مشترک است، و εij یک عبارت نویز مشاهده نشده است. این یک مدل جذاب است مخصوصاً به این دلیل که در دادههای من هیچ رتبهدهندهای همه چیز را رتبهبندی نکرده است (اگرچه اکثر آنها رتبهبندی ۲۰+ دارند)، و چیزها چندین بار (معمولاً ۳-۴) رتبهبندی میشوند. سوال شماره 0: آیا گروه i در آن مثال (گروه i) گروهی از چیزهایی است که رتبه بندی می شوند؟ سوال شماره 1: اگر من به دنبال قابلیت اطمینان بین ارزیاب هستم، آیا نیازی به یک مدل اثرات تصادفی با دو عبارت، یکی برای رتبهدهنده و دیگری برای چیز رتبهبندیشده، ندارم؟ به هر حال، هر دو تنوع احتمالی دارند. سوال شماره 2: چگونه می توانم این مدل را به بهترین شکل در R بیان کنم؟ به نظر می رسد که این سوال یک پیشنهاد زیبا دارد: lmer(اندازه گیری ~ 1 + (1 | موضوع) + (1 | سایت)، mydata) من به چند سوال نگاه کردم، و نحو پارامتر تصادفی برای lme برای من مبهم است. من صفحه راهنما را برای lme خواندم، اما توضیحات تصادفی بدون مثال برای من قابل درک نیست. این سوال تا حدودی شبیه به یک لیست طولانی از سوالات است، با این نزدیک ترین. با این حال، اکثراً R را با جزئیات مطرح نمی کنند. | محاسبه قابلیت اطمینان بین ارزیاب در R با تعداد متغیر رتبهبندی؟ |
70530 | من به دنبال تغییرات در شیوع چاقی کودکان و همچنین سایر دسته های وزنی پس از مداخله هستم. من سعی میکنم بفهمم از کدام آزمون برای تغییرات در یک متغیر وابسته طبقهبندی استفاده کنم (من برای کودکانی که به شدت چاق، چاق، اضافه وزن، نرمال، کم وزن بودند) مقادیر 1-5 اختصاص دادم، قبل و بعد از مداخله. | چگونه می توان تغییر در سطح چاقی را قبل و بعد از مداخله ارزیابی کرد که چاقی یک متغیر ترتیبی است؟ |
14177 | بگویید که در حال انجام یک تحقیق سیاسی هستید و می خواهید بدانید که چند نفر به حزب الف و چند نفر به حزب ب رای می دهند. (فقط دو انتخاب وجود دارد.) یک نظرسنجی تصادفی از 10 نفر انجام می دهید و متوجه می شوید که از 10 رای شما، 1 رای A، در حالی که 9 رای دیگر به B رای می دهند. میانگین نسبت مورد انتظار رای دهندگان A در جمعیت عمومی چیست؟ شهود اکثر مردم می گوید 0.1. اما من آن را محاسبه کردم و به صورت '0.0909090'، یعنی '1/11' در آمد. قطعاً ممکن است من در محاسباتم اشتباه کرده باشم. آیا می توانید به من بگویید که آیا نتیجه من منطقی است؟ | نتیجه متضاد برای نمونه تصادفی |
71667 | روش مناسبی برای مقایسه دو مدل رگرسیون لجستیک با تعداد پارامترهای یکسان (یعنی مدل 1 در مدل 2 تو در تو نیست) چیست؟ در مورد من، من نمیتوانم مدلها را با یک مدل ابرمجموعه با همه پیشبینیکنندههای هر دو مدل مقایسه کنم، زیرا گنجاندن پارامترهای متفاوت هر دو مدل به دلیل همپایگی چندگانه منجر به عدم شناسایی میشود. | مقایسه مدلهای رگرسیون لجستیک با تعداد پارامترهای یکسان |
71664 | من می خواهم اهمیت آماری یک مدل مخلوط گاوسی را که توسط Mclust محاسبه شده است، تخمین بزنم. خروجی Mclust شامل معیار اطلاعات بیزی بهینه (BIC) مورد استفاده برای انتخاب مدل بهینه و همچنین Log Likelihood مورد استفاده در محاسبه است. با این حال، تا آنجا که من میدانم، اینها فقط برای مقایسه مدلهای مختلف برای دادههای یکسان معنادار هستند. آیا راهی برای تخمین معنادار آماری مدل بهینه وجود دارد؟ | چگونه می توانم اهمیت آماری مدل مخلوط گاوسی بهینه را از Mclust برآورد کنم؟ |
70533 | من در حال تجزیه و تحلیل مجموعه ای از داده های مربوط به جوامع جزر و مدی هستم. داده ها درصد پوشش (از جلبک های دریایی، ماهی ها، صدف ها، و غیره) در کوادرات است. من عادت کردهام به تجزیه و تحلیل متناظر (CA) از نظر تعداد گونهها، و تجزیه و تحلیل مؤلفههای اصلی (PCA) به عنوان چیزی مفیدتر برای روندهای خطی محیطی (نه گونهها) فکر کنم. من واقعاً شانسی نداشتم که بفهمم آیا PCA یا CA برای درصد جلد مناسبتر هستند یا نه (نمیتوانم مقالهای پیدا کنم)، و حتی مطمئن نیستم که چیزی که تا 100٪ محدود شده است چگونه توزیع میشود. ? من با این دستورالعمل تقریبی آشنا هستم که اگر طول اولین محور تجزیه و تحلیل مکاتبات detrended (DCA) بزرگتر از 2 باشد، می توانید با خیال راحت فرض کنید که CA باید استفاده شود. طول محور 1 DCA 2.17 بود که به نظر من مفید نیست. | استفاده از تحلیل مؤلفه های اصلی در مقابل تحلیل مکاتبات |
4854 | در رگرسیون لجستیک، آیا نیازی است که در مورد چند خطی بودن به همان اندازه که در رگرسیون مستقیم OLS نگران هستید، نگران باشید؟ به عنوان مثال، با یک رگرسیون لجستیک، در جایی که چند خطی وجود دارد، آیا باید محتاط باشید (همانطور که در رگرسیون OLS انجام می دهید) در استنتاج از ضرایب بتا؟ برای رگرسیون OLS یکی از راه حل های چند خطی بالا، رگرسیون پشته است، آیا چیزی شبیه به آن برای رگرسیون لجستیک وجود دارد؟ همچنین، حذف متغیرها، یا ترکیب متغیرها. چه رویکردهایی برای کاهش اثرات همخطی چندگانه در رگرسیون لجستیک منطقی است؟ آیا اساساً همان OLS هستند؟ (توجه: این برای هدف یک آزمایش طراحی شده نیست) | رگرسیون لجستیک - نگرانی ها / مشکلات چند خطی |
106179 | من توزیعی از نمرات عددی را با استفاده از داده های واقعی محاسبه کرده ام (توزیع مرجع من). پس از آن، من 100000 توزیع تصادفی از امتیازات عددی را با استفاده از نقاطی که بهطور تصادفی در فضایی از نقاط ممکن انتخاب شده بودند، ایجاد کردم. بنابراین اکنون میخواهم توزیع مرجع خود را با این توزیعهای تصادفی مقایسه کنم و آزمایش کنم که آیا توزیع مرجع تفاوت معنیداری با توزیعهای تصادفی دارد یا خیر. با تشکر | یک توزیع را با چندین توزیع دیگر مقایسه کنید |
18496 | من یک نظرسنجی با بسیاری از پاسخ دهندگان انجام داده ام. مجموعه ای از سؤالات وجود داشت و از هر پاسخ دهنده 3 سؤال پرسیده شد (به طور یکنواخت به صورت تصادفی و به طور مستقل برای هر پاسخ دهنده انتخاب شدند). اکنون من علاقه مند به مقایسه کسری از پاسخ دهندگانی هستم که به سوال $i$ پاسخ صحیح داده اند با کسری که به سوال $j$ پاسخ صحیح داده اند. بهترین روش برای انجام این کار چیست؟ به خاطر داشته باشید که از تعداد کمی از پاسخ دهندگان هر دو سوال $i$ و $j$ پرسیده شده است (برای آنها، این یک طرح درون موضوعی بود)، در حالی که از بسیاری از پاسخ دهندگان فقط یک یا آن سوال پرسیده شده است (برای این زیر کلاس) از پاسخ دهندگان، بیشتر شبیه طرح بین موضوعی است). **گزینه #1.** می توانم تعداد کل پاسخ دهندگانی که به سوال $i$ پاسخ داده اند و تعداد کسانی که به آن پاسخ صحیح داده اند را بشمارم تا کسری را که به سوال $i$ پاسخ صحیح داده است، بدست بیاورم. به طور مشابه، من می توانم کسر پاسخ دهندگانی را که به سوال $j$ پاسخ صحیح داده اند محاسبه کنم. سپس می توانم این دو عدد را با هم مقایسه کنم. اساساً، من این واقعیت را نادیده میگیرم که از برخی کاربران هر دو سؤال پرسیده شده است. نگران نباش شاد باش این نوعی ترکیبی است بین طراحی درون سوژه ها/بین سوژه ها. **گزینه #2.** میتوانم تمام پاسخدهندگانی را که از هر دو سؤال $i$ و $j$ پرسیده شده بودند، فیلتر کنم. از بقیه پاسخ دهندگانی که از آنها سوال $i$ یا سوال $j$ پرسیده شد (اما نه هر دو)، سپس می توانم کسری را که به سوال $i$ پاسخ صحیح داده و کسری را که به سوال $j$ پاسخ صحیح داده است محاسبه کنم. این اساساً این را به یک طراحی بین موضوعات تبدیل می کند. **گزینه شماره 3.** میتوانم فقط پاسخهای پاسخدهندگانی را که هر دو سؤال را دیدهاند نگه دارم و سپس با استفاده از آزمون استاندارد برای طرحهای درون موضوعی مقایسه کنم. نقطه ضعف این است که من اکثر پاسخ ها را فیلتر کرده ام. احتمالاً فقط تعداد کمی از پاسخ دهندگان به طور تصادفی برای پاسخ به هر دو سؤال انتخاب شده اند. **گزینه شماره 4. ** من می توانم کار دیگری انجام دهم (شما به من بگویید چه کاری). آیا توصیه ای دارید؟ یا در هر یک از اینها مشکلاتی وجود دارد؟ آیا باید هر یک از این گزینه ها را رد کرد؟ شاید راهی برای ترکیب بهترین های هر دو دنیا وجود داشته باشد و هر دو گزینه شماره ۲ و گزینه شماره ۳ را به روشی هوشمندانه ترکیب کنیم؟ | تجزیه و تحلیل داده ها برای طراحی ترکیبی درون موضوعی/بین موضوعی؟ |
18493 | من روی بهبود مدل جنگل تصادفی کار می کنم. من مقداری خوشهبندی دادهها را با استفاده از بسته «pvclust» در R انجام دادهام. من از فاصلههای بخش و اقلیدسی استفاده میکنم. سوال من این است که چگونه از نتایج تجزیه و تحلیل خوشهبندی به جنگل تصادفی بهتری بروم. آیا باید چندین شی «rf» را با تقسیم دادهها در امتداد لبههای تعریفشده در نتایج خوشهبندی اجرا کنم یا چیز دیگری است. هر گونه پیشنهادی قدردانی خواهد شد. بیشتر کارهای من در R است. | از خوشه ای به جنگل تصادفی بروید |
106177 | من داده های قبل از پست در مورد کیفیت زندگی، افسردگی و عزت نفس دارم. من فرض می کنم که تغییرات در عزت نفس از قبل به بعد باعث تغییراتی در افسردگی می شود که به نوبه خود باعث تغییر در کیفیت زندگی از قبل به بعد می شود. این به نظر من مانند دو رگرسیون چندگانه جداگانه است، اما مطمئن نیستم که آیا این میتواند در یک تحلیل واحد ترکیب شود یا همان چیزی است. نمی دانم چه نوع تحلیلی برای پاسخ به فرضیه من بهتر است. | متغیر A B را پیش بینی می کند، متغیر B C را پیش بینی می کند |
2002 | من مدلهای رگرسیون LOESS را در R اجرا میکنم و میخواهم خروجیهای 12 مدل مختلف را با اندازههای نمونه متفاوت مقایسه کنم. اگر به پاسخ دادن به سوال کمک کند، می توانم مدل های واقعی را با جزئیات بیشتری شرح دهم. اندازههای نمونه در اینجا آمده است: Fastballs vs RHH 2008-09: 2002 Fastballs vs LHH 2008-09: 2209 Fastballs vs RHH 2010: 527 Fastballs در مقابل LHH 2010: 449 RHHH909:449 Changeups در مقابل LHH 2008-09: 824 Changeups vs RHH 2010: 201 Changeups vs LHH 2010: 330 Curveballs vs RHH 2008-09: 488 Curveballs در مقابل LHH 2008-2004 RHH: 213 Curveballs در مقابل LHH 2010: 162 مدل رگرسیون LOESS یک تناسب سطحی است که در آن مکان X و مکان Y هر زمین بیس بال برای پیشبینی احتمال ضربه نوسانی و نوسانی استفاده میشود. با این حال، مایلم بین هر 12 مدل از این مدل ها مقایسه کنم، اما تنظیم یک بازه (یعنی span = 0.5) نتایج متفاوتی را به همراه خواهد داشت زیرا طیف وسیعی از اندازه نمونه وجود دارد. سوال اساسی من این است که چگونه می توانید طول مدل خود را تعیین کنید؟ بازه بالاتر تناسب را بیشتر صاف می کند، در حالی که دهانه پایین تر روندهای بیشتری را ثبت می کند اما در صورت وجود داده های بسیار کم، نویز آماری را معرفی می کند. من از یک دهانه بالاتر برای اندازه نمونه های کوچکتر و از یک دهانه کمتر برای اندازه نمونه های بزرگتر استفاده می کنم. چه کار کنم؟ هنگام تنظیم span برای مدل های رگرسیون LOESS در R، یک قانون کلی خوب چیست؟ پیشاپیش متشکرم | چگونه می توانم تصمیم بگیرم از چه بازه ای در رگرسیون LOESS در R استفاده کنم؟ |
112176 | من نمی دانم بهترین راه برای پیش بینی چرخه تجاری بر اساس گذشته چیست. در حال حاضر دادههای شاخص تولید ناخالص داخلی تعدیلشده فصلی را به فیلتر هودریک-پرسکات میدهم، مؤلفه چرخهای را استخراج میکنم، آخرین نقطه داده را میگیرم، نقاط مشابه گذشته را پیدا میکنم و میبینم بعد از آن چه اتفاقی افتاده است. (تصویر پیوست را ببینید.) شاید راه بهتری برای برون یابی وجود داشته باشد؟  | پیش بینی چرخه تجاری؟ |
106176 | من یک مدل پیشنهادی برای عوامل تعیین کننده مسئولیت اجتماعی شرکت (مهم نیست) دارم. از بین متغیرهای مستقل خود دو متغیر به دست میآورم که از نظر آماری معنیدار نیستند. با توجه به رویکرد Wooldridge، برای اینکه بدانم آیا باید این دو متغیر را از مدل حذف کنم، باید یک آزمون F را با مدل محدود و نامحدود اجرا کنم، درست است؟ سوال من این است: آیا می توانم این straighaway را با نرم افزاری مانند Gretl یا SPSS انجام دهم؟ یا باید آمار را به صورت دستی بسازم؟ با تشکر برای پاسخ | F-test: تست مدل نامحدود در مقابل مدل محدود شده در گرتل و SPSS |
18499 | چه روش هایی برای آزمایش وجود هر نوع وابستگی در یک سری زمانی وجود دارد؟ این برخلاف چیزی مانند همبستگی خودکار است که نوع خاصی از وابستگی را آزمایش می کند. آیا چیزی وجود دارد که بتوان گفت که آیا وابستگی ها به طور کلی وجود دارند، بدون اینکه لزوماً نوع آن را مشخص کنیم؟ من **شنیده** چیزی به نام آزمون طیف دیفرانسیل را تجربه کرده ام، که بیان می کند که تغییرات هیستوگرام شده در سری زمانی باید در حدود صفر متقارن باشد اگر سری تغییرات مستقل باشد. (یعنی مجموعه $x_{t+1} - x_{t}$ را هیستوگرام کنید و باید حدود صفر متقارن باشد). اگه کسی مرجعی برای این تست داره ممنون میشم به روز رسانی: نظرات نشان می دهد که شکست در تست نویز سفید نشان دهنده وجود نوعی وابستگی است. درسته؟ من حدس می زنم که باید به تست بستگی داشته باشد. در اینجا برخی از آنها وجود دارد که من پیدا کرده ام. نظری در مورد کاربرد آنها در اینجا وجود دارد؟ بارتلت و کیو تست روش ولش روش پرز و. al. روش لوباتو و ولاسکو | آزمایش وجود وابستگی در سری های زمانی |
71666 | اگر میانگین زمان تعمیر (MTTR) 3 روز و میانگین زمان بین خرابی ها (MTBF) 9 روز باشد، و بنابراین در دسترس بودن MTBF/(MTTR + MTBF) = 9/12 = 75٪، می توانم انتظار داشته باشم. که، به طور متوسط، 75٪ از ماشین های من در روز در دسترس خواهد بود، فرض کنید من تعداد زیادی ماشین دارم؟ آیا برای اینکه این اتفاق بیفتد، آیا باید فرضیات را تأیید کرد؟ | آیا در دسترس بودن (محاسبه شده با استفاده از میانگین زمان خرابی/تعمیر) باید با نسبت متوسط واحدهای موجود در طول زمان مطابقت داشته باشد؟ |
18490 | من این سوال را در Stackoverflow پرسیدم: http://stackoverflow.com/questions/8142118/incidence-rate-ratios-in-r-poisson- regression و به من توصیه شد که در اینجا پست کنید. من داده هایی دارم که به نظر می رسد این جمعیت گربه سنی جنسی 1 مرد 0-4 12 126526 2 مرد 5-9 12 128375 3 ماده 0-4 11 129280 4 مرد 10-14 4 127910 5 زن 0-4 1506 مرد 0-4 1381 4 8 125125 من میخواهم خروجی ای را که در stata میگیرم با این دستور کپی کنم poisson case i.agecat, exp(pop) irr که خروجی هایی مانند case | IRR Std. اشتباه z P>|z| [95% Conf. فاصله] ---------------------------------------------- -------------------------- agecat | 2 | .5125755 .0530442 -6.18 0.000 .4578054 .6669639 3 | .323456 .0381304 -9.60 0.000 .2665044 .4172274 جمعیت | (اکسپوژر) در R با دستوری مانند glm(cases~agecat, family = poisson(link = log) می دانم که باید ضرایب و فواصل اطمینان را افزایش دهم، اما فکر می کنم به نوعی افست هم نیاز دارم بنابراین بنابراین که رهگیری صفر است و برای هر واحد جمعیت می تواند کمک کند جزئیات بیشتر در اینجا به طور خاص، من فکر میکنم این موضوع به تنظیم اندازه جمعیت در stata با exp(pop) مربوط میشود - و نحوه تکرار آن در R. | نسبتهای میزان بروز (Stata در مقابل R) |
112174 | این یک سوال مفهومی است در داده کاوی، این مشکل اغلب به وجود می آید که دانشمندان/مهندسین داده از حدس تخصصی برای توزیع اساسی داده های خود استفاده می کنند. غالباً فرض آنها بر اساس نتایج قبلی تحقیقات دانشگاهی است و واقعاً توزیع واقعی مجموعه داده را منعکس نمی کند. با این حال، من می خواهم توزیع واقعی مجموعه داده خود را دریافت کنم؟ هر توصیه ای از کجا شروع کنم؟ آیا این حتی برای بدست آوردن توزیع واقعی منطقی است؟ آیا این کار می تواند خودکار شود؟ من از پاسخ شما قدردانی می کنم! btw من بیشتر از R به عنوان ابزار تجزیه و تحلیل داده های خود استفاده می کنم | توزیع یک مجموعه داده را دریافت کنید |
102664 | آیا یک تابع مولد لحظه تبدیل فوریه یک تابع چگالی احتمال است؟ به عبارت دیگر، آیا یک تابع مولد لحظه فقط وضوح طیفی توزیع چگالی احتمال یک متغیر تصادفی است، یعنی روشی معادل برای توصیف یک تابع از نظر دامنه، فاز و فرکانس آن به جای پارامتر؟ اگر چنین است، آیا میتوانیم یک تعبیر فیزیکی به این جانور بدهیم؟ من میپرسم زیرا در فیزیک آماری یک تابع مولد تجمعی، لگاریتم یک تابع مولد گشتاور، یک کمیت افزایشی است که یک سیستم فیزیکی را مشخص میکند. اگر انرژی را بهعنوان یک متغیر تصادفی تصور میکنید، تابع تولید تجمعی آن تفسیر بسیار شهودی به عنوان پخش انرژی در سراسر یک سیستم دارد. آیا تفسیر شهودی مشابهی برای تابع مولد لحظه وجود دارد؟ من کاربرد ریاضی آن را درک می کنم، اما این فقط یک مفهوم ترفند نیست، مطمئناً معنایی پشت آن از نظر مفهومی وجود دارد؟ | توابع مولد لحظه و تبدیل فوریه؟ |
102667 | من یک مدل رگرسیون بر روی دادههای خود با استفاده از جنگلهای تصادفی در R ایجاد کردهام. خروجی بسیار بزرگ است، میخواهم بدانم آیا راهی برای کاهش این تنها به قطعات ضروری برای پیشبینی وجود دارد؟ مجموعه داده های آموزشی شامل 20 متغیر و ~ 45000 ردیف است که همچنین بزرگ است. کد من در زیر لیست شده است. داده <- readRDS(data.Rds) require(data.table) require(doParallel) require(randomForest) train <- data[ which(set == train)] test <- data [که(مجموعه == تست)] rm(داده) x <- data.table(train[, 2:21, with=FALSE]) y <- as.vector(as.matrix(train[, 23, with=FALSE])) cl <- makeCluster(detectCores()) registerDoParallel(cl, cores=4) time <- system.time({rf.fit <- foreach (ntree=rep(500, 6)، .combine=combine، .multicombine=TRUE، .packages=randomForest) %dopar% {randomForest(x, y, ntree=ntree)}}) stopCluster(cl) saveRDS(rf.fit, rf.fit.Rds) خروجی این ~230 مگابایت است . وقتی مدل رو گرفتم میشه سایزش رو کم کرد تا کار باهاش راحت تر بشه؟ هدف من از این کار شناسایی متغیرهای مهم و پیش بینی داده های جدید است. | کاهش اندازه مدل جنگل تصادفی |
79632 | من سعی میکنم بایاس و واریانس $\hat{\lambda}_{MLE}$ را در جایی که $X \sim نمایی(\lambda)$ محاسبه کنم. دوم اینکه آیا به CRLB می رسد؟ تلاش: $$f_x(X) = \lambda e^{-\lambda x}$$ $$L(\lambda; x_1,...,x_n) = \lambda^n e^{-\lambda \sum^n X_i}$$ $$\ell(\lambda; x_1،...x_n) = n ln(x) - \lambda \sum^n X_i$$ $$\hat{\lambda}_{MLE} = \frac{\sum^n X_i}{n} = \lambda^{-1}$$ به عنوان $\frac{d}{d\lambda} \ell( \lambda; وقتی $\hat{\lambda}_{MLE} = \frac{\sum^n X_i}{n}$، من معتقدم که $\hat{\lambda}_{MLE}$ بی طرفانه است. من در یافتن واریانس $\hat{\lambda}_{MLE}$ گیر کردم. از آنجایی که MLE بی طرف است، معتقدم که به CRLB می رسد. | بایاس و واریانس MLE را در یک خانواده نمایی محاسبه کنید |
106171 | به طور معمول احتمال حاشیه ای به صورت $p(x) = \sum_y p(x | y) \cdot p(y) $ محاسبه می شود حالا، فرض کنید من تمام این احتمالات را در سمت راست در logspace دارم (به عنوان logprobabilities). چجوری اینکارو بکنم؟!؟ | چگونه می توان احتمال حاشیه ای را از احتمالات مشروط در logspace محاسبه کرد؟ |
112173 | من از تحلیل رگرسیون لجستیک چند جمله ای برای تجزیه و تحلیل پاسخ های رفتاری گوزن ها به تله های دوربین بر اساس 7 متغیر پیش بینی کننده استفاده می کنم. من 2 مدل دارم که از نظر مقدار AIC بسیار نزدیک به هم هستند (فصل AIC 1005.103؛ فصل و درصد پوشش 1005.023). پوشش فصل و درصد بهترین مدل است (اما فقط اسمی). درصد پوشش به عنوان درصد آهو تحت پوشش ویژگی های توپوگرافی و پوشش گیاهی نسبت به دوربین تعریف می شود. اگر به تنهایی در نظر گرفته شود، مقدار AIC 1008.289 دارد. با این حال، فصل و پوشش ظاهراً ارتباط نزدیکی با هم دارند (که منطقی است). من نمی دانم که آیا استفاده از هر دو متغیر در یک مدل اضافی است یا سطح مشخصی از همبستگی مشکلی ندارد؟ یک میلیون ممنون | همبستگی بین متغیرهای پیش بینی در یک مدل AIC |
71661 | من یک برنامه ساده ساختم که رویدادها را با استفاده از API های eventbrite و meetup.com می گیرد و بر اساس کد پستی شما نمایش می دهد. اکنون سعی میکنم یک توصیهکننده رویداد ساده بسازم که از رویدادهایی که شما بهعنوان علاقهمند/غیرعلاقه علامتگذاری کردهاید به عنوان مجموعه آموزشی استفاده کند. دو سوال اصلی در اینجا: * بهترین راه برای استخراج ویژگی ها از توضیحات رویدادها چیست؟ * اندازه مجموعه تمرینی چقدر باید باشد؟ من از LDA برای مدلسازی موضوعات بر اساس توضیحات استفاده کردم، بنابراین برای هر رویداد یک ماتریس ویژگی وجود دارد که موضوعات را نشان میدهد. سپس طبقهبندیکنندههای مختلف خطی SVC، KNearestNeighbors، RandomForest را امتحان کردم، اما هیچ چیز نتایج خوبی به دست نمیدهد (بهتر از طبقهبندی تصادفی نیست). آیا LDA راه خوبی برای استخراج ویژگی ها برای این وضعیت است؟ همچنین مجموعه آموزشی فقط 356 رویداد است که 254 مورد از آنها منفی است. آیا من همه چیز را کاملاً اشتباه انجام می دهم؟ ;) | نحوه ساخت توصیهکننده رویداد فقط بر اساس توضیحات رویدادها |
112172 | من سعی میکنم بفهمم آزمون آماری مناسب برای دادههایی که DV پیوسته است و IVها طبقهبندی هستند، چیست. تعداد زیادی DV مختلف وجود دارد که من میخواهم آنها را یکی یکی از طریق یک مدل اجرا کنم، بنابراین در یافتن چگونگی انجام آمارهای اکتشافی برای کشف دقیق گامهای بعدی (یعنی روششناسی) مشکل دارم. من فرض کرده بودم که رگرسیون کار می کند، اما در مورد نیاز به خطی بودن نگران هستم. آیا زمانی که IV ها مقوله ای در مقابل پیوسته هستند، این الزام همچنان برقرار است؟ آیا کسی می تواند به من کمک کند تا از تست مناسب استفاده کنم. | تجزیه و تحلیل برای استفاده با پیش بینی کننده های طبقه بندی شده و متغیرهای پاسخ مداوم |
6963 | تولید یک متغیر تصادفی با توزیع دیریکله با استفاده از متغیرهای گاما با پارامتر مقیاس یکسان آسان است. اگر: $ X_i \sim \text{Gamma}(\alpha_i، \بتا) $ سپس: $ \left(\frac{X_1}{\sum_j X_j},\; \ldots\; , \frac{X_n}{\ sum_j X_j}\right) \sim \text{Dirichlet}(\alpha_1,\;\ldots\;,\alpha_n) $ _مشکل_ اگر پارامترهای مقیاس برابر نباشند چه اتفاقی می افتد؟ $ X_i \sim \text{Gamma}(\alpha_i، \beta_i) $ سپس توزیع این متغیر چیست؟ $ \left(\frac{X_1}{\sum_j X_j},\; \ldots\; , \frac{X_n}{\sum_j X_j}\right) \sim \; ? $ برای من دانستن مقدار مورد انتظار این توزیع کافی است. من به یک فرمول جبری بسته تقریبی نیاز دارم که خیلی سریع توسط کامپیوتر قابل ارزیابی باشد. فرض کنید تقریب با دقت 0.01 کافی است. شما می توانید فرض کنید که: $ \alpha_i, \beta_i \in \mathbb{N} $ _Note_ به طور خلاصه، وظیفه یافتن تقریبی از این انتگرال است: $ f(\vec{\alpha}, \vec{\beta} ) = \int_{\mathbb{R}^n_+} \;\frac{x_1}{\sum_j x_j} \cdot \prod_j \frac{\beta_j^{\alpha_j}}{\Gamma(\alpha_j)} x_j^{\alpha_j - 1} e^{-\beta_j x_j} \;\; dx_1\ldots dx_n$ | مقدار مورد انتظار توزیع دیریکله اصلاح شده چقدر است؟ (مشکل ادغام) |
12485 | من یک مجموعه داده دارم که می توانم مقادیری را از آن جمع آوری کنم، به عنوان مثال. مجموع، میانگین، واریانس... من می خواهم یک رگرسیون ساده روی ستون (x,y) انجام دهم. طبق ویکی پدیا، شکل بسته $\alpha,\beta$ \begin{equation} \alpha=\frac{Cov(x,y)}{Var(x)} \quad \mbox{and} \quad \ است. beta=\bar{y}-\beta\bar{x}. \end{equation} اما من همچنین میخواهم آمار بیشتری از رگرسیون داشته باشم، به عنوان مثال **r، r-square، معنیداری...** اساساً من میخواهم همان نتیجهای را بگیرم که این کلاس SimpleReggression apache فقط با تغذیه تولید میکند. مقادیر جمع آوری شده به جای نقاط داده خام. توصیه ای در مورد نحوه انجام آن وجود دارد؟ | رگرسیون ساده را بدون داده های خام انجام دهید |
102665 | من اطلاعاتی دارم که واقعاً نمی دانم چگونه آنها را تجزیه و تحلیل کنم. هر آزمودنی که همه آنها سالم/طبیعی شروع میشوند در طول درمان تحت یک سری آزمایشات تصویربرداری قرار میگیرند: اسکن 1 (پایه)، اسکن 2، اسکن 3، ... اسکن N. سپس این اسکنها پردازش میشوند و پارامتر استاندارد طلایی، مثلاً G، اندازه گیری می شود. حال اگر G 10 درصد تغییر کند، درمان بیماران به حالت تعلیق در می آید. کاری که من میخواهم انجام دهم، اندازهگیری G برای هر اسکن برای هر موضوع است، میخواهم چندین پارامتر جدید دیگر (مثلاً A، B، C و D) را اندازهگیری کنم تا ببینم آیا آنها پیشبینیکنندهای هستند که G به میزان 10 درصد کاهش مییابد. اسکن بعدی چیزی شبیه A به مقدار معینی در اسکن 3 سقوط می کند که کاهش قابل توجه (10٪ یا بیشتر) در G را پیش بینی می کند. تاکنون من داده های خود را به دو مجموعه تقسیم کرده ام: آن دسته از افراد که افت بالینی قابل توجهی در G (غیر طبیعی) دارند. ) و کسانی که این کار را نمی کنند (عادی). تغییر در G می تواند در هر اسکن سری رخ دهد. آیا ایده ای در مورد بهترین روش برای نزدیک شدن به این تحلیل دارید؟ | نظارت طولی: نحوه آزمایش اینکه آیا یک پارامتر قبل از استاندارد طلا تغییر می کند یا خیر |
15455 | بنابراین من سعی می کنم یک روش نیمه کارآمد برای محاسبه فرکانس بهینه (تکرارکننده) مجموعه ای از داده ها تعیین کنم. داده ها فقط در دوره های زمانی تصادفی وجود دارند، اما فرض بر این است که مجموعه داده ها کامل است. **به عنوان مثال:** بگویید که ما هر بار که فیلمی را تماشا میکردیم، دادههایی ضبط میکردیم که بیننده علاقه خود به فیلم را ثبت میکرد. دوست داشتنی بودن به وضوح بستگی به این دارد که چه فیلمی تماشا شده است. با این حال، چیزی که من به آن علاقه دارم فرکانس تماشای فیلم ها برای دوست داشتن مطلوب است. بعلاوه، حتی اگر دو فیلم پشت سر هم تماشا میشدند و بیننده آنها را دوست داشت، این فرکانس نباید بهینه باشد مگر اینکه: 1. ثابت شود که بیننده میتوانست به طور مداوم فیلم را با آن سرعت تماشا کند. 2. داده ها پرت نیستند و نتایج در جای دیگری از مجموعه داده ها بازتولید شده اند. چگونه می توان این کار را انجام داد؟ توجه داشته باشید که در این سناریو، دادهها را میتوان همانطور که در حال شکلگیری بود پردازش کرد (میتوانیم به بیننده بگوییم برای نتایج مطلوب، فیلمها را با فرکانس x تماشا کند، اما هیچ تضمینی وجود ندارد که آنها این کار را انجام دهند). با تشکر | فرکانس بهینه (تکرار شونده) مقادیر گسسته را تعیین کنید |
18491 | شاید سوال من بسیار ساده باشد، با این حال نتوانستم راه حل قابل اعتمادی برای مشکل خود پیدا کنم. مشکل من اینجاست: اگر این امر باعث ضرر مالی من برابر یا بالاتر از مقدار x$ (مثلاً به USD) شود، چیزی را به عنوان رویداد در نظر بگیرید. تعداد چنین رویدادهایی (در یک بازه زمانی خاص، مثلاً 10 سال) از توزیع پواسون با نرخ $\alpha$ پیروی می کند. اکنون سؤال من این است: تحت این چارچوب، توزیع تعداد «رویداد دیگری» که باعث ضرر من $\$\ x_1$ میشود، در آنجا $x_1 > x$ چگونه خواهد بود. من معتقدم که توزیع پواسون با نرخ $\alpha\frac{x}{x_1}$ خواهد بود؟ آیا درست است؟ چگونه می توانم این را از نظر ریاضی ثابت کنم؟ هر پیشنهادی بسیار قدردانی خواهد شد. | یک سوال در مورد توزیع پواسون |
76503 | فرض کنید من دو نفر دارم. من برای هر کدام از آنها یک ماتریس شبکه برای روزانه برای برخی از عادات روزانه آنها $(یعنی A، B، C، D)$ ایجاد می کنم. من این کار را برای، فرض کنید 60 دلار روز انجام می دهم.  من حوصله تغییر مقادیر در ماتریسها را به خود ندادم، اما بیایید فرض کنیم روز به روز متفاوت هستند. . در پایان روزهای 60 دلاری، میخواهم ببینم آیا ماتریس عادات روزانه «شخص 1» بر ماتریس «شخص 2» تأثیر گذاشته است یا خیر. اگر این ماتریس نبود، کاری شبیه به سری زمانی ARIMA انجام میدادم. آیا راهی برای پردازش ماتریس ها وجود دارد و اینکه «شخص 1» شخص 2 را پیش بینی می کند یا برعکس؟ برای هر آمار/بسته ای که ممکن است کار را انجام دهد باز است. | سری زمانی برای ماتریس های شبکه؟ |
106172 | من یک متغیر دارم که مقادیر آن بین $-\infty$ و $\infty$ متفاوت است. من می خواهم محدودیت های آن را از $0$ به $1$ تغییر دهم. من میخواهم مقادیر بسیار کم را زمانی که مقادیر کمتر از $-1$ یا بیشتر از $1$ هستند و میخواهم بالاترین مقدار را به مقدار $0$ بدهم. کدام توزیع در اینجا بهترین است، و فرمول انجام این کار چیست؟ و در صورت امکان، می توانید من را به چند لینک خوب راهنمایی کنید تا بتوانم در مورد این موارد بیشتر بدانم؟ | محدوده های متغیر از بی نهایت تا بی نهایت منفی - تغییر محدودیت ها |
106170 | من می خواهم بتوانم پیش بینی کنم که چه زمانی یک منبع خاص را تمام می کنم. وضعیت من مشابه* مخزن آب است. هر روز صفر یا بیشتر باران می بارد و مخزن را پر می کند. من نمی توانم از قبل بگویم چه مقدار باران در روز می بارد، اگر اصلاً وجود داشته باشد. هیچ گاه خروجی از مخزن وجود نخواهد داشت. هر روز می توانم مقدار موجود در مخزن را اندازه گیری کنم و ظرفیت آن تانک را می دانم. از آنجایی که در دسترس بودن مخازن یدکی و همچنین پر کردن مخزن در صورت در دسترس نبودن مخزن یدکی هزینه ای دارد، می خواهم از اندازه گیری های روزانه خود برای پیش بینی زمان پر شدن مخزن استفاده کنم. تجربه تاکنون نشان می دهد که این تانک حدود چهار سال ظرفیت دارد. حدود سه تا شش ماه طول می کشد تا یک تانک جدید را راه اندازی کنیم و بسته به اینکه چه اتفاقی می افتد کار کند. این چیزی است که ما می خواهیم از قبل برای آن برنامه ریزی کنیم. البته اگر سیل قریب الوقوع باشد می توان از مخازن اضطراری عبور کرد، اما هزینه آن بسیار زیاد است و باید از این کار اجتناب کرد. من یک رگرسیون خطی سطح آب روزانه را محاسبه کرده ام. این به من یک شیب و وقفه می دهد که از روی آن می توانم تاریخ عبور خط روند از ظرفیت مخزن را محاسبه کنم. با این حال، این هیچ نشانه ای از ایمانی که می توانم به این عدد داشته باشم به من نمی دهد. آیا استفاده از فرمول فاصله اطمینان برای محاسبه مشابه زمانی که منحنی CI از ظرفیت عبور می کند، مشروع است؟ آیا راه بهتری برای رسیدن به این هدف وجود دارد؟ داده ها به این شکل خواهند بود (مقادیر اختراع شده):  * * * *مورد واقعی یک سیستم کامپیوتری انبار داده است. سطرها دارای یک ستون افزایش خودکار هستند. با نوشتن یک ردیف جدید، مقدار این ستون بالا می رود. هرگز پایین نمی آید. هیچ معادلی برای تخلیه قیاس مخزن آب وجود ندارد. اگر امروز بزرگترین مقدار را در این ستون اندازهگیری کنم و هیچ ردیفی یک شبه اضافه نشود، فردا که بپرسم همان مقدار را دریافت میکنم. اگر ردیف ها یک شبه نوشته می شد، اندازه گیری فردا بزرگتر از امروز خواهد بود. حتی اگر همه ردیفها حذف شوند، افزایش خودکار به صفر بازنشانی نمیشود. ستون به عنوان یک عدد صحیح تعریف می شود که حداکثر مقدار آن کمی بیش از دو میلیارد است. اگر به این حد برسیم، نمیتوانیم ردیفهایی را به جدول اضافه کنیم، زمان خاموشی سیستم داریم، سر رئیس من منفجر میشود، اقیانوسها به خون تبدیل میشوند و غیره. ما نمیخواهیم این اتفاق بیفتد. دیسکهایی که این دادهها را ذخیره میکنند دهها هزار دلار هزینه دارند، بنابراین، بدیهی است که ما نمیخواهیم هزینه سرمایه را زودتر از آنچه که باید داشته باشیم داشته باشیم. تعریف باید محور سوال من است. | ایمان به یک نتیجه تعمیم یافته |
76500 | من یک سری نقاط داده دارم که شامل 1) زمان و 2) برد یا باخت است. من می خواهم بتوانم نرخ برد کل را برای دوره های زمانی خاص تعیین کنم و آن را نمودار کنم. برای مثال، فرض کنید من با بوکسورها سر و کار دارم. مایلم بتوانم بگویم که بیل بوکسور در مسابقات بوکس در حدود نقطه 30 با نرخ برد 70 درصد به اوج خود می رسد و در حدود 40 دقیقه با نرخ برد 40 درصد سقوط می کند. از چه روشها یا ابزارهای آماری برای به دست آوردن بینش در این مورد استفاده کنم؟ | چگونه می توانم نرخ برد را در طول زمان تجزیه و تحلیل کنم (یعنی داده های روشن/خاموش در طول زمان)؟ |
106173 | من می خواهم بررسی کنم که چگونه دو سری زمانی با هم مرتبط هستند - چگونه یکی از آنها سری دیگر را پیش بینی می کند. من اطلاعات 27 ساله دارم. من تجزیه و تحلیل خود را در SPSS (فرمان پیش بینی، ARIMA) انجام می دهم و دریافت می کنم:  لطفاً کسی می تواند به من بگوید تفاوت بین R-squared و R-squared ثابت است و کدام یک از آنها در این مورد بهتر است؟ با قضاوت بر اساس R-squared، مدل خوب است حدس می زنم، در حالی که بر اساس Stationary R-squared آنقدر است. من خوانده ام که اگر یک روند (منظور آنها یک روند ساده است؟) یا تغییرات فصلی باشد، مربع R ثابت بهتر است. در مورد من، هر دو مقدار در مقاطع زمانی مختلف افزایش و کاهش یافته است: دورههایی وجود داشت که مقادیر بهطور مداوم بالا/افزایش یافتند و دورههایی که بهطور مداوم پایین/کاهش شدند. بنابراین پویایی های پیچیده ای وجود دارد که به سختی می توان گفت که آیا یک روند وجود دارد یا خیر. یعنی مربع R کافی است؟ از سوی دیگر، من خواندم که R-squared عمدتا برای تجزیه و تحلیل داده های ثابت مناسب است. داده های سری من به طور قطعی همبستگی خودکار دارند، بنابراین اگر آن را به درستی بفهمم، غیر ثابت است. بنابراین آیا باید از R-squared ثابت استفاده کنم؟ پیشاپیش متشکرم (با عرض پوزش، اکنون متوجه شدم که تمام کاماها را به نقاط جدول تبدیل نکردم. من از نسخه غیر انگلیسی SPSS استفاده می کنم. اما کاما با امتیاز برابر است) | سری زمانی: ثابت R-squared در مقابل R-squared (پیش بینی در SPSS) |
112179 | من باید یک مجموعه داده را تجزیه و تحلیل کنم، با طراحی بسیار درهم و برهم، مطمئن نیستم چگونه. من سعی خواهم کرد آن را ساده کنم. نوع جدیدی از بخیه ها اختراع شد و در مقابل 2 نوع بخیه قدیمی آزمایش شده است. من این را می نامم: درمان، کنترل 1 و کنترل 2. چند بیمار انتخاب شدند که نیاز به بخیه داشتند. هر بیمار (بر اساس نیاز، نه به صورت تصادفی) به یکی از دو تکنیک بخیه اختصاص داده شد. موارد دیگری نیز وجود دارد، اما فقط این دو مورد آزمایش قرار گرفتند. من این متغیر را نوع رویه می نامم. هر بیمار به یک بخیه یا بیشتر، حداکثر تا 5 بخیه نیاز داشت. مشکل این است که بیمارانی که به بیش از یک بخیه نیاز دارند، (گاهی اوقات) ترکیبی از بخیه های مختلف را دریافت می کنند. یعنی یک بیمار می تواند درمان و کنترل 1 داشته باشد و دیگری می تواند 2 درمان و 2 کنترل 2 و غیره داشته باشد... امیدوارم اینجا اصطلاحات را با هم قاطی نکنم اما واحد آزمایشی من بیمار است و واحد مشاهدات بخیه است. در داخل بیمار من 40 بخیه درمانی و 20 بخیه از هر کنترل دارم که همگی مربوط به 25 بیمار است. اندازه گیری مورد آزمایش این است که برای هر بخیه چند دقیقه طول کشید تا خونریزی متوقف شود. این متغیر می تواند مقادیری را داشته باشد: 0،0.5،1،1.5،2،2.5،... پزشکان ادعا می کنند که نوع روش، یعنی تکنیکی که استفاده می شود، اهمیت بالینی ندارد و نباید تاثیری داشته باشد. بنابراین آنها فکر می کنند که تجزیه و تحلیل می تواند این عامل را نادیده بگیرد. می خواستم از شما بپرسم که چگونه این داده ها را با و بدون در نظر گرفتن تکنیک تجزیه و تحلیل می کنید. من فکر می کنم باید نوعی مدل ترکیبی یا یک مدل معادلات برآورد تعمیم یافته باشد، اما مطمئن نیستم که این طرح را دقیقاً از نظر تودرتو، مسدود کردن و غیره تعریف کنم، و من می خواهم یک مدل را نیز در نظر بگیرم. کد SAS برای مدلسازی تفاوتهای بین میانگینهای 3 درمان مختلف، و من بدم نمیآید آن را با R تأیید کنم. برای راحتی شما، نموداری را که از طرح ساختهام پیوست میکنم: دایرههای آبی بخیه های درمانی، بخیه های قرمز بخیه های کنترل 1 و بخیه های سبز بخیه های کنترل 2 هستند. هر مستطیل زرد یک بیمار است و مستطیلهای قهوهای بزرگ تکنیکهایی هستند که باز هم میخواهم سعی کنم آنها را جا بدهم و سعی کنم نتیجه آن را نادیده بگیرم.  | چگونه این طرح نامرتب را تحلیل کنیم؟ |
102660 | متاسفم که چنین سوال صریحی میپرسم، اما وقتم تمام شده است و نمیتوانم این موضوع به ظاهر ساده را بفهمم. این مقدار p برای $B_0$، یک رگرسیون متغیر تک است. $H_0: B_0=0$ و $H_1: B0 \neq 0$. $T_{calc} = (0.5681 - 0)/0.9284 = 0.6119$. سپس می گوید $p\text{-value}=2 \cdot (t\ge 0,6119) =2 \cdot 0.281525$. این 0.281525 دلار از کجا می آید؟ میدونم ربطی به جدول داره $n=8$. با عرض پوزش دوباره، من یک آزمایش در راه است، به دلایلی نمی توانم این را بفهمم. اکنون زمان زیادی را صرف این موضوع کردم و در 1.5 ساعت گذشته ویدیوهای یوتیوب را تماشا کردم و سعی کردم بفهمم این 0.2815... از کجا آمده است. | این مقدار p چگونه محاسبه شد؟ |
112178 | یک مدل ANOVA معمولی همیشه به یک متغیر طبقهبندی به عنوان پیشبینیکننده (عامل/گروه) نیاز دارد، درست است؟ لطفا اگر غیر از این فکر می کنید دلیل را به من بگویید. بنابراین در صورت رگرسیون خطی با پیشبینیکنندههای پیوسته، چگونه میتوان از جدول ANOVA حتی استفاده کرد زیرا ANOVA حداقل به 1 متغیر طبقهبندی به عنوان پیشبین نیاز دارد؟ با تشکر | ANOVA برای آزمایش اهمیت کلی مدل در رگرسیون خطی تنها با پیشبینیکنندههای پیوسته |
38048 | من اخیراً شروع به استفاده از مدلهای گرافیکی احتمالی در coursera کردهام و 2 هفته بعد از شروع به این باور رسیدهام که در Probability چندان عالی نیستم و در نتیجه حتی نمیتوانم مبحث اول (شبکه بیزی) را دنبال کنم. با توجه به آنچه گفته شد، من می خواهم برای یادگیری این دوره تلاش کنم، بنابراین می توانید منابع دیگری را برای PGM یا Probability به من پیشنهاد دهید که می تواند در درک این دوره مفید باشد. | منابع خوب برای یادگیری مدل های گرافیکی احتمالی |
33923 | برای 86 شرکت و به مدت 103 روز، (i) توییتها (متغیر 'hbVol') در مورد هر شرکت و (ii) بازدید از صفحه برای صفحه ویکیپدیای شرکتی ('wikiVol') جمعآوری کردهام. متغیر وابسته، حجم معاملات سهام هر شرکت (stockVol0) است. ساختار داده های من به این صورت است: تاریخ شرکت hbVol wikiVol stockVol0 comp1 comp2 ... comp89 marketRet ------------------------------ ----------------------------------------------- 1 1 200 150 2423325 1 0 ... 0 -2.50 1 2 194 152 2455343 1 0 ... 0 -1.45 . . . . . . . .... 1 103 205 103 2563463 1 0 ... 0 1.90 2 1 752 932 7434124 0 1 ... 0 -2.50 2 2 932 823 7464354 0 1 ... 0 -1. . . . . . . .... . . . . . . . .... 86 103 3 55 32324 0 0 ... 1 1.90 همانطور که فهمیدم، این داده های سری زمانی مقطعی تلفیقی نامیده می شود. من Log-value همه متغیرها را برای هموار کردن تفاوتهای بزرگ بین شرکتها گرفتهام. یک مدل رگرسیونی با هر دو متغیر مستقل در stockVolo وابسته برمیگرداند:  یک دوربین-واتسون 0,276 نشان میدهد که همبستگی خودکار قابل توجهی از باقی مانده ها با این حال، باقیمانده ها به شکل زنگ هستند، همانطور که از نمودار P-P زیر مشاهده می شود. تابع خودهمبستگی جزئی یک افزایش قابل توجه در یک تاخیر 1 تا 5 (بالاتر از حد بالا) را نشان می دهد که نتیجه گیری از آمار دوربین-واتسون را تأیید می کند:  وجود بقایای خودهمبسته مرتبه اول، فرض باقیمانده های نامرتبط را نقض می کند. روش رگرسیون OLS با این حال، روشهای مختلفی برای مدیریت چنین سریهایی ایجاد شده است. یکی از روش هایی که در مورد آن مطالعه کردم، گنجاندن یک متغیر وابسته عقب افتاده به عنوان یک متغیر مستقل است. بنابراین من یک «stockVol1» با تاخیر ایجاد کردم و آن را به مدل اضافه کردم:  اکنون، Durbin-Watson در 2408 قابل قبول است. اما بدیهی است که R-squared به دلیل متغیر تاخیر بسیار زیاد است، ضرایب زیر را نیز ببینید:  روش دیگری که در مورد آن خواندم در مواجهه با خودهمبستگی، خودرگرسیون با روش پریس- وینستن (یا کوکرین-اورکات) است. هنگامی که این کار را انجام دادید، مدل میخواند:  این چیزی است که من نمیفهمم. دو روش مختلف، و من نتایج بسیار متفاوتی دریافت می کنم. پیشنهادهای دیگر برای تجزیه و تحلیل این داده ها عبارتند از (i) عدم درج متغیر تاخیری، اما تغییر فرمت متغیر وابسته با تفاوت (ii) انجام مدل های AR(1) یا ARIMA(1,0,0). من آنها را محاسبه نکردهام، زیرا اکنون به دلیل نتایج متفاوت دو آزمایشی که انجام دادم، نحوه ادامه کار را گم کردهام. برای انجام یک رگرسیون مناسب روی داده های خود از چه مدلی استفاده کنم؟ من بسیار مشتاق درک این موضوع هستم، اما قبلاً هرگز مجبور به تجزیه و تحلیل مجموعه داده های سری زمانی مانند این نبودم. | چگونه می توان تجزیه و تحلیل سری های زمانی مقطعی را انجام داد؟ |
33928 | بوفه آلاکارته را با n اتاق مختلف تصور کنید. با ورود به بوفه، اتاقی (مثلاً غذای آمریکایی، مکزیکی یا ایتالیایی) را انتخاب می کنید که در طول مدت بازدید خود در آن اقامت دارید. هنگامی که در یک اتاق قرار می گیرید، مجموعه کاملی از ظروف کوچک برای انتخاب دارید و اکثر مردم چندین غذای مختلف را انتخاب می کنند، به عنوان مثال. 1 بوریتو، 2 سالاد، 4 تاکو، 2 چورو. احتمالاً اینها نه انتخابهای مستقل و نه تصادفی هستند، اما نمیتوانید به ذهن مشتریان خود وارد شوید. همچنین، اگرچه اتاقها مضمون دارند (و مردم بیشتر بر اساس تمی که انتخاب کردهاند سفارش میدهند)، هر ظرفی در هر اتاق موجود است. با توجه به داده های کامل، نحوه توزیع ظروف در بازدید از یک اتاق را چگونه مدل می کنید؟ چگونه می توانید انحراف از انتظارات انتخاب یک بازدیدکننده معین را کمی کنید؟ از آنجایی که انتخاب غذا لزوما مستقل نیست، فکر می کنم اولین کار را طبق فرآیند دیریکله انجام دهم، اما مطمئن نیستم که درست باشد. | چگونه بسته های مصرفی را تعریف و مدل کنیم؟ |
102669 | مدل گلدمن ساکس قبلاً در اینجا مورد بحث قرار گرفت. نمیدانم که آیا پیشبینیهای آماری دیگری در دسترس عموم وجود دارد، یا حتی بهتر، مدلهایی از جمله دادههای خام. به طور خاص، من فکر می کردم که مدل گلدمن ساکس برای جام 2010 چندان خوب کار نمی کند (به گزارش اصلی در صفحه 7 مراجعه کنید). همچنین شنیده ام که مقادیر واقعی یا تخمینی انتقال بازیکنان قدرت پیش بینی بالایی دارند، اما در مدل گلدمن ساکس گنجانده نشده اند. | مدل های پیش بینی جام جهانی فوتبال 2014 |
30750 | من در حال تلاش برای یافتن حداکثر محلی برای یک تابع چگالی احتمال هستم (که با استفاده از روش تراکم R یافت می شود). من نمی توانم یک روش ساده نگاه به اطراف همسایگان را انجام دهم (که در آن فرد به اطراف یک نقطه نگاه می کند تا ببیند آیا حداکثر محلی نسبت به همسایگان آن است) زیرا حجم زیادی از داده وجود دارد. علاوه بر این، استفاده از چیزی مانند درون یابی Spline و سپس یافتن ریشه های مشتق 1 کارآمدتر و عمومی تر به نظر می رسد، در مقابل ساختن «نگاهی به اطراف همسایگان» با تحمل خطا و سایر پارامترها. بنابراین، سؤالات من: 1. با توجه به تابعی از 'splinefun'، چه روش هایی حداکثر محلی را پیدا می کنند؟ 2. آیا راه آسان/استانداردی برای یافتن مشتقات تابعی که با استفاده از «splinefun» برگردانده شده است وجود دارد؟ 3. آیا راه بهتر/استانداردی برای یافتن ماکزیمم محلی تابع چگالی احتمال وجود دارد؟ برای مرجع، در زیر نمودار تابع چگالی من است. سایر توابع چگالی که من با آنها کار می کنم از نظر شکل مشابه هستند. باید بگویم که من در R جدید هستم، اما در برنامه نویسی تازه کار نیستم، بنابراین ممکن است یک کتابخانه یا بسته استاندارد برای دستیابی به آنچه نیاز دارم وجود داشته باشد.  با تشکر از کمک شما!! | یافتن انتهای محلی تابع چگالی با استفاده از اسپلاین |
38041 | روز بخیر، من معتقدم که این موضوع بیشتر از هر چیز دیگری ناشی از عدم درک R است (چون من تا به تازگی از آن استفاده نکرده ام). آنچه من به دنبال آن هستم منابع یا اسنادی است که به من در حل مشکلم کمک کنند. من مجموعه ای از داده ها را دارم که روی آنها یک جفت تریسی تصمیم (هرس شده و هرس نشده) ایجاد کردم. من این کار را با استفاده از Weka و اعتبارسنجی متقاطع 10 برابری انجام دادم. اینجا مشکلی نبود. من برای درخت هرس شده دقت بالاتری دارم و برای هر ده چین دقت فردی دارم. من الان دارم روی این دو درخت تست آماری انجام میدم، میخوام تست T و تست Wilcoxon انجام بدم. پیشنهاد شد که از تابع ()experimentalComparison برای اعتبارسنجی متقاطع استفاده کنم، اما میتوانم این کار را در weka انجام دهم. برای تستهای آمار واقعی، من میتوانم تست t را مشابه مثال اینجا با تغذیه دستی مقادیر از تستهای فولد منفرد مشابه آنچه در کد در آن مثال وجود دارد، انجام دهم. آزمایش ویلکاکسون چیزی است که من را پرت می کند. من این مثال را پیدا کردم اما به من گفته شد که از تابع compAnalysis() در بسته DMwR استفاده کنم. من به مستندات آن نگاه کردم و کاملاً متوجه نشدم. می گوید برای اولین مقدار، نتایج را از «experiemntalComparison()» تغذیه کنید، به این معنی که من باید اعتبار متقاطع خود را با آن تابع انجام دهم (در مقابل weka). من نمی دانم چگونه می توان درخت هایی را که در weka این تابع ساختم، بدست آورد. مستندات به برخی از کلاس های کاربری «cv.rpartXse» اشاره دارد. بنابراین من به دلیل تازه وارد بودن به این زبان، در مورد چگونگی انجام این تست های آماری از طریق R شگفت زده شده ام. | سعی میکنم تستهای آماری را در R اجرا کنم، اما در تلاشم چون تازه وارد این زبان هستم |
109719 | آیا از یک MANOVA دو طرفه برای بررسی اینکه آیا قد و وزن در گروههای سنی و جنسیت متفاوت است یا نه استفاده میکند، مانند استفاده از یک آنالیز واریانس دوطرفه برای بررسی اینکه آیا BMI (وزن وزن بر حسب کیلوگرم/هت بر حسب m$^2$) در گروههای سنی و جنسیت متفاوت است یا خیر. ? | MANOVA دو طرفه در مقابل ANOVA دو طرفه روی یک متغیر ترکیبی |
47549 | من مجموعه دادهای دارم که شامل یک معیار پیوسته از برگهای گیاهی است (نمرات PC1 تک تک برگها)، که متغیر وابسته است و سه مورد دیگر که باید به عنوان مستقل و توضیحی استفاده کنم. یکی هر سطح برگ، دیگری فرد و سومی تعداد برگ به ترتیب برای فرد است. از آنجایی که هر فرد دارای مقدار مشخص و نابرابر برگ است، من نمی توانم از ANCOVA ساده استفاده کنم. حدس میزنم راهی برای تودرتو کردن اثر تعداد برگها در اثر فردی وجود دارد، اما نمیدانم چگونه. من می خواهم به این سوال پاسخ دهم که آیا اندازه افراد نیز به همین ترتیب تحت تأثیر قرار می گیرند؟ درایو گوگل من با کل مجموعه داده در pdf. قابل توجه است که یک فرد می تواند تعداد برگ های متغیری داشته باشد، اما همچنین اینکه توالی برگ ها برای هر فرد، از پایین ترین تا بالاترین، منظم است. ستون اول اندازه برگ است، ستون دیگر جداگانه است و سپس کلاس برگ و سپس 4 عدد. | نوع طرح ANCOVA در R |
38044 | $$Y \sim Geometric(P)\\ P \sim \mathcal B(2, 1)$$ من سعی می کنم $E[Y]$ را بدون یافتن توزیع حاشیه ای $Y$ محاسبه کنم. من در اینجا به نکاتی نیاز دارم. من همچنین باید pmf $Y$ را پیدا کنم. رویکرد من به شرح زیر است: ادغام از 0، 1 روی $p: f(p)(1-f(p))^{(y-1)}$ که $f(p)$ پی دی اف $\mathcal است B(a, b)$. این منجر به جبر آشفته می شود. آیا من در مسیر درست هستم؟ | اگر $Y \sim geometric(P)$ و $P \sim \mathcal B(2, 1)$ چگونه $E(Y)$ و pmf حاشیه $Y$ را محاسبه کنیم؟ |
76505 | دو سری زمانی قیمت ها بین سال های 2009 و 2013 به من داده شده است. سری قیمت A داده های هفتگی است، سری B داده های ماهانه است. من می خواهم چند آمار توصیفی اولیه این دو سری زمانی (مانند میانگین، انحراف معیار و غیره) را با هم مقایسه کنم. به طور شهودی، من فقط نمی دانم که آیا تفاوت نمونه گیری دوره باید نگران کننده باشد... چه مشکلات بالقوه ای می تواند وجود داشته باشد، و آیا راه هایی برای کاهش تأثیر وجود دارد یا خیر... من حدس می زنم روش دیگر این است که، آیا من فقط اعداد پایان ماه سری A را برای مطابقت با فرکانس سری B انتخاب کنم. در مورد این رویکرد مطمئن نیستم زیرا ممکن است کیفیت آمار برای سری A به خطر بیفتد. بسیار متشکرم! | آیا فرکانس نمونه برداری برای تحلیل سری زمانی اهمیت دارد؟ |
33812 | > **تکراری احتمالی:** > چرا گنجاندن طول و عرض جغرافیایی در حساب GAM برای همبستگی مکانی > خودکار است؟ من به تأثیر یک بردار پیشبینیکننده $X_i$ روی یک نتیجه باینری $Y_i$، با موقعیت مکانی متناظر $s_i$ علاقهمندم، بنابراین مدل اثرات تصادفی فضایی، \begin{equation} logit(P(Y_i) را در نظر گرفتم =1)) = X_i \بتا + Z(s_i) \end{معادله} که $Z(s_i)$ یک میانگین ثابت صفر است فرآیند تصادفی که ساختار کوواریانس آن تا تعدادی از پارامترهای $\theta$ شناخته شده است. به نظر میرسد که این مدل معمولاً با استفاده از الگوریتمهای نمونهگیری بیزی مناسب است، که اجرای آن زمانی که $n$ بزرگ است ممکن است زمان زیادی طول بکشد، زیرا شما باید از توزیع مشترک خلفی $\beta، \theta$ و تصادفی نمونه برداری کنید. اثرات برای دور زدن پیچیدگی محاسباتی و تنظیم تخصصی مورد نیاز برای MCMC، به جای آن، مدل \begin{equation} logit(P(Y_i=1)) = X_i \beta + f(s_i) \end{equation} را در جایی که $f(s_i)$ توسط یک spline 2 بعدی تخمین زده می شود که می تواند در عرض چند ثانیه با بسته بازی در R مطابقت یابد. من در مطالعات شبیهسازی دریافتهام که این مدل در حذف خودهمبستگی فضایی از باقیماندهها مؤثر است و تخمینهای معقولی برای $\beta$ ارائه میدهد. این باعث تعجب من می شود که چرا این رویکرد در ادبیات برجسته نیست. چرا کاربران اغلب الگوریتم های نمونه گیری محاسباتی فشرده را انتخاب می کنند؟ آیا اشکالی یا چیزی به طور سیستماتیک در این رویکرد وجود ندارد؟ | آیا می توانید از یک تابع spline مختصات فضایی برای کنترل همبستگی خودکار مکانی استفاده کنید؟ |
47545 | من به دنبال یک مقاله تجربی هستم که یک رگرسیون تفاوت در تفاوت را انجام دهد که در آن کل رگرسیون انجام شده (درمان + پست + پست * درمان شده) با یک متغیر پیوسته (یا یک دسته بندی) تعامل داشته باشد... آیا ایده ای دارید از چنین کاغذی؟ | تفاوت در تفاوت با اصطلاحات تعامل |
87449 | من یک مجموعه داده (داده های سری زمانی) از مقادیر توان سیگنال اندازه گیری شده از یک گیرنده رادیویی دارم. داده ها از یک آزمایش کنترل شده سرچشمه نمی گیرند. من دانش محدودی از فرآیندها و توزیع های اساسی دارم. مشاهدات من نتیجه یک یا چند فرآیند است. در هر صورت، یک فرآیند نویز پس زمینه وجود دارد. علاوه بر این، ممکن است یک یا چند فرآیند متعلق به سیگنال های فرستنده های رادیویی وجود داشته باشد. در اینجا سه نمونه (هیستوگرام) آورده شده است. در حالت اول فقط نویز وجود دارد. مورد دوم و سوم، مخلوطی واقعی از نویز و بیش از یک فرستنده رادیویی وجود دارد.   ![مثال مختلط 2] (http://i.stack.imgur.com/Hooxs.png) مشکل من این است. من می خواهم کسری از نمونه هایی را که به فرآیند نویز پس زمینه تعلق دارند، تخمین بزنم. ممکن است از صفر تا بسیاری از فرآیندهای بدون نویز وجود داشته باشد و من هیچ اطلاعات پیشینی در مورد این عدد ندارم. به طور کلی، جمعیت های فرعی از توزیع نرمال پیروی نمی کنند (محور x در نمودارهای بالا در واقع لگاریتمی است، به dB توجه کنید.) من هیچ اطلاعات پیشینی در مورد میانگین و واریانس آنها ندارم. مجموعه داده عظیم است. بنابراین، من به دنبال رویکردی هستم که نیازی به تنظیم دستی نداشته باشد. تا اینجای کار، من با یک آستانه ساده کار کردم تا نویز را از بقیه جدا کنم، اما این بسیار نادرست است، به خصوص زمانی که یک فرآیند سیگنال با میانگین بسیار نزدیک به نویز وجود دارد. آیا می توانید به من روش هایی را که می توان در اینجا اعمال کرد اشاره کنید؟ **ویرایش**: مطالعه بیشتر مرا به این فکر میکند که ممکن است بخواهم: * یک توصیف ریاضی از توزیع نویز پسزمینه (منحنی) از دادههای تجربی خود استخراج کنم. * این منحنی را با داده های نمونه مطابقت دهید. * نسبت مساحت زیر منحنی برازش شده و تعداد کل نمونه ها را محاسبه کنید. سوال این است که چگونه منحنی را منطبق کنیم؟ الگوریتمهایی که تاکنون پیدا کردم یا به تعداد اجزای قبلی نیاز دارند و/یا محدودیتهایی در مورد توزیعهایی که در نظر گرفتهاند دارند. | جداسازی مخلوط با کمی دانش پیشینی |
87442 | من یک متغیر اسمی و یک متغیر پیوسته (فاصله) دارم. SPSS crosstab شامل گزینه ای برای Eta است. آیا استفاده از eta برای آزمایش اثر متغیر اسمی باینری بر روی متغیر پیوسته مناسب است؟ چگونه می توانم نتیجه ای مانند Eta = 0.04 را تفسیر کنم؟ با تشکر | استفاده مناسب از Eta |
47095 | می دانم که $\beta$ (خطای نوع II) احتمال نادرست بودن فرضیه صفر است، اما رد نمی شود. قدرت آزمون $1-β$ تعریف شده است. من هنوز فکر می کردم که قدرت تست فقط در مواردی مهم است که $H_0$ رد نشود. با این حال نرم افزار آماری من قدرت آزمون را در مواردی که $H_0$ رد می کند نیز محاسبه می کند. به نظر من اطلاعات در مورد قدرت تست در مواردی که $H_0$ رد شود بی فایده است. آیا حقیقت دارد؟ یا اطلاعات مربوط به قدرت در مواردی که $H_0$ رد می شود برای نوعی تصمیم گیری آماری مفید است. | اهمیت قدرت آزمون t در حالتی که $H_0$ رد شود |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.