_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
37758
من در حال حاضر در حال تلاش برای خوشه‌بندی انواع تغییرات در تصاویر ماهواره‌ای چندطیفی دو زمانی هستم. من چیزی به نام تبدیل دیوانه را روی هر دو تصویر اعمال کردم، باندهای 5000 x 5000 پیکسل. هر نوار یک متغیر است زیرا اطلاعات تابشی از طیف متفاوتی از نور است. این تبدیل اساساً معادل PC است که برای تفریق هر دو تصویر اعمال می شود. به طور طبیعی می توانم تا 5 جزء دیوانه را دریافت کنم. اکنون می خواهم ... دقیقاً این ... انواع تغییرات را در این اجزا پیدا کنم. اگر من از K-means روی مولفه ها استفاده کنم، از فاصله اقلیدسی استفاده می کنم، اما فقط می خواستم بدانم استفاده از فاصله mahalanobis در صورت وجود چه مزیتی می تواند داشته باشد... فقط کنجکاو هستم. با سلام و پوزش برای ارسال چنین سوال وحشتناکی قبلا. من در واقع فقط یک نوع مرور کلی از هر دو گزینه را می خواستم. جولیان.
K-به معنای فاصله ماهالانوبیس در مقابل اقلیدسی است
8142
آیا یک شکل تحلیلی برای فاصله هلینگر بین توزیع های فون میزس وجود دارد؟
آیا یک شکل تحلیلی برای فاصله هلینگر بین توزیع های فون میزس وجود دارد؟
104335
من دستیار تحقیق آزمایشگاه (داوطلب) هستم. من و یک گروه کوچک وظیفه تجزیه و تحلیل داده ها را برای مجموعه ای از داده های استخراج شده از یک مطالعه بزرگ بر عهده داریم. متأسفانه داده‌ها با نوعی برنامه آنلاین جمع‌آوری شده‌اند و برای خروجی‌گیری داده‌ها در قابل استفاده‌ترین شکل برنامه‌ریزی نشده بودند. تصاویر زیر مشکل اساسی را نشان می دهد. به من گفته شد که به این می گویند Reshape یا Restructure. سوال: بهترین فرآیند برای رفتن از تصویر 1 به تصویر 2 با مجموعه داده های بزرگ با بیش از 10 هزار ورودی چیست؟ ![این یک نمونه است، فایل واقعی بیش از 10 هزار ورودی دارد. من برای کمک به وضوح کد رنگی کرده ام](http://i.stack.imgur.com/g54tA.jpg) ![این چیزی است که همه باید به آن تبدیل شوند.](http://i.stack. imgur.com/QitXu.jpg)
بهترین راه برای تغییر شکل/تغییر ساختار داده چیست؟
30763
چگونه می توان دقت خروجی یک مدل ریاضی قطعی را ارزیابی کرد؟ به عنوان مثال، یک مدل آب و هوا می تواند میانگین دمای سالانه (MAT) را برای یک مکان خاص پیش بینی کند. من می توانم از مدل برای پیش بینی سی سال MAT در شهر نیویورک، $T_\text{model}$ استفاده کنم. حالا فرض کنید من MAT مشاهده شده در شهر نیویورک را برای همان 30 سال، $T_\text{obs}$ دارم. آیا آزمون آماری برای فرضیه $T_\text{obs}=T_\text{model}$ وجود دارد؟ آیا می توانم دقت مدل ریاضی را ارزیابی کنم؟
ارزیابی صحت یک مدل ریاضی قطعی
30762
مدل های من به این صورت هستند: lme1 = lme(y~X+Y+V، تصادفی=~1|موضوع، داده=mydata، روش ==ML) lme2 = lme(y~X+Y+V2+V3، تصادفی= ~1|موضوع، داده=mydata، روش =ML) lme3 = lme(y~X+Y+V4، تصادفی=~1|موضوع، داده=mydata، روش =ML) که در آن X و Y عوامل هستند، اما V، V2، V3، و V4 متغیرهای پیوسته هستند (مدل‌سازی شده به عنوان متغیرهای کمکی). من از روش ML استفاده می کنم به این امید که بتوانم مقادیر احتمال را در بین مدل ها مقایسه کنم. سوال تحقیق من به این مربوط می شود که آیا V4 (در lme3) پیش بینی بهتری از V2 و V3 با هم بود، V2+V3 بهتر از V و ​​غیره بود. آیا می توانم از مقادیر AIC برای مقایسه مدل های مجموعه های مختلف پارامترها استفاده کنم؟ من همچنین برخی از مراجع را در مورد محاسبه $R^2$ برای مدل های ترکیبی پیدا کرده ام. به ویژه، من به آزمون نسبت درستنمایی $R^2$ علاقه مند هستم (Magee, 1990) که با مقایسه هر یک از این مدل ها با مدل تهی، R^2$ را محاسبه می کند. با استفاده از این روش، من می‌خواهم هر سه مدل خود را با یک مدل تهی یکسان با «y~1» مقایسه کنم. آیا این یک رویکرد معتبر برای مقایسه $R^2$s تولید شده است؟ من یک آماردان نیستم، اما می خواهم از یک معیار معتبر (حداقل قابل توجیه) برای تحلیل خود استفاده کنم. هر گونه بازخورد بسیار قدردانی خواهد شد.
انتخاب مدل برای مدل‌های مختلط خطی بر روی مجموعه‌های پارامترهای جایگزین (تابع nlme در R)
12924
من در نحوه برخورد با این موضوع، و به ویژه در مورد اصطلاحات، بسیار گم شده ام. بنابراین لطفاً به منابع اشاره کنید، نام سؤال من را اصلاح کنید، و غیره. با تشکر. من دوباره در دانشگاه از R استفاده کردم، نارنجی را نصب کردم. من در مورد MiniTab شنیده ام. من اکسل را نصب کرده ام. من به SQL Server 2008 w/ Analysis Services دسترسی دارم. این نفس جعبه ابزار من است. [من یک توسعه دهنده هستم، اما این تنها چیزی است که برای تجزیه و تحلیل آماری می دانم.] من در حال بازاریابی یک محصول هستم و مجموعه داده های کمی دارم. مشتریان: * Customer_id * کمپینی که روی آن کلیک کردند و تاریخ. * کمپین آنها در تبدیل، و تاریخ. * مقدار بیزی که با ما در سه ماهه اول 2010 انجام دادند * مقدار بیزی که در سه ماهه دوم 2010 با ما انجام دادند * مقدار بیزی که در سه ماهه سوم 2010 با ما انجام دادند ... و غیره کمپین ها: * روز هفته * زمان روز * نتایج ویژه: * تعداد خرید به ازای هر مشتری * ارزش خرید به ازای هر مشتری من به راحتی می‌توانستم الگوها را حدس بزنم و آنها را آزمایش کنم. ببینید آیا هیچ دقتی وجود دارد. اما این بهترین استفاده از زمان نیست. آنچه من می خواهم بدانم چند چیز است... * رتبه بندی زمین های مختلف در اثربخشی آنها، و نشانه ای از تأثیر زمین بر نتیجه. * برای روز هفته و ساعت هم همینطور. * و، پیچیده تر -- کسب و کار قبلی آنها تا چه حد به افرادی که اکنون تبدیل می شوند مرتبط است؟ آیا این سرمایه گذاران کلان قبلی هستند که تبدیل می کنند؟ آیا آنها کسانی هستند که بیشترین محصول را می خرند؟ * و در نهایت، از بین تمام ویژگی‌های بالا، چه رتبه‌ای از نظر اهمیت به تبدیل‌ها دارند؟ من فرض می‌کنم همه این‌ها چیزی شبیه یک R-squared دارند که «دقت» آنها را نشان می‌دهد. چگونه شروع کنم؟ چه خواندنی برای درک این موضوع ضروری است؟ آیا رویکرد/ابزاری وجود دارد که بتوانم از آن استفاده کنم که به من اجازه دهد نسخه اولیه این نوع تحلیل ها را [و چه نامیده می شود] به سرعت انجام دهم؟ من فقط به دنبال روندها و نکاتی هستم که در آن بهتر است انرژی خود را متمرکز کنیم. می تواند خشن باشد در نهایت، آیا کسی منبعی برای داده کاوی اولیه می شناسد؟ تحلیل؟ مخصوصا برای تبلیغات؟ بسیار موظف است،
بررسی اینکه چه ویژگی‌هایی از یک جمعیت باعث می‌شود که اشیا احتمال بیشتری برای انجام عمل خاصی داشته باشند
30764
من یک مجموعه داده دارم (x,y) که در آن x یک بردار n بعدی و y یک بردار m بعدی است. (m=3، n>2) هدف من یافتن بهترین چند جمله ای در x متناسب با مجموعه داده (x,y) است. بعد x بسیار بزرگ است (در حال حاضر 25 است)، و من نمی خواهم تمام احتمالات را به صورت دستی وارد کنم (یعنی x1*x3*x5، x1*x4*x6، ...). من می توانم از Matlab، Mathematica و R استفاده کنم. چگونه می توانم این کار را انجام دهم؟ همچنین، من علاقه مند هستم که پیشنهادات شما را در مورد مشکل زیر بشنوم: چگونه می توانم از بین نتیجه مرتبط ترین ضرایب را انتخاب کنم؟ (شاید x1*x2 بیشتر از x2*x3 مرتبط باشه) ممنون
بهترین رگرسیون چند جمله ای چند متغیره
8147
من تقریباً سؤال مشابهی دارم: چگونه می توانم مجموع متغیرهای تصادفی برنولی را به طور کارآمد مدل کنم؟ اما: (1) تعداد متغیرهای تصادفی برای جمع ~ N=20 (مورد 1) یا N=90 (مورد 2) است. (2) $p_i$ ~ 0.13 (مورد 1) (3) دقت مدل مبتنی بر قانون پواسون کافی نیست. (4) ما نیاز داریم که تقریبی ما به اندازه کافی خوب باشد تا مبالغ جزئی مانند اینها را نیز مدل کنیم: $\sum_{i=k,N}{X_i}$, ( $k=1,N$ ) (5) ما داده های تجربی برای هر $X_i$ وجود دارد. نمودار نشان می دهد که تقریباً وابستگی خطی برای $Pr(X_i=1)$ برای i=1,6 و سپس تابع تقریباً ثابت یا مقداری وابستگی خطی کوچک (برای i=7,20) وجود دارد. واقعاً در (3) مطمئن نیستم زیرا نابرابری Le Cam بسیار کلی به نظر می رسد... چه کلاسی از مدل را می توانیم امتحان کنیم؟
چگونه می توانم مجموع متغیرهای تصادفی برنولی را برای هر تعداد مجموع در مجموع جزئی به طور موثر تقریب کنم؟
37752
در کار شناسایی زبان، من این کار را انجام می دهم: 1. نمونه ای از داده های خود را بردارید. 2. درستی زمین را آماده کنید. 3. طبقه بندی کننده خود را بر روی این داده های نمونه آموزش دهید. نمونه‌برداری نکرد (و احتمالاً تأیید متقابل) بگذارید بگوییم که من روی شناسایی زبان یک توییت کار می‌کنم. به دست آوردن حقیقت اصلی در این مورد سخت است (یا باید به صورت دستی توییت ها را با زبان صحیح آنها حاشیه نویسی کنم یا این کار را به صورت جمعی منبع نویسی کنم). بنابراین، کاری که من انجام دادم این بود که طبقه‌بندی‌کننده خود را بر روی متون موجود (مانند کتاب‌های الکترونیکی، مقالات خبری) زبان‌های مختلف آموزش دهم. این **اشتباه آشکار** است - من در حال آموزش طبقه بندی کننده خود برای یک دامنه (متن بزرگ به خوبی نوشته) هستم اما آن را روی یک دامنه دیگر آزمایش می کنم (متن بالقوه کوچک درهم). با کمال تعجب، این با دقت 90 درصدی روی 400 توییت تگ شده دستی کار کرد. چگونه می توانم بدانم که اندازه نمونه ای که باید انتخاب کنم چقدر است (که در مورد من 400 است) که می تواند نشان دهد که طبقه بندی کننده همچنان در حدود 90 درصد برای یک میلیون توییت عمل می کند؟
اندازه گیری نمایندگی یک نمونه
7054
آیا می توانیم یک متاآنالیز از داده های 3 منطقه انجام دهیم؟ یک بیماری خاص با همان درمان درمان شد اما به طور کامل در 2 منطقه و نه چندان کامل در 1 منطقه اجرا شد. چگونه به تحلیل ادامه دهیم؟ بهترین روش برای تجزیه و تحلیل این داده ها چیست؟ داده ها مربوط به یک بیماری (موارد و مرگ و میر) به شرح زیر است: منطقه 1 منطقه 2 منطقه 3 مورد موارد فوتی موارد فوتی موارد مرده مجموع موارد فوتی 2006 2320 528 1484 108 73 3 3877 639 2007 3024 62174515 2008 3012 537 1920 53 3 0 4935 590 2009 3073 556 1477 40 246 8 4796 604 2010 3540 494 1460 26511 2760 7933 302 492 13 23394 3075 _**Updated_** اینها داده های منتشر نشده هستند.
متاآنالیز داده های 3 منطقه به مدت 5 سال
6990
چگونه می توانم تجزیه و تحلیل اندازه گیری های مکرر را با استفاده از R انجام دهم؟
اقدامات مکرر با استفاده از R
76517
من تازه برای امتحانم آماده می‌شوم، اما نمی‌دانم چگونه این مشکل را حل کنم: 1. پارچه‌های پنبه‌ای پرس بادوام برای بهبود بهبودی از چین و چروک بعد از شستشو درمان می‌شوند. متأسفانه درمان باعث کاهش استحکام پارچه نیز می شود. یک مطالعه مقاومت شکستگی پارچه‌هایی را که توسط دو فرآیند پرس بادوام تجاری پردازش شده‌اند، مقایسه کرد. پنج نمونه از یک پارچه به طور تصادفی به هر فرآیند اختصاص داده شد. در اینجا داده ها، بر حسب پوند کشش لازم برای پاره شدن پارچه است. Permafresh: 29.9، 30.7، 30.0، 29.5، 27.6 Hylite: 28.8، 23.9، 27.0، 22.1، 24.2 ج) فرضیه صفر U1 = U2 را در برابر داده های دو طرفه تست کنید و یک بار دیگر بدون استفاده از داده های جایگزین دوطرفه. در نمونه Permafresh آیا این دو آزمون به نتایج مشابهی منجر می شوند؟ آیا می توانیم با خیال راحت نتیجه بگیریم که یک درمان به طور قابل توجهی قدرت شکستگی بالاتری نسبت به دیگری دارد؟ کمک واقعا قدردانی خواهد شد. خیلی ممنون
دو نمونه سوال مسئله
8146
آیا هیچ نهادی از اجرای Java Test McNemar اطلاعی دارد؟
اجرای آزمون مک نمار در جاوا
40783
فرمول رایج مدل‌های رگرسیون چندسطحی/سلسله مراتبی $y = Xb + Zc + e$ است، که در آن $X$ یک ماتریس $n \times p$ از پیش‌بینی‌کننده‌های سطح فردی $p$ است، $Z$ یک $n \times است. ماتریس q$ پیش‌بینی‌کننده‌های سطح گروه $q$، $y$ یک بردار $n \times 1$ از مشاهدات در سطح فردی و $e$ عبارت خطا است. فرض کنید گروه‌های $J$ وجود دارند و پیش‌بینی‌کننده‌های سطح گروه $q$ پیوسته هستند. من می خواهم بدانم چگونه می توان یک ماتریس طراحی کامل را از این فرمول بندی ساخت، به عنوان مثال برای اعمال یک الگوریتم بهینه سازی نزولی گرادیان. آیا این فرمول معادل یک ماتریس طراحی است که به صورت زیر ساخته شده است: ستون‌های $p$ برای پیش‌بینی‌کننده‌های سطح فردی، ستون‌های $J$ از متغیرهای شاخص برای گروه‌های $J$ (برق‌های مختلف)، ستون‌های $pJ$ برای تعامل بین شاخص‌های گروه و پیش‌بینی‌کننده‌های سطح فردی (شیب‌های مختلف)، و ستون‌های $q$ برای پیش‌بینی‌کننده‌های سطح گروه (به عنوان مثال، ستون‌هایی با مقادیر تکراری برای مشاهدات درون گروهی). آیا راه های جایگزینی برای ساخت ماتریس طراحی زمانی که تعداد گروه ها زیاد است ($J>10000$) برای کاهش تعداد پارامترها وجود دارد؟
ساخت ماتریس طراحی رگرسیون چندسطحی
8143
برای مثال، اگر «0011» را به عنوان مجموعه ای از بیت های شناخته شده $x$ داشته باشم، چگونه می توانم احتمال اینکه دنباله ای از بیت های تولید شده به طور تصادفی برابر با x$ باشد را تعیین کنم؟ با تشکر برای کمک! من مطمئن هستم که این یک سوال احمقانه است، اما احتمال همیشه نقطه ضعف من بوده است (که کلاس الگوریتم های من آن را برجسته می کند!). _EDIT:_ این چیزی است که من باید می پرسیدم: چگونه احتمال به دست آوردن 0011 به طور تصادفی در سمت چپ یک دنباله 8 بیتی را پیدا می کنید؟
چگونه می توان احتمال یک دنباله تصادفی از بیت ها را یک دنباله خاص محاسبه کرد؟
30766
من در تلاش هستم تا تأثیرات برش (33٪ و 66٪) و فصل (1، 2 و 3) را بر غنای گونه ای تجزیه و تحلیل کنم. من یک کنترل دارم (بدون برش، در هیچ فصلی) که مقادیر درون آن قرار گرفته اند. من در ساخت کد برای این مشکل دارم. این چیزی است که من مدیریت کرده ام: lmm1 <- lmer(Species_Richness ~ Seasonf + Clipf + (Seasonf|Controlf) + (Clipf|Controlf)، داده = داده) چگونه می توانم مدل خود را مشخص کنم؟
چگونه یک رگرسیون چندسطحی را با استفاده از تابع lmer در R مشخص کنیم؟
76512
من مطالعه ای انجام دادم که 6 عامل را ایجاد کرد. یکی از فاکتورها تنها 1 متغیر در 0.75 دارد و نزدیکترین عامل بعدی روی 0.54 است. به کلاس من گفته شد که فقط > 0.6 را برای تفسیر درج کند و بقیه را حذف کند. آیا می توان عاملی داشت که یک متغیر را نشان دهد؟
آیا می توان در تحلیل عاملی تنها یک بار عامل قوی به یک فاکتور داشت؟
86727
من می خواهم تحلیل علّی تغذیه را انجام دهم. اساساً هدف من شناسایی عوامل احتمالی مرتبط با سوء تغذیه حاد در کودکان زیر پنج سال در کشورهای در حال توسعه است. چه نوع عواملی با سوء تغذیه مرتبط است؟ چارچوب مفهومی مسیر تصادفی سوء تغذیه چگونه خواهد بود؟
تحلیل علّی
86728
من در شرف دریافت یک مجموعه داده برای رگرسیون چند متغیره هستم که در آن ما در حال تلاش برای یافتن $X\in\Re^{m\times n}$ هستیم که به بهترین نحو با تابع ضرر مطابقت داشته باشد $$\|AX-B\|_F^2 $$ که $A\in \Re^{l\times m}،B\in\Re^{l\times n}$. برای برخی اهداف دیگر، آنچه من تعجب می کردم این بود که نسبت های معمولی برای $A,X,B$ در اکثر مجموعه داده ها چیست؟ من به دنبال تخمین های پارک توپ هستم. من فرض می‌کنم که $A$ معمولاً بسیار بلند است، اما چند ستون دارد؟ $B$ چند ستون خواهد داشت؟ اگر مجموعه‌ای از مجموعه داده‌های رایگان موجود است که بتوانم با آنها بازی کنم، لطفاً لینک بدهید. من نتوانستم هیچ مجموعه داده صرفاً عددی را در مخزن UCI ML پیدا کنم.
مقیاس های معمولی رگرسیون چند متغیره کدامند؟
30765
Yates, Moore & McCabe در کتاب خود در سال 1999 تصریح کردند که بیش از 20 درصد از شمارش های مورد انتظار نباید کمتر از 5 باشد و همه شمارش های مورد انتظار فردی باید بیشتر از 1 باشند. آیا این بدان معناست که برای هر جدول احتمالی 2 در X که هیچ بیش از 20 درصد سلول ها باید کمتر از 5 باشند؟ بنابراین، برای یک جدول 2 در 5 بیشتر از 2 (2 خانه از 10 = 20٪) باید کمتر از 5 باشد؟
برای مجذور کای در هر جدول احتمالی 2 در X، نباید بیش از 20 درصد سلول ها کمتر از 5 باشند؟
40788
من سعی می کنم انتخاب متغیر را با استفاده از روش Elastic Net (تابع کمند Matlab با آلفای 0.5) انجام دهم. من در مجموع ۷۵ پیش‌بینی‌کننده دارم (بعضی‌ها با یکدیگر همبستگی دارند، بنابراین از Elastic Net به جای کمند استفاده می‌کنیم)، و می‌خواهم زیرمجموعه‌ای از آن‌ها را دریافت کنم که پیش‌بینی‌کننده‌های خوبی برای نتیجه من هستند. بنابراین سوال من این است: چگونه می توانم چیزی مانند R-Square را محاسبه کنم که نشان می دهد چه مقدار از نتیجه من توسط این متغیرهای انتخاب شده توضیح داده شده است؟ 1) اگر از متغیرهای انتخاب شده در یک مدل رگرسیون خطی چندگانه استفاده کنم، آیا R-Square معتبر خواهد بود، زیرا متغیرهای من همبسته هستند؟ 2) آیا می توانم R-Square معتبر متقاطع (با استفاده از leave-one-out) را برای بدست آوردن R-Square دقیق تر محاسبه کنم؟ 3) آیا راهی جز محاسبه R-Square وجود دارد که روش انتخاب متغیر من را به خوبی پیش بینی کند؟
محاسبه مربع R برای شبکه الاستیک
76518
با افزایش تعداد سطرها یا ستون ها، پیچیدگی زمانی مجانبی رگرسیون کمند چقدر است؟
پیچیدگی زمانی رگرسیون کمند چقدر است
72872
من نیاز به جمع آوری یک نمونه دو گروهی برای تجزیه و تحلیل مقایسه دارم (شاید با استفاده از رگرسیون لجستیک). جامعه ای که باید از آن نمونه استخراج کنم، همه شرکت هایی از کشور A با فعالیت در کشور B هستند. شرکت ها به دو دسته طبقه بندی می شوند: داشتن یک شرکت تابعه در کشور B (S)، یا نداشتن شرکت تابعه در کشور B (NS) ). من انتظار دارم که سهم شرکت های S نسبت به شرکت های NS کوچک باشد (اما راهی برای اطلاع دقیق ندارم). من در حال حاضر کل جمعیت شرکت های S را در اختیار دارم (زیرا این داده ها در دسترس من بود). با این حال، داده‌های مربوط به شرکت‌های NS به راحتی در دسترس نیست و من باید آن‌ها را جمع‌آوری کنم، و احتمالاً برای شناسایی و جمع‌آوری همه شرکت‌های NB دسترسی نخواهم داشت. بنابراین وضعیت من این است که کل جمعیت شرکت های S را دارم و باید تعداد کافی شرکت NS جمع آوری کنم تا تجزیه و تحلیل بعدی قابل توجه باشد. به احتمال زیاد نمونه نهایی من شامل تمام شرکت های S و بخشی از جمعیت شرکت های NS خواهد بود. بدون تجربه زیاد در انجام این نوع مطالعات، نمی توانم فکر کنم که در هنگام نمونه گیری از این طریق، نوعی سوگیری/قابلیت اطمینان وجود دارد (یک گروه: کل جمعیت گروه، گروه دیگر: بخشی از جمعیت گروه). من آموخته ام که _ if_ اتفاق می افتد که جمعیت شرکت های NS در واقع بسیار بیشتر از شرکت های S است (باز هم راهی برای دانستن بدون داده برای کل جمعیت شرکت ها وجود ندارد) و من به عنوان مثال. در نهایت با نمونه هایی با اندازه مشابه از هر گروه، موردی از نمونه برداری بیش از حد از گروه اقلیت وجود خواهد داشت. با این حال، من نمی توانم هیچ نکته ای را در جایی پیدا کنم که این مشکل را برای یک مطالعه مقایسه ای در نظر بگیرد، زیرا نمایش نمونه صحیح از کل جمعیت در این روش اهمیت کمتری دارد. آیا نگرانی من موجه است؟ یا انجام این کار برای مثال خوب است. رگرسیون لجستیک؟ اگر نه، چگونه می توانم مشکل را حل کنم؟
نمونه برداری مناسب - آیا می توانم یک نمونه دو گروهی را بدون مشکل از این طریق جمع آوری کنم؟
86726
من در مورد نمونه‌گیری طبقه‌ای، نمونه‌برداری 2 مرحله‌ای SRS و تخمین نسبت در جمعیت‌های محدود مطالعه کرده‌ام و یک سوال دارم. وقتی تخمین‌گر نسبت معرفی می‌شود، به نظر می‌رسد که برای اینکه بتواند به خوبی عمل کند، لازم است که جامعه از مدل زیر پیروی کند (که من آن را $\xi$ نشان می‌دهم): $$y_{ij} = \beta x_{ ij} + \epsilon_{ij}$$ با شرط اضافی که $E(\epsilon_{i,j}) = 0$ و $V(\epsilon_{i,j}) = \sigma^2 x_{i,j}$ که در آن $x$ به اطلاعات کمکی اشاره دارد. من از زیرنویس‌های $i، j$ استفاده می‌کنم زیرا به این موضوع در زمینه خوشه‌ها فکر می‌کنم. درک من از این موضوع به طور کلی این است: از دیدگاه مبتنی بر طراحی (شاید باید این را دیدگاه مبتنی بر طراحی به کمک مدل بنامم؟)، استنتاج در مورد تخمین نقطه نسبت بر اساس تمام نمونه‌های ممکن در طرح است (2). -stage SRS) و اصلا بر اساس این مدل نیست، اگرچه اگر این مدل توسط جمعیت برآورده شود، عملکرد بسیار بهتری را شاهد خواهیم بود. اگر در عوض این مدل را فرض کنیم (یعنی مسیر مبتنی بر مدل را انتخاب کنیم)، استنتاج بر اساس آن است و ما در واقع به درستی آن نیاز داریم. همانطور که من درک می کنم، این منجر به تخمین نقطه ای یکسان اما به طور بالقوه تخمین های واریانس متفاوت می شود، زیرا ما یا در حال تخمین واریانس روی همه نمونه های ممکن (مبتنی بر طراحی) یا بر روی همه جمعیت های ممکن قابل تحقق تحت این مدل با این پارامترهای مدل هستیم (یعنی $). \beta$ و $\epsilon_{i,j}$). همچنین خواهیم داشت که تخمین نسبت مبتنی بر طراحی و بی‌طرفانه مدل است. لطفا اگر هر یک از این اشتباه است، من را اصلاح کنید. سوال واقعی من اینجاست. وقتی به سمت نمونه گیری خوشه ای می رویم، به نظر نمی رسد که اصلاً به این مدل اشاره شود. همانطور که من متوجه شدم، اطلاعات کمکی اندازه خوشه ها است (مشخص شده $M_i$). اینکه رابطه از مبدأ عبور می کند، یعنی $y_{i,j} = 0$ if $M_i = 0$، به وضوح مشخص است، اما در مورد رابطه واریانس چطور؟ من نمی‌دانم که واریانس متناسب با اندازه خوشه در کجا ایجاد می‌شود. با این حال به نظر می‌رسد برآوردگر نسبت به عنوان یک انتخاب بسیار معقول (ساده) در نظر گرفته می‌شود، بنابراین به نظر می‌رسد که شرایط برای عملکرد خوب آن باید برآورده شود. هر گونه شفاف سازی بسیار قابل قدردانی خواهد بود.
مدل تخمین نسبت در نمونه گیری خوشه ای دو مرحله ای
14518
می خواستم بدانم که آیا بسته R برای انجام نمونه برداری چگالی بروز برای طرح مورد-شاهدی وجود دارد یا خیر. یعنی برای تطبیق در طرح مورد شاهدی. حسابداری برای چندین متغیر کمکی تطبیق.
نمونه گیری تراکم بروز در R
47838
ما تمرینی در کلاس آمار داشتیم که در آن یک تحلیل ANOVA کوچک انجام دادیم. ما در حال مقایسه بودیم که چگونه دو سطح یک عامل بر پاسخ تحت شرایط مختلف (ترکیبی از عوامل دیگر) تأثیر می‌گذارند. تحلیل من به درختی ختم شد که در آن یک برگ با هر شرایط مطابقت داشت و می‌توانستم ببینم که فاکتور مورد علاقه من چگونه بر پاسخ تأثیر می‌گذارد. فهمیدن خروجی های R حتی در چنین موارد کوچکی کاملاً خسته کننده بود (و درخت در ذهن من بود). معمولاً از چه تکنیک‌هایی برای انجام «مقایسه سطح عامل» مانند این در حالت کلی‌تر با عوامل و سطوح زیاد استفاده می‌شود؟ (نمودارها و نتیجه گیری های بصری) آیا می توان آن را به ANCOVA تعمیم داد؟
روش های مقایسه سطح عاملی ANOVA
74973
Manyl و همکاران شاخصی به نام نسبت انتخاب استاندارد (SSR) تعریف کردند. منبع اینجاست. من کاملاً نمی دانم این شاخص چگونه محاسبه می شود و p.values ​​چگونه محاسبه می شود. میشه کمکم کنید قسمت جالب از صفحه 40 کتاب شروع می شود (و چند صفحه بعد از آن به پایان می رسد). در زیر نمونه ای از مقاله ای است که در آن از این شاخص استفاده شده است. آنها شاخص SSR را توصیف کردند اما برای من نیز چندان منطقی نیست. * * * در این مقاله آنها از نسبت انتخاب استاندارد (SSR) استفاده کردند تا بدانند میزبان ترجیحی (شقایق) ماهی شقایق چیست. در اینجا نقل قولی از روش آنها آمده است: > میزبان ترجیحی شقایق ماهی با محاسبه > نسبت انتخاب استاندارد (SSR) (مقادیر بین 0 و 1) ارزیابی شد (Manly et al. > 1993). نسبت انتخاب استاندارد Manly نشان دهنده این احتمال است که > یک فرد از یک نوع زیستگاه خاص استفاده کند، با در نظر گرفتن > در دسترس بودن منابع مختلف. برای هر گونه شقایق ماهی ($i$) > ساکن یک گونه شقایق ($j$)، SSR به صورت زیر محاسبه شد: $$SSR = \frac{w_i}{\sum{w_j}} $$ که در آن $w_i = \frac{ o_i}{p_j}$ > $o_i$ فراوانی نسبی گونه شقایق ماهی $i$ و $p_j$ > فراوانی نسبی گونه شقایق است. $j$. مقادیر بالاتر SSR نشان دهنده > ترجیح قوی برای منبع انتخاب شده است. آماره Log- Likelihood > ($\chi^2$L) (Manly et al. 1993) برای بررسی اهمیت توزیع مشاهده شده > تحت یک فرضیه صفر انتخاب میزبان تصادفی استفاده شد.
درک فرمول نسبت انتخاب استاندارد (SSR)
6998
میانگین هندسی معیار مناسبی برای گرایش مرکزی برای متغیرهای توزیع شده نرمال است. با این حال، میانگین حسابی هنوز در رابطه با متغیرهای log-normal کاربرد دارد - برای مثال در استنباط کل از داده های نظرسنجی. درک من این است که میانگین حسابی نمونه یک توزیع لگ نرمال با میانگین حسابی جامعه یکسان است، با خطاهای معمولی که نمونه به اندازه کافی بزرگ باشد تا CLT فراخوانی شود. اگر از یک روش انتساب داده های گمشده ساده برای جایگزینی با میانگین استفاده می کنید، اگر از میانگین حسابی استفاده می کنید، میانگین هندسی را افزایش می دهید (و اهرم بالایی به داده های منتسب می دهید)، و اگر میانگین حسابی (و در نتیجه کل) را کاهش می دهید. از میانگین هندسی استفاده کرد. سوال من این است که چه چیزی برای استفاده مناسب تر است، میانگین هندسی یا میانگین حسابی؟ یا اینکه چنین روش انتساب ساده ای برای داده های log-normal کاملاً نامناسب است؟
میانگین و انتساب متغیرهای log-normal
38174
من می‌خواهم با استفاده از رویکرد راه‌اندازی، فرضیه فقدان اثر مداخله را در یک گروه شش نفره تأیید کنم: اندازه‌گیری قبل از (X) پس از مداخله (Y). شناسه داده‌های من X Y 1 9.856 8.992 2 19.512 4.573 3 1.936 1.572 4 14.575 1.529 5 8.476 12.000 6 1.862 1.417 با استفاده از کد زیر برای آزمون R1 (2) نوشته شده است. داده‌های جفت شده، که به جفت‌های نمونه‌گیری مجدد متکی هستند: boot.p.value <- function(data, S) {boot.t.stat <- as.numeric() t.stat <- t.test(x=data[,1 ], y=data[,2], paired=TRUE)$statistic for(s in 1:S) { boot.data <- data[sample(1:nrow(data), replace=TRUE)،] ## جفت نمونه مجدد boot.t.stat[s] <- t.test(x=boot.data[,1],y=boot.data[,2], paired=TRUE)$statistic } p.value <- sum(1*(boot.t.stat >= t.stat))/S return(p.value) } Where: > boot.p.value(data, S=1000) [1] 0.518 هنگام تکرار، مقادیر p-value حاصل بین 4/0 و 6/0 باقی می ماند. برای همان داده ها نسخه SPSS را تنظیم کنید. 19 برای نمونه های جفتی آزمون t، p = 0.182 مبتنی بر بوت استرپ را برای 1000 نمونه مجدد ارائه می دهد. چرا این تفاوت؟
چرا تابع بوت استرپ من برای نمونه های جفت تست t در R نتیجه مشابه SPSS را بر نمی گرداند؟
86729
شنیده ام که $AR(1)$ را می توان به صورت $MA(\infty)$ نوشت. آیا می توان $AR(p)، p \in \mathbb N، p \ge 2$ را برای برخی از $q$ به صورت $MA(q)$ نوشت؟ با تشکر
آیا می توان مدل های AR را به عنوان مدل های MA نوشت؟
72875
فرض کنید من MRR را با یک GBM در R بهینه می‌کنم: library(gbm) generate.data <- function(N) { # ایجاد گروه‌های پرس و جو، با اندازه متوسط ​​25 مورد در هر num.queries <- floor(N/25 ) query <- sample(1:num.queries, N, replace=TRUE) # X1 متغیری است که فقط توسط گروه query تعیین می شود query.level <- runif(num.queries) X1 <- query.level[query] # X2 با هر مورد متفاوت است. X2 که با # پرس و جو مرتبط است، اما با موارد X2 <- X2 + scale(runif(num.queries))[query] # اضافه کردن مقداری نویز تصادفی برای هدف SNR <- 5 # نسبت سیگنال به نویز سیگما <- sqrt(var(Y)/SNR) Y <- Y + runif(N، 0، سیگما) Y <- ifelse(Y>متوسط(Y ), 1, 0) data.frame(Y, query=query, X1, X2, X3) } set.seed(10) data.train <- generate.data(1000) gbm.mrr <- gbm(Y~X1+X2+X3، # data formula=data.train، # توزیع مجموعه داده=list( # تابع ضرر: name='pairwise', # Pairwise Metric =mrr، # رتبه‌بندی معیار: max.rank=1، group='query')، # ستون نشان‌دهنده گروه‌های جستجو n.trees=2000، # عدد انقباض درختان=0.005، # نرخ یادگیری interaction.depth=3، # تعداد در هر تقسیم در هر کیسه درخت.کسری = 0.5، # کسری فرعی train.fraction = 1، # کسری از داده ها برای آموزش n.minobsinnode = 10، # حداقل تعداد obs برای تقسیم keep.data=TRUE، # ذخیره کپی از داده های ورودی در مدل cv.folds=5، # عدد از اعتبار سنجی متقاطع folds verbose = FALSE، # not print progress n.cores = 1) # از یک هسته ای استفاده کنید best.iter.mrr <- gbm.perf(gbm.mrr, method='cv') عنوان ('Training) مدل جفتی با متریک mrr') (کد از اینجا اقتباس شده است) این نمودار زیر را ایجاد می کند، که در آن خط سیاه MRR نمونه است و خط سبز MRR خارج از نمونه واضح است که GBM از MRR تقلید می کند: مدلی را با کوچکترین MRR خارج از نمونه (~0.3) انتخاب می کند: ![RPlot](http://i.stack.imgur.com/x07om.png) من گیج شدم در مورد اینکه چرا gbm mrr را به حداقل می رساند. درک من این است که MRR 1 کامل است (بهترین سند اولین نتیجه است، 1/1=1) و MRR نزدیک به صفر بسیار بد است (به عنوان مثال بهترین سند نتیجه 1000 است، 1/1000 نزدیک به صفر است. ). آیا درک من از mmr درست است؟ اگر چنین است، پس چرا بسته gbm آن را به حداقل می رساند؟
میانگین رتبه متقابل با GBM در R
14516
فکر می‌کنم اصول اولیه راه‌اندازی را درک می‌کنم، اما مطمئن نیستم که بفهمم چگونه می‌توانم از بوت استرپینگ برای انتخاب مدل یا جلوگیری از نصب بیش از حد استفاده کنم. برای مثال، برای انتخاب مدل، آیا فقط مدلی را انتخاب می‌کنید که کمترین خطا (شاید واریانس؟) را در نمونه‌های بوت استرپ داشته باشد؟ آیا متنی وجود دارد که در مورد نحوه استفاده از بوت استرپینگ برای انتخاب یا اعتبارسنجی مدل بحث می کند؟ **ویرایش:** این تاپیک را ببینید و پاسخ مارک999@ را برای زمینه بیشتر این سوال ببینید.
درک راه‌اندازی برای اعتبارسنجی و انتخاب مدل
112983
من سعی می کنم مدلی را در R قرار دهم که سانسور نداشته باشد. به عبارت دیگر، من می دانم که هر اتفاقی در نهایت رخ خواهد داد. چندین گروه آزمایشی وجود دارد که در هر گروه افراد تحت عمل جراحی قرار می گیرند. با این حال، هر گروه در تاریخ های مختلف جراحی را دریافت می کند. من فقط اطلاعاتی دارم که چه کسی مرده است. بنابراین، مجموعه داده‌های من به صورت اتفاقی به نظر می‌رسد: > data.frame گروه شخص D = روز مرگ از زمانی که GROUP جراحی را انجام داده است سن 1 7 5 45 1 8 12 62 1 9 85 55 1 10 102 34 2 11 3 44 2 12 7 72 2 13 25 81 2 14 56 63 2 15 78 57 3 16 2 66 3 17 15 28 3 18 88 77 3 19 150 54 موارد فوق با داده های معمول تجزیه و تحلیل بقا متفاوت است زیرا روزهای تا مرگ به گروهی که یک فرد تعلق دارد بستگی دارد. به این معنی که هر فرد در یک گروه جراحی را در همان روز دریافت کرد، با تاریخ جراحی هر گروه احتمالاً با تاریخ جراحی گروه دیگر متفاوت است. همچنین، چیزی که در اینجا متفاوت است این است که من فقط داده هایی برای افرادی دارم که فوت کرده اند. از این رو، هیچ سانسوری وجود ندارد (من معتقدم). متغیر Age یک متغیر کمکی است. اگر بخواهم تابع خطر را به صورت نمایی مدل کنم، آیا انجام این کار در R منطقی است؟ به این معنی، اگر فکر می‌کردم تابع خطر به این صورت است: $h_i(t) = \beta_0 + \beta_1Age_i + \beta_2log(Age_i)$ که در آن log برای هر گونه اثرات لگاریتمی بالقوه است. و اگر تابع بقای من این بود: $S(t) = e^{-h_i(t)*t}$، آیا مدل R زیر این کار را انجام می دهد؟ `survreg(Surv(D) ~ Age+log(Age), data = data.frame, dist=exponential)` آیا من مشکلی دارم؟ من این را می پرسم زیرا این واقعاً مشکل تجزیه و تحلیل بقای استاندارد شما نیست. متشکرم!
آیا این مشکلی است که تجزیه و تحلیل بقا می تواند با آن مقابله کند؟ مشکل با مدت زمان محلی و داده های بدون سانسور سروکار دارد
72879
فرض کنید احتمال یک رویداد تصادفی بسیار کوچک است (این احتمال را $p$ بنامید). در زندگی واقعی، تصادفی واقعی غیرممکن به نظر می رسد. بنابراین آیا احتمال واقعی واقعی رویداد بیشتر از $p$ خواهد بود؟
تصادفی و احتمال
40780
همه، من سعی می کنم یک مدل رگرسیون ایجاد کنم که در آن نتیجه (پیوسته) چندوجهی باشد: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/FLsNy.jpg) نتیجه قیمت خرده فروشی است یک محصول خاص، و قیمت ها در حدود مقادیر متمایز (750، 1000، 1250، 1500، و غیره) کاهش می یابد. با این حال، قیمت های کمی در این بین وجود دارد، بنابراین قیمت ها متمایز نیستند. من یک مدل خطی با نتایج رضایت‌بخش اجرا کرده‌ام، اگرچه قیمت‌های اضافی بین حالت‌ها به من مکث می‌کند. من همچنین سعی کردم قیمت ها را به چند گروه که حالت ها را نشان می دهند کاهش دهم و تا حدودی خوب کار می کند. آیا راه بهتر یا بدتری برای این مدل وجود دارد؟ آیا روشی بهتر یا بدتر برای تعیین نتیجه وجود دارد؟ متشکرم
مدل رگرسیون با پیامد چندوجهی
76513
**به روز شده** من یک مجموعه داده با پنج متغیر پیوسته دارم که یک شاخص را در یک جمعیت اندازه گیری می کند. برای یافتن طبقه بندی های اساسی در جامعه بر اساس پنج متغیر مشاهده شده، من یک تجزیه و تحلیل پروفایل های پنهان (LPA) برای مدل دو و سه دسته با استفاده از هر پنج متغیر انجام دادم. وظیفه یافتن مقادیر برش برای هر متغیر به منظور طبقه بندی مشاهدات جدید است. بدون انجام کل روش سپس از طبقه‌بندی تولید شده از LPA برای یافتن وزن‌های نسبی هر یک از پنج متغیر با استفاده از رگرسیون لجستیک (برای حل دو طبقه‌ای) و چندجمله‌ای (برای حل سه‌رده‌ای) استفاده کردم. این برای یافتن سهم نسبی هر متغیر در طبقه‌بندی بود. مرحله بعدی یافتن مقادیر برش برای هر متغیر برای استفاده در آینده بود. برای یافتن مقادیر برش برای هر متغیر، با استفاده از رگرسیون لجستیک و تنظیم معادله رگرسیون برابر با 0.5 و سپس یافتن مقدار متناظر متغیر، می‌توانم برش را برای هر متغیر در راه حل دو طبقه‌ای پیدا کنم. به عبارت دیگر، از طبقه‌بندی پیش‌بینی‌شده توسط LPA به عنوان یک معیار (DV) برای هر متغیر در رگرسیون لجستیک. من از ROC استفاده نکردم زیرا به من نداد نتایج معقول سوال من این است که چگونه می توان همین کار را برای راه حل سه دسته انجام داد؟ من رگرسیون چند جمله ای را امتحان کردم اما به راه حلی نرسیدم. با سه دسته من باید دو مقدار برش داشته باشم تا بتوانم مرزهای دسته را برای هر متغیر تعریف کنم. یا به سادگی، چگونه می توان مقادیر برش را برای یک متغیر بر اساس دسته بندی های از پیش تعریف شده برای مطابقت با دسته ها تعیین کرد؟
چگونه مقادیر برش را در رگرسیون چند جمله ای پیدا کنیم؟
14512
من در حال حاضر در مورد یکپارچه سازی کسری در زمینه مدل های تصحیح خطا مطالعه می کنم. آیا کسی بسته ای در r می شناسد که تابعی برای برآوردگر حداکثر درستنمایی سوولز d داشته باشد؟
ادغام کسری و هم انباشتگی با R
19164
من یک مدل مختلط خطی تعمیم یافته را با استفاده از تقریب لاپلاس در R قرار می دهم. من به دنبال مرجعی برای تقریب لاپلاس استفاده شده برای آن، یا مرجعی در مورد مقایسه بین روش‌های PQL و Laplace برای برازش مدل‌های ترکیبی خطی تعمیم‌یافته هستم.
مرجع مدل های مختلط خطی تعمیم یافته با استفاده از تقریب لاپلاس
38172
ممنون می شوم اگر کسی بتواند در مورد سوالات زیر به من کمک کند. من مجموعه کوچکی از موارد (N=41) از شرکت‌هایی دارم که پرسشنامه من را گرفته‌اند. 2 مجموعه سوالات 5 درجه ای در مقیاس لیکرت وجود دارد: - یک مجموعه برای تعیین اینکه آیا شرکت از اندازه گیری عملکرد برای استراتژی مزیت هزینه استفاده می کند یا یک استراتژی تمایز (8 سوال) در نظر گرفته شده است - یک مجموعه برای اندازه گیری در صورت یافتن عملکرد در نظر گرفته شده است. اندازه گیری مفید (6 سوال) شرکت ها قبلاً در عملکرد بالا (سلام) و عملکرد پایین (Lo) طبقه بندی شده اند. من میانگین نمرات هر گروه را محاسبه کردم و توانستم میانگین ها را با استفاده از آزمون t برای دو گروه (Hi/Lo) مقایسه کنم. من همچنین یک تحلیل عاملی انجام دادم، در مورد دو عامل برای ست اول (KMO=0.74) و یکی برای ست دوم تصمیم گرفتم و در نهایت امتیازهای عامل را به عنوان متغیر دریافت کردم. اینها از 2.6- تا 1.3+ متغیر هستند. حالا نمی دانم با این نتایج چه کار می توانم انجام دهم. من واقعاً دوست دارم بتوانم تعیین کنم که اگر شرکتی در مجموعه دوم سؤالات (مفید بودن) نمره بالایی و در مقیاس مزیت هزینه کسب کرده باشد، این شرکت از سنجش عملکرد برای استراتژی مزیت هزینه استفاده کرده است. نوعی مقیاس سودمندی که دو مورد دیگر را تقویت می کند (اگر منطقی باشد). سپس می‌توانم بفهمم که آیا گروه با عملکرد بالا از استراتژی خاصی پیروی می‌کند یا خیر (همانطور برای گروه‌هایی که عملکرد پایین دارند). آیا رگرسیون یا همبستگی می تواند این کار را انجام دهد؟ پیشاپیش ممنون، نیک
تجزیه و تحلیل عاملی یا فقط با مقایسه میانگین ها کنار می آییم؟
48392
من روی پایان نامه خود کار می کنم و سعی می کنم میزان اجراهایی که باید در یک آزمایش انجام دهم را کاهش دهم، بنابراین فکر کردم از روش تاگوچی استفاده کنم، اما نمی دانم چگونه از جدول انتخابگر استفاده کنم. من بارها و بارها بررسی کرده ام که چگونه این قرار است کار کند و هنوز فکر نمی کنم آن را به درستی انجام می دهم. من یک روش 3^k دارم که در آن k = 5 است. سوال من از این واقعیت ناشی می شود که معلمی به من گفت که می توانم (باید) از L27 استفاده کنم تا تعامل 4 عامل از 5 عامل را داشته باشم و نمی توانم بفهمم چگونه او به این فکر کرد که با توجه به اینکه، همانطور که می‌دانم، من فقط باید بتوانم تعداد فاکتورها را با سطوح خود مطابقت دهم و این آرایه جدید من (L18) را به من می‌دهد، اما ظاهرا این بهترین کار برای من نیست. انجام دهید.
توضیح انتخاب آرایه متعامد در روش تاگوچی
86720
آیا کسی می‌تواند فهرست واضحی از تفاوت‌های بین رگرسیون لاگ خطی و رگرسیون لجستیک ارائه دهد؟ من می‌دانم که اولی یک مدل رگرسیون خطی ساده است، اما مشخص نیست که هر کدام چه زمانی باید استفاده شوند.
رگرسیون لاگ خطی در مقابل رگرسیون لجستیک
38170
من در حال تمرین مشکلات اولیه EM برای امتحانات واجد شرایط هستم. من با مشکلات داده های کوتاه/سانسور شده مشکل دارم. چیزی است که من در مورد احتمال داده های کامل نمی فهمم. فرمول اولیه را در نظر بگیرید: > داده های مشاهده شده X1...Xr و Z1 ... Zq دارای pmf/pdf f(~|p) و cdf F(~|p) هستند > داده های مشاهده شده همگی کوچکتر یا مساوی c هستند و وجود ندارند. داده ها همه > بزرگتر از c هستند سپس، چگالی مشروط X و Z با توجه به محدودیت های آنها w.r.t. c سپس به ترتیب f(x|p)/F(c|p) I(X <= c) و f(z|p)/(1-F(c|p)) I(Z > c) هستند. با توجه به آنچه در نمونه‌های آنلاین دیده‌ام، به احتمال زیاد آن سی‌دی‌اف‌های موجود در مخرج‌ها به نحوی لغو می‌شوند. حداقل من فکر می‌کنم که این کار را انجام می‌دهند، زیرا من سعی کردم آن را با سی‌دی‌اف‌ها کار کنم، و حداقل در مورد توزیع پواسون، M-step به هم می‌ریزد، زیرا من باید مشتق را روی p از logF(c|p) بگیرم. و log(1-F(c|p)) (log از مجموع متناهی پواسون pmf)، که فکر نمی‌کنم اشکال بسته داشته باشند (ممکن است اشتباه باشد). در بخش _گروه‌بندی، سانسور و برش دادن_ مقاله EM دمپستر، از یک حالت کلی استفاده می‌کنند که در آن احتمال کامل شبیه یک چندجمله‌ای به نظر می‌رسد. جدای از آنچه در بالا دارم (مجموعه های X و Z با اندازه q و r) به شما امکان می دهند مجموعه ای اضافی از مقادیر گمشده کوتاه شده با اندازه ناشناخته داشته باشید، سپس اندازه ناشناخته را به عنوان یک نقطه داده گمشده درج کنید. در این حالت کلی، آنها همچنین یک احتمال کامل دریافت می‌کنند که هیچ یک از آن مخرج‌های CDF مزاحم را ندارد، اگرچه توضیح نمی‌دهند که چگونه آنها را لغو می‌کنند. کسی می تواند این را توضیح دهد؟ با تشکر
EM برای داده های کوتاه شده/سانسور شده، آن CDF ها چگونه لغو می شوند؟
43205
با توجه به R.V $X$ و $\ E(X) = 0 $ و $\ E(X^2) = \sigma^2 $. آیا به هر حال می توان $\ E(X^3) $ را بدون دانستن تابع چگالی $X$ محاسبه کرد؟
لحظه های بالاتر تابع چگالی نامشخص
38177
من یک GLMM با توزیع پواسون و بلوک فضایی تصادفی دارم. طرح آزمایشی من فاکتوریل 2×2 است، با 4 بلوک، که در مجموع 16 نقطه داده به دست می‌آید. در اینجا مشخصات مدل در R با استفاده از بسته lme4 آورده شده است. lmer(rich ~ morph*caged + (1|block), family=poisson, data=bexData) وقتی خلاصه این شی را فراخوانی می کنم، AIC BIC logLik deviance 18.58 22.44 -4.288 8.576 اثرات تصادفی: نام گروه ها Variance Std. توسعه دهنده بلوک (تقاطع) 0 0 تعداد obs: 16، گروه ها: بلوک، 4 من تست های پارامتر اثر ثابت و همبستگی ها را برای اختصار کنار گذاشته ام. سوالات اصلی من در اینجا هستند: 1. آیا می توانید از این خروجی برای محاسبه پراکندگی بیش از حد استفاده کنید؟ * من خوانده ام که پراکندگی بیش از حد را می توان به عنوان انحراف باقیمانده تقسیم بر درجات آزادی باقیمانده محاسبه کرد. آیا آن 8.576 / (16 - 4) است؟ (Zuur et al., Mixed Effects Models) 2. اگر این محاسبات صحیح باشد، برآوردگر ph = 0.715 است. این نشان می دهد که در داده های من پراکندگی بیش از حد وجود ندارد. * آیا این نشان می دهد که کم پراکندگی وجود دارد؟ * آیا این مشکل دارد؟ * آیا کسی می‌تواند در مورد آستانه‌های بیش از حد/زیر پراکندگی که در آن اصلاحات در مدل‌ها باید انجام شود، توصیه‌ای ارائه دهد؟ زور در یک کتاب گفته است که 5 یک قطع مشترک است. آیا مردم با آن موافق هستند؟ * چگونه می توان چنین اصلاحاتی را انجام داد؟ 3. من همچنین در اینجا متوجه شده ام که واریانس برای اثر تصادفی 0 است. * اگر اینطور است، چرا یک مدل خطی تعمیم یافته شکل نشان داده شده در پایین، دارای AIC قابل ملاحظه ای بالاتر، در حدود 55 است؟ * آیا AIC یک روش معقول برای انتخاب GLMM به GLM (همانطور که توسط Zuur پیشنهاد شده است) است؟ . glm (rich ~ morph*caged، data=bexData، family=poisson)
نحوه ارزیابی بیش از حد پراکندگی در پواسون GLMM، lmer( )
43206
سوال سریع: من این آموزش را پیدا کردم که طراحی دو عاملی را برای تنظیمات زیر توصیه می کند: سه آیتم منو (عامل ثابت) در شش رستوران آزمایش می شوند (عامل تصادفی). راهنما استفاده از aov (پاسخ ~ مورد + رستوران) را توصیه می کند. من فکر می کنم که روش صحیح انجام این کار aov (پاسخ ~ مورد + خطا (رستوران / آیتم)) است. من گیج شدم. **سوال من: راست می گویم یا اشتباه می کنم و نویسنده آموزش درست می گوید؟**
طرح بلوک تصادفی ANOVA در R
72878
ecdf (تابع توزیع تجمعی تجربی در CDF) در R، به جای دادن $P(X \le x)$ برای یک متغیر تصادفی $X$، نسبت مشاهدات در داده ها را نشان می دهد که $\le X$ است. من سعی کردم ECDF اصلاح شده را جستجو کنم اما هیچ کدام را پیدا نکردم. آیا تابع استانداردی برای انجام ECDF ریاضی وجود دارد؟ یا هر راه حلی قدردانی می شود!
ECDF اصلاح شده در R
103351
من تست Fisher Exact را برای چندین ماتریس بزرگتر از 2x2 اجرا کرده ام. من یک عدد Value و یک مقدار P به جای فقط یک مقدار P دریافت کردم. آیا این به این معنی است که حافظه تست تمام شده و نامعتبر است؟ یا...چرا یک مقدار دریافت کردم؟
ارزش همبستگی آزمون دقیق فیشر
88831
بیایید مثالی را در نظر بگیریم که آیا وزن یک فرد با قد او همبستگی دارد (رگرسیون خطی ساده). تفاوت بین اجرای این همبستگی در دو مجموعه داده زیر چیست؟ **اندازه گیری های مستقل از زمان** از 100 نفر به صورت تصادفی نمونه برداری کنید و وزن و قد آنها را ثبت کنید. **اندازه گیری با وابستگی به زمان** از 10 نفر به صورت تصادفی نمونه گیری کنید، اما وزن و قد آنها را در 10 زمان مختلف ثبت کنید.
چه اتفاقی در رگرسیون خطی می افتد زمانی که مشاهدات در زمان مستقل نیستند
89127
من می خواهم به صورت برنامه ریزی شده محاسبه کنم که در چه ساعات خاصی از روز احتمال بازدید (دسترسی) یک صفحه وب زیاد است. اگر از قبل اطلاعات زیر را در مورد یک صفحه داشته باشم، از کدام فرمول آماری برای محاسبه ساعات پیک صفحه وب استفاده کنم. به عنوان مثال برای صفحه xyz، در سمت چپ من ساعت و در سمت راست بازدید دارم، برای صفحات مختلف بازدیدها متفاوت است. داده های تعداد بازدیدهای صفحه xyz: hr=بازدید 1=0 2=0 3=0 4=0 5=14 6=0 7=0 8=5 9=5 10=8 11=10 12=10 13=12 14= 7 15=5 16=5 17=3 18=0 19=0 20=0 21=0 22=0 23=0 24=0
احتمال دسترسی به صفحه وب در یک ساعت خاص
103358
در تحقیقی که انجام می دهم، یک تعدیل دارم که در آن متغیر پیش بینی کننده، تعدیل کننده و متغیر نتیجه در سطوح مختلف هستند: پیش بینی کننده و تعدیل کننده در سطح درونی (داده ها به صورت طولی طی 6 ماه جمع آوری شدند، هر شرکت کننده 10 نتیجه دارد) و نتیجه. متغیر در سطح بین (داده ها فقط یک بار در پایان مطالعه جمع آوری شد). من با R کار می کنم. آیا در این مورد می توان از Growth Modeling استفاده کرد؟ اگر نه، آیا می توان این داده ها را با استفاده از روش دیگری تجزیه و تحلیل کرد؟
مدل‌سازی سطح متقاطع در R، سطوح مختلف پیش‌بینی‌کننده، تعدیل‌کننده و متغیر نتیجه
43209
من آزمایش هایی را با یک پارامتر خاص x انجام می دهم. نتیجه y است. من فرض می کنم y به صورت خطی با x مرتبط است. فرض کنید من می توانم 1000 آزمایش انجام دهم، کدام روش تخمین بهتری از رابطه خطی به من می دهد؟ * 1000 مقدار مختلف x را انتخاب کنید، برای هر x یک y بگیرید و رگرسیون خطی انجام دهید؟ * 100 مقدار مختلف x را انتخاب کنید، 10 آزمایش را برای هر x اجرا کنید، مقادیر y را برای هر x میانگین بگیرید و سپس رگرسیون خطی را روی 100 میانگین انجام دهید؟ * 100 مقدار مختلف x را انتخاب کنید، 10 آزمایش را برای هر x اجرا کنید و رگرسیون خطی را بدون میانگین گیری اول انجام دهید؟ اگر مطمئن نباشم که رابطه خطی است چه؟
رگرسیون خطی و میانگین حسابی
89481
فرض کنید که یک متغیر طبقه بندی شده $X$ داریم که می تواند سه مقدار داشته باشد: $0$، $1$، یا $2$. ما از $X=0$ به عنوان سطح مرجع استفاده می کنیم. متغیرهای ساختگی زیر ایجاد می شوند: $$X_1 = 1 \ \text{if} \ X=1 \ \text{or} \ X_1=0 \ \text{if} \ X \neq 1$$ $$X_2 = 1 \ \text{if} \ X=2 \ \text{or} \ X_2=0 \ \text{if} \ X \neq 2$$ در یک مدل رگرسیون خطی، فرض کنید $Y = \beta_1 X_1 + \beta_2 X_2 + \epsilon$$ داریم. $X=0$. چگونه ضرایبی را بدست آوریم که $X=2$ را با $X=1$ مقایسه می کند؟ آیا $\beta_1+\beta_2$ خواهد بود؟
سطح مرجع و تفسیر
19165
این شکل: ![نسبت شانس](http://i.stack.imgur.com/Q5Lrp.jpg) نسبت شانس من را نشان می دهد. من معتقدم که آنها باید خطی باشند تا رگرسیون لجستیک کار کند و در تعجبم که چگونه این داده ها را پیش پردازش کنم. با تشکر
آماده سازی داده ها برای رگرسیون لجستیک
72876
من یک مدل چند سطحی سه سطحی دارم (درمانگران، بیماران، اقدامات مکرر) که در آن تعاملات 4 طرفه را گنجانده ام، به عنوان مثال: خودکارآمدی درمانگر * شرایط درمان * بیمار در مسیر (بله/خیر) * زمان این فرضیه را آزمایش می کند. درمانگرانی که در شرایط A هستند و خودکارآمدی بالاتری ندارند، شیب تندتری با بیمارانی دارند که در مسیر درست قرار ندارند، اغلب تعاملات درجه پایین تر غیر قابل توجه و همچنین برای تفسیر مناسب نیست. آیا هنوز باید همه آنها را در نظر بگیرم؟ احساس می‌کنم پارامترهای زیادی را در مدل قرار می‌دهم، در حالی که تفسیر فعل و انفعالات مرتبه پایین‌تر که مهم نیستند دشوار است. بیشتر مجامع بیان می‌کنند که توصیه می‌شود تعامل مرتبه پایین‌تر را لحاظ کنید، اما در برخی جاها نیز گفته شده است که هیچ دلیل آماری برای گنجاندن آنها وجود ندارد. آیا توصیه یا مرجعی در مورد این وضعیت وجود دارد؟
تعاملات سطح پایین تر (دو طرفه و 3 طرفه) را در مدل چند سطحی 3 سطحی لحاظ کنید؟
43201
هنگامی که یک سیستم صف به عنوان یک صف M/M/1 مدل می شود، فرض می شود که زمان رسیدن مشاغل دارای توزیع پواسون و نرخ خدمات دارای توزیع نمایی است. من نمی دانم که یک سیستم باید چه ویژگی هایی داشته باشد تا نرخ ورود را به عنوان پواسون مدل کند؟ من می‌دانم که پواسون تنها توزیعی است که زمان بین رسیدن کارها به صورت نمایی توزیع می‌شود که بدون حافظه است. آیا ویژگی های بهتر و شهودی تری برای آن وجود دارد؟ همچنین حتی در مدل‌سازی پیچیده‌تر (M/G/1)، فقط نرخ خدمات به عمومی تغییر می‌کند، به این معنی که نرخ ورود پواسون به اندازه کافی خوب است که G/M/1 یا G/G/1 به اندازه جذابیت آن نباشد. قبلی ها
فرض برای یک صف M/M/1
88834
من در حال حاضر روی یک کاربرگ خود مطالعه کار می کنم. من اکثر بخش‌های راه‌حل برای قسمت سوم را می‌دانم، اما به نظر نمی‌رسد که بفهمم چگونه این اتفاق می‌افتد: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/emSUF.jpg) * *سوال:** ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/6g1QI.jpg) **پاسخ:** ![شرح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/ESOp2.jpg)
سوال خودآموزی
19291
به دنبال سوال من برای OLS، می‌پرسم: چه نمودارهای تشخیصی برای رگرسیون چندکی وجود دارد؟ (و آیا R از آنها پیاده سازی شده است؟) یک جستجوی سریع در گوگل قبلاً با طرح کرم (که قبلاً هرگز در مورد آن نشنیده بودم) به دست آمد، و من خوشحال خواهم شد که روش های بیشتری را بدانم که ممکن است در مورد آنها بدانید. (آیا یکی از آنها یکی از OLS برای رگرسیون چندکی منتقل شده است؟) با تشکر
چه نمودارهای تشخیصی برای رگرسیون چندکی وجود دارد؟
60325
من سعی می‌کنم یک ماشین حالت مایع بسازم، یک شبکه عصبی اسپک به عنوان مایع و یک شبکه عصبی پیش‌خور دارم که باید یاد بگیرد که وضعیت‌های مخزن را به خروجی نگاشت. من مقالات زیادی را خوانده ام، اما چیز زیادی در مورد نحوه ارائه وضعیت های مخزن به ورودی های شبکه فید فوروارد پیدا نکردم. یکی از منابع من گفت که باید تمام مقادیر مخزن را جمع کنم و به همه واحدهای ورودی بدهم، اما این باعث می شود ورودی ها همه مقادیر یکسانی داشته باشند. مقالات دیگر گفتند که واحدهای ورودی باید نسبت به ویژگی‌های مختلف حساس باشند، اما پروژه من دستخط را تشخیص می‌دهد و من نمی‌دانم چه ویژگی‌هایی می‌توانم از آن استخراج کنم. این فقط از مقادیر بین 0 و 1 تشکیل شده است، با توجه به اینکه پیکسل پر شده است یا نه. من سعی کردم لایه‌های مختلف مایع را به واحدهای ورودی مختلف شبکه پیش‌خور نگاشت کنم، اما کار نکرد. من واقعاً فکر نمی‌کردم که ایده خوبی باشد، اما در هر صورت آن را امتحان کردم. سوال من این است: چگونه می توانم حالت های مخزن را به شبکه فید فوروارد بدهم تا اصلاً بتواند چیزی یاد بگیرد؟ من همچنین ممکن است با خود مایع نیز مشکل داشته باشم، زیرا کاری انجام نمی دهد، فقط داده های خود را به صورت تصادفی شلیک می کند. آیا با توجه به داده های ورودی نیز باید ساختار خود را تغییر دهد؟ (مقالات معمولاً می گویند که لازم نیست به ورودی واکنش نشان دهد، اما به نظر من عجیب است.)
چگونه از حالت های مخزن برای خواندن و آموزش استفاده کنیم؟
82721
یک سوال در مورد آزمایش اینکه آیا محدوده های بین چارکی (IQR) از دو توزیع غیر نرمال به طور قابل توجهی متفاوت هستند وجود دارد. اکنون من به دنبال آزمایشی برای تست معنی داری محدوده های بین چارکی هستم. من چند رویکرد برای مقایسه IQR پیدا کردم، به عنوان مثال. تست جایگشت تست Westenberg-Mood boostrap + test z از http://r.789695.n4.nabble.com/significance-test- interquartile-ranges-td4636456.html کدام آزمون برای محدوده های بین چارکی آزمون معناداری مناسب است؟ (اطلاعات داده ها: داده های نسبت، حجم نمونه در پنج گروه نابرابر، کمترین کمتر از 10، بیشترین حدود 300 است)
نحوه آزمایش اهمیت دامنه های بین چارکی (IQR)
11353
من صدها متغیر توضیحی و کمتر از 100 مشاهده (مجموعه داده های اشباع) دارم. من می خواهم یک مدل خطی ایجاد کنم که در آن دو یا چند متغیر مرکب از هر کدام از یک دوجین متغیر توضیحی تشکیل شده باشد. چگونه می توانم بهترین متغیرها را برای استفاده برای کامپوزیت ها بدون مرور هر ترکیبی پیدا کنم؟ در حال حاضر $R^2 = 0.64$ من، من می خواهم آن را بهبود بخشم. مدل چیزی شبیه به این است: $$Y = B_1(v_1 + v_2 + \dots + v_{12}) + B_2(v_{13} + v_{14} + \dots +v_{24})$$ که $ B_1$ و $B_2$ ضرایب هستند و کل ($v_1 + v_2 + \dots + v_{12}$) به عنوان یکی عمل می‌کنند. متغیر
چگونه می توانم بهترین مدل را با مجموعه داده اشباع شده پیدا کنم؟
96320
من اطلاعاتی در مورد چندشکلی طول تکرار دارم. برای هر موضوع، دو مقدار دارم که تعداد تکرارهای (گسسته) هر آلل را می دهم. می‌خواهم آزمایش کنم که آیا طول تکرار روی یک آلل و دیگری مستقل از یکدیگر هستند یا خیر. مشکل من این است که هیچ نظم طبیعی در طول تکرار یک موضوع وجود ندارد. اگر بخواهم یک تست مجذور کای انجام دهم، هیچ توجیهی برای اختصاص یک طول تکرار به متغیر ردیف و دیگری به متغیر ستون جدول اقتضایی که آزمون را روی آن اعمال می‌کنم، وجود ندارد، یا برعکس. وقتی برای هر واحد نمونه برداری، دو مقدار قابل تعویض هستند، چگونه استقلال داده های دسته بندی دو بعدی را آزمایش می کنید؟
چگونه استقلال را در طول آلل های درون موضوعی آزمایش کنیم؟
60328
همانطور که عنوان می گوید، من دو سری زمانی دارم، یکی برای شروع ثابت است و بنابراین ریشه واحد ندارد، سری زمانی دیگر پس از تفاضل یک بار ثابت است. من می‌خواهم یک مدل از این بسازم و می‌دانم که وقتی ریشه‌های واحد وجود دارد، باید برای هم‌انجمادی آزمایش کنم. اما من در Engle & Granger (1987) خوانده ام که تست های هم انباشتگی فقط زمانی انجام می شود که دو یا چند متغیر I(1) داشته باشید، آیا این درست است؟ بنابراین من نمی توانم در ادبیات پیدا کنم که آیا اکنون باید از یک مدل VAR برای تفاوت ها استفاده کنم یا برای همجمعی آزمایش کنم و شاید یک مدل تصحیح خطای برداری انجام دهم. کسی میتونه کمکم کنه؟ من بسیار سپاسگزار خواهم بود!
سری زمانی: یک متغیر I(1) و یک متغیر I(0)، آیا باید از VAR/VEC استفاده کنم، تست برای همجمعی؟
19169
من سعی می‌کنم تابع چگالی دوجمله‌ای توسعه‌یافته را با پشتیبانی روی c(0 : (طبقه(N) + 1) پیاده‌سازی کنم، اما در حال اجرا با (فکر می‌کنم) مشکلات دقیقی دارم: ###### ################## #---تابع چگالی---# ######################## debinom <- function(k, n, p, sum) { if (k <= n) { return( select( n, k) * p^k * (1-p)^(n-k) ) } else { return (1.0 - sum) } }#END: pebinom ###############################################################################---تابع توزیع تجمعی 2 ---# ######################################## تابع pebinom <- (x n، p) { # جرم نقطه در 0 چگالی کل = cumProb = debinom(0.0، n، p، 0.0) k = 0 while (k <= (x)) {density2 = debinom(k، n، p، تراکم کل) کل چگالی = کل چگالی + چگالی2 cumProb = cumProb + چگالی2 k = k + 1 } k = k + 1 چگالی = دبینوم (k، n، p، کل تراکم) cumProb = cumProb + چگالی * (x - k) بازگشت (cumProb) }#END: debinom ############ #---TEST- --# ############ برای (i در 0:10) { x = i + runif(1) cat(x, , pebinom(x, 100, 0.1), \n) } یک احتمال منفی برای مقادیر دنباله می دهد. # ویرایش من تغییر کرده ام و بیشتر روال ها را در کامنت ها و پاسخ هایی که دریافت کرده ام ساده کرده ام: ############################ ############ #---تابع توزیع احتمال---# ######################################## دبینوم <- تابع (k, n, p) { if (k <=طبقه(n)) { return( select(n, k) * p^k * (1-p)^(n-k) } other if(k == (floor(n)+ 1)) { cumProb = 0.0 for(i در 0 : floor(n)) { cumProb = cumProb + debinom(i, n, p) } return (1.0 - cumProb) } else { return(0.0) } }#END: pebinom ##### ################################## #---تابع توزیع تجمعی---# ################################################################ # pebinom <- تابع(x، N، P) { cumProb = 0 برای (i در 0 : (طبقه(x)) ) { cumProb = cumProb + debinom(i, N, P) } return(cumProb) }
توزیع دو جمله ای گسترده
88836
من در حال خواندن کتاب چگونه همه چیز را اندازه گیری کنیم، فصلی وجود دارد که نویسنده استفاده از شبیه سازی مونت کارلو را در شبیه سازی رویدادهای آینده تشویق می کند تا درک بهتری از خطر / عدم قطعیت درگیر داشته باشد. این تئوری در کاغذ عالی به نظر می رسد، و من وسوسه می شوم که تکنیک های مونت کارلو را برای تجزیه و تحلیل استارتاپ، مطالعه عملکرد کارکنان، کمپین فروش، بازارها... همه چیز به کار ببرم! اما در عمل، من شک دارم که آیا شبیه سازی مونت کارلو زمانی که توزیع متغیرهای درگیر در یک معادله ناشناخته است مفید باشد. به توزیع بازده قیمت سهام فکر کنید-- در توزیع گاوسی نمی گنجد، اما از چه توزیعی می توانیم استفاده کنیم؟ و هنگامی که توزیع متغیر ناشناخته است، شبیه سازی مونت کارلو چقدر مفید است؟ حدس من زیاد مفید نیست، اما درست می گویم؟ یک سوال مرتبط، اما احتمالا محدودتر این است که آیا تحقیقی در راستای تحلیل حساسیت انجام شده است؟ منظور من از تحلیل حساسیت است که توزیع های شناخته شده ای را برای متغیرها فرض می کنیم، اما با تغییر جزئی شکل توزیع یا تغییر جزئی برخی از ثابت ها، آنها را کمی آشفته می کنیم، آیا نتیجه نتایج شبیه سازی تقریباً یکسان خواهد بود یا کاملاً متفاوت است. ?
وقتی توزیع متغیر ناشناخته است، شبیه سازی مونت کارلو چقدر خوب است؟
47780
من در حال تلاش برای ایجاد مدل AR بر روی داده‌های wheather هستم و از خودم پرسیدم که آیا روش یا الگوریتمی وجود دارد که بتواند ترتیب بهینه را برای یک مدل AR پیدا کند؟ من از Matlab برای تجزیه و تحلیل داده های خود استفاده می کنم، آیا تابعی وجود دارد که بتواند این کار را انجام دهد؟ متشکرم
چگونه می توان ترتیب بهینه مدل AR را تعیین کرد؟
19296
من تعدادی توالی عددی از داده‌ها را در طول زمان $v(i)$ نظارت کرده‌ام که به یکی از دو کلاس 0 یا 1 تعلق دارد. من متغیر را چندین بار رصد می‌کنم و دنباله‌ای مرتبط با 0 یا 1 به دست می‌آورم. از بخشی از مواردی که $v(i)$ متعلق به کلاس 0 برای داشتن نمایه/پایه (داده های آموزشی/موارد) است. سپس از مواردی استفاده می‌کنم که $v(i)$ به 1 تعلق دارد تا ببینم آیا تفاوتی با خط پایه (داده‌های آزمایش/موارد) وجود دارد یا خیر. سپس به محاسبه یک متریک، بر اساس اطلاعات نشان داده شده توسط $v(i)$ پایان می‌دهم، یعنی اگر مقداری «تفاوت» را نشان می‌دهد زمانی که مورد 1 یا 0 بود (خطا)، و بالعکس با در نظر گرفتن کلاس 0. بنابراین از کل موارد $N$ فقط یک مقدار $M(v(i),N)$ دریافت می کنم. اما این مقدار فقط یک آمار است. سوال من این است: چگونه می توان توزیع این متریک را حدس زد؟ من فکر کردم داده های آزمایشی/موارد را در گروه های $k$ تقسیم کنم (با حفظ تناسب)، و سپس توزیع $M(v(i),N/k)$ را از طریق یک $T$-test یا تخمین بزنم. چیزی مشابه اما آیا واقعا منطقی است؟ آیا روشی معتبر برای استنباط توزیع $M$ است؟ پیشاپیش از نکات و بحثی که (در صورت) دریافت خواهم کرد متشکرم :)
اعتبار سنجی پارتیشن بندی داده ها
82729
هنگام تجزیه و تحلیل بسیاری از مجموعه داده های واقعی، متوجه شده ام که بیشتر همبستگی ها مثبت است. به عنوان مثال، در اینجا تصویری از ماتریس همبستگی پیرسون برای داده های فعلی من است. آیا دلیلی برای این وجود دارد؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Yec8K.jpg) **ویرایش:** ماتریس از مجموعه داده 500*140 محاسبه می شود، که اکثر متغیرها آیتم های لیکرت هستند. در اینجا توزیع همبستگی ها آمده است. ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/UOvod.png) و در اینجا مثالی از ناحیه دیگری است. محتوای ویتامین و مواد معدنی در نمونه های غذایی مختلف (با وزن یکسان) اندازه گیری شد. ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/cEd4i.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/oZX8t.png)
چرا بیشتر همبستگی های جهانی مثبت هستند؟
65665
من مدل اختلاط زیر را با استفاده از بسته `rjags` در R اجرا می کنم، اما همچنان با پیغام خطای RUNTIME ERROR: Cannot insert node into p[1,1] مواجه می شوم. عدم تطابق ابعاد`. من به وضوح دیریکله را قبلاً اشتباه مشخص کرده ام، اما مطمئن نیستم که چه چیزی باید تغییر کند. model { # احتمال برای (i در 1:N) { Y[i,1:J] ~ dmnorm(mu[i,],Sigma.inv) mu[i,1:J] <- p[i,1: K]%*%s[1:K,1:J,i] } # Priors on s for(i در 1:N) { for(k در 1:K) { s[k,1:J,i] ~ dmnorm(mu.s[,k],Sigma.s.inv[,,k]) } } # Preor on p for(i in 1:N) { for(k در 1:K) { p[k,i] ~ ddirch(alpha) } } } # alpha به عنوان alpha مشخص شده است<-c(1,1) در R هر کمکی بسیار خواهد بود قدردانی کرد. همانطور که درخواست شد، در اینجا کد R برای اجرای مدل آمده است: #داده برای rjags مخلوط کردن مدل # Y مقادیر Y<-matrix(c(5.8565, 18.5979, 5.7579, 1.1401, 0.4945, 0.2122, 0.3986, 0.3986, 14.695, 0.6986, 14. 8.5126، 2.1779، 1.1406، 0.4051، 0.5971، 13.7417، 10.0652، 8.2977، 2.2172، 1.1204، 0.3929، 0.3929، 0.6116، 0.6116. 8.3222، 1.9592، 0.9697، 0.3454، 0.5695)، byrow=TRUE,ncol=7) colnames(Y)<-c(Al، Ca، Fe، K، Mg، Na Ti) # مقادیر mu.s mu.s<-matrix(c(6.9746333، 6.6574444, 10.5605000, 13.9441083, 35.4727333, 13.2216667, 6.7945000, 4.1493958, 5.0452333, 7.114, 7.11. 6.9320042، 1.1962000، 1.1212222، 2.0860833، 2.4469958، 0.6191000، 0.4853333، 1.0108333، 0.880339. 0.1992222، 0.4911250، 0.4069042، 0.4584000، 0.3072222، 0.6167083، 0.6584167)، byrow=TRUE، ncol=4) rownames(mu.s)<-c(Al، Ca، Fe، K، Mg، Na، Ti) colnames(mu.s)<-c(CB FDRVTS) # مقادیر Sigma.inv - یک ماتریس دقیق Sigma.inv<-structure(c(1291.8709, 6061.281، 698.1364، -5510.728، -690.3269، -3010.418، 641.0724، 6061.2809، 171684.070، 2179.5781، 2179.5781، 2179.5781، 2226. -13140.215، -93994.2303، 698.1364، 2179.578، 1705.0527، -3500.690، 559.1736، -3054.477، -11664.9221.9575، -11664.9221.91575 - -3500.6902، 30963.025، -5429.0766، 18493.588، -10856.3964، -690.3269، 10430.495، 559.1736، -5424.072.077. -38633.413، -18496.1137، -3010.4185، -13140.215، -3054.4766، 18493.588، -38633.4135، 116805.134، 116805.134، 2154.214.214. -93994.230، -11664.9575، -10856.396، -18496.1137، 21412.553، 291117.7431)، dim=c(7،7)) Sigma.inv<-as.positive.Sigmagmainvs(Sigma.definite ماتریس دقیق Sigma.s.inv<-structure(c(17.1162359691711, 4.27333154820829, 0.799319413122213, 67.8990020405821, -17419 240.147200630862, -235.997112580624, 4.27333154820829, 1.30433955546833, 0.346955743724074, 238419 -49.6382239122873, 59.017476611683, -63.7180758402929, 0.799319413122213, 0.346955743724074, 1.374, 1.314, 1.376. 5.28599480618941، -13.9928477614376، -1.89552256841994، -9.54585305537158، 67.8990020405825، 23.19، 23.19 5.28599480618941، 577.794716546282، -1005.75939032625، 1125.51717030183، -1523.09284200498، -1841.19 -49.6382239122873، -13.9928477614376، -1005.75939032625، 2530.24588028147، -3264.56488630485، 29397، 29390. 240.147200630862, 59.017476611683, -1.89552256841994, 1125.51717030183, -3264.56488630485, 50697074 -4010.71091461381، -235.997112580624، -63.7180758402929، -9.54585305537158، -1523.09284200498، 29397، 29390. -4010.71091461381, 5348.51616374144, 856.390529266247, -23.7499072549466, 30.8155799569968, -31216. -6697.97335697594, 201.209069779657, 1119.41488802919, -23.7499072549466, 1.16945366195659, -0.6239659, -0.6239627 92.6596468824124, 185.589336069471, 8.55556473205667, -50.7878188653177, 30.8155799569968, -0.623968, -0.623962 1.33309308251978، -109.66739253505، -247.377133710695، 20.475196391213، 35.4240283157601، -3121.760 92.6596468824124، -109.66739253505، 11599.9856016394، 24300.5608779793، -610.557137045431، -46475397 -6697.97335697594، 185.589336069471، -247.377133710695، 24300.5608779793، 52721.3237164215، -111079. -8706.61402757383, 201.209069779657, 8.55556473205667, 20.475196391213, -610.557137045431, -1907,759 1924.48807974801، -150.765001020582، 1119.41488802919، -50.7878188653177، 35.4240283157601، -464737. -8706.61402757383، -150.765001020582، 3107.68558872587، 49.0622143602674، 8.44130661570893، -628.679، -628.679 -256.909898229718، 45.2409921131372، -122.516603322888، 505.474492036306، 8.44130661570893، 5.0493، 5.0495
مشخص کردن دیریکله قبل در jags
46072
من روی حجم نمونه 70 کار می کنم. مقادیر مشاهده شده و مورد انتظار من متفاوت است (مشاهده 586، 648، 526، 662، 658، 502، ..... و به همین ترتیب برای 70 نمونه و 570 634، 513، 647، 644، 490، .....بنابراین برای 70 نمونه). من از تست Chi-sq برای بررسی تهی استفاده کردم که تفاوتی در مقدار مشاهده شده و مورد انتظار وجود ندارد. و من یک مقدار p 0.99 گرفتم که به این معنی است که نمی توانم null را رد کنم. آیا می توانم از هر آزمایش دیگری برای این نوع مشکل استفاده کنم زیرا می بینم که برای تمام 70 نمونه مشاهده شده بالاتر از حد انتظار است اما نمی توانم این نتیجه را از نظر آماری نشان دهم.
اهمیت آزمون کای دو برای نمونه بزرگ
60490
من بسته R OpenMx را برای تجزیه و تحلیل اپیدمیولوژی ژنتیکی بررسی می کنم تا یاد بگیرم چگونه مدل های SEM را مشخص و برازش کنم. من تازه وارد این کار هستم پس با من صبر کنید. من مثال صفحه 59 راهنمای کاربر OpenMx را دنبال می کنم. در اینجا مدل مفهومی زیر را ترسیم می‌کنند![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/3jOmk.png) و در تعیین مسیرها، وزن گره نهان یک را بر روی گره های bmi T1 و T2 را 0.6 نشان می دهد زیرا: > مسیرهای اصلی مورد توجه مسیرهایی از هر یک از متغیرهای پنهان به > متغیر مشاهده شده مربوطه هستند. اینها همچنین تخمین زده می شوند (بنابراین همه آنها رایگان هستند)، یک مقدار شروع 0.6 و برچسب های مناسب دریافت می کنند. # ضرایب مسیر برای twin 1 mxPath( from=c(A1,C1,E1), to=bmi1, arrows=1, free=TRUE, values=0.6, label=c(a c,e) ), # ضرایب مسیر برای mxPath دوقلو 2( from=c(A2,C2,E2), to=bmi2, arrows=1، free=TRUE، values=0.6، label=c(a,c,e) )، مقدار 0.6 از کوواریانس تخمین زده شده bmi1 و bmi2 (به شدت *تک*زیگوتیک) بدست می آید. جفت دوقلو). من دو سوال دارم: 1) وقتی می گویند که به مسیر مقدار شروع 0.6 داده می شود، آیا این مانند تنظیم یک روال یکپارچه سازی عددی با مقادیر اولیه است، مانند تخمین GLM ها؟ 2) چرا این مقدار دقیقاً از دوقلوهای تک تخمکی تخمین زده می شود؟
انتخاب وزن مسیر در مدل مفهومی SEM با استفاده از openMx
11359
آیا دلیلی وجود دارد که بتوانم به آن فکر کنم، برای تبدیل داده ها با جذر؟ منظورم این است که آنچه من همیشه مشاهده می کنم این است که R^2 افزایش می یابد. اما این احتمالا فقط به دلیل مرکز داده ها است! هر فکری قابل تقدیر است!
دلیل استفاده از تبدیل ریشه مربع در داده ها چه می تواند باشد؟
60329
برای یک پروژه دانشگاهی، من یک طبقه‌بندی کننده SVM نوشتم و در مرحله بنچمارک به نتایجی می‌رسم که می‌خواهم از جنبه نظری آن را بهتر درک کنم. مجموعه داده اصلی من شامل نمونه های چند برچسبی است، اما من در حال ساخت یک طبقه بندی کننده باینری هستم، بنابراین یک ویژگی «A» را انتخاب می کنم و اگر «A» وجود دارد، همه برچسب ها را با 1+ یا اگر «A» وجود دارد -1 را جایگزین می کنم. به عنوان مثال: label1 label2 label3 label4 = feature1 feature2 feature3 feature4 label2 label4 = feature1 feature2 feature3 feature4 label3 label4 = feature1 feature2 feature3 feature4 اگر label3 را انتخاب کنید مجموعه داده می شود: 1 = feature1 feature2 feature3 feature4 -1 = feature1 feature2 feature3 feature4 1 = feature1 feature2 feature3 feature4 اگر label2 را انتخاب کنید مجموعه داده به صورت: 1 = می شود feature1 feature2 feature3 feature4 1 = feature1 feature2 feature3 feature4 -1 = feature1 feature2 feature3 feature4 اکنون، مجموعه داده اصلی من شامل 20k ردیف است و: 1. اگر برچسبی را انتخاب کنم که در ردیف 9k باشد، میانگین خطای تست 13% 2 دریافت می کنم. اگر برچسبی را انتخاب کنم که در ردیف 5k باشد، میانگین خطای تست 7٪ دریافت می کنم، تعجب می کردم که چرا این اتفاق می افتد. حدس من این است: * در حالت دوم، هایپرپلین جداکننده حاشیه بزرگتری دارد * در این مورد اول، بیش از حد مناسب است.
آزمون همبستگی خطا با فرکانس برچسب
89838
داشتم یادداشت‌هایی را می‌خواندم و می‌گوید که PCA می‌تواند داده‌ها را به شکل کروی درآورد. چیزی که آنها برای من به عنوان کره سازی داده ها تعریف می کنند، تقسیم هر بعد بر جذر مقدار ویژه مربوطه است. من فرض می‌کنم که منظور آنها از بعد هر بردار پایه‌ای است که ما به آن فرافکنی می‌کنیم (یعنی بردارهای ویژه‌ای که به آنها می‌تابیم). بنابراین حدس می‌زنم که آنها انجام می‌دهند: $$ u^{'}_i= \frac{u_i}{\sqrt{eigenValue(u_i)}}$$ که $u_i$ یکی از بردارهای ویژه است (یعنی یکی از مؤلفه‌های اصلی) . سپس با آن بردار جدید، من فرض می‌کنم که آنها داده‌های خامی را که ما داریم، نشان می‌دهند، مثلاً $x^{(i)}$ به $z^{(i)}$. بنابراین نقاط پیش‌بینی‌شده اکنون عبارتند از: $$ z'^{(i)} = u^{'}_i \cdot x^{(i)}$$ آنها ادعا می‌کنند که انجام این کار تضمین می‌کند که همه ویژگی‌ها واریانس یکسانی دارند. . با این حال، من حتی مطمئن نیستم که تفسیر من از معنای آنها از کروی درست است یا خیر و می‌خواستم بررسی کنم که آیا درست است یا خیر. درضمن حتی اگه درست بود همچین کاری چه فایده ای داره؟ من می دانم که آنها ادعا می کنند که مطمئن می شود همه واریانس یکسانی دارند، اما چرا ما می خواهیم این کار را انجام دهیم و چگونه به این هدف می رسد؟
«PCA (تجزیه و تحلیل مؤلفه اصلی) داده‌ها را به صورت کروی در می‌آورد» به چه معناست؟
82895
من دو مجموعه داده دارم که آزمون های فرضیه نشان داده اند که نرمال و از توزیع یکسانی هستند. من از MATLAB استفاده می‌کنم و برای روشی که آنها مقادیر p را می‌دهند، p-مقدارهای بالاتر نشان می‌دهد که مطابقت بهتری دارد. من می خواهم این دو مجموعه داده را با هم ترکیب کنم تا پارامترهای مجموعه داده ترکیبی را بدست بیاورم. با این حال، زمانی که من یک آزمون فرضیه را بر روی مجموعه داده های ترکیبی اجرا می کنم، آزمون های فرضیه یا فرض صفر نرمال بودن را رد می کنند یا همانطور که در آمار آزمون مشاهده می شود بسیار نزدیک می شوند. من به دنبال توضیح هستم اما نمی دانم از کجا شروع کنم. آیا کسی می تواند این موضوع را روشن کند؟
ترکیب داده های دو نمونه عادی نرمال نیست؟
88837
در اینجا یک تست ساده است که من روی MATLAB برای بررسی اعتبار الگوریتم تک پاس (آنلاین) برای محاسبه لحظه 3$ و لحظه $4$ اجرا کرده ام. randn('state',0); num2 = 0; num1 = 0; دلتا = 0; M1 = 0; M2 = 0; M3 = 0; M4 = 0; Xvec = صفر (1، 100000)؛ برای j = 1: طول (Xvec) X = 3 * randn (1); % الگوریتم تک گذر num2 = num1; num1 = num1 + 1; دلتا = X - M1; delta_n = دلتا / num1; delta_n2 = delta_n * delta_n; term1 = دلتا *delta_n * num2; M1 = M1 + delta_n; M4 = M4 + term1 * delta_n2 * (num1 * num1 - 3.0*num1 + 3.0) + ... 6.0 * delta_n2 * M2 - 4.0 * delta_n * M3; M3 = M3 + term1 * delta_n * (num1 - 2.0) - 3.0 * delta_n * M2; M2 = M2 + term1; Xvec(j) = X; پایان % مقادیر بدست آمده از Single Pass avg = M1; واریانس = M2 / (num1 - 1.0)؛ کشیدگی = (num1 * M4)/(M2 * M2) - 3.0; چولگی = sqrt(num1) * M3 / (M2^1.5); ٪ مقادیر مرجع avg1 = sum /length(Xvec); moment_2 = moment(Xvec, 2); moment_3 = moment(Xvec, 3); moment_4 = moment(Xvec, 4); الگوریتم آنلاین یک میانگین صحیح (avg = avg1) و واریانس (واریانس = moment_2) را ارائه می دهد. با این حال، مقادیر کشیدگی و چولگی به‌دست‌آمده از الگوریتم آنلاین، از لحظه‌های 3$ و 4$$ واقعی فاصله دارند. چه چیزی ممکن است اشتباه باشد؟ منبع
الگوریتم تک گذر برای کشیدگی
88832
من باید یک تعامل بین دو عامل پیوسته را برای تفسیر ترسیم کنم. من از تابع wireframe در بسته شبکه استفاده می کنم و مقادیر پیش بینی شده را از مدل با بهترین تناسب رسم می کنم. این مدل تا حدودی شبیه این است: out<-lmer(response~apples+pears+strawberry+mangoes+(angoes)^2+strawberry:mangoes+ (1|id),family=poisson) با این حال، اگر از مقادیر پیش بینی شده استفاده کنم از کل مدل، سطح وایرفریم متفاوت از زمانی است که من فقط از مقادیر پیش بینی شده از مدلی استفاده کنم که فقط شامل متغیرهایی باشد که برهم کنش دارند. (با حذف عبارت درجه دوم): out<-lmer(response~strawberry+mangoes+strawberry:mangoes+(1|id),family=poisson) این تفاوت آنقدر بزرگ است که باعث نگرانی شود، و من می خواهم بپرسم کدام یک روش بهترین تفسیر را از داده ها ارائه می دهد، و چرا سطوح آنقدر متفاوت هستند؟
چگونه می توان یک تعامل را از یک GLMM تجسم کرد: از کل مدل برای به دست آوردن مقادیر پیش بینی شده یا فقط عوامل در تعامل استفاده کنید؟
11351
توصیف این برای من بسیار سخت است، اما سعی می کنم مشکلم را قابل درک کنم. بنابراین ابتدا باید بدانید که من تا کنون یک رگرسیون خطی بسیار ساده انجام داده ام. قبل از اینکه ضریب را تخمین بزنم، توزیع $y$ خود را تماشا کردم. سمت چپ سنگین است. بعد از اینکه مدل را تخمین زدم، مطمئن بودم که یک باقیمانده انحرافی به چپ را نیز در QQ-Plot مشاهده می‌کردم، اما مطلقاً این کار را نکردم. دلیل این راه حل چه می تواند باشد؟ اشتباه کجاست؟ یا توزیع $y$ ربطی به توزیع عبارت خطا ندارد؟
چوله چپ در مقابل توزیع متقارن مشاهده شد
60323
فرض کنید $X$ یک متغیر تصادفی با هر توزیعی است که فقط مقادیر مثبت می گیرد. آیا نابرابری زیر می تواند برای ثابت های $c_2 >c_1 >0$ برقرار باشد؟ $$\text{Var}(Z^{c_2})/\text{E}[Z^{c_2}]^2 > \text{Var}(Z^{c_1})/\text{E}[Z ^{c_1}]^2$$ به عبارت دیگر: $$\text{E}[Z^{2c_2}]/\text{E}[Z^{c_2}]^2 > \text{E}[Z^{2c_1}]/\text{E}[Z^{c_1}]^2$$ جایی که $Z=X+1$. با تشکر فراوان از پاسخ شما
سوال در مورد مجذورات ضرایب تغییرات
11357
سوال در ابتدا در Stack Overflow ارسال شد. من می‌خواهم واریانس داده‌ها را در یک زمان معین محاسبه کنم که فرکانس ویژگی‌های شرطی و تصمیم را بدانم. در زمان $t$ هر ویژگی شرطی می تواند 3 مقدار ممکن داشته باشد در حالی که ویژگی تصمیم از دو کلاس تشکیل شده است. برای جزئیات بیشتر به تصویر زیر مراجعه کنید: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/XZnue.png) * چگونه می توانم واریانس این عکس فوری داده را محاسبه کنم؟ * کد نمونه یا یک الگوریتم بیشتر مورد استقبال قرار خواهد گرفت.
نحوه محاسبه واریانس سه یا چند ویژگی با فرکانس های شناخته شده
46075
آیا می توان خطای استاندارد یا فاصله اطمینان را به نمودار مقادیر پیش بینی شده در مقابل مشاهده شده به دست آمده از یک مدل رگرسیون چندگانه اضافه کرد؟ من معتقدم که چنین نمودارهایی را به عنوان یک خروجی در Statistica دیده‌ام، اما مطمئن نیستم که چگونه آنها را در R ایجاد کنم. معتقدم که راه حلی دارم (در زیر)، اما مطمئن نیستم که این کار را به درستی انجام داده‌ام. اساسا، من یک فریم داده جدید با متغیر پیش بینی در محدوده مقادیر ممکن ایجاد کرده ام. نگرانی من با چنین رویکردی این است که پیش‌بینی بر اساس ردیف‌های داده است و واقعاً به موقعیت‌هایی که متغیرها به‌طور تصادفی انتخاب شده‌اند نمی‌پردازد. با تشکر فراوان از کمک شما **مثال:** set.seed(1) n <- 200 x1 <- rnorm(n, mean=10, sd=3) x2 <- rnorm(n, mean=20, sd=5) e <- rnorm (n، میانگین=10، sd=3) y <- 5 + 2*x1 + 0.5*x2 + e متناسب <- lm(y ~ x1 + x2) خلاصه (برازش) #نقشه پیش‌بینی‌شده در مقابل مشاهده‌شده pred1 <- predict(fit, se.fit=TRUE) نمودار (pred1$fit ~ y) abline (0,1, col=8, lwd=2) #دنباله قاب داده جدید هر متغیر پیش بینی کننده در محدوده آنها df.new <- data.frame(x1=seq(min(x1), max(x1)،،،100)، x2=seq(min(x2)، max(x2)،،، 100)) pred2 <- پیش بینی (مناسب، df.new، se.fit=TRUE) #نقشه پیش بینی شده در مقابل مشاهده شده با فاصله خطای استاندارد؟ png(pred_vs_obs.png, width=6, height=6, units=in, res=200) plot(pred1$fit ~ y) abline(0,1, col=8, lwd=2) خطوط( pred2$fit+1.96*pred2$se.fit ~ pred2$fit، col=2، lty=2، lwd=2) خطوط (pred2$fit-1.96*pred2$se.fit ~ pred2$fit, col=2, lty=2, lwd=2) dev.off() ![شرح تصویر را اینجا وارد کنید](http://i.stack .imgur.com/AgUkO.png) **ویرایش:** کد زیر در مورد تردید من با روشی که استفاده کردم توضیح می دهد. رابطه بین خطای استاندارد (SE) و y دقیق نیست. یعنی مقادیر مختلف y که نسبتاً نزدیک به هم هستند، دارای SE بسیار متفاوتی هستند (نمادهای سیاه در شکل زیر، «pred1»)، در حالی که روش بالا یک SE واحد را برای هر y پیش‌بینی‌شده پیش‌بینی می‌کند (نمادهای قرمز، «pred2»). علاوه بر این، با استفاده از چندین ترکیب مختلف از x1 و x2 که همیشه به یک مقدار y منجر می‌شوند، یک SE واحد (اما متفاوت!) دریافت می‌کنم (نماد سبز، «pred3»). اینجا چه خبر است؟ آیا روش صحیح تری برای انجام این کار با نوعی روش جایگشت وجود دارد؟ #؟ آیا راه حل های مختلف برای یک مقدار پیش بینی شده معین همیشه خطای استاندارد یکسانی را ارائه می دهند؟ y.tmp <- rep(40،20) x1.tmp <- seq(0.10، طول(y.tmp)) x2.tmp <- (y.tmp - fit$coeff[1] - fit$coeff[ 2]*x1.tmp) / fit$coeff[3] df3 <- data.frame(x1=x1.tmp، x2=x2.tmp) pred3 <- predict(fit, df3, se.fit=TRUE) YLIM <- range(pred1$se.fit, pred2$se.fit, pred3$se.fit) png(fit.se_vs_fit.png, width=6 , height=6, units=in, res=200) plot(pred1$se.fit ~ pred1$fit, ylim=YLIM, lwd=2) امتیازات(pred2$se.fit ~ pred2$fit, col=2, lwd=2) points(pred3$se.fit ~ pred3$fit, col=3, lwd=2) legend(topright, legend=c( «داده‌های مبدا»، «محدوده x1 و x2»، «شانه‌های مختلف x1 و x2 \nبرای رسیدن به y=40»)، col=1:3، pch=1، lwd=2، lty=0) dev.off() ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/4TcVs.png)
چگونه خطای استاندارد یا فاصله اطمینان را به نمودار مقادیر پیش بینی شده در مقابل مشاهده اضافه کنیم؟
65669
من داده های فیزیولوژیکی (فعالیت الکتودرمی) از چندین موضوع را دارم که به طور مداوم در طول یک کار با اجزای متعدد ضبط شده است. من علاقه مند به مقایسه این هستم که آیا پاسخ در هر جزء متفاوت است (به عنوان مثال: آیا پاسخ در قسمت D بزرگتر/متفاوت از قسمت A است). از نظر بصری، با عمیق‌تر شدن کار، روندی به سمت افزایش EDA وجود دارد. من به خودم تحلیل سریال های زمانی را یاد می دهم که براکول و دیویس را می خوانم. مشاور من پیشنهاد کرد که یک ANOVA با اندازه گیری های مکرر بر روی میانگین EDA در هر مؤلفه با شرکت کننده به عنوان تکرار اجرا شود تا ما احساسی از تأثیر اصلی مؤلفه داشته باشیم. سوال من این است: آیا انجام کاری خاص برای داده ها (به عنوان مثال، کاهش آن و غیره) قبل از محاسبه میانگین در اجزاء، عاقلانه است؟ علاوه بر این، (و من فکر می‌کنم فراگیرتر) پیشنهاد مشاور من برای مقایسه مولفه‌ها حس عملکردی دارد (RM ANOVA). اگر این چیزی جز سری زمانی بود، من اینطور فکر می‌کردم، اما من تازه وارد TS هستم، بنابراین هر توصیه‌ای مفید خواهد بود. من این کار را عمدتاً در R انجام می دهم اما به SAS نیز دسترسی دارم. با تشکر از هر کمکی که هر کسی می تواند داشته باشد.
مقایسه اجزا در یک سری زمانی واحد (داده های فیزیولوژیک)
69329
من اخیراً هنگام تلاش برای حل مشکلی که در زیر توضیح خواهم داد، منحنی های اصلی را کشف کردم. اصل منحنی های اصلی این است که یک نقطه ابر را برای یافتن مسیری که در امتداد آن نقاط در حال اجرا است، قرار دهیم. هدف من این است که از چیزی شبیه به این استفاده کنم تا مجموعه ای از ردیابی های GPS را در امتداد یک جاده قرار دهم، به طوری که نتیجه یک تقریب آماری از جاده واقعی (یا به طور دقیق تر، منطقه ای از جاده است که در آن افراد - دوچرخه سواران در این مورد - در واقع سوار شوید، که به احتمال زیاد خطوط جانبی و شانه های جاده خواهد بود). مشکل این است: در حالی که تجزیه و تحلیل منحنی های اصلی کلاسیک مجموعه نقطه را دارای _نقاط_ مستقل در نظر می گیرد، من معتقدم که بهتر است هر _Track_ را متشکل از _بردارهای_ وابسته_ در نظر بگیریم. به عنوان مثال، هنگام استفاده از نقاط، یک قطعه مسیر با نرخ نمونه‌برداری بالا ممکن است در مقایسه با قطعه دیگر با نرخ نمونه‌گیری پایین‌تر، یک سوگیری ایجاد کند، اگرچه هر یک از آنها تنها یک مسیر را توصیف می‌کنند، و به جای آن، من بیشتر علاقه‌مندم که مسیرها را با یکدیگر وزن کنم. از امتیازات فردی (در ضمن، آیا این منطق من منطقی است؟) من در سایت Gis.StackExchange با چند تصویر معرف یک سوال در همین موضوع، اما با فرمول متفاوت ارسال کردم: http://gis.stackexchange.com/ سوالات/70623/چگونه-آمار-راه-واقعی-را-از-مجموعه-تراک-gps-را-محاسبه-کنم-ممنون که مطالعه کردید!
آیا می توانم از تجزیه و تحلیل منحنی های اصلی برای جا دادن یک ابر برداری به جای ابر نقطه ای استفاده کنم؟
60496
من عذرخواهی می‌کنم اگر این سؤال برای این انجمن خیلی ساده است، اما... اگر می‌خواهم یک شبکه عصبی یا سایر پیش‌بینی‌های مبتنی بر یادگیری ماشینی بسازم که چه کسی در یک بازی فوتبال برنده خواهد شد و با چه تعداد امتیازی که این و آن ورودی داده می‌شود. من از امتیاز واقعی بازی های گذشته به عنوان پاسخ صحیح شبکه عصبی خود برای اهداف آموزشی استفاده می کنم. به عنوان مثال اگر از درصد برد هر تیم برای پیش بینی برندگان استفاده کنم. من ممکن است موارد زیر را داشته باشم: [Pct Win Team Home] [VisitingvTeam Win Pct] [Home Team Win Margin (امتیاز)] 50% 45% +2 50% 75% -6 .... ..... ... ... و غیره از بازی های گذشته - من ممکن است 10 سال اطلاعات بازی داشته باشم. آیا می توانم از تفاوت نقطه نتیجه واقعی ([حاشیه برد تیم خانگی]) به عنوان پاسخ صحیح برای اهداف آموزشی استفاده کنم؟ از آنجایی که من هیچ راهی برای دانستن اینکه آیا این دو تیم 100 بار در شرایط دقیق یکسان بازی کرده‌اند، در صورتی که میانگین برد برنده +2 باشد یا عدد دیگری وجود ندارد، زیرا برای یک نتیجه بازی معین، من فقط یک اندازه نمونه دارم. یا معیار دیگری برای پاسخ صحیح وجود دارد که باید به جای آن از آن استفاده کنم؟ من مطمئنا نمی توانم به یکی از آنها فکر کنم. با تشکر از کمک شما.
یادگیری ماشینی - چه چیزی به عنوان پاسخ صحیح برای اهداف آموزشی استفاده شود
52230
من دو متغیر _Distance_ و _Slope_ دارم. اینها وارد یک مدل می شوند که منجر به یک متغیر _cost_ می شود. من دوست دارم تاثیر متغیرهای Distance و Slope را بر روی متغیر Cost بفهمم. من چند صد عدد تست برای متغیرها دارم. از چه برنامه‌ها یا مراحلی می‌توانم استفاده کنم تا تأثیر دو متغیر بر هزینه را ببینم؟ در پایان می خواهم بدانم برای مثال _Distance_ بر متغیر _Cost_ بیش از 70 درصد تأثیر می گذارد. _تاثیر شیب _هزینه_ بیش از 30 درصد.
چگونه می توان به رابطه بین متغیرها پی برد؟
96848
من به دنبال شخصی هستم که با نرم افزار ITSM آشنا باشد. من داده هایی دارم که باید با مدل ARIMA/SARIMA مطابقت داشته باشد و سپس با استفاده از روش Holt-Winters/Seasonal پیش بینی شود. سپس باید آنها را با استفاده از RMSE و MAPE مقایسه کنم. من کاملاً با ITSM ناآشنا هستم و فقط در مورد دستورات مورد نیاز برای انجام هر یک از عملکردهای بالا به کمک نیاز دارم. کتابچه راهنمای ITSM که همراه با دانلود ارائه می شود چندان مفید نبود. اگر ITSM نقطه قوت شما نیست، آیا برنامه دیگری وجود دارد که به راحتی در دسترس باشد که همه این عملکردها را برای من انجام دهد؟
به دنبال کمک با نرم افزار ITSM (یا سایر نرم افزارهای مشابه) هستید
60327
هنگامی که صفات را در حین ساختن یک درخت تصادفی تقسیم می‌کنم، برای تعیین بهترین مقدار برای تقسیم درخت، از کسب اطلاعات استفاده می‌کنم. من گره ها را به درخت اضافه می کنم تا زمانی که یک معیار توقف برآورده شود. حداقل ارزش کسب اطلاعات برای استفاده به عنوان معیار توقف چقدر است؟
کسب اطلاعات در درختان تصادفی
97054
من می خواهم تنوع گروهی از اشیاء را اندازه گیری کنم. در حال حاضر من از فاصله اقلیدسی برای محاسبه ماتریس شباهت بین تمام اشیاء در گروه استفاده می کنم. من به دنبال معیاری از این تنوع هستم تا تصمیم بگیرم که آیا جایگزینی عنصری از این ماتریس با عنصری جدید، گروه را کم و بیش همگن می‌کند یا خیر. من آرزو دارم در نهایت به ناهمگن ترین گروه برسم. البته، اگر از زاویه نادرستی به این موضوع نگاه کنم، من برای رویکردهای دیگری آماده هستم. اگر از نظر محاسباتی کارآمد باشد، امتیاز جایزه.
استفاده از ماتریس شباهت برای اندازه گیری تنوع یک گروه
103286
من در مورد آزمایشات زیر می دانم: * Mantel-Haenszel برای داده های طبقه بندی طبقه بندی شده * Kruskal-Wallis برای ANOVA ناپارامتریک برای بیش از دو تیمار * فریدمن برای نسخه اندازه گیری مکرر Kruskal-Wallis * van Elteren برای مقایسه ناپارامتری داده های طبقه بندی شده بین دو تیمار اما آیا چیزی وجود دارد که ویژگی های اینها را ترکیب کند؟ به عبارت دیگر، من به دنبال آزمایشی هستم که داده‌ها را برای تیمارهای آزمایشی $g$، جمع‌آوری شده در لایه‌های $q$، که در آن پاسخ نمی‌تواند از توزیع پارامتری تبعیت کند، بگیرد و می‌خواهم تفاوت در درمان را آزمایش کنم. اثر در حین کنترل مخدوش کننده(هایی) که من در آنها طبقه بندی کردم. حجم نمونه کوچک است. اگر چنین آزمایشی وجود نداشته باشد (من نتوانستم هیچ مرجعی را در ادبیات پیدا کنم)، پس آیا می توانیم به نوعی بوت استرپ ناپارامتری یا روش مونت کارلو متوسل شویم؟ چگونه می توانیم چنین رویه ای را طراحی کنیم؟
تعمیم ون الترن به بیش از دو درمان
82897
![The Conjugate Beta Prior](http://i.stack.imgur.com/4dw9Z.jpg) سلام. من با تلاش برای کشف این اثبات که نشان می دهد توزیع بتا مزدوج با توزیع دو جمله ای است (تصویر پیوست) مشکل دارم. تا ردیف سوم فهمیدم ولی با این مرحله از ردیف سوم تا چهارم گیج شدم. من از یک توضیح ساده سپاسگزارم. پیشاپیش از شما متشکرم.
اثبات قبلی بتای مزدوج
103280
من در حال تلاش برای پروژه ای هستم که در آن نیاز به رتبه بندی آماری ماشین های موجود بر اساس چندین متغیر مانند هزینه، mpg، صندلی، مایلاژ و غیره دارم. من می خواهم این ماشین ها را رتبه بندی کنم تا تصمیم بگیرم که کدام ماشین بهترین انتخاب باشد (بالاترین ارزش) برای خرید (یا بهترین خودروها را اگر به چندین نفر از بهترین خودروها اطلاع می دادم) بخرم. از آنجایی که لیست خودروهای موجود روز به روز تغییر می کند، من نیز باید هر روز کد را دوباره اجرا کنم تا رتبه بندی بهترین تصمیم را برای این روز جدید به من بدهد. برای رفتن به این سیستم رتبه بندی از چه روش های آماری استفاده کنم؟ من تصمیم دارم تعیین کنم که کدام عوامل مهمتر هستند تا متغیرهای مورد استفاده در انتخاب ذهنی باشند. من به آزمایش MDS یا خوشه‌بندی فکر می‌کردم، اما نمی‌دانستم که این موضوع مرتبط است یا نه، زیرا از قبل به صورت ذهنی تعیین می‌کنم که چه متغیرهایی باید استفاده شوند. نمی‌دانم چگونه می‌توان از رگرسیون استفاده کرد، زیرا نمی‌توانم به ارزش خودروهای قبلی دست پیدا کنم، زیرا سعی می‌کنم بر اساس آن رتبه‌بندی کنم. همچنین، من این کار را در R انجام خواهم داد، بنابراین دانستن هر بسته/عملکرد مفید نیز عالی خواهد بود. هر گونه کمکی در مورد نحوه انجام این طرح رتبه بندی مفید خواهد بود زیرا من در ضرر هستم. خیلی ممنون
برای دستیابی به رتبه بندی آماری از چه روش(هایی) باید استفاده کنم؟
64130
من می‌خواهم وزن‌های نمونه را در مدل رگرسیون چندکی خود لحاظ کنم، اما مطمئن نیستم که چگونه این کار را انجام دهم. من قبلاً وزن خود را تعریف کرده ام، که وزن های تکراری هستند که قبلاً در مجموعه داده نظرسنجی (محاسبه شده در بسته نظرسنجی) ارائه شده است: w<-svrepdesign(variables=data[,1:10],repweights=data[,11:30],type =BRR، combination.weights=TRUE، weights=r.weights، rho=0.5,dbname=) و مدل rq من این است: rq(y~x,tau=c(.1,.2,.3,.4,.5,.6,.7,.8,.9),data=my.data)) سعی کردم از ` با عملکرد Replicates، اما بدون موفقیت. پیشنهادی دارید؟
وزن در رگرسیون کمی برای پیمایش پیچیده در R
52237
من از تابع 'cpgram' در R برای تولید پریودوگرام تجمعی یک سری زمانی ماهانه استفاده می کنم. محور افقی آن عددی بین 0 و 6 است که به عنوان فرکانس برچسب گذاری شده است: این اعداد به چه معنا هستند، زیرا فرکانس در پریودوگرام تجمعی باید بین 0 تا 0.5 باشد مانند موارد زیر (بالا)؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Gs4O2.jpg) همچنین، آیا می دانید چگونه می توانم پریودوگرام های تجمعی مانند این نمودارها را ایجاد کنم؟
چگونه پریودوگرافی تجمعی را تفسیر کنیم؟
52235
من مشکلی دارم که قابل حل به نظر می رسد، که سعی خواهم کرد آن را با نامگذاری احتمال توپ های کلاسیک و سطل توضیح دهم. تصور کنید کسی برای شما کیسه ای از توپ های رنگی آورده است. این نمونه به طور تصادفی از یکی از سطل های بزرگ توپ انتخاب شد. هر سطل شامل 1000000 توپ است و هر توپ یکی از 1000 رنگ است. برای هر سطل، نسبت توپ برای هر رنگ ثابت است، و ما می دانیم که چیست. به عنوان مثال، سطل A همیشه 0.02 قرمز، 0.013 سبز، 0.009 آبی، و غیره دارد. بنابراین - چگونه می توانم تخمین بزنم که نمونه توپ ها از کدام سطل آمده است؟ من می دانم که اگر یک کیسه (نمونه) 1000000 توپ داشته باشم، همانطور که نسبت ها مشخص شده است می توانم بدون ابهام بگویم که از کدام سطل آمده است. با این حال، اگر فقط 2000 توپ در نمونه داشته باشم، چه کار کنم؟ به نظر من باید بتوانم بطور کاملاً مشخص احتمال اینکه نمونه از یک سطل خاص آمده است را محاسبه کنم. هر گونه کمکی بسیار قدردانی خواهد شد! من این کار را با کد (احتمالا پایتون) انجام خواهم داد. با احترام، دن
اختصاص یک مجموعه نمونه به یکی از چند جمعیت بر اساس ترکیب
97051
طبق برخی مقالات (به عنوان مثال در اینجا) همبستگی فقط یک نسخه متمرکز از شباهت کسینوس است. من از کد زیر برای محاسبه ماتریس تشابه کسینوس بردارهای ستون یک ماتریس «X» استفاده می‌کنم (کمی تغییر یافته از اینجا): cos.sim <- function(ix) { A = X[,ix[1]] B = X[,ix[2]] return(t(A)%*%B/sqrt(sum(A^2)*sum(B^2))) } n <- ncol(X) cmb <- expand.grid(i=1:n، j=1:n) C <- ماتریس(apply(cmb,1,cos.sim),n,n) **سوال من** کدام اصلاحات در کد بالا مورد نیاز است برای به دست آوردن ماتریس همبستگی «cor(X)» به جای ماتریس شباهت کسینوس. من حدس می زنم تغییرات حداقل هستند اما در حال حاضر نمی توانم آنها را ببینم.
ایجاد ارتباط بین شباهت کسینوس و همبستگی در R
103281
من می خواهم میانگین های همان گروه را در دو مقیاس پیوسته مقایسه کنم. می‌خواهم ببینم که آیا نمرات در ترازو تفاوت قابل توجهی دارند یا خیر. از کدام آزمون آماری برای این کار استفاده کنم؟
چگونه میانگین های یک گروه را روی دو متغیر پیوسته مقایسه کنم؟
82725
فرض کنید $X$ و $Y$ هر دو به طور معمول توزیع شده اند، با $X \sim \mathcal{N}(0,1)$ و $Y \sim \mathcal{N}(c,1),$ که در آن $c > 0 دلار $n$ قرعه کشی مستقل از $X$ و $Y$ را در نظر بگیرید. به عنوان $n \rightarrow \infty,$ احتمال اینکه حداکثر نمونه تساوی $Y$ از حداکثر برای $X$ بیشتر باشد چقدر است؟
حداکثر دو نمونه گاوسی را مقایسه کنید
90588
من سعی می کنم یک مدل برای پیش بینی قیمت برق، یک مدل سری زمانی با R بسازم و چند سوال دارم داده های ما قیمت روزانه 3 سال گذشته از کشورهای استخر شمالی است و ما در تلاش هستیم مدلی برای پیش بینی انجام دهیم. قیمت های روز هم ما نمی دانیم چگونه فصلی بودن داده های خود را تجزیه کنیم، زیرا تمام آزمایش ها و مطالعات باید روی داده ها بدون فصلی انجام شود. از طرف دیگر، ما برای درک مدل ARIMA یا ARMA مشکلاتی داریم، زیرا مدلی است که می خواهیم اعمال کنیم و نمی دانیم چگونه آن را در R انجام دهیم. با تشکر و متاسفم برای انگلیسی بد من.
پیش بینی قیمت روزانه برق
64134
در حال حاضر روی پایان نامه کارشناسی ارشد خود کار می کنم که در مورد بازده تعدیل شده ریسک در بازار REIT آسیا و اقیانوسیه است. هدف مقاله تعیین / یافتن متغیرهایی است که قدرت توضیحی را در مورد IV درک می کنند. برای تعیین این، من همچنین یک رگرسیون FE بر اساس کشورها انجام دادم. نتایج کم و بیش با FE برای کل نمونه (با firmID به عنوان ساختگی) و رگرسیون OLS مطابقت دارد. نکته شگفت‌انگیز در واقع این است که برای کل دوره نمونه (بنابراین هنوز هم با مدل‌های کشوری) برخی از متغیرها بی‌اهمیت به نظر می‌رسند، در حالی که برعکس، اگر نمونه به 2 دوره فرعی تقسیم شود، نشان می‌دهد که دارای معنی‌داری هستند. تاثیر در هر دو دوره به نظر من این نسبتاً عجیب است که یک متغیر برای هر دو دوره فرعی مهم است، اما این کار را برای کل دوره نمونه انجام نمی دهد. دلیل این امر چه می تواند باشد؟ آیا این یک مشکل آماری است یا بیشتر باید در جهت مالی بیشتر جستجو کنم؟ برای کسانی که سابقه مالی دارند، متغیرهایی که این الگو را نشان می دهند عبارتند از: سرمایه بازار، نسبت قیمت به دفتر و بازده سود سهام. من نتیجه رگرسیون FE را برای بازار استرالیا بارگذاری کرده ام. امیدواریم که این کار روشنگری کند. کمک بسیار قدردانی می شود! PS. آزمون لاگرانژ و هاسمن مدل FE را ترجیح داد. رگرسیون کل نمونه ![](http://www.freeimagehosting.net/newuploads/pyjot.png) دوره فرعی 1; ![](http://www.freeimagehosting.net/newuploads/d3ull.png) دوره فرعی 2; ![](http://www.freeimagehosting.net/newuploads/betwt.png)
نتایج غیر قابل توجه اثر ثابت
97050
من در حال بررسی این مقاله تخمین چگالی سری متعامد هستم. من در ادامه شک دارم فرض کنید که متغیر تصادفی X روی [0، 1] پشتیبانی می شود، یعنی P(X ∈ [0، 1]) = 1، و چگالی احتمال f از X مربع انتگرال پذیر است. سپس چگالی را می توان با هر دقت دلخواه با یک جمع جزئی $f_J(x) تقریب زد :=\sum_{j=0}^J \theta_j \varphi_j(x), 0\le x\le1$ در اینجا $\{\ varphi_j\} $ مبنای کسینوس $ \varphi_0(x)=1، \varphi_j(x)=\sqrt 2 است cos(\pi j x), j=\{1,2,\cdots\}$ $\theta_j$ ضریب $j_{th}$ و $J$ نقطه برش است توجه داشته باشید که $\theta_0=\int_0 ^1f(x) dx=1$ همچنین $\theta_j=\int_0^1 \varphi_j(x) f(x) dx= E\{\varphi_j(x)\}$ این نشان می‌دهد که $\theta_j$ را می‌توان توسط تخمین‌گر میانگین نمونه تخمین زد. $\hat{\theta}=n^{-1}\sum_{l=1}^n \varphi(X_l)$ $Var(\hat{\theta_j})=E(\hat{\theta}-\ تتا)^2$ $=n^{-1}[1+2^{-1/2}\theta_{2j}-\theta_j^2]=n^{-1}d$ با استفاده از $cos^2(\alpha)=(1+cos(2\alpha))/2$ در اینجا d به عنوان ضریب سختی تعریف می شود. شک من در مرحله آخر است $E(\hat{\theta}-\theta)^2=n^{-1}[1+2^{-1/2}\theta_{2j}-\theta_j^2] $ من فکر می کنم $E({\hat{\theta_j}^2}-2\hat{\theta_j}{\theta}+{\theta}^2)=E({\hat{\theta_j}^2}-{\theta }^2)$ اگر فرض کنیم نقاط iid رسم شده باشند $E(\varphi(x_l)،\varphi(x_m))=E(\varphi(x_l))E(\varphi(x_m))$ بنابراین $E((\sum_{l=1}^n\varphi(x_l))^2)=E(\sum_{l=1}^n\varphi(x_l)^2+2*\sum_{l,m =0}^n\varphi(x_l)\varphi(x_m))$ $=E(\sum_{l=1}^n\varphi(x_l)^2)+2*E(\sum_{l,m=0}^n\varphi(x_l)\varphi(x_m))$ $E({\hat{\theta_j}^2})=n^{-2}[n(1+2^{-1/2}\theta_{2j})+\big(n(n-1) /2\big)2*{\theta_j}^2]$ $E({\hat{\theta_j}^2})=n^{-1}[1+2^{-1/2}\theta_{2j}+(n-1){\theta_j}^2] $ لطفاً اگر درک من درست است به من اطلاع دهید
تخمین چگالی سری متعامد
46078
من یک تحلیل عاملی از یک سازه (یعنی تفاوت بین دو کشور) انجام داده‌ام و دو عامل متمایز (1 = تفاوت‌های فرهنگی، 2 = محیط اقتصادی) بدست آورده‌ام. من نمرات را استخراج کردم زیرا می خواهم بررسی کنم که آیا امتیاز تفاوت های فرهنگی بیشتر از اقتصادی است یا خیر. چگونه این کار را انجام دهم؟ من سعی کردم یک آزمون T ساده بسازم اما نتیجه خوبی به دست نمی آورد، زیرا نمرات فاکتور استاندارد شده و میانگین فاکتورها 0 است (S.Dev=1). چه رویکردی باید انجام دهم؟
مقایسه ارزش دو عامل