_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
37758
|
من در حال حاضر در حال تلاش برای خوشهبندی انواع تغییرات در تصاویر ماهوارهای چندطیفی دو زمانی هستم. من چیزی به نام تبدیل دیوانه را روی هر دو تصویر اعمال کردم، باندهای 5000 x 5000 پیکسل. هر نوار یک متغیر است زیرا اطلاعات تابشی از طیف متفاوتی از نور است. این تبدیل اساساً معادل PC است که برای تفریق هر دو تصویر اعمال می شود. به طور طبیعی می توانم تا 5 جزء دیوانه را دریافت کنم. اکنون می خواهم ... دقیقاً این ... انواع تغییرات را در این اجزا پیدا کنم. اگر من از K-means روی مولفه ها استفاده کنم، از فاصله اقلیدسی استفاده می کنم، اما فقط می خواستم بدانم استفاده از فاصله mahalanobis در صورت وجود چه مزیتی می تواند داشته باشد... فقط کنجکاو هستم. با سلام و پوزش برای ارسال چنین سوال وحشتناکی قبلا. من در واقع فقط یک نوع مرور کلی از هر دو گزینه را می خواستم. جولیان.
|
K-به معنای فاصله ماهالانوبیس در مقابل اقلیدسی است
|
8142
|
آیا یک شکل تحلیلی برای فاصله هلینگر بین توزیع های فون میزس وجود دارد؟
|
آیا یک شکل تحلیلی برای فاصله هلینگر بین توزیع های فون میزس وجود دارد؟
|
104335
|
من دستیار تحقیق آزمایشگاه (داوطلب) هستم. من و یک گروه کوچک وظیفه تجزیه و تحلیل داده ها را برای مجموعه ای از داده های استخراج شده از یک مطالعه بزرگ بر عهده داریم. متأسفانه دادهها با نوعی برنامه آنلاین جمعآوری شدهاند و برای خروجیگیری دادهها در قابل استفادهترین شکل برنامهریزی نشده بودند. تصاویر زیر مشکل اساسی را نشان می دهد. به من گفته شد که به این می گویند Reshape یا Restructure. سوال: بهترین فرآیند برای رفتن از تصویر 1 به تصویر 2 با مجموعه داده های بزرگ با بیش از 10 هزار ورودی چیست؟  
|
بهترین راه برای تغییر شکل/تغییر ساختار داده چیست؟
|
30763
|
چگونه می توان دقت خروجی یک مدل ریاضی قطعی را ارزیابی کرد؟ به عنوان مثال، یک مدل آب و هوا می تواند میانگین دمای سالانه (MAT) را برای یک مکان خاص پیش بینی کند. من می توانم از مدل برای پیش بینی سی سال MAT در شهر نیویورک، $T_\text{model}$ استفاده کنم. حالا فرض کنید من MAT مشاهده شده در شهر نیویورک را برای همان 30 سال، $T_\text{obs}$ دارم. آیا آزمون آماری برای فرضیه $T_\text{obs}=T_\text{model}$ وجود دارد؟ آیا می توانم دقت مدل ریاضی را ارزیابی کنم؟
|
ارزیابی صحت یک مدل ریاضی قطعی
|
30762
|
مدل های من به این صورت هستند: lme1 = lme(y~X+Y+V، تصادفی=~1|موضوع، داده=mydata، روش ==ML) lme2 = lme(y~X+Y+V2+V3، تصادفی= ~1|موضوع، داده=mydata، روش =ML) lme3 = lme(y~X+Y+V4، تصادفی=~1|موضوع، داده=mydata، روش =ML) که در آن X و Y عوامل هستند، اما V، V2، V3، و V4 متغیرهای پیوسته هستند (مدلسازی شده به عنوان متغیرهای کمکی). من از روش ML استفاده می کنم به این امید که بتوانم مقادیر احتمال را در بین مدل ها مقایسه کنم. سوال تحقیق من به این مربوط می شود که آیا V4 (در lme3) پیش بینی بهتری از V2 و V3 با هم بود، V2+V3 بهتر از V و غیره بود. آیا می توانم از مقادیر AIC برای مقایسه مدل های مجموعه های مختلف پارامترها استفاده کنم؟ من همچنین برخی از مراجع را در مورد محاسبه $R^2$ برای مدل های ترکیبی پیدا کرده ام. به ویژه، من به آزمون نسبت درستنمایی $R^2$ علاقه مند هستم (Magee, 1990) که با مقایسه هر یک از این مدل ها با مدل تهی، R^2$ را محاسبه می کند. با استفاده از این روش، من میخواهم هر سه مدل خود را با یک مدل تهی یکسان با «y~1» مقایسه کنم. آیا این یک رویکرد معتبر برای مقایسه $R^2$s تولید شده است؟ من یک آماردان نیستم، اما می خواهم از یک معیار معتبر (حداقل قابل توجیه) برای تحلیل خود استفاده کنم. هر گونه بازخورد بسیار قدردانی خواهد شد.
|
انتخاب مدل برای مدلهای مختلط خطی بر روی مجموعههای پارامترهای جایگزین (تابع nlme در R)
|
12924
|
من در نحوه برخورد با این موضوع، و به ویژه در مورد اصطلاحات، بسیار گم شده ام. بنابراین لطفاً به منابع اشاره کنید، نام سؤال من را اصلاح کنید، و غیره. با تشکر. من دوباره در دانشگاه از R استفاده کردم، نارنجی را نصب کردم. من در مورد MiniTab شنیده ام. من اکسل را نصب کرده ام. من به SQL Server 2008 w/ Analysis Services دسترسی دارم. این نفس جعبه ابزار من است. [من یک توسعه دهنده هستم، اما این تنها چیزی است که برای تجزیه و تحلیل آماری می دانم.] من در حال بازاریابی یک محصول هستم و مجموعه داده های کمی دارم. مشتریان: * Customer_id * کمپینی که روی آن کلیک کردند و تاریخ. * کمپین آنها در تبدیل، و تاریخ. * مقدار بیزی که با ما در سه ماهه اول 2010 انجام دادند * مقدار بیزی که در سه ماهه دوم 2010 با ما انجام دادند * مقدار بیزی که در سه ماهه سوم 2010 با ما انجام دادند ... و غیره کمپین ها: * روز هفته * زمان روز * نتایج ویژه: * تعداد خرید به ازای هر مشتری * ارزش خرید به ازای هر مشتری من به راحتی میتوانستم الگوها را حدس بزنم و آنها را آزمایش کنم. ببینید آیا هیچ دقتی وجود دارد. اما این بهترین استفاده از زمان نیست. آنچه من می خواهم بدانم چند چیز است... * رتبه بندی زمین های مختلف در اثربخشی آنها، و نشانه ای از تأثیر زمین بر نتیجه. * برای روز هفته و ساعت هم همینطور. * و، پیچیده تر -- کسب و کار قبلی آنها تا چه حد به افرادی که اکنون تبدیل می شوند مرتبط است؟ آیا این سرمایه گذاران کلان قبلی هستند که تبدیل می کنند؟ آیا آنها کسانی هستند که بیشترین محصول را می خرند؟ * و در نهایت، از بین تمام ویژگیهای بالا، چه رتبهای از نظر اهمیت به تبدیلها دارند؟ من فرض میکنم همه اینها چیزی شبیه یک R-squared دارند که «دقت» آنها را نشان میدهد. چگونه شروع کنم؟ چه خواندنی برای درک این موضوع ضروری است؟ آیا رویکرد/ابزاری وجود دارد که بتوانم از آن استفاده کنم که به من اجازه دهد نسخه اولیه این نوع تحلیل ها را [و چه نامیده می شود] به سرعت انجام دهم؟ من فقط به دنبال روندها و نکاتی هستم که در آن بهتر است انرژی خود را متمرکز کنیم. می تواند خشن باشد در نهایت، آیا کسی منبعی برای داده کاوی اولیه می شناسد؟ تحلیل؟ مخصوصا برای تبلیغات؟ بسیار موظف است،
|
بررسی اینکه چه ویژگیهایی از یک جمعیت باعث میشود که اشیا احتمال بیشتری برای انجام عمل خاصی داشته باشند
|
30764
|
من یک مجموعه داده دارم (x,y) که در آن x یک بردار n بعدی و y یک بردار m بعدی است. (m=3، n>2) هدف من یافتن بهترین چند جمله ای در x متناسب با مجموعه داده (x,y) است. بعد x بسیار بزرگ است (در حال حاضر 25 است)، و من نمی خواهم تمام احتمالات را به صورت دستی وارد کنم (یعنی x1*x3*x5، x1*x4*x6، ...). من می توانم از Matlab، Mathematica و R استفاده کنم. چگونه می توانم این کار را انجام دهم؟ همچنین، من علاقه مند هستم که پیشنهادات شما را در مورد مشکل زیر بشنوم: چگونه می توانم از بین نتیجه مرتبط ترین ضرایب را انتخاب کنم؟ (شاید x1*x2 بیشتر از x2*x3 مرتبط باشه) ممنون
|
بهترین رگرسیون چند جمله ای چند متغیره
|
8147
|
من تقریباً سؤال مشابهی دارم: چگونه می توانم مجموع متغیرهای تصادفی برنولی را به طور کارآمد مدل کنم؟ اما: (1) تعداد متغیرهای تصادفی برای جمع ~ N=20 (مورد 1) یا N=90 (مورد 2) است. (2) $p_i$ ~ 0.13 (مورد 1) (3) دقت مدل مبتنی بر قانون پواسون کافی نیست. (4) ما نیاز داریم که تقریبی ما به اندازه کافی خوب باشد تا مبالغ جزئی مانند اینها را نیز مدل کنیم: $\sum_{i=k,N}{X_i}$, ( $k=1,N$ ) (5) ما داده های تجربی برای هر $X_i$ وجود دارد. نمودار نشان می دهد که تقریباً وابستگی خطی برای $Pr(X_i=1)$ برای i=1,6 و سپس تابع تقریباً ثابت یا مقداری وابستگی خطی کوچک (برای i=7,20) وجود دارد. واقعاً در (3) مطمئن نیستم زیرا نابرابری Le Cam بسیار کلی به نظر می رسد... چه کلاسی از مدل را می توانیم امتحان کنیم؟
|
چگونه می توانم مجموع متغیرهای تصادفی برنولی را برای هر تعداد مجموع در مجموع جزئی به طور موثر تقریب کنم؟
|
37752
|
در کار شناسایی زبان، من این کار را انجام می دهم: 1. نمونه ای از داده های خود را بردارید. 2. درستی زمین را آماده کنید. 3. طبقه بندی کننده خود را بر روی این داده های نمونه آموزش دهید. نمونهبرداری نکرد (و احتمالاً تأیید متقابل) بگذارید بگوییم که من روی شناسایی زبان یک توییت کار میکنم. به دست آوردن حقیقت اصلی در این مورد سخت است (یا باید به صورت دستی توییت ها را با زبان صحیح آنها حاشیه نویسی کنم یا این کار را به صورت جمعی منبع نویسی کنم). بنابراین، کاری که من انجام دادم این بود که طبقهبندیکننده خود را بر روی متون موجود (مانند کتابهای الکترونیکی، مقالات خبری) زبانهای مختلف آموزش دهم. این **اشتباه آشکار** است - من در حال آموزش طبقه بندی کننده خود برای یک دامنه (متن بزرگ به خوبی نوشته) هستم اما آن را روی یک دامنه دیگر آزمایش می کنم (متن بالقوه کوچک درهم). با کمال تعجب، این با دقت 90 درصدی روی 400 توییت تگ شده دستی کار کرد. چگونه می توانم بدانم که اندازه نمونه ای که باید انتخاب کنم چقدر است (که در مورد من 400 است) که می تواند نشان دهد که طبقه بندی کننده همچنان در حدود 90 درصد برای یک میلیون توییت عمل می کند؟
|
اندازه گیری نمایندگی یک نمونه
|
7054
|
آیا می توانیم یک متاآنالیز از داده های 3 منطقه انجام دهیم؟ یک بیماری خاص با همان درمان درمان شد اما به طور کامل در 2 منطقه و نه چندان کامل در 1 منطقه اجرا شد. چگونه به تحلیل ادامه دهیم؟ بهترین روش برای تجزیه و تحلیل این داده ها چیست؟ داده ها مربوط به یک بیماری (موارد و مرگ و میر) به شرح زیر است: منطقه 1 منطقه 2 منطقه 3 مورد موارد فوتی موارد فوتی موارد مرده مجموع موارد فوتی 2006 2320 528 1484 108 73 3 3877 639 2007 3024 62174515 2008 3012 537 1920 53 3 0 4935 590 2009 3073 556 1477 40 246 8 4796 604 2010 3540 494 1460 26511 2760 7933 302 492 13 23394 3075 _**Updated_** اینها داده های منتشر نشده هستند.
|
متاآنالیز داده های 3 منطقه به مدت 5 سال
|
6990
|
چگونه می توانم تجزیه و تحلیل اندازه گیری های مکرر را با استفاده از R انجام دهم؟
|
اقدامات مکرر با استفاده از R
|
76517
|
من تازه برای امتحانم آماده میشوم، اما نمیدانم چگونه این مشکل را حل کنم: 1. پارچههای پنبهای پرس بادوام برای بهبود بهبودی از چین و چروک بعد از شستشو درمان میشوند. متأسفانه درمان باعث کاهش استحکام پارچه نیز می شود. یک مطالعه مقاومت شکستگی پارچههایی را که توسط دو فرآیند پرس بادوام تجاری پردازش شدهاند، مقایسه کرد. پنج نمونه از یک پارچه به طور تصادفی به هر فرآیند اختصاص داده شد. در اینجا داده ها، بر حسب پوند کشش لازم برای پاره شدن پارچه است. Permafresh: 29.9، 30.7، 30.0، 29.5، 27.6 Hylite: 28.8، 23.9، 27.0، 22.1، 24.2 ج) فرضیه صفر U1 = U2 را در برابر داده های دو طرفه تست کنید و یک بار دیگر بدون استفاده از داده های جایگزین دوطرفه. در نمونه Permafresh آیا این دو آزمون به نتایج مشابهی منجر می شوند؟ آیا می توانیم با خیال راحت نتیجه بگیریم که یک درمان به طور قابل توجهی قدرت شکستگی بالاتری نسبت به دیگری دارد؟ کمک واقعا قدردانی خواهد شد. خیلی ممنون
|
دو نمونه سوال مسئله
|
8146
|
آیا هیچ نهادی از اجرای Java Test McNemar اطلاعی دارد؟
|
اجرای آزمون مک نمار در جاوا
|
40783
|
فرمول رایج مدلهای رگرسیون چندسطحی/سلسله مراتبی $y = Xb + Zc + e$ است، که در آن $X$ یک ماتریس $n \times p$ از پیشبینیکنندههای سطح فردی $p$ است، $Z$ یک $n \times است. ماتریس q$ پیشبینیکنندههای سطح گروه $q$، $y$ یک بردار $n \times 1$ از مشاهدات در سطح فردی و $e$ عبارت خطا است. فرض کنید گروههای $J$ وجود دارند و پیشبینیکنندههای سطح گروه $q$ پیوسته هستند. من می خواهم بدانم چگونه می توان یک ماتریس طراحی کامل را از این فرمول بندی ساخت، به عنوان مثال برای اعمال یک الگوریتم بهینه سازی نزولی گرادیان. آیا این فرمول معادل یک ماتریس طراحی است که به صورت زیر ساخته شده است: ستونهای $p$ برای پیشبینیکنندههای سطح فردی، ستونهای $J$ از متغیرهای شاخص برای گروههای $J$ (برقهای مختلف)، ستونهای $pJ$ برای تعامل بین شاخصهای گروه و پیشبینیکنندههای سطح فردی (شیبهای مختلف)، و ستونهای $q$ برای پیشبینیکنندههای سطح گروه (به عنوان مثال، ستونهایی با مقادیر تکراری برای مشاهدات درون گروهی). آیا راه های جایگزینی برای ساخت ماتریس طراحی زمانی که تعداد گروه ها زیاد است ($J>10000$) برای کاهش تعداد پارامترها وجود دارد؟
|
ساخت ماتریس طراحی رگرسیون چندسطحی
|
8143
|
برای مثال، اگر «0011» را به عنوان مجموعه ای از بیت های شناخته شده $x$ داشته باشم، چگونه می توانم احتمال اینکه دنباله ای از بیت های تولید شده به طور تصادفی برابر با x$ باشد را تعیین کنم؟ با تشکر برای کمک! من مطمئن هستم که این یک سوال احمقانه است، اما احتمال همیشه نقطه ضعف من بوده است (که کلاس الگوریتم های من آن را برجسته می کند!). _EDIT:_ این چیزی است که من باید می پرسیدم: چگونه احتمال به دست آوردن 0011 به طور تصادفی در سمت چپ یک دنباله 8 بیتی را پیدا می کنید؟
|
چگونه می توان احتمال یک دنباله تصادفی از بیت ها را یک دنباله خاص محاسبه کرد؟
|
30766
|
من در تلاش هستم تا تأثیرات برش (33٪ و 66٪) و فصل (1، 2 و 3) را بر غنای گونه ای تجزیه و تحلیل کنم. من یک کنترل دارم (بدون برش، در هیچ فصلی) که مقادیر درون آن قرار گرفته اند. من در ساخت کد برای این مشکل دارم. این چیزی است که من مدیریت کرده ام: lmm1 <- lmer(Species_Richness ~ Seasonf + Clipf + (Seasonf|Controlf) + (Clipf|Controlf)، داده = داده) چگونه می توانم مدل خود را مشخص کنم؟
|
چگونه یک رگرسیون چندسطحی را با استفاده از تابع lmer در R مشخص کنیم؟
|
76512
|
من مطالعه ای انجام دادم که 6 عامل را ایجاد کرد. یکی از فاکتورها تنها 1 متغیر در 0.75 دارد و نزدیکترین عامل بعدی روی 0.54 است. به کلاس من گفته شد که فقط > 0.6 را برای تفسیر درج کند و بقیه را حذف کند. آیا می توان عاملی داشت که یک متغیر را نشان دهد؟
|
آیا می توان در تحلیل عاملی تنها یک بار عامل قوی به یک فاکتور داشت؟
|
86727
|
من می خواهم تحلیل علّی تغذیه را انجام دهم. اساساً هدف من شناسایی عوامل احتمالی مرتبط با سوء تغذیه حاد در کودکان زیر پنج سال در کشورهای در حال توسعه است. چه نوع عواملی با سوء تغذیه مرتبط است؟ چارچوب مفهومی مسیر تصادفی سوء تغذیه چگونه خواهد بود؟
|
تحلیل علّی
|
86728
|
من در شرف دریافت یک مجموعه داده برای رگرسیون چند متغیره هستم که در آن ما در حال تلاش برای یافتن $X\in\Re^{m\times n}$ هستیم که به بهترین نحو با تابع ضرر مطابقت داشته باشد $$\|AX-B\|_F^2 $$ که $A\in \Re^{l\times m}،B\in\Re^{l\times n}$. برای برخی اهداف دیگر، آنچه من تعجب می کردم این بود که نسبت های معمولی برای $A,X,B$ در اکثر مجموعه داده ها چیست؟ من به دنبال تخمین های پارک توپ هستم. من فرض میکنم که $A$ معمولاً بسیار بلند است، اما چند ستون دارد؟ $B$ چند ستون خواهد داشت؟ اگر مجموعهای از مجموعه دادههای رایگان موجود است که بتوانم با آنها بازی کنم، لطفاً لینک بدهید. من نتوانستم هیچ مجموعه داده صرفاً عددی را در مخزن UCI ML پیدا کنم.
|
مقیاس های معمولی رگرسیون چند متغیره کدامند؟
|
30765
|
Yates, Moore & McCabe در کتاب خود در سال 1999 تصریح کردند که بیش از 20 درصد از شمارش های مورد انتظار نباید کمتر از 5 باشد و همه شمارش های مورد انتظار فردی باید بیشتر از 1 باشند. آیا این بدان معناست که برای هر جدول احتمالی 2 در X که هیچ بیش از 20 درصد سلول ها باید کمتر از 5 باشند؟ بنابراین، برای یک جدول 2 در 5 بیشتر از 2 (2 خانه از 10 = 20٪) باید کمتر از 5 باشد؟
|
برای مجذور کای در هر جدول احتمالی 2 در X، نباید بیش از 20 درصد سلول ها کمتر از 5 باشند؟
|
40788
|
من سعی می کنم انتخاب متغیر را با استفاده از روش Elastic Net (تابع کمند Matlab با آلفای 0.5) انجام دهم. من در مجموع ۷۵ پیشبینیکننده دارم (بعضیها با یکدیگر همبستگی دارند، بنابراین از Elastic Net به جای کمند استفاده میکنیم)، و میخواهم زیرمجموعهای از آنها را دریافت کنم که پیشبینیکنندههای خوبی برای نتیجه من هستند. بنابراین سوال من این است: چگونه می توانم چیزی مانند R-Square را محاسبه کنم که نشان می دهد چه مقدار از نتیجه من توسط این متغیرهای انتخاب شده توضیح داده شده است؟ 1) اگر از متغیرهای انتخاب شده در یک مدل رگرسیون خطی چندگانه استفاده کنم، آیا R-Square معتبر خواهد بود، زیرا متغیرهای من همبسته هستند؟ 2) آیا می توانم R-Square معتبر متقاطع (با استفاده از leave-one-out) را برای بدست آوردن R-Square دقیق تر محاسبه کنم؟ 3) آیا راهی جز محاسبه R-Square وجود دارد که روش انتخاب متغیر من را به خوبی پیش بینی کند؟
|
محاسبه مربع R برای شبکه الاستیک
|
76518
|
با افزایش تعداد سطرها یا ستون ها، پیچیدگی زمانی مجانبی رگرسیون کمند چقدر است؟
|
پیچیدگی زمانی رگرسیون کمند چقدر است
|
72872
|
من نیاز به جمع آوری یک نمونه دو گروهی برای تجزیه و تحلیل مقایسه دارم (شاید با استفاده از رگرسیون لجستیک). جامعه ای که باید از آن نمونه استخراج کنم، همه شرکت هایی از کشور A با فعالیت در کشور B هستند. شرکت ها به دو دسته طبقه بندی می شوند: داشتن یک شرکت تابعه در کشور B (S)، یا نداشتن شرکت تابعه در کشور B (NS) ). من انتظار دارم که سهم شرکت های S نسبت به شرکت های NS کوچک باشد (اما راهی برای اطلاع دقیق ندارم). من در حال حاضر کل جمعیت شرکت های S را در اختیار دارم (زیرا این داده ها در دسترس من بود). با این حال، دادههای مربوط به شرکتهای NS به راحتی در دسترس نیست و من باید آنها را جمعآوری کنم، و احتمالاً برای شناسایی و جمعآوری همه شرکتهای NB دسترسی نخواهم داشت. بنابراین وضعیت من این است که کل جمعیت شرکت های S را دارم و باید تعداد کافی شرکت NS جمع آوری کنم تا تجزیه و تحلیل بعدی قابل توجه باشد. به احتمال زیاد نمونه نهایی من شامل تمام شرکت های S و بخشی از جمعیت شرکت های NS خواهد بود. بدون تجربه زیاد در انجام این نوع مطالعات، نمی توانم فکر کنم که در هنگام نمونه گیری از این طریق، نوعی سوگیری/قابلیت اطمینان وجود دارد (یک گروه: کل جمعیت گروه، گروه دیگر: بخشی از جمعیت گروه). من آموخته ام که _ if_ اتفاق می افتد که جمعیت شرکت های NS در واقع بسیار بیشتر از شرکت های S است (باز هم راهی برای دانستن بدون داده برای کل جمعیت شرکت ها وجود ندارد) و من به عنوان مثال. در نهایت با نمونه هایی با اندازه مشابه از هر گروه، موردی از نمونه برداری بیش از حد از گروه اقلیت وجود خواهد داشت. با این حال، من نمی توانم هیچ نکته ای را در جایی پیدا کنم که این مشکل را برای یک مطالعه مقایسه ای در نظر بگیرد، زیرا نمایش نمونه صحیح از کل جمعیت در این روش اهمیت کمتری دارد. آیا نگرانی من موجه است؟ یا انجام این کار برای مثال خوب است. رگرسیون لجستیک؟ اگر نه، چگونه می توانم مشکل را حل کنم؟
|
نمونه برداری مناسب - آیا می توانم یک نمونه دو گروهی را بدون مشکل از این طریق جمع آوری کنم؟
|
86726
|
من در مورد نمونهگیری طبقهای، نمونهبرداری 2 مرحلهای SRS و تخمین نسبت در جمعیتهای محدود مطالعه کردهام و یک سوال دارم. وقتی تخمینگر نسبت معرفی میشود، به نظر میرسد که برای اینکه بتواند به خوبی عمل کند، لازم است که جامعه از مدل زیر پیروی کند (که من آن را $\xi$ نشان میدهم): $$y_{ij} = \beta x_{ ij} + \epsilon_{ij}$$ با شرط اضافی که $E(\epsilon_{i,j}) = 0$ و $V(\epsilon_{i,j}) = \sigma^2 x_{i,j}$ که در آن $x$ به اطلاعات کمکی اشاره دارد. من از زیرنویسهای $i، j$ استفاده میکنم زیرا به این موضوع در زمینه خوشهها فکر میکنم. درک من از این موضوع به طور کلی این است: از دیدگاه مبتنی بر طراحی (شاید باید این را دیدگاه مبتنی بر طراحی به کمک مدل بنامم؟)، استنتاج در مورد تخمین نقطه نسبت بر اساس تمام نمونههای ممکن در طرح است (2). -stage SRS) و اصلا بر اساس این مدل نیست، اگرچه اگر این مدل توسط جمعیت برآورده شود، عملکرد بسیار بهتری را شاهد خواهیم بود. اگر در عوض این مدل را فرض کنیم (یعنی مسیر مبتنی بر مدل را انتخاب کنیم)، استنتاج بر اساس آن است و ما در واقع به درستی آن نیاز داریم. همانطور که من درک می کنم، این منجر به تخمین نقطه ای یکسان اما به طور بالقوه تخمین های واریانس متفاوت می شود، زیرا ما یا در حال تخمین واریانس روی همه نمونه های ممکن (مبتنی بر طراحی) یا بر روی همه جمعیت های ممکن قابل تحقق تحت این مدل با این پارامترهای مدل هستیم (یعنی $). \beta$ و $\epsilon_{i,j}$). همچنین خواهیم داشت که تخمین نسبت مبتنی بر طراحی و بیطرفانه مدل است. لطفا اگر هر یک از این اشتباه است، من را اصلاح کنید. سوال واقعی من اینجاست. وقتی به سمت نمونه گیری خوشه ای می رویم، به نظر نمی رسد که اصلاً به این مدل اشاره شود. همانطور که من متوجه شدم، اطلاعات کمکی اندازه خوشه ها است (مشخص شده $M_i$). اینکه رابطه از مبدأ عبور می کند، یعنی $y_{i,j} = 0$ if $M_i = 0$، به وضوح مشخص است، اما در مورد رابطه واریانس چطور؟ من نمیدانم که واریانس متناسب با اندازه خوشه در کجا ایجاد میشود. با این حال به نظر میرسد برآوردگر نسبت به عنوان یک انتخاب بسیار معقول (ساده) در نظر گرفته میشود، بنابراین به نظر میرسد که شرایط برای عملکرد خوب آن باید برآورده شود. هر گونه شفاف سازی بسیار قابل قدردانی خواهد بود.
|
مدل تخمین نسبت در نمونه گیری خوشه ای دو مرحله ای
|
14518
|
می خواستم بدانم که آیا بسته R برای انجام نمونه برداری چگالی بروز برای طرح مورد-شاهدی وجود دارد یا خیر. یعنی برای تطبیق در طرح مورد شاهدی. حسابداری برای چندین متغیر کمکی تطبیق.
|
نمونه گیری تراکم بروز در R
|
47838
|
ما تمرینی در کلاس آمار داشتیم که در آن یک تحلیل ANOVA کوچک انجام دادیم. ما در حال مقایسه بودیم که چگونه دو سطح یک عامل بر پاسخ تحت شرایط مختلف (ترکیبی از عوامل دیگر) تأثیر میگذارند. تحلیل من به درختی ختم شد که در آن یک برگ با هر شرایط مطابقت داشت و میتوانستم ببینم که فاکتور مورد علاقه من چگونه بر پاسخ تأثیر میگذارد. فهمیدن خروجی های R حتی در چنین موارد کوچکی کاملاً خسته کننده بود (و درخت در ذهن من بود). معمولاً از چه تکنیکهایی برای انجام «مقایسه سطح عامل» مانند این در حالت کلیتر با عوامل و سطوح زیاد استفاده میشود؟ (نمودارها و نتیجه گیری های بصری) آیا می توان آن را به ANCOVA تعمیم داد؟
|
روش های مقایسه سطح عاملی ANOVA
|
74973
|
Manyl و همکاران شاخصی به نام نسبت انتخاب استاندارد (SSR) تعریف کردند. منبع اینجاست. من کاملاً نمی دانم این شاخص چگونه محاسبه می شود و p.values چگونه محاسبه می شود. میشه کمکم کنید قسمت جالب از صفحه 40 کتاب شروع می شود (و چند صفحه بعد از آن به پایان می رسد). در زیر نمونه ای از مقاله ای است که در آن از این شاخص استفاده شده است. آنها شاخص SSR را توصیف کردند اما برای من نیز چندان منطقی نیست. * * * در این مقاله آنها از نسبت انتخاب استاندارد (SSR) استفاده کردند تا بدانند میزبان ترجیحی (شقایق) ماهی شقایق چیست. در اینجا نقل قولی از روش آنها آمده است: > میزبان ترجیحی شقایق ماهی با محاسبه > نسبت انتخاب استاندارد (SSR) (مقادیر بین 0 و 1) ارزیابی شد (Manly et al. > 1993). نسبت انتخاب استاندارد Manly نشان دهنده این احتمال است که > یک فرد از یک نوع زیستگاه خاص استفاده کند، با در نظر گرفتن > در دسترس بودن منابع مختلف. برای هر گونه شقایق ماهی ($i$) > ساکن یک گونه شقایق ($j$)، SSR به صورت زیر محاسبه شد: $$SSR = \frac{w_i}{\sum{w_j}} $$ که در آن $w_i = \frac{ o_i}{p_j}$ > $o_i$ فراوانی نسبی گونه شقایق ماهی $i$ و $p_j$ > فراوانی نسبی گونه شقایق است. $j$. مقادیر بالاتر SSR نشان دهنده > ترجیح قوی برای منبع انتخاب شده است. آماره Log- Likelihood > ($\chi^2$L) (Manly et al. 1993) برای بررسی اهمیت توزیع مشاهده شده > تحت یک فرضیه صفر انتخاب میزبان تصادفی استفاده شد.
|
درک فرمول نسبت انتخاب استاندارد (SSR)
|
6998
|
میانگین هندسی معیار مناسبی برای گرایش مرکزی برای متغیرهای توزیع شده نرمال است. با این حال، میانگین حسابی هنوز در رابطه با متغیرهای log-normal کاربرد دارد - برای مثال در استنباط کل از داده های نظرسنجی. درک من این است که میانگین حسابی نمونه یک توزیع لگ نرمال با میانگین حسابی جامعه یکسان است، با خطاهای معمولی که نمونه به اندازه کافی بزرگ باشد تا CLT فراخوانی شود. اگر از یک روش انتساب داده های گمشده ساده برای جایگزینی با میانگین استفاده می کنید، اگر از میانگین حسابی استفاده می کنید، میانگین هندسی را افزایش می دهید (و اهرم بالایی به داده های منتسب می دهید)، و اگر میانگین حسابی (و در نتیجه کل) را کاهش می دهید. از میانگین هندسی استفاده کرد. سوال من این است که چه چیزی برای استفاده مناسب تر است، میانگین هندسی یا میانگین حسابی؟ یا اینکه چنین روش انتساب ساده ای برای داده های log-normal کاملاً نامناسب است؟
|
میانگین و انتساب متغیرهای log-normal
|
38174
|
من میخواهم با استفاده از رویکرد راهاندازی، فرضیه فقدان اثر مداخله را در یک گروه شش نفره تأیید کنم: اندازهگیری قبل از (X) پس از مداخله (Y). شناسه دادههای من X Y 1 9.856 8.992 2 19.512 4.573 3 1.936 1.572 4 14.575 1.529 5 8.476 12.000 6 1.862 1.417 با استفاده از کد زیر برای آزمون R1 (2) نوشته شده است. دادههای جفت شده، که به جفتهای نمونهگیری مجدد متکی هستند: boot.p.value <- function(data, S) {boot.t.stat <- as.numeric() t.stat <- t.test(x=data[,1 ], y=data[,2], paired=TRUE)$statistic for(s in 1:S) { boot.data <- data[sample(1:nrow(data), replace=TRUE)،] ## جفت نمونه مجدد boot.t.stat[s] <- t.test(x=boot.data[,1],y=boot.data[,2], paired=TRUE)$statistic } p.value <- sum(1*(boot.t.stat >= t.stat))/S return(p.value) } Where: > boot.p.value(data, S=1000) [1] 0.518 هنگام تکرار، مقادیر p-value حاصل بین 4/0 و 6/0 باقی می ماند. برای همان داده ها نسخه SPSS را تنظیم کنید. 19 برای نمونه های جفتی آزمون t، p = 0.182 مبتنی بر بوت استرپ را برای 1000 نمونه مجدد ارائه می دهد. چرا این تفاوت؟
|
چرا تابع بوت استرپ من برای نمونه های جفت تست t در R نتیجه مشابه SPSS را بر نمی گرداند؟
|
86729
|
شنیده ام که $AR(1)$ را می توان به صورت $MA(\infty)$ نوشت. آیا می توان $AR(p)، p \in \mathbb N، p \ge 2$ را برای برخی از $q$ به صورت $MA(q)$ نوشت؟ با تشکر
|
آیا می توان مدل های AR را به عنوان مدل های MA نوشت؟
|
72875
|
فرض کنید من MRR را با یک GBM در R بهینه میکنم: library(gbm) generate.data <- function(N) { # ایجاد گروههای پرس و جو، با اندازه متوسط 25 مورد در هر num.queries <- floor(N/25 ) query <- sample(1:num.queries, N, replace=TRUE) # X1 متغیری است که فقط توسط گروه query تعیین می شود query.level <- runif(num.queries) X1 <- query.level[query] # X2 با هر مورد متفاوت است. X2 که با # پرس و جو مرتبط است، اما با موارد X2 <- X2 + scale(runif(num.queries))[query] # اضافه کردن مقداری نویز تصادفی برای هدف SNR <- 5 # نسبت سیگنال به نویز سیگما <- sqrt(var(Y)/SNR) Y <- Y + runif(N، 0، سیگما) Y <- ifelse(Y>متوسط(Y ), 1, 0) data.frame(Y, query=query, X1, X2, X3) } set.seed(10) data.train <- generate.data(1000) gbm.mrr <- gbm(Y~X1+X2+X3، # data formula=data.train، # توزیع مجموعه داده=list( # تابع ضرر: name='pairwise', # Pairwise Metric =mrr، # رتبهبندی معیار: max.rank=1، group='query')، # ستون نشاندهنده گروههای جستجو n.trees=2000، # عدد انقباض درختان=0.005، # نرخ یادگیری interaction.depth=3، # تعداد در هر تقسیم در هر کیسه درخت.کسری = 0.5، # کسری فرعی train.fraction = 1، # کسری از داده ها برای آموزش n.minobsinnode = 10، # حداقل تعداد obs برای تقسیم keep.data=TRUE، # ذخیره کپی از داده های ورودی در مدل cv.folds=5، # عدد از اعتبار سنجی متقاطع folds verbose = FALSE، # not print progress n.cores = 1) # از یک هسته ای استفاده کنید best.iter.mrr <- gbm.perf(gbm.mrr, method='cv') عنوان ('Training) مدل جفتی با متریک mrr') (کد از اینجا اقتباس شده است) این نمودار زیر را ایجاد می کند، که در آن خط سیاه MRR نمونه است و خط سبز MRR خارج از نمونه واضح است که GBM از MRR تقلید می کند: مدلی را با کوچکترین MRR خارج از نمونه (~0.3) انتخاب می کند:  من گیج شدم در مورد اینکه چرا gbm mrr را به حداقل می رساند. درک من این است که MRR 1 کامل است (بهترین سند اولین نتیجه است، 1/1=1) و MRR نزدیک به صفر بسیار بد است (به عنوان مثال بهترین سند نتیجه 1000 است، 1/1000 نزدیک به صفر است. ). آیا درک من از mmr درست است؟ اگر چنین است، پس چرا بسته gbm آن را به حداقل می رساند؟
|
میانگین رتبه متقابل با GBM در R
|
14516
|
فکر میکنم اصول اولیه راهاندازی را درک میکنم، اما مطمئن نیستم که بفهمم چگونه میتوانم از بوت استرپینگ برای انتخاب مدل یا جلوگیری از نصب بیش از حد استفاده کنم. برای مثال، برای انتخاب مدل، آیا فقط مدلی را انتخاب میکنید که کمترین خطا (شاید واریانس؟) را در نمونههای بوت استرپ داشته باشد؟ آیا متنی وجود دارد که در مورد نحوه استفاده از بوت استرپینگ برای انتخاب یا اعتبارسنجی مدل بحث می کند؟ **ویرایش:** این تاپیک را ببینید و پاسخ مارک999@ را برای زمینه بیشتر این سوال ببینید.
|
درک راهاندازی برای اعتبارسنجی و انتخاب مدل
|
112983
|
من سعی می کنم مدلی را در R قرار دهم که سانسور نداشته باشد. به عبارت دیگر، من می دانم که هر اتفاقی در نهایت رخ خواهد داد. چندین گروه آزمایشی وجود دارد که در هر گروه افراد تحت عمل جراحی قرار می گیرند. با این حال، هر گروه در تاریخ های مختلف جراحی را دریافت می کند. من فقط اطلاعاتی دارم که چه کسی مرده است. بنابراین، مجموعه دادههای من به صورت اتفاقی به نظر میرسد: > data.frame گروه شخص D = روز مرگ از زمانی که GROUP جراحی را انجام داده است سن 1 7 5 45 1 8 12 62 1 9 85 55 1 10 102 34 2 11 3 44 2 12 7 72 2 13 25 81 2 14 56 63 2 15 78 57 3 16 2 66 3 17 15 28 3 18 88 77 3 19 150 54 موارد فوق با داده های معمول تجزیه و تحلیل بقا متفاوت است زیرا روزهای تا مرگ به گروهی که یک فرد تعلق دارد بستگی دارد. به این معنی که هر فرد در یک گروه جراحی را در همان روز دریافت کرد، با تاریخ جراحی هر گروه احتمالاً با تاریخ جراحی گروه دیگر متفاوت است. همچنین، چیزی که در اینجا متفاوت است این است که من فقط داده هایی برای افرادی دارم که فوت کرده اند. از این رو، هیچ سانسوری وجود ندارد (من معتقدم). متغیر Age یک متغیر کمکی است. اگر بخواهم تابع خطر را به صورت نمایی مدل کنم، آیا انجام این کار در R منطقی است؟ به این معنی، اگر فکر میکردم تابع خطر به این صورت است: $h_i(t) = \beta_0 + \beta_1Age_i + \beta_2log(Age_i)$ که در آن log برای هر گونه اثرات لگاریتمی بالقوه است. و اگر تابع بقای من این بود: $S(t) = e^{-h_i(t)*t}$، آیا مدل R زیر این کار را انجام می دهد؟ `survreg(Surv(D) ~ Age+log(Age), data = data.frame, dist=exponential)` آیا من مشکلی دارم؟ من این را می پرسم زیرا این واقعاً مشکل تجزیه و تحلیل بقای استاندارد شما نیست. متشکرم!
|
آیا این مشکلی است که تجزیه و تحلیل بقا می تواند با آن مقابله کند؟ مشکل با مدت زمان محلی و داده های بدون سانسور سروکار دارد
|
72879
|
فرض کنید احتمال یک رویداد تصادفی بسیار کوچک است (این احتمال را $p$ بنامید). در زندگی واقعی، تصادفی واقعی غیرممکن به نظر می رسد. بنابراین آیا احتمال واقعی واقعی رویداد بیشتر از $p$ خواهد بود؟
|
تصادفی و احتمال
|
40780
|
همه، من سعی می کنم یک مدل رگرسیون ایجاد کنم که در آن نتیجه (پیوسته) چندوجهی باشد:  نتیجه قیمت خرده فروشی است یک محصول خاص، و قیمت ها در حدود مقادیر متمایز (750، 1000، 1250، 1500، و غیره) کاهش می یابد. با این حال، قیمت های کمی در این بین وجود دارد، بنابراین قیمت ها متمایز نیستند. من یک مدل خطی با نتایج رضایتبخش اجرا کردهام، اگرچه قیمتهای اضافی بین حالتها به من مکث میکند. من همچنین سعی کردم قیمت ها را به چند گروه که حالت ها را نشان می دهند کاهش دهم و تا حدودی خوب کار می کند. آیا راه بهتر یا بدتری برای این مدل وجود دارد؟ آیا روشی بهتر یا بدتر برای تعیین نتیجه وجود دارد؟ متشکرم
|
مدل رگرسیون با پیامد چندوجهی
|
76513
|
**به روز شده** من یک مجموعه داده با پنج متغیر پیوسته دارم که یک شاخص را در یک جمعیت اندازه گیری می کند. برای یافتن طبقه بندی های اساسی در جامعه بر اساس پنج متغیر مشاهده شده، من یک تجزیه و تحلیل پروفایل های پنهان (LPA) برای مدل دو و سه دسته با استفاده از هر پنج متغیر انجام دادم. وظیفه یافتن مقادیر برش برای هر متغیر به منظور طبقه بندی مشاهدات جدید است. بدون انجام کل روش سپس از طبقهبندی تولید شده از LPA برای یافتن وزنهای نسبی هر یک از پنج متغیر با استفاده از رگرسیون لجستیک (برای حل دو طبقهای) و چندجملهای (برای حل سهردهای) استفاده کردم. این برای یافتن سهم نسبی هر متغیر در طبقهبندی بود. مرحله بعدی یافتن مقادیر برش برای هر متغیر برای استفاده در آینده بود. برای یافتن مقادیر برش برای هر متغیر، با استفاده از رگرسیون لجستیک و تنظیم معادله رگرسیون برابر با 0.5 و سپس یافتن مقدار متناظر متغیر، میتوانم برش را برای هر متغیر در راه حل دو طبقهای پیدا کنم. به عبارت دیگر، از طبقهبندی پیشبینیشده توسط LPA به عنوان یک معیار (DV) برای هر متغیر در رگرسیون لجستیک. من از ROC استفاده نکردم زیرا به من نداد نتایج معقول سوال من این است که چگونه می توان همین کار را برای راه حل سه دسته انجام داد؟ من رگرسیون چند جمله ای را امتحان کردم اما به راه حلی نرسیدم. با سه دسته من باید دو مقدار برش داشته باشم تا بتوانم مرزهای دسته را برای هر متغیر تعریف کنم. یا به سادگی، چگونه می توان مقادیر برش را برای یک متغیر بر اساس دسته بندی های از پیش تعریف شده برای مطابقت با دسته ها تعیین کرد؟
|
چگونه مقادیر برش را در رگرسیون چند جمله ای پیدا کنیم؟
|
14512
|
من در حال حاضر در مورد یکپارچه سازی کسری در زمینه مدل های تصحیح خطا مطالعه می کنم. آیا کسی بسته ای در r می شناسد که تابعی برای برآوردگر حداکثر درستنمایی سوولز d داشته باشد؟
|
ادغام کسری و هم انباشتگی با R
|
19164
|
من یک مدل مختلط خطی تعمیم یافته را با استفاده از تقریب لاپلاس در R قرار می دهم. من به دنبال مرجعی برای تقریب لاپلاس استفاده شده برای آن، یا مرجعی در مورد مقایسه بین روشهای PQL و Laplace برای برازش مدلهای ترکیبی خطی تعمیمیافته هستم.
|
مرجع مدل های مختلط خطی تعمیم یافته با استفاده از تقریب لاپلاس
|
38172
|
ممنون می شوم اگر کسی بتواند در مورد سوالات زیر به من کمک کند. من مجموعه کوچکی از موارد (N=41) از شرکتهایی دارم که پرسشنامه من را گرفتهاند. 2 مجموعه سوالات 5 درجه ای در مقیاس لیکرت وجود دارد: - یک مجموعه برای تعیین اینکه آیا شرکت از اندازه گیری عملکرد برای استراتژی مزیت هزینه استفاده می کند یا یک استراتژی تمایز (8 سوال) در نظر گرفته شده است - یک مجموعه برای اندازه گیری در صورت یافتن عملکرد در نظر گرفته شده است. اندازه گیری مفید (6 سوال) شرکت ها قبلاً در عملکرد بالا (سلام) و عملکرد پایین (Lo) طبقه بندی شده اند. من میانگین نمرات هر گروه را محاسبه کردم و توانستم میانگین ها را با استفاده از آزمون t برای دو گروه (Hi/Lo) مقایسه کنم. من همچنین یک تحلیل عاملی انجام دادم، در مورد دو عامل برای ست اول (KMO=0.74) و یکی برای ست دوم تصمیم گرفتم و در نهایت امتیازهای عامل را به عنوان متغیر دریافت کردم. اینها از 2.6- تا 1.3+ متغیر هستند. حالا نمی دانم با این نتایج چه کار می توانم انجام دهم. من واقعاً دوست دارم بتوانم تعیین کنم که اگر شرکتی در مجموعه دوم سؤالات (مفید بودن) نمره بالایی و در مقیاس مزیت هزینه کسب کرده باشد، این شرکت از سنجش عملکرد برای استراتژی مزیت هزینه استفاده کرده است. نوعی مقیاس سودمندی که دو مورد دیگر را تقویت می کند (اگر منطقی باشد). سپس میتوانم بفهمم که آیا گروه با عملکرد بالا از استراتژی خاصی پیروی میکند یا خیر (همانطور برای گروههایی که عملکرد پایین دارند). آیا رگرسیون یا همبستگی می تواند این کار را انجام دهد؟ پیشاپیش ممنون، نیک
|
تجزیه و تحلیل عاملی یا فقط با مقایسه میانگین ها کنار می آییم؟
|
48392
|
من روی پایان نامه خود کار می کنم و سعی می کنم میزان اجراهایی که باید در یک آزمایش انجام دهم را کاهش دهم، بنابراین فکر کردم از روش تاگوچی استفاده کنم، اما نمی دانم چگونه از جدول انتخابگر استفاده کنم. من بارها و بارها بررسی کرده ام که چگونه این قرار است کار کند و هنوز فکر نمی کنم آن را به درستی انجام می دهم. من یک روش 3^k دارم که در آن k = 5 است. سوال من از این واقعیت ناشی می شود که معلمی به من گفت که می توانم (باید) از L27 استفاده کنم تا تعامل 4 عامل از 5 عامل را داشته باشم و نمی توانم بفهمم چگونه او به این فکر کرد که با توجه به اینکه، همانطور که میدانم، من فقط باید بتوانم تعداد فاکتورها را با سطوح خود مطابقت دهم و این آرایه جدید من (L18) را به من میدهد، اما ظاهرا این بهترین کار برای من نیست. انجام دهید.
|
توضیح انتخاب آرایه متعامد در روش تاگوچی
|
86720
|
آیا کسی میتواند فهرست واضحی از تفاوتهای بین رگرسیون لاگ خطی و رگرسیون لجستیک ارائه دهد؟ من میدانم که اولی یک مدل رگرسیون خطی ساده است، اما مشخص نیست که هر کدام چه زمانی باید استفاده شوند.
|
رگرسیون لاگ خطی در مقابل رگرسیون لجستیک
|
38170
|
من در حال تمرین مشکلات اولیه EM برای امتحانات واجد شرایط هستم. من با مشکلات داده های کوتاه/سانسور شده مشکل دارم. چیزی است که من در مورد احتمال داده های کامل نمی فهمم. فرمول اولیه را در نظر بگیرید: > داده های مشاهده شده X1...Xr و Z1 ... Zq دارای pmf/pdf f(~|p) و cdf F(~|p) هستند > داده های مشاهده شده همگی کوچکتر یا مساوی c هستند و وجود ندارند. داده ها همه > بزرگتر از c هستند سپس، چگالی مشروط X و Z با توجه به محدودیت های آنها w.r.t. c سپس به ترتیب f(x|p)/F(c|p) I(X <= c) و f(z|p)/(1-F(c|p)) I(Z > c) هستند. با توجه به آنچه در نمونههای آنلاین دیدهام، به احتمال زیاد آن سیدیافهای موجود در مخرجها به نحوی لغو میشوند. حداقل من فکر میکنم که این کار را انجام میدهند، زیرا من سعی کردم آن را با سیدیافها کار کنم، و حداقل در مورد توزیع پواسون، M-step به هم میریزد، زیرا من باید مشتق را روی p از logF(c|p) بگیرم. و log(1-F(c|p)) (log از مجموع متناهی پواسون pmf)، که فکر نمیکنم اشکال بسته داشته باشند (ممکن است اشتباه باشد). در بخش _گروهبندی، سانسور و برش دادن_ مقاله EM دمپستر، از یک حالت کلی استفاده میکنند که در آن احتمال کامل شبیه یک چندجملهای به نظر میرسد. جدای از آنچه در بالا دارم (مجموعه های X و Z با اندازه q و r) به شما امکان می دهند مجموعه ای اضافی از مقادیر گمشده کوتاه شده با اندازه ناشناخته داشته باشید، سپس اندازه ناشناخته را به عنوان یک نقطه داده گمشده درج کنید. در این حالت کلی، آنها همچنین یک احتمال کامل دریافت میکنند که هیچ یک از آن مخرجهای CDF مزاحم را ندارد، اگرچه توضیح نمیدهند که چگونه آنها را لغو میکنند. کسی می تواند این را توضیح دهد؟ با تشکر
|
EM برای داده های کوتاه شده/سانسور شده، آن CDF ها چگونه لغو می شوند؟
|
43205
|
با توجه به R.V $X$ و $\ E(X) = 0 $ و $\ E(X^2) = \sigma^2 $. آیا به هر حال می توان $\ E(X^3) $ را بدون دانستن تابع چگالی $X$ محاسبه کرد؟
|
لحظه های بالاتر تابع چگالی نامشخص
|
38177
|
من یک GLMM با توزیع پواسون و بلوک فضایی تصادفی دارم. طرح آزمایشی من فاکتوریل 2×2 است، با 4 بلوک، که در مجموع 16 نقطه داده به دست میآید. در اینجا مشخصات مدل در R با استفاده از بسته lme4 آورده شده است. lmer(rich ~ morph*caged + (1|block), family=poisson, data=bexData) وقتی خلاصه این شی را فراخوانی می کنم، AIC BIC logLik deviance 18.58 22.44 -4.288 8.576 اثرات تصادفی: نام گروه ها Variance Std. توسعه دهنده بلوک (تقاطع) 0 0 تعداد obs: 16، گروه ها: بلوک، 4 من تست های پارامتر اثر ثابت و همبستگی ها را برای اختصار کنار گذاشته ام. سوالات اصلی من در اینجا هستند: 1. آیا می توانید از این خروجی برای محاسبه پراکندگی بیش از حد استفاده کنید؟ * من خوانده ام که پراکندگی بیش از حد را می توان به عنوان انحراف باقیمانده تقسیم بر درجات آزادی باقیمانده محاسبه کرد. آیا آن 8.576 / (16 - 4) است؟ (Zuur et al., Mixed Effects Models) 2. اگر این محاسبات صحیح باشد، برآوردگر ph = 0.715 است. این نشان می دهد که در داده های من پراکندگی بیش از حد وجود ندارد. * آیا این نشان می دهد که کم پراکندگی وجود دارد؟ * آیا این مشکل دارد؟ * آیا کسی میتواند در مورد آستانههای بیش از حد/زیر پراکندگی که در آن اصلاحات در مدلها باید انجام شود، توصیهای ارائه دهد؟ زور در یک کتاب گفته است که 5 یک قطع مشترک است. آیا مردم با آن موافق هستند؟ * چگونه می توان چنین اصلاحاتی را انجام داد؟ 3. من همچنین در اینجا متوجه شده ام که واریانس برای اثر تصادفی 0 است. * اگر اینطور است، چرا یک مدل خطی تعمیم یافته شکل نشان داده شده در پایین، دارای AIC قابل ملاحظه ای بالاتر، در حدود 55 است؟ * آیا AIC یک روش معقول برای انتخاب GLMM به GLM (همانطور که توسط Zuur پیشنهاد شده است) است؟ . glm (rich ~ morph*caged، data=bexData، family=poisson)
|
نحوه ارزیابی بیش از حد پراکندگی در پواسون GLMM، lmer( )
|
43206
|
سوال سریع: من این آموزش را پیدا کردم که طراحی دو عاملی را برای تنظیمات زیر توصیه می کند: سه آیتم منو (عامل ثابت) در شش رستوران آزمایش می شوند (عامل تصادفی). راهنما استفاده از aov (پاسخ ~ مورد + رستوران) را توصیه می کند. من فکر می کنم که روش صحیح انجام این کار aov (پاسخ ~ مورد + خطا (رستوران / آیتم)) است. من گیج شدم. **سوال من: راست می گویم یا اشتباه می کنم و نویسنده آموزش درست می گوید؟**
|
طرح بلوک تصادفی ANOVA در R
|
72878
|
ecdf (تابع توزیع تجمعی تجربی در CDF) در R، به جای دادن $P(X \le x)$ برای یک متغیر تصادفی $X$، نسبت مشاهدات در داده ها را نشان می دهد که $\le X$ است. من سعی کردم ECDF اصلاح شده را جستجو کنم اما هیچ کدام را پیدا نکردم. آیا تابع استانداردی برای انجام ECDF ریاضی وجود دارد؟ یا هر راه حلی قدردانی می شود!
|
ECDF اصلاح شده در R
|
103351
|
من تست Fisher Exact را برای چندین ماتریس بزرگتر از 2x2 اجرا کرده ام. من یک عدد Value و یک مقدار P به جای فقط یک مقدار P دریافت کردم. آیا این به این معنی است که حافظه تست تمام شده و نامعتبر است؟ یا...چرا یک مقدار دریافت کردم؟
|
ارزش همبستگی آزمون دقیق فیشر
|
88831
|
بیایید مثالی را در نظر بگیریم که آیا وزن یک فرد با قد او همبستگی دارد (رگرسیون خطی ساده). تفاوت بین اجرای این همبستگی در دو مجموعه داده زیر چیست؟ **اندازه گیری های مستقل از زمان** از 100 نفر به صورت تصادفی نمونه برداری کنید و وزن و قد آنها را ثبت کنید. **اندازه گیری با وابستگی به زمان** از 10 نفر به صورت تصادفی نمونه گیری کنید، اما وزن و قد آنها را در 10 زمان مختلف ثبت کنید.
|
چه اتفاقی در رگرسیون خطی می افتد زمانی که مشاهدات در زمان مستقل نیستند
|
89127
|
من می خواهم به صورت برنامه ریزی شده محاسبه کنم که در چه ساعات خاصی از روز احتمال بازدید (دسترسی) یک صفحه وب زیاد است. اگر از قبل اطلاعات زیر را در مورد یک صفحه داشته باشم، از کدام فرمول آماری برای محاسبه ساعات پیک صفحه وب استفاده کنم. به عنوان مثال برای صفحه xyz، در سمت چپ من ساعت و در سمت راست بازدید دارم، برای صفحات مختلف بازدیدها متفاوت است. داده های تعداد بازدیدهای صفحه xyz: hr=بازدید 1=0 2=0 3=0 4=0 5=14 6=0 7=0 8=5 9=5 10=8 11=10 12=10 13=12 14= 7 15=5 16=5 17=3 18=0 19=0 20=0 21=0 22=0 23=0 24=0
|
احتمال دسترسی به صفحه وب در یک ساعت خاص
|
103358
|
در تحقیقی که انجام می دهم، یک تعدیل دارم که در آن متغیر پیش بینی کننده، تعدیل کننده و متغیر نتیجه در سطوح مختلف هستند: پیش بینی کننده و تعدیل کننده در سطح درونی (داده ها به صورت طولی طی 6 ماه جمع آوری شدند، هر شرکت کننده 10 نتیجه دارد) و نتیجه. متغیر در سطح بین (داده ها فقط یک بار در پایان مطالعه جمع آوری شد). من با R کار می کنم. آیا در این مورد می توان از Growth Modeling استفاده کرد؟ اگر نه، آیا می توان این داده ها را با استفاده از روش دیگری تجزیه و تحلیل کرد؟
|
مدلسازی سطح متقاطع در R، سطوح مختلف پیشبینیکننده، تعدیلکننده و متغیر نتیجه
|
43209
|
من آزمایش هایی را با یک پارامتر خاص x انجام می دهم. نتیجه y است. من فرض می کنم y به صورت خطی با x مرتبط است. فرض کنید من می توانم 1000 آزمایش انجام دهم، کدام روش تخمین بهتری از رابطه خطی به من می دهد؟ * 1000 مقدار مختلف x را انتخاب کنید، برای هر x یک y بگیرید و رگرسیون خطی انجام دهید؟ * 100 مقدار مختلف x را انتخاب کنید، 10 آزمایش را برای هر x اجرا کنید، مقادیر y را برای هر x میانگین بگیرید و سپس رگرسیون خطی را روی 100 میانگین انجام دهید؟ * 100 مقدار مختلف x را انتخاب کنید، 10 آزمایش را برای هر x اجرا کنید و رگرسیون خطی را بدون میانگین گیری اول انجام دهید؟ اگر مطمئن نباشم که رابطه خطی است چه؟
|
رگرسیون خطی و میانگین حسابی
|
89481
|
فرض کنید که یک متغیر طبقه بندی شده $X$ داریم که می تواند سه مقدار داشته باشد: $0$، $1$، یا $2$. ما از $X=0$ به عنوان سطح مرجع استفاده می کنیم. متغیرهای ساختگی زیر ایجاد می شوند: $$X_1 = 1 \ \text{if} \ X=1 \ \text{or} \ X_1=0 \ \text{if} \ X \neq 1$$ $$X_2 = 1 \ \text{if} \ X=2 \ \text{or} \ X_2=0 \ \text{if} \ X \neq 2$$ در یک مدل رگرسیون خطی، فرض کنید $Y = \beta_1 X_1 + \beta_2 X_2 + \epsilon$$ داریم. $X=0$. چگونه ضرایبی را بدست آوریم که $X=2$ را با $X=1$ مقایسه می کند؟ آیا $\beta_1+\beta_2$ خواهد بود؟
|
سطح مرجع و تفسیر
|
19165
|
این شکل:  نسبت شانس من را نشان می دهد. من معتقدم که آنها باید خطی باشند تا رگرسیون لجستیک کار کند و در تعجبم که چگونه این داده ها را پیش پردازش کنم. با تشکر
|
آماده سازی داده ها برای رگرسیون لجستیک
|
72876
|
من یک مدل چند سطحی سه سطحی دارم (درمانگران، بیماران، اقدامات مکرر) که در آن تعاملات 4 طرفه را گنجانده ام، به عنوان مثال: خودکارآمدی درمانگر * شرایط درمان * بیمار در مسیر (بله/خیر) * زمان این فرضیه را آزمایش می کند. درمانگرانی که در شرایط A هستند و خودکارآمدی بالاتری ندارند، شیب تندتری با بیمارانی دارند که در مسیر درست قرار ندارند، اغلب تعاملات درجه پایین تر غیر قابل توجه و همچنین برای تفسیر مناسب نیست. آیا هنوز باید همه آنها را در نظر بگیرم؟ احساس میکنم پارامترهای زیادی را در مدل قرار میدهم، در حالی که تفسیر فعل و انفعالات مرتبه پایینتر که مهم نیستند دشوار است. بیشتر مجامع بیان میکنند که توصیه میشود تعامل مرتبه پایینتر را لحاظ کنید، اما در برخی جاها نیز گفته شده است که هیچ دلیل آماری برای گنجاندن آنها وجود ندارد. آیا توصیه یا مرجعی در مورد این وضعیت وجود دارد؟
|
تعاملات سطح پایین تر (دو طرفه و 3 طرفه) را در مدل چند سطحی 3 سطحی لحاظ کنید؟
|
43201
|
هنگامی که یک سیستم صف به عنوان یک صف M/M/1 مدل می شود، فرض می شود که زمان رسیدن مشاغل دارای توزیع پواسون و نرخ خدمات دارای توزیع نمایی است. من نمی دانم که یک سیستم باید چه ویژگی هایی داشته باشد تا نرخ ورود را به عنوان پواسون مدل کند؟ من میدانم که پواسون تنها توزیعی است که زمان بین رسیدن کارها به صورت نمایی توزیع میشود که بدون حافظه است. آیا ویژگی های بهتر و شهودی تری برای آن وجود دارد؟ همچنین حتی در مدلسازی پیچیدهتر (M/G/1)، فقط نرخ خدمات به عمومی تغییر میکند، به این معنی که نرخ ورود پواسون به اندازه کافی خوب است که G/M/1 یا G/G/1 به اندازه جذابیت آن نباشد. قبلی ها
|
فرض برای یک صف M/M/1
|
88834
|
من در حال حاضر روی یک کاربرگ خود مطالعه کار می کنم. من اکثر بخشهای راهحل برای قسمت سوم را میدانم، اما به نظر نمیرسد که بفهمم چگونه این اتفاق میافتد:  * *سوال:**  **پاسخ:** 
|
سوال خودآموزی
|
19291
|
به دنبال سوال من برای OLS، میپرسم: چه نمودارهای تشخیصی برای رگرسیون چندکی وجود دارد؟ (و آیا R از آنها پیاده سازی شده است؟) یک جستجوی سریع در گوگل قبلاً با طرح کرم (که قبلاً هرگز در مورد آن نشنیده بودم) به دست آمد، و من خوشحال خواهم شد که روش های بیشتری را بدانم که ممکن است در مورد آنها بدانید. (آیا یکی از آنها یکی از OLS برای رگرسیون چندکی منتقل شده است؟) با تشکر
|
چه نمودارهای تشخیصی برای رگرسیون چندکی وجود دارد؟
|
60325
|
من سعی میکنم یک ماشین حالت مایع بسازم، یک شبکه عصبی اسپک به عنوان مایع و یک شبکه عصبی پیشخور دارم که باید یاد بگیرد که وضعیتهای مخزن را به خروجی نگاشت. من مقالات زیادی را خوانده ام، اما چیز زیادی در مورد نحوه ارائه وضعیت های مخزن به ورودی های شبکه فید فوروارد پیدا نکردم. یکی از منابع من گفت که باید تمام مقادیر مخزن را جمع کنم و به همه واحدهای ورودی بدهم، اما این باعث می شود ورودی ها همه مقادیر یکسانی داشته باشند. مقالات دیگر گفتند که واحدهای ورودی باید نسبت به ویژگیهای مختلف حساس باشند، اما پروژه من دستخط را تشخیص میدهد و من نمیدانم چه ویژگیهایی میتوانم از آن استخراج کنم. این فقط از مقادیر بین 0 و 1 تشکیل شده است، با توجه به اینکه پیکسل پر شده است یا نه. من سعی کردم لایههای مختلف مایع را به واحدهای ورودی مختلف شبکه پیشخور نگاشت کنم، اما کار نکرد. من واقعاً فکر نمیکردم که ایده خوبی باشد، اما در هر صورت آن را امتحان کردم. سوال من این است: چگونه می توانم حالت های مخزن را به شبکه فید فوروارد بدهم تا اصلاً بتواند چیزی یاد بگیرد؟ من همچنین ممکن است با خود مایع نیز مشکل داشته باشم، زیرا کاری انجام نمی دهد، فقط داده های خود را به صورت تصادفی شلیک می کند. آیا با توجه به داده های ورودی نیز باید ساختار خود را تغییر دهد؟ (مقالات معمولاً می گویند که لازم نیست به ورودی واکنش نشان دهد، اما به نظر من عجیب است.)
|
چگونه از حالت های مخزن برای خواندن و آموزش استفاده کنیم؟
|
82721
|
یک سوال در مورد آزمایش اینکه آیا محدوده های بین چارکی (IQR) از دو توزیع غیر نرمال به طور قابل توجهی متفاوت هستند وجود دارد. اکنون من به دنبال آزمایشی برای تست معنی داری محدوده های بین چارکی هستم. من چند رویکرد برای مقایسه IQR پیدا کردم، به عنوان مثال. تست جایگشت تست Westenberg-Mood boostrap + test z از http://r.789695.n4.nabble.com/significance-test- interquartile-ranges-td4636456.html کدام آزمون برای محدوده های بین چارکی آزمون معناداری مناسب است؟ (اطلاعات داده ها: داده های نسبت، حجم نمونه در پنج گروه نابرابر، کمترین کمتر از 10، بیشترین حدود 300 است)
|
نحوه آزمایش اهمیت دامنه های بین چارکی (IQR)
|
11353
|
من صدها متغیر توضیحی و کمتر از 100 مشاهده (مجموعه داده های اشباع) دارم. من می خواهم یک مدل خطی ایجاد کنم که در آن دو یا چند متغیر مرکب از هر کدام از یک دوجین متغیر توضیحی تشکیل شده باشد. چگونه می توانم بهترین متغیرها را برای استفاده برای کامپوزیت ها بدون مرور هر ترکیبی پیدا کنم؟ در حال حاضر $R^2 = 0.64$ من، من می خواهم آن را بهبود بخشم. مدل چیزی شبیه به این است: $$Y = B_1(v_1 + v_2 + \dots + v_{12}) + B_2(v_{13} + v_{14} + \dots +v_{24})$$ که $ B_1$ و $B_2$ ضرایب هستند و کل ($v_1 + v_2 + \dots + v_{12}$) به عنوان یکی عمل میکنند. متغیر
|
چگونه می توانم بهترین مدل را با مجموعه داده اشباع شده پیدا کنم؟
|
96320
|
من اطلاعاتی در مورد چندشکلی طول تکرار دارم. برای هر موضوع، دو مقدار دارم که تعداد تکرارهای (گسسته) هر آلل را می دهم. میخواهم آزمایش کنم که آیا طول تکرار روی یک آلل و دیگری مستقل از یکدیگر هستند یا خیر. مشکل من این است که هیچ نظم طبیعی در طول تکرار یک موضوع وجود ندارد. اگر بخواهم یک تست مجذور کای انجام دهم، هیچ توجیهی برای اختصاص یک طول تکرار به متغیر ردیف و دیگری به متغیر ستون جدول اقتضایی که آزمون را روی آن اعمال میکنم، وجود ندارد، یا برعکس. وقتی برای هر واحد نمونه برداری، دو مقدار قابل تعویض هستند، چگونه استقلال داده های دسته بندی دو بعدی را آزمایش می کنید؟
|
چگونه استقلال را در طول آلل های درون موضوعی آزمایش کنیم؟
|
60328
|
همانطور که عنوان می گوید، من دو سری زمانی دارم، یکی برای شروع ثابت است و بنابراین ریشه واحد ندارد، سری زمانی دیگر پس از تفاضل یک بار ثابت است. من میخواهم یک مدل از این بسازم و میدانم که وقتی ریشههای واحد وجود دارد، باید برای همانجمادی آزمایش کنم. اما من در Engle & Granger (1987) خوانده ام که تست های هم انباشتگی فقط زمانی انجام می شود که دو یا چند متغیر I(1) داشته باشید، آیا این درست است؟ بنابراین من نمی توانم در ادبیات پیدا کنم که آیا اکنون باید از یک مدل VAR برای تفاوت ها استفاده کنم یا برای همجمعی آزمایش کنم و شاید یک مدل تصحیح خطای برداری انجام دهم. کسی میتونه کمکم کنه؟ من بسیار سپاسگزار خواهم بود!
|
سری زمانی: یک متغیر I(1) و یک متغیر I(0)، آیا باید از VAR/VEC استفاده کنم، تست برای همجمعی؟
|
19169
|
من سعی میکنم تابع چگالی دوجملهای توسعهیافته را با پشتیبانی روی c(0 : (طبقه(N) + 1) پیادهسازی کنم، اما در حال اجرا با (فکر میکنم) مشکلات دقیقی دارم: ###### ################## #---تابع چگالی---# ######################## debinom <- function(k, n, p, sum) { if (k <= n) { return( select( n, k) * p^k * (1-p)^(n-k) ) } else { return (1.0 - sum) } }#END: pebinom ###############################################################################---تابع توزیع تجمعی 2 ---# ######################################## تابع pebinom <- (x n، p) { # جرم نقطه در 0 چگالی کل = cumProb = debinom(0.0، n، p، 0.0) k = 0 while (k <= (x)) {density2 = debinom(k، n، p، تراکم کل) کل چگالی = کل چگالی + چگالی2 cumProb = cumProb + چگالی2 k = k + 1 } k = k + 1 چگالی = دبینوم (k، n، p، کل تراکم) cumProb = cumProb + چگالی * (x - k) بازگشت (cumProb) }#END: debinom ############ #---TEST- --# ############ برای (i در 0:10) { x = i + runif(1) cat(x, , pebinom(x, 100, 0.1), \n) } یک احتمال منفی برای مقادیر دنباله می دهد. # ویرایش من تغییر کرده ام و بیشتر روال ها را در کامنت ها و پاسخ هایی که دریافت کرده ام ساده کرده ام: ############################ ############ #---تابع توزیع احتمال---# ######################################## دبینوم <- تابع (k, n, p) { if (k <=طبقه(n)) { return( select(n, k) * p^k * (1-p)^(n-k) } other if(k == (floor(n)+ 1)) { cumProb = 0.0 for(i در 0 : floor(n)) { cumProb = cumProb + debinom(i, n, p) } return (1.0 - cumProb) } else { return(0.0) } }#END: pebinom ##### ################################## #---تابع توزیع تجمعی---# ################################################################ # pebinom <- تابع(x، N، P) { cumProb = 0 برای (i در 0 : (طبقه(x)) ) { cumProb = cumProb + debinom(i, N, P) } return(cumProb) }
|
توزیع دو جمله ای گسترده
|
88836
|
من در حال خواندن کتاب چگونه همه چیز را اندازه گیری کنیم، فصلی وجود دارد که نویسنده استفاده از شبیه سازی مونت کارلو را در شبیه سازی رویدادهای آینده تشویق می کند تا درک بهتری از خطر / عدم قطعیت درگیر داشته باشد. این تئوری در کاغذ عالی به نظر می رسد، و من وسوسه می شوم که تکنیک های مونت کارلو را برای تجزیه و تحلیل استارتاپ، مطالعه عملکرد کارکنان، کمپین فروش، بازارها... همه چیز به کار ببرم! اما در عمل، من شک دارم که آیا شبیه سازی مونت کارلو زمانی که توزیع متغیرهای درگیر در یک معادله ناشناخته است مفید باشد. به توزیع بازده قیمت سهام فکر کنید-- در توزیع گاوسی نمی گنجد، اما از چه توزیعی می توانیم استفاده کنیم؟ و هنگامی که توزیع متغیر ناشناخته است، شبیه سازی مونت کارلو چقدر مفید است؟ حدس من زیاد مفید نیست، اما درست می گویم؟ یک سوال مرتبط، اما احتمالا محدودتر این است که آیا تحقیقی در راستای تحلیل حساسیت انجام شده است؟ منظور من از تحلیل حساسیت است که توزیع های شناخته شده ای را برای متغیرها فرض می کنیم، اما با تغییر جزئی شکل توزیع یا تغییر جزئی برخی از ثابت ها، آنها را کمی آشفته می کنیم، آیا نتیجه نتایج شبیه سازی تقریباً یکسان خواهد بود یا کاملاً متفاوت است. ?
|
وقتی توزیع متغیر ناشناخته است، شبیه سازی مونت کارلو چقدر خوب است؟
|
47780
|
من در حال تلاش برای ایجاد مدل AR بر روی دادههای wheather هستم و از خودم پرسیدم که آیا روش یا الگوریتمی وجود دارد که بتواند ترتیب بهینه را برای یک مدل AR پیدا کند؟ من از Matlab برای تجزیه و تحلیل داده های خود استفاده می کنم، آیا تابعی وجود دارد که بتواند این کار را انجام دهد؟ متشکرم
|
چگونه می توان ترتیب بهینه مدل AR را تعیین کرد؟
|
19296
|
من تعدادی توالی عددی از دادهها را در طول زمان $v(i)$ نظارت کردهام که به یکی از دو کلاس 0 یا 1 تعلق دارد. من متغیر را چندین بار رصد میکنم و دنبالهای مرتبط با 0 یا 1 به دست میآورم. از بخشی از مواردی که $v(i)$ متعلق به کلاس 0 برای داشتن نمایه/پایه (داده های آموزشی/موارد) است. سپس از مواردی استفاده میکنم که $v(i)$ به 1 تعلق دارد تا ببینم آیا تفاوتی با خط پایه (دادههای آزمایش/موارد) وجود دارد یا خیر. سپس به محاسبه یک متریک، بر اساس اطلاعات نشان داده شده توسط $v(i)$ پایان میدهم، یعنی اگر مقداری «تفاوت» را نشان میدهد زمانی که مورد 1 یا 0 بود (خطا)، و بالعکس با در نظر گرفتن کلاس 0. بنابراین از کل موارد $N$ فقط یک مقدار $M(v(i),N)$ دریافت می کنم. اما این مقدار فقط یک آمار است. سوال من این است: چگونه می توان توزیع این متریک را حدس زد؟ من فکر کردم داده های آزمایشی/موارد را در گروه های $k$ تقسیم کنم (با حفظ تناسب)، و سپس توزیع $M(v(i),N/k)$ را از طریق یک $T$-test یا تخمین بزنم. چیزی مشابه اما آیا واقعا منطقی است؟ آیا روشی معتبر برای استنباط توزیع $M$ است؟ پیشاپیش از نکات و بحثی که (در صورت) دریافت خواهم کرد متشکرم :)
|
اعتبار سنجی پارتیشن بندی داده ها
|
82729
|
هنگام تجزیه و تحلیل بسیاری از مجموعه داده های واقعی، متوجه شده ام که بیشتر همبستگی ها مثبت است. به عنوان مثال، در اینجا تصویری از ماتریس همبستگی پیرسون برای داده های فعلی من است. آیا دلیلی برای این وجود دارد؟  **ویرایش:** ماتریس از مجموعه داده 500*140 محاسبه می شود، که اکثر متغیرها آیتم های لیکرت هستند. در اینجا توزیع همبستگی ها آمده است.  و در اینجا مثالی از ناحیه دیگری است. محتوای ویتامین و مواد معدنی در نمونه های غذایی مختلف (با وزن یکسان) اندازه گیری شد.  
|
چرا بیشتر همبستگی های جهانی مثبت هستند؟
|
65665
|
من مدل اختلاط زیر را با استفاده از بسته `rjags` در R اجرا می کنم، اما همچنان با پیغام خطای RUNTIME ERROR: Cannot insert node into p[1,1] مواجه می شوم. عدم تطابق ابعاد`. من به وضوح دیریکله را قبلاً اشتباه مشخص کرده ام، اما مطمئن نیستم که چه چیزی باید تغییر کند. model { # احتمال برای (i در 1:N) { Y[i,1:J] ~ dmnorm(mu[i,],Sigma.inv) mu[i,1:J] <- p[i,1: K]%*%s[1:K,1:J,i] } # Priors on s for(i در 1:N) { for(k در 1:K) { s[k,1:J,i] ~ dmnorm(mu.s[,k],Sigma.s.inv[,,k]) } } # Preor on p for(i in 1:N) { for(k در 1:K) { p[k,i] ~ ddirch(alpha) } } } # alpha به عنوان alpha مشخص شده است<-c(1,1) در R هر کمکی بسیار خواهد بود قدردانی کرد. همانطور که درخواست شد، در اینجا کد R برای اجرای مدل آمده است: #داده برای rjags مخلوط کردن مدل # Y مقادیر Y<-matrix(c(5.8565, 18.5979, 5.7579, 1.1401, 0.4945, 0.2122, 0.3986, 0.3986, 14.695, 0.6986, 14. 8.5126، 2.1779، 1.1406، 0.4051، 0.5971، 13.7417، 10.0652، 8.2977، 2.2172، 1.1204، 0.3929، 0.3929، 0.6116، 0.6116. 8.3222، 1.9592، 0.9697، 0.3454، 0.5695)، byrow=TRUE,ncol=7) colnames(Y)<-c(Al، Ca، Fe، K، Mg، Na Ti) # مقادیر mu.s mu.s<-matrix(c(6.9746333، 6.6574444, 10.5605000, 13.9441083, 35.4727333, 13.2216667, 6.7945000, 4.1493958, 5.0452333, 7.114, 7.11. 6.9320042، 1.1962000، 1.1212222، 2.0860833، 2.4469958، 0.6191000، 0.4853333، 1.0108333، 0.880339. 0.1992222، 0.4911250، 0.4069042، 0.4584000، 0.3072222، 0.6167083، 0.6584167)، byrow=TRUE، ncol=4) rownames(mu.s)<-c(Al، Ca، Fe، K، Mg، Na، Ti) colnames(mu.s)<-c(CB FDRVTS) # مقادیر Sigma.inv - یک ماتریس دقیق Sigma.inv<-structure(c(1291.8709, 6061.281، 698.1364، -5510.728، -690.3269، -3010.418، 641.0724، 6061.2809، 171684.070، 2179.5781، 2179.5781، 2179.5781، 2226. -13140.215، -93994.2303، 698.1364، 2179.578، 1705.0527، -3500.690، 559.1736، -3054.477، -11664.9221.9575، -11664.9221.91575 - -3500.6902، 30963.025، -5429.0766، 18493.588، -10856.3964، -690.3269، 10430.495، 559.1736، -5424.072.077. -38633.413، -18496.1137، -3010.4185، -13140.215، -3054.4766، 18493.588، -38633.4135، 116805.134، 116805.134، 2154.214.214. -93994.230، -11664.9575، -10856.396، -18496.1137، 21412.553، 291117.7431)، dim=c(7،7)) Sigma.inv<-as.positive.Sigmagmainvs(Sigma.definite ماتریس دقیق Sigma.s.inv<-structure(c(17.1162359691711, 4.27333154820829, 0.799319413122213, 67.8990020405821, -17419 240.147200630862, -235.997112580624, 4.27333154820829, 1.30433955546833, 0.346955743724074, 238419 -49.6382239122873, 59.017476611683, -63.7180758402929, 0.799319413122213, 0.346955743724074, 1.374, 1.314, 1.376. 5.28599480618941، -13.9928477614376، -1.89552256841994، -9.54585305537158، 67.8990020405825، 23.19، 23.19 5.28599480618941، 577.794716546282، -1005.75939032625، 1125.51717030183، -1523.09284200498، -1841.19 -49.6382239122873، -13.9928477614376، -1005.75939032625، 2530.24588028147، -3264.56488630485، 29397، 29390. 240.147200630862, 59.017476611683, -1.89552256841994, 1125.51717030183, -3264.56488630485, 50697074 -4010.71091461381، -235.997112580624، -63.7180758402929، -9.54585305537158، -1523.09284200498، 29397، 29390. -4010.71091461381, 5348.51616374144, 856.390529266247, -23.7499072549466, 30.8155799569968, -31216. -6697.97335697594, 201.209069779657, 1119.41488802919, -23.7499072549466, 1.16945366195659, -0.6239659, -0.6239627 92.6596468824124, 185.589336069471, 8.55556473205667, -50.7878188653177, 30.8155799569968, -0.623968, -0.623962 1.33309308251978، -109.66739253505، -247.377133710695، 20.475196391213، 35.4240283157601، -3121.760 92.6596468824124، -109.66739253505، 11599.9856016394، 24300.5608779793، -610.557137045431، -46475397 -6697.97335697594، 185.589336069471، -247.377133710695، 24300.5608779793، 52721.3237164215، -111079. -8706.61402757383, 201.209069779657, 8.55556473205667, 20.475196391213, -610.557137045431, -1907,759 1924.48807974801، -150.765001020582، 1119.41488802919، -50.7878188653177، 35.4240283157601، -464737. -8706.61402757383، -150.765001020582، 3107.68558872587، 49.0622143602674، 8.44130661570893، -628.679، -628.679 -256.909898229718، 45.2409921131372، -122.516603322888، 505.474492036306، 8.44130661570893، 5.0493، 5.0495
|
مشخص کردن دیریکله قبل در jags
|
46072
|
من روی حجم نمونه 70 کار می کنم. مقادیر مشاهده شده و مورد انتظار من متفاوت است (مشاهده 586، 648، 526، 662، 658، 502، ..... و به همین ترتیب برای 70 نمونه و 570 634، 513، 647، 644، 490، .....بنابراین برای 70 نمونه). من از تست Chi-sq برای بررسی تهی استفاده کردم که تفاوتی در مقدار مشاهده شده و مورد انتظار وجود ندارد. و من یک مقدار p 0.99 گرفتم که به این معنی است که نمی توانم null را رد کنم. آیا می توانم از هر آزمایش دیگری برای این نوع مشکل استفاده کنم زیرا می بینم که برای تمام 70 نمونه مشاهده شده بالاتر از حد انتظار است اما نمی توانم این نتیجه را از نظر آماری نشان دهم.
|
اهمیت آزمون کای دو برای نمونه بزرگ
|
60490
|
من بسته R OpenMx را برای تجزیه و تحلیل اپیدمیولوژی ژنتیکی بررسی می کنم تا یاد بگیرم چگونه مدل های SEM را مشخص و برازش کنم. من تازه وارد این کار هستم پس با من صبر کنید. من مثال صفحه 59 راهنمای کاربر OpenMx را دنبال می کنم. در اینجا مدل مفهومی زیر را ترسیم میکنند و در تعیین مسیرها، وزن گره نهان یک را بر روی گره های bmi T1 و T2 را 0.6 نشان می دهد زیرا: > مسیرهای اصلی مورد توجه مسیرهایی از هر یک از متغیرهای پنهان به > متغیر مشاهده شده مربوطه هستند. اینها همچنین تخمین زده می شوند (بنابراین همه آنها رایگان هستند)، یک مقدار شروع 0.6 و برچسب های مناسب دریافت می کنند. # ضرایب مسیر برای twin 1 mxPath( from=c(A1,C1,E1), to=bmi1, arrows=1, free=TRUE, values=0.6, label=c(a c,e) ), # ضرایب مسیر برای mxPath دوقلو 2( from=c(A2,C2,E2), to=bmi2, arrows=1، free=TRUE، values=0.6، label=c(a,c,e) )، مقدار 0.6 از کوواریانس تخمین زده شده bmi1 و bmi2 (به شدت *تک*زیگوتیک) بدست می آید. جفت دوقلو). من دو سوال دارم: 1) وقتی می گویند که به مسیر مقدار شروع 0.6 داده می شود، آیا این مانند تنظیم یک روال یکپارچه سازی عددی با مقادیر اولیه است، مانند تخمین GLM ها؟ 2) چرا این مقدار دقیقاً از دوقلوهای تک تخمکی تخمین زده می شود؟
|
انتخاب وزن مسیر در مدل مفهومی SEM با استفاده از openMx
|
11359
|
آیا دلیلی وجود دارد که بتوانم به آن فکر کنم، برای تبدیل داده ها با جذر؟ منظورم این است که آنچه من همیشه مشاهده می کنم این است که R^2 افزایش می یابد. اما این احتمالا فقط به دلیل مرکز داده ها است! هر فکری قابل تقدیر است!
|
دلیل استفاده از تبدیل ریشه مربع در داده ها چه می تواند باشد؟
|
60329
|
برای یک پروژه دانشگاهی، من یک طبقهبندی کننده SVM نوشتم و در مرحله بنچمارک به نتایجی میرسم که میخواهم از جنبه نظری آن را بهتر درک کنم. مجموعه داده اصلی من شامل نمونه های چند برچسبی است، اما من در حال ساخت یک طبقه بندی کننده باینری هستم، بنابراین یک ویژگی «A» را انتخاب می کنم و اگر «A» وجود دارد، همه برچسب ها را با 1+ یا اگر «A» وجود دارد -1 را جایگزین می کنم. به عنوان مثال: label1 label2 label3 label4 = feature1 feature2 feature3 feature4 label2 label4 = feature1 feature2 feature3 feature4 label3 label4 = feature1 feature2 feature3 feature4 اگر label3 را انتخاب کنید مجموعه داده می شود: 1 = feature1 feature2 feature3 feature4 -1 = feature1 feature2 feature3 feature4 1 = feature1 feature2 feature3 feature4 اگر label2 را انتخاب کنید مجموعه داده به صورت: 1 = می شود feature1 feature2 feature3 feature4 1 = feature1 feature2 feature3 feature4 -1 = feature1 feature2 feature3 feature4 اکنون، مجموعه داده اصلی من شامل 20k ردیف است و: 1. اگر برچسبی را انتخاب کنم که در ردیف 9k باشد، میانگین خطای تست 13% 2 دریافت می کنم. اگر برچسبی را انتخاب کنم که در ردیف 5k باشد، میانگین خطای تست 7٪ دریافت می کنم، تعجب می کردم که چرا این اتفاق می افتد. حدس من این است: * در حالت دوم، هایپرپلین جداکننده حاشیه بزرگتری دارد * در این مورد اول، بیش از حد مناسب است.
|
آزمون همبستگی خطا با فرکانس برچسب
|
89838
|
داشتم یادداشتهایی را میخواندم و میگوید که PCA میتواند دادهها را به شکل کروی درآورد. چیزی که آنها برای من به عنوان کره سازی داده ها تعریف می کنند، تقسیم هر بعد بر جذر مقدار ویژه مربوطه است. من فرض میکنم که منظور آنها از بعد هر بردار پایهای است که ما به آن فرافکنی میکنیم (یعنی بردارهای ویژهای که به آنها میتابیم). بنابراین حدس میزنم که آنها انجام میدهند: $$ u^{'}_i= \frac{u_i}{\sqrt{eigenValue(u_i)}}$$ که $u_i$ یکی از بردارهای ویژه است (یعنی یکی از مؤلفههای اصلی) . سپس با آن بردار جدید، من فرض میکنم که آنها دادههای خامی را که ما داریم، نشان میدهند، مثلاً $x^{(i)}$ به $z^{(i)}$. بنابراین نقاط پیشبینیشده اکنون عبارتند از: $$ z'^{(i)} = u^{'}_i \cdot x^{(i)}$$ آنها ادعا میکنند که انجام این کار تضمین میکند که همه ویژگیها واریانس یکسانی دارند. . با این حال، من حتی مطمئن نیستم که تفسیر من از معنای آنها از کروی درست است یا خیر و میخواستم بررسی کنم که آیا درست است یا خیر. درضمن حتی اگه درست بود همچین کاری چه فایده ای داره؟ من می دانم که آنها ادعا می کنند که مطمئن می شود همه واریانس یکسانی دارند، اما چرا ما می خواهیم این کار را انجام دهیم و چگونه به این هدف می رسد؟
|
«PCA (تجزیه و تحلیل مؤلفه اصلی) دادهها را به صورت کروی در میآورد» به چه معناست؟
|
82895
|
من دو مجموعه داده دارم که آزمون های فرضیه نشان داده اند که نرمال و از توزیع یکسانی هستند. من از MATLAB استفاده میکنم و برای روشی که آنها مقادیر p را میدهند، p-مقدارهای بالاتر نشان میدهد که مطابقت بهتری دارد. من می خواهم این دو مجموعه داده را با هم ترکیب کنم تا پارامترهای مجموعه داده ترکیبی را بدست بیاورم. با این حال، زمانی که من یک آزمون فرضیه را بر روی مجموعه داده های ترکیبی اجرا می کنم، آزمون های فرضیه یا فرض صفر نرمال بودن را رد می کنند یا همانطور که در آمار آزمون مشاهده می شود بسیار نزدیک می شوند. من به دنبال توضیح هستم اما نمی دانم از کجا شروع کنم. آیا کسی می تواند این موضوع را روشن کند؟
|
ترکیب داده های دو نمونه عادی نرمال نیست؟
|
88837
|
در اینجا یک تست ساده است که من روی MATLAB برای بررسی اعتبار الگوریتم تک پاس (آنلاین) برای محاسبه لحظه 3$ و لحظه $4$ اجرا کرده ام. randn('state',0); num2 = 0; num1 = 0; دلتا = 0; M1 = 0; M2 = 0; M3 = 0; M4 = 0; Xvec = صفر (1، 100000)؛ برای j = 1: طول (Xvec) X = 3 * randn (1); % الگوریتم تک گذر num2 = num1; num1 = num1 + 1; دلتا = X - M1; delta_n = دلتا / num1; delta_n2 = delta_n * delta_n; term1 = دلتا *delta_n * num2; M1 = M1 + delta_n; M4 = M4 + term1 * delta_n2 * (num1 * num1 - 3.0*num1 + 3.0) + ... 6.0 * delta_n2 * M2 - 4.0 * delta_n * M3; M3 = M3 + term1 * delta_n * (num1 - 2.0) - 3.0 * delta_n * M2; M2 = M2 + term1; Xvec(j) = X; پایان % مقادیر بدست آمده از Single Pass avg = M1; واریانس = M2 / (num1 - 1.0)؛ کشیدگی = (num1 * M4)/(M2 * M2) - 3.0; چولگی = sqrt(num1) * M3 / (M2^1.5); ٪ مقادیر مرجع avg1 = sum /length(Xvec); moment_2 = moment(Xvec, 2); moment_3 = moment(Xvec, 3); moment_4 = moment(Xvec, 4); الگوریتم آنلاین یک میانگین صحیح (avg = avg1) و واریانس (واریانس = moment_2) را ارائه می دهد. با این حال، مقادیر کشیدگی و چولگی بهدستآمده از الگوریتم آنلاین، از لحظههای 3$ و 4$$ واقعی فاصله دارند. چه چیزی ممکن است اشتباه باشد؟ منبع
|
الگوریتم تک گذر برای کشیدگی
|
88832
|
من باید یک تعامل بین دو عامل پیوسته را برای تفسیر ترسیم کنم. من از تابع wireframe در بسته شبکه استفاده می کنم و مقادیر پیش بینی شده را از مدل با بهترین تناسب رسم می کنم. این مدل تا حدودی شبیه این است: out<-lmer(response~apples+pears+strawberry+mangoes+(angoes)^2+strawberry:mangoes+ (1|id),family=poisson) با این حال، اگر از مقادیر پیش بینی شده استفاده کنم از کل مدل، سطح وایرفریم متفاوت از زمانی است که من فقط از مقادیر پیش بینی شده از مدلی استفاده کنم که فقط شامل متغیرهایی باشد که برهم کنش دارند. (با حذف عبارت درجه دوم): out<-lmer(response~strawberry+mangoes+strawberry:mangoes+(1|id),family=poisson) این تفاوت آنقدر بزرگ است که باعث نگرانی شود، و من می خواهم بپرسم کدام یک روش بهترین تفسیر را از داده ها ارائه می دهد، و چرا سطوح آنقدر متفاوت هستند؟
|
چگونه می توان یک تعامل را از یک GLMM تجسم کرد: از کل مدل برای به دست آوردن مقادیر پیش بینی شده یا فقط عوامل در تعامل استفاده کنید؟
|
11351
|
توصیف این برای من بسیار سخت است، اما سعی می کنم مشکلم را قابل درک کنم. بنابراین ابتدا باید بدانید که من تا کنون یک رگرسیون خطی بسیار ساده انجام داده ام. قبل از اینکه ضریب را تخمین بزنم، توزیع $y$ خود را تماشا کردم. سمت چپ سنگین است. بعد از اینکه مدل را تخمین زدم، مطمئن بودم که یک باقیمانده انحرافی به چپ را نیز در QQ-Plot مشاهده میکردم، اما مطلقاً این کار را نکردم. دلیل این راه حل چه می تواند باشد؟ اشتباه کجاست؟ یا توزیع $y$ ربطی به توزیع عبارت خطا ندارد؟
|
چوله چپ در مقابل توزیع متقارن مشاهده شد
|
60323
|
فرض کنید $X$ یک متغیر تصادفی با هر توزیعی است که فقط مقادیر مثبت می گیرد. آیا نابرابری زیر می تواند برای ثابت های $c_2 >c_1 >0$ برقرار باشد؟ $$\text{Var}(Z^{c_2})/\text{E}[Z^{c_2}]^2 > \text{Var}(Z^{c_1})/\text{E}[Z ^{c_1}]^2$$ به عبارت دیگر: $$\text{E}[Z^{2c_2}]/\text{E}[Z^{c_2}]^2 > \text{E}[Z^{2c_1}]/\text{E}[Z^{c_1}]^2$$ جایی که $Z=X+1$. با تشکر فراوان از پاسخ شما
|
سوال در مورد مجذورات ضرایب تغییرات
|
11357
|
سوال در ابتدا در Stack Overflow ارسال شد. من میخواهم واریانس دادهها را در یک زمان معین محاسبه کنم که فرکانس ویژگیهای شرطی و تصمیم را بدانم. در زمان $t$ هر ویژگی شرطی می تواند 3 مقدار ممکن داشته باشد در حالی که ویژگی تصمیم از دو کلاس تشکیل شده است. برای جزئیات بیشتر به تصویر زیر مراجعه کنید:  * چگونه می توانم واریانس این عکس فوری داده را محاسبه کنم؟ * کد نمونه یا یک الگوریتم بیشتر مورد استقبال قرار خواهد گرفت.
|
نحوه محاسبه واریانس سه یا چند ویژگی با فرکانس های شناخته شده
|
46075
|
آیا می توان خطای استاندارد یا فاصله اطمینان را به نمودار مقادیر پیش بینی شده در مقابل مشاهده شده به دست آمده از یک مدل رگرسیون چندگانه اضافه کرد؟ من معتقدم که چنین نمودارهایی را به عنوان یک خروجی در Statistica دیدهام، اما مطمئن نیستم که چگونه آنها را در R ایجاد کنم. معتقدم که راه حلی دارم (در زیر)، اما مطمئن نیستم که این کار را به درستی انجام دادهام. اساسا، من یک فریم داده جدید با متغیر پیش بینی در محدوده مقادیر ممکن ایجاد کرده ام. نگرانی من با چنین رویکردی این است که پیشبینی بر اساس ردیفهای داده است و واقعاً به موقعیتهایی که متغیرها بهطور تصادفی انتخاب شدهاند نمیپردازد. با تشکر فراوان از کمک شما **مثال:** set.seed(1) n <- 200 x1 <- rnorm(n, mean=10, sd=3) x2 <- rnorm(n, mean=20, sd=5) e <- rnorm (n، میانگین=10، sd=3) y <- 5 + 2*x1 + 0.5*x2 + e متناسب <- lm(y ~ x1 + x2) خلاصه (برازش) #نقشه پیشبینیشده در مقابل مشاهدهشده pred1 <- predict(fit, se.fit=TRUE) نمودار (pred1$fit ~ y) abline (0,1, col=8, lwd=2) #دنباله قاب داده جدید هر متغیر پیش بینی کننده در محدوده آنها df.new <- data.frame(x1=seq(min(x1), max(x1)،،،100)، x2=seq(min(x2)، max(x2)،،، 100)) pred2 <- پیش بینی (مناسب، df.new، se.fit=TRUE) #نقشه پیش بینی شده در مقابل مشاهده شده با فاصله خطای استاندارد؟ png(pred_vs_obs.png, width=6, height=6, units=in, res=200) plot(pred1$fit ~ y) abline(0,1, col=8, lwd=2) خطوط( pred2$fit+1.96*pred2$se.fit ~ pred2$fit، col=2، lty=2، lwd=2) خطوط (pred2$fit-1.96*pred2$se.fit ~ pred2$fit, col=2, lty=2, lwd=2) dev.off()  **ویرایش:** کد زیر در مورد تردید من با روشی که استفاده کردم توضیح می دهد. رابطه بین خطای استاندارد (SE) و y دقیق نیست. یعنی مقادیر مختلف y که نسبتاً نزدیک به هم هستند، دارای SE بسیار متفاوتی هستند (نمادهای سیاه در شکل زیر، «pred1»)، در حالی که روش بالا یک SE واحد را برای هر y پیشبینیشده پیشبینی میکند (نمادهای قرمز، «pred2»). علاوه بر این، با استفاده از چندین ترکیب مختلف از x1 و x2 که همیشه به یک مقدار y منجر میشوند، یک SE واحد (اما متفاوت!) دریافت میکنم (نماد سبز، «pred3»). اینجا چه خبر است؟ آیا روش صحیح تری برای انجام این کار با نوعی روش جایگشت وجود دارد؟ #؟ آیا راه حل های مختلف برای یک مقدار پیش بینی شده معین همیشه خطای استاندارد یکسانی را ارائه می دهند؟ y.tmp <- rep(40،20) x1.tmp <- seq(0.10، طول(y.tmp)) x2.tmp <- (y.tmp - fit$coeff[1] - fit$coeff[ 2]*x1.tmp) / fit$coeff[3] df3 <- data.frame(x1=x1.tmp، x2=x2.tmp) pred3 <- predict(fit, df3, se.fit=TRUE) YLIM <- range(pred1$se.fit, pred2$se.fit, pred3$se.fit) png(fit.se_vs_fit.png, width=6 , height=6, units=in, res=200) plot(pred1$se.fit ~ pred1$fit, ylim=YLIM, lwd=2) امتیازات(pred2$se.fit ~ pred2$fit, col=2, lwd=2) points(pred3$se.fit ~ pred3$fit, col=3, lwd=2) legend(topright, legend=c( «دادههای مبدا»، «محدوده x1 و x2»، «شانههای مختلف x1 و x2 \nبرای رسیدن به y=40»)، col=1:3، pch=1، lwd=2، lty=0) dev.off() 
|
چگونه خطای استاندارد یا فاصله اطمینان را به نمودار مقادیر پیش بینی شده در مقابل مشاهده اضافه کنیم؟
|
65669
|
من داده های فیزیولوژیکی (فعالیت الکتودرمی) از چندین موضوع را دارم که به طور مداوم در طول یک کار با اجزای متعدد ضبط شده است. من علاقه مند به مقایسه این هستم که آیا پاسخ در هر جزء متفاوت است (به عنوان مثال: آیا پاسخ در قسمت D بزرگتر/متفاوت از قسمت A است). از نظر بصری، با عمیقتر شدن کار، روندی به سمت افزایش EDA وجود دارد. من به خودم تحلیل سریال های زمانی را یاد می دهم که براکول و دیویس را می خوانم. مشاور من پیشنهاد کرد که یک ANOVA با اندازه گیری های مکرر بر روی میانگین EDA در هر مؤلفه با شرکت کننده به عنوان تکرار اجرا شود تا ما احساسی از تأثیر اصلی مؤلفه داشته باشیم. سوال من این است: آیا انجام کاری خاص برای داده ها (به عنوان مثال، کاهش آن و غیره) قبل از محاسبه میانگین در اجزاء، عاقلانه است؟ علاوه بر این، (و من فکر میکنم فراگیرتر) پیشنهاد مشاور من برای مقایسه مولفهها حس عملکردی دارد (RM ANOVA). اگر این چیزی جز سری زمانی بود، من اینطور فکر میکردم، اما من تازه وارد TS هستم، بنابراین هر توصیهای مفید خواهد بود. من این کار را عمدتاً در R انجام می دهم اما به SAS نیز دسترسی دارم. با تشکر از هر کمکی که هر کسی می تواند داشته باشد.
|
مقایسه اجزا در یک سری زمانی واحد (داده های فیزیولوژیک)
|
69329
|
من اخیراً هنگام تلاش برای حل مشکلی که در زیر توضیح خواهم داد، منحنی های اصلی را کشف کردم. اصل منحنی های اصلی این است که یک نقطه ابر را برای یافتن مسیری که در امتداد آن نقاط در حال اجرا است، قرار دهیم. هدف من این است که از چیزی شبیه به این استفاده کنم تا مجموعه ای از ردیابی های GPS را در امتداد یک جاده قرار دهم، به طوری که نتیجه یک تقریب آماری از جاده واقعی (یا به طور دقیق تر، منطقه ای از جاده است که در آن افراد - دوچرخه سواران در این مورد - در واقع سوار شوید، که به احتمال زیاد خطوط جانبی و شانه های جاده خواهد بود). مشکل این است: در حالی که تجزیه و تحلیل منحنی های اصلی کلاسیک مجموعه نقطه را دارای _نقاط_ مستقل در نظر می گیرد، من معتقدم که بهتر است هر _Track_ را متشکل از _بردارهای_ وابسته_ در نظر بگیریم. به عنوان مثال، هنگام استفاده از نقاط، یک قطعه مسیر با نرخ نمونهبرداری بالا ممکن است در مقایسه با قطعه دیگر با نرخ نمونهگیری پایینتر، یک سوگیری ایجاد کند، اگرچه هر یک از آنها تنها یک مسیر را توصیف میکنند، و به جای آن، من بیشتر علاقهمندم که مسیرها را با یکدیگر وزن کنم. از امتیازات فردی (در ضمن، آیا این منطق من منطقی است؟) من در سایت Gis.StackExchange با چند تصویر معرف یک سوال در همین موضوع، اما با فرمول متفاوت ارسال کردم: http://gis.stackexchange.com/ سوالات/70623/چگونه-آمار-راه-واقعی-را-از-مجموعه-تراک-gps-را-محاسبه-کنم-ممنون که مطالعه کردید!
|
آیا می توانم از تجزیه و تحلیل منحنی های اصلی برای جا دادن یک ابر برداری به جای ابر نقطه ای استفاده کنم؟
|
60496
|
من عذرخواهی میکنم اگر این سؤال برای این انجمن خیلی ساده است، اما... اگر میخواهم یک شبکه عصبی یا سایر پیشبینیهای مبتنی بر یادگیری ماشینی بسازم که چه کسی در یک بازی فوتبال برنده خواهد شد و با چه تعداد امتیازی که این و آن ورودی داده میشود. من از امتیاز واقعی بازی های گذشته به عنوان پاسخ صحیح شبکه عصبی خود برای اهداف آموزشی استفاده می کنم. به عنوان مثال اگر از درصد برد هر تیم برای پیش بینی برندگان استفاده کنم. من ممکن است موارد زیر را داشته باشم: [Pct Win Team Home] [VisitingvTeam Win Pct] [Home Team Win Margin (امتیاز)] 50% 45% +2 50% 75% -6 .... ..... ... ... و غیره از بازی های گذشته - من ممکن است 10 سال اطلاعات بازی داشته باشم. آیا می توانم از تفاوت نقطه نتیجه واقعی ([حاشیه برد تیم خانگی]) به عنوان پاسخ صحیح برای اهداف آموزشی استفاده کنم؟ از آنجایی که من هیچ راهی برای دانستن اینکه آیا این دو تیم 100 بار در شرایط دقیق یکسان بازی کردهاند، در صورتی که میانگین برد برنده +2 باشد یا عدد دیگری وجود ندارد، زیرا برای یک نتیجه بازی معین، من فقط یک اندازه نمونه دارم. یا معیار دیگری برای پاسخ صحیح وجود دارد که باید به جای آن از آن استفاده کنم؟ من مطمئنا نمی توانم به یکی از آنها فکر کنم. با تشکر از کمک شما.
|
یادگیری ماشینی - چه چیزی به عنوان پاسخ صحیح برای اهداف آموزشی استفاده شود
|
52230
|
من دو متغیر _Distance_ و _Slope_ دارم. اینها وارد یک مدل می شوند که منجر به یک متغیر _cost_ می شود. من دوست دارم تاثیر متغیرهای Distance و Slope را بر روی متغیر Cost بفهمم. من چند صد عدد تست برای متغیرها دارم. از چه برنامهها یا مراحلی میتوانم استفاده کنم تا تأثیر دو متغیر بر هزینه را ببینم؟ در پایان می خواهم بدانم برای مثال _Distance_ بر متغیر _Cost_ بیش از 70 درصد تأثیر می گذارد. _تاثیر شیب _هزینه_ بیش از 30 درصد.
|
چگونه می توان به رابطه بین متغیرها پی برد؟
|
96848
|
من به دنبال شخصی هستم که با نرم افزار ITSM آشنا باشد. من داده هایی دارم که باید با مدل ARIMA/SARIMA مطابقت داشته باشد و سپس با استفاده از روش Holt-Winters/Seasonal پیش بینی شود. سپس باید آنها را با استفاده از RMSE و MAPE مقایسه کنم. من کاملاً با ITSM ناآشنا هستم و فقط در مورد دستورات مورد نیاز برای انجام هر یک از عملکردهای بالا به کمک نیاز دارم. کتابچه راهنمای ITSM که همراه با دانلود ارائه می شود چندان مفید نبود. اگر ITSM نقطه قوت شما نیست، آیا برنامه دیگری وجود دارد که به راحتی در دسترس باشد که همه این عملکردها را برای من انجام دهد؟
|
به دنبال کمک با نرم افزار ITSM (یا سایر نرم افزارهای مشابه) هستید
|
60327
|
هنگامی که صفات را در حین ساختن یک درخت تصادفی تقسیم میکنم، برای تعیین بهترین مقدار برای تقسیم درخت، از کسب اطلاعات استفاده میکنم. من گره ها را به درخت اضافه می کنم تا زمانی که یک معیار توقف برآورده شود. حداقل ارزش کسب اطلاعات برای استفاده به عنوان معیار توقف چقدر است؟
|
کسب اطلاعات در درختان تصادفی
|
97054
|
من می خواهم تنوع گروهی از اشیاء را اندازه گیری کنم. در حال حاضر من از فاصله اقلیدسی برای محاسبه ماتریس شباهت بین تمام اشیاء در گروه استفاده می کنم. من به دنبال معیاری از این تنوع هستم تا تصمیم بگیرم که آیا جایگزینی عنصری از این ماتریس با عنصری جدید، گروه را کم و بیش همگن میکند یا خیر. من آرزو دارم در نهایت به ناهمگن ترین گروه برسم. البته، اگر از زاویه نادرستی به این موضوع نگاه کنم، من برای رویکردهای دیگری آماده هستم. اگر از نظر محاسباتی کارآمد باشد، امتیاز جایزه.
|
استفاده از ماتریس شباهت برای اندازه گیری تنوع یک گروه
|
103286
|
من در مورد آزمایشات زیر می دانم: * Mantel-Haenszel برای داده های طبقه بندی طبقه بندی شده * Kruskal-Wallis برای ANOVA ناپارامتریک برای بیش از دو تیمار * فریدمن برای نسخه اندازه گیری مکرر Kruskal-Wallis * van Elteren برای مقایسه ناپارامتری داده های طبقه بندی شده بین دو تیمار اما آیا چیزی وجود دارد که ویژگی های اینها را ترکیب کند؟ به عبارت دیگر، من به دنبال آزمایشی هستم که دادهها را برای تیمارهای آزمایشی $g$، جمعآوری شده در لایههای $q$، که در آن پاسخ نمیتواند از توزیع پارامتری تبعیت کند، بگیرد و میخواهم تفاوت در درمان را آزمایش کنم. اثر در حین کنترل مخدوش کننده(هایی) که من در آنها طبقه بندی کردم. حجم نمونه کوچک است. اگر چنین آزمایشی وجود نداشته باشد (من نتوانستم هیچ مرجعی را در ادبیات پیدا کنم)، پس آیا می توانیم به نوعی بوت استرپ ناپارامتری یا روش مونت کارلو متوسل شویم؟ چگونه می توانیم چنین رویه ای را طراحی کنیم؟
|
تعمیم ون الترن به بیش از دو درمان
|
82897
|
 سلام. من با تلاش برای کشف این اثبات که نشان می دهد توزیع بتا مزدوج با توزیع دو جمله ای است (تصویر پیوست) مشکل دارم. تا ردیف سوم فهمیدم ولی با این مرحله از ردیف سوم تا چهارم گیج شدم. من از یک توضیح ساده سپاسگزارم. پیشاپیش از شما متشکرم.
|
اثبات قبلی بتای مزدوج
|
103280
|
من در حال تلاش برای پروژه ای هستم که در آن نیاز به رتبه بندی آماری ماشین های موجود بر اساس چندین متغیر مانند هزینه، mpg، صندلی، مایلاژ و غیره دارم. من می خواهم این ماشین ها را رتبه بندی کنم تا تصمیم بگیرم که کدام ماشین بهترین انتخاب باشد (بالاترین ارزش) برای خرید (یا بهترین خودروها را اگر به چندین نفر از بهترین خودروها اطلاع می دادم) بخرم. از آنجایی که لیست خودروهای موجود روز به روز تغییر می کند، من نیز باید هر روز کد را دوباره اجرا کنم تا رتبه بندی بهترین تصمیم را برای این روز جدید به من بدهد. برای رفتن به این سیستم رتبه بندی از چه روش های آماری استفاده کنم؟ من تصمیم دارم تعیین کنم که کدام عوامل مهمتر هستند تا متغیرهای مورد استفاده در انتخاب ذهنی باشند. من به آزمایش MDS یا خوشهبندی فکر میکردم، اما نمیدانستم که این موضوع مرتبط است یا نه، زیرا از قبل به صورت ذهنی تعیین میکنم که چه متغیرهایی باید استفاده شوند. نمیدانم چگونه میتوان از رگرسیون استفاده کرد، زیرا نمیتوانم به ارزش خودروهای قبلی دست پیدا کنم، زیرا سعی میکنم بر اساس آن رتبهبندی کنم. همچنین، من این کار را در R انجام خواهم داد، بنابراین دانستن هر بسته/عملکرد مفید نیز عالی خواهد بود. هر گونه کمکی در مورد نحوه انجام این طرح رتبه بندی مفید خواهد بود زیرا من در ضرر هستم. خیلی ممنون
|
برای دستیابی به رتبه بندی آماری از چه روش(هایی) باید استفاده کنم؟
|
64130
|
من میخواهم وزنهای نمونه را در مدل رگرسیون چندکی خود لحاظ کنم، اما مطمئن نیستم که چگونه این کار را انجام دهم. من قبلاً وزن خود را تعریف کرده ام، که وزن های تکراری هستند که قبلاً در مجموعه داده نظرسنجی (محاسبه شده در بسته نظرسنجی) ارائه شده است: w<-svrepdesign(variables=data[,1:10],repweights=data[,11:30],type =BRR، combination.weights=TRUE، weights=r.weights، rho=0.5,dbname=) و مدل rq من این است: rq(y~x,tau=c(.1,.2,.3,.4,.5,.6,.7,.8,.9),data=my.data)) سعی کردم از ` با عملکرد Replicates، اما بدون موفقیت. پیشنهادی دارید؟
|
وزن در رگرسیون کمی برای پیمایش پیچیده در R
|
52237
|
من از تابع 'cpgram' در R برای تولید پریودوگرام تجمعی یک سری زمانی ماهانه استفاده می کنم. محور افقی آن عددی بین 0 و 6 است که به عنوان فرکانس برچسب گذاری شده است: این اعداد به چه معنا هستند، زیرا فرکانس در پریودوگرام تجمعی باید بین 0 تا 0.5 باشد مانند موارد زیر (بالا)؟  همچنین، آیا می دانید چگونه می توانم پریودوگرام های تجمعی مانند این نمودارها را ایجاد کنم؟
|
چگونه پریودوگرافی تجمعی را تفسیر کنیم؟
|
52235
|
من مشکلی دارم که قابل حل به نظر می رسد، که سعی خواهم کرد آن را با نامگذاری احتمال توپ های کلاسیک و سطل توضیح دهم. تصور کنید کسی برای شما کیسه ای از توپ های رنگی آورده است. این نمونه به طور تصادفی از یکی از سطل های بزرگ توپ انتخاب شد. هر سطل شامل 1000000 توپ است و هر توپ یکی از 1000 رنگ است. برای هر سطل، نسبت توپ برای هر رنگ ثابت است، و ما می دانیم که چیست. به عنوان مثال، سطل A همیشه 0.02 قرمز، 0.013 سبز، 0.009 آبی، و غیره دارد. بنابراین - چگونه می توانم تخمین بزنم که نمونه توپ ها از کدام سطل آمده است؟ من می دانم که اگر یک کیسه (نمونه) 1000000 توپ داشته باشم، همانطور که نسبت ها مشخص شده است می توانم بدون ابهام بگویم که از کدام سطل آمده است. با این حال، اگر فقط 2000 توپ در نمونه داشته باشم، چه کار کنم؟ به نظر من باید بتوانم بطور کاملاً مشخص احتمال اینکه نمونه از یک سطل خاص آمده است را محاسبه کنم. هر گونه کمکی بسیار قدردانی خواهد شد! من این کار را با کد (احتمالا پایتون) انجام خواهم داد. با احترام، دن
|
اختصاص یک مجموعه نمونه به یکی از چند جمعیت بر اساس ترکیب
|
97051
|
طبق برخی مقالات (به عنوان مثال در اینجا) همبستگی فقط یک نسخه متمرکز از شباهت کسینوس است. من از کد زیر برای محاسبه ماتریس تشابه کسینوس بردارهای ستون یک ماتریس «X» استفاده میکنم (کمی تغییر یافته از اینجا): cos.sim <- function(ix) { A = X[,ix[1]] B = X[,ix[2]] return(t(A)%*%B/sqrt(sum(A^2)*sum(B^2))) } n <- ncol(X) cmb <- expand.grid(i=1:n، j=1:n) C <- ماتریس(apply(cmb,1,cos.sim),n,n) **سوال من** کدام اصلاحات در کد بالا مورد نیاز است برای به دست آوردن ماتریس همبستگی «cor(X)» به جای ماتریس شباهت کسینوس. من حدس می زنم تغییرات حداقل هستند اما در حال حاضر نمی توانم آنها را ببینم.
|
ایجاد ارتباط بین شباهت کسینوس و همبستگی در R
|
103281
|
من می خواهم میانگین های همان گروه را در دو مقیاس پیوسته مقایسه کنم. میخواهم ببینم که آیا نمرات در ترازو تفاوت قابل توجهی دارند یا خیر. از کدام آزمون آماری برای این کار استفاده کنم؟
|
چگونه میانگین های یک گروه را روی دو متغیر پیوسته مقایسه کنم؟
|
82725
|
فرض کنید $X$ و $Y$ هر دو به طور معمول توزیع شده اند، با $X \sim \mathcal{N}(0,1)$ و $Y \sim \mathcal{N}(c,1),$ که در آن $c > 0 دلار $n$ قرعه کشی مستقل از $X$ و $Y$ را در نظر بگیرید. به عنوان $n \rightarrow \infty,$ احتمال اینکه حداکثر نمونه تساوی $Y$ از حداکثر برای $X$ بیشتر باشد چقدر است؟
|
حداکثر دو نمونه گاوسی را مقایسه کنید
|
90588
|
من سعی می کنم یک مدل برای پیش بینی قیمت برق، یک مدل سری زمانی با R بسازم و چند سوال دارم داده های ما قیمت روزانه 3 سال گذشته از کشورهای استخر شمالی است و ما در تلاش هستیم مدلی برای پیش بینی انجام دهیم. قیمت های روز هم ما نمی دانیم چگونه فصلی بودن داده های خود را تجزیه کنیم، زیرا تمام آزمایش ها و مطالعات باید روی داده ها بدون فصلی انجام شود. از طرف دیگر، ما برای درک مدل ARIMA یا ARMA مشکلاتی داریم، زیرا مدلی است که می خواهیم اعمال کنیم و نمی دانیم چگونه آن را در R انجام دهیم. با تشکر و متاسفم برای انگلیسی بد من.
|
پیش بینی قیمت روزانه برق
|
64134
|
در حال حاضر روی پایان نامه کارشناسی ارشد خود کار می کنم که در مورد بازده تعدیل شده ریسک در بازار REIT آسیا و اقیانوسیه است. هدف مقاله تعیین / یافتن متغیرهایی است که قدرت توضیحی را در مورد IV درک می کنند. برای تعیین این، من همچنین یک رگرسیون FE بر اساس کشورها انجام دادم. نتایج کم و بیش با FE برای کل نمونه (با firmID به عنوان ساختگی) و رگرسیون OLS مطابقت دارد. نکته شگفتانگیز در واقع این است که برای کل دوره نمونه (بنابراین هنوز هم با مدلهای کشوری) برخی از متغیرها بیاهمیت به نظر میرسند، در حالی که برعکس، اگر نمونه به 2 دوره فرعی تقسیم شود، نشان میدهد که دارای معنیداری هستند. تاثیر در هر دو دوره به نظر من این نسبتاً عجیب است که یک متغیر برای هر دو دوره فرعی مهم است، اما این کار را برای کل دوره نمونه انجام نمی دهد. دلیل این امر چه می تواند باشد؟ آیا این یک مشکل آماری است یا بیشتر باید در جهت مالی بیشتر جستجو کنم؟ برای کسانی که سابقه مالی دارند، متغیرهایی که این الگو را نشان می دهند عبارتند از: سرمایه بازار، نسبت قیمت به دفتر و بازده سود سهام. من نتیجه رگرسیون FE را برای بازار استرالیا بارگذاری کرده ام. امیدواریم که این کار روشنگری کند. کمک بسیار قدردانی می شود! PS. آزمون لاگرانژ و هاسمن مدل FE را ترجیح داد. رگرسیون کل نمونه  دوره فرعی 1;  دوره فرعی 2; 
|
نتایج غیر قابل توجه اثر ثابت
|
97050
|
من در حال بررسی این مقاله تخمین چگالی سری متعامد هستم. من در ادامه شک دارم فرض کنید که متغیر تصادفی X روی [0، 1] پشتیبانی می شود، یعنی P(X ∈ [0، 1]) = 1، و چگالی احتمال f از X مربع انتگرال پذیر است. سپس چگالی را می توان با هر دقت دلخواه با یک جمع جزئی $f_J(x) تقریب زد :=\sum_{j=0}^J \theta_j \varphi_j(x), 0\le x\le1$ در اینجا $\{\ varphi_j\} $ مبنای کسینوس $ \varphi_0(x)=1، \varphi_j(x)=\sqrt 2 است cos(\pi j x), j=\{1,2,\cdots\}$ $\theta_j$ ضریب $j_{th}$ و $J$ نقطه برش است توجه داشته باشید که $\theta_0=\int_0 ^1f(x) dx=1$ همچنین $\theta_j=\int_0^1 \varphi_j(x) f(x) dx= E\{\varphi_j(x)\}$ این نشان میدهد که $\theta_j$ را میتوان توسط تخمینگر میانگین نمونه تخمین زد. $\hat{\theta}=n^{-1}\sum_{l=1}^n \varphi(X_l)$ $Var(\hat{\theta_j})=E(\hat{\theta}-\ تتا)^2$ $=n^{-1}[1+2^{-1/2}\theta_{2j}-\theta_j^2]=n^{-1}d$ با استفاده از $cos^2(\alpha)=(1+cos(2\alpha))/2$ در اینجا d به عنوان ضریب سختی تعریف می شود. شک من در مرحله آخر است $E(\hat{\theta}-\theta)^2=n^{-1}[1+2^{-1/2}\theta_{2j}-\theta_j^2] $ من فکر می کنم $E({\hat{\theta_j}^2}-2\hat{\theta_j}{\theta}+{\theta}^2)=E({\hat{\theta_j}^2}-{\theta }^2)$ اگر فرض کنیم نقاط iid رسم شده باشند $E(\varphi(x_l)،\varphi(x_m))=E(\varphi(x_l))E(\varphi(x_m))$ بنابراین $E((\sum_{l=1}^n\varphi(x_l))^2)=E(\sum_{l=1}^n\varphi(x_l)^2+2*\sum_{l,m =0}^n\varphi(x_l)\varphi(x_m))$ $=E(\sum_{l=1}^n\varphi(x_l)^2)+2*E(\sum_{l,m=0}^n\varphi(x_l)\varphi(x_m))$ $E({\hat{\theta_j}^2})=n^{-2}[n(1+2^{-1/2}\theta_{2j})+\big(n(n-1) /2\big)2*{\theta_j}^2]$ $E({\hat{\theta_j}^2})=n^{-1}[1+2^{-1/2}\theta_{2j}+(n-1){\theta_j}^2] $ لطفاً اگر درک من درست است به من اطلاع دهید
|
تخمین چگالی سری متعامد
|
46078
|
من یک تحلیل عاملی از یک سازه (یعنی تفاوت بین دو کشور) انجام دادهام و دو عامل متمایز (1 = تفاوتهای فرهنگی، 2 = محیط اقتصادی) بدست آوردهام. من نمرات را استخراج کردم زیرا می خواهم بررسی کنم که آیا امتیاز تفاوت های فرهنگی بیشتر از اقتصادی است یا خیر. چگونه این کار را انجام دهم؟ من سعی کردم یک آزمون T ساده بسازم اما نتیجه خوبی به دست نمی آورد، زیرا نمرات فاکتور استاندارد شده و میانگین فاکتورها 0 است (S.Dev=1). چه رویکردی باید انجام دهم؟
|
مقایسه ارزش دو عامل
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.