_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
62004
|
من با Matlab نسبتاً تازه کار هستم و هرگز با آمار کار زیادی نداشتم، بنابراین از اینکه احتمالاً نسبت به دانش بسیار مهم ناآگاه بودم از قبل عذرخواهی می کنم. همچنین اگر بتوانید به ساده ترین شکل ممکن پاسخ دهید خوب خواهد بود. با تشکر ☺ سوال من در مورد یافتن پارامترهای یک توزیع تک متغیره است. من دو مجموعه از دادهها را دریافت میکنم که میخواهم آنها را به طور خودکار تجزیه و تحلیل کنم. اولین مجموعه دووجهی است، با دو توزیع به طور کلی به طور کامل از هم جدا شده اند. مجموعه دوم حداقل سه حالت دارد. اطلاعات من در مورد جهت فیبر در یک کامپوزیت کربن است. بنابراین اگر من 2 جهت کلی داشته باشم، توزیع دووجهی را دریافت می کنم، اما اگر 3 داشته باشم، دو قله بلند و معمولاً یک یا دو جهت کوچکتر را دریافت می کنم (اوج در 0 درجه داده های اشتباهی است که در حال حذف آن هستم). من قبلاً کمی با mle بازی کردهام و آن را برای مورد دووجهی کار کردم، اما این کار به سن و سالی طول میکشد، حتی زمانی که مقادیر شروع خوبی به آنها داده شود. در حال حاضر من دو وجهی را به دو قسمت تقسیم میکنم و دو توزیع نرمال جداگانه را در نظر میگیرم، اما میخواهم راه ظریفتری پیدا کنم. در مورد کیس 3 فیبر، من هنوز هیچ ایده ای برای کار ندارم. من واقعاً از هرگونه کمکی در این زمینه سپاسگزارم :) توزیعها
|
یافتن پارامترهای توزیع تک متغیره دو وجهی و سه وجهی با متلب
|
23582
|
پشیمانی در مدل راهزن چند دستی توسط $$\underset{j}{\max}\sum_{t=1}^{T}x_j(t) -G_{A}$$ که $$G_A= داده میشود \sum_{t=1}^{T}x_{it}(t)$$ کل پاداشی است که یادگیرنده بر اساس یک عمل $i$ که در هر بازه زمانی $t$ انجام میشود، به دست آورده است. $i_{t}\در {1,2,...,K}$ و $x_j(t)$ پاداش مرتبط با عمل $j$ است، در زمان $t$ با $K$، که تعداد کل است. از اقدامات موجود در یک محیط راهزن چند بازوی تصادفی که در آن هر بازو با توزیع جمعیت مدل میشود: الف) چه ارتباطی بین تصمیمهای متوالی اتخاذ شده توسط یک یادگیرنده انتخابی وجود دارد که حداقل کردن انتظار پشیمانی فوق را تضمین میکند؟ من این را می پرسم، زیرا نمی بینم که انتظار بهترین بازو به طور مستقیم در شکل داده شده پشیمانی به حساب می آید. در عوض، آیا مرزی وجود دارد که این پشیمانی را به پارامترهای میانگین جمعیت مرتبط کند؟ من به پشیمانی مورد انتظار برای $$\mathbb{E}\left[\underset{j}{\max}\sum_{t=1}^{T}x_j(t)\right]-\mathbb{E} نگاه کردم G_A $$ و می خواهید بین مراحل در هر الگوریتم چند بازوی راهزن انتخابی و به حداقل رساندن پشیمانی مورد انتظار ارتباط برقرار کنید. آیا این کار به طور مستقیم انجام می شود یا بر اساس به حداقل رساندن می گویند، یک کران بالای غیر مستقیم؟
|
چرا این پشیمانی انتخاب خوبی برای یک راهزن چند مسلح است؟
|
91715
|
این در حد یک سوال فلسفی است، اما من علاقه مندم که دیگران با تجربه بیشتر در مورد انتخاب توزیع چگونه فکر می کنند. در برخی موارد واضح به نظر می رسد که تئوری ممکن است بهترین عملکرد را داشته باشد (طول دم موش احتمالاً به طور معمول توزیع شده است). در بسیاری از موارد احتمالاً هیچ تئوری برای توصیف مجموعهای از دادهها وجود ندارد، بنابراین شما فقط از چیزی استفاده میکنید که به خوبی با آنچه دارید مطابقت داشته باشد صرف نظر از اینکه در ابتدا برای توصیف چه چیزی ساخته شده است؟ من میتوانم برخی از دامها را تصور کنم که با یکی یا دیگری از اینها پیش میرویم، و البته به نظر میرسد این مشکل وجود دارد که اگر واقعاً ایدهای ندارید، شاید فقط باید از یک توزیع تجربی استفاده کنید. بنابراین حدس میزنم واقعاً چه میپرسم: آیا کسی روش منسجمی برای نزدیک شدن/فکر کردن درباره این مشکل دارد؟ و آیا منابعی وجود دارد که بتوانید پیشنهاد دهید که به خوبی این موضوع را ارائه دهد؟
|
آیا بهتر است توزیع ها را بر اساس تئوری، تناسب یا چیز دیگری انتخاب کنیم؟
|
50499
|
دیروز این پست وبلاگ را خواندم پیش بینی ها، پاسخ ها و باقی مانده ها: واقعاً چه چیزی باید به طور عادی توزیع شود؟ و من تعجب می کنم که شما در مورد آن چه فکر می کنید. شخصاً من کاملاً با نویسنده در مورد این واقعیت موافق هستم که گاهی اوقات مردم حتی از ساخت یا ارزیابی مدلها بدون تغییر log یا چیزهایی مانند آن صرفنظر میکنند، فقط به این دلیل که متغیرهایی در آنها توزیع نشده است (درآمدها یا سایر معیارهایی که معمولاً گوسی نیستند). گاهی اوقات اشتباه کردن در مورد فرضیه پیشبینیکننده یا نتیجه برای مدلها. من فکر میکنم این یک نکته مرتبط است امروزه که به نظر میرسد «روند یادگیری ماشینی» بسیار کمتر است. محدودتر از «آمار کلاسیک» است و بنابراین مدلهای کلاسیک را کمی کنار میگذارد در حالی که بارها نتایج مساوی یا حتی بهتری دارند.
|
آیا خیلی عادی می شویم؟
|
34440
|
با توجه به مقادیر حداقل و حداکثر، چگونه می توانم پارامتر شکل (شاخص دم) داده های تولید شده توسط توزیع پارتو کوتاه شده را تخمین بزنم؟ من یک بسته tpareto می بینم اما هیچ اطلاعاتی در مورد چگونگی تخمین شاخص دم از داده های داده شده پیدا نمی کنم. لطفا کمک کنید
|
تخمین پارتو کوتاه شده
|
79177
|
من می خواهم یک سیستم طبقه بندی پیام بسازم که یک پیام داده شده را به یکی از کلاس های 2 طبقه بندی کند - Relevant/Not. من هیچ مجموعه داده برچسب گذاری شده ای ندارم. من فقط کلمات کلیدی خاصی دارم که ارتباط را تعریف می کنند. من می توانم کلمات کلیدی بیشتری (مترادف، کلمات تقریباً مشابه و غیره) اضافه کنم. به عنوان مثال: اگر بخواهم ارتباط را برای Automobile تعریف کنم، کلمات کلیدی مرتبطی که خواهم داشت عبارتند از - اتومبیل، دوچرخه، اتومبیل، گاز، لاستیک، موتور، روغن، ... اکنون، طبقهبندی کننده باید یک پیام جدید را بررسی کند (ایمیل/ SMS) و آنها را طبقه بندی کنید که آیا پیام متعلق به این دسته است یا خیر. پیام 1: همیشه از روغن ماشین abc استفاده کنید. Message2: ظرف من روغن زیادی داشت. در این مورد، _Message1_ مربوط به دامنه خودرو است و نه _Message2_. لطفاً به من راهنمایی کنید که چگونه یک مجموعه داده آموزشی بسازم و چگونه این مدل را برای هر دامنه تعمیم دهم؟
|
چگونه یک طبقه بندی متن مرتبط بسازیم؟
|
50490
|
من میخواهم توزیعهای جداول احتمالی $K$ را مقایسه کنم، که در آن هر جدول $N \times M$ است. برای شفافتر شدن موضوع، اجازه دهید روی $K=M=N=2$ کار کنیم. فرض کنید من یک تست کلاسیک موارد و کنترل دارم، که در آن متغیرهای $2 دلاری دارم، درمان شده یا نه، و درمان شده یا خیر. فرض کنید که علاوه بر آزمایش مؤثر بودن یا نبودن درمان، میخواهم آزمایش کنم که آیا تأثیر آن در بین گروهها، مثلاً مردان و زنان، متفاوت است یا خیر. سپس میزهای $2$$2 \times 2$، یکی برای مردان، یکی برای زنان دارم. من می خواهم آزمایش کنم که آیا توزیع جداول مستقل از جنسیت است یا خیر. آیا تست استانداردی برای این کار وجود دارد؟
|
مقایسه توزیع جدول احتمالی
|
62008
|
همچنین، آیا وزن های رگرسیون استاندارد شده معادل همبستگی بین یک عامل و یک متغیر آشکار است؟ من این سوال را با اشاره به مثالی در صفحه 138-142 سند زیر می نویسم: ftp://ftp.software.ibm.com/software/analytics/spss/documentation/amos/20.0/en/Manuals/IBM_SPSS_Amos_User_Guide.pdf. در اینجا شکل های گویا و یک جدول آمده است: 
|
در CFA، آیا وزن های رگرسیون غیر استاندارد معادل کوواریانس بین یک عامل و یک متغیر آشکار است؟
|
93710
|
من یک طرح نمونه دارم که می توان آن را در موارد زیر از سر گرفت: 1. شهر را در مناطق X تقسیم کنید و برای هر منطقه، 5٪ از اقامتگاه ها را نمونه برداری کنید و اطلاعاتی در مورد آن به دست آورید. 2. برای هر محل سکونت، با همه ساکنان مصاحبه کنید. 3. در پایان وزن منازل و ساکنین محاسبه می شود. بنابراین، در واقع، من 2 نمونه دارم: یکی برای محل سکونت و دیگری برای ساکنان. سوال من این است: طرحهای نمونهگیری چیست و چگونه آن را در بررسی () اعلام میکنیم؟ هر مجموعه داده دارای این متغیرها است: CD_APONDE - کدی برای شناسایی مناطق تقسیم شده V0300 - کدی برای شناسایی محل سکونت V0010 - وزن اولین مورد (برای اقامتگاه ها)، من معتقدم که یک نمونه طبقه بندی شده است و باید مانند `svydesign( اقشار = ~ CD_APONDE، وزن = ~ V0010، داده = دادوها)`. دومی (برای ساکنان، و سوال واقعی من) من حدس میزنم که یک طرح نمونهبرداری خوشهای طبقهبندی شده سطح 1 باشد، اما مطمئن نیستم، و باید از `svydesign(ids = ~ V0300، لایه = ~ CD_APONDE، وزن = ~ V0010، استفاده کند. داده = دادوس)`. درست میگم؟ اشتباه است؟ 50/50؟
|
طرح نمونه گیری چیست و چگونه می توان آن را در نظرسنجی اعلام کرد()
|
66580
|
در حال حاضر من در حال بررسی چند مقاله در مجلات معتبر هستم! وقتی مقالاتی با مدل های رگرسیون خطی با استفاده از شاخص هرفیندال به عنوان متغیر وابسته پیدا کردم، کنجکاو شدم. من فکر می کردم چنین متغیر پیوسته اما محدودی باید در ترکیب با ln استفاده شود! آیا یکی از شما می تواند به من توضیح دهد که آیا یک روش درست یا غلط است؟
|
چه زمانی باید لگاریتم متغیری مانند شاخص هرفیندال را گرفت؟
|
115134
|
فرض کنید من یک مجموعه داده $x_i$ (با $x_i >= 0$) از N نمونه دارم. من میخواهم میانگین دادهها را زمانی تعیین کنم که دادهها به مقداری c محدود میشوند: $limitedaverage(x,c) = \frac{1}{N} \sum_{i=1}^N max(x_i,c )$ مشکل این است که من به نمونه های واقعی دسترسی ندارم، من فقط برخی از آمارهای کل داده ها را می دانم: مجموع، مجموع مربع ها، و غیره، تا یک مرتبه خاص k: $\sum x$، $\sum x^2$, $\sum x^3$ ... $\sum x^k$ من به دنبال راهی برای تخمین میانگین محدود بالا برای یک c معین و با توجه به جمعهای گفته شده هستم. بطور شهودی توانسته ام یک ایده تقریبی برای k=2 بدست بیاورم: با توجه به $\sum x$ و $\sum x^2$ می توان میانگین و انحراف معیار را محاسبه کرد و این به من می گوید که آیا نمونه هایی وجود دارد که به طور قابل توجهی زیر c و بریده می شود. اما همچنین با توجه به $\sum x^3$ و $\sum x^4$ مطمئن هستم که می توان تخمین دقیق تری به دست آورد. ایده من این است که می توان از $max(x,c) = \lim_{k \to \infty} (x^k+c^k)^\frac{1}{k}$ استفاده کرد اما از اینجا من گیر کرده ام هر نکته ای؟
|
میانگین یک مجموعه داده را زمانی که آستانه تعیین می شود، تخمین بزنید
|
93717
|
برای بازده قیمت روزانه 1320 باید از تست Ljung-Box استفاده کرد؟ آیا قانون کلی وجود دارد؟ دقیقاً چه تأثیری در نتیجه نهایی استفاده نادرست از عدد تاخیر دارد؟
|
چند تاخیر در آمار Q؟
|
77319
|
من می خواهم نشان دهم که $\sum \frac{X^m}{a_n k^2}$ از $k=1$ به $k=n$ در توزیع به متغیر تصادفی منحط 0 همگرا می شود. $m > 0$، $X$ ~ $Cauchy$، یا نسبت دو متغیر تصادفی معمولی استاندارد مستقل، و این $a_n$ به $\infty$ به عنوان $n$ می رود. به $\infty$ می رود. من مطمئن نیستم که چگونه این را نشان دهم - اگر مخرج خود به بی نهایت برود شهودی به نظر می رسد، اما خود عبارت کوشی نیز می تواند مقادیر بی نهایت را به خود بگیرد و بسیار بزرگتر از مخرج با توان $m > 0$ خواهد بود. با توجه به این موضوع، چگونه ممکن است این مورد به پرونده منحط همگرا شود؟
|
چگونه یک سری با کوشی در توزیع به یک متغیر تصادفی منحط همگرا نشان دهیم؟
|
93718
|
من می خواهم سعی کنم تا حدی از یک شبکه عصبی درک کنم. شبکه عصبی دارای یک لایه پنهان است و روی 30-40 ویژگی استفاده می شود که برای طبقه بندی احتمال تعلق مشاهده به 1 از 3 کلاس مختلف استفاده می شود. هدف من یافتن 5-10 تعامل اصلی برای درک بهتر مدل است. برای انجام این کار، مشاورم به من توصیه کرده است که الگوریتم آسیب مغزی بهینه (http://yann.lecun.com/exdb/publis/pdf/lecun-90b.pdf) را بررسی کنم، که ارتباطات بین را حذف می کند. گره ها یکی یکی با این حال، به نظر نمی رسد هیچ بسته R که از این الگوریتم پشتیبانی می کند پیدا کنم. بنابراین میخواهم بدانم چه الگوریتمهای دیگری برای سادهسازی شبکههای عصبی و تفسیر آسانتر آنها وجود دارد. تلاشهای من برای جستجو تاکنون تقریباً بیفایده بوده است، که احتمالاً به دلیل این واقعیت است که من نمیدانم از کدام کلمات کلیدی استفاده کنم. با تشکر
|
راه هایی برای ساده سازی شبکه عصبی در R برای تفسیر
|
66586
|
من Poisson GLMs را در R ایجاد میکنم. برای بررسی بیشپراکندگی، به نسبت انحراف باقیمانده به درجات آزادی ارائهشده توسط «خلاصه(model.name)» نگاه میکنم. آیا مقدار قطع یا آزمونی برای این نسبت وجود دارد که «معنی دار» در نظر گرفته شود؟ من می دانم که اگر > 1 باشد، داده ها بیش از حد پراکنده می شوند، اما اگر نسبت های نسبتاً نزدیک به 1 داشته باشم [مثلا، یک نسبت 1.7 (انحراف باقیمانده = 25.48، df=15) و دیگری 1.3 (rd = 324, df) = 253)]، آیا هنوز باید به دوجمله ای شبه پواسون/منفی سوئیچ کنم؟ من اینجا این تست را برای اهمیت یافتم: 1-pchisq (انحراف باقیمانده، df)، اما من فقط یک بار آن را دیدهام، که من را عصبی میکند. من همچنین خواندم (من نمی توانم منبع را پیدا کنم) که نسبت < 1.5 به طور کلی امن است. نظرات؟ با تشکر
|
آیا آزمایشی برای تعیین اینکه آیا پراکندگی بیش از حد GLM قابل توجه است وجود دارد؟
|
91713
|
من سعی می کنم از randomForest در R استفاده کنم تا اصطلاحات تعاملی را برای اضافه کردن به یک مدل پیدا کنم. برنامه من این بود که درختها را با «maxnodes=4» (دو خرد عمیق) تنظیم کنم، سپس محاسبه کنم که «var A» چقدر فرزند «var B» است و دقت بهبود یافته آن برای اندازهگیری اهمیت تعامل «A*B» . اساساً این کار از «جنگل تصادفی» برای نمونهگیری استفاده میکند. برای ساختن این کار، من متغیرهای mtry=# را نیز میخواستم، بنابراین همه متغیرها شانس این را داشته باشند که فرزند متغیر ریشه باشند. این استراتژی در دادههای من شکست خورد زیرا همه درختهای بعد از چند اول یکسان بودند. من cp را کاهش دادم، اما کمکی نکرد. من mtry=#vars را حذف کردم، و همچنان همه 95٪ درختان یکسان هستند (95٪ آخر، چند مورد اول متفاوت هستند). وقتی maxnodes=32، من مجموعه خوبی از درختان را دریافت کردم، اما این چیزی نیست که برای تعیین تعاملات نیاز داشتم. من باید این کار را انجام دهم زیرا نمی توانم یک جنگل تصادفی را در تولید مستقر کنم. هیچ ایده ای دارید که چرا این کار نمی کند؟ من خودم اکنون با استفاده از rpart روی 2 مدل متغیر که روی جفتهای خوب بالقوه تکرار میشوند، این را کدنویسی میکنم.
|
یافتن تعاملات با استفاده از randomForest
|
66584
|
من چهار مجموعه داده دارم که بر اساس مراحل گروه بندی شده اند (مرحله 1-4) که هر کدام دارای ضریب همبستگی خاص خود هستند. 4 مجموعه داده دارای متغیرهای وابسته و مستقل یکسان با n=106، n=23، n=89 سوم، n=132 هستند. فرضیه من این است که در مرحله 4 همبستگی ضعیف تر می شود. از اعداد به تنهایی این ایده را پشتیبانی می کند زیرا همبستگی در مرحله 4 کوچکتر از 1، 2 و 3 است، اما آیا راهی برای اثبات آماری آن وجود دارد؟ یا اینکه بگوییم تضعیف همبستگی بدون توسل به آزمون معناداری آماری مشکلی ندارد؟ من در مورد تبدیل z Fisher خوانده ام اما آیا می توان از آن برای آزمایش 4 ضریب استفاده کرد؟ و از آنجایی که من فقط مرحله 4 را با بقیه مقایسه می کنم می توانم فقط 1-4 2-4 و 3-4 را با استفاده از Fisher z تست کنم؟ اوه و آیا راهی برای انجام تست با استفاده از SPSS وجود دارد؟
|
مقایسه چهار ضریب همبستگی
|
66581
|
من در ارائه مدل های رگرسیون کمی گیج می شوم. تفاوت بین این دو چیست: $y = \beta_0 + \beta_1 x_1 + \beta_2 x_2$ $y = \gamma_0 + \gamma_1 x_1 + \gamma_2 x_2$ چه زمانی باید از نمادهای مختلف استفاده شود؟ من نمی توانم این مفهوم را به خوبی جستجو کنم، بنابراین کاملاً گیج کننده است زیرا به نظر می رسد ادبیات از نمادها در موارد مشابه استفاده می کند. آیا فقط یک نماد متفاوت برای یک چیز است یا توضیح خاصی در مورد اینکه چه زمانی باید از هر نماد استفاده شود وجود دارد؟
|
تفاوت بین نماد گاما و بتا
|
35715
|
من در حال انجام تجزیه و تحلیل آماری بر روی یک مطالعه روانشناسی هستم که مدت کوتاهی پیش انجام دادم، و دارم فکر می کنم که خودم را در گوشه ای طراحی کرده ام. در این مطالعه، ما پاسخهای اشارهای شرکتکنندگان را پس از سفر در یک محیط مجازی اندازهگیری کردیم. سه عامل وجود داشت که هر کدام در داخل دیگری قرار داشتند: چرخش فیزیکی: 2 سطح بصری: 3 سطح زاویه چرخش: 10 سطح. با این حال، به دلیل این تعداد زیاد عوامل، ما تصادفیسازی ترتیب درمانها را برای هر شرکتکننده محدود کردیم. در شکل تصویر، طرح ما به این صورت است:  M شرایط چرخش فیزیکی را نشان می دهد، V شرایط بصری است، و A شرایط زاویه چرخش است. هر جدول نشان دهنده یک جلسه کامل از 60 آزمایش برای یک شرکت کننده است که به آن گروه اختصاص داده شده است. اعداد در سلول ها نشان دهنده ترتیبی است که شرکت کنندگانی که به آن گروه اختصاص داده شده اند، آزمایش ها را انجام می دهند. در مجموع 36 شرکتکننده را اجرا کردیم و هر کدام را بهطور تصادفی در یک گروه قرار دادیم به طوری که هر چهار گروه 9 شرکتکننده داشتند. این کمی پیچیده است، پس لطفاً اگر می توانم چیزی بهتر توضیح دهم به من اطلاع دهید. گروهها چهار تغییر متفاوت از 60 شرطی را که ما تصمیم گرفتیم، نشان دهند تا از تعداد محدود شرکتکنندگان بهترین استفاده را ببریم. گروه 1: 1. M1|V1 2. M2|V1 3. M1|V2 4. M2|V2 5. M1|V3 6. M2|V3 گروه 2: 1. M1|V3 2. M2|V3 3. M1| V2 4. M2|V2 5. M1|V1 6. M2|V1 گروه 3: 1. M2|V1 2. M1|V1 3. M2|V2 4. M1|V2 5. M2|V3 6. M1|V3 گروه 4: 1. M2|V3 2. M1|V3 3. M2|V2 4. M1|V2 5. M2|V1 6. M1|V1 در هر یک از شش بلوک، شرکت کنندگان هر ده شرایط زاویه چرخش را به ترتیب تصادفی تکمیل کردند. بنابراین، ما یک عامل داریم که تصادفی (زاویه چرخش)، یکی متناوب (شرایط حرکت) و یکی مرتب (شرایط بصری) است. هر یک از اینها در داخل دیگری تو در تو قرار گرفته اند، که یک طرح طرح تقسیم-شکاف-شکاف را ایجاد می کند. اکنون، آنچه ما در حال تجزیه و تحلیل هستیم این است که چگونه پاسخ های اشاره بین شرایط و بین شرکت کنندگان متفاوت است. من همه چیزهایی را که در split-plots پیدا کرده ام خوانده ام، و حتی برخی از ارجاعات به نمودارهای split-split-split پیدا کرده ام، اما هنوز در مورد چگونگی شکستن اعداد در R یا SPSS بسیار مطمئن نیستم. من بسیار سپاسگزار خواهم بود برای هر گونه توصیه، اشاره یا ارجاع به مطالب خواندنی مفید که می تواند به من در این امر کمک کند. لطفاً اگر سؤالی دارید بپرسید یا اگر می توانم چیزی را واضح تر توضیح دهم.
|
طرح متقاطع پلات تقسیم-شکاف-شکاف... آیا این امکان وجود دارد؟
|
62006
|
من سعی می کنم خانواده شبه پواسون را به زبان باگ مدل کنم تا با پراکندگی بیش از حد مقابله کنم. طبق مقدمه WinBUGS برای بومشناسان، این کار توسط: $log(\lambda_i) = f(x_i) + \epsilon_i$ $N_i \sim Poiss(\lambda_i)$ انجام میشود که $\epsilon_i$ پراکندگی بیش از حد را انجام میدهد. این معادل سناریوی 8 در Lindén & Mäntyniemi 2011 است: $log(\lambda_i) = f(x_i)$ $N_i \sim Poiss(\lambda_i \theta_i)$ با این حال، **چگونه می توانم پارامتر پراکندگی برای شبه پواسون را دریافت کنم خانواده**، همانطور که توسط GLM هنگام استفاده از خانواده شبه پواسون گزارش شده است؟ > خلاصه (glm.fit.with.OD) فراخوانی: glm(فرمول = C.OD ~ x، خانواده = شبه پواسون) [...] (پارامتر پراکندگی برای خانواده شبه پواسون 1.470301 در نظر گرفته شده است) در اینجا کد قابل تکرار کامل را اضافه می کنم. برگرفته از مقدمه WinBUGS برای بوم شناسان، به فصل 14.1 مراجعه کنید (کمی اصلاح شده): set.seed(123) ### 14.1. پراکندگی بیش از حد ### 14.1.2. تولید داده n.site <- 10 x <- gl(n = 2، k = n.site، labels = c(علفزار، مصالح)) eps <- rnorm(2*n.site، میانگین = 0 , sd = 0.5)# اثر تصادفی عادی lambda.OD <- exp(0.69 +(0.92*(as.numeric(x)-1) + eps) ) lambda.Poisson <- exp(0.69 +(0.92*(as.numeric(x)-1)) ) # برای مقایسه C.OD <- rpois(n = 2*n.site, lambda = lambda.OD ) C.Poisson <- rpois(n = 2*n.site, lambda = lambda.Poisson) par(mfrow = c(1,2)) boxplot(C.OD ~ x، col = خاکستری، xlab = استفاده از زمین، اصلی = With OD، ylab = تعداد خرگوش، las = 1، ylim = c(0، حداکثر (C. OD))) boxplot (C.Poisson ~ x، col = خاکستری، xlab = استفاده از زمین، اصلی = بدون OD، ylab = تعداد خرگوش، las = 1، ylim = c(0، max(C.OD)) ) ### 14.1.3. تجزیه و تحلیل با استفاده از R glm.fit.no.OD <- glm(C.OD ~ x، خانواده = poisson) glm.fit.with.OD <- glm(C.OD ~ x، خانواده = شبه پواسون) خلاصه (glm.fit .no.OD) summary(glm.fit.with.OD) anova(glm.fit.no.OD، تست = Chisq) anova(glm.fit.with.OD، تست = F) ### 14.1.4. تجزیه و تحلیل با استفاده از WinBUGS # Define model sink(Poisson.OD.t.test.txt) cat( model { # Priors alpha ~ dnorm(0,0.001) beta ~ dnorm(0,0.001) sigma ~ dunif(0, 10 ) tau <- 1 / (سیگما * سیگما) maybe_overdisp <- mean(exp_eps[]) # احتمال برای (i در 1:n) { C.OD[i] ~ dpois(lambda[i]) log(lambda[i]) <- آلفا + بتا *x[i] + eps [i] eps[i] ~ dnorm(0، tau) exp_eps[i] <- exp(eps[i]) } } ,fill=TRUE) sink() # Bundle data win.data <- list(C.OD = C.OD, x = as.numeric(x)-1, n = length(x)) # Inits تابع inits < - function(){ list(alpha=rlnorm(1), beta=rlnorm(1), sigma = rlnorm(1))} # پارامتر برای تخمین پارامترها <- c(لامبدا،آلفا، بتا، سیگما، شاید_بیش از حد) # تنظیمات MCMC nc <- 3 # تعداد زنجیرهها ni <- 30000 # تعداد كششها از پسین در هر زنجیره nb <- 10000 # تعداد قرعه کشی هایی که باید حذف شوند به عنوان سوزاندن nt <- 5 # نرخ نازک شدن # شروع نمونه برداری گیبس <- اشکالات(data=win.data، inits=inits، parameters.to.save=params، model.file=Poisson.OD.t.test.txt، n.thin=nt، n.chains=nc، n. burnin=nb, n.iter=ni, debug = TRUE) print(out, dig = 3) در اینجا خروجی «glm()» در R: > خلاصه (glm.fit.with.OD) فراخوانی: glm(فرمول = C.OD ~ x، خانواده = شبه پواسون) باقیمانده انحراف: حداقل 1Q میانه 3Q حداکثر -2.2945 -0.5905 -0.4348 1.0798 1.8159 1.8159 St. خطای t مقدار Pr(>|t|) (Intercept) 0.4055 0.3131 1.295 0.21166 xarable 1.2622 0.3546 3.559 0.00224 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده شبه پواسون 1.470301 در نظر گرفته شده است) انحراف صفر: 51.032 در 19 درجه آزادی: 228 درجه باقیمانده. 18 درجه آزادی AIC: NA تعداد تکرارهای امتیازدهی فیشر: 5 و در اینجا خروجی مدل jags است (با استفاده از تکرارهای بیشتر از کد بالا): > print(out, dig = 3) استنتاج برای مدل اشکالات در Poisson.OD.t.test txt.»، با استفاده از jags، 3 زنجیره، هر کدام با 300000 تکرار (اول 100000 دور ریخته شده)، n.thin = 5 n.sims = 120000 تکرار ذخیره شده mu.vect sd.vect 2.5% 25% 50% 75% 97.5% Rhat n.eff آلفا 0.275 0.324 -0.415 0.073 0.291 0.801 0.061 0.291 0.01 0.01 beta 1.289 0.385 0.547 1.035 1.281 1.534 2.071 1.001 41000 لامبدا[1] 1.163 0.586 0.263 0.740 1.092 2.071 1.402 1.092 1.401. لامبدا[2] 1.368 0.654 0.398 0.914 1.273 1.700 2.934 1.001 27000 lambda[3] 2.173 1.081 0.818 1.429 1.700 1.938 1.429 1.9319. 120000 لامبدا [4] 1.367 0.654 0.397 0.912 1.273 1.701 2.927 1.001 26000 لامبدا [5] 1.370 0.655 0.401 0.275 0.275 0.401
|
تعریف پارامتر پراکندگی برای خانواده شبه پواسون
|
112315
|
من کاملاً مطمئن نیستم که آیا باید این سؤال را اینجا بپرسم، اما آیا EViews تابعی از تبدیل آمار _J_ به _p_ -value از Jstats یا روش دیگر دارد. من چندین تخمین GMM را اجرا می کنم و می خواهم هر دوی آنها را در مقاله خود نشان دهم. یا راهی برای تبدیل آمار _J_ به _p_ -مقدار آمار _J_ است.
|
آمار $J$ به $p$-value از $J$ آمار و برعکس
|
32845
|
من گاهی اوقات شرایطی را دارم که از چندین ده تا بیش از 100 مدل خطی برای انجام تست فرضیه دارم. آنها متغیرهای پیش بینی یکسانی دارند، اما متغیرهای پاسخ متفاوتی دارند. فرض کنید من 100 مدل دارم و هر مدل دارای چهار مقدار p است - یکی برای رهگیری، یکی برای دو اثر اصلی و دیگری برای اثر متقابل. اگر بخواهم نرخ کشف نادرست را محاسبه کنم، آیا باید یک مجموعه از FDR ها را بر اساس 400 p-value محاسبه کنم، یا باید یک مجموعه جداگانه از FDR ها را برای هر عبارت در مدل، بر اساس 100 p-value برای آن یک محاسبه کنم. مدت؟ یک همکار با تجربه تر به من گفته که دومی است، اما دلیلش را نمی فهمم. در صورت اهمیت، معمولاً یکی از تأثیرات اصلی و تأثیر متقابل آن با سایر تأثیرات مورد توجه اولیه است و اصطلاحات دیگر درج می شوند زیرا ممکن است بر پاسخ تأثیر بگذارند و بنابراین باید در نظر گرفته شوند.
|
اگر من FDR یا q-value را برای مجموعه ای از مدل های خطی محاسبه می کنم، آیا باید هر عبارت جداگانه در نظر گرفته شود؟
|
23589
|
چگونه می توان اجرای یک محاسبه فاکتور بیز را آزمایش کرد؟ آنالوگ در آزمون فرضیه فرکانسیست نسبتاً ساده است: دادهها را مطابق فرضیه صفر تولید کنید، از کد برای تولید یک مقدار p استفاده کنید، هزاران بار با دانههای تصادفی مختلف تکرار کنید، و به دنبال یکنواختی مقادیر p محاسبهشده باشید. با این حال، برای آزمایش اجرای برخی از کدهای فاکتور بیز، مطمئن نیستم که چگونه ادامه دهم. آیا از مدلهای $M_1$ و $M_2$ با احتمال مساوی انتخاب میکنم، دادهها را تولید میکنم و آزمایش میکنم که آیا مقادیر K$ به طور منطقی نزدیک به 1 هستند؟ همچنین آیا مشابهی از تست توان فرکانسیستی برای بیز فاکتورها در امتداد همین خطوط وجود دارد (از بین مدلهای با چرخش سکه مغرضانه انتخاب کنید)؟
|
آزمایش پیاده سازی کد Bayes Factor
|
32840
|
من یک آنالیز واریانس یک طرفه و سپس تست Tukey برای مقایسه میانگین درمان های مختلف انجام دادم. فرض کنید درمان ها A، B و C هستند. جدول مقایسه های چندگانه به من می گوید که بین B و C تفاوت معنی داری وجود دارد. با این حال، این دو تفاوت قابل توجهی با A ندارند و بنابراین وقتی سفارش می دهیم در یک زیر مجموعه وجود دارند. نتایج آیا می توانم بگویم بین B و C تفاوت قابل توجهی وجود دارد یا این امکان پذیر نیست؟
|
چگونه تست توکی را تعبیر کنیم؟
|
110418
|
من کاملا مبتدی هستم :) من در حال انجام یک مطالعه با حجم نمونه 10000 از جمعیتی حدود 745000 هستم. هر نمونه نشان دهنده یک درصد شباهت است. اکثر نمونه ها در حدود 97-98٪ هستند، اما تعداد کمی بین 60٪ و 90٪ هستند، یعنی توزیع به شدت دارای انحراف منفی است. حدود 0.6٪ از نتایج 0٪ است، اما اینها جدا از نمونه درمان می شوند. میانگین تمام 10000 نمونه 97.7٪ است و فقط در Excel، StdDev 3.20 است. من میدانم که StdDev واقعاً در اینجا قابل اجرا نیست زیرا نتایج به طور معمول توزیع نمیشوند (و چون +3.20 شما را بالای 100٪ قرار میدهد!). سوالات من این است: 1. آیا بوت استرپینگ (مفهوم جدیدی برای من) مناسب است؟ 2. آیا به درستی بوت استرپ می زنم :) 3. حجم نمونه کافی چیست؟ کاری که من انجام میدهم، نمونهبرداری مجدد (با جایگزینی) از 10000 نتیجه و محاسبه میانگین جدید است. من این کار را چند هزار بار انجام می دهم و هر میانگین را در یک آرایه ذخیره می کنم. سپس میانگین میانگین را محاسبه می کنم و این نتیجه آماری من است. برای بدست آوردن 99% CI، مقدار 0.5% و مقدار 99.5% را انتخاب میکنم، و این یک محدوده بسیار محدود ایجاد میکند: 97.4% - 98.0%. آیا این یک نتیجه معتبر است یا من کار اشتباهی انجام می دهم؟ در مورد حجم نمونه، من فقط حدود 1.3٪ از جامعه را نمونه گیری می کنم - نمی دانم که آیا این کافی است. چگونه بفهمم که نمونه من نماینده جامعه است؟ در حالت ایدهآل، من میخواهم 99٪ به میانگینی که +/- 0.50٪ درصد است (یعنی 97.2٪ - 98.2٪) اطمینان داشته باشم. پیشاپیش برای هر راهنمایی متشکرم!
|
آیا بوت استرپینگ برای این داده های پیوسته مناسب است؟
|
27691
|
من دو سری زمانی دارم: 1. یک پروکسی برای حق بیمه ریسک بازار (ERP؛ خط قرمز) 2. نرخ بدون ریسک که توسط اوراق قرضه دولتی (خط آبی) مشخص می شود! time] (http://i.stack.imgur.com/evTDC.png) من می خواهم آزمایش کنم که آیا نرخ بدون ریسک می تواند ERP را توضیح دهد یا خیر. بدینوسیله، من اساساً توصیه Tsay (2010، ویرایش سوم، ص 96) را دنبال کردم: سری زمانی مالی: 1. مدل رگرسیون خطی را برازش دهید و همبستگی های سریال باقیمانده ها را بررسی کنید. 2. اگر سری باقیمانده غیرایستایی ریشه واحد است، اولین تفاوت هر دو متغیر وابسته و توضیحی را در نظر بگیرید. با انجام اولین مرحله، نتایج زیر را دریافت می کنم: ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (Intercept) 6.77019 0.25103 26.97 <2e-16 *** Risk_Free_Rate -0.65320 0.04123 -15.84 <2e-16 *** --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 همانطور که از شکل انتظار می رود، رابطه منفی و معنی دار است. با این حال، باقیمانده ها به صورت سریالی همبستگی دارند:  بنابراین، من ابتدا هر دو را از هم متمایز می کنم. متغیر وابسته و توضیحی در اینجا چیزی است که من دریافت می کنم: ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (Intercept) -0.002077 0.016497 -0.126 0.9 Risk_Free_Rate -0.958267 0.053731 -17.834 <2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 و ACF باقیمانده به نظر می رسد:  این نتیجه عالی به نظر می رسد: اول، باقی مانده ها اکنون با هم ارتباط ندارند. دوم، به نظر می رسد این رابطه در حال حاضر منفی تر است. در اینجا سؤالات من است (احتمالاً تا به حال تعجب کرده اید ;-) اولین رگرسیون، من به عنوان (به کنار مشکلات اقتصادسنجی) تعبیر می کردم: اگر نرخ بدون ریسک یک درصد افزایش یابد، ERP 0.65 درصد کاهش می یابد. در واقع، پس از مدتی تأمل در این مورد، من رگرسیون دوم را به همان صورت تفسیر می کنم (البته اکنون منجر به کاهش 0.96 درصدی می شود). آیا این تعبیر صحیح است؟ خیلی عجیب است که متغیرهایم را تغییر می دهم، اما نیازی به تغییر تفسیرم نیست. با این حال، اگر این درست است، چرا نتایج تغییر می کند؟ آیا این فقط نتیجه مشکلات اقتصادسنجی است؟ اگر چنین است، آیا کسی ایده ای دارد که چرا رگرسیون دوم من حتی بهتر به نظر می رسد؟ به طور معمول، من همیشه می خوانم که شما می توانید همبستگی های جعلی داشته باشید که پس از انجام صحیح آن از بین می روند. در اینجا، به نظر برعکس است.
|
چگونه رگرسیون خود را با اولین متغیرهای متفاوت تفسیر کنم؟
|
51547
|
من سعی می کنم از تابع ridge.cv() در R استفاده کنم. مستندات می گوید که ورودی y بردار پاسخ ها است. این دقیقا به چه معناست؟
|
چگونه از ridge.cv در R استفاده کنیم؟
|
66587
|
من ابتدا یک مجموعه داده حاوی سنین را از طریق SAS npar1way اجرا کردم، اما یک بازبینی خطاهای استاندارد را میخواست، به طوری که باعث ایجاد یک راهانداز صاف شد. از آنجایی که نمی توانستم از survyselect استفاده کنم، مجبور شدم یک مرحله داده را کدنویسی کنم. فکر کنم درست تنظیم شده من 10000، 20000 و 100000 تکرار اجرا کردم. من به بازخوردی در مورد یافته هایم نیاز دارم. نتایجی که به دست آوردم کاملاً رضایت بخش نبودند، اما تجربه زیادی در راه اندازی بوت استرپ ندارم، بنابراین بازخورد قابل قدردانی است. من دو گروه دارم، بنابراین ابتدا آنها را تقسیم کردم، سپس نمونه هایم را ترسیم کردم، همه چیز را ترکیب کردم و با پردازش برای به دست آوردن نتایج استفاده کردم. داده sasdata.group1 sasdata.group2; set sasdata.have(keep=group ga birthwt); if group=1 سپس خروجی sasdata.group1; if group=2 سپس خروجی sasdata.group2; اجرا؛ sasfile sasdata.group1 load; data sasdata.outboot1(drop=__i); do Replicate = 1 تا 100000; انجام __i = 1 به numrecs. p = int(1 + numrecs*(ranuni(62353006))); تنظیم sasdata.group1 point=p nobs=numrecs; a = a + rannor(623530)/sqrt(numrecs); /* 1 */ خروجی; پایان؛ پایان؛ توقف؛ اجرا؛ sasfile sasdata.group1 بستن; بسته شدن فهرست شانس sasfile sasdata.group2 load; data sasdata.outboot3(drop=__i); do Replicate = 1 تا 100000; انجام __i = 1 به numrecs. p = int(1 + numrecs*(ranuni(17036255))); تنظیم sasdata.group2 point=p nobs=numrecs; a = a + rannor(170362)/sqrt(numrecs); /* 1 */ خروجی; پایان؛ پایان؛ توقف؛ اجرا؛ sasfile sasdata.group2 بستن; بسته شدن فهرست شانس داده sasdata.a; تنظیم sasdata.outboot1 sasdata.outboot3; اجرا؛ proc sort data=sasdata.a; توسط گروه تکرار; اجرا؛ بسته شدن فهرست شانس proc تک متغیره data=sasdata.a; var a; توسط گروه تکرار; output out=sasdata.aresults median=medianx; اجرا؛ فهرست شانس؛ proc transpose data=sasdata.aresults (keep=replicate group medianx ) out=sasdata.t_results prefix=grp; با تکرار؛ var medianx; گروه شناسه اجرا؛ proc تک متغیره data=sasdata.t_results; var grp1 grp2; اجرا؛ داده sasdata.median_diff; تنظیم sasdata.t_results; median_diff=grp1-grp2; اجرا؛ proc تک متغیره data=sasdata.median_diff /*noprint */; var median_diff; خروجی out=sasdata.percentiles pctlpre=P_ pctlpts=2.5, 97.5; اجرا؛ به نظر می رسد میانگین ها با آنچه من از npar1way دریافت می کنم مطابقت ندارند. آنها نزدیک هستند، اما کمی دور هستند. بنابراین تفاوت در میانه ها برای مورد بوت استرپ کمی بیشتر است. با توجه به اینکه بوت استرپ به میانه های واقعی همگرا نمی شود، گزارش میانه های npar1way و SE های بوت استرپ درست به نظر نمی رسد. هیچ ایده ای در مورد اینکه اینجا چه خبر است؟
|
بوت استرپ متوسط
|
60988
|
ما یک دنباله iid از متغیرهای تصادفی $X_1، X_2، \dots، X_n$ داریم که $E(X_i) = \mu$ و $var(X_i) = \sigma^2$. میانگین نمونه $\bar{X}$ به لطف LLN به $\mu$ با نرخ $\sqrt{n}$ همگرا می شود. اگر یک تابع پیوسته $f()$ داشته باشیم، قضیه نگاشت پیوسته تضمین می کند که $f(\bar X)$ به $f(\mu)$ همگرا می شود. سوال من این است: با چه نرخی $f(\bar X)$ به $f(\mu)$ همگرا می شود؟ به طور مجانبی میگویم $\sqrt{n}$، با توجه به اینکه $f()$ پیوسته است و بنابراین به صورت محلی خطی است. اما آیا میتوانیم نرخهای همگرایی بسیار متفاوت از $\sqrt{n}$ در نمونههای کوچک داشته باشیم؟
|
نرخ همگرایی یک تابع غیر خطی از میانگین نمونه
|
27698
|
سوال من دقیقا عنوان این است: به چه کسی می توانیم مشکل SAS را گزارش کنیم؟ در زیر یک نمونه آورده شده است. این مشکل واقعاً شدید نیست اما تا حدودی خطرناک است (در واقع من نمونه خود را در زیر بعد از نظر آنیکو به روز کردم؛ در نسخه اول این پست یک سردرگمی وجود داشت). چنین مجموعه داده ای را در نظر بگیرید: > موقعیت لوله داده y 1 1 top 0.25602779 2 1 top 2.99327392 3 1 top 0.03673459 4 1 top -0.94515391 5 1 bottom 9.129471343 5 1 پایین 9.129473456. 6.65291454 8 2 بالا -2.32616858 9 2 بالا -1.61491564 10 2 بالا -2.88930533 11 2 بالا -1.48685691 12 2 پایین 0.0347491564 پایین 0.0347491564 پایین. 1.43776713 15 3 بالا 3.04525229 16 3 بالا -1.06611380 17 3 بالا 0.64097731 18 3 پایین 5.63571519 19 3 پایین 5.967211380 پایین 5.9672113074 پایین 5.46937089 22 4 بالا 7.00724734 23 4 بالا 4.33632991 24 4 بالا 1.90765886 25 4 بالا 1.91688415 26 4 پایین 9.54251942 4 پایین 3.62175779 29 5 بالا 6.38900310 30 5 بالا 7.19216388 31 5 بالا 8.29793550 32 5 پایین 9.46722783 33 5 پایین 9.13131261. 35 6 بالا -1.05244281 36 6 بالا -0.86450352 37 6 بالا -0.66251724 38 6 بالا -1.29278055 39 6 پایین 4.99175539 40 6 پایین 3.954 پایین 3.954 6.90398638 این مدل SAS PROC MIXED DATA=dat ; لوله موقعیت کلاس ; MODEL y = POSITION / cl ; موقعیت تصادفی / نوع = CS موضوع = لوله ; اجرا؛ ترک؛ از لحاظ نظری معادل این مدل SAS دیگر است (مدل های حاشیه ای یکسان هستند): PROC MIXED DATA=dat ; لوله موقعیت کلاس ; MODEL y = POSITION / cl ; لوله تصادفی * موقعیت; اجرا؛ ترک؛ با این حال، این دو مدل تخمینها و خطاهای استاندارد یکسانی دارند، اما درجات آزادی کاملاً متفاوتی را برای تخمینها به دست میدهند (با گزینه پیشفرض).
|
به چه کسی می توانیم مشکل SAS را گزارش کنیم؟
|
55041
|
فرض کنید $U_{(1)} , \dots , U_{(n)}$ آمار سفارش یک نمونه تصادفی از $U(0,1)$ است. چگونه می توان توزیع حد تابع چگالی احتمال مشترک را پیدا کرد $T_n=( nU_{(1)}، nU_{(2)}).$
|
محاسبه مشترک توزیع حد تابع چگالی احتمال $T_n=(nU_{(1)},nU_{(2)}).$
|
32849
|
من در حال مدل سازی داده های ردیابی چشم هستم که در آن افراد می توانند به یکی از دو شیء روی صفحه نگاه کنند. منظور از دستکاری تجربی ما افزایش احتمال اینکه آنها به جسم A نسبت به شی B نگاه کنند. با این حال، اثر به احتمال زیاد خطی نیست و آنچه ما در واقع فرض می کنیم این است که شرکت کنندگان کنترل ما تناسب بیشتری با یک درجه دوم یا مکعب خواهند داشت. منحنی (نشان دهنده تناوب بیشتر بین دو جسم) نسبت به شرایط تجربی ما. این یک دستکاری بین سوژه ها است. بنابراین، من از کدهای چند جمله ای متعامد برای مدل سازی با `lmer()` استفاده می کنم، با مدلی مانند: `elog(نسبت-A) ~ ot1 + ot2 + ot3 + شرط + ot1: شرط + ot2: شرط + ot3: شرط + (1 | موضوع) + (0 + ot1 | موضوع) + (0 + ot2 | موضوع) + (0 + ot3 | موضوع)` آیا من درست می گویم در وارد کردن شیبهای تصادفی بهعنوان غیر همبسته (یعنی به عنوان عبارتهای خطای متمایز) زیرا کدهای چندجملهای متعامد نباید با یکدیگر همبستگی داشته باشند و باید تأثیرات منحصربهفردی بر متغیر پیشبینیشده داشته باشند (نسبت ظاهری)؟ این یک مزیت اضافی دارد که میتوان از نمونهگیری مونت کارلو زنجیره مارکوف با «pvals.fnc()» «languageR» استفاده کرد، اما نتایج متفاوتی نسبت به زمانی که عبارتهای تصادفی مانند «(1 + ot1 + ot2» را وارد کنم، دریافت میکنیم. + ot3 |. موضوع)` و بنابراین میخواهم مطمئن شوم که مشکلی ندارد.
|
تعیین اثرات تصادفی ناهمبسته برای کدهای چند جمله ای متعامد
|
27695
|
من می خواهم تأثیر درآمد، تحصیلات، وضعیت تأهل و غیره را بر رضایت از زندگی کاهش دهم. دادههایی که من استفاده میکنم از نظرسنجی SHARE است - رضایت از زندگی میتواند مقادیر 1-10 را داشته باشد، بیشتر مقادیر حدود 6-8 هستند. رگرسیون OLS برای من انتخاب ضعیفی به نظر می رسد، زیرا ممکن است مقادیر پیش بینی شده را خارج از بازه 1-10 ایجاد کند. همکاران من پیشنهاد کرده اند که ممکن است نگاهی به تحلیل کوتاه/سانسور شده، مانند رگرسیون توبیت بیندازم. با این حال، من معتقد نیستم که دادههایی دارم که به روشی که رگرسیون توبیت فرض میکند سانسور شده باشد، که اگر بتوان تنها بخشی از طیف واقعی مقادیر را مشاهده کرد، چنین خواهد بود. اکثر محققان از رگرسیون لجستیک منظم استفاده می کنند. این به نظر من معتبر است، اما 10 ممکن است تعداد بسیار بالایی از نتایج ممکن برای logit باشد (من معمولاً این کار را با نتایج کمتری انجام دادهام، اگرچه مطمئن نیستم که آیا اصلاً این یک مشکل است یا خیر)، و من معتقدم ologit این را فرض نمیکند. فواصل بین دسته ها به اندازه یکسان باشد (در اینجا ذکر شده است)، که من معتقدم در سناریوی من چنین است (چرا تفاوت بین 3 و 4 با 7 و 8 متفاوت است؟) نمی دانم که آیا رگرسیون بازه ای چیزی است که من به آن نیاز دارم؟ فکر می کنم اینطور است، اما من نیاز به مدرک دارم :) خب، کدام تحلیل آماری را توصیه می کنید؟
|
کدام روش رگرسیون برای نمره رضایت از زندگی؟
|
32848
|
من دادههایی دارم که شامل تعداد دانشآموزان یک کلاس و درصد آن گروهی است که در یک آزمون استاندارد به یک سطح قبولی از پیش تعیین شده دست یافتهاند. من این داده ها را برای تعداد مدارس مختلف در دو نمونه جمعیتی، حدود 30 مدرسه در هر کدام دارم. اندازه کلاس ها به طور قابل توجهی متفاوت است، بنابراین به نظر می رسد استفاده از درصدی که قبلا در هنگام محاسبه آزمون t داده شده است منطقی باشد. اما این را هم می دانم که نباید درصدها را میانگین گرفت. من می توانم تعداد دانش آموزان را از روی داده های داده شده محاسبه کنم، اما این اندازه کلاس را نشان نمی دهد، که به نظر مهم می رسد. درصد به طور خودکار وزن اندازه کلاس را منعکس می کند. هر گونه توصیه یا فکر در مورد این مشکل قدردانی می شود. داده های مثالی برای نشان دادن مشکل بدون دانش آموز درصد قبولی محاسبه شده خیر 28 7% 2 79 7% 6 28 51% 14 58 50% 29 با تشکر تیم
|
آیا می توان از درصد برای محاسبه میانگین و غیره در آزمون t استفاده کرد؟
|
103500
|
من در تلاش برای توسعه یک مدل پیش بینی با استفاده از داده های بالینی با ابعاد بالا از جمله مقادیر آزمایشگاهی هستم. فضای داده با 5 هزار نمونه و 200 متغیر کم است. ایده این است که متغیرها را با استفاده از روش انتخاب ویژگی (IG، RF و غیره) رتبه بندی کنیم و از ویژگی های رتبه بندی برتر برای توسعه یک مدل پیش بینی استفاده کنیم. در حالی که انتخاب ویژگی با رویکرد ساده بیز به خوبی پیش می رود، اکنون با مشکلی در پیاده سازی مدل پیش بینی به دلیل داده های از دست رفته (NA) در فضای متغیر خود مواجه هستم. آیا الگوریتم یادگیری ماشینی وجود دارد که بتواند نمونه هایی را با داده های از دست رفته به دقت کنترل کند؟ هر نمونه؟ پیشاپیش از کمک شما متشکرم!
|
الگوریتم های یادگیری ماشین برای مدیریت داده های از دست رفته
|
103503
|
مربوط به آیا قبل از انجام PCA باید متغیرهای بسیار همبسته را حذف کرد؟، PCA در ژنتیک جمعیت بسیار مورد استفاده قرار می گیرد تا اساساً افراد را بر اساس نشانگرهای ژنتیکی (SNPs) به گروه های قومی خوشه بندی کند. این SNP ها ممکن است بسیار همبسته باشند (عدم تعادل پیوند، LD)، و از این رو معمولاً نازک می شوند تا تقریباً مستقل شوند. همچنین میتوان آنها را روی یکدیگر پسرفت کرد (http://www.plosgenetics.org/article/info%3Adoi%2F10.1371%2Fjournal.pgen.0020190) تا قبل از انجام PCA مستقلتر شوند. اما این رگرسیونها کمی «مشکوک» هستند، زیرا نمونهها مستقل نیستند، که در وهله اول تلاش میکنیم تخمین بزنیم! بنابراین به نظر می رسد این مشکل مرغ و تخم مرغ یک رویکرد تکراری EM-مانند را پیشنهاد می کند که در آن ابتدا سعی می کنید ارتباط SNP را با استفاده از نمونه ها تخمین بزنید، سپس ارتباط نمونه را با استفاده از SNP ها و تکرار کنید. آیا این رویکرد منطقی است و آیا قبلاً در برخی زمینه ها استفاده می شود؟
|
رویکرد اصولی برای PCA بر روی متغیرهای همبسته؟
|
61675
|
من در حال انجام تجزیه و تحلیل بر روی تصمیم گیری چند ویژگی (MADM) هستم، که در آن دو ویژگی (a1، a2) برای توصیف کیفیت m رویکردهای جایگزین دارم. اولین ویژگی، a1، با درصد اندازه گیری می شود (بنابراین واحد ندارد)، در حالی که ویژگی دیگر دارای یک واحد است. برخی از گزینه های جایگزین وجود دارند که صفر را به عنوان اولین مقدار مشخصه خود دارند. هدف من مقایسه گزینه های مختلف و تعیین بهترین جایگزین با فرض وزن برابر ویژگی ها است. من میدانم که روشهای «تصمیمگیری چند ویژگی» ممکن است به مشکلی به نام «برگشت رتبه» منتهی شود (یعنی رتبهبندی گزینههای جایگزین ممکن است با افزودن جایگزینهای جدید تغییر کند). با این حال، تا آنجا که من فهمیدم (و آزمایش کردم)، مدل محصول وزنی (1) از این موضوع رنج نمی برد. موضوعی که پیش می آید؛ با این حال، این است که من نمی توانم مستقیماً از این روش استفاده کنم، زیرا این روش مستلزم تقسیم امتیازات گزینه های مختلف است. من فکر کردم تمام مقادیر a1 را به مقدار مشخصی افزایش دهم و به نظر می رسد که خوب کار می کند. با این حال، اگر مقادیر a1 را بیش از یک مقدار افزایش دهم، رتبهبندی شروع به تغییر میکند. آیا روش دیگری برای استفاده از «مدل محصول وزنی» برای ارزیابی گزینههای جایگزین در وجود صفرها میشناسید؟ مرجع: (1) Triantaphyllou, E. & Mann, S.H., 1989. بررسی اثربخشی روشهای تصمیم گیری چند بعدی: پارادوکس تصمیم گیری. سیستم های پشتیبانی تصمیم، 5(3)، pp.303-312.
|
مدیریت نمره صفر در «مدل محصول وزنی»؟
|
60980
|
من با یک مجموعه داده کار می کنم که در آن باید از آمارهای غیر پارامتریک استفاده کنم (به جزئیات نمی پردازم). این دادههای رفتاری در مورد حیوانات در اسارت است ($n=8$)، که در آن درمانهای $4$ در زمانهای مختلف به طور تصادفی 3$$ معرفی شدند. من تفاوت در تکرارهای خود را با استفاده از آزمون فریدمن آزمایش کرده ام. هیچ کدام پیدا نشد. من به دنبال راهی برای تجزیه و تحلیل دادههایم هستم تا تفاوتهای بین درمانهای 4 دلاری را ببینم، اما همچنین تفاوت بین افراد (8 دلار) در تعامل را در نظر بگیرم. **سوالات:** 1. در ذهن من باید یک ANOVA دو طرفه (یعنی معادل ناپارامتریک) انجام دهم، اما اکثر تست هایی که پیدا کرده ام اجازه داده های تکراری را نمی دهند. 2. آیا از آنجایی که هیچ تفاوتی پیدا نشد، تکرارها را میانگین بگیرم و سپس آزمون معادل ANOVA را انجام دهم؟ 3. آیا آزمایشی وجود دارد که با در نظر گرفتن تعامل فردی با داده های تکراری، تفاوت را در 4 درمان جستجو کند؟
|
آزمون ناپارامتریک برای مقایسه چهار تیمار و سه بار
|
74669
|
من روی یک مدل پیشبینی کار میکنم که در آن چندین متغیر عاملی دارم که سطوح مختلفی دارند. این متغیرهای عامل دارای ساختار تودرتو هستند، به شکل یک دسته، یک زیرمجموعه و یک زیر مجموعه. به عنوان مثال فرض کنید که من یک فیلد داشتم که نوع دستگاهی است که کاربر وب سایت را با آن مرور می کند (کامپیوتر، تبلت، تلفن)، که سپس می توان آن را به ((اپل، ویندوز، لینوکس)، (کیندل، iOS، اندروید) تقسیم کرد. )، (ویندوز، iOS، اندروید، RIM))، و سپس هر یک از آنها را می توان به شماره نسخه تقسیم کرد. آیا روش استانداردی برای مدیریت ویژگیهای تودرتو مانند این در مدلهای درختی وجود دارد؟ در سطح شهودی، من فکر نمیکنم درخت باید روی یکی از زیر گروهها تقسیم شود تا زمانی که ابتدا روی یکی از گروههای اصلی تقسیم شود (زیرا یک تلفن ویندوز و یک رایانه شخصی ویندوز کاملاً متفاوت هستند). ایجاد یک عامل واحد که مسیر درختی کامل را توصیف می کند، سطوح ممکن زیادی خواهد داشت.
|
درخت رگرسیون با عوامل تو در تو
|
51544
|
برای اندازه گیری تعامل بین متغیرها در یک معادله خاص به چه چیزی نیاز دارم؟ برای مثال مصرف روزانه 50 گرم پروتئین به سلامتی من کمک می کند. من فقط یک ساعت ورزش در روز انجام می دهم به سلامتی من کمک می کند. من فقط 1 ساعت حرکات کششی در روز به سلامتی من کمک می کند. و غیره. اما ترکیب دو مورد از موارد بالا به من بیشتر از انجام یک مورد از نظر سلامتی کمک می کند. و ترکیب هر سه به من کمک می کند حتی بیشتر از انجام دو مورد از کارهای بالا. برای مثال مصرف 50 گرم پروتئین و انجام 1 ساعت ورزش در روز مفید است تا اینکه فقط یکی از آنها را انجام دهید. مصرف 50 گرم پروتئین در هر روز 1 ساعت ورزش را چگونه تکمیل می کند؟ چیزی که من می خواهم بدانم، راهی برای اندازه گیری تعامل بین این چیزها است. چگونه می توانم رابطه بین هر یک از بالا را کمیت کنم؟ به چه نوع مجموعه داده ای نیاز دارم تا بتوانم نحوه تعریف آنها از یکدیگر را تعیین کنم؟ توجه: من نمی دانم از چه برچسب هایی برای سوالم استفاده کنم. لطفا پیشنهاد دهید. هر گونه پیشنهاد بسیار قدردانی می شود.
|
کمی کردن تعامل بین متغیرها در یک معادله
|
65800
|
من یک گروه 200 نفری بچه دارم که در ماه های 0، 1، 2، 3، 6، 9 و 12 امسال به کلینیک آمدند. در هر بازدید از کلینیک، کودکان وزن شدند. # تنظیم seed برای ایجاد دادههای نمونه قابل تکرار set.seed(50) # ایجاد شماره شناسه بیمار، جنسیت و کنترل سن <- کنترل NULL$Age_0 = round(runif(200،1،10)، رقم = 1) # ایجاد ماهانه کنترل وزن$Weight_0 = ((کنترل$Age_0 + 4) * 2) کنترل$Weight_1 = (کنترل$Weight_0 * 1.1) control$Weight_2 = (control$Weight_0 * 1.2) control$Weight_3 = (control$Weight_0 * 1.3) control$Weight_6 = (control$Weight_0 * 1.4) control$Weight_9 = (کنترل$Weight_0 * 1.6) کنترل$Weight_12 = (control$Weight_0 * 1.8) # ذخیره به عنوان کنترل قاب داده <- as.data.frame(control) من می خواهم بررسی کنم که چگونه وزن آنها با زمان تغییر می کند. من فکر کردم بهترین راه برای انجام این کار این است که به سادگی میانگین وزن آنها را در هر بازدید در مقابل زمان ترسیم کنم. # نمودار میانگین وزنها در مقابل نمودار زمانی (c(0،1،2،3،6،9،12)، c(میانگین(control$Weight_0)، میانگین(control$Weight_1)، میانگین(کنترل$Weight_2)، میانگین( control$Weight_3)، mean (control$Weight_6)، mean (control$Weight_9)، mean (control$Weight_12))، xlab = ماه، ylab = وزن (کیلوگرم)، اصلی = وزن در مقابل زمان، ylim = c(0,50)) من می خواهم چند نوار خطای عمودی را در این نمودار قرار دهم. سوالات من این است: 1. آیا باید انحراف معیار، خطای استاندارد یا فاصله اطمینان 95% را ترسیم کنم؟ 2. چگونه می توانم نوارهای خطای عمودی را به طرح اضافه کنم؟ گروه دیگری از کودکان هستند که در طول سال تزریق هورمون رشد دریافت کردند. من می خواهم رشد آنها را در طول زمان با رشد کودکان گروه کنترل مقایسه کنم. # شماره شناسه بیمار، جنسیت و رشد سن را ایجاد کنید <- رشد صفر$سن_0 = دور (runif(200،1،10)، رقم = 1) # ایجاد وزن ماهانه رشد$Weight_0 = ((رشد$سن_0 + 6) * 2) رشد$Weight_1 = (رشد$Weight_0 * 1.3) رشد$Weight_2 = (رشد$Weight_0 * 1.4) رشد$Weight_3 = (رشد$Weight_0 * 1.6) رشد$Weight_6 = (رشد$Weight_0 * 1.8) رشد$Weight_9 = (رشد$Weight_0 * 1.9) رشد$Weight_12 = (رشد $وزن._) ) # ذخیره به عنوان رشد قاب داده <- as.data.frame(growth) plot(c(0،1،2،3،6،9،12)، c(mean(growth$Weight_0)، mean(growth$Weight_1)، mean(growth$Weight_2)، میانگین (رشد$Weight_3)، میانگین (رشد$Weight_6)، میانگین (رشد$Weight_9)، mean(growth$Weight_12))، xlab = ماه، ylab = وزن (کیلوگرم)، main = وزن در مقابل زمان، ylim = c(0,50)) 1. آیا این نوع نوارهای خطا را تغییر می دهد من باید ایجاد کنم (یعنی اگر بخواهم بررسی کنم که آیا تفاوتی بین گروه ها وجود دارد یا خیر، باید از فواصل اطمینان استفاده کنم؟) 2. چگونه می توانم این را در همان نمودار گروه کنترل رسم کنم؟ آیا من به این مشکل راه درستی فکر می کنم؟ پیشنهاد دیگری دارید؟
|
مقایسه وزن ها با زمان به صورت گرافیکی با نوارهای خطا
|
61672
|
من یک GLM حاوی 8 پیش بینی در یک مجموعه داده چند متغیره انجام می دهم. شش تا از این پیشبینیکنندهها، اثراتی را رمزگذاری میکنند که واقعاً در آزمایش من دستکاری شدهاند (اثرات مورد علاقه)، دو پیشبینیکننده دیگر، پیشبینیکنندههای نویز عوارض جانبی فیزیولوژیکی هستند که بر دادهها تأثیر میگذارند، اما قرار نیست. به نظر می رسد که هر دو پیش بینی کننده نویز بار بالایی در GLM دارند. حالا من در این فکر بودم که آیا ممکن است از آن دانش برای اصلاح این اعوجاج های ناخواسته در داده ها استفاده شود. آیا به طور کلی راهی برای استفاده از وزنهای بتای GLM برای منظم کردن دادهها وجود دارد، به طوری که هنگام تخمین مجدد GLM، این پیشبینیکنندهها صفر شوند؟ خیلی ممنون
|
از وزنه های GLM برای تنظیم نویز استفاده کنید
|
110410
|
من در درس های ویدیویی دیده ام که اگر اندازه نمونه به اندازه کافی بزرگ باشد (n>30)، انحراف استاندارد توزیع نمونه را می توان با انحراف استاندارد نمونه تقریب زد. اگر اندازه نمونه کوچک است (10=n) چگونه انحراف استاندارد توزیع نمونه را بدست آوریم؟
|
تقریبی انحراف معیار توزیع نمونه
|
74665
|
آیا می توانید فرمول (من بیشتر به رویکرد علاقه مندم تا پاسخ) برای پاسخ به سوال زیر به من بگویید؟ فرض کنید من یک ماشین غیرقابل اطمینان رانندگی می کنم که انتظار نمی رود از هر 5 صبح، 1 روز روشن شود. وقتی ماشین روشن نمی شود دلم برای کار تنگ می شود. من 5 روز در هفته کار می کنم. تعداد روزهای کاری که در هفته از دست می دهم چقدر است؟ با تشکر
|
سوال احتمال مورد انتظار
|
74668
|
من در این فکر بودم که آیا روش انتخاب مکانیکی زیر منجر به یک سوگیری احتمالی خواهد شد یا خیر. ابتدا اجازه دهید روش اول را معرفی کنم، ما با یک مدل شروع می کنیم و فقط به t-value نگاه می کنیم و احتمالاً آنها را برای آن تصحیح می کنیم (هتروسکداستیتی / خودهمبستگی). سپس فقط متغیرهایی را به مدل نهایی خود اضافه می کنیم که مهم هستند. با این حال من به خوبی میدانم که این یک سوگیری با آزمون F به ما میدهد، زیرا اگرچه برخی از متغیرها میتوانند بیاهمیت باشند، اما میتوانند به طور مشترک معنیدار باشند. با این حال، اگر این را نیز در نظر بگیریم، چه اضافه کردن آن متغیر به ما یک زیرمجموعه معقول بدهد تا بتوانیم تست F را روی آن انجام دهیم و فقط در صورتی آنها را اضافه کنیم که نتیجه قابل توجهی داشته باشند (که نشان دهنده اهمیت مشترک است)، در واقع بسیار زیبا خواهد بود. روش خودکار خوبی است یا این مقداری سوگیری می دهد؟ آیا اتفاقی می افتد که ما **نخواهیم ** داشته باشیم؟ علاوه بر این، انتخاب متغیر رو به جلو (شروع با مجموعه کوچک و افزایش آن) بهتر است یا انتخاب متغیر رو به عقب بهتر است؟ ممنون که جواب دادید
|
انتخاب متغیر (خودکار)
|
74663
|
برای بسکتبال فانتزی، من میخواهم میزان خروجی یک بازیکن را بر اساس امتیازات، ریباندها، پاسها، توپزداییها، 3ها و بلوکهای او تعیین کنم. بیایید وانمود کنیم که در طول یک فصل خیالی بسکتبال، در مجموع 245000 امتیاز، 100000 ریباند، 53000 پاس منجر به گل، 18000 توپ ربایی، 12000 بلاک و 16000 3 امتیاز به دست آمده است. چگونه می توانم هر دسته آماری را وزن کنم تا بدانم 1 بلوک ممکن است در امتیاز، پاس گل یا هر یک از دسته های دیگر ارزش داشته باشد؟ من پیشینه آماری ندارم اما این به نظر یک سوال آماری اساسی است که افراد اینجا می توانند به من در درک آن کمک کنند.
|
چگونه می توانم وزن مناسب یک امتیاز را در بسکتبال فانتزی تعیین کنم؟
|
22188
|
سلب مسئولیت: من تجربه آماری زیادی ندارم، بنابراین اگر سوال من بی اهمیت است، لطفاً زیاد نخندید. من آزمایشی با 5 عامل طبقه بندی انجام داده ام. فاکتورها هر کدام بین 2 تا 8 سطح دارند. من یک متغیر پاسخ دارم که در محدوده 0 تا 100 پیوسته است. در مجموع، من یک آزمایش کاملا فاکتوریل با ترکیبات 800 چیزی را اجرا کرده ام. هر ترکیب 10 نمونه دارد. در کل در R-speak یک دیتا فریم با 6 ستون و 8607 سطر دارم. هدف من: تعیین سطح هر عاملی که منجر به بهترین عملکرد می شود. به عنوان مثال، من می خواهم بتوانم بگویم عملکرد به طور کلی زمانی بهترین است که فاکتور 1 سطح A باشد، فاکتور 2 سطح C، ...، و فاکتور 5 سطح E باشد. نتیجه گیری: همیشه از سطح A استفاده کنید. برای فاکتور 1 .... چگونه به این امر برسم؟ من ابتدا به PCA فکر کردم، اما این کاملاً صحیح نیست، زیرا اجزایی که PCA پیدا میکند ترکیبی از عوامل هستند، اما باید بتوانم بگویم کدام سطح عامل برای هر یک از عوامل بهترین است. من می خواهم عوامل را در تدبیر نگه دارم. من همچنین به ANOVA فکر کردم، که ممکن است همان چیزی باشد که می خواهم، اما مطمئن نیستم که چگونه از خروجی آن استفاده کنم. به عنوان مثال، در R، من دریافت می کنم: > summary(aov(...)) Df Sum Sq Mean Sq F value Pr(>F) preprocess 7 21.430 3.061 180.771 < 2.2e-16 *** bugData 2 5.276 2.638 2 <15. 2.2e-16 *** fileData 5 6.462 1.292 76.315 < 2.2e-16 *** param1 2 255.766 127.883 7551.306 < 2.2e-16 *** param2 1 15.579 15.579 15.579 7-919.8e *** 145.457 0.017 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 من نمی دانم چگونه این نتایج را تفسیر کنم. آیا این است که param1 بزرگترین اثر را دارد، زیرا Sum Sq بزرگترین است؟ چگونه بفهمم که کدام سطح از param1 بهترین است؟ بنابراین، این ایده من است: برای هر عامل، درصد برد هر سطح را با هر سطح دیگر مقایسه کنید. یعنی تعداد دفعاتی که سطح X به سطح Y می زند، با توجه به اینکه همه عوامل دیگر برابر هستند. من می توانم سطح X و سطح Y را بارها مقایسه کنم، زیرا عوامل و سطوح بسیار دیگری از آن عوامل وجود دارد. بنابراین، سطح سایر فاکتورها را تغییر میدهم، سطح X و سطح Y را در فاکتور فعلی مقایسه میکنم و پیگیری میکنم که چه کسی برنده شده است. با انجام این کار، من باید با چیزی مانند برای فاکتور 1، سطح X در 85٪ از مواقع سطح Y را شکست می دهد، و بنابراین انتخاب بهتری است. آیا این رویکرد منطقی است؟ آیا نامی برای آن وجود دارد؟ یا کلا رویکرد دیگری وجود دارد که به خواسته من می رسد؟ هر گونه راهنمایی یا راهنمایی بسیار قدردانی می شود. ترجیح میدهم پاسخ من در R قابل اجرا باشد، اما میتوانم تطبیق دهم. من یک ماشین بسیار قوی برای استفاده دارم (16 پردازنده، 196G RAM)، بنابراین خیلی نگران کارایی الگوریتمی نیستم که مشکلم را حل می کند.
|
چگونه تعیین کنیم که کدام سطح فاکتور بهترین است؟
|
74661
|
من سعی می کنم به صورت دستی P-Value (دم سمت راست) را از F-Test محاسبه کنم تا آن را بهتر درک کنم. می خواهم بدانم که چگونه مقدار به دست آمده از F-Test. پارامترهای زیر را به دست آورده اند، ndf = 1 ddf = 238 Β(ndf/2,ddf/2) = 0.162651 مقدار بحرانی، x (α=0.005) = 8.028403472 F_stat = 8983.6418 با استفاده از مقدار [1] P از معادله زیر ارجاع شده است. = [1/Β(ndf/2,ddf/2)] * [(ndf*x)/(ndf*x + ddf)]^(ndf/2) * > [1-(ndf*x)/(ndf* x + ddf) ]^(ddf/2) * 1/x دریافت کردم، **P_value = 7.06096E-05** هنگام مقایسه این با محاسبه خودکار توسط اکسل با استفاده از F.DIST.RT، > P_value=F.DIST.RT(8983.6418,1,238) دریافت کردم، **P_value=5.2396E-191** چگونه P_value که از طریق محاسبه دستی و به طور خودکار توسط اکسل به دست می آید، همان من تأیید کردم که F_stat محاسبه شده توسط اکسل و به صورت دستی توسط من از فرمول در [2] محاسبه شده است. از این رو، نتیجه F.DIST.RT نباید اشتباه باشد، صفحه راهنما نیز به آن اشاره کرده است که این یک آزمون دنباله راست نیز است. سوالات: 1. آیا من فرمول اشتباهی برای محاسبه P_value با استفاده از F-Test دریافت کرده ام. 2. آیا می توانید به من کمک کنید تا در مورد فرمول مناسب بیشتر بیاموزم. بسیاری در اینترنت اغلب با استفاده از نرم افزار/ابزار برای محاسبه این موضوع می نویسند. من دوست دارم ریاضیات اساسی پشت آن را یاد بگیرم. هر چقدر هم که پیچیدگی ریاضی آن سخت باشد، آن را یاد خواهم گرفت. فقط یه راهنمایی لازمه 3. هنگام فراخوانی F.DIST.RT، اکسل از چه فرمولی استفاده می کند. صفحه راهنمای اکسل فقط نحوه استفاده از دستور را بدون توضیح اصول اولیه نشان می دهد. جستجوی من در اینترنت برای یافتن این مورد موفقیت آمیز نبود. خیلی ممنون. مرجع: [1] http://easycalculation.com/statistics/f-test-p-value.php [2] http://www.originlab.com/forum/topic.asp?TOPIC_ID=4823
|
محاسبه دستی P-Value از F-Test - مطابقت ندارد
|
10429
|
من در تعجبم که چگونه می توان مدل مختلط خطی چند متغیره را جا داد و BLUP چند متغیره را در R پیدا کرد. اگر کسی مثال و کد R را بیاورد ممنون می شوم. با تشکر **ویرایش** من نمی دانم چگونه می توان مدل ترکیبی خطی چند متغیره را با 'lme4' تطبیق داد. من مدلهای ترکیبی خطی تک متغیره را با کد زیر برازش کردم: library(lme4) lmer.m1 <- lmer(Y1~A*B+(1|Block)+(1|Block:A), data=Data) summary(lmer.m1 ) anova(lmer.m1) lmer.m2 <- lmer(Y2~A*B+(1|Block)+(1|Block:A) data=Data) summary(lmer.m2) anova(lmer.m2) میخواهم بدانم چگونه مدل ترکیبی خطی چند متغیره را با `lme4` مطابقت دهم. داده ها در زیر آمده است: بلوک A B Y1 Y2 1 1 1 135.8 121.6 1 1 2 149.4 142.5 1 1 3 155.4 145.0 1 2 1 105.9 106.6 1 2 2 149.4 142.5 1 1 3 155.4 145.0 1 2 1 105.9 106.6 1 2 2 119.4. 126.7 2 1 1 121.9 133.5 2 1 2 136.5 146.1 2 1 3 145.8 154.0 2 2 1 102.1 116.0 2 2 2 112.0 123.0 121.3 121.3 121.3 1 133.4 132.4 3 1 2 139.1 141.8 3 1 3 157.3 156.1 3 2 1 101.2 89.0 3 2 2 109.8 104.6 3 2 3 1141.3 1141.1. 133.4 4 1 2 140.3 147.7 4 1 3 147.1 157.7 4 2 1 110.5 99.1 4 2 2 117.7 100.9 4 2 3 129.5 116.2 پیشاپیش از همکاری شما متشکریم.
|
برازش مدل مختلط خطی چند متغیره در R
|
61588
|
فرض کنید دو مدل کاندید وجود دارد، $\hat{f}(\beta)$ و $\hat{g}(\beta,\theta)$. اگر فرآیند تولید داده واقعی $f(\beta)$ باشد، آنگاه $\hat{g}(\beta,\theta)$ بی طرفانه اما ناکارآمد است. از طرف دیگر، اگر DGP واقعی $g(\beta, \theta)$ باشد، آنگاه $\hat{f}(\beta)$ بایاس است. تحت یک رژیم انتخاب مدل کلاسیک، تحلیلگر با $\hat{f}$ شروع میکند و باید $h_0:\theta = 0$ را رد کند تا استفاده از $\hat{g}$ را توجیه کند. پیامد خطای نوع I تخمین سوگیری $\beta$ است و پیامد خطای نوع II یک مدل ناکارآمد است. در یک رژیم انتخاب مدل جدید، تحلیلگر با $\hat{g}$ شروع میکند و باید $h_0:\theta\neq0$ را رد کند. عواقب خطاهای نوع I و نوع II اکنون دقیقاً معکوس شده است. آیا روش جدید مزیت آماری دارد؟ به نظر می رسد ایمن تر است، اما آیا راهی برای توجیه آماری این موضوع وجود دارد؟ به طور کلی، آیا ترجیح می دهید ریسک روی خطای نوع I یا نوع II باشد؟
|
فرضیه صفر معکوس بی طرفی اقتصادسنجی
|
110416
|
من 2 ماتریس همبستگی $A$ و $B$ دارم (با استفاده از ضریب همبستگی خطی پیرسون از طریق ()corrcoef Matlab). من می خواهم مقدار همبستگی بیشتر $A$ را در مقایسه با $B$ تعیین کنم. آیا معیار یا آزمون استانداردی برای آن وجود دارد؟ به عنوان مثال ماتریس همبستگی  حاوی همبستگی بیشتر از  من از آزمون M Box آگاه هستم که برای تعیین اینکه آیا دو یا چند ماتریس کوواریانس برابر هستند یا نه (و می توان برای ماتریس های همبستگی به عنوان استفاده کرد) استفاده می شود. خوب از آنجایی که دومی مشابه ماتریس های کوواریانس متغیرهای تصادفی استاندارد شده است). در حال حاضر من $A$ و $B$ را از طریق میانگین مقادیر مطلق عناصر غیر قطری آنها مقایسه میکنم، یعنی $\frac{2}{n^2-n}\sum_{1 \leq i < j \ leq n } \left | x_{i، j} \right |$. (من در این فرمول از تقارن ماتریس همبستگی استفاده می کنم). من حدس می زنم که ممکن است معیارهای هوشمندانه تری وجود داشته باشد. * * * به دنبال نظر اندی دبلیو در مورد تعیین کننده ماتریس، آزمایشی را برای مقایسه معیارها انجام دادم: * _ میانگین مقادیر مطلق عناصر غیر قطری آنها_ : $\text{metric}_\text{mean}()$ * _معین ماتریس_: $\text{metric}_\text{determinant}()$: اجازه دهید $A$ و $B$ دو ماتریس متقارن تصادفی با ماتریس های روی قطر بعد 10$ \ برابر 10$. مثلث بالایی (بدون مورب) $A$ با شناورهای تصادفی از 0 تا 1 پر شده است. مثلث بالایی (مورب حذف شده) $B$ با شناورهای تصادفی از 0 تا 0.9 پر شده است. من 10000 ماتریس از این قبیل تولید می کنم و مقداری شمارش را انجام می دهم: * $\text{metric}_\text{mean}(B) \leq \text{metric}_\text{mean}(A) 80.75٪ مواقع * $ \text{metric}_\text{determinant}(B) \leq \text{metric}_\text{determinant}(A)$ 63.01٪ مواقع با توجه به نتیجه، من تمایل دارم فکر کنم که $\text{metric}_\text{mean}(B)$ معیار بهتری است. کد متلب: تابع [ ] = correlation_metric( ) %CORRELATION_METRIC چند متریک را برای % آزمایش کنید http://stats.stackexchange.com/q/110416/12359 : % من 2 ماتریس همبستگی A و B دارم (با استفاده از ضریب همبستگی % خطی پیرسون از طریق ()corrcoef Matlab. % من می خواهم کمیت کنم که % A در مقایسه با B دارای چه مقدار همبستگی بیشتر است. آیا معیار یا آزمون استانداردی برای آن وجود دارد؟ % اجرای پارامترهای آزمایش = 10000; matrix_dimension = 10; %% نتایج آزمایش 1 = صفر (اجرا، 3); برای i=1: runs dimension = matrix_dimension; M = ماتریس_متقارن_تصادفی_مولد (بُعد، 0.0، 1.0)؛ نتایج(i، 1) = abs(det(M)); % results(i, 2) = mean(triu(M, 1)); نتایج (i, 2) = mean2 (M); % results(i, 3) = results(i, 2) < results(i, 2) ; end mean(results(:, 1)) mean(results(:, 2)) %% Experiment 2 results = zeros( runs, 6); برای i=1: runs dimension = matrix_dimension; M = ماتریس_متقارن_تصادفی_مولد (بُعد، 0.0، 1.0)؛ نتایج(i، 1) = abs(det(M)); نتایج (i, 2) = mean2 (M); M = ماتریس_متقارن_تصادفی_مولد (بُعد، 0.0، 0.9)؛ نتایج(i، 3) = abs(det(M)); نتایج (i, 4) = mean2 (M); results(i, 5) = results(i, 1) > results(i, 3); results(i, 6) = results(i, 2) > results(i, 4); end mean(results(:, 5)) mean(results(:, 6)) boxplot(results(:، 1)) figure boxplot(results(:, 2)) end function [random_symmetric_matrix] = generate_random_symmetric_matrix( بعد، حداقل، حداکثر ) % بر اساس http://www.mathworks.com/matlabcentral/answers/123643-how-to-create-a-symmetric-random-matrix d = ones(dimension, 1); %rand(بعد،1); % مقادیر مورب t = triu((حداکثر-حداقل)*rand(بعد)+حداقل،1); % مقادیر تصادفی مثلث بالایی random_symmetric_matrix = diag(d)+t+t.'; ٪ آنها را در انتهای ماتریس متقارن قرار دهید. مثالی از یک ماتریس متقارن تصادفی 10$ \ برابر 10$ ایجاد شده با ماتریس های روی مورب: >> random_symmetric_matrix random_symmetric_matrix = 1.0000 0.3984 0.14375 0.1475 0.6172 0.2105 0.1737 0.2271 0.2219 0.3984 1.0000 0.3836 0.1954 0.5077 0.4233 0.0936 0.2957 0.56250.2957 0.5625 0.3836 1.0000 0.1517 0.9585 0.8102 0.6078 0.8669 0.5290 0.7665 0.4372 0.1954 0.1517 1.0000 0.9232320.00 0.6684 0.8945 0.2290 0.2909 0.5077 0.9585 0.9531 1.0000 0.3058 0.0330 0.0174 0.9649 0.5313 0.5313 0.6413 0.6413 0.617 0.2349 0.3058 1.0000 0.7483 0.2014 0.2164 0.2079 0.2105 0.0936 0.6078 0.6232 0.0330 0.7483 0.7483 0.0501.004 0.6858 0.1737 0.2957 0.8669 0.6684 0.0174 0.2014 0.5814 1.0000 0.9223 0.0760 0.2271 0.5256 0.52
|
تعیین مقدار همبستگی بیشتر یک ماتریس همبستگی A در مقایسه با ماتریس همبستگی B
|
65807
|
من یک مبتدی کامل در مدل سازی آماری هستم و هرگز فرصتی برای یادگیری نحوه بیان یک مدل به شکل جبری و نماد ماتریسی مربوط به آن پیدا نکردم. من می دانم که چگونه مدل ها را در کد R تعریف کنم، اما نمی دانم چگونه آن را به شکل ریاضی بنویسم، به عنوان مثال. با β به عنوان بردار یک اثر ثابت. من سعی می کنم ادبیات خوبی در مورد این موضوع پیدا کنم، اما به سختی می توانم آن را پیدا کنم. کسی میدونه اینو از کجا یاد بگیرم؟ ببخشید اگر این یک سوال اساسی و شاید نامناسب در اینجا است، و چیزی که احتمالاً باید مدتها پیش یاد می گرفتم. با این حال من تا به حال نیازی به استفاده از هیچ مدل پیشرفته نداشته ام. به عنوان مثال، من یک مجموعه داده طولی از زیست توده از یک آزمایش دارم. آزمودنی ها در طول 200 روز در معرض 3 درمان مختلف (LOW، MED، HI) قرار گرفتند و در 40 نوبت به طور مکرر اندازه گیری شدند. من یک مدل مختلط خطی در R ساخته ام، با lme (از بسته nlme)، با ساختار خودهمبستگی (AR1) و یک برش و شیب تصادفی: Biomass.lme<-lme(Biomass~Treatment*Day,random=~Day| موضوع، داده = بلند مدت، na.action=na.exclude,corr=corAR1(form=~Day|Flask)) که در آن درمان یک عامل و متغیر پیوسته روز است. از این رو، من علاقه مندم ببینم که آیا پاسخ های گروه ها به زمان قرار گرفتن در معرض (یعنی تعامل درمان و زمان) بستگی دارد یا خیر. خوشحال می شوم اگر کسی بتواند برای من توضیح دهد که این مدل به شکل جبری چگونه به نظر می رسد و چرا، یا اطلاعاتی در مورد نحوه انجام مدل اکسپرس به من بدهد.
|
کمک در بیان مدل
|
65900
|
من به استفاده از متغیرها در قالب تاریخ در R عادت ندارم. فقط میپرسم آیا میتوان یک متغیر تاریخ را به عنوان متغیر توضیحی در مدل رگرسیون خطی اضافه کرد. اگر ممکن است چگونه می توانیم ضریب را تفسیر کنیم؟ آیا تأثیر یک روز بر متغیر نتیجه است؟ اصل من را با یک مثال ببینید که من سعی دارم انجام دهم.
|
آیا استفاده از متغیر تاریخ در رگرسیون منطقی است؟
|
61678
|
من یک دیتافریم به نام پاک شده دارم که از حدود 300000 ردیف و 13 متغیر تشکیل شده است. به جز متغیر وابسته، همه متغیرها دسته بندی و دارای سطوح چندگانه هستند ($\geq2$). متغیر وابسته عددی است و مقادیری از 1500- تا 3296 را می گیرد که عمدتاً مثبت است. در اینجا خلاصه ای از دیتافریم آمده است: > summary(cleaned$SumOf1st.Yr.Cash) حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر -1574.00 37.37 101.50 155.60 204.60 3296.00 > dput(head(Cleaned)) structure(list(Submit.Qtr = structure(c(2L, 2L, 2L, 2L, 2L, 2L, 2L, 2B1, (LaQ)) 2Q11 3Q11، 4Q11)، کلاس = ضریب)، SUBMIT_CAL_MONTH = c(201104L, 201104L, 201104L, 201104L, 201104L, 201104L, 201104L =, SumOf1st.8,2,2,2,8,2,1,2,1,2,2,1,2,1,2,1,2,1,2,1,1, 1, 2011, 201104L, 662.09، 77.24، 370.4، 176)، CARRIER_NAME = ساختار(c(56L، 116L، 4L، 116L، 82L، 114L)، .Label = c(طرح های با مارک AARP، بیمه شده توسط Aetna، Aetnaet، Aetnaet شرکت بیمه عمر، طرح های سلامت آلتیوس، Altius One، American Family Life Assurance Company of Columbus (Aflac)، American Family Life Assurance Company of New York (Aflac New York)، AmeriHealth - New Jersey، Ameritas Life Insurance Corp.، Anthem BCBS در خدمت ساکنان ایندیانا، «سرود BCBS در خدمت ساکنان کنتاکی». از اوهایو، Anthem Blue Cross، Anthem Blue Cross and Blue Shield، Anthem Blue Cross and Blue Shield of CT، Anthem Blue Cross and Blue Shield of NH، Anthem Blue Cross and Blue Shield of VA ، Anthem Blue Cross Blue Shield، Anthem Blue Cross Blue Shield Indiana، Anthem Blue Cross Blue Shield کنتاکی، Anthem Blue Cross Blue Shield Blue Shield of Connecticut، Anthem Blue Cross Blue Shield of Missouri، Anthem Blue Cross Blue Shield of Wisconsin، Anthem Blue Cross Blue Shield Ohio، Anthem BlueCross BlueShield، Anthem Health Plans of Kentucky Inc.، Anthem Health Plans of New Hampshire Inc.، Argus، Aris Health Plan، Arkansas Blue Cross and Blue Shield، Assurant، Assurant مزایای کارکنان، Assurant Health، Asuris Northwest Health، Avera Health Plans، AvMed Health Plans، Bay Dental، BCBS of GA، Blue Cross and Blue Shield از GA، صلیب آبی و سپر آبی جورجیا، صلیب آبی و سپر آبی ایلینوی، صلیب آبی و سپر آبی از کانزاس سیتی، صلیب آبی و سپر آبی مینه سوتا، صلیب آبی و سپر آبی کارولینای جنوبی، صلیب آبی و سپر آبی تگزاس، صلیب آبی سپر آبی، صلیب آبی سپر آبی آریزونا , سپر آبی صلیب آبی دلاور، سپر آبی صلیب آبی فلوریدا، سپر آبی صلیب آبی جورجیا، سپر آبی صلیب آبی میشیگان، Blue Cross Blue Shield of North Dakota، Blue Cross of Idaho، Blue Cross of Northeastern Pennsylvania از طریق شرکت تابعه خود Priority Life Insurance Company، Blue Shield of California، BlueCross BlueShield of Louisiana، BlueCross BlueShield از مونتانا، BlueCross BlueShield of Nebraska، BlueCross BlueShield از تنسی، «BlueCross BlueShield of Wyoming»، «Capital Blue Cross»، «Care Improvement Plus»، «CareFirst BlueCross BlueShield»، «Celtic Ins. Co.، CeltiCare Health Plan of MA, Inc.، Cigna، Clear One Health Plans، ConnectiCare Inc.، Coventry، Coventry Health and Life Insurance Co. FL، Coventry Health and شرکت بیمه زندگی، کاونتری مراقبت های بهداشتی دلاور، شرکت، کاونتری مراقبت های بهداشتی جورجیا، شرکت،، کاونتری مراقبت های بهداشتی ایلینوی، شرکت،، مراقبت های بهداشتی کاونتری از آیووا، شرکت.، مراقبت های بهداشتی کاونتری از کانزاس شرکت.، مراقبت های بهداشتی کاونتری از لوئیزیانا، شرکت.، مراقبت های بهداشتی کاونتری از میسوری، شرکت.، مراقبت های بهداشتی کاونتری از اوکلاهما ، Caventry Health Care of the Carolinas, Inc.، Coventry Health Plan of Florida, Inc.، Dean Health Plan, Inc.، Delta Dental شرکت بیمه (Delta Dental)، Delta Dental of California، Delta Dental of Colorado، Delta Dental of Iowa، Delta Dental of Minnesota، Delta Dental of North Carolina، Dentegra Insurance Company، Dominion Dental Services, Inc، Easy Choice Health Plan of New York، EmblemHealth، Empire، Empire BlueCross، Evercare by UnitedHealthcare، Everest Dental Plan، Fallon Community Health Plan، Geisinger Choice، Generic Medicare Carrier، Group Health، HCC Life Insurance Company، HCC Medical خدمات بیمه، «طرح اتحاد سلامت»، «نوآوری های بیمه سلامت»، «شبکه سلامت»، «شبکه سلامت آریزونا، شبکه سلامت اورگان، طرح سلامت نوادا، HealthAmerica، HealthPartners، HealthPlus Insurance Company
|
پیام خطا در lme(): خطا در MEEM(object, conLin, control$niterEM): تکینگی در backsolve در سطح 0, بلوک 1
|
110413
|
من دادههای پانل نامتعادل سه ماهه دارم و میخواهم متغیر وابسته خود را تغییر دهم تا ثابت شود. چگونه آن را انجام دهم؟ من نمیخواهم اختلاف نظر را قبول کنم زیرا مشاهدات من را کوتاه میکند. سری باقیمانده ای که من پس از رگرسیون متغیر وابسته خود بر روی روند زمانی دریافت می کنم، ریشه واحد را برای داده ها حذف نمی کند. لازم به ذکر است که متغیرهای مستقل من ثابت هستند؟ آیا باید آنها را نیز متحول کنم/از بین ببرم. همچنین آیا میتوانم تفاوتهای سطوح را در تنظیمات دادههای پانل رگرسیون کنم یا همه متغیرها باید به ترتیب یکپارچهسازی باشند؟ آیا فیلتر هودریک پرسکات انتخاب خوبی برای مشاهدات سه ماهه است؟ 2002q2 تا 2013q4
|
تمایل به داده های پانل فصلی
|
110411
|
من سعی می کنم یک شبیه سازی مونت کارلو بسازم که بتواند توزیع نتایج یک پروژه را بر اساس اندازه گیری های مشاهده شده پس از شروع پروژه اصلاح کند. **چند سوال در مورد بهترین راه برای انجام این کار دارم. من آمارگیر نیستم، پس لطفاً اگر کار بسیار اشتباهی انجام میدهم، مرا تصحیح کنید.** برای مثال، فرض کنید مشاهده کردهام که وظیفه «x» توسط شخص «y» انتخاب شده است (که 90٪ CI اولیه برآورد میکند. زیرا این کار [`l`,`h`]) بود، و y ساعت w کار را به کار ثبت کرده است. من می توانم از این داده ها برای شبیه سازی مجدد پروژه تحت محدودیت های جدید و محاسبه توزیع جدید و دقیق تر نتایج استفاده کنم. برای مثال، اگر «w» > «l»، آنگاه میدانم که کران پایین برای زمان تکمیل x اکنون «w» است، نه «l»، و میتوانم توزیع مورد استفاده را بر این اساس تنظیم کنم. با این حال، w یک کران پایین 5٪ نیست. این یک کران 0٪ پایین تر است (یعنی حد)، بنابراین استفاده از [`w`, `h`] به عنوان 90% CI کاملاً صحیح به نظر نمی رسد. در نتیجه به این فکر میکردم که میتوانم فقط یک عدد کوچک دلخواه برای «p(w)» انتخاب کنم، مثلاً 0.0001، و به استفاده از 0.05 برای «p(h)» ادامه دهم و سپس یک توزیع جدید برای [`w`,` ایجاد کنم. h`] (البته، من فقط از تعداد انحرافات برای «h» و «w» به جای احتمالات استفاده می کنم). **آیا این صداست؟** چیزی که بلافاصله مشخص نیست این است که در مورد w > h چه کاری انجام می دهم. من تخمینها را با 90٪ CI کالیبره کردهام، بنابراین باید انتظار داشته باشم که این 5٪ مواقع را ببینم. اگر بپرسم: در این صورت چه می دانم، به موارد زیر می رسم: 1. من w را می دانم و p(w) خود را به طور دلخواه پایین می دانم 2. از فاصله اطمینان اولیه (که فرض می کند یک توزیع نرمال)، من می توانم «p(w + sigma)» را تعیین کنم. 3. بنابراین، میتوانم: «[w, w + سیگما]» را بهعنوان یک بازه، با استفاده از «p(w)» و «p(w + sigma)» تولید کنم، و سپس یک توزیع نرمال از آن استخراج کنم (دوباره، فقط فقط با استفاده از مقادیر z). **این هم صداست؟**
|
اصلاح پیش بینی های مونت کارلو با استفاده از اندازه گیری های مشاهده شده
|
74666
|
میخواهم بدانم آیا شروع یک استاندارد نمونه کارها تجدیدپذیر دولتی بر سطح تولید انرژی تجدیدپذیر در آن ایالت تأثیر میگذارد یا خیر. من در حال حاضر به Stata دسترسی ندارم، بنابراین در استفاده از اکسل گیر کرده ام. من دادههایی برای خروجی انرژی تجدیدپذیر برای تمام سی ایالتی دارم که استانداردهای نمونه کارها تجدیدپذیر را با سطوح بازده انرژی از 1990 تا 2011 آغاز کردهاند. همچنین میدانم که هر ایالت چه زمانی RPS مربوطه خود را در آن بازه زمانی آغاز کرده است، و میخواهم بدانم آیا پس از شروع، سطح تولید انرژی تجدیدپذیر بهطور قابل توجهی تغییر کرده است یا خیر.
|
کمک به پانل دیتا در اکسل
|
73123
|
رایان تیبشیرانی یک بار نوع کلی تری از کمند را معرفی کرد که تنظیم کننده آن $$\parallel D \alpha \parallel_1$$ به جای $\parallel \alpha \parallel_1$ است. به مقاله مراجعه کنید، با این حال، تقریباً هیچ بحثی در مورد این فرم وجود ندارد و من تعجب می کنم که چرا از آنجایی که این یک راه عالی برای مقابله با تنظیم کننده های همواری مشتق است. * آیا راه آسانی برای تبدیل یک کمند عمومی به شکل استاندارد کمند وجود دارد؟ * کدام الگوریتم را می توان برای ژن استفاده کرد. کمند؟ در حال حاضر من فقط برنامه های درجه دوم را تست کردم، اما این بسیار کند است. متشکرم
|
کمند ||a|| و ژنرال کمند ||دا||
|
61580
|
من سعی کرده ام یک روش استنتاج بیزی را از ابتدا برای یک مشکل خاص پیاده سازی کنم، اما این رویه را اجرا کرده ام، و به نظر نمی رسد کار کند. از آنجایی که من نمیتوانم فقط کد را به صورت آنلاین پست کنم و از جامعه بخواهم که کد من را اشکالزدایی کند، میدانستم که آیا کسی میتواند هنگام کدنویسی یک روش استنتاج بیزی، چک لیست گستردهتری ارائه دهد. (صرف نظر از زبان) **ویرایش: مشخصات مشکل** من سعی می کنم رویه ای را که در بخش 5 این مقاله توضیح داده شده در **MATLAB** پیاده سازی کنم. به طور خلاصه، رویهای که من پیادهسازی کردهام این است - 1. من 3 متغیر میانگین صفر (یعنی سری زمانی $D = 3$) برای نقاط زمانی 500$ دارم. من از نقاط داده اولیه $N = 350$ به عنوان نمونه آموزشی استفاده می کنم. 2. تابع کوواریانس که من استفاده می کنم، یک هسته نمایی مربعی با 1 فراپارامتر - مقیاس طول مشخصه $l$ است. من فرض می کنم برای هر 3 سریال یکسان باشد. 3. من درجات آزادی را ثابت نگه می دارم، $\nu = D + 1$. 4. $L$، تجزیه Cholesky پایین ماتریس مقیاس $V$ به عنوان ماتریس کوواریانس $D \times D$ مجموعه داده آموزشی $N \times D$ محاسبه می شود. 5. روش نمونهگیری اساساً شامل 2 مرحله (با استفاده از نمونهگیری گیبس) است. من یک تابع درستنمایی گاوسی را در نظر گرفته ام (همانطور که در معادله 24 تعریف شده است). برای این کار من از فراپارامتر $l$ نمونه برداری از برش بیضی 5.2 نمونه GP استفاده می کنم، با استفاده از یک پیش از lognormal (فرض، $mean=1.5$، $var = 1$). من از نمونه برداری برش برای این کار استفاده کرده ام. من اجازه دادم که این نمونهگر گیبس برای تکرارهای 10000 دلاری (5000 دلار سوختن) اجرا شود. اما نمودار همگرایی $u$ به نظر نمی رسد همگرا باشد. من همچنین این را با $N کوچکتر (~ $50$) امتحان کردم و نه را افزایش دادم. از تکرار اما کار نکرد.
|
نکاتی که باید هنگام اجرای یک روش استنتاج بیزی ناپارامتریک از ابتدا در نظر داشت
|
100844
|
چگونه حدس بزنیم که مقادیر شروع تخمین بتا چه مقدار باید باشد، که باید در بیانیه PARMS یا PARAMETERS در حین استفاده از PROC NLIN مشخص کنیم (PROC NLIN برای اجرای رگرسیون غیر خطی در SAS استفاده می شود)
|
حدس زدن مقادیر شروع برای عبارت PARAMETERS در PROC NLIN
|
56538
|
چگونه می توانم ناهمسانی یک سری زمانی را در R آزمایش کنم؟ من در مورد دو تست McLeod.Li.test و bptest (تست بروش-پاگان) شنیده ام. آیا می توانم از این دو تست استفاده کنم؟ و اگر بتوانم از این تست ها استفاده کنم چه تفاوت ها و مفروضاتی دارند؟ با تشکر
|
چگونه هتروسکداستیکی بودن یک سری زمانی را در R آزمایش کنیم؟
|
22182
|
شخصی از تعدادی از افراد نظرسنجی کرده و نتایج را در یک پایگاه داده قرار داده است (نظرسنجی 1). هر مشاهده اطلاعات اضافی دارد که برای هر زیرجمعیت (فقط مردان، فقط جوانان و غیره)، تخمینی در سطح ملی از تعداد افراد در آن زیرجمعیت و همچنین فاصله اطمینان برای آن تخمین ارائه میکند. همانطور که انتظار می رود، مجموع تخمین ها برای زیر گروه های متقابل انحصاری (تعداد مردان به اضافه تعداد زنان) تخمینی را برای تعداد کل افراد در جمعیت ارائه می دهد. من نمی دانم نظرسنجی چگونه انجام شده است، روش نمونه گیری و ... تنها چیزی که دارم پایگاه داده است. فرض بر این است که تمام شمارش های تخمینی که از پایگاه داده می آیند به طور معمول توزیع شده اند. شخص دیگری نظرسنجی دیگری انجام داده است (نظرسنجی 2). با افراد بسیار بیشتری مصاحبه شد. هدف از این نظرسنجی تخمین زدن چیزی نبود - فقط به منظور ارائه اطلاعات در مورد افرادی بود که با آنها مصاحبه شده بود. برای کل جمعیت، و برای هر زیرجمعیت، نظرسنجی 2 تعداد کمتری را نشان می دهد، زیرا با همه افراد جامعه مصاحبه نشده است. اغلب، برآورد بر اساس نظرسنجی 1 بیشتر از شمارش نظرسنجی 2 است، اما همیشه اینطور نیست. **سوال:** بهترین راه برای ترکیب اطلاعات دو نظرسنجی چیست؟ من با یک راه حل تقریبی خوب هستم. اگر من فقط نظرسنجی 1 را داشتم، تخمین امتیاز من برای تعداد افراد زیرجمعیت A E(A) بود. با این حال، از نظرسنجی 2، من می دانم که A > $min(A)$. بنابراین آیا باید E(A|A > $min(A)$) را محاسبه کنم؟ انجام این کار منجر به تناقض می شود. یعنی، مجموع شمارش های تخمینی در زیرجمعیت های متقابلاً منحصر به فرد بیشتر از تعداد تخمین زده شده برای کل جمعیت است. از کمک شما متشکرم. امیدوارم این واضح باشد. اگر نه، لطفاً بپرسید، سعی می کنم توضیح دهم. :-)
|
ترکیب نتایج دو نظرسنجی
|
56534
|
من سعی می کنم راه زیبایی شناختی تری برای ارائه یک تعامل با یک عبارت درجه دوم در یک رگرسیون لجستیک پیدا کنم (دسته بندی متغیر پیوسته مناسب نیست). برای مثال سادهتر از یک عبارت خطی استفاده میکنم. set.seed(1) df<-data.frame(y=factor(rbinom(50,1,0.5)),var1=rnorm(50),var2=factor(rbinom(50,1,0.5)) mod< -glm(y ~ var2*var1 , family=binomial , df) #نقشه احتمالات پیش بینی شده دو سطح new.df<-with(df,data.frame(expand.grid(var1=seq(-2,3,by=0.01),var2=levels(var2))) pred<-predict(mod,new.df ,se.fit=T,type=r) with(new.df,plot(var1,pred$fit)) #plot تفاوت در احتمالات پیش بینی شده trans.logit<-function(x) exp(x)/(1+exp(x)) pp<-trans.logit(coef(mod)[1] + seq(-2,3,by=0.01) * coef (mod)[3]) -trans.logit((coef(mod)[1]+coef(mod)[2]) + seq(-2,3,by=0.01) * (coef(mod)[3]+coef(mod)[4])) نمودار(seq(-2,3,by=0.01),pp) ### سوالات * چگونه می توانم اختلاف احتمال پیش بینی شده بین این دو را رسم کنم سطوح var2 (به جای 2 سطح جداگانه) در مقادیر مختلف var1؟ * آیا راهی برای تعریف کنتراست ها وجود دارد تا بتوانم از آنها در glm استفاده کنم تا بتوانم آن را برای پیش بینی ارسال کنم؟ - من به یک CI برای تفاوت احتمالات نیاز دارم
|
رسم مقادیر پیش بینی شده در GLM در R
|
107817
|
من اغلب این ادعا را می شنوم که آمار بیزی می تواند بسیار ذهنی باشد. بحث اصلی این است که استنتاج به انتخاب یک قبلی بستگی دارد (حتی اگر می توان از اصل بی تفاوتی یا حداکثر آنتروپی برای انتخاب یک پیشین استفاده کرد). در مقایسه، این ادعا ادامه میدهد که آمارهای مکرر به طور کلی عینیتر هستند. چقدر در این جمله حقیقت وجود دارد؟ همچنین، این موضوع مرا به تعجب وا می دارد: 1. عناصر ملموس آمارهای فراوان گرا (در صورت وجود) چه چیزهایی هستند که می توانند به ویژه ذهنی باشند و در آمار بیزی وجود ندارند یا اهمیت کمتری دارند؟ 2. آیا سوبژکتیویته **بیشتر** در آمار بیزی شایع است تا در آمارهای فراوان؟
|
ذهنیت در آمارهای متداول
|
100840
|
من دو گروه وابسته دارم که ممکن است قبل و بعد از درمان بیماری داشته باشند. حجم نمونه من 12214 موضوع است. قبل از درمان، 7 نفر به این بیماری و پس از درمان 14 نفر به این بیماری مبتلا بودند. درصد کل نمونه بسیار کم است، اگرچه تعداد بیماران مبتلا به بیماری دو برابر شده است. آیا منطقی است که مک نمار در اینجا به من مقدار p قابل توجهی بدهد؟ چرا؟ این کد R من است: mat=matrix(c(12207, 7, 12200, 14),2) mcnemar.test(mat) آیا تست اندازه ای وجود دارد که بتوانم بعد از مک نمار اجرا کنم؟ آیا آزمون درستی را انتخاب کرده ام؟
|
مک نمار - آیا آزمون مناسبی برای این مثال است؟ اندازه اثر؟
|
27266
|
آیا راهی برای ساده کردن این معادله وجود دارد؟ $$\dbinom{8}{1} + \dbinom{8}{2} + \dbinom{8}{3} + \dbinom{8}{4} + \dbinom{8}{5} + \dbinom{ 8}{6} + \dbinom{8}{7} + \dbinom{8}{8}$$ یا بهطور کلیتر، $$\sum_{k=1}^{n}\dbinom{n}{k} $$
|
مجموع ترکیبات را با n یکسان، همه مقادیر ممکن k را ساده کنید
|
61587
|
ماژولاریت: من می دانم که مدولار بودن قرار است نشان دهنده پیچیدگی ساختار در سطح کلان باشد، اما در سطح فردی به چه معناست؟ رتبه صفحه: من با مجموعه داده ای از افرادی سر و کار دارم که سؤال می پرسند و به سؤالات پاسخ می دهند. اگر کسی به سؤالی پاسخ دهد، فلش از طرف شخصی که سؤال را پرسیده به شخصی که به سؤال پاسخ داده است کشیده می شود. اگر فردی در این شرایط ارزش صفحه بالایی داشته باشد، به چه معناست؟ Force Atlas 2: من هیچ ایده ای در مقایسه با سایر الگوریتم های طرح بندی ندارم.
|
درک آمار Gephi
|
60987
|
آیا کسی می تواند نمونه هایی از داده های برچسب دار و بدون برچسب را ارائه دهد؟ من تعاریف یادگیری نیمه نظارت شده را خوانده ام، اما مشخص نیست که این دو واقعاً چه هستند.
|
آیا نمونه هایی از داده های برچسب دار و بدون برچسب وجود دارد؟
|
73121
|
من از SPSS برای تجزیه و تحلیل ANOVA مدل ترکیبی سه طرفه مطالعه خود استفاده می کنم. من متغیرهای خود را برای تفسیر اثرات متقابل ساده تقسیم کردم و دریافتم که در حالی که نمودار اثر متقابل بین متغیرها را نشان میدهد، خروجی spss (تست درون آزمودنیها و آزمون بین آزمودنیها) هیچ اثر اصلی یا اثر متقابل مهمی را نشان نمیدهد. چگونه باید این یافته را گزارش کنم؟ با تشکر
|
تفسیر ANOVA مدل مختلط
|
74667
|
من با سلولهای کشت کار میکنم که در آن یک ظرف با یک کلون شکسته شده و دو ظرف که با دو کلون کوبنده ترانسفکت شدهاند، ترانسفکت شدهاند که هر کدام بیان یک ژن را از بین میبرند. نمونه ای از آزمایشی که من انجام داده ام اندازه گیری پتانسیل غشای میتوکندری (با استفاده از رنگ فلورسنت) در این سلول ها با استفاده از میکروسکوپ کانفوکال است. این آزمایش در سه نوبت مستقل تکرار شد. در هر روز آزمایشی، شدت لیزری که من استفاده کردم (افزایش لیزر) متفاوت است، بنابراین نمی توانم تمام روزهای آزمایشی را بدون بیان شدت رنگ هر کلون ناک داون به عنوان درصدی از کلون درهم کنترل (مثلاً شاهد) ترکیب کنم. = 100% شدت متوسط. بنابراین، **من باید تفاوت میانگین را بین کلون درهم شکسته کنترلی خود و هر یک از کلون های ناک داون آزمایش کنم**، که در آن کلون درهم ریخته شده من روی 100% شدت رنگ در هر روز آزمایشی تنظیم می شود و کلون های ناک داون من به حالت عادی تبدیل می شوند. این کنترل بنابراین، کنترل من هیچ واریانسی ندارد (100٪ برای هر سه روز آزمایشی) در حالی که کلون های knockdown من واریانس دارند. من می دانم که ANOVA با توجه به تفاوت در واریانس امکان پذیر نخواهد بود. من روش پیشنهادی مایکل لو را بررسی خواهم کرد، اما **آیا آزمون t نیز غیرقابل قبول است؟** (من در این شرایط مقالاتی را با استفاده از آزمون های ANOVA و t-test دیده ام، اما با وجود این، من این موارد را فرض می کنم. نباید استفاده شود). پیشاپیش ممنون
|
آزمون آماری برای داده های نرمال شده
|
61589
|
با توجه به این عصاره مقاله منتشر شده در وب، متوسط بازده یک ورق سکه منصفانه که 100 درصد برای سرها پرداخت می کند و 50 درصد برای دم در 3 دوره از دست می دهد، 25 درصد در هر دوره است، در حالی که میانگین هندسی یا بازده سالانه مرکب است. 8.3 درصد برای محاسبه میانگین بازده، ابتدا مقدار پایانی را محاسبه میکنید و سپس معادل آن در هر دوره را محاسبه میکنید. مقادیر پایانه 0.125$\cdot 8 + 0.375\cdot 2 + 0.375\cdot 0.5 + 0.125\cdot 0.125$ یا 1.9531$ است و ارزش هر دوره 1.9531$^{1/3}2$$، یا $1 است. با کم کردن $1$، 25$\%$ در هر دوره دریافت خواهید کرد. برای محاسبه میانگین بازده هندسی یا میانگین بازده مرکب، ریشه مکعب هر نتیجه ممکن را گرفته و سپس احتمالات را برای هر یک از نتایج اعمال میکنید. بنابراین میانگین هندسی $0.125\cdot 100\% + 0.375\cdot 26\% + 0.375\cdot (-20.6\%) + 0.125\cdot (-50\%)$ یا فقط 8.3$\%$ است. سوال من این است که چگونه باید میانگین هندسی بازگشت را تفسیر کرد؟ آیا رشد مورد انتظار در سرمایه شما را به گونه ای توصیف می کند که اگر آزمایشی را انجام دهم که در آن تعدادی سرمایه گذاری 3 ساله انجام دادم، رشد مورد انتظار سرمایه من در طول 3 سال 8.3 $\%$ خواهد بود؟ چرا بازده میانگین هندسی با دوره کاهش می یابد؟
|
هندسی در مقابل میانگین حسابی
|
73129
|
من می خواهم فاصله / شباهت نقشه های داده فرکانس سیل دو بعدی را مقایسه کنم. نقشه ها مربعی با اندازه شبکه YxY هستند و در هر سلول نقشه فرکانس سیل آن ذخیره می شود. به عنوان مثال در یک شبکه 5×5 ممکن است این دو نقشه فرکانس سیل از یک منطقه را برای 10 سال گذشته داشته باشیم، جایی که مشاهده می کنیم سلول/مکان مربوطه چند بار سیل شده است: 0 0 0 0 0 0 0 0 0 0 0 1 2 1 0 0 2 3 1 0 0 4 6 2 0 9 9 8 7 6 0 1 2 1 0 0 2 3 1 0 0 4 6 2 0 9 9 8 7 6 من به راحتی میتوانم این نقشهها را به یک نقشه احتمال تبدیل کنم که به یک نقشه اضافه میشود. بنابراین اکنون سؤال این است که معنی دارترین راه مقایسه این نوع نقشه ها با یکدیگر برای یافتن (ناهمسانی) آنها چیست. یک متریک فاصله گرفته شده از فیلد تئوری اطلاعات مانند JSD یا L1 (و بسیاری دیگر) یا یک متریک شباهت گرفته شده از زمینه پردازش تصویر مانند ناحیه زیر ROC (و بسیاری دیگر)؟
|
متریک فاصله یا تشابه برای نقشه های داده فرکانس دوبعدی
|
107811
|
در مقاله من سعی می کنم Eview های استفاده شده را برای تخمین مدل فضای حالت آنها (با به حداکثر رساندن حداکثر احتمال مرتبط) تکرار کنم. آنها از الگوریتم های BHHH و Marquardt استفاده کردند. سوال من این است که الگوریتم مارکوارت عموماً برای حل مسائل حداقل مربعات استفاده میشود. 1.) آیا الگوریتم مارکوارت را تغییر می دهد؟ اگر چنین است چگونه؟ 2.) آیا حداکثر کردن احتمال ورود به سیستم را به عنوان مسئله حداقل مربعات دوباره فرموله می کند؟ اگر چنین است چگونه؟ باز
|
محاسبه Loglikelihood مارکوارت در Eviews
|
22189
|
من از یک MLP با یک لایه پنهان (15 گره) و یک گره خروجی استفاده می کنم. من از یک تابع فعالسازی سیگموید، atan به عنوان تابع خطا استفاده میکنم، خود خطا با MSE، اعتبار متقاطع 5 برابری، انتشار پسپاسخ ارتجاعی برای یک کار دستهبندی باینری دستهای محاسبه میشود که در هر دسته تقریباً میشود. 1000 نمونه موجود است. مجموعه داده اصلی من دارای نسبت تقریباً است. 30/70 نمونه های مثبت در مقابل منفی. مهم نیست که چه تنظیمات NN را امتحان کردم (ویژگی های بیشتر، نمونه های بیشتر)، خطای آموزشی زیر 0.1 نمی رود، اندازه گیری f که برای ارزیابی استفاده کردم بین 0.3-05، دقت 0.6-0.8 و فراخوان فقط بین 0.2-0.4 بود. سپس من نمونه برداری بیش از حد را امتحان کردم تا مقدار مثبت/منفی را به تقریباً افزایش دهم. 1. اکنون با همان تنظیمات I خطا فقط به 0.09 کاهش یافته است، اما اکنون یک f-measure ثابت > 0.85، دقت حدود 0.8 و فراخوانی 0.95-1 (!؟) دریافت می کنم. اکنون من واقعاً به این فکر میکنم که آیا تنظیمات من کاملاً اشتباه است یا راهی پیدا کردهام که دادههایم را به خوبی تطبیق دهد. آیا کسی راهنمایی دارد که ممکن است اشتباه کرده باشم یا به نظر شما تنظیمات من درست است و طبقه بندی من نیز خوب است؟
|
چگونه عملکرد ضعیف را هنگام استفاده از شبکه عصبی تفسیر کنیم؟
|
104548
|
من این آموزش را برای یادگیری رگرسیون خطی سلسله مراتبی (HLR) در R دنبال کردم، اما نتوانستم بفهمم چگونه خروجی نمونه آن را از `>anova(model1,model2,model3)` تفسیر کنم این آموزش به سادگی می گوید > هر پیش بینی اضافه شده در طول مسیر، سهم مهمی در > مدل کلی دارد. اما من می خواهم جزئیات بیشتری را برای **کمیت کردن** سهم هر متغیر توضیحی، مانند: 1. UNEM واریانس X (یا X%) را توضیح می دهد. 2. اضافه کردن متغیر HGRAD Y را توضیح می دهد. ` (یا `Y%`) واریانس بیشتر 3. افزودن متغیر INC واریانس بیشتر Z (یا Z%) را بیشتر توضیح می دهد بنابراین، آیا می توانم مقدار X را بدست بیاورم؟ «Y» و «Z» با استفاده از جدول ANOVA بالا؟ چگونه؟ به طور خاص، «Res.Df»، «RSS»، «Sum of Sq» در این جدول ANOVA به چه معناست؟
|
تفسیر خروجی ANOVA برای رگرسیون خطی سلسله مراتبی
|
104540
|
فرض کنید میخواهم دادهها را با **ماتریس تداعی** خاصی تولید کنم. من ضریب فی را به عنوان معیار درجه ارتباط در نظر میگیرم. در اینجا نمونههایی با استفاده از R. require(psych) var1 <- نمونه (c(P، A)، 10000، جایگزین = TRUE) var2 <- نمونه (c(P، A)، 10000، جایگزین = درست) mydf <- data.frame (var1, var2) # درجه ارتباط مورد نیاز (روان) # هیچ مورد ارتباطی: # متغیرهای تصادفی به معنای 0 ارتباط مورد انتظار است phi(table(var1، var2)) [1] -0.01 # کپی از همان متغیر، 1 ارتباط مورد انتظار است. var3 <- var1 phi(table(var1, var3)) با فرض اینکه من ماتریس 4 x 4 **_phi ضرایب_** بین چهار متغیر طبقه بندی دارم. بگوییم موارد زیر **ماتریس ارتباط** (درست مانند ماتریس همبستگی) amat <- ماتریس (c(1,0.5,0.4, 0.3, 0.5,1,0.5,0.3, 0.4,0.5,1,0.2, 0.3, 0.3 ، 0.2،1)، 4) نام ردیف (amat) <- c(VarA، VarB، VarC، VarD) نام های colname (amat) <- c(VarA، VarB، VarC، VarD) amat VarA VarB VarC VarD VarA 1 0.5 0.4 0.3 VarB 0.5 1 0.5 0.3 VarC 0.4 0.5 1 0.2 VarD 0.3 0.3 0.2 1 آیا راهی برای تولید داده ای با چهار متغیر با مثلاً 10000 مشاهده که تقریباً ارتباط فوق را دارند وجود دارد؟ من از پست می دانم که چگونه می توانیم کارهای مشابهی را در متغیرهای کمی انجام دهیم. مثالها نیازی به R خاص ندارند، من فقط ایده را می دانم که می تواند به هر زبان برنامه نویسی ترجمه شود.
|
ایجاد متغیرهای مقوله ای چندگانه با ماتریس درجه ارتباط (همبستگی) مشخص
|
56530
|
لطفا مدل زیر را ببینید (لینک به تصویر بزرگتر). متغیرهای مستقل ویژگی های 2500 شرکت از 32 کشور هستند که سعی در توضیح امتیاز CSR (مسئولیت اجتماعی شرکت) دارند. من نگران نمرات VIF مخصوصاً متغیرهای «LAW_»، «GCI_» و «HOF_» هستم، اما من واقعاً نیاز دارم که همه آنها در مدل گنجانده شوند تا آن را به پس زمینه نظری که مدل بر اساس آن ساخته شده است، متصل کنم. همه متغیرها مقادیر عددی گسسته هستند، به جز متغیرهای قانون LAW_.  در میان مقالات دیگر، من این مقاله را در مورد برخورد با هم خطی خوانده ام. نکات پیشنهادی اغلب حذف متغیر با بالاترین امتیاز VIF است (در مدل من این «LAW_ENG» است). اما در نتیجه سایر امتیازات VIF افزایش می یابد. من دانش مناسبی ندارم که ببینم اینجا چه خبر است و چگونه می توانم این مشکل را حل کنم. من داده های مربوطه را در اینجا آپلود کرده ام (در قالب SPSS `.sav`). من واقعاً از کسی با تجربه بیشتر تشکر می کنم که نگاهی سریع داشته باشد و راهی برای حل مشکل هم خطی بدون حذف (هیچ یا بیش از حد) متغیر به من بگوید. هر گونه کمکی بسیار قدردانی می شود. P.S. برای مرجع، من یک جدول همبستگی را اضافه می کنم (پیوند به تصویر بزرگتر): 
|
چگونه مشکلات هم خطی را در رگرسیون OLS حل کنیم؟
|
100841
|
مثلاً دادههای زیر را دارم، که در آن ردیفها مشاهدات و ستونها متغیر هستند و NA مخفف مقادیر گمشده هستند. 1 2 NA 4 5 6 14 5 2 6 13 7 1 11 4 NA 9 6 15 12 3 12 NA 8 3 7 12 8 1 NA 7 8 9 4 6 1 می خواهم مقادیر گمشده را با رگرسیون نسبت دهم (می دانم می توانم از طریق ابزار نسبت داده شود، اما باید ببینم رگرسیون چگونه انجام می شود). یک بسته CRAN به نام Amelia برای انتساب با رگرسیون وجود دارد، اما برای داده های بالا یک خطا می دهد که می گوید #مشاهدات کوچکتر از #متغیرها هستند. بسته 'mi' نیز خطا می دهد. من میتوانم خودم را کدنویسی کنم، اما نمیخواهم چرخ را دوباره اختراع کنم، زیرا مطمئن هستم که قبلاً بستهای برای چیزی وجود دارد که سریعتر از چیزی که مینویسم کار میکند (سرعت مهم است زیرا من این مقدار را برای هزاران متغیر و صدها متغیر اجرا خواهم کرد. مشاهدات با مقادیر زیادی از دست رفته). بنابراین، آیا کسی در مورد بسته ای می داند که مقادیر بالا را با رگرسیون نسبت می دهد؟ با تشکر
|
انتساب با رگرسیون در R
|
61582
|
من چند نقطه داده $d$-بعدی دارم ($d \ge 2$). من می خواهم آنها را به یک دایره ترسیم کنم که محل تا آنجا که ممکن است حفظ شود. من میدانم که PCA فقط نقاط یک خط ($d'=1$) یا یک صفحه ($d'=2$) را نشان میدهد، اما من آنها را روی یک دایره میخواهم.
|
داده های نقشه برداری به یک دایره اشاره می کنند
|
100846
|
چگونه این مدل را تفسیر کنم: $$ قیمت = -7.095 - 9.471[\ln(تعداد انواع میوه ها)] + 53.942 \sqrt{تعداد مشتری} + ... $$ این است که: * اگر وجود ندارد انواع میوه ها، بازدیدکنندگان و سایر متغیرها، میانگین قیمت مورد انتظار 7.095- خواهد بود * اگر لگاریتم طبیعی عدد باشد. انواع مختلف میوه ها با یکی افزایش می یابد و همه چیزهای دیگر ثابت می مانند، میانگین قیمت مورد انتظار با 9.471 کاهش می یابد * اگر یک مشتری اضافی وجود داشته باشد و همه متغیرهای دیگر ثابت بمانند، میانگین قیمت مورد انتظار با 53.942 افزایش می یابد.
|
مدل تفسیر با لگاریتم و جذر
|
26259
|
CLT به طور خلاصه بیان می کند که مجموع/میانگین متغیرهای تصادفی iid تقریباً از هر توزیع به توزیع نرمال نزدیک می شود. وقتی نمونه از توزیع ناشناخته گرفته می شود، نتوانستم اطلاعاتی در مورد رفتار مجانبی واریانس نمونه پیدا کنم. آیا دلیلی داریم که باور کنیم که واریانس متغیرهای تصادفی iid به طور مجانبی به هر توزیع خاصی نزدیک می شود (مانند خی دو برای حالت عادی)؟ در مورد کوواریانس توزیع iid چند متغیره چطور؟ آیا میتوانیم دلیلی برای این باور داشته باشیم که کوواریانس محاسبهشده بر روی نمونه استخراجشده از آن میتواند به طور مجانبی به توزیع Wishart نزدیک شود؟ (یا هر چیز دیگری؟)
|
چیزی شبیه قضیه حد مرکزی برای واریانس و شاید حتی برای کوواریانس؟
|
65903
|
من میخواهم تست Levene را برای آزمایش برابری واریانسها بین یک نمونه کامل و تعدادی از نمونههای فرعی اجرا کنم. من نمی توانم چیزی در مورد آزمایش لوین پیدا کنم که بیان کند آیا این فرضیات آزمون را نقض می کند یا خیر. به عبارت دیگر، با توجه به این فرضیه صفر که $\mathrm{Var}(X_{1}) = \mathrm{Var}(X_{2})$، آیا آزمون لوین مستلزم این است که $X_{1} \cap X_{2 } = \varnothing$?
|
آیا آزمون Levene نمونه های جداگانه ای را در نظر می گیرد؟
|
104541
|
من یک سوال کاربردی آمار نسبتاً ابتدایی دارم. فرض کنید من مجموعهای از چهار مقدار تغییر برابری دارم که نشاندهنده فراوانی یک عامل در هنگام عبور از چهار نقطه زمانی متوالی است: x<-c(1.0، 1.2، 15.3، 0.2) و میخواهم روند آن را تعریف کنم. به عنوان مثال، یک نمایش تک عددی از نحوه عملکرد آن در طول کل دوره زمانی. در مثال ارائه شده، x روند کلی افزایشی دارد. من سعی کردهام از خطوط روند استفاده کنم، اما خیلی از روند تعمیم داده میشود و اطلاعاتم از بین میرود. آیا راه حل آموزنده تری برای تعریف «روند» ارزش ها در حین عبور از یک سری زمانی وجود دارد؟
|
مشخص کردن روند سری های زمانی در R
|
32158
|
من یک سری بازده گزارش روزانه دارم و به دنبال تطبیق آنها با یک فرآیند AR() هستم. پیشنهادی دارید؟
|
چگونه می توان بازده log را به یک مدل AR() در R جا داد؟
|
52896
|
میخواهم ببینم بین دو سری زمانی که من با آنها کار میکنم همبستگی (یا هر نوع رابطهای) وجود دارد یا خیر. یکی از آنها یک سری زمانی از داده های دما است، دیگری غلظت یک ماده است. من سعی می کنم ببینم آیا رابطه ای بین غلظت و دما وجود دارد یا خیر. با این حال، سری داده های دما ثابت نیستند (و شکاف هایی در آن وجود دارد)، و همچنین سری غلظت نیز ثابت نیستند. مشکل این است که من اطلاعات کافی در مورد سری داده های دما ندارم زیرا حتی برای یک دوره (یک سال) اطلاعات ندارم. چه کاری می توانم انجام دهم؟
|
همبستگی متقابل بین دو سری زمانی
|
65901
|
در gaussian_kde از کتابخانه scipy دو روش برای تخمین پهنای باند وجود دارد، scott و silverman قانون silverman در اینجا توضیح داده شده است و تابع معادل در R در اینجا ارائه شده است بنابراین سوال من این است که چرا روش Silverman در gaussian_kde به نظر شبیه نیست. می توانید کد را اینجا ببینید. چیزی در مورد واریانس و موارد دیگر وجود ندارد. تنها پارامتری که روش ها استفاده می کنند بعد داده هاست! آخرین اما نه کماهمیت، من باید تعداد پهنای باند متفاوتی با توجه به تعداد ابعاد داشته باشم. هر بعد باید پهنای باند خاص خود را داشته باشد. ممکن است من اشتباه کنم و این فاکتور_سیلورمن دقیقاً تخمین مرد نقره ای نیست. اگر چنین است کسی به من ارائه می دهد چگونه می توانم پهنای باند را با استفاده از این کتابخانه یا کتابخانه دیگر در پایتون محاسبه کنم؟ **به روز رسانی ** قبل از رفتن به کد، می خواهم قانون سرانگشتی Silverman را برای انتخاب پهنای باند به خودم یادآوری کنم. بنابراین اساساً برابر است با 1,06*std*n**1/5 که در آن std انحراف استاندارد و n بعد داده است. در اینجا یک کتابخانه نفوذ R است (MASS) n.grid = 25 x = c(1, 9, 4, 10) y = c(11, 3, 5, 7) delta = c(bcv(x), bcv(y )) # 14.66375 11.78500 kde2d.xy <- kde2d(x, y, n = 25، h = دلتا) FXY <- kde2d.xy$z + .Machine$double.eps dx <- kde2d.xy$x[2] - kde2d.xy$x[1] dy <- kde2d.xy$y[ 2] - kde2d.xy$y[1] PXY <- FXY/(جمع (FXY)*dx*dy) PX <- rowSums(PXY)*dy PY <- colSums(PXY)*dx HXY <- -sum(PXY * log(PXY))*dx*dy #entropy و کد پایتون معادل: وارد کردن numpy به عنوان np import scipy. آمار به عنوان آمار از scipy.stats.stats واردات pearsonr def colSum(x): return sum(x) def rowSum(x): return sum(x.T) a = (1, 9, 4, 10) b = (11, 3, 5, 7) n = 25 tt = np. آرایه( [ a, b ] ) rvs = tt.T kde = stats.gaussian_kde(rvs.T, bw_method='silverman') #~ kde = stats.gaussian_kde(rvs.T) #~ kde.set_bandwidth(11) kde.silverman_factor() x_flat = np.r_[rvs[:,0].min():rvs[ :,0].max():25j] y_flat = np.r_[rvs[:,1].min():rvs[:,1].max():25j] # شبکه منظم برای ارزیابی kde بر x,y = np.meshgrid(x_flat,y_flat) grid_coords = np .append(x.reshape(-1,1),y.reshape(-1,1),axis=1) z = kde(grid_coords.T) z = z.reshape(n,n) rho = pearsonr(a, b)[0] FXY = z + np.finfo(np.float).eps dx = x[0][2] - x[0][1] dy = y[1][0] - y[0][0] PXY = FXY/جمع (جمع (FXY))*dx*dy PX = rowSum(PXY)*dy PY = colSum(PXY)*dx HXY = -sum(sum(PXY *np.log(PXY)))*dx*dy print 'X : ' + str(a) print 'Y : ' + str(b) print 'bw : ' + str(kde.covariance_factor()) print kde.covariance print 'آنتروپی: ' + str(HXY) bw1 bw2 H پایتون 11.34 7.39 0.13 R 14.66 11.78 4.32 همچنین باید از آنچه @rroowwllaanndd گفت ضریب _silverman_ واقعی در `_compute`_covari باند محاسبه شده اضافه کنم ماتریس «kde_object.covariance» حتی اگر «kde_object.silverman_factor()» این قطرها را بر نمی گرداند. همچنین بسیار گیج کننده است که وقتی من کد R را با مقادیر پهنای باند از پایتون تغذیه می کنم، آنتروپی با مقدار پایتون قابل مقایسه نیست. کتابخانه (MASS) n.grid = 25 x = c(1، 9، 4، 10) y = c(11، 3، 5، 7) # دلتا = c(bcv(x)، bcv(y)) دلتا = c(11.34، 7.39) # تخمین پهنای باند scipy از کد پایتون kde2d.xy <- kde2d(x، y، n = n.شبکه، h = دلتا) FXY <- kde2d.xy$z + .Machine$double.eps dx <- kde2d.xy$x[2] - kde2d.xy$x[1 ] dy <- kde2d.xy$y[2] - kde2d.xy$y[1] PXY <- FXY/(sum(FXY)*dx*dy) PX <- rowSums(PXY)*dy PY <- colSums(PXY)*dx HXY <- -sum(PXY * log(PXY))*dx*dy
|
تخمین پهنای باند در gaussian_kde در scipy
|
32152
|
بعد از اینکه R داده ها را خواند، بگویید- v1 <- c(1,1,1,1,1,1,1,1,1,3,3,3,3,3,4,5,6) v2 <- c(1,2,1,1,1,1,2,1,2,1,3,4,3,3,3,4,6,5) v3 <- c(3,3,3,3,3,1,1,1,1,1,1,1,1,1,1,5,4,6) v4 <- c(3,3,4,3 ,3,1,1,2,1,1,1,1,2,1,1,5,6,4) v5 <- c(1,1,1,1,1,3,3,3,3,3,1,1,1,1,1,6,4,5) v6 <- c(1,1,1,2 ,1,3,3,3,4,3,1,1,1,2,1,6,5,4) m1 <- cbind(v1,v2,v3,v4,v5,v6) اگر اجرا کنم- factanal(~v1+v2+v3+v4+v5+v6, factor = 3, scores = Bartlett)$scores من می توانم نمرات فاکتورهای مشاهده ای را دریافت کنم. اما وقتی این کار را انجام می دهم- r<-cor(m1) library(psych) fa<-fac(r,nfactors=3,rotate=varimax, scores=Bartlett) fa$score نمی توانم فردی را بدست بیاورم- نمرات عامل عاقلانه آیا می توان با استفاده از روان نمرات عامل فردی را بدست آورد؟ در واقع من باید از روان استفاده کنم، زیرا باید ماتریس همبستگی رتبه اسپیرمن را به عنوان نقطه شروع برای تحلیل عاملی قرار دهم. لطفا به من پیشنهاد دهید متشکرم
|
از بسته روانی نمی توان امتیازهای عامل مشاهده عاقلانه را دریافت کرد
|
22184
|
گلمن و هیل (2006) می گویند: > در اشکالات، نتایج از دست رفته در یک رگرسیون را می توان به سادگی با > از جمله بردار داده، NA و همه آنها کنترل کرد. اشکالات به صراحت متغیر نتیجه > را مدل می کند، و بنابراین استفاده از این مدل برای در واقع نسبت دادن > مقادیر گمشده در هر تکرار، امری بی اهمیت است. به نظر می رسد این یک راه آسان برای استفاده از JAGS برای انجام پیش بینی است. اما آیا مشاهدات با نتایج از دست رفته نیز بر تخمین پارامترها تأثیر می گذارد؟ اگر چنین است، آیا راه آسانی برای حفظ این مشاهدات در مجموعه دادهای که JAGS میبیند، وجود دارد، اما تاثیری بر تخمین پارامترها نداشته باشد؟ من به عملکرد برش فکر می کردم، اما این فقط در BUGS موجود است، نه JAGS.
|
مقادیر از دست رفته در متغیر پاسخ در JAGS
|
32156
|
من سعی میکنم تا به تخمینهایی درباره نتایج حاصل از محاسبه وارونگی زمین لایهای دست پیدا کنم که به موجب آن این محاسبه یک ماتریس کوواریانس خلفی برای بهترین پارامترهای مدل با توجه به دادهها ارائه میکند. به طور خاص، میخواهم ببینم یک ویژگی خاص مدل چقدر از سطح باقی میماند (یعنی من به دنبال مقادیر $m_{i} \ge x_{0}، i=1..M$ هستم. من معتقدم که این یک سوال احتمال شرطی است: 1. لایه احتمال 1 شرط را برآورده می کند $P(m_1 \ge x_0|m_2,...m_M, d_1,d_2,...,d_N)$ 2. لایه احتمال 2 نیز شرط $P(m_2 \ge x_0|m_1 \ge x_0, m_2,...m_M, d_1,d_2,... d_N)$ ... و به همین ترتیب در این سوال، پارامترهای مدل من از طریق ماتریس کوواریانس خلفی و اصل قضیه همبستگی دارند. وارونگی توزیع گاوسی پارامترها را برای من فراهم می کند. من روزها به دنبال چگونگی ارزیابی انتگرال از این نوع بودم، اما بهترین چیزی که می توانستم پیدا کنم مربوط به حالت دو متغیره بود که در آن بیان شد که مشکل بسته نیست و باید برطرف شود. من معمولاً در Matlab برنامه نویسی می کنم، اما خوشحالم که از هر روشی برای حل این مشکل استفاده می کنم.
|
چگونه یک وضعیت گاوسی چند متغیره را ارزیابی کنیم
|
104546
|
من سعی میکنم فرآیند گسستهای را که نویسندگان در این مقاله پیشنهاد کردهاند، یعنی بهینهسازی عددی، انجام دهم و برای برخی از کدهای شبه یا بهتر از آنها کد R که ممکن است توضیح دهد که چگونه عملاً چگونه انجام میشود، سپاسگزار خواهم بود. اما به دلیل ماهیت وابستگی مسیر مشکل، مطمئن نیستم که چگونه عملاً این مورد را پیادهسازی کنم، در حالی که شرایط مرزی را نیز در بر میگیرد که اندازه معامله اصلی تا زمان $t=T$، یعنی $W_T+1=0$ و $ تکمیل میشود. W_1=\bar{S}$ اگر فضای حالت و کنترل را گسسته کنیم، چگونه میتوان تابع ارزش را ارزیابی کرد، اگر قیمتها به اقدامات و حالات دوره قبلی بستگی دارد؟ آیا جستجوی شبکه برای مقادیر بهینه باید از $t=T$ شروع شود یا $t=1$؟ اگر از $T$ $t=1$ شروع کنید تا یک مقدار بهینه برای $S^*_1$ بدست آورید، که سپس برای بهینه سازی $t=2$ استفاده می شود، چگونه می توان مطمئن شد که مجموع مقادیر بهینه برابر با اندازه اصلی تجارت است؟ اگر در جهت معکوس حرکت کنیم و دوباره بهینه سازی کنیم، چگونه می توان اطمینان حاصل کرد که مجموع مقادیر بهینه با اندازه اصلی معامله برابری می کند، اما همچنین اگر از $t=T$ شروع شود، چگونه می توان با این واقعیت برخورد کرد که هنگام انجام این بهینه سازی، مسیر معاملات تا زمانی که $T-1$ است هنوز ناشناخته است؟ هر گونه کمکی بسیار قدردانی خواهد شد.
|
بهینه سازی عددی معادلات بلمن برای مسائل برنامه ریزی پویا تصادفی
|
104549
|
شکلهای زیر نمونههایی از منحنیهای ROC را نشان میدهند:  اول از همه با نادیده گرفتن تصویر، از نقطهای منطقی میتوان گفت: وقتی **قطع ** مقدار **کاهش می یابد**، موارد بیشتر و بیشتری به کلاس 1 اختصاص می یابد و بنابراین **حساسیت** **افزایش می یابد** (مثبت واقعی در رابطه با کل نکات مثبت واقعی). ویژگی کاهش می یابد (اینها منفی های واقعی نسبت به کل منفی های واقعی هستند و کاهش می یابد، زیرا موارد کمتر و کمتری به کلاس 0 اختصاص می یابد بنابراین منفی های واقعی کمتری وجود خواهد داشت). من متوجه شدم و فکر می کنم درست است. اما وقتی به عکس نگاه کردم گیج شدم. اجازه دهید این نقطه را در اینجا در نظر بگیریم:  اکنون وقتی احتمال قطع را از این نقطه کاهش میدهم، پایین حرکت میکنم، بنابراین این نقطه را به عنوان یک عدد دریافت میکنم. نتیجه:  بنابراین مقدار قطع را کاهش می دهم، اما می توان به وضوح مشاهده کرد که مقدار حساسیت روی محور y نیز کاهش یافته است ($x2<x1$). خطای منطقی من کجاست؟
|
با منحنی و تفسیر ROC اشتباه گرفته شده است
|
104544
|
فرض کنید من دو رویداد $B$ و $A^c$ دارم و میخواهم احتمال تقاطع آنها را محاسبه کنم. من فقط میخواهم مطمئن شوم که اثبات زیر صادق است (یعنی درست است -- من کمی زنگ زده هستم). **به روز شد!** فرض کنید رویدادها مستقل هستند. \شروع{جمع*} P(A^c) = 1- P(A) \\ \پایان{جمع*} بنابراین \شروع{تراز*} P(B \cap A^c) &= P(B) \ بار \Big(1-P(A)\Big) \\ &= P(B) - P(B)P(A) \\ &= P(B) - P(B \cap A) \end{تراز *} راه دیگری برای به آن نگاه کنید، $A$ و $B$ دو رویداد در فضای نمونه $\mathcal{F}$، یعنی $A,B \in \mathcal{F}$ هستند. این به این معنی است: \begin{align*} B = (A\cap B) \cup (B\cap A^c) \end{align*} بنابراین \begin{align*} P(B) &= P(A\ cap B) + P(B \cap A^c) \\ P(B \cap A^c) &= P(B) - P(A \cap B) \end{تراز*}
|
قواعد اولیه احتمال
|
26257
|
فرض کنید ما یک سری جملات داریم و باید هر جمله جدید را با جملاتی که قبلا دریافت کرده ایم مقایسه کنیم. به عنوان مثال، با جملات دریافت شده در 30 دقیقه آخر. بهترین روش برای انجام آن چیست؟ آیا می توانیم از فاصله Mahalanobis برای این استفاده کنیم؟ چگونه؟
|
آیا می توانیم از فاصله ماهالانوبیس برای تطبیق یک جمله با جملات دیگر استفاده کنیم و چگونه؟
|
32155
|
بگویید من مجموعهای از مدلهای طبقهبندیکننده دارم که هر کدام با استفاده از انتخاب ویژگی در یک اعتبارسنجی متقاطع k-fold مکرر تولید میشوند. هر مدل طبقهبندی کننده با استفاده از مجموعه متفاوتی از پارامترهای منظم یا فراپارامترها تولید میشود. من میدانم که انتخاب «بهترین» مدل از این مجموعه، یعنی مدلی که بهترین تخمین کلاسیک اعتبارسنجی متقاطع k برابر را ارائه میدهد، میتواند برآوردی خوشبینانه از عملکرد تعمیمیافته ایجاد کند. با این حال، اگر برآورد عملکرد نهایی، مبتنی بر اعتبارسنجی متقاطع k-fold جداگانه با استفاده از ویژگیها و فراپارامترهای انتخاب شده در بالا باشد، از سوگیری اجتناب میشود؟ من متوجه شده ام که این روش (10 برابر، 10 تکرار) در عمل به خوبی کار می کند (مدل در داده های واقعی غیرقابل مشاهده پایدار به نظر می رسد) در یک مجموعه داده با موارد > ویژگی ها، اما نمی دانم که آیا هرگونه سوگیری باقی مانده را می توان غیرقابل قبول تلقی کرد؟ من گمان می کنم که این روش در موردی که ویژگی ها >> موارد سوال من مربوط به آموزش با مجموعه داده کامل پس از اعتبار سنجی متقابل است، کمتر قابل قبول است؟ اگر این سوال ناآگاهانه به نظر می رسد یا مطالبی را که در جای دیگر مورد بحث قرار گرفته است تکرار می شود، پوزش می طلبیم.
|
تعصب در انتخاب مدل طبقه بندی کننده
|
32150
|
من یک مجموعه آموزشی با 4 بردار موقعیت سه بعدی مختلف به عنوان برخی از ویژگی ها دارم. من یک سیستم مختصات سه بعدی جدید را بر اساس 3 بردار اول این موقعیت برای دستیابی به تغییر ناپذیری انتقالی و چرخشی تعریف کرده ام. سپس نقاط اصلی را به این سیستم جدید تبدیل کرد. از آنجایی که آخرین نقطه نیز در اصل در همان سیستم مختصات قرار دارد، من آن یکی را نیز تغییر داده ام. برای توضیح بهتر وضعیت: دادههای آموزشی قبلاً بود (در اینجا فرض کنید از 3 بردار اول برای توصیف سیستم مختصات جدید استفاده میشود و $(x_s,y_s,z_s)$ آخرین بردار موقعیتی است که نیز تبدیل میشود): $x_1، y_1 , z_1، x_2، y_2، z_2، x_3، y_3، z_3، x_s، y_s، z_s\ldots$ (و سایر ویژگیها) با اعمال تبدیل سیستم مختصات من، تبدیل به $x_{t1}، x_{t2}، z_{t2}، x_{t3}، x_{ts}، y_{ts}، z_{ts شد. }\ldots$ (و سایر ویژگی ها) تعداد ویژگی ها در حالت دوم کاهش یافت زیرا در سیستم مختصات جدید برخی از مقادیر همیشه صفر هستند. ($y_{t1}، y_{t2}، z_{t1}$ و غیره) یا برابر با مقدار دیگری ($z_{t2} = -z_{t3}$) ویژگیهای جدید در محدودههای ارزش مشابهی نیستند، معمولاً $ x_{ts}، y_{ts}، z_{ts}$ بسیار بزرگتر از بقیه $x_{t1}، z_{t2}$ و غیره هستند. بنابراین من می خواهم نرمال سازی را معرفی کنم، اما در عین حال من نمی خواهم رابطه معنایی بین نقاط توصیف شده در همان سیستم مختصات جدید را از دست بدهم. چگونه باید آن را انجام دهم؟ فکر اولیه من این است که به مقادیر حداقل حداکثر برای همه ویژگیهای $x_{t1}، x_{t2}، z_{t2}، x_{t3}، x_{ts}، y_{ts}، z_{ts}$ نگاه کنم. و نرمال سازی min-max را با پارامترهای یکسان برای هر یک از آنها اعمال کنید. بنابراین برای مثال $z_{ts}$ حتی پس از عادی سازی بسیار بزرگتر از $x_{t1}$ خواهد بود. آیا انجام این کار منطقی است؟
|
عادی سازی داده های موقعیت سه بعدی
|
52895
|
من سعی میکنم این احتمال را پیدا کنم که دو حرف انتخاب شده تصادفی از متن متوسط در یک زبان یکسان باشند. به عنوان مثال، اگر زبان فرضی من شامل چهار حرف باشد که هر کدام به طور متوسط با فراوانی زیر رخ می دهند: A = 60% B = 25% C = 10% D = 5% احتمال انتخاب هر دو حرف از یک متن نمایشی چقدر است. همینطور باشد؟ شهود من برای حل این مسئله ابتدا این است که شانس متفاوت بودن آنها را بیابم، بنابراین مجموع احتمالاتی که یک حرف انتخاب شده است و سپس یک حرف دیگر بر روی هر حرف الفبا انتخاب می شود: (0.6 * (1 - 0.6) + 0.25 * (1 - 0.25) + 0.1 * (1 - 0.1) + 0.05 * (1 - 0.05)) = 0.565 سپس احتمال اینکه آنها یکسان هستند: 1 - 0.565 = 0.435 آیا این استدلال صحیح است؟ به نظر می رسد یک مشکل احتمالی بسیار اساسی است، اما به نظر می رسد من همیشه در مورد این چیزها به روش اشتباه فکر می کنم و از یک بررسی عقلانی (و هر اشاره ای به موادی که به من کمک می کند در آینده نسبت به این نوع چیزها مطمئن تر باشم قدردانی می کنم. !)
|
احتمال اینکه دو حرف تصادفی از یک زبان یکسان باشند؟
|
52892
|
من یک پروفسور در مورد فراتوزیع کوشی صحبت می کنم، اما نمی توانم چیزی در مورد آن در وب پیدا کنم. سوال من این است که توزیع متا کوشی چیست و چه تئوری پشت آن است؟
|
توزیع متا کوشی چیست؟
|
101028
|
اجازه دهید $X_1،\dots،X_m$$ i.i.d باشند. با تابع توزیع $F$ و $Y_1،\dots,Y_n$$ i.i.d هستند. با تابع توزیع $G$. فرض کنید یک تابع ناشناخته $\psi:\mathbb{R}\mapsto\mathbb{R}$ وجود دارد به طوری که $\psi(X_i)\sim N(0,1)$ و $\psi(Y_j)\sim N(0،\sigma^2)$ برای همه $i=1،\dots،m$ و $j=1،\dots،n$. من می خواهم $\sigma^2$ را در این مشکل تخمین بزنم. من حقایق زیر را به دست آورده ام: توجه داشته باشید که $F(x)=P(X\le x)=P(\psi(X)\le \psi(x))=\Phi(\psi(x))$ جایی که $\Phi$ توزیع نرمال استاندارد تجمعی است. این به معنای $\psi(x)=\Phi^{-1}(F(x))$ است. به یاد بیاورید که $\psi(Y_j)\sim N(0,\sigma^2)$. بنابراین، $$\check\sigma^2=\frac1n\sum_{j=1}^n\psi^2(Y_j)$$ یک برآوردگر بهینه برای $\sigma^2$ است. از آنجایی که $F$ ناشناخته است، آن را با تابع توزیع تجربی $\hat F_m$ بر اساس $X_1,\dots,X_m$ جایگزین میکنم. از این رو، جایگزینی $\psi$ با $\hat\psi=\Phi^{-1}(\hat F_m)$ طبیعی است. بنابراین، من حدس میزنم که $$\hat\sigma^2=\frac1n\sum_{j=1}^n\hat\psi^2(Y_j)$$ یک برآوردگر بهینه است. من سعی کردم $\check\sigma^2$ و $\hat\sigma^2$ را به صورت مجانبی معادل نشان دهم، اما موفق نشدم. آیا کسی می تواند به من کمک کند؟ یا کسی رویکرد دیگری دارد؟
|
واریانس برآورد بر اساس داده های تبدیل
|
79956
|
من یک دنباله مشاهده از حدود 1000 نمونه دارم، هر مشاهده یک بردار 10 کم نور است. من سعی می کنم بر این اساس یک مدل HMM یاد بگیرم. به طور خاص من از GaussianHMM بر اساس این مثال استفاده می کنم: http://scikit- learn.org/stable/auto_examples/applications/plot_hmm_stock_analysis.html#example- applications-plot-hmm-stock-analysis-py پس از چند بار تکرار به نظر می رسد یکی از ماتریس کوواریانس حالت من قطعی غیر مثبت می شود. (مقادیر اولیه برای کوارها متقارن و مثبت هستند) من حتی 'covars_prior=0.01' را تنظیم کردم که فکر کردم باید از این اتفاق جلوگیری کند. چه چیزی ممکن است از دست رفته باشد؟ پیشاپیش ممنون
|
نتایج آموزش HMM scikit در ماتریس کوواریانس قطعی غیر مثبت است
|
37521
|
من برخی از داده های فرکانس برچسب ماهواره ای زمان در عمق (TAD) دارم که می خواهم در مورد آنها کمک کنم. داده ها از طریق ماهواره به عنوان درصد زمان صرف شده در هر یک از 7 سطل عمق (0 متر، 0-1 متر، 1-10 متر، 10-50 متر و غیره)، در فواصل زمانی 6 ساعته منتقل شد. من هر ردیف از دادههای مربوط به تاریخ و زمان را در تابستان در مقابل زمستان و روز در مقابل شب دستهبندی کردم و سپس درصد دادهشده را برای هر سطل عمق جمع و میانگین کردم. دادههای من به این شکل است (برای یک فرد، HG03): HG03.dat زمان فصل عمق مجموع میانگین 1 روز جمعآوری 0 17.2 0.1702970 2 روز جمعآوری 1 23.9 0.2366337 3 روز جمعآوری 10 868.5 8.5929009 8.599009 26.7148515 5 summary day 100 419.7 4.1554455 6 summary day 200 266.1 2.6346535 7 summary day 300 1668.6 16.5207921 8 summary day 500 200 417 283.6 5.7877551 10 summary night 1 229.1 4.6755102 11 summary night 10 479.3 9.7816327 12 summary night 50 761.9 15.5489796 13 summary night 50 761.9 15.5489796 13 summary night 10 479.3 9.7816327 200 40.9 0.8346939 15 summary night 300 763.1 15.5734694 16 summary night 500 2106.1 42.9816327 17 Wint day 0 0.0 0.0000000000000000000000000. 19 روز زمستان 10 0.0 0.0000000 20 روز زمستان 50 0.0 0.0000000 21 روز زمستان 100 7.9 1.1285714 22 روز زمستان 200 92.1 13.15231429 روز. 0.0000000 24 روز زمستانی 500 600.0 85.7142857 25 شب زمستانی 0 43.9 1.7560000 26 شب زمستانی 1 0.3 0.0120000 27 شب زمستانی 10 0.820 شب 1000120. 0.0320000 29 شب زمستانی 100 10.5 0.4200000 30 شب زمستانی 200 51.6 2.0640000 31 شب زمستانی 300 411.4 16.4560000 32 زمستانی 790000 32 شب زمستانی 7902 تا 50. آزمایش کنید که آیا تفاوت معنیداری بین عمق در تابستان در مقابل زمستان و روز در مقابل شب وجود دارد، ابتدا برای فصل و سپس برای زمان روز کنترل میشود. من یک آزمون کوکران-مانتل-هنزل را با استفاده از میانگین فرکانس (Avrg) به عنوان متغیر وابسته (جدول احتمالی 2x2x8) انجام دادم. > ct<-xtabs(Avrg~Time+Depth+Season,data=HG03.dat) > mantelhaen.test(ct) داده های آزمون کوکران-مانتل-هنزل: ct کوکران-مانتل-هنززل M^2 = 28.4548، df = 7 ، p-value = 0.0001818 > ct<-xtabs(Avrg~Season+Depth+Time,data=HG03.dat) > mantelhaen.test(ct) داده های آزمون کوکران-مانتل-هنزل: ct کوکران-منتل-هنزل M^2 = 111.5986، df = 7، p-value < 2.2e-16 با این حال، من مطمئن نیستم که آیا این نتیجه می شود یا خیر معتبر هستند، زیرا داده های خام من قبلاً در فرکانس هستند، نه در تعداد. وقتی از Sum به عنوان متغیر وابسته استفاده کردم، نتایج متفاوتی به دست آوردم. من در مورد نحوه ادامه کار دچار مشکل هستم. اگر کسی ایده ای دارد، بسیار سپاسگزار خواهد بود.
|
آیا آزمون کوکران-مانتل-هنزل آزمون صحیحی برای این داده های فرکانس است؟
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.