_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
64666
من در حال تحقیق در مورد تجزیه و تحلیل خوشه‌ای هستم و به متغیرهایی علاقه‌مندم که هم مقوله‌ای و هم پیوسته هستند، که برای آن‌ها خوانده‌ام که ضریب تشابه Gower معیار خوبی برای مجاورت است. من خوانده ام که ضریب شباهت گوور به طور کلی با روش وارد سازگار نیست، بنابراین قصد داشتم در ابتدا با استفاده از پیوند متوسط ​​خوشه بندی کنم، اما همچنین به دنبال مقایسه ساختار خوشه (برای اهداف اعتبار محتوا) با روش خوشه بندی دیگری، به ویژه k روش میانگین، با استفاده از تعداد خوشه ها و مراکز اولیه به دست آمده در روش پیوند متوسط. آیا ضریب تشابه Gower یک معیار مجاورت سازگار برای روش k-means است؟
86750
کسی در مورد تست چاو 1 مرحله ای چیزی شنیده است؟ من کلمه کلیدی 1-step chaw test را در گوگل جستجو کردم اما هیچ بازدیدی پیدا نکردم. فرمول این تست چیست؟
55610
من در مورد تفسیر اصطلاحات تعامل در رگرسیون پواسون گیج شده ام. در اینجا یک مجموعه داده فرضی وجود دارد. اگر این داده ها را با استفاده از رگرسیون پواسون تجزیه و تحلیل کنیم (همانطور که داده های شمارش است)، هیچ تعامل گروه به شرط وجود نخواهد داشت (در هر دو گروه، نرخ خطا در شرایط Y 100٪ افزایش می یابد، یعنی نسبت نرخ بروز 2). اگر این داده‌ها را با استفاده از ANOVA تجزیه و تحلیل کنیم (و داده‌ها را تغییر ندهیم)، احتمالاً یک تعامل قابل‌توجه گروه با شرط به دست می‌آید (من این را شبیه‌سازی کرده‌ام). در حالی که رگرسیون پواسون به تفاوت های متناسب بین شرایط نگاه می کند، ANOVA به تفاوت های مطلق حساس تر است. به نظر من از آنجایی که رگرسیون پواسون از مقیاس ضربی (از طریق تبدیل log) استفاده می کند، زمانی که همان داده ها با استفاده از OLS (یا ANOVA) تجزیه و تحلیل شوند، اثر افزایشی تحت رگرسیون پواسون ضربی می شود. بنابراین کدام اصطلاح تعاملی راست تر است؟ آیا فقط بحث تفسیر است؟ یا دلایل پیشینی برای انتخاب یکی بر دیگری وجود دارد. برای مثال، آیا می‌توانید استدلال کنید که چون داده‌های شمارش ویژگی‌های نسبت را نشان می‌دهند، ما باید نسبت‌ها را تجزیه و تحلیل کنیم نه فواصل (به گفته استیونز)؟ با تشکر و امیدوارم این منطقی باشد.
اصطلاحات متقابل در رگرسیون پواسون
52866
من سعی می‌کنم از mixfdr در شبیه‌سازی مقادیر p استفاده کنم، اما گاهی اوقات جستجو برای پارامتر جریمه‌سازی یک خطا را نشان می‌دهد و برخی از ورودی‌های ماتریس را بی‌نهایت نشان می‌دهد: >m <- mixFdr(stdjk,plots=F,J=3 ,theonull=F,calibrate=T) برازش مدل اولیه [1] 0.750 0.125 0.125 [1] -7412.522 -7412.522 -7412.522 [1] 3706.261 3706.261 3706.261 [,1] [,2] [,3] [1،] 0.750 -7412.522 31706 [31706.7412 -7412.522. -7412.522 3706.261 [3،] 0.125 -7412.522 3706.261 [,1] [,2] [1,] -Inf Inf [2,] -Inf Inf [3,] -Inf Inf [,1] [,2] [1 ,] 0.1 Inf [2،] 0.1 Inf [3،] 0.1 Inf خطا در if (فاصله < tol) همگرا = TRUE : مقدار از دست رفته در جایی که TRUE/FALSE مورد نیاز است آیا این طبیعی است یا برخی از پارامترها را گم کرده ام؟
پارامتر پنالتی Mixfdr
82478
PCA برای کاهش ابعاد داده های صوتی
100645
من سعی می کنم یک راه مناسب برای عادی سازی داده های خود پیدا کنم. با استفاده از میکروسکوپ می‌خواهم درصد سلول‌های سبز را در یک جمعیت بشمارم. با این حال، تنها 0.1٪ از تمام سلول ها سبز هستند. من تصمیم گرفتم که می خواهم 30 سلول سبز را بشمارم، این بدان معنی است که برای پیدا کردن 30 سلول سبز باید تقریباً 30000 سلول را بشمارم. با این حال، من نمی خواهم به صورت دستی 30000 سلول را بشمارم. بنابراین به یک راه کوتاه رسیدم. من مساحت دقیق یک فریم را زیر میکروسکوپ می دانم. بنابراین اگر بدانم در یک فریم چند سلول وجود دارد و تعداد فریم‌هایی را که تصویر کرده‌ام را پیگیری کنم، نیازی به شمارش سلول‌های غیرسبز تکی ندارم. برای تخمین تعداد سلول‌ها/فریم‌هایی که 10 فریم تصادفی را شمارش کردم، این به من امکان می‌دهد میانگین (+/- stdev) تعداد سلول‌ها در هر فریم را تخمین بزنم و این به من مخرج مورد نیاز را می‌دهد. با این حال، من در مرحله بعدی گیر کرده ام. بنابراین من سلول های سبز را می شمارم و تعداد کل سلول ها را برون یابی می کنم. وقتی درصد سلول‌های سبز را گزارش می‌کنم، معمولاً # سلول سبز/کل سلول را می‌دهم. اما اکنون، باید خطای تخمین را در نظر بگیرم. من مطمئن نیستم که چگونه این کار را انجام دهم. علاوه بر این، من این سلول ها را با داروهای مختلف درمان می کنم تا ببینم آیا تعداد سلول های سبز تغییر می کند یا خیر. از چه آماری استفاده کنم یا تغییر مخرج مهم نیست؟ با تشکر!!
107888
من هیستوگرام‌های قیمتی را ترسیم کرده‌ام که به نظر می‌رسد به خوبی دنباله‌روی و نمایی دارند. ![](http://i60.tinypic.com/24dr3vr.png) با این حال، من همچنین می خواهم اوج اولیه را در محدوده قیمت پایین پارامتری کنم. آیا می توانید پیشنهاد دهید که چه توزیعی برای این کار مناسب است؟ چگونه می توانم در این مورد به طور کلی تحقیق کنم؟
کدام توزیع برای پارامتری کردن هیستوگرام قیمت با دنباله نمایی؟
64660
من یک آزمایش با دو عامل دارم. اولین عامل، تصویر، دارای سه سطح است: خوب، زشت، غایب (یعنی تصویر ارائه نمی شود). عامل دوم، اطلاعات، دو سطح دارد: حال، غایب. متغیر وابسته یک متغیر پیوسته است: دوست داشتن. حالا من شرط تصویر=غایب + اطلاعات=غایب را اجرا نکردم چون به معنای ارائه نکردن چیزی و پرسیدن اینکه چقدر از مردم خوششان آمده است که خیلی منطقی نیست. بنابراین من به جای 6 سلول با 5 سلول باقی مانده ام. آیا ایده ای در مورد چگونگی تجزیه و تحلیل این داده ها دارید؟
22662
من چیز زیادی در مورد آمار نمی دانم، بنابراین من به دنبال نقطه شروع در اینجا هستم. هر گونه منبع یا بینشی مفید خواهد بود. من در حال انجام یک آزمایش یادگیری الکترونیکی هستم، که در آن دانش‌آموزان ویدیوها را تماشا می‌کنند و سپس یک نظرسنجی را تکمیل می‌کنند که بار شناختی و رضایت کاربر را اندازه‌گیری می‌کند، و سپس ارزیابی کوتاهی را برای آزمایش آموخته‌هایشان انجام می‌دهند. به دلیل مشکلات پیش آزمون در یادگیری، می‌خواهم گروه‌های آزمایشی را بر اساس سه متغیر طبقه‌بندی کنم: 1. نتایج آزمون قبلی 2. نگرش نسبت به دوره خود (اندازه‌گیری شده با نظرسنجی) 3. نگرش نسبت به یادگیری الکترونیکی (اندازه‌گیری شده توسط نظرسنجی) با انجام این کار می توانم واریانس بین هر گروه را به حداقل برسانم. اگر من طبق متغیر 1 طبقه بندی می کردم، می توانستم اطمینان حاصل کنم که هر گروه به میزان مساوی دانش آموزان A، B و غیره دارد. برای کنترل کردن. من فقط می توانستم با گروه ها بازی کنم تا زمانی که آنها را تقریباً یکسان کنم، اما می خواستم بدانم آیا روش های آماری برای طبقه بندی با متغیرهای متعدد وجود دارد؟ با تشکر
نمونه گیری طبقه ای با متغیرهای متعدد؟
52860
تلاش برای انجام لس روی دو متغیر «x» و «y» در R با استفاده از نرمال‌سازی MA (نگاه کنید به نمودار MA؛ همچنین به نمودار میانگین تفاوت Bland-Altman یا Tukey مراجعه کنید) مانند این: > x = rnorm(100) + 5 > y = x + 0.6 + rnorm(100)*0.8 > m = log (x/y) > a = 0.5*log(x*y) من می‌خواهم x و y را به گونه‌ای نرمال کنم که میانگین «m» 0 باشد، مانند نرمال‌سازی استاندارد MA، و سپس مقادیر صحیح x و y را دوباره محاسبه کنم. ابتدا اجرای loess در MA: > l = loess(m ~ a) پس از آن راه برای بدست آوردن مقادیر «m» اصلاح شده چیست؟ آیا این درست است؟ > mc <- پیش بینی (l, a) # طرح MA اصلی > نمودار (a,m) # طرح MA تصحیح شده > نمودار(a,m-mc) برای من مشخص نیست که «پیش‌بینی» واقعاً در مورد «لوس» چه می‌کند. «اشیاء» و تفاوت آن با استفاده از «l$residuals» در شی «l» که توسط «loess» برگردانده شده است، می‌تواند توضیح دهد؟ در نهایت، چگونه می توانم مقادیر جدید x و y را بر اساس این اصلاح محاسبه کنم؟ تلاش برای محاسبه مجدد «x» و «y»: «m» تصحیح شده، new_m = m - mc است، بنابراین «x,y» را می توان از تعریف «m» مشتق کرد: m = log(x/y) = log(x) - log(y) بنابراین، x = exp(new_m + log(y)) y = exp(-1*(new_m - log(x))) اما این اشتباه است. یک ضریب مقیاس‌پذیری از دست رفته نصف وجود دارد و من می‌خواهم اشتقاقی را ببینم که از کجا می‌آید. احتمالاً از تعریف «A» است، اما نمی‌دانم چرا نمی‌توانم همان «x,y» را بر حسب «A» بازنویسی کنم **ویرایش**، اگر کسی می‌تواند توضیح دهد که ضریب نصف تصحیح کجاست. در هنگام محاسبه دوباره «x» \-- یعنی اینکه چرا فرمول «x = exp(new_m + log(y))» اشتباه است -- ممنون می شوم.
نرمال سازی LOESS و MA در R؟
60916
من دکتری هستم. کاندیدای زبان شناسی کاربردی در حال حاضر من درگیر یک مطالعه تحقیقاتی در مورد ارائه بازخورد اصلاحی معلمان انگلیسی در مورد خطاهای زبان آموزان انگلیسی L2 هستم. من شرکت کنندگان معلم را به دو گروه تقسیم کرده ام. من می‌خواهم گروه‌ها را از نظر تعداد (تکرار) اصلاحاتی که در پاسخ به اشتباهات زبان‌آموزان ارائه می‌کنند، کنار هم قرار دهم. فکر می کنم باید از آزمون کای اسکوئر استفاده کنم. با این حال، از آنجایی که اندازه گروه ها متفاوت است (10 معلم در گروه A و 15 معلم در گروه B)، من در مورد کاربردی بودن آزمون کای دو مطمئن نیستم. می‌خواهم بدانم آیا آزمون آماری وجود دارد که بتواند با داده‌های فراوانی برخورد کند، در حالی که تحت تأثیر نبود برابری در اندازه گروه قرار نگیرد.
Chi-square با طراحی نامتعادل
103559
معیار ایده آل برای همگامی خنده چیست؟
107885
من همبستگی پیرسون را در R انجام داده ام و برای تفسیر نتایج به کمک نیاز دارم. داده‌های همبستگی لحظه-محصول پیرسون: A.C$Average.tortuosity و A.C$Area t = 0.6168-، df = 14، p-value = 0.5473 فرضیه جایگزین: همبستگی واقعی برابر با 0 95 درصد فاصله اطمینان نیست: 2.60923-0.60926 تخمین نمونه : کور -0.1626531 من علاقه مند به گزارش مقادیر _r_ و _p_ هستم. آیا منصفانه است که بر اساس خروجی فوق بگوییم که: > بین دو متغیر _r_ (14) > = -.16، _p_ > 0.05 همبستگی غیر معناداری وجود دارد.
خروجی همبستگی پیرسون را از R تفسیر کنید
26578
از طریق این سایت من اخیراً Sankey Diagrams را کشف کرده ام، راهی عالی برای تجسم آنچه در یک نمودار جریان _ سنتی_ اتفاق می افتد. در اینجا یک مثال خوب از یک نمودار سانکی توسط جورج ام وایتسایدز و جورج دبلیو کرابتری آمده است، ![تحقیقات بنیادی بلندمدت در انرژی را فراموش نکنید](http://i.stack.imgur.com/fKl53.png ) منبع; تحقیقات بنیادی بلند مدت در انرژی را فراموش نکنید، علم 9 فوریه 2007: جلد. 315. شماره 5813، صفحات 796 - 798. بعد از اینکه متوجه شدم هیچ بسته R-Sankey وجود ندارد، یک اسکریپت R به صورت آنلاین پیدا کردم، متأسفانه این اسکریپت کاملاً خام و تا حدودی محدود است. با امید زیاد من یک بسته R-Sankey یا یک تابع بالغ تر را در stackoverflow درخواست کردم، اما در کمال تعجب به نظر می رسد که ما یک تابع بالغ برای ساختن نمودارهای Sankey در R نداریم. پس از ارسال جایزه Geek On Acid مهربان بود. به اندازه کافی برای پیشنهاد یک هک کوچک روی اسکریپت موجود است که باعث شد کم و بیش برای هدف خاص من کار کند. اسکریپت R بهبود یافته این نمودار را تولید کرد، ![نمودار R-Sankey Geek On Acid](http://i.stack.imgur.com/lFahc.png) منبع; stackoverflow.com. اما، آیا فقدان بسته R نشان می‌دهد که نمودارهای سانکی روش شگفت‌انگیزی برای تجسم ساییدگی با استفاده از R در جریان داده‌ای مانند آنچه در نمودار بالا ارائه شده است نیست (به سؤال اولیه stackoverflow برای داده‌ها و کد R مراجعه کنید. شاید. راه بهتری برای تجسم ساییدگی وجود دارد به نظر شما بهترین راه برای تجسم ساییدگی در جریان داده با استفاده از R چیست؟
بهترین راه برای تجسم ساییدگی با استفاده از R؟
22668
pmf زیر را برای یک متغیر تصادفی گسسته $X$ در نظر بگیرید: $f(x) = x/15$ وقتی $x ​​= 1، 2، 3، 4، 5$، و $f(x) = 0$ برای سایر متغیرها مقادیر x$. $f(3)$ چیست؟ (یعنی PMF در 3 ارزیابی شد)
ارزیابی تابع جرم احتمال برای یک متغیر تصادفی گسسته
60919
من $n$ ($<20$) i.i.d. مشاهدات از هر توزیع برای محاسبه واریانس نمونه، از $$s^2=\sum_i \frac{(\bar{X}-X_i)^2}{n-1}$$ استفاده می‌کنم. یعنی من به خطای استاندارد میانگین نمونه نیاز دارم. آیا دوباره بر $n$ تقسیم کنم یا دوباره بر $n-1$؟ $$S.E. \stackrel{?}{=}\sqrt{\frac{s^2}{n-1}}$$
آیا درجه آزادی $n-1$ برای هر دو انحراف استاندارد نمونه مشاهدات فردی و برای خطای استاندارد نمونه میانگین است؟
110488
من یک امتحان در راه است و می خواهم بدانم آیا ویدیوها/لیست پخش یوتیوب یا هر ویدیوی آنلاینی وجود دارد که بتواند مفاهیم زیر را به روشی ساده توضیح دهد. مفاهیم عبارتند از: (آمار توصیفی) مقیاس های اندازه گیری هیستوگرام ها و نمودارهای دیگر قانون تجربی آمار خلاصه درصدها (احتمال) مقادیر مورد انتظار: توزیع دو جمله ای توزیع پواسون توزیع عادی تقریب های عادی به توزیع ها توزیع های نمونه گیری طراحی آزمایشی و پیمایشی (استنتاج) میانگین از یک جامعه واحد نسبت از یک جمعیت واحد میانگین از دو نمونه مستقل میانگین از نمونه های زوجی نسبت‌های دو نمونه مستقل (آزمایش فرضیه) میانگین از یک جمعیت واحد نسبت‌های چندجمله‌ای از یک نمونه واحد دو میانگین با استفاده از نمونه‌های مستقل دو میانگین با استفاده از نمونه‌های زوجی دو نسبت با استفاده از نمونه‌های مستقل استقلال یا همگنی نسبت‌ها (همان chi- آزمون های مربعی) (تحلیل واریانس:) CRD RCB (روندها، رگرسیون و همبستگی) روندها حداقل مربعات همبستگی آزمون‌های مجذور کای و جداول اقتضایی (تست‌های استقلال) به ویژه در آزمون‌های مجذور کای، تحلیل واریانس و استنتاج به کمک نیاز دارم. با تشکر از همه برای کمک شما!!
ویدیوهای وب که می توانند درک بهتری از مفاهیم آماری به من ارائه دهند
26571
این سوال در مورد شبکه های بیزی است. من می‌خواهم با دانستن همه احتمالات شرطی، احتمال اینکه رویدادهای خاص در یک حالت خاص باشند را محاسبه کنم. در نظر بگیرید که من کاملاً در شبکه های بیزی تازه کار هستم. # مشکل یک شبکه بیزی را در نظر بگیرید. برای همه متغیرهای $A_i,B_i \dots Z_i$ در شبکه من پتانسیل‌ها را به شکل $P\\{ A_i می‌دانم | par(A_i) \\}=P\\{A_i | B_1 \dots B_n\\}$ برای همه حالت‌های ممکن $a_i,b_1 \dots b_n$. این پتانسیل ها با استفاده از احتمالات ذهنی محاسبه می شوند. # محاسبه احتمالات منفرد آنچه می دانم فقط پتانسیل است. به عنوان مثال، برای متغیر $A_i$ من $P\\{A_i = a_i\\}$ را نمی دانم اما $P\\{A_i = a_i را می دانم | B_1=b_1 \dots B_n=b_n\\}$. جایی که $B_1، B_2 \dots B_n$ والدین $A_i$ هستند. من می خواهم $P\\{A_i = a_i\\}$ را محاسبه کنم. در نظر بگیرید که هیچ محدودیتی در نظر گرفته نشده است، بنابراین این متغیر $A_i$ می تواند والدین و فرزندان داشته باشد. و همچنین $B_1 \dots B_n$. به نظر پیچیده نیست. با داشتن پتانسیل می توانم از قانون احتمال کل استفاده کنم و: $$P\\{ A_i = a_i \\} = \sum_{\forall b_1 \dots b_n} P\\{ A_i = a_i | B_1=b_1 \dots B_n=b_n \\} \cdot P\\{B_1=b_1 \dots B_n=b_n \\}$$ در مجموع قسمت اول: $P\\{ A_i = a_i | B_1=b_1 \dots B_n=b_n \\}$ را می توان با استفاده از پتانسیل محاسبه کرد. در مورد $P\\{B_1=b_1 \dots B_n=b_n \\}$ چطور؟ یعنی چگونه می توانم احتمال اینکه برخی از متغیرها در حال حاضر حالت خاصی دارند را محاسبه کنم؟ لطفاً توجه داشته باشید که $B_1 \dots B_n$ یکی از والدین دیگری نیستند، آنها در همان سطح شبکه هستند، آنها همتا هستند، به این معنی که هیچ رابطه والدینی ندارند. آنها والدین $A_i$ هستند. # سوال به طور کلی، چگونه می توان احتمال اینکه برخی از متغیرها در یک وضعیت کنونی هستند را محاسبه کرد؟ وقتی هیچ رابطه والدینی ندارند؟ پیش شرط ها عبارتند از: احتمالات (پتانسیل) شرطی را می دانم.
چگونه احتمالات مشترک را از احتمالات شرطی در شبکه بیزی محاسبه کنیم؟
26572
من سعی می کنم آزمایش کنم که آیا بین تخمین حداکثر احتمال دو پارامتر ژنتیکی (انتخاب و غالبیت) در دو محیط با داده های ژنوتیپ از یک تلاقی تفاوت معنی داری وجود دارد یا خیر. سه کلاس ژنوتیپ وجود دارد، C11، C12، و C22، و من به دنبال به حداکثر رساندن احتمال زیر هستم: llhood2 <- تابع(تتا، c، c11،c12،c22){ s<-theta[1] d<-theta [2] P11 = (1 - ((s * (1 - c) * (1 - c + (2 * d * c)))) / (4 - (s * (1 + (2 * d)))) P22 = (1 - (s * c * ((2 * d * (1 - c)) + c))) / (4 - (s * ( 1 + (2 * د)))) P12 = (1 - P11 - P22) logL = c11*log(P11) + c12*log(P12) + c22*log(P22) -logL } C بسته به اینکه از کدام نشانگر ژنتیکی استفاده می کنید ثابت است و c11، c12 و c22 به ترتیب نشان دهنده ژنوتیپ های AA، AB و BB هستند R و وصل کردن داده های ژنوتیپ از هر محیط، می توانم یک تخمین نقطه ای برای s و d در یک محیط (s1 و d1) بدست بیاورم و واریانس این تخمین‌ها از هسین، سپس با استفاده از داده‌های ژنوتیپ از محیط دوم (s2 و d2 و واریانس‌های مرتبط با آن‌ها، تخمین‌های پارامتر را دریافت می‌کنم، بنابراین، دو برازش جداگانه مدل به من s1 var_s_1 و s2 var_s_2 و غیره می‌دهد). کد optim در زیر آمده است: fit1 <- optim(inits, llhood, method=L-BFGS-B,. hessian=T، پایین تر=پایین، بالا=بالا، c=c,c11=c11,c12=c12,c22=c22, control=list(trace=1)) fit2 <- optim(inits, llhood, method=L -BFGS-B، hessian=T، پایین=پایین،بالا=بالا، c=c,c11=n11,c12=n12,c22=n22, control=list(trace=1) سپس می خواهم بدانم که آیا s1 به طور قابل توجهی با s2 متفاوت است (به همین ترتیب برای d1 و d2). من فکر می‌کردم که این یک آزمایش مستقیم است، اما برای یافتن اسنادی در مورد چگونگی انجام صحیح یا زیباترین کار مشکل داشتم. به عنوان یک تقریب خام، من از یک آزمون T دو نمونه ای ساده استفاده کردم، اما کاملا مطمئن هستم که کاملا درست نیست... من همچنین یک آزمون نسبت احتمال را در نظر گرفتم که در آن آزمایش می کنم که آیا تفاوت بین دو تخمین s1 و s2، با صفر (مدل کاهش یافته) در مقابل با صفر متفاوت نیست. اما با توجه به معادلات احتمالی من مطمئن نیستم که چگونه این را تنظیم کنم. هر گونه کمک خاص بسیار قدردانی خواهد شد. به روز رسانی: در اینجا چند کد تلاش شده برای احتمالات محدود و نامحدود وجود دارد که برای انجام آزمایش نسبت درستنمایی استفاده می شود. ابتدا محدود شده (null) که در آن s و ss برابر هستند- (c11-c22 داده های env.1، n11-n12 برای محیط 2 هستند) llhoodnull <- تابع (theta,c,c11,c12,c22,n11,n12 ,n22){ s<-تتا[1] d<-تتا[2] ss=s dd=d P11 = (1 - (s * (1 - c) * (1 - c + (2 * d * c)))) / (4 - (s * (1 + (2 * d)))) P22 = ( 1 - (s * c * ((2 * d * (1 - c)) + c))) / (4 - (s * (1 + (2 * d)))) P12 = (1 - P11 - P22) ) b11 = (1 - (ss * (1 - c) * (1 - c + (2 * dd * c)))) / (4 - (ss * (1 + (2 * dd)))) b22 = (1 - (ss * c * ((2 * dd * (1 - c)) + c))) / (4 - (ss * (1 + (2 * dd)))) b12 = (1 - b11 - b22) logL = c11*log(P11) + c12*log(P12) + c22*log(P22)+n11*log(b11) + n12*log(b12) + n22*log(b22) -logL} فکر می کنم که شاید لازم باشد d را هم درست کنم تا فقط احتمال s را آزمایش کنم. و نامحدود: llhoodb <- تابع(تتا،c،c11،c12،c22،n11،n12،n22){ s<-theta[1] d<-theta[2] ss<-theta[3] dd<- تتا[4] P11 = (1 - (s * (1 - c) * (1 - c + (2 * d * c)))) / (4 - (s * (1 + (2 * d)))) P22 = (1 - (s * c * ((2 * d * (1 - c)) + c))) / (4 - (s * (1 + (2 * d)))) P12 = (1 - P11 - P22) b11 = (1 - (ss * (1 - c) * (1 - c + (2 * dd * c)))) / (4 - (ss * (1 + (2 * dd)))) b22 = (1 - (ss * c * ((2 * dd * (1 - c)) + c))) / (4 - (ss * (1 + (2 * dd)))) b12 = (1 - b11 - b22) logL = c11*log(P11) + c12*log(P12) + c22*log(P22)+n11*log(b11) + n12*log(b12) + n22*log(b22) -logL } وقتی می‌خواهم با optim() آن را به حداکثر برسانم این یکی به من خطا می‌دهد... هر نظری روی اینها؟
آزمایش برای تفاوت معنادار بین تخمین‌های ML: نسبت احتمال یا آزمون والد؟
65272
آیا دستگاه تقویت گرادیان فریدمن می تواند عملکرد بهتری نسبت به جنگل های تصادفی داشته باشد؟ اگر چنین است، در کدام شرایط یا چه نوع مجموعه داده ای می تواند gbm را بهتر کند؟
در چه شرایطی ماشین‌های تقویت گرادیان از جنگل‌های تصادفی بهتر عمل می‌کنند؟
110481
من در حال خواندن یک کتاب درسی در مورد داده های از دست رفته هستم، و درک جمله زیر برای من کمی چالش برانگیز است. > چگالی احتمال حاشیه ای $ \left ( x_{obs}\ \right)$ به دست می آید > با ادغام داده های گمشده $ \left ( x_{miss}\ \right)$ $$ f\left ( > x_{obs) }|\theta \right )=\int_{}^{}f\left ( x_{obs},x_{miss} \right > ){}dx_{miss}\\\\\\\\{}$$ برای درک این موضوع به کمک نیاز دارم، ترجیحاً با یک مثال.
چگالی احتمال حاشیه ای x (obs) به دست آمده از ادغام x (فقدان)
110487
من مشکلی دارم که می توان آن را به عنوان یک رگرسیون خطی خلاصه کرد. بنابراین به شکل زیر است: $$ Y=X \beta +\epsilon $$ که در آن $Y$ و $\epsilon$ بردارهایی با اندازه $N\times1$ هستند، $X$ یک ماتریس با اندازه $N\times3 است. $، و $\beta$ یک بردار با اندازه $3\times1$ است (یعنی من برای سه پارامتر حل می کنم). راه مناسب برای حل این مشکل در چارچوب حداقل مربعات معمولی، از طریق معادلات نرمال است - یعنی مشتق جزئی مجموع مربعات خطاها را با توجه به هر پارامتر، و برای اینکه مجموع را به حداقل برسانیم، جایی که برابر با صفر است را حل کنیم. از مربع خطاها با این حال، این برای من نسبتاً ضعیف عمل می کند. از روی هوس، سعی کردم به جای آن پارامترها را حل کنم، فقط موارد زیر را انجام دهم: $$ \beta = X^{-1}Y $$ این واقعاً خیلی خوب عمل می کند. مشکل اینه که من نمیتونم توجیهش کنم و نمیدونم داره چیکار میکنه! توجه داشته باشید که اساساً نادیده گرفتن این ایده است که اصلاً خطا وجود دارد. هیچ ایده ای در مورد اینکه اینجا چه خبر است؟ پیشاپیش ممنون
اگر SSE ها را به حداقل نمی رساند، چه کار می کنم؟
97168
حاشیه نشینی بر اساس احتمال مشروط
65276
من در حال خواندن یک مقاله بسیار جالب از Sellers و Shmueli در مورد مدل های رگرسیون برای داده های شمارش هستم. نزدیک به آغاز (ص. 944) آنها به مک کالا و نلدر (1989) استناد می کنند که می گویند رگرسیون دوجمله ای منفی محبوبیتی ندارد و دارای یک پیوند متعارف مشکل ساز است. متن ارجاع شده را پیدا کردم و می گوید (ص 374 از M و N) به نظر می رسد استفاده کمی از توزیع دوجمله ای منفی در برنامه ها انجام شده است؛ به ویژه استفاده از پیوند متعارف مشکل ساز است زیرا پیش بینی خطی را ایجاد می کند. تابعی از پارامتر تابع واریانس». در صفحه قبل آنها تابع پیوند را به صورت $$\eta = \log\left(\frac{\alpha}{1 + \alpha} \right) = \log\left( \frac{\mu}{\mu) می‌دهند. + k}\right)$$ و تابع واریانس $$V = \mu + \frac{\mu^2}{k}.$$ توزیع به صورت $$Pr(Y = y؛ \alpha,k) داده می‌شود. = \frac{(y+k-1)!}{y!(k-1)!}\frac{\alpha^y}{(1+\alpha)^{y=k}}$$ من NB را پیدا کردم رگرسیون به طور گسترده مورد استفاده قرار می گیرد (و در چندین کتاب توصیه می شود). آیا همه این استفاده ها و توصیه ها اشتباه است؟ پیامدهای این پیوند مشکل ساز چیست؟
سوال رگرسیون دو جمله ای منفی - آیا مدل ضعیفی است؟
65274
برای خطی کردن مدل خود از $\ln(x+1)$ استفاده می‌کنم، بنابراین معادله زیر را به دست می‌آورم: $$ \ln(y+1) = b_0 + b_1 \ln(x_1 + 1) + b_2\ ln(x_2+1) + \cdots + b_n\ln(x_n+1). $$ من بر اساس نهفته (متغیرهای مشاهده نشده) فرضیه می دهم و به عنوان معیار از متغیرهای مشاهده شده (یا پراکسی ها) استفاده می کنم - آنهایی که در معادله هستند. برنامه من استفاده از SEM (مدل سازی معادلات ساختاری) یا/و CFA (تحلیل عامل تاییدی) برای اعتبارسنجی مدلم است. در انجام SEM/CFA خود باید از متغیرهای تبدیل شده $\ln(x+1)$ استفاده کنم یا همانطور که مشاهده می شود (فقط $x$)؟
SEM/CFA و تبدیل داده ها
65275
من از یک مدل فضای حالت برای تطبیق مشاهدات با یک مدل پویای جمعیت (با استفاده از زبان BUGS) استفاده می کنم. در بخش «وضعیت»، مدل پویا یک «وضعیت» جدید از جمعیت (یعنی اندازه و ساختار) برای هر سال مدل‌سازی شده ایجاد می‌کند. در بخش مشاهده، چندین خروجی از بخش وضعیت به مشاهدات داده شده توسط دو منبع مختلف برازش داده می شود. اندازه جمعیت، هر سال مشاهده می شود، با استفاده از یک لگ نرمال برازش می شود. برای (i در 1:N) { obsPop[i] ~ dlnorm(log(predictPop[yearObsPop[i]]),prec.obsPop[i]) } تعداد افراد مشاهده شده مرده مشاهده شده، هر سال که مشاهده می شد، برازش داده می شود با استفاده از یک دوجمله ای برای (i در 1:N2){ obsDead[i] ~ dbin(pObsDead، deadPredict[yearObsDead[i]]) } با این حال، N (یعنی تعداد سال مشاهده اندازه جمعیت) کوچکتر از N2 (یعنی تعداد سال مشاهده برای مرگ و میر) است و به نظر می رسد منبع دوم داده دارای یک وزن بیش از حد در نتیجه * چگونه می توانم وزن متفاوتی برای هر منبع داده در برازش جهانی مدل انجام دهم؟ پیشاپیش با تشکر
وزن منابع داده در مدل بیزی (BUGS)
19941
من متوجه شدم که می توان به باقیمانده های تنظیم شده نگاه کرد و آنها را به عنوان یک z-score در نظر گرفت و سپس از یک آزمون دو دنباله برای یافتن مقدار p استفاده کرد. مشکل این است که چگونه می‌توانید باقیمانده‌های تعدیل‌شده را بر روی چیزی که من می‌دانم یک جدول 1xr محاسبه می‌کنید (زیرا آزمون خوبی از برازش است)؟ علاوه بر این، اگر کسی علاقه مند است ببیند من در رابطه با جفت خودم چه می کردم و جزئیات بیشتری در مورد مسائلم انجام می دادم، لطفاً به یک سؤال انجمن اینجا نگاه کنید. من همچنین جداول استفاده از زیستگاه در مقابل در دسترس بودن را دارم. برخی از مقادیر کوچک هستند، اما تنها دو گروه دارای مقدار متوسط ​​زیر 5 هستند. من از $\chi^2$ استفاده می‌کنم، زیرا نمی‌دانستم چگونه روی یک میز بزرگ (9 یا 5 زیستگاه) فیشر انجام دهم. مسئله این است که من سپس مقایسه‌های دوتایی را برای هر ترکیب زیستگاه انجام دادم تا مقادیر p را اضافه کنم تا به این نتیجه برسم که زیستگاه‌ها در نتیجه قابل توجهی نقش دارند. آیا باید به نحوی از Fisher's برای این تست های 2x2 استفاده می کردم؟ من راهی برای انجام این دو به دو برای chi-squared پیدا نکردم، بنابراین یک فایل اکسل برای انجام آن تنظیم کردم و سپس هر p-value (ابتدا کوچکترین) را با مقادیر p Bonferroni Holm یعنی '0.05/9' سپس '0.05 مقایسه کردم. /8` و غیره، برای هر یک به نوبه خود. آیا این به جای بررسی فیشر در آزمون امکان پذیر است؟ نتایج یافت شده معتبر به نظر می‌رسند و از قضا نوع زیستگاه با «O=4» و «E=2» معنی‌دار نبود. علاوه بر این، اگر من تصحیح Holm را با دست انجام می‌دهم (یعنی هر کدام را با مقدار p مربوطه مقایسه می‌کنم) باید مقدار p واقعی در نتایج نشان داده شود، یا باید مقدار p را نشان دهید که در مقدار ضرب شده است. تصحیح مربوطه به طوری که همه آنها می توانند طوری به نظر برسند که گویی با 'alpha=0.05' مقایسه می شوند؟ به عنوان مثال، پنجمین کوچکترین مقدار من از 9 p مقدار 0.02 است. طبق هولمز، من باید این را با «0.05/5» مقایسه کنم، یعنی «0.01» بنابراین معنی دار نیست. اگر بخواهم مقادیر p را گزارش کنم، آیا مثلاً باید این مقدار به صورت '0.10' نشان داده شود، یعنی در 5 ضرب شده است؟ یا باید «0.02» اصلی را نشان دهم و سپس مرجعی مانند «با استفاده از تصحیح هولم مهم است؟
95565
اول از همه بابت عنوان بد متاسفم. من تصور می کنم این یک مشکل استاندارد است، فقط نمی دانم چگونه با آن برخورد کنم، مدل زیر \begin{equation} Y_{ij} = \mu + E_i + \varepsilon_{ij} \end{equation} را دارم. $1 \leq i \leq N$ و $1 \leq j \leq M$. و $E_i \sim \mathcal{N}(0,\sigma^2_E$) و $\varepsilon_{ij}\sim \mathcal{N}(0,\sigma^2_\varepsilon)$ عبارات خطایی هستند که همگی مستقل هستند. یکدیگر توجه داشته باشید که $E_i$ در بسیاری از معادلات و $\varepsilon_{ij}$ تنها در یک معادله ظاهر می‌شوند. می‌خواهم بدانم روش استاندارد تخمین $\mu$ و واریانس تخمین، پس از مشاهده همه $Y_{ij}$ چگونه است. اولین رویکرد من این است که با میانگین \begin{equation} \hat{\mu} =\frac{1}{MN} \sum_{i=1}^{N}\sum_{j=1}^M Y_ تخمین بزنم. {ij} \end{equation} من می‌توانم واریانس $\hat{\mu}$ را محاسبه کنم که \begin{equation} \text{Var}(\hat{\mu}) = به دست می‌آید. \frac{\sigma^2_{\varepsilon}}{MN} + \frac{\sigma^2_E}{N} \end{equation} می‌توانم برآورد کنم $\sigma^2_\varepsilon$ با \begin{معادله } \hat{\sigma^2_\varepsilon} = \frac{1}{N(M-1)}\sum_{i=1}^M\sum_{j=1}^N(Y_{ij} - \bar{Y_i})^2 \end{معادله} اما من مطمئن نیستم که چگونه $\sigma^2_E$ را تخمین بزنم.
تخمین پارامتر هنگام داشتن دو منبع خطا
92898
یک فرآیند تجربی $\\{v_T(\theta)، T\geq 1 \\}$ را در نظر بگیرید و فرض کنید که به طور ضعیفی به فرآیند تصادفی $\\{ v(\theta) همگرا است. \theta \in \Theta\\}$.، یعنی $$ E^*(f(v_T(\theta)))\rightarrow E(f(v(\theta))) $$ به عنوان $T\rightarrow \infty $ $\forall f$ تابع پیوسته یکنواخت محدود شده در $\Theta$ و $\forall \theta \در \Theta$ که در آن $E^*$ نشان دهنده انتظار بیرونی است. من می دانم که این به معنای همگرایی در توزیع $\forall \theta \در \Theta$ به عنوان $T\rightarrow \infty$ است، یعنی $v_T(\theta)=O_p(1)$ $\forall \theta \در \Theta$ ، یعنی $$ \lim_{T \rightarrow \infty} F_T(a; \theta)=F(a;\theta) $$ $\forall a$ که در آن $F$ ممتد است، که $F_T(\cdot;\theta)$ cdf $v_T(\theta)$ و $F(\cdot;\theta)$ cdf از $v(\theta)$. سوال: آیا این به معنای $$ \sup_{\theta \in \Theta}v_T(\theta)=O_p(1) $$ نیز هست؟
همگرایی ضعیف دلالت بر همگرایی یکنواخت در توزیع دارد؟
26288
من سعی می کنم بفهمم که چگونه نسبت شانس ورود به سیستم را در رگرسیون لجستیک تفسیر کنم. فرض کنید من خروجی زیر را دارم: > mod1 = glm(factor(won) ~ bid, data=mydat, family=binomial(link=logit)) > summary(mod1) Call: glm(formula = factor(win) ~ bid، خانواده = دو جمله ای (پیوند = logit)، داده = mydat) باقیمانده انحراف: حداقل 1Q میانه 3Q حداکثر -1.5464 -0.6990 -0.6392 -0.5321 2.0124 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -2.133e+00 1.947e-02 -109.53 <2e-16 *** bid 2.494e-03 5.058e-05 49.32 <2e-16 *** -- - Signif کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف صفر: 83081 در 80337 درجه آزادی انحراف باقیمانده: 8064 80336 درجه آزادی AIC: 80649 تعداد تکرارهای امتیازدهی فیشر: 4 بنابراین معادله من به این صورت خواهد بود: $$\Pr(Y=1) = \frac{1}{1 + \exp\left(-[-2.13 + 0.002\times(\text{bid })]\right)}$$ از اینجا احتمالات را از تمام سطوح پیشنهادی محاسبه کردم. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/5mLa9.png) من از این نمودار استفاده کرده ام تا بگویم در پیشنهاد 1000، احتمال برنده شدن x است. در هر سطح پیشنهادی، احتمال برنده شدن x است. من احساس می‌کنم که تفسیر من اشتباه است، زیرا به این فکر نمی‌کنم که اینها شانسی هستند. واقعاً چگونه باید این طرح/این نتایج را تفسیر کنم؟
درک نسبت شانس در رگرسیون لجستیک
92897
فرض کنید یک داده با ابعاد N برای طبقه بندی به ما داده شده است. برای کنار آمدن با این کار، ممکن است طبقه بندی کننده ای را انتخاب کنیم که بیشتر با خواسته های ما مطابقت داشته باشد. با این حال، بدیهی است که هر طبقه‌بندی‌کننده‌ای قادر به طبقه‌بندی هر داده به دلایل بسیاری از جمله VCD نیست. حالا می خواهم بدانم آیا راهی برای محاسبه حداقل بعد VC مورد نیاز برای طبقه بندی کننده (فرضیه) برای طبقه بندی یک داده خاص وجود دارد؟ به عنوان مثال برای روشن تر شدن سوال من، طبقه بندی کننده ای با ابعاد VC 2 قادر به شکستن این مجموعه داده نیست: +++ --- +++
چگونه می توان حداقل بعد vc مورد نیاز را برای یک طبقه بندی کننده برای طبقه بندی یک داده خاص محاسبه کرد
114476
من سعی می کنم چیزهای کمی در مورد مدل سازی رگرسیون حداقل مربعات تعمیم یافته یاد بگیرم. در اینجا مدل هایی وجود دارد که من استفاده می کنم.، X1 ~ Y1 + Y2، X2 ~ Y1 + Y4، همه متغیرهای پیش بینی، Y1، Y2 و Y4 به طور قابل توجهی با متغیرهای پاسخ مرتبط هستند، اما زمانی که تفاوت دو متغیر پاسخ را گرفتم و تفاوت دو متغیر پیش بینی، چیزی شبیه به این: X3 = X1 - X2، Y5 = Y2 - Y4، و از این مدل X3 ~ Y1 + Y5 استفاده کنید در حال حاضر، Y5 مهم نیست: من در مورد آن سردرگم هستم. همانطور که، Y5 فقط تفاوت Y2 و Y3 است و X3 تفاوت X1 و X2 است. کسی میتونه منو راهنمایی کنه؟
تفسیر نتایج مدل رگرسیون
92890
_**من تجزیه و تحلیل خود را در R انجام خواهم داد، اما از پاسخ های ریاضی عمومی قدردانی می شود. من به اندازه کافی نمی دانم تا مطمئن شوم که رویکردهای استفاده شده در موضوعات دیگری که مشاهده کردم برای مورد من معتبر هستند، بنابراین می خواهم مطمئن باشم. در اینجا زمینه، برای کسانی که با این نوع داده ها آشنا نیستند ساده شده است: من به داده های بیان ژن نگاه می کنم. در اصل، من تعدادی دسته دارم که هر کدام مجموعه ای از ژن ها را در خود دارند. هر ژن دارای یک مقدار بیان مرتبط است (مقدار موجود در نمونه من، **log2 تبدیل شده**). من همچنین سه شرط مختلف آزمون دارم (این شرایط کاملاً مستقل از یکدیگر هستند!). چیزی که این به معنای توزیع است. به عنوان مثال: _فرایند بیولوژیکی A:_ * حاوی X **ژن** و **سطح بیان** آنها برای **شرط 1** * حاوی Y **ژن** و **سطح بیان** آنها برای * *شرط 2** * شامل **ژن*های Z** و **سطح بیان** آنها برای **شرط 3** ![نمونه نمایش مجموعه داده‌های من up](http://i.stack.imgur.com/T4xX8.png) من می خواهم این سه توزیع را **_compare_** کنم. منظورم از مقایسه این است که ببینم آیا تغییرات بزرگی در شکل یا گسترش توزیع وجود دارد یا خیر. **ویرایش: همانطور که پیتر اشاره کرد، چیزی که من واقعاً به آن علاقه مند هستم 1. مکان، 2) گسترش و 3) شکل با توجه به سه توزیع مورد مقایسه ** است. به عنوان مثال، اگر شرط 1 طوری حرکت کند که تقریباً به طور کامل زیر محور x قرار گیرد و شرط 2 کاملاً بالای آن باشد، این تغییر بسیار جالب خواهد بود. علاوه بر این، اگر دو شرط از محور بالاتر می رفت و یکی پایین می آمد، این نیز یک تغییر جالب خواهد بود. اساساً، من به راهی برای مقایسه توزیع‌ها برای بزرگترین تغییرات در چگالی متوسط ​​در بالا یا پایین محور x نیاز دارم. من حدود 400+ فرآیند بیولوژیکی دارم. مشکل این است که برای برخی از آنها، اندازه نمونه ممکن است به طور قابل توجهی متفاوت باشد (ژن (n) = 3، 25، 10 برای سه شرط به ترتیب در مورد من یک مثال شدید خواهد بود) بنابراین فکر نمی‌کنم صرفاً مقایسه میانگین‌ها مفید باشد. یک رویکرد منصفانه مقایسه بصری با 400 پلات لوبیا زمان بسیار زیادی طول خواهد کشید و من همچنین می‌خواهم آماری را برای اثبات نتیجه‌گیری که ممکن است انجام دهم، ارائه دهد. من اساساً می خواهم چیزی مانند درمان بافت با شرایط 1 تاثیری بر افزایش بیان بیشتر ژن هایی که در فرآیند بیولوژیکی A نقش دارند بگویم. علاوه بر این، اگر این رویکرد نامعتبر است یا راه بهتری برای بررسی این داده ها وجود دارد، من آماده پیشنهادات هستم. متشکرم.
توزیع ها را با حجم نمونه ناهموار و کوچک مقایسه کنید
104283
من در آمار یک نوبت کامل هستم، بنابراین سوالی که می خواهم بپرسم ممکن است بسیار غیرحرفه ای به نظر برسد **هشدار** :) بنابراین، ما وظیفه داریم یک سیستم صف G/G/1 را برای پارامترهای خاص شبیه سازی کنیم (توزیع Erlang فرض شده). من توانسته ام (امیدوارم) بفهمم که میانگین و تعداد مراحل باید چقدر باشد. ما از QtsPlus برای شبیه سازی استفاده می کنیم و قرار است این کار را برای 10000 مشتری انجام دهیم. QtsPlus، با این حال، دارای فیلدهای پارامتر زیر است: * تعداد معاملات برای شبیه سازی * فرکانس پیام نقطه بازرسی * حداکثر اندازه احتمال و من در مورد آن بسیار گیج هستم. کدام فیلد با تعداد کلاینت ها مطابقت دارد و چه مقادیری را باید در فیلدهای دیگر وارد کنم؟ خیلی ممنون
راهنمای شبیه سازی G/G/1
92892
من روی یک متاآنالیز داده های شیوع کار می کنم. هدف بدست آوردن تخمین شیوع در سطح کشور است. مسئله اصلی این است که بیماری با سن همبستگی بالایی دارد و سن نمونه مطالعات وارد شده بسیار ناهمگن است. فقط میانه سن برای اکثر مطالعات در دسترس است، بنابراین نمی توانم از ترفندهای SMR مانند استفاده کنم. من فکر کردم که می توانم از متارگرسیون برای حل این مشکل استفاده کنم، از جمله سن به عنوان یک اثر ثابت و معرفی اثرات تصادفی در سطح مطالعه و سطح کشور. ایده (که من از فوکس و همکاران گرفتم) این بود که از این مدل برای پیش‌بینی‌های شیوع خاص کشور برای هر گروه سنی 5 ساله از 15 تا 60 سال (با استفاده از میانگین سنی گروه) استفاده کنیم و این پیش‌بینی‌ها را اعمال کنیم. به اندازه واقعی جمعیت هر یک از آن گروه ها در کشور انتخاب شده، به منظور به دست آوردن کل جمعیت آلوده و محاسبه شیوع تعدیل شده با سن در جمعیت 60-15 ساله از آن. من چندین راه را برای انجام این کار با استفاده از R با بسته های meta و mgcv امتحان کردم. من نتایج رضایت بخشی به دست آوردم، اما به نتایج خود چندان مطمئن نیستم و از بازخوردهایم قدردانی می کنم. ابتدا برخی از داده های شبیه سازی شده است، سپس شرح رویکردهای مختلف من: data<-data.frame(id_study=c(UK1, UK2, UK3, FRA1, FRA2, BEL1, GER1، GER2، GER3)، country=c(بریتانیا، بریتانیا، بریتانیا، فرانسه، فرانسه، بلژیک، آلمان، آلمان، آلمان)، n_events=c(91,49,18 ,10,50,6,9,10,22)، n_total=c(3041,580,252,480,887,256,400,206,300), study_median_age=c(25,50,58,30,42,26,27,28,36) ** استاندارد استاندارد با اثر تصادفی متا. من از «metaprop()» برای به دست آوردن اولین تخمین از شیوع در هر کشور بدون در نظر گرفتن سن و برای به دست آوردن وزن استفاده کردم. همانطور که انتظار می رفت، ناهمگونی بسیار بالا بود، بنابراین از وزن های مدل اثرات تصادفی استفاده کردم. meta <- metaprop(event=n_events,n=n_total,byvar=country,sm=PLOGIT,method.tau=REML,data=data) summary(meta) data$weight<-meta$w.random I از متا برای به دست آوردن اولین تخمین از شیوع بدون در نظر گرفتن سن و برای به دست آوردن وزن استفاده کرد. همانطور که انتظار می رفت، ناهمگونی بسیار بالا بود، بنابراین از وزن های مدل اثرات تصادفی استفاده کردم. **مدل افزودنی تعمیم یافته** برای گنجاندن سن با بسته mgcv. پارامترهای مدل «gam()» (k و sp) با استفاده از شماره BIC و GCV انتخاب شدند (در اینجا نشان داده نشده است). model <- gam(cbind(n_events,n_total-n_events) ~ s(study_median_age,bs=cr,k=4,sp=2) + s(country,bs=re),weights=weight, data= داده، خانواده = binomial (link=logit)، روش = REML) نمودار (model,pages=1,residuals=T, all.terms=T, shade=T) پیش‌بینی‌ها برای هر گروه سنی از این مدل به دست آمد که قبلا توضیح داده شد. CI مستقیماً با استفاده از «predict.gam()» به دست آمد که از ماتریس کوواریانس خلفی بیزی پارامترها استفاده می کند. برای مثال با توجه به انگلستان: newdat<-data.frame(country=UK,study_median_age=seq(17,57,5)) link<-predict(model,newdat,type=link,se.fit=T) $fit linkse<-predict(model,newdat,type=link,se.fit=T)$se newdat$prev<-model$family$linkinv(link) newdat$CIinf<-model$family$linkinv(link-1.96*linkse) newdat$CIsup<-model$family$linkinv(link+1.96*linkse) plot(newdat $prev~newdat$study_median_age، type=l,ylim=c(0,.12)) lines(newdat$CIinf~newdat$study_median_age, lty=2) lines(newdat$CIsup~newdat$study_median_age, lty=2) نتایج رضایت بخش بود، نشان دهنده افزایش شیوع با افزایش سن، با فواصل اطمینان منسجم. من با استفاده از ساختار جمعیت کشور، یک شیوع کلی برای کشور به دست آوردم (نشان داده نشده، امیدوارم به اندازه کافی واضح باشد). با این حال، متوجه شدم که باید اثرات تصادفی در سطح مطالعه را نیز لحاظ کنم، زیرا ناهمگنی بالایی وجود داشت (حتی اگر من ناهمگنی را پس از متارگرسیون محاسبه نکردم). **معرفی اثر تصادفی در سطح مطالعه** با بسته gamm4. از آنجایی که مدل‌های «mgcv» نمی‌توانند آنقدر پارامترهای اثر تصادفی را کنترل کنند، مجبور شدم به «gamm4» سوئیچ کنم. model2 <- gamm4(cbind(n_events,n_total-n_events) ~ s(study_median_age,bs=cr,k=4) + s(country,bs=re), random=~(1|id_study)، داده =data,weights=weight, family=binomial(link=logit)) plot(model2$gam,pages=1,residuals=T, all.terms=T, shade=T) link<-predict(model2$gam,newdat,type=link,se.fit=T)$fit linkse <-predict(model2$gam,newdat,type=link,se.fit=T)$se newdat$prev2<-model$family$linkinv(پیوند) newdat$CIinf2<-model$family$linkinv(link-1.96*linkse) newdat$CIsup2<-model$family$linkinv(link+1.96*linkse) plot(newdat$prev2~newdat$study_median_age، type=l, col=red,ylim=c(0,0.11)) خطوط (newdat$CIinf2~newdat$study_median_age, lty=2,col=red) lines(newdat$CIsup2~newdat$study_median_age, lty=2,col=red) خطوط(newdat$prev~newdatn_age,_ type=l,ylim=c(0,.12)) خطوط (newdat$CIinf~newdat$study_median_age، lty=2) خطوط (newdat$CIsup~newdat$study_median_age، lty=2) از زمان مطالعه
فراتحلیل شیوع در سطح کشور
104286
من نقاط داده $N$ دارم که دارای ویژگی‌های $d$ در یک GP و ماتریس کوواریانس آنها $K$ هستند و می‌خواهم آنتروپی دیفرانسیل آن GP را محاسبه کنم. آیا این فرمول درست است؟ $E(I)= \frac{1}{2} \log((2πe)^d \det(K))$ علاوه بر این، با توجه به $L$ تجزیه cholesky $K$ آیا راه سریع تری وجود دارد؟ متشکرم
آنتروپی دیفرانسیل فرآیند گاوسی
13590
من به دنبال معادله ای برای محاسبه فواصل مناسب برای تعیین مقادیر بسیار کم، کم، متوسط، زیاد، بسیار زیاد برای داده های پویا هستم. به عنوان مثال اگر مجموعه داده من از 0 تا 100 محدوده بسیار کم = <=20، کم = 21-40، متوسط ​​= 41-60، بالا = 61-80، بسیار زیاد = > 81 باشد، اما اگر محدوده کوچک باشد، باید وجود داشته باشد. فواصل کمتر به عنوان مثال، اگر محدوده 20 باشد، باید فقط یک بازه کم و زیاد وجود داشته باشد. فواصل باید فواصل منطقی باشند تا بتوان از آنها برای نمایش گرافیکی استفاده کرد. فواصل منطقی بسته به مجموعه داده شامل فواصل 5، 10، 25، 50، 100 و غیره خواهد بود. آیا معادله ای وجود دارد که بتواند فواصل مناسب را برای هر مجموعه داده منحصر به فرد تعیین کند؟
چگونه به صورت پویا تعیین فاصله داده ها را محاسبه کنیم؟
45547
من در حال حاضر در حال اندازه گیری زمان اجرای برنامه ای هستم که نوشته ام، اما مطمئن نیستم که چگونه نتایج را نشان دهم. این برنامه دو حالت دارد: حالت عادی و حالت تحلیل. در حالت تحلیل، همیشه کندتر از حالت عادی اجرا می شود. من به عامل کاهش سرعت متحمل شده توسط حالت تجزیه و تحلیل علاقه مند هستم. من زمان اجرا را برای ورودی های مختلف برنامه اندازه گیری کرده ام و زمان اجرا را برای حالت عادی ($b_i$) و حالت تحلیل ($a_i$) یادداشت کرده ام. اساساً، من می‌توانم به دو روش برای مشخص کردن کاهش سرعت فکر کنم: کندی متوسط ​​= $AS$ = $\frac{1}{n}(\frac{a_1}{b_1} + ... + \frac{a_n}{b_n })$ کاهش سرعت مرکب = $CS$ = $\frac{a_1 + ... + a_n}{b_1 + ... + b_n}$ کدام روش ارجحیت دارد و چرا؟ من دیده ام که بسته به مقادیر واقعی $a_i$ و $b_i$، یکی از $AS$ و $CS$ می تواند بزرگتر باشد. آیا شرایط بصری و دقیقی در $a_i، b_i$ برای $AS > CS$ و بالعکس وجود دارد؟
بهترین راه برای مشخص کردن عامل کاهش سرعت
13598
من نمی‌پرسم آیا الگوریتم‌هایی (شاید الگوریتم‌های ژنتیک) در R برای ساخت ویژگی (استنتاج پیش‌بینی‌کننده‌های نامزد از پیش‌بینی‌کننده‌های موجود) وجود دارد؟ من به روالی فکر می کنم تا توان های مرتبه بالاتر، برهمکنش ها، نسبت ها، و ترکیبات خطی و توابع غیرخطی متغیرهای موجود (sin، cos، atan و غیره) را آزمایش کنم. این می تواند یک روال فیلتر یا پوشش باشد (یعنی عدم استفاده از الگوریتم یادگیری یا استفاده از آن برای تعریف تناسب ویژگی). هدف من «کشف» نسبت‌های بالقوه معنادار و موارد مشابه پیش‌بینی‌کننده‌های موجود است. با تشکر
ویژگی ساخت در R
71248
در موضوع قبلی، محاسبه مرز تصمیم یک مدل SVM خطی (محاسبه مرز تصمیم یک مدل SVM خطی)، کد R زیر به عنوان روشی برای محاسبه فرمول ابرصفحه و حاشیه های آن، با توجه به مجموعه ورودی داده شد. از hyperparameters: library(kernlab) set.seed(101) x <- rbind(ماتریس(rnorm(120)،،2)، ماتریس(rnorm(120، میانگین=3)،،، 2)) y <- ماتریس(c(rep(1،60)،rep(-1،60)) ) svp <- ksvm(x,y,type=C-svc) plot(svp,data=x) alpha(svp) # بردارهای پشتیبانی که شاخص ها را می توان با alphaindex(svp) b(svp) # (منفی) طرح قطع (مقیاس (x)، col=y+2، pch=y+2، xlab=، ylab=) w <- colSums(coef(svp)[[1]] * x[unlist(alphaindex(svp))،]) b <- b(svp) abline(b/w[1],-w[2]/w[1]) abline((b+1)/w[1],-w[2]/w[1],lty=2) abline( (b-1)/w[1]،-w[2]/w[1]، lty=2) با این حال، در نمودار حاصل، هیچ یک از بردارهای پشتیبان در واقع روی هیچ یک از خطوط حاشیه قرار نمی‌گیرند. اگر abline(b/w[1],-w[2]/w[1]) # فرض می‌شود که بیشینه بیشینه حاشیه‌ای و abline ((b+1)/w[1],-w[2] باشد. /w[1],lty=2) #قرار است حاشیه yi = +1 و abline باشد((b-1)/w[1],-w[2]/w[1],lty=2) #قرار است حاشیه yi = -1 باشد، پس چرا بردارهای پشتیبانی، `alpha(svp)` روی حاشیه +1 یا -1 قرار نمی گیرند؟ حالا قبل از اینکه بگویید به این دلیل است که «kernelf = «rbfkernel»» به طور پیش‌فرض و هایپرپلن و حاشیه‌های ما مطابق «rbfkernel» تبدیل نشده‌اند، می‌توانم صریحاً هسته خطی را با «kernelf = «vanilladot» نام ببرم (یعنی «svp» <- ksvm(x,y,type=C-svc,kernelf=vanilladot)`) و hyperplane و حاشیه‌ها حتی دورتر از بردارهای پشتیبانی تعریف‌شده توسط «alpha(svp)» هستند، سپس وقتی «kernelf=rbfkernel»». توجه داشته باشید که وقتی از بسته «e1071» استفاده می‌کنم، نتایج مشابهی پیدا می‌کنم (که شاید تعجب‌آور نباشد زیرا هر دو بر اساس کتابخانه «LIBSVM» هستند). اگر کار اشتباهی انجام می‌دهم یا نکته مهمی را از دست می‌دهم (مثلاً «ksvm()» به طور پیش‌فرض از یک حاشیه نرم استفاده می‌کند و متغیرهای شل را از من پنهان می‌کند)، لطفاً به من اطلاع دهید! در اینجا کد من برای هسته خطی با بسته `kernlab` است: library(kernlab) set.seed(101) x <- rbind(matrix(rnorm(120),,2),matrix(rnorm(120,mean=3) ),،2)) y <- ماتریس(c(rep(1,60),rep(-1,60))) svp <- ksvm(x,y,type=C-svc,kernelf=vanilladot) plot(svp,data=x) plot(x, col=y+2, pch=y+2, xlab=, ylab =) w <- colSums(coef(svp)[[1]] * x[unlist(alphaindex(svp))،]) b <- b(svp) نمودار(svp,data=x) abline(b/w[1],-w[2]/w[1]) abline((b+1)/w[1],-w[2]/w[1 ],lty=2) abline((b-1)/w[1],-w[2]/w[1],lty=2)
بردارهای پشتیبانی در خطوط حاشیه برای بسته‌های e1071 و kernlab در R نمی‌افتند؟
3772
من در حال ارزیابی اثربخشی 5 روش مختلف برای پیش بینی یک نتیجه باینری خاص هستم (آنها را موفقیت و شکست بنامیم). داده ها به این صورت هستند: روش Sample_Size Success Percent_Success 1 28 4 0.14 2 19 4 0.21 3 24 7 0.29 4 21 13 0.61 5 22 9 0.40 من می خواهم آزمونی را از بین این 5 روش برتر انجام دهم. به عبارت دیگر، من می خواهم روش ها را به ترتیب عملکرد به روش 1 > روش 2 > ... روش 5 سفارش دهم. برای جلوگیری از مقایسه های متعدد، قصد دارم یک آزمایش جایگشت در خطوط زیر انجام دهم: مرحله 1: تمام داده ها را با هم جمع کنید تا حجم نمونه کلی 114 با کلی 37 موفقیت باشد. مرحله 2: به طور تصادفی داده ها را به 5 گروه با اندازه های نمونه متناظر 28، 19، 24، 21 و 22 تقسیم کنید. مرحله 3: اگر ترتیب مشاهده شده درصد_موفقیت از مرحله 2 با ترتیب داده های من مطابقت داشته باشد، شمارنده را افزایش دهید. مرحله 4: مراحل 2 و 3 را چندین بار تکرار کنید (مثلاً 10000). p-value مطلوب = مقدار شمارنده نهایی / 10000. سؤالات: 1. آیا روش فوق خوب است؟ 2. آیا چیزی در R وجود دارد که من را قادر به انجام آزمایش فوق کند؟ 3. هر گونه پیشنهاد برای بهبود یا روش های جایگزین مفید خواهد بود.
آیا می توانم از تست های جایگشت برای جلوگیری از مشکل مقایسه چندگانه در زمینه نسبت ها استفاده کنم؟
69954
من یک مجموعه داده دارم که هر متغیر چندین مقدار را در مقیاس اسمی می گیرد. ارزیاب‌های جداگانه می‌توانند با استفاده از بیش از یک مقدار در هر متغیر، یک واحد معین را رتبه‌بندی کنند. به این معنی که در هر واحد/رتبه‌دهنده چندین رتبه وجود دارد. چگونه از اینجا پیش برویم؟ من می دانم که برنامه های افزودنی کاپا (Fleiss) برای پشتیبانی از رتبه بندی های متعدد در هر واحد/موضوع وجود دارد. اساساً، برنامه افزودنی محاسبه کاپاهای جداگانه در هر مقدار مقیاس را پیشنهاد می‌کند و سپس یک مجموع را تشکیل می‌دهد. آیا استراتژی های جایگزین وجود دارد؟ کاپا ترکیبی دقیقاً چگونه محاسبه می شود و موارد کمکی در این مورد: خطای استاندارد، ...؟ (متاسفانه، در حال حاضر، من به نسخه ای از روش های آماری برای نرخ ها و نسبت ها فلیس دسترسی ندارم، زیرا کتابخانه ما به مکان جدیدی منتقل می شود:/ فصل 18 حاوی جزئیات لازم است) علاوه بر این: چگونه این مورد برای آلفای کریپندورف (که من هم در نظر دارم)؟
قابلیت اطمینان بین رتبه‌دهنده: داده‌های اسمی، اما * رتبه‌بندی‌های متعدد در واحد/موضوع*، ارزیابی‌کننده‌های مختلف
57615
در زیر یک سوال از یک مقاله امتحانی در مورد ارزیابی عملکرد موتورهای جستجو آمده است. تا به امروز در کتاب درسی خود و به معنای واقعی کلمه نزدیک به 50 صفحه وب را جستجو کردم و برای هیچ یک از موارد استدلال قانع کننده ای پیدا نکردم. آیا کسی می تواند کمک کند تا در این مورد روشن شود؟ شما یک الگوریتم بازیابی جدید ایجاد کرده اید و می خواهید عملکرد آن را ارزیابی کنید. برای این منظور، شما یک میلیارد صفحه وب را خزیده اید. آزمایش‌ها با زیرساخت فعلی شما خیلی طول می‌کشد، بنابراین شما به‌طور تصادفی از 10 درصد داده‌ها نمونه‌گیری می‌کنید، 100 پرس‌وجو روی نمونه اجرا می‌کنید و از افراد انسانی می‌خواهید که ارتباط 100 نتیجه برتر را ارزیابی کنند. پس از میانگین گیری، میانگین یادآوری و دقت زیر را در رتبه های مختلف مشاهده می کنید: رتبه: 1 2 3 4 5 ... 10 20 ... 50 ... 100 فراخوان: 0.09 0.15 0.20 0.25 0.30 ... 0.50 ... 0. 0.90 ... 1.00 دقت: 0.90 0.75 0.67 0.63 0.60 ... 0.50 0.35 ... 0.18 ... 0.10 اجرای مجدد همان آزمایش را بدون نمونه گیری از داده ها در نظر بگیرید. آیا انتظار دارید اعداد زیر افزایش، کاهش یا ثابت بمانند: i. فراخوان در رتبه 10. ii. دقت در رتبه 10. iii. دقت در فراخوان 50 درصد IV میانگین دقت متوسط v. مساحت زیر منحنی ROC
دقت، فراخوانی و مساحت زیر منحنی ROC با افزایش حجم نمونه
57612
آیا کسی می تواند یک کتاب خوب یا برخی مواد خواندنی دیگر در مورد تجزیه و تحلیل اندازه گیری مکرر با استفاده از مدل ترکیبی توصیه کند. با تشکر. هانا
کتاب تجزیه و تحلیل اندازه گیری مکرر
57617
من دو سوال مرتبط در مورد محاسبه فاصله اطمینان بوت استرپ ناپارامتری برای خطای پیش بینی دارم. **تنظیم:** من یک نمونه S از یک جامعه داده P و یک یادگیرنده L دارم و می‌خواهم فاصله اطمینان 95% را برای برآوردگر بوت استرپ 0.632 $\hat{\theta}_{.632bs}$ از محاسبه کنم. خطای پیش‌بینی $\theta$ طبقه‌بندی‌کننده C که توسط یادگیرنده L در نمونه S آموخته شد. **Q1** اولین سوال من این است که آیا روش زیر برای محاسبه فاصله اطمینان با روش صدک، صحیح است. به طور خاص، نمونه‌گیری از مجموعه آزمایشی $S_{test}$ در مرحله 2 برای ارزیابی طبقه‌بندی کننده من. من خوانده‌ام که برای هر مشاهده، باید پیش‌بینی‌های نمونه‌های بوت استرپ که شامل آن مشاهدات نیستند را پیگیری کنید. به نظر من این به همان چیزی می رسد؟ من فاصله اطمینان را با روش صدک به صورت زیر محاسبه می‌کنم: 1. خطای جایگزینی $\theta_{resub}$ طبقه‌بندی‌کننده C که توسط L در S 2 آموخته شده را محاسبه می‌کنم. من N (به عنوان مثال = 1000) تخمین‌های بوت استرپ $\hat را محاسبه می‌کنم. {\theta}_i^*$ خطای پیش‌بینی در S به شرح زیر است: برای i = 1: 1000 انجام دهید: * نمونه از S با جایگزینی تا زمانی که یک نمونه جدید $S_{train}$ به اندازه S داشته باشم * از همه نمونه‌هایی که در مرحله 1 نمونه‌برداری نشده‌اند، دوباره با جایگزینی نمونه می‌گیرم تا زمانی که یک نمونه $S_{آزمایش داشته باشم }$ با اندازه S * من یک طبقه‌بندی کننده را در $S_{train}$ یاد می‌گیرم و آن را در $S_{test}$ ارزیابی می‌کنم. عملکرد طبقه‌بندی کننده در $S_{test}$ تخمین بوت استرپ من $\hat{\theta}_i^*$ است. 3. برای هر نمونه i از N نمونه بوت استرپ، تخمین $\hat{\theta}^*_{i,.632bs}$ را به عنوان $\hat{\theta}^*_{i,.632bs} = محاسبه می‌کنم. 0.368 \cdot \theta_{resub} + 0.632 \cdot \hat{\theta}_i^*$ 4. من 1000 را مرتب کردم تخمین های بوت استرپ 5. من 25مین تخمین بوت استرپ را به عنوان کران پایینی فاصله اطمینان و تخمین 975 را به عنوان کران بالای فاصله اطمینان انتخاب می کنم. **Q2** سوال دوم من این است که چگونه می توان فاصله اطمینان را برای تخمینگر بوت استرپ 0.632 برای خطای پیش بینی با روش شتاب اصلاح شده (BCa) محاسبه کرد. یعنی، من متوجه شدم که در اینجا یک مشکل دارم: برای تصحیح تعصب به یک عبارت $b$ و برای ترم $a$، عبارت شتاب (http://www.tau.ac.il/~) نیاز دارم. saharon/Boot/10.1.1.133.8405.pdf p1153-1154). * برای محاسبه $b$، من به تخمینی از خطای پیش‌بینی $\hat{\theta}$ از نمونه کامل S نیاز دارم. مطمئن نیستم که چگونه این کار را انجام دهم. من چندین احتمال را می بینم: میانگین $\hat{\theta}^*_{i,.632bs}$ روی همه $i$، خطای تعویض مجدد، خطای توقف، انجام اعتبارسنجی متقابل در S... ? * من همین مشکل را برای محاسبه $a$ دارم. در اینجا، من به تخمین‌های jackknife نیاز دارم که از همه داده‌های S به جز یک نمونه $x_i$ ($S \setminus x_i$) استفاده کند. اینجا دقیقا چه چیزی را محاسبه کنم؟ آیا این محاسبات همان محاسبه‌کننده تخمین‌گر اعتبارسنجی متقاطع ترک یک خروجی برای خطای پیش‌بینی است؟ من سعی کردم پاسخ ها را در ادبیات پیدا کنم، اما در درک مقالاتی که پیدا کردم مشکل دارم، بنابراین امیدوارم کسی بتواند در اینجا به من کمک کند. متشکرم
محاسبه فاصله اطمینان بوت استرپ برای خطای پیش بینی با صدک و روش BCa
99846
وقتی آزمایش‌های تصادفی انجام می‌شود، معمولاً از «داده‌های پایه» به عنوان متغیرهای کنترلی برای افزایش دقت استفاده می‌شود. در مورد متغیرهای کنترلی در روش تفاوت در تفاوت چطور؟ منظور من این است که آیا باید از داده های پایه (زمان 1) برای آن استفاده شود یا فقط از متغیرهای کنترل در آن زمان (زمان 1، زمان 2) استفاده شود.
استفاده از متغیرهای کنترلی در روش Difference in Difference
57618
من می خواهم دو شاخص سیمپسون را از دو جمعیت مختلف مقایسه کنم. من واریانس آنها را محاسبه کرده ام، همانطور که در مقاله اصلی سیمپسون در مورد اندازه گیری های تنوع انجام شده است و یک فاصله اطمینان برای هر یک از آنها با استفاده از فرمول محاسبه کرده ام: $(S-2\sqrt{\text{var}}، S+2\sqrt{\text{var}})$، همانطور که در مقاله منتشر شده پیشنهاد شده است. چیزی که می‌خواهم پیدا کنم، مقدار p فرضیه صفر است که دو شاخص برابر هستند. من خوانده‌ام که کسی می‌تواند برای مقایسه آن‌ها تست t Welch انجام دهد، اما هیچ مقاله یا کتابی با چنین کاربردی پیدا نکردم. سؤالات من در مورد این برنامه عبارتند از: 1) در آزمون t Welch واریانس های مخرج به ترتیب بر $n_1$ و $n_2$ تقسیم می شوند، زیرا SE میانگین است. حدس می‌زنم در این مورد و بر اساس فرمول CI، ما نباید بر $n$ تقسیم کنیم و فقط جذر مجموع واریانس‌ها را داشته باشیم. درسته؟ 2) درجات آزادی برای یک آزمون t ساده $n_1+n_2-2$ است، در حالی که برای آزمون t Welch یک فرمول کاملاً پیچیده است که نتیجه نزدیک را ارائه می دهد اما با $n_1+n_2-2$ یکسان نیست. . کدام یک باید استفاده شود؟ 3) منظور از $n_1$ و $n_2$ در بالا، تعداد دسته های مختلف در هر جمعیت به جای تعداد کل در هر مورد است. درسته؟ اگر کسی بتواند در مورد این سوالات به من کمک کند بسیار سپاسگزار خواهم بود و حتی اگر کسی بتواند نوعی مستندات را ارائه دهد تا بتوانم تحلیل خود را توجیه کنم. مرجع: Simpson, E. H. (1949), Measurement of diversity. _Nature_ , **163** , 688 (pdf)
مقایسه دو شاخص سیمپسون با استفاده از آزمون t
57610
همسرم در حال ارائه یک مطالعه در یک جلسه پوستر کنفرانس است. او از انواعی همبستگی دارد [1] که در آن خودارزیابی کودکان از آسم (احساس کردم خیلی بهتر یا احساس کردم کمی بهتر یا بهتر نبودم) با ارزیابی های پزشکان مطابقت دارد (0 تا 6، اعداد پایین بهتر هستند. ). و ما نیاز به تصویری برای پوستر داریم. من فکر می کردم که نمودار همبستگی راه حلی است، اما مقادیر x و y هر دو در مقیاس های گسسته هستند، بنابراین اگر آنها را رسم کنید، (1) ابری از مقادیر برای دیدن وجود ندارد و (2) ) روند آشکاری وجود ندارد. در اینجا سطل‌ها (ارزش + تعداد رخدادها) برای افرادی است که احساس بهتری داشتند: >>> print(a_lot_better) {0: 66, 1: 9, 2: 3, 3: 2} و در اینجا سطل‌هایی برای افرادی وجود دارد که احساس کمی بهتر شد یا نه: >>> print(a_little_better) {0: 79, 1: 31, 2: 5, 3: 6, 6: 1} اگر اعداد را به این صورت جمع کنید: # python def print_dict(d): total = float(sum(d.values())) ترکیبی = 0.0 برای k، v در sorted(d.iteritems()) #def test_auth(self): #logger.debug(Calling search) # data_args = {auth_token: self.auth_token، extra_arg: asd} # answer = self.client.call_url(profile_auth, data=data_args) # #logger.debug(response: {0}.format(response.reason)) # self.assertEqual(response.status_code, 200): print({0}: {1}.format(k, v / total)) composite += (k * v) / total return composite شما این را دریافت می کنید: >>> print_dict(a_lot_better) 0: 0.825 1: 0.1125 2: 0.0375 3: 0.025 0.2625 >>> print_dict(a_little_better) 0: 0.647540983607 1: 0.254098360656 2: 0.0409836065574 3: 0.0491803278689 6: 0.00819672131147 0.5324 0.5325 متفاوت است، 0.00819672131147 0.5325 متفاوت است. اما من نمی دانم چگونه این را به صورت بصری ارائه دهم (حتی با فرض اینکه این یک خلاصه مشروع باشد). ** چگونه باید این داده ها را ارائه کنیم تا از نظر بصری آشکار شود که یک رابطه جالب و قابل توجه وجود دارد؟
نمودار / تصویری برای رگرسیون دو جمله ای منفی
57619
من یک طرح ANCOVA 2X2 بین سوژه‌ها را اجرا می‌کنم و در مورد یک چیز عجیب شگفت‌زده هستم: جدول خروجی ANCOVA هیچ اثر متقابل مهمی را نشان نمی‌دهد، اگرچه نمودار نمایه دو خط را نشان می‌دهد که از یکدیگر عبور می‌کنند، یعنی یک تعامل نامتعارف. پس چگونه می توان این یافته های به ظاهر متناقض را با هم تطبیق داد؟ آیا می توانم وجود یک اثر متقابل (که اتفاقاً بسیار منطقی است..) را بر اساس طرح با وجود عدم اهمیت آماری فرض کنم؟ و چرا بی اهمیت است; شاید به دلیل فقدان قدرت آماری؟
طراحی 2×2 بین سوژه ها ANCOVA با غیر سیگ. اثر متقابل؛ اما نمودار نمایه عبور منحنی ها را نشان می دهد
52137
من این داده‌ها را جمع‌آوری کرده‌ام، تعداد کاربرانی را که چند بار در یک فعالیت خاص شرکت می‌کنند، شمارش کرده‌ام: درصد کاربران فعالیت 1 2,005,752 62.57% 2 1,005,669 31.37% 3 616,328 19.23% 4 408,575,38,39,15,00,15,00,00,00,00,00,00,000,00,000,000,000,00,00,00,00,00,00,000 $ 6 207,127 6.46% 7 154,861 4.83% 8 117,353 3.66% 9 90,143 2.81% 10 70,174 2.19% 11 55,196 1.714% 1.714 1.714 1.714 1.714% 1.714 1.714% 34,883 1.09% 14 28,027 0.87% 15 22,948 0.72% 17 18,629 0.58% 18 15,173 0.47% 19 12,376 0.310% 19 12,376 0.310% 0.310 0.310 0.72% 20. 0.26% (من ردیف های بیشتر را حذف کردم) توجه کنید که 1. هیچ کاربری 16 بار در این فعالیت شرکت نکرده است. می توان انتظار داشت حدود 20 هزار کاربر (~0.65٪) در آنجا وجود داشته باشد. 2. نمودار log-log محدب است، که نشان می‌دهد تعداد کاربران سریع‌تر از چند جمله‌ای کاهش می‌یابد (یعنی این یک توزیع قانون قدرت نیست، همانطور که من، شاید ساده‌لوحانه، انتظار داشتم). احتمال اینکه عدم شرکت کاربران در فعالیت 16 بار یک تصادف آماری باشد در مقابل اشکال در جمع آوری داده ها چقدر است؟ به عنوان مثال، آیا رویکرد زیر معقول است؟ فرض کنید 20 هزار نفر با 16 فعالیت گم شده اند. آنها را به جدول اضافه کنید و chi-squared=20,076 را محاسبه کنید که برای 20 درجه آزادی بسیار بزرگ است، بنابراین این یک تصادف آماری نیست و باید یک اشکال جمع آوری داده وجود داشته باشد. PS. هیچ دلیل اساسی وجود ندارد که 16 را خاص کند.
چه زمانی داده های از دست رفته نشان دهنده یک اشکال جمع آوری داده ها است؟
52133
همچنین، چگونه می توانم متوجه شوم که تفاوت معنی داری در تعداد مردان در دو جمعیت وجود دارد؟ لطفا در SPSS!
چگونه می توانم بفهمم که در یک جمعیت واحد تفاوت معنی داری در تعداد زن و مرد وجود دارد؟
52132
من در حال حاضر روی یک مدل رگرسیونی کار می کنم که در آن فقط متغیرهای طبقه بندی/عاملی به عنوان متغیر مستقل دارم. متغیر وابسته من یک نسبت تبدیل شده لاجیت است. اجرای یک رگرسیون معمولی در R نسبتاً آسان است، زیرا R به‌طور خودکار می‌داند چگونه به‌محض اینکه از نوع «عامل» هستند، کدنویسی کند. با این حال، این نوع کدگذاری همچنین به این معنی است که در دسته بندی از هر متغیر به عنوان خط پایه استفاده می شود و تفسیر آن را دشوار می کند. استاد من به من گفته است که به جای (-1 یا 1) فقط از کدگذاری افکت استفاده کنم، زیرا این به معنای استفاده از میانگین بزرگ برای رهگیری است. آیا کسی می داند چگونه با آن کنار بیاید؟ تا به حال امتحان کرده ام: gm <- mean(tapply(ds$ln.crea، ds$month, mean)) مدل <- lm(ln.crea ~ ماه + ماه* ماه + سال + سال* سال، داده = ds ، تضادها = لیست (gm = contr.sum)) فراخوانی: lm(فرمول = ln.crea ~ ماه + ماه * ماه + سال + سال * سال، داده = ds، کنتراست ها = لیست(گرم = کنتر.جمع)) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -0.89483 -0.19239 -0.03651 0.14955 0.89671 ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (فاصله) -3.244493 0.204502 -15.865 <2e-16 *** monthFeb -0.124035 0.144604 -0.858 0.3928 monthMar -0.361242460 -0.361242460 * monthApr -0.240314 0.144604 -1.662 0.0993. monthMay -0.109138 0.144604 -0.755 0.4520 monthJun -0.350185 0.144604 -2.422 0.0170 * monthJul 0.050518 0.144604 0.144604 0.74604 0.350185 -2.422 0.0170 ماه جولای 0.144604 -1.428 0.1562 ماهسپتامبر -0.134197 0.142327 -0.943 0.3478 ماه اکتبر -0.178182 0.142327 -1.252 0.2132 ماه1119 -0.2132 -0.2132 ماه1114230 -0.0. 0.4044 monthDec -0.147681 0.142327 -1.038 0.3017 year1999 0.482988 0.200196 2.413 0.0174 * سال2000 -0.0185019 0.0185019 0.200 -0.0185019 0.200 -0.0185019 سال2001 -0.166511 0.200196 -0.832 0.4073 سال2002 -0.056698 0.200196 -0.283 0.7775 سال2003 -0.173219 0.200886500. 0.013831 0.200196 0.069 0.9450 سال 2005 0.007362 0.200196 0.037 0.9707 سال 2006 -0.281472 0.200196 0.200196 -1.4065 -1.4065 0.200196 -1.332 0.1855 year2008 -0.248883 0.200196 -1.243 0.2164 year2009 -0.153083 0.200196 -0.765 0.4461 --- S کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقیمانده: 0.3391 در 113 درجه آزادی، R-squared چندگانه: 0.3626، R-squared تنظیم شده: 0.2385 F-آمار: 2.922 در 22 و 113 DF، p-value: 0.3626
چگونه با کدگذاری افکت به جای کدگذاری ساختگی در R رگرسیون انجام دهیم؟
52130
من دو نوع داده برای یک منطقه جغرافیایی دارم. یکی داده های حضور و غیاب گونه ها (برای دوزیستان، خزندگان و پرندگان) و دیگری دارای چندین متغیر محیطی برای یک منطقه (مانند دما و بارندگی) است. برای گونه‌ها فاصله هلینگر و برای متغیرهای محیطی فاصله اقلیدسی را محاسبه کردم (واره‌هایی که قبلاً تبدیل شده‌اند بنابراین همه دامنه از 0 تا 1 تغییر می‌کنند). من می خواهم الگوهای موجود در یک نقشه (تغییر عدم تشابه با استفاده از یک سلول کانونی) را با استفاده از همان رنگ برای محدوده مقادیر مشابه در نقشه های دوزیستان، خزندگان و پرندگان مقایسه کنم. مشکل من این است که چگونه می توان این نقشه ها را با فاصله محیطی مقایسه کرد. فاصله هلینگر از 0 تا sqrt(2) است و برای داده های من فاصله اقلیدسی حداکثر 2.11 است. همه نتایج از گونه‌ها دارای توزیع نرمال هستند و من داده‌ها را با استفاده از فواصل مساوی طبقه‌بندی کردم (ArcMap)، اما نتایج حاصل از فاصله اقلیدسی به سمت چپ، با دم بلند به سمت راست منحرف می‌شوند و به همین دلیل نقشه بیشتر آبی است (به معنی فاصله کوچک)، از آنجایی که قرمزها به مقادیر کمی اما پراکنده نسبت داده می شوند. ایده اصلی من این بود که نتایج را از اقلیدسی تبدیل کنم به طوری که آنها یک max=sqrt(2) داشته باشند، اما مطمئن نیستم که درست باشد یا نه، زیرا از آنجایی که من می دانم فاصله اقلیدسی هیچ حد بالایی ندارد... هر کمکی بسیار قابل قدردانی خواهد بود!!!
چگونه می توان نتایج را با استفاده از فاصله هلینگر با خروجی های فاصله اقلیدسی مقایسه کرد؟
105620
من یک تحلیل رگرسیون کاکس انجام می دهم تا نقش دو متغیر را در پیش بینی تبدیل بیماری تأیید کنم. قبلاً یک تحلیل ROC و یک رگرسیون لجستیک انجام دادم. همه این روش ها نقش مهمی از یکی از دو متغیر ('Var1') در پیش بینی وجود بیماری گزارش کردند. هنگامی که من رگرسیون کاکس را انجام دادم، فقط Var1 حفظ شد، اما بتای منفی (4945-) و در نتیجه نسبت خطر بسیار پایین به دست آمد. لطفاً واگرایی بین حساسیت بالای متغیر پیش‌بینی‌کننده («Sen» 90٪) در تجزیه و تحلیل ROC و چنین نسبت خطر کم را توضیح دهید.
ضریب رگرسیون منفی (رگرسیون کاکس)
105623
**زمینه** چند روز پیش اینجا پرسیدم: چگونه تعداد نقاط را برای خوشه بندی کاهش دهیم. به جای کاهش تعداد نقاط، یک روش تخمین تراکم هسته (KDE) به من پیشنهاد شد، راه حل های درستی می دهد و سریعتر از روش قبلی من است. **سوال** چیزی که اکنون در مورد آن کنجکاو هستم پیچیدگی این روش است. شاید من آن را به روشی بد (بیش از حد ساده) پیاده‌سازی کرده باشم، اینجا پیاده‌سازی c++ من است http://pastebin.com/gtStWjmA (به روش evalPrivate مراجعه کنید). اما با فرض اینکه من نقاط داده $m$ دارم و می‌خواهم از KDE در $n$ نقاط نمونه برداری کنم. سپس برای هر ارزیابی KDE باید تابع کرنل را m-time ارزیابی کنم. بنابراین پیچیدگی من $O(m^n)$ است و این خیلی زیاد است. اگر $m=60000$ و $n=1000$ من. سپس نمونه برداری از KDE برای یافتن ماکزیمم های محلی آن چند سال طول کشید.
نحوه افزایش سرعت تخمین چگالی هسته
52138
من بقای 5 ساله دو جمعیت را با ثابت نگه داشتن متغیرهای مختلف در هر بار محاسبه کردم و درصدهایی را بدست آوردم. می خواستم تعیین کنم که آیا این درصدها تفاوت قابل توجهی با یکدیگر دارند یا خیر. کسی میتونه لطفا منو راهنمایی کنه؟
چگونه دو درصد بقا را برای دو جمعیت مختلف مقایسه کنیم؟
105626
من با یک مشکل ناخوشایند با توزیع غیرمرکزی $\chi^2$ مواجه شده ام. من با متغیرهای تصادفی کار می کنم که به صورت $\chi^2_{\nu}(\lambda)$ توزیع می شوند، که $\nu$ درجه آزادی و $\lambda$ پارامتر غیر مرکزی است (که باید به نحوی تخمین زده شود) . در توزیعات چند متغیره پیوسته جلد 2 توسط S. Kotz، N. Balakrishnan، N. L. Johnson) گفته می شود که کرامر-رائو برای واریانس برآوردگرهای بی طرف $\hat{\lambda}$ است (صفحه 453، معادله. 29.39b): $$CRB_{\hat{\lambda}}=4(\theta\lambda^{-1}-1)^{-1}n^{-1}، $$ که در آن $n$- اندازه نمونه است، $\lambda$-مقدار واقعی پارامتر غیرمتمرکزی که در حال تخمین است و $\theta$ پارامتری است که تخمین های بالا و پایین زیر را دارد (صفحه 452، معادله. 29.36a): $1+\lambda^{-1}-\frac{1}{2}\nu\lambda^{-2}+\frac{1}{4}\nu^2\lambda^{- 3}\leq \theta\lambda^{-1}\sigma^{-2}\leq 1+\frac{5}{4}\lambda^{-1}-\frac{20\nu-13}{39}\lambda^{-2}، $$ و $\sigma$ واریانس نویز است. من سعی کردم رفتار $CRB_{\hat{\lambda}}$ را وقتی که $\lambda به 0$ می رسد، تجزیه و تحلیل کنم، اما به نظر من اینطور نیست دریافت من از یک قیاس از فیزیک یا آمار ریاضی استفاده می‌کنم. برای مثال، این مشکل زمانی به وجود می‌آید که مجذور فاصله اقلیدسی بین برخی از بردارهای تعیین‌شده و نمونه تجربی آن آلوده به نویز سفید گاوسی با میانگین صفر و واریانس برابر برای همه نقاط تخمین زده می‌شود. از بردار. و نتیجه ای که به دست آوردم ($CRB_{\hat{\lambda}}\to 0$ وقتی $\lambda \to 0$) مرا به این نتیجه می رساند که برای سطح ثابتی از نویز ($\sigma=\mbox) {const}$) می توان بردارهای بی نهایت نزدیک را با دقت عملا بی نهایت (تقریبا با واریانس تخمین صفر) تخمین زد. اما این نباید درست باشد. باید برعکس باشه پس مشکل کجاست؟
Cramer-Rao برای برآورد پارامتر توزیع $\chi^2$ محدود شده است
89177
من در حال آماده کردن ارائه ای در مورد استراتژی های داده های از دست رفته هستم و شبیه سازی برای مقایسه حذف لیستی (LD) با EM انجام دادم. در اینجا چیزی است که من بر اساس ادبیات انتظار داشتم: 1. خطاهای استاندارد برای EM در تمام شرایط داده از دست رفته (MAR، MCAR، NMAR) کوچکتر خواهد بود. به http://psycnet.apa.org/journals/met/6/4/330/ مراجعه کنید. 2. EM برای شرایط MAR بی طرف خواهد بود، در حالی که LD بایاس خواهد بود. 3. EM و LD تحت NMAR سوگیری خواهند داشت، اما اگر متغیر کمکی را وارد کنم، EM کمتر خواهد بود. من همه چیز را درست یافته ام به جز شماره 1. در واقع، برای شرط MAR، خطاهای استاندارد بزرگتر بودند. من کدم را در زیر (در R) قرار داده ام. آیا کسی می تواند هر گونه خطا را ببیند؟ ##### یک تابع ایجاد کنید تا تخمین های EM را به راحتی استخراج کنید. تصحیح = getparam.norm(ss، thetahat، corr = TRUE)$mu[2] اگر (!is.null(names(data.matrix))) { names(cor.corrected) = names(data.matrix) row.names(cor.corrected) = names(data.matrix)} return(cor.corrected) } #### پارامترهای شبیه سازی را تنظیم کنید n = 200 تکرار = 1000 sr = .3 #### پیش تخصیص نتایج = data.frame(ماتریس(nrow=interations، ncol=7)) names(نتایج) = c(LD_mcar، EM_mcar، LD_mar، EM_mar، LD_nmar، EM_nmar، estimate) برای (i در 1:nrow(نتایج)){ #### تولید داده sig = ماتریس(c(1, .3, .8, .8, 1، 0.3، 0.5، 0.3، 1)، nrow=3) data = data.frame(mvrnorm(n, mu=c(0,0,0)، Sigma=sig) ) names(data) = c (y، x، a) #### ایجاد داده های از دست رفته mcar = نمونه (1:n، اندازه=sr*n) mar = which(data$x<quantile(sr)) nmar = which(data$y<quantile(sr)) y_mcar = data$y; y_mcar[mcar] = NA y_mar = data$y; y_mar[mar] = NA y_nmar = data$y; y_nmar[nmar] = NA #### تخمین با استفاده از نتایج حذف$LD_mcar[i] = میانگین (y_mcar, na.rm=T) نتایج$LD_mar[i] = میانگین (y_mar, na.rm=T) نتایج$LD_nmar [i] = mean(y_nmar, na.rm=T) #### تخمین با نتایج em$EM_mcar[i] = em(data.matrix(data.frame(x=data$x, y=y_mcar))) نتایج$EM_mar[i] = em(data.matrix(data.frame(x=data$x, y=y_mar, a =data$a))) ### شامل نتایج متغیر aux$EM_nmar[i] = em(data.matrix(data.frame(x=data$x, y=y_nmar, a=data$a))) results$estimate[i] = mean(data$y) } mns = colMeans(نتایج) sds = اعمال (نتایج، 2، sd) mns sds
شبیه سازی EM در مقابل حذف لیستی - نتایج غیرمنتظره
102936
من نتوانستم زیربخش برجسته شده _همبستگی و علیت_ دیوید کنی را که از وب سایت کنی دانلود کردم، درک کنم. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/j57ti.png)
چرا این فرمول خودهمبستگی برقرار است؟
60001
من در حال نوشتن مقاله ای در مورد روشی هستم تا اهمیت آماری را تعیین کنم که آیا نمونه ای از منابع در شرایط خاص توافق متقابل دارند یا خیر. این کار با شمارش تعداد منابع موجود در نمونه که با فرضیه موافق هستند، و تعداد منابعی که مخالف هستند، و در معرض فرمولی قرار دادن آنها برای تعیین حداقل سطح اهمیت انجام می شود. لطفاً به من بگویید: (1) روش بهتری از قبل برای انجام کاری که تلاش می کنم وجود دارد، (2) اگر روش من منطقی به نظر می رسد، (3) هر گونه نقص در روش من. لطفاً در نظر داشته باشید که هدف فقط تعیین توافق متقابل است و نتیجه یک احتمال واقعی نیست بلکه یک احتمال حداقل بر اساس مفروضات اولیه است. * * * به منظور توسعه فرمول مورد استفاده برای محاسبه اهمیت آماری، من مقدمات منطقی را برای اهمیت آماری به شرح زیر تعریف کردم: 1. اهمیت آماری یک فرض که یک مکتب فکری واحد را در همه منابع نشان می‌دهد به طور تصاعدی با هر نقل قول پشتیبانی افزایش می‌یابد. ، و با هر نقل قول متناقض به صورت تصاعدی کاهش می یابد. 2. اهمیت همیشه یک عدد اعشاری است. هرچه مقدار به 1 نزدیکتر باشد، از نظر آماری معنی دارتر است. 3. یک عبارت با تعداد مساوی از نقل قول های موافق و متناقض دارای اهمیت 0 خواهد بود. هر عدد مثبت نشان دهنده اکثریت حمایت کننده است. یقین مطلق 1 است که در عمل هرگز نمی توان به آن رسید. 4. با توجه به اینکه از لحاظ نظری تعداد نامتناهی گزاره ممکن وجود دارد، احتمال اینکه 3 گزاره مترادف در منابع مستقل به طور تصادفی بیان شوند، عملاً صفر است. با پیروی از این منطق می‌توان مطمئن بود که اگر 3 نقل قول برای حمایت از یک گزاره و 0 نقل قول متناقض وجود داشته باشد، می‌توانیم از اهمیت آماری مطمئن شویم. این حداقل سطح پذیرش را برای از نظر آماری معنی دار نشان می دهد که به عنوان سطح آلفا شناخته می شود. 5. من همچنین برچسب احتمالاً مهم را به عنوان 2 فرض مترادف که در منابع مستقل ساخته شده اند، با 0 فرض متناقض می دانم. مقدمات احتمالاً معنی دار از نظر آماری معنی دار در نظر گرفته نمی شوند، اما این برچسب به شناسایی عباراتی کمک می کند که فقط علامت را از دست داده اند، که ممکن است برای اهداف عملی تر مفید باشد. فرمولی که من برای مطابقت با مقدمات بالا ایجاد کردم به شرح زیر است: t = 1-(1/((y^2+ 1)/(x^2+ 1))) y تعداد نقل قول هایی را نشان می دهد که این فرض را پشتیبانی می کنند. x تعداد نقل قول هایی را نشان می دهد که با فرض در تضاد هستند. نتیجه t یک احتمال در زمینه ما نیست، بلکه نماینده مقداری از مقدمات منطقی است که فرمول بر اساس آن است. این فرمول محاسبه می کند که 3 نقل قول پشتیبان با 0 نقل قول متناقض مقدار 0.9 دارند. بنابراین تمام مقادیر بالاتر یا مساوی 0.9 از نظر آماری معنی دار هستند. این فرمول همچنین محاسبه می‌کند که اگر 1 نقل قول متناقض وجود داشته باشد، به 5 نقل قول پشتیبان نیاز داریم تا همچنان حداقل از نظر آماری به همان اندازه معنادار در نظر گرفته شود که 3 نقل قول پشتیبان با 0 نقل قول متناقض، یعنی با مقداری بزرگتر یا مساوی 0.9 باشد. احتمالاً معنی دار مقدار 0.8 دارد، اگرچه می خواهم به خواننده یادآوری کنم که هنوز از نظر آماری معنی دار نیست. لازم به ذکر است که اگر 3 یا بیشتر نقل قول متناقض در فرض وجود داشته باشد و همه نقل قول های متناقض با یکدیگر توافق داشته باشند، علاوه بر این که 3 یا چند نقل قول حمایتی مترادف برای فرض وجود داشته باشد، این نشان دهنده وجود دو نقل قول متفاوت است. مکاتب فکری در فرضیه جدول زیر نتایج فرمول را برای حداکثر 20 نقل قول که از فرض بالقوه (ردیف ها) پشتیبانی می کنند و حداکثر 6 نقل قول متناقض با فرض بالقوه (ستون) را نشان می دهد. 0 1 2 3 4 5 6 در مقابل 0 0.000 1 0.500 0.000 2 0.800 0.600 0.000 3 0.900 0.800 0.500 0.000 4 0.98210. 0.000 5 0.962 0.923 0.808 0.615 0.346 0.000 6 0.973 0.946 0.865 0.730 0.541 0.297 0.000 7 0.900.900 0.900 0.660 0.480 0.260 8 0.985 0.969 0.923 0.846 0.738 0.600 0.431 9 0.988 0.976 0.939 0.878 0.878 0.789300.789300. 0.980 0.950 0.901 0.832 0.743 0.634 11 0.992 0.984 0.959 0.918 0.861 0.787 0.697 12 0.993 0.93910.986 0.993 0.986 0.821 0.745 13 0.994 0.988 0.971 0.941 0.900 0.847 0.782 14 0.995 0.990 0.975 0.949 0.914 0.81910.819 0.814 0.8691 0.978 0.956 0.925 0.885 0.836 16 0.996 0.992 0.981 0.961 0.934 0.899 0.856 17 0.997 0.993 0.996 0.960 0.960 0.872 18 0.997 0.994 0.985 0.969 0.948
روش جدید برای متاآنالیز برای تعیین توافق بین منابع متعدد
102933
فرض کنید من دو متغیر تصادفی مستقل گسسته $X$ و $Y$ دارم، و به مقدار مورد انتظار متغیر تصادفی $W$ علاقه مند هستم، جایی که: $$ W= \text{sign}(X-Y). $$ بنابراین، W 1 است اگر $X>Y$، -1 اگر $Y>X$ و 0 در غیر این صورت. توزیع‌های $X$ و $Y$ را هر کدام ده بار نمونه‌برداری می‌کنم و به من $\\{X_1, \dots, X_{10}\\}$ and $\\{Y_1, \dots, Y_{10}\ می‌دهم. \}$. این دو روش را برای تخمین $\text{E}\\{W\\}$ $$ \quad\quad\bar{W} = \frac{1}{10}\sum_{i=1} در نظر بگیرید } W_{i,i}, \\\ \text{and, } \quad\quad \bar{W}' = \frac{1}{100}\sum_{i=1}^{10}\sum_{j=1}^{10} W_{i,j}, \\\ \text{where } \quad W_{i ,j} = \text{sign}(X_i - Y_j) $$ می دانم که $\text{Var}\\{\bar{W}\\} = \frac{1}{10}\text{Var}\\{W\\}$، اما $\text{Var}\\{\bar{W}'\\}$ چیست و چگونه می‌توانم تخمین بزنم آن را از 20 نمونه من؟
واریانس میانگین نمونه برای نمونه های وابسته
60000
من آزمایشی را انجام دادم که در آن هر شرکت‌کننده باید 1 تصویر را از یک نمایشگر 4 تصویری انتخاب می‌کرد و اندازه‌گیری کردم که آیا تصویری که انتخاب کرده‌اند از دسته A است یا خیر. می‌خواهم میانگین نسبت تصاویر انتخاب شده از دسته A را با نسبت واقعی تصاویر مقایسه کنم. از دسته A. به عنوان مثال: یک آزمایش {A، A، B، C} خواهد بود که در آن A، B، C برای دسته هر تصویر است. بسته به اینکه شرکت‌کننده تصویری را از دسته A انتخاب کرده باشد یا خیر، معیار وابسته من 0/1 است. از آنجایی که دو تصویر از چهار تصویر از دسته A هستند، شانس انتخاب A (اگر اولویتی برای A وجود ندارد) در اینجا 1/2 است. سطح شانس یک متغیر برای هر کارآزمایی است به طوری که بین 1 تا 3 تصویر از دسته A وجود دارد (از این رو شانس 0.25، 0.5، 0.75) هر شرکت کننده دارای تعداد معینی آزمایش (نه برای همه افراد یکسان) است. که فرض می شود مستقل از یکدیگر هستند. بنابراین من چیزی شبیه به این دارم: مشارکت آزمایشی نسبت_از_انتخاب_در_الف 1 1 0.5 1 1 2 0.25 0 1 3 0.75 0 ... و من می خواهم سوژه هایم را به عنوان عوامل تصادفی داشته باشم. من ابتدا به این فکر می‌کردم که یک مدل ترکیبی انجام دهم زیرا هیچ مشکلی برای اجرای آن برای توزیع دوجمله‌ای وجود ندارد (پاسخ شرکت‌کنندگان من) اما نمی‌دانم چگونه نتیجه را با سطح شانس مقایسه کنم (نسبت تصاویر در دسته A) . مشکل اصلی در این واقعیت نهفته است که شانس در هر آزمایش متفاوت است (اما من مطمئن نیستم که با یک سطح شانس ثابت هم کار کنم!؟) من به این فکر کردم که یک اندازه گیری انجام دهم و سطح شانس را از شرکت کننده ام کم کنم. پاسخ در هر آزمایش و آزمایش که آیا این میانگین به طور قابل توجهی بزرگتر از 0 است یا خیر. با این حال من نمی دانم چگونه این کار را در یک مدل ترکیبی انجام دهم زیرا داده های من با یک مدل دوجمله ای یا یک مدل گاوسی مطابقت ندارند... از این رو من در جستجوی آزمایشی هستم که از نظر فنی صحیح باشد. هر توصیه ای؟ خواندن که می تواند کمک کند؟
مقایسه با سطح شانس وابسته به آزمایش
102932
بنابراین من روی مشکلی کار می کنم که در آن می خواهم مجموعه ای از موضوعات LDA را از یک مجموعه استخراج کنم و سپس توزیع آن موضوعات را در مجموعه های دیگر مقایسه کنم. بنابراین اساساً می‌خواهم موضوعات را قفل کنم و بعد متوجه شوم که یک مجموعه دیگر چقدر شبیه یا متفاوت از مجموعه اصلی است. من امیدوار بودم که کسی بتواند ابزار یا روش انجام این نوع مقایسه را به من بگوید؟ کاربرد خاص من مربوط به مقایسه روزنامه های محلی و ملی است. من مجموعه ای از مقالات روزنامه های سراسری دارم و قبلاً از gensim برای استخراج موضوعات استفاده کرده ام. اکنون مجموعه‌ای از روزنامه‌های محلی دارم که در همان دوره زمانی ضبط شده‌اند. بنابراین من می خواهم توزیع موضوعات مشابه در روزنامه ملی را با روزنامه های محلی مقایسه کنم. البته می‌خواهم ساختار موضوع را هم در مجموعه‌های ملی و هم در مجموعه‌های محلی (مانند تغییر احتمال وقوع همزمان کلمات برای یک موضوع در دو مجموعه مختلف) بررسی کنم. من در بسته‌های R «topicmodels» و پایتون «gensim» به اطراف نگاه کردم، اما شانسی نداشتم. پیشنهادی دارید؟
مقایسه توزیع موضوع بین اجسام با استفاده از تخصیص نهفته دیریکله و مدل های موضوعی R یا python gensim
60005
از یک طرف، من یک داده سری زمانی دما (dataset1) برای یک هفته دارم و می‌خواهم مدل همبستگی زمانی را با استفاده از تجزیه و تحلیل سری‌های زمانی و انجام پیش‌بینی مقادیر پیش‌رو بسازم. داده ها کافی نیستند و الگوهای فصلی و روزانه را برای پیش بینی های دقیق در بر نمی گیرند. از طرف دیگر، من یک منبع داده دیگر (dataset2) دارم که کمی با منطقه مورد مطالعه فاصله دارد اما شامل مقدار کافی داده است که نشان دهنده اثرات فصلی و روزانه است. **سوال من**: من می نویسم تا بپرسم آیا می توان مدل همبستگی زمانی را بر اساس مجموعه داده 2 ساخت و آن را با داده 1 کالیبره کرد؟ (کالیبراسیون ضروری است زیرا مجموعه داده 2 به اندازه مجموعه داده 1 محلی نیست.) آنچه من می خواهم این است که الگوهای فصلی و روزانه را از مجموعه داده بزرگ (dataset2) به دست آوریم و پیش بینی ها را بر اساس مجموعه داده 1 انجام دهم که برای منطقه مورد مطالعه محلی هستند. به عبارت دیگر، استفاده از مجموعه داده ۲ برای ساخت مدل‌سازی همبستگی زمانی و انجام پیش‌بینی‌ها بر اساس آن نمی‌تواند نتایج دقیقی را ارائه دهد.
ساخت مدل همبستگی زمانی توسط یک مجموعه داده و کالیبره کردن مدل با سایر مجموعه داده ها
60004
من چیزی شبیه به آن دارم: $$ Var\left( \frac{1}{2n-2} \sum_{i=1}^{n-1} \left( X_{i+1}-X_{i}\ راست)^{2} \right) $$ و من آن را به چیزی شبیه به آن تبدیل کردم (امیدوارم درست باشد): $$ \left(\frac{1}{2n-2}\right)^{2} \sum_{i=1}^{n-1} Var(X_{i+1}^{2}-2X_{i+1}X_{i}+X_{i}^{2}) $$ وقتی می‌دانم که: $EX=m$، $VarX=\sigma^{2}$، $E \overline{X}=m$ و $Var \overline{X}= بیشتر با آن کار می‌کنم. \frac{\sigma^{2}}{n}$ ? عنوان ممکن است گیج کننده باشد زیرا من تفاوت متغیر تصادفی یکسانی دارم (فقط با شاخص های مختلف)، اما فکر می کنم یکسان است.
نحوه تبدیل $Var(X-Y)^{2}$
89172
من مفهوم مقیاس بندی ماتریس داده برای استفاده در مدل رگرسیون خطی را درک می کنم. به عنوان مثال، در R می توانید از: scaled.data <- scale(data, scale=TRUE) استفاده کنید، تنها سوال من این است که برای مشاهدات جدیدی که می خواهم مقادیر خروجی را پیش بینی کنم، چگونه به درستی مقیاس می شوند؟ آیا scaled.new <- (جدید - mean(data)) / std(data) خواهد بود؟
چگونه می توان مشاهدات جدید را برای انجام پیش بینی ها در زمانی که مدل با داده های مقیاس بندی شده برازش داده شد مقیاس بندی کرد؟
14336
آیا بسته ای در R وجود دارد که روش حداکثر درستنمایی وزنی (وارم، 1996) را برای تخمین پارامترهای شخص در مدل های راش اجرا کند؟
آیا بسته R وجود دارد که حداکثر احتمال وزنی را برای مدل های Rasch پیاده سازی کند؟
113177
من ادبیاتی خوانده‌ام که جنگل‌های تصادفی نمی‌توانند بیش از حد به آن‌ها بپردازند. در حالی که این عالی به نظر می رسد، به نظر می رسد بیش از حد خوب باشد که درست باشد. آیا ممکن است rf ها بیش از حد فیت شوند؟
جنگل تصادفی نمی تواند بیش از حد مناسب باشد؟
96371
اغلب متون آمار کاربردی مقدماتی میانگین را از میانه متمایز می کند (اغلب در زمینه آمار توصیفی و انگیزه جمع بندی گرایش مرکزی با استفاده از میانگین، میانه و حالت) با توضیح این که میانگین به پرت در داده های نمونه و/یا حساس است. نسبت به توزیع های جمعیتی کج، و این به عنوان توجیهی برای این ادعا استفاده می شود که وقتی داده ها متقارن نیستند، میانه ترجیح داده می شود. به عنوان مثال: > بهترین معیار گرایش مرکزی برای یک مجموعه داده معین، اغلب به روش توزیع مقادیر بستگی دارد... وقتی داده ها متقارن نباشند، میانه اغلب بهترین معیار برای سنجش گرایش مرکزی است. از آنجایی که میانگین نسبت به مشاهدات شدید حساس است، در جهت > مقادیر داده های بیرونی کشیده می شود و در نتیجه ممکن است بیش از حد > متورم یا بیش از حد تخلیه شود. ، ویرایش دوم (P&G > در دسترس بود، BTW، آنها را از هم جدا نمی کرد se_.) نویسندگان گرایش مرکزی را اینگونه تعریف می کنند: متداول ترین مشخصه مورد بررسی مجموعه ای از داده ها، مرکز آن است، یا نقطه ای که مشاهدات در مورد آن تمایل به خوشه بندی دارند _فقط از میانه، نقطه استفاده کنید، زیرا فقط استفاده از میانگین زمانی که داده ها/توزیع ها متقارن هستند، همان چیزی است که می گوییم فقط زمانی از میانگین استفاده کنید که برابر با میانه باشد. **ویرایش:** ووبر به درستی اشاره می کند که من معیارهای قوی گرایش مرکزی را با میانه ترکیب می کنم، بنابراین مهم است که به خاطر داشته باشید که در حال بحث در مورد چارچوب بندی خاص میانگین حسابی در مقابل میانه در آمارهای کاربردی مقدماتی هستم. جایی که، به کنار، سایر معیارهای گرایش مرکزی انگیزه ندارند). به جای قضاوت در مورد فایده میانگین بر اساس میزان انحراف آن از رفتار میانه، نباید اینها را صرفاً به عنوان دو معیار مختلف مرکزیت درک کنیم. به عبارت دیگر حساس بودن به چولگی از ویژگی های میانگین است. به همان اندازه می توان استدلال کرد که خوب میانه خوب نیست، زیرا تا حد زیادی به چولگی حساس نیست، بنابراین فقط زمانی از آن استفاده کنید که برابر با میانگین باشد. (حالت کاملاً معقولانه با این سؤال درگیر نیست.)
آیا زمانی که داده ها دارای انحراف هستند باید از میانگین استفاده شود؟
113173
من روی یک رگرسیون خطی فضایی کار می کنم و می توانم بگویم که بین متغیرهای کمکی همخطی وجود دارد. آیا می توانم از تصاویر PCA (Principal Component Analysis) به جای متغیرهای کمکی اصلی برای تخمین متغیر وابسته استفاده کنم؟ من PC1=متغیر 1، PC2=متغیر 2 و غیره را فرض می کنم. یا آیا روش دیگری برای حل مشکل هم خطی وجود دارد؟
جزء اصلی (PC) به عنوان جایگزینی برای متغیرهای کمکی خطی؟
113176
تفاوت بین انتساب و پیش بینی چیست؟ تنها چیزی که می دانم، پیش بینی اصطلاحی است که در تحلیل سری های زمانی استفاده می شود، که به معنای پیش بینی ارزش آینده با در نظر گرفتن روند داده های تاریخی است. Imputation یک استراتژی برای تکمیل داده ها است. من برای سوال خودم چند پاسخ فکر کرده ام. اما تا اینجا، اینها چیزی است که من دریافت کردم: پیش بینی با در نظر گرفتن روند داده های تاریخی انجام می شود، در حالی که imputation داده ها (هر یک از مشاهده ها) را به عنوان متغیر تصادفی می بیند، بنابراین باید توزیع تاریخ را در نظر بگیریم. اصطلاح پیش‌بینی برای پیش‌بینی ارزش آتی استفاده می‌شود، در حالی که از تعبیر برای پیش‌بینی مقدار گمشده استفاده می‌شود. روش پیش‌بینی هرگز به داده‌های ناشناخته مربوط نمی‌شود (در این مورد، هر مقداری که مشاهده نشده است)، در حالی که رویه انتساب ممکن است به داده‌های ناشناخته (در این مورد، داده‌های مشاهده نشده) بستگی داشته باشد (افت اطلاعات).
تفاوت بین انتساب و پیش بینی
21926
من سوالات زیر را قبل از بیش از یک متغیر نتیجه (وابسته) در رگرسیون لجستیک ترتیبی پرسیده ام چگونه می توان بیش از یک متغیر وابسته (طبقه ای) را در رگرسیون لجستیک مدیریت کرد؟ استفاده از مدل راش برای توضیح روابط بین مجموعه‌ای از متغیرهای وابسته و مستقل استفاده از تحلیل بیشتر بر روی عوامل تشکیل‌شده توسط تحلیل مؤلفه‌های اصلی در پاسخ‌های رگرسیونی سؤالات بالا به من کمک می‌کند تا بفهمم با داده‌هایم چه کاری می‌توان انجام داد. داده‌های من شامل 2 متغیر مستقل (درآمد و داده‌های مستمر سنوات) با متغیرهای کنترل (داده‌های دوگانه یا طبقه‌ای) است و من یک متغیر وابسته با 6 پروکسی دارم، مثلاً برای متغیر وابسته توسعه کسب‌وکار (متغیر پنهان)، شش سؤال در 5 سؤال پرسیده شد. مقیاس لیکرت نقطه ای (داده های طبقه ای- ترتیبی) افزایش در سود، فروش، اندازه، بازاریابی، دارایی و نیروی کار (متغیرهای آشکار). من می خواهم رابطه بین متغیر وابسته و مستقل را پیدا کنم. من می خواهم از مدل اندازه گیری برای پیدا کردن این موضوع استفاده کنم. من از http://en.wikipedia.org/wiki/Latent_variable_model متوجه شدم که می توانم از مدل متغیر پنهان استفاده کنم. من بسیار مطمئن هستم که متغیرهای آشکار من مقوله‌ای هستند و فکر می‌کنم متغیر پنهان من نیز مقوله‌ای است (باید بدانم)، بنابراین به نظر می‌رسد تجزیه و تحلیل کلاس پنهان بهترین انتخاب برای داده‌های من باشد. سوال من این است که: * آیا من درست می گویم که تجزیه و تحلیل کلاس پنهان برای داده های من بهترین است یا باید به چیز دیگری فکر کنم؟ * آیا می توانید مثالی بزنید که متغیر پنهان پیوسته و متغیر آشکار مقوله ای است؟ اینها موقعیت هایی هستند که نیاز به استفاده از تحلیل صفت پنهان وجود دارد. من فقط این سوال را می پرسم تا متغیر پنهان خود را به عنوان پیوسته یا مقوله ای روشن کنم. * من می دانم که برای تجزیه و تحلیل کلاس پنهان، نرم افزار LatentGold و Mplus بهترین هستند اما خرید آنها گران است، آیا فکر می کنید یک نرم افزار رایگان Lem می تواند هدف من را برآورده کند، زیرا می خواهم در تجزیه و تحلیل کلاس پنهان فاکتور و رگرسیون انجام دهم؟ یا در مورد SATA چه فکری می کنید؟ * در تحلیل کلاس پنهان می توان روش خوشه ای، تحلیل عاملی و رگرسیون را برای داده های طبقه بندی انجام داد. آیا می توان بیش از آن را در آن انجام داد، مانند مدل سازی معادلات ساختاری و تحلیل مسیر برای داده های طبقه بندی شده و غیره؟ * تحلیل کلاس نهفته بیشتر در پزشکی و روانشناسی و کمتر در اقتصاد توسعه یا کاربردی استفاده می شود. آیا می توانم استفاده از تحلیل کلاس پنهان را برای تحقیقات مرتبط با تجارت (ترکیبی از حوزه اقتصاد مدیریت و توسعه) توجیه کنم. پیشاپیش از پاسخ ها متشکرم
مدل کلاس نهفته
89171
پکیج caret (trific btw) دارای مدل های زیادی است اما اگر می خواهید از مدلی استفاده کنید که داخلی نیست، راهی وجود دارد که در طرح کلی اینجا توضیح داده شده است http://caret.r-forge.r-project .org/custom_models.html. بازتولید مثال ارائه شده در آنجا به خوبی کار می کند. من سعی می کنم این کار را برای مدل شبکه عصبی رگرسیون عمومی grnn() انجام دهم و با مشکلاتی مواجه شدم که نمی توانم آن را برطرف کنم. مثال کد قابل تکرار من این است: library(caret) x <- rep(1:100); y <- x^2+x*rnorm(100,0,1); tr <- data.frame(y=y,x=x) grnnFit <- function(dat، params) smooth(learn(dat)، sigma=params$sigma) #train grnnPred <- function(mod، newx) guess( mod، as.matrix(newx)) #predict grnnSort <- function(x) x[order(x$sigma)،] #مرتب کردن نتایج #لیست پارامترها/توابع lpgrnn <- list(library=grnn, type=Reggression, parameters=data.frame(parameter=sigma, class=numeric, label=Sigma) , grid=data.frame(sigma=c(.1, .2, .3)), #تنها یک پارامتر تنظیم sigma fit=grnnFit, predict=grnnPred، prob=NULL، sort=grnnSort) set.seed(998) fitControl <- trainControl(method=cv, number=10) set.seed(825) res <- train(y=tr[,- 1], x=tr[,1], method=lpgrnn, metric=RMSE, trControl = fitControl) پیام خطا این است: > res <\- train(y=tr[,-1], x=tr[,1], method=lpgrnn, metric=RMSE, trControl = > fitControl) خطا در train.default(y = tr[, -1 ]، x = tr[، 1]، روش = > lpgrnn، متریک = RMSE، : تلاش برای اعمال غیر تابع getModelInfo(grnn) یک لیست خالی برمی گرداند > getModelInfo(grnn) named list() > برخلاف مدل های دیگر، به عنوان مثال. getModelInfo(nnet) برمی گرداند > getModelInfo(nnet) $nnet $nnet$label [1] شبکه عصبی $nnet$library [1] nnet $nnet$loop NULL $nnet$type [1] طبقه بندی رگرسیون $nnet$parameters پارامتر کلاس برچسب 1 عددی اندازه #واحدهای پنهان 2 عددی فروپاشی Weight Decay $nnet$ تابع شبکه (x, y, len = NULL) expand.grid(size = ((1:len) * 2) - 1, decay = c(0, 10^seq(-1, -4, طول = لن - 1))) تابع $nnet$fit (x, y, wts, param, lev, last, classProbs, ...) { dat <- x dat$.outcome <- y if (!is.null(wts)) { out <- nnet(.outcome ~ ., data = dat، وزن = wts، اندازه = param$size، decay = param$decay، .. .) } else out <- nnet(.outcome ~ ., data = dat, size = param$size, decay = param$decay, ...) out } $nnet$predict function (modelFit, newdata, submodels = NULL) { if (modelFit$problemType == Classification) { out <- predict(modelFit, newdata, type = class) } else { out <- predict (modelFit، newdata، type = raw) } out } $nnet$prob تابع (modelFit, newdata, submodels = NULL) { out <- predict(modelFit, newdata) if (ncol(as.data.frame(out)) == 1) { out <- cbind(out, 1 - out) dimnames(out)[ [2]] <- rev(modelFit$obsLevels) } out } تابع $nnet$varImp (شیء، ...) { imp <- caret:::GarsonWeights(object, ...) if (ncol(imp) > 1) { imp <- cbind(apply(imp, 1, mean), imp) colnames(imp)[1] <- Overall } else { imp <- as.data.frame(imp) names(imp) <- Overall } if (!is.null(object$xNames)) rownames(imp) <- object$xNames imp } تابع $nnet$predictors (x، ...) if (hasTerms(x)) پیش بینی کننده (x$terms) other NA $ nnet$برچسب‌ها [1] شبکه عصبی نظم‌سازی L2 تابع $nnet$levels (x) x$lev $nnet$ تابع مرتب‌سازی (x) x[سفارش (x$size، -x$decay)، ]
برای استفاده از مدل سفارشی در بسته caret() راهنمایی درخواست شده است
112485
کدام بسته بقا در R به صراحت برای متغیرهای وابسته به زمان اجازه می دهد؟ منظورم به صراحت این است که بسته به مدل های خود اجازه می دهد که یک شیء بقا را با شکل Surv(شروع، توقف، رویداد) بپذیرند. Surv (شروع، توقف، دستگیری. زمان) ~ fin + سن + سن: توقف + پریو، داده = Rossi.2) من می خواهم بسته هایی را با مدل های قدرتمندتر شناسایی کنم این فرم را بپذیرید
بسته های بقا در R که متغیرهای وابسته به زمان را امکان پذیر می کند
21920
برآوردگر حداقل تعیین کننده کوواریانس (MCD) ممکن است برای دستیابی به استحکام در هنگام تخمین ماتریس کوواریانس استفاده شود. به دنبال زیرمجموعه نقاط داده $h$ (از $n > h$) می گردد که ماتریس کوواریانس آن دارای کوچکترین تعیین کننده است و کوواریانس آن نقاط $h$ را محاسبه می کند. چرا به حداقل رساندن عامل تعیین کننده کار را انجام می دهد؟
به دنبال شهودی در مورد برآوردگر MCD هستید
21922
من سعی می کنم جنسیت اسم های فرانسوی را بر اساس پسوند آنها پیش بینی کنم. من مجموعه ای از 10 هزار اسم دارم. برای هر اسم، ریشه را از پسوند جدا می کنم. من پنج نمونه ایجاد می‌کنم اما با طول‌های پسوندهای مختلف: 1، 2، 3، 4 و 5. نام کلاسی که به هر نمونه اختصاص می‌دهم از جنسیت و طول پسوند تشکیل شده است، به عنوان مثال. f2 برای یک اسم مونث با پسوندی به طول 2. برای اینکه به شما ایده بدهیم که داده ها چگونه به نظر می رسند، در اینجا یک عصاره کوچک وجود دارد: http://pastebin.com/tn6DFJAy آیا فکر می کنید این یک رویکرد معقول است؟ آیا جداسازی کلاس ها بر اساس طول پسوند معقول است؟ و آیا تولید پنج نمونه برای هر اسم بی خطر است؟ برای پروژه ام، من از TiMBL استفاده می کنم. نتایج برای داده ها عبارتند از: http://pastebin.com/5wai65i1
یادگیری مبتنی بر حافظه: پیش بینی جنسیت اسامی فرانسوی
85416
83818
2925
فرض کنید می خواهیم از توزیع زیر یک قرعه کشی ایجاد کنیم: $P(X=0) = 0.5$ $P(X=1) = 0.5$ اگرچه دو محدودیت وجود دارد: (الف) قرعه کشی باید بر اساس باشد. از یک رویداد خارجی (ب) مربوط به (الف)، قرعه کشی باید توسط شخص ثالث قابل تأیید باشد. به عبارت دیگر، یک شخص ثالث باید بتواند تأیید کند که قرعه کشی من در واقع $X = 0$ بوده است (مثلا). س 1: آیا می توان چنین سیستمی را ابداع کرد و اگر چنین است چگونه؟ Qn 2: آیا می توان سیستم را به متغیرهای گسسته با بیش از 2 نتیجه ممکن (مانند انداختن یک تاس) گسترش داد؟ Qn 3: به طور مشابه، آیا می توان آن را به متغیرهای پیوسته (به عنوان مثال، نرمال) گسترش داد؟
90074
منظور من چیزی شبیه به این نمودار است که فرکانس مشارکت های عمومی کاربر در GitHub را نشان می دهد. ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/X9SRH.png) من این نوع نمودار را بسیار دوست دارم، زیرا فکر می کنم آنها داده های مورد نظر را به روشی بسیار زیبا و به راحتی نمایش می دهند ، اما من نمی دانم نام آنها چیست، بنابراین نمی توانم به دنبال کتابخانه ای بگردم که به من کمک کند آنها را ایجاد کنم. کسی می تواند نام این نوع نمودار / نمودار را به من بگوید؟
112489
من 35 رویداد باینری دارم (حضور/غیبت با کد 1/0) که 7 نمونه سوال شده (QS 1...7) و 1 نمونه شناخته شده (KS) را توصیف می کند. از من خواسته می شود احتمال (در درصد) را ارائه دهم که چقدر احتمال دارد یکی از نمونه های سؤال شده (QS 1...7) ** مطابقت ** با نمونه شناخته شده (KS) باشد. با توجه به زمان و بودجه برای این پروژه، من حضور/غیبت را به جای تعداد دفعات دقیق رمزگذاری کردم. تا کنون من دو رویکرد دارم و به کمک نیاز دارم تا بفهمم چه کار کنم، بنابراین پیشاپیش از هر کسی تشکر می کنم! رویکرد 1: چه تعداد از رویدادهای باینری در مقایسه با نمونه شناخته شده وجود دارد؟ بنابراین این تعداد 1 در 35 رویداد است. KS شامل 29 مورد از 35 رویداد باینری (29 1 و 6 0) است. 7 نمونه سوال شده از تعداد یکسان رویداد تا رویدادهای بسیار کمی متغیر است: QS1: 29 از 35 رویداد، QS2: 6، QS3: 14، QS4: 16، QS5: 2، QS6: 4، QS7: 7. زیبا است. واضح است که QS1 بسیار شبیه به KS است، در حالی که QS5 نیست، فقط با شمارش تعداد رویدادها در مقایسه با عدد KS. اما چگونه می توانم این احتمال را بدست بیاورم که KS و QS1 همسان هستند؟ رویکرد 2: یک رویداد QS چند بار با رویداد KS مطابقت دارد؟ بنابراین این تعداد دفعاتی است که هر دو KS و QS برای هر یک از 35 رویداد 1 یا 0 تطبیق دارند. KS و QS1 در 25 رویداد از 35 رویداد یکسان هستند (هم با 1/حضور و هم 0/غیبت). بنابراین می توانیم بگوییم KS و QS1: مطابقت 25 با 10 KS و QS2 مطابقت ندارد: مطابقت 10 با 25 KS مطابقت ندارد و QS3: مطابقت 16 با 19 KS مطابقت ندارد و QS4: مطابقت 20 با 15 KS مطابقت ندارد و QS5: مطابقت 6 با 19 KS و QS6 مطابقت ندارد: مسابقه 8 با 27 KS و QS7 مطابقت ندارد: مطابقت 9 با 26 مطابقت ندارد باز هم کاملاً واضح است که QS1 بیش از هرکس دیگری (از جمله QS4) به مطابقت با الگوی KS نزدیک است. احتمال تطابق KS و QS1 چقدر است؟ من نمونه‌های QS را گنجانده‌ام تا بتوانم به نوعی خط پایه را در مورد اینکه این رویدادها، حتی در یک جمعیت کوچک، چند بار رخ می‌دهند، به دست بیاورم. بنابراین با شمارش حضور این رویدادها (مجموع 1ها در نمونه‌های QS)، من اکثراً 2 و 1 را دریافت می‌کنم که تنها یکی 6 است. میانگین 2.28 و انحراف استاندارد 1.5 است. آیا اجرای تست دوجمله ای روی KS و QS1 صحیح است؟ IOW، شانس اینکه دو نمونه مستقل 25 از 35 بار نتایج یکسانی داشته باشند چقدر است؟ این دقیقاً پاسخی به این سؤال نیست که احتمال مطابقت KS و QS1 چقدر است. باز هم از کمک و راهنمایی شما متشکرم.
چگونه می توانم احتمال تطابق را بر اساس شباهت رویدادهای دودویی محاسبه کنم؟
112965
در این پی دی اف http://people.csail.mit.edu/yks/documents/classes/mlbook/pdf/chapter2.pdf صفحه 5 می گوید: با توجه به مجموعه ای از توابع $f(x_i,pa(x_i))$ غیر منفی و با مجموع 1، یک احتمال مشترک را به صورت زیر تعریف می کنیم: $$p(x_1,\dots, x_n)=\prod_i f(x_i,pa(x_i))$$ [...] رابطه بین احتمال شرطی $p(x_i|pa(x_i))$ و $f(x_i,pa(x_i))$، یک تابع چیست با دارای ویژگی های یک تابع شرطی است اما دلخواه است؟ همانطور که خواهید دید، این تابع در حقیقت یک و یک است. یعنی طبق تعریف احتمال مشترک، تابع $f(x_i,pa(x_i))$ $p(x_i|pa(x_i))$ است. چگونه می تواند از $f(x_i,pa(x_i))$ به $p(x_i|pa(x_i))$ برود و بیان کند که این تنها تابع ممکنی است که می توان به $f(x_i,pa(x_i) اختصاص داد. )) دلار؟
15717
کسی میدونه بهترین برنامه شبکه بیزی برای مک که رابط گرافیکی داره و رایگانه کدومه؟
بهترین برنامه شبکه بیزی برای مک؟
112966
با توجه به مجموعه داده عددی $\\{(x_i, y_i, z_i)\\}_{i = 1}^N$، می توان با ترسیم یک نقطه $P_i = (x_i, y_i)$ برای هر $i، یک نمودار پراکندگی ایجاد کرد. = 1، \dots N$ و هر نقطه را با شدت بسته به مقدار $z_i$ رنگ کنید. فرض کنید من این پراکندگی را ایجاد کرده ام. کاری که می‌خواهم انجام دهم این است که صفحه را با یک شبکه (مستطیلی، شش ضلعی، مثلثی، ... مهم نیست) تقسیم کنم و هر سلول از شبکه را با شدت متوسط ​​​​تمام نقاطی که در سلول قرار می‌گیرند رنگ آمیزی کنم. علاوه بر این، فرض کنید من دو نمودار از این قبیل $Plot_A$ و $Plot_B$ (با مرزهای یکسان) برای دو مجموعه داده متفاوت $A$ و $B$ ایجاد کرده ام. اجازه دهید $c_i^k$ سلول $i$-امین نمودار $k$ باشد. من می‌خواهم نمودار سومی ایجاد کنم که $c_i^3 = c_i^1 * c_i^2$ برای هر $i$. متشکرم.
6809
من در حال بررسی ساخت رابط های MATLAB و R برای C5.0 راس کوینلان هستم (برای کسانی که با آن آشنا نیستند، C5.0 یک الگوریتم درخت تصمیم و بسته نرم افزاری است؛ یک برنامه افزودنی از C4.5)، و من در تلاش برای دریافت یک درک اجزایی که باید بنویسم. تنها مستنداتی که برای C5.0 پیدا کردم در اینجا است، که یک آموزش برای See5 (یک رابط ویندوز برای C5.0؟) است. فایل tar همراه با Makefile است، اما هیچ فایل Readme یا هیچ سند اضافی وجود ندارد. با توجه به آنچه در آموزش بالا خواندم، C5.0 از یک نمایش مبتنی بر ASCII برای مدیریت ورودی ها و خروجی ها استفاده می کند، و همچنین در حال ساختن رابطی هستم که داده های باینری را مستقیماً بین MATLAB یا R و C5.0 ارسال می کند. آیا نمایش داده های C5.0 توسط هر نرم افزار یادگیری ماشینی/طبقه بندی دیگری استفاده می شود؟ آیا قبلاً کسی سعی کرده است که یک رابط MATLAB یا R برای ID3، C4.5 یا C5.0 بسازد؟ با تشکر
ساخت رابط های MATLAB و R برای C5.0 راس کوینلان
15713
من در تلاش برای اجرای یک رگرسیون OLS هستم: * **DV: تغییر وزن در طول یک سال (وزن اولیه - وزن نهایی)** * **IV: چه ورزش کنید یا نه. نسبت به افراد لاغرتر در هر واحد ورزش وزن بیشتری از دست خواهند داد. بنابراین، من می‌خواستم یک متغیر کنترلی اضافه کنم: * **CV: وزن اولیه اولیه.** اما اکنون **وزن اولیه** هم برای محاسبه متغیر وابسته و هم به عنوان متغیر کنترل استفاده می‌شود. آیا این اشکالی ندارد؟ آیا این فرضیه OLS را نقض می کند؟
آیا گنجاندن یک معیار پایه به عنوان متغیر کنترل هنگام آزمایش تأثیر یک متغیر مستقل بر امتیازات تغییر معتبر است؟
45450
15710
من در حال خواندن مقدمه کوتاه رگرسیون غیرخطی در R توسط جان فاکس (لینک) بودم و متعجب بودم که فرمول واریانس ضرایب از کجا آمده است (صفحه 1). فرمول ماتریس واریانس کوواریانس مانند رگرسیون خطی به نظر می رسد اما ماتریس پیش بینی X در آن فرمول معمولی با مشتقات جزئی تابع جایگزین می شود. کسی می تواند این را توضیح دهد؟ با تشکر برایان
واریانس ضرایب در رگرسیون غیرخطی
79107
بوت استرپ در R با استفاده از بوت {boot} و Boot {car}
21596
9744
من سعی می کنم ادعای زیر را بفهمم: > اگر $t$-statistic بزرگتر از صفر باشد، نشان می دهد که متغیر > انفجاری است... اما آیا این بدان معناست که ریشه واحد دارد؟ در چارچوب آزمون **دیکی فولر**.
متغیر انفجاری چیست؟
18901
112914
13044
من یک GLM دوجمله ای منفی با تورم صفر را روی برخی از داده های تعداد حشرات در R انجام می دهم. مشکل من این است که چگونه R را وادار کنم که داده های گونه های من را به عنوان یک ستون پشته ای بخواند تا تورم صفر حفظ شود. اگر آن را به صورت یک ردیف با عنوان فراوانی در R وارد کنم، صفرها را از دست می دهم و مدل کار نمی کند. قبلاً سعی کرده‌ام: داده‌ها را خودم روی هم قرار دهم (۸۰ ستون * ۴۷ ردیف) بنابراین با ۳۷۶۰ سطر پس از انباشتن دستی می‌توانید تصور کنید که سرعت R در هنگام استفاده از دستور pscl zeroinfl() چقدر کند می‌شود (۲۰ دقیقه در رایانه من طول می‌کشد! ، هنوز هم کار می کرد) مشکل بعدی مربوط به یک همبستگی فضایی است. نمونه‌برداران خاصی از همان محیط نمونه‌برداری کردند تا استقلال را نقض کنند. آیا می توانم فقط متوسط ​​را به عنوان فاکتور در مدل قرار دهم؟ پلاتيپزيد
107716
من دارم به p نگاه میکنم 355 از Gelman's _Bayesian Data Analysis_ (ویرایش 3)، که هیچ اشتباهی برای آن وجود ندارد، و من این را می بینم: > در مدل رگرسیون نرمال، توزیع پیش از > غیر اطلاعاتی راحت روی $(\beta,\, \ یکنواخت است. log\sigma)$ یا معادل آن > $$p(\beta,\, \sigma^2|X) \propto \sigma^{-2}$$ آیا نباید بگوید یکنواخت در $(\beta, \log\sigma^2)$؟ اگر $W = g(X)$ با $g$ افزایش یکنواخت، $h \equiv g^{-1}$، آیا ما $$f_{W}(w) = f_{X}(h( w))\;h^\prime(w)$$ اجازه دهید $X=\log\sigma^2$, $g=\exp$, $h=\log$; چگالی $W=g(X)=\sigma^2$ $f(w) = w^{-1}$ است یا اگر نماد گلمن را درست متوجه شده باشم، $p(\sigma^2)=\sigma ^{-2}$. آیا حق با من است یا در مورد علامت گذاری گیج شده ام ... یا کاملاً اشتباه؟
قبل غیر اطلاعاتی برای مدل رگرسیون
107717
آیا راهی برای آزمایش اهمیت تفاوت در تفاوت ها در adj وجود دارد. R² ها در Stata؟ فرض کنید من چهار زیر گروه دارم: قبل از درمان، پیش کنترل، پس از درمان، پس از کنترل و می خواهم بفهمم که آیا تفاوت های adj وجود دارد یا خیر. R2 از همان رگرسیون (به عنوان مثال، R2 از Y = b0 + b1 * X + e) ​​انجام شده برای هر یک از چهار زیر گروه معنادار است. به عبارت دیگر، آیا (adj. R²(post-treatment) - adj. R²(pre-treatment)) - ((adj. R²(post-control) - adj. R²(pre-control)) مهم است؟ من جایی خواندم ممکن است بتوان adj را برای هر رگرسیون بوت کرد و سپس تفاوت‌ها را آزمایش کرد، اما مطمئن نیستم که آیا این گزینه مناسبی است یا خیر. با تشکر فراوان!
آزمایش اهمیت تفاوت در تفاوت های adj. R²
107710
می‌خواستم بدانم آیا کسی تا به حال از نمونه‌برداری پایین برای ساختن جنگل‌های تصادفی با داده‌هایی که کلاس‌های نامتعادل دارند استفاده کرده است. اساساً نمونه‌های پایین نمونه (با جایگزینی) x*min از جامعه‌ای که x تعداد کلاس‌ها و min اندازه کوچک‌ترین کلاس است. بنابراین نمونه برداری از حداقل تعداد مشاهدات از هر کلاس است. در برخی از نمونه‌هایی که دیده‌ام، قدرت پیش‌بینی را بهبود می‌بخشد، اما به نظر می‌رسد که سوگیری نمونه‌گیری وجود دارد. این ممکن است با این واقعیت که در حال بوت استرپ کردن و ساختن چندین درخت و میانگین گرفتن آنها است، باطل شود، اما من کاملاً آن را درک نمی کنم. اگر کسی بتواند توضیح دهد که چرا این تعصب آمیز نیست، عالی است. من شنیده ام که این تکنیک با جنگل های تصادفی وزن دار قابل مقایسه است. من با یک مجموعه داده با 30000000 ورودی کار می کنم که در آن یک کلاس حدود 120 مشاهده دارد، بنابراین می توانید ببینید که چرا این کار مفید است.
نمونه‌برداری پایین با مدل‌های ساختمان (مخصوصاً جنگل‌های تصادفی)
21591
107712
من یک معماری شناختی دارم که مجموعه ای از وظایف را حل می کند. همچنین من داده هایی از افراد انسانی دارم که مجموعه ای از وظایف مشابه را حل می کنند. اکنون می‌خواهم ببینم آیا می‌توانم رابطه‌ای بین عملکرد معماری و عملکرد سوژه‌های انسانی پیدا کنم (به عنوان مثال: اگر برای معماری سخت است، برای سوژه‌های انسانی نیز سخت است). من 3 آمار خلاصه دارم که عملکرد معماری را توصیف می کند، آنها را a,b,c می نامیم. همه آنها چیزهای کمی متفاوت را اندازه می گیرند. به موارد زیر فکر کنید: عدم قطعیت، ساختار راه حل داده شده و غیره. برای داده های انسانی، من فقط به یک آمار دسترسی دارم (داده های گرفته شده از یک آزمایش منتشر شده)، که مرتبط است اما با a,b,c یکسان نیست. اگر ضریب همبستگی را محاسبه کنم، می بینم که b همبستگی بالایی با عملکرد سوژه های انسانی نشان می دهد. با این حال a,b,c به خودی خود همبستگی (~0.2-0.7) دارند. خواندم که می توان ضریب همبستگی جزئی را محاسبه کرد که رابطه دو متغیر را بدون در نظر گرفتن تأثیر دیگری اندازه می گیرد. اگر این کار را انجام دهم، c بالاترین همبستگی جزئی را با داده های انسانی دارد، اگرچه همبستگی آن با داده های انسانی کمترین بود، من در تفسیر این نتایج مشکل دارم، و مطمئن نیستم که تفسیر خود را بر اساس همبستگی انجام دهم یا همبستگی جزئی و اگر استفاده از همبستگی جزئی در این زمینه منطقی باشد. همچنین توجه داشته باشید: این صرفاً اکتشافی است، هدف من آزمایش فرضیه نیست، من فقط به دنبال روابط هستم.
همبستگی در مقابل همبستگی جزئی برای بررسی رابطه در داده ها
13047
من یک مجموعه داده دارم که مجموعه ای از فواصل پیوسته از برخی مبدا است. من در ابتدا با گرد کردن داده ها و استفاده از آن به عنوان ورودی در تابع Matlab، این را به عنوان یک توزیع دو جمله ای منفی مدل کردم، nbinfit: nbReg = nbinfit(round(data)); با استفاده از خروجی nbinfit، CDF زیر را ایجاد کردم: ![شرح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/FFYjs.png) این هم QQ Plots مربوطه است![شرح تصویر را اینجا وارد کنید]( http://i.stack.imgur.com/Qlaz4.png) **سوالات** 1. آیا استفاده از توزیع دوجمله ای منفی برای مدلسازی توزیع پیوسته معتبر است؟ آیا سندی در ادبیات وجود دارد که از دوجمله ای منفی برای مدل سازی داده های پیوسته استفاده شده باشد؟ 2. ممکن است یک توزیع پیوسته توزیع شده مشابه داشته باشید (برای دریافت توزیع پیوسته می توانید شرط x == round(x) را در nbinpdf حذف کنید)؟ 3. CDF بسیار مناسب است، اما آیا توزیع بهتر شما توصیه می کنید؟**