_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
64666 | من در حال تحقیق در مورد تجزیه و تحلیل خوشهای هستم و به متغیرهایی علاقهمندم که هم مقولهای و هم پیوسته هستند، که برای آنها خواندهام که ضریب تشابه Gower معیار خوبی برای مجاورت است. من خوانده ام که ضریب شباهت گوور به طور کلی با روش وارد سازگار نیست، بنابراین قصد داشتم در ابتدا با استفاده از پیوند متوسط خوشه بندی کنم، اما همچنین به دنبال مقایسه ساختار خوشه (برای اهداف اعتبار محتوا) با روش خوشه بندی دیگری، به ویژه k روش میانگین، با استفاده از تعداد خوشه ها و مراکز اولیه به دست آمده در روش پیوند متوسط. آیا ضریب تشابه Gower یک معیار مجاورت سازگار برای روش k-means است؟ | |
86750 | کسی در مورد تست چاو 1 مرحله ای چیزی شنیده است؟ من کلمه کلیدی 1-step chaw test را در گوگل جستجو کردم اما هیچ بازدیدی پیدا نکردم. فرمول این تست چیست؟ | |
55610 | من در مورد تفسیر اصطلاحات تعامل در رگرسیون پواسون گیج شده ام. در اینجا یک مجموعه داده فرضی وجود دارد. اگر این داده ها را با استفاده از رگرسیون پواسون تجزیه و تحلیل کنیم (همانطور که داده های شمارش است)، هیچ تعامل گروه به شرط وجود نخواهد داشت (در هر دو گروه، نرخ خطا در شرایط Y 100٪ افزایش می یابد، یعنی نسبت نرخ بروز 2). اگر این دادهها را با استفاده از ANOVA تجزیه و تحلیل کنیم (و دادهها را تغییر ندهیم)، احتمالاً یک تعامل قابلتوجه گروه با شرط به دست میآید (من این را شبیهسازی کردهام). در حالی که رگرسیون پواسون به تفاوت های متناسب بین شرایط نگاه می کند، ANOVA به تفاوت های مطلق حساس تر است. به نظر من از آنجایی که رگرسیون پواسون از مقیاس ضربی (از طریق تبدیل log) استفاده می کند، زمانی که همان داده ها با استفاده از OLS (یا ANOVA) تجزیه و تحلیل شوند، اثر افزایشی تحت رگرسیون پواسون ضربی می شود. بنابراین کدام اصطلاح تعاملی راست تر است؟ آیا فقط بحث تفسیر است؟ یا دلایل پیشینی برای انتخاب یکی بر دیگری وجود دارد. برای مثال، آیا میتوانید استدلال کنید که چون دادههای شمارش ویژگیهای نسبت را نشان میدهند، ما باید نسبتها را تجزیه و تحلیل کنیم نه فواصل (به گفته استیونز)؟ با تشکر و امیدوارم این منطقی باشد. | اصطلاحات متقابل در رگرسیون پواسون |
52866 | من سعی میکنم از mixfdr در شبیهسازی مقادیر p استفاده کنم، اما گاهی اوقات جستجو برای پارامتر جریمهسازی یک خطا را نشان میدهد و برخی از ورودیهای ماتریس را بینهایت نشان میدهد: >m <- mixFdr(stdjk,plots=F,J=3 ,theonull=F,calibrate=T) برازش مدل اولیه [1] 0.750 0.125 0.125 [1] -7412.522 -7412.522 -7412.522 [1] 3706.261 3706.261 3706.261 [,1] [,2] [,3] [1،] 0.750 -7412.522 31706 [31706.7412 -7412.522. -7412.522 3706.261 [3،] 0.125 -7412.522 3706.261 [,1] [,2] [1,] -Inf Inf [2,] -Inf Inf [3,] -Inf Inf [,1] [,2] [1 ,] 0.1 Inf [2،] 0.1 Inf [3،] 0.1 Inf خطا در if (فاصله < tol) همگرا = TRUE : مقدار از دست رفته در جایی که TRUE/FALSE مورد نیاز است آیا این طبیعی است یا برخی از پارامترها را گم کرده ام؟ | پارامتر پنالتی Mixfdr |
82478 | PCA برای کاهش ابعاد داده های صوتی | |
100645 | من سعی می کنم یک راه مناسب برای عادی سازی داده های خود پیدا کنم. با استفاده از میکروسکوپ میخواهم درصد سلولهای سبز را در یک جمعیت بشمارم. با این حال، تنها 0.1٪ از تمام سلول ها سبز هستند. من تصمیم گرفتم که می خواهم 30 سلول سبز را بشمارم، این بدان معنی است که برای پیدا کردن 30 سلول سبز باید تقریباً 30000 سلول را بشمارم. با این حال، من نمی خواهم به صورت دستی 30000 سلول را بشمارم. بنابراین به یک راه کوتاه رسیدم. من مساحت دقیق یک فریم را زیر میکروسکوپ می دانم. بنابراین اگر بدانم در یک فریم چند سلول وجود دارد و تعداد فریمهایی را که تصویر کردهام را پیگیری کنم، نیازی به شمارش سلولهای غیرسبز تکی ندارم. برای تخمین تعداد سلولها/فریمهایی که 10 فریم تصادفی را شمارش کردم، این به من امکان میدهد میانگین (+/- stdev) تعداد سلولها در هر فریم را تخمین بزنم و این به من مخرج مورد نیاز را میدهد. با این حال، من در مرحله بعدی گیر کرده ام. بنابراین من سلول های سبز را می شمارم و تعداد کل سلول ها را برون یابی می کنم. وقتی درصد سلولهای سبز را گزارش میکنم، معمولاً # سلول سبز/کل سلول را میدهم. اما اکنون، باید خطای تخمین را در نظر بگیرم. من مطمئن نیستم که چگونه این کار را انجام دهم. علاوه بر این، من این سلول ها را با داروهای مختلف درمان می کنم تا ببینم آیا تعداد سلول های سبز تغییر می کند یا خیر. از چه آماری استفاده کنم یا تغییر مخرج مهم نیست؟ با تشکر!! | |
107888 | من هیستوگرامهای قیمتی را ترسیم کردهام که به نظر میرسد به خوبی دنبالهروی و نمایی دارند.  با این حال، من همچنین می خواهم اوج اولیه را در محدوده قیمت پایین پارامتری کنم. آیا می توانید پیشنهاد دهید که چه توزیعی برای این کار مناسب است؟ چگونه می توانم در این مورد به طور کلی تحقیق کنم؟ | کدام توزیع برای پارامتری کردن هیستوگرام قیمت با دنباله نمایی؟ |
64660 | من یک آزمایش با دو عامل دارم. اولین عامل، تصویر، دارای سه سطح است: خوب، زشت، غایب (یعنی تصویر ارائه نمی شود). عامل دوم، اطلاعات، دو سطح دارد: حال، غایب. متغیر وابسته یک متغیر پیوسته است: دوست داشتن. حالا من شرط تصویر=غایب + اطلاعات=غایب را اجرا نکردم چون به معنای ارائه نکردن چیزی و پرسیدن اینکه چقدر از مردم خوششان آمده است که خیلی منطقی نیست. بنابراین من به جای 6 سلول با 5 سلول باقی مانده ام. آیا ایده ای در مورد چگونگی تجزیه و تحلیل این داده ها دارید؟ | |
22662 | من چیز زیادی در مورد آمار نمی دانم، بنابراین من به دنبال نقطه شروع در اینجا هستم. هر گونه منبع یا بینشی مفید خواهد بود. من در حال انجام یک آزمایش یادگیری الکترونیکی هستم، که در آن دانشآموزان ویدیوها را تماشا میکنند و سپس یک نظرسنجی را تکمیل میکنند که بار شناختی و رضایت کاربر را اندازهگیری میکند، و سپس ارزیابی کوتاهی را برای آزمایش آموختههایشان انجام میدهند. به دلیل مشکلات پیش آزمون در یادگیری، میخواهم گروههای آزمایشی را بر اساس سه متغیر طبقهبندی کنم: 1. نتایج آزمون قبلی 2. نگرش نسبت به دوره خود (اندازهگیری شده با نظرسنجی) 3. نگرش نسبت به یادگیری الکترونیکی (اندازهگیری شده توسط نظرسنجی) با انجام این کار می توانم واریانس بین هر گروه را به حداقل برسانم. اگر من طبق متغیر 1 طبقه بندی می کردم، می توانستم اطمینان حاصل کنم که هر گروه به میزان مساوی دانش آموزان A، B و غیره دارد. برای کنترل کردن. من فقط می توانستم با گروه ها بازی کنم تا زمانی که آنها را تقریباً یکسان کنم، اما می خواستم بدانم آیا روش های آماری برای طبقه بندی با متغیرهای متعدد وجود دارد؟ با تشکر | نمونه گیری طبقه ای با متغیرهای متعدد؟ |
52860 | تلاش برای انجام لس روی دو متغیر «x» و «y» در R با استفاده از نرمالسازی MA (نگاه کنید به نمودار MA؛ همچنین به نمودار میانگین تفاوت Bland-Altman یا Tukey مراجعه کنید) مانند این: > x = rnorm(100) + 5 > y = x + 0.6 + rnorm(100)*0.8 > m = log (x/y) > a = 0.5*log(x*y) من میخواهم x و y را به گونهای نرمال کنم که میانگین «m» 0 باشد، مانند نرمالسازی استاندارد MA، و سپس مقادیر صحیح x و y را دوباره محاسبه کنم. ابتدا اجرای loess در MA: > l = loess(m ~ a) پس از آن راه برای بدست آوردن مقادیر «m» اصلاح شده چیست؟ آیا این درست است؟ > mc <- پیش بینی (l, a) # طرح MA اصلی > نمودار (a,m) # طرح MA تصحیح شده > نمودار(a,m-mc) برای من مشخص نیست که «پیشبینی» واقعاً در مورد «لوس» چه میکند. «اشیاء» و تفاوت آن با استفاده از «l$residuals» در شی «l» که توسط «loess» برگردانده شده است، میتواند توضیح دهد؟ در نهایت، چگونه می توانم مقادیر جدید x و y را بر اساس این اصلاح محاسبه کنم؟ تلاش برای محاسبه مجدد «x» و «y»: «m» تصحیح شده، new_m = m - mc است، بنابراین «x,y» را می توان از تعریف «m» مشتق کرد: m = log(x/y) = log(x) - log(y) بنابراین، x = exp(new_m + log(y)) y = exp(-1*(new_m - log(x))) اما این اشتباه است. یک ضریب مقیاسپذیری از دست رفته نصف وجود دارد و من میخواهم اشتقاقی را ببینم که از کجا میآید. احتمالاً از تعریف «A» است، اما نمیدانم چرا نمیتوانم همان «x,y» را بر حسب «A» بازنویسی کنم **ویرایش**، اگر کسی میتواند توضیح دهد که ضریب نصف تصحیح کجاست. در هنگام محاسبه دوباره «x» \-- یعنی اینکه چرا فرمول «x = exp(new_m + log(y))» اشتباه است -- ممنون می شوم. | نرمال سازی LOESS و MA در R؟ |
60916 | من دکتری هستم. کاندیدای زبان شناسی کاربردی در حال حاضر من درگیر یک مطالعه تحقیقاتی در مورد ارائه بازخورد اصلاحی معلمان انگلیسی در مورد خطاهای زبان آموزان انگلیسی L2 هستم. من شرکت کنندگان معلم را به دو گروه تقسیم کرده ام. من میخواهم گروهها را از نظر تعداد (تکرار) اصلاحاتی که در پاسخ به اشتباهات زبانآموزان ارائه میکنند، کنار هم قرار دهم. فکر می کنم باید از آزمون کای اسکوئر استفاده کنم. با این حال، از آنجایی که اندازه گروه ها متفاوت است (10 معلم در گروه A و 15 معلم در گروه B)، من در مورد کاربردی بودن آزمون کای دو مطمئن نیستم. میخواهم بدانم آیا آزمون آماری وجود دارد که بتواند با دادههای فراوانی برخورد کند، در حالی که تحت تأثیر نبود برابری در اندازه گروه قرار نگیرد. | Chi-square با طراحی نامتعادل |
103559 | معیار ایده آل برای همگامی خنده چیست؟ | |
107885 | من همبستگی پیرسون را در R انجام داده ام و برای تفسیر نتایج به کمک نیاز دارم. دادههای همبستگی لحظه-محصول پیرسون: A.C$Average.tortuosity و A.C$Area t = 0.6168-، df = 14، p-value = 0.5473 فرضیه جایگزین: همبستگی واقعی برابر با 0 95 درصد فاصله اطمینان نیست: 2.60923-0.60926 تخمین نمونه : کور -0.1626531 من علاقه مند به گزارش مقادیر _r_ و _p_ هستم. آیا منصفانه است که بر اساس خروجی فوق بگوییم که: > بین دو متغیر _r_ (14) > = -.16، _p_ > 0.05 همبستگی غیر معناداری وجود دارد. | خروجی همبستگی پیرسون را از R تفسیر کنید |
26578 | از طریق این سایت من اخیراً Sankey Diagrams را کشف کرده ام، راهی عالی برای تجسم آنچه در یک نمودار جریان _ سنتی_ اتفاق می افتد. در اینجا یک مثال خوب از یک نمودار سانکی توسط جورج ام وایتسایدز و جورج دبلیو کرابتری آمده است،  منبع; تحقیقات بنیادی بلند مدت در انرژی را فراموش نکنید، علم 9 فوریه 2007: جلد. 315. شماره 5813، صفحات 796 - 798. بعد از اینکه متوجه شدم هیچ بسته R-Sankey وجود ندارد، یک اسکریپت R به صورت آنلاین پیدا کردم، متأسفانه این اسکریپت کاملاً خام و تا حدودی محدود است. با امید زیاد من یک بسته R-Sankey یا یک تابع بالغ تر را در stackoverflow درخواست کردم، اما در کمال تعجب به نظر می رسد که ما یک تابع بالغ برای ساختن نمودارهای Sankey در R نداریم. پس از ارسال جایزه Geek On Acid مهربان بود. به اندازه کافی برای پیشنهاد یک هک کوچک روی اسکریپت موجود است که باعث شد کم و بیش برای هدف خاص من کار کند. اسکریپت R بهبود یافته این نمودار را تولید کرد،  منبع; stackoverflow.com. اما، آیا فقدان بسته R نشان میدهد که نمودارهای سانکی روش شگفتانگیزی برای تجسم ساییدگی با استفاده از R در جریان دادهای مانند آنچه در نمودار بالا ارائه شده است نیست (به سؤال اولیه stackoverflow برای دادهها و کد R مراجعه کنید. شاید. راه بهتری برای تجسم ساییدگی وجود دارد به نظر شما بهترین راه برای تجسم ساییدگی در جریان داده با استفاده از R چیست؟ | بهترین راه برای تجسم ساییدگی با استفاده از R؟ |
22668 | pmf زیر را برای یک متغیر تصادفی گسسته $X$ در نظر بگیرید: $f(x) = x/15$ وقتی $x = 1، 2، 3، 4، 5$، و $f(x) = 0$ برای سایر متغیرها مقادیر x$. $f(3)$ چیست؟ (یعنی PMF در 3 ارزیابی شد) | ارزیابی تابع جرم احتمال برای یک متغیر تصادفی گسسته |
60919 | من $n$ ($<20$) i.i.d. مشاهدات از هر توزیع برای محاسبه واریانس نمونه، از $$s^2=\sum_i \frac{(\bar{X}-X_i)^2}{n-1}$$ استفاده میکنم. یعنی من به خطای استاندارد میانگین نمونه نیاز دارم. آیا دوباره بر $n$ تقسیم کنم یا دوباره بر $n-1$؟ $$S.E. \stackrel{?}{=}\sqrt{\frac{s^2}{n-1}}$$ | آیا درجه آزادی $n-1$ برای هر دو انحراف استاندارد نمونه مشاهدات فردی و برای خطای استاندارد نمونه میانگین است؟ |
110488 | من یک امتحان در راه است و می خواهم بدانم آیا ویدیوها/لیست پخش یوتیوب یا هر ویدیوی آنلاینی وجود دارد که بتواند مفاهیم زیر را به روشی ساده توضیح دهد. مفاهیم عبارتند از: (آمار توصیفی) مقیاس های اندازه گیری هیستوگرام ها و نمودارهای دیگر قانون تجربی آمار خلاصه درصدها (احتمال) مقادیر مورد انتظار: توزیع دو جمله ای توزیع پواسون توزیع عادی تقریب های عادی به توزیع ها توزیع های نمونه گیری طراحی آزمایشی و پیمایشی (استنتاج) میانگین از یک جامعه واحد نسبت از یک جمعیت واحد میانگین از دو نمونه مستقل میانگین از نمونه های زوجی نسبتهای دو نمونه مستقل (آزمایش فرضیه) میانگین از یک جمعیت واحد نسبتهای چندجملهای از یک نمونه واحد دو میانگین با استفاده از نمونههای مستقل دو میانگین با استفاده از نمونههای زوجی دو نسبت با استفاده از نمونههای مستقل استقلال یا همگنی نسبتها (همان chi- آزمون های مربعی) (تحلیل واریانس:) CRD RCB (روندها، رگرسیون و همبستگی) روندها حداقل مربعات همبستگی آزمونهای مجذور کای و جداول اقتضایی (تستهای استقلال) به ویژه در آزمونهای مجذور کای، تحلیل واریانس و استنتاج به کمک نیاز دارم. با تشکر از همه برای کمک شما!! | ویدیوهای وب که می توانند درک بهتری از مفاهیم آماری به من ارائه دهند |
26571 | این سوال در مورد شبکه های بیزی است. من میخواهم با دانستن همه احتمالات شرطی، احتمال اینکه رویدادهای خاص در یک حالت خاص باشند را محاسبه کنم. در نظر بگیرید که من کاملاً در شبکه های بیزی تازه کار هستم. # مشکل یک شبکه بیزی را در نظر بگیرید. برای همه متغیرهای $A_i,B_i \dots Z_i$ در شبکه من پتانسیلها را به شکل $P\\{ A_i میدانم | par(A_i) \\}=P\\{A_i | B_1 \dots B_n\\}$ برای همه حالتهای ممکن $a_i,b_1 \dots b_n$. این پتانسیل ها با استفاده از احتمالات ذهنی محاسبه می شوند. # محاسبه احتمالات منفرد آنچه می دانم فقط پتانسیل است. به عنوان مثال، برای متغیر $A_i$ من $P\\{A_i = a_i\\}$ را نمی دانم اما $P\\{A_i = a_i را می دانم | B_1=b_1 \dots B_n=b_n\\}$. جایی که $B_1، B_2 \dots B_n$ والدین $A_i$ هستند. من می خواهم $P\\{A_i = a_i\\}$ را محاسبه کنم. در نظر بگیرید که هیچ محدودیتی در نظر گرفته نشده است، بنابراین این متغیر $A_i$ می تواند والدین و فرزندان داشته باشد. و همچنین $B_1 \dots B_n$. به نظر پیچیده نیست. با داشتن پتانسیل می توانم از قانون احتمال کل استفاده کنم و: $$P\\{ A_i = a_i \\} = \sum_{\forall b_1 \dots b_n} P\\{ A_i = a_i | B_1=b_1 \dots B_n=b_n \\} \cdot P\\{B_1=b_1 \dots B_n=b_n \\}$$ در مجموع قسمت اول: $P\\{ A_i = a_i | B_1=b_1 \dots B_n=b_n \\}$ را می توان با استفاده از پتانسیل محاسبه کرد. در مورد $P\\{B_1=b_1 \dots B_n=b_n \\}$ چطور؟ یعنی چگونه می توانم احتمال اینکه برخی از متغیرها در حال حاضر حالت خاصی دارند را محاسبه کنم؟ لطفاً توجه داشته باشید که $B_1 \dots B_n$ یکی از والدین دیگری نیستند، آنها در همان سطح شبکه هستند، آنها همتا هستند، به این معنی که هیچ رابطه والدینی ندارند. آنها والدین $A_i$ هستند. # سوال به طور کلی، چگونه می توان احتمال اینکه برخی از متغیرها در یک وضعیت کنونی هستند را محاسبه کرد؟ وقتی هیچ رابطه والدینی ندارند؟ پیش شرط ها عبارتند از: احتمالات (پتانسیل) شرطی را می دانم. | چگونه احتمالات مشترک را از احتمالات شرطی در شبکه بیزی محاسبه کنیم؟ |
26572 | من سعی می کنم آزمایش کنم که آیا بین تخمین حداکثر احتمال دو پارامتر ژنتیکی (انتخاب و غالبیت) در دو محیط با داده های ژنوتیپ از یک تلاقی تفاوت معنی داری وجود دارد یا خیر. سه کلاس ژنوتیپ وجود دارد، C11، C12، و C22، و من به دنبال به حداکثر رساندن احتمال زیر هستم: llhood2 <- تابع(تتا، c، c11،c12،c22){ s<-theta[1] d<-theta [2] P11 = (1 - ((s * (1 - c) * (1 - c + (2 * d * c)))) / (4 - (s * (1 + (2 * d)))) P22 = (1 - (s * c * ((2 * d * (1 - c)) + c))) / (4 - (s * ( 1 + (2 * د)))) P12 = (1 - P11 - P22) logL = c11*log(P11) + c12*log(P12) + c22*log(P22) -logL } C بسته به اینکه از کدام نشانگر ژنتیکی استفاده می کنید ثابت است و c11، c12 و c22 به ترتیب نشان دهنده ژنوتیپ های AA، AB و BB هستند R و وصل کردن داده های ژنوتیپ از هر محیط، می توانم یک تخمین نقطه ای برای s و d در یک محیط (s1 و d1) بدست بیاورم و واریانس این تخمینها از هسین، سپس با استفاده از دادههای ژنوتیپ از محیط دوم (s2 و d2 و واریانسهای مرتبط با آنها، تخمینهای پارامتر را دریافت میکنم، بنابراین، دو برازش جداگانه مدل به من s1 var_s_1 و s2 var_s_2 و غیره میدهد). کد optim در زیر آمده است: fit1 <- optim(inits, llhood, method=L-BFGS-B,. hessian=T، پایین تر=پایین، بالا=بالا، c=c,c11=c11,c12=c12,c22=c22, control=list(trace=1)) fit2 <- optim(inits, llhood, method=L -BFGS-B، hessian=T، پایین=پایین،بالا=بالا، c=c,c11=n11,c12=n12,c22=n22, control=list(trace=1) سپس می خواهم بدانم که آیا s1 به طور قابل توجهی با s2 متفاوت است (به همین ترتیب برای d1 و d2). من فکر میکردم که این یک آزمایش مستقیم است، اما برای یافتن اسنادی در مورد چگونگی انجام صحیح یا زیباترین کار مشکل داشتم. به عنوان یک تقریب خام، من از یک آزمون T دو نمونه ای ساده استفاده کردم، اما کاملا مطمئن هستم که کاملا درست نیست... من همچنین یک آزمون نسبت احتمال را در نظر گرفتم که در آن آزمایش می کنم که آیا تفاوت بین دو تخمین s1 و s2، با صفر (مدل کاهش یافته) در مقابل با صفر متفاوت نیست. اما با توجه به معادلات احتمالی من مطمئن نیستم که چگونه این را تنظیم کنم. هر گونه کمک خاص بسیار قدردانی خواهد شد. به روز رسانی: در اینجا چند کد تلاش شده برای احتمالات محدود و نامحدود وجود دارد که برای انجام آزمایش نسبت درستنمایی استفاده می شود. ابتدا محدود شده (null) که در آن s و ss برابر هستند- (c11-c22 داده های env.1، n11-n12 برای محیط 2 هستند) llhoodnull <- تابع (theta,c,c11,c12,c22,n11,n12 ,n22){ s<-تتا[1] d<-تتا[2] ss=s dd=d P11 = (1 - (s * (1 - c) * (1 - c + (2 * d * c)))) / (4 - (s * (1 + (2 * d)))) P22 = ( 1 - (s * c * ((2 * d * (1 - c)) + c))) / (4 - (s * (1 + (2 * d)))) P12 = (1 - P11 - P22) ) b11 = (1 - (ss * (1 - c) * (1 - c + (2 * dd * c)))) / (4 - (ss * (1 + (2 * dd)))) b22 = (1 - (ss * c * ((2 * dd * (1 - c)) + c))) / (4 - (ss * (1 + (2 * dd)))) b12 = (1 - b11 - b22) logL = c11*log(P11) + c12*log(P12) + c22*log(P22)+n11*log(b11) + n12*log(b12) + n22*log(b22) -logL} فکر می کنم که شاید لازم باشد d را هم درست کنم تا فقط احتمال s را آزمایش کنم. و نامحدود: llhoodb <- تابع(تتا،c،c11،c12،c22،n11،n12،n22){ s<-theta[1] d<-theta[2] ss<-theta[3] dd<- تتا[4] P11 = (1 - (s * (1 - c) * (1 - c + (2 * d * c)))) / (4 - (s * (1 + (2 * d)))) P22 = (1 - (s * c * ((2 * d * (1 - c)) + c))) / (4 - (s * (1 + (2 * d)))) P12 = (1 - P11 - P22) b11 = (1 - (ss * (1 - c) * (1 - c + (2 * dd * c)))) / (4 - (ss * (1 + (2 * dd)))) b22 = (1 - (ss * c * ((2 * dd * (1 - c)) + c))) / (4 - (ss * (1 + (2 * dd)))) b12 = (1 - b11 - b22) logL = c11*log(P11) + c12*log(P12) + c22*log(P22)+n11*log(b11) + n12*log(b12) + n22*log(b22) -logL } وقتی میخواهم با optim() آن را به حداکثر برسانم این یکی به من خطا میدهد... هر نظری روی اینها؟ | آزمایش برای تفاوت معنادار بین تخمینهای ML: نسبت احتمال یا آزمون والد؟ |
65272 | آیا دستگاه تقویت گرادیان فریدمن می تواند عملکرد بهتری نسبت به جنگل های تصادفی داشته باشد؟ اگر چنین است، در کدام شرایط یا چه نوع مجموعه داده ای می تواند gbm را بهتر کند؟ | در چه شرایطی ماشینهای تقویت گرادیان از جنگلهای تصادفی بهتر عمل میکنند؟ |
110481 | من در حال خواندن یک کتاب درسی در مورد داده های از دست رفته هستم، و درک جمله زیر برای من کمی چالش برانگیز است. > چگالی احتمال حاشیه ای $ \left ( x_{obs}\ \right)$ به دست می آید > با ادغام داده های گمشده $ \left ( x_{miss}\ \right)$ $$ f\left ( > x_{obs) }|\theta \right )=\int_{}^{}f\left ( x_{obs},x_{miss} \right > ){}dx_{miss}\\\\\\\\{}$$ برای درک این موضوع به کمک نیاز دارم، ترجیحاً با یک مثال. | چگالی احتمال حاشیه ای x (obs) به دست آمده از ادغام x (فقدان) |
110487 | من مشکلی دارم که می توان آن را به عنوان یک رگرسیون خطی خلاصه کرد. بنابراین به شکل زیر است: $$ Y=X \beta +\epsilon $$ که در آن $Y$ و $\epsilon$ بردارهایی با اندازه $N\times1$ هستند، $X$ یک ماتریس با اندازه $N\times3 است. $، و $\beta$ یک بردار با اندازه $3\times1$ است (یعنی من برای سه پارامتر حل می کنم). راه مناسب برای حل این مشکل در چارچوب حداقل مربعات معمولی، از طریق معادلات نرمال است - یعنی مشتق جزئی مجموع مربعات خطاها را با توجه به هر پارامتر، و برای اینکه مجموع را به حداقل برسانیم، جایی که برابر با صفر است را حل کنیم. از مربع خطاها با این حال، این برای من نسبتاً ضعیف عمل می کند. از روی هوس، سعی کردم به جای آن پارامترها را حل کنم، فقط موارد زیر را انجام دهم: $$ \beta = X^{-1}Y $$ این واقعاً خیلی خوب عمل می کند. مشکل اینه که من نمیتونم توجیهش کنم و نمیدونم داره چیکار میکنه! توجه داشته باشید که اساساً نادیده گرفتن این ایده است که اصلاً خطا وجود دارد. هیچ ایده ای در مورد اینکه اینجا چه خبر است؟ پیشاپیش ممنون | اگر SSE ها را به حداقل نمی رساند، چه کار می کنم؟ |
97168 | حاشیه نشینی بر اساس احتمال مشروط | |
65276 | من در حال خواندن یک مقاله بسیار جالب از Sellers و Shmueli در مورد مدل های رگرسیون برای داده های شمارش هستم. نزدیک به آغاز (ص. 944) آنها به مک کالا و نلدر (1989) استناد می کنند که می گویند رگرسیون دوجمله ای منفی محبوبیتی ندارد و دارای یک پیوند متعارف مشکل ساز است. متن ارجاع شده را پیدا کردم و می گوید (ص 374 از M و N) به نظر می رسد استفاده کمی از توزیع دوجمله ای منفی در برنامه ها انجام شده است؛ به ویژه استفاده از پیوند متعارف مشکل ساز است زیرا پیش بینی خطی را ایجاد می کند. تابعی از پارامتر تابع واریانس». در صفحه قبل آنها تابع پیوند را به صورت $$\eta = \log\left(\frac{\alpha}{1 + \alpha} \right) = \log\left( \frac{\mu}{\mu) میدهند. + k}\right)$$ و تابع واریانس $$V = \mu + \frac{\mu^2}{k}.$$ توزیع به صورت $$Pr(Y = y؛ \alpha,k) داده میشود. = \frac{(y+k-1)!}{y!(k-1)!}\frac{\alpha^y}{(1+\alpha)^{y=k}}$$ من NB را پیدا کردم رگرسیون به طور گسترده مورد استفاده قرار می گیرد (و در چندین کتاب توصیه می شود). آیا همه این استفاده ها و توصیه ها اشتباه است؟ پیامدهای این پیوند مشکل ساز چیست؟ | سوال رگرسیون دو جمله ای منفی - آیا مدل ضعیفی است؟ |
65274 | برای خطی کردن مدل خود از $\ln(x+1)$ استفاده میکنم، بنابراین معادله زیر را به دست میآورم: $$ \ln(y+1) = b_0 + b_1 \ln(x_1 + 1) + b_2\ ln(x_2+1) + \cdots + b_n\ln(x_n+1). $$ من بر اساس نهفته (متغیرهای مشاهده نشده) فرضیه می دهم و به عنوان معیار از متغیرهای مشاهده شده (یا پراکسی ها) استفاده می کنم - آنهایی که در معادله هستند. برنامه من استفاده از SEM (مدل سازی معادلات ساختاری) یا/و CFA (تحلیل عامل تاییدی) برای اعتبارسنجی مدلم است. در انجام SEM/CFA خود باید از متغیرهای تبدیل شده $\ln(x+1)$ استفاده کنم یا همانطور که مشاهده می شود (فقط $x$)؟ | SEM/CFA و تبدیل داده ها |
65275 | من از یک مدل فضای حالت برای تطبیق مشاهدات با یک مدل پویای جمعیت (با استفاده از زبان BUGS) استفاده می کنم. در بخش «وضعیت»، مدل پویا یک «وضعیت» جدید از جمعیت (یعنی اندازه و ساختار) برای هر سال مدلسازی شده ایجاد میکند. در بخش مشاهده، چندین خروجی از بخش وضعیت به مشاهدات داده شده توسط دو منبع مختلف برازش داده می شود. اندازه جمعیت، هر سال مشاهده می شود، با استفاده از یک لگ نرمال برازش می شود. برای (i در 1:N) { obsPop[i] ~ dlnorm(log(predictPop[yearObsPop[i]]),prec.obsPop[i]) } تعداد افراد مشاهده شده مرده مشاهده شده، هر سال که مشاهده می شد، برازش داده می شود با استفاده از یک دوجمله ای برای (i در 1:N2){ obsDead[i] ~ dbin(pObsDead، deadPredict[yearObsDead[i]]) } با این حال، N (یعنی تعداد سال مشاهده اندازه جمعیت) کوچکتر از N2 (یعنی تعداد سال مشاهده برای مرگ و میر) است و به نظر می رسد منبع دوم داده دارای یک وزن بیش از حد در نتیجه * چگونه می توانم وزن متفاوتی برای هر منبع داده در برازش جهانی مدل انجام دهم؟ پیشاپیش با تشکر | وزن منابع داده در مدل بیزی (BUGS) |
19941 | من متوجه شدم که می توان به باقیمانده های تنظیم شده نگاه کرد و آنها را به عنوان یک z-score در نظر گرفت و سپس از یک آزمون دو دنباله برای یافتن مقدار p استفاده کرد. مشکل این است که چگونه میتوانید باقیماندههای تعدیلشده را بر روی چیزی که من میدانم یک جدول 1xr محاسبه میکنید (زیرا آزمون خوبی از برازش است)؟ علاوه بر این، اگر کسی علاقه مند است ببیند من در رابطه با جفت خودم چه می کردم و جزئیات بیشتری در مورد مسائلم انجام می دادم، لطفاً به یک سؤال انجمن اینجا نگاه کنید. من همچنین جداول استفاده از زیستگاه در مقابل در دسترس بودن را دارم. برخی از مقادیر کوچک هستند، اما تنها دو گروه دارای مقدار متوسط زیر 5 هستند. من از $\chi^2$ استفاده میکنم، زیرا نمیدانستم چگونه روی یک میز بزرگ (9 یا 5 زیستگاه) فیشر انجام دهم. مسئله این است که من سپس مقایسههای دوتایی را برای هر ترکیب زیستگاه انجام دادم تا مقادیر p را اضافه کنم تا به این نتیجه برسم که زیستگاهها در نتیجه قابل توجهی نقش دارند. آیا باید به نحوی از Fisher's برای این تست های 2x2 استفاده می کردم؟ من راهی برای انجام این دو به دو برای chi-squared پیدا نکردم، بنابراین یک فایل اکسل برای انجام آن تنظیم کردم و سپس هر p-value (ابتدا کوچکترین) را با مقادیر p Bonferroni Holm یعنی '0.05/9' سپس '0.05 مقایسه کردم. /8` و غیره، برای هر یک به نوبه خود. آیا این به جای بررسی فیشر در آزمون امکان پذیر است؟ نتایج یافت شده معتبر به نظر میرسند و از قضا نوع زیستگاه با «O=4» و «E=2» معنیدار نبود. علاوه بر این، اگر من تصحیح Holm را با دست انجام میدهم (یعنی هر کدام را با مقدار p مربوطه مقایسه میکنم) باید مقدار p واقعی در نتایج نشان داده شود، یا باید مقدار p را نشان دهید که در مقدار ضرب شده است. تصحیح مربوطه به طوری که همه آنها می توانند طوری به نظر برسند که گویی با 'alpha=0.05' مقایسه می شوند؟ به عنوان مثال، پنجمین کوچکترین مقدار من از 9 p مقدار 0.02 است. طبق هولمز، من باید این را با «0.05/5» مقایسه کنم، یعنی «0.01» بنابراین معنی دار نیست. اگر بخواهم مقادیر p را گزارش کنم، آیا مثلاً باید این مقدار به صورت '0.10' نشان داده شود، یعنی در 5 ضرب شده است؟ یا باید «0.02» اصلی را نشان دهم و سپس مرجعی مانند «با استفاده از تصحیح هولم مهم است؟ | |
95565 | اول از همه بابت عنوان بد متاسفم. من تصور می کنم این یک مشکل استاندارد است، فقط نمی دانم چگونه با آن برخورد کنم، مدل زیر \begin{equation} Y_{ij} = \mu + E_i + \varepsilon_{ij} \end{equation} را دارم. $1 \leq i \leq N$ و $1 \leq j \leq M$. و $E_i \sim \mathcal{N}(0,\sigma^2_E$) و $\varepsilon_{ij}\sim \mathcal{N}(0,\sigma^2_\varepsilon)$ عبارات خطایی هستند که همگی مستقل هستند. یکدیگر توجه داشته باشید که $E_i$ در بسیاری از معادلات و $\varepsilon_{ij}$ تنها در یک معادله ظاهر میشوند. میخواهم بدانم روش استاندارد تخمین $\mu$ و واریانس تخمین، پس از مشاهده همه $Y_{ij}$ چگونه است. اولین رویکرد من این است که با میانگین \begin{equation} \hat{\mu} =\frac{1}{MN} \sum_{i=1}^{N}\sum_{j=1}^M Y_ تخمین بزنم. {ij} \end{equation} من میتوانم واریانس $\hat{\mu}$ را محاسبه کنم که \begin{equation} \text{Var}(\hat{\mu}) = به دست میآید. \frac{\sigma^2_{\varepsilon}}{MN} + \frac{\sigma^2_E}{N} \end{equation} میتوانم برآورد کنم $\sigma^2_\varepsilon$ با \begin{معادله } \hat{\sigma^2_\varepsilon} = \frac{1}{N(M-1)}\sum_{i=1}^M\sum_{j=1}^N(Y_{ij} - \bar{Y_i})^2 \end{معادله} اما من مطمئن نیستم که چگونه $\sigma^2_E$ را تخمین بزنم. | تخمین پارامتر هنگام داشتن دو منبع خطا |
92898 | یک فرآیند تجربی $\\{v_T(\theta)، T\geq 1 \\}$ را در نظر بگیرید و فرض کنید که به طور ضعیفی به فرآیند تصادفی $\\{ v(\theta) همگرا است. \theta \in \Theta\\}$.، یعنی $$ E^*(f(v_T(\theta)))\rightarrow E(f(v(\theta))) $$ به عنوان $T\rightarrow \infty $ $\forall f$ تابع پیوسته یکنواخت محدود شده در $\Theta$ و $\forall \theta \در \Theta$ که در آن $E^*$ نشان دهنده انتظار بیرونی است. من می دانم که این به معنای همگرایی در توزیع $\forall \theta \در \Theta$ به عنوان $T\rightarrow \infty$ است، یعنی $v_T(\theta)=O_p(1)$ $\forall \theta \در \Theta$ ، یعنی $$ \lim_{T \rightarrow \infty} F_T(a; \theta)=F(a;\theta) $$ $\forall a$ که در آن $F$ ممتد است، که $F_T(\cdot;\theta)$ cdf $v_T(\theta)$ و $F(\cdot;\theta)$ cdf از $v(\theta)$. سوال: آیا این به معنای $$ \sup_{\theta \in \Theta}v_T(\theta)=O_p(1) $$ نیز هست؟ | همگرایی ضعیف دلالت بر همگرایی یکنواخت در توزیع دارد؟ |
26288 | من سعی می کنم بفهمم که چگونه نسبت شانس ورود به سیستم را در رگرسیون لجستیک تفسیر کنم. فرض کنید من خروجی زیر را دارم: > mod1 = glm(factor(won) ~ bid, data=mydat, family=binomial(link=logit)) > summary(mod1) Call: glm(formula = factor(win) ~ bid، خانواده = دو جمله ای (پیوند = logit)، داده = mydat) باقیمانده انحراف: حداقل 1Q میانه 3Q حداکثر -1.5464 -0.6990 -0.6392 -0.5321 2.0124 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -2.133e+00 1.947e-02 -109.53 <2e-16 *** bid 2.494e-03 5.058e-05 49.32 <2e-16 *** -- - Signif کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف صفر: 83081 در 80337 درجه آزادی انحراف باقیمانده: 8064 80336 درجه آزادی AIC: 80649 تعداد تکرارهای امتیازدهی فیشر: 4 بنابراین معادله من به این صورت خواهد بود: $$\Pr(Y=1) = \frac{1}{1 + \exp\left(-[-2.13 + 0.002\times(\text{bid })]\right)}$$ از اینجا احتمالات را از تمام سطوح پیشنهادی محاسبه کردم.  من از این نمودار استفاده کرده ام تا بگویم در پیشنهاد 1000، احتمال برنده شدن x است. در هر سطح پیشنهادی، احتمال برنده شدن x است. من احساس میکنم که تفسیر من اشتباه است، زیرا به این فکر نمیکنم که اینها شانسی هستند. واقعاً چگونه باید این طرح/این نتایج را تفسیر کنم؟ | درک نسبت شانس در رگرسیون لجستیک |
92897 | فرض کنید یک داده با ابعاد N برای طبقه بندی به ما داده شده است. برای کنار آمدن با این کار، ممکن است طبقه بندی کننده ای را انتخاب کنیم که بیشتر با خواسته های ما مطابقت داشته باشد. با این حال، بدیهی است که هر طبقهبندیکنندهای قادر به طبقهبندی هر داده به دلایل بسیاری از جمله VCD نیست. حالا می خواهم بدانم آیا راهی برای محاسبه حداقل بعد VC مورد نیاز برای طبقه بندی کننده (فرضیه) برای طبقه بندی یک داده خاص وجود دارد؟ به عنوان مثال برای روشن تر شدن سوال من، طبقه بندی کننده ای با ابعاد VC 2 قادر به شکستن این مجموعه داده نیست: +++ --- +++ | چگونه می توان حداقل بعد vc مورد نیاز را برای یک طبقه بندی کننده برای طبقه بندی یک داده خاص محاسبه کرد |
114476 | من سعی می کنم چیزهای کمی در مورد مدل سازی رگرسیون حداقل مربعات تعمیم یافته یاد بگیرم. در اینجا مدل هایی وجود دارد که من استفاده می کنم.، X1 ~ Y1 + Y2، X2 ~ Y1 + Y4، همه متغیرهای پیش بینی، Y1، Y2 و Y4 به طور قابل توجهی با متغیرهای پاسخ مرتبط هستند، اما زمانی که تفاوت دو متغیر پاسخ را گرفتم و تفاوت دو متغیر پیش بینی، چیزی شبیه به این: X3 = X1 - X2، Y5 = Y2 - Y4، و از این مدل X3 ~ Y1 + Y5 استفاده کنید در حال حاضر، Y5 مهم نیست: من در مورد آن سردرگم هستم. همانطور که، Y5 فقط تفاوت Y2 و Y3 است و X3 تفاوت X1 و X2 است. کسی میتونه منو راهنمایی کنه؟ | تفسیر نتایج مدل رگرسیون |
92890 | _**من تجزیه و تحلیل خود را در R انجام خواهم داد، اما از پاسخ های ریاضی عمومی قدردانی می شود. من به اندازه کافی نمی دانم تا مطمئن شوم که رویکردهای استفاده شده در موضوعات دیگری که مشاهده کردم برای مورد من معتبر هستند، بنابراین می خواهم مطمئن باشم. در اینجا زمینه، برای کسانی که با این نوع داده ها آشنا نیستند ساده شده است: من به داده های بیان ژن نگاه می کنم. در اصل، من تعدادی دسته دارم که هر کدام مجموعه ای از ژن ها را در خود دارند. هر ژن دارای یک مقدار بیان مرتبط است (مقدار موجود در نمونه من، **log2 تبدیل شده**). من همچنین سه شرط مختلف آزمون دارم (این شرایط کاملاً مستقل از یکدیگر هستند!). چیزی که این به معنای توزیع است. به عنوان مثال: _فرایند بیولوژیکی A:_ * حاوی X **ژن** و **سطح بیان** آنها برای **شرط 1** * حاوی Y **ژن** و **سطح بیان** آنها برای * *شرط 2** * شامل **ژن*های Z** و **سطح بیان** آنها برای **شرط 3**  من می خواهم این سه توزیع را **_compare_** کنم. منظورم از مقایسه این است که ببینم آیا تغییرات بزرگی در شکل یا گسترش توزیع وجود دارد یا خیر. **ویرایش: همانطور که پیتر اشاره کرد، چیزی که من واقعاً به آن علاقه مند هستم 1. مکان، 2) گسترش و 3) شکل با توجه به سه توزیع مورد مقایسه ** است. به عنوان مثال، اگر شرط 1 طوری حرکت کند که تقریباً به طور کامل زیر محور x قرار گیرد و شرط 2 کاملاً بالای آن باشد، این تغییر بسیار جالب خواهد بود. علاوه بر این، اگر دو شرط از محور بالاتر می رفت و یکی پایین می آمد، این نیز یک تغییر جالب خواهد بود. اساساً، من به راهی برای مقایسه توزیعها برای بزرگترین تغییرات در چگالی متوسط در بالا یا پایین محور x نیاز دارم. من حدود 400+ فرآیند بیولوژیکی دارم. مشکل این است که برای برخی از آنها، اندازه نمونه ممکن است به طور قابل توجهی متفاوت باشد (ژن (n) = 3، 25، 10 برای سه شرط به ترتیب در مورد من یک مثال شدید خواهد بود) بنابراین فکر نمیکنم صرفاً مقایسه میانگینها مفید باشد. یک رویکرد منصفانه مقایسه بصری با 400 پلات لوبیا زمان بسیار زیادی طول خواهد کشید و من همچنین میخواهم آماری را برای اثبات نتیجهگیری که ممکن است انجام دهم، ارائه دهد. من اساساً می خواهم چیزی مانند درمان بافت با شرایط 1 تاثیری بر افزایش بیان بیشتر ژن هایی که در فرآیند بیولوژیکی A نقش دارند بگویم. علاوه بر این، اگر این رویکرد نامعتبر است یا راه بهتری برای بررسی این داده ها وجود دارد، من آماده پیشنهادات هستم. متشکرم. | توزیع ها را با حجم نمونه ناهموار و کوچک مقایسه کنید |
104283 | من در آمار یک نوبت کامل هستم، بنابراین سوالی که می خواهم بپرسم ممکن است بسیار غیرحرفه ای به نظر برسد **هشدار** :) بنابراین، ما وظیفه داریم یک سیستم صف G/G/1 را برای پارامترهای خاص شبیه سازی کنیم (توزیع Erlang فرض شده). من توانسته ام (امیدوارم) بفهمم که میانگین و تعداد مراحل باید چقدر باشد. ما از QtsPlus برای شبیه سازی استفاده می کنیم و قرار است این کار را برای 10000 مشتری انجام دهیم. QtsPlus، با این حال، دارای فیلدهای پارامتر زیر است: * تعداد معاملات برای شبیه سازی * فرکانس پیام نقطه بازرسی * حداکثر اندازه احتمال و من در مورد آن بسیار گیج هستم. کدام فیلد با تعداد کلاینت ها مطابقت دارد و چه مقادیری را باید در فیلدهای دیگر وارد کنم؟ خیلی ممنون | راهنمای شبیه سازی G/G/1 |
92892 | من روی یک متاآنالیز داده های شیوع کار می کنم. هدف بدست آوردن تخمین شیوع در سطح کشور است. مسئله اصلی این است که بیماری با سن همبستگی بالایی دارد و سن نمونه مطالعات وارد شده بسیار ناهمگن است. فقط میانه سن برای اکثر مطالعات در دسترس است، بنابراین نمی توانم از ترفندهای SMR مانند استفاده کنم. من فکر کردم که می توانم از متارگرسیون برای حل این مشکل استفاده کنم، از جمله سن به عنوان یک اثر ثابت و معرفی اثرات تصادفی در سطح مطالعه و سطح کشور. ایده (که من از فوکس و همکاران گرفتم) این بود که از این مدل برای پیشبینیهای شیوع خاص کشور برای هر گروه سنی 5 ساله از 15 تا 60 سال (با استفاده از میانگین سنی گروه) استفاده کنیم و این پیشبینیها را اعمال کنیم. به اندازه واقعی جمعیت هر یک از آن گروه ها در کشور انتخاب شده، به منظور به دست آوردن کل جمعیت آلوده و محاسبه شیوع تعدیل شده با سن در جمعیت 60-15 ساله از آن. من چندین راه را برای انجام این کار با استفاده از R با بسته های meta و mgcv امتحان کردم. من نتایج رضایت بخشی به دست آوردم، اما به نتایج خود چندان مطمئن نیستم و از بازخوردهایم قدردانی می کنم. ابتدا برخی از داده های شبیه سازی شده است، سپس شرح رویکردهای مختلف من: data<-data.frame(id_study=c(UK1, UK2, UK3, FRA1, FRA2, BEL1, GER1، GER2، GER3)، country=c(بریتانیا، بریتانیا، بریتانیا، فرانسه، فرانسه، بلژیک، آلمان، آلمان، آلمان)، n_events=c(91,49,18 ,10,50,6,9,10,22)، n_total=c(3041,580,252,480,887,256,400,206,300), study_median_age=c(25,50,58,30,42,26,27,28,36) ** استاندارد استاندارد با اثر تصادفی متا. من از «metaprop()» برای به دست آوردن اولین تخمین از شیوع در هر کشور بدون در نظر گرفتن سن و برای به دست آوردن وزن استفاده کردم. همانطور که انتظار می رفت، ناهمگونی بسیار بالا بود، بنابراین از وزن های مدل اثرات تصادفی استفاده کردم. meta <- metaprop(event=n_events,n=n_total,byvar=country,sm=PLOGIT,method.tau=REML,data=data) summary(meta) data$weight<-meta$w.random I از متا برای به دست آوردن اولین تخمین از شیوع بدون در نظر گرفتن سن و برای به دست آوردن وزن استفاده کرد. همانطور که انتظار می رفت، ناهمگونی بسیار بالا بود، بنابراین از وزن های مدل اثرات تصادفی استفاده کردم. **مدل افزودنی تعمیم یافته** برای گنجاندن سن با بسته mgcv. پارامترهای مدل «gam()» (k و sp) با استفاده از شماره BIC و GCV انتخاب شدند (در اینجا نشان داده نشده است). model <- gam(cbind(n_events,n_total-n_events) ~ s(study_median_age,bs=cr,k=4,sp=2) + s(country,bs=re),weights=weight, data= داده، خانواده = binomial (link=logit)، روش = REML) نمودار (model,pages=1,residuals=T, all.terms=T, shade=T) پیشبینیها برای هر گروه سنی از این مدل به دست آمد که قبلا توضیح داده شد. CI مستقیماً با استفاده از «predict.gam()» به دست آمد که از ماتریس کوواریانس خلفی بیزی پارامترها استفاده می کند. برای مثال با توجه به انگلستان: newdat<-data.frame(country=UK,study_median_age=seq(17,57,5)) link<-predict(model,newdat,type=link,se.fit=T) $fit linkse<-predict(model,newdat,type=link,se.fit=T)$se newdat$prev<-model$family$linkinv(link) newdat$CIinf<-model$family$linkinv(link-1.96*linkse) newdat$CIsup<-model$family$linkinv(link+1.96*linkse) plot(newdat $prev~newdat$study_median_age، type=l,ylim=c(0,.12)) lines(newdat$CIinf~newdat$study_median_age, lty=2) lines(newdat$CIsup~newdat$study_median_age, lty=2) نتایج رضایت بخش بود، نشان دهنده افزایش شیوع با افزایش سن، با فواصل اطمینان منسجم. من با استفاده از ساختار جمعیت کشور، یک شیوع کلی برای کشور به دست آوردم (نشان داده نشده، امیدوارم به اندازه کافی واضح باشد). با این حال، متوجه شدم که باید اثرات تصادفی در سطح مطالعه را نیز لحاظ کنم، زیرا ناهمگنی بالایی وجود داشت (حتی اگر من ناهمگنی را پس از متارگرسیون محاسبه نکردم). **معرفی اثر تصادفی در سطح مطالعه** با بسته gamm4. از آنجایی که مدلهای «mgcv» نمیتوانند آنقدر پارامترهای اثر تصادفی را کنترل کنند، مجبور شدم به «gamm4» سوئیچ کنم. model2 <- gamm4(cbind(n_events,n_total-n_events) ~ s(study_median_age,bs=cr,k=4) + s(country,bs=re), random=~(1|id_study)، داده =data,weights=weight, family=binomial(link=logit)) plot(model2$gam,pages=1,residuals=T, all.terms=T, shade=T) link<-predict(model2$gam,newdat,type=link,se.fit=T)$fit linkse <-predict(model2$gam,newdat,type=link,se.fit=T)$se newdat$prev2<-model$family$linkinv(پیوند) newdat$CIinf2<-model$family$linkinv(link-1.96*linkse) newdat$CIsup2<-model$family$linkinv(link+1.96*linkse) plot(newdat$prev2~newdat$study_median_age، type=l, col=red,ylim=c(0,0.11)) خطوط (newdat$CIinf2~newdat$study_median_age, lty=2,col=red) lines(newdat$CIsup2~newdat$study_median_age, lty=2,col=red) خطوط(newdat$prev~newdatn_age,_ type=l,ylim=c(0,.12)) خطوط (newdat$CIinf~newdat$study_median_age، lty=2) خطوط (newdat$CIsup~newdat$study_median_age، lty=2) از زمان مطالعه | فراتحلیل شیوع در سطح کشور |
104286 | من نقاط داده $N$ دارم که دارای ویژگیهای $d$ در یک GP و ماتریس کوواریانس آنها $K$ هستند و میخواهم آنتروپی دیفرانسیل آن GP را محاسبه کنم. آیا این فرمول درست است؟ $E(I)= \frac{1}{2} \log((2πe)^d \det(K))$ علاوه بر این، با توجه به $L$ تجزیه cholesky $K$ آیا راه سریع تری وجود دارد؟ متشکرم | آنتروپی دیفرانسیل فرآیند گاوسی |
13590 | من به دنبال معادله ای برای محاسبه فواصل مناسب برای تعیین مقادیر بسیار کم، کم، متوسط، زیاد، بسیار زیاد برای داده های پویا هستم. به عنوان مثال اگر مجموعه داده من از 0 تا 100 محدوده بسیار کم = <=20، کم = 21-40، متوسط = 41-60، بالا = 61-80، بسیار زیاد = > 81 باشد، اما اگر محدوده کوچک باشد، باید وجود داشته باشد. فواصل کمتر به عنوان مثال، اگر محدوده 20 باشد، باید فقط یک بازه کم و زیاد وجود داشته باشد. فواصل باید فواصل منطقی باشند تا بتوان از آنها برای نمایش گرافیکی استفاده کرد. فواصل منطقی بسته به مجموعه داده شامل فواصل 5، 10، 25، 50، 100 و غیره خواهد بود. آیا معادله ای وجود دارد که بتواند فواصل مناسب را برای هر مجموعه داده منحصر به فرد تعیین کند؟ | چگونه به صورت پویا تعیین فاصله داده ها را محاسبه کنیم؟ |
45547 | من در حال حاضر در حال اندازه گیری زمان اجرای برنامه ای هستم که نوشته ام، اما مطمئن نیستم که چگونه نتایج را نشان دهم. این برنامه دو حالت دارد: حالت عادی و حالت تحلیل. در حالت تحلیل، همیشه کندتر از حالت عادی اجرا می شود. من به عامل کاهش سرعت متحمل شده توسط حالت تجزیه و تحلیل علاقه مند هستم. من زمان اجرا را برای ورودی های مختلف برنامه اندازه گیری کرده ام و زمان اجرا را برای حالت عادی ($b_i$) و حالت تحلیل ($a_i$) یادداشت کرده ام. اساساً، من میتوانم به دو روش برای مشخص کردن کاهش سرعت فکر کنم: کندی متوسط = $AS$ = $\frac{1}{n}(\frac{a_1}{b_1} + ... + \frac{a_n}{b_n })$ کاهش سرعت مرکب = $CS$ = $\frac{a_1 + ... + a_n}{b_1 + ... + b_n}$ کدام روش ارجحیت دارد و چرا؟ من دیده ام که بسته به مقادیر واقعی $a_i$ و $b_i$، یکی از $AS$ و $CS$ می تواند بزرگتر باشد. آیا شرایط بصری و دقیقی در $a_i، b_i$ برای $AS > CS$ و بالعکس وجود دارد؟ | بهترین راه برای مشخص کردن عامل کاهش سرعت |
13598 | من نمیپرسم آیا الگوریتمهایی (شاید الگوریتمهای ژنتیک) در R برای ساخت ویژگی (استنتاج پیشبینیکنندههای نامزد از پیشبینیکنندههای موجود) وجود دارد؟ من به روالی فکر می کنم تا توان های مرتبه بالاتر، برهمکنش ها، نسبت ها، و ترکیبات خطی و توابع غیرخطی متغیرهای موجود (sin، cos، atan و غیره) را آزمایش کنم. این می تواند یک روال فیلتر یا پوشش باشد (یعنی عدم استفاده از الگوریتم یادگیری یا استفاده از آن برای تعریف تناسب ویژگی). هدف من «کشف» نسبتهای بالقوه معنادار و موارد مشابه پیشبینیکنندههای موجود است. با تشکر | ویژگی ساخت در R |
71248 | در موضوع قبلی، محاسبه مرز تصمیم یک مدل SVM خطی (محاسبه مرز تصمیم یک مدل SVM خطی)، کد R زیر به عنوان روشی برای محاسبه فرمول ابرصفحه و حاشیه های آن، با توجه به مجموعه ورودی داده شد. از hyperparameters: library(kernlab) set.seed(101) x <- rbind(ماتریس(rnorm(120)،،2)، ماتریس(rnorm(120، میانگین=3)،،، 2)) y <- ماتریس(c(rep(1،60)،rep(-1،60)) ) svp <- ksvm(x,y,type=C-svc) plot(svp,data=x) alpha(svp) # بردارهای پشتیبانی که شاخص ها را می توان با alphaindex(svp) b(svp) # (منفی) طرح قطع (مقیاس (x)، col=y+2، pch=y+2، xlab=، ylab=) w <- colSums(coef(svp)[[1]] * x[unlist(alphaindex(svp))،]) b <- b(svp) abline(b/w[1],-w[2]/w[1]) abline((b+1)/w[1],-w[2]/w[1],lty=2) abline( (b-1)/w[1]،-w[2]/w[1]، lty=2) با این حال، در نمودار حاصل، هیچ یک از بردارهای پشتیبان در واقع روی هیچ یک از خطوط حاشیه قرار نمیگیرند. اگر abline(b/w[1],-w[2]/w[1]) # فرض میشود که بیشینه بیشینه حاشیهای و abline ((b+1)/w[1],-w[2] باشد. /w[1],lty=2) #قرار است حاشیه yi = +1 و abline باشد((b-1)/w[1],-w[2]/w[1],lty=2) #قرار است حاشیه yi = -1 باشد، پس چرا بردارهای پشتیبانی، `alpha(svp)` روی حاشیه +1 یا -1 قرار نمی گیرند؟ حالا قبل از اینکه بگویید به این دلیل است که «kernelf = «rbfkernel»» به طور پیشفرض و هایپرپلن و حاشیههای ما مطابق «rbfkernel» تبدیل نشدهاند، میتوانم صریحاً هسته خطی را با «kernelf = «vanilladot» نام ببرم (یعنی «svp» <- ksvm(x,y,type=C-svc,kernelf=vanilladot)`) و hyperplane و حاشیهها حتی دورتر از بردارهای پشتیبانی تعریفشده توسط «alpha(svp)» هستند، سپس وقتی «kernelf=rbfkernel»». توجه داشته باشید که وقتی از بسته «e1071» استفاده میکنم، نتایج مشابهی پیدا میکنم (که شاید تعجبآور نباشد زیرا هر دو بر اساس کتابخانه «LIBSVM» هستند). اگر کار اشتباهی انجام میدهم یا نکته مهمی را از دست میدهم (مثلاً «ksvm()» به طور پیشفرض از یک حاشیه نرم استفاده میکند و متغیرهای شل را از من پنهان میکند)، لطفاً به من اطلاع دهید! در اینجا کد من برای هسته خطی با بسته `kernlab` است: library(kernlab) set.seed(101) x <- rbind(matrix(rnorm(120),,2),matrix(rnorm(120,mean=3) ),،2)) y <- ماتریس(c(rep(1,60),rep(-1,60))) svp <- ksvm(x,y,type=C-svc,kernelf=vanilladot) plot(svp,data=x) plot(x, col=y+2, pch=y+2, xlab=, ylab =) w <- colSums(coef(svp)[[1]] * x[unlist(alphaindex(svp))،]) b <- b(svp) نمودار(svp,data=x) abline(b/w[1],-w[2]/w[1]) abline((b+1)/w[1],-w[2]/w[1 ],lty=2) abline((b-1)/w[1],-w[2]/w[1],lty=2) | بردارهای پشتیبانی در خطوط حاشیه برای بستههای e1071 و kernlab در R نمیافتند؟ |
3772 | من در حال ارزیابی اثربخشی 5 روش مختلف برای پیش بینی یک نتیجه باینری خاص هستم (آنها را موفقیت و شکست بنامیم). داده ها به این صورت هستند: روش Sample_Size Success Percent_Success 1 28 4 0.14 2 19 4 0.21 3 24 7 0.29 4 21 13 0.61 5 22 9 0.40 من می خواهم آزمونی را از بین این 5 روش برتر انجام دهم. به عبارت دیگر، من می خواهم روش ها را به ترتیب عملکرد به روش 1 > روش 2 > ... روش 5 سفارش دهم. برای جلوگیری از مقایسه های متعدد، قصد دارم یک آزمایش جایگشت در خطوط زیر انجام دهم: مرحله 1: تمام داده ها را با هم جمع کنید تا حجم نمونه کلی 114 با کلی 37 موفقیت باشد. مرحله 2: به طور تصادفی داده ها را به 5 گروه با اندازه های نمونه متناظر 28، 19، 24، 21 و 22 تقسیم کنید. مرحله 3: اگر ترتیب مشاهده شده درصد_موفقیت از مرحله 2 با ترتیب داده های من مطابقت داشته باشد، شمارنده را افزایش دهید. مرحله 4: مراحل 2 و 3 را چندین بار تکرار کنید (مثلاً 10000). p-value مطلوب = مقدار شمارنده نهایی / 10000. سؤالات: 1. آیا روش فوق خوب است؟ 2. آیا چیزی در R وجود دارد که من را قادر به انجام آزمایش فوق کند؟ 3. هر گونه پیشنهاد برای بهبود یا روش های جایگزین مفید خواهد بود. | آیا می توانم از تست های جایگشت برای جلوگیری از مشکل مقایسه چندگانه در زمینه نسبت ها استفاده کنم؟ |
69954 | من یک مجموعه داده دارم که هر متغیر چندین مقدار را در مقیاس اسمی می گیرد. ارزیابهای جداگانه میتوانند با استفاده از بیش از یک مقدار در هر متغیر، یک واحد معین را رتبهبندی کنند. به این معنی که در هر واحد/رتبهدهنده چندین رتبه وجود دارد. چگونه از اینجا پیش برویم؟ من می دانم که برنامه های افزودنی کاپا (Fleiss) برای پشتیبانی از رتبه بندی های متعدد در هر واحد/موضوع وجود دارد. اساساً، برنامه افزودنی محاسبه کاپاهای جداگانه در هر مقدار مقیاس را پیشنهاد میکند و سپس یک مجموع را تشکیل میدهد. آیا استراتژی های جایگزین وجود دارد؟ کاپا ترکیبی دقیقاً چگونه محاسبه می شود و موارد کمکی در این مورد: خطای استاندارد، ...؟ (متاسفانه، در حال حاضر، من به نسخه ای از روش های آماری برای نرخ ها و نسبت ها فلیس دسترسی ندارم، زیرا کتابخانه ما به مکان جدیدی منتقل می شود:/ فصل 18 حاوی جزئیات لازم است) علاوه بر این: چگونه این مورد برای آلفای کریپندورف (که من هم در نظر دارم)؟ | قابلیت اطمینان بین رتبهدهنده: دادههای اسمی، اما * رتبهبندیهای متعدد در واحد/موضوع*، ارزیابیکنندههای مختلف |
57615 | در زیر یک سوال از یک مقاله امتحانی در مورد ارزیابی عملکرد موتورهای جستجو آمده است. تا به امروز در کتاب درسی خود و به معنای واقعی کلمه نزدیک به 50 صفحه وب را جستجو کردم و برای هیچ یک از موارد استدلال قانع کننده ای پیدا نکردم. آیا کسی می تواند کمک کند تا در این مورد روشن شود؟ شما یک الگوریتم بازیابی جدید ایجاد کرده اید و می خواهید عملکرد آن را ارزیابی کنید. برای این منظور، شما یک میلیارد صفحه وب را خزیده اید. آزمایشها با زیرساخت فعلی شما خیلی طول میکشد، بنابراین شما بهطور تصادفی از 10 درصد دادهها نمونهگیری میکنید، 100 پرسوجو روی نمونه اجرا میکنید و از افراد انسانی میخواهید که ارتباط 100 نتیجه برتر را ارزیابی کنند. پس از میانگین گیری، میانگین یادآوری و دقت زیر را در رتبه های مختلف مشاهده می کنید: رتبه: 1 2 3 4 5 ... 10 20 ... 50 ... 100 فراخوان: 0.09 0.15 0.20 0.25 0.30 ... 0.50 ... 0. 0.90 ... 1.00 دقت: 0.90 0.75 0.67 0.63 0.60 ... 0.50 0.35 ... 0.18 ... 0.10 اجرای مجدد همان آزمایش را بدون نمونه گیری از داده ها در نظر بگیرید. آیا انتظار دارید اعداد زیر افزایش، کاهش یا ثابت بمانند: i. فراخوان در رتبه 10. ii. دقت در رتبه 10. iii. دقت در فراخوان 50 درصد IV میانگین دقت متوسط v. مساحت زیر منحنی ROC | دقت، فراخوانی و مساحت زیر منحنی ROC با افزایش حجم نمونه |
57612 | آیا کسی می تواند یک کتاب خوب یا برخی مواد خواندنی دیگر در مورد تجزیه و تحلیل اندازه گیری مکرر با استفاده از مدل ترکیبی توصیه کند. با تشکر. هانا | کتاب تجزیه و تحلیل اندازه گیری مکرر |
57617 | من دو سوال مرتبط در مورد محاسبه فاصله اطمینان بوت استرپ ناپارامتری برای خطای پیش بینی دارم. **تنظیم:** من یک نمونه S از یک جامعه داده P و یک یادگیرنده L دارم و میخواهم فاصله اطمینان 95% را برای برآوردگر بوت استرپ 0.632 $\hat{\theta}_{.632bs}$ از محاسبه کنم. خطای پیشبینی $\theta$ طبقهبندیکننده C که توسط یادگیرنده L در نمونه S آموخته شد. **Q1** اولین سوال من این است که آیا روش زیر برای محاسبه فاصله اطمینان با روش صدک، صحیح است. به طور خاص، نمونهگیری از مجموعه آزمایشی $S_{test}$ در مرحله 2 برای ارزیابی طبقهبندی کننده من. من خواندهام که برای هر مشاهده، باید پیشبینیهای نمونههای بوت استرپ که شامل آن مشاهدات نیستند را پیگیری کنید. به نظر من این به همان چیزی می رسد؟ من فاصله اطمینان را با روش صدک به صورت زیر محاسبه میکنم: 1. خطای جایگزینی $\theta_{resub}$ طبقهبندیکننده C که توسط L در S 2 آموخته شده را محاسبه میکنم. من N (به عنوان مثال = 1000) تخمینهای بوت استرپ $\hat را محاسبه میکنم. {\theta}_i^*$ خطای پیشبینی در S به شرح زیر است: برای i = 1: 1000 انجام دهید: * نمونه از S با جایگزینی تا زمانی که یک نمونه جدید $S_{train}$ به اندازه S داشته باشم * از همه نمونههایی که در مرحله 1 نمونهبرداری نشدهاند، دوباره با جایگزینی نمونه میگیرم تا زمانی که یک نمونه $S_{آزمایش داشته باشم }$ با اندازه S * من یک طبقهبندی کننده را در $S_{train}$ یاد میگیرم و آن را در $S_{test}$ ارزیابی میکنم. عملکرد طبقهبندی کننده در $S_{test}$ تخمین بوت استرپ من $\hat{\theta}_i^*$ است. 3. برای هر نمونه i از N نمونه بوت استرپ، تخمین $\hat{\theta}^*_{i,.632bs}$ را به عنوان $\hat{\theta}^*_{i,.632bs} = محاسبه میکنم. 0.368 \cdot \theta_{resub} + 0.632 \cdot \hat{\theta}_i^*$ 4. من 1000 را مرتب کردم تخمین های بوت استرپ 5. من 25مین تخمین بوت استرپ را به عنوان کران پایینی فاصله اطمینان و تخمین 975 را به عنوان کران بالای فاصله اطمینان انتخاب می کنم. **Q2** سوال دوم من این است که چگونه می توان فاصله اطمینان را برای تخمینگر بوت استرپ 0.632 برای خطای پیش بینی با روش شتاب اصلاح شده (BCa) محاسبه کرد. یعنی، من متوجه شدم که در اینجا یک مشکل دارم: برای تصحیح تعصب به یک عبارت $b$ و برای ترم $a$، عبارت شتاب (http://www.tau.ac.il/~) نیاز دارم. saharon/Boot/10.1.1.133.8405.pdf p1153-1154). * برای محاسبه $b$، من به تخمینی از خطای پیشبینی $\hat{\theta}$ از نمونه کامل S نیاز دارم. مطمئن نیستم که چگونه این کار را انجام دهم. من چندین احتمال را می بینم: میانگین $\hat{\theta}^*_{i,.632bs}$ روی همه $i$، خطای تعویض مجدد، خطای توقف، انجام اعتبارسنجی متقابل در S... ? * من همین مشکل را برای محاسبه $a$ دارم. در اینجا، من به تخمینهای jackknife نیاز دارم که از همه دادههای S به جز یک نمونه $x_i$ ($S \setminus x_i$) استفاده کند. اینجا دقیقا چه چیزی را محاسبه کنم؟ آیا این محاسبات همان محاسبهکننده تخمینگر اعتبارسنجی متقاطع ترک یک خروجی برای خطای پیشبینی است؟ من سعی کردم پاسخ ها را در ادبیات پیدا کنم، اما در درک مقالاتی که پیدا کردم مشکل دارم، بنابراین امیدوارم کسی بتواند در اینجا به من کمک کند. متشکرم | محاسبه فاصله اطمینان بوت استرپ برای خطای پیش بینی با صدک و روش BCa |
99846 | وقتی آزمایشهای تصادفی انجام میشود، معمولاً از «دادههای پایه» به عنوان متغیرهای کنترلی برای افزایش دقت استفاده میشود. در مورد متغیرهای کنترلی در روش تفاوت در تفاوت چطور؟ منظور من این است که آیا باید از داده های پایه (زمان 1) برای آن استفاده شود یا فقط از متغیرهای کنترل در آن زمان (زمان 1، زمان 2) استفاده شود. | استفاده از متغیرهای کنترلی در روش Difference in Difference |
57618 | من می خواهم دو شاخص سیمپسون را از دو جمعیت مختلف مقایسه کنم. من واریانس آنها را محاسبه کرده ام، همانطور که در مقاله اصلی سیمپسون در مورد اندازه گیری های تنوع انجام شده است و یک فاصله اطمینان برای هر یک از آنها با استفاده از فرمول محاسبه کرده ام: $(S-2\sqrt{\text{var}}، S+2\sqrt{\text{var}})$، همانطور که در مقاله منتشر شده پیشنهاد شده است. چیزی که میخواهم پیدا کنم، مقدار p فرضیه صفر است که دو شاخص برابر هستند. من خواندهام که کسی میتواند برای مقایسه آنها تست t Welch انجام دهد، اما هیچ مقاله یا کتابی با چنین کاربردی پیدا نکردم. سؤالات من در مورد این برنامه عبارتند از: 1) در آزمون t Welch واریانس های مخرج به ترتیب بر $n_1$ و $n_2$ تقسیم می شوند، زیرا SE میانگین است. حدس میزنم در این مورد و بر اساس فرمول CI، ما نباید بر $n$ تقسیم کنیم و فقط جذر مجموع واریانسها را داشته باشیم. درسته؟ 2) درجات آزادی برای یک آزمون t ساده $n_1+n_2-2$ است، در حالی که برای آزمون t Welch یک فرمول کاملاً پیچیده است که نتیجه نزدیک را ارائه می دهد اما با $n_1+n_2-2$ یکسان نیست. . کدام یک باید استفاده شود؟ 3) منظور از $n_1$ و $n_2$ در بالا، تعداد دسته های مختلف در هر جمعیت به جای تعداد کل در هر مورد است. درسته؟ اگر کسی بتواند در مورد این سوالات به من کمک کند بسیار سپاسگزار خواهم بود و حتی اگر کسی بتواند نوعی مستندات را ارائه دهد تا بتوانم تحلیل خود را توجیه کنم. مرجع: Simpson, E. H. (1949), Measurement of diversity. _Nature_ , **163** , 688 (pdf) | مقایسه دو شاخص سیمپسون با استفاده از آزمون t |
57610 | همسرم در حال ارائه یک مطالعه در یک جلسه پوستر کنفرانس است. او از انواعی همبستگی دارد [1] که در آن خودارزیابی کودکان از آسم (احساس کردم خیلی بهتر یا احساس کردم کمی بهتر یا بهتر نبودم) با ارزیابی های پزشکان مطابقت دارد (0 تا 6، اعداد پایین بهتر هستند. ). و ما نیاز به تصویری برای پوستر داریم. من فکر می کردم که نمودار همبستگی راه حلی است، اما مقادیر x و y هر دو در مقیاس های گسسته هستند، بنابراین اگر آنها را رسم کنید، (1) ابری از مقادیر برای دیدن وجود ندارد و (2) ) روند آشکاری وجود ندارد. در اینجا سطلها (ارزش + تعداد رخدادها) برای افرادی است که احساس بهتری داشتند: >>> print(a_lot_better) {0: 66, 1: 9, 2: 3, 3: 2} و در اینجا سطلهایی برای افرادی وجود دارد که احساس کمی بهتر شد یا نه: >>> print(a_little_better) {0: 79, 1: 31, 2: 5, 3: 6, 6: 1} اگر اعداد را به این صورت جمع کنید: # python def print_dict(d): total = float(sum(d.values())) ترکیبی = 0.0 برای k، v در sorted(d.iteritems()) #def test_auth(self): #logger.debug(Calling search) # data_args = {auth_token: self.auth_token، extra_arg: asd} # answer = self.client.call_url(profile_auth, data=data_args) # #logger.debug(response: {0}.format(response.reason)) # self.assertEqual(response.status_code, 200): print({0}: {1}.format(k, v / total)) composite += (k * v) / total return composite شما این را دریافت می کنید: >>> print_dict(a_lot_better) 0: 0.825 1: 0.1125 2: 0.0375 3: 0.025 0.2625 >>> print_dict(a_little_better) 0: 0.647540983607 1: 0.254098360656 2: 0.0409836065574 3: 0.0491803278689 6: 0.00819672131147 0.5324 0.5325 متفاوت است، 0.00819672131147 0.5325 متفاوت است. اما من نمی دانم چگونه این را به صورت بصری ارائه دهم (حتی با فرض اینکه این یک خلاصه مشروع باشد). ** چگونه باید این داده ها را ارائه کنیم تا از نظر بصری آشکار شود که یک رابطه جالب و قابل توجه وجود دارد؟ | نمودار / تصویری برای رگرسیون دو جمله ای منفی |
57619 | من یک طرح ANCOVA 2X2 بین سوژهها را اجرا میکنم و در مورد یک چیز عجیب شگفتزده هستم: جدول خروجی ANCOVA هیچ اثر متقابل مهمی را نشان نمیدهد، اگرچه نمودار نمایه دو خط را نشان میدهد که از یکدیگر عبور میکنند، یعنی یک تعامل نامتعارف. پس چگونه می توان این یافته های به ظاهر متناقض را با هم تطبیق داد؟ آیا می توانم وجود یک اثر متقابل (که اتفاقاً بسیار منطقی است..) را بر اساس طرح با وجود عدم اهمیت آماری فرض کنم؟ و چرا بی اهمیت است; شاید به دلیل فقدان قدرت آماری؟ | طراحی 2×2 بین سوژه ها ANCOVA با غیر سیگ. اثر متقابل؛ اما نمودار نمایه عبور منحنی ها را نشان می دهد |
52137 | من این دادهها را جمعآوری کردهام، تعداد کاربرانی را که چند بار در یک فعالیت خاص شرکت میکنند، شمارش کردهام: درصد کاربران فعالیت 1 2,005,752 62.57% 2 1,005,669 31.37% 3 616,328 19.23% 4 408,575,38,39,15,00,15,00,00,00,00,00,00,000,00,000,000,000,00,00,00,00,00,00,000 $ 6 207,127 6.46% 7 154,861 4.83% 8 117,353 3.66% 9 90,143 2.81% 10 70,174 2.19% 11 55,196 1.714% 1.714 1.714 1.714 1.714% 1.714 1.714% 34,883 1.09% 14 28,027 0.87% 15 22,948 0.72% 17 18,629 0.58% 18 15,173 0.47% 19 12,376 0.310% 19 12,376 0.310% 0.310 0.310 0.72% 20. 0.26% (من ردیف های بیشتر را حذف کردم) توجه کنید که 1. هیچ کاربری 16 بار در این فعالیت شرکت نکرده است. می توان انتظار داشت حدود 20 هزار کاربر (~0.65٪) در آنجا وجود داشته باشد. 2. نمودار log-log محدب است، که نشان میدهد تعداد کاربران سریعتر از چند جملهای کاهش مییابد (یعنی این یک توزیع قانون قدرت نیست، همانطور که من، شاید سادهلوحانه، انتظار داشتم). احتمال اینکه عدم شرکت کاربران در فعالیت 16 بار یک تصادف آماری باشد در مقابل اشکال در جمع آوری داده ها چقدر است؟ به عنوان مثال، آیا رویکرد زیر معقول است؟ فرض کنید 20 هزار نفر با 16 فعالیت گم شده اند. آنها را به جدول اضافه کنید و chi-squared=20,076 را محاسبه کنید که برای 20 درجه آزادی بسیار بزرگ است، بنابراین این یک تصادف آماری نیست و باید یک اشکال جمع آوری داده وجود داشته باشد. PS. هیچ دلیل اساسی وجود ندارد که 16 را خاص کند. | چه زمانی داده های از دست رفته نشان دهنده یک اشکال جمع آوری داده ها است؟ |
52133 | همچنین، چگونه می توانم متوجه شوم که تفاوت معنی داری در تعداد مردان در دو جمعیت وجود دارد؟ لطفا در SPSS! | چگونه می توانم بفهمم که در یک جمعیت واحد تفاوت معنی داری در تعداد زن و مرد وجود دارد؟ |
52132 | من در حال حاضر روی یک مدل رگرسیونی کار می کنم که در آن فقط متغیرهای طبقه بندی/عاملی به عنوان متغیر مستقل دارم. متغیر وابسته من یک نسبت تبدیل شده لاجیت است. اجرای یک رگرسیون معمولی در R نسبتاً آسان است، زیرا R بهطور خودکار میداند چگونه بهمحض اینکه از نوع «عامل» هستند، کدنویسی کند. با این حال، این نوع کدگذاری همچنین به این معنی است که در دسته بندی از هر متغیر به عنوان خط پایه استفاده می شود و تفسیر آن را دشوار می کند. استاد من به من گفته است که به جای (-1 یا 1) فقط از کدگذاری افکت استفاده کنم، زیرا این به معنای استفاده از میانگین بزرگ برای رهگیری است. آیا کسی می داند چگونه با آن کنار بیاید؟ تا به حال امتحان کرده ام: gm <- mean(tapply(ds$ln.crea، ds$month, mean)) مدل <- lm(ln.crea ~ ماه + ماه* ماه + سال + سال* سال، داده = ds ، تضادها = لیست (gm = contr.sum)) فراخوانی: lm(فرمول = ln.crea ~ ماه + ماه * ماه + سال + سال * سال، داده = ds، کنتراست ها = لیست(گرم = کنتر.جمع)) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -0.89483 -0.19239 -0.03651 0.14955 0.89671 ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (فاصله) -3.244493 0.204502 -15.865 <2e-16 *** monthFeb -0.124035 0.144604 -0.858 0.3928 monthMar -0.361242460 -0.361242460 * monthApr -0.240314 0.144604 -1.662 0.0993. monthMay -0.109138 0.144604 -0.755 0.4520 monthJun -0.350185 0.144604 -2.422 0.0170 * monthJul 0.050518 0.144604 0.144604 0.74604 0.350185 -2.422 0.0170 ماه جولای 0.144604 -1.428 0.1562 ماهسپتامبر -0.134197 0.142327 -0.943 0.3478 ماه اکتبر -0.178182 0.142327 -1.252 0.2132 ماه1119 -0.2132 -0.2132 ماه1114230 -0.0. 0.4044 monthDec -0.147681 0.142327 -1.038 0.3017 year1999 0.482988 0.200196 2.413 0.0174 * سال2000 -0.0185019 0.0185019 0.200 -0.0185019 0.200 -0.0185019 سال2001 -0.166511 0.200196 -0.832 0.4073 سال2002 -0.056698 0.200196 -0.283 0.7775 سال2003 -0.173219 0.200886500. 0.013831 0.200196 0.069 0.9450 سال 2005 0.007362 0.200196 0.037 0.9707 سال 2006 -0.281472 0.200196 0.200196 -1.4065 -1.4065 0.200196 -1.332 0.1855 year2008 -0.248883 0.200196 -1.243 0.2164 year2009 -0.153083 0.200196 -0.765 0.4461 --- S کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطای استاندارد باقیمانده: 0.3391 در 113 درجه آزادی، R-squared چندگانه: 0.3626، R-squared تنظیم شده: 0.2385 F-آمار: 2.922 در 22 و 113 DF، p-value: 0.3626 | چگونه با کدگذاری افکت به جای کدگذاری ساختگی در R رگرسیون انجام دهیم؟ |
52130 | من دو نوع داده برای یک منطقه جغرافیایی دارم. یکی داده های حضور و غیاب گونه ها (برای دوزیستان، خزندگان و پرندگان) و دیگری دارای چندین متغیر محیطی برای یک منطقه (مانند دما و بارندگی) است. برای گونهها فاصله هلینگر و برای متغیرهای محیطی فاصله اقلیدسی را محاسبه کردم (وارههایی که قبلاً تبدیل شدهاند بنابراین همه دامنه از 0 تا 1 تغییر میکنند). من می خواهم الگوهای موجود در یک نقشه (تغییر عدم تشابه با استفاده از یک سلول کانونی) را با استفاده از همان رنگ برای محدوده مقادیر مشابه در نقشه های دوزیستان، خزندگان و پرندگان مقایسه کنم. مشکل من این است که چگونه می توان این نقشه ها را با فاصله محیطی مقایسه کرد. فاصله هلینگر از 0 تا sqrt(2) است و برای داده های من فاصله اقلیدسی حداکثر 2.11 است. همه نتایج از گونهها دارای توزیع نرمال هستند و من دادهها را با استفاده از فواصل مساوی طبقهبندی کردم (ArcMap)، اما نتایج حاصل از فاصله اقلیدسی به سمت چپ، با دم بلند به سمت راست منحرف میشوند و به همین دلیل نقشه بیشتر آبی است (به معنی فاصله کوچک)، از آنجایی که قرمزها به مقادیر کمی اما پراکنده نسبت داده می شوند. ایده اصلی من این بود که نتایج را از اقلیدسی تبدیل کنم به طوری که آنها یک max=sqrt(2) داشته باشند، اما مطمئن نیستم که درست باشد یا نه، زیرا از آنجایی که من می دانم فاصله اقلیدسی هیچ حد بالایی ندارد... هر کمکی بسیار قابل قدردانی خواهد بود!!! | چگونه می توان نتایج را با استفاده از فاصله هلینگر با خروجی های فاصله اقلیدسی مقایسه کرد؟ |
105620 | من یک تحلیل رگرسیون کاکس انجام می دهم تا نقش دو متغیر را در پیش بینی تبدیل بیماری تأیید کنم. قبلاً یک تحلیل ROC و یک رگرسیون لجستیک انجام دادم. همه این روش ها نقش مهمی از یکی از دو متغیر ('Var1') در پیش بینی وجود بیماری گزارش کردند. هنگامی که من رگرسیون کاکس را انجام دادم، فقط Var1 حفظ شد، اما بتای منفی (4945-) و در نتیجه نسبت خطر بسیار پایین به دست آمد. لطفاً واگرایی بین حساسیت بالای متغیر پیشبینیکننده («Sen» 90٪) در تجزیه و تحلیل ROC و چنین نسبت خطر کم را توضیح دهید. | ضریب رگرسیون منفی (رگرسیون کاکس) |
105623 | **زمینه** چند روز پیش اینجا پرسیدم: چگونه تعداد نقاط را برای خوشه بندی کاهش دهیم. به جای کاهش تعداد نقاط، یک روش تخمین تراکم هسته (KDE) به من پیشنهاد شد، راه حل های درستی می دهد و سریعتر از روش قبلی من است. **سوال** چیزی که اکنون در مورد آن کنجکاو هستم پیچیدگی این روش است. شاید من آن را به روشی بد (بیش از حد ساده) پیادهسازی کرده باشم، اینجا پیادهسازی c++ من است http://pastebin.com/gtStWjmA (به روش evalPrivate مراجعه کنید). اما با فرض اینکه من نقاط داده $m$ دارم و میخواهم از KDE در $n$ نقاط نمونه برداری کنم. سپس برای هر ارزیابی KDE باید تابع کرنل را m-time ارزیابی کنم. بنابراین پیچیدگی من $O(m^n)$ است و این خیلی زیاد است. اگر $m=60000$ و $n=1000$ من. سپس نمونه برداری از KDE برای یافتن ماکزیمم های محلی آن چند سال طول کشید. | نحوه افزایش سرعت تخمین چگالی هسته |
52138 | من بقای 5 ساله دو جمعیت را با ثابت نگه داشتن متغیرهای مختلف در هر بار محاسبه کردم و درصدهایی را بدست آوردم. می خواستم تعیین کنم که آیا این درصدها تفاوت قابل توجهی با یکدیگر دارند یا خیر. کسی میتونه لطفا منو راهنمایی کنه؟ | چگونه دو درصد بقا را برای دو جمعیت مختلف مقایسه کنیم؟ |
105626 | من با یک مشکل ناخوشایند با توزیع غیرمرکزی $\chi^2$ مواجه شده ام. من با متغیرهای تصادفی کار می کنم که به صورت $\chi^2_{\nu}(\lambda)$ توزیع می شوند، که $\nu$ درجه آزادی و $\lambda$ پارامتر غیر مرکزی است (که باید به نحوی تخمین زده شود) . در توزیعات چند متغیره پیوسته جلد 2 توسط S. Kotz، N. Balakrishnan، N. L. Johnson) گفته می شود که کرامر-رائو برای واریانس برآوردگرهای بی طرف $\hat{\lambda}$ است (صفحه 453، معادله. 29.39b): $$CRB_{\hat{\lambda}}=4(\theta\lambda^{-1}-1)^{-1}n^{-1}، $$ که در آن $n$- اندازه نمونه است، $\lambda$-مقدار واقعی پارامتر غیرمتمرکزی که در حال تخمین است و $\theta$ پارامتری است که تخمین های بالا و پایین زیر را دارد (صفحه 452، معادله. 29.36a): $1+\lambda^{-1}-\frac{1}{2}\nu\lambda^{-2}+\frac{1}{4}\nu^2\lambda^{- 3}\leq \theta\lambda^{-1}\sigma^{-2}\leq 1+\frac{5}{4}\lambda^{-1}-\frac{20\nu-13}{39}\lambda^{-2}، $$ و $\sigma$ واریانس نویز است. من سعی کردم رفتار $CRB_{\hat{\lambda}}$ را وقتی که $\lambda به 0$ می رسد، تجزیه و تحلیل کنم، اما به نظر من اینطور نیست دریافت من از یک قیاس از فیزیک یا آمار ریاضی استفاده میکنم. برای مثال، این مشکل زمانی به وجود میآید که مجذور فاصله اقلیدسی بین برخی از بردارهای تعیینشده و نمونه تجربی آن آلوده به نویز سفید گاوسی با میانگین صفر و واریانس برابر برای همه نقاط تخمین زده میشود. از بردار. و نتیجه ای که به دست آوردم ($CRB_{\hat{\lambda}}\to 0$ وقتی $\lambda \to 0$) مرا به این نتیجه می رساند که برای سطح ثابتی از نویز ($\sigma=\mbox) {const}$) می توان بردارهای بی نهایت نزدیک را با دقت عملا بی نهایت (تقریبا با واریانس تخمین صفر) تخمین زد. اما این نباید درست باشد. باید برعکس باشه پس مشکل کجاست؟ | Cramer-Rao برای برآورد پارامتر توزیع $\chi^2$ محدود شده است |
89177 | من در حال آماده کردن ارائه ای در مورد استراتژی های داده های از دست رفته هستم و شبیه سازی برای مقایسه حذف لیستی (LD) با EM انجام دادم. در اینجا چیزی است که من بر اساس ادبیات انتظار داشتم: 1. خطاهای استاندارد برای EM در تمام شرایط داده از دست رفته (MAR، MCAR، NMAR) کوچکتر خواهد بود. به http://psycnet.apa.org/journals/met/6/4/330/ مراجعه کنید. 2. EM برای شرایط MAR بی طرف خواهد بود، در حالی که LD بایاس خواهد بود. 3. EM و LD تحت NMAR سوگیری خواهند داشت، اما اگر متغیر کمکی را وارد کنم، EM کمتر خواهد بود. من همه چیز را درست یافته ام به جز شماره 1. در واقع، برای شرط MAR، خطاهای استاندارد بزرگتر بودند. من کدم را در زیر (در R) قرار داده ام. آیا کسی می تواند هر گونه خطا را ببیند؟ ##### یک تابع ایجاد کنید تا تخمین های EM را به راحتی استخراج کنید. تصحیح = getparam.norm(ss، thetahat، corr = TRUE)$mu[2] اگر (!is.null(names(data.matrix))) { names(cor.corrected) = names(data.matrix) row.names(cor.corrected) = names(data.matrix)} return(cor.corrected) } #### پارامترهای شبیه سازی را تنظیم کنید n = 200 تکرار = 1000 sr = .3 #### پیش تخصیص نتایج = data.frame(ماتریس(nrow=interations، ncol=7)) names(نتایج) = c(LD_mcar، EM_mcar، LD_mar، EM_mar، LD_nmar، EM_nmar، estimate) برای (i در 1:nrow(نتایج)){ #### تولید داده sig = ماتریس(c(1, .3, .8, .8, 1، 0.3، 0.5، 0.3، 1)، nrow=3) data = data.frame(mvrnorm(n, mu=c(0,0,0)، Sigma=sig) ) names(data) = c (y، x، a) #### ایجاد داده های از دست رفته mcar = نمونه (1:n، اندازه=sr*n) mar = which(data$x<quantile(sr)) nmar = which(data$y<quantile(sr)) y_mcar = data$y; y_mcar[mcar] = NA y_mar = data$y; y_mar[mar] = NA y_nmar = data$y; y_nmar[nmar] = NA #### تخمین با استفاده از نتایج حذف$LD_mcar[i] = میانگین (y_mcar, na.rm=T) نتایج$LD_mar[i] = میانگین (y_mar, na.rm=T) نتایج$LD_nmar [i] = mean(y_nmar, na.rm=T) #### تخمین با نتایج em$EM_mcar[i] = em(data.matrix(data.frame(x=data$x, y=y_mcar))) نتایج$EM_mar[i] = em(data.matrix(data.frame(x=data$x, y=y_mar, a =data$a))) ### شامل نتایج متغیر aux$EM_nmar[i] = em(data.matrix(data.frame(x=data$x, y=y_nmar, a=data$a))) results$estimate[i] = mean(data$y) } mns = colMeans(نتایج) sds = اعمال (نتایج، 2، sd) mns sds | شبیه سازی EM در مقابل حذف لیستی - نتایج غیرمنتظره |
102936 | من نتوانستم زیربخش برجسته شده _همبستگی و علیت_ دیوید کنی را که از وب سایت کنی دانلود کردم، درک کنم.  | چرا این فرمول خودهمبستگی برقرار است؟ |
60001 | من در حال نوشتن مقاله ای در مورد روشی هستم تا اهمیت آماری را تعیین کنم که آیا نمونه ای از منابع در شرایط خاص توافق متقابل دارند یا خیر. این کار با شمارش تعداد منابع موجود در نمونه که با فرضیه موافق هستند، و تعداد منابعی که مخالف هستند، و در معرض فرمولی قرار دادن آنها برای تعیین حداقل سطح اهمیت انجام می شود. لطفاً به من بگویید: (1) روش بهتری از قبل برای انجام کاری که تلاش می کنم وجود دارد، (2) اگر روش من منطقی به نظر می رسد، (3) هر گونه نقص در روش من. لطفاً در نظر داشته باشید که هدف فقط تعیین توافق متقابل است و نتیجه یک احتمال واقعی نیست بلکه یک احتمال حداقل بر اساس مفروضات اولیه است. * * * به منظور توسعه فرمول مورد استفاده برای محاسبه اهمیت آماری، من مقدمات منطقی را برای اهمیت آماری به شرح زیر تعریف کردم: 1. اهمیت آماری یک فرض که یک مکتب فکری واحد را در همه منابع نشان میدهد به طور تصاعدی با هر نقل قول پشتیبانی افزایش مییابد. ، و با هر نقل قول متناقض به صورت تصاعدی کاهش می یابد. 2. اهمیت همیشه یک عدد اعشاری است. هرچه مقدار به 1 نزدیکتر باشد، از نظر آماری معنی دارتر است. 3. یک عبارت با تعداد مساوی از نقل قول های موافق و متناقض دارای اهمیت 0 خواهد بود. هر عدد مثبت نشان دهنده اکثریت حمایت کننده است. یقین مطلق 1 است که در عمل هرگز نمی توان به آن رسید. 4. با توجه به اینکه از لحاظ نظری تعداد نامتناهی گزاره ممکن وجود دارد، احتمال اینکه 3 گزاره مترادف در منابع مستقل به طور تصادفی بیان شوند، عملاً صفر است. با پیروی از این منطق میتوان مطمئن بود که اگر 3 نقل قول برای حمایت از یک گزاره و 0 نقل قول متناقض وجود داشته باشد، میتوانیم از اهمیت آماری مطمئن شویم. این حداقل سطح پذیرش را برای از نظر آماری معنی دار نشان می دهد که به عنوان سطح آلفا شناخته می شود. 5. من همچنین برچسب احتمالاً مهم را به عنوان 2 فرض مترادف که در منابع مستقل ساخته شده اند، با 0 فرض متناقض می دانم. مقدمات احتمالاً معنی دار از نظر آماری معنی دار در نظر گرفته نمی شوند، اما این برچسب به شناسایی عباراتی کمک می کند که فقط علامت را از دست داده اند، که ممکن است برای اهداف عملی تر مفید باشد. فرمولی که من برای مطابقت با مقدمات بالا ایجاد کردم به شرح زیر است: t = 1-(1/((y^2+ 1)/(x^2+ 1))) y تعداد نقل قول هایی را نشان می دهد که این فرض را پشتیبانی می کنند. x تعداد نقل قول هایی را نشان می دهد که با فرض در تضاد هستند. نتیجه t یک احتمال در زمینه ما نیست، بلکه نماینده مقداری از مقدمات منطقی است که فرمول بر اساس آن است. این فرمول محاسبه می کند که 3 نقل قول پشتیبان با 0 نقل قول متناقض مقدار 0.9 دارند. بنابراین تمام مقادیر بالاتر یا مساوی 0.9 از نظر آماری معنی دار هستند. این فرمول همچنین محاسبه میکند که اگر 1 نقل قول متناقض وجود داشته باشد، به 5 نقل قول پشتیبان نیاز داریم تا همچنان حداقل از نظر آماری به همان اندازه معنادار در نظر گرفته شود که 3 نقل قول پشتیبان با 0 نقل قول متناقض، یعنی با مقداری بزرگتر یا مساوی 0.9 باشد. احتمالاً معنی دار مقدار 0.8 دارد، اگرچه می خواهم به خواننده یادآوری کنم که هنوز از نظر آماری معنی دار نیست. لازم به ذکر است که اگر 3 یا بیشتر نقل قول متناقض در فرض وجود داشته باشد و همه نقل قول های متناقض با یکدیگر توافق داشته باشند، علاوه بر این که 3 یا چند نقل قول حمایتی مترادف برای فرض وجود داشته باشد، این نشان دهنده وجود دو نقل قول متفاوت است. مکاتب فکری در فرضیه جدول زیر نتایج فرمول را برای حداکثر 20 نقل قول که از فرض بالقوه (ردیف ها) پشتیبانی می کنند و حداکثر 6 نقل قول متناقض با فرض بالقوه (ستون) را نشان می دهد. 0 1 2 3 4 5 6 در مقابل 0 0.000 1 0.500 0.000 2 0.800 0.600 0.000 3 0.900 0.800 0.500 0.000 4 0.98210. 0.000 5 0.962 0.923 0.808 0.615 0.346 0.000 6 0.973 0.946 0.865 0.730 0.541 0.297 0.000 7 0.900.900 0.900 0.660 0.480 0.260 8 0.985 0.969 0.923 0.846 0.738 0.600 0.431 9 0.988 0.976 0.939 0.878 0.878 0.789300.789300. 0.980 0.950 0.901 0.832 0.743 0.634 11 0.992 0.984 0.959 0.918 0.861 0.787 0.697 12 0.993 0.93910.986 0.993 0.986 0.821 0.745 13 0.994 0.988 0.971 0.941 0.900 0.847 0.782 14 0.995 0.990 0.975 0.949 0.914 0.81910.819 0.814 0.8691 0.978 0.956 0.925 0.885 0.836 16 0.996 0.992 0.981 0.961 0.934 0.899 0.856 17 0.997 0.993 0.996 0.960 0.960 0.872 18 0.997 0.994 0.985 0.969 0.948 | روش جدید برای متاآنالیز برای تعیین توافق بین منابع متعدد |
102933 | فرض کنید من دو متغیر تصادفی مستقل گسسته $X$ و $Y$ دارم، و به مقدار مورد انتظار متغیر تصادفی $W$ علاقه مند هستم، جایی که: $$ W= \text{sign}(X-Y). $$ بنابراین، W 1 است اگر $X>Y$، -1 اگر $Y>X$ و 0 در غیر این صورت. توزیعهای $X$ و $Y$ را هر کدام ده بار نمونهبرداری میکنم و به من $\\{X_1, \dots, X_{10}\\}$ and $\\{Y_1, \dots, Y_{10}\ میدهم. \}$. این دو روش را برای تخمین $\text{E}\\{W\\}$ $$ \quad\quad\bar{W} = \frac{1}{10}\sum_{i=1} در نظر بگیرید } W_{i,i}, \\\ \text{and, } \quad\quad \bar{W}' = \frac{1}{100}\sum_{i=1}^{10}\sum_{j=1}^{10} W_{i,j}, \\\ \text{where } \quad W_{i ,j} = \text{sign}(X_i - Y_j) $$ می دانم که $\text{Var}\\{\bar{W}\\} = \frac{1}{10}\text{Var}\\{W\\}$، اما $\text{Var}\\{\bar{W}'\\}$ چیست و چگونه میتوانم تخمین بزنم آن را از 20 نمونه من؟ | واریانس میانگین نمونه برای نمونه های وابسته |
60000 | من آزمایشی را انجام دادم که در آن هر شرکتکننده باید 1 تصویر را از یک نمایشگر 4 تصویری انتخاب میکرد و اندازهگیری کردم که آیا تصویری که انتخاب کردهاند از دسته A است یا خیر. میخواهم میانگین نسبت تصاویر انتخاب شده از دسته A را با نسبت واقعی تصاویر مقایسه کنم. از دسته A. به عنوان مثال: یک آزمایش {A، A، B، C} خواهد بود که در آن A، B، C برای دسته هر تصویر است. بسته به اینکه شرکتکننده تصویری را از دسته A انتخاب کرده باشد یا خیر، معیار وابسته من 0/1 است. از آنجایی که دو تصویر از چهار تصویر از دسته A هستند، شانس انتخاب A (اگر اولویتی برای A وجود ندارد) در اینجا 1/2 است. سطح شانس یک متغیر برای هر کارآزمایی است به طوری که بین 1 تا 3 تصویر از دسته A وجود دارد (از این رو شانس 0.25، 0.5، 0.75) هر شرکت کننده دارای تعداد معینی آزمایش (نه برای همه افراد یکسان) است. که فرض می شود مستقل از یکدیگر هستند. بنابراین من چیزی شبیه به این دارم: مشارکت آزمایشی نسبت_از_انتخاب_در_الف 1 1 0.5 1 1 2 0.25 0 1 3 0.75 0 ... و من می خواهم سوژه هایم را به عنوان عوامل تصادفی داشته باشم. من ابتدا به این فکر میکردم که یک مدل ترکیبی انجام دهم زیرا هیچ مشکلی برای اجرای آن برای توزیع دوجملهای وجود ندارد (پاسخ شرکتکنندگان من) اما نمیدانم چگونه نتیجه را با سطح شانس مقایسه کنم (نسبت تصاویر در دسته A) . مشکل اصلی در این واقعیت نهفته است که شانس در هر آزمایش متفاوت است (اما من مطمئن نیستم که با یک سطح شانس ثابت هم کار کنم!؟) من به این فکر کردم که یک اندازه گیری انجام دهم و سطح شانس را از شرکت کننده ام کم کنم. پاسخ در هر آزمایش و آزمایش که آیا این میانگین به طور قابل توجهی بزرگتر از 0 است یا خیر. با این حال من نمی دانم چگونه این کار را در یک مدل ترکیبی انجام دهم زیرا داده های من با یک مدل دوجمله ای یا یک مدل گاوسی مطابقت ندارند... از این رو من در جستجوی آزمایشی هستم که از نظر فنی صحیح باشد. هر توصیه ای؟ خواندن که می تواند کمک کند؟ | مقایسه با سطح شانس وابسته به آزمایش |
102932 | بنابراین من روی مشکلی کار می کنم که در آن می خواهم مجموعه ای از موضوعات LDA را از یک مجموعه استخراج کنم و سپس توزیع آن موضوعات را در مجموعه های دیگر مقایسه کنم. بنابراین اساساً میخواهم موضوعات را قفل کنم و بعد متوجه شوم که یک مجموعه دیگر چقدر شبیه یا متفاوت از مجموعه اصلی است. من امیدوار بودم که کسی بتواند ابزار یا روش انجام این نوع مقایسه را به من بگوید؟ کاربرد خاص من مربوط به مقایسه روزنامه های محلی و ملی است. من مجموعه ای از مقالات روزنامه های سراسری دارم و قبلاً از gensim برای استخراج موضوعات استفاده کرده ام. اکنون مجموعهای از روزنامههای محلی دارم که در همان دوره زمانی ضبط شدهاند. بنابراین من می خواهم توزیع موضوعات مشابه در روزنامه ملی را با روزنامه های محلی مقایسه کنم. البته میخواهم ساختار موضوع را هم در مجموعههای ملی و هم در مجموعههای محلی (مانند تغییر احتمال وقوع همزمان کلمات برای یک موضوع در دو مجموعه مختلف) بررسی کنم. من در بستههای R «topicmodels» و پایتون «gensim» به اطراف نگاه کردم، اما شانسی نداشتم. پیشنهادی دارید؟ | مقایسه توزیع موضوع بین اجسام با استفاده از تخصیص نهفته دیریکله و مدل های موضوعی R یا python gensim |
60005 | از یک طرف، من یک داده سری زمانی دما (dataset1) برای یک هفته دارم و میخواهم مدل همبستگی زمانی را با استفاده از تجزیه و تحلیل سریهای زمانی و انجام پیشبینی مقادیر پیشرو بسازم. داده ها کافی نیستند و الگوهای فصلی و روزانه را برای پیش بینی های دقیق در بر نمی گیرند. از طرف دیگر، من یک منبع داده دیگر (dataset2) دارم که کمی با منطقه مورد مطالعه فاصله دارد اما شامل مقدار کافی داده است که نشان دهنده اثرات فصلی و روزانه است. **سوال من**: من می نویسم تا بپرسم آیا می توان مدل همبستگی زمانی را بر اساس مجموعه داده 2 ساخت و آن را با داده 1 کالیبره کرد؟ (کالیبراسیون ضروری است زیرا مجموعه داده 2 به اندازه مجموعه داده 1 محلی نیست.) آنچه من می خواهم این است که الگوهای فصلی و روزانه را از مجموعه داده بزرگ (dataset2) به دست آوریم و پیش بینی ها را بر اساس مجموعه داده 1 انجام دهم که برای منطقه مورد مطالعه محلی هستند. به عبارت دیگر، استفاده از مجموعه داده ۲ برای ساخت مدلسازی همبستگی زمانی و انجام پیشبینیها بر اساس آن نمیتواند نتایج دقیقی را ارائه دهد. | ساخت مدل همبستگی زمانی توسط یک مجموعه داده و کالیبره کردن مدل با سایر مجموعه داده ها |
60004 | من چیزی شبیه به آن دارم: $$ Var\left( \frac{1}{2n-2} \sum_{i=1}^{n-1} \left( X_{i+1}-X_{i}\ راست)^{2} \right) $$ و من آن را به چیزی شبیه به آن تبدیل کردم (امیدوارم درست باشد): $$ \left(\frac{1}{2n-2}\right)^{2} \sum_{i=1}^{n-1} Var(X_{i+1}^{2}-2X_{i+1}X_{i}+X_{i}^{2}) $$ وقتی میدانم که: $EX=m$، $VarX=\sigma^{2}$، $E \overline{X}=m$ و $Var \overline{X}= بیشتر با آن کار میکنم. \frac{\sigma^{2}}{n}$ ? عنوان ممکن است گیج کننده باشد زیرا من تفاوت متغیر تصادفی یکسانی دارم (فقط با شاخص های مختلف)، اما فکر می کنم یکسان است. | نحوه تبدیل $Var(X-Y)^{2}$ |
89172 | من مفهوم مقیاس بندی ماتریس داده برای استفاده در مدل رگرسیون خطی را درک می کنم. به عنوان مثال، در R می توانید از: scaled.data <- scale(data, scale=TRUE) استفاده کنید، تنها سوال من این است که برای مشاهدات جدیدی که می خواهم مقادیر خروجی را پیش بینی کنم، چگونه به درستی مقیاس می شوند؟ آیا scaled.new <- (جدید - mean(data)) / std(data) خواهد بود؟ | چگونه می توان مشاهدات جدید را برای انجام پیش بینی ها در زمانی که مدل با داده های مقیاس بندی شده برازش داده شد مقیاس بندی کرد؟ |
14336 | آیا بسته ای در R وجود دارد که روش حداکثر درستنمایی وزنی (وارم، 1996) را برای تخمین پارامترهای شخص در مدل های راش اجرا کند؟ | آیا بسته R وجود دارد که حداکثر احتمال وزنی را برای مدل های Rasch پیاده سازی کند؟ |
113177 | من ادبیاتی خواندهام که جنگلهای تصادفی نمیتوانند بیش از حد به آنها بپردازند. در حالی که این عالی به نظر می رسد، به نظر می رسد بیش از حد خوب باشد که درست باشد. آیا ممکن است rf ها بیش از حد فیت شوند؟ | جنگل تصادفی نمی تواند بیش از حد مناسب باشد؟ |
96371 | اغلب متون آمار کاربردی مقدماتی میانگین را از میانه متمایز می کند (اغلب در زمینه آمار توصیفی و انگیزه جمع بندی گرایش مرکزی با استفاده از میانگین، میانه و حالت) با توضیح این که میانگین به پرت در داده های نمونه و/یا حساس است. نسبت به توزیع های جمعیتی کج، و این به عنوان توجیهی برای این ادعا استفاده می شود که وقتی داده ها متقارن نیستند، میانه ترجیح داده می شود. به عنوان مثال: > بهترین معیار گرایش مرکزی برای یک مجموعه داده معین، اغلب به روش توزیع مقادیر بستگی دارد... وقتی داده ها متقارن نباشند، میانه اغلب بهترین معیار برای سنجش گرایش مرکزی است. از آنجایی که میانگین نسبت به مشاهدات شدید حساس است، در جهت > مقادیر داده های بیرونی کشیده می شود و در نتیجه ممکن است بیش از حد > متورم یا بیش از حد تخلیه شود. ، ویرایش دوم (P&G > در دسترس بود، BTW، آنها را از هم جدا نمی کرد se_.) نویسندگان گرایش مرکزی را اینگونه تعریف می کنند: متداول ترین مشخصه مورد بررسی مجموعه ای از داده ها، مرکز آن است، یا نقطه ای که مشاهدات در مورد آن تمایل به خوشه بندی دارند _فقط از میانه، نقطه استفاده کنید، زیرا فقط استفاده از میانگین زمانی که داده ها/توزیع ها متقارن هستند، همان چیزی است که می گوییم فقط زمانی از میانگین استفاده کنید که برابر با میانه باشد. **ویرایش:** ووبر به درستی اشاره می کند که من معیارهای قوی گرایش مرکزی را با میانه ترکیب می کنم، بنابراین مهم است که به خاطر داشته باشید که در حال بحث در مورد چارچوب بندی خاص میانگین حسابی در مقابل میانه در آمارهای کاربردی مقدماتی هستم. جایی که، به کنار، سایر معیارهای گرایش مرکزی انگیزه ندارند). به جای قضاوت در مورد فایده میانگین بر اساس میزان انحراف آن از رفتار میانه، نباید اینها را صرفاً به عنوان دو معیار مختلف مرکزیت درک کنیم. به عبارت دیگر حساس بودن به چولگی از ویژگی های میانگین است. به همان اندازه می توان استدلال کرد که خوب میانه خوب نیست، زیرا تا حد زیادی به چولگی حساس نیست، بنابراین فقط زمانی از آن استفاده کنید که برابر با میانگین باشد. (حالت کاملاً معقولانه با این سؤال درگیر نیست.) | آیا زمانی که داده ها دارای انحراف هستند باید از میانگین استفاده شود؟ |
113173 | من روی یک رگرسیون خطی فضایی کار می کنم و می توانم بگویم که بین متغیرهای کمکی همخطی وجود دارد. آیا می توانم از تصاویر PCA (Principal Component Analysis) به جای متغیرهای کمکی اصلی برای تخمین متغیر وابسته استفاده کنم؟ من PC1=متغیر 1، PC2=متغیر 2 و غیره را فرض می کنم. یا آیا روش دیگری برای حل مشکل هم خطی وجود دارد؟ | جزء اصلی (PC) به عنوان جایگزینی برای متغیرهای کمکی خطی؟ |
113176 | تفاوت بین انتساب و پیش بینی چیست؟ تنها چیزی که می دانم، پیش بینی اصطلاحی است که در تحلیل سری های زمانی استفاده می شود، که به معنای پیش بینی ارزش آینده با در نظر گرفتن روند داده های تاریخی است. Imputation یک استراتژی برای تکمیل داده ها است. من برای سوال خودم چند پاسخ فکر کرده ام. اما تا اینجا، اینها چیزی است که من دریافت کردم: پیش بینی با در نظر گرفتن روند داده های تاریخی انجام می شود، در حالی که imputation داده ها (هر یک از مشاهده ها) را به عنوان متغیر تصادفی می بیند، بنابراین باید توزیع تاریخ را در نظر بگیریم. اصطلاح پیشبینی برای پیشبینی ارزش آتی استفاده میشود، در حالی که از تعبیر برای پیشبینی مقدار گمشده استفاده میشود. روش پیشبینی هرگز به دادههای ناشناخته مربوط نمیشود (در این مورد، هر مقداری که مشاهده نشده است)، در حالی که رویه انتساب ممکن است به دادههای ناشناخته (در این مورد، دادههای مشاهده نشده) بستگی داشته باشد (افت اطلاعات). | تفاوت بین انتساب و پیش بینی |
21926 | من سوالات زیر را قبل از بیش از یک متغیر نتیجه (وابسته) در رگرسیون لجستیک ترتیبی پرسیده ام چگونه می توان بیش از یک متغیر وابسته (طبقه ای) را در رگرسیون لجستیک مدیریت کرد؟ استفاده از مدل راش برای توضیح روابط بین مجموعهای از متغیرهای وابسته و مستقل استفاده از تحلیل بیشتر بر روی عوامل تشکیلشده توسط تحلیل مؤلفههای اصلی در پاسخهای رگرسیونی سؤالات بالا به من کمک میکند تا بفهمم با دادههایم چه کاری میتوان انجام داد. دادههای من شامل 2 متغیر مستقل (درآمد و دادههای مستمر سنوات) با متغیرهای کنترل (دادههای دوگانه یا طبقهای) است و من یک متغیر وابسته با 6 پروکسی دارم، مثلاً برای متغیر وابسته توسعه کسبوکار (متغیر پنهان)، شش سؤال در 5 سؤال پرسیده شد. مقیاس لیکرت نقطه ای (داده های طبقه ای- ترتیبی) افزایش در سود، فروش، اندازه، بازاریابی، دارایی و نیروی کار (متغیرهای آشکار). من می خواهم رابطه بین متغیر وابسته و مستقل را پیدا کنم. من می خواهم از مدل اندازه گیری برای پیدا کردن این موضوع استفاده کنم. من از http://en.wikipedia.org/wiki/Latent_variable_model متوجه شدم که می توانم از مدل متغیر پنهان استفاده کنم. من بسیار مطمئن هستم که متغیرهای آشکار من مقولهای هستند و فکر میکنم متغیر پنهان من نیز مقولهای است (باید بدانم)، بنابراین به نظر میرسد تجزیه و تحلیل کلاس پنهان بهترین انتخاب برای دادههای من باشد. سوال من این است که: * آیا من درست می گویم که تجزیه و تحلیل کلاس پنهان برای داده های من بهترین است یا باید به چیز دیگری فکر کنم؟ * آیا می توانید مثالی بزنید که متغیر پنهان پیوسته و متغیر آشکار مقوله ای است؟ اینها موقعیت هایی هستند که نیاز به استفاده از تحلیل صفت پنهان وجود دارد. من فقط این سوال را می پرسم تا متغیر پنهان خود را به عنوان پیوسته یا مقوله ای روشن کنم. * من می دانم که برای تجزیه و تحلیل کلاس پنهان، نرم افزار LatentGold و Mplus بهترین هستند اما خرید آنها گران است، آیا فکر می کنید یک نرم افزار رایگان Lem می تواند هدف من را برآورده کند، زیرا می خواهم در تجزیه و تحلیل کلاس پنهان فاکتور و رگرسیون انجام دهم؟ یا در مورد SATA چه فکری می کنید؟ * در تحلیل کلاس پنهان می توان روش خوشه ای، تحلیل عاملی و رگرسیون را برای داده های طبقه بندی انجام داد. آیا می توان بیش از آن را در آن انجام داد، مانند مدل سازی معادلات ساختاری و تحلیل مسیر برای داده های طبقه بندی شده و غیره؟ * تحلیل کلاس نهفته بیشتر در پزشکی و روانشناسی و کمتر در اقتصاد توسعه یا کاربردی استفاده می شود. آیا می توانم استفاده از تحلیل کلاس پنهان را برای تحقیقات مرتبط با تجارت (ترکیبی از حوزه اقتصاد مدیریت و توسعه) توجیه کنم. پیشاپیش از پاسخ ها متشکرم | مدل کلاس نهفته |
89171 | پکیج caret (trific btw) دارای مدل های زیادی است اما اگر می خواهید از مدلی استفاده کنید که داخلی نیست، راهی وجود دارد که در طرح کلی اینجا توضیح داده شده است http://caret.r-forge.r-project .org/custom_models.html. بازتولید مثال ارائه شده در آنجا به خوبی کار می کند. من سعی می کنم این کار را برای مدل شبکه عصبی رگرسیون عمومی grnn() انجام دهم و با مشکلاتی مواجه شدم که نمی توانم آن را برطرف کنم. مثال کد قابل تکرار من این است: library(caret) x <- rep(1:100); y <- x^2+x*rnorm(100,0,1); tr <- data.frame(y=y,x=x) grnnFit <- function(dat، params) smooth(learn(dat)، sigma=params$sigma) #train grnnPred <- function(mod، newx) guess( mod، as.matrix(newx)) #predict grnnSort <- function(x) x[order(x$sigma)،] #مرتب کردن نتایج #لیست پارامترها/توابع lpgrnn <- list(library=grnn, type=Reggression, parameters=data.frame(parameter=sigma, class=numeric, label=Sigma) , grid=data.frame(sigma=c(.1, .2, .3)), #تنها یک پارامتر تنظیم sigma fit=grnnFit, predict=grnnPred، prob=NULL، sort=grnnSort) set.seed(998) fitControl <- trainControl(method=cv, number=10) set.seed(825) res <- train(y=tr[,- 1], x=tr[,1], method=lpgrnn, metric=RMSE, trControl = fitControl) پیام خطا این است: > res <\- train(y=tr[,-1], x=tr[,1], method=lpgrnn, metric=RMSE, trControl = > fitControl) خطا در train.default(y = tr[, -1 ]، x = tr[، 1]، روش = > lpgrnn، متریک = RMSE، : تلاش برای اعمال غیر تابع getModelInfo(grnn) یک لیست خالی برمی گرداند > getModelInfo(grnn) named list() > برخلاف مدل های دیگر، به عنوان مثال. getModelInfo(nnet) برمی گرداند > getModelInfo(nnet) $nnet $nnet$label [1] شبکه عصبی $nnet$library [1] nnet $nnet$loop NULL $nnet$type [1] طبقه بندی رگرسیون $nnet$parameters پارامتر کلاس برچسب 1 عددی اندازه #واحدهای پنهان 2 عددی فروپاشی Weight Decay $nnet$ تابع شبکه (x, y, len = NULL) expand.grid(size = ((1:len) * 2) - 1, decay = c(0, 10^seq(-1, -4, طول = لن - 1))) تابع $nnet$fit (x, y, wts, param, lev, last, classProbs, ...) { dat <- x dat$.outcome <- y if (!is.null(wts)) { out <- nnet(.outcome ~ ., data = dat، وزن = wts، اندازه = param$size، decay = param$decay، .. .) } else out <- nnet(.outcome ~ ., data = dat, size = param$size, decay = param$decay, ...) out } $nnet$predict function (modelFit, newdata, submodels = NULL) { if (modelFit$problemType == Classification) { out <- predict(modelFit, newdata, type = class) } else { out <- predict (modelFit، newdata، type = raw) } out } $nnet$prob تابع (modelFit, newdata, submodels = NULL) { out <- predict(modelFit, newdata) if (ncol(as.data.frame(out)) == 1) { out <- cbind(out, 1 - out) dimnames(out)[ [2]] <- rev(modelFit$obsLevels) } out } تابع $nnet$varImp (شیء، ...) { imp <- caret:::GarsonWeights(object, ...) if (ncol(imp) > 1) { imp <- cbind(apply(imp, 1, mean), imp) colnames(imp)[1] <- Overall } else { imp <- as.data.frame(imp) names(imp) <- Overall } if (!is.null(object$xNames)) rownames(imp) <- object$xNames imp } تابع $nnet$predictors (x، ...) if (hasTerms(x)) پیش بینی کننده (x$terms) other NA $ nnet$برچسبها [1] شبکه عصبی نظمسازی L2 تابع $nnet$levels (x) x$lev $nnet$ تابع مرتبسازی (x) x[سفارش (x$size، -x$decay)، ] | برای استفاده از مدل سفارشی در بسته caret() راهنمایی درخواست شده است |
112485 | کدام بسته بقا در R به صراحت برای متغیرهای وابسته به زمان اجازه می دهد؟ منظورم به صراحت این است که بسته به مدل های خود اجازه می دهد که یک شیء بقا را با شکل Surv(شروع، توقف، رویداد) بپذیرند. Surv (شروع، توقف، دستگیری. زمان) ~ fin + سن + سن: توقف + پریو، داده = Rossi.2) من می خواهم بسته هایی را با مدل های قدرتمندتر شناسایی کنم این فرم را بپذیرید | بسته های بقا در R که متغیرهای وابسته به زمان را امکان پذیر می کند |
21920 | برآوردگر حداقل تعیین کننده کوواریانس (MCD) ممکن است برای دستیابی به استحکام در هنگام تخمین ماتریس کوواریانس استفاده شود. به دنبال زیرمجموعه نقاط داده $h$ (از $n > h$) می گردد که ماتریس کوواریانس آن دارای کوچکترین تعیین کننده است و کوواریانس آن نقاط $h$ را محاسبه می کند. چرا به حداقل رساندن عامل تعیین کننده کار را انجام می دهد؟ | به دنبال شهودی در مورد برآوردگر MCD هستید |
21922 | من سعی می کنم جنسیت اسم های فرانسوی را بر اساس پسوند آنها پیش بینی کنم. من مجموعه ای از 10 هزار اسم دارم. برای هر اسم، ریشه را از پسوند جدا می کنم. من پنج نمونه ایجاد میکنم اما با طولهای پسوندهای مختلف: 1، 2، 3، 4 و 5. نام کلاسی که به هر نمونه اختصاص میدهم از جنسیت و طول پسوند تشکیل شده است، به عنوان مثال. f2 برای یک اسم مونث با پسوندی به طول 2. برای اینکه به شما ایده بدهیم که داده ها چگونه به نظر می رسند، در اینجا یک عصاره کوچک وجود دارد: http://pastebin.com/tn6DFJAy آیا فکر می کنید این یک رویکرد معقول است؟ آیا جداسازی کلاس ها بر اساس طول پسوند معقول است؟ و آیا تولید پنج نمونه برای هر اسم بی خطر است؟ برای پروژه ام، من از TiMBL استفاده می کنم. نتایج برای داده ها عبارتند از: http://pastebin.com/5wai65i1 | یادگیری مبتنی بر حافظه: پیش بینی جنسیت اسامی فرانسوی |
85416 | ||
83818 | ||
2925 | فرض کنید می خواهیم از توزیع زیر یک قرعه کشی ایجاد کنیم: $P(X=0) = 0.5$ $P(X=1) = 0.5$ اگرچه دو محدودیت وجود دارد: (الف) قرعه کشی باید بر اساس باشد. از یک رویداد خارجی (ب) مربوط به (الف)، قرعه کشی باید توسط شخص ثالث قابل تأیید باشد. به عبارت دیگر، یک شخص ثالث باید بتواند تأیید کند که قرعه کشی من در واقع $X = 0$ بوده است (مثلا). س 1: آیا می توان چنین سیستمی را ابداع کرد و اگر چنین است چگونه؟ Qn 2: آیا می توان سیستم را به متغیرهای گسسته با بیش از 2 نتیجه ممکن (مانند انداختن یک تاس) گسترش داد؟ Qn 3: به طور مشابه، آیا می توان آن را به متغیرهای پیوسته (به عنوان مثال، نرمال) گسترش داد؟ | |
90074 | منظور من چیزی شبیه به این نمودار است که فرکانس مشارکت های عمومی کاربر در GitHub را نشان می دهد.  من این نوع نمودار را بسیار دوست دارم، زیرا فکر می کنم آنها داده های مورد نظر را به روشی بسیار زیبا و به راحتی نمایش می دهند ، اما من نمی دانم نام آنها چیست، بنابراین نمی توانم به دنبال کتابخانه ای بگردم که به من کمک کند آنها را ایجاد کنم. کسی می تواند نام این نوع نمودار / نمودار را به من بگوید؟ | |
112489 | من 35 رویداد باینری دارم (حضور/غیبت با کد 1/0) که 7 نمونه سوال شده (QS 1...7) و 1 نمونه شناخته شده (KS) را توصیف می کند. از من خواسته می شود احتمال (در درصد) را ارائه دهم که چقدر احتمال دارد یکی از نمونه های سؤال شده (QS 1...7) ** مطابقت ** با نمونه شناخته شده (KS) باشد. با توجه به زمان و بودجه برای این پروژه، من حضور/غیبت را به جای تعداد دفعات دقیق رمزگذاری کردم. تا کنون من دو رویکرد دارم و به کمک نیاز دارم تا بفهمم چه کار کنم، بنابراین پیشاپیش از هر کسی تشکر می کنم! رویکرد 1: چه تعداد از رویدادهای باینری در مقایسه با نمونه شناخته شده وجود دارد؟ بنابراین این تعداد 1 در 35 رویداد است. KS شامل 29 مورد از 35 رویداد باینری (29 1 و 6 0) است. 7 نمونه سوال شده از تعداد یکسان رویداد تا رویدادهای بسیار کمی متغیر است: QS1: 29 از 35 رویداد، QS2: 6، QS3: 14، QS4: 16، QS5: 2، QS6: 4، QS7: 7. زیبا است. واضح است که QS1 بسیار شبیه به KS است، در حالی که QS5 نیست، فقط با شمارش تعداد رویدادها در مقایسه با عدد KS. اما چگونه می توانم این احتمال را بدست بیاورم که KS و QS1 همسان هستند؟ رویکرد 2: یک رویداد QS چند بار با رویداد KS مطابقت دارد؟ بنابراین این تعداد دفعاتی است که هر دو KS و QS برای هر یک از 35 رویداد 1 یا 0 تطبیق دارند. KS و QS1 در 25 رویداد از 35 رویداد یکسان هستند (هم با 1/حضور و هم 0/غیبت). بنابراین می توانیم بگوییم KS و QS1: مطابقت 25 با 10 KS و QS2 مطابقت ندارد: مطابقت 10 با 25 KS مطابقت ندارد و QS3: مطابقت 16 با 19 KS مطابقت ندارد و QS4: مطابقت 20 با 15 KS مطابقت ندارد و QS5: مطابقت 6 با 19 KS و QS6 مطابقت ندارد: مسابقه 8 با 27 KS و QS7 مطابقت ندارد: مطابقت 9 با 26 مطابقت ندارد باز هم کاملاً واضح است که QS1 بیش از هرکس دیگری (از جمله QS4) به مطابقت با الگوی KS نزدیک است. احتمال تطابق KS و QS1 چقدر است؟ من نمونههای QS را گنجاندهام تا بتوانم به نوعی خط پایه را در مورد اینکه این رویدادها، حتی در یک جمعیت کوچک، چند بار رخ میدهند، به دست بیاورم. بنابراین با شمارش حضور این رویدادها (مجموع 1ها در نمونههای QS)، من اکثراً 2 و 1 را دریافت میکنم که تنها یکی 6 است. میانگین 2.28 و انحراف استاندارد 1.5 است. آیا اجرای تست دوجمله ای روی KS و QS1 صحیح است؟ IOW، شانس اینکه دو نمونه مستقل 25 از 35 بار نتایج یکسانی داشته باشند چقدر است؟ این دقیقاً پاسخی به این سؤال نیست که احتمال مطابقت KS و QS1 چقدر است. باز هم از کمک و راهنمایی شما متشکرم. | چگونه می توانم احتمال تطابق را بر اساس شباهت رویدادهای دودویی محاسبه کنم؟ |
112965 | در این پی دی اف http://people.csail.mit.edu/yks/documents/classes/mlbook/pdf/chapter2.pdf صفحه 5 می گوید: با توجه به مجموعه ای از توابع $f(x_i,pa(x_i))$ غیر منفی و با مجموع 1، یک احتمال مشترک را به صورت زیر تعریف می کنیم: $$p(x_1,\dots, x_n)=\prod_i f(x_i,pa(x_i))$$ [...] رابطه بین احتمال شرطی $p(x_i|pa(x_i))$ و $f(x_i,pa(x_i))$، یک تابع چیست با دارای ویژگی های یک تابع شرطی است اما دلخواه است؟ همانطور که خواهید دید، این تابع در حقیقت یک و یک است. یعنی طبق تعریف احتمال مشترک، تابع $f(x_i,pa(x_i))$ $p(x_i|pa(x_i))$ است. چگونه می تواند از $f(x_i,pa(x_i))$ به $p(x_i|pa(x_i))$ برود و بیان کند که این تنها تابع ممکنی است که می توان به $f(x_i,pa(x_i) اختصاص داد. )) دلار؟ | |
15717 | کسی میدونه بهترین برنامه شبکه بیزی برای مک که رابط گرافیکی داره و رایگانه کدومه؟ | بهترین برنامه شبکه بیزی برای مک؟ |
112966 | با توجه به مجموعه داده عددی $\\{(x_i, y_i, z_i)\\}_{i = 1}^N$، می توان با ترسیم یک نقطه $P_i = (x_i, y_i)$ برای هر $i، یک نمودار پراکندگی ایجاد کرد. = 1، \dots N$ و هر نقطه را با شدت بسته به مقدار $z_i$ رنگ کنید. فرض کنید من این پراکندگی را ایجاد کرده ام. کاری که میخواهم انجام دهم این است که صفحه را با یک شبکه (مستطیلی، شش ضلعی، مثلثی، ... مهم نیست) تقسیم کنم و هر سلول از شبکه را با شدت متوسط تمام نقاطی که در سلول قرار میگیرند رنگ آمیزی کنم. علاوه بر این، فرض کنید من دو نمودار از این قبیل $Plot_A$ و $Plot_B$ (با مرزهای یکسان) برای دو مجموعه داده متفاوت $A$ و $B$ ایجاد کرده ام. اجازه دهید $c_i^k$ سلول $i$-امین نمودار $k$ باشد. من میخواهم نمودار سومی ایجاد کنم که $c_i^3 = c_i^1 * c_i^2$ برای هر $i$. متشکرم. | |
6809 | من در حال بررسی ساخت رابط های MATLAB و R برای C5.0 راس کوینلان هستم (برای کسانی که با آن آشنا نیستند، C5.0 یک الگوریتم درخت تصمیم و بسته نرم افزاری است؛ یک برنامه افزودنی از C4.5)، و من در تلاش برای دریافت یک درک اجزایی که باید بنویسم. تنها مستنداتی که برای C5.0 پیدا کردم در اینجا است، که یک آموزش برای See5 (یک رابط ویندوز برای C5.0؟) است. فایل tar همراه با Makefile است، اما هیچ فایل Readme یا هیچ سند اضافی وجود ندارد. با توجه به آنچه در آموزش بالا خواندم، C5.0 از یک نمایش مبتنی بر ASCII برای مدیریت ورودی ها و خروجی ها استفاده می کند، و همچنین در حال ساختن رابطی هستم که داده های باینری را مستقیماً بین MATLAB یا R و C5.0 ارسال می کند. آیا نمایش داده های C5.0 توسط هر نرم افزار یادگیری ماشینی/طبقه بندی دیگری استفاده می شود؟ آیا قبلاً کسی سعی کرده است که یک رابط MATLAB یا R برای ID3، C4.5 یا C5.0 بسازد؟ با تشکر | ساخت رابط های MATLAB و R برای C5.0 راس کوینلان |
15713 | من در تلاش برای اجرای یک رگرسیون OLS هستم: * **DV: تغییر وزن در طول یک سال (وزن اولیه - وزن نهایی)** * **IV: چه ورزش کنید یا نه. نسبت به افراد لاغرتر در هر واحد ورزش وزن بیشتری از دست خواهند داد. بنابراین، من میخواستم یک متغیر کنترلی اضافه کنم: * **CV: وزن اولیه اولیه.** اما اکنون **وزن اولیه** هم برای محاسبه متغیر وابسته و هم به عنوان متغیر کنترل استفاده میشود. آیا این اشکالی ندارد؟ آیا این فرضیه OLS را نقض می کند؟ | آیا گنجاندن یک معیار پایه به عنوان متغیر کنترل هنگام آزمایش تأثیر یک متغیر مستقل بر امتیازات تغییر معتبر است؟ |
45450 | ||
15710 | من در حال خواندن مقدمه کوتاه رگرسیون غیرخطی در R توسط جان فاکس (لینک) بودم و متعجب بودم که فرمول واریانس ضرایب از کجا آمده است (صفحه 1). فرمول ماتریس واریانس کوواریانس مانند رگرسیون خطی به نظر می رسد اما ماتریس پیش بینی X در آن فرمول معمولی با مشتقات جزئی تابع جایگزین می شود. کسی می تواند این را توضیح دهد؟ با تشکر برایان | واریانس ضرایب در رگرسیون غیرخطی |
79107 | بوت استرپ در R با استفاده از بوت {boot} و Boot {car} | |
21596 | ||
9744 | من سعی می کنم ادعای زیر را بفهمم: > اگر $t$-statistic بزرگتر از صفر باشد، نشان می دهد که متغیر > انفجاری است... اما آیا این بدان معناست که ریشه واحد دارد؟ در چارچوب آزمون **دیکی فولر**. | متغیر انفجاری چیست؟ |
18901 | ||
112914 | ||
13044 | من یک GLM دوجمله ای منفی با تورم صفر را روی برخی از داده های تعداد حشرات در R انجام می دهم. مشکل من این است که چگونه R را وادار کنم که داده های گونه های من را به عنوان یک ستون پشته ای بخواند تا تورم صفر حفظ شود. اگر آن را به صورت یک ردیف با عنوان فراوانی در R وارد کنم، صفرها را از دست می دهم و مدل کار نمی کند. قبلاً سعی کردهام: دادهها را خودم روی هم قرار دهم (۸۰ ستون * ۴۷ ردیف) بنابراین با ۳۷۶۰ سطر پس از انباشتن دستی میتوانید تصور کنید که سرعت R در هنگام استفاده از دستور pscl zeroinfl() چقدر کند میشود (۲۰ دقیقه در رایانه من طول میکشد! ، هنوز هم کار می کرد) مشکل بعدی مربوط به یک همبستگی فضایی است. نمونهبرداران خاصی از همان محیط نمونهبرداری کردند تا استقلال را نقض کنند. آیا می توانم فقط متوسط را به عنوان فاکتور در مدل قرار دهم؟ پلاتيپزيد | |
107716 | من دارم به p نگاه میکنم 355 از Gelman's _Bayesian Data Analysis_ (ویرایش 3)، که هیچ اشتباهی برای آن وجود ندارد، و من این را می بینم: > در مدل رگرسیون نرمال، توزیع پیش از > غیر اطلاعاتی راحت روی $(\beta,\, \ یکنواخت است. log\sigma)$ یا معادل آن > $$p(\beta,\, \sigma^2|X) \propto \sigma^{-2}$$ آیا نباید بگوید یکنواخت در $(\beta, \log\sigma^2)$؟ اگر $W = g(X)$ با $g$ افزایش یکنواخت، $h \equiv g^{-1}$، آیا ما $$f_{W}(w) = f_{X}(h( w))\;h^\prime(w)$$ اجازه دهید $X=\log\sigma^2$, $g=\exp$, $h=\log$; چگالی $W=g(X)=\sigma^2$ $f(w) = w^{-1}$ است یا اگر نماد گلمن را درست متوجه شده باشم، $p(\sigma^2)=\sigma ^{-2}$. آیا حق با من است یا در مورد علامت گذاری گیج شده ام ... یا کاملاً اشتباه؟ | قبل غیر اطلاعاتی برای مدل رگرسیون |
107717 | آیا راهی برای آزمایش اهمیت تفاوت در تفاوت ها در adj وجود دارد. R² ها در Stata؟ فرض کنید من چهار زیر گروه دارم: قبل از درمان، پیش کنترل، پس از درمان، پس از کنترل و می خواهم بفهمم که آیا تفاوت های adj وجود دارد یا خیر. R2 از همان رگرسیون (به عنوان مثال، R2 از Y = b0 + b1 * X + e) انجام شده برای هر یک از چهار زیر گروه معنادار است. به عبارت دیگر، آیا (adj. R²(post-treatment) - adj. R²(pre-treatment)) - ((adj. R²(post-control) - adj. R²(pre-control)) مهم است؟ من جایی خواندم ممکن است بتوان adj را برای هر رگرسیون بوت کرد و سپس تفاوتها را آزمایش کرد، اما مطمئن نیستم که آیا این گزینه مناسبی است یا خیر. با تشکر فراوان! | آزمایش اهمیت تفاوت در تفاوت های adj. R² |
107710 | میخواستم بدانم آیا کسی تا به حال از نمونهبرداری پایین برای ساختن جنگلهای تصادفی با دادههایی که کلاسهای نامتعادل دارند استفاده کرده است. اساساً نمونههای پایین نمونه (با جایگزینی) x*min از جامعهای که x تعداد کلاسها و min اندازه کوچکترین کلاس است. بنابراین نمونه برداری از حداقل تعداد مشاهدات از هر کلاس است. در برخی از نمونههایی که دیدهام، قدرت پیشبینی را بهبود میبخشد، اما به نظر میرسد که سوگیری نمونهگیری وجود دارد. این ممکن است با این واقعیت که در حال بوت استرپ کردن و ساختن چندین درخت و میانگین گرفتن آنها است، باطل شود، اما من کاملاً آن را درک نمی کنم. اگر کسی بتواند توضیح دهد که چرا این تعصب آمیز نیست، عالی است. من شنیده ام که این تکنیک با جنگل های تصادفی وزن دار قابل مقایسه است. من با یک مجموعه داده با 30000000 ورودی کار می کنم که در آن یک کلاس حدود 120 مشاهده دارد، بنابراین می توانید ببینید که چرا این کار مفید است. | نمونهبرداری پایین با مدلهای ساختمان (مخصوصاً جنگلهای تصادفی) |
21591 | ||
107712 | من یک معماری شناختی دارم که مجموعه ای از وظایف را حل می کند. همچنین من داده هایی از افراد انسانی دارم که مجموعه ای از وظایف مشابه را حل می کنند. اکنون میخواهم ببینم آیا میتوانم رابطهای بین عملکرد معماری و عملکرد سوژههای انسانی پیدا کنم (به عنوان مثال: اگر برای معماری سخت است، برای سوژههای انسانی نیز سخت است). من 3 آمار خلاصه دارم که عملکرد معماری را توصیف می کند، آنها را a,b,c می نامیم. همه آنها چیزهای کمی متفاوت را اندازه می گیرند. به موارد زیر فکر کنید: عدم قطعیت، ساختار راه حل داده شده و غیره. برای داده های انسانی، من فقط به یک آمار دسترسی دارم (داده های گرفته شده از یک آزمایش منتشر شده)، که مرتبط است اما با a,b,c یکسان نیست. اگر ضریب همبستگی را محاسبه کنم، می بینم که b همبستگی بالایی با عملکرد سوژه های انسانی نشان می دهد. با این حال a,b,c به خودی خود همبستگی (~0.2-0.7) دارند. خواندم که می توان ضریب همبستگی جزئی را محاسبه کرد که رابطه دو متغیر را بدون در نظر گرفتن تأثیر دیگری اندازه می گیرد. اگر این کار را انجام دهم، c بالاترین همبستگی جزئی را با داده های انسانی دارد، اگرچه همبستگی آن با داده های انسانی کمترین بود، من در تفسیر این نتایج مشکل دارم، و مطمئن نیستم که تفسیر خود را بر اساس همبستگی انجام دهم یا همبستگی جزئی و اگر استفاده از همبستگی جزئی در این زمینه منطقی باشد. همچنین توجه داشته باشید: این صرفاً اکتشافی است، هدف من آزمایش فرضیه نیست، من فقط به دنبال روابط هستم. | همبستگی در مقابل همبستگی جزئی برای بررسی رابطه در داده ها |
13047 | من یک مجموعه داده دارم که مجموعه ای از فواصل پیوسته از برخی مبدا است. من در ابتدا با گرد کردن داده ها و استفاده از آن به عنوان ورودی در تابع Matlab، این را به عنوان یک توزیع دو جمله ای منفی مدل کردم، nbinfit: nbReg = nbinfit(round(data)); با استفاده از خروجی nbinfit، CDF زیر را ایجاد کردم:  این هم QQ Plots مربوطه است **سوالات** 1. آیا استفاده از توزیع دوجمله ای منفی برای مدلسازی توزیع پیوسته معتبر است؟ آیا سندی در ادبیات وجود دارد که از دوجمله ای منفی برای مدل سازی داده های پیوسته استفاده شده باشد؟ 2. ممکن است یک توزیع پیوسته توزیع شده مشابه داشته باشید (برای دریافت توزیع پیوسته می توانید شرط x == round(x) را در nbinpdf حذف کنید)؟ 3. CDF بسیار مناسب است، اما آیا توزیع بهتر شما توصیه می کنید؟** |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.