_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
48288
من می‌خواهم معادله‌ای ایجاد کنم که از دو متغیر مستقل دوره و داده_انتقال‌شده و یک متغیر وابسته کیفیت_جلسه تشکیل شده باشد. اگر داده‌های کمتری در مدت زمان بیشتری منتقل شود، کیفیت_Metting بد خواهد بود. ارائه معادله جمله بالا چگونه باید باشد؟ پیشاپیش ممنون در واقع، من می خواهم از مقادیر بالا در معادله در تحلیل رگرسیون استفاده کنم. من واقعاً برای هر گونه راهنمایی بیشتر سپاسگزار خواهم بود.
برای ایجاد معادله کیفیت جلسه به کمک نیاز دارید
67280
من باید با یک مدل ساده پیش بینی کنم که آیا مشتری بانک هنوز فعال است یا خیر. من اطلاعاتی مانند تاریخ آخرین ملاقات با مشتری دارم، اما برخی از آنها هیچ ملاقاتی با مشاور خود نداشته اند. شناسه_مشتری | Last_Meeting_date (در چند روز دیگر) | جنسیت |... A 115 F ... B NA F ... آیا می توان از مقدار/پرچم خاصی مانند 1000 برای نشان دادن به درخت استفاده کرد که تاریخ نداریم؟ در ذهن من، درخت تصمیم مانند رگرسیون خطی نیست، بنابراین می تواند یک استثنا ایجاد کند، مثلاً اگر Last_meeting_date=1000 آنگاه... اما من مطمئن نیستم.
درخت تصمیم و مقادیر از دست رفته
99651
من مجموعه داده عظیمی دارم (میلیون‌ها ردیف، هزاران ستون) و رگرسیون منظم «glmnet» Lasso بسیار کند است. من نمی‌پرسم چه کتابخانه‌های دیگری وجود دارند که سعی می‌کنند تخمین مدل خطی منظم را بسیار کارآمد پیاده‌سازی کنند؟ من لزوماً به یک راه حل توزیع شده نیاز ندارم (می تواند بر روی یک CPU تخمین بزند)، و برای من خوب است که همه داده ها را در RAM بارگیری کنم (بنابراین راه حل «R» ممکن است خوب باشد، اگر وجود داشته باشد که به نحوی سریعتر از «glmnet» باشد. `). همچنین لزوماً نیازی نیست که توری کمند یا الاستیک باشد. من می توانم از جاوا، پایتون یا R استفاده کنم. داده های من بسیار نامرتب است، برخی از ستون ها پراکنده هستند، برخی دارای همبستگی خودکار سنگین و غیره هستند.
کتابخانه های مدل خطی منظم شده بسیار سریع
94326
فرض کنید من یک شرکت آنلاین بزرگ دارم، و بسیاری از مشتریان من سرگردان شدند (یعنی پرداخت می کردند، و سپس متوقف شدند). هدف من این است که بفهمم چرا هر یک از آنها به هم ریختند. ابتدا مجموعه کاملی از دلایل ریزش را شناسایی می‌کنم، $H_1،\ldots، H_n$. به عنوان مثال وب سایت گیج کننده است، مشتری علاقه خود را از دست داده است، و غیره. سپس با مشاهده، مجموعه ای از رفتارهای مشتری را شناسایی می کنم که با نرخ ریزش، $O_1،\ldots، O_m$ مرتبط هستند. هر یک از آنها به طور مستقیم قابل اندازه گیری هستند، به عنوان مثال. تعداد روزهایی که او وارد شده است، یا مدت زمانی که او در روز ثبت نام در وب سایت من سپری کرده است. فرض کنید محاسبه $\Pr[O_j=\cdot]$ آسان است و همه مشتریان من متقابل مستقل هستند. من می دانم که هر $H_i$ مربوط به زیر مجموعه ای از $O_j$ است. به عنوان مثال اگر یک مشتری سرگردان $d$ روز وارد سیستم شود، احتمال اینکه او علاقه خود را از دست بدهد $f(d)$ است، با $f$ یک تابع کاهشی. (یکی از مشکلات من محاسبه دقیق این تابع $f$ است.) هدف من این است که برای هر مشتری ریزش شده، و برای هر $i$، احتمال اینکه او به دلیل $H_i$، یعنی $$ \Pr[ به هم ریخته است، محاسبه کنم. H_i] = \sum_j \Pr[H_i\ |\ O_j=x_j] \Pr[O_j=x_j] $$ که در آن $x_j$ است ارزش $O_j$ برای مشتری داده شده. حالا، فرض کنید من یک نظرسنجی برای همه مشتریان پرخاشگر بفرستم و دلایل آنها را جویا شوم، اما مطمئناً فقط تعداد کمی از آنها به آن پاسخ می دهند. سپس می‌خواهم همه توابع $f_{ij}(\cdot) = \Pr[H_i\ |\ O_j=\cdot]$ را بر اساس شواهد جدید به‌روزرسانی کنم تا بتوانم $\Pr[H_i] را با دقت بیشتری محاسبه کنم. دلار برای همه مشتریانی که به نظرسنجی پاسخ نداده اند. سوال من این است که دقیقا چگونه می توانم این کار را انجام دهم؟ و چگونه می توانم برآوردهای خوب برای $f_{ij}$های اصلی بدست بیاورم؟ آیا رویکرد من درست است؟ ویرایش: اکنون متوجه شدم که فرمولی که برای $\Pr[H_i]$ ارائه کردم، آشکارا اشتباه است. $O_j$ ها یک پارتیشن تشکیل نمی دهند. فکر می‌کنم باید $\Pr[H_i\ |\ (O_1,\ldots,O_m)=(x_1,\ldots,x_m)]$ را مستقیماً محاسبه کنم، زیرا $O_j$‌ها حتی به صورت زوجی مستقل نیستند.
موردی از درک رفتار مشتری
57825
من علاقه مندم که توزیع دوجمله ای پواسون/منفی را برای تخمین تعداد دفعاتی که یک پدیده در یک دوره اتفاق می افتد، مثلاً 10 سال، تخمین بزنم. من می توانم وقایع را از روی گزارش های ماهانه بشمارم، اما متاسفانه گزارش هایی وجود ندارد. بنابراین برای یک نمونه، من ممکن است 120 شکاف رصدی داشته باشم، اما برای برخی دیگر ممکن است 30 داشته باشم. این رویداد می تواند اتفاق بیفتد اگر مشاهده نشود. الگوی شکاف‌های گمشده تصادفی است (یعنی بین نمونه‌ها همبستگی ندارد)، و می‌تواند منجر به هر چیزی شود، از یک رکورد مشاهده‌ای تقریباً کامل تا یک رکورد بسیار ضعیف. چگونه می توانم با این موضوع کنار بیایم؟
برازش توزیع پواسون از مشاهدات گمشده
95108
من یک مجموعه داده دارم و می خواهم یک فرضیه را در آنجا بررسی کنم و احتمالاً تحلیل شبکه باید نظریه من را اثبات یا رد کند. من لیستی از محصولات و گروهی از مردم دارم که محصول را به یکدیگر می دهند. هرکسی می تواند آن را به هر قیمتی که می خواهد به دیگری بفروشد (امیدوارم کسی آن را بخرد). بنابراین، زنجیره ای از محصولات را بین مردم تصور کنید. به جز قیمت فروش، یک نفر نیز درصدی از فروش محصول بعدی را خواهد گرفت که محصول را مجدداً بفروشد. و همچنین اگر برای اولین بار محصولی را بفروشم برای همیشه برای هر فروش درصدی می گیرم. مثال: A -> B -> C شخص A پول حاصل از فروش را به شخص B می برد. شخص B پول فروش را به شخص C می برد و شخص A درصدی از این فروش را به عنوان مالک قبلی و خالق می گیرد. از زنجیره اگر شخص C محصول را به شخص دیگری بفروشد، فقط شخص B درصد قبلی را می گیرد، اما شخص A درصد خالق را می گیرد. من معتقدم افرادی هستند که سعی می کنند از سیستم سوء استفاده کنند و حلقه های کوچک یا بزرگتری ایجاد کنند تا از این درصدهای فروش بعدی برای پنهان کردن خود استفاده کنند. آیا راهی برای شناسایی این افراد وجود دارد؟
مشکل احتمالی برای تحلیل شبکه
57826
من یک مجموعه داده دارم که شامل متغیرهایی در مورد سطح درآمد مشتری است. درآمد به صورت مخفی جمع‌آوری شد («کدام محدوده درآمد شما را توصیف می‌کند؟ 0-25k، 25k-50k،...»). سوال من این است که چگونه بهترین استفاده از این برای مدل سازی با استفاده از بسته های glmnet و gbm در R است. من به «گروه‌بندی» بسته‌بندی شده در «R» نگاه کرده‌ام، اما به نظر می‌رسد همه چیز (کورس و رگرسیون) را برای شما انجام می‌دهد. آیا بسته ای وجود دارد که داده های binn شده را برای استفاده در الگوهای دیگر به داده های پیوسته تبدیل کند؟ EDIT: روش فعلی که من استفاده می کنم این است که آنها را به نقطه میانی محدوده (`0-25k -> 12500`) تبدیل می کنم، سپس از stmt `ifelse()` برای کدنویسی چند متغیر برای انتقال واقعیت استفاده می کنم. که بین سطوح رابطه وجود دارد. incOver25k <- ifelse(df1$income >= 25000,1,0) incOver50k <- ifelse(df1$income >= 50000,1,0) سپس به جای استفاده از `model.matrix()` از این پرچم ها استفاده کنید. کنجکاو بودم که آیا ایده های بهتری وجود دارد یا خیر.
برخورد با داده های گروه بندی شده / گرد
95101
من از بسته «flexmix» برای تخمین مدل‌های لاجیت چندجمله‌ای کلاس پنهان در R استفاده می‌کنم. در تئوری انتخاب، متغیرهایی می‌توانند مرتبط با جایگزین (عمومی) یا متغیرهایی با عامل (جایگزین خاص) وجود داشته باشند. بسته «nnet» که زیربنای «FLXMRmultinom» قرار دارد، نمی‌تواند متغیرهای عمومی را در خود جای دهد. تا کنون، من ندیده‌ام که «FLXMRcondlogit» بتواند موارد خاص جایگزین را مدیریت کند. منعطف ترین بسته برای مدل های MNL 'mlogit' است. آیا کسی اجرای این را برای «فلکس میکس» دیده است؟
مدل لاجیت چندجمله ای کلاس نهفته R
100972
آیا مطالعه ای می شناسید که در آن محققان از نقشه برداری پارامتری آماری فقط برای **داده های مکانی** استفاده کرده باشند؟ من مطالعات زیادی پیدا کردم که از آن برای تجزیه و تحلیل سری های زمانی استفاده کردند، اما آیا این تجزیه و تحلیل برای داده هایی که بعد زمانی مشترکی ندارند کار می کند؟
SPM برای تحلیل فضایی
95102
در محاسبه شبه معکوس یک ماتریس $A$، به اندازه (m,n)، باید یک آستانه تحمل برای مقادیر ویژه انتخاب کنم. من سعی می کنم بفهمم چگونه باید این را انتخاب کنم. پیش‌فرض Matlab استفاده از $norm(A)*max(m,n)*eps$ است که در آن هنجار norm-2 و eps اپسیلون ماشین است. آیا ایده ای در مورد اینکه چرا این مقدار پیش فرض است؟ علاوه بر این، مواردی وجود دارد که در آنها $ A $ فقط در مقایسه با مقادیر دیگر جالب است. برای مثال، من می‌خواهم مقادیر ویژه $C + BB^TA^{-0.5}$ را محاسبه کنم که در آن A,B,C ماتریس‌ها هستند، اما B می‌تواند بعد دوم بسیار بزرگی داشته باشد. در این مثال چگونه باید تلرانس را انتخاب کنیم؟
تحمل برای شبه معکوس
72155
من همین الان کار زیر را مرور کردم http://epublications.bond.edu.au/cgi/viewcontent.cgi?article=1199&context=ijbf و فکر کردم تفاوت بین مدل (9) در صفحه 12 چیست که نوسانات را به عنوان یک مدل مدل می کند. تابع نوسانات گذشته و خطای گذشته و مدل (10) که مدل GARCH(1,1) است. هر دو به نظر من ماهیت یکسانی دارند، لطفا اگر اشتباه می کنم اصلاح کنید.
تفاوت بین استفاده از ARMA و GARCH برای مدل سازی نوسانات؟
48754
من داده های زیادی (گیگ) دارم که ممکن است در پیش بینی قیمت سهام مفید باشد. من می توانم اینها را به عنوان یک سری از ویژگی ها (ستون ها) در جدولی وارد کنم که در آن شرکت ها ردیف هستند. اطلاعات سری زمانی هم دارم. من تجربه یادگیری ماشینی دارم اما تجربه ای به عنوان یک معامله گر ندارم. آیا نرم‌افزار یا پلتفرمی وجود دارد که بتوانم به راحتی داده‌های خود را وارد کنم و بتواند داده‌های من را تست بک‌آست/فوروارد کند تا ببینم مفید است؟ من می‌دانم که هر سیستم یادگیری ماشینی که در فضای عمومی وجود دارد به اندازه کافی از بازار بهتر عمل نمی‌کند تا هزینه‌های دلالی را پوشش دهد، اما با توجه به داده‌های من، این احتمال وجود دارد که این کار را انجام دهد. بنابراین من احتمالاً نیازی به مهارت در یادگیری ماشین ندارم، اما می خواهم راه حلی پیدا کنم که در آن 6 ماه آینده را صرف یادگیری بازار سهام نکنم. من ترجیح می‌دهم آن زمان را صرف دریافت بازخورد و تکرار روی داده‌های ورودی کنم، زیرا به عنوان یک توسعه‌دهنده داده‌گرا، اینجاست که می‌توانم ارزش اضافه کنم. هر گونه کمکی، بسیار متشکریم.
راه آسان برای آزمایش سودمندی داده ها برای تجزیه و تحلیل بازار سهام؟
67281
من یک متغیر وابسته دوگانه مقوله ای دارم (بله/خیر - حفظ کلمات تازه آموخته شده) و دو متغیر مستقل - هر دو دسته بندی هستند. یک متغیر مستقل تأخیر بین قرار گرفتن در معرض و آزمایش است و دارای دو سطح (تأخیر زمانی کوتاه/ تاخیر زمانی هفته) است. IV دیگر نوع کلمه است و مربوط به انواع کلماتی است که کودکان در معرض آنها قرار گرفتند - برچسب شی، برچسب رنگ و غیره. ) با استفاده از روش Enter و با استفاده از تب categorical هر دو IV را به عنوان دسته بندی تعریف کرد. خروجی های اولیه - بلوک 0 متغیرهایی که در معادله نیستند، تست های بلوک 1 Omnibus ضرایب مدل و تست Hosmer و Lemeshow همگی نشان می دهند که مدل قابل توجه است و جدول طبقه بندی بلوک 1 نشان می دهد که 11٪ پیشرفت در پیش بینی وجود داشته است. DV (در مقایسه با جدول طبقه بندی بلوک 0). با این حال، جدول بلوک 1 متغیرهای معادله هیچ اثر اصلی هیچ یک از IV ها و نه یک اثر متقابل را نشان می دهد - و نه تا حد زیادی (تأخیر زمانی p=0.37؛ نوع کلمه p=0.37؛ نوع کلمه * تاخیر زمانی p. =0.401 من نمی دانم چگونه این را تفسیر کنم زیرا تمام نمونه هایی که در کتابم و آنلاین دیده ام حداقل یک اثر اصلی مهم را نشان می دهند همچنین به نظر می رسد تا حدودی غیرمنطقی برای SPSS گزارش کند که این مدل قابل توجه است، اما هیچ یک از IV ها تاثیر قابل توجهی ندارند انواع کلمه به جز یک سقوط از حدود 65% در تاخیر کوتاه به حدود 33% پس از یک هفته، من سعی کردم شاخص را از اول به آخرین (یعنی از تاخیر کوتاه به تاخیر هفته) برای متغیر تاخیر زمانی تغییر دهم. مربوط به تغییر نتایج - من فکر می‌کردم وقتی IV دوقطبی است، مهم نیست که کدام یک از دسته‌ها به عنوان گروه کنترل (شاخص) استفاده می‌شود. حتی بیشتر از آن که نگران کننده است، یک اثر اصلی از نوع کلمه به جای تاخیر زمانی ایجاد می کند. من از کدنویسی ساختگی استفاده کرده ام و به طور موثر هر یک از دسته بندی های نوع کلمه خود را به عنوان IV های مختلف در نظر گرفته ام و این نتایج کاملاً متفاوتی ایجاد می کند. باز هم - این یک نگرانی است زیرا من انتظار دارم نتایج بسیار مشابهی داشته باشم زیرا باید به طور موثر داده های مشابه را اجرا کند. کسی میتونه کمک کنه؟
رگرسیون لجستیک باینری در SPSS 20 - خروجی ناسازگار و غیر منطقی به نظر می رسد
57829
من برای سوال زیر به کمک نیاز دارم: مشاهدات $m$ را در نظر بگیرید $(y_1; n_1); ... (y_m; n_m)$، که $y_i \sim Bin(n_i; θ_i)$ متغیرهای دو جمله ای هستند. فرض کنید $θ_i \sim w_1Beta(α_1؛ β_1) + w_2Beta(α_2؛ β_2)$ مخلوطی از دو توزیع بتا $(w_1 + w_2 = 1)$ هستند. * یک تقریب لاپلاس از احتمال و هر جزء مخلوط قبلی بدست آورید. * احتمال بیز تجربی داده ها را با ادغام i با استفاده از تقریب لاپلاس استخراج کنید، و فراپارامترهای $(w_j ; α_j ; β_j)$ (j = 1; 2) را رها کنید * الگوریتم EM را برای تخمین فراپارامترها استخراج کنید ( همچنین می توانید از مخلوط گاوسی قبل از مخلوط تقریبی بتا استفاده کنید)
تقریب لاپلاس از بیزی احتمال
30820
سلام: من یک دانشجوی علوم کامپیوتر هستم که به عنوان دستیار پژوهشی در یک آزمایشگاه IR کار می کنم و به طرز شگفت انگیزی احساس می کنم که از خود خارج شده ام. با توجه به ورودی یک مقدار پیوسته منفرد و بردار چند ده مقدار بولی، باید مقدار مورد انتظار یک مقدار پیوسته منفرد را تخمین بزنم و آن را خروجی کنم. من چندین هزار نمونه آموزشی دارم که هم ورودی کامل و هم خروجی واقعی را دارم. من گمان می‌کنم که نوعی الگوریتم یادگیری ماشین وجود دارد که تابعی را تولید می‌کند که ورودی را به خروجی نگاشت می‌کند، اما به اندازه کافی از اصطلاحات مربوطه مطمئن نیستم که مطمئن نیستم چگونه بهترین منابع را جستجو کنم. آنچه من به دنبال آن هستم، من را به یاد طبقه‌بندی‌کننده‌های IR کلاسیک مانند طبقه‌بندی‌کننده ساده بیزی می‌اندازد، اما طبقه‌بندی‌کننده‌ها احتمال تعلق نمونه‌ای به یک کلاس گسسته، نه یک متغیر پیوسته مورد انتظار را به شما می‌دهند. آیا این نوعی پسرفت است؟ اگر چنین است، چه نوع؟ آیا کسی بینشی دارد؟ آیا هیچ صفحه وب برای کمک به پر کردن شکاف های دانش من وجود دارد؟ یا حتی هر عبارت جستجوی مفیدی؟ همچنین، اگر این سوال برای stats.stackexchange.com نامناسب است، آیا سایت QA مبتنی بر جامعه مناسب تری وجود دارد که بتوانید مرا به آن راهنمایی کنید؟ با تشکر
چگونه یک مقدار پیوسته را از بسیاری از بولی ها و یک مقدار پیوسته پیش بینی می کنید؟
114966
اگر یک سوم از افرادی که در یک کلینیک خون اهدا می کنند، خون O+ دارند، این احتمال را پیدا کنید که اهداکننده O+ پنجم، چهارمین اهداکننده روز باشد.
احتمال اینکه 5امین اهداکننده O+ چهارمین روز باشد
101237
من به تازگی استفاده از بسته autoencoder را در R شروع کرده ام. http://cran.r-project.org/web/packages/autoencoder/index.html ورودی های تابع autoencode() شامل لامبدا، بتا، rho و epsilon است. مرزهای این ارزش ها چیست؟ آیا آنها برای هر تابع فعال سازی متفاوت هستند؟ آیا به این پارامترها «هیپرپارامتر» می گویند؟ با فرض یک رمزگذار خودکار پراکنده، آیا rho=.01 برای تابع فعال‌سازی لجستیک و rho=-.9 برای تابع فعال‌سازی مماس هذلولی خوب است؟ چرا دستی اپسیلون را روی 001 تنظیم می کند؟ اگر درست به خاطر داشته باشم، Efficient Backpropagation توسط LeCun مقادیر شروعی را توصیه می کند که به صفر نزدیک نیستند. مقدار خوب برای بتا چقدر اهمیت دارد؟ آیا قاعده ای برای انتخاب تعداد nueron ها در لایه پنهان وجود دارد؟ به عنوان مثال، اگر لایه های ورودی N گره دارند، آیا منطقی است که 2N nueron در لایه پنهان داشته باشیم؟ آیا می توانید مطالبی را در مورد استفاده عملی از رمزگذارهای خودکار توصیه کنید؟
پارامترهای [Hyper] Autoencoder Sparse
109343
من اخیراً در مورد Dynamic Time Warping (DTW) مطالب زیادی می‌خوانم. من بسیار تعجب می کنم که اصلاً ادبیاتی در مورد استفاده از DTW در سری های زمانی نامنظم وجود ندارد یا حداقل نتوانستم آن را پیدا کنم. آیا کسی می تواند به من اشاره ای به چیزی مرتبط با آن موضوع، یا شاید حتی اجرای آن بدهد؟
تاب خوردگی زمان پویا برای سری های زمانی نامنظم
30822
من با بحث پیرامون تصمیم بیتس برای حذف مقادیر p برای ضرایب رگرسیون اثرات مختلط در lmer آشنا هستم. با این حال، من در یک رشته بسیار متمرکز بر ارزش p فعالیت می کنم و سعی می کنم چیزی را روشن کنم. درجات آزادی پیش بینی کننده های سطح گروه در یک مدل دو سطحی چقدر است؟ من می‌توانم از pvals.fnc() برای بدست آوردن مقادیر p برای این ضرایب استفاده کنم، اما چیزی به من می‌گوید که درجات آزادی آزمایش‌ها را بیش از حد تخمین می‌زنم، با استفاده از اندازه نمونه در سطح فردی و نه اندازه نمونه در سطح گروه. هر گونه کمکی بسیار قدردانی خواهد شد.
درجات آزادی / اهمیت پیش بینی کننده های سطح گروه در lmer
109341
درک من از آنتروپی اطلاعات این است که مستلزم مجموع احتمالات ورودی به 1 است. بنابراین، برای یک دنباله a,a,b,b شما باید -([1/2 log2 1/2] + [1/2 log2 1 /2]) = 1 آیا نسخه هایی از آنتروپی اطلاعات وجود دارد که به احتمالات برای جمع 1 نیازی ندارند؟ یا آیا راهی برای اندازه گیری آنتروپی وجود دارد که به کمیت اقلام و نه فقط احتمال آنها حساس باشد؟ یا، آیا روش پذیرفته‌شده‌ای برای استخراج شکلی از آنتروپی اطلاعات غیر عادی وجود دارد که به نحوی این نکته را در نظر می‌گیرد که هرچه جریان اطلاعات طولانی‌تر باشد، احتمال بیشتری وجود دارد که با ترتیبات مختلف اطلاعات مواجه شوید؟ به عنوان مثال نه اینکه این درست است، اما برای رساندن سوال. فرض کنید می توانید یک آنتروپی غیر نرمال شده را برای همان دنباله a,a,b,b محاسبه کنید: -([1/2 log2 1/2] + [1/2 log2 1/2] + [1/2 log2 1/2] + [1/2 log2 1/2]) = 2 متناوباً، آیا می‌توانید محتوای اطلاعات را بر روی یک رشته اطلاعات جمع کنید؟ * برای a، a، b، b شما چهار آیتم با 1 بیت شگفت انگیز دارید، بنابراین در مجموع 4 بیت. * برای a,a,a,a,a,a,a,a,a,b شما 10 مورد با 0.469 بیت متوسط ​​دارید، بنابراین 4.69 بیت کل دارید؟
آیا احتمالات آنتروپی اطلاعات باید به یک جمع شوند؟
30829
در یک آزمایش چندین اندازه گیری با استفاده از ابزارهای اندازه گیری مشابه اما متفاوت انجام می شود. (تعداد ابزارهای اندازه گیری مورد استفاده در یک آزمایش منفرد می تواند از 2 تا 500 ابزار متغیر باشد، اما اکثر آنها دارای تعداد کم (~2-3) ابزار مورد استفاده هستند.) از آنجایی که همه ابزارها اثر یکسانی را اندازه گیری می کنند، انتظار می رود که آنها اندازه گیری های مشابهی را تولید می کنند، اما احتمالاً با منابع متفاوت و سطوح نویز. برخی از ابزارهای اندازه گیری ممکن است ناآگاهانه دچار مشکل شده و به طور کلی داده های نادرستی تولید کنند. این بدان معناست که بیشتر اندازه‌گیری‌ها تا حدودی همبسته هستند (> 0.8)، اما برخی از آنها می‌توانند همبستگی نداشته باشند یا حتی همبستگی معکوس داشته باشند. چگونه می توان اندازه گیری های ابزار را به گونه ای خلاصه کرد که ارزش واقعی کمیت مورد اندازه گیری را به بهترین شکل نشان دهد؟ رویکردهای ممکن برای این مشکل ممکن است شامل استفاده از موارد زیر باشد: (1) یک مدل رگرسیون برای برازش اندازه‌گیری‌ها و سپس درون‌یابی مقدار خلاصه اندازه‌گیری، (2) اولین مؤلفه تجزیه و تحلیل مؤلفه‌های اصلی، (3) یا امتیازات حاصل از تحلیل عاملی. کدام روش برای انجام کار مناسب‌تر است یا رویکرد دیگری برای انجام این خلاصه‌سازی بهتر است؟
خلاصه کردن داده های اندازه گیری مرتبط اما پر سر و صدا
109342
چندین متن (چه کتابهای آنلاین و چه کتابهای منتشر شده) قبل از پرسیدن این مورد بررسی شده است. چه تشخیص هایی به عنوان بهترین روش برای یک مدل اثرات مختلط خطی تعمیم یافته برازش شده در R با استفاده از glmmPQL پذیرفته شده است. من در حال مدل سازی میزان بروز مرگ و میر (داده های شمارش) با استفاده از اندازه گیری های مکرر، داده های بقای طولی هستم. پاسخ یا 0 (زنده) یا 1 (مرگ) است. بنابراین هنگام ترسیم باقیمانده ها، مشاهده پراکندگی تصادفی دشوار است زیرا باقیمانده ها در اطراف مقادیر مشاهده شده 0 یا 1 جمع می شوند. آیا راهی برای به دست آوردن یک باقیمانده در هر موضوع منحصر به فرد در مقابل 1 باقیمانده در هر مشاهده یک موضوع خاص وجود دارد؟ سایر معیارها/آزمون‌های خوبی برای اعمال در مدل glmmPQL چیست. به عنوان مثال به نظر می رسد که AIC و BIC را نمی توان از یک glmmPQL به دست آورد. من تا حد زیادی از هر کمکی قدردانی می کنم، حتی اگر به متون خاصی هدایت شود. با تشکر
تشخیص مدل برای یک glmmPQL در مدل اثرات مختلط R
67287
در حین تجزیه و تحلیل تأثیر داده های محیطی بر فعالیت یک گونه جانوری (که دومی به عنوان داده های شمارش داده می شود) من GLM های دوجمله ای منفی را با یک پیش بینی با استفاده از کتابخانه MASS در R. Unfortunatley برازش می کنم، مجموعه داده ها بسیار کوچک است (n=7 به 9). در برخی موارد، مقدار تتا در glm.nb بسیار بزرگ می‌شود (همراه با هشدار «حدت تکرار رسیده است»)، که احتمالاً نشان می‌دهد که پراکندگی بیش از حد وجود ندارد و poisson GLM ممکن است انتخاب بهتری باشد. با این حال، با استفاده از یک GLM سمی، یک انحراف باقیمانده به عنوان مثال. 150 در 7 درجه آزادی نشان می دهد که در واقع پراکندگی بیش از حد وجود دارد - یا چیزی را از دست دادم؟ استفاده از GLM شبه سمی کار می کند، اما من می خواهم معیارهای مبتنی بر ML مانند AIC و تست Vuong را برای مقایسه مدل حفظ کنم. هر گونه پیشنهاد برای رویکردهای جایگزین بسیار قدردانی می شود!
مقادیر تتا بسیار بزرگ با استفاده از glm.nb در R - رویکردهای جایگزین؟
109344
من یک جایگشت انجام می دهم تا بدانم آیا دو مجموعه داده تفاوت قابل توجهی دارند یا خیر. این مجموعه داده ها، هر دو، دارای میانه 1 هستند (در سریع، 60٪ از مشاهدات در یک مجموعه داده و 80٪ از مجموعه داده های دیگر مشاهده یکسان هستند). گفت که، تست جایگشت من به من مقدار p برابر 1 می دهد (آنها توزیع مشابهی دارند). من از تفاوت بین میانه ها استفاده می کنم، زیرا داده های من بسیار کج هستند. با این وجود، من یک آزمایش فیشر انجام داده‌ام و می‌گویم که آنها تفاوت قابل توجهی دارند. آیا در این موارد که اکثر مشاهدات یکسان هستند، هنگام استفاده از میانه، آزمایش‌های جایگشت خطاهای نوع II را باد می‌کنند؟
آزمون های خطا و جایگشت نوع دوم
114965
من سعی می کنم انواع متغیرهای مختلف و سطوح اندازه گیری را در برخی منطق، مانند نمودار درختی، جا بدهم، و در مورد برخی چیزها مطمئن نیستم. از یک طرف، شما متغیر **کمی** در مقابل **کیفی** دارید. از نظر کمی، شما **پیوسته** یا **گسسته** دارید. از طرف دیگر، شما ** اسمی، ترتیبی، فاصله و نسبت** دارید. به راحتی می توان گفت که کیفی می تواند اسمی یا ترتیبی باشد. اما در مورد کمی؟ آیا بازه و نسبت باید پیوسته باشد؟ چگونه طبقه بندی کنم؟ آیا می توانم بگویم که مقدار کمی باید گسسته یا پیوسته باشد و اگر پیوسته باشد یا بازه یا نسبت؟ راه درست برای ساخت این نمودار چیست؟
انواع متغیر و سطح اندازه گیری
43663
الگوریتم EM تقریباً دو مرحله دارد. E-Step: انتظار شرطی تابع درستنمایی را با توجه به داده‌های $x_1، محاسبه کنید. . . ، x_n $ و برآوردهای فعلی پارامترهای $\Theta^{[k]}$. بنابراین تابع هدف $Q(\Theta, \Theta^{[k]})=E[\ln(\Theta,x_1, . . . , x_n)|x_1, . . . , x_n,\Theta^{[k]}]$ M-step: تابع هدف را با توجه به $\Theta $ حداکثر کنید تا مجموعه بعدی تخمین $\Theta^{[k+1]}$ را بدست آورید. حالا آیا الگوریتم EM برای تخمین پارامترها به داده های i.d نیاز دارد؟ آیا استفاده از الگوریتم EM حتی در مورد داده های غیر i.d امکان پذیر است؟
آیا الگوریتم EM به i.i.d نیاز دارد؟
672
ایده های اصلی یعنی مفاهیم مرتبط با قضیه بیز چیست؟ من هیچ گونه مشتقاتی از نمادهای پیچیده ریاضی را نمی خواهم.
قضیه بیز چیست؟
29683
آیا pdf یک متغیر mvn حتی زمانی که همبستگی بالایی وجود دارد وجود دارد؟ من می خواهم از الگوریتمی استفاده کنم (در واقع این روش آنتروپی متقابل برای تخمین احتمال رویداد نادر است) که به مقدار pdf توزیع mvn نیاز دارد، یعنی mvnpdf(x,mu,Sigma). با این حال، سیگما من نزدیک به مفرد است، به این معنی که همبستگی بالایی بین متغیرهای بردار وجود دارد، بنابراین پیدا کردن معکوس سیگما البته دشوار/غیر ممکن است. آیا راهی برای غلبه بر این مشکل وجود دارد؟ آیا این درست نیست که برای مثال بردار [a,b,c,d] با ماتریس کوواریانس [1,1,0,0;1,1,0,0;0,0,1,1,0,0, 1,1] (مفرد!) دقیقاً مانند بردار [a,c] با ماتریس کوواریانس [1,0;0,1] (اکنون غیر مفرد!) رفتار خواهد کرد، در حالی که نادیده گرفته می شود. ب و ج؟ آیا این بدان معنی است که من می توانم مقدار pdf [a,b,c,d] را با pdf [a,c] تقریب کنم؟ ببخشید اگر قبلاً به این پاسخ داده شده است، من واقعاً سعی کردم آن را جستجو کنم. متشکرم. ویرایش: موضوع این است که من می‌خواهم نمونه‌هایی را از یک توزیع نرمال چند متغیره، $x \sim N(\mu,\sigma)$ شبیه‌سازی کنم تا احتمال اینکه ${r(x) < 1}$، جایی که $r(x)$ یک عدد واقعی مثبت را بر اساس بردار $x$ برمی گرداند. بنابراین من $x_i \sim N(\mu,\Sigma)، i = 1،...، M$ را شبیه‌سازی می‌کنم و احتمال را با تخمین مونت کارلو $p = (1/M)\sum_i I(r) تخمین می‌زنم. (x_i)<1)$. هیچ مشکلی تا الان با این حال، از آنجایی که ${r(x_i)<1}$ یک رویداد بسیار نادر است، من می‌خواهم نمونه‌برداری اهمیت را امتحان کنم و از ناحیه $N(\mu_2,\Sigma_2)$ شبیه‌سازی کنم، بنابراین برای تخمین $ به مقدار pdf نیاز دارم. p = (1/M)\sum{I(r(x_i)<1) pdf_1(x_i)/pdf_2(x_i)}$.
pdf توزیع نرمال چند متغیره با مقادیر همبستگی بالا
91903
آیا احتمال محاسبه شده توسط یک مدل رگرسیون لجستیک (مدلی که لاجیت تبدیل شده است) برازش تابع توزیع تجمعی موفقیت های داده های اصلی (به ترتیب با متغیر X) است؟ **ویرایش:** به عبارت دیگر - چگونه می توان توزیع احتمال داده های اصلی را که در یک مدل رگرسیون لجستیک به دست می آورید رسم کرد؟ انگیزه این سوال مثال جف لیک از رگرسیون روی امتیاز ریون در یک بازی و اینکه آیا آنها برنده شدند یا نه (از دوره تحلیل داده های کورسرا) بود. مسلماً مشکل مصنوعی است (به نظر FrankHarrell@ در زیر مراجعه کنید). در اینجا داده های او با ترکیبی از کد او و من است: download.file(http://dl.dropbox.com/u/7710864/data/ravensData.rda, destfile=ravensData.rda, method= داخلی) load(ravensData.rda) plot(ravenWinNum~ravenScore, data=ravensData) ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/Cr5ka.png) به نظر می رسد مواد خوبی برای رگرسیون لجستیک نیست، اما بیایید به هر حال تلاش کنیم: logRegRavens <- glm(ravenWinNum ~ ravenScore, data=ravensData، خانواده =دوجمله ای) خلاصه (logRegRavens) # بتا مهم نیست # جدول مرتب سازی بر اساس ravenScore (X) rav2 = ravensData[order(ravensData$ravenScore), ] # plot CDF plot(sort(ravensData$ravenScore), cumsum(rav2$ravenWinNum)/sum(rav2$ravenWinNum), pch=19, col=blue, xlab=Score , ylab=Prob Ravens Win, ylim=c(0,1), xlim=c(-10,50)) # نقطه اضافه پلات مقادیر برازش شده (جف) (ravensData$ravenScore, logRegRavens$fitted, pch=19, col=red) # منحنی منحنی رگرسیون overplot(1/(1+exp( -(logRegRavens$coef[1]+logRegRavens$coef[2]*x)))، -10، 50، add=T) اگر من رگرسیون لجستیک را به درستی درک کنم، R در یافتن ضرایب مناسب در این مورد بسیار بد عمل می کند. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Cb6o8.png) * آبی = داده های اصلی باید برازش شوند، من معتقدم (CDF) * قرمز = پیش بینی از مدل (داده های برازش = طرح ریزی) داده‌های اصلی بر روی منحنی رگرسیون) **حل شده** - به نظر می‌رسد که پایین‌ترین تخمین‌گر ناپارامتری خوبی برای داده‌های اصلی است = آنچه در حال نصب است (با تشکر @gung). دیدن آن به ما امکان می‌دهد مدل مناسبی را انتخاب کنیم، که در این مورد عبارت است از اضافه کردن مربع به مدل قبلی (@gung) - البته، مشکل بسیار مصنوعی است و مدل‌سازی آن به طور کلی بی‌معنی است (@FrankHarrell) - به طور معمولی رگرسیون لجستیک این CDF نیست، بلکه احتمالات نقطه ای است - اولین بار توسط FrankHarrell به آن اشاره شد. همچنین ناتوانی شرم آور من در محاسبه CDF که توسط @gung اشاره شده است.
CDF و رگرسیون لجستیک
114967
من یک مجموعه داده دارم: y = آرایه([ 4460000., 2100000., 938000., 500000., 204000., 130000., 124000., 118000., 106000., 106000., 106000., 106000., 106000., 0.1. 98000.، 97000.، 99000.]) x = آرایه([ 470.، 955.، 1700.، 2900.، 5520.، 7000.، 8500.، 9700.، 14600.، 14600.، 955.، 22. ، 37500., 42200.]) ![loglogplot](http://i.stack.imgur.com/G5bIG.png) که باید با استفاده از یک تابع دلخواه جاسازی کنم. متأسفانه من هیچ اطلاعات (مفید) بیشتری برای آن داده ها ندارم. آیا نوعی تابع وجود دارد که بتواند این داده ها را متناسب کند؟
چگونه باید این داده ها را جا بدهم؟
59469
من مجموعه ای از نمونه ها را دارم که گروه های واقعی را برای آنها می شناسم. برای این نمونه‌ها من حدود 200 متغیر باینری دارم، می‌خواهم روشی را برای انتخاب زیرمجموعه متغیرها بدانم، که به من خوشه‌بندی تا حد امکان نزدیک‌تر از گروه‌های شناخته‌شده‌ام را می‌دهد. # برچسب نمونه labelColors2 <-c(سیاه، سیاه، سیاه، سیاه، سیاه، سیاه، آبی، آبی، آبی، آبی، سبز ، سبز، قرمز، قرمز، قرمز، قرمز، قرمز، قرمز، قرمز، قرمز، قرمز، قرمز، قرمز، قرمز) # کتابخانه ماتریس داده (RCurl) x <- getURL(https://dl.dropboxusercontent.com/u/10712588/binMatrix) tab3 <- read.table(text = x) colLab <- function(n) { if(is.leaf(n)) { a <- ویژگی(n) #clusMember یک برداری که گروه بندی برگ را تعیین می کند #labelColors <- colors # بردار رنگ برای گروه بندی بالا labCol <- labelColors2[clusMember[which(names(clusMember) == a$label)]] attr(n، nodePar) <- c(a$nodePar, list(lab.col = labCol,lab.cex=0.8 )) } n } mclust <- hclust(dist(tab3، متد = دودویی)) dhc <- as.dendrogram(mclust) clusMember <- cutree(mclust, k=24) clusDendro <- dendrapply(dhc, colLab) plot(clusDendro) ![نمونه ای از گروه های واقعی داده شده توسط رنگ ها](http://i.stack. imgur.com/CBNQq.png) رنگ ها باید گروه بندی شوند، این راه واقعی من برای دسترسی به خوبی است خوشه بندی، به صورت بصری، اما من می خواهم تکنیک انتخاب ویژگی را بدانم. پیشاپیش سپاسگزارم... با به روز رسانی سوال، تابع **klaR::stepclass** را پیدا کردم، که باید مطابق با آنچه من می‌خواهم باشد، یا پیاده‌سازی مشابه، اما هنوز کاری در مورد آن پیدا نکردم. fac <- as.factor(labelColors2) mylda <- function(x, grouping) { clust <- pam(dist(x, method=binary), k=4, cluster.only = TRUE) پسین <- matrix( 0، 24، 4) نام های colname (پسین) <- c(سیاه، آبی، سبز، قرمز) برای (i در 1:nrow(posterior)) posterior[i، clust[i]] <- 1 l <- list(class=grouping, posterior=posterior) class(l) <- foo return(l) } با تابع بالا من می توانم یک خروجی از طبقه بندی خود را بازتولید کنم، مشابه آنچه **klaR::ucpm** نیاز دارد، اما نمی توانم تابع sc_obj را اجرا کنم <- stepclass(x=tab3, grouping=fac, method=mylda, direction=forward) خطا در parse(text = x) : <text>:2:0: پایان غیرمنتظره ورودی 1: fac ~ ^ خب، فکر می‌کنم پیشرفت‌هایی داشتم، یک عملکرد تناسب اندام ایجاد کردم، و با یک جستجوی تصادفی (هنوز در حال اجرا است، من یک خوشه‌بندی بهتر از قبل predict.foo پیدا کردم. <- تابع(x) x for(i در 1:1000000) { s <- نمونه(1:ncol(tab3),sample(68:200,1)) cr <- ucpm(predict(mylda(tab3[,s], fac))$posterior، fac)$CR write.table(ماتریس(c(cr,s)، nrow=1)، randonSearch.txt، append=TRUE, row.names=FALSE, col.names=FALSE) } با این کار فایل **randonSearch.txt** را با استفاده از: cut -d -f1 ../randonSearch.txt زیر نظر دارم | grep 0.8 من قبلاً یک نرخ صحت 0.833 پیدا کرده ام، آن را بررسی کنید![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/a9kgV.png) فکر می کنم هنوز جایی برای بهبود وجود دارد، من من به الگوریتم ژنتیک فکر می کنم ...
بهترین مجموعه از متغیرهای باینری را برای خوشه بندی برچسب های نمونه شناخته شده انتخاب کنید
59467
من سعی می کنم تفاوت بین این سه رویکرد و کاربردهای آنها را بیاموزم. الف) همانطور که می‌دانم AIC = -LL+K BIC = -LL+(K*logN)/2 مگر اینکه چیزی را گم کرده باشم، آیا K که AIC را به حداقل می‌رساند نباید BIC را نیز به حداقل برساند زیرا N ثابت است. من به این تاپیک نگاه کردم اما جواب قانع کننده ای پیدا نکردم. ب) طبق کتاب داده کاوی Witten (صفحه 267) تعریف MDL برای ارزیابی کیفیت شبکه همان BIC است. آیا بین BIC و MDL تفاوتی وجود دارد؟ ج) رویکردهای مختلف برای محاسبه MDL چیست؟ من به دنبال کاربرد آن در خوشه بندی، تجزیه و تحلیل سری های زمانی (ARIMA و تغییر رژیم) و انتخاب ویژگی هستم. در حالی که تقریباً همه بسته‌های رایج مورد استفاده در R AIC و BIC را گزارش می‌کنند، من نتوانستم بسته‌ای را پیدا کنم که MDL را پیاده‌سازی کند و می‌خواستم ببینم آیا می‌توانم آن را خودم بنویسم. متشکرم.
AIC در مقابل BIC در مقابل MDL
59465
من یک نمونه از حدود 1000 مقدار دارم. این داده ها از حاصل ضرب دو متغیر تصادفی مستقل $\xi \ast \psi $ به دست می آیند. اولین متغیر تصادفی دارای توزیع یکنواخت $\xi \sim U(0,1)$ است. توزیع متغیر تصادفی دوم مشخص نیست. چگونه می توانم توزیع دومین متغیر تصادفی ($ \psi $) را تخمین بزنم؟
حاصل ضرب دو متغیر تصادفی مستقل
29681
من از یک آزمایش خاص 3 خروجی دریافت می کنم. هر کدام اطلاعات کمیت فیزیکی در جهت x، y یا z است. روشی که ما اطلاعات را از آن سیگنال ها استخراج می کنیم، برازش است. در داده‌های استخراج‌شده از برازش، برخی از پارامترها فقط به جهت کمیت فیزیکی که می‌خواهیم اندازه‌گیری کنیم، و برخی دیگر به کل سیستم یا به مقدار اسکالر کمیت فیزیکی (ویژگی‌های مشترک) بستگی دارند. از نظر آماری، ترجیح داده می شود که برای همه جهات به طور همزمان یک تناسب انجام شود. این چیزی است که رئیسم به من گفت. آنچه او گفت درست به نظر می رسد، اما از نظر فنی، تطبیق 3 مجموعه داده با هم بسیار سخت است، زیرا این تابع در حال حاضر با 7 پارامتر در هر جهت بسیار پیچیده است، و ترکیب این 3 با هم فقط مسائل را پیچیده می کند، و تناسب من درست نیست. هنگام انجام همزمان آنها همگرا شوند. من از الگوریتم Levenberg-Marquardt استفاده می کنم. سوال این است که آیا کاری وجود دارد که بتوانم در نتایج فردی تناسب انجام دهم تا نتیجه تناسب همزمان را به دست بیاورم؟ به عبارت دیگر چگونه می توان از برازش همزمان اجتناب کرد و مزیت آماری آن را به دست آورد؟ و اگر برازش همزمان تنها راه حلی است که من دارم، گرفتن 3 مجموعه داده به تناسب همزمان چه چیزی را شامل می شود؟ چگونه این مقیاس پارامترهای برازش (Chi^2، وزن، تحمل ... و غیره) را تعیین می کند؟ من از برنامه ای استفاده می کنم که خودم با C++ نوشتم. از هر تلاشی متشکرم
تفاوت بین اتصال همزمان و اتصال جداگانه
79455
من گزیده‌های صوتی 8 دقیقه‌ای دارم که همه آن‌ها یک موسیقی را دارند. چهار مورد از آنها توسط یک گروه موسیقی دوره راهنمایی (2 رسا، 2 غیر بیان) و چهار مورد توسط یک گروه موسیقی دبیرستان (2 رسا، 2 غیر بیانی) ضبط شده است. من از شرکت کنندگان در گروه MS، گروه HS و مجموعه ای از ارزیاب های خبره دعوت می کنم تا به هر 8 گزیده گوش دهند و یک امتیاز واحد را به آنها اختصاص دهند. از آنجایی که همه این گزیده‌ها دارای یک قطعه موسیقی یک دقیقه‌ای هستند (البته توسط دو گروه مختلف و تحت دو شرایط متفاوت - گویا و غیر قابل بیان)، آیا برای کمک به کنترل جلوه‌های سفارش، باید 3 ترتیب ارائه صوتی مختلف داشته باشم؟ من قصد دارم 2 رتبه بندی گزیده صوتی رسا و 2 رتبه بندی غیرقابل بیان را برای هر گروه (MS، HS، Experts) میانگین کنم. فکر من این بود که با میانگین رتبه‌بندی‌ها (برای دریافت امتیاز برای هر گروه - MS Expressive، MS Unexpressive، HS Expressive، HS Unexpressive) که واقعاً نیازی به سفارش‌های جداگانه ندارم. هرگونه کمکی در مورد تعادل و/یا راه‌هایی برای جلوگیری از اثرات خستگی (از آنجایی که گزیده‌هایی 8 دقیقه‌ای از یک قطعه موسیقی است، اگرچه توسط دو گروه موسیقی مختلف در دو شرایط مختلف ضبط شده است) بسیار مفید خواهد بود. با تشکر از کمک شما!
آیا برای کنترل جلوه های سفارش باید 8 گزیده صوتی را متعادل کنم؟
18302
با عرض پوزش بابت عنوان غیر آموزنده این در واقع یک مشکل نسبتاً ساده است که من به راحتی می‌توانم آن را در matlab یا شاید stata انجام دهم، اما پروفسور می‌خواهد که در SAS باشد، که به نظر می‌رسد برای روبات‌ها طراحی شده است نه انسان‌ها. بگویید من ماتریسی از داده های خروجی مزرعه با ردیف هایی از محصولات در سطح مزرعه و مزرعه دارم. به عنوان مثال، مزرعه 1 دارای 3 زمینه است، بنابراین سه ردیف برای مزرعه 1 وجود دارد: $F_{11}، F_{12}، F_{13}$ یک ستون محصول نشان دهنده محصول رشد یافته در هر مزرعه هر مزرعه است. $F_{11}=corn$ $F_{12}=beans$ $F_{13}=squash$ (محصولات در واقع با یک مقدار عددی نشان داده می شوند.) من باید یک اسکریپت SAS بیابم که مزارع ذرت را از هم جدا کند. از مزارع غیر ذرت به عنوان مثال، من باید یک متغیر باینری «cornfarm=0 یا 1» ایجاد کنم. مزارع ذرت به هر مزرعه ای که در هر یک از مزارع خود ذرت کشت می کند، تعریف می شود. شبه کد مربوطه چیزی شبیه به این خواهد بود: برای i=1 به farmtotal برای j=1 به farmfieldtotal اگر F(i,j)=ذرت سپس cornfield(i,j)=1 j بعدی اگر مجموع (میدان ذرت(i)) >0 سپس cornfarm(i)=1 بعدی i
کدنویسی ساختگی در SAS
72154
در صفحه 10 این مقاله نویسنده بیان می کند که > در این بخش، من از رگرسیون لاجیت ماهانه Fama و MacBeth (1973) > [...] برای بررسی نوع پیش بینی استفاده می کنم. سؤال(های) من این است: 1. این به چه معناست، 2. آیا حتی از راه دور با شرایط معمولی که رویه Fama-MacBeth معمولی را ایجاد می کند (یعنی بازده دارایی تقریباً به صورت سریال نامرتبط است) توجیه می شود، و 3. غیرخطی بودن چگونه است. خطا در برآورد ضرایب بر تجمیع برآوردهای مقطعی تأثیر می گذارد؟ برداشت من این است که 1. به این معنی است که او هر ماه یک رگرسیون مقطعی را اجرا می کند و تخمین نقطه ای و خطاهای استاندارد را از سری زمانی این تخمین ها تشکیل می دهد، 2. احتمالاً دقیقاً نه، اما این چندان مهم نیست (مردم استفاده می کنند Fama-MacBeth در بسیاری از زمینه‌ها که تخمین‌های فردی مستقل نیستند)، و 3. من هیچ نظری ندارم. هر گونه بینش یا تفسیر دیگری در این مورد بسیار قدردانی خواهد شد. من همچنین از ارجاع به مقالات دیگر با استفاده از روش شناسی مشابه استقبال می کنم (در اینجا یکی است). یک استدلال کاملاً دقیق (یا اشاره گر به سمت یکی) که چنین رویه ای را توجیه کند (یا نادرست نشان دهد) بهینه خواهد بود.
رگرسیون های Logit Fama-MacBeth به چه معناست؟
114963
من سعی می کنم با استفاده از تابع multiplot کتاب آشپزی R دو نمودار در کنار یکدیگر ایجاد کنم، اگرچه خطای زیر را دریافت می کنم: > زیبایی باید طول یک یا همان طول > dataProblems:v.x باشد. کمک؟ کد من در زیر است: rm(list=ls()) library(ggplot2) library(grid) # تابع نمودار چندگانه multiplot <- function(..., plotlist=NULL, file, cols=1, layout=NULL) { مورد نیاز (شبکه) # از آرگومان‌های ... و نمودارهای plotlist فهرستی بسازید <- c(list(...), plotlist) numPlots = طول (نقاط) # اگر طرح‌بندی NULL باشد، سپس از 'cols' برای تعیین چیدمان استفاده کنید if (is.null(layout)) { # پانل را بسازید # ncol: تعداد ستون های نمودار # nrow: تعداد سطرهای مورد نیاز، محاسبه شده از # طرح بندی cols <- matrix(seq( 1، cols * سقف (numPlots/cols))، ncol = cols، nrow = سقف (numPlots/cols)) } اگر (numPlots==1) { print(plots[[1]]) } else { # تنظیم صفحه grid.newpage() pushViewport(viewport(layout = grid.layout(nrow(layout), ncol(layout))) ) # هر طرح را در مکان صحیح برای (i در 1:numPlots) بسازید { # موقعیت‌های ماتریس i,j مناطقی را که حاوی این نمودار فرعی هستند را دریافت کنید. matchidx <- as.data.frame(which(layout == i، arr.ind = TRUE)) print(plots[[i]]، vp = viewport(layout.pos.row = matchidx$row، layout.pos. col = matchidx$col)) } } } # تعریف تابع دو جمله ای بتا dbb <- تابع(x, N, u, v) { beta(x+u, N-x+v)/بتا(u,v)*(گاما(N+1)/(گاما(x+1)*گاما(N-x+1))) } #پارامترهای قبلی a<-1 b< -1 #داده N1<-100 X<-10 #نمونه جدید N2 <- 100 # ایجاد توزیع پیش‌بینی‌کننده قبلی، احتمال، پسین و پسین v.theta <- seq(0,1,length=1000) v.x <-seq(0,100,length=100) v.preor <-dbeta(v.theta,a,b) v.relihood <- select(N1,X)*(v .theta^X)*(1-v.theta)^(N1-X); v.posterior <- dbeta(v.theta,a+X,b+N1-X) v.posteriorPred <- dbb(v.x,N2,a+X,b+N1-X) # به صورت طرح فرعی p1<- qplot(v.x,v.prior,geom = c(نقطه، خط)) p2<-qplot(v.x,v.likelihood,geom = c(نقطه، خط)) مولتی پلات (p1، p2)
چند طرح R - خطای کتاب آشپزی R زیبایی شناسی باید یا طول یک باشد...
72151
من به دنبال فهرستی از الگوریتم‌های مدل‌سازی (به‌عنوان بسته‌ای در «R») هستم که می‌تواند این موارد را بپذیرد: 1. پیش‌بینی‌کننده‌های پیوسته یا مقوله‌ای، 2. پاسخ‌های پیوسته، 3. می‌توانند به طور مؤثر مقادیر از دست رفته را درمان کنند. به عنوان مثال، «glm» و «randomForest» رکوردهای دارای مقادیر گمشده را کنار می‌گذارند و بنابراین، در فهرست نهایی من نیست. من هم نمی خواهم انتساب را انجام دهم. تا کنون، لیست زیر را دارم: 1. GBM (بسته «gbm» در R) 2. RPART (بسته «rpart») 3. بسته بندی با rpart («ipred») 4. درخت («درخت»)
به دنبال فهرستی از تکنیک های مدل سازی برای پاسخ پیوسته با مقادیر گمشده در پیش بینی کننده ها
114962
**سناریو:** در نظر بگیرید که من حدود 100 گیگابایت داده خام دارم. وقتی ویژگی‌هایی را از آن با استفاده از رویکردهای سنتی و شناخته شده در منطقه خود استخراج می‌کنم، (مثلاً) **10000000 نمونه** دریافت می‌کنم. وقتی من مدل‌های یادگیری ماشینی نظارت‌شده (به‌ویژه با استفاده از Decision tress و شبکه‌های بیزی) با این داده‌ها می‌سازم، مقداری دقت طبقه‌بندی _x_% را دریافت می‌کنم. به عنوان بخشی از تحقیقاتم، روی رویکردی کار می‌کنم که انتظار می‌رود دقت بهتری ارائه دهد. با رویکرد من، تجزیه همان 100 گیگابایت داده منجر به نمونه‌های کمتری می‌شود - مثلاً 10 برابر کمتر. یعنی اکنون **1000000** نمونه با خود دارم. **مشکل:** برای اینکه نشان دهم رویکرد من بهتر عمل می کند، باید مقایسه مناسبی با رویکرد سنتی انجام دهم. من خیلی روشن نیستم که چگونه باید رویکرد خود را با رویکرد سنتی ارزیابی کنم. با توجه به همین مقدار داده خام، تعداد نمونه های استخراج شده توسط من 10 برابر کمتر است. برای مقایسه دقت به دست آمده توسط هر دو رویکرد، کدام بهتر است؟ - * **تعداد نمونه ها را یکسان نگه دارید.** 1000000 نمونه از داده های به دست آمده از الگوریتم من را در نظر بگیرید و همان تعداد نمونه به دست آمده از روش سنتی را _نمونه برداری کنید. یک تقسیم 70-30 برای داده های آموزش و آزمایش روی هر یک از آنها انجام دهید و مدل های من را بسازید. * **داده های ورودی خام را یکسان نگه دارید.** 100 گیگابایت داده خام بگیرید و ویژگی ها را با هر دو روش استخراج کنید. اندازه مجموعه داده های آموزشی (و آزمایشی) در هر دو مورد، تفاوت بسیار زیادی خواهد داشت. سپس، من می توانم یک تقسیم 70-30 برای آموزش-تست انجام دهم و مدل های خود را بسازم. * چیز دیگری ?? **به روز رسانی به کامنت آدرس توسط @ffriend** در صورت اهمیت، من با ردیابی شبکه (فایل های pcap) سروکار دارم. برای رویکردهای سنتی، خواننده را به این مقاله ارجاع می دهم که کار کلاسیکی است که از آن تکنیک استفاده می کند. برای رویکردم، فقط می‌توانم به کار مقدماتی‌ام پیوند دهم p.s.: احساس نمی‌کنم عنوان سؤالم خیلی خوب باشد. اگر کسی می‌تواند عنوان بهتری بیاندیشد، می‌توانید آن را ویرایش کنید.
چگونه رویکردهای سنتی را با رویکرد خود مقایسه کنم؟
111243
من به دنبال یک بسته R (یا ترکیبی از بسته‌ها) هستم که به من امکان می‌دهد تخمین MCMC یک مدل GMM را با عملکرد لحظه‌های مشخص شده توسط کاربر انجام دهم. من به نمای کار CRAN Bayesian نگاه کردم، اما به نظر نمی‌رسد چیزی را که به دنبالش هستم پیدا کنم، بسته‌ها یا خیلی کلی هستند (مثلا mcmc) یا خیلی خاص (MCMCpack)... در حالت ایده‌آل من می‌خواهم قادر به پیاده سازی Stochastic GMM یا استفاده از بسته R-INLA برای انجام تقریب لاپلاس تودرتوی تکراری، دوباره با یک تابع لحظه های مشخص شده توسط کاربر. هر گونه کمک تا حد زیادی قدردانی!
آیا بسته R برای تخمین MCMC روش تعمیم یافته لحظه ها وجود دارد؟
90839
من شکل زیر را با استفاده از بسته DLNM در **R** ترسیم می کنم. دیتاشیت a دارای متغیرهای «y» و «x1» است. من فرض می‌کنم که متغیر وابسته پیوسته «y» دارای توزیع گاوسی است و متغیر مستقل پیوسته «x1» با «y» با یک اسپلاین معمولی $df=3$ (دو گره) رابطه دارد. من از کد **R** زیر x1.bs استفاده کردم <- crossbasis(a$x1, lag=c(0,16), argvar=list(fun=ns, knots=c(55,75), int= FALSE، cen=48)، arglag=list(fun=ns، df=3)) model <- glm(y~x1.bs, data=a, family=gaussian()) pred.bs <- crosspred(x1.bs, model, cumul=TRUE) plot(pred.bs, contour, xlim=c(40,80), xlab=independent x, ylab=lag (هفته ها), main نمودار کانتور) plot(pred.bs، کلی، ylab=واحد، lwd = 1.5، main = اثر کلی، ci.level = 0.95، ci.arg = list (تراکم = 20، col = خاکستری (0.7))) ** سوال 1. ** چگونه می توانم شکل زیر را تفسیر کنم؟ ![Countour](http://i.stack.imgur.com/TD1ct.png) برای مثال، «x1»=75 و «lag»=6 «0.04» را نشان می‌دهد. 0.04 به چه معناست؟ ** سوال 2. ** چگونه می توانم شکل کلی را تفسیر کنم؟ ![Overall](http://i.stack.imgur.com/dqEwK.png) برای مثال، `x1`=70 و `lag`=6 جلوه کلی = 0.4 می دهد. اثر کلی 0.4 به چه معناست؟
چگونه نمودار dlnm Contour و نمودار کلی را در R تفسیر کنم؟
72157
خطای استاندارد یک برآوردگر به عنوان جذر واریانس برآوردگر (یا میانگین مربعات خطا، MSE، برای برآوردگرهای بی طرف) تعریف می شود. به طور خاص، اگر بخواهیم خطای استاندارد میانگین نمونه $\bar{X}$ را بدست آوریم، واریانس نمونه مورد استفاده برای محاسبه $\bar{X}$ را بر جذر $n$ تقسیم می‌کنیم: $$ {\rm MSE}(\bar{X}) = \frac{s^2}{n}, \\ {\rm and,} \\ ~ \\ {\rm S.E.} (\bar{X} ) = \sqrt\frac{s^2}{n} = \frac{s}{\sqrt{n}} $$ که در آن $s^2$ واریانس نمونه برای نمونه $X$s است. با این حال، در رگرسیون OLS، خطای استاندارد رگرسیون به صورت زیر تعریف می‌شود: $$ \sqrt\frac{SSR}{n - K} $$ که در آن SSR مجموع مجذور باقیمانده‌ها است. **سوال من این است: آیا نیازی به اصلاح مجدد با تقسیم بر اندازه نمونه $n$ نیست؟** مطمئنا $\sqrt{^{SSR}/_{n - K}}$ فقط تخمین نمونه است واریانس جمعیت و طبق فرمول بالا باید اصلاح شود. من می دانم که در هر دو مورد خطای استاندارد جذر MSE است، اما در مورد اول MSE واریانس نمونه ای است که برآوردگر از تقسیم بر $n$ بدست آمده است و در مثال دوم MSE فقط واریانس نمونه است. کسی توضیحی داره؟
آیا خطای استاندارد در OLS نیازی به تصحیح با n ندارد؟
72156
### زمینه من دو فرآیند دارم که هرکدام یک رویداد را در زمان‌های مختلف منتشر می‌کنند: زمان‌هایی که رویداد A رخ می‌دهد: 1، 15، 47، 73، 108 زمان وقوع رویداد B: 2، 18، 75، 90، 112، 140 I. مشکوک به وجود رابطه علی ضعیف از A به B * فرآیند B گاهی اوقات توسط فرآیند A آغاز می شود (یادداشت B-2 بعد از A-1، B-18 بعد از A-15، B-75 بعد از A-73 ...). * اما نه همیشه (توجه داشته باشید که A-47 با یک رویداد در B دنبال نمی شود) * و B نیز رویدادهای مستقل خود را دارد (مانند B-90 و B-140) ### سوال راه های اصولی برای مدل سازی این چیست؟ رابطه؟ توجه داشته باشید که من می‌خواهم هم تاخیر (در این مورد حدود 1-3 واحد زمانی) و هم یک قدرت اتصال را ثبت کنم (B معمولاً در اینجا به شدت A را دنبال می‌کند). جریان‌های رویداد واقعی ممکن است با شدت کمتری مرتبط باشند.
چگونه روابط بین دو دنباله رویداد را مدل کنیم؟
18300
این سوال نسخه توسعه یافته این سوال است. همانطور که در اینجا می بینید، دو توزیع برابر هستند، من باید پارامترهای a,b,c,d و e را محاسبه کنم. آیا می توانید راهی برای انجام آن به من نشان دهید؟ * * * یک مسئله دو کلاسه با احتمالات کلاس پیشینی برابر و چگالی شرطی کلاس گاوسی را به صورت زیر فرض کنید: $$p(x\mid w_1) = {\cal N}\left(\begin{bmatrix} 0 \\ 0 \end{bmatrix}،\begin{bmatrix} a & c \\ c & b \end{bmatrix}\right)\quad\text{and}\quad p(x\mid w_2) = {\cal N}\left(\begin{bmatrix}d \\ e \end{bmatrix},\begin {bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix}\right)$$ که $ab-c^2=1$.
چگونه می توان میانگین بردار و ماتریس کوواریانس توزیع های مساوی را محاسبه کرد؟
114960
چگونه متغیر وابسته را در lmer پیش بینی کنیم؟ آیا ما قبلاً بسته یا تابعی در R داریم؟
چگونه متغیر وابسته را در lmer پیش بینی کنیم؟
67865
محاسبه فراخوان/دقت از اعتبار سنجی متقاطع k-fold (یا ترک یک حذف) را می توان با میانگین گیری مقادیر فراخوان/دقت به دست آمده از k برابرهای مختلف یا با ترکیب پیش بینی ها و سپس محاسبه یک مقدار برای هر یک از فراخوان ها انجام داد. دقت داده های من از 1000 نمونه متعلق به دو کلاس تشکیل شده است. موارد مثبت فقط 50 نمونه است در حالی که منفی 950 نمونه است. اگر با استفاده از روش اعتبارسنجی متقاطع k-fold میانگین استفاده کنیم. سپس متوجه خواهیم شد که دقت و فراخوانی در 950 برابر تعریف نشده است (NaN) زیرا NP/(TP+FP) همه صفر هستند (زیرا فقط یک نمونه منفی در این K-fold بررسی می شود). من فکر می کنم، چنین NaN ممکن است با 1 جایگزین شود، زیرا معنایی ندارد که مقدار آن را 0 قرار دهیم (زیرا نمونه فعلی منفی است و به درستی منفی پیش بینی شده بود). سپس، فراخوان/دقت را از 1000 برابر میانگین می کنیم. مقادیر متفاوت از به دست آوردن تمام پیش بینی ها و سپس محاسبه یک دقت / فراخوان خواهد بود. همین تفاوت زمانی اتفاق می‌افتد که اعتبار متقاطع k-fold را روی این داده‌ها به‌جای ترک یک‌اوت اعمال کنیم (حتی اگر نسبت متعادلی از مثبت‌ها را در هر برابر تولید کنیم). بنابراین، سوال من این است: کدام رویکرد برای محاسبه دقت/یادآوری از اعتبار سنجی متقاطع k برابر (ترکیبی یا متوسط) دقیق تر است؟ آیا برای ترک یک نفره هم همین وضعیت وجود دارد؟ دو بحث مرتبط وجود دارد: میانگین در مقابل اعتبارسنجی متقاطع k-fold ترکیبی و میانگین دقت و یادآوری هنگام استفاده از اعتبارسنجی متقاطع، اما، بحث اول پاسخ روشنی برای این نکته نداشت و دومی تأثیر میانگین‌گیری Fmeasure را مورد بحث قرار می‌دهد (نه در دقت/یادآوری). در هر دو بحث بحث نشد که آیا کنار گذاشتن ترجیح دیگری دارد یا خیر.
اعتبارسنجی متقاطع k-fold و ترک یک خروجی میانگین در مقابل ترکیبی K-fold
91901
من دارم روی پایان نامه کار می کنم. مدل رگرسیونی اصلی من به شرح زیر است: 1. $Y=x_1*{\rm پرداخت}+x_2*{\rm کشور}+x_3*{\rm صنعت}...$ همه متغیرهای مستقل، متغیرهای ساختگی / باینری هستند. در مرحله بعدی نمونه خود را تقسیم می کنم و دو رگرسیون زیر را می سازم: 2. $Y=x_2*{\rm Country}+x_3*{\rm Industry}...$ => در اینجا فقط مشاهداتی را در نظر می‌گیرم که دارای ارزش هستند. 1 در رابطه با متغیر مستقل پرداخت 3. $Y=x_2*{\rm کشور}+x_3*{\rm صنعت}...$ => در اینجا من فقط در نظر دارم مشاهداتی که دارای مقدار 0 در رابطه با متغیر مستقل پرداخت بودند. متغیر مستقل پرداخت در پایان نامه من بسیار مهم است و همه متغیرهای باقی مانده را می توان به عنوان متغیرهای کنترل در نظر گرفت. «پرداخت» اگر معامله M&A به صورت نقدی پرداخت شود، مقدار 1 و اگر به صورت سهام پرداخت شود، مقدار 0 را می گیرد. من بازخورد زیر را از سرپرستم دریافت کردم و کاملاً مطمئن نیستم که چگونه آن را ادغام کنم: > ... آیا واقعاً می توانید نمونه را به نقد و سهام M&A تقسیم کنید؟... اگر شما واقعاً با فرضیه خود > درست هستید، شرکت های مختلف به‌عنوان روش پرداخت، پول نقد به جای سهام به‌عنوان روش پرداخت استفاده می‌شود...بنابراین دو جمعیت شما یکسان نیستند. به عبارت دیگر: مشکل درون زایی وجود دارد. برای حل آن از تخمین متغیر ابزاری هکمن 2 مرحله ای استفاده کنید... به توجیه اقتصادی IV های خود و تست اقتصاد سنجی آنها (معتبر > ابزار) توجه کنید... وقتی رویه هکمن را جستجو می کنم (به ویژه مثال مزد زن) به نظر می رسد که Y را تجزیه و تحلیل می کند. از این رو من گیج شده ام زیرا ارتباطی بین مثال دستمزد زن و مورد خود نمی بینم.
تخمین متغیر ابزاری هکمن 2 مرحله ای
79454
من سعی می کنم یک لایه softmax به یک شبکه عصبی آموزش دیده با انتشار پس زمینه اضافه کنم، بنابراین سعی می کنم گرادیان آن را محاسبه کنم. خروجی softmax $h_j = \frac{e^{z_j}}{\sum{e^{z_i}}$ است که $j$ عدد نورون خروجی است. اگر آن را استخراج کنم، $\frac{\partial{h_j}}{\partial{z_j}}=h_j(1-h_j)$ مشابه رگرسیون لجستیک دریافت می‌کنم. اما این اشتباه است زیرا بررسی گرادیان عددی من با شکست مواجه می شود. من چه غلطی می کنم؟ فکر می کردم باید مشتقات متقاطع را نیز محاسبه کنم (یعنی $\frac{\partial{h_j}}{\partial{z_k}}$) اما مطمئن نیستم چگونه این کار را انجام دهم و بعد را حفظ کنم گرادیان یکسان است، بنابراین برای فرآیند انتشار برگشتی مناسب است. با تشکر
لایه سافت مکس در یک شبکه عصبی
1529
هنگام انجام رگرسیون خطی چندگانه OLS، به جای رسم باقیمانده ها در برابر مقادیر برازش، من باقی مانده های دانشجویی (داخلی) را در برابر مقادیر برازش رسم می کنم (برای متغیرهای کمکی هم همینطور). این باقیمانده ها به صورت زیر تعریف می شوند: \begin{equation} e^*_i = \frac{e_i}{\sqrt{s^2 (1-h_{ii})}} \end{equation} که در آن $e_i$ باقیمانده است و $h_{ii}$ عناصر مورب ماتریس کلاه هستند. برای بدست آوردن این باقیمانده های دانشجویی در R، می توانید از دستور «rstandard» استفاده کنید. مردم معمولاً در این زمینه از چه نوع باقیمانده استفاده می کنند؟ به عنوان مثال، آیا شما فقط با $e_i$ می‌پیوندید یا از باقیمانده‌های jackknife یا کاملاً چیز دیگری استفاده می‌کنید. توجه: من به مقالاتی که نوع جدیدی از باقیمانده را تعریف می کنند که هیچ کس هرگز استفاده نمی کند، علاقه مند نیستم.
از چه نوع تجزیه و تحلیل پس از برازش باقیمانده ها استفاده می کنید؟
67867
پس از بررسی سوالات مرتبط در مورد اعتبار متقاطع و مقالات و بحث‌های بی‌شماری در مورد استفاده نامناسب از رگرسیون گام به گام برای انتخاب متغیر، هنوز نمی‌توانم پاسخ‌هایی را که در رابطه با ساخت مدل‌های رگرسیون لجستیک باینری باینری از مجموعه داده‌های 1000 به دنبال آن هستم، بیابم. (یا بیشتر) متغیرهای پیش بینی بالقوه. برای برخی اطلاعات پس زمینه، من معمولاً با مجموعه داده های بزرگ، 500 هزار ردیف یا بیشتر کار می کنم، و علاقه من به ساخت مدل های رگرسیون لجستیک باینری است تا پیش بینی کنم که آیا یک فرد (1) صورتحساب خود را در یک حساب خاص بدون پرداخت می کند یا خیر. با استفاده از رگرسیون لجستیک گام به گام در حال حاضر، رگرسیون لجستیک گام به گام به عنوان «روش کامل» در میان آماردانانی که با آنها کار کرده‌ام مورد استقبال قرار می‌گیرد، و من می‌خواهم آن را تغییر دهم، زیرا بسیاری از مشکلات آن را از نزدیک مشاهده کرده‌ام. من اخیراً به تجزیه و تحلیل PCA («proc varclus») و جنگل تصادفی («RandomForest») پرداخته‌ام که مورد دوم بسیار مفید است. با این حال، من همچنان به دنبال مسیرهای بیشتر در مورد چگونگی کاهش تعداد متغیرها در مدل های لجستیک باینری خود بدون استفاده از رگرسیون لجستیک گام به گام هستم. با توجه به آنچه گفته شد، هر گونه کمک (مقالات یا افکار پیشنهادی) بسیار قدردانی می شود. با تشکر
جایگزین های رگرسیون لجستیک گام به گام با مجموعه داده های بزرگ
22223
من سعی می کنم دقت را در یک طبقه بندی کننده ساده بیز که از مجموعه ای از ویژگی ها استفاده می کند، بهبود بخشم. من تصور می کنم که حذف برخی از ویژگی ها ممکن است در واقع عملکرد را بهبود بخشد. استدلال من برای یک ویژگی خاص است که ممکن است پی دی اف های تخمینی در کلاس ها کمی متفاوت باشند به دلیل حجم محدود داده های یادگیری، نه به این دلیل که واقعاً متفاوت هستند. به عنوان مثال، اگر یک ویژگی در بین 2 کلاس، هیستوگرام یکسانی داشته باشد به جز مقداری نویز | | ||| ||| |||||||_ نویز _|||||||| p(x1 | C1)، یا H1(x) | | ||| ||| ||||||||________|||||||| p(x1 | C2)، یا H2(x) من قبلاً می‌دانم که هنگام مدل‌سازی p(x1 | C1) می‌توانستم عرض bin بزرگ‌تری را برای صاف کردن نویز انتخاب کنم، اما بیایید بگوییم این یک بهینه بود. پهنای باند در مثال بالا من می خواهم این نوع موارد را شناسایی کنم و ویژگی را حذف کنم. من به واگرایی کولبک-لایبلر نگاه کردم. اما، نمی توانم نحوه محاسبه آن را ببینم زیرا $KL(H2 || H1) = \sum H_2(i) log( \frac{H_2(i)}{H_1(i)}) $ برای مثال تعریف نشده است. هیستوگرام بالا به دلیل صفر در یک مورد که H2(x) صفر نیست. یا برعکس برای KL(H1||H2). هر گونه پیشنهاد، افکار؟ با تشکر
اندازه گیری محتوای اطلاعاتی یک متغیر تصادفی در طبقه بندی کننده Naive Bayes
110682
ما یک گزارش روزانه داریم که داده‌های تأخیر وب‌سایت p90 روز را می‌گیرد و آن را با همان روز در چهار هفته گذشته مقایسه می‌کند و می‌گوید آیا تأخیر p90 برای یک روز خاص بالا یا پایین شده است. من همچنین قصد داشتم یک گزارش هفتگی بسازم که میانگین دلتای تاخیر p90 را برای هفته های جاری و گذشته گرفته و دلتا را نشان دهد. داشتم به این فکر می‌کردم که انجام این کار چه مزایایی خواهد داشت و گزارش هفتگی چه نوع بینش‌هایی را نشان می‌دهد که در گزارش روزانه وجود ندارد؟
گزارش تأخیر هفتگی نسبت به گزارش روزانه چه مزایایی باید به من بدهد
79457
من می‌خواهم احتمالات ترکیب‌های عضویت گروه را برای اندازه‌های نمونه مختلف (مثلاً n= 3، 4، 5، 10 یا 100) برای دو گروه (با اندازه نمونه یکسان) شبیه‌سازی یا محاسبه کنم. هر نتیجه می تواند مرد/زن و جوان/پیر باشد. جمعیت 50 درصد مرد و 50 درصد جوان است. احتمال به دست آوردن چقدر است: همه مرد در گروه 1 و همه زن در گروه 2 یا همه مرد در گروه 2 و همه زن در گروه 1 یا همه جوان در گروه 1 و همه پیر در گروه 2 یا همه جوان در گروه 2 و همه قدیمی‌ها در گروه 1 من همچنین می‌خواهم بتوانم دسته‌های دیگری را نیز بگنجانم (مثلاً سبزیجات خود را می‌خورند، سبزیجات خود را نمی‌خورند) و بتوانم درصدی از جمعیت را انتخاب کنم که در یک دسته یا دسته دیگر قرار می گیرد. دسته‌ها می‌توانند مستقل از یکدیگر باشند، اما اگر توانایی وابسته کردن عضویت وجود داشته باشد، بهتر است (به عنوان مثال، زنان 70 درصد مواقع سبزیجات خود را می‌خورند و مردان 50 درصد مواقع). همچنین بهتر است این به دسته هایی با 2 نوع محدود نشود (به عنوان مثال، بتوانید کلاس چهارم، پنجم یا ششم را انجام دهید). هدف من محاسبه احتمال به دست آوردن گروه‌های کاملا نامتعادل برای ترکیب‌های مختلف مخدوش‌ها است و نمی‌توانم بفهمم چگونه این کار را با R انجام دهم. و به نوعی پیچیده **ویرایش:** سوال بازنویسی شده: دو گروه هستند که نمونه های مستقلی از یک جامعه دانش آموزان هستند که آنها را درمان و کنترل می نامند. جمعیت شامل 50 درصد مرد، 50 درصد زن، هر کدام 25 درصد در پایه سوم تا ششم است. در هر پایه تعداد زن و مرد مساوی است. همچنین 75 درصد از زنان سبزیجات مصرف می کنند، در حالی که تنها 50 درصد از مردان بدون توجه به کلاس مدرسه سبزیجات می خورند. برای اندازه‌های مختلف نمونه، می‌خواهم شانس قرار گرفتن همه پسران در یک گروه (درمان/کنترل) را محاسبه کنم، در حالی که همه دختران در گروه دیگر وجود دارند یا همه دانش‌آموزان هم کلاس در یک گروه در حالی که گروه دوم شامل همه دانش‌آموزان می‌شود. همان درجه اما متفاوت از درجه اول. به عنوان مثال همه دانش آموزان کلاس سوم در گروه درمان و همه دانش آموزان کلاس ششم در گروه کنترل. OR همه سبزی خواران در یک گروه و همه غیر سبزی خواران در گروه دوم.
نحوه محاسبه جایگشت متغیرهای طبقه بندی شده با R
90834
با سلام و تشکر از اینکه به سوالات من نگاه کردید. من مطمئن هستم که این یک سوال بسیار ساده است، اما به نظر نمی رسد که آن را درک کنم، یک کمیته سه نفره از مجموعه ای متشکل از پنج نفر انتخاب می شود: دو زن (A و B) و سه مرد (C,D,E) اگر کمیته به طور تصادفی انتخاب می شود، احتمال اینکه هر دو زن وجود داشته باشد چقدر است؟ (من فکر کردم برای این یکی P=(2/5)*(1/4) خواهد بود زیرا اولین انتخاب شده 2/5 شانس زن بودن دارد و نفر دوم شانس 1/4 دارد اما من گفته شد که درست نیست) و اگر در عوض، کمیته با انتخاب تصادفی یکی از دو زن، یکی از سه مرد و سپس یکی از سه نفر باقیمانده انتخاب شود، احتمال اینکه شامل هر دو زن باشد چقدر است.
احتمال انتخاب کمیته
96788
من یک مجموعه داده کوچک از داده های شمارش دارم که تعدادی اندازه گیری صفر دارد. پراکندگی بیش از حد من نسبتاً زیاد است. به همین دلیل من به سمت استفاده از بسته glmmadmb کشیده شدم. من درک می کنم که چگونه می توان تناسب توزیع ها (poisson، nbinom و غیره) را با استفاده از AICtab مقایسه کرد. چیزی که من با آن دست و پنجه نرم می کنم این است که چگونه ارزیابی کنم که آیا مدل با «بهترین» تناسب توزیع واقعاً با داده های من مطابقت دارد یا خیر. در glm های 'نرمال'، اینجا جایی است که از qqnorm(resid(model)) qqline(resid(model)) استفاده می کنید، با این حال، من می دانم که مفروضات مورد نیاز برای استفاده از آن در دوجمله های منفی و غیره برآورده نمی شوند. بنابراین، می‌خواهم کسی به من در جهت درست برای یافتن پاسخ راهنمایی کند... چگونه انتخاب مدل خود را در GLMMADMB تأیید می‌کنید؟ پیشاپیش از کمک شما سپاسگزارم، من واقعاً از وقت و تلاش شما قدردانی می کنم. **ویرایش**: 8 مه 2014 مجموعه داده های من بسیار ساده است….. من در حال آزمایش پاسخ رفتاری به محرک های پخش صوتی هستم. من 10 حیوان دارم که به صورت کنترلی پخش می‌شوند، و همان 10 حیوان روز بعد یک پخش درمانی را بازی کردند (تناوب برای متعادل کردن اثرات دستور درمان). بنابراین، من فقط یک اثر ثابت (درمان صوتی) و یک اثر تصادفی (نام فردی) دارم. من احساس می‌کنم که با توابع «lmer» راحت هستم و از «lme4» در چندین مدل بسیار بزرگ‌تر، هم تعداد و هم دو جمله‌ای استفاده کرده‌ام. من نسبت به درک خود از مدل های glmmadmb کمی مطمئن نیستم…. چیزی که من مشکل را در مورد این مدل کوچک می بینم، این است که 5/10 از پاسخ های اندازه گیری شده برای پخش کنترلی 0 هستند (با 5/10 دیگر اعداد کوچک و 10/10 برای پخش درمان اعداد بزرگ هستند). مجموعه داده من به شرح زیر است: رفتار درمان صوتی فردی A درمان 60 ب درمان 29 درمان 32 درمان 40 درمان 3 درمان 25 گرم درمان 21 ساعت درمان 50 درمان 14 JTREATMENT CONTROL 0 D CONTROL 0 E CONTROL 19 F CONTROL 10 G CONTROL 4 H CONTROL 0 I CONTROL 0 J CONTROL 3 ​​و من مدل زیر را نصب کرده ام: modelNBIT<-glmmadmb(BEHAVIOUR~AUDIO_TREATMENTVI+(1INDI)‎،family=1|inDI) ، تورم صفر = TRUE) من در ابتدا فکر می کردم که مدل های کوتاه شده (یا مدل های مانع) ممکن است برای این کار مناسب تر باشند، اما glmmadmb کوتاه شده خطای زیر را اجرا می کند .... (شاید به دلیل بیش از حد برازش) پارامترها تخمین زده شدند، اما خطاهای استاندارد نبودند: بیشترین مشکل احتمالی این است که انحنا در MLE صفر یا منفی بود. به سوال اصلی خود برمی گردم - می خواستم بدانم آیا کسی می تواند راهی برای اعتبارسنجی مدل پیشنهاد کند (در این مورد دقیق، modelNBIT)؟ مجدداً بابت وقت و تلاش شما سپاسگزارم.
اعتبارسنجی انتخاب مدل در glmmadmb
90836
من مجموعه ای از سری های زمانی برای روزهای مختلف (فرکانس و منبع یکسان) دارم. من باید زیر مجموعه ای از آن را انتخاب کنم و آنها با هم مقادیر آینده را پیش بینی می کنند. در حال حاضر من به سادگی از سری های زمانی X از Y با کمترین مقادیر AICc در مدل ARIMA استفاده می کنم. می‌خواهم بدانم از کدام تست‌ها می‌توانم برای انتخاب زیرمجموعه استفاده کنم. زیرمجموعه مورد استفاده برای پیش‌بینی می‌تواند شامل سری‌های زمانی باشد که بیشترین همبستگی را دارند، یا روندهای مشابهی دارند و غیره. توضیح با استفاده از کد R مفید خواهد بود.
انتخاب بهترین سری زمانی برای پیش بینی
18301
آیا آزمون نسبت درستنمایی ($-2 \log L$) اساساً شبیه آزمون F جزئی است که از آن برای رگرسیون لجستیک به جای رگرسیون خطی استفاده می کنید؟
آزمون نسبت احتمال
1520
امروز به مشکل جالبی برخوردم یک سکه و x پول به شما داده می شود، اگر سر به دست بیاورید پول دو برابر می کنید و در هر پرتاب نیمی از دم را از دست می دهید. 1. ارزش مورد انتظار پول شما در n تلاش چقدر است. 2. احتمال دریافت بیش از ارزش مورد انتظار در (1) چقدر است. من اینگونه به آن نزدیک شدم. احتمال سر و دم یکسان است (1/2). مقدار مورد انتظار پس از اولین پرتاب = 1/2$(2*x) + 1/2(1/2*x) = 5x/4$ بنابراین ارزش مورد انتظار بعد از اولین پرتاب 5x/4$ است. به طور مشابه با تکرار انتظار پرتاب دوم در 5x/4، مقدار مورد انتظار پس از پرتاب دوم = 1/2$(2*5x/4) + 1/2(1/2*5x/4) = 25x/16$ بنابراین شما دنباله ای از مقادیر مورد انتظار: $5x/4$، $25x/16$، $125x/64$، ... پس از تلاش $n$، مقدار مورد انتظار شما باید باشد $(5^n/4^n) * x$. اگر $n$ به اندازه کافی بزرگ باشد، مقدار مورد انتظار شما باید به میانگین توزیع نزدیک شود. بنابراین احتمال اینکه مقدار بیشتر از مقدار مورد انتظار باشد باید 0.5 دلار باشد. من در مورد این یکی مطمئن نیستم.
مقدار مورد انتظار متغیر تصادفی در پرتاب یک سکه
29682
این احتمال را می‌توان به روش‌های مختلفی تعریف کرد، به عنوان مثال: * تابع $L$ از $\Theta\times{\cal X}$ که $(\theta,x)$ را به $L(\theta \mid x) نگاشت می‌کند. $ * تابع تصادفی $L(\cdot \mid X)$ * همچنین می‌توانیم در نظر بگیریم که احتمال فقط احتمال مشاهده‌شده است $L(\cdot \mid x^{\text{obs}})$ * در عمل، احتمال اطلاعات مربوط به $\theta$ را فقط تا یک ثابت ضربی به ارمغان می‌آورد، از این رو می‌توانیم احتمال را به‌عنوان یک کلاس هم ارزی از توابع در نظر بگیریم تا یک تابع، سؤال دیگری زمانی پیش می‌آید که با در نظر گرفتن تغییر پارامترسازی: اگر $\phi=\theta^2$ پارامتر جدید باشد، معمولاً با $L(\phi \mid x)$ نشان می‌دهیم که احتمال وجود دارد. $\phi$ و این ارزیابی تابع قبلی $L(\cdot \mid x)$ در $\theta^2$ نیست، بلکه در $\sqrt{\theta}$ است. این یک علامت توهین آمیز اما مفید است که در صورت عدم تاکید می تواند برای مبتدیان مشکل ایجاد کند. تعریف دقیق مورد علاقه شما از احتمال چیست؟ علاوه بر این، چگونه $L(\theta \mid x)$ را صدا میزنید؟ من معمولا چیزی مانند احتمال روی $\theta$ هنگامی که $x$ مشاهده می شود می گویم. ویرایش: با توجه به برخی نظرات زیر، متوجه شدم که باید زمینه را دقیق می‌کردم. من یک مدل آماری ارائه شده توسط یک خانواده پارامتری $\{f(\cdot \mid \theta)، \theta \in \Theta\}$ از چگالی‌ها را با توجه به برخی معیارهای غالب در نظر می‌گیرم، با هر $f(\cdot \mid \theta)$ در فضای مشاهدات ${\cal X}$ تعریف شده است. از این رو $L(\theta \mid x)=f(x \mid \theta)$ را تعریف می کنیم و سوال این است که $L$ چیست؟ (سوال در مورد یک تعریف کلی از احتمال نیست)
چگونه احتمال را دقیق تعریف کنیم؟
111244
من می خواهم از R برای حل مشکلی که دارم استفاده کنم. من حتی نمی دانم نام یک مشکل از این دست را چه بگذارم و برای من گوگل کردن مشکل است. حدس من این است که این نوع مشکل از قبل دارای بسته‌های R است که به حل آن کمک می‌کند، اما بسیار ممنون می‌شوم که برای تعریف مشکل کمک کنید. من می خواهم با توجه به برخی محدودیت ها، ترکیب بهینه عوامل را انتخاب کنم. من مجموعه بزرگی از عامل ها را دارم که هر کدام چهار معیار دارد: 1. **دسته 1** : می تواند 1 از 4 مقدار ممکن را بگیرد 2. **دسته 2**: می تواند 1 از 20 مقدار ممکن را بگیرد 3 **هزینه**: یک متغیر پیوسته 4. **بازده مورد انتظار**: یک متغیر پیوسته من مایلم مجموعه ای از 15 عدد را انتخاب کنم. agents، برای به حداکثر رساندن **بازده مورد انتظار**، با محدودیت های زیر: 1. باید تعداد معینی عامل از هر مقدار **دسته 1** 2. حداکثر تعداد عامل از هر مقدار * وجود داشته باشد. *دسته 2** 3. حداکثر **هزینه** وجود دارد، به طور خاص این چه نوع مشکلی است؟ آیا از بسته‌های R که می‌توانم برای کمک به من استفاده کنم یا تطبیق دهم، اطلاع دارید؟ من فقط R را مشخص می کنم زیرا با زبان بسیار راحت هستم. خیلی ممنون از وقتی که گذاشتید
بهینه سازی انتخاب از یک مجموعه، با محدودیت
111241
من می دانم که حداقل یک سیستم برای مدل سازی خودکار اشیاء سه بعدی از داده های تصویر وجود دارد. به نظر می رسد اتودسک روش خوبی را توسعه داده است. آیا کسی ساختار اصلی و الگوریتم های رایج در چنین سیستمی را می داند؟ تکنیک من شامل استفاده از یک شبکه عصبی چند سطحی (NN) است. ورودی‌ها رنگ‌های پیکسلی از چندین تصویر از شی در دست خواهند بود. خروجی داده های مدل کامپیوتری سه بعدی خواهد بود. مجموعه ای از تصاویر جفت شده با مدل های مورد نظر، داده های آموزشی برای یک الگوریتم ژنتیک (GA) خواهد بود. GA NN را سیم‌کشی می‌کند تا روابط بین تصاویر داده‌های آموزشی و مدل‌های مورد نظر را به بهترین شکل ممکن ترسیم کند. آیا این تکنیک در گذشته با موفقیت اجرا شده است؟ متشکرم.
سیستم های فعلی مدل تصویر به سه بعدی چگونه کار می کنند؟
110687
دو رویکرد احتمالی اصلی برای تشخیص تازگی وجود دارد: پارامتریک و ناپارامتریک. رویکرد ناپارامتریک فرض می‌کند که تابع توزیع یا چگالی از داده‌های آموزشی مشتق می‌شود، مانند تخمین چگالی هسته (به عنوان مثال، پنجره Parzen)، در حالی که رویکرد پارامتری فرض می‌کند که داده‌ها از یک توزیع شناخته شده می‌آیند. من با رویکرد پارامتریک آشنا نیستم. آیا کسی می تواند برخی از الگوریتم های شناخته شده را به من نشان دهد؟ ضمناً آیا می توان MLE را نوعی رویکرد پارامتریک در نظر گرفت (منحنی چگالی مشخص است و سپس به دنبال یافتن پارامتر مربوط به حداکثر مقدار هستیم)؟
آیا برآورد حداکثر احتمال (MLE) یک رویکرد پارامتری است؟
111247
این بار، من یک مشکل نظری بیشتر از محاسباتی دارم. من یک مدل مسیر دارم که علاقه مندم آن را روی یک مجموعه داده با دو گروه آزمایش کنم. این یک مدل دو پیش بینی بسیار ساده است که در زیر به آن اشاره شده است، و من از تابع ML-SEM در Mplus v.7 برای تجزیه و تحلیل داده ها استفاده می کنم. y = x1 + x2 سؤال اصلی تحقیق من این است (1.) آیا مدل من بین گروه ها بهتر کار می کند یا درون گروهی. من همچنین به (2.) نسبت واریانس محاسبه شده بین گروه در مقایسه با درون گروه علاقه مند هستم. در نهایت، می‌خواهم بدانم (3.) آیا x1 یک پیش‌بینی‌کننده بین گروهی بهتر است و x2 یک پیش‌بینی‌کننده درون گروهی بهتر است. مدل به خوبی همگرا می شود و به خوبی با داده ها مطابقت دارد، اما نمی دانم از چه نوع اطلاعاتی در خروجی برای پاسخ به این سه سوال تحقیق استفاده کنم. از چه داده هایی برای استخراج مقدار واریانس محاسبه شده توسط مدل در هر سطح استفاده می کنم؟ چگونه می توانم پیش بینی کننده هایی را که در داخل و بین گروه ها کار می کنند مقایسه کنم؟ هر گونه اشاره و پیشنهاد بسیار قدردانی خواهد شد. با تشکر
پاسخ به سوالات تحقیق با مدل سازی معادلات ساختاری چند سطحی (ML-SEM)
28480
به نظر می رسد روش بونفرونی (تقسیم آلفای آزمایشی بر # مقایسه) برای انتخاب سطح p برای رفع آلفای آزمایشی (هنگامی که بسیاری از مقایسه‌های زوجی انجام می‌شود) محافظه‌کارانه‌تر از حل کردن $1 - (1 - p)^k = 0.05$ باشد. برای استفاده از آلفا برای هر یک از مقایسه‌های زوجی $k$. چرا فقط معادله را حل نمی کنید؟
چرا از تقریب بونفرونی برای آلفای آزمایشی استفاده کنیم؟
114506
جدول آزمون کای اسکوئر من برای همگنی دارای 3x5 سلول، 3 نمونه در مقیاس لیکرت است. اکثر سلول‌های جدول دارای تعداد فرکانس کمتر از دو هستند، بنابراین توصیه می‌شود ستونی که حاوی سلولی با فرکانس کمتر از دو است را کنار بگذارید. اگر کل ستون را صرفاً به این دلیل که یک سلول دارای مقدار کمتر از 2 یا 0 است، کنار بگذارم، چه تأثیری بر فرضیه من خواهد داشت؟
تست مجذور کای برای مشکل همگنی (تعداد سلول کمتر از 2)
61428
صبح بخیر من در مورد تغییر واریانس در طول زمان جستجو کردم، اما هر چیزی که دیدم مربوط به سری های زمانی نسبتا طولانی بود. من یک سری از 5 نقطه زمانی دارم، با فاصله مساوی، اما با افراد مختلف در هر نقطه زمانی. حدود 15 متغیر وجود دارد که به آنها علاقه دارم، همه چیزهای پزشکی مانند سطح گلوکز و فشار خون و غیره. برای مدل سازی، من از یک مدل چند سطحی استفاده می کنم. اما رسم داده ها نشان می دهد که برای برخی از متغیرها، واریانس کاهش می یابد. از نظر پزشکی، این چیز خوبی است. بسیاری از متغیرها اگر خیلی کم یا خیلی زیاد باشند، بد هستند. اما چگونه می توانم این تغییر واریانس را آزمایش کنم؟ و ممکن است این به راهی برای تشخیص میزان تغییری که من می بینم از رگرسیون به میانگین منجر شود؟
آزمایش تغییر واریانس در 5 نقطه زمانی و رگرسیون به میانگین
67866
_**آیا کسی می تواند یک نمای کلی از محبوب ترین الگوریتم های آموزشی برای پرسپترون ها ارائه دهد؟ به نظر می رسد صدها الگوریتم مختلف وجود دارد که ادعا می کنند عملکرد بهتری دارند، اما برای من دشوار است که بتوانم پیاده سازی کنم کدام یک امیدوارکننده تر است (با پیچیدگی و زمان برای کدنویسی/درک هزینه ها). همچنین، من از theano در پایتون استفاده می کنم.
الگوریتم های سریع برای آموزش پرسپترون / شبکه عصبی / ANN
114502
از استنباط آماری کاسلا و برگر، > قضیه 7.5.1 (Lehmann-Scheff) برآوردگرهای بی طرفانه مبتنی بر آمار کامل > کافی منحصر به فرد هستند. من نمی دانم که آیا شرایط لزوما قوی نیست؟ یعنی آیا این درست است که > برآوردگرهای بی طرف بر اساس آمار کامل منحصر به فرد هستند؟ به سادگی با تعریف آمار کامل؟ (نکته: بی نظیر به معنای ع.س.) با تشکر.
آیا برآوردگرهای بی طرف مبتنی بر آمار کامل منحصر به فرد هستند؟
23173
در اینجا سر مجموعه داده های من ('tjornres'): Fish.1 Fish.2 MORPHO DIET 1 1 2 0.03768 0.1559250 2 1 3 0.05609 0.7897060 3 1 4 0.039334306010. 0.1200480 0.1200480 5 1 6 0.05629 0.4390760 6 1 8 0.08366 0.1866750 7 1 9 0.04892 0.0988235 8 1 10 0.0442 RP `ET 0.04467` به فاصله مورفولوژیکی و رژیم غذایی بین ماهی 1 و ماهی 2. مجموعه داده های اصلی من بیش از 2400 جفت ماهی دارد. هدف من نمونه‌برداری مجدد از این مجموعه داده با انتخاب تنها 435 است. می‌خواهم این کار را 999 بار انجام دهم و توزیعی از ضرایب همبستگی MORPHO~DIET را دریافت کنم. ادامه دادم و این کد را نوشتم: head(tjornres) essayres = tjornres # کپی داده R = 999 # تعداد تکرارها cor.values ​​= numeric(R) # ذخیره داده ها برای (i در 1:R) { # حلقه + گروه 1 = نمونه (مقاله، اندازه = 435، جایگزین = F) + گروه2 = نمونه (مقاله، اندازه = 435، جایگزین = F) + cor.values[i] = cor.test(group1,group2)$cor + } من یک خطای نحوی در این کد دارم. همچنین اگر یک نمونه‌برداری مجدد، «نمونه(مقاله، اندازه=435، جایگزین=F)» را اجرا کنم، این پیام خطا را دریافت می‌کنم: خطا در «[.data.frame»(x, .Internal(sample(length(x)) اندازه، جایگزینی، :نمی توان نمونه ای بزرگتر از جمعیت را زمانی که 'جایگزین = نادرست' انتخاب کرد، آیا کسی می داند که چرا این کد کار نمی کند؟ (بدون جایگزینی) از کمک شما متشکرم،
نمونه برداری مجدد بدون جایگزینی در R، با یک حلقه
61423
من سعی می کنم از یک رگرسیون چندگانه (در اکسل) برای تعیین اثربخشی کمک های خارجی بر رشد تولید ناخالص داخلی استفاده کنم. من از زمان دانشگاه همه چیز را فراموش کرده ام... برنامه من این است که یک رگرسیون را با استفاده از تعیین کننده های ثابت به عنوان خط پایه اجرا کنم. سپس با افزودن متغیر مستقل «هزینه‌های کمک»، به مقدار p و ضریب «هزینه‌های کمک» اضافه کنید. آیا من جایی نزدیک هستم؟
پسرفت برای اثربخشی کمک های خارجی
77500
من مجموعه ای از 1000 نقطه داده از غلظت های اندازه گیری شده دارم که ممکن است شامل حداکثر 300 مقدار باشد که سانسور شده اند (زیر حد تشخیصی که آزمایشگاه می تواند به طور قابل اعتماد اندازه گیری کند). محدوده مقادیر حد تشخیص متفاوت است، مانند <2، <3، <7 و غیره. داده های من نه نرمال هستند و نه log-normal، و تا کنون از آزمون های ناپارامتریک برای تجزیه و تحلیل آن ها استفاده کرده ام. اطلاعات موجود در ادبیات تحقیقاتی محیطی در مورد استفاده از برآوردگرهای kaplan-meier یا ROS برای داده‌های سانسور شده چپ واقعی، در درجه اول فقط آمارهای کلی (یعنی میانگین، میانه، std. dev) را بین این روش‌های تخمین‌گر مختلف مقایسه می‌کند. من می‌خواهم از KM برای ایجاد **مقادیر فردی** برای نتایج من که زیر حد تشخیص هستند استفاده کنم. تا به امروز من به هر نرم افزار آماری که ممکن است در دسترسم باشد متکی بوده ام، اما در حال حاضر نمی توانم این گزینه را پیدا کنم. _ویرایش:_ مراحل تولید مقادیر برای داده های سانسور شده چپ (با استفاده از KM) چیست؟ آیا برنامه/نرم افزاری وجود دارد که بتوانم آن را به مجموعه داده خود اعمال کنم و سپس مقادیر را بر اساس KM درج کنم؟ در نهایت من علاقه مند به استفاده از این مقادیر تولید شده برای تجزیه و تحلیل چند متغیره بیشتر مجموعه داده های خود هستم و بنابراین به مقادیر فردی جدید (بر خلاف میانگین کلی، میانه و غیره) نیاز دارم. هر نظری مفید خواهد بود متشکرم.
آیا می توان از روش کاپلان مایر برای تخمین داده های سانسور شده چپ استفاده کرد؟
28486
من یک ANOVA اندازه گیری های مکرر سه طرفه را انجام داده ام. چه تحلیل‌هایی معتبر هستند؟ این یک طراحی کاملاً متعادل (2x2x2) است که یکی از عوامل دارای اندازه گیری مکرر درون آزمودنی ها است. من از رویکردهای چند متغیره برای اندازه گیری های مکرر ANOVA در R آگاه هستم، اما اولین غریزه من این است که با یک سبک ساده aov() ANOVA ادامه دهم: aov.repeated <- aov(DV ~ IV1 * IV2 * Time + Error(Subject/ زمان)، داده = داده) DV = متغیر پاسخ IV1 = متغیر مستقل 1 (2 سطح، A یا B) IV2 = متغیر مستقل 2 (2) سطوح، بله یا خیر) IV3 = زمان (2 سطح، قبل یا بعد) موضوع = شناسه موضوع (40 آزمودنی کل، 20 برای هر سطح IV1: nA = 20، nB = 20) خلاصه (aov.repeated) خطا: موضوع Df Sum Sq Mean Sq F مقدار Pr(>F) IV1 1 5969 5968.5 4.1302 0.049553 * IV2 1 3445 3445.3 2.3842 0.131318 IV1:IV2 1 11400 11400.3 7.8890 0.007987 ** باقیمانده ها 36 54523 S. --1. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطا: موضوع:Time Df Sum Sq Mean Sq F value Pr(>F) Time 1 149 148.5 0.1489 0.7019 زمان 1 865 864.6 0.8666 0.358103 IV2:زمان 1 10013 10012.8 10.0357 0.003125 ** IV1:IV2:زمان 1 852 851.5 0.8535 0.361738 0.361738 0.361738 0.361738 0.361738 0.361738 0.361738 0.361738 0.361738 0.361738 0.361738 0.361738 0.361738 0.361738 0.361738-399-59 باقی مانده کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 از طرف دیگر، من به استفاده از بسته nlme برای ANOVA سبک lme فکر می کردم: aov.repeated2 <- lme(DV ~ IV1 * IV2 * زمان، تصادفی = ~1|موضوع/زمان، داده=داده) summary(aov.repeated2) جلوه‌های ثابت: DV ~ IV1 * IV2 * مقدار زمانی Std.Error DF t-value p-value (Intercept) 99.2 11.05173 36 8.975972 0.0000 IV1 19.7 19.7 19.7 156.156 15. 0.2156 IV2 65.9 15.62950 36 4.216385 0.0002 *** زمان 38.2 14.12603 36 2.704228 0.0104 * IV1: IV2 -60.8 22.30 22.30 -60.8 4704228 زمان 0.923826 0.3617 اولین غریزه بعد از تعاملات دو طرفه قابل توجه من با Tukey با استفاده از glht() از بسته multicomp تضاد دارد: data$IV1IV2int <- تعامل(data$IV1, data$IV2) data$IV2Timeint <- تعامل(data$IV2 , data$Time) aov.IV1IV2int <- lme(DV ~ IV1IV2int، تصادفی = ~1|موضوع/زمان، داده=داده) aov.IV2Timeint <- lme(DV ~ IV2Timeint، تصادفی = ~1|موضوع/زمان، داده=داده) IV1IV2int.posthoc <- summary(glht(aov IV1IV2int، linfct = mcp(IV1IV2int = Tukey))) IV2Timeint.posthoc <- summary(glht(aov.IV2Timeint, linfct = mcp(IV2Timeint = Tukey))) IV1IV2int.posthoc #A.Yes - B.Yes == 0 0.94684 #B.No - بله == 0 0.01095 * #A.No - B.Yes == 0 0.98587 من برای این مهم نیستم #B.No - A.Yes == 0 0.05574 . من به این مهم نیستم #A.No - A.Yes == 0 0.80785 #A.No - B.No == 0 0.00346 ** IV2Timeint.posthoc #No.After - Yes.After == 0 0.0142 * # بله.قبل - بله.بعد == 0 0.0558 . #No.Before - Yes.After == 0 0.5358 من برای این مهم نیستم #Yes.Before - No.After == 0 0.8144 من به این مهم نیستم #No.Before - No.After == 0 0.1941 #No.Before - Yes.Before == 0 0.8616 مشکل اصلی که من با اینها می بینم تحلیل‌های پس‌هک مقایسه‌هایی هستند که برای فرضیه‌های من مفید نیستند. هر گونه پیشنهادی برای تجزیه و تحلیل مناسب پس از آن بسیار قدردانی می شود، با تشکر. **ویرایش:** پرسش و پاسخ مربوطه که به آزمایش ماتریس های کنتراست دستی اشاره دارد
تجزیه و تحلیل معتبر پس از وقوع یک ANOVA اندازه گیری های مکرر سه طرفه چیست؟
28489
من سعی می کنم از بسته dirmult در R برای یافتن پارامترهای توزیع چند جمله ای دیریکله استفاده کنم. با این حال، وقتی کد را اجرا می کنم، می بینم که به نظر می رسد به جای حداکثر کردن، احتمال را به حداقل می رساند. در اینجا یک نمونه ردیابی وجود دارد: > foo <- dirmult(data) تکرار 1: مقدار Log-Relihood: -108256.762432151 تکرار 2: مقدار Log-Relihood: -112024.171181739 تکرار 3: Iteration 3: Iteration 3: Iteration 3: Iteration 3: Iteration 3: Iteration 3: Log-likelihood value: -108256.762432151. 4: مقدار Log-lihood: -117178.454519049 تکرار 5: مقدار Log-lihood: -119081.542746927 تکرار 6: مقدار Log-Relihood: -120547.115475672 Iteration-like 7: -121631.658731926 تکرار 8: مقدار Log-Relihood: -122408.210532819 تکرار 9: مقدار Log-Relihood: -122950.170423675 تکرار 10: مقدار Log-Relihood: I 10: 122408.210532819: -1. مقدار Log-Relihood: -123572.241418431 تکرار 12: مقدار Log-Relihood: -123740.558811607 تکرار 13: مقدار Log-Relihood: -123853.029548595 Iteration value: Log-likelihood -123928.062303726 تکرار 15: مقدار Log-Relihood: -123978.091582544 تکرار 16: مقدار Log-Relihood: -124011.444469511 تکرار 17: Iteration 17: Iteration 17: Iteration 17: Iteration 17: Iteration 17: I23978.091582544 تکرار 18: مقدار Log-Relihood: -124048.502105592 تکرار 19: مقدار Log-Relihood: -124058.383928014 تکرار 20: مقدار احتمال Log: -124064.971772997، معمولاً این اتفاق نمی افتد. در مجموعه داده‌های مثال dirmult: > fit <- dirmult(us[[1]],epsilon=10^(-12)) تکرار 1: مقدار Log-Relihood: -3291.68283455695 تکرار 2: مقدار Log-Relihood: -3282.906992271 3: مقدار لاگ احتمال: -3277.28960275919 تکرار 4: مقدار Log-Relihood: -3274.32118891593 تکرار 5: مقدار Log-Relihood: -3273.14865155825 تکرار 6: مقدار Log-Relihood: I888821: -3278 مقدار Log-Relihood: -3272.84788154144 تکرار 8: مقدار Log-Relihood: -3272.84761179787 تکرار 9: مقدار Log-Relihood: -3272.84761175372 تکرار 10: Log -3272.84761175372 تکرار 11: مقدار لاگ احتمال: -3272.84761175372 چرا این اتفاق می افتد؟ آیا راهی برای رفع آن وجود دارد؟
بسته dirmult در R
104077
من می توانم بفهمم رقم دست نویس چیست، اما منظور از تصویر دودویی چیست؟ کسی میتونه توضیح بده؟ من در حال مطالعه مفاهیم یادگیری ماشین هستم. در انجام این کار، با انواع مختلفی از ورودی ها مواجه شده ام. به عنوان مثال: باینری، پیوسته و گسسته. ورودی ها از طریق مجموعه داده های تصویر دست نویس MNIST ارائه می شوند. در آن، من در مورد مجموعه داده های متشکل از تصاویر باینری خوانده ام. من همچنین می خواهم در مورد تفاوت بین تصاویر باینری و مقیاس خاکستری بدانم.
منظور از تصاویر باینری ارقام دست نویس چیست؟
73688
فرض کنید با استفاده از یک روش نمونه‌گیری خاص، یک نمونه تولید کرده‌ام، اما اکنون می‌خواهم عامل نرمال‌کننده بتواند احتمالات را محاسبه کند. آیا می توانم مجموع مقادیر را به عنوان عامل نرمال کننده آنها در نظر بگیرم. میشه لطفا منبعی هم بدین
مجموع نمونه ها به عنوان عامل نرمال کننده در MCMC؟
22229
من داده هایی برای نصب یک برنامه در روز و رتبه آنها در فروشگاه برای روز بعد دارم. هر کاربر/نصب را می توان بیشتر به دو دسته تقسیم کرد - آنهایی که به دلیل تبلیغ آن را نصب کرده اند و آنهایی که به تنهایی آن را نصب کرده اند (مثلاً شفاهی). از این داده ها، می خواهم بدانم که آیا افزایش تعداد تبلیغات باعث افزایش نصب و در نتیجه افزایش رتبه می شود یا خیر. من می دانم که رتبه یک آمار وحشتناک برای گره زدن به آن است (زیرا یک متغیر مستقل نیست؛ به عنوان مثال، به عملکرد برنامه های دیگر در فروشگاه مرتبط است)، اما برای مقایسه، من قبلاً یک رگرسیون خطی برای آن اجرا کرده ام. روزهایی که تعداد نصب‌های مبتنی بر آگهی کمتر از 5% از همه نصب‌ها در یک روز معین را تشکیل می‌دهد. با توجه به این، کدام آزمون آماری را باید اجرا کنم تا تأثیر نصب‌های غیرمجاز بر رتبه‌بندی را فیلتر کنم؟ اگر از معیارهای اشتباه استفاده کردم (به عنوان مثال، باید تغییر رتبه را در برابر تغییر در نصب‌ها در روز اندازه‌گیری کنم)، لطفاً به من اطلاع دهید. (و قبل از اینکه کسی بپرسد، این تکلیف نیست. و علاوه بر آن، من می دانم که بعد از این مرحله کدام تست را اجرا کنم.)
فیلتر کردن داده های رتبه بندی با استفاده از رگرسیون
24680
در پروژه R سعی می کنم مدل lm داده های تابلویی را با تابع plm تخمین بزنم. هنگامی که من 3 متغیر ساختگی را در رگرسیون قرار می دهم، در خلاصه مدل ظاهر نمی شود، اما وقتی یک مدل «lm» ساده را تخمین می زنم ظاهر می شود. چرا اینطور است؟ برای تخمین آمار آن متغیرهای ساختگی چه باید بکنم؟
تخمین مدل داده های تابلویی با متغیرهای ساختگی
77506
من در R جدید هستم و از شما در مورد فرمول lme برای اثر تصادفی نیمه متقاطع در مدل تصادفی با شیب تصادفی می خواهم. در داده‌های طولی من، هر موضوع (به استثنای برخی از ترک تحصیل) در 5 موقعیت مختلف مورد آزمایش قرار گرفت. آزمون های استاندارد شده توسط 3 ممتحن مختلف اجرا شد که 2 نفر از آنها در همه موقعیت ها حضور داشتند و آزمون سوم فقط در دو نوبت آخر انجام شد. آزمودنی ها به صورت تصادفی بین ممتحنین تقسیم شدند. داده های ساختگی: داده <- data.frame(موضوع=rep(A,5)، زمان=1:5، آزمونگر=c(2،1،2،2،3)، متغیر کمکی=c(1،1.3،0.8، 1,0.6), score=c(46,56,60,68,70)) مدل های زیر را آزمایش کردم: >model1 <- lme(score~time*variate, random=~time|موضوع، روش = REML, na.action=na.omit, data=dat) >model2 <- lme(score~time*variate, random=list(examiner=~1,subject=~time ), method=REML, na.action=na.omit, data=dat) >anova(model1, model2) #p<0.05 را با مدل بهتر مناسب برای مدل 2. می‌خواهم بدانم آیا «model2» روش صحیحی برای تعیین اثر تصادفی نیمه متقاطع در داده‌هایی است که توضیح دادم.
چگونه می توان اثر تصادفی نیمه متقاطع را در lme مشخص کرد؟
23465
من مجموعه‌ای از **توالی‌های نماد مشاهده** دارم که باید آنها را در برابر مجموعه‌ای از طبقه‌بندی‌کننده‌های HMM آموزش‌دیده شده **آزمایش کنم. به نظر می رسد که من مزایای استفاده از Log Probability را نسبت به احتمالات معمولی درک کرده ام. در **مرحله آزمایش** طبقه‌بندی‌کننده HMM، به نظر نمی‌رسد **انگیزه‌ای در پشت احتمالات یا اضافه کردن احتمالات گزارش** در تعیین کلاس دنباله آزمایش مشاهده مشاهده شده دریافت کنم. چرا باید احتمالات را ضرب یا جمع کنیم؟ آیا نمی‌توانیم با استفاده از الگوریتم Forward فقط احتمال یا احتمال ثبت یک **توالی نماد مشاهده منفرد** را تعیین کنیم؟
احتمال و احتمال ورود به سیستم در مدل های پنهان مارکوف
24681
(برای اینکه بفهمید چرا این را نوشتم، نظرات زیر پاسخ من به این سوال را بررسی کنید.) ## خطاهای نوع III و تئوری تصمیم گیری آماری دادن پاسخ درست به سوال اشتباه گاهی اوقات خطای نوع III نامیده می شود. تئوری تصمیم گیری آماری رسمی کردن تصمیم گیری در شرایط عدم قطعیت است. این یک چارچوب مفهومی را ارائه می دهد که می تواند به جلوگیری از خطاهای نوع III کمک کند. عنصر کلیدی فریم ورک، تابع ضرر نامیده می شود. دو آرگومان نیاز دارد: اولی (زیر مجموعه مربوطه) وضعیت واقعی جهان است (به عنوان مثال، در مسائل تخمین پارامتر، مقدار پارامتر واقعی $\theta$). دومی عنصری در مجموعه اقدامات ممکن است (به عنوان مثال، در مسائل تخمین پارامتر، تخمین $\hat{\theta})$. خروجی از دست دادن مربوط به هر اقدام ممکن را با توجه به هر حالت واقعی ممکن در جهان مدل می کند. به عنوان مثال، در مسائل تخمین پارامتر، برخی از توابع زیان شناخته شده عبارتند از: * خطای مطلق ضرر $L(\theta, \hat{\theta}) = |\theta - \hat{\theta}|$ * خطای مربع ضرر $L(\theta, \hat{\theta}) = (\theta - \hat{\theta})^2$ * ضرر LINEX Hal Varian $L(\theta, \hat{\theta}; ## بررسی پاسخ برای یافتن سوال موردی وجود دارد که ممکن است تلاش شود تا خطاهای نوع III را با تمرکز بر فرمول‌بندی یک تابع ضرر صحیح و ادامه روش تئوری تصمیم گیری (نه در اینجا به تفصیل توضیح داده شده است). این مختصر من نیست – بالاخره، آماردانان به خوبی با تکنیک ها و روش های بسیاری مجهز هستند که به خوبی کار می کنند، حتی اگر از چنین رویکردی نشات نگرفته باشند. اما نتیجه نهایی، به نظر من، این است که اکثریت قریب به اتفاق آماردانان تئوری تصمیم گیری آماری را نمی دانند و به آن اهمیت نمی دهند، و فکر می کنم آنها از دست می دهند. برای آن آماردانان، من استدلال می‌کنم که دلیل اینکه ممکن است نظریه تصمیم‌گیری آماری را از نظر اجتناب از خطای نوع III ارزشمند بدانند، به این دلیل است که چارچوبی را فراهم می‌کند که در آن از هر روش تحلیل داده‌ای پیشنهادی پرسیده می‌شود: _چه تابع ضرر (در صورت وجود) این روش را انجام می‌دهد. بهینه با آن کنار بیایید؟_ یعنی دقیقاً در چه موقعیت تصمیم گیری بهترین جواب را می دهد؟ ## زیان مورد انتظار پسین از دیدگاه بیزی، تابع ضرر تنها چیزی است که ما نیاز داریم. ما تقریباً می‌توانیم بقیه نظریه تصمیم را نادیده بگیریم - تقریباً طبق تعریف، بهترین کار این است که ضرر مورد انتظار بعدی را به حداقل برسانیم، یعنی عمل $a$ را پیدا کنیم که $\tilde{L}(a) = \ را به حداقل می‌رساند. int_{\Theta}L(\theta, a)p(\theta|D)d\theta$. (و در مورد دیدگاه های غیر بیزی؟ خوب، این یک قضیه نظریه تصمیم گیری مکرر است - به ویژه قضیه کلاس کامل والد - که عمل بهینه همیشه به حداقل رساندن زیان مورد انتظار پسین بیزی در رابطه با برخی از (احتمالاً نامناسب) خواهد بود. پیش از این مشکل این است که این یک قضیه وجودی است که هیچ راهنمایی برای استفاده از آن ندارد از رویه‌هایی که می‌توانیم «معکوس» کنیم تا بفهمیم دقیقاً به کدام سؤال پاسخ می‌دهیم، به ویژه، اولین گام در معکوس کردن هر رویه غیر بیزی این است که بفهمیم کدام رویه بیزی (در صورت وجود) تکرار یا تقریبی است. .) ## هی سیان، می دانید این یک سایت پرسش و پاسخ است، درست است؟ که من را - در نهایت - به یک سوال آماری می رساند. در آمار بیزی، هنگام ارائه تخمین‌های بازه‌ای برای پارامترهای تک متغیره، دو رویه بازه‌ای معتبر رایج عبارتند از فاصله معتبر مبتنی بر کمیت و بازه معتبر بالاترین چگالی خلفی. عملکردهای زیان پشت این رویه ها چیست؟
توجیه نظری تصمیم برای رویه های بازه ای معتبر بیزی چیست؟
77501
من برای یک مدل اثرات مختلط برای تجزیه و تحلیل داده های طولی، یک موضوع ترک یک موضوع را انجام می دهم، که در آن مدل برای همه موضوعات منهای یک در یک زمان برازش داده می شود و موضوع سمت چپ به داده اعتبار سنجی تبدیل می شود. مدل اصلی به این صورت فرموله شده است: model<-lme(score~time*variate,random=~time|subject, data=fulldata,...) سپس یک حلقه برای ایجاد مدل های آموزشی از مجموعه داده ایجاد می کنم که یک موضوع را در یک موضوع ایجاد می کنم. زمان، و از مقادیر زمان و متغیرهای کمکی سوژه‌های کنار گذاشته شده برای جمع‌آوری امتیازات پیش‌بینی‌شده برای سوژه‌های کنار گذاشته شده استفاده کنید. مسئله این است که پیش‌بینی می‌کند (مدل جدید، پیش‌بینی‌کننده‌های سوژه چپ، سطح (0:1)) خروجی را فقط برای سطح 0 می‌دهد، یعنی پیش‌بینی سطح جمعیت، نه پیش‌بینی سطح موضوع. این سوال تا حدی در اینجا پاسخ داده شده است: اعتبار سنجی متقاطع برای مدل های ترکیبی؟ ، که در آن توصیه می شود برای به دست آوردن یک پیش بینی سطح 1، اثر تصادفی=0 را فرض کنید. چگونه می‌توانم هنگام استفاده از تابع پیش‌بینی برای موضوع حذف‌شده، جلوه تصادفی خارج از نمونه را صفر تعیین کنم؟
اعتبار سنجی متقابل یک موضوع را برای مدل‌های جلوه‌های ترکیبی ترک کنید
77508
این سوال هنگام خواندن چ. 3 از راسموسن و ویلیامز. در پایان این فصل، نویسندگان نتایجی را برای مسئله طبقه‌بندی ارقام دست‌نویس ارائه کردند (تصاویر 16×16 مقیاس خاکستری). ویژگی ها 256 شدت پیکسل + بایاس هستند. من متعجب شدم که در چنین مسئله‌ای با ابعاد بالا، روش‌های متریک، مانند فرآیندهای گاوسی با هسته نمایی مربعی، یا SVM با همان هسته، کاملاً خوب عمل می‌کنند، بدون اینکه قبلاً کاهش ابعاد وجود داشته باشد. همچنین، گاهی شنیده‌ام که SVM برای طبقه‌بندی متن [در اصل کیسه‌ی کلمه] خوب است. چرا آنها از نفرین ابعادی رنج نمی برند؟
چرا روش‌های هسته با RBF برای دسته‌بندی ارقام دست‌نویس (حروف) موثر هستند؟
77502
من سعی می کنم معنای عملی درجات آزادی کمتر را در رابطه با نتایج نتایج آزمون t کشف کنم. به عنوان مثال: اگر من دو نمونه وابسته داشته باشم و بخواهم میانگین آنها را با استفاده از آزمون t مقایسه کنم. اگر از هر دو آزمون برای نمونه‌های وابسته و مستقل استفاده کنم، درجات آزادی بیشتری در آزمون وابسته خواهم داشت (یعنی برای میانگین و واریانس مجهول، نمونه مستقل _n-2_ df و وابسته _n-1_ خواهد داشت). با فرض اینکه دانش پایه من معتبر باشد و توضیحات بالا درست باشد، استفاده از هر آزمون با _df_ کمتر یا بیشتر چه تاثیری بر نتایج (مقادیر p، احتمال دریافت مثبت/منفی کاذب) خواهد داشت؟ آیا هیچ کدام از اینها منطقی است؟
استنباط تفاوت در درجه آزادی در نتایج آزمون t
24685
فرآیند هاکس نمایی تک متغیره یک فرآیند نقطه‌ای خود هیجان‌انگیز با نرخ رسیدن رویداد است: $ \lambda(t) = \mu + \sum\limits_{t_i<t}{\alpha e^{-\beta(t- t_i)}}$ که $ t_1،..t_n $ زمان رسیدن رویداد هستند. تابع log درستنمایی $ - t_n \mu + \frac{\alpha}{\beta} \sum{( e^{-\beta(t_n-t_i)}-1 )} + \sum\limits_{i<j است. }{\ln(\mu+\alpha e^{-\beta(t_j-t_i)})} $ که به صورت بازگشتی قابل محاسبه است: $ - t_n \mu + \frac{\alpha}{\beta} \sum{( e^{-\beta(t_n-t_i)}-1 )} + \sum{\ln(\mu+\alpha R(i))} $ R (i) = e^{-\beta(t_i-t_{i-1})} (1+R(i-1)) $ $ R(1) = 0 $ از چه روش های عددی می توانم برای پیدا کردن MLE استفاده کنم ? ساده ترین روش عملی برای پیاده سازی چیست؟
یافتن MLE برای یک فرآیند هاکس نمایی تک متغیره
72485
به نظر من نمرات ERR نرمال شده (رتبه بندی متقابل مورد انتظار) (نمرات ERR الگوریتم رتبه بندی شما تقسیم بر امتیاز ERR محاسبه شده برای رتبه بندی حقیقت زمین) مفیدتر از امتیازات ERR مقیاس نشده است، اما من ندیده ام که نمرات نرمال شده در ادبیات آیا دلیل موجهی وجود دارد که نمرات ERR در قالب خام و نه عادی گزارش شده است؟
چرا نمرات ERR (رتبه‌بندی متقابل مورد انتظار) عادی نمی‌شوند؟
72484
اینجا وضعیت من است من یک بسته مواد را وزن می کنم که 10 واحد جداگانه در آن وجود دارد. در پایان روز من می خواهم میانگین وزن و واریانس هر واحد را بدانم، اما مشکل این است که نمی توانم هر واحد را جداگانه وزن کنم، زیرا باید بسته را از بین ببرم تا به واحدهای جداگانه برسم. بنابراین، به جای این، سعی می کنم از آنچه در مورد بسته ها می دانم، استنتاجی از واحدهای مجزا داشته باشم. من 10 بسته وزن کردم (بنابراین من 100 واحد جداگانه دارم). من توانستم میانگین وزن واحدها را بفهمم اما با واریانس مشکل دارم. این چیزی است که من تاکنون انجام داده‌ام: $$ \begin{split} \bar{y}&=\frac{1}{10}\sum^{10}_{i=1}y_i\\ &=\frac {1}{10}\sum^{10}_{i=1} (x_{i,1}+x_{i,2}+...+x_{i,10})~~[از آنجایی که~y_i=x_{i,1}+x_{i,2}+... +x_{i,10}]\\ &=\frac{1}{10}\sum^{100}_{j=1}x_j\\ &=\frac{1}{10}(100~\bar{x})=10~\bar{x} \end{split} $$ بنابراین میانگین $x$، $\bar{x} را داریم =\frac{\bar{y}}{10}.$ اما اکنون چالش من این است که چگونه می توانم واریانس $x$ را با توجه به واریانس $y$ پیدا کنم؟ پیشنهادی دارید؟ با تشکر ::::UPDATE:::: بعد از کمی فکر به این استدلال رسیدم: $$ \begin{split} \frac{1}{10}var(y)&=var(\bar{y})\\ &=var(10~\bar{x})\\ &=100~var(\bar{x})\\ &=100~\frac{1}{100}var(x)~~[با فرض اینکه~all~x~are~i.i.d.]\\ &=var(x) \end{split} $$ بنابراین داریم $ var(x)=\frac{1}{10}var(y).$ من درست می گویم که اگر فرض کنیم همه واحدهای مجزا واریانس مشترک یکسانی دارند و مستقل از یکدیگر هستند، این نتیجه برقرار است؟
واریانس متغیر جمع / مرکب؟
73684
من مجموعه داده ای از سفارشات جعلی از برخی مشاغل دارم. هر سفارش دارای تعدادی ویژگی مانند order_amount، آدرس، ایالت، شهر، phone_number و نام است. بدیهی است که یک مجرم از نام واقعی خود در هنگام صدور یک دستور تقلبی استفاده نمی کند. بنابراین می‌دانستم که آیا هر نوع استراتژی یادگیری ماشینی برای شناسایی نام‌های جعلی وجود دارد یا خیر. من فرض می کنم باید نوعی ساختار اساسی برای نحوه انتخاب نام های جعلی وجود داشته باشد - بنابراین درک این ساختار می تواند به من امکان شناسایی آنها را بدهد. مگر اینکه نام های جعلی کاملاً تصادفی انتخاب شوند. آیا فکری در مورد نحوه انجام این کار دارید؟
مشکل یادگیری ماشین - شناسایی نام های جعلی جعلی
28152
طول مورد انتظار یک رگه از سر یا دم هنگام ورق زدن سکه چقدر است؟ این چه توزیعی است؟ من تقریباً مطمئن هستم که پاسخ 2 است. اما من نمی دانم چه توزیع هایی است. من کد R زیر را انجام دادم: l=10000 longest.stk = avg.stk = numeric(l) for(i در 1: l){ x=sample(0:1، 1000، repl=T) r = rle(x) longest.stk[i] = max(r$lengths) avg.stk[i] = mean(r$lengths)} mean(longest.stk) [1] 10.3001 mean(avg.stk) [1] 2.000825
محاسبه ارزش مورد انتظار یک رگه
73689
من یک مجموعه داده دارم که چیزی شبیه به این است (داده واقعی نیست): conc پاسخ 0 5 0.1 18 0.2 20 0.3 23 0.4 24 0.5 24.5 0 5 0.1 17 .. .. که کاملاً با معادله Michaelis-Menten مطابقت دارد. > Resp = max_value * conc / (conc_value_at_half_max + conc) حتی اگر این چیز کاملاً مهم دیگری است، پاسخ به سرعت با conc افزایش می‌یابد و سپس به سقف یا حداکثر مقدار می‌رسد. به هر حال، من می خواهم بدانم قبل از اینکه مقدار Resp به طور قابل توجهی از مقدار حداکثر کمتر نباشد، چقدر می توانم در conc پایین بیایم. استفاده از یک ANOVA ساده این امر را به خوبی انجام می دهد، اما من داشتم فکر می کردم: آیا نباید از این واقعیت استفاده کنم که ساختار داده ها به خوبی توسط یک معادله شناخته شده توضیح داده شده است؟ آیا چنین راهی وجود دارد؟ من از minitab برای این کار استفاده می کنم زیرا ساده تر است، اما همیشه در R کار می کند.
ANOVA در مقابل برازش غیرخطی
114037
من می خواهم از LDA در مطالعه خود استفاده کنم. من می خواهم از LDA برای طبقه بندی داده های خود استفاده کنم. داده‌های من یک ماتریس $M\times 20$ است، یعنی ویژگی‌های $20$ در داده‌های من وجود دارد. چگونه می توانم LDA را برای داده های خود اعمال کنم؟ و یک سوال دیگر: آیا LDA فقط روی داده هایی کار می کند که فقط دو ویژگی دارند (متریس$M\times 2$)؟
تعداد احتمالی ویژگی در تحلیل تفکیک خطی (LDA)
24689
من یک مدل رگرسیون را با استفاده از بسته ordinal در R ساخته و اصلاح کرده ام. اندازه گیری $0>1>2>3>4>5$ (بله/خیر سوالات) است و هر 10 دقیقه به مدت یک ساعت (قسمت) در همان فرد، دو بار در هفته تا 6 هفته، اما به طور متوسط ​​3 تکرار می شود. هفته ها من 6000 مشاهده از این قبیل در 1000 ساعت برای 150 نفر دارم. وقتی یک مدل تک متغیره ساختم با استفاده از تعداد سؤالات $(0-5)$ که به عنوان متغیر وابسته پاسخ داده شد و گفتم جنسیت به عنوان متغیر مستقل، با وقفه های تصادفی برای فرد و قسمت، ضرایب را به عنوان تفاوت در گزارش متناسب تفسیر کردم. شانس پاسخ به یک سوال اضافی به طور متوسط ​​در تمام نقاط زمانی. سوال من این است: آیا این معتبر است یا به دلیل ماهیت مدل اثرات مختلط که برای آن حساب نمی‌کنم، مفروضات غیرقابل قبولی داشته‌ام. اتفاقاً من می توانم بسته مرتبی را به طور کامل توصیه کنم، اگرچه در حال توسعه است و مشکلات جزئی با همگرایی برای برخی از پارامترهای غیر استاندارد دارد.
تفسیر ضرایب رگرسیون لجستیک ترتیبی هنگامی که در داده ها خوشه بندی وجود دارد
73680
من در یادگیری ماشینی تازه کار هستم و نمی توانم این مشکل را حل کنم. من دو مجموعه داده بیمار دارم، اولی ($D_1$) حاوی $Y,Z,X$ است که اطلاعات نمونه خون را منتقل می کند و دومی ($D_2$) حاوی $W,T,X$ است که اطلاعات اشعه ایکس را منتقل می کند. در هر دو مجموعه داده، $X$ خروجی تشخیصی رایج است. از آنجایی که دو مجموعه داده مجزا وجود دارد، من یک راه حل را با دو مدل Naive Bayes به شکل زیر مدل کردم، که در آن $X$ متغیر وابسته رایج است. (من می دانم که می توانم از تکنیک های دیگری غیر از Naive Bayes استفاده کنم، اما این هدف سوال من نیست.) * $P(X|Y,Z,D_1) \propto P(Y|X,D_1) \cdot P(Z |X,D_1) \cdot P(X,D_1)$ * $P(X|W,T,D_2) \propto P(W|X,D_2) \cdot P(T|X,D_2) \cdot P(X,D_2)$ می‌خواهم احتمالات پسین X را در این مدل‌ها ترکیب کنم: $P(X|Y,Z)$ و $P(X|W,T) $ برای تعیین احتمال پیامد کلی $P(X|Y,Z,W,T)$ (نتیجه تشخیصی) یک بیمار جدید. ** چگونه می توانم این احتمالات را ترکیب کنم؟ ** آیا می توان آن را به صورت زیر انجام داد؟ $P(X|Y,Z,W,T) \propto \frac{P(X|Y,Z) * P(X|W,T)}{P(X,D_{ترکیب})}$ اگر چنین است ، رابطه بین $P(X,D_1)$, $P(X,D_2)$ و $P(X,D_{ترکیبی})$ چیست؟
ترکیب احتمالات پسین از طبقه بندی کننده های متعدد
73355
من سعی می کنم یک مدل مدت زمان گسسته برای تجزیه و تحلیل بیکاری (ماهانه) با استفاده از داده های نظرسنجی اجرا کنم. من داده‌های سطح خانوار را دارم و به همین دلیل می‌خواهم جلوه‌های خانگی را در مدل خود کنترل کنم. من فکر کردم که این کار را با اجازه دادن به اثرات خوشه‌ای در تخمین خطاهای استاندارد یا با اثرات تصادفی (برای خانواده‌ها) انجام دهم - به عنوان مثال، من فکر می‌کنم که اثرات ثابت کار نمی‌کنند زیرا تعداد خانواده‌ها زیاد است و به دلیل پارامتر اتفاقی مشکل مدل من هم ویژگی های فردی (به عنوان مثال، سن، مدرسه، شغل، از زمانی که فرد بیکار بوده است - همانطور که به طور گذشته از آنها پرسیده شد) و برخی متغیرهای دیگر و همچنین ویژگی های خانواده (مانند اندازه، تعداد افراد بیکار) را شامل می شود. . آیا کسی می تواند در مورد روش پیشنهادی من نظر بدهد؟ آیا چیزهایی وجود دارد که باید به آن توجه داشته باشم یا راه های بهتری برای انجام این کار وجود دارد؟ همچنین از هرگونه مرجع مرتبط بسیار قدردانی می کنم.
تجزیه و تحلیل مدت زمان بیکاری
72483
من سعی می کنم یک تبدیل جعبه کاکس با سرعت انجام دهم. من یک متغیر وابسته، فروش سالانه خارجی شرکت ها (به هزاران دلار آمریکا) دارم که حاوی صفر است، برای مجموعه ای از داده های پانل. به من توصیه شده است که مقدار کمی مثلاً 0.00001 را به ارقام فروش سالانه خارجی اضافه کنم تا بتوانم لاگ را بگیرم، اما فکر می کنم تبدیل جعبه-کاکس ثابت مناسب تری نسبت به 0.00001 تولید می کند. من یک تبدیل box-cox روی R با کدهای زیر انجام دادم، اما لامبدا2 بسیار بزرگی با 31162.8 به من داد. library(geoR) boxcoxfit(bornp$ForeignSales، lambda2 = TRUE) خروجی #R - پارامترهای نصب شده: # lambda lambda2 beta sigmasq # -1.023463e+00 3.116280e+04 9.770577e-0 من 9.770577e-0 مقدار بالای lambda2 بسیار بزرگ است، بنابراین مطمئن نیستم که آیا باید boxcoxfit را با متغیرهای مستقل خود مانند زیر اجرا کنم: boxcoxfit(bornp$ForeignSales,bornp$family bornp$roa bornp$solvencyratio,lambda2=TRUE) من هنوز هستم تلاش برای شناسایی بهترین مجموعه از متغیرهای مستقل، بنابراین مطمئن نیستم که استفاده از boxcoxfit با متغیرهای مستقل در این مرحله کارساز باشد یا خیر. بهترین در اینجا شرح دو پارامتر لامبدا از راهنما آمده است: مقدار(های) عددی lambda برای پارامتر تبدیل $\lambda$. به عنوان مقدار اولیه `` در تابع برای تخمین پارامتر استفاده می شود. در صورت عدم ارائه مقادیر پیش‌فرض به صورت «» جمع‌بندی می‌شوند. اگر چندین مقدار ارسال شود، یکی با بالاترین احتمال به عنوان مقدار اولیه استفاده می شود. مقدار(های) منطقی یا عددی lambda2 تبدیل اضافی (به جزئیات زیر مراجعه کنید). پیش‌فرض «NULL» است. اگر «TRUE» این پارامتر نیز تخمین زده شود و مقدار «» اولیه روی مقدار مطلق حداقل داده تنظیم می شود. یک مقدار عددی `` به شرط استفاده به عنوان مقدار اولیه است. چندین مقدار مانند `` لامبدا مجاز است. من از هر گونه راهنمایی در مورد موارد فوق بسیار سپاسگزار خواهم بود.
تبدیل جعبه کاکس با سرعت
73351
اساساً من سعی می کنم مدل Garch (1،1) را با سفارش ARIMA از AUTO.ARIMA> ASSIGN (Paste ( Spec.Ret.Fin. ، Colnames (Base.Name [1]) ، SEP = ) قرار دهم. , + ugarchspec(variance.model = list(model = fGARCH، garchOrder = c(1, 1)، + submodel = GARCH، external.regressors = NULL، variance.targeting = false) ، + as.model = لیست (armaorder = c (2،3،4) ، شامل. mean = true ، archm = false ، + archpow = 1 ، arfima = false ، external.regressors = null ، null ، archex = FALSE)، + distribution.model = norm، start.pars = list()، fixed.pars = list())) این نشان می دهد نتیجه زیر: > spec.ret.fin.chn *--------------------------------* * مدل GARCH مشخصات * *---------------------------------* دینامیک واریانس شرطی ------------------------------------ مدل GARCH : fGARCH(1,1) fGARCH Sub-Model : هدف گذاری واریانس GARCH: FALSE دینامیک میانگین شرطی ----------------------------------- مدل میانگین: ARFIMA(2,0,3) شامل میانگین: TRUE GARCH-in-Mean: FALSE توزیع شرطی --------------------------- ---------- توزیع: هنجار شامل Skew: FALSE شامل شکل: FALSE شامل لامبدا: FALSE اما همان کد با `arfima=TRUE` > spec.ret.fin.chn را می دهد *----------------------------- ----* * مشخصات مدل GARCH * *---------------------------------* دینامیک واریانس شرطی ------------------------------------ مدل GARCH : fGARCH(1,1) fGARCH Sub-Model : هدف گذاری واریانس GARCH: FALSE دینامیک میانگین شرطی ----------------------------------- مدل میانگین: ARFIMA(2,d,3) شامل میانگین: TRUE GARCH-in-Mean: FALSE توزیع شرطی --------------------------- ---------- توزیع: هنجار شامل Skew: FALSE شامل شکل: FALSE شامل لامبدا: نادرست چگونه می توان آن d را با ترتیب ادغام (d) arima جایگزین کرد؟
چگونه می توان arima (p,d,q) را در ugarchspec برای ugarchfit در rugarch مشخص کرد؟
101230
هنگام آموزش رگرسیون، تمرینی را انجام می‌دادم که در آن دانش‌آموزان سعی می‌کردند حدس بزنند خط بهترین تناسب در کجای نمودار پراکنده است و مجموع مربع‌ها را بدست آورند. آن‌ها خط را به اطراف حرکت می‌دادند، می‌دیدند که شیب و برش چگونه تغییر می‌کرد، و مشاهده می‌کردند که چگونه مجموع مجذور باقیمانده تغییر کرده است. این نشان می‌دهد که خط بهترین تناسب واقعاً مجموع مربع‌ها را به حداقل می‌رساند، و جالب است، زیرا شما کمی رقابت دارید تا ببینید چه کسی می‌تواند کمترین مجموع مربع‌ها را به دست آورد. (همچنین کمی در مورد نحوه عملکرد رویکردهای تکراری آموزش می دهد.) این به یک ویژگی وحشتناک و وحشتناک اکسل متکی است - اینکه می توانید روی یک نمودار کلیک کنید و یک نقطه را بکشید و داده ها را به روز می کند. (نه اینکه برای تجزیه و تحلیل داده ها به دلیلی برای دوست نداشتن اکسل نیاز داشته باشیم). من یک خاطره مبهم از دیدن یک برنامه جاوا (احتمالا) سالها پیش دارم که این کار را انجام می داد، اما اکنون نمی توانم آن را پیدا کنم. آیا چیز دیگری وجود دارد؟
از چه نرم افزاری استفاده می کنم به صورت دستی یک خط رگرسیون را روی یک نمودار تنظیم می کنم؟
114030
من می دانم که می توان به راحتی واریانس (بدون قید و شرط) یک فرآیند گارچ (r,s) را بدست آورد: $\sigma^2= \frac { \alpha_0 } { (1- \Sigma_{i=1}^r \alpha_i - \ Sigma_{j=1}^s \beta_j ) }$ با این حال من در تلاش برای به دست آوردن یک عبارت تحلیلی برای واریانس بدون قید و شرط وقتی یک قسمت ARMA وجود دارد، هستم. همچنین در گرچ.. یعنی ARMA(p,q)+ Garch (r,s) برای هر کمکی ممنون میشم ..با احترام دیناکار
نوسانات بی قید و شرط از فرآیند آرما-گارچ
73352
فرض کنید من ماتریس‌های ضریب همبستگی «N» دارم که حاوی ضرایب همبستگی پیرسون سری‌های زمانی مختلف «k» با مقداری است که برای هر موضوع آزمایش اندازه‌گیری می‌شود. سپس ماتریس‌های همبستگی از بازه «[-1،1]» به «[0،1]» از طریق یک عملیات خطی «C» = 0.5*(C+1.0)» تغییر مقیاس می‌دهند. یک نمودار از آن ضرایب همبستگی ایجاد کنید و من باید آستانه ای را تعیین کنم که یک لبه بین دو گره اضافه شود. در پایان با ماتریس‌های مثبت «N» می‌آیم و می‌خواهم از آنها برخی معیارهای غیرخطی (یعنی معیارهای نظری نمودار) استخراج کنم. آیا درست است **متوسط** ماتریس های 'N' و سپس استخراج آن معیارها از ماتریس متوسط؟
میانگین ماتریس های همبستگی در بین آزمودنی ها
114034
من مدل رگرسیون لجستیک را برای جنسیت و نوشیدنی را برای داده‌های ihd با استفاده از مدل دستور زیر مطابقت می‌دهم<-glm(ihd~as.factor(gender)*as.factor(drink),Family='binomial',data=ihd) My سوال این است که چگونه می توانم نسبت تصادفی تخمینی را برای: 1. جنسیت در قشر غیر مصرف کننده و 2. جنسیت در طبقه مصرف کننده به دست بیاورم.
نسبت شانس ورود به سیستم را در R تخمین بزنید