_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
48288
|
من میخواهم معادلهای ایجاد کنم که از دو متغیر مستقل دوره و داده_انتقالشده و یک متغیر وابسته کیفیت_جلسه تشکیل شده باشد. اگر دادههای کمتری در مدت زمان بیشتری منتقل شود، کیفیت_Metting بد خواهد بود. ارائه معادله جمله بالا چگونه باید باشد؟ پیشاپیش ممنون در واقع، من می خواهم از مقادیر بالا در معادله در تحلیل رگرسیون استفاده کنم. من واقعاً برای هر گونه راهنمایی بیشتر سپاسگزار خواهم بود.
|
برای ایجاد معادله کیفیت جلسه به کمک نیاز دارید
|
67280
|
من باید با یک مدل ساده پیش بینی کنم که آیا مشتری بانک هنوز فعال است یا خیر. من اطلاعاتی مانند تاریخ آخرین ملاقات با مشتری دارم، اما برخی از آنها هیچ ملاقاتی با مشاور خود نداشته اند. شناسه_مشتری | Last_Meeting_date (در چند روز دیگر) | جنسیت |... A 115 F ... B NA F ... آیا می توان از مقدار/پرچم خاصی مانند 1000 برای نشان دادن به درخت استفاده کرد که تاریخ نداریم؟ در ذهن من، درخت تصمیم مانند رگرسیون خطی نیست، بنابراین می تواند یک استثنا ایجاد کند، مثلاً اگر Last_meeting_date=1000 آنگاه... اما من مطمئن نیستم.
|
درخت تصمیم و مقادیر از دست رفته
|
99651
|
من مجموعه داده عظیمی دارم (میلیونها ردیف، هزاران ستون) و رگرسیون منظم «glmnet» Lasso بسیار کند است. من نمیپرسم چه کتابخانههای دیگری وجود دارند که سعی میکنند تخمین مدل خطی منظم را بسیار کارآمد پیادهسازی کنند؟ من لزوماً به یک راه حل توزیع شده نیاز ندارم (می تواند بر روی یک CPU تخمین بزند)، و برای من خوب است که همه داده ها را در RAM بارگیری کنم (بنابراین راه حل «R» ممکن است خوب باشد، اگر وجود داشته باشد که به نحوی سریعتر از «glmnet» باشد. `). همچنین لزوماً نیازی نیست که توری کمند یا الاستیک باشد. من می توانم از جاوا، پایتون یا R استفاده کنم. داده های من بسیار نامرتب است، برخی از ستون ها پراکنده هستند، برخی دارای همبستگی خودکار سنگین و غیره هستند.
|
کتابخانه های مدل خطی منظم شده بسیار سریع
|
94326
|
فرض کنید من یک شرکت آنلاین بزرگ دارم، و بسیاری از مشتریان من سرگردان شدند (یعنی پرداخت می کردند، و سپس متوقف شدند). هدف من این است که بفهمم چرا هر یک از آنها به هم ریختند. ابتدا مجموعه کاملی از دلایل ریزش را شناسایی میکنم، $H_1،\ldots، H_n$. به عنوان مثال وب سایت گیج کننده است، مشتری علاقه خود را از دست داده است، و غیره. سپس با مشاهده، مجموعه ای از رفتارهای مشتری را شناسایی می کنم که با نرخ ریزش، $O_1،\ldots، O_m$ مرتبط هستند. هر یک از آنها به طور مستقیم قابل اندازه گیری هستند، به عنوان مثال. تعداد روزهایی که او وارد شده است، یا مدت زمانی که او در روز ثبت نام در وب سایت من سپری کرده است. فرض کنید محاسبه $\Pr[O_j=\cdot]$ آسان است و همه مشتریان من متقابل مستقل هستند. من می دانم که هر $H_i$ مربوط به زیر مجموعه ای از $O_j$ است. به عنوان مثال اگر یک مشتری سرگردان $d$ روز وارد سیستم شود، احتمال اینکه او علاقه خود را از دست بدهد $f(d)$ است، با $f$ یک تابع کاهشی. (یکی از مشکلات من محاسبه دقیق این تابع $f$ است.) هدف من این است که برای هر مشتری ریزش شده، و برای هر $i$، احتمال اینکه او به دلیل $H_i$، یعنی $$ \Pr[ به هم ریخته است، محاسبه کنم. H_i] = \sum_j \Pr[H_i\ |\ O_j=x_j] \Pr[O_j=x_j] $$ که در آن $x_j$ است ارزش $O_j$ برای مشتری داده شده. حالا، فرض کنید من یک نظرسنجی برای همه مشتریان پرخاشگر بفرستم و دلایل آنها را جویا شوم، اما مطمئناً فقط تعداد کمی از آنها به آن پاسخ می دهند. سپس میخواهم همه توابع $f_{ij}(\cdot) = \Pr[H_i\ |\ O_j=\cdot]$ را بر اساس شواهد جدید بهروزرسانی کنم تا بتوانم $\Pr[H_i] را با دقت بیشتری محاسبه کنم. دلار برای همه مشتریانی که به نظرسنجی پاسخ نداده اند. سوال من این است که دقیقا چگونه می توانم این کار را انجام دهم؟ و چگونه می توانم برآوردهای خوب برای $f_{ij}$های اصلی بدست بیاورم؟ آیا رویکرد من درست است؟ ویرایش: اکنون متوجه شدم که فرمولی که برای $\Pr[H_i]$ ارائه کردم، آشکارا اشتباه است. $O_j$ ها یک پارتیشن تشکیل نمی دهند. فکر میکنم باید $\Pr[H_i\ |\ (O_1,\ldots,O_m)=(x_1,\ldots,x_m)]$ را مستقیماً محاسبه کنم، زیرا $O_j$ها حتی به صورت زوجی مستقل نیستند.
|
موردی از درک رفتار مشتری
|
57825
|
من علاقه مندم که توزیع دوجمله ای پواسون/منفی را برای تخمین تعداد دفعاتی که یک پدیده در یک دوره اتفاق می افتد، مثلاً 10 سال، تخمین بزنم. من می توانم وقایع را از روی گزارش های ماهانه بشمارم، اما متاسفانه گزارش هایی وجود ندارد. بنابراین برای یک نمونه، من ممکن است 120 شکاف رصدی داشته باشم، اما برای برخی دیگر ممکن است 30 داشته باشم. این رویداد می تواند اتفاق بیفتد اگر مشاهده نشود. الگوی شکافهای گمشده تصادفی است (یعنی بین نمونهها همبستگی ندارد)، و میتواند منجر به هر چیزی شود، از یک رکورد مشاهدهای تقریباً کامل تا یک رکورد بسیار ضعیف. چگونه می توانم با این موضوع کنار بیایم؟
|
برازش توزیع پواسون از مشاهدات گمشده
|
95108
|
من یک مجموعه داده دارم و می خواهم یک فرضیه را در آنجا بررسی کنم و احتمالاً تحلیل شبکه باید نظریه من را اثبات یا رد کند. من لیستی از محصولات و گروهی از مردم دارم که محصول را به یکدیگر می دهند. هرکسی می تواند آن را به هر قیمتی که می خواهد به دیگری بفروشد (امیدوارم کسی آن را بخرد). بنابراین، زنجیره ای از محصولات را بین مردم تصور کنید. به جز قیمت فروش، یک نفر نیز درصدی از فروش محصول بعدی را خواهد گرفت که محصول را مجدداً بفروشد. و همچنین اگر برای اولین بار محصولی را بفروشم برای همیشه برای هر فروش درصدی می گیرم. مثال: A -> B -> C شخص A پول حاصل از فروش را به شخص B می برد. شخص B پول فروش را به شخص C می برد و شخص A درصدی از این فروش را به عنوان مالک قبلی و خالق می گیرد. از زنجیره اگر شخص C محصول را به شخص دیگری بفروشد، فقط شخص B درصد قبلی را می گیرد، اما شخص A درصد خالق را می گیرد. من معتقدم افرادی هستند که سعی می کنند از سیستم سوء استفاده کنند و حلقه های کوچک یا بزرگتری ایجاد کنند تا از این درصدهای فروش بعدی برای پنهان کردن خود استفاده کنند. آیا راهی برای شناسایی این افراد وجود دارد؟
|
مشکل احتمالی برای تحلیل شبکه
|
57826
|
من یک مجموعه داده دارم که شامل متغیرهایی در مورد سطح درآمد مشتری است. درآمد به صورت مخفی جمعآوری شد («کدام محدوده درآمد شما را توصیف میکند؟ 0-25k، 25k-50k،...»). سوال من این است که چگونه بهترین استفاده از این برای مدل سازی با استفاده از بسته های glmnet و gbm در R است. من به «گروهبندی» بستهبندی شده در «R» نگاه کردهام، اما به نظر میرسد همه چیز (کورس و رگرسیون) را برای شما انجام میدهد. آیا بسته ای وجود دارد که داده های binn شده را برای استفاده در الگوهای دیگر به داده های پیوسته تبدیل کند؟ EDIT: روش فعلی که من استفاده می کنم این است که آنها را به نقطه میانی محدوده (`0-25k -> 12500`) تبدیل می کنم، سپس از stmt `ifelse()` برای کدنویسی چند متغیر برای انتقال واقعیت استفاده می کنم. که بین سطوح رابطه وجود دارد. incOver25k <- ifelse(df1$income >= 25000,1,0) incOver50k <- ifelse(df1$income >= 50000,1,0) سپس به جای استفاده از `model.matrix()` از این پرچم ها استفاده کنید. کنجکاو بودم که آیا ایده های بهتری وجود دارد یا خیر.
|
برخورد با داده های گروه بندی شده / گرد
|
95101
|
من از بسته «flexmix» برای تخمین مدلهای لاجیت چندجملهای کلاس پنهان در R استفاده میکنم. در تئوری انتخاب، متغیرهایی میتوانند مرتبط با جایگزین (عمومی) یا متغیرهایی با عامل (جایگزین خاص) وجود داشته باشند. بسته «nnet» که زیربنای «FLXMRmultinom» قرار دارد، نمیتواند متغیرهای عمومی را در خود جای دهد. تا کنون، من ندیدهام که «FLXMRcondlogit» بتواند موارد خاص جایگزین را مدیریت کند. منعطف ترین بسته برای مدل های MNL 'mlogit' است. آیا کسی اجرای این را برای «فلکس میکس» دیده است؟
|
مدل لاجیت چندجمله ای کلاس نهفته R
|
100972
|
آیا مطالعه ای می شناسید که در آن محققان از نقشه برداری پارامتری آماری فقط برای **داده های مکانی** استفاده کرده باشند؟ من مطالعات زیادی پیدا کردم که از آن برای تجزیه و تحلیل سری های زمانی استفاده کردند، اما آیا این تجزیه و تحلیل برای داده هایی که بعد زمانی مشترکی ندارند کار می کند؟
|
SPM برای تحلیل فضایی
|
95102
|
در محاسبه شبه معکوس یک ماتریس $A$، به اندازه (m,n)، باید یک آستانه تحمل برای مقادیر ویژه انتخاب کنم. من سعی می کنم بفهمم چگونه باید این را انتخاب کنم. پیشفرض Matlab استفاده از $norm(A)*max(m,n)*eps$ است که در آن هنجار norm-2 و eps اپسیلون ماشین است. آیا ایده ای در مورد اینکه چرا این مقدار پیش فرض است؟ علاوه بر این، مواردی وجود دارد که در آنها $ A $ فقط در مقایسه با مقادیر دیگر جالب است. برای مثال، من میخواهم مقادیر ویژه $C + BB^TA^{-0.5}$ را محاسبه کنم که در آن A,B,C ماتریسها هستند، اما B میتواند بعد دوم بسیار بزرگی داشته باشد. در این مثال چگونه باید تلرانس را انتخاب کنیم؟
|
تحمل برای شبه معکوس
|
72155
|
من همین الان کار زیر را مرور کردم http://epublications.bond.edu.au/cgi/viewcontent.cgi?article=1199&context=ijbf و فکر کردم تفاوت بین مدل (9) در صفحه 12 چیست که نوسانات را به عنوان یک مدل مدل می کند. تابع نوسانات گذشته و خطای گذشته و مدل (10) که مدل GARCH(1,1) است. هر دو به نظر من ماهیت یکسانی دارند، لطفا اگر اشتباه می کنم اصلاح کنید.
|
تفاوت بین استفاده از ARMA و GARCH برای مدل سازی نوسانات؟
|
48754
|
من داده های زیادی (گیگ) دارم که ممکن است در پیش بینی قیمت سهام مفید باشد. من می توانم اینها را به عنوان یک سری از ویژگی ها (ستون ها) در جدولی وارد کنم که در آن شرکت ها ردیف هستند. اطلاعات سری زمانی هم دارم. من تجربه یادگیری ماشینی دارم اما تجربه ای به عنوان یک معامله گر ندارم. آیا نرمافزار یا پلتفرمی وجود دارد که بتوانم به راحتی دادههای خود را وارد کنم و بتواند دادههای من را تست بکآست/فوروارد کند تا ببینم مفید است؟ من میدانم که هر سیستم یادگیری ماشینی که در فضای عمومی وجود دارد به اندازه کافی از بازار بهتر عمل نمیکند تا هزینههای دلالی را پوشش دهد، اما با توجه به دادههای من، این احتمال وجود دارد که این کار را انجام دهد. بنابراین من احتمالاً نیازی به مهارت در یادگیری ماشین ندارم، اما می خواهم راه حلی پیدا کنم که در آن 6 ماه آینده را صرف یادگیری بازار سهام نکنم. من ترجیح میدهم آن زمان را صرف دریافت بازخورد و تکرار روی دادههای ورودی کنم، زیرا به عنوان یک توسعهدهنده دادهگرا، اینجاست که میتوانم ارزش اضافه کنم. هر گونه کمکی، بسیار متشکریم.
|
راه آسان برای آزمایش سودمندی داده ها برای تجزیه و تحلیل بازار سهام؟
|
67281
|
من یک متغیر وابسته دوگانه مقوله ای دارم (بله/خیر - حفظ کلمات تازه آموخته شده) و دو متغیر مستقل - هر دو دسته بندی هستند. یک متغیر مستقل تأخیر بین قرار گرفتن در معرض و آزمایش است و دارای دو سطح (تأخیر زمانی کوتاه/ تاخیر زمانی هفته) است. IV دیگر نوع کلمه است و مربوط به انواع کلماتی است که کودکان در معرض آنها قرار گرفتند - برچسب شی، برچسب رنگ و غیره. ) با استفاده از روش Enter و با استفاده از تب categorical هر دو IV را به عنوان دسته بندی تعریف کرد. خروجی های اولیه - بلوک 0 متغیرهایی که در معادله نیستند، تست های بلوک 1 Omnibus ضرایب مدل و تست Hosmer و Lemeshow همگی نشان می دهند که مدل قابل توجه است و جدول طبقه بندی بلوک 1 نشان می دهد که 11٪ پیشرفت در پیش بینی وجود داشته است. DV (در مقایسه با جدول طبقه بندی بلوک 0). با این حال، جدول بلوک 1 متغیرهای معادله هیچ اثر اصلی هیچ یک از IV ها و نه یک اثر متقابل را نشان می دهد - و نه تا حد زیادی (تأخیر زمانی p=0.37؛ نوع کلمه p=0.37؛ نوع کلمه * تاخیر زمانی p. =0.401 من نمی دانم چگونه این را تفسیر کنم زیرا تمام نمونه هایی که در کتابم و آنلاین دیده ام حداقل یک اثر اصلی مهم را نشان می دهند همچنین به نظر می رسد تا حدودی غیرمنطقی برای SPSS گزارش کند که این مدل قابل توجه است، اما هیچ یک از IV ها تاثیر قابل توجهی ندارند انواع کلمه به جز یک سقوط از حدود 65% در تاخیر کوتاه به حدود 33% پس از یک هفته، من سعی کردم شاخص را از اول به آخرین (یعنی از تاخیر کوتاه به تاخیر هفته) برای متغیر تاخیر زمانی تغییر دهم. مربوط به تغییر نتایج - من فکر میکردم وقتی IV دوقطبی است، مهم نیست که کدام یک از دستهها به عنوان گروه کنترل (شاخص) استفاده میشود. حتی بیشتر از آن که نگران کننده است، یک اثر اصلی از نوع کلمه به جای تاخیر زمانی ایجاد می کند. من از کدنویسی ساختگی استفاده کرده ام و به طور موثر هر یک از دسته بندی های نوع کلمه خود را به عنوان IV های مختلف در نظر گرفته ام و این نتایج کاملاً متفاوتی ایجاد می کند. باز هم - این یک نگرانی است زیرا من انتظار دارم نتایج بسیار مشابهی داشته باشم زیرا باید به طور موثر داده های مشابه را اجرا کند. کسی میتونه کمک کنه؟
|
رگرسیون لجستیک باینری در SPSS 20 - خروجی ناسازگار و غیر منطقی به نظر می رسد
|
57829
|
من برای سوال زیر به کمک نیاز دارم: مشاهدات $m$ را در نظر بگیرید $(y_1; n_1); ... (y_m; n_m)$، که $y_i \sim Bin(n_i; θ_i)$ متغیرهای دو جمله ای هستند. فرض کنید $θ_i \sim w_1Beta(α_1؛ β_1) + w_2Beta(α_2؛ β_2)$ مخلوطی از دو توزیع بتا $(w_1 + w_2 = 1)$ هستند. * یک تقریب لاپلاس از احتمال و هر جزء مخلوط قبلی بدست آورید. * احتمال بیز تجربی داده ها را با ادغام i با استفاده از تقریب لاپلاس استخراج کنید، و فراپارامترهای $(w_j ; α_j ; β_j)$ (j = 1; 2) را رها کنید * الگوریتم EM را برای تخمین فراپارامترها استخراج کنید ( همچنین می توانید از مخلوط گاوسی قبل از مخلوط تقریبی بتا استفاده کنید)
|
تقریب لاپلاس از بیزی احتمال
|
30820
|
سلام: من یک دانشجوی علوم کامپیوتر هستم که به عنوان دستیار پژوهشی در یک آزمایشگاه IR کار می کنم و به طرز شگفت انگیزی احساس می کنم که از خود خارج شده ام. با توجه به ورودی یک مقدار پیوسته منفرد و بردار چند ده مقدار بولی، باید مقدار مورد انتظار یک مقدار پیوسته منفرد را تخمین بزنم و آن را خروجی کنم. من چندین هزار نمونه آموزشی دارم که هم ورودی کامل و هم خروجی واقعی را دارم. من گمان میکنم که نوعی الگوریتم یادگیری ماشین وجود دارد که تابعی را تولید میکند که ورودی را به خروجی نگاشت میکند، اما به اندازه کافی از اصطلاحات مربوطه مطمئن نیستم که مطمئن نیستم چگونه بهترین منابع را جستجو کنم. آنچه من به دنبال آن هستم، من را به یاد طبقهبندیکنندههای IR کلاسیک مانند طبقهبندیکننده ساده بیزی میاندازد، اما طبقهبندیکنندهها احتمال تعلق نمونهای به یک کلاس گسسته، نه یک متغیر پیوسته مورد انتظار را به شما میدهند. آیا این نوعی پسرفت است؟ اگر چنین است، چه نوع؟ آیا کسی بینشی دارد؟ آیا هیچ صفحه وب برای کمک به پر کردن شکاف های دانش من وجود دارد؟ یا حتی هر عبارت جستجوی مفیدی؟ همچنین، اگر این سوال برای stats.stackexchange.com نامناسب است، آیا سایت QA مبتنی بر جامعه مناسب تری وجود دارد که بتوانید مرا به آن راهنمایی کنید؟ با تشکر
|
چگونه یک مقدار پیوسته را از بسیاری از بولی ها و یک مقدار پیوسته پیش بینی می کنید؟
|
114966
|
اگر یک سوم از افرادی که در یک کلینیک خون اهدا می کنند، خون O+ دارند، این احتمال را پیدا کنید که اهداکننده O+ پنجم، چهارمین اهداکننده روز باشد.
|
احتمال اینکه 5امین اهداکننده O+ چهارمین روز باشد
|
101237
|
من به تازگی استفاده از بسته autoencoder را در R شروع کرده ام. http://cran.r-project.org/web/packages/autoencoder/index.html ورودی های تابع autoencode() شامل لامبدا، بتا، rho و epsilon است. مرزهای این ارزش ها چیست؟ آیا آنها برای هر تابع فعال سازی متفاوت هستند؟ آیا به این پارامترها «هیپرپارامتر» می گویند؟ با فرض یک رمزگذار خودکار پراکنده، آیا rho=.01 برای تابع فعالسازی لجستیک و rho=-.9 برای تابع فعالسازی مماس هذلولی خوب است؟ چرا دستی اپسیلون را روی 001 تنظیم می کند؟ اگر درست به خاطر داشته باشم، Efficient Backpropagation توسط LeCun مقادیر شروعی را توصیه می کند که به صفر نزدیک نیستند. مقدار خوب برای بتا چقدر اهمیت دارد؟ آیا قاعده ای برای انتخاب تعداد nueron ها در لایه پنهان وجود دارد؟ به عنوان مثال، اگر لایه های ورودی N گره دارند، آیا منطقی است که 2N nueron در لایه پنهان داشته باشیم؟ آیا می توانید مطالبی را در مورد استفاده عملی از رمزگذارهای خودکار توصیه کنید؟
|
پارامترهای [Hyper] Autoencoder Sparse
|
109343
|
من اخیراً در مورد Dynamic Time Warping (DTW) مطالب زیادی میخوانم. من بسیار تعجب می کنم که اصلاً ادبیاتی در مورد استفاده از DTW در سری های زمانی نامنظم وجود ندارد یا حداقل نتوانستم آن را پیدا کنم. آیا کسی می تواند به من اشاره ای به چیزی مرتبط با آن موضوع، یا شاید حتی اجرای آن بدهد؟
|
تاب خوردگی زمان پویا برای سری های زمانی نامنظم
|
30822
|
من با بحث پیرامون تصمیم بیتس برای حذف مقادیر p برای ضرایب رگرسیون اثرات مختلط در lmer آشنا هستم. با این حال، من در یک رشته بسیار متمرکز بر ارزش p فعالیت می کنم و سعی می کنم چیزی را روشن کنم. درجات آزادی پیش بینی کننده های سطح گروه در یک مدل دو سطحی چقدر است؟ من میتوانم از pvals.fnc() برای بدست آوردن مقادیر p برای این ضرایب استفاده کنم، اما چیزی به من میگوید که درجات آزادی آزمایشها را بیش از حد تخمین میزنم، با استفاده از اندازه نمونه در سطح فردی و نه اندازه نمونه در سطح گروه. هر گونه کمکی بسیار قدردانی خواهد شد.
|
درجات آزادی / اهمیت پیش بینی کننده های سطح گروه در lmer
|
109341
|
درک من از آنتروپی اطلاعات این است که مستلزم مجموع احتمالات ورودی به 1 است. بنابراین، برای یک دنباله a,a,b,b شما باید -([1/2 log2 1/2] + [1/2 log2 1 /2]) = 1 آیا نسخه هایی از آنتروپی اطلاعات وجود دارد که به احتمالات برای جمع 1 نیازی ندارند؟ یا آیا راهی برای اندازه گیری آنتروپی وجود دارد که به کمیت اقلام و نه فقط احتمال آنها حساس باشد؟ یا، آیا روش پذیرفتهشدهای برای استخراج شکلی از آنتروپی اطلاعات غیر عادی وجود دارد که به نحوی این نکته را در نظر میگیرد که هرچه جریان اطلاعات طولانیتر باشد، احتمال بیشتری وجود دارد که با ترتیبات مختلف اطلاعات مواجه شوید؟ به عنوان مثال نه اینکه این درست است، اما برای رساندن سوال. فرض کنید می توانید یک آنتروپی غیر نرمال شده را برای همان دنباله a,a,b,b محاسبه کنید: -([1/2 log2 1/2] + [1/2 log2 1/2] + [1/2 log2 1/2] + [1/2 log2 1/2]) = 2 متناوباً، آیا میتوانید محتوای اطلاعات را بر روی یک رشته اطلاعات جمع کنید؟ * برای a، a، b، b شما چهار آیتم با 1 بیت شگفت انگیز دارید، بنابراین در مجموع 4 بیت. * برای a,a,a,a,a,a,a,a,a,b شما 10 مورد با 0.469 بیت متوسط دارید، بنابراین 4.69 بیت کل دارید؟
|
آیا احتمالات آنتروپی اطلاعات باید به یک جمع شوند؟
|
30829
|
در یک آزمایش چندین اندازه گیری با استفاده از ابزارهای اندازه گیری مشابه اما متفاوت انجام می شود. (تعداد ابزارهای اندازه گیری مورد استفاده در یک آزمایش منفرد می تواند از 2 تا 500 ابزار متغیر باشد، اما اکثر آنها دارای تعداد کم (~2-3) ابزار مورد استفاده هستند.) از آنجایی که همه ابزارها اثر یکسانی را اندازه گیری می کنند، انتظار می رود که آنها اندازه گیری های مشابهی را تولید می کنند، اما احتمالاً با منابع متفاوت و سطوح نویز. برخی از ابزارهای اندازه گیری ممکن است ناآگاهانه دچار مشکل شده و به طور کلی داده های نادرستی تولید کنند. این بدان معناست که بیشتر اندازهگیریها تا حدودی همبسته هستند (> 0.8)، اما برخی از آنها میتوانند همبستگی نداشته باشند یا حتی همبستگی معکوس داشته باشند. چگونه می توان اندازه گیری های ابزار را به گونه ای خلاصه کرد که ارزش واقعی کمیت مورد اندازه گیری را به بهترین شکل نشان دهد؟ رویکردهای ممکن برای این مشکل ممکن است شامل استفاده از موارد زیر باشد: (1) یک مدل رگرسیون برای برازش اندازهگیریها و سپس درونیابی مقدار خلاصه اندازهگیری، (2) اولین مؤلفه تجزیه و تحلیل مؤلفههای اصلی، (3) یا امتیازات حاصل از تحلیل عاملی. کدام روش برای انجام کار مناسبتر است یا رویکرد دیگری برای انجام این خلاصهسازی بهتر است؟
|
خلاصه کردن داده های اندازه گیری مرتبط اما پر سر و صدا
|
109342
|
چندین متن (چه کتابهای آنلاین و چه کتابهای منتشر شده) قبل از پرسیدن این مورد بررسی شده است. چه تشخیص هایی به عنوان بهترین روش برای یک مدل اثرات مختلط خطی تعمیم یافته برازش شده در R با استفاده از glmmPQL پذیرفته شده است. من در حال مدل سازی میزان بروز مرگ و میر (داده های شمارش) با استفاده از اندازه گیری های مکرر، داده های بقای طولی هستم. پاسخ یا 0 (زنده) یا 1 (مرگ) است. بنابراین هنگام ترسیم باقیمانده ها، مشاهده پراکندگی تصادفی دشوار است زیرا باقیمانده ها در اطراف مقادیر مشاهده شده 0 یا 1 جمع می شوند. آیا راهی برای به دست آوردن یک باقیمانده در هر موضوع منحصر به فرد در مقابل 1 باقیمانده در هر مشاهده یک موضوع خاص وجود دارد؟ سایر معیارها/آزمونهای خوبی برای اعمال در مدل glmmPQL چیست. به عنوان مثال به نظر می رسد که AIC و BIC را نمی توان از یک glmmPQL به دست آورد. من تا حد زیادی از هر کمکی قدردانی می کنم، حتی اگر به متون خاصی هدایت شود. با تشکر
|
تشخیص مدل برای یک glmmPQL در مدل اثرات مختلط R
|
67287
|
در حین تجزیه و تحلیل تأثیر داده های محیطی بر فعالیت یک گونه جانوری (که دومی به عنوان داده های شمارش داده می شود) من GLM های دوجمله ای منفی را با یک پیش بینی با استفاده از کتابخانه MASS در R. Unfortunatley برازش می کنم، مجموعه داده ها بسیار کوچک است (n=7 به 9). در برخی موارد، مقدار تتا در glm.nb بسیار بزرگ میشود (همراه با هشدار «حدت تکرار رسیده است»)، که احتمالاً نشان میدهد که پراکندگی بیش از حد وجود ندارد و poisson GLM ممکن است انتخاب بهتری باشد. با این حال، با استفاده از یک GLM سمی، یک انحراف باقیمانده به عنوان مثال. 150 در 7 درجه آزادی نشان می دهد که در واقع پراکندگی بیش از حد وجود دارد - یا چیزی را از دست دادم؟ استفاده از GLM شبه سمی کار می کند، اما من می خواهم معیارهای مبتنی بر ML مانند AIC و تست Vuong را برای مقایسه مدل حفظ کنم. هر گونه پیشنهاد برای رویکردهای جایگزین بسیار قدردانی می شود!
|
مقادیر تتا بسیار بزرگ با استفاده از glm.nb در R - رویکردهای جایگزین؟
|
109344
|
من یک جایگشت انجام می دهم تا بدانم آیا دو مجموعه داده تفاوت قابل توجهی دارند یا خیر. این مجموعه داده ها، هر دو، دارای میانه 1 هستند (در سریع، 60٪ از مشاهدات در یک مجموعه داده و 80٪ از مجموعه داده های دیگر مشاهده یکسان هستند). گفت که، تست جایگشت من به من مقدار p برابر 1 می دهد (آنها توزیع مشابهی دارند). من از تفاوت بین میانه ها استفاده می کنم، زیرا داده های من بسیار کج هستند. با این وجود، من یک آزمایش فیشر انجام دادهام و میگویم که آنها تفاوت قابل توجهی دارند. آیا در این موارد که اکثر مشاهدات یکسان هستند، هنگام استفاده از میانه، آزمایشهای جایگشت خطاهای نوع II را باد میکنند؟
|
آزمون های خطا و جایگشت نوع دوم
|
114965
|
من سعی می کنم انواع متغیرهای مختلف و سطوح اندازه گیری را در برخی منطق، مانند نمودار درختی، جا بدهم، و در مورد برخی چیزها مطمئن نیستم. از یک طرف، شما متغیر **کمی** در مقابل **کیفی** دارید. از نظر کمی، شما **پیوسته** یا **گسسته** دارید. از طرف دیگر، شما ** اسمی، ترتیبی، فاصله و نسبت** دارید. به راحتی می توان گفت که کیفی می تواند اسمی یا ترتیبی باشد. اما در مورد کمی؟ آیا بازه و نسبت باید پیوسته باشد؟ چگونه طبقه بندی کنم؟ آیا می توانم بگویم که مقدار کمی باید گسسته یا پیوسته باشد و اگر پیوسته باشد یا بازه یا نسبت؟ راه درست برای ساخت این نمودار چیست؟
|
انواع متغیر و سطح اندازه گیری
|
43663
|
الگوریتم EM تقریباً دو مرحله دارد. E-Step: انتظار شرطی تابع درستنمایی را با توجه به دادههای $x_1، محاسبه کنید. . . ، x_n $ و برآوردهای فعلی پارامترهای $\Theta^{[k]}$. بنابراین تابع هدف $Q(\Theta, \Theta^{[k]})=E[\ln(\Theta,x_1, . . . , x_n)|x_1, . . . , x_n,\Theta^{[k]}]$ M-step: تابع هدف را با توجه به $\Theta $ حداکثر کنید تا مجموعه بعدی تخمین $\Theta^{[k+1]}$ را بدست آورید. حالا آیا الگوریتم EM برای تخمین پارامترها به داده های i.d نیاز دارد؟ آیا استفاده از الگوریتم EM حتی در مورد داده های غیر i.d امکان پذیر است؟
|
آیا الگوریتم EM به i.i.d نیاز دارد؟
|
672
|
ایده های اصلی یعنی مفاهیم مرتبط با قضیه بیز چیست؟ من هیچ گونه مشتقاتی از نمادهای پیچیده ریاضی را نمی خواهم.
|
قضیه بیز چیست؟
|
29683
|
آیا pdf یک متغیر mvn حتی زمانی که همبستگی بالایی وجود دارد وجود دارد؟ من می خواهم از الگوریتمی استفاده کنم (در واقع این روش آنتروپی متقابل برای تخمین احتمال رویداد نادر است) که به مقدار pdf توزیع mvn نیاز دارد، یعنی mvnpdf(x,mu,Sigma). با این حال، سیگما من نزدیک به مفرد است، به این معنی که همبستگی بالایی بین متغیرهای بردار وجود دارد، بنابراین پیدا کردن معکوس سیگما البته دشوار/غیر ممکن است. آیا راهی برای غلبه بر این مشکل وجود دارد؟ آیا این درست نیست که برای مثال بردار [a,b,c,d] با ماتریس کوواریانس [1,1,0,0;1,1,0,0;0,0,1,1,0,0, 1,1] (مفرد!) دقیقاً مانند بردار [a,c] با ماتریس کوواریانس [1,0;0,1] (اکنون غیر مفرد!) رفتار خواهد کرد، در حالی که نادیده گرفته می شود. ب و ج؟ آیا این بدان معنی است که من می توانم مقدار pdf [a,b,c,d] را با pdf [a,c] تقریب کنم؟ ببخشید اگر قبلاً به این پاسخ داده شده است، من واقعاً سعی کردم آن را جستجو کنم. متشکرم. ویرایش: موضوع این است که من میخواهم نمونههایی را از یک توزیع نرمال چند متغیره، $x \sim N(\mu,\sigma)$ شبیهسازی کنم تا احتمال اینکه ${r(x) < 1}$، جایی که $r(x)$ یک عدد واقعی مثبت را بر اساس بردار $x$ برمی گرداند. بنابراین من $x_i \sim N(\mu,\Sigma)، i = 1،...، M$ را شبیهسازی میکنم و احتمال را با تخمین مونت کارلو $p = (1/M)\sum_i I(r) تخمین میزنم. (x_i)<1)$. هیچ مشکلی تا الان با این حال، از آنجایی که ${r(x_i)<1}$ یک رویداد بسیار نادر است، من میخواهم نمونهبرداری اهمیت را امتحان کنم و از ناحیه $N(\mu_2,\Sigma_2)$ شبیهسازی کنم، بنابراین برای تخمین $ به مقدار pdf نیاز دارم. p = (1/M)\sum{I(r(x_i)<1) pdf_1(x_i)/pdf_2(x_i)}$.
|
pdf توزیع نرمال چند متغیره با مقادیر همبستگی بالا
|
91903
|
آیا احتمال محاسبه شده توسط یک مدل رگرسیون لجستیک (مدلی که لاجیت تبدیل شده است) برازش تابع توزیع تجمعی موفقیت های داده های اصلی (به ترتیب با متغیر X) است؟ **ویرایش:** به عبارت دیگر - چگونه می توان توزیع احتمال داده های اصلی را که در یک مدل رگرسیون لجستیک به دست می آورید رسم کرد؟ انگیزه این سوال مثال جف لیک از رگرسیون روی امتیاز ریون در یک بازی و اینکه آیا آنها برنده شدند یا نه (از دوره تحلیل داده های کورسرا) بود. مسلماً مشکل مصنوعی است (به نظر FrankHarrell@ در زیر مراجعه کنید). در اینجا داده های او با ترکیبی از کد او و من است: download.file(http://dl.dropbox.com/u/7710864/data/ravensData.rda, destfile=ravensData.rda, method= داخلی) load(ravensData.rda) plot(ravenWinNum~ravenScore, data=ravensData)  به نظر می رسد مواد خوبی برای رگرسیون لجستیک نیست، اما بیایید به هر حال تلاش کنیم: logRegRavens <- glm(ravenWinNum ~ ravenScore, data=ravensData، خانواده =دوجمله ای) خلاصه (logRegRavens) # بتا مهم نیست # جدول مرتب سازی بر اساس ravenScore (X) rav2 = ravensData[order(ravensData$ravenScore), ] # plot CDF plot(sort(ravensData$ravenScore), cumsum(rav2$ravenWinNum)/sum(rav2$ravenWinNum), pch=19, col=blue, xlab=Score , ylab=Prob Ravens Win, ylim=c(0,1), xlim=c(-10,50)) # نقطه اضافه پلات مقادیر برازش شده (جف) (ravensData$ravenScore, logRegRavens$fitted, pch=19, col=red) # منحنی منحنی رگرسیون overplot(1/(1+exp( -(logRegRavens$coef[1]+logRegRavens$coef[2]*x)))، -10، 50، add=T) اگر من رگرسیون لجستیک را به درستی درک کنم، R در یافتن ضرایب مناسب در این مورد بسیار بد عمل می کند.  * آبی = داده های اصلی باید برازش شوند، من معتقدم (CDF) * قرمز = پیش بینی از مدل (داده های برازش = طرح ریزی) دادههای اصلی بر روی منحنی رگرسیون) **حل شده** - به نظر میرسد که پایینترین تخمینگر ناپارامتری خوبی برای دادههای اصلی است = آنچه در حال نصب است (با تشکر @gung). دیدن آن به ما امکان میدهد مدل مناسبی را انتخاب کنیم، که در این مورد عبارت است از اضافه کردن مربع به مدل قبلی (@gung) - البته، مشکل بسیار مصنوعی است و مدلسازی آن به طور کلی بیمعنی است (@FrankHarrell) - به طور معمولی رگرسیون لجستیک این CDF نیست، بلکه احتمالات نقطه ای است - اولین بار توسط FrankHarrell به آن اشاره شد. همچنین ناتوانی شرم آور من در محاسبه CDF که توسط @gung اشاره شده است.
|
CDF و رگرسیون لجستیک
|
114967
|
من یک مجموعه داده دارم: y = آرایه([ 4460000., 2100000., 938000., 500000., 204000., 130000., 124000., 118000., 106000., 106000., 106000., 106000., 106000., 0.1. 98000.، 97000.، 99000.]) x = آرایه([ 470.، 955.، 1700.، 2900.، 5520.، 7000.، 8500.، 9700.، 14600.، 14600.، 955.، 22. ، 37500., 42200.])  که باید با استفاده از یک تابع دلخواه جاسازی کنم. متأسفانه من هیچ اطلاعات (مفید) بیشتری برای آن داده ها ندارم. آیا نوعی تابع وجود دارد که بتواند این داده ها را متناسب کند؟
|
چگونه باید این داده ها را جا بدهم؟
|
59469
|
من مجموعه ای از نمونه ها را دارم که گروه های واقعی را برای آنها می شناسم. برای این نمونهها من حدود 200 متغیر باینری دارم، میخواهم روشی را برای انتخاب زیرمجموعه متغیرها بدانم، که به من خوشهبندی تا حد امکان نزدیکتر از گروههای شناختهشدهام را میدهد. # برچسب نمونه labelColors2 <-c(سیاه، سیاه، سیاه، سیاه، سیاه، سیاه، آبی، آبی، آبی، آبی، سبز ، سبز، قرمز، قرمز، قرمز، قرمز، قرمز، قرمز، قرمز، قرمز، قرمز، قرمز، قرمز، قرمز) # کتابخانه ماتریس داده (RCurl) x <- getURL(https://dl.dropboxusercontent.com/u/10712588/binMatrix) tab3 <- read.table(text = x) colLab <- function(n) { if(is.leaf(n)) { a <- ویژگی(n) #clusMember یک برداری که گروه بندی برگ را تعیین می کند #labelColors <- colors # بردار رنگ برای گروه بندی بالا labCol <- labelColors2[clusMember[which(names(clusMember) == a$label)]] attr(n، nodePar) <- c(a$nodePar, list(lab.col = labCol,lab.cex=0.8 )) } n } mclust <- hclust(dist(tab3، متد = دودویی)) dhc <- as.dendrogram(mclust) clusMember <- cutree(mclust, k=24) clusDendro <- dendrapply(dhc, colLab) plot(clusDendro)  رنگ ها باید گروه بندی شوند، این راه واقعی من برای دسترسی به خوبی است خوشه بندی، به صورت بصری، اما من می خواهم تکنیک انتخاب ویژگی را بدانم. پیشاپیش سپاسگزارم... با به روز رسانی سوال، تابع **klaR::stepclass** را پیدا کردم، که باید مطابق با آنچه من میخواهم باشد، یا پیادهسازی مشابه، اما هنوز کاری در مورد آن پیدا نکردم. fac <- as.factor(labelColors2) mylda <- function(x, grouping) { clust <- pam(dist(x, method=binary), k=4, cluster.only = TRUE) پسین <- matrix( 0، 24، 4) نام های colname (پسین) <- c(سیاه، آبی، سبز، قرمز) برای (i در 1:nrow(posterior)) posterior[i، clust[i]] <- 1 l <- list(class=grouping, posterior=posterior) class(l) <- foo return(l) } با تابع بالا من می توانم یک خروجی از طبقه بندی خود را بازتولید کنم، مشابه آنچه **klaR::ucpm** نیاز دارد، اما نمی توانم تابع sc_obj را اجرا کنم <- stepclass(x=tab3, grouping=fac, method=mylda, direction=forward) خطا در parse(text = x) : <text>:2:0: پایان غیرمنتظره ورودی 1: fac ~ ^ خب، فکر میکنم پیشرفتهایی داشتم، یک عملکرد تناسب اندام ایجاد کردم، و با یک جستجوی تصادفی (هنوز در حال اجرا است، من یک خوشهبندی بهتر از قبل predict.foo پیدا کردم. <- تابع(x) x for(i در 1:1000000) { s <- نمونه(1:ncol(tab3),sample(68:200,1)) cr <- ucpm(predict(mylda(tab3[,s], fac))$posterior، fac)$CR write.table(ماتریس(c(cr,s)، nrow=1)، randonSearch.txt، append=TRUE, row.names=FALSE, col.names=FALSE) } با این کار فایل **randonSearch.txt** را با استفاده از: cut -d -f1 ../randonSearch.txt زیر نظر دارم | grep 0.8 من قبلاً یک نرخ صحت 0.833 پیدا کرده ام، آن را بررسی کنید فکر می کنم هنوز جایی برای بهبود وجود دارد، من من به الگوریتم ژنتیک فکر می کنم ...
|
بهترین مجموعه از متغیرهای باینری را برای خوشه بندی برچسب های نمونه شناخته شده انتخاب کنید
|
59467
|
من سعی می کنم تفاوت بین این سه رویکرد و کاربردهای آنها را بیاموزم. الف) همانطور که میدانم AIC = -LL+K BIC = -LL+(K*logN)/2 مگر اینکه چیزی را گم کرده باشم، آیا K که AIC را به حداقل میرساند نباید BIC را نیز به حداقل برساند زیرا N ثابت است. من به این تاپیک نگاه کردم اما جواب قانع کننده ای پیدا نکردم. ب) طبق کتاب داده کاوی Witten (صفحه 267) تعریف MDL برای ارزیابی کیفیت شبکه همان BIC است. آیا بین BIC و MDL تفاوتی وجود دارد؟ ج) رویکردهای مختلف برای محاسبه MDL چیست؟ من به دنبال کاربرد آن در خوشه بندی، تجزیه و تحلیل سری های زمانی (ARIMA و تغییر رژیم) و انتخاب ویژگی هستم. در حالی که تقریباً همه بستههای رایج مورد استفاده در R AIC و BIC را گزارش میکنند، من نتوانستم بستهای را پیدا کنم که MDL را پیادهسازی کند و میخواستم ببینم آیا میتوانم آن را خودم بنویسم. متشکرم.
|
AIC در مقابل BIC در مقابل MDL
|
59465
|
من یک نمونه از حدود 1000 مقدار دارم. این داده ها از حاصل ضرب دو متغیر تصادفی مستقل $\xi \ast \psi $ به دست می آیند. اولین متغیر تصادفی دارای توزیع یکنواخت $\xi \sim U(0,1)$ است. توزیع متغیر تصادفی دوم مشخص نیست. چگونه می توانم توزیع دومین متغیر تصادفی ($ \psi $) را تخمین بزنم؟
|
حاصل ضرب دو متغیر تصادفی مستقل
|
29681
|
من از یک آزمایش خاص 3 خروجی دریافت می کنم. هر کدام اطلاعات کمیت فیزیکی در جهت x، y یا z است. روشی که ما اطلاعات را از آن سیگنال ها استخراج می کنیم، برازش است. در دادههای استخراجشده از برازش، برخی از پارامترها فقط به جهت کمیت فیزیکی که میخواهیم اندازهگیری کنیم، و برخی دیگر به کل سیستم یا به مقدار اسکالر کمیت فیزیکی (ویژگیهای مشترک) بستگی دارند. از نظر آماری، ترجیح داده می شود که برای همه جهات به طور همزمان یک تناسب انجام شود. این چیزی است که رئیسم به من گفت. آنچه او گفت درست به نظر می رسد، اما از نظر فنی، تطبیق 3 مجموعه داده با هم بسیار سخت است، زیرا این تابع در حال حاضر با 7 پارامتر در هر جهت بسیار پیچیده است، و ترکیب این 3 با هم فقط مسائل را پیچیده می کند، و تناسب من درست نیست. هنگام انجام همزمان آنها همگرا شوند. من از الگوریتم Levenberg-Marquardt استفاده می کنم. سوال این است که آیا کاری وجود دارد که بتوانم در نتایج فردی تناسب انجام دهم تا نتیجه تناسب همزمان را به دست بیاورم؟ به عبارت دیگر چگونه می توان از برازش همزمان اجتناب کرد و مزیت آماری آن را به دست آورد؟ و اگر برازش همزمان تنها راه حلی است که من دارم، گرفتن 3 مجموعه داده به تناسب همزمان چه چیزی را شامل می شود؟ چگونه این مقیاس پارامترهای برازش (Chi^2، وزن، تحمل ... و غیره) را تعیین می کند؟ من از برنامه ای استفاده می کنم که خودم با C++ نوشتم. از هر تلاشی متشکرم
|
تفاوت بین اتصال همزمان و اتصال جداگانه
|
79455
|
من گزیدههای صوتی 8 دقیقهای دارم که همه آنها یک موسیقی را دارند. چهار مورد از آنها توسط یک گروه موسیقی دوره راهنمایی (2 رسا، 2 غیر بیان) و چهار مورد توسط یک گروه موسیقی دبیرستان (2 رسا، 2 غیر بیانی) ضبط شده است. من از شرکت کنندگان در گروه MS، گروه HS و مجموعه ای از ارزیاب های خبره دعوت می کنم تا به هر 8 گزیده گوش دهند و یک امتیاز واحد را به آنها اختصاص دهند. از آنجایی که همه این گزیدهها دارای یک قطعه موسیقی یک دقیقهای هستند (البته توسط دو گروه مختلف و تحت دو شرایط متفاوت - گویا و غیر قابل بیان)، آیا برای کمک به کنترل جلوههای سفارش، باید 3 ترتیب ارائه صوتی مختلف داشته باشم؟ من قصد دارم 2 رتبه بندی گزیده صوتی رسا و 2 رتبه بندی غیرقابل بیان را برای هر گروه (MS، HS، Experts) میانگین کنم. فکر من این بود که با میانگین رتبهبندیها (برای دریافت امتیاز برای هر گروه - MS Expressive، MS Unexpressive، HS Expressive، HS Unexpressive) که واقعاً نیازی به سفارشهای جداگانه ندارم. هرگونه کمکی در مورد تعادل و/یا راههایی برای جلوگیری از اثرات خستگی (از آنجایی که گزیدههایی 8 دقیقهای از یک قطعه موسیقی است، اگرچه توسط دو گروه موسیقی مختلف در دو شرایط مختلف ضبط شده است) بسیار مفید خواهد بود. با تشکر از کمک شما!
|
آیا برای کنترل جلوه های سفارش باید 8 گزیده صوتی را متعادل کنم؟
|
18302
|
با عرض پوزش بابت عنوان غیر آموزنده این در واقع یک مشکل نسبتاً ساده است که من به راحتی میتوانم آن را در matlab یا شاید stata انجام دهم، اما پروفسور میخواهد که در SAS باشد، که به نظر میرسد برای روباتها طراحی شده است نه انسانها. بگویید من ماتریسی از داده های خروجی مزرعه با ردیف هایی از محصولات در سطح مزرعه و مزرعه دارم. به عنوان مثال، مزرعه 1 دارای 3 زمینه است، بنابراین سه ردیف برای مزرعه 1 وجود دارد: $F_{11}، F_{12}، F_{13}$ یک ستون محصول نشان دهنده محصول رشد یافته در هر مزرعه هر مزرعه است. $F_{11}=corn$ $F_{12}=beans$ $F_{13}=squash$ (محصولات در واقع با یک مقدار عددی نشان داده می شوند.) من باید یک اسکریپت SAS بیابم که مزارع ذرت را از هم جدا کند. از مزارع غیر ذرت به عنوان مثال، من باید یک متغیر باینری «cornfarm=0 یا 1» ایجاد کنم. مزارع ذرت به هر مزرعه ای که در هر یک از مزارع خود ذرت کشت می کند، تعریف می شود. شبه کد مربوطه چیزی شبیه به این خواهد بود: برای i=1 به farmtotal برای j=1 به farmfieldtotal اگر F(i,j)=ذرت سپس cornfield(i,j)=1 j بعدی اگر مجموع (میدان ذرت(i)) >0 سپس cornfarm(i)=1 بعدی i
|
کدنویسی ساختگی در SAS
|
72154
|
در صفحه 10 این مقاله نویسنده بیان می کند که > در این بخش، من از رگرسیون لاجیت ماهانه Fama و MacBeth (1973) > [...] برای بررسی نوع پیش بینی استفاده می کنم. سؤال(های) من این است: 1. این به چه معناست، 2. آیا حتی از راه دور با شرایط معمولی که رویه Fama-MacBeth معمولی را ایجاد می کند (یعنی بازده دارایی تقریباً به صورت سریال نامرتبط است) توجیه می شود، و 3. غیرخطی بودن چگونه است. خطا در برآورد ضرایب بر تجمیع برآوردهای مقطعی تأثیر می گذارد؟ برداشت من این است که 1. به این معنی است که او هر ماه یک رگرسیون مقطعی را اجرا می کند و تخمین نقطه ای و خطاهای استاندارد را از سری زمانی این تخمین ها تشکیل می دهد، 2. احتمالاً دقیقاً نه، اما این چندان مهم نیست (مردم استفاده می کنند Fama-MacBeth در بسیاری از زمینهها که تخمینهای فردی مستقل نیستند)، و 3. من هیچ نظری ندارم. هر گونه بینش یا تفسیر دیگری در این مورد بسیار قدردانی خواهد شد. من همچنین از ارجاع به مقالات دیگر با استفاده از روش شناسی مشابه استقبال می کنم (در اینجا یکی است). یک استدلال کاملاً دقیق (یا اشاره گر به سمت یکی) که چنین رویه ای را توجیه کند (یا نادرست نشان دهد) بهینه خواهد بود.
|
رگرسیون های Logit Fama-MacBeth به چه معناست؟
|
114963
|
من سعی می کنم با استفاده از تابع multiplot کتاب آشپزی R دو نمودار در کنار یکدیگر ایجاد کنم، اگرچه خطای زیر را دریافت می کنم: > زیبایی باید طول یک یا همان طول > dataProblems:v.x باشد. کمک؟ کد من در زیر است: rm(list=ls()) library(ggplot2) library(grid) # تابع نمودار چندگانه multiplot <- function(..., plotlist=NULL, file, cols=1, layout=NULL) { مورد نیاز (شبکه) # از آرگومانهای ... و نمودارهای plotlist فهرستی بسازید <- c(list(...), plotlist) numPlots = طول (نقاط) # اگر طرحبندی NULL باشد، سپس از 'cols' برای تعیین چیدمان استفاده کنید if (is.null(layout)) { # پانل را بسازید # ncol: تعداد ستون های نمودار # nrow: تعداد سطرهای مورد نیاز، محاسبه شده از # طرح بندی cols <- matrix(seq( 1، cols * سقف (numPlots/cols))، ncol = cols، nrow = سقف (numPlots/cols)) } اگر (numPlots==1) { print(plots[[1]]) } else { # تنظیم صفحه grid.newpage() pushViewport(viewport(layout = grid.layout(nrow(layout), ncol(layout))) ) # هر طرح را در مکان صحیح برای (i در 1:numPlots) بسازید { # موقعیتهای ماتریس i,j مناطقی را که حاوی این نمودار فرعی هستند را دریافت کنید. matchidx <- as.data.frame(which(layout == i، arr.ind = TRUE)) print(plots[[i]]، vp = viewport(layout.pos.row = matchidx$row، layout.pos. col = matchidx$col)) } } } # تعریف تابع دو جمله ای بتا dbb <- تابع(x, N, u, v) { beta(x+u, N-x+v)/بتا(u,v)*(گاما(N+1)/(گاما(x+1)*گاما(N-x+1))) } #پارامترهای قبلی a<-1 b< -1 #داده N1<-100 X<-10 #نمونه جدید N2 <- 100 # ایجاد توزیع پیشبینیکننده قبلی، احتمال، پسین و پسین v.theta <- seq(0,1,length=1000) v.x <-seq(0,100,length=100) v.preor <-dbeta(v.theta,a,b) v.relihood <- select(N1,X)*(v .theta^X)*(1-v.theta)^(N1-X); v.posterior <- dbeta(v.theta,a+X,b+N1-X) v.posteriorPred <- dbb(v.x,N2,a+X,b+N1-X) # به صورت طرح فرعی p1<- qplot(v.x,v.prior,geom = c(نقطه، خط)) p2<-qplot(v.x,v.likelihood,geom = c(نقطه، خط)) مولتی پلات (p1، p2)
|
چند طرح R - خطای کتاب آشپزی R زیبایی شناسی باید یا طول یک باشد...
|
72151
|
من به دنبال فهرستی از الگوریتمهای مدلسازی (بهعنوان بستهای در «R») هستم که میتواند این موارد را بپذیرد: 1. پیشبینیکنندههای پیوسته یا مقولهای، 2. پاسخهای پیوسته، 3. میتوانند به طور مؤثر مقادیر از دست رفته را درمان کنند. به عنوان مثال، «glm» و «randomForest» رکوردهای دارای مقادیر گمشده را کنار میگذارند و بنابراین، در فهرست نهایی من نیست. من هم نمی خواهم انتساب را انجام دهم. تا کنون، لیست زیر را دارم: 1. GBM (بسته «gbm» در R) 2. RPART (بسته «rpart») 3. بسته بندی با rpart («ipred») 4. درخت («درخت»)
|
به دنبال فهرستی از تکنیک های مدل سازی برای پاسخ پیوسته با مقادیر گمشده در پیش بینی کننده ها
|
114962
|
**سناریو:** در نظر بگیرید که من حدود 100 گیگابایت داده خام دارم. وقتی ویژگیهایی را از آن با استفاده از رویکردهای سنتی و شناخته شده در منطقه خود استخراج میکنم، (مثلاً) **10000000 نمونه** دریافت میکنم. وقتی من مدلهای یادگیری ماشینی نظارتشده (بهویژه با استفاده از Decision tress و شبکههای بیزی) با این دادهها میسازم، مقداری دقت طبقهبندی _x_% را دریافت میکنم. به عنوان بخشی از تحقیقاتم، روی رویکردی کار میکنم که انتظار میرود دقت بهتری ارائه دهد. با رویکرد من، تجزیه همان 100 گیگابایت داده منجر به نمونههای کمتری میشود - مثلاً 10 برابر کمتر. یعنی اکنون **1000000** نمونه با خود دارم. **مشکل:** برای اینکه نشان دهم رویکرد من بهتر عمل می کند، باید مقایسه مناسبی با رویکرد سنتی انجام دهم. من خیلی روشن نیستم که چگونه باید رویکرد خود را با رویکرد سنتی ارزیابی کنم. با توجه به همین مقدار داده خام، تعداد نمونه های استخراج شده توسط من 10 برابر کمتر است. برای مقایسه دقت به دست آمده توسط هر دو رویکرد، کدام بهتر است؟ - * **تعداد نمونه ها را یکسان نگه دارید.** 1000000 نمونه از داده های به دست آمده از الگوریتم من را در نظر بگیرید و همان تعداد نمونه به دست آمده از روش سنتی را _نمونه برداری کنید. یک تقسیم 70-30 برای داده های آموزش و آزمایش روی هر یک از آنها انجام دهید و مدل های من را بسازید. * **داده های ورودی خام را یکسان نگه دارید.** 100 گیگابایت داده خام بگیرید و ویژگی ها را با هر دو روش استخراج کنید. اندازه مجموعه داده های آموزشی (و آزمایشی) در هر دو مورد، تفاوت بسیار زیادی خواهد داشت. سپس، من می توانم یک تقسیم 70-30 برای آموزش-تست انجام دهم و مدل های خود را بسازم. * چیز دیگری ?? **به روز رسانی به کامنت آدرس توسط @ffriend** در صورت اهمیت، من با ردیابی شبکه (فایل های pcap) سروکار دارم. برای رویکردهای سنتی، خواننده را به این مقاله ارجاع می دهم که کار کلاسیکی است که از آن تکنیک استفاده می کند. برای رویکردم، فقط میتوانم به کار مقدماتیام پیوند دهم p.s.: احساس نمیکنم عنوان سؤالم خیلی خوب باشد. اگر کسی میتواند عنوان بهتری بیاندیشد، میتوانید آن را ویرایش کنید.
|
چگونه رویکردهای سنتی را با رویکرد خود مقایسه کنم؟
|
111243
|
من به دنبال یک بسته R (یا ترکیبی از بستهها) هستم که به من امکان میدهد تخمین MCMC یک مدل GMM را با عملکرد لحظههای مشخص شده توسط کاربر انجام دهم. من به نمای کار CRAN Bayesian نگاه کردم، اما به نظر نمیرسد چیزی را که به دنبالش هستم پیدا کنم، بستهها یا خیلی کلی هستند (مثلا mcmc) یا خیلی خاص (MCMCpack)... در حالت ایدهآل من میخواهم قادر به پیاده سازی Stochastic GMM یا استفاده از بسته R-INLA برای انجام تقریب لاپلاس تودرتوی تکراری، دوباره با یک تابع لحظه های مشخص شده توسط کاربر. هر گونه کمک تا حد زیادی قدردانی!
|
آیا بسته R برای تخمین MCMC روش تعمیم یافته لحظه ها وجود دارد؟
|
90839
|
من شکل زیر را با استفاده از بسته DLNM در **R** ترسیم می کنم. دیتاشیت a دارای متغیرهای «y» و «x1» است. من فرض میکنم که متغیر وابسته پیوسته «y» دارای توزیع گاوسی است و متغیر مستقل پیوسته «x1» با «y» با یک اسپلاین معمولی $df=3$ (دو گره) رابطه دارد. من از کد **R** زیر x1.bs استفاده کردم <- crossbasis(a$x1, lag=c(0,16), argvar=list(fun=ns, knots=c(55,75), int= FALSE، cen=48)، arglag=list(fun=ns، df=3)) model <- glm(y~x1.bs, data=a, family=gaussian()) pred.bs <- crosspred(x1.bs, model, cumul=TRUE) plot(pred.bs, contour, xlim=c(40,80), xlab=independent x, ylab=lag (هفته ها), main نمودار کانتور) plot(pred.bs، کلی، ylab=واحد، lwd = 1.5، main = اثر کلی، ci.level = 0.95، ci.arg = list (تراکم = 20، col = خاکستری (0.7))) ** سوال 1. ** چگونه می توانم شکل زیر را تفسیر کنم؟  برای مثال، «x1»=75 و «lag»=6 «0.04» را نشان میدهد. 0.04 به چه معناست؟ ** سوال 2. ** چگونه می توانم شکل کلی را تفسیر کنم؟  برای مثال، `x1`=70 و `lag`=6 جلوه کلی = 0.4 می دهد. اثر کلی 0.4 به چه معناست؟
|
چگونه نمودار dlnm Contour و نمودار کلی را در R تفسیر کنم؟
|
72157
|
خطای استاندارد یک برآوردگر به عنوان جذر واریانس برآوردگر (یا میانگین مربعات خطا، MSE، برای برآوردگرهای بی طرف) تعریف می شود. به طور خاص، اگر بخواهیم خطای استاندارد میانگین نمونه $\bar{X}$ را بدست آوریم، واریانس نمونه مورد استفاده برای محاسبه $\bar{X}$ را بر جذر $n$ تقسیم میکنیم: $$ {\rm MSE}(\bar{X}) = \frac{s^2}{n}, \\ {\rm and,} \\ ~ \\ {\rm S.E.} (\bar{X} ) = \sqrt\frac{s^2}{n} = \frac{s}{\sqrt{n}} $$ که در آن $s^2$ واریانس نمونه برای نمونه $X$s است. با این حال، در رگرسیون OLS، خطای استاندارد رگرسیون به صورت زیر تعریف میشود: $$ \sqrt\frac{SSR}{n - K} $$ که در آن SSR مجموع مجذور باقیماندهها است. **سوال من این است: آیا نیازی به اصلاح مجدد با تقسیم بر اندازه نمونه $n$ نیست؟** مطمئنا $\sqrt{^{SSR}/_{n - K}}$ فقط تخمین نمونه است واریانس جمعیت و طبق فرمول بالا باید اصلاح شود. من می دانم که در هر دو مورد خطای استاندارد جذر MSE است، اما در مورد اول MSE واریانس نمونه ای است که برآوردگر از تقسیم بر $n$ بدست آمده است و در مثال دوم MSE فقط واریانس نمونه است. کسی توضیحی داره؟
|
آیا خطای استاندارد در OLS نیازی به تصحیح با n ندارد؟
|
72156
|
### زمینه من دو فرآیند دارم که هرکدام یک رویداد را در زمانهای مختلف منتشر میکنند: زمانهایی که رویداد A رخ میدهد: 1، 15، 47، 73، 108 زمان وقوع رویداد B: 2، 18، 75، 90، 112، 140 I. مشکوک به وجود رابطه علی ضعیف از A به B * فرآیند B گاهی اوقات توسط فرآیند A آغاز می شود (یادداشت B-2 بعد از A-1، B-18 بعد از A-15، B-75 بعد از A-73 ...). * اما نه همیشه (توجه داشته باشید که A-47 با یک رویداد در B دنبال نمی شود) * و B نیز رویدادهای مستقل خود را دارد (مانند B-90 و B-140) ### سوال راه های اصولی برای مدل سازی این چیست؟ رابطه؟ توجه داشته باشید که من میخواهم هم تاخیر (در این مورد حدود 1-3 واحد زمانی) و هم یک قدرت اتصال را ثبت کنم (B معمولاً در اینجا به شدت A را دنبال میکند). جریانهای رویداد واقعی ممکن است با شدت کمتری مرتبط باشند.
|
چگونه روابط بین دو دنباله رویداد را مدل کنیم؟
|
18300
|
این سوال نسخه توسعه یافته این سوال است. همانطور که در اینجا می بینید، دو توزیع برابر هستند، من باید پارامترهای a,b,c,d و e را محاسبه کنم. آیا می توانید راهی برای انجام آن به من نشان دهید؟ * * * یک مسئله دو کلاسه با احتمالات کلاس پیشینی برابر و چگالی شرطی کلاس گاوسی را به صورت زیر فرض کنید: $$p(x\mid w_1) = {\cal N}\left(\begin{bmatrix} 0 \\ 0 \end{bmatrix}،\begin{bmatrix} a & c \\ c & b \end{bmatrix}\right)\quad\text{and}\quad p(x\mid w_2) = {\cal N}\left(\begin{bmatrix}d \\ e \end{bmatrix},\begin {bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix}\right)$$ که $ab-c^2=1$.
|
چگونه می توان میانگین بردار و ماتریس کوواریانس توزیع های مساوی را محاسبه کرد؟
|
114960
|
چگونه متغیر وابسته را در lmer پیش بینی کنیم؟ آیا ما قبلاً بسته یا تابعی در R داریم؟
|
چگونه متغیر وابسته را در lmer پیش بینی کنیم؟
|
67865
|
محاسبه فراخوان/دقت از اعتبار سنجی متقاطع k-fold (یا ترک یک حذف) را می توان با میانگین گیری مقادیر فراخوان/دقت به دست آمده از k برابرهای مختلف یا با ترکیب پیش بینی ها و سپس محاسبه یک مقدار برای هر یک از فراخوان ها انجام داد. دقت داده های من از 1000 نمونه متعلق به دو کلاس تشکیل شده است. موارد مثبت فقط 50 نمونه است در حالی که منفی 950 نمونه است. اگر با استفاده از روش اعتبارسنجی متقاطع k-fold میانگین استفاده کنیم. سپس متوجه خواهیم شد که دقت و فراخوانی در 950 برابر تعریف نشده است (NaN) زیرا NP/(TP+FP) همه صفر هستند (زیرا فقط یک نمونه منفی در این K-fold بررسی می شود). من فکر می کنم، چنین NaN ممکن است با 1 جایگزین شود، زیرا معنایی ندارد که مقدار آن را 0 قرار دهیم (زیرا نمونه فعلی منفی است و به درستی منفی پیش بینی شده بود). سپس، فراخوان/دقت را از 1000 برابر میانگین می کنیم. مقادیر متفاوت از به دست آوردن تمام پیش بینی ها و سپس محاسبه یک دقت / فراخوان خواهد بود. همین تفاوت زمانی اتفاق میافتد که اعتبار متقاطع k-fold را روی این دادهها بهجای ترک یکاوت اعمال کنیم (حتی اگر نسبت متعادلی از مثبتها را در هر برابر تولید کنیم). بنابراین، سوال من این است: کدام رویکرد برای محاسبه دقت/یادآوری از اعتبار سنجی متقاطع k برابر (ترکیبی یا متوسط) دقیق تر است؟ آیا برای ترک یک نفره هم همین وضعیت وجود دارد؟ دو بحث مرتبط وجود دارد: میانگین در مقابل اعتبارسنجی متقاطع k-fold ترکیبی و میانگین دقت و یادآوری هنگام استفاده از اعتبارسنجی متقاطع، اما، بحث اول پاسخ روشنی برای این نکته نداشت و دومی تأثیر میانگینگیری Fmeasure را مورد بحث قرار میدهد (نه در دقت/یادآوری). در هر دو بحث بحث نشد که آیا کنار گذاشتن ترجیح دیگری دارد یا خیر.
|
اعتبارسنجی متقاطع k-fold و ترک یک خروجی میانگین در مقابل ترکیبی K-fold
|
91901
|
من دارم روی پایان نامه کار می کنم. مدل رگرسیونی اصلی من به شرح زیر است: 1. $Y=x_1*{\rm پرداخت}+x_2*{\rm کشور}+x_3*{\rm صنعت}...$ همه متغیرهای مستقل، متغیرهای ساختگی / باینری هستند. در مرحله بعدی نمونه خود را تقسیم می کنم و دو رگرسیون زیر را می سازم: 2. $Y=x_2*{\rm Country}+x_3*{\rm Industry}...$ => در اینجا فقط مشاهداتی را در نظر میگیرم که دارای ارزش هستند. 1 در رابطه با متغیر مستقل پرداخت 3. $Y=x_2*{\rm کشور}+x_3*{\rm صنعت}...$ => در اینجا من فقط در نظر دارم مشاهداتی که دارای مقدار 0 در رابطه با متغیر مستقل پرداخت بودند. متغیر مستقل پرداخت در پایان نامه من بسیار مهم است و همه متغیرهای باقی مانده را می توان به عنوان متغیرهای کنترل در نظر گرفت. «پرداخت» اگر معامله M&A به صورت نقدی پرداخت شود، مقدار 1 و اگر به صورت سهام پرداخت شود، مقدار 0 را می گیرد. من بازخورد زیر را از سرپرستم دریافت کردم و کاملاً مطمئن نیستم که چگونه آن را ادغام کنم: > ... آیا واقعاً می توانید نمونه را به نقد و سهام M&A تقسیم کنید؟... اگر شما واقعاً با فرضیه خود > درست هستید، شرکت های مختلف بهعنوان روش پرداخت، پول نقد به جای سهام بهعنوان روش پرداخت استفاده میشود...بنابراین دو جمعیت شما یکسان نیستند. به عبارت دیگر: مشکل درون زایی وجود دارد. برای حل آن از تخمین متغیر ابزاری هکمن 2 مرحله ای استفاده کنید... به توجیه اقتصادی IV های خود و تست اقتصاد سنجی آنها (معتبر > ابزار) توجه کنید... وقتی رویه هکمن را جستجو می کنم (به ویژه مثال مزد زن) به نظر می رسد که Y را تجزیه و تحلیل می کند. از این رو من گیج شده ام زیرا ارتباطی بین مثال دستمزد زن و مورد خود نمی بینم.
|
تخمین متغیر ابزاری هکمن 2 مرحله ای
|
79454
|
من سعی می کنم یک لایه softmax به یک شبکه عصبی آموزش دیده با انتشار پس زمینه اضافه کنم، بنابراین سعی می کنم گرادیان آن را محاسبه کنم. خروجی softmax $h_j = \frac{e^{z_j}}{\sum{e^{z_i}}$ است که $j$ عدد نورون خروجی است. اگر آن را استخراج کنم، $\frac{\partial{h_j}}{\partial{z_j}}=h_j(1-h_j)$ مشابه رگرسیون لجستیک دریافت میکنم. اما این اشتباه است زیرا بررسی گرادیان عددی من با شکست مواجه می شود. من چه غلطی می کنم؟ فکر می کردم باید مشتقات متقاطع را نیز محاسبه کنم (یعنی $\frac{\partial{h_j}}{\partial{z_k}}$) اما مطمئن نیستم چگونه این کار را انجام دهم و بعد را حفظ کنم گرادیان یکسان است، بنابراین برای فرآیند انتشار برگشتی مناسب است. با تشکر
|
لایه سافت مکس در یک شبکه عصبی
|
1529
|
هنگام انجام رگرسیون خطی چندگانه OLS، به جای رسم باقیمانده ها در برابر مقادیر برازش، من باقی مانده های دانشجویی (داخلی) را در برابر مقادیر برازش رسم می کنم (برای متغیرهای کمکی هم همینطور). این باقیمانده ها به صورت زیر تعریف می شوند: \begin{equation} e^*_i = \frac{e_i}{\sqrt{s^2 (1-h_{ii})}} \end{equation} که در آن $e_i$ باقیمانده است و $h_{ii}$ عناصر مورب ماتریس کلاه هستند. برای بدست آوردن این باقیمانده های دانشجویی در R، می توانید از دستور «rstandard» استفاده کنید. مردم معمولاً در این زمینه از چه نوع باقیمانده استفاده می کنند؟ به عنوان مثال، آیا شما فقط با $e_i$ میپیوندید یا از باقیماندههای jackknife یا کاملاً چیز دیگری استفاده میکنید. توجه: من به مقالاتی که نوع جدیدی از باقیمانده را تعریف می کنند که هیچ کس هرگز استفاده نمی کند، علاقه مند نیستم.
|
از چه نوع تجزیه و تحلیل پس از برازش باقیمانده ها استفاده می کنید؟
|
67867
|
پس از بررسی سوالات مرتبط در مورد اعتبار متقاطع و مقالات و بحثهای بیشماری در مورد استفاده نامناسب از رگرسیون گام به گام برای انتخاب متغیر، هنوز نمیتوانم پاسخهایی را که در رابطه با ساخت مدلهای رگرسیون لجستیک باینری باینری از مجموعه دادههای 1000 به دنبال آن هستم، بیابم. (یا بیشتر) متغیرهای پیش بینی بالقوه. برای برخی اطلاعات پس زمینه، من معمولاً با مجموعه داده های بزرگ، 500 هزار ردیف یا بیشتر کار می کنم، و علاقه من به ساخت مدل های رگرسیون لجستیک باینری است تا پیش بینی کنم که آیا یک فرد (1) صورتحساب خود را در یک حساب خاص بدون پرداخت می کند یا خیر. با استفاده از رگرسیون لجستیک گام به گام در حال حاضر، رگرسیون لجستیک گام به گام به عنوان «روش کامل» در میان آماردانانی که با آنها کار کردهام مورد استقبال قرار میگیرد، و من میخواهم آن را تغییر دهم، زیرا بسیاری از مشکلات آن را از نزدیک مشاهده کردهام. من اخیراً به تجزیه و تحلیل PCA («proc varclus») و جنگل تصادفی («RandomForest») پرداختهام که مورد دوم بسیار مفید است. با این حال، من همچنان به دنبال مسیرهای بیشتر در مورد چگونگی کاهش تعداد متغیرها در مدل های لجستیک باینری خود بدون استفاده از رگرسیون لجستیک گام به گام هستم. با توجه به آنچه گفته شد، هر گونه کمک (مقالات یا افکار پیشنهادی) بسیار قدردانی می شود. با تشکر
|
جایگزین های رگرسیون لجستیک گام به گام با مجموعه داده های بزرگ
|
22223
|
من سعی می کنم دقت را در یک طبقه بندی کننده ساده بیز که از مجموعه ای از ویژگی ها استفاده می کند، بهبود بخشم. من تصور می کنم که حذف برخی از ویژگی ها ممکن است در واقع عملکرد را بهبود بخشد. استدلال من برای یک ویژگی خاص است که ممکن است پی دی اف های تخمینی در کلاس ها کمی متفاوت باشند به دلیل حجم محدود داده های یادگیری، نه به این دلیل که واقعاً متفاوت هستند. به عنوان مثال، اگر یک ویژگی در بین 2 کلاس، هیستوگرام یکسانی داشته باشد به جز مقداری نویز | | ||| ||| |||||||_ نویز _|||||||| p(x1 | C1)، یا H1(x) | | ||| ||| ||||||||________|||||||| p(x1 | C2)، یا H2(x) من قبلاً میدانم که هنگام مدلسازی p(x1 | C1) میتوانستم عرض bin بزرگتری را برای صاف کردن نویز انتخاب کنم، اما بیایید بگوییم این یک بهینه بود. پهنای باند در مثال بالا من می خواهم این نوع موارد را شناسایی کنم و ویژگی را حذف کنم. من به واگرایی کولبک-لایبلر نگاه کردم. اما، نمی توانم نحوه محاسبه آن را ببینم زیرا $KL(H2 || H1) = \sum H_2(i) log( \frac{H_2(i)}{H_1(i)}) $ برای مثال تعریف نشده است. هیستوگرام بالا به دلیل صفر در یک مورد که H2(x) صفر نیست. یا برعکس برای KL(H1||H2). هر گونه پیشنهاد، افکار؟ با تشکر
|
اندازه گیری محتوای اطلاعاتی یک متغیر تصادفی در طبقه بندی کننده Naive Bayes
|
110682
|
ما یک گزارش روزانه داریم که دادههای تأخیر وبسایت p90 روز را میگیرد و آن را با همان روز در چهار هفته گذشته مقایسه میکند و میگوید آیا تأخیر p90 برای یک روز خاص بالا یا پایین شده است. من همچنین قصد داشتم یک گزارش هفتگی بسازم که میانگین دلتای تاخیر p90 را برای هفته های جاری و گذشته گرفته و دلتا را نشان دهد. داشتم به این فکر میکردم که انجام این کار چه مزایایی خواهد داشت و گزارش هفتگی چه نوع بینشهایی را نشان میدهد که در گزارش روزانه وجود ندارد؟
|
گزارش تأخیر هفتگی نسبت به گزارش روزانه چه مزایایی باید به من بدهد
|
79457
|
من میخواهم احتمالات ترکیبهای عضویت گروه را برای اندازههای نمونه مختلف (مثلاً n= 3، 4، 5، 10 یا 100) برای دو گروه (با اندازه نمونه یکسان) شبیهسازی یا محاسبه کنم. هر نتیجه می تواند مرد/زن و جوان/پیر باشد. جمعیت 50 درصد مرد و 50 درصد جوان است. احتمال به دست آوردن چقدر است: همه مرد در گروه 1 و همه زن در گروه 2 یا همه مرد در گروه 2 و همه زن در گروه 1 یا همه جوان در گروه 1 و همه پیر در گروه 2 یا همه جوان در گروه 2 و همه قدیمیها در گروه 1 من همچنین میخواهم بتوانم دستههای دیگری را نیز بگنجانم (مثلاً سبزیجات خود را میخورند، سبزیجات خود را نمیخورند) و بتوانم درصدی از جمعیت را انتخاب کنم که در یک دسته یا دسته دیگر قرار می گیرد. دستهها میتوانند مستقل از یکدیگر باشند، اما اگر توانایی وابسته کردن عضویت وجود داشته باشد، بهتر است (به عنوان مثال، زنان 70 درصد مواقع سبزیجات خود را میخورند و مردان 50 درصد مواقع). همچنین بهتر است این به دسته هایی با 2 نوع محدود نشود (به عنوان مثال، بتوانید کلاس چهارم، پنجم یا ششم را انجام دهید). هدف من محاسبه احتمال به دست آوردن گروههای کاملا نامتعادل برای ترکیبهای مختلف مخدوشها است و نمیتوانم بفهمم چگونه این کار را با R انجام دهم. و به نوعی پیچیده **ویرایش:** سوال بازنویسی شده: دو گروه هستند که نمونه های مستقلی از یک جامعه دانش آموزان هستند که آنها را درمان و کنترل می نامند. جمعیت شامل 50 درصد مرد، 50 درصد زن، هر کدام 25 درصد در پایه سوم تا ششم است. در هر پایه تعداد زن و مرد مساوی است. همچنین 75 درصد از زنان سبزیجات مصرف می کنند، در حالی که تنها 50 درصد از مردان بدون توجه به کلاس مدرسه سبزیجات می خورند. برای اندازههای مختلف نمونه، میخواهم شانس قرار گرفتن همه پسران در یک گروه (درمان/کنترل) را محاسبه کنم، در حالی که همه دختران در گروه دیگر وجود دارند یا همه دانشآموزان هم کلاس در یک گروه در حالی که گروه دوم شامل همه دانشآموزان میشود. همان درجه اما متفاوت از درجه اول. به عنوان مثال همه دانش آموزان کلاس سوم در گروه درمان و همه دانش آموزان کلاس ششم در گروه کنترل. OR همه سبزی خواران در یک گروه و همه غیر سبزی خواران در گروه دوم.
|
نحوه محاسبه جایگشت متغیرهای طبقه بندی شده با R
|
90834
|
با سلام و تشکر از اینکه به سوالات من نگاه کردید. من مطمئن هستم که این یک سوال بسیار ساده است، اما به نظر نمی رسد که آن را درک کنم، یک کمیته سه نفره از مجموعه ای متشکل از پنج نفر انتخاب می شود: دو زن (A و B) و سه مرد (C,D,E) اگر کمیته به طور تصادفی انتخاب می شود، احتمال اینکه هر دو زن وجود داشته باشد چقدر است؟ (من فکر کردم برای این یکی P=(2/5)*(1/4) خواهد بود زیرا اولین انتخاب شده 2/5 شانس زن بودن دارد و نفر دوم شانس 1/4 دارد اما من گفته شد که درست نیست) و اگر در عوض، کمیته با انتخاب تصادفی یکی از دو زن، یکی از سه مرد و سپس یکی از سه نفر باقیمانده انتخاب شود، احتمال اینکه شامل هر دو زن باشد چقدر است.
|
احتمال انتخاب کمیته
|
96788
|
من یک مجموعه داده کوچک از داده های شمارش دارم که تعدادی اندازه گیری صفر دارد. پراکندگی بیش از حد من نسبتاً زیاد است. به همین دلیل من به سمت استفاده از بسته glmmadmb کشیده شدم. من درک می کنم که چگونه می توان تناسب توزیع ها (poisson، nbinom و غیره) را با استفاده از AICtab مقایسه کرد. چیزی که من با آن دست و پنجه نرم می کنم این است که چگونه ارزیابی کنم که آیا مدل با «بهترین» تناسب توزیع واقعاً با داده های من مطابقت دارد یا خیر. در glm های 'نرمال'، اینجا جایی است که از qqnorm(resid(model)) qqline(resid(model)) استفاده می کنید، با این حال، من می دانم که مفروضات مورد نیاز برای استفاده از آن در دوجمله های منفی و غیره برآورده نمی شوند. بنابراین، میخواهم کسی به من در جهت درست برای یافتن پاسخ راهنمایی کند... چگونه انتخاب مدل خود را در GLMMADMB تأیید میکنید؟ پیشاپیش از کمک شما سپاسگزارم، من واقعاً از وقت و تلاش شما قدردانی می کنم. **ویرایش**: 8 مه 2014 مجموعه داده های من بسیار ساده است….. من در حال آزمایش پاسخ رفتاری به محرک های پخش صوتی هستم. من 10 حیوان دارم که به صورت کنترلی پخش میشوند، و همان 10 حیوان روز بعد یک پخش درمانی را بازی کردند (تناوب برای متعادل کردن اثرات دستور درمان). بنابراین، من فقط یک اثر ثابت (درمان صوتی) و یک اثر تصادفی (نام فردی) دارم. من احساس میکنم که با توابع «lmer» راحت هستم و از «lme4» در چندین مدل بسیار بزرگتر، هم تعداد و هم دو جملهای استفاده کردهام. من نسبت به درک خود از مدل های glmmadmb کمی مطمئن نیستم…. چیزی که من مشکل را در مورد این مدل کوچک می بینم، این است که 5/10 از پاسخ های اندازه گیری شده برای پخش کنترلی 0 هستند (با 5/10 دیگر اعداد کوچک و 10/10 برای پخش درمان اعداد بزرگ هستند). مجموعه داده من به شرح زیر است: رفتار درمان صوتی فردی A درمان 60 ب درمان 29 درمان 32 درمان 40 درمان 3 درمان 25 گرم درمان 21 ساعت درمان 50 درمان 14 JTREATMENT CONTROL 0 D CONTROL 0 E CONTROL 19 F CONTROL 10 G CONTROL 4 H CONTROL 0 I CONTROL 0 J CONTROL 3 و من مدل زیر را نصب کرده ام: modelNBIT<-glmmadmb(BEHAVIOUR~AUDIO_TREATMENTVI+(1INDI)،family=1|inDI) ، تورم صفر = TRUE) من در ابتدا فکر می کردم که مدل های کوتاه شده (یا مدل های مانع) ممکن است برای این کار مناسب تر باشند، اما glmmadmb کوتاه شده خطای زیر را اجرا می کند .... (شاید به دلیل بیش از حد برازش) پارامترها تخمین زده شدند، اما خطاهای استاندارد نبودند: بیشترین مشکل احتمالی این است که انحنا در MLE صفر یا منفی بود. به سوال اصلی خود برمی گردم - می خواستم بدانم آیا کسی می تواند راهی برای اعتبارسنجی مدل پیشنهاد کند (در این مورد دقیق، modelNBIT)؟ مجدداً بابت وقت و تلاش شما سپاسگزارم.
|
اعتبارسنجی انتخاب مدل در glmmadmb
|
90836
|
من مجموعه ای از سری های زمانی برای روزهای مختلف (فرکانس و منبع یکسان) دارم. من باید زیر مجموعه ای از آن را انتخاب کنم و آنها با هم مقادیر آینده را پیش بینی می کنند. در حال حاضر من به سادگی از سری های زمانی X از Y با کمترین مقادیر AICc در مدل ARIMA استفاده می کنم. میخواهم بدانم از کدام تستها میتوانم برای انتخاب زیرمجموعه استفاده کنم. زیرمجموعه مورد استفاده برای پیشبینی میتواند شامل سریهای زمانی باشد که بیشترین همبستگی را دارند، یا روندهای مشابهی دارند و غیره. توضیح با استفاده از کد R مفید خواهد بود.
|
انتخاب بهترین سری زمانی برای پیش بینی
|
18301
|
آیا آزمون نسبت درستنمایی ($-2 \log L$) اساساً شبیه آزمون F جزئی است که از آن برای رگرسیون لجستیک به جای رگرسیون خطی استفاده می کنید؟
|
آزمون نسبت احتمال
|
1520
|
امروز به مشکل جالبی برخوردم یک سکه و x پول به شما داده می شود، اگر سر به دست بیاورید پول دو برابر می کنید و در هر پرتاب نیمی از دم را از دست می دهید. 1. ارزش مورد انتظار پول شما در n تلاش چقدر است. 2. احتمال دریافت بیش از ارزش مورد انتظار در (1) چقدر است. من اینگونه به آن نزدیک شدم. احتمال سر و دم یکسان است (1/2). مقدار مورد انتظار پس از اولین پرتاب = 1/2$(2*x) + 1/2(1/2*x) = 5x/4$ بنابراین ارزش مورد انتظار بعد از اولین پرتاب 5x/4$ است. به طور مشابه با تکرار انتظار پرتاب دوم در 5x/4، مقدار مورد انتظار پس از پرتاب دوم = 1/2$(2*5x/4) + 1/2(1/2*5x/4) = 25x/16$ بنابراین شما دنباله ای از مقادیر مورد انتظار: $5x/4$، $25x/16$، $125x/64$، ... پس از تلاش $n$، مقدار مورد انتظار شما باید باشد $(5^n/4^n) * x$. اگر $n$ به اندازه کافی بزرگ باشد، مقدار مورد انتظار شما باید به میانگین توزیع نزدیک شود. بنابراین احتمال اینکه مقدار بیشتر از مقدار مورد انتظار باشد باید 0.5 دلار باشد. من در مورد این یکی مطمئن نیستم.
|
مقدار مورد انتظار متغیر تصادفی در پرتاب یک سکه
|
29682
|
این احتمال را میتوان به روشهای مختلفی تعریف کرد، به عنوان مثال: * تابع $L$ از $\Theta\times{\cal X}$ که $(\theta,x)$ را به $L(\theta \mid x) نگاشت میکند. $ * تابع تصادفی $L(\cdot \mid X)$ * همچنین میتوانیم در نظر بگیریم که احتمال فقط احتمال مشاهدهشده است $L(\cdot \mid x^{\text{obs}})$ * در عمل، احتمال اطلاعات مربوط به $\theta$ را فقط تا یک ثابت ضربی به ارمغان میآورد، از این رو میتوانیم احتمال را بهعنوان یک کلاس هم ارزی از توابع در نظر بگیریم تا یک تابع، سؤال دیگری زمانی پیش میآید که با در نظر گرفتن تغییر پارامترسازی: اگر $\phi=\theta^2$ پارامتر جدید باشد، معمولاً با $L(\phi \mid x)$ نشان میدهیم که احتمال وجود دارد. $\phi$ و این ارزیابی تابع قبلی $L(\cdot \mid x)$ در $\theta^2$ نیست، بلکه در $\sqrt{\theta}$ است. این یک علامت توهین آمیز اما مفید است که در صورت عدم تاکید می تواند برای مبتدیان مشکل ایجاد کند. تعریف دقیق مورد علاقه شما از احتمال چیست؟ علاوه بر این، چگونه $L(\theta \mid x)$ را صدا میزنید؟ من معمولا چیزی مانند احتمال روی $\theta$ هنگامی که $x$ مشاهده می شود می گویم. ویرایش: با توجه به برخی نظرات زیر، متوجه شدم که باید زمینه را دقیق میکردم. من یک مدل آماری ارائه شده توسط یک خانواده پارامتری $\{f(\cdot \mid \theta)، \theta \in \Theta\}$ از چگالیها را با توجه به برخی معیارهای غالب در نظر میگیرم، با هر $f(\cdot \mid \theta)$ در فضای مشاهدات ${\cal X}$ تعریف شده است. از این رو $L(\theta \mid x)=f(x \mid \theta)$ را تعریف می کنیم و سوال این است که $L$ چیست؟ (سوال در مورد یک تعریف کلی از احتمال نیست)
|
چگونه احتمال را دقیق تعریف کنیم؟
|
111244
|
من می خواهم از R برای حل مشکلی که دارم استفاده کنم. من حتی نمی دانم نام یک مشکل از این دست را چه بگذارم و برای من گوگل کردن مشکل است. حدس من این است که این نوع مشکل از قبل دارای بستههای R است که به حل آن کمک میکند، اما بسیار ممنون میشوم که برای تعریف مشکل کمک کنید. من می خواهم با توجه به برخی محدودیت ها، ترکیب بهینه عوامل را انتخاب کنم. من مجموعه بزرگی از عامل ها را دارم که هر کدام چهار معیار دارد: 1. **دسته 1** : می تواند 1 از 4 مقدار ممکن را بگیرد 2. **دسته 2**: می تواند 1 از 20 مقدار ممکن را بگیرد 3 **هزینه**: یک متغیر پیوسته 4. **بازده مورد انتظار**: یک متغیر پیوسته من مایلم مجموعه ای از 15 عدد را انتخاب کنم. agents، برای به حداکثر رساندن **بازده مورد انتظار**، با محدودیت های زیر: 1. باید تعداد معینی عامل از هر مقدار **دسته 1** 2. حداکثر تعداد عامل از هر مقدار * وجود داشته باشد. *دسته 2** 3. حداکثر **هزینه** وجود دارد، به طور خاص این چه نوع مشکلی است؟ آیا از بستههای R که میتوانم برای کمک به من استفاده کنم یا تطبیق دهم، اطلاع دارید؟ من فقط R را مشخص می کنم زیرا با زبان بسیار راحت هستم. خیلی ممنون از وقتی که گذاشتید
|
بهینه سازی انتخاب از یک مجموعه، با محدودیت
|
111241
|
من می دانم که حداقل یک سیستم برای مدل سازی خودکار اشیاء سه بعدی از داده های تصویر وجود دارد. به نظر می رسد اتودسک روش خوبی را توسعه داده است. آیا کسی ساختار اصلی و الگوریتم های رایج در چنین سیستمی را می داند؟ تکنیک من شامل استفاده از یک شبکه عصبی چند سطحی (NN) است. ورودیها رنگهای پیکسلی از چندین تصویر از شی در دست خواهند بود. خروجی داده های مدل کامپیوتری سه بعدی خواهد بود. مجموعه ای از تصاویر جفت شده با مدل های مورد نظر، داده های آموزشی برای یک الگوریتم ژنتیک (GA) خواهد بود. GA NN را سیمکشی میکند تا روابط بین تصاویر دادههای آموزشی و مدلهای مورد نظر را به بهترین شکل ممکن ترسیم کند. آیا این تکنیک در گذشته با موفقیت اجرا شده است؟ متشکرم.
|
سیستم های فعلی مدل تصویر به سه بعدی چگونه کار می کنند؟
|
110687
|
دو رویکرد احتمالی اصلی برای تشخیص تازگی وجود دارد: پارامتریک و ناپارامتریک. رویکرد ناپارامتریک فرض میکند که تابع توزیع یا چگالی از دادههای آموزشی مشتق میشود، مانند تخمین چگالی هسته (به عنوان مثال، پنجره Parzen)، در حالی که رویکرد پارامتری فرض میکند که دادهها از یک توزیع شناخته شده میآیند. من با رویکرد پارامتریک آشنا نیستم. آیا کسی می تواند برخی از الگوریتم های شناخته شده را به من نشان دهد؟ ضمناً آیا می توان MLE را نوعی رویکرد پارامتریک در نظر گرفت (منحنی چگالی مشخص است و سپس به دنبال یافتن پارامتر مربوط به حداکثر مقدار هستیم)؟
|
آیا برآورد حداکثر احتمال (MLE) یک رویکرد پارامتری است؟
|
111247
|
این بار، من یک مشکل نظری بیشتر از محاسباتی دارم. من یک مدل مسیر دارم که علاقه مندم آن را روی یک مجموعه داده با دو گروه آزمایش کنم. این یک مدل دو پیش بینی بسیار ساده است که در زیر به آن اشاره شده است، و من از تابع ML-SEM در Mplus v.7 برای تجزیه و تحلیل داده ها استفاده می کنم. y = x1 + x2 سؤال اصلی تحقیق من این است (1.) آیا مدل من بین گروه ها بهتر کار می کند یا درون گروهی. من همچنین به (2.) نسبت واریانس محاسبه شده بین گروه در مقایسه با درون گروه علاقه مند هستم. در نهایت، میخواهم بدانم (3.) آیا x1 یک پیشبینیکننده بین گروهی بهتر است و x2 یک پیشبینیکننده درون گروهی بهتر است. مدل به خوبی همگرا می شود و به خوبی با داده ها مطابقت دارد، اما نمی دانم از چه نوع اطلاعاتی در خروجی برای پاسخ به این سه سوال تحقیق استفاده کنم. از چه داده هایی برای استخراج مقدار واریانس محاسبه شده توسط مدل در هر سطح استفاده می کنم؟ چگونه می توانم پیش بینی کننده هایی را که در داخل و بین گروه ها کار می کنند مقایسه کنم؟ هر گونه اشاره و پیشنهاد بسیار قدردانی خواهد شد. با تشکر
|
پاسخ به سوالات تحقیق با مدل سازی معادلات ساختاری چند سطحی (ML-SEM)
|
28480
|
به نظر می رسد روش بونفرونی (تقسیم آلفای آزمایشی بر # مقایسه) برای انتخاب سطح p برای رفع آلفای آزمایشی (هنگامی که بسیاری از مقایسههای زوجی انجام میشود) محافظهکارانهتر از حل کردن $1 - (1 - p)^k = 0.05$ باشد. برای استفاده از آلفا برای هر یک از مقایسههای زوجی $k$. چرا فقط معادله را حل نمی کنید؟
|
چرا از تقریب بونفرونی برای آلفای آزمایشی استفاده کنیم؟
|
114506
|
جدول آزمون کای اسکوئر من برای همگنی دارای 3x5 سلول، 3 نمونه در مقیاس لیکرت است. اکثر سلولهای جدول دارای تعداد فرکانس کمتر از دو هستند، بنابراین توصیه میشود ستونی که حاوی سلولی با فرکانس کمتر از دو است را کنار بگذارید. اگر کل ستون را صرفاً به این دلیل که یک سلول دارای مقدار کمتر از 2 یا 0 است، کنار بگذارم، چه تأثیری بر فرضیه من خواهد داشت؟
|
تست مجذور کای برای مشکل همگنی (تعداد سلول کمتر از 2)
|
61428
|
صبح بخیر من در مورد تغییر واریانس در طول زمان جستجو کردم، اما هر چیزی که دیدم مربوط به سری های زمانی نسبتا طولانی بود. من یک سری از 5 نقطه زمانی دارم، با فاصله مساوی، اما با افراد مختلف در هر نقطه زمانی. حدود 15 متغیر وجود دارد که به آنها علاقه دارم، همه چیزهای پزشکی مانند سطح گلوکز و فشار خون و غیره. برای مدل سازی، من از یک مدل چند سطحی استفاده می کنم. اما رسم داده ها نشان می دهد که برای برخی از متغیرها، واریانس کاهش می یابد. از نظر پزشکی، این چیز خوبی است. بسیاری از متغیرها اگر خیلی کم یا خیلی زیاد باشند، بد هستند. اما چگونه می توانم این تغییر واریانس را آزمایش کنم؟ و ممکن است این به راهی برای تشخیص میزان تغییری که من می بینم از رگرسیون به میانگین منجر شود؟
|
آزمایش تغییر واریانس در 5 نقطه زمانی و رگرسیون به میانگین
|
67866
|
_**آیا کسی می تواند یک نمای کلی از محبوب ترین الگوریتم های آموزشی برای پرسپترون ها ارائه دهد؟ به نظر می رسد صدها الگوریتم مختلف وجود دارد که ادعا می کنند عملکرد بهتری دارند، اما برای من دشوار است که بتوانم پیاده سازی کنم کدام یک امیدوارکننده تر است (با پیچیدگی و زمان برای کدنویسی/درک هزینه ها). همچنین، من از theano در پایتون استفاده می کنم.
|
الگوریتم های سریع برای آموزش پرسپترون / شبکه عصبی / ANN
|
114502
|
از استنباط آماری کاسلا و برگر، > قضیه 7.5.1 (Lehmann-Scheff) برآوردگرهای بی طرفانه مبتنی بر آمار کامل > کافی منحصر به فرد هستند. من نمی دانم که آیا شرایط لزوما قوی نیست؟ یعنی آیا این درست است که > برآوردگرهای بی طرف بر اساس آمار کامل منحصر به فرد هستند؟ به سادگی با تعریف آمار کامل؟ (نکته: بی نظیر به معنای ع.س.) با تشکر.
|
آیا برآوردگرهای بی طرف مبتنی بر آمار کامل منحصر به فرد هستند؟
|
23173
|
در اینجا سر مجموعه داده های من ('tjornres'): Fish.1 Fish.2 MORPHO DIET 1 1 2 0.03768 0.1559250 2 1 3 0.05609 0.7897060 3 1 4 0.039334306010. 0.1200480 0.1200480 5 1 6 0.05629 0.4390760 6 1 8 0.08366 0.1866750 7 1 9 0.04892 0.0988235 8 1 10 0.0442 RP `ET 0.04467` به فاصله مورفولوژیکی و رژیم غذایی بین ماهی 1 و ماهی 2. مجموعه داده های اصلی من بیش از 2400 جفت ماهی دارد. هدف من نمونهبرداری مجدد از این مجموعه داده با انتخاب تنها 435 است. میخواهم این کار را 999 بار انجام دهم و توزیعی از ضرایب همبستگی MORPHO~DIET را دریافت کنم. ادامه دادم و این کد را نوشتم: head(tjornres) essayres = tjornres # کپی داده R = 999 # تعداد تکرارها cor.values = numeric(R) # ذخیره داده ها برای (i در 1:R) { # حلقه + گروه 1 = نمونه (مقاله، اندازه = 435، جایگزین = F) + گروه2 = نمونه (مقاله، اندازه = 435، جایگزین = F) + cor.values[i] = cor.test(group1,group2)$cor + } من یک خطای نحوی در این کد دارم. همچنین اگر یک نمونهبرداری مجدد، «نمونه(مقاله، اندازه=435، جایگزین=F)» را اجرا کنم، این پیام خطا را دریافت میکنم: خطا در «[.data.frame»(x, .Internal(sample(length(x)) اندازه، جایگزینی، :نمی توان نمونه ای بزرگتر از جمعیت را زمانی که 'جایگزین = نادرست' انتخاب کرد، آیا کسی می داند که چرا این کد کار نمی کند؟ (بدون جایگزینی) از کمک شما متشکرم،
|
نمونه برداری مجدد بدون جایگزینی در R، با یک حلقه
|
61423
|
من سعی می کنم از یک رگرسیون چندگانه (در اکسل) برای تعیین اثربخشی کمک های خارجی بر رشد تولید ناخالص داخلی استفاده کنم. من از زمان دانشگاه همه چیز را فراموش کرده ام... برنامه من این است که یک رگرسیون را با استفاده از تعیین کننده های ثابت به عنوان خط پایه اجرا کنم. سپس با افزودن متغیر مستقل «هزینههای کمک»، به مقدار p و ضریب «هزینههای کمک» اضافه کنید. آیا من جایی نزدیک هستم؟
|
پسرفت برای اثربخشی کمک های خارجی
|
77500
|
من مجموعه ای از 1000 نقطه داده از غلظت های اندازه گیری شده دارم که ممکن است شامل حداکثر 300 مقدار باشد که سانسور شده اند (زیر حد تشخیصی که آزمایشگاه می تواند به طور قابل اعتماد اندازه گیری کند). محدوده مقادیر حد تشخیص متفاوت است، مانند <2، <3، <7 و غیره. داده های من نه نرمال هستند و نه log-normal، و تا کنون از آزمون های ناپارامتریک برای تجزیه و تحلیل آن ها استفاده کرده ام. اطلاعات موجود در ادبیات تحقیقاتی محیطی در مورد استفاده از برآوردگرهای kaplan-meier یا ROS برای دادههای سانسور شده چپ واقعی، در درجه اول فقط آمارهای کلی (یعنی میانگین، میانه، std. dev) را بین این روشهای تخمینگر مختلف مقایسه میکند. من میخواهم از KM برای ایجاد **مقادیر فردی** برای نتایج من که زیر حد تشخیص هستند استفاده کنم. تا به امروز من به هر نرم افزار آماری که ممکن است در دسترسم باشد متکی بوده ام، اما در حال حاضر نمی توانم این گزینه را پیدا کنم. _ویرایش:_ مراحل تولید مقادیر برای داده های سانسور شده چپ (با استفاده از KM) چیست؟ آیا برنامه/نرم افزاری وجود دارد که بتوانم آن را به مجموعه داده خود اعمال کنم و سپس مقادیر را بر اساس KM درج کنم؟ در نهایت من علاقه مند به استفاده از این مقادیر تولید شده برای تجزیه و تحلیل چند متغیره بیشتر مجموعه داده های خود هستم و بنابراین به مقادیر فردی جدید (بر خلاف میانگین کلی، میانه و غیره) نیاز دارم. هر نظری مفید خواهد بود متشکرم.
|
آیا می توان از روش کاپلان مایر برای تخمین داده های سانسور شده چپ استفاده کرد؟
|
28486
|
من یک ANOVA اندازه گیری های مکرر سه طرفه را انجام داده ام. چه تحلیلهایی معتبر هستند؟ این یک طراحی کاملاً متعادل (2x2x2) است که یکی از عوامل دارای اندازه گیری مکرر درون آزمودنی ها است. من از رویکردهای چند متغیره برای اندازه گیری های مکرر ANOVA در R آگاه هستم، اما اولین غریزه من این است که با یک سبک ساده aov() ANOVA ادامه دهم: aov.repeated <- aov(DV ~ IV1 * IV2 * Time + Error(Subject/ زمان)، داده = داده) DV = متغیر پاسخ IV1 = متغیر مستقل 1 (2 سطح، A یا B) IV2 = متغیر مستقل 2 (2) سطوح، بله یا خیر) IV3 = زمان (2 سطح، قبل یا بعد) موضوع = شناسه موضوع (40 آزمودنی کل، 20 برای هر سطح IV1: nA = 20، nB = 20) خلاصه (aov.repeated) خطا: موضوع Df Sum Sq Mean Sq F مقدار Pr(>F) IV1 1 5969 5968.5 4.1302 0.049553 * IV2 1 3445 3445.3 2.3842 0.131318 IV1:IV2 1 11400 11400.3 7.8890 0.007987 ** باقیمانده ها 36 54523 S. --1. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 خطا: موضوع:Time Df Sum Sq Mean Sq F value Pr(>F) Time 1 149 148.5 0.1489 0.7019 زمان 1 865 864.6 0.8666 0.358103 IV2:زمان 1 10013 10012.8 10.0357 0.003125 ** IV1:IV2:زمان 1 852 851.5 0.8535 0.361738 0.361738 0.361738 0.361738 0.361738 0.361738 0.361738 0.361738 0.361738 0.361738 0.361738 0.361738 0.361738 0.361738 0.361738-399-59 باقی مانده کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 از طرف دیگر، من به استفاده از بسته nlme برای ANOVA سبک lme فکر می کردم: aov.repeated2 <- lme(DV ~ IV1 * IV2 * زمان، تصادفی = ~1|موضوع/زمان، داده=داده) summary(aov.repeated2) جلوههای ثابت: DV ~ IV1 * IV2 * مقدار زمانی Std.Error DF t-value p-value (Intercept) 99.2 11.05173 36 8.975972 0.0000 IV1 19.7 19.7 19.7 156.156 15. 0.2156 IV2 65.9 15.62950 36 4.216385 0.0002 *** زمان 38.2 14.12603 36 2.704228 0.0104 * IV1: IV2 -60.8 22.30 22.30 -60.8 4704228 زمان 0.923826 0.3617 اولین غریزه بعد از تعاملات دو طرفه قابل توجه من با Tukey با استفاده از glht() از بسته multicomp تضاد دارد: data$IV1IV2int <- تعامل(data$IV1, data$IV2) data$IV2Timeint <- تعامل(data$IV2 , data$Time) aov.IV1IV2int <- lme(DV ~ IV1IV2int، تصادفی = ~1|موضوع/زمان، داده=داده) aov.IV2Timeint <- lme(DV ~ IV2Timeint، تصادفی = ~1|موضوع/زمان، داده=داده) IV1IV2int.posthoc <- summary(glht(aov IV1IV2int، linfct = mcp(IV1IV2int = Tukey))) IV2Timeint.posthoc <- summary(glht(aov.IV2Timeint, linfct = mcp(IV2Timeint = Tukey))) IV1IV2int.posthoc #A.Yes - B.Yes == 0 0.94684 #B.No - بله == 0 0.01095 * #A.No - B.Yes == 0 0.98587 من برای این مهم نیستم #B.No - A.Yes == 0 0.05574 . من به این مهم نیستم #A.No - A.Yes == 0 0.80785 #A.No - B.No == 0 0.00346 ** IV2Timeint.posthoc #No.After - Yes.After == 0 0.0142 * # بله.قبل - بله.بعد == 0 0.0558 . #No.Before - Yes.After == 0 0.5358 من برای این مهم نیستم #Yes.Before - No.After == 0 0.8144 من به این مهم نیستم #No.Before - No.After == 0 0.1941 #No.Before - Yes.Before == 0 0.8616 مشکل اصلی که من با اینها می بینم تحلیلهای پسهک مقایسههایی هستند که برای فرضیههای من مفید نیستند. هر گونه پیشنهادی برای تجزیه و تحلیل مناسب پس از آن بسیار قدردانی می شود، با تشکر. **ویرایش:** پرسش و پاسخ مربوطه که به آزمایش ماتریس های کنتراست دستی اشاره دارد
|
تجزیه و تحلیل معتبر پس از وقوع یک ANOVA اندازه گیری های مکرر سه طرفه چیست؟
|
28489
|
من سعی می کنم از بسته dirmult در R برای یافتن پارامترهای توزیع چند جمله ای دیریکله استفاده کنم. با این حال، وقتی کد را اجرا می کنم، می بینم که به نظر می رسد به جای حداکثر کردن، احتمال را به حداقل می رساند. در اینجا یک نمونه ردیابی وجود دارد: > foo <- dirmult(data) تکرار 1: مقدار Log-Relihood: -108256.762432151 تکرار 2: مقدار Log-Relihood: -112024.171181739 تکرار 3: Iteration 3: Iteration 3: Iteration 3: Iteration 3: Iteration 3: Iteration 3: Log-likelihood value: -108256.762432151. 4: مقدار Log-lihood: -117178.454519049 تکرار 5: مقدار Log-lihood: -119081.542746927 تکرار 6: مقدار Log-Relihood: -120547.115475672 Iteration-like 7: -121631.658731926 تکرار 8: مقدار Log-Relihood: -122408.210532819 تکرار 9: مقدار Log-Relihood: -122950.170423675 تکرار 10: مقدار Log-Relihood: I 10: 122408.210532819: -1. مقدار Log-Relihood: -123572.241418431 تکرار 12: مقدار Log-Relihood: -123740.558811607 تکرار 13: مقدار Log-Relihood: -123853.029548595 Iteration value: Log-likelihood -123928.062303726 تکرار 15: مقدار Log-Relihood: -123978.091582544 تکرار 16: مقدار Log-Relihood: -124011.444469511 تکرار 17: Iteration 17: Iteration 17: Iteration 17: Iteration 17: Iteration 17: I23978.091582544 تکرار 18: مقدار Log-Relihood: -124048.502105592 تکرار 19: مقدار Log-Relihood: -124058.383928014 تکرار 20: مقدار احتمال Log: -124064.971772997، معمولاً این اتفاق نمی افتد. در مجموعه دادههای مثال dirmult: > fit <- dirmult(us[[1]],epsilon=10^(-12)) تکرار 1: مقدار Log-Relihood: -3291.68283455695 تکرار 2: مقدار Log-Relihood: -3282.906992271 3: مقدار لاگ احتمال: -3277.28960275919 تکرار 4: مقدار Log-Relihood: -3274.32118891593 تکرار 5: مقدار Log-Relihood: -3273.14865155825 تکرار 6: مقدار Log-Relihood: I888821: -3278 مقدار Log-Relihood: -3272.84788154144 تکرار 8: مقدار Log-Relihood: -3272.84761179787 تکرار 9: مقدار Log-Relihood: -3272.84761175372 تکرار 10: Log -3272.84761175372 تکرار 11: مقدار لاگ احتمال: -3272.84761175372 چرا این اتفاق می افتد؟ آیا راهی برای رفع آن وجود دارد؟
|
بسته dirmult در R
|
104077
|
من می توانم بفهمم رقم دست نویس چیست، اما منظور از تصویر دودویی چیست؟ کسی میتونه توضیح بده؟ من در حال مطالعه مفاهیم یادگیری ماشین هستم. در انجام این کار، با انواع مختلفی از ورودی ها مواجه شده ام. به عنوان مثال: باینری، پیوسته و گسسته. ورودی ها از طریق مجموعه داده های تصویر دست نویس MNIST ارائه می شوند. در آن، من در مورد مجموعه داده های متشکل از تصاویر باینری خوانده ام. من همچنین می خواهم در مورد تفاوت بین تصاویر باینری و مقیاس خاکستری بدانم.
|
منظور از تصاویر باینری ارقام دست نویس چیست؟
|
73688
|
فرض کنید با استفاده از یک روش نمونهگیری خاص، یک نمونه تولید کردهام، اما اکنون میخواهم عامل نرمالکننده بتواند احتمالات را محاسبه کند. آیا می توانم مجموع مقادیر را به عنوان عامل نرمال کننده آنها در نظر بگیرم. میشه لطفا منبعی هم بدین
|
مجموع نمونه ها به عنوان عامل نرمال کننده در MCMC؟
|
22229
|
من داده هایی برای نصب یک برنامه در روز و رتبه آنها در فروشگاه برای روز بعد دارم. هر کاربر/نصب را می توان بیشتر به دو دسته تقسیم کرد - آنهایی که به دلیل تبلیغ آن را نصب کرده اند و آنهایی که به تنهایی آن را نصب کرده اند (مثلاً شفاهی). از این داده ها، می خواهم بدانم که آیا افزایش تعداد تبلیغات باعث افزایش نصب و در نتیجه افزایش رتبه می شود یا خیر. من می دانم که رتبه یک آمار وحشتناک برای گره زدن به آن است (زیرا یک متغیر مستقل نیست؛ به عنوان مثال، به عملکرد برنامه های دیگر در فروشگاه مرتبط است)، اما برای مقایسه، من قبلاً یک رگرسیون خطی برای آن اجرا کرده ام. روزهایی که تعداد نصبهای مبتنی بر آگهی کمتر از 5% از همه نصبها در یک روز معین را تشکیل میدهد. با توجه به این، کدام آزمون آماری را باید اجرا کنم تا تأثیر نصبهای غیرمجاز بر رتبهبندی را فیلتر کنم؟ اگر از معیارهای اشتباه استفاده کردم (به عنوان مثال، باید تغییر رتبه را در برابر تغییر در نصبها در روز اندازهگیری کنم)، لطفاً به من اطلاع دهید. (و قبل از اینکه کسی بپرسد، این تکلیف نیست. و علاوه بر آن، من می دانم که بعد از این مرحله کدام تست را اجرا کنم.)
|
فیلتر کردن داده های رتبه بندی با استفاده از رگرسیون
|
24680
|
در پروژه R سعی می کنم مدل lm داده های تابلویی را با تابع plm تخمین بزنم. هنگامی که من 3 متغیر ساختگی را در رگرسیون قرار می دهم، در خلاصه مدل ظاهر نمی شود، اما وقتی یک مدل «lm» ساده را تخمین می زنم ظاهر می شود. چرا اینطور است؟ برای تخمین آمار آن متغیرهای ساختگی چه باید بکنم؟
|
تخمین مدل داده های تابلویی با متغیرهای ساختگی
|
77506
|
من در R جدید هستم و از شما در مورد فرمول lme برای اثر تصادفی نیمه متقاطع در مدل تصادفی با شیب تصادفی می خواهم. در دادههای طولی من، هر موضوع (به استثنای برخی از ترک تحصیل) در 5 موقعیت مختلف مورد آزمایش قرار گرفت. آزمون های استاندارد شده توسط 3 ممتحن مختلف اجرا شد که 2 نفر از آنها در همه موقعیت ها حضور داشتند و آزمون سوم فقط در دو نوبت آخر انجام شد. آزمودنی ها به صورت تصادفی بین ممتحنین تقسیم شدند. داده های ساختگی: داده <- data.frame(موضوع=rep(A,5)، زمان=1:5، آزمونگر=c(2،1،2،2،3)، متغیر کمکی=c(1،1.3،0.8، 1,0.6), score=c(46,56,60,68,70)) مدل های زیر را آزمایش کردم: >model1 <- lme(score~time*variate, random=~time|موضوع، روش = REML, na.action=na.omit, data=dat) >model2 <- lme(score~time*variate, random=list(examiner=~1,subject=~time ), method=REML, na.action=na.omit, data=dat) >anova(model1, model2) #p<0.05 را با مدل بهتر مناسب برای مدل 2. میخواهم بدانم آیا «model2» روش صحیحی برای تعیین اثر تصادفی نیمه متقاطع در دادههایی است که توضیح دادم.
|
چگونه می توان اثر تصادفی نیمه متقاطع را در lme مشخص کرد؟
|
23465
|
من مجموعهای از **توالیهای نماد مشاهده** دارم که باید آنها را در برابر مجموعهای از طبقهبندیکنندههای HMM آموزشدیده شده **آزمایش کنم. به نظر می رسد که من مزایای استفاده از Log Probability را نسبت به احتمالات معمولی درک کرده ام. در **مرحله آزمایش** طبقهبندیکننده HMM، به نظر نمیرسد **انگیزهای در پشت احتمالات یا اضافه کردن احتمالات گزارش** در تعیین کلاس دنباله آزمایش مشاهده مشاهده شده دریافت کنم. چرا باید احتمالات را ضرب یا جمع کنیم؟ آیا نمیتوانیم با استفاده از الگوریتم Forward فقط احتمال یا احتمال ثبت یک **توالی نماد مشاهده منفرد** را تعیین کنیم؟
|
احتمال و احتمال ورود به سیستم در مدل های پنهان مارکوف
|
24681
|
(برای اینکه بفهمید چرا این را نوشتم، نظرات زیر پاسخ من به این سوال را بررسی کنید.) ## خطاهای نوع III و تئوری تصمیم گیری آماری دادن پاسخ درست به سوال اشتباه گاهی اوقات خطای نوع III نامیده می شود. تئوری تصمیم گیری آماری رسمی کردن تصمیم گیری در شرایط عدم قطعیت است. این یک چارچوب مفهومی را ارائه می دهد که می تواند به جلوگیری از خطاهای نوع III کمک کند. عنصر کلیدی فریم ورک، تابع ضرر نامیده می شود. دو آرگومان نیاز دارد: اولی (زیر مجموعه مربوطه) وضعیت واقعی جهان است (به عنوان مثال، در مسائل تخمین پارامتر، مقدار پارامتر واقعی $\theta$). دومی عنصری در مجموعه اقدامات ممکن است (به عنوان مثال، در مسائل تخمین پارامتر، تخمین $\hat{\theta})$. خروجی از دست دادن مربوط به هر اقدام ممکن را با توجه به هر حالت واقعی ممکن در جهان مدل می کند. به عنوان مثال، در مسائل تخمین پارامتر، برخی از توابع زیان شناخته شده عبارتند از: * خطای مطلق ضرر $L(\theta, \hat{\theta}) = |\theta - \hat{\theta}|$ * خطای مربع ضرر $L(\theta, \hat{\theta}) = (\theta - \hat{\theta})^2$ * ضرر LINEX Hal Varian $L(\theta, \hat{\theta}; ## بررسی پاسخ برای یافتن سوال موردی وجود دارد که ممکن است تلاش شود تا خطاهای نوع III را با تمرکز بر فرمولبندی یک تابع ضرر صحیح و ادامه روش تئوری تصمیم گیری (نه در اینجا به تفصیل توضیح داده شده است). این مختصر من نیست – بالاخره، آماردانان به خوبی با تکنیک ها و روش های بسیاری مجهز هستند که به خوبی کار می کنند، حتی اگر از چنین رویکردی نشات نگرفته باشند. اما نتیجه نهایی، به نظر من، این است که اکثریت قریب به اتفاق آماردانان تئوری تصمیم گیری آماری را نمی دانند و به آن اهمیت نمی دهند، و فکر می کنم آنها از دست می دهند. برای آن آماردانان، من استدلال میکنم که دلیل اینکه ممکن است نظریه تصمیمگیری آماری را از نظر اجتناب از خطای نوع III ارزشمند بدانند، به این دلیل است که چارچوبی را فراهم میکند که در آن از هر روش تحلیل دادهای پیشنهادی پرسیده میشود: _چه تابع ضرر (در صورت وجود) این روش را انجام میدهد. بهینه با آن کنار بیایید؟_ یعنی دقیقاً در چه موقعیت تصمیم گیری بهترین جواب را می دهد؟ ## زیان مورد انتظار پسین از دیدگاه بیزی، تابع ضرر تنها چیزی است که ما نیاز داریم. ما تقریباً میتوانیم بقیه نظریه تصمیم را نادیده بگیریم - تقریباً طبق تعریف، بهترین کار این است که ضرر مورد انتظار بعدی را به حداقل برسانیم، یعنی عمل $a$ را پیدا کنیم که $\tilde{L}(a) = \ را به حداقل میرساند. int_{\Theta}L(\theta, a)p(\theta|D)d\theta$. (و در مورد دیدگاه های غیر بیزی؟ خوب، این یک قضیه نظریه تصمیم گیری مکرر است - به ویژه قضیه کلاس کامل والد - که عمل بهینه همیشه به حداقل رساندن زیان مورد انتظار پسین بیزی در رابطه با برخی از (احتمالاً نامناسب) خواهد بود. پیش از این مشکل این است که این یک قضیه وجودی است که هیچ راهنمایی برای استفاده از آن ندارد از رویههایی که میتوانیم «معکوس» کنیم تا بفهمیم دقیقاً به کدام سؤال پاسخ میدهیم، به ویژه، اولین گام در معکوس کردن هر رویه غیر بیزی این است که بفهمیم کدام رویه بیزی (در صورت وجود) تکرار یا تقریبی است. .) ## هی سیان، می دانید این یک سایت پرسش و پاسخ است، درست است؟ که من را - در نهایت - به یک سوال آماری می رساند. در آمار بیزی، هنگام ارائه تخمینهای بازهای برای پارامترهای تک متغیره، دو رویه بازهای معتبر رایج عبارتند از فاصله معتبر مبتنی بر کمیت و بازه معتبر بالاترین چگالی خلفی. عملکردهای زیان پشت این رویه ها چیست؟
|
توجیه نظری تصمیم برای رویه های بازه ای معتبر بیزی چیست؟
|
77501
|
من برای یک مدل اثرات مختلط برای تجزیه و تحلیل داده های طولی، یک موضوع ترک یک موضوع را انجام می دهم، که در آن مدل برای همه موضوعات منهای یک در یک زمان برازش داده می شود و موضوع سمت چپ به داده اعتبار سنجی تبدیل می شود. مدل اصلی به این صورت فرموله شده است: model<-lme(score~time*variate,random=~time|subject, data=fulldata,...) سپس یک حلقه برای ایجاد مدل های آموزشی از مجموعه داده ایجاد می کنم که یک موضوع را در یک موضوع ایجاد می کنم. زمان، و از مقادیر زمان و متغیرهای کمکی سوژههای کنار گذاشته شده برای جمعآوری امتیازات پیشبینیشده برای سوژههای کنار گذاشته شده استفاده کنید. مسئله این است که پیشبینی میکند (مدل جدید، پیشبینیکنندههای سوژه چپ، سطح (0:1)) خروجی را فقط برای سطح 0 میدهد، یعنی پیشبینی سطح جمعیت، نه پیشبینی سطح موضوع. این سوال تا حدی در اینجا پاسخ داده شده است: اعتبار سنجی متقاطع برای مدل های ترکیبی؟ ، که در آن توصیه می شود برای به دست آوردن یک پیش بینی سطح 1، اثر تصادفی=0 را فرض کنید. چگونه میتوانم هنگام استفاده از تابع پیشبینی برای موضوع حذفشده، جلوه تصادفی خارج از نمونه را صفر تعیین کنم؟
|
اعتبار سنجی متقابل یک موضوع را برای مدلهای جلوههای ترکیبی ترک کنید
|
77508
|
این سوال هنگام خواندن چ. 3 از راسموسن و ویلیامز. در پایان این فصل، نویسندگان نتایجی را برای مسئله طبقهبندی ارقام دستنویس ارائه کردند (تصاویر 16×16 مقیاس خاکستری). ویژگی ها 256 شدت پیکسل + بایاس هستند. من متعجب شدم که در چنین مسئلهای با ابعاد بالا، روشهای متریک، مانند فرآیندهای گاوسی با هسته نمایی مربعی، یا SVM با همان هسته، کاملاً خوب عمل میکنند، بدون اینکه قبلاً کاهش ابعاد وجود داشته باشد. همچنین، گاهی شنیدهام که SVM برای طبقهبندی متن [در اصل کیسهی کلمه] خوب است. چرا آنها از نفرین ابعادی رنج نمی برند؟
|
چرا روشهای هسته با RBF برای دستهبندی ارقام دستنویس (حروف) موثر هستند؟
|
77502
|
من سعی می کنم معنای عملی درجات آزادی کمتر را در رابطه با نتایج نتایج آزمون t کشف کنم. به عنوان مثال: اگر من دو نمونه وابسته داشته باشم و بخواهم میانگین آنها را با استفاده از آزمون t مقایسه کنم. اگر از هر دو آزمون برای نمونههای وابسته و مستقل استفاده کنم، درجات آزادی بیشتری در آزمون وابسته خواهم داشت (یعنی برای میانگین و واریانس مجهول، نمونه مستقل _n-2_ df و وابسته _n-1_ خواهد داشت). با فرض اینکه دانش پایه من معتبر باشد و توضیحات بالا درست باشد، استفاده از هر آزمون با _df_ کمتر یا بیشتر چه تاثیری بر نتایج (مقادیر p، احتمال دریافت مثبت/منفی کاذب) خواهد داشت؟ آیا هیچ کدام از اینها منطقی است؟
|
استنباط تفاوت در درجه آزادی در نتایج آزمون t
|
24685
|
فرآیند هاکس نمایی تک متغیره یک فرآیند نقطهای خود هیجانانگیز با نرخ رسیدن رویداد است: $ \lambda(t) = \mu + \sum\limits_{t_i<t}{\alpha e^{-\beta(t- t_i)}}$ که $ t_1،..t_n $ زمان رسیدن رویداد هستند. تابع log درستنمایی $ - t_n \mu + \frac{\alpha}{\beta} \sum{( e^{-\beta(t_n-t_i)}-1 )} + \sum\limits_{i<j است. }{\ln(\mu+\alpha e^{-\beta(t_j-t_i)})} $ که به صورت بازگشتی قابل محاسبه است: $ - t_n \mu + \frac{\alpha}{\beta} \sum{( e^{-\beta(t_n-t_i)}-1 )} + \sum{\ln(\mu+\alpha R(i))} $ R (i) = e^{-\beta(t_i-t_{i-1})} (1+R(i-1)) $ $ R(1) = 0 $ از چه روش های عددی می توانم برای پیدا کردن MLE استفاده کنم ? ساده ترین روش عملی برای پیاده سازی چیست؟
|
یافتن MLE برای یک فرآیند هاکس نمایی تک متغیره
|
72485
|
به نظر من نمرات ERR نرمال شده (رتبه بندی متقابل مورد انتظار) (نمرات ERR الگوریتم رتبه بندی شما تقسیم بر امتیاز ERR محاسبه شده برای رتبه بندی حقیقت زمین) مفیدتر از امتیازات ERR مقیاس نشده است، اما من ندیده ام که نمرات نرمال شده در ادبیات آیا دلیل موجهی وجود دارد که نمرات ERR در قالب خام و نه عادی گزارش شده است؟
|
چرا نمرات ERR (رتبهبندی متقابل مورد انتظار) عادی نمیشوند؟
|
72484
|
اینجا وضعیت من است من یک بسته مواد را وزن می کنم که 10 واحد جداگانه در آن وجود دارد. در پایان روز من می خواهم میانگین وزن و واریانس هر واحد را بدانم، اما مشکل این است که نمی توانم هر واحد را جداگانه وزن کنم، زیرا باید بسته را از بین ببرم تا به واحدهای جداگانه برسم. بنابراین، به جای این، سعی می کنم از آنچه در مورد بسته ها می دانم، استنتاجی از واحدهای مجزا داشته باشم. من 10 بسته وزن کردم (بنابراین من 100 واحد جداگانه دارم). من توانستم میانگین وزن واحدها را بفهمم اما با واریانس مشکل دارم. این چیزی است که من تاکنون انجام دادهام: $$ \begin{split} \bar{y}&=\frac{1}{10}\sum^{10}_{i=1}y_i\\ &=\frac {1}{10}\sum^{10}_{i=1} (x_{i,1}+x_{i,2}+...+x_{i,10})~~[از آنجایی که~y_i=x_{i,1}+x_{i,2}+... +x_{i,10}]\\ &=\frac{1}{10}\sum^{100}_{j=1}x_j\\ &=\frac{1}{10}(100~\bar{x})=10~\bar{x} \end{split} $$ بنابراین میانگین $x$، $\bar{x} را داریم =\frac{\bar{y}}{10}.$ اما اکنون چالش من این است که چگونه می توانم واریانس $x$ را با توجه به واریانس $y$ پیدا کنم؟ پیشنهادی دارید؟ با تشکر ::::UPDATE:::: بعد از کمی فکر به این استدلال رسیدم: $$ \begin{split} \frac{1}{10}var(y)&=var(\bar{y})\\ &=var(10~\bar{x})\\ &=100~var(\bar{x})\\ &=100~\frac{1}{100}var(x)~~[با فرض اینکه~all~x~are~i.i.d.]\\ &=var(x) \end{split} $$ بنابراین داریم $ var(x)=\frac{1}{10}var(y).$ من درست می گویم که اگر فرض کنیم همه واحدهای مجزا واریانس مشترک یکسانی دارند و مستقل از یکدیگر هستند، این نتیجه برقرار است؟
|
واریانس متغیر جمع / مرکب؟
|
73684
|
من مجموعه داده ای از سفارشات جعلی از برخی مشاغل دارم. هر سفارش دارای تعدادی ویژگی مانند order_amount، آدرس، ایالت، شهر، phone_number و نام است. بدیهی است که یک مجرم از نام واقعی خود در هنگام صدور یک دستور تقلبی استفاده نمی کند. بنابراین میدانستم که آیا هر نوع استراتژی یادگیری ماشینی برای شناسایی نامهای جعلی وجود دارد یا خیر. من فرض می کنم باید نوعی ساختار اساسی برای نحوه انتخاب نام های جعلی وجود داشته باشد - بنابراین درک این ساختار می تواند به من امکان شناسایی آنها را بدهد. مگر اینکه نام های جعلی کاملاً تصادفی انتخاب شوند. آیا فکری در مورد نحوه انجام این کار دارید؟
|
مشکل یادگیری ماشین - شناسایی نام های جعلی جعلی
|
28152
|
طول مورد انتظار یک رگه از سر یا دم هنگام ورق زدن سکه چقدر است؟ این چه توزیعی است؟ من تقریباً مطمئن هستم که پاسخ 2 است. اما من نمی دانم چه توزیع هایی است. من کد R زیر را انجام دادم: l=10000 longest.stk = avg.stk = numeric(l) for(i در 1: l){ x=sample(0:1، 1000، repl=T) r = rle(x) longest.stk[i] = max(r$lengths) avg.stk[i] = mean(r$lengths)} mean(longest.stk) [1] 10.3001 mean(avg.stk) [1] 2.000825
|
محاسبه ارزش مورد انتظار یک رگه
|
73689
|
من یک مجموعه داده دارم که چیزی شبیه به این است (داده واقعی نیست): conc پاسخ 0 5 0.1 18 0.2 20 0.3 23 0.4 24 0.5 24.5 0 5 0.1 17 .. .. که کاملاً با معادله Michaelis-Menten مطابقت دارد. > Resp = max_value * conc / (conc_value_at_half_max + conc) حتی اگر این چیز کاملاً مهم دیگری است، پاسخ به سرعت با conc افزایش مییابد و سپس به سقف یا حداکثر مقدار میرسد. به هر حال، من می خواهم بدانم قبل از اینکه مقدار Resp به طور قابل توجهی از مقدار حداکثر کمتر نباشد، چقدر می توانم در conc پایین بیایم. استفاده از یک ANOVA ساده این امر را به خوبی انجام می دهد، اما من داشتم فکر می کردم: آیا نباید از این واقعیت استفاده کنم که ساختار داده ها به خوبی توسط یک معادله شناخته شده توضیح داده شده است؟ آیا چنین راهی وجود دارد؟ من از minitab برای این کار استفاده می کنم زیرا ساده تر است، اما همیشه در R کار می کند.
|
ANOVA در مقابل برازش غیرخطی
|
114037
|
من می خواهم از LDA در مطالعه خود استفاده کنم. من می خواهم از LDA برای طبقه بندی داده های خود استفاده کنم. دادههای من یک ماتریس $M\times 20$ است، یعنی ویژگیهای $20$ در دادههای من وجود دارد. چگونه می توانم LDA را برای داده های خود اعمال کنم؟ و یک سوال دیگر: آیا LDA فقط روی داده هایی کار می کند که فقط دو ویژگی دارند (متریس$M\times 2$)؟
|
تعداد احتمالی ویژگی در تحلیل تفکیک خطی (LDA)
|
24689
|
من یک مدل رگرسیون را با استفاده از بسته ordinal در R ساخته و اصلاح کرده ام. اندازه گیری $0>1>2>3>4>5$ (بله/خیر سوالات) است و هر 10 دقیقه به مدت یک ساعت (قسمت) در همان فرد، دو بار در هفته تا 6 هفته، اما به طور متوسط 3 تکرار می شود. هفته ها من 6000 مشاهده از این قبیل در 1000 ساعت برای 150 نفر دارم. وقتی یک مدل تک متغیره ساختم با استفاده از تعداد سؤالات $(0-5)$ که به عنوان متغیر وابسته پاسخ داده شد و گفتم جنسیت به عنوان متغیر مستقل، با وقفه های تصادفی برای فرد و قسمت، ضرایب را به عنوان تفاوت در گزارش متناسب تفسیر کردم. شانس پاسخ به یک سوال اضافی به طور متوسط در تمام نقاط زمانی. سوال من این است: آیا این معتبر است یا به دلیل ماهیت مدل اثرات مختلط که برای آن حساب نمیکنم، مفروضات غیرقابل قبولی داشتهام. اتفاقاً من می توانم بسته مرتبی را به طور کامل توصیه کنم، اگرچه در حال توسعه است و مشکلات جزئی با همگرایی برای برخی از پارامترهای غیر استاندارد دارد.
|
تفسیر ضرایب رگرسیون لجستیک ترتیبی هنگامی که در داده ها خوشه بندی وجود دارد
|
73680
|
من در یادگیری ماشینی تازه کار هستم و نمی توانم این مشکل را حل کنم. من دو مجموعه داده بیمار دارم، اولی ($D_1$) حاوی $Y,Z,X$ است که اطلاعات نمونه خون را منتقل می کند و دومی ($D_2$) حاوی $W,T,X$ است که اطلاعات اشعه ایکس را منتقل می کند. در هر دو مجموعه داده، $X$ خروجی تشخیصی رایج است. از آنجایی که دو مجموعه داده مجزا وجود دارد، من یک راه حل را با دو مدل Naive Bayes به شکل زیر مدل کردم، که در آن $X$ متغیر وابسته رایج است. (من می دانم که می توانم از تکنیک های دیگری غیر از Naive Bayes استفاده کنم، اما این هدف سوال من نیست.) * $P(X|Y,Z,D_1) \propto P(Y|X,D_1) \cdot P(Z |X,D_1) \cdot P(X,D_1)$ * $P(X|W,T,D_2) \propto P(W|X,D_2) \cdot P(T|X,D_2) \cdot P(X,D_2)$ میخواهم احتمالات پسین X را در این مدلها ترکیب کنم: $P(X|Y,Z)$ و $P(X|W,T) $ برای تعیین احتمال پیامد کلی $P(X|Y,Z,W,T)$ (نتیجه تشخیصی) یک بیمار جدید. ** چگونه می توانم این احتمالات را ترکیب کنم؟ ** آیا می توان آن را به صورت زیر انجام داد؟ $P(X|Y,Z,W,T) \propto \frac{P(X|Y,Z) * P(X|W,T)}{P(X,D_{ترکیب})}$ اگر چنین است ، رابطه بین $P(X,D_1)$, $P(X,D_2)$ و $P(X,D_{ترکیبی})$ چیست؟
|
ترکیب احتمالات پسین از طبقه بندی کننده های متعدد
|
73355
|
من سعی می کنم یک مدل مدت زمان گسسته برای تجزیه و تحلیل بیکاری (ماهانه) با استفاده از داده های نظرسنجی اجرا کنم. من دادههای سطح خانوار را دارم و به همین دلیل میخواهم جلوههای خانگی را در مدل خود کنترل کنم. من فکر کردم که این کار را با اجازه دادن به اثرات خوشهای در تخمین خطاهای استاندارد یا با اثرات تصادفی (برای خانوادهها) انجام دهم - به عنوان مثال، من فکر میکنم که اثرات ثابت کار نمیکنند زیرا تعداد خانوادهها زیاد است و به دلیل پارامتر اتفاقی مشکل مدل من هم ویژگی های فردی (به عنوان مثال، سن، مدرسه، شغل، از زمانی که فرد بیکار بوده است - همانطور که به طور گذشته از آنها پرسیده شد) و برخی متغیرهای دیگر و همچنین ویژگی های خانواده (مانند اندازه، تعداد افراد بیکار) را شامل می شود. . آیا کسی می تواند در مورد روش پیشنهادی من نظر بدهد؟ آیا چیزهایی وجود دارد که باید به آن توجه داشته باشم یا راه های بهتری برای انجام این کار وجود دارد؟ همچنین از هرگونه مرجع مرتبط بسیار قدردانی می کنم.
|
تجزیه و تحلیل مدت زمان بیکاری
|
72483
|
من سعی می کنم یک تبدیل جعبه کاکس با سرعت انجام دهم. من یک متغیر وابسته، فروش سالانه خارجی شرکت ها (به هزاران دلار آمریکا) دارم که حاوی صفر است، برای مجموعه ای از داده های پانل. به من توصیه شده است که مقدار کمی مثلاً 0.00001 را به ارقام فروش سالانه خارجی اضافه کنم تا بتوانم لاگ را بگیرم، اما فکر می کنم تبدیل جعبه-کاکس ثابت مناسب تری نسبت به 0.00001 تولید می کند. من یک تبدیل box-cox روی R با کدهای زیر انجام دادم، اما لامبدا2 بسیار بزرگی با 31162.8 به من داد. library(geoR) boxcoxfit(bornp$ForeignSales، lambda2 = TRUE) خروجی #R - پارامترهای نصب شده: # lambda lambda2 beta sigmasq # -1.023463e+00 3.116280e+04 9.770577e-0 من 9.770577e-0 مقدار بالای lambda2 بسیار بزرگ است، بنابراین مطمئن نیستم که آیا باید boxcoxfit را با متغیرهای مستقل خود مانند زیر اجرا کنم: boxcoxfit(bornp$ForeignSales,bornp$family bornp$roa bornp$solvencyratio,lambda2=TRUE) من هنوز هستم تلاش برای شناسایی بهترین مجموعه از متغیرهای مستقل، بنابراین مطمئن نیستم که استفاده از boxcoxfit با متغیرهای مستقل در این مرحله کارساز باشد یا خیر. بهترین در اینجا شرح دو پارامتر لامبدا از راهنما آمده است: مقدار(های) عددی lambda برای پارامتر تبدیل $\lambda$. به عنوان مقدار اولیه `` در تابع برای تخمین پارامتر استفاده می شود. در صورت عدم ارائه مقادیر پیشفرض به صورت «» جمعبندی میشوند. اگر چندین مقدار ارسال شود، یکی با بالاترین احتمال به عنوان مقدار اولیه استفاده می شود. مقدار(های) منطقی یا عددی lambda2 تبدیل اضافی (به جزئیات زیر مراجعه کنید). پیشفرض «NULL» است. اگر «TRUE» این پارامتر نیز تخمین زده شود و مقدار «» اولیه روی مقدار مطلق حداقل داده تنظیم می شود. یک مقدار عددی `` به شرط استفاده به عنوان مقدار اولیه است. چندین مقدار مانند `` لامبدا مجاز است. من از هر گونه راهنمایی در مورد موارد فوق بسیار سپاسگزار خواهم بود.
|
تبدیل جعبه کاکس با سرعت
|
73351
|
اساساً من سعی می کنم مدل Garch (1،1) را با سفارش ARIMA از AUTO.ARIMA> ASSIGN (Paste ( Spec.Ret.Fin. ، Colnames (Base.Name [1]) ، SEP = ) قرار دهم. , + ugarchspec(variance.model = list(model = fGARCH، garchOrder = c(1, 1)، + submodel = GARCH، external.regressors = NULL، variance.targeting = false) ، + as.model = لیست (armaorder = c (2،3،4) ، شامل. mean = true ، archm = false ، + archpow = 1 ، arfima = false ، external.regressors = null ، null ، archex = FALSE)، + distribution.model = norm، start.pars = list()، fixed.pars = list())) این نشان می دهد نتیجه زیر: > spec.ret.fin.chn *--------------------------------* * مدل GARCH مشخصات * *---------------------------------* دینامیک واریانس شرطی ------------------------------------ مدل GARCH : fGARCH(1,1) fGARCH Sub-Model : هدف گذاری واریانس GARCH: FALSE دینامیک میانگین شرطی ----------------------------------- مدل میانگین: ARFIMA(2,0,3) شامل میانگین: TRUE GARCH-in-Mean: FALSE توزیع شرطی --------------------------- ---------- توزیع: هنجار شامل Skew: FALSE شامل شکل: FALSE شامل لامبدا: FALSE اما همان کد با `arfima=TRUE` > spec.ret.fin.chn را می دهد *----------------------------- ----* * مشخصات مدل GARCH * *---------------------------------* دینامیک واریانس شرطی ------------------------------------ مدل GARCH : fGARCH(1,1) fGARCH Sub-Model : هدف گذاری واریانس GARCH: FALSE دینامیک میانگین شرطی ----------------------------------- مدل میانگین: ARFIMA(2,d,3) شامل میانگین: TRUE GARCH-in-Mean: FALSE توزیع شرطی --------------------------- ---------- توزیع: هنجار شامل Skew: FALSE شامل شکل: FALSE شامل لامبدا: نادرست چگونه می توان آن d را با ترتیب ادغام (d) arima جایگزین کرد؟
|
چگونه می توان arima (p,d,q) را در ugarchspec برای ugarchfit در rugarch مشخص کرد؟
|
101230
|
هنگام آموزش رگرسیون، تمرینی را انجام میدادم که در آن دانشآموزان سعی میکردند حدس بزنند خط بهترین تناسب در کجای نمودار پراکنده است و مجموع مربعها را بدست آورند. آنها خط را به اطراف حرکت میدادند، میدیدند که شیب و برش چگونه تغییر میکرد، و مشاهده میکردند که چگونه مجموع مجذور باقیمانده تغییر کرده است. این نشان میدهد که خط بهترین تناسب واقعاً مجموع مربعها را به حداقل میرساند، و جالب است، زیرا شما کمی رقابت دارید تا ببینید چه کسی میتواند کمترین مجموع مربعها را به دست آورد. (همچنین کمی در مورد نحوه عملکرد رویکردهای تکراری آموزش می دهد.) این به یک ویژگی وحشتناک و وحشتناک اکسل متکی است - اینکه می توانید روی یک نمودار کلیک کنید و یک نقطه را بکشید و داده ها را به روز می کند. (نه اینکه برای تجزیه و تحلیل داده ها به دلیلی برای دوست نداشتن اکسل نیاز داشته باشیم). من یک خاطره مبهم از دیدن یک برنامه جاوا (احتمالا) سالها پیش دارم که این کار را انجام می داد، اما اکنون نمی توانم آن را پیدا کنم. آیا چیز دیگری وجود دارد؟
|
از چه نرم افزاری استفاده می کنم به صورت دستی یک خط رگرسیون را روی یک نمودار تنظیم می کنم؟
|
114030
|
من می دانم که می توان به راحتی واریانس (بدون قید و شرط) یک فرآیند گارچ (r,s) را بدست آورد: $\sigma^2= \frac { \alpha_0 } { (1- \Sigma_{i=1}^r \alpha_i - \ Sigma_{j=1}^s \beta_j ) }$ با این حال من در تلاش برای به دست آوردن یک عبارت تحلیلی برای واریانس بدون قید و شرط وقتی یک قسمت ARMA وجود دارد، هستم. همچنین در گرچ.. یعنی ARMA(p,q)+ Garch (r,s) برای هر کمکی ممنون میشم ..با احترام دیناکار
|
نوسانات بی قید و شرط از فرآیند آرما-گارچ
|
73352
|
فرض کنید من ماتریسهای ضریب همبستگی «N» دارم که حاوی ضرایب همبستگی پیرسون سریهای زمانی مختلف «k» با مقداری است که برای هر موضوع آزمایش اندازهگیری میشود. سپس ماتریسهای همبستگی از بازه «[-1،1]» به «[0،1]» از طریق یک عملیات خطی «C» = 0.5*(C+1.0)» تغییر مقیاس میدهند. یک نمودار از آن ضرایب همبستگی ایجاد کنید و من باید آستانه ای را تعیین کنم که یک لبه بین دو گره اضافه شود. در پایان با ماتریسهای مثبت «N» میآیم و میخواهم از آنها برخی معیارهای غیرخطی (یعنی معیارهای نظری نمودار) استخراج کنم. آیا درست است **متوسط** ماتریس های 'N' و سپس استخراج آن معیارها از ماتریس متوسط؟
|
میانگین ماتریس های همبستگی در بین آزمودنی ها
|
114034
|
من مدل رگرسیون لجستیک را برای جنسیت و نوشیدنی را برای دادههای ihd با استفاده از مدل دستور زیر مطابقت میدهم<-glm(ihd~as.factor(gender)*as.factor(drink),Family='binomial',data=ihd) My سوال این است که چگونه می توانم نسبت تصادفی تخمینی را برای: 1. جنسیت در قشر غیر مصرف کننده و 2. جنسیت در طبقه مصرف کننده به دست بیاورم.
|
نسبت شانس ورود به سیستم را در R تخمین بزنید
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.