_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
97002
داشتم یادداشت‌های سخنرانی اندرو نگ در مورد یادگیری تقویتی را می‌خواندم و در صفحه 3 او تابع مقدار را تعریف می‌کند: $$V^{\pi}(s) = E[R(s_0) + \gamma R(s_1)+\gamma^2 R(s_2) + ... |s_0 = s، \pi]$$ که به معنای کل سود مورد انتظار است، با توجه به اینکه ما از حالت s شروع می کنیم و خط مشی را اجرا می کنیم. $\pi$. با این حال، او در پاورقی‌های خود می‌گوید که این نماد کمی «درخت» است، زیرا او می‌گوید که $\pi$ از نظر فنی یک متغیر تصادفی نیست (هر چند که نماد نشان می‌دهد که هر دو $\pi$ و s متغیرهای تصادفی هستند، اگرچه منطقی است که s یک r.v باشد، زیرا ما همیشه نمی دانیم که پس از انجام برخی اقدامات به چه وضعیتی می رسیم. سوال من این است، **چرا $\pi$ یک متغیر تصادفی نیست؟** اگر متغیر تصادفی نیست، این در یک یادگیری تقویتی است که ما فقط به دنبال سیاستی هستیم که بهترین است و توسط آن انتخاب شده است. طبیعت به نوعی؟ آیا به این معنی است که ما اجازه نداریم برخی از اعتقادات قبلی را داشته باشیم که در آن $\pi$ ممکن است درست باشد؟ آیا یادگیری تقویتی یا حداقل، تابع ارزش در اینجا به یک دیدگاه مکرر محدود می شود؟ آیا نماد بهتری برای آن معادله این است: $$V^{\pi}(s) = E[R(s_0) + \گاما R(s_1)+\گاما^2 R(s_2) + ... |s_0 = s; \pi]$$ اینها افکار من تا اینجا بود: $\pi$ تابع خط مشی است، تابعی است که حالتها را به طور قطعی به اقدامات $\pi(s) = a$ نشان می دهد. با این حال، من واقعاً متوجه نشدم که چرا یادگیری تقویتی باید به یک تفسیر مکرر محدود شود. به نظر من منطقی به نظر می رسید که $\pi$ می تواند r.v باشد. و ما در عوض سعی می کنیم سیاست مورد انتظار را بر روی همه سیاست ها یا چیزی در امتداد آن خطوط اجرا کنیم (من سعی نمی کنم این ایده را خیلی دقیق بیان کنم، اما امیدوارم ایده/مفهوم منطقی باشد). آیا این فقط این است که اندرو نگ در حال معرفی مفاهیم یادگیری تقویتی است، چرا که درک آن ممکن است ساده ترین باشد؟
آیا تابع خط مشی $\pi$ در یادگیری تقویتی یک متغیر تصادفی است؟
23698
97004
من از رگرسیون بردار پشتیبانی چند خروجی (MSVR) استفاده می کنم که چندین خروجی را در یک زمان پیش بینی می کند. من می خواهم بدانم چگونه می توانم ابتدا پارامترها را برای مدل خود انتخاب کنم و سپس چگونه اعتبار سنجی متقاطع را انجام دهم. ورودی «x» 100×78 (100 نمونه، 78 ویژگی) و خروجی «y» 78 بعدی است. لطفا در مورد کد متلب به من کمک کنید.
کد متلب اعتبار متقاطع برای رگرسیون چند خروجی
19469
چگونه می توان نتیجه طبقه بندی غیر انحصاری متقابل را با عوامل مسدود کننده طبقه بندی و پیش بینی کننده به بهترین وجه تجزیه و تحلیل کرد؟
82328
در حال حاضر، من به دنبال روش آماری صحیح (یا مناسب) برای مقایسه 4 مجموعه داده بسیار بزرگ (n = 31 میلیون هر کدام)، که بر اساس آزمایشی است که در آن یک متغیر پیوسته در پاسخ به 4 دمای گسسته مختلف اندازه‌گیری شده است، هستم. هر مجموعه داده تقریباً میانه یکسانی دارد و میانگین و انحراف استاندارد تفاوت چندانی با هم ندارند. با این حال، هر مجموعه داده به طور معمول توزیع نشده است، و فقط به طور مبهم به صورت منطقی توزیع شده است. من سعی می کنم راهی برای آزمایش این فرضیه صفر تعیین کنم که افزایش دما بر میانگین هر مجموعه داده تأثیر نمی گذارد. آیا فکر می کنم که ANOVA مناسب نیست (و نه هیچ آزمون پارامتری)؟ من به آمار غیر پارامتری Kruskal-Wallis نگاه کردم، اما مطمئن نیستم که آیا این آمار مناسب است یا خیر. بنابراین سؤال من این است که آیا در فرضیات بالا درست هستم؟ و یک روش آماری مناسب برای اثبات فرضیه صفر که در بالا توضیح داده شد، چیست؟
مقایسه آماری بین مجموعه داده های بزرگ
105917
این سوال کمی به استفاده احتمالی در یک رویداد مشتری مرتبط است. در یک رویداد مشتری ما در حال برنامه ریزی هستیم که کاربران بلیط هایی را انتخاب کنند که حاوی یک حرف از الفبای {A,E,L,P} باشد. بلیط پس داده نمی شود و کاربر می تواند هر تعداد بلیط را که می خواهد دریافت کند (خرید) (اما محدودیت هایی وجود خواهد داشت - به عنوان مثال 200 بلیط برای هر کاربر). حداکثر تعداد «n» کاربران درگیر وجود ندارد (اما برای ساده‌سازی می‌توانیم حساب کنیم که «n» = 1000 کاربر خواهد بود). در صورت نیاز به تضمین اینکه حداقل وجود خواهد داشت. برندگان «x» (مثلاً «x» = 20 نفر) که کل کلمه «APPLE» را جمع‌آوری کرده‌اند. سوال: من به دنبال معادله ای هستم که چگونه شمارش کنم که چه تعداد بلیط از هر حرف را باید چاپ کنیم. و من می خواهم تعداد بلیط های چاپ شده را به حداقل برسانم. آیا راهی وجود دارد که بتوان تعداد هر حرف را با توجه به متغیرهای x و n و با احتمالات هر حرف - P(A)، P(E)، P(L) شمارش کرد. P(P)؟ من می خواهم این معادله را به عنوان یک مدل به اکسل منتقل کنم. و اصلاحات بیشتر - می تواند یک بلیط جوکر وجود داشته باشد. اگر جوکر دریافت کردید، می توانید از این بلیط به عنوان جایگزین نامه مورد نظر خود استفاده کنید. احتمال دریافت بلیط جوکر باید بسیار کم باشد (به عنوان مثال 1-5٪).
استفاده احتمالی در رویداد مشتری (سؤال اصلاح شده)
103321
اعتبار سنجی متقاطع یکباره
82320
وقتی مجموعه‌ای از داده‌ها دو جمله‌ای هستند، روش‌های زیادی در دسترس من است (فاصله امتیاز ویلسون، فاصله امتیاز ویلسون با تصحیح تداوم، فاصله جفریس، فاصله کلپر-پیرسون، فاصله Agresti-Coull) غیر از روش استاندارد تخمین فاصله والد ( به تخمین فاصله برای یک نسبت دوجمله ای نویسندگان: لارنس دی. براون، تی. تونی کای و انیربان مراجعه کنید. داس گوپتا). با این حال، من نمی‌توانم از این روش‌ها برای داده‌هایی استفاده کنم که به خودی خود متناسب هستند به این معنا که در [0،1] قرار دارند. به عنوان مثال نمونه ای از n پاسخ دهنده را در نظر بگیرید و برای یک سوال X نمره ای به این صورت در نظر بگیرید: r_1 = 0.4 r_2 = 0.3 ... r_n = 0.2 چگونه می توانم فاصله اطمینان را برای میانگین بر اساس این داده ها محاسبه کنم؟ آیا راهی جز بوت استرپ وجود دارد؟
تخمین بازه میانگین زمانی که داده ها دو جمله ای نیستند
82324
بهترین راه برای مقابله با شکل ناشناخته ناهمسانی در سیستم معادلات غیرخطی چیست؟ پیشاپیش ممنون
چگونه با ناهمسانی در سیستم معادلات غیرخطی برخورد کنیم؟
19460
مقدار مورد انتظار بیان شامل متغیرهای تصادفی چند جمله ای و تابع گامی Heaviside متغیرهای مذکور
2299
چه روش‌های گسترده‌ای برای کشف تقلب، ناهنجاری‌ها، دروغ‌گویی و غیره در آثار علمی تولید شده توسط شخص ثالث وجود دارد؟ (با ماجرای اخیر مارک هاوزر انگیزه پرسیدن این موضوع را داشتم.) معمولاً برای تقلب در انتخابات و حسابداری، به نوعی از قانون بنفورد اشاره می شود. من مطمئن نیستم که چگونه می توان این مورد را برای مثال مورد مارک هاوزر اعمال کرد، زیرا قانون بنفورد اعداد را ملزم می کند که تقریباً یکسان باشند. به عنوان یک مثال عینی، فرض کنید مقاله ای مقادیر p را برای تعداد زیادی آزمون آماری ذکر کرده است. آیا می توان اینها را به یکنواختی گزارش تبدیل کرد، سپس قانون بنفورد را اعمال کرد؟ به نظر می رسد که در این رویکرد انواع مشکلات وجود داشته باشد (به عنوان مثال، برخی از فرضیه های صفر ممکن است به طور قانونی نادرست باشند، کد آماری ممکن است مقادیر p را ارائه دهد که تقریباً درست هستند، آزمون ها ممکن است فقط p- را ارائه دهند. مقادیری که زیر عدد صفر به صورت مجانبی یکنواخت هستند و غیره)
پزشکی قانونی آماری: بنفورد و فراتر از آن
2290
این در ادامه سؤال اندازه نمونه با اندازه‌های مکرر است. من در حال برنامه ریزی یک آزمایش اندازه گیری مکرر هستم. ما مصرف انرژی را به مدت 12 ماه ثبت می کنیم، سپس (به طور تصادفی) به نیمی از مشتریان اطلاعات مداوم در مورد مصرف انرژی آنها می دهیم (درمان را انجام می دهند)، و مصرف انرژی آنها را برای 12 ماه دیگر ثبت می کنیم. مطالعه مشابهی که در گذشته انجام شد، کاهش 5 درصدی در مصرف انرژی را نشان داد. من می خواهم اندازه نمونه مورد نیاز را با استفاده از $\alpha=0.05، \beta=0.1$ تخمین بزنم. G*Power 3 ابزاری برای تجزیه و تحلیل توان با اندازه گیری های مکرر دارد. با این حال، به دو ورودی نیاز دارد که من کاملاً با آنها آشنا نیستم: * $\lambda$ - پارامتر غیرمتمرکز (چگونه این را تخمین بزنم؟) * $f$ - اندازه اثر (من معتقدم که این جذر ریشه کوهن است. $f^2$) طبق صفحه اندازه افکت ویکی پدیا: > کوهن $f^2= {R^2_{AB} - R^2_A \ بیش از 1 - R^2_{AB}}$ که در آن $R^2_A$ واریانس > است که توسط مجموعه ای از یک یا چند متغیر مستقل محاسبه می شود $A$, > و $R^2_{AB}$ واریانس ترکیبی است که توسط $A$ و مجموعه دیگری > از یک یا چند متغیر مستقل $B$. با این حال، تغییر 5 درصدی مورد انتظار من در مصرف انرژی به من نمی گوید که چقدر تنوع توضیح داده خواهد شد. آیا راهی برای انجام این تبدیل وجود دارد؟ اگر راهی برای انجام این تحلیل توان در R می شناسید، دوست دارم آن را بشنوم. من قصد دارم برخی از داده ها را شبیه سازی کنم و سعی کنم از lmer از بسته lme4 استفاده کنم.
تعیین اندازه اثر برای تجزیه و تحلیل توان با اندازه گیری های مکرر ANOVA
57565
من در جستجوی کتاب‌هایی در مورد k-means و الگوریتم‌های تقسیم‌بندی خوشه‌ای هستم. من به مزایا و معایب هر دو علاقه مند هستم. این بخشی از پایان نامه کارشناسی من است، من هر دو را اجرا کرده ام و برای ایجاد فهرست ادبیات مورد استفاده خود برای بخش نظری به کتاب نیاز دارم. همچنین آیا کتابی در مورد نفرین ابعاد وجود دارد؟ با تشکر
کتاب های الگوریتم های خوشه ای
2298
این تا حدودی مبهم است، اما فرض کنید یک تابع جعبه سیاه $f(x_1,x_2,\ldots,x_k)$ دارید، که برای آن کد دارید، و به رفتار $f$ علاقه دارید زمانی که $x_i$ باشد. i.i.d. متغیرهای تصادفی استاندارد گاوسی چند راه خوب برای تجسم این تابع چیست؟ برای آسان‌تر کردن کار، ممکن است فرض کنیم که $k$ کوچک است، مثلاً کمتر از 10. یک رابطه خاص مورد علاقه این است که $f$ چگونه با یکی از ورودی‌ها، مثلاً $x_i$، تغییر می‌کند. یک راه آسان برای تجسم این رابطه، نمونه‌برداری از تابع برای مقادیر ثابت $x_i$ در حالی که ورودی دیگر را تغییر می‌دهد (مثلاً به صورت ساختاریافته یا تصادفی)، سپس ترسیم جعبه، که می‌تواند روند میانگین را نشان دهد. تحت‌تاثیر $x_i$ قرار می‌گیرد، اما همچنین آیا پراکندگی تحت‌تاثیر قرار می‌گیرد (یعنی ناهمگونی). با این حال، تعامل بین $x_i$ و سطوح ورودی دیگر ممکن است توسط این رویکرد پنهان شود. آنچه من به دنبال آن هستم تا حدودی باز است. من فرضیه خاصی ندارم که آن را آزمایش می کنم، بلکه به دنبال راه های جدیدی برای تجسم پاسخ هستم که ممکن است ویژگی های تابع را آشکار کند.
تجسم یک تابع چند متغیره
2296
من علاقه مندم که مدلی شبیه تحلیل عاملی را بر روی بازده دارایی ها یا سایر مدل های متغیر پنهان مشابه به کار ببرم. مقالات خوبی برای خواندن در این زمینه چیست؟ من به ویژه علاقه مندم که چگونه با این واقعیت که یک مدل تحلیل عاملی تحت تغییر علامت برای بارهای عاملی یکسان است، رفتار کنم.
مقالاتی در مورد تحلیل عاملی بیزی؟
51987
من با روش Lewandowski برای پیش‌بینی تقاضا در JDA Demand برخورد کردم. لطفاً به من کمک کنید تا متدولوژی مورد استفاده آن را در سطح بالایی درک کنم. من مقاله ای از رابرت هایندمن با عنوان یک چارچوب فضای حالت برای پیش بینی خودکار با استفاده از روش های هموارسازی نمایی پیدا کردم و از این روش به عنوان یکی از روش هایی استفاده می کند که الگوریتم خود را در مقاله با آن مقایسه می کنند. در حال حاضر برای ما این یک جعبه سیاه است، ما می‌خواهیم درک سطح بالایی داشته باشیم تا بتوانیم پارامترهایی را که آنها به عنوان بخشی از نرم‌افزار ارائه کرده‌اند به‌خوبی تنظیم کنیم. اگر بتوانید نظراتی را در مورد الگوریتم لواندوفسکی به اشتراک بگذارید و به برخی از منابع اشاره کنید که می توانم برای تحقیقات بیشتر از آنها استفاده کنم، عالی خواهد بود.
الگوریتم لواندوفسکی پیش بینی تقاضا
2294
من یک فرآیند مارکوف چهار حالته و گسسته با ماتریس های انتقال وابسته به زمان دارم، به طوری که پس از یک زمان معین T، ماتریس ها ثابت می شوند. ایده این است که افراد در یک برنامه به طرق مختلف برنامه را ترک می کنند. همه از حالت 1 شروع می کنند و حالت های 2، 3 و 4 جذب می شوند، اما حالت 4 نشان دهنده درصد نسبتاً کمی از افرادی است که در سیستم گم شده اند - به عبارت دیگر حالت 4 نشان دهنده ناآگاهی ما از اتفاقاتی است که برای مردم می افتد. یک نتیجه واقعی من می‌خواهم از یکپارچه‌سازی استفاده کنم تا آن‌هایی را که در حالت ۴ هستند با کسانی که در حالت ۱ هستند قرار دهم و این را به‌عنوان یک سیستم سه حالته اجرا کنیم، و این را با رویکرد ساده‌لوحانه اجرای این سیستم به‌عنوان یک سیستم چهار حالته و سپس تقسیم آن‌هایی که مجانبی هستند مقایسه کنم. در حالت 4 به حالت های 2 و 3 با توجه به نسبت نسبی آنها. (به عبارت دیگر، p_2/(p_2 + p_3) از آنهایی که در حالت 4 هستند، پس از اجرای سیستم تا بی نهایت به حالت 2 می روند و برای حالت 3 مشابه است) از برخی خط نویسی های خشن به نظر نمی رسد که این دو روش به نتایج یکسان است، بنابراین خوب است که در مورد خطای مربوطه ایده بگیرید. برای این منظور، سوال من این است: آیا می توانم نکاتی را به ادبیات مربوط به کلوخه کردن زنجیره های مارکوف (یا مرتبط) داشته باشم که - حتی تقریباً - در این مثال اعمال شود؟ یا در غیر این صورت توصیه هایی در مورد نحوه برخورد با این موضوع.
برآمدگی در فرآیند مارکوف با حالت های جذبی
51981
من سعی می کنم پارامترهای سری ARMA(2،1) را از طریق ML تخمین بزنم، اما متأسفانه در راه اندازی Matrix Gamma گیج شده ام. من مقالات زیادی در این رابطه دیده‌ام، اما به نظر می‌رسد این یک چیز بدیهی است که در هیچ کجا ذکر یا توصیف نشده است، یعنی: $L(\Gamma, X)= (2\pi)^{-\frac{n }{2}} \det(Γ)^{-\frac{1}{2}} \exp\left({-\frac{1}{2} X´ Γ^{-1} X}\right) $ جایی که X n داده است و $\Gamma$ به شکلی پیچیده به پارامترها بستگی دارد. متشکرم
ARMA MLE - راه اندازی ماتریس
105147
من یک مجموعه داده نامتعادل با 12 کلاس دارم و می خواهم از مجموعه حساس به هزینه برای طبقه بندی استفاده کنم، اما نمی دانم چگونه ماتریس هزینه را برای کلاس ها محاسبه کنم. سوال من: چه هزینه هایی را باید در ماتریس هزینه وارد کنم و چگونه آن را برای متا طبقه بندی کننده حساس به هزینه در WEKA محاسبه کنم؟
چگونه می توان ماتریس هزینه را برای متا طبقه بندی کننده حساس به هزینه محاسبه کرد؟
51985
اگر من علاقه مند به برازش تعاملات دو طرفه بین یک متغیر توضیحی خطی $a$ و یک متغیر توضیحی دیگر $b$ که رابطه درجه دوم با متغیر وابسته $y$ دارد، باید هر دو تعامل را با مولفه درجه دوم لحاظ کنم. و تعامل با مولفه خطی در مدل؟ به عنوان مثال: $$ y\sim a+b+b^2+ab+ab^2 $$ به نوبه خود بر اساس موضوع قبلی من: شرایط انحنا و انتخاب مدل، اگر این یک تحلیل انتخاب مدل با استفاده از «MuMIN» در R باشد، با بسیاری از متغیرهای توضیحی، آیا مدل های خروجی حاوی یک عبارت تعاملی که شامل یک عبارت درجه دوم $a:b^2$ است، تنها در صورتی معتبر خواهد بود که عبارت تعامل با جزء خطی $a:b$ نیز در همان مدل و همچنین $a$، $b$ و $b^2$ به عنوان جلوه های مستقیم وجود داشت؟
اصطلاحات برهمکنش ها و چند جمله ای های مرتبه بالاتر
88313
روش مناسب برای مدل سازی داده های شمارش (زیر پراکنده؟) با تعداد زیادی صفر و دم بلند
114852
من سعی می کنم ارزش باقیمانده بلند مدت یک محصول را فقط با قیمت عرضه پیش بینی کنم. من برخی از داده‌های مربوط به یک نوع تلفن را از اینترنت جمع‌آوری کرده‌ام، و کاملاً واضح است که ارزش باقیمانده (مثلاً قیمت‌گذاری استفاده شده از eBay و آمازون) یک محصول الکترونیکی استفاده‌شده (مثلا آیفون) به صورت تصاعدی در حال کاهش است. مانند طرح زیر: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/l2Q9m.jpg) > > par(mfrow=c(3,1)) > x <- 1:100 > y <- exp(-0.03 * x) * (2 + rnorm(100)) > plot(x, y, main=raw data, ylim=c(0, 4)) > plot(diff(y), main=diff, pch=4, ylim=c(-2, 2)) > plot(y ~ as.factor(as.integer(x/10))) > واضح است که مشتق ثابت نیست و همچنین در حال کاهش است. بنابراین من فکر می کنم مدل نمایی ممکن است مناسب باشد. با این حال، یک چیز جالب در اینجا این است که هر چه زمان از انتشار بیشتر می‌گذرد. ​​داده‌ها پراکندگی کمتری دارند. به روشی دیگر، زمانی که گوشی برای اولین بار منتشر شد. مردم شروع به فروش تلفن های دست دوم کردند و از آنجایی که ارزش آن بالاترین است، مثلاً 700 دلار. آنها احتمالاً می توانند در صورت تمایل به قیمت 600 دلار یا حتی 300 دلار بفروشند. اما 3 سال بعد، ارزش تلفن بسیار پایین‌تر است، مثلاً حتی یک تلفن جدید فقط 200 دلار است، سپس وقتی گوشی‌های قدیمی را می‌فروشند، قیمت‌ها احتمالاً در محدوده 100 تا 200 است، یک باند بسیار باریک. در سناریوی من، من بیشتر به مقدار باقیمانده در **_a طولانی مدت، که در باند باریک است، علاقه مند هستم. (b*x)` برای انواع مختلف گوشی... و b جدید را برای گوشی که قرار است بر اساس تمام داده هایی که دارم پیش بینی کنم، پیش بینی کنید. > > PhoneModel b > iPhone3 -0.04 > iPhone4 -0.05 > iPhone5 -0.03 > iPhone6 ​​TBD > 2. یا باید فقط به دوره زمانی که به آن علاقه دارم نگاه کنم. مثلاً 2 تا 3 سال (یا 36 ماه نقطه زمانی) و مدل سازی را در آن محدوده انجام دهید زیرا داده ها بسیار محدود شده اند. برای جلوگیری از پراکندگی داده های 0 تا 2 ساله.. > > PhoneModel residualRatio > iPhone3 20% > iPhone4 25% > iPhone5 30% > iPhone6 ​​TBD > دوباره سعی می کنم ارزش باقیمانده بلندمدت یک محصول را فقط با قیمت عرضه پیش بینی کنم.
پیش بینی ارزش باقیمانده برای محصولات الکترونیکی استفاده شده
105146
من در مورد تنظیم برای تنظیم هایپرپارامترها در جستجوی شبکه ای گیج شده ام. در زیر برای درک من، شبه کد به سبک پایتون آمده است. errors = [] برای fold_training، fold_testing in 10-fold: # Use 10-Fold Grid Search on the fold grid فعلی = GridSearchCV(fold_training, fold_testing, cv=10) error.append( grid.error_of_best() ) # افزودن خطا به چاپ آرایه امتیاز اعتبار متقاطع، error.average() است این عمل مناسب برای اعتبارسنجی متقابل تودرتو؟ این 100 مدل را آموزش می دهد. در نهایت، چگونه پارامترهای بهینه را از اعتبارسنجی متقابل تودرتو به دست آوریم؟ آیا باید از هر 100 مدل از بالاترین امتیاز استفاده کنیم؟ من در این مورد کاملا گیج هستم.
سوال در رابطه با اعتبارسنجی متقاطع تودرتو
15408
با توجه به اینکه من 4 بانک (بانک الف، ب، ج و د) دارم و داده ها (ارزش سهام) از سال 1377 تا کنون است. در سال 2002، بانک A بانک C را تصاحب کرد. در سال 2005، بانک A بانک D را تصاحب کرد. تا زمانی که در حال حاضر تنها 1 بانک (A) باقی مانده است. من می خواهم آزمایش کنم که آیا هر ادغام (از نظر بانک A) موثر بوده است یا خیر. من با 2 استاد مشورت کردم و یکی بررسی تغییرات ساختاری (و مشاهده تغییر در سطح و نوسانات) را در حالی که دیگری تحلیل مداخله را توصیه کرد. من گیج شدم از کدام یک استفاده کنم. به نظر شما کدام یک مناسب تر است؟ پیشاپیش ممنون :)
اثر جذب بانک
105149
در برخی از مسائل طبقه بندی دودویی، من فرض می کنم که احتمال مثبت دقیقاً به طور خطی به ویژگی های $P(y=1|x_1,x_2,x_3,\ldots)=\beta_1x_1+\beta_2x_2+\beta_3x_3+\cdots$ بستگی دارد. اکنون برای آموزش، من فقط تحقق 0 یا 1 را برای $y$ مشاهده می کنم. بنابراین این احتمال به طور مستقیم قابل مشاهده نیست، بلکه ترجیحاً مقداری چگالی محلی است (که تخمین آن برای ابعاد بالا دشوار است). آیا نوعی رگرسیون وجود دارد که بتواند ضرایب $\beta_i$ را تعیین کند؟ من می توانم رگرسیون معمولی را امتحان کنم، اما واضح به نظر نمی رسد که هر تابع ضرر بتواند به همان $\beta_i$ همگرا شود. چه نوع عملکرد تنظیم و از دست دادن مناسب‌تر است؟
چگونه می توان مدل احتمال خطی را برای طبقه بندی باینری بازیابی کرد؟
73546
فرض کنید یک کامپیوتر معمولی تولید شده توسط یک شرکت 10 ماه دوام می آورد و انحراف استاندارد 50 روز است. عمر کامپیوتر از توزیع نرمال پیروی می کند. احتمال اینکه یک کامپیوتر ساخت این شرکت حداکثر 1 سال دوام بیاورد چقدر است؟ فرض بر این است که یک ماه 30 روز دارد. میشه توضیح بدید چطوری محاسبه میشه؟ با تشکر
محاسبه احتمال
10910
من یک مقیاس 37 سوالی دارم که هر ماده به یکی از چهار مقیاس تعلق دارد. آیتم های هر مقیاس در هم قرار گرفته اند. چگونه می توانم نمره مقیاس را برای هر یک از چهار مقیاس محاسبه کنم؟ من باید بتوانم هر خرده مقیاس را به طور مستقل تجزیه و تحلیل کنم و سپس پاسخ های مقیاس را بر روی متغیر مستقل و متغیرهای مستقل مقایسه کنم.
چگونه می توانم زیرمقیاس ها را بر اساس مجموعه ای از آیتم ها در SPSS ایجاد کنم؟
114851
من یک مشکل طبقه بندی بسیار کاربردی دارم که برای آن به کمک نیاز دارم. من یک پایگاه داده از کاربران به همراه فعالیت / لایک آنها برای تعدادی از مدل های ماشین دارم. من همچنین دسته بندی هر یک از این مدل های خودرو را دارم (به عنوان مثال اسپرت، کوپه، خانوادگی و غیره). در نهایت، من می‌خواهم یک یا چند دسته از این دسته‌ها را بر اساس فعالیت کلی آنها به کاربران اختصاص دهم یا نه. کاری که من تاکنون انجام داده‌ام این است: 1) شمارش «لایک‌های» هر کاربر در هر دسته، 2) یافتن میانگین و انحراف استاندارد «لایک‌ها» برای هر دسته با در نظر گرفتن همه کاربران با هم، و 3) انجام نوعی طبقه‌بندی با استفاده از قانون ساده زیر: اگر تعداد لایکهای کاربر X برای دسته Y بزرگتر از میانگین + 2 انحراف استاندارد از لایکهای مربوط به کل جمعیت باشد، دسته Y را به کاربر X اختصاص دهید در غیر این صورت هیچ کاری انجام ندهید. سؤالات من این است: الف) آیا فرآیند فوق منطقی است و 2) آیا باید به نحوی تعداد کل لایکهای هر کاربر و همچنین تعداد کل مدل های ماشین هر دسته را در نظر بگیرم - به عبارت دیگر برخی از آنها را انجام دهم. نوعی عادی سازی داده ها - یا این به نوعی قبلاً در فرآیند ذکر شده گنجانده شده است؟
ویژگی ها / دسته بندی ها را بر اساس فعالیت / پسند کاربران به آنها اختصاص دهید
39071
من در یافتن معیار شباهت مناسب برای خوشه بندی مشکل دارم. من حدود 3000 آرایه مجموعه دارم که در آن هر مجموعه دارای ویژگی های دامنه خاصی است (به عنوان مثال، عدد، رنگ، روز، حروف الفبا و غیره). من مشکلم را با یک مثال توضیح می دهم. فرض کنید من فقط 2 آرایه (a1 و a2) دارم و می خواهم شباهت بین آنها را پیدا کنم. هر آرایه شامل 4 مجموعه است (در مشکل واقعی من 250 مجموعه (دامنه) در هر آرایه وجود دارد) و یک مجموعه می تواند خالی باشد. a1: {a،b}، {1،4،6}، {دوشنبه، سه شنبه، چهارشنبه}، {قرمز، آبی، سبز} a2: {b،c}، {2،4،6}، {}، {آبی، سیاه} من با استفاده از شاخص ژاکارد (که با J نشان داده می شود) یک معیار تشابه آورده ام: sim(a1,a2) = [J(a1[0], a2[0]) + J(a1[1], a2[1]) + ... + J(a1[3], a2[3])]/4 نکته: من بر تعداد کل مجموعه ها (در مثال بالا 4) تقسیم می کنم تا شباهت بین 0 و 1 حفظ شود. آیا این یک معیار مشابهت مناسب است و آیا نقصی در این رویکرد وجود دارد. من شاخص ژاکارد را برای هر مجموعه به طور جداگانه اعمال می کنم زیرا می خواهم شباهت بین دامنه های مرتبط را مقایسه کنم (یعنی رنگ با رنگ و غیره...) من از هیچ معیار مشابه دیگری برای مشکل خود آگاه نیستم. علاوه بر این، «آیا می توانم از این معیار تشابه برای هدف خوشه بندی استفاده کنم؟».
10918
من سعی می کنم یک تجزیه و تحلیل تفکیک مخلوط برای یک data.frame با اندازه متوسط ​​انجام دهم و به مشکلی برخوردم: همه پیش بینی های من NA هستند. پس از ردیابی کدهای بیش از حد، متوجه شدم که ربطی به این واقعیت دارد که برخی از ضرایب موجود در mda NA هستند. من یک data.frame کوچکتر ایجاد کرده ام که هنوز مشکل دارد: dfr<-structure(list(min_GCs_last_3_bases = structure(c(1L, 2L, 1L, 1L, 2L, 1L, 2L, 1L, 2L, 2L, 1L, 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2L، 1L)، .Label = c(صفر، یک)، کلاس = عامل)، cq = c(-0.334138707578632، -0.586150643906373، -0.474578712720667، -0.474578712720667، -0.23، -0.23 -0.486876877353103، -0.0912154554410563، 0.00341593805213764، 0.713424582672338، -0.44891465223826، -0.448914652237624 -0.0954835698859817، -0.238125375419562، -0.448914652233824، -0.0290299100261503، -0.4796666888819125615، -0.479666688819125616 - -0.0919665779183363، -0.394427887135795، -0.396749521580081، -0.338156015653477)، پوشش = ساختار(c(2L, 2L,2L,2L,2L,2L, 2L، 2L، 2L، 2L، 2L، 2L، 2L، 2L، 1L، 1L، 2L، 2L)، .Label = c(شکست، موفقیت)، کلاس = عامل))، .Names = c(min_GCs_last_3_bases، cq، Coverage)، class = data.frame، row.names = c(SMURF2_16_1، MI0000437، SMAD6_4_1، SMAD2_8_1، MI0003561، SKP1_6_1، MI0003556، LTBP1_19_1، MI0006، MI000630 TGFBR1_6_1، MI0000772_1، MI0003176، MI0005758، MI0003639، MI0003641، CUL1_5_1، APC_3_1، MI0005769، KPNB، وقتی داده‌ها را دوست دارم استفاده می‌کنم)_1. (بعد از بارگیری بسته mda): mda(Coverage~.,data=dfr,subclasses=2)$fit$coef این نتیجه را دریافت می کنم: [,1] [,2] Intercept -0.90574883 -0.42382446 min_GCs_last_3_baseszero 1.8069.585 min_GCs_last_3_basesone -0.02302343 0.04884007 cq NA NA چیزی که من را در این مورد آزار می دهد این است: * چرا ضرایبی برای هر دو مقدار ضریب min_GCs_last_3_bases وجود دارد؟ * چرا ضرایب cq NA هستند؟ من حاضرم فرض کنم که من کاملاً اشتباه متوجه شده ام. میشه لطفا یکی منو روشن کنه؟ یا من فقط به یک باگ برخورد کردم؟ (توجه: من سعی کردم اگر نام ستون ها تأثیر داشته باشد: آنها تأثیری ندارند)
مشکل با تجزیه و تحلیل تفکیک مخلوط در R بازگشت NA برای پیش بینی
93866
اجازه دهید $\mathbf{y_1} =\begin{bmatrix}g_1x_1 & g_2x_1 & \dots & g_Nx_1 \end{bmatrix}$ and $\mathbf{y_2} = \begin{bmatrix} f_1x_2 & f_2x_2 & \x___ {bmatrix}$. همه عناصر $\mathbf{g}=\begin{bmatrix} g_1&g_2 &\dots &g_N\end{bmatrix}$ and $\mathbf{f}= \begin{bmatrix} f_1 & f_2 & \dots f_N\end{ bmatrix}$ از یک توزیع رایلی گرفته می شود. $x_1$ و $x_2$ به طور تصادفی از مجموعه $\\{-1,1\\}$ با احتمال مساوی گرفته می شوند، یعنی $x_1$ می تواند $1$ یا $-1$ با احتمال $0.5$ باشد. چهار ترکیب برای $(x_1، x_2)$ وجود دارد: $(1،1)، (1،-1)، (-1،1)، (-1،-1)$ که منجر به چهار ترکیب برای $ می شود. (\mathbf{y_1}، \mathbf{y_2})$ نیز. با در نظر گرفتن همه ترکیب ها، چگونه می توانم میانگین $\it{حداقل}$ فاصله اقلیدسی بین بردارهای $\mathbf{y_1}$ و $\mathbf{y_2}$ را پیدا کنم؟
میانگین حداقل فاصله بین دو بردار تصادفی
39076
روش‌های چند متغیره چقدر در برابر نقض نرمال قوی هستند؟
93860
من مجموعه داده بزرگی از نقاط سه بعدی (مختصات XYZ) دارم و می‌خواهم خوشه‌بندی سلسله مراتبی را با استفاده از روش پیوند کامل با فاصله اقلیدسی به عنوان متریک خوشه‌بندی انجام دهم. علاوه بر این، دو محدودیت برای فرآیند خوشه بندی وجود دارد: محدودیت اول - حداکثر فاصله بین نقاط در همان خوشه باید کمتر از مقدار مشخص شده باشد (در این مورد 25)، چه چیزی اندازه خوشه ها را کنترل می کند. ایده محدودیت دوم. استفاده از یک آستانه برای تعیین اینکه آیا گروه بندی حاشیه ای نقاط به عنوان خوشه شناسایی می شود یا خیر. روند خوشه بندی باید تا زمانی ادامه یابد که هیچ خوشه جدیدی قابل شناسایی نباشد - زمانی که دیگر جمعیتی از نقاط بدون خوشه بزرگتر از مقدار آستانه در حجم فضایی کمتر از حداکثر فاصله از محدودیت 1 وجود ندارد. من می خواهم عدد را در محدودیت دوم تغییر دهم تا راه حلی بیابم که در آن 75٪ تا 90٪ از تمام نقاط ورودی خوشه ای هستند. آیا کسی می تواند به من در حل این مشکل کمک کند و به من پیشنهاد دهد که از چه زبان / نرم افزاری استفاده کنم؟ هر گونه راهنمایی بسیار قدردانی خواهد شد.
خوشه بندی کامل پیوند مختصات فضای داده سه بعدی
39075
من اشیاء سری زمانی $300$ دارم که ستون های $300$ ماتریس $X$ را تشکیل می دهند. این ماتریس دارای ردیف‌های $5$ است و اطلاعات سری زمانی $5$ را برای هر ستون $300$ نشان می‌دهد. من یک ماتریس 300$\textrm{x}5$ از مقادیر باینری تنظیم کردم. بنابراین ردیف اول ممکن است چیزی شبیه به $(1 1 0 0 1)$ باشد، که به این معنی است که ستون $1$ از $X$ دارای عناصر منفی در ردیف‌های 1، 2 و 5 است (مدل‌سازی شده بر اساس دسته $1$)، و عناصر مثبت در ردیف های 3 و 4 (مدل سازی شده بر اساس دسته $0$). من متغیرهای پیش‌بینی‌کننده $8$ دارم که به خوبی توضیح می‌دهد که آیا عناصر منفی بیشتری در اوایل وجود دارد (یعنی اگر چیزی شبیه $(1 0 0 0)$ را مشاهده کنیم یا خیر، در مقابل اینکه آیا بعداً عناصر منفی بیشتری وجود دارد (یعنی چیزی شبیه به آن را مشاهده می‌کنیم یا خیر. $(0 0 0 1 1)$). چگونه این را مدل کنم؟ دانش من به اندازه کافی گسترده نیست که بدانم آیا چارچوب آماری وجود دارد که بتوانم از این ماتریس به عنوان پاسخ خود استفاده کنم: $ Y = \left( \begin{array}{cccc} 1 & 1 & 0 & 0 & 1 \\\ 1 & 0 & 1 & 0 \\\ 0 & 0 & 1 \\\ & . \\\ \end{array} \right) $ با استفاده از این می‌خواهم کاری انجام دهم: $\mathbf{Y} = a + \mathbf{B}\mathbf{Z}$ (می‌دانم که این درست نیست مشخصات logit/probit، اما من فکر می کنم برای برقراری ارتباط با آنچه می خواهم خوب است). سپس تفسیر ایده آل برخی از ضریب $b_i \in \mathbf{B}$ خواهد بود. اگر منفی باشد، اگر پیش‌بینی‌کننده مرتبط $x_i \in \mathbf{Z}$ بزرگ‌تر باشد، شانس دیدن چیزی شبیه $(11000)$ را به جای چیزی شبیه $(00011)$ افزایش داده‌ایم.
70349
من از مجموعه تست تصادفی NIST استفاده می کنم که بررسی می کند آیا یک توالی بیت تصادفی در 15 تست مختلف است. من در تأیید اینکه آیا این مجموعه خوب کار می کند مشکل دارم. وضعیت به این صورت است که اگر من مثلاً 10000 دنباله با طول یکسان (مثلاً 1000) را وارد کنم و توسط تابع «rand» متلب تولید شده باشد، گاهی اوقات تست‌های پایه‌ای که من استفاده می‌کنم، یعنی فرکانس، اجرا، فرکانس بلوک، مبالغ تجمعی با این حال، گاهی اوقات در آزمون فرکانس پایه و آزمون مجموع تجمعی از نظر p-value از p-value شکست می خورد اما از نظر نسبت نمی تواند. دو تا سوال دارم نکته کلی این است که چگونه می توانم بیت های تصادفی توزیع شده یکنواخت را از متلب تولید کنم؟ مورد دوم این است که چرا مشکل ذکر شده در بالا در مجموعه تصادفی NIST رخ می دهد، آیا کسی می تواند به من کمک کند تا بررسی کنم که آیا خوب کار می کند؟ برای سند مرجع: http://csrc.nist.gov/groups/ST/toolkit/rng/documents/SP800-22rev1a.pdf
تست تصادفی NIST در بیت های تصادفی تولید شده با شکست مواجه می شود
57001
برای دانشگاه باید 3 نوع سرطان را طبقه بندی کنیم و تخمینی از عملکرد مدلمان ارائه دهیم. ما یک مجموعه داده با 100 نمونه دریافت کردیم. ما داده ها را با استفاده از نمونه گیری طبقه ای با نسبت 0.3 و 0.7 به یک مجموعه آموزشی و آزمایشی تقسیم کردیم. مجموعه آموزشی حاصل از 69 نمونه و مجموعه آزمون از 31 نمونه تشکیل شده است. ما از اعتبارسنجی متقاطع 10 برابری برای محاسبه دقت مدل‌های خود استفاده کردیم. هنگام اعمال یک مدل مشابه در مجموعه تست برای اکثر مدل ها، دقت در مجموعه تست بین 10-15٪ بدتر از اعتبارسنجی متقاطع در مجموعه آموزشی است، به جز یک مدل که دقت در مجموعه تست 2٪ بهتر از در طول اعتبارسنجی متقابل مشکلی که اکنون داریم این است که دو مدل بهترین امتیازدهی در اعتبارسنجی متقاطع تفاوت قابل توجهی ندارند، یکی دارای دقت 88.57% +/- 12.45%، دیگری دقت 88.00% +/- 7.92%. با این حال، در آزمون نمره اول 76٪ و نمره دوم 90٪ است. اگر به درستی متوجه شده باشیم، نمی‌توانیم بر اساس نتایج مجموعه تست، مدل دوم را به عنوان بهترین مدل انتخاب کنیم، زیرا در این صورت از مجموعه تست به عنوان مجموعه آموزشی استفاده می‌کنیم. در عوض، ما می‌خواهیم از اعتبارسنجی متقاطع مکرر برای بهبود اعتماد به نفس من در نتایج اعتبارسنجی متقاطع استفاده کنیم و در نتیجه امیدوارم بتوانم بهترین مدل را انتخاب کنم. با مجموعه داده کوچکی که داریم، اگر اعتبارسنجی متقاطع مکرر انجام دهیم و میانگین را در نظر بگیریم، آیا با این مشکل مواجه می‌شویم که همان فولدها چندین بار استفاده می‌شوند؟
آیا می توانم اعتبار سنجی متقاطع را با یک مجموعه داده کوچک تکرار کنم، و/یا چگونه می توانم اطمینان اعتبار متقاطع خود را بهبود بخشم؟
39
من به دنبال راه حل های کار شده با استفاده از تجزیه و تحلیل بیزی و/یا لاجیت شبیه به کتاب کار یا سالنامه هستم. مشکلات حل شده می تواند از هر زمینه ای باشد. با این حال، من به رشته های مرتبط با برنامه ریزی شهری / حمل و نقل علاقه مند هستم.
نمونه مشکلات مدلسازی لاجیت و روشهای بیزی
70348
من در حال بررسی چند سؤال تمرین امتحانی دیگر برای کلاس آمارم هستم - این سؤال کامل است، دو بخش دارد: > اجازه دهید $X$ یک متغیر تصادفی پیوسته با چگالی احتمال شناخته شده باشد > تابع (pdf) $f_X(x)$ برای $-\infty < x < \infty$ و اجازه دهید $M_X(p)=E(e^{pX}) > $ تابع ارزش واقعی $p باشد.$ > > (a) بنویسید $M_X(p)$ را به عنوان یک انتگرال شامل pdf $f_X(x)$ و > $e^{pX} پایین بیاورید.$ > > (b) نشان دهید که $E(x)=M'_X(0)$، جایی که $M'_X(p)=\frac{dM_X(p)}{dp}.$ چیزی که من تاکنون داشته‌ام در اینجا آمده است: (i) از تعریف بسیار ساده به نظر می‌رسد. $E(g(x))$. من فقط دارم: $$E(e^{pX}) = \int^{p}_{-\infty}e^{pX}f_X(x) dx.$$ (b) برای قسمت b، من یک کمی گیر کرده از (a)، من آن $$M'_X(p)=\frac{d}{dp} M_X(p)=\frac{d}{dp}E(e^{pX})=\frac{ دارم d}{dp}\int^{p}_{-\infty}e^{pX}f_X(x) dx.$$ آیا قضیه ای مشابه قضیه اساسی حساب دیفرانسیل و انتگرال برای گرفتن مشتق وجود دارد؟ از یک انتگرال نامناسب؟ روشی که من سعی کردم این را ارزیابی کنم این است: $$\frac{d}{dp}\left( \lim_{b \to -\infty}\int^{p}_{b}e^{pX}f_X( x) dx\right).$$ حالا من کمی گیر کردم. من می دانم که تعریف $E(x) = \int^{\infty}_{-\infty}xf_X(x)dx$، اما وقتی سعی می کنم انتگرال نامناسب بالا را ادغام کنم، فکر نمی کنم که به این نتیجه رسیده باشم. در هر جایی جز پیچیده تر کردن آن. آیا من حتی در مسیر درست هستم؟ احساس می کنم دارم آن را پیچیده تر از آنچه که قرار است می سازم. هر گونه کمکی بسیار قدردانی خواهد شد!
نشان دهید که $E(x)=M'_X(0)$، جایی که $M'_X(p)=\frac{dM_X(p)}{dp}$
17276
در تلاشم برای یادگیری پیش بینی و بهبود دانش آماری خود، تصمیم گرفتم جمعیت یک منطقه خاص را پیش بینی کنم. من فایل اکسلی را که استفاده کردم پیوست کردم. من می دانم که از اکسل استفاده می کنم که در اینجا زیاد رایج نیست. من با R آشنا هستم اما اکسل را برای تجزیه و تحلیل سریع مانند این ترجیح می دهم. داده‌های جمع‌آوری‌شده برای سال‌های 1921 تا 2009 است. دوره پیش‌بینی بین سال‌های 2010 و 2019 است. در 10 سال گذشته * مدل نصب شده با استفاده از نرم افزار Eureqa * میانگین مدل های فوق بدون خطی کلی رگرسیون کاربرگ پیش بینی شامل تمام داده های خام است، در حالی که کاربرگ ساده شده پیش بینی شامل نمودار ساده شده برای مشاهده بهتر نتایج است. این سوال، چه روش هایی وجود دارد که می توانم پیش بینی ها، اعداد، مفروضات خود را اعتبار و/یا کالیبره کنم و تجزیه و تحلیل خود را از سطح آماتور به چیزی حرفه ای تر بهبود بخشم. با تشکر از فایل اکسل
مقایسه داده‌های جفت مدل‌سازی شده (برازش) با داده‌های واقعی در مسئله پیش‌بینی (صفحه اکسل شامل)
16426
من اخیراً در تلاش برای ساختن یک درخت حداقل پوشا اقلیدسی بوده ام. با این حال، آیا اصلاً می توان درختان را روی فلس ترسیم کرد یا همیشه باید بدون رسوب باشند؟ متشکرم
درخت پوشای حداقل اقلیدسی در R
87030
برای درک یک آنووا 3 طرفه با 2 فاکتور ثابت و 1 عامل تصادفی به کمک نیاز دارم. من در حال تجزیه و تحلیل آزمایشی هستم که به بررسی تأثیر رژیم غذایی بر میزان تغذیه در حلزون ها می پردازد. دو عامل ثابت عبارتند از رژیم غذایی (2 سطح) و گیاهخوار (2 سطح حلزون وجود دارد، حلزون وجود ندارد). آزمایش سه بار تکرار شد و در هر آزمایش فاکتورهای ثابت به طور کامل تلاقی و 3 بار تکرار شد. من می خواهم آزمایش (3 سطح) را به عنوان یک عامل تصادفی تجزیه و تحلیل کنم. داده‌های من این است: > کانتینر رژیم آزمایشی nochoiceb3 Herbivore lmg.day 1 1 22 1 snails 6.513823 2 1 22 2 snails 6.282641 3 1 22 3 snails 6.041 6.041 کنترل 5.132263 5 1 22 5 control 3.407842 6 1 22 6 control 4.987708 7 1 10 7 snails 3.632309 8 1 10 8 snails 4.301310s 4.301310s 4.301310s 94. 10 1 10 10 کنترل 4.295924 11 1 10 11 کنترل 2.433613 12 1 10 12 کنترل 3.015535 13 2 22 2 حلزون ها 4.646312 14 2 270612 22 17 حلزون 4.888844 16 2 22 1 كنترل 5.129899 17 2 22 6 كنترل 4.284965 18 2 22 13 كنترل 4.237001 19 2 10 3 23018 19 2 10 3 23018 حلزون 4.133565 21 2 10 19 حلزون 4.130355 22 2 10 4 کنترل 2.415914 23 2 10 7 کنترل 2.219203 24 2 10 14 کنترل 2.829 2.824 5.906451 26 3 22 11 snails 5.558371 27 3 22 18 snails 5.015954 28 3 22 5 control 4.284965 29 3 22 12 control 4.671 4.371976 31 3 10 3 snails 3.775057 32 3 10 15 snails 4.028917 33 3 10 23 snails 4.433195 34 3 10 3 10 15 control 1. 2.797281 36 3 10 16 control 3.427515 همانطور که متوجه شدم، شامل یک عامل تصادفی، تقسیم بندی خطا را در یک anova تغییر می دهد، و سپس نسبت F باید بر اساس عبارت خطای صحیح محاسبه شود. در این مورد، نسبت F برای عوامل ثابت باید نسبت مجذورات میانگین عامل ثابت به مجذورات میانگین ضریب ثابت: برهمکنش عامل تصادفی باشد. مثال برای رژیم غذایی F = رژیم غذایی میانگین مربعات / رژیم غذایی میانگین مربعات: آزمایشی من مدل زیر را اجرا کردم: > model2.1<-aov(lmg.day~Diet*Herbivore+Error(Trial), data=nochoiceb3) و این نتایج را دریافت کردم: خطا : آزمایشی Df مجموع مربع میانگین مربع F مقدار Pr(>F) باقیمانده 2 1.543 0.7717 خطا: در Df Sum Sq Mean Sq F value Pr(>F) Diet 1 22.283 22.283 75.268 1.12e-09 *** Herbivore 1 12.686 12.686 42.853 3.06e-07 *** Diet1.09.09. 0.324 0.573 Residuals 30 8.881 0.296 من می‌خواستم نتایج را با محاسبه نسبت‌های F خودم بررسی کنم، بنابراین یک آنوای سه طرفه با آزمایش به عنوان یک عامل ثابت برای ایجاد مجموع مربع‌ها برای برهمکنش‌ها اجرا کردم: model2.2<-aov( lmg.day ~ رژیم غذایی * گیاهخوار * آزمایشی، data=nochoiceb3) Df Sum Sq Mean Sq F value Pr(>F) Diet 1 22.283 22.283 78.350 5.03e-09 *** Herbivore 1 12.686 12.686 44.607 6.58e 44.607 6.58e *** 7.28 22.283-0 2.713 0.0866. رژیم غذایی:گیاهخوار 1 0.096 0.096 0.338 0.5666 رژیم غذایی: آزمایشی 2 0.135 0.067 0.237 0.7909 گیاهخوار: آزمایشی 2 0.111 0.056 0.196 0.1950 1.810 0.905 3.181 0.0595 . Residuals 24 6.826 0.284 نسبت f ارائه شده توسط مدل مختلط با محاسبه نسبت f بر اساس تقسیم میانگین مربعات بر خطای صحیح یکسان نیست (مثلاً برای رژیم غذایی F = میانگین مربعات رژیم غذایی / میانگین مربعات رژیم غذایی: آزمایشی) اما در عوض از باقیمانده ها به عنوان عبارت خطا استفاده می شود. من نمی دانم از اینجا به کجا بروم. بنابراین: چرا این تفاوت اتفاق می افتد؟ آیا کاری که r انجام می دهد صحیح است یا این بدان معنی است که مدل ترکیبی من اشتباه است؟ چگونه می توانم اطمینان حاصل کنم که از نحو مناسب برای مدل خود در R استفاده می کنم؟ با تشکر برای هر گونه کمک!
107702
من سعی می کنم سری های زمانی چند متغیره را با استفاده از R یاد بگیرم. من دو سری زمانی دارم و می خواهم ببینم آیا می توانم از یکی از آنها برای پیش بینی دیگری استفاده کنم و بعد از آن بررسی کنم که آیا مدل برقرار است یا بین هر دو متغیر رابطه وجود ندارد. . آیا کسی مثالی دارد که بتوانم برای درک این مفهوم از آن استفاده کنم؟ با تشکر و احترام
سری زمانی چند متغیره
61943
من دو مجموعه داده سری زمانی برای 36 ماه دارم. این شامل روندهای فصلی با چرخه 12 ماهه است. 1. چگونه تشخیص دهیم که آیا مدل خوبی است؟ هرچه AIC کوچکتر باشد، مدل بهتر است؟ 2. آیا باید قبل از استفاده از auto.arima تغییری انجام دهم؟ همانطور که در گوگل متوجه شدم که auto.arima قبلاً با روندهای فصلی سروکار داشته است. 3. اگر باقیمانده های پیش بینی از $\mathcal N(0,1)$ پیروی نمی کنند، نیاز به مدل سازی مجدد دارم؟ 4. آیا برای انجام پیش بینی به داده های بیشتری نیاز دارم؟ (در حال حاضر تنها 3 مجموعه داده برای انجام پیش بینی، به دلیل روندهای فصلی). با تشکر
برازش مدل های سری زمانی
13251
با توجه به یک متغیر $X \sim N(\mu, \Sigma)$ چگالی $X$ با توجه به $HX = d$, $H$ و $d$ هر دو ثابت است یعنی چقدر است. ما X$ را با عملگر خطی $H$ با کمبود رتبه مشاهده می کنیم و مقداری $d$ به دست می آوریم. با توجه به این دانش، چگونه دانش/توزیع X$ خود را به روز کنیم؟ این تنها یکی از مراحل فیلتر کالمن است. من در جدا کردن آن مشکل دارم در حالت ایده‌آل، پاسخ می‌تواند فرم‌های تحلیلی برای $\mu$ و $\Sigma$ پس از به‌روزرسانی به‌علاوه یک منطق/اشتقاق یا پیوند به چنین اشتقاقی باشد.
چگالی شرایط خطی داده شده نرمال چند متغیره
60094
آیا شیب و برش یک مدل رگرسیون خطی ساده همیشه به طور نرمال توزیع می شود؟ آیا تا به حال تفاوتی بین توزیع شیب و بریدگی تخمین زده شده با شیب واقعی وجود دارد؟ من تازه شروع به یادگیری در مورد این موضوع کرده ام اما هنوز در مورد جزئیات روشن نیستم. سوال آخر: آیا روش حداقل مربعات مانند رگرسیون خطی است که اطلاعاتی مانند $R^2$ را ارائه می دهد؟ با تشکر
سوال پارامترهای رگرسیون خطی
105627
تابع پایه R glm() از Fishers Scoring برای MLE استفاده می کند، در حالی که glmnet از روش نزول مختصات برای حل همان معادله استفاده می کند؟ نزول مختصات کارآمدتر از امتیازدهی فیشر است زیرا امتیازدهی فیشر ماتریس مشتق مرتبه دوم و برخی عملیات ماتریس دیگر را محاسبه می کند که فضا و زمان آن را گران می کند، در حالی که فرود مختصات می تواند همان کار را در زمان O(np) انجام دهد. چرا تابع پایه R از Fisher Scoring استفاده می کند یا این روش نسبت به سایر روش های بهینه سازی برتری دارد؟ مقایسه بین نزول مختصات و امتیازدهی فیشر چیست؟ من نسبتاً تازه وارد این زمینه هستم، بنابراین هر کمک یا منبعی مفید خواهد بود
64533
نمی دانم آیا کسی می تواند در پروژه پایان نامه من کمک کند. من در تحلیل گیر کردم و سعی کردم با چند نفر مشورت کنم اما متأسفانه آنها یا تجربه، دانش یا علاقه محدودی به موضوع آمار/اقتصاد رفتاری دارند. اساساً، من یک طرح اندازه گیری مکرر ترکیبی با 2 متغیر وابسته (DV) و 2 متغیر مستقل (IV) (1 در 2 و 1 در 4 سطح) دریافت کردم. 24 شرکت کننده در دو گروه تقسیم شدند. هر شرکت کننده یک کار را انجام داد که با استفاده از دو DV بین گروه ها اندازه گیری شد. همچنین در هر گروه چهار سطح IV اضافی وجود داشت. با توجه به اینکه باید از تست های ناپارامتریک (توزیع غیر عادی) استفاده کنم و 2 DV دارم (و بنابراین MANOVA) فکر نمی کنم بتوانم از SPSS برای این کار استفاده کنم. من مطمئن نیستم که از کدام آزمون ها و چه نرم افزاری (R؟) استفاده کنم.
آزمایش اقتصاد رفتاری - آزمون غیر پارامتری
69720
این ممکن است یک سوال بسیار ساده باشد، اما تطبیق یک توزیع پشت سر هم وایبول به یک سری باقیمانده (یا فکر می کنم، برای هر داده دلخواه) به چه معناست؟ من فکر می‌کنم به این معنی است که مجموعه‌ای مانند این را جا بدهیم: $x_{t} = \sum_{k}\alpha_{k}\frac{k}{\lambda}\left(\frac{x}{\lambda}\right )^{k-1}e^{\left(\frac{x}{\lambda}\right)^{k}}$ اما من واقعاً نمی دانم. **زمینه:** از یک مشکل در کتاب Cowpertwait سری های زمانی مقدماتی با R: > یک هیدرولوژیست مایل است جریان های ماهانه ورودی به مخزن فونت را در دوره 10 ساله بعدی شبیه سازی کند. از داده های موجود در Font.dat (§2.3.3) برای پاسخ دادن به موارد زیر استفاده کنید: > یک هیستوگرام از خطاهای باقیمانده مدل AR برازش شده رسم کنید و روی نمودار نظر دهید. یک توزیع پشت سر هم وایبول را برای خطاهای باقیمانده تنظیم کنید.
نصب توزیع پشت سر هم
60092
من به داده‌های شرکتم نگاه می‌کنم و اساساً دوره‌هایی در سال گذشته داریم که داده‌ها به درستی آپلود نشده‌اند. در این شکل mu مقدار بهره و مدت زمان بر حسب روز است. سنبله بزرگ نزدیک به 180 روز، مانند سنبله های کوچکتر در (140، 200، 275، و غیره) یک مصنوع است. از آنجایی که نمی‌خواهم قسمت اولیه منحنی را نزدیک به 0 روز صاف کنم، در پیدا کردن یک راه خوب برای صاف کردن این مصنوعات با مشکل مواجه هستم و به دنبال پیشنهادات به اینجا آمده‌ام. با تشکر، پیشاپیش! ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/8z1Kj.png)
چگونه این نقاط داده بسیار بد را فیلتر کنیم؟
81672
من سعی می‌کنم طبقه‌بندی بیزی را بر روی مجموعه داده‌ها به صورت زیر پیاده‌سازی کنم: مشکل: بر اساس ویژگی‌های اندازه‌گیری شده، طبقه‌بندی کنید که آیا یک فرد معین مذکر است یا زن. ویژگی‌ها شامل قد، وزن و اندازه پا هستند. مجموعه آموزشی نمونه زیر (برگرفته از http://en.wikipedia.org/wiki/Naive_Bayes_classifier) ​​![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/3fprY.png) **تست** در زیر چند نمونه برای طبقه بندی به عنوان مرد یا زن آورده شده است. قد جنسیت (پا) وزن (پوند) اندازه پا (اینچ) نمونه 6 130 8 نمونه 4 140 5 **نتایج:** واقعی: مونث و خروجی (0.99، مونث) واقعی: مونث و خروجی (0.89، 'نر') در اینجا، من می خواهم دقت طبقه بندی را ارزیابی کنم. من بین دو گزینه برای ارزیابی اشتباه گرفته ام: گزینه اول، 1 از 2 داده های تست را به درستی طبقه بندی کرد، بنابراین دقت 50٪ است. گزینه دوم، احتمال زن بودن (0.99 + 0.11) /2 = 0.55 است، بنابراین دقت 55٪ است. کدام گزینه برای ارزیابی دقت طبقه بندی این روش منطقی است؟ معنی هر گزینه چیست؟
ارزیابی طبقه بندی بیزی
52182
مدل ما میلیون‌ها مشاهدات چند متغیره را پردازش می‌کند. تشخیص دستی بیرونی غیرعملی است. من به دنبال روشی برای تشخیص خودکار نقاط پرت هستم. من سعی کرده ام از بسته R mvoutliers، به خصوص تابع pcout استفاده کنم و خطای > بیش از 50٪ مقادیر مساوی در یک یا چند متغیر را دریافت کنم! مشکل این است که داده های ما کاملاً پراکنده هستند و بسیاری از متغیرها شامل _بیش از 50% مقادیر مساوی_ هستند. 1. آیا راهی برای دور زدن (برخی پیش پردازش داده ها) وجود دارد که همچنان به من اجازه دهد از «pcout» استفاده کنم؟ 2. آیا بسته/عملکرد/روش R توصیه شده دیگری برای تشخیص خودکار نقاط پرت وجود دارد؟
تشخیص خودکار نقاط پرت در R
4044
من به دنبال برخی اصطلاحات خوب برای توصیف کاری هستم که می‌خواهم انجام دهم تا جستجوی منابع را آسان‌تر کنم. بنابراین، فرض کنید من دو دسته از نقاط A و B دارم که هر کدام به دو مقدار X و Y مرتبط هستند، و می‌خواهم «فاصله» بین A و B را اندازه‌گیری کنم - یعنی چقدر احتمال دارد که از یک توزیع نمونه‌برداری شده باشند. (من می توانم فرض کنم که توزیع ها نرمال است). به عنوان مثال، اگر X و Y در A همبستگی داشته باشند اما در B نه، توزیع ها متفاوت است. به طور شهودی، ماتریس کوواریانس A را بدست می‌آورم، و سپس به احتمال اینکه هر نقطه در B در آن جا قرار می‌گیرد، نگاه می‌کنم و برعکس (احتمالاً با استفاده از فاصله‌ای مانند فاصله Mahalanobis). اما این کمی تعدادی است، و احتمالاً روش دقیق تری برای توصیف آن وجود دارد (البته، در عمل من بیش از دو مجموعه داده با بیش از دو متغیر دارم - سعی می کنم شناسایی کنم کدام یک از مجموعه داده هایم پرت هستند). با تشکر
31803
نحوه محاسبه آمار گروه در R
81134
من در نت جستجو کردم، اما نتوانستم پاسخ خوبی برای سوالم پیدا کنم که بسیار آسان است. طبقه بندی خطی طبقه بندی کننده ای است که می تواند نمونه ها را به درستی طبقه بندی کند. اما با توجه به تابعی، مانند f که از سیگموید استفاده می کند، و به عنوان مثال اگر نتیجه سیگموئید کمتر یا بیشتر از 0.5 باشد، به دختر/پسر طبقه بندی می کند، چگونه بفهمیم که f در واقع یک تابع خطی است؟ به طور کلی، با توجه به یک تابع (و نه داده)، چگونه می توانیم بفهمیم که آیا آن تابع یک طبقه بندی کننده خطی است یا خیر؟ آیا باید چیزی را ثابت کنیم؟ آیا منابع/کتابشناسی وجود دارد که به درک بهتر من کمک کند؟ آیا مثال دیگری می تواند به من کمک کند؟
100097
مشکل ارزیابی انتگرال زیر $$ \int_T f(\theta_1, \theta_2, \theta_3| D) d\Theta$$ را در نظر بگیرید که در آن $f$ یک چگالی پسین و مقادیر $D = (d_1, ..) است. .، d_n)$، با توجه به $\Theta$، $i.i.d$ با توزیع مشخص هستند و $T$ دارای شکل زیر است: $$T = \\{(\theta_1، \theta_2، \theta_3) \در M | f(\theta_1, \theta_2, \theta_3|D) > k \\} $$ برای $k$ یک ثابت شناخته شده بزرگتر از صفر و $M=(0,\infty)$x$(1,\infty)$ x$(0,\infty)$ نمی‌دانم چگونه از روش یکپارچه‌سازی $MC$ برای حل این انتگرال استفاده کنم، زیرا نمی‌توانم ببینم این منطقه $T$ چگونه است یا حتی چگونه آن را بنویسم حجم من فکر کردم می توانیم از توزیع $d|\Theta$ استفاده کنیم، اما نمی دانم چگونه. خوشحال می شوم اگر بتوانم کمکی برای درک بهتر نحوه محاسبه این انتگرال داشته باشم با تشکر! (P.S: من از هاستینگ های کلان شهر برای نمونه برداری از $f$ استفاده خواهم کرد، به همین دلیل من MCMC نوشتم)
65979
64538
اغلب مردم از برنامه ها برای به دست آوردن مقادیر p استفاده می کنند، اما گاهی اوقات - به هر دلیلی - ممکن است لازم باشد یک مقدار بحرانی از مجموعه ای از جداول به دست آید. با توجه به یک جدول آماری با تعداد محدود سطوح معنی‌داری و تعداد محدودی از درجات آزادی، چگونه می‌توانم مقادیر بحرانی تقریبی را در سایر سطوح معنی‌داری یا درجات آزادی (مانند $t$، chi-square یا $) بدست بیاورم. جداول F$)؟
چگونه مقادیری را بیابم که در جداول آماری (/interpolate in) آورده نشده اند؟
63543
من در حال حاضر در حال بررسی نتایج نظرسنجی از اداره آمار نیروی کار ایالات متحده در مورد دستمزد ساعتی هستم. با داده‌های خام نظرسنجی، پاسخ‌دهندگان مختلفی را دریافت می‌کنم که چند ساعت در هفته کار می‌کنند، همراه با میانگین دستمزد، و برخی اطلاعات جمعیت‌شناختی مانند سن و جنس. چگونه می توانم از این اطلاعات به حدس زدن دقیقی در مورد میزان ساعاتی که کل جمعیت ایالات متحده در یک سطح دستمزد خاص کار کرده اند برسم؟ آیا راهی برای همبستگی مقادیر با در نظر گرفتن بیش از یک پارامتر واحد مانند سن وجود دارد؟ ویرایش: سعی می‌کنم بعد از آن یک سوال خاص‌تر بپرسم. لطفاً عدم آگاهی کامل من از آمار را ببخشید: فرض کنید در حال انجام یک نظرسنجی در مورد میزان درآمد مردم در یک ساعت هستم. بر اساس نظرسنجی من، می دانم که در نمونه نظرسنجی من، مردان حدود 10 دلار در ساعت و زنان 8 دلار در ساعت درآمد دارند. همچنین می دانم که در همین نمونه، افراد زیر 40 سال به طور متوسط ​​7 دلار در ساعت و افراد بالای 40 سال 11 دلار در ساعت درآمد دارند. با فرض اینکه جمعیت 50/50 مرد/زن باشد، می توانم حدس بزنم که جمعیت، به طور متوسط، 9 دلار در ساعت درآمد دارد. به همین ترتیب، اگر 30٪ از جمعیت بالای 40 سال باشد، می توانم حدس بزنم که جمعیت به طور متوسط ​​8.20 دلار در ساعت درآمد دارد، اما چگونه می توانم هر دوی این نکات اطلاعاتی را ترکیب کنم؟ چگونه می توانم جنسیت و سن افراد را متناسب با جمعیت در نظر بگیرم؟ آیا قرار است فقط یک میانگین وزنی انجام دهم یا چیزی؟
چگونه از نتایج آمار کار به کلیات جمعیت بروم؟
113720
فرض کنید که من دارای متغیرهای عادی تصادفی مستقل $3$، $A$، $B$ و $C$ هستم. همه آنها دارای انحراف استاندارد 17.526 دلار هستند، در حالی که $A$ دارای میانگین $143 $، $B $ 139 $، و $C $ 129 $ است. سوال من این است که چگونه می توانم $P(A>C\mid A>B)$ را محاسبه کنم؟ من می دانم چگونه $P(A>C)$ و $P(A>B)$ را محاسبه کنم، اما این بخش شرطی است که من با آن دست و پنجه نرم می کنم. من مطمئن نیستم که چگونه می توانم قضیه بیز را در این مورد اعمال کنم، بنابراین گیر کرده ام. اگر از نظر سرعت کمک کند، من $P(A>C)$ دارم که $0.713912$ است، و $P(A>B)$ به $0.564105$ با توزیع تفاوت در هر مورد دارای stdev $24.785$. با تشکر
احتمال شرطی با توزیع های نرمال؟
53273
من می خواهم یک رگرسیون Weibull با پارامترهای مقیاس و شکل از پیش تعریف شده توزیع Weibull اجرا کنم. من از survreg() از library(survival) در R استفاده می کنم و همانطور که در اصطلاح survreg می فهمم: scale = 1/(شکل rweibull) intercept = log (مقیاس rweibull) تعیین پارامتر شکل (sic!) با اجرای «survreg(Surv(y)~x, scale=1/rweibull_shape)» به نظر می رسد کار می کند و به عنوان انتظار می رود، عمدتاً بر اهمیت ضریب رگرسیون برای متغیر توضیحی تأثیر می گذارد و نه خود ضریب. در مورد پارامتر مقیاس، من فرض کردم که باید از offset استفاده کنم: survreg(Surv(y)~x+offset(rep(log(rweibull_scale),length(x)))، scale=1/rweibull_shape) با این حال، مشخص کردن به نظر نمی رسد مقیاس به این صورت بر احتمال ورود به سیستم مدل و اهمیت ضرایب رگرسیون تأثیر بگذارد، که با توجه به اینکه شگفت آور است واریانس وایبول هم به شکل و هم به مقیاس بستگی دارد. من چه غلطی می کنم؟ مثال کامل: ## offset –0.1 خلاصه (survreg(y)~x+offset(rep(-0.1,length(x)))، dist=weibull, scale=0.143)) Call: survreg(formula = Surv( y) ~ x + offset (rep(-0.1، 4))، dist = weibull، مقیاس = 0.143) Value Std. خطای z p (فاصله) 0.690 0.1599 4.31 1.61e-05 x 0.406 0.0715 5.68 1.31e-08 مقیاس ثابت در 0.143 توزیع Weibull Loglik(model)= -6.5 Loglik1.7 = -2. در 1 درجه آزادی، p= 3.3e-05 تعداد تکرارهای نیوتن رافسون: 7 n= 4 ## offset –10 خلاصه (survreg(y)~x+offset(rep(-10,length(x))) , dist=weibull, scale=0.143)) فراخوانی: survreg(formula = Surv(y) ~ x + offset(rep(-10, 4))، dist = weibull، scale = 0.143) Value Std. خطای z p (برق) 10.590 0.1599 66.23 0.00e+00 x 0.406 0.0715 5.68 1.31e-08 مقیاس ثابت در 0.143 توزیع Weibull Loglik(model)= -6.5 -inter Chi. 17.22 در 1 درجه آزادی، p= 3.3e-05 تعداد تکرارهای نیوتن رافسون: 7 n = 4
رگرسیون وایبول با قطع شناخته شده در R
107780
من در مدل‌سازی این نوع داده‌ها تازه کار هستم، و به خاطر پرسیدن این مورد در stackoverflow مجازات شدم... من یک مجموعه داده دارم که در آن متغیرهای پیش‌بینی‌کننده فقط حاوی یک و صفر هستند و متغیر پاسخ نیز حاوی یک و صفر است. من می خواهم یک مدل در R برای توصیف رابطه آنها بسازم. من می دانم که یک مدل لجستیک برای یک متغیر پاسخ باینری مناسب است، اما مدل مناسب برای متغیرهای پیش بینی باینری چیست؟
مدل سازی داده هایی که فقط شامل یک و صفر است
89273
تفاوت آماری بین دو درصد
53270
سوال من در مورد درصد واریانس توضیح داده شده در مؤلفه اصلی است. کدهای مختلف در نرم افزار R مقادیر متفاوتی را برای درصد واریانس توضیح داده شده (PEV) با PEV بدست آمده با دست نشان می دهند. ) برای مثال با استفاده از کدهای زیر (prcomp, pcr) در ماتریس انطباق S v1 v2 v3 [1,] 1 -2 0 [2,] -2 5 0 [3,] 0 0 2 > summary(prcomp(S))$importance[3,] PC1 PC2 PC3 0.92438 1.00000 1.00000 > > # با استفاده از کد pcr > > y<-c(2، 3،4) pcr(y~S) explvar(mpcr) Comp 1 Comp 2 92.43819 7.56181 با تشکر
تجزیه و تحلیل کامپیوتر و رگرسیون - درصد واریانس توضیح داده شده
74242
26031
از چه آماری برای مقایسه درصدها استفاده کنم؟
107786
من یک سوال در مورد رگرسیون خطی دارم. ما رگرسیون خطی داده های ورودی را داریم $(X,Y)=((x_1,y_1),(x_2,y_2)...(x_n,y_n))$$F=aX+b$$ a,b است فاکتورهای خط خطی هستند، $y_i$ {-1،1} است. با توجه به احتمال توزیع نرمال سازی ofx $$p(X|Y=1 ;-1,a,b) است N(\mu,\sigma)$$ چگونه a,b را پیدا کنیم که $$L=\sum( Y-F)^2$$ حداقل است خیلی ممنون. آیا می توانید مقاله ای را در مورد آن موضوع به من پیشنهاد دهید
مدل خطی برای داده هایی که از توزیع گاوسی پیروی می کنند
53276
من مشکلی دارم که سعی می کنم آن را رسمی کنم/تجزیه/نقشه به موارد شناخته شده بدهم، بنابراین این بیشتر یک فراخوان برای ارجاعات/نام ها/اصطلاحات است. شرح مشکل: سیستم جریانی از دانه های گیاهی را دریافت می کند که هر دانه دارای چند ویژگی طبقه بندی شده است. برای هر دانه، سیستم یک پروتکل کشت را برای استفاده انتخاب می کند (در نتیجه چند ویژگی طبقه بندی شده دیگر اضافه می کند). در نتیجه کشت، یک دانه ممکن است در نهایت یک میوه بیاورد (اما به احتمال زیاد هرگز هیچ میوه ای را نخواهد آورد). هدف نهایی این سیستم به حداکثر رساندن تعداد میوه ها است. انتهای توضیحات. در حالت ایده‌آل، من می‌خواهم اشاره‌ای به ادبیات مربوط به یک مشکل مشابه داشته باشم (نه لزوماً در مورد گیاهان، ممکن است به طور مشابه برای تولید فرموله شود). با این حال، می‌دانم که مشکل پیچیده‌ای است، و به احتمال زیاد هنر قبلی برای قطعات جداگانه‌ای از آن یافت می‌شود. همچنین برخی از ساده‌سازی‌ها وجود دارد که من مایلم اجازه بدهم. به عنوان مثال، به جای اینکه هر بذری در دو حالت «میوه به دست آمده است» یا «میوه هنوز به دست نیامده اما ممکن است باشد» باشد، می توان آن را در هر دو حالت «میوه به دست آمد» یا «میوه به دست نیاورده و هرگز نخواهد داشت» قرار داد. باشد، بنابراین کشت هر بذر به آزمایش برنولی کاهش می یابد. بیایید احتمال به دست آوردن یک میوه (تک) را باروری بنامیم (اگرچه این با معنای معمول در زیست شناسی متفاوت است). یکی از تجزیه‌های احتمالی که من می‌بینم، کاهش هدف حداکثر کردن تعداد کل میوه‌ها به تخمین چگالی باروری (شاخص شده با همه ترکیب‌های ممکن از خواص بذر و پروتکل کشت آن) است. این پاسخ نمی دهد که چگونه اکتشاف را با بهره برداری ترکیب کنیم، اما امیدوارم از تحلیل راهزن چند مسلح برای آن استفاده کنم. یک مثال بسیار ساده می تواند 2 خاصیت برای بذرها باشد: رنگ (قرمز، سیاه، سفید)، الگو (راه راه، جامد، خالدار) و 1 خاصیت برای کشت: خاک (شنی، گلی، هیدروپونیک). با دیدن یک بذر قرمز راه راه، سیستم می تواند تصمیم بگیرد که آن را در خاک شنی بکارد، برای مثال (یا شاید آن را در خاک شنی در 60٪ موارد و 40٪ در گل و لای بکارد). در مشکل واقعی، تعداد ویژگی ها ~ 6-7 است، و برخی از آنها صدها/هزاران مقدار دارند (به عنوان مثال، مزرعه منبع). این در حال حاضر بد است، اما علاوه بر این، باروری بسیار کم است (~1 میوه در هر 10 هزار دانه)، بنابراین حتی با میلیون ها آزمایش، ماتریس همزمانی مقادیر ویژگی بسیار کم خواهد بود - بنابراین من به استفاده از آن خوشبین نیستم. رگرسیون لجستیک خطی من فکر می‌کنم تنها راه رسیدن به تخمین‌های باروری برای اکثر ترکیب‌های خواص بذر/کشت، استفاده از وابستگی میان باروری برای ترکیب‌های مشابه است - منظورم از مشابه در اینجا، آنهایی است که حداقل یک ارزش دارایی را به اشتراک می‌گذارند. از نظر تجربی، وجود چنین وابستگی تایید شده است، اما ماهیت خاص آن ناشناخته است - به عنوان مثال، باروری بذرهای هم رنگ در پروتکل های مختلف کشت، ارتباط نزدیک تری با یکدیگر دارد تا باروری بذرهای تصادفی. و همین امر برای بذرهایی با الگوی یکسان صادق است، اما مشخص نیست که چگونه این مدل را مدل سازی کنیم (مدل مولد بیزی سلسله مراتبی؟). در حال حاضر من به http://en.wikipedia.org/wiki/Thompson_sampling نگاه می‌کنم، با زمینه‌ای مربوط به یک بذر، و یک عمل مربوط به پروتکل کشت، اما قطعه اصلی گمشده مدل خاص توزیع‌ها است. هر گونه ایده و یا حتی سوال قدردانی می شود!
نتیجه باینری با پیش بینی های طبقه بندی شده - کنترل آزمایش
46711
داشتم این کتاب مربوط به یادگیری ماشین را می خواندم. در نظر گرفته شده است که برای زنجیره مارکوف مرتبه Mth، تعداد پارامترها = $K^{M-1}(K-1)$ که در آن M مرتبه است. من مطمئن نیستم که چگونه این مشتق شده است. به عنوان مثال، فرض کنید من سه حالت دارم {آفتابی، ابری، بارانی}. بنابراین در هر زمان به دو حالت قبلی نگاه خواهم کرد. بنابراین اگر از فرمول بالا استفاده کنم، 3*(2-1)*(3-1) = 6 خواهم داشت که حدس می زنم کمتر باشد. من باید پارامترهای زیر را داشته باشم P(آفتابی|ابری،بارانی) P(آفتابی|ابری،آفتابی) P(آفتابی|ابری،ابری) P(آفتابی|بارانی،بارانی) P(آفتابی|بارانی، آفتابی) P(آفتابی| بارانی، ابری) P(آفتابی|آفتابی،بارانی) P(Sunny|Sunny,Sunny) P(Sunny|Sunny,Cloudy) و غیره. این پارامترهای زیادی دارد، از 6 بالاتر نیست. من کمی گیج شدم. حدس می‌زنم IT باید $K^{M}(K-1)$ باشد
113727
من تست های همبستگی را انجام داده ام و با استفاده از داده های ترتیبی و فاصله ای همبستگی های ضعیف منفی دریافت کرده ام. من یک تبدیل لاگ را خسته کرده ام، و همچنان همبستگی ها یکسان بود. من به دنبال یک همبستگی مثبت ضعیف تا متوسط ​​با داده ها هستم. تا به حال، من یک تبدیل log، Spearman و Pearson Correlation را انجام داده ام. کمک شما بسیار قدردانی می شود. متشکرم!
همبستگی ضعیف منفی
21319
من به دنبال پیاده سازی پایتون (در پایتون خالص یا بسته بندی مواد موجود) از HMM و Baum-Welch هستم. چند ایده؟ من به تازگی در گوگل جستجو کردم و مطالب بسیار ضعیفی در رابطه با سایر تکنیک های یادگیری ماشین پیدا کردم. چرا؟
مدل های پنهان مارکوف با الگوریتم Baum-Welch با استفاده از پایتون
49245
من پروژه ای برای مدل سازی کاربران با برچسب های مشخصه (مانند دونده، دوچرخه سوار، شناگر، وگان، پیانیست) دارم تا رفتار کاربر را با این برچسب ها مرتبط کنم. بدیهی است که یک کاربر می تواند چندین ویژگی (غیر انحصاری) داشته باشد و بنابراین فاصله (یا شباهت) بین کاربران با میزان همپوشانی برچسب تعیین می شود. 1. آیا اسمی برای این نوع مدل وجود دارد؟ 2. آیا الگوریتم/الگوریتم خاصی وجود دارد که برای اندازه گیری همبستگی در داده های ارائه شده توسط این نوع مدل مفید باشد؟ من به یک لیست کامل نیاز ندارم. فقط برای اینکه در جهت درست اشاره شود
مدل طبقه بندی غیر انحصاری
21318
من تازه وارد آمار هستم و نمی دانم چگونه در مورد این موضوع اقدام کنم. بنابراین من آن را تا جایی که می‌توانم ارائه خواهم کرد به این امید که کسی در اینجا بتواند به من کمک کند! من برای یک شرکت زیرساخت فناوری اطلاعات (خدمات مرکز داده) XYZ کار می کنم. این شرکت به عنوان بخشی از خدمات خود، wintel، جعبه های Unix، پایگاه های داده و شبکه ها را برای مشتریان خود راه اندازی کرده است. من سعی می‌کنم تعیین کنم که آیا می‌توانیم با استفاده از نمونه‌برداری آزمایش‌های آماری را برای آزمایش کیفیت کار انجام‌شده توسط مهندسانمان انجام دهیم (تنظیم سخت‌افزار به علاوه نصب نرم‌افزار + هر برنامه نرم‌افزاری که به عنوان بخشی از این کار نوشته شده است). بنابراین فرض کنید ما 5 سرویس مختلف (wintel، Unix، DB، Networks، Middleware) ارائه می دهیم. همه اینها دو نوع پروژه دارند. پروژه های استاندارد (مانند یک محصول با بسته بندی کوچک) و پروژه های غیر استاندارد/سفارشی. لطفا در صورت نیاز به جزئیات بیشتر به من اطلاع دهید. اگر بتوانم از ابزارهای آماری برای تست استفاده کنم، چه نوع تست هایی خواهند بود؟ از چه نوع مکانیزم نمونه برداری می توانم برای تعیین حجم نمونه بهینه استفاده کنم؟ ایده این است که از این آزمایش‌ها استفاده کنید، نتایج را دریافت کنید، به علل ریشه‌ای نگاه کنید و سپس برخی از شش برنامه بهبود نوع سیگما را برای کمبودها اجرا کنید. پیشاپیش از پاسخ‌های شما متشکریم ### ویرایش (در پاسخ به نظرات) به طور کلی می‌خواهیم «کیفیت کار انجام‌شده» را اندازه‌گیری کنیم. ما به دو نوع شاخص کیفیت فکر می‌کنیم. 1) یکی در پایان پروژه انجام می شود - نظرسنجی مشتری. 10 سوال; پاسخ ها (5-1 امتیاز برای عالی، بسیار خوب و همکاران) 2) یک شاخص کیفیت برای بررسی در طول پیشرفت پروژه. برای یک پروژه 3 ماهه می‌توانیم یک چک لیست ایمنی از 4 مورد داشته باشیم، هر 3 هفته یک بررسی ایمنی. ایده این است که نمرات بررسی ایمنی پروژه در جریان را با نمرات نظرسنجی مشتری مقایسه کنید تا دیدی یکپارچه از روند پروژه بدست آورید. این به شناسایی اینکه آیا و در کجا مشکلی رخ داده است، درک مشتری، ارتباطات PM، اجرای مهندس، پایداری فرآیند، بررسی‌های ایمنی ناکافی و غیره کمک می‌کند. من نمی توانم شکل آن را در حال حاضر مشخص کنم. من فرض می کنم که اجازه دهید ببینم آیا می توانم اطلاعاتی در مورد آن به دست بیاورم. ### ویرایش (مهاجرت از پاسخی که به عنوان یک نظر عمل می کرد) Michelle, The Org. من برای یک سازمان ماتریسی کار می کنم که یک نفر در سطح مدیر به عنوان حامی پروژه خدمت می کند. ما همچنین سازمانی مبتنی بر ITIL هستیم که در آن همه چیز یک سرویس است. مهندسان مدیران گزارش مستقیم خود را دارند و همچنین دارای گزارش خط نقطه ای به مدیران پروژه هستند. در این شرایط که همه سازمان‌ها اولویت‌های خود را دارند، پیوند دادن اهداف عملکرد آنها در سطح مهندسان به برخی معیارهای کیفیت بسیار دشوار خواهد بود. اما معاون وزیر اهدافی را برای سازمان تعریف کرده است که بخشی از آن این است که همه چیز باید قابل اندازه گیری و Import باشد. اقدامات باید روی داشبورد باشد. بنابراین انطباق با این برای هر گروه تحت سازمان اندازه گیری می شود. ** من می خواهم در مورد نوع معیارهای کیفی که می توانیم در این رویکرد استفاده کنیم (همانطور که در دو پست آخر من گفته شد) توصیه بیشتری می کنم. این برای اندازه‌گیری تحویل پروژه توسط سازمان است.** از همه کسانی که مشارکت می‌کنند سپاسگزاریم. Rolando2- از مشارکت شما متشکرم!
تعیین حجم نمونه بهینه و آزمون های آماری
90420
من به دنبال ویژگی هایی برای استخراج برای تمایز بین اشیاء متنی و الگوهای نویز دلخواه در تصاویر سند تخریب شده هستم. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/zTKbx.png) این یک نمونه از یک سند با برخی از قسمت های نویز است، من 4 پنجره را به صورت دستی استخراج کرده ام که سه تای آنها مطابق با نویز هستند. و آخرین مورد به پیامک. ![noise1](http://i.stack.imgur.com/cPjop.png) ![noise2](http://i.stack.imgur.com/L9jHM.png) ![noise3](http:// /i.stack.imgur.com/SJRHc.png) ![text](http://i.stack.imgur.com/zJBvf.png) هر پیشنهاد؟
49246
من یک سیستم جمع آوری سیگنال دارم. هر 10 ثانیه به مکان های A، B و C می رود و می بیند که آیا فعالیتی وجود دارد یا خیر. سپس جدولی را پر می کند که به شکل زیر است: A B C ------------ 1 0 1 1 1 0 1 0 1 1 0 1 ............ تقریباً وجود دارد 10000 ردیف داده در جدول. حالا می خواهم $P(B,C|A)$ را بفهمم. درک من این است که من در اینجا 8 مورد مانند زیر دارم: $P(B=1,C=1|A=1)$, $P(B=1,C=1|A=0)$, $P (B=1,C=0|A=1)$ و غیره. سؤالات من این است: 1. آیا باید این را به عنوان توزیع دوجمله ای یا توزیع دیریکله مدل کنم. چرا برای این مورد یکی را بر دیگری انتخاب کنید؟ 2. من می دانم که روشی که منطق کدگذاری شده است، B و C تحت تأثیر فعالیت در A هستند. اما اگر C نیز تحت تأثیر فعالیت در B باشد. P(B=1,C=0|A=1)$ برای مثال؟ من تقریباً در این زمینه مبتدی هستم، لطفاً پاسخ خود را توضیح دهید. این سوال از بحث در مورد این سوال قبلی بیرون آمد: ایجاد توزیع احتمال شرطی
ایجاد توزیع احتمال مشروط مشترک
90427
فرض کنید من سعی می کنم یک تابع تولید را به صورت زیر تخمین بزنم: $logY=b_0+b1*logX_1+b_2*logX_2+b_{11}*(logX_1)^2+b_{22}*(logX_2)^2+b_{12} *(logX_1)*(logX_2)+u$، که $Y$ خروجی است، $X_1$، $X_2$ هستند ورودی ها، و برای سادگی، $E(u|X_1، X_2)$ فرض می شود. $b_{ij}$ پارامترهایی هستند که باید تخمین زده شوند. از آنجایی که ورودی‌های ورود و تعامل آن‌ها معمولاً همبستگی بالایی دارند، چند خطی بودن احتمالاً یک مشکل جدی است به این معنا که بسیاری از ضرایب می‌توانند تحت آلفای معمولی ناچیز باشند. برای رفع این مشکل، من روال را دنبال می‌کنم تا متغیرهای کم‌اهمیت را به عقب حذف کنم. با این حال، من مطمئن نیستم که آیا این عمل کاملا مشروع است، به خصوص زمانی که coef. متغیرهای باقی مانده به شدت تغییر می کنند. این به این دلیل است که (اگرچه بدون استدلال قانع کننده) من تمایل دارم تغییرات بزرگ را با تعصب متغیر حذف شده (OVB) در ادبیات اقتصاد سنجی مرتبط کنم (به طور کلی، با حذف یک متغیر متعلق به مدل جمعیت زیربنایی، عبارت خطای جدید می تواند با متغیرهای کمکی همبستگی دارد، بنابراین تخمین ها می توانند مغرضانه باشند). بنابراین سؤالات من در مورد رگرسیون به عقب و OVB عبارتند از: (1) آیا نظریه ای برای شناسایی تغییرات بزرگ در برآوردها وجود دارد؟ آیا افزایش از 0.5 به 0.6 (20٪) می تواند به عنوان یک تغییر بزرگ در نظر گرفته شود؟ در مورد کاهش از 0.5 به 0.1 چطور؟ (2) تا چه حد باید برای محاسبه چنین تغییراتی به برآوردهای نادرست تکیه کنم؟ (3) آیا باید تغییرات بزرگ در تخمین‌ها با استفاده از داده‌های نمونه را با حذف متغیرهای متعلق به مدل جمعیت زیربنایی مرتبط کنم؟ متشکرم
21317
من یک شک اساسی دارم. ببخشید اگر این موضوع باعث آزار تعداد کمی از افراد می شود. من می دانم که مقدار اطلاعات متقابل باید بزرگتر از 0 باشد، اما آیا باید کمتر از 1 باشد؟ آیا با مقدار بالایی محدود می شود؟ ممنون، آمیت
آیا ارزش کسب اطلاعات متقابل می تواند بیشتر از 1 باشد
49243
بسته randomForest R نمی تواند فاکتور با بیش از 32 سطح را کنترل کند. هنگامی که بیش از 32 سطح به آن داده می شود، یک پیام خطا منتشر می کند: > نمی تواند پیش بینی های طبقه بندی شده با بیش از 32 دسته را کنترل کند. اما داده هایی که من دارم چندین عامل دارد. برخی از آنها دارای 1000+ سطح و برخی از آنها دارای 100+ هستند. حتی دارای ایالت ایالات متحده است که 52 است. بنابراین، سوال من اینجاست. 1. چرا چنین محدودیتی وجود دارد؟ randomForest حتی برای یک مورد ساده از اجرا خودداری می کند. > d <- data.frame(x=factor(1:50)، y=1:50) > randomForest(y ~ x، data=d) خطا در randomForest.default(m، y، ...) : می تواند پیش بینی های طبقه بندی شده با بیش از 32 دسته را کنترل نمی کند. اگر صرفاً به دلیل محدودیت حافظه است، چگونه می‌توان ForeestRegressor تصادفی scikit Learn با بیش از 32 سطح اجرا کرد؟ 2. بهترین راه برای رسیدگی به این مشکل چیست؟ فرض کنید من متغیرهای مستقل X1، X2، ...، X50 دارم و Y متغیر وابسته است. و فرض کنید X1، X2 و X3 بیش از 32 سطح دارند. چه کار کنم؟ آنچه من به آن فکر می کنم اجرای الگوریتم خوشه بندی برای هر یک از X1، X2 و X3 است که در آن فاصله به عنوان تفاوت در Y تعریف می شود. من سه خوشه بندی را اجرا می کنم زیرا سه متغیر مشکل ساز وجود دارد. و در هر خوشه‌بندی، ای کاش بتوانم سطوح مشابهی را پیدا کنم. و من آنها را ادغام خواهم کرد. این صدا چگونه است؟
randomForest R نمی تواند بیش از 32 سطح را اداره کند. راه حل چیست؟
22959
آیا شرایطی وجود دارد که $$\text{var}(d_t-f_t)=\text{var}(d_t)+\text{var}(f_t)-\text{cov}(d_t,f_t)$$ بتواند به جای استفاده شود $$\text{var}(dt-ft)=\text{var}(d_t)+\text{var}(f_t)-2\text{cov}(d_t,f_t)$$ که در آن $d_t$ یک بار سری و $f_t$ پیش بینی آن است. متشکرم
واریانس خطای پیش بینی
21311
**سوال:** آیا دستورالعمل های کلی در رابطه با ویژگی های داده ورودی وجود دارد که بتوان از آن برای تصمیم گیری بین اعمال PCA در مقابل LSA/LSI استفاده کرد؟ **خلاصه مختصر PCA در مقابل LSA/LSI:** تجزیه و تحلیل مؤلفه های اصلی (PCA) و تجزیه و تحلیل معنایی پنهان (LSA) یا نمایه سازی معنایی پنهان (LSI) مشابه هستند به این معنا که همه آنها اساساً بر کاربرد تجزیه ارزش منفرد (SVD) به یک ماتریس. LSA و LSI تا جایی که من می توانم بگویم یکسان هستند. LSA با PCA تفاوت اساسی ندارد، اما از نظر روشی که ورودی های ماتریس قبل از اعمال SVD از قبل پردازش می شوند. در LSA، مرحله پیش پردازش معمولاً شامل عادی سازی یک ماتریس شمارش می شود که در آن ستون ها با اسناد و ردیف ها با نوعی کلمه مطابقت دارند. ورودی‌ها را می‌توان به‌عنوان نوعی تعداد (عادی‌سازی‌شده) کلمه‌ای برای سند در نظر گرفت. در PCA مرحله پیش پردازش شامل محاسبه ماتریس کوواریانس از ماتریس اصلی است. ماتریس اصلی از نظر ماهیت «عمومی»تر از مورد LSA است. در مورد PCA، ستون‌ها معمولاً به بردارهای نمونه عمومی اشاره می‌کنند و گفته می‌شود ردیف‌ها به متغیرهای فردی که اندازه‌گیری می‌شوند اشاره می‌کنند. ماتریس کوواریانس طبق تعریف مربع و متقارن است و در واقع نیازی به اعمال SVD نیست، زیرا ماتریس کوواریانس را می توان از طریق قطری تجزیه کرد. قابل ذکر است، ماتریس PCA تقریباً به طور قطع متراکم‌تر از نوع LSA/LSI خواهد بود - ورودی‌های صفر فقط در جایی رخ می‌دهند که کوواریانس بین متغیرها صفر باشد، یعنی جایی که متغیرها مستقل هستند. در نهایت یک نکته توصیفی دیگر که نسبتاً برای تمایز این دو ذکر می‌شود این است که > LSA بهترین زیرفضای خطی را در نرم‌افزار Frobenius جستجو می‌کند، در حالی که هدف PCA > بهترین زیرفضای خطی وابسته است. در هر صورت، تفاوت ها و شباهت های این تکنیک ها به شدت در انجمن های مختلف در سراسر اینترنت مورد بحث قرار گرفته است و واضح است که تفاوت های برجسته ای وجود دارد و واضح است که این دو تکنیک نتایج متفاوتی را به همراه خواهند داشت. بنابراین سؤال خود را تکرار می‌کنم: آیا دستورالعمل‌های کلی در رابطه با ویژگی‌های داده ورودی وجود دارد که بتوان از آن برای تصمیم‌گیری بین اعمال PCA در مقابل LSA/LSI استفاده کرد؟ اگر چیزی شبیه ماتریس سند مدت داشته باشم، آیا LSA/LSI همیشه بهترین انتخاب خواهد بود؟ آیا می توان انتظار داشت که در برخی موارد با تهیه ماتریس term/doc برای LSA/LSI و سپس اعمال PCA در نتیجه، به جای اعمال مستقیم SVD، نتایج بهتری به دست آورید؟
زمان انتخاب PCA در مقابل LSA/LSI
17431
آیا کسی می تواند دیدگاه نظری اعتبار متقاطع K-fold و به ویژه یک فرمول ریاضی برای خطای پیش بینی K-fold CV را توضیح دهد؟ **به روز شده**: آیا یکی از شما می تواند به من کمک کند تا فرمول نوشته شده در آخرین نسخه (فوریه 2011) کتاب در صفحه 242 را درک کنم. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur .com/a9rE0.jpg)
94074
1. بگویید در بای پلات برخی از داده های ترکیبی، من متوجه شدم که پیوندهای $\vec{AB}$ و $\vec{CD}$ تقریباً در 90 درجه قطع می شوند. بنابراین می توانم بگویم که $\log {A\over B}$ و $\log{C\over D}$ تقریباً همبستگی ندارند. سوال این است که ... پس چه؟ کشف این چه فایده ای دارد؟ 2. حالا بگویید در biplot من کشف کردم رئوس E, F, G هم خط هستند. سپس کتاب درسی من می گوید که آنها یک دوقطعه 1 بعدی را تشکیل می دهند. بنابراین دارای تنوع یک بعدی هستند. سوال این است که ... این اصلا به چه معناست؟
درک biplot برای داده های ترکیبی
17439
من یک فرآیند با 15 متغیر موثر دارم. من می توانم 9 متغیر را برای مطالعه تأثیر آن بر فرآیند ثبت کنم. من به دنبال یک عامل مناسب برای تخمین ارزش اثربخشی هر عامل هستم. من معتقدم که مقادیر p، ضرایب استاندارد شده، همبستگی جزئی و R^2$ جزئی راه حل های بالقوه در این زمینه هستند. کدام یک برای اطلاع از میزان اثربخشی هر متغیر در مقیاس 0 تا 100 مفیدتر است؟
56971
من می خواهم میانگین ها را در سه گروه با اندازه های مساوی مقایسه کنم (اندازه نمونه برابر کوچک است، 21). میانگین هر گروه _ are_ معمولاً توزیع شده است، اما واریانس آنها نابرابر است (از طریق Levene آزمایش شده است). آیا تحول بهترین مسیر در این شرایط است؟ آیا ابتدا چیز دیگری را در نظر بگیرم؟
جایگزینی برای واریانس نابرابر ANOVA یک طرفه
56973
من به دنبال راهی برای ادغام دانش قبلی در مورد یک پارامتر در زمینه ای معادل مدل های سلسله مراتبی بیزی هستم. من از پس‌زمینه‌های مکرر می‌آیم و در مدل‌های سلسله مراتبی آشنا نیستم، اما احساس عمیقی دارم که این می‌تواند مشکل من را حل کند. با توجه به $L_1$ مشکل رگرسیون OLS کوچک شده، من فرض می کنم که ضرایب رگرسیون به طور معمول $$ \beta_1 \sim {\mathcal N}(\mu,1)، $$ توزیع می شوند و میانگین آن از یک توزیع نمایی دوگانه (لاپلاسی) $ پیروی می کند. $ \mu \sim {\rm}(\frac{1}{2c} exp{(-\frac{|\mu|}{c}})) $$ حالا، فرض کنید من از مطالعات قبلی می دانم که اندازه اثر مشخصی گزارش شده است. چگونه می توانم آن دانش را در انتخاب پارامتر صحیح $c$ برای توزیع لاپلاسی ادغام کنم؟ هر فکر یا ایده ای؟ من از این در زمینه رگرسیون LASSO استفاده می‌کنم، بنابراین نمی‌دانم چگونه می‌توانم به راحتی یک hyperprior برای $c$ تعیین کنم.
انتخاب یک انقباض بیز از قبل
13326
آیا می توانم از Kolmogorov-Smirnov برای مقایسه دو توزیع تجربی استفاده کنم؟
94076
من سه نمونه مختلف (سه تکرار در هر نمونه) و تعداد زیادی متغیر دارم (1000+) این متغیر به ویژه دارای بزرگترین عدد VIP از یک تصحیح سیگنال متعامد PLS-DA از این سه نمونه مختلف است. معمولاً من اینها را log2 تبدیل می کنم، اما برای این مثال انجام ندادم (به نظر نمی رسد تفاوت زیادی ایجاد کند) A<- c(7.98E8,4.88E8,1.68E8,2.21E7,5.37E7,1.41E7,4.21E8 ,8.03E7,3.67E6) شرط<-factor(c(0,0,0,1,1,1,2,2,2)) متغیر<- data.frame(raw=A,condition=condition) وقتی به معنی واقعاً به نظر می رسند نگاه می کنم متفاوت (مخصوصاً 0 در مقابل 1) تقریباً مرتبه بزرگی است (متغیر$خام، متغیر$شرایط، میانگین) 0 1 2 484666667 29966667 168323333 و باکس نمودار boxplot(variable$raw ~variable$condition) ![box plot](http://i.stack.imgur.com/ZqqOR.png) وقتی تست oneway.test(variable$) را امتحان می کنم raw~variable$condition) داده: متغیر$ خام و متغیر$ شرط F = 2.945، num df = 2000، df = 2.702، p-value = 0.2095، p-value حتی به معنی دار بودن نزدیک نیست. چرا این است؟ آیا این واریانس زیاد، تعداد کم نمونه است؟ شاید چیزی وجود داشته باشد که من در مورد anova نمی فهمم، زیرا به نظر می رسد ابزارها در این نمونه ها واقعاً متفاوت هستند. من بررسی می کنم که داده ها به طور معمول توزیع شده اند، بنابراین یک آزمون پارامتریک معقول به نظر می رسد. شاید آزمایش دیگری وجود داشته باشد که باید از آن استفاده کنم؟
چرا مقدار p-anova در این سری از اعداد قابل توجه نیست
74675
سلام کاربران CrossValidated، من از داده های HCUP NIS برای تعیین اثرات مختلف بر نتایج سلامت با استفاده از نرم افزار SAS استفاده می کنم. می دانم که این یک بررسی پیچیده است و متغیرهای طراحی باید با استفاده از PROC SURVEYlogistic (و غیره) ترکیب شوند. معمولاً ما به جمعیت‌های فرعی علاقه‌مندیم، بنابراین عبارت DOMAIN ضروری است. من همچنین خواندم که HCUP راهی برای ایجاد مقادیر ساختگی برای بیمارستان ها برای دستیابی به خطاهای استاندارد مناسب دارد. در عوض، آیا می توانم وزن های مختلف را بر اساس توزیع های موجود از داده های ملی خارجی در گروه بیماری خاص خود محاسبه کنم؟
13320
پس از انجام برخی مطالعه در مورد فرآیندهای تصادفی برای کار، دریافتم که اثباتی مبنی بر وجود فرآیند خاص اغلب یکی از اولین موارد ارائه شده است. لطفاً کسی می تواند هدف/ضرورت این اثبات را به زبان عامیانه توضیح دهد؟
56972
من روی پروژه ای کار می کنم که شامل محاسبه معیارهای شباهت بین رشته ها است. می خواستم بدانم که آیا می توان از فاصله همینگ روی رشته هایی با طول های متفاوت استفاده کرد و در صورت امکان چگونه این کار را انجام داد. من توضیح گام به گام با سپاسگزاری خواهد بود. با تشکر
فاصله همینگ برای رشته ها با طول های مختلف
38852
یک فرآیند ثابت عمومی عادی را پیدا کنید
22952
من در دنیای آمار کاملاً تازه کار هستم، و فقط در اولین تلاش (موفق) خود برای محاسبه امتیازهای اطلاعات متقابل کار را به پایان رساندم. حال اجازه دهید بگوییم که برای جفت ستون‌های AB، BC، CD و DE من امتیازهای اطلاعاتی متقابل 0.1111، 0،9999، 1.23 و 1.5 دارم. من باید از این مقادیر استفاده کنم تا مشخص کنم کدام یک از جفت های ستون AB، BC، CD و DE به یکدیگر وابسته هستند و کدامیک نیستند. برای انجام این کار، باید حد آستانه را محاسبه کنم. من فرض می کنم که اگر سطح آستانه X باشد، تمام نمرات MI بزرگتر از X به این معنی است که دو ستون به هم مرتبط هستند، در حالی که امتیازات <X به این معنی است که دو ستون به هم مرتبط نیستند. آیا کسی می تواند من را به سمت یک فرآیند محاسبه آستانه مناسب راهنمایی کند؟
چگونه سطح آستانه را برای نمرات اطلاعات متقابل محاسبه کنیم؟
113257
38853
به دنبال سوال من در مورد توبیت با مشخصات DiD، من نمی دانم که آیا می توان یک مدل انتخاب نمونه هکمن را با مشخصات تفاوت در تفاوت ها تخمین زد؟ به عنوان مثال در STATA، با استفاده از دستور heckman چگونه می توانم مشخصات DiD را در معادله انتخاب پیاده سازی کنم و چگونه نتایج خود را تفسیر کنم؟
13329
فاصله پیش بینی برای رگرسیون پشته را محاسبه کنید؟
22957
من دانشجوی کارشناسی هستم و در تحقیقاتم مشکل دارم. اخیراً سرپرست من به من گفت که اگر استفاده از داده های ثانویه نیازی به انجام تست نرمال بودن ندارد، چرا؟ آیا استناد یا تحقیقات قبلی این را ثابت می کند؟
استفاده از داده های ثانویه نیاز به تست نرمال بودن دارد؟
22954
من پروژه ای دارم که در آن مجموعه ای از زمان ها بین یک رویداد خاص به من داده می شود و سپس باید پارامترهای تابع توزیع را با بهترین تناسب با استفاده از R تخمین بزنم، مشابه کاری که EasyFit انجام می دهد. متأسفانه، من نسبتاً با R و آمار به طور کلی تازه کار هستم، بنابراین برای من سخت است که از زمین خارج شوم. من سعی می کنم از بسته fitdistr استفاده کنم اما نمی توانم بفهمم که آیا از عملکردهای عمر خستگی پشتیبانی می کند یا خیر. آیا بسته دیگری وجود دارد که من گم کرده ام که ممکن است بهتر باشد؟ هر کمکی که بتوانید ارائه دهید بسیار قدردانی خواهد شد. ممنون، نیک
برآورد پارامترهای عمر خستگی در R
22951
فرض کنید من داده‌های بقا با بیش از یک ردیف در هر موضوع دارم، زیرا زمان پیگیری هر موضوع را به قطعات تقسیم کرده‌ام (شاید به این دلیل که یک یا چند متغیر با زمان متغیر دارم یا شاید فقط به این دلیل که می‌خواهم یک مدل پواسون را متناسب کنم. با یک خطر غیر ثابت در طول زمان). آیا باید از برآوردگر واریانس / کوواریانس قوی (که برای مثال در Stata با گزینه vce(cluster clustvar) پیاده سازی می شود) استفاده کنم تا در نظر بگیرم که من بیش از یک مشاهده برای هر موضوع دارم (یعنی آنها مستقل نیستند؟ )؟ **ویرایش (15 مارس 2012)**: لامبرت و رویستون در کتاب خود این تحلیل را انجام می دهند: آنها پیگیری هر آزمودنی را در یک مقیاس زمانی تقسیم می کنند (مثلاً سن به دست آمده)[*] و متناسب با رگرسیون پواسون از جمله به دست آمده است. سن به عنوان متغیر وابسته (مدل سازی شده برای مثال با استفاده از اسپلاین) به اضافه افست، به طوری که امکان مدل سازی بروز برخی از بیماری ها با توجه به سن به دست آمده وجود دارد. آنها **از تخمین‌گر واریانس/کوواریانس قوی استفاده نمی‌کنند، اما من در متن هیچ توضیحی در مورد اینکه چرا تک ردیف‌ها (یا _اپیزودها) را می‌توان مستقل در نظر گرفت، نیافتم. **سوال:** کسی می تواند به من توضیح دهد که چرا تک ردیف ها (یا _قسمت های_ ) را می توان مستقل در نظر گرفت؟ [*]برای روشن شدن آنچه انجام شده است، به عنوان مثال شماره موضوع 1001 را در نظر می گیریم. او در «80.00219» سال وارد مطالعه می شود و در «85.037236» سال به بیماری مبتلا می شود (`_d==1`). این اتفاقی است که برای رکورد این موضوع پس از تقسیم آن رخ می دهد. (متغیر افست به صورت `ln(_t- _t0)` تعریف می شود) id _d _t _t0 1001 0 81 80.00219 1001 0 82 81 1001 0 83 82 1001 0 84 83 10018 10014 85.037236 85
ماتریس واریانس/کوواریانس قوی در رگرسیون پواسون
2743
من سعی می کنم d کوهن را محاسبه کنم و سپس آن تخمین ها را در اندازه اثر خلاصه جمع کنم. کسی میتونه کمک کنه؟ (مالکیت نرم افزار Stata یا SPSS).
چگونه از Stata برای ترکیب d کوهن استفاده کنیم؟
2742
چندین بسته آماری مانند SAS، SPSS و R به شما اجازه می‌دهند تا نوعی چرخش عامل را به دنبال PCA انجام دهید. 1. چرا چرخش بعد از PCA ضروری است؟ 2. با توجه به اینکه هدف PCA تولید ابعاد متعامد است، چرا باید یک چرخش مورب بعد از PCA اعمال کنید؟
در مورد استفاده از چرخش مورب پس از PCA
90985
من یک نظرسنجی انجام دادم و فقط 50 پاسخ دریافت کردم. متغیر وابسته من ترتیبی است. متغیرهای مستقل من ترتیبی، ساختگی و پیوسته هستند... برای تجزیه و تحلیل نتایج از چه مدل آماری استفاده کنم؟
تحلیل مبتنی بر پیمایش، حجم نمونه کوچک، متغیر وابسته ترتیبی