_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
97002
|
داشتم یادداشتهای سخنرانی اندرو نگ در مورد یادگیری تقویتی را میخواندم و در صفحه 3 او تابع مقدار را تعریف میکند: $$V^{\pi}(s) = E[R(s_0) + \gamma R(s_1)+\gamma^2 R(s_2) + ... |s_0 = s، \pi]$$ که به معنای کل سود مورد انتظار است، با توجه به اینکه ما از حالت s شروع می کنیم و خط مشی را اجرا می کنیم. $\pi$. با این حال، او در پاورقیهای خود میگوید که این نماد کمی «درخت» است، زیرا او میگوید که $\pi$ از نظر فنی یک متغیر تصادفی نیست (هر چند که نماد نشان میدهد که هر دو $\pi$ و s متغیرهای تصادفی هستند، اگرچه منطقی است که s یک r.v باشد، زیرا ما همیشه نمی دانیم که پس از انجام برخی اقدامات به چه وضعیتی می رسیم. سوال من این است، **چرا $\pi$ یک متغیر تصادفی نیست؟** اگر متغیر تصادفی نیست، این در یک یادگیری تقویتی است که ما فقط به دنبال سیاستی هستیم که بهترین است و توسط آن انتخاب شده است. طبیعت به نوعی؟ آیا به این معنی است که ما اجازه نداریم برخی از اعتقادات قبلی را داشته باشیم که در آن $\pi$ ممکن است درست باشد؟ آیا یادگیری تقویتی یا حداقل، تابع ارزش در اینجا به یک دیدگاه مکرر محدود می شود؟ آیا نماد بهتری برای آن معادله این است: $$V^{\pi}(s) = E[R(s_0) + \گاما R(s_1)+\گاما^2 R(s_2) + ... |s_0 = s; \pi]$$ اینها افکار من تا اینجا بود: $\pi$ تابع خط مشی است، تابعی است که حالتها را به طور قطعی به اقدامات $\pi(s) = a$ نشان می دهد. با این حال، من واقعاً متوجه نشدم که چرا یادگیری تقویتی باید به یک تفسیر مکرر محدود شود. به نظر من منطقی به نظر می رسید که $\pi$ می تواند r.v باشد. و ما در عوض سعی می کنیم سیاست مورد انتظار را بر روی همه سیاست ها یا چیزی در امتداد آن خطوط اجرا کنیم (من سعی نمی کنم این ایده را خیلی دقیق بیان کنم، اما امیدوارم ایده/مفهوم منطقی باشد). آیا این فقط این است که اندرو نگ در حال معرفی مفاهیم یادگیری تقویتی است، چرا که درک آن ممکن است ساده ترین باشد؟
|
آیا تابع خط مشی $\pi$ در یادگیری تقویتی یک متغیر تصادفی است؟
|
23698
| ||
97004
|
من از رگرسیون بردار پشتیبانی چند خروجی (MSVR) استفاده می کنم که چندین خروجی را در یک زمان پیش بینی می کند. من می خواهم بدانم چگونه می توانم ابتدا پارامترها را برای مدل خود انتخاب کنم و سپس چگونه اعتبار سنجی متقاطع را انجام دهم. ورودی «x» 100×78 (100 نمونه، 78 ویژگی) و خروجی «y» 78 بعدی است. لطفا در مورد کد متلب به من کمک کنید.
|
کد متلب اعتبار متقاطع برای رگرسیون چند خروجی
|
19469
|
چگونه می توان نتیجه طبقه بندی غیر انحصاری متقابل را با عوامل مسدود کننده طبقه بندی و پیش بینی کننده به بهترین وجه تجزیه و تحلیل کرد؟
|
|
82328
|
در حال حاضر، من به دنبال روش آماری صحیح (یا مناسب) برای مقایسه 4 مجموعه داده بسیار بزرگ (n = 31 میلیون هر کدام)، که بر اساس آزمایشی است که در آن یک متغیر پیوسته در پاسخ به 4 دمای گسسته مختلف اندازهگیری شده است، هستم. هر مجموعه داده تقریباً میانه یکسانی دارد و میانگین و انحراف استاندارد تفاوت چندانی با هم ندارند. با این حال، هر مجموعه داده به طور معمول توزیع نشده است، و فقط به طور مبهم به صورت منطقی توزیع شده است. من سعی می کنم راهی برای آزمایش این فرضیه صفر تعیین کنم که افزایش دما بر میانگین هر مجموعه داده تأثیر نمی گذارد. آیا فکر می کنم که ANOVA مناسب نیست (و نه هیچ آزمون پارامتری)؟ من به آمار غیر پارامتری Kruskal-Wallis نگاه کردم، اما مطمئن نیستم که آیا این آمار مناسب است یا خیر. بنابراین سؤال من این است که آیا در فرضیات بالا درست هستم؟ و یک روش آماری مناسب برای اثبات فرضیه صفر که در بالا توضیح داده شد، چیست؟
|
مقایسه آماری بین مجموعه داده های بزرگ
|
105917
|
این سوال کمی به استفاده احتمالی در یک رویداد مشتری مرتبط است. در یک رویداد مشتری ما در حال برنامه ریزی هستیم که کاربران بلیط هایی را انتخاب کنند که حاوی یک حرف از الفبای {A,E,L,P} باشد. بلیط پس داده نمی شود و کاربر می تواند هر تعداد بلیط را که می خواهد دریافت کند (خرید) (اما محدودیت هایی وجود خواهد داشت - به عنوان مثال 200 بلیط برای هر کاربر). حداکثر تعداد «n» کاربران درگیر وجود ندارد (اما برای سادهسازی میتوانیم حساب کنیم که «n» = 1000 کاربر خواهد بود). در صورت نیاز به تضمین اینکه حداقل وجود خواهد داشت. برندگان «x» (مثلاً «x» = 20 نفر) که کل کلمه «APPLE» را جمعآوری کردهاند. سوال: من به دنبال معادله ای هستم که چگونه شمارش کنم که چه تعداد بلیط از هر حرف را باید چاپ کنیم. و من می خواهم تعداد بلیط های چاپ شده را به حداقل برسانم. آیا راهی وجود دارد که بتوان تعداد هر حرف را با توجه به متغیرهای x و n و با احتمالات هر حرف - P(A)، P(E)، P(L) شمارش کرد. P(P)؟ من می خواهم این معادله را به عنوان یک مدل به اکسل منتقل کنم. و اصلاحات بیشتر - می تواند یک بلیط جوکر وجود داشته باشد. اگر جوکر دریافت کردید، می توانید از این بلیط به عنوان جایگزین نامه مورد نظر خود استفاده کنید. احتمال دریافت بلیط جوکر باید بسیار کم باشد (به عنوان مثال 1-5٪).
|
استفاده احتمالی در رویداد مشتری (سؤال اصلاح شده)
|
103321
|
اعتبار سنجی متقاطع یکباره
|
|
82320
|
وقتی مجموعهای از دادهها دو جملهای هستند، روشهای زیادی در دسترس من است (فاصله امتیاز ویلسون، فاصله امتیاز ویلسون با تصحیح تداوم، فاصله جفریس، فاصله کلپر-پیرسون، فاصله Agresti-Coull) غیر از روش استاندارد تخمین فاصله والد ( به تخمین فاصله برای یک نسبت دوجمله ای نویسندگان: لارنس دی. براون، تی. تونی کای و انیربان مراجعه کنید. داس گوپتا). با این حال، من نمیتوانم از این روشها برای دادههایی استفاده کنم که به خودی خود متناسب هستند به این معنا که در [0،1] قرار دارند. به عنوان مثال نمونه ای از n پاسخ دهنده را در نظر بگیرید و برای یک سوال X نمره ای به این صورت در نظر بگیرید: r_1 = 0.4 r_2 = 0.3 ... r_n = 0.2 چگونه می توانم فاصله اطمینان را برای میانگین بر اساس این داده ها محاسبه کنم؟ آیا راهی جز بوت استرپ وجود دارد؟
|
تخمین بازه میانگین زمانی که داده ها دو جمله ای نیستند
|
82324
|
بهترین راه برای مقابله با شکل ناشناخته ناهمسانی در سیستم معادلات غیرخطی چیست؟ پیشاپیش ممنون
|
چگونه با ناهمسانی در سیستم معادلات غیرخطی برخورد کنیم؟
|
19460
|
مقدار مورد انتظار بیان شامل متغیرهای تصادفی چند جمله ای و تابع گامی Heaviside متغیرهای مذکور
|
|
2299
|
چه روشهای گستردهای برای کشف تقلب، ناهنجاریها، دروغگویی و غیره در آثار علمی تولید شده توسط شخص ثالث وجود دارد؟ (با ماجرای اخیر مارک هاوزر انگیزه پرسیدن این موضوع را داشتم.) معمولاً برای تقلب در انتخابات و حسابداری، به نوعی از قانون بنفورد اشاره می شود. من مطمئن نیستم که چگونه می توان این مورد را برای مثال مورد مارک هاوزر اعمال کرد، زیرا قانون بنفورد اعداد را ملزم می کند که تقریباً یکسان باشند. به عنوان یک مثال عینی، فرض کنید مقاله ای مقادیر p را برای تعداد زیادی آزمون آماری ذکر کرده است. آیا می توان اینها را به یکنواختی گزارش تبدیل کرد، سپس قانون بنفورد را اعمال کرد؟ به نظر می رسد که در این رویکرد انواع مشکلات وجود داشته باشد (به عنوان مثال، برخی از فرضیه های صفر ممکن است به طور قانونی نادرست باشند، کد آماری ممکن است مقادیر p را ارائه دهد که تقریباً درست هستند، آزمون ها ممکن است فقط p- را ارائه دهند. مقادیری که زیر عدد صفر به صورت مجانبی یکنواخت هستند و غیره)
|
پزشکی قانونی آماری: بنفورد و فراتر از آن
|
2290
|
این در ادامه سؤال اندازه نمونه با اندازههای مکرر است. من در حال برنامه ریزی یک آزمایش اندازه گیری مکرر هستم. ما مصرف انرژی را به مدت 12 ماه ثبت می کنیم، سپس (به طور تصادفی) به نیمی از مشتریان اطلاعات مداوم در مورد مصرف انرژی آنها می دهیم (درمان را انجام می دهند)، و مصرف انرژی آنها را برای 12 ماه دیگر ثبت می کنیم. مطالعه مشابهی که در گذشته انجام شد، کاهش 5 درصدی در مصرف انرژی را نشان داد. من می خواهم اندازه نمونه مورد نیاز را با استفاده از $\alpha=0.05، \beta=0.1$ تخمین بزنم. G*Power 3 ابزاری برای تجزیه و تحلیل توان با اندازه گیری های مکرر دارد. با این حال، به دو ورودی نیاز دارد که من کاملاً با آنها آشنا نیستم: * $\lambda$ - پارامتر غیرمتمرکز (چگونه این را تخمین بزنم؟) * $f$ - اندازه اثر (من معتقدم که این جذر ریشه کوهن است. $f^2$) طبق صفحه اندازه افکت ویکی پدیا: > کوهن $f^2= {R^2_{AB} - R^2_A \ بیش از 1 - R^2_{AB}}$ که در آن $R^2_A$ واریانس > است که توسط مجموعه ای از یک یا چند متغیر مستقل محاسبه می شود $A$, > و $R^2_{AB}$ واریانس ترکیبی است که توسط $A$ و مجموعه دیگری > از یک یا چند متغیر مستقل $B$. با این حال، تغییر 5 درصدی مورد انتظار من در مصرف انرژی به من نمی گوید که چقدر تنوع توضیح داده خواهد شد. آیا راهی برای انجام این تبدیل وجود دارد؟ اگر راهی برای انجام این تحلیل توان در R می شناسید، دوست دارم آن را بشنوم. من قصد دارم برخی از داده ها را شبیه سازی کنم و سعی کنم از lmer از بسته lme4 استفاده کنم.
|
تعیین اندازه اثر برای تجزیه و تحلیل توان با اندازه گیری های مکرر ANOVA
|
57565
|
من در جستجوی کتابهایی در مورد k-means و الگوریتمهای تقسیمبندی خوشهای هستم. من به مزایا و معایب هر دو علاقه مند هستم. این بخشی از پایان نامه کارشناسی من است، من هر دو را اجرا کرده ام و برای ایجاد فهرست ادبیات مورد استفاده خود برای بخش نظری به کتاب نیاز دارم. همچنین آیا کتابی در مورد نفرین ابعاد وجود دارد؟ با تشکر
|
کتاب های الگوریتم های خوشه ای
|
2298
|
این تا حدودی مبهم است، اما فرض کنید یک تابع جعبه سیاه $f(x_1,x_2,\ldots,x_k)$ دارید، که برای آن کد دارید، و به رفتار $f$ علاقه دارید زمانی که $x_i$ باشد. i.i.d. متغیرهای تصادفی استاندارد گاوسی چند راه خوب برای تجسم این تابع چیست؟ برای آسانتر کردن کار، ممکن است فرض کنیم که $k$ کوچک است، مثلاً کمتر از 10. یک رابطه خاص مورد علاقه این است که $f$ چگونه با یکی از ورودیها، مثلاً $x_i$، تغییر میکند. یک راه آسان برای تجسم این رابطه، نمونهبرداری از تابع برای مقادیر ثابت $x_i$ در حالی که ورودی دیگر را تغییر میدهد (مثلاً به صورت ساختاریافته یا تصادفی)، سپس ترسیم جعبه، که میتواند روند میانگین را نشان دهد. تحتتاثیر $x_i$ قرار میگیرد، اما همچنین آیا پراکندگی تحتتاثیر قرار میگیرد (یعنی ناهمگونی). با این حال، تعامل بین $x_i$ و سطوح ورودی دیگر ممکن است توسط این رویکرد پنهان شود. آنچه من به دنبال آن هستم تا حدودی باز است. من فرضیه خاصی ندارم که آن را آزمایش می کنم، بلکه به دنبال راه های جدیدی برای تجسم پاسخ هستم که ممکن است ویژگی های تابع را آشکار کند.
|
تجسم یک تابع چند متغیره
|
2296
|
من علاقه مندم که مدلی شبیه تحلیل عاملی را بر روی بازده دارایی ها یا سایر مدل های متغیر پنهان مشابه به کار ببرم. مقالات خوبی برای خواندن در این زمینه چیست؟ من به ویژه علاقه مندم که چگونه با این واقعیت که یک مدل تحلیل عاملی تحت تغییر علامت برای بارهای عاملی یکسان است، رفتار کنم.
|
مقالاتی در مورد تحلیل عاملی بیزی؟
|
51987
|
من با روش Lewandowski برای پیشبینی تقاضا در JDA Demand برخورد کردم. لطفاً به من کمک کنید تا متدولوژی مورد استفاده آن را در سطح بالایی درک کنم. من مقاله ای از رابرت هایندمن با عنوان یک چارچوب فضای حالت برای پیش بینی خودکار با استفاده از روش های هموارسازی نمایی پیدا کردم و از این روش به عنوان یکی از روش هایی استفاده می کند که الگوریتم خود را در مقاله با آن مقایسه می کنند. در حال حاضر برای ما این یک جعبه سیاه است، ما میخواهیم درک سطح بالایی داشته باشیم تا بتوانیم پارامترهایی را که آنها به عنوان بخشی از نرمافزار ارائه کردهاند بهخوبی تنظیم کنیم. اگر بتوانید نظراتی را در مورد الگوریتم لواندوفسکی به اشتراک بگذارید و به برخی از منابع اشاره کنید که می توانم برای تحقیقات بیشتر از آنها استفاده کنم، عالی خواهد بود.
|
الگوریتم لواندوفسکی پیش بینی تقاضا
|
2294
|
من یک فرآیند مارکوف چهار حالته و گسسته با ماتریس های انتقال وابسته به زمان دارم، به طوری که پس از یک زمان معین T، ماتریس ها ثابت می شوند. ایده این است که افراد در یک برنامه به طرق مختلف برنامه را ترک می کنند. همه از حالت 1 شروع می کنند و حالت های 2، 3 و 4 جذب می شوند، اما حالت 4 نشان دهنده درصد نسبتاً کمی از افرادی است که در سیستم گم شده اند - به عبارت دیگر حالت 4 نشان دهنده ناآگاهی ما از اتفاقاتی است که برای مردم می افتد. یک نتیجه واقعی من میخواهم از یکپارچهسازی استفاده کنم تا آنهایی را که در حالت ۴ هستند با کسانی که در حالت ۱ هستند قرار دهم و این را بهعنوان یک سیستم سه حالته اجرا کنیم، و این را با رویکرد سادهلوحانه اجرای این سیستم بهعنوان یک سیستم چهار حالته و سپس تقسیم آنهایی که مجانبی هستند مقایسه کنم. در حالت 4 به حالت های 2 و 3 با توجه به نسبت نسبی آنها. (به عبارت دیگر، p_2/(p_2 + p_3) از آنهایی که در حالت 4 هستند، پس از اجرای سیستم تا بی نهایت به حالت 2 می روند و برای حالت 3 مشابه است) از برخی خط نویسی های خشن به نظر نمی رسد که این دو روش به نتایج یکسان است، بنابراین خوب است که در مورد خطای مربوطه ایده بگیرید. برای این منظور، سوال من این است: آیا می توانم نکاتی را به ادبیات مربوط به کلوخه کردن زنجیره های مارکوف (یا مرتبط) داشته باشم که - حتی تقریباً - در این مثال اعمال شود؟ یا در غیر این صورت توصیه هایی در مورد نحوه برخورد با این موضوع.
|
برآمدگی در فرآیند مارکوف با حالت های جذبی
|
51981
|
من سعی می کنم پارامترهای سری ARMA(2،1) را از طریق ML تخمین بزنم، اما متأسفانه در راه اندازی Matrix Gamma گیج شده ام. من مقالات زیادی در این رابطه دیدهام، اما به نظر میرسد این یک چیز بدیهی است که در هیچ کجا ذکر یا توصیف نشده است، یعنی: $L(\Gamma, X)= (2\pi)^{-\frac{n }{2}} \det(Γ)^{-\frac{1}{2}} \exp\left({-\frac{1}{2} X´ Γ^{-1} X}\right) $ جایی که X n داده است و $\Gamma$ به شکلی پیچیده به پارامترها بستگی دارد. متشکرم
|
ARMA MLE - راه اندازی ماتریس
|
105147
|
من یک مجموعه داده نامتعادل با 12 کلاس دارم و می خواهم از مجموعه حساس به هزینه برای طبقه بندی استفاده کنم، اما نمی دانم چگونه ماتریس هزینه را برای کلاس ها محاسبه کنم. سوال من: چه هزینه هایی را باید در ماتریس هزینه وارد کنم و چگونه آن را برای متا طبقه بندی کننده حساس به هزینه در WEKA محاسبه کنم؟
|
چگونه می توان ماتریس هزینه را برای متا طبقه بندی کننده حساس به هزینه محاسبه کرد؟
|
51985
|
اگر من علاقه مند به برازش تعاملات دو طرفه بین یک متغیر توضیحی خطی $a$ و یک متغیر توضیحی دیگر $b$ که رابطه درجه دوم با متغیر وابسته $y$ دارد، باید هر دو تعامل را با مولفه درجه دوم لحاظ کنم. و تعامل با مولفه خطی در مدل؟ به عنوان مثال: $$ y\sim a+b+b^2+ab+ab^2 $$ به نوبه خود بر اساس موضوع قبلی من: شرایط انحنا و انتخاب مدل، اگر این یک تحلیل انتخاب مدل با استفاده از «MuMIN» در R باشد، با بسیاری از متغیرهای توضیحی، آیا مدل های خروجی حاوی یک عبارت تعاملی که شامل یک عبارت درجه دوم $a:b^2$ است، تنها در صورتی معتبر خواهد بود که عبارت تعامل با جزء خطی $a:b$ نیز در همان مدل و همچنین $a$، $b$ و $b^2$ به عنوان جلوه های مستقیم وجود داشت؟
|
اصطلاحات برهمکنش ها و چند جمله ای های مرتبه بالاتر
|
88313
|
روش مناسب برای مدل سازی داده های شمارش (زیر پراکنده؟) با تعداد زیادی صفر و دم بلند
|
|
114852
|
من سعی می کنم ارزش باقیمانده بلند مدت یک محصول را فقط با قیمت عرضه پیش بینی کنم. من برخی از دادههای مربوط به یک نوع تلفن را از اینترنت جمعآوری کردهام، و کاملاً واضح است که ارزش باقیمانده (مثلاً قیمتگذاری استفاده شده از eBay و آمازون) یک محصول الکترونیکی استفادهشده (مثلا آیفون) به صورت تصاعدی در حال کاهش است. مانند طرح زیر:  > > par(mfrow=c(3,1)) > x <- 1:100 > y <- exp(-0.03 * x) * (2 + rnorm(100)) > plot(x, y, main=raw data, ylim=c(0, 4)) > plot(diff(y), main=diff, pch=4, ylim=c(-2, 2)) > plot(y ~ as.factor(as.integer(x/10))) > واضح است که مشتق ثابت نیست و همچنین در حال کاهش است. بنابراین من فکر می کنم مدل نمایی ممکن است مناسب باشد. با این حال، یک چیز جالب در اینجا این است که هر چه زمان از انتشار بیشتر میگذرد. دادهها پراکندگی کمتری دارند. به روشی دیگر، زمانی که گوشی برای اولین بار منتشر شد. مردم شروع به فروش تلفن های دست دوم کردند و از آنجایی که ارزش آن بالاترین است، مثلاً 700 دلار. آنها احتمالاً می توانند در صورت تمایل به قیمت 600 دلار یا حتی 300 دلار بفروشند. اما 3 سال بعد، ارزش تلفن بسیار پایینتر است، مثلاً حتی یک تلفن جدید فقط 200 دلار است، سپس وقتی گوشیهای قدیمی را میفروشند، قیمتها احتمالاً در محدوده 100 تا 200 است، یک باند بسیار باریک. در سناریوی من، من بیشتر به مقدار باقیمانده در **_a طولانی مدت، که در باند باریک است، علاقه مند هستم. (b*x)` برای انواع مختلف گوشی... و b جدید را برای گوشی که قرار است بر اساس تمام داده هایی که دارم پیش بینی کنم، پیش بینی کنید. > > PhoneModel b > iPhone3 -0.04 > iPhone4 -0.05 > iPhone5 -0.03 > iPhone6 TBD > 2. یا باید فقط به دوره زمانی که به آن علاقه دارم نگاه کنم. مثلاً 2 تا 3 سال (یا 36 ماه نقطه زمانی) و مدل سازی را در آن محدوده انجام دهید زیرا داده ها بسیار محدود شده اند. برای جلوگیری از پراکندگی داده های 0 تا 2 ساله.. > > PhoneModel residualRatio > iPhone3 20% > iPhone4 25% > iPhone5 30% > iPhone6 TBD > دوباره سعی می کنم ارزش باقیمانده بلندمدت یک محصول را فقط با قیمت عرضه پیش بینی کنم.
|
پیش بینی ارزش باقیمانده برای محصولات الکترونیکی استفاده شده
|
105146
|
من در مورد تنظیم برای تنظیم هایپرپارامترها در جستجوی شبکه ای گیج شده ام. در زیر برای درک من، شبه کد به سبک پایتون آمده است. errors = [] برای fold_training، fold_testing in 10-fold: # Use 10-Fold Grid Search on the fold grid فعلی = GridSearchCV(fold_training, fold_testing, cv=10) error.append( grid.error_of_best() ) # افزودن خطا به چاپ آرایه امتیاز اعتبار متقاطع، error.average() است این عمل مناسب برای اعتبارسنجی متقابل تودرتو؟ این 100 مدل را آموزش می دهد. در نهایت، چگونه پارامترهای بهینه را از اعتبارسنجی متقابل تودرتو به دست آوریم؟ آیا باید از هر 100 مدل از بالاترین امتیاز استفاده کنیم؟ من در این مورد کاملا گیج هستم.
|
سوال در رابطه با اعتبارسنجی متقاطع تودرتو
|
15408
|
با توجه به اینکه من 4 بانک (بانک الف، ب، ج و د) دارم و داده ها (ارزش سهام) از سال 1377 تا کنون است. در سال 2002، بانک A بانک C را تصاحب کرد. در سال 2005، بانک A بانک D را تصاحب کرد. تا زمانی که در حال حاضر تنها 1 بانک (A) باقی مانده است. من می خواهم آزمایش کنم که آیا هر ادغام (از نظر بانک A) موثر بوده است یا خیر. من با 2 استاد مشورت کردم و یکی بررسی تغییرات ساختاری (و مشاهده تغییر در سطح و نوسانات) را در حالی که دیگری تحلیل مداخله را توصیه کرد. من گیج شدم از کدام یک استفاده کنم. به نظر شما کدام یک مناسب تر است؟ پیشاپیش ممنون :)
|
اثر جذب بانک
|
105149
|
در برخی از مسائل طبقه بندی دودویی، من فرض می کنم که احتمال مثبت دقیقاً به طور خطی به ویژگی های $P(y=1|x_1,x_2,x_3,\ldots)=\beta_1x_1+\beta_2x_2+\beta_3x_3+\cdots$ بستگی دارد. اکنون برای آموزش، من فقط تحقق 0 یا 1 را برای $y$ مشاهده می کنم. بنابراین این احتمال به طور مستقیم قابل مشاهده نیست، بلکه ترجیحاً مقداری چگالی محلی است (که تخمین آن برای ابعاد بالا دشوار است). آیا نوعی رگرسیون وجود دارد که بتواند ضرایب $\beta_i$ را تعیین کند؟ من می توانم رگرسیون معمولی را امتحان کنم، اما واضح به نظر نمی رسد که هر تابع ضرر بتواند به همان $\beta_i$ همگرا شود. چه نوع عملکرد تنظیم و از دست دادن مناسبتر است؟
|
چگونه می توان مدل احتمال خطی را برای طبقه بندی باینری بازیابی کرد؟
|
73546
|
فرض کنید یک کامپیوتر معمولی تولید شده توسط یک شرکت 10 ماه دوام می آورد و انحراف استاندارد 50 روز است. عمر کامپیوتر از توزیع نرمال پیروی می کند. احتمال اینکه یک کامپیوتر ساخت این شرکت حداکثر 1 سال دوام بیاورد چقدر است؟ فرض بر این است که یک ماه 30 روز دارد. میشه توضیح بدید چطوری محاسبه میشه؟ با تشکر
|
محاسبه احتمال
|
10910
|
من یک مقیاس 37 سوالی دارم که هر ماده به یکی از چهار مقیاس تعلق دارد. آیتم های هر مقیاس در هم قرار گرفته اند. چگونه می توانم نمره مقیاس را برای هر یک از چهار مقیاس محاسبه کنم؟ من باید بتوانم هر خرده مقیاس را به طور مستقل تجزیه و تحلیل کنم و سپس پاسخ های مقیاس را بر روی متغیر مستقل و متغیرهای مستقل مقایسه کنم.
|
چگونه می توانم زیرمقیاس ها را بر اساس مجموعه ای از آیتم ها در SPSS ایجاد کنم؟
|
114851
|
من یک مشکل طبقه بندی بسیار کاربردی دارم که برای آن به کمک نیاز دارم. من یک پایگاه داده از کاربران به همراه فعالیت / لایک آنها برای تعدادی از مدل های ماشین دارم. من همچنین دسته بندی هر یک از این مدل های خودرو را دارم (به عنوان مثال اسپرت، کوپه، خانوادگی و غیره). در نهایت، من میخواهم یک یا چند دسته از این دستهها را بر اساس فعالیت کلی آنها به کاربران اختصاص دهم یا نه. کاری که من تاکنون انجام دادهام این است: 1) شمارش «لایکهای» هر کاربر در هر دسته، 2) یافتن میانگین و انحراف استاندارد «لایکها» برای هر دسته با در نظر گرفتن همه کاربران با هم، و 3) انجام نوعی طبقهبندی با استفاده از قانون ساده زیر: اگر تعداد لایکهای کاربر X برای دسته Y بزرگتر از میانگین + 2 انحراف استاندارد از لایکهای مربوط به کل جمعیت باشد، دسته Y را به کاربر X اختصاص دهید در غیر این صورت هیچ کاری انجام ندهید. سؤالات من این است: الف) آیا فرآیند فوق منطقی است و 2) آیا باید به نحوی تعداد کل لایکهای هر کاربر و همچنین تعداد کل مدل های ماشین هر دسته را در نظر بگیرم - به عبارت دیگر برخی از آنها را انجام دهم. نوعی عادی سازی داده ها - یا این به نوعی قبلاً در فرآیند ذکر شده گنجانده شده است؟
|
ویژگی ها / دسته بندی ها را بر اساس فعالیت / پسند کاربران به آنها اختصاص دهید
|
39071
|
من در یافتن معیار شباهت مناسب برای خوشه بندی مشکل دارم. من حدود 3000 آرایه مجموعه دارم که در آن هر مجموعه دارای ویژگی های دامنه خاصی است (به عنوان مثال، عدد، رنگ، روز، حروف الفبا و غیره). من مشکلم را با یک مثال توضیح می دهم. فرض کنید من فقط 2 آرایه (a1 و a2) دارم و می خواهم شباهت بین آنها را پیدا کنم. هر آرایه شامل 4 مجموعه است (در مشکل واقعی من 250 مجموعه (دامنه) در هر آرایه وجود دارد) و یک مجموعه می تواند خالی باشد. a1: {a،b}، {1،4،6}، {دوشنبه، سه شنبه، چهارشنبه}، {قرمز، آبی، سبز} a2: {b،c}، {2،4،6}، {}، {آبی، سیاه} من با استفاده از شاخص ژاکارد (که با J نشان داده می شود) یک معیار تشابه آورده ام: sim(a1,a2) = [J(a1[0], a2[0]) + J(a1[1], a2[1]) + ... + J(a1[3], a2[3])]/4 نکته: من بر تعداد کل مجموعه ها (در مثال بالا 4) تقسیم می کنم تا شباهت بین 0 و 1 حفظ شود. آیا این یک معیار مشابهت مناسب است و آیا نقصی در این رویکرد وجود دارد. من شاخص ژاکارد را برای هر مجموعه به طور جداگانه اعمال می کنم زیرا می خواهم شباهت بین دامنه های مرتبط را مقایسه کنم (یعنی رنگ با رنگ و غیره...) من از هیچ معیار مشابه دیگری برای مشکل خود آگاه نیستم. علاوه بر این، «آیا می توانم از این معیار تشابه برای هدف خوشه بندی استفاده کنم؟».
| |
10918
|
من سعی می کنم یک تجزیه و تحلیل تفکیک مخلوط برای یک data.frame با اندازه متوسط انجام دهم و به مشکلی برخوردم: همه پیش بینی های من NA هستند. پس از ردیابی کدهای بیش از حد، متوجه شدم که ربطی به این واقعیت دارد که برخی از ضرایب موجود در mda NA هستند. من یک data.frame کوچکتر ایجاد کرده ام که هنوز مشکل دارد: dfr<-structure(list(min_GCs_last_3_bases = structure(c(1L, 2L, 1L, 1L, 2L, 1L, 2L, 1L, 2L, 2L, 1L, 1 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 2L، 1L)، .Label = c(صفر، یک)، کلاس = عامل)، cq = c(-0.334138707578632، -0.586150643906373، -0.474578712720667، -0.474578712720667، -0.23، -0.23 -0.486876877353103، -0.0912154554410563، 0.00341593805213764، 0.713424582672338، -0.44891465223826، -0.448914652237624 -0.0954835698859817، -0.238125375419562، -0.448914652233824، -0.0290299100261503، -0.4796666888819125615، -0.479666688819125616 - -0.0919665779183363، -0.394427887135795، -0.396749521580081، -0.338156015653477)، پوشش = ساختار(c(2L, 2L,2L,2L,2L,2L, 2L، 2L، 2L، 2L، 2L، 2L، 2L، 2L، 1L، 1L، 2L، 2L)، .Label = c(شکست، موفقیت)، کلاس = عامل))، .Names = c(min_GCs_last_3_bases، cq، Coverage)، class = data.frame، row.names = c(SMURF2_16_1، MI0000437، SMAD6_4_1، SMAD2_8_1، MI0003561، SKP1_6_1، MI0003556، LTBP1_19_1، MI0006، MI000630 TGFBR1_6_1، MI0000772_1، MI0003176، MI0005758، MI0003639، MI0003641، CUL1_5_1، APC_3_1، MI0005769، KPNB، وقتی دادهها را دوست دارم استفاده میکنم)_1. (بعد از بارگیری بسته mda): mda(Coverage~.,data=dfr,subclasses=2)$fit$coef این نتیجه را دریافت می کنم: [,1] [,2] Intercept -0.90574883 -0.42382446 min_GCs_last_3_baseszero 1.8069.585 min_GCs_last_3_basesone -0.02302343 0.04884007 cq NA NA چیزی که من را در این مورد آزار می دهد این است: * چرا ضرایبی برای هر دو مقدار ضریب min_GCs_last_3_bases وجود دارد؟ * چرا ضرایب cq NA هستند؟ من حاضرم فرض کنم که من کاملاً اشتباه متوجه شده ام. میشه لطفا یکی منو روشن کنه؟ یا من فقط به یک باگ برخورد کردم؟ (توجه: من سعی کردم اگر نام ستون ها تأثیر داشته باشد: آنها تأثیری ندارند)
|
مشکل با تجزیه و تحلیل تفکیک مخلوط در R بازگشت NA برای پیش بینی
|
93866
|
اجازه دهید $\mathbf{y_1} =\begin{bmatrix}g_1x_1 & g_2x_1 & \dots & g_Nx_1 \end{bmatrix}$ and $\mathbf{y_2} = \begin{bmatrix} f_1x_2 & f_2x_2 & \x___ {bmatrix}$. همه عناصر $\mathbf{g}=\begin{bmatrix} g_1&g_2 &\dots &g_N\end{bmatrix}$ and $\mathbf{f}= \begin{bmatrix} f_1 & f_2 & \dots f_N\end{ bmatrix}$ از یک توزیع رایلی گرفته می شود. $x_1$ و $x_2$ به طور تصادفی از مجموعه $\\{-1,1\\}$ با احتمال مساوی گرفته می شوند، یعنی $x_1$ می تواند $1$ یا $-1$ با احتمال $0.5$ باشد. چهار ترکیب برای $(x_1، x_2)$ وجود دارد: $(1،1)، (1،-1)، (-1،1)، (-1،-1)$ که منجر به چهار ترکیب برای $ می شود. (\mathbf{y_1}، \mathbf{y_2})$ نیز. با در نظر گرفتن همه ترکیب ها، چگونه می توانم میانگین $\it{حداقل}$ فاصله اقلیدسی بین بردارهای $\mathbf{y_1}$ و $\mathbf{y_2}$ را پیدا کنم؟
|
میانگین حداقل فاصله بین دو بردار تصادفی
|
39076
|
روشهای چند متغیره چقدر در برابر نقض نرمال قوی هستند؟
|
|
93860
|
من مجموعه داده بزرگی از نقاط سه بعدی (مختصات XYZ) دارم و میخواهم خوشهبندی سلسله مراتبی را با استفاده از روش پیوند کامل با فاصله اقلیدسی به عنوان متریک خوشهبندی انجام دهم. علاوه بر این، دو محدودیت برای فرآیند خوشه بندی وجود دارد: محدودیت اول - حداکثر فاصله بین نقاط در همان خوشه باید کمتر از مقدار مشخص شده باشد (در این مورد 25)، چه چیزی اندازه خوشه ها را کنترل می کند. ایده محدودیت دوم. استفاده از یک آستانه برای تعیین اینکه آیا گروه بندی حاشیه ای نقاط به عنوان خوشه شناسایی می شود یا خیر. روند خوشه بندی باید تا زمانی ادامه یابد که هیچ خوشه جدیدی قابل شناسایی نباشد - زمانی که دیگر جمعیتی از نقاط بدون خوشه بزرگتر از مقدار آستانه در حجم فضایی کمتر از حداکثر فاصله از محدودیت 1 وجود ندارد. من می خواهم عدد را در محدودیت دوم تغییر دهم تا راه حلی بیابم که در آن 75٪ تا 90٪ از تمام نقاط ورودی خوشه ای هستند. آیا کسی می تواند به من در حل این مشکل کمک کند و به من پیشنهاد دهد که از چه زبان / نرم افزاری استفاده کنم؟ هر گونه راهنمایی بسیار قدردانی خواهد شد.
|
خوشه بندی کامل پیوند مختصات فضای داده سه بعدی
|
39075
|
من اشیاء سری زمانی $300$ دارم که ستون های $300$ ماتریس $X$ را تشکیل می دهند. این ماتریس دارای ردیفهای $5$ است و اطلاعات سری زمانی $5$ را برای هر ستون $300$ نشان میدهد. من یک ماتریس 300$\textrm{x}5$ از مقادیر باینری تنظیم کردم. بنابراین ردیف اول ممکن است چیزی شبیه به $(1 1 0 0 1)$ باشد، که به این معنی است که ستون $1$ از $X$ دارای عناصر منفی در ردیفهای 1، 2 و 5 است (مدلسازی شده بر اساس دسته $1$)، و عناصر مثبت در ردیف های 3 و 4 (مدل سازی شده بر اساس دسته $0$). من متغیرهای پیشبینیکننده $8$ دارم که به خوبی توضیح میدهد که آیا عناصر منفی بیشتری در اوایل وجود دارد (یعنی اگر چیزی شبیه $(1 0 0 0)$ را مشاهده کنیم یا خیر، در مقابل اینکه آیا بعداً عناصر منفی بیشتری وجود دارد (یعنی چیزی شبیه به آن را مشاهده میکنیم یا خیر. $(0 0 0 1 1)$). چگونه این را مدل کنم؟ دانش من به اندازه کافی گسترده نیست که بدانم آیا چارچوب آماری وجود دارد که بتوانم از این ماتریس به عنوان پاسخ خود استفاده کنم: $ Y = \left( \begin{array}{cccc} 1 & 1 & 0 & 0 & 1 \\\ 1 & 0 & 1 & 0 \\\ 0 & 0 & 1 \\\ & . \\\ \end{array} \right) $ با استفاده از این میخواهم کاری انجام دهم: $\mathbf{Y} = a + \mathbf{B}\mathbf{Z}$ (میدانم که این درست نیست مشخصات logit/probit، اما من فکر می کنم برای برقراری ارتباط با آنچه می خواهم خوب است). سپس تفسیر ایده آل برخی از ضریب $b_i \in \mathbf{B}$ خواهد بود. اگر منفی باشد، اگر پیشبینیکننده مرتبط $x_i \in \mathbf{Z}$ بزرگتر باشد، شانس دیدن چیزی شبیه $(11000)$ را به جای چیزی شبیه $(00011)$ افزایش دادهایم.
| |
70349
|
من از مجموعه تست تصادفی NIST استفاده می کنم که بررسی می کند آیا یک توالی بیت تصادفی در 15 تست مختلف است. من در تأیید اینکه آیا این مجموعه خوب کار می کند مشکل دارم. وضعیت به این صورت است که اگر من مثلاً 10000 دنباله با طول یکسان (مثلاً 1000) را وارد کنم و توسط تابع «rand» متلب تولید شده باشد، گاهی اوقات تستهای پایهای که من استفاده میکنم، یعنی فرکانس، اجرا، فرکانس بلوک، مبالغ تجمعی با این حال، گاهی اوقات در آزمون فرکانس پایه و آزمون مجموع تجمعی از نظر p-value از p-value شکست می خورد اما از نظر نسبت نمی تواند. دو تا سوال دارم نکته کلی این است که چگونه می توانم بیت های تصادفی توزیع شده یکنواخت را از متلب تولید کنم؟ مورد دوم این است که چرا مشکل ذکر شده در بالا در مجموعه تصادفی NIST رخ می دهد، آیا کسی می تواند به من کمک کند تا بررسی کنم که آیا خوب کار می کند؟ برای سند مرجع: http://csrc.nist.gov/groups/ST/toolkit/rng/documents/SP800-22rev1a.pdf
|
تست تصادفی NIST در بیت های تصادفی تولید شده با شکست مواجه می شود
|
57001
|
برای دانشگاه باید 3 نوع سرطان را طبقه بندی کنیم و تخمینی از عملکرد مدلمان ارائه دهیم. ما یک مجموعه داده با 100 نمونه دریافت کردیم. ما داده ها را با استفاده از نمونه گیری طبقه ای با نسبت 0.3 و 0.7 به یک مجموعه آموزشی و آزمایشی تقسیم کردیم. مجموعه آموزشی حاصل از 69 نمونه و مجموعه آزمون از 31 نمونه تشکیل شده است. ما از اعتبارسنجی متقاطع 10 برابری برای محاسبه دقت مدلهای خود استفاده کردیم. هنگام اعمال یک مدل مشابه در مجموعه تست برای اکثر مدل ها، دقت در مجموعه تست بین 10-15٪ بدتر از اعتبارسنجی متقاطع در مجموعه آموزشی است، به جز یک مدل که دقت در مجموعه تست 2٪ بهتر از در طول اعتبارسنجی متقابل مشکلی که اکنون داریم این است که دو مدل بهترین امتیازدهی در اعتبارسنجی متقاطع تفاوت قابل توجهی ندارند، یکی دارای دقت 88.57% +/- 12.45%، دیگری دقت 88.00% +/- 7.92%. با این حال، در آزمون نمره اول 76٪ و نمره دوم 90٪ است. اگر به درستی متوجه شده باشیم، نمیتوانیم بر اساس نتایج مجموعه تست، مدل دوم را به عنوان بهترین مدل انتخاب کنیم، زیرا در این صورت از مجموعه تست به عنوان مجموعه آموزشی استفاده میکنیم. در عوض، ما میخواهیم از اعتبارسنجی متقاطع مکرر برای بهبود اعتماد به نفس من در نتایج اعتبارسنجی متقاطع استفاده کنیم و در نتیجه امیدوارم بتوانم بهترین مدل را انتخاب کنم. با مجموعه داده کوچکی که داریم، اگر اعتبارسنجی متقاطع مکرر انجام دهیم و میانگین را در نظر بگیریم، آیا با این مشکل مواجه میشویم که همان فولدها چندین بار استفاده میشوند؟
|
آیا می توانم اعتبار سنجی متقاطع را با یک مجموعه داده کوچک تکرار کنم، و/یا چگونه می توانم اطمینان اعتبار متقاطع خود را بهبود بخشم؟
|
39
|
من به دنبال راه حل های کار شده با استفاده از تجزیه و تحلیل بیزی و/یا لاجیت شبیه به کتاب کار یا سالنامه هستم. مشکلات حل شده می تواند از هر زمینه ای باشد. با این حال، من به رشته های مرتبط با برنامه ریزی شهری / حمل و نقل علاقه مند هستم.
|
نمونه مشکلات مدلسازی لاجیت و روشهای بیزی
|
70348
|
من در حال بررسی چند سؤال تمرین امتحانی دیگر برای کلاس آمارم هستم - این سؤال کامل است، دو بخش دارد: > اجازه دهید $X$ یک متغیر تصادفی پیوسته با چگالی احتمال شناخته شده باشد > تابع (pdf) $f_X(x)$ برای $-\infty < x < \infty$ و اجازه دهید $M_X(p)=E(e^{pX}) > $ تابع ارزش واقعی $p باشد.$ > > (a) بنویسید $M_X(p)$ را به عنوان یک انتگرال شامل pdf $f_X(x)$ و > $e^{pX} پایین بیاورید.$ > > (b) نشان دهید که $E(x)=M'_X(0)$، جایی که $M'_X(p)=\frac{dM_X(p)}{dp}.$ چیزی که من تاکنون داشتهام در اینجا آمده است: (i) از تعریف بسیار ساده به نظر میرسد. $E(g(x))$. من فقط دارم: $$E(e^{pX}) = \int^{p}_{-\infty}e^{pX}f_X(x) dx.$$ (b) برای قسمت b، من یک کمی گیر کرده از (a)، من آن $$M'_X(p)=\frac{d}{dp} M_X(p)=\frac{d}{dp}E(e^{pX})=\frac{ دارم d}{dp}\int^{p}_{-\infty}e^{pX}f_X(x) dx.$$ آیا قضیه ای مشابه قضیه اساسی حساب دیفرانسیل و انتگرال برای گرفتن مشتق وجود دارد؟ از یک انتگرال نامناسب؟ روشی که من سعی کردم این را ارزیابی کنم این است: $$\frac{d}{dp}\left( \lim_{b \to -\infty}\int^{p}_{b}e^{pX}f_X( x) dx\right).$$ حالا من کمی گیر کردم. من می دانم که تعریف $E(x) = \int^{\infty}_{-\infty}xf_X(x)dx$، اما وقتی سعی می کنم انتگرال نامناسب بالا را ادغام کنم، فکر نمی کنم که به این نتیجه رسیده باشم. در هر جایی جز پیچیده تر کردن آن. آیا من حتی در مسیر درست هستم؟ احساس می کنم دارم آن را پیچیده تر از آنچه که قرار است می سازم. هر گونه کمکی بسیار قدردانی خواهد شد!
|
نشان دهید که $E(x)=M'_X(0)$، جایی که $M'_X(p)=\frac{dM_X(p)}{dp}$
|
17276
|
در تلاشم برای یادگیری پیش بینی و بهبود دانش آماری خود، تصمیم گرفتم جمعیت یک منطقه خاص را پیش بینی کنم. من فایل اکسلی را که استفاده کردم پیوست کردم. من می دانم که از اکسل استفاده می کنم که در اینجا زیاد رایج نیست. من با R آشنا هستم اما اکسل را برای تجزیه و تحلیل سریع مانند این ترجیح می دهم. دادههای جمعآوریشده برای سالهای 1921 تا 2009 است. دوره پیشبینی بین سالهای 2010 و 2019 است. در 10 سال گذشته * مدل نصب شده با استفاده از نرم افزار Eureqa * میانگین مدل های فوق بدون خطی کلی رگرسیون کاربرگ پیش بینی شامل تمام داده های خام است، در حالی که کاربرگ ساده شده پیش بینی شامل نمودار ساده شده برای مشاهده بهتر نتایج است. این سوال، چه روش هایی وجود دارد که می توانم پیش بینی ها، اعداد، مفروضات خود را اعتبار و/یا کالیبره کنم و تجزیه و تحلیل خود را از سطح آماتور به چیزی حرفه ای تر بهبود بخشم. با تشکر از فایل اکسل
|
مقایسه دادههای جفت مدلسازی شده (برازش) با دادههای واقعی در مسئله پیشبینی (صفحه اکسل شامل)
|
16426
|
من اخیراً در تلاش برای ساختن یک درخت حداقل پوشا اقلیدسی بوده ام. با این حال، آیا اصلاً می توان درختان را روی فلس ترسیم کرد یا همیشه باید بدون رسوب باشند؟ متشکرم
|
درخت پوشای حداقل اقلیدسی در R
|
87030
|
برای درک یک آنووا 3 طرفه با 2 فاکتور ثابت و 1 عامل تصادفی به کمک نیاز دارم. من در حال تجزیه و تحلیل آزمایشی هستم که به بررسی تأثیر رژیم غذایی بر میزان تغذیه در حلزون ها می پردازد. دو عامل ثابت عبارتند از رژیم غذایی (2 سطح) و گیاهخوار (2 سطح حلزون وجود دارد، حلزون وجود ندارد). آزمایش سه بار تکرار شد و در هر آزمایش فاکتورهای ثابت به طور کامل تلاقی و 3 بار تکرار شد. من می خواهم آزمایش (3 سطح) را به عنوان یک عامل تصادفی تجزیه و تحلیل کنم. دادههای من این است: > کانتینر رژیم آزمایشی nochoiceb3 Herbivore lmg.day 1 1 22 1 snails 6.513823 2 1 22 2 snails 6.282641 3 1 22 3 snails 6.041 6.041 کنترل 5.132263 5 1 22 5 control 3.407842 6 1 22 6 control 4.987708 7 1 10 7 snails 3.632309 8 1 10 8 snails 4.301310s 4.301310s 4.301310s 94. 10 1 10 10 کنترل 4.295924 11 1 10 11 کنترل 2.433613 12 1 10 12 کنترل 3.015535 13 2 22 2 حلزون ها 4.646312 14 2 270612 22 17 حلزون 4.888844 16 2 22 1 كنترل 5.129899 17 2 22 6 كنترل 4.284965 18 2 22 13 كنترل 4.237001 19 2 10 3 23018 19 2 10 3 23018 حلزون 4.133565 21 2 10 19 حلزون 4.130355 22 2 10 4 کنترل 2.415914 23 2 10 7 کنترل 2.219203 24 2 10 14 کنترل 2.829 2.824 5.906451 26 3 22 11 snails 5.558371 27 3 22 18 snails 5.015954 28 3 22 5 control 4.284965 29 3 22 12 control 4.671 4.371976 31 3 10 3 snails 3.775057 32 3 10 15 snails 4.028917 33 3 10 23 snails 4.433195 34 3 10 3 10 15 control 1. 2.797281 36 3 10 16 control 3.427515 همانطور که متوجه شدم، شامل یک عامل تصادفی، تقسیم بندی خطا را در یک anova تغییر می دهد، و سپس نسبت F باید بر اساس عبارت خطای صحیح محاسبه شود. در این مورد، نسبت F برای عوامل ثابت باید نسبت مجذورات میانگین عامل ثابت به مجذورات میانگین ضریب ثابت: برهمکنش عامل تصادفی باشد. مثال برای رژیم غذایی F = رژیم غذایی میانگین مربعات / رژیم غذایی میانگین مربعات: آزمایشی من مدل زیر را اجرا کردم: > model2.1<-aov(lmg.day~Diet*Herbivore+Error(Trial), data=nochoiceb3) و این نتایج را دریافت کردم: خطا : آزمایشی Df مجموع مربع میانگین مربع F مقدار Pr(>F) باقیمانده 2 1.543 0.7717 خطا: در Df Sum Sq Mean Sq F value Pr(>F) Diet 1 22.283 22.283 75.268 1.12e-09 *** Herbivore 1 12.686 12.686 42.853 3.06e-07 *** Diet1.09.09. 0.324 0.573 Residuals 30 8.881 0.296 من میخواستم نتایج را با محاسبه نسبتهای F خودم بررسی کنم، بنابراین یک آنوای سه طرفه با آزمایش به عنوان یک عامل ثابت برای ایجاد مجموع مربعها برای برهمکنشها اجرا کردم: model2.2<-aov( lmg.day ~ رژیم غذایی * گیاهخوار * آزمایشی، data=nochoiceb3) Df Sum Sq Mean Sq F value Pr(>F) Diet 1 22.283 22.283 78.350 5.03e-09 *** Herbivore 1 12.686 12.686 44.607 6.58e 44.607 6.58e *** 7.28 22.283-0 2.713 0.0866. رژیم غذایی:گیاهخوار 1 0.096 0.096 0.338 0.5666 رژیم غذایی: آزمایشی 2 0.135 0.067 0.237 0.7909 گیاهخوار: آزمایشی 2 0.111 0.056 0.196 0.1950 1.810 0.905 3.181 0.0595 . Residuals 24 6.826 0.284 نسبت f ارائه شده توسط مدل مختلط با محاسبه نسبت f بر اساس تقسیم میانگین مربعات بر خطای صحیح یکسان نیست (مثلاً برای رژیم غذایی F = میانگین مربعات رژیم غذایی / میانگین مربعات رژیم غذایی: آزمایشی) اما در عوض از باقیمانده ها به عنوان عبارت خطا استفاده می شود. من نمی دانم از اینجا به کجا بروم. بنابراین: چرا این تفاوت اتفاق می افتد؟ آیا کاری که r انجام می دهد صحیح است یا این بدان معنی است که مدل ترکیبی من اشتباه است؟ چگونه می توانم اطمینان حاصل کنم که از نحو مناسب برای مدل خود در R استفاده می کنم؟ با تشکر برای هر گونه کمک!
| |
107702
|
من سعی می کنم سری های زمانی چند متغیره را با استفاده از R یاد بگیرم. من دو سری زمانی دارم و می خواهم ببینم آیا می توانم از یکی از آنها برای پیش بینی دیگری استفاده کنم و بعد از آن بررسی کنم که آیا مدل برقرار است یا بین هر دو متغیر رابطه وجود ندارد. . آیا کسی مثالی دارد که بتوانم برای درک این مفهوم از آن استفاده کنم؟ با تشکر و احترام
|
سری زمانی چند متغیره
|
61943
|
من دو مجموعه داده سری زمانی برای 36 ماه دارم. این شامل روندهای فصلی با چرخه 12 ماهه است. 1. چگونه تشخیص دهیم که آیا مدل خوبی است؟ هرچه AIC کوچکتر باشد، مدل بهتر است؟ 2. آیا باید قبل از استفاده از auto.arima تغییری انجام دهم؟ همانطور که در گوگل متوجه شدم که auto.arima قبلاً با روندهای فصلی سروکار داشته است. 3. اگر باقیمانده های پیش بینی از $\mathcal N(0,1)$ پیروی نمی کنند، نیاز به مدل سازی مجدد دارم؟ 4. آیا برای انجام پیش بینی به داده های بیشتری نیاز دارم؟ (در حال حاضر تنها 3 مجموعه داده برای انجام پیش بینی، به دلیل روندهای فصلی). با تشکر
|
برازش مدل های سری زمانی
|
13251
|
با توجه به یک متغیر $X \sim N(\mu, \Sigma)$ چگالی $X$ با توجه به $HX = d$, $H$ و $d$ هر دو ثابت است یعنی چقدر است. ما X$ را با عملگر خطی $H$ با کمبود رتبه مشاهده می کنیم و مقداری $d$ به دست می آوریم. با توجه به این دانش، چگونه دانش/توزیع X$ خود را به روز کنیم؟ این تنها یکی از مراحل فیلتر کالمن است. من در جدا کردن آن مشکل دارم در حالت ایدهآل، پاسخ میتواند فرمهای تحلیلی برای $\mu$ و $\Sigma$ پس از بهروزرسانی بهعلاوه یک منطق/اشتقاق یا پیوند به چنین اشتقاقی باشد.
|
چگالی شرایط خطی داده شده نرمال چند متغیره
|
60094
|
آیا شیب و برش یک مدل رگرسیون خطی ساده همیشه به طور نرمال توزیع می شود؟ آیا تا به حال تفاوتی بین توزیع شیب و بریدگی تخمین زده شده با شیب واقعی وجود دارد؟ من تازه شروع به یادگیری در مورد این موضوع کرده ام اما هنوز در مورد جزئیات روشن نیستم. سوال آخر: آیا روش حداقل مربعات مانند رگرسیون خطی است که اطلاعاتی مانند $R^2$ را ارائه می دهد؟ با تشکر
|
سوال پارامترهای رگرسیون خطی
|
105627
|
تابع پایه R glm() از Fishers Scoring برای MLE استفاده می کند، در حالی که glmnet از روش نزول مختصات برای حل همان معادله استفاده می کند؟ نزول مختصات کارآمدتر از امتیازدهی فیشر است زیرا امتیازدهی فیشر ماتریس مشتق مرتبه دوم و برخی عملیات ماتریس دیگر را محاسبه می کند که فضا و زمان آن را گران می کند، در حالی که فرود مختصات می تواند همان کار را در زمان O(np) انجام دهد. چرا تابع پایه R از Fisher Scoring استفاده می کند یا این روش نسبت به سایر روش های بهینه سازی برتری دارد؟ مقایسه بین نزول مختصات و امتیازدهی فیشر چیست؟ من نسبتاً تازه وارد این زمینه هستم، بنابراین هر کمک یا منبعی مفید خواهد بود
| |
64533
|
نمی دانم آیا کسی می تواند در پروژه پایان نامه من کمک کند. من در تحلیل گیر کردم و سعی کردم با چند نفر مشورت کنم اما متأسفانه آنها یا تجربه، دانش یا علاقه محدودی به موضوع آمار/اقتصاد رفتاری دارند. اساساً، من یک طرح اندازه گیری مکرر ترکیبی با 2 متغیر وابسته (DV) و 2 متغیر مستقل (IV) (1 در 2 و 1 در 4 سطح) دریافت کردم. 24 شرکت کننده در دو گروه تقسیم شدند. هر شرکت کننده یک کار را انجام داد که با استفاده از دو DV بین گروه ها اندازه گیری شد. همچنین در هر گروه چهار سطح IV اضافی وجود داشت. با توجه به اینکه باید از تست های ناپارامتریک (توزیع غیر عادی) استفاده کنم و 2 DV دارم (و بنابراین MANOVA) فکر نمی کنم بتوانم از SPSS برای این کار استفاده کنم. من مطمئن نیستم که از کدام آزمون ها و چه نرم افزاری (R؟) استفاده کنم.
|
آزمایش اقتصاد رفتاری - آزمون غیر پارامتری
|
69720
|
این ممکن است یک سوال بسیار ساده باشد، اما تطبیق یک توزیع پشت سر هم وایبول به یک سری باقیمانده (یا فکر می کنم، برای هر داده دلخواه) به چه معناست؟ من فکر میکنم به این معنی است که مجموعهای مانند این را جا بدهیم: $x_{t} = \sum_{k}\alpha_{k}\frac{k}{\lambda}\left(\frac{x}{\lambda}\right )^{k-1}e^{\left(\frac{x}{\lambda}\right)^{k}}$ اما من واقعاً نمی دانم. **زمینه:** از یک مشکل در کتاب Cowpertwait سری های زمانی مقدماتی با R: > یک هیدرولوژیست مایل است جریان های ماهانه ورودی به مخزن فونت را در دوره 10 ساله بعدی شبیه سازی کند. از داده های موجود در Font.dat (§2.3.3) برای پاسخ دادن به موارد زیر استفاده کنید: > یک هیستوگرام از خطاهای باقیمانده مدل AR برازش شده رسم کنید و روی نمودار نظر دهید. یک توزیع پشت سر هم وایبول را برای خطاهای باقیمانده تنظیم کنید.
|
نصب توزیع پشت سر هم
|
60092
|
من به دادههای شرکتم نگاه میکنم و اساساً دورههایی در سال گذشته داریم که دادهها به درستی آپلود نشدهاند. در این شکل mu مقدار بهره و مدت زمان بر حسب روز است. سنبله بزرگ نزدیک به 180 روز، مانند سنبله های کوچکتر در (140، 200، 275، و غیره) یک مصنوع است. از آنجایی که نمیخواهم قسمت اولیه منحنی را نزدیک به 0 روز صاف کنم، در پیدا کردن یک راه خوب برای صاف کردن این مصنوعات با مشکل مواجه هستم و به دنبال پیشنهادات به اینجا آمدهام. با تشکر، پیشاپیش! 
|
چگونه این نقاط داده بسیار بد را فیلتر کنیم؟
|
81672
|
من سعی میکنم طبقهبندی بیزی را بر روی مجموعه دادهها به صورت زیر پیادهسازی کنم: مشکل: بر اساس ویژگیهای اندازهگیری شده، طبقهبندی کنید که آیا یک فرد معین مذکر است یا زن. ویژگیها شامل قد، وزن و اندازه پا هستند. مجموعه آموزشی نمونه زیر (برگرفته از http://en.wikipedia.org/wiki/Naive_Bayes_classifier)  **تست** در زیر چند نمونه برای طبقه بندی به عنوان مرد یا زن آورده شده است. قد جنسیت (پا) وزن (پوند) اندازه پا (اینچ) نمونه 6 130 8 نمونه 4 140 5 **نتایج:** واقعی: مونث و خروجی (0.99، مونث) واقعی: مونث و خروجی (0.89، 'نر') در اینجا، من می خواهم دقت طبقه بندی را ارزیابی کنم. من بین دو گزینه برای ارزیابی اشتباه گرفته ام: گزینه اول، 1 از 2 داده های تست را به درستی طبقه بندی کرد، بنابراین دقت 50٪ است. گزینه دوم، احتمال زن بودن (0.99 + 0.11) /2 = 0.55 است، بنابراین دقت 55٪ است. کدام گزینه برای ارزیابی دقت طبقه بندی این روش منطقی است؟ معنی هر گزینه چیست؟
|
ارزیابی طبقه بندی بیزی
|
52182
|
مدل ما میلیونها مشاهدات چند متغیره را پردازش میکند. تشخیص دستی بیرونی غیرعملی است. من به دنبال روشی برای تشخیص خودکار نقاط پرت هستم. من سعی کرده ام از بسته R mvoutliers، به خصوص تابع pcout استفاده کنم و خطای > بیش از 50٪ مقادیر مساوی در یک یا چند متغیر را دریافت کنم! مشکل این است که داده های ما کاملاً پراکنده هستند و بسیاری از متغیرها شامل _بیش از 50% مقادیر مساوی_ هستند. 1. آیا راهی برای دور زدن (برخی پیش پردازش داده ها) وجود دارد که همچنان به من اجازه دهد از «pcout» استفاده کنم؟ 2. آیا بسته/عملکرد/روش R توصیه شده دیگری برای تشخیص خودکار نقاط پرت وجود دارد؟
|
تشخیص خودکار نقاط پرت در R
|
4044
|
من به دنبال برخی اصطلاحات خوب برای توصیف کاری هستم که میخواهم انجام دهم تا جستجوی منابع را آسانتر کنم. بنابراین، فرض کنید من دو دسته از نقاط A و B دارم که هر کدام به دو مقدار X و Y مرتبط هستند، و میخواهم «فاصله» بین A و B را اندازهگیری کنم - یعنی چقدر احتمال دارد که از یک توزیع نمونهبرداری شده باشند. (من می توانم فرض کنم که توزیع ها نرمال است). به عنوان مثال، اگر X و Y در A همبستگی داشته باشند اما در B نه، توزیع ها متفاوت است. به طور شهودی، ماتریس کوواریانس A را بدست میآورم، و سپس به احتمال اینکه هر نقطه در B در آن جا قرار میگیرد، نگاه میکنم و برعکس (احتمالاً با استفاده از فاصلهای مانند فاصله Mahalanobis). اما این کمی تعدادی است، و احتمالاً روش دقیق تری برای توصیف آن وجود دارد (البته، در عمل من بیش از دو مجموعه داده با بیش از دو متغیر دارم - سعی می کنم شناسایی کنم کدام یک از مجموعه داده هایم پرت هستند). با تشکر
| |
31803
|
نحوه محاسبه آمار گروه در R
|
|
81134
|
من در نت جستجو کردم، اما نتوانستم پاسخ خوبی برای سوالم پیدا کنم که بسیار آسان است. طبقه بندی خطی طبقه بندی کننده ای است که می تواند نمونه ها را به درستی طبقه بندی کند. اما با توجه به تابعی، مانند f که از سیگموید استفاده می کند، و به عنوان مثال اگر نتیجه سیگموئید کمتر یا بیشتر از 0.5 باشد، به دختر/پسر طبقه بندی می کند، چگونه بفهمیم که f در واقع یک تابع خطی است؟ به طور کلی، با توجه به یک تابع (و نه داده)، چگونه می توانیم بفهمیم که آیا آن تابع یک طبقه بندی کننده خطی است یا خیر؟ آیا باید چیزی را ثابت کنیم؟ آیا منابع/کتابشناسی وجود دارد که به درک بهتر من کمک کند؟ آیا مثال دیگری می تواند به من کمک کند؟
| |
100097
|
مشکل ارزیابی انتگرال زیر $$ \int_T f(\theta_1, \theta_2, \theta_3| D) d\Theta$$ را در نظر بگیرید که در آن $f$ یک چگالی پسین و مقادیر $D = (d_1, ..) است. .، d_n)$، با توجه به $\Theta$، $i.i.d$ با توزیع مشخص هستند و $T$ دارای شکل زیر است: $$T = \\{(\theta_1، \theta_2، \theta_3) \در M | f(\theta_1, \theta_2, \theta_3|D) > k \\} $$ برای $k$ یک ثابت شناخته شده بزرگتر از صفر و $M=(0,\infty)$x$(1,\infty)$ x$(0,\infty)$ نمیدانم چگونه از روش یکپارچهسازی $MC$ برای حل این انتگرال استفاده کنم، زیرا نمیتوانم ببینم این منطقه $T$ چگونه است یا حتی چگونه آن را بنویسم حجم من فکر کردم می توانیم از توزیع $d|\Theta$ استفاده کنیم، اما نمی دانم چگونه. خوشحال می شوم اگر بتوانم کمکی برای درک بهتر نحوه محاسبه این انتگرال داشته باشم با تشکر! (P.S: من از هاستینگ های کلان شهر برای نمونه برداری از $f$ استفاده خواهم کرد، به همین دلیل من MCMC نوشتم)
| |
65979
| ||
64538
|
اغلب مردم از برنامه ها برای به دست آوردن مقادیر p استفاده می کنند، اما گاهی اوقات - به هر دلیلی - ممکن است لازم باشد یک مقدار بحرانی از مجموعه ای از جداول به دست آید. با توجه به یک جدول آماری با تعداد محدود سطوح معنیداری و تعداد محدودی از درجات آزادی، چگونه میتوانم مقادیر بحرانی تقریبی را در سایر سطوح معنیداری یا درجات آزادی (مانند $t$، chi-square یا $) بدست بیاورم. جداول F$)؟
|
چگونه مقادیری را بیابم که در جداول آماری (/interpolate in) آورده نشده اند؟
|
63543
|
من در حال حاضر در حال بررسی نتایج نظرسنجی از اداره آمار نیروی کار ایالات متحده در مورد دستمزد ساعتی هستم. با دادههای خام نظرسنجی، پاسخدهندگان مختلفی را دریافت میکنم که چند ساعت در هفته کار میکنند، همراه با میانگین دستمزد، و برخی اطلاعات جمعیتشناختی مانند سن و جنس. چگونه می توانم از این اطلاعات به حدس زدن دقیقی در مورد میزان ساعاتی که کل جمعیت ایالات متحده در یک سطح دستمزد خاص کار کرده اند برسم؟ آیا راهی برای همبستگی مقادیر با در نظر گرفتن بیش از یک پارامتر واحد مانند سن وجود دارد؟ ویرایش: سعی میکنم بعد از آن یک سوال خاصتر بپرسم. لطفاً عدم آگاهی کامل من از آمار را ببخشید: فرض کنید در حال انجام یک نظرسنجی در مورد میزان درآمد مردم در یک ساعت هستم. بر اساس نظرسنجی من، می دانم که در نمونه نظرسنجی من، مردان حدود 10 دلار در ساعت و زنان 8 دلار در ساعت درآمد دارند. همچنین می دانم که در همین نمونه، افراد زیر 40 سال به طور متوسط 7 دلار در ساعت و افراد بالای 40 سال 11 دلار در ساعت درآمد دارند. با فرض اینکه جمعیت 50/50 مرد/زن باشد، می توانم حدس بزنم که جمعیت، به طور متوسط، 9 دلار در ساعت درآمد دارد. به همین ترتیب، اگر 30٪ از جمعیت بالای 40 سال باشد، می توانم حدس بزنم که جمعیت به طور متوسط 8.20 دلار در ساعت درآمد دارد، اما چگونه می توانم هر دوی این نکات اطلاعاتی را ترکیب کنم؟ چگونه می توانم جنسیت و سن افراد را متناسب با جمعیت در نظر بگیرم؟ آیا قرار است فقط یک میانگین وزنی انجام دهم یا چیزی؟
|
چگونه از نتایج آمار کار به کلیات جمعیت بروم؟
|
113720
|
فرض کنید که من دارای متغیرهای عادی تصادفی مستقل $3$، $A$، $B$ و $C$ هستم. همه آنها دارای انحراف استاندارد 17.526 دلار هستند، در حالی که $A$ دارای میانگین $143 $، $B $ 139 $، و $C $ 129 $ است. سوال من این است که چگونه می توانم $P(A>C\mid A>B)$ را محاسبه کنم؟ من می دانم چگونه $P(A>C)$ و $P(A>B)$ را محاسبه کنم، اما این بخش شرطی است که من با آن دست و پنجه نرم می کنم. من مطمئن نیستم که چگونه می توانم قضیه بیز را در این مورد اعمال کنم، بنابراین گیر کرده ام. اگر از نظر سرعت کمک کند، من $P(A>C)$ دارم که $0.713912$ است، و $P(A>B)$ به $0.564105$ با توزیع تفاوت در هر مورد دارای stdev $24.785$. با تشکر
|
احتمال شرطی با توزیع های نرمال؟
|
53273
|
من می خواهم یک رگرسیون Weibull با پارامترهای مقیاس و شکل از پیش تعریف شده توزیع Weibull اجرا کنم. من از survreg() از library(survival) در R استفاده می کنم و همانطور که در اصطلاح survreg می فهمم: scale = 1/(شکل rweibull) intercept = log (مقیاس rweibull) تعیین پارامتر شکل (sic!) با اجرای «survreg(Surv(y)~x, scale=1/rweibull_shape)» به نظر می رسد کار می کند و به عنوان انتظار می رود، عمدتاً بر اهمیت ضریب رگرسیون برای متغیر توضیحی تأثیر می گذارد و نه خود ضریب. در مورد پارامتر مقیاس، من فرض کردم که باید از offset استفاده کنم: survreg(Surv(y)~x+offset(rep(log(rweibull_scale),length(x)))، scale=1/rweibull_shape) با این حال، مشخص کردن به نظر نمی رسد مقیاس به این صورت بر احتمال ورود به سیستم مدل و اهمیت ضرایب رگرسیون تأثیر بگذارد، که با توجه به اینکه شگفت آور است واریانس وایبول هم به شکل و هم به مقیاس بستگی دارد. من چه غلطی می کنم؟ مثال کامل: ## offset –0.1 خلاصه (survreg(y)~x+offset(rep(-0.1,length(x)))، dist=weibull, scale=0.143)) Call: survreg(formula = Surv( y) ~ x + offset (rep(-0.1، 4))، dist = weibull، مقیاس = 0.143) Value Std. خطای z p (فاصله) 0.690 0.1599 4.31 1.61e-05 x 0.406 0.0715 5.68 1.31e-08 مقیاس ثابت در 0.143 توزیع Weibull Loglik(model)= -6.5 Loglik1.7 = -2. در 1 درجه آزادی، p= 3.3e-05 تعداد تکرارهای نیوتن رافسون: 7 n= 4 ## offset –10 خلاصه (survreg(y)~x+offset(rep(-10,length(x))) , dist=weibull, scale=0.143)) فراخوانی: survreg(formula = Surv(y) ~ x + offset(rep(-10, 4))، dist = weibull، scale = 0.143) Value Std. خطای z p (برق) 10.590 0.1599 66.23 0.00e+00 x 0.406 0.0715 5.68 1.31e-08 مقیاس ثابت در 0.143 توزیع Weibull Loglik(model)= -6.5 -inter Chi. 17.22 در 1 درجه آزادی، p= 3.3e-05 تعداد تکرارهای نیوتن رافسون: 7 n = 4
|
رگرسیون وایبول با قطع شناخته شده در R
|
107780
|
من در مدلسازی این نوع دادهها تازه کار هستم، و به خاطر پرسیدن این مورد در stackoverflow مجازات شدم... من یک مجموعه داده دارم که در آن متغیرهای پیشبینیکننده فقط حاوی یک و صفر هستند و متغیر پاسخ نیز حاوی یک و صفر است. من می خواهم یک مدل در R برای توصیف رابطه آنها بسازم. من می دانم که یک مدل لجستیک برای یک متغیر پاسخ باینری مناسب است، اما مدل مناسب برای متغیرهای پیش بینی باینری چیست؟
|
مدل سازی داده هایی که فقط شامل یک و صفر است
|
89273
|
تفاوت آماری بین دو درصد
|
|
53270
|
سوال من در مورد درصد واریانس توضیح داده شده در مؤلفه اصلی است. کدهای مختلف در نرم افزار R مقادیر متفاوتی را برای درصد واریانس توضیح داده شده (PEV) با PEV بدست آمده با دست نشان می دهند. ) برای مثال با استفاده از کدهای زیر (prcomp, pcr) در ماتریس انطباق S v1 v2 v3 [1,] 1 -2 0 [2,] -2 5 0 [3,] 0 0 2 > summary(prcomp(S))$importance[3,] PC1 PC2 PC3 0.92438 1.00000 1.00000 > > # با استفاده از کد pcr > > y<-c(2، 3،4) pcr(y~S) explvar(mpcr) Comp 1 Comp 2 92.43819 7.56181 با تشکر
|
تجزیه و تحلیل کامپیوتر و رگرسیون - درصد واریانس توضیح داده شده
|
74242
| ||
26031
|
از چه آماری برای مقایسه درصدها استفاده کنم؟
|
|
107786
|
من یک سوال در مورد رگرسیون خطی دارم. ما رگرسیون خطی داده های ورودی را داریم $(X,Y)=((x_1,y_1),(x_2,y_2)...(x_n,y_n))$$F=aX+b$$ a,b است فاکتورهای خط خطی هستند، $y_i$ {-1،1} است. با توجه به احتمال توزیع نرمال سازی ofx $$p(X|Y=1 ;-1,a,b) است N(\mu,\sigma)$$ چگونه a,b را پیدا کنیم که $$L=\sum( Y-F)^2$$ حداقل است خیلی ممنون. آیا می توانید مقاله ای را در مورد آن موضوع به من پیشنهاد دهید
|
مدل خطی برای داده هایی که از توزیع گاوسی پیروی می کنند
|
53276
|
من مشکلی دارم که سعی می کنم آن را رسمی کنم/تجزیه/نقشه به موارد شناخته شده بدهم، بنابراین این بیشتر یک فراخوان برای ارجاعات/نام ها/اصطلاحات است. شرح مشکل: سیستم جریانی از دانه های گیاهی را دریافت می کند که هر دانه دارای چند ویژگی طبقه بندی شده است. برای هر دانه، سیستم یک پروتکل کشت را برای استفاده انتخاب می کند (در نتیجه چند ویژگی طبقه بندی شده دیگر اضافه می کند). در نتیجه کشت، یک دانه ممکن است در نهایت یک میوه بیاورد (اما به احتمال زیاد هرگز هیچ میوه ای را نخواهد آورد). هدف نهایی این سیستم به حداکثر رساندن تعداد میوه ها است. انتهای توضیحات. در حالت ایدهآل، من میخواهم اشارهای به ادبیات مربوط به یک مشکل مشابه داشته باشم (نه لزوماً در مورد گیاهان، ممکن است به طور مشابه برای تولید فرموله شود). با این حال، میدانم که مشکل پیچیدهای است، و به احتمال زیاد هنر قبلی برای قطعات جداگانهای از آن یافت میشود. همچنین برخی از سادهسازیها وجود دارد که من مایلم اجازه بدهم. به عنوان مثال، به جای اینکه هر بذری در دو حالت «میوه به دست آمده است» یا «میوه هنوز به دست نیامده اما ممکن است باشد» باشد، می توان آن را در هر دو حالت «میوه به دست آمد» یا «میوه به دست نیاورده و هرگز نخواهد داشت» قرار داد. باشد، بنابراین کشت هر بذر به آزمایش برنولی کاهش می یابد. بیایید احتمال به دست آوردن یک میوه (تک) را باروری بنامیم (اگرچه این با معنای معمول در زیست شناسی متفاوت است). یکی از تجزیههای احتمالی که من میبینم، کاهش هدف حداکثر کردن تعداد کل میوهها به تخمین چگالی باروری (شاخص شده با همه ترکیبهای ممکن از خواص بذر و پروتکل کشت آن) است. این پاسخ نمی دهد که چگونه اکتشاف را با بهره برداری ترکیب کنیم، اما امیدوارم از تحلیل راهزن چند مسلح برای آن استفاده کنم. یک مثال بسیار ساده می تواند 2 خاصیت برای بذرها باشد: رنگ (قرمز، سیاه، سفید)، الگو (راه راه، جامد، خالدار) و 1 خاصیت برای کشت: خاک (شنی، گلی، هیدروپونیک). با دیدن یک بذر قرمز راه راه، سیستم می تواند تصمیم بگیرد که آن را در خاک شنی بکارد، برای مثال (یا شاید آن را در خاک شنی در 60٪ موارد و 40٪ در گل و لای بکارد). در مشکل واقعی، تعداد ویژگی ها ~ 6-7 است، و برخی از آنها صدها/هزاران مقدار دارند (به عنوان مثال، مزرعه منبع). این در حال حاضر بد است، اما علاوه بر این، باروری بسیار کم است (~1 میوه در هر 10 هزار دانه)، بنابراین حتی با میلیون ها آزمایش، ماتریس همزمانی مقادیر ویژگی بسیار کم خواهد بود - بنابراین من به استفاده از آن خوشبین نیستم. رگرسیون لجستیک خطی من فکر میکنم تنها راه رسیدن به تخمینهای باروری برای اکثر ترکیبهای خواص بذر/کشت، استفاده از وابستگی میان باروری برای ترکیبهای مشابه است - منظورم از مشابه در اینجا، آنهایی است که حداقل یک ارزش دارایی را به اشتراک میگذارند. از نظر تجربی، وجود چنین وابستگی تایید شده است، اما ماهیت خاص آن ناشناخته است - به عنوان مثال، باروری بذرهای هم رنگ در پروتکل های مختلف کشت، ارتباط نزدیک تری با یکدیگر دارد تا باروری بذرهای تصادفی. و همین امر برای بذرهایی با الگوی یکسان صادق است، اما مشخص نیست که چگونه این مدل را مدل سازی کنیم (مدل مولد بیزی سلسله مراتبی؟). در حال حاضر من به http://en.wikipedia.org/wiki/Thompson_sampling نگاه میکنم، با زمینهای مربوط به یک بذر، و یک عمل مربوط به پروتکل کشت، اما قطعه اصلی گمشده مدل خاص توزیعها است. هر گونه ایده و یا حتی سوال قدردانی می شود!
|
نتیجه باینری با پیش بینی های طبقه بندی شده - کنترل آزمایش
|
46711
|
داشتم این کتاب مربوط به یادگیری ماشین را می خواندم. در نظر گرفته شده است که برای زنجیره مارکوف مرتبه Mth، تعداد پارامترها = $K^{M-1}(K-1)$ که در آن M مرتبه است. من مطمئن نیستم که چگونه این مشتق شده است. به عنوان مثال، فرض کنید من سه حالت دارم {آفتابی، ابری، بارانی}. بنابراین در هر زمان به دو حالت قبلی نگاه خواهم کرد. بنابراین اگر از فرمول بالا استفاده کنم، 3*(2-1)*(3-1) = 6 خواهم داشت که حدس می زنم کمتر باشد. من باید پارامترهای زیر را داشته باشم P(آفتابی|ابری،بارانی) P(آفتابی|ابری،آفتابی) P(آفتابی|ابری،ابری) P(آفتابی|بارانی،بارانی) P(آفتابی|بارانی، آفتابی) P(آفتابی| بارانی، ابری) P(آفتابی|آفتابی،بارانی) P(Sunny|Sunny,Sunny) P(Sunny|Sunny,Cloudy) و غیره. این پارامترهای زیادی دارد، از 6 بالاتر نیست. من کمی گیج شدم. حدس میزنم IT باید $K^{M}(K-1)$ باشد
| |
113727
|
من تست های همبستگی را انجام داده ام و با استفاده از داده های ترتیبی و فاصله ای همبستگی های ضعیف منفی دریافت کرده ام. من یک تبدیل لاگ را خسته کرده ام، و همچنان همبستگی ها یکسان بود. من به دنبال یک همبستگی مثبت ضعیف تا متوسط با داده ها هستم. تا به حال، من یک تبدیل log، Spearman و Pearson Correlation را انجام داده ام. کمک شما بسیار قدردانی می شود. متشکرم!
|
همبستگی ضعیف منفی
|
21319
|
من به دنبال پیاده سازی پایتون (در پایتون خالص یا بسته بندی مواد موجود) از HMM و Baum-Welch هستم. چند ایده؟ من به تازگی در گوگل جستجو کردم و مطالب بسیار ضعیفی در رابطه با سایر تکنیک های یادگیری ماشین پیدا کردم. چرا؟
|
مدل های پنهان مارکوف با الگوریتم Baum-Welch با استفاده از پایتون
|
49245
|
من پروژه ای برای مدل سازی کاربران با برچسب های مشخصه (مانند دونده، دوچرخه سوار، شناگر، وگان، پیانیست) دارم تا رفتار کاربر را با این برچسب ها مرتبط کنم. بدیهی است که یک کاربر می تواند چندین ویژگی (غیر انحصاری) داشته باشد و بنابراین فاصله (یا شباهت) بین کاربران با میزان همپوشانی برچسب تعیین می شود. 1. آیا اسمی برای این نوع مدل وجود دارد؟ 2. آیا الگوریتم/الگوریتم خاصی وجود دارد که برای اندازه گیری همبستگی در داده های ارائه شده توسط این نوع مدل مفید باشد؟ من به یک لیست کامل نیاز ندارم. فقط برای اینکه در جهت درست اشاره شود
|
مدل طبقه بندی غیر انحصاری
|
21318
|
من تازه وارد آمار هستم و نمی دانم چگونه در مورد این موضوع اقدام کنم. بنابراین من آن را تا جایی که میتوانم ارائه خواهم کرد به این امید که کسی در اینجا بتواند به من کمک کند! من برای یک شرکت زیرساخت فناوری اطلاعات (خدمات مرکز داده) XYZ کار می کنم. این شرکت به عنوان بخشی از خدمات خود، wintel، جعبه های Unix، پایگاه های داده و شبکه ها را برای مشتریان خود راه اندازی کرده است. من سعی میکنم تعیین کنم که آیا میتوانیم با استفاده از نمونهبرداری آزمایشهای آماری را برای آزمایش کیفیت کار انجامشده توسط مهندسانمان انجام دهیم (تنظیم سختافزار به علاوه نصب نرمافزار + هر برنامه نرمافزاری که به عنوان بخشی از این کار نوشته شده است). بنابراین فرض کنید ما 5 سرویس مختلف (wintel، Unix، DB، Networks، Middleware) ارائه می دهیم. همه اینها دو نوع پروژه دارند. پروژه های استاندارد (مانند یک محصول با بسته بندی کوچک) و پروژه های غیر استاندارد/سفارشی. لطفا در صورت نیاز به جزئیات بیشتر به من اطلاع دهید. اگر بتوانم از ابزارهای آماری برای تست استفاده کنم، چه نوع تست هایی خواهند بود؟ از چه نوع مکانیزم نمونه برداری می توانم برای تعیین حجم نمونه بهینه استفاده کنم؟ ایده این است که از این آزمایشها استفاده کنید، نتایج را دریافت کنید، به علل ریشهای نگاه کنید و سپس برخی از شش برنامه بهبود نوع سیگما را برای کمبودها اجرا کنید. پیشاپیش از پاسخهای شما متشکریم ### ویرایش (در پاسخ به نظرات) به طور کلی میخواهیم «کیفیت کار انجامشده» را اندازهگیری کنیم. ما به دو نوع شاخص کیفیت فکر میکنیم. 1) یکی در پایان پروژه انجام می شود - نظرسنجی مشتری. 10 سوال; پاسخ ها (5-1 امتیاز برای عالی، بسیار خوب و همکاران) 2) یک شاخص کیفیت برای بررسی در طول پیشرفت پروژه. برای یک پروژه 3 ماهه میتوانیم یک چک لیست ایمنی از 4 مورد داشته باشیم، هر 3 هفته یک بررسی ایمنی. ایده این است که نمرات بررسی ایمنی پروژه در جریان را با نمرات نظرسنجی مشتری مقایسه کنید تا دیدی یکپارچه از روند پروژه بدست آورید. این به شناسایی اینکه آیا و در کجا مشکلی رخ داده است، درک مشتری، ارتباطات PM، اجرای مهندس، پایداری فرآیند، بررسیهای ایمنی ناکافی و غیره کمک میکند. من نمی توانم شکل آن را در حال حاضر مشخص کنم. من فرض می کنم که اجازه دهید ببینم آیا می توانم اطلاعاتی در مورد آن به دست بیاورم. ### ویرایش (مهاجرت از پاسخی که به عنوان یک نظر عمل می کرد) Michelle, The Org. من برای یک سازمان ماتریسی کار می کنم که یک نفر در سطح مدیر به عنوان حامی پروژه خدمت می کند. ما همچنین سازمانی مبتنی بر ITIL هستیم که در آن همه چیز یک سرویس است. مهندسان مدیران گزارش مستقیم خود را دارند و همچنین دارای گزارش خط نقطه ای به مدیران پروژه هستند. در این شرایط که همه سازمانها اولویتهای خود را دارند، پیوند دادن اهداف عملکرد آنها در سطح مهندسان به برخی معیارهای کیفیت بسیار دشوار خواهد بود. اما معاون وزیر اهدافی را برای سازمان تعریف کرده است که بخشی از آن این است که همه چیز باید قابل اندازه گیری و Import باشد. اقدامات باید روی داشبورد باشد. بنابراین انطباق با این برای هر گروه تحت سازمان اندازه گیری می شود. ** من می خواهم در مورد نوع معیارهای کیفی که می توانیم در این رویکرد استفاده کنیم (همانطور که در دو پست آخر من گفته شد) توصیه بیشتری می کنم. این برای اندازهگیری تحویل پروژه توسط سازمان است.** از همه کسانی که مشارکت میکنند سپاسگزاریم. Rolando2- از مشارکت شما متشکرم!
|
تعیین حجم نمونه بهینه و آزمون های آماری
|
90420
|
من به دنبال ویژگی هایی برای استخراج برای تمایز بین اشیاء متنی و الگوهای نویز دلخواه در تصاویر سند تخریب شده هستم.  این یک نمونه از یک سند با برخی از قسمت های نویز است، من 4 پنجره را به صورت دستی استخراج کرده ام که سه تای آنها مطابق با نویز هستند. و آخرین مورد به پیامک.     هر پیشنهاد؟
| |
49246
|
من یک سیستم جمع آوری سیگنال دارم. هر 10 ثانیه به مکان های A، B و C می رود و می بیند که آیا فعالیتی وجود دارد یا خیر. سپس جدولی را پر می کند که به شکل زیر است: A B C ------------ 1 0 1 1 1 0 1 0 1 1 0 1 ............ تقریباً وجود دارد 10000 ردیف داده در جدول. حالا می خواهم $P(B,C|A)$ را بفهمم. درک من این است که من در اینجا 8 مورد مانند زیر دارم: $P(B=1,C=1|A=1)$, $P(B=1,C=1|A=0)$, $P (B=1,C=0|A=1)$ و غیره. سؤالات من این است: 1. آیا باید این را به عنوان توزیع دوجمله ای یا توزیع دیریکله مدل کنم. چرا برای این مورد یکی را بر دیگری انتخاب کنید؟ 2. من می دانم که روشی که منطق کدگذاری شده است، B و C تحت تأثیر فعالیت در A هستند. اما اگر C نیز تحت تأثیر فعالیت در B باشد. P(B=1,C=0|A=1)$ برای مثال؟ من تقریباً در این زمینه مبتدی هستم، لطفاً پاسخ خود را توضیح دهید. این سوال از بحث در مورد این سوال قبلی بیرون آمد: ایجاد توزیع احتمال شرطی
|
ایجاد توزیع احتمال مشروط مشترک
|
90427
|
فرض کنید من سعی می کنم یک تابع تولید را به صورت زیر تخمین بزنم: $logY=b_0+b1*logX_1+b_2*logX_2+b_{11}*(logX_1)^2+b_{22}*(logX_2)^2+b_{12} *(logX_1)*(logX_2)+u$، که $Y$ خروجی است، $X_1$، $X_2$ هستند ورودی ها، و برای سادگی، $E(u|X_1، X_2)$ فرض می شود. $b_{ij}$ پارامترهایی هستند که باید تخمین زده شوند. از آنجایی که ورودیهای ورود و تعامل آنها معمولاً همبستگی بالایی دارند، چند خطی بودن احتمالاً یک مشکل جدی است به این معنا که بسیاری از ضرایب میتوانند تحت آلفای معمولی ناچیز باشند. برای رفع این مشکل، من روال را دنبال میکنم تا متغیرهای کماهمیت را به عقب حذف کنم. با این حال، من مطمئن نیستم که آیا این عمل کاملا مشروع است، به خصوص زمانی که coef. متغیرهای باقی مانده به شدت تغییر می کنند. این به این دلیل است که (اگرچه بدون استدلال قانع کننده) من تمایل دارم تغییرات بزرگ را با تعصب متغیر حذف شده (OVB) در ادبیات اقتصاد سنجی مرتبط کنم (به طور کلی، با حذف یک متغیر متعلق به مدل جمعیت زیربنایی، عبارت خطای جدید می تواند با متغیرهای کمکی همبستگی دارد، بنابراین تخمین ها می توانند مغرضانه باشند). بنابراین سؤالات من در مورد رگرسیون به عقب و OVB عبارتند از: (1) آیا نظریه ای برای شناسایی تغییرات بزرگ در برآوردها وجود دارد؟ آیا افزایش از 0.5 به 0.6 (20٪) می تواند به عنوان یک تغییر بزرگ در نظر گرفته شود؟ در مورد کاهش از 0.5 به 0.1 چطور؟ (2) تا چه حد باید برای محاسبه چنین تغییراتی به برآوردهای نادرست تکیه کنم؟ (3) آیا باید تغییرات بزرگ در تخمینها با استفاده از دادههای نمونه را با حذف متغیرهای متعلق به مدل جمعیت زیربنایی مرتبط کنم؟ متشکرم
| |
21317
|
من یک شک اساسی دارم. ببخشید اگر این موضوع باعث آزار تعداد کمی از افراد می شود. من می دانم که مقدار اطلاعات متقابل باید بزرگتر از 0 باشد، اما آیا باید کمتر از 1 باشد؟ آیا با مقدار بالایی محدود می شود؟ ممنون، آمیت
|
آیا ارزش کسب اطلاعات متقابل می تواند بیشتر از 1 باشد
|
49243
|
بسته randomForest R نمی تواند فاکتور با بیش از 32 سطح را کنترل کند. هنگامی که بیش از 32 سطح به آن داده می شود، یک پیام خطا منتشر می کند: > نمی تواند پیش بینی های طبقه بندی شده با بیش از 32 دسته را کنترل کند. اما داده هایی که من دارم چندین عامل دارد. برخی از آنها دارای 1000+ سطح و برخی از آنها دارای 100+ هستند. حتی دارای ایالت ایالات متحده است که 52 است. بنابراین، سوال من اینجاست. 1. چرا چنین محدودیتی وجود دارد؟ randomForest حتی برای یک مورد ساده از اجرا خودداری می کند. > d <- data.frame(x=factor(1:50)، y=1:50) > randomForest(y ~ x، data=d) خطا در randomForest.default(m، y، ...) : می تواند پیش بینی های طبقه بندی شده با بیش از 32 دسته را کنترل نمی کند. اگر صرفاً به دلیل محدودیت حافظه است، چگونه میتوان ForeestRegressor تصادفی scikit Learn با بیش از 32 سطح اجرا کرد؟ 2. بهترین راه برای رسیدگی به این مشکل چیست؟ فرض کنید من متغیرهای مستقل X1، X2، ...، X50 دارم و Y متغیر وابسته است. و فرض کنید X1، X2 و X3 بیش از 32 سطح دارند. چه کار کنم؟ آنچه من به آن فکر می کنم اجرای الگوریتم خوشه بندی برای هر یک از X1، X2 و X3 است که در آن فاصله به عنوان تفاوت در Y تعریف می شود. من سه خوشه بندی را اجرا می کنم زیرا سه متغیر مشکل ساز وجود دارد. و در هر خوشهبندی، ای کاش بتوانم سطوح مشابهی را پیدا کنم. و من آنها را ادغام خواهم کرد. این صدا چگونه است؟
|
randomForest R نمی تواند بیش از 32 سطح را اداره کند. راه حل چیست؟
|
22959
|
آیا شرایطی وجود دارد که $$\text{var}(d_t-f_t)=\text{var}(d_t)+\text{var}(f_t)-\text{cov}(d_t,f_t)$$ بتواند به جای استفاده شود $$\text{var}(dt-ft)=\text{var}(d_t)+\text{var}(f_t)-2\text{cov}(d_t,f_t)$$ که در آن $d_t$ یک بار سری و $f_t$ پیش بینی آن است. متشکرم
|
واریانس خطای پیش بینی
|
21311
|
**سوال:** آیا دستورالعمل های کلی در رابطه با ویژگی های داده ورودی وجود دارد که بتوان از آن برای تصمیم گیری بین اعمال PCA در مقابل LSA/LSI استفاده کرد؟ **خلاصه مختصر PCA در مقابل LSA/LSI:** تجزیه و تحلیل مؤلفه های اصلی (PCA) و تجزیه و تحلیل معنایی پنهان (LSA) یا نمایه سازی معنایی پنهان (LSI) مشابه هستند به این معنا که همه آنها اساساً بر کاربرد تجزیه ارزش منفرد (SVD) به یک ماتریس. LSA و LSI تا جایی که من می توانم بگویم یکسان هستند. LSA با PCA تفاوت اساسی ندارد، اما از نظر روشی که ورودی های ماتریس قبل از اعمال SVD از قبل پردازش می شوند. در LSA، مرحله پیش پردازش معمولاً شامل عادی سازی یک ماتریس شمارش می شود که در آن ستون ها با اسناد و ردیف ها با نوعی کلمه مطابقت دارند. ورودیها را میتوان بهعنوان نوعی تعداد (عادیسازیشده) کلمهای برای سند در نظر گرفت. در PCA مرحله پیش پردازش شامل محاسبه ماتریس کوواریانس از ماتریس اصلی است. ماتریس اصلی از نظر ماهیت «عمومی»تر از مورد LSA است. در مورد PCA، ستونها معمولاً به بردارهای نمونه عمومی اشاره میکنند و گفته میشود ردیفها به متغیرهای فردی که اندازهگیری میشوند اشاره میکنند. ماتریس کوواریانس طبق تعریف مربع و متقارن است و در واقع نیازی به اعمال SVD نیست، زیرا ماتریس کوواریانس را می توان از طریق قطری تجزیه کرد. قابل ذکر است، ماتریس PCA تقریباً به طور قطع متراکمتر از نوع LSA/LSI خواهد بود - ورودیهای صفر فقط در جایی رخ میدهند که کوواریانس بین متغیرها صفر باشد، یعنی جایی که متغیرها مستقل هستند. در نهایت یک نکته توصیفی دیگر که نسبتاً برای تمایز این دو ذکر میشود این است که > LSA بهترین زیرفضای خطی را در نرمافزار Frobenius جستجو میکند، در حالی که هدف PCA > بهترین زیرفضای خطی وابسته است. در هر صورت، تفاوت ها و شباهت های این تکنیک ها به شدت در انجمن های مختلف در سراسر اینترنت مورد بحث قرار گرفته است و واضح است که تفاوت های برجسته ای وجود دارد و واضح است که این دو تکنیک نتایج متفاوتی را به همراه خواهند داشت. بنابراین سؤال خود را تکرار میکنم: آیا دستورالعملهای کلی در رابطه با ویژگیهای داده ورودی وجود دارد که بتوان از آن برای تصمیمگیری بین اعمال PCA در مقابل LSA/LSI استفاده کرد؟ اگر چیزی شبیه ماتریس سند مدت داشته باشم، آیا LSA/LSI همیشه بهترین انتخاب خواهد بود؟ آیا می توان انتظار داشت که در برخی موارد با تهیه ماتریس term/doc برای LSA/LSI و سپس اعمال PCA در نتیجه، به جای اعمال مستقیم SVD، نتایج بهتری به دست آورید؟
|
زمان انتخاب PCA در مقابل LSA/LSI
|
17431
|
آیا کسی می تواند دیدگاه نظری اعتبار متقاطع K-fold و به ویژه یک فرمول ریاضی برای خطای پیش بینی K-fold CV را توضیح دهد؟ **به روز شده**: آیا یکی از شما می تواند به من کمک کند تا فرمول نوشته شده در آخرین نسخه (فوریه 2011) کتاب در صفحه 242 را درک کنم. 
| |
94074
|
1. بگویید در بای پلات برخی از داده های ترکیبی، من متوجه شدم که پیوندهای $\vec{AB}$ و $\vec{CD}$ تقریباً در 90 درجه قطع می شوند. بنابراین می توانم بگویم که $\log {A\over B}$ و $\log{C\over D}$ تقریباً همبستگی ندارند. سوال این است که ... پس چه؟ کشف این چه فایده ای دارد؟ 2. حالا بگویید در biplot من کشف کردم رئوس E, F, G هم خط هستند. سپس کتاب درسی من می گوید که آنها یک دوقطعه 1 بعدی را تشکیل می دهند. بنابراین دارای تنوع یک بعدی هستند. سوال این است که ... این اصلا به چه معناست؟
|
درک biplot برای داده های ترکیبی
|
17439
|
من یک فرآیند با 15 متغیر موثر دارم. من می توانم 9 متغیر را برای مطالعه تأثیر آن بر فرآیند ثبت کنم. من به دنبال یک عامل مناسب برای تخمین ارزش اثربخشی هر عامل هستم. من معتقدم که مقادیر p، ضرایب استاندارد شده، همبستگی جزئی و R^2$ جزئی راه حل های بالقوه در این زمینه هستند. کدام یک برای اطلاع از میزان اثربخشی هر متغیر در مقیاس 0 تا 100 مفیدتر است؟
| |
56971
|
من می خواهم میانگین ها را در سه گروه با اندازه های مساوی مقایسه کنم (اندازه نمونه برابر کوچک است، 21). میانگین هر گروه _ are_ معمولاً توزیع شده است، اما واریانس آنها نابرابر است (از طریق Levene آزمایش شده است). آیا تحول بهترین مسیر در این شرایط است؟ آیا ابتدا چیز دیگری را در نظر بگیرم؟
|
جایگزینی برای واریانس نابرابر ANOVA یک طرفه
|
56973
|
من به دنبال راهی برای ادغام دانش قبلی در مورد یک پارامتر در زمینه ای معادل مدل های سلسله مراتبی بیزی هستم. من از پسزمینههای مکرر میآیم و در مدلهای سلسله مراتبی آشنا نیستم، اما احساس عمیقی دارم که این میتواند مشکل من را حل کند. با توجه به $L_1$ مشکل رگرسیون OLS کوچک شده، من فرض می کنم که ضرایب رگرسیون به طور معمول $$ \beta_1 \sim {\mathcal N}(\mu,1)، $$ توزیع می شوند و میانگین آن از یک توزیع نمایی دوگانه (لاپلاسی) $ پیروی می کند. $ \mu \sim {\rm}(\frac{1}{2c} exp{(-\frac{|\mu|}{c}})) $$ حالا، فرض کنید من از مطالعات قبلی می دانم که اندازه اثر مشخصی گزارش شده است. چگونه می توانم آن دانش را در انتخاب پارامتر صحیح $c$ برای توزیع لاپلاسی ادغام کنم؟ هر فکر یا ایده ای؟ من از این در زمینه رگرسیون LASSO استفاده میکنم، بنابراین نمیدانم چگونه میتوانم به راحتی یک hyperprior برای $c$ تعیین کنم.
|
انتخاب یک انقباض بیز از قبل
|
13326
|
آیا می توانم از Kolmogorov-Smirnov برای مقایسه دو توزیع تجربی استفاده کنم؟
|
|
94076
|
من سه نمونه مختلف (سه تکرار در هر نمونه) و تعداد زیادی متغیر دارم (1000+) این متغیر به ویژه دارای بزرگترین عدد VIP از یک تصحیح سیگنال متعامد PLS-DA از این سه نمونه مختلف است. معمولاً من اینها را log2 تبدیل می کنم، اما برای این مثال انجام ندادم (به نظر نمی رسد تفاوت زیادی ایجاد کند) A<- c(7.98E8,4.88E8,1.68E8,2.21E7,5.37E7,1.41E7,4.21E8 ,8.03E7,3.67E6) شرط<-factor(c(0,0,0,1,1,1,2,2,2)) متغیر<- data.frame(raw=A,condition=condition) وقتی به معنی واقعاً به نظر می رسند نگاه می کنم متفاوت (مخصوصاً 0 در مقابل 1) تقریباً مرتبه بزرگی است (متغیر$خام، متغیر$شرایط، میانگین) 0 1 2 484666667 29966667 168323333 و باکس نمودار boxplot(variable$raw ~variable$condition)  وقتی تست oneway.test(variable$) را امتحان می کنم raw~variable$condition) داده: متغیر$ خام و متغیر$ شرط F = 2.945، num df = 2000، df = 2.702، p-value = 0.2095، p-value حتی به معنی دار بودن نزدیک نیست. چرا این است؟ آیا این واریانس زیاد، تعداد کم نمونه است؟ شاید چیزی وجود داشته باشد که من در مورد anova نمی فهمم، زیرا به نظر می رسد ابزارها در این نمونه ها واقعاً متفاوت هستند. من بررسی می کنم که داده ها به طور معمول توزیع شده اند، بنابراین یک آزمون پارامتریک معقول به نظر می رسد. شاید آزمایش دیگری وجود داشته باشد که باید از آن استفاده کنم؟
|
چرا مقدار p-anova در این سری از اعداد قابل توجه نیست
|
74675
|
سلام کاربران CrossValidated، من از داده های HCUP NIS برای تعیین اثرات مختلف بر نتایج سلامت با استفاده از نرم افزار SAS استفاده می کنم. می دانم که این یک بررسی پیچیده است و متغیرهای طراحی باید با استفاده از PROC SURVEYlogistic (و غیره) ترکیب شوند. معمولاً ما به جمعیتهای فرعی علاقهمندیم، بنابراین عبارت DOMAIN ضروری است. من همچنین خواندم که HCUP راهی برای ایجاد مقادیر ساختگی برای بیمارستان ها برای دستیابی به خطاهای استاندارد مناسب دارد. در عوض، آیا می توانم وزن های مختلف را بر اساس توزیع های موجود از داده های ملی خارجی در گروه بیماری خاص خود محاسبه کنم؟
| |
13320
|
پس از انجام برخی مطالعه در مورد فرآیندهای تصادفی برای کار، دریافتم که اثباتی مبنی بر وجود فرآیند خاص اغلب یکی از اولین موارد ارائه شده است. لطفاً کسی می تواند هدف/ضرورت این اثبات را به زبان عامیانه توضیح دهد؟
| |
56972
|
من روی پروژه ای کار می کنم که شامل محاسبه معیارهای شباهت بین رشته ها است. می خواستم بدانم که آیا می توان از فاصله همینگ روی رشته هایی با طول های متفاوت استفاده کرد و در صورت امکان چگونه این کار را انجام داد. من توضیح گام به گام با سپاسگزاری خواهد بود. با تشکر
|
فاصله همینگ برای رشته ها با طول های مختلف
|
38852
|
یک فرآیند ثابت عمومی عادی را پیدا کنید
|
|
22952
|
من در دنیای آمار کاملاً تازه کار هستم، و فقط در اولین تلاش (موفق) خود برای محاسبه امتیازهای اطلاعات متقابل کار را به پایان رساندم. حال اجازه دهید بگوییم که برای جفت ستونهای AB، BC، CD و DE من امتیازهای اطلاعاتی متقابل 0.1111، 0،9999، 1.23 و 1.5 دارم. من باید از این مقادیر استفاده کنم تا مشخص کنم کدام یک از جفت های ستون AB، BC، CD و DE به یکدیگر وابسته هستند و کدامیک نیستند. برای انجام این کار، باید حد آستانه را محاسبه کنم. من فرض می کنم که اگر سطح آستانه X باشد، تمام نمرات MI بزرگتر از X به این معنی است که دو ستون به هم مرتبط هستند، در حالی که امتیازات <X به این معنی است که دو ستون به هم مرتبط نیستند. آیا کسی می تواند من را به سمت یک فرآیند محاسبه آستانه مناسب راهنمایی کند؟
|
چگونه سطح آستانه را برای نمرات اطلاعات متقابل محاسبه کنیم؟
|
113257
| ||
38853
|
به دنبال سوال من در مورد توبیت با مشخصات DiD، من نمی دانم که آیا می توان یک مدل انتخاب نمونه هکمن را با مشخصات تفاوت در تفاوت ها تخمین زد؟ به عنوان مثال در STATA، با استفاده از دستور heckman چگونه می توانم مشخصات DiD را در معادله انتخاب پیاده سازی کنم و چگونه نتایج خود را تفسیر کنم؟
| |
13329
|
فاصله پیش بینی برای رگرسیون پشته را محاسبه کنید؟
|
|
22957
|
من دانشجوی کارشناسی هستم و در تحقیقاتم مشکل دارم. اخیراً سرپرست من به من گفت که اگر استفاده از داده های ثانویه نیازی به انجام تست نرمال بودن ندارد، چرا؟ آیا استناد یا تحقیقات قبلی این را ثابت می کند؟
|
استفاده از داده های ثانویه نیاز به تست نرمال بودن دارد؟
|
22954
|
من پروژه ای دارم که در آن مجموعه ای از زمان ها بین یک رویداد خاص به من داده می شود و سپس باید پارامترهای تابع توزیع را با بهترین تناسب با استفاده از R تخمین بزنم، مشابه کاری که EasyFit انجام می دهد. متأسفانه، من نسبتاً با R و آمار به طور کلی تازه کار هستم، بنابراین برای من سخت است که از زمین خارج شوم. من سعی می کنم از بسته fitdistr استفاده کنم اما نمی توانم بفهمم که آیا از عملکردهای عمر خستگی پشتیبانی می کند یا خیر. آیا بسته دیگری وجود دارد که من گم کرده ام که ممکن است بهتر باشد؟ هر کمکی که بتوانید ارائه دهید بسیار قدردانی خواهد شد. ممنون، نیک
|
برآورد پارامترهای عمر خستگی در R
|
22951
|
فرض کنید من دادههای بقا با بیش از یک ردیف در هر موضوع دارم، زیرا زمان پیگیری هر موضوع را به قطعات تقسیم کردهام (شاید به این دلیل که یک یا چند متغیر با زمان متغیر دارم یا شاید فقط به این دلیل که میخواهم یک مدل پواسون را متناسب کنم. با یک خطر غیر ثابت در طول زمان). آیا باید از برآوردگر واریانس / کوواریانس قوی (که برای مثال در Stata با گزینه vce(cluster clustvar) پیاده سازی می شود) استفاده کنم تا در نظر بگیرم که من بیش از یک مشاهده برای هر موضوع دارم (یعنی آنها مستقل نیستند؟ )؟ **ویرایش (15 مارس 2012)**: لامبرت و رویستون در کتاب خود این تحلیل را انجام می دهند: آنها پیگیری هر آزمودنی را در یک مقیاس زمانی تقسیم می کنند (مثلاً سن به دست آمده)[*] و متناسب با رگرسیون پواسون از جمله به دست آمده است. سن به عنوان متغیر وابسته (مدل سازی شده برای مثال با استفاده از اسپلاین) به اضافه افست، به طوری که امکان مدل سازی بروز برخی از بیماری ها با توجه به سن به دست آمده وجود دارد. آنها **از تخمینگر واریانس/کوواریانس قوی استفاده نمیکنند، اما من در متن هیچ توضیحی در مورد اینکه چرا تک ردیفها (یا _اپیزودها) را میتوان مستقل در نظر گرفت، نیافتم. **سوال:** کسی می تواند به من توضیح دهد که چرا تک ردیف ها (یا _قسمت های_ ) را می توان مستقل در نظر گرفت؟ [*]برای روشن شدن آنچه انجام شده است، به عنوان مثال شماره موضوع 1001 را در نظر می گیریم. او در «80.00219» سال وارد مطالعه می شود و در «85.037236» سال به بیماری مبتلا می شود (`_d==1`). این اتفاقی است که برای رکورد این موضوع پس از تقسیم آن رخ می دهد. (متغیر افست به صورت `ln(_t- _t0)` تعریف می شود) id _d _t _t0 1001 0 81 80.00219 1001 0 82 81 1001 0 83 82 1001 0 84 83 10018 10014 85.037236 85
|
ماتریس واریانس/کوواریانس قوی در رگرسیون پواسون
|
2743
|
من سعی می کنم d کوهن را محاسبه کنم و سپس آن تخمین ها را در اندازه اثر خلاصه جمع کنم. کسی میتونه کمک کنه؟ (مالکیت نرم افزار Stata یا SPSS).
|
چگونه از Stata برای ترکیب d کوهن استفاده کنیم؟
|
2742
|
چندین بسته آماری مانند SAS، SPSS و R به شما اجازه میدهند تا نوعی چرخش عامل را به دنبال PCA انجام دهید. 1. چرا چرخش بعد از PCA ضروری است؟ 2. با توجه به اینکه هدف PCA تولید ابعاد متعامد است، چرا باید یک چرخش مورب بعد از PCA اعمال کنید؟
|
در مورد استفاده از چرخش مورب پس از PCA
|
90985
|
من یک نظرسنجی انجام دادم و فقط 50 پاسخ دریافت کردم. متغیر وابسته من ترتیبی است. متغیرهای مستقل من ترتیبی، ساختگی و پیوسته هستند... برای تجزیه و تحلیل نتایج از چه مدل آماری استفاده کنم؟
|
تحلیل مبتنی بر پیمایش، حجم نمونه کوچک، متغیر وابسته ترتیبی
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.