_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
68229 | به عنوان مثال، شما اندازه نمونه را با توان داده شده و سطح قابل توجهی برای یک محاسبه می کنید، به عنوان مثال. مطالعه طراحی ANOVA تعادل دوطرفه. اما در نهایت، مفروضات آن برآورده نمی شود و نمی تواند اصلاحی باشد. یک سوئیچ به یک روش مناسب تر، به عنوان مثال. رگرسیون پواسون و در محاسبه توان برای روش جدید قابل بحث است (الان توان واقعی را نمی دانید). اکنون چگونه می توان در مورد قدرت مطالعه توضیح داد؟ با چه شواهدی | زمانی که تحلیل واقعی باید متفاوت از طراحی شده انجام شود |
24061 | من نگران این هستم که اکثر مردم چقدر (چه در داخل و چه بدون دانشگاه) برای به کارگیری صحیح روشهای ساخت مدل استاندارد مانند رگرسیون خطی و تفسیر نتایج این مدلها، مجهز نیستند. هم از مشاهدات خودم و هم از ادبیات، واضح است که اکثر مردم با ابزارهای آماری استانداردی که در دسترس دارند، خدمات ضعیفی دریافت می کنند. برای بهبود این وضعیت، من میخواهم مجموعه متفاوتی از جداول خروجی ارزیابی مدل را پیشنهاد کنم (نمونههایی که در جدول 2 و جدول 3 در زیر نشان داده شدهاند) تا جایگزین جدول خروجی استانداردی شوند که امروزه تقریباً به طور جهانی مورد استفاده قرار میگیرند (نمونهای در جدول 1 نشان داده شده است). این قالب خروجی جدید در برابر خطای انسانی (هم در مشخصات مدل و هم در تجزیه و تحلیل) تا حد بسیار بیشتری نسبت به فرمت فعلی ما مقاوم است. از مردم می خواهم انتقادشان را نسبت به این روش پیشنهادی و اینکه آیا علاقه ای به استفاده از آن وجود دارد یا خیر؟ (با عرض پوزش برای طولانی شدن این موضوع، بسیار طولانیتر از حد انتظار شد) ## بررسی اجمالی رویکرد ابتدا، با استفاده از اعتبارسنجی متقاطع (LOOCV) یک $R^2$ صادقانه را محاسبه کنید تا یک معیار کلی از تناسب مدل بدست آورید. به عبارت ساده، هر نقطه داده را به نوبه خود حذف کنید، مدل را بدون آن نقطه داده تخمین بزنید، سپس از مدل کاهش یافته برای محاسبه مقدار نقطه داده حذف شده استفاده کنید و از این خطاها برای تخمین R^2$ خود استفاده کنید. سپس برای هر ضریب در مدل، آن پارامتر را از مدل حذف کنید و یک R^2$ صادقانه برای آن مدل فرعی محاسبه کنید. اثر افزودن ضریب به مدل را به صورت $R^2$ مدل کلی منهای $R^2$ مدل فرعی در هنگام حذف ضریب محاسبه کنید. بنابراین یک مقدار مثبت برای این ضریب $R^2$ نشان میدهد که وقتی به مدل اضافه میشود، تناسب بهبود مییابد. یک مقدار منفی نشان دهنده کاهش تناسب است. نتایج به عنوان یک جدول ساده از مقادیر صادقانه $R^2$ گزارش می شود (نمونه هایی را در جدول 2 و جدول 3 در زیر ببینید). ## بحث این رویکرد برای ساده بودن و انجام سه کار طراحی شده است: 1. اطلاعاتی را که برای تفسیر اهمیت (عملی) مدل ها و ضرایب نیاز دارند در اختیار کاربران نهایی قرار می دهد. 2. این اطلاعات را به شکلی که هستند به کاربران نهایی ارائه می دهد از قبل با 3 آشنا شدهام. تأثیر خطای کاربر را هم در توسعه مدلها و هم در تفسیر نتایج به حداقل برسانید. فکر میکنم این رویکرد هر سه مورد را انجام میدهد. استفاده از متریک $R^2$ قابل درک جهانی باید به این معنی باشد که به راحتی قابل درک است و می تواند مستقیماً به چارچوب های ذهنی موجود کاربران متصل شود. دوم، استفاده از این رویکرد قوی است: هم برای مدلهای نادرست و هم برای تفسیر ضعیف. اکثر مدلها به فرضیاتی بستگی دارند که کاربران اغلب موفق به بررسی آنها نمیشوند. البته، مقادیر p برای ضرایب در رگرسیون های خطی به مفروضات پارامتری خاصی بستگی دارد که عموماً به میزان بیشتر یا کمتر نقض می شوند. این رویکرد پیشنهادی در برابر چنین مسائلی انعطافپذیر است (مساله اصلی که مستعد آن است، مانند آمارهای خروجی منظم، همبستگی بین مشاهدات است که میتواند منجر به تخمین بیش از حد $R^2$ صادقانه شود). در مورد تفسیر نتایج، مقادیر p یا اغلب اشتباه تفسیر می شوند (همانطور که به طور گسترده ذکر شده است). من معتقدم که این رویکرد صادقانه $R^2$ نسبت به این مسائل بسیار انعطاف پذیرتر است زیرا بر اندازه اثر متمرکز است (که اغلب آن چیزی است که مردم به اشتباه p-value را به عنوان پروکسی می گیرند). این مفهوم به جای اهمیت آماری بر اهمیت عملی تأکید می کند، مفهومی که مردم با آن مشکل زیادی دارند. علاوه بر این، این روش امکان مقایسه مستقیم نتایج را با نتایج حاصل از روشهای دیگر (حتی آنهایی که احتمال ایجاد نمیکنند) مانند تکنیکهای یادگیری ماشینی مانند جنگلهای تصادفی را میدهد. یکی از مسائل این رویکرد بار محاسباتی است. جایی که LOOCV از نظر محاسباتی غیرممکن است، CV 10 یا 5 برابری را پیشنهاد میکنم. از آنجایی که این روش ها باید منجر به خطای بالاتری شوند (از آنجایی که مدل در حال آموزش روی مجموعه داده های کوچکتر است)، مقادیر صادقانه $R^2$ گزارش شده توسط آنها _محافظه کارانه_ خواهد بود. بنابراین می توان آنها را در جای LOOCV با هر گونه خطر مقایسه نادرست که ماهیت محافظه کارانه دارد، استفاده و گزارش کرد. مسئله دیگر این است که تخمین LOOCV دارای سوگیری بالایی است. من واقعاً مطمئن نیستم که چگونه می توان با این مشکل برخورد کرد یا اینکه آیا یک مشکل جدی است. آخرین نکته این است که LOOCV به طور مجانبی معادل AIC است، بنابراین این می تواند کمی در آن پارادایم قرار گیرد. ## مثال کاربردی با در نظر گرفتن مجموعهای از دادههای مسکن (http://archive.ics.uci.edu/ml/datasets/Housing)، ما سعی میکنیم میانگین ارزش خانه را در حومه شهر بر اساس میانگین سن خانه، تعداد اتاقها در منطقه پیشبینی کنیم. خانه، سطح آلاینده ها، نسبت دانش آموز به معلم، و نزدیکی به بزرگراه. ما با یک رگرسیون خطی شروع می کنیم. در زیر مشابه چیزی است که اکثر نرم افزارها در حال حاضر خروجی می دهند (این جدول خاص توسط R ایجاد شده است). ### جدول 1. جدول رگرسیون استاندارد. ضرایب: Estimate Std. خطای t مقدار Pr(|t|) (تقاطع) 7.76739 4.98881 1.557 0.120112 AGE -0.01509 0.01378 -1.096 0.273773 ROOMS 7.00565 0.417 0.411 | ارتباط نتایج مدل رگرسیون |
64864 | **وظیفه من توسعه سیستمی است که یک سری اندازه گیری را انجام دهد و احتمال اینکه یک شی از نوع 1، نوع 2،... نوع n باشد را برمی گرداند.** به سیستمی که باید ایجاد کنم اشاره می کنم. به عنوان یک طبقه بندی من همه انواع ممکن را می دانم، بنابراین می دانم که باید یکی و تنها یکی از انواع باشد. من باید سیستم خود را بر اساس برخی از داده هایی که از یک شبیه سازی به من داده شده است توسعه دهم. شبیهسازی مبتنی بر فیزیک هم دادههای حقیقت را تولید میکند، هم آنچه در شبیهسازی اتفاق میافتد، و هم دادههای اندازهگیری شبیهسازیشده، چیزی که حسگرهای شبیهسازی شده اندازهگیری میکنند. متأسفانه، من به اندازه ای که می خواهم داده ندارم، و به دست آوردن داده های بیشتر با اجرای شبیه سازی مبتنی بر فیزیک در حال حاضر گزینه ای نیست، بنابراین باید به آنچه دارم بسنده کنم. مافوق من معتقد است که استفاده از مدل مختلط گاوسی (GMM) بهترین طبقه بندی کننده را تولید می کند، بنابراین راه حل من باید از GMM استفاده کند. راه حل پیشنهادی او استفاده از الگوریتم انتظار-بیشینه سازی برای توسعه طبقه بندی کننده، تنها با استفاده از داده های حقیقت است. برای اندازهگیری اینکه چقدر احتمال دارد یک اندازهگیری دادهشده یک نوع معین باشد، فاصله Mahalanobis بین میانگین و کوواریانس دادهشده توسط GMM و اندازهگیری را اندازهگیری کردیم. نوع با کوچکترین فاصله ماهالانوبیس، ما فکر می کردیم محتمل ترین نوع شی باشد. هنگامی که آزمایش اولیه خود را انجام دادیم، میتوانیم کارایی طبقهبندیکننده خود را با اتصال دادههای اندازهگیری شبیهسازیشده و دیدن نحوه انجام آن اندازهگیری کنیم. (ما به سادگی بررسی کردیم که طبقه بندی کننده کدام نوع را محتمل تر تشخیص داده است). عملکرد اولیه ما ضعیف بود، متوجه شدیم که تقریباً همه چیز به عنوان نوع 1 طبقه بندی می شود. تنها زمانی که هر نوع دیگری به درستی طبقه بندی می شد زمانی بود که حقیقت و اندازه گیری تقریباً یکسان بودند. پس از بررسی دقیقتر دادهها، دادههای حقیقت برای همه انواع بهجز نوع 1 بهشدت خوشهبندی میشوند، که باعث میشود کوواریانس مرتبط با GMM بسیار کوچک باشد. برای نوع 1، کوواریانس بزرگ است، زیرا مجموعه داده خاصی که من دارم، تنوع زیادی را نشان می دهد. من متوجه هستم که بهترین راه حل دریافت داده های شبیه سازی بیشتر است، اما در حال حاضر این یک گزینه نیست، بنابراین سعی می کنم بفهمم چگونه می توانم عملکرد طبقه بندی کننده خود را بهبود بخشم. سوال من این است که آیا باید به طور مصنوعی نویز را به داده های آموزشی اضافه کنم تا به طبقه بندی کننده یک پیش نمایش از داده های اندازه گیری بدهد یا باید سعی کنم روش دیگری برای طبقه بندی پیدا کنم؟ من یک ریاضیدان نیستم، من یک مهندس هستم، بنابراین اگر به نظر می رسد که نمی دانم در مورد چه چیزی صحبت می کنم، به این دلیل است که در قلمروی ناآشنا هستم. پس لطفاً اگر از اصطلاحات اشتباهی استفاده می کنم یا مبهم هستم، به من اطلاع دهید و تمام تلاشم را برای توضیح دادن انجام خواهم داد. * * * داده ها در مجموع دارای _سه بعد_ هستند که یکی از آنها زمان است. به نظر نمی رسد راهی برای استفاده موثر از بعد زمان پیدا کنم زیرا برخی از شبیه سازی ها 500 ثانیه و برخی دیگر فقط 200 ثانیه طول می کشند. متوجه شدم که میتوانم تعداد ابعاد را با مشتق کردن یکی از ابعاد نسبت به دیگری یا با استفاده از یک معادله غیرخطی برای ایجاد یک بعد جدید بر اساس یک یا دو متغیر افزایش دهم، اما مطمئن نیستم. چقدر مفید خواهد بود | آیا قبل از آموزش طبقهبندی کننده، باید نویز را به دادههای حقیقت اضافه کنم؟ |
31299 | من یک متغیر وابسته دارم که از 3 دسته و 14 متغیر پیش بینی باینری تشکیل شده است. من سعی کردهام از بستههای «mlogit» و «nnet/multinom» در R استفاده کنم. **آیا رویکردی بهتر از رگرسیون لجستیک چند جملهای برای این سناریوی خاص وجود دارد؟** | آیا از رگرسیون لجستیک چند جمله ای با متغیر نتیجه سه طبقه و بسیاری از پیش بینی کننده های باینری استفاده کنیم؟ |
91599 | در حال انجام مطالعه ای هستم که در آن 10 درس به شرکت کنندگانم آموزش می دهم. بعد از هر درس باید به سوالات پاسخ دهند تا درک درس را بررسی کنند. برخی از شرکت کنندگان بین 2-4 درس را از دست دادند. چگونه می توانم داده های از دست رفته را مدیریت کنم؟ آیا آنها را رها کنم؟ | نحوه رسیدگی به داده های از دست رفته |
79385 | من دادههای نظرسنجی خانوار با 32 سؤال در مورد داراییهایی که خانوار دارد یا ندارد دارم. من فرض میکنم که مجموع پاسخهای این سؤالات دارایی (مثلاً چند تلویزیون صاحب خانه است) نشانهای از ثروت است و میتواند برای ایجاد یک شاخص خوب از ثروت استفاده شود، به عنوان مثال. با استفاده از مولفه اول در تجزیه و تحلیل اجزای اصلی. با این حال، کاری که من میخواهم انجام دهم این است که 10 مورد از این متغیرها را انتخاب کنم که به طور مشترک بیشترین نسبت ممکن از تنوع در ثروت را توضیح میدهند و از آنها به عنوان سؤالات در پرسشنامه کوتاهتری که در حال توسعه هستم استفاده میکنم. بهترین راه برای انجام این کار چیست؟ یکی از احتمالاتی که برای من پیش آمده این است که شاخص ثروت را با استفاده از PCA محاسبه کنم، سپس آن را بر روی هر ترکیب ممکن (حدود 60 میلیون) از 10 متغیر از 32 رگرسیون کنم و ببینم کدام یک بالاترین مربع R را دارد. امیدوارم راه ساده تری وجود داشته باشد. در حالت ایده آل من به دنبال پیاده سازی این در Stata هستم. | چگونه می توانم 10 متغیری را انتخاب کنم که بیشترین تنوع را در شاخص ثروت توضیح می دهند؟ |
76316 | در حال حاضر من روی برخی مسائل خوشه بندی زیرفضا کار می کنم. من یک بسته مفید در R به نام orclus پیدا کردم که یک الگوریتم خوشه بندی زیرفضا به نام orclus را پیاده سازی کرد. همانطور که در توضیحات بسته بیان شد، دو پارامتر کلیدی وجود دارد که باید تعیین شوند. یکی ابعاد زیرفضا و دیگری عدد خوشه است. بیان شده است که برای تعیین مقدار بهینه ابعاد زیرفضا می توان از یک آماره از ضریب پراکندگی خوشه استفاده کرد. هر چه این آمار به صفر نزدیکتر باشد، عملکرد بهتری دارد. با این حال، وقتی واقعاً این پیادهسازی را امتحان میکردم، متوجه شدم که وقتی ابعاد زیرفضا 1 باشد، آمار حداقل است. و هر چه ابعاد زیرفضا بزرگتر باشد، آمار بزرگتر است. آیا منطقی است؟ انتظار چنین روند یکنواختی را نداشتم. | خوشه بندی فضای فرعی در R با استفاده از بسته orclus |
63578 | برای تشخیص تکینگی محاسباتی، میتوان به عنوان مثال، کمبود رتبه را بررسی کرد یا تجزیه ارزش تکی را محاسبه کرد. من سوالات زیر را دارم: (1). آیا دو روش ذکر شده در بالا به طور کلی نتایجی را ایجاد می کنند که با یکدیگر منطبق باشند؟ (2). اگر پاسخ (1) منفی باشد، کدام روش قابل اعتمادتر است؟ _**اطلاعات اضافی:_** فکر نمی کنم باید از کلمه قابل اعتماد در اینجا استفاده می کردم. من در حال نوشتن یک تابع C++ با استفاده از کتابخانه Armadillo هستم. تابع در R فراخوانی می شود. بخشی از تابع C++ از تابع Armadillo `solve()` استفاده می کند. در حالت تکینگی، تابع یک استثنا ایجاد می کند. اما من میخواهم قبل از اجرای «solve()» مشکل را پیدا کنم و پیام خطای معنیداری را به R ارسال کنم. بنابراین فکر میکردم شاید بتوانم کمبود رتبه یا svd را برای انجام آن بررسی کنم. | یک راه قابل اعتماد برای بررسی اینکه آیا ماتریس مربع از نظر محاسباتی منفرد است چیست؟ |
38092 | > **تکراری احتمالی:** > دو بتای منفی در یک رگرسیون منحنی زمانی که میانگین وسط یا استفاده از > مقادیر استاندارد شده است. . وقتی به تخمین منحنی نگاه می کنید، در واقع یک رابطه U شکل معکوس کامل وجود دارد. اگر تحلیل رگرسیون انجام دهید، متغیر مستقل نرمال و مجذور عبارت متغیر مستقل را دارید. اگر این هر دو معنی دار باشند، این نشان می دهد که یک رابطه U شکل معکوس وجود دارد. با این حال، به خوبی شناخته شده است که در این روش شما یک مقدار VIF (چند کولینیاری) بسیار بالایی دارید، زیرا یک همبستگی تقریباً کاملاً مثبت بین متغیر مستقل معمولی و متغیر مستقل مجذور وجود دارد (چون مطمئناً آن را مربع میکنید). راه حل برای کاهش چند همدلی این است که به معنای مرکز متغیر مستقل، و پس از آن گرفتن مجذور جمله میانگین متغیر مستقل متمرکز است. اگر اکنون یک رگرسیون انجام دهم (با میانگین هر دو پیشبینیکننده در مرکز) دیگر با چند خطی بودن مشکلی ندارم، اما متغیر مستقل عادی دیگر معنیدار نیست (متغیر مستقل مجذور هنوز معنیدار است). این چگونه ممکن است؟ چه اشکالی دارد؟ آیا هنوز هم می توان رابطه معکوس U شکل را زمانی که فقط متغیر مستقل مجذور معنی دار است اثبات کرد؟ یا اینکه می توان مسائل چند خطی را نادیده گرفت؟ | چگونه ممکن است که متغیر مستقل نرمال پس از مرکز میانگین در یک رابطه منحنی دیگر معنی دار نباشد؟ |
76314 | من یک سوال در مورد تهیه مجموعه داده های نمونه های مثبت برای یک طبقه بندی آبشاری دارم که برای تشخیص اشیا استفاده می شود. به عنوان نمونه مثبت، 3 مجموعه تصویر به من داده شده است: 1. مجموعه ای از تصاویر **رنگی** در اندازه کامل (حدود 1200x600) با **پس زمینه سفید** و با شیئی که در زوایای مختلف نمایش داده می شود. تصویر 2. مجموعه دیگری با تصاویر مشابه در **مقیاس خاکستری** و با **پس زمینه سفید**، کوچک شده به اندازه پنجره تشخیص (60x60) 3. مجموعه دیگری با همان تصاویر در **مقیاس خاکستری** و با **پس زمینه سیاه**، کوچک شده به اندازه پنجره تشخیص (60x60) سوال من این است که در مجموعه 1، آیا پس زمینه واقعا باید سفید باشد؟ آیا در عوض نباید یک **محیط** باشد که احتمالاً شیء در مجموعه داده آزمایشی در آن یافت می شود؟ یا باید مجموعه چهارمی داشته باشم که تصاویر در محیط طبیعی خود باشند؟ محیط چگونه در نمونه های آموزشی قرار می گیرد؟ | نمونه های مثبت در مجموعه داده برای آموزش طبقه بندی کننده - محیط چگونه باید شکل بگیرد؟ |
91593 | من میخواهم مدلی بسازم که تعیین کند آیا ویجتهایم را از قبل برای عیوب غربال کنم یا نه. اگر من پیش نمایش را انجام دهم، برای هر چک مبلغ ثابتی هزینه می شود و 100٪ مواقع مشکل را حل می کنم. اگر از قبل غربالگری نکنم، هزینه آن هزینه رفع مشکل، به علاوه هزینه مواد برای موجودی منقضی شده خواهد بود. من مجموعه کاملی از متغیرها دارم که بر روی رخ دادن نقص در هر ویجت خاص تأثیر میگذارند، اما اگر این نقص رخ دهد و من آن را از قبل بررسی نکرده باشم، قطعاً منجر به هزینه تعمیر ثابت و هزینه متغیر منقضی شده موجودی میشود. در مورد هزینه مواد برای هر ویجت، باید بدانم که آیا هزینه مورد انتظار نقص از هزینه پیش از غربالگری بیشتر است یا کمتر. چیزهایی که من می دانم: * الف - هزینه پیش غربالگری * ب - مدلی برای پیش بینی شکست - بر اساس داده های آزمایشی - مواردی که می گوید نقصی ندارد، در 98.5٪ مواقع درست است (نادرست است). منفی). * C - مدل برای پیش بینی هزینه مورد انتظار مواد اولیه برای هر ویجت تولید شده * D - درصد تعمیراتی که موفقیت آمیز خواهد بود و منجر به عدم هزینه موجودی منقضی شده می شود * E - هزینه ثابت تعمیرات بنابراین، باید بررسی کنم اگر: A - B* (E+C*D) > 0 من همه این قطعات را دارم، اما نمیدانم چگونه آن را به یک مدل تبدیل کنم. هر کسی که مهارت های R یا Stata را داشته باشد، خوشحال می شوم که در جهت یک بسته خوب برای ساخت این مدل استفاده کند. | تجزیه و تحلیل سود هزینه ویجت های پیش از غربالگری برای خطاها قبل از شکست |
87345 | من سعی کردم AIC یک رگرسیون خطی را در R محاسبه کنم اما بدون استفاده از تابع AIC، مانند این: lm_mtcars <- lm(mpg ~ drat, mtcars) nrow(mtcars)*(log((sum(lm_mtcars$residuals^2)/nrow(mtcars))))+(طول(lm_mtcars$ضرایب)*2) [1] 97.98786 با این حال، `AIC` مقدار متفاوتی می دهد: AIC(lm_mtcars) [1] 190.7999 کسی می تواند بگوید من چه غلطی می کنم؟ | محاسبه AIC با دست در R |
25817 | محاسبه مقادیر AIC یا BIC برای مدلهای رگرسیون کمند و سایر مدلهای منظم که در آن پارامترها فقط تا حدی وارد معادله میشوند، امکانپذیر است. چگونه می توان درجات آزادی را تعیین کرد؟ من از R برای تطبیق مدلهای رگرسیون کمند با تابع glmnet در بسته glmnet استفاده میکنم، و میخواهم بدانم چگونه مقادیر AIC و BIC را برای یک مدل محاسبه کنم. به این ترتیب من میتوانم مقادیر را با مدلهای متناسب بدون منظمسازی مقایسه کنم. آیا توابعی وجود دارد که بتواند این کار را انجام دهد؟ | آیا می توان AIC و BIC را برای مدل های رگرسیون کمند محاسبه کرد؟ |
79337 | من می خواهم یک فایل csv. را با نتایج نظرسنجی مشتری تجزیه و تحلیل کنم. یکی از سوالات این است: 3 دلیل اصلی را که ما را انتخاب کردید به ما بگویید. پاسخ ها پاراگراف های کوتاهی از متن هستند که تعدادی از دلایل را فهرست می کنند (نه همیشه 3). یک پاسخ مثال می تواند 1. سرعت، 2. خدمات مشتری، 3. قیمت باشد. یکی دیگر ممکن است این باشد: من از خدمات مشتری شما خوشم آمد و آنقدرها هم گران نبود! من میخواهم بتوانم این دادهها را به یک نمای کلی مانند این تبدیل کنم: دلایل خدمات مشتری: 2 قیمت: 2 سرعت: 1 من با دو مشکل مواجه هستم: 1. من دلایل را به صورت دستی در یک صفحه گسترده تفسیر و تقسیم میکنم. از هر گونه راهنمایی در مورد چگونگی انجام کارآمدتر این کار بسیار استقبال می شود. 2. من یک فیلد Reasons دارم که می خواهم مقدار متغیری از مقادیر در هر رکورد را داشته باشد. فکر نمیکنم نرمافزار صفحهگسترده مانند Libre Calc از آن پشتیبانی کند، و فکر میکنم ممکن است لازم باشد آن را به SQL صادر کنم. آیا من حق دارم که به آن شک کنم؟ و چگونه می توانم به نیاز چند فیلد در هر ویژگی در SQL دست یابیم؟ | پرداختن به مقدار متغیر ورودی برای یک ویژگی معین |
79339 | من در حال حاضر EWMA و EWMV را با $M_k=(1-\alpha)*M_{k-1}+\alpha*x$$S_k=(1-\alpha)*(S_{k-1}+\ ردیابی می کنم alpha*(x-M_{k-1})^2)$ اکنون، من این مقادیر را در مجموعه داده ها با 4 بعد مختلف دنبال می کنم و می خواهم این ابعاد را تا کنم تا به دست بیاورم. نماهای جمعآوریشده، اما مطمئن نیستم که چگونه میتوانم میانگین و واریانس مجموعههای دادههای متعدد را با هم ترکیب کنم، زیرا آنها به صورت تصاعدی هموار میشوند، زیرا اندازه جمعیت را ندارم. از آنجایی که ابعاد مقیاس های متفاوتی دارند، مطمئناً نمی توانم جمعیت 1 را برای هر مجموعه جزئی فرض کنم؟ | ترکیب واریانس های هموار شده به صورت نمایی |
103660 | من یک آزمایش مزرعه ای با ژنوتیپ های مختلف را بر اساس طرح تقویت شده برنامه ریزی کردم (ورودهای مکرر به اضافه ورودی های تکرار نشده را بررسی کنید). از آنجایی که من در حال آزمایش یک جمعیت در حال جداسازی هستم، هر کرت به رنگهای گیاهی مختلف تقسیم شد. بنابراین، من میخواهم هر گروه رنگی را در هر طرح بهصورت مجزا تجزیه و تحلیل کنم. به نظر می رسد این یک نوع طرح تقسیم شده تقویت شده است. چگونه می توان چنین آزمایشی را در R تحلیل کرد؟ | طرح آزمایشی طرح تقسیم شده افزوده |
25814 | مطمئن نیستم که آیا این متعلق به CrossValidated، Computational Science یا چیز دیگری است. من مقداری کد و داده دارم که در یک نشریه قرار میگیرند، اما میخواهم این کد و دادهها را در دسترس عموم قرار دهم تا بتوان تجزیه و تحلیل را تکرار کرد. اگر من آن را توسط ناشر میزبانی می کردم، این موضوع را نادیده می گرفتم و اجازه می دادم با آن برخورد کنند، اما به دلایلی برای کدنویسی و داده ها به صورت خارجی در سایت خودم میزبانی می شود. فکر می کنم باید نوعی مجوز روی کد و داده های گفته شده قرار دهم. آیا Creative Commons یا نوع دیگری از مجوز وجود دارد که به خوبی به داده های باز کمک کند؟ چیز دیگری که باید در نظر بگیرم؟ فقط مزاحم نیست؟ | مجوز کدهای تحلیلی و داده ها - از کدام مجوز استفاده شود و چه مسائلی؟ |
31294 | من سعی می کنم یک رگرسیون لجستیک روی برخی از داده ها انجام دهم. در اینجا یک نسخه ساده شده از این وضعیت است: من سعی می کنم موفقیت دانش آموزان را بر اساس سابقه آنها و غیره پیش بینی کنم. یکی از پیش بینی های من درصد دروسی است که آنها در گذشته گذرانده اند. اگر آنها هیچ دوره ای را گذرانده اند، من نمی خواهم آن را صفر کنم، زیرا این بدیهی است که با شکست در تمام دوره های آنها متفاوت است. در حال حاضر، این موارد به صورت NaN تنظیم می شوند، اما وقتی از تابع glm در R استفاده می کنم، خطای زیر را دریافت می کنم: > Error in glm.fit(x = c(1, 1, 1, 1, 1, 1, 1 , 1, 1, 1, 1, 1, 1, 1, 1, 1, : > NA/NaN/Inf در فراخوانی تابع خارجی (arg 1) **چگونه آیا برای افرادی که هنوز هیچ دوره ای را گذرانده اند عملکرد را پیش بینی می کنم؟** | چگونه می توانم عملکرد افرادی را که هنوز هیچ دوره ای را گذرانده اند پیش بینی کنم؟ |
37840 | خوب، بنابراین من سعی می کنم رگرسیون خطی را درک کنم. من یک مجموعه داده دارم و به نظر می رسد کاملاً خوب است، اما گیج شده ام. این مدل خطی من است - خلاصه: ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (Intercept) 0.2068621 0.0247002 8.375 4.13e-09 *** temp 0.0031074 0.0004779 6.502 4.79e-07 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 0.04226 در 28 درجه آزادی چندگانه R-squared: 0.6016، R-squared تنظیم شده: 0.58 F آمار: 42.28 در 1 و 28 DF، p-value: 4.789e-07، بنابراین، p-value واقعا پایین است، به این معنی که خیلی بعید است که به طور تصادفی همبستگی بین x,y را بدست آوریم. اگر آن را رسم کنم و سپس خط رگرسیون را رسم کنم، به این صورت می شود: http://s14.directupload.net/images/120923/l83eellv.png (آن را به عنوان تصویر درج کرده بودم، اما من - به عنوان یک کاربر جدید - در حال حاضر نیستم اجازه ارسال آن را دارد) خطوط آبی = فاصله اطمینان خطوط سبز = فاصله پیش بینی اکنون، بسیاری از نقاط در فاصله اطمینان قرار نمی گیرند، چرا این اتفاق می افتد؟ فکر میکنم هیچ یک از نقاط داده روی خط رگرسیون b/c قرار نمیگیرند، آنها فقط از یکدیگر بسیار دور هستند، اما چیزی که من از آن مطمئن نیستم: آیا این یک مشکل واقعی است؟ آنها هنوز در اطراف خط رگرسیون هستند و شما می توانید کاملاً یک الگو را ببینید. اما آیا این کافی است؟ من سعی می کنم آن را بفهمم، اما فقط همین سوالات را بارها و بارها از خودم می پرسم. چیزی که تا به حال به آن فکر کردم: فاصله اطمینان می گوید که اگر CI را بارها و بارها محاسبه کنید، در 95٪ مواقع میانگین واقعی در CI قرار می گیرد. بنابراین: اشکالی ندارد که dp در آن نیفتد، زیرا اینها واقعاً وسیله نیستند. از سوی دیگر بازه پیشبینی میگوید، اگر PI را بارها و بارها محاسبه کنید، در 95% مواقع VALUE واقعی در بازه قرار میگیرد. بنابراین، داشتن نکاتی در آن بسیار مهم است (که من دارم). سپس خواندم که PI همیشه باید دامنه وسیع تری نسبت به CI داشته باشد. چرا اینطور است؟ این کاری است که من انجام دادهام: conf<-predict(fm, interval=c(اطمینان)) prd<-predict(fm, interval=c(پیشبینی)) و سپس آن را توسط: matlines(temp, conf[,c(lwr،upr)]، col=red) matlines(temp,prd[,c(lwr,upr)]، col=red) حالا، اگر من CI و PI را برای داده های اضافی محاسبه کنم، مهم نیست که چقدر محدوده را انتخاب می کنم، دقیقا همان خطوط بالا را دریافت می کنم. نمیتونم بفهمم این به چه معناست؟ سپس این عبارت خواهد بود: conf<-predict(fm,newdata=data.frame(x=newx)، interval=c(اطمینان)) prd<-predict(fm,newdata=data.frame(x=newx) interval=c(پیشبینی)) برای x جدید دنبالههای مختلفی را انتخاب کردم. اگر دنباله دارای # مشاهدات متفاوت از متغیرهای موجود در رگرسیون من باشد، یک هشدار دریافت میکنم. چرا چنین می شود؟ | فواصل اطمینان و پیش بینی مدل رگرسیون خطی |
21308 | من می خواهم نشان دهم ${\rm var}(\overline{X})$ $\sigma^2/ n$ برای $n$ متغیرهای تصادفی مستقل است که هر کدام با میانگین $\mu$ و انحراف استاندارد $\sigma$ است. من میخواهم این را با استفاده از: $$ E(\overline{X} - \mu) نشان دهم. نظر/نظری دارید؟ با تشکر دایان | استخراج ${\rm var}(\overline{X})$ از تعریف مقدار مورد انتظار |
3121 | من می خواهم فرمول یا روش محاسبه این را بدانم. به عنوان مثال، من می خواهم بدانم چند عدد باید انتخاب کنم تا 95٪ اطمینان داشته باشم که در 2٪ از میانگین قرار خواهم گرفت. من همچنین علاقه مند به انجام یک تحلیل مشابه برای میانه هستم. به روز رسانی: اعداد دوباره در استخر قرار نمی گیرند. من فکر می کنم این به ترکیبات مربوط می شود تا آزمایشات؟ برای مثال، اگر من 1 عدد یا 99 عدد را انتخاب کنم، 100 ترکیب وجود دارد، اگر 100 عدد را انتخاب کنم، 1 ترکیب وجود دارد و غیره. ببینید چه تعداد در 2٪ از میانه هستند. من علاقه مندم که ببینم آمار میانگین قیمت برای بازار مسکن چقدر قابل اعتماد است. به عنوان مثال، در یک ماه ممکن است 5٪ از خانه ها بفروشند، یا شاید 20٪ بفروشند. قیمت مسکن در سراسر نقشه است، اما من می خواستم یک کار ساده مانند این انجام دهم. و حالا به چیز دیگری فکر کرده ام... فرض کنید به جای 1-100، 1-500 دارم. اگر من از 1 تا 100 توپ را انتخاب کنم و 10 توپ (10٪ آنها) را انتخاب کنم، حدس می زنم که پاسخ با گرفتن 50 توپ از 1-500 (10٪ آنها نیز) متفاوت باشد؟ | اعداد 1-100، محاسبه چند عدد باید انتخاب کنم تا x% قابلیت اطمینان را بدست بیاورم |
66705 | من واقعاً می توانم از برخی توصیه ها با تفسیر تعامل استفاده کنم. من یک آنووا با اندازه گیری های مکرر 3 طرفه با عبارات A، B و C انجام داده ام. A دارای 2 سطح، B دارای 3 سطح و C دارای 4 سطح است. نتایج من یک اثر اصلی مهم A و یک اثر متقابل معنیدار BxC را نشان میدهد. من می دانم که اگر اثر متقابل وجود داشته باشد، نباید اثر اصلی را تفسیر کرد. آیا در این شرایط زمانی که متغیر A با اثر اصلی هیچ تعامل قابل توجهی را تجربه نمی کند، صادق است؟ | تفسیر اثرات اصلی در حضور تعامل بین سایر متغیرها |
66699 | من داشتم این مقاله مربوط به فرآیندهای گاوسی را می خواندم http://ipg.epfl.ch/~seeger/lapmalmainweb/papers/bayesgp-tut.pdf. من متوجه نشدم که چگونه آنها پسین فرآیند گاوسی را با توجه به برخی داده های مشاهده شده استخراج کردند. هر دو y و u دارای توزیع نرمال با میانگین 0 هستند. فقط کوواریانس در مورد y و u متفاوت است. من متوجه نشدم که چگونه قسمت $K$ در میانگین قسمت پسین و کوواریانس پسین آمده است خب u ~ 0 K K_uy y ~ 0 K_uy K+$\sigma^2$ من متوجه نشدم که چگونه قسمت K_uy محاسبه می شود. آنها آن را K قرار داده اند. مطمئن نیستم چرا. شفاف سازی؟ همچنین می توانید توضیح دهید که چگونه فرآیند پیش بینی مشتق شده است. من می دانم که ادغام منطقی است. اما چگونه بیان نهایی را به دست آوردند؟  | سردرگمی مربوط به اشتقاق فرآیندهای خلفی گاوسی |
56963 | هنگام استفاده از رگرسیون برای تخمین رابطه بین متغیر مورد علاقه و فاصله از یک نقطه معین (مثلاً منحنی فاصله - فروپاشی)، مزایا و معایب برازش خط رگرسیون به دادههای تجمعی به جای دادهها بر اساس باند چیست و چیست؟ تعادل مزیت؟ مثال زیر یک مثال کمی ساختگی است که برای نشان دادن این سوال در عین اجتناب از مسائل اضافی طراحی شده است. فرض کنید یک محقق به نحوی نمونه تصادفی 100 آجیل را که روی یک درخت آجیل رشد می کند برچسب گذاری کند. بعداً وقتی مهره ها افتادند، محقق محل قرارگیری آنها را شناسایی می کند، فاصله آنها را از درخت اندازه می گیرد و اعداد را با فاصله های 5 متری می شمارد و داده های (فرضی) زیر را به دست می آورد:  محقق می خواهد از نمونه برای تخمین رابطه فاصله-عدد برای کل جمعیت آجیل استفاده کند. روی درخت یک رویکرد تخمین رگرسیون N روی MD خواهد بود. یکی دیگر از اینها، تخمین رگرسیون CN بر روی D است. نتایج هر یک از این رویکردها میتواند به راحتی با جمع کردن یا گرفتن تفاوتها به شکل دیگر تبدیل شود. آیا مزیتی از نظر دقت در رویکرد دوم وجود دارد؟ مزایایی که برای من پیش می آید این است: 1. فاصله متوسط مهره ها در هر باند ممکن است نقطه وسط باند نباشد. اگر مثلاً میانگین فاصله معمولاً کمتر از نقطه میانی باشد، رگرسیون N روی MD منجر به بایاس میشود. در مقابل، رگرسیون CN روی D تحت تأثیر توزیع فواصل درون باندها قرار نمیگیرد. 2. هر دو رویکرد به باندبندی بستگی دارند، و این خطر را افزایش می دهد که نتایج آنها به ساختار باندی خاص انتخاب شده بستگی دارد (به Openshaw، مسئله واحد منطقه ای قابل اصلاح مراجعه کنید). با این حال، رویکرد تجمعی کمتر وابسته به نظر می رسد: برای مثال، با در نظر گرفتن N و CN در MD = 17.5 و D = 20، برای مثال، فرض کنید 1 مهره در فاصله 19.99 متر توسط یک باند کوچکتر حذف شده است. در آن صورت، N از 11 به 10 کاهش می یابد، یک تفاوت 9٪، در حالی که CN از 90 به 89 کاهش می یابد، تفاوت تنها 1.1٪. از N اگر یک فرم عملکردی ثبت شده مناسب به نظر برسد. همانطور که وبر در اظهار نظر خود اشاره کرده است، یک نقطه ضعف مهم، وابستگی متقابل بین مقادیر CN است. علاوه بر این، ناهمگونی در مقادیر N به روشی پیچیده بر مقادیر CN تأثیر می گذارد. من از روش تخمینی که بتواند این ویژگی ها را مدیریت کند آگاه نیستم - از هر پیشنهادی استقبال می شود. | مزایا و معایب برازش رگرسیون فضایی به داده های تجمعی |
91592 | آیا کسی می تواند من را به توضیح خوبی راهنمایی کند که چه زمانی یک متغیر باقیمانده در یک رگرسیون به شما پاسخی مشابه با استفاده از یک متغیر غیر باقیمانده با کنترل ها می دهد؟ برای مثال، بگویید میخواهم تأثیر متغیر x را بر y بدانم و باید a و b را کنترل کنم. در یک چارچوب مدل خطی کلاسیک، من میتوانم a و b را به عنوان متغیرهای کمکی (یعنی متغیرهای کنترلی) به مدل y روی x اضافه کنم، یا میتوانم ابتدا x را روی a و b رگرسیون کنم و سپس از باقیماندههای این رگرسیون استفاده کنم. باقیمانده x) برای پیش بینی y. هر دو ضریب یکسانی را برای x خواهند داد. این در مورد مدل خطی کار میکند، اما آیا x باقیمانده ضریب x را با کنترلهای دیگر انواع مدلها، به عنوان مثال، مدلهای لاجیت یا مدلهای پواسون میدهد؟ شبیهسازیهای ساده من پیشنهاد میکنند که اینطور نیست (کد R را در زیر ببینید)، اما سعی میکنم دلیل آن را بفهمم، و آیا میتوان از باقیماندهسازی به جای افزودن کنترلهای خارج از چارچوب مدل خطی استفاده کرد. آیا کسی می تواند من را به یک توضیح خوب راهنمایی کند؟ #تولید داده n=10000 set.seed(3345) a=rnorm(n); b=rnorm(n) x = 0.4*a + 0.4*b*b + rnorm(n) y = 0.5*x + 0.3*a + 0.3*b*b + rnorm(n) ## LINEAR مدل #### #یک مدل با کنترلها خلاصه ضریب مناسب را دریافت میکند(lm(y ~ x + a + I(b^2))) residmod=lm(x ~ a + I(b^2)) x.resid=resid(residmod) #با استفاده از یک متغیر باقیمانده، خلاصه ضریب یکسانی را دریافت میکند (lm(y ~ x.resid)) ## LOGIT MODEL #### y=.5* x + 0.3*a + 0.3*b*b + rlogis(n) ydichot=ifelse(y >0, 1, 0) #a مدل با کنترلها خلاصه ضریب مناسب را دریافت میکند (glm(ydichot ~ x + a + I(b^2)، خانواده = دوجملهای)) #با استفاده از یک متغیر باقیمانده، خلاصه ضریب یکسانی را دریافت نمیکند (glm(ydichot ~ x.resid، خانواده=دوجمله ای)) ## POISSON MODEL #### mu=exp(.5*x + 0.3*a + .3*b*b) ycount=rpois(n, mu) خلاصه (glm(ycount ~ x + a + I(b^2), family=poisson)) #با استفاده از یک متغیر باقیمانده خلاصه ضریب یکسانی را دریافت نمیکند( glm (ycount ~ x.resid، family=poisson)) | استفاده از پیشبینیکنندههای باقیمانده خارج از زمینه مدل خطی |
91597 | من در تلاش هستم تا به مفهوم پراکندگی بیش از حد در رگرسیون لجستیک دست پیدا کنم. من خوانده ام که پراکندگی بیش از حد زمانی است که واریانس مشاهده شده یک متغیر پاسخ بیشتر از آن چیزی است که از توزیع دوجمله ای انتظار می رود. اما اگر یک متغیر دو جمله ای فقط می تواند دو مقدار (1/0) داشته باشد، چگونه می تواند میانگین و واریانس داشته باشد؟ من با محاسبه میانگین و واریانس موفقیت ها از تعداد x آزمایشات برنولی خوب هستم. اما نمیتوانم مفهوم میانگین و واریانس متغیری را که فقط دو مقدار داشته باشد، بچرخانم. آیا کسی میتواند یک نمای کلی بصری ارائه دهد: 1. مفهوم میانگین و واریانس در متغیری که فقط میتواند دو مقدار داشته باشد. 2. مفهوم پراکندگی بیش از حد در متغیری که فقط میتواند دو مقدار داشته باشد. | پراکندگی بیش از حد در رگرسیون لجستیک |
72762 | در صفحه 378 از رمز نگاری با حافظه قابل دستکاری و نشتی، کلای و همکاران. ادعا کنید که دو توزیع احتمال $e(k)$ نزدیک هستند اگر فاصله بین آنها حداکثر $e(k)$ باشد. نزدیک یا دور بودن دو توزیع X و Y از یکدیگر چه اهمیتی دارد؟ چرا کسی به خصوص در رمزنگاری اهمیت می دهد؟ | فایده اندازه گیری فاصله آماری چیست؟ |
103664 | وقتی ماتریسهای مدل ثابت هستند، انجام پیشبینیها مستقیم است. با این حال، هنگام استفاده از یک مدل متغیر با زمان مانند رگرسیون پویا، مطمئن نیستم که چگونه باید ادامه داد، زیرا ما پیشبینیکنندهها را نیز مشاهده نمیکنیم (همچنین سریهای زمانی هستند) بنابراین شهود من این است که پیشبینیها مربوط به بخش ثابت هستند. مدل (با نادیده گرفتن بخش دینامیک) برای گام های جلوتر از t+1. هر نظری قدردانی خواهد شد. | پیش بینی های جلوتر از t+1 در مدل های فضای حالت خطی متغیر با زمان |
66704 | من دقیقاً مطمئن نیستم که چگونه این موضوع را عنوان کنم، یا از چه برچسب هایی استفاده کنم زیرا آمارهای پیشرفته واقعاً در حال حاضر موضوع من نیست. لطفاً عنوان و برچسبها را در صورت نیاز برای بهبود این سؤال تغییر دهید. بگویید من 10 کارمند مختلف دارم که اشتراک روزنامه را می فروشند و هر کارمند منطقه جغرافیایی متفاوتی از ایالت را پوشش می دهد. من اطلاعاتی در مورد تعداد کل روزنامه های فروخته شده برای هر کارمند در پایان هر ماه برای یک دوره 12 ماهه، ژانویه تا دسامبر، دارم. آنچه من می خواهم بدانم این است که چگونه می توانم اعداد را عادی سازی کنم و ارزیابی عملکرد کارمند را با درک کامل اینکه برخی از مناطق جغرافیایی به طور طبیعی بر اساس اطلاعات جمعیتی مختلف بهتر از سایرین عمل می کنند، دریافت کنم. یک کارمند ممکن است در منطقه ای که به طور سنتی حجم کمتری دارد به دلیل تراکم جمعیت کمتر، عملکرد بسیار خوبی داشته باشد، در حالی که کارمند دیگری ممکن است تعداد زیادی اشتراک روزنامه را فروخته باشد اما آنها در منطقه ای کار می کنند که تراکم جمعیت بسیار بالاتری نسبت به کارمند فوق الذکر دارد. . از کجا شروع کنم؟ برای انجام این کار به چه اطلاعاتی نیاز دارم؟ به چه مقدار داده تاریخی نیاز دارم؟ | مقایسه داده های ماهانه فروش کارکنان علیرغم تفاوت های منطقه ای |
23305 | من سعی می کنم یاد بگیرم که چگونه یک اندازه گیری مکرر در R با استفاده از `ezANOVA` انجام دهم و از دستور زیر استفاده کرده ام: > ezANOVA(data=NL2, dv=.(ln.conc.), wid=.(نمونه)، درون=.(زمان)، > بین=.(pH)، نوع=1، تفصیلی=صحیح) این خروجی من است و سوال من این است که چرا تست Mauchuly جواب نمی دهد؟ من معتقدم که 9 سطح در درون-Ss خود دارم ('time=A-I'، به مجموعه داده زیر مراجعه کنید). مقادیر p که من دریافت می کنم مانند SPSS است، بنابراین آزمایش باید به نوعی درست باشد...: $ANOVA Effect DFn DFd SSn SSd F p p<.05 ges pH 2 6 0.09673652 0.9441442 0.3073784 7.404-7.4629 48 1.08726236 1.0066814 6.4802768 1.065187e-05 * 0.35787718 pH:زمان 16 48 0.26690606 1.0066814 0.795-031814. 0.12035093 مجموعه داده استفاده شده (من زمان و pH را به حروف تبدیل کردم تا R بفهمد که یک عامل است نه عدد). ln(conc) در 3 pH (A-C)، 3 محل نمونه مختلف در هر pH (A-C)، در 9 زمان مختلف (A-I) اندازهگیری میشود: زمان pH نمونه ln (conc ) A A -0.862749964946125 B A -0.725670372265505 C A A -0.636766847123838 D A A -0.544727175441672 E A A -0.681218609694672 F A A -0.650087691099498 G A A -0.81193091675 -0.744440474947496 I A A -0.881889305156823 A B -0.603306476560156 B A B -0.592397277459802 C A B -0.555125882 A B -0.555125882 -0.534435489405125 E A B -0.834710744881732 F A B -0.869884359059999 G A B -0.923818998294947 H A B -1.1425621999 A -1.08767234862978 A C -0.818710403535291 B A C -0.7339691750802 C A C -0.755022584278033 D A C -0.761426021313 -0.738144546490681 F A C -0.825536368605691 G A C -0.936493439191674 H A C -1.04412410338404 I A C -1.16796293668 D -0.681218609694672 B B D -0.449416995637347 C B D -0.903868211875598 D B D -0.659712404473708 E B D -0.9597202918 F -0.657780036722654 G B D -0.681218609694672 H B D -0.460449416440924 I B D -0.99695863494161 A B E -0.358104523674 -0.187535123846842 C B E -0.379797361359587 D B E -0.454130280089445 E B E -0.574475650842447 F B E -0.7072464479 -0.802962046567152 H B E -0.45886588483528 I B E -1.14570389620196 A B F -0.951917909517306 B B F -0.88916203448 -0.685179010910768 D B F -0.685179010910768 E B F -0.860383099935859 F B F -0.913793851675568 G B F -0.9571124126 -0.944175935363691 I B F -0.881889305156823 A C G -0.532730459154041 B C G -0.579818495252942 C C G -0.6033064765 C G -0.6033064765 -0.562118918153541 E C G -0.765717873394781 F C G -0.755022584278033 G C G -1.03282454813011 H C G -0.8770700187 C -1.02443289049386 A C H -0.53102833108351 B C H -0.563874844855806 C C H -0.3147107448397 D C H -0.6311117896409 -0.558616287602339 F C H -0.703197516413447 G C H -0.655851395816248 H C H -0.894040122939335 I C H -0.860383099 -1.02722229258144 B C I -0.881889305156823 C C I -0.959720289801491 D C I -0.972861083362549 E C I -0.881888930515 -0.954511944694353 G C I -0.936493439191674 H C I -1.00785792539965 I C I -0.911303190363116 | چرا ezANOVA آزمون کروی بودن Mauchly را به من نمی دهد، حتی اگر فکر می کنم بیش از 2 سطح متغیر درون-Ss دارم؟ |
103661 | من سعی می کنم بفهمم تخمین توزیع تقاضا برای یک کالا چقدر نامطمئن است. اگر من یک نمونه تصادفی از n نفر از جمعیت مصرف کننده نماینده انتخاب کنم که قیمت های قطع/خفه شخصی خود را به من می دهند (با فرض اینکه آنها به طور دقیق آنها را گزارش می کنند)، می توانم یک منحنی تقاضا با n نقطه بسازم که تخمینی از نسبت جمعیت را نشان می دهد. کالا را با آن قیمت می خرید با توجه به اینکه من از n قطعه اطلاعات مستقل برای محاسبه n امتیاز استفاده کردم، آیا باید از یک توزیع t با 1 درجه آزادی برای محاسبه فاصله اطمینان برای هر نقطه استفاده کنم؟ و اگر بخواهم این فاصله را با افزایش درجات آزادی کاهش دهم، یا باید نمونه های بیشتری بگیرم، یا دانه بندی منحنی تقاضا را افزایش دهم تا d.f بیشتری بدست بیاورم. در هر نقطه؟ | محاسبه فاصله اطمینان برای تخمین منحنی تقاضا - چند درجه آزادی؟ |
72767 | من سعی میکنم اثرات افزودن ویژگیهای مستقل غیرشرطی به طبقهبندیکننده ساده بیز را درک کنم. فرض کنید من بردار ویژگیهای $X = [x_1,x_2,x_3,x_4]$ را دارم و برای هر مقدار x_3$ من مقدار یکسانی را برای $x_4$ دریافت میکنم: برای همه $i \in \\{samples\ \}$, $x_{3}^{i} = x_{4}^{i}$ میتوانم بگویم که فرض مستقل شرطی $x_n$ با توجه به کلاس $Y = y_k$ دیگر پابرجا نیست زیرا مقدار $x_{3}^{i}$ $x_{4}^{i}$ را پیشبینی میکند، و طبقهبندی کننده ساده بیز ممکن است نتایج مورد انتظار را تولید نکند. من واقعاً در مورد این توضیح مطمئن نیستم و از دیدگاه شما در مورد آن قدردانی می کنم. | بیز ساده با فرض استقلال نامعتبر |
66708 | بنابراین من مجموعه داده ای از مقالات مشابه دارم. «تفاوت پایتون و روبی» 537 «آموزش پیشرفته در پایتون» 1438 «کتابخانه HTTP» 134 اعداد کنار آنها دادههای کلیک هستند. من به دنبال انجام تجزیه و تحلیل رگرسیون بین کلمات در هر یک از عناوین و تعداد بازدیدهای حاصله از مقاله هستم، یعنی به این نتیجه برسم که در هنگام عنوان یک مقاله برای یک جامعه یا گروه خاص از کدام کلمات استفاده شود. همچنین، من دوست دارم ایده های دیگری را بشنوم و همچنین چه نتیجه جالب دیگری می توانم از چنین داده هایی بگیرم. **ویرایش** داده های درخواستی من همچنین داده های بازدیدهای منحصر به فرد را نیز اضافه کردم. [('Travis CI: Annoncing Python and Perl on Travis CI', {u'clicks': 81, u'unique': 74})، ('Software Maniacs blog \xc2\xbb Django as a micro-framework', {u'clicks': 333, u'unique': 318})، ('Interpreted Languages: Perl, PHP، Python، Ruby (Sheet One) - Hyperpolyglot', {u'clicks': 236, u'unique': 221})، ('PyCon 2012 on mobile Guidebook!', {u'clicks': 1, u'unique': 1})، ('Twitter', {u'clicks': 17, u'unique': 17})، ('تغییر استاتیک پایتون با پایتون: ماژول AST - Blueprint Forge.'، {u'clicks': 122، u'unique': 109})، ('Python برای iOS - یک مفسر و توسعه پایتون محیط برای iPod Touch، iPhone، و iPad'، {u'clicks': 151، u'unique': 142})، (وبلاگ Vivek - راه حل تکمیل خودکار خود را با استفاده از تلاش ها بنویسید.، {u'clicks': 211, u'unique': 203})، ('Twitter', {u'clicks': 4، u'unique': 4})، ('Ian Bicking: a blog :: Python Application Package', {u'clicks': 114, u'unique': 111})، ('PEP 414 -- Unicode Literal صریح برای Python 3.3'، {u'clicks': 50، u'unique': 50})، ('اصلاح استاتیک Python با Python: the ماژول AST - Blueprint Forge.'، {u'clicks': 0، u'unique': 0})، ('Requests: HTTP for Humans \xe2\x80\x94 Requests 0.10.6 documentation', {u'clicks': 18, u'unique': 17})، ('Haskell, Python and readability : programming', {u 'کلیک': 246، u'unique': 236})، ('PyCon 2012 در کتاب راهنما به موبایل رفته است!'، {u'clicks': 40، u'unique': 38})، ('Pycoders Weekly (pycoders) on Twitter', {u'clicks': 12, u'unique': 12 })، (بهینه سازی رسانه های اجتماعی SWIX و بازگشت سرمایه بازاریابی شبکه های اجتماعی، {u'clicks': 1، u'unique': 1})، ('PEP 414 -- Unicode Literal صریح برای Python 3.3', {u'clicks': 0, u'unique': 0})، ('[Python-Dev] PEP 414 - Unicode Literal for Python 3', {u 'clicks': 82, u'unique': 82})، ('Google App Engine Blog: Annoncing the General در دسترس بودن Python 2.7 Runtime for App Engine، {u'clicks': 57, u'unique': 56})، ('What\xe2\x80\x99s new in Celery 2.5 \xe2\x80\x94 Celery 3.0. 21 مستندات', {u'clicks': 237, u'unique': 231})، ('بسته ها و تزئینات پایتون (Pt. 2)'، {u'clicks': 59، u'unique': 57})، ('Python for iOS - یک مفسر Python و محیط توسعه برای iPod Touch، iPhone و iPad'، {u'clicks': 0، u'unique': 0})، ('Travis CI: Announcing Python and Perl on Travis CI', {u'clicks': 1, u'unique': 1})، ('Quiz & Learn Python - Python on Your Mobile Your Device'، {u'clicks': 259, u'unique': 244})، ('Python Closures and Decorators (Pt. 1)'، {u'clicks': 1، u'unique': 1})، ('Python Closures and Decorators (Pt. 1)'، {u'clicks': 219، u'unique': 207})، ('Trie - Wikipedia, the free دانشنامه', {u'clicks': 18, u'unique': 15})، ( 'Ian Bicking: a blog :: Python Application Package', {u'clicks': 0, u'unique': 0})، ('Software Maniacs blog', {u'clicks': 42, u'unique': 41}), ('Quiz & Python Learn - Python on Your Mobile Device', {u'clicks': 1, u'unique ': 1})، ('Python Closures and Decorators (Pt. 2)', {u'clicks': 0, u'unique': 0})، ('SWIX بهینه سازی رسانه های اجتماعی و بازگشت سرمایه در شبکه های اجتماعی'، {u'clicks': 71، u'unique': 69})، ('Twitter', {u'clicks': 6, u' منحصر به فرد': 6})، ('وبلاگ نرم افزار Maniacs \xc2\xbb جنگو به عنوان یک چارچوب کوچک'، {u'clicks': 4، u'unique': 4})، ('Haskell, Python and readability : programming', {u'clicks': 0, u'unique': 0})] | پیش بینی تعداد داده ها (کلیک ها) بر اساس کلمات استفاده شده در عنوان |
23300 | قبلاً فکر میکردم سریال زمانی من فصلی است، اما بعد متوجه شدم که صرفاً نیاز به تنظیم اثر تقویم دارد. من آن را امتحان کردم و اکنون شک دارم که هنوز فصلی باقی مانده است. من سعی کردم یک تفاوت 12 ماهه اضافه کنم، و به نظر می رسید که کار می کند، اما بعد فکر کردم: چرا در وهله اول فقط تفاوت 12 ماهه را امتحان نکنم؟ آیا این نباید جلوه های تقویم را نیز در یک بسته در نظر بگیرد؟ در اینجا میروید، پلات اجرا + طرح زیرمجموعه ماهانه + نمودار ACF از دادههای * خام (بالا)، * تعدیل شده (وسط بالا)، * 12 ماه اختلاف (وسط پایین) و * تنظیم شده+تفاوت (پایین) دادهها. توجه: ترتیب تصاویر از ترتیب استدلال من پیروی نمی کند، من تفاوت فصلی را _قبل از_ تنظیم تقویم + تفاوت فصلی قرار دادم:     ![شرح تصویر را اینجا وارد کنید] (http://i.stack.imgur.com/HUJuC.png)  از کجا بدانم کدام روش نتایج صحیح (در صورت وجود) را داد؟ آیا این علم است یا فقط درهم ریختن با اعداد؟ آیا اعتبار سنجی متقابل بیشتر کمک خواهد کرد (مثلاً تجزیه stl، آدمک های فصلی)؟ مثل همیشه از شما برای هر کمکی که می توانید به من بدهید سپاسگزارم! | نمیتوانم بگویم دادههای من فصلی هستند یا فقط تحت تأثیر تأثیرات تقویم هستند |
77341 | $$ I_i (x) = \begin{cases} 1 \quad x-h<X_i<x+h \\\ 0 \quad \text{وگرنه} \end{cases} $$ داریم آیا آن تابع نشانگر از توزیع برنولی پیروی میکند ? اگر چنین است، مقدار مورد انتظار را می توان به راحتی محاسبه کرد. | مقدار مورد انتظار یک تابع نشانگر |
76862 | من می خواهم یک راه حل آماری برای سال های آینده انتخاب کنم که بتواند اشکال اصلی تجزیه و تحلیل متن کاوی، مانند تشخیص خلق و خو را مدیریت کند. آیا راه حلی وجود دارد که از دیگران متمایز باشد (R، SAS، SPSS،...)؟ | بهترین راه حل آماری برای متن کاوی |
76864 | من مدلی را اجرا می کنم که در آن یکی از متغیرهای توضیحی کوتاه شده است. به طور خاص، متغیر مدت زمان بیکاری (به صورت گذشته نگر) را بر حسب ماه اندازه گیری می کند و در 2 سال کوتاه می شود، که برای حدود 10٪ از نمونه اتفاق می افتد. در مدل خود میخواهم متغیر را بهعنوان پیوسته در نظر بگیرم (چون قبلاً تعداد کمی متغیر طبقهبندی شده دارم)، اما مطمئن نیستم که چگونه با مقادیر کوتاهشده برخورد کنم - به نظر میرسد که من یک متغیر پیوسته دارم که در آن نیز طبقهبندی شده است. در همان زمان (یعنی به دلیل برش). مدل چیزی شبیه به این خواهد بود: Y = A + B*X + C*Z + E، که در آن Z<24 Y = A + B*X + C*24 +E، که در آن Z>=24 که در آن X شامل برخی از متغیرهای کمکی و Z متغیر بریده مورد علاقه (مستمر) است مسئله: چگونه با Z در رگرسیون برخورد کنیم؟ | متغیر توضیحی کوتاه شده |
105841 | من در تلاشم تا بدانم آیا تغییر وضعیت تأهل بر سلامت فرد تأثیر دارد یا خیر. من از داده های پانل 2 نقطه داده استفاده می کنم.  سوال من این است که اگر متغیر مستقل مقوله ای باشد چگونه ضرایب ثابت را تفسیر کنیم؟ آیا ضریب اثر ثابت به این معناست که در صورت تغییر وضعیت تاهل از متاهل (رده مرجع) به مطلقه، سلامت وی تا 25/0 بهتر می شود؟ دلیل اینکه چرا میپرسم (غیر از این که تغییر، نظریه من را رد میکند)، اگر به عنوان مثال به مقوله «بیوه» اشاره کنم، همچنان اثرات ثابتی دریافت میکنم. واقعا بعید است که فرد در 4 سال (جمعیت 50+) از بیوه به طلاق تبدیل شود. بنابراین، آیا من اثرات ثابت را با متغیرهای مستقل طبقه بندی اشتباه تفسیر می کنم؟ با تشکر * * * | تفسیر ضرایب اثرات ثابت با متغیرهای مستقل طبقه بندی شده |
66419 | آیا استفاده از بسته های R از CRAN برای تحقیق خوب است یا بد؟ من در مورد بسته های رایج مانند: مدل های ساده برای رگرسیون، تخمین، اقتصاد سنجی صحبت می کنم اکثر آنها از تابعی استفاده می کنند که می تواند به راحتی به تنهایی نوشته شود. استدلالهای مثبت من: * زمان تمرکز بر بخش اصلی تحقیق * جامعه کنترل کیفیت خوبی است * R روشهای مدرن زیادی ارائه میکند * برخی از مدلها آنقدر پیچیده هستند که نمیتوان آنها را روی خود نوشت. استدلالهای مخالف من: * نه همه بسته R در یک محیط آکادمیک ایجاد شده است * ممکن است اشکالاتی وجود داشته باشد که بر نتیجه تأثیر بگذارد و من آن را نمی دانم * بیشتر مدل ها را می توان در مدت زمان کوتاهی از ابتدا نوشت. چگونه می توانیم از منبع باز بدون خطر شکست در نتیجه استفاده کنیم ? آیا شاخص های کیفیت خاصی برای بسته ها به طور کلی و برای R وجود دارد؟ | کتابخانه های منبع باز در علم |
72768 | من میدانم که در یک مدل رگرسیون خطی مانند: $y_i = b_0 + b_1 x_i + \epsilon_i$ میتوانم یک فرضیه صفر و جایگزین داشته باشم: $H_0: b_1 = 0$ و $H_1: b_1 \neq 0$. و سپس میتوانم $H_0$ را رد کنم یا در رد کردن $H_0$ ناکام باشم. اما اگر بخواهم که $b_1 = 0$ را بپذیرم چه؟ | چگونه آزمایش کنیم (و بپذیریم) که یک ضریب در مدل رگرسیون خطی برابر با صفر است |
66702 | از یک اسلاید > GEE چگونه کار می کند؟ > > * ابتدا، یک تحلیل رگرسیون خطی ساده با فرض مستقل بودن مشاهدات درون آزمودنی ها انجام می شود. > * سپس، **باقیمانده ها از مدل ساده (مشاهده-> پیش بینی شده) محاسبه می شوند و یک ماتریس همبستگی کاری از این > باقیمانده ها** برآورد می شود. > * سپس ضرایب رگرسیون دوباره تنظیم می شوند و برای همبستگی > تصحیح می شوند. (فرآیند تکراری) > * ساختار همبستگی درون موضوعی به عنوان یک مزاحم در نظر گرفته می شود > متغیر (یعنی به عنوان متغیر کمکی) > در مرحله 2 تعجب کردم، ماتریس همبستگی کاری برای GEE چگونه تخمین زده می شود؟ «مدل ساده لوحانه» چیست؟ با تشکر | چگونه ماتریس همبستگی کاری برای GEE تخمین زده می شود؟ |
76866 | من الگوریتم هایی را برای خوشه بندی داده ها (یادگیری بدون نظارت): EM و k-means مطالعه کرده ام. من به خواندن مطالب زیر ادامه میدهم: > k-means گونهای از EM است، با این فرض که خوشهها > کروی هستند. کسی میتونه جمله بالا رو توضیح بده؟ من نمی فهمم کروی به چه معناست، و kmeans و EM چگونه به هم مرتبط هستند، زیرا یکی تخصیص احتمالی را انجام می دهد و دیگری آن را به روش قطعی انجام می دهد. همچنین در چه شرایطی بهتر است از خوشه بندی k-means استفاده کنیم؟ یا از خوشه بندی EM استفاده کنید؟ | خوشه بندی با K-Means و EM: ارتباط آنها چگونه است؟ |
77190 | بنابراین فرض کنید من دو مجموعه متفاوت از ویژگی های A و B دارم. من سعی می کنم تعیین کنم که کدام مجموعه از ویژگی ها بهترین است. من از اعتبار سنجی متقاطع ترک یک خروجی به عنوان معیار نهایی استفاده می کنم زیرا مجموعه داده های من کوچک است. من سعی میکنم تنظیمات آزمایشی خود را بفهمم و بین چند راه تصمیم میگیرم: 1) مجموعه ویژگی A را به طبقهبندیکننده خود بدهم (و به صورت اختیاری انتخاب ویژگی را اجرا کنید) و مجموعه ویژگی B را به طبقهبندیکننده دیگری بدهید (همچنین به صورت اختیاری). run feature selection) و سپس خطای LOOCV را بین این 2 طبقه بندی کننده مقایسه کنید؟ 2) مجموعه ویژگی A و B را به طبقهبندیکننده بدهید و سپس انتخاب ویژگی را حتما اجرا کنید و سپس بر اساس ویژگیهای انتخاب شده نتیجهگیری سطح بالاتری بگیرید. (به عنوان مثال، اگر تعداد بیشتری از A انتخاب شده باشد، به نظر می رسد که مجموعه ویژگی A ارزش پیش آگهی بیشتری دارد) 3) روش دیگری که من نمی دانم | مقایسه 2 مجموعه مختلف از ویژگی ها |
6670 | من میخواهم پهنای باند بهتری را برای تخمینگر چگالی هستهام که یک Epanechnikov است محاسبه کنم. من از فرمول سیلورمن استفاده میکنم که شامل انحراف استاندارد نمونه، اندازه نمونه و یک ثابت است، اما در بیشتر موارد منحنی بسیار صافی دریافت میکنم و ترجیح میدهم متعادلتر باشد. ممنون میشم هر کمکی بکنید | فرمول سیلورمن برای محاسبه پهنای باند در تخمین چگالی هسته کدام است؟ |
77192 | من یک پنل شامل دو سال دارم و میخواهم دستمزد شهری و روستایی را مقایسه کنم: $\log \text{wage}_{it} =\beta_0 +\beta_1\text{urban}_{it} +\beta_2\text{ educ}_{it}+\beta_3\text{exper}_{it}+ \beta_4\text{exper}_{it}^2+\delta_2+\nu_it$ شهری یک ساختگی و همچنین $\delta_2$ برای سال دوم است چگونه می توانم در نظر بگیرم که افراد ممکن است در طول زمان مکان خود را تغییر داده باشند؟ افراد ثروتمند ممکن است به شهر نقل مکان کرده و در نتیجه تفاوت دستمزد شهری و روستایی را افزایش دهند. آیا باید یک متغیر ساختگی یا حتی یک متغیر تعاملی اضافه کنم؟ من با R کار می کنم و از افکت های ثابت و رگرسیون تفاوت اول استفاده می کنم. | نحوه در نظر گرفتن تحرک: رگرسیون چندگانه |
76865 | من سعی می کنم پرسپترون تک لایه را آموزش دهم. من یک چیز را نمی فهمم چگونه خروجی را برای ورودی برداری x محاسبه کنیم؟ به عنوان مثال فرض کنید که این داده ها را برای استفاده در آموزش داریم: L1 = [1.5 2.4; -0.3 3; 2 3; 2 2.5]; L2 = [2.5 1.4; -1.3 2; 3 3.1; 1.2 2.5]; وزن اولیه، گام: گام = 0.1 w = [1 1]; سپس L = [L1; L2]؛ سپس این فرمول را برای محاسبه میانگین مجموع مجذور sum_all داریم - منظور من نماد سیگما است که به معنای مجموع همه عناصر است. E = 1/N * sum_all(d(j) - o(j))^2 j - شاخص بردار داخل ماتریس L است. سپس معادله وزن جدید: w(new) = w + step/N * sum_all(d(j) - o(j) * o(j) * (1 - o(j)) * x(j)) سپس داریم این تابع منطقی (کد شبه که ممکن است واضح تر به نظر برسد): d(j) = 1 اگر x(j) متعلق به L1 باشد d(j) = 0 اگر x(j) متعلق به L2 باشد و من نمی فهمم چگونه من باید o(j) یا به عبارت دیگر خروجی دریافت کنند. من جایی پیدا نکردم که بگوید چگونه به دست می آورید. یه جورایی برام واضح نیست آیا باید چنین کاری انجام دهم؟ اگر w * x(j)' > 0 سپس o(j) = 1 elseif w * x(j)' <= سپس o(j) = 0 اما پس از آن اگر الگوریتم خود را اجرا کنم، پس از یک دوره و یک دوره دیگر آموزش را متوقف می کند. دوره به هیچ وجه آن را آموزش نمی دهد (چون خروجی واقعی با خروجی مورد نظر در دوره اول به هیچ وجه متفاوت نخواهد بود). اگر من چیزی شبیه به این را امتحان کنم: o(j) = w * x(j)'، آنگاه اعداد آنقدر بالا می روند که matlab آن را به عنوان عدد تشخیص نمی دهد و به حلقه بی نهایت می رود. پس چگونه باید خروجی واقعی x(j را دریافت کنم. ) - o(j) با استفاده از پرسپترون تک لایه و الگوریتم پس انتشار؟.. | Matlab - پرسپترون تک لایه - خروجی؟ |
23308 | تفاوت بین همبستگی متقابل و اطلاعات متقابل چیست؟ چه نوع مشکلاتی را می توان با استفاده از این اقدامات حل کرد و چه زمانی استفاده از یکی بر دیگری مناسب است. با تشکر از نظرات. برای روشن شدن، این سوال ناشی از علاقه به تجزیه و تحلیل تصویر به جای تجزیه و تحلیل سری های زمانی است، اگرچه هرگونه روشنگری در آن زمینه نیز قابل قدردانی است. | همبستگی متقابل در مقابل اطلاعات متقابل |
23302 | من سعی میکنم مدلهای خطی را با دادههایم در R برازم. باید از روش حداقل مربعات تعمیمیافته استفاده کنم، زیرا در یکی از متغیرهایم ناهمگنی واریانس دارم. من قصد داشتم از **varIdent** استفاده کنم، زیرا متغیر اسمی است. اما - من همچنین میخواهم یک عبارت تصادفی داشته باشم زیرا دادههای من ساختار تودرتو دارند و دادههای من باید با استفاده از توزیع دو جملهای مدلسازی شوند. من نمی توانم هیچ اطلاعاتی در مورد اینکه آیا این امکان با استفاده از دستور **gls** در بسته **nlme** امکان پذیر است یا نه، آیا کسی اطلاعاتی دارد که بتواند به من کمک کند، لطفا؟ | آیا می توانم از حداقل مربعات تعمیم یافته با توزیع دوجمله ای و ساختار تودرتو استفاده کنم؟ |
77193 | اجازه دهید $X$ و $Y$ دو متغیر تصادفی پیوسته باشند. فرض کنید: 1. $X$ دارای pdf نرمال با میانگین mu_1 و واریانس $\sigma_1^2$ 2. $Y|X$ دارای pdf نرمال با میانگین $mu_2=(a+b*X)$ و واریانس $\sigma_2 است. ^2$; که در آن a و b دو ثابت از رگرسیون خطی 3 هستند. $f(Y)=\int f(Y|X)f(X) dx$; کجا $f()$ pdf است سوال: چگونه نشان دهم که $f(Y)$ یک توزیع نرمال است؟ چگونه می توانم پارامترهای آن را بر اساس اطلاعاتی که به من داده می شود تعیین کنم؟ توجه: من سعی کردم با نیروی بی رحم چگالی ها را ضرب و ادغام کنم که پاسخ سوال من را می دهد. با این حال، آیا راه سریعتری برای دیدن این موضوع وجود دارد، زیرا من علاقهمندم به حالتی که $X$ یک بردار تصادفی است بسط دهم؟ | قضیه احتمال کل با توابع چگالی احتمال عادی |
100315 | من در حال تجزیه و تحلیل داده های یک نظرسنجی سیاسی هستم. این نظرسنجی یک بار در سال بر روی 1000 شهروند از 18 کشور مختلف اروپایی انجام می شود. در گام اول، من علاقه مند به سنجش رابطه بین متغیرهای مختلف در سطح فردی برای همه پاسخ دهندگان در چهار سال گذشته هستم. متغیر وابسته من یک متغیر دوگانه است که نشان می دهد پاسخ دهنده دولت فعلی را تایید یا رد می کند. کتابهای درسی دادههای تودرتو/تحلیل چندسطحی به من توصیه میکنند که از یک مدل سلسله مراتبی رهگیری تصادفی استفاده کنم. با این حال، هرگز به صراحت ذکر نشده است که چگونه باید بعد زمانی ذاتی در داده های خود را در نظر بگیرم. همانطور که می فهمم، سه سطح برای داده های من وجود دارد: پاسخ دهنده، کشور، و سال. چگونه باید مدل خود را بر این اساس مشخص کنم؟ خیلی ممنون | کدام مدل برای تجزیه و تحلیل نظرسنجی در سراسر کشورها و زمان |
25818 | من چهار متغیر پیوسته دارم که از داده های ثانویه شرکت ها گرفته شده است. ترکیب این چهار متغیر نشان دهنده متغیر وابسته من است. این چهار متغیر مقادیر واقعی هستند. آنها فقط چهار مقدار بدون آیتم هستند. من از PCA برای ترکیب آنها با هم استفاده می کنم. نتایجی که به دست آوردم این است که سه متغیر در یک جزء و چهارم به تنهایی تحت مؤلفه دوم طبقه بندی می شوند. **آیا این دو جزء را به عنوان دو متغیر وابسته در نظر بگیرم، یکی با سه متغیر و دومی با یک متغیر یا فقط جزء دوم را حذف کنم؟** | اگر متغیری را که تنها متغیری است که روی یک جزء بارگذاری می شود، باید از آنالیز PCA حذف کنم؟ |
86207 | من از کد زیر برای آموزش یک طبقهبندیکننده svm استفاده میکنم: clf = svm.SVC(kernel='linear') clf.fit(train_mat, train_labels) که متناسب با دادهها است و اطلاعات را در شی «clf» ذخیره میکند. اکنون می دانم که چگونه بردار «w» از نظر تئوری ساخته شده است. این مجموع تمام بردارهای پشتیبانی ضرب در برچسب های آنها و مقادیر آلفای مربوطه است. مشکل این است که به نظر نمیرسد این اطلاعات را در «clf» پیدا کنم. من یک ویژگی «_coef» دارم اما مطمئن نیستم که آیا آن چیزی است که به دنبال آن هستم. مستندات در scikit به سادگی وجود ندارد. من نتونستم اطلاعات رو اونجا پیدا کنم آیا کسی می داند چگونه این کار را انجام دهد؟ من به بردار «w» نیاز دارم تا وزنهای دادهشده به هر یک از ویژگیها را بررسی کنم و ببینم کدام یک با ارزشتر هستند. | چگونه بردار وزن ویژگی (یا مرز تصمیم) را از طبقهبندیکننده SVM خطی از scikit بسازیم؟ |
77196 | من به مشاوره در مورد نحوه انجام ANOVA نیاز دارم. من برخی از تئوری ANOVA را مطالعه کردم، اما ظاهرا کافی نیست. اساساً در آزمایشم حدود 300 بار واکنش برای 12 نفر جمع آوری کردم. برای هر موضوع 2 شرط داشتم. اولی 3 سطح دارد، دومی 5 سطح دارد. هر سوژه تمام ترکیبهای سطح ممکن را طی کرد، بنابراین من 50 زمان واکنش برای هر ترکیب (15 ترکیب مختلف)، برای هر موضوع دارم. من می خواهم اهمیت آماری زمان واکنش های مختلف را با شرایط مختلف اثبات کنم. چیزی که برای من روشن نیست نکته زیر است: آیا باید از ALL مجموعه داده استفاده کنم یا فقط از MEAN RT برای هر موضوع/شرط (یعنی 15 نقطه داده برای هر موضوع) استفاده کنم؟ اگر از کل مجموعه داده استفاده کنم، حدود 10000 نقطه داده دارم. اگر این کار را انجام دهم، درجه آزادی خطا 10557 است که من را گیج می کند. در مقالات زمان واکنشی که من در اطراف دارم آنها یک F(x,y) را گزارش میکنند که این x و y معمولاً واقعاً کوچک هستند، بیش از 100 عدد نیستند، اما مجموعه دادههای آنها معمولاً بسیار بزرگ است، کم و بیش شبیه من. این باعث میشود فکر کنم که آنها در واقع از تمام زمانهای واکنش استفاده نمیکنند، بلکه فقط از میانگین زمانهای واکنش استفاده میکنند (فکر میکنم در طول محاسبه ANOVA، میانگین میانگین محاسبه میشود). اما آیا این از نظر آماری منطقی است؟ | ANOVA با مجموعه داده عظیم - فقط از میانگین برای هر شرایط استفاده کنید؟ |
25815 | من مقداری متغیر توزیع شده غیر گاوسی دارم و باید بررسی کنم که آیا تفاوت معنی داری بین مقادیر این متغیر در 5 گروه مختلف وجود دارد یا خیر. من آنالیز واریانس یک طرفه Kruskal-Wallis را انجام دادم (که معنی دار شد) و پس از آن باید بررسی می کردم که کدام گروه ها تفاوت معنی داری دارند. از آنجایی که گروه ها به نوعی مرتب شده اند (مقادیر متغیر در گروه اول قرار است کمتر از مقادیر متغیر در گروه دوم باشد که قرار است از مقادیر متغیر در گروه سوم کمتر باشد و بنابراین در) من فقط 4 تست را انجام دادم: گروه 1 در مقابل گروه 2 گروه 2 در مقابل گروه 3 گروه 3 در مقابل گروه 4 گروه 4 در مقابل گروه 5 این تجزیه و تحلیل را با دو روش مختلف انجام داده ام. من با استفاده از تست مقایسه چندگانه دان شروع کردم، اما هیچ چیز قابل توجهی نبود. از طرف دیگر اگر از آزمون من ویتنی استفاده کنم و تعداد تست ها (4) را با استفاده از بونفرونی تصحیح کنم، 3 تست قابل توجه است. به چه معناست؟ به کدام نتایج اعتماد کنم؟ هر گونه کمکی بسیار قدردانی می شود. | تفاوت بین آزمون تعقیبی پس از آزمون من ویتنی تصحیح شده توسط کروسکال والیس و بونفرونی |
109171 | برای داده هایی که دارای 0 و مقادیر بزرگ هستند، کدام تبدیل را باید اعمال کنم؟ مقدار حداقل - 0 و حداکثر مقدار - 2254 است در اینجا ما نباید هیچ موردی را از داده ها حذف کنیم. | تبدیل داده ها |
77191 | من در حال ارزیابی یک طبقه بندی برای تشخیص اشیا هستم. به عنوان مثال: من یک set1 با 50 عکس با شی برای شناسایی دارم. و set2 با 100 عکس بدون شی. من مثبت های واقعی (0 در مجموعه 2)، منفی های واقعی (0 در مجموعه 1)، منفی های کاذب و مثبت های کاذب را برای آن مجموعه ها تعیین می کنم. اگر بخواهم set1 را با set2 ادغام کنم (برای داشتن یک مجموعه با و بدون اشیا و مقادیر واقعی برای TP و TP) باید اندازه set2 را کم کنم. **سوال:** آیا می توانم این کار را با یک تقسیم ساده انجام دهم؟ (مقادیر TN، TP و غیره را بر 2 تقسیم کنید) یا باید 50 عکس از set2 را به طور تصادفی انتخاب کنم و از این TN و غیره استفاده کنم؟ ویرایش: **مثال:** Set1: TN = 43 FP = 6 FN = 1 TP = 0 Set2: TN = 0 FP = 13 FN = 0 TP = 87 Set2 تقسیم بر 2: TN = 0 FP = 7 FN = 0 TP = 44 Set12: TN = 43 FP = 13 FN = 1 TP = 44 برای اثبات این موضوع به توضیح نیاز دارم. thx.. | طبقه بندی باینری برای ارزیابی یک طبقه بندی کننده شی. چگونه دو نمونه/گروه (اندازه های مختلف) را ادغام کنیم؟ |
77730 | من در زمینه یادگیری ماشین تجربه زیادی ندارم. در حال حاضر من برخی از طبقه بندی کننده های باینری را با استفاده از k-NN مدل می کنم. من مقداری با مقادیر مختلف k آزمایش کردم. در برخی موارد بهترین مورد با «k=1» بود. من می دانم که رأی اکثریت وجود ندارد و تصمیم من در مورد همسایه مجرد گرفته می شود، چیزی که خطرناک به نظر می رسد. F-Measure برای چنین حالتی 0.77 است که دومین گزینه بهترین گزینه برای همان داده k=25 با F=0.63 F=2*Recal*precision / (Recal + Precision) است. | آیا خطراتی در ارتباط با استفاده از k-NN با k=1 با F=0.77 وجود دارد؟ |
92029 | اساسا، من تحقیقاتی را بر اساس دو نوع داده انجام می دهم: سطح نویز و دمای یک اتاق. من 2 روز است که داده ها را دوباره رمزگذاری کردم.. من از روش های همبستگی اسپیرمن استفاده می کنم تا تعیین کنم که آیا بین تغییرات دما و سطح نویز همبستگی وجود دارد یا خیر.. مشکل این است که داده های زیادی وجود دارد که برخی از آنها وجود دارد. من نیازی ندارم (برای مثال، در طول شب، هیچ سر و صدایی وجود نخواهد داشت، زیرا هیچ کس در آزمایشگاه نخواهد بود) در حالی که، در روز و عصر، سطوح نویز وجود دارد. من متعجبم که از چه روشی می توانم برای داده ها استفاده کنم تا فقط مهم ترین بخش ها را برای انجام تجزیه و تحلیل استخراج کنم. من به PCA و ICA فکر می کردم که ابعاد را کاهش دهند، اما برایم جالب است که بدانم دیگران چه فکر می کنند. | یافتن مهم ترین مجموعه داده در داده ها |
69380 | من در حال آزمایش معناداری آماری 60 متغیر کمی همبسته قوی در 2 گروه با حجم نمونه کوچک، غیر نرمال بودن و وجود مقادیر پرت هستم. من یک آزمون جایگشت بر اساس آماره آزمون t برای بررسی صحیح ساختار همبستگی متغیرها اجرا کرده ام. اما من فکر می کنم این آزمون جایگشت می تواند بر اساس آماره آزمون ناپارامتریک ویلکاکسون نیز باشد، به دلیل وجود نقاط پرت. آیا درست است؟ | تست جایگشت بر اساس تست Wilcoxon |
74420 | تفاوت بین جمعیت و انحراف استاندارد چیست و فرمول آنها چیست؟ به من گفته شد که فرمول های متفاوتی هستند و شما در کدام موقعیت از جامعه یا نمونه استفاده می کنید؟ اگر کاربر 10 عدد تصادفی بدهد، آیا از جامعه یا نمونه استفاده می کنم؟ | انحراف استاندارد و واریانس در فرمول های نمونه و جمعیت برای همه؟ |
86931 | من دو توزیع دارم که فقط خلاصه 5 عددی (حداقل، چارک اول، میانه، چارک سوم، حداکثر) و حجم نمونه مشخص است. برخلاف سوال اینجا، همه نقاط داده در دسترس نیستند. آیا آزمون آماری ناپارامتری وجود دارد که به من امکان می دهد بررسی کنم که آیا توزیع های اساسی این دو متفاوت است؟ با تشکر | آزمون آماری برای دو توزیع که فقط خلاصه 5 عددی مشخص است |
76867 | مدل من خوب کار می کند (AUC 0.7 است) اما اهمیت اجرای «فارست تصادفی» برای مشکل طبقه بندی باینری من بسته به نحوه بازیابی آنها متفاوت است. آیا این طبیعی است؟ به نظر میرسد که وقتی «اهمیت(rf)» را صدا میکنم، بزرگتر میشوند (با دستور 105). مهمتر از آن، سه ستون اول به هیچ وجه با هم مطابقت ندارند، حتی بزرگی را کاهش می دهند! من در حال حاضر با خواندن «?اهمیت» و «?randomForest» مطمئن نیستم که چگونه این را تفسیر کنم. این فراخوان تصادفی من است: rf <- randomForest(trnX, as.factor(trnY), ntree=1000, important=TRUE) و این هم بخشی از خروجی ها: `rf$importance`: 0 1 MeanDecreaseAccuracy MeanDecreaseGini var1 -293. 05 -6.124117e-05 -3.642557e-05 30.47050 var2 6.169346e-04 -3.947637e-04 2.563570e-04 48.04932 var3 3.6213385. 2.981152e-03 68.28302 var4 3.655234e-03 1.981978e-03 3.057267e-03 79.12254 var5 5.350649e-03 1.041978e-03 79.12254 var5 5.350649e-03 1.041978e-03. 84.88832 var6 3.366199e-03 1.707144e-03 2.773894e-03 78.02293 ... `importance(rf)`: 0 1 MeanDecreaseAccuracy MeanDecreaseGini var1 -0.79 -0.79 -0.8952541 30.47050 var2 7.9028043 -3.6680758 4.1625329 48.04932 var3 17.1279919 5.9733456 20.835402879 20.835407958. 7.2370419 22.4948931 79.12254 var5 20.7470555 3.2702612 24.3069376 84.88832 var6 16.9071520 6.252621409 ... من داده دارای 8000 نقطه داده و 60 متغیر است. قطعاً بین متغیرها همبستگی وجود دارد و آنها انواع مختلفی دارند: برخی پرچم های باینری، برخی دیگر اعداد صحیح و برخی دیگر پیوسته هستند. برخی از متغیرها مقادیر گم شده ای دارند (که من آن را با 'na.roughfix()' رفع می کنم. علاوه بر این، اجرای از gbm: gbmBernModel <- gbm(formula = var1 ~ ., distribution=bernoulli, data = trn, verbose=CV, n.trees=10000, interaction.depth=2) اهمیت نسبی ایجاد کرد ( مشاهده شده توسط `summary(gbmBernModel)`) که برای من منطقی بود. هر گونه اشاره خواهد شد تا حد زیادی قدردانی می شود. متشکرم. | اهمیت جنگل تصادفی بین rf$importance و important() متفاوت است |
23303 | سوال من از پیشنهاد شیان برای بررسی یکپارچگی در برابر پسین در مدل سلسله مراتبی غیرخطی من سرچشمه می گیرد. من آن را بررسی نکردم، اما بینهایت ممکن را در ذهن داشتم و متوجه شدم که یکی از شرطیهای من (که توزیع گامای معکوس است) واریانس بینهایت دارد. به طوری که نمونه برداری منجر به این شد که زنجیره ها اغلب در دم دور باشند. بنابراین، این یک سوال برای من ایجاد کرد: چگونه می توان از توزیع هایی با واریانس نامتناهی مانند توزیع گامای معکوس (با \alpha $ = 2 $) یا توزیع Levy یا هر توزیع دیگری با واریانس بی نهایت نمونه برداری کرد؟ MCMC چه چیزی را ارائه می دهد؟ من سعی کردم مقالاتی را جستجو کنم که به چنین موضوعاتی می پردازند، اما هنوز موفق نشدم. | MCMC برای واریانس بی نهایت خلفی |
4685 | تفاوت بین به حداکثر رساندن انتظار نرم و سخت چیست؟ ویرایش: خوب، من این مقاله را پیدا کردم: http://ttic.uchicago.edu/~dmcallester/ttic101-07/lectures/em/em.pdf که به خوبی موقعیت ها را توضیح می دهد | نرم و سخت EM (بیشینه سازی انتظارات) |
43914 | آیا کسی می تواند اطلاعاتی در مورد اینکه چه کسی تخمین حداکثر درستنمایی نمایه را اختراع کرده است یا چه کسی برای اولین بار از تخمین حداکثر درستنمایی نمایه و تاریخچه کوتاه تخمین حداکثر درستنمایی نمایه استفاده کرده است به من بدهد؟ من می خواهم در مورد هر مقاله ای در این مورد بدانم. | چه کسی تخمین احتمال حداکثری پروفایل را اختراع کرد؟ |
92020 | من میخواهم نسبت **A Better Hedge** Paul Teetor را تعمیم دهم که از prcomp() برای تعیین نسبت TLS بین دو متغیر استفاده میکند. من امیدوارم که این را به چندین متغیر تعمیم دهم، اما در یافتن نتایج دقیق با مشکل مواجه هستم. پیشنهادی دارید؟ | برنامه نویسی نسبت های PCA متغیر چندگانه |
111374 | من یک راه اندازی دارم که در آن قسمت خلفی مفصل به صورت زیر نوشته می شود: $$ P(w, \lambda, \phi \vert y) = P(\phi) \times P(w \vert \lambda) \times P(\lambda) \times \prod_{i=1}^{N}P(y_i \vert w_i، \phi، \lambda) $$ اکنون $\phi$ و $\lambda$ بهعنوان توزیعهای گاما مدلسازی میشود و احتمال و پیش از $w$ معمولاً توزیع میشود. بنابراین، با استفاده از ویژگی قبلی مزدوج، قسمت خلفی $\lambda$ و $\phi$ نیز گاما توزیع خواهد شد. بنابراین، من می توانم عباراتی را برای $P(w|\lambda، \phi، y)$، $P(\lambda|w، \phi، y)$، $P(\phi|\lambda، w، y) استخراج کنم. $ به دلیل خاصیت مزدوج. کاری که من می خواهم انجام دهم این است که پارامترهای $w$، $\phi$ و $\lambda$ را تخمین بزنم. بنابراین ایده من این بود که با مقداری مقدار اولیه اولیه $w$، $\phi$ و $\lambda$ شروع کنم، و سپس در حالی که بقیه ثابت نگه داشته میشوند، یکی از آنها را به نوبه خود با به حداکثر رساندن احتمال ورود به سیستم پسین این عبارات مشتق شده، به روز کنم. برای توزیع حاشیه ای با استفاده از روال بهینه سازی ساده مانند نزول گرادیان مزدوج مزدوج. سؤالاتی که من دارم به شرح زیر است: * آیا این روش EM برای انجام کارها است یا من الگوریتم EM را بیان کرده ام؟ من در حال یافتن پارامترهایی هستم که با یک حالت حداکثر محلی مطابقت دارند، اما در بحث EM همیشه می خوانم که این به اصطلاح متغیرهای پنهان باید در یک فرمول EM وجود داشته باشد و من هرگز به آن فکر نکرده ام؟ تفاوت روش پیشنهادی من با الگوریتم EM چیست؟ * آیا این رویکرد بهینه محلی مربوط به حداکثر توزیع کامل مشترک یعنی $P(w، \lambda، \phi \vert y)$ را برای من پیدا خواهد کرد. من این کار را تکراری انجام می دهم و آیا راه حل به این دلیل آسیب می بیند؟ من حدس می زنم که این به من بهینه مشترک برسد، اما نتوانستم خودم را کاملاً متقاعد کنم. من حدس میزنم که این تکرارها با محاسبه مشتقات جزئی w.r.t برای هر یک از پارامترهایی که باید به نوبه خود تخمین زده شوند، مطابقت دارد، که شبیه بهینهسازی یک تابع چند متغیره است. * همچنین آیا این روش معقولی برای حل مشکل است؟ می دانم که فقط یک راه حل محلی دریافت خواهم کرد، اما آیا روش دیگری برای مقابله با این مشکل در این راه اندازی مدل تولیدی وجود دارد؟ | برآورد MAP پارامترهای خلفی |
76869 | من در مورد فیلتر اشتراکی آیتم-آیتم در آدرس زیر مطالعه می کردم: http://guidetodatamining.com/guide/ch3/DataMining-ch3.pdf اما پیاده سازی در R از این الگوریتم پیدا نکردم. یکی هست؟ | آیا فیلتر اشتراکی آیتم-آیتم در R وجود دارد؟ |
114466 | من زمانی که یک مدل ترتیبی چند جمله ای را انجام می دهم، خروجی بسیار متفاوتی دریافت می کنم، بسته به اینکه ابتدا داده هایم را مقیاس می کنم یا نه. کسی می تواند به من بگوید چرا؟ در اینجا نتایج با داده های خام آمده است: polr(فرمول = نتیجه ~ 1 + سرعت + rsvl + rsvl: سرعت + tailcontrst: اندازه مجدد + استراتژی: rsvl، داده = نتایج) ضرایب: Value Std. مقدار خطای t Speed -0.1758606 0.0149032 -11.800 rsvl 7.9648646 0.0345985 230.209 Speed:rsvl -0.3342932 0.0259837 -12.860tr40.865-12.865-12.860. 0.0001678 2.572 rsvl:strategyburrowing -0.8982385 0.0746702 -12.029 Intercepts: Value Std. خطای t مقدار fail|tail -0.1186 0.0689 -1.7216 tail|body 0.4728 0.0669 7.0701 انحراف باقیمانده: 20457.78 AIC: 20471.78 در اینجا نتایج با داده های مقیاس بندی شده است: polrula +1 = resultula +vlrs rsvl:Speed + tailcontrst:Reltailsize + استراتژی:rsvl، داده = نتایج) ضرایب: Value Std. خطای t مقدار Speed -0.97646 0.02083 -46.8841 rsvl 0.30276 0.02726 11.1064 Speed:rsvl -0.06810 0.02097 -3.2467 tailcontrst:20109 tailcontrst:010109 0.5760 rsvl:strategyburrowing -0.02332 0.03841 -0.6069 Intercepts: Value Std. خطای t مقدار fail|tail -0.5332 0.0208 -25.6952 tail|body 0.0516 0.0202 2.5480 Residual Deviance: 20608.95 AIC: 20622.95 بهترین AIC با داده های غیر تبدیل شده به من داده می شود. مدل قرار است بهترین ترکیب فاکتورها در بین تمامی ترکیبات ممکن باشد. من آن را با استفاده از تابع GLmulti به دست آوردم. با این حال، علیرغم اینکه مقادیر t بسیار بزرگ هستند و نمودارها با وجود اثرات قابل توجه معنادار هستند، آزمون خی دو به من می گوید که تناسب بسیار بد است (مقدار = 0). کسی می تواند به من بگوید چگونه ارزیابی کنم که آیا می توانم به این مدل برای پیش بینی بر اساس داده های جدید تکیه کنم؟ پیشاپیش ممنون | مشکلات ارزیابی اینکه آیا می توان از یک مدل چندجمله ای ترتیبی برازش شده با polr (در Rstudio) برای پیش بینی داده های جدید استفاده کرد. |
50615 | من تعداد پروازهای ماهانه و تعداد خدمه کابین فعال به صورت ماهانه و تعداد خدمه غیبت (مرخصی استعلاجی یا بیشتر) را نیز در مبادی ماهانه دارم. چگونه می توانم یک شاخص یا شاخص در مورد میزان غیبت دریافت کنم؟ میخواهم بدانم آیا با استفاده از هر سه پارامتر موجود، اوضاع در حال بهبود است یا خیر؟ چگونه می توان به آن دست یافت؟ | محاسبه بهبود غیبت برای خدمه کابین |
77197 | من در حال حاضر مطالعه ای را با دو گروه (اختلال روانی کنترلی و روانی فعلی) انجام می دهم. همه شرکتکنندگان سه مکالمه دارند، فیلمبرداری میشوند و فیلمهای تعاملات خود را پس از آن، دو بار تماشا میکنند. در حین تماشای ویدیو، متغیر وابسته خود را ارزیابی می کنم. گفتگوهای درختی سه سطح عامل درون موضوعی هستند. با یک مکالمه خنثی شروع می شود و پس از آن یک مکالمه عاطفی متوسط و یک مکالمه به شدت احساسی دنبال می شود. اکنون ما در نظر داریم که ترتیبی را که شرکت کنندگان در آن ویدیوهای خود را تماشا می کنند برای جلوگیری از تأثیر یادگیری و خستگی متعادل کنیم. با این حال، من فرض میکنم که تأثیر مثلاً یک ویدیوی بسیار احساسی در هر ویدیوی بعدی از همه ترکیبهای دیگر بیشتر است. امکان اجرای طرح بین موضوعی وجود ندارد. آیا گزینه های دیگری وجود دارد که من از آنها اطلاعی ندارم؟ شاید فقط از شرکت کنندگان بپرسید که چقدر خسته هستند و چقدر با این ابزار احساس راحتی می کنند؟ بهترین، A. | جلوه های نظم نامتقارن در طراحی درون موضوعی |
4687 | من سعی می کنم درک عمیق تری از انواع مختلف شبکه های بیزی به دست بیاورم. بیشتر ادبیات/سخنرانیهایی که من با آنها برخورد کردهام منحصراً از متغیرهای تصادفی گسسته استفاده میکنند و فقط به صورت گذراً به متغیرهای تصادفی پیوسته اشاره میکنند. به نظر میرسد اگر میخواهید متغیرهای گسسته و پیوسته را در یک شبکه ترکیبی مخلوط کنید، چند سناریو مختلف برای مدیریت دارید: Child Is Parent (های) ------------------ ----------------------- گسسته همه گسسته گسسته همه پیوسته گسسته هیبرید (گسسته و پیوسته) Continuous All Discrete Continuous All Continuous Continuous Hybrid (گسسته و پیوسته) من می دانم که چگونه احتمالات شرطی را مشخص کنم (یعنی $p(N=n_i|P)$) برای مواردی که والدین (P) همه گسسته هستند. احتمالات شرطی اساساً یک جدول جستجو هستند که یک شرط را به تابع جرم احتمال (وقتی فرزند گسسته است) یا تابع چگالی احتمال (زمانی که فرزند پیوسته است) ترسیم می کند. موارد دیگر مغزم را بی حس می کند. چگونه می توان احتمالات شرطی یک گره معین را مشخص کرد، وقتی که هر یک از والدین آن پیوسته است؟ با تشکر **ویرایش** اصطلاحات (امیدوارم) بر اساس بازخورد اصلاح شده است. | تعیین احتمالات شرطی در شبکه های بیزی ترکیبی |
92025 | اگر میخواستید نتیجه مسابقه مسابقه دانش عمومی را با پیشبینیکنندههایی مانند سن، سطح تحصیلات، ضریب هوشی و غیره پیشبینی کنید، به نظر میرسد موانع متعددی برای استفاده از رگرسیون لجستیک شرطی یا سایر طبقهبندیها به Y=1 (100% برنده) وجود دارد. یا Y=0 100% بازنده، حتی اگر در مسابقه دوم شده باشید. برنده یک مسابقه خاص به سوالات پرسیده شده بستگی دارد. برنده نه تنها به دانش خود، بلکه به دانستن پاسخ های صحیح کمتر توسط سایر رقبا بستگی دارد. دور مسابقه ممکن است امتیاز بسیار پایینی داشته باشد، برنده فقط چند سوال دیگر درست می گیرد، بنابراین توانایی برنده کمی دارد. برنده ممکن است در هیچ دور بعدی در برابر رقبای مشابه برنده نشود (آیا برنده واقعاً یک برنده Y=1 لجستیک است، در این صورت؟) اگر برنده محلی به رقابت با کویزرهایی از کشورهای دیگر ادامه دهد، ممکن است از آنها پیشی بگیرد یا از کلاس خارج شود. کی میدونه تا بعد از مسابقه؟ به من توصیه شده است که رگرسیون لجستیک مشروط می تواند با این مشکل مقابله کند. من گیج هستم که چگونه. به نظر نمی رسد رتبه بندی رقبا در هر دور کارساز باشد، زیرا آنها می توانند هر موقعیتی باشند، تا آخرین مرحله، در راندهای بعدی. شما می توانید رتبه بندی را در هر دور جمع کنید و کمترین عدد برنده کلی و غیره خواهد بود و بر روی داده های نتیجه نهایی عقب نشینی کنید، اما ممکن است چیزی برای پیش بینی برنده کلی یک رقابت بین ایالتی به شما نگوید. پیشنهادی دارید؟ | رگرسیون مسابقه مسابقه |
104292 | ما به تازگی آزمایشی را به پایان رسانده ایم که در آن نمونه ها به 6 گروه توزیع شده و هر گروه درمان متفاوتی دریافت می کند. هر گروه 5 نمونه داشت، با 20 اندازه گیری تکراری در هر نمونه (آنها تفاوت نقطه زمانی را نشان نمی دهند، بلکه عمدتا تکرار هستند). دادهها چیزی شبیه این به نظر میرسند من دادهها را انباشته میکنم و R را روی آنها جویدن میدهم، به طوری که ورودی نهایی چیزی شبیه به این به نظر میرسد. ..  اکنون، می خواهیم ببینیم که آیا تفاوتی در TotalActivity وجود دارد (مقادیر موجود در متغیر آزمایشی در جدول اول) بین گروه های ارائه شده در FinalID (6 گروه). پس از وارد کردن CSV، فیلدهای مربوطه را فاکتور میکنم و ANOVA اندازهگیریهای مکرر را در R انجام میدهم، مانند داده <- درون(داده، {FinalID <- factor(FinalID) AnimalID <- factor(AnimalID) آزمایش <- factor(Trial) }) aov.out = aov(TotalActivity~FinalID*Trial + Error(AnimalID)، data=Data) PostHoc <- with(Data,pairwise.t.test(TotalActivity,FinalID,p.adjust.method=bonferroni)) print(summary(aov.out)) print(PostHoc) خوب، حالا اعتراف این است که آمار قدرت من نیست ، و کمی گیج هستم که چگونه اقدامات مکرر خود را تنظیم کنم. من آن را در گوگل جستجو کردم و چند فرمول مانند aov.out = aov(TotalActivity~FinalID*Trial + Error(AnimalID)، data=Data) aov.out = aov(TotalActivity~FinalID + Error(AnimalID/FinalID)، داده پیدا کردم. =داده) من هیچ ایده ای ندارم که فرمول مناسب برای استفاده چیست، یا حتی اگر هر یک از موارد بالا تکنیک آماری درستی هستند... پیشنهادات لطفا؟ | استفاده از اندازه گیری های مکرر anova: درست می گویم؟ |
92022 | من روی یک مشکل طبقه بندی 2 کلاسه کار می کنم و از LIBSVM استفاده می کنم. من با این مشکل زیر با اعتبارسنجی متقابل (CV) مواجه هستم. هر گونه کمکی بسیار قدردانی می شود. هنگامی که من یک CV 10 برابر با گزینه -v 10 انجام می دهم، دقت 90٪ را دریافت می کنم. اما وقتی یک آموزش و تست روی همان داده ها با تقسیم 90-10 انجام می دهم، دقت به 50 درصد می رسد. چگونه می توان این را توضیح داد؟ پیشاپیش ممنون یک دانشجوی پژوهشی | رفتار عجیب و غریب برای LIBSVM در طول اعتبارسنجی متقابل |
80881 | من یک مجموعه داده تجربی تصادفی با شش درمان با هر تقریباً دارم. N=60. نتیجه یک سری زمانی است، یعنی جنگل زدایی در یک بازی شبیه سازی کاربری زمین در بیش از 40 دور. من موفق شدم نشان دهم که تأثیر تیمارها بر وضعیت زمین (یعنی تعداد سلول های تجمعی جنگل زدایی شده) در یک سال بسیار قابل توجه است، اما در یافتن روش مناسب برای نشان دادن تأثیر آن بر کل زمین مشکل دارم. TIME SERIES قابل توجه است. من می ترسم که آزمایش در یک سال بیش از حد اهمیت داشته باشد، زیرا می توانم هر سالی را انتخاب کنم و درجات آزادی پژوهشگران را اضافه کنم. من میتوانستم (و با موفقیت انجام دادم) هر سال به طور جداگانه آزمایش میکردم، اما به نظر میرسد این یک راهحل بسیار نابجا باشد. به عبارت کلی تر: من یک متغیر مستقل از یک تا 6 دارم و متغیرهای وابسته من سری زمانی برای هر مشاهده است. کاری که من میخواهم انجام دهم، اساساً یک ANOVA است، اما به جای مقادیر منفرد برای هر مشاهده، آن را با یک سری زمانی کامل به عنوان متغیر وابسته تغذیه کنم. در صورت امکان، اگر این روش اجازه کنترل سایر عوامل ثابت مستقل مانند سن بازیکن، شغل و غیره را نیز بدهد، و در حالت ایده آل برای بیش از یک سری زمانی به عنوان متغیر وابسته، امکان پذیر است، زیرا من همچنین داده هایی برای تشدید، صرفه جویی در اختیار دارم. ، گاوهای فروخته شده و برخی ارزش های دیگر برای هر سال در بازی. نظر تخصصی دارید؟ داده های من یک پایگاه داده SQL با یک ورودی برای هر دور از سری های زمانی برای هر موضوع است که از طریق یک شناسه منحصر به فرد به ویژگی های موضوع مرتبط است => می توانم آن را به هر شکلی که برای تجزیه و تحلیل لازم است بیاورم. مشکل من شکل دادن به آن نیست بلکه یافتن آزمون مناسب است. من از mySQL & R استفاده می کنم. | ANOVA با سری زمانی به عنوان متغیر وابسته |
89242 | من یک متغیر پاسخ دارم که به سمت راست کج شده است. مقادیر کم زیادی وجود دارد، کمتر از 10 و سپس مقادیر پرت بسیار بزرگ. من می خواهم مدلی ایجاد کنم که بتواند حداکثر مقادیری که متغیر می تواند به دست آورد را پیش بینی کند. از چه تکنیک هایی می توانم برای پیش بینی حداکثر مقدار استفاده کنم | نحوه پیش بینی حداکثر مقدار متغیر دنباله دار سنگین |
89707 | من مدل ترکیبی را برای اندازهگیری مکرر با استفاده از SAS proc mixed اجرا کرده بودم، مدل(های) را قبلاً برای متغیر وابسته خود دریافت کردم. با این حال، proc mixed R^2 را ارائه نمی دهد. آیا روشی برای اعتبارسنجی متقابل وجود دارد که بتواند در مجموعه داده های من اعمال شود؟ یا فقط به مردم بگویید که من از proc مخلوط و بدون R^2 استفاده کردم (که فکر می کنم افرادی که به مدل من اعتماد ندارند، به ویژه زمانی که نیاز به انتشار مقاله دارند). من اغلب می بینم که مردم از LOOC برای داده های خود استفاده می کنند و میانگین خطا را محاسبه می کنند اما داده های من تکرار می شود (4 تکرار). کسی ایده ای در این مورد دارد؟ پیشاپیش از شما متشکرم ^^ روز بخیر :) KK | نحوه انجام اعتبار سنجی متقاطع برای اندازه گیری های مکرر (proc mixed) |
77735 | من از رگرسیون های ساده استفاده می کنم. متغیر مستقل من یک داده تعداد (# داروی مصرف شده در سال) است و صفرهای زیادی دارد. بسته به یک متغیر وابسته، برای برخی از رگرسیون های ساده، 13 مشاهده دارم، و تنها 3 مقدار غیر صفر از 13 وجود دارد. برای سایر رگرسیون های ساده، من 150 مشاهده دارم و تنها 12 مشاهده غیر صفر از 150 است. آیا استفاده از رگرسیون ساده برای این داده ها مناسب است؟ آیا قاعده ای وجود دارد که در متغیر مستقل چند عدد صفر باید باشد تا بتوان رابطه را مدل کرد؟ متغیر وابسته من پیوسته (وزن) است. | چند صفر در یک متغیر مستقل برای رگرسیون زیاد است؟ |
105846 | این نمونه ای از کتاب من است که سعی می کنم آن را کشف کنم اما کاملاً گم شده ام. آیا کسی می تواند این را مرحله به مرحله کامل کند تا من بفهمم؟ > یک تکنیک مدیتیشن جدید مبتنی بر ایجاد صداهای حیوانات باغبانی نوید > آرام کردن مردم را می دهد، اما ممکن است شک داشته باشید. می توانید تصور کنید که می تواند باعث ایجاد استرس در اطراف مایه زدن و غر زدن شود. برای آزمایش درمان، از 16 نفر میخواهید صدای حیوانات را در بیاورند، سپس از آنها میخواهید احساسات را در مقیاسی از 1 تا 7 ارزیابی کنند، که 1 نشاندهنده «بسیار آرام» و 7 نشاندهنده «بسیار > استرسزا» است. حتماً میدانید که افرادی که مرکب میزنند و غوغا نمیکنند، میانگین امتیاز احساساتشان 4 است، با انحراف معیار 2.57. در زیر > رتبه بندی 16 نفری که صداهای حیوانات را ایجاد کردند، آمده است. 4 5 6 5 4 3 7 4 3 4 4 3 5 6 5 4 > فرضیه های صفر و جایگزین را برای این مثال بنویسید. > نوع خاصی از تحلیلی که استفاده می کنید را بنویسید. > زوبت؟ Z crit؟ > بیانیه ای در مورد تأثیر مهم یا غیر قابل توجه ارائه دهید. > مقدار بدست آمده را بنویسید. من معتقدم فرضیههای صفر و جایگزین من عبارتند از: $\text{H}_0: \overline{X}= μ\quad\text{vs}\quad \text{H}_1:\overline{X} \neq μ$ برای $t$ من $\frac{4.5-4}{2.57/\sqrt{16}}$ انجام دادم و $.778$ گرفتم؟ آیا این درست است؟ $z_\text{crit}$ من 2.131 دلار خواهد بود؟ | آیا آزمون t یک نمونه روش مناسبی برای این سوال است؟ |
109173 | من آمار تاریخچه مسابقات بازیکنان مانند دویدن، شوت ها، پاس ها و غیره را جمع آوری کرده ام. من می خواهم مقادیر ویژگی های مشابه (روانی، ذهنی، فنی) را به بازی Football Manager یا footballdatabase.eu بیابم. چه پیشنهادی برای ارائه چنین فرمول آماری برای هر ویژگی بر اساس آمارهای عددی شناخته شده دارید؟ منابع و سرفصل هایی که ممکن است برای من مفید باشد چیست؟ هر گونه توصیه، پیشنهاد یا نظر بسیار قابل قدردانی است :) در اینجا یک صفحه نمونه از مدیر فوتبال است.  | چگونه می توانم ویژگی های بازیکن فوتبال مشابه بازی های Football Manager یا footballdatabase.eu را از نظر آماری فرموله کنم؟ |
80887 | من باید درآمد خانواده (faminc؛ به دلار) را بر روی **میزان تحصیلی شوهر** (او؛ در سال)، **میزان تحصیلی همسر ** (ما؛ در سال) و ** تعداد کودکان کمتر از 6 سال در خانه ** ('kl6') با استفاده از Stata. (فایل فقط حاوی داده های 4 فاکتور فوق است) من از OLS برای تخمین مدلی به این شکل استفاده می کنم: $$faminc = b_1 + b_2 * he + b_3 * we + b_4 * kl6 + \epsilon $$ منبع | SS df MS تعداد obs = 430 -------------+---------------------------- -- F( 3, 426) = 28.77 مدل | 1.4002e+11 3 4.6673e+10 Prob > F = 0.0000 باقیمانده | 6.9100e+11 426 1.6221e+09 R-squared = 0.1685 -------------+---------------------- -------- Adj R-squared = 0.1626 مجموع | 8.3102e+11 429 1.9371e+09 Root MSE = 40275 ------------------------------------- ----------------------------------------- قحطی | Coef. Std. اشتباه t P>|t| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ او | 3185.882 795.4493 4.01 0.000 1622.388 4749.376 ما | 4637.415 1059.177 4.38 0.000 2555.551 6719.279 kl6 | -8372.704 4343.059 -1.93 0.055 -16909.2 163.7893 _cons | -5998.224 11161.51 -0.54 0.591 -27936.72 15940.27 چند سوال دارم: 1) رگرسیون $b4<0$ را به دست می دهد. آیا این در واقع درست است؟ منظورم این است که اگر خانواده فرزندان بیشتری داشته باشد درآمد کمتری به دست می آورد؟ 2) آیا این مدل به اندازه کافی خوب است؟ آیا باید از لگاریتم طبیعی استفاده کنم یا ساختگی اضافه کنم تا بهتر شود؟ | چگونه می توانم درآمد خانوار را بر اساس سه عامل کاهش دهم؟ |
14522 | فرض کنید در مطالعه 15 آزمودنی، متغیر پاسخ (res) با دو متغیر توضیحی مدل شده است، یکی (سطح) مقوله ای با 5 سطح و دیگری (زمان پاسخ: RT) پیوسته است. با lmer در بسته lme4 R، من دارم: fm1 <- lmer(res ~ level * RT + (level-1 | موضوع)، data=mydata) anova(fm1) Df Sum Sq Mean Sq F سطح مقدار 4 3974.9 993.7 9.2181 RT 1 1953.5 1953.5 18.1209 سطح:RT 4 5191.4 1297.9 12.0393 اگر ترتیب دو متغیر را تغییر دهم، نتایج کمی متفاوت برای جلوه های اصلی دریافت می کنم: fm2 <- lmer(res ~ RT * level + (level-1 | subject)، data=mydata) anova (fm2) Df Sum Sq میانگین مربع F مقدار RT 1 1671.8 1671.8 15.5077 level 4 4256.7 1064.2 9.8715 RT:level 4 5191.4 1297.9 12.0393 آیا چنین تفاوتی از رویکرد ترتیبی (به جای حاشیه ای) در lme4 در حسابداری تنوع داده ها ناشی می شود؟ در این مورد، تغییر ترتیب متغیر منجر به تفاوت زیادی نمی شود، اما قبلاً تفاوت های چشمگیری دیده بودم. این تفاوت بزرگ به چه معناست؟ آیا این بدان معناست که مدل نیاز به تنظیم بیشتری دارد تا زمانی که تفاوت بزرگ از بین برود؟ سوال دوم من این است که اگر بخواهم بدانم کدام متغیر از بین این دو (RT و سطح) تنوع دادهها را بیشتر میکند، چه رویکردی معقول خواهد بود؟ بر اساس بزرگی نسبی Sum Sq (یا Mean Sq) دو متغیر؟ آیا روش آزمون آماری برای مقایسه تنوع در بین متغیرهای توضیحی وجود دارد؟ | ترتیب متغیر و تنوع حساب شده در مدلسازی اثرات مختلط خطی |
94597 | من یک رگرسیون انجام دادم و متوجه شدم که باقیماندههای من نشان میدهند که دادههای من ناهمسان هستند. من تبدیل Box-Cox را اعمال کردم و مدل جدید من به صورت زیر است، y^(1/5) = b0 + b1x1 + b2x2 با لامبدا = 1/5 و مقادیر b0، b1 و b2 خود را پیدا کردم. به نظر نمیرسد این مدل تبدیلشده دارای ناهمسانی باشد، اما اکنون میخواهم از این ضرایب برای پیشبینی دادهها در مجموعه نگهدارندهای که در اختیار دارم استفاده کنم و دقت را آزمایش کنم. اما آیا درست است اگر از ضرایب مدل تبدیل شده استفاده کنم و مقدار حاصل باید توان 5 را بدست بیاورم تا مقدار واقعی پیش بینی شده ای را که می خواهم با مقدار واقعی مقایسه کنم به دست بیاورم؟ | پیش بینی پس از تبدیل باکس-کاکس |
101301 | من با یک مشکل بسیار پراکنده با تعداد زیادی دسته در هر ویژگی کار می کنم و در حال حاضر به دنبال پیاده سازی الگوریتم رگرسیون یادگیری ماشینی موجود هستم که می تواند تعداد زیادی دسته در هر ویژگی را به عنوان ورودی (مثلاً 10^4 دسته) در نظر بگیرد. میتواند روی ماتریسهای طراحی ورودی پراکنده (با دستههایی که با استفاده از متغیرهای ساختگی باینری به ستونها باز میشوند) عمل کند. الگوریتم همچنین باید برای هر ردیف از ماتریس طراحی، بردار وزن های مشاهده ای را بگیرد. به طور رسمی تر، فرض کنید که k ویژگی F_1، F_2، ... F_k وجود دارد. هر ویژگی حاوی داده های طبقه بندی نامرتب است، به عنوان مثال. رنگ F_1: قرمز، آبی، سبز است. ویژگی ها را می توان با k ماتریس طراحی X در m طبقه بندی قرار داد. هر ردیف i-امین ماتریس طراحی با مشاهده موفقیت های s_i و شکست های f_i همراه است، بنابراین احتمال موفقیت را می توان به صورت p_i = s_i / (s_i + f_i بیان کرد. ، که در آن تعداد کل مشاهدات در هر ردیف s_i + f_i است. به عنوان مثال، در R، فراخوانی روتین stats::glm که با این دادهها مطابقت دارد، میتواند با استفاده از کد زیر اجرا شود، جایی که من تمام متغیرها را در داخل قاب داده ورودی قرار دادم و زیرنویسها را برای نشان دادن بردارهای m بعدی حذف کردم: model < - ورودی$p ~ ورودی$F.1 + ورودی$F.2 + ... + ورودی$F.k مناسب <- stats::glm(model, weights = input$s +input$f, family = binomial, data = input) predict(fit, type = response) حال مشکل اینجاست که وقتی برای ویژگی j تعداد دسته ها N_j افزایش می یابد large، stats::glm حافظه اش تمام خواهد شد (و همینطور party::ctree، partykit::ctree، rpart::rpart، و غیره) روال tree::tree تنها دارای حداکثر 32 دسته در هر ویژگی است. راه حل این است که ستون های X را در متغیرهای ساختگی باینری باز کنید که در ماتریس پراکنده x ذخیره شده اند. با استفاده از مثال رنگی، جایی که اولین عنصر نشان دهنده ی وقفه است، ماتریس پراکنده ی باز نشده دارای ردیف های قرمز = [1، 0، 0]، سبز = [1 1 0] و آبی = [1 0] خواهد بود. 1]: آلفا <- 0 lambda.grid <- 10^sq(4، -12، طول = 100) x <- ماتریس::sparse.model.matrix(model, input)[,-1] fit <- glmnet::glmnet(x, input$p, weights = input$s + input$f, thresh = 1e-12, alpha = آلفا، لامبدا = lambda.grid) شبکه الاستیک در بسته glmnet برای برنامه من کار می کند. من به دنبال الگوریتم های دیگری هستم که با این مشکل کار کنند. بسته SVM e1071 در R (libSVM) وزن نمی گیرد (می توان با استفاده از SVM ها با وزن دادن به متغیرهای شل به شکل اولیه، رگرسیون وزنی را انجام داد). آیا پیاده سازی های دیگری وجود دارد که بتواند مستقیماً روی model یا x کار کند؟ الگوریتم می تواند در هر زبان/بسته ای باشد. | الگوریتمهای رگرسیون که با پیشبینیکنندههای مقولهای پراکنده کار میکنند |
5114 | من سعی می کنم یک توزیع قبلی برای یک متاآنالیز بیزی بیان کنم. من اطلاعات زیر را در مورد یک متغیر تصادفی دارم: 1. دو مشاهده: 3.0، 3.6 2. دانشمندی که این متغیر را مطالعه می کند به من گفته است که $P(X<2)=P(X>8)=0$، و اینکه مقادیر بالای 6 احتمال غیر صفر دارند. من از روش زیر برای بهینه سازی استفاده کرده ام (حالت log-N = $e^{\mu-\sigma^2)}$: تابع <- قبلی(parms، x، alpha) { a <- abs(plnorm( x[1]، parms[1]، parms[2]) - (alpha/2)) b <- abs(plnorm(x[2]، parms[1]، parms[2]) - (1-alpha/2)) حالت <- exp(parms[1] - parms[2]^2) c <- abs(mode-3.3) return(a + b + c) } v = nlm(قبلی، c (log(3.3)، 0.14)، آلفا=0.05، x=c(2.5،7.5)) x <- seq(1،10،0.1) نمودار(x، dlnorm(x، v$estimate[1]، v$estimate[2])) abline(v=c(2.5،7.5)، lty=2) #95%CI  در شکل، میتوانید توزیعی را که برمیگرداند، ببینید، اما من میخواهم چیزی بیشتر شبیه خطوط قرمزی که در آن کشیدهام پیدا کنم. توزیع شکل با استفاده از lognormal، گاما، یا نرمال، و منجر به توزیع با $P(X=5)<0.05$ و $P(X=6)<0.01$، یعنی: plnorm(c(5,6 ), v$estimate[1],v$estimate[2]) آیا کسی میتواند جایگزینی را پیشنهاد دهد؟ من ترجیح میدهم به جای یک مخلوط، از یک توزیع واحد استفاده کنم. با تشکر | به دنبال توزیعی، شاید غیر معمول، سازگار با دو نقطه داده و محدودیت های متخصص هستید؟ |
5115 | مهمترین آماردانان کدامند و چه چیزی باعث شهرت آنها شده است؟ (لطفا در هر پاسخ فقط یک دانشمند پاسخ دهید.) | معروف ترین آماردانان |
4686 | فرض کنید من جمعیتی دارم که هر کدام با بیتی $b_i$ برای $i \in \\{1,\ldots, n\\}$ نشان داده شده است. من می خواهم یک تخمین $\hat{B}$ از پارامتر $B = \sum_{i=1}^nb_i$ را محاسبه کنم تا با احتمال زیاد، خطای $|\hat{B}-B| \leq k$ برای برخی $k$ ثابت. با این حال، من باید برای نمونه بیت $b_i$ هزینه c_i$ بپردازم، و این هزینه ممکن است برای هر $i$ متفاوت باشد. من می خواهم نمونه حداقل هزینه را پیدا کنم که محدودیت دقت من را برآورده کند. واضح است که نمونه برداری یکنواخت لزوما بهینه نیست. آیا این مورد مطالعه شده است؟ آیا راه حل بهینه شناخته شده ای وجود دارد که احتمال $p_i$ را مشخص کند که باید از هر بیت $b_i$ برای محاسبه $\hat{B}$ نمونه برداری کنم؟ | نمونه برداری با هزینه های غیر یکنواخت |
100062 | فکر کردن در مورد یک رگرسیون خطی نرمال که توسط هنجار L1 جریمه می شود. این همان کمند است، آیا ادبیاتی در مورد رگرسیون خط الراس میانه وجود دارد؟ یعنی باقیمانده ها از یک هنجار L1 به جای هنجار مجذور محاسبه می شوند. سپس جریمه با هنجار مربع است. شهود من به من می گوید که این باعث انتخاب متغیر نیز می شود. ادبیاتی در این مورد هست؟؟؟؟ | خطاهای لاپلاس و رگرسیون برآمدگی |
100317 | من سعی میکنم از مدل مخلوط برنولی برای طبقهبندی تصاویر MNIST استفاده کنم و با موارد پاتولوژیک مواجه شدهام که محاسبات من را خراب میکند. pdf توزیع برنولی چند بعدی (مثلاً N ابعاد) به این صورت است: $P(x|\mu) = \prod\limits_{i=0}^{N}\mu_{i}^{x_i}(1 - \mu_{i})^{(1 - x_i)}$ pdf مخلوطی از آن ها که مجموع وزنی آنهاست. در برخورد با احتمالات کوچک، من به طور طبیعی به احتمالات log روی آوردم و معادله را به این صورت تبدیل کردم: $log(P(x|\mu) = \sum\limits_{i=0}^{N}log(\mu_{i} ^{x_i}) + log((1 - \mu_{i})^{(1 - x_i)})$ مشکل من این است که وقتی $\mu_i$ یکی شود چه اتفاقی میافتد 0 یا 1 در طول آموزش با $log(0^1)$ مواجه می شوم که باعث می شود -Inf طبقه بندی من را خراب می کند، یا اینکه آیا راهی وجود دارد که بتوانم آنها را به شیوه ای معقول در نظر بگیرم این موارد آسیبشناسی هستند، زیرا معمولا گوشههایی از تصویر را نشان میدهند که هیچ پیکسلی روی آن سرگردان نیست، و یک PCA را برای کاهش ابعاد اجرا میکند، اما مطمئن نیستم چگونه میتوانم از آنجا ادامه دهم: میتوانم کاهش دادههای خود را درک کنم. به ابعاد D، و بنابراین، داشتن مراکز من از ابعاد D، اما چگونه می توانم از آنها با یک تصویر از مجموعه اعتبار سنجی خود استفاده کنم، که هنوز هم با استفاده از ضرایب از مجموعه آموزشی من احساس تعصب می کنم کمک شما، و به سلامتی! | مدل های مخلوط برنولی برای طبقه بندی تصاویر، موارد پاتولوژیک |
79614 | من یک نمونه نسبتا بزرگ (400 pat) با دو متغیر پیوسته (تقریبا) به طور معمولی دارم. آیا می توانم از ANOVA برای همبستگی نسبت بین آن 2 متغیر با یک متغیر اسمی سوم استفاده کنم؟ با تشکر فراوان | همبستگی یک متغیر پیوسته با یک متغیر اسمی |
79610 | من در حال حل مشکلاتی بر روی استخراج آمار U هستم و در مورد تعیین تعداد نمونه (متغیرهای تصادفی؟) که برای هسته یک U-stat مورد نیاز هستند مطمئن نیستم. به عنوان مثال: اجازه دهید $X_i$ با Lesbegue PDF ناشناخته $iid$ باشد. اجازه دهید $\mu = EX_1$، $\sigma^2 = VAR(X_1)$ و $EX^4 < \infty$. برای $\theta = \mu\sigma^2$، یک U-stat برای $\theta$ پیدا کنید. $$g(x_1,x_2,x_3) = \frac{x_1(x_2-x_3)^2 + x_2(x_1-x_3)^2 + x_3(x_1-x_2)^2}{6}$$ را در نظر بگیرید هسته بالقوه ای که برای $\theta$ بی طرفانه و در آرگومان هایش متقارن است. با این حال، فکر اولیه من این بود که استفاده کنم: $$h(x_1,x_2) = \frac{x_1(x_1-x_2)^2 + x_2(x_1-x_2)^2}{4}$$ که برای $ نیز بی طرفانه است \theta$ و متقارن در آرگومان های آن. یا در محاسبه $Eh(x_1,x_2)$ اشتباه میکنم یا چیزی در مورد تخمینپذیری $\mu\sigma^2$ تنها با 2 نمونه گم میکنم. با تشکر | تعیین تعداد متغیرها در هسته یک U-stat |
108643 | نرخ طبقهبندی اشتباه در درختهای تصمیم به صورت $1-\max_{j} p_{j}$$ تعریف میشود. فرض کنید میخواهیم افراد را به جمهوریخواهان و دموکراتها طبقهبندی کنیم. در دادههای آموزشی، $\hat{p}_1 = 0.7$ (احتمال جمهوریخواه بودن) و $\hat{p}_2 = 0.3$ (احتمال دموکرات بودن). اگر روی $\text{age} \leq 50$ تقسیم کنیم و این گره ترمینال را داشته باشد، چگونه نرخ طبقهبندی اشتباه را محاسبه میکنید؟ اگر 100 نفر در داده های آموزشی وجود داشته باشد، 70 نفر جمهوری خواه و 30 نفر دموکرات هستند. سپس اگر 40 کمتر یا مساوی سن 50 و 60 سال بیشتر باشد، آیا تعداد جمهوری خواهان و دموکرات ها را در بین 40 نفر و 60 نفر حساب می کنید تا یک $\hat{p}_1$ و $\hat{p جدید بدست آورید. }_2 دلار؟ | نرخ طبقه بندی اشتباه |
72864 | میدونم سوالم یه جورایی کلی و گسترده هست اما نوشتم تا با نظر شما محدودش کنم! فرض کنید ما یک فرهنگ لغت ناقص از زبان بسیار قدیمی داریم و می خواهیم آن را تکمیل کنیم! اسناد زیادی حاوی جملات هستند. در ابتدا فرهنگ لغت را با نزدیک ترین زبان به این زبان قدیمی پر می کنیم. اکثر کلمات 100٪ با فرهنگ لغت مطابقت دارند اما برخی از کلمات با مقداری پنالتی در حروف عدم تطابق مطابقت دارند! آیا یادگیری ماشینی یا روش آماری برای تعیین نوعی احتمال خطای پسینی وجود دارد که با استفاده از فراوانی هر یک از حروف در هر سند بگوییم: 1) حرفی که مطابقت ندارد درست نیست و با تصحیح آن نیازی به اضافه کردن آن نیست. کلمه به فرهنگ لغت شما! یا 2) حرفی که عدم تطابق آن به اندازه کافی مطمئن است و باید این کلمه را به عنوان یک کلمه جدید در فرهنگ لغت خود حساب کنید! بازم ببخشید سوال کلی پرسیدم! | کلمه جدید یا غلط املایی کلمه موجود در فرهنگ لغت قدیمی؟ |
4689 | تفاوت بین مدل های مولد و متمایز (در زمینه یادگیری و استنتاج بیزی) چیست؟ و چه چیزی مربوط به پیش بینی، نظریه تصمیم گیری یا یادگیری بدون نظارت است؟ | مدل های مولد در مقابل متمایز |
76522 | چرا وقتی maxStages مشخص شده است، تابع biglars.fit کار نمی کند؟ من چندین مقدار و چندین روش برای ریختن $y$ امتحان کرده ام اما کار نمی کند. x <- as.ff(ماتریس(rnorm(100*20)،ncol=20)) y <- as.ff(ماتریس(rnorm(100))) مناسب <- biglars.fit(x,y,maxStages=5 ) خطا در `[<-`(`*tmp*`, k, NEW, value = 1) : زیرنویس خارج از محدوده اما اگر این آرگومان را حذف کنم کار می کند (یعنی وقتی روی NULL تنظیم شود). >fit <- biglars.fit(x,y) | چرا آرگومان maxStages در biglars.fit کار نمی کند |
77731 | من می خواهم قبل از ساخت یک مدل آماری، تعاملات بین متغیرهای توضیحی خود را بررسی کنم. ظاهراً می توان آن را در R با استفاده از درخت رگرسیون (کتابخانه: درخت) انجام داد. این روش مبتنی بر پارتیشن بندی بازگشتی باینری است. الگوریتم یک متغیر پاسخ را با تقسیم کردن داده ها به زیر گروه ها بر اساس متغیرهای پیش بینی کننده پیش بینی می کند. با این حال، من نمی دانم که چگونه این الگوریتم تعاملات بین پیش بینی کننده ها را بررسی می کند. من بسیار سپاسگزار خواهم بود برای توضیح آسان برای غیر متخصص. | چگونه می توان تعامل بین متغیرهای توضیحی را با استفاده از پارتیشن بندی بازگشتی باینری پیدا کرد؟ |
43913 | _سلب مسئولیت: من پیشینه یا واژگان کافی برای این سوال ندارم، اما تمام تلاشم را کردم تا یک جستجوی مقدماتی هم در انجمن و هم در شبکه های گسترده تر انجام دهم_ آیا راهی برای تعیین فرمول یا تقریب ساده شده آن وجود دارد. مجموعه ای از نتایج؟ تنها انتظار من از دقت از چنین فرمول مهندسی معکوس توانایی بازتولید مجموعه اصلی - یا مجموعه ای به اندازه کافی نزدیک به آن - نه توانایی گسترش بیشتر مجموعه یا معرفی مقادیر میانی است. | تقریب فرمول اصلی از یک مجموعه داده |
45817 | آیا کران خوبی در توزیع دنباله مجموع متناهی متغیرهای تصادفی i.d weibull وجود دارد؟ | توزیع دم مجموع ویبول ها |
45814 | همانطور که در مثال Google Web Optimizer نشان داده شده است، من می خواهم شانس شکست دادن خط پایه (اصلی) را محاسبه کنم - من سعی کردم اما نتوانستم بفهمم آنها چگونه این کار را انجام می دهند. من فکر می کنم +- در کنار نرخ تبدیل، خطای استاندارد است، اما خطای استاندارد من نیز خاموش است. کسی می داند گوگل چگونه آن را محاسبه می کند؟ به عنوان مثال در هر زبان برنامه نویسی بسیار خوش آمدید :) اضافی (اما مهم نیست)، اگر کسی بداند که چگونه شمعدان را با ارزش نزدیک پایین دریافت می کند، بسیار خوب است. متشکرم  | محاسبه اطمینان / شانس شکست خط پایه |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.