_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
68229
به عنوان مثال، شما اندازه نمونه را با توان داده شده و سطح قابل توجهی برای یک محاسبه می کنید، به عنوان مثال. مطالعه طراحی ANOVA تعادل دوطرفه. اما در نهایت، مفروضات آن برآورده نمی شود و نمی تواند اصلاحی باشد. یک سوئیچ به یک روش مناسب تر، به عنوان مثال. رگرسیون پواسون و در محاسبه توان برای روش جدید قابل بحث است (الان توان واقعی را نمی دانید). اکنون چگونه می توان در مورد قدرت مطالعه توضیح داد؟ با چه شواهدی
زمانی که تحلیل واقعی باید متفاوت از طراحی شده انجام شود
24061
من نگران این هستم که اکثر مردم چقدر (چه در داخل و چه بدون دانشگاه) برای به کارگیری صحیح روش‌های ساخت مدل استاندارد مانند رگرسیون خطی و تفسیر نتایج این مدل‌ها، مجهز نیستند. هم از مشاهدات خودم و هم از ادبیات، واضح است که اکثر مردم با ابزارهای آماری استانداردی که در دسترس دارند، خدمات ضعیفی دریافت می کنند. برای بهبود این وضعیت، من می‌خواهم مجموعه متفاوتی از جداول خروجی ارزیابی مدل را پیشنهاد کنم (نمونه‌هایی که در جدول 2 و جدول 3 در زیر نشان داده شده‌اند) تا جایگزین جدول خروجی استانداردی شوند که امروزه تقریباً به طور جهانی مورد استفاده قرار می‌گیرند (نمونه‌ای در جدول 1 نشان داده شده است). این قالب خروجی جدید در برابر خطای انسانی (هم در مشخصات مدل و هم در تجزیه و تحلیل) تا حد بسیار بیشتری نسبت به فرمت فعلی ما مقاوم است. از مردم می خواهم انتقادشان را نسبت به این روش پیشنهادی و اینکه آیا علاقه ای به استفاده از آن وجود دارد یا خیر؟ (با عرض پوزش برای طولانی شدن این موضوع، بسیار طولانی‌تر از حد انتظار شد) ## بررسی اجمالی رویکرد ابتدا، با استفاده از اعتبارسنجی متقاطع (LOOCV) یک $R^2$ صادقانه را محاسبه کنید تا یک معیار کلی از تناسب مدل بدست آورید. به عبارت ساده، هر نقطه داده را به نوبه خود حذف کنید، مدل را بدون آن نقطه داده تخمین بزنید، سپس از مدل کاهش یافته برای محاسبه مقدار نقطه داده حذف شده استفاده کنید و از این خطاها برای تخمین R^2$ خود استفاده کنید. سپس برای هر ضریب در مدل، آن پارامتر را از مدل حذف کنید و یک R^2$ صادقانه برای آن مدل فرعی محاسبه کنید. اثر افزودن ضریب به مدل را به صورت $R^2$ مدل کلی منهای $R^2$ مدل فرعی در هنگام حذف ضریب محاسبه کنید. بنابراین یک مقدار مثبت برای این ضریب $R^2$ نشان می‌دهد که وقتی به مدل اضافه می‌شود، تناسب بهبود می‌یابد. یک مقدار منفی نشان دهنده کاهش تناسب است. نتایج به عنوان یک جدول ساده از مقادیر صادقانه $R^2$ گزارش می شود (نمونه هایی را در جدول 2 و جدول 3 در زیر ببینید). ## بحث این رویکرد برای ساده بودن و انجام سه کار طراحی شده است: 1. اطلاعاتی را که برای تفسیر اهمیت (عملی) مدل ها و ضرایب نیاز دارند در اختیار کاربران نهایی قرار می دهد. 2. این اطلاعات را به شکلی که هستند به کاربران نهایی ارائه می دهد از قبل با 3 آشنا شده‌ام. تأثیر خطای کاربر را هم در توسعه مدل‌ها و هم در تفسیر نتایج به حداقل برسانید. فکر می‌کنم این رویکرد هر سه مورد را انجام می‌دهد. استفاده از متریک $R^2$ قابل درک جهانی باید به این معنی باشد که به راحتی قابل درک است و می تواند مستقیماً به چارچوب های ذهنی موجود کاربران متصل شود. دوم، استفاده از این رویکرد قوی است: هم برای مدل‌های نادرست و هم برای تفسیر ضعیف. اکثر مدل‌ها به فرضیاتی بستگی دارند که کاربران اغلب موفق به بررسی آن‌ها نمی‌شوند. البته، مقادیر p برای ضرایب در رگرسیون های خطی به مفروضات پارامتری خاصی بستگی دارد که عموماً به میزان بیشتر یا کمتر نقض می شوند. این رویکرد پیشنهادی در برابر چنین مسائلی انعطاف‌پذیر است (مساله اصلی که مستعد آن است، مانند آمارهای خروجی منظم، همبستگی بین مشاهدات است که می‌تواند منجر به تخمین بیش از حد $R^2$ صادقانه شود). در مورد تفسیر نتایج، مقادیر p یا اغلب اشتباه تفسیر می شوند (همانطور که به طور گسترده ذکر شده است). من معتقدم که این رویکرد صادقانه $R^2$ نسبت به این مسائل بسیار انعطاف پذیرتر است زیرا بر اندازه اثر متمرکز است (که اغلب آن چیزی است که مردم به اشتباه p-value را به عنوان پروکسی می گیرند). این مفهوم به جای اهمیت آماری بر اهمیت عملی تأکید می کند، مفهومی که مردم با آن مشکل زیادی دارند. علاوه بر این، این روش امکان مقایسه مستقیم نتایج را با نتایج حاصل از روش‌های دیگر (حتی آن‌هایی که احتمال ایجاد نمی‌کنند) مانند تکنیک‌های یادگیری ماشینی مانند جنگل‌های تصادفی را می‌دهد. یکی از مسائل این رویکرد بار محاسباتی است. جایی که LOOCV از نظر محاسباتی غیرممکن است، CV 10 یا 5 برابری را پیشنهاد می‌کنم. از آنجایی که این روش ها باید منجر به خطای بالاتری شوند (از آنجایی که مدل در حال آموزش روی مجموعه داده های کوچکتر است)، مقادیر صادقانه $R^2$ گزارش شده توسط آنها _محافظه کارانه_ خواهد بود. بنابراین می توان آنها را در جای LOOCV با هر گونه خطر مقایسه نادرست که ماهیت محافظه کارانه دارد، استفاده و گزارش کرد. مسئله دیگر این است که تخمین LOOCV دارای سوگیری بالایی است. من واقعاً مطمئن نیستم که چگونه می توان با این مشکل برخورد کرد یا اینکه آیا یک مشکل جدی است. آخرین نکته این است که LOOCV به طور مجانبی معادل AIC است، بنابراین این می تواند کمی در آن پارادایم قرار گیرد. ## مثال کاربردی با در نظر گرفتن مجموعه‌ای از داده‌های مسکن (http://archive.ics.uci.edu/ml/datasets/Housing)، ما سعی می‌کنیم میانگین ارزش خانه را در حومه شهر بر اساس میانگین سن خانه، تعداد اتاق‌ها در منطقه پیش‌بینی کنیم. خانه، سطح آلاینده ها، نسبت دانش آموز به معلم، و نزدیکی به بزرگراه. ما با یک رگرسیون خطی شروع می کنیم. در زیر مشابه چیزی است که اکثر نرم افزارها در حال حاضر خروجی می دهند (این جدول خاص توسط R ایجاد شده است). ### جدول 1. جدول رگرسیون استاندارد. ضرایب: Estimate Std. خطای t مقدار Pr(|t|) (تقاطع) 7.76739 4.98881 1.557 0.120112 AGE -0.01509 0.01378 -1.096 0.273773 ROOMS 7.00565 0.417 0.411
ارتباط نتایج مدل رگرسیون
64864
**وظیفه من توسعه سیستمی است که یک سری اندازه گیری را انجام دهد و احتمال اینکه یک شی از نوع 1، نوع 2،... نوع n باشد را برمی گرداند.** به سیستمی که باید ایجاد کنم اشاره می کنم. به عنوان یک طبقه بندی من همه انواع ممکن را می دانم، بنابراین می دانم که باید یکی و تنها یکی از انواع باشد. من باید سیستم خود را بر اساس برخی از داده هایی که از یک شبیه سازی به من داده شده است توسعه دهم. شبیه‌سازی مبتنی بر فیزیک هم داده‌های حقیقت را تولید می‌کند، هم آنچه در شبیه‌سازی اتفاق می‌افتد، و هم داده‌های اندازه‌گیری شبیه‌سازی‌شده، چیزی که حسگرهای شبیه‌سازی شده اندازه‌گیری می‌کنند. متأسفانه، من به اندازه ای که می خواهم داده ندارم، و به دست آوردن داده های بیشتر با اجرای شبیه سازی مبتنی بر فیزیک در حال حاضر گزینه ای نیست، بنابراین باید به آنچه دارم بسنده کنم. مافوق من معتقد است که استفاده از مدل مختلط گاوسی (GMM) بهترین طبقه بندی کننده را تولید می کند، بنابراین راه حل من باید از GMM استفاده کند. راه حل پیشنهادی او استفاده از الگوریتم انتظار-بیشینه سازی برای توسعه طبقه بندی کننده، تنها با استفاده از داده های حقیقت است. برای اندازه‌گیری اینکه چقدر احتمال دارد یک اندازه‌گیری داده‌شده یک نوع معین باشد، فاصله Mahalanobis بین میانگین و کوواریانس داده‌شده توسط GMM و اندازه‌گیری را اندازه‌گیری کردیم. نوع با کوچکترین فاصله ماهالانوبیس، ما فکر می کردیم محتمل ترین نوع شی باشد. هنگامی که آزمایش اولیه خود را انجام دادیم، می‌توانیم کارایی طبقه‌بندی‌کننده خود را با اتصال داده‌های اندازه‌گیری شبیه‌سازی‌شده و دیدن نحوه انجام آن اندازه‌گیری کنیم. (ما به سادگی بررسی کردیم که طبقه بندی کننده کدام نوع را محتمل تر تشخیص داده است). عملکرد اولیه ما ضعیف بود، متوجه شدیم که تقریباً همه چیز به عنوان نوع 1 طبقه بندی می شود. تنها زمانی که هر نوع دیگری به درستی طبقه بندی می شد زمانی بود که حقیقت و اندازه گیری تقریباً یکسان بودند. پس از بررسی دقیق‌تر داده‌ها، داده‌های حقیقت برای همه انواع به‌جز نوع 1 به‌شدت خوشه‌بندی می‌شوند، که باعث می‌شود کوواریانس مرتبط با GMM بسیار کوچک باشد. برای نوع 1، کوواریانس بزرگ است، زیرا مجموعه داده خاصی که من دارم، تنوع زیادی را نشان می دهد. من متوجه هستم که بهترین راه حل دریافت داده های شبیه سازی بیشتر است، اما در حال حاضر این یک گزینه نیست، بنابراین سعی می کنم بفهمم چگونه می توانم عملکرد طبقه بندی کننده خود را بهبود بخشم. سوال من این است که آیا باید به طور مصنوعی نویز را به داده های آموزشی اضافه کنم تا به طبقه بندی کننده یک پیش نمایش از داده های اندازه گیری بدهد یا باید سعی کنم روش دیگری برای طبقه بندی پیدا کنم؟ من یک ریاضیدان نیستم، من یک مهندس هستم، بنابراین اگر به نظر می رسد که نمی دانم در مورد چه چیزی صحبت می کنم، به این دلیل است که در قلمروی ناآشنا هستم. پس لطفاً اگر از اصطلاحات اشتباهی استفاده می کنم یا مبهم هستم، به من اطلاع دهید و تمام تلاشم را برای توضیح دادن انجام خواهم داد. * * * داده ها در مجموع دارای _سه بعد_ هستند که یکی از آنها زمان است. به نظر نمی رسد راهی برای استفاده موثر از بعد زمان پیدا کنم زیرا برخی از شبیه سازی ها 500 ثانیه و برخی دیگر فقط 200 ثانیه طول می کشند. متوجه شدم که می‌توانم تعداد ابعاد را با مشتق کردن یکی از ابعاد نسبت به دیگری یا با استفاده از یک معادله غیرخطی برای ایجاد یک بعد جدید بر اساس یک یا دو متغیر افزایش دهم، اما مطمئن نیستم. چقدر مفید خواهد بود
آیا قبل از آموزش طبقه‌بندی کننده، باید نویز را به داده‌های حقیقت اضافه کنم؟
31299
من یک متغیر وابسته دارم که از 3 دسته و 14 متغیر پیش بینی باینری تشکیل شده است. من سعی کرده‌ام از بسته‌های «mlogit» و «nnet/multinom» در R استفاده کنم. **آیا رویکردی بهتر از رگرسیون لجستیک چند جمله‌ای برای این سناریوی خاص وجود دارد؟**
آیا از رگرسیون لجستیک چند جمله ای با متغیر نتیجه سه طبقه و بسیاری از پیش بینی کننده های باینری استفاده کنیم؟
91599
در حال انجام مطالعه ای هستم که در آن 10 درس به شرکت کنندگانم آموزش می دهم. بعد از هر درس باید به سوالات پاسخ دهند تا درک درس را بررسی کنند. برخی از شرکت کنندگان بین 2-4 درس را از دست دادند. چگونه می توانم داده های از دست رفته را مدیریت کنم؟ آیا آنها را رها کنم؟
نحوه رسیدگی به داده های از دست رفته
79385
من داده‌های نظرسنجی خانوار با 32 سؤال در مورد دارایی‌هایی که خانوار دارد یا ندارد دارم. من فرض می‌کنم که مجموع پاسخ‌های این سؤالات دارایی (مثلاً چند تلویزیون صاحب خانه است) نشانه‌ای از ثروت است و می‌تواند برای ایجاد یک شاخص خوب از ثروت استفاده شود، به عنوان مثال. با استفاده از مولفه اول در تجزیه و تحلیل اجزای اصلی. با این حال، کاری که من می‌خواهم انجام دهم این است که 10 مورد از این متغیرها را انتخاب کنم که به طور مشترک بیشترین نسبت ممکن از تنوع در ثروت را توضیح می‌دهند و از آن‌ها به عنوان سؤالات در پرسشنامه کوتاه‌تری که در حال توسعه هستم استفاده می‌کنم. بهترین راه برای انجام این کار چیست؟ یکی از احتمالاتی که برای من پیش آمده این است که شاخص ثروت را با استفاده از PCA محاسبه کنم، سپس آن را بر روی هر ترکیب ممکن (حدود 60 میلیون) از 10 متغیر از 32 رگرسیون کنم و ببینم کدام یک بالاترین مربع R را دارد. امیدوارم راه ساده تری وجود داشته باشد. در حالت ایده آل من به دنبال پیاده سازی این در Stata هستم.
چگونه می توانم 10 متغیری را انتخاب کنم که بیشترین تنوع را در شاخص ثروت توضیح می دهند؟
76316
در حال حاضر من روی برخی مسائل خوشه بندی زیرفضا کار می کنم. من یک بسته مفید در R به نام orclus پیدا کردم که یک الگوریتم خوشه بندی زیرفضا به نام orclus را پیاده سازی کرد. همانطور که در توضیحات بسته بیان شد، دو پارامتر کلیدی وجود دارد که باید تعیین شوند. یکی ابعاد زیرفضا و دیگری عدد خوشه است. بیان شده است که برای تعیین مقدار بهینه ابعاد زیرفضا می توان از یک آماره از ضریب پراکندگی خوشه استفاده کرد. هر چه این آمار به صفر نزدیکتر باشد، عملکرد بهتری دارد. با این حال، وقتی واقعاً این پیاده‌سازی را امتحان می‌کردم، متوجه شدم که وقتی ابعاد زیرفضا 1 باشد، آمار حداقل است. و هر چه ابعاد زیرفضا بزرگتر باشد، آمار بزرگتر است. آیا منطقی است؟ انتظار چنین روند یکنواختی را نداشتم.
خوشه بندی فضای فرعی در R با استفاده از بسته orclus
63578
برای تشخیص تکینگی محاسباتی، می‌توان به عنوان مثال، کمبود رتبه را بررسی کرد یا تجزیه ارزش تکی را محاسبه کرد. من سوالات زیر را دارم: (1). آیا دو روش ذکر شده در بالا به طور کلی نتایجی را ایجاد می کنند که با یکدیگر منطبق باشند؟ (2). اگر پاسخ (1) منفی باشد، کدام روش قابل اعتمادتر است؟ _**اطلاعات اضافی:_** فکر نمی کنم باید از کلمه قابل اعتماد در اینجا استفاده می کردم. من در حال نوشتن یک تابع C++ با استفاده از کتابخانه Armadillo هستم. تابع در R فراخوانی می شود. بخشی از تابع C++ از تابع Armadillo `solve()` استفاده می کند. در حالت تکینگی، تابع یک استثنا ایجاد می کند. اما من می‌خواهم قبل از اجرای «solve()» مشکل را پیدا کنم و پیام خطای معنی‌داری را به R ارسال کنم. بنابراین فکر می‌کردم شاید بتوانم کمبود رتبه یا svd را برای انجام آن بررسی کنم.
یک راه قابل اعتماد برای بررسی اینکه آیا ماتریس مربع از نظر محاسباتی منفرد است چیست؟
38092
> **تکراری احتمالی:** > دو بتای منفی در یک رگرسیون منحنی زمانی که میانگین وسط یا استفاده از > مقادیر استاندارد شده است. . وقتی به تخمین منحنی نگاه می کنید، در واقع یک رابطه U شکل معکوس کامل وجود دارد. اگر تحلیل رگرسیون انجام دهید، متغیر مستقل نرمال و مجذور عبارت متغیر مستقل را دارید. اگر این هر دو معنی دار باشند، این نشان می دهد که یک رابطه U شکل معکوس وجود دارد. با این حال، به خوبی شناخته شده است که در این روش شما یک مقدار VIF (چند کولینیاری) بسیار بالایی دارید، زیرا یک همبستگی تقریباً کاملاً مثبت بین متغیر مستقل معمولی و متغیر مستقل مجذور وجود دارد (چون مطمئناً آن را مربع می‌کنید). راه حل برای کاهش چند همدلی این است که به معنای مرکز متغیر مستقل، و پس از آن گرفتن مجذور جمله میانگین متغیر مستقل متمرکز است. اگر اکنون یک رگرسیون انجام دهم (با میانگین هر دو پیش‌بینی‌کننده در مرکز) دیگر با چند خطی بودن مشکلی ندارم، اما متغیر مستقل عادی دیگر معنی‌دار نیست (متغیر مستقل مجذور هنوز معنی‌دار است). این چگونه ممکن است؟ چه اشکالی دارد؟ آیا هنوز هم می توان رابطه معکوس U شکل را زمانی که فقط متغیر مستقل مجذور معنی دار است اثبات کرد؟ یا اینکه می توان مسائل چند خطی را نادیده گرفت؟
چگونه ممکن است که متغیر مستقل نرمال پس از مرکز میانگین در یک رابطه منحنی دیگر معنی دار نباشد؟
76314
من یک سوال در مورد تهیه مجموعه داده های نمونه های مثبت برای یک طبقه بندی آبشاری دارم که برای تشخیص اشیا استفاده می شود. به عنوان نمونه مثبت، 3 مجموعه تصویر به من داده شده است: 1. مجموعه ای از تصاویر **رنگی** در اندازه کامل (حدود 1200x600) با **پس زمینه سفید** و با شیئی که در زوایای مختلف نمایش داده می شود. تصویر 2. مجموعه دیگری با تصاویر مشابه در **مقیاس خاکستری** و با **پس زمینه سفید**، کوچک شده به اندازه پنجره تشخیص (60x60) 3. مجموعه دیگری با همان تصاویر در **مقیاس خاکستری** و با **پس زمینه سیاه**، کوچک شده به اندازه پنجره تشخیص (60x60) سوال من این است که در مجموعه 1، آیا پس زمینه واقعا باید سفید باشد؟ آیا در عوض نباید یک **محیط** باشد که احتمالاً شیء در مجموعه داده آزمایشی در آن یافت می شود؟ یا باید مجموعه چهارمی داشته باشم که تصاویر در محیط طبیعی خود باشند؟ محیط چگونه در نمونه های آموزشی قرار می گیرد؟
نمونه های مثبت در مجموعه داده برای آموزش طبقه بندی کننده - محیط چگونه باید شکل بگیرد؟
91593
من می‌خواهم مدلی بسازم که تعیین کند آیا ویجت‌هایم را از قبل برای عیوب غربال کنم یا نه. اگر من پیش نمایش را انجام دهم، برای هر چک مبلغ ثابتی هزینه می شود و 100٪ مواقع مشکل را حل می کنم. اگر از قبل غربالگری نکنم، هزینه آن هزینه رفع مشکل، به علاوه هزینه مواد برای موجودی منقضی شده خواهد بود. من مجموعه کاملی از متغیرها دارم که بر روی رخ دادن نقص در هر ویجت خاص تأثیر می‌گذارند، اما اگر این نقص رخ دهد و من آن را از قبل بررسی نکرده باشم، قطعاً منجر به هزینه تعمیر ثابت و هزینه متغیر منقضی شده موجودی می‌شود. در مورد هزینه مواد برای هر ویجت، باید بدانم که آیا هزینه مورد انتظار نقص از هزینه پیش از غربالگری بیشتر است یا کمتر. چیزهایی که من می دانم: * الف - هزینه پیش غربالگری * ب - مدلی برای پیش بینی شکست - بر اساس داده های آزمایشی - مواردی که می گوید نقصی ندارد، در 98.5٪ مواقع درست است (نادرست است). منفی). * C - مدل برای پیش بینی هزینه مورد انتظار مواد اولیه برای هر ویجت تولید شده * D - درصد تعمیراتی که موفقیت آمیز خواهد بود و منجر به عدم هزینه موجودی منقضی شده می شود * E - هزینه ثابت تعمیرات بنابراین، باید بررسی کنم اگر: A - B* (E+C*D) > 0 من همه این قطعات را دارم، اما نمی‌دانم چگونه آن را به یک مدل تبدیل کنم. هر کسی که مهارت های R یا Stata را داشته باشد، خوشحال می شوم که در جهت یک بسته خوب برای ساخت این مدل استفاده کند.
تجزیه و تحلیل سود هزینه ویجت های پیش از غربالگری برای خطاها قبل از شکست
87345
من سعی کردم AIC یک رگرسیون خطی را در R محاسبه کنم اما بدون استفاده از تابع AIC، مانند این: lm_mtcars <- lm(mpg ~ drat, mtcars) nrow(mtcars)*(log((sum(lm_mtcars$residuals^2)/nrow(mtcars))))+(طول(lm_mtcars$ضرایب)*2) [1] 97.98786 با این حال، `AIC` مقدار متفاوتی می دهد: AIC(lm_mtcars) [1] 190.7999 کسی می تواند بگوید من چه غلطی می کنم؟
محاسبه AIC با دست در R
25817
محاسبه مقادیر AIC یا BIC برای مدل‌های رگرسیون کمند و سایر مدل‌های منظم که در آن پارامترها فقط تا حدی وارد معادله می‌شوند، امکان‌پذیر است. چگونه می توان درجات آزادی را تعیین کرد؟ من از R برای تطبیق مدل‌های رگرسیون کمند با تابع glmnet در بسته glmnet استفاده می‌کنم، و می‌خواهم بدانم چگونه مقادیر AIC و BIC را برای یک مدل محاسبه کنم. به این ترتیب من می‌توانم مقادیر را با مدل‌های متناسب بدون منظم‌سازی مقایسه کنم. آیا توابعی وجود دارد که بتواند این کار را انجام دهد؟
آیا می توان AIC و BIC را برای مدل های رگرسیون کمند محاسبه کرد؟
79337
من می خواهم یک فایل csv. را با نتایج نظرسنجی مشتری تجزیه و تحلیل کنم. یکی از سوالات این است: 3 دلیل اصلی را که ما را انتخاب کردید به ما بگویید. پاسخ ها پاراگراف های کوتاهی از متن هستند که تعدادی از دلایل را فهرست می کنند (نه همیشه 3). یک پاسخ مثال می تواند 1. سرعت، 2. خدمات مشتری، 3. قیمت باشد. یکی دیگر ممکن است این باشد: من از خدمات مشتری شما خوشم آمد و آنقدرها هم گران نبود! من می‌خواهم بتوانم این داده‌ها را به یک نمای کلی مانند این تبدیل کنم: دلایل خدمات مشتری: 2 قیمت: 2 سرعت: 1 من با دو مشکل مواجه هستم: 1. من دلایل را به صورت دستی در یک صفحه گسترده تفسیر و تقسیم می‌کنم. از هر گونه راهنمایی در مورد چگونگی انجام کارآمدتر این کار بسیار استقبال می شود. 2. من یک فیلد Reasons دارم که می خواهم مقدار متغیری از مقادیر در هر رکورد را داشته باشد. فکر نمی‌کنم نرم‌افزار صفحه‌گسترده مانند Libre Calc از آن پشتیبانی کند، و فکر می‌کنم ممکن است لازم باشد آن را به SQL صادر کنم. آیا من حق دارم که به آن شک کنم؟ و چگونه می توانم به نیاز چند فیلد در هر ویژگی در SQL دست یابیم؟
پرداختن به مقدار متغیر ورودی برای یک ویژگی معین
79339
من در حال حاضر EWMA و EWMV را با $M_k=(1-\alpha)*M_{k-1}+\alpha*x$$S_k=(1-\alpha)*(S_{k-1}+\ ردیابی می کنم alpha*(x-M_{k-1})^2)$ اکنون، من این مقادیر را در مجموعه داده ها با 4 بعد مختلف دنبال می کنم و می خواهم این ابعاد را تا کنم تا به دست بیاورم. نماهای جمع‌آوری‌شده، اما مطمئن نیستم که چگونه می‌توانم میانگین و واریانس مجموعه‌های داده‌های متعدد را با هم ترکیب کنم، زیرا آنها به صورت تصاعدی هموار می‌شوند، زیرا اندازه جمعیت را ندارم. از آنجایی که ابعاد مقیاس های متفاوتی دارند، مطمئناً نمی توانم جمعیت 1 را برای هر مجموعه جزئی فرض کنم؟
ترکیب واریانس های هموار شده به صورت نمایی
103660
من یک آزمایش مزرعه ای با ژنوتیپ های مختلف را بر اساس طرح تقویت شده برنامه ریزی کردم (ورودهای مکرر به اضافه ورودی های تکرار نشده را بررسی کنید). از آنجایی که من در حال آزمایش یک جمعیت در حال جداسازی هستم، هر کرت به رنگ‌های گیاهی مختلف تقسیم شد. بنابراین، من می‌خواهم هر گروه رنگی را در هر طرح به‌صورت مجزا تجزیه و تحلیل کنم. به نظر می رسد این یک نوع طرح تقسیم شده تقویت شده است. چگونه می توان چنین آزمایشی را در R تحلیل کرد؟
طرح آزمایشی طرح تقسیم شده افزوده
25814
مطمئن نیستم که آیا این متعلق به CrossValidated، Computational Science یا چیز دیگری است. من مقداری کد و داده دارم که در یک نشریه قرار می‌گیرند، اما می‌خواهم این کد و داده‌ها را در دسترس عموم قرار دهم تا بتوان تجزیه و تحلیل را تکرار کرد. اگر من آن را توسط ناشر میزبانی می کردم، این موضوع را نادیده می گرفتم و اجازه می دادم با آن برخورد کنند، اما به دلایلی برای کدنویسی و داده ها به صورت خارجی در سایت خودم میزبانی می شود. فکر می کنم باید نوعی مجوز روی کد و داده های گفته شده قرار دهم. آیا Creative Commons یا نوع دیگری از مجوز وجود دارد که به خوبی به داده های باز کمک کند؟ چیز دیگری که باید در نظر بگیرم؟ فقط مزاحم نیست؟
مجوز کدهای تحلیلی و داده ها - از کدام مجوز استفاده شود و چه مسائلی؟
31294
من سعی می کنم یک رگرسیون لجستیک روی برخی از داده ها انجام دهم. در اینجا یک نسخه ساده شده از این وضعیت است: من سعی می کنم موفقیت دانش آموزان را بر اساس سابقه آنها و غیره پیش بینی کنم. یکی از پیش بینی های من درصد دروسی است که آنها در گذشته گذرانده اند. اگر آنها هیچ دوره ای را گذرانده اند، من نمی خواهم آن را صفر کنم، زیرا این بدیهی است که با شکست در تمام دوره های آنها متفاوت است. در حال حاضر، این موارد به صورت NaN تنظیم می شوند، اما وقتی از تابع glm در R استفاده می کنم، خطای زیر را دریافت می کنم: > Error in glm.fit(x = c(1, 1, 1, 1, 1, 1, 1 , 1, 1, 1, 1, 1, 1, 1, 1, 1, : > NA/NaN/Inf در فراخوانی تابع خارجی (arg 1) **چگونه آیا برای افرادی که هنوز هیچ دوره ای را گذرانده اند عملکرد را پیش بینی می کنم؟**
چگونه می توانم عملکرد افرادی را که هنوز هیچ دوره ای را گذرانده اند پیش بینی کنم؟
37840
خوب، بنابراین من سعی می کنم رگرسیون خطی را درک کنم. من یک مجموعه داده دارم و به نظر می رسد کاملاً خوب است، اما گیج شده ام. این مدل خطی من است - خلاصه: ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (Intercept) 0.2068621 0.0247002 8.375 4.13e-09 *** temp 0.0031074 0.0004779 6.502 4.79e-07 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 0.04226 در 28 درجه آزادی چندگانه R-squared: 0.6016، R-squared تنظیم شده: 0.58 F آمار: 42.28 در 1 و 28 DF، p-value: 4.789e-07، بنابراین، p-value واقعا پایین است، به این معنی که خیلی بعید است که به طور تصادفی همبستگی بین x,y را بدست آوریم. اگر آن را رسم کنم و سپس خط رگرسیون را رسم کنم، به این صورت می شود: http://s14.directupload.net/images/120923/l83eellv.png (آن را به عنوان تصویر درج کرده بودم، اما من - به عنوان یک کاربر جدید - در حال حاضر نیستم اجازه ارسال آن را دارد) خطوط آبی = فاصله اطمینان خطوط سبز = فاصله پیش بینی اکنون، بسیاری از نقاط در فاصله اطمینان قرار نمی گیرند، چرا این اتفاق می افتد؟ فکر می‌کنم هیچ یک از نقاط داده روی خط رگرسیون b/c قرار نمی‌گیرند، آنها فقط از یکدیگر بسیار دور هستند، اما چیزی که من از آن مطمئن نیستم: آیا این یک مشکل واقعی است؟ آنها هنوز در اطراف خط رگرسیون هستند و شما می توانید کاملاً یک الگو را ببینید. اما آیا این کافی است؟ من سعی می کنم آن را بفهمم، اما فقط همین سوالات را بارها و بارها از خودم می پرسم. چیزی که تا به حال به آن فکر کردم: فاصله اطمینان می گوید که اگر CI را بارها و بارها محاسبه کنید، در 95٪ مواقع میانگین واقعی در CI قرار می گیرد. بنابراین: اشکالی ندارد که dp در آن نیفتد، زیرا اینها واقعاً وسیله نیستند. از سوی دیگر بازه پیش‌بینی می‌گوید، اگر PI را بارها و بارها محاسبه کنید، در 95% مواقع VALUE واقعی در بازه قرار می‌گیرد. بنابراین، داشتن نکاتی در آن بسیار مهم است (که من دارم). سپس خواندم که PI همیشه باید دامنه وسیع تری نسبت به CI داشته باشد. چرا اینطور است؟ این کاری است که من انجام داده‌ام: conf<-predict(fm, interval=c(اطمینان)) prd<-predict(fm, interval=c(پیش‌بینی)) و سپس آن را توسط: matlines(temp, conf[,c(lwr،upr)]، col=red) matlines(temp,prd[,c(lwr,upr)]، col=red) حالا، اگر من CI و PI را برای داده های اضافی محاسبه کنم، مهم نیست که چقدر محدوده را انتخاب می کنم، دقیقا همان خطوط بالا را دریافت می کنم. نمیتونم بفهمم این به چه معناست؟ سپس این عبارت خواهد بود: conf<-predict(fm,newdata=data.frame(x=newx)، interval=c(اطمینان)) prd<-predict(fm,newdata=data.frame(x=newx) interval=c(پیش‌بینی)) برای x جدید دنباله‌های مختلفی را انتخاب کردم. اگر دنباله دارای # مشاهدات متفاوت از متغیرهای موجود در رگرسیون من باشد، یک هشدار دریافت می‌کنم. چرا چنین می شود؟
فواصل اطمینان و پیش بینی مدل رگرسیون خطی
21308
من می خواهم نشان دهم ${\rm var}(\overline{X})$ $\sigma^2/ n$ برای $n$ متغیرهای تصادفی مستقل است که هر کدام با میانگین $\mu$ و انحراف استاندارد $\sigma$ است. من می‌خواهم این را با استفاده از: $$ E(\overline{X} - \mu) نشان دهم. نظر/نظری دارید؟ با تشکر دایان
استخراج ${\rm var}(\overline{X})$ از تعریف مقدار مورد انتظار
3121
من می خواهم فرمول یا روش محاسبه این را بدانم. به عنوان مثال، من می خواهم بدانم چند عدد باید انتخاب کنم تا 95٪ اطمینان داشته باشم که در 2٪ از میانگین قرار خواهم گرفت. من همچنین علاقه مند به انجام یک تحلیل مشابه برای میانه هستم. به روز رسانی: اعداد دوباره در استخر قرار نمی گیرند. من فکر می کنم این به ترکیبات مربوط می شود تا آزمایشات؟ برای مثال، اگر من 1 عدد یا 99 عدد را انتخاب کنم، 100 ترکیب وجود دارد، اگر 100 عدد را انتخاب کنم، 1 ترکیب وجود دارد و غیره. ببینید چه تعداد در 2٪ از میانه هستند. من علاقه مندم که ببینم آمار میانگین قیمت برای بازار مسکن چقدر قابل اعتماد است. به عنوان مثال، در یک ماه ممکن است 5٪ از خانه ها بفروشند، یا شاید 20٪ بفروشند. قیمت مسکن در سراسر نقشه است، اما من می خواستم یک کار ساده مانند این انجام دهم. و حالا به چیز دیگری فکر کرده ام... فرض کنید به جای 1-100، 1-500 دارم. اگر من از 1 تا 100 توپ را انتخاب کنم و 10 توپ (10٪ آنها) را انتخاب کنم، حدس می زنم که پاسخ با گرفتن 50 توپ از 1-500 (10٪ آنها نیز) متفاوت باشد؟
اعداد 1-100، محاسبه چند عدد باید انتخاب کنم تا x% قابلیت اطمینان را بدست بیاورم
66705
من واقعاً می توانم از برخی توصیه ها با تفسیر تعامل استفاده کنم. من یک آنووا با اندازه گیری های مکرر 3 طرفه با عبارات A، B و C انجام داده ام. A دارای 2 سطح، B دارای 3 سطح و C دارای 4 سطح است. نتایج من یک اثر اصلی مهم A و یک اثر متقابل معنی‌دار BxC را نشان می‌دهد. من می دانم که اگر اثر متقابل وجود داشته باشد، نباید اثر اصلی را تفسیر کرد. آیا در این شرایط زمانی که متغیر A با اثر اصلی هیچ تعامل قابل توجهی را تجربه نمی کند، صادق است؟
تفسیر اثرات اصلی در حضور تعامل بین سایر متغیرها
66699
من داشتم این مقاله مربوط به فرآیندهای گاوسی را می خواندم http://ipg.epfl.ch/~seeger/lapmalmainweb/papers/bayesgp-tut.pdf. من متوجه نشدم که چگونه آنها پسین فرآیند گاوسی را با توجه به برخی داده های مشاهده شده استخراج کردند. هر دو y و u دارای توزیع نرمال با میانگین 0 هستند. فقط کوواریانس در مورد y و u متفاوت است. من متوجه نشدم که چگونه قسمت $K$ در میانگین قسمت پسین و کوواریانس پسین آمده است خب u ~ 0 K K_uy y ~ 0 K_uy K+$\sigma^2$ من متوجه نشدم که چگونه قسمت K_uy محاسبه می شود. آنها آن را K قرار داده اند. مطمئن نیستم چرا. شفاف سازی؟ همچنین می توانید توضیح دهید که چگونه فرآیند پیش بینی مشتق شده است. من می دانم که ادغام منطقی است. اما چگونه بیان نهایی را به دست آوردند؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/qpAlE.png)
سردرگمی مربوط به اشتقاق فرآیندهای خلفی گاوسی
56963
هنگام استفاده از رگرسیون برای تخمین رابطه بین متغیر مورد علاقه و فاصله از یک نقطه معین (مثلاً منحنی فاصله - فروپاشی)، مزایا و معایب برازش خط رگرسیون به داده‌های تجمعی به جای داده‌ها بر اساس باند چیست و چیست؟ تعادل مزیت؟ مثال زیر یک مثال کمی ساختگی است که برای نشان دادن این سوال در عین اجتناب از مسائل اضافی طراحی شده است. فرض کنید یک محقق به نحوی نمونه تصادفی 100 آجیل را که روی یک درخت آجیل رشد می کند برچسب گذاری کند. بعداً وقتی مهره ها افتادند، محقق محل قرارگیری آنها را شناسایی می کند، فاصله آنها را از درخت اندازه می گیرد و اعداد را با فاصله های 5 متری می شمارد و داده های (فرضی) زیر را به دست می آورد: ![شرح تصویر را اینجا وارد کنید](http: //i.stack.imgur.com/7Oe5c.png) محقق می خواهد از نمونه برای تخمین رابطه فاصله-عدد برای کل جمعیت آجیل استفاده کند. روی درخت یک رویکرد تخمین رگرسیون N روی MD خواهد بود. یکی دیگر از اینها، تخمین رگرسیون CN بر روی D است. نتایج هر یک از این رویکردها می‌تواند به راحتی با جمع کردن یا گرفتن تفاوت‌ها به شکل دیگر تبدیل شود. آیا مزیتی از نظر دقت در رویکرد دوم وجود دارد؟ مزایایی که برای من پیش می آید این است: 1. فاصله متوسط ​​مهره ها در هر باند ممکن است نقطه وسط باند نباشد. اگر مثلاً میانگین فاصله معمولاً کمتر از نقطه میانی باشد، رگرسیون N روی MD منجر به بایاس می‌شود. در مقابل، رگرسیون CN روی D تحت تأثیر توزیع فواصل درون باندها قرار نمی‌گیرد. 2. هر دو رویکرد به باندبندی بستگی دارند، و این خطر را افزایش می دهد که نتایج آنها به ساختار باندی خاص انتخاب شده بستگی دارد (به Openshaw، مسئله واحد منطقه ای قابل اصلاح مراجعه کنید). با این حال، رویکرد تجمعی کمتر وابسته به نظر می رسد: برای مثال، با در نظر گرفتن N و CN در MD = 17.5 و D = 20، برای مثال، فرض کنید 1 مهره در فاصله 19.99 متر توسط یک باند کوچکتر حذف شده است. در آن صورت، N از 11 به 10 کاهش می یابد، یک تفاوت 9٪، در حالی که CN از 90 به 89 کاهش می یابد، تفاوت تنها 1.1٪. از N اگر یک فرم عملکردی ثبت شده مناسب به نظر برسد. همانطور که وبر در اظهار نظر خود اشاره کرده است، یک نقطه ضعف مهم، وابستگی متقابل بین مقادیر CN است. علاوه بر این، ناهمگونی در مقادیر N به روشی پیچیده بر مقادیر CN تأثیر می گذارد. من از روش تخمینی که بتواند این ویژگی ها را مدیریت کند آگاه نیستم - از هر پیشنهادی استقبال می شود.
مزایا و معایب برازش رگرسیون فضایی به داده های تجمعی
91592
آیا کسی می تواند من را به توضیح خوبی راهنمایی کند که چه زمانی یک متغیر باقیمانده در یک رگرسیون به شما پاسخی مشابه با استفاده از یک متغیر غیر باقیمانده با کنترل ها می دهد؟ برای مثال، بگویید می‌خواهم تأثیر متغیر x را بر y بدانم و باید a و b را کنترل کنم. در یک چارچوب مدل خطی کلاسیک، من می‌توانم a و b را به عنوان متغیرهای کمکی (یعنی متغیرهای کنترلی) به مدل y روی x اضافه کنم، یا می‌توانم ابتدا x را روی a و b رگرسیون کنم و سپس از باقیمانده‌های این رگرسیون استفاده کنم. باقیمانده x) برای پیش بینی y. هر دو ضریب یکسانی را برای x خواهند داد. این در مورد مدل خطی کار می‌کند، اما آیا x باقی‌مانده ضریب x را با کنترل‌های دیگر انواع مدل‌ها، به عنوان مثال، مدل‌های لاجیت یا مدل‌های پواسون می‌دهد؟ شبیه‌سازی‌های ساده من پیشنهاد می‌کنند که اینطور نیست (کد R را در زیر ببینید)، اما سعی می‌کنم دلیل آن را بفهمم، و آیا می‌توان از باقی‌مانده‌سازی به جای افزودن کنترل‌های خارج از چارچوب مدل خطی استفاده کرد. آیا کسی می تواند من را به یک توضیح خوب راهنمایی کند؟ #تولید داده n=10000 set.seed(3345) a=rnorm(n); b=rnorm(n) x = 0.4*a + 0.4*b*b + rnorm(n) y = 0.5*x + 0.3*a + 0.3*b*b + rnorm(n) ## LINEAR مدل #### #یک مدل با کنترل‌ها خلاصه ضریب مناسب را دریافت می‌کند(lm(y ~ x + a + I(b^2))) residmod=lm(x ~ a + I(b^2)) x.resid=resid(residmod) #با استفاده از یک متغیر باقیمانده، خلاصه ضریب یکسانی را دریافت می‌کند (lm(y ~ x.resid)) ## LOGIT MODEL #### y=.5* x + 0.3*a + 0.3*b*b + rlogis(n) ydichot=ifelse(y >0, 1, 0) #a مدل با کنترل‌ها خلاصه ضریب مناسب را دریافت می‌کند (glm(ydichot ~ x + a + I(b^2)، خانواده = دوجمله‌ای)) #با استفاده از یک متغیر باقی‌مانده، خلاصه ضریب یکسانی را دریافت نمی‌کند (glm(ydichot ~ x.resid، خانواده=دوجمله ای)) ## POISSON MODEL #### mu=exp(.5*x + 0.3*a + .3*b*b) ycount=rpois(n, mu) خلاصه (glm(ycount ~ x + a + I(b^2), family=poisson)) #با استفاده از یک متغیر باقیمانده خلاصه ضریب یکسانی را دریافت نمی‌کند( glm (ycount ~ x.resid، family=poisson))
استفاده از پیش‌بینی‌کننده‌های باقی‌مانده خارج از زمینه مدل خطی
91597
من در تلاش هستم تا به مفهوم پراکندگی بیش از حد در رگرسیون لجستیک دست پیدا کنم. من خوانده ام که پراکندگی بیش از حد زمانی است که واریانس مشاهده شده یک متغیر پاسخ بیشتر از آن چیزی است که از توزیع دوجمله ای انتظار می رود. اما اگر یک متغیر دو جمله ای فقط می تواند دو مقدار (1/0) داشته باشد، چگونه می تواند میانگین و واریانس داشته باشد؟ من با محاسبه میانگین و واریانس موفقیت ها از تعداد x آزمایشات برنولی خوب هستم. اما نمی‌توانم مفهوم میانگین و واریانس متغیری را که فقط دو مقدار داشته باشد، بچرخانم. آیا کسی می‌تواند یک نمای کلی بصری ارائه دهد: 1. مفهوم میانگین و واریانس در متغیری که فقط می‌تواند دو مقدار داشته باشد. 2. مفهوم پراکندگی بیش از حد در متغیری که فقط می‌تواند دو مقدار داشته باشد.
پراکندگی بیش از حد در رگرسیون لجستیک
72762
در صفحه 378 از رمز نگاری با حافظه قابل دستکاری و نشتی، کلای و همکاران. ادعا کنید که دو توزیع احتمال $e(k)$ نزدیک هستند اگر فاصله بین آنها حداکثر $e(k)$ باشد. نزدیک یا دور بودن دو توزیع X و Y از یکدیگر چه اهمیتی دارد؟ چرا کسی به خصوص در رمزنگاری اهمیت می دهد؟
فایده اندازه گیری فاصله آماری چیست؟
103664
وقتی ماتریس‌های مدل ثابت هستند، انجام پیش‌بینی‌ها مستقیم است. با این حال، هنگام استفاده از یک مدل متغیر با زمان مانند رگرسیون پویا، مطمئن نیستم که چگونه باید ادامه داد، زیرا ما پیش‌بینی‌کننده‌ها را نیز مشاهده نمی‌کنیم (همچنین سری‌های زمانی هستند) بنابراین شهود من این است که پیش‌بینی‌ها مربوط به بخش ثابت هستند. مدل (با نادیده گرفتن بخش دینامیک) برای گام های جلوتر از t+1. هر نظری قدردانی خواهد شد.
پیش بینی های جلوتر از t+1 در مدل های فضای حالت خطی متغیر با زمان
66704
من دقیقاً مطمئن نیستم که چگونه این موضوع را عنوان کنم، یا از چه برچسب هایی استفاده کنم زیرا آمارهای پیشرفته واقعاً در حال حاضر موضوع من نیست. لطفاً عنوان و برچسب‌ها را در صورت نیاز برای بهبود این سؤال تغییر دهید. بگویید من 10 کارمند مختلف دارم که اشتراک روزنامه را می فروشند و هر کارمند منطقه جغرافیایی متفاوتی از ایالت را پوشش می دهد. من اطلاعاتی در مورد تعداد کل روزنامه های فروخته شده برای هر کارمند در پایان هر ماه برای یک دوره 12 ماهه، ژانویه تا دسامبر، دارم. آنچه من می خواهم بدانم این است که چگونه می توانم اعداد را عادی سازی کنم و ارزیابی عملکرد کارمند را با درک کامل اینکه برخی از مناطق جغرافیایی به طور طبیعی بر اساس اطلاعات جمعیتی مختلف بهتر از سایرین عمل می کنند، دریافت کنم. یک کارمند ممکن است در منطقه ای که به طور سنتی حجم کمتری دارد به دلیل تراکم جمعیت کمتر، عملکرد بسیار خوبی داشته باشد، در حالی که کارمند دیگری ممکن است تعداد زیادی اشتراک روزنامه را فروخته باشد اما آنها در منطقه ای کار می کنند که تراکم جمعیت بسیار بالاتری نسبت به کارمند فوق الذکر دارد. . از کجا شروع کنم؟ برای انجام این کار به چه اطلاعاتی نیاز دارم؟ به چه مقدار داده تاریخی نیاز دارم؟
مقایسه داده های ماهانه فروش کارکنان علیرغم تفاوت های منطقه ای
23305
من سعی می کنم یاد بگیرم که چگونه یک اندازه گیری مکرر در R با استفاده از `ezANOVA` انجام دهم و از دستور زیر استفاده کرده ام: > ezANOVA(data=NL2, dv=.(ln.conc.), wid=.(نمونه)، درون=.(زمان)، > بین=.(pH)، نوع=1، تفصیلی=صحیح) این خروجی من است و سوال من این است که چرا تست Mauchuly جواب نمی دهد؟ من معتقدم که 9 سطح در درون-Ss خود دارم ('time=A-I'، به مجموعه داده زیر مراجعه کنید). مقادیر p که من دریافت می کنم مانند SPSS است، بنابراین آزمایش باید به نوعی درست باشد...: $ANOVA Effect DFn DFd SSn SSd F p p<.05 ges pH 2 6 0.09673652 0.9441442 0.3073784 7.404-7.4629 48 1.08726236 1.0066814 6.4802768 1.065187e-05 * 0.35787718 pH:زمان 16 48 0.26690606 1.0066814 0.795-031814. 0.12035093 مجموعه داده استفاده شده (من زمان و pH را به حروف تبدیل کردم تا R بفهمد که یک عامل است نه عدد). ln(conc) در 3 pH (A-C)، 3 محل نمونه مختلف در هر pH (A-C)، در 9 زمان مختلف (A-I) اندازه‌گیری می‌شود: زمان pH نمونه ln (conc ) A A -0.862749964946125 B A -0.725670372265505 C A A -0.636766847123838 D A A -0.544727175441672 E A A -0.681218609694672 F A A -0.650087691099498 G A A -0.81193091675 -0.744440474947496 I A A -0.881889305156823 A B -0.603306476560156 B A B -0.592397277459802 C A B -0.555125882 A B -0.555125882 -0.534435489405125 E A B -0.834710744881732 F A B -0.869884359059999 G A B -0.923818998294947 H A B -1.1425621999 A -1.08767234862978 A C -0.818710403535291 B A C -0.7339691750802 C A C -0.755022584278033 D A C -0.761426021313 -0.738144546490681 F A C -0.825536368605691 G A C -0.936493439191674 H A C -1.04412410338404 I A C -1.16796293668 D -0.681218609694672 B B D -0.449416995637347 C B D -0.903868211875598 D B D -0.659712404473708 E B D -0.9597202918 F -0.657780036722654 G B D -0.681218609694672 H B D -0.460449416440924 I B D -0.99695863494161 A B E -0.358104523674 -0.187535123846842 C B E -0.379797361359587 D B E -0.454130280089445 E B E -0.574475650842447 F B E -0.7072464479 -0.802962046567152 H B E -0.45886588483528 I B E -1.14570389620196 A B F -0.951917909517306 B B F -0.88916203448 -0.685179010910768 D B F -0.685179010910768 E B F -0.860383099935859 F B F -0.913793851675568 G B F -0.9571124126 -0.944175935363691 I B F -0.881889305156823 A C G -0.532730459154041 B C G -0.579818495252942 C C G -0.6033064765 C G -0.6033064765 -0.562118918153541 E C G -0.765717873394781 F C G -0.755022584278033 G C G -1.03282454813011 H C G -0.8770700187 C -1.02443289049386 A C H -0.53102833108351 B C H -0.563874844855806 C C H -0.3147107448397 D C H -0.6311117896409 -0.558616287602339 F C H -0.703197516413447 G C H -0.655851395816248 H C H -0.894040122939335 I C H -0.860383099 -1.02722229258144 B C I -0.881889305156823 C C I -0.959720289801491 D C I -0.972861083362549 E C I -0.881888930515 -0.954511944694353 G C I -0.936493439191674 H C I -1.00785792539965 I C I -0.911303190363116
چرا ezANOVA آزمون کروی بودن Mauchly را به من نمی دهد، حتی اگر فکر می کنم بیش از 2 سطح متغیر درون-Ss دارم؟
103661
من سعی می کنم بفهمم تخمین توزیع تقاضا برای یک کالا چقدر نامطمئن است. اگر من یک نمونه تصادفی از n نفر از جمعیت مصرف کننده نماینده انتخاب کنم که قیمت های قطع/خفه شخصی خود را به من می دهند (با فرض اینکه آنها به طور دقیق آنها را گزارش می کنند)، می توانم یک منحنی تقاضا با n نقطه بسازم که تخمینی از نسبت جمعیت را نشان می دهد. کالا را با آن قیمت می خرید با توجه به اینکه من از n قطعه اطلاعات مستقل برای محاسبه n امتیاز استفاده کردم، آیا باید از یک توزیع t با 1 درجه آزادی برای محاسبه فاصله اطمینان برای هر نقطه استفاده کنم؟ و اگر بخواهم این فاصله را با افزایش درجات آزادی کاهش دهم، یا باید نمونه های بیشتری بگیرم، یا دانه بندی منحنی تقاضا را افزایش دهم تا d.f بیشتری بدست بیاورم. در هر نقطه؟
محاسبه فاصله اطمینان برای تخمین منحنی تقاضا - چند درجه آزادی؟
72767
من سعی می‌کنم اثرات افزودن ویژگی‌های مستقل غیرشرطی به طبقه‌بندی‌کننده ساده بیز را درک کنم. فرض کنید من بردار ویژگی‌های $X = [x_1,x_2,x_3,x_4]$ را دارم و برای هر مقدار x_3$ من مقدار یکسانی را برای $x_4$ دریافت می‌کنم: برای همه $i \in \\{samples\ \}$, $x_{3}^{i} = x_{4}^{i}$ می‌توانم بگویم که فرض مستقل شرطی $x_n$ با توجه به کلاس $Y = y_k$ دیگر پابرجا نیست زیرا مقدار $x_{3}^{i}$ $x_{4}^{i}$ را پیش‌بینی می‌کند، و طبقه‌بندی کننده ساده بیز ممکن است نتایج مورد انتظار را تولید نکند. من واقعاً در مورد این توضیح مطمئن نیستم و از دیدگاه شما در مورد آن قدردانی می کنم.
بیز ساده با فرض استقلال نامعتبر
66708
بنابراین من مجموعه داده ای از مقالات مشابه دارم. «تفاوت پایتون و روبی» 537 «آموزش پیشرفته در پایتون» 1438 «کتابخانه HTTP» 134 اعداد کنار آنها داده‌های کلیک هستند. من به دنبال انجام تجزیه و تحلیل رگرسیون بین کلمات در هر یک از عناوین و تعداد بازدیدهای حاصله از مقاله هستم، یعنی به این نتیجه برسم که در هنگام عنوان یک مقاله برای یک جامعه یا گروه خاص از کدام کلمات استفاده شود. همچنین، من دوست دارم ایده های دیگری را بشنوم و همچنین چه نتیجه جالب دیگری می توانم از چنین داده هایی بگیرم. **ویرایش** داده های درخواستی من همچنین داده های بازدیدهای منحصر به فرد را نیز اضافه کردم. [('Travis CI: Annoncing Python and Perl on Travis CI', {u'clicks': 81, u'unique': 74})، ('Software Maniacs blog \xc2\xbb Django as a micro-framework', {u'clicks': 333, u'unique': 318})، ('Interpreted Languages: Perl, PHP، Python، Ruby (Sheet One) - Hyperpolyglot', {u'clicks': 236, u'unique': 221})، ('PyCon 2012 on mobile Guidebook!', {u'clicks': 1, u'unique': 1})، ('Twitter', {u'clicks': 17, u'unique': 17})، ('تغییر استاتیک پایتون با پایتون: ماژول AST - Blueprint Forge.'، {u'clicks': 122، u'unique': 109})، ('Python برای iOS - یک مفسر و توسعه پایتون محیط برای iPod Touch، iPhone، و iPad'، {u'clicks': 151، u'unique': 142})، (وبلاگ Vivek - راه حل تکمیل خودکار خود را با استفاده از تلاش ها بنویسید.، {u'clicks': 211, u'unique': 203})، ('Twitter', {u'clicks': 4، u'unique': 4})، ('Ian Bicking: a blog :: Python Application Package', {u'clicks': 114, u'unique': 111})، ('PEP 414 -- Unicode Literal صریح برای Python 3.3'، {u'clicks': 50، u'unique': 50})، ('اصلاح استاتیک Python با Python: the ماژول AST - Blueprint Forge.'، {u'clicks': 0، u'unique': 0})، ('Requests: HTTP for Humans \xe2\x80\x94 Requests 0.10.6 documentation', {u'clicks': 18, u'unique': 17})، ('Haskell, Python and readability : programming', {u 'کلیک': 246، u'unique': 236})، ('PyCon 2012 در کتاب راهنما به موبایل رفته است!'، {u'clicks': 40، u'unique': 38})، ('Pycoders Weekly (pycoders) on Twitter', {u'clicks': 12, u'unique': 12 })، (بهینه سازی رسانه های اجتماعی SWIX و بازگشت سرمایه بازاریابی شبکه های اجتماعی، {u'clicks': 1، u'unique': 1})، ('PEP 414 -- Unicode Literal صریح برای Python 3.3', {u'clicks': 0, u'unique': 0})، ('[Python-Dev] PEP 414 - Unicode Literal for Python 3', {u 'clicks': 82, u'unique': 82})، ('Google App Engine Blog: Annoncing the General در دسترس بودن Python 2.7 Runtime for App Engine، {u'clicks': 57, u'unique': 56})، ('What\xe2\x80\x99s new in Celery 2.5 \xe2\x80\x94 Celery 3.0. 21 مستندات', {u'clicks': 237, u'unique': 231})، ('بسته ها و تزئینات پایتون (Pt. 2)'، {u'clicks': 59، u'unique': 57})، ('Python for iOS - یک مفسر Python و محیط توسعه برای iPod Touch، iPhone و iPad'، {u'clicks': 0، u'unique': 0})، ('Travis CI: Announcing Python and Perl on Travis CI', {u'clicks': 1, u'unique': 1})، ('Quiz & Learn Python - Python on Your Mobile Your Device'، {u'clicks': 259, u'unique': 244})، ('Python Closures and Decorators (Pt. 1)'، {u'clicks': 1، u'unique': 1})، ('Python Closures and Decorators (Pt. 1)'، {u'clicks': 219، u'unique': 207})، ('Trie - Wikipedia, the free دانشنامه', {u'clicks': 18, u'unique': 15})، ( 'Ian Bicking: a blog :: Python Application Package', {u'clicks': 0, u'unique': 0})، ('Software Maniacs blog', {u'clicks': 42, u'unique': 41}), ('Quiz & Python Learn - Python on Your Mobile Device', {u'clicks': 1, u'unique ': 1})، ('Python Closures and Decorators (Pt. 2)', {u'clicks': 0, u'unique': 0})، ('SWIX بهینه سازی رسانه های اجتماعی و بازگشت سرمایه در شبکه های اجتماعی'، {u'clicks': 71، u'unique': 69})، ('Twitter', {u'clicks': 6, u' منحصر به فرد': 6})، ('وبلاگ نرم افزار Maniacs \xc2\xbb جنگو به عنوان یک چارچوب کوچک'، {u'clicks': 4، u'unique': 4})، ('Haskell, Python and readability : programming', {u'clicks': 0, u'unique': 0})]
پیش بینی تعداد داده ها (کلیک ها) بر اساس کلمات استفاده شده در عنوان
23300
قبلاً فکر می‌کردم سریال زمانی من فصلی است، اما بعد متوجه شدم که صرفاً نیاز به تنظیم اثر تقویم دارد. من آن را امتحان کردم و اکنون شک دارم که هنوز فصلی باقی مانده است. من سعی کردم یک تفاوت 12 ماهه اضافه کنم، و به نظر می رسید که کار می کند، اما بعد فکر کردم: چرا در وهله اول فقط تفاوت 12 ماهه را امتحان نکنم؟ آیا این نباید جلوه های تقویم را نیز در یک بسته در نظر بگیرد؟ در اینجا می‌روید، پلات اجرا + طرح زیرمجموعه ماهانه + نمودار ACF از داده‌های * خام (بالا)، * تعدیل شده (وسط بالا)، * 12 ماه اختلاف (وسط پایین) و * تنظیم شده+تفاوت (پایین) داده‌ها. توجه: ترتیب تصاویر از ترتیب استدلال من پیروی نمی کند، من تفاوت فصلی را _قبل از_ تنظیم تقویم + تفاوت فصلی قرار دادم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ozT7M.png ) ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/h9COn.png) ![شرح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/xqWI5.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/bavIy.png) ![شرح تصویر را اینجا وارد کنید] (http://i.stack.imgur.com/HUJuC.png) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/RqOWw.png) از کجا بدانم کدام روش نتایج صحیح (در صورت وجود) را داد؟ آیا این علم است یا فقط درهم ریختن با اعداد؟ آیا اعتبار سنجی متقابل بیشتر کمک خواهد کرد (مثلاً تجزیه stl، آدمک های فصلی)؟ مثل همیشه از شما برای هر کمکی که می توانید به من بدهید سپاسگزارم!
نمی‌توانم بگویم داده‌های من فصلی هستند یا فقط تحت تأثیر تأثیرات تقویم هستند
77341
$$ I_i (x) = \begin{cases} 1 \quad x-h<X_i<x+h \\\ 0 \quad \text{وگرنه} \end{cases} $$ داریم آیا آن تابع نشانگر از توزیع برنولی پیروی می‌کند ? اگر چنین است، مقدار مورد انتظار را می توان به راحتی محاسبه کرد.
مقدار مورد انتظار یک تابع نشانگر
76862
من می خواهم یک راه حل آماری برای سال های آینده انتخاب کنم که بتواند اشکال اصلی تجزیه و تحلیل متن کاوی، مانند تشخیص خلق و خو را مدیریت کند. آیا راه حلی وجود دارد که از دیگران متمایز باشد (R، SAS، SPSS،...)؟
بهترین راه حل آماری برای متن کاوی
76864
من مدلی را اجرا می کنم که در آن یکی از متغیرهای توضیحی کوتاه شده است. به طور خاص، متغیر مدت زمان بیکاری (به صورت گذشته نگر) را بر حسب ماه اندازه گیری می کند و در 2 سال کوتاه می شود، که برای حدود 10٪ از نمونه اتفاق می افتد. در مدل خود می‌خواهم متغیر را به‌عنوان پیوسته در نظر بگیرم (چون قبلاً تعداد کمی متغیر طبقه‌بندی شده دارم)، اما مطمئن نیستم که چگونه با مقادیر کوتاه‌شده برخورد کنم - به نظر می‌رسد که من یک متغیر پیوسته دارم که در آن نیز طبقه‌بندی شده است. در همان زمان (یعنی به دلیل برش). مدل چیزی شبیه به این خواهد بود: Y = A + B*X + C*Z + E، که در آن Z<24 Y = A + B*X + C*24 +E، که در آن Z>=24 که در آن X شامل برخی از متغیرهای کمکی و Z متغیر بریده مورد علاقه (مستمر) است مسئله: چگونه با Z در رگرسیون برخورد کنیم؟
متغیر توضیحی کوتاه شده
105841
من در تلاشم تا بدانم آیا تغییر وضعیت تأهل بر سلامت فرد تأثیر دارد یا خیر. من از داده های پانل 2 نقطه داده استفاده می کنم. ![اثرات تصادفی و ثابت](http://i.stack.imgur.com/SLM2H.jpg) سوال من این است که اگر متغیر مستقل مقوله ای باشد چگونه ضرایب ثابت را تفسیر کنیم؟ آیا ضریب اثر ثابت به این معناست که در صورت تغییر وضعیت تاهل از متاهل (رده مرجع) به مطلقه، سلامت وی ​​تا 25/0 بهتر می شود؟ دلیل اینکه چرا می‌پرسم (غیر از این که تغییر، نظریه من را رد می‌کند)، اگر به عنوان مثال به مقوله «بیوه» اشاره کنم، همچنان اثرات ثابتی دریافت می‌کنم. واقعا بعید است که فرد در 4 سال (جمعیت 50+) از بیوه به طلاق تبدیل شود. بنابراین، آیا من اثرات ثابت را با متغیرهای مستقل طبقه بندی اشتباه تفسیر می کنم؟ با تشکر * * *
تفسیر ضرایب اثرات ثابت با متغیرهای مستقل طبقه بندی شده
66419
آیا استفاده از بسته های R از CRAN برای تحقیق خوب است یا بد؟ من در مورد بسته های رایج مانند: مدل های ساده برای رگرسیون، تخمین، اقتصاد سنجی صحبت می کنم اکثر آنها از تابعی استفاده می کنند که می تواند به راحتی به تنهایی نوشته شود. استدلال‌های مثبت من: * زمان تمرکز بر بخش اصلی تحقیق * جامعه کنترل کیفیت خوبی است * R روش‌های مدرن زیادی ارائه می‌کند * برخی از مدل‌ها آنقدر پیچیده هستند که نمی‌توان آن‌ها را روی خود نوشت. استدلال‌های مخالف من: * نه همه بسته R در یک محیط آکادمیک ایجاد شده است * ممکن است اشکالاتی وجود داشته باشد که بر نتیجه تأثیر بگذارد و من آن را نمی دانم * بیشتر مدل ها را می توان در مدت زمان کوتاهی از ابتدا نوشت. چگونه می توانیم از منبع باز بدون خطر شکست در نتیجه استفاده کنیم ? آیا شاخص های کیفیت خاصی برای بسته ها به طور کلی و برای R وجود دارد؟
کتابخانه های منبع باز در علم
72768
من می‌دانم که در یک مدل رگرسیون خطی مانند: $y_i = b_0 + b_1 x_i + \epsilon_i$ می‌توانم یک فرضیه صفر و جایگزین داشته باشم: $H_0: b_1 = 0$ و $H_1: b_1 \neq 0$. و سپس می‌توانم $H_0$ را رد کنم یا در رد کردن $H_0$ ناکام باشم. اما اگر بخواهم که $b_1 = 0$ را بپذیرم چه؟
چگونه آزمایش کنیم (و بپذیریم) که یک ضریب در مدل رگرسیون خطی برابر با صفر است
66702
از یک اسلاید > GEE چگونه کار می کند؟ > > * ابتدا، یک تحلیل رگرسیون خطی ساده با فرض مستقل بودن مشاهدات درون آزمودنی ها انجام می شود. > * سپس، **باقیمانده ها از مدل ساده (مشاهده-> پیش بینی شده) محاسبه می شوند و یک ماتریس همبستگی کاری از این > باقیمانده ها** برآورد می شود. > * سپس ضرایب رگرسیون دوباره تنظیم می شوند و برای همبستگی > تصحیح می شوند. (فرآیند تکراری) > * ساختار همبستگی درون موضوعی به عنوان یک مزاحم در نظر گرفته می شود > متغیر (یعنی به عنوان متغیر کمکی) > در مرحله 2 تعجب کردم، ماتریس همبستگی کاری برای GEE چگونه تخمین زده می شود؟ «مدل ساده لوحانه» چیست؟ با تشکر
چگونه ماتریس همبستگی کاری برای GEE تخمین زده می شود؟
76866
من الگوریتم هایی را برای خوشه بندی داده ها (یادگیری بدون نظارت): EM و k-means مطالعه کرده ام. من به خواندن مطالب زیر ادامه می‌دهم: > k-means گونه‌ای از EM است، با این فرض که خوشه‌ها > کروی هستند. کسی میتونه جمله بالا رو توضیح بده؟ من نمی فهمم کروی به چه معناست، و kmeans و EM چگونه به هم مرتبط هستند، زیرا یکی تخصیص احتمالی را انجام می دهد و دیگری آن را به روش قطعی انجام می دهد. همچنین در چه شرایطی بهتر است از خوشه بندی k-means استفاده کنیم؟ یا از خوشه بندی EM استفاده کنید؟
خوشه بندی با K-Means و EM: ارتباط آنها چگونه است؟
77190
بنابراین فرض کنید من دو مجموعه متفاوت از ویژگی های A و B دارم. من سعی می کنم تعیین کنم که کدام مجموعه از ویژگی ها بهترین است. من از اعتبار سنجی متقاطع ترک یک خروجی به عنوان معیار نهایی استفاده می کنم زیرا مجموعه داده های من کوچک است. من سعی می‌کنم تنظیمات آزمایشی خود را بفهمم و بین چند راه تصمیم می‌گیرم: 1) مجموعه ویژگی A را به طبقه‌بندی‌کننده خود بدهم (و به صورت اختیاری انتخاب ویژگی را اجرا کنید) و مجموعه ویژگی B را به طبقه‌بندی‌کننده دیگری بدهید (همچنین به صورت اختیاری). run feature selection) و سپس خطای LOOCV را بین این 2 طبقه بندی کننده مقایسه کنید؟ 2) مجموعه ویژگی A و B را به طبقه‌بندی‌کننده بدهید و سپس انتخاب ویژگی را حتما اجرا کنید و سپس بر اساس ویژگی‌های انتخاب شده نتیجه‌گیری سطح بالاتری بگیرید. (به عنوان مثال، اگر تعداد بیشتری از A انتخاب شده باشد، به نظر می رسد که مجموعه ویژگی A ارزش پیش آگهی بیشتری دارد) 3) روش دیگری که من نمی دانم
مقایسه 2 مجموعه مختلف از ویژگی ها
6670
من می‌خواهم پهنای باند بهتری را برای تخمین‌گر چگالی هسته‌ام که یک Epanechnikov است محاسبه کنم. من از فرمول سیلورمن استفاده می‌کنم که شامل انحراف استاندارد نمونه، اندازه نمونه و یک ثابت است، اما در بیشتر موارد منحنی بسیار صافی دریافت می‌کنم و ترجیح می‌دهم متعادل‌تر باشد. ممنون میشم هر کمکی بکنید
فرمول سیلورمن برای محاسبه پهنای باند در تخمین چگالی هسته کدام است؟
77192
من یک پنل شامل دو سال دارم و می‌خواهم دستمزد شهری و روستایی را مقایسه کنم: $\log \text{wage}_{it} =\beta_0 +\beta_1\text{urban}_{it} +\beta_2\text{ educ}_{it}+\beta_3\text{exper}_{it}+ \beta_4\text{exper}_{it}^2+\delta_2+\nu_it$ شهری یک ساختگی و همچنین $\delta_2$ برای سال دوم است چگونه می توانم در نظر بگیرم که افراد ممکن است در طول زمان مکان خود را تغییر داده باشند؟ افراد ثروتمند ممکن است به شهر نقل مکان کرده و در نتیجه تفاوت دستمزد شهری و روستایی را افزایش دهند. آیا باید یک متغیر ساختگی یا حتی یک متغیر تعاملی اضافه کنم؟ من با R کار می کنم و از افکت های ثابت و رگرسیون تفاوت اول استفاده می کنم.
نحوه در نظر گرفتن تحرک: رگرسیون چندگانه
76865
من سعی می کنم پرسپترون تک لایه را آموزش دهم. من یک چیز را نمی فهمم چگونه خروجی را برای ورودی برداری x محاسبه کنیم؟ به عنوان مثال فرض کنید که این داده ها را برای استفاده در آموزش داریم: L1 = [1.5 2.4; -0.3 3; 2 3; 2 2.5]; L2 = [2.5 1.4; -1.3 2; 3 3.1; 1.2 2.5]; وزن اولیه، گام: گام = 0.1 w = [1 1]; سپس L = [L1; L2]؛ سپس این فرمول را برای محاسبه میانگین مجموع مجذور sum_all داریم - منظور من نماد سیگما است که به معنای مجموع همه عناصر است. E = 1/N * sum_all(d(j) - o(j))^2 j - شاخص بردار داخل ماتریس L است. سپس معادله وزن جدید: w(new) = w + step/N * sum_all(d(j) - o(j) * o(j) * (1 - o(j)) * x(j)) سپس داریم این تابع منطقی (کد شبه که ممکن است واضح تر به نظر برسد): d(j) = 1 اگر x(j) متعلق به L1 باشد d(j) = 0 اگر x(j) متعلق به L2 باشد و من نمی فهمم چگونه من باید o(j) یا به عبارت دیگر خروجی دریافت کنند. من جایی پیدا نکردم که بگوید چگونه به دست می آورید. یه جورایی برام واضح نیست آیا باید چنین کاری انجام دهم؟ اگر w * x(j)' > 0 سپس o(j) = 1 elseif w * x(j)' <= سپس o(j) = 0 اما پس از آن اگر الگوریتم خود را اجرا کنم، پس از یک دوره و یک دوره دیگر آموزش را متوقف می کند. دوره به هیچ وجه آن را آموزش نمی دهد (چون خروجی واقعی با خروجی مورد نظر در دوره اول به هیچ وجه متفاوت نخواهد بود). اگر من چیزی شبیه به این را امتحان کنم: o(j) = w * x(j)'، آنگاه اعداد آنقدر بالا می روند که matlab آن را به عنوان عدد تشخیص نمی دهد و به حلقه بی نهایت می رود. پس چگونه باید خروجی واقعی x(j را دریافت کنم. ) - o(j) با استفاده از پرسپترون تک لایه و الگوریتم پس انتشار؟..
Matlab - پرسپترون تک لایه - خروجی؟
23308
تفاوت بین همبستگی متقابل و اطلاعات متقابل چیست؟ چه نوع مشکلاتی را می توان با استفاده از این اقدامات حل کرد و چه زمانی استفاده از یکی بر دیگری مناسب است. با تشکر از نظرات. برای روشن شدن، این سوال ناشی از علاقه به تجزیه و تحلیل تصویر به جای تجزیه و تحلیل سری های زمانی است، اگرچه هرگونه روشنگری در آن زمینه نیز قابل قدردانی است.
همبستگی متقابل در مقابل اطلاعات متقابل
23302
من سعی می‌کنم مدل‌های خطی را با داده‌هایم در R برازم. باید از روش حداقل مربعات تعمیم‌یافته استفاده کنم، زیرا در یکی از متغیرهایم ناهمگنی واریانس دارم. من قصد داشتم از **varIdent** استفاده کنم، زیرا متغیر اسمی است. اما - من همچنین می‌خواهم یک عبارت تصادفی داشته باشم زیرا داده‌های من ساختار تودرتو دارند و داده‌های من باید با استفاده از توزیع دو جمله‌ای مدل‌سازی شوند. من نمی توانم هیچ اطلاعاتی در مورد اینکه آیا این امکان با استفاده از دستور **gls** در بسته **nlme** امکان پذیر است یا نه، آیا کسی اطلاعاتی دارد که بتواند به من کمک کند، لطفا؟
آیا می توانم از حداقل مربعات تعمیم یافته با توزیع دوجمله ای و ساختار تودرتو استفاده کنم؟
77193
اجازه دهید $X$ و $Y$ دو متغیر تصادفی پیوسته باشند. فرض کنید: 1. $X$ دارای pdf نرمال با میانگین mu_1 و واریانس $\sigma_1^2$ 2. $Y|X$ دارای pdf نرمال با میانگین $mu_2=(a+b*X)$ و واریانس $\sigma_2 است. ^2$; که در آن a و b دو ثابت از رگرسیون خطی 3 هستند. $f(Y)=\int f(Y|X)f(X) dx$; کجا $f()$ pdf است سوال: چگونه نشان دهم که $f(Y)$ یک توزیع نرمال است؟ چگونه می توانم پارامترهای آن را بر اساس اطلاعاتی که به من داده می شود تعیین کنم؟ توجه: من سعی کردم با نیروی بی رحم چگالی ها را ضرب و ادغام کنم که پاسخ سوال من را می دهد. با این حال، آیا راه سریع‌تری برای دیدن این موضوع وجود دارد، زیرا من علاقه‌مندم به حالتی که $X$ یک بردار تصادفی است بسط دهم؟
قضیه احتمال کل با توابع چگالی احتمال عادی
100315
من در حال تجزیه و تحلیل داده های یک نظرسنجی سیاسی هستم. این نظرسنجی یک بار در سال بر روی 1000 شهروند از 18 کشور مختلف اروپایی انجام می شود. در گام اول، من علاقه مند به سنجش رابطه بین متغیرهای مختلف در سطح فردی برای همه پاسخ دهندگان در چهار سال گذشته هستم. متغیر وابسته من یک متغیر دوگانه است که نشان می دهد پاسخ دهنده دولت فعلی را تایید یا رد می کند. کتاب‌های درسی داده‌های تودرتو/تحلیل چندسطحی به من توصیه می‌کنند که از یک مدل سلسله مراتبی رهگیری تصادفی استفاده کنم. با این حال، هرگز به صراحت ذکر نشده است که چگونه باید بعد زمانی ذاتی در داده های خود را در نظر بگیرم. همانطور که می فهمم، سه سطح برای داده های من وجود دارد: پاسخ دهنده، کشور، و سال. چگونه باید مدل خود را بر این اساس مشخص کنم؟ خیلی ممنون
کدام مدل برای تجزیه و تحلیل نظرسنجی در سراسر کشورها و زمان
25818
من چهار متغیر پیوسته دارم که از داده های ثانویه شرکت ها گرفته شده است. ترکیب این چهار متغیر نشان دهنده متغیر وابسته من است. این چهار متغیر مقادیر واقعی هستند. آنها فقط چهار مقدار بدون آیتم هستند. من از PCA برای ترکیب آنها با هم استفاده می کنم. نتایجی که به دست آوردم این است که سه متغیر در یک جزء و چهارم به تنهایی تحت مؤلفه دوم طبقه بندی می شوند. **آیا این دو جزء را به عنوان دو متغیر وابسته در نظر بگیرم، یکی با سه متغیر و دومی با یک متغیر یا فقط جزء دوم را حذف کنم؟**
اگر متغیری را که تنها متغیری است که روی یک جزء بارگذاری می شود، باید از آنالیز PCA حذف کنم؟
86207
من از کد زیر برای آموزش یک طبقه‌بندی‌کننده svm استفاده می‌کنم: clf = svm.SVC(kernel='linear') clf.fit(train_mat, train_labels) که متناسب با داده‌ها است و اطلاعات را در شی «clf» ذخیره می‌کند. اکنون می دانم که چگونه بردار «w» از نظر تئوری ساخته شده است. این مجموع تمام بردارهای پشتیبانی ضرب در برچسب های آنها و مقادیر آلفای مربوطه است. مشکل این است که به نظر نمی‌رسد این اطلاعات را در «clf» پیدا کنم. من یک ویژگی «_coef» دارم اما مطمئن نیستم که آیا آن چیزی است که به دنبال آن هستم. مستندات در scikit به سادگی وجود ندارد. من نتونستم اطلاعات رو اونجا پیدا کنم آیا کسی می داند چگونه این کار را انجام دهد؟ من به بردار «w» نیاز دارم تا وزن‌های داده‌شده به هر یک از ویژگی‌ها را بررسی کنم و ببینم کدام یک با ارزش‌تر هستند.
چگونه بردار وزن ویژگی (یا مرز تصمیم) را از طبقه‌بندی‌کننده SVM خطی از scikit بسازیم؟
77196
من به مشاوره در مورد نحوه انجام ANOVA نیاز دارم. من برخی از تئوری ANOVA را مطالعه کردم، اما ظاهرا کافی نیست. اساساً در آزمایشم حدود 300 بار واکنش برای 12 نفر جمع آوری کردم. برای هر موضوع 2 شرط داشتم. اولی 3 سطح دارد، دومی 5 سطح دارد. هر سوژه تمام ترکیب‌های سطح ممکن را طی کرد، بنابراین من 50 زمان واکنش برای هر ترکیب (15 ترکیب مختلف)، برای هر موضوع دارم. من می خواهم اهمیت آماری زمان واکنش های مختلف را با شرایط مختلف اثبات کنم. چیزی که برای من روشن نیست نکته زیر است: آیا باید از ALL مجموعه داده استفاده کنم یا فقط از MEAN RT برای هر موضوع/شرط (یعنی 15 نقطه داده برای هر موضوع) استفاده کنم؟ اگر از کل مجموعه داده استفاده کنم، حدود 10000 نقطه داده دارم. اگر این کار را انجام دهم، درجه آزادی خطا 10557 است که من را گیج می کند. در مقالات زمان واکنشی که من در اطراف دارم آنها یک F(x,y) را گزارش می‌کنند که این x و y معمولاً واقعاً کوچک هستند، بیش از 100 عدد نیستند، اما مجموعه داده‌های آنها معمولاً بسیار بزرگ است، کم و بیش شبیه من. این باعث می‌شود فکر کنم که آنها در واقع از تمام زمان‌های واکنش استفاده نمی‌کنند، بلکه فقط از میانگین زمان‌های واکنش استفاده می‌کنند (فکر می‌کنم در طول محاسبه ANOVA، میانگین میانگین محاسبه می‌شود). اما آیا این از نظر آماری منطقی است؟
ANOVA با مجموعه داده عظیم - فقط از میانگین برای هر شرایط استفاده کنید؟
25815
من مقداری متغیر توزیع شده غیر گاوسی دارم و باید بررسی کنم که آیا تفاوت معنی داری بین مقادیر این متغیر در 5 گروه مختلف وجود دارد یا خیر. من آنالیز واریانس یک طرفه Kruskal-Wallis را انجام دادم (که معنی دار شد) و پس از آن باید بررسی می کردم که کدام گروه ها تفاوت معنی داری دارند. از آنجایی که گروه ها به نوعی مرتب شده اند (مقادیر متغیر در گروه اول قرار است کمتر از مقادیر متغیر در گروه دوم باشد که قرار است از مقادیر متغیر در گروه سوم کمتر باشد و بنابراین در) من فقط 4 تست را انجام دادم: گروه 1 در مقابل گروه 2 گروه 2 در مقابل گروه 3 گروه 3 در مقابل گروه 4 گروه 4 در مقابل گروه 5 این تجزیه و تحلیل را با دو روش مختلف انجام داده ام. من با استفاده از تست مقایسه چندگانه دان شروع کردم، اما هیچ چیز قابل توجهی نبود. از طرف دیگر اگر از آزمون من ویتنی استفاده کنم و تعداد تست ها (4) را با استفاده از بونفرونی تصحیح کنم، 3 تست قابل توجه است. به چه معناست؟ به کدام نتایج اعتماد کنم؟ هر گونه کمکی بسیار قدردانی می شود.
تفاوت بین آزمون تعقیبی پس از آزمون من ویتنی تصحیح شده توسط کروسکال والیس و بونفرونی
109171
برای داده هایی که دارای 0 و مقادیر بزرگ هستند، کدام تبدیل را باید اعمال کنم؟ مقدار حداقل - 0 و حداکثر مقدار - 2254 است در اینجا ما نباید هیچ موردی را از داده ها حذف کنیم.
تبدیل داده ها
77191
من در حال ارزیابی یک طبقه بندی برای تشخیص اشیا هستم. به عنوان مثال: من یک set1 با 50 عکس با شی برای شناسایی دارم. و set2 با 100 عکس بدون شی. من مثبت های واقعی (0 در مجموعه 2)، منفی های واقعی (0 در مجموعه 1)، منفی های کاذب و مثبت های کاذب را برای آن مجموعه ها تعیین می کنم. اگر بخواهم set1 را با set2 ادغام کنم (برای داشتن یک مجموعه با و بدون اشیا و مقادیر واقعی برای TP و TP) باید اندازه set2 را کم کنم. **سوال:** آیا می توانم این کار را با یک تقسیم ساده انجام دهم؟ (مقادیر TN، TP و غیره را بر 2 تقسیم کنید) یا باید 50 عکس از set2 را به طور تصادفی انتخاب کنم و از این TN و غیره استفاده کنم؟ ویرایش: **مثال:** Set1: TN = 43 FP = 6 FN = 1 TP = 0 Set2: TN = 0 FP = 13 FN = 0 TP = 87 Set2 تقسیم بر 2: TN = 0 FP = 7 FN = 0 TP = 44 Set12: TN = 43 FP = 13 FN = 1 TP = 44 برای اثبات این موضوع به توضیح نیاز دارم. thx..
طبقه بندی باینری برای ارزیابی یک طبقه بندی کننده شی. چگونه دو نمونه/گروه (اندازه های مختلف) را ادغام کنیم؟
77730
من در زمینه یادگیری ماشین تجربه زیادی ندارم. در حال حاضر من برخی از طبقه بندی کننده های باینری را با استفاده از k-NN مدل می کنم. من مقداری با مقادیر مختلف k آزمایش کردم. در برخی موارد بهترین مورد با «k=1» بود. من می دانم که رأی اکثریت وجود ندارد و تصمیم من در مورد همسایه مجرد گرفته می شود، چیزی که خطرناک به نظر می رسد. F-Measure برای چنین حالتی 0.77 است که دومین گزینه بهترین گزینه برای همان داده k=25 با F=0.63 F=2*Recal*precision / (Recal + Precision) است.
آیا خطراتی در ارتباط با استفاده از k-NN با k=1 با F=0.77 وجود دارد؟
92029
اساسا، من تحقیقاتی را بر اساس دو نوع داده انجام می دهم: سطح نویز و دمای یک اتاق. من 2 روز است که داده ها را دوباره رمزگذاری کردم.. من از روش های همبستگی اسپیرمن استفاده می کنم تا تعیین کنم که آیا بین تغییرات دما و سطح نویز همبستگی وجود دارد یا خیر.. مشکل این است که داده های زیادی وجود دارد که برخی از آنها وجود دارد. من نیازی ندارم (برای مثال، در طول شب، هیچ سر و صدایی وجود نخواهد داشت، زیرا هیچ کس در آزمایشگاه نخواهد بود) در حالی که، در روز و عصر، سطوح نویز وجود دارد. من متعجبم که از چه روشی می توانم برای داده ها استفاده کنم تا فقط مهم ترین بخش ها را برای انجام تجزیه و تحلیل استخراج کنم. من به PCA و ICA فکر می کردم که ابعاد را کاهش دهند، اما برایم جالب است که بدانم دیگران چه فکر می کنند.
یافتن مهم ترین مجموعه داده در داده ها
69380
من در حال آزمایش معناداری آماری 60 متغیر کمی همبسته قوی در 2 گروه با حجم نمونه کوچک، غیر نرمال بودن و وجود مقادیر پرت هستم. من یک آزمون جایگشت بر اساس آماره آزمون t برای بررسی صحیح ساختار همبستگی متغیرها اجرا کرده ام. اما من فکر می کنم این آزمون جایگشت می تواند بر اساس آماره آزمون ناپارامتریک ویلکاکسون نیز باشد، به دلیل وجود نقاط پرت. آیا درست است؟
تست جایگشت بر اساس تست Wilcoxon
74420
تفاوت بین جمعیت و انحراف استاندارد چیست و فرمول آنها چیست؟ به من گفته شد که فرمول های متفاوتی هستند و شما در کدام موقعیت از جامعه یا نمونه استفاده می کنید؟ اگر کاربر 10 عدد تصادفی بدهد، آیا از جامعه یا نمونه استفاده می کنم؟
انحراف استاندارد و واریانس در فرمول های نمونه و جمعیت برای همه؟
86931
من دو توزیع دارم که فقط خلاصه 5 عددی (حداقل، چارک اول، میانه، چارک سوم، حداکثر) و حجم نمونه مشخص است. برخلاف سوال اینجا، همه نقاط داده در دسترس نیستند. آیا آزمون آماری ناپارامتری وجود دارد که به من امکان می دهد بررسی کنم که آیا توزیع های اساسی این دو متفاوت است؟ با تشکر
آزمون آماری برای دو توزیع که فقط خلاصه 5 عددی مشخص است
76867
مدل من خوب کار می کند (AUC 0.7 است) اما اهمیت اجرای «فارست تصادفی» برای مشکل طبقه بندی باینری من بسته به نحوه بازیابی آنها متفاوت است. آیا این طبیعی است؟ به نظر می‌رسد که وقتی «اهمیت(rf)» را صدا می‌کنم، بزرگ‌تر می‌شوند (با دستور 105). مهمتر از آن، سه ستون اول به هیچ وجه با هم مطابقت ندارند، حتی بزرگی را کاهش می دهند! من در حال حاضر با خواندن «?اهمیت» و «?randomForest» مطمئن نیستم که چگونه این را تفسیر کنم. این فراخوان تصادفی من است: rf <- randomForest(trnX, as.factor(trnY), ntree=1000, important=TRUE) و این هم بخشی از خروجی ها: `rf$importance`: 0 1 MeanDecreaseAccuracy MeanDecreaseGini var1 -293. 05 -6.124117e-05 -3.642557e-05 30.47050 var2 6.169346e-04 -3.947637e-04 2.563570e-04 48.04932 var3 3.6213385. 2.981152e-03 68.28302 var4 3.655234e-03 1.981978e-03 3.057267e-03 79.12254 var5 5.350649e-03 1.041978e-03 79.12254 var5 5.350649e-03 1.041978e-03. 84.88832 var6 3.366199e-03 1.707144e-03 2.773894e-03 78.02293 ... `importance(rf)`: 0 1 MeanDecreaseAccuracy MeanDecreaseGini var1 -0.79 -0.79 -0.8952541 30.47050 var2 7.9028043 -3.6680758 4.1625329 48.04932 var3 17.1279919 5.9733456 20.835402879 20.835407958. 7.2370419 22.4948931 79.12254 var5 20.7470555 3.2702612 24.3069376 84.88832 var6 16.9071520 6.252621409 ... من داده دارای 8000 نقطه داده و 60 متغیر است. قطعاً بین متغیرها همبستگی وجود دارد و آنها انواع مختلفی دارند: برخی پرچم های باینری، برخی دیگر اعداد صحیح و برخی دیگر پیوسته هستند. برخی از متغیرها مقادیر گم شده ای دارند (که من آن را با 'na.roughfix()' رفع می کنم. علاوه بر این، اجرای از gbm: gbmBernModel <- gbm(formula = var1 ~ ., distribution=bernoulli, data = trn, verbose=CV, n.trees=10000, interaction.depth=2) اهمیت نسبی ایجاد کرد ( مشاهده شده توسط `summary(gbmBernModel)`) که برای من منطقی بود. هر گونه اشاره خواهد شد تا حد زیادی قدردانی می شود. متشکرم.
اهمیت جنگل تصادفی بین rf$importance و important() متفاوت است
23303
سوال من از پیشنهاد شیان برای بررسی یکپارچگی در برابر پسین در مدل سلسله مراتبی غیرخطی من سرچشمه می گیرد. من آن را بررسی نکردم، اما بی‌نهایت ممکن را در ذهن داشتم و متوجه شدم که یکی از شرطی‌های من (که توزیع گامای معکوس است) واریانس بی‌نهایت دارد. به طوری که نمونه برداری منجر به این شد که زنجیره ها اغلب در دم دور باشند. بنابراین، این یک سوال برای من ایجاد کرد: چگونه می توان از توزیع هایی با واریانس نامتناهی مانند توزیع گامای معکوس (با \alpha $ = 2 $) یا توزیع Levy یا هر توزیع دیگری با واریانس بی نهایت نمونه برداری کرد؟ MCMC چه چیزی را ارائه می دهد؟ من سعی کردم مقالاتی را جستجو کنم که به چنین موضوعاتی می پردازند، اما هنوز موفق نشدم.
MCMC برای واریانس بی نهایت خلفی
4685
تفاوت بین به حداکثر رساندن انتظار نرم و سخت چیست؟ ویرایش: خوب، من این مقاله را پیدا کردم: http://ttic.uchicago.edu/~dmcallester/ttic101-07/lectures/em/em.pdf که به خوبی موقعیت ها را توضیح می دهد
نرم و سخت EM (بیشینه سازی انتظارات)
43914
آیا کسی می تواند اطلاعاتی در مورد اینکه چه کسی تخمین حداکثر درستنمایی نمایه را اختراع کرده است یا چه کسی برای اولین بار از تخمین حداکثر درستنمایی نمایه و تاریخچه کوتاه تخمین حداکثر درستنمایی نمایه استفاده کرده است به من بدهد؟ من می خواهم در مورد هر مقاله ای در این مورد بدانم.
چه کسی تخمین احتمال حداکثری پروفایل را اختراع کرد؟
92020
من می‌خواهم نسبت **A Better Hedge** Paul Teetor را تعمیم دهم که از prcomp() برای تعیین نسبت TLS بین دو متغیر استفاده می‌کند. من امیدوارم که این را به چندین متغیر تعمیم دهم، اما در یافتن نتایج دقیق با مشکل مواجه هستم. پیشنهادی دارید؟
برنامه نویسی نسبت های PCA متغیر چندگانه
111374
من یک راه اندازی دارم که در آن قسمت خلفی مفصل به صورت زیر نوشته می شود: $$ P(w, \lambda, \phi \vert y) = P(\phi) \times P(w \vert \lambda) \times P(\lambda) \times \prod_{i=1}^{N}P(y_i \vert w_i، \phi، \lambda) $$ اکنون $\phi$ و $\lambda$ به‌عنوان توزیع‌های گاما مدل‌سازی می‌شود و احتمال و پیش از $w$ معمولاً توزیع می‌شود. بنابراین، با استفاده از ویژگی قبلی مزدوج، قسمت خلفی $\lambda$ و $\phi$ نیز گاما توزیع خواهد شد. بنابراین، من می توانم عباراتی را برای $P(w|\lambda، \phi، y)$، $P(\lambda|w، \phi، y)$، $P(\phi|\lambda، w، y) استخراج کنم. $ به دلیل خاصیت مزدوج. کاری که من می خواهم انجام دهم این است که پارامترهای $w$، $\phi$ و $\lambda$ را تخمین بزنم. بنابراین ایده من این بود که با مقداری مقدار اولیه اولیه $w$، $\phi$ و $\lambda$ شروع کنم، و سپس در حالی که بقیه ثابت نگه داشته می‌شوند، یکی از آنها را به نوبه خود با به حداکثر رساندن احتمال ورود به سیستم پسین این عبارات مشتق شده، به روز کنم. برای توزیع حاشیه ای با استفاده از روال بهینه سازی ساده مانند نزول گرادیان مزدوج مزدوج. سؤالاتی که من دارم به شرح زیر است: * آیا این روش EM برای انجام کارها است یا من الگوریتم EM را بیان کرده ام؟ من در حال یافتن پارامترهایی هستم که با یک حالت حداکثر محلی مطابقت دارند، اما در بحث EM همیشه می خوانم که این به اصطلاح متغیرهای پنهان باید در یک فرمول EM وجود داشته باشد و من هرگز به آن فکر نکرده ام؟ تفاوت روش پیشنهادی من با الگوریتم EM چیست؟ * آیا این رویکرد بهینه محلی مربوط به حداکثر توزیع کامل مشترک یعنی $P(w، \lambda، \phi \vert y)$ را برای من پیدا خواهد کرد. من این کار را تکراری انجام می دهم و آیا راه حل به این دلیل آسیب می بیند؟ من حدس می زنم که این به من بهینه مشترک برسد، اما نتوانستم خودم را کاملاً متقاعد کنم. من حدس می‌زنم که این تکرارها با محاسبه مشتقات جزئی w.r.t برای هر یک از پارامترهایی که باید به نوبه خود تخمین زده شوند، مطابقت دارد، که شبیه بهینه‌سازی یک تابع چند متغیره است. * همچنین آیا این روش معقولی برای حل مشکل است؟ می دانم که فقط یک راه حل محلی دریافت خواهم کرد، اما آیا روش دیگری برای مقابله با این مشکل در این راه اندازی مدل تولیدی وجود دارد؟
برآورد MAP پارامترهای خلفی
76869
من در مورد فیلتر اشتراکی آیتم-آیتم در آدرس زیر مطالعه می کردم: http://guidetodatamining.com/guide/ch3/DataMining-ch3.pdf اما پیاده سازی در R از این الگوریتم پیدا نکردم. یکی هست؟
آیا فیلتر اشتراکی آیتم-آیتم در R وجود دارد؟
114466
من زمانی که یک مدل ترتیبی چند جمله ای را انجام می دهم، خروجی بسیار متفاوتی دریافت می کنم، بسته به اینکه ابتدا داده هایم را مقیاس می کنم یا نه. کسی می تواند به من بگوید چرا؟ در اینجا نتایج با داده های خام آمده است: polr(فرمول = نتیجه ~ 1 + سرعت + rsvl + rsvl: سرعت + tailcontrst: اندازه مجدد + استراتژی: rsvl، داده = نتایج) ضرایب: Value Std. مقدار خطای t Speed ​​-0.1758606 0.0149032 -11.800 rsvl 7.9648646 0.0345985 230.209 Speed:rsvl -0.3342932 0.0259837 -12.860tr40.865-12.865-12.860. 0.0001678 2.572 rsvl:strategyburrowing -0.8982385 0.0746702 -12.029 Intercepts: Value Std. خطای t مقدار fail|tail -0.1186 0.0689 -1.7216 tail|body 0.4728 0.0669 7.0701 انحراف باقیمانده: 20457.78 AIC: 20471.78 در اینجا نتایج با داده های مقیاس بندی شده است: polrula +1 = resultula +vlrs rsvl:Speed ​​+ tailcontrst:Reltailsize + استراتژی:rsvl، داده = نتایج) ضرایب: Value Std. خطای t مقدار Speed ​​-0.97646 0.02083 -46.8841 rsvl 0.30276 0.02726 11.1064 Speed:rsvl -0.06810 0.02097 -3.2467 tailcontrst:20109 tailcontrst:010109 0.5760 rsvl:strategyburrowing -0.02332 0.03841 -0.6069 Intercepts: Value Std. خطای t مقدار fail|tail -0.5332 0.0208 -25.6952 tail|body 0.0516 0.0202 2.5480 Residual Deviance: 20608.95 AIC: 20622.95 بهترین AIC با داده های غیر تبدیل شده به من داده می شود. مدل قرار است بهترین ترکیب فاکتورها در بین تمامی ترکیبات ممکن باشد. من آن را با استفاده از تابع GLmulti به دست آوردم. با این حال، علیرغم اینکه مقادیر t بسیار بزرگ هستند و نمودارها با وجود اثرات قابل توجه معنادار هستند، آزمون خی دو به من می گوید که تناسب بسیار بد است (مقدار = 0). کسی می تواند به من بگوید چگونه ارزیابی کنم که آیا می توانم به این مدل برای پیش بینی بر اساس داده های جدید تکیه کنم؟ پیشاپیش ممنون
مشکلات ارزیابی اینکه آیا می توان از یک مدل چندجمله ای ترتیبی برازش شده با polr (در Rstudio) برای پیش بینی داده های جدید استفاده کرد.
50615
من تعداد پروازهای ماهانه و تعداد خدمه کابین فعال به صورت ماهانه و تعداد خدمه غیبت (مرخصی استعلاجی یا بیشتر) را نیز در مبادی ماهانه دارم. چگونه می توانم یک شاخص یا شاخص در مورد میزان غیبت دریافت کنم؟ می‌خواهم بدانم آیا با استفاده از هر سه پارامتر موجود، اوضاع در حال بهبود است یا خیر؟ چگونه می توان به آن دست یافت؟
محاسبه بهبود غیبت برای خدمه کابین
77197
من در حال حاضر مطالعه ای را با دو گروه (اختلال روانی کنترلی و روانی فعلی) انجام می دهم. همه شرکت‌کنندگان سه مکالمه دارند، فیلم‌برداری می‌شوند و فیلم‌های تعاملات خود را پس از آن، دو بار تماشا می‌کنند. در حین تماشای ویدیو، متغیر وابسته خود را ارزیابی می کنم. گفتگوهای درختی سه سطح عامل درون موضوعی هستند. با یک مکالمه خنثی شروع می شود و پس از آن یک مکالمه عاطفی متوسط ​​و یک مکالمه به شدت احساسی دنبال می شود. اکنون ما در نظر داریم که ترتیبی را که شرکت کنندگان در آن ویدیوهای خود را تماشا می کنند برای جلوگیری از تأثیر یادگیری و خستگی متعادل کنیم. با این حال، من فرض می‌کنم که تأثیر مثلاً یک ویدیوی بسیار احساسی در هر ویدیوی بعدی از همه ترکیب‌های دیگر بیشتر است. امکان اجرای طرح بین موضوعی وجود ندارد. آیا گزینه های دیگری وجود دارد که من از آنها اطلاعی ندارم؟ شاید فقط از شرکت کنندگان بپرسید که چقدر خسته هستند و چقدر با این ابزار احساس راحتی می کنند؟ بهترین، A.
جلوه های نظم نامتقارن در طراحی درون موضوعی
4687
من سعی می کنم درک عمیق تری از انواع مختلف شبکه های بیزی به دست بیاورم. بیشتر ادبیات/سخنرانی‌هایی که من با آنها برخورد کرده‌ام منحصراً از متغیرهای تصادفی گسسته استفاده می‌کنند و فقط به صورت گذراً به متغیرهای تصادفی پیوسته اشاره می‌کنند. به نظر می‌رسد اگر می‌خواهید متغیرهای گسسته و پیوسته را در یک شبکه ترکیبی مخلوط کنید، چند سناریو مختلف برای مدیریت دارید: Child Is Parent (های) ------------------ ----------------------- گسسته همه گسسته گسسته همه پیوسته گسسته هیبرید (گسسته و پیوسته) Continuous All Discrete Continuous All Continuous Continuous Hybrid (گسسته و پیوسته) من می دانم که چگونه احتمالات شرطی را مشخص کنم (یعنی $p(N=n_i|P)$) برای مواردی که والدین (P) همه گسسته هستند. احتمالات شرطی اساساً یک جدول جستجو هستند که یک شرط را به تابع جرم احتمال (وقتی فرزند گسسته است) یا تابع چگالی احتمال (زمانی که فرزند پیوسته است) ترسیم می کند. موارد دیگر مغزم را بی حس می کند. چگونه می توان احتمالات شرطی یک گره معین را مشخص کرد، وقتی که هر یک از والدین آن پیوسته است؟ با تشکر **ویرایش** اصطلاحات (امیدوارم) بر اساس بازخورد اصلاح شده است.
تعیین احتمالات شرطی در شبکه های بیزی ترکیبی
92025
اگر می‌خواستید نتیجه مسابقه مسابقه دانش عمومی را با پیش‌بینی‌کننده‌هایی مانند سن، سطح تحصیلات، ضریب هوشی و غیره پیش‌بینی کنید، به نظر می‌رسد موانع متعددی برای استفاده از رگرسیون لجستیک شرطی یا سایر طبقه‌بندی‌ها به Y=1 (100% برنده) وجود دارد. یا Y=0 100% بازنده، حتی اگر در مسابقه دوم شده باشید. برنده یک مسابقه خاص به سوالات پرسیده شده بستگی دارد. برنده نه تنها به دانش خود، بلکه به دانستن پاسخ های صحیح کمتر توسط سایر رقبا بستگی دارد. دور مسابقه ممکن است امتیاز بسیار پایینی داشته باشد، برنده فقط چند سوال دیگر درست می گیرد، بنابراین توانایی برنده کمی دارد. برنده ممکن است در هیچ دور بعدی در برابر رقبای مشابه برنده نشود (آیا برنده واقعاً یک برنده Y=1 لجستیک است، در این صورت؟) اگر برنده محلی به رقابت با کویزرهایی از کشورهای دیگر ادامه دهد، ممکن است از آنها پیشی بگیرد یا از کلاس خارج شود. کی میدونه تا بعد از مسابقه؟ به من توصیه شده است که رگرسیون لجستیک مشروط می تواند با این مشکل مقابله کند. من گیج هستم که چگونه. به نظر نمی رسد رتبه بندی رقبا در هر دور کارساز باشد، زیرا آنها می توانند هر موقعیتی باشند، تا آخرین مرحله، در راندهای بعدی. شما می توانید رتبه بندی را در هر دور جمع کنید و کمترین عدد برنده کلی و غیره خواهد بود و بر روی داده های نتیجه نهایی عقب نشینی کنید، اما ممکن است چیزی برای پیش بینی برنده کلی یک رقابت بین ایالتی به شما نگوید. پیشنهادی دارید؟
رگرسیون مسابقه مسابقه
104292
ما به تازگی آزمایشی را به پایان رسانده ایم که در آن نمونه ها به 6 گروه توزیع شده و هر گروه درمان متفاوتی دریافت می کند. هر گروه 5 نمونه داشت، با 20 اندازه گیری تکراری در هر نمونه (آنها تفاوت نقطه زمانی را نشان نمی دهند، بلکه عمدتا تکرار هستند). داده‌ها چیزی شبیه این به نظر می‌رسند![Data Sample](http://i.stack.imgur.com/6KmYi.png) من داده‌ها را انباشته می‌کنم و R را روی آن‌ها جویدن می‌دهم، به طوری که ورودی نهایی چیزی شبیه به این به نظر می‌رسد. .. ![DataInputToR](http://i.stack.imgur.com/hHA3Z.png) اکنون، می خواهیم ببینیم که آیا تفاوتی در TotalActivity وجود دارد (مقادیر موجود در متغیر آزمایشی در جدول اول) بین گروه های ارائه شده در FinalID (6 گروه). پس از وارد کردن CSV، فیلدهای مربوطه را فاکتور می‌کنم و ANOVA اندازه‌گیری‌های مکرر را در R انجام می‌دهم، مانند داده <- درون(داده، {FinalID <- factor(FinalID) AnimalID <- factor(AnimalID) آزمایش <- factor(Trial) }) aov.out = aov(TotalActivity~FinalID*Trial + Error(AnimalID)، data=Data) PostHoc <- with(Data,pairwise.t.test(TotalActivity,FinalID,p.adjust.method=bonferroni)) print(summary(aov.out)) print(PostHoc) خوب، حالا اعتراف این است که آمار قدرت من نیست ، و کمی گیج هستم که چگونه اقدامات مکرر خود را تنظیم کنم. من آن را در گوگل جستجو کردم و چند فرمول مانند aov.out = aov(TotalActivity~FinalID*Trial + Error(AnimalID)، data=Data) aov.out = aov(TotalActivity~FinalID + Error(AnimalID/FinalID)، داده پیدا کردم. =داده) من هیچ ایده ای ندارم که فرمول مناسب برای استفاده چیست، یا حتی اگر هر یک از موارد بالا تکنیک آماری درستی هستند... پیشنهادات لطفا؟
استفاده از اندازه گیری های مکرر anova: درست می گویم؟
92022
من روی یک مشکل طبقه بندی 2 کلاسه کار می کنم و از LIBSVM استفاده می کنم. من با این مشکل زیر با اعتبارسنجی متقابل (CV) مواجه هستم. هر گونه کمکی بسیار قدردانی می شود. هنگامی که من یک CV 10 برابر با گزینه -v 10 انجام می دهم، دقت 90٪ را دریافت می کنم. اما وقتی یک آموزش و تست روی همان داده ها با تقسیم 90-10 انجام می دهم، دقت به 50 درصد می رسد. چگونه می توان این را توضیح داد؟ پیشاپیش ممنون یک دانشجوی پژوهشی
رفتار عجیب و غریب برای LIBSVM در طول اعتبارسنجی متقابل
80881
من یک مجموعه داده تجربی تصادفی با شش درمان با هر تقریباً دارم. N=60. نتیجه یک سری زمانی است، یعنی جنگل زدایی در یک بازی شبیه سازی کاربری زمین در بیش از 40 دور. من موفق شدم نشان دهم که تأثیر تیمارها بر وضعیت زمین (یعنی تعداد سلول های تجمعی جنگل زدایی شده) در یک سال بسیار قابل توجه است، اما در یافتن روش مناسب برای نشان دادن تأثیر آن بر کل زمین مشکل دارم. TIME SERIES قابل توجه است. من می ترسم که آزمایش در یک سال بیش از حد اهمیت داشته باشد، زیرا می توانم هر سالی را انتخاب کنم و درجات آزادی پژوهشگران را اضافه کنم. من می‌توانستم (و با موفقیت انجام دادم) هر سال به طور جداگانه آزمایش می‌کردم، اما به نظر می‌رسد این یک راه‌حل بسیار نابجا باشد. به عبارت کلی تر: من یک متغیر مستقل از یک تا 6 دارم و متغیرهای وابسته من سری زمانی برای هر مشاهده است. کاری که من می‌خواهم انجام دهم، اساساً یک ANOVA است، اما به جای مقادیر منفرد برای هر مشاهده، آن را با یک سری زمانی کامل به عنوان متغیر وابسته تغذیه کنم. در صورت امکان، اگر این روش اجازه کنترل سایر عوامل ثابت مستقل مانند سن بازیکن، شغل و غیره را نیز بدهد، و در حالت ایده آل برای بیش از یک سری زمانی به عنوان متغیر وابسته، امکان پذیر است، زیرا من همچنین داده هایی برای تشدید، صرفه جویی در اختیار دارم. ، گاوهای فروخته شده و برخی ارزش های دیگر برای هر سال در بازی. نظر تخصصی دارید؟ داده های من یک پایگاه داده SQL با یک ورودی برای هر دور از سری های زمانی برای هر موضوع است که از طریق یک شناسه منحصر به فرد به ویژگی های موضوع مرتبط است => می توانم آن را به هر شکلی که برای تجزیه و تحلیل لازم است بیاورم. مشکل من شکل دادن به آن نیست بلکه یافتن آزمون مناسب است. من از mySQL & R استفاده می کنم.
ANOVA با سری زمانی به عنوان متغیر وابسته
89242
من یک متغیر پاسخ دارم که به سمت راست کج شده است. مقادیر کم زیادی وجود دارد، کمتر از 10 و سپس مقادیر پرت بسیار بزرگ. من می خواهم مدلی ایجاد کنم که بتواند حداکثر مقادیری که متغیر می تواند به دست آورد را پیش بینی کند. از چه تکنیک هایی می توانم برای پیش بینی حداکثر مقدار استفاده کنم
نحوه پیش بینی حداکثر مقدار متغیر دنباله دار سنگین
89707
من مدل ترکیبی را برای اندازه‌گیری مکرر با استفاده از SAS proc mixed اجرا کرده بودم، مدل(های) را قبلاً برای متغیر وابسته خود دریافت کردم. با این حال، proc mixed R^2 را ارائه نمی دهد. آیا روشی برای اعتبارسنجی متقابل وجود دارد که بتواند در مجموعه داده های من اعمال شود؟ یا فقط به مردم بگویید که من از proc مخلوط و بدون R^2 استفاده کردم (که فکر می کنم افرادی که به مدل من اعتماد ندارند، به ویژه زمانی که نیاز به انتشار مقاله دارند). من اغلب می بینم که مردم از LOOC برای داده های خود استفاده می کنند و میانگین خطا را محاسبه می کنند اما داده های من تکرار می شود (4 تکرار). کسی ایده ای در این مورد دارد؟ پیشاپیش از شما متشکرم ^^ روز بخیر :) KK
نحوه انجام اعتبار سنجی متقاطع برای اندازه گیری های مکرر (proc mixed)
77735
من از رگرسیون های ساده استفاده می کنم. متغیر مستقل من یک داده تعداد (# داروی مصرف شده در سال) است و صفرهای زیادی دارد. بسته به یک متغیر وابسته، برای برخی از رگرسیون های ساده، 13 مشاهده دارم، و تنها 3 مقدار غیر صفر از 13 وجود دارد. برای سایر رگرسیون های ساده، من 150 مشاهده دارم و تنها 12 مشاهده غیر صفر از 150 است. آیا استفاده از رگرسیون ساده برای این داده ها مناسب است؟ آیا قاعده ای وجود دارد که در متغیر مستقل چند عدد صفر باید باشد تا بتوان رابطه را مدل کرد؟ متغیر وابسته من پیوسته (وزن) است.
چند صفر در یک متغیر مستقل برای رگرسیون زیاد است؟
105846
این نمونه ای از کتاب من است که سعی می کنم آن را کشف کنم اما کاملاً گم شده ام. آیا کسی می تواند این را مرحله به مرحله کامل کند تا من بفهمم؟ > یک تکنیک مدیتیشن جدید مبتنی بر ایجاد صداهای حیوانات باغبانی نوید > آرام کردن مردم را می دهد، اما ممکن است شک داشته باشید. می توانید تصور کنید که می تواند باعث ایجاد استرس در اطراف مایه زدن و غر زدن شود. برای آزمایش درمان، از 16 نفر می‌خواهید صدای حیوانات را در بیاورند، سپس از آن‌ها می‌خواهید احساسات را در مقیاسی از 1 تا 7 ارزیابی کنند، که 1 نشان‌دهنده «بسیار آرام» و 7 نشان‌دهنده «بسیار > استرس‌زا» است. حتماً می‌دانید که افرادی که مرکب می‌زنند و غوغا نمی‌کنند، میانگین امتیاز احساساتشان 4 است، با انحراف معیار 2.57. در زیر > رتبه بندی 16 نفری که صداهای حیوانات را ایجاد کردند، آمده است. 4 5 6 5 4 3 7 4 3 4 4 3 5 6 5 4 > فرضیه های صفر و جایگزین را برای این مثال بنویسید. > نوع خاصی از تحلیلی که استفاده می کنید را بنویسید. > زوبت؟ Z crit؟ > بیانیه ای در مورد تأثیر مهم یا غیر قابل توجه ارائه دهید. > مقدار بدست آمده را بنویسید. من معتقدم فرضیه‌های صفر و جایگزین من عبارتند از: $\text{H}_0: \overline{X}= μ\quad\text{vs}\quad \text{H}_1:\overline{X} \neq μ$ برای $t$ من $\frac{4.5-4}{2.57/\sqrt{16}}$ انجام دادم و $.778$ گرفتم؟ آیا این درست است؟ $z_\text{crit}$ من 2.131 دلار خواهد بود؟
آیا آزمون t یک نمونه روش مناسبی برای این سوال است؟
109173
من آمار تاریخچه مسابقات بازیکنان مانند دویدن، شوت ها، پاس ها و غیره را جمع آوری کرده ام. من می خواهم مقادیر ویژگی های مشابه (روانی، ذهنی، فنی) را به بازی Football Manager یا footballdatabase.eu بیابم. چه پیشنهادی برای ارائه چنین فرمول آماری برای هر ویژگی بر اساس آمارهای عددی شناخته شده دارید؟ منابع و سرفصل هایی که ممکن است برای من مفید باشد چیست؟ هر گونه توصیه، پیشنهاد یا نظر بسیار قابل قدردانی است :) در اینجا یک صفحه نمونه از مدیر فوتبال است. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/dO2SC.png)
چگونه می توانم ویژگی های بازیکن فوتبال مشابه بازی های Football Manager یا footballdatabase.eu را از نظر آماری فرموله کنم؟
80887
من باید درآمد خانواده (faminc؛ به دلار) را بر روی **میزان تحصیلی شوهر** (او؛ در سال)، **میزان تحصیلی همسر ** (ما؛ در سال) و ** تعداد کودکان کمتر از 6 سال در خانه ** ('kl6') با استفاده از Stata. (فایل فقط حاوی داده های 4 فاکتور فوق است) من از OLS برای تخمین مدلی به این شکل استفاده می کنم: $$faminc = b_1 + b_2 * he + b_3 * we + b_4 * kl6 + \epsilon $$ منبع | SS df MS تعداد obs = 430 -------------+---------------------------- -- F( 3, 426) = 28.77 مدل | 1.4002e+11 3 4.6673e+10 Prob > F = 0.0000 باقیمانده | 6.9100e+11 426 1.6221e+09 R-squared = 0.1685 -------------+---------------------- -------- Adj R-squared = 0.1626 مجموع | 8.3102e+11 429 1.9371e+09 Root MSE = 40275 ------------------------------------- ----------------------------------------- قحطی | Coef. Std. اشتباه t P>|t| [95% Conf. فاصله] -------------+--------------------------------- ------------------------------ او | 3185.882 795.4493 4.01 0.000 1622.388 4749.376 ما | 4637.415 1059.177 4.38 0.000 2555.551 6719.279 kl6 | -8372.704 4343.059 -1.93 0.055 -16909.2 163.7893 _cons | -5998.224 11161.51 -0.54 0.591 -27936.72 15940.27 چند سوال دارم: 1) رگرسیون $b4<0$ را به دست می دهد. آیا این در واقع درست است؟ منظورم این است که اگر خانواده فرزندان بیشتری داشته باشد درآمد کمتری به دست می آورد؟ 2) آیا این مدل به اندازه کافی خوب است؟ آیا باید از لگاریتم طبیعی استفاده کنم یا ساختگی اضافه کنم تا بهتر شود؟
چگونه می توانم درآمد خانوار را بر اساس سه عامل کاهش دهم؟
14522
فرض کنید در مطالعه 15 آزمودنی، متغیر پاسخ (res) با دو متغیر توضیحی مدل شده است، یکی (سطح) مقوله ای با 5 سطح و دیگری (زمان پاسخ: RT) پیوسته است. با lmer در بسته lme4 R، من دارم: fm1 <- lmer(res ~ level * RT + (level-1 | موضوع)، data=mydata) anova(fm1) Df Sum Sq Mean Sq F سطح مقدار 4 3974.9 993.7 9.2181 RT 1 1953.5 1953.5 18.1209 سطح:RT 4 5191.4 1297.9 12.0393 اگر ترتیب دو متغیر را تغییر دهم، نتایج کمی متفاوت برای جلوه های اصلی دریافت می کنم: fm2 <- lmer(res ~ RT * level + (level-1 | subject)، data=mydata) anova (fm2) Df Sum Sq میانگین مربع F مقدار RT 1 1671.8 1671.8 15.5077 level 4 4256.7 1064.2 9.8715 RT:level 4 5191.4 1297.9 12.0393 آیا چنین تفاوتی از رویکرد ترتیبی (به جای حاشیه ای) در lme4 در حسابداری تنوع داده ها ناشی می شود؟ در این مورد، تغییر ترتیب متغیر منجر به تفاوت زیادی نمی شود، اما قبلاً تفاوت های چشمگیری دیده بودم. این تفاوت بزرگ به چه معناست؟ آیا این بدان معناست که مدل نیاز به تنظیم بیشتری دارد تا زمانی که تفاوت بزرگ از بین برود؟ سوال دوم من این است که اگر بخواهم بدانم کدام متغیر از بین این دو (RT و سطح) تنوع داده‌ها را بیشتر می‌کند، چه رویکردی معقول خواهد بود؟ بر اساس بزرگی نسبی Sum Sq (یا Mean Sq) دو متغیر؟ آیا روش آزمون آماری برای مقایسه تنوع در بین متغیرهای توضیحی وجود دارد؟
ترتیب متغیر و تنوع حساب شده در مدل‌سازی اثرات مختلط خطی
94597
من یک رگرسیون انجام دادم و متوجه شدم که باقیمانده‌های من نشان می‌دهند که داده‌های من ناهمسان هستند. من تبدیل Box-Cox را اعمال کردم و مدل جدید من به صورت زیر است، y^(1/5) = b0 + b1x1 + b2x2 با لامبدا = 1/5 و مقادیر b0، b1 و b2 خود را پیدا کردم. به نظر نمی‌رسد این مدل تبدیل‌شده دارای ناهمسانی باشد، اما اکنون می‌خواهم از این ضرایب برای پیش‌بینی داده‌ها در مجموعه نگهدارنده‌ای که در اختیار دارم استفاده کنم و دقت را آزمایش کنم. اما آیا درست است اگر از ضرایب مدل تبدیل شده استفاده کنم و مقدار حاصل باید توان 5 را بدست بیاورم تا مقدار واقعی پیش بینی شده ای را که می خواهم با مقدار واقعی مقایسه کنم به دست بیاورم؟
پیش بینی پس از تبدیل باکس-کاکس
101301
من با یک مشکل بسیار پراکنده با تعداد زیادی دسته در هر ویژگی کار می کنم و در حال حاضر به دنبال پیاده سازی الگوریتم رگرسیون یادگیری ماشینی موجود هستم که می تواند تعداد زیادی دسته در هر ویژگی را به عنوان ورودی (مثلاً 10^4 دسته) در نظر بگیرد. می‌تواند روی ماتریس‌های طراحی ورودی پراکنده (با دسته‌هایی که با استفاده از متغیرهای ساختگی باینری به ستون‌ها باز می‌شوند) عمل کند. الگوریتم همچنین باید برای هر ردیف از ماتریس طراحی، بردار وزن های مشاهده ای را بگیرد. به طور رسمی تر، فرض کنید که k ویژگی F_1، F_2، ... F_k وجود دارد. هر ویژگی حاوی داده های طبقه بندی نامرتب است، به عنوان مثال. رنگ F_1: قرمز، آبی، سبز است. ویژگی ها را می توان با k ماتریس طراحی X در m طبقه بندی قرار داد. هر ردیف i-امین ماتریس طراحی با مشاهده موفقیت های s_i و شکست های f_i همراه است، بنابراین احتمال موفقیت را می توان به صورت p_i = s_i / (s_i + f_i بیان کرد. ، که در آن تعداد کل مشاهدات در هر ردیف s_i + f_i است. به عنوان مثال، در R، فراخوانی روتین stats::glm که با این داده‌ها مطابقت دارد، می‌تواند با استفاده از کد زیر اجرا شود، جایی که من تمام متغیرها را در داخل قاب داده ورودی قرار دادم و زیرنویس‌ها را برای نشان دادن بردارهای m بعدی حذف کردم: model < - ورودی$p ~ ورودی$F.1 + ورودی$F.2 + ... + ورودی$F.k مناسب <- stats::glm(model, weights = input$s +input$f, family = binomial, data = input) predict(fit, type = response) حال مشکل اینجاست که وقتی برای ویژگی j تعداد دسته ها N_j افزایش می یابد large، stats::glm حافظه اش تمام خواهد شد (و همینطور party::ctree، partykit::ctree، rpart::rpart، و غیره) روال tree::tree تنها دارای حداکثر 32 دسته در هر ویژگی است. راه حل این است که ستون های X را در متغیرهای ساختگی باینری باز کنید که در ماتریس پراکنده x ذخیره شده اند. با استفاده از مثال رنگی، جایی که اولین عنصر نشان دهنده ی وقفه است، ماتریس پراکنده ی باز نشده دارای ردیف های قرمز = [1، 0، 0]، سبز = [1 1 0] و آبی = [1 0] خواهد بود. 1]: آلفا <- 0 lambda.grid <- 10^sq(4، -12، طول = 100) x <- ماتریس::sparse.model.matrix(model, input)[,-1] fit <- glmnet::glmnet(x, input$p, weights = input$s + input$f, thresh = 1e-12, alpha = آلفا، لامبدا = lambda.grid) شبکه الاستیک در بسته glmnet برای برنامه من کار می کند. من به دنبال الگوریتم های دیگری هستم که با این مشکل کار کنند. بسته SVM e1071 در R (libSVM) وزن نمی گیرد (می توان با استفاده از SVM ها با وزن دادن به متغیرهای شل به شکل اولیه، رگرسیون وزنی را انجام داد). آیا پیاده سازی های دیگری وجود دارد که بتواند مستقیماً روی model یا x کار کند؟ الگوریتم می تواند در هر زبان/بسته ای باشد.
الگوریتم‌های رگرسیون که با پیش‌بینی‌کننده‌های مقوله‌ای پراکنده کار می‌کنند
5114
من سعی می کنم یک توزیع قبلی برای یک متاآنالیز بیزی بیان کنم. من اطلاعات زیر را در مورد یک متغیر تصادفی دارم: 1. دو مشاهده: 3.0، 3.6 2. دانشمندی که این متغیر را مطالعه می کند به من گفته است که $P(X<2)=P(X>8)=0$، و اینکه مقادیر بالای 6 احتمال غیر صفر دارند. من از روش زیر برای بهینه سازی استفاده کرده ام (حالت log-N = $e^{\mu-\sigma^2)}$: تابع <- قبلی(parms، x، alpha) { a <- abs(plnorm( x[1]، parms[1]، parms[2]) - (alpha/2)) b <- abs(plnorm(x[2]، parms[1]، parms[2]) - (1-alpha/2)) حالت <- exp(parms[1] - parms[2]^2) c <- abs(mode-3.3) return(a + b + c) } v = nlm(قبلی، c (log(3.3)، 0.14)، آلفا=0.05، x=c(2.5،7.5)) x <- seq(1،10،0.1) نمودار(x، dlnorm(x، v$estimate[1]، v$estimate[2])) abline(v=c(2.5،7.5)، lty=2) #95%CI ![متن جایگزین](http://i. stack.imgur.com/hvKna.png) در شکل، می‌توانید توزیعی را که برمی‌گرداند، ببینید، اما من می‌خواهم چیزی بیشتر شبیه خطوط قرمزی که در آن کشیده‌ام پیدا کنم. توزیع شکل با استفاده از lognormal، گاما، یا نرمال، و منجر به توزیع با $P(X=5)<0.05$ و $P(X=6)<0.01$، یعنی: plnorm(c(5,6 ), v$estimate[1],v$estimate[2]) آیا کسی می‌تواند جایگزینی را پیشنهاد دهد؟ من ترجیح می‌دهم به جای یک مخلوط، از یک توزیع واحد استفاده کنم. با تشکر
به دنبال توزیعی، شاید غیر معمول، سازگار با دو نقطه داده و محدودیت های متخصص هستید؟
5115
مهمترین آماردانان کدامند و چه چیزی باعث شهرت آنها شده است؟ (لطفا در هر پاسخ فقط یک دانشمند پاسخ دهید.)
معروف ترین آماردانان
4686
فرض کنید من جمعیتی دارم که هر کدام با بیتی $b_i$ برای $i \in \\{1,\ldots, n\\}$ نشان داده شده است. من می خواهم یک تخمین $\hat{B}$ از پارامتر $B = \sum_{i=1}^nb_i$ را محاسبه کنم تا با احتمال زیاد، خطای $|\hat{B}-B| \leq k$ برای برخی $k$ ثابت. با این حال، من باید برای نمونه بیت $b_i$ هزینه c_i$ بپردازم، و این هزینه ممکن است برای هر $i$ متفاوت باشد. من می خواهم نمونه حداقل هزینه را پیدا کنم که محدودیت دقت من را برآورده کند. واضح است که نمونه برداری یکنواخت لزوما بهینه نیست. آیا این مورد مطالعه شده است؟ آیا راه حل بهینه شناخته شده ای وجود دارد که احتمال $p_i$ را مشخص کند که باید از هر بیت $b_i$ برای محاسبه $\hat{B}$ نمونه برداری کنم؟
نمونه برداری با هزینه های غیر یکنواخت
100062
فکر کردن در مورد یک رگرسیون خطی نرمال که توسط هنجار L1 جریمه می شود. این همان کمند است، آیا ادبیاتی در مورد رگرسیون خط الراس میانه وجود دارد؟ یعنی باقیمانده ها از یک هنجار L1 به جای هنجار مجذور محاسبه می شوند. سپس جریمه با هنجار مربع است. شهود من به من می گوید که این باعث انتخاب متغیر نیز می شود. ادبیاتی در این مورد هست؟؟؟؟
خطاهای لاپلاس و رگرسیون برآمدگی
100317
من سعی می‌کنم از مدل مخلوط برنولی برای طبقه‌بندی تصاویر MNIST استفاده کنم و با موارد پاتولوژیک مواجه شده‌ام که محاسبات من را خراب می‌کند. pdf توزیع برنولی چند بعدی (مثلاً N ابعاد) به این صورت است: $P(x|\mu) = \prod\limits_{i=0}^{N}\mu_{i}^{x_i}(1 - \mu_{i})^{(1 - x_i)}$ pdf مخلوطی از آن ها که مجموع وزنی آنهاست. در برخورد با احتمالات کوچک، من به طور طبیعی به احتمالات log روی آوردم و معادله را به این صورت تبدیل کردم: $log(P(x|\mu) = \sum\limits_{i=0}^{N}log(\mu_{i} ^{x_i}) + log((1 - \mu_{i})^{(1 - x_i)})$ مشکل من این است که وقتی $\mu_i$ یکی شود چه اتفاقی می‌افتد 0 یا 1 در طول آموزش با $log(0^1)$ مواجه می شوم که باعث می شود -Inf طبقه بندی من را خراب می کند، یا اینکه آیا راهی وجود دارد که بتوانم آنها را به شیوه ای معقول در نظر بگیرم این موارد آسیب‌شناسی هستند، زیرا معمولا گوشه‌هایی از تصویر را نشان می‌دهند که هیچ پیکسلی روی آن سرگردان نیست، و یک PCA را برای کاهش ابعاد اجرا می‌کند، اما مطمئن نیستم چگونه می‌توانم از آنجا ادامه دهم: می‌توانم کاهش داده‌های خود را درک کنم. به ابعاد D، و بنابراین، داشتن مراکز من از ابعاد D، اما چگونه می توانم از آنها با یک تصویر از مجموعه اعتبار سنجی خود استفاده کنم، که هنوز هم با استفاده از ضرایب از مجموعه آموزشی من احساس تعصب می کنم کمک شما، و به سلامتی!
مدل های مخلوط برنولی برای طبقه بندی تصاویر، موارد پاتولوژیک
79614
من یک نمونه نسبتا بزرگ (400 pat) با دو متغیر پیوسته (تقریبا) به طور معمولی دارم. آیا می توانم از ANOVA برای همبستگی نسبت بین آن 2 متغیر با یک متغیر اسمی سوم استفاده کنم؟ با تشکر فراوان
همبستگی یک متغیر پیوسته با یک متغیر اسمی
79610
من در حال حل مشکلاتی بر روی استخراج آمار U هستم و در مورد تعیین تعداد نمونه (متغیرهای تصادفی؟) که برای هسته یک U-stat مورد نیاز هستند مطمئن نیستم. به عنوان مثال: اجازه دهید $X_i$ با Lesbegue PDF ناشناخته $iid$ باشد. اجازه دهید $\mu = EX_1$، $\sigma^2 = VAR(X_1)$ و $EX^4 < \infty$. برای $\theta = \mu\sigma^2$، یک U-stat برای $\theta$ پیدا کنید. $$g(x_1,x_2,x_3) = \frac{x_1(x_2-x_3)^2 + x_2(x_1-x_3)^2 + x_3(x_1-x_2)^2}{6}$$ را در نظر بگیرید هسته بالقوه ای که برای $\theta$ بی طرفانه و در آرگومان هایش متقارن است. با این حال، فکر اولیه من این بود که استفاده کنم: $$h(x_1,x_2) = \frac{x_1(x_1-x_2)^2 + x_2(x_1-x_2)^2}{4}$$ که برای $ نیز بی طرفانه است \theta$ و متقارن در آرگومان های آن. یا در محاسبه $Eh(x_1,x_2)$ اشتباه می‌کنم یا چیزی در مورد تخمین‌پذیری $\mu\sigma^2$ تنها با 2 نمونه گم می‌کنم. با تشکر
تعیین تعداد متغیرها در هسته یک U-stat
108643
نرخ طبقه‌بندی اشتباه در درخت‌های تصمیم به صورت $1-\max_{j} p_{j}$$ تعریف می‌شود. فرض کنید می‌خواهیم افراد را به جمهوری‌خواهان و دموکرات‌ها طبقه‌بندی کنیم. در داده‌های آموزشی، $\hat{p}_1 = 0.7$ (احتمال جمهوری‌خواه بودن) و $\hat{p}_2 = 0.3$ (احتمال دموکرات بودن). اگر روی $\text{age} \leq 50$ تقسیم کنیم و این گره ترمینال را داشته باشد، چگونه نرخ طبقه‌بندی اشتباه را محاسبه می‌کنید؟ اگر 100 نفر در داده های آموزشی وجود داشته باشد، 70 نفر جمهوری خواه و 30 نفر دموکرات هستند. سپس اگر 40 کمتر یا مساوی سن 50 و 60 سال بیشتر باشد، آیا تعداد جمهوری خواهان و دموکرات ها را در بین 40 نفر و 60 نفر حساب می کنید تا یک $\hat{p}_1$ و $\hat{p جدید بدست آورید. }_2 دلار؟
نرخ طبقه بندی اشتباه
72864
میدونم سوالم یه جورایی کلی و گسترده هست اما نوشتم تا با نظر شما محدودش کنم! فرض کنید ما یک فرهنگ لغت ناقص از زبان بسیار قدیمی داریم و می خواهیم آن را تکمیل کنیم! اسناد زیادی حاوی جملات هستند. در ابتدا فرهنگ لغت را با نزدیک ترین زبان به این زبان قدیمی پر می کنیم. اکثر کلمات 100٪ با فرهنگ لغت مطابقت دارند اما برخی از کلمات با مقداری پنالتی در حروف عدم تطابق مطابقت دارند! آیا یادگیری ماشینی یا روش آماری برای تعیین نوعی احتمال خطای پسینی وجود دارد که با استفاده از فراوانی هر یک از حروف در هر سند بگوییم: 1) حرفی که مطابقت ندارد درست نیست و با تصحیح آن نیازی به اضافه کردن آن نیست. کلمه به فرهنگ لغت شما! یا 2) حرفی که عدم تطابق آن به اندازه کافی مطمئن است و باید این کلمه را به عنوان یک کلمه جدید در فرهنگ لغت خود حساب کنید! بازم ببخشید سوال کلی پرسیدم!
کلمه جدید یا غلط املایی کلمه موجود در فرهنگ لغت قدیمی؟
4689
تفاوت بین مدل های مولد و متمایز (در زمینه یادگیری و استنتاج بیزی) چیست؟ و چه چیزی مربوط به پیش بینی، نظریه تصمیم گیری یا یادگیری بدون نظارت است؟
مدل های مولد در مقابل متمایز
76522
چرا وقتی maxStages مشخص شده است، تابع biglars.fit کار نمی کند؟ من چندین مقدار و چندین روش برای ریختن $y$ امتحان کرده ام اما کار نمی کند. x <- as.ff(ماتریس(rnorm(100*20)،ncol=20)) y <- as.ff(ماتریس(rnorm(100))) مناسب <- biglars.fit(x,y,maxStages=5 ) خطا در `[<-`(`*tmp*`, k, NEW, value = 1) : زیرنویس خارج از محدوده اما اگر این آرگومان را حذف کنم کار می کند (یعنی وقتی روی NULL تنظیم شود). >fit <- biglars.fit(x,y)
چرا آرگومان maxStages در biglars.fit کار نمی کند
77731
من می خواهم قبل از ساخت یک مدل آماری، تعاملات بین متغیرهای توضیحی خود را بررسی کنم. ظاهراً می توان آن را در R با استفاده از درخت رگرسیون (کتابخانه: درخت) انجام داد. این روش مبتنی بر پارتیشن بندی بازگشتی باینری است. الگوریتم یک متغیر پاسخ را با تقسیم کردن داده ها به زیر گروه ها بر اساس متغیرهای پیش بینی کننده پیش بینی می کند. با این حال، من نمی دانم که چگونه این الگوریتم تعاملات بین پیش بینی کننده ها را بررسی می کند. من بسیار سپاسگزار خواهم بود برای توضیح آسان برای غیر متخصص.
چگونه می توان تعامل بین متغیرهای توضیحی را با استفاده از پارتیشن بندی بازگشتی باینری پیدا کرد؟
43913
_سلب مسئولیت: من پیشینه یا واژگان کافی برای این سوال ندارم، اما تمام تلاشم را کردم تا یک جستجوی مقدماتی هم در انجمن و هم در شبکه های گسترده تر انجام دهم_ آیا راهی برای تعیین فرمول یا تقریب ساده شده آن وجود دارد. مجموعه ای از نتایج؟ تنها انتظار من از دقت از چنین فرمول مهندسی معکوس توانایی بازتولید مجموعه اصلی - یا مجموعه ای به اندازه کافی نزدیک به آن - نه توانایی گسترش بیشتر مجموعه یا معرفی مقادیر میانی است.
تقریب فرمول اصلی از یک مجموعه داده
45817
آیا کران خوبی در توزیع دنباله مجموع متناهی متغیرهای تصادفی i.d weibull وجود دارد؟
توزیع دم مجموع ویبول ها
45814
همانطور که در مثال Google Web Optimizer نشان داده شده است، من می خواهم شانس شکست دادن خط پایه (اصلی) را محاسبه کنم - من سعی کردم اما نتوانستم بفهمم آنها چگونه این کار را انجام می دهند. من فکر می کنم +- در کنار نرخ تبدیل، خطای استاندارد است، اما خطای استاندارد من نیز خاموش است. کسی می داند گوگل چگونه آن را محاسبه می کند؟ به عنوان مثال در هر زبان برنامه نویسی بسیار خوش آمدید :) اضافی (اما مهم نیست)، اگر کسی بداند که چگونه شمعدان را با ارزش نزدیک پایین دریافت می کند، بسیار خوب است. متشکرم ![Google Web Optimizer](http://i.stack.imgur.com/NuBfD.jpg)
محاسبه اطمینان / شانس شکست خط پایه