_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
93960
|
بنابراین، زمانی که من آمار سال اول را در مقطع کارشناسی انجام دادم، آزمایشی را انجام دادیم که در آن دستهای از سکهها را دستکاری کردیم تا ببینیم آیا تفاوت آماری در نتایج ایجاد میشود یا خیر. این نموداری از نسبت $heads:tosses$ برای هر سری از تلنگرها است: ، و دریافتند که تفاوت معنی داری با فرضیه صفر 50 درصد سر وجود ندارد. اگر روی 100 تلنگر یا 150 تلنگر توقف میکردیم، احتمالاً به این نتیجه میرسیدیم که سکهی کاپ شده بهطور قابلتوجهی مغرضانه است. آیا این نامعتبر بود و چرا؟ به طور خاص، آیا این نسبت در بیش از 5 درصد مواقع خارج از فاصله اطمینان 95 درصد است، به معنای چیزی است؟
|
اهمیت آماری در سری های زمانی و زیر مجموعه ها
|
110026
|
بیایید فرض کنیم یک مجموعه آموزشی با $y \in \mathbb{R}$ داریم. بنابراین همه دادهها بین $y_{min}$ و $y_{max}$ هستند. اگر یک مدل درخت تصمیم بسازیم، نمی تواند $y_{pred}$ را خارج از محدوده داده شده (با استفاده از هر ترکیبی از ویژگی های ورودی) برگرداند. بنابراین درخت تصمیم نمی تواند بر حسب مقادیر پیش بینی شده برون یابی کند. آیا یک مدل رگرسیون شبکه عصبی می تواند مقادیر $y_{pred}$ را خارج از محدوده $y$ در مجموعه آموزشی برون یابی کند و برگرداند؟ آیا به عملکرد فعال سازی بستگی دارد یا خیر؟ در زیر تلاش من برای پاسخ به این سوال است. نورون خروجی مدل فقط $\sum \Theta_ia_i$ است، که در آن $\Theta_i$ - وزن نورون i-ام در لایه پنهان قبلی، و $a_i$ - مقدار تابع فعالسازی آن نورون است. اگر از تابع لجستیک استفاده کنیم، $a \in (-1;1)$. بنابراین حداکثر $y_{pred} = \sum \Theta_i$، با این فرض که همه $a$ به حداکثر مقدار خود در حدود 1 می رسند. اما اگر از تابع فعال سازی خطی استفاده کنیم که محدودیتی در مقادیر خروجی $a$ ندارد. ($a \in \mathbb{R}$) مدل $y_{pred} \in \mathbb{R}$ را برمیگرداند که میتواند در محدوده $y$ مجموعه آموزشی باشد. آیا خط استدلال من درست است یا اشتباهاتی وجود دارد؟
|
آیا خالص عصبی می تواند مقدار خروجی را برون یابی کند
|
95024
|
این سوال مرحله پاکسازی داده و آماده سازی برای من است. اگر سوال ابتدایی است عذرخواهی می کنم، اما من مبتدی هستم. من مجموعه داده کمی کمتر از 4500 رکورد دارم. این یک نظرسنجی است و سال تولد یک زمینه مهم است. اکنون 670 رکورد این اطلاعات را ندارند. من تمایل دارم که فکر کنم باید با این رشته به عنوان ناشناخته رفتار کنم، اما میخواستم از شما یک سوال بپرسم: آیا هرگز منطقی است که سال تولد را در نظر بگیرم؟ شاید شما همچنین می توانید به من اطلاعاتی در مورد اینکه آیا داده های جمعیتی می توانند یا باید نسبت داده شوند اشاره کنید؟ با تشکر فراوان از افکار شما
|
آیا تعیین سال تولد منطقی است؟
|
90207
|
من شبیه سازی مونت کارلو را اجرا می کنم و از توزیع های عادی مختلف نمونه برداری می کنم. فقط میپرسیدم، آیا راهی وجود دارد که بتوانم احتمال انتخاب یک نقطه را از دمها افزایش دهم (یعنی $[-5\sigma, -3\sigma]$ و $[3\sigma,5\sigma] $) در مقایسه با احتمال مربوط به بازه $(-3\sigma, 3\sigma)$؟ ویرایش: 
|
نمونه برداری رد از توزیع نرمال
|
28318
|
من یک تخمین چگالی را برای نرخ طبقهبندی اشتباه برخی از طبقهبندیکنندهها با استفاده از توابع استاندارد «نقشه» و «خطوط» ترسیم میکنم. با وجود اینکه «xlim=c(0.32,0.38)» و «ylim=c(0100)» را در دستور «plot» تنظیم کردهام، x-limits و y-limits کمی گستردهتر از آنچه میخواهم هستند. . چگونه می توانم قسمت پایین سمت چپ نمودار دارای مختصات (0.32،0) و سمت راست بالای نمودار دارای مختصات (0.38، 100) باشد؟
|
گزینه های ترسیم در R: تنظیم محدودیت های محور
|
91960
|
یک ماژول آنلاین که من در حال مطالعه آن هستم بیان می کند که **هرگز** نباید از همبستگی پیرسون با داده های نسبت استفاده کرد. چرا نه؟ یا اگر گاهی اوقات خوب است یا همیشه خوب است، چرا؟
|
چرا انجام همبستگی پیرسون روی داده های نسبت درست نیست؟
|
110022
|
زمینه: من روی یک طبقهبندی درخت تصمیم کار میکنم، سعی میکنم کسبوکارها را طبقهبندی کنم که آیا احتمال دارد در 90 روز آینده رویدادی (پیشفرض) رخ دهد یا خیر. یکی از ورودی هایی که دریافت می کنم این است که آیا، و چه زمانی، کسب و کار قرار است رویداد مرتبطی داشته باشد (بیایید آن را هشدار بنامیم). ممکن است یک کسبوکار اخطاری برنامهریزی نشده داشته باشد، یا ممکن است چند روز در آینده اخطاری برنامهریزی شده باشد (به عنوان مثال، امروز متوجه شدیم که یک هشدار برای ۱۵ روز برنامهریزی شده است). اگر اخطاری دورتر برنامه ریزی شده باشد، ممکن است فرض کنیم که کسب و کار زمان بیشتری برای مقابله و رفع آن دارد، بنابراین «بدتر» این است که 15 روز تا اخطار داشته باشیم تا 85 روز تا هشدار. من به دنبال راهی هستم که بتوانم این داده ها را به یک ویژگی واحد با ارزش واقعی برای استفاده در درخت تصمیم، ماساژ/تبدیل کنم، که 1. نظم طبیعی را که به طور شهودی در اینجا وجود دارد حفظ کند، و 2. بیش از حد ایجاد نشود. زشت آمار؟ امکانات: 1. فقط از تعداد روز تا هشدار برنامه ریزی شده به عنوان یک ویژگی استفاده کنید. مزایا: نظم (به جز بدون هشدار) و قابلیت تفسیر طبیعی را حفظ می کند. معایب: وقتی بدون اخطار وجود دارد، صفر یک مقدار بسیار ضعیف برای استفاده است، زیرا ترتیب را نقض می کند. 2. از +infinity یا تعداد زیادی از روزها که بدون هشدار وجود دارد استفاده کنید، اما در غیر این صورت از تعداد روز استفاده کنید. مزایا: نظم و قابلیت تفسیر را حفظ می کند (به جز بدون هشدار). معایب: بیشتر مقادیر در محدوده 1-90 قرار می گیرند، بنابراین انتخاب یک مقدار نماینده برای بدون هشدار داده ها را منحرف می کند. 3. از صفر برای عدم هشدار استفاده کنید و تعداد روزهای تا هشدار را با عکس تغییر دهید. مزایا: صاف، منظم در دامنه، محدوده خروجی 0،1، بدون هشدار به عنوان اثر صفر تفسیر می شود. معایب: از دست دادن قابلیت تفسیر بومی مقادیر، نامناسب برای مدل های دیگر (خطی؟). 4. از دو ویژگی جداگانه استفاده کنید، یکی باینری برای هشدار، یکی از روزهای تا هشدار. جوانب مثبت: به درستی نگرانی ها را جدا می کند (؟). معایب: هنوز با این سوال که چه چیزی را برای ارزش از دست رفته در چند روز تا اخطار قرار دهیم، سروکار ندارد. اگر، همانطور که من گمان میکنم، این یک مشکل تازهکار است، از هرگونه اشارهای برای رویکردهای استاندارد برای این نوع مشکل، از جمله پاسخهای RTFM استقبال میشود، اگرچه منابع خاص، نام تکنیکها یا عبارات جستجو کاملاً خوشایند خواهند بود.
|
یک ویژگی با اطلاعات زمان و حضور طراحی کنید
|
55411
|
این سوالی است که من برای تکلیف در _برنامه ریزی آزمون و تحلیل واریانس_ گرفتم. من پیشاپیش از نحوه بیان استادم عذرخواهی می کنم: D من دوست دارم نکات یا نکاتی را در مورد نحوه برخورد با این موضوع بشنوم. بنابراین در اینجا آمده است: > یک آماردان تصمیم می گیرد تا آزمون پارامتریک a بعدی را برای بررسی > $H_0$ تجزیه و تحلیل واریانس انجام دهد. ابتدا آمار آزمون را به روش زیر محاسبه می کند: محاسبه رتبه همه مشاهدات بدون وابستگی به یک گروه، و محاسبه آمار F آزمون آنووا در > رتبه ها به جای مشاهدات. سپس، او مقدار > p-value را با استفاده از آزمون جایگشت محاسبه میکند، زیرا در زیر $H_0$ شانس یکسانی > برای همه جایگشتهای رتبهها هنگام تقسیم به گروهها وجود دارد. > > 1. SST بر اساس رتبه های مشاهدات محاسبه می شود؟ نشان دهید که > SST به مشاهدات بستگی ندارد، فقط به تعداد مشاهدات بستگی دارد. > > 2. ثابت کنید که p-value این آزمون برابر با p-value خواهد بود که > با جایگشت در آمار آزمون Kruskal-Wallis محاسبه می شود. سرنخ: > نشان می دهد که آمار آزمون Kuskal-wallis SSB/(SST/N-1) است وقتی SSB و > SST بر روی رتبه های مشاهده محاسبه می شوند و N تعداد کل > مشاهدات است. > > این چیزی است که من برای (1) دارم. در مورد آن مطمئن نیستم اما برای من منطقی است. چیزی که من دریافت نمی کنم این است که چگونه نشان دهم که SST به مشاهدات بستگی ندارد، زیرا بدیهی است که ما برای محاسبه SST به آنها نیاز داریم. $k$ - تعداد گروهها $n_i$ - تعداد مشاهدات در گروه $i$ $\bar{d}$ - میانگین رتبههای همه گروهها $\bar{d}_i$ - میانگین رتبههای گروه $i$ $$\نام اپراتور{SSB} = \sum_{i=1}^k n_i(\bar{d}_i-\bar{d})^2$$ $$\نام اپراتور{SSW} = \sum_{i=1}^k \sum_{j=1}^{n_i} (d_{ij}-\bar{d}_i)^2$$$$\نام اپراتور{SST} = \sum_{i= 1}^k \sum_{j=1}^{n_i} (d_{ij}-\bar{d})^2$$ و در واقع وقتی به آن فکر میکنم، مطمئن نیستم چه تفاوتی بین تستی که شرح داده شده است در این سوال و کروسکال والیس.
|
مشکل تست رتبه
|
110020
|
من با ماتریس هایی با اندازه N*M کار می کنم، که در آن هر سلول مطابق با همبستگی پیرسون بین دو سری زمانی است. من می خواهم هر ماتریس را به گونه ای آستانه گذاری کنم که فقط همبستگی های قابل توجهی را حفظ کند. اکنون، مشکل من این است که سریهای زمانی بسیار بزرگ هستند (بیش از 1500 نقطه داده) و بنابراین همبستگیهای ضعیف (بسیار) قابل توجه هستند. من در حال حاضر فقط همبستگیهایی را در نظر میگیرم که p val آنها برای مقایسه چندگانه (برای تصحیح تعداد آزمایشهای انجامشده در هر ماتریس) از تصحیح باقی میماند، با این حال این هنوز هم همبستگیهای ضعیفی در هر ماتریس باقی میگذارد. ترجیح میدهم آستانهای را خودسرانه انتخاب نکنم، بنابراین میپرسیدم آیا کسی میتواند مرا به روشهای تعیینشده برای تعیین آستانههای آماری در هنگام کار با سریهای زمانی بسیار بزرگ راهنمایی کند. خیلی ممنون از کمک شما!
|
آستانه های آماری برای سری های زمانی بزرگ
|
56141
|
من احساس می کنم هر سوالی که در CrossValidated پرسیده ام به بررسی تعداد مشاهداتی که در هر متغیر دارم منجر شده است. من میدانم که قوانین کلی زیادی بسته به رشته شما، اندازه اثر مورد انتظار شما و غیره وجود دارد. من درک میکنم که وقتی به یک مدل رگرسیون با یک پیشبینیکننده نگاه میکنیم، زیاد برازش میتواند مشکلساز باشد. داشتن تنها دو مشاهده منجر به یک پاسخ کامل می شود، در حالی که استفاده از حداقل مربعات برای حل یک مدل بیش از حد تعیین شده منجر به تعمیم می شود. با این حال، اگر شما 20 پیشبینیکننده و مثلاً 31 مشاهده داشته باشید، در درک این موضوع مشکل دارم که چگونه تطبیق بیش از حد میتواند همچنان مشکلساز باشد. به نظر می رسد که شما مشکل را با 10 مشاهدات اضافی کاهش داده اید، اما من گمان می کنم که چیزی را در نحوه حل سیستم های بیش از حد تعیین شده حداقل مربعات از دست داده ام. آنچه من فرض میکنم در ادامه میآید اگر درست باشد که یک سیستم بیش از حد برازش داده شده است، این است که روابط بین پیشبینیکنندههای توضیحدادهشده توسط بتا نیز برقرار نیست. در نهایت، اگر بیش از حد برازش مشکلی به دلیل نداشتن مشاهدات کافی باشد، آیا می توان با استفاده از رگرسیون گام به گام رو به جلو این مشکل را حل کرد؟ یا اینکه احتمال زیادی وجود دارد که پیشبینیکنندههای مهم را به دلیل رسیدن به نقطهای که تعداد زیادی پیشبینیکننده وجود دارد و مشاهدات کافی وجود ندارد، از دست دهیم؟ برای جمعبندی: 1. آیا کسی میتواند توضیح دهد که چرا در موردی که تعداد پیشبینیکنندهها $N-1$ است، جایی که $N$ بسیار بزرگ است (مثلاً $N > 10$) هنوز هم میتواند بیش از حد مناسب باشد؟ چرا نیاز به حداقل تعداد مشاهدات **بدون در نظر گرفتن** تعداد پیش بینی کننده ها نیست؟ 2. آیا می توان اضافه برازش را با استفاده از رگرسیون گام به گام به جلو حل کرد؟
|
توضیح حداقل مشاهدات برای رگرسیون چندگانه
|
28316
|
من میدانم روشهایی برای محاسبه فاصله اطمینان برای یک نسبت وجود دارد تا محدودیتها را در داخل (0، 1) نگه دارند، اما یک جستجوی سریع در Google فقط من را به محاسبه استاندارد هدایت میکند: $\hat{p} \pm 1.96*\sqrt\ frac{\hat{p}(1-\hat{p})}{N}$. من همچنین معتقدم راهی برای محاسبه فاصله اطمینان دقیق با استفاده از توزیع دو جمله ای وجود دارد (مثال کد R خوب است). می دانم که می توانم از تابع prop.test برای بدست آوردن بازه استفاده کنم، اما علاقه مندم که از طریق محاسبه کار کنم. موقعیت های نمونه (N = تعداد آزمایش، x = تعداد موفقیت): N=40، x=40 N=40، x=39 N=20، x=0 N=20، x=1
|
فاصله اطمینان برای نسبتی که نسبت نمونه تقریباً 1 یا 0 است
|
11152
|
من قرار است در طول تابستان میزبان تعدادی (~ 10) وعده غذایی potluck باشم، تعداد افرادی که می خواهم دعوت کنم حدود 40 نفر است که در هر وعده حدود 10-15 نفر می آیند. بنابراین فکر می کنم این فرصت خوبی برای ثبت اطلاعات در طول زمان در مورد وعده های غذایی / افراد است. مشکلی که من دارم این است که مطمئن نیستم چه اطلاعاتی را دنبال کنم و با چه فرمتی آن را ثبت کنم. در اینجا چند نمونه از گرایش ها وجود دارد که فکر می کنم جالب باشد: 1. من مردم را به چند وعده غذایی دعوت کرده ام. افراد به کدام دور دعوتنامهها دعوت شدهاند (بعضی از افراد در ابتدا به عنوان نه پاسخ میدهند و بنابراین یک دور دیگر از دعوتها وجود دارد) 3. افراد در چند وعده غذایی شرکت کردهاند. صفحه گسترده که در آن هر صفحه یک وعده غذایی است، چند ستون اول صفحه نشان دهنده دورهای مختلف دعوت است، من نام افراد را در ستونی وارد می کنم که با دور دعوت آنها مطابقت دارد. دو ستون آخر rsvp نهایی از هر دور دعوت و موردی است که در صورت وجود آورده شده است. به طور خلاصه، من به دنبال راهی کارآمد و مختصر برای ثبت داده های مرتبط با این وعده های غذایی برای روندهای ذکر شده هستم. علاوه بر این، من به دنبال روندهای دیگری هستم که بتوانم آنها را پیگیری کنم، بسیاری از این ارتباطات را از طریق ایمیل انجام می دهم، بنابراین مُهرهای زمانی به طور بالقوه برای سایر گرایش های جالب در دسترس هستند. کمک با برچسب های خوب برای این سوال قدردانی می شود.
|
آمار رویدادها و دعوتنامه ها
|
51248
|
چگونه می توانم انحراف معیار را در توزیع طبقه بندی پیدا کنم، جایی که عناصر دارای ویژگی های غیر عددی (مانند رنگ ها) هستند؟ به عنوان مثال، من یک کیسه تیله با رنگ های $n$ دارم. تعداد نامتناهی تیله در کیسه وجود دارد و به سمت یک رنگ خاص با احتمال $\frac{x}n، x>1$ تمایل دارند. از کیسه، تیله های $m$ را انتخاب می کنم و توزیع احتمال را با توجه به رنگ آنها دریافت می کنم. از این توزیع، با انتخاب رنگهای $q$ با بیشترین احتمال، میخواهم دیگران را با فاصله اطمینان $k$% (مثلاً 95%) متقاعد کنم که یکی از رنگهایی که من انتخاب کردم رنگی است که تیلهها به سمت آن سوگیری دارند. . در این سناریو، برخی از تکنیک های تحلیلی که می توان برای یافتن $q$ با توجه به $x,n,k,$ و $m$ مورد استفاده قرار داد چیست؟
|
چگونه می توانم انحراف معیار را در توزیع طبقه بندی پیدا کنم
|
9876
|
روز همگی بخیر، فرض کنید من در حال انجام یک مطالعه پرسشنامه هستم که سعی دارد سطح آگاهی افراد را در مورد یک زبان برنامه نویسی اندازه گیری کند و ارتباط آن سطح آگاهی را با شرایط و روش های کاری و غیره پیدا کند. برای بهبود دقت تصمیم گرفتم بروم. با نمونه گیری طبقه ای اگر 1 معیار برای طبقه بندی داشته باشم، مانند توزیع جغرافیایی (برای اطمینان از اینکه موضوعاتی را از مناطقی که برنامه نویس کمتری دارند را نشان نمی دهم)، در نهایت با 6 طبقه مجزا (استان های کشور) مواجه می شوم. من می دانم چگونه می توانم آنها را تجزیه و تحلیل کنم تا خطای حاشیه، خطای استاندارد و غیره را پیدا کنم، اما متوجه شدم که به اندازه کافی خوب نیست و باید معیارهای بیشتری را برای طبقه بندی، مانند سطح تحصیلات معرفی کنم (بنابراین من بیش از حد نماینده گروهی نیستم که بین برنامه نویسان بر اساس تحصیلاتشان، سطح ارشدیت و غیره خیلی حضور ندارند. من نسبت (%) را برای همه این معیارها دارم، اما نمی دانم وقتی بیش از یک معیار دارم، چگونه نمونه گیری را انجام دهم؟ ممنون از کمکت :)
|
سوال نمونه گیری طبقه ای
|
56428
|
من یک مجموعه داده سری زمانی دارم. من میتوانم آن را تجزیه کنم و روند را دریافت کنم، اما میخواهم محدودههای اطمینان را در اطراف روند (گذشته) قرار دهم نه مؤلفه پیشبینیشده. تابع تجزیه همچنین N/As را به خوبی مدیریت نمیکند، بنابراین راه دیگری برای تعریف روند با دادههایی وجود دارد که N/As دارند. من سعی کرده ام از Holt-Winters و ARIMA استفاده کنم اما به نظر می رسد هیچ کدام قادر به انجام این کار نیستند.
|
چگونه یک باند اطمینان در اطراف روند برازش دادههای سری زمانی تشکیل دهیم
|
105757
|
در http://surveyanalysis.org/wiki/Multiple_Comparisons_(Post_Hoc_Testing) بیان میکند که برای مثال، اگر مقدار p 0.05 داشته باشیم و به این نتیجه برسیم که قابل توجه است، احتمال کشف نادرست، طبق تعریف، 0.05 است. سوال من: من همیشه فکر می کردم که کشف نادرست خطای نوع I است که در اکثر آزمون ها برابر با سطوح معنی داری انتخاب شده است. p-value مقدار محاسبه شده از نمونه ها است. در واقع ویکیپدیا بیان میکند که «مقدار p نباید با سطح معنیداری α در رویکرد نیمن-پیرسون یا نرخ خطای نوع I [نرخ مثبت کاذب] اشتباه گرفته شود» پس چرا آماردان در پیوند ادعا میکند که خطای نوع I نیز p است. -ارزش؟
|
آیا p-value نرخ کشف نادرست است؟
|
93072
|
من اخیراً برای یک کار تجزیه و تحلیل آماری مصاحبه کرده ام و از من سؤالی پرسیده شد که چرا رگرسیون حداقل مربعات خطی زمانی که داده ها ناهمسان هستند شکست می خورد. پاسخ صحیح به این سوال، به گفته مصاحبهکنندگان، این است که دادههای هتروسکداستی به این معناست که معادله خط رگرسیون تولید شده توسط رگرسیون حداقل مربعات، یک تخمینگر بیطرفانه از رابطه واقعی است، اما کارآمد نیست، اساساً زیرا بخشی از مجموعه داده ای که در آن واریانس کوچکتر از حد متوسط است، به طور موثر وزن کم می شود. سوال من این است **از کدام کتاب های درسی می توانم برای یافتن جزئیات بیشتر در مورد این موضوع و سایر موضوعات مشابه در این سطح استفاده کنم**، به عنوان مثال. * رابطه بین داده هایی که به طور معمول توزیع می شوند و رگرسیون خطی حداقل مربعات که تخمینگر حداکثر احتمال برای برازش خط مستقیم است [من مدرک ریاضی دارم اما با حداقل پیشینه آماری و درک مفاهیم عمومی احتمال مانند قضیه حد مرکزی، متغیرهای تصادفی و غیره، و من آمار سطح دبیرستان را تا آمار A-level S4 بریتانیا می دانم، اما سطح معینی از دانش آماری ندارم و چیزهایی را که نمی دانم نمی دانم. یا از کجا می توان بیشتر بداند... ]
|
کدام کتابهای آماری توضیح میدهند که چرا رگرسیون حداقل مربعات خطی زمانی که دادهها ناهمسان هستند شکست میخورد.
|
104330
|
من در درک چگونگی به دست آوردن خروجی عملیات کانولوشن گیر کرده ام. کسی میتونه لطفا مراحل رو نشون بده؟ سوال این است که یک تصویر با اعمال فیلتر میانگین 3*3 پردازش می شود. پاسخ تکانه چیست؟ فرمول $g(m,n) = \sum_{\alpha = 0}^{M-1} \sum_{\beta=0}^{N-1} f(\alpha,\beta)h(m -\alpha,n-\beta)$ تابع تصویر $f$ = 0 0 0 0 0 0 1 1 1 0 0 1 1 1 0 0 1 1 1 0 0 0 0 0 0 h = 1 1 1 1 1 1 1 1 1 نتیجه عملیات (به دست آمده در Matlab) g(m,n) = 0 0 0 0 0 0 0 0 1 2 3 2 1 0 0 2 4 6 است. 4 2 0 0 3 6 9 6 3 0 0 2 4 6 4 2 0 0 1 2 3 2 1 0 0 0 0 0 0 0 0 من نمی توانم مراحل انجام آن را به صورت کاغذی درک کنم، لطفاً کسی می تواند چند مرحله را نشان دهد که چگونه باید آن را انجام داد؟ بر اساس پاسخ و فرمول، من یک مثال را کار کرده ام، اما پاسخ ها با فرمول و تکنیک دیگر مطابقت ندارند. برای کانولوشن در پیکسل f(0,0) پاسخ = 0. اما من با استفاده از فرمول 0 و با روش کشیدن 1 دریافت می کنم. سلولی که این نتیجه به آن نگاشت می شود g(0,0) است و من پاسخ را در آنجا قرار داده ام. برای پیچیدگی عنصر پیکسل در f(1،1) = 1 نیز، وقتی ارزیابی کردم به جای 4، پاسخ 2 را دریافت می کنم. نتیجه باید به g(2،2) برود. اما چگونه می توانم مقادیر g(5,0) را دریافت کنم زیرا تصویر اصلی f ردیف پنجم ندارد!! چگونه مقادیر ردیف پنجم و ششم را محاسبه کنیم؟ لطفاً به من بگویید چه چیزی در درک من اشتباه است. آیا سیستم مختصات من نادرست است؟ واقعا باید قدردانی کنیم. 
|
کمک در عملیات پیچیدگی
|
103688
|
من دادههای مجموعهای از حسگرها را دارم و میخواهم شباهت بین دو نمونه داده را بدون توجه به نوسانات محلی اندازهگیری کنم. مشکل من این است که سنسورهای من به طور منظم قرار نمی گیرند: برخی کاملاً تنها هستند، برخی دیگر در همان منطقه هستند، هیچ الگوی منظمی در مکان آنها وجود ندارد. من میخواهم شباهت را از نظر مقیاس بزرگ اندازهگیری کنم، نوسانات محلی (حتی با دامنه بالا) تا زمانی که با نوسانات دیگر نزدیک متعادل شوند بسیار کمتر اهمیت دارند. من در مورد محاسبه مقادیر میانگین یک نقطه و همسایه های آن فکر می کنم و شاخص خود را به عنوان مجموع قدر مطلق تفاوت بین میانگین های محلی دو نمونه خود قرار می دهم، اما نمی دانم که آیا این رویکرد خوبی است یا خیر.
|
شباهت بین دو نمونه از داده های فضایی شده بدون توجه به نوسانات محلی
|
51244
|
آیا ممکن است الگوریتم A دقت بهتری داشته باشد اما یادآوری بدتر (یا یادآوری بهتر اما دقت بدتر) نسبت به الگوریتم B دیگر داشته باشد؟ اگرچه می دانم که دقت و یادآوری چیزهای متفاوتی هستند، به نظر من اگر الگوریتم A دقت (یا یادآوری) بهتری نسبت به الگوریتم B داشته باشد، الگوریتم A نیز فراخوانی (یا دقت) بهتری نسبت به B خواهد داشت. با تشکر احمد
|
دقت بهتر یادآوری بدتر
|
112563
|
من یک مثال برای محاسبه دستی نسبت خطر در زمانی که دو گروه وجود دارد پیدا کردم. d2 <- c(2، 2، 1، 2، 2، 0، 0، 4، 0، 2، 2، 0، 1، 0، 1، 1، 1) d <- c(2، 2، 1، 2، 2، 3، 1، 4، 1، 2، 2، 1، 1، 1، 1، 2، 2) r2 <- c(21، 19، 17، 16، 14، 12، 12، 12، 8، 8، 6، 4، 4، 3، 3، 2، 1) r1 <- c(21، 21، 21، 21، 21 ، 21، 17، 16، 15، 13، 13، 12، 11، 11، 10، 7، 6) l <- log(r2/r1) d1 <- d - d2 dd <- cbind(d2، d1) خلاصه (glm(dd ~ offset(l)، خانواده = دو جمله ای)) که در آن d تعداد کل مرگ و میرها و $d_i$ مرگ و میر در گروه $i$ و $r_j$ تعداد افراد در گروه خطر است. $j$. من درک می کنم که چگونه این کار می کند. من می خواهم یک تمرین مشابه را برای زمانی که دو گروه از افراد وجود ندارد ، انجام دهم ، بلکه فقط یک بردار از داده های مداوم (به عنوان مثال بیان یک ژن خاص) و هیچ عامل گروه بندی وجود ندارد. چگونه می توان آن را برای این سناریو انجام داد؟
|
محاسبه نسبت خطر به صورت دستی برای متغیر کمکی پیوسته
|
51241
|
چندین سوال مشابه بدون پاسخ پیدا کردم. اما به هر حال به آن ضربه می زنم. من در تلاش برای یافتن داراییها (سهام) هستم که با هم ادغام شدهاند، از آنجایی که آزمون انگل گرنجر ممکن است باعث ایجاد رگرسیون کاذب شود، در چندین مقاله پیشنهاد شده است که از آزمون یوهانسن نیز برای اطمینان از یکپارچگی طولانیمدت استفاده کنید. حتی با وجود اینکه من هیچ دوره ای را در تحلیل سری های زمانی گذرانده ام، هنوز درک آزمون انگل-گرنجر چندان دشوار نبود. از طرف دیگر، آزمون یوهانسن کمی چالش برانگیزتر بود، بنابراین سعی می کنم بفهمم نتایجی که در matlab ارائه می کنید چگونه تفسیر می شود. بنابراین وقتی آزمایش بردار nx2 را در Matlab اجرا می کنم، یک ماتریس 1x2 در نتیجه با ورودی های true یا false دریافت می کنم. بنابراین سوال این است که چه زمانی می توانم این فرضیه را رد کنم/نه رد کنم. ************************ خلاصه نتایج (آزمون 1) داده ها: حجم نمونه موثر: 13 مدل: H1 تاخیر: 0 آمار: ردیابی سطح معنی داری: 0.05 # r h stat cValue pValue eigVal 0 1 23.6646 15.4948 0.0031 0.7486 1 1 5.7169 3.8415 0.0170 0.3558 h = r0 r1 t1 pValue واقعی = r0 r1 t1 0.0031234 0.016977 آمار = r0 r1 t1 23.665 5.7169 r14 rValue = mles = r0 r1 t1 [ساختار 1x1] [ساختار 1x1]
|
چگونه تست یوهانسن را تفسیر کنم؟ (متلب)
|
55419
|
من واقعا قدردانی می کنم. من دو اندازه گیری متوالی از شدت بیماری $(s_1، s_2)$ دارم که به همراه یک اندازه گیری نتیجه ($y$) به طور ناقص مشاهده شده اند. من سعی میکنم تخمین بزنم که آیا تغییر در اندازهگیری $(d = s_2 - s_1)$ چیزی به مدلی بر اساس اندازهگیری دوم $s_2$ به تنهایی اضافه میکند یا خیر. یک عارضه اضافی وجود دارد در این که شدت اندازه گیری بیماری امتیازی است که از طبقه بندی 10 اندازه گیری مداوم فیزیولوژی ($x_1,x_2...x_{10}$) و وزن دادن به آنها بدست می آید. این مفید است زیرا روش بالینی استانداردی است که در آن شدت گزارش می شود و متغیرهایی را که همیشه به صورت خطی با بقا مرتبط نیستند کنترل می کند (مثلاً فشار خون بسیار بالا یا بسیار پایین چیز بدی است --- شما بهترین حالت را دارید. وسط). من سعی کرده ام از انتساب چندگانه با فرض MAR در Stata 12 استفاده کنم. بنابراین مدل نهایی $y=\alpha + \beta_1s_2+\beta_2d+e$ خواهد بود. با این حال، من فکر میکنم چندین استراتژی انتساب مختلف وجود دارد و مطمئن نیستم که کدام درست است. 1. من از فیزیولوژی خام در مدل انتساب استفاده می کنم و سپس وزن ها را استخراج می کنم. 2. ابتدا وزنهای فردی ($x_1,x_2...x_{10}$) را استخراج میکنم و سپس از آنها در مدل انتساب استفاده میکنم. 3. من از نمره کل در مدل انتساب استفاده می کنم. من میدانم که استفاده از تبدیل یک متغیر در مدل نهایی پس از انتساب (به عنوان مثال $x^2$ زمانی که فقط $x$ را در انتساب وارد کردهاید) اثر $x^2$ را به صفر میرساند. من مطمئن نیستم که آیا در مورد یک طبقه بندی و جمع بندی نیز چنین است؟ در این صورت، من فرض می کنم (2) بهترین گزینه خواهد بود. در غیر این صورت (1) به نظر من بهترین است. من قبلاً (3) را تخفیف داده ام زیرا به نظر می رسد مقدار زیادی از غنای داده ها را از دست می دهد. پیشاپیش ممنون
|
تخمین با تبدیل متغیرها پس از انتساب چندگانه
|
110025
|
من متعجب بودم که سناریوی OLS زیر چه معنایی دارد: یک متغیر درون زا است (یعنی با عبارت خطا در ارتباط است) اما از نظر آماری معنادار است. از طرف دیگر، اگر در OLS، یک بار دیگر، متغیر برونزا و در عین حال از نظر آماری بیاهمیت باشد، چه میشود (اگرچه رگرسیون کلی واقعاً از نظر آماری معنیدار است - مثلاً با یک آزمون F). با تشکر
|
متغیر درون زا و معنی داری آماری در OLS؟
|
51249
|
فرض کنید من نوعی توزیع دارم که احتمال مشاهده یک مقدار معین را می دهد (فرض کنید که این توزیع **نرمال** نیست). اکنون، من یک مشاهده خاص دارم و میخواهم محاسبه کنم که چقدر احتمال دارد که مقداری را مشاهده کنیم که در این توزیع به همان اندازه یا شدیدتر است. بنابراین، من به این فکر می کنم که این کار را به صورت تجربی با تبدیل مشاهده خود به یک چندک و محاسبه احتمال به صورت تجربی تحت توزیع: quantile_distribution <quantile_observation and quantile_distribution > abs(1 - quantile_observation) انجام دهم، مطمئن نیستم که آیا این روش معتبری برای این کار را انجام دهید، اما برای قسمت دوم فرض می کنم که اینطور است. حالا، اینجاست که قضیه کمی پیچیدهتر میشود: مشاهدات من نوعی خطای اندازهگیری مرتبط با آن دارد. من می توانم این خطا را با توزیع احتمال مدل کنم (این بار تقریباً طبیعی است). با توجه به این اسپرد، چگونه می توانم یک p-value را مانند بالا محاسبه کنم (یا آیا توزیعی از p-value است که من هرگز ندیده ام)؟ من چیزی را با هم هک کردهام که در آن p-value را از مشاهده میانگین و 95٪ CI در توزیع اول میگیرم و سپس فقط حداکثر را میگیرم و آن را گزارش میدهم، اما بدیهی است که باید راه بهتری برای انجام آن وجود داشته باشد.
|
احتمال مشاهده یک اندازه گیری با خطا در یک توزیع غیر نرمال
|
65388
|
این اطلاعاتی است که من دارم: * متغیر پاسخ: شامل نسبتها است و مقادیر گسسته 0، 0.2، 0.4، 0.6، 0.8، 1 را میگیرد. اما 109 مقدار گسسته ممکن وجود دارد * متغیر پیشبینیکننده.1: گسسته و ترتیبی. این شامل این مقادیر 10، 20، 30، 40 است. * متغیر پیش بینی کننده.2: گسسته و غیر ترتیبی. حاوی این مقادیر 'a'، 'b'، 'c' است. نه عادی بودن (بررسی شده با کولموگروف-اسمیرنوف و با نگاه کردن به یک طرح qq) و نه همسویی (با فلیگنر و با نگاه کردن به طرح بررسی شده) رعایت نمی شود. برای استنباط اینکه آیا هر یک از دو متغیر پیش بینی بر متغیر پاسخ من تأثیر می گذارد، از کدام مدل استفاده کنم؟ در مورد رگرسیون لجستیک چطور؟ آیا کار خواهد کرد؟
|
از کدام مدل استفاده کنم؟ رگرسیون لجستیک؟
|
51242
|
من مجموعه ای از داده ها را دارم که خوانش های دوره ای را نشان می دهد. دادهها روند صعودی را نشان میدهند، اما من باید تفاوت آماری را از صفر آزمایش کنم. من معتقدم که باید از آزمون t دو دنباله استفاده کنم، اما برای مجموعه داده دوم از چه چیزی استفاده کنم؟ صفر، مقدار شروع؟ 0.2245 0.243 0.2312 0.1795 0.1923 0.17 0.2025 0.2059 0.2394 0.205 0.2201 0.2261 0.1817 0.212143 0.212430. 0.228 0.2292 0.2236 0.2096 0.2258 0.2155
|
تفاوت آماری با صفر
|
107947
|
به عنوان عنوان، من یک ماتریس همبستگی در دسترس دارم با تابع cor() corMatrix<-cor(mydata) corMatrix یک ماتریس 98 در 98 است که مقادیر همبستگی مثبت و منفی را ذخیره می کند. من می خواهم ارزیابی کنم که کدام مقادیر همبستگی در بین همه همبستگی ها معنادار است. تست جایگشت برای انجام این کار پیشنهاد شده است. چگونه یک تست جایگشت بر روی ماتریس همبستگی انجام دهیم؟ چگونه می توان مقادیر p را برای هر مقدار همبستگی برآورد شده بدست آورد؟ بسته ای پیشنهاد شده است؟ یا پاسخ با کد کار به خوبی قدردانی خواهد شد.
|
آزمون های جایگشتی ماتریس همبستگی در R، کدام همبستگی معنادار است؟
|
96946
|
من در حال خواندن یک کد برای روش خوشه بندی بیزی هستم. هم پیشین و هم احتمال به طور معمول توزیع می شوند. اگر درست متوجه شده باشم به چنین مواردی پیشین مزدوج می گویند. سوال من در مورد محاسبه میانگین و واریانس پسین است. بنابراین در کد به صورت زیر پیادهسازی میشود d = nrow (data.i)##تعداد ویژگیها n = ncol (data.i)##تعداد تکرار برای هر ویژگی Smatrix = ماتریس (1, nrow=d, ncol=) د)##همبستگی صفات Imatrix = Smatrix - 1 diag (Imatrix) = 1 precision = حل (sdWICluster^2 * Smatrix + sdTSampling^2 * Imatrix) #معکوس کردن ماتریس همبستگی قبلی (prior.precision) prior.mean = cluster.mean # میانگین هر خوشه sample.precision = sdResidual^(-2) * نمونه Imatrix. mean = اعمال (data.i, 1, mean)#mean برای هر خوشه post.cov = حل (as.matrix(prior.precision + n*sample.precision)) # ماتریس کوواریانس خلفی post.mean = as.vector (post.cov %*% (prior.precision %*% precision.mean + n*sample.precision %*% sample.mean)) # خلفی از میانگین که به نظر میرسد کد فرمول زیر را دارد، $\mu_{po} = C_{po}\times((\mu_{pr} \times \tau_{pr})+(n\times\tau_{li}\times\mu_{li})) $C_{po} = \tau_ {pr} + n\times\tau_{li}$ همانطور که گفتم، این مورد مزدوجهای توزیعهای نرمال با میانگین ناشناخته اما واریانس شناخته شده است. با این حال، با فرمولی که من از اینجا دارم مطابقت ندارد. (یا ممکن است با چشم من قادر به گرفتن نیست). اگر کسی در مورد کد و فرمول نظر بدهد ممنون می شوم
|
درک پیاده سازی مزدوج عادی در R
|
61155
|
من پستهای دیگری را در مورد انجام تحلیل عاملی (FA) با متغیرهای دوگانه خواندهام و اگرچه به نظر واضح است که FA به روش پیشفرض انجام شده مناسب نیست، اما هنوز در مورد چند چیز نامشخص هستم. من 7 متغیر دارم که پاسخ بله/خیر هستند. آنها عملکرد مردم را ارزیابی می کنند (به عنوان مثال، بله / خیر، مشارکت با سیستم قضایی بله / خیر و غیره). من میخواهم این پاسخها را ترکیب کنم تا دو متغیر داشته باشم که حوزههای عملکردی را نشان میدهند (به عنوان مثال، شغلی و اجتماعی). من حدس می زنم که سه نفر از آنها شغلی و 4 نفر از آنها اجتماعی باشند. من میخواهم کاری مشابه فدراسیون فوتبال برای تأیید این موضوع انجام دهم. من فقط به SPSS دسترسی دارم (و فقط با این بسته آشنا هستم) بنابراین به دنبال راهنمایی برای انجام این کار با SPSS هستم. آیا به جای پیرسون ها یک FA با همبستگی های تتراکوریک انجام دهم (این کار چگونه انجام می شود؟)؟ یا آیا می توانم تحلیل صفات پنهان را در SPSS انجام دهم؟ من به طور خاص به دنبال مراجع با دستورالعمل های گام به گام هستم.
|
یافتن متغیرهای پنهان در 7 متغیر دوگانه
|
55413
|
در این مقاله وبلاگ مثالی ارائه شده است که می توان از DFT برای تشخیص فرکانس های بسیار بالاتر از نرخ نمونه استفاده کرد. در بخش نظرات پرسیدم که چگونه این کار انجام شد، زیرا DFT به طور معمول به داده های نمونه گیری یکنواخت نیاز دارد. نویسنده وبلاگ به طور خلاصه پاسخ داد: > هنوز هم می توان DFT را متناسب با > > $$ X(\nu) = {1 \over N} \sum x_n e^{-i 2 \pi \nu t_n} تعریف کرد. $$ چگونه می توان این کار را انجام داد؟ من برای انجام این کار دقیقاً راهنمایی می خواهم. اگر از روش جبرانسازی داده Ferraz-Mello 1 استفاده کنم، میتوانم مثال را تکرار کنم، اما نویسنده وبلاگ میگوید که معمولاً DFT با استفاده از آن اشاره کار میکند. 1 http://articles.adsabs.harvard.edu/cgi-bin/nph- iarticle_query?1981AJ.....86..619F&data_type=PDF_HIGH&whole_paper=YES&type=PRINTER&filetype=.pdf
|
تبدیل فوریه گسسته و نمونه برداری ناهموار
|
110029
|
# مشکل من میخواهم احتمال انتخاب ماشین یا ترانزیت توسط کاربر را به عنوان حالت حملونقل تخمین بزنم. خروجی رگرسیون لجستیک ساده در زیر آمده است:  من می خواهم احتمال انتخاب خودرو (خودکار) را در صورت INVT برای خودکار تخمین بزنم. = 3، INVT برای حمل و نقل = 7، OVT برای خودکار = 1، OVT برای حمل و نقل = 2.5، OPC برای خودکار = 2 و کرایه حمل و نقل = 3. # آنچه من امتحان کردم برای احتمال انتخاب ماشین وقتی کاربر صاحب ماشین است و در حومه شهر کار می کند، از INVT برای خودکار، OVT برای خودکار، OPC برای خودکار و کرایه حمل و نقل به همراه AO به عنوان 1 و DW به عنوان 0 استفاده می کنم. > احتمال = Pr = exp(1.45 - (0.00897*3) -(0.0308*1) - (0.0115*2) > -(0.00708*3) +(0.77 * 1) - (0.561*0))/(1+exp(1.45 - (0.00897*3) -(0.0308*1) > - (0.0115*2) -(0.00708* 3) +(0.77 * 1) - (0.561*0))) > > Pr = 0.893 # سوال آیا این روش درستی برای یافتن این احتمال است؟ یا باید INVT، OVT و OPC را برای حمل و نقل نیز وارد کنم؟
|
سوالات رگرسیون لجستیک ساده
|
93079
|
من از igraph و statnet برای انجام بیشتر تحلیلهای شبکهام استفاده کردهام، اما سعی میکنم نتایجی را که از MPNet (یک بسط PNet) برای انجام برخی شبیهسازیها در یک شبکه چند سطحی استفاده میکنم، تکرار کنم. امیدوارم کسی با PNet یا MPNet تجربه داشته باشد و بتواند پیشنهادی ارائه دهد. من چندین شبیهسازی از شبکههای کوچک را اجرا کردهام، و خروجی هر شبیهسازی خاص واقعاً نمیتواند به راحتی در igraph و statnet در خارج از وارد کردن دستی شبکهها و ویژگیهای بصری هر رأس تجسم شود. این برای من مشکل ساز است زیرا می خواهم شبکه های بزرگ (n>20 در هر سطح) را شبیه سازی کنم. با این حال، به نظر میرسد که خروجی به شکلی که نوشته شده است به تصویر کشیده میشود (پایین را ببینید)، اما من مطمئن نیستم که برای چه برنامهای در نظر گرفته شده است و نمیتوانم راهنماهای MPNet (یا PNet) موجود را به صورت آنلاین پیدا کنم. **سوال من این است:** آیا راهی برای استفاده از خروجی MPNet برای شبیه سازی خاص برای تجسم شبکه ای که در حال شبیه سازی است بدون وارد کردن دستی در هر شبکه و ویژگی های بصری در یک بسته وجود دارد؟ یا به عبارت دیگر آیا طراحان MPNet با خروجی خود مقصدی را در نظر داشتند؟ * * * تصویر زیر یک نمایش سریع MSPaint از این شبکه شبیه سازی شده چند سطحی 10 رأس است (زیرا همه ما در زندگی خود به کمی MSPaint نیاز داریم):  من چهار فایل متنی خروجی برای یک شبیهسازی خاص دارم (پیشاپیش برای حجم زیاد خروجی پوزش میطلبم): شبکه A: *راس 5 1 کادر ic Blue bc سیاه 2 جعبه ic آبی bc سیاه 3 جعبه ic آبی bc سیاه 4 جعبه ic آبی bc سیاه 5 جعبه ic آبی bc سیاه *ماتریس 0 1 1 1 1 1 0 0 0 0 1 0 0 1 1 1 0 1 0 1 1 0 1 1 0 تراکم 0.7000 درجه توزیع(های) میانگین درجه 1.4000 Stddev 1.9105 چولگی 0.8547 ضریب(های) خوشه بندی جهانی 0.8000 شبکه B: *رئوس 5 1 بیضی ic قرمز bc سیاه 2 بیضی ic قرمز bc سیاه سیاه 3 bc بیضی ic قرمز قبل از میلاد سیاه 5 بیضی ic قرمز bc مشکی *ماتریس 0 0 1 0 0 0 0 1 0 1 1 1 0 1 1 0 0 1 0 0 0 1 1 0 0 تراکم 0.5000 درجه توزیع(ها) S.8 میانگین درجه Std31.61 ضریب(های) خوشه بندی جهانی 0.3750 شبکه X: *رئوس 10 5 1 جعبه ic آبی bc سیاه 2 جعبه ic آبی bc سیاه 3 جعبه ic آبی bc سیاه 4 جعبه ic آبی bc سیاه 5 جعبه ic آبی bc سیاه 6 بیضی ic قرمز bc سیاه 7 بیضی ic قرمز bc سیاه 8 ellipse ic قرمز bc سیاه 9 ellipse ic قرمز bc سیاه 10 بیضی ic قرمز bc سیاه * لبهها 1 6 1 9 3 7 3 8 3 9 3 10 4 6 4 7 4 8 5 8 5 9 تراکم 0.4400 Degre(e ث) میانگین درجه A 2.2000 Stddev A 1.4832 Skewness A -0.2648 میانگین درجه B 2.2000 Stddev B 0.8367 Skewness B -0.2459 ضریب خوشه بندی جهانی 0.2667 شبکه M: * رئوس 10 1 جعبه ic ic جعبه آبی bc سیاه 2 قبل از میلاد سیاه 4 جعبه ic آبی bc سیاه 5 جعبه ic آبی bc سیاه 6 بیضی ic قرمز bc سیاه 7 بیضی ic قرمز bc سیاه 8 بیضی ic قرمز bc سیاه 9 بیضی ic قرمز bc سیاه 10 ellipse ic قرمز bc سیاه *لبهها 1 2 1 c آبی 1 3 1 c آبی 1 4 1 c آبی 1 5 1 c آبی 3 4 1 c آبی 3 5 1 c آبی 4 5 1 c آبی 6 8 1 c قرمز 7 8 1 c قرمز 7 10 1 c قرمز 8 9 1 c قرمز 8 10 1 c قرمز 1 6 1 c سیاه 1 9 1 سی سیاه 3 7 1 سی سیاه 3 8 1 سی سیاه 3 9 1 سی سیاه 3 10 1 ج سیاه 4 6 1 سی سیاه 4 7 1 سی سیاه 4 8 1 سی سیاه 5 8 1 سی سیاه 5 9 1 سی سیاه *همچنین اگر کسی شهرت کافی دارد و احساس می کند نیاز است تگ های PNet و/یا MPNet را به این پست اضافه کند برای اینکه بتونه دقیق تر باشه ممنون میشم.
|
خروجی MPNet برای تجسم
|
115032
|
من به مقاله ای برخوردم که در آن نویسندگان آنالیز اجزای اصلی را بر روی داده های بیان ژن انجام دادند و ژن هایی را که بیشترین همبستگی را با مولفه اول دارند، کشف کردند و از آن لیست ژن برای تجزیه و تحلیل بیشتر استفاده کردند. آیا کسی میتواند به من بگوید چگونه موجودیتهایی (در این مورد ژنها) را که بیشترین همبستگی را با مؤلفه اول دارند، پیدا کنم؟ در اینجا پیوند به مقاله رایگان اصلی وجود دارد، و به این صورت است که آنها آن را محاسبه کرده اند: > نتایج تجزیه و تحلیل غنی سازی مجموعه ژنی از ژن هایی که بیشترین همبستگی را با > جزء اصلی 1 دارند. همبستگی ژن ها با مولفه 1 > اصلی از میانگین به SD تبدیل شد، سپس ژن هایی با > مقادیر > 1.5 (همبستگی مثبت) یا <1.5- (همبستگی منفی) > انتخاب شدند. من می توانم یک نمونه اسباب بازی از 6 نمونه و 20 ماتریس ژنی بسازم و PCA را به روش زیر انجام دهم، اما چگونه ادامه دهم: rm(list=ls()) set.seed(12345) my.mat <- matrix(rnorm(120) ,0,0.5),nrow=6,byrow=TRUE) rownames(my.mat) <- paste(s,1:6,sep=) colnames(my.mat) <- paste(g,1:20,sep=) head(my.mat) #مطمئن شوید که داده های ورودی pca.object با Z تبدیل شده اند <- prcomp(my.mat,center =TRUE,scale.=TRUE) summary(pca.object) par(mfrow=c(1,2)) plot(pca.object) biplot(pca.object) #The چرخش pca.object$rotation
|
چگونه می توان یافت که کدام متغیرها با اولین جزء اصلی همبستگی بیشتری دارند؟
|
65382
|
من از یک نسخه استاندارد رگرسیون لجستیک برای تطبیق متغیرهای ورودی خود با متغیرهای خروجی باینری استفاده می کنم. با این حال در مشکل من، خروجی های منفی (0s) بسیار بیشتر از خروجی های مثبت (1s) است. نسبت 20:1 است. بنابراین وقتی یک طبقهبندی کننده را آموزش میدهم، به نظر میرسد که حتی ویژگیهایی که به شدت احتمال خروجی مثبت را پیشنهاد میکنند، هنوز مقادیر بسیار پایین (بسیار منفی) برای پارامترهای مربوطه خود دارند. به نظر من این اتفاق می افتد زیرا نمونه های منفی زیادی وجود دارد که پارامترها را به سمت خود می کشد. بنابراین نمیدانم که آیا میتوانم وزنهایی (مثلاً به جای 1 استفاده از 20) برای مثالهای مثبت اضافه کنم. آیا اصلاً این احتمال سود دارد؟ و اگر چنین است، چگونه باید وزن ها را (در معادلات زیر) اضافه کنم. تابع هزینه به شکل زیر است: $$J = (-1 / m) \cdot\sum_{i=1}^{m} y\cdot\log(h(x\cdot\theta)) + (1- y)(1 - \log(h(x\cdot\theta)))$$ گرادیان این تابع هزینه (wrt $\theta$) این است: $$\mathrm{grad} = ((h(x\cdot\theta) - y)' \cdot X)'$$ در اینجا $m$ = تعداد موارد آزمایش، $x$ = ماتریس ویژگی، $y$ = بردار خروجی، $h$=sigmoid تابع، $\theta$ = پارامترهایی که ما سعی در یادگیری آن داریم. در نهایت من شیب نزولی را اجرا می کنم تا کمترین $J$ ممکن را پیدا کنم. به نظر می رسد پیاده سازی به درستی اجرا می شود.
|
اضافه کردن وزن برای مجموعه داده های بسیار کج در رگرسیون لجستیک
|
67148
|
یک فرض خاص این است که $e_{i} \sim N(0,\sigma^{2})$، اما من متعجب بودم که چرا از نمودار QQ برای آزمایش این فرض استفاده میکنیم زیرا توزیعهای $n$ iid برای بررسی داریم. وقتی از نمودار QQ استفاده می کنیم، آیا به دنبال عادی بودن همه باقیمانده ها در مقابل یک $e_{i}$ خاص نیستیم؟ من در مورد این فرض سردرگم هستم. آیا نمودار QQ به نحوی نشان می دهد که هر $e_{i}$ به طور معمول توزیع شده است؟
|
مفروضات رگرسیون خطی
|
25000
|
من دو مجموعه داده دارم. یکی داده های دمای روزانه و دیگری داده های مشاهده پوشش گیاهی 16 روزه (مقدار 1 ژانویه، 17 ژانویه و غیره) در طول یک سال است. اما من به مقادیر روزانه داده های مشاهده پوشش گیاهی نیاز دارم. چگونه می توان ارزش روزانه را از داده های پوشش گیاهی 16 روزه بدست آورد؟
|
چگونه مقادیر روزانه را از مجموعه داده 16 روزه در طول یک سال استخراج کنیم؟
|
93076
|
میخواستم بدانم آیا کسی میتواند به من کمک کند که چگونه ضریب را از تحلیلی که در R (بسته بقای) انجام دادهام تفسیر کنم. دادهها به درستی سانسور شدهاند، متغیر وابسته (زمان تا رویداد) تحت توزیع گاوسی مدلسازی شد و متغیر مستقل یک متغیر طبقهبندی (3 دسته) است. خروجی من به شرح زیر است: coeff se p-value -0.107 0.048 2.7x10-2 آیا کسی می تواند به من بگوید چگونه این ضریب را تحت مدل زیر تفسیر کنم؟
|
ضریب تفسیر R از Survreg(dist=gaussian)
|
61153
|
من داده های نقطه زمانی معمولی را در دو شرایط به این شکل به دست آوردم: زمان شرط وزن 0.1307857 Transf 1 0.1926429 Transf 2 0.2734286 Transf 3 0.4403571 Transf 4 0.6037143 Transf 5 0.9037143 Transf 5 0.9036429 Transf 5 0.9036429 0.1370714 Unt 1 0.2005000 Unt 2 0.2973571 Unt 3 0.4592143 Unt 4 0.8336429 Unt 5 1.3099286 Unt 6 2.1473571 من با استفاده از «آزمایش 7 در بسته Unt» تفاوت دارم دو شرط در زمان fm1 <- lme(weight~condition,random=~1|time,data=data_new) anova.lme(fm1, adjustSigma = F) این را دریافت کردم: numDF denDF F-value p-value (Intercept) 1 6 8.421439 0.0273 شرط 1 6 4.208786 0.0861 سؤالات: 1. آیا با این روش کارها را به درستی انجام می دهم تا تفاوت بین این دو شرط را در زمان آزمایش کنم؟ 2. اگر بله، مقدار p من کدام است، intercept one یا شرط؟ 3. اگر این آزمون مناسب نیست، چه جایگزین هایی وجود دارد؟
|
رگرسیون nlme و مقایسه منحنی در R. ANOVA P-value
|
93075
|
تصور کنید من یک سری زمانی برای جمعیت حیوانات و یک سری زمانی برای یک متغیر آب و هوایی در یک دوره زمانی و در همان مکان دارم. متأسفانه داده ها مشاهده ای هستند (یعنی بدون دستکاری تجربی). حال تصور کنید روند خطی کاهشی در هر دو متغیر وجود دارد (و بدون فصلی). من از قبل میدانم که این متغیرها همبستگی خواهند داشت زیرا روند زمانی مشترکی دارند (به عنوان مثال http://stats.stackexchange.com/a/8037/38125). اما آیا چیز دیگری وجود دارد که بتوانم از این داده ها استنباط کنم؟ من به دنبال یک توضیح مفهومی سطح پایین هستم که آیا این امکان پذیر است و چرا. من 2 فکر در مورد چگونگی انجام این کار دارم، اما به تنهایی نمیدانم که آیا یکی از آنها معتبر است یا نه... 1) پسرفت جمعیت در برابر زمان و متغیر آب و هوا، یا 2) Detrend هر دو جمعیت و «متغیر آب و هوا» و پسماندههای آنها در برابر یکدیگر، میتوانم جزئیات بیشتری را در صورت لزوم ارائه کنم، اما میخواهم این پست اصلی را مختصر نگه دارم. با تشکر از کمک شما!
|
تبیین یک سری زمانی - توضیح مفهومی مورد نیاز است
|
64474
|
من باید ثابت کنم که $X$ از توزیع $F$ با احتمال $1-p$ و یک توزیع $G$ با احتمال $p$ تبعیت می کند اگر، و فقط اگر، تابع توزیع آن: $(1-p)F + باشد. pG$ آیا کسی می تواند به من نکاتی در مورد چگونگی اثبات این موضوع بدهد؟ **EDIT2**: این دومین برداشت من بر اساس نظرات است: $$F_p(x)=Pr(X\le x)=\int_{-\infty}^x dF_p(x)=(1-p)\ int_{-\infty}^xdF(x)+p \int_{-\infty}^xdG(x) = (1-p)F+pG$$ اما من هستم مطمئن نیستم که آیا این یک مدرک معتبر است یا خیر
|
اثبات اولیه مدل های مخلوط
|
56421
|
من روی یک آزمایش یادگیری ماشین کار میکنم که استفاده از چندین طبقهبندی شبکه عصبی مختلف را با استفاده از آنها بر روی تعداد زیادی مجموعه داده، با استفاده از اعتبارسنجی متقاطع ۱۰ برابری، مقایسه میکند. من عملکرد را به عنوان میانگین خطاهای مجموعه اعتبارسنجی (که گاهی اوقات به عنوان مجموعه آزمایشی نامیده میشود) رویه اعتبارسنجی متقاطع 10 برابری اندازهگیری میکنم. سوال من این است که آیا استفاده از همین مجموعه اعتبار سنجی برای توقف زودهنگام روند آموزشی خوب است؟ این توقف اولیه با اعمال مدل آموزشدیده بعد از هر دوره در مجموعه اعتبارسنجی و اندازهگیری عملکرد انجام میشود، و اگر برای تعدادی از دورههای یادگیری متوالی کاهش یابد، یادگیری متوقف میشود و دورهای را میگیریم که آخرین دوره را ایجاد کرده است. عملکرد خوب این می تواند برای تمام تکنیک های مختلف، و در تمام مجموعه داده های مختلف اعمال شود. آیا این خوب است؟ یا از نظر آماری دقیق نیست؟
|
آیا تعیین توقف اولیه با استفاده از مجموعه اعتبارسنجی در اعتبارسنجی متقاطع 10 برابری مشکلی ندارد؟
|
61151
|
من چندین بار آزمایش جایگشت را روی مجموعه داده های مختلف انجام می دهم، هر بار فقط نگران مقادیر قابل توجه $p$ هستم. برای کاهش زمان محاسبات، آیا درست است که این نوع قانون توقف را معرفی کنیم: پس از تعداد معینی جایگشت $N$ بررسی کنید که آیا $p$ بزرگتر از یک مقدار خاص است یا خیر. بنابراین، برای مثال، اگر $p>0.1$ بعد از $N$=200 جایگشت، حد پایینی 95% فاصله اطمینان بیشتر از $0.05 خواهد بود. بنابراین، محاسبات را می توان متوقف کرد زیرا $p$ واقعی قابل توجه نیست. فقط می خواهم مطمئن شوم که این کار را درست انجام می دهم. متشکرم.
|
یک قانون توقف برای تست جایگشت
|
61150
|
من چهار نمونه $x_1، x_2$ و $y_1، y_2$ با $n_{x1} \neq n_{x2} \neq n_{y1} \neq n_{y2} $ دارم. من با استفاده از آزمون مجموع رتبه Wilcoxon محاسبه کردم که $x_1$ به طور قابل توجهی با $x_2$ و $y_1$ تفاوت قابل توجهی با $y_2$ دارد. با این حال، میخواهم آزمایش کنم که آیا تفاوت $x_1 - x_2$ به طور قابلتوجهی با $y_1 - y_2$ متفاوت است یا خیر، اما نمیدانم با توجه به اندازههای نمونه نابرابر چگونه این کار را انجام دهم. هر گونه ایده یا پیشنهاد واقعا قدردانی خواهد شد.
|
مقایسه تفاوت بین جفت نمونه با اندازه نابرابر
|
96588
|
تنها چیزی که من در مورد نورون های فازی فهمیدم این است که عملکرد فعال سازی نورون با برخی عملیات استفاده شده در فازی جایگزین شده است. به غیر از این، من از مقاله علمی که پیدا کردم چیز زیادی متوجه نشدم. همچنین، به دلیل نام آن، جستجو کردن آن در گوگل سخت است، که منجر به فهرست کردن برخی از سیستمهای فازی یا ANN یا ترکیبی میشود، چیزی که من به دنبال آن نیستم. آیا چیزی بیشتر از آنچه در بالا توضیح دادم برای نورون های فازی وجود دارد؟ همچنین، من کنجکاو هستم، ** چه زمانی و چگونه از آن استفاده کنم **؟ و آیا اگر بخواهم از نورون فازی استفاده کنم، **تغییر دیگری در ساختار یا محاسبات شبکه عصبی وجود دارد که نیاز به پیاده سازی داشته باشد**. اگر کسی مطلب خوبی در این زمینه دارد، لطفا لینک دهد. من واقعاً برای پیدا کردن چیزی در این زمینه مشکل داشتم. ویرایش: عنوان مقاله ای که ذکر کردم: ترکیب شبکه های عصبی و منطق فازی برای برنامه های کاربردی در شناسایی char. نوشته آن ماگالی د پائولا کانوتو. دانشگاه کنت دیگر نمی توانم لینک آن را پیدا کنم، سال گذشته آن را پیدا کردم. اما این عنوان است. نورون فازی در بخش 1.4 ذکر شده است.
|
نورون فازی چیست؟
|
65383
|
من دو تکنیک مرتبسازی جدید را با استفاده از زبان C ایجاد کردهام. من باید عملکرد هر دو روش مرتب سازی را با هم مقایسه کنم تا ببینم کدام یک بهتر از دیگری است. برای انجام این کار، از داده های ورودی مختلف، از n = 500 تا n = 2500 استفاده کردم. برای هر داده ای که باید مرتب شود، آنها را 10 بار اجرا می کنم و میانگین، انحراف استاندارد و همچنین ضریب تغییرات را دریافت می کنم. نمونه ای از نتایج در زیر نشان داده شده است: n دقیقه حداکثر میانگین SD CV 500 24.07 24.52 21.28 0.11 0.47 1000 52.41 52.83 52.67 0.13 0.25 فقط برای اینکه بپرسم، آیا می توانم هر آزمایش را فقط 10 بار بیشتر اجرا کنم؟ اگر آنها را 50 بار اجرا کنم، نتایج بسیار نزدیک است و تقریباً همان CV را به دست میآورم. نتایج فوق در هنگام اجرای اولین تکنیک مرتب سازی به دست آمد. آیا می توانم بگویم 10 بار برای گرفتن نتیجه خوب است؟ من نمی دانم از چند نمونه برای آزمایش یک داده خاص استفاده کنم. آیا کسی می تواند برای این تحلیل خاص کتاب خواندنی خوبی پیشنهاد کند؟
|
ضریب تغییرات برای مقایسه زمان اجرای دو الگوریتم
|
65386
|
من دو مدل دارم - یکی شامل یک متغیر کمکی طبقهای به عنوان یک اثر ثابت، دیگری شامل آن به عنوان یک اثر تصادفی است: require(nlme) set.seed(123) n <- 100 k <- 5 cat <- as.factor( rep(1:k، n)) cat_i <- 1:k # intercept در هر دسته x <- rep(1:n، هر = k) سیگما <- 0.2 آلفا <- 0.001 y <- cat_i[cat] + آلفا * x + rnorm(n*k، 0، سیگما) نمودار (x، y) m2 <- lm(y ~ cat + x) خلاصه (m2) m3 <- lme(y ~ x، تصادفی = ~ 1|گربه، na.action = na.omit) خلاصه (m3) به عنوان می توانید ببینید، هر دو مدل «m2» و «m3» دقیقاً تخمین ضریب یکسانی را برای x (از جمله SE) تولید می کنند. همچنین خطای استاندارد باقیمانده نیز یکسان است. هنگامی که من برخی از دادههای از دست رفته را شبیهسازی میکنم، همین نتیجه حاصل میشود: # شبیهسازی دادههای گمشده y[c(1:(n/2)، (n*k-n/2):(n*k))] <- NA m2 <- lm (y ~ cat + x) خلاصه (m2) m3 <- lme(y ~ x, تصادفی = ~ 1|cat, na.action = na.omit) خلاصه (m3) بنابراین آیا می توانیم به طور کلی بگوییم که افزودن اثر به صورت تصادفی بر سایر ضرایب و استنتاج کلی همان تأثیری را خواهد داشت که اضافه کردن آن به صورت ثابت است؟ اگر نه، لطفاً یک مثال ساده ارائه دهید (یا نمونه ارائه شده را تغییر دهید) در صورت عدم موفقیت؟
|
آیا اثر تصادفی همیشه همان اثر ثابت را ایجاد می کند؟
|
65384
|
من دادههای درون بازی کاربران را تجزیه و تحلیل میکنم تا مدل کنم که آیا آنها کاربر پولی خواهند بود یا خیر. مدل من این است: مدل رگرسیون لجستیک lrm (فرمول = تبدیل به پرداخت ~ x1 + x2 + x3 + x4 + x5 + x6، داده = sn، x = TRUE، y = TRUE) مدل احتمال تبعیض رتبه تبعیض. شاخصهای تست نسبت شاخصها Obs 1e+05 LR chi2 1488.63 R2 0.147 C 0.774 0 99065 d.f. 6 گرم 1.141 Dxy 0.547 1 935 Pr(> chi2) <0.0001 گرم 3.130 گاما 0.586 حداکثر | مشتق| 8e-09 gp 0.011 tau-a 0.010 Brier 0.009 Coef S.E. Wald Z Pr(>|Z|) Intercept -6.7910 0.0938 -72.36 <0.0001 x1 0.0756 0.0193 3.92 <0.0001 x2 0.0698 0.0091 7.64 0.02 x 0.0001 <0.0001 11.05 <0.0001 x4 0.0172 0.0057 3.03 0.0024 x5 0.0304 0.0045 6.82 <0.0001 x6 -0.0132 0.0042 -3.17 0.0042 -3.17 0.004 x5 از جمله تست من ایجاد شد. 8 9 x2 10 10 x3 250 250 x4 6 6 x5 2 2 x6 0 1 سپس احتمال اینکه کاربر test1 تبدیل به یک کاربر پولی شود %07 و %0.84 برای test2 است. با این حال من می خواهم احتمالات تجمعی را محاسبه کنم مانند کاربرانی که مقادیر x1 آنها بزرگتر از 8 است، مقادیر x2 بین 10 تا 20 و غیره است. آیا راهی برای محاسبه این وجود دارد؟ با تشکر
|
احتمالات پیشبینیشده تجمعی در رگرسیون لجستیک
|
51869
|
من در تلاشم تا مشخص کنم که چرا مردم می پرسند که آیا یک مدل خطر مراقبت بهداشتی (برای اقامت در بستری، یا به دست آوردن یک بیماری یا هر نتیجه ای) یک مدل خطر جمعیت است یا یک مدل خطر فردی. این در یک محیط بالینی است که در آن نتیجه یک رویداد پزشکی است و متغیرهای کمکی سابقه سلامت شخصی و جمعیت شناسی است. خطر در اینجا نتیجه (نتیجه) است که توسط برخی طبقه بندی کننده های باینری تعیین می شود. من می دانم که ممکن است تاکید متفاوتی بر روش ارزیابی کیفیت مدل وجود داشته باشد. برای یک مدل ریسک فردی شاید مهمتر باشد که واریانس کوچکی از امتیاز یک فرد داشته باشد و این معیار توسط AUC مدل یا سایر معیارهای دقت سنتی بدست نیامده است. آیا این دلیل اصلی تفاوت است؟ اگر این مدل با مشاهدات تاریخچه سلامت افراد ایجاد شود، بنابراین ردیفهایی در مدل افراد هستند، آیا این لزوماً یک مدل خطر فردی است؟ اگر نه چرا نه؟ با تشکر
|
چه چیزی یک مدل ریسک جمعیت را در مقابل مدل ریسک فردی متمایز می کند؟
|
64476
|
هنگام استفاده از مدلهای خطی میتوانم به «انواع» آزمایشهای چندگانه فکر کنم، به عنوان مثال: 1. استنتاجهای چندگانه به این دلیل که چندین متغیر وابسته داریم 2. استنتاجهای چندگانه چون چندین متغیر مستقل داریم. اجرای یک آزمون فقط بر روی مقایسه هایی که احتمالاً ممکن است به مقدار p.value قابل توجهی منجر شود. 4. اجرای چندین آزمایش مختلف بر روی یک داده. (یک LM را امتحان کنید، اگر معنی دار نیست، یک GLM را امتحان کنید، اگر باز هم معنی دار نیست، یک رگرسیون بتا را امتحان کنید، و غیره.) ویکی پدیا می گوید: > [...] مشکل تست چندگانه زمانی رخ می دهد که یک مجموعه از > آماری را در نظر بگیریم. استنتاج به طور همزمان یا _استنتاج زیر مجموعه ای از پارامترها > بر اساس مقادیر مشاهده شده انتخاب شده است. آیا قسمت اول آنچه ویکیپدیا میگوید شامل دو نقطه اول من میشود و بخشی که به صورت مورب (بعد از «یا») قرار میدهم، معادل نقطه سوم من است؟ آیا این درست است که نکته 4 من ربطی به آنچه ما تست چندگانه می نامیم ندارد؟ اگر سوال من خیلی مبهم است، ممکن است آن را به این صورت بازنویسی کنم: ** چه زمانی مشکل چندتایی رخ می دهد؟ چگونه رویدادهای احتمالی آزمایش چندگانه را (در صورت نیاز) دسته بندی می کنید؟**
|
چه چیزی را تست چندگانه می نامیم؟
|
65385
|
همیشه به من آموختهاند که اثرات تصادفی فقط بر واریانس (خطا) تأثیر میگذارند، و اثرات ثابت فقط بر میانگین تأثیر میگذارند. اما من مثالی پیدا کرده ام که در آن اثرات تصادفی بر میانگین نیز تأثیر می گذارد - تخمین ضریب: نیاز(nlme) set.seed(128) n <- 100 k <- 5 cat <- as.factor(rep(1:k، هر = n)) cat_i <- 1:k # رهگیری در هر دسته x <- تکرار(1:n، k) سیگما <- 0.2 آلفا <- 0.001 y <- cat_i[cat] + آلفا * x + rnorm(n*k، 0، سیگما) نمودار (x، y) # شبیه سازی داده های گمشده y[c(1:(n/2)، (n*k-n/ 2):(n*k))] <- NA m1 <- lm(y ~ x) خلاصه (m1) m2 <- lm(y ~ cat + x) خلاصه (m2) m3 <- lme(y ~ x، تصادفی = ~ 1|cat, na.action = na.omit) خلاصه (m3) می توانید ببینید که ضریب تخمینی برای `x` از مدل `m1` 0.013780- است، در حالی که از مدل `m3` 0.0011713 است - هر دو تفاوت قابل توجهی با صفر دارند. توجه داشته باشید که وقتی خط شبیه سازی داده های از دست رفته را حذف می کنم، نتایج یکسان است (ماتریس کامل است). چرا اینطور است؟ PS: لطفا توجه داشته باشید که من یک آماردان حرفه ای نیستم، بنابراین اگر می خواهید با ریاضیات زیادی پاسخ دهید، لطفاً یک خلاصه ساده برای آدمک ها نیز بنویسید:-)
|
افزودن اثر تصادفی بر برآورد ضرایب تأثیر می گذارد
|
82202
|
حافظه من در مورد مزایا و معایب روش های مختلف برای کاهش روند داده های سری زمانی مبهم است. من به دنبال یک خلاصه مختصر از اینکه چرا و چه زمانی باید یا نباید از موارد زیر استفاده کرد هستم: * دادههای متفاوت * دادههای گزارش تفاوت * عبارت خطا، پس از رگرسیون روی _only_ یک سری زمانی خطی یا چند جملهای (مثلاً 0،1، 2،3،...، t)
|
مزایا و معایب: روشهایی برای کاهش روند دادههای سری زمانی
|
82209
|
بازنشر شده از Math.SE: در ادامه این سوال. با توجه به دو متغیر تصادفی $X$ و $Y$ که در آنها $X \sim \operatorname{Beta}(a, b)$ و $Y \sim \operatorname{Beta}(c, d)$، من به دنبال یک متغیر تصادفی $Z$ با توزیعی که در $[0, 1]$ پشتیبانی میشود که محدودیتهای زیر را برآورده میکند: 1. pdf $Z$ دارای تقارن بازتابی است: $f(x;a, b, c, d)=f(1-x;d, c, b, a)$ 2. اگر $\mathrm{E}[X] > \frac{1}{2} $، سپس $\mathrm{E}[Z] > \mathrm{E}[Y]$ 3. اگر $\mathrm{E}[X] = \frac{1}{2}$، پس $\mathrm{ E}[Z] = \mathrm{E}[Y]$ 4. اگر $\mathrm{E}[X] < \frac{1}{2}$، پس $\mathrm{E}[Z] < \mathrm{E}[Y ]$ 5. افزایش انتظار $X$ یا $Y$ هرگز نباید انتظار $Z$ را کاهش دهد. آیا پاسخی برای این سوال حتی امکان پذیر است؟ به نظر نمی رسد پاسخ به سوال اول من مشکل را حل کند (انتظارات خوب است، اما محدودیت پشتیبانی نقض شده است).
|
توزیع احتمال محدودیت ها را برآورده می کند؟
|
51861
|
شرکتی که من در آن کار می کنم یک نظرسنجی با یک نمونه پیچیده انجام داد. در ابتدا، نمونه یک طبقه بندی 2 مرحله ای بود، اما به دلیل برخی مشکلات، یکی از آنها را از دست دادیم (بنابراین، در نظر بگیریم که نمونه فقط روی 1 متغیر طبقه بندی شده است). بزرگترین بخش سوالات این است که به نظر شما شرکت در رابطه با X چه کاری می تواند انجام دهد؟ و سپس لیستی از گزینه ها وجود دارد (بعضی سؤالات فقط 1 پاسخ را می دهند، برخی بیش از 1، برخی دیگر گزینه های پاسخ از نوع لیکرت هستند). سوال من این است: چگونه می توانم این داده ها را تجزیه و تحلیل کنم؟ اگر تستی مانند Chi-square برای نمونه پیچیده وجود داشته باشد خوب است (احتمالا وجود دارد، اما من نمی دانم) از هر نرم افزاری استقبال می شود، اما من R و SPSS را ترجیح می دهم.
|
تجزیه و تحلیل نمونه پیچیده
|
65381
|
1. اگر مواردی که باید جمع بندی یا ترکیب شوند تا یک شاخص کلی ایجاد شود، در مجموع ساختار زیربنایی باشد (یعنی سعی می کنم انطباق با مداخله ای را که دارای اجزای مختلف است اندازه گیری کنم)، ترکیب همه اجزا برای IRT نقض کننده فرض تک بعدی بودن از آنجایی که آنها خود مداخله را نشان می دهند؟ اگر چنین است، آیا مرجعی برای این موضوع دارید؟ 2. آیا منابع خوبی وجود دارد که بگوید اگر نمرات لیکرت در یک مقیاس جمع شود و آلفای کرونباخ نسبتاً بالا باشد (~0.8)، برای استفاده به عنوان شاخص مناسب است؟ 3. آیا آزمون های اعتبار دیگری غیر از آلفای کرونباخ وجود دارد که تمام پاسخ ها را جمع کنم؟ پیشاپیش متشکرم، هر توصیه ای قابل تقدیر است!
|
نظریه پاسخ آیتم در مقابل مقیاس لیکرت جمعی
|
105065
|
اجازه دهید $X_1، X_2، ...، X_n$ یک نمونه iid تصادفی از یک جمعیت با میانگین $\theta$ باشد. حالا من در مورد شهود پشت $E(X_1| \overline X ) = \overline X$ تعجب می کنم، میانگین نمونه. اگر فقط $X_1$ (یا هر $X_i$ را برای آن موضوع در نظر بگیریم) داریم که $E(X_1) = \theta$ به عنوان مقدار مورد انتظار هر مشاهده تصادفی از یک جمعیت، میانگین جمعیت خواهد بود. اکنون با توجه به اینکه ما $\overline X$ را می دانیم چگونه ممکن است آنچه را که انتظار داریم برای $X_1$ بدست آوریم تغییر دهد؟ $X_1$ هنوز همان مشاهدات تصادفی قبلی از جمعیت است...اما به نظر میرسد که دانستن نمونه به معنای «نسخ» چیزی است که انتظار داریم برای یک مشاهده به دست آوریم... آیا این درست است؟
|
$E(X_1| \overline X ) = \overline X$، میانگین نمونه
|
65387
|
بهترین راه برای مقابله با چند نمونه در رگرسیون بردار پشتیبان، به عنوان مثال، چیست. فقط حدود 40؟ همچنین - آیا راه بهینه ای برای برخورد با موارد پرت در این موارد کم وجود دارد؟
|
پرداختن به چند نمونه در رگرسیون بردار پشتیبان
|
97312
|
من سعی کرده ام MLE را برای خلفی مفصلم تخمین بزنم. من از R و بسته stats4 استفاده می کنم. من 14 پارامتر دارم و دو تا از آنها $\geq 0$ هستند که نمی دانستم چگونه آن ها را پیاده سازی کنم (و به دلیل منهای log پسین مورد نیاز برای تابع mle داشتم NaN ایجاد می کردم) و فقط کاری کردم که خیلی بالا برگردد. مقدار (1000) اگر هر یک از پارامترها منفی بود. آیا این راه درستی برای حل این مشکل است؟ از آنجایی که من مجبور شدم هر بار پیشینم را تغییر دهم (زیرا MLE به من گفت که تخمین های قبلی من بسیار بالا بوده است) و متوجه شدم که این پارامترهای غیرمنفی به اعداد پایین (0.001 و 0.01) می رسند که در هر تکرار درست به نظر نمی رسند. بسیار پایین تر از قبل پیشنهادی مکرر من. همچنین، از آنجایی که من به دلیل ساختار مدل، قسمت عقبی دقیق را نداشتم و سعی کردم آن را به گونه ای مقیاس کنم که تخمین نقطه ای از تابع mle متصل به قسمت عقبی log، مقدار 0 را داشته باشد. آیا این تقریب برای این کار خوب است. عملکرد؟ با احترام، راکسل.
|
استفاده از MLE در R stats4
|
25007
|
من یک مجموعه داده دارم و باید این مجموعه داده را با توزیع پایدار تطبیق دهم. مشکل این است که توزیع های پایدار به صورت تحلیلی تنها در قالب تابع مشخصه (تبدیل فوریه) شناخته می شوند. چگونه می توانم این کار را انجام دهم؟
|
برازش پارامترهای یک توزیع پایدار
|
16270
|
من دادههایی دارم که شامل 2 گروه (حجم نمونه برابر در هر کدام) و دادههایی برای هر گروه در 3 نقطه زمانی است (در واقع 3 شرایط مختلف پاداش پولی هستند). من می خواهم تفاوت های گروهی را بررسی کنم. همه نقاط زمان/شرایط مهم هستند، من نقطه زمانی کنترلی ندارم. هر گونه نظری در مورد موارد زیر: 1. اگر من خیالم راحت باشد که کرویت توسط آزمون Mauchly نقض نمی شود، آیا یک آماره آزمون لامبدا F چند متغیره مناسب تر است یا یک تخمین کروی فرضی (در برآورد شرایط از SPSS)؟ 2. اگر تصمیم بگیرم با این درک پیش بروم که علیرغم اینکه نتیجه آزمایش میگوید خوب است، با فرض اینکه کروییت همچنان بیش از حد مطمئن باشد، آیا فکری در مورد گزارش بالقوه ALL تخمینهای گلخانه-گیزر بدون توجه به Mauchly یا Lambda دارید؟ من خوانده ام که این ممکن است شانس خطای نوع 1 را بدون فرض کرویت یا برابری ماتریس های کوواریانس کاهش دهد. شاید بیش از حد محتاط؟ یا، آیا تنظیم بالقوه df ها تهاجمی تر از فرض کروی بودن است؟
|
آیا از آزمون F چند متغیره، تخمین تعدیل شده df، یا کروی فرض شده در اندازه گیری های مکرر ANOVA استفاده کنیم؟
|
113628
|
ابتدا، باید ثابت کنم که توزیع یک RV X، که در آن X|lambda ~ Pois(lambda) و lambda ~ gamma(a, B)، یک دوجمله ای منفی است. می دانم که _is_ است، اما چرا به جای توزیع 2 پارامتری، دو جمله ای منفی است؟ چگونه ثابت کنم که دوجمله ای منفی در شرایط یک پواسون بیش از حد پراکنده بهترین جایگزین است، اساسا؟ سپس، من باید V(X) را محاسبه کنم. میخواهم بدانم آیا V(X) به اثبات این موضوع کمک میکند که دوجملهای منفی به عنوان جایگزین در یک پواسون بیش از حد پراکنده استفاده شود؟ من به این پست نگاه کردم و به شدت می خواهم ریاضیات @probabilityislogic را درک کنم. من با نمادهای مرتبط با مفاهیم احتمال آشنا هستم (البته نه _آن_جدید)، و نمی دانم چگونه او از خط 2 به 3 می پرد: > $λ_i∼Gamma(α,β)$ > در انجام ادغام /با مخلوط کردن روی λi، دارید: > $Y_i(t_i)|αβ∼NegBin(α,p_i)$ که در آن $p_i=\frac{t_i}{t_i+β}$
|
از قانون واریانس کل برای یافتن واریانس بدون قید و شرط پواسون بیش از حد پراکنده استفاده کنید؟
|
107511
|
من فهرستی از پارامترها را دارم که با 1-2 متغیر کمکی مرتبط هستند که میخواهم آنها را کنترل کنم. پس از عادی سازی، می خواستم مقایسه بین گروه ها، تجزیه و تحلیل همبستگی انجام دهم و احتمالاً از برخی از آنها به عنوان ویژگی در یک مدل پیش بینی استفاده کنم. مشکل این است که فکر نمیکنم بتوانم از مقادیر نرمال شده به دنبال ANOVA برای تحلیل رگرسیون (و غیره) استفاده کنم، زیرا آنها به طور پیشفرض در نتیجه ANCOVA همبستگی خواهند داشت. موافقید (یا نه)؟ چه چیز دیگری را پیشنهاد می کنید؟
|
عادی سازی در برابر متغیرهای کمکی
|
102595
|
کدام ابزارهای آماری برای این مشکل مناسبتر هستند: تیم A میرود و 3 قدر را در 200 مکان اندازهگیری میکند (اجازه دهید حجم یک اتاق، ضریب عایق و میانگین دمای بیرون اتاق را تصور کنیم). آنها برای هر اتاق انرژی مصرفی این اتاق را محاسبه می کنند تا دمای مورد نظر را برای یک هفته حفظ کند. بنابراین پس از کمپین اندازه گیری، آنها این 3 قدر را در 200 اتاق مختلف اندازه گیری کردند (هر اتاق فقط یک بار اندازه گیری می شود). بنابراین داده ها به نظر می رسد: (حجم_اتاق، ضریب r، T، برآورد_انرژی) تیم A در گرفتن نتایج بسیار خوب فرض می شود. اکنون تیم B همان 200 اتاق را اندازه گیری می کند و تمام انرژی های تخمین زده شده برای هر اتاق را محاسبه می کند. چگونه باید عملکرد تیم B را در مقابل تیم A اندازه گیری کنیم (که A دقیق فرض می شود)؟ با فراموش کردن فیزیک، زیرا فقط یک مثال گویا است، چگونه دقت یک کمپین اندازه گیری را با اندازه گیری 3 مقدار که می توان عدد چهارم را به طور قطعی محاسبه کرد، مقایسه کرد؟ توجه داشته باشید که هیچ یک از این مقادیر به روش خاصی در بین 200 نمونه توزیع نشده اند (گوسی به نظر نمی رسند) من شروع به بررسی توزیع خطاها کردم، بنابراین: {Estimated_energy_Ai - Estimated_energy_Bi} با i = 1..200 و دیدم که چگونه بسیاری از نتایج در یک انحراف استاندارد هستند. چه ابزار دیگری مناسب است؟
|
مقایسه عملکرد دو تیم که چندین متغیر را یک بار اندازهگیری میکنند
|
16278
|
پس از جراحی قلب، بیماران تشویق می شوند که به طور منظم ورزش کنند (فرض کنید ورزش منظم به عنوان ورزش در 3 روز یا بیشتر در هفته تعریف می شود). یک پزشک مشکوک است که بیماران بلافاصله پس از جراحی قلب به طور منظم ورزش می کنند، اما تمایل دارند با گذشت زمان ورزش را کاهش دهند، حتی آن را به طور کامل متوقف کنند. یک تحقیق برای تخمین میانگین تعداد هفته هایی که بیماران به طور منظم پس از جراحی قلب ورزش می کنند برنامه ریزی شده است. فرض کنید انحراف معیار (s.d) در تعداد هفتههایی که بیماران قلبی به طور منظم ورزش میکنند پس از جراحی 6.3 هفته است. الف) اگر نمونه ای از 40 بیمار قلبی پیگیری شود و تعداد هفته هایی که هر بیمار به طور منظم ورزش کرده است ثبت شود، احتمال اینکه میانگین نمونه بیش از 1 هفته از میانگین واقعی بیشتر نباشد چقدر است؟ در محدوده مرکزی، خطای استاندارد = s.d./sqrt(n) = 6.3/sqrt(40) = 0.99 X = میانگین واقعی + 1 Z = (X - میانگین واقعی) / 0.99 = (میانگین واقعی + 1 = میانگین واقعی) / 0.99 = 1/0.99 (ب) احتمال اینکه میانگین نمونه حداقل دو هفته کمتر از میانگین واقعی باشد را بیابید. برای نمونه ای متشکل از 40 بیمار قلبی. X = میانگین واقعی - 2 Z = (X - میانگین واقعی) / 0.99 = (میانگین واقعی -2 - میانگین واقعی) / 0.99 = -2/0.99 (ج) اگر نمونه به 100 بیمار قلبی افزایش یابد، احتمال چقدر است که میانگین نمونه بیش از 1 هفته بیشتر از میانگین واقعی نخواهد بود؟ همان سوال آیا کسی می تواند به من کمک کند که پاسخ هایم را بررسی کنم تا ببینم درست است یا خیر؟ لطفا تصحیح کنید و در صورت اشتباه توضیح دهید...
|
برخی تمرینات مربوط به نمونه گیری و توزیع نرمال
|
105066
|
وضعیتی وجود دارد که در زیر توضیح داده شده است که در آن من قصد دارم MLE را اعمال کنم. بیانیه مشکل این است که من مقدار X$ را تخمین می زنم. این اندازه گیری تکنیک تخمین حداکثر احتمال من به دست می آید. من این معیار را برای یک مدل AR(2) اعمال می کنم تا پارامترهای مدل AR را بیابم. نحوه اعمال و محاسبه اندازه گیری به اختصار توضیح داده شده است. با در نظر گرفتن یک مدل رگرسیون خودکار خطی (AR) که پارامترهای آن برای یافتن پارامترهای مورد نیاز است که توسط نویز سفید $\eta(t)$ خراب شده است. سوال: تاثیر نویز بر MLE چیست؟
|
تخمین پارامتر بر اساس برآورد MLE یک پارامتر دیگر
|
58890
|
توصیه استاندارد است که یک دانه تصادفی تنظیم کنید تا بتوان نتایج را تکرار کرد. با این حال، از آنجایی که دانه با ترسیم اعداد شبه تصادفی پیشرفته می شود، اگر کد _any_ یک عدد اضافی ترسیم کند، نتایج می تواند تغییر کند. در نگاه اول، کنترل نسخه راه حلی برای این به نظر می رسد، زیرا حداقل به شما این امکان را می دهد که به عقب برگردید و زمانی که نتایج را در یادداشت ها یا کاغذ خود می نویسید، نسخه موجود را بازتولید کنید. با این حال، از آنجایی که فقط یک قرعه کشی طول می کشد تا همه چیز به هم بریزد، اگر R را به روز کنید، نتایج نیز می تواند تغییر کند. من متوجه هستم که این احتمالاً فقط در موارد نادر مشکل ساز است، اما کنجکاو هستم که آیا بهترین روش در اینجا وجود دارد یا خیر. این چیزی است که من در کار خودم با آن دست و پنجه نرم کرده ام.
|
Seed را قبل از هر بلوک کد تنظیم کنید یا یک بار در هر پروژه؟
|
113597
|
بگذارید فرض کنیم که من تعدادی ویژگی دارم. من برای هر ویژگی و هر کلاس پی دی اف طراحی می کنم، برخی از آنها با هموارسازی برخی از نمونه های آموزشی هیستوگرام، برخی دیگر فقط با معرفی دانش قبلی در مورد اینکه ویژگی چگونه باید باشد. حالا می خواهم بدانم بر اساس pdf ها، محتمل ترین کلاس برای یک مشاهده مشخص کدام است. می توانم موارد زیر را بیان کنم: $$P(p_i\in C_i | F_i) = \displaystyle\frac{P(F_i | p_i\in C_i ) P(p_i\in C_i)}{\displaystyle \sum_{C_j} P( F_i |. p_i\in C_j ) P(p_\in C_j)}$$ بودن $p_i$ یک مشاهده خاص با ویژگی $F_i$، $C_i$ کلاسی که من به آن اختصاص می دهم. کاری که من تاکنون انجام دادهام این است که $P(\cdot|\cdot)$ را با تابع چگالی آن $\delta$ جایگزین کردهام، با توجه به اینکه $P(\cdot|\cdot)$ حدود $2\epsilon \delta(\cdot است. |\cdot) $ برای یک محله $[F_i-\epsilon,F_i+\epsilon]$ و من می توانم آن را لغو کنم $2\epsilon$، بنابراین من فرض میکنم که گرفتن مستقیم مقدار در تابع چگالی مجاز است. اکنون، یک ویژگی خاص وجود دارد که در آن میخواهم بگویم که برای یکی از کلاسها اهمیتی به ارزش آن در طیف بسیار وسیعی نمیدهم. این یک منطقه است، بنابراین می گویند این منطقه می تواند بین صفر و یک مقدار بزرگ باشد. به عبارت دیگر در این کلاس می توانیم هر ناحیه ای را پیدا کنیم. در کلاس دیگر، محدوده دینامیکی کوتاه تری از مقادیری که ویژگی باید بگیرد وجود دارد. مشکلی که من پیدا کردم این است که نتیجه فرمول قبل همیشه برای کلاس «مهم نیست» کمتر است زیرا توزیع یکنواخت دورتر گسترش مییابد و بنابراین ارزش pdf در هر نقطه پایین است. رفتار مورد نظر من این خواهد بود که چون اهمیت چندانی به منطقه نمیدهم، رقابت عادلانهتری بین این دو صنف وجود داشته باشد و احتمالاً برخی ویژگیهای دیگر در فرآیند طبقهبندی تصمیم نهایی را خواهد گرفت، اما از این طریق فقط میگویم. که کلاس مشکل ساز برای هر ورودی این ویژگی بسیار بعید است. می توانم $P(p\in C_i)$ را تنظیم کنم تا برای کلاس مشکل دار بالاتر باشد. با این حال، در سایر ویژگی ها این چیزی نیست که من انتظار دارم. آیا سرنخی در مورد نحوه رسیدگی به این مشکل یا ایجاد این مشکل دارید؟
|
مقایسه تراکم یک ویژگی برای کلاس های مختلف زمانی که ویژگی به یک کلاس بی ربط است
|
16276
|
من یک طرح 5*2 دارم که یکی از سطوح فاکتور اول کنترل است و بقیه شرایط آزمایشی هستند. من به تعامل بین این دو عامل علاقه مند هستم و به خصوص اگر تعامل برای هر یک از 4 شرایط آزمایشی با شرط کنترل وجود داشته باشد. من 4 ANOVA 2 x 2 جداگانه انجام می دهم که در آن هر شرط آزمایشی را با شرط کنترل در فاکتور اول جفت می کنم. به نظر می رسد که برای جلوگیری از مشکل آزمایش چندگانه نیاز به تنظیم p-value دارد، اما چه چیزی را باید تنظیم کنم؟ آیا همه مقادیر p تنظیم شده اند (دو اثر اصلی و تعامل)؟ یا فقط p-values تعامل را تنظیم کنم؟ یا جدا برای افکت های اصلی؟ خیلی ممنون
|
آیا به تنظیم p-value برای چندین ANOVA در یک مجموعه داده نیاز دارم؟
|
107517
|
در زیر تابعی است که من نوشتم تا GLM خالص الاستیک $\lambda$ و $\alpha$ را که با «cv.glmnet» پیادهسازی شده است تنظیم کنم. من متوجه شده ام که نتیجه کیفی (از نظر آلفای که کمترین امتیاز خطای پیش بینی را ایجاد می کند) بسته به دانه تصادفی تغییر می کند، و من گمان می کنم که این عمدتاً به این دلیل است که دانه تصادفی تعیین می کند که چگونه چین ها تقسیم می شوند. در یکی از مجموعه داده هایم، من فقط 598 نمونه دارم و رگرسیون کاکس را برازش می کنم. این جایی است که این اثر قویترین است (و در واقع، جایی که نوارهای خطا در مورد خطاهای پیشبینی در شبکه جستجوی $\lambda$ بزرگترین هستند). وقتی یک رگرسیون دو جمله ای را با یک مجموعه داده بزرگتر با حدود 30 هزار مشاهدات تطبیق می دهم، کمتر می پرم. به نظر می رسد تعداد چین ها چندان مهم نیست. من فقط به انتخاب $\alpha$ = 0.5 در چنین مواردی فکر می کنم، زیرا تفاوت مطلق در نمرات خطای اعتبارسنجی متقاطع اغلب بسیار کوچک است و شبکه الاستیک دارای ویژگی های استنتاجی است که باعث می شود LASSO یا برجستگی روی آنها مطلوب تر شود. خود. آیا این طرز فکر صحیح است؟ با تشکر cvglmnet2a <- تابع(x، y، خانواده، nfolds، seed) { set.seed(seed) cvfit0 <- cv.glmnet(x، y، خانواده = خانواده، آلفا = 0، nfolds = nfolds) cvfitp5 <- cv. glmnet(x، y، خانواده = خانواده، آلفا = 0.5، nfolds = nfolds) cvfit1 <- cv.glmnet(x، y، خانواده = خانواده، آلفا = 1، nfolds = nfolds) plot(cvfit1); نمودار (cvfitp5)؛ plot(cvfit0) plot(log(cvfit1$lambda)، cvfit1$cvm، pch = 19، col = قرمز، xlab = log(Lambda)، ylab = cvfit1$name) نقاط(log(cvfitp5$lambda) , cvfitp5$cvm, pch = 19, col = خاکستری) نقاط (log(cvfit0$lambda), cvfit0$cvm، pch = 19، col = آبی) افسانه(بالا، افسانه = c(آلفا = 1، آلفا = 0.5، آلفا = 0)، pch = 19، col = c (قرمز، خاکستری، آبی)) دقیقه <- c(alpha1 = min(cvfit1$cvm)، alphap5 = min(cvfitp5$cvm)، alpha0 = min(cvfit0$cvm)) دقیقه }
|
انتخاب تصادفی دانه نتایج کیفی تنظیم پارامتر شبکه الاستیک را تغییر می دهد
|
19015
|
من یک مجموعه داده با 80 رکورد، با 8 ویژگی دارم. من می خواهم یکی از ویژگی ها را در رکوردهای آینده پیش بینی کنم. ویژگی عددی و گسسته است. بین -30 تا 140 با مراحل 5 متغیر است. تا به حال می خواستم ویژگی دیگری را پیش بینی کنم که Boolean است، بنابراین از رگرسیون لجستیک استفاده کردم. در اینجا از کدام روش استفاده کنم؟ شاید نوعی فیلتر ذرات؟ با تشکر
|
چگونه می توانم یک ویژگی گسسته را با استفاده از رگرسیون پیش بینی کنم؟
|
58897
|
من سعی می کنم با استفاده از داده های نمونه برداری شده تخمین بزنم که در یک بازه زمانی معین، چند نفر یک بار، دو بار، سه بار و غیره از بازار کشاورزان بازدید کرده اند. ما دادههای مصاحبهای از حدود 50 درصد بازدیدکنندگان در هنگام ورود به بازار داریم که به ما امکان میدهد آنها را به طور منحصربهفرد شناسایی کنیم. برای اهداف این تحلیل، من فرض میکنم که مصاحبهها بهطور تصادفی 50 درصد از بازدیدها را به خود اختصاص دادهاند. در واقع مصاحبه ها تصادفی نبودند، اما من می خواهم ابتدا با یک مشکل ساده تر شروع کنم. در این مجموعه داده، می توانم تشخیص دهم که چند نفر یک بار، دو بار، سه بار و غیره بازدید کرده اند. اما، به طور شهودی، فکر می کنم ماهیت نمونه گیری باعث می شود تعداد افرادی که بیش از یک بار بازدید کرده اند را دست کم بگیرم. من این شهود را با برش تصادفی مجموعه داده به نصف چند بار آزمایش کرده ام - از مجموعه داده کامل (50٪ بازدیدها) شروع می شود، تا 6.25٪ کاهش می یابد و متوجه می شوم که مجموعه داده های بزرگتر افراد چند بازدیدکننده بیشتری را در خود دارند. زیر را ببینید). با این حال، مطمئن نیستم که چه اتفاقی می افتد که از 50 درصد بازدیدها به 100 درصد بازدیدها می رسد. آیا می توانید به من کمک کنید تا یک چارچوب آماری برای انجام آن پیش بینی ارائه کنم؟ PS - من احساس می کنم که مشکل تولد در اینجا آموزنده است، اما نمی توانم به نحوه اعمال آن فکر کنم! درصد بازدید از افرادی که حداکثر بازدید کرده اند. درصد بازدیدها یک بار دو بار سه بار نمونه برداری شد 6.25% 83% 96% 99% 12.50% 82% 96% 99% 25% 77% 94% 98% 50% 67% 88% 95% 100% ? ? ? من سعی می کنم در مورد چگونگی اعمال چارچوب بازیابی علامت گذاری که Gael ذکر شد، فکر کنم. موافقم که اگر آن را به درصد همه بازدیدهای افرادی که فقط یک بار بازدید کرده اند ساده کنم - در اصل، اندازه جمعیت بر حسب این چارچوب، شباهتی وجود دارد. چیزی که من با آن دست و پنجه نرم می کنم این است که چگونه در مورد تکنیک نمونه گیری خود فکر کنم. من می دانم که تعداد کل بازدیدها از آنجا (مثلاً 25000) است. من می دانم که از 12500 بازدیدی که ما در یک نمونه گیری مداوم 50٪ از بازدیدها علامت گذاری کردیم، حدود 10000 نفر منحصر به فرد وجود داشت که 7000 نفر یک بار علامت گذاری شدند و بقیه 2، 3 یا بیشتر بار نشان گذاری شدند. من نمی توانم این را در مدل ساده بازیابی علامت دو مرحله ای قرار دهم، و فکر می کنم باید نوعی رگرسیون پواسون (بر اساس ورودی ویکی پدیا) انجام دهم.
|
تخمین خریداران مکرر از یک نمونه گیری ناقص
|
102593
|
من چند روزی است که با این OLS ساده درگیر هستم، می توانید کمک کنید؟ سالهای نتیجه در تابع امتیاز پیشبینیکننده، مدل خطی بسیار ساده. هر چند طرح باقیمانده کاملاً خوب به نظر نمی رسد. آیا این درست است که بر اساس نمودار باقیمانده در مقابل متغیر نتیجه، بگوییم که اگر من نتیجه را 12 پیش بینی کنم، بیشتر اوقات سال های تحصیل را بیش از حد تخمین می زنم؟ در آبی OLS من نصب شده، در قرمز یک منحنی LOESS. چه کار اشتباهی انجام می دهم یا چگونه OLS را بهبود ببخشم؟  من سعی کرده ام هم پیش بینی کننده و هم نتیجه را تغییر دهم، شانسی نداشتم. آیا چیز دیگری هست که بتوانید پیشنهاد دهید؟ مشکل خاصی که من دارم این است که وقتی سن نتیجه 12 سال است پیشبینی اشتباه میکنم (جدول زیر، عمودی پیشبینیهای من هستند، افقی مقادیر واقعی). چگونه این موضوع را حل کنیم؟ 
|
نحوه درمان این OLS بر اساس تشخیص باقیمانده
|
107515
|
من فهرستی از اعدادی دارم که باید بر اساس شباهت گروه بندی کنم (تفاوت ها بین هر کدام 1 است). به عنوان مثال ، در لیستی از [198 ، 202 ، 207 ، 218 ، 219 ، 220] ، 190 در لیست قرار می گیرد ، 202 در لیست دیگری ، 207 ، در یک لیست قرار می گیرد و 218 219 220 در لیست دیگری قرار می گیرد. .
|
گروه بندی مقادیر ترتیبی در R
|
97311
|
چگونه می توانم نتایج آزمون McLeod-Li را در زیر تفسیر کنم > McLeod.Li.test(y = داده، gof.lag = 12، نمودار = FALSE)$p.values [1] 7.602866e-09 0.000000e+00 0.000000e+00 0.000000e+00 0.000000e+00 0.000000e+00 [7] 0.000000e+00 0.000000e+00 0.000000e+00 0.000000e+00 0.000000e+00 0.000000e+00 0.000000e+00 0.000000e+00. همگرایی تابع یعنی چه؟ ***** تخمین با گرادیان تحلیلی ***** I INITIAL X(I) D(I) 1 2.654366e+00 1.000e+00 2 5.000000e-02 1.000e+00 3 5.0002+10-e. 00 IT NF F RELDF PRELDF RELDX STPPAR D*STEP NPRELDF 0 1 2.042e+02 1 4 2.041e+02 7.06e-05 2.05e-04 3.0e-03 1.3e+02 1.8e-02e-02+01. 8.08e-05 1.08e-04 2.9e-03 2.0e+00 1.8e-02 6.01e-03 3 6 2.041e+02 1.03e-04 1.03e-04 2.4e-03 2.020+ 4.82e-03 4 ده 00 7.4e-01 5.03e-01 6 15 2.028e+02 6.83e-04 1.23e-03 6.3e-03 4.0e+00 2.6e-02 4.34e-02 7 16 2.028e-04 2.028e+00 -04 7.5e-03 2.0e+00 2.6e-02 9.17e-03 8 17 2.028e+02 1.47e-04 2.09e-04 1.7e-02 1.9e+00 5.2e-02 5.6907-02 5.691-02 +02 1.32e-04 1.68e-04 1.7e-02 1.8e+00 5.2e-02 1.41e-03 10 20 2.027e+02 1.59e-04 2.20e-04 4.3e-02e-010 7. 3.48e-04 11 21 2.027e+02 4.71e-05 6.10e-05 2.9e-02 0.0e+00 8.2e-02 6.10e-05 12 22 2.027e+02 1.29e-02e-06 1.305 +00 1.8e-03 1.37e-06 13 23 2.027e+02 1.92e-07 5.61e-08 3.6e-04 0.0e+00 9.3e-04 5.61e-08 14 35 2.027-2.027-2+2. e-19 3.3e-15 8.0e+08 9.1e-15 2.68e-10 ***** FALSE CONVERGENCE ***** FUNCTION 2.026871e+02 RELDX 3.290e-15 FUNC. EVALS 35 GRAD. EVALS 14 PRELDF 1.274e-19 NPRELDF 2.677e-10 I FINAL X(I) D(I) G(I) 1 1.240313e+00 1.000e+00 1.250e-03 2 1.2301010e. 1.351e-05 3 4.425966e-01 1.000e+00 2.553e-03 نتایج دیگر ***** برآورد با گرادیان تحلیلی ***** I INITIAL X(I) D(I) 1 3.736575e+00e +00 2 5.000000e-02 1.000e+00 IT NF F RELDF PRELDF RELDX STPPAR D*STEP NPRELDF 0 1 2.061e+02 1 2 1.764e+02 1.44e-01 1.610e-30+1.610e. 1.0e+00 2.69e+02 2 5 1.229e+02 3.03e-01 1.99e-01 3.7e-01 7.8e-01 2.0e+00 1.12e+00 3 7 1.010e+070e -02 1.3e-01 3.7e+00 4.0e-01 2.19e+02 4 9 6.528e+01 3.90e-01 3.24e-01 4.3e-01 8.1e+03 8.0e-01 5.81e-01 5.81e+30 +01 1.40e-01 1.37e-01 1.1e-01 8.8e+00 1.6e-01 3.40e+05 6 13 5.456e+01 2.79e-02 2.88e-02 2.1e-02+01 3.2e 4.02e+02 7 15 5.217e+01 4.39e-02 4.78e-02 4.3e-02 2.6e+00 6.4e-02 1.08e+02 8 17 5.161e+01 1.07e-02 1.94e-20-02. +00 5.7e-02 6.86e+01 9 18 5.132e+01 5.52e-03 8.37e-03 3.4e-02 2.0e+00 5.7e-02 4.83e+01 10 19 5.174+5.129e. -03 3.0e-02 2.0e+00 5.7e-02 1.14e+01 11 21 5.123e+01 1.02e-03 2.86e-03 1.1e-02 2.0e+00 2.7e-02 5.123e+01 5.12e-02 5.80 +01 3.58e-04 5.08e-04 1.5e-02 2.0e+00 2.7e-02 2.63e-03 13 25 5.121e+01 3.94e-05 6.44e-05 1.3e-04-03-02 3. 4.69e-02 14 26 5.121e+01 2.55e-05 2.88e-05 1.3e-03 3.1e+00 2.4e-03 1.50e-02 15 27 5.121e+01 2.39e-02e-05 5.2 +00 4.8e-03 8.22e-03 16 28 5.121e+01 5.18e-05 1.27e-04 5.4e-03 1.9e+00 9.6e-03 2.78e-03 17 30 5.106-5.106. -05 1.2e-03 1.8e+00 3.0e-03 8.02e-05 18 31 5.121e+01 4.39e-06 6.27e-06 1.7e-03 1.3e+00 3.0e-03 6.91 6.91 +01 5.81e-07 2.26e-06 5.6e-04 1.5e+00 1.1e-03 4.17e-06 20 34 5.121e+01 5.53e-07 5.82e-07 2.0e-04+04 000. 5.82e-07 21 35 5.121e+01 3.22e-09 3.35e-09 4.8e-05 0.0e+00 8.6e-05 3.35e-09 22 36 5.121e+01 8.01e-12e-05 8.01e-12-05. +00 4.2e-06 8.10e-12 ***** همگرایی تابع نسبی ***** FUNCTION 5.120700e+01 RELDX 2.408e-06 FUNC. EVALS 36 GRAD. EVALS 23 PRELDF 8.103e-12 NPRELDF 8.103e-12 I FINAL X(I) D(I) G(I) 1 2.113519e-01 1.000e+00 1.349e-05 2 8.700170e-2 8.7007710e.
|
تفسیر نتایج گارچ
|
64475
|
در آمار، افراد دادههای زیادی (یعنی قد افراد یا سطوح بیان ژن) را جمعآوری میکنند تا بینش بیشتری به دست آورند. سپس به منظور انجام تجزیه و تحلیل های آماری، سعی می کنند با محاسبه برخی پارامترها، داده های خود را با یک توزیع نظری (یعنی توزیع عادی) برازش دهند. چگونه بفهمیم که داده های ما از چنین توزیعی پیروی می کنند؟ اگر میتوانستیم تمام اشیاء یک جمعیت را اندازهگیری کنیم و توزیعی را ترسیم کنیم، احتمالاً میتوانستیم چیزی متفاوت، شکلی متفاوت از توزیع نظری که فکر میکردیم، به دست آوریم. اگر از توزیع نظری استفاده کنیم آیا محاسبات ما اشتباه نیست؟ لطفا اگر اشتباه می کنم تصحیح کنید و نظر خود را در این مورد به من بگویید. من فکر می کنم این یک مفهوم بسیار اساسی در آمار است و باید آن را روشن کنم.
|
منظور از استفاده از توزیع ها برای استنتاج آماری چیست؟
|
102597
|
من می خواهم یک ANOVA اندازه گیری های مکرر را در SPSS با استفاده از آمار توصیفی انجام دهم. بنابراین ورودی من این است: آمار توصیفی Mean Std. انحراف N M1MI 3,8000 1,03280 10 M1MA 5,3000 2,16282 10 M2MI 7,0000 1,88562 10 M2MA 2,2000 1,54919 10 M3MI 6,203 4,2000 1,75119 10 M4MI 4,7000 ,67495 10 M4MA 4,9000 1,19722 10 آیا کسی می داند چگونه باید نحو خود را تنظیم کنم؟ طراحی من به شرح زیر است: متغیرهای وابسته: Progress1، Progress2، Progress3، Progress4 در ضریب موضوع 2: M (I/A)
|
استفاده از آمار توصیفی به عنوان ورودی در SPSS
|
2667
|
وقتی نمونههایی از یک متغیر تصادفی گسسته داده میشود، آنتروپی توزیع ممکن است با $- \sum \hat{P_i} \log{\hat{P_i}}$ تخمین زده شود که $\hat{P_i}$ تخمین نمونه است. فرکانس مقدار $i$th. (این تا یک ثابت است که توسط پایه گزارش تعیین می شود.) این تخمین نباید برای مشاهدات از یک توزیع پیوسته اعمال شود، حداقل ساده لوحانه، زیرا مقداری را به دست می دهد که فقط به اندازه نمونه بستگی دارد. Beirlant _et al_ تعدادی از رویکردها را برای مسئله پیوسته توصیف میکند، از جمله تخمینهای مبتنی بر CDF تجربی، فاصله نزدیکترین همسایه و برآورد فاصله $m$، که توسط $$\frac{1}{n}\sum_{i ارائه شده است. =1}^{n-m}\log{(\frac{n}{m}(X_{(i+m)} - X_{(i)}))}$$، جایی که $X_{(i)}$ آمار سفارش $i$مین نمونه است و $m$ به روش خاصی با $n$ متفاوت است. مشخص نیست که این تخمین چگونه باید در حضور پیوندها محاسبه شود، _یعنی_ به نظر نمی رسد که برای توزیع های گسسته قابل استفاده باشد. (به نظر می رسد یک تصحیح ساده برای پیوندها (قطع عبارت هایی که $\log{0}$ دارند) تخمینگری ارائه می دهد که به فراوانی نسبی کلاس ها بستگی ندارد، فقط به مقادیر آنها بستگی دارد که اشتباه به نظر می رسد.) سؤال: آیا وجود دارد یک برآوردگر همه منظوره که می تواند با توزیع های گسسته و پیوسته (یا حتی مختلط) سروکار داشته باشد؟
|
آنتروپی نمونه همه منظوره
|
97316
|
من با ریاضیات پشت رگرسیون خطی درگیر هستم. در خطوط زیر متنی از کتاب تشخیص الگو و یادگیری ماشین (ص. 46) چسباندم که نویسنده تابع رگرسیون $\mathbb{E}_{t} [t | \mathbf{x}]$. من می خواهم روند را از معادله (2) تا نتیجه نهایی درک کنم. آیا کسی میتواند برخی از اشارهگرهای مفید (و/یا پیوندها) را به من ارائه دهد که مفهوم آن را از حساب تغییرات باید مطالعه کنم. میانگین ضرر مورد انتظار با $$ \mathbb{E}[L] = \int \int L(t, x (\mathbf{x})) p (\mathbf{x}, t) \, d داده میشود \mathbf{x} \، dt. \tag{1} $$ انتخاب متداول تابع ضرر در رگرسیون خطی، لوس مربعی است که با $L (t, y(\mathbf{x})) = \{ y (\mathbf{x}) - t \ }^{2}$. در این مورد، ضرر مورد انتظار را می توان به صورت $$ \mathbb{E}[L] = \int \int \{ y (\mathbf{x}) - t \}^{2} p (\mathbf{x) نوشت. }, t) \, d\mathbf{x} \, dt. \tag{2} $$ هدف ما این است که $y (\mathbf{x})$ را انتخاب کنیم تا $\mathbb{E} [L]$ را به حداقل برسانیم. ما می توانیم این کار را با استفاده از حساب تغییرات انجام دهیم تا $$ \dfrac{\delta \mathbb{E} [L]}{\delta y (\mathbf{x})} = 2 \int \{ y (\mathbf{ x}) - t \} p (\mathbf{x}، t) \، dt = 0. \tag{3} $$ حل برای $y (\mathbf{x})$، و با استفاده از مجموع و قواعد حاصل از احتمال، $$ y (\mathbf{x}) = \dfrac{\int tp (\mathbf{x}, t) \, dt به دست میآوریم. }{p (\mathbf{x})} = \int t p (t | \mathbf{x}) \, dt = \mathbb{E}_{t} [t | \mathbf{x}] \tag{4} $$
|
تابع ضرر برای رگرسیون خطی با حساب تغییرات
|
49362
|
برای تابع هزینه داده شده $S(\beta) = (Y - X \beta)^T(Y - X \beta) + \lambda \beta^T \beta$، که در آن $\lambda$ پارامتر تنظیم است، $\ beta$ که تابع هزینه داده شده را به حداقل می رساند $\beta = [X^T X + \lambda]^{-1} X^T Y$ است. درست است؟
|
تخمین پارامتر برای رگرسیون خطی با تنظیم
|
107514
|
در بسیاری از مدلهای اقتصادسنجی، تغییرات متغیرهای پاسخ در بازههای زمانی معین، دشوارتر از سایر بازهها است. اما من معتقدم که این اغلب هنگام تخمین مدل در نظر گرفته نمی شود. به عنوان مثال، فرض کنید $Y_{st}$ نسبت دانشآموزان در یک مدرسه خاص $s$ را نشان میدهد که یک آزمون استاندارد را در سال $t$ قبول میکنند. اجازه دهید $R_{st}$ منابع تحصیلی دانشآموزان باشد (مثلاً کتابهای موجود در کتابخانه)، و $I_{st}$ نشاندهنده میانگین درآمد والدین دانشآموزان است. در این مورد $Y_{st} \در [0,1],$ و ما میخواهیم اثر $R_{st}$ را بر $Y_{st} تخمین بزنیم.$ میتوانیم این را به صورت زیر مدل کنیم، $Y_{ st} = \alpha_{0} +\alpha_{1}R_{st} + \alpha_{2}I_{st} + \delta_{t}+ u_{st}$، جایی که $u_{st}$ است عبارت خطای افزودنی، و $\delta_{t}$، ساختگی های زمانی هستند. در این زمینه از میزان قبولی، به طور شهودی برای یک مدرسه دشوارتر است که نرخ قبولی را از 95٪ به 100٪ افزایش دهد، سپس برای آنها از 45٪ قبولی دانش آموز به 50٪ قبولی دانش آموز برسند. در نتیجه، به تأثیر $R_{st}$ روی $Y_{st}$ باید وزن کمتری در وضعیت دوم داده شود (45٪ تا 50٪)، نسبت به حالت اول (95٪ تا 100٪). فرض کنید ما دو مدرسه را با هم مقایسه میکردیم که در آنها همان افزایش R_{st}$ منجر به این نتایج شد، واضح است که مدرسه 95 تا 100 درصد کارآمدتری سرمایهگذاری کرده است. ایده من استفاده از یک متغیر ساختگی ضربی با $R_{st}$, $\beta_{t}$ است، که $\beta_{t}$ بسته به مقدار اولیه $Y_{st}، مقادیر متفاوتی می گیرد.$ آیا روش استانداردی برای در نظر گرفتن این موضوع در مدل وجود دارد؟ آیا عوامل اضافی دیگری وجود دارد که می تواند این مدل را بهبود بخشد؟
|
سوال در مورد استفاده از یک متغیر ساختگی ضربی
|
96583
|
با توجه به تجزیه و تحلیل هر جفت از شرکت کنندگان در یک مسابقه، چگونه می توانم احتمال برنده شدن هر رقیب معینی در مسابقه را تعیین کنم؟ به عنوان مثال، احتمال برنده شدن رقیب 2 در مسابقه زیر چقدر است؟ P(Cx Win) به معنای احتمال برنده شدن رقیب x است. Cx Cy P (Cx Win) P (Cy Win) ----------------------------------- 1 2 0.3 0.7 1 3 0.4 0.6 1 4 0.9 0.1 2 3 0.8 0.2 2 4 0.7 0.3 3 4 0.9 0.1 من سعی کرده ام برای هر رقیب با اضافه کردن احتمالات برنده فردی آنها یک رتبه محاسبه کنم. به عنوان مثال امتیاز برای C1 1.6 خواهد بود. امتیاز برای C2 2.2 و غیره خواهد بود. من راههای مختلفی را برای استفاده از این رتبهبندی برای یافتن احتمال برنده شدن رقیب امتحان کردهام، اما احساس درونی من به من میگوید که چیزی اشتباه است. آیا راه حل ریاضی برای این مشکل وجود دارد؟
|
احتمال برنده شدن با توجه به تجزیه و تحلیل جفت رقیب
|
97310
|
من فهرستی از اشیاء و فراوانی وقوع آنها در R نام ها دارم <- c(a، b، c، d، e) Freq <- c(12,45,67,100,1 ...) می خواهم برجستگی این اشیا را بر اساس فراوانی رتبه بندی کنم. آیا راهی وجود دارد که بتوان یک توزیع را بر روی فرکانس ها قرار داد و به جای مرتب کردن آنها به ترتیب نزولی، آنها را برای رتبه بندی وزن کرد؟
|
برازش توزیع برای فرکانس
|
20988
|
من می خواهم رگرسیون لجستیک ترتیبی (OLR) را در SPSS اجرا کنم. دادههای من شامل 6 متغیر پیشبینیکننده (دو متغیر پیوسته و 4 متغیر مقولهای) است، اما متغیرهای نتیجه من نیز 6 هستند (مقیاس طبقهای-لیکرت). به عنوان مثال متغیر وابسته من توسعه کسب و کار است و 6 سوال در مقیاس لیکرت برای این سوال پرسیده شد، افزایش سود، فروش، اندازه، دارایی، بازاریابی و نیروی کار. 1-اگر این 6 متغیر را در یک ترکیب کنم، ابتدا تمام 6 متغیر را جمع کرده و مجدداً مانند قبل در پنج دسته مجدداً کدنویسی کنم (در SPSS در Transform، متغیر Compute و سپس در متغیرهای مختلف مجدداً کد می شود). فکر می کنم به این ترتیب داده های اصلی خود را از دست دادم و ممکن است آنها را اشتباه دسته بندی کنم. 2- اگر برای کاهش متغیرهای وابسته به استفاده از تجزیه و تحلیل مؤلفه های اصل مقوله ای فکر کنم، نتایج (امتیازات شی) را به صورت پیوسته می دهد که باید رگرسیون خطی را بر روی آن اجرا کنم. من نمی خواهم رگرسیون خطی را اجرا کنم زیرا داده های اصلی من طبقه بندی شده است. 3-پس گزینه باقی مانده اجرای OLR بدون ترکیب متغیر وابسته در هر DV است. یعنی هیچ مدلی برای توسعه کسب و کار و 6 مدل برای سود، فروش وجود ندارد ... سوال من این است که * آیا ترجیحاً با هر DV OLR اجرا شود و نتایج را خلاصه کند * یا روش دیگری برای کاهش DV وجود دارد. و اجرای OLR. * یا آیا روشی بهتر از رگرسیون لجستیک ترتیبی برای این داده ها وجود دارد.
|
بیش از یک متغیر پیامد (وابسته) در رگرسیون لجستیک ترتیبی
|
58899
|
من دارم به Semivariogram نگاه می کنم. می دانم که رابطه بین فاصله و نیمه واریانس را به من نشان می دهد. من همچنین می دانم که در انتهای محدوده، فاصله دیگر به طور خودکار مرتبط نیست. آنچه من تعجب می کنم این است که نیمه واریانس در نقطه ای که فاصله دیگر همبستگی خودکار ندارد (در آستانه) به من چه می گوید؟ بنابراین در مورد من در حدود 900 متر فاصله دیگر به طور خودکار همبستگی ندارد. آستانه در این مقدار حدود 4300 است. این مقدار به من چه می گوید؟
|
Semivariance به من چه می گوید؟
|
71803
|
بنابراین من یک مشکل طبقه بندی چند برچسبی دارم که در آن تعداد دقیق برچسب ها در هر نمونه مجموعه آزمایشی ناشناخته است. تابع ضرر میانگین امتیاز F1 است که  است که در آن p دقت و r فراخوانی است. من همچنین توزیع های پسین (بتا) برای هر یک از برچسب های ممکن دارم. من متعجبم که چگونه زیان مورد انتظار بیزی را برای هر برچسب ممکن محاسبه کنم. و از آنجایی که این یک مشکل طبقهبندی چند برچسبی است، من همچنین باید ضرر مورد انتظار را برای همه ترکیبهای ممکن از برچسبها محاسبه کنم. آیا این حتی یک مشکل قابل حل است؟
|
ضرر مورد انتظار بیزی برای میانگین تابع از دست دادن امتیاز F1
|
68158
|
من از تست های جایگشت جفت دو نمونه ای با Matlab استفاده می کنم. اکنون من سه مرحله درون موضوعی دارم که مجبورم میکند از آزمون جایگشت جفتی سه نمونه استفاده کنم. آیا چیزی شبیه به آن یا هر آزمایش جایگشت به طور کلی وجود دارد که بتوانم برای آن استفاده کنم؟
|
جایگشت های جفت شده برای سه نمونه؟
|
108779
|
من می خواهم یک مدل چند متغیره با 'lme' با یک اثر تصادفی برای گروهی که در بین متغیرها مستقل است مشخص کنم. من این پست را پیدا کردم، که توضیح می دهد که مدل مشخص شده به صورت: fit.multilevel <- lme(y ~ var -1، dd، تصادفی = ~ var -1| مدرسه، همبستگی = corSymm(form = ~ v |school/id) ، وزن = varIdent(form = ~ 1 | v)) معادل (با استفاده از `MCMCglmm`): fit.w.null <- MCMCglmm(cbind(mathach، ses) ~ صفت -1، تصادفی = ~us(خصیصه): مدرسه، rcov = ~us (ویژگی): واحدها، داده = hs، خانواده = c(گاوسی، گاوسی)) با این حال، مدلی که من واقعاً دوست دارم اثرات تصادفی مستقلی برای مدرسه در بین متغیرها دارد: fit.w.null <- MCMCglmm( cbind(mathach، ses) ~ صفت -1، تصادفی = ~idh(خصیصه): مدرسه، rcov = ~ ما (خصلت): واحدها، داده = hs، خانواده = c(گاوسی، گاوسی)) ( اثر تصادفی با «idh()» مشخص می شود. من نمی توانم راهی برای مشخص کردن این در `lme` پیدا کنم. در اینجا چند کد برای تولید داده های نمونه و اجرای تجزیه و تحلیل وجود دارد: gr=rep(c(A, B, C),each=100) grp.mean=rep(rnorm(3,5,1) ,هر=100) var1=rnorm(300,rep(rnorm(3,5,1), هر=100),1) var2=0.8*var1+3*rnorm(300,rep(rnorm(3,5,1),each=100),2) dat.mcmc=data.frame(var1=var1,var2=var2,group=gr) dat.lme=data.frame(y=c(var1,var2),var=rep(c(1,2),each=length(gr)), group=rep(gr,2),id=rep(1:length(gr),2)) dat.lme$v=as.integer(dat.lme$var) در حال حاضر این بهترین کاری است که می توانم انجام دهم: fit. چند سطحی <- lme( y ~ var -1، dat.lme، تصادفی = ~ var -1| گروه، همبستگی = corSymm( فرم = ~ v | گروه/ID)، وزن = varIdent(form = ~ 1 | v)) این (من معتقدم) معادل است با: fit.w.null <- MCMCglmm(cbind(var1, var2) ~ صفت -1 , تصادفی = ~us(خصیصه):گروه، rcov = ~ ما (ویژگی): واحدها، داده ها = dat.mcmc، خانواده = c(گاوسی، گاوسی)) با این حال، من یک دستور «lme» معادل: fit.w.null <- MCMCglmm(cbind(var1, var2) ~ صفت -1، تصادفی = ~idh(خصیصه):گروه، rcov = ~us(خصیصه):واحد می خواهم , data = hs, family = c(gaussian,gaussian)) هر کمکی که بتوانید به من بدهید بسیار قدردانی خواهد شد.
|
مدل چند متغیره در lme() با اثر تصادفی مستقل، مشابه MCMCglmm
|
85498
|
من در موقعیتی هستم که باید محاسبه کنم: $$E(u(x_1)|\bar{X},S^2)$$ که $X_1$ یک متغیر تصادفی معمولی توزیع شده و $u(.)$ مقداری است. تابع من می دانم که با قضیه دانش آموز میانگین نمونه و واریانس نمونه مستقل هستند و به علاوه $\frac{(n-1)S^2}{\sigma^2}\sim \chi^2 (n-1)$ . آیا می توانم با اطلاعاتی که دارم انتظارات را ساده کنم؟ آیا ممکن است توزیع دو متغیره نرمال استفاده در اینجا باشد؟ با تشکر **ویرایش**: بله، یک نمونه iid در $X$ در اینجا فرض شده است، از این رو زیرنویس $1$ در $u(x_1)$ است. اگر انتظار را نمی توان ساده کرد، توزیع مشروط $X_1$ با توجه به $\bar{X}$ و $S^2$ چگونه است؟
|
شرطی سازی بر روی متغیرهای تصادفی مستقل
|
71802
|
من یک وظیفه پیشبینی سریهای زمانی دارم و میخواهم اطلاعاتی در مورد انتخاب و منظمسازی متغیرها داشته باشم. مشکل من دارای ویژگی های زیر است: * حجم نمونه 2,000,000. * اغلب اوقات، هیچ تغییری در پاسخ وجود ندارد. تغییر در پاسخ در 0.3% مواقع اتفاق می افتد و چیزی است که من به آن علاقه دارم (در مورد توابع از دست دادن نامتقارن و موارد مشابه صحبت نکنید - من صرفاً به انتخاب / منظم سازی متغیر علاقه دارم). * من جهت را پیش بینی خواهم کرد (بالا/پایین/بدون تغییر). * 100 متغیر پیش بینی. عمدتاً با دست از داده های پیچیده غیر ثابت مهندسی شده است. همه دارای مقداری قدرت پیش بینی هستند - موارد بی فایده بدون قدرت پیش بینی تک متغیره در اوایل فرآیند حذف شدند. * خوشه هایی از پیش بینی کننده های بسیار همبسته وجود خواهد داشت - به طور کلی اگر دو پیش بینی کننده را به طور تصادفی انتخاب کنید، همبستگی بالا نخواهد بود. * پیش بینی کننده ها ماهیت ناهمسانی دارند. * برخی از پیش بینی کننده ها به شدت به صورت سریالی همبستگی دارند، بسیاری از آنها نه. * پیش بینی ها همه به طور مداوم تکامل می یابند و فرآیندهای اعشاری هستند. همه آنها به شکل زنگ هستند. * برخی ممکن است غیر ثابت باشند، اما تصور میشود که حاوی اطلاعات حیاتی در مورد تکامل فرآیند پاسخ هستند که با تغییر یا تبدیلهای $I(0)$ مشابه از بین میرود. * مدل پیشبینی من خطی خواهد بود، اما تابع تلفات حداقل مربعات قطعی نیست (رگرسیون عمودی و رگرسیون چندک و رگرسیون پاسخ گسسته امتحان خواهد شد). * بی طرفی و واریانس خطای استاندارد یک ملاحظه مستقیم نیست. تمام چیزی که من به آن اهمیت می دهم، دقت پیش بینی نمونه و تعمیم مدل است. من میدانم که میتوانم از هر چیزی از گاروت غیر منفی، برآمدگی، کمند، شبکههای الاستیک، یادگیری زیرفضای تصادفی، یادگیری PCA/منیفولد، رگرسیون کمترین زاویه و هکهای مختلف برای انتخاب بر اساس عملکرد پیشبینی خارج از نمونه استفاده کنم. اما آیا چیزی خاص برای پیشبینی، یا ویژگیهای دادههای من وجود دارد که مرا به سمت دیگری سوق دهد (بازده زمانی مهم است - امتحان کردن همه چیز و انتخاب بهترین عملی نیست). توجه داشته باشید که مرزهای تصمیم گیری در مورد پیش بینی ها به عنوان بخشی از الگوریتم منظم سازی در نظر گرفته نشده است، اما ادغام می تواند امکان پذیر باشد. من همچنین از یک ابر کامپیوتر استفاده خواهم کرد.
|
انتخاب متغیر در پیشبینی سریهای زمانی
|
2661
|
من در حال انجام برخی از برازش های اولیه داده ها و کاوش برازش های مختلف هستم. من درک می کنم که باقیمانده تفاوت بین نمونه و مقدار تابع تخمینی است. هنجار باقیمانده ها معیاری برای انحراف بین همبستگی و داده ها است. هنجار کمتر نشان دهنده تناسب بهتر است. فرض کنید یک برازش مکعبی دارای هنجار باقیمانده 0.85655 و یک تناسب خطی دارای هنجار باقیمانده 0.89182 است. اگر هنجارها 0.17113 و 0.24916 باشند چه؟ آیا تفاوت بین این دو قابل توجه است؟ آیا هنجار باقیمانده کمتر از 1 خوب در نظر گرفته می شود؟ اگر نه آنچه که به طور کلی به عنوان هنجار قابل قبول باقی مانده در نظر گرفته می شود.
|
تفاوت بین Norm of Residuals و Norm of Residual خوب چیست
|
20980
|
من روی یک تکلیف برای درس آمار کار می کنم و بخشی از تکلیف ارائه فرضیه صفر یک آزمایش است. آزمایش به شرح زیر است (خلاصه کوتاه): یک شرکت در حال آزمایش 3 رابط برای یک وب سایت است. آنها رابط ها را با 15 دانش آموز تست می کنند، 5 برای هر رابط، و هر 5 سطح دانش کامپیوتری متفاوتی دارند. به همه آنها یک وظیفه داده می شود و زمانی که طول می کشد تا هر یک از آنها کار را کامل کنند، داده هایی است که ما استفاده می کنیم. می دانم که باید فرضیه صفر علاقه را پیدا کنم. تا آنجا که من می فهمم فرضیه صفر و فرضیه جایگزین باید 2 گزاره رقیب باشد. با این حال، تا آنجا که می توانم بگویم من 3 گزاره دارم: رابط 1 بهتر است، رابط 2 بهتر است و رابط 3 بهتر است. چه فرضیه صفری باید در اینجا داشته باشم و چرا؟ پیشاپیش متشکرم
|
فرضیه صفر با چند فرضیه به همان اندازه مهم
|
58275
|
من با اصول اولیه مشکل دارم. من متغیری دارم که در Shapiro- Wilk دارای p=.000 است. همانطور که من در هیستوگرام نگاه کردم به نظر می رسد که علت حد طبیعی برای این اندازه گیری است (مقدار 0، چولگی > 1،5). من نمی دانم بهترین راه برای ارائه این داده ها به عنوان توصیفی چیست. چه پارامترهایی از آمار توصیفی و غیر پارامتری برای ارائه داده هایی به این شکل بهتر است؟ آیا معادل 95% CI برای توزیع غیر نرمال وجود دارد؟ (مثلا محدوده بین چارکی) پیشاپیش از شما متشکرم!
|
آیا می توانم در صورت وجود محدودیت طبیعی، از 95% CI برای میانگین برای توزیع غیر عادی استفاده کنم؟
|
68157
|
من سعی می کنم از بسته متلب glmnet برای آموزش مدل شبکه الاستیک خود بر روی داده های عظیم استفاده کنم. امکانات من سایز 13200 هست و حدود 6000 نمونه از اینها دارم. من مستقیماً سعی کردم از «lassoglm» در MATLAB با این ویژگیها و هدف مربوطه استفاده کنم که اعتبار متقاطع را فقط به 3 برابر و آلفا = 0.5 میرساند. الان 6 ساعت گذشته و تمام نشده است. برای چند نفر دیگر هم باید این کار را انجام دهم. پیشنهادی دارید که چه کاری باید انجام دهم؟
|
مشکلات استفاده از بسته glmnet برای متلب
|
20981
|
وقتی میخواهم یک مدل ARIMA مانند این را اعمال کنم: arimax(dataMat, order=c(7,0,0), xreg=xreg) خطای > تکین و نمیتوانست تجزیه QR Hessian را محاسبه کند برای xreg ایجاد میکند. چگونه می توانم با استفاده از مقادیر «xreg» مدل مناسب را برازش کنم؟
|
مشکلات تکینگی هنگام نصب مدل ARIMAX
|
49361
|
من به دنبال یک مجموعه داده (ترجیحا با یک داستان، به هر حال یک مجموعه داده واقعی) هستم که در آن یک SVM با یک هسته خطی عملکرد خوبی داشته باشد... به عبارت دیگر من به دنبال مجموعه داده ای هستم که مرز کلاس احتمالاً در آن باشد. خطی در حالت ایده آل، بین 10-20 متغیر پیوسته باید وجود داشته باشد و متغیرهای گسسته خیلی زیاد نباشد... برای من واقعاً مهم نیست که چند کلاس وجود دارد (تا زمانی که مشکل طبقه بندی باشد). همچنین، نمی تواند مجموعه داده عنبیه باشد. هر پیشنهادی؟ P.S.: @modo: فکر نمیکنم این سؤال در مورد به دست آوردن یک مجموعه داده خاص باشد: بیشتر این است که از زمانی که دانشجوی کارشناسی ارشد بودم مقالات یادگیری svm/machine را نخواندهام، بنابراین با برخی از نمونههای خوب معمولی آشنا نیستم. .. من فقط مطمئنم که وجود دارند.
|
نمونه ای از مجموعه داده طبقه بندی که در آن SVM با هسته خطی عملکرد خوبی دارد
|
58272
|
در طول سال گذشته من با ماشینهای بردار پشتیبان برای طبقهبندی متن باینری کار میکردم. با استفاده از نرمافزارهایی مانند R و Rapidminer، زمان زیادی را صرف درک آنچه در داخل ماشینهای بردار پشتیبان میگذرد صرف نکردهام. اکنون به امید درک بهتر این روش طبقه بندی/رگرسیون شروع به بررسی این موضوع کرده ام. من زمان زیادی را صرف جستجوی مثالهای محاسباتی کردهام، زیرا اگر واقعاً بتوانم یک مشکل را در اکسل تنظیم کنم، درک من از یک مفهوم را به خوبی افزایش میدهد. بنابراین امیدوارم با پرسیدن این سوال در اینجا راهنمایی دریافت کنم، زیرا نتوانستم هیچ نمونه محاسبه گام به گامی را پیدا کنم. می توان به راحتی توضیحاتی در مورد مسائل ریاضی و بهینه سازی که برای درک و حل محاسباتی نیاز دارد، پیدا کرد، اما من نتوانستم یک مثال محاسبه گام به گام را پیدا کنم. اگر انجمن ایده من برای تولید چنین نمونه ای را تایید کند، ویرایش را انجام می دهم و در پایان یک برگه اکسل خوب و واضح و یک راهنمای برای استفاده در آینده تولید می کنم. من پیشنهاد می کنم از مجموعه داده _Iris_ استفاده کنیم (حتی اگر یک مجموعه داده چند کلاسه است) و به سادگی سعی کنیم _Iris setosa_ را از _Iris versicolor_ جدا کنیم. من سه لینک ارائه می کنم. پیوند اول نظریه کاربرد SVM ها است که فکر می کردم می توان از آن به عنوان داربست استفاده کرد. پیوند دو یک مثال رگرسیونی از نحوه ظاهر محصول ما در پایان ارائه می دهد. پیوند سه شما را به مجموعه داده _Iris_ می برد. تئوری و کاربرد SVM ها راهنمای رگرسیون پیوند برای مجموعه داده عنبیه در زیر سعی خواهم کرد مسئله را به طور دقیق تر فرموله کنم. شرح مسئله: > چگونه می توان اکسل و تکنیک ماشین بردار پشتیبان خطی > را با حاشیه های نرم به منظور حل یک تکلیف طبقه بندی دوجمله ای که با > جداسازی _Iris setosa_ و _Iris versicolor_ از مجموعه داده _Iris_ با استفاده از > همه ویژگی های موجود، به کار برد؟
|
چگونه می توان یک ماشین بردار پشتیبان خطی در اکسل راه اندازی کرد؟
|
78609
|
من باید تا حد امکان دقیق مقدار روشنایی یک منبع نوری عمدتاً پایدار را با توجه به دوازده مقدار درخشندگی نمونه بدست بیاورم. سنسور ناقص است، و نور گاهی اوقات میتواند روشنتر یا تیرهتر «سوسو بزند»، که میتوان آن را نادیده گرفت، بنابراین نیاز من به تشخیص دورتر (فکر میکنم؟) است. من برخی از رویکردهای مختلف را در اینجا مطالعه کرده ام و نمی توانم تصمیم بگیرم که کدام رویکرد را انتخاب کنم. تعداد نقاط پرت هرگز از قبل مشخص نیست و اغلب صفر خواهد بود. فلیکر به طور کلی یک انحراف بسیار زیاد از روشنایی پایدار است (به اندازه ای که واقعاً با هر میانگینی که با یک نمایش بزرگ گرفته می شود به هم بخورد)، اما لزوماً چنین نیست. در اینجا یک مجموعه نمونه از 12 اندازه گیری برای کامل بودن سؤال آورده شده است: 295.5214، 277.7749، 274.6538، 272.5897، 271.0733، 292.5856، 282.0986، 278.074، 278.074. 273.1783, 274.0317, 290.1837 احساس درونی من این است که احتمالاً هیچ چیز پرت در آن مجموعه خاص وجود ندارد، اگرچه 292 و 295 کمی بالا به نظر می رسند. بنابراین، سوال من این است که بهترین رویکرد در اینجا چیست؟ باید اشاره کنم که مقادیر از گرفتن فاصله اقلیدسی مولفه های R G و B نور از یک نقطه صفر (سیاه) به دست می آیند. بازگشت به این مقادیر در صورت لزوم از نظر برنامهریزی دردناک است، اما ممکن است. فاصله اقلیدسی به عنوان معیاری برای قدرت کلی استفاده شد، زیرا من به رنگ، فقط به قدرت خروجی علاقه مند نیستم. با این حال، احتمال معقولی وجود دارد که سوسوهایی که ذکر کردم ترکیب RGB متفاوتی با خروجی معمولی داشته باشند. در حال حاضر من با نوعی عملکرد بازی می کنم که تکرار می شود تا زمانی که به عضویت پایدار معیارهای مجاز دست یابیم: 1. یافتن انحراف استاندارد 2. قرار دادن همه چیز خارج مثلاً 2 SD در لیست نادیده گرفتن 3. محاسبه مجدد میانگین و SD با حذف لیست نادیده گرفتن 4. تصمیم گیری مجدد برای نادیده گرفتن چه کسی بر اساس میانگین جدید و SD (ارزیابی همه 12) 5. تکرار کنید تا پایدار آیا این رویکرد ارزشی دارد؟ همه نظرات با تشکر پذیرفته شد!
|
تشخیص بیرونی در مجموعه های بسیار کوچک
|
108495
|
من سعی می کنم میانگین داده های ساعتی سه سنسور را محاسبه کنم اما مُهر ساعتی هر سه سنسور متفاوت است. چگونه می توان میانگین داده های ساعتی هر سه حسگر را در یک بازه زمانی منظم اندازه گیری کرد، مثلاً 01:00، 02:00، 03:00 و غیره. و همچنین آیا می توان یک سری زمانی توسعه پذیر را با یک زمان خاص شروع کرد که قبل از اولین مهر زمانی مجموعه داده داده شده است تا مُهرهای زمانی اضافی دارای مقادیر NA باشند و من بتوانم هنگام محاسبه میانگین از na.rm=TRUE استفاده کنم.: library(xts ) library(forecast) data1$V1<-as.POSIXct(paste(data1$V1, data1$V2), format=%Y-%m-%d %H:%M:%S) sensid<-as.factor(data1$V4) #For Temp for(i in 1:length(levels(sensid))) { l[[i]]=data.frame( data1$V6[data1$V4==i]) l[[i]]<-xts(l[[i]],order.by=data1$V1[data1$V4==i]) if(طول(که (Na(l[[i]]) ))<طول(l[[i]])) { wAvgt[[i]]<-apply.weekly(l[[i]]، تابع(x) sapply(x,mean,na.rm=TRUE)) #میانگین هفتگی دمای dAvgt[[i]]<- application.daily(l[[i]], function(x) sapply(x,mean,na.rm =صحیح)) #میانگین روزانه دمای hrAvgt[[i]] <- period.apply(l[[i]]، نقاط پایانی(l[[i]]، on = ساعتها، 1)، تابع(x) sapply(x,mean,na.rm=TRUE)) #میانگین ساعتی دما #برای پیشبینی مقادیر آینده aritw[[i] ]<-auto.arima(wAvgt[[i]]) #پیشبینی هفتگی مدل ARIMA با استفاده از ARIMA foretw[[i]]<-forecast.Arima(aritw[[i]],h=5) #پیشبینی میانگین هفتگی میانگین دما[[i]]<-auto.arima(hrAvgt[[i]]) # پیش بینی ساعتی مدل ARIMA با استفاده از ARIMA foreth[[i]]<-forecast.Arima(arith[[i]],h=50)#پیشبینی میانگین ساعتی دما aritd[[i]]<-auto.arima(dAvgt[[i]]) # پیش بینی روزانه مدل ARIMA با استفاده از ARIMA foretd[[i]]<-forecast.Arima(aritd[[i]],h=10)#پیشبینی میانگین روزانه دما } else { بعدی } } دادههای ۲۷ حسگر دارم. بنابراین من سعی می کنم میانگین ساعتی، هفتگی و روزانه هر سنسور را محاسبه کنم، اما هر سنسور 4 پارامتر مهم مانند فشار خون، دما، نبض و WBC را ارائه می دهد. حلقه فوق ارائه شده فقط برای دمای 27 سنسور است. من یک تخت متصل به 3 سنسور دارم و هر سنسور دارای 4 پارامتر حیاتی برای اندازه گیری است. من فعلا فقط نگران دما هستم. من باید میانگین ساعتی دما را فقط برای آن تخت محاسبه کنم. بنابراین، در ابتدا میانگین ساعتی هر 3 سنسور را اندازهگیری میکنم و سپس قصد دارم میانگین ساعتی را بین این 3 سنسور بگیرم. مشکلی که من در اینجا با آن روبرو هستم این است که هر میانگین ساعتی تعداد ردیفها و مهرهای زمانی متفاوتی دارد. چگونه تمام مهرهای زمانی را عادی کنیم؟ اگر مهر زمانی شروع سنسور 1 2004-02-28 00:59:16 باشد، حسگر 2 2004-02-28 01:08:23 باشد، سنسور 3 2004-02-28 01:19:34 باشد، اینطور نیست. عادی سازی آنها با هر روشی که هنوز می شناسم امکان پذیر است. لطفاً به من کمک کنید تا میانگین ساعتی سه سنسور را پیدا کنم.
|
میانگین داده های ساعتی سه حسگر را محاسبه کنید
|
71804
|
من روی مشکلی کار میکنم که: * دادههای ورودی مجموعهای از سریهای زمانی از روشهای حسگر مختلف است، که در آن هر سنسور با نرخهای اکتساب و محدوده دینامیکی متفاوتی ارائه میشود * تعداد ویژگیهای بالقوه بسیار بیشتر از تعداد نمونهها است (یعنی $p \ gg N$) سوال من این است: **آیا یادگیری عمیق قبلاً روی این نوع داده ها اعمال شده است؟**
|
یادگیری عمیق با $p \gg N$ و بر روی داده های چندوجهی و ناهمگن
|
49360
|
من چندین مدل رگرسیون لجستیک با همه IV ها/کنترل های یکسان و انواع DV دارم (همه نتایج سلامت از یک نمونه). IV اولیه مجموع انواع آزارهای دوران کودکی (عاطفی، فیزیکی یا جنسی) است. من متغیرهای ساختگی ساختم که نشان دهنده هر نوع تجربه، هر دو نوع تجربه، یا هر سه نوع تجربه است (بنابراین هر کدام متقابلاً منحصر به فرد هستند). این همان مدلی است که CDC برای مطالعه ACEs خود استفاده می کند، جایی که من این روش را از آن قرض گرفتم. سوال 1: آیا می توانم ساختگی یک تجربه را با دو ساختگی تجربه در یک مدل مقایسه کنم؟ یعنی در مورد نسبت های شانس در مقایسه با یکدیگر بدون استانداردسازی ضرایب صحبت کنید؟ حس من این است که بله و من آن را در همه جا دیده ام، اما اخیراً نظر مخالفی به من داده شد که می گوید از آنجایی که من فقط هر IV را با مرجع ساختگی 0 تجربه مقایسه می کنم، نمی توانم آنها را بدون تجربه با یکدیگر مقایسه کنم. ابتدا استاندارد کردن سوال 2: بهترین روش برای مقایسه بین مدل ها (با همه IV های یکسان) چیست؟ من IVهای ساختگی را در برابر انواع پیامدهای سلامت جسمی و روانی آزمایش میکنم و میخواهم نسبتهای شانس را برای هر DV بر اساس هر نوع تجربه، دو تجربه یا سه تجربه مقایسه کنم. خوب است که بگوییم، یک تجربه شانس این نتیجه را 3.2 برابر، این نتیجه را 2.1 برابر و غیره افزایش می دهد. بنابراین، می توانم بگویم که یک نوع سوء استفاده بیشتر از اختلال اضطرابی یا دو نوع اختلال، خطر افسردگی را افزایش می دهد. سوء استفاده خطر PTSD را نسبت به افسردگی و غیره افزایش می دهد (با فرض عدم همپوشانی در فواصل اطمینان). من مقاله 2011 منارد را در مورد ضرایب استاندارد LR خوانده ام و این منطقی است که از چه مکانیزمی در یک مدل استفاده کنم (همانطور که در صورت لزوم در سوال 1 اعمال می کنم)، اما نمی توانم بگویم که آیا این می تواند در سراسر DV اعمال شود یا خیر. اگر من از همه IV ها/کنترل های مشابه از یک نمونه استفاده می کنم، مدل ها را انجام می دهم. اگر من هر ضریب IV را استاندارد کنم، آیا آنها در بین مدل ها قابل مقایسه هستند؟ این یک نمونه تصادفی است و هر مدل دارای همان تعداد موارد معتبر (1073) بدون داده از دست رفته است.
|
مقایسه مدل های رگرسیون لجستیک با IV های مشابه
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.