_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
71720
من در حال تأیید اعتبار مدلی هستم که سعی در پیش‌بینی تعداد دارد. اگر این یک مشکل طبقه‌بندی باینری بود، AUC خارج از برابر را محاسبه می‌کردم، و اگر مشکل رگرسیونی بود، RMSE یا MAE خارج از برابر را محاسبه می‌کردم. برای یک مدل پواسون، از چه معیارهای خطا می توانم برای ارزیابی دقت پیش بینی های خارج از نمونه استفاده کنم؟ آیا بسط پواسون AUC وجود دارد که به خوبی به ترتیب مقادیر واقعی پیش بینی ها نگاه می کند؟ به نظر می رسد که بسیاری از مسابقات Kaggle برای شمارش (به عنوان مثال تعداد آرای مفیدی که یک بررسی yelp به دست می آورد، یا تعداد روزهایی که بیمار در بیمارستان می گذراند) از ریشه میانگین log مربع خطا یا RMLSE استفاده می کنند. /ویرایش: یکی از کارهایی که من انجام داده‌ام این است که دهک‌های مقادیر پیش‌بینی‌شده را محاسبه می‌کنم، و سپس به شمارش‌های واقعی، با دهک‌ها نگاه می‌کنم. اگر دهک 1 پایین است، دهک 10 زیاد است، و دهک های بین این دو به شدت در حال افزایش هستند، من مدل را خوب نامیده ام، اما در تعیین کمیت این فرآیند با مشکل مواجه بوده ام و متقاعد شده ام که یک روش بهتر وجود دارد. رویکرد /ویرایش 2: من به دنبال فرمولی هستم که مقادیر پیش‌بینی‌شده و واقعی را بگیرد و مقداری «خطا» یا «دقت» را برگرداند. برنامه من این است که این تابع را بر روی داده های خارج از تار در طول اعتبارسنجی متقاطع محاسبه کنم و سپس از آن برای مقایسه طیف گسترده ای از مدل ها (به عنوان مثال رگرسیون پواسون، جنگل تصادفی و GBM) استفاده کنم. به عنوان مثال، یکی از این تابع ها RMSE = sqrt(mean((پیش بینی شده-واقعی)^2)) است. یکی دیگر از این تابع ها AUC است. به نظر می رسد هیچ کدام از عملکردها برای داده های poisson مناسب نیستند.
معیارهای خطا برای اعتبارسنجی متقابل مدل‌های پواسون
50372
من می خواهم تأثیر دما را بر مرگ و میر ماهی ارزیابی کنم. هر دو متغیر سری زمانی هستند، بنابراین باقیمانده همبستگی خودکار خواهد داشت. آیا روش رگرسیون برای مقابله با آن وجود دارد؟ هر توصیه ای قدردانی خواهد شد
چگونه یک مدل رگرسیون با دو سری زمانی تناسب دارد
50370
من چگالی مشترک زیر را دارم: $p(x_1,x_2,y_1,y_2) \propto \exp\left(−\left(x_1^2+x_2^2+c_1(y_2-y_1)^2+c_2(y_2- y_1)^4\right)\right)$ آیا می توانم از نمونه گیری گیبس برای نمونه برداری از آن استفاده کنم؟ چگونه می توانم توزیع های شرطی کامل را بدست بیاورم، و چگونه می توانم از آن توزیع های شرطی که فکر می کنم بسیار پیچیده هستند، نمونه بگیرم؟
نمونه گیری گیبس از شرایط کامل
58428
من به تازگی در مورد روشی خواندم که هرگز در مورد آن نشنیده بودم، و می خواستم بدانم آیا کسی تجربه ای در مورد آن داشته است. در کتاب «آمار» دونالد بری، او با اصلاح انحراف معیار نمونه، جایگزینی برای انجام آزمون t ارائه می‌کند، با عاملی که با N پایین‌تر افزایش می‌یابد: $s\rightarrow s\left(1+\frac{20} {n^2}\right)$ و سپس یک z-test ساده انجام دهید. آیا کسی تا به حال این را دیده است یا اشتقاقی از آن را دیده است؟ به نظر می رسد که از نظر تجربی با آزمون توزیع t در سطح 99 درصد مطابقت دارد و انحراف استاندارد را برای صدک های پایین تر بیش از حد برآورد می کند. من شک دارم که تفاوت عملی زیادی ایجاد کند، اما اگر توجیه شود، ممکن است به دانش آموزان در کلاس های آمار مقدماتی کمک کند. افکار
آزمون t را با z-test اصلاح شده جایگزین کنید - کسی تا به حال این را دیده است؟
34253
در SAS Enterprise Miner 6.2 می‌توان روش‌های CHAID و CART را با استفاده از گره درخت تصمیم تقریبی کرد، طبق SAS Help، اما چیزی در مورد الگوریتم C4.5 وجود ندارد. چگونه می توانم الگوریتم C4.5 را با استفاده از گره درخت تصمیم تقلید کنم؟ من برای هر کمکی سپاسگزار خواهم بود.
شبیه سازی الگوریتم C4.5 با استفاده از گره درخت تصمیم در SAS Enterprise Miner 6.2.
24267
آیا انتخاب یک مدل رگرسیون با مقدار «0» برای رهگیری زمانی که منطقی است معقول است؟ به عنوان مثال، من سعی می کنم یک رابطه هندسی فیزیکی را مدل کنم، و می دانم که وقتی 'x = 0'، 'y = 0' است. با این حال پیامدهای انتخاب چنین مدلی این است که مقدار R^2 به طور قابل توجهی بالاتر می شود (از 0.67 به 0.95 تغییر می کند). وقتی باقیمانده‌ها را برای هر دو مدل بررسی می‌کنم، می‌بینم که هر دو تقریباً توزیع یکسانی دارند. گزینه مبدا در شکل 1 و غیر مبدا در شکل 2 نشان داده شده است. //i.stack.imgur.com/XvWbi.jpg) چگونه باید تصمیم بگیرم که کدام مدل مناسب تر است؟ من برخی از پرسش‌ها و پاسخ‌های دیگر درباره این موضوع را خوانده‌ام، اما هیچ بحثی در مورد محدودیت‌های فیزیکی که مبنایی برای انتخاب باشد ندیده‌ام. متغیر وابسته من در اینجا یک محاسبه مساحت است و متغیر مستقل من اندازه گیری یک بعد شکل است. برای مثال، اگر مجموعه‌ای از مستطیل‌هایی به طول «l»، عرض «w» و مساحت «A» داشته باشم، سعی می‌کنم رابطه بین «l» و «A» را مدل‌سازی کنم. با این حال، از آنجایی که اینها کاملاً منظم نیستند، تفاوت هایی در رابطه وجود دارد، اما به نظر می رسد در چندین مورد خطی است، و بر اساس برخی از نظرات، در این مورد خاص چندان زیاد نیست.
دلایل منطقی برای انتخاب رگرسیون از طریق مبدا
72021
من در مورد آمار بسیار جدید هستم. بنابراین ، لطفاً درک کنید که سوال من تا حدودی بی دست و پا است ، و لطفاً هرگونه توصیه ای را به من بدهید. من مجموعه ای از داده ها دارم. X = 500 x 100 (500 مشاهده x 100 متغیر پیش بینی) Y = 500 x 1 (500 متغیر پاسخ) با این داده ها، من ابتدا میانگین مربعات خطا (MSE) را با استفاده از روش Ridge با اعتبار سنجی متقاطع 10 برابری برآورد کردم. سپس ، من می خواستم زیر مجموعه متغیرهای پیش بینی کننده (راه حل پراکنده) را پیدا کنم که ممکن است تأثیر بیشتری در تخمین داشته باشد. برای این کار ، من از روش Lasso با 10 برابر اعتبار متقابل استفاده کردم و بهترین مجموعه ضریب را انتخاب کردم که کمترین مقدار MSE را به من داد. در این مرحله، آیا می توانم مستقیماً کمترین مقدار MSE برآورد شده با روش LASSO و مقدار MSE برآورد شده توسط روش Ridge را مقایسه کنم؟ اگر منطقی باشد و اگر مقدار MSE برآورد شده با روش کمند کوچکتر از مقدار MSE برآورد شده با روش ریج باشد، می توانم بگویم که مدل جدید ساخته شده با روش LASSO بهتر از استفاده از مدل ساخته شده توسط کل متغیرهای پیش بینی کننده خواهد بود (ریج). روش)؟ من گزینه دیگری در ذهن دارم. در مورد اعمال مجدد روش Ridge برای متغیرهای پیش بینی کننده روش LASSO انتخاب شده برای مقایسه عملکرد بین زیرمجموعه و متغیرهای کل پیش بینی چگونه است؟ من نمی دانم این معقول است یا نه. اگر مقالاتی مرتبط با سوالات من می دانید، لطفاً به من اطلاع دهید. پیشاپیش متشکرم
چگونه می توانم از برخی متغیرهای انتخاب شده توسط LASSO استفاده کنم؟
58425
من یک سوال تفسیر آمار دارم. من اخیراً یک آنوای دو طرفه برای شناسایی یک اصطلاح تعاملی بین متغیرهای مستقل طبقه‌بندی خود (ژنوتیپ + دما) انجام داده‌ام که بر متغیر وابسته پیوسته من (سرعت) تأثیر می‌گذارد. فرضیه من این است که ژنوتیپ + دما برای کاهش سرعت به شدت با هم تعامل دارند. در مورد من، اصطلاح برهمکنش قابل توجه است - به عنوان مثال، ژنوتیپ و دما به طور قابل توجهی با هم تعامل دارند، و من به راحتی می توانم مشاهده کنم که سرعت در این مورد کاهش می یابد. در حال حاضر با استفاده از روش معمول به انجام یک آزمایش post-hoc هدایت می شوم، اما واقعاً دلیل آن را نمی دانم: کدام آزمایش post hoc برای کمک به تأیید _تقابل_ بین دما و ژنوتیپ مناسب است؟ من به هیچ چیز به جز تعامل علاقه ندارم، زیرا همه شرایط دیگر را کنترل می دانم. با توجه به اینکه خود ANOVA برای آشکار کردن یک تعامل قابل توجه طراحی شده است (و موفق می شود) چنین آزمون پس از پایانی ضروری است؟ آیا تعیین **نشانه** تعامل ضروری است؟ _اگر بتوانید به من یک آزمون ناپارامتری برای این کار اشاره کنید، امتیازهای پاداش، زیرا داده های من گوسی نیستند (اما N=100+ بزرگ من به من کمک می کند تا با استفاده از داده ها در خود ANOVA راحت باشم)._
آنوای دو طرفه با اصطلاح تعاملی: تست پس از مدتی چیست؟
24266
من تازه وارد http://stats.stackexchange هستم، پس لطفاً اگر کار اشتباهی انجام می دهم به من اطلاع دهید. من مشکل زیر را دارم: فرض کنید ماشینی در حال حرکت در امتداد یک سطح صاف است. هیچ جاده ای در این سطح وجود ندارد، بنابراین می توان سفر را تصادفی در نظر گرفت. در یک هلیکوپتر پنج نفر بالای این سطح پرواز می کنند که همگی از روی هلیکوپتر و از همان پنجره (در هلیکوپتر) این خودرو را رصد می کنند. پس از مدتی، از هر فرد خواسته می شود تا پیش بینی کند خودرو در یک ثانیه کجا خواهد بود. هر فرد یک پیش‌بینی می‌دهد، همراه با میزان اطمینان خود از آن پیش‌بینی، یعنی شخص «P» می‌گوید «من «C%» مطمئن هستم که در یک ثانیه از هم‌اکنون، خودرو در مکان «L» خواهد بود. آیا پنج نفر از این قبیل هستند، چگونه می توانم محتمل ترین مکان ماشین را یک ثانیه بعد تعیین کنم، فکر نمی کنم واقعاً مهم باشد، اما از آنجایی که یک آمار n00b است، ترجیح می دهم این اطلاعات را ارائه دهم؟ تعداد افراد در هلیکوپتر متغیر است فقط یک مثال برای این مورد در پیش‌بینی انواع خاصی از رفتار، برای مثال، یک ناظر ممکن است در پیش‌بینی انواع چرخش‌ها به چپ و غیره آموزش دیده باشد. حقیقت همچنین فرض کنید که همه آنها مقیاس عینی اندازه گیری اعتماد خود را دارند. یک مثال بد (اما نمونه ای که نکته اساسی را نشان می دهد): اگر ناظر A بگوید من روی درست بودن پیش بینی خود 100 دلار شرط می بندم و ناظر B بگوید من روی درست بودن پیش بینی خود 150 دلار شرط می بندم، همه عوامل دیگر ( مانند اینکه هر ناظر چقدر برای پول خود ارزش قائل است) ثابت نگه داشته شود، ناظر B نسبت به ناظر A اعتماد به نفس بیشتری دارد. فرض کنید همه ناظران به درستی برای استفاده صحیح آموزش دیده اند. یک مقیاس هدف خاص که با آن می توان سطح اطمینان آنها را اندازه گیری کرد.
محتمل ترین مقدار پیش بینی هایی با سطوح اطمینان داده شده است
50379
برای برازش چند جمله ای با چند جمله ای درجه $n$، ما $n$ درجه آزادی داریم. آیا مفهوم مشابهی برای نزدیکترین همسایگان $k$ وجود دارد؟ آیا راهی برای مقایسه مدارک به طور کلی وجود دارد؟ من از یک پیشینه EE هستم بنابراین ممکن است با برخی از اصطلاحات پیشرفته آشنا نباشم.
درجات آزادی نزدیکترین همسایگان
58420
من با دو متغیر تصادفی همبسته سر و کار دارم که از طریق توزیع نرمال دو متغیره مدل شده اند. من مقادیری برای میانگین ($\mu_x، \mu_y$) و واریانس‌های فردی ($\sigma_x، \sigma_y$) متغیرها دارم (عملاً توزیع‌های عادی را به حاشیه می‌برند). با توجه به مشاهدات جدید از متغیرهای تصادفی، آیا می توانم برآورد خود را از طریق استنتاج بیزی برای ضریب همبستگی، $P(\rho)$ به روز کنم؟ **تفکرات تاکنون:** شروع با توزیع نمونه: $P(x,y|\rho) = \frac{1}{2 \pi \sigma_x \sigma_y \sqrt{1-\rho^2}} \ exp\left( -\frac{1}{2(1-\rho^2)}\left[ \frac{(x-\mu_x)^2}{\sigma_x^2} + \frac{(y-\mu_y)^2}{\sigma_y^2} - \frac{2\rho(x-\mu_x) (y-\mu_y)}{\sigma_x \sigma_y} \right] \right)$ می‌خواهیم قبلی را به‌روزرسانی کنیم، $P(\rho)$ (از قبلی مطمئن نیستم فرم) با مقداری مشاهده $(x_i,y_i)$: $P(\rho|x_i,y_i)=P(x_i,y_i)^{-1}*P(x_i,y_i|\rho)*P(\rho )$ چیزی که من را پرت می کند شکل توزیع قبلی است. من برای فرآیند خود می دانم که $\rho$ به دلیل همبستگی مثبت محدود است. چگونه می توانم این اطلاعات را در تعریف قبلی لحاظ کنم؟ علاوه بر این، آیا می توانم این رویه را به صورت بازگشتی اجرا کنم؟ **افکار دیگر:** شاید من به طور کامل به این مشکل فکر می کنم. من فقط می توانم ضریب همبستگی پیرسون را به طور مستقیم با توجه به تمام داده های اندازه گیری شده محاسبه کنم. با این حال، اندازه نمونه مورد انتظار من کوچک خواهد بود، و همچنین مرزهایی را برای همبستگی می دانم ($0<\rho<1$). با توجه به نمونه کوچک و محدودیت های پیشینی شناخته شده، من همچنان به بیزی متمایل هستم.
با توجه به میانگین ها و واریانس های عادی دو متغیره شناخته شده، تخمین همبستگی، $P(\rho)$، با داده های جدید به روز رسانی شود؟
50374
ما سوالی در مورد تجزیه و تحلیل داده های تابلویی در R (plm) داریم که در دو مقیاس زمانی مشاهده شد. به عنوان پیش زمینه، ما یک آزمایش اقتصادی را با یک گروه 6-8 دانش آموز تکمیل کرده ایم که در 18 جلسه (زمان 1) با 12 دور در هر جلسه (زمان 2) تکمیل شده است. ما سه درمان داریم و هر درمان سه بار تکرار می شود (3 جلسه * 12 دور = 36 بار). در هر جلسه 6 بازیکن در هر دور تصمیم گیری می کنند (چون برخی از آنها قبل از انجام مناقصه حذف می شوند). برای وضوح بیشتر، طرح آزمایشی خود را در جدول 1 در زیر آورده ایم. ما همچنین جدولی را اضافه کرده‌ایم که نشان می‌دهد مجموعه داده چگونه به نظر می‌رسد (جدول 2). درمان‌ها سه سناریو مختلف (3 سطح) را در سه نوع مختلف ماهیگیری (3 سطح) آزمایش می‌کنند. بنابراین سوال ما این است که با توجه به اینکه برخی از شرکت کنندگان در بیش از یک دور و جلسه بازی می کنند، چگونه باید با دو متغیر زمانی من (جلسه و دور) برخورد کنیم؟ می‌دانیم که نمی‌توانیم راندها را نادیده بگیریم، زیرا تصمیم یک بازیکن تحت تأثیر اتفاقاتی است که در دورهای قبلی، در جلسات فعلی و قبلی رخ می‌دهد. تابع plm به شما امکان تجزیه و تحلیل دو متغیر زمانی را نمی دهد. بنابراین، آیا باید یک متغیر زمانی را به عنوان یک عامل (به عنوان مثال عوامل (جلسه)) تنظیم کنیم؟ هر گونه کمکی قدردانی خواهد شد. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ag4Hy.jpg)
چگونه با استفاده از بسته PLM در R با دو متغیر زمانی در مدل سازی داده های تابلویی برخورد کنیم؟
24261
من یک الگوریتم درخت تصمیم را پیاده‌سازی می‌کنم و می‌خواهم عملکرد آن را نسبت به سایر پیاده‌سازی‌ها احساس کنم. آیا کسی می تواند مجموعه داده های محبوب را برای آموزش و آزمایش الگوریتم های درخت تصمیم توصیه کند؟ من منابعی مانند این را پیدا کرده ام، اما مطمئن نیستم که به طور گسترده از آن استفاده شود.
مجموعه داده معیار برای الگوریتم درخت تصمیم
1412
زمینه: در برخی از حوزه های تحقیقاتی روانشناسی شناختی، تکالیف انتخاب اجباری غیر جایگزین رایج است. رایج ترین آنها دو انتخاب اجباری جایگزین (2AFC) است. این معمولاً به شکلی است که به شرکت‌کنندگان یک محرک داده می‌شود و از آنها خواسته می‌شود یکی از دو قضاوت را انجام دهند، مثلاً. محرک هدف موجود/غایب است، محرک سمت چپ با محرک سمت راست یکسان/متفاوت است، و غیره. اما وجود دارند، به عنوان مثال برخی تحقیقات شناسایی شاهدان عینی از آنجایی که متغیر وابسته (درست/نادرست) باینری است، این آزمایش‌ها مکان‌های معقولی برای استفاده از رگرسیون لجستیک هستند. سوال من این است: از آنجایی که عملکرد شانس در یک آزمایش 2AFC 50٪ است، آیا هنوز هم منطقی است که از تابع پیوند لجستیک استاندارد استفاده کنیم؟ به طور خاص، تابع لجستیک دارای حداقل مقدار نزدیک به 0٪ صحیح است، اما در عمل شرکت کنندگان در 2AFC باید حداقل 50٪ از زمان ها به دلیل شانس درست باشند. من حالت زیر را تصور می کنم که در آن ممکن است مشکل ایجاد کند: یک متغیر مستقل در حال ارزیابی دشواری تمایز است (مثلاً دشواری 1، آسان - 5، سخت؛ لطفاً توجه داشته باشید که این به صورت ترتیبی فقط برای سهولت درک - برای درک مطلب معرفی شده است. به خاطر این بحث، این متغیر را به صورت فاصله ای در نظر بگیرید) - شرکت کنندگان 50% در 5 و 4، 75% صحیح در 3، 85% صحیح در 2، و 99% درست در 1. آیا استفاده از یک تابع پیوند لجستیک استاندارد باعث می شود که شیب را دست کم بگیریم؟ [من اینطور فکر می کنم، اما اگر اشتباه می کنم، لطفاً مرا تصحیح کنید، به زیر مراجعه کنید] ویرایش: کسانی که تا کنون به سؤال من پاسخ داده اند بیان کرده اند که نحوه تنظیم مشکل نامشخص است. من نمونه زیر را برای کمک به روشن شدن مسائل ارائه می کنم. library(psyphy) make.data <- function(zero,one) { return(c(rep(0,zero),rep(1,one))) } center <- function(x) {return(scale(x, scale=FALSE))} logit.data <- data.frame(Score=c(make.data(50,50),make.data(50,50),make.data(25,75),make.data(15,85),make.data(1, 99))، Difficulty=rep(5:1،each=100)) logit.data$Difficulty2 <- center(logit.data$Difficulty)^2 استاندارد <- glm(Score~center(Difficulty),data=logit.data,family=binomial) #استاندارد عملکرد پیوند استاندارد.2 <- glm(Score~center(Difficulty)+ Difficulty2,data=logit.data,family=binomial) تابع پیوند استاندارد #استاندارد، اما بهتر است با یک quadradic revised.link <- glm(Score~center(Difficulty),data=logit.data,family=binomial(mafc.logit(2))) AIC(base) AIC(base.2) AIC(revised.link) coef( پایه) coef(base.2) coef(revised.link) #plot نمودار (تفاوت، plogis (ضریب (استاندارد)[1] +coef(استاندارد)[2]*center(diffs)),xlab=Difficulty,ylab=Pr(Correct),ylim=c(0,1),col=blue,type=l );abline(.5,0,col=Orange);lines(diffs,plogis(coef(standard.2)[1]+coef(standard.2)[2]*cente r(diffs)+coef(standard.2)[3]*center(diffs)^2),col=Cyan);lines(diffs,(p2afc(coef(revised.link)[1 ]+coef(revised.link)[2]*center(diffs))), col=Green);lines(5:1,c(.55,.60,.75,.85,.99)، col = سیاه و سفید) ![متن جایگزین](http://i.stack.imgur.com/elxVG.jpg) در تصویر بالا، خط افقی نارنجی 50% پاسخ های صحیح را نشان می دهد. خط مشکی ناهموار داده های ارائه شده به معادله تخمین را نشان می دهد (توجه داشته باشید که مقادیر 4 و 5 در پشت نشانگر 50% نارنجی ناپدید می شوند). خط آبی معادله ای است که توسط یک پیوند لجستیک استاندارد تولید می شود. توجه داشته باشید که دقت زیر 50% را زمانی که تبعیض سخت تر است تخمین می زند (5). خط فیروزه ای پیوند لجستیکی استاندارد با عبارت درجه دوم است. خط سبز یک پیوند غیر استاندارد است که در نظر می‌گیرد که داده‌ها از یک آزمایش 2AFC می‌آیند که در آن عملکرد بسیار بعید است که به زیر 50% برسد. توجه داشته باشید که AIC برای تناسب مدل با استفاده از یک تابع پیوند غیر استاندارد از تابع پیوند لجستیک استاندارد برتر است. همچنین توجه داشته باشید که شیب معادله استاندارد کمتر از شیب معادله استاندارد با عبارت درجه دوم است (که با دقت بیشتری داده های واقعی را منعکس می کند). بنابراین، استفاده کورکورانه از یک تابع لجستیک بر روی داده های 2AFC (حداقل) به نظر می رسد که شیب را دست کم می گیرد. آیا تظاهرات من مشکلی دارد به این معنی که من چیزی را که فکر می کنم می بینم نمی بینم؟ اگر درست می گویم، پس چه پیامدهای دیگری (در صورت وجود) استفاده از تابع لجستیک عمومی با داده های 2AFC [احتمالاً قابل گسترش برای موارد NAFC] است؟
پیامدهای یک تابع پیوند نامناسب در N روش انتخاب اجباری جایگزین (به عنوان مثال 2AFC)؟
72027
در یک انتخابات، نامزد $A$ $n$ رای و کاندید $B$ $m$ رای که $n>m$ دریافت می‌کند. احتمال اینکه $A$ همیشه در شمارش آرا جلوتر باشد $\dfrac{n-m}{n+m}$ است. این به عنوان قضیه رأی برتراند شناخته می شود. یک تغییر اجازه دادن به کراوات است. بنابراین برای $n\geq m$ چه چیزی $P (A\text{ هرگز پشت سر نیست})$ است؟
مشکل رای با کراوات
72024
من می‌دانم اعتبارسنجی متقاطع K-fold چیست، اما چین‌های متعادل به چه معناست؟ من فکر کردم اعتبار سنجی متقاطع k-fold متعادل است. چه تفاوت هایی بین این دو وجود دارد؟
اعتبارسنجی متقابل متوازن
66246
همبستگی دلالت بر علیت ندارد. علیت دلالت بر همبستگی دارد اما نه لزوماً همبستگی خطی. ... پس آیا همبستگی دلالت بر علیت مرتبه بالا دارد؟ اگر A و B همبستگی داشته باشند، آیا همیشه می توان متغیرهای `K={K1 K2 ... Kn}` را یافت به طوری که A~K1, K1~K2, ...,Kn-1~Kn و Kn~B ~ دلالت بر علیت دارد. به عبارت دیگر، اگر در یک همبستگی علیت وجود نداشته باشد، آیا متغیر(های) علی مشترک همیشه وجود دارد؟
همبستگی در مقابل علیت
77211
بگذارید یک کیسه 1000 توپ، 100 توپ قرمز و 900 توپ آبی داشته باشد. اکنون، اجازه دهید ده نمونه مستقل (بدون جایگزینی در هر نمونه) از جمعیت اصلی (هر کدام 10٪) بدست آوریم. به شمارش تعداد توپ های قرمز در هر نمونه ادامه دهید، یعنی: (9، 10، 10، 11، 13، 8، 5، 15، 12، 9) برای تخمین تعداد توپ های قرمز در جمعیت اصلی، می توان محاسبه کرد. میانگین لیست بالا و تقسیم بر نمونه. در این حالت: (9 + 10 + 10 + 11 + 13 + 8 + 5 + 15 + 12 + 9) / 10 / 0.1 = 102 سؤالات من بدین ترتیب است: 1. به جای عدد، چگونه می توانم جرم احتمال را بدست بیاورم. تابع جمعیت تخمینی؟ آیا استفاده از قضیه حد مرکزی در اینجا، جایی که توزیع $N = (\mu,\sigma^2/n)$ درست است؟ من با این رویکرد مشکل دارم زیرا ارزش های منفی معنی ندارند. 2. حالا تصور کنید تعداد نامتناهی نمونه (همه با 10 درصد جمعیت)، یا حداقل تعداد بسیار زیاد (اما شناخته شده) نمونه دارم، و به گرفتن نتیجه برای هر یک از آنها، یک به یک ادامه دهید. چگونه می توانم تصمیم بگیرم که چه زمانی ممکن است متوقف شود (با اطمینان خاصی)؟ * * * برخی توضیحات در مورد مشکل اصلی: 1. اندازه جمعیت _à priori_ شناخته شده است. 2. اما تعداد رنگ ها _à priori_ مشخص نیست. 3. نه نسبت آنها. 4. هر نمونه بدون جایگزینی توپ می گیرد. 5. نمونه ها مستقل هستند (پس از نمونه برداری، همه توپ ها جایگزین می شوند).
برآورد اندازه جمعیت یک زیر گروه بر اساس نمونه های مستقل بدون جایگزینی
73774
فرض کنید ما یک مدل (تابع، الگوریتم) $M$ را آموزش داده ایم که نمونه جدیدی را که در مجموعه آموزشی مشاهده نشده است، پیش بینی می کند. طبیعی است که فرض کنیم کیفیت پیش‌بینی $M(x)$ به شباهت x$$ با مجموعه آموزشی $X$ بستگی دارد. نمی‌دانم آیا شاخص‌ها/روش‌هایی وجود دارد که شباهت $x$ را با مجموعه آموزشی $X$ ارزیابی کند، یا هر شاخصی که کیفیت پیش‌بینی $M(x)$ را ارزیابی کند. برای دقیق‌تر بودن، نمی‌خواهم عملکرد کلی مدل (که می‌تواند توسط RMSE، R-squared یا تابع انحراف ارزیابی شود)، اما می‌خواهم کیفیت پیش‌بینی $M(x)$ را برای آن تخمین بزنم. این x$ خاص. خیلی خوب می شود اگر کسی بتواند به من به ادبیات مربوط به این مشکل اشاره کند.
شباهت عنصر جدید x با مجموعه آموزشی X
49935
من با نمادهایی مانند: \begin{align} y_{ij} &= \beta_0 + \beta_i x_{ij} + u_j + e_{ij}\\ &= \beta_{0j} + \beta_i x_{ij آشنا هستم } + e_{ij} \end{align} که در آن $\beta_{0j}=\beta_{0}+u_j$، و \begin{align} y_{ij} &= \beta_0 + \beta_1 x_{ij} + u_{0j} + u_{1j} x_{ij} + e_{ij} \\ &= \beta_{0j} + \beta_{1j} x_{ij} + e_{ij} \end{align} که در آن $\beta_{0j}=\beta_{0}+u_{0j}$ و $\beta_{1j}=\beta_1+u_{1j}$ به ترتیب برای یک مدل قطع تصادفی و یک مدل شیب تصادفی + مدل برش تصادفی. من همچنین به این نماد ماتریس/بردار برخورد کرده‌ام که به من گفته شده است نشان‌گذاری مدل مختلط برای بزرگسالان (به گفته برادر بزرگترم): $$ \mathbf{y}=\mathbf{X\beta} + \ mathbf{Z b} + \mathbf{e} $$ که در آن $\mathbf{\beta}$ اثرات ثابت و $\mathbf{b}$ هستند اثرات تصادفی اگر به درستی متوجه شده باشم، نماد دوم نمادی کلی تر برای اولی است که نسخه های خاصی از دومی است. من باید ببینم چگونه می توان اولی را از دومی استخراج کرد.
تطبیق نمادها برای مدل های ترکیبی
96882
من مشکلی با توصیف نتایج یک تحلیل ساده به روشی منسجم دارم. این برای مطالعه مداخله ای است که در 25 شهر مختلف انجام شد تا تعداد مرگ و میرهای رختخواب را کاهش دهد. داده ها برای تعداد مرگ و میر در تخت قبل از شروع مداخله (مرحله پایه)، و برای تعداد پس از انجام مداخله است. هر دو مرحله پایه و مداخله به مدت یک سال به طول انجامید. من یک رگرسیون پواسون برای تعداد مرگ و میر تختخواب انجام داده ام و برای خوشه بندی در سطح شهر تنظیم کرده ام. من تأثیر قابل توجهی دریافت می کنم (کاهش 20٪، با 95٪ C.I 9 - 30.2)، اما این مسائل زمانی ایجاد می شود که سعی می کنم میزان تخمینی مرگ تخت نوزاد را قبل و بعد از مداخله بیان کنم. با تنظیم مجدد برای خوشه‌بندی در سطح شهر، من 113 در 100000 (95% CI 96 - 130) در ابتدا و 92 در هر 100000 (95% CI 75 - 120) بعد از مداخله دریافت می‌کنم. بنابراین اگرچه اندازه اثر قابل توجه است، اما فواصل اطمینان برای نرخ ها با هم همپوشانی دارند! من فرض می‌کنم که مقایسه فواصل اطمینان در نرخ‌ها گمراه‌کننده خواهد بود، زیرا آنها از توزیع‌های حاشیه‌ای ناشی می‌شوند و جفت شدن بین شهرها را از مرحله پایه تا مرحله مداخله منعکس نمی‌کنند. اما چگونه باید این نتایج را توصیف کنم تا از این نتیجه گیری گمراه کننده جلوگیری کنم؟
کمک مورد نیاز برای جمله بندی: اندازه اثر قابل توجه اما CIهای همپوشانی
41771
می خواستم بدانم آیا کتابخانه های R خوب برای شبکه های عصبی یادگیری عمیق وجود دارد؟ من می‌دانم که «nnet»، «neuralnet» و «RSNNS» وجود دارد، اما به نظر می‌رسد هیچ یک از این‌ها روش‌های یادگیری عمیق را پیاده‌سازی نمی‌کنند. من به ویژه به یادگیری بدون نظارت و به دنبال آن یادگیری تحت نظارت و استفاده از ترک تحصیل برای جلوگیری از سازگاری مشترک علاقه دارم.
کتابخانه های R برای یادگیری عمیق
77213
![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/CLm9y.jpg) چگونه می توانم شاخص Gini را با استفاده از ویژگی **Instance** به عنوان شرط تست ویژگی محاسبه کنم؟ من جینی را محاسبه کردم، اما هیچ سرنخی ندارم که چگونه آن را برای این ویژگی Instance انجام دهم. $$\text{Gini برای } a_1 = 0.345 $$ $$\text{Gini برای } a_2 = 0.493 $$ $$\text{Gini برای } a_3 = ?$$ من حدس می‌زنم که پاسخ این ویژگی همان ویژگی Instance باشد هیچ کسب اطلاعاتی ندارد با این حال، من نمی توانم این را ثابت کنم. $$\text{Gini} = 1 - \sum_i p(i|t)^2$$
محاسبه شاخص جینی
72023
من به این یکی گیر کرده ام. اجازه دهید $X_1،...X_n$ یک i.i.d باشد. دنباله ای از متغیرهای تصادفی با CDF F. CDF تجربی $X_i$ تعریف شده است $$ \hat F_n(x) = \frac{1}{n} \sum_{1 \leq i \leq n} I\{X_I \ leq x \}. $$ توجه داشته باشید که برای $x \in \Re$، $\hat F_n(x) \xrightarrow{p} F(x)$. همچنین، کوچکترین میانه P را به صورت $$ \theta_0 = \inf \{ x \in \Re : F(x) \geq 0.5 \} تعریف کنید. $$ فرض کنید که میانه منحصر به فرد است، یعنی برای هر $\epsilon > 0$، $P(X_i \leq \theta_0 + \epsilon) > 0.5$. برآوردگر $\hat \theta_n$ $\theta_0$ را با $$ \hat \theta_0 = \inf \{x \in \Re : \hat F_n(x) \geq .5 \} تعریف کنید. $$ نشان دهید که $\hat \theta \xrightarrow{p} \theta_0$.
همگرایی در احتمال میانه تجربی
1413
به نظر می رسد که تجدید نظر فعلی lmer به توابع پیوند سفارشی اجازه نمی دهد. 1. اگر نیاز به تطبیق یک مدل اثر ترکیبی خطی لجستیک با یک تابع پیوند سفارشی باشد، چه گزینه‌هایی در R موجود است؟ 2. اگر هیچ کدام - چه گزینه هایی در سایر بسته های آماری/برنامه نویسی موجود است؟ 3. آیا دلایل مفهومی وجود دارد که lmer توابع پیوند سفارشی ندارد، یا محدودیت ها صرفاً عملی/برنامه ای هستند؟
مدل های رگرسیون مختلط و توابع پیوند سفارشی در R؟
72799
در اینجا یک سؤال برای کتاب های درسی وجود دارد، اما من می خواهم سؤال مشابهی در مورد کتاب های راهنما بپرسم: چه کتاب های راهنمای اقتصاد سنجی را توصیه می کنید؟ مخاطبان فرضی پژوهشگران و دانشجویان مقطع کارشناسی ارشد هستند. این باید شامل مطالب _تحلیل_اقتصادی_ گرین و _تحلیل_اقتصادی_مقطع و داده های تابلویی وولدریج_ به شکل متراکم تر (بدون بحث و برهان)، و همچنین تکنیک های رایجی باشد که در این دو کتاب ذکر نشده است. یکی از گزینه‌ها، ۶ جلد از سری کتاب راهنمای اقتصاد سنجی الزویر است که توسط گریلیش و اینستریلیگاتور ویرایش شده است. با این حال، شاید شما کتاب های راهنما دیگری را توصیه کنید، مختصرتر یا غیر آن؟ من دو قالب ممکن را پیشنهاد می‌کنم: یکی فرمت کارت مرجع با حداقل توضیحات، و دیگری قالب گسترده‌تر با اثبات و توضیح دقیق‌تر.
کتاب های راهنمای اقتصاد سنجی خوب چیست؟
72793
در اینجا یک مشکل از یک آزمون تمرینی وجود دارد. فرض کنید $$X_i = \mu + \epsilon_i,\quad i=1,\ldots,n\quad \epsilon_i\sim N(0,\sigma^2_1)$$ $$Y_i = \mu + \delta_i,\ quad i=1,\ldots,m\quad \delta_i\sim N(0,\sigma^2_2)$$ همه $\epsilon_i$ و $\delta_i$ مستقل هستند. پارامترهای $\mu، \sigma_1^2، $ و $\sigma_2^2$ ناشناخته هستند. اجازه دهید $\theta=m/n$، $\rho=\sigma_2^2/\sigma_1^2$. فرض کنید $\rho$ شناخته شده است. نشان دهید که حداقل مربعات (وزنی) برآوردگر $\mu$ $$ \hat{\mu} = \dfrac{\rho\bar{X} + \theta\bar{Y}}{\rho+\theta}$ است. $ تلاش من: من نمی توانم بفهمم که چگونه از این واقعیت استفاده کنم که $\rho$ شناخته شده است. من $$\hat{\mu} = \text{argmin}\left\{\sum_{i=1}^n (X_i-\mu)^2 + \sum_{i=1}^m (Y_i- را امتحان کردم \mu)^2\right\}$$ و رسید که میانگین وزنی $$ \hat{\mu} = \dfrac{n\bar{X} + m\bar{Y}}{n+m}$$ اما دوباره این کار را انجام می دهد از این واقعیت استفاده نکنید که می دانیم نسبت $\sigma_2^2/\sigma_1^2$ چقدر است. هر ایده ای؟
برآورد حداقل مربعات وزنی
41774
من می خواهم قدرت آماری یک آزمون نسبت درستنمایی را بر اساس اطلاعات متقابل محاسبه کنم. من از ویژگی مجانبی استفاده می‌کنم که آمار آزمون $G = 2NI$ که $N$ اندازه نمونه است و $I$ اطلاعات متقابل است. من حجم نمونه بزرگی دارم (مثلاً مشاهدات 10^6$) اما درجات آزادی زیادی دارم (مثلا 6000^2$)، بنابراین من مقدار بحرانی فاصله $\chi^2$ را با استفاده از تقریب معمولی $\ محاسبه می‌کنم. chi^2 \sim \mathcal{N}(\nu, 2\nu)$. گمان می‌کنم که تلاش می‌کنم نشان دهم که حجم نمونه مورد نیاز برای اطمینان قابل توجه با درجه آزادی بسیار غیرمنطقی است، بنابراین هر رویکرد جایگزین برای استدلال این نکته نیز مورد استقبال قرار می‌گیرد. من یک آمارگیر نیستم، پس اگر این سوال بد بیان شده یا اشتباه فکر شده است عذرخواهی می کنم!
چگونه می توانم توان آماری آزمون نسبت درستنمایی مبتنی بر MI را با df زیاد محاسبه کنم؟
77216
شرایط یک سری زمانی ضعیف-ایستا عبارتند از: (1) ثابت در میانگین (2) ثابت در ممان های مرتبه دوم. ما می‌توانیم ثابت بودن یک سری زمانی را با استفاده از «kpss.test()» در R آزمایش کنیم. اگر بگوییم، یک سری زمانی $X_t$ توسط آزمایش غیر ثابت است. آیا راهی برای بررسی اینکه آیا در میانگین ثابت نیست، یا گشتاورهای مرتبه دوم آن در طول زمان در حال تغییر هستند وجود دارد؟
چگونه می توان تعیین کرد که آیا یک سری زمانی غیر ثابت دارای تغییر در میانگین یا تغییر در واریانس است؟
73777
من تازه وارد g*power هستم و در مورد اینکه کدام آزمون را باید انتخاب کنم و چگونه حجم نمونه داده شده را تفسیر کنم، سوال دارم. من 2 اندازه گیری (قبل / بعد)، یک گروه کنترل و یک گروه مداخله دارم. در یک مطالعه مرجع، من توانستم اندازه اثر 0.7 را برای مهمترین پارامتر پیدا کنم. در g*power من F-test -> ANOVA RM درون تعاملی را انتخاب کردم، توانی 0.8 و آلفا 0.05. سوالات من این است: 1. آیا آزمون درست را انتخاب کردم؟ 2. آیا حجم نمونه به دست آمده مربوط به هر گروه است یا کل؟ 3. با توجه به اندازه افکت 0.7 که در یک مطالعه مرجع پیدا کردم، آیا اجازه دارم آن را با g*power -> effect size f پر کنم یا باید آن را همانطور که در 0.25 بود رها کنم؟
حجم نمونه و انتخاب صحیح تست در g*power
24263
با توجه به چند تای اعتبار متقابل یک رگرسیون لجستیک، و تخمین‌های متعدد حاصل از هر ضریب رگرسیون، چگونه باید اندازه‌گیری کرد که آیا یک پیش‌بینی‌کننده (یا مجموعه‌ای از پیش‌بینی‌کننده‌ها) بر اساس ضریب(های رگرسیون) پایدار و معنادار هستند یا خیر؟ ? آیا این برای رگرسیون خطی متفاوت است؟
پایداری مدل در اعتبارسنجی متقابل مدل‌های رگرسیونی
73775
من با داده های رضایت مشتری کار می کنم که در آن متغیر وابسته رضایت کلی و متغیرهای مستقل رضایت از حوزه های مختلف مانند پشتیبانی مشتری، تحویل و غیره است. می خواهم مناطقی را پیشنهاد کنم که شرکت باید روی آنها تمرکز کند تا رضایت کلی را بهبود بخشد. . گزینه 1: من می توانم به همبستگی های بین رضایت کلی و متغیرهای مستقل نگاه کنم و پیشنهاد کنم که شرکت روی 3 همبستگی مثبت برتر به عنوان زمینه های بهبود تمرکز کند. گزینه 2: می توانم از رگرسیون خطی استفاده کنم و پیشنهاد کنم که شرکت باید بر روی مناطق مرتبط با 3 ضریب رگرسیون تمرکز کنید، آیا این دو گزینه معادل هستند؟
آیا اهمیتی دارد که از همبستگی یا ضرایب رگرسیون برای پیشنهاد مناطقی برای تمرکز بر بهبود رضایت کلی مشتری استفاده کنم؟
50597
فرض کنید مجموعه داده ای از میانگین ها و انحرافات استاندارد داریم. بنابراین داده ها به شکل $X_1=(\bar{x}_1, \bar{x}_2,\dots, \bar{x}_n)$ و $X_2 =(s_1,s_2, \dots, s_n) هستند. $. آیا ابزاری برای مشاهده $\overline{X_1}$ وجود دارد؟ همچنین آیا رابطه ای بین $\text{Stdev}(X_1)$ و $X_2$ وجود دارد؟ به نظر می رسد که $X_2$ تغییرپذیری و $\text{Stdev}(X_1)$ متغیر درونی را می دهد. شاید این مربوط به قانون کل واریانس باشد؟
مجموعه داده از ابزار
73778
اجازه دهید یک متغیر تصادفی گسسته $T$ دارای CDF $F_T(T)$ باشد. آیا می‌توانید به من کمک کنید تا بفهمم چرا $$ P \left[ F_T (T) \leq a_1 \right] \leq a_1 $$ می‌دانم که نتیجه برای حالت پیوسته برابر است، به عنوان تبدیل انتگرال احتمال شناخته می‌شود، اما من در درک آن برای گسسته مشکل دارم زیرا معکوس آن تعریف نشده است. متشکرم.
نابرابری تابع توزیع تجمعی (توزیع های گسسته)
91619
فرض کنید یک گروه کلی از موسسات مالی (fi) متشکل از بانک ها (ba) و اتحادیه های اعتباری فدرال (fcu) دارید. تعداد کل fi 73 است. تعداد ba 46 و عدد fcu 27 است. بیایید فرض کنیم که تعداد کل کارکنانی که برای ba کار می کنند 2500 و تعداد کل کارکنانی که برای fcu کار می کنند 1080 باشد. چگونه می سازید. نمونه یا گروه های نمونه که نماینده هر گروه هستند. یعنی ba و fcu؟
تعیین حجم نمونه از نمونه تلفیقی
93614
فرض کنید که مدل زیر را داریم $$ y[t] = A_1\sin(\omega_1 t+\phi_1)+A_2\sin(\omega_2 t + \phi_2)+ \cdots + A_p \sin(\omega_pt + \phi_p) + z(t) . $$ اجازه دهید این سیگنال را به صورت B بنامیم. سپس در matlab دستورات زیر را اجرا کردم >> [pxxr,fr]=pyulear(B,50,1024,100); >> plot(fr,pxxr) من تصویر زیر را دریافت می کنم ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/omDoL.png) به نظر می رسد که دستور درست است، اما من آن را با استفاده از آن انجام داده ام ترسیم خود همبستگی جزئی من می دانم که معیارهای دیگری برای تعیین ترتیب AR وجود دارد، مانند AIC، BIC، حداقل طول توصیف (MDL)، اما چگونه آنها را در matlab محاسبه کنیم؟ لطفا با کد یا معیارهای دیگر در متلب به من کمک کنید تا ترتیب مدل AR را تعیین کنم.
تعیین ترتیب مدل AR
77210
فرض کنید من داده هایی به شکل زیر دارم t1 = data.frame(a=c(2,3,3,1,5),b=c(6,4,5,2,1)) t2 = data.frame( a=c(3,4,4,1,8),b=c(5,5,5,3,3)) اگر Plot(t1$a,t1$b) را در نظر بگیرید و 'plot(t2$a,t2$b)'، می توانید تصور کنید که پلات دوم با گرفتن هر نقطه از پلات اول و انتقال آن به مکان جدید خود در نمودار دوم تولید می شود. من یک راه خوب برای تجسم این می خواهم. یکی از راه هایی که به آن فکر کردم این بود که هر «t1» «(a,b)» را به عنوان یک بردار نشان دهم که به نقطه مربوط به «t2» «(a,b)» می رسد و سپس دسته ای از بردارها را رسم می کنم. من قبلاً در معادلات دیفرانسیل انجام می دادم (نام فنی این نوع نمودار را فراموش می کنم). اساساً، این نمودار یک دسته از فلش‌های کوچک است که به ترتیب از هر «t1» «(a,b)» سرچشمه می‌گیرد و به ترتیب به هر «t2» «(a,b)» اشاره می‌کند. هر گونه ایده در مورد نحوه انجام این کار در `R`، یا هر ایده دیگری برای تجسم و مشاهده نحوه حرکت هر نقطه. توجه: در نسخه واقعی کاری که امیدوارم انجام دهم، داده های زیادی دارم، شاید 200 امتیاز، و سعی می کنم نشان دهم که به طور کلی، نقاط به سمت مقادیر کوچکتر a و مقادیر b کوچکتر از «t1» به «t2». اما من واقعاً می‌خواهم این را به روش دیگری به جز چیزی مانند هیستوگرام تفاوت بین «t2» و «t1» میانگین «a» و «b» نشان دهم.
R - حرکت نقاط را نشان می دهد
50596
من نمی‌دانم آیا می‌توان واگرایی KL را با احتمال خطا در یک تنظیم تست فرضیه باینری بیزی مرتبط کرد. یعنی، ما باید بین فرضیه‌های $A$ و $B$ با توجه به مشاهداتx تصمیم بگیریم، و احتمالات قبلی درست بودن $p(A)$ و $p(B)$ را داریم به طوری که $p(A)+p (B) = 1 دلار. تحت $A$ یا $B$، مشاهدات توزیع‌های احتمال (متفاوت) $p_A(x)$ و $p_B(x)$ را القا می‌کند. تنظیم مشابه سؤال قبلی است و این سؤال ممکن است بسط آن در نظر گرفته شود. بیان مجدد معادله زیر (3) از سؤال قبلی، احتمال خطای آزمون فرضیه را با کران های پایین تر نشان می دهد: $$P_e = \frac{1-||p_A(x)p(A) - p_B(x)p(B)||_1 }2\tag{1}$$ که در آن $||\cdot||_1$ نشان‌دهنده هنجار $L_1$ است. هنگامی که احتمالات قبلی برابر هستند، یعنی $P(A)=P(B)=\frac{1}{2}$، (1) به عبارتی کاهش می‌یابد که شامل فاصله تغییرات کل بین توزیع‌های احتمال است که توسط دو فرضیه القا می‌شود. : $$P_e = \frac{1-\frac{1}{2}||p_A(x) - p_B(x)||_1}2\tag{2}$$ نابرابری پینسکر بیان می کند که $$||p_A(x) - p_B(x)||_1\leq\sqrt{2D(p_A(x)||p_B(x))}\tag{3}$$ جایی که $D( p_A(x)||p_B(x))=\sum_x p_A(x)\log\frac{p_A(x)}{p_B(x)}$. البته (3) را می توان برای کران پایین (2) به صورت زیر استفاده کرد: $$P_e \geq \frac{1-\frac{1}{\sqrt{2}}\sqrt{D(p_A(x)| |p_B(x))}}2\tag{4}$$ با این حال، نمی‌دانم که آیا می‌توان کران پایینی مبتنی بر واگرایی KL مشابه را برای (1) مشتق کرد. آیا وزن‌دهی با پیشین‌ها در این مورد کار می‌کند، یعنی (5) درست است: $$||p_A(x)p(A) - p_B(x)p(B)||_1\leq\sqrt{2D(p_A( x)p(A)||p_B(x)p(B))}\tag{5}$$ فکر نمی‌کنم درست باشد. بنابراین، آیا یک کران پایینی مبتنی بر واگرایی KL برای (1) وجود دارد؟
نابرابری پینسکر برای آزمون فرضیه بیزی
72792
من در حال تلاش برای یافتن چندین نقطه شکست با استفاده از «جریان فرآیند» از بسته «CPM» در R هستم. آیا کسی می‌تواند به من توضیح دهد که «ARL0» چیست؟ processStream(ret.fin.chn,Kolmogorov-Smirnov,ARL0=500,lambda=NA) $changePoints [1] 59 75 250 286 443 448 663 1037 1042 1261 1576 183212315 2633 $detectionTimes [1] 73 89 285 334 447 503 670 1040 1145 1428 1639 1951 1874 2030 2078 2632 2644 در حالی که processStream(ret.fin.chn,Kolmogorov-Smirnov,ARL0=2000,lambda=NA) $changePoints [1] 59 75 663 1037 1261 1559 1842 2013 2035 2621 2639 2639 2639 $1 1041 1480 1688 2026 2032 2266 2633 2646 و processStream(ret.fin.chn,Kolmogorov-Smirnov,ARL0=3000,lambda=NA) $changePoints [1] 59 710 67251510 2013 2149 $detectionTimes [1] 75 92 692 1041 1490 1690 2026 2032 2284 Tt به نظر می رسد که «ARL0» متفاوت تشخیص نقطه شکست کمتری ارائه می دهد، آیا این چیز خوبی است؟ **توجه**: سری زمانی «ret.fin.chn» شامل 2749 ردیف است. در زیر گزیده‌هایی از کمک «R» آمده است: > ARL0 > > «ARL_0» را تعیین می‌کند که CPM باید داشته باشد، که با > میانگین تعداد مشاهدات قبل از وقوع مثبت کاذب مطابقت دارد، با این فرض که > دنباله تغییری نمی‌کند. از آنجایی که تخمین آستانه‌های CPM از نظر محاسباتی گران است، بسته حاوی مقادیر آستانه‌های از پیش محاسبه‌شده مربوط به چندین مقدار رایج > «ARL_0» است. این بدان معنی است که فقط مقادیر خاصی برای «ARL_0» مجاز است. > به طور خاص، «ARL_0» باید یکی از مقادیر زیر را داشته باشد: 370، 500، > 600، 700، ...، 1000، 2000، 3000، ...، 10000، 20000، ...، 50000
چگونه می توان تعیین کرد که چه ARL0 باید در بسته CPM برای آزمایش تغییرات ساختاری استفاده شود
72794
من می‌خواهم احتمال مشترک $\Phi_A$ و $\Phi_B$ را بیان کنم: $p(\Phi_A, \Phi_B)$ به شرطی که $\Phi_A$ و $\Phi_B$ هر دو بزرگ‌تر از مقدار C باشند. این را به صورت ریاضی بیان کنید؟ حدس می‌زنم شهود من می‌گوید: $p(\Phi_A, \Phi_B | \bf{\Phi} >C)$ آیا این درست است؟ آیا راه بهتری برای بیان این موضوع وجود دارد؟
نحوه بیان احتمال مشروط مشترک با چندین شرایط
93617
من تازه وارد سایت و آمار بیزی هستم و امیدوار بودم کمکی بگیرم. من در حال حاضر روی چند تمرین مطالعه کار می کنم و باید میانگین و واریانس چگالی خلفی را در R محاسبه کنم. چگالی قبلی با یک منحنی نرمال با میانگین 6 و واریانس 0.25 نشان داده می شود، در حالی که میانگین مشاهده شده از نمونه (از چگالی نرمال) 24 = 7.69 با واریانس 2.0 است. اکثر قرائت‌ها و مطالعه‌هایی که انجام داده‌ام مربوط به تخمین‌های احتمال است - هیچ‌چیز مشخصاً به تمرین‌هایی که در حال حاضر سعی در انجام آن‌ها دارم مربوط نمی‌شود. هر گونه کمک یا مشاوره یا اطلاعات بسیار قدردانی خواهد شد. با تشکر
چگالی خلفی در R
72025
سکه‌ای که با احتمال $p$ بالا می‌آید، $n$ بار متوالی ورق می‌خورد. احتمال اینکه از اولین تلنگر شروع شود، همیشه تعداد سرهای بیشتری از دم ظاهر شده است چقدر است؟ من نکاتی را دیده ام که نشان می دهد این مشکل رای پنهان برتراند است. این تلاش من است: اجازه دهید $X$ تعداد سرها در $n$ پرتاب با یک سکه به احتمال $p$ باشد. اجازه دهید $Y$ تعداد دنباله ها باشد. اجازه دهید $s=\text{floor}(n/2)+1$ $\begin{align*}P(\text{Always more heads}) &= \sum_{k=0}^n P(\text{ همیشه بیشتر سر}|X=k)P(X=k)\\ &= \sum_{k=s}^n P(\text{همیشه بیشتر heads}|X=k)P(X=k)\\ &= \sum_{k=s}^n \dfrac{k-(n-k)}{k+n-k}{n \انتخاب k}p^k( 1-p)^{n-k}\\ &= \sum_{k=s}^n \dfrac{2k-n}{n}{n \choose k}p^k(1-p)^{n-k} \end{align*}$ این برای من هم خیلی ساده به نظر نمی رسد. آیا راه بهتری برای این کار وجود دارد؟ با تشکر
احتمال همیشه بیشتر از دم سر
114104
تفاوت بین متاآنالیز کلاسیک (که اندازه اثر را از نمونه مطالعات به اندازه اثر خلاصه می‌کند)، تحلیل متارگرسیون و تحلیل تعدیل‌کننده چیست؟ همانطور که فهمیدم از تحلیل تعدیل کننده برای توضیح ناهمگونی در یک متاآنالیز با رگرسیون بردار حاوی اندازه اثر هر مطالعه بر روی متغیرهای خاصی استفاده می شود که می تواند ناهمگونی را توضیح دهد (به عنوان مثال سال انتشار،...). اما تفاوت بین تحلیل تعدیل کننده و متارگرسیون چیست؟ با تشکر از کمک شما!
تفاوت بین متاآنالیز، متارگرسیون و تعدیل کننده
35618
من سعی می کنم در یک سری زمانی با پنجره 512 و افق 2 پیش بینی کنم. می خواهم بدانم آیا ارزش استفاده از ARIMA را دارد که به نظر می رسد درک آن به جای مدل ساده Autoregressive دشوار است؟
چه چیزی برای پیش‌بینی سری‌های زمانی بهتر است: AR یا ARIMA؟
93610
من یک متغیر وابسته «C» و یک متغیر مستقل «VPT» دارم. VPT حجم متوسط ​​هر درخت (بر حسب فوت مکعب) یک پایه چوبی است. «C» هزینه‌های ناشی از تابع هزینه است که هزینه‌های برداشت را به ازای هر فوت مکعب (به دلار) محاسبه می‌کند. نمودار بین این دو به این شکل است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/LqfIs.png) تغییر ناگهانی در حدود 28 فوت مکعب ناشی از تعامل در تابع هزینه است. من می خواهم یک مدل رگرسیون برای این دو ایجاد کنم. بر اساس نمودار من فرض می کنم که باید چیزی شبیه به این باشد: fit <- lm(C ~ I(VPT^(-1))) آیا راهی برای تعیین بهترین تناسب وجود دارد؟ آیا فقط باید تلاش کنم تا زمانی که چیزی مناسب به دست بیاورم یا راه کارآمدتری وجود دارد؟ * * * تابع هزینه دارای چهار پارامتر است: * حجم در هر درخت (VPT) * درختان در هر هکتار (TPA) * فاصله لغزش (SD) * شیب (S) در نهایت من می خواهم یک رگرسیون ایجاد کنم که نشان دهنده تابع هزینه باشد. چیزی شبیه این: مناسب <- lm(C ~ ß1xS + ß2xSD + ß3xTPA + ß4xVPT + ß5)
چگونه می توان رگرسیون را از یک طرح بدست آورد؟
50593
من دانش بسیار ابتدایی از آمار دارم، بنابراین ممکن است سوال من بسیار ساده به نظر برسد. من یک سری زمانی بزرگ از داده های اندازه گیری شده دارم و یک مدل با پنج پارامتر را برای پیش بینی کالیبره کرده ام. من می خواهم حساسیت مدل خود را آزمایش کنم اما مطمئن نیستم از چه روش آماری استفاده کنم. من در مورد تجزیه و تحلیل حساسیت مطالعه کرده ام، اما خروجی مدل من یک سری زمانی با نوسانات است و یک تحلیل حساسیت ساده مناسب به نظر نمی رسد زیرا به نقاط خروجی منفرد نگاه می کند و نه کل سری. آیا توصیه ای در مورد روش ها یا رویکردها دارید؟
تجزیه و تحلیل حساسیت برای سری های زمانی مدل شده
72797
اگر بتوانید هر گونه بینش/راهنمایی را که ممکن است مجبور به اشتراک گذاری باشید مرور و به اشتراک بگذارید، صمیمانه از آن متشکر می شوم!!!!! **مجموعه داده** شناسه سرور---------شناسه تعمیر---------نوع تعمیر----------تاریخ تعمیر * هر سرور می تواند نوع مشابهی داشته باشد تعمیر چندین بار در طول عمر خود * شناسه سرور یک سرور را شناسایی می کند * نوع تعمیر مدل قطعه در حال تعمیر را تعیین می کند (مدل دیسک / مدل رم) * حدود 600000 سرور با داده های تعمیر بیش از 3 میلیون وجود دارد. رکوردهای بیش از 3 سال **هدف** * انواع تعمیراتی را که ممکن است باعث تعمیرات مکرر متعاقب آن شوند را تعیین کنید **محدودیت** من احساس می کنم هیچ راه مشخصی برای ایجاد علیت وجود ندارد - از این رو به کسب و کار اطلاع دهید - اما احساس می کنم باید وجود داشته باشد روشی برای تعیین انواع خرابی که با فرکانس بالاتری از خرابی دنبال می شود **رویکرد فعلی من** 1) برای هر نوع خرابی برای هر سرور، R = X / Y را تعیین کنید که در آن X است ( تعداد خرابی ها بعد از خرابی مورد نظر تا آخرین خرابی تعداد روز از شروع سرور تا آخرین خرابی ) پیش فرض به 0 برای عدم خرابی 2) فقط اولین مقدار R را برای هر نوع خرابی در هر سرور حفظ کنید 3) میانگین را تعیین کنید و واریانس برای مقادیر R هر نوع خرابی 4) مرتب سازی بر اساس میانگین کاهش، واریانس صعودی و فیلتر N نوع خرابی اول **راهنمای شما: ???**
تجزیه و تحلیل خرابی در سرور
114102
من به تازگی مطالعه Bouchard's Minnesota Twins را مطالعه کرده ام که شباهت های شگفت انگیزی را در زندگی برخی از دوقلوهای همسان که از همدیگر پرورش یافته اند، نشان می دهد. هر دو شغل مشابهی داشتند، زنان متاهل و مطلقه به یک نام، سگ‌ها و بچه‌های یکسان و غیره. من فقط می خواستم بدانم که آیا مطالعات آماری وجود داشته است که عناصر یکسان را در زندگی گروه های مقطعی دو نفر تصادفی مقایسه کند؟
احتمال شباهت های زندگی در یک مقطع جمعیتی
35617
بنابراین می گوییم که من ارزش پیش بینی کننده یک پیش بینی کننده را نسبت به DV در یک مجموعه داده نظرسنجی، بین دو نقطه زمانی آزمایش می کنم. همچنین بگویید که من اندازه‌گیری‌های هر دو متغیر را در همه زمان‌ها دارم و می‌توانم ببینم که DV و پیش‌بینی‌کننده در ابتدا با هم ارتباط دارند. اگر من از رگرسیون خطی یا همبستگی پیرسون برای ارزیابی ارتباط بین پیش بینی کننده در خط مبنا و DV در نقطه زمانی بعدی استفاده کنم، آیا باید همبستگی را در خط مبنا تصحیح کنم؟ تصور می‌کنم که اگر تصحیح نکنم، برای این همبستگی اولیه، نه تنها پیش‌بینی DV را آزمایش می‌کنم، بلکه قابلیت اطمینان مجدد آزمون-آزمون پیش‌بینی‌کننده را نیز آزمایش می‌کنم. امیدوارم منطقی باشم
چگونه برای تصحیح همبستگی در پایه بین پیش بینی و DV؟
50592
من یک مشکل تکلیف در مورد یافتن یک مرز تصمیم بهینه دارم. من فرمول (نه واقعاً فرآیند) را برای محاسبه یک می دانم، بنابراین ممکن است کاملاً سؤال دیگری باشد، اما می دانم که به میانگین، کوواریانس و پیشین نیاز دارم. سوال در زیر نشان داده شده است. فرض کنید نقاط R^2 از دو کلاس C1 و C2 به دست می آیند، که هر دو به خوبی توسط گاوسیان دو متغیره با میانگین (0,0) و (1,3) و کوواریانس I و 2I به خوبی توصیف شده اند. به ترتیب. I ماتریس هویت (2x2) است. اگر مقدمات C1 و C2 به ترتیب 0.4 و 0.6 باشد، مرز تصمیم ایده آل (یعنی Bayes Optimal) چقدر است (معادله این مرز را بدست آورید)؟ وقتی می‌گوید کوواریانس‌های I و 2I... من ماتریس هویت (2x2) است، متحیر می‌شوم. آیا راهی برای محاسبه مقدار عددی کوواریانس بر اساس این اطلاعات وجود دارد؟ اگر چنین است، چگونه؟ من هرگز نشنیده بودم که اینگونه بیان شود.
کوواریانس یک ماتریس هویت داده شده گاوسی دو متغیره
50595
من به دنبال پیشنهادهایی در مورد نحوه برخورد با نقاط زمانی ناهموار و داده های از دست رفته در یک طرح تک گروهی با اندازه گیری های مکرر هستم. **زمینه:** گروهی متشکل از 220 نفر تحت درمان 4 ماهه کاهش وزن قرار گرفتند و به آنها ترازوهای بی سیم داده شد تا روزانه در خانه وزن خود را انجام دهند. نتیجه اولیه تغییر وزن از قبل به بعد از درمان است (که معمولاً برای آن از آزمون تی زوجی استفاده می‌کنم). **چگونه می توان وزن بعد از درمان را تعیین کرد؟** ما برای همه وزن های قبل از درمان داریم، اما تعیین وزن بعد از درمان سخت است زیرا همه افراد پس از درمان همزمان وزن نکرده اند (و برخی به طور کلی ترک تحصیل نکرده اند. ). **رویکرد الف: ایجاد پنجره زمانی برای تعیین وزن پس از درمان. ** من سعی کرده ام پنجره های زمانی دلخواه ایجاد کنم (1، 2، 4 یا 6 هفته در حدود تاریخ پایان درمان)، و سپس وزن متوسط ​​را تعیین کنم. برای تعیین وزن پس از درمان. من پیدا کردم (همه p < 0.01): پنجره 1 هفته: $n = 124$، $9.55$% کاهش وزن پنجره 2 هفته: $n = 143$، $7.52$% کاهش وزن پنجره 4 هفته: $ n = 161$، -6.39$% کاهش وزن پنجره 6 هفته ای: $n = 168$، -6.30$% کاهش وزن با این حال، این مشکل ساز است زیرا ترک تحصیل را حذف می کند. علاوه بر این، هر چه پنجره بزرگتر باشد، n بزرگتر است، اما اندازه اثر کوچکتر است (زیرا آزمودنی هایی که به طور منظم وزن نمی کردند نیز کمترین وزن را از دست دادند) و وزن از نظر اندازه گیری همزمان بین آزمودنی ها اعتبار کمتری دارد. . **رویکرد B: قصد درمان با آخرین مشاهده انجام شده به جلو.** فقط با استفاده از آخرین مشاهده از همه افراد، حداکثر تا 2 هفته پس از درمان: $n = 220$، -4.22$% کاهش وزن با این حال ، این مشکل ساز است زیرا انصراف ها اندازه اثر را کاهش می دهند (اگرچه بزرگترین n را حفظ می کند). **رویکرد C: مدل های مختلط؟** خوانده ام که مدل های مختلط می توانند نقاط زمانی ناهموار و داده های از دست رفته را کنترل کنند، اگرچه من با این روش بسیار آشنا نیستم و مطمئن نیستم که اثرات ثابت و تصادفی در اینجا چیست. . تلاش من برای اجرای آن در SPSS 21 باعث خطای حافظه ناکافی شد. **رویکرد د: چیز دیگری؟ (تلفیق چندگانه/رگرسیون/ANCOVA و غیره)**
چگونه وزن پس از درمان را با نقاط زمانی ناهموار تعیین کنیم؟
93616
من می‌خواهم سری‌های زمانی مربوط به فروش محصولات را خوشه‌بندی کنم. در پایگاه داده من 26 هفته پس از راه اندازی هر محصول و واحد فروخته شده هر هفته دارم. یکی از روش‌های خوشه‌بندی، خوشه‌بندی پارامترهای منحنی رشد متناسب با سری‌های زمانی است. آیا کسی می تواند به من بگوید قبل از تطبیق منحنی لجستیک به سری های زمانی چه کاری باید انجام دهم؟ آیا باید از استانداردسازی استفاده کنم، برای هر سری زمانی مدل ایجاد کنم، از lsm برای شمارش پارامترها و سپس خوشه بندی آنها استفاده کنم؟ برای هر توضیحی ممنون میشم
قبل از برازش منحنی لجستیک به سری های زمانی کدام مراحل باید انجام شود؟
50598
چگونه خروجی زیر را از R برای مدل ANOVA اندازه گیری های مکرر دو طرفه تفسیر کنم <- aov(value ~ BWRatio * NumGraBoolean + Error(participant/(BWRatio * NumGraBoolean))) ![توضیح تصویر را اینجا وارد کنید](http:/ /i.stack.imgur.com/kQCo7.png) به طور خاص، همه این اصطلاحات خطا به چه معنا هستند و چه p-value نشان می دهد؟ لطفاً عدم درک من از اندازه گیری های مکرر و ANOVA به طور کلی معذرت خواهی کنید، اما باقی مانده ها در اینجا نیز نشان دهنده چیست؟
نحوه تفسیر خروجی R برای ANOVA اندازه گیری های مکرر دو طرفه
22310
من سعی می کنم این سناریو را شبیه سازی کنم: 10 الگوریتم مختلف تعدادی از مسائل را حل می کنند. همه 10 مورد روی هر نمونه مشکل اجرا می شوند، به این معنی که اگر یک نمونه مشکل خاص سخت باشد، انتظار دارم همه الگوریتم ها عملکرد بسیار بدی داشته باشند و بالعکس. اکنون برای شبیه سازی این، 10 توزیع نرمال مختلف ایجاد کردم که از آنها اعداد تصادفی می کشم. این اعداد عملکرد الگوریتم ها را برای برخی از نمونه های مشکل نشان می دهند. با این حال، از آنجایی که توزیع‌ها مستقل هستند، من تأثیر نمونه مسئله را بر روی اعداد ترسیم شده نمی‌بینم. آیا ایده ای دارید که چگونه می توانم این کار را انجام دهم (یعنی اعداد تصادفی ترسیم شده را به هم مرتبط کنم)؟ با احترام
تولید اعداد همبسته از توزیع های مستقل
35616
من می خواهم یک آیتم ترکیبی از متغیرها با مقیاس زیر ایجاد کنم: کاملاً مخالف، مخالف، نه موافق یا مخالف، موافق، کاملاً موافق و نمی دانم. من قصد داشتم مقیاس را به صورت 1=کاملا مخالف، 5=کاملا موافقم کدنویسی کنم و آیتم ترکیبی را با این مقادیر محاسبه کنم. با این حال، نمی‌دانم چگونه پاسخ‌های «نمی‌دانم» را کدنویسی کنم (که حدود ۲٪ از کل پاسخ‌ها در نمونه کلی برای همه متغیرها هستند). پیشنهادی در مورد نحوه انجام این کار دارید یا باید آنها را به عنوان داده های گم شده در نظر بگیرم و آنها را در مورد ترکیبی خود لحاظ نکنم؟
چگونه با پاسخ های «نمی دانم» برای مقیاس لیکرت ترکیبی برخورد می کنید؟
114103
من دو مجموعه داده برای مقایسه دارم. هر کدام فهرستی از مبالغ صورت‌حساب بر اساس کدهای تشخیصی است. داده ها از این جهت متفاوت است که کدهای تشخیص ممکن است برای برخی از مبالغ صورتحساب متفاوت باشد. تقریباً 32 کد تشخیص مختلف وجود دارد که استفاده شده است. چه نوع تحلیل آماری برای مقایسه این دو مجموعه داده مناسب‌تر است و چرا؟ به من گفتند یک آنووا دو طرفه را تکمیل کنم. آیا این درست است؟
چه نوع تحلیلی
22317
در اوقات فراغت، من روی یک سیستم کوچک مبتنی بر وب کار می‌کنم که گزارش‌های خرابی (اما نه سایر گزارش‌های باگ بدون خرابی) را که از برنامه‌های Windows Delphi ارسال می‌شوند، جمع‌آوری می‌کند. برای عیب‌یابی، کاربران دوست دارند یک ویژگی داده کاوی برای یافتن روابط بین نسخه‌های سخت‌افزار یا سیستم عامل و باگ و/یا خرابی خاص داشته باشند. به عنوان مثال چگونه این کار باید کار کند: * برای هر خرابی گزارشی در پایگاه داده وجود دارد که دارای اثر انگشت / کد هش از ردیابی پشته (پشته تماس) در لحظه خرابی برای شناسایی موارد تکراری است * الگوریتم بررسی می کند که آیا همه موارد وجود دارد. نسخه های تکراری یک گزارش اشکال دارای برخی ویژگی های مشترک دیگر نیز هستند، به عنوان مثال یک سرویس بسته از دست رفته سیستم عامل * نتایج تجزیه و تحلیل تمام ویژگی هایی را که گزارش های اشکال مشترک دارند فهرست می کند. فرض کنید این گزارش‌های باگ خودکار شامل تمام اطلاعات کلیدی مانند نام تمام فرآیندهایی که در حال حاضر در حال اجرا هستند، نام فایل‌ها، اطلاعات نسخه‌های DLL بارگذاری‌شده و غیره هستند. چگونه می‌توانم ارتباط بین خرابی‌های مکرر و محیط را پیدا کنم؟ آیا الگوریتم ها یا روش های آماری خاصی وجود دارد که کمک کند؟
چگونه می توانم ارتباط بین خرابی ها و محیط های سیستم را پیدا کنم؟
51429
اجازه دهید $X_i, i \geq 1,$ متغیرهای تصادفی یکنواخت مستقل (0, 1) باشند و $N$ را با $$N=\min\{n:X_n <X_{n-1}\}$$ تعریف کنید. من باید ثابت کنم که $$P\{N \geq k | X_0=x\} = \frac{(1-x)^{k-1}}{(k-1)!}$$. هنگام یافتن مقادیری مانند $P(X_i \geq X_{i-1} | X_{j} \geq X_{j-1}، \forall j\lt i)$ گیر کرده‌ام. من هم این را در بورس ریاضی ارسال کرده ام، اما با پاسخی که در آنجا ارسال شده قانع نشده ام. سوال دیگر این است که چگونه می توان $E[N]$ را با استفاده از شرطی سازی در $X_1$ محاسبه کرد.
توزیع برای اولین بار زمانی که مقدار کمتر از مقدار قبلی است
61734
از آزمون‌های جایگشت می‌توان برای آزمایش احتمال به دست آوردن یک مقدار میانگین منفرد (متشکل از میانگین k-برابر CV) دقت طبقه‌بندی‌کننده به طور تصادفی استفاده کرد، مانند یک طبقه‌بندی خطی با استفاده از دو کلاس. توزیع برچسب جایگشت شده با تصادفی کردن رابطه بین برچسب ها و نمونه ها، یک توزیع صفر تجربی ایجاد می کند. مقدار دقیق p با اندازه‌گیری تعداد مقادیری از توزیع صفر برابر یا بالاتر از دقت برچسب‌گذاری شده درست به دست می‌آید. سوال من این است که چه مقداری باید در حالت ایده آل به عنوان دقت با برچسب درست استفاده شود؟ برای بخش بعدی، مراجعه به این طرح گویا مفید است. ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/XJIAc.png) به عنوان مثال، توزیع تهی یک اسپرد حول یک مقدار میانگین است زیرا برچسب‌گذاری تصادفی شرایط مختلف پاسخ‌های کمی متفاوت را در اطراف ایجاد می‌کند. شانس در هر تکرار از روش طبقه بندی (توزیع قرمز در نمودار). یک تکرار، دقت میانگین بر اعتبار متقاطع k برابری است. با این حال، «دقت برچسب‌گذاری شده به درستی» نیز می‌تواند در حدود یک میانگین متفاوت باشد، صرفاً به این دلیل که در طول اعتبارسنجی متقاطع k-fold، نمونه‌های مختلف به تقسیم‌های k-fold مختلف اختصاص داده می‌شوند، که در نتیجه گاهی اوقات خوب، گاهی اوقات در مقادیر بهتر یا بدتر (توزیع سبز در طرح). این بدان معنی است که در این «توزیع با برچسب درست» مقادیری خواهید داشت که بسیار خوب هستند، اما بسیار بعید هستند (در فاصله اطمینان بالای 97.5، مقدار P را در سمت راست ببینید). با این حال، اغلب، مطالعات به جای میانگین توزیعی که 10000 بار تکرار شده است، تنها یک دقت واحد را گزارش می‌کنند (گاهی اوقات به آن میانگین بوت استرپ و فواصل اطمینان می‌گویند). بنابراین در نمودار مثال، می‌توان میانگین 56% و در 97.5 بالای 59% صحیح را داشت، اما مشخص نیست که در این توزیع «مقدار گزارش‌شده» از کجا سرچشمه می‌گیرد. به طور خلاصه: سؤال 1: اگر از آزمون جایگشت برای ارزیابی اهمیت دقت طبقه‌بندی‌کننده استفاده شود، آیا باید شرایط برچسب‌گذاری‌شده به درستی نیز N- بار تکرار شود تا توزیعی با برچسب درست ایجاد شود؟ سوال 2: در توزیعی که به درستی برچسب گذاری شده است، مقدار مقایسه باید از کجا نشات بگیرد؟
تست جایگشت صفر و توزیع برچسب صحیح
114100
آیا بسته هایی وجود دارد که الگوریتم خوشه بندی Autoclass/Nive Bayes را در R یا Python پیاده سازی کند؟ روش دیگر، چه الگوریتم های خوشه بندی دیگری هستند که می توانند متغیرهای دسته بندی و عددی را که در R یا Python پیاده سازی می شوند، مدیریت کنند؟
اتوکلاس در R/Python؟
111478
من از نرم افزار یادگیری ماشینی WEKA برای داده کاوی روی داده های بیولوژیکی استفاده می کنم. من مجموعه داده‌ام را نامتعادل توصیف می‌کنم: شامل حدود 2000 نمونه است که به کلاس‌های 900، 500، 350، 160 تقسیم می‌شود که وجود آنها در مجموعه داده بسیار مهم است و برخی از کلاس‌های کوچک‌تر کم‌اهمیت که داشتن آنها خوب است اما می‌توان از آنها حذف کرد. مجموعه داده ها در صورتی که یادگیری را تا حد زیادی گیج کنند. در حال حاضر من در حال مقایسه بسیاری از طبقه بندی های مختلف هستم. من آماردان خیلی با تجربه ای نیستم، اما خواندم که منحنی های ROC معمولاً برای ارزیابی عملکرد طبقه بندی کننده های یادگیری ماشین استفاده می شوند. با این حال، من همچنین خواندم که ROC در مورد مجموعه داده های نامتعادل دارای اشکالاتی است. آیا معیار بهتری در میان ویژگی‌های خروجی «WEKA» (یا می‌توان از روی آنها محاسبه کرد) برای مجموعه داده من وجود دارد؟ خروجی اینگونه به نظر می رسد (در اینجا با مجموعه داده عنبیه): === اعتبار سنجی متقاطع طبقه بندی شده === نمونه هایی که به درستی طبقه بندی شده اند 144 96 % موارد طبقه بندی نادرست 6 4 % آمار کاپا 0.94 میانگین خطای مطلق 0.035 ریشه میانگین مربعات مطلق خطا 1860 Re. خطای 7.8705 % ریشه خطای مربع نسبی 33.6353 % تعداد کل نمونه ها 150 === دقت تفصیلی براساس کلاس === TP Rate نرخ FP دقت فراخوانی F-Measure ROC Area Class 0.98 0 1 0.98 0.99 0.99 Iris-Setosa 0.99 Iris-Setosa. 0.94 0.952 Iris-versicolor 0.96 0.03 0.941 0.96 0.95 0.961 Iris-virginica Weighted Ag. 0.96 0.02 0.96 0.96 0.96 0.968 === ماتریس سردرگمی === a b c <-- طبقه بندی شده به عنوان 49 1 0 | a = Iris-setosa 0 47 3 | b = Iris-versicolor 0 2 48 | c = Iris-virginica
مجموعه داده نامتعادل - منحنی ROC برای مقایسه طبقه بندی کننده ها؟
51425
برای کلاس رگرسیون خطی من باید نوعی آزمایش ساده ارائه کنیم (باید داده ها را جمع آوری کنیم، نمی توانیم آن را به صورت آنلاین دریافت کنیم) که برای آن بتوانیم از روش هایی که در کلاس مطالعه کرده ایم استفاده کنیم (رگرسیون خطی ساده، رگرسیون خطی چندگانه). , ANOVA, ...) برای تجزیه و تحلیل داده ها. من سخت ترین زمان را برای رسیدن به چیزی دارم. کسی پیشنهاد خوبی داره؟ سال گذشته شخصی کار احمقانه ای انجام داد، مانند مقایسه سرعت پایین آمدن خردل از شیب نسبت به سس کچاپ. ویرایش: با تشکر از همه ایده‌های مفید بچه‌ها :) من در نهایت به انجام آزمایش‌های فیزیکی روی خودم روی یک دوچرخه ثابت (حداکثر سرعت/توان خروجی در نسبت‌های مختلف دنده) رسیدم. احتمالاً بزرگترین آزمایش نیست، اما از چیزی استفاده می کند که من از آن لذت می برم.
یک آزمایش ساده برای رگرسیون خطی ارائه دهید
32969
من مجموعه ای بسیار پراکنده از اندازه گیری های یک کمیت دارم، حدود 10 اندازه گیری در مکان های مختلف در سراسر یک قاره. توزیع مکان ها بسیار نامنظم است. من مایلم اینها را در یک شبکه با فاصله منظم در سراسر قاره به مقادیر هموار کنم. ما در واقع مجموعه بسیار متراکم‌تری از مشاهدات یک کمیت مرتبط داریم و تکنیک‌هایی برای ایجاد نقشه‌ای از کمیت اول با استفاده از هر دو مجموعه اندازه‌گیری در حال توسعه است. هدف این است که دقت این رویکرد ترکیبی را با استفاده از اعتبارسنجی متقاطع کنار گذاشتن (آزمایش هر یک از 10 سایت که به نوبه خود نقشه را با استفاده از بقیه به اضافه اندازه‌گیری‌های اضافی ایجاد کرده‌اند) تخمین بزنیم. به عنوان پایه، ابتدا باید ببینم یک نقشه با استفاده از LOOCV که فقط از شبکه اصلی 10 ایستگاهی ایجاد شده است چقدر دقیق است. همچنین باید به این نکته اشاره کنم که این مقدار در مقیاس زمانی چند دقیقه تغییر می کند و ما می خواهیم یک نقشه در زمان واقعی تولید کنیم. من در تکنیک های مکانی متخصص نیستم، با این حال اصول Kriging را درک می کنم و پس از بررسی نمای وظیفه CRAN، به نظر می رسد autoKrige در بسته automap عملکرد مناسبی برای استفاده باشد. نتایجی که به دست می‌آورم هیچ شباهتی به آنچه انتظار داشتم نیست، بنابراین هر کمکی قابل قدردانی است. در اینجا نمونه ای از یک مجموعه داده آموزشی ورودی (همه داده های موجود برای یک زمان خاص) آمده است: مقدار lat lon -27.53 152.92 98 -35.32 149.00 79 -34.05 150.67 81 -12.45 130.95 92 -42.92 -42.92 -42.92 114.08 91 -29.03 167.97 108 -31.94 115.95 89 همانطور که می بینید، کمیت هدف دارای محدوده ای از مقادیر در یک ناحیه با فاصله وسیع است. من با انجام مختصات (xtrain) = ~lon + lat مختصات (xtest) = ~lon + lat proj4string(xtrain) <-CRS() proj4string(xtest) از یک قاب داده حاوی lat، lon و مقدار به یک spatialPointsDataFrame تبدیل می کنم. ) <-CRS() که در آن xtest شامل شبکه نقاطی است که می خواهم از نقشه نمونه برداری کنم. سپس با استفاده از نتیجه <- autoKrige(value~1,xtrain,xtest) این را کریگ می‌کنم و نمودار نتایج (نتیجه) را رسم می‌کنم و تصویر زیر را دریافت می‌کنم![نتیجه Kriging](http://i.stack.imgur.com/VxXDX .png) همانطور که می بینید، نتیجه اساساً مقدار میانگین در همه نقاط است. درک من این است که autoKrige باید بهترین مقادیر پارامترهای Kriging را تعیین می کرد و چیزی واقعی تر از این تولید می کرد. فقط برای نشان دادن، محدوده مقادیر پیش بینی شده در شبکه 0.22 است که به وضوح بسیار کمتر از پراکندگی 30 نقطه ای است که در مقادیر ورودی مشاهده می شود. پس کجا دارم اشتباه می کنم؟ آیا من از بسته R سوء استفاده می کنم یا مشکل من در روشی که سعی در به کارگیری Kriging دارم اساسی تر است؟
استفاده از کریجینگ با داده های بسیار کم
61732
حتی اگر آمار $F$ در یک آزمون ANOVA قابل توجه باشد، ممکن است قبل از نتیجه گیری نیاز به آزمایش بیشتری داشته باشیم. متداول ترین روش برای انجام این کار، استفاده از روش مقایسه چندگانه است. من سعی می کنم بفهمم که چرا روش توکی در آزمون دو نمونه ای $t$-تست استفاده می شود. من موارد زیر را خواندم که نشان می‌دهد انجام همه تست‌های زوجی (احتمالاً به معنای تست‌های $t$-نمونه‌ای است) می‌تواند منجر به مثبت کاذب شود (خطاهای نوع I). چرا باید از نظر مفهومی این اتفاق بیفتد؟ > رویه Tukey به ما اجازه می‌دهد تا آزمایش‌های جداگانه‌ای انجام دهیم تا تصمیم بگیریم که آیا > $\mu_i = \mu_j$ برای هر جفت میانگین در یک مطالعه ANOVA از جمعیت $k$ > به معنی است یا خیر. مانند همه روش‌های مقایسه چندگانه، روش توکی مبتنی بر > انتخاب یک سطح اهمیت «خانوادگی»، $\alpha$ است که برای کل مجموعه آزمون‌های فرضیه زوجی اعمال می‌شود. به عنوان مثال، هنگام استفاده از روش > Tukey با سطح معنی داری مثلاً 5 درصد، مطمئن می شویم که > در میان کل > مجموعه تست های زوجی، حداکثر شانس 5 درصد برای به دست آوردن مثبت کاذب وجود دارد، یعنی: حداکثر 5% احتمال اشتباه وجود دارد که به این نتیجه برسیم که دو میانگین جمعیت زمانی متفاوت هستند که در واقع با هم برابر باشند. > این بسیار متفاوت از انجام تمام تست‌های زوجی به‌عنوان تست‌های انفرادی، هر کدام در $\alpha=0.05$ است، که می‌تواند منجر به احتمال بالای > یافتن مثبت کاذب در بین تست‌های زوجی شود.
دو نمونه $t$-test در مقابل روش Tukey
114105
من از الگو برای طبقه بندی باینری خود در MATLAB و از اعتبار سنجی متقاطع 10 برابری استفاده می کنم. من چندین بار شبکه عصبی خود را در یک حلقه تکرار می کنم تا نتایج را ببینم. وقتی پنجره آموزش شبکه عصبی را در «متلب» بعد از 15 تا 40 بار تکرار می بینم، شبکه های عصبی به دلیل معیارهای توقف زودهنگام متوقف می شوند (حداکثر 6 تکرار مقدار پیش فرض توقف اولیه در «متلب» است). نظر شما در مورد این رفتار چیست؟ آیا این طبیعی است یا باید چیزی را برای بهبود آن تغییر دهم؟ فکر می کنم در این شرایط آموزش نمی تواند شبکه را به درستی آموزش دهد، آیا این درست است؟ (در تمام ساختارها (ورودی ها، شماره نورون های شبکه عصبی، لایه ها و غیره) من این شرایط را دارم) با تشکر.
تمام طراحی های شبکه های عصبی به دلیل توقف زودهنگام در متلب متوقف می شوند
51428
من فکر کردم که می‌توانم با انتخاب متغیر بیزی، به دنبال یک پست وبلاگ زیبا و مقالات مرتبط با آن، بازی کنم. من یک برنامه در jags نوشتم (جایی که کاملاً تازه کار هستم) و داده های قیمت را برای Exxon Mobil به همراه برخی چیزهایی که بعید به نظر می رسد بازده آن را توضیح دهد (مثلاً قیمت پالادیوم) و چیزهای دیگری که باید بسیار مرتبط باشند (مانند SP500) واکشی کردم. ). با اجرای «lm()»، می‌بینیم که شواهد قوی مبنی بر یک مدل بیش‌پارامتری‌شده وجود دارد، اما آن پالادیوم قطعاً باید حذف شود: فراخوانی: lm(فرمول = Exxon ~ 0 + SP + پالادیوم + Russell + OilETF + EnergyStks، داده = chkr) باقیمانده ها: Min 1Q Median 3Q Max -1.663e-03 -4.419e-04 3.099e-05 3.991e-04 1.677e-03 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) SP 0.51913 0.19772 2.626 0.010588 * Palladium 0.01620 0.03744 0.433 0.666469 Russell -0.34577 0.010586 0.099 -0.34574 0.099 -0.34574 OilETF -0.17327 0.08285 -2.091 0.040082 * EnergyStks 0.79219 0.11418 6.938 1.53e-09 *** پس از تبدیل به بازگشت، سعی کردم یک مدل ساده مانند این مدل را اجرا کنم { for (i in 1:) mean[i]<-inprod(X[i,],بتا) y[i]~dnorm(mean[i],tau) } برای (j در 1:p) {شاخص[j]~dbern(probindicator) betaifشامل [j]~dnorm(0,taubeta) بتا[j] <- نشانگر[j]*betaifincluded[j] } tau~dgamma(1,0.01) taubeta~dgamma(1,0.01) probindicator~dbeta(2,8) } اما متوجه شدم که تقریباً بدون توجه به پارامترهای توزیع گامای انتخابی، پاسخ‌های بسیار بی‌معنی دریافت کردم، مانند یک احتمال 20 درصدی نامتغیر برای هر متغیر. من همچنین ضرایب رگرسیون کوچک و کوچکی دریافت کردم، که مایلم آنها را تحمل کنم زیرا این یک مدل انتخابی بود، اما هنوز هم عجیب به نظر می رسید. Mean SD Naive SE Time-series SE SP beta[1] -4.484e-03 0.10999 0.003478 0.007273 Palladium beta[2] 1.422e-02 0.16646 0.005261 [0.01] بتا[0.01] -2.406e-03 0.08440 0.002669 0.003236 OilETF beta[4] -4.539e-03 0.14706 0.004651 0.005430 EnergyStks beta[5] -1.30050.106e-1.300. اندیکاتور 0.002647 SP[1] 1.980e-01 0.39869 0.012608 0.014786 اندیکاتور پالادیوم[2] 1.960e-01 0.39717 0.012560 0.0148[0.0143550] راسل 0.38686 0.012234 0.013398 نشانگر OilETF[4] 1.930e-01 0.39485 0.012486 0.013229 شاخص EnergyStks[5] 2.070e-01 0.401201 pro 1.952e-01 0.11981 0.003789 0.005625 tau 3.845e+03 632.18562 19.991465 19.991465 taubeta 1.119e+02 14434343. 7.926577 آیا انتخاب متغیر بیزی واقعاً بد/حساس است؟ یا من یک خطای فاحش مرتکب می شوم؟
انتخاب متغیر بیزی -- آیا واقعا کار می کند؟
104081
برای $i=1، \ldots، K$ و $j=1، \ldots,n$، مدل زیر را در نظر بگیرید. \begin{align} X_{ij} \mid \mu_i, \sigma^2 & \stackrel{_\text{iid}}{\sim} N(\mu_i, \sigma^2) \nonumber \\ \mu_i & \stackrel{_\text{iid}}{\sim} N(\mu, \tau^2) \nonumber \\ \ln(\sigma^2) & \sim N(\mu_v, \tau_v^2) \end{align} ابتدا فرض کنید تمام پارامترهای قبلی شناخته شده هستند. از آنجایی که این شکل مزدوج نیست، آیا راهی برای تخمین $\pi(\mu_i \mid \mathbf{X_i})$ با استفاده از چگالی فرم بسته وجود دارد؟ خیلی ممنون.
مدل بیزی با میانگین مجهول و واریانس با لگ نرمال قبلی
23955
بگویید من آیتم‌های $N$ دارم که پارتیشن بندی شده/خوشه‌بندی شده‌اند و می‌خواهم این آیتم‌ها را به‌طور تصادفی دوباره پارتیشن بندی کنم، به گونه‌ای که توزیع اندازه‌های خوشه‌ها «مشابه» با اندازه‌هایی باشد که قبلاً دارم. من به این نگاه می‌کنم (شاید بی‌فایده)، به‌عنوان تلاش برای نمونه‌برداری از اعداد طبیعی $k$، مانند $x_i \geq 1$ و $\sum_{i=1}^{k}x_i=N$. $N$ در این زمینه احتمالاً هزاران خواهد بود و توزیع اندازه‌های خوشه فعلی کاملاً منحرف خواهد بود، با تعداد کمی از خوشه‌های بزرگ و تعداد زیادی از خوشه‌های کوچک. من به توزیع‌های ابرهندسی، دوجمله‌ای، هندسی نگاه کرده‌ام، اما به نظر می‌رسد هیچ‌کدام از این‌ها کاملاً با آنچه من به دنبال آن هستم مطابقت ندارد - حدس می‌زنم که پیچیده‌تر از یک توزیع ساده است و به نوعی فرآیند مارکوف مانند نیاز است. . کسی ایده ای دارد؟
چگونه از اعداد طبیعی نمونه برداری کنیم، به طوری که مجموع آنها برابر با یک ثابت باشد؟
23954
من می خواهم بتوانم زوایای همسایگان را در یک گله اسب آبی مقایسه کنم. من داده هایی برای مختصات x و y و زوایایی که رو به رو هستند (با استفاده از imageJ، زاویه بین 180- تا 180 است و 0 یک خط مستقیم افقی در وسط تصویر است). من تابع $g(r)$ را ترسیم کرده‌ام تا ببینم آیا اسب‌های آبی من «دوست دارند» خود را به سمت افرادی که در نزدیکی هستند هدایت کنند، اما دوست دارم بتوانم **تعداد تصویری جهت‌گیری آنها را در گله محاسبه کنم** با استفاده از R. هر گونه کمکی بسیار قدردانی خواهد شد، من هنوز سواد R ندارم!
چگونه می توانم طرحی تولید کنم که زوایای جهت نقاط من را نشان دهد؟
27793
من اطلاعاتی در مورد افزایش نرخ مجاز توسط یک تنظیم کننده دولتی طی حدود 17 سال جمع آوری کرده ام. به عنوان پیشینه، شرکت‌های خدمات شهری در این زمینه باید در صورت تمایل به افزایش نرخ‌های خود، در ازای اعطای شبه انحصار در بازار، به رگولاتور مراجعه کنند. در این دوره، 65 تصمیم قابل استفاده وجود دارد - تصمیماتی که مستندات کافی دارند. هر تصمیم در یک نرخ را می توان با چند بیت اطلاعات مشخص کرد: 1. شرکت آب و برق 2. صنعت شرکت برق (برق، فاضلاب، گاز طبیعی و غیره) 3. افزایش کل درآمد مورد نظر شرکت برق 4. کل افزایش درآمد اعطا شده توسط تنظیم کننده 5. درصد افزایش در درآمدهای مورد نظر شرکت آب و برق (به طور ضمنی، کل درآمد آنها) 6. درصد افزایش در درآمدهای اعطایی شده توسط تنظیم کننده 7. نرخ بازده شرکت در عملیات خود در وضعیت موجود 8. نرخ بازده پیش بینی شده پس از افزایش نرخ 65 تصمیم در طول دوره 17 ساله مورد بحث به طور مساوی تقسیم نشده اند. برای پیچیده‌تر کردن موضوع، برخی از مشاهدات در یک تاریخ (چهار مشاهده در دو تاریخ) رخ می‌دهند. از نقطه نظر اکتشافی، من علاقه مند به تشخیص نقاط عطف در طول زمان در این داده ها هستم، به ویژه از نظر درصد افزایش درآمد مورد نظر که در نهایت توسط تنظیم کننده اعطا می شود (#2/#1، بالا)، نرخ بازده پیش‌بینی‌شده پس از افزایش درآمد و درصد افزایش درآمد اعطایی توسط تنظیم‌کننده. من همچنین علاقه مندم که (به دلیل عدم دانش در این زمینه) چه چیزی را نقاط شکست یا برش بنامم -- آیا راه هایی وجود دارد که بتوانم یک آزمون t- نمونه 2 را روی همه جفت نمونه هایی که هیچ همپوشانی زمانی ندارند اجرا کنم؟ (به عنوان مثال، نمونه 1 از زمان t0 تا tn، نمونه 2 از t(n+1) تا tf) از منظر سؤال تحقیق، من علاقه مندم که آیا ظاهر تصمیم گیری در این داده ها تحت تأثیر تغییر سیاست قرار گرفته است یا خیر. که در یک زمان مشخص رخ داده است، که (من فکر می کنم)، می توانم به عنوان یک متغیر طبقه بندی شده (0 = قبل از تغییر، 1 = بعد از تغییر) مدل کنم - و اگر چنین است، نشانه تاثیر چیست و آیا وجود دارد تاخیر آیا اقدامات احتیاطی وجود دارد که باید با توجه به ماهیت زمان‌بندی شده این داده‌ها از آنها آگاه باشم؟ من برخی از مطالب را در مورد تجزیه و تحلیل سری های زمانی بررسی کردم، اما در مورد اینکه با مشاهدات با فاصله نامنظم چه کنم، کمی سردرگم هستم. به عنوان نکته پایانی، حدس می‌زنم اضافه کنم که در R کار می‌کنم، اما در این زمینه انعطاف‌پذیر هستم.
تجزیه و تحلیل نسبت ها یا کسر/ مخرج، با وزن، اندازه گیری شده در طول زمان در فواصل نامنظم
74747
اجازه دهید $X_{i}، i\ge 1$، i.i.d باشد. متغیرهای تصادفی تعریف شده در فضای احتمال $(\Omega, \mathcal F,P)$ به طوری که $P(X_{i}=1)=P(X_{i}=-1)=\frac{1}{2 }$. فیلتر $\mathcal F_{n}=\sigma(X_{1},\dots,X_{n})$ را در این فضا و پیاده روی تصادفی $R_{i}=\sum_{i=1}^{ در نظر بگیرید n} X_{i}$. نشان دهید که $R_{n}^{2}-n$ و $(-1)^{n} \cos(\pi R_{n}) $ $\mathcal F_{n}$-martingales هستند.
نشان دهید که $R_{n}^{2}-n$ و $(-1)^{n} \cos(\pi R_{n}) $ $\mathcal F_{n}$-martingales هستند
61730
کتاب های درسی مختلف شرایط متفاوتی را برای وجود ماتریس اطلاعات فیشر ذکر می کنند. چندین مورد از این قبیل در زیر فهرست شده است که هر کدام در برخی از تعاریف «ماتریس اطلاعات فیشر»، اما نه همه آنها، ظاهر می شوند. 1. آیا مجموعه ای استاندارد و حداقلی از شرایط وجود دارد؟ 2. از 5 شرط زیر، کدام یک را می توان برطرف کرد؟ 3. اگر می توان یکی از شروط را حذف کرد، چرا فکر می کنید در وهله اول گنجانده شده است؟ 4. اگر یکی از شروط را نمی توان رفع کرد، آیا به این معناست که آن دسته از کتب درسی که آن را مشخص نکرده اند، تعریفی اشتباه یا حداقل ناقص داده اند؟ > 1. _زاکس، نظریه استنتاج آماری (1971)، ص. 194._ > ماتریس $\mathcal{I}\left(\theta\right)$ برای همه > $\theta\in\Theta$ قطعی است. > 2. _شرویش، نظریه آمار (1997، تصحیح چاپ دوم)، تعریف > 2.78، ص. 111_ > مجموعه $C=\left\{x:f\left(x;\theta\right)>0\right\}$ برای همه یکسان است > $\theta$. > 3. _بوروفکوف، آمار ریاضی (1998). ص 147_ > $f\left(x;\theta\right)$ **به طور پیوسته** قابل تمایز w.r.t هستند. > $\theta_i$. > 4. _بوروفکوف، آمار ریاضی (1998). ص 147_ > $\mathcal{I}\left(\theta\right)$ پیوسته و معکوس است. > 5. _Gourieroux & Monfort, Statistics and Econometric Models, Vol I (1995). > تعریف (a)، صفحات 81-82_ > $\frac{\partial^2}{\partial\theta_i\partial\theta_j}f\left(x;\theta\right)$ > وجود > در مقایسه، اینجا لیست کامل شرایط در _Lehman & Cassella است. تئوری تخمین نقطه ای (1377). ص 124_: > 1. $\Theta$ یک بازه باز است (محدود، نامتناهی یا نیمه نامتناهی) > 2. مجموعه $C=\left\{x:f\left(x,\theta\right)>0 \right\}$ برای > همه $\theta\in\Theta$ یکسان است. > 3. $\frac{\partial f\left(x;\theta\right)}{\partial\theta_i}$ وجود دارد و > متناهی است. > و در اینجا لیست کامل شرایط در _Barra, Notions fondamentales de statistique mathematique (1971) آمده است. تعریف 1، ص. 35_ : > امتیاز برای همه $\theta\in\Theta$ تعریف شده است، هر یک از اجزای آن > مربع انتگرال پذیر است و $=0$ انتگرال دارد. جالب است بدانید که نه Lehman & Cassella و نه Barra شرط نمی‌کنند که $\int f\left(x;\theta\right)\space \mu\left(dx\right)$ تحت علامت انتگرال w.r.t قابل تمایز باشد. هر $\theta_i$، وضعیتی که در اکثر کتاب‌های درسی دیگری که مورد بررسی قرار گرفتم، وجود دارد.
شرایط وجود ماتریس اطلاعات فیشر
78890
من سه متغیر تصادفی وابسته $X_1$, $X_2$, $X_3$, ($X_i\in\left[0, 1\right]$) دارم که شرایط اضافی $\sum_i{X_i} = 1$ را برآورده می‌کنند. اگر توزیع های (حاشیه ای) $X_i$ ($i = 1، 2، 3$) داده شود، باید احتمال ترکیب خاصی از آن متغیرها را تعیین کنم. به طور رسمی تر، اگر $a_1, a_2, a_3\in \left[0, 1\right]$ طوری که $\sum_i{a_i} = 1$ و $\epsilon > 0$ باشد، می‌خواهم احتمال آن را بدانم: $ $ P((\forall i) |X_i - a_i| < \epsilon). $$
توزیع سه متغیر تصادفی وابسته
32349
من توزیعی از بازدیدکنندگان یک وب سایت در روزهای دوشنبه تا یکشنبه به این صورت دارم: M T W Th F S Su 345 467 560 350 430 689 490 من می دانم که اگر فرضیه ای از توزیع داشته باشم که به آن مشکوک هستم مانند (M 20%, T 30% ، W 10٪، Th 5٪، F 5٪ S 20٪ Su 10٪ و غیره، می توانم از توزیع Chi Square استفاده کنم تا بفهمم آیا شک من درست است - همانطور که در این ویدئو، تست مربع چی پیرسون (خوب بودن تناسب)، در آکادمی خان توضیح داده شده است. سوال من این است که چگونه می توانم یک توزیع قابل قبول را با توجه به داده های مشاهده شده کشف کنم. فکر می‌کنم از آنجایی که من دنبال یک True یا False نیستم، بلکه مجموعه‌ای از اعداد را دنبال می‌کنم، گمان می‌کنم که دنبال نوعی الگوریتم هستم که طیفی از درصدها را نشان می‌دهد که منطقه‌ای را مشخص می‌کند که همگی در آزمون مجذور کای قابل قبول هستند. هر گونه اشاره تا حد زیادی قدردانی!
از چه آزمون (یا الگوریتم) برای موارد استفاده زیر استفاده کنم؟
52996
من در حال انجام تحقیقاتی در مورد رابطه بین ترتیب تولد یک فرد و خطر چاقی بعدی با استفاده از داده های چند گروه تولد یک ساله هستم (به عنوان مثال http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2908417/). یک چالش کلیدی این است که ترتیب تولد به ویژگی‌های دیگری مانند سن مادر، تعداد خواهر و برادر کوچک‌تر و/یا بزرگ‌تر و فاصله تولد مرتبط است که ممکن است از طریق مکانیسم‌های مختلف بر نتیجه تأثیر بگذارد. علاوه بر این، هر گونه تأثیری که این چیزها بر خطر چاقی بعدی داشته باشد ممکن است با ترکیب جنسیتی خواهر و برادر، از جمله کودک شاخص (شرکت کننده در گروه تولد) اصلاح شود. برای هر فرزند شاخص، می توان یک جدول زمانی ترسیم کرد که تمام تولدهای خانواده را با متغیر سن مادر در آن زمان نشان دهد. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/s90mj.png) من سعی می کنم روش هایی را برای تجزیه و تحلیل این نوع داده ها شناسایی کنم، جایی که ترتیب، زمان و ماهیت رویدادها ممکن است همه باشد. مهم است. من این سوال را در اینجا به دلیل تنوع برنامه‌هایی که اعضا با آن کار می‌کنند می‌پرسم - انتظار دارم کسی پیشنهادهای فوری داشته باشد که شناسایی آنها به تنهایی زمان بیشتری را از من می‌برد. هر گونه تلنگری در جهت (های) درست بسیار قدردانی خواهد شد. سؤال(های) مرتبط: چگونه باید داده های فواصل تولد زنان را تجزیه و تحلیل کنم؟
تحلیل خط زمانی
27798
چگونه می توانم از توزیعی که حاصلضرب توزیع گاوسی و یک توزیع وارونه است نمونه برداری کنم؟ من می‌خواستم از نمونه‌برداری تبدیل معکوس استفاده کنم، اما یکی از دوستان گفت که فکر می‌کند راه بسیار ساده‌تری برای انجام آن وجود دارد، یک ترفند زیرا وارونه-ویشارت مزدوج قبلی گاوسی است. کسی میدونه راه ساده ای برای این کار هست یا نه؟ خیلی ممنون
چگونه از حاصلضرب توزیع گاوسی و معکوس ویشارت نمونه برداری کنیم؟
74742
من به دنبال اجرای **نقشه خودسازماندهی** هستم که برای بخش خوشه بندی **به جای k-means** از خوشه بندی طیفی استفاده می کند. کسی چیزی در موردش میدونه؟
نقشه خود سازماندهی با خوشه بندی طیفی
27246
داده a; input treat$ rep boreria mimiosa asysta axono seleria paspa macran melas scopo cleom otto; کارت؛ M 1 0.20 0.00 0.00 0.00 0.00 12.20 0.00 0.00 0.00 4.90 0.00 M 2 0.00 0.00 0.00 0.64 0.00 0.00 0.00 0.00 0.00 M 3 0.00 0.00 0.00 0.23 0.00 0.00 0.32 0.00 0.00 0.00 0.00 A 1 0.00 0.00 7.80 0.00 0.00 0.00 0.00 0.00 0.00 A 2 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 A 3 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 1 9.40 1.24 1.59 5.20 0.00 1.77 0.00 0.00 0.12 0.00 0.00 CA 2 0.75 0.00 0.00 2.10 0.00 0.00 0.00 0.00 0.00 0.00 0.00 3 2.00 0.99 0.00 1.10 0.00 0.00 0.00 0.76 0.00 0.00 0.00 P 1 0.00 0.00 0.00 1.56 0.97 0.00 0.00 0.00 0.00 0.00 P 0.02 0.00 0.00 0.93 0.00 3.50 0.00 0.00 0.00 0.00 0.00 P 3 0.00 0.00 0.00 0.00 0.00 6.20 1.00 0.00 0.00 13.40 15.80 0.30 104.50 0.00 127.70 0.00 0.00 0.00 0.00 0.00 W 2 4.80 0.00 0.64 121.10 41.10 0.00 58.10. 0.59 W 3 0.00 0.00 0.00 53.00 0.00 54.70 0.00 10.10 0.00 0.00 0.00 ; داده b; تنظیم a; آرایه log{*} boreria--otto; do i = 1 به dim(log); log(i)=log10(log(i)+1); پایان؛ خروجی رها کردن i; اجرا؛ خروجی ods Eigenvectors=vector ; proc princomp out=pcacomp ; VAR boreria--otto; اجرا؛ داده vec; بردار مجموعه (تغییر نام = (متغیر = Weed prin1=vec1 prin2=vec2)); vec1 = vec1*7; vec2 = vec2*7; drop prin3-prin10; اجرا؛ داده های جدید؛ ادغام pcacomp vec. اجرا؛ ods listing style=statistical image_dpi=300; proc sgplot data=new; VECTOR x=vec1 y=vec2/گروه=علف هرز ARROWHEADSHAPE=پر DATALABEL=علف هرز; scatter x=prin1 y=prin2 / group=treat name='site'; بیضی x=prin1 y=prin2 / LINEATTRS=(الگو=2) TRANSPARENCY=0.1 ; refline 0 /axis=x LINEATTRS=(PATTERN=1); refline 0 /axis=y LINEATTRS=(PATTERN=1); xaxis label='PCA1 (32.0%)' grid ; yaxis label='PCA2 (18.2%)' grid; KEYLEGEND 'site' /title='Treatment' LOCATION= inside position= topLEFT cross=3 noborder; اجرا؛
چرا من sgplot با اجرای این برنامه در sas 9.2 ندارم
65925
من از طریق برخی از پست های گذشته در مورد استفاده از آزمون KS زمانی که پارامترهای توزیع تخمین زده می شوند، خوانده ام. این مورد به خصوص بسیار مفید بود و من پیشنهاد گرگ اسنو را اجرا کردم. با این حال، من نمی دانم هنگام آزمایش توزیع پیشنهادی خود در برابر مجموعه دوم داده ها، چه کاری انجام دهم. روش من این است: 1. نمونه ای از داده ها را در یک بازه زمانی معین جمع آوری کنید. 2. پارامترهای یک توزیع فرضی را از داده ها تعیین کنید، و خوب بودن تناسب را با آزمون KS (بر اساس پاسخ گرگ اسنو در آزمون اصلاح شده) آزمایش کنید. پست دیگر) 3. اگر آزمون KS را در سطح اطمینان قابل قبولی پشت سر گذاشت، توزیع (با پارامترهای محاسبه شده) را در برابر مجموعه دیگری از داده های جمع آوری شده در زمان بعدی آزمایش کنید. در مرحله (3)، من علاقه مندم که مقادیر پارامترهای _specicular_ محاسبه شده در (2) چقدر در پیش بینی داده های آینده کار کنند. یعنی، من اکنون با تخمین پارامترهای محاسبه شده قبلی به عنوان ورودی های ثابت رفتار می کنم. از این رو، به نظر من باید از آزمون استاندارد KS با توزیع متعارف برای آمار آزمون استفاده کنم. آیا این درست است؟
آزمون کولموگروف اسمیرنوف با پارامترهای تخمین زده شده
104082
من با آمار کاملاً جدید هستم و در حال توسعه الگوریتم طبقه بندی هستم. روش من بر اساس تناسب مربع کای ساده است. من اندازه اثر موارد شناخته شده را برای پیش بینی موارد آینده می شمارم. مشکل من این است که من واقعاً نمی دانم چگونه با حجم نمونه های بزرگ کنار بیایم، همچنین نمی دانم چه زمانی حجم نمونه خیلی بزرگ است. پاسخ را تحقیق کرد، اما راه حلی پیدا نکرد. بنابراین بهترین رویکردی که باید در نظر بگیرید، زمانی که یک نتیجه ممکن دو برابر دارید و مانند 2000 تا 3000 مورد شناخته شده که نتیجه را می دانید چیست؟ بدیهی است که برای NHST ایمن نیست زیرا اندازه نمونه های بزرگ نتایج مثبت کاذب را به همراه خواهد داشت (تا آنجا که من می دانم). آیا کسی می تواند رویکرد خوبی برای اتخاذ یا شاید یک مقاله خوب در مورد موضوع پیشنهاد دهد؟ با تشکر برای کمک!
حجم نمونه بزرگ و آزمون فرضیه صفر
78893
آیا می توان SEM را با یک متغیر وابسته مبتنی بر رتبه انجام داد؟ اگر چنین است، کدام بسته نرم افزاری راهگشا خواهد بود؟ بدیهی است که شما خروجی LISREL و مواردی از این قبیل را دریافت خواهید کرد، اما من نگران این هستم که چگونه DV مبتنی بر رتبه بر تخمین پارامترها تأثیر می گذارد و نمی دانم که آیا می توان کاری برای مبارزه با چیزهای بدی که از نادیده گرفتن فرض توزیعی ناشی می شود انجام داد. DV. با تشکر
وقتی SEM با DV مبتنی بر رتبه انجام می شود چه اتفاقی می افتد؟
78899
من سعی می‌کنم تابعی در R بنویسم که تعیین کند کدام یک از آزمون‌های آماری زیر باید روی مجموعه‌ای از داده‌ها اجرا شود: {paired-t، sign، t two-sample t، t ترکیبی دو نمونه، دو نسبت، F} - مجموعه داده ها دارای دو ستون هستند که مقادیر X و Y را نشان می دهند. تمرکز آزمون بر روی مجموعه داده ها یکی از انواع زیر است: {مرکز، گسترش، شمارش} (برای شمارش داده های ستون های 1 و 2 به ترتیب 1 و 0 برای تعداد موفقیت ها و شکست ها خواهند بود). - مجموعه داده ها به عنوان وابسته یا مستقل علامت گذاری می شوند. من با کد نویسی در R راحت هستم و توابع را برای تعیین اینکه آیا مجموعه داده ها نرمال است و آیا نقاط پرت وجود دارد را نوشته ام، اما نمی دانم چگونه، با توجه به این اطلاعات می توانم تعیین کنم که کدام یک از این تست ها باید اجرا شوند. کسی می تواند توضیح دهد که چگونه این معیارها نشان می دهد که کدام یک از این تست ها باید اجرا شود؟
نوشتن تابع R برای تعیین اینکه کدام آزمون آماری باید اجرا شود
92223
من سعی می کنم از تابع train از بسته caret برای تنظیم پارامترهای rxDForest از بسته RevoScaleR استفاده کنم (من نمی توانم از جنگل تصادفی استفاده کنم زیرا مجموعه داده من خیلی بزرگ است)، اما نمی توانم مدیریت کنم برای اینکه کد من با نمونه‌برداری مجدد کار کند: library(caret) library(doParallel) library(pROC) registerDoParallel(cores=4) # ---------------- # وارد کردن بار قطار داده (فایل = data_model_rf.RData) # ---------------- # تنظیم rf rxDForest <- list(نوع = طبقه بندی، کتابخانه = RevoScaleR، حلقه = NULL، پارامترها = data.frame(پارامتر = c(mTry، maxDepth)، class = rep(عددی، 2)، label = c(mTry، maxDepth))، grid = function(x, y, len = NULL) { p = floor(sqrt(ncol (x))) expand.grid(mTry = c(p/2,p,p*2), maxDepth = c(1,3,5))}, fit = function(x, y، wts، param، lev، آخرین، وزن‌ها، classProbs، ...) { tmp <- as.data.frame(x) tmp$Class <- y f <- as.formula(paste0(Class, ~ , paste(colnames(tmp)[-c(ncol(data_model))],collapse = +))) rxDForest(f, tmp, maxDepth = param$maxDepth, mTry = param$mTry,...)}, predict = function(modelFit, newdata, preProc = NULL, submodels = NULL) { rxPredict(modelFit, newdata)}, prob = function(modelFit, newdata , preProc = NULL, submodels = NULL) { out <- rxPredict(modelFit, newdata, type=prob) colnames(out) <- modelFit$obsLevels out[,1:length(modelFit$obsLevels)]}, sort = function(x) {x[order(x$mTry, x$maxDepth )]}، varImp = تابع (ابجکت، numTrees = NULL، ...) { varImp <- object$importance out <- data.frame(varImp) colnames(out) <- Overall rownames(out) <- rownames(object$importance) out}) rfGrid <- expand.grid(mTry = c(14 )، maxDepth = c(5)) fitControl = trainControl( روش = repeatedcv، عدد = 10، classProbs = TRUE، تکرار = 3، summaryFunction = twoClassSummary) # ---------------- # تنظیم rf rfFit <- train(data_model[,1:(ncol(data_model)-1)], data_model[,ncol(data_model)]، روش = rxDForest، trControl = fitControl، tuneGrid = rfGrid، metric = ROC، verbose = TRUE، nTree = 20، important=TRUE ) با خطای زیر مواجه شدم: خطا در train.default(data_model[, 1:(ncol(data_model) - 1)]، data_model[, : پارامترهای تنظیم نهایی را نمی توان تعیین کرد 4: در nominalTrainWorkflow (x = x, y = y، wts = وزن، اطلاعات = trainInfo، : مقادیر گمشده در معیارهای عملکرد نمونه‌گیری مجدد وجود داشت. 5: در train.default(data_model[, 1:(ncol(data_model) - 1)]، data_model[, : مقادیر گمشده در نتایج جمع‌آوری شده یافت می‌شود، اگر در «trainControl» به «method = «none» بروید، کد کار می‌کند. تابع، بنابراین با توابع «مطابقت» یا «پیش‌بینی» مشکلی نیست rxDForest: https://docs.google.com/file/d/0B-MIQzwMSpnxSlZXNjIxektEWmc/edit?pli=1 rxDForest فقط یک rxFormula خاص را می پذیرد که شامل کلاس ~ من نمی شود. ماتریس شبکه جدید را امتحان کردم (شامل x = ماتریس (1، ncol = 9، nrow = 10) در تابع grid) اما من از گزینه tunegrid استفاده می کنم، بنابراین قرار نیست از تابع grid استفاده شود، اینطور نیست.
Caret با rxDForest به عنوان مدل سفارشی
74296
اجازه دهید $X$ یک متغیر تصادفی قابل ادغام باشد که در فضای احتمال $(\Omega , \mathcal F,P)$ تعریف شده است و اجازه دهید $\mathcal F_{n},n\ge0$ یک فیلتر در این فضا باشد. نشان دهید که $X_{n}= E[X|\mathcal F_{n}]$ یک $\mathcal F_{n}$-martingale است.
نشان دهید که $X_{n}= E[X|\mathcal F_{n}]$ یک $\mathcal F_{n}$-martingale است
55941
فرض کنید جعبه های 10 دلاری داریم و علاقه مندیم تعداد سیب، پرتقال و گلابی را در هر کدام اندازه گیری کنیم. راه خوبی برای تجسم نحوه ارتباط جعبه ها با یکدیگر از نظر توزیع میوه چیست؟ به عنوان مثال، جعبه 1 ممکن است 5 سیب، 10 پرتقال و 6 گلابی داشته باشد در حالی که جعبه 10 ممکن است دارای 1 سیب، 1 پرتقال و 1 گلابی باشد. **افزوده شد.** آیا نگاه کردن به ماتریس فاصله مناسب است؟ آیا راهی برای تجسم ماتریس فاصله وجود دارد؟
نحوه تجسم تعداد دسته های مختلف
74743
من می‌دانم که منظور از خوشه‌بندی برای گروه‌بندی موارد با هم است، آیا راهی وجود دارد که بتوانیم با بیان اینکه خوشه A مهم‌تر از خوشه B است، کمیت کنیم؟ غیر از شمارش تعداد آیتم های یک خوشه؟
رتبه بندی موضوعات در K-Means
23951
من می دانم که جدول می تواند جدول اقتضایی را بشمارد، اگر بخواهم تمام عناصری را که در یک سلول جدول قرار می گیرند با استفاده از نوعی تابع، مانند میانگین، خلاصه کنم؟ برای مثال facA = rep(1:3, 4) facB = rep(c(rep(1, 3), rep(2, 3)), 2) value = rnorm(12) چگونه میانگین value's را خلاصه کنم مطابق با facA:facB و آن را به صورت جدول بسازید؟
جدول احتمالی را در R خلاصه کنید
27248
من طراحی 2x2 با n = 3 (متوسط) برای هر گروه دارم (اینجا را ببینید). مطمئن نیستم که داده‌های من از توزیع خاصی پیروی می‌کنند، اما می‌خواهم از فواصل اطمینان به عنوان نوار خطا در نمودار نقطه‌ای استفاده کنم. بنابراین من واقعا نمی توانم از sd، se یا bootstrapping از یک توزیع استفاده کنم. رویکردی که من دنبال آن هستم در این مقاله توضیح داده شده است. احساس اولیه من این است که باید از بسته بوت استفاده کنم. من 3 تکرار دارم که از تعداد اندازه گیری های مختلف تشکیل شده است. من می خواهم از میانگین این تکرارها برای محاسبه فواصل اطمینان استفاده کنم. چیزی مانند: x1 <- rnorm(50, 14,3) x2 <- rnorm(35, 7,1) x3 <- rnorm(40, 15,9) d <- c(mean(x1) mean(x2) , mean(x3)) b <- boot(d, function(u,i) mean(u[i]), R = 999, sim = معمولی) boot.ci(b، type = c(همه)) فایل راهنما برای تابع boot() می گوید: برای بوت استرپ ناپارامتری، روش های نمونه گیری مجدد ممکن بوت استرپ معمولی، بوت استرپ متوازن، نمونه گیری مجدد آنتیتتیک است. و جایگشت». بدون پیشینه در آمار، درک این موضوع که این گزینه های مختلف چه کاری انجام می دهند و چه چیزی برای این مورد مناسب است، مشکل دارم. تابع 'boot.ci()' 5 پاسخ مختلف می دهد که به نظر می رسد همه آنها به طور قابل توجهی متفاوت هستند. من خیلی گیج هستم آیا کسی می تواند سؤالات مرتبط زیر را توضیح دهد: 1. آیا این رویکرد درستی است؟ 2. در این مورد از کدام ترکیب استفاده کنم؟ 3. چرا این همه گزینه؟
مونت کارلو / فواصل اطمینان ناپارامتری برای برآورد میانگین
32345
من با مقاله جدیدی از گروه NLP برکلی در مورد آزمایش های آماری، یک بررسی تجربی از اهمیت آماری در NLP برخورد کردم. شبه کد برای محاسبه مقدار p در مقاله وجود دارد، اساساً ایده این است که مجموعه نمونه $x_1,x_2,...,x_N$ با جایگزینی از داده‌های $x$ نمونه‌برداری شود. سپس $\text{p-value} = \text{count}(\delta(x_i) > 2\delta(x))/N$، که در آن $\delta(x_i)$ یک سود متریک است. من می‌توانم فرمول محاسبه p-value در مقاله کوهن را درک کنم. آزمون‌های معناداری آماری برای ارزیابی ترجمه ماشینی، که در آن: $\text{p-value} = \text{count}(\delta_a(x_i) < \delta_b(x_i) ))/N$، که $\delta_a$ و $\delta_b$ به ترتیب سود متریک برای سیستم $a$ و $b$ هستند. آیا توضیح یا مرجعی برای فرمول $\text{p-value} = \text{count}(\delta(x_i) > 2\delta(x))/N$ وجود دارد؟ نویسندگان همچنین خاطرنشان کردند که اگر میانگین $\delta(x_i)$ $\delta(x)$ و $\delta(x_i)$ متقارن باشد، هر دو فرمول بالا معادل هستند.
p-value را در بوت استرپ جفتی محاسبه کنید
78898
من سه گروه دارم هر دو حجم نمونه کوچکی دارند (<10). و ما نمی توانیم فرض عادی بودن را بررسی کنیم. من می خواهم هر دو را با هم مقایسه کنم. در این مورد چه باید کرد (اندازه های کوچک نابرابر، غیر عادی)
مقایسه میانگین دو نمونه با داده های کوچک و غیر عادی
78894
فرض کنید من می خواهم وابستگی بین $d$ r.v.'s $Y_1,...,Y_d$ را با کوپول $C_\theta$ مدل کنم، که در آن $\theta$ پارامترهای مربوط به آن کوپول است. من همچنین همبستگی را با استفاده از tau کندال $\tau(Y_i,Y_j)=\gamma$ برای همه $i\neq j$ تعیین کرده ام. اکنون می‌خواهم نمونه‌هایی از این توزیع مشترک تولید کنم: آیا وقتی می‌گویم که از قضیه اسکلار، در مسیر درستی هستم، اگر تابع توزیع متناظر $Y_k$ $G_k(y_k)$ باشد و ما X_1$ داشته باشیم، داریم. ,...,X_d$ با توابع توزیع $F_1(x_1),...,F_d(x_d)$. سپس $\bf{Y}$$=\left(G_1^{-1}(F_1(X_1))،...,G_d^{-1}(F_d(X_d))\راست)$. بنابراین مثلاً بگویید که من می‌خواهم نمونه‌هایی از بردار تصادفی توزیع t-$\bf{Y}$ خود را از توزیع پیوست با استفاده از یک کوپول گاوسی تولید کنم، می‌توانم به سادگی متغیرهای تصادفی عادی $Y_1,...,Y_d را تولید کنم. $ (مستقل) و سپس تابع توزیع t را روی r.v اعمال کنید. و سپس تابع چندک معمولی آن را با استفاده از $\Sigma$ که در آن $$\Sigma_{i,j}=\begin{cases} 1 و \text{if $i=j$} استفاده کنید.\\ sin( \frac{\pi}{2}\gamma)، و \text{وگرنه}. \end{cases}$$ به عنوان یکی از پارامترها. یا زمانی که بردار t-توزیع شده $\bf{Y}$ را مدل می کنم، باید وابستگی را در نظر گرفت؟ حدس می‌زنم که اولی منطقی‌تر باشد، زیرا قرار است کوپلا «وابستگی» را مدل کند. به جای آن بگویید من می خواهم با استفاده از بسته copula در R همین کار را انجام دهم. آیا درست است که ابتدا شی copula را با $\Sigma$ (مانند قبل) با استفاده از _normalCopula_ و سپس _mvdc_ و _rmvdc_ برای تولید نمونه ها ایجاد کنیم؟ اما پارامترهای تابع mvdc چیست؟ کد مثال از صفحه وب R به شرح زیر است: mvdc(normalCopula(0.75)، c(norm، exp)، list(list(mean = 0، sd =2)، list(rate = 2))) اما آیا آرگومان در تابع normalCopula نباید یک ماتریس 2x2 باشد زیرا دو متغیره آن است. همچنین، اکنون بگویید که من $d$ به طور مساوی r.v توزیع شده‌ام و نمی‌خواهم c(t، .... t) و غیره بنویسم. چگونه می‌توانم این را منظم بنویسم؟ همانطور که می بینید، من در مورد پارامترهای موجود در کوپول و اینکه در چه مرحله ای باید از همبستگی استفاده شود کمی گیج شده ام (همچنین مطمئن نیستم که چه زمانی می توان گفت که $\rho = sin(\frac{\pi} {2}\tau)$)، بنابراین اگر کسی بتواند در توضیح آن کمک کند، بسیار سپاسگزار خواهم بود. همچنین، نمونه‌های زیادی از نمونه‌های دو بعدی (و برخی سه بعدی) در اینترنت وجود دارد، زیرا بیشتر گویاتر از ابعاد بالاتر هستند. بنابراین اگر کسی به نمونه‌هایی از مدل‌سازی با کوپولا در ابعاد بالاتر در R اشاره داشته باشد، با کمال میل آن را می‌پذیرم. * * * ویرایش: خوب، بگو من می‌خواهم توزیع مشترک دو دارایی مالی را مدل کنم که در آن حاشیه‌ها با 3 درجه آزادی و انحراف استاندارد 0.05 توزیع شده‌اند. همبستگی آنها با $\tau(Y_1,Y_2)=0.5$ تخمین زده شده است. من فرض کردم توزیع مشترک آنها باید نرمال باشد، بنابراین من از یک کوپول معمولی استفاده می کنم. برای تولید نمونه از توزیع مشترک آنها. من ابتدا نمونه هایی را از توزیع نرمال تولید می کنم: X<-rmvnorm(N,mu,S) #mu بردار صفر است و #S برابر $\Sigma$ قبل با $\gamma = 0.5$ است. ![Sample from Multivariate Normal Distr](http://i.stack.imgur.com/WrMgp.jpg) اکنون هر نقطه نمونه را تبدیل می کنم $(X_k^1,X_k^2)$: Y<-qt(pnorm( X),df=3) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/ZgoR8.jpg) آیا این درست است؟ اما چگونه می توانم واریانس/انحراف استاندارد حاشیه ها را کنترل کنم؟ آیا زمانی که چند متغیره نرمال را تولید می کنم یا در تابع qt این کار را انجام می دهم؟
تولید نمونه از Copula در R
52997
من مشکلی دارم که در آن سعی می کنم مشاهدات را گروه بندی کنم (به احتمال زیاد با استفاده از k-means یا یک ابزار یادگیری بدون نظارت مشابه) که در آن هر مشاهده شامل _n_ -متغیرها، با مجموع کل این متغیرها برابر با یک است. بنابراین، ما مشاهدات را بر اساس احتمالات هر یک از _n_ حالات بالقوه یا نتایج برای هر مشاهده گروه بندی می کنیم. **به عنوان مثال**: اگر ما در حال آزمایش ساخت تاس هستیم و 1000 تاس نمونه برداریم، هر دای یک مشاهده خواهد بود و ما V1 = درصد زمانی که یک تاس ظاهر می شود را ثبت می کنیم. قالب خاص، V2 = % دو، و غیره. سپس قالب را بر اساس درصد زمانی که هر قالب به صورت 1، 2، 3، و غیره ظاهر می‌شود، خوشه‌بندی می‌کنیم (برای مشاهده برای مثال، اگر یکی از ماشین های قالب نامناسب بود). در حالی که می‌توانیم درصدها را بررسی کنیم، دریافتیم که خوشه‌بندی این مشاهدات به نشان دادن هر گونه گرایش زیربنایی (رنگ‌ها، مواد، ماشین‌ها و غیره) کمک می‌کند که بدون تکنیک‌های یادگیری بدون نظارت آشکار نمی‌شوند. می دانم که این مشکل کمی عجیب است، اما مطمئنم ادبیاتی برای آن وجود دارد. اسم این نوع مشکل چیست؟ آیا می توانید به من در جهت کارهایی که برای بررسی این نوع مشکلات انجام شده است اشاره کنید؟
گروه بندی مشاهدات بر اساس متغیرهایی که مجموع آنها یک است
32340
من یک مدل دوجمله ای منفی با تورم صفر دارم. من از نسبت‌های نرخ بروز استفاده کرده‌ام و سعی می‌کنم ضرایب را در رابطه با پیش‌بینی‌کننده‌هایم تفسیر کنم. اکثر پیش بینی کننده های من متغیرهای پیوسته داده های سرشماری هستند -- به عنوان مثال: % جمعیتی که اسپانیایی تبار هستند. ٪ از جمعیت کمتر از 18 سال و غیره. من می دانم که IRR به طور معمول به عنوان نسبت نرخ برای افزایش 1 واحدی در متغیر مستقل تفسیر می شود، اما این از نظر این پیش بینی کننده های پیوسته به چه معناست -- آیا این به این معنی است IRR نسبت نرخ تخمینی برای افزایش 1% در% اسپانیایی است. آیا راهی وجود دارد که بتوانم این را مقیاس کنم تا بتوان آن را به عنوان نسبت نرخ تخمینی برای افزایش 10% در % اسپانیایی ها تفسیر کرد؟ همچنین، یکی از IRRهای من 20 است. آیا به طور غیرعادی بالا به نظر می رسد؟
دو جمله ای منفی -- تفسیر IRR برای پیش بینی کننده ها
32342
من در حال تجزیه و تحلیل این هستم که چگونه کاربران یک سرویس خاص با مشاهده ارتباط بین آنها و تغییرات در طرح های عضویت بر یکدیگر تأثیر می گذارند. این شبکه اجتماعی از 3 میلیون کاربر و 40 میلیون اتصال در میان آنها تشکیل شده است. برای تعیین تأثیر یک کاربر خاص، دنباله ای از تغییرات طرح های عضویت را مشاهده می کنم. به عنوان مثال شبکه ای از کاربران A، B، C، D و E وجود دارد و اتصالات A SENT_MESSAGE_TO B C SENT_MESSAGE_TO B D SENT_MESSAGE_TO B D SENT_MESSAGE_TO E و گزارش عضویت B طرح اشتراک را از رایگان به پریمیوم در 2011-10-11 A تغییر داد. طرح اشتراک را از رایگان به حق بیمه در 2011-10-18 تغییر داد D طرح اشتراک را از رایگان به حق بیمه تغییر داد در 2011-10-22 از آنجایی که کاربران به یکدیگر متصل هستند (من فرض می کنم) دو دلیل احتمالی برای تغییر طرح عضویت وجود دارد: * فرد یا تحت تأثیر تبلیغات، رضایت شخصی یا در عموماً تأثیرات جهانی تأثیر زیادی بر او داشت * فرد متوجه رفتار دوستان خود (ارتباطات) شد و از اکثریت یا یک همسایه خاص تقلید کرد زیرا امکان مشاهده تغییرات طرح اشتراک به طور کلی وجود دارد. شبکه فکر می‌کنم از نظر آماری می‌توانستم تعیین کنم که تأثیر یک کمپین تبلیغاتی خاص یا تغییر قیمت (مثلاً تاریخ هر کمپین و تغییر قیمت را می‌دانم) در مقیاس جهانی چیست، اما نمی‌دانم چگونه از این بینش برای تمایز بین فردی استفاده کنم. اثرات ناشی از اثرات جهانی یک حدس (یک مثال ساده) این است که بگوییم اگر تفاوت زمانی در تغییر طرح بین دو کاربر متصل بیشتر از [دوره تعیین‌شده] باشد، فرض می‌کنیم که تغییر دوم تحت‌تاثیر اولی قرار نگرفته است. حدس دیگر می تواند این باشد که اگر دو کاربر کمتر از [تعداد مشخص پیام] رد و بدل کنند، هیچ تاثیری بین یکدیگر وجود نخواهد داشت. به هر حال من مایلم راه حلی برای تشخیص اثرات جهانی و شبکه در داده های شبکه های اجتماعی پیدا کنم یا توسعه دهم و اگر کسی مقاله خوبی با مشکل مشابه پیشنهاد دهد یا رویکردی برای مقابله با چنین مشکلاتی پیشنهاد کند بسیار سپاسگزار خواهم بود. متشکرم!
تمایز اثرات آماری (جهانی) و شبکه ای (محلی).
52992
من با مخلوطی از مدل های دوجمله ای آزمایش می کنم. یک متغیر باینری $y_i$ را در نظر بگیرید. علاوه بر این، دو گروه فرعی در جمعیت وجود دارد (از قبل مشخص نیست و قابل مشاهده نیست): $z_i=0$ یا $z_i=1$. برای یک زیر گروه از جمعیت، موارد زیر صادق است: \begin{equation} P(y_i=1|z_i=0)= \xi, \end{معادله} با $\xi$ یک احتمال ثابت (تخمین نشده توسط مدل اما ارائه شده توسط کاربر). برای زیرگروه دیگر، داریم: \begin{معادله} P(y_i=1|z_i=1)= g_i = g(x_i' \theta_g) = \frac{1}{1+\exp(-x_i' \theta_g)}، \end{equation} با $x_i$ بردار متغیرهای مستقل (شامل بردار)، $\theta_g$ یک بردار پارامتر و نماد دست کوتاه $g_i$. احتمال اینکه یک مشاهده به یک زیرجمعیت خاص تعلق داشته باشد برابر است با: \begin{معادله} P(z_i=1)= h_i=h(\tilde{x}_i' \theta_h) = \frac{1}{1 +\exp(-\tilde{x}_i'\theta_h)}، \end{equation} با $\tilde{x}_i$ یک بردار مستقل متغیرها و $\theta_h$ بردار پارامتر مربوطه. توجه داشته باشید که به طور کلی، $\tilde{x}_i$ ممکن است با $x_i$ متفاوت باشد. در یک مورد خاص، $\tilde{x}_i$ فقط حاوی یک وقفه است، که در آن نسبت‌های اختلاط را ثابت کرده‌ایم (من هر دو را آزمایش کرده‌ام، و هر دو منجر به یک مشکل می‌شوند، که در زیر توضیح داده شده است - بگذارید نوع 1 همان چیزی باشد که با فقط رهگیری، و نوع 2 با متغیرهای مستقل بیشتر). مشکل هنگام تلاش برای تخمین این مدل رخ می دهد. من الگوریتم EM را پیاده‌سازی کرده‌ام (دوبار/سه‌گانه/چهارگانه بررسی شد، من 95% مطمئن هستم که ریاضی درست است)، اما به نظر می‌رسد مدل من قابل شناسایی نیست (هیچ یک از هر دو نوع). هنگام ایجاد یک نمودار کانتور (یا رسم سطح) برای دو متغیر مستقل، اوج وجود ندارد بلکه یک رج وجود دارد (تصویر زیر را ببینید). ![طرح کانتور](https://dl.dropbox.com/u/46839575/contourplot.JPG) من به طور مستقیم می توانم این را با نگاه کردن به: \begin{equation} P(y_i=1) = h_i\cdot g_i+( 1-h_i) \cdot \xi. \end{equation} من می توانم تصور کنم که می توان $h_i$ را افزایش داد و $g_i$ را به نسبت های مناسب کاهش داد و به همان احتمال $P(y_i=1)$ رسید. و احتمالاً این برای LL نیز صادق است. من شروع به جستجو در ادبیات برای راه حل این مشکل کرده ام، اما هنوز پاسخ نهایی را پیدا نکرده ام. آیا راه حلی برای این مشکل شناسایی وجود دارد (حداقل من فکر می کنم مشکل همین است)؟ آیا برخی از محدودیت های اضافی می تواند مشکل را حل کند یا راه حل دیگری وجود دارد؟ پس از همه، آیا امکان ایجاد مخلوطی از توزیع های دو جمله ای وجود دارد؟ امیدوارم توضیحم واضح باشه پیشاپیش از کمک شما متشکرم با احترام، توماس
مخلوطی از توزیع های دو جمله ای
57547
در آماده سازی برای امتحان پایان ترم R، من روی فایل CSV زیر کار کرده ام که از R الگوبرداری شده است، که در حال حاضر در کشف آن با مشکل مواجه هستم. این تمرین از کتاب درسی «آمار کاربردی: اصول و مثال‌ها» نوشته دیوید راکسبی کاکس است. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/6wvqq.png) _داده ها از یک مطالعه واقعی در نیروگاه های راکتور آب سبک (LWR) ساخته شده در ایالات متحده آمریکا در دهه 1970 گرفته شده است. هدف از این مطالعه توسعه مدلی بود که بتواند برای مدل‌سازی هزینه سرمایه درگیر در ساخت نیروگاه‌های LWR مورد استفاده قرار گیرد. مجموعه داده شامل 32 نیروگاه LWR و شامل متغیرهای زیر است:_ عناوین PR، NE، CT، BW و PT دارای خروجی هایی هستند که شامل 1 و 0 است که در آن 1=بله و 0=خیر است. مجموعه داده شامل 32 نیروگاه LWR و شامل متغیرهای زیر است: ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/095E0.png) ![شرح تصویر را اینجا وارد کنید](http:// i.stack.imgur.com/6FatZ.png) اکنون که دامنه سوال را معرفی کردم - مشکل من اینجاست: از من خواسته شده است که اصطلاحات مناسب را به آن مدل اضافه کنم تا بتوانم بررسی کنید که آیا دلیل خوبی برای این باور وجود دارد که تأثیر ظرفیت یک نیروگاه بر هزینه‌های ساخت و ساز ممکن است برای نیروگاه‌هایی که قبلاً در همان سایت دارای LWR بودند و آنهایی که نداشتند یکسان نباشد. خلاصه نتایج مدل نهایی من در R در زیر نشان داده شده است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/fzSel.png) بنابراین، معادله مدل نهایی من این است: C = - 541.82231+ 26.11545T1+ 5.22321T2+ 0.41890S- 94.33786PR+108.34622NE- 132.58098PT من سعی کردم مدلی را که فقط شرایط S (ظرفیت توان) و PR (آیا LWR قبلاً در همان سایت وجود داشته است) را در مقابل C (هزینه ساخت و ساز) ارزیابی کند، اما عبارت سؤال می گوید: «مناسب را اضافه کنید. شرایط را به آن مدل به منظور بررسی...» باعث می شود باور کنم کاری که می خواستم انجام دهم اشتباه است، زیرا می توانستم انجام دهم خارج کردن شرایط آیا کسی می‌داند چه عبارت‌های مناسبی را باید اضافه کنم و چگونه همبستگی را آزمایش کنم؟
تجزیه و تحلیل داده ها با استفاده از R
55946
من یک تحلیل رگرسیون با استفاده از تابع lm()R انجام دادم. یکی از متغیرهای مستقل معنی‌داری نشان نمی‌دهد (89/0=p)، که با این فرضیه که باید تأثیر مثبت معناداری بر متغیر وابسته داشته باشد، تناقض دارد. چگونه آن را تفسیر می کنید؟ آیا می توانید بگویید که فقط به دلیل معنی دار نبودن آن - حتی اگر به طور معنی داری منفی نباشد، تأثیر مثبتی بر متغیر وابسته ندارد؟
چگونه یک متغیر مستقل غیر معنادار را تفسیر کنیم؟
104622
من فقط نمی دانم از نموداری با محور x به عنوان واقعی و محور y به عنوان داده های پیش بینی شده چه چیزی را می توانیم استنباط کنیم؟ ![signups](http://i.stack.imgur.com/dwlOW.png)
یک نمودار واقعی در مقابل برازش به ما چه می گوید؟
74297
در سال 2012 ما در دانشگاه خود اطلاعاتی را در مورد حفظ دانشجو از ترم اول تا ترم دوم به همراه برخی متغیرهای دیگر جمع آوری کردیم. متغیر حفظ باینری، حفظ یا حفظ نشد است. در سال 2013 سیستم جدیدی را معرفی کردیم. مشاوران موفقیت دانش آموزی تعیین شدند و هر دانش آموزی در صورت نیاز می توانست به آنها مراجعه کند. ما چند متغیر جدید مرتبط با معرفی مشاوران موفقیت دانشجویی را به همراه متغیرهایی که در سال 2012 جمع آوری شده بود، جمع آوری کردیم. اکنون مراجعه به این مشاوران اجباری نبود. کسانی که مشکلی احساس می کردند می توانستند به آنها مراجعه کنند. تنها با نگاه کردن به داده های سال 2013 به نظر می رسد که مشاوران اوضاع را بدتر می کنند: دانشجویانی که می بینند بدتر می شوند و احتمال بیشتری دارد که دانشگاه را ترک کنند. فقط دانشجویانی که با مشکل مواجه بودند احتمالاً به مشاوران مراجعه می کردند و آنهایی که خوب کار می کردند احتمالاً نمی رفتند. اگر 10 دانشجو با مشکل نزد مشاور رفتند و 8 نفر در ترم 2 باقی ماندند، مطمئناً موفقیت آمیز است. اما اگر 80 نفر از 100 دانشجویی که هیچ مشکلی نداشتند و به این ترتیب نزد مشاور نرفته بودند، تا ترم 2 باقی بمانند، شانس ورود به سیستم مشابه با دانشجویانی که به مشاوران مراجعه کرده اند خواهد بود و بنابراین به شما می گوید که رفتن به مشاوران تاثیر قابل توجهی نداشت! بخشی از دلیل آن تغییر سیاست عمده ای بود که بر نحوه پذیرش دانشجویان در دانشگاه های کشورمان تأثیر گذاشت. قبل از سال 2013 یک سرپوش وجود داشت، محدودیتی در مورد تعداد دانشجویی که یک دانشگاه می‌توانست بپذیرد و انتظار بودجه دولتی برای آنها داشته باشد. در سال 2013 که حذف شد. بنابراین، دانشگاه‌های موفق و مطلوب درهای خود را به روی دانشجویان بیشتری باز کردند و دانشجویان بیشتری ناگهان توانستند وارد دانشگاه‌های مطلوب شوند. دانشگاه ما چندان مطلوب نیست. بنابراین آنچه احتمالاً اتفاق افتاد این بود که دانشگاه ما در سال 2013 مجبور شد به طور قابل توجهی دانشجویان بدتر را بپذیرد، که به خوبی می تواند منجر به دشواری حفظ بیشتر شود. آنچه روسای من فکر می کنند این است که ما باید داده های سال 2012 را وزن کنیم تا با داده های سال 2013 در مورد برخی از متغیرهایی که ممکن است به حذف سقف ورودی دانش آموز حساس بوده اند مطابقت داشته باشد (یا داده های 2013 را وزن کنیم تا با آنها مطابقت داشته باشد. داده های 2012). سپس می‌توانیم دو گروه مختلف را به گونه‌ای مقایسه کنیم که گویی آنها یک گروه کنترل مناسب برای یکدیگر هستند. در واقع این توهم است. برخی استفاده از SPSSINC RAKE را پیشنهاد کردند، اما من دلیلی نمی‌دانم. چیزی که ما می‌خواهیم بدانیم (بسیار گسترده) این است که آیا معرفی مشاوران و غیره مؤثر بوده است یا خیر، و میزان کارآمدی آن.
مقایسه اثر درمانی که برای گیرندگان آن اختیاری بود
104624
## پیشینه من سعی می کنم مثال _اولین_ را در یک دوره آموزشی در مورد مدل های برازش بفهمم (بنابراین این ممکن است به طرز مسخره ای ساده به نظر برسد). من محاسبات را با دست انجام داده ام و آنها با مثال مطابقت دارند، اما وقتی آنها را در R تکرار می کنم، ضرایب مدل خاموش است. من فکر کردم که این تفاوت ممکن است به دلیل استفاده از واریانس جمعیت ($\sigma^2$) در کتاب درسی باشد، در حالی که R ممکن است از واریانس نمونه ($S^2$) استفاده کند، اما نمی‌توانم ببینم این واریانس در کجا در محاسبات استفاده می‌شود. برای مثال، اگر «lm()» در جایی از «var()» استفاده کند، بخش راهنما در «var()» به این نکته اشاره می‌کند: > مخرج n - 1 استفاده می‌شود که یک تخمین‌گر بی‌طرفانه از واریانس > (co) برای i.i.d ارائه می‌دهد. مشاهدات من کد lm() و lm.fit() را بررسی کرده ام و هیچ کدام از var() استفاده نکرده ام، اما lm.fit() این داده ها را به کد C کامپایل شده ارسال می کند (`z <\- .Call(C_Cdqrls, x, y, tol, FALSE)`) که به آن دسترسی ندارم. ## سوال آیا کسی می تواند توضیح دهد که چرا R نتایج متفاوتی می دهد؟ حتی اگر در استفاده از واریانس نمونه در مقابل جمعیت تفاوت وجود داشته باشد، چرا برآورد ضرایب متفاوت است؟ ## داده‌ها برای پیش‌بینی اندازه کفش از کلاس مدرسه، یک خط تنظیم کنید. # model data mod.dat <- read.table( text = 'کفش درجه 1 1 2 5 4 9' , header = T); # mean mod.mu <- mean(mod.dat$shoe); # تغییرپذیری mod.var <- sum((mod.dat$shoe - mod.mu)^2) # ضرایب مدل از کتاب درسی mod.m <- 8/3; mod.b <- -1; # مقادیر پیش بینی شده ( 1.666667 4.333333 9.666667 ) mod.man.pred <- mod.dat$grade * mod.m + mod.b; # residuals ( -0.6666667 0.6666667 -0.6666667 ) mod.man.resid <- (mod.dat$shoe - mod.man.pred) # واریانس باقیمانده ( 1.333333 ) mod.man.unexpl.var <- man sum.( مقیم^2)؛ # r^2 ( 0.9583333 ) mod.man.expl.var <- 1 - mod.man.unexpl.var / mod.var; # but lm() نتایج متفاوتی می دهد: summary(lm(shoe ~ grade, data = mod.dat)) Call: lm(formula = shoe ~ grade, data = mod.dat) Residuals: 1 2 3 -0.5714 0.8571 -0.2857 ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (فاصله) -1.0000 1.3093 -0.764 0.585 درجه 2.5714 0.4949 5.196 0.121 خطای استاندارد باقیمانده: 1.069 در 1 درجه آزادی: 30 R-squared چندگانه: R-squared4. 0.9286 F-statistic: 27 در 1 و 1 DF، p-value: 0.121 ## ویرایش همانطور که بن بولکر نشان داده است، به نظر می رسد معلمان گاهی اوقات اشتباه می کنند. به نظر می رسد که محاسبات R صحیح باشد. اخلاقیات داستان: چیزی را فقط به این دلیل که معلم می گوید درست است باور نکنید. خودت تایید کن!
چرا lm()R تخمین های ضرایب متفاوتی را نسبت به کتاب درسی من برمی گرداند؟