_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
71720 | من در حال تأیید اعتبار مدلی هستم که سعی در پیشبینی تعداد دارد. اگر این یک مشکل طبقهبندی باینری بود، AUC خارج از برابر را محاسبه میکردم، و اگر مشکل رگرسیونی بود، RMSE یا MAE خارج از برابر را محاسبه میکردم. برای یک مدل پواسون، از چه معیارهای خطا می توانم برای ارزیابی دقت پیش بینی های خارج از نمونه استفاده کنم؟ آیا بسط پواسون AUC وجود دارد که به خوبی به ترتیب مقادیر واقعی پیش بینی ها نگاه می کند؟ به نظر می رسد که بسیاری از مسابقات Kaggle برای شمارش (به عنوان مثال تعداد آرای مفیدی که یک بررسی yelp به دست می آورد، یا تعداد روزهایی که بیمار در بیمارستان می گذراند) از ریشه میانگین log مربع خطا یا RMLSE استفاده می کنند. /ویرایش: یکی از کارهایی که من انجام دادهام این است که دهکهای مقادیر پیشبینیشده را محاسبه میکنم، و سپس به شمارشهای واقعی، با دهکها نگاه میکنم. اگر دهک 1 پایین است، دهک 10 زیاد است، و دهک های بین این دو به شدت در حال افزایش هستند، من مدل را خوب نامیده ام، اما در تعیین کمیت این فرآیند با مشکل مواجه بوده ام و متقاعد شده ام که یک روش بهتر وجود دارد. رویکرد /ویرایش 2: من به دنبال فرمولی هستم که مقادیر پیشبینیشده و واقعی را بگیرد و مقداری «خطا» یا «دقت» را برگرداند. برنامه من این است که این تابع را بر روی داده های خارج از تار در طول اعتبارسنجی متقاطع محاسبه کنم و سپس از آن برای مقایسه طیف گسترده ای از مدل ها (به عنوان مثال رگرسیون پواسون، جنگل تصادفی و GBM) استفاده کنم. به عنوان مثال، یکی از این تابع ها RMSE = sqrt(mean((پیش بینی شده-واقعی)^2)) است. یکی دیگر از این تابع ها AUC است. به نظر می رسد هیچ کدام از عملکردها برای داده های poisson مناسب نیستند. | معیارهای خطا برای اعتبارسنجی متقابل مدلهای پواسون |
50372 | من می خواهم تأثیر دما را بر مرگ و میر ماهی ارزیابی کنم. هر دو متغیر سری زمانی هستند، بنابراین باقیمانده همبستگی خودکار خواهد داشت. آیا روش رگرسیون برای مقابله با آن وجود دارد؟ هر توصیه ای قدردانی خواهد شد | چگونه یک مدل رگرسیون با دو سری زمانی تناسب دارد |
50370 | من چگالی مشترک زیر را دارم: $p(x_1,x_2,y_1,y_2) \propto \exp\left(−\left(x_1^2+x_2^2+c_1(y_2-y_1)^2+c_2(y_2- y_1)^4\right)\right)$ آیا می توانم از نمونه گیری گیبس برای نمونه برداری از آن استفاده کنم؟ چگونه می توانم توزیع های شرطی کامل را بدست بیاورم، و چگونه می توانم از آن توزیع های شرطی که فکر می کنم بسیار پیچیده هستند، نمونه بگیرم؟ | نمونه گیری گیبس از شرایط کامل |
58428 | من به تازگی در مورد روشی خواندم که هرگز در مورد آن نشنیده بودم، و می خواستم بدانم آیا کسی تجربه ای در مورد آن داشته است. در کتاب «آمار» دونالد بری، او با اصلاح انحراف معیار نمونه، جایگزینی برای انجام آزمون t ارائه میکند، با عاملی که با N پایینتر افزایش مییابد: $s\rightarrow s\left(1+\frac{20} {n^2}\right)$ و سپس یک z-test ساده انجام دهید. آیا کسی تا به حال این را دیده است یا اشتقاقی از آن را دیده است؟ به نظر می رسد که از نظر تجربی با آزمون توزیع t در سطح 99 درصد مطابقت دارد و انحراف استاندارد را برای صدک های پایین تر بیش از حد برآورد می کند. من شک دارم که تفاوت عملی زیادی ایجاد کند، اما اگر توجیه شود، ممکن است به دانش آموزان در کلاس های آمار مقدماتی کمک کند. افکار | آزمون t را با z-test اصلاح شده جایگزین کنید - کسی تا به حال این را دیده است؟ |
34253 | در SAS Enterprise Miner 6.2 میتوان روشهای CHAID و CART را با استفاده از گره درخت تصمیم تقریبی کرد، طبق SAS Help، اما چیزی در مورد الگوریتم C4.5 وجود ندارد. چگونه می توانم الگوریتم C4.5 را با استفاده از گره درخت تصمیم تقلید کنم؟ من برای هر کمکی سپاسگزار خواهم بود. | شبیه سازی الگوریتم C4.5 با استفاده از گره درخت تصمیم در SAS Enterprise Miner 6.2. |
24267 | آیا انتخاب یک مدل رگرسیون با مقدار «0» برای رهگیری زمانی که منطقی است معقول است؟ به عنوان مثال، من سعی می کنم یک رابطه هندسی فیزیکی را مدل کنم، و می دانم که وقتی 'x = 0'، 'y = 0' است. با این حال پیامدهای انتخاب چنین مدلی این است که مقدار R^2 به طور قابل توجهی بالاتر می شود (از 0.67 به 0.95 تغییر می کند). وقتی باقیماندهها را برای هر دو مدل بررسی میکنم، میبینم که هر دو تقریباً توزیع یکسانی دارند. گزینه مبدا در شکل 1 و غیر مبدا در شکل 2 نشان داده شده است. //i.stack.imgur.com/XvWbi.jpg) چگونه باید تصمیم بگیرم که کدام مدل مناسب تر است؟ من برخی از پرسشها و پاسخهای دیگر درباره این موضوع را خواندهام، اما هیچ بحثی در مورد محدودیتهای فیزیکی که مبنایی برای انتخاب باشد ندیدهام. متغیر وابسته من در اینجا یک محاسبه مساحت است و متغیر مستقل من اندازه گیری یک بعد شکل است. برای مثال، اگر مجموعهای از مستطیلهایی به طول «l»، عرض «w» و مساحت «A» داشته باشم، سعی میکنم رابطه بین «l» و «A» را مدلسازی کنم. با این حال، از آنجایی که اینها کاملاً منظم نیستند، تفاوت هایی در رابطه وجود دارد، اما به نظر می رسد در چندین مورد خطی است، و بر اساس برخی از نظرات، در این مورد خاص چندان زیاد نیست. | دلایل منطقی برای انتخاب رگرسیون از طریق مبدا |
72021 | من در مورد آمار بسیار جدید هستم. بنابراین ، لطفاً درک کنید که سوال من تا حدودی بی دست و پا است ، و لطفاً هرگونه توصیه ای را به من بدهید. من مجموعه ای از داده ها دارم. X = 500 x 100 (500 مشاهده x 100 متغیر پیش بینی) Y = 500 x 1 (500 متغیر پاسخ) با این داده ها، من ابتدا میانگین مربعات خطا (MSE) را با استفاده از روش Ridge با اعتبار سنجی متقاطع 10 برابری برآورد کردم. سپس ، من می خواستم زیر مجموعه متغیرهای پیش بینی کننده (راه حل پراکنده) را پیدا کنم که ممکن است تأثیر بیشتری در تخمین داشته باشد. برای این کار ، من از روش Lasso با 10 برابر اعتبار متقابل استفاده کردم و بهترین مجموعه ضریب را انتخاب کردم که کمترین مقدار MSE را به من داد. در این مرحله، آیا می توانم مستقیماً کمترین مقدار MSE برآورد شده با روش LASSO و مقدار MSE برآورد شده توسط روش Ridge را مقایسه کنم؟ اگر منطقی باشد و اگر مقدار MSE برآورد شده با روش کمند کوچکتر از مقدار MSE برآورد شده با روش ریج باشد، می توانم بگویم که مدل جدید ساخته شده با روش LASSO بهتر از استفاده از مدل ساخته شده توسط کل متغیرهای پیش بینی کننده خواهد بود (ریج). روش)؟ من گزینه دیگری در ذهن دارم. در مورد اعمال مجدد روش Ridge برای متغیرهای پیش بینی کننده روش LASSO انتخاب شده برای مقایسه عملکرد بین زیرمجموعه و متغیرهای کل پیش بینی چگونه است؟ من نمی دانم این معقول است یا نه. اگر مقالاتی مرتبط با سوالات من می دانید، لطفاً به من اطلاع دهید. پیشاپیش متشکرم | چگونه می توانم از برخی متغیرهای انتخاب شده توسط LASSO استفاده کنم؟ |
58425 | من یک سوال تفسیر آمار دارم. من اخیراً یک آنوای دو طرفه برای شناسایی یک اصطلاح تعاملی بین متغیرهای مستقل طبقهبندی خود (ژنوتیپ + دما) انجام دادهام که بر متغیر وابسته پیوسته من (سرعت) تأثیر میگذارد. فرضیه من این است که ژنوتیپ + دما برای کاهش سرعت به شدت با هم تعامل دارند. در مورد من، اصطلاح برهمکنش قابل توجه است - به عنوان مثال، ژنوتیپ و دما به طور قابل توجهی با هم تعامل دارند، و من به راحتی می توانم مشاهده کنم که سرعت در این مورد کاهش می یابد. در حال حاضر با استفاده از روش معمول به انجام یک آزمایش post-hoc هدایت می شوم، اما واقعاً دلیل آن را نمی دانم: کدام آزمایش post hoc برای کمک به تأیید _تقابل_ بین دما و ژنوتیپ مناسب است؟ من به هیچ چیز به جز تعامل علاقه ندارم، زیرا همه شرایط دیگر را کنترل می دانم. با توجه به اینکه خود ANOVA برای آشکار کردن یک تعامل قابل توجه طراحی شده است (و موفق می شود) چنین آزمون پس از پایانی ضروری است؟ آیا تعیین **نشانه** تعامل ضروری است؟ _اگر بتوانید به من یک آزمون ناپارامتری برای این کار اشاره کنید، امتیازهای پاداش، زیرا داده های من گوسی نیستند (اما N=100+ بزرگ من به من کمک می کند تا با استفاده از داده ها در خود ANOVA راحت باشم)._ | آنوای دو طرفه با اصطلاح تعاملی: تست پس از مدتی چیست؟ |
24266 | من تازه وارد http://stats.stackexchange هستم، پس لطفاً اگر کار اشتباهی انجام می دهم به من اطلاع دهید. من مشکل زیر را دارم: فرض کنید ماشینی در حال حرکت در امتداد یک سطح صاف است. هیچ جاده ای در این سطح وجود ندارد، بنابراین می توان سفر را تصادفی در نظر گرفت. در یک هلیکوپتر پنج نفر بالای این سطح پرواز می کنند که همگی از روی هلیکوپتر و از همان پنجره (در هلیکوپتر) این خودرو را رصد می کنند. پس از مدتی، از هر فرد خواسته می شود تا پیش بینی کند خودرو در یک ثانیه کجا خواهد بود. هر فرد یک پیشبینی میدهد، همراه با میزان اطمینان خود از آن پیشبینی، یعنی شخص «P» میگوید «من «C%» مطمئن هستم که در یک ثانیه از هماکنون، خودرو در مکان «L» خواهد بود. آیا پنج نفر از این قبیل هستند، چگونه می توانم محتمل ترین مکان ماشین را یک ثانیه بعد تعیین کنم، فکر نمی کنم واقعاً مهم باشد، اما از آنجایی که یک آمار n00b است، ترجیح می دهم این اطلاعات را ارائه دهم؟ تعداد افراد در هلیکوپتر متغیر است فقط یک مثال برای این مورد در پیشبینی انواع خاصی از رفتار، برای مثال، یک ناظر ممکن است در پیشبینی انواع چرخشها به چپ و غیره آموزش دیده باشد. حقیقت همچنین فرض کنید که همه آنها مقیاس عینی اندازه گیری اعتماد خود را دارند. یک مثال بد (اما نمونه ای که نکته اساسی را نشان می دهد): اگر ناظر A بگوید من روی درست بودن پیش بینی خود 100 دلار شرط می بندم و ناظر B بگوید من روی درست بودن پیش بینی خود 150 دلار شرط می بندم، همه عوامل دیگر ( مانند اینکه هر ناظر چقدر برای پول خود ارزش قائل است) ثابت نگه داشته شود، ناظر B نسبت به ناظر A اعتماد به نفس بیشتری دارد. فرض کنید همه ناظران به درستی برای استفاده صحیح آموزش دیده اند. یک مقیاس هدف خاص که با آن می توان سطح اطمینان آنها را اندازه گیری کرد. | محتمل ترین مقدار پیش بینی هایی با سطوح اطمینان داده شده است |
50379 | برای برازش چند جمله ای با چند جمله ای درجه $n$، ما $n$ درجه آزادی داریم. آیا مفهوم مشابهی برای نزدیکترین همسایگان $k$ وجود دارد؟ آیا راهی برای مقایسه مدارک به طور کلی وجود دارد؟ من از یک پیشینه EE هستم بنابراین ممکن است با برخی از اصطلاحات پیشرفته آشنا نباشم. | درجات آزادی نزدیکترین همسایگان |
58420 | من با دو متغیر تصادفی همبسته سر و کار دارم که از طریق توزیع نرمال دو متغیره مدل شده اند. من مقادیری برای میانگین ($\mu_x، \mu_y$) و واریانسهای فردی ($\sigma_x، \sigma_y$) متغیرها دارم (عملاً توزیعهای عادی را به حاشیه میبرند). با توجه به مشاهدات جدید از متغیرهای تصادفی، آیا می توانم برآورد خود را از طریق استنتاج بیزی برای ضریب همبستگی، $P(\rho)$ به روز کنم؟ **تفکرات تاکنون:** شروع با توزیع نمونه: $P(x,y|\rho) = \frac{1}{2 \pi \sigma_x \sigma_y \sqrt{1-\rho^2}} \ exp\left( -\frac{1}{2(1-\rho^2)}\left[ \frac{(x-\mu_x)^2}{\sigma_x^2} + \frac{(y-\mu_y)^2}{\sigma_y^2} - \frac{2\rho(x-\mu_x) (y-\mu_y)}{\sigma_x \sigma_y} \right] \right)$ میخواهیم قبلی را بهروزرسانی کنیم، $P(\rho)$ (از قبلی مطمئن نیستم فرم) با مقداری مشاهده $(x_i,y_i)$: $P(\rho|x_i,y_i)=P(x_i,y_i)^{-1}*P(x_i,y_i|\rho)*P(\rho )$ چیزی که من را پرت می کند شکل توزیع قبلی است. من برای فرآیند خود می دانم که $\rho$ به دلیل همبستگی مثبت محدود است. چگونه می توانم این اطلاعات را در تعریف قبلی لحاظ کنم؟ علاوه بر این، آیا می توانم این رویه را به صورت بازگشتی اجرا کنم؟ **افکار دیگر:** شاید من به طور کامل به این مشکل فکر می کنم. من فقط می توانم ضریب همبستگی پیرسون را به طور مستقیم با توجه به تمام داده های اندازه گیری شده محاسبه کنم. با این حال، اندازه نمونه مورد انتظار من کوچک خواهد بود، و همچنین مرزهایی را برای همبستگی می دانم ($0<\rho<1$). با توجه به نمونه کوچک و محدودیت های پیشینی شناخته شده، من همچنان به بیزی متمایل هستم. | با توجه به میانگین ها و واریانس های عادی دو متغیره شناخته شده، تخمین همبستگی، $P(\rho)$، با داده های جدید به روز رسانی شود؟ |
50374 | ما سوالی در مورد تجزیه و تحلیل داده های تابلویی در R (plm) داریم که در دو مقیاس زمانی مشاهده شد. به عنوان پیش زمینه، ما یک آزمایش اقتصادی را با یک گروه 6-8 دانش آموز تکمیل کرده ایم که در 18 جلسه (زمان 1) با 12 دور در هر جلسه (زمان 2) تکمیل شده است. ما سه درمان داریم و هر درمان سه بار تکرار می شود (3 جلسه * 12 دور = 36 بار). در هر جلسه 6 بازیکن در هر دور تصمیم گیری می کنند (چون برخی از آنها قبل از انجام مناقصه حذف می شوند). برای وضوح بیشتر، طرح آزمایشی خود را در جدول 1 در زیر آورده ایم. ما همچنین جدولی را اضافه کردهایم که نشان میدهد مجموعه داده چگونه به نظر میرسد (جدول 2). درمانها سه سناریو مختلف (3 سطح) را در سه نوع مختلف ماهیگیری (3 سطح) آزمایش میکنند. بنابراین سوال ما این است که با توجه به اینکه برخی از شرکت کنندگان در بیش از یک دور و جلسه بازی می کنند، چگونه باید با دو متغیر زمانی من (جلسه و دور) برخورد کنیم؟ میدانیم که نمیتوانیم راندها را نادیده بگیریم، زیرا تصمیم یک بازیکن تحت تأثیر اتفاقاتی است که در دورهای قبلی، در جلسات فعلی و قبلی رخ میدهد. تابع plm به شما امکان تجزیه و تحلیل دو متغیر زمانی را نمی دهد. بنابراین، آیا باید یک متغیر زمانی را به عنوان یک عامل (به عنوان مثال عوامل (جلسه)) تنظیم کنیم؟ هر گونه کمکی قدردانی خواهد شد.  | چگونه با استفاده از بسته PLM در R با دو متغیر زمانی در مدل سازی داده های تابلویی برخورد کنیم؟ |
24261 | من یک الگوریتم درخت تصمیم را پیادهسازی میکنم و میخواهم عملکرد آن را نسبت به سایر پیادهسازیها احساس کنم. آیا کسی می تواند مجموعه داده های محبوب را برای آموزش و آزمایش الگوریتم های درخت تصمیم توصیه کند؟ من منابعی مانند این را پیدا کرده ام، اما مطمئن نیستم که به طور گسترده از آن استفاده شود. | مجموعه داده معیار برای الگوریتم درخت تصمیم |
1412 | زمینه: در برخی از حوزه های تحقیقاتی روانشناسی شناختی، تکالیف انتخاب اجباری غیر جایگزین رایج است. رایج ترین آنها دو انتخاب اجباری جایگزین (2AFC) است. این معمولاً به شکلی است که به شرکتکنندگان یک محرک داده میشود و از آنها خواسته میشود یکی از دو قضاوت را انجام دهند، مثلاً. محرک هدف موجود/غایب است، محرک سمت چپ با محرک سمت راست یکسان/متفاوت است، و غیره. اما وجود دارند، به عنوان مثال برخی تحقیقات شناسایی شاهدان عینی از آنجایی که متغیر وابسته (درست/نادرست) باینری است، این آزمایشها مکانهای معقولی برای استفاده از رگرسیون لجستیک هستند. سوال من این است: از آنجایی که عملکرد شانس در یک آزمایش 2AFC 50٪ است، آیا هنوز هم منطقی است که از تابع پیوند لجستیک استاندارد استفاده کنیم؟ به طور خاص، تابع لجستیک دارای حداقل مقدار نزدیک به 0٪ صحیح است، اما در عمل شرکت کنندگان در 2AFC باید حداقل 50٪ از زمان ها به دلیل شانس درست باشند. من حالت زیر را تصور می کنم که در آن ممکن است مشکل ایجاد کند: یک متغیر مستقل در حال ارزیابی دشواری تمایز است (مثلاً دشواری 1، آسان - 5، سخت؛ لطفاً توجه داشته باشید که این به صورت ترتیبی فقط برای سهولت درک - برای درک مطلب معرفی شده است. به خاطر این بحث، این متغیر را به صورت فاصله ای در نظر بگیرید) - شرکت کنندگان 50% در 5 و 4، 75% صحیح در 3، 85% صحیح در 2، و 99% درست در 1. آیا استفاده از یک تابع پیوند لجستیک استاندارد باعث می شود که شیب را دست کم بگیریم؟ [من اینطور فکر می کنم، اما اگر اشتباه می کنم، لطفاً مرا تصحیح کنید، به زیر مراجعه کنید] ویرایش: کسانی که تا کنون به سؤال من پاسخ داده اند بیان کرده اند که نحوه تنظیم مشکل نامشخص است. من نمونه زیر را برای کمک به روشن شدن مسائل ارائه می کنم. library(psyphy) make.data <- function(zero,one) { return(c(rep(0,zero),rep(1,one))) } center <- function(x) {return(scale(x, scale=FALSE))} logit.data <- data.frame(Score=c(make.data(50,50),make.data(50,50),make.data(25,75),make.data(15,85),make.data(1, 99))، Difficulty=rep(5:1،each=100)) logit.data$Difficulty2 <- center(logit.data$Difficulty)^2 استاندارد <- glm(Score~center(Difficulty),data=logit.data,family=binomial) #استاندارد عملکرد پیوند استاندارد.2 <- glm(Score~center(Difficulty)+ Difficulty2,data=logit.data,family=binomial) تابع پیوند استاندارد #استاندارد، اما بهتر است با یک quadradic revised.link <- glm(Score~center(Difficulty),data=logit.data,family=binomial(mafc.logit(2))) AIC(base) AIC(base.2) AIC(revised.link) coef( پایه) coef(base.2) coef(revised.link) #plot نمودار (تفاوت، plogis (ضریب (استاندارد)[1] +coef(استاندارد)[2]*center(diffs)),xlab=Difficulty,ylab=Pr(Correct),ylim=c(0,1),col=blue,type=l );abline(.5,0,col=Orange);lines(diffs,plogis(coef(standard.2)[1]+coef(standard.2)[2]*cente r(diffs)+coef(standard.2)[3]*center(diffs)^2),col=Cyan);lines(diffs,(p2afc(coef(revised.link)[1 ]+coef(revised.link)[2]*center(diffs))), col=Green);lines(5:1,c(.55,.60,.75,.85,.99)، col = سیاه و سفید)  در تصویر بالا، خط افقی نارنجی 50% پاسخ های صحیح را نشان می دهد. خط مشکی ناهموار داده های ارائه شده به معادله تخمین را نشان می دهد (توجه داشته باشید که مقادیر 4 و 5 در پشت نشانگر 50% نارنجی ناپدید می شوند). خط آبی معادله ای است که توسط یک پیوند لجستیک استاندارد تولید می شود. توجه داشته باشید که دقت زیر 50% را زمانی که تبعیض سخت تر است تخمین می زند (5). خط فیروزه ای پیوند لجستیکی استاندارد با عبارت درجه دوم است. خط سبز یک پیوند غیر استاندارد است که در نظر میگیرد که دادهها از یک آزمایش 2AFC میآیند که در آن عملکرد بسیار بعید است که به زیر 50% برسد. توجه داشته باشید که AIC برای تناسب مدل با استفاده از یک تابع پیوند غیر استاندارد از تابع پیوند لجستیک استاندارد برتر است. همچنین توجه داشته باشید که شیب معادله استاندارد کمتر از شیب معادله استاندارد با عبارت درجه دوم است (که با دقت بیشتری داده های واقعی را منعکس می کند). بنابراین، استفاده کورکورانه از یک تابع لجستیک بر روی داده های 2AFC (حداقل) به نظر می رسد که شیب را دست کم می گیرد. آیا تظاهرات من مشکلی دارد به این معنی که من چیزی را که فکر می کنم می بینم نمی بینم؟ اگر درست می گویم، پس چه پیامدهای دیگری (در صورت وجود) استفاده از تابع لجستیک عمومی با داده های 2AFC [احتمالاً قابل گسترش برای موارد NAFC] است؟ | پیامدهای یک تابع پیوند نامناسب در N روش انتخاب اجباری جایگزین (به عنوان مثال 2AFC)؟ |
72027 | در یک انتخابات، نامزد $A$ $n$ رای و کاندید $B$ $m$ رای که $n>m$ دریافت میکند. احتمال اینکه $A$ همیشه در شمارش آرا جلوتر باشد $\dfrac{n-m}{n+m}$ است. این به عنوان قضیه رأی برتراند شناخته می شود. یک تغییر اجازه دادن به کراوات است. بنابراین برای $n\geq m$ چه چیزی $P (A\text{ هرگز پشت سر نیست})$ است؟ | مشکل رای با کراوات |
72024 | من میدانم اعتبارسنجی متقاطع K-fold چیست، اما چینهای متعادل به چه معناست؟ من فکر کردم اعتبار سنجی متقاطع k-fold متعادل است. چه تفاوت هایی بین این دو وجود دارد؟ | اعتبارسنجی متقابل متوازن |
66246 | همبستگی دلالت بر علیت ندارد. علیت دلالت بر همبستگی دارد اما نه لزوماً همبستگی خطی. ... پس آیا همبستگی دلالت بر علیت مرتبه بالا دارد؟ اگر A و B همبستگی داشته باشند، آیا همیشه می توان متغیرهای `K={K1 K2 ... Kn}` را یافت به طوری که A~K1, K1~K2, ...,Kn-1~Kn و Kn~B ~ دلالت بر علیت دارد. به عبارت دیگر، اگر در یک همبستگی علیت وجود نداشته باشد، آیا متغیر(های) علی مشترک همیشه وجود دارد؟ | همبستگی در مقابل علیت |
77211 | بگذارید یک کیسه 1000 توپ، 100 توپ قرمز و 900 توپ آبی داشته باشد. اکنون، اجازه دهید ده نمونه مستقل (بدون جایگزینی در هر نمونه) از جمعیت اصلی (هر کدام 10٪) بدست آوریم. به شمارش تعداد توپ های قرمز در هر نمونه ادامه دهید، یعنی: (9، 10، 10، 11، 13، 8، 5، 15، 12، 9) برای تخمین تعداد توپ های قرمز در جمعیت اصلی، می توان محاسبه کرد. میانگین لیست بالا و تقسیم بر نمونه. در این حالت: (9 + 10 + 10 + 11 + 13 + 8 + 5 + 15 + 12 + 9) / 10 / 0.1 = 102 سؤالات من بدین ترتیب است: 1. به جای عدد، چگونه می توانم جرم احتمال را بدست بیاورم. تابع جمعیت تخمینی؟ آیا استفاده از قضیه حد مرکزی در اینجا، جایی که توزیع $N = (\mu,\sigma^2/n)$ درست است؟ من با این رویکرد مشکل دارم زیرا ارزش های منفی معنی ندارند. 2. حالا تصور کنید تعداد نامتناهی نمونه (همه با 10 درصد جمعیت)، یا حداقل تعداد بسیار زیاد (اما شناخته شده) نمونه دارم، و به گرفتن نتیجه برای هر یک از آنها، یک به یک ادامه دهید. چگونه می توانم تصمیم بگیرم که چه زمانی ممکن است متوقف شود (با اطمینان خاصی)؟ * * * برخی توضیحات در مورد مشکل اصلی: 1. اندازه جمعیت _à priori_ شناخته شده است. 2. اما تعداد رنگ ها _à priori_ مشخص نیست. 3. نه نسبت آنها. 4. هر نمونه بدون جایگزینی توپ می گیرد. 5. نمونه ها مستقل هستند (پس از نمونه برداری، همه توپ ها جایگزین می شوند). | برآورد اندازه جمعیت یک زیر گروه بر اساس نمونه های مستقل بدون جایگزینی |
73774 | فرض کنید ما یک مدل (تابع، الگوریتم) $M$ را آموزش داده ایم که نمونه جدیدی را که در مجموعه آموزشی مشاهده نشده است، پیش بینی می کند. طبیعی است که فرض کنیم کیفیت پیشبینی $M(x)$ به شباهت x$$ با مجموعه آموزشی $X$ بستگی دارد. نمیدانم آیا شاخصها/روشهایی وجود دارد که شباهت $x$ را با مجموعه آموزشی $X$ ارزیابی کند، یا هر شاخصی که کیفیت پیشبینی $M(x)$ را ارزیابی کند. برای دقیقتر بودن، نمیخواهم عملکرد کلی مدل (که میتواند توسط RMSE، R-squared یا تابع انحراف ارزیابی شود)، اما میخواهم کیفیت پیشبینی $M(x)$ را برای آن تخمین بزنم. این x$ خاص. خیلی خوب می شود اگر کسی بتواند به من به ادبیات مربوط به این مشکل اشاره کند. | شباهت عنصر جدید x با مجموعه آموزشی X |
49935 | من با نمادهایی مانند: \begin{align} y_{ij} &= \beta_0 + \beta_i x_{ij} + u_j + e_{ij}\\ &= \beta_{0j} + \beta_i x_{ij آشنا هستم } + e_{ij} \end{align} که در آن $\beta_{0j}=\beta_{0}+u_j$، و \begin{align} y_{ij} &= \beta_0 + \beta_1 x_{ij} + u_{0j} + u_{1j} x_{ij} + e_{ij} \\ &= \beta_{0j} + \beta_{1j} x_{ij} + e_{ij} \end{align} که در آن $\beta_{0j}=\beta_{0}+u_{0j}$ و $\beta_{1j}=\beta_1+u_{1j}$ به ترتیب برای یک مدل قطع تصادفی و یک مدل شیب تصادفی + مدل برش تصادفی. من همچنین به این نماد ماتریس/بردار برخورد کردهام که به من گفته شده است نشانگذاری مدل مختلط برای بزرگسالان (به گفته برادر بزرگترم): $$ \mathbf{y}=\mathbf{X\beta} + \ mathbf{Z b} + \mathbf{e} $$ که در آن $\mathbf{\beta}$ اثرات ثابت و $\mathbf{b}$ هستند اثرات تصادفی اگر به درستی متوجه شده باشم، نماد دوم نمادی کلی تر برای اولی است که نسخه های خاصی از دومی است. من باید ببینم چگونه می توان اولی را از دومی استخراج کرد. | تطبیق نمادها برای مدل های ترکیبی |
96882 | من مشکلی با توصیف نتایج یک تحلیل ساده به روشی منسجم دارم. این برای مطالعه مداخله ای است که در 25 شهر مختلف انجام شد تا تعداد مرگ و میرهای رختخواب را کاهش دهد. داده ها برای تعداد مرگ و میر در تخت قبل از شروع مداخله (مرحله پایه)، و برای تعداد پس از انجام مداخله است. هر دو مرحله پایه و مداخله به مدت یک سال به طول انجامید. من یک رگرسیون پواسون برای تعداد مرگ و میر تختخواب انجام داده ام و برای خوشه بندی در سطح شهر تنظیم کرده ام. من تأثیر قابل توجهی دریافت می کنم (کاهش 20٪، با 95٪ C.I 9 - 30.2)، اما این مسائل زمانی ایجاد می شود که سعی می کنم میزان تخمینی مرگ تخت نوزاد را قبل و بعد از مداخله بیان کنم. با تنظیم مجدد برای خوشهبندی در سطح شهر، من 113 در 100000 (95% CI 96 - 130) در ابتدا و 92 در هر 100000 (95% CI 75 - 120) بعد از مداخله دریافت میکنم. بنابراین اگرچه اندازه اثر قابل توجه است، اما فواصل اطمینان برای نرخ ها با هم همپوشانی دارند! من فرض میکنم که مقایسه فواصل اطمینان در نرخها گمراهکننده خواهد بود، زیرا آنها از توزیعهای حاشیهای ناشی میشوند و جفت شدن بین شهرها را از مرحله پایه تا مرحله مداخله منعکس نمیکنند. اما چگونه باید این نتایج را توصیف کنم تا از این نتیجه گیری گمراه کننده جلوگیری کنم؟ | کمک مورد نیاز برای جمله بندی: اندازه اثر قابل توجه اما CIهای همپوشانی |
41771 | می خواستم بدانم آیا کتابخانه های R خوب برای شبکه های عصبی یادگیری عمیق وجود دارد؟ من میدانم که «nnet»، «neuralnet» و «RSNNS» وجود دارد، اما به نظر میرسد هیچ یک از اینها روشهای یادگیری عمیق را پیادهسازی نمیکنند. من به ویژه به یادگیری بدون نظارت و به دنبال آن یادگیری تحت نظارت و استفاده از ترک تحصیل برای جلوگیری از سازگاری مشترک علاقه دارم. | کتابخانه های R برای یادگیری عمیق |
77213 |  چگونه می توانم شاخص Gini را با استفاده از ویژگی **Instance** به عنوان شرط تست ویژگی محاسبه کنم؟ من جینی را محاسبه کردم، اما هیچ سرنخی ندارم که چگونه آن را برای این ویژگی Instance انجام دهم. $$\text{Gini برای } a_1 = 0.345 $$ $$\text{Gini برای } a_2 = 0.493 $$ $$\text{Gini برای } a_3 = ?$$ من حدس میزنم که پاسخ این ویژگی همان ویژگی Instance باشد هیچ کسب اطلاعاتی ندارد با این حال، من نمی توانم این را ثابت کنم. $$\text{Gini} = 1 - \sum_i p(i|t)^2$$ | محاسبه شاخص جینی |
72023 | من به این یکی گیر کرده ام. اجازه دهید $X_1،...X_n$ یک i.i.d باشد. دنباله ای از متغیرهای تصادفی با CDF F. CDF تجربی $X_i$ تعریف شده است $$ \hat F_n(x) = \frac{1}{n} \sum_{1 \leq i \leq n} I\{X_I \ leq x \}. $$ توجه داشته باشید که برای $x \in \Re$، $\hat F_n(x) \xrightarrow{p} F(x)$. همچنین، کوچکترین میانه P را به صورت $$ \theta_0 = \inf \{ x \in \Re : F(x) \geq 0.5 \} تعریف کنید. $$ فرض کنید که میانه منحصر به فرد است، یعنی برای هر $\epsilon > 0$، $P(X_i \leq \theta_0 + \epsilon) > 0.5$. برآوردگر $\hat \theta_n$ $\theta_0$ را با $$ \hat \theta_0 = \inf \{x \in \Re : \hat F_n(x) \geq .5 \} تعریف کنید. $$ نشان دهید که $\hat \theta \xrightarrow{p} \theta_0$. | همگرایی در احتمال میانه تجربی |
1413 | به نظر می رسد که تجدید نظر فعلی lmer به توابع پیوند سفارشی اجازه نمی دهد. 1. اگر نیاز به تطبیق یک مدل اثر ترکیبی خطی لجستیک با یک تابع پیوند سفارشی باشد، چه گزینههایی در R موجود است؟ 2. اگر هیچ کدام - چه گزینه هایی در سایر بسته های آماری/برنامه نویسی موجود است؟ 3. آیا دلایل مفهومی وجود دارد که lmer توابع پیوند سفارشی ندارد، یا محدودیت ها صرفاً عملی/برنامه ای هستند؟ | مدل های رگرسیون مختلط و توابع پیوند سفارشی در R؟ |
72799 | در اینجا یک سؤال برای کتاب های درسی وجود دارد، اما من می خواهم سؤال مشابهی در مورد کتاب های راهنما بپرسم: چه کتاب های راهنمای اقتصاد سنجی را توصیه می کنید؟ مخاطبان فرضی پژوهشگران و دانشجویان مقطع کارشناسی ارشد هستند. این باید شامل مطالب _تحلیل_اقتصادی_ گرین و _تحلیل_اقتصادی_مقطع و داده های تابلویی وولدریج_ به شکل متراکم تر (بدون بحث و برهان)، و همچنین تکنیک های رایجی باشد که در این دو کتاب ذکر نشده است. یکی از گزینهها، ۶ جلد از سری کتاب راهنمای اقتصاد سنجی الزویر است که توسط گریلیش و اینستریلیگاتور ویرایش شده است. با این حال، شاید شما کتاب های راهنما دیگری را توصیه کنید، مختصرتر یا غیر آن؟ من دو قالب ممکن را پیشنهاد میکنم: یکی فرمت کارت مرجع با حداقل توضیحات، و دیگری قالب گستردهتر با اثبات و توضیح دقیقتر. | کتاب های راهنمای اقتصاد سنجی خوب چیست؟ |
72793 | در اینجا یک مشکل از یک آزمون تمرینی وجود دارد. فرض کنید $$X_i = \mu + \epsilon_i,\quad i=1,\ldots,n\quad \epsilon_i\sim N(0,\sigma^2_1)$$ $$Y_i = \mu + \delta_i,\ quad i=1,\ldots,m\quad \delta_i\sim N(0,\sigma^2_2)$$ همه $\epsilon_i$ و $\delta_i$ مستقل هستند. پارامترهای $\mu، \sigma_1^2، $ و $\sigma_2^2$ ناشناخته هستند. اجازه دهید $\theta=m/n$، $\rho=\sigma_2^2/\sigma_1^2$. فرض کنید $\rho$ شناخته شده است. نشان دهید که حداقل مربعات (وزنی) برآوردگر $\mu$ $$ \hat{\mu} = \dfrac{\rho\bar{X} + \theta\bar{Y}}{\rho+\theta}$ است. $ تلاش من: من نمی توانم بفهمم که چگونه از این واقعیت استفاده کنم که $\rho$ شناخته شده است. من $$\hat{\mu} = \text{argmin}\left\{\sum_{i=1}^n (X_i-\mu)^2 + \sum_{i=1}^m (Y_i- را امتحان کردم \mu)^2\right\}$$ و رسید که میانگین وزنی $$ \hat{\mu} = \dfrac{n\bar{X} + m\bar{Y}}{n+m}$$ اما دوباره این کار را انجام می دهد از این واقعیت استفاده نکنید که می دانیم نسبت $\sigma_2^2/\sigma_1^2$ چقدر است. هر ایده ای؟ | برآورد حداقل مربعات وزنی |
41774 | من می خواهم قدرت آماری یک آزمون نسبت درستنمایی را بر اساس اطلاعات متقابل محاسبه کنم. من از ویژگی مجانبی استفاده میکنم که آمار آزمون $G = 2NI$ که $N$ اندازه نمونه است و $I$ اطلاعات متقابل است. من حجم نمونه بزرگی دارم (مثلاً مشاهدات 10^6$) اما درجات آزادی زیادی دارم (مثلا 6000^2$)، بنابراین من مقدار بحرانی فاصله $\chi^2$ را با استفاده از تقریب معمولی $\ محاسبه میکنم. chi^2 \sim \mathcal{N}(\nu, 2\nu)$. گمان میکنم که تلاش میکنم نشان دهم که حجم نمونه مورد نیاز برای اطمینان قابل توجه با درجه آزادی بسیار غیرمنطقی است، بنابراین هر رویکرد جایگزین برای استدلال این نکته نیز مورد استقبال قرار میگیرد. من یک آمارگیر نیستم، پس اگر این سوال بد بیان شده یا اشتباه فکر شده است عذرخواهی می کنم! | چگونه می توانم توان آماری آزمون نسبت درستنمایی مبتنی بر MI را با df زیاد محاسبه کنم؟ |
77216 | شرایط یک سری زمانی ضعیف-ایستا عبارتند از: (1) ثابت در میانگین (2) ثابت در ممان های مرتبه دوم. ما میتوانیم ثابت بودن یک سری زمانی را با استفاده از «kpss.test()» در R آزمایش کنیم. اگر بگوییم، یک سری زمانی $X_t$ توسط آزمایش غیر ثابت است. آیا راهی برای بررسی اینکه آیا در میانگین ثابت نیست، یا گشتاورهای مرتبه دوم آن در طول زمان در حال تغییر هستند وجود دارد؟ | چگونه می توان تعیین کرد که آیا یک سری زمانی غیر ثابت دارای تغییر در میانگین یا تغییر در واریانس است؟ |
73777 | من تازه وارد g*power هستم و در مورد اینکه کدام آزمون را باید انتخاب کنم و چگونه حجم نمونه داده شده را تفسیر کنم، سوال دارم. من 2 اندازه گیری (قبل / بعد)، یک گروه کنترل و یک گروه مداخله دارم. در یک مطالعه مرجع، من توانستم اندازه اثر 0.7 را برای مهمترین پارامتر پیدا کنم. در g*power من F-test -> ANOVA RM درون تعاملی را انتخاب کردم، توانی 0.8 و آلفا 0.05. سوالات من این است: 1. آیا آزمون درست را انتخاب کردم؟ 2. آیا حجم نمونه به دست آمده مربوط به هر گروه است یا کل؟ 3. با توجه به اندازه افکت 0.7 که در یک مطالعه مرجع پیدا کردم، آیا اجازه دارم آن را با g*power -> effect size f پر کنم یا باید آن را همانطور که در 0.25 بود رها کنم؟ | حجم نمونه و انتخاب صحیح تست در g*power |
24263 | با توجه به چند تای اعتبار متقابل یک رگرسیون لجستیک، و تخمینهای متعدد حاصل از هر ضریب رگرسیون، چگونه باید اندازهگیری کرد که آیا یک پیشبینیکننده (یا مجموعهای از پیشبینیکنندهها) بر اساس ضریب(های رگرسیون) پایدار و معنادار هستند یا خیر؟ ? آیا این برای رگرسیون خطی متفاوت است؟ | پایداری مدل در اعتبارسنجی متقابل مدلهای رگرسیونی |
73775 | من با داده های رضایت مشتری کار می کنم که در آن متغیر وابسته رضایت کلی و متغیرهای مستقل رضایت از حوزه های مختلف مانند پشتیبانی مشتری، تحویل و غیره است. می خواهم مناطقی را پیشنهاد کنم که شرکت باید روی آنها تمرکز کند تا رضایت کلی را بهبود بخشد. . گزینه 1: من می توانم به همبستگی های بین رضایت کلی و متغیرهای مستقل نگاه کنم و پیشنهاد کنم که شرکت روی 3 همبستگی مثبت برتر به عنوان زمینه های بهبود تمرکز کند. گزینه 2: می توانم از رگرسیون خطی استفاده کنم و پیشنهاد کنم که شرکت باید بر روی مناطق مرتبط با 3 ضریب رگرسیون تمرکز کنید، آیا این دو گزینه معادل هستند؟ | آیا اهمیتی دارد که از همبستگی یا ضرایب رگرسیون برای پیشنهاد مناطقی برای تمرکز بر بهبود رضایت کلی مشتری استفاده کنم؟ |
50597 | فرض کنید مجموعه داده ای از میانگین ها و انحرافات استاندارد داریم. بنابراین داده ها به شکل $X_1=(\bar{x}_1, \bar{x}_2,\dots, \bar{x}_n)$ و $X_2 =(s_1,s_2, \dots, s_n) هستند. $. آیا ابزاری برای مشاهده $\overline{X_1}$ وجود دارد؟ همچنین آیا رابطه ای بین $\text{Stdev}(X_1)$ و $X_2$ وجود دارد؟ به نظر می رسد که $X_2$ تغییرپذیری و $\text{Stdev}(X_1)$ متغیر درونی را می دهد. شاید این مربوط به قانون کل واریانس باشد؟ | مجموعه داده از ابزار |
73778 | اجازه دهید یک متغیر تصادفی گسسته $T$ دارای CDF $F_T(T)$ باشد. آیا میتوانید به من کمک کنید تا بفهمم چرا $$ P \left[ F_T (T) \leq a_1 \right] \leq a_1 $$ میدانم که نتیجه برای حالت پیوسته برابر است، به عنوان تبدیل انتگرال احتمال شناخته میشود، اما من در درک آن برای گسسته مشکل دارم زیرا معکوس آن تعریف نشده است. متشکرم. | نابرابری تابع توزیع تجمعی (توزیع های گسسته) |
91619 | فرض کنید یک گروه کلی از موسسات مالی (fi) متشکل از بانک ها (ba) و اتحادیه های اعتباری فدرال (fcu) دارید. تعداد کل fi 73 است. تعداد ba 46 و عدد fcu 27 است. بیایید فرض کنیم که تعداد کل کارکنانی که برای ba کار می کنند 2500 و تعداد کل کارکنانی که برای fcu کار می کنند 1080 باشد. چگونه می سازید. نمونه یا گروه های نمونه که نماینده هر گروه هستند. یعنی ba و fcu؟ | تعیین حجم نمونه از نمونه تلفیقی |
93614 | فرض کنید که مدل زیر را داریم $$ y[t] = A_1\sin(\omega_1 t+\phi_1)+A_2\sin(\omega_2 t + \phi_2)+ \cdots + A_p \sin(\omega_pt + \phi_p) + z(t) . $$ اجازه دهید این سیگنال را به صورت B بنامیم. سپس در matlab دستورات زیر را اجرا کردم >> [pxxr,fr]=pyulear(B,50,1024,100); >> plot(fr,pxxr) من تصویر زیر را دریافت می کنم  به نظر می رسد که دستور درست است، اما من آن را با استفاده از آن انجام داده ام ترسیم خود همبستگی جزئی من می دانم که معیارهای دیگری برای تعیین ترتیب AR وجود دارد، مانند AIC، BIC، حداقل طول توصیف (MDL)، اما چگونه آنها را در matlab محاسبه کنیم؟ لطفا با کد یا معیارهای دیگر در متلب به من کمک کنید تا ترتیب مدل AR را تعیین کنم. | تعیین ترتیب مدل AR |
77210 | فرض کنید من داده هایی به شکل زیر دارم t1 = data.frame(a=c(2,3,3,1,5),b=c(6,4,5,2,1)) t2 = data.frame( a=c(3,4,4,1,8),b=c(5,5,5,3,3)) اگر Plot(t1$a,t1$b) را در نظر بگیرید و 'plot(t2$a,t2$b)'، می توانید تصور کنید که پلات دوم با گرفتن هر نقطه از پلات اول و انتقال آن به مکان جدید خود در نمودار دوم تولید می شود. من یک راه خوب برای تجسم این می خواهم. یکی از راه هایی که به آن فکر کردم این بود که هر «t1» «(a,b)» را به عنوان یک بردار نشان دهم که به نقطه مربوط به «t2» «(a,b)» می رسد و سپس دسته ای از بردارها را رسم می کنم. من قبلاً در معادلات دیفرانسیل انجام می دادم (نام فنی این نوع نمودار را فراموش می کنم). اساساً، این نمودار یک دسته از فلشهای کوچک است که به ترتیب از هر «t1» «(a,b)» سرچشمه میگیرد و به ترتیب به هر «t2» «(a,b)» اشاره میکند. هر گونه ایده در مورد نحوه انجام این کار در `R`، یا هر ایده دیگری برای تجسم و مشاهده نحوه حرکت هر نقطه. توجه: در نسخه واقعی کاری که امیدوارم انجام دهم، داده های زیادی دارم، شاید 200 امتیاز، و سعی می کنم نشان دهم که به طور کلی، نقاط به سمت مقادیر کوچکتر a و مقادیر b کوچکتر از «t1» به «t2». اما من واقعاً میخواهم این را به روش دیگری به جز چیزی مانند هیستوگرام تفاوت بین «t2» و «t1» میانگین «a» و «b» نشان دهم. | R - حرکت نقاط را نشان می دهد |
50596 | من نمیدانم آیا میتوان واگرایی KL را با احتمال خطا در یک تنظیم تست فرضیه باینری بیزی مرتبط کرد. یعنی، ما باید بین فرضیههای $A$ و $B$ با توجه به مشاهداتx تصمیم بگیریم، و احتمالات قبلی درست بودن $p(A)$ و $p(B)$ را داریم به طوری که $p(A)+p (B) = 1 دلار. تحت $A$ یا $B$، مشاهدات توزیعهای احتمال (متفاوت) $p_A(x)$ و $p_B(x)$ را القا میکند. تنظیم مشابه سؤال قبلی است و این سؤال ممکن است بسط آن در نظر گرفته شود. بیان مجدد معادله زیر (3) از سؤال قبلی، احتمال خطای آزمون فرضیه را با کران های پایین تر نشان می دهد: $$P_e = \frac{1-||p_A(x)p(A) - p_B(x)p(B)||_1 }2\tag{1}$$ که در آن $||\cdot||_1$ نشاندهنده هنجار $L_1$ است. هنگامی که احتمالات قبلی برابر هستند، یعنی $P(A)=P(B)=\frac{1}{2}$، (1) به عبارتی کاهش مییابد که شامل فاصله تغییرات کل بین توزیعهای احتمال است که توسط دو فرضیه القا میشود. : $$P_e = \frac{1-\frac{1}{2}||p_A(x) - p_B(x)||_1}2\tag{2}$$ نابرابری پینسکر بیان می کند که $$||p_A(x) - p_B(x)||_1\leq\sqrt{2D(p_A(x)||p_B(x))}\tag{3}$$ جایی که $D( p_A(x)||p_B(x))=\sum_x p_A(x)\log\frac{p_A(x)}{p_B(x)}$. البته (3) را می توان برای کران پایین (2) به صورت زیر استفاده کرد: $$P_e \geq \frac{1-\frac{1}{\sqrt{2}}\sqrt{D(p_A(x)| |p_B(x))}}2\tag{4}$$ با این حال، نمیدانم که آیا میتوان کران پایینی مبتنی بر واگرایی KL مشابه را برای (1) مشتق کرد. آیا وزندهی با پیشینها در این مورد کار میکند، یعنی (5) درست است: $$||p_A(x)p(A) - p_B(x)p(B)||_1\leq\sqrt{2D(p_A( x)p(A)||p_B(x)p(B))}\tag{5}$$ فکر نمیکنم درست باشد. بنابراین، آیا یک کران پایینی مبتنی بر واگرایی KL برای (1) وجود دارد؟ | نابرابری پینسکر برای آزمون فرضیه بیزی |
72792 | من در حال تلاش برای یافتن چندین نقطه شکست با استفاده از «جریان فرآیند» از بسته «CPM» در R هستم. آیا کسی میتواند به من توضیح دهد که «ARL0» چیست؟ processStream(ret.fin.chn,Kolmogorov-Smirnov,ARL0=500,lambda=NA) $changePoints [1] 59 75 250 286 443 448 663 1037 1042 1261 1576 183212315 2633 $detectionTimes [1] 73 89 285 334 447 503 670 1040 1145 1428 1639 1951 1874 2030 2078 2632 2644 در حالی که processStream(ret.fin.chn,Kolmogorov-Smirnov,ARL0=2000,lambda=NA) $changePoints [1] 59 75 663 1037 1261 1559 1842 2013 2035 2621 2639 2639 2639 $1 1041 1480 1688 2026 2032 2266 2633 2646 و processStream(ret.fin.chn,Kolmogorov-Smirnov,ARL0=3000,lambda=NA) $changePoints [1] 59 710 67251510 2013 2149 $detectionTimes [1] 75 92 692 1041 1490 1690 2026 2032 2284 Tt به نظر می رسد که «ARL0» متفاوت تشخیص نقطه شکست کمتری ارائه می دهد، آیا این چیز خوبی است؟ **توجه**: سری زمانی «ret.fin.chn» شامل 2749 ردیف است. در زیر گزیدههایی از کمک «R» آمده است: > ARL0 > > «ARL_0» را تعیین میکند که CPM باید داشته باشد، که با > میانگین تعداد مشاهدات قبل از وقوع مثبت کاذب مطابقت دارد، با این فرض که > دنباله تغییری نمیکند. از آنجایی که تخمین آستانههای CPM از نظر محاسباتی گران است، بسته حاوی مقادیر آستانههای از پیش محاسبهشده مربوط به چندین مقدار رایج > «ARL_0» است. این بدان معنی است که فقط مقادیر خاصی برای «ARL_0» مجاز است. > به طور خاص، «ARL_0» باید یکی از مقادیر زیر را داشته باشد: 370، 500، > 600، 700، ...، 1000، 2000، 3000، ...، 10000، 20000، ...، 50000 | چگونه می توان تعیین کرد که چه ARL0 باید در بسته CPM برای آزمایش تغییرات ساختاری استفاده شود |
72794 | من میخواهم احتمال مشترک $\Phi_A$ و $\Phi_B$ را بیان کنم: $p(\Phi_A, \Phi_B)$ به شرطی که $\Phi_A$ و $\Phi_B$ هر دو بزرگتر از مقدار C باشند. این را به صورت ریاضی بیان کنید؟ حدس میزنم شهود من میگوید: $p(\Phi_A, \Phi_B | \bf{\Phi} >C)$ آیا این درست است؟ آیا راه بهتری برای بیان این موضوع وجود دارد؟ | نحوه بیان احتمال مشروط مشترک با چندین شرایط |
93617 | من تازه وارد سایت و آمار بیزی هستم و امیدوار بودم کمکی بگیرم. من در حال حاضر روی چند تمرین مطالعه کار می کنم و باید میانگین و واریانس چگالی خلفی را در R محاسبه کنم. چگالی قبلی با یک منحنی نرمال با میانگین 6 و واریانس 0.25 نشان داده می شود، در حالی که میانگین مشاهده شده از نمونه (از چگالی نرمال) 24 = 7.69 با واریانس 2.0 است. اکثر قرائتها و مطالعههایی که انجام دادهام مربوط به تخمینهای احتمال است - هیچچیز مشخصاً به تمرینهایی که در حال حاضر سعی در انجام آنها دارم مربوط نمیشود. هر گونه کمک یا مشاوره یا اطلاعات بسیار قدردانی خواهد شد. با تشکر | چگالی خلفی در R |
72025 | سکهای که با احتمال $p$ بالا میآید، $n$ بار متوالی ورق میخورد. احتمال اینکه از اولین تلنگر شروع شود، همیشه تعداد سرهای بیشتری از دم ظاهر شده است چقدر است؟ من نکاتی را دیده ام که نشان می دهد این مشکل رای پنهان برتراند است. این تلاش من است: اجازه دهید $X$ تعداد سرها در $n$ پرتاب با یک سکه به احتمال $p$ باشد. اجازه دهید $Y$ تعداد دنباله ها باشد. اجازه دهید $s=\text{floor}(n/2)+1$ $\begin{align*}P(\text{Always more heads}) &= \sum_{k=0}^n P(\text{ همیشه بیشتر سر}|X=k)P(X=k)\\ &= \sum_{k=s}^n P(\text{همیشه بیشتر heads}|X=k)P(X=k)\\ &= \sum_{k=s}^n \dfrac{k-(n-k)}{k+n-k}{n \انتخاب k}p^k( 1-p)^{n-k}\\ &= \sum_{k=s}^n \dfrac{2k-n}{n}{n \choose k}p^k(1-p)^{n-k} \end{align*}$ این برای من هم خیلی ساده به نظر نمی رسد. آیا راه بهتری برای این کار وجود دارد؟ با تشکر | احتمال همیشه بیشتر از دم سر |
114104 | تفاوت بین متاآنالیز کلاسیک (که اندازه اثر را از نمونه مطالعات به اندازه اثر خلاصه میکند)، تحلیل متارگرسیون و تحلیل تعدیلکننده چیست؟ همانطور که فهمیدم از تحلیل تعدیل کننده برای توضیح ناهمگونی در یک متاآنالیز با رگرسیون بردار حاوی اندازه اثر هر مطالعه بر روی متغیرهای خاصی استفاده می شود که می تواند ناهمگونی را توضیح دهد (به عنوان مثال سال انتشار،...). اما تفاوت بین تحلیل تعدیل کننده و متارگرسیون چیست؟ با تشکر از کمک شما! | تفاوت بین متاآنالیز، متارگرسیون و تعدیل کننده |
35618 | من سعی می کنم در یک سری زمانی با پنجره 512 و افق 2 پیش بینی کنم. می خواهم بدانم آیا ارزش استفاده از ARIMA را دارد که به نظر می رسد درک آن به جای مدل ساده Autoregressive دشوار است؟ | چه چیزی برای پیشبینی سریهای زمانی بهتر است: AR یا ARIMA؟ |
93610 | من یک متغیر وابسته «C» و یک متغیر مستقل «VPT» دارم. VPT حجم متوسط هر درخت (بر حسب فوت مکعب) یک پایه چوبی است. «C» هزینههای ناشی از تابع هزینه است که هزینههای برداشت را به ازای هر فوت مکعب (به دلار) محاسبه میکند. نمودار بین این دو به این شکل است:  تغییر ناگهانی در حدود 28 فوت مکعب ناشی از تعامل در تابع هزینه است. من می خواهم یک مدل رگرسیون برای این دو ایجاد کنم. بر اساس نمودار من فرض می کنم که باید چیزی شبیه به این باشد: fit <- lm(C ~ I(VPT^(-1))) آیا راهی برای تعیین بهترین تناسب وجود دارد؟ آیا فقط باید تلاش کنم تا زمانی که چیزی مناسب به دست بیاورم یا راه کارآمدتری وجود دارد؟ * * * تابع هزینه دارای چهار پارامتر است: * حجم در هر درخت (VPT) * درختان در هر هکتار (TPA) * فاصله لغزش (SD) * شیب (S) در نهایت من می خواهم یک رگرسیون ایجاد کنم که نشان دهنده تابع هزینه باشد. چیزی شبیه این: مناسب <- lm(C ~ ß1xS + ß2xSD + ß3xTPA + ß4xVPT + ß5) | چگونه می توان رگرسیون را از یک طرح بدست آورد؟ |
50593 | من دانش بسیار ابتدایی از آمار دارم، بنابراین ممکن است سوال من بسیار ساده به نظر برسد. من یک سری زمانی بزرگ از داده های اندازه گیری شده دارم و یک مدل با پنج پارامتر را برای پیش بینی کالیبره کرده ام. من می خواهم حساسیت مدل خود را آزمایش کنم اما مطمئن نیستم از چه روش آماری استفاده کنم. من در مورد تجزیه و تحلیل حساسیت مطالعه کرده ام، اما خروجی مدل من یک سری زمانی با نوسانات است و یک تحلیل حساسیت ساده مناسب به نظر نمی رسد زیرا به نقاط خروجی منفرد نگاه می کند و نه کل سری. آیا توصیه ای در مورد روش ها یا رویکردها دارید؟ | تجزیه و تحلیل حساسیت برای سری های زمانی مدل شده |
72797 | اگر بتوانید هر گونه بینش/راهنمایی را که ممکن است مجبور به اشتراک گذاری باشید مرور و به اشتراک بگذارید، صمیمانه از آن متشکر می شوم!!!!! **مجموعه داده** شناسه سرور---------شناسه تعمیر---------نوع تعمیر----------تاریخ تعمیر * هر سرور می تواند نوع مشابهی داشته باشد تعمیر چندین بار در طول عمر خود * شناسه سرور یک سرور را شناسایی می کند * نوع تعمیر مدل قطعه در حال تعمیر را تعیین می کند (مدل دیسک / مدل رم) * حدود 600000 سرور با داده های تعمیر بیش از 3 میلیون وجود دارد. رکوردهای بیش از 3 سال **هدف** * انواع تعمیراتی را که ممکن است باعث تعمیرات مکرر متعاقب آن شوند را تعیین کنید **محدودیت** من احساس می کنم هیچ راه مشخصی برای ایجاد علیت وجود ندارد - از این رو به کسب و کار اطلاع دهید - اما احساس می کنم باید وجود داشته باشد روشی برای تعیین انواع خرابی که با فرکانس بالاتری از خرابی دنبال می شود **رویکرد فعلی من** 1) برای هر نوع خرابی برای هر سرور، R = X / Y را تعیین کنید که در آن X است ( تعداد خرابی ها بعد از خرابی مورد نظر تا آخرین خرابی تعداد روز از شروع سرور تا آخرین خرابی ) پیش فرض به 0 برای عدم خرابی 2) فقط اولین مقدار R را برای هر نوع خرابی در هر سرور حفظ کنید 3) میانگین را تعیین کنید و واریانس برای مقادیر R هر نوع خرابی 4) مرتب سازی بر اساس میانگین کاهش، واریانس صعودی و فیلتر N نوع خرابی اول **راهنمای شما: ???** | تجزیه و تحلیل خرابی در سرور |
114102 | من به تازگی مطالعه Bouchard's Minnesota Twins را مطالعه کرده ام که شباهت های شگفت انگیزی را در زندگی برخی از دوقلوهای همسان که از همدیگر پرورش یافته اند، نشان می دهد. هر دو شغل مشابهی داشتند، زنان متاهل و مطلقه به یک نام، سگها و بچههای یکسان و غیره. من فقط می خواستم بدانم که آیا مطالعات آماری وجود داشته است که عناصر یکسان را در زندگی گروه های مقطعی دو نفر تصادفی مقایسه کند؟ | احتمال شباهت های زندگی در یک مقطع جمعیتی |
35617 | بنابراین می گوییم که من ارزش پیش بینی کننده یک پیش بینی کننده را نسبت به DV در یک مجموعه داده نظرسنجی، بین دو نقطه زمانی آزمایش می کنم. همچنین بگویید که من اندازهگیریهای هر دو متغیر را در همه زمانها دارم و میتوانم ببینم که DV و پیشبینیکننده در ابتدا با هم ارتباط دارند. اگر من از رگرسیون خطی یا همبستگی پیرسون برای ارزیابی ارتباط بین پیش بینی کننده در خط مبنا و DV در نقطه زمانی بعدی استفاده کنم، آیا باید همبستگی را در خط مبنا تصحیح کنم؟ تصور میکنم که اگر تصحیح نکنم، برای این همبستگی اولیه، نه تنها پیشبینی DV را آزمایش میکنم، بلکه قابلیت اطمینان مجدد آزمون-آزمون پیشبینیکننده را نیز آزمایش میکنم. امیدوارم منطقی باشم | چگونه برای تصحیح همبستگی در پایه بین پیش بینی و DV؟ |
50592 | من یک مشکل تکلیف در مورد یافتن یک مرز تصمیم بهینه دارم. من فرمول (نه واقعاً فرآیند) را برای محاسبه یک می دانم، بنابراین ممکن است کاملاً سؤال دیگری باشد، اما می دانم که به میانگین، کوواریانس و پیشین نیاز دارم. سوال در زیر نشان داده شده است. فرض کنید نقاط R^2 از دو کلاس C1 و C2 به دست می آیند، که هر دو به خوبی توسط گاوسیان دو متغیره با میانگین (0,0) و (1,3) و کوواریانس I و 2I به خوبی توصیف شده اند. به ترتیب. I ماتریس هویت (2x2) است. اگر مقدمات C1 و C2 به ترتیب 0.4 و 0.6 باشد، مرز تصمیم ایده آل (یعنی Bayes Optimal) چقدر است (معادله این مرز را بدست آورید)؟ وقتی میگوید کوواریانسهای I و 2I... من ماتریس هویت (2x2) است، متحیر میشوم. آیا راهی برای محاسبه مقدار عددی کوواریانس بر اساس این اطلاعات وجود دارد؟ اگر چنین است، چگونه؟ من هرگز نشنیده بودم که اینگونه بیان شود. | کوواریانس یک ماتریس هویت داده شده گاوسی دو متغیره |
50595 | من به دنبال پیشنهادهایی در مورد نحوه برخورد با نقاط زمانی ناهموار و داده های از دست رفته در یک طرح تک گروهی با اندازه گیری های مکرر هستم. **زمینه:** گروهی متشکل از 220 نفر تحت درمان 4 ماهه کاهش وزن قرار گرفتند و به آنها ترازوهای بی سیم داده شد تا روزانه در خانه وزن خود را انجام دهند. نتیجه اولیه تغییر وزن از قبل به بعد از درمان است (که معمولاً برای آن از آزمون تی زوجی استفاده میکنم). **چگونه می توان وزن بعد از درمان را تعیین کرد؟** ما برای همه وزن های قبل از درمان داریم، اما تعیین وزن بعد از درمان سخت است زیرا همه افراد پس از درمان همزمان وزن نکرده اند (و برخی به طور کلی ترک تحصیل نکرده اند. ). **رویکرد الف: ایجاد پنجره زمانی برای تعیین وزن پس از درمان. ** من سعی کرده ام پنجره های زمانی دلخواه ایجاد کنم (1، 2، 4 یا 6 هفته در حدود تاریخ پایان درمان)، و سپس وزن متوسط را تعیین کنم. برای تعیین وزن پس از درمان. من پیدا کردم (همه p < 0.01): پنجره 1 هفته: $n = 124$، $9.55$% کاهش وزن پنجره 2 هفته: $n = 143$، $7.52$% کاهش وزن پنجره 4 هفته: $ n = 161$، -6.39$% کاهش وزن پنجره 6 هفته ای: $n = 168$، -6.30$% کاهش وزن با این حال، این مشکل ساز است زیرا ترک تحصیل را حذف می کند. علاوه بر این، هر چه پنجره بزرگتر باشد، n بزرگتر است، اما اندازه اثر کوچکتر است (زیرا آزمودنی هایی که به طور منظم وزن نمی کردند نیز کمترین وزن را از دست دادند) و وزن از نظر اندازه گیری همزمان بین آزمودنی ها اعتبار کمتری دارد. . **رویکرد B: قصد درمان با آخرین مشاهده انجام شده به جلو.** فقط با استفاده از آخرین مشاهده از همه افراد، حداکثر تا 2 هفته پس از درمان: $n = 220$، -4.22$% کاهش وزن با این حال ، این مشکل ساز است زیرا انصراف ها اندازه اثر را کاهش می دهند (اگرچه بزرگترین n را حفظ می کند). **رویکرد C: مدل های مختلط؟** خوانده ام که مدل های مختلط می توانند نقاط زمانی ناهموار و داده های از دست رفته را کنترل کنند، اگرچه من با این روش بسیار آشنا نیستم و مطمئن نیستم که اثرات ثابت و تصادفی در اینجا چیست. . تلاش من برای اجرای آن در SPSS 21 باعث خطای حافظه ناکافی شد. **رویکرد د: چیز دیگری؟ (تلفیق چندگانه/رگرسیون/ANCOVA و غیره)** | چگونه وزن پس از درمان را با نقاط زمانی ناهموار تعیین کنیم؟ |
93616 | من میخواهم سریهای زمانی مربوط به فروش محصولات را خوشهبندی کنم. در پایگاه داده من 26 هفته پس از راه اندازی هر محصول و واحد فروخته شده هر هفته دارم. یکی از روشهای خوشهبندی، خوشهبندی پارامترهای منحنی رشد متناسب با سریهای زمانی است. آیا کسی می تواند به من بگوید قبل از تطبیق منحنی لجستیک به سری های زمانی چه کاری باید انجام دهم؟ آیا باید از استانداردسازی استفاده کنم، برای هر سری زمانی مدل ایجاد کنم، از lsm برای شمارش پارامترها و سپس خوشه بندی آنها استفاده کنم؟ برای هر توضیحی ممنون میشم | قبل از برازش منحنی لجستیک به سری های زمانی کدام مراحل باید انجام شود؟ |
50598 | چگونه خروجی زیر را از R برای مدل ANOVA اندازه گیری های مکرر دو طرفه تفسیر کنم <- aov(value ~ BWRatio * NumGraBoolean + Error(participant/(BWRatio * NumGraBoolean)))  به طور خاص، همه این اصطلاحات خطا به چه معنا هستند و چه p-value نشان می دهد؟ لطفاً عدم درک من از اندازه گیری های مکرر و ANOVA به طور کلی معذرت خواهی کنید، اما باقی مانده ها در اینجا نیز نشان دهنده چیست؟ | نحوه تفسیر خروجی R برای ANOVA اندازه گیری های مکرر دو طرفه |
22310 | من سعی می کنم این سناریو را شبیه سازی کنم: 10 الگوریتم مختلف تعدادی از مسائل را حل می کنند. همه 10 مورد روی هر نمونه مشکل اجرا می شوند، به این معنی که اگر یک نمونه مشکل خاص سخت باشد، انتظار دارم همه الگوریتم ها عملکرد بسیار بدی داشته باشند و بالعکس. اکنون برای شبیه سازی این، 10 توزیع نرمال مختلف ایجاد کردم که از آنها اعداد تصادفی می کشم. این اعداد عملکرد الگوریتم ها را برای برخی از نمونه های مشکل نشان می دهند. با این حال، از آنجایی که توزیعها مستقل هستند، من تأثیر نمونه مسئله را بر روی اعداد ترسیم شده نمیبینم. آیا ایده ای دارید که چگونه می توانم این کار را انجام دهم (یعنی اعداد تصادفی ترسیم شده را به هم مرتبط کنم)؟ با احترام | تولید اعداد همبسته از توزیع های مستقل |
35616 | من می خواهم یک آیتم ترکیبی از متغیرها با مقیاس زیر ایجاد کنم: کاملاً مخالف، مخالف، نه موافق یا مخالف، موافق، کاملاً موافق و نمی دانم. من قصد داشتم مقیاس را به صورت 1=کاملا مخالف، 5=کاملا موافقم کدنویسی کنم و آیتم ترکیبی را با این مقادیر محاسبه کنم. با این حال، نمیدانم چگونه پاسخهای «نمیدانم» را کدنویسی کنم (که حدود ۲٪ از کل پاسخها در نمونه کلی برای همه متغیرها هستند). پیشنهادی در مورد نحوه انجام این کار دارید یا باید آنها را به عنوان داده های گم شده در نظر بگیرم و آنها را در مورد ترکیبی خود لحاظ نکنم؟ | چگونه با پاسخ های «نمی دانم» برای مقیاس لیکرت ترکیبی برخورد می کنید؟ |
114103 | من دو مجموعه داده برای مقایسه دارم. هر کدام فهرستی از مبالغ صورتحساب بر اساس کدهای تشخیصی است. داده ها از این جهت متفاوت است که کدهای تشخیص ممکن است برای برخی از مبالغ صورتحساب متفاوت باشد. تقریباً 32 کد تشخیص مختلف وجود دارد که استفاده شده است. چه نوع تحلیل آماری برای مقایسه این دو مجموعه داده مناسبتر است و چرا؟ به من گفتند یک آنووا دو طرفه را تکمیل کنم. آیا این درست است؟ | چه نوع تحلیلی |
22317 | در اوقات فراغت، من روی یک سیستم کوچک مبتنی بر وب کار میکنم که گزارشهای خرابی (اما نه سایر گزارشهای باگ بدون خرابی) را که از برنامههای Windows Delphi ارسال میشوند، جمعآوری میکند. برای عیبیابی، کاربران دوست دارند یک ویژگی داده کاوی برای یافتن روابط بین نسخههای سختافزار یا سیستم عامل و باگ و/یا خرابی خاص داشته باشند. به عنوان مثال چگونه این کار باید کار کند: * برای هر خرابی گزارشی در پایگاه داده وجود دارد که دارای اثر انگشت / کد هش از ردیابی پشته (پشته تماس) در لحظه خرابی برای شناسایی موارد تکراری است * الگوریتم بررسی می کند که آیا همه موارد وجود دارد. نسخه های تکراری یک گزارش اشکال دارای برخی ویژگی های مشترک دیگر نیز هستند، به عنوان مثال یک سرویس بسته از دست رفته سیستم عامل * نتایج تجزیه و تحلیل تمام ویژگی هایی را که گزارش های اشکال مشترک دارند فهرست می کند. فرض کنید این گزارشهای باگ خودکار شامل تمام اطلاعات کلیدی مانند نام تمام فرآیندهایی که در حال حاضر در حال اجرا هستند، نام فایلها، اطلاعات نسخههای DLL بارگذاریشده و غیره هستند. چگونه میتوانم ارتباط بین خرابیهای مکرر و محیط را پیدا کنم؟ آیا الگوریتم ها یا روش های آماری خاصی وجود دارد که کمک کند؟ | چگونه می توانم ارتباط بین خرابی ها و محیط های سیستم را پیدا کنم؟ |
51429 | اجازه دهید $X_i, i \geq 1,$ متغیرهای تصادفی یکنواخت مستقل (0, 1) باشند و $N$ را با $$N=\min\{n:X_n <X_{n-1}\}$$ تعریف کنید. من باید ثابت کنم که $$P\{N \geq k | X_0=x\} = \frac{(1-x)^{k-1}}{(k-1)!}$$. هنگام یافتن مقادیری مانند $P(X_i \geq X_{i-1} | X_{j} \geq X_{j-1}، \forall j\lt i)$ گیر کردهام. من هم این را در بورس ریاضی ارسال کرده ام، اما با پاسخی که در آنجا ارسال شده قانع نشده ام. سوال دیگر این است که چگونه می توان $E[N]$ را با استفاده از شرطی سازی در $X_1$ محاسبه کرد. | توزیع برای اولین بار زمانی که مقدار کمتر از مقدار قبلی است |
61734 | از آزمونهای جایگشت میتوان برای آزمایش احتمال به دست آوردن یک مقدار میانگین منفرد (متشکل از میانگین k-برابر CV) دقت طبقهبندیکننده به طور تصادفی استفاده کرد، مانند یک طبقهبندی خطی با استفاده از دو کلاس. توزیع برچسب جایگشت شده با تصادفی کردن رابطه بین برچسب ها و نمونه ها، یک توزیع صفر تجربی ایجاد می کند. مقدار دقیق p با اندازهگیری تعداد مقادیری از توزیع صفر برابر یا بالاتر از دقت برچسبگذاری شده درست به دست میآید. سوال من این است که چه مقداری باید در حالت ایده آل به عنوان دقت با برچسب درست استفاده شود؟ برای بخش بعدی، مراجعه به این طرح گویا مفید است.  به عنوان مثال، توزیع تهی یک اسپرد حول یک مقدار میانگین است زیرا برچسبگذاری تصادفی شرایط مختلف پاسخهای کمی متفاوت را در اطراف ایجاد میکند. شانس در هر تکرار از روش طبقه بندی (توزیع قرمز در نمودار). یک تکرار، دقت میانگین بر اعتبار متقاطع k برابری است. با این حال، «دقت برچسبگذاری شده به درستی» نیز میتواند در حدود یک میانگین متفاوت باشد، صرفاً به این دلیل که در طول اعتبارسنجی متقاطع k-fold، نمونههای مختلف به تقسیمهای k-fold مختلف اختصاص داده میشوند، که در نتیجه گاهی اوقات خوب، گاهی اوقات در مقادیر بهتر یا بدتر (توزیع سبز در طرح). این بدان معنی است که در این «توزیع با برچسب درست» مقادیری خواهید داشت که بسیار خوب هستند، اما بسیار بعید هستند (در فاصله اطمینان بالای 97.5، مقدار P را در سمت راست ببینید). با این حال، اغلب، مطالعات به جای میانگین توزیعی که 10000 بار تکرار شده است، تنها یک دقت واحد را گزارش میکنند (گاهی اوقات به آن میانگین بوت استرپ و فواصل اطمینان میگویند). بنابراین در نمودار مثال، میتوان میانگین 56% و در 97.5 بالای 59% صحیح را داشت، اما مشخص نیست که در این توزیع «مقدار گزارششده» از کجا سرچشمه میگیرد. به طور خلاصه: سؤال 1: اگر از آزمون جایگشت برای ارزیابی اهمیت دقت طبقهبندیکننده استفاده شود، آیا باید شرایط برچسبگذاریشده به درستی نیز N- بار تکرار شود تا توزیعی با برچسب درست ایجاد شود؟ سوال 2: در توزیعی که به درستی برچسب گذاری شده است، مقدار مقایسه باید از کجا نشات بگیرد؟ | تست جایگشت صفر و توزیع برچسب صحیح |
114100 | آیا بسته هایی وجود دارد که الگوریتم خوشه بندی Autoclass/Nive Bayes را در R یا Python پیاده سازی کند؟ روش دیگر، چه الگوریتم های خوشه بندی دیگری هستند که می توانند متغیرهای دسته بندی و عددی را که در R یا Python پیاده سازی می شوند، مدیریت کنند؟ | اتوکلاس در R/Python؟ |
111478 | من از نرم افزار یادگیری ماشینی WEKA برای داده کاوی روی داده های بیولوژیکی استفاده می کنم. من مجموعه دادهام را نامتعادل توصیف میکنم: شامل حدود 2000 نمونه است که به کلاسهای 900، 500، 350، 160 تقسیم میشود که وجود آنها در مجموعه داده بسیار مهم است و برخی از کلاسهای کوچکتر کماهمیت که داشتن آنها خوب است اما میتوان از آنها حذف کرد. مجموعه داده ها در صورتی که یادگیری را تا حد زیادی گیج کنند. در حال حاضر من در حال مقایسه بسیاری از طبقه بندی های مختلف هستم. من آماردان خیلی با تجربه ای نیستم، اما خواندم که منحنی های ROC معمولاً برای ارزیابی عملکرد طبقه بندی کننده های یادگیری ماشین استفاده می شوند. با این حال، من همچنین خواندم که ROC در مورد مجموعه داده های نامتعادل دارای اشکالاتی است. آیا معیار بهتری در میان ویژگیهای خروجی «WEKA» (یا میتوان از روی آنها محاسبه کرد) برای مجموعه داده من وجود دارد؟ خروجی اینگونه به نظر می رسد (در اینجا با مجموعه داده عنبیه): === اعتبار سنجی متقاطع طبقه بندی شده === نمونه هایی که به درستی طبقه بندی شده اند 144 96 % موارد طبقه بندی نادرست 6 4 % آمار کاپا 0.94 میانگین خطای مطلق 0.035 ریشه میانگین مربعات مطلق خطا 1860 Re. خطای 7.8705 % ریشه خطای مربع نسبی 33.6353 % تعداد کل نمونه ها 150 === دقت تفصیلی براساس کلاس === TP Rate نرخ FP دقت فراخوانی F-Measure ROC Area Class 0.98 0 1 0.98 0.99 0.99 Iris-Setosa 0.99 Iris-Setosa. 0.94 0.952 Iris-versicolor 0.96 0.03 0.941 0.96 0.95 0.961 Iris-virginica Weighted Ag. 0.96 0.02 0.96 0.96 0.96 0.968 === ماتریس سردرگمی === a b c <-- طبقه بندی شده به عنوان 49 1 0 | a = Iris-setosa 0 47 3 | b = Iris-versicolor 0 2 48 | c = Iris-virginica | مجموعه داده نامتعادل - منحنی ROC برای مقایسه طبقه بندی کننده ها؟ |
51425 | برای کلاس رگرسیون خطی من باید نوعی آزمایش ساده ارائه کنیم (باید داده ها را جمع آوری کنیم، نمی توانیم آن را به صورت آنلاین دریافت کنیم) که برای آن بتوانیم از روش هایی که در کلاس مطالعه کرده ایم استفاده کنیم (رگرسیون خطی ساده، رگرسیون خطی چندگانه). , ANOVA, ...) برای تجزیه و تحلیل داده ها. من سخت ترین زمان را برای رسیدن به چیزی دارم. کسی پیشنهاد خوبی داره؟ سال گذشته شخصی کار احمقانه ای انجام داد، مانند مقایسه سرعت پایین آمدن خردل از شیب نسبت به سس کچاپ. ویرایش: با تشکر از همه ایدههای مفید بچهها :) من در نهایت به انجام آزمایشهای فیزیکی روی خودم روی یک دوچرخه ثابت (حداکثر سرعت/توان خروجی در نسبتهای مختلف دنده) رسیدم. احتمالاً بزرگترین آزمایش نیست، اما از چیزی استفاده می کند که من از آن لذت می برم. | یک آزمایش ساده برای رگرسیون خطی ارائه دهید |
32969 | من مجموعه ای بسیار پراکنده از اندازه گیری های یک کمیت دارم، حدود 10 اندازه گیری در مکان های مختلف در سراسر یک قاره. توزیع مکان ها بسیار نامنظم است. من مایلم اینها را در یک شبکه با فاصله منظم در سراسر قاره به مقادیر هموار کنم. ما در واقع مجموعه بسیار متراکمتری از مشاهدات یک کمیت مرتبط داریم و تکنیکهایی برای ایجاد نقشهای از کمیت اول با استفاده از هر دو مجموعه اندازهگیری در حال توسعه است. هدف این است که دقت این رویکرد ترکیبی را با استفاده از اعتبارسنجی متقاطع کنار گذاشتن (آزمایش هر یک از 10 سایت که به نوبه خود نقشه را با استفاده از بقیه به اضافه اندازهگیریهای اضافی ایجاد کردهاند) تخمین بزنیم. به عنوان پایه، ابتدا باید ببینم یک نقشه با استفاده از LOOCV که فقط از شبکه اصلی 10 ایستگاهی ایجاد شده است چقدر دقیق است. همچنین باید به این نکته اشاره کنم که این مقدار در مقیاس زمانی چند دقیقه تغییر می کند و ما می خواهیم یک نقشه در زمان واقعی تولید کنیم. من در تکنیک های مکانی متخصص نیستم، با این حال اصول Kriging را درک می کنم و پس از بررسی نمای وظیفه CRAN، به نظر می رسد autoKrige در بسته automap عملکرد مناسبی برای استفاده باشد. نتایجی که به دست میآورم هیچ شباهتی به آنچه انتظار داشتم نیست، بنابراین هر کمکی قابل قدردانی است. در اینجا نمونه ای از یک مجموعه داده آموزشی ورودی (همه داده های موجود برای یک زمان خاص) آمده است: مقدار lat lon -27.53 152.92 98 -35.32 149.00 79 -34.05 150.67 81 -12.45 130.95 92 -42.92 -42.92 -42.92 114.08 91 -29.03 167.97 108 -31.94 115.95 89 همانطور که می بینید، کمیت هدف دارای محدوده ای از مقادیر در یک ناحیه با فاصله وسیع است. من با انجام مختصات (xtrain) = ~lon + lat مختصات (xtest) = ~lon + lat proj4string(xtrain) <-CRS() proj4string(xtest) از یک قاب داده حاوی lat، lon و مقدار به یک spatialPointsDataFrame تبدیل می کنم. ) <-CRS() که در آن xtest شامل شبکه نقاطی است که می خواهم از نقشه نمونه برداری کنم. سپس با استفاده از نتیجه <- autoKrige(value~1,xtrain,xtest) این را کریگ میکنم و نمودار نتایج (نتیجه) را رسم میکنم و تصویر زیر را دریافت میکنم همانطور که می بینید، نتیجه اساساً مقدار میانگین در همه نقاط است. درک من این است که autoKrige باید بهترین مقادیر پارامترهای Kriging را تعیین می کرد و چیزی واقعی تر از این تولید می کرد. فقط برای نشان دادن، محدوده مقادیر پیش بینی شده در شبکه 0.22 است که به وضوح بسیار کمتر از پراکندگی 30 نقطه ای است که در مقادیر ورودی مشاهده می شود. پس کجا دارم اشتباه می کنم؟ آیا من از بسته R سوء استفاده می کنم یا مشکل من در روشی که سعی در به کارگیری Kriging دارم اساسی تر است؟ | استفاده از کریجینگ با داده های بسیار کم |
61732 | حتی اگر آمار $F$ در یک آزمون ANOVA قابل توجه باشد، ممکن است قبل از نتیجه گیری نیاز به آزمایش بیشتری داشته باشیم. متداول ترین روش برای انجام این کار، استفاده از روش مقایسه چندگانه است. من سعی می کنم بفهمم که چرا روش توکی در آزمون دو نمونه ای $t$-تست استفاده می شود. من موارد زیر را خواندم که نشان میدهد انجام همه تستهای زوجی (احتمالاً به معنای تستهای $t$-نمونهای است) میتواند منجر به مثبت کاذب شود (خطاهای نوع I). چرا باید از نظر مفهومی این اتفاق بیفتد؟ > رویه Tukey به ما اجازه میدهد تا آزمایشهای جداگانهای انجام دهیم تا تصمیم بگیریم که آیا > $\mu_i = \mu_j$ برای هر جفت میانگین در یک مطالعه ANOVA از جمعیت $k$ > به معنی است یا خیر. مانند همه روشهای مقایسه چندگانه، روش توکی مبتنی بر > انتخاب یک سطح اهمیت «خانوادگی»، $\alpha$ است که برای کل مجموعه آزمونهای فرضیه زوجی اعمال میشود. به عنوان مثال، هنگام استفاده از روش > Tukey با سطح معنی داری مثلاً 5 درصد، مطمئن می شویم که > در میان کل > مجموعه تست های زوجی، حداکثر شانس 5 درصد برای به دست آوردن مثبت کاذب وجود دارد، یعنی: حداکثر 5% احتمال اشتباه وجود دارد که به این نتیجه برسیم که دو میانگین جمعیت زمانی متفاوت هستند که در واقع با هم برابر باشند. > این بسیار متفاوت از انجام تمام تستهای زوجی بهعنوان تستهای انفرادی، هر کدام در $\alpha=0.05$ است، که میتواند منجر به احتمال بالای > یافتن مثبت کاذب در بین تستهای زوجی شود. | دو نمونه $t$-test در مقابل روش Tukey |
114105 | من از الگو برای طبقه بندی باینری خود در MATLAB و از اعتبار سنجی متقاطع 10 برابری استفاده می کنم. من چندین بار شبکه عصبی خود را در یک حلقه تکرار می کنم تا نتایج را ببینم. وقتی پنجره آموزش شبکه عصبی را در «متلب» بعد از 15 تا 40 بار تکرار می بینم، شبکه های عصبی به دلیل معیارهای توقف زودهنگام متوقف می شوند (حداکثر 6 تکرار مقدار پیش فرض توقف اولیه در «متلب» است). نظر شما در مورد این رفتار چیست؟ آیا این طبیعی است یا باید چیزی را برای بهبود آن تغییر دهم؟ فکر می کنم در این شرایط آموزش نمی تواند شبکه را به درستی آموزش دهد، آیا این درست است؟ (در تمام ساختارها (ورودی ها، شماره نورون های شبکه عصبی، لایه ها و غیره) من این شرایط را دارم) با تشکر. | تمام طراحی های شبکه های عصبی به دلیل توقف زودهنگام در متلب متوقف می شوند |
51428 | من فکر کردم که میتوانم با انتخاب متغیر بیزی، به دنبال یک پست وبلاگ زیبا و مقالات مرتبط با آن، بازی کنم. من یک برنامه در jags نوشتم (جایی که کاملاً تازه کار هستم) و داده های قیمت را برای Exxon Mobil به همراه برخی چیزهایی که بعید به نظر می رسد بازده آن را توضیح دهد (مثلاً قیمت پالادیوم) و چیزهای دیگری که باید بسیار مرتبط باشند (مانند SP500) واکشی کردم. ). با اجرای «lm()»، میبینیم که شواهد قوی مبنی بر یک مدل بیشپارامتریشده وجود دارد، اما آن پالادیوم قطعاً باید حذف شود: فراخوانی: lm(فرمول = Exxon ~ 0 + SP + پالادیوم + Russell + OilETF + EnergyStks، داده = chkr) باقیمانده ها: Min 1Q Median 3Q Max -1.663e-03 -4.419e-04 3.099e-05 3.991e-04 1.677e-03 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) SP 0.51913 0.19772 2.626 0.010588 * Palladium 0.01620 0.03744 0.433 0.666469 Russell -0.34577 0.010586 0.099 -0.34574 0.099 -0.34574 OilETF -0.17327 0.08285 -2.091 0.040082 * EnergyStks 0.79219 0.11418 6.938 1.53e-09 *** پس از تبدیل به بازگشت، سعی کردم یک مدل ساده مانند این مدل را اجرا کنم { for (i in 1:) mean[i]<-inprod(X[i,],بتا) y[i]~dnorm(mean[i],tau) } برای (j در 1:p) {شاخص[j]~dbern(probindicator) betaifشامل [j]~dnorm(0,taubeta) بتا[j] <- نشانگر[j]*betaifincluded[j] } tau~dgamma(1,0.01) taubeta~dgamma(1,0.01) probindicator~dbeta(2,8) } اما متوجه شدم که تقریباً بدون توجه به پارامترهای توزیع گامای انتخابی، پاسخهای بسیار بیمعنی دریافت کردم، مانند یک احتمال 20 درصدی نامتغیر برای هر متغیر. من همچنین ضرایب رگرسیون کوچک و کوچکی دریافت کردم، که مایلم آنها را تحمل کنم زیرا این یک مدل انتخابی بود، اما هنوز هم عجیب به نظر می رسید. Mean SD Naive SE Time-series SE SP beta[1] -4.484e-03 0.10999 0.003478 0.007273 Palladium beta[2] 1.422e-02 0.16646 0.005261 [0.01] بتا[0.01] -2.406e-03 0.08440 0.002669 0.003236 OilETF beta[4] -4.539e-03 0.14706 0.004651 0.005430 EnergyStks beta[5] -1.30050.106e-1.300. اندیکاتور 0.002647 SP[1] 1.980e-01 0.39869 0.012608 0.014786 اندیکاتور پالادیوم[2] 1.960e-01 0.39717 0.012560 0.0148[0.0143550] راسل 0.38686 0.012234 0.013398 نشانگر OilETF[4] 1.930e-01 0.39485 0.012486 0.013229 شاخص EnergyStks[5] 2.070e-01 0.401201 pro 1.952e-01 0.11981 0.003789 0.005625 tau 3.845e+03 632.18562 19.991465 19.991465 taubeta 1.119e+02 14434343. 7.926577 آیا انتخاب متغیر بیزی واقعاً بد/حساس است؟ یا من یک خطای فاحش مرتکب می شوم؟ | انتخاب متغیر بیزی -- آیا واقعا کار می کند؟ |
104081 | برای $i=1، \ldots، K$ و $j=1، \ldots,n$، مدل زیر را در نظر بگیرید. \begin{align} X_{ij} \mid \mu_i, \sigma^2 & \stackrel{_\text{iid}}{\sim} N(\mu_i, \sigma^2) \nonumber \\ \mu_i & \stackrel{_\text{iid}}{\sim} N(\mu, \tau^2) \nonumber \\ \ln(\sigma^2) & \sim N(\mu_v, \tau_v^2) \end{align} ابتدا فرض کنید تمام پارامترهای قبلی شناخته شده هستند. از آنجایی که این شکل مزدوج نیست، آیا راهی برای تخمین $\pi(\mu_i \mid \mathbf{X_i})$ با استفاده از چگالی فرم بسته وجود دارد؟ خیلی ممنون. | مدل بیزی با میانگین مجهول و واریانس با لگ نرمال قبلی |
23955 | بگویید من آیتمهای $N$ دارم که پارتیشن بندی شده/خوشهبندی شدهاند و میخواهم این آیتمها را بهطور تصادفی دوباره پارتیشن بندی کنم، به گونهای که توزیع اندازههای خوشهها «مشابه» با اندازههایی باشد که قبلاً دارم. من به این نگاه میکنم (شاید بیفایده)، بهعنوان تلاش برای نمونهبرداری از اعداد طبیعی $k$، مانند $x_i \geq 1$ و $\sum_{i=1}^{k}x_i=N$. $N$ در این زمینه احتمالاً هزاران خواهد بود و توزیع اندازههای خوشه فعلی کاملاً منحرف خواهد بود، با تعداد کمی از خوشههای بزرگ و تعداد زیادی از خوشههای کوچک. من به توزیعهای ابرهندسی، دوجملهای، هندسی نگاه کردهام، اما به نظر میرسد هیچکدام از اینها کاملاً با آنچه من به دنبال آن هستم مطابقت ندارد - حدس میزنم که پیچیدهتر از یک توزیع ساده است و به نوعی فرآیند مارکوف مانند نیاز است. . کسی ایده ای دارد؟ | چگونه از اعداد طبیعی نمونه برداری کنیم، به طوری که مجموع آنها برابر با یک ثابت باشد؟ |
23954 | من می خواهم بتوانم زوایای همسایگان را در یک گله اسب آبی مقایسه کنم. من داده هایی برای مختصات x و y و زوایایی که رو به رو هستند (با استفاده از imageJ، زاویه بین 180- تا 180 است و 0 یک خط مستقیم افقی در وسط تصویر است). من تابع $g(r)$ را ترسیم کردهام تا ببینم آیا اسبهای آبی من «دوست دارند» خود را به سمت افرادی که در نزدیکی هستند هدایت کنند، اما دوست دارم بتوانم **تعداد تصویری جهتگیری آنها را در گله محاسبه کنم** با استفاده از R. هر گونه کمکی بسیار قدردانی خواهد شد، من هنوز سواد R ندارم! | چگونه می توانم طرحی تولید کنم که زوایای جهت نقاط من را نشان دهد؟ |
27793 | من اطلاعاتی در مورد افزایش نرخ مجاز توسط یک تنظیم کننده دولتی طی حدود 17 سال جمع آوری کرده ام. به عنوان پیشینه، شرکتهای خدمات شهری در این زمینه باید در صورت تمایل به افزایش نرخهای خود، در ازای اعطای شبه انحصار در بازار، به رگولاتور مراجعه کنند. در این دوره، 65 تصمیم قابل استفاده وجود دارد - تصمیماتی که مستندات کافی دارند. هر تصمیم در یک نرخ را می توان با چند بیت اطلاعات مشخص کرد: 1. شرکت آب و برق 2. صنعت شرکت برق (برق، فاضلاب، گاز طبیعی و غیره) 3. افزایش کل درآمد مورد نظر شرکت برق 4. کل افزایش درآمد اعطا شده توسط تنظیم کننده 5. درصد افزایش در درآمدهای مورد نظر شرکت آب و برق (به طور ضمنی، کل درآمد آنها) 6. درصد افزایش در درآمدهای اعطایی شده توسط تنظیم کننده 7. نرخ بازده شرکت در عملیات خود در وضعیت موجود 8. نرخ بازده پیش بینی شده پس از افزایش نرخ 65 تصمیم در طول دوره 17 ساله مورد بحث به طور مساوی تقسیم نشده اند. برای پیچیدهتر کردن موضوع، برخی از مشاهدات در یک تاریخ (چهار مشاهده در دو تاریخ) رخ میدهند. از نقطه نظر اکتشافی، من علاقه مند به تشخیص نقاط عطف در طول زمان در این داده ها هستم، به ویژه از نظر درصد افزایش درآمد مورد نظر که در نهایت توسط تنظیم کننده اعطا می شود (#2/#1، بالا)، نرخ بازده پیشبینیشده پس از افزایش درآمد و درصد افزایش درآمد اعطایی توسط تنظیمکننده. من همچنین علاقه مندم که (به دلیل عدم دانش در این زمینه) چه چیزی را نقاط شکست یا برش بنامم -- آیا راه هایی وجود دارد که بتوانم یک آزمون t- نمونه 2 را روی همه جفت نمونه هایی که هیچ همپوشانی زمانی ندارند اجرا کنم؟ (به عنوان مثال، نمونه 1 از زمان t0 تا tn، نمونه 2 از t(n+1) تا tf) از منظر سؤال تحقیق، من علاقه مندم که آیا ظاهر تصمیم گیری در این داده ها تحت تأثیر تغییر سیاست قرار گرفته است یا خیر. که در یک زمان مشخص رخ داده است، که (من فکر می کنم)، می توانم به عنوان یک متغیر طبقه بندی شده (0 = قبل از تغییر، 1 = بعد از تغییر) مدل کنم - و اگر چنین است، نشانه تاثیر چیست و آیا وجود دارد تاخیر آیا اقدامات احتیاطی وجود دارد که باید با توجه به ماهیت زمانبندی شده این دادهها از آنها آگاه باشم؟ من برخی از مطالب را در مورد تجزیه و تحلیل سری های زمانی بررسی کردم، اما در مورد اینکه با مشاهدات با فاصله نامنظم چه کنم، کمی سردرگم هستم. به عنوان نکته پایانی، حدس میزنم اضافه کنم که در R کار میکنم، اما در این زمینه انعطافپذیر هستم. | تجزیه و تحلیل نسبت ها یا کسر/ مخرج، با وزن، اندازه گیری شده در طول زمان در فواصل نامنظم |
74747 | اجازه دهید $X_{i}، i\ge 1$، i.i.d باشد. متغیرهای تصادفی تعریف شده در فضای احتمال $(\Omega, \mathcal F,P)$ به طوری که $P(X_{i}=1)=P(X_{i}=-1)=\frac{1}{2 }$. فیلتر $\mathcal F_{n}=\sigma(X_{1},\dots,X_{n})$ را در این فضا و پیاده روی تصادفی $R_{i}=\sum_{i=1}^{ در نظر بگیرید n} X_{i}$. نشان دهید که $R_{n}^{2}-n$ و $(-1)^{n} \cos(\pi R_{n}) $ $\mathcal F_{n}$-martingales هستند. | نشان دهید که $R_{n}^{2}-n$ و $(-1)^{n} \cos(\pi R_{n}) $ $\mathcal F_{n}$-martingales هستند |
61730 | کتاب های درسی مختلف شرایط متفاوتی را برای وجود ماتریس اطلاعات فیشر ذکر می کنند. چندین مورد از این قبیل در زیر فهرست شده است که هر کدام در برخی از تعاریف «ماتریس اطلاعات فیشر»، اما نه همه آنها، ظاهر می شوند. 1. آیا مجموعه ای استاندارد و حداقلی از شرایط وجود دارد؟ 2. از 5 شرط زیر، کدام یک را می توان برطرف کرد؟ 3. اگر می توان یکی از شروط را حذف کرد، چرا فکر می کنید در وهله اول گنجانده شده است؟ 4. اگر یکی از شروط را نمی توان رفع کرد، آیا به این معناست که آن دسته از کتب درسی که آن را مشخص نکرده اند، تعریفی اشتباه یا حداقل ناقص داده اند؟ > 1. _زاکس، نظریه استنتاج آماری (1971)، ص. 194._ > ماتریس $\mathcal{I}\left(\theta\right)$ برای همه > $\theta\in\Theta$ قطعی است. > 2. _شرویش، نظریه آمار (1997، تصحیح چاپ دوم)، تعریف > 2.78، ص. 111_ > مجموعه $C=\left\{x:f\left(x;\theta\right)>0\right\}$ برای همه یکسان است > $\theta$. > 3. _بوروفکوف، آمار ریاضی (1998). ص 147_ > $f\left(x;\theta\right)$ **به طور پیوسته** قابل تمایز w.r.t هستند. > $\theta_i$. > 4. _بوروفکوف، آمار ریاضی (1998). ص 147_ > $\mathcal{I}\left(\theta\right)$ پیوسته و معکوس است. > 5. _Gourieroux & Monfort, Statistics and Econometric Models, Vol I (1995). > تعریف (a)، صفحات 81-82_ > $\frac{\partial^2}{\partial\theta_i\partial\theta_j}f\left(x;\theta\right)$ > وجود > در مقایسه، اینجا لیست کامل شرایط در _Lehman & Cassella است. تئوری تخمین نقطه ای (1377). ص 124_: > 1. $\Theta$ یک بازه باز است (محدود، نامتناهی یا نیمه نامتناهی) > 2. مجموعه $C=\left\{x:f\left(x,\theta\right)>0 \right\}$ برای > همه $\theta\in\Theta$ یکسان است. > 3. $\frac{\partial f\left(x;\theta\right)}{\partial\theta_i}$ وجود دارد و > متناهی است. > و در اینجا لیست کامل شرایط در _Barra, Notions fondamentales de statistique mathematique (1971) آمده است. تعریف 1، ص. 35_ : > امتیاز برای همه $\theta\in\Theta$ تعریف شده است، هر یک از اجزای آن > مربع انتگرال پذیر است و $=0$ انتگرال دارد. جالب است بدانید که نه Lehman & Cassella و نه Barra شرط نمیکنند که $\int f\left(x;\theta\right)\space \mu\left(dx\right)$ تحت علامت انتگرال w.r.t قابل تمایز باشد. هر $\theta_i$، وضعیتی که در اکثر کتابهای درسی دیگری که مورد بررسی قرار گرفتم، وجود دارد. | شرایط وجود ماتریس اطلاعات فیشر |
78890 | من سه متغیر تصادفی وابسته $X_1$, $X_2$, $X_3$, ($X_i\in\left[0, 1\right]$) دارم که شرایط اضافی $\sum_i{X_i} = 1$ را برآورده میکنند. اگر توزیع های (حاشیه ای) $X_i$ ($i = 1، 2، 3$) داده شود، باید احتمال ترکیب خاصی از آن متغیرها را تعیین کنم. به طور رسمی تر، اگر $a_1, a_2, a_3\in \left[0, 1\right]$ طوری که $\sum_i{a_i} = 1$ و $\epsilon > 0$ باشد، میخواهم احتمال آن را بدانم: $ $ P((\forall i) |X_i - a_i| < \epsilon). $$ | توزیع سه متغیر تصادفی وابسته |
32349 | من توزیعی از بازدیدکنندگان یک وب سایت در روزهای دوشنبه تا یکشنبه به این صورت دارم: M T W Th F S Su 345 467 560 350 430 689 490 من می دانم که اگر فرضیه ای از توزیع داشته باشم که به آن مشکوک هستم مانند (M 20%, T 30% ، W 10٪، Th 5٪، F 5٪ S 20٪ Su 10٪ و غیره، می توانم از توزیع Chi Square استفاده کنم تا بفهمم آیا شک من درست است - همانطور که در این ویدئو، تست مربع چی پیرسون (خوب بودن تناسب)، در آکادمی خان توضیح داده شده است. سوال من این است که چگونه می توانم یک توزیع قابل قبول را با توجه به داده های مشاهده شده کشف کنم. فکر میکنم از آنجایی که من دنبال یک True یا False نیستم، بلکه مجموعهای از اعداد را دنبال میکنم، گمان میکنم که دنبال نوعی الگوریتم هستم که طیفی از درصدها را نشان میدهد که منطقهای را مشخص میکند که همگی در آزمون مجذور کای قابل قبول هستند. هر گونه اشاره تا حد زیادی قدردانی! | از چه آزمون (یا الگوریتم) برای موارد استفاده زیر استفاده کنم؟ |
52996 | من در حال انجام تحقیقاتی در مورد رابطه بین ترتیب تولد یک فرد و خطر چاقی بعدی با استفاده از داده های چند گروه تولد یک ساله هستم (به عنوان مثال http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2908417/). یک چالش کلیدی این است که ترتیب تولد به ویژگیهای دیگری مانند سن مادر، تعداد خواهر و برادر کوچکتر و/یا بزرگتر و فاصله تولد مرتبط است که ممکن است از طریق مکانیسمهای مختلف بر نتیجه تأثیر بگذارد. علاوه بر این، هر گونه تأثیری که این چیزها بر خطر چاقی بعدی داشته باشد ممکن است با ترکیب جنسیتی خواهر و برادر، از جمله کودک شاخص (شرکت کننده در گروه تولد) اصلاح شود. برای هر فرزند شاخص، می توان یک جدول زمانی ترسیم کرد که تمام تولدهای خانواده را با متغیر سن مادر در آن زمان نشان دهد.  من سعی می کنم روش هایی را برای تجزیه و تحلیل این نوع داده ها شناسایی کنم، جایی که ترتیب، زمان و ماهیت رویدادها ممکن است همه باشد. مهم است. من این سوال را در اینجا به دلیل تنوع برنامههایی که اعضا با آن کار میکنند میپرسم - انتظار دارم کسی پیشنهادهای فوری داشته باشد که شناسایی آنها به تنهایی زمان بیشتری را از من میبرد. هر گونه تلنگری در جهت (های) درست بسیار قدردانی خواهد شد. سؤال(های) مرتبط: چگونه باید داده های فواصل تولد زنان را تجزیه و تحلیل کنم؟ | تحلیل خط زمانی |
27798 | چگونه می توانم از توزیعی که حاصلضرب توزیع گاوسی و یک توزیع وارونه است نمونه برداری کنم؟ من میخواستم از نمونهبرداری تبدیل معکوس استفاده کنم، اما یکی از دوستان گفت که فکر میکند راه بسیار سادهتری برای انجام آن وجود دارد، یک ترفند زیرا وارونه-ویشارت مزدوج قبلی گاوسی است. کسی میدونه راه ساده ای برای این کار هست یا نه؟ خیلی ممنون | چگونه از حاصلضرب توزیع گاوسی و معکوس ویشارت نمونه برداری کنیم؟ |
74742 | من به دنبال اجرای **نقشه خودسازماندهی** هستم که برای بخش خوشه بندی **به جای k-means** از خوشه بندی طیفی استفاده می کند. کسی چیزی در موردش میدونه؟ | نقشه خود سازماندهی با خوشه بندی طیفی |
27246 | داده a; input treat$ rep boreria mimiosa asysta axono seleria paspa macran melas scopo cleom otto; کارت؛ M 1 0.20 0.00 0.00 0.00 0.00 12.20 0.00 0.00 0.00 4.90 0.00 M 2 0.00 0.00 0.00 0.64 0.00 0.00 0.00 0.00 0.00 M 3 0.00 0.00 0.00 0.23 0.00 0.00 0.32 0.00 0.00 0.00 0.00 A 1 0.00 0.00 7.80 0.00 0.00 0.00 0.00 0.00 0.00 A 2 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 A 3 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 1 9.40 1.24 1.59 5.20 0.00 1.77 0.00 0.00 0.12 0.00 0.00 CA 2 0.75 0.00 0.00 2.10 0.00 0.00 0.00 0.00 0.00 0.00 0.00 3 2.00 0.99 0.00 1.10 0.00 0.00 0.00 0.76 0.00 0.00 0.00 P 1 0.00 0.00 0.00 1.56 0.97 0.00 0.00 0.00 0.00 0.00 P 0.02 0.00 0.00 0.93 0.00 3.50 0.00 0.00 0.00 0.00 0.00 P 3 0.00 0.00 0.00 0.00 0.00 6.20 1.00 0.00 0.00 13.40 15.80 0.30 104.50 0.00 127.70 0.00 0.00 0.00 0.00 0.00 W 2 4.80 0.00 0.64 121.10 41.10 0.00 58.10. 0.59 W 3 0.00 0.00 0.00 53.00 0.00 54.70 0.00 10.10 0.00 0.00 0.00 ; داده b; تنظیم a; آرایه log{*} boreria--otto; do i = 1 به dim(log); log(i)=log10(log(i)+1); پایان؛ خروجی رها کردن i; اجرا؛ خروجی ods Eigenvectors=vector ; proc princomp out=pcacomp ; VAR boreria--otto; اجرا؛ داده vec; بردار مجموعه (تغییر نام = (متغیر = Weed prin1=vec1 prin2=vec2)); vec1 = vec1*7; vec2 = vec2*7; drop prin3-prin10; اجرا؛ داده های جدید؛ ادغام pcacomp vec. اجرا؛ ods listing style=statistical image_dpi=300; proc sgplot data=new; VECTOR x=vec1 y=vec2/گروه=علف هرز ARROWHEADSHAPE=پر DATALABEL=علف هرز; scatter x=prin1 y=prin2 / group=treat name='site'; بیضی x=prin1 y=prin2 / LINEATTRS=(الگو=2) TRANSPARENCY=0.1 ; refline 0 /axis=x LINEATTRS=(PATTERN=1); refline 0 /axis=y LINEATTRS=(PATTERN=1); xaxis label='PCA1 (32.0%)' grid ; yaxis label='PCA2 (18.2%)' grid; KEYLEGEND 'site' /title='Treatment' LOCATION= inside position= topLEFT cross=3 noborder; اجرا؛ | چرا من sgplot با اجرای این برنامه در sas 9.2 ندارم |
65925 | من از طریق برخی از پست های گذشته در مورد استفاده از آزمون KS زمانی که پارامترهای توزیع تخمین زده می شوند، خوانده ام. این مورد به خصوص بسیار مفید بود و من پیشنهاد گرگ اسنو را اجرا کردم. با این حال، من نمی دانم هنگام آزمایش توزیع پیشنهادی خود در برابر مجموعه دوم داده ها، چه کاری انجام دهم. روش من این است: 1. نمونه ای از داده ها را در یک بازه زمانی معین جمع آوری کنید. 2. پارامترهای یک توزیع فرضی را از داده ها تعیین کنید، و خوب بودن تناسب را با آزمون KS (بر اساس پاسخ گرگ اسنو در آزمون اصلاح شده) آزمایش کنید. پست دیگر) 3. اگر آزمون KS را در سطح اطمینان قابل قبولی پشت سر گذاشت، توزیع (با پارامترهای محاسبه شده) را در برابر مجموعه دیگری از داده های جمع آوری شده در زمان بعدی آزمایش کنید. در مرحله (3)، من علاقه مندم که مقادیر پارامترهای _specicular_ محاسبه شده در (2) چقدر در پیش بینی داده های آینده کار کنند. یعنی، من اکنون با تخمین پارامترهای محاسبه شده قبلی به عنوان ورودی های ثابت رفتار می کنم. از این رو، به نظر من باید از آزمون استاندارد KS با توزیع متعارف برای آمار آزمون استفاده کنم. آیا این درست است؟ | آزمون کولموگروف اسمیرنوف با پارامترهای تخمین زده شده |
104082 | من با آمار کاملاً جدید هستم و در حال توسعه الگوریتم طبقه بندی هستم. روش من بر اساس تناسب مربع کای ساده است. من اندازه اثر موارد شناخته شده را برای پیش بینی موارد آینده می شمارم. مشکل من این است که من واقعاً نمی دانم چگونه با حجم نمونه های بزرگ کنار بیایم، همچنین نمی دانم چه زمانی حجم نمونه خیلی بزرگ است. پاسخ را تحقیق کرد، اما راه حلی پیدا نکرد. بنابراین بهترین رویکردی که باید در نظر بگیرید، زمانی که یک نتیجه ممکن دو برابر دارید و مانند 2000 تا 3000 مورد شناخته شده که نتیجه را می دانید چیست؟ بدیهی است که برای NHST ایمن نیست زیرا اندازه نمونه های بزرگ نتایج مثبت کاذب را به همراه خواهد داشت (تا آنجا که من می دانم). آیا کسی می تواند رویکرد خوبی برای اتخاذ یا شاید یک مقاله خوب در مورد موضوع پیشنهاد دهد؟ با تشکر برای کمک! | حجم نمونه بزرگ و آزمون فرضیه صفر |
78893 | آیا می توان SEM را با یک متغیر وابسته مبتنی بر رتبه انجام داد؟ اگر چنین است، کدام بسته نرم افزاری راهگشا خواهد بود؟ بدیهی است که شما خروجی LISREL و مواردی از این قبیل را دریافت خواهید کرد، اما من نگران این هستم که چگونه DV مبتنی بر رتبه بر تخمین پارامترها تأثیر می گذارد و نمی دانم که آیا می توان کاری برای مبارزه با چیزهای بدی که از نادیده گرفتن فرض توزیعی ناشی می شود انجام داد. DV. با تشکر | وقتی SEM با DV مبتنی بر رتبه انجام می شود چه اتفاقی می افتد؟ |
78899 | من سعی میکنم تابعی در R بنویسم که تعیین کند کدام یک از آزمونهای آماری زیر باید روی مجموعهای از دادهها اجرا شود: {paired-t، sign، t two-sample t، t ترکیبی دو نمونه، دو نسبت، F} - مجموعه داده ها دارای دو ستون هستند که مقادیر X و Y را نشان می دهند. تمرکز آزمون بر روی مجموعه داده ها یکی از انواع زیر است: {مرکز، گسترش، شمارش} (برای شمارش داده های ستون های 1 و 2 به ترتیب 1 و 0 برای تعداد موفقیت ها و شکست ها خواهند بود). - مجموعه داده ها به عنوان وابسته یا مستقل علامت گذاری می شوند. من با کد نویسی در R راحت هستم و توابع را برای تعیین اینکه آیا مجموعه داده ها نرمال است و آیا نقاط پرت وجود دارد را نوشته ام، اما نمی دانم چگونه، با توجه به این اطلاعات می توانم تعیین کنم که کدام یک از این تست ها باید اجرا شوند. کسی می تواند توضیح دهد که چگونه این معیارها نشان می دهد که کدام یک از این تست ها باید اجرا شود؟ | نوشتن تابع R برای تعیین اینکه کدام آزمون آماری باید اجرا شود |
92223 | من سعی می کنم از تابع train از بسته caret برای تنظیم پارامترهای rxDForest از بسته RevoScaleR استفاده کنم (من نمی توانم از جنگل تصادفی استفاده کنم زیرا مجموعه داده من خیلی بزرگ است)، اما نمی توانم مدیریت کنم برای اینکه کد من با نمونهبرداری مجدد کار کند: library(caret) library(doParallel) library(pROC) registerDoParallel(cores=4) # ---------------- # وارد کردن بار قطار داده (فایل = data_model_rf.RData) # ---------------- # تنظیم rf rxDForest <- list(نوع = طبقه بندی، کتابخانه = RevoScaleR، حلقه = NULL، پارامترها = data.frame(پارامتر = c(mTry، maxDepth)، class = rep(عددی، 2)، label = c(mTry، maxDepth))، grid = function(x, y, len = NULL) { p = floor(sqrt(ncol (x))) expand.grid(mTry = c(p/2,p,p*2), maxDepth = c(1,3,5))}, fit = function(x, y، wts، param، lev، آخرین، وزنها، classProbs، ...) { tmp <- as.data.frame(x) tmp$Class <- y f <- as.formula(paste0(Class, ~ , paste(colnames(tmp)[-c(ncol(data_model))],collapse = +))) rxDForest(f, tmp, maxDepth = param$maxDepth, mTry = param$mTry,...)}, predict = function(modelFit, newdata, preProc = NULL, submodels = NULL) { rxPredict(modelFit, newdata)}, prob = function(modelFit, newdata , preProc = NULL, submodels = NULL) { out <- rxPredict(modelFit, newdata, type=prob) colnames(out) <- modelFit$obsLevels out[,1:length(modelFit$obsLevels)]}, sort = function(x) {x[order(x$mTry, x$maxDepth )]}، varImp = تابع (ابجکت، numTrees = NULL، ...) { varImp <- object$importance out <- data.frame(varImp) colnames(out) <- Overall rownames(out) <- rownames(object$importance) out}) rfGrid <- expand.grid(mTry = c(14 )، maxDepth = c(5)) fitControl = trainControl( روش = repeatedcv، عدد = 10، classProbs = TRUE، تکرار = 3، summaryFunction = twoClassSummary) # ---------------- # تنظیم rf rfFit <- train(data_model[,1:(ncol(data_model)-1)], data_model[,ncol(data_model)]، روش = rxDForest، trControl = fitControl، tuneGrid = rfGrid، metric = ROC، verbose = TRUE، nTree = 20، important=TRUE ) با خطای زیر مواجه شدم: خطا در train.default(data_model[, 1:(ncol(data_model) - 1)]، data_model[, : پارامترهای تنظیم نهایی را نمی توان تعیین کرد 4: در nominalTrainWorkflow (x = x, y = y، wts = وزن، اطلاعات = trainInfo، : مقادیر گمشده در معیارهای عملکرد نمونهگیری مجدد وجود داشت. 5: در train.default(data_model[, 1:(ncol(data_model) - 1)]، data_model[, : مقادیر گمشده در نتایج جمعآوری شده یافت میشود، اگر در «trainControl» به «method = «none» بروید، کد کار میکند. تابع، بنابراین با توابع «مطابقت» یا «پیشبینی» مشکلی نیست rxDForest: https://docs.google.com/file/d/0B-MIQzwMSpnxSlZXNjIxektEWmc/edit?pli=1 rxDForest فقط یک rxFormula خاص را می پذیرد که شامل کلاس ~ من نمی شود. ماتریس شبکه جدید را امتحان کردم (شامل x = ماتریس (1، ncol = 9، nrow = 10) در تابع grid) اما من از گزینه tunegrid استفاده می کنم، بنابراین قرار نیست از تابع grid استفاده شود، اینطور نیست. | Caret با rxDForest به عنوان مدل سفارشی |
74296 | اجازه دهید $X$ یک متغیر تصادفی قابل ادغام باشد که در فضای احتمال $(\Omega , \mathcal F,P)$ تعریف شده است و اجازه دهید $\mathcal F_{n},n\ge0$ یک فیلتر در این فضا باشد. نشان دهید که $X_{n}= E[X|\mathcal F_{n}]$ یک $\mathcal F_{n}$-martingale است. | نشان دهید که $X_{n}= E[X|\mathcal F_{n}]$ یک $\mathcal F_{n}$-martingale است |
55941 | فرض کنید جعبه های 10 دلاری داریم و علاقه مندیم تعداد سیب، پرتقال و گلابی را در هر کدام اندازه گیری کنیم. راه خوبی برای تجسم نحوه ارتباط جعبه ها با یکدیگر از نظر توزیع میوه چیست؟ به عنوان مثال، جعبه 1 ممکن است 5 سیب، 10 پرتقال و 6 گلابی داشته باشد در حالی که جعبه 10 ممکن است دارای 1 سیب، 1 پرتقال و 1 گلابی باشد. **افزوده شد.** آیا نگاه کردن به ماتریس فاصله مناسب است؟ آیا راهی برای تجسم ماتریس فاصله وجود دارد؟ | نحوه تجسم تعداد دسته های مختلف |
74743 | من میدانم که منظور از خوشهبندی برای گروهبندی موارد با هم است، آیا راهی وجود دارد که بتوانیم با بیان اینکه خوشه A مهمتر از خوشه B است، کمیت کنیم؟ غیر از شمارش تعداد آیتم های یک خوشه؟ | رتبه بندی موضوعات در K-Means |
23951 | من می دانم که جدول می تواند جدول اقتضایی را بشمارد، اگر بخواهم تمام عناصری را که در یک سلول جدول قرار می گیرند با استفاده از نوعی تابع، مانند میانگین، خلاصه کنم؟ برای مثال facA = rep(1:3, 4) facB = rep(c(rep(1, 3), rep(2, 3)), 2) value = rnorm(12) چگونه میانگین value's را خلاصه کنم مطابق با facA:facB و آن را به صورت جدول بسازید؟ | جدول احتمالی را در R خلاصه کنید |
27248 | من طراحی 2x2 با n = 3 (متوسط) برای هر گروه دارم (اینجا را ببینید). مطمئن نیستم که دادههای من از توزیع خاصی پیروی میکنند، اما میخواهم از فواصل اطمینان به عنوان نوار خطا در نمودار نقطهای استفاده کنم. بنابراین من واقعا نمی توانم از sd، se یا bootstrapping از یک توزیع استفاده کنم. رویکردی که من دنبال آن هستم در این مقاله توضیح داده شده است. احساس اولیه من این است که باید از بسته بوت استفاده کنم. من 3 تکرار دارم که از تعداد اندازه گیری های مختلف تشکیل شده است. من می خواهم از میانگین این تکرارها برای محاسبه فواصل اطمینان استفاده کنم. چیزی مانند: x1 <- rnorm(50, 14,3) x2 <- rnorm(35, 7,1) x3 <- rnorm(40, 15,9) d <- c(mean(x1) mean(x2) , mean(x3)) b <- boot(d, function(u,i) mean(u[i]), R = 999, sim = معمولی) boot.ci(b، type = c(همه)) فایل راهنما برای تابع boot() می گوید: برای بوت استرپ ناپارامتری، روش های نمونه گیری مجدد ممکن بوت استرپ معمولی، بوت استرپ متوازن، نمونه گیری مجدد آنتیتتیک است. و جایگشت». بدون پیشینه در آمار، درک این موضوع که این گزینه های مختلف چه کاری انجام می دهند و چه چیزی برای این مورد مناسب است، مشکل دارم. تابع 'boot.ci()' 5 پاسخ مختلف می دهد که به نظر می رسد همه آنها به طور قابل توجهی متفاوت هستند. من خیلی گیج هستم آیا کسی می تواند سؤالات مرتبط زیر را توضیح دهد: 1. آیا این رویکرد درستی است؟ 2. در این مورد از کدام ترکیب استفاده کنم؟ 3. چرا این همه گزینه؟ | مونت کارلو / فواصل اطمینان ناپارامتری برای برآورد میانگین |
32345 | من با مقاله جدیدی از گروه NLP برکلی در مورد آزمایش های آماری، یک بررسی تجربی از اهمیت آماری در NLP برخورد کردم. شبه کد برای محاسبه مقدار p در مقاله وجود دارد، اساساً ایده این است که مجموعه نمونه $x_1,x_2,...,x_N$ با جایگزینی از دادههای $x$ نمونهبرداری شود. سپس $\text{p-value} = \text{count}(\delta(x_i) > 2\delta(x))/N$، که در آن $\delta(x_i)$ یک سود متریک است. من میتوانم فرمول محاسبه p-value در مقاله کوهن را درک کنم. آزمونهای معناداری آماری برای ارزیابی ترجمه ماشینی، که در آن: $\text{p-value} = \text{count}(\delta_a(x_i) < \delta_b(x_i) ))/N$، که $\delta_a$ و $\delta_b$ به ترتیب سود متریک برای سیستم $a$ و $b$ هستند. آیا توضیح یا مرجعی برای فرمول $\text{p-value} = \text{count}(\delta(x_i) > 2\delta(x))/N$ وجود دارد؟ نویسندگان همچنین خاطرنشان کردند که اگر میانگین $\delta(x_i)$ $\delta(x)$ و $\delta(x_i)$ متقارن باشد، هر دو فرمول بالا معادل هستند. | p-value را در بوت استرپ جفتی محاسبه کنید |
78898 | من سه گروه دارم هر دو حجم نمونه کوچکی دارند (<10). و ما نمی توانیم فرض عادی بودن را بررسی کنیم. من می خواهم هر دو را با هم مقایسه کنم. در این مورد چه باید کرد (اندازه های کوچک نابرابر، غیر عادی) | مقایسه میانگین دو نمونه با داده های کوچک و غیر عادی |
78894 | فرض کنید من می خواهم وابستگی بین $d$ r.v.'s $Y_1,...,Y_d$ را با کوپول $C_\theta$ مدل کنم، که در آن $\theta$ پارامترهای مربوط به آن کوپول است. من همچنین همبستگی را با استفاده از tau کندال $\tau(Y_i,Y_j)=\gamma$ برای همه $i\neq j$ تعیین کرده ام. اکنون میخواهم نمونههایی از این توزیع مشترک تولید کنم: آیا وقتی میگویم که از قضیه اسکلار، در مسیر درستی هستم، اگر تابع توزیع متناظر $Y_k$ $G_k(y_k)$ باشد و ما X_1$ داشته باشیم، داریم. ,...,X_d$ با توابع توزیع $F_1(x_1),...,F_d(x_d)$. سپس $\bf{Y}$$=\left(G_1^{-1}(F_1(X_1))،...,G_d^{-1}(F_d(X_d))\راست)$. بنابراین مثلاً بگویید که من میخواهم نمونههایی از بردار تصادفی توزیع t-$\bf{Y}$ خود را از توزیع پیوست با استفاده از یک کوپول گاوسی تولید کنم، میتوانم به سادگی متغیرهای تصادفی عادی $Y_1,...,Y_d را تولید کنم. $ (مستقل) و سپس تابع توزیع t را روی r.v اعمال کنید. و سپس تابع چندک معمولی آن را با استفاده از $\Sigma$ که در آن $$\Sigma_{i,j}=\begin{cases} 1 و \text{if $i=j$} استفاده کنید.\\ sin( \frac{\pi}{2}\gamma)، و \text{وگرنه}. \end{cases}$$ به عنوان یکی از پارامترها. یا زمانی که بردار t-توزیع شده $\bf{Y}$ را مدل می کنم، باید وابستگی را در نظر گرفت؟ حدس میزنم که اولی منطقیتر باشد، زیرا قرار است کوپلا «وابستگی» را مدل کند. به جای آن بگویید من می خواهم با استفاده از بسته copula در R همین کار را انجام دهم. آیا درست است که ابتدا شی copula را با $\Sigma$ (مانند قبل) با استفاده از _normalCopula_ و سپس _mvdc_ و _rmvdc_ برای تولید نمونه ها ایجاد کنیم؟ اما پارامترهای تابع mvdc چیست؟ کد مثال از صفحه وب R به شرح زیر است: mvdc(normalCopula(0.75)، c(norm، exp)، list(list(mean = 0، sd =2)، list(rate = 2))) اما آیا آرگومان در تابع normalCopula نباید یک ماتریس 2x2 باشد زیرا دو متغیره آن است. همچنین، اکنون بگویید که من $d$ به طور مساوی r.v توزیع شدهام و نمیخواهم c(t، .... t) و غیره بنویسم. چگونه میتوانم این را منظم بنویسم؟ همانطور که می بینید، من در مورد پارامترهای موجود در کوپول و اینکه در چه مرحله ای باید از همبستگی استفاده شود کمی گیج شده ام (همچنین مطمئن نیستم که چه زمانی می توان گفت که $\rho = sin(\frac{\pi} {2}\tau)$)، بنابراین اگر کسی بتواند در توضیح آن کمک کند، بسیار سپاسگزار خواهم بود. همچنین، نمونههای زیادی از نمونههای دو بعدی (و برخی سه بعدی) در اینترنت وجود دارد، زیرا بیشتر گویاتر از ابعاد بالاتر هستند. بنابراین اگر کسی به نمونههایی از مدلسازی با کوپولا در ابعاد بالاتر در R اشاره داشته باشد، با کمال میل آن را میپذیرم. * * * ویرایش: خوب، بگو من میخواهم توزیع مشترک دو دارایی مالی را مدل کنم که در آن حاشیهها با 3 درجه آزادی و انحراف استاندارد 0.05 توزیع شدهاند. همبستگی آنها با $\tau(Y_1,Y_2)=0.5$ تخمین زده شده است. من فرض کردم توزیع مشترک آنها باید نرمال باشد، بنابراین من از یک کوپول معمولی استفاده می کنم. برای تولید نمونه از توزیع مشترک آنها. من ابتدا نمونه هایی را از توزیع نرمال تولید می کنم: X<-rmvnorm(N,mu,S) #mu بردار صفر است و #S برابر $\Sigma$ قبل با $\gamma = 0.5$ است.  اکنون هر نقطه نمونه را تبدیل می کنم $(X_k^1,X_k^2)$: Y<-qt(pnorm( X),df=3)  آیا این درست است؟ اما چگونه می توانم واریانس/انحراف استاندارد حاشیه ها را کنترل کنم؟ آیا زمانی که چند متغیره نرمال را تولید می کنم یا در تابع qt این کار را انجام می دهم؟ | تولید نمونه از Copula در R |
52997 | من مشکلی دارم که در آن سعی می کنم مشاهدات را گروه بندی کنم (به احتمال زیاد با استفاده از k-means یا یک ابزار یادگیری بدون نظارت مشابه) که در آن هر مشاهده شامل _n_ -متغیرها، با مجموع کل این متغیرها برابر با یک است. بنابراین، ما مشاهدات را بر اساس احتمالات هر یک از _n_ حالات بالقوه یا نتایج برای هر مشاهده گروه بندی می کنیم. **به عنوان مثال**: اگر ما در حال آزمایش ساخت تاس هستیم و 1000 تاس نمونه برداریم، هر دای یک مشاهده خواهد بود و ما V1 = درصد زمانی که یک تاس ظاهر می شود را ثبت می کنیم. قالب خاص، V2 = % دو، و غیره. سپس قالب را بر اساس درصد زمانی که هر قالب به صورت 1، 2، 3، و غیره ظاهر میشود، خوشهبندی میکنیم (برای مشاهده برای مثال، اگر یکی از ماشین های قالب نامناسب بود). در حالی که میتوانیم درصدها را بررسی کنیم، دریافتیم که خوشهبندی این مشاهدات به نشان دادن هر گونه گرایش زیربنایی (رنگها، مواد، ماشینها و غیره) کمک میکند که بدون تکنیکهای یادگیری بدون نظارت آشکار نمیشوند. می دانم که این مشکل کمی عجیب است، اما مطمئنم ادبیاتی برای آن وجود دارد. اسم این نوع مشکل چیست؟ آیا می توانید به من در جهت کارهایی که برای بررسی این نوع مشکلات انجام شده است اشاره کنید؟ | گروه بندی مشاهدات بر اساس متغیرهایی که مجموع آنها یک است |
32340 | من یک مدل دوجمله ای منفی با تورم صفر دارم. من از نسبتهای نرخ بروز استفاده کردهام و سعی میکنم ضرایب را در رابطه با پیشبینیکنندههایم تفسیر کنم. اکثر پیش بینی کننده های من متغیرهای پیوسته داده های سرشماری هستند -- به عنوان مثال: % جمعیتی که اسپانیایی تبار هستند. ٪ از جمعیت کمتر از 18 سال و غیره. من می دانم که IRR به طور معمول به عنوان نسبت نرخ برای افزایش 1 واحدی در متغیر مستقل تفسیر می شود، اما این از نظر این پیش بینی کننده های پیوسته به چه معناست -- آیا این به این معنی است IRR نسبت نرخ تخمینی برای افزایش 1% در% اسپانیایی است. آیا راهی وجود دارد که بتوانم این را مقیاس کنم تا بتوان آن را به عنوان نسبت نرخ تخمینی برای افزایش 10% در % اسپانیایی ها تفسیر کرد؟ همچنین، یکی از IRRهای من 20 است. آیا به طور غیرعادی بالا به نظر می رسد؟ | دو جمله ای منفی -- تفسیر IRR برای پیش بینی کننده ها |
32342 | من در حال تجزیه و تحلیل این هستم که چگونه کاربران یک سرویس خاص با مشاهده ارتباط بین آنها و تغییرات در طرح های عضویت بر یکدیگر تأثیر می گذارند. این شبکه اجتماعی از 3 میلیون کاربر و 40 میلیون اتصال در میان آنها تشکیل شده است. برای تعیین تأثیر یک کاربر خاص، دنباله ای از تغییرات طرح های عضویت را مشاهده می کنم. به عنوان مثال شبکه ای از کاربران A، B، C، D و E وجود دارد و اتصالات A SENT_MESSAGE_TO B C SENT_MESSAGE_TO B D SENT_MESSAGE_TO B D SENT_MESSAGE_TO E و گزارش عضویت B طرح اشتراک را از رایگان به پریمیوم در 2011-10-11 A تغییر داد. طرح اشتراک را از رایگان به حق بیمه در 2011-10-18 تغییر داد D طرح اشتراک را از رایگان به حق بیمه تغییر داد در 2011-10-22 از آنجایی که کاربران به یکدیگر متصل هستند (من فرض می کنم) دو دلیل احتمالی برای تغییر طرح عضویت وجود دارد: * فرد یا تحت تأثیر تبلیغات، رضایت شخصی یا در عموماً تأثیرات جهانی تأثیر زیادی بر او داشت * فرد متوجه رفتار دوستان خود (ارتباطات) شد و از اکثریت یا یک همسایه خاص تقلید کرد زیرا امکان مشاهده تغییرات طرح اشتراک به طور کلی وجود دارد. شبکه فکر میکنم از نظر آماری میتوانستم تعیین کنم که تأثیر یک کمپین تبلیغاتی خاص یا تغییر قیمت (مثلاً تاریخ هر کمپین و تغییر قیمت را میدانم) در مقیاس جهانی چیست، اما نمیدانم چگونه از این بینش برای تمایز بین فردی استفاده کنم. اثرات ناشی از اثرات جهانی یک حدس (یک مثال ساده) این است که بگوییم اگر تفاوت زمانی در تغییر طرح بین دو کاربر متصل بیشتر از [دوره تعیینشده] باشد، فرض میکنیم که تغییر دوم تحتتاثیر اولی قرار نگرفته است. حدس دیگر می تواند این باشد که اگر دو کاربر کمتر از [تعداد مشخص پیام] رد و بدل کنند، هیچ تاثیری بین یکدیگر وجود نخواهد داشت. به هر حال من مایلم راه حلی برای تشخیص اثرات جهانی و شبکه در داده های شبکه های اجتماعی پیدا کنم یا توسعه دهم و اگر کسی مقاله خوبی با مشکل مشابه پیشنهاد دهد یا رویکردی برای مقابله با چنین مشکلاتی پیشنهاد کند بسیار سپاسگزار خواهم بود. متشکرم! | تمایز اثرات آماری (جهانی) و شبکه ای (محلی). |
52992 | من با مخلوطی از مدل های دوجمله ای آزمایش می کنم. یک متغیر باینری $y_i$ را در نظر بگیرید. علاوه بر این، دو گروه فرعی در جمعیت وجود دارد (از قبل مشخص نیست و قابل مشاهده نیست): $z_i=0$ یا $z_i=1$. برای یک زیر گروه از جمعیت، موارد زیر صادق است: \begin{equation} P(y_i=1|z_i=0)= \xi, \end{معادله} با $\xi$ یک احتمال ثابت (تخمین نشده توسط مدل اما ارائه شده توسط کاربر). برای زیرگروه دیگر، داریم: \begin{معادله} P(y_i=1|z_i=1)= g_i = g(x_i' \theta_g) = \frac{1}{1+\exp(-x_i' \theta_g)}، \end{equation} با $x_i$ بردار متغیرهای مستقل (شامل بردار)، $\theta_g$ یک بردار پارامتر و نماد دست کوتاه $g_i$. احتمال اینکه یک مشاهده به یک زیرجمعیت خاص تعلق داشته باشد برابر است با: \begin{معادله} P(z_i=1)= h_i=h(\tilde{x}_i' \theta_h) = \frac{1}{1 +\exp(-\tilde{x}_i'\theta_h)}، \end{equation} با $\tilde{x}_i$ یک بردار مستقل متغیرها و $\theta_h$ بردار پارامتر مربوطه. توجه داشته باشید که به طور کلی، $\tilde{x}_i$ ممکن است با $x_i$ متفاوت باشد. در یک مورد خاص، $\tilde{x}_i$ فقط حاوی یک وقفه است، که در آن نسبتهای اختلاط را ثابت کردهایم (من هر دو را آزمایش کردهام، و هر دو منجر به یک مشکل میشوند، که در زیر توضیح داده شده است - بگذارید نوع 1 همان چیزی باشد که با فقط رهگیری، و نوع 2 با متغیرهای مستقل بیشتر). مشکل هنگام تلاش برای تخمین این مدل رخ می دهد. من الگوریتم EM را پیادهسازی کردهام (دوبار/سهگانه/چهارگانه بررسی شد، من 95% مطمئن هستم که ریاضی درست است)، اما به نظر میرسد مدل من قابل شناسایی نیست (هیچ یک از هر دو نوع). هنگام ایجاد یک نمودار کانتور (یا رسم سطح) برای دو متغیر مستقل، اوج وجود ندارد بلکه یک رج وجود دارد (تصویر زیر را ببینید).  من به طور مستقیم می توانم این را با نگاه کردن به: \begin{equation} P(y_i=1) = h_i\cdot g_i+( 1-h_i) \cdot \xi. \end{equation} من می توانم تصور کنم که می توان $h_i$ را افزایش داد و $g_i$ را به نسبت های مناسب کاهش داد و به همان احتمال $P(y_i=1)$ رسید. و احتمالاً این برای LL نیز صادق است. من شروع به جستجو در ادبیات برای راه حل این مشکل کرده ام، اما هنوز پاسخ نهایی را پیدا نکرده ام. آیا راه حلی برای این مشکل شناسایی وجود دارد (حداقل من فکر می کنم مشکل همین است)؟ آیا برخی از محدودیت های اضافی می تواند مشکل را حل کند یا راه حل دیگری وجود دارد؟ پس از همه، آیا امکان ایجاد مخلوطی از توزیع های دو جمله ای وجود دارد؟ امیدوارم توضیحم واضح باشه پیشاپیش از کمک شما متشکرم با احترام، توماس | مخلوطی از توزیع های دو جمله ای |
57547 | در آماده سازی برای امتحان پایان ترم R، من روی فایل CSV زیر کار کرده ام که از R الگوبرداری شده است، که در حال حاضر در کشف آن با مشکل مواجه هستم. این تمرین از کتاب درسی «آمار کاربردی: اصول و مثالها» نوشته دیوید راکسبی کاکس است.  _داده ها از یک مطالعه واقعی در نیروگاه های راکتور آب سبک (LWR) ساخته شده در ایالات متحده آمریکا در دهه 1970 گرفته شده است. هدف از این مطالعه توسعه مدلی بود که بتواند برای مدلسازی هزینه سرمایه درگیر در ساخت نیروگاههای LWR مورد استفاده قرار گیرد. مجموعه داده شامل 32 نیروگاه LWR و شامل متغیرهای زیر است:_ عناوین PR، NE، CT، BW و PT دارای خروجی هایی هستند که شامل 1 و 0 است که در آن 1=بله و 0=خیر است. مجموعه داده شامل 32 نیروگاه LWR و شامل متغیرهای زیر است:   اکنون که دامنه سوال را معرفی کردم - مشکل من اینجاست: از من خواسته شده است که اصطلاحات مناسب را به آن مدل اضافه کنم تا بتوانم بررسی کنید که آیا دلیل خوبی برای این باور وجود دارد که تأثیر ظرفیت یک نیروگاه بر هزینههای ساخت و ساز ممکن است برای نیروگاههایی که قبلاً در همان سایت دارای LWR بودند و آنهایی که نداشتند یکسان نباشد. خلاصه نتایج مدل نهایی من در R در زیر نشان داده شده است:  بنابراین، معادله مدل نهایی من این است: C = - 541.82231+ 26.11545T1+ 5.22321T2+ 0.41890S- 94.33786PR+108.34622NE- 132.58098PT من سعی کردم مدلی را که فقط شرایط S (ظرفیت توان) و PR (آیا LWR قبلاً در همان سایت وجود داشته است) را در مقابل C (هزینه ساخت و ساز) ارزیابی کند، اما عبارت سؤال می گوید: «مناسب را اضافه کنید. شرایط را به آن مدل به منظور بررسی...» باعث می شود باور کنم کاری که می خواستم انجام دهم اشتباه است، زیرا می توانستم انجام دهم خارج کردن شرایط آیا کسی میداند چه عبارتهای مناسبی را باید اضافه کنم و چگونه همبستگی را آزمایش کنم؟ | تجزیه و تحلیل داده ها با استفاده از R |
55946 | من یک تحلیل رگرسیون با استفاده از تابع lm()R انجام دادم. یکی از متغیرهای مستقل معنیداری نشان نمیدهد (89/0=p)، که با این فرضیه که باید تأثیر مثبت معناداری بر متغیر وابسته داشته باشد، تناقض دارد. چگونه آن را تفسیر می کنید؟ آیا می توانید بگویید که فقط به دلیل معنی دار نبودن آن - حتی اگر به طور معنی داری منفی نباشد، تأثیر مثبتی بر متغیر وابسته ندارد؟ | چگونه یک متغیر مستقل غیر معنادار را تفسیر کنیم؟ |
104622 | من فقط نمی دانم از نموداری با محور x به عنوان واقعی و محور y به عنوان داده های پیش بینی شده چه چیزی را می توانیم استنباط کنیم؟  | یک نمودار واقعی در مقابل برازش به ما چه می گوید؟ |
74297 | در سال 2012 ما در دانشگاه خود اطلاعاتی را در مورد حفظ دانشجو از ترم اول تا ترم دوم به همراه برخی متغیرهای دیگر جمع آوری کردیم. متغیر حفظ باینری، حفظ یا حفظ نشد است. در سال 2013 سیستم جدیدی را معرفی کردیم. مشاوران موفقیت دانش آموزی تعیین شدند و هر دانش آموزی در صورت نیاز می توانست به آنها مراجعه کند. ما چند متغیر جدید مرتبط با معرفی مشاوران موفقیت دانشجویی را به همراه متغیرهایی که در سال 2012 جمع آوری شده بود، جمع آوری کردیم. اکنون مراجعه به این مشاوران اجباری نبود. کسانی که مشکلی احساس می کردند می توانستند به آنها مراجعه کنند. تنها با نگاه کردن به داده های سال 2013 به نظر می رسد که مشاوران اوضاع را بدتر می کنند: دانشجویانی که می بینند بدتر می شوند و احتمال بیشتری دارد که دانشگاه را ترک کنند. فقط دانشجویانی که با مشکل مواجه بودند احتمالاً به مشاوران مراجعه می کردند و آنهایی که خوب کار می کردند احتمالاً نمی رفتند. اگر 10 دانشجو با مشکل نزد مشاور رفتند و 8 نفر در ترم 2 باقی ماندند، مطمئناً موفقیت آمیز است. اما اگر 80 نفر از 100 دانشجویی که هیچ مشکلی نداشتند و به این ترتیب نزد مشاور نرفته بودند، تا ترم 2 باقی بمانند، شانس ورود به سیستم مشابه با دانشجویانی که به مشاوران مراجعه کرده اند خواهد بود و بنابراین به شما می گوید که رفتن به مشاوران تاثیر قابل توجهی نداشت! بخشی از دلیل آن تغییر سیاست عمده ای بود که بر نحوه پذیرش دانشجویان در دانشگاه های کشورمان تأثیر گذاشت. قبل از سال 2013 یک سرپوش وجود داشت، محدودیتی در مورد تعداد دانشجویی که یک دانشگاه میتوانست بپذیرد و انتظار بودجه دولتی برای آنها داشته باشد. در سال 2013 که حذف شد. بنابراین، دانشگاههای موفق و مطلوب درهای خود را به روی دانشجویان بیشتری باز کردند و دانشجویان بیشتری ناگهان توانستند وارد دانشگاههای مطلوب شوند. دانشگاه ما چندان مطلوب نیست. بنابراین آنچه احتمالاً اتفاق افتاد این بود که دانشگاه ما در سال 2013 مجبور شد به طور قابل توجهی دانشجویان بدتر را بپذیرد، که به خوبی می تواند منجر به دشواری حفظ بیشتر شود. آنچه روسای من فکر می کنند این است که ما باید داده های سال 2012 را وزن کنیم تا با داده های سال 2013 در مورد برخی از متغیرهایی که ممکن است به حذف سقف ورودی دانش آموز حساس بوده اند مطابقت داشته باشد (یا داده های 2013 را وزن کنیم تا با آنها مطابقت داشته باشد. داده های 2012). سپس میتوانیم دو گروه مختلف را به گونهای مقایسه کنیم که گویی آنها یک گروه کنترل مناسب برای یکدیگر هستند. در واقع این توهم است. برخی استفاده از SPSSINC RAKE را پیشنهاد کردند، اما من دلیلی نمیدانم. چیزی که ما میخواهیم بدانیم (بسیار گسترده) این است که آیا معرفی مشاوران و غیره مؤثر بوده است یا خیر، و میزان کارآمدی آن. | مقایسه اثر درمانی که برای گیرندگان آن اختیاری بود |
104624 | ## پیشینه من سعی می کنم مثال _اولین_ را در یک دوره آموزشی در مورد مدل های برازش بفهمم (بنابراین این ممکن است به طرز مسخره ای ساده به نظر برسد). من محاسبات را با دست انجام داده ام و آنها با مثال مطابقت دارند، اما وقتی آنها را در R تکرار می کنم، ضرایب مدل خاموش است. من فکر کردم که این تفاوت ممکن است به دلیل استفاده از واریانس جمعیت ($\sigma^2$) در کتاب درسی باشد، در حالی که R ممکن است از واریانس نمونه ($S^2$) استفاده کند، اما نمیتوانم ببینم این واریانس در کجا در محاسبات استفاده میشود. برای مثال، اگر «lm()» در جایی از «var()» استفاده کند، بخش راهنما در «var()» به این نکته اشاره میکند: > مخرج n - 1 استفاده میشود که یک تخمینگر بیطرفانه از واریانس > (co) برای i.i.d ارائه میدهد. مشاهدات من کد lm() و lm.fit() را بررسی کرده ام و هیچ کدام از var() استفاده نکرده ام، اما lm.fit() این داده ها را به کد C کامپایل شده ارسال می کند (`z <\- .Call(C_Cdqrls, x, y, tol, FALSE)`) که به آن دسترسی ندارم. ## سوال آیا کسی می تواند توضیح دهد که چرا R نتایج متفاوتی می دهد؟ حتی اگر در استفاده از واریانس نمونه در مقابل جمعیت تفاوت وجود داشته باشد، چرا برآورد ضرایب متفاوت است؟ ## دادهها برای پیشبینی اندازه کفش از کلاس مدرسه، یک خط تنظیم کنید. # model data mod.dat <- read.table( text = 'کفش درجه 1 1 2 5 4 9' , header = T); # mean mod.mu <- mean(mod.dat$shoe); # تغییرپذیری mod.var <- sum((mod.dat$shoe - mod.mu)^2) # ضرایب مدل از کتاب درسی mod.m <- 8/3; mod.b <- -1; # مقادیر پیش بینی شده ( 1.666667 4.333333 9.666667 ) mod.man.pred <- mod.dat$grade * mod.m + mod.b; # residuals ( -0.6666667 0.6666667 -0.6666667 ) mod.man.resid <- (mod.dat$shoe - mod.man.pred) # واریانس باقیمانده ( 1.333333 ) mod.man.unexpl.var <- man sum.( مقیم^2)؛ # r^2 ( 0.9583333 ) mod.man.expl.var <- 1 - mod.man.unexpl.var / mod.var; # but lm() نتایج متفاوتی می دهد: summary(lm(shoe ~ grade, data = mod.dat)) Call: lm(formula = shoe ~ grade, data = mod.dat) Residuals: 1 2 3 -0.5714 0.8571 -0.2857 ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (فاصله) -1.0000 1.3093 -0.764 0.585 درجه 2.5714 0.4949 5.196 0.121 خطای استاندارد باقیمانده: 1.069 در 1 درجه آزادی: 30 R-squared چندگانه: R-squared4. 0.9286 F-statistic: 27 در 1 و 1 DF، p-value: 0.121 ## ویرایش همانطور که بن بولکر نشان داده است، به نظر می رسد معلمان گاهی اوقات اشتباه می کنند. به نظر می رسد که محاسبات R صحیح باشد. اخلاقیات داستان: چیزی را فقط به این دلیل که معلم می گوید درست است باور نکنید. خودت تایید کن! | چرا lm()R تخمین های ضرایب متفاوتی را نسبت به کتاب درسی من برمی گرداند؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.