_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
54550 | فرض کنید ما همیشه میتوانیم یک نمونه $\\{X_1، \dots، X_n\\}$ به اندازه $n$ برای یک توزیع گسسته تولید کنیم، به طوری که pmf تجربی آن با pmf واقعی یکسان باشد. یکی از دلایلی که میتوانیم چنین اطمینانی داشته باشیم زمانی است که $X_i$ تبدیل یک متغیر تصادفی گسسته یکنواخت $Y_i$ باشد، و ما میتوانیم با برشمردن قطعی اعضای محدوده آن، نمونهای از $Y_i$ تولید کنیم. به عنوان مثال اگر توزیع مشترک توزیع برنولی با پارامتر $p$ باشد. اگر همیشه بتوانیم اطمینان حاصل کنیم که $\sum_i X_i /n = p$، آیا انحراف به صورت ${\frac{1}{n} \sum_i (X_i - \bar{X}}^2)^{-1 تخمین زده میشود. /2}$ یا ${\frac{1}{n-1} \sum_i (X_i - \bar{X}}^2)^{-1/2}$. به طور معمول ما دومی را ترجیح می دهیم زیرا بی طرفانه است در حالی که اولی اینطور نیست. اما در اینجا دقیقاً می دانیم که $\sum_i X_i /n = p$. آیا اولی بهتر از دومی خواهد بود؟ با تشکر و احترام! | اگر توزیع تجربی یک نمونه با توزیع واقعی یکسان باشد، انحراف چگونه باید برآورد شود؟ |
43883 | در مجموعه دادههای من ستونهایی مانند درصد بیماران سکته قلبی که آسپرین دادهاند در هنگام ورود وجود دارد --------------------------------- ------------------------ موجود نیست 99% موارد خیلی کم 100% 66% در دسترس نیست فرآیند عمومی چیست برای رسیدگی به چنین ویژگی هایی که عددی هستند، اما حاوی متنی مانند این هستند؟ من فقط به دنبال این هستم که یک رویکرد استاندارد قابل قبول چیست که بتوانم در گزارش خود توضیح دهم - اما اگر پاسخی خاص برای ابزار باشد - من Rapidminer، R و IBM SPSS Modeler برای کار با آنها دارم. | چگونه رشته ها را در ستون های داده های عددی در یک مجموعه داده مدیریت کنیم؟ |
44271 | من جمعیت بی نهایتی دارم که میانگین موفقیت ها و شکست ها نامشخص است. من 400 بار از جمعیت می کشم و 400 موفقیت می گیرم. اکنون میخواهم تخمینهایی تصادفی برای میانگین واقعی جمعیتی که از آن 400 موفقیت گرفتهام، ایجاد کنم. آیا کسی می تواند به من بگوید که از کدام توزیع احتمال باید استفاده کنم، به ترتیب تابعی که باید در R استفاده کنم چگونه به نظر می رسد؟ من فکر می کردم که rbeta (1,400+1,400-400+1) ممکن است عملکرد مناسبی باشد، اما حتی اگر این یکی را 10000000 بار انجام دهم، هرگز نتیجه 1 را نمی گیرم (و همان حساب برای `rbeta(10000000,0+1400 -0+1)` و نتیجه 0). بنابراین از خودم میپرسم چرا نمیتوان جمعیتی داشت که فقط از موفقیتها یا فقط از شکستها تشکیل شده باشد؟ پیشاپیش سپاس فراوان! | توزیع قبل از توزیع دو جمله ای توزیع احتمال مدل urn |
44279 | > چند مثال بزنید که در آن یک ضریب همبستگی ساده دارای علامت > مخالف ضریب همبستگی جزئی مربوطه است و > در مورد آن نظر دهید. این یک سوال از یک برگه امتحانی است. لطفا کمک کنید. | مثالی که در آن یک ضریب همبستگی ساده دارای علامتی مخالف با ضریب همبستگی جزئی مربوطه است. |
101486 | من مجموعه ای از داده ها را در قالب سری زمانی دارم، از دسامبر 2013 تا مارس 2014. من این داده ها را برای بسیاری از عوامل مختلف دارم. آیا راهی برای در نظر گرفتن تمام 15000 مشاهدات در ایجاد پیشبینی برای هر یک برای آوریل 2014 وجود دارد، حتی اگر هر عامل خاص فقط 4 نقطه داده داشته باشد؟ | دارای چندین سری زمانی کم سفارش چگونه بهترین پیش بینی را ایجاد کنم؟ |
38530 | یک همکار در حال تجزیه و تحلیل برخی از داده های بیولوژیکی برای پایان نامه خود با مقداری ناهمگونی ناخوشایند است (شکل زیر). او در حال تجزیه و تحلیل آن با یک مدل ترکیبی است اما هنوز با باقیمانده ها مشکل دارد. تغییر گزارش متغیرهای پاسخ همه چیز را تمیز می کند و بر اساس بازخورد به این سوال، به نظر می رسد این رویکرد مناسبی باشد. با این حال، در ابتدا فکر میکردیم در استفاده از متغیرهای تبدیلشده با مدلهای مختلط، مشکلاتی وجود دارد. به نظر می رسد که ما عبارتی را در Littell & Milliken (2006) _SAS for Mixed Models_ اشتباه تفسیر کرده بودیم که به این موضوع اشاره می کرد که چرا تغییر داده های _count_ و سپس تجزیه و تحلیل آن با یک مدل ترکیبی _خطی_ معمولی نامناسب است (نقل قول کامل در زیر آمده است) . رویکردی که باقیمانده ها را نیز بهبود بخشید، استفاده از یک مدل خطی تعمیم یافته با توزیع پواسون بود. من خواندهام که توزیع پواسون میتواند برای مدلسازی دادههای پیوسته استفاده شود (به عنوان مثال، همانطور که در این پست مورد بحث قرار گرفت)، و بستههای آماری این اجازه را میدهند، اما من نمیدانم وقتی مدل مناسب است، چه اتفاقی میافتد. به منظور درک نحوه انجام محاسبات اساسی، سؤالات من این است: وقتی توزیع پواسون را به داده های پیوسته برازش می کنید، **1)** آیا داده ها به نزدیکترین عدد صحیح گرد می شوند **2)**. این امر منجر به از دست رفتن اطلاعات می شود و **3)** چه زمانی، آیا استفاده از مدل پواسون برای داده های پیوسته مناسب است؟ Littel & Milliken 2006، pg 529 تبدیل داده های [تعداد] ممکن است معکوس باشد. به عنوان مثال، یک تبدیل می تواند توزیع اثرات مدل تصادفی یا خطی بودن مدل را مخدوش کند. مهمتر از آن، تبدیل داده ها همچنان امکان را باز می گذارد. در نتیجه، استنتاج از یک مدل ترکیبی با استفاده از داده های تبدیل شده بسیار مشکوک است.  | توزیع پواسون هنگام مدل سازی داده های پیوسته چگونه کار می کند و آیا منجر به از دست دادن اطلاعات می شود؟ |
17204 | من در حال انجام مطالعه ای در مورد شایستگی یک محرک در مقایسه با محرک دیگر با طراحی درون موضوعی هستم. من یک طرح جایگشت دارم که برای کاهش اثرات سفارش برخی از بخشهای مطالعه (ترتیب نوع کار، ترتیب محرک، ترتیب مجموعه وظایف) طراحی شده است. طرح جایگشت دیکته می کند که حجم نمونه بر 8 بخش پذیر باشد. برای تعیین اندازه نمونه، باید حدس بزنم (که یک سنت خوب در رشته من است) یا اندازه نمونه را برای توان مورد نظرم محاسبه کنم. مشکل اکنون این است که من کوچکترین سرنخی ندارم که قرار است اندازه یک اثر بزرگ را مشاهده کنم (همچنین یک سنت خوب در زمینه من است). یعنی محاسبه توان کمی مشکل است. از سوی دیگر، حدس زدن وحشیانه ممکن است بد باشد زیرا میتوانم با حجم نمونه بسیار کم بیرون بیایم یا پول زیادی به شرکتکنندگان بپردازم و زمان زیادی را در آزمایشگاه سپری کنم. آیا اشکالی ندارد که از قبل اعلام کنم که شرکت کنندگان را در دسته های 8 نفره اضافه کنم تا زمانی که راهرویی با دو مقدار p را ترک کنم؟ به عنوان مثال 0,05 < p < 0,30؟ یا چگونه دیگر، توصیه می کنید، آیا باید ادامه دهم؟ | آیا افزایش داینامیک حجم نمونه، اگر قبلاً گفته شده باشد، مشکلی ندارد؟ |
44273 | من یک SVM (هسته RBF) با مجموعه داده ای از 1500 نمونه (متعادل) با استفاده از fminsearch در خطای CV برای بهینه سازی پارامتر (C و s) آموزش می دهم. بعد از اینکه بهترین پارامترها را یافتم (بهینه محلی ممکن) مدل خود را در کل مجموعه داده برای استخراج یک مدل نهایی مجدداً آموزش میدهم. آیا این کار عاقلانه ای است؟ آیا مدل نهایی مستعد نصب بیش از حد است؟ من عملکرد بدتری را روی دادههای دیده نشده تجربه میکنم که ممکن است خوب باشد زیرا CV در طول رویکرد بهینهسازی من یک تخمین خوشبینانه در مورد خطای تست ایجاد میکند. من فکر میکنم این یک مشکل کلی را حل میکند، اما هنوز نتوانستهام دلیل مناسبی پیدا کنم... آیا استفاده از تنها یکی از مدلهای معتبر متقاطع، جایگزین معقولی است؟ من فرض کردم که وقتی پارامترها ثابت شدند، مهم نیست که از چند نمونه دیگر برای آموزش استفاده کنم، مدل دچار اضافه برازش نخواهد شد؟ ممنون، پیر | آموزش مجدد SVM در کل مجموعه داده برای مدل نهایی --> بیش از حد برازش؟ |
6013 | من یک اسکریپت پایتون دارم که فهرستی از لیستهایی از زمان کارکرد سرور و دادههای عملکرد ایجاد میکند، که در آن هر فهرست فرعی (یا «ردیف») حاوی آمار یک خوشه خاص است. به عنوان مثال، با فرمت زیبا چیزی شبیه این به نظر می رسد: ------- ------------- ------------ ------- --- ------------------------------------------------------------------------------------------------------------------------------------------------------------------ --- ------------ ----------------------------- ams-a 98.099 1012 678 91 bos- a 98.099 1111 12 91 bos-b 55.123 1513 576 22 lax-a 99.110 988 10 89 pdx-a 98.123 1121 11 90 ord-b 75.005 1301 123 100 sjc-a 99.020 1000 10 88 ...(به همین ترتیب)... بنابراین در شکل فهرست، ممکن است به نظر برسد: [[ams-a,98.099,1012,678,91],[bos-a,98.099,1111,12,91],...] ### سوال من: * بهترین راه برای تعیین نقاط پرت در هر کدام چیست ستون؟ یا اینکه نشانه های پرت لزوما بهترین راه برای حمله به مشکل یافتن «بد» نیستند؟ در دادههای بالا، من قطعاً میخواهم درباره bos-b و ord-b و همچنین ams-a بدانم زیرا میزان خطای آن بسیار بالا است، اما بقیه موارد را میتوان نادیده گرفت. بسته به ستون، از آنجایی که بالاتر لزوماً بدتر نیست، و نه پایین تر است، سعی می کنم کارآمدترین راه را برای این کار بیابم. به نظر می رسد که از numpy برای این جور چیزها زیاد نام برده می شود، اما مطمئن نیستم که از کجا شروع کنم (متاسفانه، من بیشتر sysadmin هستم تا آماردان...). وقتی در Stack Overflow از او پرسیدم، شخصی به استفاده از تابع امتیاز در صدک Numpy اشاره کرد و چیزی بیش از صدک 99 را بیرون انداخت - آیا این ایده خوبی به نظر می رسد؟ (پست متقاطع از stackoverflow، در اینجا: http://stackoverflow.com/questions/4606288) | چگونه می توان نقاط پرت را در داده های عملکرد uptime سرور شناسایی کرد؟ |
43882 | من در حال انجام یک ANOVA مختلط مدل 2 X 3 (شرایط گروه X) هستم. در حال حاضر، من در حال بررسی فرضیات ANOVA، مانند نرمال بودن هستم. من باید به صورت مستقل گروه و شرایط را بررسی کنم، درست است؟ من این کار را به دو روش انجام دادم: 1) ابتدا نمونه را تقسیم کردم (انتخاب داده / فایل تقسیم ... و وارد کردن متغیر گروه) و سپس اجرای 1 نمونه تست کولموگروف-اسمیرنوف و انتخاب عادی توزیع. 2) بدون تقسیم نمونه، اما Analyze/Descriptive Statistics/Explore... را انتخاب کرده و متغیر گروه را به عنوان عامل وارد کرده و روی Plots... کلیک کرده و Normality plots with test را علامت بزنید. 1) تمام متغیرهایی را که کاملاً معنی دار نیستند برمی گرداند (0.80 < p < 0.90). 2) هر دو آزمون Kolmogorov-Smirnov و Shapiro-Wilk را اجرا کردند که اولی برای همه متغیرها معنیدار نبود (اما همه مقادیر p کمتر یا مساوی 0.20) بود، در عوض دومی در برخی موارد به طور قابل توجهی معنیدار بود (مثلا 0.012). نمیدونم به کدومش اعتماد کنم میشه کمکم کنید با تشکر | تست نرمال بودن مدل مخلوط آنوا در SPSS: من این کار را به دو صورت انجام دادم اما نتایج متضاد هستند |
85628 | آیا مرجعی برای تأثیر نمونههای کوچک بر تخمینهای MLE وجود دارد؟ به طور خاص تأثیر بر توزیع پارامتر. یعنی آیا باید به چیزی مانند توزیع _t_ با درجه آزادی کمتر به جای عادی برای توزیع پارامترها تغییر دهیم؟ | نمونه کوچک MLE |
79259 | چگونه می توانم یک متغیر مستقل غیرخطی را در رگرسیون لجستیک حساب کنم؟ به عنوان مثال، این مجموعه داده را در نظر بگیرید: b1 b2 b3 b4 b5 1 1 0 0 20 0 1 0 0 20 1 0 0 0 13 1 1 1 0 8 1 1 0 1 5 0 1 0 1 4 1 1 0 1 5 0 0 0 0 8 0 0 1 0 13 1 0 0 1 20 1 0 0 0 29 1 1 0 1 40 1 0 0 0 53 0 1 1 0 68 فرض کنید من برخی از داده ها را مانند موارد بالا جمع آوری کردم (فرض کنید 10000 ردیف داشتم) و می خواهم از آنها برای پیش بینی مجموعه های مشابه در آینده استفاده کنم. داده ها با یک معادله تولید شده توسط رگرسیون لجستیک. من داده های بالا را دریافت می کنم. متغیرهای مستقل من b1 تا b5 هستند. با نگاه کردن به داده ها، به وضوح می توانم متوجه شوم که متغیرهای مستقل b1 تا b4 باینری هستند (شاید آنها مرد/زن، اجاره/مالک و غیره باشند). با این حال من می بینم که b5 به وضوح باینری نیست. با ترسیم نمودار آن و مشاهده اعداد، مشخص می کنم که متغیر b5 دارای منحنی U شکل وان حمام با معادله b5=(x-4)^2+4 است. من می دانم که استفاده از متغیر b5 آنطور که هست رگرسیون لجستیک من را خراب می کند - زیرا هر متغیر مستقل فاصله ای باید یک رابطه خطی با متغیر وابسته داشته باشد. با این حال، من باید متغیر b5 را در مجموعه دادههای خود در نظر بگیرم، در حالی که یک رگرسیون لجستیک انجام میدهم تا دقیق باشد و به خوبی پیشبینی شود (درسته؟). با توجه به داده های بالا، چگونه می توانم یک مدل پیش بینی با رگرسیون لجستیک ایجاد کنم؟ هر گونه مرجع آنلاین یا در کتاب بسیار قابل قدردانی خواهد بود زیرا در یافتن توضیح خوب در مورد موارد فوق با مشکل مواجه هستم. به سلامتی =) ویرایش: ببخشید اگر سوال من نامشخص است. این را در نظر بگیرید: فرض کنید ما داده های زیر را در مورد بسیاری از افراد داشتیم: Y: اینکه آیا آنها قبل از 50 سالگی سکته کرده اند یا نه 1\. این که آیا آنها حیوان خانگی دارند یا نه. 2\. فارغ از اینکه از دانشگاه فارغ التحصیل شده اند یا خیر. 3\. چه مرد باشند چه ماده. 4\. تعداد ساعاتی که در هفته ورزش می کنند. ما میخواهیم یک مدل رگرسیون لجستیک بر اساس دادههای تاریخی آموزش دهیم تا پیشبینی کنیم که آیا فردی در آینده با دادههای مشابه قبل از سن 50 سالگی مستعد سکته مغزی خواهد بود یا خیر. مشکلی که من دارم مربوط به آخرین متغیر است. یک متغیر نسبت پیوسته مانند تعداد ساعات تمرین در هفته. ورزش بیشتر در هر هفته ممکن است باعث کاهش بازده سلامتی و در نتیجه سکته مغزی شود. به عنوان مثال کاهش نرخ افزایشی. یا شاید (کاملاً ساخته شده) کمی ورزش واقعاً برای شما خوب است، ورزش کردن به مقدار متوسط واقعاً برای شما بد است و ورزش زیاد دوباره برای شما واقعاً خوب است. برای مثال هنگام ترسیم سلامتی برای ورزش، ممکن است یک منحنی U شکل مانند (x-4)^2+4 داشته باشیم. من تصور می کنم که داشتن یک متغیر مستقل منحنی و غیر خطی در یک رگرسیون لجستیک مانند آنچه در بالا توضیح دادم باعث ایجاد مشکل می شود. درست میگم؟ و اگر چنین است، چه کارهایی می توانید انجام دهید تا همچنان متغیر را در رگرسیون لجستیک بگنجانید. شاید یک تحول؟ آیا این همه است؟ | چگونه می توانم یک متغیر غیرخطی را در رگرسیون لجستیک حساب کنم؟ |
94098 | من در حال ساخت یک پروژه مرتبط با شناسایی پویایی فروش هستم. پایگاه داده من مربوط به 26 هفته (به طور مساوی در 26 مشاهدات سری زمانی) پس از راه اندازی محصول است. من می خواهم بر اساس منحنی S برای خوشه های سری زمانی پیش بینی کنم. هدف اصلی مقایسه دو روش پیش بینی بود: => بر اساس پارامترهای منحنی لجستیک => بر اساس ARIMA، اما من نمی دانم چگونه این دو روش را مقایسه کنم، زیرا ARIMA بر اساس تفاوت های پیش بینی است و منحنی S فروش نهایی را پیش بینی می کند. . من با dm.test امتحان کردم اما منحنی S به دلیل مقیاس، مقادیر بیشتری از خطاها را دارد. بنابراین چگونه می توانم مقایسه کنم که کدام روش پیش بینی بهتر است؟ برای هر توضیحی ممنون میشم | چگونه روش های پیش بینی را بر اساس ARIMA و برازش منحنی مقایسه کنیم؟ |
72288 | من شنیدم که R-squared تنظیم شده از دو مدل فقط در صورتی قابل مقایسه است که دو مدل از متغیرهای پاسخ یکسان استفاده کنند. بنابراین اگر متغیر پاسخ در یک مدل Y و دیگری log(Y) باشد، نباید از R-squared تنظیم شده استفاده کنم. در عوض باید از AIC، BIC و غیره استفاده کنم. آیا این حقیقت دارد؟ | آیا مربع R تنظیم شده برای مقایسه مدل ها با متغیرهای پاسخ متفاوت مناسب است؟ |
94096 | من روی یک مسئله بهینه سازی مسیر کلی کار می کنم. همانطور که بسیاری از شما می دانید، هنگامی که وزن تمام گره ها تعیین می شود، ممکن است این مشکل به روش های مختلف حل شود. متأسفانه وزنه های ورودی خام من اغلب آنقدر نویز دارند که نمی توان مستقیماً از آنها استفاده کرد. بنابراین باید وزن ها را خودم تخمین بزنم. برخی از داده های حاشیه نویسی به من داده شده است، جایی که مسیرهای بهینه شده به صورت دستی ترسیم می شوند. من نمی دانم چگونه می توانم به طور موثر از این داده های حاشیه نویسی برای بهبود سیستم موجود خود استفاده کنم. به طور خاص، من $N$ روشهای مختلف حذف نویز دارم، هرکدام وزنهای تخمینی گره را به من میدهند، یا به طور معادل ویژگیهای $N$ برای هر گره دارم. آیا می توانم وزنه هایی را برای هر ویژگی تمرین کنم، به طوری که سیستم من از نظر نزدیکتر به داده های حاشیه نویسی بهتر کار کند؟ به هر حال، من قبلاً ابزارهایی برای ارزیابی شباهت بین دو مسیر داشتم. با این حال، استفاده مستقیم از این امتیازات شباهت به عنوان وزن ویژگی کمکی نمی کند، و سیستم مربوطه بدتر از بهترین سیستم من است. حدس من میگوید اگر بتوانم مجموعهای از وزنهای معقول را برای هر ویژگی پیدا کنم، ممکن است سیستمم را بهبود بخشم. دشواری مشکل اینجاست: اگر وزنهای تمیز در هر گره به ما داده شده باشد، میتوانیم یک رابطه تابع مستقیم بین ورودیها و خروجیها ایجاد کنیم، اما اکنون فقط مسیرهای بهینهسازی شده مشروح شده را داریم که فقط روی این دادههای تمیز منعکس میشود. تا حدی آیا کسی می تواند مطالب مرتبط با این مشکل را به من معرفی کند؟ با تشکر فراوان. | چگونه وزن ویژگی های ورودی را برای مسئله بهینه سازی مسیر آموزش دهیم؟ |
5081 | سلام دوستان همکار Number Cruncher همانطور که از عنوان نشان می دهد، من به دنبال یک کتابخانه جاوا برای یادگیری و استنتاج شبکه های بیزی هستم. من قبلاً برخی از آنها را پیدا کرده ام، اما امیدوارم برای توصیه. الزامات در یک مرور کلی سریع: * نوشته شده در جاوا (ارباب من به من می گوید که این موضوع بحثی نیست) * پیکربندی از طریق کد امکان پذیر است (و نه تنها از طریق رابط کاربری گرافیکی). * کد منبع موجود * پروژه همچنان حفظ می شود * هر چه قدرتمندتر باشد، بهتر کدام یک را توصیه می کنید؟ PS: این باید cw باشد. | کتابخانه جاوا برای شبکه های بیزی |
97030 | فرض کنید ما متغیر نتیجه Y و دو پیشبینیکننده X1 و X2 داریم، که در آن X1 و X2 بهگونهای از یک نوع دسته میآیند. به عنوان مثال، X1 نمره رابطه با دوستان و نمره X2 رابطه با خانواده است. یکسان نیست، اما آنها چیزی را با هم منعکس می کنند (در این مورد، روابط اجتماعی). من میخواهم مدلی را برای آزمایش این فرضیه ایجاد کنم که تنوع/تعادل پیشبینیکنندهها میتواند بر نتیجه تأثیر بگذارد. چیزی شبیه این: فرض کنید دو نفر هستند که هر دو در مجموع X1 و X2 امتیاز 10 دارند. من گمان می کنم که یکی با امتیاز 5 در X1 و 5 در X2 نتیجه بهتری نسبت به امتیاز 10 در X1 و 0 در X2 داشته باشد. من فکر می کنم یک مدل معمولی (Y = X1 + X2) یا یک اصطلاح تعاملی (Y = X1 + X2 + X1*X2) به نظر نمی رسد کار را انجام دهد. شاید نیاز به ایجاد متغیر(های) جدید باشد، اما مطمئن نیستم که کدام را ایجاد کنم. | چگونه می توان یک اثر ضربی را از این فرضیه مدل کرد؟ |
45104 | من 5 نوع مختلف از نرخ خطا را دیده ام. آنها عبارتند از: * **نرخ خطای مؤلفه** ****نرخ خطای آزمایشی** ******نرخ کشف نادرست** ****نرخ خطای خانوادگی قوی** * **فاصله های اطمینان همزمان** فرض کنید $H_0 = H_{ 01} \cap \cdots \cap H_{0K}$ در اینجا چند سؤال وجود دارد: 1. بنابراین اساساً اگر نرخ خطای مؤلفه $\alpha$ است، پس احتمال رد یک فرضیه در یک آزمون منفرد $\alpha$ است؟ 2. اگر میزان خطای آزمایشی $\alpha$ باشد، احتمال رد هر یک از $H_{0i}$ زمانی که همه $H_{0i}$ درست هستند، $\alpha$ است؟ 3. تفاوت بین FDR و میزان خطای آزمایشی چیست؟ آیا FDR میزان خطای آزمایشی را کنترل نمی کند؟ 4. آیا نرخ خطای قوی خانوادگی اساساً سختترین میزان خطا است؟ بنابراین FDR اجازه می دهد تا در صورتی که ما ردهای صحیح بیشتری داشته باشیم، اما نرخ خطای خانوادگی قوی اینطور نیست؟ 5. فواصل اطمینان همزمان باید پارامتر واقعی خود را با احتمال $1-\alpha$ پوشش دهند. اما یک بازه اطمینان منفرد پارامتر واقعی خود را با احتمال بیشتر از $1-\alpha$ پوشش می دهد؟ | انواع مختلف نرخ خطا زمانی که چندین مقایسه وجود دارد |
38534 | من یک مطالعه شبیهسازی روی یک مدل رگرسیون خطی ساده انجام میدهم تا ببینم برآوردگر OLS چقدر خوب عمل میکند. من قصد دارم از احتمال پوشش برای ارزیابی تخمین پارامتر شیب با استفاده از 1000 تکرار با حجم نمونه 100 استفاده کنم. در شبیه سازی انتخاب کنید 1. همه 100 مقدار $x_i$ را شبیه سازی کنید، مثلاً از یک توزیع عادی. سپس در هر یک از 1000 تکرار، از همان مقادیر 100 $x_i$ برای تولید $y_i$ استفاده کنید. 2. در هر 1000 تکرار، ابتدا 100 مقدار $x_i$ را شبیه سازی کنید و بر اساس این مقادیر کمکی، $y_i$ تولید کنید. هر کمکی قابل تقدیر است. | شبیه سازی متغیرهای کمکی در رگرسیون |
44274 | بسته censReg در R نتایج یکسانی را با Mplus برای رگرسیون سانسور شده ارائه می دهد. Mplus همچنین یک راه حل کاملا استاندارد ارائه می دهد. چگونه می توانم ضرایب censReg را مقیاس کنم تا استاندارد شوند (وزن بتا)؟ آیا استانداردسازی اثرات حاشیه ای در مدل های نتیجه سانسور شده منطقی است (به تابع margEff.censReg مراجعه کنید)؟ | راه حل استاندارد برای رگرسیون سانسور شده |
45100 | فرض کنید من 5 نقطه داده شناخته شده با مختصات $X$ دارم : ناحیه زیر منحنی $Y$ : Activity 5 نقطه دارای خطای فردی هستند ($\Delta X_{i}$,$\Delta Y_{i}$) در هر دو $ X$ و $Y$ و من می دانم که بهترین تناسب از این 5 نقطه برازش خطی است. پس از ترسیم 5 نقطه اصلی خود، یک نقطه دیگر دارم که فقط ناحیه زیر منحنی را می شناسم و نه فعالیت را. با معادله برازش 5 نقطه اصلی من، می توانم یک Activity را به نقطه 6 خود مرتبط کنم. آیا راهی برای ایجاد عدم قطعیت برای نقطه 6 من وجود دارد؟ من ایده هایی در مورد شیب های Max/Min دارم اما نمی دانم در این شرایط بهترین راه است یا نه... و به درخواست کسی باید فقط از Excel استفاده کنم. ممنونم!! | عدم قطعیت از تناسب خطی در داده های اضافی |
38537 | من می خواهم عملکرد 2 الگوریتم را با اعتبارسنجی متقاطع 10 برابری مقایسه کنم. روش صحیح چیست و چرا؟ * رویه الف: 1. 10 تاشو تولید کنید 2. الگوی 1 را با این 10 چین آزمایش کنید و نتایج را ثبت کنید. 3. 10 تای جدید ایجاد کنید 4. algo2 را با این 10 چین جدید آزمایش کنید و نتایج را ثبت کنید. 5. عملکرد را مقایسه کنید * رویه ب: 1. تولید کنید 10 فولد 2. algo1 را روی این 10 چین تست کنید و نتایج را ثبت کنید 3. algo2 را روی این 10 تا بزنید و نتایج را ثبت کنید 4. مقایسه عملکرد آیا این واقعیت که در روش A هر دو الگوریتم با چین های مختلف آزمایش می شوند، بر توانایی ما برای مقایسه نتایج تأثیر دارد؟ | تست عملکرد CV 10 برابری: آیا باید از تاهای یکسان برای هر دو الگوریتم ارزیابی شده استفاده کرد؟ |
36145 | من می خواهم ارتفاع درختان را در یک منطقه خاص با استفاده از متغیرهایی که از طریق سنجش از دور به دست آمده اند، پیش بینی کنم. مانند زیست توده تقریبی و غیره. من میخواهم ابتدا از یک رگرسیون خطی استفاده کنم (میدانم که این بهترین ایده نیست اما یک مرحله ضروری برای پروژه من است). میخواستم بدانم خودهمبستگی فضایی چقدر میتواند بر آن تأثیر بگذارد و اگر حتی ممکن است، سادهترین راه برای اصلاح آن چیست. اتفاقاً من همه چیز را در R انجام می دهم. پیشاپیش از شما متشکرم جی. | رگرسیون خطی و فضایی-خودهمبستگی |
85620 | من دیروز این مقاله را با علاقه خواندم http://statweb.stanford.edu/~ckirby/brad/other/Article1977.pdf و به طور تصادفی به این جمله رسیدم که اگر و فقط اگر میانگین جمعیت نزدیک به صفر باشد، خطر آن بیشتر است. (MSE) استفاده از نیمی از میانگین نمونه به عنوان تخمین برای میانگین جامعه کمتر از استفاده از میانگین است. من سعی کردم این را مدل کنم (متاسفانه در Crystal Ball / Excel، از R برای این کار استفاده نکردم) اما نتوانستم این نتیجه را تکرار کنم. در مثالهای من، ریسک (طبق MSE) برآورد نیمی از میانگین به میانگین تخمین نزدیکتر شد، اما هرگز کمتر نشد. واضح است که من ممکن است مفهوم را اشتباه متوجه شده باشم، اما اگر کسی بتواند این را به من نشان دهد / بیشتر توضیح دهد، بسیار علاقه مند خواهم بود، پیشاپیش بسیار متشکرم! | نیمی از میانگین به عنوان برآورد مغرضانه - پارادوکس استاین |
45109 | من از روشهای مختلفی برای درونیابی سطوح فضایی پیوسته (کریجینگ، اسپلاین، glm و غیره) استفاده میکنم. اکثر مطالعاتی که جزئیات کافی برای پیگیری من دارند، معمولاً بر روی یک روش خاص متمرکز هستند. آیا مطالعه ای وجود دارد که در آن مدل های قطعی و آماری با هم مقایسه شوند؟ من میدانم که انتخاب بهترین مدل با کمی کردن خطا و تکنیکهای آماری انجام میشود، آنچه من به دنبال آن هستم، مطالعات/نمونههایی است که برای نوع خاصی از مجموعه داده (ایستا، سریهای زمانی، اقلیم، توپوگرافی) نشان میدهد که مدل سازگارتر از مدل دیگر و چرا. | مدلهای درونیابی فضایی: قطعی در مقابل آماری |
114494 | استحکام لایه برداری ($Y$) مقاومت عکس در فرآیند لمینیت PCBها به فشار ($x$) و دما ($z$) بستگی دارد با این رابطه: $$Y = 50 + 5x + 10z + (20xz) -(.01(x^2)\cdot (z^2))$$ دما یک متغیر نویز است و دارای توزیعی با میانگین 100 و واریانس 25 است. مقدار فشار برای به حداکثر رساندن قدرت لایه برداری متوسط (نکته: حداکثر کردن E(Y)، که در آن انتظار با توجه به $z$ گرفته می شود) بنابراین اطلاعات اولیه: میانگین $z$ 100 و var برابر $z است. 25 دلار است. اما از اینجا کجا بروم؟ | یافتن مقدار فشار برای به حداکثر رساندن میانگین |
70496 | من در چند روز گذشته PyMC را یاد میگیرم و سعی میکنم مشکل زیر را مدلسازی کنم: تعدادی تأثیرگذار دارم که اهداف را با مقادیر شناخته شده تنظیم میکنند. برای برخی از اهداف عامل موثر شناخته شده است، اما برای برخی دیگر آنها فقط تا حدی شناخته شده اند. تعداد کل تأثیرگذارها و اهداف زیاد است، بنابراین من نمیتوانم آنها را به سادگی در کد خود برشمارم (یا از توزیع برنولی با قبل یکنواخت استفاده کنم). میتوانید اهداف را نمونههایی از توزیع **یک** اثرگذار (عادی) در نظر بگیرید. به عنوان مثال، فرض می کنیم که افکتورهای E1 و E2 و اهداف T1، T2 و T3 را داریم. ما می دانیم که: E1 -> T1، T2 E2 -> T2، T3 به این معنی است که E1 تنظیم کننده T1 است و E2 تنظیم کننده T3 است (یعنی T1 از E1 و T3 از E2 نمونه برداری می شود). برای T2، نمی دانیم که آیا با/نمونه برداری از E1 یا E2 تنظیم شده است یا نه، بنابراین فکر می کنم منطقی است که از توزیع طبقه بندی شده با پیشین دیریکله استفاده کنیم. یک ایده این بود که مجموعه داده های مشابه با این سوال را مدل کنیم و از یک نرمال مشاهده شده با ترکیبی از mu و tau برای هر عامل استفاده کنیم. در این مورد: * برای T1، 1*mu(E1) + 0*mu(E2) * برای T3 خواهد بود، 0*mu(E1) + 1*mu(E2) * برای T2، یک دیریکله با «tau=(1،1)» خواهد بود، اما چگونه می توانم این را در یک چارچوب ترکیب کنم؟ یک راه حل واضح می تواند استفاده از «tau=(1,0)» و «tau=(0،1)» برای T1 و T3 باشد، اما من نمی توانم احتمالات صفر را در دیریکله اختصاص دهم. حدس میزنم باید «مقوله» را تغییر دهم تا «0» را برای تنظیم نکردن افکتورها و دیریکله از همه افکتورهای ممکن (یا دیریکله را اصلاح کنم؟) برگردانم، اما مطمئن نیستم که چگونه این کار را انجام دهم. امکان دیگر این است که هر «E» را بهعنوان «نرمال» مدل کنیم و به هر مقدار «T» مبدا نامشخص اختصاص دهیم، اما نمیدانم این امکان وجود دارد یا نه. هر ایده ای؟ | مدلسازی نمونههایی با مبدا توزیع نامطمئن پیچیده با استفاده از PyMC |
5333 | من یک مدل خطی اثر مختلط دارم که امیدوارم به این سوال پاسخ دهد که آیا افزایش دفعات استفاده از یک کلمه منجر به افزایش فراوانی استفاده از آن کلمه توسط شخص دیگر در مکالمه می شود و اثرات تصادفی را فاکتور می کند. موضوع و موضوع گفتگو مدل پایه ای که من به آن رسیدم به این صورت است: مدل خطی ترکیبی متناسب با فرمول REML: relative.sents.A ~ relative.sents.B + (1 | id.A) + (1 | abstract) داده: AIC غیر صفر انحراف BIC logLik REMLdev -698.8 -683.9 354.4 -722.6 -708.8 اثرات تصادفی: نام گروه ها Variance Std.Dev. id.A (Intercept) 1.0790e-04 0.0103877 abstract (Intercept) 3.0966e-05 0.0055647 Residual 2.9675e-04 0.0172263 تعداد obs: 146، گروه: 146; Abstract, 52 Fixed Effects: Estimate Std. مقدار خطای t (Intercept) 0.017260 0.003046 5.667 relative.sents.B 0.428808 0.080050 5.357 همبستگی اثرات ثابت: (Intr) rltv.snts.B -0.742 - فرکانس ثابت و متغیر وابسته به استفاده از یک فرد است. نسبی است دفعات استفاده توسط دیگری تصمیم گرفتم ببینم R^2 چه خواهد بود: > cor(nonzero$relative.sents.A, fitted(nonzero.lmer))^2 [1] 0.6705905 برای اینکه ببینم چه نسبتی از این به دلیل اثر ثابت است، من یک مدل جدید تنها با اثرات تصادفی ساخته شده است: > خلاصه (r.only.lmer) مدل خطی ترکیبی متناسب با فرمول REML: relative.sents.A ~ 1 + (1 | id.A) + (1 | چکیده) داده: غیر صفر AIC BIC logLik انحراف REMLdev -678.2 -666.3 343.1 -696.7 -686.2 اثرات تصادفی: نام گروه ها واریانس Std.Dev. id.A (Intercept) 1.2868e-04 0.0113435 abstract (Intercept) 7.8525e-06 0.0028022 Residual 3.7643e-04 0.0194017 تعداد obs: 146، گروه: 7. Abstract, 52 Fixed Effects: Estimate Std. خطای t مقدار (Intercept) 0.029149 0.002088 13.96 ... و همین کار را امتحان کردم: > cor(nonzero$relative.sents.A, fitted(r.only.lmer))^2 [1] 0.6882534 در کمال تعجب، بدون آن اثر ثابت، به نظر می رسد R^2 افزایش می یابد! این یعنی مدل من بی فایده است؟ اگر چنین است، پیشنهادی در مورد چه چیزی ممکن است اشتباه باشد؟ یا من به نوعی این نتایج را اشتباه تفسیر می کنم؟ | تفسیر همبستگی از دو مدل خطی اثر مختلط |
10049 | من روی مجموعه داده های BRFSS با هدف پیش بینی دیابت کار می کنم. مجموعه داده دارای 500000 سطر و 405 ستون است. این یک مشکل طبقه بندی 0/1 است، نسبت 0 به 1 90:10 است. من سعی کردم از درختان تصمیم، رگرسیون لجستیک مجموعه ای از درختان تصمیم و رگرسیون لجستیک استفاده کنم و نرخ طبقه بندی اشتباه من در همه این روش ها تقریباً 14٪ است. * برای افزایش دقت چه کار کنم؟ من یک پست قبلی دیدم که میگفت نمونهبرداری فرعی یا تخصیص وزنهای مختلف کمک میکند. اما در مورد نسبت مطمئن نیستم. * بهترین نسبت برای شروع با چه نسبتی خواهد بود؟ * من با استفاده از SAS کار می کنم. آیا راهی برای انجام نمونه برداری فرعی در SAS وجود دارد؟ * من همچنین علاقه مندم که رویکرد وزنی را امتحان کنم. آیا راهی برای پیاده سازی این در SAS وجود دارد؟ ویرایش (28 آوریل 2011) من نمونه برداری فرعی را امتحان کردم و نرخ طبقه بندی اشتباه من از 14٪ به 23٪ افزایش یافت. نسبتی که من استفاده کردم برای کلاس های 0 و 1 50:50 بود. نسبت اصلی در داده ها 90:10 بود و با استفاده از داده ها همانطور که وجود دارد 14 درصد خطا داده است. بنابراین من معتقدم که نمونه گیری فرعی برای داده های من کار نمی کند. آیا راه دیگری برای بهبود دقت پیشنهاد می کنید؟ | بهبود دقت طبقه بندی باینری زمانی که هدف نامتعادل است |
114233 | اگر من یک متغیر Normally distributed با میانگین صفر و یک واریانس معین داشته باشم، این واریانس چگونه به واریانس شکل توانی مربوط می شود؟ | چگونه می توانم واریانس یک متغیر عادی توزیع شده را به واریانس تبدیل توانی مرتبط کنم |
38532 | من در مدل رگرسیون چند متغیری خود، باقیماندههای ناهمهمبسته و همبسته دارم. برآوردگر خطای استاندارد رگرسیون چندکی که در این مورد قوی است چیست؟ چیزی شبیه به HAC Newey West اما برای رگرسیون چندکی، یا شاید یک راهانداز. | (رگرسیون کوانتیل) کدام خطای استاندارد برای ناهمسانی و همبستگی سریال |
71726 | فرض کنید یک راه رفتن تصادفی روی $\\{0، \dots، n\\}$ با احتمالات انتقال داریم $$P(x, x + 1) = p \\\ P(x, x - 1) = 1 - p$$ برای $1 \le x \le n -1$، $P(0، 1) = a$، $P(0، 0) = 1 - a$، $P(n، n - 1) = b$ و $P(n, n) = 1- b$ من باید بردار حالت پایدار $\pi$ را برای این پیاده روی تصادفی محاسبه کنم. ابتدا پنج معادله تفاوت $$\pi(x + 1)(1-p) + \pi(x - 1)p = \pi(x) \ \ \ \ \ \ \ \ 2 \le x \le را یادداشت کردم n -2$$$$\pi(0)(1 - a) + \pi(1)(1 - p) = \pi(0)$$$$\pi(0)a + \pi(2) (1 - p) = \pi(1)$$ $$ \pi(n-1)p + \pi(n)(1 - b) = \pi(n)$$$$\pi(n - 2)p + \pi( n)b = \pi(n-1)$$ و همچنین شرط $$\sum_{k=0}^n \pi(x) = 1$$ داریم. جواب کلی معادله اول $$\ است. pi(x) = k_1 + k_2\bigg(\frac{p}{p-1}\bigg)^x, \ \\, p \ne 1/2 $$$$\pi(x) = k_1 + k_2x, \ \ \\ p = 1/2$$ من مطمئن نیستم که باید چه کار کنم. هر کمکی قابل تقدیر است. | محاسبه بردار احتمال حالت پایدار یک راه رفتن تصادفی روی $\{0, 1, \dots, n\}$ |
114495 | در مقاله، شناسایی سیستم با استفاده از توالی آشفته نمادین، تالیف A. Kurian و H. Leung لینک دانلود در بخش II B، لطفاً کسی توضیح دهد که چگونه از مرحله (8) به معادلات (10) برویم؟ این مقاله نحوه تخمین حالتها و پارامترها را با استفاده از EM-UKS (بیشینهسازی انتظار با صافکننده کالمن بدون بو) برای مدل میانگین متحرک (MA) که توسط ورودی قطعی هدایت میشود، توضیح میدهد. نویسندگان فرض میکنند که دینامیک سیستم آشفته زیرین که دنباله ورودی را تولید میکند شناخته شده است. بنابراین، مجموعه پارامترهای مجهول عبارتند از ضرایب مدل $h$، شرایط اولیه سیگنال قطعی $c_0$ و واریانس نویز $\sigma_w^2$. با فرض اینکه مدل در معادله (1): $y(n) = h^T z(n) + w(n)$ با نویز سفید گاوسی $w(n)$ خراب شده باشد، مدل MA بیش از خروجی پسرفت می کند. یک سیستم قطعی $z_n$. بنابراین، ورودی مدل MA $z(n)$ است که از یک سیستم قطعی آشفته به دست می آید. اکنون، $z(n)$ به دنباله باینری $s_n$ تبدیل می شود که مقادیر آن فقط در [-1,1] توسط معادله (3) است. نویسندگان $\theta$ را تخمین می زنند که شامل: حالات $z(n)$، پارامترها/ضرایب ناشناخته $h$ مدل MA، شرایط اولیه $c_0^s$ مورد استفاده برای تولید $z(n) است. $ و واریانس نویز اندازه گیری. آنها می گویند که از آنجایی که $z(n)$ از یک سیستم قطعی به دست می آید، تخمین شرط اولیه کل سری زمانی را بازسازی می کند. بنابراین، مجموعه پارامتر مجهول $\theta = [h, c_0^s,\sigma^2_w]$ Q1: چرا این فرض لازم است که دینامیک باید شناخته شود؟ آیا دانستن دینامیک به این معنی است که شکل عملکردی مدل قطعی در معادله (11) شناخته شده است و چرا این فرض مورد نیاز است؟ Q2: مشکل من این است که نمی توانم بفهمم که چگونه تخمین ها پس از مرحله انتظار در مرحله حداکثرسازی به دست می آیند. نتایج مرحله حداکثر سازی در معادله حالت فیلتر کالمن بدون بو جایگزین می شود. هر کمکی بسیار مفید خواهد بود. | قادر به درک اشتقاق Expectation Maximizaton نیستم |
36148 | من سعی می کنم یک مدل اثرات تصادفی و متقاطع 3 سطحی را در یک نتیجه پیوسته برای تخمین مولفه های واریانس مربوطه هر سطح از 3 (برای پزشکان) قرار دهم * سطح 3: شناسه پزشکان * سطح 2: شناسه بیمار * سطح 1: مرحله (1 و 2) برای این مطالعه، هر یک از پزشکان میزان مرگ و میر همه بیماران را در دو نوبت پیشبینی کردهاند. بنابراین پزشک و بیمار اثر متقابل دارند و بیمار و مرحله تو در تو میشوند (من فکر میکنم). من فرض کردم که شناسه پزشکان با بیمار تلاقی دارد و بیمار با مرحله تو در تو است. من مدل اثرات تصادفی متقاطع را برای این داده امتحان کردم Model1: xtmixed mortality_est || دکتر: آر. بیمار|| doktorsid:R.stage Model2: xtmixed mortality_est || دکتر: آر. بیمار|| دکتر: آر. مرحله|| بیمار: xtmixed mortality_est ||stage:||doctorsid:R.patient||z:، واریانس اما همگرا نشد هر پیشنهادی بسیار قدردانی خواهد شد. | مدل سه سطح اثرات مختلط (تقاطع و تودرتو) در stata |
18739 | من با الگوریتمهای یادگیری نظارتشده مانند رگرسیون و شبکههای عصبی آشنا هستم که به مجموعهای از نقاط ورودی نگاه میکنند و تابعی را یاد میگیرند که یک مقدار را خروجی میکند (مقدار بسته به اینکه الگو یک طبقهبندیکننده، رگرسیون لجستیک یا رگرسیون استاندارد باشد متفاوت است). اما من اکنون با مشکلی روبرو هستم که هر مشاهده ای که دارم چند نقطه داده است (داده های TAQ) و سپس بعد از مقدار ثابتی از اینها به صورت زمانی رویدادهای طبقه بندی شده یک سنبله است و آنچه به نظر می رسد به دنبال یک فروپاشی نمایی است به معنای بازگشت است. هر نمونه ای از این دست که در اینجا توضیح داده می شود یکی از مشاهدات من است و هدف من پیش بینی/مدل سازی این واپاشی نمایی است. چه نوع الگوریتم هایی چنین کاری را انجام می دهند؟ مدلهای سری زمانی a-la ARCH/GARCH و به دنبال آن نگاهی به پیشبینی N مرحله بعد از آموزش آنها یا چه چیز دیگری؟ با تشکر از شما، هر نوع پیشنهاد یا توصیه / مرجع بسیار قدردانی می شود. | الگوریتم هایی برای پیش بینی چند نقطه در آینده |
87818 | من نیاز به انجام خوشه بندی و طبقه بندی سری های زمانی فروش هفتگی محصولات مختلف دارم. داده های من فروش هفتگی محصولات مختلف در مناطق مختلف (فروشگاه) است. چالش های این مشکل عبارتند از: \- سری های زمانی معمولاً کوتاه هستند: 10-52 امتیاز (هفته). \- سری های زمانی ممکن است داده های صفر زیادی داشته باشند. محصولات هر هفته به فروش نمی رسند. \- همه محصولات در یک تاریخ شروع به فروش نمی کنند. این می تواند منجر به سری های زمانی با جابجایی شود. حتی چرخه عمر معمول یک محصول را می توان در تقویم در فروشگاه های مختلف جابجا کرد. \- فروش ممکن است دارای نویزهایی مانند رویدادهای تصادفی، تبلیغات و غیره باشد. نمونه ای از داده ها مانند این است: 20140105,prod1,store1,5 20140119,prod1,store1,10 20140126,prod1,store1,2 .... 20140105 ,فروشگاه2,2 20140112,prod1,store2,3 .... 20140112,prod2,store3,4 20140126,prod2,store3,7 آیا کسی می تواند بینشی در مورد نحوه انجام این کار به اشتراک بگذارد؟ آیا استفاده از روشی مانند DTW برای مقایسه سری های زمانی خوب است؟ در مورد پیاده سازی R راه خوبی برای رفتن به نظر می رسد. کدام بسته ها را پیشنهاد می کنید؟ | خوشه بندی سری های زمانی فروش با تغییر زمان |
33513 | در حال خواندن مقاله ای از فیلیپ اس. کوت در DAGJK: The delete-a-group jackknife بودم. مجله آمار رسمی، 17 (4): 521-526. (متن کامل به صورت رایگان در دسترس است) من پیشینه نظرسنجی/نمونهبرداری زیادی ندارم، بنابراین در درک برخی از مقاله با کمی مشکل مواجه هستم. 1. واحد نمونه اولیه (PSU) دقیقا چیست؟ یک مثال فوق العاده مفید خواهد بود. 2. در بخش دوم، Kott فرض میکند که $t=\sum_{h=1}^{H}\sum_{j=1}^{n_h}t_{hj}$ و او $q_{hj}=t_ را تعریف میکند. {hj}-t_{h+}$، که در آن $t_{h+}=\sum t_{hg}/n_h$ با مجموع تمام PSUها در $h$. چگونه او به فرمول واریانس، $\textrm{Var}(t_{h+})=\frac{n_h}{n_h-1}\sum_{j=1}^{n_h}q_{hj}^2$ رسید ? | جزئیات در مورد چاقوی حذف یک گروه |
87170 | من در حال توسعه یک پرسشنامه هستم. برای بهبود پایایی و روایی آن می خواهم از روش های آماری استفاده کنم. من می خواهم سوالاتی را که پاسخ آنها همیشه یکسان است حذف کنم. این بدان معنی است که تقریباً همه شرکت کنندگان در مورد آن سؤالات پاسخ های یکسانی دادند. اکنون سؤالات من این است: 1. اصطلاح فنی برای چنین سؤالات بیهوده ای که مستقل از زمینه استفاده، پاسخ های آنها همیشه یکسان است چیست؟ 2. روش هایی برای شناسایی این گونه سوالات چیست؟ | شناسایی سوالات بی فایده از پرسشنامه |
87172 | من سعی میکنم برخی از دادهها را با استفاده از یک پیادهروی تصادفی مدلسازی کنم، اما پس از تبدیلهای افزایش استاندارد و ثبت (دادههای مالی) برای ثابت بودن نشان داد که در بازههای زمانی طولانی، هنوز واریانس ثابتی وجود ندارد. اکنون بهترین راه برای ادامه چیست؟ یا، آیا تحولات بیشتری وجود دارد که میتوانم برای رسیدگی به عدم ثابت بودن تبدیلهای استاندارد در نظر بگیرم. | مدلسازی پیاده روی تصادفی غیر ثابت |
5083 | نسبت سیگنال به نویز ساده است و معمولاً در چارچوب مدلهای سطح محلی ساده گاوسی تعریف میشود. در علت مدلهای سیگنال یا نویز غیر گاوسی، آیا افراد کارها را پیچیدهتر از نسبت واریانس دو توزیع انجام میدهند؟ | تعمیم نسبت سیگنال به نویز برای فرآیندهای غیر گاوسی |
12398 | من تازه وارد آمار هستم و در حال حاضر با ANOVA سر و کار دارم. من یک آزمایش ANOVA را در R با استفاده از aov (dependendVar ~ IndependendVar) انجام می دهم - در میان دیگران - یک مقدار F و یک مقدار p دریافت می کنم. فرضیه صفر من ($H_0$) این است که تمام میانگین های گروه برابر هستند. اطلاعات زیادی در مورد نحوه محاسبه F وجود دارد، اما من نمی دانم چگونه یک آماره F را بخوانم و چگونه F و p به هم متصل می شوند. بنابراین، سوالات من این است: 1. چگونه می توانم مقدار F بحرانی را برای رد کردن $H_0$ تعیین کنم؟ 2. آیا هر F یک مقدار p متناظر دارد، بنابراین هر دو اساساً به یک معنا هستند؟ (به عنوان مثال، اگر $p<0.05$، آنگاه $H_0$ رد می شود) | چگونه F- و P-value را در ANOVA تفسیر کنیم؟ |
44272 | نمیدانم، آیا میتوانیم معادلات دیفرانسیل تصادفی را مدلهای مولد بگوییم. من معمولاً به فیلتر کالمن فکر میکنم، به عنوان مثال، ما یک معادله تکامل زمان گسسته یک شی خاص را که یک معادله دیفرانسیل در حوزه پیوسته است، اصلاح میکنیم و سپس از این مدل به عنوان یک مدل تولیدی برای استخراج الگوریتمهای استنتاج در یک محیط بیزی استفاده میکنیم. سپس، آیا می توانیم بگوییم که تمام معادلات دیفرانسیل شامل اصطلاحات نویز مدل های مولد برخی از پدیده های اساسی هستند؟ PS (7 دسامبر 2012): اگرچه در نظرات به آن پرداخته شده است، با افزودن یک مثال عینی یک بار دیگر شانس خود را فشار می دهم. معادله تفاوت تصادفی را در نظر بگیرید، $$x_{t+1} = x_t + w_t$$ که در آن $w_t \sim \mathcal{N}(0,1)$. سپس، میتوانیم با عبارات احتمالی، $$p(x_{t+1}|x_t) = \mathcal{N}(0,x_t)$$ بنویسیم و این یک مدل تولیدی است. البته می توانیم معادله دیگری مانند یک مدل مشاهده بنویسیم و این تصویر به طور کامل یک سیستم دینامیکی تصادفی زمان گسسته و همچنین یک مدل مولد را تعریف می کند. سپس سوال خود را مطرح می کنم: آیا مرجع خاصی وجود دارد که این رابطه را ترویج کند؟ یا برای محققین هر دو طرف کاملاً پیش پا افتاده و بدیهی است؟ با تشکر | معادلات دیفرانسیل به عنوان مدل های مولد |
5330 | سلام اول عذرخواهی می کنم، من یک زیست شناس هستم و در آمار چندان خوب نیستم. در مطالعه خود من در حال مطالعه تأثیر غلظت خوراک بر رشد یک نمونه خاص هستم. من غلظت های مختلف و داده های رشد برای هر غلظت را با خود دارم. پیشنهاد شما بهترین آزمون آماری برای یافتن بهترین غلظت (یعنی حداکثر رشد) است. پیشاپیش ممنون | کدام آزمایش برای یافتن بهترین غلظت (آزمایشی که بیشترین تأثیر را دارد)؟ |
115004 | به روز رسانی در پایین - راه حل و مانع جدید هیجان انگیز! به روز رسانی شماره 2: حل شد. جزئیات در پایین این یک سوال ترکیبی آمار/برنامهنویسی است، بنابراین اگر جای دیگری مطرح شود، عذرخواهی میکنم. من از بسته افکتها و ggplot2 برای تجسم افکتهای تعامل از یک مدل خطی چند متغیره استفاده میکنم. من از effect() برای استخراج مقادیر برای رسم در ggplot استفاده می کنم. متغیرهای پاسخ من بسیار غیر چند متغیره-نرمال هستند، بنابراین من از bootstrapping برای تخمین فواصل اطمینان برای همه ضرایب رگرسیون تا کنون استفاده کرده ام. بنابراین من همچنین میخواهم فواصل اطمینان را برای ترسیم اثرات متقابل به جای استفاده از CIهای ارائه شده توسط effect() بوت استرپ کنم. من با این بخش مشکل دارم - مدام با این خطا مواجه می شوم که ورودی تابع بوت من پیدا نمی شود: خطا در is.data.frame(data): شیء 'd' پیدا نشد. با محیط ها و فضای نام های مختلف و ... چیزهای مختلف. من فقط ابتدایی ترین درک را از آن قسمت دارم. من به دنبال راهحلهایی گشتم و سعی کردم آنچه را که پیدا کردهام تطبیق دهم: قاب دادهای را که دارای پیشبینیکنندههای من است، تخصیص مقادیر و توابع به محیطهای مختلف و/یا استفاده از do.call درون تابع. اما صادقانه بگویم که من فقط در مورد آن کوبنده هستم، و هیچ شانسی نداشته ام. برای هر راهنمایی ممنون میشم من به رویکردهای دیگر (یعنی عدم استفاده از بسته افکت) به سمت هدف CI های تقویت شده برای نمودارهای تعامل باز هستم. من در مورد بهترین راه برای نگه داشتن متغیرهای دیگر در مقادیر «معقول» یا اینکه آیا این مقادیر باید در امتداد محور x نمودار جابجا شوند و غیره روشن نیستم. far: # برخی از متغیرهای پاسخ: y1 <- rlnorm(n=100, mean=0, sd=2) y2 <- rlnorm(n=100, mean=20, sd=2) y3 <- rnorm(n=100, mean=20, sd=3) resp <- cbind(y1, y2, y3) # برخی از متغیرهای پیش بینی کننده: x1 <- sample(0:1, اندازه=100، جایگزین=صحیح) x2 <- rnorm(n=100، میانگین=0، sd=3) x3 <- factor(sample(c(Thanks, For, Your, Help), size=100, replace=TRUE)) pred <- data.frame(cbind(x1, x2, x3)) نیاز دارد( Effects) require(boot) # برازش مدل mod <- lm(resp ~ .^2, data=pred) # تابع سفارشی بنابراین effect() یک قاب داده را به جای یک شی eff effectdf برمی گرداند. <- function(...) {suppressWarnings(as.data.frame(effect(...))) } # مطمئن شوید همه چیز تا اینجا کار می کند effectdf(c(x1:x2), mod, answer= y1) effectdf(c(x1:x3), mod, answer=y2) به نظر میرسد # افکتها به خوبی کار میکنند، و میتوانید ببینید که ستون 3، fit، # همانی است که میخواهم راهاندازی کنم و بدست آوردن CIs # تابع بوت را bf <- تابع (داده ها، شاخص ها، فرمول، تعامل، پاسخ) { d <- داده[شاخص ها،] متناسب <- lm(فرمول، داده=d) اثرات <- effectdf(تعامل، تناسب، پاسخ) eff.fit <- اثرات[, 3] } x12_y1 <- boot(formula=resp ~ .^2, data=pred, R=99, statistic=bf, interaction=x1:x2, answer=y1) # خطا در is.data.frame(data) : شیء 'd' یافت نشد بسیار متشکرم از وقت و توجه شما به روز رسانی: من واقعاً درک مؤثرم از مشکل را افزایش نداده ام، اما راه حلی پیدا کرده ام. با بارگذاری پارامترها از فراخوانی به boot()، و قرار دادن آنها به طور مستقیم در تابع بوت سفارشی، راهی برای دور زدن هر مشکل فضای نامی که رخ میداد پیدا کردم. من همچنین باید آن را به عنوان مدل تک متغیره چندگانه اجرا کنم - که به هر حال effect() این کار را انجام می دهد. فکر میکنم مشکل به روشی مربوط میشود که افکت() به دنبال دادههای اصلی میگردد تا پاسخ چند متغیره را در هنگام محاسبه افکتها بهعنوان تک متغیره تغییر دهد. بنابراین اکنون اینگونه به نظر میرسد: # تابع بوت را بسازید. x1:x2، fit) eff.fit <- effect[, 3] } x12_y1 <- boot(data=pred, R=99, statistic=bf) دیگر همان خطا را نمی دهد. اکنون خطای وحشتناک > Error in boot (داده = pred، R = 999، آمار = bf) را پرتاب می کند: تعداد مواردی که باید > جایگزین شوند مضرب طول جایگزینی نیستند که ظاهراً من فقط با حذف عوامل از مدل رگرسیونی خود می توانم آن را حل کنم - که یک گزینه نیست چرا برای ضرایب رگرسیون می توانم CI ها را بوت کنم اما برای اینها نه؟؟؟؟ هر بینشی بسیار قابل قدردانی است. به روز رسانی شماره 2: همانطور که دایان کوک بعداً پیشنهاد کرد (از حضور شما متشکرم!)، من از debug() استفاده کردم و متوجه شدم که هنگام فراخوانی model.frame() خطا رخ می دهد. جستجوی پیغام خطا و model.frame من را به این باور رساند که مشکلی با NAهای ایجاد شده توسط نمونهبرداری مجدد از عوامل نامتعادل است. من na.action را در lm() در تابع بوت سفارشی از na.omit به na.exclude تغییر دادم و درست شد! من پست های زیادی در مورد پیام خطا برای بوت دیده ام، اما هیچ کدام به این راه حل اشاره نکرده اند. پس بگذار | افکت های تعامل بوت استرپ با boot() و بسته افکت - مشکلات محیطی؟ |
108837 | آیا استفاده از PCA (تحلیل مؤلفه اصلی) روی مجموعه ای از متغیرهای پاسخ Y و سپس انجام یک رگرسیون چندگانه، یا انجام یک رگرسیون چند متغیره همه متغیرهای پاسخ همانطور که هستند، منطقی است؟ من 4 متغیر پاسخ و 2 متغیر پیش بینی دارم که همگی پیوسته هستند. | استفاده از PCA برای کاهش متغیرهای پاسخ یا رگرسیون چند متغیره؟ |
17811 | **زمینه.** من میخواهم یک خط رگرسیون را برای بررسی رابطه بین برخی از متغیرهای پاسخ $y$ و برخی متغیرهای کمکی پیوسته $x$ قرار دهم. به دلیل وجود نقاط اهرمی بد، من یک تخمینگر MM را به جای برآوردگر LS معمولی انتخاب کردم. **روششناسی.** اساساً، برآورد MM، تخمین M است که توسط یک تخمینگر S مقداردهی اولیه میشود. بنابراین، دو تابع از دست دادن باید انتخاب شود. من تابع از دست دادن Tukey Biweight را انتخاب کرده ام )^{2} \right]^{3} & \textrm{if } | u | \leq k \\\ 1 & \textrm{if } | u | > k، \end{array} \right.$ با $k = 1.548$ در تخمینگر S اولیه (که نقطه شکست برابر با $50 \%$ میدهد)، و با $k = 2.697$ در تخمین M مرحله (برای تضمین کارایی گاوسی 70$\%$). من می خواهم از R برای تناسب با خط رگرسیون قوی خود استفاده کنم. **سوال.** library(MASS) rlm(y~x, method=MM, k0=1.548, c=2.697, maxit=50) * آیا کد من با پاراگراف قبلی مطابقت دارد؟ * آیا از آرگومان های اختیاری دیگر استفاده می کنید؟ **ویرایش.** پس از بحث من با @Jason Morgan، متوجه شدم که کد قبلی من اشتباه است. (@Jason Morgan: از این بابت بسیار متشکرم!) با این حال، من هنوز از پیشنهاد او متقاعد نشده ام. در عوض، این چیزی است که اکنون پیشنهاد میکنم: library(robustbase) lmrob(y~x، tuning.chi=1.548، tuning.psi=2.697) فکر میکنم اکنون به روششناسی پایبند است. ** موافقید؟ ** ممنون! | یک خط رگرسیون قوی را با استفاده از تخمینگر MM در R تنظیم کنید |
3930 | اکثر توزیع های استاندارد در R دارای یک خانواده از دستورات هستند - pdf/pmf، cdf/cmf، چندک، انحرافات تصادفی (به عنوان مثال- dnorm، pnorm، qnorm، rnorm). من می دانم که استفاده از برخی دستورات استاندارد برای بازتولید این توابع برای توزیع های یکنواخت گسسته به اندازه کافی آسان است، اما آیا در حال حاضر یک خانواده ترجیحی داخلی از توابع برای مدل سازی توزیع های یکنواخت گسسته در R وجود دارد که من از آن بی اطلاعم؟ | آیا توابع پیش فرض برای توزیع های یکنواخت گسسته در R وجود دارد؟ |
17819 | من در حال مطالعه جمعیتی هستم که از چند زیرجمعیت تشکیل شده است. من به مدل هایی برای کل جمعیت و هر یک از جمعیت های فرعی نیاز دارم. به طور عجیبی، مجموع متغیر مورد علاقه برآورد شده در میان جمعیت های فرعی با متغیر مورد علاقه برآورد شده برای کل جمعیت متفاوت است. **برخی جزئیات.** متغیر علاقه (VOI) تعداد افرادی است که کاری را انجام داده اند. مشاهدات برای چندین سال و برای چندین کشور است -- این داده های تابلویی است. من متغیر وابسته (DV) را به عنوان logit نسبت (VOI / جمعیت کشور) تعریف کردم. این دگرگونی برای من بسیار منطقی است و بهترین تناسب را برای VOI ایجاد می کند. من VOI تخمینی را با تخمین DV با استفاده از مدل و سپس لغو تبدیل محاسبه میکنم. برای هر زیرجمعیت، مدل هایی را با استفاده از رگرسیون گام به گام با اثرات ثابت پیدا کردم. من باید پیش بینی کنم که اگر متغیرهای مستقل مقادیر خاصی داشته باشند، چه اتفاقی برای VOI می افتد. VOI پیش بینی شده VOI تخمین زده شده با متغیرهای مستقل روی آن مقادیر تنظیم شده است. **مشکل** مربوط به VOI پیش بینی شده است. به طور منطقی، مجموع VOI در میان جمعیت های فرعی باید با VOI برای کل جمعیت برابر باشد، زیرا این تعداد افراد هستند. در عمل، مجموع VOI پیشبینیشده برای جمعیتهای فرعی **بسیار** متفاوت از VOI پیشبینیشده کلی است. من فکر نمی کنم که این به خودی خود اشتباه باشد. در هر مورد، من بهترین پیشبینی را مشروط به آگاهی (یا فقدان آن) از زیرجمعیت میکنم. آیا این درست است؟ اما حتی اگر اشتباه نباشد، بد به نظر می رسد. افرادی که در حال خواندن مقاله هستند شکایت خواهند کرد. ایده ها؟ | مجموع برآوردهای زیرجمعیت با برآورد کل برابر نیست. آیا این درست است؟ |
89998 | من از HMM در پروژه خود استفاده می کنم. بعد از ویتربی میتونم دنباله ای بگیرم مثلا 00000000000011111011111100000000000001111111111111...... 0 در دنباله 111110111111 ممکن است اشتباه رمزگشایی شده باشد. زیرا در شرایط واقعی، یک حالت باید با هم اتفاق بیفتد. آیا الگوریتمی برای حل این مشکل وجود دارد؟ علاوه بر این، چگونه می توان احتمال مشاهده یک دنباله را محاسبه کرد. با تشکر | چگونه حالات مسیر ویتربی را ترکیب کنیم؟ |
89991 | برای بررسی مدل از کدام binnedplot گلمر استفاده کنم؟ باقیمانده ها در برابر مقادیر پیش بینی شده بدون قسمت تصادفی (REform=NA) یا باقیمانده ها در برابر مقادیر پیش بینی شده با قسمت تصادفی (REform=NULL)؟ من یک متغیر پاسخ باینری (y.10) دارم که از یک متغیر پیوسته با حدود 50 تا 75 درصد صفر مشتق شده است. من میخواهم احتمال فراتر از حد 10 را مدل کنم. برای این مثال، من فقط از یک قطعات پیشبینیکننده استفاده کردم که با گرفتن لگاریتم تبدیل میشود تا توزیع نرمال و برازش بهتر بعدی به دست آید. همه متغیرها در مناطق درختی (منطقه) اندازه گیری می شوند. در داخل این مناطق، پلات (پلات) متفاوتی وجود دارد و مجموعه ای از نمونه ها از برخی اشیا (شیء) گرفته شده است. برای بررسی باقیمانده ها از binnedplot استفاده کردم که در پاسخ سوال توضیح داده شد: نمودار باقیمانده های غیرمنتظره مدل خطی مختلط با استفاده از lmer (بسته lme4) در R. برای صرفه جویی در زمان محاسبه با مدل های بسیار پیچیده ابتدا با glm {stats} مدل کردم و بر این اساس مدل با متغیرهای کمتر با glmer{lme4} به دست می آید. با انجام این کار می توانم تفاوت بزرگی را در نمودار باند شده باقیمانده ها مشاهده کنم. برای بررسی تفاوت ها این مثال را تنها با یک متغیر ایجاد کردم. همانطور که در تصویر زیر مشاهده می کنید مدل های glm و glmer بدون قسمت تصادفی رفتار بسیار مشابهی از خود نشان می دهند. در پایان بخش تصادفی برای علاقه نیست. من به بخش تصادفی فقط در هنگام انتخاب مدل نیاز دارم. برای بررسی مدل از کدام binnedplot گلمر استفاده کنم؟ باقیمانده ها در برابر مقادیر پیش بینی شده بدون قسمت تصادفی (REform=NA) یا باقیمانده ها در برابر مقادیر پیش بینی شده با قسمت تصادفی (REform=NULL)؟ کد و تصویر حاصل در اینجا آورده شده است: fit.glm=glm(y.10 ~ x.t , data=data, family=binomial) fit.glmer=glmer(y.10 ~ x.t + (1|region) + (1|نقشه) + (1|شیء)، داده=داده، خانواده = بینومیال) y.glm=predict(fit.glm، نوع =response) y.glmer=predict(fit.glmer,REform=NA,type=response) y.glmer.ran=predict(fit.glmer,REform=NULL,type=response) par(mfrow =c(2,2)) نمودار(y.10~x, data=data, type=n, main=Models) نقاط (y.glmer.ran~data$x، col=سبز، pch=4، cex=0.5) خطوط (y.glm~data$x، col=red) خطوط (y.glmer~data$ x, col=darkgreen) binnedplot(fitted(fit.glm),resid(fit.glm), main=Binned residual plot glm) binnedplot(y.glmer.ran,resid(fit.glmer), main=Binned residual plot glmer(REform=NULL)) binnedplot(y.glmer,resid(fit.glmer), main=Binned residual plot glmer( REform=NA))  | از مقادیر پیشبینیشده با یا بدون بخش تصادفی برای رسم باقیماندهها با نمودار binned یک رگرسیون لجستیک در glmer (بسته lme4) در R استفاده کنید؟ |
5087 | روشهای متعددی برای خوشهبندی دادههای عملکردی بر اساس توابع پایه متعارف وجود دارد. من مجموعهای از مدلهای ساختهشده با مدلهای GAMM را دارم که از «gamm()» از بسته mgcv در R استفاده میکنند. برای تطبیق یک روند طولانیمدت، از یک اسپلاین رگرسیون صفحه نازک استفاده میکنم. در کنار آن، یک مدل CAR1 در مولفه تصادفی برای تصحیح همبستگی خودکار معرفی میکنم. برای اطلاعات بیشتر، به عنوان مثال مقاله سایمون وود در مورد خطوط رگرسیون صفحه نازک یا کتاب او در مورد مدلهای GAM را ببینید. حالا من کمی گیج هستم که چگونه ضرایب صحیح را از مدل ها بیرون بیاورم. و من حتی کمتر مطمئن هستم که ضرایبی که می توانم استخراج کنم، ضرایبی هستند که باید برای خوشه بندی مدل های مختلف استفاده کنم. یک مثال ساده، با استفاده از: #runnable code require(mgcv) require(nlme) library(RLRsim) library(RCcolorBrewer) x1 <- 1:1000 x2 <- runif(1000,10,500) fx1 <- -4*sin(x1/ 50) fx2 <- -10*(x2)^(1/4) y <- 60+ fx1 + fx2 + rnorm(1000,0,5) تست <- gamm(y~s(x1)+s(x2)) # end runnable code سپس می توانم مبنای اصلی را با استفاده از smoothCon بسازم: #runnable code um <- smoothCon (s(x1),data=data.frame(x1=x1), knots=NULL,absorb.cons=FALSE) #end کد قابل اجرا اکنون، وقتی به توابع پایه نگاه می کنم، می توانم با استفاده از # کد قابل اجرا X <- extract.lmeDesign(test$lme)$X Z <- extract.lmeDesign(test$lme)$Z op <- par(mfrow=) استخراج کنم c(2,5),mar=c(4,4,1,1)) plot(x1,X[,1],ylab=Basis function,xlab=X,type=l,lwd=2) plot(x1,X[,2],ylab=Basis function,xlab=X,type=l,lwd= 2) plot(x1,Z[,8],ylab=Basis function,xlab=X,type=l,lwd=2) plot(x1,Z[,7],ylab=Basis function,xlab=X,type=l,lwd=2) plot(x1,Z[,6],ylab=Basis function,xlab=X,type=l,lwd= 2) plot(x1,Z[,5],ylab=Basis function,xlab=X,type=l,lwd=2) plot(x1,Z[,4],ylab=Basis function,xlab=X,type=l,lwd=2) plot(x1,Z[,3],ylab=Basis function,xlab=X,type=l,lwd= 2) plot(x1,Z[,2],ylab=Basis function,xlab=X,type=l,lwd=2) plot(x1,Z[,1],ylab=Basis function,xlab=X,type=l,lwd=2) par(op) # end runnable کد آنها در حال حاضر کاملا متفاوت به نظر می رسند. من میتوانم ضرایب نهایی مورد استفاده برای ساخت نرمافزار را با #کد قابل اجرا Fcoef <- test$lme$coef$fixed Rcoef <- unlist(test$lme$coef$random) #end کد قابل اجرا را دریافت کنم، اما مطمئن نیستم که اینها ضرایبی است که من به دنبال آن هستم. من می ترسم که نتوانم فقط از آن ضرایب به عنوان داده در یک روش خوشه بندی استفاده کنم. من واقعاً دوست دارم بدانم که از کدام ضرایب برای تبدیل توابع پایه از آنهایی که با «smoothCon()» به ضرایبی که از قسمت lme gamm-object استخراج می کنم استفاده می شود. و در صورت امکان از کجا می توانم آنها را پیدا کنم. من مقالات مرتبط را خوانده ام، اما به نوعی خودم نمی توانم آن را بفهمم. از همه کمک ها قدردانی می شود. | از ضرایب خطوط رگرسیون صفحه نازک در روش خوشهبندی استفاده کنید |
18732 | من یک مدل غیرخطی کوچک زیبا ایجاد کرده ام که احتمال بقا را به طول در ماهی قزل آلا مرتبط می کند. من آن را با فرض خطاهای دوجمله ای و به حداقل رساندن احتمال ورود به سیستم منطبق می کنم. از من خواسته شده است که آن را با مدل شخص دیگری مقایسه کنم، جایی که آنها داده ها را ترکیب کرده و یک خط مستقیم برای آن قرار می دهند. با این حال، پایین ترین سطل شامل دم دراز سمت چپ توزیع طول است و شانس زنده ماندن 0 (یا منفی) را برای آن ماهی ها پیش بینی می کند، اگر آنها در سطلی با میانگین طول بالاتر قرار نگیرند --- اما برخی از آن ماهی ها این کار را انجام می دهند. زنده ماندن گفته میشود، برای برخی از مجموعههای داده، مدل خطی روی دادههای binned به خوبی عمل میکند. من می خواهم این مدل ها را با هم مقایسه کنم، اما نمی توانم از AIC استفاده کنم زیرا نامعتبر بودن مدل خطی باعث انفجار AIC آن می شود. من میتوانم دادهها را کوتاه کنم - این نسبت بسیار کمی از دادهها است، یا میتوانم دادهها را جمعآوری کنم و با فرض خطاهای معمولی، یک AIC را برای مدلم محاسبه کنم، اما من واقعاً در مورد هیچ یک از آنها احساس خوبی ندارم. آیا گزینه های دیگری وجود دارد یا این انتخاب ها چندان بد نیستند؟ | چگونه می توانم مدل خود را با یک مدل از نظر فنی نامعتبر مقایسه کنم؟ |
71725 | من در حال ایجاد یک مدل رگرسیون خطی چندگانه با استفاده از یک متغیر وابسته هستم که به شدت دارای انحراف مثبت است: آمار چولگی من 27.610 است، std. انحراف 2832.139 است، محدوده مقادیر از 0 تا 100000 در جمعیت 234270 (بیش از 95٪ موارد من دارای مقادیر 500.00 یا کمتر هستند). آیا تقسیم فایل توسط DV به منظور کاهش چولگی و سپس مدل سازی جداگانه یک اقدام معقول است؟ آیا قوانین یا دستورالعمل هایی برای تقسیم DV وجود دارد که باید از آنها پیروی کنم؟ به عنوان مثال، گرفتن یک عدد یا درصد مشخص توسط Std. انحراف برای اطلاع از کجا باید تقسیم کنم؟ توجه: من در این کار تازه کار هستم - ملایم باشید! | دستورالعمل هایی برای تقسیم DV دارای انحراف مثبت برای مدل سازی خطی؟ |
108832 | من به دنبال تجزیه و تحلیل رگرسیون برای مقایسه زمان لازم برای اعطای قراردادهای عمومی در کشورهای مختلف هستم، اما ثابت نگه داشتن برخی متغیرهای دیگر چالش برانگیز است. مجموعه متغیرهایی که من می خواهم ثابت نگه دارم به نوع مناقصه مربوط می شود و این در مجموعه داده بر اساس سلسله مراتبی از فعالیت های تجاری در امتداد خطوط زیر کدگذاری می شود: * خدمات محاسباتی (کد 1) * توسعه نرم افزار (کد 1-) 1) \-- توسعه وب (کد 1-1-1) \-- ... * پشتیبانی (کد 1) \-- ... * مخابرات (کد 2) * .. (2-1) \-- .. (2-1-1) * .. (2-2) (در واقع واژگان رایج تدارکات) من می توانم یک متغیر ساختگی برای همه به جز یکی از دسته های سطح بالا ایجاد کنم (آنجا حدود 30 هستند). این کاملا قابل تفسیر خواهد بود، اما می توانم ببینم که اگر این کار را انجام دهم، ممکن است بسیاری از اطلاعات توضیحی از بین برود. در هر دسته فعالیت هایی وجود دارد که به سمت پروژه های بزرگ و برخی دیگر به سمت تکه های کوچکتر کار متمایل هستند. آیا تکنیک توصیه شده ای برای کمک به این مشکل وجود دارد؟ با تشکر | ساده سازی متغیرهای ساختگی متعدد |
87179 | من این نقل قول را پیدا کردم: > نمودارهای بلند-آلتمن جفت نشده برای بررسی خطاهای سیستماتیک یا سوگیری در > ضرایب جذب میوکارد SPECT با توجه به مرجع > داده های PET استاندارد استفاده شد. در مقاله زیر: ALHASSEN, Fares, et al. اندازهگیری جریان خون میوکارد با یک SPECT/CT معمولی دو سر با بازسازیهای تکراری مکانی-زمانی - یک مطالعه امکانسنجی بالینی. _ مجله آمریکایی پزشکی هسته ای و تصویربرداری مولکولی_، 2014، 4.1: 53. دانش من در مورد طرح بلند-آلتمن به شرح زیر است: من $n$ اشیاء متمایز و دو ابزار A و B دارم. ابزارها یک ویژگی $w$ از اشیا را اندازه گیری می کنند. $\mathbf{w}_A\in{\mathbb{R}}^n$, $\mathbf{w}_A=[w_{1A},w_{2A},\ldots,w_{nA}]$ و $ w_{iA}$ اندازهگیری شی $i$-th ساخته شده با ابزار A است. $\mathbf{w}_B\in{\mathbb{R}}^n$, $\mathbf{w}_B=[w_{1B},w_{2B},\ldots,w_{nB}]$ و $ w_{iB}$ اندازه گیری $i$-th شیء ساخته شده با ابزار B است. نمودار توسط $n$ نقاط $p_i(x_i,y_i)$ ساخته شده است. $\mathbf{x}\in{\mathbb{R}}^n$, $\mathbf{x}=\frac{\mathbf{w}_A+\mathbf{w}_B}{2}=[x_1,x_2 ,\ldots,x_n]$$\mathbf{y}\in{\mathbb{R}}^n$, $\mathbf{y}=\mathbf{w}_A-\mathbf{w}_B=[y_1,y_2,\ldots,y_n]$ بنابراین، نقشه بلند-آلتمن جفت نشده چیست و چگونه ساخته می شود؟ | طرح بدون جفت بلند-آلتمن چیست؟ |
33518 | من سعی می کنم یک ماتریس فاصله زوجی از نوع Mahalanobis را در R محاسبه کنم. من 33 فرد دارم که هر کدام دارای 10 متغیر است. ایده این است که یک ماتریس فاصله D به دست آوریم، جایی که $$D_{i,j}=(\mathbf{X}_i-\mathbf{X}_j)W^{-1}(\mathbf{X}_i-\ mathbf{X}_j)^T$$ اما من نتوانستم کد مناسبی برای آن بسازم. | فاصله ماهالانوبیس زوجی در R |
29825 | من میخواهم ببینم که آیا یک نقطه داده x باید (یا نه) به نزدیکترین مؤلفه y با استفاده از شرط زیر اختصاص داده شود: if ($d > T$) سپس {x را به y اختصاص ندهید}. با $d = فاصله(x,y)$ و $T = \bar{d}+\sigma$ که $\bar{d}$ میانگین فاصله y تا نقاط داده ای است که قبلاً به آن اختصاص داده شده بودند، و $\sigma$ stdev مرتبط. من می خواهم این شرط (یعنی ($d > T$)) را با یک عبارت معادل جایگزین کنم که به صورت احتمال $p$ بیان می شود. چگونه می توانم این کار را انجام دهم؟ من به عنوان مثال $p = exp(\frac{-d^2}{2\sigma`^2}) / (\sigma`\sqrt{2\pi})$ را امتحان کردم، اما مانند اولی رفتار نمی کند شرط مگر اینکه به صورت دستی مقدار مناسبی برای $\sigma`$ پیدا کنیم. | چگونه می توانم این شرط را با یک احتمال جایگزین کنم؟ |
70492 | من در حال بررسی عملکرد یک خط لوله برای محاسبه فواصل HPD حاشیه ای چگالی های چند متغیره (معمولاً چگالی های خلفی) هستم. در این زمینه، من به دنبال چگالی هایی هستم که این کمیت ها برای آن ها شناخته شده است تا بتوانم آنچه را که خط لوله با مقادیر حقیقت زمین بدست می آورد، مقایسه کنم. من می خواهم چگالی ها از بعد 10 بیشتر شود. آیا کسی ایده ای دارد؟ | چگالی های چند متغیره که ما فواصل HPD حاشیه ای را می دانیم |
87175 | این سوال مربوط به سوال زیر است. تخمین پارامترهای logit-normal در سوال قبلی فقط بخش ساده ای از کل مسئله را نشان دادم. تابع log-likelihood که میخواهم آن را به حداکثر برسانم n_1 $ log \int_{-\infty}^{\infty} f_1(y,\mu,\sigma) dy + n_2 log \int_{-\infty}^{ است. \infty} f_2(y,\mu,\sigma) dy + n_3 log \int_{-\infty}^{\infty} f_3(y,\mu,\sigma) dy $ $n_1,n_2,n_3$ شناخته شده است. $f_1,f_2,f_3$ به شرح زیر است. $ f_1 = \frac{exp(2y)}{(1+exp(y))^2} \frac{1}{\sqrt{2\pi}\sigma} exp(-\frac{(y-\mu )^2}{2\sigma^2} )$ $ f_2 = \frac{exp(y)}{(1+exp(y))^2} \frac{1}{\sqrt{2\pi}\sigma} exp(-\frac{(y-\mu)^2}{2\sigma^2}) $ f_3 = \frac{1}{( 1+exp(y))^2} \frac{1}{\sqrt{2\pi}\sigma} exp(-\frac{(y-\mu)^2}{2\sigma^2}) $ چگونه می توانم $\mu$ و $\sigma$ را پیدا کنید که معادله فوق را به حداکثر می رساند؟ | تخمین پارامترهای logit-normal (II) |
87613 | وقتی یک ANOVA انجام می دهیم، F-Value و P-Value دریافت می کنیم. اگر مقدار P کوچکتر از سطح آلفای ما 0.05 باشد، فرضیه صفر خود را رد می کنیم. اهمیت F-Value که در جدول به عنوان خروجی به دست می آید چیست؟ چگونه باید آن را به خصوص هنگام انجام یک آزمون ANOVA درون موضوعی تفسیر کرد؟ با تشکر | F-Value را در ANOVA تفسیر کنید |
29821 | ما بیش از 10 سال داده در مورد تعدادی از بیمارستان ها داریم که به طور منظم بیماران را به آنها منتقل می کنیم. در فوریه گذشته، بیمارستان جدیدی (1830) افتتاح شد که الگوهای حمل و نقل ما را به طور قابل توجهی تغییر داده است، به ویژه دور شدن از مقصد اولیه قبلی (1247). مقصد دسامبر ژان فوریه مارس آوریل 1247 117 140 131 65 77 1017 75 69 54 45 31 1818 56 58 43 46 39 1830 - - 30 125 86 من میخواهم به طور کلی بارها را کاهش دهم. هزینه ها و غیره...) تسهیلات جدید. روش مناسب برای ارزیابی تسهیلات جدید چیست؟ آیا باید دوره های مساوی قبل و بعد از باز شدن را با هم مقایسه کنم؟ یا آیا می توانم سال قبل و دوره از افتتاح آن را ارزیابی کنم؟ هر کمکی قابل تقدیر است. ویرایش: مطمئن نیستم که واریانس فصلی/دوره ای بیش از حد در داده های بلندمدت خود دارم. در اینجا نموداری است که دارای تاریخچه 5 ساله قبلی است (هر نقطه یک دوره 2 هفته ای است). من کل بیماران منتقل شده (با میانگین متحرک دوره 26) و بیمارستان مقصد مورد نظر را برجسته کرده ام.  | تعداد رویدادها را در دو دوره زمانی مختلف مقایسه کنید |
87178 | من شکلی شبیه به این دارم: اکنون سوال این است که 1) 100 نمونه از متغیرهای تصادفی یکنواخت iid را تولید کنید. واحد - مربع 2) شمارش کنید که چند نمونه تولید شده در یک چهارم دایره در مرکز مبدا قرار می گیرند. کاری که من تاکنون انجام دادهام: **رویکرد 1** دو بردار از نمونههای تصادفی را با استفاده از runif در R. samples_x(100) samples_y(100) تولید میکند و سپس میدانم که آیا مساحت مستطیل ( samples_x * samples_y)` کمتر از مساحت دایره چهارم است **رویکرد 2** دو بردار نمونه تصادفی را با استفاده از runif در R و سپس «samples_x ^ 2 + samples_y ^ 2» کمتر یا مساوی با شعاع مربع ('1') است. آیا هر دو رشته فکر درست است؟ 3) سؤال بعداً می پرسد، * از این نمونه های تولید شده برای تخمین مساحت ربع دایره محاط شده استفاده کنید. * از مساحت تخمین زده شده برای تخمین مقدار pi استفاده کنید. که من هیچ ایده ای برای حل آن ندارم. من در حال بررسی برآورد جمعیت بودهام، اما بیشتر نمونهها را در یک منطقه کوچک شمارش میکند و بر مساحت کل تقسیم میکند. با این روش، آیا این بدان معناست که باید با استفاده از نمونه هایی که در داخل دایره قرار دارند تخمین بزنم و برای تخمین مساحت بر 100 تقسیم کنم؟ هر اشاره، کمک، پیشنهاد، نظر؟ بسیار قدردانی می شود. | نمونه گیری برای تخمین - با استفاده از اعداد تصادفی - کمک تکلیف |
87171 | من مطمئن نیستم که بهترین راه برای کدنویسی متغیر پیشبینیکننده مقولهای برای استفاده در یک رگرسیون سلسله مراتبی به منظور آزمایش فرضیه خاص من چیست. این متغیر طبقه بندی دارای 3 سطح است که نشان دهنده 3 گروه است. من می خواهم گروه 1 را با گروه 2، گروه 1 را با گروه 3 و گروه 2 را با گروه 3 مقایسه کنم. می دانم که برای کدنویسی ساختگی، متغیرهای k-1 ایجاد می کنم، بنابراین 2 متغیر ساختگی در مورد من و این متغیرها را با 0 و 1 کد می کنم. در حالی که یک سطح از متغیر طبقه بندی را به عنوان یک دسته مرجع انتخاب می کنیم. با این حال، مطمئن نیستم که این بهترین راه برای انجام مقایسههایی است که میخواهم انجام دهم، زیرا به نظر میرسد من فقط میتوانم هر گروه را با دسته مرجع مقایسه کنم، آیا درست میگویم؟ بنابراین اگر گروه 3 مقوله مرجع بود، میتوانم گروه 1 را با گروه 3 و گروه 2 را با گروه 3 مقایسه کنم، اما نمیتوانم گروه 1 را با گروه 2 مقایسه کنم. برای انجام این مقایسهها از چه روش دیگری برای کدگذاری استفاده کنم؟ مدل رگرسیون من نیز شامل متغیرهای پیوسته خواهد بود. من دانشجوی کارشناسی روانشناسی هستم و آمار نقطه قوت من نیست. پاسخ های ساده برای من بهترین هستند. من از SPSS استفاده می کنم. متشکرم | کدگذاری متغیرهای طبقه بندی شده برای رگرسیون |
17815 | می خواستم بدونم که آیا می توان از بسته caret با داده های غیر عددی استفاده کرد؟ می دانم، برای مثال، اگر بخواهم از یک رگرسیون خطی ساده «lm» استفاده کنم، می توانم یک متغیر عامل برای طبقه بندی داشته باشم. با این حال، اگر من این کار را انجام دهم، کارت منفجر می شود. من همچنین مرحله مشخص شده در اینجا را دنبال می کنم. (trainDescr) 'data.frame': 589235 obs. از 2 متغیر: $ Anon.Student.Id : Factor w/ 574 level 02i5jCrfQK،02ZjVTxC34،..: 7 7 7 7 7 7 7 7 7 7 ...
$ Step.Duration..sec.: num 5 5 5 4 5 5 5 5 4 4 ... خطا در train.default (x = trainDescr، y = trainClass، متد = lm) دریافت می کنم: همه پیش بینی ها باید باشند عددی برای این مدل از رابط فرمول استفاده کنید: قطار (فرمول، داده) به طور متناوب، آیا کسی می تواند توضیح دهد که چگونه یک مجموعه تست برای عملکرد مدل در R داشته باشیم؟ این چیزی است که به من انگیزه می دهد تا کار مراقبتی انجام دهم. | آیا می توان از بسته caret در R با داده های غیر عددی استفاده کرد؟ |
83665 | من در حال تلاش برای یافتن یک تجزیه افزودنی از یک شاخص تورنکویست هستم - برای اندازهگیری سهم صنایع منفرد در شاخصهای بهرهوری در سطح بخش - و میتوانم فرمولهایی برای این موضوع پیدا کنم، اما توضیحی برای اینکه اینها بر چه اساس هستند، پیدا نمیکنم. شهود اولیه من برای سهم یک صنعت خاص در شاخص کل بخش این است که شاخص را با و بدون صنعت محاسبه کنیم. اگر این کار را انجام دهم می توانم یک تجزیه نسبتاً ساده بدست بیاورم. با این حال، از بحث با شخصی که با او کار میکنم، به نظر میرسد که روش پذیرفتهشدهتر در مورد مشارکت در یک شاخص، ترک صنعت (یا محصول، یا هر زیرشاخص دیگری) در شاخص است، اما با حرکت 0. آیا کسی می تواند به من به ادبیاتی در مورد چرا/اگر این مفهومی است که باید اعمال شود اشاره کند؟ | مفهوم پذیرفته شده پشت اندازه گیری سهم زیرشاخص ها در شاخص های سطح کل چیست؟ |
83663 | در برخی از مقالات تحقیقاتی، نویسندگان از «Ln» برای لگاریتم طبیعی به جای «ln» استفاده میکنند. آیا درست است؟ | آیا استفاده از «Ln» به جای «ln» برای لگاریتم طبیعی صحیح است؟ |
83511 | من از مقیاس های مختلف لیکرت در پرسشنامه استفاده می کنم. سه متغیر وابسته دارای مقیاس لیکرت 4 امتیازی، 2 امتیازی و 2 امتیازی هستند. سه متغیر مستقل دارای مقیاس 3 امتیازی هستند. یک متغیر تعدیل کننده دارای مقیاس لیکرت 3 امتیازی است در حالی که متغیر تعدیل کننده دیگر دارای سه سوال با مقیاس های 4 امتیازی، 3 امتیازی و 3 امتیازی است. اگر از میانگین هر متغیر در تحلیل های آماری برای یافتن همبستگی، رگرسیون و رگرسیون تعدیل شده استفاده کنم، آیا مجاز است و نتایج معتبر تلقی می شوند یا خیر؟ | مقیاس های مختلف لیکرت در تجزیه و تحلیل آماری استفاده می شود |
109965 | من فقط در مورد تبدیل احتمالات برای ثبت احتمالات برای مدلهای پاسخ باینری فکر میکردم و متوجه شدم که مطمئن هستم بسیاری از مردم قبلاً متوجه شدهاند که تبدیل غیراستاندارد است. به عنوان مثال، با توجه به الگوی پاسخ $x \در 0,1$ و مجموعه پارامتر $\theta$ با $P$ که به عنوان احتمال $x=1$ تعریف شده است، احتمال یک پاسخ باینری به صورت $$l ( \theta;x)=xP+(1-x)(1-P)$$ شکستن موارد فوق به طور جداگانه به صورت $l(\theta;x=1)=P$ و $l(\theta;x=0)=(1-P)$. قدم بعدی که مردم به دلایل مختلف برمیدارند این است که احتمال گزارش را انتخاب کنند $$ll(\theta;x)=x\log(P)+(1-x)\log(1-P)$$ که به راحتی میتوانیم آن را ببینیم. برابر است با گرفتن گزارش $l(\theta;x)$ با مشاهده اینکه x فقط می تواند $1$ یا $0$ باشد. با این حال، این یک تبدیل غیر استاندارد است ($\log(ab + cd) \ne a\log(b) + c\log(d)$ به طور کلی) و فقط از طریق استدلال به دست می آید (که من مشکلی با آن ندارم. ). من فقط نمی دانم آیا قانون، قاعده یا لمایی وجود دارد که تحول فوق در آن قرار می گیرد؟ | احتمال منطقی و تبدیلهای غیرمعمول با مدلهای پاسخ باینری |
70495 | من در حال بررسی یک سری زمانی با هدف تشخیص تغییرات آشکار در واریانس در طول زمان هستم (تجربه کمی در تحلیل سری های زمانی دارم). فرضیه این است که سری در طول زمان پایدارتر شده است (پایدار=کاهش پراکندگی). من نمیدانم که آیا استراتژیهایی برای ارزیابی بصری وجود دارد که چگونه یک معیار پراکندگی (لازم نیست واریانس باشد) با پیشرفت سریال تغییر میکند. من می دانم که آزمون هایی برای فرض واریانس ثابت وجود دارد. نتیجه من اندازه گیری روزانه است که در طی 10 سال ثبت شده است و تغییرات بین ماه ها معیار مربوطه است. به عنوان اولین قدم، من MAD ماهانه (انحرافات مطلق میانه) را در طول زمان ترسیم کردم. با این حال، مطمئن نیستم که این رویکرد معقولی باشد. | نحوه تجسم تغییرات در واریانس سری زمانی |
8009 | ما در حال اندازه گیری نرخ تبدیل (% بازدیدکنندگانی که خرید کرده اند) در یک سایت تجارت الکترونیکی هستیم. این آزمون برای بخشی از بازدیدکنندگانی اعمال می شود که معیارهای خاصی را دارند (به عنوان مثال افرادی از یک کشور خاص). افراد این بخش به 2 گروه تقسیم می شوند. بخشی از آنها یک بنر می بینند و دیگری نه (گروه کنترل). معمولاً گروه کنترل 30 درصد بازدیدکنندگان است. آزمایش پس از اینکه بنر برای مدتی به همه کاربران در بخش نشان داده شد آغاز می شود، بنابراین داده های افراد در معرض دید بسیار طولانی تر از داده های گروه کنترل است. بنابراین در یک زمان معین ما برای مثال X نفر در معرض و Xb از آنها تبدیل شده است. به همین ترتیب برای Y افرادی که افشا نشدند، Yb از آنها تبدیل شدند. Y و Yb بسیار کوچکتر از X و Xb هستند. نرخ تبدیل برای X Xb/X و برای Y Yb/Y است. **اولین سوال** من این است که چگونه اعتبار آماری را تعیین کنیم. ما از تست Chi-square برای انجام آن استفاده کردیم و نتایجی مشابه نتایج این ماشین حساب آنلاین دریافت کردیم (مشابه جدول 1 در اینجا پیاده سازی شده است). با این حال، گاهی اوقات به نظر می رسد که تعداد خریدها بسیار کم است، اما آزمون کای اسکوئر معتبر است (بیش از 95٪). در اینجا یک مثال واقعی آورده شده است: X=189 Xb=1 Y=93 Yb=3 تبدیل X= 0.5% تبدیل Y=3.2% اطمینان آماری (بر اساس مجذور کای) 92.8٪ اگرچه اطمینان زیر 95٪ است، به نظر می رسد نیز بستن برای تعیین اطمینان آن در حالی که فقط 1 تبدیل برای X وجود داشت. **سوال دوم** من این است که: آیا باید یک برای معتبر بودن اطمینان نیاز به حداقل تعداد تبدیل دارید؟ اگر بله، چگونه آن را محاسبه کنیم؟ با تشکر | حداقل تعداد نمونه/تبدیل برای اعتبار آماری |
82049 | آیا کسی می تواند به من بگوید که منظور از عبارت یادگیر ضعیف چیست؟ آیا قرار است فرضیه ضعیفی باشد؟ من در مورد رابطه بین یک یادگیرنده ضعیف و یک طبقه بندی ضعیف گیج شده ام. آیا هر دو یکسان هستند یا تفاوت هایی دارند؟ در الگوریتم adaboost، 'T=10'. منظور از آن چیست؟ چرا «T=10» را انتخاب می کنیم؟ | منظور از یادگیرنده ضعیف چیست؟ |
83667 | در بسیاری از مسائل بهینهسازی، معمولاً از اشکال بسیاری از منظمسازیها بر روی پارامترهایی که تخمین زده میشوند استفاده میشود. به عنوان مثال، یک تابع هزینه معمولی (برای به حداکثر رساندن) ممکن است به این صورت باشد: $$ C = f(w) - \lambda_1 r_1(w) - \lambda_2 r_2(w) $$ در اینجا $f(w)$ قابل تفسیر است. به عنوان یک اصطلاح احتمال و $r_1$ و $r_2$ نوعی ساختار را بر روی پارامترهای $w$ اعمال می کنند. $\lambda_1$ و $\lambda_2$ وزنهای مربوط به این شرایط جریمه/تنظیمی هستند. در چارچوب احتمالی، میتوان مدلسازی اینها را با دو توزیع احتمال نرمال چند متغیره صفر میانگین تصور کرد: $P(w|\lambda_1) \sim \mathcal{N}(0, (\lambda_1\Sigma_1))$ و $P(w |\lambda_2) \sim \mathcal{N}(0, (\lambda_2\Sigma_2))$ حالا سوالات من عبارتند از: بنابراین، با استفاده از قانون بیز، با فرض اینکه داده های مشاهده شده با y نشان داده شوند، می توانم چیزی مانند: $$ P(w|y) \propto P(y|w) \times P(w|\lambda_1) \times بنویسم. P(w|\lambda_2) $$ آیا می توان این دو توزیع $P(w|\lambda_1)$ و $P(w|\lambda_2)$ را در یک توزیع قبل از آن ترکیب کرد من آنها را تعریف کرده ام (با فاکتورهای مقیاس $\lambda$ برای ماتریس های کوواریانس)؟ با انجام برخی جستجوهای آنلاین، ادبیاتی در مورد مقدمات فرآیند گاوسی وجود دارد. آیا این چیزی است که ممکن است به اینجا مربوط باشد؟ من فقط به توضیح شهودی اولیه نیاز دارم که آیا این چیزی است که باید به آن توجه کنم، زیرا باید از بسیاری از پیشین ها مانند این بر روی پارامترهای خود استفاده کنم (هر کدام از موارد قبلی جنبه خاصی از $w$ را کنترل می کند). | تولید ماتریس های کوواریانس از چندین پیشین |
82048 | من می خواهم یک تفسیر منطقی از نتایج تحلیل stl خود داشته باشم. خلاصه (BR.stl) فراخوانی: stl(x = ts، s.window = در هر) مولفههای سری زمان: باقیمانده روند فصلی حداقل. :-2.9127520 دقیقه : 2.87902 دقیقه :-32.97469 1st Qu.:-1.7160211 Qu. 1st:10.31844 Qu. 1: -2.80863 Medin : 0.0410429 Median :13.86636 Median : -1.083051 Mean: -1.08305 Mean :15.90906 میانگین : -0.05876 سوم.: 1.0959295 سومین چهارم: 18.57809 چهارمین چهارم: 2.05679 حداکثر. : 2.1946197 حداکثر. :59.88744 حداکثر. : 18.82706 IQR: STL.Seasonal STL.trend STL.Remainder data 2.812 8.260 4.865 9.875 % 28.5 83.6 49.3 100.0 Weights: all == 1 Named 5 $ 1: فهرست 1 مولفه دیگر 19 13 $ درجه : با نام int [1:3] 0 1 1 $ پرش : نامگذاری شده num [1:3] 183 2 2 $ داخلی: int 2 $ خارجی: int 0 تفسیر صحیح درصدهای تنوع چیست. آنها به بیش از 100٪ اضافه می کنند، آیا این بدان معنی است که آنها فقط می توانند تفسیر نسبی مشابه میله های یک stlplot داشته باشند؟ نتیجه کامل من داشتن نسبتی از تغییرات برای هر جزء از stl خواهد بود. هر گونه کمک بسیار قدردانی می شود. | نحوه تفسیر خروجی R stl() |
33516 | هنگام محاسبه مدلهای رگرسیون با R، من به طور منظم از تابع relevel استفاده میکنم تا مدل خود را به نتایجی برای سطح دیگر برساند. متوجه شدم که گاهی اوقات، اما نه اغلب، این مدل را تغییر میدهد به این معنا که سطوح دیگر عواملی که قبل از بازگشایی مهم بودند، دیگر وجود ندارند. آیا این امر ذاتی است یا استثنایی و شاید به دلیل مشکلی در داده های من باشد؟ آیا نشان می دهد که داده های من احتمالاً یکی از پیش نیازهای مدل های خطی را برآورده نمی کند؟ در رابطه با آن، آیا اشکالی ندارد که از relevel استفاده کنم، مدل خود را دوباره محاسبه کنم و سپس مقادیر اهمیت هر دو مدل را در مقاله خود گزارش کنم؟ اگر اهمیت بین دو مدل برای یک عامل خاص متفاوت است، فکر میکنم باید به سراغ مدلی برویم که کمتر خوشبینانه است؟ فکر میکنم سوال من نشان میدهد که من اطلاعات کافی در مورد lm ندارم تا نیاز به سطح پایه را درک کنم. فکر میکردم به خوبی آن را درک کردهام ؛) بهطوریکه هیچیک از مقدمههایی که خواندم این نکته را توضیح نمیداد، یا آنقدر مبهوت بودم که نمیتوانستم آن را درک کنم. بنابراین اگر کسی می تواند مرا به سایتی راهنمایی کند که در آن نکته وجود سطوح پایه در lm توضیح داده شده باشد یا خودشان توضیح دهند، خیلی عالی است! ویرایش: در اینجا یک مثال حداقلی وجود دارد: کتابخانه(مجموعه داده ها) اسپری ها<-OrchardSprays model<-lm(کاهش~درمان+rowpos+colpos,data=sprays) خلاصه(مدل) بخشی از خلاصه می گوید treatC 20.625 9.731 2.120 0.036 * So if treat == C این تأثیر مثبت قابل توجهی بر کاهش دارد. اکنون من 'درمان' را به B باز می کنم تا بفهمم درمان == A چه تأثیری دارد: sprays$treatment<-relevel(sprays$treatment,B) summary(model) و اکنون درمان == C در این جدید مهم نیست. مدل: treatC 17.625 9.731 1.811 0.07567 . با عرض پوزش برای ارسال در جای اشتباه! آیا می توانم سؤالم را به stats statexchange منتقل کنم یا باید سؤال جدیدی را در آنجا باز کنم؟ | چرا مدل هنگام استفاده از relevel تغییر می کند؟ |
87810 | من نظرسنجی با مقیاس لیکرت 39 سوالی ایجاد کرده ام و می خواهم نتایج را با 5 سوال جمعیت شناختی ارجاع دهم. من قصد دارم برای هر پاسخ مقادیر 1=کاملاً مخالف، 2=مخالف، 3=خنثی و غیره تعیین کنم. من باید اطلاعات را در SPSS قرار دهم. من نسبتاً سردرگم هستم که در کدام آزمایش باید از آن استفاده کنم: ANOVA، ANCOVA و غیره. آیا نظری دارید؟ | از چه نوع تستی استفاده کنم؟ |
29826 | قهرمانان عزیز Stack Exchange، برای پایان نامه خود در حال نوشتن مقاله ای در مورد بحران مالی هستم. در مدل خود، من از دو رگرسیون استفاده میکنم که به این صورت است: $$CONF = α + β_1 DEF_t + β_2 DIV_t + β_3 INF_t + β_4 IP_t + β_5 CONS_t + β_6 TBILL_t + β_7 URATE_t + β_8 NBER_t + β_9 DEF_ } + β_{10} DIV_{t-1} + β_{11} INF_{t-1} + β_{12} IP_{t-1} + β_{13} CONS_{t-1} + β_{14} TBILL_{t-1} + β_{15} URATE_ {t-1} + β_{16} NBER_{ t-1} + ε_t $$ جایی که $CONF$ دادههای شاخص اطمینان است و بقیه متغیرهای کلان اقتصادی $$ΔS_t = α_1 + λΔε_{t-1} + η_t$$ که در آن $S$ یک شاخص قیمت سهام است و $Δε$ از باقیمانده های معادله قبلی استفاده می کند. من از Eviews برای اجرای این معادلات استفاده می کنم و به خوبی کار می کند، اما ظاهراً باید این واقعیت را که $Δε$ یک رگرسیون تولید شده است، تصحیح کنم. مقاله Pagan (1984) اغلب برای این منظور مورد اشاره قرار می گیرد، اما پس از تلاش برای خواندن آن، هنوز نمی دانم که چه چیزی را در ماتریس کوواریانس خود تنظیم کنم تا این سوگیری را برطرف کنم. آیا برنامه ای وجود دارد که بتواند این کار را برای من انجام دهد یا کسی که بتواند این را در مراحل آسان توضیح دهد؟ هر کمکی قابل تقدیر است :) | چگونه تعصب رگرسیور ایجاد شده را تصحیح کنیم؟ |
43310 | من مشکل رگرسیون خطی دارم. به طور خلاصه، من یک مجموعه داده دارم، آن را به دو زیر مجموعه تقسیم کردم. یک زیر مجموعه برای یافتن رگرسیون خطی (زیرمجموعه آموزشی) و دیگری برای ارزیابی آن (زیرمجموعه ارزیابی) استفاده می شود. سوال من این است که چگونه می توان نتیجه این رگرسیون خطی را پس از اعمال آن در زیر مجموعه داده های ارزیابی ارزیابی کرد؟ جزئیات زیر: در زیر مجموعه آموزشی، من رگرسیون خطی را انجام میدهم: $y = ax + b$، که در آن $y$ حقیقت پایه است (همچنین به عنوان هدف شناخته میشود)، $x$ یک متغیر مستقل است. سپس $a$ و $b$ را پیدا کردم. ($x$ و $y$ در زیر مجموعه آموزشی آورده شده است). اکنون، با استفاده از $a$ و $b$ موجود در بالا از زیر مجموعه آموزشی، آنها را در زیر مجموعه ارزیابی اعمال کنید، من $y' = ax' + b$ را پیدا کردم. به عبارت دیگر، این $y'$ از رگرسیون خطی با $x'$ پیدا می شود. حالا علاوه بر $y'$، از مجموعه ارزیابی نیز $y$ دارم. چگونه نتیجه خود را ارزیابی کنم ($y'$ چقدر با $y$ متفاوت است)؟ هیچ مدل ریاضی کلی برای انجام این کار وجود دارد؟ این باید نوعی مدل/فرمول ریاضی باشد. من میتوانم راههای مختلفی برای انجام آن فکر کنم، اما همه آنها به نوعی موقت یا ساده هستند، اما این برای یک کار علمی است، بنابراین، متأسفانه نمیتوان از چیزهایی که به صورت موقتی به نظر میرسد، در اینجا استفاده کرد. هر ایده ای؟ | نحوه ارزیابی نتایج رگرسیون خطی |
70498 | من یک رگرسیون در SAS انجام داده ام و ماتریس همبستگی تخمینی پارامترها را استخراج کرده ام که شامل رهگیری است. یکی از پارامترهای متغیر من همبستگی قوی با پارامتر intercept دارد. من قبلاً این را ندیده بودم و می خواهم مطمئن شوم که معنی آن را می فهمم (اگر چیزی باشد). آیا کسی می تواند توضیح شهودی در مورد اینکه تخمین پارامتر متغیر با تخمین پارامتر رهگیری به چه معناست ارائه دهد؟ | چگونه تخمین پارامترهای مرتبط با برآورد پارامتر رهگیری را تفسیر کنیم؟ |
51814 | آیا می توان از نمرات عامل به عنوان متغیرهای وابسته در رگرسیون استفاده کرد؟ همچنین، میخواهم ببینم آیا نمایشهای نمایشی (مانند سن، SES و غیره) عملکرد را در پنج کار مختلف توانایی شناختی پیشبینی میکنند یا خیر. برای هر کار من دقت و سرعت پاسخگویی را دارم. آیا تلاش برای اجرای یک تحلیل عاملی بر روی این ده متغیر ارزشمند است؟ بنابراین میتوانم از این نمرات عامل به عنوان متغیر وابسته و متغیرهای شخصیت به عنوان پیشبینیکنندههای خود در رگرسیونهای چندگانه استفاده کنم. یا اینکه اجرای یک رگرسیون چندگانه برای هر نمره ترکیبی (یکی برای هر کار شناختی) منطقی تر است؟ هر گونه کمکی قدردانی خواهد شد! | استفاده از نمرات عوامل در رگرسیون چندگانه |
47999 | من حجم نمونه کوچکی دارم (18=n) و در حال انجام تجزیه و تحلیل تک متغیره هستم. من نمایشگرهای گرافیکی دارم (نمودار ساقه و برگ، نقطه نقطه، نمودار جعبه و نمودار توزیع تجمعی). من سعی می کنم محدودیت های نمایشگرهای گرافیکی را برای مجموعه داده های کوچک درک کنم. کسی میتونه منو روشن کنه؟ | محدودیت های نمایشگرهای گرافیکی با حجم نمونه کوچک (n=18) چیست؟ |
99347 | اندازه گیری فاصله Gower یک معیار خوب برای داده های ترکیبی است (یعنی ویژگی های داده می توانند کیفی، طبقه ای، ترتیبی یا باینری باشند). اما آیا ویژگی های داده می توانند متن آزاد باشند (مثلاً نام افراد)؟ من میدانم که فاصله ویرایش رشته معیار بهتری برای مقایسه متن آزاد است، اما من جدولی از رکوردها دارم که در آن هر ستون (ویژگی) در جدول دارای نوع متفاوتی است. من می خواهم یک ماتریس شباهت جدول (مقایسه رکوردهای زوجی) را برای خوشه بندی محاسبه کنم. فاصله Gower مناسب به نظر می رسد، با این تفاوت که مطمئن نیستم که بتواند رشته های متن آزاد را مدیریت کند یا خیر. میدانم که میتوانم Gower را روی همه ویژگیها به جز ستونهای رشته متن آزاد اجرا کنم، و شاید فاصله ویرایش رشته را به عنوان یک جزء نرمالشده به اندازهگیری فاصله کلی اضافه کنم. اما من می خواهم بدانم که آیا Gower می تواند رشته های متن آزاد را مدیریت کند یا خیر. یا هر پیشنهاد دیگری برای اندازه گیری فاصله از نوع مختلط قدردانی می شود. | چگونه فاصله Gower با متن آزاد کار می کند؟ |
83071 | فرض کنید من برخی از آیتمهای خود گزارشی را دارم که در مقیاس لیکرت 5 درجهای (کاملاً مخالفم تا کاملاً موافقم) و سایر موارد با مقیاس لیکرت 4 درجهای (هرگز، به ندرت، گاهی اوقات، اغلب) اندازهگیری شدهاند. آیا کسی می تواند به من به ادبیات (یا توصیه های عملی) در مورد ترکیب این موارد در یک مقیاس ترکیبی اشاره کند؟ بیایید برای استدلال فرض کنیم که شواهد تجربی داریم مبنی بر اینکه موارد باید با هم ترکیب شوند. چند ایده: **1\. مجموع نمرات خام ** مزیت: آسان منفی: حداکثر پاسخ ها در مقیاس 5 امتیازی (در اصل 4) نمره کل مقیاس را بیش از حداکثر پاسخ ها در مقیاس 4 امتیازی (در ابتدا 3) افزایش می دهد. **2\. تغییر مقیاس و جمع ** همه موارد را در مقیاس 0-1 قرار دهید و جمع کنید. بنابراین آیتم های 4 نقطه ای (0،1،2،3) در (4/3)/4 ضرب می شوند و آیتم های 5 نقطه ای (0،1،2،3،4) در 1/4 ضرب می شوند. ، به ترتیب مقادیر (0,.33,.66,1) و (0,.25,.50,.75,1) ممکن است. به این ترتیب حداکثر پاسخ ها در مقیاس 5 درجه ای (در ابتدا 4) نمره کل مقیاس را بیشتر از حداکثر پاسخ ها در مقیاس 4 درجه ای (در ابتدا 3) افزایش نمی دهند. طرفدار: اقلام دارای وزن برابر هستند. (بسته به دیدگاه شما می تواند یک مشکل باشد). منفی: تفاوت در تنوع بین موارد در معیارهای مختلف را نادیده می گیرد؟ **3\. استاندارد کردن و جمع ** یک رویکرد مرتبط می تواند استانداردسازی همه موارد (نمره z) و سپس جمع باشد. حرفه ای: به تفاوت در تنوع بین آیتم ها در معیارهای مختلف می پردازد منفی: نمره کل مقیاس کمتر قابل تفسیر و مختص نمونه می شود. مورد دوم، معیار را به عنوان معیاری برای استفاده در سایر تنظیمات/نمونههای دیگر دشوار میکند. **4\. PCA یا دیگر کاهش داده ** 4a. EFA برای دریافت بارهای عاملی. اقلام مقیاس شده را در بارهای عاملی ضرب کنید. 4b. PCA برای دریافت امتیاز اولین جزء اصلی. طرفدار: مواردی که بر اساس تأثیر وزن شده اند. منفی: مانند شماره 2. امتیازات مشتق شده از EFA بسته به انتخاب های چرخش/استخراج می تواند بسیار متفاوت باشد. برخی در مورد داده های ترتیبی توصیه نمی کنند. * * * به طور کلی: من شماره 2 را دوست دارم زیرا به نظر می رسد مقایسه نتایج در بین نمونه های مختلف آسان تر باشد. افکار؟ ایده های جایگزین یا نگرانی در مورد ایده های ارائه شده؟ | توصیه / ادبیات در مورد ترکیب اقلام با مقیاس های مختلف پاسخ در مقیاس های ترکیبی؟ |
8006 | چه مقدار داده برای برازش مناسب یک مدل GARCH(1,1) مورد نیاز است؟ | نصب مدل GARCH(1,1). |
95950 | اگر من یک رابط کاربری گرافیکی با مجموعهای از دکمهها دارم و میخواهم پیشبینی کنم که کاربر چه دکمهای را بر اساس مجموعهای از ویژگیها از جمله کلیکهای قبلی دکمه n و سایر دادههای متا (مثلاً نام کاربر) انتخاب میکند، چه ناحیهای از ML است. ? آیا این به عنوان طبقه بندی (یعنی طبقه بندی حرکت بعدی) با کلاس های x دکمه های x و ویژگی های همانطور که در بالا ذکر شد به حساب می آید؟ | پیش بینی تعامل کاربر با رابط |
95956 | اجازه دهید $X_{1},..,X_{36}$ نمونه ای از توزیع برنولی با پارامتر $p$ باشد. نسبت نمونه $\frac{1}{3}$ است. یک تست تقریب معمولی $H_{0}:p=0.5$ در مقابل $H_{1}:p\neq 0.5$، با سطح اطمینان $0.95$ را در نظر بگیرید. اگر $H_{1}$ با $p=1/3$ جایگزین شود، معیار چگونه تغییر خواهد کرد؟ | آزمون فرضیه برنولی |
33865 | من قصد دارم از نمرات عاملی که از تحلیل عاملی اکتشافی در تحلیل رگرسیون چند متغیره بعدی به دست آمده است، به عنوان یک متغیر توضیحی استفاده کنم. من در چندین کتاب/مقاله خواندهام که مدلسازی معادلات ساختاری روش مناسبی برای مدلسازی روابط در میان متغیرهای پنهان است (با استفاده از نادرست بودن نمرات عامل). من تا کنون پاسخ منفی پیدا نکرده ام که آیا استفاده از امتیازات عاملی صرفاً به عنوان یک متغیر توضیحی مشکلی دارد و متغیر وابسته من مشاهده می شود. آیا کسی پاسخ روشنی در رابطه با این موضوع دارد؟ | تحلیل رگرسیون با نمرات عاملی به عنوان متغیر توضیحی |
71727 | علاوه بر PROC VARCLUS، randomForest، glmnet، و ارزیابی چند خطی بودن بین متغیرهای پیشبینیکننده بالقوه (بدون در نظر گرفتن نتیجه مورد نظر)، من بهجای استفاده از روشهای گام به گام برای ساخت مدلهای رگرسیون لجستیک باینری صرفهجویانهتر، به دنبال روشهای دیگری برای انتخاب متغیر هستم. حاوی 8 تا 12 متغیر برای پیشبینی نتایجی مانند پرداخت وام / پیشفرض یا تاریخچه پرداخت فعلی/تاخیر) از طیف گسترده ای از متغیرهای پیش بینی کننده بالقوه (500+ متغیر، 200k+ رکورد). در زیر یک اسکریپت R با استفاده از FSelector برای انتخاب 8 متغیر رتبهبندی شده در بالاترین رتبه قرار دادهام: کتابخانه(FSelector) fit <- information.gain(نتیجه ~ .، مجموعه داده) fit2 <- cutoff.k(fit,8) مدل کاهش یافته <- as.simple.formula(fit2outcome) print(reducedmodel) من دو سوال در مورد این اسکریپت و FSelector دارم الگوریتم به طور کلی: 1. آیا معیار information.gain در اسکریپت فوق مترادف با واگرایی Kullback-Leibler است؟ اگر چنین است، آیا کسی میتواند این موضوع را با عبارات عمومیتر از ویکیپدیا توضیح دهد، زیرا من در این زمینه آمار نسبتاً جدید هستم و میخواهم با ایده درست این مفهوم شروع کنم، زیرا ممکن است در آینده از این رویکرد بسیار استفاده کنم؟ 2. آیا این یک رویکرد معتبر است، اگر چیزی به عنوان یک رویکرد معتبر وجود دارد، برای انتخاب تعداد دلخواه از متغیرها برای یک مدل رگرسیون لجستیک باینری (به عنوان مثال، انتخاب 8 متغیر بالاترین رتبه بندی برای استفاده در یک مدل صرفه جویی) ? اگر نه، آیا می توانید یک رویکرد جایگزین برای این کار ارائه دهید؟ هر گونه بینش یا مرجعی در مورد این موضوع و/یا این سوالات بسیار قدردانی خواهد شد! | انتخاب بهترین زیرمجموعه متغیرها برای مدلهای رگرسیون لجستیک باینری صرفهجویی |
8001 | من می خواهم کشف کنم که کدام ژن تنها در یکی از پنج درمان بیان می شود. این خط لوله من است: 1. ANOVA بین پنج درمان 2. تصحیح آزمایش چندگانه Holm 3. Tukey برای ژنهای مهم کشف شده در مرحله 2 سوال من این است: آیا باید مقادیر p Tukey را نیز تصحیح کنم، مثلاً مقدار p را در عدد ضرب کنم. مقادیر P قابل توجه ANOVA (تصحیح بونفرونی در تعداد آزمایش های انجام شده)، یا باید فقط در سطح ANOVA تصحیح کنم؟ پیشاپیش بسیار متشکرم، راسلا | ANOVA و تصحیح آزمایش چندگانه در غربالگری ژن |
8000 | شبكههاي عصبي مكرر با شبكههاي «عادي» به دليل داشتن يك لايه «حافظه» تفاوت دارند. با توجه به این لایه، NN های بازگشتی قرار است در مدل سازی سری های زمانی مفید باشند. با این حال، مطمئن نیستم که نحوه استفاده از آنها را به درستی درک کرده باشم. فرض کنید سری زمانی زیر را دارم (از چپ به راست): «[0، 1، 2، 3، 4، 5، 6، 7]»، هدف من پیشبینی نقطه «i» با استفاده از نقاط «i» است. -1» و «i-2» به عنوان ورودی (برای هر «i>2»). در یک ANN عادی و غیر تکراری، داده ها را به صورت زیر پردازش می کنم: > > target| ورودی > 2| 1 0 > 3| 2 1 > 4| 3 2 > 5| 4 3 > 6| 5 4 > 7| 6 5 > سپس یک شبکه با دو گره ورودی و یک خروجی ایجاد می کنم و آن را با داده های بالا آموزش می دهم. در مورد شبکه های مکرر چگونه باید این فرآیند را تغییر داد (اگر اصلاً وجود داشته باشد)؟ | روش صحیح استفاده از شبکه عصبی بازگشتی برای تحلیل سری های زمانی |
29828 | به عنوان مثال فوتبال (فوتبال) را در نظر بگیریم. 3 نتیجه ممکن وجود دارد، برد خانگی، تساوی، برد خارج از خانه. من یک بازی تصادفی از bet365 Turkey vs Ukraine hwin گرفتم، قرعه کشی، awin 2.20 3.40 3.20 بنابراین برای سرمایه گذاری 100\$ روی نتیجه داده شده، یا 100\$ از دست می دهید یا برنده می شوید: 220\$، 340\$ یا 320\$. ارزیابی احتمال آنها به 100٪ نمی رسد، آنها 5٪ -12٪ اضافی را می گیرند، اما چگونه آنها به این اعداد (2.20، 3.40، 3.20) رسیدند؟ آیا این الگوهای شرط بندی افراد است که شرط بندی می کنند، مثلاً اگر 90 درصد مردم در ترکیه پول بگذارند، ضریب «هوین» کمتر می شود یا این یک نوع محاسبه است؟ مشکل محاسبات این است که نمونه بسیار ضعیف است، تیمهای ملی بازیهای بسیار کمی را در بازههای زمانی طولانی انجام میدهند، بین طیف وسیعی از تیمها با قدرتهای مختلف، پارامترهای خارجی زیادی مانند آسیبدیدگی، فرم فعلی و انگیزه بازیکنان و غیره نقش دارند. آیا استراتژی آنها برای مسابقات قهرمانی ملی متفاوت است، زیرا بازیها بیشتر برگزار میشوند، اگرچه 4 بازی لیگ ملی در ماه زیاد نیست (و همچنین در خانه/خارج از خانه انجام میشود که دو بازی بسیار متفاوت هستند. چیزها). بنابراین اساساً سؤال این است که آنها بیشتر به چه چیزی متکی هستند، چگونه به این اعداد می رسند، آیا این محاسبه، الگوهای شرط بندی سایر بازیکنان، ترکیبات و غیره است؟ یک سؤال فرعی، اگر سایر قماربازان تأثیر زیادی بر نحوه تعیین ضرایب داشته باشند، به نظر من چنین ارزیابی هایی با خطای قابل توجهی همراه خواهد بود. نمیدانم میتوانید بین 65 درصد و 70 درصد برای یک نتیجه مشخص تفاوت قائل شوید یا خیر، اما این تفاوت برای من قابل تشخیص نیست. برای واضح تر بودن، من معتقدم که ترکیه در مثال ذکر شده مورد علاقه است، بیشتر به این دلیل که آنها در خانه بازی می کنند، اما شانس آنها برای برد 45٪ یا 55٪ بسیار انتزاعی است، اگر آنها مقابل تیم ملی موناکو بازی کنند، پس من می خواهم. به شما احتمال برد را با اطمینان بسیار بیشتر می دهد. | خانه های شرط بندی چگونه شانس شرط بندی برای ورزش را تعیین می کنند؟ |
47997 | من اخیراً داشتم یک اسکریپت R را اشکال زدایی می کردم و چیز بسیار عجیبی پیدا کردم، نویسنده تابع p-value خود pval <- function(x, y){ if (x+y<20) { # x + y کوچک است، نیاز دارد R.basic p1<- nChooseK(x+y,x) * 2^-(x+y+1); p2<- nChooseK(x+y,y) * 2^-(x+y+1); pvalue = max(p1, p2) } else {# اگر x+y بزرگ است، از تقریب log_p1 استفاده کنید <- (x+y)*log(x+y) - x*log(x) - y*log(y) - (x+y+1)*log(2); pvalue<-exp(log_p1); } return(pvalue) } جایی که X و Y مقادیر مثبتی بزرگتر از 0 هستند. مورد <20 به نظر می رسد محاسبه ای برای نوعی توزیع فوق هندسی (چیزی شبیه به آزمون فیشر؟) باشد و آیا کسی می داند که محاسبه دیگر چیست؟ ? به عنوان یک یادداشت، من سعی می کنم این کد را بهینه کنم، بنابراین سعی می کنم تابع R مناسب را برای فراخوانی و جایگزینی آن پیدا کنم. ویرایش: فرمول جزئیات کاغذ برای محاسبه p-value را میتوانید در اینجا پیدا کنید (برای دیدن فرمولها باید روی pdf کلیک کنید) روشها از صفحه 8 pdf شروع میشوند و فرمول مورد نظر را میتوانید در صفحه 9 زیر (1) پیدا کنید. توزیعی که آنها فرض می کنند پواسون است. | محاسبه مقدار p ناشناخته |
87811 | من نمی دانم آیا کسی می داند چگونه انتخاب نمونه را هنگام استفاده از رگرسیون بازه ای، ترجیحاً با Stata، تصحیح کند. من داده های رشوه در سطح شرکتی دارم که 70 درصد آنها رشوه نداده اند. برای بقیه شرکت هایی که رشوه داده اند، من اطلاعاتی در مورد فراوانی رشوه دارم، یعنی: یک بار، 2-5 بار، 6-10 بار و بیش از 10 بار. با توجه به ماهیت داده ها، فکر نمی کنم بتوانم به سادگی از دستور 'intreg' استفاده کنم. آیا راهی وجود دارد که بتوانم برای انتخاب با مدل رگرسیون بازه ای کنترل کنم لطفا؟ پیشاپیش از شما متشکرم. | رگرسیون بازه ای با انتخاب نمونه در Stata |
95957 | من یک مشکل رگرسیون چند متغیره دارم که باید آن را با استفاده از روش حداقل مربعات وزنی حل کنم. به طور خاص، من یک مجموعه داده X دارم که یک آرایه دو بعدی است. این شامل تعدادی مشاهدات، «n» است و هر مشاهده با یک ردیف نشان داده می شود. هر مشاهده همچنین شامل تعدادی ویژگی است، «m». بنابراین این بدان معناست که هر سطر دارای ستونهای m است. بنابراین مجموعه داده من 'X' یک آرایه 'n'×'m است. با توجه به مشاهده دادههای آزمایشی، رگرسیون چند متغیره باید تابعی را تولید کند که بردار پاسخ «y» را پیشبینی کند، که یک آرایه دو بعدی نیز هست. این تابع از ضرایب m تشکیل شده است، یعنی یک ضریب/پارامتر برای هر یک از ویژگی های m ورودی تست. این راه حل از قبل در اینجا موجود است: WLS Statsmodels، با این تفاوت که آنها هنوز بردار پاسخ 2 بعدی را پشتیبانی نمی کنند. به عبارت دیگر، وقتی دادهها را برازش میکنم، باید مجموعه داده خود را «X» ارائه کنم، اما فقط میتوانم یک آرایه 1 بعدی را به عنوان پاسخ «y» ارائه کنم. علاوه بر این، من همچنین به یک بردار وزن دوبعدی، مشابه بردار پاسخ «y» نیاز دارم. آیا پیادهسازی رگرسیون چند متغیره WLS در پایتون وجود دارد که «y» و «وزن» میتوانند بردارهای دوبعدی باشند؟ یا اگر یک پیاده سازی مستقیم نیست، آیا هر یک از بسته های موجود می تواند به نوعی به عنوان یک پیاده سازی، با مقدار کمی تعدیل استفاده شود؟ ## ویرایش برای واضحتر شدن سوالم، اینها پارامترهایی هستند که میدهم و نتایجی که باید دریافت کنم: ورودی: * `X`: یک مجموعه داده دوبعدی، مانند 10x3، که شامل 10 مشاهده با 3 ویژگی است. * `y`: که همچنین یک بردار دو بعدی است، در این مورد 10x2 است. به عبارت دیگر، یک بردار پاسخ 2 مقداری برای هر مشاهده. (در حال انجام طبقه بندی هستم و دو کلاس ممکن است). * وزن: یک بردار پاسخ دوبعدی که همچنین 10x2 است، مانند y. '10' بالا تعداد دلخواه ردیف است. در نهایت، هر چقدر مشاهدات زیادی داشته باشم، این همان چیزی است که تعداد سطرها برای همه بردارهای بالا خواهد بود. خروجی مورد نیاز من: * ضرایب رگرسیون. با توجه به اینکه بردارهای پاسخ و وزن من دوبعدی هستند، معتقدم ضرایب نیز یک آرایه دو بعدی خواهند بود، احتمالاً 3x2 یا 2x3. | رگرسیون چند متغیره با حداقل مربعات وزنی در پایتون؟ |
8007 | کارگران یک کارخانه در حال مونتاژ اقلام ساخته شده از چندین قسمت هستند. برای هر کالا، قطعات را از انبار می آورند و سپس اقلام را مونتاژ می کنند. من فکر می کنم آنها به زمان مشخصی برای هر آیتم برای مونتاژ به اضافه زمان مشخصی برای هر قطعه برای واکشی آنها نیاز دارند. $D_{order} = n_{اقلام} * D_{fetch} + n_{parts} * D_{assemble}$ فهرستی از سفارشهای گذشته دارم که به من میگوید * $n_{items}$: چند مورد در آن وجود دارد آن سفارش * $n_{parts}$: چند قسمت در آن ترتیب وجود دارد و * $D_{order}$: چقدر طول کشید تا کارگر سفارش را تکمیل کند. من می خواهم بر اساس تعداد اقلام و قطعات تخمین بزنم که یک سفارش آینده چقدر طول می کشد. بنابراین باید $D_{fetch}$ و $D_{assemble}$ را پیدا کنم. بهترین راه برای رسم داده ها برای تخمین این دو عامل کدام است؟ در اینجا چند نمونه از داده ها آمده است (زمان تکمیل سفارش در محور Y): این نمودار زمان تکمیل یک سفارش را در مقابل تعداد کلی قطعات موجود در آن نشان می دهد:  این نمودار زمان تکمیل یک سفارش را در مقابل تعداد اقلام مونتاژ شده در آن نشان می دهد:  چیزی که قبلاً نگفتم: معمولاً چندین مورد یک محصول هستند، بنابراین ممکن است برای هر محصول هزینهای برای دریافت/ وجود داشته باشد. خواندن نقشه های مناسب بنابراین این نمودار زمان تکمیل یک سفارش را در مقابل تعداد محصولات منحصربهفرد در آن نشان میدهد:  | چگونه زمان هر محصول را در یک کارخانه تخمین بزنیم؟ |
7466 | من می خواهم عناصر را در آرایه خوشه بندی کنم. تفاوت اساسی با یک الگوریتم خوشه بندی معمولی این است که ترتیب عناصر قابل توجه است. به عنوان مثال، اگر به دنباله ساده ای از اعداد مانند این نگاه کنیم: 1.1، 1.2، 1.0، 3.3، 3.3، 2.9، 1.0، 1.1، 3.0، 2.8، 3.2 بدیهی است که دو خوشه در آنجا وجود دارد (1.1، 1.2، 1.0، 1.0، 1.1) و (3.3، 3.3، 2.9، 3.0، 2.8، 3.2). آنچه من می خواهم این است که گروه های متوالی عناصر مشابه (1.1، 1.2، 1.0)، (3.3، 3.3، 2.9)، (1.0، 1.1)، (3.0، 2.8، 3.2) 4 را در این مورد پیدا کنم. البته من می توانم گونه ای از یک الگوریتم خوشه بندی معمولی را اجرا کنم و سپس خوشه ها را بر اساس شاخص های عناصر تقسیم کنم، اما احتمالاً راه ساده تری برای انجام این کار وجود دارد. آیا الگوریتمی وجود دارد که بتوانم برای این کار استفاده کنم؟ | الگوریتم خوشه بندی متوالی |
47990 | من برابری دو نسبت دوجمله ای 87/88 و 48/60 را آزمایش می کنم. من از این ماشینحساب آنلاین استفاده میکنم و اشاره کرد که تقریب معمولی استاندارد در این مورد معتبر نیست. به نظر من کاملاً عجیب است. آیا در آزمایش برابری دو نسبت دو جمله ای اگر یکی از نسبت ها بسیار نزدیک به 100٪ باشد مشکلی وجود دارد؟ | آزمایش برابری نسبت دو جمله ای (یکی نزدیک به 100%) |
83388 | تجزیه را می توان برای تولید داده های فصلی زدایی شده برای ورودی به تجزیه و تحلیل ARIMA استفاده کرد. اما چرا این کار انجام می شود؟ آیا تاثیر زیادی بر تحلیل و در نتیجه پیش بینی حاصله دارد؟ | تجزیه و تحلیل ARIMA - تجزیه |
12554 | چه پارامتری برای «glmnet» نتایج مشابه «glm» را به همراه خواهد داشت؟ (من عمدتاً به رگرسیون های لجستیک و خطی علاقه مند هستم، اگر این مهم باشد.) | چگونه کاری کنیم که glmnet نتایج مشابه glm را داشته باشد؟ |
56546 | سلب مسئولیت استاندارد من: من یک برنامه نویس هستم، نه متخصص آمار، بیشتر می خواهم آزمایش های آماری برای بهینه سازی برنامه های وب را درک کنم. فرض کنید می خواهم نرخ درآمدزایی کاربران را اندازه گیری کنم. چند کاربر کسب درآمد می کنند؟ این یک سوال بله یا خیر برای هر کاربر است. پس از خواندن ویکیپدیا، ممکن است بگویم، این سوال بله/نه یک متغیر برنولی است. من میتوانم گروههایی از کاربران را به عنوان نمونههایی از توزیع Binomial مدل کنم و از توزیعهای Binomial و Beta برای تخمین _p_ و مقایسه گروههای کاربران استفاده کنم. اما، اگر _p_ برای هر کاربر در گروه یکسان نباشد، چه؟ برخی از کاربران همیشه کسب درآمد خواهند کرد، برخی از کاربران هرگز کسب درآمد نخواهند کرد... برخی پس از روز پرداخت بعدی خود کسب درآمد خواهند کرد. حتی اگر سوال یک سوال بله/خیر است، آیا گاهی اوقات اشتباه است (یا بهتر است بگوییم، چقدر ایمن است) استفاده از توزیعهای Binomial/Beta برای مدلسازی یک مجموعه به این روش؟ این توزیعها یک _p_ ثابت را فرض میکنند، اما زمانی که _p_ ممکن است برای هر کاربر متفاوت باشد، آیا نتایج نادرستی دریافت میکنم؟ | چگونه می توانم تشخیص دهم که مدل سازی/تست با Binomial/Beta درست است؟ |
95954 | من یک مدل لجستیک چند سطحی با استفاده از PROC GLIMMIX در SAS 9.3 برای داده های سلسله مراتبی بر اساس پیشرفت دانش آموز طراحی کرده ام که در آن سطح دو مدرسه ای است که دانش آموز در آن تحصیل می کند. من کاملاً مطمئن هستم که مدل من مناسب است، من مقدار chi-square/DF تعمیم یافته 1.07 دارم اما هیچ راه دیگری برای اعتبارسنجی مدل ندارم. آیا روش دیگری برای بررسی مناسب بودن مدل وجود دارد؟ من در مورد احتمالاً گسترش منحنی ROC به مدلهای چند سطحی مطالب زیادی خواندهام، اما معتقدم که این نامعتبر است. آیا معادل چند سطحی از آماره آزمون Hosmer & Lemeshow برای رگرسیون لجستیک تک سطحی استفاده می شود؟ | اعتبار سنجی مدل برای رگرسیون لجستیک چند سطحی؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.