_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
26978
|
خوب، بنابراین من یک مدل مبتنی بر حافظه برای پیشبینی مقادیر متغیر X دارم و مقادیر واقعی X را نیز اندازهگیری کردهام. هم RMSE و هم MAPE را برای تفاوت Xreal-Xpredicted محاسبه کردهام. من می دانم که اگر مقدار RMSE کمتر از یک مقدار خاص باشد، گفتن خوب یا بد بودن یک مدل مطلقاً فایده ای ندارد. من متعجب بودم که آیا قاعده ای وجود دارد که بینش هایی در مورد این موضوع ارائه می دهد. به عنوان مثال محدوده داده های من از 0 تا 4 است و من RMSE 1،1 دارم. آیا قانون تجربی وجود دارد که نشان دهد این یک تخمین خوب/بد است؟ پیشاپیش از شما متشکرم ETA: X ممکن است همه مقادیر را در محدوده{-2،2}
|
استفاده از rmse و mape برای ارزیابی مدل
|
68110
|
من با داده های تجربه بیمار کار می کنم که در آن بیماران به سؤالات مربوط به اقامت خود در بیمارستان پاسخ می دهند. سپس به هر سؤال یک مقدار همبستگی داده می شود زیرا به سؤال نهایی تجربه کلی مربوط می شود. داده ها در فواصل 6 ماهه است که هر سؤال دارای مقادیر همبستگی متفاوت برای هر فاصله 6 ماهه است. چگونه می توانم از چهار بازه زمانی 6 ماهه، یعنی چهار مقدار همبستگی، یک مقدار همبستگی برای داده های 2 ساله بدست بیاورم؟
|
میانگین گیری همبستگی ها
|
1998
|
میلر و چپمن (2001) استدلال می کنند که کنترل متغیرهای کمکی غیرمستقل که به هر دو متغیر مستقل و وابسته مرتبط هستند در یک مطالعه مشاهده ای (غیر تصادفی) کاملاً نامناسب است - حتی اگر این کار به طور معمول در علوم اجتماعی انجام می شود. انجام این کار چقدر مشکل دارد؟ بهترین راه برای مقابله با این مشکل چگونه است؟ اگر به طور معمول متغیرهای کمکی غیرمستقل را در یک مطالعه مشاهده ای در تحقیق خود کنترل می کنید، چگونه آن را توجیه می کنید؟ در نهایت، آیا این دعوا ارزش آن را دارد که هنگام بحث کردن با روششناسی با همکاران خود (یعنی واقعاً مهم باشد)؟ ## با تشکر از Miller, G. A., & Chapman, J. P. (2001). تحلیل نادرست از کوواریانس. مجله روانشناسی نابهنجار، 110، 40-48. - http://mres.gmu.edu/pmwiki/uploads/Main/ancova.pdf
|
کنترل متغیرهای کمکی غیرمستقل در یک مطالعه مشاهده ای (یعنی غیرتصادفی) چقدر مشکل ساز است؟
|
58184
|
وقتی فقط یک متغیر (سن) را با پاسخ بله و خیر مقایسه میکنید، چگونه یک همبستگی را محاسبه میکنید، که شبیه به Spearman و Pearson forumlar است. با بالا رفتن سن احتمال پاسخ مثبت بیشتر است. آیا این امکان پذیر است؟ متشکرم
|
محاسبه همبستگی با پاسخ های بله/خیر؟
|
58183
|
اول، متوجه شدم که این ممکن است یک سوال اساسی باشد. با این حال، هنگامی که من در وب برای منابعی در مورد این موضوع جستجو می کنم، با این مشکل مواجه می شوم که آیا توضیحی که می خوانم برای مثالی که در ذهن دارم قابل استفاده است یا خیر. بنابراین، در حالی که میدانم پاسخ سؤالات زیر چه میتواند باشد، هنوز به تفکر بیزی خود اطمینان زیادی ندارم. هر گونه راهنمایی قدردانی خواهد شد. متشکرم. تجزیه و تحلیل در چارچوب بیزی انجام می شود و توزیع خلفی از یک پارامتر محدود شده بین 0 و 1 را به دست می دهد. این پارامتر برای 1 گونه در دو نقطه در زمان (دو سال) اما در 2 شرایط بسیار متفاوت تخمین زده می شود. دو سال به طور جداگانه تجزیه و تحلیل شده است. در یک سال میانگین قسمت خلفی پارامتر ممکن است حدود 30٪ و در سال دیگر حدود 45٪ باشد. واکنش اولیه من این است که یک آزمون فرضیه انجام دهم و بپرسم آیا این دو تخمین به طور قابل توجهی متفاوت هستند؟ با توجه به ماهیت بیزی تحلیل، آیا پرسیدن این سوال معنادار است؟ آیا انتظار پاسخ «بله یا نه»، مشابه آنچه در یک محیط مکرر انتظار می رود، منطقی است؟ بگو که سوال معنادار است. چگونه شخص به دنبال یافتن پاسخ است؟ اگر فواصل معتبر 95% را با هم مقایسه کنم و متوجه شوم که CI پارامترهای دو سال با هم همپوشانی دارند، آیا به این معنی است که تفاوتی وجود ندارد؟ یک رویکرد مشابه، معرفی یک متغیر جدید در مدل، نامگذاری آن YR، و اجازه دادن به YR برای منعکس کردن تأثیر سال دوم بر برآورد پارامتر اصلی است. میتوانم به تخمین YR نگاه کنم و بپرسم که آیا بازه معتبر 95٪ آن شامل 0 میشود یا خیر. تخمین پارامترها نسبتاً نامشخص هستند --- اگر یک توزیع پسین با میانگین 30٪ باشد، چارک های 1 و 3 آن می تواند بین 20٪ و 40٪ باشد (و سال 45٪ بین 35٪ و 55٪ خواهد بود. . بگوییم که تخمین پارامترها دارای 95٪ CI هستند که همپوشانی دارند، یا YR به عنوان 15٪ تخمین زده می شود، اما CI آن شامل 0 است. که سالها 15% متفاوت بودند، ± مقداری عدم قطعیت؟ با تشکر
|
آیا قسمت های خلفی متفاوت هستند؟ چگونه می توان نتیجه را مورد بحث قرار داد؟
|
58187
|
من سعی میکنم یک رگرسیون چند جملهای سلسله مراتبی را با دادههای مقطعی تطبیق دهم. من حدود 2000 واحد با تنها یک مشاهده در هر واحد دارم. من یک متغیر پاسخ دو جمله ای و 14 متغیر نشانگر ساختگی دارم. من از تابع rhierMnlRwMixture در بسته bayesm برای تطبیق یک Logit چند جمله ای سلسله مراتبی با ترکیبی از ناهمگونی نرمال ها استفاده می کنم، اما من در انتخاب پارامترهای خود مشکل دارم: تعداد نرمال ها برای مخلوط، ماتریس Z که بتاها با آن ساخته می شوند، اولویت ها برای پارامترها. آیا کسی می تواند مرا راهنمایی کند که در انتخاب این پارامترهای مدل باید چه مواردی را در نظر بگیرم؟ همچنین، استفاده از یک مدل سلسله مراتبی با تنها 1 مشاهده در واحد چقدر مناسب است؟ آیا ابتدا باید جمعیت خود را خوشه بندی کنم تا با مشاهدات بیشتر واحدهای کمتری به دست بیاورم؟
|
پارامترهای یک رگرسیون چند جمله ای سلسله مراتبی
|
52908
|
سلام نحوه نمایش موارد زیر: مشاهدات $(X_1، X_2،..، X_n،)$ i.i.d هستند. بیش از $[0,2\pi)$ با چگالی $f(x,\theta) = \exp[\theta_1\cos x + \theta_2 \sin x -c(\theta)]$ که در آن $\theta =(\ theta_1,\theta_2) \in R^2$ یک عبارت برای اطلاعات فیشر $I(\theta)$ شامل انتگرالها پیدا کنید و نشان دهید که برای همه $\theta مثبت است. \ در R^2 $ متشکرم!
|
اطلاعات فیشر
|
45060
|
سلام من سعی می کنم با بسته های tsDyn برای جا دادن سری های زمانی کار کنم. اگر بتوانم این بسته را به درستی کار کنم، در وقت من صرفه جویی کنید. من با دادههایی کار میکنم که به این شکل است: تغییر زمان شیب کم شیب13 شیب50 شیب200 پیشبینی 1 2.008082e+13 -0.00150 0.00860 -0.00420 288.46154 185.2020.301. 0.00160 0.00570 -0.00540 90.84615 178.22 55.10 NA 3 2.008082e+13 -0.00320 0.00020 -0.00409 42.081602 42.0808082 2.008082e+13 -0.00310 0.00330 -0.00010 36.92308 180.80 61.60 NA 5 2.008082e+13 -0.00156 0.00714 0.00714 -0.00714 -0.00714 -0.00714 -0.00714 -0.008082 59.25 NA 6 2.008082e+13 0.00416 0.00176 -0.00292 -18.84615 171.56 58.27 NA ستون زمان ستونی است که شامل زمان است. به نظر می رسد 20080817210000 YYYYMMDDHHMMSS. هنگام تلاش برای استفاده از هر یک از توابع روی داده ها با خطا مواجه می شوم. فقط سری های زمانی تک متغیره مجاز هستند. من نمی توانم بفهمم که در اینجا چه اشتباهی انجام می دهم. یک مثال: > mt4nnetTS <- nnetTs(mt4, m= 2, size= 3) خطا در nlar.struct (x = x, m = m, d = d, step = گام, سری = سری) : فقط سری های زمانی تک متغیره مجاز هستند من مطمئن نیستم که اینجا چه اشتباهی انجام می دهم؟
|
R با سری tsDyn و Time کار می کند
|
45061
|
از ویکیپدیا > آزمایش فاکتوریل کامل، آزمایشی است که طراحی آن از دو یا چند عامل تشکیل شده است، که هر کدام دارای مقادیر یا «سطوح» گسستهای ممکن است، و واحدهای آزمایشی آن همه ترکیبهای ممکن از این سطوح را در همه این عوامل میگیرند. طرح کامل فاکتوریل ممکن است طرح کاملاً متقاطع > نیز نامیده شود. چنین آزمایشی امکان مطالعه تأثیر هر **عامل** را بر > **متغیر پاسخ**، و همچنین اثرات متقابل بین عوامل > بر متغیر پاسخ را فراهم می کند. یک متغیر پاسخ خروجی در یک تابع پیش بینی است (یعنی رگرسیون یا طبقه بندی)، و عوامل اجزای ورودی تابع پیش بینی هستند. پس آیا درست است که آزمایش فاکتوریل فقط برای جمع آوری جفت ورودی و خروجی یک تابع پیش بینی در رگرسیون یا طبقه بندی استفاده شود. با تشکر
|
آیا از آزمایش فاکتوریل فقط برای پیش بینی (رگرسیون یا طبقه بندی) استفاده می شود؟
|
45065
|
من سعی می کنم تأثیر متغیرهای مستقل، رشد، تورم، و Z (اقتصاد خوب برای چندین فصل) را بر روی آرای ریاست جمهوری دریافت شده توسط حزب فعلی آزمایش کنم. فرضیه جایگزین من این است که در طول دهه ها، میزان تأثیرگذاری اینها بر انتخابات ثابت نبوده است. دلیلی که من این را آزمایش میکنم این است که میخواهم ببینم آیا باید مجموعه دادههایم را به دوران مدرن (1980 به بعد یا بیشتر) محدود کنم، اگر متغیرها تأثیر متفاوتی نسبت به اوایل قرن بیستم داشتند. اگر من از چنین مجموعه داده محدودی استفاده کنم، بدیهی است که ضرایب بتا متفاوت خواهند بود و بر نتایج من تأثیر خواهند گذاشت. بهترین راه برای تست این چیست؟ ایده های من: من می خواستم برای هر 6 انتخابات یک ANOVA بر خلاف مدل خود انجام دهم (در R: votePercent~G*P*Z) و ببینم آیا متغیرهای خاصی باعث ایجاد واریانس بیشتر در انتخابات قبلی شده اند یا خیر. از طرف دیگر، من میتوانم R2 این مدل را در مقابل Dependent var (رای مردمی) روی گروههای انتخابات انجام دهم و ببینم شیب چگونه تغییر میکند. در نهایت، امیدوارم انجام این ANOVA/LinReg در برابر کل مدل خطی با شرایط تعامل صحیح باشد. هر گونه راهنمایی قدردانی خواهد شد. لطفاً به من بگویید که آیا استدلال من منطقی است یا شما به طور دیگری به این موضوع نگاه می کنید. نکته جانبی: در R، anova فقط دادهها را بر روی متغیرهای مستقل من و تنها 1 عبارت تعاملی 4 را زمانی که از 6 سال انتخاباتی استفاده کردم در مقایسه با 33 سال انتخاباتی، که دادهها را در مورد همه عبارتها در مدل خطی من برمیگرداند، برگرداند. آیا تعداد نقاط داده بر توانایی ANOVA برای عملکرد صحیح تأثیر می گذارد؟ آیا وقتی میخواهم از آن در مجموعه دادههای کوچک استفاده کنم، این باعث بیمعنای آنوا میشود؟
|
آزمایش تأثیر متغیرهای مستقل در طول دهه های مختلف
|
59853
|
سوال مشابه اینجا سوالی که در بالا برجسته کردم نمای کلی از نحوه عملکرد مدل های خطی تعمیم یافته را ارائه می دهد. با این حال، متوجه می شوم که مردم اغلب بیشتر می خواهند و می پرسند که چگونه ضرایب محاسبه شده اند، و چگونه ضرایب به نسبت شانس یا احتمالات پیش بینی شده تبدیل می شوند. بنابراین، اگر من مدلهای لاجیت را برای کسی توضیح میدادم که هیچ تجربهای در مدلسازی آماری ندارد، چگونه فرآیند رفتن از دادهها به ضرایب و سپس نسبتهای شانس و/یا احتمالات پیشبینیشده را با محدودترین ریاضی ممکن توضیح میدهید؟ 1. مدل چگونه داده ها را می گیرد و ضرایب خاصی تولید می کند؟ 2. چگونه از این ضرایب اطلاعات مفیدی بدست آوریم؟ اجتناب از ریاضی در این مورد دشوار است، زیرا مهم است که به نحوه محاسبه منحنی احتمال یا نسبتهای شانس اشاره کنیم. سوال من بیشتر به 1. می پردازد تا 2.
|
چگونه ضرایب لاجیت را برای فردی بدون پیشینه آماری توضیح می دهید؟
|
48096
|
من برای اولین بار این یک MSE را پست کردم، اما به من اشاره شد که این سایت ممکن است برای این نوع سوالات مناسب تر باشد (به همین دلیل است که این سوال برای حدود 11 ساعت پاسخ داده نشد) در آنجا. _بنابراین ما داده های زیر را در مورد یک تحقیق داریم:_ **گروه 1:** $n_1 = 10$\mu \bar{x}_1 = 433$ $ \sigma \bar{x}_1 = 65$ **گروه 2:** $n_2 = 12$ $ \mu \bar{x}_2 = 367$ $ \sigma \bar{x}_2 = 84$ **فرضیه ها:** $H_0: \mu _v = \mu _1 - \mu _2 =0$ $H_1: \mu _v \neq 0$ _معلم من محاسبات زیر را انجام داد که من کاملاً صراحتاً آنها را درک نمی کنم همه:_ $ \sigma_v = \sqrt{\sigma_x^2 + \sigma_y^2}$، بنابراین: $ \sigma _v = (\sqrt{\dfrac{ \sigma \bar{x}_1}{\sqrt{n_1}}})^2 + (\sqrt{\dfrac{ \sigma \bar{x}_2}{\sqrt{n_2} }})^2 =... \approx 32 $ , بنابراین می توانیم $H_0$ را رد کنیم **شکایت و سردرگمی من:** * او در محاسبه خود استفاده می کند $\sigma {x} = \dfrac{\sigma \bar{x}}{\sqrt{n}}$، اما من همیشه این فرمول را دیدهام: $\sigma \bar{x} = \dfrac{\sigma_x }{\sqrt{n}}$. آیا محاسبات او کاملاً نادرست نیست؟ * وقتی ما (من اشتباه فرض میکنم) $\sigma _v$ داریم، چرا میتوانیم بلافاصله $H_0$ را رد کنیم؟ من فکر می کنم برخی از مراحل (که من نمی فهمم) وجود دارد. **ویرایش**: همچنین، اکنون که به آن فکر می کنم، آیا $\mu \bar{x}$ اضافی نیست، زیرا $\bar{x}$ قبلاً میانگین نمونه است؟ یا تفاوتی بین این دو وجود دارد؟ **پاسخ من:** $ \mu _v = 0 $ $ \sigma_v = \sqrt{(\sigma \bar{x_1} \times \sqrt{n_1})^2 + (\sigma \bar{x}_2 \ بار \sqrt{n_2})^2} \تقریباً 356 $ P $ (X \geq 66 | \mu = 0 , \sigma = 356) \تقریباً 0.426 $ 0.426 $ > \dfrac{1}{2} \alpha $ ، بنابراین فرضیه صفر صادق است. **ps** \- به خاطر داشته باشید که این آزمایش فرضیه ابتدایی است، نه چیزی پیشرفته. ما فقط توزیع دوجمله ای و توزیع های نرمال را آموزش داده ایم. صادقانه بگویم، من هیچ ایده ای ندارم که امتیازهای z یا t-scores (و از این قبیل) چیست و ذکر آنها در پاسخ شما لازم نیست (چون ما هرگز در مورد آنها بحث نکردیم و او احتمالاً خودش نمی داند که آنها چه هستند، زیرا او نیست). او یک معلم آمار فرض نمیکرد که ما تستهای t را میدانستیم.
|
نمونه انحراف معیار - آیا معلم من اشتباه کرده است (آزمون فرضیه)؟
|
45069
|
من یک متغیر وابسته طبقهای غیر ترتیبی با 3 نتیجه انتخابی و 20 پیشبینیکننده طبقهبندی ترتیبی دارم و میخواهم یک رگرسیون لجستیک چند جملهای انجام دهم. با این حال، من میخواهم پیشبینیکنندهها را با تحلیل عاملی تنها به چند متغیر کاهش دهم. SPSS امتیازهای فاکتور رگرسیون را به عنوان متغیر برای هر یک از موارد من می دهد. آیا 20 پیشبینیکننده اصلی خود را با این 5 متغیر امتیاز فاکتور رگرسیون جایگزین میکنم، یا اینکه قبل از استفاده از آنها بهعنوان پیشبینیکننده، باید فاکتورها در قالب دیگری باشند؟
|
رگرسیون چند جمله ای با انتخاب مقوله ای و پیش بینی ها و تحلیل عاملی
|
45066
|
من فکر می کنم خدمات پخش ویدئو به عنوان مثال. سایت های لوله مانند می توانند زمین بازی بعدی برای دانشمندان داده شوند، به خصوص که من کاملاً به افزایش نرخ بازی علاقه مند بودم و می خواهم در مورد این موضوع تحقیق کنم. ایده هایی در مورد نحوه تجزیه و تحلیل اطلاعات سیستم کاربر در راه ساختن چیزی مانند یک مدل تولید کننده تصویر کوچک خودکار که بالاترین چگالی فریم کلیپ را انتخاب می کند، به ذهنم رسید، این شامل کار با مجموعه داده هایی است که در آن هر اندازه گیری بیشتر شبیه به نظر می رسد. یک فاصله زمانی فرض کنید یک کلیپ در ثانیه 0 شروع می شود و کاربر 1 تصمیم می گیرد که مستقیماً بعد از تماشای 15 ثانیه اول به دوم 120 بپرد و سپس تقریباً بلافاصله به ابتدا برمی گردد - فرض کنید دوم 10. داده ها چیزی شبیه به این خواهند بود: 0:15 120:121 10:X تعجب می کنم که آیا هر نوع چارچوب یا تکنیکی برای کار با این نوع اندازه گیری های فاصله ای وجود دارد؟ امیدوارم توضیح من منطقی باشد.
|
مدل مولد تصویر بندانگشتی خودکار بر اساس معیارهای فاصله زمانی برای سایت های لوله
|
59859
|
فرآیند دیریکله، طبق انتظار، $\alpha \log n$ رستوران، هنگام قرض گرفتن اصطلاحات فرآیند رستوران چینی، با $\alpha$ پارامتر غلظت است. Pitman-Yor، از سوی دیگر، دارای $\alpha n^d$ جدول است، که $\alpha$ پارامتر غلظت، و $d$ پارامتر تخفیف است. چه ارتباطی با قانون قدرت دارد؟ من می دانم که PY رفتار قانون قدرت دارد، اما DP ندارد. از ویکی پدیا: پارامترهای حاکم بر فرآیند Pitman-Yor عبارتند از: 0 ≤ d < 1 یک پارامتر تخفیف، یک پارامتر قدرت θ > -d و یک توزیع پایه G0 در فضای احتمال X. هنگامی که d = 0، تبدیل به دیریکله می شود. فرآیند پارامتر تخفیف به فرآیند Pitman-Yor نسبت به فرآیند دیریکله که دارای نمایی است، انعطاف بیشتری نسبت به رفتار دم می دهد. tails این باعث میشود فرآیند Pitman-Yor برای مدلسازی دادهها با دمهای قانون قدرت مفید باشد.
|
فرآیند دیریکله در مقابل پیتمن-یور و قانون قدرت - چه ارتباطی با هم دارند؟
|
2860
|
ما می دانیم که ماتریس طرح ریزی که توسط PCA آموخته می شود را می توان در نقاط داده خارج از نمونه اعمال کرد تا جاسازی کم بعدی آنها را بدست آورد. با این حال، در مقایسه با جاسازی بهدستآمده از PCA با این نقاط خارج از نمونه همراه با دادههای اصلی، چقدر قابل اعتماد هستند؟ این تنظیم فرضی شبه خارج از نمونه را در نظر بگیرید: فرض کنید من 1000 نقطه داده دارم و می خواهم PCA را روی آنها انجام دهم. آیا می توانم در عوض فقط روی 500 مورد از آنها PCA انجام دهم (برای اینکه مقداری صرفه جویی در محاسبات داشته باشم) و سپس از ماتریس پیش بینی آموخته شده برای جاسازی بقیه نقاط نیز استفاده کنم (با در نظر گرفتن آنها به عنوان داده های خارج از نمونه). )؟
|
PCA در داده های خارج از نمونه
|
44332
|
برای پاسخ دادن به این سوال به کمک نیاز دارم، این یک سوال امتحانی است.
|
اگر باقیمانده ها نویز سفید نباشند از نظر رگرسیون به چه معناست؟
|
44331
|
من موفق به ایجاد شبکه عصبی از داده های خود شدم. اما در مورد تفسیر خروجی R چندان مطمئن نیستم. من از دستور زیر برای ایجاد شبکه عصبی استفاده کردم: > net=nnet(فرمول = دسته~iplen+date_time, size=0,skip=T,lineout=T) #weights: 3 مقدار اولیه 136242.000000 مقدار نهایی 136242.000000 همگرا شده سپس از دستور زیر استفاده کردم برای دیدن خروجی: > خلاصه (شبکه) یک شبکه 2-0-1 با 3 گزینه وزن were - اتصالات skip-layer b->o i1->o i2->o 0.64 -0.46 0.15 بنابراین از خروجی بالا می توانم نمودار شبکه عصبی زیر را نتیجه بگیرم؟:  سوال دوم این است که چگونه می توانم بدانم این نمودار چقدر مفید است؟ منظورم این است که من می خواستم شماره دسته (متغیر هدف) را از متغیرهای مستقل پیدا کنم. بنابراین اکنون چگونه می توانم تصمیم بگیرم که آیا این شبکه واقعاً به من در پیش بینی دسته (متغیر هدف) کمک کرده است؟ خروجی نهایی چیست یا چگونه می توان آن را پیدا کرد؟ آیا می توانم خروجی زیر را از شبکه n فوق نتیجه بگیرم؟ : دسته= -0.46(iplen)+0.15(تاریخ_زمان)+0.64 با احترام،
|
تفسیر خروجی شبکه عصبی در R؟
|
44335
|
فرض کنید یک سکه مغرضانه به شما داده می شود که احتمال بدست آوردن سر برای آن $p (0<p<1)$ است. در مورد اینکه چگونه یکی از دو فرد را به طور تصادفی با استفاده از سکه بایاس انتخاب می کنید، بحث کنید.
|
چگونه می توانید با استفاده از یک سکه مغرضانه یکی از دو فرد را به طور تصادفی انتخاب کنید
|
44336
|
در «matlab» میتوان از classregtree برای پیادهسازی درختهای طبقهبندی و رگرسیون (CART) استفاده کرد. ، یک روش مجموعه اولیه، درخت های تصمیم گیری متعددی را با نمونه گیری مجدد مکرر داده های آموزشی با جایگزینی، و رای دادن به درخت ها برای پیش بینی اجماع ایجاد می کند. ** طبقهبندیکننده جنگل تصادفی** از تعدادی درخت تصمیم برای بهبود نرخ طبقهبندی استفاده میکند. ** درختان تقویت شده ** را می توان برای مشکلات نوع رگرسیون و نوع طبقه بندی استفاده کرد. جنگل چرخشی - که در آن هر درخت تصمیم با استفاده از تجزیه و تحلیل مؤلفه اصلی (PCA) روی یک زیر مجموعه تصادفی از ویژگی های ورودی آموزش داده می شود. من وسوسه شدم که بگویم جنگل تصادفی، اما می خواهم توضیح دهم، آیا کسی می داند متلب کدام روش را برای طبقه بندی پیاده سازی می کند؟
|
درختان طبقه بندی و رگرسیون (گاری)
|
2863
|
من می خواهم همبستگی کل آیتم ها را در یک پرسشنامه 19 سوالی ارزیابی کنم (برخی از سوالات به منظور نمره گذاری معکوس هستند). سوال من این است: * آیا قبل از محاسبه همبستگی آیتم-کل، آیتم ها را معکوس می کنم (به منظور حذف هر متغیری که با کل 40/0 > همبستگی ندارد)؟ * بعلاوه، آیا قبل از اجرای تحلیل عاملی، آیتم ها باید نمره معکوس داده شوند؟
|
آیا قبل از اجرای تجزیه و تحلیل قابلیت اطمینان (همبستگی کل آیتم) و تحلیل عاملی باید آیتم های امتیاز را معکوس کنم؟
|
68116
|
من پارامترهای یک مدل ARIMA را با تابع arima در R تخمین زدم و t نسبت یا آمار t را برای هر پارامتر محاسبه کردم. حالا می خواهم مقادیر p را برای آزمون t پیدا کنم، درجه آزادی من چقدر است؟ آیا این تعداد مشاهدات من است؟
|
درجه آزادی در مدل ARIMA
|
58456
|
من روی یک مجموعه داده با دو نقطه زمانی کار میکنم و علاقهمندم که از خط پایه تغییر کند. هیچ گروه درمانی متفاوتی وجود ندارد. اول، متوجه شدم که این به سادگی با استفاده از آزمون t زوجی ساخته می شود. با این حال، من می خواهم برای پاسخ پایه تنظیم کنم. سوال ساده من این است: آیا درست است که عبارت رهگیری را در مدل زیر به عنوان میانگین تغییر تعدیل شده خط پایه تفسیر کنم؟ y= امتیاز در زمان2 x= امتیاز در زمان1 $\alpha$ = قطع $$y - mean(x)= \alpha + \beta (x-mean(x))$$
|
تفسیر رهگیری هنگام تنظیم برای پاسخ خط پایه
|
24232
|
فرض کنید متغیرهای $X_{1}، \dots، X_{100}$ دارید (میتواند گسسته یا پیوسته باشد). اگر می خواهید تمام تعاملات ممکن را آزمایش کنید، آیا باید همه آنها را در یک مدل قرار دهید؟ ما در اینجا رگرسیون خطی انجام می دهیم.
|
شرایط تعامل
|
28566
|
شبیهسازی نوین دادهها از یک چارچوب داده طراحی تجربی. با تمرکز بر R (اگرچه راه حل های زبان دیگر عالی خواهد بود). در طراحی یک آزمایش یا یک نظرسنجی، شبیه سازی داده ها و انجام تجزیه و تحلیل بر روی این داده های شبیه سازی شده می تواند بینش فوق العاده ای از مزایا و نقاط ضعف طرح ارائه دهد. چنین رویکردی همچنین می تواند برای درک و استفاده مناسب از آزمون های آماری ضروری باشد. با این حال، این فرآیند تا حدودی خسته کننده است و بسیاری از آنها به رد شدن از این مرحله مهم در یک آزمایش یا بررسی سوق داده می شوند. مدلها و آزمونهای آماری حاوی بیشتر اطلاعات مورد نیاز برای شبیهسازی دادهها (از جمله یک فرض یا بیانیه صریح توزیع) هستند. با توجه به یک مدل تجزیه و تحلیل (و مفروضات مرتبط با آن مانند نرمال بودن و تعادل)، سطوح یک عامل و معیاری از اهمیت (مانند p-value)، میخواهم دادههای شبیهسازی شده را به دست بیاورم (به طور ایدهآل با یک تابع تعمیمیافته شبیه به print(), predict(), simulate()). آیا چنین چارچوب شبیه سازی تعمیم یافته ای امکان پذیر است؟ اگر چنین است، آیا چنین چارچوبی در حال حاضر موجود است؟ به عنوان مثال، من تابعی را می خواهم، مانند: sim(aov(response~factor1+factor2*factor3)، p.values=list(factor1=0.05، factor2=0.05، factor3=0.50، factor2:factor3=0.05)، سطوح =list(factor1=1:10، factor2=c(A، B، C)، factor3=c(A، B، C))) یعنی یک نسخه کلی از: sim.lm<-function(){ library(DoE.base) design<-fac.design(nlevels=c(10,3,3), factor.names=c(factor1، factor2، factor3)، replications=3، randomize=F) answer<-with(design, as.numeric(factor1)+ as.numeric(factor2)+ as.numeric(factor3)+ as.numeric(factor2)*as.numeric(factor3)+ rnorm(length(factor1))) شبیه سازی<-data.frame( طراحی، پاسخ)} OR sim(glm(response~factor1+factor2*factor3, family=poisson) p.values=list(factor1=0.05، factor2=0.05، factor3=0.50، factor2:factor3=0.05)، level=list(factor1=1:10، factor2=c(A، B، C ), factor3=c(A، B، C))) OR library(lme4) sim(lmer(response~factor1+factor2 + (factor2|factor3))، F_value=list(factor1=50، factor2=50)، level=list(factor1=1:10، factor2=c(A، B، C)، factor3=c (A، B، C))) که یک data.frame متناظر کامل را ایجاد می کند، نمونه هایی بالقوه از توابع خاص (لطفاً به میل خود ویرایش کنید) \- تابع arima.sim برای ایجاد یک data.frame از سطوح عامل، بدون پاسخ مدل شده: به عنوان مثال. conf.design http://cran.r-project.org/web/views/ExperimentalDesign.html
|
آیا روش کلی برای شبیه سازی داده ها از فرمول یا تجزیه و تحلیل موجود است؟
|
28564
|
آیا متغیرهایی وجود دارند که ارزیابی صرفاً مقوله ای بودن آنها دشوار باشد؟ **به عنوان مثال: ** برای ارزیابی سطح دردی که بیمار در آن قرار دارد، از مقیاسی بین 1 تا 10 استفاده می کنید. این به این دلیل است که اندازه گیری است (حتی اگر ذهنی باشد). برعکس، اگر من چیزی مانند مرحله تومور داشته باشم، هنوز یک متغیر مجزا بین مثلاً 1 و 4 است، با این حال بیشتر وسوسه میشوم که بگویم اینها دستهبندی هستند. مسئله این است که افزایش ارزش در مرحله تومور در واقع معنی دارد: احتمال ابتلا به بیماری تهاجمی بیشتر است. برای دسته هایی مانند رنگ مو یا جنسیت، هیچ رابطه عددی بین دسته ها وجود ندارد! تنها چیزی که واقعاً می توانم ببینم این است که در متغیرهای گسسته، هر مرحله افزایش معنی یکسانی دارد (بنابراین افزایش 1-2، 5-6 و 9-10) یکسان است. در حالی که در مرحله تومور va، اندازه گام ها معنی یکسانی ندارند: 1-2 با 2-3 و 3-4 متفاوت است زیرا پرخاشگری تومور احتمالاً خطی نیست. این امر هنگام اجرای مدلهای رگرسیون لجستیک، که در آن میتوانید با متغیرهای طبقهبندی متفاوت رفتار کنید (نامهایی که آنها را بهطور متفاوتی کدگذاری میکنید) پیامدهایی دارد.
|
آیا تمایز فازی بین متغیرهای گسسته و مقوله ای وجود دارد؟
|
49949
|
ما می دانیم که توزیع نرمال دارای حداکثر آنتروپی در بین تمام توزیع های پیوسته در $\mathbb{R}$ برای یک واریانس معین است. من تعجب می کنم که برعکس چیست، یعنی کدام توزیع بیشترین (یا حداقل) واریانس را برای یک آنتروپی معین دارد؟
|
توزیعی که دارای حداکثر یا حداقل واریانس برای یک آنتروپی معین است
|
24233
|
من در حال حاضر در تلاش هستم تا تخمین بزنم که قیمت مبادله دلار به لمپیرا (پول هندوراس) و قیمت سوخت در 30 ژوئن 2012 چقدر خواهد بود. قیمتهای من در ماهها و سالهای گذشته چقدر بوده است، چگونه میتوانم از این دادهها برای به دست آوردن یک برآورد معتبر استفاده کنم؟
|
تخمین قیمت ها
|
24235
|
فرض کنید که من علاقه مند به انتخاب یکی از فضاهای مدل زیر هستم: $$\begin{align*} y &= \beta_0 + \beta_1 x_i + \epsilon_i \, \, \text{یا} \\\ \log ( y_i) &= \gamma_0 + \gamma_1 x_i + \eta_i. \end{align*}$$ من قصد دارم از اعتبارسنجی متقاطع برای انتخاب خود استفاده کنم. اگر خطاهای پیشبینی مجموعه اعتبارسنجی را محاسبه کنم، مدل اول خطاهای $y$ را میدهد، در حالی که مدل دوم خطاها را در $\log(y_i)$ میدهد. بدیهی است که مقایسه اینها منطقی نیست. در عوض، برای مدل دوم، فرض کنید $$\begin{معادله*} \text{E}[y_i \mid x_i] = \exp \left\\{\hat{\beta}_0 + \hat{\ را تخمین زدم beta}_1 x_i \right\\} \times \exp \left\\{ \hat{\sigma}^2 /2 \right\\}، \end{equation*}$$ با استفاده از این فرض که $\epsilon_i \mid x_i \sim N(0, \sigma^2)$ (به طور متناوب، من فقط میتوانم از یک مدل پواسون با خطاهای استاندارد/oversidsperion قوی استفاده کنم تا همان نتیجه را دریافت کنم؛ برای توضیح خوب اینجا را ببینید. ). سپس، من این $y$ پیشبینیشده را با اعتبارسنجی مشاهدهشده $y$ مقایسه میکنم تا خطاهای پیشبینی خود را دریافت کنم. آیا این روش معقول است؟ آیا به طور کلی خواص خوبی خواهد داشت؟
|
اعتبار سنجی متقاطع برای نتیجه تبدیل شده و تغییر شکل نیافته
|
79001
|
جایی که X یک r.v است. به دنبال توزیع T متقارن با میانگین 0 و پارامتر دم $\alpha$. من به دنبال توزیع متغیر n-summed $ \sum_{1 \leq i \leq n}|x_i|$ هستم. $Y=|X|$ برای PDF $\frac{2 \left(\frac{\alpha }{\alpha +y^2}\right)^{\frac{\alpha +1}{2}}} دارد {\sqrt{\alpha } B\left(\frac{\alpha }{2},\frac{1}{2}\right)}$, $y \geq 0 $. من موفق به دریافت تابع مشخصه $C(t)$ شدم اما نتوانستم کانولوشن را معکوس کنم، یعنی $C(t)^n$. ممنون میشم کمک کنید
|
مجموع مقادیر مطلق T متغیرهای تصادفی
|
79003
|
من سعی می کنم اثبات CLT را برای توزیع پواسون به پایان برسانم، اما در ارزیابی حد مشکل دارم. من نشان دادم که تابع تولید لحظه برای پواسون استاندارد شده $$M_X (t) = \exp \left \\{-t\sqrt{\lambda}-\lambda+\lambda e^{t/\sqrt{\ است. lambda}} \right \\}$$ (این فرم MGF است که از ما خواسته شده است که نشان دهیم) اما من در ارزیابی مشکل دارم $$\lim_{\lambda \rightarrow \infty} \exp \left \\{-t\sqrt{\lambda}-\lambda+\lambda e^{t/\sqrt{\lambda}} \right \\} = e^{t^2/2}$$ آیا پیشنهادی برای ذهن من که از نظر ریاضی به چالش کشیده شده است؟
|
نمایش MGF پواسون به MGF N(0,1) همگرا می شود
|
62246
|
من سعی کرده ام از PMF نشان داده شده در یک سوال قدیمی استفاده کنم، که در اینجا یافت شده است، و منبع آن از اینجا است، اما به مشکل برخوردم. هنگام تلاش برای محاسبه N، متوجه میشوم که B (با استفاده از s+i+j-x-ry = B) با نگه داشتن بیش از 1 قالب (y>1) به سرعت منفی میشود. این به نوبه خود منجر به تلاش برای توزیع تعداد منفی توپ می شود. این کمی خارج از عمق من است، زیرا من با ترکیبیات تجربه زیادی ندارم، اما تا آنجا که می دانم همه عملیاتی را که می خواهم انجام دهم را درک می کنم. من در استفاده از این چه چیزی را از دست داده ام؟ من مطمئن نیستم که چه تغییراتی را از نسخه اصلی انجمن فیزیک به نسخه موجود در سؤال انجام دهم. من از انجمن اصلی فیزیک استفاده کرده ام، جایی که آنها متفاوت هستند، اما در حال حاضر مشکل من در بخشی است که به نظر می رسد یکسان است.
|
محاسبه PMF تاس انداختن و نگه داشتن (XdZkY)
|
62247
|
در پایان نامه کارشناسی ارشدم، یک تحلیل میانجیگری با تحلیل رگرسیون چندگانه انجام می دهم. بنابراین من از روش بارون و کنی برای آزمایش میانجی استفاده می کنم. من همچنین می خواهم برای برخی از متغیرها کنترل کنم. به عنوان مثال من می خواهم بدانم که آیا جنسیت تأثیری در تأثیر میانجی دارد یا خیر. کاری که من انجام دادم این بود که فایل داده (زنان/مردان) را تقسیم کردم (من از SPSS 21 استفاده می کنم) و سپس تجزیه و تحلیل میانجیگری را دوباره به طور جداگانه برای دو گروه اجرا کردم. با این حال، اگر بخواهم سن را کنترل کنم، تقسیم فایل بی معنی است. آیا روش تحلیلی برای آزمایش تأثیر سن یا هر متغیر غیر طبقهبندی دیگری بر اثر میانجیگری وجود دارد؟ و اگر اینطور باشد، چگونه می توانم این تحلیل را در SPSS اجرا کنم؟ از کمک شما بسیار سپاسگزارم.
|
چگونه می توانم متغیرهای کنترل را در یک تحلیل میانجی آزمایش کنم؟
|
79009
|
در محل کار، اعضای تیم اغلب با یکدیگر اختلاف نظر دارند. از یک طرف اختلاف نظرها بحث گروهی را تسهیل می کند و ایده های خلاقانه را تحریک می کند، اما از طرف دیگر، اختلاف نظرها به انسجام تیم آسیب می زند و عملکرد تیم را کاهش می دهد. به عنوان یک محقق، شما به این پدیده محل کار علاقه مند هستید و می خواهید یک مطالعه تجربی در مورد چنین موضوعی انجام دهید. لطفا طرح تحقیق خود را با پاسخ به سوالات زیر شرح دهید. 1. توضیح دهید که متغیرهای مفهومی (سازه ها) در مطالعه شما چیست؟ 2. مشخص کنید که متغیرهای عملیاتی در مطالعه شما چیست؟ 3. فرضیه های تحقیق خود را به طور خلاصه فرموله کنید. 4. چگونه می خواهید متغیرهای مربوطه را اندازه گیری یا دستکاری کنید؟ 5. دوست دارید از کدام روش های آماری در ایجاد رابطه علی استفاده کنید؟ 6. آیا نکات خاصی وجود دارد که بخواهید در طرح تحقیق خود به آنها بپردازید؟
|
طرح مطالعه پژوهشی شامل واسطه ها
|
79007
|
من در بازبینی امتحان خود با کمی دوراهی مواجه شده ام، این موضوعی نیست که من در مورد آن قوی هستم، بنابراین کمک بسیار قابل قدردانی است: فرض کنید $X_1,X_2,...$ یک دنباله i.i.d است، جایی که $E( X^2)=5$ و $E(X)=0$، با استفاده از قضیه حد مرکزی، توزیع $$ را پیدا کنید \frac{\sum_{i=1}^nX_i}{\sqrt{5n}} $$ در اینجا من اجازه دادهام $ S_n= \sum_{i=1}^nX_i $ و میدانیم که $E(X)=0 $، سپس داریم: $$ Yn=\frac{\sum_{i=1}^nX_i - nE(x))}{σ\sqrt{n}} = \frac{\sum_{i=1}^nX_i}{\sqrt{5n}} -> N(0,1) $$ بعد از من خواسته میشود قانون قوی اعداد بزرگ را روی $$ \frac{\sum_ اعمال کنم {i=1}^nX_i^2}{n} $$ برای نشان دادن اینکه تقریباً مطمئناً همگرا میشود و حد محدود آن را محاسبه میکنم. \sum_{i=1}^nX_i^2 $ و $ E(S_n)= \sum_{i=1}^nE(X_i^2) $ و وصل کردن آن به فرمول قانون قوی اعداد بزرگ ($\frac {S_n-E(S_n)}{n}-> 0$ a.s.) برای پیدا کردن $ \frac{\sum_{i=1}^nX_i^2}{n} $ -> $ E(X_i^2) $ a.s. با این حال، من احساس نمیکنم که نشان میدهم که $ \frac{\sum_{i=1}^nX_i^2}{n} $ تقریباً با استفاده از این روش همگرا میشود؟ هر ایده ای قابل قدردانی است همچنین در نهایت باید با استفاده از قضیه حد مرکزی توزیع $$ \frac{\sum_{i=1}^nXi}{\sqrt{\sum_{i=1}^nX_i^ را بیابم 2}} $$ من در این مورد کاملاً گم شدهام، اگرچه من این فرض را میکنم که ما از قضیه حد مرکزی با آن استفاده میکنیم N(0,1) خواهد بود، اما همانطور که میگویم این فقط یک حدس بزنید، راهنما / نکات / توضیحات واقعا قدردانی می شود
|
قانون اعداد بزرگ و قضیه حد مرکزی
|
62248
|
من مجموعه داده هایی از داده های سرعت باد دراز مدت اقلیم شناسی را به صورت روزانه برای سال های 1950-2000 دارم. من میانگین هر سال را محاسبه کرده ام و الگوی روند را محاسبه کرده ام، مقداری روند مثبت 0.05 متر بر ثانیه در سال را نشان می دهد. از من خواسته شده است که آزمون معناداری آماری را برای این تحلیل روند انجام دهم. چگونه می توانستم به آن برسم؟
|
اهمیت آماری روند بلندمدت؟
|
94789
|
ما یک نظرسنجی انجام دادهایم و بیش از 30000 نظرسنجی را از کودکان مدرسهای، سنین 13 تا 18 سال، در سطح ملی در 18 شهر، در 3 منطقه (شرق، جنوب و غرب) یک کشور، مثلاً X، جمعآوری کردهایم. حجم نمونه 2396 نفر (بر اساس جمعیت کشور و درصد افراد 15 تا 24 ساله) محاسبه شد. داده ها بر اساس سن و جنسیت تجزیه و تحلیل خواهند شد. قبل از تجزیه و تحلیل نرخ پاسخ، میخواهم بدانم آیا استراتژی زیر برای محاسبه نظرسنجیهای طبقهبندی شده درست است یا خیر. با عرض پوزش، اگر از عبارات نادرستی استفاده می کنم، سابقه ای در زمینه استاتیک و تازه بودن همه اینها ندارم. 1. در ابتدا، من کل درصد نظرسنجی های جمع آوری شده از هر شهر را محاسبه کردم. 2. دوم، سپس داده های بالا را بر اساس حجم نمونه محاسبه کردم. برای گرفتن نمونه برای هر شهر. 3. سوم، من دادههای اصلی جمعآوریشده را به جنسیت و سپس به گروههای سنی تقسیم کردم و به طور متناسب با نیازهای نمونه کوچکسازی کردم. لطفاً نمونه پیوست زیر را ببینید. 
|
استراتژی نمونه طبقه بندی شده - حجم نمونه
|
63061
|
من مقاله را می خوانم: همگرایی یک نسخه تقریبی تصادفی از الگوریتم EM برای پیاده سازی این الگوریتم برای مدل احتمالی که قبلاً دارم. در ص. 3، مقاله الگوریتم را به صورت زیر خلاصه می کند.  من در مرحله E (یا S) در این الگوریتم گیر کرده ام. در یک تنظیم معمولی EM، یکی $$Q(\theta)= \int \log p(x,y |\theta) p(x|y,\theta) dx$$ انتگرال را به حداکثر میرساند در اینجا، این انتگرال تخمین زده میشود. از طریق نمونه های شبیه سازی شده از پشت. من این را درک می کنم. اما چیزی که من نمی فهمم این است: آیا نویسندگان پیشنهاد می کنند که تابع هزینه به روز شود؟ اگر چنین است، چگونه میتوانیم $Q$ جدید را به حداکثر برسانیم؟ ممکن است من یک چیز بسیار واضح را از دست داده باشم و نمی توانم نحوه اجرای این الگوریتم را ببینم (من به روز رسانی هزینه را درک نمی کنم). پیشاپیش متشکرم
|
مرحله الکترونیکی تقریب تصادفی EM
|
62249
|
من دادههای شمارشی (مشاهدهشده) و شمارشهای مورد انتظار را دارم که با تحلیل رگرسیون محاسبه شدهاند. من میخواهم آزمون فرضیههای چندگانه را انجام دهم تا بررسی کنم کدام عناصر حداکثر تفاوت بین مشاهده شده و مورد انتظار را نشان میدهند. من از R استفاده می کنم و این دستور p.values=apply(matrix,1,function(x){t.test(x[1],x[2],alternative=g)$p.value} را اجرا کردم. ) این خطا به من می دهد و می گوید مشاهده x کافی نیست - واضح است که من هیچ تکراری ندارم. اما مقاله ای که من دنبال می کنم (آنها مطالعه مشابهی انجام داده اند) می گوید: > برای تشخیص نقاط داغ، ما یک آزمایش یک دم (001/0 آلفا) با استفاده از > توزیع پواسون انجام دادیم و شمارش های مورد انتظار را نمی دانم چگونه آیا آن را انجام دادند من می توانم عناصر را با استفاده از تغییر چین بین مشاهده شده و مورد انتظار تشخیص دهم، اما در اینجا آنها می گویند که آنها آزمون فرضیه را انجام داده اند.
|
آزمون فرضیه های چندگانه برای توزیع پواسون
|
59582
|
توضیح دهید که چرا از log(دوز) و log(زمان) برای اندازه گیری ارتباط بین دوز و زمان به جای مقادیر واقعی دوز و زمان استفاده می شود.
|
چرا از تبدیل log در اندازه گیری ارتباط دوز-زمان استفاده می شود؟
|
115333
|
من مشکل را با معادله زیر مدلسازی میکنم: $$ \min_{X} L(X)=f(X)-\alpha g(X) + \beta k(X) $$ که در آن $\alpha \gt 0، \beta \gt 0$، و در موارد من، $f(X)-\alpha g(X) \lt 0$ و $k(X) \gt 0$ پیدا کردم، به نظر می رسد این مشکل محدب نیست ، چگونه پارامترهای $\alpha$ و $\beta$ را تنظیم کنیم؟ آیا الگوریتم بهینه سازی برای این مشکل وجود دارد؟ آیا الگوریتم فرانک ولف برای حل این مسائل است؟ با تشکر
|
آیا الگوریتم های بهینه سازی برای این مشکلات وجود دارد؟
|
34209
|
من با یک رگرسیون چندگانه که انجام دادم مشکل دارم: * مدل بدون ترم ثابت. * یک متغیر پیوسته وابسته. * اولین مجموعه از dummies: مشتق شده از 2 متغیر پیوسته، من از مقدار میانه آنها به عنوان آستانه برای استخراج دو متغیر باینری استفاده کردم. از این دو باینری، من 4 آدمک، یکی برای هر ترکیب (10، 01، 00، 11) استخراج کردم. * مجموعه دوم از آدمک ها: 3 آدمک مشتق شده از یک متغیر طبقه بندی شده. * دو متغیر پیوسته این مدل دارای مقدار r-squared 98% است (و r مربع تنظیم شده مشابه): من فکر می کنم خیلی زیاد است، اما نمی دانم چگونه آن را به درستی تفسیر کنم و اعتبار نهایی آن را ارزیابی کنم. من میدانم که r مربع با تعداد متغیرهای توضیحی افزایش مییابد، اما نمیدانم که آیا تعداد ساختگیها در ارزش و اعتبار آن بهعنوان شاخص یک رگرسیون خوب تأثیر دارد یا خیر. علاوه بر این، این مدل مقادیر VIF بالایی را ارائه میکند که نشاندهنده همخطی بودن است: آیا این معیارها هنوز معتبر هستند یا خیر؟ باید بگویم که من مدل را با عبارت ثابت (و $k-1$ و $n-1$ dummies) نیز تست کرده ام، که دارای r مربع بسیار پایین (حدود 10%) است اما مشکل همخطی ندارد: من از این استفاده خواهم کرد. اگر فقط بتوانم اثر دو آدمک مرجع را روی عبارت ثابت جدا کنم (و من نمی دانم چگونه این کار را انجام دهم).
|
چگونه R-squared را در رگرسیون چندگانه با مجموعه های بیشتر از آدمک ها و متغیرهای پیوسته تفسیر کنیم؟
|
59586
|
من یک پرسشنامه نمایه کننده ریسک ایجاد کرده ام اما نمی دانم چگونه گزینه ها را نمره دهم و محدوده امتیازی ایجاد کنم. پس از توسعه دامنه، می توانم مشتری را به عنوان محافظه کار، متوسط و تهاجمی طبقه بندی کنم. این برای یک شرکت بانکی و کارگزاری است. ما باید ظرفیت ریسک پذیری مشتری را تحلیل کنیم. پرسشنامه دارای سوالاتی است که میزان ریسک و نگرش به ریسک را تحلیل می کند. هر سوال دارای پنج گزینه به نام های A، B، C، D، E است. گزینه های A گزینه های محافظه کارانه تر برای سرمایه گذاران و E گزینه های تهاجمی تر برای سرمایه گذاران است. لطفا راهنماییم کنید
|
چگونه می توان به گزینه های یک پرسشنامه امتیاز داد و یک محدوده امتیازی را در پرسشنامه نمایه کننده ریسک ایجاد کرد؟
|
59584
|
من می خواهم یک مدل رگرسیون خطی چندگانه را با استفاده از R شبیه سازی کنم. اگر چولگی و کشیدگی برای باقیمانده ها را داشته باشم، چگونه می توانم این کار را انجام دهم؟
|
شبیه سازی رگرسیون خطی چندگانه
|
34201
|
من مجموعه ای از داده ها را دارم که با انجام برخی آزمایش ها جمع آوری کردم. من آن را رسم کردم و نمودار پراکندگی ایجاد کردم. من می خواهم معادله خط میانگینی که از این نقاط می گذرد را پیدا کنم. چگونه می توانم این کار را انجام دهم؟ یادم می آید که در کلاس آمار کالجم این موضوع را مرور کردم اما فراموش کرده ام. همچنین اگر بتوانید من را به ابزاری معرفی کنید که میتوانم دادههایم را از Google Docs کپی و جایگذاری کنم و این کار را برای من انجام دهد، عالی خواهد بود.
|
با توجه به مجموعه ای از داده ها، چگونه می توانم معادله خط میانگینی را که از داده ها می گذرد محاسبه کنم؟
|
59588
|
من میدانم که تعریف اساسی درونزایی این است که $$ X'\epsilon=0 $$ برآورده نمیشود، اما این به معنای واقعی جهان چیست؟ مقاله ویکیپدیا را با مثال عرضه و تقاضا خواندم و سعی کردم معنی آن را بفهمم، اما واقعا کمکی نکرد. من توصیف دیگر درون زا و برون زا را شنیده ام که درون سیستم بودن و بیرون از سیستم بودن و این هنوز برای من منطقی نیست.
|
«درون زایی» و «برون زایی» به طور ماهوی به چه معناست؟
|
59589
|
من سعی می کنم یک معیار ساده برای بازگشت میانگین در یک دنباله تصادفی از یک ها و صفرها تعریف کنم که آن را با $x_t$ نشان می دهم. بله، یک آزمایش ریشه واحد روی مجموع تجمعی میتواند انتخاب مناسبی باشد، اما من با همبستگی ارزش فعلی فرآیند تصادفی با انحراف جمع تجمعی از روند مورد انتظار آن شروع کردم. با جزئیات بیشتر: فرض کنید $p_1$ احتمال $x_t=1$ باشد (و از این رو $P(x_t=0)=1-p_1$)، $n$ طول بردار $x$ باشد. سپس انحراف ذکر شده در بالا را به صورت `y = cumsum(x) - (1:n)*p1` و معیار بازگشت میانگین من به عنوان همبستگی (منفی) بین $x_t$ و $y_{t-1}$ تعریف میکنم: ` mr = -cor(x[2:n], y[1:(n-1)]) ` یا به عنوان یک تابع: MeanRevert = تابع(x,p1){ n=length(x) #y پیاده روی تصادفی بدون روند است. y = cumsum(x) - (1:n)*p1 mr = -cor(x[2:n], y[1:(n-1)]) return(mr) } اکنون برای یک پیاده روی کاملا تصادفی، I انتظار می رود یک مقدار متوسط صفر برای آن همبستگی باشد، اما به نظر می رسد یک سوگیری وجود دارد: p1 = 0.12;N=100; MRsample=vector() برای (i در 1:500){ x= sample(c(1,0)، N، جایگزین=TRUE، p = c(p1، 1-p1)) MRsample = c(MRsample، MeanRevert( x, p1=p1)) } hist(MRsample, xlab =mean reversion, main =paste(p=,p1, N=,N))  چه چیزی را از دست داده ام، چه چیزی باعث این سوگیری می شود؟ با تشکر ML
|
اندازه گیری ساده بازگشت میانگین برای سری های زمانی باینری
|
34204
|
من روی پروژه ای کار می کنم که در آن باید یک سیستم یادگیری ماشینی را آزمایش کنم که دارای پارامترهای بسیار زیاد است. علاوه بر این، برای سنجش عملکرد سیستم، من قصد دارم از چندین مجموعه داده استفاده کنم. ابتدا مجموعه داده اول را به سه زیر مجموعه تقسیم کردم (یعنی آموزش، اعتبارسنجی متقابل و آزمایش). برای یافتن مقادیر بهینه فراپارامترهای سیستم از مجموعه داده اعتبارسنجی متقاطع استفاده شد. همچنین، من اندازه مجموعه داده آموزشی را در هر تکرار افزایش دادم و عملکرد با استفاده از مجموعه داده اعتبارسنجی متقابل اندازهگیری شد. دلیل انجام این کار شناسایی اندازه بهینه مجموعه داده آموزشی بود. حال سوال من این است: آیا لازم است تمام مراحل ذکر شده در بالا را برای سایر مجموعه داده ها انجام دهم یا می توانم از پارامترهایی (مانند پارامترهای فوق العاده سیستم یادگیری و اندازه مجموعه داده های آموزشی و غیره) استفاده کنم؟
|
چگونه از مجموعه داده های متعدد برای اندازه گیری عملکرد یک سیستم یادگیری استفاده کنیم؟
|
34206
|
میخواهم از آزمون دوجملهای دقیق برای تجزیه و تحلیل برخی دادهها استفاده کنم، اما آزمون دوجملهای دقیق محاسبات زیادی میطلبد و زمانی که حجم نمونه بزرگتر است، غیرضروری است، زیرا زمانی که اندازه نمونه بزرگ است، میتوان آن را با آزمون کایدو تخمین زد. . بنابراین آستانه عملی برای انتخاب بین آزمون مجذور کای و آزمون دو جمله ای دقیق چیست؟ آیا کسی می تواند به برخی از مراجع اشاره کند؟
|
آیا آستانه اندازه نمونه برای انتخاب بین آزمون مجذور کای و آزمون دو جمله ای دقیق وجود دارد؟
|
34205
|
من با چندین نشریه برخورد کردم که با دادههای شمارش صفر پراکنده سروکار داشتند که «به سادگی» عدم حضور را در یک مدل و سپس شمارش مثبت را در مدل دوم مدلسازی کردند. این منجر به دو مدل با دو نتیجه متفاوت شد. نویسندگان اظهار داشتند که از مدل های مانع استفاده می کنند. به نظر من مدل های مانع اینطور کار نمی کنند اما نتایج هر دو مدل را در یک مرحله در یک خروجی نهایی ادغام می کنند، آیا این درست است؟ آیا رویکرد دیگر اکنون اشتباه است؟
|
آیا تقسیم یک مدل مانع در دو مدل GLM/GAM یک رویکرد معتبر است؟
|
34207
|
پرسشنامه من در **مقیاس لیکرت** است و به 7 بخش تقسیم می شود: A، B، C، D، E، F و G. در هر بخش تعدادی سؤال وجود دارد که پاسخ دهنده باید مطابق با آن ها را پر کند. مقیاس لیکرت (0=نه تا 5=خیلی زیاد). برای ساده تر کردن پرسشنامه من به این صورت است: > ## ** ثانیه: A** > > * Q1 > * Q2 > > > ## ثانیه: B > > * Q1 > * Q2 > * Q3 > * Q4 > > > و به همین ترتیب... ## پرس و جوها 1. من می خواهم **گراف**های هر بخش (یعنی A، B، C، D، E، F، و G) را به گونه ای ایجاد کنم که برای بخش A الف نمودار ترکیبی تشکیل شده است که در آن تمام سوالات یعنی Q1، Q2 و Q3 نشان داده شده است. 2. من یک مهندس عمران در حرفه هستم بنابراین هر راهنمایی در مورد آمار مورد نیاز برای یک پروژه تحقیقاتی، بسیار قدردانی خواهد شد. 3. آیا این امکان وجود دارد که من بتوانم پرسشنامه خود را در اینجا آپلود کنم و پس از دیدن آن، کسی به من در شناسایی نوع آمار مورد استفاده در آن کمک کند؟
|
نوع نمودارها برای پرسشنامه مقیاس لیکرت؟
|
35159
|
به نظر من این امکان وجود دارد که توزیع یک بعدی را در فضای پارامترهای آنها خوشه بندی کنیم، برای مثال، می توانیم سعی کنیم توزیع های عادی مشابه را در فضای جفت های $(\mu,\sigma)$ پیدا کنیم. با این حال، آیا راهی برای خوشه بندی توزیع های چندنرمال با توجه به میانگین ها و ماتریس های کوواریانس آنها وجود دارد؟
|
چگونه توزیع های چند بعدی (پارامتری) را خوشه بندی کنیم؟
|
96862
|
من سعی می کنم یک مدل (عملکردی) برای پیش بینی خروجی یک شبیه سازی کامپیوتری ایجاد کنم. من مجموعه کوچکی از آزمایشها را انجام دادهام که 4 پیشبینیکننده $a$، $b$، $c$، و $d$ را از طریق LHS تغییر دادهام، و خروجی، $y$ را محاسبه کردهام. انتظار می رود پاسخ غیرخطی باشد، بنابراین رگرسیون سنتی ناکافی به نظر می رسد. به عنوان یک نقطه شروع، من یک فرآیند گاوسی را برای تعیین روابط آشکار انتخاب کردم، در زیر ببینید:    مرحله بعدی توسعه مدل عملکردی واقعی $y \approx f(a,b,c,d)$ است. من مطالعه زیادی انجام داده ام، و به نظر می رسد رگرسیون spline می تواند بهترین رویکرد باشد، آیا گزینه بهتری وجود دارد؟ اگر رگرسیون spline بهترین رویکرد است، آیا کسی میتواند بسته R (یا هر زبان دیگری) را برای این کار پیشنهاد کند؟ من چند مورد را امتحان کردهام، اما CRAN با بسیاری از بستههای رگرسیون spline بارگذاری شده است، و تشخیص اینکه کدام بستهها کار میکنند دشوار است. در نظر داشته باشید، من باید ضرایب $\beta_i$ و گره $x_i$ را خروجی بگیرم. اگر رویکرد من کاملاً نادرست است، از هرگونه کمک یا توصیه ای استقبال می شود.
|
رگرسیون پارامتری اسپلاین پس از رگرسیون فرآیند گاوسی؟
|
28692
|
ساده ترین راه برای مقایسه مشتقات (پارامترهای بالینی) از دو جدول احتمالی چیست؟ من میخواهم دو جدول 2x2 را با ورودیهای مثبت واقعی، منفی واقعی، مثبت کاذب و منفی نادرست مربوطه آزمایش کنم ($H_0$: جدول 1 = جدول 2 _در مقابل._ $H_1$: جدول 1 ≠ جدول 2). میخواهم حساسیتها، ویژگیها، ارزشهای اخباری منفی و مثبت دو جدول را از نظر آماری مقایسه کنم. اندازه نمونه برای دو جدول متفاوت است.
|
چگونه می توان هم ارزی پارامترهای بالینی را بین دو جدول احتمالی (ماتریس سردرگمی) آزمایش کرد؟
|
35152
|
یک سوال دوباره باید روشن شود: آیا می توانم از متغیرهای ذکر شده در زیر [(3) a,b,c و غیره] به عنوان متغیرهای پیوسته در رگرسیون لجستیک خود استفاده کنم و اگر چنین است توضیح من در مقاله ای که می نویسم چیست؟ من مجموعه متغیرهای زیر را دارم: 1. یک متغیر مقوله ای (دودویی) آیورودا و آلوپاتی 2. متغیر آزمایشی (دودویی) معنویت یک موضوع علمی است: موافق و مخالف 3. سپس من تعدادی دیدگاه/ویژگی های شرکت کننده دارم. مانند: * (الف) آیا معتقدید زندگی پس از مرگ وجود دارد: 1) بله، 2) نه، 3) مطمئن نیستم * (ب) تا چه حد معنوی را در نظر می گیرید 1) خیلی 2) متوسط 3) کمی 4) اصلاً * (ج) هر چند وقت یکبار می گویید تجربه بیماری آگاهی و تمرکز بیماران را نسبت به R/S افزایش می دهد: 1 ) به ندرت 2) هرگز 3) گاهی اوقات 4) اغلب 5) همیشه 6) اعمال نمی شود * (د) و غیره = چندین متغیر دیگر با چندین گزینه مانند بالا لطفا راهنمایی کنید.
|
چگونه می توان استفاده از متغیرهای طبقه ای را به عنوان متغیرهای پیوسته در رگرسیون لجستیک توجیه کرد؟
|
35153
|
من سعی می کنم امتیازهایی را به مشخصات گوشی اختصاص دهم تا امتیاز نهایی را برای هر گوشی محاسبه کنم. با این حال، زمانی که من بر اساس مگاپیکسل امتیاز می گرفتم. متوجه شدم که یکی از گوشی های A دارای دوربین 41 مگاپیکسلی است. اما همه گوشی های دیگر دارای 8 مگاپیکسل یا کمتر هستند که برای یک گوشی بسیار خوب است. در حال حاضر، وقتی به گوشی نسبتا wrt A نمره می دهم (امتیاز 5/5)، همه گوشی های دیگر امتیاز 1 یا 2 از 5 را می گیرند. با این حال من دوست دارم کمی منصفانه تر باشد، زیرا فقط یک گوشی با یک ارزش بسیار بالا آیا می توانید بهترین راه را برای حل این مشکل در جایی که درجه بندی نسبی منصفانه تر است به من پیشنهاد دهید؟
|
سیستم امتیازدهی نسبی بدون تأثیر زیاد از نقاط پرت
|
28690
|
در حال حاضر در حال خواندن کتاب عالی کروشکه انجام تجزیه و تحلیل داده های بیزی هستم. با این حال، فصل مربوط به رگرسیون لجستیک سلسله مراتبی (فصل 20) تا حدودی گیج کننده است. شکل 20.2 یک رگرسیون لجستیک سلسله مراتبی را توصیف می کند که در آن پارامتر برنولی به عنوان یک تابع خطی روی ضرایب تبدیل شده از طریق یک تابع سیگموئید تعریف می شود. به نظر می رسد این روشی است که رگرسیون لجستیک سلسله مراتبی در بسیاری از نمونه هایی که در منابع دیگر آنلاین دیده ام، ارائه شده است. به عنوان مثال - http://polisci2.ucsd.edu/cfariss/code/SIMlogit02.bug با این حال، وقتی پیشبینیکنندهها اسمی هستند، او یک لایه در سلسله مراتب اضافه میکند - پارامتر برنولی اکنون از یک توزیع بتا گرفته میشود (شکل 20.5) با پارامترهای تعیین شده توسط mu و کاپا، که در آن mu تبدیل سیگموئیدی تابع خطی ضرایب است، و کاپا از یک گاما قبل استفاده می کند. این به نظر منطقی و مشابه با مثال چرخاندن سکه از فصل 9 است، اما من نمیدانم که داشتن پیشبینیکنندههای اسمی چه ارتباطی با افزودن توزیع بتا دارد. چرا در مورد پیشبینیکنندههای متریک این کار انجام نمیشود و چرا توزیع بتا برای پیشبینیکنندههای اسمی اضافه شد؟ **ویرایش:** توضیح در مورد مدل هایی که من به آنها اشاره می کنم. اول، یک مدل رگرسیون لجستیک با پیشبینیکنندههای متریک (بدون بتا قبلی). این مشابه نمونههای دیگر رگرسیون لجستیک سلسله مراتبی است، مانند مثال اشکالات بالا: $$ y_i \sim \operatorname{Bernoulli}(\mu_i) \\\ \mu_i = \operatorname{sig}(\beta_0 + \sum_j \ beta_j x_{ji} ) \\\ \beta_0 \sim N(M_0، T_0) \\\ \beta_j \sim N(M_\beta, T_\beta) \\\ $$ سپس مثال با پیشبینیکنندههای اسمی. اینجاست که من نقش سطح پایین سلسله مراتب را کاملاً درک نمی کنم (تلفیق نتیجه لجستیک در یک بتا قبل از یک دوجمله ای) و اینکه چرا باید با مثال متریک متفاوت باشد. $$ z_i \sim \operatorname{Bin}(\theta_i, N) \\\ \theta_i \sim \operatorname{بتا}(a_j, b_j) \\\ a_j = \mu_j \kappa \\\ b_j = (1- \mu_j) \kappa \\\ \kappa \sim \Gamma(S_\kappa، R_\kappa) \\\ \mu_j = \operatorname{sig}(\beta_0 + \sum_j \beta_j x_{ji} ) \\\ \beta_0 \sim N(M_0، T_0) \\\ \beta_j \sim N(0، \tau_\beta) \\\ \tau_\beta = 1/\sigma_{\beta}^2 \\\ \sigma_{\beta}^2 \sim \operatorname{folded t} (T_t، DF) $$
|
چرا از توزیع بتا روی پارامتر برنولی برای رگرسیون لجستیک سلسله مراتبی استفاده کنیم؟
|
79056
|
من سعی می کنم دو آرایه فرکانس را با هم مقایسه کنم. دومی زیر مجموعه اولی است. میخوام بدونم دومی نماینده اولی هست یا نه؟ آرایه ها عبارتند از: x همه زیرمجموعه a 136 38 5 127 27 b 103 23 1 102 17 6 71 11 2 27 4 من آزمایشی می خواهم که در جایی که B مانند A رفتار می کند (یعنی می توان آن را به صورت مقیاس بندی A مشاهده کرد)، تست یک عدد را برمی گرداند. p-value نزدیک به 1 (فرضیه صفر این است که برای هر نقطه در محور x، درصد فرکانس B با درصد فرکانس A یکسان است). من سعی کردم از آزمون Chi-squared استفاده کنم، اما، چون ممکن است مقادیر گم شده داشته باشم، نمی دانم که آیا اعتبار آزمون می تواند به خطر بیفتد یا نه. (مقادیر x) با فرکانس های غیر صفر. علاوه بر این، از آنجایی که اندازه ستون دوم (زیر مجموعه) ثابت نیست، نمی دانم چگونه ستون اول را برای به دست آوردن یک مقدار p معتبر مقیاس بندی کنم (اکنون ترتیب بزرگی 10e-80 است). با تشکر
|
نحوه مقایسه دو نمونه فرکانس با مقادیر x طبقه که یکی زیر مجموعه دیگری است
|
112291
|
من مجموعهای از دادهها را دارم که برای اندازهگیریهای تجربی در چند روز ارائه میشوند. از ابتدای آزمایش تا پایان آن، هر پنج دقیقه یکبار دمای داخل (Ti) و بیرون (To) یک جعبه اندازهگیری میشد و شار حرارتی (Q) بین یکی از دیوارههای جعبه و بیرون اندازهگیری میشد. برای هر نقطه زمانی که من از این سه معیار برای محاسبه مقاومت حرارتی استفاده می کنم که R = (Ti - To)/Q است بدیهی است که هر R یک عدم قطعیت اندازه گیری به دلیل Ti، To و Q دارد، بدیهی است که بین اندازه گیری همبستگی وجود دارد، زیرا هر یک اندازه گیری مستقل از آنچه قبلا اندازه گیری شده است نیست. از این رو سؤالات من این است: 1) مناسب ترین راه برای خلاصه کردن چگونگی تغییر مقدار R در طول زمان در یک مقدار منفرد چیست؟ 2) با توجه به نوع داده ای که توضیح می دهم، مناسب ترین راه برای یافتن مقدار خطا برای مقدار مورد نظر (1) چیست؟ سری زمانی به این شکل است (به دلیل موارد دیگری که در زمان اوج برای جعبه اتفاق افتاده است، یک پیک منفی غیرعادی دارد): 
|
نحوه محاسبه مقدار خلاصه و خطای آماری در سری های زمانی
|
28695
|
فرض کنید در حال تلاش برای پیش بینی تصادفات رانندگی در یک بزرگراه هستیم. تصادفات ترافیکی متغیر پاسخ در مجموعه داده ما خواهد بود. ما دو مدل رقیب داریم: 1. دو متغیر پیشبینیکننده: زمان روز و تعداد کل خودروهایی که از نقطه خاصی در دقیقه عبور میکنند 2. دو متغیر پیشبینیکننده: سطح بارش (آب و هوا) و تعداد خودروها در مسیر سریع عبور از نقطه خاص در دقیقه هدف این است که انتخاب کنید کدام یک از این دو مدل به نظر می رسد کار بهتری در پیش بینی ترافیک انجام دهد. تصادفات علاوه بر این، ما می خواهیم بر اساس این دو مدل مشخص کنیم که در چه شرایطی تصادفات رانندگی بالاترین و کمترین میزان را دارند. به عنوان مثال، در مدل 1)، چه زمانی از روز، و چه تعداد ماشین در هر دقیقه. سوال: از کدام بسته نرم افزاری آماری استفاده می کنید؟ از چه رویه خاصی استفاده می کنید؟ چرا؟ (توجه: SAS و بسیاری از بسته های دیگر برای استفاده در دفاتر ما در دسترس هستند. SAS ترجیح داده می شود.)
|
بهترین راه برای مقایسه دو مدل جایگزین
|
79054
|
وقتی دکتری بودم. دانش آموز من بدون عبارات نامشخص آموزش دیدم که وقتی ما تعداد زیادی نتایج داده داشتیم، این تعداد نتایج قابل توجه باید به خودی خود بسیار مهم باشد! من به استفاده و سوء استفاده از اهمیت آماری در مجموعه داده های بزرگ با استفاده از روش های مختلف تحلیل پیش بینی اشاره می کنم. اگر کسی بتواند نظر سازنده ای در رابطه با این موضوع ارائه دهد ممنون می شوم. متشکرم
|
اهمیت آماری با مجموعه داده های بزرگ
|
94179
|
من از مدل پروبیت برای یک رگرسیون استفاده میکنم که متشکل از یک متغیر ساختگی مستقل است که نشان میدهد آیا شرکت اتحادیه است یا نه. من همچنین همان مدل پروبیت را به جای اینکه یک متغیر ساختگی مستقل تشکیل دهد که نشان دهد شرکت اتحادیه شده است یا نه، تخمین می زند. این مدل در عوض دارای یک متغیر مستقل پیوسته است که نشاندهنده درصد کارگران اتحادیهای است و در عین حال سایر متغیرهای مستقل را مانند مدل قبلی حفظ میکند. من می خواهم اثر حاشیه ای یک متغیر ساختگی را با اثر حاشیه ای یک متغیر پیوسته مقایسه کنم، که در آن دو متغیر معیارهای جایگزین یک عامل هستند. چه مقدار از متغیر پیوسته ممکن است به من اجازه دهد که اثر این متغیر پیوسته را با اثر شرکت اتحادیه معمولی مقایسه کنم؟
|
اثر حاشیه ای یک متغیر ساختگی را با یک متغیر پیوسته از مدل پروبیت مقایسه کنید
|
91666
|
> علامت یک ضریب رگرسیون همیشه با علامت > ضریب همبستگی بین متغیر پیش بینی کننده مربوطه و > متغیر وابسته یکسان خواهد بود. * آیا عبارت فوق همیشه صحیح است؟ * اگر نه، اگر علائم متفاوت است، دلیل آن چه می تواند باشد؟
|
علامت ضرایب در رگرسیون خطی در مقابل علامت همبستگی
|
91663
|
من سعی می کنم تفاوت های قابل توجهی را بین گروه ها از توزیع های نرمال و غیر نرمال شناسایی کنم. هنگامی که توزیع نرمال است، گردش کار بسیار ساده است: ANOVA و پس از آن یک تست HSD Tukey به منظور شناسایی گروه هایی که مسئول تغییرات قابل توجه هستند. هنگامی که توزیع غیر طبیعی است، من یک آزمون کروسکال-والیس و پس از آن یک تست Wilcoxon دو به دو (تابع R `pairwise.wilcox.test()`) برای شناسایی گروه ها اعمال می کنم. من می دانم که تست Wilcoxon نسخه ناپارامتریک آزمون _t_ است و با تست HSD Tukey مطابقت ندارد، اما می خواهم بدانم آیا کاری که انجام می دهم اشتباه است و تفاوت اصلی بین نتایج یک _t_ کدام است. تست و تست توکی چون هر دو تفاوت هایی را بین گروه ها نشان می دهند.
|
آیا تستهای Wilcoxon جفتی جایگزین ناپارامتریک معتبری برای تست HSD توکی هستند؟
|
91662
|
من در این زمینه کاملاً تازه کار هستم. امیدوارم سوالم منطقی باشه من یک پایگاه داده دارم که اطلاعات حدود 10.000.000 پروژه را ذخیره می کند. هر پروژه دارای چندین ویژگی است (بیایید آن ها را X بنامیم) مانند تعداد خطوط کد، تعداد افراد و غیره. علاوه بر این، برخی ویژگی های اضافی (اجازه دهید آنها را Y بنامیم) وجود دارد که من نمی توانم مستقیماً روی 10.000.000 پروژه محاسبه کنم. محدودیت های زمانی و ذخیره سازی بنابراین، من میخواهم نمونهای نماینده از این پروژهها بگیرم و یک تحلیل کیفی برای محاسبه ویژگیهای Y انجام دهم. به نظر میرسد توزیع فرکانس برای هر یک از ویژگیهای X از توزیع نمایی پیروی میکند (من آزمون تک نمونهای کولموگروف-اسمیرنوف را اجرا کردم. و من یک مقدار p <0.001 دریافت کردم. علاوه بر این، من چند نمونه تصادفی (با اندازه های 100، 500، 3000 پروژه) برای محاسبه ویژگی های Y تولید کردم، و حتی به نظر می رسد این ویژگی ها از توزیع نمایی منفی پیروی می کنند. می خواهم بدانم آیا فرمولی برای به دست آوردن حداقل حجم نمونه وجود دارد که بگویم نمونه من به اندازه کافی نماینده است؟ آیا می توانم از مفهوم سطح اطمینان (95٪) و فاصله اطمینان (1.96) برای محاسبه حداقل حجم نمونه استفاده کنم حتی اگر توزیع من نرمال نباشد؟ پیشاپیش متشکرم
|
اندازه نمونه برای توزیع غیر عادی
|
76300
|
من سعی می کنم دو نسبت A/B را تست کنم و امتیاز Z را محاسبه کنم. فرضیه من این است که دو گروه یکسان هستند. اکثر فرمول ها استفاده از واریانس unpooled را نشان می دهند. آیا به جای آن باید از واریانس ترکیبی استفاده کرد؟ با تشکر https://developer.amazon.com/sdk/ab-testing/reference/ab-math.html http://visualwebsiteoptimizer.com/split-testing-blog/ab-testing-significance- calculator-spreadsheet-in- اکسل/
|
واریانس Pooled در مقابل Unpooled برای تست AB
|
91664
|
من سعی می کنم یک متغیر سری زمانی $Y_{t}$ را با متغیرهای پیش بینی فیزیکی $4$ مدل کنم. من از رگرسیون خطی زیر استفاده کردم: $Y=\beta_{0}+\beta_{1}f_{1}(X_{1})+\beta_{2}f_{2}(X_{2})+\beta_ {3}f_{3}(X_{3})+\beta_{4}f_{4}(X_{4})+\epsilon$ جایی که $f_{i} \in \\{\log، \tan, \sin, \cos,1/.,Id\\}$. بهترین مدل من یک ضریب تعیین تنظیم شده $R^2_\rm{تعدیل شده}$0.87$ به من می دهد. اما می دانم که این شاخص کاملاً قابل اعتماد نیست. **بنابراین میخواهم بدانم آیا میتوانم مدل خود را بهبود بخشم.** **اگر بله، چگونه میتوانم بدانم که آیا باید:** 1. مدل رگرسیون را تغییر دهید: چند جملهای یا وابستگیهای دیگر اضافه کنید؟ 2. به دنبال پیشبینیکنندههای $X_{i}$ بیشتری باشید که ممکن است هنوز آنها را کشف نکرده باشم؟ هر ایده ای خوب خواهد بود! _**ویرایش: هدف واقعی من_** $Y$ مقداری است که هر روز اندازه گیری می شود، نه در همان ساعت. کاری که من واقعاً میخواهم انجام دهم، مطالعه تغییر $Y$ با گذشت زمان و پاک کردن از سایر متغیرهای خارجی $X_{i}$ است که دادههای من را تار میکنند. بنابراین به لطف رگرسیون من میخواهم بخشی از $Y$ را پیدا کنم که به این عوامل متفاوت خارجی بستگی دارد و سپس این قسمت را حذف کنم. در پایان، اگر تخمین من $\hat{Y}$ درست باشد، $Y-\hat{Y}$ با دادههای من بدون تار مطابقت خواهد داشت، و من آزاد خواهم بود که نرمال شده یا پاک شده را بررسی کنم. نسخه $Y$ با گذشت زمان. من مدل خود را برای مجموعه دیگری از دادههای $Y$ که یک سال پیش اندازهگیری شد، آزمایش کردم، و همچنین دادهها را با $R^2_{تعدیل}$ در حدود 0.8$ مطابقت داد. و من می توانم به صورت گرافیکی ببینم که مدل کاملاً دیوانه نیست، اما کامل هم نیست.
|
بهبود رگرسیون خطی: اضافه کردن پیش بینی یا تغییر مدل؟
|
67748
|
من سعی می کنم مدل هایی را روی یک مجموعه داده با تقریباً 60 متغیر و 800 موضوع تولید کنم. مجموعه داده های دیگری نیز برای استفاده در نظر گرفته شده است. مجموعه داده ها در ابتدا برای این نوع تجزیه و تحلیل ساخته نشده بودند. مجموعه داده همچنین شامل ترکیبی از متغیرها است. برخی پیوسته و برخی گسسته هستند. همچنین برخی از اینها با یکدیگر مرتبط هستند همانطور که در یک ماتریس همبستگی و همچنین فقط با چشم / عقل سلیم دیده می شود. در حال حاضر از متغیرهای خوشهبندی با هدف حذف هر گونه مؤلفه همبسته استفاده شده برای تولید مدلها برای جلوگیری از برازش بیش از حد و کاهش تعداد متغیرها استفاده شده است. با انتخاب نماینده ترین متغیر از هر خوشه، نمی دانم که آیا این کار به درستی انجام می شود یا خیر و مطمئن نیستم که این درست است و منجر به مدل های نادرست می شود. آنچه قبلاً انجام شده است این است که فقط همه متغیرها را در پلتفرم بارگذاری کرده و یک خلاصه خوشه ای تولید کنیم. نماینده ترین متغیر عضو از هر خوشه انتخاب شده و مدل ساخته شده است. در بسیاری از خوشه ها متغیری وجود دارد که یک R کم را با خوشه ای که در آن قرار دارد نشان می دهد، اما در آن گنجانده شده است. همچنین متغیر با ارجاع به ماتریس همبستگی با سایر اعضای گروه همبستگی را نشان نمی دهد. تقریباً گویی مجبور شده است به جای اینکه به حال خود رها شود، در جایی که بهترین جا را دارد، جابجا شده است. (گاهی اوقات یک خوشه شامل 1 متغیر می شود.) همچنین، گاهی اوقات دو خوشه جداگانه به نظر می رسد حاوی متغیرهایی هستند که همبستگی دارند. بنابراین من احساس میکنم در مواقعی از متغیرهای همبسته برای مدلها استفاده میشود و در عین حال متغیرهای غیر همبسته از قلم میافتند. من در این سطح از آمار بسیار تازه کار هستم و با پیچیدن سرم در اطراف مقادیر ویژه و غیره مشکل دارم. گفته شد که این جنبه ای از PCA است، اما متوجه شده ام که واقعاً اینطور نیست. اطلاعات موجود در وب تمایل به ورود به ریاضیات کاملاً پیچیده در مورد این موضوع دارد. درک من اینجاست، ممکن است خاموش باشد. من میدانم که PCA تبدیلی از مجموعه داده است به طوری که مؤلفه اول بیشترین تنوع را در متغیرها توضیح میدهد، رایانه دوم متعامد به این (ناهمبسته) است و برای هر متغیر یک رایانه وجود دارد. به هر PCA یک مقدار ویژه داده می شود که = تعداد متغیرها (به دلیل تبدیل محور اصلی که در آن واریانس داده ها به = 1 و میانگین = 0 می شود). رایانه شخصی که بیشتر تغییرات داده ها را توضیح می دهد، بیشترین سهم را از آن به دنبال دومی و غیره می گیرد. این به دلیل ضرایب وزنی متغیر است که در آن به هر متغیر وزنی با توجه به تأثیرش بر آن رایانه شخصی داده می شود. بردارهای ویژه جایی هستند که من از هم جدا می شوم!! خوشه بندی شامل مشاهده همه متغیرها و انجام تقسیمات تکراری است. یک تقسیم شامل تجزیه و تحلیل PCA روی اعضای خوشه است؟ سپس... از یک راهنما.. «خوشه ای با بزرگترین مقدار ویژه دوم انتخاب می شود تا به دو خوشه جدید تقسیم شود. فکر میکنم ابزارهایی که استفاده میکردم برای اجرای راهحل dump and click پیشنهاد شدهاند که واقعاً نمیتوانم باور کنم.. اما به دلیل درک محدود نمیتوانم این مورد را استدلال کنم. پست طولانی است، اما من دارم کمی گم می شوم!
|
کاهش متغیرها و متغیرهای همبسته در یک مجموعه داده
|
89815
|
در حال حاضر من سعی می کنم یک متغیر پاسخ y را مدل کنم، و کد پستی را به عنوان متغیر مستقل خود دارم، مدل من رگرسیون لجستیک است. وقتی نوبت به متغیر اسمی میرسد، روش کتاب متنی ایجاد متغیر ساختگی k-1 است (با فرض اینکه متغیر اسمی k سطوح مختلف داشته باشد)، اما k کد پستی خیلی بزرگ است، من نمیتوانم آن مقدار از متغیرهای ساختگی را ایجاد کنم. آیا راه دیگری برای مقابله با این موضوع وجود دارد؟ یا به طور کلی تر، چگونه می توان با متغیرهای اسمی با سطوح بیش از حد (k>=100) برخورد کرد؟
|
چگونه با متغیر اسمی با سطوح زیاد برخورد کنیم؟
|
89811
|
اگر پاسخ «بستگی دارد» است، به چه چیزی بستگی دارد؟ من سه متغیر میانجی دارم، یک متغیر پیش بینی کننده و یک متغیر نتیجه. مشاهده کردهام که نتایجی که با اجرای سه تحلیل جداگانه به دست میآورم با نتایجی که وقتی همه آنها را در یک تحلیل قرار میدهم متفاوت است. چرا اینطور است؟ من از سینتکس PROCESS اندرو هیز برای SPSS استفاده می کنم.
|
آیا باید چندین متغیر میانجی را در یک تحلیل لحاظ کنم؟
|
66644
|
پیوند به تصویر: https://www.dropbox.com/s/bxzxy0y37npqc4o/SEM%20problems.PNG برای تعیین اینکه برای رفع این مشکل چه کاری باید انجام دهم به کمی کمک نیاز دارید: SEM اجرا نمی شود زیرا معتقد است که قطعی نیست . به این معنی که ممکن است تکینگی وجود داشته باشد. با این حال، این آیتمها بسیار متفاوت هستند، زیرا من آیتمهایی برای اندازهگیری استقلال، بازخورد شغلی، حمایت همکاران، خلق و خوی مثبت و مشارکت کارکنان دارم. کسی میتونه راه حلی برای این مشکل پیشنهاد کنه؟
|
مشکلات SEM: ماتریس قطعی غیر مثبت
|
89819
|
من نمیدانم که آیا روشهایی برای محاسبه AUC برای منحنیهای Recall دقیق وجود دارد، زمانی که نمرات پیشبینیشده/مشکلات/باورها (هر چه میخواهید آن را نامگذاری کنید) دارای مقادیر متقابل هستند و ممکن است منحرف شوند. من فکر میکنم کج شدن دادهها یک مورد فرعی از داشتن مقادیر مرتبط است. من مقاله زیر را دیده ام که در مورد انجام ندادن درون یابی خطی صحبت می کند (بخش 4) اما به مسائل احتمالی با امتیازات مساوی نمی پردازد. رابطه بین منحنیهای Recall دقیق و ROC برای مثال ID BELIEF P1 0.1 P2 0.1 P3 0.1 P4 0.1 P5 0.5 P6 0.5 P7 0.5 P8 0.8 P9 0.8 P10 0.8 -Abhi
|
هنگامی که داده ها دارای مقادیر منحنی و منحرف هستند، به AUC برای منحنی PR کمک می کند
|
89810
|
من در درک معنای خطاهای استاندارد در تجزیه و تحلیل پایان نامه خود و اینکه آیا آنها نشان می دهند که داده های من (و برآوردها) به اندازه کافی خوب نیستند، مشکل دارم. من تجزیه و تحلیلی را با Stata انجام میدهم، بر روی شکاف مهاجر-بومی در عملکرد مدرسه (متغیر وابسته = نتایج خوب / بد) با کنترل انواع واپسگراها. من از هر دو logit و OLS استفاده کردم و کلاستر را در سطح مدرسه تنظیم کردم. رگرسیورهایی که برای من مشکل ایجاد می کنند برخی از اصطلاحات تعاملی بین ساختگی برای کشور مبدا و ساختگی برای داشتن دوستان خارجی هستند (من هر دو متغیر پایه را نیز در مدل وارد کردم). در تخمین لاجیت، بیش از یکی از متغیرهای کشور*دوست دارای SE بزرگتر از 1 (تا 1.80 یا بیشتر) هستند و برخی از آنها نیز قابل توجه هستند. این اتفاق با OLS نمی افتد. من واقعاً گیج شده ام که چگونه این را تفسیر کنم. من همیشه فهمیده ام که خطاهای استاندارد بالا واقعاً نشانه خوبی نیستند، زیرا به این معنی است که داده های شما بیش از حد گسترده است. اما هنوز (بعضی از) ضرایب قابل توجه هستند، که برای من عالی است زیرا نتیجه ای است که من به دنبال آن بودم. آیا می توانم SE را نادیده بگیرم؟ یا در مورد نتایج من یک پرچم قرمز بلند می کند؟ من معمولاً فقط SE را در رگرسیون نادیده میگیرم (میدانم، واقعاً آن چیزی نیست که باید انجام شود) اما نمیتوانم هیچ مثال دیگری با چنین مقادیر SE عظیمی را به خاطر بیاورم.
|
درک خطاهای استاندارد در رگرسیون لجستیک
|
94170
|
من در حال کار بر روی یک سیستم تست A/B برای تغییرات UX به ابزاری هستم که تیم من می سازد. کاربران ما کارهای ساده و قابل تکراری را انجام می دهند که توسط سیستم تیم دیگری محول شده است. تیم من بخش UI/UX را مدیریت می کند. کاربران معمولاً یک جریان ثابت از کار به آنها محول می شود و می توانند کار فعلی خود را ببینند و آن را تکمیل کنند. وظایف معمولا کمتر از یک دقیقه طول می کشد. هر کار یک زمان مورد انتظار برای تکمیل آن دارد و کاربران بر اساس کلی واقعی / مورد انتظار آنها برای یک روز کار رتبه بندی می شوند. سوال من این است: با توجه به اینکه زیرمجموعهای تصادفی از کاربران به طور مداوم رفتار متفاوتی را مشاهده میکنند (انتخاب قطعی «تصادفی» یک مشکل حلکننده است)، و من میتوانم یک جریان ثابت از [کاربر، زمان مورد انتظار، زمان واقعی، درمان دریافت کنم. ] برای هر کار کامل، چگونه می توانم تغییرات کلی بهره وری را برای کاربران به روشی معتبر آماری ارزیابی کنم؟ برای ارائه اطلاعاتی در مورد اینکه چرا این مشکل است، در اینجا مواردی وجود دارد که ما نگران آنها بوده ایم: 1. فرض کنید کاربران تحت درمان A 10٪ کارآمدتر هستند. در نتیجه، آنها نقاط داده بیشتری تولید خواهند کرد. با تجزیه و تحلیل اشتباه، نقاط داده بیشتر ممکن است نتایج را منحرف کند، و ما ارقام دقیق را با اطمینان بالا می خواهیم. می خواهیم بدانیم این تغییر چقدر به کاربر عادی کمک می کند. 2. داده ها بسیار پر سر و صدا هستند، اما به نظر می رسد به طور متوسط بیش از یک ساعت در روز / شیفت برای هر کاربر است. یک کار ممکن است کسری از زمان مورد انتظار یا بزرگی بیش از حد انتظار را بگیرد. این تا حدی به این دلیل است که توانایی ما برای تخمین زمان تکمیل نیاز به بهبود دارد (اما به طور متوسط، بسیار دقیق است). ما نگران هستیم که تنوع بالای ما در زمان تکمیل تخمین زده شده باعث افزایش عدم اطمینان ما در تجزیه و تحلیل نتایج شود. خیلی ممنون
|
ارزیابی معیارهای بهره وری در یک سیستم تست A/B
|
51470
|
من سعی می کنم توزیع را به مجموعه داده خود منطبق کنم. به عنوان مثال من داده هایی دارم که توزیع فرکانس آنها مانند زیر است.  جدول فرکانس زیر پس از تقسیم داده ها در 10 سطل است. xvar lvar yvar 1 1 y1 25 2 y1 22 3 3 y1 16 4 4 y1 15 5 5 y1 10 6 6 y1 2 7 y1 NA 8 8 y1 NA 9 9 y1 1 NA 2 y 1 12 2 y2 5 13 3 y2 8 14 4 y2 10 15 5 y2 15 16 6 y2 9 17 7 y2 6 18 8 y2 3 19 9 y2 2 20 10 y2 1 2 3 NA y3 NA 24 4 y3 6 25 5 y3 12 26 6 y3 14 27 7 y3 18 28 8 y3 6 29 9 y3 2 30 10 y3 1 `yvar` فرکانس در هر سطل است. من می خواهم توزیع مربوطه را پیدا کنم که به بهترین وجه با این روند مطابقت داشته باشد (ممکن است توزیع بتا یا توزیع عادی باشد؟). چگونه می توانم به این امر برسم؟ **ویرایش**: (1) من به تناسب کامل نیازی ندارم، اما به تناسب نزدیک و ساده نیاز ندارم: توزیع رایج به اندازه کافی خوب است (2) 'xvar' یک متغیر پیوسته (مانند فشار خون) یا مقیاس گسسته است (مثلاً مقیاس رتبهبندی 1:10) (3) من معتقدم که بیشتر آن را میتوان با توزیع نرمال توصیف کرد، اما برخی از آنها مانند 'y1' منحرف شدهاند. نمی دانم چنین مقادیری را می توان با توزیع بتا توصیف کرد، اما نمی دانید چگونه مقدار مناسب را (در کنار حدس زدن) پیدا کنید؟ لزوماً نیازی نیست که راه حل در «R» باشد، اما کد «R» برای مجموعه داده و نمودار بالا در زیر آمده است. y1 = c(25، 22،16، 15، 10، 2، NA، NA، NA، NA) y2 = c(2، 5،8، 10، 15، 9، 6، 3، 2، 1) y3 = c(NA، NA، NA، 6، 12، 14، 18، 6، 2، 1) myd <- data.frame (xvar = 1:10، lvar = rep(c(y1، y2، y3)، هر = 10)، yvar = c(y1، y2، y3)) library(ggplot2) ggplot (myd، aes(x = xvar، y = yvar، fill = lvar، رنگ = lvar)) + geom_point () + geom_line () + theme_bw()
|
یافتن توزیع مناسب متناسب با توزیع فراوانی یک متغیر
|
23611
|
چه زمانی گنجاندن یا حذف رهگیری از یک مدل رگرسیون مناسب است؟ SPSS این گزینه را در منوی GLM فراهم می کند. من تفاوت گروه (جنسیت) را بر روی وظایف انجام شده (X) و درآمد کسب شده (Y) ارزیابی می کنم. در این صورت، اگر تکلیفی انجام نشود، درآمدی حاصل نمی شود. دستورالعملهای SPSS در اینجا بیان میکند: شامل رهگیری در مدل. رهگیری معمولاً در مدل گنجانده میشود. اگر میتوانید فرض کنید که دادهها از مبدا عبور میکنند، میتوانید رهگیری را حذف کنید. اطلاعات آماری من در حال حاضر کمی زنگ زده است، اما یادم می آید که معلمم می گفت هرگز نباید رهگیری را حذف کنید!
|
برای حذف یا گنجاندن رهگیری در مدل GLM
|
23614
|
من SVM را انجام می دهم و علاقه مند به دانستن پارامترهایی هستم که می توانند برای هر هسته متفاوت باشند. من از 3 هسته استفاده می کنم: RBF، خطی و چند نامی. اینها پارامترهایی هستند که فکر میکنم میتوان آنها را تغییر داد: برای خطی: C برای RBF: C و گاما برای چندجملهای: C و گاما. اگر پارامترهای دیگری وجود دارد به من بگویید... ممنون.
|
پارامترهایی که باید برای هسته های مختلف برای SVM تغییر کنند
|
51475
|
من به دنبال ساخت یک مدل پیش بینی هستم که در آن متغیر نتیجه باینری و ورودی سری زمانی باشد. برای دقیقتر کردن آن، این مدل بر اساس مبلغی که در 60 روز قبل با شرکت خرج کرده است، پیشبینی میکند که آیا مشتری از شرکت خارج میشود (از شرکت خارج میشود؛ با کد 1 یا 0). بنابراین، داده ها یک مشتری در هر ردیف است و ستون ها یک عامل نتیجه (1 یا 0) و 60 ستون اضافی برای مقدار صرف شده در زمان t-1، t-2...t-60 هستند. در اینجا چند نمونه داده وجود دارد: #ایجاد دادهها یک سری به طول 60 و یک کلاس ID sc <- read.table(http://kdd.ics.uci.edu/databases/synthetic_control/synthetic_control.data, header= F، sep=) # کلاس باینری lable classId <- as.factor(c(rep(0,300), rep(1,300))) newSc <- data.frame(cbind(classId, sc)) newSc$ID<-seq(1,600,1) مدل واقعی ممکن است تعداد زیادی از این سری ها را برای هر مشتری داشته باشد، بنابراین باید مقدار را کاهش دهم ابعاد داده های سری، به عنوان مثال. به جای استفاده از 60 مقدار، باید این مقدار را به تعداد انگشت شماری کاهش دهم. البته، من می توانم از میانگین، حداقل، حداکثر و غیره سری استفاده کنم، اما در مورد استفاده از تبدیل فوریه گسسته مطالعه کرده ام. **سوالات:** 1. آیا DFFT در R روش مناسبی برای استفاده برای هدف من است؟ هر گونه اطلاعاتی در مورد نحوه عملکرد آن قدردانی خواهد شد. 2. با فرض اینکه این تابع R صحیح است، چگونه میتوانید معنیدارترین ضرایب را برای دستیابی به کاهش ابعاد استخراج کنید؟ ADD: به نظر می رسد توافق نظر وجود دارد که استفاده از DFFT برای کاهش ابعاد انتخاب عاقلانه ای نیست، اما به نظر می رسد که در داده کاوی، این تابع، DWT و SVD همگی معمولاً استفاده می شوند: استخراج سری زمانی که در صفحه 20 شروع می شود.
|
کاهش ابعاد سری برای ورودی طبقه بندی
|
23615
|
من از glm.nb از بسته MASS در بسیاری از مشاهدات استفاده می کنم. سپس مقادیر p را برای عبارت تعامل استخراج می کنم. به دلیل آزمایش چندگانه، من از روش BH برای تصحیح برای آزمایش چندگانه با FDR 0.05 استفاده می کنم. گاهی اوقات، وقتی مدل دوجملهای منفی را برای تناسب با دادهها اعمال میکنم، مدل همگرا نمیشود و با اخطار «تکرار حد مجاز رسیده است» خاتمه مییابد و معمولاً مقدار تتا زیادی دارد (> 10000). با این حال، بیشتر این زمان ها، مقادیر p به دست آمده بسیار کوچک هستند (< 10e-5). البته این مقادیر کوچک اشتباه هستند، زیرا هیچ همگرایی حاصل نشد. اکنون، می توانم این مشاهدات را با استفاده از ویژگی $th.warn که پیام هشدار را ذخیره می کند، بیابم. سوال من این است که قبل از انجام آزمایشهای چندگانه، آیا باید این مشاهدات نامناسب و بنابراین مقادیر p اشتباه را حذف کنم (زیرا ممکن است بر روند اصلاح BH برای FDR تأثیر بگذارند) یا به دلیل اینکه قبلاً آزمایش را انجام دادهام، این ورودیها را پس از یافتن حذف کنم. پیام اخطار تصحیح FDR مقادیر p را سوگیری می کند و بنابراین باید بدون حذف این مقادیر p آشکارا اشتباه اما کوچک به اصلاح FDR ادامه دهم؟ متشکرم!
|
تصحیح تست چندگانه
|
23617
|
امروز، در Cross Validated Journal Club (چرا آنجا نبودید؟)، @mbq پرسید: > آیا فکر میکنید ما (دانشمندان مدرن داده) میدانیم معنی چیست؟ و > چه ارتباطی با اعتماد ما به نتایج ما دارد؟ @Michelle پاسخ داد همانطور که برخی (از جمله من) معمولاً انجام می دهند: > با ادامه کارم، مفهوم اهمیت (بر اساس p-value) کمتر و کمتر مفید است. برای مثال، من میتوانم از مجموعه دادههای بسیار > بزرگ استفاده کنم، بنابراین همه چیز از نظر آماری معنیدار است (p<.01). اگر فرضیه صفر A برابر است با B را آزمایش کنید، می دانید که پاسخ خیر است. مجموعه داده های بزرگتر فقط شما را به این نتیجه گیری ناگزیر واقعی نزدیک می کند. من معتقدم این دمینگ بود که یک بار مثالی با این فرضیه ارائه کرد که تعداد موهای سمت راست یک بره برابر با تعداد موهای سمت چپ آن است. خوب، البته که اینطور نیست. یک فرضیه بهتر این است که الف بیش از این با B تفاوت ندارد. یا در مثال بره، تعداد موهای کناره های بره بیش از X٪ تفاوت ندارد. آیا این منطقی است؟
|
اندازه اثر به عنوان فرضیه برای آزمون معناداری
|
97847
|
آیا کسی میداند که چگونه cv.glmnet (بسته glmnet R) یا LassoCV (scikit-learn) دنبالهای از ثابتهای منظمسازی را انتخاب میکنند که در اعتبارسنجی متقاطع استفاده میکنند؟ آیا توصیهای در مورد نحوه انتخاب طیفی از مقادیر منظمسازی در کمند، رگرسیون برآمدگی و توری الاستیک وجود دارد؟ خیلی ممنونم!
|
دنباله ای از مقادیر منظم در اعتبار سنجی متقابل
|
61749
|
امیدوارم کسی بتواند در مورد مشکل زیر به من کمک کند (لطفاً در نظر داشته باشید که من یک آمارگیر نیستم). من آزمایشی را با 4 درمان انجام دادم که در آن متغیر P را اندازه گرفتم که می تواند صفر یا مقدار مثبت باشد. از هر تیمار یک شاخص E را محاسبه می کنم (میانگین همه مقادیر P بزرگتر از صفر ضرب در نسبت مقادیر P بزرگتر از صفر به تعداد کل تکرارها). بنابراین، برای هر درمان من فقط یک مقدار E دریافت می کنم. برای ارائه نتایج حاصل از این آزمایش، از روش نمونهگیری مجدد زیر استفاده کردم: * 1000 مجموعه مختلف را با استفاده از نمونهگیری مجدد با جایگزینی از دادههای هر تیمار ایجاد کردم. مقادیر E برای هر آزمایش * سپس میانگین و فاصله اطمینان 95٪ را برای این 1000 مقدار E محاسبه کردم سؤال من این است: چگونه می توانم با استفاده از مقادیر E نمونه گیری مجدد، مقایسه های متعدد (در میان تیمارها) انجام دهید؟ اولین ایده من این بود که دادههای نمونهگیری مجدد را با استفاده از آزمونهای t متعدد آزمایش کنم و مقدار p را با استفاده از تصحیح Bonferroni تصحیح کنم، اما مطمئن نیستم که خوب باشد. با تشکر
|
نمونه گیری مجدد و مقایسه های متعدد
|
97842
|
من بارها خواندم که ترکیب داده های متغیرهای پیوسته ایده بسیار بدی است. برای مثال، بیایید چیزی مانند ضربان قلب را در نظر بگیریم و 2 سطل زیر را تعریف کنیم: (125 - 135)، (136 - 145) بیایید بگوییم که (136 - 145) مربوط به تلاش سخت است. اگر جلسه تمرینی شما باعث می شود ضربان قلب شما به طور مداوم روی 135 بماند، جمع کردن داده ها نشان می دهد که شما هیچ زمانی را برای ورزش سخت صرف نکرده اید، در حالی که در تمام مدت 1 ضربه در دقیقه از آن سطل فاصله داشتید. بدیهی است که این یک مثال اغراق آمیز برای توضیح موضوع است. فکر میکردم هر ثانیهای که با ضربان قلب معینی سپری میشود را بر اساس فاصله آن از مرکز سطلهایی که بین آنها میافتد، وزن کنم. به عنوان مثال، در مثال بالا، 140.5 100% در سطل دوم، 135.5 50% در بن اول و 50% در بن دوم، 130 100% در سطل اول خواهد بود. آیا این یک راه حل معقول یا مزخرف به نظر می رسد؟ چه راه بهتری خواهد بود؟
|
جایگزین خوبی برای باینینگ داده هاست؟
|
60359
|
استفاده از رگرسیون برای انتخاب زوجی
|
|
61108
|
حداکثر سازی انتظارات در شبکه های بیزی با متغیرهای پنهان
|
|
65659
|
تئوری تشابه: آزمایش اینکه آیا ابعاد قابل تفکیک یا انتگرال هستند
|
|
87589
|
کد R برای پیش بینی اتصالات قطعه از مجموعه داده زیر
|
|
65656
|
اقدامات مکرر درخشنده است
|
|
14381
|
چگونه می توان نسبت ها را در گروه های مختلف با اندازه های مختلف جمعیت مقایسه کرد؟
|
|
99048
| ||
104324
| ||
70385
|
آیا می توانم مقادیر p دو تست Wilcoxon را با هم مقایسه کنم؟
|
|
7088
|
آیا فرمت استانداردی برای ارائه گزارش تحلیل داده ها بر اساس پرسشنامه وجود دارد؟
|
|
92378
|
خوشه بندی متغیرهای انواع مختلط در R
|
|
107984
|
پارامترهای تخمینی برای متغیر پنهان (مشاهده نشده).
|
|
112080
| ||
27768
|
در این مقاله می توانید معادله (11)، چگالی _احتمال_ را مشاهده کنید که به صورت زیر نوشته شده است: $$S_n(\xi) = \frac{1}{N}\frac{1}{2\pi\sigma_r(n)\sigma_g (n)} \sum\limits_{i=1}^{N}\, \exp\left[-\frac{1}{2}\left(\frac{x_i^2}{\sigma_r(n)}+\frac{y_i^2}{\sigma_g(n)} \راست) \ راست]$$ هرگز اهمیتی نمیدهد که هر پارامتر چه چیزی را نشان میدهد، سؤال من به دو مرحله بعدی مربوط میشود، جایی که ابتدا احتمال (معادل 12) را به این صورت تعریف میکند: $L=\prod\limits_{n=1}^{M}\, S_n(\xi)$ و در نهایت برای بدست آوردن (معادل 13) لگاریتمی را در آخرین معادله اعمال می کند: $$\ln \,L = - \sum\limits_{n=1}^{M} \ln\left\\{N2\pi\sigma_r(n)\sigma_g(n)\,-\,\sum\limits_{i}\exp\left[ -\frac{1}{2}\left(\ frac{x_i^2}{\sigma_r(n)}+\frac{y_i^2}{\sigma_g(n)}\right) \right] \right\\}$$ حالا، من یا چیزی **واقعاً** واضح اینجا را از دست داده ام یا آن معادله آخر **اشتباه** است و باید این باشد: $$\ln L = -\sum\limits_{n= 1}^{M} \ln\left\\{\frac{N2\pi\sigma_r(n)\sigma_g(n)}{\sum\limits_{i}\exp\left[ -\frac{1}{2}\left(\frac{x_i^2}{\sigma_r(n)}+\frac{y_i^2}{\sigma_g(n)}\right) \right]} \right \\}$$ یا معادل آن: $$\ln L = -\sum\limits_{n=1}^{M} \left\\{\ln(N2\pi\sigma_r(n)\sigma_g(n))\,-\,\ln\left(\sum\limits_{i}\exp\left[ -\frac{1}{2}\left(\frac{x_i^2}{\sigma_r(n)}+\frac{y_i^2}{\sigma_g(n)}\right) \right] \right) \right\\}$$ آیا معادله (13) در آن مقاله اشتباه است یا جبر من وحشتناک است؟
|
سوال سریع در مورد جبر ساده در آمار بیزی
|
87001
|
مشکل در کاربرد آزمون کای دو پیرسون
|
|
41753
|
متغیرهای پنهان
|
|
46001
|
از کجا می توانم راه حل هایی برای تمرین های راهنمای تجزیه و تحلیل آماری با استفاده از R پیدا کنم؟
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.