_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
26978
خوب، بنابراین من یک مدل مبتنی بر حافظه برای پیش‌بینی مقادیر متغیر X دارم و مقادیر واقعی X را نیز اندازه‌گیری کرده‌ام. هم RMSE و هم MAPE را برای تفاوت Xreal-Xpredicted محاسبه کرده‌ام. من می دانم که اگر مقدار RMSE کمتر از یک مقدار خاص باشد، گفتن خوب یا بد بودن یک مدل مطلقاً فایده ای ندارد. من متعجب بودم که آیا قاعده ای وجود دارد که بینش هایی در مورد این موضوع ارائه می دهد. به عنوان مثال محدوده داده های من از 0 تا 4 است و من RMSE 1،1 دارم. آیا قانون تجربی وجود دارد که نشان دهد این یک تخمین خوب/بد است؟ پیشاپیش از شما متشکرم ETA: X ممکن است همه مقادیر را در محدوده{-2،2}
استفاده از rmse و mape برای ارزیابی مدل
68110
من با داده های تجربه بیمار کار می کنم که در آن بیماران به سؤالات مربوط به اقامت خود در بیمارستان پاسخ می دهند. سپس به هر سؤال یک مقدار همبستگی داده می شود زیرا به سؤال نهایی تجربه کلی مربوط می شود. داده ها در فواصل 6 ماهه است که هر سؤال دارای مقادیر همبستگی متفاوت برای هر فاصله 6 ماهه است. چگونه می توانم از چهار بازه زمانی 6 ماهه، یعنی چهار مقدار همبستگی، یک مقدار همبستگی برای داده های 2 ساله بدست بیاورم؟
میانگین گیری همبستگی ها
1998
میلر و چپمن (2001) استدلال می کنند که کنترل متغیرهای کمکی غیرمستقل که به هر دو متغیر مستقل و وابسته مرتبط هستند در یک مطالعه مشاهده ای (غیر تصادفی) کاملاً نامناسب است - حتی اگر این کار به طور معمول در علوم اجتماعی انجام می شود. انجام این کار چقدر مشکل دارد؟ بهترین راه برای مقابله با این مشکل چگونه است؟ اگر به طور معمول متغیرهای کمکی غیرمستقل را در یک مطالعه مشاهده ای در تحقیق خود کنترل می کنید، چگونه آن را توجیه می کنید؟ در نهایت، آیا این دعوا ارزش آن را دارد که هنگام بحث کردن با روش‌شناسی با همکاران خود (یعنی واقعاً مهم باشد)؟ ## با تشکر از Miller, G. A., & Chapman, J. P. (2001). تحلیل نادرست از کوواریانس. مجله روانشناسی نابهنجار، 110، 40-48. - http://mres.gmu.edu/pmwiki/uploads/Main/ancova.pdf
کنترل متغیرهای کمکی غیرمستقل در یک مطالعه مشاهده ای (یعنی غیرتصادفی) چقدر مشکل ساز است؟
58184
وقتی فقط یک متغیر (سن) را با پاسخ بله و خیر مقایسه می‌کنید، چگونه یک همبستگی را محاسبه می‌کنید، که شبیه به Spearman و Pearson forumlar است. با بالا رفتن سن احتمال پاسخ مثبت بیشتر است. آیا این امکان پذیر است؟ متشکرم
محاسبه همبستگی با پاسخ های بله/خیر؟
58183
اول، متوجه شدم که این ممکن است یک سوال اساسی باشد. با این حال، هنگامی که من در وب برای منابعی در مورد این موضوع جستجو می کنم، با این مشکل مواجه می شوم که آیا توضیحی که می خوانم برای مثالی که در ذهن دارم قابل استفاده است یا خیر. بنابراین، در حالی که می‌دانم پاسخ سؤالات زیر چه می‌تواند باشد، هنوز به تفکر بیزی خود اطمینان زیادی ندارم. هر گونه راهنمایی قدردانی خواهد شد. متشکرم. تجزیه و تحلیل در چارچوب بیزی انجام می شود و توزیع خلفی از یک پارامتر محدود شده بین 0 و 1 را به دست می دهد. این پارامتر برای 1 گونه در دو نقطه در زمان (دو سال) اما در 2 شرایط بسیار متفاوت تخمین زده می شود. دو سال به طور جداگانه تجزیه و تحلیل شده است. در یک سال میانگین قسمت خلفی پارامتر ممکن است حدود 30٪ و در سال دیگر حدود 45٪ باشد. واکنش اولیه من این است که یک آزمون فرضیه انجام دهم و بپرسم آیا این دو تخمین به طور قابل توجهی متفاوت هستند؟ با توجه به ماهیت بیزی تحلیل، آیا پرسیدن این سوال معنادار است؟ آیا انتظار پاسخ «بله یا نه»، مشابه آنچه در یک محیط مکرر انتظار می رود، منطقی است؟ بگو که سوال معنادار است. چگونه شخص به دنبال یافتن پاسخ است؟ اگر فواصل معتبر 95% را با هم مقایسه کنم و متوجه شوم که CI پارامترهای دو سال با هم همپوشانی دارند، آیا به این معنی است که تفاوتی وجود ندارد؟ یک رویکرد مشابه، معرفی یک متغیر جدید در مدل، نامگذاری آن YR، و اجازه دادن به YR برای منعکس کردن تأثیر سال دوم بر برآورد پارامتر اصلی است. می‌توانم به تخمین YR نگاه کنم و بپرسم که آیا بازه معتبر 95٪ آن شامل 0 می‌شود یا خیر. تخمین پارامترها نسبتاً نامشخص هستند --- اگر یک توزیع پسین با میانگین 30٪ باشد، چارک های 1 و 3 آن می تواند بین 20٪ و 40٪ باشد (و سال 45٪ بین 35٪ و 55٪ خواهد بود. . بگوییم که تخمین پارامترها دارای 95٪ CI هستند که همپوشانی دارند، یا YR به عنوان 15٪ تخمین زده می شود، اما CI آن شامل 0 است. که سالها 15% متفاوت بودند، ± مقداری عدم قطعیت؟ با تشکر
آیا قسمت های خلفی متفاوت هستند؟ چگونه می توان نتیجه را مورد بحث قرار داد؟
58187
من سعی می‌کنم یک رگرسیون چند جمله‌ای سلسله مراتبی را با داده‌های مقطعی تطبیق دهم. من حدود 2000 واحد با تنها یک مشاهده در هر واحد دارم. من یک متغیر پاسخ دو جمله ای و 14 متغیر نشانگر ساختگی دارم. من از تابع rhierMnlRwMixture در بسته bayesm برای تطبیق یک Logit چند جمله ای سلسله مراتبی با ترکیبی از ناهمگونی نرمال ها استفاده می کنم، اما من در انتخاب پارامترهای خود مشکل دارم: تعداد نرمال ها برای مخلوط، ماتریس Z که بتاها با آن ساخته می شوند، اولویت ها برای پارامترها. آیا کسی می تواند مرا راهنمایی کند که در انتخاب این پارامترهای مدل باید چه مواردی را در نظر بگیرم؟ همچنین، استفاده از یک مدل سلسله مراتبی با تنها 1 مشاهده در واحد چقدر مناسب است؟ آیا ابتدا باید جمعیت خود را خوشه بندی کنم تا با مشاهدات بیشتر واحدهای کمتری به دست بیاورم؟
پارامترهای یک رگرسیون چند جمله ای سلسله مراتبی
52908
سلام نحوه نمایش موارد زیر: مشاهدات $(X_1، X_2،..، X_n،)$ i.i.d هستند. بیش از $[0,2\pi)$ با چگالی $f(x,\theta) = \exp[\theta_1\cos x + \theta_2 \sin x -c(\theta)]$ که در آن $\theta =(\ theta_1,\theta_2) \in R^2$ یک عبارت برای اطلاعات فیشر $I(\theta)$ شامل انتگرال‌ها پیدا کنید و نشان دهید که برای همه $\theta مثبت است. \ در R^2 $ متشکرم!
اطلاعات فیشر
45060
سلام من سعی می کنم با بسته های tsDyn برای جا دادن سری های زمانی کار کنم. اگر بتوانم این بسته را به درستی کار کنم، در وقت من صرفه جویی کنید. من با داده‌هایی کار می‌کنم که به این شکل است: تغییر زمان شیب کم شیب13 شیب50 شیب200 پیش‌بینی 1 2.008082e+13 -0.00150 0.00860 -0.00420 288.46154 185.2020.301. 0.00160 0.00570 -0.00540 90.84615 178.22 55.10 NA 3 2.008082e+13 -0.00320 0.00020 -0.00409 42.081602 42.0808082 2.008082e+13 -0.00310 0.00330 -0.00010 36.92308 180.80 61.60 NA 5 2.008082e+13 -0.00156 0.00714 0.00714 -0.00714 -0.00714 -0.00714 -0.00714 -0.008082 59.25 NA 6 2.008082e+13 0.00416 0.00176 -0.00292 -18.84615 171.56 58.27 NA ستون زمان ستونی است که شامل زمان است. به نظر می رسد 20080817210000 YYYYMMDDHHMMSS. هنگام تلاش برای استفاده از هر یک از توابع روی داده ها با خطا مواجه می شوم. فقط سری های زمانی تک متغیره مجاز هستند. من نمی توانم بفهمم که در اینجا چه اشتباهی انجام می دهم. یک مثال: > mt4nnetTS <- nnetTs(mt4, m= 2, size= 3) خطا در nlar.struct (x = x, m = m, d = d, step = گام, سری = سری) : فقط سری های زمانی تک متغیره مجاز هستند من مطمئن نیستم که اینجا چه اشتباهی انجام می دهم؟
R با سری tsDyn و Time کار می کند
45061
از ویکی‌پدیا > آزمایش فاکتوریل کامل، آزمایشی است که طراحی آن از دو یا چند عامل تشکیل شده است، که هر کدام دارای مقادیر یا «سطوح» گسسته‌ای ممکن است، و واحدهای آزمایشی آن همه ترکیب‌های ممکن از این سطوح را در همه این عوامل می‌گیرند. طرح کامل فاکتوریل ممکن است طرح کاملاً متقاطع > نیز نامیده شود. چنین آزمایشی امکان مطالعه تأثیر هر **عامل** را بر > **متغیر پاسخ**، و همچنین اثرات متقابل بین عوامل > بر متغیر پاسخ را فراهم می کند. یک متغیر پاسخ خروجی در یک تابع پیش بینی است (یعنی رگرسیون یا طبقه بندی)، و عوامل اجزای ورودی تابع پیش بینی هستند. پس آیا درست است که آزمایش فاکتوریل فقط برای جمع آوری جفت ورودی و خروجی یک تابع پیش بینی در رگرسیون یا طبقه بندی استفاده شود. با تشکر
آیا از آزمایش فاکتوریل فقط برای پیش بینی (رگرسیون یا طبقه بندی) استفاده می شود؟
45065
من سعی می کنم تأثیر متغیرهای مستقل، رشد، تورم، و Z (اقتصاد خوب برای چندین فصل) را بر روی آرای ریاست جمهوری دریافت شده توسط حزب فعلی آزمایش کنم. فرضیه جایگزین من این است که در طول دهه ها، میزان تأثیرگذاری اینها بر انتخابات ثابت نبوده است. دلیلی که من این را آزمایش می‌کنم این است که می‌خواهم ببینم آیا باید مجموعه داده‌هایم را به دوران مدرن (1980 به بعد یا بیشتر) محدود کنم، اگر متغیرها تأثیر متفاوتی نسبت به اوایل قرن بیستم داشتند. اگر من از چنین مجموعه داده محدودی استفاده کنم، بدیهی است که ضرایب بتا متفاوت خواهند بود و بر نتایج من تأثیر خواهند گذاشت. بهترین راه برای تست این چیست؟ ایده های من: من می خواستم برای هر 6 انتخابات یک ANOVA بر خلاف مدل خود انجام دهم (در R: votePercent~G*P*Z) و ببینم آیا متغیرهای خاصی باعث ایجاد واریانس بیشتر در انتخابات قبلی شده اند یا خیر. از طرف دیگر، من می‌توانم R2 این مدل را در مقابل Dependent var (رای مردمی) روی گروه‌های انتخابات انجام دهم و ببینم شیب چگونه تغییر می‌کند. در نهایت، امیدوارم انجام این ANOVA/LinReg در برابر کل مدل خطی با شرایط تعامل صحیح باشد. هر گونه راهنمایی قدردانی خواهد شد. لطفاً به من بگویید که آیا استدلال من منطقی است یا شما به طور دیگری به این موضوع نگاه می کنید. نکته جانبی: در R، anova فقط داده‌ها را بر روی متغیرهای مستقل من و تنها 1 عبارت تعاملی 4 را زمانی که از 6 سال انتخاباتی استفاده کردم در مقایسه با 33 سال انتخاباتی، که داده‌ها را در مورد همه عبارت‌ها در مدل خطی من برمی‌گرداند، برگرداند. آیا تعداد نقاط داده بر توانایی ANOVA برای عملکرد صحیح تأثیر می گذارد؟ آیا وقتی می‌خواهم از آن در مجموعه داده‌های کوچک استفاده کنم، این باعث بی‌معنای آنوا می‌شود؟
آزمایش تأثیر متغیرهای مستقل در طول دهه های مختلف
59853
سوال مشابه اینجا سوالی که در بالا برجسته کردم نمای کلی از نحوه عملکرد مدل های خطی تعمیم یافته را ارائه می دهد. با این حال، متوجه می شوم که مردم اغلب بیشتر می خواهند و می پرسند که چگونه ضرایب محاسبه شده اند، و چگونه ضرایب به نسبت شانس یا احتمالات پیش بینی شده تبدیل می شوند. بنابراین، اگر من مدل‌های لاجیت را برای کسی توضیح می‌دادم که هیچ تجربه‌ای در مدل‌سازی آماری ندارد، چگونه فرآیند رفتن از داده‌ها به ضرایب و سپس نسبت‌های شانس و/یا احتمالات پیش‌بینی‌شده را با محدودترین ریاضی ممکن توضیح می‌دهید؟ 1. مدل چگونه داده ها را می گیرد و ضرایب خاصی تولید می کند؟ 2. چگونه از این ضرایب اطلاعات مفیدی بدست آوریم؟ اجتناب از ریاضی در این مورد دشوار است، زیرا مهم است که به نحوه محاسبه منحنی احتمال یا نسبت‌های شانس اشاره کنیم. سوال من بیشتر به 1. می پردازد تا 2.
چگونه ضرایب لاجیت را برای فردی بدون پیشینه آماری توضیح می دهید؟
48096
من برای اولین بار این یک MSE را پست کردم، اما به من اشاره شد که این سایت ممکن است برای این نوع سوالات مناسب تر باشد (به همین دلیل است که این سوال برای حدود 11 ساعت پاسخ داده نشد) در آنجا. _بنابراین ما داده های زیر را در مورد یک تحقیق داریم:_ **گروه 1:** $n_1 = 10$\mu \bar{x}_1 = 433$ $ \sigma \bar{x}_1 = 65$ **گروه 2:** $n_2 = 12$ $ \mu \bar{x}_2 = 367$ $ \sigma \bar{x}_2 = 84$ **فرضیه ها:** $H_0: \mu _v = \mu _1 - \mu _2 =0$ $H_1: \mu _v \neq 0$ _معلم من محاسبات زیر را انجام داد که من کاملاً صراحتاً آنها را درک نمی کنم همه:_ $ \sigma_v = \sqrt{\sigma_x^2 + \sigma_y^2}$، بنابراین: $ \sigma _v = (\sqrt{\dfrac{ \sigma \bar{x}_1}{\sqrt{n_1}}})^2 + (\sqrt{\dfrac{ \sigma \bar{x}_2}{\sqrt{n_2} }})^2 =... \approx 32 $ , بنابراین می توانیم $H_0$ را رد کنیم **شکایت و سردرگمی من:** * او در محاسبه خود استفاده می کند $\sigma {x} = \dfrac{\sigma \bar{x}}{\sqrt{n}}$، اما من همیشه این فرمول را دیده‌ام: $\sigma \bar{x} = \dfrac{\sigma_x }{\sqrt{n}}$. آیا محاسبات او کاملاً نادرست نیست؟ * وقتی ما (من اشتباه فرض می‌کنم) $\sigma _v$ داریم، چرا می‌توانیم بلافاصله $H_0$ را رد کنیم؟ من فکر می کنم برخی از مراحل (که من نمی فهمم) وجود دارد. **ویرایش**: همچنین، اکنون که به آن فکر می کنم، آیا $\mu \bar{x}$ اضافی نیست، زیرا $\bar{x}$ قبلاً میانگین نمونه است؟ یا تفاوتی بین این دو وجود دارد؟ **پاسخ من:** $ \mu _v = 0 $ $ \sigma_v = \sqrt{(\sigma \bar{x_1} \times \sqrt{n_1})^2 + (\sigma \bar{x}_2 \ بار \sqrt{n_2})^2} \تقریباً 356 $ P $ (X \geq 66 | \mu = 0 , \sigma = 356) \تقریباً 0.426 $ 0.426 $ > \dfrac{1}{2} \alpha $ ، بنابراین فرضیه صفر صادق است. **ps** \- به خاطر داشته باشید که این آزمایش فرضیه ابتدایی است، نه چیزی پیشرفته. ما فقط توزیع دوجمله ای و توزیع های نرمال را آموزش داده ایم. صادقانه بگویم، من هیچ ایده ای ندارم که امتیازهای z یا t-scores (و از این قبیل) چیست و ذکر آنها در پاسخ شما لازم نیست (چون ما هرگز در مورد آنها بحث نکردیم و او احتمالاً خودش نمی داند که آنها چه هستند، زیرا او نیست). او یک معلم آمار فرض نمی‌کرد که ما تست‌های t را می‌دانستیم.
نمونه انحراف معیار - آیا معلم من اشتباه کرده است (آزمون فرضیه)؟
45069
من یک متغیر وابسته طبقه‌ای غیر ترتیبی با 3 نتیجه انتخابی و 20 پیش‌بینی‌کننده طبقه‌بندی ترتیبی دارم و می‌خواهم یک رگرسیون لجستیک چند جمله‌ای انجام دهم. با این حال، من می‌خواهم پیش‌بینی‌کننده‌ها را با تحلیل عاملی تنها به چند متغیر کاهش دهم. SPSS امتیازهای فاکتور رگرسیون را به عنوان متغیر برای هر یک از موارد من می دهد. آیا 20 پیش‌بینی‌کننده اصلی خود را با این 5 متغیر امتیاز فاکتور رگرسیون جایگزین می‌کنم، یا اینکه قبل از استفاده از آن‌ها به‌عنوان پیش‌بینی‌کننده، باید فاکتورها در قالب دیگری باشند؟
رگرسیون چند جمله ای با انتخاب مقوله ای و پیش بینی ها و تحلیل عاملی
45066
من فکر می کنم خدمات پخش ویدئو به عنوان مثال. سایت های لوله مانند می توانند زمین بازی بعدی برای دانشمندان داده شوند، به خصوص که من کاملاً به افزایش نرخ بازی علاقه مند بودم و می خواهم در مورد این موضوع تحقیق کنم. ایده هایی در مورد نحوه تجزیه و تحلیل اطلاعات سیستم کاربر در راه ساختن چیزی مانند یک مدل تولید کننده تصویر کوچک خودکار که بالاترین چگالی فریم کلیپ را انتخاب می کند، به ذهنم رسید، این شامل کار با مجموعه داده هایی است که در آن هر اندازه گیری بیشتر شبیه به نظر می رسد. یک فاصله زمانی فرض کنید یک کلیپ در ثانیه 0 شروع می شود و کاربر 1 تصمیم می گیرد که مستقیماً بعد از تماشای 15 ثانیه اول به دوم 120 بپرد و سپس تقریباً بلافاصله به ابتدا برمی گردد - فرض کنید دوم 10. داده ها چیزی شبیه به این خواهند بود: 0:15 120:121 10:X تعجب می کنم که آیا هر نوع چارچوب یا تکنیکی برای کار با این نوع اندازه گیری های فاصله ای وجود دارد؟ امیدوارم توضیح من منطقی باشد.
مدل مولد تصویر بندانگشتی خودکار بر اساس معیارهای فاصله زمانی برای سایت های لوله
59859
فرآیند دیریکله، طبق انتظار، $\alpha \log n$ رستوران، هنگام قرض گرفتن اصطلاحات فرآیند رستوران چینی، با $\alpha$ پارامتر غلظت است. Pitman-Yor، از سوی دیگر، دارای $\alpha n^d$ جدول است، که $\alpha$ پارامتر غلظت، و $d$ پارامتر تخفیف است. چه ارتباطی با قانون قدرت دارد؟ من می دانم که PY رفتار قانون قدرت دارد، اما DP ندارد. از ویکی پدیا: پارامترهای حاکم بر فرآیند Pitman-Yor عبارتند از: 0 ≤ d < 1 یک پارامتر تخفیف، یک پارامتر قدرت θ > -d و یک توزیع پایه G0 در فضای احتمال X. هنگامی که d = 0، تبدیل به دیریکله می شود. فرآیند پارامتر تخفیف به فرآیند Pitman-Yor نسبت به فرآیند دیریکله که دارای نمایی است، انعطاف بیشتری نسبت به رفتار دم می دهد. tails این باعث می‌شود فرآیند Pitman-Yor برای مدل‌سازی داده‌ها با دم‌های قانون قدرت مفید باشد.
فرآیند دیریکله در مقابل پیتمن-یور و قانون قدرت - چه ارتباطی با هم دارند؟
2860
ما می دانیم که ماتریس طرح ریزی که توسط PCA آموخته می شود را می توان در نقاط داده خارج از نمونه اعمال کرد تا جاسازی کم بعدی آنها را بدست آورد. با این حال، در مقایسه با جاسازی به‌دست‌آمده از PCA با این نقاط خارج از نمونه همراه با داده‌های اصلی، چقدر قابل اعتماد هستند؟ این تنظیم فرضی شبه خارج از نمونه را در نظر بگیرید: فرض کنید من 1000 نقطه داده دارم و می خواهم PCA را روی آنها انجام دهم. آیا می توانم در عوض فقط روی 500 مورد از آنها PCA انجام دهم (برای اینکه مقداری صرفه جویی در محاسبات داشته باشم) و سپس از ماتریس پیش بینی آموخته شده برای جاسازی بقیه نقاط نیز استفاده کنم (با در نظر گرفتن آنها به عنوان داده های خارج از نمونه). )؟
PCA در داده های خارج از نمونه
44332
برای پاسخ دادن به این سوال به کمک نیاز دارم، این یک سوال امتحانی است.
اگر باقیمانده ها نویز سفید نباشند از نظر رگرسیون به چه معناست؟
44331
من موفق به ایجاد شبکه عصبی از داده های خود شدم. اما در مورد تفسیر خروجی R چندان مطمئن نیستم. من از دستور زیر برای ایجاد شبکه عصبی استفاده کردم: > net=nnet(فرمول = دسته~iplen+date_time, size=0,skip=T,lineout=T) #weights: 3 مقدار اولیه 136242.000000 مقدار نهایی 136242.000000 همگرا شده سپس از دستور زیر استفاده کردم برای دیدن خروجی: > خلاصه (شبکه) یک شبکه 2-0-1 با 3 گزینه وزن were - اتصالات skip-layer b->o i1->o i2->o 0.64 -0.46 0.15 بنابراین از خروجی بالا می توانم نمودار شبکه عصبی زیر را نتیجه بگیرم؟: ![net](http://i. stack.imgur.com/sg4Ji.jpg) سوال دوم این است که چگونه می توانم بدانم این نمودار چقدر مفید است؟ منظورم این است که من می خواستم شماره دسته (متغیر هدف) را از متغیرهای مستقل پیدا کنم. بنابراین اکنون چگونه می توانم تصمیم بگیرم که آیا این شبکه واقعاً به من در پیش بینی دسته (متغیر هدف) کمک کرده است؟ خروجی نهایی چیست یا چگونه می توان آن را پیدا کرد؟ آیا می توانم خروجی زیر را از شبکه n فوق نتیجه بگیرم؟ : دسته= -0.46(iplen)+0.15(تاریخ_زمان)+0.64 با احترام،
تفسیر خروجی شبکه عصبی در R؟
44335
فرض کنید یک سکه مغرضانه به شما داده می شود که احتمال بدست آوردن سر برای آن $p (0<p<1)$ است. در مورد اینکه چگونه یکی از دو فرد را به طور تصادفی با استفاده از سکه بایاس انتخاب می کنید، بحث کنید.
چگونه می توانید با استفاده از یک سکه مغرضانه یکی از دو فرد را به طور تصادفی انتخاب کنید
44336
در «matlab» می‌توان از classregtree برای پیاده‌سازی درخت‌های طبقه‌بندی و رگرسیون (CART) استفاده کرد. ، یک روش مجموعه اولیه، درخت های تصمیم گیری متعددی را با نمونه گیری مجدد مکرر داده های آموزشی با جایگزینی، و رای دادن به درخت ها برای پیش بینی اجماع ایجاد می کند. ** طبقه‌بندی‌کننده جنگل تصادفی** از تعدادی درخت تصمیم برای بهبود نرخ طبقه‌بندی استفاده می‌کند. ** درختان تقویت شده ** را می توان برای مشکلات نوع رگرسیون و نوع طبقه بندی استفاده کرد. جنگل چرخشی - که در آن هر درخت تصمیم با استفاده از تجزیه و تحلیل مؤلفه اصلی (PCA) روی یک زیر مجموعه تصادفی از ویژگی های ورودی آموزش داده می شود. من وسوسه شدم که بگویم جنگل تصادفی، اما می خواهم توضیح دهم، آیا کسی می داند متلب کدام روش را برای طبقه بندی پیاده سازی می کند؟
درختان طبقه بندی و رگرسیون (گاری)
2863
من می خواهم همبستگی کل آیتم ها را در یک پرسشنامه 19 سوالی ارزیابی کنم (برخی از سوالات به منظور نمره گذاری معکوس هستند). سوال من این است: * آیا قبل از محاسبه همبستگی آیتم-کل، آیتم ها را معکوس می کنم (به منظور حذف هر متغیری که با کل 40/0 > همبستگی ندارد)؟ * بعلاوه، آیا قبل از اجرای تحلیل عاملی، آیتم ها باید نمره معکوس داده شوند؟
آیا قبل از اجرای تجزیه و تحلیل قابلیت اطمینان (همبستگی کل آیتم) و تحلیل عاملی باید آیتم های امتیاز را معکوس کنم؟
68116
من پارامترهای یک مدل ARIMA را با تابع arima در R تخمین زدم و t نسبت یا آمار t را برای هر پارامتر محاسبه کردم. حالا می خواهم مقادیر p را برای آزمون t پیدا کنم، درجه آزادی من چقدر است؟ آیا این تعداد مشاهدات من است؟
درجه آزادی در مدل ARIMA
58456
من روی یک مجموعه داده با دو نقطه زمانی کار می‌کنم و علاقه‌مندم که از خط پایه تغییر کند. هیچ گروه درمانی متفاوتی وجود ندارد. اول، متوجه شدم که این به سادگی با استفاده از آزمون t زوجی ساخته می شود. با این حال، من می خواهم برای پاسخ پایه تنظیم کنم. سوال ساده من این است: آیا درست است که عبارت رهگیری را در مدل زیر به عنوان میانگین تغییر تعدیل شده خط پایه تفسیر کنم؟ y= امتیاز در زمان2 x= امتیاز در زمان1 $\alpha$ = قطع $$y - mean(x)= \alpha + \beta (x-mean(x))$$
تفسیر رهگیری هنگام تنظیم برای پاسخ خط پایه
24232
فرض کنید متغیرهای $X_{1}، \dots، X_{100}$ دارید (می‌تواند گسسته یا پیوسته باشد). اگر می خواهید تمام تعاملات ممکن را آزمایش کنید، آیا باید همه آنها را در یک مدل قرار دهید؟ ما در اینجا رگرسیون خطی انجام می دهیم.
شرایط تعامل
28566
شبیه‌سازی نوین داده‌ها از یک چارچوب داده طراحی تجربی. با تمرکز بر R (اگرچه راه حل های زبان دیگر عالی خواهد بود). در طراحی یک آزمایش یا یک نظرسنجی، شبیه سازی داده ها و انجام تجزیه و تحلیل بر روی این داده های شبیه سازی شده می تواند بینش فوق العاده ای از مزایا و نقاط ضعف طرح ارائه دهد. چنین رویکردی همچنین می تواند برای درک و استفاده مناسب از آزمون های آماری ضروری باشد. با این حال، این فرآیند تا حدودی خسته کننده است و بسیاری از آنها به رد شدن از این مرحله مهم در یک آزمایش یا بررسی سوق داده می شوند. مدل‌ها و آزمون‌های آماری حاوی بیشتر اطلاعات مورد نیاز برای شبیه‌سازی داده‌ها (از جمله یک فرض یا بیانیه صریح توزیع) هستند. با توجه به یک مدل تجزیه و تحلیل (و مفروضات مرتبط با آن مانند نرمال بودن و تعادل)، سطوح یک عامل و معیاری از اهمیت (مانند p-value)، می‌خواهم داده‌های شبیه‌سازی شده را به دست بیاورم (به طور ایده‌آل با یک تابع تعمیم‌یافته شبیه به print(), predict(), simulate()). آیا چنین چارچوب شبیه سازی تعمیم یافته ای امکان پذیر است؟ اگر چنین است، آیا چنین چارچوبی در حال حاضر موجود است؟ به عنوان مثال، من تابعی را می خواهم، مانند: sim(aov(response~factor1+factor2*factor3)، p.values=list(factor1=0.05، factor2=0.05، factor3=0.50، factor2:factor3=0.05)، سطوح =list(factor1=1:10، factor2=c(A، B، C)، factor3=c(A، B، C))) یعنی یک نسخه کلی از: sim.lm<-function(){ library(DoE.base) design<-fac.design(nlevels=c(10,3,3), factor.names=c(factor1، factor2، factor3)، replications=3، randomize=F) answer<-with(design, as.numeric(factor1)+ as.numeric(factor2)+ as.numeric(factor3)+ as.numeric(factor2)*as.numeric(factor3)+ rnorm(length(factor1))) شبیه سازی<-data.frame( طراحی، پاسخ)} OR sim(glm(response~factor1+factor2*factor3, family=poisson) p.values=list(factor1=0.05، factor2=0.05، factor3=0.50، factor2:factor3=0.05)، level=list(factor1=1:10، factor2=c(A، B، C ), factor3=c(A، B، C))) OR library(lme4) sim(lmer(response~factor1+factor2 + (factor2|factor3))، F_value=list(factor1=50، factor2=50)، level=list(factor1=1:10، factor2=c(A، B، C)، factor3=c (A، B، C))) که یک data.frame متناظر کامل را ایجاد می کند، نمونه هایی بالقوه از توابع خاص (لطفاً به میل خود ویرایش کنید) \- تابع arima.sim برای ایجاد یک data.frame از سطوح عامل، بدون پاسخ مدل شده: به عنوان مثال. conf.design http://cran.r-project.org/web/views/ExperimentalDesign.html
آیا روش کلی برای شبیه سازی داده ها از فرمول یا تجزیه و تحلیل موجود است؟
28564
آیا متغیرهایی وجود دارند که ارزیابی صرفاً مقوله ای بودن آنها دشوار باشد؟ **به عنوان مثال: ** برای ارزیابی سطح دردی که بیمار در آن قرار دارد، از مقیاسی بین 1 تا 10 استفاده می کنید. این به این دلیل است که اندازه گیری است (حتی اگر ذهنی باشد). برعکس، اگر من چیزی مانند مرحله تومور داشته باشم، هنوز یک متغیر مجزا بین مثلاً 1 و 4 است، با این حال بیشتر وسوسه می‌شوم که بگویم اینها دسته‌بندی هستند. مسئله این است که افزایش ارزش در مرحله تومور در واقع معنی دارد: احتمال ابتلا به بیماری تهاجمی بیشتر است. برای دسته هایی مانند رنگ مو یا جنسیت، هیچ رابطه عددی بین دسته ها وجود ندارد! تنها چیزی که واقعاً می توانم ببینم این است که در متغیرهای گسسته، هر مرحله افزایش معنی یکسانی دارد (بنابراین افزایش 1-2، 5-6 و 9-10) یکسان است. در حالی که در مرحله تومور va، اندازه گام ها معنی یکسانی ندارند: 1-2 با 2-3 و 3-4 متفاوت است زیرا پرخاشگری تومور احتمالاً خطی نیست. این امر هنگام اجرای مدل‌های رگرسیون لجستیک، که در آن می‌توانید با متغیرهای طبقه‌بندی متفاوت رفتار کنید (نام‌هایی که آنها را به‌طور متفاوتی کدگذاری می‌کنید) پیامدهایی دارد.
آیا تمایز فازی بین متغیرهای گسسته و مقوله ای وجود دارد؟
49949
ما می دانیم که توزیع نرمال دارای حداکثر آنتروپی در بین تمام توزیع های پیوسته در $\mathbb{R}$ برای یک واریانس معین است. من تعجب می کنم که برعکس چیست، یعنی کدام توزیع بیشترین (یا حداقل) واریانس را برای یک آنتروپی معین دارد؟
توزیعی که دارای حداکثر یا حداقل واریانس برای یک آنتروپی معین است
24233
من در حال حاضر در تلاش هستم تا تخمین بزنم که قیمت مبادله دلار به لمپیرا (پول هندوراس) و قیمت سوخت در 30 ژوئن 2012 چقدر خواهد بود. قیمت‌های من در ماه‌ها و سال‌های گذشته چقدر بوده است، چگونه می‌توانم از این داده‌ها برای به دست آوردن یک برآورد معتبر استفاده کنم؟
تخمین قیمت ها
24235
فرض کنید که من علاقه مند به انتخاب یکی از فضاهای مدل زیر هستم: $$\begin{align*} y &= \beta_0 + \beta_1 x_i + \epsilon_i \, \, \text{یا} \\\ \log ( y_i) &= \gamma_0 + \gamma_1 x_i + \eta_i. \end{align*}$$ من قصد دارم از اعتبارسنجی متقاطع برای انتخاب خود استفاده کنم. اگر خطاهای پیش‌بینی مجموعه اعتبارسنجی را محاسبه کنم، مدل اول خطاهای $y$ را می‌دهد، در حالی که مدل دوم خطاها را در $\log(y_i)$ می‌دهد. بدیهی است که مقایسه اینها منطقی نیست. در عوض، برای مدل دوم، فرض کنید $$\begin{معادله*} \text{E}[y_i \mid x_i] = \exp \left\\{\hat{\beta}_0 + \hat{\ را تخمین زدم beta}_1 x_i \right\\} \times \exp \left\\{ \hat{\sigma}^2 /2 \right\\}، \end{equation*}$$ با استفاده از این فرض که $\epsilon_i \mid x_i \sim N(0, \sigma^2)$ (به طور متناوب، من فقط می‌توانم از یک مدل پواسون با خطاهای استاندارد/oversidsperion قوی استفاده کنم تا همان نتیجه را دریافت کنم؛ برای توضیح خوب اینجا را ببینید. ). سپس، من این $y$ پیش‌بینی‌شده را با اعتبارسنجی مشاهده‌شده $y$ مقایسه می‌کنم تا خطاهای پیش‌بینی خود را دریافت کنم. آیا این روش معقول است؟ آیا به طور کلی خواص خوبی خواهد داشت؟
اعتبار سنجی متقاطع برای نتیجه تبدیل شده و تغییر شکل نیافته
79001
جایی که X یک r.v است. به دنبال توزیع T متقارن با میانگین 0 و پارامتر دم $\alpha$. من به دنبال توزیع متغیر n-summed $ \sum_{1 \leq i \leq n}|x_i|$ هستم. $Y=|X|$ برای PDF $\frac{2 \left(\frac{\alpha }{\alpha +y^2}\right)^{\frac{\alpha +1}{2}}} دارد {\sqrt{\alpha } B\left(\frac{\alpha }{2},\frac{1}{2}\right)}$, $y \geq 0 $. من موفق به دریافت تابع مشخصه $C(t)$ شدم اما نتوانستم کانولوشن را معکوس کنم، یعنی $C(t)^n$. ممنون میشم کمک کنید
مجموع مقادیر مطلق T متغیرهای تصادفی
79003
من سعی می کنم اثبات CLT را برای توزیع پواسون به پایان برسانم، اما در ارزیابی حد مشکل دارم. من نشان دادم که تابع تولید لحظه برای پواسون استاندارد شده $$M_X (t) = \exp \left \\{-t\sqrt{\lambda}-\lambda+\lambda e^{t/\sqrt{\ است. lambda}} \right \\}$$ (این فرم MGF است که از ما خواسته شده است که نشان دهیم) اما من در ارزیابی مشکل دارم $$\lim_{\lambda \rightarrow \infty} \exp \left \\{-t\sqrt{\lambda}-\lambda+\lambda e^{t/\sqrt{\lambda}} \right \\} = e^{t^2/2}$$ آیا پیشنهادی برای ذهن من که از نظر ریاضی به چالش کشیده شده است؟
نمایش MGF پواسون به MGF N(0,1) همگرا می شود
62246
من سعی کرده ام از PMF نشان داده شده در یک سوال قدیمی استفاده کنم، که در اینجا یافت شده است، و منبع آن از اینجا است، اما به مشکل برخوردم. هنگام تلاش برای محاسبه N، متوجه می‌شوم که B (با استفاده از s+i+j-x-ry = B) با نگه داشتن بیش از 1 قالب (y>1) به سرعت منفی می‌شود. این به نوبه خود منجر به تلاش برای توزیع تعداد منفی توپ می شود. این کمی خارج از عمق من است، زیرا من با ترکیبیات تجربه زیادی ندارم، اما تا آنجا که می دانم همه عملیاتی را که می خواهم انجام دهم را درک می کنم. من در استفاده از این چه چیزی را از دست داده ام؟ من مطمئن نیستم که چه تغییراتی را از نسخه اصلی انجمن فیزیک به نسخه موجود در سؤال انجام دهم. من از انجمن اصلی فیزیک استفاده کرده ام، جایی که آنها متفاوت هستند، اما در حال حاضر مشکل من در بخشی است که به نظر می رسد یکسان است.
محاسبه PMF تاس انداختن و نگه داشتن (XdZkY)
62247
در پایان نامه کارشناسی ارشدم، یک تحلیل میانجیگری با تحلیل رگرسیون چندگانه انجام می دهم. بنابراین من از روش بارون و کنی برای آزمایش میانجی استفاده می کنم. من همچنین می خواهم برای برخی از متغیرها کنترل کنم. به عنوان مثال من می خواهم بدانم که آیا جنسیت تأثیری در تأثیر میانجی دارد یا خیر. کاری که من انجام دادم این بود که فایل داده (زنان/مردان) را تقسیم کردم (من از SPSS 21 استفاده می کنم) و سپس تجزیه و تحلیل میانجیگری را دوباره به طور جداگانه برای دو گروه اجرا کردم. با این حال، اگر بخواهم سن را کنترل کنم، تقسیم فایل بی معنی است. آیا روش تحلیلی برای آزمایش تأثیر سن یا هر متغیر غیر طبقه‌بندی دیگری بر اثر میانجی‌گری وجود دارد؟ و اگر اینطور باشد، چگونه می توانم این تحلیل را در SPSS اجرا کنم؟ از کمک شما بسیار سپاسگزارم.
چگونه می توانم متغیرهای کنترل را در یک تحلیل میانجی آزمایش کنم؟
79009
در محل کار، اعضای تیم اغلب با یکدیگر اختلاف نظر دارند. از یک طرف اختلاف نظرها بحث گروهی را تسهیل می کند و ایده های خلاقانه را تحریک می کند، اما از طرف دیگر، اختلاف نظرها به انسجام تیم آسیب می زند و عملکرد تیم را کاهش می دهد. به عنوان یک محقق، شما به این پدیده محل کار علاقه مند هستید و می خواهید یک مطالعه تجربی در مورد چنین موضوعی انجام دهید. لطفا طرح تحقیق خود را با پاسخ به سوالات زیر شرح دهید. 1. توضیح دهید که متغیرهای مفهومی (سازه ها) در مطالعه شما چیست؟ 2. مشخص کنید که متغیرهای عملیاتی در مطالعه شما چیست؟ 3. فرضیه های تحقیق خود را به طور خلاصه فرموله کنید. 4. چگونه می خواهید متغیرهای مربوطه را اندازه گیری یا دستکاری کنید؟ 5. دوست دارید از کدام روش های آماری در ایجاد رابطه علی استفاده کنید؟ 6. آیا نکات خاصی وجود دارد که بخواهید در طرح تحقیق خود به آنها بپردازید؟
طرح مطالعه پژوهشی شامل واسطه ها
79007
من در بازبینی امتحان خود با کمی دوراهی مواجه شده ام، این موضوعی نیست که من در مورد آن قوی هستم، بنابراین کمک بسیار قابل قدردانی است: فرض کنید $X_1,X_2,...$ یک دنباله i.i.d است، جایی که $E( X^2)=5$ و $E(X)=0$، با استفاده از قضیه حد مرکزی، توزیع $$ را پیدا کنید \frac{\sum_{i=1}^nX_i}{\sqrt{5n}} $$ در اینجا من اجازه داده‌ام $ S_n= \sum_{i=1}^nX_i $ و می‌دانیم که $E(X)=0 $، سپس داریم: $$ Yn=\frac{\sum_{i=1}^nX_i - nE(x))}{σ\sqrt{n}} = \frac{\sum_{i=1}^nX_i}{\sqrt{5n}} -> N(0,1) $$ بعد از من خواسته می‌شود قانون قوی اعداد بزرگ را روی $$ \frac{\sum_ اعمال کنم {i=1}^nX_i^2}{n} $$ برای نشان دادن اینکه تقریباً مطمئناً همگرا می‌شود و حد محدود آن را محاسبه می‌کنم. \sum_{i=1}^nX_i^2 $ و $ E(S_n)= \sum_{i=1}^nE(X_i^2) $ و وصل کردن آن به فرمول قانون قوی اعداد بزرگ ($\frac {S_n-E(S_n)}{n}-> 0$ a.s.) برای پیدا کردن $ \frac{\sum_{i=1}^nX_i^2}{n} $ -> $ E(X_i^2) $ a.s. با این حال، من احساس نمی‌کنم که نشان می‌دهم که $ \frac{\sum_{i=1}^nX_i^2}{n} $ تقریباً با استفاده از این روش همگرا می‌شود؟ هر ایده ای قابل قدردانی است همچنین در نهایت باید با استفاده از قضیه حد مرکزی توزیع $$ \frac{\sum_{i=1}^nXi}{\sqrt{\sum_{i=1}^nX_i^ را بیابم 2}} $$ من در این مورد کاملاً گم شده‌ام، اگرچه من این فرض را می‌کنم که ما از قضیه حد مرکزی با آن استفاده می‌کنیم N(0,1) خواهد بود، اما همانطور که می‌گویم این فقط یک حدس بزنید، راهنما / نکات / توضیحات واقعا قدردانی می شود
قانون اعداد بزرگ و قضیه حد مرکزی
62248
من مجموعه داده هایی از داده های سرعت باد دراز مدت اقلیم شناسی را به صورت روزانه برای سال های 1950-2000 دارم. من میانگین هر سال را محاسبه کرده ام و الگوی روند را محاسبه کرده ام، مقداری روند مثبت 0.05 متر بر ثانیه در سال را نشان می دهد. از من خواسته شده است که آزمون معناداری آماری را برای این تحلیل روند انجام دهم. چگونه می توانستم به آن برسم؟
اهمیت آماری روند بلندمدت؟
94789
ما یک نظرسنجی انجام داده‌ایم و بیش از 30000 نظرسنجی را از کودکان مدرسه‌ای، سنین 13 تا 18 سال، در سطح ملی در 18 شهر، در 3 منطقه (شرق، جنوب و غرب) یک کشور، مثلاً X، جمع‌آوری کرده‌ایم. حجم نمونه 2396 نفر (بر اساس جمعیت کشور و درصد افراد 15 تا 24 ساله) محاسبه شد. داده ها بر اساس سن و جنسیت تجزیه و تحلیل خواهند شد. قبل از تجزیه و تحلیل نرخ پاسخ، می‌خواهم بدانم آیا استراتژی زیر برای محاسبه نظرسنجی‌های طبقه‌بندی شده درست است یا خیر. با عرض پوزش، اگر از عبارات نادرستی استفاده می کنم، سابقه ای در زمینه استاتیک و تازه بودن همه اینها ندارم. 1. در ابتدا، من کل درصد نظرسنجی های جمع آوری شده از هر شهر را محاسبه کردم. 2. دوم، سپس داده های بالا را بر اساس حجم نمونه محاسبه کردم. برای گرفتن نمونه برای هر شهر. 3. سوم، من داده‌های اصلی جمع‌آوری‌شده را به جنسیت و سپس به گروه‌های سنی تقسیم کردم و به طور متناسب با نیازهای نمونه کوچک‌سازی کردم. لطفاً نمونه پیوست زیر را ببینید. ![محاسبات من برای یک شهر](http://i.stack.imgur.com/qjQmC.jpg)
استراتژی نمونه طبقه بندی شده - حجم نمونه
63061
من مقاله را می خوانم: همگرایی یک نسخه تقریبی تصادفی از الگوریتم EM برای پیاده سازی این الگوریتم برای مدل احتمالی که قبلاً دارم. در ص. 3، مقاله الگوریتم را به صورت زیر خلاصه می کند. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/lxL66.png) من در مرحله E (یا S) در این الگوریتم گیر کرده ام. در یک تنظیم معمولی EM، یکی $$Q(\theta)= \int \log p(x,y |\theta) p(x|y,\theta) dx$$ انتگرال را به حداکثر می‌رساند در اینجا، این انتگرال تخمین زده می‌شود. از طریق نمونه های شبیه سازی شده از پشت. من این را درک می کنم. اما چیزی که من نمی فهمم این است: آیا نویسندگان پیشنهاد می کنند که تابع هزینه به روز شود؟ اگر چنین است، چگونه می‌توانیم $Q$ جدید را به حداکثر برسانیم؟ ممکن است من یک چیز بسیار واضح را از دست داده باشم و نمی توانم نحوه اجرای این الگوریتم را ببینم (من به روز رسانی هزینه را درک نمی کنم). پیشاپیش متشکرم
مرحله الکترونیکی تقریب تصادفی EM
62249
من داده‌های شمارشی (مشاهده‌شده) و شمارش‌های مورد انتظار را دارم که با تحلیل رگرسیون محاسبه شده‌اند. من می‌خواهم آزمون فرضیه‌های چندگانه را انجام دهم تا بررسی کنم کدام عناصر حداکثر تفاوت بین مشاهده شده و مورد انتظار را نشان می‌دهند. من از R استفاده می کنم و این دستور p.values=apply(matrix,1,function(x){t.test(x[1],x[2],alternative=g)$p.value} را اجرا کردم. ) این خطا به من می دهد و می گوید مشاهده x کافی نیست - واضح است که من هیچ تکراری ندارم. اما مقاله ای که من دنبال می کنم (آنها مطالعه مشابهی انجام داده اند) می گوید: > برای تشخیص نقاط داغ، ما یک آزمایش یک دم (001/0 آلفا) با استفاده از > توزیع پواسون انجام دادیم و شمارش های مورد انتظار را نمی دانم چگونه آیا آن را انجام دادند من می توانم عناصر را با استفاده از تغییر چین بین مشاهده شده و مورد انتظار تشخیص دهم، اما در اینجا آنها می گویند که آنها آزمون فرضیه را انجام داده اند.
آزمون فرضیه های چندگانه برای توزیع پواسون
59582
توضیح دهید که چرا از log(دوز) و log(زمان) برای اندازه گیری ارتباط بین دوز و زمان به جای مقادیر واقعی دوز و زمان استفاده می شود.
چرا از تبدیل log در اندازه گیری ارتباط دوز-زمان استفاده می شود؟
115333
من مشکل را با معادله زیر مدل‌سازی می‌کنم: $$ \min_{X} L(X)=f(X)-\alpha g(X) + \beta k(X) $$ که در آن $\alpha \gt 0، \beta \gt 0$، و در موارد من، $f(X)-\alpha g(X) \lt 0$ و $k(X) \gt 0$ پیدا کردم، به نظر می رسد این مشکل محدب نیست ، چگونه پارامترهای $\alpha$ و $\beta$ را تنظیم کنیم؟ آیا الگوریتم بهینه سازی برای این مشکل وجود دارد؟ آیا الگوریتم فرانک ولف برای حل این مسائل است؟ با تشکر
آیا الگوریتم های بهینه سازی برای این مشکلات وجود دارد؟
34209
من با یک رگرسیون چندگانه که انجام دادم مشکل دارم: * مدل بدون ترم ثابت. * یک متغیر پیوسته وابسته. * اولین مجموعه از dummies: مشتق شده از 2 متغیر پیوسته، من از مقدار میانه آنها به عنوان آستانه برای استخراج دو متغیر باینری استفاده کردم. از این دو باینری، من 4 آدمک، یکی برای هر ترکیب (10، 01، 00، 11) استخراج کردم. * مجموعه دوم از آدمک ها: 3 آدمک مشتق شده از یک متغیر طبقه بندی شده. * دو متغیر پیوسته این مدل دارای مقدار r-squared 98% است (و r مربع تنظیم شده مشابه): من فکر می کنم خیلی زیاد است، اما نمی دانم چگونه آن را به درستی تفسیر کنم و اعتبار نهایی آن را ارزیابی کنم. من می‌دانم که r مربع با تعداد متغیرهای توضیحی افزایش می‌یابد، اما نمی‌دانم که آیا تعداد ساختگی‌ها در ارزش و اعتبار آن به‌عنوان شاخص یک رگرسیون خوب تأثیر دارد یا خیر. علاوه بر این، این مدل مقادیر VIF بالایی را ارائه می‌کند که نشان‌دهنده همخطی بودن است: آیا این معیارها هنوز معتبر هستند یا خیر؟ باید بگویم که من مدل را با عبارت ثابت (و $k-1$ و $n-1$ dummies) نیز تست کرده ام، که دارای r مربع بسیار پایین (حدود 10%) است اما مشکل همخطی ندارد: من از این استفاده خواهم کرد. اگر فقط بتوانم اثر دو آدمک مرجع را روی عبارت ثابت جدا کنم (و من نمی دانم چگونه این کار را انجام دهم).
چگونه R-squared را در رگرسیون چندگانه با مجموعه های بیشتر از آدمک ها و متغیرهای پیوسته تفسیر کنیم؟
59586
من یک پرسشنامه نمایه کننده ریسک ایجاد کرده ام اما نمی دانم چگونه گزینه ها را نمره دهم و محدوده امتیازی ایجاد کنم. پس از توسعه دامنه، می توانم مشتری را به عنوان محافظه کار، متوسط ​​و تهاجمی طبقه بندی کنم. این برای یک شرکت بانکی و کارگزاری است. ما باید ظرفیت ریسک پذیری مشتری را تحلیل کنیم. پرسشنامه دارای سوالاتی است که میزان ریسک و نگرش به ریسک را تحلیل می کند. هر سوال دارای پنج گزینه به نام های A، B، C، D، E است. گزینه های A گزینه های محافظه کارانه تر برای سرمایه گذاران و E گزینه های تهاجمی تر برای سرمایه گذاران است. لطفا راهنماییم کنید
چگونه می توان به گزینه های یک پرسشنامه امتیاز داد و یک محدوده امتیازی را در پرسشنامه نمایه کننده ریسک ایجاد کرد؟
59584
من می خواهم یک مدل رگرسیون خطی چندگانه را با استفاده از R شبیه سازی کنم. اگر چولگی و کشیدگی برای باقیمانده ها را داشته باشم، چگونه می توانم این کار را انجام دهم؟
شبیه سازی رگرسیون خطی چندگانه
34201
من مجموعه ای از داده ها را دارم که با انجام برخی آزمایش ها جمع آوری کردم. من آن را رسم کردم و نمودار پراکندگی ایجاد کردم. من می خواهم معادله خط میانگینی که از این نقاط می گذرد را پیدا کنم. چگونه می توانم این کار را انجام دهم؟ یادم می آید که در کلاس آمار کالجم این موضوع را مرور کردم اما فراموش کرده ام. همچنین اگر بتوانید من را به ابزاری معرفی کنید که می‌توانم داده‌هایم را از Google Docs کپی و جای‌گذاری کنم و این کار را برای من انجام دهد، عالی خواهد بود.
با توجه به مجموعه ای از داده ها، چگونه می توانم معادله خط میانگینی را که از داده ها می گذرد محاسبه کنم؟
59588
من می‌دانم که تعریف اساسی درون‌زایی این است که $$ X'\epsilon=0 $$ برآورده نمی‌شود، اما این به معنای واقعی جهان چیست؟ مقاله ویکی‌پدیا را با مثال عرضه و تقاضا خواندم و سعی کردم معنی آن را بفهمم، اما واقعا کمکی نکرد. من توصیف دیگر درون زا و برون زا را شنیده ام که درون سیستم بودن و بیرون از سیستم بودن و این هنوز برای من منطقی نیست.
«درون زایی» و «برون زایی» به طور ماهوی به چه معناست؟
59589
من سعی می کنم یک معیار ساده برای بازگشت میانگین در یک دنباله تصادفی از یک ها و صفرها تعریف کنم که آن را با $x_t$ نشان می دهم. بله، یک آزمایش ریشه واحد روی مجموع تجمعی می‌تواند انتخاب مناسبی باشد، اما من با همبستگی ارزش فعلی فرآیند تصادفی با انحراف جمع تجمعی از روند مورد انتظار آن شروع کردم. با جزئیات بیشتر: فرض کنید $p_1$ احتمال $x_t=1$ باشد (و از این رو $P(x_t=0)=1-p_1$)، $n$ طول بردار $x$ باشد. سپس انحراف ذکر شده در بالا را به صورت `y = cumsum(x) - (1:n)*p1` و معیار بازگشت میانگین من به عنوان همبستگی (منفی) بین $x_t$ و $y_{t-1}$ تعریف می‌کنم: ` mr = -cor(x[2:n], y[1:(n-1)]) ` یا به عنوان یک تابع: MeanRevert = تابع(x,p1){ n=length(x) #y پیاده روی تصادفی بدون روند است. y = cumsum(x) - (1:n)*p1 mr = -cor(x[2:n], y[1:(n-1)]) return(mr) } اکنون برای یک پیاده روی کاملا تصادفی، I انتظار می رود یک مقدار متوسط ​​صفر برای آن همبستگی باشد، اما به نظر می رسد یک سوگیری وجود دارد: p1 = 0.12;N=100; MRsample=vector() برای (i در 1:500){ x= sample(c(1,0)، N، جایگزین=TRUE، p = c(p1، 1-p1)) MRsample = c(MRsample، MeanRevert( x, p1=p1)) } hist(MRsample, xlab =mean reversion, main =paste(p=,p1, N=,N)) ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/dhsu0.png) چه چیزی را از دست داده ام، چه چیزی باعث این سوگیری می شود؟ با تشکر ML
اندازه گیری ساده بازگشت میانگین برای سری های زمانی باینری
34204
من روی پروژه ای کار می کنم که در آن باید یک سیستم یادگیری ماشینی را آزمایش کنم که دارای پارامترهای بسیار زیاد است. علاوه بر این، برای سنجش عملکرد سیستم، من قصد دارم از چندین مجموعه داده استفاده کنم. ابتدا مجموعه داده اول را به سه زیر مجموعه تقسیم کردم (یعنی آموزش، اعتبارسنجی متقابل و آزمایش). برای یافتن مقادیر بهینه فراپارامترهای سیستم از مجموعه داده اعتبارسنجی متقاطع استفاده شد. همچنین، من اندازه مجموعه داده آموزشی را در هر تکرار افزایش دادم و عملکرد با استفاده از مجموعه داده اعتبارسنجی متقابل اندازه‌گیری شد. دلیل انجام این کار شناسایی اندازه بهینه مجموعه داده آموزشی بود. حال سوال من این است: آیا لازم است تمام مراحل ذکر شده در بالا را برای سایر مجموعه داده ها انجام دهم یا می توانم از پارامترهایی (مانند پارامترهای فوق العاده سیستم یادگیری و اندازه مجموعه داده های آموزشی و غیره) استفاده کنم؟
چگونه از مجموعه داده های متعدد برای اندازه گیری عملکرد یک سیستم یادگیری استفاده کنیم؟
34206
می‌خواهم از آزمون دوجمله‌ای دقیق برای تجزیه و تحلیل برخی داده‌ها استفاده کنم، اما آزمون دوجمله‌ای دقیق محاسبات زیادی می‌طلبد و زمانی که حجم نمونه بزرگ‌تر است، غیرضروری است، زیرا زمانی که اندازه نمونه بزرگ است، می‌توان آن را با آزمون کای‌دو تخمین زد. . بنابراین آستانه عملی برای انتخاب بین آزمون مجذور کای و آزمون دو جمله ای دقیق چیست؟ آیا کسی می تواند به برخی از مراجع اشاره کند؟
آیا آستانه اندازه نمونه برای انتخاب بین آزمون مجذور کای و آزمون دو جمله ای دقیق وجود دارد؟
34205
من با چندین نشریه برخورد کردم که با داده‌های شمارش صفر پراکنده سروکار داشتند که «به سادگی» عدم حضور را در یک مدل و سپس شمارش مثبت را در مدل دوم مدل‌سازی کردند. این منجر به دو مدل با دو نتیجه متفاوت شد. نویسندگان اظهار داشتند که از مدل های مانع استفاده می کنند. به نظر من مدل های مانع اینطور کار نمی کنند اما نتایج هر دو مدل را در یک مرحله در یک خروجی نهایی ادغام می کنند، آیا این درست است؟ آیا رویکرد دیگر اکنون اشتباه است؟
آیا تقسیم یک مدل مانع در دو مدل GLM/GAM یک رویکرد معتبر است؟
34207
پرسشنامه من در **مقیاس لیکرت** است و به 7 بخش تقسیم می شود: A، B، C، D، E، F و G. در هر بخش تعدادی سؤال وجود دارد که پاسخ دهنده باید مطابق با آن ها را پر کند. مقیاس لیکرت (0=نه تا 5=خیلی زیاد). برای ساده تر کردن پرسشنامه من به این صورت است: > ## ** ثانیه: A** > > * Q1 > * Q2 > > > ## ثانیه: B > > * Q1 > * Q2 > * Q3 > * Q4 > > > و به همین ترتیب... ## پرس و جوها 1. من می خواهم **گراف**های هر بخش (یعنی A، B، C، D، E، F، و G) را به گونه ای ایجاد کنم که برای بخش A الف نمودار ترکیبی تشکیل شده است که در آن تمام سوالات یعنی Q1، Q2 و Q3 نشان داده شده است. 2. من یک مهندس عمران در حرفه هستم بنابراین هر راهنمایی در مورد آمار مورد نیاز برای یک پروژه تحقیقاتی، بسیار قدردانی خواهد شد. 3. آیا این امکان وجود دارد که من بتوانم پرسشنامه خود را در اینجا آپلود کنم و پس از دیدن آن، کسی به من در شناسایی نوع آمار مورد استفاده در آن کمک کند؟
نوع نمودارها برای پرسشنامه مقیاس لیکرت؟
35159
به نظر من این امکان وجود دارد که توزیع یک بعدی را در فضای پارامترهای آنها خوشه بندی کنیم، برای مثال، می توانیم سعی کنیم توزیع های عادی مشابه را در فضای جفت های $(\mu,\sigma)$ پیدا کنیم. با این حال، آیا راهی برای خوشه بندی توزیع های چندنرمال با توجه به میانگین ها و ماتریس های کوواریانس آنها وجود دارد؟
چگونه توزیع های چند بعدی (پارامتری) را خوشه بندی کنیم؟
96862
من سعی می کنم یک مدل (عملکردی) برای پیش بینی خروجی یک شبیه سازی کامپیوتری ایجاد کنم. من مجموعه کوچکی از آزمایش‌ها را انجام داده‌ام که 4 پیش‌بینی‌کننده $a$، $b$، $c$، و $d$ را از طریق LHS تغییر داده‌ام، و خروجی، $y$ را محاسبه کرده‌ام. انتظار می رود پاسخ غیرخطی باشد، بنابراین رگرسیون سنتی ناکافی به نظر می رسد. به عنوان یک نقطه شروع، من یک فرآیند گاوسی را برای تعیین روابط آشکار انتخاب کردم، در زیر ببینید: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/kui05.png) ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/2XTyn.png) ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/pNZ0E.png) مرحله بعدی توسعه مدل عملکردی واقعی $y \approx f(a,b,c,d)$ است. من مطالعه زیادی انجام داده ام، و به نظر می رسد رگرسیون spline می تواند بهترین رویکرد باشد، آیا گزینه بهتری وجود دارد؟ اگر رگرسیون spline بهترین رویکرد است، آیا کسی می‌تواند بسته R (یا هر زبان دیگری) را برای این کار پیشنهاد کند؟ من چند مورد را امتحان کرده‌ام، اما CRAN با بسیاری از بسته‌های رگرسیون spline بارگذاری شده است، و تشخیص اینکه کدام بسته‌ها کار می‌کنند دشوار است. در نظر داشته باشید، من باید ضرایب $\beta_i$ و گره $x_i$ را خروجی بگیرم. اگر رویکرد من کاملاً نادرست است، از هرگونه کمک یا توصیه ای استقبال می شود.
رگرسیون پارامتری اسپلاین پس از رگرسیون فرآیند گاوسی؟
28692
ساده ترین راه برای مقایسه مشتقات (پارامترهای بالینی) از دو جدول احتمالی چیست؟ من می‌خواهم دو جدول 2x2 را با ورودی‌های مثبت واقعی، منفی واقعی، مثبت کاذب و منفی نادرست مربوطه آزمایش کنم ($H_0$: جدول 1 = جدول 2 _در مقابل._ $H_1$: جدول 1 ≠ جدول 2). می‌خواهم حساسیت‌ها، ویژگی‌ها، ارزش‌های اخباری منفی و مثبت دو جدول را از نظر آماری مقایسه کنم. اندازه نمونه برای دو جدول متفاوت است.
چگونه می توان هم ارزی پارامترهای بالینی را بین دو جدول احتمالی (ماتریس سردرگمی) آزمایش کرد؟
35152
یک سوال دوباره باید روشن شود: آیا می توانم از متغیرهای ذکر شده در زیر [(3) a,b,c و غیره] به عنوان متغیرهای پیوسته در رگرسیون لجستیک خود استفاده کنم و اگر چنین است توضیح من در مقاله ای که می نویسم چیست؟ من مجموعه متغیرهای زیر را دارم: 1. یک متغیر مقوله ای (دودویی) آیورودا و آلوپاتی 2. متغیر آزمایشی (دودویی) معنویت یک موضوع علمی است: موافق و مخالف 3. سپس من تعدادی دیدگاه/ویژگی های شرکت کننده دارم. مانند: * (الف) آیا معتقدید زندگی پس از مرگ وجود دارد: 1) بله، 2) نه، 3) مطمئن نیستم * (ب) تا چه حد معنوی را در نظر می گیرید 1) خیلی 2) متوسط ​​3) کمی 4) اصلاً * (ج) هر چند وقت یکبار می گویید تجربه بیماری آگاهی و تمرکز بیماران را نسبت به R/S افزایش می دهد: 1 ) به ندرت 2) هرگز 3) گاهی اوقات 4) اغلب 5) همیشه 6) اعمال نمی شود * (د) و غیره = چندین متغیر دیگر با چندین گزینه مانند بالا لطفا راهنمایی کنید.
چگونه می توان استفاده از متغیرهای طبقه ای را به عنوان متغیرهای پیوسته در رگرسیون لجستیک توجیه کرد؟
35153
من سعی می کنم امتیازهایی را به مشخصات گوشی اختصاص دهم تا امتیاز نهایی را برای هر گوشی محاسبه کنم. با این حال، زمانی که من بر اساس مگاپیکسل امتیاز می گرفتم. متوجه شدم که یکی از گوشی های A دارای دوربین 41 مگاپیکسلی است. اما همه گوشی های دیگر دارای 8 مگاپیکسل یا کمتر هستند که برای یک گوشی بسیار خوب است. در حال حاضر، وقتی به گوشی نسبتا wrt A نمره می دهم (امتیاز 5/5)، همه گوشی های دیگر امتیاز 1 یا 2 از 5 را می گیرند. با این حال من دوست دارم کمی منصفانه تر باشد، زیرا فقط یک گوشی با یک ارزش بسیار بالا آیا می توانید بهترین راه را برای حل این مشکل در جایی که درجه بندی نسبی منصفانه تر است به من پیشنهاد دهید؟
سیستم امتیازدهی نسبی بدون تأثیر زیاد از نقاط پرت
28690
در حال حاضر در حال خواندن کتاب عالی کروشکه انجام تجزیه و تحلیل داده های بیزی هستم. با این حال، فصل مربوط به رگرسیون لجستیک سلسله مراتبی (فصل 20) تا حدودی گیج کننده است. شکل 20.2 یک رگرسیون لجستیک سلسله مراتبی را توصیف می کند که در آن پارامتر برنولی به عنوان یک تابع خطی روی ضرایب تبدیل شده از طریق یک تابع سیگموئید تعریف می شود. به نظر می رسد این روشی است که رگرسیون لجستیک سلسله مراتبی در بسیاری از نمونه هایی که در منابع دیگر آنلاین دیده ام، ارائه شده است. به عنوان مثال - http://polisci2.ucsd.edu/cfariss/code/SIMlogit02.bug با این حال، وقتی پیش‌بینی‌کننده‌ها اسمی هستند، او یک لایه در سلسله مراتب اضافه می‌کند - پارامتر برنولی اکنون از یک توزیع بتا گرفته می‌شود (شکل 20.5) با پارامترهای تعیین شده توسط mu و کاپا، که در آن mu تبدیل سیگموئیدی تابع خطی ضرایب است، و کاپا از یک گاما قبل استفاده می کند. این به نظر منطقی و مشابه با مثال چرخاندن سکه از فصل 9 است، اما من نمی‌دانم که داشتن پیش‌بینی‌کننده‌های اسمی چه ارتباطی با افزودن توزیع بتا دارد. چرا در مورد پیش‌بینی‌کننده‌های متریک این کار انجام نمی‌شود و چرا توزیع بتا برای پیش‌بینی‌کننده‌های اسمی اضافه شد؟ **ویرایش:** توضیح در مورد مدل هایی که من به آنها اشاره می کنم. اول، یک مدل رگرسیون لجستیک با پیش‌بینی‌کننده‌های متریک (بدون بتا قبلی). این مشابه نمونه‌های دیگر رگرسیون لجستیک سلسله مراتبی است، مانند مثال اشکالات بالا: $$ y_i \sim \operatorname{Bernoulli}(\mu_i) \\\ \mu_i = \operatorname{sig}(\beta_0 + \sum_j \ beta_j x_{ji} ) \\\ \beta_0 \sim N(M_0، T_0) \\\ \beta_j \sim N(M_\beta, T_\beta) \\\ $$ سپس مثال با پیش‌بینی‌کننده‌های اسمی. اینجاست که من نقش سطح پایین سلسله مراتب را کاملاً درک نمی کنم (تلفیق نتیجه لجستیک در یک بتا قبل از یک دوجمله ای) و اینکه چرا باید با مثال متریک متفاوت باشد. $$ z_i \sim \operatorname{Bin}(\theta_i, N) \\\ \theta_i \sim \operatorname{بتا}(a_j, b_j) \\\ a_j = \mu_j \kappa \\\ b_j = (1- \mu_j) \kappa \\\ \kappa \sim \Gamma(S_\kappa، R_\kappa) \\\ \mu_j = \operatorname{sig}(\beta_0 + \sum_j \beta_j x_{ji} ) \\\ \beta_0 \sim N(M_0، T_0) \\\ \beta_j \sim N(0، \tau_\beta) \\\ \tau_\beta = 1/\sigma_{\beta}^2 \\\ \sigma_{\beta}^2 \sim \operatorname{folded t} (T_t، DF) $$
چرا از توزیع بتا روی پارامتر برنولی برای رگرسیون لجستیک سلسله مراتبی استفاده کنیم؟
79056
من سعی می کنم دو آرایه فرکانس را با هم مقایسه کنم. دومی زیر مجموعه اولی است. میخوام بدونم دومی نماینده اولی هست یا نه؟ آرایه ها عبارتند از: x همه زیرمجموعه a 136 38 5 127 27 b 103 23 1 102 17 6 ​​71 11 2 27 4 من آزمایشی می خواهم که در جایی که B مانند A رفتار می کند (یعنی می توان آن را به صورت مقیاس بندی A مشاهده کرد)، تست یک عدد را برمی گرداند. p-value نزدیک به 1 (فرضیه صفر این است که برای هر نقطه در محور x، درصد فرکانس B با درصد فرکانس A یکسان است). من سعی کردم از آزمون Chi-squared استفاده کنم، اما، چون ممکن است مقادیر گم شده داشته باشم، نمی دانم که آیا اعتبار آزمون می تواند به خطر بیفتد یا نه. (مقادیر x) با فرکانس های غیر صفر. علاوه بر این، از آنجایی که اندازه ستون دوم (زیر مجموعه) ثابت نیست، نمی دانم چگونه ستون اول را برای به دست آوردن یک مقدار p معتبر مقیاس بندی کنم (اکنون ترتیب بزرگی 10e-80 است). با تشکر
نحوه مقایسه دو نمونه فرکانس با مقادیر x طبقه که یکی زیر مجموعه دیگری است
112291
من مجموعه‌ای از داده‌ها را دارم که برای اندازه‌گیری‌های تجربی در چند روز ارائه می‌شوند. از ابتدای آزمایش تا پایان آن، هر پنج دقیقه یکبار دمای داخل (Ti) و بیرون (To) یک جعبه اندازه‌گیری می‌شد و شار حرارتی (Q) بین یکی از دیواره‌های جعبه و بیرون اندازه‌گیری می‌شد. برای هر نقطه زمانی که من از این سه معیار برای محاسبه مقاومت حرارتی استفاده می کنم که R = (Ti - To)/Q است بدیهی است که هر R یک عدم قطعیت اندازه گیری به دلیل Ti، To و Q دارد، بدیهی است که بین اندازه گیری همبستگی وجود دارد، زیرا هر یک اندازه گیری مستقل از آنچه قبلا اندازه گیری شده است نیست. از این رو سؤالات من این است: 1) مناسب ترین راه برای خلاصه کردن چگونگی تغییر مقدار R در طول زمان در یک مقدار منفرد چیست؟ 2) با توجه به نوع داده ای که توضیح می دهم، مناسب ترین راه برای یافتن مقدار خطا برای مقدار مورد نظر (1) چیست؟ سری زمانی به این شکل است (به دلیل موارد دیگری که در زمان اوج برای جعبه اتفاق افتاده است، یک پیک منفی غیرعادی دارد): ![مقدار R در طول زمان \(در ثانیه\)](http://i .stack.imgur.com/yLyGS.jpg)
نحوه محاسبه مقدار خلاصه و خطای آماری در سری های زمانی
28695
فرض کنید در حال تلاش برای پیش بینی تصادفات رانندگی در یک بزرگراه هستیم. تصادفات ترافیکی متغیر پاسخ در مجموعه داده ما خواهد بود. ما دو مدل رقیب داریم: 1. دو متغیر پیش‌بینی‌کننده: زمان روز و تعداد کل خودروهایی که از نقطه خاصی در دقیقه عبور می‌کنند 2. دو متغیر پیش‌بینی‌کننده: سطح بارش (آب و هوا) و تعداد خودروها در مسیر سریع عبور از نقطه خاص در دقیقه هدف این است که انتخاب کنید کدام یک از این دو مدل به نظر می رسد کار بهتری در پیش بینی ترافیک انجام دهد. تصادفات علاوه بر این، ما می خواهیم بر اساس این دو مدل مشخص کنیم که در چه شرایطی تصادفات رانندگی بالاترین و کمترین میزان را دارند. به عنوان مثال، در مدل 1)، چه زمانی از روز، و چه تعداد ماشین در هر دقیقه. سوال: از کدام بسته نرم افزاری آماری استفاده می کنید؟ از چه رویه خاصی استفاده می کنید؟ چرا؟ (توجه: SAS و بسیاری از بسته های دیگر برای استفاده در دفاتر ما در دسترس هستند. SAS ترجیح داده می شود.)
بهترین راه برای مقایسه دو مدل جایگزین
79054
وقتی دکتری بودم. دانش آموز من بدون عبارات نامشخص آموزش دیدم که وقتی ما تعداد زیادی نتایج داده داشتیم، این تعداد نتایج قابل توجه باید به خودی خود بسیار مهم باشد! من به استفاده و سوء استفاده از اهمیت آماری در مجموعه داده های بزرگ با استفاده از روش های مختلف تحلیل پیش بینی اشاره می کنم. اگر کسی بتواند نظر سازنده ای در رابطه با این موضوع ارائه دهد ممنون می شوم. متشکرم
اهمیت آماری با مجموعه داده های بزرگ
94179
من از مدل پروبیت برای یک رگرسیون استفاده می‌کنم که متشکل از یک متغیر ساختگی مستقل است که نشان می‌دهد آیا شرکت اتحادیه است یا نه. من همچنین همان مدل پروبیت را به جای اینکه یک متغیر ساختگی مستقل تشکیل دهد که نشان دهد شرکت اتحادیه شده است یا نه، تخمین می زند. این مدل در عوض دارای یک متغیر مستقل پیوسته است که نشان‌دهنده درصد کارگران اتحادیه‌ای است و در عین حال سایر متغیرهای مستقل را مانند مدل قبلی حفظ می‌کند. من می خواهم اثر حاشیه ای یک متغیر ساختگی را با اثر حاشیه ای یک متغیر پیوسته مقایسه کنم، که در آن دو متغیر معیارهای جایگزین یک عامل هستند. چه مقدار از متغیر پیوسته ممکن است به من اجازه دهد که اثر این متغیر پیوسته را با اثر شرکت اتحادیه معمولی مقایسه کنم؟
اثر حاشیه ای یک متغیر ساختگی را با یک متغیر پیوسته از مدل پروبیت مقایسه کنید
91666
> علامت یک ضریب رگرسیون همیشه با علامت > ضریب همبستگی بین متغیر پیش بینی کننده مربوطه و > متغیر وابسته یکسان خواهد بود. * آیا عبارت فوق همیشه صحیح است؟ * اگر نه، اگر علائم متفاوت است، دلیل آن چه می تواند باشد؟
علامت ضرایب در رگرسیون خطی در مقابل علامت همبستگی
91663
من سعی می کنم تفاوت های قابل توجهی را بین گروه ها از توزیع های نرمال و غیر نرمال شناسایی کنم. هنگامی که توزیع نرمال است، گردش کار بسیار ساده است: ANOVA و پس از آن یک تست HSD Tukey به منظور شناسایی گروه هایی که مسئول تغییرات قابل توجه هستند. هنگامی که توزیع غیر طبیعی است، من یک آزمون کروسکال-والیس و پس از آن یک تست Wilcoxon دو به دو (تابع R `pairwise.wilcox.test()`) برای شناسایی گروه ها اعمال می کنم. من می دانم که تست Wilcoxon نسخه ناپارامتریک آزمون _t_ است و با تست HSD Tukey مطابقت ندارد، اما می خواهم بدانم آیا کاری که انجام می دهم اشتباه است و تفاوت اصلی بین نتایج یک _t_ کدام است. تست و تست توکی چون هر دو تفاوت هایی را بین گروه ها نشان می دهند.
آیا تست‌های Wilcoxon جفتی جایگزین ناپارامتریک معتبری برای تست HSD توکی هستند؟
91662
من در این زمینه کاملاً تازه کار هستم. امیدوارم سوالم منطقی باشه من یک پایگاه داده دارم که اطلاعات حدود 10.000.000 پروژه را ذخیره می کند. هر پروژه دارای چندین ویژگی است (بیایید آن ها را X بنامیم) مانند تعداد خطوط کد، تعداد افراد و غیره. علاوه بر این، برخی ویژگی های اضافی (اجازه دهید آنها را Y بنامیم) وجود دارد که من نمی توانم مستقیماً روی 10.000.000 پروژه محاسبه کنم. محدودیت های زمانی و ذخیره سازی بنابراین، من می‌خواهم نمونه‌ای نماینده از این پروژه‌ها بگیرم و یک تحلیل کیفی برای محاسبه ویژگی‌های Y انجام دهم. به نظر می‌رسد توزیع فرکانس برای هر یک از ویژگی‌های X از توزیع نمایی پیروی می‌کند (من آزمون تک نمونه‌ای کولموگروف-اسمیرنوف را اجرا کردم. و من یک مقدار p <0.001 دریافت کردم. علاوه بر این، من چند نمونه تصادفی (با اندازه های 100، 500، 3000 پروژه) برای محاسبه ویژگی های Y تولید کردم، و حتی به نظر می رسد این ویژگی ها از توزیع نمایی منفی پیروی می کنند. می خواهم بدانم آیا فرمولی برای به دست آوردن حداقل حجم نمونه وجود دارد که بگویم نمونه من به اندازه کافی نماینده است؟ آیا می توانم از مفهوم سطح اطمینان (95٪) و فاصله اطمینان (1.96) برای محاسبه حداقل حجم نمونه استفاده کنم حتی اگر توزیع من نرمال نباشد؟ پیشاپیش متشکرم
اندازه نمونه برای توزیع غیر عادی
76300
من سعی می کنم دو نسبت A/B را تست کنم و امتیاز Z را محاسبه کنم. فرضیه من این است که دو گروه یکسان هستند. اکثر فرمول ها استفاده از واریانس unpooled را نشان می دهند. آیا به جای آن باید از واریانس ترکیبی استفاده کرد؟ با تشکر https://developer.amazon.com/sdk/ab-testing/reference/ab-math.html http://visualwebsiteoptimizer.com/split-testing-blog/ab-testing-significance- calculator-spreadsheet-in- اکسل/
واریانس Pooled در مقابل Unpooled برای تست AB
91664
من سعی می کنم یک متغیر سری زمانی $Y_{t}$ را با متغیرهای پیش بینی فیزیکی $4$ مدل کنم. من از رگرسیون خطی زیر استفاده کردم: $Y=\beta_{0}+\beta_{1}f_{1}(X_{1})+\beta_{2}f_{2}(X_{2})+\beta_ {3}f_{3}(X_{3})+\beta_{4}f_{4}(X_{4})+\epsilon$ جایی که $f_{i} \in \\{\log، \tan, \sin, \cos,1/.,Id\\}$. بهترین مدل من یک ضریب تعیین تنظیم شده $R^2_\rm{تعدیل شده}$0.87$ به من می دهد. اما می دانم که این شاخص کاملاً قابل اعتماد نیست. **بنابراین می‌خواهم بدانم آیا می‌توانم مدل خود را بهبود بخشم.** **اگر بله، چگونه می‌توانم بدانم که آیا باید:** 1. مدل رگرسیون را تغییر دهید: چند جمله‌ای یا وابستگی‌های دیگر اضافه کنید؟ 2. به دنبال پیش‌بینی‌کننده‌های $X_{i}$ بیشتری باشید که ممکن است هنوز آنها را کشف نکرده باشم؟ هر ایده ای خوب خواهد بود! _**ویرایش: هدف واقعی من_** $Y$ مقداری است که هر روز اندازه گیری می شود، نه در همان ساعت. کاری که من واقعاً می‌خواهم انجام دهم، مطالعه تغییر $Y$ با گذشت زمان و پاک کردن از سایر متغیرهای خارجی $X_{i}$ است که داده‌های من را تار می‌کنند. بنابراین به لطف رگرسیون من می‌خواهم بخشی از $Y$ را پیدا کنم که به این عوامل متفاوت خارجی بستگی دارد و سپس این قسمت را حذف کنم. در پایان، اگر تخمین من $\hat{Y}$ درست باشد، $Y-\hat{Y}$ با داده‌های من بدون تار مطابقت خواهد داشت، و من آزاد خواهم بود که نرمال شده یا پاک شده را بررسی کنم. نسخه $Y$ با گذشت زمان. من مدل خود را برای مجموعه دیگری از داده‌های $Y$ که یک سال پیش اندازه‌گیری شد، آزمایش کردم، و همچنین داده‌ها را با $R^2_{تعدیل}$ در حدود 0.8$ مطابقت داد. و من می توانم به صورت گرافیکی ببینم که مدل کاملاً دیوانه نیست، اما کامل هم نیست.
بهبود رگرسیون خطی: اضافه کردن پیش بینی یا تغییر مدل؟
67748
من سعی می کنم مدل هایی را روی یک مجموعه داده با تقریباً 60 متغیر و 800 موضوع تولید کنم. مجموعه داده های دیگری نیز برای استفاده در نظر گرفته شده است. مجموعه داده ها در ابتدا برای این نوع تجزیه و تحلیل ساخته نشده بودند. مجموعه داده همچنین شامل ترکیبی از متغیرها است. برخی پیوسته و برخی گسسته هستند. همچنین برخی از اینها با یکدیگر مرتبط هستند همانطور که در یک ماتریس همبستگی و همچنین فقط با چشم / عقل سلیم دیده می شود. در حال حاضر از متغیرهای خوشه‌بندی با هدف حذف هر گونه مؤلفه همبسته استفاده شده برای تولید مدل‌ها برای جلوگیری از برازش بیش از حد و کاهش تعداد متغیرها استفاده شده است. با انتخاب نماینده ترین متغیر از هر خوشه، نمی دانم که آیا این کار به درستی انجام می شود یا خیر و مطمئن نیستم که این درست است و منجر به مدل های نادرست می شود. آنچه قبلاً انجام شده است این است که فقط همه متغیرها را در پلتفرم بارگذاری کرده و یک خلاصه خوشه ای تولید کنیم. نماینده ترین متغیر عضو از هر خوشه انتخاب شده و مدل ساخته شده است. در بسیاری از خوشه ها متغیری وجود دارد که یک R کم را با خوشه ای که در آن قرار دارد نشان می دهد، اما در آن گنجانده شده است. همچنین متغیر با ارجاع به ماتریس همبستگی با سایر اعضای گروه همبستگی را نشان نمی دهد. تقریباً گویی مجبور شده است به جای اینکه به حال خود رها شود، در جایی که بهترین جا را دارد، جابجا شده است. (گاهی اوقات یک خوشه شامل 1 متغیر می شود.) همچنین، گاهی اوقات دو خوشه جداگانه به نظر می رسد حاوی متغیرهایی هستند که همبستگی دارند. بنابراین من احساس می‌کنم در مواقعی از متغیرهای همبسته برای مدل‌ها استفاده می‌شود و در عین حال متغیرهای غیر همبسته از قلم می‌افتند. من در این سطح از آمار بسیار تازه کار هستم و با پیچیدن سرم در اطراف مقادیر ویژه و غیره مشکل دارم. گفته شد که این جنبه ای از PCA است، اما متوجه شده ام که واقعاً اینطور نیست. اطلاعات موجود در وب تمایل به ورود به ریاضیات کاملاً پیچیده در مورد این موضوع دارد. درک من اینجاست، ممکن است خاموش باشد. من می‌دانم که PCA تبدیلی از مجموعه داده است به طوری که مؤلفه اول بیشترین تنوع را در متغیرها توضیح می‌دهد، رایانه دوم متعامد به این (ناهمبسته) است و برای هر متغیر یک رایانه وجود دارد. به هر PCA یک مقدار ویژه داده می شود که = تعداد متغیرها (به دلیل تبدیل محور اصلی که در آن واریانس داده ها به = 1 و میانگین = 0 می شود). رایانه شخصی که بیشتر تغییرات داده ها را توضیح می دهد، بیشترین سهم را از آن به دنبال دومی و غیره می گیرد. این به دلیل ضرایب وزنی متغیر است که در آن به هر متغیر وزنی با توجه به تأثیرش بر آن رایانه شخصی داده می شود. بردارهای ویژه جایی هستند که من از هم جدا می شوم!! خوشه بندی شامل مشاهده همه متغیرها و انجام تقسیمات تکراری است. یک تقسیم شامل تجزیه و تحلیل PCA روی اعضای خوشه است؟ سپس... از یک راهنما.. «خوشه ای با بزرگترین مقدار ویژه دوم انتخاب می شود تا به دو خوشه جدید تقسیم شود. فکر می‌کنم ابزارهایی که استفاده می‌کردم برای اجرای راه‌حل dump and click پیشنهاد شده‌اند که واقعاً نمی‌توانم باور کنم.. اما به دلیل درک محدود نمی‌توانم این مورد را استدلال کنم. پست طولانی است، اما من دارم کمی گم می شوم!
کاهش متغیرها و متغیرهای همبسته در یک مجموعه داده
89815
در حال حاضر من سعی می کنم یک متغیر پاسخ y را مدل کنم، و کد پستی را به عنوان متغیر مستقل خود دارم، مدل من رگرسیون لجستیک است. وقتی نوبت به متغیر اسمی می‌رسد، روش کتاب متنی ایجاد متغیر ساختگی k-1 است (با فرض اینکه متغیر اسمی k سطوح مختلف داشته باشد)، اما k کد پستی خیلی بزرگ است، من نمی‌توانم آن مقدار از متغیرهای ساختگی را ایجاد کنم. آیا راه دیگری برای مقابله با این موضوع وجود دارد؟ یا به طور کلی تر، چگونه می توان با متغیرهای اسمی با سطوح بیش از حد (k>=100) برخورد کرد؟
چگونه با متغیر اسمی با سطوح زیاد برخورد کنیم؟
89811
اگر پاسخ «بستگی دارد» است، به چه چیزی بستگی دارد؟ من سه متغیر میانجی دارم، یک متغیر پیش بینی کننده و یک متغیر نتیجه. مشاهده کرده‌ام که نتایجی که با اجرای سه تحلیل جداگانه به دست می‌آورم با نتایجی که وقتی همه آنها را در یک تحلیل قرار می‌دهم متفاوت است. چرا اینطور است؟ من از سینتکس PROCESS اندرو هیز برای SPSS استفاده می کنم.
آیا باید چندین متغیر میانجی را در یک تحلیل لحاظ کنم؟
66644
پیوند به تصویر: https://www.dropbox.com/s/bxzxy0y37npqc4o/SEM%20problems.PNG برای تعیین اینکه برای رفع این مشکل چه کاری باید انجام دهم به کمی کمک نیاز دارید: SEM اجرا نمی شود زیرا معتقد است که قطعی نیست . به این معنی که ممکن است تکینگی وجود داشته باشد. با این حال، این آیتم‌ها بسیار متفاوت هستند، زیرا من آیتم‌هایی برای اندازه‌گیری استقلال، بازخورد شغلی، حمایت همکاران، خلق و خوی مثبت و مشارکت کارکنان دارم. کسی میتونه راه حلی برای این مشکل پیشنهاد کنه؟
مشکلات SEM: ماتریس قطعی غیر مثبت
89819
من نمی‌دانم که آیا روش‌هایی برای محاسبه AUC برای منحنی‌های Recall دقیق وجود دارد، زمانی که نمرات پیش‌بینی‌شده/مشکلات/باورها (هر چه می‌خواهید آن را نامگذاری کنید) دارای مقادیر متقابل هستند و ممکن است منحرف شوند. من فکر می‌کنم کج شدن داده‌ها یک مورد فرعی از داشتن مقادیر مرتبط است. من مقاله زیر را دیده ام که در مورد انجام ندادن درون یابی خطی صحبت می کند (بخش 4) اما به مسائل احتمالی با امتیازات مساوی نمی پردازد. رابطه بین منحنی‌های Recall دقیق و ROC برای مثال ID BELIEF P1 0.1 P2 0.1 P3 0.1 P4 0.1 P5 0.5 P6 0.5 P7 0.5 P8 0.8 P9 0.8 P10 0.8 -Abhi
هنگامی که داده ها دارای مقادیر منحنی و منحرف هستند، به AUC برای منحنی PR کمک می کند
89810
من در درک معنای خطاهای استاندارد در تجزیه و تحلیل پایان نامه خود و اینکه آیا آنها نشان می دهند که داده های من (و برآوردها) به اندازه کافی خوب نیستند، مشکل دارم. من تجزیه و تحلیلی را با Stata انجام می‌دهم، بر روی شکاف مهاجر-بومی در عملکرد مدرسه (متغیر وابسته = نتایج خوب / بد) با کنترل انواع واپس‌گراها. من از هر دو logit و OLS استفاده کردم و کلاستر را در سطح مدرسه تنظیم کردم. رگرسیورهایی که برای من مشکل ایجاد می کنند برخی از اصطلاحات تعاملی بین ساختگی برای کشور مبدا و ساختگی برای داشتن دوستان خارجی هستند (من هر دو متغیر پایه را نیز در مدل وارد کردم). در تخمین لاجیت، بیش از یکی از متغیرهای کشور*دوست دارای SE بزرگتر از 1 (تا 1.80 یا بیشتر) هستند و برخی از آنها نیز قابل توجه هستند. این اتفاق با OLS نمی افتد. من واقعاً گیج شده ام که چگونه این را تفسیر کنم. من همیشه فهمیده ام که خطاهای استاندارد بالا واقعاً نشانه خوبی نیستند، زیرا به این معنی است که داده های شما بیش از حد گسترده است. اما هنوز (بعضی از) ضرایب قابل توجه هستند، که برای من عالی است زیرا نتیجه ای است که من به دنبال آن بودم. آیا می توانم SE را نادیده بگیرم؟ یا در مورد نتایج من یک پرچم قرمز بلند می کند؟ من معمولاً فقط SE را در رگرسیون نادیده می‌گیرم (می‌دانم، واقعاً آن چیزی نیست که باید انجام شود) اما نمی‌توانم هیچ مثال دیگری با چنین مقادیر SE عظیمی را به خاطر بیاورم.
درک خطاهای استاندارد در رگرسیون لجستیک
94170
من در حال کار بر روی یک سیستم تست A/B برای تغییرات UX به ابزاری هستم که تیم من می سازد. کاربران ما کارهای ساده و قابل تکراری را انجام می دهند که توسط سیستم تیم دیگری محول شده است. تیم من بخش UI/UX را مدیریت می کند. کاربران معمولاً یک جریان ثابت از کار به آنها محول می شود و می توانند کار فعلی خود را ببینند و آن را تکمیل کنند. وظایف معمولا کمتر از یک دقیقه طول می کشد. هر کار یک زمان مورد انتظار برای تکمیل آن دارد و کاربران بر اساس کلی واقعی / مورد انتظار آنها برای یک روز کار رتبه بندی می شوند. سوال من این است: با توجه به اینکه زیرمجموعه‌ای تصادفی از کاربران به طور مداوم رفتار متفاوتی را مشاهده می‌کنند (انتخاب قطعی «تصادفی» یک مشکل حل‌کننده است)، و من می‌توانم یک جریان ثابت از [کاربر، زمان مورد انتظار، زمان واقعی، درمان دریافت کنم. ] برای هر کار کامل، چگونه می توانم تغییرات کلی بهره وری را برای کاربران به روشی معتبر آماری ارزیابی کنم؟ برای ارائه اطلاعاتی در مورد اینکه چرا این مشکل است، در اینجا مواردی وجود دارد که ما نگران آنها بوده ایم: 1. فرض کنید کاربران تحت درمان A 10٪ کارآمدتر هستند. در نتیجه، آنها نقاط داده بیشتری تولید خواهند کرد. با تجزیه و تحلیل اشتباه، نقاط داده بیشتر ممکن است نتایج را منحرف کند، و ما ارقام دقیق را با اطمینان بالا می خواهیم. می خواهیم بدانیم این تغییر چقدر به کاربر عادی کمک می کند. 2. داده ها بسیار پر سر و صدا هستند، اما به نظر می رسد به طور متوسط ​​بیش از یک ساعت در روز / شیفت برای هر کاربر است. یک کار ممکن است کسری از زمان مورد انتظار یا بزرگی بیش از حد انتظار را بگیرد. این تا حدی به این دلیل است که توانایی ما برای تخمین زمان تکمیل نیاز به بهبود دارد (اما به طور متوسط، بسیار دقیق است). ما نگران هستیم که تنوع بالای ما در زمان تکمیل تخمین زده شده باعث افزایش عدم اطمینان ما در تجزیه و تحلیل نتایج شود. خیلی ممنون
ارزیابی معیارهای بهره وری در یک سیستم تست A/B
51470
من سعی می کنم توزیع را به مجموعه داده خود منطبق کنم. به عنوان مثال من داده هایی دارم که توزیع فرکانس آنها مانند زیر است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/rvF4E.jpg) جدول فرکانس زیر پس از تقسیم داده ها در 10 سطل است. xvar lvar yvar 1 1 y1 25 2 y1 22 3 3 y1 16 4 4 y1 15 5 5 y1 10 6 6 y1 2 7 y1 NA 8 8 y1 NA 9 9 y1 1 NA 2 y 1 12 2 y2 5 13 3 y2 8 14 4 y2 10 15 5 y2 15 16 6 y2 9 17 7 y2 6 18 8 y2 3 19 9 y2 2 20 10 y2 1 2 3 NA y3 NA 24 4 y3 6 25 5 y3 12 26 6 y3 14 27 7 y3 18 28 8 y3 6 29 9 y3 2 30 10 y3 1 `yvar` فرکانس در هر سطل است. من می خواهم توزیع مربوطه را پیدا کنم که به بهترین وجه با این روند مطابقت داشته باشد (ممکن است توزیع بتا یا توزیع عادی باشد؟). چگونه می توانم به این امر برسم؟ **ویرایش**: (1) من به تناسب کامل نیازی ندارم، اما به تناسب نزدیک و ساده نیاز ندارم: توزیع رایج به اندازه کافی خوب است (2) 'xvar' یک متغیر پیوسته (مانند فشار خون) یا مقیاس گسسته است (مثلاً مقیاس رتبه‌بندی 1:10) (3) من معتقدم که بیشتر آن را می‌توان با توزیع نرمال توصیف کرد، اما برخی از آنها مانند 'y1' منحرف شده‌اند. نمی دانم چنین مقادیری را می توان با توزیع بتا توصیف کرد، اما نمی دانید چگونه مقدار مناسب را (در کنار حدس زدن) پیدا کنید؟ لزوماً نیازی نیست که راه حل در «R» باشد، اما کد «R» برای مجموعه داده و نمودار بالا در زیر آمده است. y1 = c(25، 22،16، 15، 10، 2، NA، NA، NA، NA) y2 = c(2، 5،8، 10، 15، 9، 6، 3، 2، 1) y3 = c(NA، NA، NA، 6، 12، 14، 18، 6، 2، 1) myd <- data.frame (xvar = 1:10، lvar = rep(c(y1، y2، y3)، هر = 10)، yvar = c(y1، y2، y3)) library(ggplot2) ggplot (myd، aes(x = xvar، y = yvar، fill = lvar، رنگ = lvar)) + geom_point () + geom_line () + theme_bw()
یافتن توزیع مناسب متناسب با توزیع فراوانی یک متغیر
23611
چه زمانی گنجاندن یا حذف رهگیری از یک مدل رگرسیون مناسب است؟ SPSS این گزینه را در منوی GLM فراهم می کند. من تفاوت گروه (جنسیت) را بر روی وظایف انجام شده (X) و درآمد کسب شده (Y) ارزیابی می کنم. در این صورت، اگر تکلیفی انجام نشود، درآمدی حاصل نمی شود. دستورالعمل‌های SPSS در اینجا بیان می‌کند: شامل رهگیری در مدل. رهگیری معمولاً در مدل گنجانده می‌شود. اگر می‌توانید فرض کنید که داده‌ها از مبدا عبور می‌کنند، می‌توانید رهگیری را حذف کنید. اطلاعات آماری من در حال حاضر کمی زنگ زده است، اما یادم می آید که معلمم می گفت هرگز نباید رهگیری را حذف کنید!
برای حذف یا گنجاندن رهگیری در مدل GLM
23614
من SVM را انجام می دهم و علاقه مند به دانستن پارامترهایی هستم که می توانند برای هر هسته متفاوت باشند. من از 3 هسته استفاده می کنم: RBF، خطی و چند نامی. اینها پارامترهایی هستند که فکر می‌کنم می‌توان آنها را تغییر داد: برای خطی: C برای RBF: C و گاما برای چندجمله‌ای: C و گاما. اگر پارامترهای دیگری وجود دارد به من بگویید... ممنون.
پارامترهایی که باید برای هسته های مختلف برای SVM تغییر کنند
51475
من به دنبال ساخت یک مدل پیش بینی هستم که در آن متغیر نتیجه باینری و ورودی سری زمانی باشد. برای دقیق‌تر کردن آن، این مدل بر اساس مبلغی که در 60 روز قبل با شرکت خرج کرده است، پیش‌بینی می‌کند که آیا مشتری از شرکت خارج می‌شود (از شرکت خارج می‌شود؛ با کد 1 یا 0). بنابراین، داده ها یک مشتری در هر ردیف است و ستون ها یک عامل نتیجه (1 یا 0) و 60 ستون اضافی برای مقدار صرف شده در زمان t-1، t-2...t-60 هستند. در اینجا چند نمونه داده وجود دارد: #ایجاد داده‌ها یک سری به طول 60 و یک کلاس ID sc <- read.table(http://kdd.ics.uci.edu/databases/synthetic_control/synthetic_control.data, header= F، sep=) # کلاس باینری lable classId <- as.factor(c(rep(0,300), rep(1,300))) newSc <- data.frame(cbind(classId, sc)) newSc$ID<-seq(1,600,1) مدل واقعی ممکن است تعداد زیادی از این سری ها را برای هر مشتری داشته باشد، بنابراین باید مقدار را کاهش دهم ابعاد داده های سری، به عنوان مثال. به جای استفاده از 60 مقدار، باید این مقدار را به تعداد انگشت شماری کاهش دهم. البته، من می توانم از میانگین، حداقل، حداکثر و غیره سری استفاده کنم، اما در مورد استفاده از تبدیل فوریه گسسته مطالعه کرده ام. **سوالات:** 1. آیا DFFT در R روش مناسبی برای استفاده برای هدف من است؟ هر گونه اطلاعاتی در مورد نحوه عملکرد آن قدردانی خواهد شد. 2. با فرض اینکه این تابع R صحیح است، چگونه می‌توانید معنی‌دارترین ضرایب را برای دستیابی به کاهش ابعاد استخراج کنید؟ ADD: به نظر می رسد توافق نظر وجود دارد که استفاده از DFFT برای کاهش ابعاد انتخاب عاقلانه ای نیست، اما به نظر می رسد که در داده کاوی، این تابع، DWT و SVD همگی معمولاً استفاده می شوند: استخراج سری زمانی که در صفحه 20 شروع می شود.
کاهش ابعاد سری برای ورودی طبقه بندی
23615
من از glm.nb از بسته MASS در بسیاری از مشاهدات استفاده می کنم. سپس مقادیر p را برای عبارت تعامل استخراج می کنم. به دلیل آزمایش چندگانه، من از روش BH برای تصحیح برای آزمایش چندگانه با FDR 0.05 استفاده می کنم. گاهی اوقات، وقتی مدل دوجمله‌ای منفی را برای تناسب با داده‌ها اعمال می‌کنم، مدل همگرا نمی‌شود و با اخطار «تکرار حد مجاز رسیده است» خاتمه می‌یابد و معمولاً مقدار تتا زیادی دارد (> 10000). با این حال، بیشتر این زمان ها، مقادیر p به دست آمده بسیار کوچک هستند (< 10e-5). البته این مقادیر کوچک اشتباه هستند، زیرا هیچ همگرایی حاصل نشد. اکنون، می توانم این مشاهدات را با استفاده از ویژگی $th.warn که پیام هشدار را ذخیره می کند، بیابم. سوال من این است که قبل از انجام آزمایش‌های چندگانه، آیا باید این مشاهدات نامناسب و بنابراین مقادیر p اشتباه را حذف کنم (زیرا ممکن است بر روند اصلاح BH برای FDR تأثیر بگذارند) یا به دلیل اینکه قبلاً آزمایش را انجام داده‌ام، این ورودی‌ها را پس از یافتن حذف کنم. پیام اخطار تصحیح FDR مقادیر p را سوگیری می کند و بنابراین باید بدون حذف این مقادیر p آشکارا اشتباه اما کوچک به اصلاح FDR ادامه دهم؟ متشکرم!
تصحیح تست چندگانه
23617
امروز، در Cross Validated Journal Club (چرا آنجا نبودید؟)، @mbq پرسید: > آیا فکر می‌کنید ما (دانشمندان مدرن داده) می‌دانیم معنی چیست؟ و > چه ارتباطی با اعتماد ما به نتایج ما دارد؟ @Michelle پاسخ داد همانطور که برخی (از جمله من) معمولاً انجام می دهند: > با ادامه کارم، مفهوم اهمیت (بر اساس p-value) کمتر و کمتر مفید است. برای مثال، من می‌توانم از مجموعه داده‌های بسیار > بزرگ استفاده کنم، بنابراین همه چیز از نظر آماری معنی‌دار است (p<.01). اگر فرضیه صفر A برابر است با B را آزمایش کنید، می دانید که پاسخ خیر است. مجموعه داده های بزرگتر فقط شما را به این نتیجه گیری ناگزیر واقعی نزدیک می کند. من معتقدم این دمینگ بود که یک بار مثالی با این فرضیه ارائه کرد که تعداد موهای سمت راست یک بره برابر با تعداد موهای سمت چپ آن است. خوب، البته که اینطور نیست. یک فرضیه بهتر این است که الف بیش از این با B تفاوت ندارد. یا در مثال بره، تعداد موهای کناره های بره بیش از X٪ تفاوت ندارد. آیا این منطقی است؟
اندازه اثر به عنوان فرضیه برای آزمون معناداری
97847
آیا کسی می‌داند که چگونه cv.glmnet (بسته glmnet R) یا LassoCV (scikit-learn) دنباله‌ای از ثابت‌های منظم‌سازی را انتخاب می‌کنند که در اعتبارسنجی متقاطع استفاده می‌کنند؟ آیا توصیه‌ای در مورد نحوه انتخاب طیفی از مقادیر منظم‌سازی در کمند، رگرسیون برآمدگی و توری الاستیک وجود دارد؟ خیلی ممنونم!
دنباله ای از مقادیر منظم در اعتبار سنجی متقابل
61749
امیدوارم کسی بتواند در مورد مشکل زیر به من کمک کند (لطفاً در نظر داشته باشید که من یک آمارگیر نیستم). من آزمایشی را با 4 درمان انجام دادم که در آن متغیر P را اندازه گرفتم که می تواند صفر یا مقدار مثبت باشد. از هر تیمار یک شاخص E را محاسبه می کنم (میانگین همه مقادیر P بزرگتر از صفر ضرب در نسبت مقادیر P بزرگتر از صفر به تعداد کل تکرارها). بنابراین، برای هر درمان من فقط یک مقدار E دریافت می کنم. برای ارائه نتایج حاصل از این آزمایش، از روش نمونه‌گیری مجدد زیر استفاده کردم: * 1000 مجموعه مختلف را با استفاده از نمونه‌گیری مجدد با جایگزینی از داده‌های هر تیمار ایجاد کردم. مقادیر E برای هر آزمایش * سپس میانگین و فاصله اطمینان 95٪ را برای این 1000 مقدار E محاسبه کردم سؤال من این است: چگونه می توانم با استفاده از مقادیر E نمونه گیری مجدد، مقایسه های متعدد (در میان تیمارها) انجام دهید؟ اولین ایده من این بود که داده‌های نمونه‌گیری مجدد را با استفاده از آزمون‌های t متعدد آزمایش کنم و مقدار p را با استفاده از تصحیح Bonferroni تصحیح کنم، اما مطمئن نیستم که خوب باشد. با تشکر
نمونه گیری مجدد و مقایسه های متعدد
97842
من بارها خواندم که ترکیب داده های متغیرهای پیوسته ایده بسیار بدی است. برای مثال، بیایید چیزی مانند ضربان قلب را در نظر بگیریم و 2 سطل زیر را تعریف کنیم: (125 - 135)، (136 - 145) بیایید بگوییم که (136 - 145) مربوط به تلاش سخت است. اگر جلسه تمرینی شما باعث می شود ضربان قلب شما به طور مداوم روی 135 بماند، جمع کردن داده ها نشان می دهد که شما هیچ زمانی را برای ورزش سخت صرف نکرده اید، در حالی که در تمام مدت 1 ضربه در دقیقه از آن سطل فاصله داشتید. بدیهی است که این یک مثال اغراق آمیز برای توضیح موضوع است. فکر می‌کردم هر ثانیه‌ای که با ضربان قلب معینی سپری می‌شود را بر اساس فاصله آن از مرکز سطل‌هایی که بین آنها می‌افتد، وزن کنم. به عنوان مثال، در مثال بالا، 140.5 100% در سطل دوم، 135.5 50% در بن اول و 50% در بن دوم، 130 100% در سطل اول خواهد بود. آیا این یک راه حل معقول یا مزخرف به نظر می رسد؟ چه راه بهتری خواهد بود؟
جایگزین خوبی برای باینینگ داده هاست؟
60359
استفاده از رگرسیون برای انتخاب زوجی
61108
حداکثر سازی انتظارات در شبکه های بیزی با متغیرهای پنهان
65659
تئوری تشابه: آزمایش اینکه آیا ابعاد قابل تفکیک یا انتگرال هستند
87589
کد R برای پیش بینی اتصالات قطعه از مجموعه داده زیر
65656
اقدامات مکرر درخشنده است
14381
چگونه می توان نسبت ها را در گروه های مختلف با اندازه های مختلف جمعیت مقایسه کرد؟
99048
104324
70385
آیا می توانم مقادیر p دو تست Wilcoxon را با هم مقایسه کنم؟
7088
آیا فرمت استانداردی برای ارائه گزارش تحلیل داده ها بر اساس پرسشنامه وجود دارد؟
92378
خوشه بندی متغیرهای انواع مختلط در R
107984
پارامترهای تخمینی برای متغیر پنهان (مشاهده نشده).
112080
27768
در این مقاله می توانید معادله (11)، چگالی _احتمال_ را مشاهده کنید که به صورت زیر نوشته شده است: $$S_n(\xi) = \frac{1}{N}\frac{1}{2\pi\sigma_r(n)\sigma_g (n)} \sum\limits_{i=1}^{N}\, \exp\left[-\frac{1}{2}\left(\frac{x_i^2}{\sigma_r(n)}+\frac{y_i^2}{\sigma_g(n)} \راست) \ راست]$$ هرگز اهمیتی نمی‌دهد که هر پارامتر چه چیزی را نشان می‌دهد، سؤال من به دو مرحله بعدی مربوط می‌شود، جایی که ابتدا احتمال (معادل 12) را به این صورت تعریف می‌کند: $L=\prod\limits_{n=1}^{M}\, S_n(\xi)$ و در نهایت برای بدست آوردن (معادل 13) لگاریتمی را در آخرین معادله اعمال می کند: $$\ln \,L = - \sum\limits_{n=1}^{M} \ln\left\\{N2\pi\sigma_r(n)\sigma_g(n)\,-\,\sum\limits_{i}\exp\left[ -\frac{1}{2}\left(\ frac{x_i^2}{\sigma_r(n)}+\frac{y_i^2}{\sigma_g(n)}\right) \right] \right\\}$$ حالا، من یا چیزی **واقعاً** واضح اینجا را از دست داده ام یا آن معادله آخر **اشتباه** است و باید این باشد: $$\ln L = -\sum\limits_{n= 1}^{M} \ln\left\\{\frac{N2\pi\sigma_r(n)\sigma_g(n)}{\sum\limits_{i}\exp\left[ -\frac{1}{2}\left(\frac{x_i^2}{\sigma_r(n)}+\frac{y_i^2}{\sigma_g(n)}\right) \right]} \right \\}$$ یا معادل آن: $$\ln L = -\sum\limits_{n=1}^{M} \left\\{\ln(N2\pi\sigma_r(n)\sigma_g(n))\,-\,\ln\left(\sum\limits_{i}\exp\left[ -\frac{1}{2}\left(\frac{x_i^2}{\sigma_r(n)}+\frac{y_i^2}{\sigma_g(n)}\right) \right] \right) \right\\}$$ آیا معادله (13) در آن مقاله اشتباه است یا جبر من وحشتناک است؟
سوال سریع در مورد جبر ساده در آمار بیزی
87001
مشکل در کاربرد آزمون کای دو پیرسون
41753
متغیرهای پنهان
46001
از کجا می توانم راه حل هایی برای تمرین های راهنمای تجزیه و تحلیل آماری با استفاده از R پیدا کنم؟