_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
115175
من داده‌های ابعادی بسیار بالایی دارم و اجرای Locally Linear Embedding (LLE) بسیار زمان‌بر است. من همچنین باید چندین LLE را با پارامترهای مختلف انجام دهم تا تعداد بهینه همسایگان را از طریق Spearman's Rho محاسبه کنم. با این حال، داده ها به شدت به خطی وابسته هستند - کمتر از 10٪ از ویژگی ها برای حفظ 98٪ از واریانس لازم است. این مانع نمی شود که داده ها هنوز در یک منیفولد با ابعاد پایین تر جاسازی شوند. بنابراین، سوال من این است که آیا انجام تجزیه و تحلیل مؤلفه اصلی (PCA) برای حفظ اکثریت قریب به اتفاق واریانس و به دنبال آن LLE معتبر است یا اینکه نتایج LLE را به طور اساسی تغییر خواهد داد؟ این به طور قابل توجهی زمان محاسبه من را کاهش می دهد - بنابراین امیدوارم بتوانم این کار را انجام دهم. علاوه بر این، Rho اسپیرمن بر اساس فواصل زوجی محاسبه می‌شود - اگرچه این امر مستلزم استفاده از فاصله ژئودزیکی در منیفولد است، نه فاصله‌های اقلیدسی. آیا راهی برای محاسبه فواصل ژئودزیکی بر اساس اجرای PCA توسط Scikit-Learn وجود دارد؟ نقل قول: Karbauskaitė، Rasa، و O. Kurasova G. Dzemyda. انتخاب تعداد همسایگان هر نقطه داده برای الگوریتم جاسازی خطی محلی. فناوری اطلاعات و کنترل 36.4 (2007): 359-364.
آیا پیش پردازش داده ها با PCA قبل از اجرای Locally Linear Embedding (LLE) معتبر است؟
27651
من همیشه برای توضیح تکنیک های آماری برای مخاطبان بدون پیشینه آماری مشکل دارم. اگر بخواهم توضیح دهم که GLM برای چنین مخاطبانی چیست (بدون حذف اصطلاحات آماری)، بهترین یا مؤثرترین راه چیست؟ من معمولاً GLM را با سه بخش توضیح می دهم - (1) مؤلفه تصادفی که متغیر پاسخ است، (2) مؤلفه سیستماتیک که پیش بینی کننده های خطی است و (3) تابع پیوند که «کلید» برای اتصال است (1) و (2). سپس مثالی از رگرسیون خطی یا لجستیک می زنم و توضیح می دهم که چگونه تابع پیوند بر اساس متغیر پاسخ انتخاب می شود. از این رو به عنوان کلید اتصال دو جزء عمل می کند.
چگونه مدل های خطی تعمیم یافته را برای افراد بدون پیشینه آماری توضیح می دهید؟
61631
به عنوان یک آماردان مبتدی، بحث در مورد نیاز به دقت در تفسیر نتایج آماری با افراد غیرآمار کار آسانی نیست. به طور خاص، من سعی می کنم برخی از همکاران را متقاعد کنم که در تفسیر اشتباه رایج فاصله اطمینان (شاید نباید؟) غوطه ور شوند. برای برخی از مشکلات، برخی از مقاله های تصویری و برجسته (و خنده دار) مانند این مقاله (http://www.jsur.org/ar/jsur_ben102010.pdf) در مورد نیاز به تصحیح آزمایش های متعدد وجود دارد که من یک نقل قول کوچک برای آن استخراج می کنم: > [...] ما یک جلسه اسکن fMRI را با موضوع پس از مرگ اقیانوس اطلس > سالمون تکمیل کردیم. به ماهی قزل آلا همان دیدگاه اجتماعی نشان داده شد - > انجام وظیفه که بعداً برای گروهی از افراد انسانی انجام شد. این یک استدلال فوق‌العاده برای تشویق پزشک به استفاده از اصلاحات آزمایشی متعدد است. آیا از چنین مقاله‌ای در مورد اشتباه رایج مطلع هستید. تفسیر فاصله اطمینان (که معمولاً به عنوان فاصله اعتبار تفسیر می شود) یا هر چیزی غیر از این می تواند به من در استدلال های من کمک کند.
یک مرجع غیرآمار برای تفسیر فاصله اطمینان در مقابل اعتبار-فاصله
74621
وقتی مردم می‌گویند که رگرسیون کمند می‌تواند تحت مفروضات خاصی «حمایت» را بازیابی کند، یعنی وزن‌های رگرسیون غیر صفر، این به چه معناست؟ این نمی تواند به معنای بازیابی _علّی باشد، زیرا پرل به ما آموخته است که نمی توانید علیت را از همبستگی استنتاج کنید (و کمند فقط همبستگی ستایش شده است). بنابراین آیا این غیر صفرها به نوعی حداقل مجموعه متغیرهایی هستند که توسط دیگران قابل توضیح نیستند؟ از آنجایی که مردم تمایل دارند به عنوان حذف همبستگی «جعلی» و بازیابی «غیر جعلی» صحبت کنند، اما واقعاً چگونه همبستگی می تواند جعلی باشد، این فقط ارتباط بین دو متغیر تصادفی است، اینجا جایی برای زبان علّی وجود ندارد. من گیج شده ام.
تفسیر نتایج ریکاوری کمند
67673
من یک مدل اثرات تصادفی با اختلال AR(1) را برای خطاها تخمین می زنم (xtregar در Stata). نتایج گزارش شده نشان می دهد که ثابت (در اصطلاح Stata) مثبت و معنادار است. سوال این است که به طور کلی این اصطلاح ثابت را چگونه تفسیر می کنید؟
تفسیر ثابت در تخمین اثرات تصادفی با فرآیند AR(1).
115172
**در حال حاضر مشغول مطالعه یک دوره آمار هستم و سعی می کنم یک تمرین احتمال ساده را حل کنم:** یک کارخانه تولیدی استخدام می کند: * 20 کارگر در شیفت روزانه * 15 کارگر در شیفت چرخشی * 10 کارگر در قبر- شیفت حیاط یک مشاور کنترل کیفیت باید 6 نفر از این کارگران را برای مصاحبه های عمیق انتخاب کند. فرض کنید انتخاب به گونه ای انجام شده است که هر گروه خاص از 6 کارگر شانس انتخاب شدن را مانند هر گروه دیگری داشته باشد (کشیدن 6 برگه بدون جایگزینی از بین 45). سوال این است: _احتمال اینکه حداقل دو شیفت مختلف در بین کارگران منتخب وجود داشته باشد چقدر است؟_ **پاسخ من:** من قصد دارم با استفاده از دو روش به این سوال پاسخ دهم. من با روش دوم مشکل دارم. اگرچه، روش اول بیشتر توسط مربیان توصیه می شود. هنگام تمرین سعی می کنم از هر دو روش استفاده کنم تا مطمئن شوم که پاسخم صحیح است و مطالب را درک می کنم. **روش 1:** محاسبه **_احتمال انتخاب 6 کارگر از 45 کارگر_**، سپس کم کردن آن با **_احتمال انتخاب 6 کارگر دقیقاً از یک شیفت متفاوت_**. P(A) = احتمال انتخاب 6 کارگر از 45 کارگر بدیهی است یک است: (45P6 / 45P6). P(B) = احتمال انتخاب 6 کارگر دقیقاً از یک شیفت متفاوت: 0.0054 (15P6 + 10P6 + 20P6 / 45P6) P(Solution) = P(A) - P(B) = 1 - 0.0054 = 0.9946. راه حل 0.9946 صحیح است (تأیید شده از کلید پاسخ) و من با این روش مشکلی ندارم. **روش 2:** محاسبه **_احتمال انتخاب 6 کارگر دقیقاً از دو شیفت مختلف_** و جمع آن با **_احتمال انتخاب 6 کارگر دقیقاً از سه شیفت مختلف_**. P(C) = احتمال انتخاب 6 کارگر دقیقاً از دو شیفت مختلف: 0.29 (25P6 + 35P6 + 30P6 / 45P6). توجه داشته باشید که 15+10=25 15+20=35، 20+10=30. P(D) = احتمال انتخاب 6 کارگر دقیقاً از سه شیفت مختلف: 1 (45P6/45P6). با جمع P(C) + P(D) بدیهی است که پاسخ اشتباهی داده می شود زیرا نتیجه بالاتر از 1 خواهد بود که به وضوح نادرست است. در روش 2 چه اشتباهی کردم؟
حل مسئله یک تمرین احتمالی ساده
59079
چگونه می توان هزینه ها را (در مدل لاجیت) پاسخ های مثبت کاذب، منفی کاذب، مثبت درست، منفی واقعی، در صورتی که هزینه های متفاوتی دارند، گنجاند؟ آیا می توان این کار را در سطح تابع احتمال انجام داد؟ نسخه: می‌دانم که تابع likeligoe را می‌توان به راحتی برای گنجاندن هزینه‌ها تغییر داد، اما سپس تابع احتمال ناپیوسته می‌شود: y_i == 1 oraz f(x_i*B) > 0.5 cost = cost11 y_i == 1 oraz f(x_i*B ) < 0.5 هزینه = هزینه 10 y_i == 0 oraz f(x_i*B) > 0.5 هزینه = cost01 y_i == 0 oraz f(x_i*B) < 0.5 هزینه = cost00 تابع درستنمایی اصلاح نشده: f(x_i*B)^y_i * (1 - f(x_i*B)) ^ (1 - y_i ) تابع درستنمایی اصلاح شده: (cost11*positive(f(x_i*B)-0.5) + cost10*negative(f(x_i*B)-0.5) ^ y_i * (cost00*negative(f(x_i*B)-0.5) + cost01*positive(f(x_i*B)-0.5)) ^ (1 - y_i) که در آن: مثبت (x) = 1 اگر x > 0 مثبت (x) = 0 اگر x < 0 منفی (x) = 1 اگر x > 0 منفی (x) = 0 اگر x < 0
چگونه می توان هزینه ها (در مدل لاجیت) مثبت کاذب، منفی کاذب، مثبت درست، منفی واقعی را در صورتی که هزینه های متفاوتی داشته باشند، وارد کرد؟
61637
آیا نرم افزار یا بسته R وجود دارد که توزیع فضایی آلل ها را شبیه سازی کند؟ من علاقه مندم که چگونه توزیع آلل های مکان های عملکردی توسط الگویی از متغیرهای محیطی مانند دما و کیفیت آب شکل می گیرد. من داده هایی در مورد الگوهای جغرافیایی متغیرهای محیطی، اتصال جمعیت (Fst) (داده های ریزماهواره)، فواصل جغرافیایی، اندازه جمعیت و فراوانی آللی مکان های عملکردی در 17 سایت دارم. من می‌خواهم فرکانس آللی مکان‌های عملکردی در سایر مکان‌های نقشه را بدانم که داده‌های فراوانی آللی برای آنها نداریم. شاید با استفاده از داده‌های فراوانی آللی موجود (از مکان‌های عملکردی) و سایر اطلاعات ذکر شده در بالا، فرکانس آللی در سایر مکان‌ها را بتوان با این فرض که جایگاه‌ها تحت انتخاب متغیرهای محیطی هدف قرار دارند، پیش‌بینی کرد؟ با تشکر
ژنتیک جمعیت: تجزیه و تحلیل توزیع فراوانی آلل در امتداد گرادیان های محیطی
115178
من تازه وارد این انجمن هستم. من کاغذهای سفید و کدهای مختلف را در گوگل جستجو کردم اما راه حلی پیدا نکردم، همان موقع بود که در این انجمن ثبت نام کردم. لطفاً اگر نظری در مورد چگونگی حل این مشکل دارید، به اشتراک بگذارید.. من یک مجموعه داده دارم. که از 30 پایه تشکیل شده است. معامله گران، و معاملات تاریخی آنها در هر نماد با تاریخ های معاملاتی.. من می خواهم روابطی را که بین هر یک از این معامله گران وجود دارد، درک کنم. به عنوان مثال: می خواهم بفهمم چه کسی برای اولین بار روی یک سهام معامله می کند و چه کسی بعدی را دنبال می کند و غیره. اساساً روابط آغازگر و پیرو را استخراج کنید. و همین را برای آینده پیش‌بینی کنید... من با در نظر گرفتن تفاوت بین تاریخ های معامله برای هر علامت برای هر دو معامله گر شروع کردم و سپس با همبستگی آن تاریخ ها/یا تفاوت در تاریخ های تجارت... فکر نمی کنم این رویکرد درستی باشد. پیشنهادی دارید؟
تجزیه و تحلیل پیرو آغازگر با مجموعه داده های سری زمانی
27650
من چند چیز دارم که باید با هم اضافه کنم - دو مجموعه مختلف از مواد، و باید کل مطالب را بدانم. به دلیل موارد مختلف مربوط به نمونه‌برداری، من می‌خواهم داده‌های نمونه‌گیری را از هر استخر راه‌اندازی کنم. بنابراین من یک لیست از 100 جرم برای یک استخر، و 50 جرم برای استخر دوم ایجاد می کنم. بعلاوه، من فواصل اطمینان را از راه‌انداز ایجاد می‌کنم. من فقط می توانم میانگین را اضافه کنم تا جرم کل میانگین را بدست بیاورم، اما در مورد CI ها چطور؟ بدیهی است که من هنوز در حال یادگیری بوت استرپ هستم، بنابراین اگر سوال ساده ای است ببخشید. در ابتدا، من متوجه شدم که می توانم آنها را شبیه به SD، مانند sqrt(x^2 + y^2) ترکیب کنم، اما این کار نمی کند. آیا اضافه کردن ساده کار می کند؟ یا باید CI را از ابتدا با استفاده از خطاهای استاندارد هر استخر بسازم؟
فواصل اطمینان حاصل از بوت استرپ را جمع بندی می کنید؟
61638
در آزمون فرضیه های آماری، احتمال خطای قابل قبول یا **سطح معناداری** α (آلفا) را بر روی مقداری که مطابق با نظریه ما باشد، تصمیم می گیریم و _تنظیم_ می کنیم. به طور سنتی آلفا 0.1، 0.05 یا 0.01 است. وقتی تابع توان g پارامتری را که برای آن آزمایش می کنیم _محاسبه می کنیم، توزیع احتمال دو خطا را دریافت می کنیم: **خطای نوع 1** α (آلفا) و خطای نوع 2 β (بتا). در یک نمایش گرافیکی از این تابع، آلفا مقدار زیر نمودار، بتا مقدار بالای خط است: α = g(p) و β = 1 - g(p، با p پارامتر مورد علاقه ما است. در اینجا یک مثال آورده شده است: ![sample power function](http://i.stack.imgur.com/dNGUU.png) خط قرمز αmax برای H0 است: p ≤ 0.4 و H1: p > 0.4; خط آبی برای نمونه p̂ = 0.5 β است ** احتمال خطا (آلفا) و خطای نوع 1 (آلفا) چگونه به یکدیگر مربوط می شوند؟** یا من فقط در مورد دو مقدار نامرتبط که یکسان هستند گیج می شوم. نام (آلفا)؟
رابطه آلفای سطح معنی داری با آلفای خطای نوع 1 چیست؟
74627
من نوع داده های زیر را دارم (کدگذاری شده با R): v.a = c('گربه'، 'سگ'، 'سگ'، 'بز'، 'گربه'، 'بز'، 'سگ'، 'سگ') v.b = c(1، 2، 1، 2، 1، 2، 1، 2) v.c = c('آبی'، 'قرمز'، 'آبی'، 'قرمز'، 'قرمز'، 'آبی'، 'زرد'، 'زرد') set.seed(12) v.d = rnorm(8) aov(v.a ~ v.b + v.c + v.d) # خطا می خواهم بدانم مقدار v.b یا مقدار «v.c» توانایی پیش‌بینی مقدار «v.a» را دارد. من یک ANOVA را اجرا می کنم (همانطور که در بالا نشان داده شده است) اما فکر می کنم منطقی نیست زیرا متغیر پاسخ من ترتیبی نیست (مقوله ای است). چه کار کنم؟
پیش‌بینی متغیر پاسخ طبقه‌ای
59077
من به تازگی از یک مجله اقتصادی رد شدم. از جمله دلایلی که برای رد ذکر شد عبارتند از: > مزایای استفاده از روش نیمه پارامتریک به وضوح مشخص نشده است > در مقایسه با روش های ساده تر جایگزین با شناسایی دقیق > روابط علّی، مطمئناً این امکان وجود دارد که می توانستم کار بهتری در ایجاد انگیزه انجام دهم. روش شناسی برای دسته ای از اقتصاددانان که عموماً به OLS پایبند هستند. اما آیا من شناسایی پاک را نقض کرده ام؟ لطفاً خودتان قضاوت کنید و نظر خود را به من بگویید: معادله اصلی برآورد من $$ y_{it} = \alpha_i + \beta_1 T_{it} + f\left(\begin{array}{l}Z_{it} است \\\ Z_{it} \times T_{it} \\\ Z_{it}\times T_{it} \times X_t\end{array} \right) + \beta_2X_t + \epsilon_{it} $$ $Z$ پیوسته است، $X$ و $T$ دودویی هستند. من می توانم به طور موجه فرض کنم که $$ E[\epsilon|\alpha,T] = 0 $$، یعنی ضریب $T$ مشروط به متغیرهای ساختگی سطح فردی (اثرات ثابت در اقتصاد سنجی است. ). وقتی متغیر پیوسته $Z$ را وارد می‌کنم، صرفاً به ناهمگونی در اثرات درمان تخمینی بیش از گرادیان‌های $Z$ نگاه می‌کنم. بنابراین میانگین اثر علی درمان $T$ میانگین $\hat\beta_1 + \hat f_{Z\time T}$ برای سطوح مختلف $Z$ است که من مشاهده می‌کنم. این مدل توسط خطوط درجه دوم جریمه شده تخمین زده می شود (به عنوان مثال: روپرت و همکاران 2003). به طور خاص: $$ y = \beta_0 +X'\beta + \displaystyle\sum_{1}^p (Z^{p})'\gamma + \displaystyle\sum_{j=1}^{\\#vars} \displaystyle\sum_{k=1}^{\\# knots_j}\delta_{jk}\left(\left(Z_j - \kappa_{jk} \right)^p \times \left(Z_j > \kappa_{jk} \right)\right) + \epsilon $$ این با $$ \left[\begin{array}{c} \hat\beta\ حل می‌شود \\ \hat\گاما \\\ \hat \delta \\\ \end{array}\right] = (C'C + \lambda^{2p}D)^{-1}C'y $$ که در آن $C$ شامل شرایط پارامتری و شرایط گره می‌شود، و در آن جریمه رج $\lambda$ _فقط برای شرایط گره اعمال می‌شود، و برای به حداقل رساندن AIC انتخاب می‌شود. (من نمی توانم عدالت را به طور کامل در مورد روش انجام دهم - به راپرت و همکاران، یا کتاب درسی سایمون وود در مورد GAM مراجعه کنید). البته، من از این نیمه پارامترها استفاده می‌کنم زیرا نمی‌خواهم فرم‌های عملکردی بی‌اساس را به داده‌هایم تحمیل کنم. انجام این کار به طور کاملاً طبیعی تخمین‌های من را سوگیری می‌کند، همان‌طور که اعمال تناسب لگاریتمی بر یک تابع سینوسی، تخمین‌های من را سوگیری می‌کند. اما آیا چیزی ذاتی در spline های جریمه شده وجود دارد که من آنها را توضیح دادم که ذاتاً عبارت زیر را نادرست کند؟ $$ E[\hat\beta_1] = \beta_1 \text{ if } E[\epsilon|\alpha,T] = 0 $$
شناسایی علّی و اسپلاین های جریمه شده
86975
عصر همگی بخیر، من با سوال دیگری روبرو هستم که به نظر نمی رسد نمی توانم راه حلی آنلاین پیدا کنم. فکر کردم در اینجا راهنمایی و راهنمایی دریافت می کنم. من توزیع زیر را دارم که نشان دهنده تعداد رویدادهایی است که در یک روز اتفاق می افتد. * زمانی که (x=0)، P(X=x) = 0.2 * زمانی که (x=1)، P(X=x) = 0.4 * زمانی که (x=2)، P(X=x) = 0.3 * زمانی که (x=3)، P(X=x) = 0.08 * هنگامی که (x=4)، P(X=x) = 0.02 فرض کنید می‌خواهم احتمال اینکه انحراف استاندارد نمونه 0 باشد را پیدا کنم. به طور تصادفی 4 روز انتخاب شده است، چگونه باید ادامه دهم؟ من مقدار * میانگین x را 1.32 * واریانس x 0.8976 * انحراف معیار 0.947 را تعیین کردم. لطفاً توصیه و جهت را ارزیابی کنید
توزیع احتمال
61633
من داده‌های آزمایشی زمان‌های پاسخ را دارم که بر اساس عامل «نوع آزمایشی» متفاوت است: «معمول» یا «تصادفی». من همچنین دو گروه A و B دارم که انتظار دارم رفتار مشابهی داشته باشند (آنها برای اهداف متوازن ایجاد شده اند). من می خواهم فرض برابری واریانس را در داده های خود آزمایش کنم. من تقریباً مطمئن هستم که واریانس ها برابر نیستند، اما به هر حال می خواهم آن را با یک تست نشان دهم. داده‌های من در یک data.frame طولانی به نام «AB» قرار دارند: خلاصه (AB) Block TrialType Subject مقدار متغیر Block1:1930 Min. : 1.0 تصادفی: 5889 طول: 9852 RT: 9852 دقیقه. : 348.0 Block2: 1974 1st Qu.: 128.0 Regular:3963 Class :character Qu. 1: 595.0 Block3:1982 Median :252.0 Mode :character Median : 692.0 Block4:1983 Mean .6983 Mean Block5: 1983 3rd Qu.:376.0 3rd Qu.: 834.0 Max. حداکثر: 500.0 :4412.0 گروه A:4929 B:4923 تست Levene را با استفاده از Group و TrialType به عنوان فاکتور گروه بندی (آگومان دوم) امتحان کردم: leveneTest(AB$value,AB$Group) leveneTest(AB$value,AB$TrialType) همانطور که شما می توانم ببینم، هنوز مشخص نیست که آیا آرگومان دوم باید «گروه» («A» و «B») باشد یا نه «TrialType» («تصادفی» و «معمولی»). من فقط هر دو را امتحان کردم. برای گروه، مقدار p 8.479e-11 و برای TrialType، p 2.413e-12 بود. همچنین، درجه آزادی برای هر دو مورد 1 است و مقادیر F بسیار بالا است: 42،23 برای Group و 49.24 برای TrialType. بنابراین 3 مقداری که من از این تست ها دریافت می کنم بسیار غیر معمول به نظر می رسند. بنابراین فکر می کنم ممکن است کار اشتباهی انجام دهم. هر گونه نظر یا / و کمک بسیار قدردانی می شود. همچنین، هر گونه راهنمایی در مورد نحوه گزارش این نتایج بسیار مورد استقبال قرار خواهد گرفت.
آیا این نتایج LeveneTest ممکن است؟
73161
من سعی می کنم یک تحلیل رگرسیونی انجام دهم که در آن متغیر پاسخ ترتیبی است و 15 متغیر از 16 متغیر پیش بینی کننده نیز ترتیبی هستند. علاوه بر این که همه این پیش‌بینی‌کننده‌های ترتیبی را به‌عنوان فاکتور در نظر بگیریم، آیا گزینه دیگری وجود دارد؟ بهترین راه برای درمان این پیش بینی کننده های ترتیبی چیست؟ متشکرم.
درمان متغیر پیش بینی ترتیبی
111504
من یک تحلیلگر تازه کار هستم و با یک مشکل یادگیری ماشینی / رگرسیون مواجه هستم که نمی توانم آن را حل کنم. داده هایی که من باید در تجزیه و تحلیل خود استفاده کنم شامل اطلاعات مربوط به اشتراک مطبوعات برخی از شرکت ها است. هر شرکت شناسه منحصر به فرد خود را دارد اما بیشتر به کارکنان شرکت جداگانه با مقادیر متفاوتی از متغیر پاسخ تقسیم می شود. من یک مجموعه داده نمونه ارائه می‌دهم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/VdDUA.png) گاهی اوقات وضعیت به افراط می‌رود - 20 مشاهده از یک شناسه (شرکت) متفاوت است در برخی از ارزش ها، اما بیشتر آنها یکسان باقی می مانند (مثلاً اندازه شرکت). افکار من زمانی است که از هر روش آماری استفاده می‌کنم، تکرارپذیری مقادیر طبقه‌بندی شده برای یک شرکت معین باعث سوگیری بزرگی می‌شود. من فرض می‌کنم باید روشی برای سنگین کردن مشاهدات طبقه‌بندی بر اساس تعداد دفعاتی که برای یک شناسه داده شده ظاهر می‌شوند وجود داشته باشد، یعنی اگر 20 کارمند در هر یک معین وجود داشته باشد، اهمیت هر مشاهده (برای یک متغیر معین) بر 20 تقسیم می‌شود. رواج برخی از الگوها در شرکت که بسیار بزرگ است، پیش بینی من را مغرضانه نمی کند. امیدوارم توانسته باشم به چیزی که با آن مشکل دارم تکیه کنم. برای ارجاع به هر ابزار/روش/مقاله یا تجربیات شما که ممکن است در رسیدگی به این موضوع مفید باشد بسیار سپاسگزار خواهم بود.
سوال تحلیل کاربردی
35753
$Y^n$ مشاهدات HMM ما هستند، که در آن $Y_i=a_i$ یک مشاهده واحد است، جایی که $a_i \epsilon \\{0,1\\}$ است. به عنوان مثال، $Y^n = k^n$ که در آن $k^n=\\{0,1,1,0\\}$$X^n$ حالت های واقعی HMM ما هستند که ما برخی از آنها را می شناسیم. (هر) $X_i$. چگونه می توانم به طور شهودی و 2. با دقت (با استفاده از ریاضی واقعی) در مورد واقعیت زیر دلیل کنم: اگر $Y^n = k^n$ داریم که در آن $k^n=\\{0,1,1,0 \\}$ و **هر** $X_i$ سپس ما کل $X^n$ را می دانیم. من فکر می‌کنم که ارتباطی با این مفهوم مارکوف دارد که > مشروط به حال، گذشته و آینده مستقل هستند، اما من در مورد چگونگی ادامه آن خیلی روشن نیستم.
در یک مدل مارکوف پنهان، چگونه همه مشاهدات و یک حالت همه حالت ها را به شما می دهند؟
35750
با توجه به اینکه تجزیه و تحلیل بقا به تجزیه و تحلیل/پیش‌بینی زمان یک رویداد مربوط می‌شود، می‌دانستم که آیا می‌توان از آن برای پیش‌بینی زلزله استفاده کرد؟ اگر چنین است، چگونه می توان آن تحلیل را در مورد یک منطقه خاص مانند ژاپن یا کالیفرنیا انجام داد؟ بنابراین حدس می‌زنم یک سوال مرتبط با آن جمله باشد... برای مثال اگر مجموعه داده‌ای مبتنی بر سری زمانی تک متغیره را در نظر بگیریم که به لرزش‌ها در طول زمان در ژاپن نگاه می‌کند، آیا می‌توان آن را به روشی تبدیل کرد که برای تجزیه و تحلیل بقا قابل استفاده باشد. .. این با فرض این است که لرزش های بالقوه کوچک قبلی ممکن است نشان دهنده یک زلزله بسیار بزرگتر در آینده باشد.
آیا می توان از تحلیل بقا برای پیش بینی زلزله استفاده کرد؟
51509
بیایید بگوییم که یک رویداد داریم - متغیر (1/0) که نشان دهنده وقوع یک رویداد به صورت روزانه است، به عنوان مثال. یک اعتصاب اکنون می گوییم که یک متغیر پیوسته (فروش) داریم که می خواهیم آن را پیش بینی کنیم. فاصله زمانی که متغیر در آن اندازه گیری می شود ماهانه است. می‌خواهیم متغیر رویداد را در مدلی بگنجانیم که برای پیش‌بینی فروش استفاده می‌شود، اما متغیر رویداد در فاصله زمانی دقیق‌تری اندازه‌گیری می‌شود. اگر در یک ماه 5 روز اعتصاب رخ داده باشد، آیا می توانیم بگوییم که مقدار متغیر رویداد برای آن ماه 5 است؟ به طور کلی تر، آیا می توانیم با تجمیع مقادیر متغیر رویداد dalily یک متغیر رویداد مشتق شده ایجاد کنیم؟ به این ترتیب ما یک متغیر مستقل با مقداری از 0 (هیچ ضربه ای در ماه خاص رخ نداده است) تا 30 خواهیم داشت (اگر یک اعتصاب هر روز در ماه خاص رخ داده باشد)؟ آیا این فرآیند از نظر آماری است و آیا این متغیر قدرت پیش بینی دارد؟ تشکر پیشاپیش، آندریاس * * * ممنون از پاسخ شما. اجازه دهید با فرض اینکه متغیر وابسته مصرف برق باشد و رویداد روزی با دمای متوسط ​​بسیار پایین (روز با سرمای شدید) باشد، مسائل را کمتر پیچیده کنیم. با این پرونده، ما به تعطیلات آخر هفته و بقیه مشکلاتی که در مورد اعتصابات ایجاد می شود، اهمیت نمی دهیم. بیایید بگوییم که ما در دوره ماهانه مصرف برق داریم بنابراین 12 مشاهده در سال. اجازه دهید همچنین بگوییم که با استفاده از یک متغیر باینری، روزهای سرد بسیار زیاد روزانه را ثبت می‌کنیم (بنابراین تقریباً 365 مشاهده در سال. اگر بخواهید رویداد روزانه را در مدل پیش‌بینی سری ماهانه بگنجانید، چه می‌کنید. 1 را جمع کنید، آیا درصد روزهایی که در طول ماه سرمای شدید را نشان می دهند را در نظر بگیرید یا به نظر شما کدام راه حل بهتر است؟
جمع کردن رویدادها در پیش‌بینی سری‌های زمانی
61090
حالا من یک قاب داده «R» دارم (آموزش)، آیا کسی می‌تواند به من بگوید چگونه این مجموعه داده را به‌طور تصادفی تقسیم کنم تا اعتبارسنجی متقاطع 10 برابری انجام شود؟
چگونه یک مجموعه داده را برای اعتبارسنجی متقابل 10 برابر تقسیم کنیم
74626
چگونه می توانم حساسیت یک مدل رگرسیون را به نویز بررسی کنم؟ یک ایده اولیه اضافه کردن مقداری نویز (گاوسی) به متغیرهای وابسته و/یا مستقل و ارزیابی مجدد RMSE است. با این حال، مشکل این رویکرد این است که بیشتر علاقه مند به مدل سازی داده های واقعی است، نه داده های نویزدار. از این رو، آیا منطقی است که RMSE را بر روی متغیر وابسته اصلی اندازه گیری کنیم، نه متغیر نویزدار، حتی اگر دومی برای ساخت مدل استفاده شده باشد؟
نحوه ارزیابی حساسیت مدل رگرسیون به نویز
27656
رویکرد سنتی به انتخاب متغیر، یافتن متغیرهایی است که بیشترین سهم را در پیش‌بینی پاسخ جدید دارند. اخیراً از جایگزینی برای این مطلع شدم. در مدل‌سازی متغیرهایی که تأثیر یک درمان را تعیین می‌کنند - به عنوان مثال در یک کارآزمایی بالینی یک دارو - به این متغیر گفته می‌شود که از نظر کیفی با درمان تعامل دارد، اگر با ثابت ماندن سایر موارد، تغییر در آن متغیر می‌تواند تغییری ایجاد کند. که در آن درمان موثرتر است. این متغیرها همیشه پیش‌بینی‌کننده‌های قوی اثر نیستند، اما ممکن است برای یک پزشک در هنگام تصمیم‌گیری در مورد درمان برای بیماران خاص مهم باشند. لیسی گانتر در پایان نامه دکترای خود روشی را برای انتخاب این متغیرهای کیفی برهمکنش ابداع کرد که ممکن است توسط الگوریتم هایی که انتخاب را بر اساس پیش بینی قرار می دهند نادیده گرفته شوند. اخیراً من با او در گسترش این روش‌ها به مدل‌های دیگر از جمله رگرسیون لجستیک و مدل‌های رگرسیون خطر متناسب کاکس کار کرده‌ام. من دو سوال دارم: 1. نظر شما در مورد ارزش این روش های جدید چیست؟ 2. در مورد روش های سنتی چه رویکردی را ترجیح می دهید؟ معیارهایی مانند تست های AIC، BIC، Mallows Cp، F برای وارد کردن یا رها کردن متغیرها به صورت گام به گام، رو به جلو و عقب... * * * اولین مقاله در این مورد در Gunter، L.، Zhu، J و Murphy، S. A. منتشر شد. 2009). _انتخاب متغیر برای تعاملات کیفی_. **روش آماری** doi:10, 1016/j.stamet.2009.05.003. مقاله بعدی در Gunter, L., Zhu, J. and Murphy, S. A. (2011) ظاهر شد. _انتخاب متغیر تعاملات کیفی در پزشکی شخصی با کنترل میزان خطای خانوادگی. **مجله آمار بیودارویی** 21, 1063-1078. مورد بعدی در یک شماره ویژه در مورد انتخاب متغیر Gunter, L., Chernick, M. R. and Sun, J. (2011) ظاهر شد. روشی ساده برای انتخاب متغیر در رگرسیون با توجه به انتخاب درمان. **مجله تحقیقات آمار و عملیات پاکستان** 7: 363-380. می توانید مقالات را در وب سایت های مجله پیدا کنید. ممکن است مجبور شوید مقاله را بخرید. من ممکن است فایل های پی دی اف این مقالات را داشته باشم. من و لیسی به تازگی یک مونوگراف در مورد این موضوع را تکمیل کرده ایم که در اواخر امسال به عنوان SpringerBrief منتشر خواهد شد.
چگونه متغیرها را در مدل رگرسیونی انتخاب می کنید؟
74620
من باید ضریب آزمون کولموگروف-اسمیرنوف را برای هر سطح رد فرضیه صفر معین محاسبه کنم. به عنوان مثال، به جدول موجود در این مدخل ویکی پدیا نگاهی بیندازید. فقط $c(\alpha)$ را برای $\alpha=0.10، 0.05، 0.025، 0.01، 0.005، 0.001$ می دهد. چگونه می توانم $c(\alpha)$ را برای محدوده وسیع تری از $\alpha$s محاسبه کنم؟ اگر بی اهمیت نیست، آیا کسی می تواند مرا در جایی راهنمایی کند که بتوانم جدولی برای $c(\alpha)$ با مقادیر بزرگتر $\alpha$ پیدا کنم؟ پیشاپیش ممنون
محاسبه ضریب کولموگروف - اسمیرنوف
35757
من یک مدل اثرات تصادفی $f(t)=\alpha-(\alpha-\beta)*\exp(-\gamma*t)$ را نمایی غیرخطی در R تخمین زدم. من همان فرم مدل را با استفاده از مجموعه داده‌های یکسان اما با «nlme()» از کتابخانه «nlme» و «nlmer()» از کتابخانه «lme4» تخمین زدم. تخمین‌های اثر ثابت در مقایسه «nlme» با «nlmer» کاملاً مشابه است: **nlme:** جلوه‌های ثابت: آلفا + بتا + گاما ~ 1 مقدار Std. Error DF t-value p-value alpha 29.508227 0.4166492 3828 beta 70. 5.082116 0.1584696 3498 32.06998 0 گاما 0.313008 0.0070209 3498 44.58244 0 **nlmer:** جلوه های ثابت: Estimate Std. خطای t مقدار آلفا 30.0432 0.5432 55.31 بتا 4.9541 0.2110 23.47 گاما 0.2551 0.0135 18.90 با این حال، برآورد اثرات تصادفی همراه با ماتریس همبستگی آنها متفاوت است. این یک یافته ثابت است. همچنین برای سایر توابع غیرخطی و سایر داده ها نیز وجود دارد. به عنوان مثال ببینید همبستگی بین آلفا و گاما همچنین قابل توجه است که واریانس ها در «nlmer» چقدر بزرگ هستند -- در واقع به نظر می رسد بسیار بزرگ هستند **nlme:** > VarCorr(model) Subject = pdLogChol(list(alpha ~ 1,beta ~ 1,gamma ~ 1)) واریانس StdDev Corr آلفا 42.19955753 6.496119 آلفا بتا بتا 4.84969745 2.202203 0.494 گاما 0.01055961 0.102760 -0.643 0.202 Residual 1.94836594 1.395839 **nlmer:** NameD Variance Effects. Corr موضوع آلفا 72.551249 8.51770 بتا 9.840010 3.13688 0.458 گاما 0.043274 0.20802 -0.195 0.142 باقیمانده 1.716048 تعداد 1.716048: 83048 تعداد 1.716048: 83048 از 1. موضوع، 250 مشکل اینجا چیست؟ چرا واریانس‌های «nlmer» تقریباً دو برابر بیشتر از واریانس‌های ارائه شده در راه‌حل «nlme» است؟
اثرات تصادفی مختلف در nlme و nlmer
59072
من یک توزیع یکنواخت دارم که از $\mathbb{Z}_q$ تولید می‌شود (بنابراین من اعداد صحیح از بازه [$-q/2$, $q/2$) دارم. سپس یکی را از دیگری کم می کنم و مدول نتیجه $q$ را می گیرم (بنابراین دوباره یک عدد صحیح از بازه بالا دارم). چگونه ثابت کنیم (یا رد کنیم) که توزیع حاصل در $\mathbb{Z}_q$ یکنواخت می ماند؟
تفاوت دو متغیر یکنواخت گسسته مدول گرفته شده است. هنوز یکنواخت است؟
92222
من نمی دانم چگونه همه تست ها را در Unit Root مقایسه کنم. کدام یک در میان: * ADF * PP * KPSS * Elliott، Rothenberg & Stock Unit Root Test
آزمون مقایسه در ریشه واحد
23891
من مجموعه بزرگی از سری های زمانی دارم - اندازه گیری هایی که هر 15 دقیقه (96 اندازه گیری در روز) در طول 1 سال در مکان های مختلف انجام می شود. من هر سری زمانی را به 365 سری زمانی جداگانه کوچکتر تقسیم کردم، 1 برای هر روز از سال. با نگاهی به این سری های زمانی، مطمئناً اشکال متمایز زیادی برای یک روز وجود دارد. برخی سینوسی به نظر می رسند، برخی ثابت هستند، برخی شبیه به یک فرآیند تصادفی تصادفی، برخی سهمی به نظر می رسند و برخی شبیه U به نظر می رسند. کاری که من می خواهم انجام دهم استفاده از الگوریتمی است که بتواند این اشکال رایج را پیدا کند. من به خوشه‌بندی و استفاده از مرکزهای خوشه‌ای برای تعریف اشکال رایج فکر کردم، اما می‌خواستم با جامعه بررسی کنم که آیا این درست است یا خیر. تا کنون، من به Dynamic Time Warp به عنوان یک متریک نگاه کرده ام، اما به نظر می رسد که این متریک به محاسبات زیادی نیاز دارد. من همچنین http://mox.polimi.it/it/progetti/pubblicazioni/quaderni/13-2008.pdf را از SE پیدا کردم. همچنین دیدم آیا می توان خوشه بندی سری های زمانی را بر اساس شکل منحنی انجام داد؟ اما این سوال مربوط به سال 2010 بود و ممکن است قدیمی باشد. ایده دیگری که داشتم این بود که تجزیه ویژه ماتریس‌هایی را که به این صورت قالب‌بندی می‌شدند در نظر بگیرم: ماتریس $M_i$ ماتریسی از تمام سری‌های زمانی است که در روز $i$ مشاهده می‌شود. هر ردیف از ماتریس $M_i$ یک سری زمانی به طول 96 است. سپس، من 365 تجزیه ویژه انجام می‌دهم و از بردارهای ویژه به عنوان اشکال رایج استفاده می‌کنم. آیا این منطقی به نظر می رسد؟ با تشکر
تشخیص شکل برای داده های سری زمانی
60942
هنگام استفاده از خطاهای استاندارد Newey-West برای آماره های t من از ضرایب شیب در یک رگرسیون OLS، آیا هنوز هم می توانم از مقادیر بحرانی معمول برای تست های دو طرفه استفاده کنم؟ (1.645 برای 10% معنی دار، 1.96 برای 5% و 2.58 برای 1%)
آمار t-آمار نیوی وست و مقادیر بحرانی
61092
فرض کنید $Y_1,\dots,Y_n\mid\mu,\sigma^2 \sim \text{ iid } N(\mu,\sigma^2)$ و فرض کنید پیشین $\mu \mid \sigma^2 \sim N(\mu_0، \sigma^2 / \kappa_0)$ و $1/\sigma^2 \sim \text{gamma}(\nu_0/2, \nu_0 \sigma_0^2 / 2)$ روی پارامترهای ناشناخته قرار می‌گیرند. سپس \begin{align*} p(\sigma^2 \mid y_1,\dots,y_n) &\propto p(\sigma^2)p(y_1,\dots,y_n\mid\sigma^2) \\\ &= p(\sigma^2) \int p(y_1،\dots،y_n \mid \mu,\sigma^2)p(\mu\mid\sigma^2)d\mu \end{align*} با این پیشین‌ها مشخص می‌شود (به Hoff مراجعه کنید) که توزیع حاشیه‌ای خلفی روی $\sigma^2$ $1/\sigma^2\mid y_1,\dots,y_n \sim است \text{گاما}(\nu_n/2،\nu_n\sigma_n^2/2)$$ که $$\nu_n = \nu_0 + n، \text{ و } \sigma_n^2 = \frac{1}{\ nu_n}\left( \nu_0\sigma_0^2 + (n-1)s^2 + \frac{\kappa_0 n}{\kappa_0 + n} ( \bar{y}-\mu_0 )^2 \right)$$ که در آن $\bar{y}$ و $s^2$ میانگین نمونه و واریانس نمونه بی طرفانه هستند. بنابراین داریم که $$ \text{Var}\left[\frac{1}{\sigma^2} \mid y_1,\dots,y_n\right] = (\nu_n/2) / (\nu_n\sigma_n^ 2/2)^2 = \frac{2}{\nu_n\sigma_n^4}. $$ حالا فرض کنید همه هایپرپارامترها به جز $\kappa_0$ را برطرف کرده و اثر افزایش واریانس $\mu\mid\sigma^2$ را (با کاهش $\kappa_0$) تجزیه و تحلیل کنیم. از آنجایی که $f(\kappa_0)=\kappa_0 n / (\kappa_0 + n)$ به طور یکنواخت به عنوان تابعی از $\kappa_0$ افزایش می‌یابد، می‌بینیم که \begin{align*} \kappa_{0,a} < \kappa_ {0,b} &\Rightarrow \kappa_{0,a} n / (\kappa_{0,a} + n) <\ kappa_ {0 ، b} n / (\ kappa_ {0 ، b} + n) \\\ & \ reightarrow \ sigma_ {n ، a}^2 <\ sigma_ {n ، b}^2 \\\\ & \ Rightarrow \ sigma_ {n ، a}^4 <\ sigma_ {n ، b}^4 \\\ & \ redarrow \ frac {2} {\ nu_n \ sigma_ {n ، b}^4} <\ frac {2} {\ nu_n \ sigma_ {n ، a}^4} ، \ end {align*} i.e. $\mu\mid\sigma^2$ منجر به افزایش واریانس خلفی حاشیه‌ای می‌شود $\text{Var}\left[1/\sigma^2\mid y_1،\dots،y_n\right]$. به طور شهودی، این نتیجه بسیار منطقی است زیرا اگر $p(\mu \mid \sigma^2)$ بیشتر پخش شود، میانگین (انتگرال) بیش از $p(\mu \mid \sigma^2)$ بالا باعث می شود $p(\sigma^2 \mid y_1,\dots,y_n)$ بیشتر پخش شده است. این باعث می شود فکر کنم که این نتیجه باید به طور کلی قابل اثبات باشد، یعنی یک مدل نمونه گیری $f_{Y\mid\theta,\phi}$ بسته به دو پارامتر ناشناخته $\theta$ و $\phi$، و مقدمات $ f _ {\ theta \ mid \ phi} $ و $ f _ {\ phi} $ ، افزایش در $ \ text {var} \ سمت چپ [ \ theta \ mid \ phi \ right] $ باید منجر به افزایش در $ \ text {var} \ سمت چپ شود [\ phi \ mid y_1 ، \ dots ، y_n \ right] $. آیا کسی از نتیجه کلی مانند این خبر دارد؟
واریانس توزیع خلفی حاشیه ای
56575
من یک مجموعه داده از مقادیر x و y دارم که می‌خواهم یک تناسب خطی از آنها ایجاد کنم. با استفاده از «polyfit(x,y,1)» ضرایب «a» و «b» را برای برازش خطی «ax = b» برای این داده به دست می‌آورم، اما همچنین می‌خواهم عدم قطعیت یا انحراف استاندارد را برای این ضرایب پیدا کنم. . کسی راه آسانی برای انجام این کار می شناسد؟ Google-fu من فقط این نتیجه را به من داد و از آنجایی که به عنوان آخرین پاسخ در آن تاپیک اصلاحی بر پاسخ اول است، نمی دانم که آیا باید به هر یک از پاسخ ها اعتماد کنم یا خیر. پاسخ آن تاپیک این است: [z,s]=polyfit(x,y,1); ste = sqrt(diag(inv(s.R)*inv(s.R')).*s.normr.^2./s.df); اگر کسی به آن نیاز دارد مجموعه داده در اینجا آمده است: x = [1.3979 1.6990 2.0000 2.3010 2.6021 2.9031]; y = [-1.5219 -1.6300 -1.8249 -2.2584 -2.5054 -2.6248]; (می‌دانم که بیشتر شبیه یک چند جمله‌ای مرتبه سوم به نظر می‌رسد، اما طبق نظریه پشت اندازه‌گیری‌های من باید خطی باشند.)
یافتن عدم قطعیت در ضرایب از polyfit در Matlab (بدون جعبه ابزار)
52859
من از رگرسیون چندک برای تخمین ضریب خاصی برای صدک های 10، 20، ... 90 استفاده کرده ام. اکنون می‌خواهم اثر میانگین ضریب را در کل توزیع تخمین بزنم. استفاده از حداقل مربعات معمولی برای تخمین اثر میانگین، با توجه به توزیع ناهمسان و غیر گاوسی خطاهای مدل، نامناسب است. آیا استفاده از میانگین تخمین های رگرسیون چندک به عنوان تقریبی از اثر میانگین ضریب مناسب است؟
محاسبه یک اثر ضریب میانگین بر اساس برآوردهای رگرسیون چندک
56573
من یک مدل جلوه های ترکیبی به شرح زیر تولید کرده ام: `lmer(TotalPayoff~Type+Game+PgvnD*Asym+(1|Subject)+(1|Pairing),REML=FALSE,data=table)` هر جفت شامل 2 موضوع است و هر کدام موضوع در 2 جفت مختلف با موضوعات مختلف است. آیا برای کنترل وابستگی «TotalPayoff» بین داده‌های یک موضوع و همچنین بین داده‌های یک جفت، جلوه‌های تصادفی را به روشی درست ساختار داده‌ام؟ (اگر یکی از سوژه‌ها در یک جفت، «TotalPayoff» بالایی داشته باشد، دیگری نیز خواهد داشت).
ساختار صحیح اثرات تصادفی؟
52856
من یک رگرسیون چندگانه به شکل y~a+b+c+ab+ac+bc اجرا می‌کنم. مقادیر VIF را برای اثرات مستقیم بررسی کرده‌ام - آیا باید آنها را برای تعاملات بررسی کنم؟ من فرض نمی کنم که این معادل نگاه کردن به چندخطی بودن بین یک متغیر و خودش (البته در یک تعامل) است که مطمئناً بسیار زیاد خواهد بود؟
مقادیر و تعاملات VIF در رگرسیون چندگانه
74625
می‌دانستم که آیا استدلال من درست است و آیا آن را به درستی یادداشت کرده‌ام: با توجه به معادله زیر $bread_i=\beta_{0} + \beta_{1}wage + u_{t}$، که در آن $u_{t} $ معمولاً با میانگین صفر و واریانس $\sigma^{2}$ توزیع می‌شود و مستقل از $wage$ است. علاوه بر این، ما می دانیم که هیچ همبستگی خودکاری وجود ندارد، $bread$ و $wage$ با هم ادغام نمی شوند، اما یک ریشه واحد در $bread$ و $wage$ وجود دارد. با توجه به مدل تفاوت اول $\Delta bread_{t} = \beta_1 \Delta wage_{t}+\epsilon_{t}$، که $\epsilon = \Delta u_{t}$. آیا عبارت خطای $\epsilon_{t}$ در این معادله در طول زمان همبستگی ندارد؟ لطفاً پاسخ خود را با یک اشتقاق رسمی انگیزه دهید. خوب من به این فکر کردم: از آنجایی که $\epsilon = u_{t} - u_{t-1}$ و ما می دانیم که هیچ همبستگی خودکاری بین آنها وجود ندارد، پس از اولین تفاوت، پس از آن هیچ خودهمبستگی وجود نخواهد داشت. سوال این است که البته چگونه آن را نشان دهیم؟ استفاده از COV شاید؟ من در حال حاضر سعی می کنم آن را استخراج کنم، اما کمی گیر کرده ام. پیشاپیش متشکرم
اثبات اینکه خود همبستگی وجود ندارد
56938
من سعی می‌کنم تا زمانی که یک شرط توقف برآورده شود، توزیع در تعدادی آزمایش را کشف کنم. به طور خاص، تصور کنید که ما نمونه‌هایی از یک متغیر تصادفی توزیع شده یکنواخت، $X \in \\{a,a+1,...,b\\}$ را مشاهده می‌کنیم. ما به مشاهده نمونه‌ها ادامه می‌دهیم تا زمانی که مجموع این اعداد از آستانه $Z$ عبور کند، سپس فرآیند را متوقف می‌کنیم. یعنی مجموعه $\\{x_1, ..., x_T | \sum_{i=1}^T x_i \geq Z\\}$. من به توزیع بر روی متغیر تصادفی $T$ (تعداد آزمایشات) علاقه مند هستم. این مشابه توزیع چند جمله ای یا چند جمله ای منفی است، اما یکسان نیست. با فرض اینکه $b << Z$، می‌توانیم خطای کوچک گرد کردن را در انتها نادیده بگیریم و فرض کنیم که $\sum_{i=1}^T x_i = Z$. سپس می‌توانیم برخی از مشاهدات اولیه مانند $\frac{Z}{a} \leq T \leq \frac{Z}{b}$ را انجام دهیم. همچنین، از آزمایش‌ها به نظر می‌رسد که $\mathbb{E}[T] = \frac{Z}{\mathbb{E}[X]}$، اما در مورد واریانس یا شکل کلی توزیع مطمئن نیستیم. ویرایش: این سوال را می توان تا حدی با رعایت موارد زیر پاسخ داد، ابتدا $Y = \sum_{i=1}^N X_i$ را نشان دهید، البته ما $Y/N \overset{d}{\to} \ داریم. mathbb{E}[X]$. به طور طبیعی، برای هر $N$ بزرگ، انتظار داریم $Y \تقریبا N\mathbb{E}[X]$. در واقع، این را می توان از نابرابری هوفدینگ نیز مشاهده کرد. بنابراین، برای یک $Z$ به اندازه کافی بزرگ، اگر $Y=Z$ را محدود کنیم، $Z \approx T\mathbb{E}[X]$ یا $T \approx \frac{Z}{\mathbb{E داریم. همانطور که مشاهده کردم [X]}$.
توزیع برای تعداد آزمایش‌ها قبل از رسیدن به مبلغ ثابت
92225
من فریمی دارم که شامل > شرکت کننده----شرایط----مدت > شرکت کننده1،یک،2000 > شرکت کننده1،یک،2780 > شرکت کننده1،یک،200 > شرکت کننده2،دو،2000 > شرکت کننده 2،دو،2340 > شرکت کننده2 ,Two,2120 > Participant2, Two,2420 > Participant2,Two,2990 > Participant3,One,2120 و غیره... اساساً برای هر شرکت کننده چندین معیار مدت زمان وجود دارد. برای مقایسه مدت زمان با شرایط، از > lme(Duration~Cndition,random=~1|Participant) و > plot.lme(model,Condition~fitted(.)) استفاده می کنم تا ایده ای از مدل داشته باشیم. من نمی‌پرسم آیا راهی برای رسم داده‌های واقعی، به سبک خلاصه مانند plotmeans وجود دارد. منظورم این است که می توانم از نمودار میانگین با رابطه 1:1 بین شرکت کننده و اندازه گیری استفاده کنم، در غیر این صورت میانگین توسط شرکت کننده با ورودی های بیشتر کشیده می شود. آیا چیزی مشابه برای اقدامات مکرر وجود دارد؟ بزرگ یعنی شاید؟ با تشکر
روش خوبی برای رسم متغیر بین شرایط با اندازه گیری های متعدد
111508
من به دنبال یک بسته R lokern هستم. این دو انتخابگر پهنای باند، پهنای باند پلاگین جهانی و محلی را فراهم می کند. من می خواهم تفاوت بین دو روش را درک کنم. درک من پهنای باند جهانی از یک پهنای باند برای کل مجموعه داده ها استفاده می کند ، و پهنای باند محلی از پهنای باند مختلف در یک مجموعه داده با توجه به برخی معیارها (مانند چگالی داده ها و غیره) استفاده می کند. آیا این درست است؟ آیا معیاری وجود دارد که چه زمانی پهنای باند محلی مفیدتر است و چه زمانی جهانی مفیدتر است؟
چگونه پهنای باند پلاگین محلی و جهانی در رگرسیون هموارسازی هسته متفاوت است؟
73167
من باید برای یک کلاس به این سوال پاسخ دهم و کاملاً گیج هستم. پیوند GLM log و یک متغیر ساختگی برای جنسیت (1 = مذکر، 0 = زن) تخمین جنسیتی 0.308 دارد. SE با فرض توزیع پواسون 0.038 و با فرض یک مدل دوجمله ای منفی 0.127 است. چرا مقادیر SE اینقدر متفاوت هستند؟ هر گونه فکر بسیار قدردانی خواهد شد.
مقایسه خطاهای استاندارد منفی دو جمله ای و پواسون
110457
من بین این دو اصطلاح سردرگم شده ام: _حساسیت_ و _همخوانی_. آنچه در مورد این دو عبارت می‌دانم: ** تطابق:** تعداد جفت‌هایی که 1های واقعی احتمال 1 شدن پیش‌بینی‌شده بالاتری نسبت به 0ها تقسیم بر تعداد کل جفت‌ها دارند. **حساسیت:** درصد 1 ها به درستی 1 پیش بینی شده است. با تعاریف آنها، به نظر می رسد هر دو یکسان هستند. من جایی خوانده ام که همخوانی = (مثبت واقعی + منفی واقعی) / حجم نمونه. من سعی کردم مطابقت را با استفاده از این فرمول محاسبه کنم. اما به نظر می رسد نادرست است. اول، من رگرسیون لجستیک را در SAS با استفاده از PROC LOGISTIC با گزینه های CTABLE PPROB=0.5 اجرا کردم. سپس جفت‌های مثبت واقعی را از (درصد حساسیت $\times$ تعداد 1s) و جفت‌های منفی واقعی را از (درصد ویژگی $\ برابر تعداد 0s) محاسبه کرده‌ام. آنها را جمع کردم و بر کل پاسخ ها تقسیم کردم. این با نمره همخوانی مطابقت ندارد.
هماهنگی در مقابل حساسیت
52853
با فرض نمونه‌ای از متغیرهای تصادفی که در آن عبارات خطا برای هر متغیر تصادفی ($y_{i}$) توسط $\epsilon_{1}، \dots، \epsilon_{n} \sim N(0، \sigma^{ داده می‌شود. 2})$، یک مدل خطی ایجاد می‌شود که: $$ y_{i} = \beta_{0} + \epsilon_{i} $$ سپس با استفاده از OLS، پیدا کردن، $$ \frac{d}{d\hat{\beta}_{0}} \sum_{i}^{n}(y_{i} - \hat{\beta}_{0})^{ 2} = 0 $$ و حل برای $\hat{\beta}_{0}$ بازده، $\hat{\beta}_{0} = \frac{1}{n}\sum_{i}^{ n} y_{i} = \bar{y}$ با این حال، اکنون، بیایید فرض کنیم که _دو_ متغیر تصادفی وجود دارد که عبارات خطا برای متغیر تصادفی مربوطه ($y_{i}$) توسط $\epsilon_{1} \sim N(0) داده می شود. ، \ sigma^{2}) $ و $ \ epsilon_ {2} \ sim n (0 ، n \ sigma^{2}) $. یک بار دیگر، مدل خطی به گونه‌ای توسعه می‌یابد که: $$ y_{i} = \beta_{0} + \epsilon_{i} $$ آیا می‌توان از تخمین‌گر $\beta_{0}$ ارائه‌شده در بالا برای این مدل استفاده کرد. ? اگر نه ، با توجه به ناهمگونی درگیر در شرایط خطا ، چگونه یک برآوردگر برای $ \ beta_ {0} $ توسعه یافته است؟ من مدل‌های خطی را دیده‌ام که با توجه به نقطه داده، از توابع نشانگر برای تعیین اینکه کدام عبارت در مدل غیر صفر هستند استفاده می‌کنند. شاید این در اینجا صدق کند؟
تخمین مدل خطی در حضور ناهمسانی
32194
من اخیراً مقالات زیادی در مورد نمایش های پراکنده می بینم، و بیشتر آنها از هنجار $\ell_p$ استفاده می کنند و مقداری کوچک سازی انجام می دهند. سوال من این است که هنجار $\ell_p$ و هنجار مختلط $\ell_{p, q}$ چیست؟ و چگونه آنها به منظم سازی مرتبط هستند؟ با تشکر
هنجارهای $\ell_p$ چیست و چگونه با قانونمندسازی مرتبط هستند؟
23898
من از یک شبکه عصبی با توپولوژی 17-30-1 (sigmoid، تابع خطای atan، mse به عنوان تابع هزینه، 5 برابر cv) برای طبقه بندی متن استفاده می کنم. (این ارتباط نزدیک با سوال قبلی من است.) داده های ورودی کاملاً پر سر و صدا هستند، بنابراین من می توانم با نمره طبقه بندی عالی زندگی کنم، اما نتایجی که می گیرم احتمالاً خیلی بد (یا حتی تصادفی) هستند و بنابراین می پرسم برای نظر شما 1. خطای آموزش حدود 0.06-0.09 (MSE) است، یعنی به طور میانگین هر طبقه بندی تقریباً متفاوت است. 0.25-0.3 از برچسب پیش بینی. در این حالت باینری با آستانه کلاس 0.5 این ممکن است قابل قبول باشد. نظر شما چیست؟ 2. خطای تست (MSE) متاسفانه حدود 0.20 است و گاهی اوقات حتی 0.25; یعنی خطای موثر برای یک نمونه آزمایشی حدود 0.5 است، که به نظر من به این معنی است که شبکه a) از واریانس بالایی رنج می برد و ب) به اندازه حدس زدن تصادفی خوب است. من به یک طبقه بندی کامل نیاز ندارم، اما شبکه باید الگوهای داده های ورودی را نشان دهد. اما با این نتایج من فکر می کنم شبکه عصبی کم و بیش بی فایده است یا بهتر است بگوییم ویژگی های ورودی مزخرف هستند.
آیا تفسیر من از نتایج شبکه عصبی درست است؟
56572
فرض کنید من یک مجموعه آموزشی $\mathcal{T}^N = \\{(x_i , y_i) \in \mathbb{R}^{d} \times \\{0,1\\}\\}$ دارم، جایی که داده ها i.i.d از برخی توزیع ها استخراج می شود. اکنون من یک طبقه‌بندی کننده $\hat{h}$ از این داده‌ها با استفاده از برخی الگوریتم‌های قطعی یاد می‌گیرم. WLOG هنجارهای اقلیدسی $x_i$ و $\hat{h}$ را $1$ در نظر گرفته و با $\theta_i := \arccos(x_i^T\hat{h})$ زاویه بین $x_i$ را نشان می‌دهد. و $\hat{h}$. بدیهی است که این درست است که برای _any_ $\hat{h}$ ثابت که تابعی از داده ها نیست، زاویه های $\theta_i$ متغیرهای تصادفی مستقل هستند، اما در اینجا $\hat{h}$ تابعی از iid $ است. x_i$: آیا هنوز درست است که زوایای $\theta_i$ مستقل هستند؟
آیا زوایای بین داده های آموزشی iid و طبقه بندی کننده ای که از آنها آموخته می شود مستقل هستند؟
32195
من در درک قابلیت شناسایی مشکل دارم. به طور خاص، در مثال زیر مطمئن نیستم که چرا $P\left(C\right)$ نمی تواند شناسایی شود. مثال اینجاست: شما 2 سکه ناعادلانه با احتمالات زیر دارید: $$P\left(H|C_1\right)=1/4$$$P\left(H|C_2\right)=3/4$$ احتمال انتخاب هر سکه برابر است، بنابراین $P\left(C=C_1\right)=P\left(C=C_2\right)=1/2$. سوال من این است که با توجه به اینکه من فقط $H$ را مشاهده می کنم، چرا نمی توانم $P\left(C\right)$ را با استفاده از جبر اولیه شناسایی کنم. یعنی \begin{eqnarray} P\left(H\right)&=&P(C_1)P\left(H|C_1\right) + P\left(C_2\right)P\left(H|C_2\right) )\\\ &=& P\left(C\right)\left(P\left(H|C_1\right)+P\left(H|C_2\راست)\راست)\\\ P\left(C\راست) &=& \ frac{P\left(H\right)}{P\left(H|C_1\right)+P\left(H|C_2\right)} \end{eqnarray} در این مورد به نظر می‌رسد $P\left(C\right)$ قابل شناسایی است، بنابراین مطمئن نیستم که کجا اشتباه می‌کنم. توجه داشته باشید که من به دنبال شناسایی خود $C$ (سکه واقعی) نیستم، من می خواهم توزیع $C$ را بدانم.
درک قابلیت شناسایی اولیه
32198
من می‌خواهم از یک توزیع برای پیش‌بینی مقدار p (خواه صرفاً نویز) هر عنصر در این مجموعه داده استفاده کنم. اما من نمی دانم از چه توزیعی استفاده کنم. آیا کسی می تواند راهنمایی هایی در مورد آن به من بدهد؟ ![هیستوگرام داده ها](http://i.stack.imgur.com/96aNg.png)
از کدام توزیع برای توصیف این داده های بدون غنی سازی استفاده کنم؟
32190
فرض کنید گزارش‌های مختلفی در مورد فروش پیش‌بینی‌شده محصول X$ برای سال 5$ از $2013 به ما داده می‌شود. همه گزارش‌ها فقط نتایج را نشان می‌دهند و نه روش‌شناسی نحوه رسیدن به پیش‌بینی‌ها. فرض کنید ما به فروش پیش بینی شده محصول X$ برای سال 10$ علاقه مند هستیم. بنابراین ما در حال حاضر قیمت های پیش بینی شده از 2013-2018 دلار را داریم و علاقه مند به فروش پیش بینی شده از 2019-2023 دلار هستیم. آیا می توانیم برای این سال ها از مدل سری زمانی استفاده کنیم؟
مدل های سری زمانی برای فروش پیش بینی شده
74190
من به طور مستقیم درک می کنم که چرا این یک ایده وحشتناک است - شما فرض می کنید مدل شما درست است و سپس تعداد مشاهدات خود را افزایش می دهید که احتمالاً منجر به تناسب ضعیف با داده های آینده می شود. من نمی‌پرسم که آیا خاصیت ریاضی/آماری برای توصیف این موضوع وجود دارد، یا آیا مورد نادری وجود دارد که ممکن است آن‌قدر که من فکر می‌کنم کشنده نباشد؟
آیا همیشه بد است که مدل خود را برای گنجاندن داده های پیش بینی شده مجدداً آموزش دهید؟
73162
در حال تلاش برای تخمین اثر 2 دارو («دارو1»، «دارو2») بر احتمال افتادن بیمار («رویداد») هستم. بیماران می توانند بیش از یک بار زمین بخورند و می توانند داروها را در هر نقطه ای از آنها استفاده کنند یا از آنها خارج کنند. سوال من این است که چگونه داده ها باید با توجه به دوره زمانی (روزها) ساختار شوند، به ویژه اینکه آیا نیاز به همپوشانی بین روزها وجود دارد یا خیر. دو دلیل وجود دارد که من فکر می کنم ساختار من اشتباه است، اولی N به ظاهر نادرست است. من همچنین برخی از خطاها را دریافت می کنم که دوره زمانی یک روز است (یعنی time1=4، time2=4) و مطمئن نیستم که چگونه باید کدگذاری شوند. آیا زمان شروع ورودی های بعدی باید زمان توقف ورودی قبلی باشد؟ من آن را به هر دو روش امتحان کرده ام (با و بدون همپوشانی)، و در حالی که همپوشانی از شر هشدار خلاص می شود، «N» هنوز نادرست است. پیام هشدار: در Surv(time = c(0, 2, 7, 15, 20, 0, 18, 27, 32, 35, 39, 46, 53, : زمان توقف باید > زمان شروع باشد، NA ایجاد شد همین الان من داده‌ها را در جایی تنظیم کنید که ابتدای ورود بعدی، روز بعد باشد Drug1 Drug2 رویداد نمودار شماره 0 2 1 0 0 123 3 10 1 1 1 123 11 14 1 1 1 123 0 11 0 1 0 345 0 19 1 0 1 678 0 4 0 019 10 Patient 123 در شروع به روز 2 داروی 1 را مصرف می کردند، پس از آن، آنها داروی 2 را اضافه کردند. بیمار 345 11 روز بدون افتادن از داروی 2 استفاده کرد (سپس سانسور شد) و غیره. تخمین واقعی به این صورت است: S <- Srv(time=time1, time2=time2, event=event) cox.rms <- cph(S ~ Drug1 + Drug2 + cluster(ChartNo), surv=T) نگرانی اصلی من این است که n برای تحلیل من 2017 گزارش شده است ( تعداد ردیف‌ها در داده‌ها)، در حالی که من در واقع فقط «314» بیمار منحصر به فرد دارم. من مطمئن نیستم که آیا این طبیعی است یا نتیجه اشتباهی است که در طول مسیر انجام داده ام. > cox.rms$n وضعیت بدون رویداد 1884 133 همین امر هنگام استفاده از «coxph()» از بسته بقا نیز صادق است. n= 2017، تعداد رویدادها = 133 تعداد رویدادها صحیح است. به نظر می‌رسد این پست با «همپوشانی» که توضیح دادم تنظیم شده است، اما درباره «N» مطمئن نیستم، و به نظر نمی‌رسد که آنها براساس «ID» خوشه‌بندی شوند.
ساختار داده ها و تابع برای داده های رویداد مکرر با متغیرهای وابسته به زمان فراخوانی می کند
21976
من چندین ارگانیسم آزمایشی را در معرض سمی در غذا قرار می دهم. اگر دوز به اندازه کافی بالا باشد، آنها می میرند. من در حال بررسی تعداد کسانی هستم که بعد از یک روز مرده اند. به دلایل عملی، دوز دریافتی آنها مستقیماً تحت کنترل من نیست. من تصمیم گرفته ام اعدادی را که بعد از یک روز مرده اند به عنوان توزیع دوجمله ای، Bin(n,p) مدل کنم. برای اینکه بفهمم p برای مدل من چیست، آزمایشی را با 300 موجود زنده انجام دادم و تعداد آنها را که بعد از یک روز مرده بودند را شمردم. در آزمایش مورد علاقه، من آنها را در معرض یک تقویت کننده بالقوه اثرات سمی قرار داده ام. من می خواهم بدانم که آیا تعداد بیشتری از ارگانیسم ها مرده اند یا خیر. برای یک نتیجه خاص m، من به راحتی می توانم احتمال m یا بیشتر را محاسبه کنم. اگر این کمتر از 1٪ باشد، می پذیرم که تقویت کننده فرضی کار می کند، در غیر این صورت این فرضیه را که تقویت کننده فرضی تقویت کننده واقعی اثرات سمی است رد می کنم. من نمی دانم که آیا تحلیل من از تقویت کننده فرضی نیاز به در نظر گرفتن عدم قطعیت در مقدار p دارد. اگر چنین است، چگونه این کار را انجام دهم؟ (من با R خوب هستم و در صورت لزوم می‌توانم برنامه‌نویسی کنم.) به‌روزرسانی: فقط می‌خواهم تأکید کنم که فقط برایم مهم است که تقویت‌کننده من کار کند، یعنی ارگانیسم‌های بیشتری از آنچه انتظار دارم می‌میرند. هر پاسخی باید مواردی را که جانداران کمتر از حد انتظار می‌میرند حذف شود.
تأثیر عدم قطعیت در پارامتر یک مدل احتمال بر تصمیم گیری
74197
من دو توزیع فرکانس دارم. که هر کدام فرکانس یک رویداد هستند. من می خواهم این توزیع ها را مقایسه کنم و نتیجه بگیرم که این رویدادها و نتیجه گیری کنم که آیا این رویدادها از نظر آماری 1 رویداد هستند یا آنها دو رویداد متمایز هستند. اما به نظر می رسد اندازه این توزیع ها نقش مهمی در نتیجه گیری نهایی دارد. به این معنی که وقتی این رویدادها را با نگاه کردن به 1000 نقطه داده مقایسه می‌کنم، p-value از نظر آماری معنی‌دارتر است. یعنی دو توزیع دو توزیع مجزا هستند. با این حال، وقتی آن را به 100 نقطه داده محدود می‌کنم، آزمون من معنی‌دار کمتری نشان می‌دهد و می‌توانم نتیجه بگیرم که این 2 توزیع از 1 توزیع نمونه‌برداری شده‌اند. در اینجا سؤالات من وجود دارد: 1) چگونه می توانم با توجه به حجم نمونه، مقدار p را اصلاح کنم تا قوی باشد؟ 2) آیا Mann-Whitney آزمون آماری درستی برای این مورد است؟ اگر نه، آیا می توانید به من برای تست مناسب راهنمایی کنید؟
مقایسه توزیع فرکانس با استفاده از آزمون من ویتنی
21971
من معیارهای نابرابری درآمد (ضرایب جینی/هوور/تیل) را برای چندین جمعیت محاسبه کرده ام. من می دانم که می توانم ادعاهایی مانند این جمعیت دارای ضریب جینی بالاتری است، بنابراین توزیع آن در این متغیر نابرابرتر از این جمعیت دیگر است. اما آیا می توان ادعاهای قابل سنجش بیشتری داشت؟ به عنوان مثال، اینکه بگوییم «از آنجایی که ضریب جینی برای این جمعیت دو برابر است، متغیر هشت برابر نابرابر توزیع شده است؟» یا همچین چیزی؟ به روز رسانی داده ها داده های اقتصادی نیستند - این به تعداد نسبی مشارکت در یک پروژه داوطلبانه مربوط می شود. 5 مجموعه داده وجود دارد که هر کدام 10000 ردیف دارند. هر ردیف مربوط به یک کاربر اینترنتی است که یک یا چند کار را برای مشارکت در آن پروژه انجام داده است. برخی فقط یک بار انجام دادند، برخی هزاران. سوال این است: از بین این پنج پروژه، کدام یک به گونه ای هستند که یک گروه هسته کوچک هر کدام وظایف زیادی را انجام داده اند، و کدام یک به گونه ای هستند که افراد زیادی هر کدام چند کار را انجام داده اند تا به کل جمع شوند؟ به روز رسانی بیشتر اگر بیشتر به این موضوع فکر کنید، شاید ضریب جینی اطلاعات کافی برای انجام این نوع مقایسه را نداشته باشد. شاید لازم باشد با استفاده از چیزی شبیه آزمون K-S، توزیع های واقعی متغیر را در بین اعضای جمعیت مقایسه کنم؟
آیا می توان با استفاده از معیارهای نابرابری درآمد مقایسه های کمی انجام داد؟
60947
من مطمئن نیستم که با این پسماندهای رگرسیون چه کنم. ![تشخیص رگرسیون](http://i.stack.imgur.com/hXxz4.jpg) نمودار نرمال Q-Q نشان می دهد که باقیمانده ها غیر طبیعی هستند (نه خیلی شدید) و واریانس باقیمانده ثابت نیست (خیلی بد نیست) . متغیرهای ورودی من متغیرهای فاکتور هستند، بنابراین من قادر به عادی سازی آن نیستم. بچه ها نظرتون در مورد این طرح چیه؟ آیا باید به این توطئه ادامه بدهم و بگویم که فرضیات نقض نمی شود و ادامه یابد؟ در واقع، من فکر می کنم مفروضات اندکی نقض می شوند، اما نه به شدت. اگر فکر کنم مفروضات نقض شده اند، چه باید بکنم؟
نقض مفروضات برای رگرسیون
60946
من می خواهم یک آزمون t را در R انجام دهم. متأسفانه، آمار هرگز بهترین موضوع من نبوده است، بنابراین نمی دانم خروجی t.test در `R` دقیقاً به چه معناست. برای هدف آزمایش، آزمون t را روی دو بردار توزیع شده نرمال با پارامترهای مساوی انجام دادم. از آنجایی که هر دو توزیع پارامترهای یکسانی دارند، تفاوت واریانس 0 است: t.test(rnorm(1e7,mean=0,sd=1),rnorm(1e7,mean=0,sd=1),mu=0) داده های آزمون t نمونه Welch Two: rnorm(1e+07، میانگین = 0، sd = 1) و rnorm(1e+07، میانگین = 0، sd = 1) t = 0.5014، df = 2e+07، p-value = 0.6161 فرضیه جایگزین: تفاوت واقعی در میانگین برابر با 0 95 درصد فاصله اطمینان نیست: -0.000652202 0.001100571 0.001100571 تخمین نمونه: میانگین 6066 x6. -04 5.950136e-05 این بدیهی است که t آزمون t را به من می دهد. برای اینکه بتوانم با آن کار مفیدی انجام دهم، باید فرضیه ای را تدوین کنم که باید آزمایش شود. 1. چگونه / از کجا (از نظر R) یک فرضیه را تدوین کنم؟ 2. چگونه بفهمم که فرضیه من قابل توجه است؟ ایده من این بود: یک فرضیه جالب در مورد دو بردار داده ممکن است این باشد: $$ H_{0}: \mu_{X}-\mu_{Y} = w $$ در مقابل $$ H_{1}: \mu_{X} -\mu_{Y} \neq w $$ که در آن $\mu_{X}، \mu_{Y}$ مقادیر میانگین انحراف اساسی $X,Y$ هستند. از آنجایی که اینها ممکن است با میانگین بردارهای داده شده متفاوت باشند، باید از «t» استفاده کنم تا $H_{0}$ ($H_{1}$) را بپذیرم یا رد کنم (تا اینجا درست است؟). با نگاهی به ویکی‌پدیا، اگر $|t|، $H_{0}$ رد می‌شود > t(1-\frac{1}{2}\alpha, m+n-2)$ که در آن $\alpha = 0.05$ (پارامتر استاندارد «t.test» در «R») و $df=m+ n-2 دلار. در این مورد t(..،..) یک جدول غول پیکر است که می توانم مقدار مربوطه را جستجو کنم. 1. این مقدار را در «R» از کجا می‌توانم دریافت کنم و در چه نقطه‌ای، $w$ برای $H_{0}، H_{1}$ مشخص می‌شود؟
نحوه انجام T-Test در R شامل فرضیه
52850
متغیر دوگانه ای که می خواهم برای یک همبستگی نقطه ای-دو سریالی استفاده کنم nهای بسیار نابرابر دارد ($n_1=140$، $n_2=6$). آیا این نقض قوانین است؟ این چه معنایی برای نتایج من خواهد داشت؟ آیا این فقط قدرت آماری را محدود می کند؟
همبستگی نقطه‌ای-دوسری با گروه‌های نابرابر در متغیر دوگانه
60948
من در حال کار بر روی یک نرم افزار برای تشخیص نظرات در متن هستم. به عنوان یک مثال ساده، می‌خواهم الگوریتم من به من بگوید که آندریا نظر مثبت **`+1`** (به جای خنثی **`0`** یا منفی **`-1`**) دارد. نیویورک وقتی جمله زیر را وارد می کنم: > **Andrea عاشق نیویورک است.** اکنون من صدها میلیون فایل متنی بدون ساختار با جملاتی مانند این یا بسیار پیچیده تر دارم، بنابراین گزینه ای برای تجزیه و تحلیل آنها نیست. جملات توسط دست از این رو، قطعه نرم افزار. اما من روش های متفاوتی دارم، بر اساس مقالات مختلف، یا بر اساس تجربه خودم در مورد نظر کاوی. روش_الف روش_ب روش_ج برچسب زده شده_با_دست(n) مثبت 20% 30% 50% 30% خنثی 80% 30% 0% 20% منفی 0% 40% 50% 50% حجم نمونه n = 100 من می خواهم بدانم چگونه **ارزیابی کنم کیفیت یک الگوریتم معین **. من هیچ توزیع، هیچ مدل آماری ندارم که بتوانم آن را درست فرض کنم، بنابراین آنچه در اینجا یا آنجا در مورد AIC و BIC و روش‌های دیگر می‌خوانم خیلی مفصل به نظر می‌رسند (ممکن است اشتباه می‌کنم، اما هیچ متغیر _متداولی_ برای آن ندارم. برای مقایسه مدل های من با یکدیگر استفاده کنید). بنابراین سؤالات من: 1. چند نمونه را باید با دست برچسب بزنم تا به کیفیت معینی برای آزمون ارزیابی خود برسم؟ 2. کدام معیارها معمولاً برای یک کار مقایسه ای ساده مانند این استفاده می شوند؟ دقت و یادآوری؟
اندازه گیری کیفیت الگوریتم نظر کاوی
56578
از پایگاه داده اکوکاردیوگرافی در یک مرکز مراقبت های عالی، 1625 نفر (میانگین سنی 44 6 14 سال؛ 47٪ مرد) با یافته های اکوکاردیوگرافی طبیعی بین سال های 2000 و 2009 شناسایی شدند. تفاوت های جنسیتی و ارتباط با سطح بدن به صورت گذشته نگر برای ابعاد محور بلند و محور کوتاه دهلیز راست، بعد محور کوتاه بطن راست، ناحیه بطن راست انتهای دیاستولیک و انتهای سیستولیک، تغییر ناحیه کسری بطن راست، و سفر سیستولیک صفحه حلقوی سه لتی. تأثیر مقادیر طبیعی طبقه بندی شده برای جنسیت و سطح بدن در 24 بیمار با نقایص سپتوم دهلیزی با اندازه متوسط ​​تا بزرگ مورد آزمایش قرار گرفت.
آیا این یک مطالعه مورد شاهدی است یا یک مطالعه کوهورت گذشته نگر؟
73165
من یک مدل رگرسیون لجستیک دارم (برازش از طریق glmnet در R با منظم‌سازی خالص الاستیک)، و می‌خواهم تفاوت بین مثبت‌های واقعی و مثبت کاذب را به حداکثر برسانم. برای انجام این کار، روش زیر به ذهن متبادر شد: 1. برازش مدل رگرسیون لجستیک استاندارد 2. با استفاده از آستانه پیش‌بینی 0.5، همه پیش‌بینی‌های مثبت را شناسایی کنید. مدل رگرسیون لجستیک چه اشکالی در این رویکرد وجود دارد؟ راه درست برای ادامه این مشکل چیست؟ دلیل اینکه می خواهم تفاوت بین تعداد مثبت واقعی و منفی کاذب را به حداکثر برسانم به دلیل طراحی برنامه من است. به عنوان بخشی از یک پروژه کلاسی، من در حال ساخت یک شرکت‌کننده مستقل در یک بازار آنلاین هستم - اگر مدل من پیش‌بینی کند که می‌تواند چیزی را بخرد و بعداً آن را با قیمت بالاتر بفروشد، پیشنهاد می‌دهد. من می‌خواهم به رگرسیون لجستیک و نتایج باینری خروجی (برد، باخت) بر اساس هزینه‌های ثابت و افزایش قیمت واحد پایبند باشم (من در هر تراکنش به همان میزان سود می‌برم یا از دست می‌دهم). مثبت کاذب به من صدمه می زند زیرا به این معنی است که من چیزی می خرم و نمی توانم آن را به قیمت بالاتر بفروشم. با این حال، منفی کاذب به من صدمه نمی زند (فقط از نظر هزینه فرصت) زیرا فقط به این معنی است که اگر نمی خریدم، اما اگر می خریدم، درآمد کسب می کردم. به طور مشابه، یک مثبت واقعی به من سود می رساند، زیرا من خریدم و سپس به قیمت بالاتری می فروشم، اما منفی واقعی برای من سودی ندارد، زیرا هیچ اقدامی انجام ندادم. من موافقم که برش 0.5 کاملاً دلخواه است، و وقتی مدل را از مرحله 1 در آستانه پیش‌بینی بهینه کردم که بیشترین تفاوت را بین مثبت‌های درست/کاذب به دست می‌دهد، معلوم می‌شود که به 0.4 نزدیک‌تر است. من فکر می کنم این به دلیل ماهیت کج داده من است - نسبت بین منفی و مثبت حدود 1:3 است. در حال حاضر، من مراحل زیر را دنبال می‌کنم: 1. تقسیم داده‌ها به آموزش/آزمون، 2. برازش مدل در تمرین، پیش‌بینی در مجموعه تست و محاسبه تفاوت بین مثبت‌های درست/کاذب، 3. برازش مدل در حالت کامل، پیش‌بینی در مجموعه تست و تفاوت بین مثبت/کاذب مثبت را محاسبه کنید، علیرغم اینکه مجموعه آموزشی زیرمجموعه ای از مجموعه کامل است، تفاوت بین مثبت/کاذب مثبت در مرحله #3 نسبت به مرحله #2 کوچکتر است. از آنجایی که من اهمیتی نمی‌دهم که مدل شماره 3 دارای منفی‌های واقعی بیشتر و منفی‌های کاذب کمتری باشد، آیا کاری وجود دارد که بتوانم بدون تغییر تابع احتمال انجام دهم؟
رگرسیون لجستیک: به حداکثر رساندن مثبت واقعی - مثبت کاذب
74198
سلام من باید ثابت کنم که $X^T$e = 0 جایی که e باقیمانده در مدل رگرسیون خطی چندگانه در جبر ماتریسی است؟ در مورد نحوه انجام آن به راهنمایی نیاز دارید... آیا پی دی اف خوبی برای اثبات مدل رگرسیون خطی چندگانه برای ماتریس الگبرا وجود دارد؟
چگونه ثابت کنیم که $X^T$e = 0 است
110458
خوب، اجازه دهید به شما بگویم که این اولین بار است که در مورد سوال زیر نظری ندارم. من نمی توانم راه حلی پیدا کنم یا چیزی که مرا به سمت آن سوق دهد. این را می گویم تا از کامنت های «چه کردی؟» جلوگیری کنم. پیشاپیش عذرخواهی میکنم این یکی از سوالات کتاب آمار بیزی پیتر ام. لی است: کتاب مقدمه، بخش تمرینات فصل 3 است. از توزیع فون میزس).
قبل از توزیع فون میزس
74628
من تجزیه و تحلیل اثرات دو درمان دارویی را در یک دوره زمانی بر تعداد سلول های CD4 تعدادی از بیماران کامل کرده ام. من جذر تعداد CD4 اولیه را به عنوان متغیر کمکی در نظر گرفته ام و یک اندازه گیری خلاصه از شیب ها برای هر بیمار گرفته ام. مدل من به صورت زیر است: > slopes.aov <- aov(individual.slope.trans[-29] ~ sqrt(initialCD4)[-29] + treat.fac[-29]) > summary(slopes.aov) Df Sum Sq Mean Sq F مقدار Pr(>F) sqrt(CD4 اولیه)[-29] 1 0.0060 0.006027 0.990 0.322 treat.fac[-29] 1 0.0082 0.008184 1.344 0.249 Residuals 109 0.6638 0.006090 من کاملاً در تجزیه و تحلیل داده ها برای تفسیر مدل کاملاً جدید هستم؟ آیا هنوز هم می توانم از ضرایب رگرسیون برای توصیف اندازه گیری خلاصه خود استفاده کنم، حتی اگر هیچ معناداری نداریم. من واقعا با این مشکل دارم. همچنین چگونه می توانیم اثر متغیر کمکی را توصیف کنیم؟ من می‌دانم که شواهدی ندارم که نشان دهد درمان‌ها روی «شیب‌ها» (معیار خلاصه من) تأثیر دارند و بنابراین مدرکی ندارم که بگویم یک درمان بهتر از دیگری عمل می‌کند.
تفسیر خروجی آنووا با عدم معناداری
56392
من در شرف انجام دو تجزیه و تحلیل اجزای اصلی (PCA) بر روی داده های فراوانی گونه ها و داده های ترکیب گونه هستم. من حدود 12 مکان مختلف دارم که در آن داده های فراوانی برای بیش از 50 گونه بی مهرگان جمع آوری شده است. نرم افزاری که من از آن استفاده می کنم دارای گزینه ای برای ثبت تبدیل و مقیاس داده ها قبل از تجزیه و تحلیل است. سوال من این است که بدون صرف زمان زیاد برای بررسی داده ها، آیا این یک رویکرد نسبتاً رایج است که هم برای ثبت تبدیل و هم استانداردسازی داده ها قبل از تجزیه و تحلیل PCA انجام شود؟ یا بهتر است داده ها را به حال خود رها کنید و PCA را اجرا کنید؟
PCA روی داده‌های تبدیل‌شده گزارش
25490
من می خواهم اثرات منحصر به فرد هر متغیر را در یک مدل خطی تخمین بزنم، اما مطمئن نیستم که آیا آنها را به درستی محاسبه می کنم. من از مدلی استفاده می‌کنم که با استفاده از هر یک از متغیرها در داده‌هایم به‌علاوه یک تعامل باینری با هر متغیر، به عنوان مثال. «y ~ x + x:z» که در آن x یک بردار است و z دو عاملی است که در x وجود دارد. انجام این کار در R من معتقدم که یک عامل دو سطحی به سادگی c(0,1) است. با توجه به آنچه که می توانم اثرات فردی متغیرها را برای هر مورد از جمله تعامل دودویی محاسبه کنم به شرح زیر است: * هنگامی که جمله تعامل 0 است، اثر متغیر x بر y ضریب مدل تخمین زده شده برای x * زمانی است که تعامل عبارت 1 است، اثر متغیر x بر y ضریب مدل تخمین زده شده برای x به اضافه ضریب برای مدت تعامل x:z است با فرض اینکه این درست باشد، من همچنین می خواهم محاسبه کنم خطاهای استاندارد مرتبط با هر اثر. من به این سوال نگاه کردم که بیان می‌کند که خطاهای استاندارد مرتبط را می‌توان به صورت زیر محاسبه کرد. با این حال، این خطاهای استاندارد بسیار کوچکتری را در مقایسه با اثرات اصطلاح غیرتعامل ایجاد می کند. این باعث می شود که تصور کنم کار اشتباهی انجام می دهم. آیا می توانید روش صحیح تخمین این اثرات را به من بگویید؟
چگونه اثرات متغیر مدل خطی را به درستی محاسبه کنیم؟
56397
اگر این سوال بی اهمیت به نظر می رسد پیشاپیش عذرخواهی می کنم -- من یک زیست شناس هستم و تجربه کمی در آمار دارم. من شش توزیع غیرطبیعی دارم (آنها دارای انحراف مثبت هستند): سه مورد تکرار از یک درمان دارویی و سه مورد تکرار یک کنترل درمان نشده هستند. من می‌خواهم تعیین کنم که آیا توزیع‌های نمونه تحت درمان با دارو تفاوت قابل‌توجهی با توزیع‌های شاهد دارد یا خیر. اگر من فقط یک تکرار درمان شده و شاهد داشتم، آزمایش Mann-Whitney U را انجام می دادم تا مشخص شود که آیا آنها متفاوت هستند یا خیر. سردرگمی من در نحوه برخورد مناسب با تکرارها نهفته است (مثلاً آیا آنها را جمع آوری کنم؟). ممنون از وقتی که گذاشتید
مقایسه مجموعه‌های توزیع‌های غیرعادی
80718
با تشکر از هر کسی که می تواند کمک کند! من یک نظرسنجی با سوالات در مقیاس لیکرت با حدود 1500 شرکت کننده انجام داده ام. تجزیه و تحلیل اولیه در SPSS هیچ گونه پرت را نشان نداد (با استفاده از نمودار جعبه) اما امتیازات به طور معمول برای هیچ یک از عوامل توزیع نشد، همانطور که توسط آزمون Shapiro-Wilk ارزیابی شد (p <.001). از آنجایی که متغیر مستقل دارای 5 گروه بود، من یک آزمون H Kruskal-Wallis را انجام دادم که نتایج قابل توجهی برای متغیرهای آزمایش شده یافتم (001/0p< برای اکثر)، اما بازرسی از نمودارهای جعبه‌ای که این نتایج جدید را همراهی می‌کنند نیز نشان داد که او به توزیع ها مشابه نیستند (یعنی میانه ها گاهی اوقات بالاتر یا کمتر از سایر متغیرهای مقایسه شده و غیره بودند). سوال من: آیا این یک نقص جدی است؟ آیا می توانم از این نتایج استفاده کنم؟ اگر چنین است، آیا باید اشاره کنم که حداقل در یک متغیر مستقل، گروه ها توزیع های غیر عادی را نشان می دهند؟ با تشکر
توزیع غیر نرمال حتی با آزمون کروسکال والیس
21970
1) آیا اجرای آزمون Mann-Whitney U در حجم نمونه نابرابر یعنی دو گروه (N=11، N=12) اشکالی ندارد یا آزمون جایگزینی وجود دارد؟ 2) وقتی یک مقدار صفر را برای آزمون من ویتنی U بدست می آورد به چه معناست (با توجه به اینکه قبلاً مقادیر صفر را با اندازه نمونه برابر به دست آوردم) رتبه ها **سایت N میانگین رتبه مجموع رتبه ها** 1 12 18.50 222.00 3 12 6.50 78.00 **مجموع 24** **آمار تست** Mann-Whitney U .000 Wilcoxon W 78.000 Z -4.157 Asymp. سیگ (2-tailed) .000 Exact Sig. [2*(1-tailed Sig.)] 000b Sig دقیق. (2-tailed) .000 Exact Sig. (1-tailed) 0.000 Point Probability 0.000 a متغیر گروه بندی: سایت b برای پیوندها اصلاح نشده است.
چرا یک مقدار U 0000 Mann-Whitney (نه p-value) و غیره می گیرد؟
110459
من یک مدل پیش بینی با عملکرد خوب دارم و سعی می کنم آن را با مهندسی ویژگی بهبود بخشم. سوال من: آیا ایجاد ویژگی های جدید با مشاهده روندها در مجموعه آموزشی معتبر است؟ به عنوان مثال، متوجه شدم که متریکی که می‌خواهم پیش‌بینی کنم در ماه‌های دسامبر، ژانویه و فوریه بالاتر است. آیا منطقی است که ویژگی‌ای را در آن ماه‌ها «1» و برای ماه‌های دیگر «0» قرار دهیم؟ با تشکر
شامل مهندسی از روندها در مجموعه آموزشی
26219
من می خواهم یک مجموعه داده گاوسی دو متغیره ایجاد کنم. مجموعه داده شامل مجموعاً 800 نتیجه است که به طور تصادفی از چهار کلاس گاوسی دو بعدی با میانگین های $(-3,0)'$, $(0,0)'$, $(3,0)'$ و $( 6,0)'$، همه با ماتریس واریانس کوواریانس یکسان $$\Sigma = \pmatrix{0.5 & 0.05 \\\ 0.05 &0.5}.$$ چگونه می توانم این کار را در متلب انجام دهم؟ من متخصص متلب نیستم.
ایجاد مجموعه داده گاوسی در متلب
4918
ورودی یک دسته از اعداد است. چگونه می توانم آستانه ای را محاسبه کنم که 10٪ از کل تعداد اعداد بالاتر از این آستانه هستند. فکر می‌کنم این به همان اندازه برای محاسبه تابع توزیع است، اما چیزی که من نیاز دارم عدد آستانه است، نه عدد
چگونه داده های مورد نیاز را بدست آوریم؟
47708
من احساس خوبی نسبت به انواع داده هایی دارم که با اکثر نقشه های رنگی مطابقت دارند. اما نمی‌دانم چه نوع داده‌هایی می‌خواهند از انواع نقشه‌های رنگی زیر استفاده کنند: پرچم: ![پرچم‌گذاری در <code>matplotlib</code>](http://i.stack.imgur.com/T3uMo .jpg) منشور: ![Prism in <code>matplotlib</code>](http://i.stack.imgur.com/yZ0zA.jpg) منبع: http://dept.astro.lsa.umich.edu/~msshin/science/code/matplotlib_cm/ من هیچ استفاده ای از آنها نمی بینم جز به عنوان یک الگوی پر. چه نوع داده هایی از این نوع نقشه های رنگی سود می برند؟ و آیا این نوع نقشه نام خاصی دارد؟
چه نوع داده ای با این نقشه های رنگی تجسم می شود؟
60943
برای ایجاد یک آزمون تطبیقی ​​رایانه‌ای از نمونه‌ای از 20 مورد دوگانه، یک اقدام معمولی این است: 1) کالیبره کردن داده‌های پاسخ‌دهنده با یک بسته R مانند mirt یا ltm با استفاده از Rasch، 2PL و غیره. 2) ایجاد یک بانک آیتم بر اساس به‌دست‌آمده پارامترهای مورد با استفاده از catR سپس، برای هر آیتم/آزمون گرفته شده: 3) از تابع و روش nextItem catR استفاده کنید (به عنوان مثال. MFI) برای انتخاب مورد بعدی بر اساس موارد و پاسخ های قبلی 4) یک قانون توقف را انتخاب کنید، به عنوان مثال. توقف اگر SEM < 0.2. 5) استفاده از آخرین تتا و SEM به عنوان نتایج تست با این حال، در مورد آیتم های چند بعدی و تست های چند بعدی، من کمی گیج هستم. برای یک CAT چند بعدی و چند بعدی، به عنوان مثال. 100 مورد (5 مقیاس) یک آزمون شخصیت با مقیاس 5 امتیازی لیکرت، منطق آزمون، پارامترهای آیتم (GRM/GPCM) و انتخاب آیتم بسیار متفاوت است. سوال خاص: آیا یک نسخه چندتومی از تابع nextItem catR موجود است؟ سوال گسترده‌تر: چه روش‌ها/بسته‌ها/مراحلی را برای ساختن یک گربه چند تومی با MIRT توصیه می‌کنید؟
چگونه مورد بعدی را در CAT / MIRT چندتومی انتخاب کنیم؟
56399
به نظر نمی رسد پاسخ قطعی برای سوالم پیدا کنم. داده های من شامل چندین نمودار با میانگین اندازه گیری شده از 0.27 تا 0.57 است. در مورد من، همه مقادیر داده‌ها مثبت هستند، اما خود اندازه‌گیری بر اساس نسبتی از مقادیر بازتاب است که می‌تواند از 1- تا 1+ باشد. توطئه ها مقادیر NDVI را نشان می دهند، یک شاخص از راه دور مشتق شده از بهره وری پوشش گیاهی. قصد من مقایسه تغییرپذیری مقادیر در هر نمودار بود، اما از آنجایی که هر نمودار میانگین متفاوتی دارد، من استفاده از CV را برای سنجش پراکندگی نسبی مقادیر NDVI در هر نمودار انتخاب کردم. از آنجایی که من متوجه شدم، گرفتن رزومه از این پلات ها خوب نیست زیرا هر طرح می تواند هم ارزش مثبت و هم ارزش منفی داشته باشد. چرا استفاده از CV در چنین مواردی مناسب نیست؟ چند گزینه جایگزین چه خواهد بود؟
چرا هنگام استفاده از داده هایی با مقادیر مثبت و منفی، ضریب تغییرات معتبر نیست؟
26214
بسیار جدید برای R و stackexchange. عذرخواهی می کنم اگر اشتباهی انجام دادم من با داده های تولد کارولینای شمالی از irss.unc.edu کار می کنم. من یک قاب داده NCBIRTH1450 با چندین لیست دارم که همه آنها دارای مقادیر عددی یا NA هستند. من فقط سعی می کنم برخی نسبت ها را از روی داده ها محاسبه کنم. برای یکی از لیست‌ها، من می‌توانم نسبت نوزادان پسر را با استفاده از pBoyBaby <- sum(SEX==1)/sum(!is.na(SEX)) بدست بیاورم. . هدف من این است که تعداد مقادیر منطبق را بردارم و بر تعداد مقادیری که از دست نمی‌روند تقسیم کنیم و نتیجه مناسبی به دست می‌آورم. با این حال، وقتی من همان تابع را روی ستون دیگری از همان نوع امتحان می‌کنم، pMomSmokes <- sum(SMOKE==1)/sum(!is.na(SMOKE)) شی «pMomSmokes» مقدار «NA» را می‌گیرد. برای مثال، چگونه می توانم تفاوت بین ماهیت «دود» و «سکس» را شناسایی کنم که این اختلاف را توضیح می دهد؟ واقعا نمی دانم چرا این کار را می کند. در صورت مرتبط بودن، «SEX» دارای مقادیر «1» یا «2» می باشد. NA با تشکر
نتایج ناسازگار ناشی از تلاش برای شمارش مقادیر منطبق در لیست‌های درون فریم‌های داده در R
26041
من یک مجموعه داده جریانی دارم، نمونه‌هایی در یک زمان در دسترس هستند. من باید طبقه بندی چند کلاسه را روی آنها انجام دهم. به محض اینکه یک مثال آموزشی را به فرآیند یادگیری دادم، باید آن مثال را کنار بگذارم. به طور همزمان، من از آخرین مدل برای انجام پیش‌بینی روی داده‌های بدون برچسب نیز استفاده می‌کنم. تا آنجا که من می دانم، یک شبکه عصبی می تواند با تغذیه مثال ها در یک زمان و انجام انتشار به جلو و انتشار به عقب بر روی مثال، یادگیری جریانی را انجام دهد. آیا یک SVM می تواند یک مثال را به صورت جریانی آموزش دهد و بلافاصله آن مثال را کنار بگذارد؟
آیا SVM می تواند یادگیری را در یک زمان به صورت جریانی انجام دهد؟
99817
من سه سوال کلی دارم که واقعاً برای پاسخ دادن به آنها مشکل دارم: الف) وقتی داده‌های تودرتو داریم (مثلاً کارمندانی که در بخش‌هایی تودرتو هستند که در شرکت‌هایی که در مناطق جغرافیایی خاص هستند) چگونه روش‌های داده کاوی با تودرتو تنظیم می‌شوند؟ ب) آیا روش‌های داده کاوی به دلیل هدفشان (یعنی تحلیل پیش‌بینی‌کننده) نسبت به داده‌های تودرتو «ایمن» هستند؟ ج) آیا می توانیم قبل از اجرای تحلیل چندسطحی از روش های داده کاوی (مانند شبکه های عصبی، جنگل های تصادفی) به عنوان پیش ساز انتخاب متغیر استفاده کنیم؟ اگر جهت گیری های کلی این سوالات برای شما ناخوشایند است، عذرخواهی من را بپذیرید. از کمک شما بسیار سپاسگزارم. منتظر دریافت نظرات حکیمانه شما هستم.
روش های داده کاوی با داده های تودرتو
2125
به طور خاص، من به ضریب همبستگی محصول- لحظه پیرسون اشاره می کنم.
تفاوت بین همبستگی و رگرسیون خطی ساده چیست؟
25495
![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/AwHU7.png) من باید تعدادی شاخص برای ارزیابی زمان واکنش اضطراری برای یک آتش نشانی ترسیم کنم. در مورد ما، بیشتر مقادیر باید حدود 2 دقیقه باشد، اما محدوده می تواند بین 0 تا 10 دقیقه باشد. من با نمودارهای میله ای (و نمودارهای گلوله ای Few) کار کرده ام، با این حال، از آنجایی که نمودارهای میله ای روی مقایسه طول ها کار می کنند، و مقادیر هدف ما کوتاه تر هستند (حدود 20٪ از طول کل بالقوه میله)، من کنجکاو هستم که آیا وجود دارد راه بهتری برای ترسیم این مقادیر من در نظر گرفته ام که نمودار مقدار معکوس (نوار 8 دقیقه است، به جای 2)، اما به نظر می رسد که خواندن آن غیر شهودی است. هر کمکی قابل تقدیر است. من سعی می‌کنم محدوده را در زمان حضور برای هر واحد (نوار آبی، حداقل تا حداکثر) نشان دهم که در محدوده‌های عالی، متوسط ​​و ضعیف (پس‌زمینه خاکستری) قرار گرفته است. من در حال کار بر روی اضافه کردن یک نشانگر برای صدک 90 هستم (استاندارد ما، اما هنوز روی نمودار نیست). مشکل من این است که با بهبود عملکرد، کاهش زمان ها و در نتیجه کاهش طول میله برای مقایسه استفاده می شود. من سعی می کنم تعیین کنم که آیا راه بهتری برای علامت گذاری شاخص های عملکرد آنها وجود دارد، زیرا عدد کمتر بهتر است (در مقابل چیزی مانند سود، جایی که بزرگتر بهتر است). با عرض پوزش، به من اجازه نمی دهد تصویری را برای نشان دادن شما پست کنم، اما یک نمودار میله ای پایه را با محور x به عنوان زمان و محور y در نظر بگیرید. زیر هر نوار نشانگرهایی برای 3 سطح عملکرد وجود دارد و یک نشانگر منفرد برای هر نوار اعمال می شود که صدک 90 را نشان می دهد. امیدوارم که کمک کند. تونستم یه عکس از نمودار آپلود کنم. با بهبود مقادیر، کوچک‌تر می‌شوند و به لبه سمت چپ میله‌ها نزدیک‌تر می‌شوند و در صورت کاهش دامنه، میله‌ها کوچک می‌شوند. من فقط می‌خواهم مطمئن شوم که تا حد امکان اطلاعات بصری وجود دارد تا نقاط داده خوانا باشند.
روش پیشنهادی برای ترسیم مقادیر کم چیست؟
3708
من یک مجموعه داده از 100 منطقه جغرافیایی دارم که نرخ بیکاری در 9 سال گذشته برای آنها مشاهده شده است. اکنون، من می‌خواهم از این داده‌ها نرخ بیکاری سال آینده را برای تمام 100 منطقه شبیه‌سازی/پیش‌بینی کنم. چه رویکردی مناسب خواهد بود؟ من به این فکر می کردم که از یک مدل اثر ترکیبی رگرسیون خودکار استفاده کنم، اما می ترسم که داده های کافی ندارم... با احترام
پیش بینی نرخ بیکاری
3702
من تازه وارد هستم و در حال تلاش برای تجزیه و تحلیل داده های عملکردی هستم. من یک داده ماتریس 8x11 دارم، چگونه می توانم در R به عنوان یک شی به این شکل وارد کنم: $hgtm boy01 boy02 boy03 boy04 boy05 1 81.3 76.2 76.8 74.1 74.2 1.25 84.2 80.4 79.8.367. 83.2 82.6 82.6 78.3 1.75 88.9 85.4 84.7 85.4 80.3 2 91.4 87.6 86.7 88.1 82.2 3 101.1 97.0 94.29 94.2 104.6 100.4 104.4 96.9 5 115.8 112.3 107.1 111.0 104.1 $hgtf girl01 girl02 girl03 girl04 girl05 1 76.2 74.6 78.2 107.1 78.2 717. 81.8 80.5 80 1.5 83.3 82.0 85.4 83.3 83 1.75 85.7 86.9 87.9 87.0 86 2 87.7 90.0 89.6 90.3 89.6 89.9 89.9 4 103.8 102.1 109.2 106.3 103 5 110.7 109.2 116.2 113.9 110 $age [1] 1.00 1.25 1.50 1.75 2.00 3054، بسیار قدردانی شده است.
دستکاری داده ها در R برای تجزیه و تحلیل داده های عملکردی
3707
من نتایج استاندارد شده را در زیر رسم کردم: * RAND() * RAND() * RAND() * ... * RAND() * RAND() * RAND() * RAND() * RAND() * RAND() به نظر می رسد اینکه نتایج به صفر می رسد، آیا به این دلیل است که شما در حال ضرب کردن یک سری اعداد نزدیک به صفر در یکدیگر هستید یا توضیح دیگری وجود دارد؟ ![متن جایگزین](http://i.stack.imgur.com/5asaM.jpg) **ویرایش** هیچ انگیزه واقعی پشت این نیست. اوایل امروز در حال کار بر روی یک صفحه گسترده، در موقعیتی قرار گرفتم که یک ثابت * Rand() * Rand() را ضرب می کردم. اگر یک دسته از اعداد تصادفی را با هم ضرب کنید.
تفاوت بین RAND()، RAND()*RAND() و غیره اکسل
88263
من می خواهم یک رگرسیون خطی انجام دهم. با این حال، متغیرهای پیش‌بینی‌کننده خانواده‌هایی از متغیرها هستند که با زمان نمایه‌سازی می‌شوند. فرض کنید مشکل رگرسیون این است: هدف ~ x(1)+x(2)+...+x(40)+y(1)+...+y(40) و x(t) و y را تصور کنید (t) اندازه گیری در 40 سال متوالی است. بنابراین متغیرهای درون خانواده‌های x(t)، y(t) بسیار هم خطی هستند. راه معمول برای مقابله با این مشکل انتخاب متغیر خواهد بود. با این حال، در مسئله مورد نظر، بسیار مطلوب است که ضرایب x(t) پاسخ دهند. متغیرهای y(t) به آرامی در زمان انتخاب می شوند، بنابراین تنظیم برخی از آنها روی 0 انتخاب خوبی نیست. ایده من این بود که هر 5 سال ضرایب خانواده های متغیر را به عنوان مقادیر اسپلاین جریمه شده با گره انتخاب کنم. آیا راهی برای انجام این کار در R وجود دارد؟ یا راه دیگری برای صاف کردن ضرایب بدون استفاده از اسپلاین وجود دارد؟
برخورد با چند خطی با هموارسازی ضرایب؟
82103
من در حال گذراندن دوره آموزشی یاسر ابومصطفی از داده ها هستم و برای رفع آلودگی داده ها مشکل دارم. بنابراین می‌دانیم که مواردی مانند تحلیل VC می‌تواند به ما تضمین دهد که فرضیه‌های یک مجموعه $\mathcal{H}$ تعمیم می‌یابند، اما این نکته مطرح شد که $\mathcal{H}$ باید بدون بررسی داده‌ها انتخاب شود. به طور شهودی این کاملاً منطقی است. به عنوان مثال، اگر به داده‌های خود نگاه کنم، متوجه چند جمله‌ای مرتبه هفدهم تصادفی $p$ متناسب با آن می‌شوم، و $\mathcal{H} = \\{p\\}$ را انتخاب می‌کنم، حتی بدون چیزی، ضمانت‌های تعمیم بسیار قوی خواهیم داشت. بیشتر درگیر مانند آنالیز VC است. اما واضح است که این واقعاً تعمیم نمی یابد. من فقط تعجب می کنم که در کجای بحث برای تعمیم این اتفاق می افتد. به عنوان مثال، در کجای آرگومان های تحلیل VC فرض می کنیم که $\mathcal{H}$ بدون نگاه کردن به داده های ما انتخاب شده است؟
سوال فلسفی آلودگی داده ها
56398
من یک پرسشنامه دارم که حاوی چند سوال پرش است. مثلاً سؤال سوم یک سؤال از نوع بله / خیر است. فقط از کسانی که به سوال سوم پاسخ مثبت داده اند درخواست می شود به سوال چهارم، پنجم و ششم پاسخ دهند و از کسانی که پاسخ منفی داده اند از این سه سوال صرف نظر می کنند. متاسفم که هیچ تجربه ای در مورد نحوه اطلاع رسانی SPSS ندارم که مقادیر گم شده در متغیرهای مربوط به سوال چهارم، پنجم و ششم به دلیل پاسخ نه در سوال قبلی (سوم) است. لازم به ذکر است که برخی از پاسخ دهندگان حتی به سوال سوم پاسخ نداده اند و به این ترتیب پاسخ سوالات چهارم، پنجم و ششم به طور خودکار از دست می رود. بنابراین تمام مقادیر گم شده در این سه متغیر (مرتبط با سوال چهارم، پنجم و ششم) صرفاً به دلیل پاسخ نه در سوال قبل نیست. باید بدانم، اگر من نیاز به استفاده از انتساب چندگانه داشته باشم، چگونه می توانم از انتساب مقادیر از دست رفته به دلیل پاسخ نه اجتناب کنم. من چیزی در مورد مقادیر گمشده تعریف شده توسط کاربر دیده ام و ایده زیادی در مورد آن ندارم. کسی می تواند توضیح دهد که در مورد من چه باید کرد؟ من اساساً یک رگرسیون و بعداً اگر وقت داشته باشم، یک تحلیل عاملی با داده ها را امتحان خواهم کرد.
چگونه باید مقادیر از دست رفته را به دلیل رد شدن از سوالات در SPSS تعریف کنم؟
60941
سوال من این است: تفاوت بین واریانس یک پیش بینی فردی و واریانس یک پیش بینی میانگین چیست؟ من می دانم که این دو واریانس متفاوت هستند، اما چه عواقبی پیش بینی بر روی داده های پیش بینی شده دارد؟
تفاوت بین واریانس یک پیش بینی فردی و واریانس یک پیش بینی میانگین چیست؟
82102
امیدوارم این انجمن مناسبی برای ارسال این سوال باشد. من اخیرا نرم افزار R خود را از 2.15.0 به 3.0.2 ارتقا داده ام. همچنین بسته lme4 را از 0.999999-0 به 1.1-2 ارتقا دادم. پس از انجام این کار، نتایج یکی از تحلیل‌های مدل‌های مختلط خطی من کمی به‌طور غیرمنتظره تغییر کرده است. از برخی جهات، من انتظار تغییراتی را داشتم، زیرا توسعه دهندگان lme4 به وضوح بیان کردند که تغییرات قابل توجهی در برخی از اجزای اساسی در بسته ایجاد کرده اند. با این حال، تغییراتی که می بینم (در زیر توضیح داده شده است) باعث می شود فکر کنم چیز دیگری اشتباه است. من با توضیح طرح آزمایشی که کاملاً ساده است و سپس موضوع مورد بحث را توضیح خواهم داد. آزمایش من یک طرح اولیه با اندازه گیری های مکرر است. من از 24 مورد استفاده کردم که هر کدام در سه شرایط مختلف ظاهر شدند (SmallClause_Som، NoSmallClause، SmallClause_NoSom). سطوح شرایط در سه فهرست ارائه چرخانده شد به طوری که هر موضوع (مجموع 45، هر یک به یک لیست خاص اختصاص داده شده است) فقط یک سطح از هر مورد را مشاهده کرد. من از lmer() برای آنالیز استفاده کردم. شرط به عنوان جلوه ثابت و موضوع و آیتم به عنوان جلوه های تصادفی وارد شده است. مشکل: با استفاده از نسخه فعلی R 3.0.2 و lme4 1.1-2 با NoSmallClause به عنوان سطح مرجع (و بدون وزن دهی در هیچ یک از تضادها)، کنتراست ConditionSmallClause_Som/NoSmallClause مقدار t برابر با 1.680 را تولید می کند. اما، وقتی سطح مرجع را به SmallClause_Som تغییر می‌دهم (برای مشاهده کنتراست باقی‌مانده)، نه تنها تغییری در قطبیت اثر (به علاوه به منفی، همانطور که انتظار می‌رود) دریافت می‌کنم، بلکه مقادیر نیز تغییر می‌کنند. وقتی از R 2.15.0 و lme4 .999999-0 (در رایانه دیگری) استفاده می کنم، این مشکل را تجربه نمی کنم. مقادیر کمی متفاوت دریافت می کنم، اما با تغییر سطح مرجع، آنها (به غیر از قطبیت) تغییر نمی کنند. همکارم با استفاده از R 3.0.2 و یک نسخه lme4 (پیش نسخه 1.0) تحلیل من را برای من امتحان کرد (نمی دانم دقیقا کدام نسخه بود اما قبل از تغییرات عمده بود) و او نیز مشکل را تجربه نمی کند. خروجی R 2.15.0 lme4 1.1-2 (قدیمی‌تر): > #set ref level > test$Condition <- relevel(test$Condition, ref=NoSmallClause) > #مدل 4: شیب‌های تصادفی بر اساس موضوع و مورد > test.lmer4=lmer(رتبه ~شرط+(1+شرط|موضوع)+(1+شرط|مورد)،تست، REML=FALSE) > خلاصه(test.lmer4) مدل مختلط خطی متناسب با حداکثر احتمال فرمول: رتبه ~ شرط + (1 + شرط | موضوع) + (1 + شرط | مورد) داده: آزمون انحراف AIC BIC logLik REMLdev 3930 4010 -1949 3898 3902 اثرات تصادفی: نام گروه ها Variance Std.Dev. Corr Subject (Intercept) 0.98998765 0.994981 ConditionSmallClause_Som 0.00203374 0.045097 -1.000 ConditionSmallClause_NoSom 0.00019873 0.010 - 0.014 (Intercept) 0.96231875 0.980978 ConditionSmallClause_Som 0.89924400 0.948285 -0.020 ConditionSmallClause_NoSom 0.62128577 0.7832516 - Resual 1.68810777 1.299272 تعداد obs: 1080، گروه: موضوع، 45; آیتم، 24 اثرات ثابت: برآورد Std. مقدار خطای t (Intercept) 2.9583 0.2584 11.447 ConditionSmallClause_Som 0.3639 0.2165 1.680 ConditionSmallClause_NoSom 0.1472 0.1878 0.784 C CndtnSmlC_S -0.116 CndtnSmC_NS -0.260 0.392 > #set ref level > test$Condition <- relevel(test$Condition, ref=SmallClause_Som) > > #مدل 4: شیب های تصادفی بر اساس موضوع و آیتم > test.lmer4=lmer(رتبه ~شرط+(1+شرط|موضوع)+(1+شرط|مورد)،تست، REML=FALSE) > خلاصه(test.lmer4) مدل مختلط خطی متناسب با حداکثر احتمال فرمول: رتبه ~ شرط + (1 + شرط | موضوع) + (1 + شرط | مورد) داده: آزمون انحراف AIC BIC logLik REMLdev 3930 4010 -1949 3898 3902 اثرات تصادفی: نام گروه ها Variance Std.Dev. Corr Subject (Intercept) 0.9023239 0.949907 ConditionNoSmallClause 0.0020340 0.045099 1.000 ConditionSmallClause_NoSom 0.0035039 0.05000001. 1.8238288 1.350492 ConditionNoSmallClause 0.8992237 0.948274 -0.687 ConditionSmallClause_NoSom 0.9804329 0.990168 -0.606 -0.608 Resual 0.615 1.299271 تعداد obs: 1080، گروه: موضوع، 45; آیتم، 24 اثرات ثابت: برآورد Std. مقدار خطای t (Intercept) 3.3222 0.3174 10.468 ConditionNoSmallClause -0.3639
تغییر سطح مرجع برای تغییرات کنتراست منجر به R 3.0.2/lme4 1.1-2 در مقابل R 2.15.0/lme4 0.999999-0 می شود
4912
فرض کنید نمونه من شامل 350 نمونه است. هر نمونه دارای دو ارزیابی باینری مستقل (pos و neg) **A** و **B** است. اگر فرضیه جایگزین من این باشد که الف بیشتر از B مثبت است، چگونه می توانم بیان کنم که آیا تفاوت از نظر آماری معنی دار است؟ * * * برای دقیق تر بودن در مورد داده ها: این سوال هنگام مشاهده اطلاعات سرم خون بیمار به ذهن متبادر شد. این 350 نمونه خون در برابر **X** مثبت است. هر نمونه ممکن است در برابر A یا B نیز مثبت باشد یا نباشد، در حالی که اگر X مثبت باشد A و B هر دو اغلب مثبت هستند، اما از نظر بیولوژیکی به یکدیگر وابسته نیستند. بنابراین فکر اولیه من این بود که ببینم آیا A بیشتر از B مثبت است یا خیر. در مثالی که بود، A در 80% و B در ~20% مثبت است. بنابراین به ارزیابی اهمیت این تفاوت فکر کردم و اینجا بود که گیر کردم. :)
محاسبه اهمیت تفاوت بین دو مقدار باینری در یک مجموعه داده
82101
می‌خواهم بدانم تکنیک‌ها و معیارهای مختلفی برای ارزیابی دقیق/خوب بودن یک الگوریتم و نحوه استفاده از یک معیار معین برای نتیجه‌گیری در مورد یک مدل ML استفاده می‌شوند.
معیارهای ارزیابی الگوریتم یادگیری ماشین چیست؟
25499
$n$ _fixed_ زیر مجموعه‌های یک جهان محدود را در نظر بگیرید $U$: $A,B,C,D,\ldots$ سپس اجازه دهید $Coll$ مجموعه مجموعه‌هایی باشد که از بسته شدن مجموعه $\\{U بدست می‌آوریم، A،B،C،D، \ldots\\}$ تحت عملیات $\cup،\cap$ و تفاوت نظری مجموعه. (به عنوان یک کنار، برای کمک به تصویر Coll، توجه داشته باشید که $|Coll|≤ 2^{2^n}$ تصور کنید نمودار ون n-ary U را به 2ⁿ قطعه جدا تقسیم می کند - سپس 2^(2ⁿ) ترکیبی از قطعات، که اگر 2ⁿ قطعات همه خالی باشند، متمایز خواهند بود.) من به دنبال روش هایی برای تخمین اندازه یک عنصر معین هستم. $Coll$ مقداری از اندازه های مجموعه های دیگر را در $Coll$ داده است. به طور خاص، من می‌خواهم توزیع احتمال کاردینالیته‌های یک مجموعه معین در $Coll$ را بدانم، با توجه به _some_ مقادیر دقیق برای اندازه‌های برخی از مجموعه‌های دیگر در $Coll$. من نمی دانم چه مدل احتمالی برای استفاده مناسب است.
محاسبه احتمال نسبت های (احتمالا) مجموعه های همپوشانی
79914
من با یک مشکل (سوال) با تجزیه و تحلیل داده های بیولوژیکی مواجه شدم و نمی دانم چگونه آن را حل کنم. سعی می کنم تا حد امکان ساده مشکل را توضیح دهم: * * * **مثال ساختگی:** 10000 کتاب درسی در یک کتابخانه وجود دارد. 1000 کتاب درسی فیزیک (10٪ از کل کتاب ها) وجود دارد. متوجه شدم که برخی از کتاب‌های فیزیک نقاشی‌های شیطنت‌آمیزی توسط دانش‌آموزان دارند. این فرضیه را مطرح کردم که کتاب‌های درسی فیزیک با نقاشی‌های شیطانی غنی شده‌اند، از این رو یک آزمایش جایگشت انجام دادم (به طور تصادفی از همه کتاب‌های موجود در کتابخانه نمونه‌برداری مجدد کردم (10000) و مقدار p ~ 0 را دریافت کردم). در واقع، کتاب های درسی فیزیک با نقاشی های شیطانی غنی شده اند. با این حال، تنها 10 کتاب درسی فیزیک دارای آن نقاشی های شیطانی هستند (0.1٪ از کل کتاب های موجود در کتابخانه). **سوال:** آیا این نمونه فرعی (0.1٪ از کل کتاب ها) به اندازه کافی منطقی است (از نظر آماری معتبر) برای ادامه تجزیه و تحلیل من و نتیجه گیری در مورد آن نقاشی های شیطانی کتاب های درسی فیزیک (آن کتاب ها از چه رشته ای هستند (مثلاً فیزیک مولکولی، نوری) ، سال انتشار و غیره)؟ * * * **مشکل واقعی:** 10000 ژن در یک ژنوم وجود دارد. نمونه من 1000 ژن است (آنها مسئول رشد جنین هستند). من متوجه شدم که برخی از آن ژن ها (10) دارای ویژگی خاصی هستند (توالی که مسئول اتصال پروتئین است). آزمایش جایگشت (ژن‌های انتخاب شده به‌طور تصادفی از همه ژن‌های یک ژنوم) را انجام داد و مقدار p ~ 0 را گرفت. این به من اجازه می‌دهد که بگویم ژن‌هایی که مسئول رشد جنین هستند در مقایسه با همه ژن‌های دیگر در یک ژنوم دارای ویژگی‌های خاصی هستند. آیا ارزش ادامه آنالیز آن 10 ژن را دارد؟ نمونه من 1000 ژن است و این نمونه فرعی فقط 10 ژن است؟ آیا این برای نتیجه گیری در مورد زیست شناسی کافی است در حالی که 10000 ژن در یک ژنوم وجود دارد؟
اندازه نمونه فرعی - چه زمانی خیلی کوچک است؟
57620
من یک متغیر تصادفی $X \in \mathbb{R}$ را مشاهده می‌کنم که می‌توان فرض کرد که به طور معمول با میانگین $\mu$ و واریانس $\sigma^2$ توزیع شده است. من علاقه مندم که توزیع پسینی را بر روی **واریانس ناشناخته** قرار دهم که طبق ویکی پدیا، می تواند به صورت بسته توسط گامای معکوس ارائه شود. سوال من این است که با توجه به نمونه‌های $\\{x_1,...,x_n\\}$ چگونه می‌توانم این توزیع را متناسب کنم، یعنی پارامترهای $\alpha$ و $\beta$ را محاسبه کنم؟ **ویرایش:** من این پی دی اف را پیدا کردم که معادلات به روز رسانی پارامترها و اطلاعات بسیار مرتبط تر را ارائه می دهد.
استنتاج بیزی روی یک واریانس ناشناخته
57623
من یک بررسی متون انجام دادم و در نهایت به داده‌های زیادی رسیدم از این قبیل که 10 مطالعه از 20 مطالعه x را پیدا کردند در حالی که 4 مطالعه از 8 مطالعه y را یافتند. به بیان دقیق تر؛ من سهم غذاهای دریایی را در مقوله‌های اثرات زیست محیطی در مطالعات مختلف بررسی کردم. در اینجا یک استخراج کوتاه از داده‌های من است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/orXjw.png) من می‌خواهم اکنون داده‌ها را به نحوی نشان دهم. به عنوان مثال، من می خواهم نموداری داشته باشم که نشان دهد چند مورد از ماهیگیری در مقایسه با فرآوری، بسته بندی و غیره 33٪ سهم دارد. چگونه می توانم با اندازه های مختلف نمونه برخورد کنم؟ آیا باید حداقل تعداد مطالعات را برای گنجاندن انتخاب کنم و اگر بله، آیا معیاری برای تعیین آن محدودیت وجود دارد؟ من نیازی به انجام آمار ندارم، اما می‌خواهم چند نمودار ساده داشته باشم تا به خوانندگان این امکان را بدهم که یک مرور کلی بسیار سریع داشته باشند.
داده ها را با اندازه های نمونه مختلف تجسم کنید
99816
من سعی می کنم فیلتر ذرات و انگیزه استفاده از آن را در نمونه برداری از اهمیت ترتیبی معمولی درک کنم. تا آنجا که من تا به حال متوجه شده ام: 1- سعی می کنیم انتظار یک تابع $f_n:\mathbb{R}^{n} \mapsto \mathbb{R}$ را تحت چگالی چند متغیره $\pi_{n}( x_{1:n})$، یعنی $E_{\pi_{n}(x_{1:n})}[f_n(x_{1:n})]$ با استفاده از $N$ نمونه ها معمولاً این یک سیستم پویا است و $n$ در $\pi_{n}(x_{1:n})$ در هر مرحله افزایش می‌یابد، به عنوان مثال در تراکم فیلتر یک مدل مارکوف پنهان. 2- در هر مرحله، از تراکم پیشنهادی افزایشی مانند $q_{n}(x_{n}|x_{1:n-1})$ نمونه برداری می کنیم. در مجموع، نمونه‌های $N$ از یک $n$ چگالی ابعادی $q_{n}(x_{1:n}) = q_{1}(x_{1})\prod_{k=2}^{n داریم }q_{k}(x_{k}|x_{1:k-1})$ در زمان $n$. 3- برآورد $\frac{1}{N}\sum_{i=1}^{N}f_n(x_{1:n}^{i})w_n(x_{1:n}^{i) را محاسبه می‌کنیم })$ که در آن $w_n(x_{1:n}^{i})$ تابع وزن با $w_n(x_{1:n}^{i}) = است \frac{\pi_{n}(x^i_{1:n})}{q_{n}(x^i_{1:n})}$. اکنون، می‌دانم که نمی‌توانیم چگالی دقیق پیشنهادی را در هر مرحله محاسبه کنیم که واریانس تخمینی را به حداقل می‌رساند، زیرا ما فقط آزادی انتخاب $q_{n}(x_{n}|x_{1:n-1}) داریم. $، بقیه پیشنهاد قبلاً ثابت شده است. چیزی که من نمی فهمم این است که چرا واریانس تخمینی باید با افزایش بعد $n$ افزایش یابد. این به عنوان انگیزه اصلی برای استفاده از راه حل های فیلتر ذرات توضیح داده شده است. برای مشاهده آن، واریانس تخمین مونت کارلو $Var[\frac{1}{N}\sum_{i=1}^{N}f_n(x_{1:n}^{i}) را محاسبه کردم. w_n(x_{1:n}^{i})]$ که به نظر می رسد $E_{q_{n}(x_{1:n})}[f_n^2(x_{1:n})w_n^2(x_{1:n})] - \mu_n$. ($\mu_n$ انتظار واقعی است که ما می خواهیم تخمین بزنیم). این بدان معناست که برای افزایش واریانس، $E_{q_{n}(x_{1:n})}[f_n^2(x_{1:n})w_n^2(x_{1:n})] - \mu_n$ باید به عنوان تابعی از $n$ افزایش یابد. اما به عنوان یک عبارت ریاضی، نمی‌توانم نشان دهم که چگونه این افزایش با $n$ تضمین می‌شود: این یک عبارت بسیار کلی است که به شکل تابع $f_n$، توزیع پیشنهادی $q_n$ و توزیع اصلی بستگی دارد. $\pi_n$. بنابراین نمی توانم ببینم که چگونه واریانس با بعد $n$ در اینجا افزایش می یابد. آیا در رویکرد و محاسباتم کار اشتباهی انجام می دهم یا چیزی مهم را در اینجا از دست می دهم؟ لطفا در این موضوع به من کمک کنید. پیشاپیش ممنون
چگونه نشان دهیم که واریانس تخمین‌های نمونه‌گیری اهمیت متوالی با بعد افزایش می‌یابد؟
12435
من اغلب نیاز به پیش بینی دوره های آینده در سری داده های ماهانه دارم. فرمول‌هایی برای محاسبه فاصله اطمینان در آلفا برای دوره بعدی در سری‌های زمانی در دسترس هستند، اما این هرگز شامل نحوه برخورد با دوره دوم و سوم و غیره نمی‌شود. من از نظر بصری تصور می‌کنم که اگر پیش‌بینی با بالا و پایین نمودار شود. فواصل اطمینان، به طور کلی این بازه ها باید به طور تصاعدی در برابر میانگین پیش بینی افزایش یا کاهش یابد، زیرا عدم قطعیت یک نیروی تجمعی است. فرض کنید من فروش واحدی در آوریل = 10 می = 8 ژوئن = 11 ژوئیه = 13 داشتم و هیچ زمینه دیگری مانند فصلی بودن یا داده های جمعیتی نداشتم. از چه روشی استفاده می کنید؟ و مهمتر از آن، چگونه اعتماد به نفس را برای سپتامبر و اکتبر اندازه گیری می کنید؟ متاسفم که این ممکن است یک سوال ساده برای برخی از کارشناسان باشد - من برای یافتن یک پاسخ روشن بسیار جستجو کرده ام، و مطمئن هستم که این چیزی است که همه آماتورهایی مانند من دوست دارند آن را درک کنند.
چگونه خطای پیش بینی (فاصله های اطمینان) را برای دوره های جاری محاسبه کنیم؟
105673
من یک GLM را در یک مجموعه داده قرار می دهم. حالا می‌خواهم ببینم تفاوت بین گروه‌های من در کجاست، بنابراین سعی کردم یک Tukey HSD را به عنوان یک آزمون پس‌هک اجرا کنم. چون GLM است، نمی توانم از «TukeyHSD()» استفاده کنم. بنابراین من سعی کردم یک تست Tukey را با استفاده از: summary(glht(my.mod, mcp(treatment=Tukey))) هنگامی که این را امتحان کردم، خطای زیر را دریافت می کنم: متغیر(ها) 'treatment' در 'linfct' اما در 'model' یافت نمی شود! این همان چیزی است که در R: > recol Sample At..Ind به نظر می رسد. At.Sp. X درمان 1 C1 1 0 C 2 C2 2 2 0 C 3 C3 1 1 0 C 4 FS1 1 1 50 FS 5 FS2 4 3 80 FS 6 FS3 0 0 80 FS 7 FL1 3 3 280 FL 43 FL 1 9 FL3 2 2 220 FL 10 VS1 2 2 40 VS 11 VS2 0 0 50 VS 12 VS3 1 1 5 VS 13 VL1 3 3 400 VL 14 VL2 7 6 600 VL 15 VL3 3 3 1117 MS1 MS2 3 3 30 MS 18 MS3 0 0 30 MS 19 ML1 2 1 400 ML 20 ML2 7 7 300 ML 21 ML3 7 7 300 ML > my.mod=glm(Arachnida~as.soat), >tactor(soat) خلاصه (my.mod) تماس: glm(فرمول = Arachnida ~ as.factor (درمان)، داده = مرتب سازی) باقیمانده انحراف: حداقل 1Q میانه 3Q Max -2.3333 -0.3333 0.0000 0.0000 2.6667 ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (تقاطع) 3.107e-16 6.901e-01 0.000 1.00000 as.factor(treatment)FL -1.277e-16 9.759e-01 0.000 1.00000 1.000001. e-16 9.759e-01 0.000 1.00000 as.factor(درمان)ML 3.000e+00 9.759e-01 3.074 0.00825 ** به عنوان فاکتور(درمان)MS 3.333e-01 9.715-9.759e as.factor(treatment)VL 2.333e+00 9.759e-01 2.391 0.03141 * as.factor(treatment)VS 3.333e-01 9.759e-01 0.342 0.73775 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده گاوسی 1.428571 در نظر گرفته شده است) انحراف صفر: 48.571 در 20 درجه آزادی: 0.0 انحراف باقیمانده. 14 درجه آزادی AIC: 74.571 تعداد تکرارهای امتیاز دهی فیشر: 2 > glht(my.mod, mcp(treatment=Tukey)) خطا در mcp2matrix (model, linfct = linfct) : متغیر(ها) 'treatment' در 'linfct' مشخص شده است اما در 'model' > summary(glht(my.mod, mcp(treatment=Tukey))) خطا در mcp2matrix(model, linfct = linfct): متغیر(ها) 'treatment' در 'linfct' مشخص شده است اما در 'model' یافت نمی شود. ?
Tukey برای GLM نمی تواند داده ها را در مدل پیدا کند
105679
بگویید من فهرستی از اعداد $X = \\{x_1، x_2، \dots، x_n\\}$ دارم، و من انتظار دارم که آنها از یک توزیع خاص ترسیم شوند. برای مورد من، توزیع دوجمله ای $P(x) = \binom{n}{x}p^x(1-p)^{n-x}$ است، اما فکر می‌کنم پاسخ کلی مفیدترین باشد. استاندارد و دقیق‌ترین روشی که می‌توانم تشخیص دهم که نمونه‌های X$ از آن توزیع هستند چیست؟
چگونه می توان به دقت آزمایش کرد که آیا متغیرها از یک توزیع خاص استخراج شده اند؟
105671
یک سوال قدیمی‌تر، توضیحی شهودی از نحوه عملکرد رگرسیون خطی جریمه‌شده، با استفاده از دو کانتور مجزا می‌دهد: یکی برای کمترین مربع هدف، دیگری برای عبارت جریمه (یعنی منظم‌سازی). همچنین می گوید که مجموع حداقل مربعات و اهداف تنظیم زمانی که خطوط برای اولین بار به هم می رسند به حداقل می رسد. با این حال، به نظر می رسد که برای محاسبه نقطه ای که آنها برای اولین بار به هم می رسند، باید میزان رشد هر دو کانتور را بدانیم. متأسفانه نمی توانم بفهمم چگونه به آن برسم. **به روز رسانی:** در پایین صفحه 5 این یادداشت ها در مورد انتخاب و تنظیم متغیرها، نویسندگان می گویند که $$ argmin \sum{(y_i - \alpha - \beta'x_i)^2}$$ مشروط به $ $\sum{|\beta_j|} < t$$ معادل به حداقل رساندن $$\frac{1}{2n}\sum{(y_i - \alpha - است \beta'x_i)^2} + \lambda \sum{|\beta_j|}$$. اگر از این منظر به کانتور در حال رشد نگاه کنیم، به این معنی است که: 1. نمودار کانتور را برای مدت جریمه ثابت می کنیم، به نحوی (؟) با محاسبه $t$ از $\lambda$. 2. ما فقط کانتور را برای کمترین مربع هدف رشد می دهیم. آیا این استدلال صحیح است؟ اگر بله، آیا می‌توانید به برخی ادبیات اشاره کنید که این موضوع را با جزئیات بیشتر مورد بحث قرار می‌دهد، به ویژه: 1. معادل‌سازی بین کمینه‌سازی تابع با محدودیت‌های نابرابری و کمینه‌سازی تابع هدف به شکل آشناتر با $\lambda$ پارامتر 2. محاسبه $t$ با توجه به $\lambda$.
تفسیر هندسی رگرسیون خطی جریمه شده II
2121
من از رگرسیون رج روی داده های بسیار چند خطی استفاده می کنم. با استفاده از OLS به دلیل چند خطی بودن، خطاهای استاندارد بزرگی در ضرایب دریافت می کنم. من می دانم که رگرسیون رج راهی برای مقابله با این مشکل است، اما در تمام پیاده سازی های رگرسیون ریج که من به آنها نگاه کردم، هیچ خطای استانداردی برای ضرایب گزارش نشده است. من می‌خواهم روشی را تخمین بزنم که رگرسیون پشته با دیدن اینکه چقدر خطاهای استاندارد ضرایب خاص را کاهش می‌دهد، کمک می‌کند. آیا راهی برای تخمین آنها در رگرسیون پشته وجود دارد؟
چگونه می توانم خطاهای استاندارد ضریب را هنگام استفاده از رگرسیون خطی تخمین بزنم؟
104508
من یک RandomForest را در R روی مجموعه ای از داده ها با متغیرهای زیادی اجرا می کنم. با استفاده از `varImpPlot()` می دانم که هر متغیر چقدر برای توضیح متغیر هدف اهمیت دارد. با این حال، من همچنین می خواهم بدانم که آیا **_متغیر بر مقدار هدف_** تأثیر مثبت می گذارد یا منفی. به عنوان مثال، در پیش‌بینی درآمد شخصی، ممکن است متوجه شوم که «سن» خیلی توضیح می‌دهد، اما می‌خواهم بدانم که آیا «سن بالاتر -> درآمد بیشتر» یا «سن پایین‌تر -> درآمد بیشتر». آیا راهی برای دانستن این موضوع با Random Forest وجود دارد؟
جنگل تصادفی - چگونه بفهمیم متغیرها تأثیر مثبت یا منفی دارند
34483
id sam1 sam2 sam3 sam4 gene1 33 23 88 98 gene2 0 0 99 95 gene3 77 100 44 65 gene4 0 0 0 0 gene5 100 100 100 100 : 0 100 100 100 : 0 100 100 100 : 0 100 520 ژن (ردیف) و چهار نمونه (ستون) که به صورت درصد داده شده است. هر ژن در چهار نمونه مشترک است. فرضیه این است که اگر هر یک از ژن ها در هر یک از نمونه ها 100 درصد باشد، گفته می شود که در آن نمونه وجود دارد و اگر 0 درصد وجود نداشته باشد. (به عنوان مثال gene3 در نمونه 2 (sam2) وجود دارد و gene4 در همه نمونه ها وجود ندارد.) از آنجایی که من 20K ژن دارم، می خواهم تکنیک خوشه بندی را انجام دهم. آیا می توانم دو خوشه بندی انجام دهم و یک نقشه حرارتی تهیه کنم؟ اگر چنین است، لطفا به من اطلاع دهید که چگونه در R انجام دهم؟
ترسیم نقشه حرارتی بر اساس خوشه بندی در R
15422
من می خواهم برخی از داده های یک پرسشنامه در مورد حضور را تجزیه و تحلیل کنم (من با آزمایش های واقعیت مجازی سر و کار دارم). این پرسشنامه دو بار در اختیار شرکت کنندگانی قرار گرفت که هر یک از این دو شرایط را فراهم کردند. 6 سوال پرسشنامه توسط شرکت کنندگان در مقیاس لیکرت 7 درجه ای ارزیابی شد. پس از آنچه در کتابشناسی یافتم، باید داده ها را به روش زیر تجزیه و تحلیل کنم تا بفهمم آیا تفاوت بین این دو شرط قابل توجه است یا خیر: باید تعداد پاسخ هایی را که نمره 6 یا 7 دارند بشمارم، سپس من برای هر شرط متغیری برابر با میانگین تعداد 6 و 7 نمره از بین هر 6 سوال خواهد داشت. پس از آن، من باید آن دو متغیر را برای یک رگرسیون لجستیک در گروه به صورت دوجمله ای توزیع کنم. مشکل من این است که نمی دانم چگونه رگرسیون لجستیک را انجام دهم. من سعی کردم درس بخوانم اما متوجه نشدم که چگونه آن را در مورد خود اعمال کنم. علاوه بر این من در درک نحوه اجرای آن در R نیز مشکل دارم. آیا شما در R نیز مثالی دارید؟ فرض کنید که دو متغیر (meand +-std) هستند: Count_condition1 = 1 +- 1.7 و Count_condition1 = 2 +- 2.0
رگرسیون لجستیک برای پرسشنامه ها در مقیاس لیکرت 7 درجه ای