_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
115175 | من دادههای ابعادی بسیار بالایی دارم و اجرای Locally Linear Embedding (LLE) بسیار زمانبر است. من همچنین باید چندین LLE را با پارامترهای مختلف انجام دهم تا تعداد بهینه همسایگان را از طریق Spearman's Rho محاسبه کنم. با این حال، داده ها به شدت به خطی وابسته هستند - کمتر از 10٪ از ویژگی ها برای حفظ 98٪ از واریانس لازم است. این مانع نمی شود که داده ها هنوز در یک منیفولد با ابعاد پایین تر جاسازی شوند. بنابراین، سوال من این است که آیا انجام تجزیه و تحلیل مؤلفه اصلی (PCA) برای حفظ اکثریت قریب به اتفاق واریانس و به دنبال آن LLE معتبر است یا اینکه نتایج LLE را به طور اساسی تغییر خواهد داد؟ این به طور قابل توجهی زمان محاسبه من را کاهش می دهد - بنابراین امیدوارم بتوانم این کار را انجام دهم. علاوه بر این، Rho اسپیرمن بر اساس فواصل زوجی محاسبه میشود - اگرچه این امر مستلزم استفاده از فاصله ژئودزیکی در منیفولد است، نه فاصلههای اقلیدسی. آیا راهی برای محاسبه فواصل ژئودزیکی بر اساس اجرای PCA توسط Scikit-Learn وجود دارد؟ نقل قول: Karbauskaitė، Rasa، و O. Kurasova G. Dzemyda. انتخاب تعداد همسایگان هر نقطه داده برای الگوریتم جاسازی خطی محلی. فناوری اطلاعات و کنترل 36.4 (2007): 359-364. | آیا پیش پردازش داده ها با PCA قبل از اجرای Locally Linear Embedding (LLE) معتبر است؟ |
27651 | من همیشه برای توضیح تکنیک های آماری برای مخاطبان بدون پیشینه آماری مشکل دارم. اگر بخواهم توضیح دهم که GLM برای چنین مخاطبانی چیست (بدون حذف اصطلاحات آماری)، بهترین یا مؤثرترین راه چیست؟ من معمولاً GLM را با سه بخش توضیح می دهم - (1) مؤلفه تصادفی که متغیر پاسخ است، (2) مؤلفه سیستماتیک که پیش بینی کننده های خطی است و (3) تابع پیوند که «کلید» برای اتصال است (1) و (2). سپس مثالی از رگرسیون خطی یا لجستیک می زنم و توضیح می دهم که چگونه تابع پیوند بر اساس متغیر پاسخ انتخاب می شود. از این رو به عنوان کلید اتصال دو جزء عمل می کند. | چگونه مدل های خطی تعمیم یافته را برای افراد بدون پیشینه آماری توضیح می دهید؟ |
61631 | به عنوان یک آماردان مبتدی، بحث در مورد نیاز به دقت در تفسیر نتایج آماری با افراد غیرآمار کار آسانی نیست. به طور خاص، من سعی می کنم برخی از همکاران را متقاعد کنم که در تفسیر اشتباه رایج فاصله اطمینان (شاید نباید؟) غوطه ور شوند. برای برخی از مشکلات، برخی از مقاله های تصویری و برجسته (و خنده دار) مانند این مقاله (http://www.jsur.org/ar/jsur_ben102010.pdf) در مورد نیاز به تصحیح آزمایش های متعدد وجود دارد که من یک نقل قول کوچک برای آن استخراج می کنم: > [...] ما یک جلسه اسکن fMRI را با موضوع پس از مرگ اقیانوس اطلس > سالمون تکمیل کردیم. به ماهی قزل آلا همان دیدگاه اجتماعی نشان داده شد - > انجام وظیفه که بعداً برای گروهی از افراد انسانی انجام شد. این یک استدلال فوقالعاده برای تشویق پزشک به استفاده از اصلاحات آزمایشی متعدد است. آیا از چنین مقالهای در مورد اشتباه رایج مطلع هستید. تفسیر فاصله اطمینان (که معمولاً به عنوان فاصله اعتبار تفسیر می شود) یا هر چیزی غیر از این می تواند به من در استدلال های من کمک کند. | یک مرجع غیرآمار برای تفسیر فاصله اطمینان در مقابل اعتبار-فاصله |
74621 | وقتی مردم میگویند که رگرسیون کمند میتواند تحت مفروضات خاصی «حمایت» را بازیابی کند، یعنی وزنهای رگرسیون غیر صفر، این به چه معناست؟ این نمی تواند به معنای بازیابی _علّی باشد، زیرا پرل به ما آموخته است که نمی توانید علیت را از همبستگی استنتاج کنید (و کمند فقط همبستگی ستایش شده است). بنابراین آیا این غیر صفرها به نوعی حداقل مجموعه متغیرهایی هستند که توسط دیگران قابل توضیح نیستند؟ از آنجایی که مردم تمایل دارند به عنوان حذف همبستگی «جعلی» و بازیابی «غیر جعلی» صحبت کنند، اما واقعاً چگونه همبستگی می تواند جعلی باشد، این فقط ارتباط بین دو متغیر تصادفی است، اینجا جایی برای زبان علّی وجود ندارد. من گیج شده ام. | تفسیر نتایج ریکاوری کمند |
67673 | من یک مدل اثرات تصادفی با اختلال AR(1) را برای خطاها تخمین می زنم (xtregar در Stata). نتایج گزارش شده نشان می دهد که ثابت (در اصطلاح Stata) مثبت و معنادار است. سوال این است که به طور کلی این اصطلاح ثابت را چگونه تفسیر می کنید؟ | تفسیر ثابت در تخمین اثرات تصادفی با فرآیند AR(1). |
115172 | **در حال حاضر مشغول مطالعه یک دوره آمار هستم و سعی می کنم یک تمرین احتمال ساده را حل کنم:** یک کارخانه تولیدی استخدام می کند: * 20 کارگر در شیفت روزانه * 15 کارگر در شیفت چرخشی * 10 کارگر در قبر- شیفت حیاط یک مشاور کنترل کیفیت باید 6 نفر از این کارگران را برای مصاحبه های عمیق انتخاب کند. فرض کنید انتخاب به گونه ای انجام شده است که هر گروه خاص از 6 کارگر شانس انتخاب شدن را مانند هر گروه دیگری داشته باشد (کشیدن 6 برگه بدون جایگزینی از بین 45). سوال این است: _احتمال اینکه حداقل دو شیفت مختلف در بین کارگران منتخب وجود داشته باشد چقدر است؟_ **پاسخ من:** من قصد دارم با استفاده از دو روش به این سوال پاسخ دهم. من با روش دوم مشکل دارم. اگرچه، روش اول بیشتر توسط مربیان توصیه می شود. هنگام تمرین سعی می کنم از هر دو روش استفاده کنم تا مطمئن شوم که پاسخم صحیح است و مطالب را درک می کنم. **روش 1:** محاسبه **_احتمال انتخاب 6 کارگر از 45 کارگر_**، سپس کم کردن آن با **_احتمال انتخاب 6 کارگر دقیقاً از یک شیفت متفاوت_**. P(A) = احتمال انتخاب 6 کارگر از 45 کارگر بدیهی است یک است: (45P6 / 45P6). P(B) = احتمال انتخاب 6 کارگر دقیقاً از یک شیفت متفاوت: 0.0054 (15P6 + 10P6 + 20P6 / 45P6) P(Solution) = P(A) - P(B) = 1 - 0.0054 = 0.9946. راه حل 0.9946 صحیح است (تأیید شده از کلید پاسخ) و من با این روش مشکلی ندارم. **روش 2:** محاسبه **_احتمال انتخاب 6 کارگر دقیقاً از دو شیفت مختلف_** و جمع آن با **_احتمال انتخاب 6 کارگر دقیقاً از سه شیفت مختلف_**. P(C) = احتمال انتخاب 6 کارگر دقیقاً از دو شیفت مختلف: 0.29 (25P6 + 35P6 + 30P6 / 45P6). توجه داشته باشید که 15+10=25 15+20=35، 20+10=30. P(D) = احتمال انتخاب 6 کارگر دقیقاً از سه شیفت مختلف: 1 (45P6/45P6). با جمع P(C) + P(D) بدیهی است که پاسخ اشتباهی داده می شود زیرا نتیجه بالاتر از 1 خواهد بود که به وضوح نادرست است. در روش 2 چه اشتباهی کردم؟ | حل مسئله یک تمرین احتمالی ساده |
59079 | چگونه می توان هزینه ها را (در مدل لاجیت) پاسخ های مثبت کاذب، منفی کاذب، مثبت درست، منفی واقعی، در صورتی که هزینه های متفاوتی دارند، گنجاند؟ آیا می توان این کار را در سطح تابع احتمال انجام داد؟ نسخه: میدانم که تابع likeligoe را میتوان به راحتی برای گنجاندن هزینهها تغییر داد، اما سپس تابع احتمال ناپیوسته میشود: y_i == 1 oraz f(x_i*B) > 0.5 cost = cost11 y_i == 1 oraz f(x_i*B ) < 0.5 هزینه = هزینه 10 y_i == 0 oraz f(x_i*B) > 0.5 هزینه = cost01 y_i == 0 oraz f(x_i*B) < 0.5 هزینه = cost00 تابع درستنمایی اصلاح نشده: f(x_i*B)^y_i * (1 - f(x_i*B)) ^ (1 - y_i ) تابع درستنمایی اصلاح شده: (cost11*positive(f(x_i*B)-0.5) + cost10*negative(f(x_i*B)-0.5) ^ y_i * (cost00*negative(f(x_i*B)-0.5) + cost01*positive(f(x_i*B)-0.5)) ^ (1 - y_i) که در آن: مثبت (x) = 1 اگر x > 0 مثبت (x) = 0 اگر x < 0 منفی (x) = 1 اگر x > 0 منفی (x) = 0 اگر x < 0 | چگونه می توان هزینه ها (در مدل لاجیت) مثبت کاذب، منفی کاذب، مثبت درست، منفی واقعی را در صورتی که هزینه های متفاوتی داشته باشند، وارد کرد؟ |
61637 | آیا نرم افزار یا بسته R وجود دارد که توزیع فضایی آلل ها را شبیه سازی کند؟ من علاقه مندم که چگونه توزیع آلل های مکان های عملکردی توسط الگویی از متغیرهای محیطی مانند دما و کیفیت آب شکل می گیرد. من داده هایی در مورد الگوهای جغرافیایی متغیرهای محیطی، اتصال جمعیت (Fst) (داده های ریزماهواره)، فواصل جغرافیایی، اندازه جمعیت و فراوانی آللی مکان های عملکردی در 17 سایت دارم. من میخواهم فرکانس آللی مکانهای عملکردی در سایر مکانهای نقشه را بدانم که دادههای فراوانی آللی برای آنها نداریم. شاید با استفاده از دادههای فراوانی آللی موجود (از مکانهای عملکردی) و سایر اطلاعات ذکر شده در بالا، فرکانس آللی در سایر مکانها را بتوان با این فرض که جایگاهها تحت انتخاب متغیرهای محیطی هدف قرار دارند، پیشبینی کرد؟ با تشکر | ژنتیک جمعیت: تجزیه و تحلیل توزیع فراوانی آلل در امتداد گرادیان های محیطی |
115178 | من تازه وارد این انجمن هستم. من کاغذهای سفید و کدهای مختلف را در گوگل جستجو کردم اما راه حلی پیدا نکردم، همان موقع بود که در این انجمن ثبت نام کردم. لطفاً اگر نظری در مورد چگونگی حل این مشکل دارید، به اشتراک بگذارید.. من یک مجموعه داده دارم. که از 30 پایه تشکیل شده است. معامله گران، و معاملات تاریخی آنها در هر نماد با تاریخ های معاملاتی.. من می خواهم روابطی را که بین هر یک از این معامله گران وجود دارد، درک کنم. به عنوان مثال: می خواهم بفهمم چه کسی برای اولین بار روی یک سهام معامله می کند و چه کسی بعدی را دنبال می کند و غیره. اساساً روابط آغازگر و پیرو را استخراج کنید. و همین را برای آینده پیشبینی کنید... من با در نظر گرفتن تفاوت بین تاریخ های معامله برای هر علامت برای هر دو معامله گر شروع کردم و سپس با همبستگی آن تاریخ ها/یا تفاوت در تاریخ های تجارت... فکر نمی کنم این رویکرد درستی باشد. پیشنهادی دارید؟ | تجزیه و تحلیل پیرو آغازگر با مجموعه داده های سری زمانی |
27650 | من چند چیز دارم که باید با هم اضافه کنم - دو مجموعه مختلف از مواد، و باید کل مطالب را بدانم. به دلیل موارد مختلف مربوط به نمونهبرداری، من میخواهم دادههای نمونهگیری را از هر استخر راهاندازی کنم. بنابراین من یک لیست از 100 جرم برای یک استخر، و 50 جرم برای استخر دوم ایجاد می کنم. بعلاوه، من فواصل اطمینان را از راهانداز ایجاد میکنم. من فقط می توانم میانگین را اضافه کنم تا جرم کل میانگین را بدست بیاورم، اما در مورد CI ها چطور؟ بدیهی است که من هنوز در حال یادگیری بوت استرپ هستم، بنابراین اگر سوال ساده ای است ببخشید. در ابتدا، من متوجه شدم که می توانم آنها را شبیه به SD، مانند sqrt(x^2 + y^2) ترکیب کنم، اما این کار نمی کند. آیا اضافه کردن ساده کار می کند؟ یا باید CI را از ابتدا با استفاده از خطاهای استاندارد هر استخر بسازم؟ | فواصل اطمینان حاصل از بوت استرپ را جمع بندی می کنید؟ |
61638 | در آزمون فرضیه های آماری، احتمال خطای قابل قبول یا **سطح معناداری** α (آلفا) را بر روی مقداری که مطابق با نظریه ما باشد، تصمیم می گیریم و _تنظیم_ می کنیم. به طور سنتی آلفا 0.1، 0.05 یا 0.01 است. وقتی تابع توان g پارامتری را که برای آن آزمایش می کنیم _محاسبه می کنیم، توزیع احتمال دو خطا را دریافت می کنیم: **خطای نوع 1** α (آلفا) و خطای نوع 2 β (بتا). در یک نمایش گرافیکی از این تابع، آلفا مقدار زیر نمودار، بتا مقدار بالای خط است: α = g(p) و β = 1 - g(p، با p پارامتر مورد علاقه ما است. در اینجا یک مثال آورده شده است:  خط قرمز αmax برای H0 است: p ≤ 0.4 و H1: p > 0.4; خط آبی برای نمونه p̂ = 0.5 β است ** احتمال خطا (آلفا) و خطای نوع 1 (آلفا) چگونه به یکدیگر مربوط می شوند؟** یا من فقط در مورد دو مقدار نامرتبط که یکسان هستند گیج می شوم. نام (آلفا)؟ | رابطه آلفای سطح معنی داری با آلفای خطای نوع 1 چیست؟ |
74627 | من نوع داده های زیر را دارم (کدگذاری شده با R): v.a = c('گربه'، 'سگ'، 'سگ'، 'بز'، 'گربه'، 'بز'، 'سگ'، 'سگ') v.b = c(1، 2، 1، 2، 1، 2، 1، 2) v.c = c('آبی'، 'قرمز'، 'آبی'، 'قرمز'، 'قرمز'، 'آبی'، 'زرد'، 'زرد') set.seed(12) v.d = rnorm(8) aov(v.a ~ v.b + v.c + v.d) # خطا می خواهم بدانم مقدار v.b یا مقدار «v.c» توانایی پیشبینی مقدار «v.a» را دارد. من یک ANOVA را اجرا می کنم (همانطور که در بالا نشان داده شده است) اما فکر می کنم منطقی نیست زیرا متغیر پاسخ من ترتیبی نیست (مقوله ای است). چه کار کنم؟ | پیشبینی متغیر پاسخ طبقهای |
59077 | من به تازگی از یک مجله اقتصادی رد شدم. از جمله دلایلی که برای رد ذکر شد عبارتند از: > مزایای استفاده از روش نیمه پارامتریک به وضوح مشخص نشده است > در مقایسه با روش های ساده تر جایگزین با شناسایی دقیق > روابط علّی، مطمئناً این امکان وجود دارد که می توانستم کار بهتری در ایجاد انگیزه انجام دهم. روش شناسی برای دسته ای از اقتصاددانان که عموماً به OLS پایبند هستند. اما آیا من شناسایی پاک را نقض کرده ام؟ لطفاً خودتان قضاوت کنید و نظر خود را به من بگویید: معادله اصلی برآورد من $$ y_{it} = \alpha_i + \beta_1 T_{it} + f\left(\begin{array}{l}Z_{it} است \\\ Z_{it} \times T_{it} \\\ Z_{it}\times T_{it} \times X_t\end{array} \right) + \beta_2X_t + \epsilon_{it} $$ $Z$ پیوسته است، $X$ و $T$ دودویی هستند. من می توانم به طور موجه فرض کنم که $$ E[\epsilon|\alpha,T] = 0 $$، یعنی ضریب $T$ مشروط به متغیرهای ساختگی سطح فردی (اثرات ثابت در اقتصاد سنجی است. ). وقتی متغیر پیوسته $Z$ را وارد میکنم، صرفاً به ناهمگونی در اثرات درمان تخمینی بیش از گرادیانهای $Z$ نگاه میکنم. بنابراین میانگین اثر علی درمان $T$ میانگین $\hat\beta_1 + \hat f_{Z\time T}$ برای سطوح مختلف $Z$ است که من مشاهده میکنم. این مدل توسط خطوط درجه دوم جریمه شده تخمین زده می شود (به عنوان مثال: روپرت و همکاران 2003). به طور خاص: $$ y = \beta_0 +X'\beta + \displaystyle\sum_{1}^p (Z^{p})'\gamma + \displaystyle\sum_{j=1}^{\\#vars} \displaystyle\sum_{k=1}^{\\# knots_j}\delta_{jk}\left(\left(Z_j - \kappa_{jk} \right)^p \times \left(Z_j > \kappa_{jk} \right)\right) + \epsilon $$ این با $$ \left[\begin{array}{c} \hat\beta\ حل میشود \\ \hat\گاما \\\ \hat \delta \\\ \end{array}\right] = (C'C + \lambda^{2p}D)^{-1}C'y $$ که در آن $C$ شامل شرایط پارامتری و شرایط گره میشود، و در آن جریمه رج $\lambda$ _فقط برای شرایط گره اعمال میشود، و برای به حداقل رساندن AIC انتخاب میشود. (من نمی توانم عدالت را به طور کامل در مورد روش انجام دهم - به راپرت و همکاران، یا کتاب درسی سایمون وود در مورد GAM مراجعه کنید). البته، من از این نیمه پارامترها استفاده میکنم زیرا نمیخواهم فرمهای عملکردی بیاساس را به دادههایم تحمیل کنم. انجام این کار به طور کاملاً طبیعی تخمینهای من را سوگیری میکند، همانطور که اعمال تناسب لگاریتمی بر یک تابع سینوسی، تخمینهای من را سوگیری میکند. اما آیا چیزی ذاتی در spline های جریمه شده وجود دارد که من آنها را توضیح دادم که ذاتاً عبارت زیر را نادرست کند؟ $$ E[\hat\beta_1] = \beta_1 \text{ if } E[\epsilon|\alpha,T] = 0 $$ | شناسایی علّی و اسپلاین های جریمه شده |
86975 | عصر همگی بخیر، من با سوال دیگری روبرو هستم که به نظر نمی رسد نمی توانم راه حلی آنلاین پیدا کنم. فکر کردم در اینجا راهنمایی و راهنمایی دریافت می کنم. من توزیع زیر را دارم که نشان دهنده تعداد رویدادهایی است که در یک روز اتفاق می افتد. * زمانی که (x=0)، P(X=x) = 0.2 * زمانی که (x=1)، P(X=x) = 0.4 * زمانی که (x=2)، P(X=x) = 0.3 * زمانی که (x=3)، P(X=x) = 0.08 * هنگامی که (x=4)، P(X=x) = 0.02 فرض کنید میخواهم احتمال اینکه انحراف استاندارد نمونه 0 باشد را پیدا کنم. به طور تصادفی 4 روز انتخاب شده است، چگونه باید ادامه دهم؟ من مقدار * میانگین x را 1.32 * واریانس x 0.8976 * انحراف معیار 0.947 را تعیین کردم. لطفاً توصیه و جهت را ارزیابی کنید | توزیع احتمال |
61633 | من دادههای آزمایشی زمانهای پاسخ را دارم که بر اساس عامل «نوع آزمایشی» متفاوت است: «معمول» یا «تصادفی». من همچنین دو گروه A و B دارم که انتظار دارم رفتار مشابهی داشته باشند (آنها برای اهداف متوازن ایجاد شده اند). من می خواهم فرض برابری واریانس را در داده های خود آزمایش کنم. من تقریباً مطمئن هستم که واریانس ها برابر نیستند، اما به هر حال می خواهم آن را با یک تست نشان دهم. دادههای من در یک data.frame طولانی به نام «AB» قرار دارند: خلاصه (AB) Block TrialType Subject مقدار متغیر Block1:1930 Min. : 1.0 تصادفی: 5889 طول: 9852 RT: 9852 دقیقه. : 348.0 Block2: 1974 1st Qu.: 128.0 Regular:3963 Class :character Qu. 1: 595.0 Block3:1982 Median :252.0 Mode :character Median : 692.0 Block4:1983 Mean .6983 Mean Block5: 1983 3rd Qu.:376.0 3rd Qu.: 834.0 Max. حداکثر: 500.0 :4412.0 گروه A:4929 B:4923 تست Levene را با استفاده از Group و TrialType به عنوان فاکتور گروه بندی (آگومان دوم) امتحان کردم: leveneTest(AB$value,AB$Group) leveneTest(AB$value,AB$TrialType) همانطور که شما می توانم ببینم، هنوز مشخص نیست که آیا آرگومان دوم باید «گروه» («A» و «B») باشد یا نه «TrialType» («تصادفی» و «معمولی»). من فقط هر دو را امتحان کردم. برای گروه، مقدار p 8.479e-11 و برای TrialType، p 2.413e-12 بود. همچنین، درجه آزادی برای هر دو مورد 1 است و مقادیر F بسیار بالا است: 42،23 برای Group و 49.24 برای TrialType. بنابراین 3 مقداری که من از این تست ها دریافت می کنم بسیار غیر معمول به نظر می رسند. بنابراین فکر می کنم ممکن است کار اشتباهی انجام دهم. هر گونه نظر یا / و کمک بسیار قدردانی می شود. همچنین، هر گونه راهنمایی در مورد نحوه گزارش این نتایج بسیار مورد استقبال قرار خواهد گرفت. | آیا این نتایج LeveneTest ممکن است؟ |
73161 | من سعی می کنم یک تحلیل رگرسیونی انجام دهم که در آن متغیر پاسخ ترتیبی است و 15 متغیر از 16 متغیر پیش بینی کننده نیز ترتیبی هستند. علاوه بر این که همه این پیشبینیکنندههای ترتیبی را بهعنوان فاکتور در نظر بگیریم، آیا گزینه دیگری وجود دارد؟ بهترین راه برای درمان این پیش بینی کننده های ترتیبی چیست؟ متشکرم. | درمان متغیر پیش بینی ترتیبی |
111504 | من یک تحلیلگر تازه کار هستم و با یک مشکل یادگیری ماشینی / رگرسیون مواجه هستم که نمی توانم آن را حل کنم. داده هایی که من باید در تجزیه و تحلیل خود استفاده کنم شامل اطلاعات مربوط به اشتراک مطبوعات برخی از شرکت ها است. هر شرکت شناسه منحصر به فرد خود را دارد اما بیشتر به کارکنان شرکت جداگانه با مقادیر متفاوتی از متغیر پاسخ تقسیم می شود. من یک مجموعه داده نمونه ارائه میدهم:  گاهی اوقات وضعیت به افراط میرود - 20 مشاهده از یک شناسه (شرکت) متفاوت است در برخی از ارزش ها، اما بیشتر آنها یکسان باقی می مانند (مثلاً اندازه شرکت). افکار من زمانی است که از هر روش آماری استفاده میکنم، تکرارپذیری مقادیر طبقهبندی شده برای یک شرکت معین باعث سوگیری بزرگی میشود. من فرض میکنم باید روشی برای سنگین کردن مشاهدات طبقهبندی بر اساس تعداد دفعاتی که برای یک شناسه داده شده ظاهر میشوند وجود داشته باشد، یعنی اگر 20 کارمند در هر یک معین وجود داشته باشد، اهمیت هر مشاهده (برای یک متغیر معین) بر 20 تقسیم میشود. رواج برخی از الگوها در شرکت که بسیار بزرگ است، پیش بینی من را مغرضانه نمی کند. امیدوارم توانسته باشم به چیزی که با آن مشکل دارم تکیه کنم. برای ارجاع به هر ابزار/روش/مقاله یا تجربیات شما که ممکن است در رسیدگی به این موضوع مفید باشد بسیار سپاسگزار خواهم بود. | سوال تحلیل کاربردی |
35753 | $Y^n$ مشاهدات HMM ما هستند، که در آن $Y_i=a_i$ یک مشاهده واحد است، جایی که $a_i \epsilon \\{0,1\\}$ است. به عنوان مثال، $Y^n = k^n$ که در آن $k^n=\\{0,1,1,0\\}$$X^n$ حالت های واقعی HMM ما هستند که ما برخی از آنها را می شناسیم. (هر) $X_i$. چگونه می توانم به طور شهودی و 2. با دقت (با استفاده از ریاضی واقعی) در مورد واقعیت زیر دلیل کنم: اگر $Y^n = k^n$ داریم که در آن $k^n=\\{0,1,1,0 \\}$ و **هر** $X_i$ سپس ما کل $X^n$ را می دانیم. من فکر میکنم که ارتباطی با این مفهوم مارکوف دارد که > مشروط به حال، گذشته و آینده مستقل هستند، اما من در مورد چگونگی ادامه آن خیلی روشن نیستم. | در یک مدل مارکوف پنهان، چگونه همه مشاهدات و یک حالت همه حالت ها را به شما می دهند؟ |
35750 | با توجه به اینکه تجزیه و تحلیل بقا به تجزیه و تحلیل/پیشبینی زمان یک رویداد مربوط میشود، میدانستم که آیا میتوان از آن برای پیشبینی زلزله استفاده کرد؟ اگر چنین است، چگونه می توان آن تحلیل را در مورد یک منطقه خاص مانند ژاپن یا کالیفرنیا انجام داد؟ بنابراین حدس میزنم یک سوال مرتبط با آن جمله باشد... برای مثال اگر مجموعه دادهای مبتنی بر سری زمانی تک متغیره را در نظر بگیریم که به لرزشها در طول زمان در ژاپن نگاه میکند، آیا میتوان آن را به روشی تبدیل کرد که برای تجزیه و تحلیل بقا قابل استفاده باشد. .. این با فرض این است که لرزش های بالقوه کوچک قبلی ممکن است نشان دهنده یک زلزله بسیار بزرگتر در آینده باشد. | آیا می توان از تحلیل بقا برای پیش بینی زلزله استفاده کرد؟ |
51509 | بیایید بگوییم که یک رویداد داریم - متغیر (1/0) که نشان دهنده وقوع یک رویداد به صورت روزانه است، به عنوان مثال. یک اعتصاب اکنون می گوییم که یک متغیر پیوسته (فروش) داریم که می خواهیم آن را پیش بینی کنیم. فاصله زمانی که متغیر در آن اندازه گیری می شود ماهانه است. میخواهیم متغیر رویداد را در مدلی بگنجانیم که برای پیشبینی فروش استفاده میشود، اما متغیر رویداد در فاصله زمانی دقیقتری اندازهگیری میشود. اگر در یک ماه 5 روز اعتصاب رخ داده باشد، آیا می توانیم بگوییم که مقدار متغیر رویداد برای آن ماه 5 است؟ به طور کلی تر، آیا می توانیم با تجمیع مقادیر متغیر رویداد dalily یک متغیر رویداد مشتق شده ایجاد کنیم؟ به این ترتیب ما یک متغیر مستقل با مقداری از 0 (هیچ ضربه ای در ماه خاص رخ نداده است) تا 30 خواهیم داشت (اگر یک اعتصاب هر روز در ماه خاص رخ داده باشد)؟ آیا این فرآیند از نظر آماری است و آیا این متغیر قدرت پیش بینی دارد؟ تشکر پیشاپیش، آندریاس * * * ممنون از پاسخ شما. اجازه دهید با فرض اینکه متغیر وابسته مصرف برق باشد و رویداد روزی با دمای متوسط بسیار پایین (روز با سرمای شدید) باشد، مسائل را کمتر پیچیده کنیم. با این پرونده، ما به تعطیلات آخر هفته و بقیه مشکلاتی که در مورد اعتصابات ایجاد می شود، اهمیت نمی دهیم. بیایید بگوییم که ما در دوره ماهانه مصرف برق داریم بنابراین 12 مشاهده در سال. اجازه دهید همچنین بگوییم که با استفاده از یک متغیر باینری، روزهای سرد بسیار زیاد روزانه را ثبت میکنیم (بنابراین تقریباً 365 مشاهده در سال. اگر بخواهید رویداد روزانه را در مدل پیشبینی سری ماهانه بگنجانید، چه میکنید. 1 را جمع کنید، آیا درصد روزهایی که در طول ماه سرمای شدید را نشان می دهند را در نظر بگیرید یا به نظر شما کدام راه حل بهتر است؟ | جمع کردن رویدادها در پیشبینی سریهای زمانی |
61090 | حالا من یک قاب داده «R» دارم (آموزش)، آیا کسی میتواند به من بگوید چگونه این مجموعه داده را بهطور تصادفی تقسیم کنم تا اعتبارسنجی متقاطع 10 برابری انجام شود؟ | چگونه یک مجموعه داده را برای اعتبارسنجی متقابل 10 برابر تقسیم کنیم |
74626 | چگونه می توانم حساسیت یک مدل رگرسیون را به نویز بررسی کنم؟ یک ایده اولیه اضافه کردن مقداری نویز (گاوسی) به متغیرهای وابسته و/یا مستقل و ارزیابی مجدد RMSE است. با این حال، مشکل این رویکرد این است که بیشتر علاقه مند به مدل سازی داده های واقعی است، نه داده های نویزدار. از این رو، آیا منطقی است که RMSE را بر روی متغیر وابسته اصلی اندازه گیری کنیم، نه متغیر نویزدار، حتی اگر دومی برای ساخت مدل استفاده شده باشد؟ | نحوه ارزیابی حساسیت مدل رگرسیون به نویز |
27656 | رویکرد سنتی به انتخاب متغیر، یافتن متغیرهایی است که بیشترین سهم را در پیشبینی پاسخ جدید دارند. اخیراً از جایگزینی برای این مطلع شدم. در مدلسازی متغیرهایی که تأثیر یک درمان را تعیین میکنند - به عنوان مثال در یک کارآزمایی بالینی یک دارو - به این متغیر گفته میشود که از نظر کیفی با درمان تعامل دارد، اگر با ثابت ماندن سایر موارد، تغییر در آن متغیر میتواند تغییری ایجاد کند. که در آن درمان موثرتر است. این متغیرها همیشه پیشبینیکنندههای قوی اثر نیستند، اما ممکن است برای یک پزشک در هنگام تصمیمگیری در مورد درمان برای بیماران خاص مهم باشند. لیسی گانتر در پایان نامه دکترای خود روشی را برای انتخاب این متغیرهای کیفی برهمکنش ابداع کرد که ممکن است توسط الگوریتم هایی که انتخاب را بر اساس پیش بینی قرار می دهند نادیده گرفته شوند. اخیراً من با او در گسترش این روشها به مدلهای دیگر از جمله رگرسیون لجستیک و مدلهای رگرسیون خطر متناسب کاکس کار کردهام. من دو سوال دارم: 1. نظر شما در مورد ارزش این روش های جدید چیست؟ 2. در مورد روش های سنتی چه رویکردی را ترجیح می دهید؟ معیارهایی مانند تست های AIC، BIC، Mallows Cp، F برای وارد کردن یا رها کردن متغیرها به صورت گام به گام، رو به جلو و عقب... * * * اولین مقاله در این مورد در Gunter، L.، Zhu، J و Murphy، S. A. منتشر شد. 2009). _انتخاب متغیر برای تعاملات کیفی_. **روش آماری** doi:10, 1016/j.stamet.2009.05.003. مقاله بعدی در Gunter, L., Zhu, J. and Murphy, S. A. (2011) ظاهر شد. _انتخاب متغیر تعاملات کیفی در پزشکی شخصی با کنترل میزان خطای خانوادگی. **مجله آمار بیودارویی** 21, 1063-1078. مورد بعدی در یک شماره ویژه در مورد انتخاب متغیر Gunter, L., Chernick, M. R. and Sun, J. (2011) ظاهر شد. روشی ساده برای انتخاب متغیر در رگرسیون با توجه به انتخاب درمان. **مجله تحقیقات آمار و عملیات پاکستان** 7: 363-380. می توانید مقالات را در وب سایت های مجله پیدا کنید. ممکن است مجبور شوید مقاله را بخرید. من ممکن است فایل های پی دی اف این مقالات را داشته باشم. من و لیسی به تازگی یک مونوگراف در مورد این موضوع را تکمیل کرده ایم که در اواخر امسال به عنوان SpringerBrief منتشر خواهد شد. | چگونه متغیرها را در مدل رگرسیونی انتخاب می کنید؟ |
74620 | من باید ضریب آزمون کولموگروف-اسمیرنوف را برای هر سطح رد فرضیه صفر معین محاسبه کنم. به عنوان مثال، به جدول موجود در این مدخل ویکی پدیا نگاهی بیندازید. فقط $c(\alpha)$ را برای $\alpha=0.10، 0.05، 0.025، 0.01، 0.005، 0.001$ می دهد. چگونه می توانم $c(\alpha)$ را برای محدوده وسیع تری از $\alpha$s محاسبه کنم؟ اگر بی اهمیت نیست، آیا کسی می تواند مرا در جایی راهنمایی کند که بتوانم جدولی برای $c(\alpha)$ با مقادیر بزرگتر $\alpha$ پیدا کنم؟ پیشاپیش ممنون | محاسبه ضریب کولموگروف - اسمیرنوف |
35757 | من یک مدل اثرات تصادفی $f(t)=\alpha-(\alpha-\beta)*\exp(-\gamma*t)$ را نمایی غیرخطی در R تخمین زدم. من همان فرم مدل را با استفاده از مجموعه دادههای یکسان اما با «nlme()» از کتابخانه «nlme» و «nlmer()» از کتابخانه «lme4» تخمین زدم. تخمینهای اثر ثابت در مقایسه «nlme» با «nlmer» کاملاً مشابه است: **nlme:** جلوههای ثابت: آلفا + بتا + گاما ~ 1 مقدار Std. Error DF t-value p-value alpha 29.508227 0.4166492 3828 beta 70. 5.082116 0.1584696 3498 32.06998 0 گاما 0.313008 0.0070209 3498 44.58244 0 **nlmer:** جلوه های ثابت: Estimate Std. خطای t مقدار آلفا 30.0432 0.5432 55.31 بتا 4.9541 0.2110 23.47 گاما 0.2551 0.0135 18.90 با این حال، برآورد اثرات تصادفی همراه با ماتریس همبستگی آنها متفاوت است. این یک یافته ثابت است. همچنین برای سایر توابع غیرخطی و سایر داده ها نیز وجود دارد. به عنوان مثال ببینید همبستگی بین آلفا و گاما همچنین قابل توجه است که واریانس ها در «nlmer» چقدر بزرگ هستند -- در واقع به نظر می رسد بسیار بزرگ هستند **nlme:** > VarCorr(model) Subject = pdLogChol(list(alpha ~ 1,beta ~ 1,gamma ~ 1)) واریانس StdDev Corr آلفا 42.19955753 6.496119 آلفا بتا بتا 4.84969745 2.202203 0.494 گاما 0.01055961 0.102760 -0.643 0.202 Residual 1.94836594 1.395839 **nlmer:** NameD Variance Effects. Corr موضوع آلفا 72.551249 8.51770 بتا 9.840010 3.13688 0.458 گاما 0.043274 0.20802 -0.195 0.142 باقیمانده 1.716048 تعداد 1.716048: 83048 تعداد 1.716048: 83048 از 1. موضوع، 250 مشکل اینجا چیست؟ چرا واریانسهای «nlmer» تقریباً دو برابر بیشتر از واریانسهای ارائه شده در راهحل «nlme» است؟ | اثرات تصادفی مختلف در nlme و nlmer |
59072 | من یک توزیع یکنواخت دارم که از $\mathbb{Z}_q$ تولید میشود (بنابراین من اعداد صحیح از بازه [$-q/2$, $q/2$) دارم. سپس یکی را از دیگری کم می کنم و مدول نتیجه $q$ را می گیرم (بنابراین دوباره یک عدد صحیح از بازه بالا دارم). چگونه ثابت کنیم (یا رد کنیم) که توزیع حاصل در $\mathbb{Z}_q$ یکنواخت می ماند؟ | تفاوت دو متغیر یکنواخت گسسته مدول گرفته شده است. هنوز یکنواخت است؟ |
92222 | من نمی دانم چگونه همه تست ها را در Unit Root مقایسه کنم. کدام یک در میان: * ADF * PP * KPSS * Elliott، Rothenberg & Stock Unit Root Test | آزمون مقایسه در ریشه واحد |
23891 | من مجموعه بزرگی از سری های زمانی دارم - اندازه گیری هایی که هر 15 دقیقه (96 اندازه گیری در روز) در طول 1 سال در مکان های مختلف انجام می شود. من هر سری زمانی را به 365 سری زمانی جداگانه کوچکتر تقسیم کردم، 1 برای هر روز از سال. با نگاهی به این سری های زمانی، مطمئناً اشکال متمایز زیادی برای یک روز وجود دارد. برخی سینوسی به نظر می رسند، برخی ثابت هستند، برخی شبیه به یک فرآیند تصادفی تصادفی، برخی سهمی به نظر می رسند و برخی شبیه U به نظر می رسند. کاری که من می خواهم انجام دهم استفاده از الگوریتمی است که بتواند این اشکال رایج را پیدا کند. من به خوشهبندی و استفاده از مرکزهای خوشهای برای تعریف اشکال رایج فکر کردم، اما میخواستم با جامعه بررسی کنم که آیا این درست است یا خیر. تا کنون، من به Dynamic Time Warp به عنوان یک متریک نگاه کرده ام، اما به نظر می رسد که این متریک به محاسبات زیادی نیاز دارد. من همچنین http://mox.polimi.it/it/progetti/pubblicazioni/quaderni/13-2008.pdf را از SE پیدا کردم. همچنین دیدم آیا می توان خوشه بندی سری های زمانی را بر اساس شکل منحنی انجام داد؟ اما این سوال مربوط به سال 2010 بود و ممکن است قدیمی باشد. ایده دیگری که داشتم این بود که تجزیه ویژه ماتریسهایی را که به این صورت قالببندی میشدند در نظر بگیرم: ماتریس $M_i$ ماتریسی از تمام سریهای زمانی است که در روز $i$ مشاهده میشود. هر ردیف از ماتریس $M_i$ یک سری زمانی به طول 96 است. سپس، من 365 تجزیه ویژه انجام میدهم و از بردارهای ویژه به عنوان اشکال رایج استفاده میکنم. آیا این منطقی به نظر می رسد؟ با تشکر | تشخیص شکل برای داده های سری زمانی |
60942 | هنگام استفاده از خطاهای استاندارد Newey-West برای آماره های t من از ضرایب شیب در یک رگرسیون OLS، آیا هنوز هم می توانم از مقادیر بحرانی معمول برای تست های دو طرفه استفاده کنم؟ (1.645 برای 10% معنی دار، 1.96 برای 5% و 2.58 برای 1%) | آمار t-آمار نیوی وست و مقادیر بحرانی |
61092 | فرض کنید $Y_1,\dots,Y_n\mid\mu,\sigma^2 \sim \text{ iid } N(\mu,\sigma^2)$ و فرض کنید پیشین $\mu \mid \sigma^2 \sim N(\mu_0، \sigma^2 / \kappa_0)$ و $1/\sigma^2 \sim \text{gamma}(\nu_0/2, \nu_0 \sigma_0^2 / 2)$ روی پارامترهای ناشناخته قرار میگیرند. سپس \begin{align*} p(\sigma^2 \mid y_1,\dots,y_n) &\propto p(\sigma^2)p(y_1,\dots,y_n\mid\sigma^2) \\\ &= p(\sigma^2) \int p(y_1،\dots،y_n \mid \mu,\sigma^2)p(\mu\mid\sigma^2)d\mu \end{align*} با این پیشینها مشخص میشود (به Hoff مراجعه کنید) که توزیع حاشیهای خلفی روی $\sigma^2$ $1/\sigma^2\mid y_1,\dots,y_n \sim است \text{گاما}(\nu_n/2،\nu_n\sigma_n^2/2)$$ که $$\nu_n = \nu_0 + n، \text{ و } \sigma_n^2 = \frac{1}{\ nu_n}\left( \nu_0\sigma_0^2 + (n-1)s^2 + \frac{\kappa_0 n}{\kappa_0 + n} ( \bar{y}-\mu_0 )^2 \right)$$ که در آن $\bar{y}$ و $s^2$ میانگین نمونه و واریانس نمونه بی طرفانه هستند. بنابراین داریم که $$ \text{Var}\left[\frac{1}{\sigma^2} \mid y_1,\dots,y_n\right] = (\nu_n/2) / (\nu_n\sigma_n^ 2/2)^2 = \frac{2}{\nu_n\sigma_n^4}. $$ حالا فرض کنید همه هایپرپارامترها به جز $\kappa_0$ را برطرف کرده و اثر افزایش واریانس $\mu\mid\sigma^2$ را (با کاهش $\kappa_0$) تجزیه و تحلیل کنیم. از آنجایی که $f(\kappa_0)=\kappa_0 n / (\kappa_0 + n)$ به طور یکنواخت به عنوان تابعی از $\kappa_0$ افزایش مییابد، میبینیم که \begin{align*} \kappa_{0,a} < \kappa_ {0,b} &\Rightarrow \kappa_{0,a} n / (\kappa_{0,a} + n) <\ kappa_ {0 ، b} n / (\ kappa_ {0 ، b} + n) \\\ & \ reightarrow \ sigma_ {n ، a}^2 <\ sigma_ {n ، b}^2 \\\\ & \ Rightarrow \ sigma_ {n ، a}^4 <\ sigma_ {n ، b}^4 \\\ & \ redarrow \ frac {2} {\ nu_n \ sigma_ {n ، b}^4} <\ frac {2} {\ nu_n \ sigma_ {n ، a}^4} ، \ end {align*} i.e. $\mu\mid\sigma^2$ منجر به افزایش واریانس خلفی حاشیهای میشود $\text{Var}\left[1/\sigma^2\mid y_1،\dots،y_n\right]$. به طور شهودی، این نتیجه بسیار منطقی است زیرا اگر $p(\mu \mid \sigma^2)$ بیشتر پخش شود، میانگین (انتگرال) بیش از $p(\mu \mid \sigma^2)$ بالا باعث می شود $p(\sigma^2 \mid y_1,\dots,y_n)$ بیشتر پخش شده است. این باعث می شود فکر کنم که این نتیجه باید به طور کلی قابل اثبات باشد، یعنی یک مدل نمونه گیری $f_{Y\mid\theta,\phi}$ بسته به دو پارامتر ناشناخته $\theta$ و $\phi$، و مقدمات $ f _ {\ theta \ mid \ phi} $ و $ f _ {\ phi} $ ، افزایش در $ \ text {var} \ سمت چپ [ \ theta \ mid \ phi \ right] $ باید منجر به افزایش در $ \ text {var} \ سمت چپ شود [\ phi \ mid y_1 ، \ dots ، y_n \ right] $. آیا کسی از نتیجه کلی مانند این خبر دارد؟ | واریانس توزیع خلفی حاشیه ای |
56575 | من یک مجموعه داده از مقادیر x و y دارم که میخواهم یک تناسب خطی از آنها ایجاد کنم. با استفاده از «polyfit(x,y,1)» ضرایب «a» و «b» را برای برازش خطی «ax = b» برای این داده به دست میآورم، اما همچنین میخواهم عدم قطعیت یا انحراف استاندارد را برای این ضرایب پیدا کنم. . کسی راه آسانی برای انجام این کار می شناسد؟ Google-fu من فقط این نتیجه را به من داد و از آنجایی که به عنوان آخرین پاسخ در آن تاپیک اصلاحی بر پاسخ اول است، نمی دانم که آیا باید به هر یک از پاسخ ها اعتماد کنم یا خیر. پاسخ آن تاپیک این است: [z,s]=polyfit(x,y,1); ste = sqrt(diag(inv(s.R)*inv(s.R')).*s.normr.^2./s.df); اگر کسی به آن نیاز دارد مجموعه داده در اینجا آمده است: x = [1.3979 1.6990 2.0000 2.3010 2.6021 2.9031]; y = [-1.5219 -1.6300 -1.8249 -2.2584 -2.5054 -2.6248]; (میدانم که بیشتر شبیه یک چند جملهای مرتبه سوم به نظر میرسد، اما طبق نظریه پشت اندازهگیریهای من باید خطی باشند.) | یافتن عدم قطعیت در ضرایب از polyfit در Matlab (بدون جعبه ابزار) |
52859 | من از رگرسیون چندک برای تخمین ضریب خاصی برای صدک های 10، 20، ... 90 استفاده کرده ام. اکنون میخواهم اثر میانگین ضریب را در کل توزیع تخمین بزنم. استفاده از حداقل مربعات معمولی برای تخمین اثر میانگین، با توجه به توزیع ناهمسان و غیر گاوسی خطاهای مدل، نامناسب است. آیا استفاده از میانگین تخمین های رگرسیون چندک به عنوان تقریبی از اثر میانگین ضریب مناسب است؟ | محاسبه یک اثر ضریب میانگین بر اساس برآوردهای رگرسیون چندک |
56573 | من یک مدل جلوه های ترکیبی به شرح زیر تولید کرده ام: `lmer(TotalPayoff~Type+Game+PgvnD*Asym+(1|Subject)+(1|Pairing),REML=FALSE,data=table)` هر جفت شامل 2 موضوع است و هر کدام موضوع در 2 جفت مختلف با موضوعات مختلف است. آیا برای کنترل وابستگی «TotalPayoff» بین دادههای یک موضوع و همچنین بین دادههای یک جفت، جلوههای تصادفی را به روشی درست ساختار دادهام؟ (اگر یکی از سوژهها در یک جفت، «TotalPayoff» بالایی داشته باشد، دیگری نیز خواهد داشت). | ساختار صحیح اثرات تصادفی؟ |
52856 | من یک رگرسیون چندگانه به شکل y~a+b+c+ab+ac+bc اجرا میکنم. مقادیر VIF را برای اثرات مستقیم بررسی کردهام - آیا باید آنها را برای تعاملات بررسی کنم؟ من فرض نمی کنم که این معادل نگاه کردن به چندخطی بودن بین یک متغیر و خودش (البته در یک تعامل) است که مطمئناً بسیار زیاد خواهد بود؟ | مقادیر و تعاملات VIF در رگرسیون چندگانه |
74625 | میدانستم که آیا استدلال من درست است و آیا آن را به درستی یادداشت کردهام: با توجه به معادله زیر $bread_i=\beta_{0} + \beta_{1}wage + u_{t}$، که در آن $u_{t} $ معمولاً با میانگین صفر و واریانس $\sigma^{2}$ توزیع میشود و مستقل از $wage$ است. علاوه بر این، ما می دانیم که هیچ همبستگی خودکاری وجود ندارد، $bread$ و $wage$ با هم ادغام نمی شوند، اما یک ریشه واحد در $bread$ و $wage$ وجود دارد. با توجه به مدل تفاوت اول $\Delta bread_{t} = \beta_1 \Delta wage_{t}+\epsilon_{t}$، که $\epsilon = \Delta u_{t}$. آیا عبارت خطای $\epsilon_{t}$ در این معادله در طول زمان همبستگی ندارد؟ لطفاً پاسخ خود را با یک اشتقاق رسمی انگیزه دهید. خوب من به این فکر کردم: از آنجایی که $\epsilon = u_{t} - u_{t-1}$ و ما می دانیم که هیچ همبستگی خودکاری بین آنها وجود ندارد، پس از اولین تفاوت، پس از آن هیچ خودهمبستگی وجود نخواهد داشت. سوال این است که البته چگونه آن را نشان دهیم؟ استفاده از COV شاید؟ من در حال حاضر سعی می کنم آن را استخراج کنم، اما کمی گیر کرده ام. پیشاپیش متشکرم | اثبات اینکه خود همبستگی وجود ندارد |
56938 | من سعی میکنم تا زمانی که یک شرط توقف برآورده شود، توزیع در تعدادی آزمایش را کشف کنم. به طور خاص، تصور کنید که ما نمونههایی از یک متغیر تصادفی توزیع شده یکنواخت، $X \in \\{a,a+1,...,b\\}$ را مشاهده میکنیم. ما به مشاهده نمونهها ادامه میدهیم تا زمانی که مجموع این اعداد از آستانه $Z$ عبور کند، سپس فرآیند را متوقف میکنیم. یعنی مجموعه $\\{x_1, ..., x_T | \sum_{i=1}^T x_i \geq Z\\}$. من به توزیع بر روی متغیر تصادفی $T$ (تعداد آزمایشات) علاقه مند هستم. این مشابه توزیع چند جمله ای یا چند جمله ای منفی است، اما یکسان نیست. با فرض اینکه $b << Z$، میتوانیم خطای کوچک گرد کردن را در انتها نادیده بگیریم و فرض کنیم که $\sum_{i=1}^T x_i = Z$. سپس میتوانیم برخی از مشاهدات اولیه مانند $\frac{Z}{a} \leq T \leq \frac{Z}{b}$ را انجام دهیم. همچنین، از آزمایشها به نظر میرسد که $\mathbb{E}[T] = \frac{Z}{\mathbb{E}[X]}$، اما در مورد واریانس یا شکل کلی توزیع مطمئن نیستیم. ویرایش: این سوال را می توان تا حدی با رعایت موارد زیر پاسخ داد، ابتدا $Y = \sum_{i=1}^N X_i$ را نشان دهید، البته ما $Y/N \overset{d}{\to} \ داریم. mathbb{E}[X]$. به طور طبیعی، برای هر $N$ بزرگ، انتظار داریم $Y \تقریبا N\mathbb{E}[X]$. در واقع، این را می توان از نابرابری هوفدینگ نیز مشاهده کرد. بنابراین، برای یک $Z$ به اندازه کافی بزرگ، اگر $Y=Z$ را محدود کنیم، $Z \approx T\mathbb{E}[X]$ یا $T \approx \frac{Z}{\mathbb{E داریم. همانطور که مشاهده کردم [X]}$. | توزیع برای تعداد آزمایشها قبل از رسیدن به مبلغ ثابت |
92225 | من فریمی دارم که شامل > شرکت کننده----شرایط----مدت > شرکت کننده1،یک،2000 > شرکت کننده1،یک،2780 > شرکت کننده1،یک،200 > شرکت کننده2،دو،2000 > شرکت کننده 2،دو،2340 > شرکت کننده2 ,Two,2120 > Participant2, Two,2420 > Participant2,Two,2990 > Participant3,One,2120 و غیره... اساساً برای هر شرکت کننده چندین معیار مدت زمان وجود دارد. برای مقایسه مدت زمان با شرایط، از > lme(Duration~Cndition,random=~1|Participant) و > plot.lme(model,Condition~fitted(.)) استفاده می کنم تا ایده ای از مدل داشته باشیم. من نمیپرسم آیا راهی برای رسم دادههای واقعی، به سبک خلاصه مانند plotmeans وجود دارد. منظورم این است که می توانم از نمودار میانگین با رابطه 1:1 بین شرکت کننده و اندازه گیری استفاده کنم، در غیر این صورت میانگین توسط شرکت کننده با ورودی های بیشتر کشیده می شود. آیا چیزی مشابه برای اقدامات مکرر وجود دارد؟ بزرگ یعنی شاید؟ با تشکر | روش خوبی برای رسم متغیر بین شرایط با اندازه گیری های متعدد |
111508 | من به دنبال یک بسته R lokern هستم. این دو انتخابگر پهنای باند، پهنای باند پلاگین جهانی و محلی را فراهم می کند. من می خواهم تفاوت بین دو روش را درک کنم. درک من پهنای باند جهانی از یک پهنای باند برای کل مجموعه داده ها استفاده می کند ، و پهنای باند محلی از پهنای باند مختلف در یک مجموعه داده با توجه به برخی معیارها (مانند چگالی داده ها و غیره) استفاده می کند. آیا این درست است؟ آیا معیاری وجود دارد که چه زمانی پهنای باند محلی مفیدتر است و چه زمانی جهانی مفیدتر است؟ | چگونه پهنای باند پلاگین محلی و جهانی در رگرسیون هموارسازی هسته متفاوت است؟ |
73167 | من باید برای یک کلاس به این سوال پاسخ دهم و کاملاً گیج هستم. پیوند GLM log و یک متغیر ساختگی برای جنسیت (1 = مذکر، 0 = زن) تخمین جنسیتی 0.308 دارد. SE با فرض توزیع پواسون 0.038 و با فرض یک مدل دوجمله ای منفی 0.127 است. چرا مقادیر SE اینقدر متفاوت هستند؟ هر گونه فکر بسیار قدردانی خواهد شد. | مقایسه خطاهای استاندارد منفی دو جمله ای و پواسون |
110457 | من بین این دو اصطلاح سردرگم شده ام: _حساسیت_ و _همخوانی_. آنچه در مورد این دو عبارت میدانم: ** تطابق:** تعداد جفتهایی که 1های واقعی احتمال 1 شدن پیشبینیشده بالاتری نسبت به 0ها تقسیم بر تعداد کل جفتها دارند. **حساسیت:** درصد 1 ها به درستی 1 پیش بینی شده است. با تعاریف آنها، به نظر می رسد هر دو یکسان هستند. من جایی خوانده ام که همخوانی = (مثبت واقعی + منفی واقعی) / حجم نمونه. من سعی کردم مطابقت را با استفاده از این فرمول محاسبه کنم. اما به نظر می رسد نادرست است. اول، من رگرسیون لجستیک را در SAS با استفاده از PROC LOGISTIC با گزینه های CTABLE PPROB=0.5 اجرا کردم. سپس جفتهای مثبت واقعی را از (درصد حساسیت $\times$ تعداد 1s) و جفتهای منفی واقعی را از (درصد ویژگی $\ برابر تعداد 0s) محاسبه کردهام. آنها را جمع کردم و بر کل پاسخ ها تقسیم کردم. این با نمره همخوانی مطابقت ندارد. | هماهنگی در مقابل حساسیت |
52853 | با فرض نمونهای از متغیرهای تصادفی که در آن عبارات خطا برای هر متغیر تصادفی ($y_{i}$) توسط $\epsilon_{1}، \dots، \epsilon_{n} \sim N(0، \sigma^{ داده میشود. 2})$، یک مدل خطی ایجاد میشود که: $$ y_{i} = \beta_{0} + \epsilon_{i} $$ سپس با استفاده از OLS، پیدا کردن، $$ \frac{d}{d\hat{\beta}_{0}} \sum_{i}^{n}(y_{i} - \hat{\beta}_{0})^{ 2} = 0 $$ و حل برای $\hat{\beta}_{0}$ بازده، $\hat{\beta}_{0} = \frac{1}{n}\sum_{i}^{ n} y_{i} = \bar{y}$ با این حال، اکنون، بیایید فرض کنیم که _دو_ متغیر تصادفی وجود دارد که عبارات خطا برای متغیر تصادفی مربوطه ($y_{i}$) توسط $\epsilon_{1} \sim N(0) داده می شود. ، \ sigma^{2}) $ و $ \ epsilon_ {2} \ sim n (0 ، n \ sigma^{2}) $. یک بار دیگر، مدل خطی به گونهای توسعه مییابد که: $$ y_{i} = \beta_{0} + \epsilon_{i} $$ آیا میتوان از تخمینگر $\beta_{0}$ ارائهشده در بالا برای این مدل استفاده کرد. ? اگر نه ، با توجه به ناهمگونی درگیر در شرایط خطا ، چگونه یک برآوردگر برای $ \ beta_ {0} $ توسعه یافته است؟ من مدلهای خطی را دیدهام که با توجه به نقطه داده، از توابع نشانگر برای تعیین اینکه کدام عبارت در مدل غیر صفر هستند استفاده میکنند. شاید این در اینجا صدق کند؟ | تخمین مدل خطی در حضور ناهمسانی |
32194 | من اخیراً مقالات زیادی در مورد نمایش های پراکنده می بینم، و بیشتر آنها از هنجار $\ell_p$ استفاده می کنند و مقداری کوچک سازی انجام می دهند. سوال من این است که هنجار $\ell_p$ و هنجار مختلط $\ell_{p, q}$ چیست؟ و چگونه آنها به منظم سازی مرتبط هستند؟ با تشکر | هنجارهای $\ell_p$ چیست و چگونه با قانونمندسازی مرتبط هستند؟ |
23898 | من از یک شبکه عصبی با توپولوژی 17-30-1 (sigmoid، تابع خطای atan، mse به عنوان تابع هزینه، 5 برابر cv) برای طبقه بندی متن استفاده می کنم. (این ارتباط نزدیک با سوال قبلی من است.) داده های ورودی کاملاً پر سر و صدا هستند، بنابراین من می توانم با نمره طبقه بندی عالی زندگی کنم، اما نتایجی که می گیرم احتمالاً خیلی بد (یا حتی تصادفی) هستند و بنابراین می پرسم برای نظر شما 1. خطای آموزش حدود 0.06-0.09 (MSE) است، یعنی به طور میانگین هر طبقه بندی تقریباً متفاوت است. 0.25-0.3 از برچسب پیش بینی. در این حالت باینری با آستانه کلاس 0.5 این ممکن است قابل قبول باشد. نظر شما چیست؟ 2. خطای تست (MSE) متاسفانه حدود 0.20 است و گاهی اوقات حتی 0.25; یعنی خطای موثر برای یک نمونه آزمایشی حدود 0.5 است، که به نظر من به این معنی است که شبکه a) از واریانس بالایی رنج می برد و ب) به اندازه حدس زدن تصادفی خوب است. من به یک طبقه بندی کامل نیاز ندارم، اما شبکه باید الگوهای داده های ورودی را نشان دهد. اما با این نتایج من فکر می کنم شبکه عصبی کم و بیش بی فایده است یا بهتر است بگوییم ویژگی های ورودی مزخرف هستند. | آیا تفسیر من از نتایج شبکه عصبی درست است؟ |
56572 | فرض کنید من یک مجموعه آموزشی $\mathcal{T}^N = \\{(x_i , y_i) \in \mathbb{R}^{d} \times \\{0,1\\}\\}$ دارم، جایی که داده ها i.i.d از برخی توزیع ها استخراج می شود. اکنون من یک طبقهبندی کننده $\hat{h}$ از این دادهها با استفاده از برخی الگوریتمهای قطعی یاد میگیرم. WLOG هنجارهای اقلیدسی $x_i$ و $\hat{h}$ را $1$ در نظر گرفته و با $\theta_i := \arccos(x_i^T\hat{h})$ زاویه بین $x_i$ را نشان میدهد. و $\hat{h}$. بدیهی است که این درست است که برای _any_ $\hat{h}$ ثابت که تابعی از داده ها نیست، زاویه های $\theta_i$ متغیرهای تصادفی مستقل هستند، اما در اینجا $\hat{h}$ تابعی از iid $ است. x_i$: آیا هنوز درست است که زوایای $\theta_i$ مستقل هستند؟ | آیا زوایای بین داده های آموزشی iid و طبقه بندی کننده ای که از آنها آموخته می شود مستقل هستند؟ |
32195 | من در درک قابلیت شناسایی مشکل دارم. به طور خاص، در مثال زیر مطمئن نیستم که چرا $P\left(C\right)$ نمی تواند شناسایی شود. مثال اینجاست: شما 2 سکه ناعادلانه با احتمالات زیر دارید: $$P\left(H|C_1\right)=1/4$$$P\left(H|C_2\right)=3/4$$ احتمال انتخاب هر سکه برابر است، بنابراین $P\left(C=C_1\right)=P\left(C=C_2\right)=1/2$. سوال من این است که با توجه به اینکه من فقط $H$ را مشاهده می کنم، چرا نمی توانم $P\left(C\right)$ را با استفاده از جبر اولیه شناسایی کنم. یعنی \begin{eqnarray} P\left(H\right)&=&P(C_1)P\left(H|C_1\right) + P\left(C_2\right)P\left(H|C_2\right) )\\\ &=& P\left(C\right)\left(P\left(H|C_1\right)+P\left(H|C_2\راست)\راست)\\\ P\left(C\راست) &=& \ frac{P\left(H\right)}{P\left(H|C_1\right)+P\left(H|C_2\right)} \end{eqnarray} در این مورد به نظر میرسد $P\left(C\right)$ قابل شناسایی است، بنابراین مطمئن نیستم که کجا اشتباه میکنم. توجه داشته باشید که من به دنبال شناسایی خود $C$ (سکه واقعی) نیستم، من می خواهم توزیع $C$ را بدانم. | درک قابلیت شناسایی اولیه |
32198 | من میخواهم از یک توزیع برای پیشبینی مقدار p (خواه صرفاً نویز) هر عنصر در این مجموعه داده استفاده کنم. اما من نمی دانم از چه توزیعی استفاده کنم. آیا کسی می تواند راهنمایی هایی در مورد آن به من بدهد؟  | از کدام توزیع برای توصیف این داده های بدون غنی سازی استفاده کنم؟ |
32190 | فرض کنید گزارشهای مختلفی در مورد فروش پیشبینیشده محصول X$ برای سال 5$ از $2013 به ما داده میشود. همه گزارشها فقط نتایج را نشان میدهند و نه روششناسی نحوه رسیدن به پیشبینیها. فرض کنید ما به فروش پیش بینی شده محصول X$ برای سال 10$ علاقه مند هستیم. بنابراین ما در حال حاضر قیمت های پیش بینی شده از 2013-2018 دلار را داریم و علاقه مند به فروش پیش بینی شده از 2019-2023 دلار هستیم. آیا می توانیم برای این سال ها از مدل سری زمانی استفاده کنیم؟ | مدل های سری زمانی برای فروش پیش بینی شده |
74190 | من به طور مستقیم درک می کنم که چرا این یک ایده وحشتناک است - شما فرض می کنید مدل شما درست است و سپس تعداد مشاهدات خود را افزایش می دهید که احتمالاً منجر به تناسب ضعیف با داده های آینده می شود. من نمیپرسم که آیا خاصیت ریاضی/آماری برای توصیف این موضوع وجود دارد، یا آیا مورد نادری وجود دارد که ممکن است آنقدر که من فکر میکنم کشنده نباشد؟ | آیا همیشه بد است که مدل خود را برای گنجاندن داده های پیش بینی شده مجدداً آموزش دهید؟ |
73162 | در حال تلاش برای تخمین اثر 2 دارو («دارو1»، «دارو2») بر احتمال افتادن بیمار («رویداد») هستم. بیماران می توانند بیش از یک بار زمین بخورند و می توانند داروها را در هر نقطه ای از آنها استفاده کنند یا از آنها خارج کنند. سوال من این است که چگونه داده ها باید با توجه به دوره زمانی (روزها) ساختار شوند، به ویژه اینکه آیا نیاز به همپوشانی بین روزها وجود دارد یا خیر. دو دلیل وجود دارد که من فکر می کنم ساختار من اشتباه است، اولی N به ظاهر نادرست است. من همچنین برخی از خطاها را دریافت می کنم که دوره زمانی یک روز است (یعنی time1=4، time2=4) و مطمئن نیستم که چگونه باید کدگذاری شوند. آیا زمان شروع ورودی های بعدی باید زمان توقف ورودی قبلی باشد؟ من آن را به هر دو روش امتحان کرده ام (با و بدون همپوشانی)، و در حالی که همپوشانی از شر هشدار خلاص می شود، «N» هنوز نادرست است. پیام هشدار: در Surv(time = c(0, 2, 7, 15, 20, 0, 18, 27, 32, 35, 39, 46, 53, : زمان توقف باید > زمان شروع باشد، NA ایجاد شد همین الان من دادهها را در جایی تنظیم کنید که ابتدای ورود بعدی، روز بعد باشد Drug1 Drug2 رویداد نمودار شماره 0 2 1 0 0 123 3 10 1 1 1 123 11 14 1 1 1 123 0 11 0 1 0 345 0 19 1 0 1 678 0 4 0 019 10 Patient 123 در شروع به روز 2 داروی 1 را مصرف می کردند، پس از آن، آنها داروی 2 را اضافه کردند. بیمار 345 11 روز بدون افتادن از داروی 2 استفاده کرد (سپس سانسور شد) و غیره. تخمین واقعی به این صورت است: S <- Srv(time=time1, time2=time2, event=event) cox.rms <- cph(S ~ Drug1 + Drug2 + cluster(ChartNo), surv=T) نگرانی اصلی من این است که n برای تحلیل من 2017 گزارش شده است ( تعداد ردیفها در دادهها)، در حالی که من در واقع فقط «314» بیمار منحصر به فرد دارم. من مطمئن نیستم که آیا این طبیعی است یا نتیجه اشتباهی است که در طول مسیر انجام داده ام. > cox.rms$n وضعیت بدون رویداد 1884 133 همین امر هنگام استفاده از «coxph()» از بسته بقا نیز صادق است. n= 2017، تعداد رویدادها = 133 تعداد رویدادها صحیح است. به نظر میرسد این پست با «همپوشانی» که توضیح دادم تنظیم شده است، اما درباره «N» مطمئن نیستم، و به نظر نمیرسد که آنها براساس «ID» خوشهبندی شوند. | ساختار داده ها و تابع برای داده های رویداد مکرر با متغیرهای وابسته به زمان فراخوانی می کند |
21976 | من چندین ارگانیسم آزمایشی را در معرض سمی در غذا قرار می دهم. اگر دوز به اندازه کافی بالا باشد، آنها می میرند. من در حال بررسی تعداد کسانی هستم که بعد از یک روز مرده اند. به دلایل عملی، دوز دریافتی آنها مستقیماً تحت کنترل من نیست. من تصمیم گرفته ام اعدادی را که بعد از یک روز مرده اند به عنوان توزیع دوجمله ای، Bin(n,p) مدل کنم. برای اینکه بفهمم p برای مدل من چیست، آزمایشی را با 300 موجود زنده انجام دادم و تعداد آنها را که بعد از یک روز مرده بودند را شمردم. در آزمایش مورد علاقه، من آنها را در معرض یک تقویت کننده بالقوه اثرات سمی قرار داده ام. من می خواهم بدانم که آیا تعداد بیشتری از ارگانیسم ها مرده اند یا خیر. برای یک نتیجه خاص m، من به راحتی می توانم احتمال m یا بیشتر را محاسبه کنم. اگر این کمتر از 1٪ باشد، می پذیرم که تقویت کننده فرضی کار می کند، در غیر این صورت این فرضیه را که تقویت کننده فرضی تقویت کننده واقعی اثرات سمی است رد می کنم. من نمی دانم که آیا تحلیل من از تقویت کننده فرضی نیاز به در نظر گرفتن عدم قطعیت در مقدار p دارد. اگر چنین است، چگونه این کار را انجام دهم؟ (من با R خوب هستم و در صورت لزوم میتوانم برنامهنویسی کنم.) بهروزرسانی: فقط میخواهم تأکید کنم که فقط برایم مهم است که تقویتکننده من کار کند، یعنی ارگانیسمهای بیشتری از آنچه انتظار دارم میمیرند. هر پاسخی باید مواردی را که جانداران کمتر از حد انتظار میمیرند حذف شود. | تأثیر عدم قطعیت در پارامتر یک مدل احتمال بر تصمیم گیری |
74197 | من دو توزیع فرکانس دارم. که هر کدام فرکانس یک رویداد هستند. من می خواهم این توزیع ها را مقایسه کنم و نتیجه بگیرم که این رویدادها و نتیجه گیری کنم که آیا این رویدادها از نظر آماری 1 رویداد هستند یا آنها دو رویداد متمایز هستند. اما به نظر می رسد اندازه این توزیع ها نقش مهمی در نتیجه گیری نهایی دارد. به این معنی که وقتی این رویدادها را با نگاه کردن به 1000 نقطه داده مقایسه میکنم، p-value از نظر آماری معنیدارتر است. یعنی دو توزیع دو توزیع مجزا هستند. با این حال، وقتی آن را به 100 نقطه داده محدود میکنم، آزمون من معنیدار کمتری نشان میدهد و میتوانم نتیجه بگیرم که این 2 توزیع از 1 توزیع نمونهبرداری شدهاند. در اینجا سؤالات من وجود دارد: 1) چگونه می توانم با توجه به حجم نمونه، مقدار p را اصلاح کنم تا قوی باشد؟ 2) آیا Mann-Whitney آزمون آماری درستی برای این مورد است؟ اگر نه، آیا می توانید به من برای تست مناسب راهنمایی کنید؟ | مقایسه توزیع فرکانس با استفاده از آزمون من ویتنی |
21971 | من معیارهای نابرابری درآمد (ضرایب جینی/هوور/تیل) را برای چندین جمعیت محاسبه کرده ام. من می دانم که می توانم ادعاهایی مانند این جمعیت دارای ضریب جینی بالاتری است، بنابراین توزیع آن در این متغیر نابرابرتر از این جمعیت دیگر است. اما آیا می توان ادعاهای قابل سنجش بیشتری داشت؟ به عنوان مثال، اینکه بگوییم «از آنجایی که ضریب جینی برای این جمعیت دو برابر است، متغیر هشت برابر نابرابر توزیع شده است؟» یا همچین چیزی؟ به روز رسانی داده ها داده های اقتصادی نیستند - این به تعداد نسبی مشارکت در یک پروژه داوطلبانه مربوط می شود. 5 مجموعه داده وجود دارد که هر کدام 10000 ردیف دارند. هر ردیف مربوط به یک کاربر اینترنتی است که یک یا چند کار را برای مشارکت در آن پروژه انجام داده است. برخی فقط یک بار انجام دادند، برخی هزاران. سوال این است: از بین این پنج پروژه، کدام یک به گونه ای هستند که یک گروه هسته کوچک هر کدام وظایف زیادی را انجام داده اند، و کدام یک به گونه ای هستند که افراد زیادی هر کدام چند کار را انجام داده اند تا به کل جمع شوند؟ به روز رسانی بیشتر اگر بیشتر به این موضوع فکر کنید، شاید ضریب جینی اطلاعات کافی برای انجام این نوع مقایسه را نداشته باشد. شاید لازم باشد با استفاده از چیزی شبیه آزمون K-S، توزیع های واقعی متغیر را در بین اعضای جمعیت مقایسه کنم؟ | آیا می توان با استفاده از معیارهای نابرابری درآمد مقایسه های کمی انجام داد؟ |
60947 | من مطمئن نیستم که با این پسماندهای رگرسیون چه کنم.  نمودار نرمال Q-Q نشان می دهد که باقیمانده ها غیر طبیعی هستند (نه خیلی شدید) و واریانس باقیمانده ثابت نیست (خیلی بد نیست) . متغیرهای ورودی من متغیرهای فاکتور هستند، بنابراین من قادر به عادی سازی آن نیستم. بچه ها نظرتون در مورد این طرح چیه؟ آیا باید به این توطئه ادامه بدهم و بگویم که فرضیات نقض نمی شود و ادامه یابد؟ در واقع، من فکر می کنم مفروضات اندکی نقض می شوند، اما نه به شدت. اگر فکر کنم مفروضات نقض شده اند، چه باید بکنم؟ | نقض مفروضات برای رگرسیون |
60946 | من می خواهم یک آزمون t را در R انجام دهم. متأسفانه، آمار هرگز بهترین موضوع من نبوده است، بنابراین نمی دانم خروجی t.test در `R` دقیقاً به چه معناست. برای هدف آزمایش، آزمون t را روی دو بردار توزیع شده نرمال با پارامترهای مساوی انجام دادم. از آنجایی که هر دو توزیع پارامترهای یکسانی دارند، تفاوت واریانس 0 است: t.test(rnorm(1e7,mean=0,sd=1),rnorm(1e7,mean=0,sd=1),mu=0) داده های آزمون t نمونه Welch Two: rnorm(1e+07، میانگین = 0، sd = 1) و rnorm(1e+07، میانگین = 0، sd = 1) t = 0.5014، df = 2e+07، p-value = 0.6161 فرضیه جایگزین: تفاوت واقعی در میانگین برابر با 0 95 درصد فاصله اطمینان نیست: -0.000652202 0.001100571 0.001100571 تخمین نمونه: میانگین 6066 x6. -04 5.950136e-05 این بدیهی است که t آزمون t را به من می دهد. برای اینکه بتوانم با آن کار مفیدی انجام دهم، باید فرضیه ای را تدوین کنم که باید آزمایش شود. 1. چگونه / از کجا (از نظر R) یک فرضیه را تدوین کنم؟ 2. چگونه بفهمم که فرضیه من قابل توجه است؟ ایده من این بود: یک فرضیه جالب در مورد دو بردار داده ممکن است این باشد: $$ H_{0}: \mu_{X}-\mu_{Y} = w $$ در مقابل $$ H_{1}: \mu_{X} -\mu_{Y} \neq w $$ که در آن $\mu_{X}، \mu_{Y}$ مقادیر میانگین انحراف اساسی $X,Y$ هستند. از آنجایی که اینها ممکن است با میانگین بردارهای داده شده متفاوت باشند، باید از «t» استفاده کنم تا $H_{0}$ ($H_{1}$) را بپذیرم یا رد کنم (تا اینجا درست است؟). با نگاهی به ویکیپدیا، اگر $|t|، $H_{0}$ رد میشود > t(1-\frac{1}{2}\alpha, m+n-2)$ که در آن $\alpha = 0.05$ (پارامتر استاندارد «t.test» در «R») و $df=m+ n-2 دلار. در این مورد t(..،..) یک جدول غول پیکر است که می توانم مقدار مربوطه را جستجو کنم. 1. این مقدار را در «R» از کجا میتوانم دریافت کنم و در چه نقطهای، $w$ برای $H_{0}، H_{1}$ مشخص میشود؟ | نحوه انجام T-Test در R شامل فرضیه |
52850 | متغیر دوگانه ای که می خواهم برای یک همبستگی نقطه ای-دو سریالی استفاده کنم nهای بسیار نابرابر دارد ($n_1=140$، $n_2=6$). آیا این نقض قوانین است؟ این چه معنایی برای نتایج من خواهد داشت؟ آیا این فقط قدرت آماری را محدود می کند؟ | همبستگی نقطهای-دوسری با گروههای نابرابر در متغیر دوگانه |
60948 | من در حال کار بر روی یک نرم افزار برای تشخیص نظرات در متن هستم. به عنوان یک مثال ساده، میخواهم الگوریتم من به من بگوید که آندریا نظر مثبت **`+1`** (به جای خنثی **`0`** یا منفی **`-1`**) دارد. نیویورک وقتی جمله زیر را وارد می کنم: > **Andrea عاشق نیویورک است.** اکنون من صدها میلیون فایل متنی بدون ساختار با جملاتی مانند این یا بسیار پیچیده تر دارم، بنابراین گزینه ای برای تجزیه و تحلیل آنها نیست. جملات توسط دست از این رو، قطعه نرم افزار. اما من روش های متفاوتی دارم، بر اساس مقالات مختلف، یا بر اساس تجربه خودم در مورد نظر کاوی. روش_الف روش_ب روش_ج برچسب زده شده_با_دست(n) مثبت 20% 30% 50% 30% خنثی 80% 30% 0% 20% منفی 0% 40% 50% 50% حجم نمونه n = 100 من می خواهم بدانم چگونه **ارزیابی کنم کیفیت یک الگوریتم معین **. من هیچ توزیع، هیچ مدل آماری ندارم که بتوانم آن را درست فرض کنم، بنابراین آنچه در اینجا یا آنجا در مورد AIC و BIC و روشهای دیگر میخوانم خیلی مفصل به نظر میرسند (ممکن است اشتباه میکنم، اما هیچ متغیر _متداولی_ برای آن ندارم. برای مقایسه مدل های من با یکدیگر استفاده کنید). بنابراین سؤالات من: 1. چند نمونه را باید با دست برچسب بزنم تا به کیفیت معینی برای آزمون ارزیابی خود برسم؟ 2. کدام معیارها معمولاً برای یک کار مقایسه ای ساده مانند این استفاده می شوند؟ دقت و یادآوری؟ | اندازه گیری کیفیت الگوریتم نظر کاوی |
56578 | از پایگاه داده اکوکاردیوگرافی در یک مرکز مراقبت های عالی، 1625 نفر (میانگین سنی 44 6 14 سال؛ 47٪ مرد) با یافته های اکوکاردیوگرافی طبیعی بین سال های 2000 و 2009 شناسایی شدند. تفاوت های جنسیتی و ارتباط با سطح بدن به صورت گذشته نگر برای ابعاد محور بلند و محور کوتاه دهلیز راست، بعد محور کوتاه بطن راست، ناحیه بطن راست انتهای دیاستولیک و انتهای سیستولیک، تغییر ناحیه کسری بطن راست، و سفر سیستولیک صفحه حلقوی سه لتی. تأثیر مقادیر طبیعی طبقه بندی شده برای جنسیت و سطح بدن در 24 بیمار با نقایص سپتوم دهلیزی با اندازه متوسط تا بزرگ مورد آزمایش قرار گرفت. | آیا این یک مطالعه مورد شاهدی است یا یک مطالعه کوهورت گذشته نگر؟ |
73165 | من یک مدل رگرسیون لجستیک دارم (برازش از طریق glmnet در R با منظمسازی خالص الاستیک)، و میخواهم تفاوت بین مثبتهای واقعی و مثبت کاذب را به حداکثر برسانم. برای انجام این کار، روش زیر به ذهن متبادر شد: 1. برازش مدل رگرسیون لجستیک استاندارد 2. با استفاده از آستانه پیشبینی 0.5، همه پیشبینیهای مثبت را شناسایی کنید. مدل رگرسیون لجستیک چه اشکالی در این رویکرد وجود دارد؟ راه درست برای ادامه این مشکل چیست؟ دلیل اینکه می خواهم تفاوت بین تعداد مثبت واقعی و منفی کاذب را به حداکثر برسانم به دلیل طراحی برنامه من است. به عنوان بخشی از یک پروژه کلاسی، من در حال ساخت یک شرکتکننده مستقل در یک بازار آنلاین هستم - اگر مدل من پیشبینی کند که میتواند چیزی را بخرد و بعداً آن را با قیمت بالاتر بفروشد، پیشنهاد میدهد. من میخواهم به رگرسیون لجستیک و نتایج باینری خروجی (برد، باخت) بر اساس هزینههای ثابت و افزایش قیمت واحد پایبند باشم (من در هر تراکنش به همان میزان سود میبرم یا از دست میدهم). مثبت کاذب به من صدمه می زند زیرا به این معنی است که من چیزی می خرم و نمی توانم آن را به قیمت بالاتر بفروشم. با این حال، منفی کاذب به من صدمه نمی زند (فقط از نظر هزینه فرصت) زیرا فقط به این معنی است که اگر نمی خریدم، اما اگر می خریدم، درآمد کسب می کردم. به طور مشابه، یک مثبت واقعی به من سود می رساند، زیرا من خریدم و سپس به قیمت بالاتری می فروشم، اما منفی واقعی برای من سودی ندارد، زیرا هیچ اقدامی انجام ندادم. من موافقم که برش 0.5 کاملاً دلخواه است، و وقتی مدل را از مرحله 1 در آستانه پیشبینی بهینه کردم که بیشترین تفاوت را بین مثبتهای درست/کاذب به دست میدهد، معلوم میشود که به 0.4 نزدیکتر است. من فکر می کنم این به دلیل ماهیت کج داده من است - نسبت بین منفی و مثبت حدود 1:3 است. در حال حاضر، من مراحل زیر را دنبال میکنم: 1. تقسیم دادهها به آموزش/آزمون، 2. برازش مدل در تمرین، پیشبینی در مجموعه تست و محاسبه تفاوت بین مثبتهای درست/کاذب، 3. برازش مدل در حالت کامل، پیشبینی در مجموعه تست و تفاوت بین مثبت/کاذب مثبت را محاسبه کنید، علیرغم اینکه مجموعه آموزشی زیرمجموعه ای از مجموعه کامل است، تفاوت بین مثبت/کاذب مثبت در مرحله #3 نسبت به مرحله #2 کوچکتر است. از آنجایی که من اهمیتی نمیدهم که مدل شماره 3 دارای منفیهای واقعی بیشتر و منفیهای کاذب کمتری باشد، آیا کاری وجود دارد که بتوانم بدون تغییر تابع احتمال انجام دهم؟ | رگرسیون لجستیک: به حداکثر رساندن مثبت واقعی - مثبت کاذب |
74198 | سلام من باید ثابت کنم که $X^T$e = 0 جایی که e باقیمانده در مدل رگرسیون خطی چندگانه در جبر ماتریسی است؟ در مورد نحوه انجام آن به راهنمایی نیاز دارید... آیا پی دی اف خوبی برای اثبات مدل رگرسیون خطی چندگانه برای ماتریس الگبرا وجود دارد؟ | چگونه ثابت کنیم که $X^T$e = 0 است |
110458 | خوب، اجازه دهید به شما بگویم که این اولین بار است که در مورد سوال زیر نظری ندارم. من نمی توانم راه حلی پیدا کنم یا چیزی که مرا به سمت آن سوق دهد. این را می گویم تا از کامنت های «چه کردی؟» جلوگیری کنم. پیشاپیش عذرخواهی میکنم این یکی از سوالات کتاب آمار بیزی پیتر ام. لی است: کتاب مقدمه، بخش تمرینات فصل 3 است. از توزیع فون میزس). | قبل از توزیع فون میزس |
74628 | من تجزیه و تحلیل اثرات دو درمان دارویی را در یک دوره زمانی بر تعداد سلول های CD4 تعدادی از بیماران کامل کرده ام. من جذر تعداد CD4 اولیه را به عنوان متغیر کمکی در نظر گرفته ام و یک اندازه گیری خلاصه از شیب ها برای هر بیمار گرفته ام. مدل من به صورت زیر است: > slopes.aov <- aov(individual.slope.trans[-29] ~ sqrt(initialCD4)[-29] + treat.fac[-29]) > summary(slopes.aov) Df Sum Sq Mean Sq F مقدار Pr(>F) sqrt(CD4 اولیه)[-29] 1 0.0060 0.006027 0.990 0.322 treat.fac[-29] 1 0.0082 0.008184 1.344 0.249 Residuals 109 0.6638 0.006090 من کاملاً در تجزیه و تحلیل داده ها برای تفسیر مدل کاملاً جدید هستم؟ آیا هنوز هم می توانم از ضرایب رگرسیون برای توصیف اندازه گیری خلاصه خود استفاده کنم، حتی اگر هیچ معناداری نداریم. من واقعا با این مشکل دارم. همچنین چگونه می توانیم اثر متغیر کمکی را توصیف کنیم؟ من میدانم که شواهدی ندارم که نشان دهد درمانها روی «شیبها» (معیار خلاصه من) تأثیر دارند و بنابراین مدرکی ندارم که بگویم یک درمان بهتر از دیگری عمل میکند. | تفسیر خروجی آنووا با عدم معناداری |
56392 | من در شرف انجام دو تجزیه و تحلیل اجزای اصلی (PCA) بر روی داده های فراوانی گونه ها و داده های ترکیب گونه هستم. من حدود 12 مکان مختلف دارم که در آن داده های فراوانی برای بیش از 50 گونه بی مهرگان جمع آوری شده است. نرم افزاری که من از آن استفاده می کنم دارای گزینه ای برای ثبت تبدیل و مقیاس داده ها قبل از تجزیه و تحلیل است. سوال من این است که بدون صرف زمان زیاد برای بررسی داده ها، آیا این یک رویکرد نسبتاً رایج است که هم برای ثبت تبدیل و هم استانداردسازی داده ها قبل از تجزیه و تحلیل PCA انجام شود؟ یا بهتر است داده ها را به حال خود رها کنید و PCA را اجرا کنید؟ | PCA روی دادههای تبدیلشده گزارش |
25490 | من می خواهم اثرات منحصر به فرد هر متغیر را در یک مدل خطی تخمین بزنم، اما مطمئن نیستم که آیا آنها را به درستی محاسبه می کنم. من از مدلی استفاده میکنم که با استفاده از هر یک از متغیرها در دادههایم بهعلاوه یک تعامل باینری با هر متغیر، به عنوان مثال. «y ~ x + x:z» که در آن x یک بردار است و z دو عاملی است که در x وجود دارد. انجام این کار در R من معتقدم که یک عامل دو سطحی به سادگی c(0,1) است. با توجه به آنچه که می توانم اثرات فردی متغیرها را برای هر مورد از جمله تعامل دودویی محاسبه کنم به شرح زیر است: * هنگامی که جمله تعامل 0 است، اثر متغیر x بر y ضریب مدل تخمین زده شده برای x * زمانی است که تعامل عبارت 1 است، اثر متغیر x بر y ضریب مدل تخمین زده شده برای x به اضافه ضریب برای مدت تعامل x:z است با فرض اینکه این درست باشد، من همچنین می خواهم محاسبه کنم خطاهای استاندارد مرتبط با هر اثر. من به این سوال نگاه کردم که بیان میکند که خطاهای استاندارد مرتبط را میتوان به صورت زیر محاسبه کرد. با این حال، این خطاهای استاندارد بسیار کوچکتری را در مقایسه با اثرات اصطلاح غیرتعامل ایجاد می کند. این باعث می شود که تصور کنم کار اشتباهی انجام می دهم. آیا می توانید روش صحیح تخمین این اثرات را به من بگویید؟ | چگونه اثرات متغیر مدل خطی را به درستی محاسبه کنیم؟ |
56397 | اگر این سوال بی اهمیت به نظر می رسد پیشاپیش عذرخواهی می کنم -- من یک زیست شناس هستم و تجربه کمی در آمار دارم. من شش توزیع غیرطبیعی دارم (آنها دارای انحراف مثبت هستند): سه مورد تکرار از یک درمان دارویی و سه مورد تکرار یک کنترل درمان نشده هستند. من میخواهم تعیین کنم که آیا توزیعهای نمونه تحت درمان با دارو تفاوت قابلتوجهی با توزیعهای شاهد دارد یا خیر. اگر من فقط یک تکرار درمان شده و شاهد داشتم، آزمایش Mann-Whitney U را انجام می دادم تا مشخص شود که آیا آنها متفاوت هستند یا خیر. سردرگمی من در نحوه برخورد مناسب با تکرارها نهفته است (مثلاً آیا آنها را جمع آوری کنم؟). ممنون از وقتی که گذاشتید | مقایسه مجموعههای توزیعهای غیرعادی |
80718 | با تشکر از هر کسی که می تواند کمک کند! من یک نظرسنجی با سوالات در مقیاس لیکرت با حدود 1500 شرکت کننده انجام داده ام. تجزیه و تحلیل اولیه در SPSS هیچ گونه پرت را نشان نداد (با استفاده از نمودار جعبه) اما امتیازات به طور معمول برای هیچ یک از عوامل توزیع نشد، همانطور که توسط آزمون Shapiro-Wilk ارزیابی شد (p <.001). از آنجایی که متغیر مستقل دارای 5 گروه بود، من یک آزمون H Kruskal-Wallis را انجام دادم که نتایج قابل توجهی برای متغیرهای آزمایش شده یافتم (001/0p< برای اکثر)، اما بازرسی از نمودارهای جعبهای که این نتایج جدید را همراهی میکنند نیز نشان داد که او به توزیع ها مشابه نیستند (یعنی میانه ها گاهی اوقات بالاتر یا کمتر از سایر متغیرهای مقایسه شده و غیره بودند). سوال من: آیا این یک نقص جدی است؟ آیا می توانم از این نتایج استفاده کنم؟ اگر چنین است، آیا باید اشاره کنم که حداقل در یک متغیر مستقل، گروه ها توزیع های غیر عادی را نشان می دهند؟ با تشکر | توزیع غیر نرمال حتی با آزمون کروسکال والیس |
21970 | 1) آیا اجرای آزمون Mann-Whitney U در حجم نمونه نابرابر یعنی دو گروه (N=11، N=12) اشکالی ندارد یا آزمون جایگزینی وجود دارد؟ 2) وقتی یک مقدار صفر را برای آزمون من ویتنی U بدست می آورد به چه معناست (با توجه به اینکه قبلاً مقادیر صفر را با اندازه نمونه برابر به دست آوردم) رتبه ها **سایت N میانگین رتبه مجموع رتبه ها** 1 12 18.50 222.00 3 12 6.50 78.00 **مجموع 24** **آمار تست** Mann-Whitney U .000 Wilcoxon W 78.000 Z -4.157 Asymp. سیگ (2-tailed) .000 Exact Sig. [2*(1-tailed Sig.)] 000b Sig دقیق. (2-tailed) .000 Exact Sig. (1-tailed) 0.000 Point Probability 0.000 a متغیر گروه بندی: سایت b برای پیوندها اصلاح نشده است. | چرا یک مقدار U 0000 Mann-Whitney (نه p-value) و غیره می گیرد؟ |
110459 | من یک مدل پیش بینی با عملکرد خوب دارم و سعی می کنم آن را با مهندسی ویژگی بهبود بخشم. سوال من: آیا ایجاد ویژگی های جدید با مشاهده روندها در مجموعه آموزشی معتبر است؟ به عنوان مثال، متوجه شدم که متریکی که میخواهم پیشبینی کنم در ماههای دسامبر، ژانویه و فوریه بالاتر است. آیا منطقی است که ویژگیای را در آن ماهها «1» و برای ماههای دیگر «0» قرار دهیم؟ با تشکر | شامل مهندسی از روندها در مجموعه آموزشی |
26219 | من می خواهم یک مجموعه داده گاوسی دو متغیره ایجاد کنم. مجموعه داده شامل مجموعاً 800 نتیجه است که به طور تصادفی از چهار کلاس گاوسی دو بعدی با میانگین های $(-3,0)'$, $(0,0)'$, $(3,0)'$ و $( 6,0)'$، همه با ماتریس واریانس کوواریانس یکسان $$\Sigma = \pmatrix{0.5 & 0.05 \\\ 0.05 &0.5}.$$ چگونه می توانم این کار را در متلب انجام دهم؟ من متخصص متلب نیستم. | ایجاد مجموعه داده گاوسی در متلب |
4918 | ورودی یک دسته از اعداد است. چگونه می توانم آستانه ای را محاسبه کنم که 10٪ از کل تعداد اعداد بالاتر از این آستانه هستند. فکر میکنم این به همان اندازه برای محاسبه تابع توزیع است، اما چیزی که من نیاز دارم عدد آستانه است، نه عدد | چگونه داده های مورد نیاز را بدست آوریم؟ |
47708 | من احساس خوبی نسبت به انواع داده هایی دارم که با اکثر نقشه های رنگی مطابقت دارند. اما نمیدانم چه نوع دادههایی میخواهند از انواع نقشههای رنگی زیر استفاده کنند: پرچم:  منشور:  منبع: http://dept.astro.lsa.umich.edu/~msshin/science/code/matplotlib_cm/ من هیچ استفاده ای از آنها نمی بینم جز به عنوان یک الگوی پر. چه نوع داده هایی از این نوع نقشه های رنگی سود می برند؟ و آیا این نوع نقشه نام خاصی دارد؟ | چه نوع داده ای با این نقشه های رنگی تجسم می شود؟ |
60943 | برای ایجاد یک آزمون تطبیقی رایانهای از نمونهای از 20 مورد دوگانه، یک اقدام معمولی این است: 1) کالیبره کردن دادههای پاسخدهنده با یک بسته R مانند mirt یا ltm با استفاده از Rasch، 2PL و غیره. 2) ایجاد یک بانک آیتم بر اساس بهدستآمده پارامترهای مورد با استفاده از catR سپس، برای هر آیتم/آزمون گرفته شده: 3) از تابع و روش nextItem catR استفاده کنید (به عنوان مثال. MFI) برای انتخاب مورد بعدی بر اساس موارد و پاسخ های قبلی 4) یک قانون توقف را انتخاب کنید، به عنوان مثال. توقف اگر SEM < 0.2. 5) استفاده از آخرین تتا و SEM به عنوان نتایج تست با این حال، در مورد آیتم های چند بعدی و تست های چند بعدی، من کمی گیج هستم. برای یک CAT چند بعدی و چند بعدی، به عنوان مثال. 100 مورد (5 مقیاس) یک آزمون شخصیت با مقیاس 5 امتیازی لیکرت، منطق آزمون، پارامترهای آیتم (GRM/GPCM) و انتخاب آیتم بسیار متفاوت است. سوال خاص: آیا یک نسخه چندتومی از تابع nextItem catR موجود است؟ سوال گستردهتر: چه روشها/بستهها/مراحلی را برای ساختن یک گربه چند تومی با MIRT توصیه میکنید؟ | چگونه مورد بعدی را در CAT / MIRT چندتومی انتخاب کنیم؟ |
56399 | به نظر نمی رسد پاسخ قطعی برای سوالم پیدا کنم. داده های من شامل چندین نمودار با میانگین اندازه گیری شده از 0.27 تا 0.57 است. در مورد من، همه مقادیر دادهها مثبت هستند، اما خود اندازهگیری بر اساس نسبتی از مقادیر بازتاب است که میتواند از 1- تا 1+ باشد. توطئه ها مقادیر NDVI را نشان می دهند، یک شاخص از راه دور مشتق شده از بهره وری پوشش گیاهی. قصد من مقایسه تغییرپذیری مقادیر در هر نمودار بود، اما از آنجایی که هر نمودار میانگین متفاوتی دارد، من استفاده از CV را برای سنجش پراکندگی نسبی مقادیر NDVI در هر نمودار انتخاب کردم. از آنجایی که من متوجه شدم، گرفتن رزومه از این پلات ها خوب نیست زیرا هر طرح می تواند هم ارزش مثبت و هم ارزش منفی داشته باشد. چرا استفاده از CV در چنین مواردی مناسب نیست؟ چند گزینه جایگزین چه خواهد بود؟ | چرا هنگام استفاده از داده هایی با مقادیر مثبت و منفی، ضریب تغییرات معتبر نیست؟ |
26214 | بسیار جدید برای R و stackexchange. عذرخواهی می کنم اگر اشتباهی انجام دادم من با داده های تولد کارولینای شمالی از irss.unc.edu کار می کنم. من یک قاب داده NCBIRTH1450 با چندین لیست دارم که همه آنها دارای مقادیر عددی یا NA هستند. من فقط سعی می کنم برخی نسبت ها را از روی داده ها محاسبه کنم. برای یکی از لیستها، من میتوانم نسبت نوزادان پسر را با استفاده از pBoyBaby <- sum(SEX==1)/sum(!is.na(SEX)) بدست بیاورم. . هدف من این است که تعداد مقادیر منطبق را بردارم و بر تعداد مقادیری که از دست نمیروند تقسیم کنیم و نتیجه مناسبی به دست میآورم. با این حال، وقتی من همان تابع را روی ستون دیگری از همان نوع امتحان میکنم، pMomSmokes <- sum(SMOKE==1)/sum(!is.na(SMOKE)) شی «pMomSmokes» مقدار «NA» را میگیرد. برای مثال، چگونه می توانم تفاوت بین ماهیت «دود» و «سکس» را شناسایی کنم که این اختلاف را توضیح می دهد؟ واقعا نمی دانم چرا این کار را می کند. در صورت مرتبط بودن، «SEX» دارای مقادیر «1» یا «2» می باشد. NA با تشکر | نتایج ناسازگار ناشی از تلاش برای شمارش مقادیر منطبق در لیستهای درون فریمهای داده در R |
26041 | من یک مجموعه داده جریانی دارم، نمونههایی در یک زمان در دسترس هستند. من باید طبقه بندی چند کلاسه را روی آنها انجام دهم. به محض اینکه یک مثال آموزشی را به فرآیند یادگیری دادم، باید آن مثال را کنار بگذارم. به طور همزمان، من از آخرین مدل برای انجام پیشبینی روی دادههای بدون برچسب نیز استفاده میکنم. تا آنجا که من می دانم، یک شبکه عصبی می تواند با تغذیه مثال ها در یک زمان و انجام انتشار به جلو و انتشار به عقب بر روی مثال، یادگیری جریانی را انجام دهد. آیا یک SVM می تواند یک مثال را به صورت جریانی آموزش دهد و بلافاصله آن مثال را کنار بگذارد؟ | آیا SVM می تواند یادگیری را در یک زمان به صورت جریانی انجام دهد؟ |
99817 | من سه سوال کلی دارم که واقعاً برای پاسخ دادن به آنها مشکل دارم: الف) وقتی دادههای تودرتو داریم (مثلاً کارمندانی که در بخشهایی تودرتو هستند که در شرکتهایی که در مناطق جغرافیایی خاص هستند) چگونه روشهای داده کاوی با تودرتو تنظیم میشوند؟ ب) آیا روشهای داده کاوی به دلیل هدفشان (یعنی تحلیل پیشبینیکننده) نسبت به دادههای تودرتو «ایمن» هستند؟ ج) آیا می توانیم قبل از اجرای تحلیل چندسطحی از روش های داده کاوی (مانند شبکه های عصبی، جنگل های تصادفی) به عنوان پیش ساز انتخاب متغیر استفاده کنیم؟ اگر جهت گیری های کلی این سوالات برای شما ناخوشایند است، عذرخواهی من را بپذیرید. از کمک شما بسیار سپاسگزارم. منتظر دریافت نظرات حکیمانه شما هستم. | روش های داده کاوی با داده های تودرتو |
2125 | به طور خاص، من به ضریب همبستگی محصول- لحظه پیرسون اشاره می کنم. | تفاوت بین همبستگی و رگرسیون خطی ساده چیست؟ |
25495 |  من باید تعدادی شاخص برای ارزیابی زمان واکنش اضطراری برای یک آتش نشانی ترسیم کنم. در مورد ما، بیشتر مقادیر باید حدود 2 دقیقه باشد، اما محدوده می تواند بین 0 تا 10 دقیقه باشد. من با نمودارهای میله ای (و نمودارهای گلوله ای Few) کار کرده ام، با این حال، از آنجایی که نمودارهای میله ای روی مقایسه طول ها کار می کنند، و مقادیر هدف ما کوتاه تر هستند (حدود 20٪ از طول کل بالقوه میله)، من کنجکاو هستم که آیا وجود دارد راه بهتری برای ترسیم این مقادیر من در نظر گرفته ام که نمودار مقدار معکوس (نوار 8 دقیقه است، به جای 2)، اما به نظر می رسد که خواندن آن غیر شهودی است. هر کمکی قابل تقدیر است. من سعی میکنم محدوده را در زمان حضور برای هر واحد (نوار آبی، حداقل تا حداکثر) نشان دهم که در محدودههای عالی، متوسط و ضعیف (پسزمینه خاکستری) قرار گرفته است. من در حال کار بر روی اضافه کردن یک نشانگر برای صدک 90 هستم (استاندارد ما، اما هنوز روی نمودار نیست). مشکل من این است که با بهبود عملکرد، کاهش زمان ها و در نتیجه کاهش طول میله برای مقایسه استفاده می شود. من سعی می کنم تعیین کنم که آیا راه بهتری برای علامت گذاری شاخص های عملکرد آنها وجود دارد، زیرا عدد کمتر بهتر است (در مقابل چیزی مانند سود، جایی که بزرگتر بهتر است). با عرض پوزش، به من اجازه نمی دهد تصویری را برای نشان دادن شما پست کنم، اما یک نمودار میله ای پایه را با محور x به عنوان زمان و محور y در نظر بگیرید. زیر هر نوار نشانگرهایی برای 3 سطح عملکرد وجود دارد و یک نشانگر منفرد برای هر نوار اعمال می شود که صدک 90 را نشان می دهد. امیدوارم که کمک کند. تونستم یه عکس از نمودار آپلود کنم. با بهبود مقادیر، کوچکتر میشوند و به لبه سمت چپ میلهها نزدیکتر میشوند و در صورت کاهش دامنه، میلهها کوچک میشوند. من فقط میخواهم مطمئن شوم که تا حد امکان اطلاعات بصری وجود دارد تا نقاط داده خوانا باشند. | روش پیشنهادی برای ترسیم مقادیر کم چیست؟ |
3708 | من یک مجموعه داده از 100 منطقه جغرافیایی دارم که نرخ بیکاری در 9 سال گذشته برای آنها مشاهده شده است. اکنون، من میخواهم از این دادهها نرخ بیکاری سال آینده را برای تمام 100 منطقه شبیهسازی/پیشبینی کنم. چه رویکردی مناسب خواهد بود؟ من به این فکر می کردم که از یک مدل اثر ترکیبی رگرسیون خودکار استفاده کنم، اما می ترسم که داده های کافی ندارم... با احترام | پیش بینی نرخ بیکاری |
3702 | من تازه وارد هستم و در حال تلاش برای تجزیه و تحلیل داده های عملکردی هستم. من یک داده ماتریس 8x11 دارم، چگونه می توانم در R به عنوان یک شی به این شکل وارد کنم: $hgtm boy01 boy02 boy03 boy04 boy05 1 81.3 76.2 76.8 74.1 74.2 1.25 84.2 80.4 79.8.367. 83.2 82.6 82.6 78.3 1.75 88.9 85.4 84.7 85.4 80.3 2 91.4 87.6 86.7 88.1 82.2 3 101.1 97.0 94.29 94.2 104.6 100.4 104.4 96.9 5 115.8 112.3 107.1 111.0 104.1 $hgtf girl01 girl02 girl03 girl04 girl05 1 76.2 74.6 78.2 107.1 78.2 717. 81.8 80.5 80 1.5 83.3 82.0 85.4 83.3 83 1.75 85.7 86.9 87.9 87.0 86 2 87.7 90.0 89.6 90.3 89.6 89.9 89.9 4 103.8 102.1 109.2 106.3 103 5 110.7 109.2 116.2 113.9 110 $age [1] 1.00 1.25 1.50 1.75 2.00 3054، بسیار قدردانی شده است. | دستکاری داده ها در R برای تجزیه و تحلیل داده های عملکردی |
3707 | من نتایج استاندارد شده را در زیر رسم کردم: * RAND() * RAND() * RAND() * ... * RAND() * RAND() * RAND() * RAND() * RAND() * RAND() به نظر می رسد اینکه نتایج به صفر می رسد، آیا به این دلیل است که شما در حال ضرب کردن یک سری اعداد نزدیک به صفر در یکدیگر هستید یا توضیح دیگری وجود دارد؟  **ویرایش** هیچ انگیزه واقعی پشت این نیست. اوایل امروز در حال کار بر روی یک صفحه گسترده، در موقعیتی قرار گرفتم که یک ثابت * Rand() * Rand() را ضرب می کردم. اگر یک دسته از اعداد تصادفی را با هم ضرب کنید. | تفاوت بین RAND()، RAND()*RAND() و غیره اکسل |
88263 | من می خواهم یک رگرسیون خطی انجام دهم. با این حال، متغیرهای پیشبینیکننده خانوادههایی از متغیرها هستند که با زمان نمایهسازی میشوند. فرض کنید مشکل رگرسیون این است: هدف ~ x(1)+x(2)+...+x(40)+y(1)+...+y(40) و x(t) و y را تصور کنید (t) اندازه گیری در 40 سال متوالی است. بنابراین متغیرهای درون خانوادههای x(t)، y(t) بسیار هم خطی هستند. راه معمول برای مقابله با این مشکل انتخاب متغیر خواهد بود. با این حال، در مسئله مورد نظر، بسیار مطلوب است که ضرایب x(t) پاسخ دهند. متغیرهای y(t) به آرامی در زمان انتخاب می شوند، بنابراین تنظیم برخی از آنها روی 0 انتخاب خوبی نیست. ایده من این بود که هر 5 سال ضرایب خانواده های متغیر را به عنوان مقادیر اسپلاین جریمه شده با گره انتخاب کنم. آیا راهی برای انجام این کار در R وجود دارد؟ یا راه دیگری برای صاف کردن ضرایب بدون استفاده از اسپلاین وجود دارد؟ | برخورد با چند خطی با هموارسازی ضرایب؟ |
82103 | من در حال گذراندن دوره آموزشی یاسر ابومصطفی از داده ها هستم و برای رفع آلودگی داده ها مشکل دارم. بنابراین میدانیم که مواردی مانند تحلیل VC میتواند به ما تضمین دهد که فرضیههای یک مجموعه $\mathcal{H}$ تعمیم مییابند، اما این نکته مطرح شد که $\mathcal{H}$ باید بدون بررسی دادهها انتخاب شود. به طور شهودی این کاملاً منطقی است. به عنوان مثال، اگر به دادههای خود نگاه کنم، متوجه چند جملهای مرتبه هفدهم تصادفی $p$ متناسب با آن میشوم، و $\mathcal{H} = \\{p\\}$ را انتخاب میکنم، حتی بدون چیزی، ضمانتهای تعمیم بسیار قوی خواهیم داشت. بیشتر درگیر مانند آنالیز VC است. اما واضح است که این واقعاً تعمیم نمی یابد. من فقط تعجب می کنم که در کجای بحث برای تعمیم این اتفاق می افتد. به عنوان مثال، در کجای آرگومان های تحلیل VC فرض می کنیم که $\mathcal{H}$ بدون نگاه کردن به داده های ما انتخاب شده است؟ | سوال فلسفی آلودگی داده ها |
56398 | من یک پرسشنامه دارم که حاوی چند سوال پرش است. مثلاً سؤال سوم یک سؤال از نوع بله / خیر است. فقط از کسانی که به سوال سوم پاسخ مثبت داده اند درخواست می شود به سوال چهارم، پنجم و ششم پاسخ دهند و از کسانی که پاسخ منفی داده اند از این سه سوال صرف نظر می کنند. متاسفم که هیچ تجربه ای در مورد نحوه اطلاع رسانی SPSS ندارم که مقادیر گم شده در متغیرهای مربوط به سوال چهارم، پنجم و ششم به دلیل پاسخ نه در سوال قبلی (سوم) است. لازم به ذکر است که برخی از پاسخ دهندگان حتی به سوال سوم پاسخ نداده اند و به این ترتیب پاسخ سوالات چهارم، پنجم و ششم به طور خودکار از دست می رود. بنابراین تمام مقادیر گم شده در این سه متغیر (مرتبط با سوال چهارم، پنجم و ششم) صرفاً به دلیل پاسخ نه در سوال قبل نیست. باید بدانم، اگر من نیاز به استفاده از انتساب چندگانه داشته باشم، چگونه می توانم از انتساب مقادیر از دست رفته به دلیل پاسخ نه اجتناب کنم. من چیزی در مورد مقادیر گمشده تعریف شده توسط کاربر دیده ام و ایده زیادی در مورد آن ندارم. کسی می تواند توضیح دهد که در مورد من چه باید کرد؟ من اساساً یک رگرسیون و بعداً اگر وقت داشته باشم، یک تحلیل عاملی با داده ها را امتحان خواهم کرد. | چگونه باید مقادیر از دست رفته را به دلیل رد شدن از سوالات در SPSS تعریف کنم؟ |
60941 | سوال من این است: تفاوت بین واریانس یک پیش بینی فردی و واریانس یک پیش بینی میانگین چیست؟ من می دانم که این دو واریانس متفاوت هستند، اما چه عواقبی پیش بینی بر روی داده های پیش بینی شده دارد؟ | تفاوت بین واریانس یک پیش بینی فردی و واریانس یک پیش بینی میانگین چیست؟ |
82102 | امیدوارم این انجمن مناسبی برای ارسال این سوال باشد. من اخیرا نرم افزار R خود را از 2.15.0 به 3.0.2 ارتقا داده ام. همچنین بسته lme4 را از 0.999999-0 به 1.1-2 ارتقا دادم. پس از انجام این کار، نتایج یکی از تحلیلهای مدلهای مختلط خطی من کمی بهطور غیرمنتظره تغییر کرده است. از برخی جهات، من انتظار تغییراتی را داشتم، زیرا توسعه دهندگان lme4 به وضوح بیان کردند که تغییرات قابل توجهی در برخی از اجزای اساسی در بسته ایجاد کرده اند. با این حال، تغییراتی که می بینم (در زیر توضیح داده شده است) باعث می شود فکر کنم چیز دیگری اشتباه است. من با توضیح طرح آزمایشی که کاملاً ساده است و سپس موضوع مورد بحث را توضیح خواهم داد. آزمایش من یک طرح اولیه با اندازه گیری های مکرر است. من از 24 مورد استفاده کردم که هر کدام در سه شرایط مختلف ظاهر شدند (SmallClause_Som، NoSmallClause، SmallClause_NoSom). سطوح شرایط در سه فهرست ارائه چرخانده شد به طوری که هر موضوع (مجموع 45، هر یک به یک لیست خاص اختصاص داده شده است) فقط یک سطح از هر مورد را مشاهده کرد. من از lmer() برای آنالیز استفاده کردم. شرط به عنوان جلوه ثابت و موضوع و آیتم به عنوان جلوه های تصادفی وارد شده است. مشکل: با استفاده از نسخه فعلی R 3.0.2 و lme4 1.1-2 با NoSmallClause به عنوان سطح مرجع (و بدون وزن دهی در هیچ یک از تضادها)، کنتراست ConditionSmallClause_Som/NoSmallClause مقدار t برابر با 1.680 را تولید می کند. اما، وقتی سطح مرجع را به SmallClause_Som تغییر میدهم (برای مشاهده کنتراست باقیمانده)، نه تنها تغییری در قطبیت اثر (به علاوه به منفی، همانطور که انتظار میرود) دریافت میکنم، بلکه مقادیر نیز تغییر میکنند. وقتی از R 2.15.0 و lme4 .999999-0 (در رایانه دیگری) استفاده می کنم، این مشکل را تجربه نمی کنم. مقادیر کمی متفاوت دریافت می کنم، اما با تغییر سطح مرجع، آنها (به غیر از قطبیت) تغییر نمی کنند. همکارم با استفاده از R 3.0.2 و یک نسخه lme4 (پیش نسخه 1.0) تحلیل من را برای من امتحان کرد (نمی دانم دقیقا کدام نسخه بود اما قبل از تغییرات عمده بود) و او نیز مشکل را تجربه نمی کند. خروجی R 2.15.0 lme4 1.1-2 (قدیمیتر): > #set ref level > test$Condition <- relevel(test$Condition, ref=NoSmallClause) > #مدل 4: شیبهای تصادفی بر اساس موضوع و مورد > test.lmer4=lmer(رتبه ~شرط+(1+شرط|موضوع)+(1+شرط|مورد)،تست، REML=FALSE) > خلاصه(test.lmer4) مدل مختلط خطی متناسب با حداکثر احتمال فرمول: رتبه ~ شرط + (1 + شرط | موضوع) + (1 + شرط | مورد) داده: آزمون انحراف AIC BIC logLik REMLdev 3930 4010 -1949 3898 3902 اثرات تصادفی: نام گروه ها Variance Std.Dev. Corr Subject (Intercept) 0.98998765 0.994981 ConditionSmallClause_Som 0.00203374 0.045097 -1.000 ConditionSmallClause_NoSom 0.00019873 0.010 - 0.014 (Intercept) 0.96231875 0.980978 ConditionSmallClause_Som 0.89924400 0.948285 -0.020 ConditionSmallClause_NoSom 0.62128577 0.7832516 - Resual 1.68810777 1.299272 تعداد obs: 1080، گروه: موضوع، 45; آیتم، 24 اثرات ثابت: برآورد Std. مقدار خطای t (Intercept) 2.9583 0.2584 11.447 ConditionSmallClause_Som 0.3639 0.2165 1.680 ConditionSmallClause_NoSom 0.1472 0.1878 0.784 C CndtnSmlC_S -0.116 CndtnSmC_NS -0.260 0.392 > #set ref level > test$Condition <- relevel(test$Condition, ref=SmallClause_Som) > > #مدل 4: شیب های تصادفی بر اساس موضوع و آیتم > test.lmer4=lmer(رتبه ~شرط+(1+شرط|موضوع)+(1+شرط|مورد)،تست، REML=FALSE) > خلاصه(test.lmer4) مدل مختلط خطی متناسب با حداکثر احتمال فرمول: رتبه ~ شرط + (1 + شرط | موضوع) + (1 + شرط | مورد) داده: آزمون انحراف AIC BIC logLik REMLdev 3930 4010 -1949 3898 3902 اثرات تصادفی: نام گروه ها Variance Std.Dev. Corr Subject (Intercept) 0.9023239 0.949907 ConditionNoSmallClause 0.0020340 0.045099 1.000 ConditionSmallClause_NoSom 0.0035039 0.05000001. 1.8238288 1.350492 ConditionNoSmallClause 0.8992237 0.948274 -0.687 ConditionSmallClause_NoSom 0.9804329 0.990168 -0.606 -0.608 Resual 0.615 1.299271 تعداد obs: 1080، گروه: موضوع، 45; آیتم، 24 اثرات ثابت: برآورد Std. مقدار خطای t (Intercept) 3.3222 0.3174 10.468 ConditionNoSmallClause -0.3639 | تغییر سطح مرجع برای تغییرات کنتراست منجر به R 3.0.2/lme4 1.1-2 در مقابل R 2.15.0/lme4 0.999999-0 می شود |
4912 | فرض کنید نمونه من شامل 350 نمونه است. هر نمونه دارای دو ارزیابی باینری مستقل (pos و neg) **A** و **B** است. اگر فرضیه جایگزین من این باشد که الف بیشتر از B مثبت است، چگونه می توانم بیان کنم که آیا تفاوت از نظر آماری معنی دار است؟ * * * برای دقیق تر بودن در مورد داده ها: این سوال هنگام مشاهده اطلاعات سرم خون بیمار به ذهن متبادر شد. این 350 نمونه خون در برابر **X** مثبت است. هر نمونه ممکن است در برابر A یا B نیز مثبت باشد یا نباشد، در حالی که اگر X مثبت باشد A و B هر دو اغلب مثبت هستند، اما از نظر بیولوژیکی به یکدیگر وابسته نیستند. بنابراین فکر اولیه من این بود که ببینم آیا A بیشتر از B مثبت است یا خیر. در مثالی که بود، A در 80% و B در ~20% مثبت است. بنابراین به ارزیابی اهمیت این تفاوت فکر کردم و اینجا بود که گیر کردم. :) | محاسبه اهمیت تفاوت بین دو مقدار باینری در یک مجموعه داده |
82101 | میخواهم بدانم تکنیکها و معیارهای مختلفی برای ارزیابی دقیق/خوب بودن یک الگوریتم و نحوه استفاده از یک معیار معین برای نتیجهگیری در مورد یک مدل ML استفاده میشوند. | معیارهای ارزیابی الگوریتم یادگیری ماشین چیست؟ |
25499 | $n$ _fixed_ زیر مجموعههای یک جهان محدود را در نظر بگیرید $U$: $A,B,C,D,\ldots$ سپس اجازه دهید $Coll$ مجموعه مجموعههایی باشد که از بسته شدن مجموعه $\\{U بدست میآوریم، A،B،C،D، \ldots\\}$ تحت عملیات $\cup،\cap$ و تفاوت نظری مجموعه. (به عنوان یک کنار، برای کمک به تصویر Coll، توجه داشته باشید که $|Coll|≤ 2^{2^n}$ تصور کنید نمودار ون n-ary U را به 2ⁿ قطعه جدا تقسیم می کند - سپس 2^(2ⁿ) ترکیبی از قطعات، که اگر 2ⁿ قطعات همه خالی باشند، متمایز خواهند بود.) من به دنبال روش هایی برای تخمین اندازه یک عنصر معین هستم. $Coll$ مقداری از اندازه های مجموعه های دیگر را در $Coll$ داده است. به طور خاص، من میخواهم توزیع احتمال کاردینالیتههای یک مجموعه معین در $Coll$ را بدانم، با توجه به _some_ مقادیر دقیق برای اندازههای برخی از مجموعههای دیگر در $Coll$. من نمی دانم چه مدل احتمالی برای استفاده مناسب است. | محاسبه احتمال نسبت های (احتمالا) مجموعه های همپوشانی |
79914 | من با یک مشکل (سوال) با تجزیه و تحلیل داده های بیولوژیکی مواجه شدم و نمی دانم چگونه آن را حل کنم. سعی می کنم تا حد امکان ساده مشکل را توضیح دهم: * * * **مثال ساختگی:** 10000 کتاب درسی در یک کتابخانه وجود دارد. 1000 کتاب درسی فیزیک (10٪ از کل کتاب ها) وجود دارد. متوجه شدم که برخی از کتابهای فیزیک نقاشیهای شیطنتآمیزی توسط دانشآموزان دارند. این فرضیه را مطرح کردم که کتابهای درسی فیزیک با نقاشیهای شیطانی غنی شدهاند، از این رو یک آزمایش جایگشت انجام دادم (به طور تصادفی از همه کتابهای موجود در کتابخانه نمونهبرداری مجدد کردم (10000) و مقدار p ~ 0 را دریافت کردم). در واقع، کتاب های درسی فیزیک با نقاشی های شیطانی غنی شده اند. با این حال، تنها 10 کتاب درسی فیزیک دارای آن نقاشی های شیطانی هستند (0.1٪ از کل کتاب های موجود در کتابخانه). **سوال:** آیا این نمونه فرعی (0.1٪ از کل کتاب ها) به اندازه کافی منطقی است (از نظر آماری معتبر) برای ادامه تجزیه و تحلیل من و نتیجه گیری در مورد آن نقاشی های شیطانی کتاب های درسی فیزیک (آن کتاب ها از چه رشته ای هستند (مثلاً فیزیک مولکولی، نوری) ، سال انتشار و غیره)؟ * * * **مشکل واقعی:** 10000 ژن در یک ژنوم وجود دارد. نمونه من 1000 ژن است (آنها مسئول رشد جنین هستند). من متوجه شدم که برخی از آن ژن ها (10) دارای ویژگی خاصی هستند (توالی که مسئول اتصال پروتئین است). آزمایش جایگشت (ژنهای انتخاب شده بهطور تصادفی از همه ژنهای یک ژنوم) را انجام داد و مقدار p ~ 0 را گرفت. این به من اجازه میدهد که بگویم ژنهایی که مسئول رشد جنین هستند در مقایسه با همه ژنهای دیگر در یک ژنوم دارای ویژگیهای خاصی هستند. آیا ارزش ادامه آنالیز آن 10 ژن را دارد؟ نمونه من 1000 ژن است و این نمونه فرعی فقط 10 ژن است؟ آیا این برای نتیجه گیری در مورد زیست شناسی کافی است در حالی که 10000 ژن در یک ژنوم وجود دارد؟ | اندازه نمونه فرعی - چه زمانی خیلی کوچک است؟ |
57620 | من یک متغیر تصادفی $X \in \mathbb{R}$ را مشاهده میکنم که میتوان فرض کرد که به طور معمول با میانگین $\mu$ و واریانس $\sigma^2$ توزیع شده است. من علاقه مندم که توزیع پسینی را بر روی **واریانس ناشناخته** قرار دهم که طبق ویکی پدیا، می تواند به صورت بسته توسط گامای معکوس ارائه شود. سوال من این است که با توجه به نمونههای $\\{x_1,...,x_n\\}$ چگونه میتوانم این توزیع را متناسب کنم، یعنی پارامترهای $\alpha$ و $\beta$ را محاسبه کنم؟ **ویرایش:** من این پی دی اف را پیدا کردم که معادلات به روز رسانی پارامترها و اطلاعات بسیار مرتبط تر را ارائه می دهد. | استنتاج بیزی روی یک واریانس ناشناخته |
57623 | من یک بررسی متون انجام دادم و در نهایت به دادههای زیادی رسیدم از این قبیل که 10 مطالعه از 20 مطالعه x را پیدا کردند در حالی که 4 مطالعه از 8 مطالعه y را یافتند. به بیان دقیق تر؛ من سهم غذاهای دریایی را در مقولههای اثرات زیست محیطی در مطالعات مختلف بررسی کردم. در اینجا یک استخراج کوتاه از دادههای من است:  من میخواهم اکنون دادهها را به نحوی نشان دهم. به عنوان مثال، من می خواهم نموداری داشته باشم که نشان دهد چند مورد از ماهیگیری در مقایسه با فرآوری، بسته بندی و غیره 33٪ سهم دارد. چگونه می توانم با اندازه های مختلف نمونه برخورد کنم؟ آیا باید حداقل تعداد مطالعات را برای گنجاندن انتخاب کنم و اگر بله، آیا معیاری برای تعیین آن محدودیت وجود دارد؟ من نیازی به انجام آمار ندارم، اما میخواهم چند نمودار ساده داشته باشم تا به خوانندگان این امکان را بدهم که یک مرور کلی بسیار سریع داشته باشند. | داده ها را با اندازه های نمونه مختلف تجسم کنید |
99816 | من سعی می کنم فیلتر ذرات و انگیزه استفاده از آن را در نمونه برداری از اهمیت ترتیبی معمولی درک کنم. تا آنجا که من تا به حال متوجه شده ام: 1- سعی می کنیم انتظار یک تابع $f_n:\mathbb{R}^{n} \mapsto \mathbb{R}$ را تحت چگالی چند متغیره $\pi_{n}( x_{1:n})$، یعنی $E_{\pi_{n}(x_{1:n})}[f_n(x_{1:n})]$ با استفاده از $N$ نمونه ها معمولاً این یک سیستم پویا است و $n$ در $\pi_{n}(x_{1:n})$ در هر مرحله افزایش مییابد، به عنوان مثال در تراکم فیلتر یک مدل مارکوف پنهان. 2- در هر مرحله، از تراکم پیشنهادی افزایشی مانند $q_{n}(x_{n}|x_{1:n-1})$ نمونه برداری می کنیم. در مجموع، نمونههای $N$ از یک $n$ چگالی ابعادی $q_{n}(x_{1:n}) = q_{1}(x_{1})\prod_{k=2}^{n داریم }q_{k}(x_{k}|x_{1:k-1})$ در زمان $n$. 3- برآورد $\frac{1}{N}\sum_{i=1}^{N}f_n(x_{1:n}^{i})w_n(x_{1:n}^{i) را محاسبه میکنیم })$ که در آن $w_n(x_{1:n}^{i})$ تابع وزن با $w_n(x_{1:n}^{i}) = است \frac{\pi_{n}(x^i_{1:n})}{q_{n}(x^i_{1:n})}$. اکنون، میدانم که نمیتوانیم چگالی دقیق پیشنهادی را در هر مرحله محاسبه کنیم که واریانس تخمینی را به حداقل میرساند، زیرا ما فقط آزادی انتخاب $q_{n}(x_{n}|x_{1:n-1}) داریم. $، بقیه پیشنهاد قبلاً ثابت شده است. چیزی که من نمی فهمم این است که چرا واریانس تخمینی باید با افزایش بعد $n$ افزایش یابد. این به عنوان انگیزه اصلی برای استفاده از راه حل های فیلتر ذرات توضیح داده شده است. برای مشاهده آن، واریانس تخمین مونت کارلو $Var[\frac{1}{N}\sum_{i=1}^{N}f_n(x_{1:n}^{i}) را محاسبه کردم. w_n(x_{1:n}^{i})]$ که به نظر می رسد $E_{q_{n}(x_{1:n})}[f_n^2(x_{1:n})w_n^2(x_{1:n})] - \mu_n$. ($\mu_n$ انتظار واقعی است که ما می خواهیم تخمین بزنیم). این بدان معناست که برای افزایش واریانس، $E_{q_{n}(x_{1:n})}[f_n^2(x_{1:n})w_n^2(x_{1:n})] - \mu_n$ باید به عنوان تابعی از $n$ افزایش یابد. اما به عنوان یک عبارت ریاضی، نمیتوانم نشان دهم که چگونه این افزایش با $n$ تضمین میشود: این یک عبارت بسیار کلی است که به شکل تابع $f_n$، توزیع پیشنهادی $q_n$ و توزیع اصلی بستگی دارد. $\pi_n$. بنابراین نمی توانم ببینم که چگونه واریانس با بعد $n$ در اینجا افزایش می یابد. آیا در رویکرد و محاسباتم کار اشتباهی انجام می دهم یا چیزی مهم را در اینجا از دست می دهم؟ لطفا در این موضوع به من کمک کنید. پیشاپیش ممنون | چگونه نشان دهیم که واریانس تخمینهای نمونهگیری اهمیت متوالی با بعد افزایش مییابد؟ |
12435 | من اغلب نیاز به پیش بینی دوره های آینده در سری داده های ماهانه دارم. فرمولهایی برای محاسبه فاصله اطمینان در آلفا برای دوره بعدی در سریهای زمانی در دسترس هستند، اما این هرگز شامل نحوه برخورد با دوره دوم و سوم و غیره نمیشود. من از نظر بصری تصور میکنم که اگر پیشبینی با بالا و پایین نمودار شود. فواصل اطمینان، به طور کلی این بازه ها باید به طور تصاعدی در برابر میانگین پیش بینی افزایش یا کاهش یابد، زیرا عدم قطعیت یک نیروی تجمعی است. فرض کنید من فروش واحدی در آوریل = 10 می = 8 ژوئن = 11 ژوئیه = 13 داشتم و هیچ زمینه دیگری مانند فصلی بودن یا داده های جمعیتی نداشتم. از چه روشی استفاده می کنید؟ و مهمتر از آن، چگونه اعتماد به نفس را برای سپتامبر و اکتبر اندازه گیری می کنید؟ متاسفم که این ممکن است یک سوال ساده برای برخی از کارشناسان باشد - من برای یافتن یک پاسخ روشن بسیار جستجو کرده ام، و مطمئن هستم که این چیزی است که همه آماتورهایی مانند من دوست دارند آن را درک کنند. | چگونه خطای پیش بینی (فاصله های اطمینان) را برای دوره های جاری محاسبه کنیم؟ |
105673 | من یک GLM را در یک مجموعه داده قرار می دهم. حالا میخواهم ببینم تفاوت بین گروههای من در کجاست، بنابراین سعی کردم یک Tukey HSD را به عنوان یک آزمون پسهک اجرا کنم. چون GLM است، نمی توانم از «TukeyHSD()» استفاده کنم. بنابراین من سعی کردم یک تست Tukey را با استفاده از: summary(glht(my.mod, mcp(treatment=Tukey))) هنگامی که این را امتحان کردم، خطای زیر را دریافت می کنم: متغیر(ها) 'treatment' در 'linfct' اما در 'model' یافت نمی شود! این همان چیزی است که در R: > recol Sample At..Ind به نظر می رسد. At.Sp. X درمان 1 C1 1 0 C 2 C2 2 2 0 C 3 C3 1 1 0 C 4 FS1 1 1 50 FS 5 FS2 4 3 80 FS 6 FS3 0 0 80 FS 7 FL1 3 3 280 FL 43 FL 1 9 FL3 2 2 220 FL 10 VS1 2 2 40 VS 11 VS2 0 0 50 VS 12 VS3 1 1 5 VS 13 VL1 3 3 400 VL 14 VL2 7 6 600 VL 15 VL3 3 3 1117 MS1 MS2 3 3 30 MS 18 MS3 0 0 30 MS 19 ML1 2 1 400 ML 20 ML2 7 7 300 ML 21 ML3 7 7 300 ML > my.mod=glm(Arachnida~as.soat), >tactor(soat) خلاصه (my.mod) تماس: glm(فرمول = Arachnida ~ as.factor (درمان)، داده = مرتب سازی) باقیمانده انحراف: حداقل 1Q میانه 3Q Max -2.3333 -0.3333 0.0000 0.0000 2.6667 ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (تقاطع) 3.107e-16 6.901e-01 0.000 1.00000 as.factor(treatment)FL -1.277e-16 9.759e-01 0.000 1.00000 1.000001. e-16 9.759e-01 0.000 1.00000 as.factor(درمان)ML 3.000e+00 9.759e-01 3.074 0.00825 ** به عنوان فاکتور(درمان)MS 3.333e-01 9.715-9.759e as.factor(treatment)VL 2.333e+00 9.759e-01 2.391 0.03141 * as.factor(treatment)VS 3.333e-01 9.759e-01 0.342 0.73775 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده گاوسی 1.428571 در نظر گرفته شده است) انحراف صفر: 48.571 در 20 درجه آزادی: 0.0 انحراف باقیمانده. 14 درجه آزادی AIC: 74.571 تعداد تکرارهای امتیاز دهی فیشر: 2 > glht(my.mod, mcp(treatment=Tukey)) خطا در mcp2matrix (model, linfct = linfct) : متغیر(ها) 'treatment' در 'linfct' مشخص شده است اما در 'model' > summary(glht(my.mod, mcp(treatment=Tukey))) خطا در mcp2matrix(model, linfct = linfct): متغیر(ها) 'treatment' در 'linfct' مشخص شده است اما در 'model' یافت نمی شود. ? | Tukey برای GLM نمی تواند داده ها را در مدل پیدا کند |
105679 | بگویید من فهرستی از اعداد $X = \\{x_1، x_2، \dots، x_n\\}$ دارم، و من انتظار دارم که آنها از یک توزیع خاص ترسیم شوند. برای مورد من، توزیع دوجمله ای $P(x) = \binom{n}{x}p^x(1-p)^{n-x}$ است، اما فکر میکنم پاسخ کلی مفیدترین باشد. استاندارد و دقیقترین روشی که میتوانم تشخیص دهم که نمونههای X$ از آن توزیع هستند چیست؟ | چگونه می توان به دقت آزمایش کرد که آیا متغیرها از یک توزیع خاص استخراج شده اند؟ |
105671 | یک سوال قدیمیتر، توضیحی شهودی از نحوه عملکرد رگرسیون خطی جریمهشده، با استفاده از دو کانتور مجزا میدهد: یکی برای کمترین مربع هدف، دیگری برای عبارت جریمه (یعنی منظمسازی). همچنین می گوید که مجموع حداقل مربعات و اهداف تنظیم زمانی که خطوط برای اولین بار به هم می رسند به حداقل می رسد. با این حال، به نظر می رسد که برای محاسبه نقطه ای که آنها برای اولین بار به هم می رسند، باید میزان رشد هر دو کانتور را بدانیم. متأسفانه نمی توانم بفهمم چگونه به آن برسم. **به روز رسانی:** در پایین صفحه 5 این یادداشت ها در مورد انتخاب و تنظیم متغیرها، نویسندگان می گویند که $$ argmin \sum{(y_i - \alpha - \beta'x_i)^2}$$ مشروط به $ $\sum{|\beta_j|} < t$$ معادل به حداقل رساندن $$\frac{1}{2n}\sum{(y_i - \alpha - است \beta'x_i)^2} + \lambda \sum{|\beta_j|}$$. اگر از این منظر به کانتور در حال رشد نگاه کنیم، به این معنی است که: 1. نمودار کانتور را برای مدت جریمه ثابت می کنیم، به نحوی (؟) با محاسبه $t$ از $\lambda$. 2. ما فقط کانتور را برای کمترین مربع هدف رشد می دهیم. آیا این استدلال صحیح است؟ اگر بله، آیا میتوانید به برخی ادبیات اشاره کنید که این موضوع را با جزئیات بیشتر مورد بحث قرار میدهد، به ویژه: 1. معادلسازی بین کمینهسازی تابع با محدودیتهای نابرابری و کمینهسازی تابع هدف به شکل آشناتر با $\lambda$ پارامتر 2. محاسبه $t$ با توجه به $\lambda$. | تفسیر هندسی رگرسیون خطی جریمه شده II |
2121 | من از رگرسیون رج روی داده های بسیار چند خطی استفاده می کنم. با استفاده از OLS به دلیل چند خطی بودن، خطاهای استاندارد بزرگی در ضرایب دریافت می کنم. من می دانم که رگرسیون رج راهی برای مقابله با این مشکل است، اما در تمام پیاده سازی های رگرسیون ریج که من به آنها نگاه کردم، هیچ خطای استانداردی برای ضرایب گزارش نشده است. من میخواهم روشی را تخمین بزنم که رگرسیون پشته با دیدن اینکه چقدر خطاهای استاندارد ضرایب خاص را کاهش میدهد، کمک میکند. آیا راهی برای تخمین آنها در رگرسیون پشته وجود دارد؟ | چگونه می توانم خطاهای استاندارد ضریب را هنگام استفاده از رگرسیون خطی تخمین بزنم؟ |
104508 | من یک RandomForest را در R روی مجموعه ای از داده ها با متغیرهای زیادی اجرا می کنم. با استفاده از `varImpPlot()` می دانم که هر متغیر چقدر برای توضیح متغیر هدف اهمیت دارد. با این حال، من همچنین می خواهم بدانم که آیا **_متغیر بر مقدار هدف_** تأثیر مثبت می گذارد یا منفی. به عنوان مثال، در پیشبینی درآمد شخصی، ممکن است متوجه شوم که «سن» خیلی توضیح میدهد، اما میخواهم بدانم که آیا «سن بالاتر -> درآمد بیشتر» یا «سن پایینتر -> درآمد بیشتر». آیا راهی برای دانستن این موضوع با Random Forest وجود دارد؟ | جنگل تصادفی - چگونه بفهمیم متغیرها تأثیر مثبت یا منفی دارند |
34483 | id sam1 sam2 sam3 sam4 gene1 33 23 88 98 gene2 0 0 99 95 gene3 77 100 44 65 gene4 0 0 0 0 gene5 100 100 100 100 : 0 100 100 100 : 0 100 100 100 : 0 100 520 ژن (ردیف) و چهار نمونه (ستون) که به صورت درصد داده شده است. هر ژن در چهار نمونه مشترک است. فرضیه این است که اگر هر یک از ژن ها در هر یک از نمونه ها 100 درصد باشد، گفته می شود که در آن نمونه وجود دارد و اگر 0 درصد وجود نداشته باشد. (به عنوان مثال gene3 در نمونه 2 (sam2) وجود دارد و gene4 در همه نمونه ها وجود ندارد.) از آنجایی که من 20K ژن دارم، می خواهم تکنیک خوشه بندی را انجام دهم. آیا می توانم دو خوشه بندی انجام دهم و یک نقشه حرارتی تهیه کنم؟ اگر چنین است، لطفا به من اطلاع دهید که چگونه در R انجام دهم؟ | ترسیم نقشه حرارتی بر اساس خوشه بندی در R |
15422 | من می خواهم برخی از داده های یک پرسشنامه در مورد حضور را تجزیه و تحلیل کنم (من با آزمایش های واقعیت مجازی سر و کار دارم). این پرسشنامه دو بار در اختیار شرکت کنندگانی قرار گرفت که هر یک از این دو شرایط را فراهم کردند. 6 سوال پرسشنامه توسط شرکت کنندگان در مقیاس لیکرت 7 درجه ای ارزیابی شد. پس از آنچه در کتابشناسی یافتم، باید داده ها را به روش زیر تجزیه و تحلیل کنم تا بفهمم آیا تفاوت بین این دو شرط قابل توجه است یا خیر: باید تعداد پاسخ هایی را که نمره 6 یا 7 دارند بشمارم، سپس من برای هر شرط متغیری برابر با میانگین تعداد 6 و 7 نمره از بین هر 6 سوال خواهد داشت. پس از آن، من باید آن دو متغیر را برای یک رگرسیون لجستیک در گروه به صورت دوجمله ای توزیع کنم. مشکل من این است که نمی دانم چگونه رگرسیون لجستیک را انجام دهم. من سعی کردم درس بخوانم اما متوجه نشدم که چگونه آن را در مورد خود اعمال کنم. علاوه بر این من در درک نحوه اجرای آن در R نیز مشکل دارم. آیا شما در R نیز مثالی دارید؟ فرض کنید که دو متغیر (meand +-std) هستند: Count_condition1 = 1 +- 1.7 و Count_condition1 = 2 +- 2.0 | رگرسیون لجستیک برای پرسشنامه ها در مقیاس لیکرت 7 درجه ای |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.