_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
85636 | فرض کنید من در یک گره در یک درخت $regression$ هستم و از تخمینهای در حال اجرا $\sum_{i \در Region_1} (y_i - mean(y_i)_{Region1})^2$ استفاده میکنم (و همینطور برای منطقه 2 ) برای تعیین اینکه آیا باید گره را در ویژگی $X_j$ برای کاردینالیتی بزرگ تقسیم کرد $|\\{X_j\\}| := p$، که $p/3$ تعداد ویژگیهای نمونهگیری تصادفی است. هدف من این است که معیارهایی برای خاتمه دادن به تصمیم تقسیم زودهنگام پیدا کنم، شاید در $p/5$ (مثلا)، اگر الگوریتم به یک ویژگی برخورد کرده باشد که جدایی از نظر آماری بسیار قوی و غیرمحتمل غیر پیش پا افتاده باشد. با تکرارهای بیشتر الگوریتم تقسیم از طریق باقیمانده مجموعه ویژگی های نمونه برداری بهبود یافته است. آیا چنین رویکردهایی امتحان شده است؟ آیا دستورالعمل عملی وجود دارد؟ چگونه می توانم به این موضوع از نظر آماری قوی برخورد کنم (روشی که تعمیم را زخمی نمی کند - باید یک سود خالص باشد)؟ یک راه سریع که میتوانم انجام دهم این است که چند درخت روی دادههایم ایجاد کنم و توزیع محاسبه معیار تقسیم را ترسیم کنم، همانطور که از $1$ به $p/3$ برای یک سطح معین در درخت حرکت میکنیم، سپس از این استفاده کنید. برای دریافت تخمین من از احتمال اینکه ویژگی در $p/5$ شکست نخواهد خورد. اما من مطمئن نیستم که این چگونه بر تعمیم تأثیر می گذارد. | معیارهای تصمیم گیری تقسیم اولیه برای تخمین سریع تصادفی (رگرسیون) جنگل |
38523 | من به تازگی برنامه MS را با موضوع یادگیری ماشین شروع کردم. من کنجکاو هستم در مورد جریان صحیح موضوعاتی که باید یاد بگیرند تا در موضوع ML مهارت داشته باشند. علاوه بر این می توانید منابعی در مورد آن پیشنهاد دهید؟ با تشکر... | ترتیب صحیح موضوعات و منابعی که برای استاد شدن در یادگیری ماشین باید تسلط داشته باشند چیست؟ |
44268 | من دو متغیر غیرعادی توزیع دارم (منحرف مثبت، دارای اثرات سقف). من می خواهم ضریب همبستگی بین این دو متغیر را محاسبه کنم. به دلیل توزیع غیر نرمال، من از همبستگی مرتبه- مرتبه اسپیرمن استفاده کردم که یک ضریب همبستگی و یک مقدار معنادار (p) را برمی گرداند. نتایج من (n=400) یک همبستگی معنادار ($p = 8 \times 10^{-5}$) اما ضعیف را نشان میدهد (Spearman's $\rho$ = 0.20). اگر کسی از پیرسون استفاده کند، میتواند قدرت همبستگی را بر حسب واریانس مشترک توصیف کند (ضریب تعیین، $R^2$ – در مورد من $R^2$ = 0.04، یعنی 4%). واضح است که برای اسپیرمن، مجذوب مقدار $\rho$ با رتبهبندی دادهها به نظر نمیرسد. بهترین راه برای صحبت در مورد اندازه افکت با استفاده از $\rho$ اسپیرمن چیست؟ متناوباً، پس از بحثی در اینجا (همبستگی پیرسون یا اسپیرمن با دادههای غیرعادی)، من بحثها را به این معنا تفسیر میکنم که همبستگی پیرسون نرمال بودن را فرض نمیکند، اما محاسبه مقادیر p از ضرایب همبستگی اینطور است. بنابراین، من نمیدانستم که آیا میتوان از Spearman برای محاسبه p-value همبستگی و پیرسون برای محاسبه اندازه اثر استفاده کرد و بنابراین همچنان از واریانس مشترک بین دو متغیر صحبت کرد. | ضریب تعیین گزارش با استفاده از روش اسپیرمن |
33684 | من یک سوال در مورد تفسیر اصطلاحات تعامل مرتبه پایین در حضور اثر متقابل مرتبه بالاتر قابل توجهی دارم. فرض کنید من یک طرح 2 (عامل $A$) $\times$ 2 (ضریب $B$) $\times $ 2 (عامل $C$) دارم که در آن بیشترین تعامل ($A\ بار B\ برابر C$) وجود دارد. معنی دار است و یک ترم تعامل مرتبه پایین تر ($A\ برابر B$) نیز قابل توجه است. آیا تعامل قابل توجه $A\times B\times C$ تعامل $A\times B$ را غیرقابل تفسیر می کند (مثل اینکه چگونه جلوه های اصلی در حضور یک تعامل قابل تفسیر غیر قابل تفسیر می شوند)؟ تحت چنین شرایطی، آیا باید مجموعهای از مقایسههای برنامهریزیشده/پسهک را اجرا کنم تا بررسی کنم که شرایط مختلف چقدر متفاوت است؟ | چگونه می توان تعامل مرتبه پایین تر را وقتی که تعامل مرتبه بالاتر معنی دار است تفسیر کرد؟ |
89986 | من یک بازی ویدیویی مسابقه اتومبیل رانی را روی رایانه لوحی خود انجام می دهم و داده های 224 مسابقه را جمع آوری کرده ام. در این بازی، دو ماشین رو در روی هم قرار می گیرند و بیش از یک چهارم مایل مسابقه می دهند. من می خواهم تأثیر نسبی عوامل خاصی را بر احتمال برنده شدن در مسابقه تعیین کنم. یک فایل داده در http://csr.datamustflow.com/csr_racing_times.csv موجود است. این فایل شامل ستون های لیست شده در زیر است. در فایل، یک 'y' به معنای 'بله/حال' و 'n' به معنای 'خیر/عدم وجود' است. مشتاقانه منتظر هر بازخوردی هستم که می توانید در مورد بهترین راه برای انجام این تحلیل به من بدهید. ویرایش: اکنون یک فایل جدید با جفتهای مسابقه در http://csr.datamustflow.com/csr_times_paired.csv موجود است. در صورت وجود، باید زمان مسابقه کاهش یابد N: ارتقاء اکسید نیتروژن: در صورت وجود، باید زمان مسابقه کاهش یابد T: ارتقاء تایر. در صورت وجود، باید زمان مسابقه B را کاهش دهد: بلاگر اگر مسابقه را ببازید، هیچ امتیاز بازی را از دست نمی دهید. انتظار نمی رود که هیچ تاثیری بر پیروزی زمان مسابقه داشته باشد: اینکه آیا ماشین در مسابقه پیروز شد یا نه زمان: زمان مسابقه بیش از یک چهارم مایل. زمان کمتر = برابر است با مسابقه سریعتر من: آیا من در آن مسابقه با ماشین مسابقه می دادم یا نه PP: یک عدد صحیح که عملکرد کلی ماشین را توصیف می کند. عدد بالاتر به معنای ماشین بهتر و سریعتر است | عوامل برنده بازی اتومبیل رانی |
44262 | من یک سوال در مورد ادعایی دارم که در کتاب های آماری در مورد کاربرد توزیع t برای محاسبه فواصل اطمینان برای $n دلار بزرگ در صورتی که داده ها به طور معمول توزیع نشده باشند (اما دارای واریانس محدود هستند) خوانده ام. بیانیه این است که برای $n$ کوچک باید فرض گاوسی را در داده ها بررسی کرد، اما اگر $n$ به اندازه کافی بزرگ باشد، می توان از توزیع t برای محاسبه فواصل اطمینان استفاده کرد. به نظر می رسد ایده این است که توزیع میانگین با قضیه حد مرکزی به یک توزیع نرمال همگرا می شود. در اینجا چیزی است که من متوجه نمی شوم: یک RV با توزیع t را می توان به عنوان یک RV معمولی تقسیم بر یک RV توزیع شده $\chi$ با درجه آزادی $n-1$ توصیف کرد. من می بینم که توزیع میانگین به یک توزیع عادی همگرا می شود، اما در مورد توزیع خطای استاندارد چطور؟ اگر داده اصلی نرمال نیست، چرا باید خطای استاندارد از توزیع $\chi$ پیروی کند؟ بنابراین، چرا RV استاندارد شده باید دارای توزیع t باشد؟ تنها راهی که من توانستم این را بفهمم این است که برای $n$ بزرگ * توزیع میانگین به یک توزیع عادی همگرا می شود * توزیع t به یک توزیع عادی همگرا می شود، بنابراین اساساً برای $n $ بزرگ می توان به هر حال از توزیع گاوسی استفاده کرد. فاصله اطمینان با این حال، این به نحوی باعث ایجاد انحراف بر روی توزیع t نمی شود. یا دلیل ریاضی دیگری وجود دارد که میانگین تقسیم بر خطای استاندارد باید دارای توزیع t باشد؟ آیا من چیزی را از دست داده ام؟ با تشکر از کمک شما. | فاصله اطمینان توزیع t برای داده های غیر گاوسی اما n بزرگ است |
4498 | به نظر می رسد همه آنها متغیرهای تصادفی را توسط گره ها و (نا)وابستگی از طریق لبه های (احتمالاً جهت دار) نشان می دهند. من به خصوص به دیدگاه یک بیزی علاقه مند هستم. | چه رابطه ای بین مدل های سلسله مراتبی، شبکه های عصبی، مدل های گرافیکی، شبکه های بیزی وجود دارد؟ |
10058 | من نیاز به بررسی واقعیت دارم اگر بخواهید. من یک مجموعه داده دارم که در آن می دانم چند پروانه منفرد از دو گونه همزمان در یک چمنزار وجود دارند (البته نه همیشه). من متغیرهای اضافی دارم، به عنوان مثال علفزار مرطوب/خشک، به شدت کشت شده/کشت نشده، درصد مساحت اطراف علفزار تحت پوشش چمنزارهای مرطوب یا خشک... این سر مجموعه داده است. 50 ردیف در مجموع، 25 ردیف در هر گونه. توجه داشته باشید که همه ستونها به جز تعداد و گونهها یکسان هستند، که نشان میدهد از یک محل نمونهبرداری آمدهاند. > head(dej) count type1 type2 perc.for.100m perc.dry.100m perc.wet.100m species 1 1 intensive dry 13.836 22.724 0.000 reali 2 3 extensive wet 6.877 1.622 1.613 real intensive7 52. 0.537 44.901 reali 4 6 فشرده خشک 17.346 42.322 6.359 reali 5 1 گسترده مرطوب 34.854 9.091 11.950 واقعی 6 2 خشک گسترده 50.387 19.205 واقعی خشک 13.836 22.724 0.000 سیناپیس 27 0 گسترده مرطوب 6.877 1.613 52.213 سیناپیس 28 0 فشرده مرطوب 22.770 0.537 44.901 سیناپیس 29. 0.33 سیناپیس 29.23 سیناپیس29. 30 1 گسترده مرطوب 34.854 9.091 11.950 sinapis 31 1 گسترده خشک 50.387 19.245 0.000 sinapis ... من علاقه مندم بدانم که آیا هر یک از این متغیرها بر گونه ها و تعداد مربوط به آنها تأثیر می گذارد. و این نتیجه مدل کامل است. glm (فرمول = تعداد ~ نوع 1 + نوع 2 + پرک. برای. 100 متر + پرک. خشک. 100 متر + پرک. مرطوب. 100 متر + گونه، خانواده = سم، داده = دژ) باقیمانده های انحراف: حداقل 1Q میانه 3Q حداکثر -2.8458 -1.1414 -0.4546 0.8297 2.2145 ضرایب: Estimate Std. خطای z مقدار Pr(>|z|) (برق) 0.028129 0.523509 0.054 0.95715 type1intensive 0.196699 0.191960 1.025 0.30551 0.30551 type2wet 0.06340.071 0.82984 perc.for.100m 0.003741 0.008277 0.452 0.65130 perc.dry.100m 0.010952 0.010750 1.019 0.30829 0.30829 0.450 0.450. 0.011596 0.644 0.51960 speciessinapis 0.597837 0.187689 3.185 0.00145 ** آیا اصلاً این رویکرد درستی به نظر می رسد؟ _برخی اطلاعات اضافی_ به عنوان یک یادداشت جانبی، بر اساس اکتشاف من در داده ها، انتظار دارم که شمارش (حداقل) به متغیر type2 بستگی داشته باشد، افسوس که این چیزی نیست که من دریافت کردم.  با استفاده از منطق معکوس، سعی کردم با استفاده از داده های من بتوان گونه ها را پیش بینی کرد، که احتمالاً نتایج فوق را تأیید می کند. تماس: glm (فرمول = گونه ~ نوع 1 + نوع 2 + پرک. برای. 100 متر + پرک. خشک. 100 متر + پرک. مرطوب. 100 متر + تعداد، خانواده = دوجمله ای، داده = دژ) باقیمانده های انحراف: حداقل 1Q میانه 3Q حداکثر -1.6322 -1.0136 -0.1568 1.0592 1.6407 ضرایب: برآورد Std. خطای z مقدار Pr(>|z|) (فاصله) -0.351192 1.658052 -0.212 0.8323 type1intensive -0.170583 0.651611 -0.262 0.7935 type2wet -0.107071-0.107071 0.9207 perc.for.100m -0.002806 0.026807 -0.105 0.9166 perc.dry.100m -0.010227 0.036982 -0.277 0.7821 0.7821 perc.m380.706.106 - مرطوب -0.170 0.8647 تعداد 0.345036 0.153811 2.243 0.0249 * --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 '' 1 (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف صفر: 69.315 در 49 درجه آزادی انحراف باقیمانده: 63.431 در 43 درجه آزادی AIC: 77.431 _EDIT 1_ Aniko متوجه شد که ممکن است یک تعامل بین نوع2 و گونه ها در واقع! تماس: glm (فرمول = تعداد ~ نوع 1 + نوع 2 * گونه + perc.for.100m + perc.dry.100m + perc.wet.100m، خانواده = poisson، داده = dej) باقیمانده انحراف: حداقل 1Q میانه 3Q Max -3.0859 -1.1350 -0.1947 0.7109 2.7470 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) -0.357165 0.559987 -0.638 0.52360 type1intensive 0.196699 0.191960 1.025 0.30551 type2wet 0.4960.704 0.704 0.10049 speciessinapis 1.145132 0.306847 3.732 0.00019 *** perc.for.100m 0.003741 0.008277 0.452 0.65130 0.65130 0.65130 perc.m501.10. 1.019 0.30829 perc.wet.100m 0.007467 0.011596 0.644 0.51960 type2wet:speciessinapis -0.962 | بررسی واقعیت با استفاده از GLM |
11091 | من معتقدم که متغیرهای مستقل $X_1,X_2$ بر متغیر وابسته $Y$ از طریق یک متغیر پنهان $Z$ تاثیر میگذارند به طوری که $$ \begin{align} Y &= \beta_0 + \beta_1Z \\\ Z &= \operatorname{ Logit}^{-1}(\beta_2X_1 + \beta_3X_2) \\\ \\\ Y &= \beta_0 + \beta_1\operatorname{Logit}^{-1}(\beta_2X_1 + \beta_3X_2) \end{align} $$ آیا می توان $\beta_2$ و $\beta_3$ را با توجه به $Y$ تخمین زد؟ | برآورد اثر متغیر نهفته در رگرسیون |
5329 | من میخواهم یک نمودار را با استفاده از الگوریتم FCM خوشهبندی کنم، از ماتریس مجاورت نمودار به عنوان داده و از فاصله «اقلیدسی» به عنوان متریک استفاده کردم. مشکل این است که ماتریس مجاورت پر از صفر است (در واقع به درجه گره بستگی دارد) و شبکه من یک نود بزرگ بیش از 2000 است. برای نتایج، من بسیاری از خوشه های اندازه کوچک و برخی خوشه های اندازه بزرگ را دریافت می کنم، که برخی اوقات حدود 50٪ از جمعیت را شامل می شوند و درست نیست. فکر می کنم مشکل من از نمایش داده ها باشد. آیا شرایطی وجود دارد که باید به غیر از شرایط الگوریتم FCM ارضا شود؟ پیشاپیش از شما متشکرم. | آیا شرایطی برای داده ها در خوشه بندی فازی c-mean وجود دارد؟ |
70469 | من در حال حاضر روی مدلسازی توزیع دو گونه دریایی و همچنین روی توزیع همپوشانی آنها کار میکنم. برای این کار من از یک مدل رگرسیون لجستیک دو جمله ای (GLM) استفاده می کنم که پاسخ آن به ترتیب، وجود/غیاب گونه 1، حضور/غیاب گونه 2، حضور/غیاب همپوشانی است. سوال من مربوط به اولین نتایج من در مورد پاسخ همپوشانی است (زمانی که من دو گونه حضور داشته باشم 1 و زمانی که حداقل یک گونه وجود ندارد کدگذاری می شود). متغیرهای توضیحی پارامترهای مختلف محیطی (دما، عمق و غیره) هستند. پس از انتخاب مدل نهایی، من خودهمبستگی فضایی (SAC) را بررسی کردم و با استفاده از شاخص موران I در باقیماندههای خطا یافتم (6 تاخیر اول به طور معنیداری همبستگی مکانی دارند). من تصمیم گرفتم از دو روش مختلف استفاده کنم: خودکوواریات و نگاشت بردار ویژه موران. من از R (بسته spded، spacemakeR و packfor) استفاده می کنم، Dormmann (2007) روش هایی برای محاسبه خودهمبستگی فضایی در تجزیه و تحلیل داده های توزیع گونه ها - مرور ضمیمه و Borcard و همکاران. (2011) بوم شناسی عددی با R ص. 275-277. سوال من به نتایج این دو روش مربوط می شود (شکل ضمیمه را ببینید). به نظر می رسد که مدل های GLM و GLM+ac من بهتر از مدل GLM+MEM (MEM: نقشه های بردار ویژه موران) هستند. این عجیب نیست؟ به دنبال ادبیات، به نظرم رسید که MEM باید بهترین روش از این سه باشد. آیا سرنخی دارید که چرا ممکن است این اتفاق بیفتد؟ آیا یک دلیل نظری می تواند این را توضیح دهد یا باید در نحوه اعمال توابع تحقیق کنم؟ من قبلاً تابع MEM را با استفاده از دو ماتریس مجاورت مختلف اعمال کردم (یکی همسایه های خالی را ترک می کند، در حالی که دیگری هیچ منطقه ای 0 باقی نمی گذارد). شاید باید اضافه کنم که داده های من در مقیاس بزرگ هستند (مستطیل آماری دریای شمال) و فاکتوری به موقعیت یکسان اما در زمان های مختلف (20 سال تحت پوشش) برای جداسازی فضایی آنها اضافه شده است. هر گونه کمک یا سرنخ استقبال می شود.   | خودهمبستگی فضایی - GLM، خودکوواریات، MEM (نقشه برداری بردار ویژه موران) |
45133 | من درگیر پروژه ای هستم که در آن باید چند نمونه با استفاده از متغیرهای تصادفی گاوسی چند متغیره غیر منفی (متغیرهای تصادفی log-normal) بسازم. بخشی از محاسبات نیاز به محاسبه ماتریس های کوواریانس دارد. از آنجایی که من هیچ داده ای ندارم و اعداد را از هوا بیرون می کشم، امیدوار بودم که آیا کسی لطف کند تأیید کند که الگوریتم زیر معتبر است یا خیر. 1. من یک دسته از مقادیر ثبت مثبت را به عنوان انحرافات استاندارد برای متغیرهای خود فرض می کنم. اجازه دهید این $$s =[\sigma_1،\cdots، \sigma_n]$$ را نام ببریم. سپس $$s^2 = s^{T}s.$$ 3 را محاسبه میکنم. ماتریس همبستگی را فرض میکنم $\rho$ که همگی غیر منفی هستند و این ماتریس متقارن است. 4. $\rho$ را با عنصر $s^2$ ضرب کنید. این یک عملیات غیر استاندارد است، آنچه من در اینجا پیشنهاد می کنم این است که عنصر $(i, j)$th $s^2$ در $(i, j)$th عنصر $\rho$ ضرب می شود. ماتریسی که با تکمیل تمام عملیات از نظر عنصر تولید میشود، ماتریس کوواریانس $\Sigma$ است. من در آزمایشگاه mat تأیید کردهام که مقادیر $\Sigma$ نمونههای من Choleski تجزیهپذیر هستند، زیرا در نتیجه یک ماتریس مثلث بالایی معتبر دریافت میکنم. از این رو من از این نتیجه میگیرم که آنها مثبت - قطعی هستند. این ماتریس ها نیز متقارن هستند. آیا می توانیم بر اساس فرآیند و فاکتورگیری چولسکی استنباط کنیم که ماتریس های کوواریانس معتبر هستند؟ http://math.stackexchange.com/q/250912/23874 | الگوریتم ساخت ماتریس کوواریانس |
5321 | من PCA را با استفاده از تجزیه مقادیر ویژه در matlab پیاده سازی می کنم. من می دانم matlab دارای PCA پیاده سازی شده است، اما به من کمک می کند تا هنگام نوشتن کد، تمام نکات فنی را درک کنم. من راهنمایی های اینجا را دنبال کرده ام، اما در مقایسه با عملکرد داخلی prinomp، نتایج متفاوتی دریافت می کنم. آیا کسی می تواند به آن نگاه کند و من را در جهت درست راهنمایی کند. کد اینجاست: تابع [mu, Ev, Val ] = pca(data) % mu - میانگین تصویر % Ev - ماتریس که ستونهای آن بردارهای ویژه مربوط به eigen % مقادیر Val % Val - مقادیر ویژه اگر nargin ~= 1 خطا (' استفاده: [mu,E,Values] = pca_q1(data)'); end mu = mean(data)'; تصاویر = اندازه (داده، 2); برای i = 1:nimages data(:,i) = data(:,i)-mu(i); پایان L = data'*data; [Ev، Vals] = eig(L); [Ev,Vals] = مرتب سازی(Ev,Vals); % محاسباتی بردار ویژه ماتریس کوواریانس واقعی Ev = داده * Ev; Val = diag(Vals); Vals = Vals / (تصاویر - 1); % نرمال کردن Ev به واحد طول مناسب = 0; برای i = 1:nimages Ev(:,i) = Ev(:,1)/norm(Ev(:,i)); اگر Vals(i) < 0.00001 Ev(:,i) = صفر(اندازه(Ev,1),1); else proper = proper+1; پایان؛ پایان؛ Ev = Ev(:,1:nimages); | تجزیه مقادیر ویژه در متلب |
49638 | من یک اسکریپت R برای بدست آوردن خطاهای استاندارد بوت استرپ در تنظیمات رگرسیون خطی نوشته ام. در عمل، ابتدا در مرحله ساخت مدل، مدل نهایی را برای اعمال در هر نمونه بوت استرپ انتخاب میکنم (برای سادگی، فرض کنید یک مدل خطی تک متغیره ساده است). سپس نمونه های بوت استرپ «B = 1000» را شبیه سازی می کنم (با جایگزینی از مجموعه داده واقعی اولیه). برای هر نمونه شبیه سازی شده، مدل رگرسیون تک متغیره تعریف شده اولیه را به داده های شبیه سازی شده برازش می دهم و ضریب تخمینی متغیر کمکی مورد نظر را در «b_x» ذخیره می کنم. اکنون برای سادگی فرض کنید «B = 10». در پایان شبیهسازیهای «B»، ماتریس خروجی «boot_out» را به این شکل به دست میآورم: boot_out <- read.table(text = iter b_x 1 1.19 2 0.81 3 1.21 4 1.05 5 0.99 6 1.11 7801. 9 0.91 10 1.12، header=TRUE) اکنون باید خطای استاندارد بوت استرپ اثر رگرسیون مورد علاقه را محاسبه کنم، آن را «se_boot» بنامیم. برای این منظور، من از: se_boot <- sd(boot_out[b_x]) se_boot استفاده کردم، اما یک نتیجه غیرمنتظره دریافت کردم: خطای استاندارد بوت استرپ b_x **بیشتر** از خطای استاندارد تخمین زده شده در ابتدایی است. مدل برازش دادههای واقعی. با نگاه کردن به مقادیر «b_x» من دریافتم که تخمینهای اثر جزئی علاقه در محدوده وسیعی متفاوت است، اما من حدس زدم که 1000 تکرار بوت استرپ برای پالایش خطای استاندارد تخمینی `b_x` کافی است. برای هر کمکی بسیار متشکرم | محاسبه دستی خطاهای استاندارد بوت استرپ در تنظیمات رگرسیون خطی |
87161 | من سعی می کنم از داده های محدود در طیف وسیعی از متغیرها برای پیش بینی استفاده کنم. ده متغیر وجود دارد و هر موضوع دارای سه متغیر از ده متغیر تعریف شده است. این تقریباً تصادفی است که هر موضوع سه متغیر را تعریف کرده است، اما نه به طور کامل. اگر هر آزمودنی هر ده متغیر را تعریف کرده بود، به راحتی میدانستم چگونه رگرسیون خطی حداقل مربعات را اجرا کنم. من یک موضوع دارم که هر ده متغیر را تعریف کرده است - با استفاده از این داده ها، می توانم سعی کنم هفت متغیر دیگر را برای هر موضوع پر کنم، اما درست به نظر نمی رسد. بهترین راه برای محاسبه ضرایب برای مدل رگرسیون خطی در موردی که همه آزمودنیها فقط سه متغیر از ده را دارند، چیست؟ با تشکر | چگونه می توانم رگرسیون خطی چندگانه را با مجموعه داده های محدود برای هر موضوع اجرا کنم؟ |
108808 | در آمار می توان میانگین یک نمونه و خطای استاندارد میانگین را محاسبه کرد. فرض کنید میانگین یک نمونه 2 و خطای استاندارد 1.5 باشد. اگر به طور مکرر از این جامعه نمونه برداری کنیم، انتظار می رود که میانگین فاصله میانگین نمونه از میانگین جامعه 1.5 باشد. تا به حال فکر میکنم ناخودآگاه فکر میکردم که 2 مرکز توزیع یا به عبارت دیگر میانگین جمعیت است. اما آیا من درست می گویم که 2 به همان اندازه احتمال دارد که در انتهای توزیع قرار گیرد، همانطور که مرکز توزیع است؟ | آیا خطای استاندارد میانگین را مرکز توزیع فرض می کند؟ |
100310 | من می خواهم برای کاهش تعداد متغیرهای مجموعه داده خود، تحلیل عاملی انجام دهم (متغیرها بسیار زائد هستند). یکی از پارامترهایی که باید به کد R ارائه کنم، تعداد فاکتورهایی است که باید حفظ شوند. برای انتخاب این عدد، قصد دارم چندین عدد را امتحان کنم و بهترین عدد را روی یک مجموعه آموزشی ارزیابی کنم. چندین امتیاز مربوط به تحلیل عاملی پیدا کردم: رگرسیون، بارتلت و اندرسون-روبین. کدام نمره را برای ارزیابی عدد فاکتور خود انتخاب کنم؟ در کدام وضعیت هر یک از این امتیازها مناسبتر است؟ | انتخاب نمره برای تحلیل عاملی |
84016 | من یک مدل طبقه بندی (رگرسیون لجستیک) ساختم تا داده ها را در Fraud یا Not Fraud طبقه بندی کنم. این دادهها مربوط به تراکنشهای آنلاین CNP (کارت بدون ارائه) است و پس از انتخاب برخی پارامترها که به نظر میرسید مرتبط با تقلب باشد، مدل را آزمایش کردم. برای این کار از یک مجموعه آموزشی از 225000 مثال و یک مجموعه تست 75000 استفاده کردم. من دو تست مختلف انجام دادم که در اولی 7 پارامتر داشتم و توانستم دقت 96% را در طبقه بندی به دست بیاورم. مشکل این است که تعداد موارد کلاهبرداری بسیار کمتر از موارد غیر تقلب است و بنابراین در مورد موارد کلاهبرداری دقت من فقط 11٪ بود در حالی که در Not Fraud 90 و چیزی حدود ٪. در آزمون دوم، پارامترهای بیشتری را وارد کردم، در مجموع 15. اندازه آموزش و تست یکسان، و اگرچه طبقه بندی کلی به 92% کاهش یافت، در مورد موارد تقلب، بهبودی به 30% و Not Fraud هنوز در حدود است. دهه 90. من می خواهم دقت طبقه بندی کلی را در حدود 90٪ حفظ کنم و دقت را در موارد کلاهبرداری به چیزی در حدود 65 تا 75٪ افزایش دهم، اما نمی توانم پارامترهای بیشتری را پیدا کنم که به نظر می رسد مرتبط باشد، تا در مدل خود گنجانده شود. به غیر از این، هیچ ایده دیگری به ذهن نمیرسد... آیا کسی میتواند به من نکات یا ایدههایی در مورد اینکه برای دستیابی به این اهداف تلاش کنم، به من بدهد؟ درضمن شک دیگری هم دارم. از آنجایی که مقادیر پارامترهایی که من استفاده میکنم، دامنه بسیار گستردهای دارند، من ویژگیهای Scaling و Mean Normalization را روی آنها اعمال کردم. من 300000 نمونه نمونه دارم (ست آموزشی - 225000 و مجموعه تست - 75000). سوال من این است که برای هر یک از این مجموعه ها باید میانگین مربوط به هر ستون و حداکثر - حداقل را محاسبه کنم تا مقادیر را به مقیاس کوچکتر تبدیل کنم یا میانگین و حداکثر دقیقه را بر اساس کل محاسبه کنم. نمونه (300000 نمونه)؟ | چگونه یک مدل طبقه بندی تقلب را بهبود دهیم؟ |
84327 | من سعی میکنم یک CFA روی دادهها انجام دهم (10 شاخص: $n=300$) که به شدت غیرطبیعی اما پیوسته است (شمارش یک رفتار بالینی در طول چند هفته): بسیاری از موارد صفر هستند، تعداد کمی بین 1 و 30، و تعداد انگشت شماری در مقادیری که گاهی اوقات بسیار بالاتر است (حتی $> 1000 $). من از lavaan در R با برآوردگر MLM برای تطبیق با این توزیع استفاده می کنم. من در درجه اول یک مدل عامل مشترک را با یک مدل حاوی سه عامل همبسته مقایسه می کنم. اگر از همه موارد استفاده کنم، هشدارهایی دریافت می کنم که نشان دهنده یک ماتریس قطعی غیر مثبت و واریانس خطای منفی (به عنوان مثال مورد Heywood) است. به دلیل شدت نقاط پرت، مطابق با توصیه های بولن (1987)، من بررسی کردم که آیا مقادیر شدید علت واریانس خطای منفی هستند یا خیر. من تمام موارد 3 انحراف استاندارد بالاتر از میانگین ($n=16$) را حذف کردم و این منجر به راهحلهای قابل قبولی در هنگام اجرای مجدد مدلهایم و برآوردهای معقول پارامتر شد. آیا من این اشتباهات را به درستی تفسیر میکنم، و آیا این یک رویه معقول در این شرایط به نظر میرسد؟ در یک یادداشت مرتبط، آیا محدودیتی برای بالا بودن ضریب تصحیح مقیاس بندی ساتورا-بنتلر قبل از نگرانی وجود دارد؟ من مقادیری در حدود 4 را در برخی موارد می بینم (با توجه به غیرعادی بودن داده ها، جای تعجب نیست)، اگرچه نمی توانم ادبیاتی را پیدا کنم که در مورد این موضوع اظهار نظر کند. | موارد پرت باعث ایجاد حالت Heywood در CFA با استفاده از برآوردگر MLM در گدازه می شود |
47987 | با مرور مقاله ویکی در مورد ضریب فی، متوجه شدهام که برای دادههای باینری جفت شده، «ضریب همبستگی پیرسون که برای دو متغیر باینری تخمین زده میشود، ضریب فی را برمیگرداند». با اجرای یک شبیه سازی سریع متوجه شدم که اینطور نیست. با این حال، به نظر می رسد که ضریب فی تقریباً ضریب همبستگی پیرسون است. x = c(1، 1، 0، 0، 1، 0، 1، 1، 1) y = c(1، 1، 0، 0، 0، 0، 1، 1، 1) cor(x،y) sqrt(chisq.test(table(x,y))$statistic/length(x)) # phi x = rep(x, 1000) y = rep(y, 1000) sqrt(chisq.test(table(x,y))$statistic/length(x)) # phi # اکنون همبستگی پیرسون را تقریب میکند. cor(x,y) **اما برای من مشخص نیست که چرا (از نظر ریاضی) چنین است.** | چرا ضریب فی به همبستگی پیرسون نزدیک می شود؟ |
71739 | نمیدانم آیا کسی میتواند در مورد یک سوال کمکی ANCOVA به من کمک کند؟ شاید شما پاسخ مشکل من را بدانید. آزمودنی ها به یک گروه درمان یا کنترل اختصاص داده شدند و من یک متغیر وابسته (مستمر) را اندازه گیری کردم. یک متغیر کمکی نیز وجود دارد و پیوسته است. اما متغیر کمکی برای هر موضوع مستقل نیست. **مثال** آزمودنی ها به دو نوع روش تدریس مختلف (درمان و کنترل) اختصاص داده می شوند. در هر شرایط، آنها 15 کار را انجام می دهند. مشکلات تکلیف، و برای هر کدام نمره می گیرند (متغیر وابسته پیوسته). اما مشکلات تکالیف سطوح مختلفی از دشواری دارند (متغیر کمکی پیوسته) و ما می خواهیم آن را کنترل کنیم (همچنین آن را مطالعه کنیم). ** آیا درست است که مشکل-سختی را به عنوان یک متغیر کمکی در نظر بگیریم؟** به عبارت دیگر، هر رکورد در داده ها یک موضوع واحد در یک مسئله واحد است. اما متغیر کمکی برای هر موضوع در هر مسئله مستقل نیست. در عوض، این تنها تابعی از مشکل است. همه موضوعات دارای ارزش یکسانی برای مشکل-سختی برای یک مسئله معین هستند. آیا درست است که مشکل-سختی را فقط به عنوان یک متغیر در نظر بگیریم؟ از شما برای هر گونه بینش بسیار سپاسگزارم. | ANCOVA با متغیر کمکی تکرار شونده |
89984 | لطفاً در مورد این سوال به من کمک کنید: $$X\sim N(13,4) $$ $$P ( 20-d < X < 20+d ) = 0.998 $$ من در پیدا کردن $d$ مشکل دارم. | در مورد توزیع نرمال، مشکل تابع را حل کنید |
87166 | من سعی می کنم انحراف معیار مجموع X = A + B را محاسبه کنم. A و B مقادیر میانگین هستند و به داده های منبع دسترسی ندارم. A با انحراف معیار 0.014 (SDa) 0.46 و B با انحراف معیار 0.018 (SDb) 0.375 است. با استفاده از SPSS و مجموعه داده متفاوتی که A و B را در یک جمعیت متفاوت اندازهگیری میکند، به این نتیجه رسیدهام که A و B با ضریب همبستگی 0.4- و کوواریانس 0.00037- (COV) همبستگی دارند. من احتمال میدهم که رابطه بین A و B بین جمعیتها مشابه باشد و بنابراین از این کوواریانس به عنوان تخمین کوواریانس در مجموعه داده استفاده میکنم که A و B از آنجا مشتق شدهاند. تا آنجا که من می دانم، معادله محاسبه SD X = A + B (SDx) باید این باشد: SDx = SQRT(SDa^2 + SDb^2 + 2*COV) با این حال، این یک عدد منفی می دهد. برای گرفتن ریشه sqare از، یعنی یک واریانس منفی برای X، که در نتیجه SDx یک عدد مختلط است. واریانس منفی نباید امکان پذیر باشد، بنابراین من به وضوح در جایی اشتباه می کنم، اما نمی توانم آن را بفهمم. من قبلاً نتوانستم پاسخ این سؤال خاص را اینجا پیدا کنم، بنابراین فکر کردم که تماس بگیرم و کمک بخواهم. هر گونه پیشنهاد بسیار قدردانی خواهد شد! با احترام، ماتیاس | محاسبه انتشار خطا واریانس منفی را به همراه دارد |
89988 | من می خواهم دقت ماژول گیرنده GPS خود را اندازه گیری کنم. مختصات واقعی از نقشه های گوگل بدست می آید و مختصات دریافتی واقعی همان هایی است که گیرنده GPS دریافت کرده است. من سعی کردم ابزارهای آماری را جستجو کنم که بتواند به نحوی از یافته های من پشتیبانی کند. من سعی کردم از تست Chi-square در مایکروسافت اکسل استفاده کنم، اما نمی دانم چگونه نتایج را تفسیر کنم. چگونه نتیجه را تفسیر کنم؟ یا واقعاً چه ابزار آماری برای این کار مناسب است؟ | نحوه اندازه گیری دقت |
71735 | من سعی می کنم یک نقطه خاص را در یک توزیع دووجهی تخمین بزنم، این نقطه ای است که در تصویر خود با A نشان دادم ) را تعیین کنیم. این مشکل به نظر من مشکل بهینه سازی و برآورد است. سوال من این است که چگونه می توانم با جزئیات این کار را انجام دهم؟ شاید من فقط یک آموزش خوب را به نوعی از دست داده ام. | تخمین نقطه در چگالی توزیع دووجهی |
16312 | من در مورد اختلاف نظر در مورد آزمون فرضیه با برخی از مفسران که پیشنهاد می کنند از آزمون فرضیه استفاده نشود، خوانده ام. برخی از مفسران پیشنهاد می کنند که به جای آن باید از فاصله های اطمینان استفاده کرد. * تفاوت فواصل اطمینان و آزمون فرضیه چیست؟ توضیح با مرجع و مثال قدردانی خواهد شد. | تفاوت بین فواصل اطمینان و آزمون فرضیه چیست؟ |
29836 | من در تلاش هستم تا یک مطالعه شبیهسازی بر روی تغییرات تخمینگر چگالی هسته انجام دهم. در آن آزمایش، پارامتری در یکی از فرمولهای من وجود دارد که شامل مقدار pdf مجهول در یک نقطه x است. بنابراین من باید یک برآوردگر ثابت برای تخمین مقدار f(x) پیدا کنم، اما هیچ سرنخی در مورد اینکه باید از کجا شروع کنم ندارم. آیا کسی میتواند تخمینگر f(x) را پیشنهاد کند که سازگار باشد یا اینکه من باید به دنبال کدام خانواده از تخمینگرها باشم، مخصوصاً برای توزیع نرمال؟ ممنونم!! | برآوردگر ثابت برای تابع چگالی احتمال در یک نقطه معین |
47989 | من برای یافتن راهی برای تجزیه و تحلیل داده هایم کمی مشکل دارم. اگر پاسخ کوتاهی وجود دارد (به عنوان مثال، از رگرسیون لجستیک استفاده کنید، ساختگی) شما فقط می توانید آن را پست کنید و من خودم کمی حفاری انجام می دهم - فقط باید در جهت درست به من اشاره شود... متغیر مستقل من این است یک تعداد و متغیر وابسته من یک نسبت است. این داده ها است: موفقیت <- c(322,358,323,277) مجموع. آزمایشات <- c(540,533,507,540) تعداد = c(23,13,21,39) نسبت <- موفقیت/total.trials IIRC، انجام یک خطی ساده اشتباه است رگرسیون نسبت ~ شمارش... پس از چه روشی باید در اینجا استفاده کنم؟ با تشکر از کمک. * * * بسیار خوب، پس در اینجا برخی از کدهایی است که من پس از پیروی از توصیه گنگ در استفاده از GEE اجرا کردم: موضوع <- c(1، 2، 3، 4) موفقیت <- c(322، 358، 323، 277 ) تعداد کل <- c(540، 533، 507، 540) <- c(23، 13، 21، 39) داده <- cbind(موفقیت، مجموع) gee.model <- gee(داده ~ تعداد، شناسه = موضوع، خانواده = 'دوجمله ای') خلاصه (gee.model) GEE: مدل های خطی تعمیم یافته برای داده های وابسته به تابع S , نسخه 4.13 اصلاح شده 98/01/27 (1998) مدل: پیوند: واریانس Logit به میانگین رابطه: ساختار همبستگی دو جمله ای: فراخوانی مستقل: gee(فرمول = داده ~ تعداد، شناسه = موضوع، خانواده = دوجمله ای) خلاصه باقیمانده ها: Min 1Q Median 3Q Max 276.6608 310.381119323.352. 357.5969 ضرایب: برآورد Naive S.E. Naive z Robust S.E. Z مقاوم (Intercept) -0.25516680 0.031437649 -8.116599 0.0134033383 -19.03756 تعداد -0.01055972 0.001244121 -8.4867698 -8.416598 -40.35360 پارامتر مقیاس تخمینی: 0.1066564 تعداد تکرار: 1 همبستگی کاری [،1] [1،] 1 آیا این درست به نظر می رسد؟ و اگر من آن را درست تفسیر کنم، تأثیر قابل توجهی از شمارش بر نسبت وجود دارد. | تعداد متغیر توضیحی، متغیر وابسته نسبت |
81457 | نمیدانم که آیا تفاوت واضحی بین توزیعهای به اصطلاح صفر تورم (مدلها) و به اصطلاح توزیعهای با مانع در صفر (مدلها) وجود دارد؟ این اصطلاحات اغلب در ادبیات وجود دارند و من گمان می کنم که آنها یکسان نیستند، اما لطفاً تفاوت را به زبان ساده برای من توضیح دهید؟ | تفاوت بین توزیع صفر و با مانع (مدل ها) چیست؟ |
82071 | من یک متغیر پیوسته (y) را روی یک متغیر طبقه ای (x=0,1,2) پسرفت می کنم. آیا ممکن است (یا حتی منطقی باشد؟) به دست آوردن کشش y روی x؟ با تشکر | کشش های رگرسیون با متغیرهای طبقه بندی شده |
68368 | فرض کنید شما N فردی دارید که می خواهید آزمایش کنید. شما همزمان برای دو شرط طبقه بندی آزمایش می کنید که شرط اول می تواند A، B یا C باشد و شرط 2 می تواند W، X، Y، Z باشد. شما هر n فردی را برای هر ترکیبی از این دو شرط آزمایش می کنید و نتیجه یک متغیر وابسته است: \--> بنابراین اساساً شما 3*4 = 12 گروه دارید که می خواهید با استفاده از اندازه گیری های مکرر دو طرفه ANOVa مقایسه کنید حالا فرض کنید که شما یک معیار حداقلی داشته باشید که نتایج باید رعایت کنید: اگر این معیارها را برآورده نکنند، در گروه وجود ندارد: بنابراین تعداد افراد در یک گروه میتواند کمتر از N باشد و هر فردی را نمیتوان در هر گروه یافت. گروه دیگر \--> اگر کروی بودن بررسی شود هنوز ANOVA قابل انجام است. حالا می آید: اما اگر یکی از گروه ها خالی باشد چه؟ نه به خاطر اشتباه بلکه صرفاً به این دلیل که در آن گروه نمی توان نتیجه خوبی گرفت. شما کاملاً از آن آگاه هستید. اما به نظر می رسد در این مرحله انجام یک ANOVA دو طرفه دیگر امکان پذیر نیست. آیا پیشنهادی در مورد چگونگی جلوگیری از این یا نحوه تغییر آن وجود دارد؟ پیشاپیش ممنون | نحوه مدیریت گروه های خالی در اندازه گیری های مکرر ANOVA دو طرفه |
17800 | فقط باید پاسخ سوال زیر را بررسی کنید: **سوال** فرض کنید $X$ و $Y$ دو متغیر عادی استاندارد مستقل هستند: $X$ ~ $N(0,1)$ $Y$ ~ $N( 0,1)$ توزیع $X + Y$ چیست؟ **کار من** $X+Y$ ~ N($\mu_1 + \mu_2$, $\sqrt{\sigma_1^2 + \sigma_2^2})$X+Y$ ~ N($0 + 0$ ,$\sqrt{1^2+1^2}$ $X+Y$ ~ N($0$, $\sqrt{2}$) آیا این درست به نظر میرسد؟ | توزیع مجموع متغیرهای نرمال مستقل چگونه است؟ |
4496 | کد زیر را در نظر بگیرید: data(zoo) request <- read.csv(file=summary.csv,sep=,head=TRUE) data = zoo(data$compressed, as.Date(data$date) ) داده <- جمع (داده، هویت، دنباله، 1) روز = دنباله(شروع(داده)، پایان(داده)، روز) داده2 = na.locf(merge(data, zoo(,days))) par(bty = 'n') plot(data2,xlab='',ylab='آنتروپی (بایت)') چگونه می توان: 1. هر دو را تنظیم کرد محدودیت های افقی و عمودی محور ترسیم شده برای مطابقت با شروع و پایان داده ها (به عنوان مثال، در حالی که مقدار y ممکن است بین 20 و 1525 متغیر باشد، محور 0 و 0 را نشان می دهد. 1500). 2. وضوح افقی را افزایش دهید (حداقل چند تیک کوچک اضافه کنید) زمانی که سری زمانی برای چند سال طول می کشد. با استفاده از: plot(data2,xlab='',ylab='آنتروپی (بایت)', xaxs = 'i', yaxs = 'i') دریافت می کنم:  چیزی که دقیقاً در ذهنم نبود. مقیاس عمودی نه با حداقل exat (حدود 25) شروع می شود و نه با حداکثر دقیق به پایان می رسد. مقیاس افقی از وسط شروع و به پایان می رسد. نکات؟ | تنظیم ویژگی های محور در نمودار سری زمانی |
47982 | من قصد دارم یک آزمایش کمی انجام دهم اما باید شرکت کنندگانم بیایند و کارهایی را پیش روی من انجام دهند. از آنجایی که من نمی توانم بیش از 40 شرکت کننده (مسائل اقتصادی) استخدام کنم و در عین حال به چندین داده نیاز دارم، از هر شرکت کننده می خواهم که یک کار را با ورودی های مختلف انجام دهد. به عنوان مثال، من از اولین شرکت کننده می خواهم که نصب 10 برنامه مختلف را انجام دهد. در ابتدا به این فکر میکردم که اگر 40 شرکتکننده را استخدام کنم که هر کدام 10 فرآیند نصب را طی کنند، 400 نقطه داده داشته باشم. با این حال، من همبستگی بین پاسخ های گرفته شده از یک شرکت کننده را در نظر نگرفتم. سوال من این است: با توجه به این واقعیت که پاسخ های هر شرکت کننده با یکدیگر همبستگی دارند، بهترین راه برای تعیین تعداد شرکت کنندگان برای آزمایش من چیست؟ آیا مرجع یا فرمولی وجود دارد که بتوانم پاسخ سوالم را دریافت کنم؟ | تعیین حجم نمونه برای داده های همبسته |
84325 | من سعی می کنم فواصل اطمینان را بر روی مشتقات دوم یک منحنی GAM محاسبه کنم. پس از تخمین مشتقات، ایده این است که از تابع «boot()» برای به دست آوردن فواصل اطمینان استفاده کنیم، اما من مطمئن نیستم که در کجا باید آن را در طول مسیر اعمال کنم، یا دقیقاً چه آماری (هایی) را برای بوت استرپ اعمال کنم. کد زیر مشتقات دوم را برای مقادیر خاص «epi.i» library(mgcv) library(boot) epi.i<-c(7، 8، 9، 10، 8.01، 6، 7.01، 5.999، 4.003، 12، محاسبه می کند. 2.01، 7.02، 10.01، 8.2، 5.9، 3.9، 6.999، 4.0001، 3.99، 6.001، 8.001، 5.99، 7.9، 6.99، 3.98) Rare25<-c(4.471429، 4.551474، 4.551474، 4.551474، 4.204، 4.204. 3.504348، 4.175824، 4.298193، 4.406838، 3.058707، 4.451128، 1.000000، 4.327893، 3.580541، 3.580541، 4.0836، 4.0824 4.352130، 3.919075، 3.795205، 3.380952، 2.993347، 3.775886، 3.766723، 3.852396، 3.923977، 3.923977، 4.380952، 4.308 epi.i) G2<-gam(Rare25 ~ s(epi.i)) #داده های جدید برای پیش بینی newDF<-with(epismooth, data.frame(epi.i=unique(epi.i))) #پیش بینی برای هموارسازی تخمین ها در هر مقدار epi.i منحصر به فرد #با خطای استاندارد B<-predict(G2, newDF, type='response', se.fit=TRUE) #رویکرد تفاوت محدود به مشتق زیر #مثال از ?predict.gam eps<-1e-7 #فاصله تفاضل محدود X0<-predict(G2, newDF, type='lpmatrix') newDFeps_p<-newDF + eps X1<-predict(G2, newDFeps_p, type='lpmatrix') # تفاوت محدود تقریب مشتق اول # ماتریس طراحی Xp<- (X0 - X1) / eps #مشتق دوم newDFeps_m <- newDF - eps X_1<-predict(G2, newDFeps_m, type='lpmatrix') # ماتریس طراحی برای مشتق دوم Xpp < - (X1 + X_1 - 2*X0)/eps^2 fd_d2 <- Xpp %*% coef(G2) cbind(epi.i, fd_d2) هر گونه راهنمایی در مورد چگونگی ادامه با فواصل اطمینان از اینجا بسیار قدردانی خواهد شد. کد زیر همان چیزی است که من امتحان کردهام، اگرچه نادرست است: bootX0 <- function(فرمول، داده، شاخصها) { d <- داده[شاخصها] # به بوت اجازه میدهد نمونه X0 را انتخاب کند<-predict(G2, newDF, type= 'link', se.fit=TRUE) return(mean(X0)) } resultsX0<-boot(data=epismooth, statistic=deriv2, R=1000, formula=Rare25~s(epi.i)) resultsX0 نمودار (نتایجX0) bootX_1<- تابع (فرمول، داده، شاخص) { d <- داده[شاخص،] # به بوت اجازه می دهد نمونه X_1 را انتخاب کند<-predict (G2، newDFeps_m، type='link') return(mean(X_1)) } resultsX_1<-boot(data=epismooth, statistic=deriv2, R=1000, formula=Rare25~s(epi.i)) resultsX_1 نمودار(نتایجX_1) bootX1<- تابع(فرمول، داده، شاخص) { d <- داده[ شاخصها،] # به بوت اجازه میدهد نمونه X1 را انتخاب کند<-predict(G2, newDFeps_p, type='link') return(mean(X1)) } resultsX1<-boot(data=epismooth, statistic=deriv2, R=1000, formula=Rare25~s(epi.i)) resultsX1 نمودار (نتایجX1) Xpp <- resultsX1$t + نتایجX_1$t - 2*نتایجX0$t/eps^2 fd_d2 <- Xpp %*% coef(G2) hist(fd_d2) | محاسبه فواصل اطمینان بوت استرپ در مشتقات دوم یک شی GAM |
45535 | من یک نظرسنجی انجام دادم تا خلق و خوی مردم را با فعالیتی که به تازگی انجام میدهند و اینکه آیا آن را با یک دوست انجام دادهاند یا خیر، مشخص کنم. من فقط نحوه رگرسیون خطی را مطالعه کردهام و ممکن است در انجام این کار از ذهنم خارج شده باشد، اما میدانستم که اگر مقادیر عددی ترتیبی با دادههای طبقهبندی داشته باشید و 3 مورد از این موارد را روی آن داشته باشید، از چه چیزی استفاده خواهید کرد. | از چه مدلی برای تحلیل استفاده کنیم |
48325 | من 10 بردار دارم که هر کدام 100000 نقطه دارند (فعالیت عضلانی با نمونه برداری با سرعت 10 کیلوهرتز به دست می آید). من انتگرال هر مجموعه داده را دارای 10 مقدار می دانم. من می خواهم بدانم که آیا این 10 مقدار به طور معمول توزیع شده اند یا خیر. ? | آیا مجموعه داده ها از توزیع نرمال به دست می آیند؟ |
89983 | برای مجموعه مشخصی از ویژگیها (مثلاً با بعد a) و برای مجموعه مشخصی از برچسبها (مثلاً m)، چگونه ویژگیهای داده شده را با بردار وزن SVM به طور کلی مرتبط کنیم؟ آیا همیشه برابر حاصلضرب دو بعد خواهد بود یا اینکه باید ابعاد فضای ویژگی و فضای برچسب را پیدا کرد و سپس بعد حاصل بردار وزن را یافت؟ | ابعاد بردارهای وزن در SVMها |
12546 | آیا بسته نرم افزاری برای حل رگرسیون خطی با هدف به حداقل رساندن هنجار L-Infinity وجود دارد؟ | بسته نرم افزاری برای حل رگرسیون خطی هنجار L-infinity |
89989 | فرض کنید می دانیم که داده های گرفته شده از توزیع خاصی پیروی می کنند. ما 10 نمونه داریم. 9 مورد از آنها نزدیک به توزیع فرضی هستند، اما نمونه آخر به نظر می رسد بسیار دور است، یا رویداد اببران است. اصطلاحی که باید برای واجد شرایط بودن این نمونه استفاده کرد چیست؟ شاید نمونه پرت؟ متشکرم | اصطلاحی که برای توصیف یک نمونه خاص استفاده می شود |
66837 | من یک منحنی ROC دارم که برای یک رگرسیون لجستیک چند متغیره ایجاد شده است. درست به نظر می رسد؟ این کاری است که من انجام دادهام: 1. $\theta_0 + \theta_1X_1 + \theta_2X_2 ... = Y$ را برای $\theta$s 2 حل کنید. روی تمام ورودی $X_i$ تکرار کنید و $Y_i' پیشبینیشده را محاسبه کنید. $ برای مقادیر مختلف برش (آستانه) از 0 تا 1 دلار، با افزایش 0.01 دلار 3 دلار. برای هر $X_i$ و $Y_i'$ پیشبینیشده، با $Y_i$ اصلی مقایسه کنید تا مثبت کاذب (FP)، منفی کاذب (FN)، مثبت واقعی (TP) و منفی واقعی (TN) 4. محاسبه $\text{ حساسیت} = TP/(TP+FN)$ و $\text{Specificity} = TN/(FP+TN)$ برای همه این موارد مقادیر و آنها را در دو بردار مختلف ذخیره کنید. 5. منحنی ROC را برای $\text{Sensitivity}$ v/s $\text{Specificity}$ همانطور که در زیر نشان داده شده است رسم کنید لطفاً کسی می تواند به من بگوید که اینجا چه مشکلی دارد؟  | چرا منحنی ROC من به این شکل است (آیا درست است؟) |
17805 | این باید یک سوال بسیار اساسی باشد، اما من سعی می کنم یک ANOVA اندازه گیری های مکرر دو طرفه (در Statistica و/یا SPSS) انجام دهم، و در این فکر بودم که: برای تجزیه و تحلیل بیشتر انعطاف پذیر است؟ 2. در Statistica یا SPSS چه راهی را باید طی کرد؟ (GLM تک متغیره؟) در مورد من: * آزمودنی ها در توصیف (30!!) حیوانات نمره (100-1) کسب می کنند * آنها این کار را 3 بار با استفاده از مفهومی (C)، دیداری (V) یا شنیداری (A) انجام می دهند. ) اطلاعات * دادههای بهدستآمده در حال حاضر بهصورت زیر قالببندی میشوند، با یک موضوع: سگ گربه ... Sbj C V A C V A ... s1 64 78 34 61 63 39 ... s2 78 89 31 68 77 45 ... ... . .. .. .. .. ... بنابراین عوامل حیوانی {سگ، گربه،...} و منبع هستند. {C,V,A}. من یک قالب 4 متغیری را نیز امتحان کردهام: Sbj Animal Source Value s1 dog C 64 ... اما: 1. این قانون یک موضوع در هر مورد را که روشهای ANOVA اندازهگیریهای مکرر در SPSS و Statistica بر آن تکیه میکنند، میشکند. در هر صورت، SPSS از من می خواهد که تمام سطوح فاکتور را به صورت دستی مشخص کنم که کار نمی کند زیرا متغیر نیستند، و علاوه بر این شامل 20 سطح است! (در مورد حیوان). | ساختار داده بهینه برای ANOVA اندازه گیری های مکرر دو طرفه |
17803 | فرض کنید دو گروه بیمار داریم، بیماران سالم و بیمار، و غلظت شیمیایی چند ماده شیمیایی را اندازه گیری می کنیم. حال می خواهیم تعیین کنیم که کدام غلظت شیمیایی برای دو گروه متفاوت است. **آیا فقط می توانیم برای هر یک از مواد شیمیایی یک آزمون تی دانشجویی جداگانه اعمال کنیم؟** به نظر می رسد که برای تعداد کافی مواد شیمیایی، همیشه برای یکی از آنها نتیجه قابل توجهی خواهید گرفت. | چگونه دو گروه را با متغیرهای نتیجه زیادی مقایسه کنیم؟ |
19922 | من در حال یادگیری برخی از موارد پردازش تصویر هستم و یکسان سازی یک هیستوگرام به عنوان یک موضوع مهم مطرح می شود. من از روش ذکر شده در ویکی پدیا پیروی کردم، اما هیستوگرام یکسان شده حاصل به نظر من خیلی بهتر به نظر نمی رسد. فرض کنید من هیستوگرام زیر را دارم که در آن مقادیر فقط از 0 تا 7 متغیر است: 0 | 2 1 | 6 2 | 12 3 | 13 4 | 6 5 | 11 6 | 7 7 | 7 معادله یکسان سازی هیستوگرام به شرح زیر است: $h(v) = round(\frac{cdf(v) - cdf_{min}}{(M*N) - cdf_{min}} * (L - 1) )$ بنابراین، با استفاده از این موارد زیر را دریافت می کنم: $h(0) = 0$ $h(1) = 1$ $h(2) = 2$ $h(3) = 4$ $h(4) = 4$ $h(5) = 5$ $h(6) = 6$ $h(7) = 7$ با انتقال این به هیستوگرام جدید، هیستوگرام برابر شده زیر را دریافت می کنم: 0 | 2 1 | 6 2 | 12 3 | 0 4 | (13 + 6) = 19 5 | 11 6 | 7 7 | 7 این اصلاً درست به نظر نمی رسد... آیا من کاری را اشتباه انجام داده ام؟ | نحوه یکسان سازی هیستوگرام ها |
47983 | تا آنجا که من می توانم درک کنم، هسته دانیل به سادگی $K(j/M)=\frac{1}{2M+1}1(|j|\leq M)$ است. یعنی این یک میانگین دو طرفه است. چرا مردم این را یک هسته ناقص می نامند و آن را از هسته ای به شکل $K(j/M)=1(|j|\leq M$) متمایز می کنند در حالی که تنها چیزی که تفاوت دارد ضریب مقیاس است؟ | هسته دانیل چه تفاوتی با میانگین دو طرفه دارد؟ |
18727 | من با یکی از دوستانم در مورد اینکه بهترین اقدام در سناریوی Yahtzee زیر چیست بحث کردم: اولین پرتاب با 5 تاس به مقادیر زیر منجر می شود: 1، 3، 4، 5، X، با X = 3، 4 یا 5 بر اساس احتمال، بهترین تصمیم برای پایان دادن به یک مستقیم بزرگ (1-2-3-4-5 یا 2-3-4-5-6) چیست: 1. سعی کنید در دو پرتاب باقیمانده یک عدد 2 را با قالب X پرتاب کنید. من ادعا می کنم گزینه اول بیشترین احتمال موفقیت را دارد در حالی که دوست من ادعا می کند که گزینه دوم است. من سعی کردم احتمالات را محاسبه کنم، اما مدتی است که کلاس های احتمالی خود را دنبال می کنم، بنابراین چندان مطمئن نیستم. برای گزینه اول معتقدم احتمال 1/6 + (5/6 * 1/6) = 11/36 است. اما گزینه دوم چطور؟ روش صحیح محاسبه این احتمال چیست؟ | احتمال تاس برای Yahtzee بزرگ مستقیم |
100313 | با مراجعه به لینک، شک من در مورد محاسبه واقعی واریانس پیش بینی است. واریانس نشان داده شده در اینجا $\sigma^2 [1+X^*(X'X)^{-1}(X^*)']$ است. همانطور که در پیوند اضافه شده در اینجا ذکر شد، اگر $X$ یک بردار ردیف باشد، آنگاه $X'X$ یک ماتریس منفرد خواهد بود که معکوس آن به مقادیر بسیار بزرگ می رسد. مقادیر $X$ من بسیار قطعی هستند و بدون هیچ خطایی به راحتی در دسترس هستند. آیا راهی برای ایجاد این وارونگی وجود دارد تا بتوانیم واریانس را واقعاً محاسبه کنیم؟ | مشکل در محاسبه برآوردگر واریانس رگرسیون |
82078 | برای یک مدل خطی گاوسی $Y=\mu+\sigma G$ که در آن $\mu$ فرض میشود در فضای برداری $W$ قرار دارد و $G$ دارای توزیع نرمال استاندارد در $\mathbb{R}^n$ است، آمار $F$-test برای $H_0\colon\\{\mu \in U\\}$ که در آن $U \زیر مجموعه W$ یک فضای برداری است، یک به یک در حال افزایش است. تابع آمار _deviance_: $$f=\phi\left( 2\log \frac{\sup_{\mu \in W, \sigma>0} L(\mu, \sigma | y)}{\sup_{ \mu \in U, \sigma>0} L(\mu, \sigma | y)} \right).$$ چگونه میتوانیم بدانیم که این آمار قویترین آزمون را برای $H_0$ (شاید پس از کنار گذاشتن موارد خاص غیر معمول)؟ این از قضیه نیمن-پیرسون سرچشمه نمیگیرد، زیرا این قضیه بیان میکند که آزمون نسبت احتمال قویترین آزمون برای فرضیههای نقطهای $H_0\colon\\{\mu=\mu_0، \sigma=\sigma_0\\}$ و $H_1\colon\\{\mu=\mu_1,\sigma=\sigma_1\\}$. | چرا آزمون F در مدل های خطی گاوسی قوی ترین است؟ |
66832 | در «R» میتوانیم یک رگرسیون «glm» را از طریق پارامتر **_weights_** «وزن قبلی» کنیم. به عنوان مثال: glm.D93 <- glm(شمارش ~ نتیجه + درمان، خانواده = poisson()، وزن = w) چگونه می توان این کار را در مدل 'JAGS' یا 'BUGS' انجام داد؟ من مقالهای پیدا کردم که در این مورد بحث میکرد، اما هیچکدام از آنها مثالی ارائه نمیکردند. من عمدتا به نمونه های پواسون و رگرسیون لجستیک علاقه مند هستم. | رگرسیون تعمیم یافته وزنی در BUGS، JAGS |
45532 | من از مدل های لاجیت برای پیش بینی ناسالم بودن یا نبودن کودکان استفاده می کنم (شاخص باینری). بسیاری از مدلهای من روابط آماری معنیداری بین پیشبینیکنندههای مورد علاقه (یعنی اگر خانه کودک آب/بهداشت بهداشتی بهبود یافته است) و نتیجه دارند. با این حال، هیچ یک از مدل های من از مدلی که فقط از اطلاعات جمعیت شناختی (سن، منطقه، شهری/روستا، جنسیت) استفاده می کند، بهتر عمل نمی کند. علاوه بر این، مدلها در پیشبینی کودکان ناسالم بسیار وحشتناک هستند (تنها حدود 15٪ موارد مثبت واقعی به درستی پیشبینی شدهاند که حدود 23٪ از دادهها است). آیا این دو واقعیت، روابط معنی دار آماری بین پیش بینی کننده ها و نتیجه مورد علاقه را بی معنی می کند؟ چگونه این را برای خوانندگان (امیدوارم در آینده) توضیح دهم؟ با تشکر، ویرایش: در اینجا مجموعه ای از نتایج مدل من است -- من نام متغیرهای واقعی را پنهان کرده ام زیرا نمی توانم آنها را به صورت عمومی به اشتراک بگذارم. متغیر متغیرهای نزدیک را کنترل می کند (فاصله) 0.212(0.255) 0.172(0.296) متغیر 1 1.038(0.09) متغیر 2 0.721(0.098)** متغیر 3 0.986(0.095*0.095*) متغیر 0.744(0.109)** متغیر 6 0.981(0.15) متغیر 7 1.317(0.051)** کنترل ها 1 0.769(0.087)** 0.763(0.087)** کنترل ها 2 1.0158*(0.015)*0. کنترلها 3 0.666(0.098)** 0.838(0.11) کنترلها 4 0.958 (0.122) 1.129 (0.127) کنترلها 5 0.706 (0.144)** 0.750 (0.146) (0.146)*1*0. 0.998 (0.089) کنترل 7 0.957 (0.141) 1.010 (0.142) کنترل 8 0.694 (0.173)** 0.726 (0.18)* کنترل 9 1.895 (0.065 (0.065) * 7*5*0 0. 1.353(0.085)** 1.279(0.095)** کنترل 11 0.907(0.083) 0.949(0.095) کنترل 12 0.988(0.135) 0.920(0.145) 0.145 (0.145) Log Like A4907 -378 6863.758 6754.056 BIC 6958.156 6895.653 PCP 0.702 0.697 | بتای معنی دار آماری را با مدل های ضعیف تفسیر کنید |
29834 | من برخی از مقادیر احتمال **y** را تخمین زده ام (شبیه سازی MC) که هر کدام به مقدار **x** بین 0 و 1 بستگی دارد. مثلاً بگویید که بردار **x** حاوی $x_{ است. 1} = 0.1، \ \ x_2 = 0.2، \ \ x_3 = 0.3، \ \ x_4 = 0.4، \ \ x_5 = 0.5، \ \ x_6 = 0.6، \ \ x_7 = 0.7$ و بردار مقادیر میانگین تخمینی **y** حاوی $y_{1}(x_1) = 0.340، \ \ y_2(x_2) = 0.329، \ \ y_3(x_3) = 0.322 ,\ \ y_4(x_4)=0.299،\ \ y_5(x_5) = 0.278،\ \ y_6(x_6) = 0.255،\ \ y_7(x_7) = 0.237.$ من همچنین یک مقدار انحراف استاندارد تخمینی برای هر یک از مقادیر برآورد شده در **y** دارم. اجازه دهید این مقادیر عدم قطعیت در بردار **s** موجود باشد. اکنون من $y(1)$ را بر اساس برون یابی (برازش منحنی) تخمین می زنم. من این کار را با برازش مقادیر خود با منحنی در شکل $y(x) = q \exp \left\lbrace -a\left(x-b\right)^c \right\rbrace$ با به حداقل رساندن یک تابع خطای میانگین وزنی مربع انجام میدهم. (با وزن بر اساس **s** ) به منظور یافتن پارامترهای بهینه $q, a, b, c$. سپس من برآورد خود را $y(1)$ بدست آوردم. با این حال، سوال من این است که چگونه می توان عدم قطعیت در این برآورد را اندازه گیری کرد. آیا برای مثال راه خوبی برای بهره برداری از مقادیر در **s** وجود دارد؟ تا کنون، من به این راه فکر کردهام: مقادیر در **s** در واقع با $s_i(x_i) = \sqrt{\frac{1-y_i(x_i)}{Ny_i(x_i)}}$ تخمین زده میشود. $N$ اندازه نمونه در شبیه سازی MC $y_i(x_i)$ بود. سپس فکر کردم شاید بتوانم به سادگی از $s(1) = \sqrt{\frac{1-y(1)}{Ny(1)}}$ به عنوان معیار عدم قطعیت در $y(1)$ استفاده کنم، حتی اگرچه من هرگز $y(1)$ را با استفاده از نمونههای $N$ به این روش تخمین زدهام. همچنین، این یک اشکال است که این مقدار به اندازه **y** بستگی ندارد. پیشنهادی دارید؟ خیلی خوب است که نوعی مقدار انحراف استاندارد s(1) را بدست آوریم، تا بتوانم به راحتی خطای نسبی $RE = s(1)/y(1)$ را نیز پیدا کنم. (من چند روش دیگر دارم که از آنها برای تخمین احتمال y(1) استفاده می کنم، و خوب است که $s(1)$ و/یا $RE$ را از روش های مختلف مقایسه کنم...) متشکرم! :-) | عدم قطعیت برون یابی (برازش منحنی) |
95929 | من یک مبتدی با BUGS/JAGS هستم و امیدوار بودم نظر شما کارشناسان را جمع آوری کنم. من سعی می کنم یک تجزیه و تحلیل پاسخ آیتم اسمی (Polytomous، غیر سفارشی، مانند یک امتحان چند گزینه ای) را با JAGS پیاده سازی کنم. من داده ها را طبق این مدل شبیه سازی کردم، اما به نظر نمی رسد کد کار کند زیرا نمی تواند پارامترهای واقعی را بازیابی کند. در اینجا مدل و تلاش من در زیر آمده است: $P_{ijk}(Y = k | \theta_{i}, \alpha_{j,k}, \delta_{j,k}) = \frac{\exp(\ alpha_{j,k} (\theta_{i} - \delta_{j,k}))}{\sum_{h=1}^{m}(\exp(\alpha_{j,h} (\theta_{i} - \delta_{j,h}))}$ جایی که: i = i-امین موضوع j = j-امین مورد k = k-امین گزینه (گزینه چندگانه) من از کد موجود آگاه هستم برای مشکلات مشابه، اما من هیچ چیز خاصی برای مدل Nominal پیدا نکردم. میتوانید لطفاً: * مشکل موجود در کدم را به من نشان دهید * یا به من پیشنهاد دهید که کجا میتوانم تکههایی از کد BUGS/JAGS را پیدا کنم. { for (k در 1 : nجایگزینها ) { prob[ i , j , k ] <- exp( -alpha[ j , k ] * ( teta[ i ] - دلتا[ j , k ] ) ) } } } for ( i in 1 : nSubj ) { for ( j in 1 : n Item ) { for ( k in 1 : n Alternatives ) { PI [ i , j ] <- ( prob[ i , j , k ]/(جمع( prob[i, j, ])) } } } for (i in 1: nSubj) { for (j in 1: nItem) {y[i, j] ~ dcat(PI[i, j])}} | BUGS/JAGS برای مدل پاسخ اسمی |
12549 | چگونه می توانم یک متغیر (تبدیل غیر خطی) را طوری تبدیل کنم که مقادیر آن به طور یکنواخت پخش شوند، یعنی اوج را در وسط هیستوگرام کاهش دهیم و بیشتر به سمت دنباله ها حرکت کنیم؟ | چه ترتیبی برای حفظ تبدیل باعث می شود داده ها به طور یکنواخت پخش شوند، اوج را کاهش داده و دم توزیع را چاق کنند؟ |
29835 | رابی مک کیلیام در کامنتی به این پست میگوید: > لازم به ذکر است که از دیدگاه مکررگرایان، هیچ دلیلی وجود ندارد که نتوانید دانش قبلی را در مدل بگنجانید. از این نظر، دیدگاه مکرر سادهتر است، شما فقط یک مدل و مقداری داده دارید. نیازی به جدا کردن اطلاعات قبلی از مدل نیست همچنین، در اینجا، @jbowman میگوید که افراد مکرر از منظمسازی توسط تابع هزینه/جریمه استفاده میکنند، در حالی که بیزیها میتوانند این را مقدم کنند: > مکررها متوجه شدند که منظمسازی خوب است، و کاملاً از آن استفاده میکنند. > معمولاً این روزها - و پیشین های بیزی را می توان به راحتی به عنوان > منظم سازی تفسیر کرد. بنابراین، سوال من این است که آیا مکرر گرایان به طور کلی می توانند آنچه را که بیزی ها به عنوان پیشین مشخص می کنند در مدل های خود بگنجانند؟ با در نظر گرفتن منظمسازی بهعنوان مثال، آیا تابع هزینه/جریمه واقعاً در مدل ادغام شده است یا این یک ابزار کاملاً مصنوعی برای تنظیم راهحل (و همچنین منحصربهفرد کردن آن) است؟ | فراوانی و پیشی |
11093 | عذرخواهی برای آنچه که احتمالاً یک سوال بسیار اساسی است. من هم اینجا و هم در مکان های معمولی به اطراف نگاه کرده ام و هیچ شانسی نداشته ام. من خواندهام که حداقل دو روش برای تبدیل خطی دادهها وجود دارد تا بتوانید به توزیع خود انحراف استاندارد دلخواه بدهید. آنها چه هستند و آیا مواردی وجود دارد که بخواهید از یک روش به جای روش دیگر استفاده کنید؟ فقط برای مشخص بودن، فرض کنید شما نمرات آزمون از 0 تا 50، میانگین 35 و sd از 10 دارید، و می خواستید مقیاس گذاری مجدد کنید تا sd 15 باشد. | تغییر مقیاس برای انحراف استاندارد مورد نظر |
82076 | برای مقایسه توزیع ها، استفاده از باکس بلات معمول است. من به دنبال یک معیار تشابه هستم که محاسبه کند آیا توزیع ها مشابه هستند یا نه. در حالت ایده آل، با توجه به اینکه به عنوان مثال. چهار توزیع دقیقاً یکسان هستند، 1 را برمی گرداند. هر چه بیشتر متفاوت باشند، به 0 نزدیک می شود. برای محاسبه آن، آیا داشتن اندازه نمونه یکسان اجباری است؟ با تشکر از کمک شما. | اندازه گیری شباهت بین توزیع های چندگانه |
95925 | میخواستم بدونم که آیا مطلب زیر درسته؟ من سعی میکنم سریهای زمانی را برای ثابت بودن آزمایش کنم، اما یادداشتهای سخنرانی که به من داده میشود بسیار کم هستند. با منابع خارجی، فکر میکنم مفهوم را درک میکنم، اما میخواستم ببینم آیا کسی میتواند تأیید کند که فکر من درست است. **سری های آزمایشی با میانگین غیر صفر** فرض کنید $x_t$ دارای میانگین غیر صفر $\mu$ است * فرض کنید $\mu$ در زمان ثابت است، یعنی $\mu_t = \mu_{t-1} = \ldots =: \mu$ برای همه $t$. * **این قسمتی است که من در مورد آن مطمئن نیستم زیرا در یادداشت های سخنرانی من از آن صرف نظر شده است:** چون میانگین ثابت است، نباید بر نتیجه گیری ما تأثیر بگذارد که آیا $x_t$ ثابت است یا غیر ثابت $\مطمئناً$ آزمایش می کنیم که آیا $x_t$ با در نظر گرفتن \begin{eqnarray*}\begin{array}{llllll} &x_{t-1} - ثابت یا غیر ثابت است - \mu_t = \rho(x_{t-1}-\mu_{t-1}) + \varepsilon_t\\\ یعنی &x_t - \mu = \rho(x_{t-1} - \mu) + \varepsilon_t&&\ textrm{(از $\mu_t=\mu\forall t$)} \end{array} \end{eqnarray*} و تست \begin{equation*} H_0:\rho=1\quad \textrm{against}\quad H_1:\rho<1 \end{equation*} * در این مورد، زیر $H_0$، $\rho=1$ داریم به طوری که \شروع{معادله*} x_t - \mu = \rho(x_{t-1} - \mu) + \varepsilon_t = (1)(x_{t-1} - \mu) + \varepsilon_t = x_{t-1} - \mu + \varepsilon_t \end{معادله*} بنابراین میانگین از معادله خارج میشود. * اما اگر $\rho<1$، یعنی اگر $H_1$ درست باشد و $x_t$ ثابت باشد، \begin{eqnarray*}\begin{array}{clrlllll} &&x_t - \mu &=& \rho(x_{ t-1} - \mu) + \varepsilon_t\\\ &\iff&x_t - \mu - x_{t-1} &=& \rho(x_{t-1} - \mu) - x_[{t-1}+ \varepsilon_t\\\ &\iff&x_t - x_{t-1} &=& (\rho -1)\mu + ( 1-\rho) x_{t-1} + \varepsilon_t\\\ &\iff& x_{t}-x_{t-1} &=& \alpha + \delta x_{t-1}+\varepsilon_t \end{array} \end{eqnarray*} بنابراین ضریب وقفه $\alpha=(\rho-1)\mu$ برابر با 0 $\implies$ نیست، باید یک رهگیری اضافه کنیم . * روال آزمایش اکنون به این صورت است که $x_t - x_{t-1}$ روی $x_{t-1}$ پسرفت میکند و آیا $\delta<0$ را آزمایش میکند. مقادیر بحرانی از توزیع دیکی فولر گرفته شده است. | آزمایش سری های زمانی با میانگین غیر صفر برای ایستایی |
113446 | آیا تست Mantel با نمونه های توزیع شده غیرعادی کار می کند؟ من نتوانستم چیزی به اندازه کافی واضح در مورد آن پیدا کنم. | مفروضات داده های تست Mantel |
113449 | من مدل $y_i=\beta_1+\beta_2 X_i+ u_i$ را دارم که در آن $u_i\sim\text{iid } N(0,\sigma^2)$ است. من $\beta_1$ و $\beta_2$ را با کشیدن یک خط مستقیم بین اولین $(x_1,y_1)$ و آخرین نقطه $(x_n,y_n)$ تخمین می زنم. بنابراین، $\hat{\beta}_2$ شیب این خط مستقیم خواهد بود. واریانس $\hat{\beta}_2$ (تخمین $\beta_2$) چقدر است؟ یک آزمون t برای $H_0 بسازید: \beta_2=0$. فاصله اطمینان 95 درصد برای $\beta_2$ چقدر است؟ وقتی واریانس $\hat{\beta}_2$ را محاسبه می کنم، می بینم که برابر با 0 است. آیا واقعاً می تواند 0 باشد؟ اگر واریانس و در نتیجه خطای استاندارد صفر باشد با آزمون t و فاصله اطمینان چه اتفاقی میافتد؟ | واریانس متغیر تصادفی |
12547 | من جفت مقادیر از دو اجرا (تکرار) برای هر نمونه به همراه تعداد کل برای هر اجرا دارم. من هر مقدار را به صورت دوجمله ای تصادفی در نظر گرفتم. من برای مقایسه هر جفت از آزمون نسبت log-lihood استفاده کردم، اما محدوده داده های من گسترده است، به عنوان مثال. X1، X2 = (0،0)، (0،1)، (0،2)، ...، (20، 20) با تعداد کل برای هر اجرا (n1، n2) از صدها تا هزاران متغیر است. بنابراین دادههای من به این صورت است: ID X1 X2 n1 n2 A1 0 0 119 230 A2 0 1 213 185. . . . . . . . . . . . . . . A200 15 23 2300 1735 چه تستی برای آن مناسب و قدرت خواهد بود؟ قبلاً تست نسبت درستنمایی را امتحان کردهام، چگونه میتوانم تست دقیق فیشر را در R برای آن پیادهسازی کنم؟ هر تست دیگری که ممکن است از شرایط X1 X1 + X2 استفاده کند! هر گونه کمکی قدردانی خواهد شد. من می خواهم آن را در R پیاده سازی کنم، بنابراین کدهای / تابع R مفیدتر خواهد بود. پیشاپیش ممنون | آزمون مناسب برای آزمایش یک جفت متغیر دوجمله ای تصادفی |
88761 | برای نمونه گیری تصادفی ساده، می دانم که احتمال اینکه هر نقطه بخشی از نمونه باشد باید برابر باشد. همچنین، هر نمونه با اندازه ای که بگوید $k$ باید به همان اندازه محتمل باشد. در روش نمونهگیری که در حال حاضر استفاده میکنم، احتمال اینکه هر نقطه بخشی از نمونه باشد، یکسان است. با این حال، اگر نقطه ای انتخاب شود، برخی از نقاط به احتمال زیاد بخشی از نمونه هستند. سوال من این است که معیار دوم برای نام نمونه تصادفی ساده چقدر اهمیت دارد و آیا چنین نمونه ای نام فنی دارد؟ | چگونه باید با نمونه های همبسته رفتار کنم |
83675 | بگویید من مرکزها را از طریق kMeans محاسبه کردهام و خوشهها را شناسایی کردهام. چگونه می توانم یک نقطه داده ورودی (یک ردیف در ماتریس با تمام ویژگی ها) بگیرم تا با نقاط مقایسه کنم و بفهمم که نقطه داده متعلق به کدام خوشه است؟ چگونه یک زمان اجرا مانند این طراحی کنیم؟ من فرض میکنم که ما فقط باید خوشهبندی را هر x ساعت محاسبه کنیم و هرازگاهی از نتیجه خوشه مطمئن شویم. هر گونه پاسخ قدردانی خواهد شد! سایمون تازه کار یادگیری ماشین | چگونه یک نقطه داده را با خوشه k-means مقایسه کنیم |
7476 | قبل از ارسال متاآنالیز خود، میخواهم یک نمودار قیفی برای آزمایش ناهمگنی و سوگیری انتشار ایجاد کنم. من اندازه اثر تلفیقی و اندازه اثر هر مطالعه را دارم که مقادیری از -1 تا +1 را می گیرد. من حجم نمونه n1، n2 را برای بیماران و گروه شاهد از هر مطالعه دارم. از آنجایی که نمی توانم خطای استاندارد (SE) را محاسبه کنم، نمی توانم رگرسیون Egger را انجام دهم. من نمی توانم از SE یا precision=1/SE در محور عمودی استفاده کنم. ### سوالات * آیا هنوز هم می توانم یک نمودار قیف با اندازه اثر روی آکسون افقی و اندازه کل نمونه n (n=n1+n2) روی محور عمودی ایجاد کنم؟ * چنین طرح قیفی را چگونه باید تفسیر کرد؟ برخی از مقالات منتشر شده چنین نمودار قیفی را با حجم نمونه کل در محور عمودی ارائه کردند (Pubmed PMIDs: 10990474، 10456970). همچنین ویکیهای طرح قیف ویکیپدیا در این مورد موافق هستند. اما مهمتر از همه، مقاله ماتیاس ایگر در BMJ 1999 (PubMed PMID: 9451274) چنین نمودار قیفی را نشان می دهد، بدون SE بلکه فقط اندازه نمونه در محور عمودی. ### سوالات بیشتر * آیا زمانی که خطای استاندارد مشخص نیست چنین طرحی قابل قبول است؟ * آیا همان نمودار قیف کلاسیک با SE یا presicion=1/SE روی آکسون عمودی است؟ * آیا تعبیر آن متفاوت است؟ * چگونه باید خطوط را برای ایجاد مثلث متساوی الاضلاع تنظیم کنم؟ | نمودار قیف جایگزین، بدون استفاده از خطای استاندارد (SE) |
50922 | من اندازهگیریهای میدانی بازتاب طیفی را برای تحقیقی برای نقشهبرداری مجموعههای پوشش گیاهی مختلف بهدست آوردهام. من توانستم از آزمون میانه و آزمون H Kruskal-wallis با Tukey post hoc در SPSS برای تعیین مجموعه های گیاهی با تفاوت معنی دار بین آنها استفاده کنم. با این حال، من باید تعداد جفتهای پوشش گیاهی را بدانم که تفاوتهای قابلتوجهی بین آنها در هر طول موج بازتابهای طیفی گرفته شده وجود دارد. رادیومتر طیفی ASD که استفاده کردم، اندازهگیریهای طیفی را در فواصل 1 نانومتری بین 350 تا 2500 (یعنی 2151) ثبت کرد. من به تعداد تفاوت های آماری معنی دار برای هر یک از اینها نیاز دارم. من بیش از 3 هفته را صرف بررسی مقالات و کتابهایی کردهام که تکنیکهای غیر پارامتری و این رویکرد خاص را توصیف میکنند، اما هیچکدام از آنها واقعاً جزئیاتی را درباره نحوه انجام آن یا نحوه انجام آن ارائه نکردهاند. ممکن است این باشد که من فقط نتایج را به درستی تداخل نمی کنم. من از یک پیشینه آماری نیستم اما باید آمار را در این تحقیق خاص اعمال کنم. NB. پس از خواندن چند پست در اینجا، در حالی که در جستجوی پاسخ بودم، مشاهده کردم که گنجاندن نمونهای از دادههایی که دارم ممکن است مشکل را بسیار قابل درکتر کند. بنابراین در زیر نمونه ای از داده ها برای 3 مجموعه پوشش گیاهی آمده است. 21 مورد از این مجموعه گیاهان و 2151 باند طول موج وجود دارد. با آزمون Kruskal-Wallis F، 21 پوشش گیاهی منجر به 210 جفت ترکیب می شود. مشکل من همانطور که در بالا توضیح داده شد این است که چه تعداد از اینها به طور قابل توجهی در هر یک از باندهای طول موج متفاوت هستند. 350, 351, 352, ..... لطفاً توجه داشته باشید که تعداد طول موج در هر پوشش گیاهی ممکن است به دنبال حذف نویز در طیف های اندازه گیری شده متفاوت باشد. (در داده های زیر wv = باند طول موج؛ Veg(i)_Refl = بازتاب برای شماره مجموعه گیاهی (i)) wv Veg1_Refl. wv Veg2_Refl. wv Veg3_Refl. 350 0.008174487 350 0.013188644 351 0.028514129 351 0.007655592 351 0.013734324 352 0.049535231318 0.0495351318 0.012374247 353 0.018516597 353 0.010755514 353 0.011760141 356 0.014577343 354 0.0112694012 31058. 0.050192549 355 0.013393519 355 0.012631961 358 0.054180159 356 0.014837899 356 0.014939956 358.014939956 358 359 0.013845443 357 0.015511826 360 0.046552907 358 0.011693407 358 0.014272921 361 0.036904282 3158 3519 0.013951152 362 0.006326519 360 0.011172930 360 0.013224544 363 0.011451388 361 0.010111401 31614 3146. 0.007719737 362 0.009413968 362 0.013361601 365 0.006463090 363 0.010810984 363 0.013334547 31666 0.012677799 364 0.012788702 368 0.004883761 365 0.012832758 365 0.012118639 369 0.039288373 3173660 0.011785503 370 0.027853873 367 0.012028101 367 0.012143695 371 0.024068664 368 0.012188270 3618 3618 0.026245151 | تعیین تعداد اختلاف آماری معنی دار در هر طول موج |
95922 | من روی پردازش تصویر کار می کردم که در آن لیستی از مقادیر پیکسل دارم به عنوان مثال:-[5,2,5,2,4,2,4,2,2,2] بنابراین میانگین را 3 و واریانس را 1.77778 یافتم. این است که چگونه می توان احتمال توزیع داده ها را پیدا کرد، به عنوان مثال اگر داده ها [1،1،1،1،1] باشد، احتمال باید 1 باشد، اگر داده ها [1،2،3،4،5،6،7،8] سپس احتمال باید 0 باشد. نحوه محاسبه احتمال و احتمال داده های توزیع شده برای [5،2،5،2،4،2، 4،2،2،2]. | نحوه یافتن احتمال یکنواختی داده ها |
50927 | در دادههای من، هر نمونه دارای چندین ویژگی بهعنوان «TRUE» یا «FALSE» است. به عنوان مثال: Instance1: X1=TRUE، X2=TRUE، X3=FALSE، ... Instance2: X1=FALSE، X2=TRUE، X3=FALSE، ... من باید یک ویژگی `TRUE`/`FALSE` طبقه بندی کنم. ، به نام Y، از هر نمونه. تا اینجا، چیزی که من می دانم احتمال شرطی $P(Y|X_1)، P(Y|X_2)، ...$، و احتمال نهایی $P(X_1)، P(X_2)، ...$ است. آیا مدلی برای هدایت استنتاج وجود دارد؟ با تشکر | طبقه بندی بر اساس چند احتمال حاشیه ای |
66839 | من برای یک شرکت برنامهریزی مالی کار میکنم و کاری که میخواهم انجام دهم این است که داراییهای سرمایهگذاری مشتری را در طول چندین سال به جلو پیشبینی کنم. اگر بازده ثابت را فرض کنیم، این آسان است. هر سال 7 درصد با این حال، من می خواهم نوسانات بازده را در نظر بگیرم و بنابراین با استفاده از اکسل به دنبال توزیع نرمال، برخی از بازده های تصادفی را ایجاد کرده ام. سپس میخواهم فاصله اطمینان 95 درصدی را برای هر بازده نشان دهم و به مشتری نشان دهم که ما 95 درصد مطمئن هستیم که سرمایهگذاری اولیه 100 هزار پوندی آنها در 5 سال آینده در محدوده X و Y پوند خواهد بود. یک نمونه کوچک به شرح زیر است. بازده تصادفی زیر توسط تابع =NORM.INV(RAND(),6.8%,7.5%) در اکسل ایجاد می شود. سال 1 سال 2 سال 3 سال 4 سال 5 4.4% 14.8% -3.3% 9.9% 4.4% 9.7% 12.3% 11.2% 21.8% 4.6% -3.2% 14.0% 7.0% 10.0% 5.0% 10.0% 7.4% 6.9% 11.7% 6.4% -6.3% 17.8% -8.1% 26.9% -1.4% 2.3% 9.9% 4.5% 4.0% -1.6% 8.4% 3.8% 1.5% 1.5% 1.5% 1.5% 1.7% 1.7% -0.7% 0.8% -1.1% 0.1% 7.0% 9.6% 1.4% 20.3% 13.2% -3.4% میانگین 7.9% 3.4% 4.6% 10.4% 2.9% St Dev 8.3% 8.6% 8.6% Upper 7.6% 8.6% CI . 13.0% 8.8% 9.4% 14.3% 7.5% CI کمتر 2.7% -1.9% -0.3% 6.5% -1.8% مبلغ سرمایه گذاری 100,000 پوند ارزش صندوق آینده سال 1 سال 2 سال 3 سال 4 سال 5110 پوند £109,434 £ 114,272 £ 107,528 میانگین £ 107,850 £ 103,420 £ 104,560 £ 110,390 £ 102,860 پایین تر £ 102,705 £ 98,075 £ 98192 پوند سوالی که دارم این است که چون ما بازده بالا و بازده کمتر را در سال در نظر می گیریم، آیا در محدوده اغراق می کنیم؟ اگرچه فاصله اطمینان برای هر بازگشت خوب است، اما این اثر تجمعی امسال در سال است که من نگران آن هستم. آیا کاری که من انجام می دهم از نظر آماری صحیح است یا می توانید در مورد یک روش جایگزین راهنمایی کنید. هر روش جایگزینی باید بتواند هزاران بار به راحتی تکرار شود و بنابراین نمی تواند در اکسل خیلی داده فشرده باشد. | بازده سرمایه گذاری تصادفی از توزیع نرمال (و فواصل اطمینان) |
16046 | من داده هایی با کلاس پیوسته دارم و به دنبال روش های خوب برای کاهش تعداد ویژگی ها هستم. اکنون من از فیلترهای مبتنی بر همبستگی، جنگل های تصادفی و الگوریتم گرام اشمیت استفاده می کنم. چیزی که من میخواهم به آن برسم این است که پاسخ دهم کدام ویژگیها مهمتر از ویژگیهای کلاس هستند. با استفاده از روش هایی که قبلا ذکر کردم می توانم به این هدف برسم، اما آیا الگوریتم های خوب دیگری وجود دارد که ارزش توجه را داشته باشد؟ | الگوریتم ها و روش های انتخاب ویژگی/ویژگی؟ |
82079 | در حالی که من در حال انجام یک سری آزمایش های رگرسیون هستم، می توانم تشخیص دهم که 2 متغیر مستقل وجود دارد که به نظر می رسد از توزیع قانون توان پیروی می کنند. http://i.stack.imgur.com/QZAxh.jpg) در واقع به این فکر نکردم که با این نوع متغیرها برخورد کنم. با این حال، اکنون می توانم فکر کنم که شاید بتوانم مدل سازی را با تبدیل متغیرها بهبود بخشم. (برای یک چیز، این متغیرها را می توان به مقیاس log تبدیل کرد..) اگر شرایط ایده آلی برای متغیر مستقل یا روش خاصی برای برآورده کردن وجود داشته باشد. آن را، لطفا به من توصیه کنید. | نحوه برخورد با متغیرهای مستقلی که به نظر می رسد از توزیع قانون قدرت پیروی می کنند |
7478 | من مطالعه ای انجام داده ام که (؟) نتایج زیر را داشته است: - جعبه دوچرخه جعبه دوچرخه وجود ندارد % تغییر رویه صحیح 173 55 -27% روش اشتباه 68 50 69% از آنجایی که یک نتیجه می تواند تنها یکی از این دو باشد - صحیح و نادرست رویه، آیا من به هر دو کمیت در داده های خود نیاز دارم یا فقط باید یکی از آنها را تفسیر کنم؟ اگر چنین است، کدام یک را باید استفاده کنم، یا این بستگی دارد که چه چیزی را می خواهم نشان دهم؟ متاسفم که اینقدر مبهم هستم، اما امیدوارم این برای پاسخ به سوال من کافی باشد. | چگونه می توان نتایج حاصل از آزمایش تک متغیری را مقایسه کرد؟ |
82075 | من یک جدول با پاسخ های یک نظرسنجی دارم. اکنون می خواهم معناداری آماری را بین 3 گروه از پاسخ دهندگان آزمایش کنم. دو ستون وجود دارد که من به آنها علاقه مند هستم. اولی یک متغیر ترتیبی است که اندازه شرکت را نشان می دهد (کوچک، متوسط، بزرگ). دومی یک متغیر لیکرت 5 مقیاسی است که نشان دهنده تجربه کاری است. داده ها نشان می دهد که پاسخ دهندگانی که برای یک شرکت متوسط کار می کنند نسبت به پاسخ دهندگان یک شرکت بزرگ تجربه کمتری دارند و پاسخ دهندگان یک شرکت بزرگ نسبت به پاسخ دهندگان یک شرکت کوچک تجربه کمتری دارند. کدام آزمون برای آزمون اهمیت آماری این ادعا مناسب است؟ | همبستگی بین گروه های مختلف (بر اساس یک متغیر ترتیبی) و یک متغیر لیکرت |
50924 | من می خواهم یک مطالعه قابلیت استفاده برای یک ابزار برنامه نویسی نرم افزار انجام دهم. دو نسخه از ابزار (نمونه اولیه A و نمونه اولیه B) با ویژگیهای متفاوت وجود دارد، اما اهداف یکسانی را ممکن میسازد. من از شرکت کنندگان می خواهم که مجموعه ای از کارها را با استفاده از هر دو نسخه ابزار تکمیل کنند و زمان صرف شده را گزارش کنند. من زمان صرف شده توسط این دو روش را مقایسه می کنم. همان مجموعه ای از شرکت کنندگان وظایف را با استفاده از نمونه اولیه A و سپس نمونه اولیه B انجام می دهند. چگونه می توانم تعداد شرکت کنندگان مورد نیاز برای مطالعه را دریابیم؟ | تحلیل توان پیشینی برای مطالعه قابلیت استفاده نرم افزار |
19549 | من داده های سری زمانی تک متغیره (سرعت باد در یک مکان خاص) را دارم که در فاصله زمانی 1 ساعت به مدت 5 سال اندازه گیری شده است. من از `auto.arima()` برای بدست آوردن پارامترهای زیر استفاده کردم: ar1 ar2 ma1 ma2 intercept 1.5314 -0.55 -0.1261 0.032 10.1223 s.e. 0.0105 0.0103 0.011 0.006 0.1211 sigma^2 تخمین زده شده به عنوان 0.4865 : احتمال ورود به سیستم = -83546.65 AIC = 167105.3 AICc = 167105.3 AICc = 167105.3 BIC11 با استفاده از 167 BIC1t: <- rnorm(1، 0، sqrt(sigma^2)) x[t] <- ar1*x[t-1] + ar2*x[t-2] + e[t] + ma1*e[t- 1] + ma2*e[t-2] وقتی نتیجه با تابع «forecast()» مقایسه میشود، پاسخهای کاملاً متفاوتی دریافت میکنم. طیف فرکانس خروجی تابع «پیشبینی ()» شبیه طیف فرکانس سری زمانی اصلی است. در حالی که سیگنال پیش بینی دستی مانند نویز در طیف فرکانس به نظر می رسد. من نمی توانم از تابع forecast() استفاده کنم زیرا برنامه در C++ است. آیا معادلات صحیح است؟ راه درست پیش بینی از روی ضرایب چیست؟ | پیش بینی سری های زمانی تک متغیره بر اساس auto.arima |
110616 | من یک مجموعه داده ورودی «x_train» و یک مجموعه داده خروجی «y_train» دارم > head(x_train) Symscore1 Symscore2 تمرین3 مدت تمرین3 تغییر گروه 1 1 0 2 3 انتقالی به انتقالی 2 1 3 5 3 انتقالی به انتقالی 3 1 0 1 0 انتقالی 4 به 1 0 4 3 انتقالی به انتقالی 5 1 0 1 0 انتقالی به یائسگی 6 0 0 5 2 سن انتقالی به یائسگی3 بسته سال bmi3 آموزش3 1 55 0.000000 20.89796 دبیرستان 2 49 1.000000 20.2000000 20.2000000 20.2000000 20.2000000 20.2000000 20.2000000 30.47797 Basic 4 51 0.000000 34.13111 Highschool 5 52 2.357143 23.24380 Basic 6 62 2.000000 16.76574 University > summary(x_core syn3 exercise. :0.0000 دقیقه :0.0000 دقیقه :0.000 دقیقه :0.000 1st Qu.:0.0000 1st Qu.:0.0000 1st Qu.:3.000 Qu. 1:2.000 Median :0.0000 Median :0.0000 Median :4.000 Median :3.000 Median :3.000 Mean :3.000 Mean :3.000 Mean :3.000 Mean :3.000 Mean.769 Mean :0 :3.612 Mean :2.503 3rd Qu.:1.0000 3rd Qu.:1.0000 Qu. 3:5.000 Qu. 3:3.000 Max. حداکثر : 50000 حداکثر : 50000 حداکثر: 5000 :4000 تغییر گروه سنی3 بسته سال عادی به معمولی: 399 دقیقه. : 45.00 دقیقه : 0.000 منظم به انتقالی : 211 1st Qu.: 49.00 1st Qu.: 0.000 منظم تا یائسگی : 211 میانه :54.00 میانه: 0.000 انتقالی به انتقالی: 1033 Mean :0.000 Menopsalau :536. :1016 3rd Qu.:58.00 3rd Qu.: 5.000 یائسگی تا یائسگی : 188 حداکثر. حداکثر :66.00 :97.143 bmi3 Education3 Min. :16.10 پایه : 360 اول اول: 22.32 دبیرستان: 1225 میانه :24.77 دانشگاه: 1473 میانگین : 25.62 سوم سوم: 27.73 حداکثر. :66.10 > dim(x_train) [1] 3058 9 > > summary(y_train) 0 1 2 3 4 5 1794 737 299 129 69 30 > از بسته R randomForest من یک جنگل طبقه بندی rf_c (=xytra) را اجرا کردم. =y_train,ntree = 100, type=classification) خطای آموزش بسیار کم است در حالی که عملکرد پیش بینی بسیار بد است > جدول(predict(rf_c, newdata = x_train), y_train) y_train 0 1 2 3 4 5 0 1794 10 6 2 0 0 1 0 727 0 0 0 0 2 0 0 293 صفر 41 12 3 2 0.7530529 2 157 77 43 14 8 0 0.8561873 3 52 42 19 10 5 1 0.9224806 4 25 13 27 1 3 5 0 42 13 0 1.0000000 > این باعث می شود فکر کنم که مشکل بیش از حد برازش وجود دارد. طبق تئوری، جنگل تصادفی هرگز نباید بیش از حد تناسب داشته باشد و این به نظر من بسیار عجیب است. همانطور که از داده ها مشاهده می شود y_train بسیار نامتعادل است و کلاس 0 بسیار بزرگتر از سایرین است. این ممکن است دلیل چنین عملکرد پایینی باشد. من می خواهم بدانم چگونه می توان این مدل را بهبود بخشید. از هر نظر مرزی نیز استقبال می شود. | چگونه از تطبیق بیش از حد تصادفی جنگل جلوگیری کنیم و پیش بینی را بهبود دهیم؟ |
19096 | اساساً آنچه من تعجب می کنم این است که چگونه ساختارهای کوواریانس مختلف اعمال می شوند و مقادیر درون این ماتریس ها چگونه محاسبه می شوند. توابعی مانند lme() به ما این امکان را می دهد که ساختاری را که می خواهیم انتخاب کنیم، اما من دوست دارم بدانم چگونه آنها تخمین زده می شوند. مدل جلوه های مختلط خطی $Y=X\beta+Zu+\epsilon$ را در نظر بگیرید. جایی که $u \stackrel{d}{\sim} N(0,D)$ و $\epsilon \stackrel{d}{\sim} N(0,R)$. علاوه بر این: $Var(Y|X,Z,\beta,u)=R$ $Var(Y|X,\beta)=Z'DZ+R=V$ برای سادگی، $R=\sigma^ را فرض می کنیم 2I_n$. اساساً سؤال من این است: $D$ دقیقاً چگونه از دادههای پارامترهای مختلف تخمین زده میشود؟ اگر فرض کنیم $D$ مورب است (اثرات تصادفی مستقل هستند) یا $D$ کاملاً پارامتری شده است (موردی که در حال حاضر بیشتر به آن علاقه دارم) یا هر یک از پارامترهای مختلف دیگر؟ آیا برآوردگر/معادلات ساده ای برای اینها وجود دارد؟ (این بدون شک به صورت تکراری تخمین زده می شود.) **ویرایش:** از کتاب Variance Components (Searle, Casella, McCulloch 2006) من موفق به درخشش موارد زیر شده ام: اگر $D=\sigma^2_uI_q$ پس از آن مؤلفههای واریانس بهصورت زیر بهروزرسانی و محاسبه میشوند: $\sigma_u^{2(k+1)} = \frac{\hat{\textbf{u}}^T\hat{\textbf{u}}} {\sigma_u^{2(k)}\text{trace}(\textbf{V}^{-1} \textbf{Z}^T\textbf{Z})}$\sigma_e^{2(k+1)} = Y'(Y-X{\hat{\beta}}^{(k)}-{Z}\hat{{u}}^{(k)})/n$ Where $\hat{\beta}^{( k)}$ و $\hat{{u}}^{(k)}$ به ترتیب بهروزرسانیهای $k$th هستند. آیا زمانی که $D$ مورب بلوک یا کاملاً پارامتر شده باشد، فرمول های کلی وجود دارد؟ من حدس میزنم در حالت کاملاً پارامتری، از تجزیه Cholesky برای اطمینان از قطعیت و تقارن مثبت استفاده میشود. | در عمل چگونه ماتریس کوواریانس اثرات تصادفی در یک مدل اثرات مختلط محاسبه می شود؟ |
88769 | از ویکیپدیا > خانواده توزیعهای نرمال مختلط، متغیرهای تصادفی > پیچیده را مشخص میکند که بخشهای واقعی و خیالی آنها به طور مشترک نرمال هستند، 1 یعنی به طور معمول > توزیع شده و **مستقل**. تعریف در همان مقاله این است > فرض کنید $X$ و $Y$ بردارهای تصادفی در $\mathbb{R}^k$ هستند به طوری که $vec[X > Y]$ یک بردار تصادفی معمولی $2k$-بعدی است. سپس می گوییم که بردار مختلط > تصادفی $$ Z = X + iY \، $$ دارای توزیع نرمال مختلط است. آیا مستقل به معنای استقلال بین متغیرهای تصادفی $X$ و $Y$ است یا استقلال خطی بین بردارهای $X$ و $Y$ در فضای برداری $\mathbb{R}^k$؟ اگر اولی، چرا تعریف نیازی به مستقل بودن X$ و $Y$ ندارد؟ با تشکر | استقلال در تعریف توزیع پیچیده گاوسی |
88763 | داده های زیر را در مورد خرابی لامپ (که برای تعمیر نیاز به تعویض فیلامنت دارند) در مقایسه با سه شرکت در نظر بگیرید: P(1st شکست) | P(شکست دوم | شکست اول) | P(شکست سوم | شکست دوم) ------------------------------------------ -------------------------------------------- شرکت A 1 در 4.0 | 1 در 5.9 | 1 در 6.1 شرکت B 1 در 3.1 | 1 در 6.1 | 1 در 9.2 شرکت ج 1 در 18 | 1 در 8.1 | 1 در 4.0 این داده متعاقباً برای رسم نمودار زیر استفاده شد:  مقادیر فقط با تقسیم اعداد در جدول به دست آمدند ( به عنوان مثال، 1/4.0، 1/5.9، 1/6.1 برای به دست آوردن میله های شرکت A و غیره). از این به بعد، استنباط زیر حاصل شد: * احتمال شکست اول برای شرکت A و شرکت B زیاد است اما لامپ های شرکت C قوی هستند * پس از اولین شکست، روند کاهشی برای شرکت A و شرکت B وجود دارد که نشان می دهد رشته آنها جایگزینی موثر است. با این حال، این مورد برای شرکت C نیست. * پس از شکست دوم، روند افزایشی برای شرکت C حتی بیشتر قابل مشاهده است و نشان می دهد که جایگزینی فیلامنت توسط شرکت C موثر نیست. بنابراین، منطقی است که در صورت خرابی لامپ ها از شرکت C جایگزین شوند (با فرض اینکه هزینه تعمیر برای هر خرابی بسیار بالا باشد). من دو سوال خاص دارم: * آیا این استنباط ها منطقی هستند؟ اگر بله، نمودار میلههای احتمال و احتمال شرطی را در کنار یکدیگر ترسیم میکند. آیا این درست است یا راه های بهتری برای نشان دادن این موضوع وجود دارد؟ * اگر خود استنباط ها نادرست باشند، چه چیزی را باید از داده های داده شده استنباط کنم؟ و بهترین راه برای نشان دادن این در نمودار چیست؟ | استنتاج از مقادیر احتمال شرطی |
81458 | من فرکانس الگوهای دوتایی باقیماندههای قطبی و غیرقطبی را در رشتههای گیرههای موی بتا ضد موازی از ۵ مجموعه مختلف گیرههای بتا موازی دارم. من می خواهم بدانم چگونه می توانم شباهت یا تفاوت بین فرکانس های الگوهای باینری را در بین آن 5 مجموعه سنجاق سر بتا تعیین کنم. آیا روش های آماری وجود دارد؟ فقط برای اطلاع بیشتر که من همبستگی بین فرکانس های الگوهای بین آن مجموعه ها را محاسبه کردم و ضریب همبستگی را بین 0.85 تا 0.95 پیدا کردم و به این نتیجه رسیدم که الگوهای باینری در بین 5 مجموعه بتای موازی ضد موازی مشابه هستند. این درسته؟؟ | مقایسه فرکانس های 32 الگوی باینری در بین 5 مجموعه مختلف |
95920 | من به دنبال الگوی گام تاب زمانی پویا (بسته dtw برای R) هستم، که اجازه می دهد یک مقدار شاخص پرس و جو را به چندین مقدار شاخص مرجع تخصیص دهیم (برای مثال `symmetric2` این کار را انجام می دهد). با این حال، من میخواهم تخصیص چندین مقدار نمایه پرس و جو را به یک مقدار شاخص مرجع محدود کنم، به طوری که در هر مرجع فقط یکی باشد. مقدار شاخص مجاز است. به عبارت دیگر، مقادیر شاخص پرس و جو قبلی مجاز به تخصیص به همان مقدار شاخص مرجع نیستند. در اینجا یک مثال برای R آورده شده است: مرجع <- ساختار(لیست(تاریخ = ساختار(c(15218, 15219, 15220, 15221, 15222, 15223, 15224, 15225, 15226, 15227, 15223, 15229, 15231, 15232, 15233, 15234, 15235, 15236, 15237, 15238, 15239, 15240, 15241, 15242, 15243, 1524, 11524 15247, 15248, 15249, 15250, 15251, 15252, 15253, 15254, 15255, 15256, 15257, 15258, 15252, 15252, 1526 15263، 15264، 15265، 15266، 15267، 15268، 15269، 15270، 15271، 15272، 15273، 15274، 15275، 1527، 1527، 15279, 15280, 15281, 15282, 15283, 15284, 15285, 15286, 15287, 15288, 15289, 15290, 15290, 15291, 11529, 1529 15295، 15296، 15297، 15298، 15299، 15300، 15301، 15302، 15303، 15304، 15305، 15306، 15307، 1530، 1530، 1530 15311, 15312, 15313, 15314, 15315, 15316, 15317, 15318, 15319, 15320, 15321, 15322, 15322, 15323, 11532 15327, 15328, 15329, 15330, 15331, 15332, 15333, 15334, 15335, 15336, 15337, 15338, 15332, 1534, 11534 15343, 15344, 15345, 15346, 15347, 15348, 15349, 15350, 15351, 15352, 15353, 15354, 15355, 15358, 1535 15359, 15360, 15361, 15362, 15363, 15364, 15365, 15366, 15367, 15368, 15369, 15370, 15371, 15373, 1537, 1537 15375، 15376، 15377، 15378، 15379، 15380، 15381، 15382، 15383، 15384، 15385، 15386، 15387، 1538، 1538، 1538 15391, 15392, 15393, 15394, 15395, 15396, 15397, 15398, 15399, 15400, 15401, 15402, 15403, 1540, 11540 15407, 15408, 15409, 15410, 15411, 15412, 15413, 15414, 15415, 15416, 15417, 15418, 15412, 115420 15423, 15424, 15425, 15426, 15427, 15428, 15429, 15430, 15431, 15432, 15433, 15434, 15435, 15437, 11543 15439, 15440, 15441, 15442, 15443, 15444, 15445, 15446, 15447, 15448, 15449, 15450, 15451, 15451, 11545 15455، 15456، 15457، 15458، 15459، 15460، 15461، 15462، 15463، 15464، 15465، 15466، 15467، 11546، 1546 15471, 15472, 15473, 15474, 15475, 15476, 15477, 15478, 15479, 15480, 15481, 15482, 15483, 1548, 1548 15487, 15488, 15489, 15490, 15491, 15492, 15493, 15494, 15495, 15496, 15497, 15498, 15492, 11550 15503، 15504، 15505، 15506، 15507، 15508، 15509، 15510، 15511، 15512، 15513، 15514، 15515، 1551، 1551 15519, 15520, 15521, 15522, 15523, 15524, 15525, 15526, 15527, 15528, 15529, 15530, 15531, 1553, 1553, 1553 15535, 15536, 15537, 15538, 15539, 15540, 15541, 15542, 15543, 15544, 15545, 15546, 15547, 1555, 1554 15551, 15552, 15553, 15554, 15555, 15556, 15557, 15558, 15559, 15560, 15561, 15562, 15563, 1556, 1556 15567, 15568, 15569, 15570, 15571, 15572, 15573, 15574, 15575, 15576, 15577, 15578, 15578, 15572, 1558, 1558 15583، 15584)، کلاس = تاریخ)، مقدار = c(3.32839119647413، 3.34603352984559، 3.36355987402806، 3.38096991271589، 3.38096991273347413، 3.41543980838506، 3.43249903275512، 3.44944068640796، 3.46626445303796، 3.48297001633945، 3.4905، 3.44944068640796 3.51602526773439, 3.53237432321654, 3.54860391014763, 3.56471371222201, 3.58070341313403, 3.596, 3.596. 3.61232124624846, 3.62794874583957, 3.64345487904576, 3.65883932956138, 3.6741017810808, 3.618924 3.70425942190843, 3.71915397860536, 3.73392527108351, 3.74857298303724, 3.76309679816091, 3.7392527108351, 3.76309679816091, 3.7074 3.79177147269547, 3.80592169949509, 3.81996831865104, 3.83393095282951, 3.84780686256915, 3.80615. 3.8752875508865، 3.88888685054149، 3.90238846791221، 3.91578966353732، 3.92908769795544، 3.923،94727 3.95536332532531، 3.96833543935435، 3.98119343433097، 3.99393457079383، 4.00655610928155، 4.0103، 4.010 4.0314294344862, 4.0436757422804, 4.05579149425404, 4.06777395094576, 4.07962037289422, 4.09138 4.10289415471587, 4.11431603566636, 4.12559092402814, 4.13671608033986, 4.14768876514016, 4.12866, 4.158 4.16916576236107، 4.17966459585896، 4.19، 4.20016543643947، 4.21015788364065، 4.21997987735426، 4.21997987735426، 4.21997987735426، 4.21997987735426 4.23912264732151, 4.24844849507654, 4.25761403234677, 4.26662179488289, 4.2754743184356, 4.28475 4.29272379159356، 4.3011258127002، 4.30938273782621، 4.31749710272227، 4.32547144313909، 4.326,338 4.34101019353778, 4.34857967502104, 4.35601927502782, 4.36333152930884, 4.37051897361478, 4.34764 4.38452957530421، 4.39135780418908، 4. | جستجوی الگوی گام تاب زمانی پویا |
82699 | من تست 2 نمونه ای را برای برابری نسبت ها با تصحیح پیوستگی انجام داده ام. (این دومین دوره آماری است که من در حال مطالعه هستم، بنابراین اساساً هیچ چیز نمی دانم، حداقل این احساس را دارم.) من برای اولین بار در این دوره از 'R' و Rstudio استفاده می کنم. من نمی دانم چگونه نتایج این آزمایش را تفسیر کنم. y1 <- 52 n1 <- 89 y2 <- 40 n2 <- 91 prop.test(c(y1,y2), c(n1,n2), جایگزین = بزرگتر، conf.level=0.99) تست 2 نمونه برای برابری نسبت ها با داده های تصحیح پیوستگی: c(y1, y2) از c(n1, n2) X-squared = 3.2138، df = 1، p-value = 0.03651 فرضیه جایگزین: فاصله اطمینان 99 درصد بیشتر: -0.03792798 1.00000000 تخمین نمونه: prop 1 prop 2 0.5842697 0.4395-3604 است. با چی مقایسه کنم؟ و چه نتایجی حاصل می شود؟ آیا فرضیه صفر را رد می کنم یا حفظ می کنم؟ من تقریبا هیچ چیز نمی دانم، پس لطفا آن را ساده نگه دارید. | تفسیر نتیجه آزمون 2 نمونه ای برابری نسبت ها با تصحیح پیوستگی |
114119 | من در حال تجزیه و تحلیل مجموعه ای از داده ها هستم که دارای یک دنباله بسیار بلند است و به دنبال راهی برای انتقال داده ها به یک منحنی زنگ هستم تا بتوانم تجزیه و تحلیل آماری را روی آن اعمال کنم. امیدوارم این منطقی باشد، هر کمکی بسیار قدردانی خواهد شد. **ویرایش** داده های من تعداد پست های یک انجمن آنلاین است، تعداد کمی از کاربران تعداد زیادی پست دارند، در حالی که بیشتر آنها فقط تعداد کمی دارند. من در حال تلاش برای یافتن دو انحراف استاندارد از میانگین هستم، اما معلوم شد که توزیع نرمال نیست. بنابراین من در تلاش هستم تا چگونگی تبدیل آن به توزیع عادی را پیدا کنم. | مجموعه داده های دم بلند را به منحنی زنگ تبدیل کنید |
19097 | آیا مشابهی برای لحظه بالاتر نابرابری های چبیشف در مورد یک طرفه وجود دارد؟ به نظر می رسد که نابرابری چبیشف-کانتلی فقط برای واریانس کار می کند، در حالی که نابرابری چبیشف به راحتی می تواند برای همه شارح ها تولید شود. آیا کسی از نابرابری یک طرفه با استفاده از لحظات بالاتر اطلاعی دارد؟ | نابرابری یک طرفه چبیشف برای لحظه بالاتر |
81521 | وقتی از شما خواسته میشود «همه مجموعههای مکرر آیتمها را بیابید»، آیا فقط مجموعهای که آخرین بار کار شده است، پاسخی است که باید بدهید یا اینکه قبل از آن نیز لازم است همه را بدهید. به عنوان مثال، اگر آخرین نتایجی که برای یک مجموعه به دست میآورم (A,B,D) باشد، این است که مجموعه آیتمهای مکرر من یا باید تمام مواردی که قبل از آن پیدا شدهاند را نیز درج کنم که «minSup» را نیز برآورده میکند، به عنوان مثال، (A ، ب) (الف، د) (ب، د) و غیره؟ | داده کاوی: مجموعه آیتم های مکرر |
110612 | من در تلاش هستم تا در مورد یک ماده تحت آزمایش کشش نتیجهگیری قابلیت اطمینان حاصل کنم. تمام داده های من حداکثر از سنسور استفاده می کند. مشخصات 8 lbf است و من یک لودسل 50 پوندی را به حداکثر میرسانم. یک سنسور بزرگتر بگیرید کمکی نمی کند، زیرا من سعی می کنم با حذف تست در هزینه صرفه جویی کنم، نه اینکه بیشتر هزینه کنم (من واقعاً اهمیتی نمی دهم که ارزش آن چقدر است). به غیر از اینکه نمونه ها را به عنوان داده های ویژگی تلقی کنیم، آیا نتیجه ای وجود دارد که بتوانم از مجموعه داده ای بگیرم که در واقع کاملاً درست سانسور شده است، با توجه به اینکه مقدار سانسور 6 برابر مشخصات است؟ من حدود 250 نمونه دارم، بنابراین می توانم 95/98.x اطمینان / قابلیت اطمینان را ادعا کنم، اما می خواهم بتوانم بیشتر ادعا کنم. هر ایده ای؟ با تشکر | آیا نتیجهگیری قابلیت اطمینان از بسیاری از نقاط داده تکراری وجود دارد؟ |
50929 | **سوال من:** هنگام انجام تجزیه و تحلیل SVD، می توانید حداکثر مشارکت کنندگان هر جزء را از ماتریس V استخراج کنید - آیا علامت مولفه مهم است؟ **زمینه** من در حال حاضر از کلاس Coursera در مورد تجزیه و تحلیل داده توسط جف لیک لذت می برم. این یک دوره عالی برای پر کردن شکاف های دانش من است. او در سخنرانیهای خود در مورد خوشهبندی پیشنهاد کرد که یکی از راههای استفاده از SVD یافتن مهمترین مؤلفههای اصلی است و سپس با انتخاب حداکثر مقدار سطر از ستون مربوطه در ماتریس V، بررسی کنید که کدام متغیر بیشترین سهم را در آن مؤلفه دارد. . مشکل من این است که او به جای حداکثر مطلق، روی حداکثر مقدار تمرکز می کند. ## بهروزرسانی: شبیهسازی یک الگو _من حدس میزنم شبیهسازی زیر به سوال من پاسخ میدهد، اما من از بازخوردهایم سپاسگزارم. این کد شبیه سازی است: set.seed(12345); dataMatrix <- matrix(rnorm(400),nrow=40) colnames(dataMatrix) <- c(paste(Pos.3:، 1:3، sep = #)، paste(Neg.15: , 4:5، sep= #)، paste (بدون الگو:، 6:8، sep= #)، paste (Pos.15:، 9:10, sep= #)) for(i در 1:40){ # flip a coin coinFlip <- rbinom(1,size=1,prob=0.5) # اگر سکه سر است یک الگوی مشترک به آن اضافه کنید row if(coinFlip){ cols <- grep(Pos.3، colnames(dataMatrix)) dataMatrix[i، cols] <- dataMatrix[i, cols] + 3 } } for(i در 1:40){ # flip a coin coinFlip1 <- rbinom(1,size=1,prob=0.5) coinFlip2 <- rbinom(1,size=1,prob =0.5) # اگر سکه سر است یک الگوی مشترک به آن ردیف اضافه کنید if(coinFlip1){ cols <- grep(Neg.15، colnames(dataMatrix)) dataMatrix[i, cols] <- dataMatrix[i, cols] - 15 } if(coinFlip2){ cols <- grep(Pos.15، colnames(dataMatrix) ) dataMatrix[i,cols] <- dataMatrix[i,cols] + 15 } } این یک Heatmap ساده با یک الگوی واضح تولید می کند (نام ستون ها الگو را نشان می دهد)  بعد از اینکه ماتریس را از طریق svd( ) تابع I یک بار پلات از ستون V برای بررسی مقادیر انجام می دهم: svd_out <- svd(scale(dataMatrix)) library(lattice) کلید <- simpleKey(مستطیل ها = درست، فاصله = بالا، نقاط=FALSE، text=c(مثبت، منفی)) key$rectangles$col <- c(آبی استیل، تیره) نمودار نمودار (as.table(svd_out$v[,1])، horizontal=FALSE، col=ifelse(svd_out$v[,1] > 0، steelblue، darked)، ylab=Impact value، xlab=SVD - درصد توضیح داده شده با ستون V، scales=list(x=list(rot=55, labels=colnames(dataMatrix), cex=1.1 ))، کلید = کلید)  در نمودار بالای V اول ستون نشان دهنده تأثیر قوی متغیرهای الگو در هر دو جهت است. نمودار زیر دومین ستون V را نشان می دهد و در اینجا حداکثر مقدار یک ستون بدون الگو است - اگر از مقدار مطلق استفاده می کردیم یک ستون الگودار انتخاب می کردیم.  **برای نتیجه گیری**: در اسلایدهای سخنرانی این خط: maxContrib <- which.max(svd_out$v[, 2]) احتمالاً باید باشد: maxContrib <- which.max(abs(svd_out$v[,2])) ## مثال قدیمی _نمونه ای بر اساس کد R که در سخنرانی ها استفاده شد_ من از مجموعه داده ای از تکلیف اول دوره همراه با بسته Hmisc، شبکه و ماوس برای بررسی موضوع استفاده کرده ام. میتوانید مجموعه داده را در اینجا بارگیری کنید (اگرچه دادهها نیاز به حذف دادهها دارند): http <- https://spark-public.s3.amazonaws.com/dataanalysis/loansData.rda con <- url(http) load(con ) وقتی به بردار ستون اول svd$v نگاه می کنیم مقدار کمی منفی است: numvars <- names(loansData)[sapply(loansData, is.numeric)] # از متغیر نتیجه در هیچ خوشهبندی/svd numvars استفاده نکنید <- numvars[numvars %nin% c(interest_rate)] library(mice) imp <- mice(loansData[, numvars]) c_imp <- تکمیل (imp) svd_out <- svd(scale(c_imp)) perc_explained <- svd_out$d^2/sum(svd_out$d^2) barchart(as.table(svd_out$v[,1])، horizontal=FALSE، col=ifelse(svd_out$v[,1] > 0، steelblue, darked), ylab=درصد توضیح داده شده، xlab=SVD - درصد توضیح داده شده توسط V column, scales=list(x=list(rot=55, labels=label(loansData[, numvars]))))  برای ستون دوم یکسان است:  وقتی حداکثر مشارکت کننده و هر متغیری را با حداقل 90 درصد حداکثر انتخاب کردم | یافتن حداکثر متغیرهای مشارکت کننده با اعمال SVD - آیا باید از مقادیر مطلق استفاده کرد یا فقط از حداکثر مقدار؟ |
50920 | من دادههایی دارم که یک آرگومان واقعی (شناور) و چندین آرگومان اسمی را به یک مقدار واقعی نشان میدهند: y = f(r، n1، n2، n3، n4) اگر وابستگی «y» به «r» را بررسی کنم (r واقعی من است. متغیر -valued)، من می بینم که `y` به صورت خطی به `r` با نویز زیادی در بالای این وابستگی بستگی دارد. اکنون میخواهم بررسی کنم که آیا «y» به متغیرهای اسمی وابستگی دارد: n1، n2، n3، n4. همچنین میخواهم بدانم کدام متغیر اسمی بیشترین تأثیر را روی «y» دارد. بنابراین، سوال من این است: **از چه روش هایی می توانم برای این کار استفاده کنم؟** | چگونه وابستگی به متغیرهای اسمی را بررسی کنیم؟ |
16042 | راه عملی برای شناسایی عواملی که باعث ایجاد تنوع در داده های یک مجموعه داده می شوند چیست؟ این سوال در کدام دسته قرار می گیرد؟ آیا مجموعه ای از الگوریتم ها وجود دارد که بتوان برای این منظور استفاده کرد؟ راه حل های مدل سازی آماری؟ خیلی گوگل کردم ولی نشد! سوال آنقدر مبهم است که یافتن پاسخ برای آن سخت است! پیشاپیش ممنون... | عواملی که بر تنوع داده ها تأثیر می گذارد؟ |
97784 | آزمایش عصبشناسی من یک آشکارساز سنبله دارد که نمونهای از شکل موجهای بلند سنبله «40» را خروجی میدهد. من از یک روش فرهنگ لغت برای مرتب کردن سنبله ها در زمان واقعی استفاده می کنم. برای به دست آوردن فرهنگ لغت در شروع برنامه، میخواهم از تمام اسپکهای شناساییشده در 30 ثانیه اول استفاده کنم و یک «SVD» از ماتریس «Nx40» انجام دهم، که در آن «N» تعداد اسپکهای شناساییشده در اول است. 30 ثانیه آیا الگوریتمی وجود دارد که بتواند این «SVD» «Nx40» را به روشی متوالی یا تکراری یا شاید در دستههای کوچکتر انجام دهد. نرخ spiking مورد انتظار به این معنی است که برنامه من نمی تواند تمام شکل موج های 30 ثانیه ای (ردیف های ماتریس) را در حافظه ذخیره کند. | آیا راهی برای انجام SVD به صورت متوالی وجود دارد؟ |
65710 | سوال زیر در یک سایت خواهر (Stack Overflow) در سال 2010 توسط کاربری که هنوز در آنجا فعال است پرسیده شد (به نظر من اینجا مناسب تر است، به عنوان مثال کاملاً شبیه به 21422): من یک سری داده در اکسل دارم که به آنها نیاز دارم. برای دریافت اطلاعات صدک خاصی از. مشکل این است که به جای اینکه مجموعه داده از هر مقدار تشکیل شده باشد، در عوض اطلاعاتی در مورد تعداد یا داده های سطل دارم. به عنوان مثال، تصور کنید که مجموعه داده های واقعی من به این صورت است: 1،1،2،2،2،2،3،3،4،4،4 مجموعه داده ای که من دارم این است: مقدار تعداد رخدادها 1 2 2 4 3 2 4 3 آیا راه آسانی برای من وجود دارد که بتوانم اطلاعات صدک (و همچنین میانه) را بدون نیاز به انفجار داده های خلاصه به مجموعه داده کامل محاسبه کنم؟ (وقتی این کار را انجام دادم، می دانم که می توانم فقط از تابع Percentile (A1:A5, p) استفاده کنم) این مهم است زیرا مجموعه داده های من بسیار بزرگ است. اگر داده ها را منفجر کنم، صدها هزار ردیف داشتم و باید این کار را برای چند صد مجموعه داده انجام دهم. بعد از این همه مدت شک دارم که OP هنوز نگران باشد، اما اگر در اینجا خارج از موضوع نباشد، از نظرات شما قدردانی می کنم (اما اگر این بسته شود ناراحت نمی شوم!) من علاقه مند هستم زیرا (از مدت ها قبل!) فکر می کردم من یاد گرفته بودم که پس از ذخیره کردن، اطلاعات کلیدی برای محاسبه دقیق صدک ها به طور غیر قابل برگشتی از دست می رفت. اما این کنجکاوی من بسیار بیشتر از یک نیاز مبرم است. | صدک ها را از داده های binned استخراج کنید |
65716 | اگر ریشه بخش AR آن روی دایره واحد نباشد، یک فرآیند ARMA(p,q) ضعیف است. بنابراین ایستایی ضعیف آن به بخش MA آن بستگی ندارد. اما مواضع ریشه های قسمت MA آن چه می تواند دلالت کند؟ در آزمایشهای ریشه واحد برای ARIMA، یک ریشه واحد چند جملهای MA نشان میدهد که دادهها بیش از حد تفاوت دارند. یعنی سری زمانی تفاضل ضعیف ثابت نیست؟ اگر بله، آیا با واقعیت قبلی که ثابت بودن ضعیف ARMA به بخش MA آن بستگی ندارد، تناقض دارد؟ | ریشه واحد MA چیست؟ |
11175 | در صفحه ویکی ذکر شده است که یکی از روش های تعیین تعداد بهینه خوشه در مجموعه داده روش زانو است. در اینجا درصد واریانس به عنوان نسبت واریانس بین گروهی به کل واریانس محاسبه می شود. من در درک این محاسبه احساس مشکل کردم. آیا کسی می تواند به من اطلاع دهد که چگونه درصد واریانس یک مجموعه داده را که به عنوان ماتریس ویژگی نشان داده شده است محاسبه کنم $F \in \mathbf{R}^{m \times n}$، که در آن $m$ بعد ویژگی و $n$ است. تعداد نقاط داده است. من از الگوریتم k-means برای خوشه بندی استفاده می کنم. | معیارهای آرنج برای تعیین تعداد خوشه |
13638 | با داشتن مقادیر «حساسیت» و «ویژگی»، چه نرمافزاری را پیشنهاد میکنید که ترسیم منحنی «ROC» را فراهم میکند؟ با تشکر | نرم افزار رسم منحنی ROC |
13634 | من روی مدلسازی آماری زیادی کار میکنم، مانند مدلهای مارکوف پنهان و مدلهای مخلوط گاوسی. من می بینم که آموزش مدل های خوب در هر یک از این موارد به مقدار زیادی (بیش از 20000 جمله برای HMM) داده نیاز دارد که از محیط های مشابه به عنوان استفاده نهایی گرفته شده است. سوال من این است: 1. آیا مفهوم داده های آموزشی به اندازه کافی در ادبیات وجود دارد؟ چه مقدار داده آموزشی به اندازه کافی خوب است؟ 2. چگونه می توانم محاسبه کنم که چند جمله برای آموزش مدل های خوب (که دقت تشخیص خوبی (> 80٪) می دهد) لازم است؟ 3. چگونه بفهمم که یک مدل به درستی آموزش دیده است؟ آیا ضرایب در مدل شروع به نشان دادن نوسانات تصادفی خواهند کرد؟ اگر چنین است، چگونه می توانم نوسانات تصادفی و تغییرات واقعی را به دلیل به روز رسانی مدل تشخیص دهم؟ لطفاً در صورت نیاز به برچسب های بیشتر، این سؤال را مجدداً تگ کنید. | آیا مفهومی از داده های «کافی» برای آموزش مدل های آماری وجود دارد؟ |
50926 | در حال نهایی کردن یک RCT با دو گروه مداخله (n=13، n=11). هر دو نمونه قبل و بعد از درمان برای درد (VAS) و همچنین در برابر یکدیگر (گروه در مقابل گروه) ارزیابی میشوند. با این حال، چهار آزمودنی پس از درمان در یکی از گروهها از دست رفته بودند (n13 --> n=9). کدام مدل/آزمون آماری برای استفاده مناسب است؟ | وقتی حجم نمونه متفاوت است از کدام آزمون آماری استفاده کنیم؟ |
109835 | در حین کار بر روی یک مجموعه داده بزرگ متشکل از 10 دقیقه اطلاعات - یعنی '144' نقطه در روز، '1008' در هفته و '52560' در سال - با چند مشکل در R مواجه شدم. اطلاعات مربوط به بار الکتریکی است. در یک پست منبع در طول سال. ### فصلی بودن چندگانه: مجموعه داده به وضوح چندین فصلی را نشان می دهد که روزانه، هفتگی و سالانه هستند. از آنجا متوجه شدم که R در توابع مدلسازی ARIMA، فصلی بودن چندگانه را کنترل نمیکند. من واقعاً دوست دارم با مدلهای ARIMA کار کنم، زیرا کار قبلی من بر اساس مدلهای ARIMA است و تقریباً میدانم چگونه یک مدل را به یک معادله تبدیل کنم. ### فصلی طولانی: هر یک از فصلی ها ارزش بالایی دارند، که کوتاه ترین آنها فصلی بودن روزانه 144 است. متأسفانه از معادله عمومی SARIMA که $\phi(B)\Phi(B^s)W_t = \ است. theta(B)\Theta(B^s)Z_t$ حدس زدم که حداکثر تاخیر برای یک مدل معین `SARIMA(p,d,q)(P,D,Q)144` $max((p+P*144), (q+Q*144))$ است. P و/یا Q بزرگتر از 1، اما R به من اجازه نمی دهد زیرا حداکثر تاخیر پشتیبانی شده = 350. برای انجام این کار، این پیوند را پیدا کردم که واقعاً جالب است و منجر به عملکردهای جدیدی در بسته پیش بینی شده توسط M. Hyndman، به نام های 'fourier' و 'fourierf' شد که می توانید در اینجا پیدا کنید. اما از آنجایی که من متخصص پیش بینی و آمار نیستم، در درک اینکه چگونه می توانم این کار را انجام دهم با مشکلاتی مواجه هستم. * * * نکته این است که من میدانم که کل این بسته رگرسیون فورویر میتواند به من کمک زیادی کند. از آنچه فهمیدم میتوانم از آن برای شبیهسازی فصلی طولانی مجموعه دادههایم استفاده کنم، شاید از آن برای شبیهسازی فصلی بودن چندگانه استفاده کنم، و حتی بیشتر از آن میتوانم به من اجازه معرفی متغیرهای برونزا را بدهد - که عبارتند از «دما» و «تعطیلات عمومی» + یکشنبه ها). من همچنین سعی کردم به دنبال این مثال مقداری رگرسیون انجام دهم اما نتوانستم آن را به کار ببرم زیرا: خطا در forecast. Arima (bestfit, xreg = fourierf (gas, K = 12, h = 1008)) : تعداد رگرسیون ها با برازش مطابقت ندارد مدل من واقعاً امیدوارم کسی بتواند به من کمک کند تا درک بهتری از این عملکردها داشته باشم. با تشکر **ویرایش:** بنابراین من تمام تلاشم را با مثال فویر ارائه شده در اینجا انجام دادم، اما نتوانستم بفهمم که چگونه این اتصال را انجام می دهد. کد اینجاست (من یکی از M. Hyndman را کپی کردم و با مجموعه دادههایم سازگار شدم - ناموفق) : n <- 50000 m <- 144 y <- read.table(auch.txt, skip=1) fourier < - تابع (t، عبارات، دوره) { n <- طول(t) X <- ماتریس(,nrow=n,ncol=2*terms) for(i در 1:terms) { X[,2*i-1] <- sin(2*pi*i*t/period) X[,2*i] <- cos(2*pi*i*t /period)} colnames(X) <- paste(c(S,C), rep(1:terms,rep(2,terms)),sep=) return(X) } library(forecast ) مناسب <- Arima(y[1:n,1], order=c(2,1,5), seasonal=c(1,2,8), xreg=cbind(fourier(1:n,4,m) فویر (1:n,4,1008))) نمودار(پیشبینی(برازش، h=14*m، xreg=cbind(فوریه(n+1:(14*m)،4،m) fourier(n+1:(14*m),4,1008)))) بنابراین من میخواستم مدل را مجبور کنم که یک `SARIMA(2,1,5)(1,2,8)[144] اما وقتی «arimod» را تایپ میکنم، این نتیجه برازش Arima است: > fit Series: y[1:n, 1]، ARIMA(2،1،5) sigma^2 تخمین زده میشود 696895: log likelihood=-407290.2 AIC=814628.3 AICc=814628.3 BIC=814840 حتی بخش فصلی مدل را در نظر نمی گیرد، و در مورد محدوده ای که مقادیر AIC می تواند بگیرد اطلاعات زیادی ندارم، اما به نظر می رسد. خیلی بلندتر از آن است که یک مدل مناسب در آن جا باشد. فکر میکنم همه چیز به درک نادرست من از استفاده از اصطلاحات فوریه بهعنوان پسرفتکننده برمیگردد، اما نمیتوانم دلیل آن را بفهمم. **ویرایش 2:** همچنین به نظر نمی رسد بتوانم متغیر برون زا دیگری را به تابع Arima اضافه کنم. من باید از دما استفاده کنم - احتمالاً به عنوان سرنخ - برای مطابقت با مدل SARIMAX، اما به محض اینکه این را نوشتم: fit <- Arima(y[1:n,1], order=c(2, 1،5)، فصلی=c(1،2،8)، xreg=cbind(فوریه(1:n،4،m)، فوریه(1:n،4،1008)، tmp[1:n])) نمودار(پیشبینی(مناسب، h=14*m، xreg=cbind(فوریه(n+1:(14*m)،4،m)،فوریه(n+1:(14*m)،4،1008) tmp[n+1:(14*m)]))) هیچ چیز غیر از مجموعه داده اولیه رسم نمی شود. هیچ پیش بینی وجود ندارد در حالی که بدون «tmp» به عنوان «xreg» من هنوز برخی از نتایج را دریافت می کنم. | فصلی چندگانه و طولانی برای یک مدل SARIMA در R |
78819 | ما آخرین تکلیف را برای کلاس علم سیاستم داریم و این دو واقعاً مرا گیج کرده اند. ما واقعاً از رگرسیون چندگانه خیلی خوب عبور نکردیم، بنابراین اگر کسی می تواند کمک کند، از آن متشکرم! 1. متغیر وابسته شما «مرگهای کودکان» است و متغیرهای مستقل شما شامل یک متغیر ساختگی به نام «نیمکره جنوبی» (که متغیر مستقل مورد علاقه شما نیز هست) و مجموعهای از هفت متغیر کنترلی کافی (شامل جمعیت) است. ضریب رگرسیون برای متغیر نیمکره جنوبی 426- است. یک جمله بنویسید که تفسیر خود را از این ضریب بیان کند. (توجه: لطفاً به خاطر داشته باشید که این یک رگرسیون چندگانه است!). 2. خطای استاندارد b شما از مسئله 9 در بالا 246 است. پیامدهای این چیست؟ | ضرایب و خطاهای استاندارد |
88764 | من داده های آزمایشی دارم که در آن چندین نمونه بزرگ از توزیع های گسسته دارم که از آنها به عنوان توزیع های تجربی استفاده می کنم. من میخواهم آزمایش کنم که آیا توزیعها واقعاً متفاوت هستند و تفاوت میانگینها برای توزیعهایی که واقعاً متفاوت هستند چیست. از آنجایی که آنها توزیع های گسسته هستند، درک من این است که آزمون کولموگروف- اسمیرنوف به دلیل فرض توزیع پیوسته اساسی نامعتبر است. آیا آزمون Chi-Squared آزمون صحیحی برای این است که آیا توزیع ها واقعاً متفاوت هستند؟ از چه آزمونی برای تفاوت میانگین ها استفاده کنم؟ آیا یک رویکرد بهتر این است که از توزیع ها نمونه برداری کنیم و تفاوت را بگیریم و سپس بر روی توزیع تفاوت تجزیه و تحلیل کنیم؟ | تفاوت بین 2 توزیع گسسته تجربی را آزمایش کنید |
46326 | من یک مدل مانع را تخمین می زنم که از دو فرآیند تولید داده تشکیل شده است: یکی برای رابطه صفر/مثبت و دیگری برای اعداد مثبت بالای صفر. یک مدل لاجیت باینری اغلب برای قسمت اول و یک مدل زهر کوتاه یا دوجمله ای منفی برای قسمت دوم استفاده می شود. در R، دستور 'hurdle()' در بسته pscl به طور مشترک مدل ها را با هم تخمین می زند، و یک AIC و مقدار log-likelihood را برمی گرداند. من باید برخی از افکتهای تصادفی را وارد کنم، بنابراین از دستور glmmADMB() در بستهای با همین نام استفاده میکنم. این بسته یک فرمان مدل مانع ندارد، بنابراین باید آنها را جداگانه تخمین بزنم (اول باینری، سپس پویسون). سوال من: چگونه باید لاگ احتمال مشترک دو مدل تخمین زده شده جداگانه را محاسبه کرد؟ من فرض میکنم که این امکانپذیر است، با توجه به اینکه به نظر میرسد «Hurdle» دقیقاً این کار را انجام میدهد. | احتمال مشترک دو مدل |
81525 | با توجه به $p$-variate نرمال $X \sim \mathcal{N}\left(\mu,\Sigma\right)$، متغیر تصادفی $$ t_* = \frac{X_1}{\sqrt{\sum_{ را در نظر بگیرید 2\le i \le p} X_i^2}}. $$ برای برخی از مقادیر $\Sigma$، این توزیع t غیرمرکزی مضاعف را تعمیم میدهد (که t- غیر مرکزی منفرد را تعمیم میدهد، که توزیع t مرکزی را تعمیم میدهد). آیا این توزیع شناخته شده است؟ به طور خاص، من می خواهم بدانم چگونه CDF را محاسبه کنم، و مثلاً دو لحظه اول. من گمان میکنم که تغییری این $t_*$ را به شکلی میبرد که قابل تحلیل باشد، اما من آن را نمیبینم. | آیا تعمیم شناخته شده ای از توزیع t مضاعف غیر مرکزی وجود دارد؟ |
88762 | من تست های همبستگی بین دو متغیر سطح شهر (به عنوان مثال آب و هوا و درآمد) را از حدود 30 شهر مختلف اجرا کرده ام و بنابراین **30 جفت همبستگی و T-value** را بر اساس شهرها دریافت کردم. فرضیه من این است که همبستگی بین این دو متغیر با موقعیت جغرافیایی آنها مشخص می شود و در واقع من همبستگی معنی داری بین متغیر جغرافیایی و همبستگی پیدا کردم، اما سوال من چیز دیگری است. ** میخواهم بدانم آیا همبستگی بسیار معنیدار و قوی بین 30 جفت همبستگی و مقادیر T بر اساس شهرها وجود یک الگو را نشان میدهد (که به حمایت از فرضیه من نیز کمک میکند).** بسیار معنادار و همبستگی قوی در اینجا به این معنی است که هر چه مقدار T قوی تر باشد، همبستگی بالاتر است (برعکس). همبستگی از مثبت معنادار به ناچیز (یک همبستگی) و به منفی معنادار می رسد. فکر من این است که اگر دو متغیر سطح شهر (مثلاً آب و هوا و درآمد) در سراسر شهرها از یکدیگر مستقل باشند، پس همبستگیها و مقادیر T آنها در سطوح مختلف شهر نیز باید مستقل از یکدیگر باشند. بر اساس نتیجه، از آنجایی که 30 جفت همبستگی و T-value همبستگی بالایی دارند، به این معنی است که یک الگوی درونی وجود دارد که باعث تغییر همبستگی و T-value می شود، که از فرضیه اصلی من پشتیبانی می کند. آیا این طرز تفکر منطقی است یا حاوی اشتباه جدی است؟ پیشاپیش متشکرم | همبستگی بین همبستگی و T-value ده ها گروه |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.