_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
85636
فرض کنید من در یک گره در یک درخت $regression$ هستم و از تخمین‌های در حال اجرا $\sum_{i \در Region_1} (y_i - mean(y_i)_{Region1})^2$ استفاده می‌کنم (و همینطور برای منطقه 2 ) برای تعیین اینکه آیا باید گره را در ویژگی $X_j$ برای کاردینالیتی بزرگ تقسیم کرد $|\\{X_j\\}| := p$، که $p/3$ تعداد ویژگی‌های نمونه‌گیری تصادفی است. هدف من این است که معیارهایی برای خاتمه دادن به تصمیم تقسیم زودهنگام پیدا کنم، شاید در $p/5$ (مثلا)، اگر الگوریتم به یک ویژگی برخورد کرده باشد که جدایی از نظر آماری بسیار قوی و غیرمحتمل غیر پیش پا افتاده باشد. با تکرارهای بیشتر الگوریتم تقسیم از طریق باقیمانده مجموعه ویژگی های نمونه برداری بهبود یافته است. آیا چنین رویکردهایی امتحان شده است؟ آیا دستورالعمل عملی وجود دارد؟ چگونه می توانم به این موضوع از نظر آماری قوی برخورد کنم (روشی که تعمیم را زخمی نمی کند - باید یک سود خالص باشد)؟ یک راه سریع که می‌توانم انجام دهم این است که چند درخت روی داده‌هایم ایجاد کنم و توزیع محاسبه معیار تقسیم را ترسیم کنم، همانطور که از $1$ به $p/3$ برای یک سطح معین در درخت حرکت می‌کنیم، سپس از این استفاده کنید. برای دریافت تخمین من از احتمال اینکه ویژگی در $p/5$ شکست نخواهد خورد. اما من مطمئن نیستم که این چگونه بر تعمیم تأثیر می گذارد.
معیارهای تصمیم گیری تقسیم اولیه برای تخمین سریع تصادفی (رگرسیون) جنگل
38523
من به تازگی برنامه MS را با موضوع یادگیری ماشین شروع کردم. من کنجکاو هستم در مورد جریان صحیح موضوعاتی که باید یاد بگیرند تا در موضوع ML مهارت داشته باشند. علاوه بر این می توانید منابعی در مورد آن پیشنهاد دهید؟ با تشکر...
ترتیب صحیح موضوعات و منابعی که برای استاد شدن در یادگیری ماشین باید تسلط داشته باشند چیست؟
44268
من دو متغیر غیرعادی توزیع دارم (منحرف مثبت، دارای اثرات سقف). من می خواهم ضریب همبستگی بین این دو متغیر را محاسبه کنم. به دلیل توزیع غیر نرمال، من از همبستگی مرتبه- مرتبه اسپیرمن استفاده کردم که یک ضریب همبستگی و یک مقدار معنادار (p) را برمی گرداند. نتایج من (n=400) یک همبستگی معنادار ($p = 8 \times 10^{-5}$) اما ضعیف را نشان می‌دهد (Spearman's $\rho$ = 0.20). اگر کسی از پیرسون استفاده کند، می‌تواند قدرت همبستگی را بر حسب واریانس مشترک توصیف کند (ضریب تعیین، $R^2$ – در مورد من $R^2$ = 0.04، یعنی 4%). واضح است که برای اسپیرمن، مجذوب مقدار $\rho$ با رتبه‌بندی داده‌ها به نظر نمی‌رسد. بهترین راه برای صحبت در مورد اندازه افکت با استفاده از $\rho$ اسپیرمن چیست؟ متناوباً، پس از بحثی در اینجا (همبستگی پیرسون یا اسپیرمن با داده‌های غیرعادی)، من بحث‌ها را به این معنا تفسیر می‌کنم که همبستگی پیرسون نرمال بودن را فرض نمی‌کند، اما محاسبه مقادیر p از ضرایب همبستگی اینطور است. بنابراین، من نمی‌دانستم که آیا می‌توان از Spearman برای محاسبه p-value همبستگی و پیرسون برای محاسبه اندازه اثر استفاده کرد و بنابراین همچنان از واریانس مشترک بین دو متغیر صحبت کرد.
ضریب تعیین گزارش با استفاده از روش اسپیرمن
33684
من یک سوال در مورد تفسیر اصطلاحات تعامل مرتبه پایین در حضور اثر متقابل مرتبه بالاتر قابل توجهی دارم. فرض کنید من یک طرح 2 (عامل $A$) $\times$ 2 (ضریب $B$) $\times $ 2 (عامل $C$) دارم که در آن بیشترین تعامل ($A\ بار B\ برابر C$) وجود دارد. معنی دار است و یک ترم تعامل مرتبه پایین تر ($A\ برابر B$) نیز قابل توجه است. آیا تعامل قابل توجه $A\times B\times C$ تعامل $A\times B$ را غیرقابل تفسیر می کند (مثل اینکه چگونه جلوه های اصلی در حضور یک تعامل قابل تفسیر غیر قابل تفسیر می شوند)؟ تحت چنین شرایطی، آیا باید مجموعه‌ای از مقایسه‌های برنامه‌ریزی‌شده/پس‌هک را اجرا کنم تا بررسی کنم که شرایط مختلف چقدر متفاوت است؟
چگونه می توان تعامل مرتبه پایین تر را وقتی که تعامل مرتبه بالاتر معنی دار است تفسیر کرد؟
89986
من یک بازی ویدیویی مسابقه اتومبیل رانی را روی رایانه لوحی خود انجام می دهم و داده های 224 مسابقه را جمع آوری کرده ام. در این بازی، دو ماشین رو در روی هم قرار می گیرند و بیش از یک چهارم مایل مسابقه می دهند. من می خواهم تأثیر نسبی عوامل خاصی را بر احتمال برنده شدن در مسابقه تعیین کنم. یک فایل داده در http://csr.datamustflow.com/csr_racing_times.csv موجود است. این فایل شامل ستون های لیست شده در زیر است. در فایل، یک 'y' به معنای 'بله/حال' و 'n' به معنای 'خیر/عدم وجود' است. مشتاقانه منتظر هر بازخوردی هستم که می توانید در مورد بهترین راه برای انجام این تحلیل به من بدهید. ویرایش: اکنون یک فایل جدید با جفت‌های مسابقه در http://csr.datamustflow.com/csr_times_paired.csv موجود است. در صورت وجود، باید زمان مسابقه کاهش یابد N: ارتقاء اکسید نیتروژن: در صورت وجود، باید زمان مسابقه کاهش یابد T: ارتقاء تایر. در صورت وجود، باید زمان مسابقه B را کاهش دهد: بلاگر اگر مسابقه را ببازید، هیچ امتیاز بازی را از دست نمی دهید. انتظار نمی رود که هیچ تاثیری بر پیروزی زمان مسابقه داشته باشد: اینکه آیا ماشین در مسابقه پیروز شد یا نه زمان: زمان مسابقه بیش از یک چهارم مایل. زمان کمتر = برابر است با مسابقه سریعتر من: آیا من در آن مسابقه با ماشین مسابقه می دادم یا نه PP: یک عدد صحیح که عملکرد کلی ماشین را توصیف می کند. عدد بالاتر به معنای ماشین بهتر و سریعتر است
عوامل برنده بازی اتومبیل رانی
44262
من یک سوال در مورد ادعایی دارم که در کتاب های آماری در مورد کاربرد توزیع t برای محاسبه فواصل اطمینان برای $n دلار بزرگ در صورتی که داده ها به طور معمول توزیع نشده باشند (اما دارای واریانس محدود هستند) خوانده ام. بیانیه این است که برای $n$ کوچک باید فرض گاوسی را در داده ها بررسی کرد، اما اگر $n$ به اندازه کافی بزرگ باشد، می توان از توزیع t برای محاسبه فواصل اطمینان استفاده کرد. به نظر می رسد ایده این است که توزیع میانگین با قضیه حد مرکزی به یک توزیع نرمال همگرا می شود. در اینجا چیزی است که من متوجه نمی شوم: یک RV با توزیع t را می توان به عنوان یک RV معمولی تقسیم بر یک RV توزیع شده $\chi$ با درجه آزادی $n-1$ توصیف کرد. من می بینم که توزیع میانگین به یک توزیع عادی همگرا می شود، اما در مورد توزیع خطای استاندارد چطور؟ اگر داده اصلی نرمال نیست، چرا باید خطای استاندارد از توزیع $\chi$ پیروی کند؟ بنابراین، چرا RV استاندارد شده باید دارای توزیع t باشد؟ تنها راهی که من توانستم این را بفهمم این است که برای $n$ بزرگ * توزیع میانگین به یک توزیع عادی همگرا می شود * توزیع t به یک توزیع عادی همگرا می شود، بنابراین اساساً برای $n $ بزرگ می توان به هر حال از توزیع گاوسی استفاده کرد. فاصله اطمینان با این حال، این به نحوی باعث ایجاد انحراف بر روی توزیع t نمی شود. یا دلیل ریاضی دیگری وجود دارد که میانگین تقسیم بر خطای استاندارد باید دارای توزیع t باشد؟ آیا من چیزی را از دست داده ام؟ با تشکر از کمک شما.
فاصله اطمینان توزیع t برای داده های غیر گاوسی اما n بزرگ است
4498
به نظر می رسد همه آنها متغیرهای تصادفی را توسط گره ها و (نا)وابستگی از طریق لبه های (احتمالاً جهت دار) نشان می دهند. من به خصوص به دیدگاه یک بیزی علاقه مند هستم.
چه رابطه ای بین مدل های سلسله مراتبی، شبکه های عصبی، مدل های گرافیکی، شبکه های بیزی وجود دارد؟
10058
من نیاز به بررسی واقعیت دارم اگر بخواهید. من یک مجموعه داده دارم که در آن می دانم چند پروانه منفرد از دو گونه همزمان در یک چمنزار وجود دارند (البته نه همیشه). من متغیرهای اضافی دارم، به عنوان مثال علفزار مرطوب/خشک، به شدت کشت شده/کشت نشده، درصد مساحت اطراف علفزار تحت پوشش چمنزارهای مرطوب یا خشک... این سر مجموعه داده است. 50 ردیف در مجموع، 25 ردیف در هر گونه. توجه داشته باشید که همه ستون‌ها به جز تعداد و گونه‌ها یکسان هستند، که نشان می‌دهد از یک محل نمونه‌برداری آمده‌اند. > head(dej) count type1 type2 perc.for.100m perc.dry.100m perc.wet.100m species 1 1 intensive dry 13.836 22.724 0.000 reali 2 3 extensive wet 6.877 1.622 1.613 real intensive7 52. 0.537 44.901 reali 4 6 فشرده خشک 17.346 42.322 6.359 reali 5 1 گسترده مرطوب 34.854 9.091 11.950 واقعی 6 2 خشک گسترده 50.387 19.205 واقعی خشک 13.836 22.724 0.000 سیناپیس 27 0 گسترده مرطوب 6.877 1.613 52.213 سیناپیس 28 0 فشرده مرطوب 22.770 0.537 44.901 سیناپیس 29. 0.33 سیناپیس 29.23 سیناپیس29. 30 1 گسترده مرطوب 34.854 9.091 11.950 sinapis 31 1 گسترده خشک 50.387 19.245 0.000 sinapis ... من علاقه مندم بدانم که آیا هر یک از این متغیرها بر گونه ها و تعداد مربوط به آنها تأثیر می گذارد. و این نتیجه مدل کامل است. glm (فرمول = تعداد ~ نوع 1 + نوع 2 + پرک. برای. 100 متر + پرک. خشک. 100 متر + پرک. مرطوب. 100 متر + گونه، خانواده = سم، داده = دژ) باقیمانده های انحراف: حداقل 1Q میانه 3Q حداکثر -2.8458 -1.1414 -0.4546 0.8297 2.2145 ضرایب: Estimate Std. خطای z مقدار Pr(>|z|) (برق) 0.028129 0.523509 0.054 0.95715 type1intensive 0.196699 0.191960 1.025 0.30551 0.30551 type2wet 0.06340.071 0.82984 perc.for.100m 0.003741 0.008277 0.452 0.65130 perc.dry.100m 0.010952 0.010750 1.019 0.30829 0.30829 0.450 0.450. 0.011596 0.644 0.51960 speciessinapis 0.597837 0.187689 3.185 0.00145 ** آیا اصلاً این رویکرد درستی به نظر می رسد؟ _برخی اطلاعات اضافی_ به عنوان یک یادداشت جانبی، بر اساس اکتشاف من در داده ها، انتظار دارم که شمارش (حداقل) به متغیر type2 بستگی داشته باشد، افسوس که این چیزی نیست که من دریافت کردم. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/9sYc5.jpg) با استفاده از منطق معکوس، سعی کردم با استفاده از داده های من بتوان گونه ها را پیش بینی کرد، که احتمالاً نتایج فوق را تأیید می کند. تماس: glm (فرمول = گونه ~ نوع 1 + نوع 2 + پرک. برای. 100 متر + پرک. خشک. 100 متر + پرک. مرطوب. 100 متر + تعداد، خانواده = دوجمله ای، داده = دژ) باقیمانده های انحراف: حداقل 1Q میانه 3Q حداکثر -1.6322 -1.0136 -0.1568 1.0592 1.6407 ضرایب: برآورد Std. خطای z مقدار Pr(>|z|) (فاصله) -0.351192 1.658052 -0.212 0.8323 type1intensive -0.170583 0.651611 -0.262 0.7935 type2wet -0.107071-0.107071 0.9207 perc.for.100m -0.002806 0.026807 -0.105 0.9166 perc.dry.100m -0.010227 0.036982 -0.277 0.7821 0.7821 perc.m380.706.106 - مرطوب -0.170 0.8647 تعداد 0.345036 0.153811 2.243 0.0249 * --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 '' 1 (پارامتر پراکندگی برای خانواده دوجمله ای 1 گرفته شده است) انحراف صفر: 69.315 در 49 درجه آزادی انحراف باقیمانده: 63.431 در 43 درجه آزادی AIC: 77.431 _EDIT 1_ Aniko متوجه شد که ممکن است یک تعامل بین نوع2 و گونه ها در واقع! تماس: glm (فرمول = تعداد ~ نوع 1 + نوع 2 * گونه + perc.for.100m + perc.dry.100m + perc.wet.100m، خانواده = poisson، داده = dej) باقیمانده انحراف: حداقل 1Q میانه 3Q Max -3.0859 -1.1350 -0.1947 0.7109 2.7470 Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) -0.357165 0.559987 -0.638 0.52360 type1intensive 0.196699 0.191960 1.025 0.30551 type2wet 0.4960.704 0.704 0.10049 speciessinapis 1.145132 0.306847 3.732 0.00019 *** perc.for.100m 0.003741 0.008277 0.452 0.65130 0.65130 0.65130 perc.m501.10. 1.019 0.30829 perc.wet.100m 0.007467 0.011596 0.644 0.51960 type2wet:speciessinapis -0.962
بررسی واقعیت با استفاده از GLM
11091
من معتقدم که متغیرهای مستقل $X_1,X_2$ بر متغیر وابسته $Y$ از طریق یک متغیر پنهان $Z$ تاثیر می‌گذارند به طوری که $$ \begin{align} Y &= \beta_0 + \beta_1Z \\\ Z &= \operatorname{ Logit}^{-1}(\beta_2X_1 + \beta_3X_2) \\\ \\\ Y &= \beta_0 + \beta_1\operatorname{Logit}^{-1}(\beta_2X_1 + \beta_3X_2) \end{align} $$ آیا می توان $\beta_2$ و $\beta_3$ را با توجه به $Y$ تخمین زد؟
برآورد اثر متغیر نهفته در رگرسیون
5329
من می‌خواهم یک نمودار را با استفاده از الگوریتم FCM خوشه‌بندی کنم، از ماتریس مجاورت نمودار به عنوان داده و از فاصله «اقلیدسی» به عنوان متریک استفاده کردم. مشکل این است که ماتریس مجاورت پر از صفر است (در واقع به درجه گره بستگی دارد) و شبکه من یک نود بزرگ بیش از 2000 است. برای نتایج، من بسیاری از خوشه های اندازه کوچک و برخی خوشه های اندازه بزرگ را دریافت می کنم، که برخی اوقات حدود 50٪ از جمعیت را شامل می شوند و درست نیست. فکر می کنم مشکل من از نمایش داده ها باشد. آیا شرایطی وجود دارد که باید به غیر از شرایط الگوریتم FCM ارضا شود؟ پیشاپیش از شما متشکرم.
آیا شرایطی برای داده ها در خوشه بندی فازی c-mean وجود دارد؟
70469
من در حال حاضر روی مدل‌سازی توزیع دو گونه دریایی و همچنین روی توزیع همپوشانی آنها کار می‌کنم. برای این کار من از یک مدل رگرسیون لجستیک دو جمله ای (GLM) استفاده می کنم که پاسخ آن به ترتیب، وجود/غیاب گونه 1، حضور/غیاب گونه 2، حضور/غیاب همپوشانی است. سوال من مربوط به اولین نتایج من در مورد پاسخ همپوشانی است (زمانی که من دو گونه حضور داشته باشم 1 و زمانی که حداقل یک گونه وجود ندارد کدگذاری می شود). متغیرهای توضیحی پارامترهای مختلف محیطی (دما، عمق و غیره) هستند. پس از انتخاب مدل نهایی، من خودهمبستگی فضایی (SAC) را بررسی کردم و با استفاده از شاخص موران I در باقیمانده‌های خطا یافتم (6 تاخیر اول به طور معنی‌داری همبستگی مکانی دارند). من تصمیم گرفتم از دو روش مختلف استفاده کنم: خودکوواریات و نگاشت بردار ویژه موران. من از R (بسته spded، spacemakeR و packfor) استفاده می کنم، Dormmann (2007) روش هایی برای محاسبه خودهمبستگی فضایی در تجزیه و تحلیل داده های توزیع گونه ها - مرور ضمیمه و Borcard و همکاران. (2011) بوم شناسی عددی با R ص. 275-277. سوال من به نتایج این دو روش مربوط می شود (شکل ضمیمه را ببینید). به نظر می رسد که مدل های GLM و GLM+ac من بهتر از مدل GLM+MEM (MEM: نقشه های بردار ویژه موران) هستند. این عجیب نیست؟ به دنبال ادبیات، به نظرم رسید که MEM باید بهترین روش از این سه باشد. آیا سرنخی دارید که چرا ممکن است این اتفاق بیفتد؟ آیا یک دلیل نظری می تواند این را توضیح دهد یا باید در نحوه اعمال توابع تحقیق کنم؟ من قبلاً تابع MEM را با استفاده از دو ماتریس مجاورت مختلف اعمال کردم (یکی همسایه های خالی را ترک می کند، در حالی که دیگری هیچ منطقه ای 0 باقی نمی گذارد). شاید باید اضافه کنم که داده های من در مقیاس بزرگ هستند (مستطیل آماری دریای شمال) و فاکتوری به موقعیت یکسان اما در زمان های مختلف (20 سال تحت پوشش) برای جداسازی فضایی آنها اضافه شده است. هر گونه کمک یا سرنخ استقبال می شود. ![پارامترهای دقت](http://i.stack.imgur.com/0aHFC.jpg) ![ROCPlot](http://i.stack.imgur.com/xNKax.jpg)
خودهمبستگی فضایی - GLM، خودکوواریات، MEM (نقشه برداری بردار ویژه موران)
45133
من درگیر پروژه ای هستم که در آن باید چند نمونه با استفاده از متغیرهای تصادفی گاوسی چند متغیره غیر منفی (متغیرهای تصادفی log-normal) بسازم. بخشی از محاسبات نیاز به محاسبه ماتریس های کوواریانس دارد. از آنجایی که من هیچ داده ای ندارم و اعداد را از هوا بیرون می کشم، امیدوار بودم که آیا کسی لطف کند تأیید کند که الگوریتم زیر معتبر است یا خیر. 1. من یک دسته از مقادیر ثبت مثبت را به عنوان انحرافات استاندارد برای متغیرهای خود فرض می کنم. اجازه دهید این $$s =[\sigma_1،\cdots، \sigma_n]$$ را نام ببریم. سپس $$s^2 = s^{T}s.$$ 3 را محاسبه می‌کنم. ماتریس همبستگی را فرض می‌کنم $\rho$ که همگی غیر منفی هستند و این ماتریس متقارن است. 4. $\rho$ را با عنصر $s^2$ ضرب کنید. این یک عملیات غیر استاندارد است، آنچه من در اینجا پیشنهاد می کنم این است که عنصر $(i, j)$th $s^2$ در $(i, j)$th عنصر $\rho$ ضرب می شود. ماتریسی که با تکمیل تمام عملیات از نظر عنصر تولید می‌شود، ماتریس کوواریانس $\Sigma$ است. من در آزمایشگاه mat تأیید کرده‌ام که مقادیر $\Sigma$ نمونه‌های من Choleski تجزیه‌پذیر هستند، زیرا در نتیجه یک ماتریس مثلث بالایی معتبر دریافت می‌کنم. از این رو من از این نتیجه می‌گیرم که آنها مثبت - قطعی هستند. این ماتریس ها نیز متقارن هستند. آیا می توانیم بر اساس فرآیند و فاکتورگیری چولسکی استنباط کنیم که ماتریس های کوواریانس معتبر هستند؟ http://math.stackexchange.com/q/250912/23874
الگوریتم ساخت ماتریس کوواریانس
5321
من PCA را با استفاده از تجزیه مقادیر ویژه در matlab پیاده سازی می کنم. من می دانم matlab دارای PCA پیاده سازی شده است، اما به من کمک می کند تا هنگام نوشتن کد، تمام نکات فنی را درک کنم. من راهنمایی های اینجا را دنبال کرده ام، اما در مقایسه با عملکرد داخلی prinomp، نتایج متفاوتی دریافت می کنم. آیا کسی می تواند به آن نگاه کند و من را در جهت درست راهنمایی کند. کد اینجاست: تابع [mu, Ev, Val ] = pca(data) % mu - میانگین تصویر % Ev - ماتریس که ستونهای آن بردارهای ویژه مربوط به eigen % مقادیر Val % Val - مقادیر ویژه اگر nargin ~= 1 خطا (' استفاده: [mu,E,Values] = pca_q1(data)'); end mu = mean(data)'; تصاویر = اندازه (داده، 2); برای i = 1:nimages data(:,i) = data(:,i)-mu(i); پایان L = data'*data; [Ev، Vals] = eig(L); [Ev,Vals] = مرتب سازی(Ev,Vals); % محاسباتی بردار ویژه ماتریس کوواریانس واقعی Ev = داده * Ev; Val = diag(Vals); Vals = Vals / (تصاویر - 1); % نرمال کردن Ev به واحد طول مناسب = 0; برای i = 1:nimages Ev(:,i) = Ev(:,1)/norm(Ev(:,i)); اگر Vals(i) < 0.00001 Ev(:,i) = صفر(اندازه(Ev,1),1); else proper = proper+1; پایان؛ پایان؛ Ev = Ev(:,1:nimages);
تجزیه مقادیر ویژه در متلب
49638
من یک اسکریپت R برای بدست آوردن خطاهای استاندارد بوت استرپ در تنظیمات رگرسیون خطی نوشته ام. در عمل، ابتدا در مرحله ساخت مدل، مدل نهایی را برای اعمال در هر نمونه بوت استرپ انتخاب می‌کنم (برای سادگی، فرض کنید یک مدل خطی تک متغیره ساده است). سپس نمونه های بوت استرپ «B = 1000» را شبیه سازی می کنم (با جایگزینی از مجموعه داده واقعی اولیه). برای هر نمونه شبیه سازی شده، مدل رگرسیون تک متغیره تعریف شده اولیه را به داده های شبیه سازی شده برازش می دهم و ضریب تخمینی متغیر کمکی مورد نظر را در «b_x» ذخیره می کنم. اکنون برای سادگی فرض کنید «B = 10». در پایان شبیه‌سازی‌های «B»، ماتریس خروجی «boot_out» را به این شکل به دست می‌آورم: boot_out <- read.table(text = iter b_x 1 1.19 2 0.81 3 1.21 4 1.05 5 0.99 6 1.11 7801. 9 0.91 10 1.12، header=TRUE) اکنون باید خطای استاندارد بوت استرپ اثر رگرسیون مورد علاقه را محاسبه کنم، آن را «se_boot» بنامیم. برای این منظور، من از: se_boot <- sd(boot_out[b_x]) se_boot استفاده کردم، اما یک نتیجه غیرمنتظره دریافت کردم: خطای استاندارد بوت استرپ b_x **بیشتر** از خطای استاندارد تخمین زده شده در ابتدایی است. مدل برازش داده‌های واقعی. با نگاه کردن به مقادیر «b_x» من دریافتم که تخمین‌های اثر جزئی علاقه در محدوده وسیعی متفاوت است، اما من حدس زدم که 1000 تکرار بوت استرپ برای پالایش خطای استاندارد تخمینی `b_x` کافی است. برای هر کمکی بسیار متشکرم
محاسبه دستی خطاهای استاندارد بوت استرپ در تنظیمات رگرسیون خطی
87161
من سعی می کنم از داده های محدود در طیف وسیعی از متغیرها برای پیش بینی استفاده کنم. ده متغیر وجود دارد و هر موضوع دارای سه متغیر از ده متغیر تعریف شده است. این تقریباً تصادفی است که هر موضوع سه متغیر را تعریف کرده است، اما نه به طور کامل. اگر هر آزمودنی هر ده متغیر را تعریف کرده بود، به راحتی می‌دانستم چگونه رگرسیون خطی حداقل مربعات را اجرا کنم. من یک موضوع دارم که هر ده متغیر را تعریف کرده است - با استفاده از این داده ها، می توانم سعی کنم هفت متغیر دیگر را برای هر موضوع پر کنم، اما درست به نظر نمی رسد. بهترین راه برای محاسبه ضرایب برای مدل رگرسیون خطی در موردی که همه آزمودنی‌ها فقط سه متغیر از ده را دارند، چیست؟ با تشکر
چگونه می توانم رگرسیون خطی چندگانه را با مجموعه داده های محدود برای هر موضوع اجرا کنم؟
108808
در آمار می توان میانگین یک نمونه و خطای استاندارد میانگین را محاسبه کرد. فرض کنید میانگین یک نمونه 2 و خطای استاندارد 1.5 باشد. اگر به طور مکرر از این جامعه نمونه برداری کنیم، انتظار می رود که میانگین فاصله میانگین نمونه از میانگین جامعه 1.5 باشد. تا به حال فکر می‌کنم ناخودآگاه فکر می‌کردم که 2 مرکز توزیع یا به عبارت دیگر میانگین جمعیت است. اما آیا من درست می گویم که 2 به همان اندازه احتمال دارد که در انتهای توزیع قرار گیرد، همانطور که مرکز توزیع است؟
آیا خطای استاندارد میانگین را مرکز توزیع فرض می کند؟
100310
من می خواهم برای کاهش تعداد متغیرهای مجموعه داده خود، تحلیل عاملی انجام دهم (متغیرها بسیار زائد هستند). یکی از پارامترهایی که باید به کد R ارائه کنم، تعداد فاکتورهایی است که باید حفظ شوند. برای انتخاب این عدد، قصد دارم چندین عدد را امتحان کنم و بهترین عدد را روی یک مجموعه آموزشی ارزیابی کنم. چندین امتیاز مربوط به تحلیل عاملی پیدا کردم: رگرسیون، بارتلت و اندرسون-روبین. کدام نمره را برای ارزیابی عدد فاکتور خود انتخاب کنم؟ در کدام وضعیت هر یک از این امتیازها مناسبتر است؟
انتخاب نمره برای تحلیل عاملی
84016
من یک مدل طبقه بندی (رگرسیون لجستیک) ساختم تا داده ها را در Fraud یا Not Fraud طبقه بندی کنم. این داده‌ها مربوط به تراکنش‌های آنلاین CNP (کارت بدون ارائه) است و پس از انتخاب برخی پارامترها که به نظر می‌رسید مرتبط با تقلب باشد، مدل را آزمایش کردم. برای این کار از یک مجموعه آموزشی از 225000 مثال و یک مجموعه تست 75000 استفاده کردم. من دو تست مختلف انجام دادم که در اولی 7 پارامتر داشتم و توانستم دقت 96% را در طبقه بندی به دست بیاورم. مشکل این است که تعداد موارد کلاهبرداری بسیار کمتر از موارد غیر تقلب است و بنابراین در مورد موارد کلاهبرداری دقت من فقط 11٪ بود در حالی که در Not Fraud 90 و چیزی حدود ٪. در آزمون دوم، پارامترهای بیشتری را وارد کردم، در مجموع 15. اندازه آموزش و تست یکسان، و اگرچه طبقه بندی کلی به 92% کاهش یافت، در مورد موارد تقلب، بهبودی به 30% و Not Fraud هنوز در حدود است. دهه 90. من می خواهم دقت طبقه بندی کلی را در حدود 90٪ حفظ کنم و دقت را در موارد کلاهبرداری به چیزی در حدود 65 تا 75٪ افزایش دهم، اما نمی توانم پارامترهای بیشتری را پیدا کنم که به نظر می رسد مرتبط باشد، تا در مدل خود گنجانده شود. به غیر از این، هیچ ایده دیگری به ذهن نمی‌رسد... آیا کسی می‌تواند به من نکات یا ایده‌هایی در مورد اینکه برای دستیابی به این اهداف تلاش کنم، به من بدهد؟ درضمن شک دیگری هم دارم. از آنجایی که مقادیر پارامترهایی که من استفاده می‌کنم، دامنه بسیار گسترده‌ای دارند، من ویژگی‌های Scaling و Mean Normalization را روی آنها اعمال کردم. من 300000 نمونه نمونه دارم (ست آموزشی - 225000 و مجموعه تست - 75000). سوال من این است که برای هر یک از این مجموعه ها باید میانگین مربوط به هر ستون و حداکثر - حداقل را محاسبه کنم تا مقادیر را به مقیاس کوچکتر تبدیل کنم یا میانگین و حداکثر دقیقه را بر اساس کل محاسبه کنم. نمونه (300000 نمونه)؟
چگونه یک مدل طبقه بندی تقلب را بهبود دهیم؟
84327
من سعی می‌کنم یک CFA روی داده‌ها انجام دهم (10 شاخص: $n=300$) که به شدت غیرطبیعی اما پیوسته است (شمارش یک رفتار بالینی در طول چند هفته): بسیاری از موارد صفر هستند، تعداد کمی بین 1 و 30، و تعداد انگشت شماری در مقادیری که گاهی اوقات بسیار بالاتر است (حتی $> 1000 $). من از lavaan در R با برآوردگر MLM برای تطبیق با این توزیع استفاده می کنم. من در درجه اول یک مدل عامل مشترک را با یک مدل حاوی سه عامل همبسته مقایسه می کنم. اگر از همه موارد استفاده کنم، هشدارهایی دریافت می کنم که نشان دهنده یک ماتریس قطعی غیر مثبت و واریانس خطای منفی (به عنوان مثال مورد Heywood) است. به دلیل شدت نقاط پرت، مطابق با توصیه های بولن (1987)، من بررسی کردم که آیا مقادیر شدید علت واریانس خطای منفی هستند یا خیر. من تمام موارد 3 انحراف استاندارد بالاتر از میانگین ($n=16$) را حذف کردم و این منجر به راه‌حل‌های قابل قبولی در هنگام اجرای مجدد مدل‌هایم و برآوردهای معقول پارامتر شد. آیا من این اشتباهات را به درستی تفسیر می‌کنم، و آیا این یک رویه معقول در این شرایط به نظر می‌رسد؟ در یک یادداشت مرتبط، آیا محدودیتی برای بالا بودن ضریب تصحیح مقیاس بندی ساتورا-بنتلر قبل از نگرانی وجود دارد؟ من مقادیری در حدود 4 را در برخی موارد می بینم (با توجه به غیرعادی بودن داده ها، جای تعجب نیست)، اگرچه نمی توانم ادبیاتی را پیدا کنم که در مورد این موضوع اظهار نظر کند.
موارد پرت باعث ایجاد حالت Heywood در CFA با استفاده از برآوردگر MLM در گدازه می شود
47987
با مرور مقاله ویکی در مورد ضریب فی، متوجه شده‌ام که برای داده‌های باینری جفت شده، «ضریب همبستگی پیرسون که برای دو متغیر باینری تخمین زده می‌شود، ضریب فی را برمی‌گرداند». با اجرای یک شبیه سازی سریع متوجه شدم که اینطور نیست. با این حال، به نظر می رسد که ضریب فی تقریباً ضریب همبستگی پیرسون است. x = c(1، 1، 0، 0، 1، 0، 1، 1، 1) y = c(1، 1، 0، 0، 0، 0، 1، 1، 1) cor(x،y) sqrt(chisq.test(table(x,y))$statistic/length(x)) # phi x = rep(x, 1000) y = rep(y, 1000) sqrt(chisq.test(table(x,y))$statistic/length(x)) # phi # اکنون همبستگی پیرسون را تقریب می‌کند. cor(x,y) **اما برای من مشخص نیست که چرا (از نظر ریاضی) چنین است.**
چرا ضریب فی به همبستگی پیرسون نزدیک می شود؟
71739
نمی‌دانم آیا کسی می‌تواند در مورد یک سوال کمکی ANCOVA به من کمک کند؟ شاید شما پاسخ مشکل من را بدانید. آزمودنی ها به یک گروه درمان یا کنترل اختصاص داده شدند و من یک متغیر وابسته (مستمر) را اندازه گیری کردم. یک متغیر کمکی نیز وجود دارد و پیوسته است. اما متغیر کمکی برای هر موضوع مستقل نیست. **مثال** آزمودنی ها به دو نوع روش تدریس مختلف (درمان و کنترل) اختصاص داده می شوند. در هر شرایط، آنها 15 کار را انجام می دهند. مشکلات تکلیف، و برای هر کدام نمره می گیرند (متغیر وابسته پیوسته). اما مشکلات تکالیف سطوح مختلفی از دشواری دارند (متغیر کمکی پیوسته) و ما می خواهیم آن را کنترل کنیم (همچنین آن را مطالعه کنیم). ** آیا درست است که مشکل-سختی را به عنوان یک متغیر کمکی در نظر بگیریم؟** به عبارت دیگر، هر رکورد در داده ها یک موضوع واحد در یک مسئله واحد است. اما متغیر کمکی برای هر موضوع در هر مسئله مستقل نیست. در عوض، این تنها تابعی از مشکل است. همه موضوعات دارای ارزش یکسانی برای مشکل-سختی برای یک مسئله معین هستند. آیا درست است که مشکل-سختی را فقط به عنوان یک متغیر در نظر بگیریم؟ از شما برای هر گونه بینش بسیار سپاسگزارم.
ANCOVA با متغیر کمکی تکرار شونده
89984
لطفاً در مورد این سوال به من کمک کنید: $$X\sim N(13,4) $$ $$P ( 20-d < X < 20+d ) = 0.998 $$ من در پیدا کردن $d$ مشکل دارم.
در مورد توزیع نرمال، مشکل تابع را حل کنید
87166
من سعی می کنم انحراف معیار مجموع X = A + B را محاسبه کنم. A و B مقادیر میانگین هستند و به داده های منبع دسترسی ندارم. A با انحراف معیار 0.014 (SDa) 0.46 و B با انحراف معیار 0.018 (SDb) 0.375 است. با استفاده از SPSS و مجموعه داده متفاوتی که A و B را در یک جمعیت متفاوت اندازه‌گیری می‌کند، به این نتیجه رسیده‌ام که A و B با ضریب همبستگی 0.4- و کوواریانس 0.00037- (COV) همبستگی دارند. من احتمال می‌دهم که رابطه بین A و B بین جمعیت‌ها مشابه باشد و بنابراین از این کوواریانس به عنوان تخمین کوواریانس در مجموعه داده استفاده می‌کنم که A و B از آنجا مشتق شده‌اند. تا آنجا که من می دانم، معادله محاسبه SD X = A + B (SDx) باید این باشد: SDx = SQRT(SDa^2 + SDb^2 + 2*COV) با این حال، این یک عدد منفی می دهد. برای گرفتن ریشه sqare از، یعنی یک واریانس منفی برای X، که در نتیجه SDx یک عدد مختلط است. واریانس منفی نباید امکان پذیر باشد، بنابراین من به وضوح در جایی اشتباه می کنم، اما نمی توانم آن را بفهمم. من قبلاً نتوانستم پاسخ این سؤال خاص را اینجا پیدا کنم، بنابراین فکر کردم که تماس بگیرم و کمک بخواهم. هر گونه پیشنهاد بسیار قدردانی خواهد شد! با احترام، ماتیاس
محاسبه انتشار خطا واریانس منفی را به همراه دارد
89988
من می خواهم دقت ماژول گیرنده GPS خود را اندازه گیری کنم. مختصات واقعی از نقشه های گوگل بدست می آید و مختصات دریافتی واقعی همان هایی است که گیرنده GPS دریافت کرده است. من سعی کردم ابزارهای آماری را جستجو کنم که بتواند به نحوی از یافته های من پشتیبانی کند. من سعی کردم از تست Chi-square در مایکروسافت اکسل استفاده کنم، اما نمی دانم چگونه نتایج را تفسیر کنم. چگونه نتیجه را تفسیر کنم؟ یا واقعاً چه ابزار آماری برای این کار مناسب است؟
نحوه اندازه گیری دقت
71735
من سعی می کنم یک نقطه خاص را در یک توزیع دووجهی تخمین بزنم، این نقطه ای است که در تصویر خود با A نشان دادم ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/YQhXE.png به عنوان مثال می‌توانیم مخلوطی از گواسین تولید کنیم و سپس سعی کنیم نقطه A(x,f(x)) را تعیین کنیم. این مشکل به نظر من مشکل بهینه سازی و برآورد است. سوال من این است که چگونه می توانم با جزئیات این کار را انجام دهم؟ شاید من فقط یک آموزش خوب را به نوعی از دست داده ام.
تخمین نقطه در چگالی توزیع دووجهی
16312
من در مورد اختلاف نظر در مورد آزمون فرضیه با برخی از مفسران که پیشنهاد می کنند از آزمون فرضیه استفاده نشود، خوانده ام. برخی از مفسران پیشنهاد می کنند که به جای آن باید از فاصله های اطمینان استفاده کرد. * تفاوت فواصل اطمینان و آزمون فرضیه چیست؟ توضیح با مرجع و مثال قدردانی خواهد شد.
تفاوت بین فواصل اطمینان و آزمون فرضیه چیست؟
29836
من در تلاش هستم تا یک مطالعه شبیه‌سازی بر روی تغییرات تخمین‌گر چگالی هسته انجام دهم. در آن آزمایش، پارامتری در یکی از فرمول‌های من وجود دارد که شامل مقدار pdf مجهول در یک نقطه x است. بنابراین من باید یک برآوردگر ثابت برای تخمین مقدار f(x) پیدا کنم، اما هیچ سرنخی در مورد اینکه باید از کجا شروع کنم ندارم. آیا کسی می‌تواند تخمین‌گر f(x) را پیشنهاد کند که سازگار باشد یا اینکه من باید به دنبال کدام خانواده از تخمین‌گرها باشم، مخصوصاً برای توزیع نرمال؟ ممنونم!!
برآوردگر ثابت برای تابع چگالی احتمال در یک نقطه معین
47989
من برای یافتن راهی برای تجزیه و تحلیل داده هایم کمی مشکل دارم. اگر پاسخ کوتاهی وجود دارد (به عنوان مثال، از رگرسیون لجستیک استفاده کنید، ساختگی) شما فقط می توانید آن را پست کنید و من خودم کمی حفاری انجام می دهم - فقط باید در جهت درست به من اشاره شود... متغیر مستقل من این است یک تعداد و متغیر وابسته من یک نسبت است. این داده ها است: موفقیت <- c(322,358,323,277) مجموع. آزمایشات <- c(540,533,507,540) تعداد = c(23,13,21,39) نسبت <- موفقیت/total.trials IIRC، انجام یک خطی ساده اشتباه است رگرسیون نسبت ~ شمارش... پس از چه روشی باید در اینجا استفاده کنم؟ با تشکر از کمک. * * * بسیار خوب، پس در اینجا برخی از کدهایی است که من پس از پیروی از توصیه گنگ در استفاده از GEE اجرا کردم: موضوع <- c(1، 2، 3، 4) موفقیت <- c(322، 358، 323، 277 ) تعداد کل <- c(540، 533، 507، 540) <- c(23، 13، 21، 39) داده <- cbind(موفقیت، مجموع) gee.model <- gee(داده ~ تعداد، شناسه = موضوع، خانواده = 'دوجمله ای') خلاصه (gee.model) GEE: مدل های خطی تعمیم یافته برای داده های وابسته به تابع S , نسخه 4.13 اصلاح شده 98/01/27 (1998) مدل: پیوند: واریانس Logit به میانگین رابطه: ساختار همبستگی دو جمله ای: فراخوانی مستقل: gee(فرمول = داده ~ تعداد، شناسه = موضوع، خانواده = دوجمله ای) خلاصه باقیمانده ها: Min 1Q Median 3Q Max 276.6608 310.381119323.352. 357.5969 ضرایب: برآورد Naive S.E. Naive z Robust S.E. Z مقاوم (Intercept) -0.25516680 0.031437649 -8.116599 0.0134033383 -19.03756 تعداد -0.01055972 0.001244121 -8.4867698 -8.416598 -40.35360 پارامتر مقیاس تخمینی: 0.1066564 تعداد تکرار: 1 همبستگی کاری [،1] [1،] 1 آیا این درست به نظر می رسد؟ و اگر من آن را درست تفسیر کنم، تأثیر قابل توجهی از شمارش بر نسبت وجود دارد.
تعداد متغیر توضیحی، متغیر وابسته نسبت
81457
نمی‌دانم که آیا تفاوت واضحی بین توزیع‌های به اصطلاح صفر تورم (مدل‌ها) و به اصطلاح توزیع‌های با مانع در صفر (مدل‌ها) وجود دارد؟ این اصطلاحات اغلب در ادبیات وجود دارند و من گمان می کنم که آنها یکسان نیستند، اما لطفاً تفاوت را به زبان ساده برای من توضیح دهید؟
تفاوت بین توزیع صفر و با مانع (مدل ها) چیست؟
82071
من یک متغیر پیوسته (y) را روی یک متغیر طبقه ای (x=0,1,2) پسرفت می کنم. آیا ممکن است (یا حتی منطقی باشد؟) به دست آوردن کشش y روی x؟ با تشکر
کشش های رگرسیون با متغیرهای طبقه بندی شده
68368
فرض کنید شما N فردی دارید که می خواهید آزمایش کنید. شما همزمان برای دو شرط طبقه بندی آزمایش می کنید که شرط اول می تواند A، B یا C باشد و شرط 2 می تواند W، X، Y، Z باشد. شما هر n فردی را برای هر ترکیبی از این دو شرط آزمایش می کنید و نتیجه یک متغیر وابسته است: \--> بنابراین اساساً شما 3*4 = 12 گروه دارید که می خواهید با استفاده از اندازه گیری های مکرر دو طرفه ANOVa مقایسه کنید حالا فرض کنید که شما یک معیار حداقلی داشته باشید که نتایج باید رعایت کنید: اگر این معیارها را برآورده نکنند، در گروه وجود ندارد: بنابراین تعداد افراد در یک گروه می‌تواند کمتر از N باشد و هر فردی را نمی‌توان در هر گروه یافت. گروه دیگر \--> اگر کروی بودن بررسی شود هنوز ANOVA قابل انجام است. حالا می آید: اما اگر یکی از گروه ها خالی باشد چه؟ نه به خاطر اشتباه بلکه صرفاً به این دلیل که در آن گروه نمی توان نتیجه خوبی گرفت. شما کاملاً از آن آگاه هستید. اما به نظر می رسد در این مرحله انجام یک ANOVA دو طرفه دیگر امکان پذیر نیست. آیا پیشنهادی در مورد چگونگی جلوگیری از این یا نحوه تغییر آن وجود دارد؟ پیشاپیش ممنون
نحوه مدیریت گروه های خالی در اندازه گیری های مکرر ANOVA دو طرفه
17800
فقط باید پاسخ سوال زیر را بررسی کنید: **سوال** فرض کنید $X$ و $Y$ دو متغیر عادی استاندارد مستقل هستند: $X$ ~ $N(0,1)$ $Y$ ~ $N( 0,1)$ توزیع $X + Y$ چیست؟ **کار من** $X+Y$ ~ N($\mu_1 + \mu_2$, $\sqrt{\sigma_1^2 + \sigma_2^2})$X+Y$ ~ N($0 + 0$ ,$\sqrt{1^2+1^2}$ $X+Y$ ~ N($0$, $\sqrt{2}$) آیا این درست به نظر می‌رسد؟
توزیع مجموع متغیرهای نرمال مستقل چگونه است؟
4496
کد زیر را در نظر بگیرید: data(zoo) request <- read.csv(file=summary.csv,sep=,head=TRUE) data = zoo(data$compressed, as.Date(data$date) ) داده <- جمع (داده، هویت، دنباله، 1) روز = دنباله(شروع(داده)، پایان(داده)، روز) داده2 = na.locf(merge(data, zoo(,days))) par(bty = 'n') plot(data2,xlab='',ylab='آنتروپی (بایت)') چگونه می توان: 1. هر دو را تنظیم کرد محدودیت های افقی و عمودی محور ترسیم شده برای مطابقت با شروع و پایان داده ها (به عنوان مثال، در حالی که مقدار y ممکن است بین 20 و 1525 متغیر باشد، محور 0 و 0 را نشان می دهد. 1500). 2. وضوح افقی را افزایش دهید (حداقل چند تیک کوچک اضافه کنید) زمانی که سری زمانی برای چند سال طول می کشد. با استفاده از: plot(data2,xlab='',ylab='آنتروپی (بایت)', xaxs = 'i', yaxs = 'i') دریافت می کنم: ![متن جایگزین](http://i.stack.imgur .com/dLc7l.png) چیزی که دقیقاً در ذهنم نبود. مقیاس عمودی نه با حداقل exat (حدود 25) شروع می شود و نه با حداکثر دقیق به پایان می رسد. مقیاس افقی از وسط شروع و به پایان می رسد. نکات؟
تنظیم ویژگی های محور در نمودار سری زمانی
47982
من قصد دارم یک آزمایش کمی انجام دهم اما باید شرکت کنندگانم بیایند و کارهایی را پیش روی من انجام دهند. از آنجایی که من نمی توانم بیش از 40 شرکت کننده (مسائل اقتصادی) استخدام کنم و در عین حال به چندین داده نیاز دارم، از هر شرکت کننده می خواهم که یک کار را با ورودی های مختلف انجام دهد. به عنوان مثال، من از اولین شرکت کننده می خواهم که نصب 10 برنامه مختلف را انجام دهد. در ابتدا به این فکر می‌کردم که اگر 40 شرکت‌کننده را استخدام کنم که هر کدام 10 فرآیند نصب را طی کنند، 400 نقطه داده داشته باشم. با این حال، من همبستگی بین پاسخ های گرفته شده از یک شرکت کننده را در نظر نگرفتم. سوال من این است: با توجه به این واقعیت که پاسخ های هر شرکت کننده با یکدیگر همبستگی دارند، بهترین راه برای تعیین تعداد شرکت کنندگان برای آزمایش من چیست؟ آیا مرجع یا فرمولی وجود دارد که بتوانم پاسخ سوالم را دریافت کنم؟
تعیین حجم نمونه برای داده های همبسته
84325
من سعی می کنم فواصل اطمینان را بر روی مشتقات دوم یک منحنی GAM محاسبه کنم. پس از تخمین مشتقات، ایده این است که از تابع «boot()» برای به دست آوردن فواصل اطمینان استفاده کنیم، اما من مطمئن نیستم که در کجا باید آن را در طول مسیر اعمال کنم، یا دقیقاً چه آماری (هایی) را برای بوت استرپ اعمال کنم. کد زیر مشتقات دوم را برای مقادیر خاص «epi.i» library(mgcv) library(boot) epi.i<-c(7، 8، 9، 10، 8.01، 6، 7.01، 5.999، 4.003، 12، محاسبه می کند. 2.01، 7.02، 10.01، 8.2، 5.9، 3.9، 6.999، 4.0001، 3.99، 6.001، 8.001، 5.99، 7.9، 6.99، 3.98) Rare25<-c(4.471429، 4.551474، 4.551474، 4.551474، 4.204، 4.204. 3.504348، 4.175824، 4.298193، 4.406838، 3.058707، 4.451128، 1.000000، 4.327893، 3.580541، 3.580541، 4.0836، 4.0824 4.352130، 3.919075، 3.795205، 3.380952، 2.993347، 3.775886، 3.766723، 3.852396، 3.923977، 3.923977، 4.380952، 4.308 epi.i) G2<-gam(Rare25 ~ s(epi.i)) #داده های جدید برای پیش بینی newDF<-with(epismooth, data.frame(epi.i=unique(epi.i))) #پیش بینی برای هموارسازی تخمین ها در هر مقدار epi.i منحصر به فرد #با خطای استاندارد B<-predict(G2, newDF, type='response', se.fit=TRUE) #رویکرد تفاوت محدود به مشتق زیر #مثال از ?predict.gam eps<-1e-7 #فاصله تفاضل محدود X0<-predict(G2, newDF, type='lpmatrix') newDFeps_p<-newDF + eps X1<-predict(G2, newDFeps_p, type='lpmatrix') # تفاوت محدود تقریب مشتق اول # ماتریس طراحی Xp<- (X0 - X1) / eps #مشتق دوم newDFeps_m <- newDF - eps X_1<-predict(G2, newDFeps_m, type='lpmatrix') # ماتریس طراحی برای مشتق دوم Xpp < - (X1 + X_1 - 2*X0)/eps^2 fd_d2 <- Xpp %*% coef(G2) cbind(epi.i, fd_d2) هر گونه راهنمایی در مورد چگونگی ادامه با فواصل اطمینان از اینجا بسیار قدردانی خواهد شد. کد زیر همان چیزی است که من امتحان کرده‌ام، اگرچه نادرست است: bootX0 <- function(فرمول، داده، شاخص‌ها) { d <- داده[شاخص‌ها] # به بوت اجازه می‌دهد نمونه X0 را انتخاب کند<-predict(G2, newDF, type= 'link', se.fit=TRUE) return(mean(X0)) } resultsX0<-boot(data=epismooth, statistic=deriv2, R=1000, formula=Rare25~s(epi.i)) resultsX0 نمودار (نتایجX0) bootX_1<- تابع (فرمول، داده، شاخص) { d <- داده[شاخص،] # به بوت اجازه می دهد نمونه X_1 را انتخاب کند<-predict (G2، newDFeps_m، type='link') return(mean(X_1)) } resultsX_1<-boot(data=epismooth, statistic=deriv2, R=1000, formula=Rare25~s(epi.i)) resultsX_1 نمودار(نتایجX_1) bootX1<- تابع(فرمول، داده، شاخص) { d <- داده[ شاخص‌ها،] # به بوت اجازه می‌دهد نمونه X1 را انتخاب کند<-predict(G2, newDFeps_p, type='link') return(mean(X1)) } resultsX1<-boot(data=epismooth, statistic=deriv2, R=1000, formula=Rare25~s(epi.i)) resultsX1 نمودار (نتایجX1) Xpp <- resultsX1$t + نتایجX_1$t - 2*نتایجX0$t/eps^2 fd_d2 <- Xpp %*% coef(G2) hist(fd_d2)
محاسبه فواصل اطمینان بوت استرپ در مشتقات دوم یک شی GAM
45535
من یک نظرسنجی انجام دادم تا خلق و خوی مردم را با فعالیتی که به تازگی انجام می‌دهند و اینکه آیا آن را با یک دوست انجام داده‌اند یا خیر، مشخص کنم. من فقط نحوه رگرسیون خطی را مطالعه کرده‌ام و ممکن است در انجام این کار از ذهنم خارج شده باشد، اما می‌دانستم که اگر مقادیر عددی ترتیبی با داده‌های طبقه‌بندی داشته باشید و 3 مورد از این موارد را روی آن داشته باشید، از چه چیزی استفاده خواهید کرد.
از چه مدلی برای تحلیل استفاده کنیم
48325
من 10 بردار دارم که هر کدام 100000 نقطه دارند (فعالیت عضلانی با نمونه برداری با سرعت 10 کیلوهرتز به دست می آید). من انتگرال هر مجموعه داده را دارای 10 مقدار می دانم. من می خواهم بدانم که آیا این 10 مقدار به طور معمول توزیع شده اند یا خیر. ?
آیا مجموعه داده ها از توزیع نرمال به دست می آیند؟
89983
برای مجموعه مشخصی از ویژگی‌ها (مثلاً با بعد a) و برای مجموعه مشخصی از برچسب‌ها (مثلاً m)، چگونه ویژگی‌های داده شده را با بردار وزن SVM به طور کلی مرتبط کنیم؟ آیا همیشه برابر حاصلضرب دو بعد خواهد بود یا اینکه باید ابعاد فضای ویژگی و فضای برچسب را پیدا کرد و سپس بعد حاصل بردار وزن را یافت؟
ابعاد بردارهای وزن در SVMها
12546
آیا بسته نرم افزاری برای حل رگرسیون خطی با هدف به حداقل رساندن هنجار L-Infinity وجود دارد؟
بسته نرم افزاری برای حل رگرسیون خطی هنجار L-infinity
89989
فرض کنید می دانیم که داده های گرفته شده از توزیع خاصی پیروی می کنند. ما 10 نمونه داریم. 9 مورد از آنها نزدیک به توزیع فرضی هستند، اما نمونه آخر به نظر می رسد بسیار دور است، یا رویداد اببران است. اصطلاحی که باید برای واجد شرایط بودن این نمونه استفاده کرد چیست؟ شاید نمونه پرت؟ متشکرم
اصطلاحی که برای توصیف یک نمونه خاص استفاده می شود
66837
من یک منحنی ROC دارم که برای یک رگرسیون لجستیک چند متغیره ایجاد شده است. درست به نظر می رسد؟ این کاری است که من انجام داده‌ام: 1. $\theta_0 + \theta_1X_1 + \theta_2X_2 ... = Y$ را برای $\theta$s 2 حل کنید. روی تمام ورودی $X_i$ تکرار کنید و $Y_i' پیش‌بینی‌شده را محاسبه کنید. $ برای مقادیر مختلف برش (آستانه) از 0 تا 1 دلار، با افزایش 0.01 دلار 3 دلار. برای هر $X_i$ و $Y_i'$ پیش‌بینی‌شده، با $Y_i$ اصلی مقایسه کنید تا مثبت کاذب (FP)، منفی کاذب (FN)، مثبت واقعی (TP) و منفی واقعی (TN) 4. محاسبه $\text{ حساسیت} = TP/(TP+FN)$ و $\text{Specificity} = TN/(FP+TN)$ برای همه این موارد مقادیر و آنها را در دو بردار مختلف ذخیره کنید. 5. منحنی ROC را برای $\text{Sensitivity}$ v/s $\text{Specificity}$ همانطور که در زیر نشان داده شده است رسم کنید لطفاً کسی می تواند به من بگوید که اینجا چه مشکلی دارد؟ ![](http://i44.tinypic.com/t8822t.png)
چرا منحنی ROC من به این شکل است (آیا درست است؟)
17805
این باید یک سوال بسیار اساسی باشد، اما من سعی می کنم یک ANOVA اندازه گیری های مکرر دو طرفه (در Statistica و/یا SPSS) انجام دهم، و در این فکر بودم که: برای تجزیه و تحلیل بیشتر انعطاف پذیر است؟ 2. در Statistica یا SPSS چه راهی را باید طی کرد؟ (GLM تک متغیره؟) در مورد من: * آزمودنی ها در توصیف (30!!) حیوانات نمره (100-1) کسب می کنند * آنها این کار را 3 بار با استفاده از مفهومی (C)، دیداری (V) یا شنیداری (A) انجام می دهند. ) اطلاعات * داده‌های به‌دست‌آمده در حال حاضر به‌صورت زیر قالب‌بندی می‌شوند، با یک موضوع: سگ گربه ... Sbj C V A C V A ... s1 64 78 34 61 63 39 ... s2 78 89 31 68 77 45 ... ... . .. .. .. .. ... بنابراین عوامل حیوانی {سگ، گربه،...} و منبع هستند. {C,V,A}. من یک قالب 4 متغیری را نیز امتحان کرده‌ام: Sbj Animal Source Value s1 dog C 64 ... اما: 1. این قانون یک موضوع در هر مورد را که روش‌های ANOVA اندازه‌گیری‌های مکرر در SPSS و Statistica بر آن تکیه می‌کنند، می‌شکند. در هر صورت، SPSS از من می خواهد که تمام سطوح فاکتور را به صورت دستی مشخص کنم که کار نمی کند زیرا متغیر نیستند، و علاوه بر این شامل 20 سطح است! (در مورد حیوان).
ساختار داده بهینه برای ANOVA اندازه گیری های مکرر دو طرفه
17803
فرض کنید دو گروه بیمار داریم، بیماران سالم و بیمار، و غلظت شیمیایی چند ماده شیمیایی را اندازه گیری می کنیم. حال می خواهیم تعیین کنیم که کدام غلظت شیمیایی برای دو گروه متفاوت است. **آیا فقط می توانیم برای هر یک از مواد شیمیایی یک آزمون تی دانشجویی جداگانه اعمال کنیم؟** به نظر می رسد که برای تعداد کافی مواد شیمیایی، همیشه برای یکی از آنها نتیجه قابل توجهی خواهید گرفت.
چگونه دو گروه را با متغیرهای نتیجه زیادی مقایسه کنیم؟
19922
من در حال یادگیری برخی از موارد پردازش تصویر هستم و یکسان سازی یک هیستوگرام به عنوان یک موضوع مهم مطرح می شود. من از روش ذکر شده در ویکی پدیا پیروی کردم، اما هیستوگرام یکسان شده حاصل به نظر من خیلی بهتر به نظر نمی رسد. فرض کنید من هیستوگرام زیر را دارم که در آن مقادیر فقط از 0 تا 7 متغیر است: 0 | 2 1 | 6 2 | 12 3 | 13 4 | 6 5 | 11 6 | 7 7 | 7 معادله یکسان سازی هیستوگرام به شرح زیر است: $h(v) = round(\frac{cdf(v) - cdf_{min}}{(M*N) - cdf_{min}} * (L - 1) )$ بنابراین، با استفاده از این موارد زیر را دریافت می کنم: $h(0) = 0$ $h(1) = 1$ $h(2) = 2$ $h(3) = 4$ $h(4) = 4$ $h(5) = 5$ $h(6) = 6$ $h(7) = 7$ با انتقال این به هیستوگرام جدید، هیستوگرام برابر شده زیر را دریافت می کنم: 0 | 2 1 | 6 2 | 12 3 | 0 4 | (13 + 6) = 19 5 | 11 6 | 7 7 | 7 این اصلاً درست به نظر نمی رسد... آیا من کاری را اشتباه انجام داده ام؟
نحوه یکسان سازی هیستوگرام ها
47983
تا آنجا که من می توانم درک کنم، هسته دانیل به سادگی $K(j/M)=\frac{1}{2M+1}1(|j|\leq M)$ است. یعنی این یک میانگین دو طرفه است. چرا مردم این را یک هسته ناقص می نامند و آن را از هسته ای به شکل $K(j/M)=1(|j|\leq M$) متمایز می کنند در حالی که تنها چیزی که تفاوت دارد ضریب مقیاس است؟
هسته دانیل چه تفاوتی با میانگین دو طرفه دارد؟
18727
من با یکی از دوستانم در مورد اینکه بهترین اقدام در سناریوی Yahtzee زیر چیست بحث کردم: اولین پرتاب با 5 تاس به مقادیر زیر منجر می شود: 1، 3، 4، 5، X، با X = 3، 4 یا 5 بر اساس احتمال، بهترین تصمیم برای پایان دادن به یک مستقیم بزرگ (1-2-3-4-5 یا 2-3-4-5-6) چیست: 1. سعی کنید در دو پرتاب باقیمانده یک عدد 2 را با قالب X پرتاب کنید. من ادعا می کنم گزینه اول بیشترین احتمال موفقیت را دارد در حالی که دوست من ادعا می کند که گزینه دوم است. من سعی کردم احتمالات را محاسبه کنم، اما مدتی است که کلاس های احتمالی خود را دنبال می کنم، بنابراین چندان مطمئن نیستم. برای گزینه اول معتقدم احتمال 1/6 + (5/6 * 1/6) = 11/36 است. اما گزینه دوم چطور؟ روش صحیح محاسبه این احتمال چیست؟
احتمال تاس برای Yahtzee بزرگ مستقیم
100313
با مراجعه به لینک، شک من در مورد محاسبه واقعی واریانس پیش بینی است. واریانس نشان داده شده در اینجا $\sigma^2 [1+X^*(X'X)^{-1}(X^*)']$ است. همانطور که در پیوند اضافه شده در اینجا ذکر شد، اگر $X$ یک بردار ردیف باشد، آنگاه $X'X$ یک ماتریس منفرد خواهد بود که معکوس آن به مقادیر بسیار بزرگ می رسد. مقادیر $X$ من بسیار قطعی هستند و بدون هیچ خطایی به راحتی در دسترس هستند. آیا راهی برای ایجاد این وارونگی وجود دارد تا بتوانیم واریانس را واقعاً محاسبه کنیم؟
مشکل در محاسبه برآوردگر واریانس رگرسیون
82078
برای یک مدل خطی گاوسی $Y=\mu+\sigma G$ که در آن $\mu$ فرض می‌شود در فضای برداری $W$ قرار دارد و $G$ دارای توزیع نرمال استاندارد در $\mathbb{R}^n$ است، آمار $F$-test برای $H_0\colon\\{\mu \in U\\}$ که در آن $U \زیر مجموعه W$ یک فضای برداری است، یک به یک در حال افزایش است. تابع آمار _deviance_: $$f=\phi\left( 2\log \frac{\sup_{\mu \in W, \sigma>0} L(\mu, \sigma | y)}{\sup_{ \mu \in U, \sigma>0} L(\mu, \sigma | y)} \right).$$ چگونه می‌توانیم بدانیم که این آمار قوی‌ترین آزمون را برای $H_0$ (شاید پس از کنار گذاشتن موارد خاص غیر معمول)؟ این از قضیه نیمن-پیرسون سرچشمه نمی‌گیرد، زیرا این قضیه بیان می‌کند که آزمون نسبت احتمال قوی‌ترین آزمون برای فرضیه‌های نقطه‌ای $H_0\colon\\{\mu=\mu_0، \sigma=\sigma_0\\}$ و $H_1\colon\\{\mu=\mu_1,\sigma=\sigma_1\\}$.
چرا آزمون F در مدل های خطی گاوسی قوی ترین است؟
66832
در «R» می‌توانیم یک رگرسیون «glm» را از طریق پارامتر **_weights_** «وزن قبلی» کنیم. به عنوان مثال: glm.D93 <- glm(شمارش ~ نتیجه + درمان، خانواده = poisson()، وزن = w) چگونه می توان این کار را در مدل 'JAGS' یا 'BUGS' انجام داد؟ من مقاله‌ای پیدا کردم که در این مورد بحث می‌کرد، اما هیچ‌کدام از آنها مثالی ارائه نمی‌کردند. من عمدتا به نمونه های پواسون و رگرسیون لجستیک علاقه مند هستم.
رگرسیون تعمیم یافته وزنی در BUGS، JAGS
45532
من از مدل های لاجیت برای پیش بینی ناسالم بودن یا نبودن کودکان استفاده می کنم (شاخص باینری). بسیاری از مدل‌های من روابط آماری معنی‌داری بین پیش‌بینی‌کننده‌های مورد علاقه (یعنی اگر خانه کودک آب/بهداشت بهداشتی بهبود یافته است) و نتیجه دارند. با این حال، هیچ یک از مدل های من از مدلی که فقط از اطلاعات جمعیت شناختی (سن، منطقه، شهری/روستا، جنسیت) استفاده می کند، بهتر عمل نمی کند. علاوه بر این، مدل‌ها در پیش‌بینی کودکان ناسالم بسیار وحشتناک هستند (تنها حدود 15٪ موارد مثبت واقعی به درستی پیش‌بینی شده‌اند که حدود 23٪ از داده‌ها است). آیا این دو واقعیت، روابط معنی دار آماری بین پیش بینی کننده ها و نتیجه مورد علاقه را بی معنی می کند؟ چگونه این را برای خوانندگان (امیدوارم در آینده) توضیح دهم؟ با تشکر، ویرایش: در اینجا مجموعه ای از نتایج مدل من است -- من نام متغیرهای واقعی را پنهان کرده ام زیرا نمی توانم آنها را به صورت عمومی به اشتراک بگذارم. متغیر متغیرهای نزدیک را کنترل می کند (فاصله) 0.212(0.255) 0.172(0.296) متغیر 1 1.038(0.09) متغیر 2 0.721(0.098)** متغیر 3 0.986(0.095*0.095*) متغیر 0.744(0.109)** متغیر 6 0.981(0.15) متغیر 7 1.317(0.051)** کنترل ها 1 0.769(0.087)** 0.763(0.087)** کنترل ها 2 1.0158*(0.015)*0. کنترل‌ها 3 0.666(0.098)** 0.838(0.11) کنترل‌ها 4 0.958 (0.122) 1.129 (0.127) کنترل‌ها 5 0.706 (0.144)** 0.750 (0.146) (0.146)*1*0. 0.998 (0.089) کنترل 7 0.957 (0.141) 1.010 (0.142) کنترل 8 0.694 (0.173)** 0.726 (0.18)* کنترل 9 1.895 (0.065 (0.065) * 7*5*0 0. 1.353(0.085)** 1.279(0.095)** کنترل 11 0.907(0.083) 0.949(0.095) کنترل 12 0.988(0.135) 0.920(0.145) 0.145 (0.145) Log Like A4907 -378 6863.758 6754.056 BIC 6958.156 6895.653 PCP 0.702 0.697
بتای معنی دار آماری را با مدل های ضعیف تفسیر کنید
29834
من برخی از مقادیر احتمال **y** را تخمین زده ام (شبیه سازی MC) که هر کدام به مقدار **x** بین 0 و 1 بستگی دارد. مثلاً بگویید که بردار **x** حاوی $x_{ است. 1} = 0.1، \ \ x_2 = 0.2، \ \ x_3 = 0.3، \ \ x_4 = 0.4، \ \ x_5 = 0.5، \ \ x_6 = 0.6، \ \ x_7 = 0.7$ و بردار مقادیر میانگین تخمینی **y** حاوی $y_{1}(x_1) = 0.340، \ \ y_2(x_2) = 0.329، \ \ y_3(x_3) = 0.322 ,\ \ y_4(x_4)=0.299،\ \ y_5(x_5) = 0.278،\ \ y_6(x_6) = 0.255،\ \ y_7(x_7) = 0.237.$ من همچنین یک مقدار انحراف استاندارد تخمینی برای هر یک از مقادیر برآورد شده در **y** دارم. اجازه دهید این مقادیر عدم قطعیت در بردار **s** موجود باشد. اکنون من $y(1)$ را بر اساس برون یابی (برازش منحنی) تخمین می زنم. من این کار را با برازش مقادیر خود با منحنی در شکل $y(x) = q \exp \left\lbrace -a\left(x-b\right)^c \right\rbrace$ با به حداقل رساندن یک تابع خطای میانگین وزنی مربع انجام می‌دهم. (با وزن بر اساس **s** ) به منظور یافتن پارامترهای بهینه $q, a, b, c$. سپس من برآورد خود را $y(1)$ بدست آوردم. با این حال، سوال من این است که چگونه می توان عدم قطعیت در این برآورد را اندازه گیری کرد. آیا برای مثال راه خوبی برای بهره برداری از مقادیر در **s** وجود دارد؟ تا کنون، من به این راه فکر کرده‌ام: مقادیر در **s** در واقع با $s_i(x_i) = \sqrt{\frac{1-y_i(x_i)}{Ny_i(x_i)}}$ تخمین زده می‌شود. $N$ اندازه نمونه در شبیه سازی MC $y_i(x_i)$ بود. سپس فکر کردم شاید بتوانم به سادگی از $s(1) = \sqrt{\frac{1-y(1)}{Ny(1)}}$ به عنوان معیار عدم قطعیت در $y(1)$ استفاده کنم، حتی اگرچه من هرگز $y(1)$ را با استفاده از نمونه‌های $N$ به این روش تخمین زده‌ام. همچنین، این یک اشکال است که این مقدار به اندازه **y** بستگی ندارد. پیشنهادی دارید؟ خیلی خوب است که نوعی مقدار انحراف استاندارد s(1) را بدست آوریم، تا بتوانم به راحتی خطای نسبی $RE = s(1)/y(1)$ را نیز پیدا کنم. (من چند روش دیگر دارم که از آنها برای تخمین احتمال y(1) استفاده می کنم، و خوب است که $s(1)$ و/یا $RE$ را از روش های مختلف مقایسه کنم...) متشکرم! :-)
عدم قطعیت برون یابی (برازش منحنی)
95929
من یک مبتدی با BUGS/JAGS هستم و امیدوار بودم نظر شما کارشناسان را جمع آوری کنم. من سعی می کنم یک تجزیه و تحلیل پاسخ آیتم اسمی (Polytomous، غیر سفارشی، مانند یک امتحان چند گزینه ای) را با JAGS پیاده سازی کنم. من داده ها را طبق این مدل شبیه سازی کردم، اما به نظر نمی رسد کد کار کند زیرا نمی تواند پارامترهای واقعی را بازیابی کند. در اینجا مدل و تلاش من در زیر آمده است: $P_{ijk}(Y = k | \theta_{i}, \alpha_{j,k}, \delta_{j,k}) = \frac{\exp(\ alpha_{j,k} (\theta_{i} - \delta_{j,k}))}{\sum_{h=1}^{m}(\exp(\alpha_{j,h} (\theta_{i} - \delta_{j,h}))}$ جایی که: i = i-امین موضوع j = j-امین مورد k = k-امین گزینه (گزینه چندگانه) من از کد موجود آگاه هستم برای مشکلات مشابه، اما من هیچ چیز خاصی برای مدل Nominal پیدا نکردم. می‌توانید لطفاً: * مشکل موجود در کدم را به من نشان دهید * یا به من پیشنهاد دهید که کجا می‌توانم تکه‌هایی از کد BUGS/JAGS را پیدا کنم. { for (k در 1 : nجایگزینها ) { prob[ i , j , k ] <- exp( -alpha[ j , k ] * ( teta[ i ] - دلتا[ j , k ] ) ) } } } for ( i in 1 : nSubj ) { for ( j in 1 : n Item ) { for ( k in 1 : n Alternatives ) { PI [ i , j ] <- ( prob[ i , j , k ]/(جمع( prob[i, j, ])) } } } for (i in 1: nSubj) { for (j in 1: nItem) {y[i, j] ~ dcat(PI[i, j])}}
BUGS/JAGS برای مدل پاسخ اسمی
12549
چگونه می توانم یک متغیر (تبدیل غیر خطی) را طوری تبدیل کنم که مقادیر آن به طور یکنواخت پخش شوند، یعنی اوج را در وسط هیستوگرام کاهش دهیم و بیشتر به سمت دنباله ها حرکت کنیم؟
چه ترتیبی برای حفظ تبدیل باعث می شود داده ها به طور یکنواخت پخش شوند، اوج را کاهش داده و دم توزیع را چاق کنند؟
29835
رابی مک کیلیام در کامنتی به این پست می‌گوید: > لازم به ذکر است که از دیدگاه مکررگرایان، هیچ دلیلی وجود ندارد که نتوانید دانش قبلی را در مدل بگنجانید. از این نظر، دیدگاه مکرر ساده‌تر است، شما فقط یک مدل و مقداری داده دارید. نیازی به جدا کردن اطلاعات قبلی از مدل نیست همچنین، در اینجا، @jbowman می‌گوید که افراد مکرر از منظم‌سازی توسط تابع هزینه/جریمه استفاده می‌کنند، در حالی که بیزی‌ها می‌توانند این را مقدم کنند: > مکررها متوجه شدند که منظم‌سازی خوب است، و کاملاً از آن استفاده می‌کنند. > معمولاً این روزها - و پیشین های بیزی را می توان به راحتی به عنوان > منظم سازی تفسیر کرد. بنابراین، سوال من این است که آیا مکرر گرایان به طور کلی می توانند آنچه را که بیزی ها به عنوان پیشین مشخص می کنند در مدل های خود بگنجانند؟ با در نظر گرفتن منظم‌سازی به‌عنوان مثال، آیا تابع هزینه/جریمه واقعاً در مدل ادغام شده است یا این یک ابزار کاملاً مصنوعی برای تنظیم راه‌حل (و همچنین منحصربه‌فرد کردن آن) است؟
فراوانی و پیشی
11093
عذرخواهی برای آنچه که احتمالاً یک سوال بسیار اساسی است. من هم اینجا و هم در مکان های معمولی به اطراف نگاه کرده ام و هیچ شانسی نداشته ام. من خوانده‌ام که حداقل دو روش برای تبدیل خطی داده‌ها وجود دارد تا بتوانید به توزیع خود انحراف استاندارد دلخواه بدهید. آنها چه هستند و آیا مواردی وجود دارد که بخواهید از یک روش به جای روش دیگر استفاده کنید؟ فقط برای مشخص بودن، فرض کنید شما نمرات آزمون از 0 تا 50، میانگین 35 و sd از 10 دارید، و می خواستید مقیاس گذاری مجدد کنید تا sd 15 باشد.
تغییر مقیاس برای انحراف استاندارد مورد نظر
82076
برای مقایسه توزیع ها، استفاده از باکس بلات معمول است. من به دنبال یک معیار تشابه هستم که محاسبه کند آیا توزیع ها مشابه هستند یا نه. در حالت ایده آل، با توجه به اینکه به عنوان مثال. چهار توزیع دقیقاً یکسان هستند، 1 را برمی گرداند. هر چه بیشتر متفاوت باشند، به 0 نزدیک می شود. برای محاسبه آن، آیا داشتن اندازه نمونه یکسان اجباری است؟ با تشکر از کمک شما.
اندازه گیری شباهت بین توزیع های چندگانه
95925
میخواستم بدونم که آیا مطلب زیر درسته؟ من سعی می‌کنم سری‌های زمانی را برای ثابت بودن آزمایش کنم، اما یادداشت‌های سخنرانی که به من داده می‌شود بسیار کم هستند. با منابع خارجی، فکر می‌کنم مفهوم را درک می‌کنم، اما می‌خواستم ببینم آیا کسی می‌تواند تأیید کند که فکر من درست است. **سری های آزمایشی با میانگین غیر صفر** فرض کنید $x_t$ دارای میانگین غیر صفر $\mu$ است * فرض کنید $\mu$ در زمان ثابت است، یعنی $\mu_t = \mu_{t-1} = \ldots =: \mu$ برای همه $t$. * **این قسمتی است که من در مورد آن مطمئن نیستم زیرا در یادداشت های سخنرانی من از آن صرف نظر شده است:** چون میانگین ثابت است، نباید بر نتیجه گیری ما تأثیر بگذارد که آیا $x_t$ ثابت است یا غیر ثابت $\مطمئناً$ آزمایش می کنیم که آیا $x_t$ با در نظر گرفتن \begin{eqnarray*}\begin{array}{llllll} &x_{t-1} - ثابت یا غیر ثابت است - \mu_t = \rho(x_{t-1}-\mu_{t-1}) + \varepsilon_t\\\ یعنی &x_t - \mu = \rho(x_{t-1} - \mu) + \varepsilon_t&&\ textrm{(از $\mu_t=\mu\forall t$)} \end{array} \end{eqnarray*} و تست \begin{equation*} H_0:\rho=1\quad \textrm{against}\quad H_1:\rho<1 \end{equation*} * در این مورد، زیر $H_0$، $\rho=1$ داریم به طوری که \شروع{معادله*} x_t - \mu = \rho(x_{t-1} - \mu) + \varepsilon_t = (1)(x_{t-1} - \mu) + \varepsilon_t = x_{t-1} - \mu + \varepsilon_t \end{معادله*} بنابراین میانگین از معادله خارج می‌شود. * اما اگر $\rho<1$، یعنی اگر $H_1$ درست باشد و $x_t$ ثابت باشد، \begin{eqnarray*}\begin{array}{clrlllll} &&x_t - \mu &=& \rho(x_{ t-1} - \mu) + \varepsilon_t\\\ &\iff&x_t - \mu - x_{t-1} &=& \rho(x_{t-1} - \mu) - x_[{t-1}+ \varepsilon_t\\\ &\iff&x_t - x_{t-1} &=& (\rho -1)\mu + ( 1-\rho) x_{t-1} + \varepsilon_t\\\ &\iff& x_{t}-x_{t-1} &=& \alpha + \delta x_{t-1}+\varepsilon_t \end{array} \end{eqnarray*} بنابراین ضریب وقفه $\alpha=(\rho-1)\mu$ برابر با 0 $\implies$ نیست، باید یک رهگیری اضافه کنیم . * روال آزمایش اکنون به این صورت است که $x_t - x_{t-1}$ روی $x_{t-1}$ پسرفت می‌کند و آیا $\delta<0$ را آزمایش می‌کند. مقادیر بحرانی از توزیع دیکی فولر گرفته شده است.
آزمایش سری های زمانی با میانگین غیر صفر برای ایستایی
113446
آیا تست Mantel با نمونه های توزیع شده غیرعادی کار می کند؟ من نتوانستم چیزی به اندازه کافی واضح در مورد آن پیدا کنم.
مفروضات داده های تست Mantel
113449
من مدل $y_i=\beta_1+\beta_2 X_i+ u_i$ را دارم که در آن $u_i\sim\text{iid } N(0,\sigma^2)$ است. من $\beta_1$ و $\beta_2$ را با کشیدن یک خط مستقیم بین اولین $(x_1,y_1)$ و آخرین نقطه $(x_n,y_n)$ تخمین می زنم. بنابراین، $\hat{\beta}_2$ شیب این خط مستقیم خواهد بود. واریانس $\hat{\beta}_2$ (تخمین $\beta_2$) چقدر است؟ یک آزمون t برای $H_0 بسازید: \beta_2=0$. فاصله اطمینان 95 درصد برای $\beta_2$ چقدر است؟ وقتی واریانس $\hat{\beta}_2$ را محاسبه می کنم، می بینم که برابر با 0 است. آیا واقعاً می تواند 0 باشد؟ اگر واریانس و در نتیجه خطای استاندارد صفر باشد با آزمون t و فاصله اطمینان چه اتفاقی می‌افتد؟
واریانس متغیر تصادفی
12547
من جفت مقادیر از دو اجرا (تکرار) برای هر نمونه به همراه تعداد کل برای هر اجرا دارم. من هر مقدار را به صورت دوجمله ای تصادفی در نظر گرفتم. من برای مقایسه هر جفت از آزمون نسبت log-lihood استفاده کردم، اما محدوده داده های من گسترده است، به عنوان مثال. X1، X2 = (0،0)، (0،1)، (0،2)، ...، (20، 20) با تعداد کل برای هر اجرا (n1، n2) از صدها تا هزاران متغیر است. بنابراین داده‌های من به این صورت است: ID X1 X2 n1 n2 A1 0 0 119 230 A2 0 1 213 185. . . . . . . . . . . . . . . A200 15 23 2300 1735 چه تستی برای آن مناسب و قدرت خواهد بود؟ قبلاً تست نسبت درستنمایی را امتحان کرده‌ام، چگونه می‌توانم تست دقیق فیشر را در R برای آن پیاده‌سازی کنم؟ هر تست دیگری که ممکن است از شرایط X1 X1 + X2 استفاده کند! هر گونه کمکی قدردانی خواهد شد. من می خواهم آن را در R پیاده سازی کنم، بنابراین کدهای / تابع R مفیدتر خواهد بود. پیشاپیش ممنون
آزمون مناسب برای آزمایش یک جفت متغیر دوجمله ای تصادفی
88761
برای نمونه گیری تصادفی ساده، می دانم که احتمال اینکه هر نقطه بخشی از نمونه باشد باید برابر باشد. همچنین، هر نمونه با اندازه ای که بگوید $k$ باید به همان اندازه محتمل باشد. در روش نمونه‌گیری که در حال حاضر استفاده می‌کنم، احتمال اینکه هر نقطه بخشی از نمونه باشد، یکسان است. با این حال، اگر نقطه ای انتخاب شود، برخی از نقاط به احتمال زیاد بخشی از نمونه هستند. سوال من این است که معیار دوم برای نام نمونه تصادفی ساده چقدر اهمیت دارد و آیا چنین نمونه ای نام فنی دارد؟
چگونه باید با نمونه های همبسته رفتار کنم
83675
بگویید من مرکزها را از طریق kMeans محاسبه کرده‌ام و خوشه‌ها را شناسایی کرده‌ام. چگونه می توانم یک نقطه داده ورودی (یک ردیف در ماتریس با تمام ویژگی ها) بگیرم تا با نقاط مقایسه کنم و بفهمم که نقطه داده متعلق به کدام خوشه است؟ چگونه یک زمان اجرا مانند این طراحی کنیم؟ من فرض می‌کنم که ما فقط باید خوشه‌بندی را هر x ساعت محاسبه کنیم و هرازگاهی از نتیجه خوشه مطمئن شویم. هر گونه پاسخ قدردانی خواهد شد! سایمون تازه کار یادگیری ماشین
چگونه یک نقطه داده را با خوشه k-means مقایسه کنیم
7476
قبل از ارسال متاآنالیز خود، می‌خواهم یک نمودار قیفی برای آزمایش ناهمگنی و سوگیری انتشار ایجاد کنم. من اندازه اثر تلفیقی و اندازه اثر هر مطالعه را دارم که مقادیری از -1 تا +1 را می گیرد. من حجم نمونه n1، n2 را برای بیماران و گروه شاهد از هر مطالعه دارم. از آنجایی که نمی توانم خطای استاندارد (SE) را محاسبه کنم، نمی توانم رگرسیون Egger را انجام دهم. من نمی توانم از SE یا precision=1/SE در محور عمودی استفاده کنم. ### سوالات * آیا هنوز هم می توانم یک نمودار قیف با اندازه اثر روی آکسون افقی و اندازه کل نمونه n (n=n1+n2) روی محور عمودی ایجاد کنم؟ * چنین طرح قیفی را چگونه باید تفسیر کرد؟ برخی از مقالات منتشر شده چنین نمودار قیفی را با حجم نمونه کل در محور عمودی ارائه کردند (Pubmed PMIDs: 10990474، 10456970). همچنین ویکی‌های طرح قیف ویکی‌پدیا در این مورد موافق هستند. اما مهمتر از همه، مقاله ماتیاس ایگر در BMJ 1999 (PubMed PMID: 9451274) چنین نمودار قیفی را نشان می دهد، بدون SE بلکه فقط اندازه نمونه در محور عمودی. ### سوالات بیشتر * آیا زمانی که خطای استاندارد مشخص نیست چنین طرحی قابل قبول است؟ * آیا همان نمودار قیف کلاسیک با SE یا presicion=1/SE روی آکسون عمودی است؟ * آیا تعبیر آن متفاوت است؟ * چگونه باید خطوط را برای ایجاد مثلث متساوی الاضلاع تنظیم کنم؟
نمودار قیف جایگزین، بدون استفاده از خطای استاندارد (SE)
50922
من اندازه‌گیری‌های میدانی بازتاب طیفی را برای تحقیقی برای نقشه‌برداری مجموعه‌های پوشش گیاهی مختلف به‌دست آورده‌ام. من توانستم از آزمون میانه و آزمون H Kruskal-wallis با Tukey post hoc در SPSS برای تعیین مجموعه های گیاهی با تفاوت معنی دار بین آنها استفاده کنم. با این حال، من باید تعداد جفت‌های پوشش گیاهی را بدانم که تفاوت‌های قابل‌توجهی بین آنها در هر طول موج بازتاب‌های طیفی گرفته شده وجود دارد. رادیومتر طیفی ASD که استفاده کردم، اندازه‌گیری‌های طیفی را در فواصل 1 نانومتری بین 350 تا 2500 (یعنی 2151) ثبت کرد. من به تعداد تفاوت های آماری معنی دار برای هر یک از اینها نیاز دارم. من بیش از 3 هفته را صرف بررسی مقالات و کتاب‌هایی کرده‌ام که تکنیک‌های غیر پارامتری و این رویکرد خاص را توصیف می‌کنند، اما هیچ‌کدام از آنها واقعاً جزئیاتی را درباره نحوه انجام آن یا نحوه انجام آن ارائه نکرده‌اند. ممکن است این باشد که من فقط نتایج را به درستی تداخل نمی کنم. من از یک پیشینه آماری نیستم اما باید آمار را در این تحقیق خاص اعمال کنم. NB. پس از خواندن چند پست در اینجا، در حالی که در جستجوی پاسخ بودم، مشاهده کردم که گنجاندن نمونه‌ای از داده‌هایی که دارم ممکن است مشکل را بسیار قابل درک‌تر کند. بنابراین در زیر نمونه ای از داده ها برای 3 مجموعه پوشش گیاهی آمده است. 21 مورد از این مجموعه گیاهان و 2151 باند طول موج وجود دارد. با آزمون Kruskal-Wallis F، 21 پوشش گیاهی منجر به 210 جفت ترکیب می شود. مشکل من همانطور که در بالا توضیح داده شد این است که چه تعداد از اینها به طور قابل توجهی در هر یک از باندهای طول موج متفاوت هستند. 350, 351, 352, ..... لطفاً توجه داشته باشید که تعداد طول موج در هر پوشش گیاهی ممکن است به دنبال حذف نویز در طیف های اندازه گیری شده متفاوت باشد. (در داده های زیر wv = باند طول موج؛ Veg(i)_Refl = بازتاب برای شماره مجموعه گیاهی (i)) wv Veg1_Refl. wv Veg2_Refl. wv Veg3_Refl. 350 0.008174487 350 0.013188644 351 0.028514129 351 0.007655592 351 0.013734324 352 0.049535231318 0.0495351318 0.012374247 353 0.018516597 353 0.010755514 353 0.011760141 356 0.014577343 354 0.0112694012 31058. 0.050192549 355 0.013393519 355 0.012631961 358 0.054180159 356 0.014837899 356 0.014939956 358.014939956 358 359 0.013845443 357 0.015511826 360 0.046552907 358 0.011693407 358 0.014272921 361 0.036904282 3158 3519 0.013951152 362 0.006326519 360 0.011172930 360 0.013224544 363 0.011451388 361 0.010111401 31614 3146. 0.007719737 362 0.009413968 362 0.013361601 365 0.006463090 363 0.010810984 363 0.013334547 31666 0.012677799 364 0.012788702 368 0.004883761 365 0.012832758 365 0.012118639 369 0.039288373 3173660 0.011785503 370 0.027853873 367 0.012028101 367 0.012143695 371 0.024068664 368 0.012188270 3618 3618 0.026245151
تعیین تعداد اختلاف آماری معنی دار در هر طول موج
95922
من روی پردازش تصویر کار می کردم که در آن لیستی از مقادیر پیکسل دارم به عنوان مثال:-[5,2,5,2,4,2,4,2,2,2] بنابراین میانگین را 3 و واریانس را 1.77778 یافتم. این است که چگونه می توان احتمال توزیع داده ها را پیدا کرد، به عنوان مثال اگر داده ها [1،1،1،1،1] باشد، احتمال باید 1 باشد، اگر داده ها [1،2،3،4،5،6،7،8] سپس احتمال باید 0 باشد. نحوه محاسبه احتمال و احتمال داده های توزیع شده برای [5،2،5،2،4،2، 4،2،2،2].
نحوه یافتن احتمال یکنواختی داده ها
50927
در داده‌های من، هر نمونه دارای چندین ویژگی به‌عنوان «TRUE» یا «FALSE» است. به عنوان مثال: Instance1: X1=TRUE، X2=TRUE، X3=FALSE، ... Instance2: X1=FALSE، X2=TRUE، X3=FALSE، ... من باید یک ویژگی `TRUE`/`FALSE` طبقه بندی کنم. ، به نام Y، از هر نمونه. تا اینجا، چیزی که من می دانم احتمال شرطی $P(Y|X_1)، P(Y|X_2)، ...$، و احتمال نهایی $P(X_1)، P(X_2)، ...$ است. آیا مدلی برای هدایت استنتاج وجود دارد؟ با تشکر
طبقه بندی بر اساس چند احتمال حاشیه ای
66839
من برای یک شرکت برنامه‌ریزی مالی کار می‌کنم و کاری که می‌خواهم انجام دهم این است که دارایی‌های سرمایه‌گذاری مشتری را در طول چندین سال به جلو پیش‌بینی کنم. اگر بازده ثابت را فرض کنیم، این آسان است. هر سال 7 درصد با این حال، من می خواهم نوسانات بازده را در نظر بگیرم و بنابراین با استفاده از اکسل به دنبال توزیع نرمال، برخی از بازده های تصادفی را ایجاد کرده ام. سپس می‌خواهم فاصله اطمینان 95 درصدی را برای هر بازده نشان دهم و به مشتری نشان دهم که ما 95 درصد مطمئن هستیم که سرمایه‌گذاری اولیه 100 هزار پوندی آن‌ها در 5 سال آینده در محدوده X و Y پوند خواهد بود. یک نمونه کوچک به شرح زیر است. بازده تصادفی زیر توسط تابع =NORM.INV(RAND(),6.8%,7.5%) در اکسل ایجاد می شود. سال 1 سال 2 سال 3 سال 4 سال 5 4.4% 14.8% -3.3% 9.9% 4.4% 9.7% 12.3% 11.2% 21.8% 4.6% -3.2% 14.0% 7.0% 10.0% 5.0% 10.0% 7.4% 6.9% 11.7% 6.4% -6.3% 17.8% -8.1% 26.9% -1.4% 2.3% 9.9% 4.5% 4.0% -1.6% 8.4% 3.8% 1.5% 1.5% 1.5% 1.5% 1.7% 1.7% -0.7% 0.8% -1.1% 0.1% 7.0% 9.6% 1.4% 20.3% 13.2% -3.4% میانگین 7.9% 3.4% 4.6% 10.4% 2.9% St Dev 8.3% 8.6% 8.6% Upper 7.6% 8.6% CI . 13.0% 8.8% 9.4% 14.3% 7.5% CI کمتر 2.7% -1.9% -0.3% 6.5% -1.8% مبلغ سرمایه گذاری 100,000 پوند ارزش صندوق آینده سال 1 سال 2 سال 3 سال 4 سال 5110 پوند £109,434 £ 114,272 £ 107,528 میانگین £ 107,850 £ 103,420 £ 104,560 £ 110,390 £ 102,860 پایین تر £ 102,705 £ 98,075 £ 98192 پوند سوالی که دارم این است که چون ما بازده بالا و بازده کمتر را در سال در نظر می گیریم، آیا در محدوده اغراق می کنیم؟ اگرچه فاصله اطمینان برای هر بازگشت خوب است، اما این اثر تجمعی امسال در سال است که من نگران آن هستم. آیا کاری که من انجام می دهم از نظر آماری صحیح است یا می توانید در مورد یک روش جایگزین راهنمایی کنید. هر روش جایگزینی باید بتواند هزاران بار به راحتی تکرار شود و بنابراین نمی تواند در اکسل خیلی داده فشرده باشد.
بازده سرمایه گذاری تصادفی از توزیع نرمال (و فواصل اطمینان)
16046
من داده هایی با کلاس پیوسته دارم و به دنبال روش های خوب برای کاهش تعداد ویژگی ها هستم. اکنون من از فیلترهای مبتنی بر همبستگی، جنگل های تصادفی و الگوریتم گرام اشمیت استفاده می کنم. چیزی که من می‌خواهم به آن برسم این است که پاسخ دهم کدام ویژگی‌ها مهم‌تر از ویژگی‌های کلاس هستند. با استفاده از روش هایی که قبلا ذکر کردم می توانم به این هدف برسم، اما آیا الگوریتم های خوب دیگری وجود دارد که ارزش توجه را داشته باشد؟
الگوریتم ها و روش های انتخاب ویژگی/ویژگی؟
82079
در حالی که من در حال انجام یک سری آزمایش های رگرسیون هستم، می توانم تشخیص دهم که 2 متغیر مستقل وجود دارد که به نظر می رسد از توزیع قانون توان پیروی می کنند. http://i.stack.imgur.com/QZAxh.jpg) در واقع به این فکر نکردم که با این نوع متغیرها برخورد کنم. با این حال، اکنون می توانم فکر کنم که شاید بتوانم مدل سازی را با تبدیل متغیرها بهبود بخشم. (برای یک چیز، این متغیرها را می توان به مقیاس log تبدیل کرد..) اگر شرایط ایده آلی برای متغیر مستقل یا روش خاصی برای برآورده کردن وجود داشته باشد. آن را، لطفا به من توصیه کنید.
نحوه برخورد با متغیرهای مستقلی که به نظر می رسد از توزیع قانون قدرت پیروی می کنند
7478
من مطالعه ای انجام داده ام که (؟) نتایج زیر را داشته است: - جعبه دوچرخه جعبه دوچرخه وجود ندارد % تغییر رویه صحیح 173 55 -27% روش اشتباه 68 50 69% از آنجایی که یک نتیجه می تواند تنها یکی از این دو باشد - صحیح و نادرست رویه، آیا من به هر دو کمیت در داده های خود نیاز دارم یا فقط باید یکی از آنها را تفسیر کنم؟ اگر چنین است، کدام یک را باید استفاده کنم، یا این بستگی دارد که چه چیزی را می خواهم نشان دهم؟ متاسفم که اینقدر مبهم هستم، اما امیدوارم این برای پاسخ به سوال من کافی باشد.
چگونه می توان نتایج حاصل از آزمایش تک متغیری را مقایسه کرد؟
82075
من یک جدول با پاسخ های یک نظرسنجی دارم. اکنون می خواهم معناداری آماری را بین 3 گروه از پاسخ دهندگان آزمایش کنم. دو ستون وجود دارد که من به آنها علاقه مند هستم. اولی یک متغیر ترتیبی است که اندازه شرکت را نشان می دهد (کوچک، متوسط، بزرگ). دومی یک متغیر لیکرت 5 مقیاسی است که نشان دهنده تجربه کاری است. داده ها نشان می دهد که پاسخ دهندگانی که برای یک شرکت متوسط ​​کار می کنند نسبت به پاسخ دهندگان یک شرکت بزرگ تجربه کمتری دارند و پاسخ دهندگان یک شرکت بزرگ نسبت به پاسخ دهندگان یک شرکت کوچک تجربه کمتری دارند. کدام آزمون برای آزمون اهمیت آماری این ادعا مناسب است؟
همبستگی بین گروه های مختلف (بر اساس یک متغیر ترتیبی) و یک متغیر لیکرت
50924
من می خواهم یک مطالعه قابلیت استفاده برای یک ابزار برنامه نویسی نرم افزار انجام دهم. دو نسخه از ابزار (نمونه اولیه A و نمونه اولیه B) با ویژگی‌های متفاوت وجود دارد، اما اهداف یکسانی را ممکن می‌سازد. من از شرکت کنندگان می خواهم که مجموعه ای از کارها را با استفاده از هر دو نسخه ابزار تکمیل کنند و زمان صرف شده را گزارش کنند. من زمان صرف شده توسط این دو روش را مقایسه می کنم. همان مجموعه ای از شرکت کنندگان وظایف را با استفاده از نمونه اولیه A و سپس نمونه اولیه B انجام می دهند. چگونه می توانم تعداد شرکت کنندگان مورد نیاز برای مطالعه را دریابیم؟
تحلیل توان پیشینی برای مطالعه قابلیت استفاده نرم افزار
19549
من داده های سری زمانی تک متغیره (سرعت باد در یک مکان خاص) را دارم که در فاصله زمانی 1 ساعت به مدت 5 سال اندازه گیری شده است. من از `auto.arima()` برای بدست آوردن پارامترهای زیر استفاده کردم: ar1 ar2 ma1 ma2 intercept 1.5314 -0.55 -0.1261 0.032 10.1223 s.e. 0.0105 0.0103 0.011 0.006 0.1211 sigma^2 تخمین زده شده به عنوان 0.4865 : احتمال ورود به سیستم = -83546.65 AIC = 167105.3 AICc = 167105.3 AICc = 167105.3 BIC11 با استفاده از 167 BIC1t: <- rnorm(1، 0، sqrt(sigma^2)) x[t] <- ar1*x[t-1] + ar2*x[t-2] + e[t] + ma1*e[t- 1] + ma2*e[t-2] وقتی نتیجه با تابع «forecast()» مقایسه می‌شود، پاسخ‌های کاملاً متفاوتی دریافت می‌کنم. طیف فرکانس خروجی تابع «پیش‌بینی ()» شبیه طیف فرکانس سری زمانی اصلی است. در حالی که سیگنال پیش بینی دستی مانند نویز در طیف فرکانس به نظر می رسد. من نمی توانم از تابع forecast() استفاده کنم زیرا برنامه در C++ است. آیا معادلات صحیح است؟ راه درست پیش بینی از روی ضرایب چیست؟
پیش بینی سری های زمانی تک متغیره بر اساس auto.arima
110616
من یک مجموعه داده ورودی «x_train» و یک مجموعه داده خروجی «y_train» دارم > head(x_train) Symscore1 Symscore2 تمرین3 مدت تمرین3 تغییر گروه 1 1 0 2 3 انتقالی به انتقالی 2 1 3 5 3 انتقالی به انتقالی 3 1 0 1 0 انتقالی 4 به 1 0 4 3 انتقالی به انتقالی 5 1 0 1 0 انتقالی به یائسگی 6 0 0 5 2 سن انتقالی به یائسگی3 بسته سال bmi3 آموزش3 1 55 0.000000 20.89796 دبیرستان 2 49 1.000000 20.2000000 20.2000000 20.2000000 20.2000000 20.2000000 20.2000000 30.47797 Basic 4 51 0.000000 34.13111 Highschool 5 52 2.357143 23.24380 Basic 6 62 2.000000 16.76574 University > summary(x_core syn3 exercise. :0.0000 دقیقه :0.0000 دقیقه :0.000 دقیقه :0.000 1st Qu.:0.0000 1st Qu.:0.0000 1st Qu.:3.000 Qu. 1:2.000 Median :0.0000 Median :0.0000 Median :4.000 Median :3.000 Median :3.000 Mean :3.000 Mean :3.000 Mean :3.000 Mean :3.000 Mean.769 Mean :0 :3.612 Mean :2.503 3rd Qu.:1.0000 3rd Qu.:1.0000 Qu. 3:5.000 Qu. 3:3.000 Max. حداکثر : 50000 حداکثر : 50000 حداکثر: 5000 :4000 تغییر گروه سنی3 بسته سال عادی به معمولی: 399 دقیقه. : 45.00 دقیقه : 0.000 منظم به انتقالی : 211 1st Qu.: 49.00 1st Qu.: 0.000 منظم تا یائسگی : 211 میانه :54.00 میانه: 0.000 انتقالی به انتقالی: 1033 Mean :0.000 Menopsalau :536. :1016 3rd Qu.:58.00 3rd Qu.: 5.000 یائسگی تا یائسگی : 188 حداکثر. حداکثر :66.00 :97.143 bmi3 Education3 Min. :16.10 پایه : 360 اول اول: 22.32 دبیرستان: 1225 میانه :24.77 دانشگاه: 1473 میانگین : 25.62 سوم سوم: 27.73 حداکثر. :66.10 > dim(x_train) [1] 3058 9 > > summary(y_train) 0 1 2 3 4 5 1794 737 299 129 69 30 > از بسته R randomForest من یک جنگل طبقه بندی rf_c (=xytra) را اجرا کردم. =y_train,ntree = 100, type=classification) خطای آموزش بسیار کم است در حالی که عملکرد پیش بینی بسیار بد است > جدول(predict(rf_c, newdata = x_train), y_train) y_train 0 1 2 3 4 5 0 1794 10 6 2 0 0 1 0 727 0 0 0 0 2 0 0 293 صفر 41 12 3 2 0.7530529 2 157 77 43 14 8 0 0.8561873 3 52 42 19 10 5 1 0.9224806 4 25 13 27 1 3 5 0 42 13 0 1.0000000 > این باعث می شود فکر کنم که مشکل بیش از حد برازش وجود دارد. طبق تئوری، جنگل تصادفی هرگز نباید بیش از حد تناسب داشته باشد و این به نظر من بسیار عجیب است. همانطور که از داده ها مشاهده می شود y_train بسیار نامتعادل است و کلاس 0 بسیار بزرگتر از سایرین است. این ممکن است دلیل چنین عملکرد پایینی باشد. من می خواهم بدانم چگونه می توان این مدل را بهبود بخشید. از هر نظر مرزی نیز استقبال می شود.
چگونه از تطبیق بیش از حد تصادفی جنگل جلوگیری کنیم و پیش بینی را بهبود دهیم؟
19096
اساساً آنچه من تعجب می کنم این است که چگونه ساختارهای کوواریانس مختلف اعمال می شوند و مقادیر درون این ماتریس ها چگونه محاسبه می شوند. توابعی مانند lme() به ما این امکان را می دهد که ساختاری را که می خواهیم انتخاب کنیم، اما من دوست دارم بدانم چگونه آنها تخمین زده می شوند. مدل جلوه های مختلط خطی $Y=X\beta+Zu+\epsilon$ را در نظر بگیرید. جایی که $u \stackrel{d}{\sim} N(0,D)$ و $\epsilon \stackrel{d}{\sim} N(0,R)$. علاوه بر این: $Var(Y|X,Z,\beta,u)=R$ $Var(Y|X,\beta)=Z'DZ+R=V$ برای سادگی، $R=\sigma^ را فرض می کنیم 2I_n$. اساساً سؤال من این است: $D$ دقیقاً چگونه از داده‌های پارامترهای مختلف تخمین زده می‌شود؟ اگر فرض کنیم $D$ مورب است (اثرات تصادفی مستقل هستند) یا $D$ کاملاً پارامتری شده است (موردی که در حال حاضر بیشتر به آن علاقه دارم) یا هر یک از پارامترهای مختلف دیگر؟ آیا برآوردگر/معادلات ساده ای برای اینها وجود دارد؟ (این بدون شک به صورت تکراری تخمین زده می شود.) **ویرایش:** از کتاب Variance Components (Searle, Casella, McCulloch 2006) من موفق به درخشش موارد زیر شده ام: اگر $D=\sigma^2_uI_q$ پس از آن مؤلفه‌های واریانس به‌صورت زیر به‌روزرسانی و محاسبه می‌شوند: $\sigma_u^{2(k+1)} = \frac{\hat{\textbf{u}}^T\hat{\textbf{u}}} {\sigma_u^{2(k)}\text{trace}(\textbf{V}^{-1} \textbf{Z}^T\textbf{Z})}$\sigma_e^{2(k+1)} = Y'(Y-X{\hat{\beta}}^{(k)}-{Z}\hat{{u}}^{(k)})/n$ Where $\hat{\beta}^{( k)}$ و $\hat{{u}}^{(k)}$ به ترتیب به‌روزرسانی‌های $k$th هستند. آیا زمانی که $D$ مورب بلوک یا کاملاً پارامتر شده باشد، فرمول های کلی وجود دارد؟ من حدس می‌زنم در حالت کاملاً پارامتری، از تجزیه Cholesky برای اطمینان از قطعیت و تقارن مثبت استفاده می‌شود.
در عمل چگونه ماتریس کوواریانس اثرات تصادفی در یک مدل اثرات مختلط محاسبه می شود؟
88769
از ویکی‌پدیا > خانواده توزیع‌های نرمال مختلط، متغیرهای تصادفی > پیچیده را مشخص می‌کند که بخش‌های واقعی و خیالی آنها به طور مشترک نرمال هستند، 1 یعنی به طور معمول > توزیع شده و **مستقل**. تعریف در همان مقاله این است > فرض کنید $X$ و $Y$ بردارهای تصادفی در $\mathbb{R}^k$ هستند به طوری که $vec[X > Y]$ یک بردار تصادفی معمولی $2k$-بعدی است. سپس می گوییم که بردار مختلط > تصادفی $$ Z = X + iY \، $$ دارای توزیع نرمال مختلط است. آیا مستقل به معنای استقلال بین متغیرهای تصادفی $X$ و $Y$ است یا استقلال خطی بین بردارهای $X$ و $Y$ در فضای برداری $\mathbb{R}^k$؟ اگر اولی، چرا تعریف نیازی به مستقل بودن X$ و $Y$ ندارد؟ با تشکر
استقلال در تعریف توزیع پیچیده گاوسی
88763
داده های زیر را در مورد خرابی لامپ (که برای تعمیر نیاز به تعویض فیلامنت دارند) در مقایسه با سه شرکت در نظر بگیرید: P(1st شکست) | P(شکست دوم | شکست اول) | P(شکست سوم | شکست دوم) ------------------------------------------ -------------------------------------------- شرکت A 1 در 4.0 | 1 در 5.9 | 1 در 6.1 شرکت B 1 در 3.1 | 1 در 6.1 | 1 در 9.2 شرکت ج 1 در 18 | 1 در 8.1 | 1 در 4.0 این داده متعاقباً برای رسم نمودار زیر استفاده شد: ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/d0LZv.png) مقادیر فقط با تقسیم اعداد در جدول به دست آمدند ( به عنوان مثال، 1/4.0، 1/5.9، 1/6.1 برای به دست آوردن میله های شرکت A و غیره). از این به بعد، استنباط زیر حاصل شد: * احتمال شکست اول برای شرکت A و شرکت B زیاد است اما لامپ های شرکت C قوی هستند * پس از اولین شکست، روند کاهشی برای شرکت A و شرکت B وجود دارد که نشان می دهد رشته آنها جایگزینی موثر است. با این حال، این مورد برای شرکت C نیست. * پس از شکست دوم، روند افزایشی برای شرکت C حتی بیشتر قابل مشاهده است و نشان می دهد که جایگزینی فیلامنت توسط شرکت C موثر نیست. بنابراین، منطقی است که در صورت خرابی لامپ ها از شرکت C جایگزین شوند (با فرض اینکه هزینه تعمیر برای هر خرابی بسیار بالا باشد). من دو سوال خاص دارم: * آیا این استنباط ها منطقی هستند؟ اگر بله، نمودار میله‌های احتمال و احتمال شرطی را در کنار یکدیگر ترسیم می‌کند. آیا این درست است یا راه های بهتری برای نشان دادن این موضوع وجود دارد؟ * اگر خود استنباط ها نادرست باشند، چه چیزی را باید از داده های داده شده استنباط کنم؟ و بهترین راه برای نشان دادن این در نمودار چیست؟
استنتاج از مقادیر احتمال شرطی
81458
من فرکانس الگوهای دوتایی باقیمانده‌های قطبی و غیرقطبی را در رشته‌های گیره‌های موی بتا ضد موازی از ۵ مجموعه مختلف گیره‌های بتا موازی دارم. من می خواهم بدانم چگونه می توانم شباهت یا تفاوت بین فرکانس های الگوهای باینری را در بین آن 5 مجموعه سنجاق سر بتا تعیین کنم. آیا روش های آماری وجود دارد؟ فقط برای اطلاع بیشتر که من همبستگی بین فرکانس های الگوهای بین آن مجموعه ها را محاسبه کردم و ضریب همبستگی را بین 0.85 تا 0.95 پیدا کردم و به این نتیجه رسیدم که الگوهای باینری در بین 5 مجموعه بتای موازی ضد موازی مشابه هستند. این درسته؟؟
مقایسه فرکانس های 32 الگوی باینری در بین 5 مجموعه مختلف
95920
من به دنبال الگوی گام تاب زمانی پویا (بسته dtw برای R) هستم، که اجازه می دهد یک مقدار شاخص پرس و جو را به چندین مقدار شاخص مرجع تخصیص دهیم (برای مثال `symmetric2` این کار را انجام می دهد). با این حال، من می‌خواهم تخصیص چندین مقدار نمایه پرس و جو را به یک مقدار شاخص مرجع محدود کنم، به طوری که در هر مرجع فقط یکی باشد. مقدار شاخص مجاز است. به عبارت دیگر، مقادیر شاخص پرس و جو قبلی مجاز به تخصیص به همان مقدار شاخص مرجع نیستند. در اینجا یک مثال برای R آورده شده است: مرجع <- ساختار(لیست(تاریخ = ساختار(c(15218, 15219, 15220, 15221, 15222, 15223, 15224, 15225, 15226, 15227, 15223, 15229, 15231, 15232, 15233, 15234, 15235, 15236, 15237, 15238, 15239, 15240, 15241, 15242, 15243, 1524, 11524 15247, 15248, 15249, 15250, 15251, 15252, 15253, 15254, 15255, 15256, 15257, 15258, 15252, 15252, 1526 15263، 15264، 15265، 15266، 15267، 15268، 15269، 15270، 15271، 15272، 15273، 15274، 15275، 1527، 1527، 15279, 15280, 15281, 15282, 15283, 15284, 15285, 15286, 15287, 15288, 15289, 15290, 15290, 15291, 11529, 1529 15295، 15296، 15297، 15298، 15299، 15300، 15301، 15302، 15303، 15304، 15305، 15306، 15307، 1530، 1530، 1530 15311, 15312, 15313, 15314, 15315, 15316, 15317, 15318, 15319, 15320, 15321, 15322, 15322, 15323, 11532 15327, 15328, 15329, 15330, 15331, 15332, 15333, 15334, 15335, 15336, 15337, 15338, 15332, 1534, 11534 15343, 15344, 15345, 15346, 15347, 15348, 15349, 15350, 15351, 15352, 15353, 15354, 15355, 15358, 1535 15359, 15360, 15361, 15362, 15363, 15364, 15365, 15366, 15367, 15368, 15369, 15370, 15371, 15373, 1537, 1537 15375، 15376، 15377، 15378، 15379، 15380، 15381، 15382، 15383، 15384، 15385، 15386، 15387، 1538، 1538، 1538 15391, 15392, 15393, 15394, 15395, 15396, 15397, 15398, 15399, 15400, 15401, 15402, 15403, 1540, 11540 15407, 15408, 15409, 15410, 15411, 15412, 15413, 15414, 15415, 15416, 15417, 15418, 15412, 115420 15423, 15424, 15425, 15426, 15427, 15428, 15429, 15430, 15431, 15432, 15433, 15434, 15435, 15437, 11543 15439, 15440, 15441, 15442, 15443, 15444, 15445, 15446, 15447, 15448, 15449, 15450, 15451, 15451, 11545 15455، 15456، 15457، 15458، 15459، 15460، 15461، 15462، 15463، 15464، 15465، 15466، 15467، 11546، 1546 15471, 15472, 15473, 15474, 15475, 15476, 15477, 15478, 15479, 15480, 15481, 15482, 15483, 1548, 1548 15487, 15488, 15489, 15490, 15491, 15492, 15493, 15494, 15495, 15496, 15497, 15498, 15492, 11550 15503، 15504، 15505، 15506، 15507، 15508، 15509، 15510، 15511، 15512، 15513، 15514، 15515، 1551، 1551 15519, 15520, 15521, 15522, 15523, 15524, 15525, 15526, 15527, 15528, 15529, 15530, 15531, 1553, 1553, 1553 15535, 15536, 15537, 15538, 15539, 15540, 15541, 15542, 15543, 15544, 15545, 15546, 15547, 1555, 1554 15551, 15552, 15553, 15554, 15555, 15556, 15557, 15558, 15559, 15560, 15561, 15562, 15563, 1556, 1556 15567, 15568, 15569, 15570, 15571, 15572, 15573, 15574, 15575, 15576, 15577, 15578, 15578, 15572, 1558, 1558 15583، 15584)، کلاس = تاریخ)، مقدار = c(3.32839119647413، 3.34603352984559، 3.36355987402806، 3.38096991271589، 3.38096991273347413، 3.41543980838506، 3.43249903275512، 3.44944068640796، 3.46626445303796، 3.48297001633945، 3.4905، 3.44944068640796 3.51602526773439, 3.53237432321654, 3.54860391014763, 3.56471371222201, 3.58070341313403, 3.596, 3.596. 3.61232124624846, 3.62794874583957, 3.64345487904576, 3.65883932956138, 3.6741017810808, 3.618924 3.70425942190843, 3.71915397860536, 3.73392527108351, 3.74857298303724, 3.76309679816091, 3.7392527108351, 3.76309679816091, 3.7074 3.79177147269547, 3.80592169949509, 3.81996831865104, 3.83393095282951, 3.84780686256915, 3.80615. 3.8752875508865، 3.88888685054149، 3.90238846791221، 3.91578966353732، 3.92908769795544، 3.923،94727 3.95536332532531، 3.96833543935435، 3.98119343433097، 3.99393457079383، 4.00655610928155، 4.0103، 4.010 4.0314294344862, 4.0436757422804, 4.05579149425404, 4.06777395094576, 4.07962037289422, 4.09138 4.10289415471587, 4.11431603566636, 4.12559092402814, 4.13671608033986, 4.14768876514016, 4.12866, 4.158 4.16916576236107، 4.17966459585896، 4.19، 4.20016543643947، 4.21015788364065، 4.21997987735426، 4.21997987735426، 4.21997987735426، 4.21997987735426 4.23912264732151, 4.24844849507654, 4.25761403234677, 4.26662179488289, 4.2754743184356, 4.28475 4.29272379159356، 4.3011258127002، 4.30938273782621، 4.31749710272227، 4.32547144313909، 4.326,338 4.34101019353778, 4.34857967502104, 4.35601927502782, 4.36333152930884, 4.37051897361478, 4.34764 4.38452957530421، 4.39135780418908، 4.
جستجوی الگوی گام تاب زمانی پویا
82699
من تست 2 نمونه ای را برای برابری نسبت ها با تصحیح پیوستگی انجام داده ام. (این دومین دوره آماری است که من در حال مطالعه هستم، بنابراین اساساً هیچ چیز نمی دانم، حداقل این احساس را دارم.) من برای اولین بار در این دوره از 'R' و Rstudio استفاده می کنم. من نمی دانم چگونه نتایج این آزمایش را تفسیر کنم. y1 <- 52 n1 <- 89 y2 <- 40 n2 <- 91 prop.test(c(y1,y2), c(n1,n2), جایگزین = بزرگتر، conf.level=0.99) تست 2 نمونه برای برابری نسبت ها با داده های تصحیح پیوستگی: c(y1, y2) از c(n1, n2) X-squared = 3.2138، df = 1، p-value = 0.03651 فرضیه جایگزین: فاصله اطمینان 99 درصد بیشتر: -0.03792798 1.00000000 تخمین نمونه: prop 1 prop 2 0.5842697 0.4395-3604 است. با چی مقایسه کنم؟ و چه نتایجی حاصل می شود؟ آیا فرضیه صفر را رد می کنم یا حفظ می کنم؟ من تقریبا هیچ چیز نمی دانم، پس لطفا آن را ساده نگه دارید.
تفسیر نتیجه آزمون 2 نمونه ای برابری نسبت ها با تصحیح پیوستگی
114119
من در حال تجزیه و تحلیل مجموعه ای از داده ها هستم که دارای یک دنباله بسیار بلند است و به دنبال راهی برای انتقال داده ها به یک منحنی زنگ هستم تا بتوانم تجزیه و تحلیل آماری را روی آن اعمال کنم. امیدوارم این منطقی باشد، هر کمکی بسیار قدردانی خواهد شد. **ویرایش** داده های من تعداد پست های یک انجمن آنلاین است، تعداد کمی از کاربران تعداد زیادی پست دارند، در حالی که بیشتر آنها فقط تعداد کمی دارند. من در حال تلاش برای یافتن دو انحراف استاندارد از میانگین هستم، اما معلوم شد که توزیع نرمال نیست. بنابراین من در تلاش هستم تا چگونگی تبدیل آن به توزیع عادی را پیدا کنم.
مجموعه داده های دم بلند را به منحنی زنگ تبدیل کنید
19097
آیا مشابهی برای لحظه بالاتر نابرابری های چبیشف در مورد یک طرفه وجود دارد؟ به نظر می رسد که نابرابری چبیشف-کانتلی فقط برای واریانس کار می کند، در حالی که نابرابری چبیشف به راحتی می تواند برای همه شارح ها تولید شود. آیا کسی از نابرابری یک طرفه با استفاده از لحظات بالاتر اطلاعی دارد؟
نابرابری یک طرفه چبیشف برای لحظه بالاتر
81521
وقتی از شما خواسته می‌شود «همه مجموعه‌های مکرر آیتم‌ها را بیابید»، آیا فقط مجموعه‌ای که آخرین بار کار شده است، پاسخی است که باید بدهید یا اینکه قبل از آن نیز لازم است همه را بدهید. به عنوان مثال، اگر آخرین نتایجی که برای یک مجموعه به دست می‌آورم (A,B,D) باشد، این است که مجموعه آیتم‌های مکرر من یا باید تمام مواردی که قبل از آن پیدا شده‌اند را نیز درج کنم که «minSup» را نیز برآورده می‌کند، به عنوان مثال، (A ، ب) (الف، د) (ب، د) و غیره؟
داده کاوی: مجموعه آیتم های مکرر
110612
من در تلاش هستم تا در مورد یک ماده تحت آزمایش کشش نتیجه‌گیری قابلیت اطمینان حاصل کنم. تمام داده های من حداکثر از سنسور استفاده می کند. مشخصات 8 lbf است و من یک لودسل 50 پوندی را به حداکثر می‌رسانم. یک سنسور بزرگتر بگیرید کمکی نمی کند، زیرا من سعی می کنم با حذف تست در هزینه صرفه جویی کنم، نه اینکه بیشتر هزینه کنم (من واقعاً اهمیتی نمی دهم که ارزش آن چقدر است). به غیر از اینکه نمونه ها را به عنوان داده های ویژگی تلقی کنیم، آیا نتیجه ای وجود دارد که بتوانم از مجموعه داده ای بگیرم که در واقع کاملاً درست سانسور شده است، با توجه به اینکه مقدار سانسور 6 برابر مشخصات است؟ من حدود 250 نمونه دارم، بنابراین می توانم 95/98.x اطمینان / قابلیت اطمینان را ادعا کنم، اما می خواهم بتوانم بیشتر ادعا کنم. هر ایده ای؟ با تشکر
آیا نتیجه‌گیری قابلیت اطمینان از بسیاری از نقاط داده تکراری وجود دارد؟
50929
**سوال من:** هنگام انجام تجزیه و تحلیل SVD، می توانید حداکثر مشارکت کنندگان هر جزء را از ماتریس V استخراج کنید - آیا علامت مولفه مهم است؟ **زمینه** من در حال حاضر از کلاس Coursera در مورد تجزیه و تحلیل داده توسط جف لیک لذت می برم. این یک دوره عالی برای پر کردن شکاف های دانش من است. او در سخنرانی‌های خود در مورد خوشه‌بندی پیشنهاد کرد که یکی از راه‌های استفاده از SVD یافتن مهم‌ترین مؤلفه‌های اصلی است و سپس با انتخاب حداکثر مقدار سطر از ستون مربوطه در ماتریس V، بررسی کنید که کدام متغیر بیشترین سهم را در آن مؤلفه دارد. . مشکل من این است که او به جای حداکثر مطلق، روی حداکثر مقدار تمرکز می کند. ## به‌روزرسانی: شبیه‌سازی یک الگو _من حدس می‌زنم شبیه‌سازی زیر به سوال من پاسخ می‌دهد، اما من از بازخوردهایم سپاسگزارم. این کد شبیه سازی است: set.seed(12345); dataMatrix <- matrix(rnorm(400),nrow=40) colnames(dataMatrix) <- c(paste(Pos.3:، 1:3، sep = #)، paste(Neg.15: , 4:5، sep= #)، paste (بدون الگو:، 6:8، sep= #)، paste (Pos.15:، 9:10, sep= #)) for(i در 1:40){ # flip a coin coinFlip <- rbinom(1,size=1,prob=0.5) # اگر سکه سر است یک الگوی مشترک به آن اضافه کنید row if(coinFlip){ cols <- grep(Pos.3، colnames(dataMatrix)) dataMatrix[i، cols] <- dataMatrix[i, cols] + 3 } } for(i در 1:40){ # flip a coin coinFlip1 <- rbinom(1,size=1,prob=0.5) coinFlip2 <- rbinom(1,size=1,prob =0.5) # اگر سکه سر است یک الگوی مشترک به آن ردیف اضافه کنید if(coinFlip1){ cols <- grep(Neg.15، colnames(dataMatrix)) dataMatrix[i, cols] <- dataMatrix[i, cols] - 15 } if(coinFlip2){ cols <- grep(Pos.15، colnames(dataMatrix) ) dataMatrix[i,cols] <- dataMatrix[i,cols] + 15 } } این یک Heatmap ساده با یک الگوی واضح تولید می کند (نام ستون ها الگو را نشان می دهد) ![Heatmap of dataMatrix](http://i.stack.imgur.com/lieOk.png) بعد از اینکه ماتریس را از طریق svd( ) تابع I یک بار پلات از ستون V برای بررسی مقادیر انجام می دهم: svd_out <- svd(scale(dataMatrix)) library(lattice) کلید <- simpleKey(مستطیل ها = درست، فاصله = بالا، نقاط=FALSE، text=c(مثبت، منفی)) key$rectangles$col <- c(آبی استیل، تیره) نمودار نمودار (as.table(svd_out$v[,1])، horizontal=FALSE، col=ifelse(svd_out$v[,1] > 0، steelblue، darked)، ylab=Impact value، xlab=SVD - درصد توضیح داده شده با ستون V، scales=list(x=list(rot=55, labels=colnames(dataMatrix), cex=1.1 ))، کلید = کلید) ![اولین ستون V شبیه سازی شده](http://i.stack.imgur.com/Hqd3z.png) در نمودار بالای V اول ستون نشان دهنده تأثیر قوی متغیرهای الگو در هر دو جهت است. نمودار زیر دومین ستون V را نشان می دهد و در اینجا حداکثر مقدار یک ستون بدون الگو است - اگر از مقدار مطلق استفاده می کردیم یک ستون الگودار انتخاب می کردیم. ![دومین ستون V شبیه سازی شده](http://i.stack.imgur.com/kESuP.png) **برای نتیجه گیری**: در اسلایدهای سخنرانی این خط: maxContrib <- which.max(svd_out$v[, 2]) احتمالاً باید باشد: maxContrib <- which.max(abs(svd_out$v[,2])) ## مثال قدیمی _نمونه ای بر اساس کد R که در سخنرانی ها استفاده شد_ من از مجموعه داده ای از تکلیف اول دوره همراه با بسته Hmisc، شبکه و ماوس برای بررسی موضوع استفاده کرده ام. می‌توانید مجموعه داده را در اینجا بارگیری کنید (اگرچه داده‌ها نیاز به حذف داده‌ها دارند): http <- https://spark-public.s3.amazonaws.com/dataanalysis/loansData.rda con <- url(http) load(con ) وقتی به بردار ستون اول svd$v نگاه می کنیم مقدار کمی منفی است: numvars <- names(loansData)[sapply(loansData, is.numeric)] # از متغیر نتیجه در هیچ خوشه‌بندی/svd numvars استفاده نکنید <- numvars[numvars %nin% c(interest_rate)] library(mice) imp <- mice(loansData[, numvars]) c_imp <- تکمیل (imp) svd_out <- svd(scale(c_imp)) perc_explained <- svd_out$d^2/sum(svd_out$d^2) barchart(as.table(svd_out$v[,1])، horizontal=FALSE، col=ifelse(svd_out$v[,1] > 0، steelblue, darked), ylab=درصد توضیح داده شده، xlab=SVD - درصد توضیح داده شده توسط V column, scales=list(x=list(rot=55, labels=label(loansData[, numvars])))) ![قرمز منفی و آبی مقادیر مثبت هستند](http://s14.postimage.org/ uusc7v81d/First_vector_barchart.png) برای ستون دوم یکسان است: ![قرمز منفی و آبی مثبت است مقادیر](http://s9.postimage.org/665yfdlvj/Second_vector_barchart.png) وقتی حداکثر مشارکت کننده و هر متغیری را با حداقل 90 درصد حداکثر انتخاب کردم
یافتن حداکثر متغیرهای مشارکت کننده با اعمال SVD - آیا باید از مقادیر مطلق استفاده کرد یا فقط از حداکثر مقدار؟
50920
من داده‌هایی دارم که یک آرگومان واقعی (شناور) و چندین آرگومان اسمی را به یک مقدار واقعی نشان می‌دهند: y = f(r، n1، n2، n3، n4) اگر وابستگی «y» به «r» را بررسی کنم (r واقعی من است. متغیر -valued)، من می بینم که `y` به صورت خطی به `r` با نویز زیادی در بالای این وابستگی بستگی دارد. اکنون می‌خواهم بررسی کنم که آیا «y» به متغیرهای اسمی وابستگی دارد: n1، n2، n3، n4. همچنین می‌خواهم بدانم کدام متغیر اسمی بیشترین تأثیر را روی «y» دارد. بنابراین، سوال من این است: **از چه روش هایی می توانم برای این کار استفاده کنم؟**
چگونه وابستگی به متغیرهای اسمی را بررسی کنیم؟
16042
راه عملی برای شناسایی عواملی که باعث ایجاد تنوع در داده های یک مجموعه داده می شوند چیست؟ این سوال در کدام دسته قرار می گیرد؟ آیا مجموعه ای از الگوریتم ها وجود دارد که بتوان برای این منظور استفاده کرد؟ راه حل های مدل سازی آماری؟ خیلی گوگل کردم ولی نشد! سوال آنقدر مبهم است که یافتن پاسخ برای آن سخت است! پیشاپیش ممنون...
عواملی که بر تنوع داده ها تأثیر می گذارد؟
97784
آزمایش عصب‌شناسی من یک آشکارساز سنبله دارد که نمونه‌ای از شکل موج‌های بلند سنبله «40» را خروجی می‌دهد. من از یک روش فرهنگ لغت برای مرتب کردن سنبله ها در زمان واقعی استفاده می کنم. برای به دست آوردن فرهنگ لغت در شروع برنامه، می‌خواهم از تمام اسپک‌های شناسایی‌شده در 30 ثانیه اول استفاده کنم و یک «SVD» از ماتریس «Nx40» انجام دهم، که در آن «N» تعداد اسپک‌های شناسایی‌شده در اول است. 30 ثانیه آیا الگوریتمی وجود دارد که بتواند این «SVD» «Nx40» را به روشی متوالی یا تکراری یا شاید در دسته‌های کوچک‌تر انجام دهد. نرخ spiking مورد انتظار به این معنی است که برنامه من نمی تواند تمام شکل موج های 30 ثانیه ای (ردیف های ماتریس) را در حافظه ذخیره کند.
آیا راهی برای انجام SVD به صورت متوالی وجود دارد؟
65710
سوال زیر در یک سایت خواهر (Stack Overflow) در سال 2010 توسط کاربری که هنوز در آنجا فعال است پرسیده شد (به نظر من اینجا مناسب تر است، به عنوان مثال کاملاً شبیه به 21422): من یک سری داده در اکسل دارم که به آنها نیاز دارم. برای دریافت اطلاعات صدک خاصی از. مشکل این است که به جای اینکه مجموعه داده از هر مقدار تشکیل شده باشد، در عوض اطلاعاتی در مورد تعداد یا داده های سطل دارم. به عنوان مثال، تصور کنید که مجموعه داده های واقعی من به این صورت است: 1،1،2،2،2،2،3،3،4،4،4 مجموعه داده ای که من دارم این است: مقدار تعداد رخدادها 1 2 2 4 3 2 4 3 آیا راه آسانی برای من وجود دارد که بتوانم اطلاعات صدک (و همچنین میانه) را بدون نیاز به انفجار داده های خلاصه به مجموعه داده کامل محاسبه کنم؟ (وقتی این کار را انجام دادم، می دانم که می توانم فقط از تابع Percentile (A1:A5, p) استفاده کنم) این مهم است زیرا مجموعه داده های من بسیار بزرگ است. اگر داده ها را منفجر کنم، صدها هزار ردیف داشتم و باید این کار را برای چند صد مجموعه داده انجام دهم. بعد از این همه مدت شک دارم که OP هنوز نگران باشد، اما اگر در اینجا خارج از موضوع نباشد، از نظرات شما قدردانی می کنم (اما اگر این بسته شود ناراحت نمی شوم!) من علاقه مند هستم زیرا (از مدت ها قبل!) فکر می کردم من یاد گرفته بودم که پس از ذخیره کردن، اطلاعات کلیدی برای محاسبه دقیق صدک ها به طور غیر قابل برگشتی از دست می رفت. اما این کنجکاوی من بسیار بیشتر از یک نیاز مبرم است.
صدک ها را از داده های binned استخراج کنید
65716
اگر ریشه بخش AR آن روی دایره واحد نباشد، یک فرآیند ARMA(p,q) ضعیف است. بنابراین ایستایی ضعیف آن به بخش MA آن بستگی ندارد. اما مواضع ریشه های قسمت MA آن چه می تواند دلالت کند؟ در آزمایش‌های ریشه واحد برای ARIMA، یک ریشه واحد چند جمله‌ای MA نشان می‌دهد که داده‌ها بیش از حد تفاوت دارند. یعنی سری زمانی تفاضل ضعیف ثابت نیست؟ اگر بله، آیا با واقعیت قبلی که ثابت بودن ضعیف ARMA به بخش MA آن بستگی ندارد، تناقض دارد؟
ریشه واحد MA چیست؟
11175
در صفحه ویکی ذکر شده است که یکی از روش های تعیین تعداد بهینه خوشه در مجموعه داده روش زانو است. در اینجا درصد واریانس به عنوان نسبت واریانس بین گروهی به کل واریانس محاسبه می شود. من در درک این محاسبه احساس مشکل کردم. آیا کسی می تواند به من اطلاع دهد که چگونه درصد واریانس یک مجموعه داده را که به عنوان ماتریس ویژگی نشان داده شده است محاسبه کنم $F \in \mathbf{R}^{m \times n}$، که در آن $m$ بعد ویژگی و $n$ است. تعداد نقاط داده است. من از الگوریتم k-means برای خوشه بندی استفاده می کنم.
معیارهای آرنج برای تعیین تعداد خوشه
13638
با داشتن مقادیر «حساسیت» و «ویژگی»، چه نرم‌افزاری را پیشنهاد می‌کنید که ترسیم منحنی «ROC» را فراهم می‌کند؟ با تشکر
نرم افزار رسم منحنی ROC
13634
من روی مدل‌سازی آماری زیادی کار می‌کنم، مانند مدل‌های مارکوف پنهان و مدل‌های مخلوط گاوسی. من می بینم که آموزش مدل های خوب در هر یک از این موارد به مقدار زیادی (بیش از 20000 جمله برای HMM) داده نیاز دارد که از محیط های مشابه به عنوان استفاده نهایی گرفته شده است. سوال من این است: 1. آیا مفهوم داده های آموزشی به اندازه کافی در ادبیات وجود دارد؟ چه مقدار داده آموزشی به اندازه کافی خوب است؟ 2. چگونه می توانم محاسبه کنم که چند جمله برای آموزش مدل های خوب (که دقت تشخیص خوبی (> 80٪) می دهد) لازم است؟ 3. چگونه بفهمم که یک مدل به درستی آموزش دیده است؟ آیا ضرایب در مدل شروع به نشان دادن نوسانات تصادفی خواهند کرد؟ اگر چنین است، چگونه می توانم نوسانات تصادفی و تغییرات واقعی را به دلیل به روز رسانی مدل تشخیص دهم؟ لطفاً در صورت نیاز به برچسب های بیشتر، این سؤال را مجدداً تگ کنید.
آیا مفهومی از داده های «کافی» برای آموزش مدل های آماری وجود دارد؟
50926
در حال نهایی کردن یک RCT با دو گروه مداخله (n=13، n=11). هر دو نمونه قبل و بعد از درمان برای درد (VAS) و همچنین در برابر یکدیگر (گروه در مقابل گروه) ارزیابی می‌شوند. با این حال، چهار آزمودنی پس از درمان در یکی از گروه‌ها از دست رفته بودند (n13 --> n=9). کدام مدل/آزمون آماری برای استفاده مناسب است؟
وقتی حجم نمونه متفاوت است از کدام آزمون آماری استفاده کنیم؟
109835
در حین کار بر روی یک مجموعه داده بزرگ متشکل از 10 دقیقه اطلاعات - یعنی '144' نقطه در روز، '1008' در هفته و '52560' در سال - با چند مشکل در R مواجه شدم. اطلاعات مربوط به بار الکتریکی است. در یک پست منبع در طول سال. ### فصلی بودن چندگانه: مجموعه داده به وضوح چندین فصلی را نشان می دهد که روزانه، هفتگی و سالانه هستند. از آنجا متوجه شدم که R در توابع مدل‌سازی ARIMA، فصلی بودن چندگانه را کنترل نمی‌کند. من واقعاً دوست دارم با مدل‌های ARIMA کار کنم، زیرا کار قبلی من بر اساس مدل‌های ARIMA است و تقریباً می‌دانم چگونه یک مدل را به یک معادله تبدیل کنم. ### فصلی طولانی: هر یک از فصلی ها ارزش بالایی دارند، که کوتاه ترین آنها فصلی بودن روزانه 144 است. متأسفانه از معادله عمومی SARIMA که $\phi(B)\Phi(B^s)W_t = \ است. theta(B)\Theta(B^s)Z_t$ حدس زدم که حداکثر تاخیر برای یک مدل معین `SARIMA(p,d,q)(P,D,Q)144` $max((p+P*144), (q+Q*144))$ است. P و/یا Q بزرگتر از 1، اما R به من اجازه نمی دهد زیرا حداکثر تاخیر پشتیبانی شده = 350. برای انجام این کار، این پیوند را پیدا کردم که واقعاً جالب است و منجر به عملکردهای جدیدی در بسته پیش بینی شده توسط M. Hyndman، به نام های 'fourier' و 'fourierf' شد که می توانید در اینجا پیدا کنید. اما از آنجایی که من متخصص پیش بینی و آمار نیستم، در درک اینکه چگونه می توانم این کار را انجام دهم با مشکلاتی مواجه هستم. * * * نکته این است که من می‌دانم که کل این بسته رگرسیون فورویر می‌تواند به من کمک زیادی کند. از آنچه فهمیدم می‌توانم از آن برای شبیه‌سازی فصلی طولانی مجموعه داده‌هایم استفاده کنم، شاید از آن برای شبیه‌سازی فصلی بودن چندگانه استفاده کنم، و حتی بیشتر از آن می‌توانم به من اجازه معرفی متغیرهای برون‌زا را بدهد - که عبارتند از «دما» و «تعطیلات عمومی» + یکشنبه ها). من همچنین سعی کردم به دنبال این مثال مقداری رگرسیون انجام دهم اما نتوانستم آن را به کار ببرم زیرا: خطا در forecast. Arima (bestfit, xreg = fourierf (gas, K = 12, h = 1008)) : تعداد رگرسیون ها با برازش مطابقت ندارد مدل من واقعاً امیدوارم کسی بتواند به من کمک کند تا درک بهتری از این عملکردها داشته باشم. با تشکر **ویرایش:** بنابراین من تمام تلاشم را با مثال فویر ارائه شده در اینجا انجام دادم، اما نتوانستم بفهمم که چگونه این اتصال را انجام می دهد. کد اینجاست (من یکی از M. Hyndman را کپی کردم و با مجموعه داده‌هایم سازگار شدم - ناموفق) : n <- 50000 m <- 144 y <- read.table(auch.txt, skip=1) fourier < - تابع (t، عبارات، دوره) { n <- طول(t) X <- ماتریس(,nrow=n,ncol=2*terms) for(i در 1:terms) { X[,2*i-1] <- sin(2*pi*i*t/period) X[,2*i] <- cos(2*pi*i*t /period)} colnames(X) <- paste(c(S,C), rep(1:terms,rep(2,terms)),sep=) return(X) } library(forecast ) مناسب <- Arima(y[1:n,1], order=c(2,1,5), seasonal=c(1,2,8), xreg=cbind(fourier(1:n,4,m) فویر (1:n,4,1008))) نمودار(پیش‌بینی(برازش، h=14*m، xreg=cbind(فوریه(n+1:(14*m)،4،m) fourier(n+1:(14*m),4,1008)))) بنابراین من می‌خواستم مدل را مجبور کنم که یک `SARIMA(2,1,5)(1,2,8)[144] اما وقتی «arimod» را تایپ می‌کنم، این نتیجه برازش Arima است: > fit Series: y[1:n, 1]، ARIMA(2،1،5) sigma^2 تخمین زده می‌شود 696895: log likelihood=-407290.2 AIC=814628.3 AICc=814628.3 BIC=814840 حتی بخش فصلی مدل را در نظر نمی گیرد، و در مورد محدوده ای که مقادیر AIC می تواند بگیرد اطلاعات زیادی ندارم، اما به نظر می رسد. خیلی بلندتر از آن است که یک مدل مناسب در آن جا باشد. فکر می‌کنم همه چیز به درک نادرست من از استفاده از اصطلاحات فوریه به‌عنوان پسرفت‌کننده برمی‌گردد، اما نمی‌توانم دلیل آن را بفهمم. **ویرایش 2:** همچنین به نظر نمی رسد بتوانم متغیر برون زا دیگری را به تابع Arima اضافه کنم. من باید از دما استفاده کنم - احتمالاً به عنوان سرنخ - برای مطابقت با مدل SARIMAX، اما به محض اینکه این را نوشتم: fit <- Arima(y[1:n,1], order=c(2, 1،5)، فصلی=c(1،2،8)، xreg=cbind(فوریه(1:n،4،m)، فوریه(1:n،4،1008)، tmp[1:n])) نمودار(پیش‌بینی(مناسب، h=14*m، xreg=cbind(فوریه(n+1:(14*m)،4،m)،فوریه(n+1:(14*m)،4،1008) tmp[n+1:(14*m)]))) هیچ چیز غیر از مجموعه داده اولیه رسم نمی شود. هیچ پیش بینی وجود ندارد در حالی که بدون «tmp» به عنوان «xreg» من هنوز برخی از نتایج را دریافت می کنم.
فصلی چندگانه و طولانی برای یک مدل SARIMA در R
78819
ما آخرین تکلیف را برای کلاس علم سیاستم داریم و این دو واقعاً مرا گیج کرده اند. ما واقعاً از رگرسیون چندگانه خیلی خوب عبور نکردیم، بنابراین اگر کسی می تواند کمک کند، از آن متشکرم! 1. متغیر وابسته شما «مرگ‌های کودکان» است و متغیرهای مستقل شما شامل یک متغیر ساختگی به نام «نیمکره جنوبی» (که متغیر مستقل مورد علاقه شما نیز هست) و مجموعه‌ای از هفت متغیر کنترلی کافی (شامل جمعیت) است. ضریب رگرسیون برای متغیر نیمکره جنوبی 426- است. یک جمله بنویسید که تفسیر خود را از این ضریب بیان کند. (توجه: لطفاً به خاطر داشته باشید که این یک رگرسیون چندگانه است!). 2. خطای استاندارد b شما از مسئله 9 در بالا 246 است. پیامدهای این چیست؟
ضرایب و خطاهای استاندارد
88764
من داده های آزمایشی دارم که در آن چندین نمونه بزرگ از توزیع های گسسته دارم که از آنها به عنوان توزیع های تجربی استفاده می کنم. من می‌خواهم آزمایش کنم که آیا توزیع‌ها واقعاً متفاوت هستند و تفاوت میانگین‌ها برای توزیع‌هایی که واقعاً متفاوت هستند چیست. از آنجایی که آنها توزیع های گسسته هستند، درک من این است که آزمون کولموگروف- اسمیرنوف به دلیل فرض توزیع پیوسته اساسی نامعتبر است. آیا آزمون Chi-Squared آزمون صحیحی برای این است که آیا توزیع ها واقعاً متفاوت هستند؟ از چه آزمونی برای تفاوت میانگین ها استفاده کنم؟ آیا یک رویکرد بهتر این است که از توزیع ها نمونه برداری کنیم و تفاوت را بگیریم و سپس بر روی توزیع تفاوت تجزیه و تحلیل کنیم؟
تفاوت بین 2 توزیع گسسته تجربی را آزمایش کنید
46326
من یک مدل مانع را تخمین می زنم که از دو فرآیند تولید داده تشکیل شده است: یکی برای رابطه صفر/مثبت و دیگری برای اعداد مثبت بالای صفر. یک مدل لاجیت باینری اغلب برای قسمت اول و یک مدل زهر کوتاه یا دوجمله ای منفی برای قسمت دوم استفاده می شود. در R، دستور 'hurdle()' در بسته pscl به طور مشترک مدل ها را با هم تخمین می زند، و یک AIC و مقدار log-likelihood را برمی گرداند. من باید برخی از افکت‌های تصادفی را وارد کنم، بنابراین از دستور glmmADMB() در بسته‌ای با همین نام استفاده می‌کنم. این بسته یک فرمان مدل مانع ندارد، بنابراین باید آنها را جداگانه تخمین بزنم (اول باینری، سپس پویسون). سوال من: چگونه باید لاگ احتمال مشترک دو مدل تخمین زده شده جداگانه را محاسبه کرد؟ من فرض می‌کنم که این امکان‌پذیر است، با توجه به اینکه به نظر می‌رسد «Hurdle» دقیقاً این کار را انجام می‌دهد.
احتمال مشترک دو مدل
81525
با توجه به $p$-variate نرمال $X \sim \mathcal{N}\left(\mu,\Sigma\right)$، متغیر تصادفی $$ t_* = \frac{X_1}{\sqrt{\sum_{ را در نظر بگیرید 2\le i \le p} X_i^2}}. $$ برای برخی از مقادیر $\Sigma$، این توزیع t غیرمرکزی مضاعف را تعمیم می‌دهد (که t- غیر مرکزی منفرد را تعمیم می‌دهد، که توزیع t مرکزی را تعمیم می‌دهد). آیا این توزیع شناخته شده است؟ به طور خاص، من می خواهم بدانم چگونه CDF را محاسبه کنم، و مثلاً دو لحظه اول. من گمان می‌کنم که تغییری این $t_*$ را به شکلی می‌برد که قابل تحلیل باشد، اما من آن را نمی‌بینم.
آیا تعمیم شناخته شده ای از توزیع t مضاعف غیر مرکزی وجود دارد؟
88762
من تست های همبستگی بین دو متغیر سطح شهر (به عنوان مثال آب و هوا و درآمد) را از حدود 30 شهر مختلف اجرا کرده ام و بنابراین **30 جفت همبستگی و T-value** را بر اساس شهرها دریافت کردم. فرضیه من این است که همبستگی بین این دو متغیر با موقعیت جغرافیایی آنها مشخص می شود و در واقع من همبستگی معنی داری بین متغیر جغرافیایی و همبستگی پیدا کردم، اما سوال من چیز دیگری است. ** می‌خواهم بدانم آیا همبستگی بسیار معنی‌دار و قوی بین 30 جفت همبستگی و مقادیر T بر اساس شهرها وجود یک الگو را نشان می‌دهد (که به حمایت از فرضیه من نیز کمک می‌کند).** بسیار معنادار و همبستگی قوی در اینجا به این معنی است که هر چه مقدار T قوی تر باشد، همبستگی بالاتر است (برعکس). همبستگی از مثبت معنادار به ناچیز (یک همبستگی) و به منفی معنادار می رسد. فکر من این است که اگر دو متغیر سطح شهر (مثلاً آب و هوا و درآمد) در سراسر شهرها از یکدیگر مستقل باشند، پس همبستگی‌ها و مقادیر T آنها در سطوح مختلف شهر نیز باید مستقل از یکدیگر باشند. بر اساس نتیجه، از آنجایی که 30 جفت همبستگی و T-value همبستگی بالایی دارند، به این معنی است که یک الگوی درونی وجود دارد که باعث تغییر همبستگی و T-value می شود، که از فرضیه اصلی من پشتیبانی می کند. آیا این طرز تفکر منطقی است یا حاوی اشتباه جدی است؟ پیشاپیش متشکرم
همبستگی بین همبستگی و T-value ده ها گروه