_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
30640
من دانش سری‌های زمانی خود را مرور می‌کنم و به دنبال سندی می‌گردم که آزمایش‌های سری‌های زمانی رایج، برای چه چیزی، نحوه استفاده از آنها، و غیره را داشته باشد. تست Dickey-Fuller Augmented، تست‌های PACF، و غیره. من یک صفحه ویکی‌پدیا از تست‌های آماری رایج را پیدا کردم، اما به دنبال فهرستی از این تست‌ها هستم که برای تحلیل سری‌های زمانی خاص باشد. http://en.wikipedia.org/wiki/Statistical_hypothesis_testing#Common_test_statistics با تشکر!
لیستی از تست های متداول سری زمانی؟
83804
من در حال ساخت یک مدل تحلیل بقای کاکس با داده‌های تراکنش یک خرده‌فروش هستم. تقریباً همه متغیرها در آزمون تناسب مردود بوده اند. آیا می توانم با مدل کاکس ادامه دهم؟ آیا باید به جای مدل کاکس یک مدل LIFEREG بسازم؟
تجزیه و تحلیل بقا - همه متغیرها در آزمون تناسب شکست خوردند. بعدش چی؟
30645
می خواستم بدانم پارامتر _n.minobsinnode_ در بسته GBM به چه معناست. من دفترچه راهنما را خواندم اما مشخص نیست چه کار می کند. آیا این عدد باید کوچک باشد یا بزرگ برای بهبود نتایج؟
نقش پارامتر n.minobsinnode GBM در R
71154
فرض کنید من برخی از پارامترهای مدل را محاسبه می‌کنم و مجموع مجذور باقیمانده‌ها را به حداقل می‌رسانم، و اشتباهاتم را گوسی فرض می‌کنم. مدل من مشتقات تحلیلی تولید می کند، بنابراین بهینه ساز نیازی به استفاده از تفاوت های محدود ندارد. هنگامی که تناسب کامل شد، می خواهم خطاهای استاندارد پارامترهای برازش شده را محاسبه کنم. به طور کلی، در این وضعیت، هسین تابع خطا به ماتریس کوواریانس مربوط می شود: $$ \sigma^2 H^{-1} = C $$ که در آن $\sigma^2$ واریانس است باقی مانده ها هنگامی که هیچ مشتق تحلیلی از خطا در دسترس نباشد، معمولاً محاسبه Hessian غیرعملی است، بنابراین $J^TJ$ به عنوان یک تقریب خوب در نظر گرفته می شود. با این حال، در مورد من، من یک J تحلیلی دارم، بنابراین محاسبه H با تفاضل محدود J برای من نسبتاً ارزان است. بنابراین، سؤال من این است: آیا دقیق‌تر است که H را با استفاده از J دقیق خود تقریب کنم و از آن استفاده کنم. بالاتر از تقریب، یا برای تقریب H با تفاضل محدود J؟
وقتی یک ژاکوبین تحلیلی در دسترس است، بهتر است هسین را با $J^TJ$ تقریب کنیم یا با تفاوت های محدود ژاکوبین؟
30643
داشتم این مقاله ویکی پدیا مربوط به کریجینگ را می خواندم. وقتی می‌گوید کریجینگ بهترین تخمین‌گر خطی بی‌طرفدار، $\hat Z (x_0)$، از $Z(x_0)$ را محاسبه می‌کند، متوجه نشدم، به طوری که واریانس کریجینگ با شرط بی‌سوگیری به حداقل می‌رسد. من اشتقاق و همچنین نحوه به حداقل رساندن واریانس را دریافت نکردم. پیشنهادی دارید؟ به خصوص، من بخشی را که در آن اعمال می‌شود، به شرط عدم تعصب به حداقل رسیده است. فکر می کنم باید به جای E[Z'(x)-Z(x)] E[Z'(x0)-Z(x0)] می بود، اینطور نیست. ' معادل کلاه در مقاله ویکی است. همچنین متوجه نشدم که چگونه خطای کریجینگ به دست می آید
سردرگمی در مورد کریجینگ
108992
آیا می‌توان مدل‌های مانع (مانند مدل‌های Craggit، probit و کوتاه‌شده) را برای داده‌های پانل، ترجیحاً با اثرات ثابت برای کنترل ناهمگنی مشاهده نشده اعمال کرد؟ در Stata، دستور نوشته شده توسط کاربر «craggit» فقط اجازه استفاده از داده‌های پانل تلفیقی را می‌دهد، اما کنترل ناهمگونی‌های مشاهده‌نشده را نمی‌دهد... به طور کلی، تخمین مدل مانع بسیار ساده است: مدل پروبیت بر روی متغیر نتیجه باینری، کوتاه شده (یا lognormal) روی (مقادیر مثبت) متغیر نتیجه. آیا می توان در مرحله اول یک پروبیت RE (یا حتی لاجیت FE) و در مرحله دوم یک مدل اثرات ثابت را تخمین زد - و در واقع آن را مدل مانع نامید؟ با تشکر
چگونه می توان مدل های مانع را برای داده های پانل (با استفاده از Stata) اعمال کرد؟
114627
فرض کنید که ما دو مجموعه داده R و P داریم. «R» بزرگتر یا مساوی «P» است. R می تواند منفی یا مثبت باشد. P می تواند منفی یا مثبت باشد. بنابراین در همه موارد «(R-P)» مثبت یا صفر است. R و P دلار هستند و مقیاس آنها زیاد است مانند 1,000,000,0 یا 500,000,000. اکنون می‌خواهم معیاری ایجاد کنم که به نظر می‌رسد: E = 1 - ( 1 / 1+(R-P) ) بنابراین «E» دارم که بین «0» و «1» است. من مقیاس «E» را بین «0» و «1» می‌خواهم. اما مشکل این است. «(R-P)» مقادیر بالایی دارد، بنابراین همه خروجی های این معیار نزدیک به «1» است. من این تابع را اصلاح کردم، اکنون این را دارم: E = 1 - ( 1 / 1+ ( (R-P)/mean(R-P)) ) اکنون به دلیل «متوسط ​​(R-P)» مقیاس بندی بهتری بین «0» و «1» داریم. `. این توزیع «R-P» برای راهنمایی بیشتر است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/2XOxM.jpg) پس از انجام این کار، می‌خواهم داده‌ها را با این «E» طبقه‌بندی کنم. برای مثال، نمونه‌هایی که «E» بزرگ‌تر از «۰.۷» دارند در «کلاس ۱» و نمونه‌هایی با «E» کمتر از «۰.۷» در «کلاس ۲» هستند (در یک مسئله طبقه‌بندی باینری). برای توزیع بهتر در نسخه نهایی این معیار، مقادیر پرت «(R-P)» را با این تابع حذف می کنم تا معیار قوی تری داشته باشیم: abs(X-mean(X)) >=2*std(X) `(X در اینجا است (R-P)` پس از حذف مقادیر پرت در `R-P` من میانگین (R-P) را محاسبه می کنم` توصیه شما برای تبدیل بهتر این مشکل چیست؟ مشکل نظری با استفاده از میانگین در این معیار، بنابراین من نیاز به نظراتی در مورد این دارم **PS.** باید این رفتار را در این معیار داشته باشیم: * اگر P=constant و R= افزایش >> ​​'E=. افزایش» * اگر «R=ثابت» و «P=افزایش (به سمت منفی)» >> «E=افزایش» * اگر «P=ثابت» و «R=کاهش» >> «E=کاهش» * اگر «R=ثابت» و «P=کاهش (به سمت مثبت)» >> «E=کاهش» * نمونه‌ای که بالاترین «(R-P)» را دارد، باید بالاترین «E» («1» باشد. یا نزدیک به «1») * نمونه‌هایی که کمترین «(R-P)» را دارند باید کمترین «E» («1» یا نزدیک به «1») را داشته باشند.
یافتن تابع تبدیل برای توزیعی که شبیه نمایی است
70810
فرض کنید که یک مسابقه کریکت برای یکشنبه، آخر این هفته برنامه ریزی شده است. می دانیم که مردم با نرخ ثابت به استادیوم نمی رسند. چند ساعت قبل از شروع مسابقه، مردم با سرعت بسیار کم شروع به ورود می کنند. این نرخ پس از آن، به طور کلی، همچنان در حال افزایش است. تعداد زیادی از مردم درست قبل از شروع مسابقه وارد می شوند. می‌خواهم بدانم از کدام توزیع برای مدل‌سازی استفاده کنم، تا بتوانم بگویم **احتمال ورود x تعداد افراد در یک بازه زمانی خاص چقدر است؟**
«ورود افراد» به یک رویداد در زمان چه توزیعی را دنبال می کند؟
37493
من یک مجموعه داده بزرگ از یک نظرسنجی دارم که توصیف می کند مردم از چه صفحات وب استفاده می کنند. بنابراین برای هر شخصی فهرستی از صفحاتی که بازدید می‌کنند و تعداد دفعات بازدید از آنها دارم. از چه روش هایی می توان برای خوشه بندی صفحات وب (بر اساس کاربران مشابهی که از آنها استفاده می کنند) و کاربران (که از صفحات وب مشابه استفاده می کنند) استفاده کرد. مثال> کاربر A از صفحات وب a، b، a، c بازدید کرد کاربر B از a، b، d، b بازدید کرد کاربر C از صفحه e، e، نتیجه گیری از آن این است که صفحات `a`,`b`,`c`, d تا حدودی شبیه هستند و متعلق به یک خوشه هستند. خوشه دیگر صفحه «e» است. همچنین، کاربران a,b مشابه هستند، خوشه کاربری دیگر شامل «کاربر C» است که از صفحات مختلف بازدید می کند.
خوشه بندی بر اساس تعامل بین اعضای دو گروه
15897
من در حال انجام یک متاآنالیز برخی از مطالعات هستم که نتایج را به صورت متفاوتی به عنوان نسبت شانس، نسبت خطر یا نسبت نرخ گزارش می کنند (همه با فواصل اطمینان). آیا راهی برای ترکیب اینها با هم/تبدیل بین آنها وجود دارد تا بتوانم یک متاآنالیز از همه مطالعات انجام دهم؟
چگونه می توان یک متاآنالیز بر روی مطالعاتی انجام داد که نتایج را به صورت متفاوتی به عنوان نسبت شانس، نسبت خطر یا نسبت نرخ گزارش می کنند؟
37496
من در حال خواندن نتایج یک متاآنالیز داده های فردی بیمار (IPD) هستم. نتایج مطالعه در انحراف معیار (SD's) بیان می شود. مقایسه‌های بین گروه‌ها به صورت 0.23 (95% فاصله اطمینان (CI): 0.15-0.33)، SD 0.34 و غیره بیان شده است. من نمی‌توانم درک کنم که چگونه این را تفسیر کنم. کسی میتونه کمک کنه؟
متاآنالیز داده‌های بیمار فردی با SD به عنوان اندازه‌گیری پیامد
18917
لطفا ابتدا به مشکل کوچک زیر نگاهی بیندازید: > دو لامپ غیرقابل تشخیص A و B وجود دارد. B قرمز با 0.2 و آبی 0.8. اکنون با .5 > prob A یا B به شما ارائه می شود. قرار است رنگ > فلاش آن را مشاهده کنید تا بهترین حدس بزنید (به حداکثر رساندن احتمال درست > حدس زدن) کدام لامپ است. با این حال، قبل از شروع مشاهدات، > باید تصمیم بگیرید که چند بار می خواهید آن را مشاهده کنید (بگویید n بار، سپس > مشاهده کنید که n بار چشمک می زند و حدس بزنید). فرض کنید فلاش ها > مستقل هستند. به طور شهودی، فرد فکر می‌کند که هر چه مشاهدات بیشتری انجام دهد، شانس او ​​بیشتر خواهد بود. با این حال عجیب است که محاسبه آسان است که نشان دهد n=2 در n=1 بهبود نمی یابد و n=4 بر n=3 بهبود نمی یابد. من بیشتر از این پیش نرفتم اما حدس می‌زنم n=2k روی n=2k-1 بهبود نمی‌یابد. من نمی توانم آن را برای حالت کلی ثابت کنم. اما آیا این حقیقت دارد؟ اگر چنین است، چگونه می توان به طور شهودی نتیجه را درک کرد؟
مشکل رنگ لامپ
30649
فرض کنید _i.i.d._ $x_i \sim \mathcal{N}\left(\mu,\Sigma\right)$ را مشاهده می‌کنم و می‌خواهم $H_0 را آزمایش کنم: A\ $vech$\left(\Sigma^{-1 }\right) = a$ برای یک ماتریس سازگار $A$ و بردار $a$. آیا کار شناخته شده ای برای این مشکل وجود دارد؟ تلاش بدیهی (برای من) از طریق آزمون نسبت درستنمایی خواهد بود، اما به نظر می رسد به حداکثر رساندن احتمال با توجه به محدودیت های H_0$ نیاز به یک حل کننده SDP دارد و می تواند بسیار پرمو باشد.
آزمون فرضیه بر روی ماتریس کوواریانس معکوس
83803
من در حال مطالعه اختلال ناشی از ترافیک کشتی برای یک پرنده دریایی کوچک هستم. من حیوانات کانونی را برای مدت زمان مشخصی مشاهده کردم و ثبت کردم که آیا آنها در طول مشاهده از آب پرواز می کنند یا نه. این پرنده خاص وقتی مزاحم نمی شود (حدود 10٪ مواقع) با احتمال زیاد پرواز نمی کند. در مرحله بعد، من فاصله تا نزدیکترین کشتی را به هر مشاهده اضافه کرده ام (کشتی های مورد علاقه دارای مکان یاب GPS بودند که هر 5 ثانیه یک نقطه را ثبت می کردند). من تابع توزیع تجمعی را برای همه مشاهدات و برای مشاهداتی که در آن پرنده از آب پرواز می کند به عنوان تابعی از فاصله تا نزدیکترین کشتی ترسیم کرده ام. همانطور که انتظار می رفت، اکثر مشاهداتی که در آن پرنده پرواز می کرد، زمانی که کشتی نزدیک بود مشاهده شد. ![ecdf plot, fly, not fly, all obs](http://i.stack.imgur.com/0X3MY.jpg) آیا می توانم از آزمون Kolmogorov-Smirnov برای آزمایش اینکه آیا تفاوت آماری در توزیع وجود دارد استفاده کنم از مشاهدات پرواز و کل مشاهدات؟ فکر من این است که اگر این دو توزیع متفاوت باشند، نشان می دهد که فاصله کشتی بر پرواز تأثیر دارد. من نگران هستم زیرا این توابع توزیع مستقل نیستند زیرا مشاهدات پرواز زیرمجموعه ای از کل مشاهدات هستند. افکار؟ با مطالعه کمی بیشتر در این سایت، فکر می‌کنم می‌توانم توزیع مشاهداتی را که در آن پرواز انجام شده است (F) در مقابل توزیع مشاهداتی که در آن انجام نشده است (NF) آزمایش کنم، زیرا اینها مستقل هستند. اگر این توزیع‌ها F=NF یکسان باشند، می‌توان فرض کرد که توزیع (F) و (TOT = همه مشاهدات) همان است که می‌دانیم توزیع (F) با خودش و (F)+ برابر است. (T) = (TOT). درسته؟ **به روز رسانی: 2/12/14** به دنبال پیشنهادات @Scortchi، من رابطه وقوع پرواز در مقابل فاصله تا نزدیکترین کشتی را در چارچوب رگرسیون لجستیک بررسی کردم. رابطه کمی وجود داشت (شیب منفی) اما مقدار p غیر معنی دار بود که نشان می دهد شیب واقعی می تواند صفر باشد. بر اساس آمار توصیفی (از جمله نمودارهای ecdf) من مشکوک شدم که تأثیر کشتی‌های نزدیک به دلیل مشاهدات فراوان زمانی که کشتی بر رفتار تأثیر نمی‌گذارد، از بین می‌رود. سپس از بسته R قطعه بندی شده (http://cran.r-project.org/web/packages/segmented/segmented.pdf) استفاده کردم تا یک نقطه شکست در مدل پیدا کنم. این برنامه دریافت که شکستن داده ها در فاصله 2.6 کیلومتری کشتی و قرار دادن دو ضریب مجزا بهتر از مدل تک ضریب است. ضریب شیب رویکردهای نزدیک کشتی منفی بود و نشان می دهد که کشتی ها تا حدود 2.6 کیلومتر بر پاسخ پرواز تأثیر می گذارند (p-value <0.001). ضریب شیب دوم کمی مثبت بود، اما p-value در سطح آلفا 0.05 غیرمعنادار بود (p-value = 0.11). بنابراین به طور خلاصه، خط رگرسیون تقسیم‌بندی شده قادر به تشخیص اختلاف آستانه‌ای بود که در آن احتمال پرواز افزایش می‌یابد. تخمین احتمال پرواز زمانی که کشتی بیشتر از 2.6 کیلومتر است 0.11 است. به طور مناسب، من 79 پرنده را در زمانی که هیچ کشتی حتی در خلیج مطالعه نبود (بیش از 100 کیلومتر دورتر) مشاهده کردم و 9 نفر از این افراد در طول مشاهده از آب پرواز کردند (به احتمال 0.113). با تشکر از همه پیشنهادات امیدوارم این سوال همراه با پیشنهادات و پاسخ ها به دیگران کمک کند.
تست کولموگروف اسمیرنوف؟
28190
فرض کنید من از یک مدل لجستیک برای پیش بینی اینکه آیا باران (بله یا خیر) بر اساس دمای بالا استفاده می کنم و داده های 100 روز گذشته را جمع آوری کرده ام. فرض کنید 30/100 روز باران می بارد. علاوه بر این، فرض کنید که 70/100 روز دما در واقع 50 درجه است. بنابراین تنها 30/100 روز وجود داشت که دمای آن 50 درجه نبود. بنابراین از نظر متغیر پاسخ (باران - بله یا خیر)، تنوع کافی برای توسعه مدل وجود دارد. با این حال، با توجه به پیش بینی کننده (دما)، با این همه روز که دما 50 درجه است، یک عنصر متغیر تکراری (50 درجه) چگونه بر محاسبات یک مدل لجستیک تأثیر می گذارد؟
تأثیر واریانس پیش‌بینی‌کننده پایین بر برآورد ضریب رگرسیون لجستیک چیست؟
7644
من به دنبال روش هایی هستم که بتوان از آنها برای تخمین مدل خطای اندازه گیری OLS استفاده کرد. $$y_{i}=Y_{i}+e_{y,i}$$ $$x_{i}=X_{i}+e_{x,i}$$ $$Y_{i}=\alpha + \beta X_{i}$$ جایی که خطاها عادی مستقل با واریانس‌های ناشناخته $\sigma_{y}^{2}$ و $\sigma_{x}^{2}$ هستند. OLS استاندارد در این مورد کار نخواهد کرد. ویکی‌پدیا راه‌حل‌های غیرجذابی دارد - این دو راه‌حل شما را مجبور می‌کنند که فرض کنید یا «نسبت واریانس» $\delta=\frac{\sigma_{y}^{2}}{\sigma_{x}^{2}}$ یا نسبت قابلیت اطمینان $\lambda=\frac{\sigma_{X}^{2}}{\sigma_{x}^{2}+\sigma_{X}^{2}}$ شناخته شده است، جایی که $\sigma_{X}^ 2$ واریانس رگرسیون واقعی $X_i$ است. من از این راضی نیستم، زیرا کسی که واریانس ها را نمی داند چگونه می تواند نسبت آنها را بداند؟ به هر حال، آیا به جز این دو راه حل دیگری وجود دارد که نیازی به دانستن هیچ چیز در مورد پارامترها نداشته باشد؟ راه حل های فقط برای رهگیری و شیب خوب هستند.
روش‌های برازش یک مدل خطای اندازه‌گیری ساده.
86199
من به دنبال یک تابع توزیع احتمال چند متغیره خاص هستم تا با داده‌های خود منطبق شود، اما توزیع نرمال چند متغیره معمولی نامناسب است، زیرا داده‌های من به جای پیک در موارد خاص، دارای یک فرورفتگی (آنتی مد) هستند. (در موارد دیگر، داده‌ها دارای یک اوج هستند.) داده‌های من شامل نقاط داده با متغیرهای متعدد است که همگی در بازه [0،1] محدود شده‌اند. در حالت تک متغیره، من به سادگی از توزیع بتا استفاده می کنم، اما آنالوگ چند متغیره، توزیع دیریکله نیز نامناسب به نظر می رسد. به جای اینکه همه متغیرهای ورودی را در بازه [0,1] بخواهد، متغیرهای ورودی را محدود می‌کند تا 1 جمع شوند. علاوه بر این، به نظر می‌رسد که توزیع به ماتریس کوواریانس بستگی ندارد - به نظر می‌رسد با توجه به واریانس‌های مشابه، قادر به تشخیص کوواریانس بالا از کوواریانس پایین نیست. از چه نوع توزیعی باید استفاده کنم؟
تخمین توزیع احتمال مشترک با آنتی مد
44896
پس از نصب coxmodel می توان پیش بینی کرد و ریسک نسبی داده های جدید را بازیابی کرد. چیزی که من نمی فهمم این است که ریسک نسبی چگونه برای یک فرد محاسبه می شود و نسبت به آن (یعنی میانگین جمعیت) چقدر است؟ آیا توصیه ای برای منابع برای کمک به درک (من در تجزیه و تحلیل بقا خیلی پیشرفته نیستم پس هر چه ساده تر بهتر)؟
چگونه خروجی predict.coxph را تفسیر کنیم؟
7647
من به دنبال جایگزینی برای Google Docs به عنوان یک برنامه صفحه گسترده مبتنی بر وب بودم زیرا فایروال شرکتی کارفرمای من اکنون این برنامه را مسدود می کند. من چند گزینه جایگزین مانند Zoho.com را بررسی کردم. من دومی را عملا غیر قابل استفاده یافتم. همه برنامه های آن زمان زیادی برای بارگیری طول می کشد و واقعاً در اکثر مواقع به خوبی کار نمی کنند. وقتی با EditGrid روبرو شدم، خوشحال شدم. در بسیاری از موارد بسیار شبیه به اکسل است. با این حال، هیچ پشتیبانی ظاهری به جز یک مرکز راهنمایی غیرفعال وجود ندارد و همیشه مشکلات من را برطرف نمی کند. به عنوان مثال، من نمی دانم که چگونه عناوین و افسانه ها را در نمودارها قرار دهم. من همچنین نمی دانم که چگونه می توان پوشه ایجاد کرد. فکر کردم شاید کسی با EditGrid آشنا باشد و بتواند مستقیماً به من کمک کند یا به من در جهت یک گروه پشتیبانی راهنمایی کند. پیشاپیش از هرگونه اطلاعاتی متشکرم
آیا کسی از صفحه گسترده مبتنی بر وب EditGrid.com استفاده می کند؟
40577
می‌خواهم بدانم که اغلب باید برخی از صفحات وب را جستجو کنم تا مطمئن شوم که جدیدترین محتوا را در سریع‌ترین زمان ممکن دارم. رویکرد ساده لوحانه در این مورد، محاسبه میانگین در یک دوره زمانی معین است. با این حال، صفحات وب مختلف با نرخ های مختلف به روز می شوند، بنابراین این مناسب نیست. من کمی جستجو کردم، و ظاهراً توزیع پواسون برای این نوع تخمین مناسب است. سوال من این است که چگونه باید لامبدا را محاسبه کنم؟ و باید دائما به روز شود، درست است؟ **ویرایش:** پاسخ جان به من کمک کرد. برای ارجاع بیشتر، این مقاله را بررسی کنید: تخمین فرکانس تغییر با تشکر
فرکانس تغییر صفحه وب
62755
این با سوالی که دیروز پرسیدم ارتباط نزدیکی دارد اما اکنون پاسخ بسیار کامل تری دریافت کرده ام که امیدوار بودم در مورد آن بازخورد دریافت کنم. سوال قبلی فقط به دنبال مشاوره مفهومی بود و بسیار مفید بود. می توانید داده ها و مقدمه مربوطه را در اینجا بیابید. من می خواستم برای هر گروه سنی اثرات پریود را پیدا کنم. من دو رگرسیون را با استفاده از dummies به عنوان بخشی از یک اصطلاح تعامل اجرا کردم. امیدوارم ببینم آیا روش من ناقص است و آیا تفسیر من از نتایج صحیح است یا خیر. اولین رگرسیون آنها به این صورت است: > ## با استفاده از factor() YearDummy و AgeGroupDummy تولید کنید > > YearDummy <- factor(YearVar) > AgeGroupDummy <- factor(AgeGroup) > > ## بررسی کنید که YearDummy و CohortDummy واقعاً متغیرهای فاکتور هستند. > > is.factor(YearDummy) [1] TRUE > is.factor(AgeGroupDummy) [1] TRUE > ## در AgeGroup پسرفت کنید و عبارت‌های تعامل AgeGroup*YearDummy را شامل شود > > PooledOLS1 <- lm(PPHPY ~ AgeGroup + AgeGroup*YearDummy + 0, data=PoolSumarypool) : lm(فرمول = PPHPY ~ AgeGroup + AgeGroup * YearDummy + 0, data = maildatapooled) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -38.852 -10.632 - 3.298 11.275 26.481 ضرایب Estim. خطای t مقدار Pr(>|t|) AgeGroup 26.2212 3.5070 7.477 3.84e-10 *** YearDummy1 119.8836 15.6840 7.644 1.99e-10 *** YearDummy2 5.89.801. 7.55e-11 *** YearDummy3 103.2660 15.6840 6.584 1.28e-08 *** YearDummy4 97.7102 15.6840 6.230 5.06e-08 *** YearDummy5 6.685 9410 1.26e-08 *** YearDummy6 103.2330 15.6840 6.582 1.29e-08 *** YearDummy7 84.8291 15.6840 5.409 1.16e-06 *** YearDummy18 404.718 704.7 3.09e-05 *** YearDummy9 90.9566 15.6840 5.799 2.65e-07 *** YearDummy10 50.0885 15.6840 3.194 0.00224 ** YearDummy11 4020 4020. 0.01933 * YearDummy12 33.1947 15.6840 2.116 0.03846 * AgeGroup:YearDummy2 1.8066 4.9597 0.364 0.71695 AgeGroup:329My -Year -0.767 0.44632 AgeGroup:YearDummy4 -1.7436 4.9597 -0.352 0.72640 AgeGroup:YearDummy5 -6.0494 4.9597 -1.220 0.2220 - 0.222735 -1.220 -1 4.9597 -1.371 0.17552 AgeGroup:YearDummy7 -3.6752 4.9597 -0.741 0.46158 AgeGroup:YearDummy8 -0.4799 4.9597 -0.09roupmyY: -9.8190 4.9597 -1.980 0.05232. AgeGroup:YearDummy10 -2.2452 4.9597 -0.453 0.65241 تفسیر من از ضرایب اصطلاح تعامل این است که آنها تفاوت در شیب AgeGroup بین دوره مربوط به YearDummy و شیب AgeGroup در بالای نتایج را نشان می دهند. این به نوعی مانند اثر AgeGroup در دوره های مختلف است. رگرسیون دوم من به شرح زیر است: > ## Regress YearVar و شامل YearVar*AgeGroupDUmmy > > PooledOLS2 <- lm(PPHPY ~ YearVar + YearVar*AgeGroupDummy + 0، data=maildatapooled) > خلاصه(PooledOLS2PY(فرم PooledOLS2) فراخوانی: ~ YearVar + YearVar * AgeGroupDummy + 0، داده = maildatapooled) باقیمانده ها: حداقل 1Q Median 3Q Max -29.345 -9.325 -0.915 8.540 40.150 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) YearVar -7.089 1.252 -5.664 3.04e-07 *** AgeGroupDummy1 142.292 9.211 15.447 < 2e-16 *** AgeGroupDummy2 189.250 <3.211 189. 2e-16 *** AgeGroupDummy3 218.170 9.211 23.685 < 2e-16 *** AgeGroupDummy4 255.733 9.211 27.763 < 2e-16 *** AgeGroupDummy4 .2e-16 *** AgeGroupDummy4. 2e-16 *** AgeGroupDummy6 300.910 9.211 32.667 < 2e-16 *** AgeGroupDummy7 282.325 9.211 30.650 < 2e-16 *** YearVar:AgeGroupDummy -1.7.7.7my 0.3298 YearVar:AgeGroupDummy3 -2.401 1.770 -1.357 0.1792 YearVar:AgeGroupDummy4 -3.772 1.770 -2.131 0.0366 * YearVar:AgeGroupDummy -2.7715 -2.7715 0.1040 YearVar:AgeGroupDummy6 -3.587 1.770 -2.026 0.0465 * YearVar:AgeGroupDummy7 -2.372 1.770 -1.340 0.1846 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 14.97 در 70 درجه آزادی چندگانه R-squared: 0.9946، R-squared تنظیم شده: 0.9935 آمار: 917.9 در 14 و 70 DF، p-value: < 2.2e-16 تفسیر من از ضرایب ترم تعامل در اینجا این است که آنها نشان دهنده تفاوت در شیب YearVar بین AgeGroup مربوطه در عبارت تعامل و نتیجه YearVar در بالا هستند. یعنی چیزی شبیه یک اثر دوره ای در گروه های سنی مختلف هستند. آیا کسی می تواند مشکلی را در مورد کاری که من اینجا انجام داده ام یا با تفسیر من ببیند؟ این رگرسیون دوم نزدیک‌ترین چیزی است که به اثرات دوره در گروه‌های سنی مشخصی که من توانسته‌ام جمع‌آوری کنم، است. هر گونه انتقاد / ایده جدید پذیرفته می شود.
اثرات دوره در داده های سری زمانی تلفیقی در R
44892
این یک مشکل از هفتمین المپیاد دانشجویی کولموگروف در نظریه احتمال است: > با توجه به یک مشاهده $X$ از یک توزیع $\operatorname{Normal}(\mu,\sigma^2)$ > با هر دو پارامتر ناشناخته، یک فاصله اطمینان برای > $\sigma^2$ با سطح اطمینان حداقل 99٪. به نظر من این باید غیرممکن باشد. من راه حلش رو دارم ولی هنوز نخوندمش هر فکری؟ چند روز دیگه راه حل رو میذارم [ویرایش بعدی: راه حل رسمی در زیر پست شده است. راه حل کاردینال طولانی تر است، اما فاصله اطمینان بهتری می دهد. همچنین از Max و Glen_b برای نظرشان تشکر می کنم.]
فاصله اطمینان برای واریانس با توجه به یک مشاهده
44895
من در حال انجام یک تحلیل رگرسیون هستم که من را ناراحت کرد. متغیر مستقل من 4 جزء شرایط بین سیاره ای است و متغیر وابسته عرض جغرافیایی مرز بیضی شفق است. تا کنون، رابطه خاص هنوز در اصل فیزیکی ناشناخته است، کاری که ما می‌خواهیم انجام دهیم این است که یک مدل (بیان تابع) از داده‌های عظیم بدست آوریم که نشان می‌دهد این متغیرهای مستقل چگونه بر متغیر وابسته تأثیر می‌گذارند. من از جعبه ابزار آماری Matlab برای انجام تحلیل رگرسیون استفاده کردم، اما نتایج بسیار بد بود. مقادیر p آماره F و آماره t بسیار کوچک است، اما R² نیز بسیار پایین است، حدود 20%. بنابراین چگونه باید R² را بهبود بخشم؟ آیا روش های خوبی وجود دارد؟ من می بینم که SVM (یا LS-SVM) می تواند تجزیه و تحلیل رگرسیون را انجام دهد، آیا این روش خوبی برای مدیریت داده های عظیم، تجزیه و تحلیل رگرسیون متغیرهای مستقل چندگانه است؟ نتایج زیر عبارتند از: mdl = مدل رگرسیون خطی: y ~ 1 + x1*x2 + x1*x3 + x1*x4 + x2*x3 + x2*x4 + x1^2 + x2^2 + x3^2 ​​+ x4^ 2 تعداد مشاهدات: 18471، درجه آزادی خطا: 18457 ریشه میانگین مربع خطا: 2.44 R-squared: 0.225، Adjusted R-Squared 0.225 F-statistic در مقابل مدل ثابت: 413، p-value = 0 وقتی یک پیش بینی کننده دیگر اضافه می کنیم، یعنی متغیرهای مستقل 5 می شوند، نتایج تحلیل رگرسیون عبارتند از: رگرسیون خطی مدل: y ~ 1 + x1*x2 + x1*x3 + x1*x4 + x1*x5 + x2*x3 + x2*x4 + x2*x5 + x3*x5 + x2^2 + x3^2 ​​+ x4^2 + x5^2 تعداد مشاهدات: 18457، درجه آزادی خطا: 18439 ریشه میانگین مربع خطا: 2.21 R-squared: 0.366، Adjusted R-Squared 0.366 آماره F در مقابل مدل ثابت: 627، p-value = 0
چگونه یک مدل رگرسیون خوب بدست آوریم؟
5634
بنابراین من داده هایی مانند: هزینه 20 30 10 5 رتبه بندی 5 3 2 5 می خواهم نموداری از رتبه بندی در مقابل هزینه ایجاد کنم، بنابراین امتیازها [(5،20)، (3،30)، (2،10) خواهد بود. )، (5،5)] به نظر نمی رسد که من نمی توانم اکسل را برای انجام کاری غیر از قرار دادن دو ردیف به عنوان سریال مستقل انجام دهم. آیا چیزی را از دست داده ام، یا باید داده ها را به نحوی تغییر دهم تا آن را انجام دهم؟ (در واقع، من از یک نسخه قدیمی Numbers.app در OS X استفاده می کنم، اما امیدوارم مفهوم آن یکسان باشد. در صورت نیاز به اکسل دسترسی دارم.)
در اکسل چگونه دو سطر را در مقابل یکدیگر رسم کنم؟
30644
من گیج شده ام که فرآیندهای گاوسی و کریجینگ چگونه به هم مرتبط هستند؟ کسی میتونه یه توضیح ساده بهم بده لطفا سعی کردم از طریق ویکی سر بزنم اما نگرفتم
سوالات مربوط به فرآیندهای گاوسی و کریجینگ
11872
من علاقه مند به یافتن راه هایی در R برای به روز رسانی موثر یک مدل خطی در هنگام اضافه شدن یک مشاهده یا یک پیش بینی هستم. biglm هنگام اضافه کردن مشاهدات قابلیت به‌روزرسانی دارد، اما داده‌های من به اندازه‌ای کوچک هستند که در حافظه باقی بمانند (اگرچه تعداد زیادی نمونه برای به‌روزرسانی دارم). راه‌هایی برای انجام این کار با دست خالی وجود دارد، به‌عنوان مثال، برای به‌روزرسانی فاکتورسازی QR (به «به‌روزرسانی فاکتورسازی QR و مشکل حداقل مربعات» توسط Hammarling و Lucas مراجعه کنید)، اما من امیدوار هستم که یک پیاده‌سازی موجود باشد.
به روز رسانی رگرسیون خطی به طور موثر هنگام افزودن مشاهدات و/یا پیش بینی ها در R
57777
به خوبی شناخته شده است که اکثر الگوریتم های انتخاب مدل به راحتی می توانند در یک دام مقایسه چندگانه قرار بگیرند. به نقل از فریدمن: > توسعه یک مدل رگرسیون را در زمینه ای در نظر بگیرید که نظریه ماهوی > ضعیف است. برای تمرکز بر یک حالت شدید، فرض کنید در واقع هیچ رابطه ای بین متغیر وابسته و متغیرهای توضیحی وجود ندارد. > با این حال، اگر متغیرهای توضیحی زیادی وجود داشته باشد، R2 بالا خواهد بود. اگر > متغیرهای توضیحی با آمار t کوچک حذف شوند و معادله > دوباره برازش شود، R2 بالا خواهد ماند و F کلی بسیار > معنادار خواهد شد. این با شبیه سازی و با محاسبه مجانبی نشان داده شده است. حال، فرض کنید که یک مدل رگرسیون چندگانه بر اساس تئوری های متعدد دارید. شما انتظار همبستگی بین $y$ و بسیاری از $X$ های خود را دارید، اما کاملا مطمئن نیستید که چگونه این همبستگی ها تحت تاثیر خطی بودن جزئی بین $X$ های شما قرار می گیرند. علاوه بر این، اجازه دهید بگوییم که شما مشکوک هستید که ممکن است بین برخی از $X$ های شما تعاملاتی وجود داشته باشد، اما مطمئن نیستید. به دلیل همخطی بودن، شما می خواهید یک مدل را با تمام X$ تخمین بزنید، نه چندین مدل جداگانه. حال، بگویید که شما مدل را به جامعه برازش می‌دهید، به جای نمونه‌ای از جامعه. فرض کنید برخی از زیرمجموعه‌های X$ شما و تعاملات شما در واقع پیش‌بینی‌کننده‌های ضعیفی هستند. از آنجایی که شما جزو جمعیت هستید، همه تخمین‌های ضرایب بی‌طرفانه هستند و آن پیش‌بینی‌های ضعیف نشان‌دهنده همبستگی‌های واقعی، اما ضعیف هستند. اما اگر در مورد مدل مطمئن نیستید چه؟ برآوردهای ضرایب از سوگیری متغیرهای حذف شده یا سوگیری در تعیین نادرست یا احتمالاً هر دو رنج می برند. حال از جامعه به نمونه بروید. شما همان مدل غنی را بر اساس بهترین حدس تئوری خود مشخص می کنید، با این انتظار که برخی از جنبه های نظریه شما صحیح باشد و برخی دیگر درست نیست. اگر برخی از پارامترها را **نزنید** (مثلاً از طریق AIC)، مدل شما بیش از حد مناسب است و تعمیم ضعیفی خواهد داشت. اگر شما ** انجام** عبارات خاصی را انتخاب کنید (مثلاً از طریق انتخاب معکوس)، مدل شما از یک مشکل مقایسه چندگانه رنج می برد - برخی ویژگی ها مهم تلقی می شوند حتی اگر همبستگی های جمعیت واقعی را نشان ندهند. بنابراین یک پسر درخواستی باید چه کار کند؟ من یک مجموعه داده پیچیده با دسته ای از متغیرهای همبسته و دسته ای از تئوری های قابل توجیه منطقی دارم. من می‌خواهم آزمایش کنم که آیا حمایتی برای نظریه‌ها وجود دارد یا خیر، و می‌خواهم پیش‌بینی‌هایی (با معیارهای مربوط به عدم قطعیت پیش‌بینی‌ها) بر اساس قوی‌ترین مدلی که می‌توانم بسازم، انجام دهم. من انتخاب تکراری به عقب را انجام داده ام -- عباراتی را حذف می کنم که در صورت حذف شدن، AIC را بیشتر کاهش می دهد. **آیا راهی برای تصحیح خطاهای استاندارد و/یا فواصل پیش بینی برای مقایسه چندگانه پس از انجام انتخاب معکوس وجود دارد**؟ (توجه داشته باشید که من نمی‌خواهم رگرسیون یا کمند انجام دهم، زیرا مایل نیستم بایاس را با واریانس معاوضه کنم. می‌دانم که تعیین نادرست می‌تواند منجر به بایاس شود، اما من از نیمه پارامترها برای جلوگیری از تعیین نادرست فرم عملکردی استفاده می‌کنم. در مورد ویژگی ها.)
آیا راهی برای تصحیح خطاهای استاندارد و/یا فواصل پیش بینی برای مقایسه چندگانه پس از انجام انتخاب معکوس وجود دارد؟
70817
من یک آزمایش با دو درمان دارم. این یک آزمایش اسپلیت پلات، با ساختار Block/Treatment1/Treatment2 است. هر درمان دارای 2 سطح است. متغیر وابسته داده های حضور/غیاب برای گروه های گونه عملکردی است. من داده ها را با استفاده از مدل های ترکیبی از طریق lme4 و afex تجزیه و تحلیل می کنم. ساختار مدل به شرح زیر است: m <- lmer (DV ~ درمان 1 * درمان 2 + (1| بلوک/درمان1)، خانواده = دوجمله ای) اما برای اهداف گرافیکی، من می خواهم میانگین درمان را برای هر یک از 4 درمان ترسیم کنم. ترکیبات (درمان 1 سطح A و درمان 2 سطح A؛ درمان 1 سطح B درمان 2 سطح A؛ درمان 1 سطح B و درمان 2 سطح A؛ درمان 1 سطح B و درمان 2 سطح B). من نتوانستم راهی بصری برای استخراج این مقادیر خطای میانگین و استاندارد در R برای داده هایی با توزیع خطای دو جمله ای پیدا کنم، بنابراین من این مقادیر را با دست محاسبه می کنم. من قدردانی می کنم که خطاهای استانداردی که من محاسبه می کنم، ساختار اثر تصادفی را در مجموعه داده من در نظر نمی گیرند، اما نمی توانم راهی برای محاسبه آنها برای گنجاندن این ساختار اثر تصادفی (با استفاده از شبیه سازی mcmc در زبان R برای ایجاد فواصل اطمینان HPD) پیدا کنم. برای داده های گاوسی کار می کند). به این ترتیب، من می خواهم میانگین درمان را برای نسبت یک گروه عملکردی خاص در یک ترکیب درمانی خاص، و سپس خطاهای استاندارد این 4 میانگین درمانی را محاسبه کنم. در نظر بگیرید که نسبت هایی که من برای یک درمان خاص دارم عبارتند از: پلات 1: 24/65 قطعه 2 26/64 قطعه 3: 25/65 قطعه 4: 22/62 قطعه 5: 30/66 قطعه 6: 29/65 من درک می کنم که برای محاسبه میانگین نسبت باید تعداد کل بازدیدها را جمع کنم (مجموع همه اعدادهای بالا) و تقسیم بر کل مجموع ضربه ها و از دست دادن ها (مجموع همه مخرج های بالا). این به من 0.40 می دهد. سوال من این است که چگونه می توان خطای استاندارد نسبت حاصل را محاسبه کرد؟ با فراخوانی نسبت ضربات p و از دست دادن q، فرمول زیر را برای خطای استاندارد نسبت دارم: sqrt((p*q)/n) آیا این درست است؟ علاوه بر این، n چیست؟ آیا n تعداد نسبت‌هایی است که نسبت میانگین را تشکیل می‌دهند (در این مورد 6) یا تعداد کل ضربه‌ها و خطاها (یعنی مجموع همه مخرج‌های بالا که در اینجا 387 است)؟ متاسفم که این یک سوال ساده است، من فقط نمی توانم پاسخی پیدا کنم! همچنین متاسفم اگر این انجمن درستی برای ارسال این نیست... بسیار متشکرم.
چگونه نسبت های تخمینی و فواصل اطمینان آنها را از یک مدل ترکیبی محاسبه کنیم؟
76415
من روی یک مدل پیش‌بینی سهام کار می‌کنم که قیمت‌های سهام را در روز آینده پیش‌بینی می‌کند. یا برای روشن شدن، آیا مفهوم RMSE و MAD تنها در هنگام نگاه کردن به یک خطای پیش‌بینی سهام مفید است؟ آیا معدل کل RMSE یا MAD برای همه 500 سهام منطقی است؟ ممنون، دیپش
نحوه خواندن RMSE و MAD در مدل پیش بینی سهام
40574
آمار اینجاست من سعی کردم بفهمم آیا تکنیکی برای انجام نوع خاصی از تجزیه و تحلیل وجود دارد یا خیر، اما تاکنون جستجوهای زیاد چیزی به دست نیاورده است. سوال من این است که اگر یک اوج یا فرورفتگی بزرگ در نرخ کلی یک سازمان شناسایی شود، آیا راهی وجود دارد که بتوان تشخیص داد کدام یک از سایت‌های تولیدی سازمان بیشترین کمک را به این تغییر نرخ داشته است؟ داده ها یک سازمان و عملکرد آن را در برابر معیار عملکرد مبتنی بر نرخ (مثلاً درصد هدر رفتن در خط تولید ماشین لباسشویی) توصیف می کنند. مجموعه داده شامل 4 فیلد است. این فیلدها عبارتند از: 1. سایت (100+ از اینها وجود دارد) 2. ماه 3. شمارنده (تعداد واشرهای از دست رفته به هدر رفت) 4. مخرج (تعداد کل واشرهای تولید شده) سازمان بر اساس نرخ کلی خود بر عملکرد خود نظارت می کند ( مجموع همه اعداد / مجموع همه مخرج ها) بر اساس ماه. این یک خط روند می دهد. اگر یک افزایش/کاهش ناگهانی در نرخ وجود داشته باشد، سازمان می‌خواهد سایت‌هایی را هدف قرار دهد که بیشترین کمک را در این تغییر نرخ داشته‌اند. مطمئن نیستم که پاسخی برای این سوال وجود داشته باشد، زیرا یک سایت ممکن است کاهش در مخرج و دیگری افزایش در مقدار عددی خود را ببیند، به این معنی که این سایت ها هر دو تغییر کوچکی نشان می دهند، در حالی که سازمان به عنوان یک کل ممکن است هنگامی که ارقام ترکیب می شوند و نرخ کلی محاسبه می شود، یک تغییر مقیاس بزرگتر را مشاهده کنید. من در ابتدا به چیزی مانند یک رگرسیون لجستیک با وزن دادن فکر می کردم، اما مطمئن نبودم که آیا این کاملا راه حلی است یا نه...
نرخ های موثر بر نرخ ها
14413
درک من این است که یک نسبت خطر از مدل مخاطرات متناسب کاکس، اثر روی نرخ خطر یک عامل معین را با یک گروه مرجع مقایسه می‌کند. آیا آن گروه واقعی باید در داده ها وجود داشته باشد؟ فرض کنید افراد را در مطالعه ای ثبت نام می کنیم که چه مدت قبل از خرید یک کاناپه. ما در 3 سالگی سانسور می کنیم. برای این مثال ما دو عامل داریم: سن <30 یا >= 30 سال، اینکه آیا آنها گربه دارند. به نظر می رسد نسبت خطر گربه خود به گروه مرجع (سن <30، گربه ندارد) 1.2 و قابل توجه است (مثلاً 0.05 p<). آیا می دانم که داده ها شامل افراد کمتر از 30 سال است که گربه ندارند؟ برای این مثال کمی احمقانه به نظر می رسد، اما اگر فاکتورهای زیادی در مدل وجود داشته باشد، تصور اینکه ممکن است هیچ داده ای برای ترکیبی از عوامل وجود نداشته باشد، آسان تر می شود و در صورت انتخاب خودسرانه، ممکن است به عنوان گروه مرجع تبدیل شود. در واقع فکر می کنم این اتفاق افتاده است (در R، اگر مهم باشد).
آیا «گروه مرجع» در مدل خطرات متناسب کاکس باید وجود داشته باشد؟
7648
من به دنبال انجام طبقه بندی متن/فیلتر هرزنامه با استفاده از طبقه بندی کننده های ساده بیزی با بسته e1071 یا klaR در R هستم. آیا آموزش خوبی برای توصیف این موضوع وجود دارد؟ من به نوعی گیر کرده ام زیرا مطمئن نیستم از چه چیزی به عنوان داده برای ورود به تابع NaiveBayes استفاده کنم. برخی از کمک بسیار قدردانی می کنم، با تشکر!
فیلتر کردن هرزنامه با استفاده از طبقه بندی کننده های ساده بیزی با بسته e1071/klaR در R
44898
در تحقیقاتم روی برخی از داده ها کار می کنم (بیایید آن را داده های فروش بنامیم)، اما تقریباً هیچ اطلاعاتی در مورد نمونه اصلی نداریم. هدف من ارائه توضیحات احتمالی در مورد اینکه چگونه می توان آن را با استدلال های سازگاری نمونه برداری کرد. به طور دقیق تر، داده های ارائه شده از معاملات فروش تشکیل شده و دارای 2 ستون (خریدار و گیرنده) می باشد. یکی از معقول‌ترین راه‌ها برای نمونه‌برداری این است (به اعتقاد ما) اختصاص یک احتمال (p) برای شامل یا نبودن هر تراکنش، و سپس شامل کردن زیرمجموعه‌ای از تراکنش‌ها بر اساس تحقق‌های تصادفی (نمونه‌گیری بدون جایگزینی). این مربوط به نمونه برداری دو جمله ای است. اطلاعات ما در مورد نمونه اصلی محدود است (تقریبا هیچکدام)، به جز اینکه من تخمینی از تعداد کل خریدارانی که ممکن است در کل وجود داشته باشد (حدود 2 میلیون نفر) دارم. علاوه بر این، ما فرض می‌کنیم که خریداران، مشتریانی هستند که به یک شبکه ارائه‌دهنده داده اصلی تعلق دارند، اما ممکن است فروشندگان متعلق به شبکه‌های دیگر باشند، بنابراین توجه ما به خریداران محدود می‌شود. استدلال سازگاری بر اساس موارد زیر است: در شبکه اصلی اگر خریدار بسیار فعال باشد (تراکنش های بیشتری وجود دارد) پس احتمال اینکه آن خریدار خاص در یک نمونه قرار گیرد بیشتر از مشتری کمتر فعال است. سپس با شمارش تعداد تراکنش‌هایی که هر خریدار انجام می‌دهد، و گروه‌بندی آن‌ها بر اساس تعداد رایج تراکنش‌ها - تعداد خریدارانی را که تعداد تراکنش‌های $i$ انجام می‌دهند، دریافت می‌کنیم. سپس، بر اساس برآورد ما از تعداد کل خریداران در شبکه (2 M)، هدف من برآورد نرخ نمونه برداری (p) است. کد R: set.seed(0); ##تولید معاملات فروش تصادفی ss1= sample.int( 100، اندازه = 100، جایگزینی = TRUE، prob = NULL) ss2 = sample.int(10000، اندازه = 100، جایگزین = TRUE، prob = NULL) خریدار = مرتب سازی( ss1، کاهش=TRUE); گیرنده = مرتب سازی (ss2، کاهش = TRUE); data= data.frame(buyer= خریدار، گیرنده= گیرنده); ##تعداد فروش را محاسبه کنید - هر خریدار count= data.frame(table(buyer)); buyer.sales = count[order(count$Freq,decreasing=TRUE)]; df = data.frame(table(buyer.sales$Freq)); ##تعداد خریدارانی که 1 تراکنش، 2 تراکنش و غیره انجام می دهند... ## تعداد کل خریداران را حدس می زنیم - 2 میلیون. نرخ نمونه برداری (p) چقدر خواهد بود؟ روش‌هایی که تاکنون امتحان کرده‌ام در اینجا آمده است: **رویکرد 1:** تعداد مشتریانی که تماس‌های «i» را در نمونه (داده‌ها) برقرار می‌کنند، و به طور مشابه X_i تعداد مشتریانی را که تماس «i» برقرار می‌کنند، در نظر بگیرید. در شبکه اصلی ما Y ها را می شناسیم و سعی می کنیم X را بدست آوریم. سپس اگر تراکنش ها با نرخ p ثابت نمونه برداری شوند، آنگاه $Y_i = sum_{k=i}^{k= max(i)} N_k * (انتخاب(k,i))* p^k * (1-p )^{(n-k)}$; اگر ماتریس A را به صورت زیر تعریف کنیم: A <- تابع(i,j,prob) ifelse(i >j, 0,(choose(j,i)*((1-prob)^(j-i))*(prob ^(i))))) مشکل حل A*x=b است که راه حل آسانی دارد زیرا A مثلث بالایی است. اما برای مشکل فعلی من، مقادیر x که من دریافت می‌کنم معنی ندارد - آنها بسیار بین بی‌نهایت به علاوه منهای هستند و در حالت ایده‌آل فکر می‌کنم که بردار x باید نوعی همبستگی با y داشته باشد. من سیستم خطی برابری ها را با به حداقل رساندن هنجارهای L1، L2 و همچنین با محدودیت های مثبت حل کردم. با این حال، نتایج همبستگی ندارند - و مجموع x_i ها بسیار متفاوت از 2M است. **رویکرد 2:** این رویکرد بر روی نمونه گیری فرعی از نمونه (داده) است. فکر کردم می‌توانم از نمونه با یک p داده شده نمونه‌برداری کنم، سپس تعداد خریدارانی را که در آن نمونه فرعی به دست می‌آورم بشمارم. مقدار احتمال –p که نسبت زیر را ایجاد می کند (تعداد خریداران اصلی / تعداد خریداران نمونه) برابر با (تعداد خریداران نمونه / تعداد خریداران در نمونه فرعی) منطقی ترین انتخاب خواهد بود. . این رویکرد به من p~0.02٪ داد اما فکر نمی‌کنم این درست باشد. من فکر می کنم رویکرد 1 منطقی تر است اما نتایج این را نشان نمی دهد. همچنین باید توجه داشته باشم که داده های موجود از داده های تراکنش ماهانه برای یک دوره 12 ماهه تشکیل شده است. بنابراین مقدار داده ای که من به عنوان نمونه انتخاب می کنم نیز مهم است. من تخمین نرخ پواسون را امتحان کردم (اندازه یک جمعیت نمونه برداری شده را با تعداد مشاهدات تکراری تخمین بزنید) اما مقدار داده ای که من در آن گنجانده ام، به شدت بر تخمین تعداد کل خریداران تأثیر می گذارد - و من واقعاً گیر کرده ام. من فکر می کنم که داده های اصلی نوعی رفتار قانون قدرت دارند، اما این صرفاً یک حدس و بدون هیچ توجیهی است. من واقعا گیر کردم که کدام رویکرد منطقی تر است. هر گونه نظر، ایده قدردانی می شود.
استنباط بر جمعیت اصلی بر اساس نمونه - تخمین احتمال نمونه گیری
83118
فرض کنید $N$ سری زمانی $X_t^i$ برای $i=1...N$ داریم و می خواهیم یک سری زمانی جداگانه $Y_t$ را پیش بینی کنیم. بیایید مدل زیر را در نظر بگیریم: $Y_t = \sum_{i} \beta_i X_{t-1}^i $ من فقط سعی می کنم بفهمم چه زمانی چنین مدلی منطقی است * آیا این مدل نامی دارد؟ آیا تفسیری از نظر فرآیندهای تصادفی وجود دارد؟ آیا برنامه های کاربردی شناخته شده ای وجود دارد؟ * آیا منطقی است که $\beta_i$ را با استفاده از رویکردهای رگرسیون (رج، کمند، و غیره) با استفاده از نقاط آموزشی $(<x_{t-1}^1... x_{t-1}^N> حل کنید. ، y_t)$؟
رگرسیون خطی برای پیش‌بینی سری‌های زمانی
70030
من روی داده‌های عدم تعادل چند کلاسی کار می‌کنم. می‌خواهم کلاس‌هایم را بر اساس یک روش وروس یک تقسیم کنم و سپس تکنیک نمونه‌برداری را انجام دهم. آیا در libsvm امکان پذیر است؟
تقسیم چند کلاس به کلاس باینری با استفاده از libsvm (نه طبقه بندی)
14206
من از SVM برای پیش بینی دیابت استفاده می کنم. من از مجموعه داده های BRFSS برای این منظور استفاده می کنم. این مجموعه داده دارای ابعاد 432607 دلار \ برابر 136 دلار است و به صورت کج است. درصد `Y`s در متغیر هدف $11\%$ است در حالی که `N`s باقیمانده $89\%$ را تشکیل می دهد. من از 136 متغیر مستقل از مجموعه داده فقط از 15 استفاده می کنم. یکی از دلایل کاهش مجموعه داده ها، داشتن نمونه های آموزشی بیشتر در صورت حذف ردیف های حاوی `NA` بود. این «15» متغیر پس از اجرای روش‌های آماری مانند درختان تصادفی، رگرسیون لجستیک و یافتن اینکه کدام متغیرها از مدل‌های به‌دست‌آمده معنادار هستند، انتخاب شدند. برای مثال، پس از اجرای رگرسیون لجستیک، از «p-value» برای مرتب کردن مهم‌ترین متغیرها استفاده کردیم. آیا روش من برای انجام انتخاب متغیر صحیح است؟ هر گونه پیشنهاد به شدت استقبال می شود. زیر پیاده سازی «R» من است. library(e1071) # ماشین‌های بردار پشتیبانی #---------------------------------------- --------------------------- # خواندن فایل brfss (فایل عظیم 135 مگابایت) #----------------------------------------------- ------------------- y <- نشانگر read.csv(http://www.hofroe.net/stat579/brfss%2009/brfss-2009-clean.csv) <- c(DIABETE2، GENHLTH، PERSDOC2، SEX ، FLUSHOT3، PNEUVAC3، X_RFHYPE5، X_RFCHOL، RACE2، X_SMOKER3، X_AGE_G، X_BMI4CAT، X_INCOMG، X_RFDRHV3، X_RFDRHV3، X_STATE)؛ هدف <- DIABETE2; دیابت <- y[، نشانگر]; #----------------------------------------------- ------------------- # کد مجدد DIABETE2 #----------------------------------------------- ------------------- x <- دیابت$DIABETE2; x[x > 1] <- 'N'; x[x != 'N'] <- 'Y'; دیابت$DIABETE2 <- x; rm(x); #----------------------------------------------- ------------------- # حذف NA #----------------------------------------------- ------------------- x <- na.omit(دیابت); دیابت <- x; rm(x); #----------------------------------------------- ------------------- # تحقیق قابل تکرار #----------------------------------------------- ------------------- set.seed(1612); nsamples <- 1000; نمونه. دیابت <- دیابت[نمونه(nrow(دیابت)، nsamples)، ]; #----------------------------------------------- ------------------- # مجموعه داده را به آموزش و آزمایش تقسیم کنید #----------------------------------------------- ------------------- نسبت <- 0.7; train.samples <- ratio*nsamples; train.rows <- c(sample(nrow(sample.diabetes), trunc(train.samples))); train.set <- sample.diabetes[train.rows, ]; test.set <- sample.diabetes[-train.rows, ]; train.result <- train.set[ , which(names(train.set) == target)]; test.result <- test.set[ , which(names(test.set) == target)]; #----------------------------------------------- ------------------- # SVM #----------------------------------------------- ------------------- فرمول <- as.formula(factor(DIABETE2) ~ . ); svm.tune <- tune.svm(فرمول، داده = train.set، گاما = 10^(-3:0)، هزینه = 10^(-1:1)); svm.model <- svm(فرمول، داده = train.set، هسته = خطی، گاما = svm.tune$best.parameters$gamma، هزینه = svm.tune$best.parameters$cost); #----------------------------------------------- ------------------- # ماتریس سردرگمی #----------------------------------------------- ------------------- train.pred <- predict(svm.model, train.set); test.pred <- predict(svm.model, test.set); svm.table <- table(pred = test.pred، true = test.result); چاپ (svm.table); من با نمونه های 1000 دلاری (آموزش = 700 دلار و تست = 300 دلار) دویدم زیرا در لپ تاپ من سریعتر است. ماتریس سردرگمی برای داده های تست (نمونه های 300 دلاری) که من دریافت می کنم بسیار بد است. true pred N Y N 262 38 Y 0 0 من باید پیش بینی خود را برای کلاس 'Y' بهبود بخشم. در واقع، من باید تا حد امکان با «Y» دقیق باشم، حتی اگر با «N» عملکرد ضعیفی داشته باشم. هر گونه پیشنهاد برای بهبود دقت طبقه بندی بسیار قدردانی خواهد شد.
بهبود طبقه بندی SVM دیابت
83116
من از کتابخانه R 'multcomp' (http://cran.r-project.org/web/packages/multcomp/) برای محاسبه آزمون Dunnett استفاده می کنم. من از اسکریپت زیر استفاده می کنم: گروه <- فاکتور(c(A، A، B، B، B، C، C، C، D، «D»، «D»، «E»، «E»، «F»، «F»، «F»)) مقدار <- c(5,5.09901951359278,4.69041575982343,4.58257569495584,4.7958 3152331272,5,5,09901951359278,4.24264068711928,5.099019513592 78,5.19615242270663,4.58257569495584,6.16441400296898,6.85565 460040104,7.68114574786861,7.07106781186548,6.48074069840786) data <- data.frame(Group, Value) aov <- aov(Value ~ Group, data) summary(glht(aov, linfct=mcp(Group=Dunnett))) حالا اگر این اسکریپت را از طریق R Console اجرا کنم چندین بار من هر بار نتایج بسیار کمی متفاوت می گیرم. در اینجا یک مثال آورده شده است: آزمون‌های همزمان برای فرضیه‌های خطی عمومی مقایسه‌های چندگانه میانگین‌ها: تضادهای Dunnett برازش: aov(فرمول = مقدار ~ گروه، داده = داده) فرضیه‌های خطی: برآورد Std. خطای t مقدار Pr(>|t|) B - A == 0 -0.35990 0.37009 -0.972 0.76545 C - A == 0 -0.26896 0.37009 -0.727 0.90019 D - A == 0.26 -0. 0.99894 E - A == 0 1.46052 0.40541 3.603 0.01710 * F - A == 0 2.02814 0.37009 5.480 0.00104 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (مقادیر p تعدیل شده -- روش تک مرحله ای) و در اینجا آزمایش های همزمان برای فرضیه های خطی عمومی مقایسه چندگانه معنی: تناسب تضادهای دونت: aov(فرمول = مقدار ~ گروه، داده = داده ها) فرضیه های خطی: برآورد Std. خطای t مقدار Pr(>|t|) B - A == 0 -0.35990 0.37009 -0.972 0.7654 C - A == 0 -0.26896 0.37009 -0.727 0.9001 D - A == 0 -0.09 -0.02 0.9989 E - A == 0 1.46052 0.40541 3.603 0.0173 * F - A == 0 2.02814 0.37009 5.480 <0.001 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (مقادیر p تعدیل شده -- روش تک مرحله ای) همانطور که می بینید، دو نتیجه فوق بسیار کمی متفاوت هستند، اما برای انتقال گروه نهایی (F) از دو ستاره به سه ستاره کافی است که به نظر من نگران کننده است. چند سوال در این رابطه دارم: 1. چرا این اتفاق می افتد؟! مطمئناً اگر هر بار همان داده ها را وارد کنید، باید همان داده ها را دریافت کنید. 2. آیا نوعی اعداد تصادفی در جایی در محاسبات Dunnett استفاده می شود؟ 3. آیا این تغییرات جزئی هر بار واقعاً یک مشکل است؟
تست دانت در R هر بار مقادیر متفاوتی را برمی گرداند
104419
من شنیدم که F-test به شما توصیه می کند که آیا از اثرات ثابت یا OLS استفاده کنید. با این حال، من هیچ جزئیاتی در مورد آن در کتاب ها پیدا نکردم. فقط در مطالعات بسیار کمی. فرضیه آزمون چیست؟ بعد از اینکه مدل ثابت خود را اجرا کردم، تست F گرفتم که همه u_i=0: F(100, 389) = 2.98 Prob > F = 0.0000 همانطور که فهمیدم «u_i=0» به این معنی است که از اثر ثابت استفاده خواهم کرد (راست می گویم؟) به طور کلی این تست F در مقایسه با تست هاسمن و تست LM چقدر دقیق است، با توجه به این واقعیت که ما به دانستن اینکه آیا از اثرات ثابت یا OLS ترکیبی استفاده کنیم، پایان خواهیم داد؟
تست F در داده های پانل چقدر دقیق است
96207
> فرض کنید $X_{1},..,X_{n}$ نمونه ای از توزیع عادی با میانگین > ${\theta}$ و واریانس 1 باشد. فرض کنید $H_{0}:{\theta}={\theta }_{0}$ و > $H_{1}:{\theta}={\theta}_{1}$. از لم نیمن-پیرسون استفاده کنید تا نشان دهید که > بهترین آزمون برای $H_{0}$ در مقابل $H_{1}$ دارای یک ناحیه بحرانی از شکل > mean$(X_{1},..,X_{n} است. ){\geq}k$. من این قسمت را انجام داده ام. سوال بعدی این است: > اجازه دهید ${\theta}_{0}=0$ و ${\theta}_{1}=1$. مقادیر $n$ و $k$ را پیدا کنید تا > تابع توان آزمون ${\phi}$ دارای مقادیر > ${\phi}{\theta}_{0}=0.01$ و ${\phi باشد. }{\theta}_{1}=0.9$. قانون تصمیم مربوطه > را بنویسید. کار من تاکنون: اجازه دهید $Y= \text{mean}(X_{1},..,X_{n})$. ما $P(Y{\geq}k|{\theta}_{0})=0.01$ داریم. به طور مشابه برای ${\theta}_{1}$. اما چگونه از اینجا بروم؟
آزمون فرضیه و چارچوب نیمن-پیرسون
13821
من در حال ایجاد یک برنامه وب کوچک هستم و بخشی از آن در حال تولید یک عدد است (من دوست دارم آن را ضریب تنوع بنامم) که نشان دهنده میزان تنوع عادات شنیداری افراد است. مشکل این است - من مطمئن نیستم که چگونه یک فرمول معتبر برای آنچه می خواهم ایجاد کنم. من تمام تلاشم را خواهم کرد تا توضیح دهم که چه اطلاعاتی دارم و در نتیجه به چه چیزی نیاز دارم و امیدوارم کسی بتواند راه حلی به من ارائه دهد. حدس می‌زنم هیچ چیز سخت یا پیچیده‌ای نیست، اما من آنقدرها در ریاضیات عمیق نیستم، بنابراین مطمئن نیستم که چگونه به آنچه می‌خواهم برسم (چند روز سعی کردم با ایده‌های فرمول متفاوت بازی کنم، اما نتوانستم به آنچه می‌خواستم برسم). کاری که من انجام می‌دهم این است که - من اطلاعاتی را از پروفایل lastfm جمع‌آوری می‌کنم، که یک وب‌سایت است که به شما امکان می‌دهد موسیقی‌هایی را که گوش می‌دهید ردیابی کنید، و همچنین به شما امکان می‌دهد از تمام داده‌هایی که در سرورهای خود ذخیره کرده‌اند برای ایجاد چیزی با آن داده‌ها استفاده کنید. شما اگر دوست دارید می توانید نمونه ای از یک نمایه و آنچه در مورد آن است را در اینجا مشاهده کنید، فقط برای اینکه بهتر بفهمید در مورد چیست). بنابراین فرض کنید به یک گروه خاص گوش می دهید و تعدادی از آهنگ های آنها را گوش می دهید. اطلاعاتی که من دارم به شرح زیر است: * تعداد کل تعداد دفعاتی که به یک گروه خاص گوش داده اید * تعداد آهنگ های مختلف (از آن گروه) که به آن گوش داده اید * تعداد کل تعداد دفعاتی که به هر یک از آن گروه های مختلف گوش داده اید آهنگ ها به عنوان مثال: * شخصی 1012 بار به گروهی به نام FooBar گوش داد * او به 17 آهنگ مختلف از آن گروه گوش داد * او به اولین آهنگ از آن 17 آهنگ گوش داد. 100 بار، دومی از آن 17 برای 110 بار، سومی 120 بار، چهارمی 170 بار، پنجمی 500 بار و 12 آهنگ باقی مانده فقط یک بار در هر آهنگ. چیزی که من می خواهم در نتیجه داشته باشم عددی است که از 0 تا 100 متغیر است. این عدد نشان دهنده این است که شخصی به تمام آهنگ ها به طور مساوی گوش دهد یا فقط یک یا دو آهنگ از یک گروه را همیشه گوش کند و همه آهنگ های دیگر را فقط یک یا دو بار و سپس آنها را فراموش کند ... 100 عالی امتیاز برای کسی خواهد بود که 500 بار فوبار را گوش داده باشد، 5 آهنگ مختلف، هر کدام 100 بار... یعنی به همان اندازه که می شود. امتیاز 0 (یا برخی از امتیازهای بسیار پایین) برای شخصی است که 500 بار به FooBar گوش داده است، 5 آهنگ مختلف - یکی از آنها برای 496 بار، و چهار آهنگ باقی مانده فقط یک بار در هر آهنگ. من فکر می کنم که این نوعی چگالی است که می خواهم، اما چگونه به آن عدد برسم - مطمئن نیستم.. و اینجاست که به کمک شما نیاز دارم. خوشحال می شوم هر گونه اطلاعات اضافی برای کمک به من ارائه دهم. چیزی شبیه به این است (اگر به این نوارها نگاهی بیندازید که هر کدام یک آهنگ متفاوت (و سهم آن از تعداد کل) را نشان می‌دهند، به همین دلیل است که می‌گویم تراکم): ![نمونه نوارها](http://i) .stack.imgur.com/IoOer.jpg) در این مثال واضح است که Dredg نسبت به Deftones یکنواخت تر است و باید امتیاز بالاتری داشته باشد (در مورد من امتیاز تقریباً یکسان است که خوب نیست، فقط یک چیزی است. که از آزمایش من با فرمول باقی مانده است). با تشکر PS - با خیال راحت تگ ها را ویرایش کنید، من واقعاً نمی دانم چه چیزی را در آنجا قرار دهم.
کمک به ایجاد فرمول برای ضریب تنوع
76414
من حدود 50$ متغیر تصادفی برنولی $X_i$ دارم که توزیع مشترک آنها ناشناخته است، اما می توانم یک نمونه با اندازه به ترتیب $10^4$ ایجاد کنم. آنها مستقل نیستند، اما به نظر من وابستگی نسبتا ضعیف است. من می خواهم ایده ای از ${\rm Pr}({\rm all}\ X_i = 1)$ داشته باشم، که انتظار دارم به طور قابل توجهی کوچکتر از $10^{-4}$، شاید حدود $10^{-6 باشد. }$ (بنابراین بعید است که نمونه حاوی نتایجی با تمام $X_i = 1$ باشد). اگر فرض می‌کردم که آنها مستقل هستند، می‌توانم میانگین آنها را تخمین بزنم و این تخمین‌ها را ضرب کنم. چه کاری می توانم انجام دهم که همبستگی ها را در نظر بگیرد؟
همبستگی متغیرهای تصادفی برنولی
54463
فرض کنید فضای نمونه S یک آزمایش محدود است. نشان دهید که مجموعه تمام زیرمجموعه های S سه شرط لازم برای نامیدن مجموعه رویدادها را برآورده می کند: 1. $S \in \بتا $ 2. $ if \; A \in \بتا، \; A^\complement\in\beta$ 3. $if A_{1},A_{2},\cdots,A_{n}\in\beta,\; A_{1}\cup A_{2}\cdots\cup A_{n}\in\beta$ چگونه می توانم بدیهیات بالا را اثبات کنم؟ یعنی چگونه می توانم نشان دهم که مجموعه همه زیر مجموعه های S سه شرط لازم برای نامیدن مجموعه رویدادها را برآورده می کند. توضیح مفصل با فیلد بورل و اثبات کامل آن به من کمک می کند بینش آماری و مهارت های خود را بهبود بخشم.
درباره جبر سیگما (اثبات میدان بورل)
76411
ما پارامترهای هواشناسی خورشیدی زیر را از طریق داده های ماهواره ای با وضوح 100 کیلومتر ^ 2 دلار (10 کیلومتر در 10 کیلومتر) داریم. تابش در سطح افقی تابش پراکنده در سطح افقی تابش عادی مستقیم به این ترتیب می توانیم حدود 4-5 پارامتر دیگر داشته باشیم که با تولید انرژی خورشیدی مرتبط است. همین پارامترها در 23 ایستگاه زمینی نیز اندازه گیری می شوند. ما همچنین داده های پارامتری مشابهی داریم که در ایستگاه زمینی در مکان های عرض جغرافیایی مربوطه گرفته می شود. هدف ما تخمین تمام پارامترهای خورشیدی برای هر 1 کیلومتر در 1 کیلومتر منطقه خواهد بود. با درون یابی داده های ماهواره ای و داده های ایستگاه زمینی در منطقه مجاور با بهترین دقت ممکن. سوال من این است که بهترین تکنیک درونیابی که می توانیم استفاده کنیم کدام است: لطفاً چند مرجع و نرم افزاری را که می توان استفاده کرد ارائه دهید.
مشکل درون یابی
86197
در حال مطالعه مقاله ویکی پدیا در مورد میانگین بیزی هستم. این در مورد توسعه سیستم های رتبه بندی بسیار جالب به نظر می رسد، اما من شک دارم. چگونه وزن C میانگین را ثابت کنیم؟
چگونه وزن را در میانگین بایسان ثابت کنیم
58368
من در یک پست جدید آمدم زیرا با استفاده از offset در تابع ()gam (بسته mgcv) کاملا گیج شده ام. من در واقع روی پیش‌بینی توزیع شکارچیان برتر دریایی با استفاده از بررسی‌های هوایی (مشاهدات شکارچیان) و خروجی‌های مدل تولید ثانویه کار می‌کنم. داده های من در یک شبکه با وضوح 0.25 درجه، در مناطق وسیعی مانند جنوب غربی اقیانوس هند شکل می گیرند. بررسی ها در چندین بخش بر روی آن شبکه انجام شده است، یعنی از تمام شبکه نمونه برداری نشده است. متغیرهای تولید ثانویه من از مدل SEAPODYM هستند که توسط Lehodey و همکاران توسعه داده شده است. من مجموعه ای از حدود 12 متغیر کمکی دارم و می خواهم بهترین ترکیب آنها را برای _پیش بینی_ توزیع شکارچیان پیدا کنم. گفتنی است، چون هدف من پیش‌بینی توزیع شکارچیان است، پس از حذف تمام ترکیب‌های متغیرهای همبسته، یک انتخاب مدل بر اساس امتیاز GCV انجام دادم. من مشاهدات را مدل‌سازی می‌کنم، بنابراین از یک توزیع شبه‌پوآسون (داده‌های پراکنده بیش‌ازحد) با سطح نمونه‌گیری در هر پیکسل به عنوان یک افست استفاده کردم. من انتخاب مدل خود را با مدلی که به صورت زیر نوشته شده بود انجام دادم: mod1<-gam(Y ~ offset(log(منطقه نمونه))+ covariate1 + covariate2 + covariate3 + covariate4, family = quasipoisson) تا آن زمان، همه چیز به خوبی کار می کرد، اما بعد من شروع به پیش بینی مشاهدات شکارچیان در شبکه کامل من کردم. انجام این کار با مدل قبلی منجر به پیش‌بینی فقط روی پیکسل‌های نمونه‌برداری شد. به دنبال توصیه‌های همکاران، من با استفاده از نوشته دیگری پیش‌بینی کردم، فکر می‌کردم چیزی در نتایج تغییر نمی‌کند: mod2<-gam(Y ~ covariate1 + covariate2 + covariate3 + covariate4، offset (log (منطقه نمونه‌برداری شده))، Family=quasipoisson) در واقع، به من این امکان را می دهد که مشاهده را در کل شبکه پیش بینی کنم، اما از زمانی که به خلاصه های آن نگاه کردم کاملاً گیج شدم. مدل ها نتایج در واقع کاملاً متفاوت است، با هر دو امتیاز GCV و انحرافات توضیح داده شده مقادیر بالاتری دارند: خلاصه (mod1) خانواده: تابع پیوند شبه پواسون: log فرمول: گونه ~ offset (log (منطقه نمونه) + s (متغیر کمکی1,k=4) + s(متغیر کمکی2،k=4) + s(متغیر کمکی3،k=4) + s(covariate4,k=4) ضرایب پارامتری: تخمین مقدار خطای t Pr(>|t|) (فاصله) -0.12268 0.08025 -1.529 0.127 اهمیت تقریبی اصطلاحات صاف: edf Ref.df F p-nk. ) 2.722 2.951 15.89 4.83e-10 *** s(meso_mnk_B) 2.995 3.000 17.52 3.52e-11 *** s(bathy_mnk_P) 2.989 3.000 20.37-1.00 6.2m 2.536 2.855 12.71 6.49e-08 *** --- کدهای علامت: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 1 R-sq.(adj) = 0.0838 توضیح داده شده = 16.4% امتیاز GCV = 22.371 مقیاس تخمینی = 22.188 n = خلاصه 1491 (mod2) خانواده: تابع پیوند شبه پواسون: log فرمول: گونه ~ s(متغیر کمکی1,k=4) + s(متغیر کمکی2,k=4) + s(متغیر کمکی3,k=4) + s(covariate4,k=4) پارامتریک ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 1.30093 0.07884 16.5 <2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 اهمیت تقریبی اصطلاحات صاف: edf Ref.df F p-value s(bathy_mnk_B) 2.802 2.974 17.37e *** s(meso_mnk_B) 3.000 3.000 16.35 1.86e-10 *** s(bathy_mnk_P) 2.988 3.000 27.75 < 2e-16 *** s(mmeso_mnk_P) 2.41-2.41-2.460 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 R-sq.(adj) = 0.0938 انحراف توضیح داده شده = 17.5% امتیاز GCV = 31.809 مقیاس est. = 31.5 1491 با توجه به اینکه من انتخاب مدل خود را بر اساس نمرات GCV، این واقعیت که اینطور تغییر کرد، من را متحیر کرد، و من در تعجب هستم که آیا انتخاب مدل من درست بوده است یا نه. من انتخاب مدل را با مدل دوم (Y~X1+X2، offset) دوباره انجام دادم، و مدل‌های انتخابی به‌دست‌آمده همیشه با روش اول من یکسان نیستند. با دیدن این موضوع به این فکر می کنم که مدل سازی و پیش بینی خود را بر اساس کدام نوشته مدل قرار دهم؟ آیا کسی می تواند به من توضیح دهد که چرا این دو مدل نتایج متفاوتی می دهند؟ پیشاپیش از کمک و راهنمایی شما متشکرم، شارلوت
پیش بینی با GAM، با استفاده از افست
88976
امروز در دوره کوتاه RMS فرانک هارل، متوجه شدم که انتساب چندگانه با «Hmisc:aregImpute» نسبت به ترتیب عبارات در آرگومان فرمول آن تغییری ندارد، و بنابراین باید نتایج انتساب را تحت جایگشت این اصطلاحات بررسی کرد. در اینجا یک تابع ساده است که جایگشت های لازم را ایجاد می کند: perms <- function(n, formula) { rhs <- attr(terms(formula), 'term.labels') formulas <- list() for(i in 1:n) { formulae[[i]] <- as.formula(paste(~, paste(sample(rhs), collapse=+))) } فرمولها } برای مثال: > perms(5، ~ سن + جنس + bp + مرگ + مایل <محیط: 0x10dc9cbb8> [[3]] ~mi + bp + سن + مرگ + جنس <محیط: 0x10dc9cbb8> [[4]] ~ سن + مرگ + bp + جنس + mi <محیط: 0x10dc9cbb8> [[5]] ~bp + سن + مرگ + جنسیت + mi <محیط: 0x10dc9cbb8> > این را می‌توان با «lapply» استفاده کرد به صورت زیر: به عنوان <- lapply(perms(5, ~ سن + جنس + bp + death + mi) , aregImpute, data=mydata, n.impute=10) اما نمی‌دانم که آیا ممکن است منطقی‌تر باشد که این را در خود aregImput ادغام کنیم.
تبدیل آرگومان فرمول به Hmisc:aregImpute
38349
من در تلاش برای درک رفتار نسبی آمار همبستگی رتبه زیر هستم: 1. ضریب اسپیرمن 2. کندال تاو / درصد تطابق 3. ضریب جینی نرمال شده (مساحت زیر منحنی درصد گرفته شده در مقابل درصد مشاهدات) 4. سطح نرمال شده زیر منحنی ROC ( برای طبقه‌بندی‌کننده‌های باینری) من فکر نمی‌کنم هیچ‌کدام از اینها از نظر عملکردی با بقیه مرتبط باشند. پاسخ پذیرفته شده در اینجا به این مقاله اشاره می کند و اسپیرمن و کندال همبستگی بالایی دارند (همانطور که انتظار می رود). آیا شهود خوبی در پشت/بحث‌های نسبی (در میان مجموعه‌های داده) یا مطلق (برای یک مجموعه داده معین) تفاوت‌ها برای (هر جفتی از) این معیارها وجود دارد؟
مقایسه آمار همبستگی رتبه ای
14416
از آنجایی که علم باید تکرارپذیر باشد، طبق تعریف، به رسمیت شناختن فزاینده‌ای وجود دارد که داده‌ها و کد جزء ضروری تکرارپذیری هستند، همانطور که میزگرد ییل برای اشتراک‌گذاری داده و کد مورد بحث قرار گرفته است. در بررسی یک نسخه خطی برای مجله ای که نیازی به اشتراک گذاری داده و کد ندارد، آیا می توانم درخواست کنم که داده ها و کدها 1. در زمان بررسی در دسترس من قرار گیرند. 2. به صورت عمومی در زمان انتشار (ژورنال از مکمل ها پشتیبانی می کند) ، چگونه می توانم چنین درخواستی را بیان کنم؟ * * * _update_: اگرچه من به حالت کلی علاقه مند هستم، این مورد خاص شامل یک متاآنالیز با تمام داده های منتشر شده قبلی است و کد مدل های خطی ساده در SAS _side note_ توانایی استنتاج مطالعات متقابل است (به عنوان هدف متاآنالیز است) اگر مطالعات بیشتری داده های خام را ارائه کند بسیار افزایش می یابد _به روز رسانی 2_: من داده ها و کد را از ویرایشگر برای اهداف درخواست کردم. بررسی، ویرایشگر درخواست را منطقی تلقی کرد و من مطالب درخواستی را (به اندازه کافی اما با نام متغیرهای مرموز، بدون ابرداده، و نظرات درونی کمی) در عرض یک روز دریافت کردم.
به عنوان یک داور، آیا می توانم درخواست داده ها و کدها را توجیه کنم که حتی اگر مجله در دسترس نباشد؟
76410
فرض کنید من شبکه‌ای از سلول‌ها از یک تصویر ماهواره‌ای دارم که مقدار 0 یا 1 را به خود می‌گیرد و 1 جنگل است. معیارهای الگوی فضایی زیادی وجود دارد که چیزهایی را در مورد این الگو اندازه گیری می کند، مانند برخی از ابعاد تکه تکه شدن جنگل. یک مورد رایج، آماره شمارش مشترک است که به اندازه کافی ساده است که انتظارات و واریانس آن برای یک فرآیند تخصیص تصادفی قابل محاسبه باشد. این به فرد امکان می‌دهد تا احتمال یک تعداد پیوست را با مقداری مساوی یا بیشتر از آنچه مشاهده شده، با توجه به یک فرآیند تصادفی تخمین بزند. فقط باید رابطه بین سلول های شبکه (آیا آنها از نظر فضایی به هم متصل هستند/همسایه هستند یا نه) و احتمال اینکه هر سلولی مقدار خاصی به خود بگیرد (مثلاً احتمال جنگل بودن یک سلول و احتمال عدم وجود آن) را بداند. الگوهای فضایی پیچیده تر معمولاً نسخه استانداردی ندارند. به عنوان مثال، محیط تمام لکه های جنگلی را می توان بر مساحت سطح همه تکه ها برای محاسبه نسبت محیط به مساحت تقسیم کرد. هر چه از یک دایره بزرگ (حداقل) دورتر باشد، تکه تکه تر است. محاسبه احتمال هر الگوی فضایی داده شده آسان خواهد بود (به عقیده من، اگر تعداد سلول های جنگلی/غیر جنگلی یکسانی داشته باشند، همه آنها یکسان خواهند بود)، اما من علاقه مند به دانستن مساحت محیطی مورد انتظار هستم. نسبت و واریانس به طوری که معیارهایی از این قبیل را بتوان استاندارد کرد. آیا متنی وجود دارد که کسی بتواند پیشنهاد دهد؟ من به طور گسترده ای در مورد بوم شناسی چشم انداز و زمینه های مرتبط مطالعه کرده ام، اما فکر نمی کنم به این موضوع پرداخته شده باشد، بنابراین برای تحقیق به یک متن ریاضی یا حتی حوزه مطالعاتی نیاز دارم که در حال حاضر از آن اطلاعی ندارم. یک رویکرد ساده شبیه سازی مونت کارلو خواهد بود، اما این روش برای مجموعه هایی حتی نسبتاً بزرگ از سلول های شبکه بسیار فشرده خواهد بود. علاوه بر این، الگوهای مشاهده شده معمولاً در مقایسه با یک فرآیند تصادفی بسیار نادر هستند و بنابراین می‌توانید اجازه دهید شبیه‌سازی برای مدتی طولانی اجرا شود و من معتقدم هرگز دنباله‌های توزیع ایجاد شده توسط آن را پر نکنید تا به یک دسته خوب بر روی آن برسید. احتمال مشاهده الگوی با همان مقدار یا بیشتر. هر گونه راهنمایی مرتبط با دستیابی به هدف من قابل قدردانی است. انگیزه اصلی این کار، آزمایش فرضیه‌های صفر «مرد کاهی» در تخصیص تصادفی نیست، بلکه در عوض قادر به مقایسه الگوها از دو ناحیه و در عین حال حذف برخی از مخدوش‌کننده‌ها به دلیل تفاوت در تعداد سلول‌های اختصاص داده شده به هر دسته است.
تعیین احتمال متریک الگوی فضایی بیشتر از برخی نمونه ها
44899
من می‌خواهم بفهمم که توزیع نمونه‌گیری کل ماتریس کوواریانس برای $n$ بزرگ چگونه رفتار می‌کند. من سعی می کنم از روش دلتا و CLT چند متغیره استفاده کنم. من سعی می‌کنم نشان دهم که وقتی $X$ها IID با گشتاورهای مرتبه چهارم محدود غیرصفر هستند، عملیات (واریانس نمونه) انجام می‌شود، مانند این معادله: $$\sqrt{n}(s_X^2 - \sigma ^2) \underset{n\rightarrow \infty}{\overset{d}{\longrightarrow}} N(0, \mathbb{E}X_1^4 - (\mathbb{E}X_1^2)^2).$$ (برای سادگی، $\mathbb{E}X_i = 0$ را فرض کرده‌ام). برای درک مراحلی که باید بردارم از کمک خواسته می شود. من با مطالعه رفتار مجانبی واریانس نمونه شروع کردم و سپس از روش دلتا برای تابع زیر $g(a,b) = b - a^2$ استفاده کردم.
آیا می توانیم توزیع S را تقریبی کنیم؟
96206
تحت مدل GARCH($m$,$s$)، می توان نشان داد که $ E(\eta_t\eta_{t-j}) = E[(a_t^{2}-\sigma_t^{2})(a_{ t-j}^{2}-\sigma_{t-j}^{2})] = 0 $. در تلاش برای اثبات خود، با $ E(\epsilon_t^{2}\epsilon_{t-j}^{2}) = 1 $ مواجه شدم که $ \epsilon_t \sim^{iid} (0,1) $. آیا واقعاً درست است که اگر $ \epsilon_t \sim^{iid} (0,1) $، آنگاه $ E(\epsilon_t^{2}\epsilon_{t-j}^{2}) = 1 دلار است؟
آیا درست است که اگر $ \epsilon_t \sim^{iid} (0,1) $، آنگاه $ E(\epsilon_t^{2}\epsilon_{t-j}^{2}) = 1 دلار است؟
88973
یک سوال نسبتاً ابتدایی: اگر: $X = X_1 + X_2 + ... + X_n$ و $X_i \sim N(0,\sigma^2)$ و مستقل داشته باشیم، آیا می‌توانیم $X$ را به صورت $\sqrt بیان کنیم. n X_i$ برای هر $i = 1،...،n$ ? من فکر می کنم از آنجایی که همه اجزای $X_i$ از توزیع نرمال پیروی می کنند و ما $n$ از آنها را جمع می کنیم، rv حاصل $X \sim N(0, n\sigma^2)$ است و بنابراین می توانیم از $X استفاده کنیم. = \sqrt n X_i$. آیا این استدلال صحیح است؟ اگر بله، تحت چه شرایطی می تواند نادرست باشد؟
مجموع متغیرهای تصادفی معمولی توزیع شده با توجه به یک جزء
14410
_ریاضیات و آمار در برنامه درسی آموزشی من بسیار عقب مانده اند، و با این حال اکنون به نظر می رسد که دوباره به آنها نیاز دارم، بنابراین این مجموعه سوالات بسیار ابتدایی هستند فکر می کنم:_ ## خط روند چیست؟ چه انواع مختلفی از خطوط روند وجود دارد؟ و کاربرد یا ارتباط آنها چیست؟ ### پیش زمینه: من روی یک پایان نامه کار می کنم و در حال تولید برخی از رندرهای تصویری از نظرسنجی ای هستم که انجام دادم، که در آن سعی کردم دانش عمومی از تاریخ و میراث (استعماری) را در شهر کرالا، هند اندازه گیری کنم. به عنوان مثال، من داده هایی دارم که نشان دهنده نتیجه یک آزمون است که میانگین نتیجه آن با معیارهای مختلف جامعه (سن، تحصیلات و غیره) مقایسه می شود. با توجه به معیارهایی مانند گروه سنی، درآمد یا تحصیلات، این است. همچنین جالب است بدانید که آیا افزایش آنها نتایج را بهبود می بخشد یا خیر. من روی این داده‌ها با LibreOffice کار می‌کنم، که به من امکان نشان دادن یک خط روند را می‌دهد، و فکر می‌کنم خط روند برای نشان دادن رابطه بین _x_ و _y_، یعنی معیارها و نتیجه، کافی است. با این حال، 4 نوع خط روند موجود است: _خطی، لگاریتمی، نمایی_ و _قدرت_. کدام یک را انتخاب کنم؟ چه فرقی می کند؟ اگر LibreOffice آن را برای من انجام ندهد، چگونه می توانم خط روند را پیدا کنم؟ ویکی‌پدیا به این پرسش‌ها اشاره می‌کند. اگرچه مطمئن نیستم که باید به رگرسیون خطی نگاه کنم یا تحلیل خط روند فنی. لطفاً یک مقدمه کوتاه از «خط روند برای آدمک‌ها» ارائه کنید؟ ممنون :)
خط روند چیست؟
40570
آیا کشف نادرست باید در سطح اکتساب داده ها کنترل شود یا این باید در سطح تفسیر داده ها باشد؟ من آزمایشی دارم که در آن از ریزآرایه‌ها برای تعیین کمیت بیان حدود 30000 ژن (متغیر) در دو گروه از بافت‌های بیولوژیکی (گروه‌های 75 و 76) استفاده شد. داده‌های آرایه خام برای حذف سیگنال‌های پس‌زمینه و ژن‌هایی که سطوح بیان آن‌ها غیرقابل تشخیص است، و برای عادی‌سازی مقادیر در سراسر آرایه‌ها، از قبل پردازش شده بود. سپس داده های نهایی با استفاده از آزمون Mann-Whitney U برای مقایسه بیان ژن بین دو گروه برای شناسایی ژن های بیان شده متفاوت، با نرخ کشف کاذب (FDR) که با روش بنجامینی-هوچبرگ کنترل می شود، مورد بررسی قرار گرفت. در FDR <5٪، هیچ ژنی به‌عنوان بیان متفاوت شناسایی نمی‌شود، و من رسماً نتیجه می‌گیرم که هیچ بیان متفاوتی از ژن‌ها بین دو بافت وجود ندارد. حال، فرض کنید شخصی به بیان تنها یک ژن خاص علاقه دارد. با استفاده از مجموعه داده‌های بیان ژن از پیش پردازش‌شده من و آزمون U، آن‌ها دو گروه را برای بیان تنها این ژن مقایسه می‌کنند و متوجه یک مقدار P <0.05 می‌شوند، آستانه معنی‌داری که معمولاً در زمینه مطالعه من استفاده می‌شود. از آنجایی که این شامل آزمایش های متعدد نیست، هیچ کنترل کشف نادرستی وجود ندارد. آیا این ناظر می تواند به طور رسمی نتیجه بگیرد که ژن به طور متفاوتی بین دو بافت بیان می شود، که با نتیجه گیری من در تضاد است؟ یا اینکه ناظر باید کنترل کشف نادرست را اعمال کند زیرا چنین کنترلی باید در سطح اکتساب داده (که داده‌های چند متغیر جمع‌آوری شده است) و نه در سطح تفسیر داده (که در آن داده‌ها فقط برای یک داده جمع‌آوری شده است) اعمال شود. متغیر تجزیه و تحلیل شد)؟
آیا کشف نادرست باید در سطح اکتساب داده ها کنترل شود یا این باید در سطح تفسیر داده ها باشد؟
13822
داده های من به شرح زیر است. من دو گروه بیمار دارم. بیماران در هر گروه نوع متفاوتی از جراحی چشم داشتند. 5 متغیر بر روی بیماران در هر گروه اندازه گیری شد. من می خواهم با استفاده از آزمون جایگشت یا MANOVA آن متغیرها را بین دو گروه مقایسه کنم. چشمی که جراحی روی آن انجام شده است واقعاً در آنالیز مهم نیست. با این حال، به عنوان مثال، بیمار 2 در گروه A، هر دو چشم را تحت عمل جراحی قرار داده است و بنابراین آن 5 متغیر را دو بار، یک بار روی هر چشم اندازه گیری کرده است. آیا می توانم بیمار 2 چپ و بیمار 2 را به عنوان دو مشاهده متفاوت در نظر بگیرم؟ همینطور برای بیمار 31 در گروه B. $$ \begin{array} \hline \text{Patient} & \text{نوع جراحی} & \text{Side} & \text{V1}& \ldots & V5\\\ 1 & \text{A} & \text{Left} & 91 & \ldots & 22\\\ 2 & \text{A} & \text{سمت چپ} & 87 & \ldots & 19\\\ 2 & \text{A} & \text{Right} & 90 & \ldots & 23\\\ . & . & . &\\\ 31 & \text{B} & \text{Left} & 90 & \ldots & 17\\\ 31 & \text{B} & \text{Right} & 88 & \ldots & 19\\\ 32 & \text{B} & \text{Right} & 91 & \ldots & 24\\\ . & . & . &\\\ \hline \end{array} $$ متشکرم
آیا می توانم از چشم چپ و چشم راست در نمونه خود به عنوان دو موضوع مختلف استفاده کنم؟
13828
در بسیاری از مدل‌های مالی، ما به اندازه‌گیری همبستگی بین متغیرها، بازده‌ها و غیره علاقه‌مندیم. با این حال، تحقیقات نشان می‌دهد که در زمان‌های بحرانی ما «وقفه‌های همبستگی» را مشاهده می‌کنیم که در آن متغیرهای قبلاً همبسته نبوده‌اند. بهترین راه برای تعیین کمیت پایداری همبستگی با بررسی سری زمانی تاریخی متغیرهایی که به آنها علاقه دارم چیست؟ آیا نوعی بوت استرپینگ راه خوبی برای شروع بررسی توزیع نمونه همبستگی خواهد بود؟ آیا روش دیگری وجود دارد که بتوانم از آن استفاده کنم؟
چگونه ثبات همبستگی را کمی کنیم؟
40576
ما یک مجموعه داده کوچک داریم (حدود 250 نمونه * 100 ویژگی) که می خواهیم پس از انتخاب بهترین زیر مجموعه ویژگی، یک طبقه بندی کننده باینری بسازیم. اجازه دهید بگوییم که ما داده ها را به موارد زیر تقسیم می کنیم: آموزش، اعتبارسنجی و آزمایش برای انتخاب ویژگی، ما یک مدل پوششی را بر اساس انتخاب ویژگی هایی که عملکرد طبقه بندی کننده های X، Y و Z را بهینه می کنند، به طور جداگانه اعمال می کنیم. در این مرحله پیش پردازش، از داده‌های آموزشی برای آموزش طبقه‌بندی‌کننده‌ها و داده‌های اعتبارسنجی برای ارزیابی هر زیر مجموعه ویژگی نامزد استفاده می‌کنیم. در پایان می خواهیم طبقه بندی کننده های مختلف (X، Y و Z) را با هم مقایسه کنیم. البته برای داشتن مقایسه و ارزیابی منصفانه می توانیم از قسمت تست داده ها استفاده کنیم. با این حال، در مورد من، داده‌های آزمایشی واقعاً کوچک هستند (حدود 10 تا 20 نمونه) و بنابراین، من می‌خواهم اعتبار متقاطع را برای ارزیابی مدل‌ها اعمال کنم. توزیع مثال های مثبت و منفی بسیار نامتعادل است (حدود 8:2). بنابراین، یک اعتبارسنجی متقابل می‌تواند ما را در ارزیابی عملکرد سوق دهد. برای غلبه بر این، ما قصد داریم بخش آزمایش (10-20 نمونه) را به عنوان روش مقایسه دوم و اعتبارسنجی متقاطع داشته باشیم. به طور خلاصه، ما داده ها را به آموزش، اعتبار سنجی و آزمایش تقسیم می کنیم. بخش‌های آموزشی و اعتبارسنجی باید برای انتخاب ویژگی استفاده شود. سپس، اعتبارسنجی متقاطع روی همان داده‌ها برای تخمین مدل‌ها اعمال می‌شود. در نهایت، آزمایش برای اعتبارسنجی اعتبار متقاطع با توجه به عدم تعادل داده ها استفاده می شود. **سوال این است:** اگر از همان داده‌ها (آموزش + اعتبارسنجی) استفاده کنیم که در انتخاب ویژگی‌های بهینه‌سازی عملکرد طبقه‌بندی‌کننده X، Y و Z استفاده می‌شود، آیا می‌توانیم اعتبارسنجی متقاطع را روی همان داده‌ها اعمال کنیم (آموزش + اعتبارسنجی) برای انتخاب ویژگی برای اندازه گیری عملکرد نهایی و مقایسه طبقه بندی کننده ها استفاده می شود؟ نمی‌دانم که آیا این تنظیم می‌تواند به یک معیار اعتبارسنجی متقاطع مغرضانه منجر شود و به مقایسه غیر موجه منجر شود یا خیر.
آیا استفاده از داده های یکسان برای انتخاب ویژگی و اعتبارسنجی متقابل، مغرضانه است یا خیر؟
83117
من یک مجموعه داده جدید دارم که اساساً به بدی قبلی است (همان نوع داده) و از من خواسته شده است که رگرسیون غیر خطی را روی آن با تمرکز بر پارتیشن امتحان کنم (من از تقویت و بسته بندی استفاده خواهم کرد). اما متغیر وابسته پیوسته است. من به متغیرهای ورودی دست نخورده نیاز دارم (همانطور که فاکتورسازی نشده است) همانطور که مجدداً به شناسایی متغیرهای ورودی بر متغیر وابسته مورد علاقه و نحوه تأثیرگذاری نیاز دارم. مجدداً بسیاری از متغیرهای ورودی X از نظر توزیع بسیار متفاوت هستند، من ورودی های طبقه بندی نیز دارم. به طور کلی اطلاعات زیادی در رابطه با رگرسیون غیر خطی و همبستگی خطی نمی بینم. رها کردن مجموعه داده‌ها به همین صورت باعث می‌شود که متغیرهایی که به شدت همبسته هستند، به‌ویژه در بوت استرپ گنجانده شوند (به نظر می‌رسد دلیل آن به دلیل ماهیت بوت استرپ واضح است). این مشکل تا چه حد است؟ به عنوان مثال؛ اگر X1 و X2 خطی هستند و X1 خارج از کیسه با X2 در کیسه است، عملاً آن متغیر را حذف نکرده‌اید. آیا این حتی یک مسئله است؟
همبستگی و هم خطی در رگرسیون غیرخطی؟
96209
در مثال زیر: x <- rnorm(100) y <- rpois(100, exp(1+x))+10 g1 <- glm(y ~ x, Family = Gamma(link = log)) par( mfrow = c(2,2)) plot(y~x) plot(y,resid(g1)) plot(y,resid(g1$lm)) سعی می کنم به الگوی موجود نگاه کنم متغیر پیش‌بینی‌کننده، یعنی اگر مدل «درست» باشد، هنگام ترسیم در برابر پیش‌بینی‌کننده، هیچ الگوی در باقیمانده‌ها باقی نمی‌ماند. از مثال نشان داده شده، باید از کدام باقیمانده استفاده کنم، «resid(g1)» یا «resid(g1$lm)»، یا چیز دیگری؟ هنگام استفاده از «gam» نیز همینطور است، آیا «resid(g1$lm)»، «resid(g1$gam)» است؟ به نظر من این خیلی گیج کننده است.
باقیمانده از مدل glm با عملکرد پیوند ورود
54460
به مقاله ای برخوردم که از مخفف «p.e.» استفاده می کند: Khatri and Madria, The Von Mises-Fisher Matrix Distribution in Orientation Statistics. 1976. در بخش 7 در صفحه 105 است. من یک گزیده کوتاه را اضافه می کنم: > استفاده از تابع چگالی $K^{\frac{1}{2}}XX'K^{\frac{1}{2} } = S$ داده شده > در Khatri (1975a)، متوجه می شویم که p.e. $X$ داده شده $XX'=I_n$ مخفف p.e چیست؟ یعنی در این جمله؟
مخفف p.e چیست؟ معنی؟
13820
من سعی می‌کنم این دو عبارت را درباره تست‌های UMP (به طور یکنواخت قدرتمندترین) معنا کنم: 1. اگر $g(t\mid\theta)~$ یک UMP است، $~g(t\mid\theta_1)>kg (t\mid\theta_0)~\forall~t\ در C$ و $g(t\mid\theta_1)<k g(t\mid\theta_0)~\forall~t\in C^c$ 2. برای $\mathbf X~i.i.d.~f(x\mid\theta): \theta\in\Omega\subset\mathcal R$ اگر $f(x\mid\theta)$ دارای MLR در $T(x)$ و هر $k$ باشد، آزمایشی که $H_0 \iff را رد می‌کند T>k~$ یک آزمون UMP با اندازه $\alpha$ با $\alpha=P_{\theta_0}(T>k)$ است چرا این عبارات توتولوژیک نیستند؟ چگونه آنها تعریفی از آزمون آماری یک طرفه ندارند؟ نمونه ای از آزمون آماری یک طرفه که UMP نیست چیست؟ علاوه بر این، چه رابطه ای بین تست های LRT و UMP وجود دارد؟ دارم امتحانات قدیمی رو مرور میکنم که گاهی یه سوال LRT میپرسه و گاهی UMP... مگه همه تستهای ساده LRT UMP نیستن؟ با تشکر
تعریف عملی آزمون UMP؟
104932
من اخیراً از Student t-Test استفاده کردم تا بررسی کنم که آیا مقادیر دو نمونه می توانند میانگین یکسانی داشته باشند یا خیر. من فکر می کردم که آیا تکنیک مکملی در آمار بیزی وجود دارد که کار مشابهی را انجام دهد. به خصوص در مورد مقادیر $P$ که در نتیجه به دست می‌آورم تعجب می‌کنم (http://docs.scipy.org/doc/scipy/reference/generated/scipy.stats.ttest_ind.html). با اندازه نمونه 2 در دو نمونه من، تصور می‌کنم که اگر مقداری اندازه‌گیری بیشتر اضافه کنم یا مقداری را حذف کنم، مقدار p حاصله احتمالاً کمی نوسان می‌کند.
جایگزین بیزی یا مکمل آزمون تی دانشجویی
88975
تاثیر ابعاد داده بر پیچیدگی محاسبات SVM چیست؟ من در ادبیات دریافتم که پیچیدگی SVM $O(N^3)$ است، که در آن $N$ تعداد نمونه های آموزشی است. اگر تعداد ابعاد (به عنوان مثال، $D$) بر زمان آموزش تأثیر نمی گذارد، چرا بهتر است ابعاد را برای آموزش مجموعه داده با ابعاد بالا کاهش دهیم؟ آیا این فقط برای جلوگیری از بیش از حد مناسب است؟ BTW، من از SVDD (پشتیبانی از توصیف داده های برداری) از RRTools استفاده می کنم.
تاثیر ابعاد داده بر پیچیدگی محاسبات SVM؟
108995
چگونه انحراف صفر و باقیمانده را در GLM در R تفسیر کنیم؟ همانطور که برای AIC می گوییم که AIC کوچکتر بهتر است، آیا تفسیر مشابه و سریعی برای انحرافات نیز وجود دارد؟ انحراف صفر: 1146.1 در 1077 درجه آزادی انحراف باقیمانده: 4589.4 در 1099 درجه آزادی AIC: 11089
تفسیر انحراف باقیمانده و صفر در GLM R
103090
برای برنامه‌ای که روی آن کار می‌کنم، باید از برخی متغیرهای توزیع شده یکنواخت به توزیع یکنواخت در یک کره n بروم. راه استاندارد برای انجام این کار به نظر می رسد انتخاب (n+1) متغیرهای توزیع شده نرمال و سپس تقسیم بر هنجار باشد. با این حال، باید بتوانم، با توجه به یک نقطه در کره، مقادیر یکنواختی را که برای به دست آوردن این نقطه استفاده می کردم، استخراج کنم. در آنجا روش استاندارد شکست می خورد، در آن تزریقی نیست. با این حال، فکر می‌کنم راهی برای انجام این کار ابداع کرده‌ام، اما دوست دارم کسی با دانش آماری بیشتر از من این موضوع را تأیید کند. یا اگر کسی راه ساده‌تری برای انجام آن می‌داند، قابل قدردانی است. حالا، ایده اینجاست: اجازه دهید $x_1، \ldots، x_n$ مختصات دکارتی برای $\mathbb{R}^n$ باشند، و مختصات کروی داده شده در مقاله ویکی‌پدیا را برای یک کره n انتخاب کنید، یعنی $\begin{ تراز کردن} x_1 &= r\cos\phi_1 \\\ x_2 &= r\sin\phi_1\cos\phi_2\\\ x_3 &= r\sin\phi_1\sin\phi_2\cos\phi_3\\\ &\qquad\vdots\\\ x_{n-1} &= r\sin \phi_1\ldots\sin\phi_{n-2}\cos\phi_{n-1}\\\ x_n &= r\sin\phi_1\ldots\sin\phi_{n-1} \end{align}$ عنصر حجم یک (n-1)-کره با شعاع r $\mathrm{d}V = r^{n است. -1}sin^{n-2}\phi_1\sin^{n-3}\phi_2\ldots\sin\phi_{n-2} \mathrm{d}\phi_1\mathrm{d}\phi_2\ldots\mathrm{d}\phi_{n-1}.$ اگر $\mathrm{d}x_i$ و $\mathrm{d}x_1\ را محاسبه کنیم mathrm{d}x_2\ldots\mathrm{d}x_{n-2}$ من فکر می‌کنم که $\mathrm{d}V = (-1)^nr\mathrm{d}x_1\ldots\mathrm{d}x_{n-2}\mathrm{d}\phi_{n-1}.$ پس من معتقدم (و این چیزی است که من می‌خواهم توسط شخصی آگاه تأیید شود که برای انتخاب یکنواخت نقاط روی کره، می‌توانیم نقاط $x_1، \ldots، x_{n-2}$ را به طور یکنواخت روی توپ انتخاب کنیم. $x_1^2+\ldots x_{n-2}^2 \leq r^2$ و $\phi_{n-1}$ را به طور یکنواخت از $[0,2\pi)$ انتخاب کنید. اگر بتوانیم، مشکل را به یافتن نقاط یکنواخت روی یک توپ (n-2) کاهش داده ایم. این را می توان با انتخاب نقاط یکنواخت روی مرز و ضرب در $u^{1/(n-2)}$ انجام داد، که در آن $u$ به طور یکنواخت از $[0,1]$ انتخاب می شود. انتخاب نقاط به صورت یکنواخت در مرز مانند انتخاب نقاط به صورت یکنواخت در یک $n-3$-sphere است، و ما به مشکل اصلی برگشتیم، اما اکنون 2 بعد کمتر است. ما می توانیم به سمت توپ 1 یا توپ 1 حرکت کنیم، جایی که می توانیم یک نقطه را به طور یکنواخت و بدون مشکل انتخاب کنیم.
توزیع یکنواخت تزریقی روی یک کره n
38346
رگرسیون: Wage=b0+b1collegegrad، که در آن collegegrad یک متغیر ساختگی است. فرض کنید می خواهید نسبت دستمزد بین فارغ التحصیلان دانشگاهی و فارغ التحصیلان غیر دانشگاهی را تخمین بزنید. آیا برآوردگر تتا=b0/b1 سازگار است؟ فکر من این است که اگر بتوانیم حجم نمونه خود را تا بی نهایت افزایش دهیم، کل جامعه را پوشش می‌دهیم و در نتیجه نسبت واقعی را به دست می‌آوریم، بنابراین برآوردگر سازگار است. درست می گویم یا چیزی را از دست داده ام؟
سازگاری برآوردگر
103091
من یک رگرسیون OLS ترکیبی و رگرسیون اثرات تصادفی را اجرا می کنم. من برای هر دو روش همبستگی خودکار را آزمایش کرده ام. در مدل OLS ادغام شده من همبستگی سریال پیدا می کنم اما برای مدل RE هیچ همبستگی سریالی پیدا نمی کنم. این چگونه ممکن است؟ آیا این امکان وجود دارد که متغیرهای ثابت زمان مشاهده نشده که در مدل RE حذف می شوند، باعث ایجاد همبستگی سریال در رگرسیون OLS تلفیقی شوند؟
آیا متغیرهای تغییرناپذیر زمان می توانند باعث همبستگی خودکار شوند؟
38347
$X_{1}$ و $X_{2}$ متغیرهای تصادفی مستقل و مجذور کای هستند. من توانستم نشان دهم که $Z=X_{1}+X_{2}$ مستقل از $\frac{X_{1}}{Z}$ است. چگونه می توانم نتیجه بگیرم که $Z=X_{1}+X_{2}$ مستقل از $(\frac{X_{1}}{Z},\frac{X_{2}}{Z})$ است؟
نشان دادن استقلال
76412
من به دنبال اطلاعاتی در مورد چگونگی آزمایش دقت مدلی هستم که برای پیش‌بینی قیمت سهام در روزهای آینده ساخته‌ام - قیمت‌های روز بعد باز، زیاد، پایین و بسته. آیا یک شاخص منحصر به فرد از دقت یا رویکرد استاندارد وجود دارد که باید برای نشان دادن دقت این سیستم استفاده شود؟ این یک مدل پیش بینی برای قیمت ها است، نه یک سیستم معاملاتی. ورودی مدل سری زمانی تاریخی است - قیمت سهام پایان روز - باز، زیاد، پایین، بسته شدن. من برخی از آمارهای اولیه را با محاسبه نسبت قیمت‌های پیش‌بینی‌شده به قیمت‌های واقعی پایان روز اجرا کرده‌ام، یعنی اگر رایانه شخصی قیمت بسته پیش‌بینی‌شده برای روز بعد را نشان می‌دهد، من به سادگی نسبت PC / C را در نظر می‌گیرم که در آن C قیمت بسته واقعی است. روز را پیش بینی کرد و آن را به عنوان یک درصد نشان داد. برخی از مدل‌های سیستم پیش‌بینی را به صورت آنلاین بررسی کرده‌اید و درک کرده‌اید که رویکرد رایج استفاده از میانگین درصد مطلق خطا، میانگین انحراف مطلق، R-squared، همبستگی، خطای پیش‌بینی تجمعی است. به عنوان مثال، مدل پیش‌بینی من مقادیر همبستگی و R-Squared 0.995 0.9924 0.9885 و 0.9905 0.983 0.981 0.976 را به ترتیب برای پیش‌بینی‌های O H L C به من می‌دهد. آیا این مقادیر خوب در نظر گرفته می‌شوند؟ هر گونه پیشنهادی در مورد اینکه بهترین رویکرد چه خواهد بود؟
بهترین راه برای اندازه گیری دقت/اهمیت یک مدل پیش بینی سهام چیست؟