_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
30640
|
من دانش سریهای زمانی خود را مرور میکنم و به دنبال سندی میگردم که آزمایشهای سریهای زمانی رایج، برای چه چیزی، نحوه استفاده از آنها، و غیره را داشته باشد. تست Dickey-Fuller Augmented، تستهای PACF، و غیره. من یک صفحه ویکیپدیا از تستهای آماری رایج را پیدا کردم، اما به دنبال فهرستی از این تستها هستم که برای تحلیل سریهای زمانی خاص باشد. http://en.wikipedia.org/wiki/Statistical_hypothesis_testing#Common_test_statistics با تشکر!
|
لیستی از تست های متداول سری زمانی؟
|
83804
|
من در حال ساخت یک مدل تحلیل بقای کاکس با دادههای تراکنش یک خردهفروش هستم. تقریباً همه متغیرها در آزمون تناسب مردود بوده اند. آیا می توانم با مدل کاکس ادامه دهم؟ آیا باید به جای مدل کاکس یک مدل LIFEREG بسازم؟
|
تجزیه و تحلیل بقا - همه متغیرها در آزمون تناسب شکست خوردند. بعدش چی؟
|
30645
|
می خواستم بدانم پارامتر _n.minobsinnode_ در بسته GBM به چه معناست. من دفترچه راهنما را خواندم اما مشخص نیست چه کار می کند. آیا این عدد باید کوچک باشد یا بزرگ برای بهبود نتایج؟
|
نقش پارامتر n.minobsinnode GBM در R
|
71154
|
فرض کنید من برخی از پارامترهای مدل را محاسبه میکنم و مجموع مجذور باقیماندهها را به حداقل میرسانم، و اشتباهاتم را گوسی فرض میکنم. مدل من مشتقات تحلیلی تولید می کند، بنابراین بهینه ساز نیازی به استفاده از تفاوت های محدود ندارد. هنگامی که تناسب کامل شد، می خواهم خطاهای استاندارد پارامترهای برازش شده را محاسبه کنم. به طور کلی، در این وضعیت، هسین تابع خطا به ماتریس کوواریانس مربوط می شود: $$ \sigma^2 H^{-1} = C $$ که در آن $\sigma^2$ واریانس است باقی مانده ها هنگامی که هیچ مشتق تحلیلی از خطا در دسترس نباشد، معمولاً محاسبه Hessian غیرعملی است، بنابراین $J^TJ$ به عنوان یک تقریب خوب در نظر گرفته می شود. با این حال، در مورد من، من یک J تحلیلی دارم، بنابراین محاسبه H با تفاضل محدود J برای من نسبتاً ارزان است. بنابراین، سؤال من این است: آیا دقیقتر است که H را با استفاده از J دقیق خود تقریب کنم و از آن استفاده کنم. بالاتر از تقریب، یا برای تقریب H با تفاضل محدود J؟
|
وقتی یک ژاکوبین تحلیلی در دسترس است، بهتر است هسین را با $J^TJ$ تقریب کنیم یا با تفاوت های محدود ژاکوبین؟
|
30643
|
داشتم این مقاله ویکی پدیا مربوط به کریجینگ را می خواندم. وقتی میگوید کریجینگ بهترین تخمینگر خطی بیطرفدار، $\hat Z (x_0)$، از $Z(x_0)$ را محاسبه میکند، متوجه نشدم، به طوری که واریانس کریجینگ با شرط بیسوگیری به حداقل میرسد. من اشتقاق و همچنین نحوه به حداقل رساندن واریانس را دریافت نکردم. پیشنهادی دارید؟ به خصوص، من بخشی را که در آن اعمال میشود، به شرط عدم تعصب به حداقل رسیده است. فکر می کنم باید به جای E[Z'(x)-Z(x)] E[Z'(x0)-Z(x0)] می بود، اینطور نیست. ' معادل کلاه در مقاله ویکی است. همچنین متوجه نشدم که چگونه خطای کریجینگ به دست می آید
|
سردرگمی در مورد کریجینگ
|
108992
|
آیا میتوان مدلهای مانع (مانند مدلهای Craggit، probit و کوتاهشده) را برای دادههای پانل، ترجیحاً با اثرات ثابت برای کنترل ناهمگنی مشاهده نشده اعمال کرد؟ در Stata، دستور نوشته شده توسط کاربر «craggit» فقط اجازه استفاده از دادههای پانل تلفیقی را میدهد، اما کنترل ناهمگونیهای مشاهدهنشده را نمیدهد... به طور کلی، تخمین مدل مانع بسیار ساده است: مدل پروبیت بر روی متغیر نتیجه باینری، کوتاه شده (یا lognormal) روی (مقادیر مثبت) متغیر نتیجه. آیا می توان در مرحله اول یک پروبیت RE (یا حتی لاجیت FE) و در مرحله دوم یک مدل اثرات ثابت را تخمین زد - و در واقع آن را مدل مانع نامید؟ با تشکر
|
چگونه می توان مدل های مانع را برای داده های پانل (با استفاده از Stata) اعمال کرد؟
|
114627
|
فرض کنید که ما دو مجموعه داده R و P داریم. «R» بزرگتر یا مساوی «P» است. R می تواند منفی یا مثبت باشد. P می تواند منفی یا مثبت باشد. بنابراین در همه موارد «(R-P)» مثبت یا صفر است. R و P دلار هستند و مقیاس آنها زیاد است مانند 1,000,000,0 یا 500,000,000. اکنون میخواهم معیاری ایجاد کنم که به نظر میرسد: E = 1 - ( 1 / 1+(R-P) ) بنابراین «E» دارم که بین «0» و «1» است. من مقیاس «E» را بین «0» و «1» میخواهم. اما مشکل این است. «(R-P)» مقادیر بالایی دارد، بنابراین همه خروجی های این معیار نزدیک به «1» است. من این تابع را اصلاح کردم، اکنون این را دارم: E = 1 - ( 1 / 1+ ( (R-P)/mean(R-P)) ) اکنون به دلیل «متوسط (R-P)» مقیاس بندی بهتری بین «0» و «1» داریم. `. این توزیع «R-P» برای راهنمایی بیشتر است:  پس از انجام این کار، میخواهم دادهها را با این «E» طبقهبندی کنم. برای مثال، نمونههایی که «E» بزرگتر از «۰.۷» دارند در «کلاس ۱» و نمونههایی با «E» کمتر از «۰.۷» در «کلاس ۲» هستند (در یک مسئله طبقهبندی باینری). برای توزیع بهتر در نسخه نهایی این معیار، مقادیر پرت «(R-P)» را با این تابع حذف می کنم تا معیار قوی تری داشته باشیم: abs(X-mean(X)) >=2*std(X) `(X در اینجا است (R-P)` پس از حذف مقادیر پرت در `R-P` من میانگین (R-P) را محاسبه می کنم` توصیه شما برای تبدیل بهتر این مشکل چیست؟ مشکل نظری با استفاده از میانگین در این معیار، بنابراین من نیاز به نظراتی در مورد این دارم **PS.** باید این رفتار را در این معیار داشته باشیم: * اگر P=constant و R= افزایش >> 'E=. افزایش» * اگر «R=ثابت» و «P=افزایش (به سمت منفی)» >> «E=افزایش» * اگر «P=ثابت» و «R=کاهش» >> «E=کاهش» * اگر «R=ثابت» و «P=کاهش (به سمت مثبت)» >> «E=کاهش» * نمونهای که بالاترین «(R-P)» را دارد، باید بالاترین «E» («1» باشد. یا نزدیک به «1») * نمونههایی که کمترین «(R-P)» را دارند باید کمترین «E» («1» یا نزدیک به «1») را داشته باشند.
|
یافتن تابع تبدیل برای توزیعی که شبیه نمایی است
|
70810
|
فرض کنید که یک مسابقه کریکت برای یکشنبه، آخر این هفته برنامه ریزی شده است. می دانیم که مردم با نرخ ثابت به استادیوم نمی رسند. چند ساعت قبل از شروع مسابقه، مردم با سرعت بسیار کم شروع به ورود می کنند. این نرخ پس از آن، به طور کلی، همچنان در حال افزایش است. تعداد زیادی از مردم درست قبل از شروع مسابقه وارد می شوند. میخواهم بدانم از کدام توزیع برای مدلسازی استفاده کنم، تا بتوانم بگویم **احتمال ورود x تعداد افراد در یک بازه زمانی خاص چقدر است؟**
|
«ورود افراد» به یک رویداد در زمان چه توزیعی را دنبال می کند؟
|
37493
|
من یک مجموعه داده بزرگ از یک نظرسنجی دارم که توصیف می کند مردم از چه صفحات وب استفاده می کنند. بنابراین برای هر شخصی فهرستی از صفحاتی که بازدید میکنند و تعداد دفعات بازدید از آنها دارم. از چه روش هایی می توان برای خوشه بندی صفحات وب (بر اساس کاربران مشابهی که از آنها استفاده می کنند) و کاربران (که از صفحات وب مشابه استفاده می کنند) استفاده کرد. مثال> کاربر A از صفحات وب a، b، a، c بازدید کرد کاربر B از a، b، d، b بازدید کرد کاربر C از صفحه e، e، نتیجه گیری از آن این است که صفحات `a`,`b`,`c`, d تا حدودی شبیه هستند و متعلق به یک خوشه هستند. خوشه دیگر صفحه «e» است. همچنین، کاربران a,b مشابه هستند، خوشه کاربری دیگر شامل «کاربر C» است که از صفحات مختلف بازدید می کند.
|
خوشه بندی بر اساس تعامل بین اعضای دو گروه
|
15897
|
من در حال انجام یک متاآنالیز برخی از مطالعات هستم که نتایج را به صورت متفاوتی به عنوان نسبت شانس، نسبت خطر یا نسبت نرخ گزارش می کنند (همه با فواصل اطمینان). آیا راهی برای ترکیب اینها با هم/تبدیل بین آنها وجود دارد تا بتوانم یک متاآنالیز از همه مطالعات انجام دهم؟
|
چگونه می توان یک متاآنالیز بر روی مطالعاتی انجام داد که نتایج را به صورت متفاوتی به عنوان نسبت شانس، نسبت خطر یا نسبت نرخ گزارش می کنند؟
|
37496
|
من در حال خواندن نتایج یک متاآنالیز داده های فردی بیمار (IPD) هستم. نتایج مطالعه در انحراف معیار (SD's) بیان می شود. مقایسههای بین گروهها به صورت 0.23 (95% فاصله اطمینان (CI): 0.15-0.33)، SD 0.34 و غیره بیان شده است. من نمیتوانم درک کنم که چگونه این را تفسیر کنم. کسی میتونه کمک کنه؟
|
متاآنالیز دادههای بیمار فردی با SD به عنوان اندازهگیری پیامد
|
18917
|
لطفا ابتدا به مشکل کوچک زیر نگاهی بیندازید: > دو لامپ غیرقابل تشخیص A و B وجود دارد. B قرمز با 0.2 و آبی 0.8. اکنون با .5 > prob A یا B به شما ارائه می شود. قرار است رنگ > فلاش آن را مشاهده کنید تا بهترین حدس بزنید (به حداکثر رساندن احتمال درست > حدس زدن) کدام لامپ است. با این حال، قبل از شروع مشاهدات، > باید تصمیم بگیرید که چند بار می خواهید آن را مشاهده کنید (بگویید n بار، سپس > مشاهده کنید که n بار چشمک می زند و حدس بزنید). فرض کنید فلاش ها > مستقل هستند. به طور شهودی، فرد فکر میکند که هر چه مشاهدات بیشتری انجام دهد، شانس او بیشتر خواهد بود. با این حال عجیب است که محاسبه آسان است که نشان دهد n=2 در n=1 بهبود نمی یابد و n=4 بر n=3 بهبود نمی یابد. من بیشتر از این پیش نرفتم اما حدس میزنم n=2k روی n=2k-1 بهبود نمییابد. من نمی توانم آن را برای حالت کلی ثابت کنم. اما آیا این حقیقت دارد؟ اگر چنین است، چگونه می توان به طور شهودی نتیجه را درک کرد؟
|
مشکل رنگ لامپ
|
30649
|
فرض کنید _i.i.d._ $x_i \sim \mathcal{N}\left(\mu,\Sigma\right)$ را مشاهده میکنم و میخواهم $H_0 را آزمایش کنم: A\ $vech$\left(\Sigma^{-1 }\right) = a$ برای یک ماتریس سازگار $A$ و بردار $a$. آیا کار شناخته شده ای برای این مشکل وجود دارد؟ تلاش بدیهی (برای من) از طریق آزمون نسبت درستنمایی خواهد بود، اما به نظر می رسد به حداکثر رساندن احتمال با توجه به محدودیت های H_0$ نیاز به یک حل کننده SDP دارد و می تواند بسیار پرمو باشد.
|
آزمون فرضیه بر روی ماتریس کوواریانس معکوس
|
83803
|
من در حال مطالعه اختلال ناشی از ترافیک کشتی برای یک پرنده دریایی کوچک هستم. من حیوانات کانونی را برای مدت زمان مشخصی مشاهده کردم و ثبت کردم که آیا آنها در طول مشاهده از آب پرواز می کنند یا نه. این پرنده خاص وقتی مزاحم نمی شود (حدود 10٪ مواقع) با احتمال زیاد پرواز نمی کند. در مرحله بعد، من فاصله تا نزدیکترین کشتی را به هر مشاهده اضافه کرده ام (کشتی های مورد علاقه دارای مکان یاب GPS بودند که هر 5 ثانیه یک نقطه را ثبت می کردند). من تابع توزیع تجمعی را برای همه مشاهدات و برای مشاهداتی که در آن پرنده از آب پرواز می کند به عنوان تابعی از فاصله تا نزدیکترین کشتی ترسیم کرده ام. همانطور که انتظار می رفت، اکثر مشاهداتی که در آن پرنده پرواز می کرد، زمانی که کشتی نزدیک بود مشاهده شد.  آیا می توانم از آزمون Kolmogorov-Smirnov برای آزمایش اینکه آیا تفاوت آماری در توزیع وجود دارد استفاده کنم از مشاهدات پرواز و کل مشاهدات؟ فکر من این است که اگر این دو توزیع متفاوت باشند، نشان می دهد که فاصله کشتی بر پرواز تأثیر دارد. من نگران هستم زیرا این توابع توزیع مستقل نیستند زیرا مشاهدات پرواز زیرمجموعه ای از کل مشاهدات هستند. افکار؟ با مطالعه کمی بیشتر در این سایت، فکر میکنم میتوانم توزیع مشاهداتی را که در آن پرواز انجام شده است (F) در مقابل توزیع مشاهداتی که در آن انجام نشده است (NF) آزمایش کنم، زیرا اینها مستقل هستند. اگر این توزیعها F=NF یکسان باشند، میتوان فرض کرد که توزیع (F) و (TOT = همه مشاهدات) همان است که میدانیم توزیع (F) با خودش و (F)+ برابر است. (T) = (TOT). درسته؟ **به روز رسانی: 2/12/14** به دنبال پیشنهادات @Scortchi، من رابطه وقوع پرواز در مقابل فاصله تا نزدیکترین کشتی را در چارچوب رگرسیون لجستیک بررسی کردم. رابطه کمی وجود داشت (شیب منفی) اما مقدار p غیر معنی دار بود که نشان می دهد شیب واقعی می تواند صفر باشد. بر اساس آمار توصیفی (از جمله نمودارهای ecdf) من مشکوک شدم که تأثیر کشتیهای نزدیک به دلیل مشاهدات فراوان زمانی که کشتی بر رفتار تأثیر نمیگذارد، از بین میرود. سپس از بسته R قطعه بندی شده (http://cran.r-project.org/web/packages/segmented/segmented.pdf) استفاده کردم تا یک نقطه شکست در مدل پیدا کنم. این برنامه دریافت که شکستن داده ها در فاصله 2.6 کیلومتری کشتی و قرار دادن دو ضریب مجزا بهتر از مدل تک ضریب است. ضریب شیب رویکردهای نزدیک کشتی منفی بود و نشان می دهد که کشتی ها تا حدود 2.6 کیلومتر بر پاسخ پرواز تأثیر می گذارند (p-value <0.001). ضریب شیب دوم کمی مثبت بود، اما p-value در سطح آلفا 0.05 غیرمعنادار بود (p-value = 0.11). بنابراین به طور خلاصه، خط رگرسیون تقسیمبندی شده قادر به تشخیص اختلاف آستانهای بود که در آن احتمال پرواز افزایش مییابد. تخمین احتمال پرواز زمانی که کشتی بیشتر از 2.6 کیلومتر است 0.11 است. به طور مناسب، من 79 پرنده را در زمانی که هیچ کشتی حتی در خلیج مطالعه نبود (بیش از 100 کیلومتر دورتر) مشاهده کردم و 9 نفر از این افراد در طول مشاهده از آب پرواز کردند (به احتمال 0.113). با تشکر از همه پیشنهادات امیدوارم این سوال همراه با پیشنهادات و پاسخ ها به دیگران کمک کند.
|
تست کولموگروف اسمیرنوف؟
|
28190
|
فرض کنید من از یک مدل لجستیک برای پیش بینی اینکه آیا باران (بله یا خیر) بر اساس دمای بالا استفاده می کنم و داده های 100 روز گذشته را جمع آوری کرده ام. فرض کنید 30/100 روز باران می بارد. علاوه بر این، فرض کنید که 70/100 روز دما در واقع 50 درجه است. بنابراین تنها 30/100 روز وجود داشت که دمای آن 50 درجه نبود. بنابراین از نظر متغیر پاسخ (باران - بله یا خیر)، تنوع کافی برای توسعه مدل وجود دارد. با این حال، با توجه به پیش بینی کننده (دما)، با این همه روز که دما 50 درجه است، یک عنصر متغیر تکراری (50 درجه) چگونه بر محاسبات یک مدل لجستیک تأثیر می گذارد؟
|
تأثیر واریانس پیشبینیکننده پایین بر برآورد ضریب رگرسیون لجستیک چیست؟
|
7644
|
من به دنبال روش هایی هستم که بتوان از آنها برای تخمین مدل خطای اندازه گیری OLS استفاده کرد. $$y_{i}=Y_{i}+e_{y,i}$$ $$x_{i}=X_{i}+e_{x,i}$$ $$Y_{i}=\alpha + \beta X_{i}$$ جایی که خطاها عادی مستقل با واریانسهای ناشناخته $\sigma_{y}^{2}$ و $\sigma_{x}^{2}$ هستند. OLS استاندارد در این مورد کار نخواهد کرد. ویکیپدیا راهحلهای غیرجذابی دارد - این دو راهحل شما را مجبور میکنند که فرض کنید یا «نسبت واریانس» $\delta=\frac{\sigma_{y}^{2}}{\sigma_{x}^{2}}$ یا نسبت قابلیت اطمینان $\lambda=\frac{\sigma_{X}^{2}}{\sigma_{x}^{2}+\sigma_{X}^{2}}$ شناخته شده است، جایی که $\sigma_{X}^ 2$ واریانس رگرسیون واقعی $X_i$ است. من از این راضی نیستم، زیرا کسی که واریانس ها را نمی داند چگونه می تواند نسبت آنها را بداند؟ به هر حال، آیا به جز این دو راه حل دیگری وجود دارد که نیازی به دانستن هیچ چیز در مورد پارامترها نداشته باشد؟ راه حل های فقط برای رهگیری و شیب خوب هستند.
|
روشهای برازش یک مدل خطای اندازهگیری ساده.
|
86199
|
من به دنبال یک تابع توزیع احتمال چند متغیره خاص هستم تا با دادههای خود منطبق شود، اما توزیع نرمال چند متغیره معمولی نامناسب است، زیرا دادههای من به جای پیک در موارد خاص، دارای یک فرورفتگی (آنتی مد) هستند. (در موارد دیگر، دادهها دارای یک اوج هستند.) دادههای من شامل نقاط داده با متغیرهای متعدد است که همگی در بازه [0،1] محدود شدهاند. در حالت تک متغیره، من به سادگی از توزیع بتا استفاده می کنم، اما آنالوگ چند متغیره، توزیع دیریکله نیز نامناسب به نظر می رسد. به جای اینکه همه متغیرهای ورودی را در بازه [0,1] بخواهد، متغیرهای ورودی را محدود میکند تا 1 جمع شوند. علاوه بر این، به نظر میرسد که توزیع به ماتریس کوواریانس بستگی ندارد - به نظر میرسد با توجه به واریانسهای مشابه، قادر به تشخیص کوواریانس بالا از کوواریانس پایین نیست. از چه نوع توزیعی باید استفاده کنم؟
|
تخمین توزیع احتمال مشترک با آنتی مد
|
44896
|
پس از نصب coxmodel می توان پیش بینی کرد و ریسک نسبی داده های جدید را بازیابی کرد. چیزی که من نمی فهمم این است که ریسک نسبی چگونه برای یک فرد محاسبه می شود و نسبت به آن (یعنی میانگین جمعیت) چقدر است؟ آیا توصیه ای برای منابع برای کمک به درک (من در تجزیه و تحلیل بقا خیلی پیشرفته نیستم پس هر چه ساده تر بهتر)؟
|
چگونه خروجی predict.coxph را تفسیر کنیم؟
|
7647
|
من به دنبال جایگزینی برای Google Docs به عنوان یک برنامه صفحه گسترده مبتنی بر وب بودم زیرا فایروال شرکتی کارفرمای من اکنون این برنامه را مسدود می کند. من چند گزینه جایگزین مانند Zoho.com را بررسی کردم. من دومی را عملا غیر قابل استفاده یافتم. همه برنامه های آن زمان زیادی برای بارگیری طول می کشد و واقعاً در اکثر مواقع به خوبی کار نمی کنند. وقتی با EditGrid روبرو شدم، خوشحال شدم. در بسیاری از موارد بسیار شبیه به اکسل است. با این حال، هیچ پشتیبانی ظاهری به جز یک مرکز راهنمایی غیرفعال وجود ندارد و همیشه مشکلات من را برطرف نمی کند. به عنوان مثال، من نمی دانم که چگونه عناوین و افسانه ها را در نمودارها قرار دهم. من همچنین نمی دانم که چگونه می توان پوشه ایجاد کرد. فکر کردم شاید کسی با EditGrid آشنا باشد و بتواند مستقیماً به من کمک کند یا به من در جهت یک گروه پشتیبانی راهنمایی کند. پیشاپیش از هرگونه اطلاعاتی متشکرم
|
آیا کسی از صفحه گسترده مبتنی بر وب EditGrid.com استفاده می کند؟
|
40577
|
میخواهم بدانم که اغلب باید برخی از صفحات وب را جستجو کنم تا مطمئن شوم که جدیدترین محتوا را در سریعترین زمان ممکن دارم. رویکرد ساده لوحانه در این مورد، محاسبه میانگین در یک دوره زمانی معین است. با این حال، صفحات وب مختلف با نرخ های مختلف به روز می شوند، بنابراین این مناسب نیست. من کمی جستجو کردم، و ظاهراً توزیع پواسون برای این نوع تخمین مناسب است. سوال من این است که چگونه باید لامبدا را محاسبه کنم؟ و باید دائما به روز شود، درست است؟ **ویرایش:** پاسخ جان به من کمک کرد. برای ارجاع بیشتر، این مقاله را بررسی کنید: تخمین فرکانس تغییر با تشکر
|
فرکانس تغییر صفحه وب
|
62755
|
این با سوالی که دیروز پرسیدم ارتباط نزدیکی دارد اما اکنون پاسخ بسیار کامل تری دریافت کرده ام که امیدوار بودم در مورد آن بازخورد دریافت کنم. سوال قبلی فقط به دنبال مشاوره مفهومی بود و بسیار مفید بود. می توانید داده ها و مقدمه مربوطه را در اینجا بیابید. من می خواستم برای هر گروه سنی اثرات پریود را پیدا کنم. من دو رگرسیون را با استفاده از dummies به عنوان بخشی از یک اصطلاح تعامل اجرا کردم. امیدوارم ببینم آیا روش من ناقص است و آیا تفسیر من از نتایج صحیح است یا خیر. اولین رگرسیون آنها به این صورت است: > ## با استفاده از factor() YearDummy و AgeGroupDummy تولید کنید > > YearDummy <- factor(YearVar) > AgeGroupDummy <- factor(AgeGroup) > > ## بررسی کنید که YearDummy و CohortDummy واقعاً متغیرهای فاکتور هستند. > > is.factor(YearDummy) [1] TRUE > is.factor(AgeGroupDummy) [1] TRUE > ## در AgeGroup پسرفت کنید و عبارتهای تعامل AgeGroup*YearDummy را شامل شود > > PooledOLS1 <- lm(PPHPY ~ AgeGroup + AgeGroup*YearDummy + 0, data=PoolSumarypool) : lm(فرمول = PPHPY ~ AgeGroup + AgeGroup * YearDummy + 0, data = maildatapooled) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -38.852 -10.632 - 3.298 11.275 26.481 ضرایب Estim. خطای t مقدار Pr(>|t|) AgeGroup 26.2212 3.5070 7.477 3.84e-10 *** YearDummy1 119.8836 15.6840 7.644 1.99e-10 *** YearDummy2 5.89.801. 7.55e-11 *** YearDummy3 103.2660 15.6840 6.584 1.28e-08 *** YearDummy4 97.7102 15.6840 6.230 5.06e-08 *** YearDummy5 6.685 9410 1.26e-08 *** YearDummy6 103.2330 15.6840 6.582 1.29e-08 *** YearDummy7 84.8291 15.6840 5.409 1.16e-06 *** YearDummy18 404.718 704.7 3.09e-05 *** YearDummy9 90.9566 15.6840 5.799 2.65e-07 *** YearDummy10 50.0885 15.6840 3.194 0.00224 ** YearDummy11 4020 4020. 0.01933 * YearDummy12 33.1947 15.6840 2.116 0.03846 * AgeGroup:YearDummy2 1.8066 4.9597 0.364 0.71695 AgeGroup:329My -Year -0.767 0.44632 AgeGroup:YearDummy4 -1.7436 4.9597 -0.352 0.72640 AgeGroup:YearDummy5 -6.0494 4.9597 -1.220 0.2220 - 0.222735 -1.220 -1 4.9597 -1.371 0.17552 AgeGroup:YearDummy7 -3.6752 4.9597 -0.741 0.46158 AgeGroup:YearDummy8 -0.4799 4.9597 -0.09roupmyY: -9.8190 4.9597 -1.980 0.05232. AgeGroup:YearDummy10 -2.2452 4.9597 -0.453 0.65241 تفسیر من از ضرایب اصطلاح تعامل این است که آنها تفاوت در شیب AgeGroup بین دوره مربوط به YearDummy و شیب AgeGroup در بالای نتایج را نشان می دهند. این به نوعی مانند اثر AgeGroup در دوره های مختلف است. رگرسیون دوم من به شرح زیر است: > ## Regress YearVar و شامل YearVar*AgeGroupDUmmy > > PooledOLS2 <- lm(PPHPY ~ YearVar + YearVar*AgeGroupDummy + 0، data=maildatapooled) > خلاصه(PooledOLS2PY(فرم PooledOLS2) فراخوانی: ~ YearVar + YearVar * AgeGroupDummy + 0، داده = maildatapooled) باقیمانده ها: حداقل 1Q Median 3Q Max -29.345 -9.325 -0.915 8.540 40.150 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) YearVar -7.089 1.252 -5.664 3.04e-07 *** AgeGroupDummy1 142.292 9.211 15.447 < 2e-16 *** AgeGroupDummy2 189.250 <3.211 189. 2e-16 *** AgeGroupDummy3 218.170 9.211 23.685 < 2e-16 *** AgeGroupDummy4 255.733 9.211 27.763 < 2e-16 *** AgeGroupDummy4 .2e-16 *** AgeGroupDummy4. 2e-16 *** AgeGroupDummy6 300.910 9.211 32.667 < 2e-16 *** AgeGroupDummy7 282.325 9.211 30.650 < 2e-16 *** YearVar:AgeGroupDummy -1.7.7.7my 0.3298 YearVar:AgeGroupDummy3 -2.401 1.770 -1.357 0.1792 YearVar:AgeGroupDummy4 -3.772 1.770 -2.131 0.0366 * YearVar:AgeGroupDummy -2.7715 -2.7715 0.1040 YearVar:AgeGroupDummy6 -3.587 1.770 -2.026 0.0465 * YearVar:AgeGroupDummy7 -2.372 1.770 -1.340 0.1846 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 14.97 در 70 درجه آزادی چندگانه R-squared: 0.9946، R-squared تنظیم شده: 0.9935 آمار: 917.9 در 14 و 70 DF، p-value: < 2.2e-16 تفسیر من از ضرایب ترم تعامل در اینجا این است که آنها نشان دهنده تفاوت در شیب YearVar بین AgeGroup مربوطه در عبارت تعامل و نتیجه YearVar در بالا هستند. یعنی چیزی شبیه یک اثر دوره ای در گروه های سنی مختلف هستند. آیا کسی می تواند مشکلی را در مورد کاری که من اینجا انجام داده ام یا با تفسیر من ببیند؟ این رگرسیون دوم نزدیکترین چیزی است که به اثرات دوره در گروههای سنی مشخصی که من توانستهام جمعآوری کنم، است. هر گونه انتقاد / ایده جدید پذیرفته می شود.
|
اثرات دوره در داده های سری زمانی تلفیقی در R
|
44892
|
این یک مشکل از هفتمین المپیاد دانشجویی کولموگروف در نظریه احتمال است: > با توجه به یک مشاهده $X$ از یک توزیع $\operatorname{Normal}(\mu,\sigma^2)$ > با هر دو پارامتر ناشناخته، یک فاصله اطمینان برای > $\sigma^2$ با سطح اطمینان حداقل 99٪. به نظر من این باید غیرممکن باشد. من راه حلش رو دارم ولی هنوز نخوندمش هر فکری؟ چند روز دیگه راه حل رو میذارم [ویرایش بعدی: راه حل رسمی در زیر پست شده است. راه حل کاردینال طولانی تر است، اما فاصله اطمینان بهتری می دهد. همچنین از Max و Glen_b برای نظرشان تشکر می کنم.]
|
فاصله اطمینان برای واریانس با توجه به یک مشاهده
|
44895
|
من در حال انجام یک تحلیل رگرسیون هستم که من را ناراحت کرد. متغیر مستقل من 4 جزء شرایط بین سیاره ای است و متغیر وابسته عرض جغرافیایی مرز بیضی شفق است. تا کنون، رابطه خاص هنوز در اصل فیزیکی ناشناخته است، کاری که ما میخواهیم انجام دهیم این است که یک مدل (بیان تابع) از دادههای عظیم بدست آوریم که نشان میدهد این متغیرهای مستقل چگونه بر متغیر وابسته تأثیر میگذارند. من از جعبه ابزار آماری Matlab برای انجام تحلیل رگرسیون استفاده کردم، اما نتایج بسیار بد بود. مقادیر p آماره F و آماره t بسیار کوچک است، اما R² نیز بسیار پایین است، حدود 20%. بنابراین چگونه باید R² را بهبود بخشم؟ آیا روش های خوبی وجود دارد؟ من می بینم که SVM (یا LS-SVM) می تواند تجزیه و تحلیل رگرسیون را انجام دهد، آیا این روش خوبی برای مدیریت داده های عظیم، تجزیه و تحلیل رگرسیون متغیرهای مستقل چندگانه است؟ نتایج زیر عبارتند از: mdl = مدل رگرسیون خطی: y ~ 1 + x1*x2 + x1*x3 + x1*x4 + x2*x3 + x2*x4 + x1^2 + x2^2 + x3^2 + x4^ 2 تعداد مشاهدات: 18471، درجه آزادی خطا: 18457 ریشه میانگین مربع خطا: 2.44 R-squared: 0.225، Adjusted R-Squared 0.225 F-statistic در مقابل مدل ثابت: 413، p-value = 0 وقتی یک پیش بینی کننده دیگر اضافه می کنیم، یعنی متغیرهای مستقل 5 می شوند، نتایج تحلیل رگرسیون عبارتند از: رگرسیون خطی مدل: y ~ 1 + x1*x2 + x1*x3 + x1*x4 + x1*x5 + x2*x3 + x2*x4 + x2*x5 + x3*x5 + x2^2 + x3^2 + x4^2 + x5^2 تعداد مشاهدات: 18457، درجه آزادی خطا: 18439 ریشه میانگین مربع خطا: 2.21 R-squared: 0.366، Adjusted R-Squared 0.366 آماره F در مقابل مدل ثابت: 627، p-value = 0
|
چگونه یک مدل رگرسیون خوب بدست آوریم؟
|
5634
|
بنابراین من داده هایی مانند: هزینه 20 30 10 5 رتبه بندی 5 3 2 5 می خواهم نموداری از رتبه بندی در مقابل هزینه ایجاد کنم، بنابراین امتیازها [(5،20)، (3،30)، (2،10) خواهد بود. )، (5،5)] به نظر نمی رسد که من نمی توانم اکسل را برای انجام کاری غیر از قرار دادن دو ردیف به عنوان سریال مستقل انجام دهم. آیا چیزی را از دست داده ام، یا باید داده ها را به نحوی تغییر دهم تا آن را انجام دهم؟ (در واقع، من از یک نسخه قدیمی Numbers.app در OS X استفاده می کنم، اما امیدوارم مفهوم آن یکسان باشد. در صورت نیاز به اکسل دسترسی دارم.)
|
در اکسل چگونه دو سطر را در مقابل یکدیگر رسم کنم؟
|
30644
|
من گیج شده ام که فرآیندهای گاوسی و کریجینگ چگونه به هم مرتبط هستند؟ کسی میتونه یه توضیح ساده بهم بده لطفا سعی کردم از طریق ویکی سر بزنم اما نگرفتم
|
سوالات مربوط به فرآیندهای گاوسی و کریجینگ
|
11872
|
من علاقه مند به یافتن راه هایی در R برای به روز رسانی موثر یک مدل خطی در هنگام اضافه شدن یک مشاهده یا یک پیش بینی هستم. biglm هنگام اضافه کردن مشاهدات قابلیت بهروزرسانی دارد، اما دادههای من به اندازهای کوچک هستند که در حافظه باقی بمانند (اگرچه تعداد زیادی نمونه برای بهروزرسانی دارم). راههایی برای انجام این کار با دست خالی وجود دارد، بهعنوان مثال، برای بهروزرسانی فاکتورسازی QR (به «بهروزرسانی فاکتورسازی QR و مشکل حداقل مربعات» توسط Hammarling و Lucas مراجعه کنید)، اما من امیدوار هستم که یک پیادهسازی موجود باشد.
|
به روز رسانی رگرسیون خطی به طور موثر هنگام افزودن مشاهدات و/یا پیش بینی ها در R
|
57777
|
به خوبی شناخته شده است که اکثر الگوریتم های انتخاب مدل به راحتی می توانند در یک دام مقایسه چندگانه قرار بگیرند. به نقل از فریدمن: > توسعه یک مدل رگرسیون را در زمینه ای در نظر بگیرید که نظریه ماهوی > ضعیف است. برای تمرکز بر یک حالت شدید، فرض کنید در واقع هیچ رابطه ای بین متغیر وابسته و متغیرهای توضیحی وجود ندارد. > با این حال، اگر متغیرهای توضیحی زیادی وجود داشته باشد، R2 بالا خواهد بود. اگر > متغیرهای توضیحی با آمار t کوچک حذف شوند و معادله > دوباره برازش شود، R2 بالا خواهد ماند و F کلی بسیار > معنادار خواهد شد. این با شبیه سازی و با محاسبه مجانبی نشان داده شده است. حال، فرض کنید که یک مدل رگرسیون چندگانه بر اساس تئوری های متعدد دارید. شما انتظار همبستگی بین $y$ و بسیاری از $X$ های خود را دارید، اما کاملا مطمئن نیستید که چگونه این همبستگی ها تحت تاثیر خطی بودن جزئی بین $X$ های شما قرار می گیرند. علاوه بر این، اجازه دهید بگوییم که شما مشکوک هستید که ممکن است بین برخی از $X$ های شما تعاملاتی وجود داشته باشد، اما مطمئن نیستید. به دلیل همخطی بودن، شما می خواهید یک مدل را با تمام X$ تخمین بزنید، نه چندین مدل جداگانه. حال، بگویید که شما مدل را به جامعه برازش میدهید، به جای نمونهای از جامعه. فرض کنید برخی از زیرمجموعههای X$ شما و تعاملات شما در واقع پیشبینیکنندههای ضعیفی هستند. از آنجایی که شما جزو جمعیت هستید، همه تخمینهای ضرایب بیطرفانه هستند و آن پیشبینیهای ضعیف نشاندهنده همبستگیهای واقعی، اما ضعیف هستند. اما اگر در مورد مدل مطمئن نیستید چه؟ برآوردهای ضرایب از سوگیری متغیرهای حذف شده یا سوگیری در تعیین نادرست یا احتمالاً هر دو رنج می برند. حال از جامعه به نمونه بروید. شما همان مدل غنی را بر اساس بهترین حدس تئوری خود مشخص می کنید، با این انتظار که برخی از جنبه های نظریه شما صحیح باشد و برخی دیگر درست نیست. اگر برخی از پارامترها را **نزنید** (مثلاً از طریق AIC)، مدل شما بیش از حد مناسب است و تعمیم ضعیفی خواهد داشت. اگر شما ** انجام** عبارات خاصی را انتخاب کنید (مثلاً از طریق انتخاب معکوس)، مدل شما از یک مشکل مقایسه چندگانه رنج می برد - برخی ویژگی ها مهم تلقی می شوند حتی اگر همبستگی های جمعیت واقعی را نشان ندهند. بنابراین یک پسر درخواستی باید چه کار کند؟ من یک مجموعه داده پیچیده با دسته ای از متغیرهای همبسته و دسته ای از تئوری های قابل توجیه منطقی دارم. من میخواهم آزمایش کنم که آیا حمایتی برای نظریهها وجود دارد یا خیر، و میخواهم پیشبینیهایی (با معیارهای مربوط به عدم قطعیت پیشبینیها) بر اساس قویترین مدلی که میتوانم بسازم، انجام دهم. من انتخاب تکراری به عقب را انجام داده ام -- عباراتی را حذف می کنم که در صورت حذف شدن، AIC را بیشتر کاهش می دهد. **آیا راهی برای تصحیح خطاهای استاندارد و/یا فواصل پیش بینی برای مقایسه چندگانه پس از انجام انتخاب معکوس وجود دارد**؟ (توجه داشته باشید که من نمیخواهم رگرسیون یا کمند انجام دهم، زیرا مایل نیستم بایاس را با واریانس معاوضه کنم. میدانم که تعیین نادرست میتواند منجر به بایاس شود، اما من از نیمه پارامترها برای جلوگیری از تعیین نادرست فرم عملکردی استفاده میکنم. در مورد ویژگی ها.)
|
آیا راهی برای تصحیح خطاهای استاندارد و/یا فواصل پیش بینی برای مقایسه چندگانه پس از انجام انتخاب معکوس وجود دارد؟
|
70817
|
من یک آزمایش با دو درمان دارم. این یک آزمایش اسپلیت پلات، با ساختار Block/Treatment1/Treatment2 است. هر درمان دارای 2 سطح است. متغیر وابسته داده های حضور/غیاب برای گروه های گونه عملکردی است. من داده ها را با استفاده از مدل های ترکیبی از طریق lme4 و afex تجزیه و تحلیل می کنم. ساختار مدل به شرح زیر است: m <- lmer (DV ~ درمان 1 * درمان 2 + (1| بلوک/درمان1)، خانواده = دوجمله ای) اما برای اهداف گرافیکی، من می خواهم میانگین درمان را برای هر یک از 4 درمان ترسیم کنم. ترکیبات (درمان 1 سطح A و درمان 2 سطح A؛ درمان 1 سطح B درمان 2 سطح A؛ درمان 1 سطح B و درمان 2 سطح A؛ درمان 1 سطح B و درمان 2 سطح B). من نتوانستم راهی بصری برای استخراج این مقادیر خطای میانگین و استاندارد در R برای داده هایی با توزیع خطای دو جمله ای پیدا کنم، بنابراین من این مقادیر را با دست محاسبه می کنم. من قدردانی می کنم که خطاهای استانداردی که من محاسبه می کنم، ساختار اثر تصادفی را در مجموعه داده من در نظر نمی گیرند، اما نمی توانم راهی برای محاسبه آنها برای گنجاندن این ساختار اثر تصادفی (با استفاده از شبیه سازی mcmc در زبان R برای ایجاد فواصل اطمینان HPD) پیدا کنم. برای داده های گاوسی کار می کند). به این ترتیب، من می خواهم میانگین درمان را برای نسبت یک گروه عملکردی خاص در یک ترکیب درمانی خاص، و سپس خطاهای استاندارد این 4 میانگین درمانی را محاسبه کنم. در نظر بگیرید که نسبت هایی که من برای یک درمان خاص دارم عبارتند از: پلات 1: 24/65 قطعه 2 26/64 قطعه 3: 25/65 قطعه 4: 22/62 قطعه 5: 30/66 قطعه 6: 29/65 من درک می کنم که برای محاسبه میانگین نسبت باید تعداد کل بازدیدها را جمع کنم (مجموع همه اعدادهای بالا) و تقسیم بر کل مجموع ضربه ها و از دست دادن ها (مجموع همه مخرج های بالا). این به من 0.40 می دهد. سوال من این است که چگونه می توان خطای استاندارد نسبت حاصل را محاسبه کرد؟ با فراخوانی نسبت ضربات p و از دست دادن q، فرمول زیر را برای خطای استاندارد نسبت دارم: sqrt((p*q)/n) آیا این درست است؟ علاوه بر این، n چیست؟ آیا n تعداد نسبتهایی است که نسبت میانگین را تشکیل میدهند (در این مورد 6) یا تعداد کل ضربهها و خطاها (یعنی مجموع همه مخرجهای بالا که در اینجا 387 است)؟ متاسفم که این یک سوال ساده است، من فقط نمی توانم پاسخی پیدا کنم! همچنین متاسفم اگر این انجمن درستی برای ارسال این نیست... بسیار متشکرم.
|
چگونه نسبت های تخمینی و فواصل اطمینان آنها را از یک مدل ترکیبی محاسبه کنیم؟
|
76415
|
من روی یک مدل پیشبینی سهام کار میکنم که قیمتهای سهام را در روز آینده پیشبینی میکند. یا برای روشن شدن، آیا مفهوم RMSE و MAD تنها در هنگام نگاه کردن به یک خطای پیشبینی سهام مفید است؟ آیا معدل کل RMSE یا MAD برای همه 500 سهام منطقی است؟ ممنون، دیپش
|
نحوه خواندن RMSE و MAD در مدل پیش بینی سهام
|
40574
|
آمار اینجاست من سعی کردم بفهمم آیا تکنیکی برای انجام نوع خاصی از تجزیه و تحلیل وجود دارد یا خیر، اما تاکنون جستجوهای زیاد چیزی به دست نیاورده است. سوال من این است که اگر یک اوج یا فرورفتگی بزرگ در نرخ کلی یک سازمان شناسایی شود، آیا راهی وجود دارد که بتوان تشخیص داد کدام یک از سایتهای تولیدی سازمان بیشترین کمک را به این تغییر نرخ داشته است؟ داده ها یک سازمان و عملکرد آن را در برابر معیار عملکرد مبتنی بر نرخ (مثلاً درصد هدر رفتن در خط تولید ماشین لباسشویی) توصیف می کنند. مجموعه داده شامل 4 فیلد است. این فیلدها عبارتند از: 1. سایت (100+ از اینها وجود دارد) 2. ماه 3. شمارنده (تعداد واشرهای از دست رفته به هدر رفت) 4. مخرج (تعداد کل واشرهای تولید شده) سازمان بر اساس نرخ کلی خود بر عملکرد خود نظارت می کند ( مجموع همه اعداد / مجموع همه مخرج ها) بر اساس ماه. این یک خط روند می دهد. اگر یک افزایش/کاهش ناگهانی در نرخ وجود داشته باشد، سازمان میخواهد سایتهایی را هدف قرار دهد که بیشترین کمک را در این تغییر نرخ داشتهاند. مطمئن نیستم که پاسخی برای این سوال وجود داشته باشد، زیرا یک سایت ممکن است کاهش در مخرج و دیگری افزایش در مقدار عددی خود را ببیند، به این معنی که این سایت ها هر دو تغییر کوچکی نشان می دهند، در حالی که سازمان به عنوان یک کل ممکن است هنگامی که ارقام ترکیب می شوند و نرخ کلی محاسبه می شود، یک تغییر مقیاس بزرگتر را مشاهده کنید. من در ابتدا به چیزی مانند یک رگرسیون لجستیک با وزن دادن فکر می کردم، اما مطمئن نبودم که آیا این کاملا راه حلی است یا نه...
|
نرخ های موثر بر نرخ ها
|
14413
|
درک من این است که یک نسبت خطر از مدل مخاطرات متناسب کاکس، اثر روی نرخ خطر یک عامل معین را با یک گروه مرجع مقایسه میکند. آیا آن گروه واقعی باید در داده ها وجود داشته باشد؟ فرض کنید افراد را در مطالعه ای ثبت نام می کنیم که چه مدت قبل از خرید یک کاناپه. ما در 3 سالگی سانسور می کنیم. برای این مثال ما دو عامل داریم: سن <30 یا >= 30 سال، اینکه آیا آنها گربه دارند. به نظر می رسد نسبت خطر گربه خود به گروه مرجع (سن <30، گربه ندارد) 1.2 و قابل توجه است (مثلاً 0.05 p<). آیا می دانم که داده ها شامل افراد کمتر از 30 سال است که گربه ندارند؟ برای این مثال کمی احمقانه به نظر می رسد، اما اگر فاکتورهای زیادی در مدل وجود داشته باشد، تصور اینکه ممکن است هیچ داده ای برای ترکیبی از عوامل وجود نداشته باشد، آسان تر می شود و در صورت انتخاب خودسرانه، ممکن است به عنوان گروه مرجع تبدیل شود. در واقع فکر می کنم این اتفاق افتاده است (در R، اگر مهم باشد).
|
آیا «گروه مرجع» در مدل خطرات متناسب کاکس باید وجود داشته باشد؟
|
7648
|
من به دنبال انجام طبقه بندی متن/فیلتر هرزنامه با استفاده از طبقه بندی کننده های ساده بیزی با بسته e1071 یا klaR در R هستم. آیا آموزش خوبی برای توصیف این موضوع وجود دارد؟ من به نوعی گیر کرده ام زیرا مطمئن نیستم از چه چیزی به عنوان داده برای ورود به تابع NaiveBayes استفاده کنم. برخی از کمک بسیار قدردانی می کنم، با تشکر!
|
فیلتر کردن هرزنامه با استفاده از طبقه بندی کننده های ساده بیزی با بسته e1071/klaR در R
|
44898
|
در تحقیقاتم روی برخی از داده ها کار می کنم (بیایید آن را داده های فروش بنامیم)، اما تقریباً هیچ اطلاعاتی در مورد نمونه اصلی نداریم. هدف من ارائه توضیحات احتمالی در مورد اینکه چگونه می توان آن را با استدلال های سازگاری نمونه برداری کرد. به طور دقیق تر، داده های ارائه شده از معاملات فروش تشکیل شده و دارای 2 ستون (خریدار و گیرنده) می باشد. یکی از معقولترین راهها برای نمونهبرداری این است (به اعتقاد ما) اختصاص یک احتمال (p) برای شامل یا نبودن هر تراکنش، و سپس شامل کردن زیرمجموعهای از تراکنشها بر اساس تحققهای تصادفی (نمونهگیری بدون جایگزینی). این مربوط به نمونه برداری دو جمله ای است. اطلاعات ما در مورد نمونه اصلی محدود است (تقریبا هیچکدام)، به جز اینکه من تخمینی از تعداد کل خریدارانی که ممکن است در کل وجود داشته باشد (حدود 2 میلیون نفر) دارم. علاوه بر این، ما فرض میکنیم که خریداران، مشتریانی هستند که به یک شبکه ارائهدهنده داده اصلی تعلق دارند، اما ممکن است فروشندگان متعلق به شبکههای دیگر باشند، بنابراین توجه ما به خریداران محدود میشود. استدلال سازگاری بر اساس موارد زیر است: در شبکه اصلی اگر خریدار بسیار فعال باشد (تراکنش های بیشتری وجود دارد) پس احتمال اینکه آن خریدار خاص در یک نمونه قرار گیرد بیشتر از مشتری کمتر فعال است. سپس با شمارش تعداد تراکنشهایی که هر خریدار انجام میدهد، و گروهبندی آنها بر اساس تعداد رایج تراکنشها - تعداد خریدارانی را که تعداد تراکنشهای $i$ انجام میدهند، دریافت میکنیم. سپس، بر اساس برآورد ما از تعداد کل خریداران در شبکه (2 M)، هدف من برآورد نرخ نمونه برداری (p) است. کد R: set.seed(0); ##تولید معاملات فروش تصادفی ss1= sample.int( 100، اندازه = 100، جایگزینی = TRUE، prob = NULL) ss2 = sample.int(10000، اندازه = 100، جایگزین = TRUE، prob = NULL) خریدار = مرتب سازی( ss1، کاهش=TRUE); گیرنده = مرتب سازی (ss2، کاهش = TRUE); data= data.frame(buyer= خریدار، گیرنده= گیرنده); ##تعداد فروش را محاسبه کنید - هر خریدار count= data.frame(table(buyer)); buyer.sales = count[order(count$Freq,decreasing=TRUE)]; df = data.frame(table(buyer.sales$Freq)); ##تعداد خریدارانی که 1 تراکنش، 2 تراکنش و غیره انجام می دهند... ## تعداد کل خریداران را حدس می زنیم - 2 میلیون. نرخ نمونه برداری (p) چقدر خواهد بود؟ روشهایی که تاکنون امتحان کردهام در اینجا آمده است: **رویکرد 1:** تعداد مشتریانی که تماسهای «i» را در نمونه (دادهها) برقرار میکنند، و به طور مشابه X_i تعداد مشتریانی را که تماس «i» برقرار میکنند، در نظر بگیرید. در شبکه اصلی ما Y ها را می شناسیم و سعی می کنیم X را بدست آوریم. سپس اگر تراکنش ها با نرخ p ثابت نمونه برداری شوند، آنگاه $Y_i = sum_{k=i}^{k= max(i)} N_k * (انتخاب(k,i))* p^k * (1-p )^{(n-k)}$; اگر ماتریس A را به صورت زیر تعریف کنیم: A <- تابع(i,j,prob) ifelse(i >j, 0,(choose(j,i)*((1-prob)^(j-i))*(prob ^(i))))) مشکل حل A*x=b است که راه حل آسانی دارد زیرا A مثلث بالایی است. اما برای مشکل فعلی من، مقادیر x که من دریافت میکنم معنی ندارد - آنها بسیار بین بینهایت به علاوه منهای هستند و در حالت ایدهآل فکر میکنم که بردار x باید نوعی همبستگی با y داشته باشد. من سیستم خطی برابری ها را با به حداقل رساندن هنجارهای L1، L2 و همچنین با محدودیت های مثبت حل کردم. با این حال، نتایج همبستگی ندارند - و مجموع x_i ها بسیار متفاوت از 2M است. **رویکرد 2:** این رویکرد بر روی نمونه گیری فرعی از نمونه (داده) است. فکر کردم میتوانم از نمونه با یک p داده شده نمونهبرداری کنم، سپس تعداد خریدارانی را که در آن نمونه فرعی به دست میآورم بشمارم. مقدار احتمال –p که نسبت زیر را ایجاد می کند (تعداد خریداران اصلی / تعداد خریداران نمونه) برابر با (تعداد خریداران نمونه / تعداد خریداران در نمونه فرعی) منطقی ترین انتخاب خواهد بود. . این رویکرد به من p~0.02٪ داد اما فکر نمیکنم این درست باشد. من فکر می کنم رویکرد 1 منطقی تر است اما نتایج این را نشان نمی دهد. همچنین باید توجه داشته باشم که داده های موجود از داده های تراکنش ماهانه برای یک دوره 12 ماهه تشکیل شده است. بنابراین مقدار داده ای که من به عنوان نمونه انتخاب می کنم نیز مهم است. من تخمین نرخ پواسون را امتحان کردم (اندازه یک جمعیت نمونه برداری شده را با تعداد مشاهدات تکراری تخمین بزنید) اما مقدار داده ای که من در آن گنجانده ام، به شدت بر تخمین تعداد کل خریداران تأثیر می گذارد - و من واقعاً گیر کرده ام. من فکر می کنم که داده های اصلی نوعی رفتار قانون قدرت دارند، اما این صرفاً یک حدس و بدون هیچ توجیهی است. من واقعا گیر کردم که کدام رویکرد منطقی تر است. هر گونه نظر، ایده قدردانی می شود.
|
استنباط بر جمعیت اصلی بر اساس نمونه - تخمین احتمال نمونه گیری
|
83118
|
فرض کنید $N$ سری زمانی $X_t^i$ برای $i=1...N$ داریم و می خواهیم یک سری زمانی جداگانه $Y_t$ را پیش بینی کنیم. بیایید مدل زیر را در نظر بگیریم: $Y_t = \sum_{i} \beta_i X_{t-1}^i $ من فقط سعی می کنم بفهمم چه زمانی چنین مدلی منطقی است * آیا این مدل نامی دارد؟ آیا تفسیری از نظر فرآیندهای تصادفی وجود دارد؟ آیا برنامه های کاربردی شناخته شده ای وجود دارد؟ * آیا منطقی است که $\beta_i$ را با استفاده از رویکردهای رگرسیون (رج، کمند، و غیره) با استفاده از نقاط آموزشی $(<x_{t-1}^1... x_{t-1}^N> حل کنید. ، y_t)$؟
|
رگرسیون خطی برای پیشبینی سریهای زمانی
|
70030
|
من روی دادههای عدم تعادل چند کلاسی کار میکنم. میخواهم کلاسهایم را بر اساس یک روش وروس یک تقسیم کنم و سپس تکنیک نمونهبرداری را انجام دهم. آیا در libsvm امکان پذیر است؟
|
تقسیم چند کلاس به کلاس باینری با استفاده از libsvm (نه طبقه بندی)
|
14206
|
من از SVM برای پیش بینی دیابت استفاده می کنم. من از مجموعه داده های BRFSS برای این منظور استفاده می کنم. این مجموعه داده دارای ابعاد 432607 دلار \ برابر 136 دلار است و به صورت کج است. درصد `Y`s در متغیر هدف $11\%$ است در حالی که `N`s باقیمانده $89\%$ را تشکیل می دهد. من از 136 متغیر مستقل از مجموعه داده فقط از 15 استفاده می کنم. یکی از دلایل کاهش مجموعه داده ها، داشتن نمونه های آموزشی بیشتر در صورت حذف ردیف های حاوی `NA` بود. این «15» متغیر پس از اجرای روشهای آماری مانند درختان تصادفی، رگرسیون لجستیک و یافتن اینکه کدام متغیرها از مدلهای بهدستآمده معنادار هستند، انتخاب شدند. برای مثال، پس از اجرای رگرسیون لجستیک، از «p-value» برای مرتب کردن مهمترین متغیرها استفاده کردیم. آیا روش من برای انجام انتخاب متغیر صحیح است؟ هر گونه پیشنهاد به شدت استقبال می شود. زیر پیاده سازی «R» من است. library(e1071) # ماشینهای بردار پشتیبانی #---------------------------------------- --------------------------- # خواندن فایل brfss (فایل عظیم 135 مگابایت) #----------------------------------------------- ------------------- y <- نشانگر read.csv(http://www.hofroe.net/stat579/brfss%2009/brfss-2009-clean.csv) <- c(DIABETE2، GENHLTH، PERSDOC2، SEX ، FLUSHOT3، PNEUVAC3، X_RFHYPE5، X_RFCHOL، RACE2، X_SMOKER3، X_AGE_G، X_BMI4CAT، X_INCOMG، X_RFDRHV3، X_RFDRHV3، X_STATE)؛ هدف <- DIABETE2; دیابت <- y[، نشانگر]; #----------------------------------------------- ------------------- # کد مجدد DIABETE2 #----------------------------------------------- ------------------- x <- دیابت$DIABETE2; x[x > 1] <- 'N'; x[x != 'N'] <- 'Y'; دیابت$DIABETE2 <- x; rm(x); #----------------------------------------------- ------------------- # حذف NA #----------------------------------------------- ------------------- x <- na.omit(دیابت); دیابت <- x; rm(x); #----------------------------------------------- ------------------- # تحقیق قابل تکرار #----------------------------------------------- ------------------- set.seed(1612); nsamples <- 1000; نمونه. دیابت <- دیابت[نمونه(nrow(دیابت)، nsamples)، ]; #----------------------------------------------- ------------------- # مجموعه داده را به آموزش و آزمایش تقسیم کنید #----------------------------------------------- ------------------- نسبت <- 0.7; train.samples <- ratio*nsamples; train.rows <- c(sample(nrow(sample.diabetes), trunc(train.samples))); train.set <- sample.diabetes[train.rows, ]; test.set <- sample.diabetes[-train.rows, ]; train.result <- train.set[ , which(names(train.set) == target)]; test.result <- test.set[ , which(names(test.set) == target)]; #----------------------------------------------- ------------------- # SVM #----------------------------------------------- ------------------- فرمول <- as.formula(factor(DIABETE2) ~ . ); svm.tune <- tune.svm(فرمول، داده = train.set، گاما = 10^(-3:0)، هزینه = 10^(-1:1)); svm.model <- svm(فرمول، داده = train.set، هسته = خطی، گاما = svm.tune$best.parameters$gamma، هزینه = svm.tune$best.parameters$cost); #----------------------------------------------- ------------------- # ماتریس سردرگمی #----------------------------------------------- ------------------- train.pred <- predict(svm.model, train.set); test.pred <- predict(svm.model, test.set); svm.table <- table(pred = test.pred، true = test.result); چاپ (svm.table); من با نمونه های 1000 دلاری (آموزش = 700 دلار و تست = 300 دلار) دویدم زیرا در لپ تاپ من سریعتر است. ماتریس سردرگمی برای داده های تست (نمونه های 300 دلاری) که من دریافت می کنم بسیار بد است. true pred N Y N 262 38 Y 0 0 من باید پیش بینی خود را برای کلاس 'Y' بهبود بخشم. در واقع، من باید تا حد امکان با «Y» دقیق باشم، حتی اگر با «N» عملکرد ضعیفی داشته باشم. هر گونه پیشنهاد برای بهبود دقت طبقه بندی بسیار قدردانی خواهد شد.
|
بهبود طبقه بندی SVM دیابت
|
83116
|
من از کتابخانه R 'multcomp' (http://cran.r-project.org/web/packages/multcomp/) برای محاسبه آزمون Dunnett استفاده می کنم. من از اسکریپت زیر استفاده می کنم: گروه <- فاکتور(c(A، A، B، B، B، C، C، C، D، «D»، «D»، «E»، «E»، «F»، «F»، «F»)) مقدار <- c(5,5.09901951359278,4.69041575982343,4.58257569495584,4.7958 3152331272,5,5,09901951359278,4.24264068711928,5.099019513592 78,5.19615242270663,4.58257569495584,6.16441400296898,6.85565 460040104,7.68114574786861,7.07106781186548,6.48074069840786) data <- data.frame(Group, Value) aov <- aov(Value ~ Group, data) summary(glht(aov, linfct=mcp(Group=Dunnett))) حالا اگر این اسکریپت را از طریق R Console اجرا کنم چندین بار من هر بار نتایج بسیار کمی متفاوت می گیرم. در اینجا یک مثال آورده شده است: آزمونهای همزمان برای فرضیههای خطی عمومی مقایسههای چندگانه میانگینها: تضادهای Dunnett برازش: aov(فرمول = مقدار ~ گروه، داده = داده) فرضیههای خطی: برآورد Std. خطای t مقدار Pr(>|t|) B - A == 0 -0.35990 0.37009 -0.972 0.76545 C - A == 0 -0.26896 0.37009 -0.727 0.90019 D - A == 0.26 -0. 0.99894 E - A == 0 1.46052 0.40541 3.603 0.01710 * F - A == 0 2.02814 0.37009 5.480 0.00104 ** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (مقادیر p تعدیل شده -- روش تک مرحله ای) و در اینجا آزمایش های همزمان برای فرضیه های خطی عمومی مقایسه چندگانه معنی: تناسب تضادهای دونت: aov(فرمول = مقدار ~ گروه، داده = داده ها) فرضیه های خطی: برآورد Std. خطای t مقدار Pr(>|t|) B - A == 0 -0.35990 0.37009 -0.972 0.7654 C - A == 0 -0.26896 0.37009 -0.727 0.9001 D - A == 0 -0.09 -0.02 0.9989 E - A == 0 1.46052 0.40541 3.603 0.0173 * F - A == 0 2.02814 0.37009 5.480 <0.001 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 (مقادیر p تعدیل شده -- روش تک مرحله ای) همانطور که می بینید، دو نتیجه فوق بسیار کمی متفاوت هستند، اما برای انتقال گروه نهایی (F) از دو ستاره به سه ستاره کافی است که به نظر من نگران کننده است. چند سوال در این رابطه دارم: 1. چرا این اتفاق می افتد؟! مطمئناً اگر هر بار همان داده ها را وارد کنید، باید همان داده ها را دریافت کنید. 2. آیا نوعی اعداد تصادفی در جایی در محاسبات Dunnett استفاده می شود؟ 3. آیا این تغییرات جزئی هر بار واقعاً یک مشکل است؟
|
تست دانت در R هر بار مقادیر متفاوتی را برمی گرداند
|
104419
|
من شنیدم که F-test به شما توصیه می کند که آیا از اثرات ثابت یا OLS استفاده کنید. با این حال، من هیچ جزئیاتی در مورد آن در کتاب ها پیدا نکردم. فقط در مطالعات بسیار کمی. فرضیه آزمون چیست؟ بعد از اینکه مدل ثابت خود را اجرا کردم، تست F گرفتم که همه u_i=0: F(100, 389) = 2.98 Prob > F = 0.0000 همانطور که فهمیدم «u_i=0» به این معنی است که از اثر ثابت استفاده خواهم کرد (راست می گویم؟) به طور کلی این تست F در مقایسه با تست هاسمن و تست LM چقدر دقیق است، با توجه به این واقعیت که ما به دانستن اینکه آیا از اثرات ثابت یا OLS ترکیبی استفاده کنیم، پایان خواهیم داد؟
|
تست F در داده های پانل چقدر دقیق است
|
96207
|
> فرض کنید $X_{1},..,X_{n}$ نمونه ای از توزیع عادی با میانگین > ${\theta}$ و واریانس 1 باشد. فرض کنید $H_{0}:{\theta}={\theta }_{0}$ و > $H_{1}:{\theta}={\theta}_{1}$. از لم نیمن-پیرسون استفاده کنید تا نشان دهید که > بهترین آزمون برای $H_{0}$ در مقابل $H_{1}$ دارای یک ناحیه بحرانی از شکل > mean$(X_{1},..,X_{n} است. ){\geq}k$. من این قسمت را انجام داده ام. سوال بعدی این است: > اجازه دهید ${\theta}_{0}=0$ و ${\theta}_{1}=1$. مقادیر $n$ و $k$ را پیدا کنید تا > تابع توان آزمون ${\phi}$ دارای مقادیر > ${\phi}{\theta}_{0}=0.01$ و ${\phi باشد. }{\theta}_{1}=0.9$. قانون تصمیم مربوطه > را بنویسید. کار من تاکنون: اجازه دهید $Y= \text{mean}(X_{1},..,X_{n})$. ما $P(Y{\geq}k|{\theta}_{0})=0.01$ داریم. به طور مشابه برای ${\theta}_{1}$. اما چگونه از اینجا بروم؟
|
آزمون فرضیه و چارچوب نیمن-پیرسون
|
13821
|
من در حال ایجاد یک برنامه وب کوچک هستم و بخشی از آن در حال تولید یک عدد است (من دوست دارم آن را ضریب تنوع بنامم) که نشان دهنده میزان تنوع عادات شنیداری افراد است. مشکل این است - من مطمئن نیستم که چگونه یک فرمول معتبر برای آنچه می خواهم ایجاد کنم. من تمام تلاشم را خواهم کرد تا توضیح دهم که چه اطلاعاتی دارم و در نتیجه به چه چیزی نیاز دارم و امیدوارم کسی بتواند راه حلی به من ارائه دهد. حدس میزنم هیچ چیز سخت یا پیچیدهای نیست، اما من آنقدرها در ریاضیات عمیق نیستم، بنابراین مطمئن نیستم که چگونه به آنچه میخواهم برسم (چند روز سعی کردم با ایدههای فرمول متفاوت بازی کنم، اما نتوانستم به آنچه میخواستم برسم). کاری که من انجام میدهم این است که - من اطلاعاتی را از پروفایل lastfm جمعآوری میکنم، که یک وبسایت است که به شما امکان میدهد موسیقیهایی را که گوش میدهید ردیابی کنید، و همچنین به شما امکان میدهد از تمام دادههایی که در سرورهای خود ذخیره کردهاند برای ایجاد چیزی با آن دادهها استفاده کنید. شما اگر دوست دارید می توانید نمونه ای از یک نمایه و آنچه در مورد آن است را در اینجا مشاهده کنید، فقط برای اینکه بهتر بفهمید در مورد چیست). بنابراین فرض کنید به یک گروه خاص گوش می دهید و تعدادی از آهنگ های آنها را گوش می دهید. اطلاعاتی که من دارم به شرح زیر است: * تعداد کل تعداد دفعاتی که به یک گروه خاص گوش داده اید * تعداد آهنگ های مختلف (از آن گروه) که به آن گوش داده اید * تعداد کل تعداد دفعاتی که به هر یک از آن گروه های مختلف گوش داده اید آهنگ ها به عنوان مثال: * شخصی 1012 بار به گروهی به نام FooBar گوش داد * او به 17 آهنگ مختلف از آن گروه گوش داد * او به اولین آهنگ از آن 17 آهنگ گوش داد. 100 بار، دومی از آن 17 برای 110 بار، سومی 120 بار، چهارمی 170 بار، پنجمی 500 بار و 12 آهنگ باقی مانده فقط یک بار در هر آهنگ. چیزی که من می خواهم در نتیجه داشته باشم عددی است که از 0 تا 100 متغیر است. این عدد نشان دهنده این است که شخصی به تمام آهنگ ها به طور مساوی گوش دهد یا فقط یک یا دو آهنگ از یک گروه را همیشه گوش کند و همه آهنگ های دیگر را فقط یک یا دو بار و سپس آنها را فراموش کند ... 100 عالی امتیاز برای کسی خواهد بود که 500 بار فوبار را گوش داده باشد، 5 آهنگ مختلف، هر کدام 100 بار... یعنی به همان اندازه که می شود. امتیاز 0 (یا برخی از امتیازهای بسیار پایین) برای شخصی است که 500 بار به FooBar گوش داده است، 5 آهنگ مختلف - یکی از آنها برای 496 بار، و چهار آهنگ باقی مانده فقط یک بار در هر آهنگ. من فکر می کنم که این نوعی چگالی است که می خواهم، اما چگونه به آن عدد برسم - مطمئن نیستم.. و اینجاست که به کمک شما نیاز دارم. خوشحال می شوم هر گونه اطلاعات اضافی برای کمک به من ارائه دهم. چیزی شبیه به این است (اگر به این نوارها نگاهی بیندازید که هر کدام یک آهنگ متفاوت (و سهم آن از تعداد کل) را نشان میدهند، به همین دلیل است که میگویم تراکم):  .stack.imgur.com/IoOer.jpg) در این مثال واضح است که Dredg نسبت به Deftones یکنواخت تر است و باید امتیاز بالاتری داشته باشد (در مورد من امتیاز تقریباً یکسان است که خوب نیست، فقط یک چیزی است. که از آزمایش من با فرمول باقی مانده است). با تشکر PS - با خیال راحت تگ ها را ویرایش کنید، من واقعاً نمی دانم چه چیزی را در آنجا قرار دهم.
|
کمک به ایجاد فرمول برای ضریب تنوع
|
76414
|
من حدود 50$ متغیر تصادفی برنولی $X_i$ دارم که توزیع مشترک آنها ناشناخته است، اما می توانم یک نمونه با اندازه به ترتیب $10^4$ ایجاد کنم. آنها مستقل نیستند، اما به نظر من وابستگی نسبتا ضعیف است. من می خواهم ایده ای از ${\rm Pr}({\rm all}\ X_i = 1)$ داشته باشم، که انتظار دارم به طور قابل توجهی کوچکتر از $10^{-4}$، شاید حدود $10^{-6 باشد. }$ (بنابراین بعید است که نمونه حاوی نتایجی با تمام $X_i = 1$ باشد). اگر فرض میکردم که آنها مستقل هستند، میتوانم میانگین آنها را تخمین بزنم و این تخمینها را ضرب کنم. چه کاری می توانم انجام دهم که همبستگی ها را در نظر بگیرد؟
|
همبستگی متغیرهای تصادفی برنولی
|
54463
|
فرض کنید فضای نمونه S یک آزمایش محدود است. نشان دهید که مجموعه تمام زیرمجموعه های S سه شرط لازم برای نامیدن مجموعه رویدادها را برآورده می کند: 1. $S \in \بتا $ 2. $ if \; A \in \بتا، \; A^\complement\in\beta$ 3. $if A_{1},A_{2},\cdots,A_{n}\in\beta,\; A_{1}\cup A_{2}\cdots\cup A_{n}\in\beta$ چگونه می توانم بدیهیات بالا را اثبات کنم؟ یعنی چگونه می توانم نشان دهم که مجموعه همه زیر مجموعه های S سه شرط لازم برای نامیدن مجموعه رویدادها را برآورده می کند. توضیح مفصل با فیلد بورل و اثبات کامل آن به من کمک می کند بینش آماری و مهارت های خود را بهبود بخشم.
|
درباره جبر سیگما (اثبات میدان بورل)
|
76411
|
ما پارامترهای هواشناسی خورشیدی زیر را از طریق داده های ماهواره ای با وضوح 100 کیلومتر ^ 2 دلار (10 کیلومتر در 10 کیلومتر) داریم. تابش در سطح افقی تابش پراکنده در سطح افقی تابش عادی مستقیم به این ترتیب می توانیم حدود 4-5 پارامتر دیگر داشته باشیم که با تولید انرژی خورشیدی مرتبط است. همین پارامترها در 23 ایستگاه زمینی نیز اندازه گیری می شوند. ما همچنین داده های پارامتری مشابهی داریم که در ایستگاه زمینی در مکان های عرض جغرافیایی مربوطه گرفته می شود. هدف ما تخمین تمام پارامترهای خورشیدی برای هر 1 کیلومتر در 1 کیلومتر منطقه خواهد بود. با درون یابی داده های ماهواره ای و داده های ایستگاه زمینی در منطقه مجاور با بهترین دقت ممکن. سوال من این است که بهترین تکنیک درونیابی که می توانیم استفاده کنیم کدام است: لطفاً چند مرجع و نرم افزاری را که می توان استفاده کرد ارائه دهید.
|
مشکل درون یابی
|
86197
|
در حال مطالعه مقاله ویکی پدیا در مورد میانگین بیزی هستم. این در مورد توسعه سیستم های رتبه بندی بسیار جالب به نظر می رسد، اما من شک دارم. چگونه وزن C میانگین را ثابت کنیم؟
|
چگونه وزن را در میانگین بایسان ثابت کنیم
|
58368
|
من در یک پست جدید آمدم زیرا با استفاده از offset در تابع ()gam (بسته mgcv) کاملا گیج شده ام. من در واقع روی پیشبینی توزیع شکارچیان برتر دریایی با استفاده از بررسیهای هوایی (مشاهدات شکارچیان) و خروجیهای مدل تولید ثانویه کار میکنم. داده های من در یک شبکه با وضوح 0.25 درجه، در مناطق وسیعی مانند جنوب غربی اقیانوس هند شکل می گیرند. بررسی ها در چندین بخش بر روی آن شبکه انجام شده است، یعنی از تمام شبکه نمونه برداری نشده است. متغیرهای تولید ثانویه من از مدل SEAPODYM هستند که توسط Lehodey و همکاران توسعه داده شده است. من مجموعه ای از حدود 12 متغیر کمکی دارم و می خواهم بهترین ترکیب آنها را برای _پیش بینی_ توزیع شکارچیان پیدا کنم. گفتنی است، چون هدف من پیشبینی توزیع شکارچیان است، پس از حذف تمام ترکیبهای متغیرهای همبسته، یک انتخاب مدل بر اساس امتیاز GCV انجام دادم. من مشاهدات را مدلسازی میکنم، بنابراین از یک توزیع شبهپوآسون (دادههای پراکنده بیشازحد) با سطح نمونهگیری در هر پیکسل به عنوان یک افست استفاده کردم. من انتخاب مدل خود را با مدلی که به صورت زیر نوشته شده بود انجام دادم: mod1<-gam(Y ~ offset(log(منطقه نمونه))+ covariate1 + covariate2 + covariate3 + covariate4, family = quasipoisson) تا آن زمان، همه چیز به خوبی کار می کرد، اما بعد من شروع به پیش بینی مشاهدات شکارچیان در شبکه کامل من کردم. انجام این کار با مدل قبلی منجر به پیشبینی فقط روی پیکسلهای نمونهبرداری شد. به دنبال توصیههای همکاران، من با استفاده از نوشته دیگری پیشبینی کردم، فکر میکردم چیزی در نتایج تغییر نمیکند: mod2<-gam(Y ~ covariate1 + covariate2 + covariate3 + covariate4، offset (log (منطقه نمونهبرداری شده))، Family=quasipoisson) در واقع، به من این امکان را می دهد که مشاهده را در کل شبکه پیش بینی کنم، اما از زمانی که به خلاصه های آن نگاه کردم کاملاً گیج شدم. مدل ها نتایج در واقع کاملاً متفاوت است، با هر دو امتیاز GCV و انحرافات توضیح داده شده مقادیر بالاتری دارند: خلاصه (mod1) خانواده: تابع پیوند شبه پواسون: log فرمول: گونه ~ offset (log (منطقه نمونه) + s (متغیر کمکی1,k=4) + s(متغیر کمکی2،k=4) + s(متغیر کمکی3،k=4) + s(covariate4,k=4) ضرایب پارامتری: تخمین مقدار خطای t Pr(>|t|) (فاصله) -0.12268 0.08025 -1.529 0.127 اهمیت تقریبی اصطلاحات صاف: edf Ref.df F p-nk. ) 2.722 2.951 15.89 4.83e-10 *** s(meso_mnk_B) 2.995 3.000 17.52 3.52e-11 *** s(bathy_mnk_P) 2.989 3.000 20.37-1.00 6.2m 2.536 2.855 12.71 6.49e-08 *** --- کدهای علامت: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 1 R-sq.(adj) = 0.0838 توضیح داده شده = 16.4% امتیاز GCV = 22.371 مقیاس تخمینی = 22.188 n = خلاصه 1491 (mod2) خانواده: تابع پیوند شبه پواسون: log فرمول: گونه ~ s(متغیر کمکی1,k=4) + s(متغیر کمکی2,k=4) + s(متغیر کمکی3,k=4) + s(covariate4,k=4) پارامتریک ضرایب: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) 1.30093 0.07884 16.5 <2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 اهمیت تقریبی اصطلاحات صاف: edf Ref.df F p-value s(bathy_mnk_B) 2.802 2.974 17.37e *** s(meso_mnk_B) 3.000 3.000 16.35 1.86e-10 *** s(bathy_mnk_P) 2.988 3.000 27.75 < 2e-16 *** s(mmeso_mnk_P) 2.41-2.41-2.460 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 R-sq.(adj) = 0.0938 انحراف توضیح داده شده = 17.5% امتیاز GCV = 31.809 مقیاس est. = 31.5 1491 با توجه به اینکه من انتخاب مدل خود را بر اساس نمرات GCV، این واقعیت که اینطور تغییر کرد، من را متحیر کرد، و من در تعجب هستم که آیا انتخاب مدل من درست بوده است یا نه. من انتخاب مدل را با مدل دوم (Y~X1+X2، offset) دوباره انجام دادم، و مدلهای انتخابی بهدستآمده همیشه با روش اول من یکسان نیستند. با دیدن این موضوع به این فکر می کنم که مدل سازی و پیش بینی خود را بر اساس کدام نوشته مدل قرار دهم؟ آیا کسی می تواند به من توضیح دهد که چرا این دو مدل نتایج متفاوتی می دهند؟ پیشاپیش از کمک و راهنمایی شما متشکرم، شارلوت
|
پیش بینی با GAM، با استفاده از افست
|
88976
|
امروز در دوره کوتاه RMS فرانک هارل، متوجه شدم که انتساب چندگانه با «Hmisc:aregImpute» نسبت به ترتیب عبارات در آرگومان فرمول آن تغییری ندارد، و بنابراین باید نتایج انتساب را تحت جایگشت این اصطلاحات بررسی کرد. در اینجا یک تابع ساده است که جایگشت های لازم را ایجاد می کند: perms <- function(n, formula) { rhs <- attr(terms(formula), 'term.labels') formulas <- list() for(i in 1:n) { formulae[[i]] <- as.formula(paste(~, paste(sample(rhs), collapse=+))) } فرمولها } برای مثال: > perms(5، ~ سن + جنس + bp + مرگ + مایل <محیط: 0x10dc9cbb8> [[3]] ~mi + bp + سن + مرگ + جنس <محیط: 0x10dc9cbb8> [[4]] ~ سن + مرگ + bp + جنس + mi <محیط: 0x10dc9cbb8> [[5]] ~bp + سن + مرگ + جنسیت + mi <محیط: 0x10dc9cbb8> > این را میتوان با «lapply» استفاده کرد به صورت زیر: به عنوان <- lapply(perms(5, ~ سن + جنس + bp + death + mi) , aregImpute, data=mydata, n.impute=10) اما نمیدانم که آیا ممکن است منطقیتر باشد که این را در خود aregImput ادغام کنیم.
|
تبدیل آرگومان فرمول به Hmisc:aregImpute
|
38349
|
من در تلاش برای درک رفتار نسبی آمار همبستگی رتبه زیر هستم: 1. ضریب اسپیرمن 2. کندال تاو / درصد تطابق 3. ضریب جینی نرمال شده (مساحت زیر منحنی درصد گرفته شده در مقابل درصد مشاهدات) 4. سطح نرمال شده زیر منحنی ROC ( برای طبقهبندیکنندههای باینری) من فکر نمیکنم هیچکدام از اینها از نظر عملکردی با بقیه مرتبط باشند. پاسخ پذیرفته شده در اینجا به این مقاله اشاره می کند و اسپیرمن و کندال همبستگی بالایی دارند (همانطور که انتظار می رود). آیا شهود خوبی در پشت/بحثهای نسبی (در میان مجموعههای داده) یا مطلق (برای یک مجموعه داده معین) تفاوتها برای (هر جفتی از) این معیارها وجود دارد؟
|
مقایسه آمار همبستگی رتبه ای
|
14416
|
از آنجایی که علم باید تکرارپذیر باشد، طبق تعریف، به رسمیت شناختن فزایندهای وجود دارد که دادهها و کد جزء ضروری تکرارپذیری هستند، همانطور که میزگرد ییل برای اشتراکگذاری داده و کد مورد بحث قرار گرفته است. در بررسی یک نسخه خطی برای مجله ای که نیازی به اشتراک گذاری داده و کد ندارد، آیا می توانم درخواست کنم که داده ها و کدها 1. در زمان بررسی در دسترس من قرار گیرند. 2. به صورت عمومی در زمان انتشار (ژورنال از مکمل ها پشتیبانی می کند) ، چگونه می توانم چنین درخواستی را بیان کنم؟ * * * _update_: اگرچه من به حالت کلی علاقه مند هستم، این مورد خاص شامل یک متاآنالیز با تمام داده های منتشر شده قبلی است و کد مدل های خطی ساده در SAS _side note_ توانایی استنتاج مطالعات متقابل است (به عنوان هدف متاآنالیز است) اگر مطالعات بیشتری داده های خام را ارائه کند بسیار افزایش می یابد _به روز رسانی 2_: من داده ها و کد را از ویرایشگر برای اهداف درخواست کردم. بررسی، ویرایشگر درخواست را منطقی تلقی کرد و من مطالب درخواستی را (به اندازه کافی اما با نام متغیرهای مرموز، بدون ابرداده، و نظرات درونی کمی) در عرض یک روز دریافت کردم.
|
به عنوان یک داور، آیا می توانم درخواست داده ها و کدها را توجیه کنم که حتی اگر مجله در دسترس نباشد؟
|
76410
|
فرض کنید من شبکهای از سلولها از یک تصویر ماهوارهای دارم که مقدار 0 یا 1 را به خود میگیرد و 1 جنگل است. معیارهای الگوی فضایی زیادی وجود دارد که چیزهایی را در مورد این الگو اندازه گیری می کند، مانند برخی از ابعاد تکه تکه شدن جنگل. یک مورد رایج، آماره شمارش مشترک است که به اندازه کافی ساده است که انتظارات و واریانس آن برای یک فرآیند تخصیص تصادفی قابل محاسبه باشد. این به فرد امکان میدهد تا احتمال یک تعداد پیوست را با مقداری مساوی یا بیشتر از آنچه مشاهده شده، با توجه به یک فرآیند تصادفی تخمین بزند. فقط باید رابطه بین سلول های شبکه (آیا آنها از نظر فضایی به هم متصل هستند/همسایه هستند یا نه) و احتمال اینکه هر سلولی مقدار خاصی به خود بگیرد (مثلاً احتمال جنگل بودن یک سلول و احتمال عدم وجود آن) را بداند. الگوهای فضایی پیچیده تر معمولاً نسخه استانداردی ندارند. به عنوان مثال، محیط تمام لکه های جنگلی را می توان بر مساحت سطح همه تکه ها برای محاسبه نسبت محیط به مساحت تقسیم کرد. هر چه از یک دایره بزرگ (حداقل) دورتر باشد، تکه تکه تر است. محاسبه احتمال هر الگوی فضایی داده شده آسان خواهد بود (به عقیده من، اگر تعداد سلول های جنگلی/غیر جنگلی یکسانی داشته باشند، همه آنها یکسان خواهند بود)، اما من علاقه مند به دانستن مساحت محیطی مورد انتظار هستم. نسبت و واریانس به طوری که معیارهایی از این قبیل را بتوان استاندارد کرد. آیا متنی وجود دارد که کسی بتواند پیشنهاد دهد؟ من به طور گسترده ای در مورد بوم شناسی چشم انداز و زمینه های مرتبط مطالعه کرده ام، اما فکر نمی کنم به این موضوع پرداخته شده باشد، بنابراین برای تحقیق به یک متن ریاضی یا حتی حوزه مطالعاتی نیاز دارم که در حال حاضر از آن اطلاعی ندارم. یک رویکرد ساده شبیه سازی مونت کارلو خواهد بود، اما این روش برای مجموعه هایی حتی نسبتاً بزرگ از سلول های شبکه بسیار فشرده خواهد بود. علاوه بر این، الگوهای مشاهده شده معمولاً در مقایسه با یک فرآیند تصادفی بسیار نادر هستند و بنابراین میتوانید اجازه دهید شبیهسازی برای مدتی طولانی اجرا شود و من معتقدم هرگز دنبالههای توزیع ایجاد شده توسط آن را پر نکنید تا به یک دسته خوب بر روی آن برسید. احتمال مشاهده الگوی با همان مقدار یا بیشتر. هر گونه راهنمایی مرتبط با دستیابی به هدف من قابل قدردانی است. انگیزه اصلی این کار، آزمایش فرضیههای صفر «مرد کاهی» در تخصیص تصادفی نیست، بلکه در عوض قادر به مقایسه الگوها از دو ناحیه و در عین حال حذف برخی از مخدوشکنندهها به دلیل تفاوت در تعداد سلولهای اختصاص داده شده به هر دسته است.
|
تعیین احتمال متریک الگوی فضایی بیشتر از برخی نمونه ها
|
44899
|
من میخواهم بفهمم که توزیع نمونهگیری کل ماتریس کوواریانس برای $n$ بزرگ چگونه رفتار میکند. من سعی می کنم از روش دلتا و CLT چند متغیره استفاده کنم. من سعی میکنم نشان دهم که وقتی $X$ها IID با گشتاورهای مرتبه چهارم محدود غیرصفر هستند، عملیات (واریانس نمونه) انجام میشود، مانند این معادله: $$\sqrt{n}(s_X^2 - \sigma ^2) \underset{n\rightarrow \infty}{\overset{d}{\longrightarrow}} N(0, \mathbb{E}X_1^4 - (\mathbb{E}X_1^2)^2).$$ (برای سادگی، $\mathbb{E}X_i = 0$ را فرض کردهام). برای درک مراحلی که باید بردارم از کمک خواسته می شود. من با مطالعه رفتار مجانبی واریانس نمونه شروع کردم و سپس از روش دلتا برای تابع زیر $g(a,b) = b - a^2$ استفاده کردم.
|
آیا می توانیم توزیع S را تقریبی کنیم؟
|
96206
|
تحت مدل GARCH($m$,$s$)، می توان نشان داد که $ E(\eta_t\eta_{t-j}) = E[(a_t^{2}-\sigma_t^{2})(a_{ t-j}^{2}-\sigma_{t-j}^{2})] = 0 $. در تلاش برای اثبات خود، با $ E(\epsilon_t^{2}\epsilon_{t-j}^{2}) = 1 $ مواجه شدم که $ \epsilon_t \sim^{iid} (0,1) $. آیا واقعاً درست است که اگر $ \epsilon_t \sim^{iid} (0,1) $، آنگاه $ E(\epsilon_t^{2}\epsilon_{t-j}^{2}) = 1 دلار است؟
|
آیا درست است که اگر $ \epsilon_t \sim^{iid} (0,1) $، آنگاه $ E(\epsilon_t^{2}\epsilon_{t-j}^{2}) = 1 دلار است؟
|
88973
|
یک سوال نسبتاً ابتدایی: اگر: $X = X_1 + X_2 + ... + X_n$ و $X_i \sim N(0,\sigma^2)$ و مستقل داشته باشیم، آیا میتوانیم $X$ را به صورت $\sqrt بیان کنیم. n X_i$ برای هر $i = 1،...،n$ ? من فکر می کنم از آنجایی که همه اجزای $X_i$ از توزیع نرمال پیروی می کنند و ما $n$ از آنها را جمع می کنیم، rv حاصل $X \sim N(0, n\sigma^2)$ است و بنابراین می توانیم از $X استفاده کنیم. = \sqrt n X_i$. آیا این استدلال صحیح است؟ اگر بله، تحت چه شرایطی می تواند نادرست باشد؟
|
مجموع متغیرهای تصادفی معمولی توزیع شده با توجه به یک جزء
|
14410
|
_ریاضیات و آمار در برنامه درسی آموزشی من بسیار عقب مانده اند، و با این حال اکنون به نظر می رسد که دوباره به آنها نیاز دارم، بنابراین این مجموعه سوالات بسیار ابتدایی هستند فکر می کنم:_ ## خط روند چیست؟ چه انواع مختلفی از خطوط روند وجود دارد؟ و کاربرد یا ارتباط آنها چیست؟ ### پیش زمینه: من روی یک پایان نامه کار می کنم و در حال تولید برخی از رندرهای تصویری از نظرسنجی ای هستم که انجام دادم، که در آن سعی کردم دانش عمومی از تاریخ و میراث (استعماری) را در شهر کرالا، هند اندازه گیری کنم. به عنوان مثال، من داده هایی دارم که نشان دهنده نتیجه یک آزمون است که میانگین نتیجه آن با معیارهای مختلف جامعه (سن، تحصیلات و غیره) مقایسه می شود. با توجه به معیارهایی مانند گروه سنی، درآمد یا تحصیلات، این است. همچنین جالب است بدانید که آیا افزایش آنها نتایج را بهبود می بخشد یا خیر. من روی این دادهها با LibreOffice کار میکنم، که به من امکان نشان دادن یک خط روند را میدهد، و فکر میکنم خط روند برای نشان دادن رابطه بین _x_ و _y_، یعنی معیارها و نتیجه، کافی است. با این حال، 4 نوع خط روند موجود است: _خطی، لگاریتمی، نمایی_ و _قدرت_. کدام یک را انتخاب کنم؟ چه فرقی می کند؟ اگر LibreOffice آن را برای من انجام ندهد، چگونه می توانم خط روند را پیدا کنم؟ ویکیپدیا به این پرسشها اشاره میکند. اگرچه مطمئن نیستم که باید به رگرسیون خطی نگاه کنم یا تحلیل خط روند فنی. لطفاً یک مقدمه کوتاه از «خط روند برای آدمکها» ارائه کنید؟ ممنون :)
|
خط روند چیست؟
|
40570
|
آیا کشف نادرست باید در سطح اکتساب داده ها کنترل شود یا این باید در سطح تفسیر داده ها باشد؟ من آزمایشی دارم که در آن از ریزآرایهها برای تعیین کمیت بیان حدود 30000 ژن (متغیر) در دو گروه از بافتهای بیولوژیکی (گروههای 75 و 76) استفاده شد. دادههای آرایه خام برای حذف سیگنالهای پسزمینه و ژنهایی که سطوح بیان آنها غیرقابل تشخیص است، و برای عادیسازی مقادیر در سراسر آرایهها، از قبل پردازش شده بود. سپس داده های نهایی با استفاده از آزمون Mann-Whitney U برای مقایسه بیان ژن بین دو گروه برای شناسایی ژن های بیان شده متفاوت، با نرخ کشف کاذب (FDR) که با روش بنجامینی-هوچبرگ کنترل می شود، مورد بررسی قرار گرفت. در FDR <5٪، هیچ ژنی بهعنوان بیان متفاوت شناسایی نمیشود، و من رسماً نتیجه میگیرم که هیچ بیان متفاوتی از ژنها بین دو بافت وجود ندارد. حال، فرض کنید شخصی به بیان تنها یک ژن خاص علاقه دارد. با استفاده از مجموعه دادههای بیان ژن از پیش پردازششده من و آزمون U، آنها دو گروه را برای بیان تنها این ژن مقایسه میکنند و متوجه یک مقدار P <0.05 میشوند، آستانه معنیداری که معمولاً در زمینه مطالعه من استفاده میشود. از آنجایی که این شامل آزمایش های متعدد نیست، هیچ کنترل کشف نادرستی وجود ندارد. آیا این ناظر می تواند به طور رسمی نتیجه بگیرد که ژن به طور متفاوتی بین دو بافت بیان می شود، که با نتیجه گیری من در تضاد است؟ یا اینکه ناظر باید کنترل کشف نادرست را اعمال کند زیرا چنین کنترلی باید در سطح اکتساب داده (که دادههای چند متغیر جمعآوری شده است) و نه در سطح تفسیر داده (که در آن دادهها فقط برای یک داده جمعآوری شده است) اعمال شود. متغیر تجزیه و تحلیل شد)؟
|
آیا کشف نادرست باید در سطح اکتساب داده ها کنترل شود یا این باید در سطح تفسیر داده ها باشد؟
|
13822
|
داده های من به شرح زیر است. من دو گروه بیمار دارم. بیماران در هر گروه نوع متفاوتی از جراحی چشم داشتند. 5 متغیر بر روی بیماران در هر گروه اندازه گیری شد. من می خواهم با استفاده از آزمون جایگشت یا MANOVA آن متغیرها را بین دو گروه مقایسه کنم. چشمی که جراحی روی آن انجام شده است واقعاً در آنالیز مهم نیست. با این حال، به عنوان مثال، بیمار 2 در گروه A، هر دو چشم را تحت عمل جراحی قرار داده است و بنابراین آن 5 متغیر را دو بار، یک بار روی هر چشم اندازه گیری کرده است. آیا می توانم بیمار 2 چپ و بیمار 2 را به عنوان دو مشاهده متفاوت در نظر بگیرم؟ همینطور برای بیمار 31 در گروه B. $$ \begin{array} \hline \text{Patient} & \text{نوع جراحی} & \text{Side} & \text{V1}& \ldots & V5\\\ 1 & \text{A} & \text{Left} & 91 & \ldots & 22\\\ 2 & \text{A} & \text{سمت چپ} & 87 & \ldots & 19\\\ 2 & \text{A} & \text{Right} & 90 & \ldots & 23\\\ . & . & . &\\\ 31 & \text{B} & \text{Left} & 90 & \ldots & 17\\\ 31 & \text{B} & \text{Right} & 88 & \ldots & 19\\\ 32 & \text{B} & \text{Right} & 91 & \ldots & 24\\\ . & . & . &\\\ \hline \end{array} $$ متشکرم
|
آیا می توانم از چشم چپ و چشم راست در نمونه خود به عنوان دو موضوع مختلف استفاده کنم؟
|
13828
|
در بسیاری از مدلهای مالی، ما به اندازهگیری همبستگی بین متغیرها، بازدهها و غیره علاقهمندیم. با این حال، تحقیقات نشان میدهد که در زمانهای بحرانی ما «وقفههای همبستگی» را مشاهده میکنیم که در آن متغیرهای قبلاً همبسته نبودهاند. بهترین راه برای تعیین کمیت پایداری همبستگی با بررسی سری زمانی تاریخی متغیرهایی که به آنها علاقه دارم چیست؟ آیا نوعی بوت استرپینگ راه خوبی برای شروع بررسی توزیع نمونه همبستگی خواهد بود؟ آیا روش دیگری وجود دارد که بتوانم از آن استفاده کنم؟
|
چگونه ثبات همبستگی را کمی کنیم؟
|
40576
|
ما یک مجموعه داده کوچک داریم (حدود 250 نمونه * 100 ویژگی) که می خواهیم پس از انتخاب بهترین زیر مجموعه ویژگی، یک طبقه بندی کننده باینری بسازیم. اجازه دهید بگوییم که ما داده ها را به موارد زیر تقسیم می کنیم: آموزش، اعتبارسنجی و آزمایش برای انتخاب ویژگی، ما یک مدل پوششی را بر اساس انتخاب ویژگی هایی که عملکرد طبقه بندی کننده های X، Y و Z را بهینه می کنند، به طور جداگانه اعمال می کنیم. در این مرحله پیش پردازش، از دادههای آموزشی برای آموزش طبقهبندیکنندهها و دادههای اعتبارسنجی برای ارزیابی هر زیر مجموعه ویژگی نامزد استفاده میکنیم. در پایان می خواهیم طبقه بندی کننده های مختلف (X، Y و Z) را با هم مقایسه کنیم. البته برای داشتن مقایسه و ارزیابی منصفانه می توانیم از قسمت تست داده ها استفاده کنیم. با این حال، در مورد من، دادههای آزمایشی واقعاً کوچک هستند (حدود 10 تا 20 نمونه) و بنابراین، من میخواهم اعتبار متقاطع را برای ارزیابی مدلها اعمال کنم. توزیع مثال های مثبت و منفی بسیار نامتعادل است (حدود 8:2). بنابراین، یک اعتبارسنجی متقابل میتواند ما را در ارزیابی عملکرد سوق دهد. برای غلبه بر این، ما قصد داریم بخش آزمایش (10-20 نمونه) را به عنوان روش مقایسه دوم و اعتبارسنجی متقاطع داشته باشیم. به طور خلاصه، ما داده ها را به آموزش، اعتبار سنجی و آزمایش تقسیم می کنیم. بخشهای آموزشی و اعتبارسنجی باید برای انتخاب ویژگی استفاده شود. سپس، اعتبارسنجی متقاطع روی همان دادهها برای تخمین مدلها اعمال میشود. در نهایت، آزمایش برای اعتبارسنجی اعتبار متقاطع با توجه به عدم تعادل داده ها استفاده می شود. **سوال این است:** اگر از همان دادهها (آموزش + اعتبارسنجی) استفاده کنیم که در انتخاب ویژگیهای بهینهسازی عملکرد طبقهبندیکننده X، Y و Z استفاده میشود، آیا میتوانیم اعتبارسنجی متقاطع را روی همان دادهها اعمال کنیم (آموزش + اعتبارسنجی) برای انتخاب ویژگی برای اندازه گیری عملکرد نهایی و مقایسه طبقه بندی کننده ها استفاده می شود؟ نمیدانم که آیا این تنظیم میتواند به یک معیار اعتبارسنجی متقاطع مغرضانه منجر شود و به مقایسه غیر موجه منجر شود یا خیر.
|
آیا استفاده از داده های یکسان برای انتخاب ویژگی و اعتبارسنجی متقابل، مغرضانه است یا خیر؟
|
83117
|
من یک مجموعه داده جدید دارم که اساساً به بدی قبلی است (همان نوع داده) و از من خواسته شده است که رگرسیون غیر خطی را روی آن با تمرکز بر پارتیشن امتحان کنم (من از تقویت و بسته بندی استفاده خواهم کرد). اما متغیر وابسته پیوسته است. من به متغیرهای ورودی دست نخورده نیاز دارم (همانطور که فاکتورسازی نشده است) همانطور که مجدداً به شناسایی متغیرهای ورودی بر متغیر وابسته مورد علاقه و نحوه تأثیرگذاری نیاز دارم. مجدداً بسیاری از متغیرهای ورودی X از نظر توزیع بسیار متفاوت هستند، من ورودی های طبقه بندی نیز دارم. به طور کلی اطلاعات زیادی در رابطه با رگرسیون غیر خطی و همبستگی خطی نمی بینم. رها کردن مجموعه دادهها به همین صورت باعث میشود که متغیرهایی که به شدت همبسته هستند، بهویژه در بوت استرپ گنجانده شوند (به نظر میرسد دلیل آن به دلیل ماهیت بوت استرپ واضح است). این مشکل تا چه حد است؟ به عنوان مثال؛ اگر X1 و X2 خطی هستند و X1 خارج از کیسه با X2 در کیسه است، عملاً آن متغیر را حذف نکردهاید. آیا این حتی یک مسئله است؟
|
همبستگی و هم خطی در رگرسیون غیرخطی؟
|
96209
|
در مثال زیر: x <- rnorm(100) y <- rpois(100, exp(1+x))+10 g1 <- glm(y ~ x, Family = Gamma(link = log)) par( mfrow = c(2,2)) plot(y~x) plot(y,resid(g1)) plot(y,resid(g1$lm)) سعی می کنم به الگوی موجود نگاه کنم متغیر پیشبینیکننده، یعنی اگر مدل «درست» باشد، هنگام ترسیم در برابر پیشبینیکننده، هیچ الگوی در باقیماندهها باقی نمیماند. از مثال نشان داده شده، باید از کدام باقیمانده استفاده کنم، «resid(g1)» یا «resid(g1$lm)»، یا چیز دیگری؟ هنگام استفاده از «gam» نیز همینطور است، آیا «resid(g1$lm)»، «resid(g1$gam)» است؟ به نظر من این خیلی گیج کننده است.
|
باقیمانده از مدل glm با عملکرد پیوند ورود
|
54460
|
به مقاله ای برخوردم که از مخفف «p.e.» استفاده می کند: Khatri and Madria, The Von Mises-Fisher Matrix Distribution in Orientation Statistics. 1976. در بخش 7 در صفحه 105 است. من یک گزیده کوتاه را اضافه می کنم: > استفاده از تابع چگالی $K^{\frac{1}{2}}XX'K^{\frac{1}{2} } = S$ داده شده > در Khatri (1975a)، متوجه می شویم که p.e. $X$ داده شده $XX'=I_n$ مخفف p.e چیست؟ یعنی در این جمله؟
|
مخفف p.e چیست؟ معنی؟
|
13820
|
من سعی میکنم این دو عبارت را درباره تستهای UMP (به طور یکنواخت قدرتمندترین) معنا کنم: 1. اگر $g(t\mid\theta)~$ یک UMP است، $~g(t\mid\theta_1)>kg (t\mid\theta_0)~\forall~t\ در C$ و $g(t\mid\theta_1)<k g(t\mid\theta_0)~\forall~t\in C^c$ 2. برای $\mathbf X~i.i.d.~f(x\mid\theta): \theta\in\Omega\subset\mathcal R$ اگر $f(x\mid\theta)$ دارای MLR در $T(x)$ و هر $k$ باشد، آزمایشی که $H_0 \iff را رد میکند T>k~$ یک آزمون UMP با اندازه $\alpha$ با $\alpha=P_{\theta_0}(T>k)$ است چرا این عبارات توتولوژیک نیستند؟ چگونه آنها تعریفی از آزمون آماری یک طرفه ندارند؟ نمونه ای از آزمون آماری یک طرفه که UMP نیست چیست؟ علاوه بر این، چه رابطه ای بین تست های LRT و UMP وجود دارد؟ دارم امتحانات قدیمی رو مرور میکنم که گاهی یه سوال LRT میپرسه و گاهی UMP... مگه همه تستهای ساده LRT UMP نیستن؟ با تشکر
|
تعریف عملی آزمون UMP؟
|
104932
|
من اخیراً از Student t-Test استفاده کردم تا بررسی کنم که آیا مقادیر دو نمونه می توانند میانگین یکسانی داشته باشند یا خیر. من فکر می کردم که آیا تکنیک مکملی در آمار بیزی وجود دارد که کار مشابهی را انجام دهد. به خصوص در مورد مقادیر $P$ که در نتیجه به دست میآورم تعجب میکنم (http://docs.scipy.org/doc/scipy/reference/generated/scipy.stats.ttest_ind.html). با اندازه نمونه 2 در دو نمونه من، تصور میکنم که اگر مقداری اندازهگیری بیشتر اضافه کنم یا مقداری را حذف کنم، مقدار p حاصله احتمالاً کمی نوسان میکند.
|
جایگزین بیزی یا مکمل آزمون تی دانشجویی
|
88975
|
تاثیر ابعاد داده بر پیچیدگی محاسبات SVM چیست؟ من در ادبیات دریافتم که پیچیدگی SVM $O(N^3)$ است، که در آن $N$ تعداد نمونه های آموزشی است. اگر تعداد ابعاد (به عنوان مثال، $D$) بر زمان آموزش تأثیر نمی گذارد، چرا بهتر است ابعاد را برای آموزش مجموعه داده با ابعاد بالا کاهش دهیم؟ آیا این فقط برای جلوگیری از بیش از حد مناسب است؟ BTW، من از SVDD (پشتیبانی از توصیف داده های برداری) از RRTools استفاده می کنم.
|
تاثیر ابعاد داده بر پیچیدگی محاسبات SVM؟
|
108995
|
چگونه انحراف صفر و باقیمانده را در GLM در R تفسیر کنیم؟ همانطور که برای AIC می گوییم که AIC کوچکتر بهتر است، آیا تفسیر مشابه و سریعی برای انحرافات نیز وجود دارد؟ انحراف صفر: 1146.1 در 1077 درجه آزادی انحراف باقیمانده: 4589.4 در 1099 درجه آزادی AIC: 11089
|
تفسیر انحراف باقیمانده و صفر در GLM R
|
103090
|
برای برنامهای که روی آن کار میکنم، باید از برخی متغیرهای توزیع شده یکنواخت به توزیع یکنواخت در یک کره n بروم. راه استاندارد برای انجام این کار به نظر می رسد انتخاب (n+1) متغیرهای توزیع شده نرمال و سپس تقسیم بر هنجار باشد. با این حال، باید بتوانم، با توجه به یک نقطه در کره، مقادیر یکنواختی را که برای به دست آوردن این نقطه استفاده می کردم، استخراج کنم. در آنجا روش استاندارد شکست می خورد، در آن تزریقی نیست. با این حال، فکر میکنم راهی برای انجام این کار ابداع کردهام، اما دوست دارم کسی با دانش آماری بیشتر از من این موضوع را تأیید کند. یا اگر کسی راه سادهتری برای انجام آن میداند، قابل قدردانی است. حالا، ایده اینجاست: اجازه دهید $x_1، \ldots، x_n$ مختصات دکارتی برای $\mathbb{R}^n$ باشند، و مختصات کروی داده شده در مقاله ویکیپدیا را برای یک کره n انتخاب کنید، یعنی $\begin{ تراز کردن} x_1 &= r\cos\phi_1 \\\ x_2 &= r\sin\phi_1\cos\phi_2\\\ x_3 &= r\sin\phi_1\sin\phi_2\cos\phi_3\\\ &\qquad\vdots\\\ x_{n-1} &= r\sin \phi_1\ldots\sin\phi_{n-2}\cos\phi_{n-1}\\\ x_n &= r\sin\phi_1\ldots\sin\phi_{n-1} \end{align}$ عنصر حجم یک (n-1)-کره با شعاع r $\mathrm{d}V = r^{n است. -1}sin^{n-2}\phi_1\sin^{n-3}\phi_2\ldots\sin\phi_{n-2} \mathrm{d}\phi_1\mathrm{d}\phi_2\ldots\mathrm{d}\phi_{n-1}.$ اگر $\mathrm{d}x_i$ و $\mathrm{d}x_1\ را محاسبه کنیم mathrm{d}x_2\ldots\mathrm{d}x_{n-2}$ من فکر میکنم که $\mathrm{d}V = (-1)^nr\mathrm{d}x_1\ldots\mathrm{d}x_{n-2}\mathrm{d}\phi_{n-1}.$ پس من معتقدم (و این چیزی است که من میخواهم توسط شخصی آگاه تأیید شود که برای انتخاب یکنواخت نقاط روی کره، میتوانیم نقاط $x_1، \ldots، x_{n-2}$ را به طور یکنواخت روی توپ انتخاب کنیم. $x_1^2+\ldots x_{n-2}^2 \leq r^2$ و $\phi_{n-1}$ را به طور یکنواخت از $[0,2\pi)$ انتخاب کنید. اگر بتوانیم، مشکل را به یافتن نقاط یکنواخت روی یک توپ (n-2) کاهش داده ایم. این را می توان با انتخاب نقاط یکنواخت روی مرز و ضرب در $u^{1/(n-2)}$ انجام داد، که در آن $u$ به طور یکنواخت از $[0,1]$ انتخاب می شود. انتخاب نقاط به صورت یکنواخت در مرز مانند انتخاب نقاط به صورت یکنواخت در یک $n-3$-sphere است، و ما به مشکل اصلی برگشتیم، اما اکنون 2 بعد کمتر است. ما می توانیم به سمت توپ 1 یا توپ 1 حرکت کنیم، جایی که می توانیم یک نقطه را به طور یکنواخت و بدون مشکل انتخاب کنیم.
|
توزیع یکنواخت تزریقی روی یک کره n
|
38346
|
رگرسیون: Wage=b0+b1collegegrad، که در آن collegegrad یک متغیر ساختگی است. فرض کنید می خواهید نسبت دستمزد بین فارغ التحصیلان دانشگاهی و فارغ التحصیلان غیر دانشگاهی را تخمین بزنید. آیا برآوردگر تتا=b0/b1 سازگار است؟ فکر من این است که اگر بتوانیم حجم نمونه خود را تا بی نهایت افزایش دهیم، کل جامعه را پوشش میدهیم و در نتیجه نسبت واقعی را به دست میآوریم، بنابراین برآوردگر سازگار است. درست می گویم یا چیزی را از دست داده ام؟
|
سازگاری برآوردگر
|
103091
|
من یک رگرسیون OLS ترکیبی و رگرسیون اثرات تصادفی را اجرا می کنم. من برای هر دو روش همبستگی خودکار را آزمایش کرده ام. در مدل OLS ادغام شده من همبستگی سریال پیدا می کنم اما برای مدل RE هیچ همبستگی سریالی پیدا نمی کنم. این چگونه ممکن است؟ آیا این امکان وجود دارد که متغیرهای ثابت زمان مشاهده نشده که در مدل RE حذف می شوند، باعث ایجاد همبستگی سریال در رگرسیون OLS تلفیقی شوند؟
|
آیا متغیرهای تغییرناپذیر زمان می توانند باعث همبستگی خودکار شوند؟
|
38347
|
$X_{1}$ و $X_{2}$ متغیرهای تصادفی مستقل و مجذور کای هستند. من توانستم نشان دهم که $Z=X_{1}+X_{2}$ مستقل از $\frac{X_{1}}{Z}$ است. چگونه می توانم نتیجه بگیرم که $Z=X_{1}+X_{2}$ مستقل از $(\frac{X_{1}}{Z},\frac{X_{2}}{Z})$ است؟
|
نشان دادن استقلال
|
76412
|
من به دنبال اطلاعاتی در مورد چگونگی آزمایش دقت مدلی هستم که برای پیشبینی قیمت سهام در روزهای آینده ساختهام - قیمتهای روز بعد باز، زیاد، پایین و بسته. آیا یک شاخص منحصر به فرد از دقت یا رویکرد استاندارد وجود دارد که باید برای نشان دادن دقت این سیستم استفاده شود؟ این یک مدل پیش بینی برای قیمت ها است، نه یک سیستم معاملاتی. ورودی مدل سری زمانی تاریخی است - قیمت سهام پایان روز - باز، زیاد، پایین، بسته شدن. من برخی از آمارهای اولیه را با محاسبه نسبت قیمتهای پیشبینیشده به قیمتهای واقعی پایان روز اجرا کردهام، یعنی اگر رایانه شخصی قیمت بسته پیشبینیشده برای روز بعد را نشان میدهد، من به سادگی نسبت PC / C را در نظر میگیرم که در آن C قیمت بسته واقعی است. روز را پیش بینی کرد و آن را به عنوان یک درصد نشان داد. برخی از مدلهای سیستم پیشبینی را به صورت آنلاین بررسی کردهاید و درک کردهاید که رویکرد رایج استفاده از میانگین درصد مطلق خطا، میانگین انحراف مطلق، R-squared، همبستگی، خطای پیشبینی تجمعی است. به عنوان مثال، مدل پیشبینی من مقادیر همبستگی و R-Squared 0.995 0.9924 0.9885 و 0.9905 0.983 0.981 0.976 را به ترتیب برای پیشبینیهای O H L C به من میدهد. آیا این مقادیر خوب در نظر گرفته میشوند؟ هر گونه پیشنهادی در مورد اینکه بهترین رویکرد چه خواهد بود؟
|
بهترین راه برای اندازه گیری دقت/اهمیت یک مدل پیش بینی سهام چیست؟
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.