_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
37474
این سوال ممکن است مستقیماً با آمار مرتبط نباشد، اما با این وجود، از آنجایی که بسیاری از افراد در اینجا با تجسم داده‌ها سروکار دارند، می‌خواهم بپرسم که آیا کسی از شما از ابزار خاصی برای تجسم داده‌ها استفاده می‌کند یا می‌تواند منابعی را برای ایجاد جلوه‌های ویژه با داده‌ها توصیه کند. در اینجا یک ویدیو نمونه با برخی موارد احتمالی وجود دارد با تشکر از شما!
نرم افزار برای تجسم پیشرفته
37476
در رویکرد نمودار فاز تجربی، داده‌ها توسط مجموعه ${\boldsymbol X}$ از متغیرهای ورودی (کنترل‌شده) (مانند pH و دما) و مجموعه ${\boldsymbol Y}$ از متغیرهای خروجی داده می‌شوند. هدف نمودار فاز تجربی تجسم (حداقل، تقریباً) رابطه بین ورودی و خروجی است. در صورتی که فقط دو متغیر ورودی وجود داشته باشد، استراتژی به صورت زیر اجرا می شود: * ابتدا ورودی ${\boldsymbol X}$ را نادیده می گیریم و یک PCA را روی ${\boldsymbol Y}$ اجرا می کنیم * سه جزء اصلی اول را حفظ می کنیم * تبدیل می کنیم. سه مختصات روی مولفه های اصلی با استفاده از کدگذاری قرمز-سبز-آبی به یک رنگ تبدیل می شوند * رنگ را در تابع دو متغیر ورودی رسم می کنیم و تصور کنید که من نسبتاً جدید هستم تجزیه و تحلیل PCA (پس لطفاً دریغ نکنید که اگر سؤالات من احمقانه است) بگویید. من می دانم که PCA وقتی با نمونه i.i.d اعمال شود، تفسیر بهتری دارد. متغیرهای عادی چند متغیره تصادفی اما نمی‌دانم وقتی این فرض صادق نیست، چه مشکلاتی وجود دارد. برای مثال یک مدل رگرسیون چند متغیره را فرض کنید که برای آن توزیع یک پاسخ چند متغیره ${\boldsymbol Y}$ به صورت زیر فرض می‌شود: $${\boldsymbol Y}_i = f({\boldsymbol X}_i) + \epsilon_i \ quad \textrm{با } \epsilon_i \sim {\cal N}({\boldsymbol 0}، \Sigma).$$ من فکر می‌کنم در چنین شرایطی در حالت ایده‌آل باید PCA را روی پاسخ‌های متمرکز ${\boldsymbol Y}_i - \hat{f}({\boldsymbol X}_i)$ اجرا کنیم. بنابراین اگر استراتژی فوق را در چنین شرایطی اجرا کنیم، چه مشکلات احتمالی وجود دارد؟
PCA بر روی داده‌های چند عادی مستقل اما غیر یکسان توزیع شده است
57556
من یک مجموعه داده از داده های طبقه بندی دارم که هر سوال می تواند بیش از یک پاسخ داشته باشد. این یک نمونه اسباب بازی است: سوال اول: امروز چه خوردید؟ موضوع 1 : سیب زمینی ، سیب موضوع 2 : سیب موضوع 3 : عسل ، سیب زمینی ، سیب سوال دوم: کدام برنامه های تلویزیونی را تماشا می کنید؟ موضوع 1 : هاوس، دکستر موضوع 2: TWD، دکستر موضوع 3: اخباری که من نیاز دارم برای سنجش شباهت، به عنوان مثال، distfun (سیب زمینی و سیب، عسل و سیب) به دست بیاورم. من فکر نمی کنم که معیارهای تحلیل طبقه بندی چند متغیره معمولی با این نوع پاسخ ها سروکار داشته باشند. آیا کسی می‌تواند با ارجاع من به مقاله توضیحی که می‌داند، در مورد اینکه چه معیارهایی استفاده می‌شود، توضیح دهد؟ پیشاپیش تشکر ویرایش: 1.- ترتیب پاسخ ها مهم نیست. 2.- من فقط به دنبال راهی برای حل مشکل در اسرع وقت با استفاده از نسخه اصلاح شده فاصله همپوشانی که برای داده های دسته بندی چند متغیره استفاده می شود نیستم، بلکه به دنبال یافتن چارچوبی هستم که با این نوع موارد سروکار دارد. با تشکر از پاسخ های شما
اندازه گیری فاصله برای پاسخ های چند طبقه ای
104875
من یک سوال سریع در مورد قضیه حد مرکزی دارم. فرض کنید مقداری را اندازه گیری می کنم که از توزیع دلخواه N بار می آید و این M بار را تکرار می کنم. می‌دانم که اگر میانگین را از مقادیر N محاسبه کنم، مجموعه‌ای از مقادیر M خواهم داشت که از توزیع نرمال پیروی می‌کنند. اما اگر من انحراف استاندارد نمونه را از N اندازه گیری کنم، آیا توزیع حاصله من نیز نرمال خواهد بود؟ پس از اشتقاق CLT، من این را نمی بینم، اما به طور شهودی فکر می کنم که حداقل برای برخی از توزیع ها این درست است. هر گونه نور در مورد این موضوع بسیار قدردانی می شود. ابتدا CLT را از ویکی نقل می کنم: > قضیه حد مرکزی (CLT) بیان می کند که، با توجه به شرایط خاص، > میانگین حسابی تعداد بسیار زیادی از تکرارهای مستقل > متغیرهای تصادفی، که هر کدام دارای یک مقدار مورد انتظار کاملاً تعریف شده هستند و به خوبی تعریف شده > واریانس، تقریباً به طور معمول توزیع شود. پس سوال من یک نوع نقل قول از صفحه ویکی است: آیا قضیه حد مرکزی (CLT) بیان می کند که با توجه به شرایط خاص، انحراف استاندارد تعداد به اندازه کافی زیاد از متغیرهای تصادفی مستقل، که هر کدام دارای یک مقدار خوب هستند. مقدار مورد انتظار تعریف شده و واریانس کاملاً تعریف شده، تقریباً به طور معمول توزیع می شود؟ در اینجا مجموعه ای از نمودارهایی است که من از اعداد تصادفی که از توزیع بتا پیروی می کنند ساخته ام. من 1000 مجموعه 5000 امتیازی ایجاد کرده ام. نمودار اول، هیستوگرام مجموعه اول است. دومی هیستوگرام 1000 میانگین محاسبه شده است و 3 هیستوگرام 1000 std محاسبه شده است. ![نتایج شبیه سازی](http://i.stack.imgur.com/Ozb5q.png) ![نتایج 2](http://i.stack.imgur.com/Wk8rj.png) ![نتایج 3]( http://i.stack.imgur.com/1ab1U.png)
سوال در مورد قضیه انحراف معیار و حد مرکزی
104630
از هر کمکی که ممکن است ارائه دهید متشکرم من داده‌هایی دارم که در آن گروه‌ها متقاطع شده‌اند، نه تودرتو. هر بازیکن به مجموعه ای از موارد مشابه پاسخ می دهد. در MIXED، من به هر بازیکن و هر آیتم یک وقفه جداگانه می دهم -- اما نه به هر ترکیبی از آنها -- با استفاده از دو خط فرمان جداگانه /RANDOM=INTERCEPT | SUBJECT(مورد) COVTYPE(ID) /RANDOM=INTERCEPT | SUBJECT(player) COVTYPE(ID) اکنون می خواهم این کار را در GENLINMIXED انجام دهم و نمی توانم ببینم چگونه. به نظر می رسد که گزینه DATA RUCTURE نیاز به تودرتو بودن داده ها دارد. به عنوان یک آزمایش، من فقط این را نادیده گرفتم و دو خط جداگانه قابل مقایسه را مانند بالا نوشتم. اما نتایج یکسان نیست. آیا این کار در GENLINMIXED امکان پذیر است؟ دلیلی وجود دارد که در MIXED امکان پذیر است اما در GENLINMIXED امکان پذیر نیست؟ خیلی ممنون از هر کمکی!!
SPSS GENLINMIXED برای گروه های متقاطع
37477
آیا هنگام مقایسه برخی از الگوریتم‌های خوشه‌بندی با استفاده از بسیاری از معیارهای ارزیابی بدون نظارت به جای یک روش نظارت شده، می‌توان عملکردهای ارزیابی یکسانی داشت؟
آیا اقدامات ارزیابی بدون نظارت برای خوشه بندی می تواند جایگزین معیار ارزیابی نظارت شده شود؟
68291
من می دانم که یک سری روش های تشخیص رگرسیون (همبستگی، بتا، باقیمانده، و غیره) قبل، در طول و بعد از تجزیه و تحلیل رگرسیون وجود دارد. اما، آیا رویه معمولی برای تجزیه و تحلیل خوشه ای (مانند وارد) وجود دارد؟ دستورات R چیست؟ با تشکر
آیا استفاده از متغیرهای همبسته برای تحلیل خوشه ای مشکلی ندارد؟
105326
در محاسبه Forward Backward Algorithm[http://en.wikipedia.org/wiki/Forward%E2%80%93backward_algorithm]، به نظر می رسد که آنها در حال محاسبه عقبی هستند. می دانستم Forward Backward یک الگوریتم از خانواده Expectation-Maximization (EM) است و به طور کلی بر روی مراحل Expectation و Maximization تکرار می شود تا همگرا شوند. آیا نتیجه قبلی یکسان است، یا این یک روش استاندارد برای جایگزینی تکرار است یا چیزی برای فهمیدن از دست داده ام؟ اگر یکی از اعضای محترم ممکن است مرا راهنمایی کند. پیشاپیش از شما متشکرم، با احترام، سابهابراتا بانرجی.
حاشیه خلفی در جلو به عقب
2035
اگر $X_i\sim\Gamma(\alpha_i,\beta_i)$ برای $1\leq i\leq n$، اجازه دهید $Y = \sum_{i=1}^n c_iX_i$ که در آن $c_i$ اعداد حقیقی مثبت هستند. فرض کنید همه پارامترهای $\alpha_i$ و $\beta_i$ همگی شناخته شده باشند، توزیع $Y$ چیست؟
توزیع ترکیب خطی متغیرهای تصادفی گاما
38268
![این از کتاب گیلبرت استرنگ است..](http://i.stack.imgur.com/jlF6b.png) این صفحه ای از کتاب جبر خطی، ژئودزی و جی پی اس نوشته گیلبرت استرنگ است. این صفحه در مورد توجیه معکوس ماتریس واریانس-کوواریانس بردار اندازه گیری $b$ در سیستم بیش از حد تعیین شده $Ax = b$ به عنوان بهترین ماتریس وزن برای بهترین تخمین x توضیح می دهد. 1. خط مربوط به خطاهای ... موجود در ماتریس (با خط آبی) به چه معناست؟ 2. چگونه این تعویض انجام می شود که با یک منحنی آبی مشخص شده است... 3. آیا $E[rr^T] = E[bb^T]$ ?? هر توضیحی پذیرفته میشود...
شک در ماتریس کوواریانس در تخمین حداقل مربعات وزنی
37473
با مطالعه موضوعات کاهش ابعاد غیرخطی، با یک توزیع نعل اسبی یا پدیده های نعل اسبی مواجه شدم. شکل (ب) [منبع، ص. 12] نشان دهنده توزیع نعل اسب در زیر آمده است. ![توزیع نعل اسبی.](http://i.stack.imgur.com/DfT0V.png) من ایده خوبی برای شبیه سازی این نوع توزیع ندارم. پیشاپیش برای هر نکته ای متشکرم
توزیع نعل اسب
79842
اجازه دهید $A,B$ نرمال استاندارد مستقل. $E(A^2|A+B)$ چیست؟ موارد زیر خوب است؟ $A,B$ iid و از این رو $(A^2,A+B),(B^2,A+B)$ iid. بنابراین، برای هر مجموعه قابل اندازه گیری $A+B$، $M$ و بنابراین، $E(A^2|A+B) = E(B^2) داریم $\int_M A^2 dP = \int_M B^2 dP$ |A+B)$. $2 \cdot E(A^2|A+B) = E(A^2|A+B) + E(B^2|A+B) = E(A^2+B^2|A+) بدست می آوریم B) = A^2+B^2$ که در آن آخرین معادله برقرار است زیرا $A^2+B^2$ $A+B$-قابل اندازه گیری است. در نهایت $E(A^2|A+B) = \frac{A^2+B^2}{2}$ داریم.
انتظار شرطی مجذور استاندارد عادی
37470
من سعی می‌کنم از نرم‌افزاری استفاده کنم که دارای تابع آمار Ipop Oden برای آزمایش همبستگی خودکار فضایی تنظیم شده برای جمعیت است. ترجیح می دهم بدانم آیا چیزی به صورت رایگان در دسترس است یا خیر. تو اینترنت سرچ کردم متاسفانه چیزی پیدا نکردم. من یک گزینه برای این دارم، این است که من از «R» استفاده کنم و با استفاده از فرمول آن، تابعی از آمار Ipop Oden را ایجاد کنم. اما فقط در صورتی که کسی نرم افزار رایگانی برای Oden's Ipop بداند، برای مطالعه تحقیقاتی من برای من مفید خواهد بود.
آیا نرم افزار رایگانی برای Oden's Ipop وجود دارد؟
92750
من به مقادیر U آزمون Mann-Whitney نیاز دارم، اما wilcox.test در R فقط مقادیر W را خروجی می دهد. من فکر نمی کنم آنها یکسان باشند، بنابراین سوال من اینجاست - چگونه W را به U تبدیل کنیم؟
چگونه خروجی مقدار W Wilcox.test را برای دو گروه مستقل به U در R تبدیل کنیم؟
4843
راه استاندارد برای محاسبه کاپا برای یک مدل طبقه بندی پیش بینی کننده (ویتن و فرانک صفحه 163) این است که ماتریس سردرگمی تصادفی را به گونه ای بسازید که تعداد پیش بینی های هر کلاس با مدل پیش بینی شده یکسان باشد. برای یک تصویر بصری، (سمت راست تصادفی است): ![متن جایگزین](http://i.stack.imgur.com/oetej.jpg) آیا کسی می داند که چرا این مورد است، به جای ایجاد تصادفی واقعی ماتریس سردرگمی که در آن احتمالات قبلی تعداد پیش‌بینی‌ها را برای هر کلاس هدایت می‌کنند. به نظر می رسد این مقایسه دقیق تر در برابر مدل تهی باشد. به عنوان مثال، در این مورد، تعداد کلاس های واقعی و پیش بینی شده مطابقت دارند (در تصویر آپلود شده، این بدان معنی است که ستون های ماتریس سردرگمی تصادفی به ترتیب 100، 60 و 40 خواهند بود). با تشکر بی ماینر
کاپا برای مدل پیش بینی
22836
> **تکراری احتمالی:** > محاسبه صدک توزیع نرمال ویرایش: من فکر می کنم اشاره تبدیل Box-Muller است. هر ایده ای؟ من سعی می کنم معکوس CDF معمولی را پیدا کنم. این CDF معمولی است که من دقیقاً از ویکی دریافت کردم، $\Phi (x)=\frac{1}{\sqrt{2\pi}}\int\limits_{-\infty }^{x}{{{e}^ {-{{t}^{2}}/2}}}dt=\frac{1}{2}\left[ 1+erf\left( \frac{x}{\sqrt{2}} \right) \راست]$. این CDF log-normal است، ${{F}_{x}}(x;\mu ,\sigma )=\frac{1}{2}erfc\left[ -\frac{\ln x-\mu }{\sigma \sqrt{2}} \right]=\Phi \left( \frac{\ln x-\mu }{\sigma } \right)$. به من گفتند راه آسانی برای استفاده از رادیان وجود دارد، اما نمی دانم چگونه. هر متخصصی می داند؟ من این را دیده ام: http://home.online.no/~pjacklam/notes/invnorm/ این بخشی از تبدیل معکوس است که من انجام می دهم. R یا Java استفاده خواهد شد، یک فرمول صریح به اندازه کافی مفید خواهد بود
چگونه برای توزیع نرمال و معکوس CDF log-normal حل/محاسبه کنیم؟
113231
آیا راهی برای تخمین مقدار داده (یا تعداد رکوردها) مورد نیاز برای ساخت یک مدل آماری وجود دارد؟ من چند وبلاگ را می خوانم و احساس می کنم که اکثر پاسخ ها موافق هستند که هیچ راهی وجود ندارد یا پیش بینی حجم نمونه برای یک برنامه بسیار دشوار است. یک وبلاگ 10 برابر تعداد کل ویژگی ها را درخواست می کند، اگر از نسخه منظم مدل ML استفاده کنم کمتر. به نظر می رسد حجم نمونه 50 حداقل باشد. یک روش پیشنهاد می کند که مدل را بسازید و خطای تعمیم را بررسی کنید. اگر خطا غیرقابل قبول است، داده های بیشتری جمع آوری کرده و تکرار کنید. با توجه به اینکه جمع آوری داده ها برای برنامه من زمان بر و بسیار پرهزینه است، چه گزینه هایی در سازمان کسب و کار با محدودیت زمانی دارم؟
چگونه می توان مقدار داده های مورد نیاز برای مدل سازی را پیش بینی کرد؟
113230
من باید اعداد تصادفی را به دنبال توزیع عادی در بازه $(a,b)$ تولید کنم. من می دانم که تابع rnorm(n,mean,sd) اعداد تصادفی را به دنبال توزیع عادی تولید می کند، اما چگونه می توان محدودیت های بازه را در آن تنظیم کرد؟ آیا توابع R خاصی برای آن موجود است؟
اعداد تصادفی را به دنبال توزیع در یک بازه در R ایجاد کنید
71690
من دوست دارم فرمول محاسبه حداقل حجم نمونه مورد نیاز برای یک مطالعه تطبیقی ​​شامل 2 گروه با اندازه نابرابر را بدانم. گروه 1 10 برابر بزرگتر از گروه 2 است.
تعیین حجم نمونه برای یک مطالعه تطبیقی ​​شامل دو گروه نابرابر
4840
دوست من یک شیمیدان است و مشکل او پیش بینی سطح غلظت ازن در یک سایت است. ما داده های 12 سال گذشته را داریم. ما می خواهیم غلظت را برای سال های آینده (تا حد امکان) پیش بینی کنیم. من می دانم که این مجموعه داده کوچک است، بنابراین سوال من این است که آیا این امکان وجود دارد؟ و در غیر این صورت چقدر داده مورد نیاز است؟ ابزار/روش مورد استفاده چیست؟ در اینجا نموداری از داده های من است: ![متن جایگزین](http://i.stack.imgur.com/KP3IQ.png) آیا پیشنهادی/ کمکی دارید؟
چگونه غلظت ازن را در چند سال پیش بینی کنیم؟
70520
من کار زبان شناسی انجام می دهم و سعی می کنم اندازه ای از تنوع زبانی در یک متن داشته باشم. به نظر می رسد یک محاسبه ساده یکنواختی زبانی (یا تنوع) = تعداد کلمات / کلمات منحصر به فرد است، اما این باید به متون کوتاهتر مانند شعر برای تنوع امتیاز بدهد، زیرا نویسنده کمتر احتمال دارد که خود را در یک فضای کوتاه تکرار کند. به عنوان مثال، شعر بلیک نمره 5 می گیرد، در حالی که انجیل KJV امتیاز 79 را می گیرد و این ارتباط زیادی با اندازه کتاب مقدس در مقایسه با شعر بلیک دارد. اگر تعداد بیشتری از پیکره بلیکز را آنالیز کنیم، قطعاً امتیاز او بالاتر خواهد رفت. چگونه می توانم محاسبه را عادی کنم، با در نظر گرفتن تکرار اجتناب ناپذیری که با متون طولانی تر همراه است، و این واقعیت که متون کوتاه تر آنقدر کوچک هستند که ما بخش قابل توجهی از واژگان یک نویسنده را ندیده ایم؟ من می دانم که یک نام برای این وجود دارد، فقط نمی توانم به یاد بیاورم که چیست. من به مقاله ویکی در مورد شاخص تنوع نگاه کردم اما به من کمک نکرد.
محاسبه تنوع زبانی یک متن با توجه به اندازه
108983
من با ARIMA تازه کار هستم و سعی می کنم این طرح های تاخیر را درک کنم. آیا ACF و PACF زیر نشان می دهد که تاخیر سری زمانی من 4 است؟ اگر اشتباه می کنم، لطفا به من کمک کنید تا این توطئه ها را درک کنم. > ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/N5x9U.png)
تجزیه و تحلیل نمودار ACF و PACF
4844
من یک سری اطلاعات دارم که با رانندگی تصادفی یک ماشین جمع آوری شده است. هر دقیقه یک نقطه داده جمع آوری می شود و هر نقطه داده یا بله یا خیر است. بله = دما بالای یک آستانه است، خیر = زیر آستانه است. فرض کنید ماشین هرگز متوقف نمی شود. من به نسبت بله و فواصل اطمینان مرتبط علاقه دارم. من تمایل به استفاده از فواصل اطمینان دو جمله ای دارم با این تفاوت که به نظر من نقاط داده مستقل نیستند. آیا این واقعیت که داده‌ها با رانندگی تصادفی جمع‌آوری شده‌اند باعث استقلال من می‌شود؟ چگونه می توانم فواصل اطمینان معنی دار را بدست بیاورم؟
فاصله اطمینان بر اساس سری های زمانی
104877
من روی مشکل طبقه بندی چند کلاسه کار می کنم (دقیقاً 4 کلاس). من می خواهم از ساده ترین روش برای این مشکل استفاده کنم: یک در مقابل همه! من 4 مجموعه تست مختلف دارم (فقط برچسب ها متفاوت هستند). با استفاده از رویکرد یک در مقابل همه، در طول آزمایش، برای هر الگوی ورودی، باید 4 مقدار تابع هدف مختلف را از 4 SMV مختلف محاسبه کنم. بنابراین، الگو به کلاسی با بیشترین مقدار تابع هدف تعلق دارد. بنابراین، این را امتحان کردم: ./svm-train -s 0 -t 5 -c 16 -g 0.05 -b 1 'traindata' ./svm-predict -b 1 'testdata' 'traindata.model' 'outfile' I' در مورد میانگین پارامتر **b** مطمئن نیستم. با باز کردن فایل 'outfile' تولید شده از svm-predict، مقادیر احتمالی را دریافت می کنم. من تصور می کنم که با مقایسه این مقادیر احتمالی بین تمام SVM ها، می توانم هر الگوی را در کلاس با بیشترین مقدار احتمالی طبقه بندی کنم. فرض من درست است؟ به عبارت دیگر، من می خواهم مطمئن باشم که این مقادیر احتمالی با مقادیر تابع هدف نسبی نسبت مستقیم دارند.
رویکرد One vs All برای چند طبقه بندی در LIBSVM
70526
من می دانم که این سوال قبلا پرسیده شده بود: کتاب مرجع برای مطالعات اکولوژیکی اما این چیزی نیست که من دنبال آن هستم. آنچه من به دنبال آن هستم این است که آیا کسی می تواند یک کتاب خوب (یا یک مرجع متعارف) در مورد بوم شناسی آماری را توصیه کند؟ من درک بسیار خوبی از آمار دارم، بنابراین کتاب واقعاً می تواند در هر سطحی باشد. من از این کتاب برای آموزش بیشتر در مورد کاربرد آمار در بوم شناسی بیش از هر چیز دیگری استفاده می کنم، بنابراین حتی یک کتاب مقدماتی با مثال های خوب/جالب بسیار قدردانی خواهد شد. همچنین، تحقیقات من به سمت آمار بیزی گرایش دارد، بنابراین کتابی که آمار بیزی را در خود جای دهد حتی بهتر است!
کتاب های اکولوژی آماری؟
2032
چه مطالب آموزشی را برای یک فرد CS / آماردان تازه کار / ریاضیدان تازه کار پیشنهاد می کنید تا وارد تجزیه و تحلیل پیش بینی شود؟
چند کتاب/مقاله/راهنما را برای ورود به تجزیه و تحلیل پیش بینی توصیه می کنید؟
76288
متغیر وابسته من متغیر پیوسته است که موفقیت (بالقوه) یک فرد را در برخی فعالیت ها اندازه گیری می کند. من صدها شاخص باینری دارم که هر کدام نشان دهنده وجود یک رفتار یا ویژگی مفید خاص است (مثلاً فرد معمولاً قبل از ساعت 8 صبح از خواب بیدار می شود). هر یک از این شاخص ها هم از لحاظ نظری و هم از نظر تجربی به طور مثبت با نتیجه مرتبط هستند (اگرچه برخی از تفاوت های تجربی ناچیز هستند). البته که شاخص ها همبستگی دارند. وظیفه من یافتن زیرمجموعه ای از 10 تا 20 شاخص است که بهترین نتیجه را پیش بینی می کند. در حالت ایده‌آل، چیزی که من می‌خواهم داشته باشم زیرمجموعه‌ای از شاخص‌ها است که از آن یک متغیر منفرد - تعداد شاخص‌های مثبت از آن زیرمجموعه برای یک فرد، می‌سازم و آرزو می‌کنم که این متغیر بالاترین همبستگی ممکن را با نتیجه داشته باشد. کاری که من در ابتدا انجام دادم یک رگرسیون خطی با همه شاخص‌ها بود. این ضرایب منفی زیادی به من داد (که از نظر ریاضی منطقی است، اما آنطور که شما انتظار دارید هر متغیری چیزی را کمک کند، شهودی نیست) و کمکی نکرد. در انتخاب زیر مجموعه بسیار زیاد است. من همچنین نوعی بهینه سازی الگوریتم ژنتیک را امتحان کرده ام تا به من در انتخاب چنین زیر مجموعه ای کمک کند. این کمک کرد، اما احساس می‌کنم که برخی از روش‌های آماری را برای انجام آن گم کرده‌ام (شاید PCA؟)، و خوشحال می‌شوم که هر گونه سرنخ/مرجع/پیشنهاد در مورد نزدیک شدن به این مشکل، که به نظر می‌رسد یک مشکل انتخاب مدل است، دریافت کنم. هر ایده ای؟ با تشکر
یافتن یک زیر گروه بهینه از شاخص های باینری
108987
من باید مشابه آزمایش کروسکال-والیس را انجام دهم، اما برای یک بردار چند بعدی. لطفاً لطفاً چنین نوع آزمایشی را پیشنهاد دهید یا برخی از منابع برای موارد N-dimensional ارائه دهید
تست مشابه آزمون کروسکال-والیس اما برای بردار چند بعدی
71699
من از scikit-learn برای یک نمونه کوچک (36) مسئله طبقه بندی با سه ویژگی و سه خروجی استفاده می کنم (یک خروجی باینری و دو خروجی سه تایی هستند). من از طبقه‌بندی‌کننده‌های جداگانه برای هر خروجی استفاده می‌کنم و نرخ‌های طبقه‌بندی معقولی را برای دو خروجی به دست می‌آورم، اما یکی دیگر که یک مشکل 3 کلاسه است، افتضاح است. من طبقه‌بندی‌کننده‌های مختلفی را امتحان کرده‌ام (SVM، جنگل تصادفی، رگرسیون لجستیک، خلیج‌های ساده‌لوح)، و با استفاده از اعتبارسنجی متقاطع ترک یک‌اون، نرخ طبقه‌بندی بین ۰ تا ۳۳ درصد در نوسان است (این فقط زمانی اتفاق می‌افتد که طبقه‌بندی‌کننده همیشه خروجی بدهد. همان کلاس). چیزی که من نمی‌فهمم این است که چگونه ممکن است طبقه‌بندی‌کننده به نرخ پایین‌تری دست یابد که به طور تصادفی انتظار می‌رود. یک آزمایش فکری می‌گوید که وقتی به نرخ طبقه‌بندی 0% دست می‌یابد، می‌توانم کلاس پیش‌بینی‌شده را نادیده بگیرم و به‌طور تصادفی بین دو مورد دیگر انتخاب کنم و به نرخ طبقه‌بندی 50 درصد برسم که بهتر از شانس است. چرا این به طور خودکار اتفاق نمی افتد؟
نرخ طبقه بندی کمتر از حد انتظار
14165
منظور از درجه تعامل یا درجه تعامل در مدل MARS دقیقا چیست؟ به عنوان مثال R: `زمین (...، درجه = 2)`
تعریف درجه تعامل در مدل MARS
70528
بر اساس اطلاعات زیر، چگونه می توانم تغییر مورد انتظار در نمرات آزمون برای مردان و زنان را محاسبه کنم؟ این شرکت تصمیم می‌گیرد تفاوت‌های عملکردی را بین جنسیت‌ها آزمایش کند. برای انجام این کار، آنها یک رگرسیون اجرا می کنند و نتایج زیر را به دست می آورند: تغییر پیش بینی شده در امتیاز = 3 + 0.25* Female R2 = 0.7 Female متغیری است که مقدار آن $1$ برای زنان و $0$ برای مردان است. آماره t روی ثابت 10 دلار و آمار t در ضریب برای زن 9/0 دلار است. شرکت انتخاب می کند که از سطح اهمیت 5\%$ دلار استفاده کند. کلاس بسیار بزرگ است، بیش از 30 دلار برای دانشجویان.
چگونه تغییر مورد انتظار را محاسبه کنم؟
71691
در مدل سلسله مراتبی داده $y$ که در آن $$y \sim \textrm{Poisson}(\lambda)$$ $$\lambda \sim \textrm{Gamma}(\alpha, \beta)$$ به نظر می‌رسد در عمل، معمولاً مقادیر ($\alpha، \beta)$ را انتخاب می‌کنیم به طوری که میانگین و واریانس توزیع گاما تقریباً با میانگین و واریانس داده $y$ مطابقت دارد. (به عنوان مثال، کلایتون و کالدور، 1987 تخمین تجربی بیز از خطرات نسبی استاندارد شده با سن برای نقشه برداری بیماری، _ بیومتریک_ ). واضح است که این فقط یک راه حل _ad hoc_ است، اما، زیرا اعتماد محقق را به پارامترهای $(\alpha، \beta)$ بیش از حد بیان می کند و نوسانات کوچک در داده های تحقق یافته می تواند پیامدهای بزرگی برای چگالی گاما داشته باشد، حتی اگر - فرآیند تولید داده ها یکسان باقی می ماند. علاوه بر این، گلمن در _تجزیه و تحلیل داده های بیزی_ (ویرایش دوم) می نویسد که این روش درهم و برهم است. در کتاب و این مقاله (شروع صفحه 3232)، او به جای آن پیشنهاد می‌کند که مقداری چگالی فوق‌قدیمی $p(\alpha, \beta)$ باید انتخاب شود، به روشی شبیه به مثال تومورهای موش (شروع صفحه 130). اگرچه واضح است که هر $p(\alpha، \beta)$ تا زمانی که چگالی خلفی محدودی ایجاد کند قابل قبول است، من هیچ نمونه ای از چگالی های فوق پیشین که محققان در گذشته برای این مشکل استفاده کرده باشند، پیدا نکردم. اگر کسی بتواند کتاب ها یا مقالاتی را به من معرفی کند که از چگالی فوق پیشین برای تخمین مدل پواسون-گاما استفاده کرده اند بسیار سپاسگزارم. در حالت ایده‌آل، من به $p(\alpha، \beta)$ علاقه‌مندم که نسبتاً مسطح است و مانند نمونه تومور موش‌ها تحت سلطه داده‌ها قرار می‌گیرد، یا بحثی در مورد مقایسه چندین مشخصات جایگزین و مبادلات مرتبط با هر یک.
چگالی بیش از پیش برای مدل سلسله مراتبی گاما پواسون
108988
من دو مدل از دو مجموعه داده متفاوت دارم. مدل 1 شامل 50 ویژگی و مدل 2 شامل 40 ویژگی است. تقاطع ویژگی های مدل 1 و 2 10 است. پس چگونه می توانم اهمیت نسبی ویژگی هایی را که از تلاقی دو مدل حاصل می شود ارزیابی کنم؟
چگونه می توان اهمیت ویژگی های ناشی از تلاقی ویژگی های دو مدل را ارزیابی کرد؟
106168
تصور کنید من دو آگهی (بنر)، A و B دارم. آنها را می توان در چندین موقعیت مختلف در صفحه قرار داد (فقط یک بنر در صفحه نشان داده شده است). هر موقعیت را می توان به عنوان یک آزمون a/b جداگانه مشاهده کرد. من نمایش بنرها را کنترل نمی کنم، فقط به کلیک ها / داده ها دسترسی دارم. من باید تعیین کنم که کدام تبلیغ قابل کلیک تر است. اگر فقط یک موقعیت ممکن وجود داشته باشد، من فقط باید فواصل اطمینان نسبت دو جمله ای را مقایسه کنم که به اندازه کافی آسان است. اما مثال زیر را در نظر بگیرید: موقعیت 1: A: 3 کلیک از 100 نشان می دهد B: 1 کلیک از 5 نشان می دهد موقعیت 2: A: 0 کلیک از 20 نشان می دهد B: 25 کلیک از 200 نمایش همانطور که می بینید، هر دو تست ها به نفع تبلیغ B هستند، اما اهمیت آن کم است. چگونه دو آزمون را برای بهبود معناداری آماری ترکیب کنم؟
ترکیب چندین تست a/b
14161
فقط می خواهم یک نظرسنجی کوچک انجام دهم، به گفته شما، بهترین رویکرد برای مدل سازی سری های زمانی طبقه بندی شده چیست؟ من در حال ساخت مدلی هستم که قادر به تولید سری های زمانی است که ویژگی های مجموعه ای از داده ها را بازتولید می کند. داده های موجود یک سری زمانی گسسته و با ارزش گسسته است. من سری های زمانی مصنوعی را با استفاده از زنجیره مارکوف، زنجیره نیمه مارکوف و بوت استرپ بلوک متحرک تولید کرده ام، می خواهم بدانم آیا راه بهتری برای انجام این کار فکر می کنید.
چگونه سری های زمانی مقوله ای (مقدار گسسته) را مدل کنیم؟
102670
من سعی می کنم داده ها را به عنوان یک چند جمله ای درجه 2 مدل کنم، اما داده ها جفت نشده اند و هر نقطه داده از مقادیر متوسط ​​دارای یک خطای استاندارد برای هر محور است. داده های من: 1. یک سری زمانی بر حسب دقیقه (زمانی که بافت در معرض انجماد قرار می گیرد) 2. مقدار درصد بقای بافت پس از ذخیره نیتروژن مایع (3 تکرار برای هر نقطه زمانی) 3. مقدار درصد برای جذب انجماد در بافت مستقیماً پس از قرار گرفتن در معرض انجماد (3 تکرار برای هر نقطه زمانی) بافت مورد استفاده برای جذب از یک نوع است اما از منبع متفاوتی می باشد. پروتکل اندازه گیری جذب مخرب است. بنابراین 2 مجموعه از 3 مقدار برای هر نقطه زمانی وجود دارد. با این حال، نمودار پراکندگی این داده ها منطقی نیست زیرا مقادیر بقا و رشد مجدد جفت نمی شوند - من می توانم مقادیر خود را در هر نقطه زمانی ترکیب و مطابقت دهم. در سطوح کم محافظ سرما، بقا به دلیل تشکیل یخ کم است. در سطوح بالای محافظت از سرما، بقای آن به دلیل مسمومیت با انجماد کم است. بنابراین: * من می‌خواهم بقا در مقابل جذب را برای یافتن حداکثر مقدار بقای جذب انجماد مربوطه مدل کنم. من می توانم: * با استفاده از مقادیر میانگین برای هر نقطه زمانی، یک تناسب چند جمله ای در بقا در مقابل جذب انجام دهم * از آن تناسب برای یافتن جذب بهینه پیش بینی شده استفاده کنم % نمی توانم: * یک مقدار p برای برازش معتبر دریافت کنم (یعنی یک که خطا را در هر نقطه زمانی برای هر دو متغیر ارزیابی می کند) بنابراین آیا می توان چنین داده هایی را با مقدار p معتبر مدل کرد یا اینکه جفت نشده بودن به این معنی است معنی ندارد؟ من در حال حاضر این کار را در R انجام می دهم.
مدل چند جمله ای با داده های جفت نشده
91621
![مثال](http://i.imgur.com/gfshR1C.png). ما فقط تئوری نمونه بزرگ را پوشش دادیم و من در حال بررسی مثال های کتاب درسی خود هستم. این یکی به نوعی من را گیج کرد و امیدوارم کسی بتواند به من کمک کند تا بفهمم چرا و چگونه کتاب، $W_i=\mu_X*Y_i - \mu_Y*X_i$ و چگونه کتاب 6.4.3 را به دست آورده است. سعی کردم از اطراف بپرسم، اما پاسخی که مدام دریافت می‌کنم این است که هر مرحله توضیح داده شده است، اما این کمکی نمی‌کند زیرا برای من مبهم به نظر می‌رسند.
اگر X و Y iid و مستقل از یکدیگر باشند، توزیع مجانبی X/Y را بدست آورید
76280
من بیوانفورماتیک انجام می‌دهم و سعی می‌کنم مقادیری را با یک توزیع log-normal با 'python's sciPy' نسخه 0.11 تطبیق دهم. با توجه به انحراف توزیع حاصل، من می خواهم یک تصمیم 0-1 بگیرم، به عنوان مثال اگر چوله مثبت است، مقدار 0 را بدهم، زیرا بیشتر داده ها در سمت چپ هستند، در حالی که، اگر چولگی منفی است، مقدار 1 را بدهید، زیرا بیشتر داده ها در سمت راست هستند. در حالی که سعی می کنم آن را پیاده کنم، من در مورد اینکه از کدام فرمول برای چولگی استفاده کنم سردرگم هستم. از ویکی‌پدیا، شیب برابر است با: $(e^{\sigma^2}+2)\sqrt{e^{\sigma^2}-1}$، اما این هرگز نمی‌تواند یک عدد منفی باشد. استفاده از روش «لحظه» «sciPy» مانند این: «scipy.stats.moment(data,3)/(std**3)»، به نظر اعداد منفی می دهد، اما بعد متوجه شدم این لحظه غیرمرکزی است. پس میترسم اشتباه باشه ثانیاً، من در اینجا به این سؤال بسیار مفید پرداختم، در مورد اینکه چگونه می توان داده ها را با توزیع log-normal مطابقت داد. من سعی کردم یک نمونه اسباب بازی بسازم که در آن 50 عدد در بازه $0.1-9$ و 1000 عدد در بازه $9-12$ ایجاد می کنم. بنابراین، من انتظار دارم که این توزیع یک انحراف منفی داشته باشد. کد به شرح زیر است: وارد کردن numpy به عنوان np import scipy.stats به عنوان s از پای پلت واردات matplotlib به عنوان plt test1 = np.linspace(0.1,9,50) test2 = np.linspace(9,12,1000) test = list( test1) + list(test2) shape,loc,scale = s.lognorm.fit(test,floc=0) distro = s.lognorm(شکل، مکان، مقیاس) x = np.linspace(0.1،20،200) plt.plot(x،distro.pdf(x)) plt.plot(x،distro.cdf(x)) plt. axvline(x=scale,color='r',ls='--') plt.legend(('PDF','CDF',r'$\mu$'), loc='بالا سمت چپ') plt.hist(test,bins=100,normed=True,alpha=0.4) و موارد مربوطه تصویر: ![هیستوگرام نمونه اسباب بازی و توزیع log-normal نصب شده](http://i.stack.imgur.com/xzFIo.png) سوال من این است که آیا واقعا این کار لازم است چقدر برای انتقال یک توزیع log-normal به سمت راست؟ به نظر می رسد آنچه من در اینجا انجام داده ام آن را گسترده می کند، اما فقط کمی آن را تغییر می دهد. آیا باید از معیار دیگری برای اهدافم استفاده کنم؟
انحراف توزیع log-normal با استفاده از sciPy
14158
فرض کنید که من یک متغیر دسته بندی دارم که می تواند مقادیر A، B، C و D را بگیرد. چگونه می توانم 10000 نقطه داده تصادفی ایجاد کنم و فرکانس هر کدام را کنترل کنم؟ به عنوان مثال: A = 10% B = 20% C = 65% D = 5% آیا نظری دارید که چگونه می توانم این کار را انجام دهم؟
چگونه داده های طبقه بندی تصادفی تولید کنیم؟
3466
طرح مشترک زیر را تصور کنید: * 100 شرکت کننده به طور تصادفی به یک گروه درمانی یا یک گروه کنترل تخصیص داده می شوند * متغیر وابسته عددی است و اندازه گیری شده قبل و بعد از درمان سه گزینه واضح برای تجزیه و تحلیل چنین داده هایی عبارتند از: * آزمایش گروه بر اساس تعامل زمانی اثر در ANOVA مختلط * یک ANCOVA با شرط IV و پیش اندازه گیری به عنوان متغیر کمکی و پس اندازه گیری به عنوان DV انجام دهید * یک آزمون t را با شرط به عنوان انجام دهید. نمرات تغییر IV و قبل از بعد به عنوان DV **سوال:** * بهترین راه برای تجزیه و تحلیل چنین داده هایی چیست؟ * آیا دلایلی برای ترجیح یک رویکرد بر رویکرد دیگر وجود دارد؟
بهترین روش هنگام تجزیه و تحلیل طرح های کنترل قبل از درمان
92775
چه روش‌های تحلیلی برای داده‌های قبل/پس‌آزمون مورد استفاده قرار می‌گیرند، وقتی که نتیجه نمرات دانش باشد؟ بعلاوه از چه روش های تحلیلی برای داده های نمره رفتاری لیکرت استفاده می شود؟
روش های تجزیه و تحلیل داده های قبل و بعد از آزمون
106165
من مجموعه ای از داده های مشتق شده از ثبت های اداری دارم که جمعیت یک کشور کوچک اروپایی را پوشش می دهد که شامل تعداد زیادی گروه تعریف شده (15000+) است. برای هر یک از این گروه‌ها، من مشاهدات متعدد (سال‌های مختلف) و دو متغیر توضیحی دارم که قرار گرفتن هر گروه در معرض یک مداخله سیاستی را مشخص می‌کند. در STATA من این را با استفاده از دستور رگرسیون، با aweight=group_size و با استفاده از absorb(group_identifier) ​​تخمین می زنم. من قبلاً این کار را انجام داده ام و بسیار سریع است. چگونه این کار را در R انجام دهم؟ در R، مشکل من این است که نمی‌توانم بسته‌ای پیدا کنم که به من اجازه دهد هم وزن را بر اساس اندازه گروه و هم افکت‌های ثابت را شامل شود. با استفاده از تابع استاندارد lm من می‌توانم وزن اندازه گروه را در نظر بگیرم، اما باید اثرات گروه را به طور صریح تخمین بزنم (به سادگی شناسه گروه را به عنوان متغیر عامل اضافه می‌کنم). این بسیار وقت گیر است (من بعد از چند دقیقه اجرا آن را لغو کردم). از طرف دیگر، می‌توانم به بسته‌های با جلوه‌های ثابت روی بیاورم - مانند بسته lfe. اینها جلوه‌های ثابتی را می‌دهند، اما من چنین بسته‌ای را پیدا نکردم که وزن‌دهی بر اساس اندازه گروه را نیز بپذیرد. پیشنهادی دارید؟
چگونه می توانم یک رگرسیون خطی وزنی را با اثرات ثابت و گروه های زیاد در R تخمین بزنم؟
38058
من از شبکه الاستیک پیاده‌سازی شده در R (از طریق glmnet) برای برخی مدل‌سازی‌ها استفاده کرده‌ام، اما با توجه به تعداد نقاط پرت در داده‌های من، نمی‌دانم که آیا نوعی رویکرد مدل‌سازی برای رگرسیون قوی منظم وجود دارد؟ به عنوان مثال چیزی شبیه شبکه الاستیک که برای رگرسیون قوی اعمال می شود. اگر چیزی در R وجود داشته باشد، حتی بهتر است. فقط کنجکاو هستم بدانم چه چیزی آنجاست. با تشکر
رگرسیون منظم منظم
38051
سوال: ![مشکل](http://i.stack.imgur.com/V2FVy.png) این مشکل به من اختصاص داده شده است، اما من دقیقاً متوجه نمی شوم که به چه چیزی اشاره دارد. آیا $\alpha$ همان نقطه قطع رگرسیون است و ضریب متغیر u hat 1 است؟ آیا برآوردگر OLS برای $\alpha$ از معادلات عادی می آید؟ چرا باید کلاه u را در قسمت b مربع کنیم - این به چه چیزی می تواند مربوط باشد؟ من مطمئن نیستم که چگونه می توانم چیزی را فقط با توجه به این اطلاعات محاسبه کنم. متشکرم.
برآوردگرها - OLS و موارد دیگر
18316
این برای hw من است و اگر کسی بتواند قسمت اول سوال را حل کند عالی خواهد بود. سوال اینجاست: یک مسئله دو کلاسه را با احتمالات کلاس پیشینی برابر و چگالی شرطی کلاس گاوسی به صورت زیر فرض کنید: $$p(x\mid w_1) = {\cal N}\left(\begin{bmatrix} 0 \\\ 0 \end{bmatrix},\begin{bmatrix} a & c \\\ c & b \end{bmatrix}\right)\quad\text{and}\quad p(x\mid w_2) = {\cal N}\left(\begin{bmatrix}d \\\ e \end{bmatrix},\ begin{bmatrix} 1 & 0 \\\ 0 & 1 \end{bmatrix}\right)$$ جایی که $ab-c^2=1$. 1. پس از انتخاب تابع تفکیک لگاریتمی، معادله مرز تصمیم بین این دو کلاس را بر حسب پارامترهای داده شده بیابید. 2. قیود مقادیر a، b، c، d و e را تعیین کنید، به طوری که تابع متمایز حاصل با یک مرز تصمیم گیری خطی منتج شود.
مرزهای تصمیم و توابع چگالی گاوسی
71694
من مدل‌های log-probit را بر اساس روش زیر محاسبه می‌کنم (با تشکر فراوان از COOLSerdash، Aniko، whuber): # داده: کتاب درسی از Erna Weber dosis <- c(2.90, 3.36, 3.90, 4.52, 5.52, 6.09,6.90) nges < - c(10،10،10،10،10،10،10) nok <- c(1، 2، 3، 4، 7، 6، 8) edx.data <- data.frame(dosis، nges، nok) # glm glm.logit <- glm(cbind(nok,nges-nok) ~ log(dosis), family=binomial('probit'), data=edx.data) # محاسبه داده های EDx و فواصل اطمینان r <- dose.p(glm.logit,p=seq(0.1,0.9,0.2)) se <- attr( r، 'SE') xr <- data.frame(as.matrix(exp(r))) names(xr) <- c('Dose') xr$Lower <- exp(r-se) xr$Upper <- exp(r+se) خروجی به شرح زیر است: > print(xr) Dose Lower Upper p = 0.1: 2.827593 2.444115 3.271238 p = 0.3: 3.920316.606 p = 0.5: 4.915905 4.576043 5.281009 p = 0.7: 6.164330 5.580168 6.809647 p = 0.9: 8.546535 7.219686 7.219686 10.15 اینچ بر اساس داده های متنی (23 اینچ تا EDx داده ها) ای. وبر. با این حال، فواصل اطمینان باید به شرح زیر باشد: p ED(p) پایین بالا 0.1 2.8272 1.6574 3.4642 0.3 3.9203 3.0380 4.5064 0.5 4.9159 4.2478 5.8765.2478 5.6574 8.6082 0.9 8.5476 6.7830 16.0300 سوال این است: اشتباه من کجاست؟ چگونه این فواصل اطمینان را محاسبه کنیم؟ پیشاپیش از شما بسیار سپاسگزارم.
مدل log-probit: محاسبه فواصل اطمینان برای داده های ED50
34925
من یک درخت (سبد خرید) را به مجموعه داده زیتون می‌زنم. داده های آموزشی دارای 436 مشاهده است (داده های آزمون: 136). من 3 پاسخ دارم (متغیر 'Region') که داده های آموزشی را به 116 / 74 / 246 مشاهده تقسیم می کند. اگر من متغیرهای ایکوسنوئیک و لینولئیک را رسم کنم، می توانم یک طبقه بندی تقریباً کامل را ببینم. من از یک مجموعه داده متعادل با 74 مشاهده برای هر پاسخ استفاده کردم (btw، آیا این درست است یا باید از اندازه کوچکتر از 74 مشاهده استفاده کنم؟) و تقریباً همان نتایج پیش‌بینی داده‌های آزمایشی را با مجموعه داده نامتعادل دریافت کردم. به همین دلیل است که می‌پرسم آیا یک مجموعه داده متعادل در این مورد مورد نیاز است؟ من فرض می کنم که تعادل لازم نیست، اما مطمئن نیستم و می خواهم نظرات دیگری را بدانم.
CART (rpart) متوازن در مقابل مجموعه داده نامتعادل
34921
من می خواهم محدوده نماینده را برای یک سری از نقاط داده تعیین کنم. برای مثال، من می‌خواهم محدوده‌ای را بدانم که 98٪ (یا هر نسبت معین دیگری) از نقاط در آن قرار دارد. من می‌توانستم از محدوده بین چندکی (در این مورد 99-1٪) استفاده کنم، اما در مورد توزیع‌های کج‌شده جدی، این به دنباله‌های بلند توزیع «توجه بیش از حد» می‌دهد. بهتر است ایده زیر را در نظر بگیرم: هیستوگرام را برای آن سری از نقاط ساخته شده تصور کنید. حداکثر هیستوگرام 100% در نظر گرفته می شود. حالا خط افقی را روی علامت 1% بکشید و با این خط، سمت چپ ترین و راست ترین تقاطع منحنی هیستوگرام را پیدا کنید. این تقاطع ها مرزهای چپ و راست مقیاس را که شامل بیشتر نقاط است را نشان می دهد. آیا این رویکرد یک نام معمولی دارد؟ آیا این رویکرد برای تعیین محدوده مناسب داده ها مناسب است؟
محدوده ای را تعیین کنید که حاوی نسبت داده شده از نقاط داده باشد
106162
با فرض داشتن یک فرآیند تصادفی با توزیع نرمال شناخته شده N(m,s) می‌توانیم نمونه‌هایی را مشاهده کنیم. برای هدف تست کیفیت، آستانه ای برای نمونه های خوب/بد برابر با 3 انحراف استاندارد از مقدار میانگین تعریف می کنیم. از این رو ما نسبت نمونه بد برابر با 0.28٪ را می پذیریم. ما نمونه‌هایی را جمع‌آوری می‌کنیم که از چنین فرآیند تصادفی زیربنایی نشات می‌گیرند و دوست داریم آزمایش کنیم که آیا از نظر نسبت نمونه بد با توزیع مورد انتظار مطابقت دارند یا تغییر ساختاری در فرآیند زیربنایی وجود دارد (یعنی انحراف استاندارد توزیع احتمالی آنها متفاوت از مورد انتظار). لطفاً روش صحیح چیست؟ من در مورد cusum می دانم، اما برای تغییرات ساختاری به مقدار میانگین اعمال می شود، نه انحراف استاندارد.
تغییرات ساختاری در انحراف معیار مشاهده شده
102678
من آزمایشی با یک متغیر بین گروهی دارم. کلا 3 گروه داره هنگام انجام آزمایش، اگرچه برای شرکت کنندگان انتساب تصادفی انجام دادیم، اما اندازه 3 گروه به ترتیب متفاوت است: 15، 21 و 27. با داده ها می خواهم ANOVA یک طرفه انجام دهم. من همچنین یک متغیر اندازه گیری مکرر دارم که می خواهم با آن ANOVA ترکیبی انجام دهم. در حال حاضر داده های من فرض همگنی واریانس را نقض می کند. به نظر می رسد با اندازه گروه متعادل ANOVA در برابر نقض بسیار قوی است اما اگر اندازه ها نامتعادل باشند (مرجع). سوال من این است که آیا می توانم به طور تصادفی از 2 گروه بزرگتر (بدون جایگزینی) نمونه برداری کنم به اندازه 15 تا اندازه بین گروه ها برابر باشد؟ اگر چنین است، آیا حمایت نظری برای آن وجود دارد؟ یا باید به جای آن از روش های ناپارامتریک قوی استفاده کنم؟
نمونه گیری تصادفی مجدد از داده ها برای حفظ اندازه مساوی در بین گروه ها
106166
من به استادی در اجرای برآوردگر آرلانو باند برای مطالعه بر روی عواملی که عوامل تعیین کننده برای سودآوری بانک هستند کمک می کنم. شخصی به من پیشنهاد کرد که هنگام اجرای برآوردگر Arellano Bond، از متغیرها برای حذف Heteroskedasticity استفاده کنم. در اینجا تردیدهای من وجود دارد: 1. آیا نمی توانم فقط از روش موجود در Stata استفاده کنم تا برآوردگرهای قوی را به من ارائه دهم و بنابراین مراقب Heteroskedasticity باشم. من در مورد روش xtabond صحبت می کنم. 2. حتی اگر من مجبور به ثبت log از متغیرها باشم، برخی از آنها منفی یا صفر هستند. آیا راهی هست که بتوانم این مشکل را دور بزنم؟ لطفا کمک کنید
گرفتن گزارش از متغیرها برای مطالعه GMM من.
18310
من از روش KPSS برای بررسی ثابت بودن سری های زمانی استفاده می کنم، اما همچنین می خواهم از آزمون دیگری برای **تأیید** فرضیه ثابت بودن سری زمانی استفاده کنم. من در حال حاضر از تست‌های ریشه واحد به عنوان ADF یا PP استفاده می‌کنم، اما برای بررسی ثابت بودن به یک تست خاص‌تر نیاز دارم. از چه روشی استفاده کنم؟
چگونه می توانم ثابت کنم سری زمانی ثابت است؟
36167
من از **LibLinear** برای طبقه بندی اسناد استفاده می کنم که در آن می خواهم احتمال صحت هر پیش بینی را محاسبه کنم. در واقع، در **LibLinear**، خروجی احتمال را برای **رگرسیون لجستیک** ارائه می‌کند، اما نه برای وظیفه پیش‌فرض **طبقه‌بندی برداری پشتیبانی**. علاوه بر این، بر اساس اعتبارسنجی متقاطع 10 برابری، **رگرسیون لجستیک** تقریبا 10٪ بدتر از **طبقه بندی بردار پشتیبان** است. بنابراین، آیا کسی می تواند به من بگوید، اگر من همچنان از **طبقه بندی بردار پشتیبان** برای حل استفاده کنم، آیا روشی برای محاسبه احتمال جدا از برنامه وجود دارد؟ من بسیار از کمک شما قدردانی می کنم!
محاسبه احتمال برای نتایج طبقه بندی LibLinear
34929
من یک مدل پواسون را به داده های خود در R برازش داده ام که شامل دو عامل به عنوان متغیر مستقل است. هر عامل دارای 5 سطح است. من از دستور 'contrasts = list(FactorA='contr.sum', FactorB='contr.sum')' برای تغییر محدودیت های مدل خود استفاده کرده ام. بنابراین، تخمین پارامترها برای هر عامل مجموع 1 است. مشکل من این است که برای من بسیار دشوار است که بفهمم دقیقاً مقادیر p برآوردها به چه معنا هستند. به عنوان مثال، اگر مقدار p برای یک سطح از «FactorA» معنی‌دار باشد، آیا این بدان معناست که به طور کلی برای توضیح متغیر پاسخ معنادار است یا فقط در مقایسه با سطوح دیگر همان عامل؟ آیا محدودیت هایی که من استفاده کردم در این تفسیر دخیل هستند که باید برای اهمیت هر سطح ایجاد کنم؟ همچنین، من هیچ خروجی برای آخرین سطح از هر عامل دریافت نمی کنم. آیا راهی برای تفسیر این دو سطح وجود دارد؟
نحوه تفسیر مقادیر p برای عوامل
108982
من سعی می‌کنم مدل زیر را در R بسازم، اما در مورد فرمول‌های مدل برای گنجاندن یک تعامل (x1 و x2) کاملاً گیج شده‌ام. $Y_{}=a+b*x_1+cx_2+d(x_1* x_2)$ این فرمول بصری به نظر می رسد مدل اشتباه است: y~x1+x2+(x1*x2) آیا این فرمول مناسب است؟: y~x1*x2؟
فرمول های مدل مدل درسته
83203
در مقاله ویکی‌پدیا هموارسازی لاپلاس (یا هموارسازی افزودنی)، گفته می‌شود که از دیدگاه بیزی، > این با مقدار مورد انتظار توزیع پسین مطابقت دارد، با استفاده از > توزیع متقارن دیریکله با پارامتر $\alpha$ به عنوان یک قبل من متحیر هستم که چگونه این واقعاً درست است. آیا کسی می تواند به من کمک کند تا بفهمم این دو مورد چگونه معادل هستند؟ با تشکر
صاف کردن لاپلاس و دیریکله قبل
18313
**مشکل:** خرده فروش Y از شبکه ای از حدود 3000 دستگاه (برای اهداف عملیات مشتری) استفاده می کند. کل شبکه دارای 10 مدل مختلف (از تولید کنندگان متمایز) است که از 0 سال (خرید شده در سال جاری) تا 12 سال سن دارند. هر دستگاه ممکن است دچار اشکالاتی شود که تعمیر فوری آن درخواست شده است. مجموع زمان در دسترس نبودن هر دستگاه در پایان ماه محاسبه می شود و ما آن را خرابی می نامیم. ممکن است همان دستگاه در طول آن دوره ماه هیچ نقصی نداشته باشد یا ممکن است یک یا چند دوره عدم دسترسی در آن دوره ماه داشته باشد. عقل سلیم می گوید که تجهیزات قدیمی تر باید زمان خرابی بیشتری داشته باشند. ** سؤال: ** (الف) چگونه می توانم بررسی کنم که آیا متغیر Age تأثیر مؤثری بر متغیر Downtime دارد یا خیر؟ از کدام مدل آماری استفاده کنم؟ (ب) چگونه می توانم این واقعیت را توضیح دهم که هر نوع تجهیزات باید نسبت به قدیمی شدن در رابطه با خرابی رفتار متفاوتی داشته باشد؟ ممنون، ادواردو
رابطه سن دستگاه در مقابل زمان خرابی
83208
من بوم شناس هستم و عمدتاً از بسته R وگان استفاده می کنم. من می خواهم 2 ماتریس (نمونه x گونه) (cbind) را ترکیب کنم اما نمونه ها (ردیف) متفاوت هستند. من از 24 سایت نمونه برداری کردم، با استفاده از 2 روش مجزا، مجموعه ماهی (6 تکرار) و مجموعه بی مهرگان کلان (3 تکرار). (داده‌های زیر را ببینید) من می‌خواهم فواصل زوجی بین سایت‌ها را با در نظر گرفتن هر دو مجموعه (با استفاده از عدم تشابه braycurtis) محاسبه کنم، فرض کنید می‌خواهم فاصله‌های کلی بین سایت‌ها را بدست بیاورم. من 2 گزینه را می بینم: گزینه 1، میانگین در مقیاس سایت فراوانی ماهی ها و بی مهرگان کلان، cbind دو ماتریس فراوانی میانگین و محاسبه برای کورتیس گزینه 2، برای هر مجموعه، محاسبه بری-کورتیس و فاصله بین مرکز سایت ها، و سپس ماتریس فاصله 2 را جمع کنید. لطفا بفرمایید که آیا گزینه 2 صحیح و مناسبتر از گزینه 1 است یا خیر؟ پیشاپیش از شما متشکرم. کتابخانه پیر (پلیر) کتابخانه (وگان) #مجموعه 1: 15 گونه ماهی، 6 تکرار در هر سایت a1.env=data.frame(Habitat=paste(H,gl(2,12*6),sep=),Site=paste(S,gl(24,6),sep= ),Replicate=rep(paste(R,1:6,sep=),24)) summary(a1.env) a1.bio=as.data.frame(replicate(15,rpois(144,sample(1:10,1)))) names(a1.bio)=paste(F,1:15,sep= ) a1.bio[1:72،]=2*a1.bio[1:72،] #مجموعه 2: 10 گونه از بی مهرگان کلان، 3 تکرار در هر سایت a2.env=a1.env[a1.env$Replicate%in%c(R1،R2،R3)،] خلاصه (a2.env) a2.bio=as.data.frame (replicate(10,rpois(72,sample(10:100,1)))) names(a2.bio)=paste(I,1:10,sep=) a2.bio[1:36,]=0.5*a2.bio[1:36،] # داده محیط زیست در مقیاس نشستن env=unique(a1.env[,c(Habitat,Site)]) env=env[order(env$Site)،] ######## گزینه 1، میانگین فراوانی و cbind a1.bio.mean=ddply(cbind(a1.bio,a1.env),.(Habitat,Site),numcolwise(mean)) a1.bio. mean=a1.bio.mean[order(a1.bio.mean$Site)،] a2.bio.mean=ddply(cbind(a2.bio,a2.env),.(Habitat,Site),numcolwise(mean)) a2.bio.mean=a2.bio.mean[order(a2.bio.mean $Site)،] bio.mean=cbind(a1.bio.mean[,-c(1:2)],a2.bio.mean[,-c(1:2)]) dist.mean=vegdist(sqrt(bio.mean) bray) #######گزینه 2، محاسبه برای هر فاصله مجموعه بین مرکزها و جمع ماتریس 2 فاصله a1.dist=vegdist(sqrt(a1.bio)،bray) a1.coord.centroid=betadisper(a1.dist,a1.env$Site)$centroids a1.dist.centroid=vegdist(a1.coord.centroid eucl) a2.dist=vegdist(sqrt(a2.bio)،bray) a2.coord.centroid=betadisper(a2.dist,a2.env$Site)$centroids a2.dist.centroid=vegdist(a2.coord.centroid,eucl) dist.centrroid=a1.dist.centrroid+a2. dist.centroid coord.centroid=cmdscale(dist.centroid,k=23) # برای تجزیه و تحلیل بیشتر مبتنی بر فاصله (آیا درست است؟) ### مقایسه گزینه 1 و 2 pco.mean=cmdscale(vegdist(sqrt(bio.mean)،bray)) pco.centroid=cmdscale(dist.centrroid) krahasim=procrustes(pco.centroid,pco.mean) اعتراض (pco.centroid,pco.mean)
خلاصه کردن دو ماتریس از فواصل بین مرکزها
103191
چندی پیش با این ایده آشنا شدم که اتفاقی با احتمال «تقریباً مطمئناً» (یا «تقریباً مطمئناً») رخ می دهد. از نظر مفهومی، همانطور که من می فهمم، احتمال یک رویداد ممکن است 1 باشد، اما این بدان معنا نیست که قطعی است، فقط _تقریبا_ قطعی است. ویکی‌پدیا این مثال را بر اساس پرتاب دارت به یک مربع ارائه می‌کند: > رویدادی را در نظر بگیرید که دارت به مورب مربع واحد برخورد می‌کند > دقیقا. احتمال فرود دارت در هر زیرمنطقه ای از میدان > متناسب با مساحت آن منطقه فرعی است. اما از آنجایی که مساحت > مورب مربع صفر است، احتمال اینکه دارت دقیقاً > روی مورب فرود آید، صفر است. بنابراین، دارت تقریباً هرگز روی مورب > فرود نمی‌آید (یعنی تقریباً مطمئناً روی مورب فرود نمی‌آید). با این حال، مجموعه > از نقاط روی مورب خالی نیست و یک نقطه در مورب کمتر از هر نقطه دیگری امکان پذیر نیست، بنابراین از نظر تئوری ممکن است > که دارت در واقع به مورب برخورد کند. بنابراین سوال اساسی من این است: اگر من یک سکه منصفانه را بی نهایت بار ورق بزنم، آیا **مطمئن**، یا صرفاً **تقریباً مطمئن** هستم که حداقل یک بار سر را به دست خواهم آورد؟ **آزمایش فکری** واکنش اولیه من به این سوال این بود که پاسخ باید تقریباً قطعی باشد. با این حال، من به یک آزمایش فکری رسیدم که مرا شک کرد: دو دانشمند جاودانه وظیفه نظارت بر یک سکه منصفانه را دارند که هر دقیقه یک بار ورق می خورد. هر دوی آنها یک سکه مشترک دارند، اما دستورالعمل های متفاوتی به آنها داده می شود. دستورات دانشمند اول این است: اگر سکه پس از ورق زدن بی نهایت بالا نیامد، «نادرست» را گزارش کنید. اگر در هر چرخشی سکه بالا آمد، درست را گزارش کنید. به دانشمند دوم این نمودار جریان داده می شود تا توصیف کند که چه کاری باید انجام دهد: هیچ جریانی در نمودار دانشمند دوم وجود ندارد که در آن هیچ نتیجه ممکنی غیر از درست وجود دارد. * هیچ دنباله ای از ورق زدن سکه وجود ندارد که در آن، در هر نقطه یا: * دو دانشمند نتایج متفاوتی را گزارش کنند یا * یکی از دانشمندان نتیجه ای را گزارش کرده است در حالی که دیگری هنوز نتیجه ای را گزارش نکرده است. به نظر می رسد اولین مورد از این نکات به این معنی است که مطمئن است، و نه تقریباً مطمئن، که دانشمند دوم درست گزارش خواهد کرد. به نظر می‌رسد که دومین مورد از آن نکات به این معنی است که دانشمند دوم مطمئن است که درست گزارش می‌کند به این معناست که دانشمند اول مطمئناً درست گزارش می‌کند. با کنار هم قرار دادن آنها، اولین دانشمند مطمئناً درست را گزارش می دهد و پاسخی غیرمعمول به این سؤال اساسی می دهد. بنابراین برای جمع بندی، آیا مطمئن است یا تقریباً مطمئن است که یک سری بی نهایت از ورق زدن یک سکه منصفانه حداقل یک بار منجر به سر می شود؟ اگر **مطمئن** است، پس با توجه به اینکه هیچ سکه ای را مجبور به بالا آمدن سکه نمی کند، چه توضیحی برای آن نتیجه غیر شهودی وجود دارد؟ اگر **تقریباً مطمئن** است، پس اشکال در استدلال آزمایش فکری چیست؟
گرفتن سر در یک سری نامتناهی از چرخش سکه - قطعی یا تقریباً مطمئن؟
34927
من به دنبال یک آزمایش یا آزمایش آماری برای مقایسه اثرات «درمان‌های» مختلف بر روی یک «فرد» در طول زمان هستم. فرد منفرد می تواند یک فرد یا گروهی باشد که به عنوان یک موجودیت واحد عمل می کند (به عنوان مثال یک تیم، یک شرکت و غیره). یک مثال ساده مقایسه اثرات دو رژیم ورزشی مختلف بر کاهش وزن یک فرد است. نگرانی اصلی من با استفاده از یک آزمون آماری استاندارد (در این مورد، چیزی مانند آزمون t، آزمون من ویتنی U یا آزمون کولموگروف-اسمیرنوف مناسب به نظر می رسد) عدم استقلال آشکار داده ها است. می‌توانم استقلال را با اجرای نوعی مطالعه ABAB بررسی کنم (یعنی چندین بار تغییر رژیم‌ها برای بررسی عدم تعامل آنها). به نظر می رسد این رویکردی است که نویسنده این مقاله «آزمایش خود» (رابرتس، اس.) اتخاذ کرده است. سپس از تست های مجذور کای مکرر استفاده می کند (اول A در مقابل B اول، دوم A در برابر اول B و غیره). آیا انجام آزمایش‌های متعدد بر روی داده‌های یکسان یک رویکرد آماری معتبر است یا این امر احتمال خطاهای نوع I را همانطور که در این مقاله نشان داده شده است افزایش می‌دهد؟ > هر چه فرد بیشتر داده های انباشته شده را تجزیه و تحلیل کند، شانس > در نهایت و اشتباه > تشخیص تفاوت بیشتر است، در نتیجه نتیجه گیری نادرستی از کارآزمایی می گیرد. آیا باید نگران عدم استقلال باشم؟ آیا می توانم به سادگی چندین آزمایش را در برابر داده های یکسان انجام دهم؟ آیا آزمون تخصصی برای این نوع آزمایش وجود دارد؟
آزمایش آماری برای مقایسه درمان‌های متعدد بر روی یک «فرد» در طول زمان
38056
در کتاب روش‌های آماری مونت کارلو توسط رابرت و کازلا، دیدم که اشاره‌ای به درک زنجیره مارکوف مونت کارلو (سری اسپرینگر در آمار) نوشته گرت او رابرتز و ریچارد ال. تویدی منتشر شده در سال 2004 وجود دارد. این کتاب را در اینترنت جستجو کردم و در دسترس بودن آن را پیدا نکرد. در آمازون، یک لینک می گوید که در سال 2008 منتشر شده است و یک لینک دیگر می گوید که در سال 2015 خواهد بود. با تشکر!
آیا درک زنجیره مارکوف مونت کارلو نوشته رابرتز و تویدی تا به حال منتشر شده است؟
102679
من داده های ماهانه و روزانه از تولدها در یونان دارم و می خواهم برای یافتن ریتم، آنالیز همسنور انجام دهم (شور، شبانه روزی، نیم سال و غیره) چگونه می توانم از Matlab برای انجام آنالیز همسینور استفاده کنم؟ من این پیوند را پیدا کردم http://www.mathworks.com/matlabcentral/fileexchange/20329-cosinor- analysis/content/html/cosinor.html مطمئن نیستم که می تواند کمک کند یا خیر. آیا کار دیگری وجود دارد که بتوانم با این داده ها به جز تجزیه و تحلیل cosinor انجام دهم؟ من یک تجزیه و تحلیل طیفی فوریه انجام دادم و یک چرخه 12 ماهه قوی و یک چرخه 2 ماهه قوی پیدا کردم.
چگونه می توانم آنالیز Cosinor را در Matlab انجام دهم؟
38054
من برای پیش بینی به آموزش در R نگاه کردم و تصمیم گرفتم سوالم را بازنویسی کنم. من به پیش بینی به طور متوسط ​​برای مرد با 95٪ CI نیاز دارم و سپس با استفاده از متغیرهای وضعیت، درآمد و کلامی با مقادیر حداکثر تکرار می کنم. حالا اگر پیش‌بینی‌های نشان‌داده شده در زیر را به درستی با میانگین انجام داده باشم، حداکثر مقادیر را انجام دهم. اما آیا این 2 بازه پیش بینی و 2 بازه مطمئن هم برای میانگین و هم برای حداکثر نمی دهد. مقادیر g2<-data.frame(وضعیت=75، درآمد=15، کلامی=10، جنسیت=0) g1<-data.frame(وضعیت=43، درآمد=4.64، شفاهی=6.66، جنسیت=0) به عنوان مثال.. میانگین > g1<-data.frame(وضعیت=43، درآمد=4.64، شفاهی=6.66، جنسیت=0) > پیش بینی (g,g1, interval='اطمینان', level=.90) fit lwr upr 1 28.11506 19.7603 36.46983 > predict(g,g1, interval='prediction', level=.90) fit lwr upr 1 28.11506 19.46983 حداکثر مقادیر استفاده شده: > پیش بینی (g,g2, interval='اطمینان', level=.90) fit lwr upr 1 71.30794 47.07516 95.54072 > predict(g,g2, interval='prediction', level=.90) fit lwr upr 1 791.30 26.10037 116.5155 **آیا ** من به هر دو فاصله پیش بینی و اطمینان نیاز دارم؟ **سوال:** چگونه CI را رسم کنم تا مشخص کنم که کدام عریض تر است؟
هنوز در R با CI و پیش بینی ها تلاش می کنم
83200
اشاره کرده‌ام که تعداد کمی از تقسیم‌های گره در درخت‌های تصادفی من اضافی هستند زیرا هر دو گره فرزند دارای طبقه‌بندی یکسان هستند. من گمان می کنم که این ناشی از انتخاب ناخوشایند پارامترها باشد، اما کدام؟ من از پیاده سازی OpenCV برای تولید درخت ها استفاده می کنم. برای پیش بینی از کد خودم استفاده می کنم. اینگونه بود که من این گره های اضافی را کشف کردم. پارامترهای آموزشی OpenCV عبارتند از: * max_depth = 20 * min_sample_count = 7 * nactive_vars = 2 * max_num_trees = 250 * forest_accuracy = 0 * term_crit = CV_TERMCRIT_ITER (یعنی 250 درخت متغیر، 250 درخت در 5-0 متغیر) نمونه و 7 کلاس. بدون متغیر گمشده، بدون متغیر طبقه بندی. مشکل گره‌های اضافی با گره‌های بسیار کم عمق نسبت به «max_depth» ظاهر می‌شود، بنابراین احتمالاً مرتبط نیست.
تقسیم بیش از حد در جنگل تصادفی
44480
> **تکراری احتمالی:** > بهترین روش هنگام تجزیه و تحلیل طرح‌های کنترل قبل از درمان، من در حال انجام یک مطالعه اقدام پژوهی با 2 تا از کلاس‌هایم هستم: 1 کلاس درمان و دیگری کنترل. هر دو کلاس قبل از درمان یک پیش آزمون را انجام دادند. سپس، پس از مرحله درمان (کلاس کنترل هیچ درمان دریافت نکرد)، هر دو کلاس یک پس آزمون انجام دادند. از چه آماری استفاده کنم؟ تست های تی زوجی؟ ANOVA با اندازه گیری مکرر؟ کمک کنید
پیش آزمون با گروه کنترل
34920
چه زمانی باید تست های نرمال را اعمال کنیم؟ برای کدام نوع از متغیرها باید آزمون نرمال بودن را اعمال کنیم؟ به عنوان مثال متغیرهای وابسته، متغیرهای مستقل، یا متغیرهای کنترل و غیره؟
برای چه نوع متغیرهایی باید از تست نرمال بودن استفاده کنیم؟
34924
من در حال حاضر روی SVR کار می کنم تا بازده بازار سهام را پیش بینی کنم و ** می خواهم بدانم آیا کسی از شما می تواند در مورد مقالات جالب در مورد آن به من توصیه کند. ** اینها مقالاتی هستند که با آنها کار می کنم: 1. Cao , L., Tay, F.E.H. (2001). پیش بینی مالی با استفاده از ماشین های بردار پشتیبان محاسبات عصبی و کاربردها، 10:184-192. 2. Wang, L., Zhu, J. (2010). پیش‌بینی بازار مالی با استفاده از روش یادگیری هسته دو مرحله‌ای برای رگرسیون بردار پشتیبان. سالنامه تحقیق در عملیات، 174:103-120. [DOI] مقاله دوم واقعا جالب است، اما اجرای آن بسیار سخت است زیرا نویسنده از روش یادگیری هسته دو مرحله ای برای یافتن تابع هسته بهینه برای SVR استفاده می کند. تمام مقالاتی که من پیدا کردم جزئیات زیادی در مورد پارامترهای تنظیم (C و سیگما برای هسته گاوسی) ارائه نمی دهند. من از R برای محاسباتم استفاده می کنم (بسته های Kernlab و e 1071).
منابعی در مورد پیش بینی بازده سهام با SVR
76281
من سعی می‌کنم این مقاله را بفهمم: اعتبارسنجی متقابل تعمیم‌یافته به‌عنوان روشی برای انتخاب یک پارامتر ریج خوب نویسنده(های): Gene H. Golub، Michael Heath and Grace Wahba منبع: Technometrics, Vol. 21، شماره 2 (مه، 1979)، صفحات 215-223 این مقاله کاملاً شناخته شده ای است و نمی توانم فکر کنم که نادرست باشد (اما واضح است که درک من از آن این است!) مشکل اینجاست که وقتی سعی می کنم فرمول اصلی خود را (فرمول 1.4) روی داده‌های خام پیاده‌سازی کنند، من پاسخی مشابه زمانی که از آنچه که قرار است شکل متفاوتی از همان فرمول نشان داده شده است استفاده کنم، دریافت نمی‌کنم. اینجا: استفاده از بوت استرپ و اعتبارسنجی متقاطع در رگرسیون ریج نویسنده(های): نانسی جو دلانی و سانگیت چاترجی منبع: Journal of Business & Economic Statistics, Vol. 4، شماره 2 (آوریل 1986)، صفحات 255-262 فرمول آنها در بخش 2.2.5 نشان داده شده است (به طور شهودی جذاب تر است و من آن را درک می کنم) اما پاسخی مشابه آنچه در Golub ارائه شده است را نمی دهد. کاغذ و همکاران در کاغذ Golub GCV به عنوان PRESS (مجموع باقیمانده مربعات پیش بینی شده) تعریف شده است که بر روی داده های تبدیل شده (همانطور که در مقاله نشان داده شده است) انجام می شود. نسخه تبدیل شده 2.3 در p217 است. آنها همچنین بیان می کنند که GCV مقداری است که 1.4 یا 2.3 را به حداقل می رساند (یعنی مدل های مبتنی بر داده های اصلی و تبدیل شده به ترتیب). بنابراین اگر من این را به درستی درک کنم حتی اگر حداقل مقدار بین مدل های اصلی و تبدیل شده یکسان نباشد، مقدار پارامتری که آنها را به حداقل می رساند یکسان است (آیا این درست است؟) اما وقتی هر دو روش را اجرا کردم، آنها توسط همان ارزش اولی تقریباً 2 و دومی تقریباً 1.5 به حداقل رسید. بنابراین سؤالات من این است: 1.) آیا معادله 1.4 در Golub و آنچه در بخش 2.2.5 از Delaney و Chatterjee نشان داده شده معادل هستند؟ اگر چنین است، می توانید به من نشان دهید که چگونه می توان یکی را از دیگری استخراج کرد. 2.) آیا کدگذاری من برای هر مدل صحیح است؟ اگر کسی به من بگوید چگونه می توانم این مقالات را پست کنم. تابع [GCV]=GCV(y,x,k) [n, p]=size(x); % روش دلانی و چاترجی h=(x'*x+k*eye(p)); h=h\x'; h=x*h; den=(1-diag(h)); den=sum(den); den=den/n; den=den^2; sum_e_i_2=0; برای i=1:n y_e=y; y_e(i,:)=[]; x_e=x; x_e(i,:)=[]; pseudo = sqrt(k) * eye(p); x_ridge = [x_e;شبه]; y_ridge = [y_e;صفر(p,1)]; b2 = x_ridge\y_ridge; e_i=y(i)-x(i,:)*b2; sum_e_i_2=sum_e_i_2+e_i^2; end num=sum_e_i_2/n; GCV=num/den; %Delaney و Chatterjee به % روش Golub پاسخ می دهند A=h; I_mat=eye(n); num2=(I_mat-A); num2=num2*y; num2=norm(num2); num2=num2^2; num2=num2/n; den2=(I_mat-A); den2=trace(den2); den2=den2/n; den2=den2^2; GCV2=num2/den2; پایان
نمی توان نتایج روش اعتبارسنجی متقاطع عمومی Golub (GCV) را تکرار کرد
89061
با توجه به یک نقشه ویژگی کوهونن همگرا، چگونه می توان خوشه بندی را از نظر فواصل درون و بین خوشه ای ارزیابی کرد؟ با فرض اینکه هم بردارهای کتاب کد آموزش دیده و هم ماتریس فاصله واحد در دسترس هستند. در حال حاضر من آنها را به صورت تجربی با استفاده از نقشه های حرارتی UMatrix ارزیابی می کنم. با این حال، من فکر می کردم که آیا روش آماری قابل اعتمادتری وجود دارد.
ارزیابی خوشه‌بندی یک UMatrix Kohonen
89068
این نتیجه سوال قبلی است (چگونه گروه ها را با استفاده از PCA جدا کنیم؟). من 25 نرمال و 12 بیمار دارم. برای هر یک از آنها یک بردار دارم که یک طیف نگار را نشان می دهد (2000). بنابراین من یک ماتریس Z = [25x2000;12x2000] دارم. محاسبه می کنم [coeffZ, score, latent, tsquared, توضیح داده شده, mu]=pca(Z); نوار (توضیح داده شده) به من نشان می دهد که 3 کامپیوتر اول بیشتر واریانس را توضیح می دهند. همچنین برای هر یک از دروس نمره رفتاری (از آزمون) دارم [37×1]. پیشنهاد شد که ببینم آیا 3 رایانه اول می توانند نمره رفتاری را با استفاده از ضریب همبستگی چندگانه پیش بینی کنند. به طور خاص این - http://en.wikipedia.org/wiki/Multiple_correlation آیا این منطقی است؟ آیا کسی ایده ای دارد که چگونه می توانم این را در Matlab پیاده سازی کنم؟
همبستگی چندگانه: PCA و رفتار
18314
من 4 سری زمانی همبسته دارم و می خواهم یکی از آنها را از 3 سری دیگر پیش بینی کنم. در 4 سری زمانی یک اثر فصلی واضح وجود دارد، بنابراین اولین فکر من این بود که یک مدل ARIMA چند متغیره را متناسب کنم، اما به نظر نمی رسد. برای پیدا کردن یک تابع R برای این.
برازش مدل ARIMA چند متغیره با R
103073
مشابه این سوال، در چه شرایطی باید از مقیاس لیکرت به عنوان داده ترتیبی یا فاصله ای استفاده شود؟، من کنجکاو هستم که در چه شرایطی می توان از مقیاس لیکرت به عنوان داده اسمی استفاده کرد؟
در چه شرایطی باید از مقیاس لیکرت به عنوان داده اسمی استفاده کرد؟
38057
من اطلاعاتی در مورد نمونه‌ای از بیمارستان‌های $n=1776$ دارم. برای هر بیمارستان تعداد کل بیماران («بیمار») و تعدادی از بیماران با یک بیماری خاص («تشخیص داده شده») وجود دارد. آیا میانگین این نسبت، تشخیص داده شده/بیماران را برای همه بیمارستان های نمونه، $\hat{\mu}$ در نظر بگیرم و فاصله اطمینان 95٪ را به عنوان $\hat{\mu} \pm محاسبه کنم؟ 1.96\sigma / \sqrt{n}$ یا به عنوان $\hat{\mu} \pm 1.96 \sqrt{\hat{\mu}(1-\hat{\mu})/n}$ ? یا ....؟ **به روز رسانی ** [به دنبال نظرات whuber]. علاوه بر این، داده ها به 2 گروه سنی (جوان و مسن) و 3 امتیاز خطر تقسیم می شوند. یعنی همه 1776 بیمارستان دارای تعداد کل بیماران به شرح زیر هستند: بیماران جوانتر بیماران مسن کم خطر A D خطر متوسط ​​B E خطر بالا C F ... و به طور مشابه برای تعداد بیماران مبتلا به این بیماری. بنابراین، برای هر ترکیبی از گروه سنی و امتیاز خطر، می‌خواهم میانگین شیوع و یک فاصله اطمینان را برای آن تخمین بزنم. در اینجا خلاصه‌ای از داده‌ها آمده است میانگین سنی خطر sd n 1 u50 0.37 0.19 1776 2 u50 0.49 0.25 1776 3 u50 0.54 0.26 1776 1 o50 0.45 0.324 o 170. 1776 3 o50 0.67 0.41 1776
فواصل اطمینان برای نسبت ها (شیوع)
85910
من در ایجاد شهود در مورد آنتروپی مشترک مشکل دارم. $H(X,Y)$ = عدم قطعیت در توزیع مشترک $p(x,y)$; $H(X)$ = عدم قطعیت در $p_x(x)$; $H(Y)$ = عدم قطعیت در $p_y(y)$. اگر H(X) زیاد باشد، توزیع نامشخص تر است و اگر نتیجه چنین توزیعی را بدانید، اطلاعات بیشتری دارید! بنابراین H(X) نیز اطلاعات را کمی می کند. اکنون می‌توانیم $H(X,Y) \leq H(X) + H(Y)$ را نشان دهیم اما اگر $p(x,y)$ را می‌دانید می‌توانید $p_x(x)$ و $p_y(y) را دریافت کنید. $ بنابراین به نوعی $p(x,y)$ اطلاعات بیشتری نسبت به $p_x(x)$ و $p_y(y)$ دارد، بنابراین آیا عدم قطعیت مربوط به p(x,y) بیشتر از مجموع فرد عدم قطعیت ها؟
شهود در مورد آنتروپی مشترک
83204
من آموزش بسیار مفیدی در مورد الگوریتم EM پیدا کردم. مثال و تصویر از آموزش به سادگی درخشان است. ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/mj0nb.gif) سوال مرتبط در مورد محاسبه احتمالات چگونه به حداکثر رساندن انتظار عمل می کند؟ من یک سوال دیگر در مورد نحوه اتصال نظریه توضیح داده شده در آموزش به مثال دارم. > در طول E-step، EM یک تابع $g_t$ را انتخاب می کند که در همه جا $\log > P(x;\Theta)$ را پایین می آورد و برای آن $g_t( \hat{\Theta}^{(t)}) = \log P(x; > \hat{\Theta}^{(t)})$. پس g_t$ در مثال ما چیست و به نظر می رسد که باید برای هر تکرار متفاوت باشد. علاوه بر این، در مثال $\hat{\Theta}_A^{(0)} = 0.6$ و $\hat{\Theta}_B^{(0)} = 0.5$، سپس با اعمال آنها بر روی داده‌ها، آن $ را دریافت می‌کنیم. \hat{\Theta}_A^{(1)} = 0.71$ و $\hat{\Theta}_B^{(1)} = 0.58$. که برای من غیر شهودی به نظر می رسد. ما چند فرض قبلی داشتیم، آن را روی داده ها اعمال کردیم و مفروضات جدیدی دریافت کردیم، بنابراین داده ها به نوعی مفروضات را تغییر دادند. من نمی فهمم چرا $\hat{\Theta}^{(0)}$ برابر با $\hat{\Theta}^{(1)}$ نیست. علاوه بر این، با دیدن یادداشت تکمیلی 1 این آموزش، سؤالات بیشتری ایجاد می شود. برای مثال $Q(z)$ در مورد ما چیست. برای من روشن نیست که چرا وقتی $Q(z)=P(z|x;\Theta)$ نابرابری تنگ است متشکرم.
شفاف سازی حداکثرسازی انتظارات
89063
من در یک پروژه با داده های یک نظرسنجی پیچیده شرکت می کنم. ما قصد داریم داده های یک بررسی ملی باروری را تجزیه و تحلیل کنیم. برخی از سوالات پرسشنامه تنها توسط یک نمونه فرعی پرسیده شده است. به عنوان مثال، یک سوال در مورد شغل فقط از افراد شاغل پرسیده شده است. این متغیر و سایر متغیرها در مطالعه ما مهم هستند و مایلیم آن را در مدل لجستیک خود لحاظ کنیم. چه رویکردی را توصیه می کنید؟ من در برخی از مقالات این منطقه دیده ام که دسته دیگری را دیگر تنظیم می کنند، یعنی افراد دیگری را (که سوال در مورد آنها مطرح نشده است) ترکیب می کنند و یک دسته اضافی ایجاد می کنند. اگر این رویکرد قابل قبول است، آیا باید مقادیر تصادفی را به متغیر درآمد نسبت دهم تا سوگیری را کاهش دهم؟ اگر بتوانید به من کمک کنید بسیار سپاسگزار خواهم بود.
چگونه با داده های مقوله ای از دست رفته در مدل های رگرسیون لجستیک برخورد کنیم؟
85919
برای یک تکلیف من یک تکلیف با استفاده از WINBUGS دارم که باید اعتراف کنم که حداقل من را گیج می کند. مماس با سوال من است، اما من چند گره تصادفی دارم که قرار است گاما توزیع شوند. با در نظر گرفتن یک مثال، پارامترهای توزیع گاما (به نام a و b) نیز به لامبدا وارد می شوند که ما توزیع قبلی را برای آن می دانیم. d ~ gamma(a, b) z = a/b ~ gamma(0.01, 0.01) w = b/a ~ gamma(0.01, 0.01) در نگاه اول فکر کردم «z» و «w» باید به صورت منطقی مشخص شوند. گره اما پس از آن من نمی توانم اطلاعات توزیع (گاما) را اضافه کنم. کد من در امتداد این خطوط اجرا می شود (اگرچه نسخه های متعددی را امتحان کرده ام): d ~ dgamma(a, b) z ~ dgamma(0.01, 0.01) w ~ dgamma(0.01, 0.01) a <- z*b b <- a/ z a <- b/w b <- a*w اما پس از آن خطاهایی در خطوط تعریف های متعدد دریافت می کنم of node...، اگر یکی از هر یک از تخصیص های a و b را حذف کنم تا تعاریف متعدد را حل کنم، WINBUGS دیگر پاسخ نمی دهد. واقعاً از هر کلمه عاقلانه ای در مورد اینکه کجا اشتباه می کنم قدردانی می کنم.
مشخصات گره منطقی (با توزیع؟) در WINBUGS
85916
اگر $\mathbf{x}$ و $\mathbf{y}$ دو بردار واحد تصادفی [ **به‌روزرسانی:** مستقل] در $\mathbb{R}^D$ باشند، توزیع محصولات نقطه‌ای بین آنها چگونه است. در حد D$ بزرگ؟ حدس می‌زنم به سرعت (؟) تقریباً عادی می‌شود (آیا؟) با میانگین صفر و واریانس در ابعاد بالاتر کاهش می‌یابد $$\lim_{D\to\infty}\sigma^2(D) \به 0,$$ اما یک فرمول تقریبی صریح برای $\sigma^2(D)$ وجود دارد؟ **به روز رسانی** خوب، من چند شبیه سازی سریع اجرا کردم. اولاً، با ایجاد 10000 جفت بردار واحد تصادفی برای $D=1000$، به راحتی می توان دریافت که توزیع محصولات نقطه ای آنها کاملاً گوسی است (در واقع در حال حاضر کاملاً گاوسی برای $D=100$ است)، به نمودار فرعی مراجعه کنید. سمت چپ دوم، برای هر $D$ از 1 تا 10000 (با مراحل افزایش) من 1000 جفت ایجاد کردم و واریانس را محاسبه کردم. نمودار Log-log در سمت راست نشان داده شده است، و واضح است که فرمول به خوبی با $1/D$ تقریب دارد. توجه داشته باشید که برای $D=1$ و $D=2$ این فرمول حتی نتایج _exact_ را نیز می دهد (اما من مطمئن نیستم که بعدا چه اتفاقی می افتد). ![محصولات نقطه بین بردارهای واحد تصادفی](http://i.stack.imgur.com/hC3FM.png) چرا؟
توزیع محصولات نقطه بین دو بردار واحد تصادفی در $\mathbb{R}^D$
103077
من در حال حاضر با تجزیه و تحلیل رگرسیون بسیار لذت می برم، و منظورم از سرگرم کننده این است که به طور مکرر به خودم ضربه بزنم. من مجموعه ای از 200 نقطه داده دارم، با فیلتر کردن یک ویژگی مورد علاقه، در نهایت به 153 نقطه استفاده می رسم. من در ابتدا از این 153 نقطه برای ایجاد یک رگرسیون خطی با R${^2}$ عالی و نموداری از متغیرهای برازش شده در مقابل واقعی تقریباً یک قطر کامل استفاده کردم. عالیه با این حال، پیشنهاد شد که این ممکن است فقط یک مدل پیش‌بینی داخلی باشد (که همانطور که می‌دانم به این معنی است که مدل به جای عکس آن با داده‌ها مطابقت دارد). بنابراین، سپس این را امتحان کردم: من به طور تصادفی یک نمونه از 100 نتیجه از 153 نتیجه را انتخاب کردم، و همان مدل را ساختم، هنوز هم تناسب نسبتاً خوبی داشت. سپس از تابع پیش بینی در R برای پیش بینی نتیجه 53 رکورد دیگر استفاده کردم. خوب پیش نرفت. چیزی که من گرفتم یکی از 2 چیز بود. 1. پیش‌بینی‌ها اصلاً معنی نداشت، حتی در مقیاسی مشابه مقادیر واقعی. 2. بیشتر پیش‌بینی‌ها منطقی بودند (اگرچه خیلی دقیق نبودند) و یک یا دو پیش‌بینی در مقیاسی کاملاً متفاوت بودند (درجه‌های بزرگ‌تر یا کوچک‌تر). از آنجایی که مدلی که من برازش می کنم زمان را به عنوان متغیر پاسخ دارد، پیشنهاد شد که به جای رگرسیون خطی قدیمی از رگرسیون برازش گاما استفاده کنم. من این را امتحان کردم و اساساً به نتیجه رسیدم. بنابراین، آیا من از R به درستی استفاده می کنم، آیا گاما انتخاب خوبی برای این بود؟ من کاملاً مطمئن هستم که داده‌های من خوب هستند (غیر جانبدارانه) بنابراین اگر با وجود مدل خوب قادر به پیش‌بینی نباشم - آیا این به این معنی است که مدل من بی‌فایده است؟ من الان چند هفته است که روی این کار کار می کنم، و اگر بتوانم چیزی را نجات دهم خیلی خوب است. دستورات R که من استفاده کرده ام: modelSet<-sample(1:nrow(myData),100) modelData<-myData[modelSet,] predictData<-myData[-modelSet,] fit<-lm(time~(x1+x2 +x3+x4+x5+x6)^3، data=modelData) pred<-predict(fit, predictData) plot(predictData$time, pred) <- یک نمودار واقعاً مفید نیست fit2<-glm(time~(x1+x2+x3+x4+x5+x6)^3, data=modelData, family=Gamma) # با link=log too pred2<-predict(fit2, predictData) plot(predictData$time, pred2) <- نمودار کمتر مفیدی می دهد
مسائل مربوط به رگرسیون و پیش بینی
61065
من دو گروه (A و B) دارم که در روز 0 و روز 7 مشاهده شدند. در هر گروه 10 مشاهده وجود دارد. بنابراین 2 x 2 x 10 = 40 نتیجه در مجموعه داده من. من می خواهم بدانم که آیا فاکتور کنترل بین گروه A و B در طول هفته تأثیری داشته است یا خیر. از کدام آزمون آماری استفاده کنم؟
برای این کار از کدام تست استفاده کنم؟
85917
تا آنجا که من درک می کنم، در ANOVA کاملا متعادل (با هر تعداد فاکتور) که به عنوان مدل خطی کلی درک می شود، همه پیش بینی کننده های طبقه بندی شده (همه اثرات اصلی و همه تعاملات همه ردیف ها) متعامد هستند، که منجر به بسیاری از ویژگی های خوب مانند تجزیه منحصر به فرد می شود. واریانس متعامد بودن برای ANOVA یک طرفه با چندین سطح کاملاً واضح است (از روشی که کدگذاری ساختگی کار می کند) و برای ANOVA های سطح بالاتر نیز _نوعی_ واضح است، اما من دوست دارم یا یک اثبات رسمی یا شهودی ببینم، یا در حالت ایده آل، هر دو. من با رادرفورد، 2001، معرفی Anova و Ancova، رویکرد GLM (pdf) مشورت کردم، اما به طرز عجیبی نتوانستم این بحث را پیدا کنم.
چرا همه پیش بینی کننده های رگرسیون در ANOVA چند راهه متوازن متعامد هستند؟
89829
هنگام خلاصه کردن یک توزیع پیوسته یک بعدی (مثلاً یک توزیع خلفی) معمولاً از یک بازه دنباله دار مساوی (معروف به چندک) یا بازه بالاترین چگالی استفاده می شود. بازه دم مساوی 95% از نظر مفهومی با میانه مطابقت دارد زیرا وقتی پوشش بازه $\rightarrow 0\%$ بازه به میانه همگرا می شود. به همین ترتیب بازه بالاترین چگالی با حالت مطابقت دارد زیرا حالت نقطه بالاترین چگالی است. اما یکی دیگر از خلاصه نقاط محبوب توزیع پیوسته میانگین است و سوال من این است: **فاصله ای که با میانگین مطابقت دارد چیست؟** یعنی: * آن بازه را چه می نامند؟ * چگونه تعریف/محاسبه می شود؟ اگر کسی در مورد معمای نظری دارد که چرا میانگین یک روش واقعاً محبوب برای خلاصه کردن توزیع است در حالی که فاصله مربوطه به آن محبوبیتی ندارد (همانطور که تصور من است)، سپاسگزار خواهم بود!
چه بازه ای به میانگین مربوط می شود زیرا بازه دم مساوی به میانه و بیشترین بازه چگالی مربوط به مد است؟
103075
من سعی می کنم از یک ماتریس کوواریانس (که برای یک نقطه سه بعدی وجود دارد) یک بیضی خطا بسازم و سپس از نقاط xyz ثابت در این ناحیه نمونه برداری کنم. (این سوال جایگزین این سوال می شود.) کاری که من در حال حاضر انجام می دهم این است: 1) تجزیه Cholesky ماتریس کوواریانس را محاسبه کنید. 2) هر نقطه راس اولیه را به عنوان گاوسی با عرض 1 نمونه برداری کنید تا (x', y', z') ایجاد کنید. 4) این نتیجه را به ماتریسی از مقادیر میانگین اضافه کنید. برای افزودن برخی جزئیات دقیق تر، ماتریس کوواریانس نقطه اولیه به صورت زیر است: $ \begin{pmatrix} 10.0115 & -10.6835 & 5.18024 \\\ -10.6835 & 11.4009 & -5.52798 & -5.52798 & -5.52798 \\\\ 5.0115 & -5.1802 -5.52798 \\\\ 5.687 & -5.6. \\\ \end{pmatrix} $ سپس تجزیه Cholesky را محاسبه می‌کنم که عبارت است از: $ \begin{pmatrix} 3.164095& 0& 0\\\ -3.376478& 0.017131& 0\\\ 1.637195 & 0.001 - 9. \end{pmatrix} $ و نقطه xyz اولیه در (35.5361، -37.2661، 22.521) است. تولید سه عدد تصادفی از یک گاوسی با میانگین 0 و عرض 1 به دست آمد: -0.377495، -0.933623، 0.241011، و در این مرحله من کاملاً در مورد روش صحیح روشن نیستم. فرض من این است که درست است که ماتریس تجزیه Cholesky را در ماتریسی که حاوی نقاط گاوسی به طور تصادفی تولید شده است ضرب کنیم و سپس آن را به ماتریسی حاوی مقادیر اولیه اضافه کنیم. این به این شکل است: $ \begin{pmatrix} 35.5361& 0& 0\\\ 0& -37.2661& 0\\\ 0& 0& 22.521\\\ \end{pmatrix}+ \begin{pmatrix} 3.164095\\&0 \ -3.376478& 0.017131& 0\\\ 1.637195& -0.001619& 0.309921\\\ \end{pmatrix} \begin{pmatrix} -0.377495& 0& 0\\\ 0 & -0.933623 &\4 -0.933623 &\0. \end{pmatrix} $ که نتیجه آن عبارت است از: $ \begin{pmatrix} 34.3417�& 0& 0\\\ 0 & -37.281 & 0 \\\ 0 & 0 & 22.5957\\\ \end{pmatrix} $ و من قطعا می توانم باور کنم که یک نقطه xyz جدید در (34.3417,-37.281,22.5957) می‌تواند با آنچه من می‌خواهم ایجاد کنم سازگار باشد، اما هنوز کاملاً مطمئن نیستم که از رویه معتبری برای تولید آن پیروی کرده‌ام. هر گونه نظر بسیار قدردانی خواهد شد!
بیضوی تجزیه و اطمینان Cholesky
34926
**نسخه tl;dr** برای آموزش توزیع نمونه (مثلاً میانگین نمونه) در مقطع کارشناسی مقدماتی از چه استراتژی های موفقی استفاده می کنید؟ _**پیشینه_** در سپتامبر یک دوره آمار مقدماتی را برای دانشجویان سال دوم علوم اجتماعی (عمدتاً علوم سیاسی و جامعه شناسی) با استفاده از _The Basic Practice of Statistics_ توسط دیوید مور تدریس خواهم کرد. این پنجمین باری است که این درس را تدریس می‌کنم و یکی از مسائلی که دائماً با آن مواجه بوده‌ام این است که **دانشجویان واقعاً با مفهوم توزیع نمونه‌گیری مشکل داشته‌اند. این به عنوان پیش زمینه برای استنتاج پوشش داده شده است و به دنبال یک مقدمه اولیه برای احتمالات است که به نظر می رسد آنها پس از چند سکسکه اولیه مشکلی ندارند (و از ابتدایی، منظورم **پایه** است \-- بالاخره بسیاری از این دانش آموزان در یک جریان درسی خاص انتخاب شده‌اند، زیرا تلاش می‌کردند از هر چیزی حتی با اشاره مبهم «ریاضی» اجتناب کنند). من حدس می زنم که احتمالاً 60٪ بدون درک حداقلی دوره را ترک می کنند، حدود 25٪ اصل را می دانند اما ارتباط با مفاهیم دیگر را نمی دانند و 15٪ بقیه کاملاً می دانند. _**مشکل اصلی_** به نظر می رسد مشکلی که دانش آموزان دارند با برنامه است. توضیح اینکه مشکل دقیق چیست جز اینکه بگوییم آنها متوجه نمی شوند، دشوار است. از نظرسنجی ای که ترم گذشته انجام دادم و از پاسخ های امتحانی، فکر می کنم که بخشی از دشواری اشتباه بین دو عبارت مرتبط و مشابه (توزیع نمونه و توزیع نمونه) است، بنابراین از عبارت توزیع نمونه استفاده نمی کنم. دیگر، اما مطمئناً این چیزی است که در ابتدا گیج کننده است، اما با کمی تلاش به راحتی قابل درک است و به هر حال نمی تواند سردرگمی کلی مفهوم توزیع نمونه را توضیح دهد. (می‌دانم که ممکن است من و تدریس من در اینجا مورد بحث باشد! با این حال فکر می‌کنم نادیده گرفتن این امکان ناخوشایند منطقی است زیرا به نظر می‌رسد برخی از دانش‌آموزان آن را درک می‌کنند و در کل به نظر می‌رسد که همه خوب عمل می‌کنند...) _** آنچه من امتحان کردم_** مجبور شدم با مدیر مقطع کارشناسی در بخش خود بحث کنم تا جلسات اجباری را در آزمایشگاه کامپیوتر معرفی کنم و فکر کنم که تظاهرات مکرر ممکن است مفید باشد. (قبل از شروع تدریس این دوره هیچ محاسباتی در کار نبود). در حالی که فکر می‌کنم این به درک کلی مطالب درسی به طور کلی کمک می‌کند، فکر نمی‌کنم در این موضوع خاص کمکی کند. یکی از ایده های من این است که به سادگی به آن آموزش ندهم یا به آن اهمیت زیادی ندهم، موضعی که برخی از آنها (مثلاً اندرو گلمن) از آن حمایت می کنند. من این را به خصوص راضی کننده نمی دانم زیرا بوی آموزش به کمترین مخرج مشترک را دارد و مهمتر از آن دانش آموزان قوی و با انگیزه ای را که می خواهند در مورد کاربردهای آماری بیشتر بیاموزند از درک واقعی چگونگی کارکرد مفاهیم مهم (نه تنها توزیع نمونه) رد می کند! ). از سوی دیگر، به نظر می رسد که دانش آموز میانه برای مثال مقادیر p را درک می کند، بنابراین شاید به هر حال نیازی به درک توزیع نمونه نداشته باشد. _**سوال_** برای آموزش توزیع نمونه گیری از چه راهکارهایی استفاده می کنید؟ می‌دانم که مطالب و بحث‌هایی در دسترس است (مثلاً اینجا و اینجا و این مقاله که یک فایل پی‌دی‌اف را باز می‌کند) اما من فقط به این فکر می‌کنم که آیا می‌توانم نمونه‌های ملموسی از آنچه برای مردم کار می‌کند (یا حدس می‌زنم حتی چه چیزی کار نمی‌کند) داشته باشم. بنابراین من می دانم که آن را امتحان نکنم!). برنامه من در حال حاضر، همانطور که دوره خود را برای سپتامبر برنامه ریزی می کنم، این است که از توصیه های گلمن پیروی کنم و بر توزیع نمونه گیری تأکید کم داشته باشم. من آن را آموزش می دهم، اما به دانش آموزان اطمینان می دهم که این یک موضوع فقط اطلاعاتی است و در امتحان ظاهر نمی شود (به جز شاید به عنوان یک سوال اضافی؟!). با این حال، من واقعا علاقه مند به شنیدن روش های دیگری هستم که مردم استفاده کرده اند.
راهبردهای آموزش توزیع نمونه
103074
وقتی در R کار می‌کنم، هر بار که متغیر جدیدی ایجاد می‌کنم، سعی می‌کنم نام آن را ساده بگذارم تا به راحتی تایپ شود مانند «x1، x2، ...» یا «a1، a2، ...» گاهی اوقات از موقت استفاده می‌کنم. متغیرها با نام temp، و دوباره به ساخت متغیرهای temp1، temp2، ... ادامه می‌دهم. در نتیجه در نهایت من همه چیز را تا حدی به هم می ریزم که اگر بعد از چند روز به آن نگاه کنیم، درک داده ها غیرممکن است. آیا راه یا قانون آسانی برای ایجاد متغیرهای جدید و سازماندهی آنها وجود دارد؟
چگونه نام متغیرها را در R بدون بهم ریختگی سازماندهی کنیم؟
83201
من می خواهم روش تطبیق جفت خود را بر اساس این معیار ارزیابی آزمایش کنم اما مطمئن نیستم که چگونه این کار را انجام دهم؟ من فقط نمونه های تست مثبت (تطبیقی) دارم.
چگونه برای محاسبه نرخ تأیید در 0.001 FAR؟
103078
در آموزش یک شبکه عصبی برای یک کار طبقه‌بندی تصویر، آیا خوب است به جای انجام اعتبارسنجی متقاطع k-fold، تست مجموعه‌ای از تبدیل‌های افین را در زمانی که مجموعه داده کوچک است (~1000 تصویر) افزایش دهیم. افزایش مجموعه تمرینی یک عمل استاندارد برای کاهش بیش از حد برازش است، اما با K-fold CV بسیار پرهزینه است. اما در مورد افزایش مجموعه تست هم، پس من می توانم CV استاندارد را انجام دهم. (از مراجع مقالاتی که این روش را به کار می برند قدردانی کنید)
مجموعه تست تقویتی
103076
من برخی از یادگیری ماشین را به عنوان یک سرگرمی انجام می دهم و با مدل های Random Forest بازی می کنم و اساساً سعی می کنم آن را برای پیش بینی چیزهای زندگی خود به کار ببرم. بنابراین من یک سری داده محصول با مثلاً 60 بعد (که PCA به 5 فاکتور کاهش می یابد) بیش از 400 نقطه داده دارم. من چند مدل را اساساً با نمونه‌برداری از 200 نقطه داده تصادفی در یک زمان تولید می‌کنم و در نهایت دقت 60 درصدی را در حدس زدن قیمت 10 خوشه (0-10 دلار، 10-30 دلار، 300-500 دلار، و غیره) یک کالا دارم در یک بازار است بنابراین آنچه می خواهم بدانم: چگونه می توانم بهبود احتمالی دقت را در صورت داده شدن نقاط داده بیشتر بیان کنم؟ یا مفیدتر: برای حفظ سطح اطمینان بالا، مثلاً 95٪ یا X دلخواه، به چند نقطه داده نیاز دارم؟ (ویرایش: من برخی از متون قدیمی دانشگاه و ادبیات مربوط به سطح اطمینان را دوباره خواندم، اما مطمئن نیستم که به طور خاص برای مورد استفاده خود به کجا مراجعه کنم. ممکن است پیش فرض های بدی در مورد نحوه انجام این کار داشته باشم، زیرا سال هاست که ریاضی نکرده ام، پس لطفا اجازه دهید من می دانم که چگونه باید این را بازنویسی / تجدید نظر کنم!)
کمی سازی بهبود مدل با توجه به نمونه های X در ابعاد Y و دقت Z٪ در یک مدل جنگل تصادفی
15699
من سعی می کنم پایان نامه کارشناسی ارشد خود را در انگلستان به پایان برسانم و باید آن را در کمتر از 2 هفته ارسال کنم. بخشی از آن پیش بینی یک رگرسیون دو متغیره با استفاده از فیلتر کالمن است. این بر اساس خطوط پارامترهای متغیر زمان (TVP) خواهد بود به طوری که فیلتر کالمن اجازه می دهد پارامترها در نمونه داده تغییر کنند. معادله من بسیار ساده است: yt = a + bx1t + cx2t که در آن yt متغیر وابسته است. a = ثابت x1 = متغیر مستقل. b = ضریب برای x1. x2 = متغیر مستقل. c = ضریب برای x2. من سعی می کنم از فیلتر کالمن برای پیش بینی yt در قالب پارامترهای متغیر با زمان (TVP) استفاده کنم. من برخی از بسته ها و مقالات را مرور کرده ام اما مطمئن نیستم که چگونه برخی از آرگومان ها (FF، V، GG، W، m0، C0، dV و غیره) را برای دستورات بسته **dlm** پر کنم. (dlmFilter، dlmForecast). می‌دانم که در بسته **sspir**، **SS** و **kfilter** دستورات می‌توانند برای این مورد استفاده شوند. کسی قدم به قدم به من بگوید چگونه از این دستورات استفاده کنم. استدلال، برای داده های من لطفا. این برای پایان نامه کارشناسی ارشد من است و من در زمان کوتاهی هستم.
پیش بینی فیلتر کالمن
89064
من سعی می کنم یک مجموعه داده کوچک (حدود 500 رکورد) را به دو کلاس طبقه بندی کنم. من از روش های مختلفی مانند SVM، Naive Bayes و طبقه بندی کننده k-nn استفاده کردم. اکنون، می‌خواهم نتایج را از یکی از طبقه‌بندی‌کننده‌های پایه من تنظیم کنم و یک آزمون فرضیه آماری را انجام دهم. من با این رشته از آزمون های آماری آشنایی چندانی ندارم و در تعجبم که چگونه در این زمینه ادامه دهم. من به این فکر می کردم که طبقه بندی کننده SVM را به عنوان خط پایه خود تنظیم کنم، اما مطمئن نیستم که چگونه آزمون t (یا مشابه) را روی داده ها انجام دهم. مجموعه داده ورودی دارای 10 ویژگی است. آیا باید از نتایج طبقه بندی دو طبقه بندی کننده استفاده کنم و یک آزمون t زوجی روی آنها انجام دهم؟ برای مثال، من می‌توانم نتیجه را از Naive Bayes بگیرم و آزمون t زوجی را با نتایج SVM (که خط پایه است) انجام دهم. آیا این رویکرد درستی است؟ همچنین، من با توضیح فرضیه صفر و جایگزین گیج شده ام. آیا کسی می‌تواند در مورد چگونگی رفع فرضیه صفر و جایگزین ایده‌ای ارائه دهد.
نحوه انجام آزمون فرضیه برای مقایسه طبقه بندی کننده های مختلف
36165
آیا کسی می تواند توضیح دهد که چرا ما به تعداد زیادی درخت در جنگل تصادفی نیاز داریم در حالی که تعداد پیش بینی کننده ها زیاد است؟ چگونه می توانیم تعداد بهینه درختان را تعیین کنیم؟
آیا تعداد بهینه درختان در یک جنگل تصادفی به تعداد پیش بینی کننده ها بستگی دارد؟
15691
من می دانم که آنتروپی Tsallis($S_q$) غیر گسترده نامیده می شود به این معنا که اگر $P$ و $Q$ دو توزیع احتمال باشند، آنگاه $S_q(P\times Q)=S_q(P)+S_q(Q)+ (1-q)S_q(P)S_q(Q)$. آیا کسی می تواند توضیح دهد که منظور از آمار غیر گسترده یا مکانیک آماری غیر گسترده چیست؟ کمی جستجو کردم. من چیزی پیدا نکردم که به وضوح توضیح دهد. امیدوارم کسی در تبادل آمار بتواند آن را از نظر ریاضی توضیح دهد.
آمار غیر گسترده
6454
آیا می توان تنها دو مطالعه را متاآنالیز کرد؟ محدودیت چنین تحلیلی چه خواهد بود.
آیا می توان تنها دو مطالعه را متاآنالیز کرد؟
85913
من می‌خواهم یک DLM را با ضرایب متغییر زمان، یعنی یک پسوند به رگرسیون خطی معمولی، $y_t = \theta_1 + \theta_2x_2$، جا بدهم. من یک پیش بینی کننده ($x_2$) و یک متغیر پاسخ ($y_t$)، صید ماهی سالانه دریایی و داخلی به ترتیب از سال 1950 تا 2011 دارم. من می خواهم مدل رگرسیون DLM دنبال شود، $y_t = \theta_{t,1} + \theta_{t,2}x_t$ که در آن معادله تکامل سیستم $\theta_t = G_t است \theta_{t-1}$ از صفحه 43 مدل‌های خطی پویا با R توسط پتریس و همکاران. مقداری کدگذاری در اینجا، fishdata <- read.csv(http://dl.dropbox.com/s/4w0utkqdhqribl4/fishdata.csv, header=T) x <- fishdata$marinefao y <- fishdata$inlandfao lmodel <- lm(y ~ x) خلاصه (lmodel) نمودار (x, y) abline (lmodel) به وضوح ضرایب متغیر زمان مدل رگرسیون در اینجا مناسب تر است. من مثال او را از صفحات 121 - 125 دنبال می کنم و می خواهم این را در داده های خودم اعمال کنم. این کدنویسی از مثال ############ PAGE 123 need(dlm) capm <- read.table(http://shazam.econ.ubc.ca/intro/P.txt ، header=T) capm.ts <- ts(capm، start = c(1978, 1)، فرکانس = 12) colnames(capm) plot(capm.ts) IBM <- capm.ts[، IBM] - capm.ts[، RKFREE] x <- capm.ts[، MARKET] - capm.ts[، RKFREE] x plot(x) outLM <- lm(IBM ~ x) outLM$coef acf(outLM$res) qqnorm(outLM$res) sig <- var(outLM$res) sig mod <- dlmModReg(x,dV = sig, m0 = c(0, 1.5), C0 = diag(c(1e+07, 1))) outF <- dlmFilter(IBM, mod) outF$m نمودار(outF $m) outF$m[ 1 + طول (IBM)، ] ########## صفحات 124-125 buildCapm <- function(u){ dlmModReg(x، dV = exp(u[1])، dW = exp(u[2:3])) } outMLE <- dlmMLE(IBM، parm = rep(0،3) , buildCapm) exp(outMLE$par) outMLE outMLE$value mod <- buildCapm(outMLE$par) outS <- dlmSmooth(IBM, mod) plot(dropFirst(outS$s)) outS$s من می‌خواهم بتوانم تخمین‌های هموارسازی «plot(dropFirst(outS$s))» را برای داده‌های خودم ترسیم کنم، که در آن مشکل دارم اجرا کردن **به روز رسانی** اکنون می توانم این طرح ها را تولید کنم اما فکر نمی کنم درست باشند. fishdata <- read.csv(http://dl.dropbox.com/s/4w0utkqdhqribl4/fishdata.csv، header=T) x <- as.numeric(fishdata$marinefao) y <- as.numeric(fishdata $inlandfao) xts <- ts(x، start=c(1950،1)، فرکانس=1) xts yts <- ts(y, start=c(1950,1)، فرکانس=1) yts lmodel <- lm(yts ~ xts) #################### ########################### نیازمند(dlm) buildCapm <- function(u){ dlmModReg(xts، dV = exp(u[1])، dW = exp(u[2:3])) } outMLE <- dlmMLE(yts، parm = rep(0،3)، buildCapm) exp(outMLE$par ) outMLE$value mod <- buildCapm(outMLE$par) outS <- dlmSmooth(yts, mod) plot(dropFirst(outS$s)) > summary(outS$s); lmodel$coef V1 V2 Min. :87.67 دقیقه :1.445 1st Qu.:87.67 Qu. 1st:1.924 Median :87.67 Median :3.803 Mean :87.67 Mean :4.084 3rd Qu.:87.67 Qu. 3:6.244 Max. حداکثر :87.67 :7.853 (Intercept) xts 273858.30308 1.22505 برآورد هموارسازی رهگیری (V1) از ضریب رگرسیون lm فاصله زیادی دارد. من فکر می کنم آنها باید به یکدیگر نزدیک تر باشند.
برازش ضریب تغییر زمان DLM
111041
اجازه دهید $Y = \max\\{0,Y^*\\}$، که در آن $Y^*$ از توزیع پیوسته پیروی می کند. در مقاله ای که در حال خواندن آن هستم متوجه شدم که $$ f_{Y,Y^*}(Y, Y^*) = I(Y = Y^*)f_{Y^*}(Y^*), $$ که در آن $I(\cdot)$ یک تابع نشانگر است. من نمی دانم چگونه این عبارت را استخراج کنم. اگر از قانون بیز استفاده کنم، $$ f_{Y,Y^*}(Y, Y^*) = f_{Y|Y^*}(Y|Y^*)f_{Y^*}(Y) دریافت می کنم ^*)، $$ اما من نمی دانم چگونه با این شی برخورد کنم.
توزیع مشترک مختلط
15343
اگر کسی بخواهد با داده‌های نوع لیکرت یک نمونه استنتاج کند، از چه آزمون‌هایی می‌توان استفاده کرد؟ آزمون رتبه امضا شده؟
استنتاج با داده های تک نمونه ای از نوع لیکرت
15692
آیا کتاب های خوبی وجود دارد که مفاهیم مهم نظریه احتمال مانند توابع توزیع احتمال و توابع توزیع تجمعی را توضیح دهد؟ لطفاً از ارجاع کتاب‌هایی مانند «آمار ریاضی و تجزیه و تحلیل داده‌ها» نوشته جان رایس که با مفاهیم جایگشتی ساده شروع می‌شود و سپس ناگهان (در فصل دوم) با فرض دانش در تجزیه و تحلیل واقعی، انتگرال‌های چندگانه و سطحی جهش می‌کنند و شروع به توصیف CDFها و PDFها می‌کنند، خودداری کنید. آنها را در شکل های سه بعدی نشان می دهد. یکی مانده است که چگونه همه چیز وصل شده است. من به دنبال کتاب های خودآموز هستم و هر کتابی در همان دسته حساب حساب برای انسان عملی کمک بزرگی می کند؟
کتاب های نظریه احتمال برای خودآموزی
109767
من قصد داشتم از آزمون Tukey HSD برای داده های زیر استفاده کنم، زیرا در مطالعه ای با رویکرد مشابه مورد استفاده قرار گرفت. من داده های سهام را برای سه محدوده زمانی (داده های روزانه 1 ساله، داده های هفتگی 2 ساله، داده های ماهانه 8 ساله از امروز) پسرفت کردم و مقادیر (بتا و) آلفا را دریافت کردم. متغیر وابسته: بازده سهام S&P 500. متغیر مستقل: همیشه بازده یکی از 13 تراست سرمایه گذاری املاک هتل. بتا از بازده سهام REIT و S&P500 محاسبه می شود که برای محاسبه آلفای جنسن (بر اساس CAPM) استفاده می شود. پس از آن من یک ANOVA یک طرفه از آلفاها (در مجموع سه آلفا، یکی برای هر دوره زمانی) و سپس در نهایت تست Tukey HSD انجام می دهم. قرار است نشان دهد که آیا REITها در یکی از دوره ها به طور قابل توجهی بهتر عمل کردند. من مطمئن نیستم که اندازه نمونه من به طور خاص چقدر است (یا اینکه برابر است)، زیرا تعداد نقاط داده ای که در سه محدوده زمانی برای محاسبه آلفاها دارم متفاوت است، اگرچه تعداد شرکت ها به وضوح ثابت می ماند. آیا این منطقی است؟
مشکل اندازه نمونه با تست Tukey HSD
6453
من آزمایش‌هایی را بر روی گروهی از کاربران تحت دو شرط انجام داده‌ام، و مدت زمانی را که کاربران برای اتمام آزمایش‌هایشان صرف کردند، اندازه‌گیری کردم. من از یک طرح متقاطع استفاده کردم که در آن نیمی از کاربران در شرایط اول شروع کردند تا با حالت دوم به پایان برسند و نیمی دیگر از کاربران برعکس عمل کردند. من داده‌های ارائه شده در چند ANOVA مختلف را تجزیه و تحلیل می‌کنم و p-valueهای متفاوتی را برای فرضیه‌هایم پیدا می‌کنم. برخی زیر 0.05، برخی زیر 0.01، برخی بیش از 0.05 هستند. آیا باید یک سطح آلفا از اهمیت آماری را برای استفاده در تمام تجزیه و تحلیل خود تثبیت کنم، یا می توانم چیزی مانند فرضیه A در سطح آلفا 0.05 درست است، در حالی که فرضیه B در سطح آلفا 0.01 درست است گزارش کنم (بنابراین، احتمالاً یک دلیل قوی تر)'؟ نمی دانم اینجا به اندازه کافی شفاف هستم یا نه. به من اطلاع دهید و در صورت نیاز جزئیات را اضافه خواهم کرد. با تشکر
چگونه آستانه اعتبار آماری مقادیر p تولید شده توسط ANOVA را ثابت کنیم؟
87450
من داده هایی در مورد فراوانی خسارت و چندین پیش بینی کننده مانند سن، جنسیت شخص بیمه شده و ویژگی وسیله نقلیه دارم. من فرض میانگین برابر با واریانس یک مدل پواسون را بررسی کردم. اکنون می خواهم چند خطی بودن و هموسداستیتی بودن را آزمایش کنم. چگونه باید اقدام کنم تا با استفاده از مدل رگرسیون پواسون، مدل مناسبی را انتخاب و برازش کنم؟
مراحل لازم برای انتخاب مدل مناسب برای رگرسیون پواسون