_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
37474 | این سوال ممکن است مستقیماً با آمار مرتبط نباشد، اما با این وجود، از آنجایی که بسیاری از افراد در اینجا با تجسم دادهها سروکار دارند، میخواهم بپرسم که آیا کسی از شما از ابزار خاصی برای تجسم دادهها استفاده میکند یا میتواند منابعی را برای ایجاد جلوههای ویژه با دادهها توصیه کند. در اینجا یک ویدیو نمونه با برخی موارد احتمالی وجود دارد با تشکر از شما! | نرم افزار برای تجسم پیشرفته |
37476 | در رویکرد نمودار فاز تجربی، دادهها توسط مجموعه ${\boldsymbol X}$ از متغیرهای ورودی (کنترلشده) (مانند pH و دما) و مجموعه ${\boldsymbol Y}$ از متغیرهای خروجی داده میشوند. هدف نمودار فاز تجربی تجسم (حداقل، تقریباً) رابطه بین ورودی و خروجی است. در صورتی که فقط دو متغیر ورودی وجود داشته باشد، استراتژی به صورت زیر اجرا می شود: * ابتدا ورودی ${\boldsymbol X}$ را نادیده می گیریم و یک PCA را روی ${\boldsymbol Y}$ اجرا می کنیم * سه جزء اصلی اول را حفظ می کنیم * تبدیل می کنیم. سه مختصات روی مولفه های اصلی با استفاده از کدگذاری قرمز-سبز-آبی به یک رنگ تبدیل می شوند * رنگ را در تابع دو متغیر ورودی رسم می کنیم و تصور کنید که من نسبتاً جدید هستم تجزیه و تحلیل PCA (پس لطفاً دریغ نکنید که اگر سؤالات من احمقانه است) بگویید. من می دانم که PCA وقتی با نمونه i.i.d اعمال شود، تفسیر بهتری دارد. متغیرهای عادی چند متغیره تصادفی اما نمیدانم وقتی این فرض صادق نیست، چه مشکلاتی وجود دارد. برای مثال یک مدل رگرسیون چند متغیره را فرض کنید که برای آن توزیع یک پاسخ چند متغیره ${\boldsymbol Y}$ به صورت زیر فرض میشود: $${\boldsymbol Y}_i = f({\boldsymbol X}_i) + \epsilon_i \ quad \textrm{با } \epsilon_i \sim {\cal N}({\boldsymbol 0}، \Sigma).$$ من فکر میکنم در چنین شرایطی در حالت ایدهآل باید PCA را روی پاسخهای متمرکز ${\boldsymbol Y}_i - \hat{f}({\boldsymbol X}_i)$ اجرا کنیم. بنابراین اگر استراتژی فوق را در چنین شرایطی اجرا کنیم، چه مشکلات احتمالی وجود دارد؟ | PCA بر روی دادههای چند عادی مستقل اما غیر یکسان توزیع شده است |
57556 | من یک مجموعه داده از داده های طبقه بندی دارم که هر سوال می تواند بیش از یک پاسخ داشته باشد. این یک نمونه اسباب بازی است: سوال اول: امروز چه خوردید؟ موضوع 1 : سیب زمینی ، سیب موضوع 2 : سیب موضوع 3 : عسل ، سیب زمینی ، سیب سوال دوم: کدام برنامه های تلویزیونی را تماشا می کنید؟ موضوع 1 : هاوس، دکستر موضوع 2: TWD، دکستر موضوع 3: اخباری که من نیاز دارم برای سنجش شباهت، به عنوان مثال، distfun (سیب زمینی و سیب، عسل و سیب) به دست بیاورم. من فکر نمی کنم که معیارهای تحلیل طبقه بندی چند متغیره معمولی با این نوع پاسخ ها سروکار داشته باشند. آیا کسی میتواند با ارجاع من به مقاله توضیحی که میداند، در مورد اینکه چه معیارهایی استفاده میشود، توضیح دهد؟ پیشاپیش تشکر ویرایش: 1.- ترتیب پاسخ ها مهم نیست. 2.- من فقط به دنبال راهی برای حل مشکل در اسرع وقت با استفاده از نسخه اصلاح شده فاصله همپوشانی که برای داده های دسته بندی چند متغیره استفاده می شود نیستم، بلکه به دنبال یافتن چارچوبی هستم که با این نوع موارد سروکار دارد. با تشکر از پاسخ های شما | اندازه گیری فاصله برای پاسخ های چند طبقه ای |
104875 | من یک سوال سریع در مورد قضیه حد مرکزی دارم. فرض کنید مقداری را اندازه گیری می کنم که از توزیع دلخواه N بار می آید و این M بار را تکرار می کنم. میدانم که اگر میانگین را از مقادیر N محاسبه کنم، مجموعهای از مقادیر M خواهم داشت که از توزیع نرمال پیروی میکنند. اما اگر من انحراف استاندارد نمونه را از N اندازه گیری کنم، آیا توزیع حاصله من نیز نرمال خواهد بود؟ پس از اشتقاق CLT، من این را نمی بینم، اما به طور شهودی فکر می کنم که حداقل برای برخی از توزیع ها این درست است. هر گونه نور در مورد این موضوع بسیار قدردانی می شود. ابتدا CLT را از ویکی نقل می کنم: > قضیه حد مرکزی (CLT) بیان می کند که، با توجه به شرایط خاص، > میانگین حسابی تعداد بسیار زیادی از تکرارهای مستقل > متغیرهای تصادفی، که هر کدام دارای یک مقدار مورد انتظار کاملاً تعریف شده هستند و به خوبی تعریف شده > واریانس، تقریباً به طور معمول توزیع شود. پس سوال من یک نوع نقل قول از صفحه ویکی است: آیا قضیه حد مرکزی (CLT) بیان می کند که با توجه به شرایط خاص، انحراف استاندارد تعداد به اندازه کافی زیاد از متغیرهای تصادفی مستقل، که هر کدام دارای یک مقدار خوب هستند. مقدار مورد انتظار تعریف شده و واریانس کاملاً تعریف شده، تقریباً به طور معمول توزیع می شود؟ در اینجا مجموعه ای از نمودارهایی است که من از اعداد تصادفی که از توزیع بتا پیروی می کنند ساخته ام. من 1000 مجموعه 5000 امتیازی ایجاد کرده ام. نمودار اول، هیستوگرام مجموعه اول است. دومی هیستوگرام 1000 میانگین محاسبه شده است و 3 هیستوگرام 1000 std محاسبه شده است.    | سوال در مورد قضیه انحراف معیار و حد مرکزی |
104630 | از هر کمکی که ممکن است ارائه دهید متشکرم من دادههایی دارم که در آن گروهها متقاطع شدهاند، نه تودرتو. هر بازیکن به مجموعه ای از موارد مشابه پاسخ می دهد. در MIXED، من به هر بازیکن و هر آیتم یک وقفه جداگانه می دهم -- اما نه به هر ترکیبی از آنها -- با استفاده از دو خط فرمان جداگانه /RANDOM=INTERCEPT | SUBJECT(مورد) COVTYPE(ID) /RANDOM=INTERCEPT | SUBJECT(player) COVTYPE(ID) اکنون می خواهم این کار را در GENLINMIXED انجام دهم و نمی توانم ببینم چگونه. به نظر می رسد که گزینه DATA RUCTURE نیاز به تودرتو بودن داده ها دارد. به عنوان یک آزمایش، من فقط این را نادیده گرفتم و دو خط جداگانه قابل مقایسه را مانند بالا نوشتم. اما نتایج یکسان نیست. آیا این کار در GENLINMIXED امکان پذیر است؟ دلیلی وجود دارد که در MIXED امکان پذیر است اما در GENLINMIXED امکان پذیر نیست؟ خیلی ممنون از هر کمکی!! | SPSS GENLINMIXED برای گروه های متقاطع |
37477 | آیا هنگام مقایسه برخی از الگوریتمهای خوشهبندی با استفاده از بسیاری از معیارهای ارزیابی بدون نظارت به جای یک روش نظارت شده، میتوان عملکردهای ارزیابی یکسانی داشت؟ | آیا اقدامات ارزیابی بدون نظارت برای خوشه بندی می تواند جایگزین معیار ارزیابی نظارت شده شود؟ |
68291 | من می دانم که یک سری روش های تشخیص رگرسیون (همبستگی، بتا، باقیمانده، و غیره) قبل، در طول و بعد از تجزیه و تحلیل رگرسیون وجود دارد. اما، آیا رویه معمولی برای تجزیه و تحلیل خوشه ای (مانند وارد) وجود دارد؟ دستورات R چیست؟ با تشکر | آیا استفاده از متغیرهای همبسته برای تحلیل خوشه ای مشکلی ندارد؟ |
105326 | در محاسبه Forward Backward Algorithm[http://en.wikipedia.org/wiki/Forward%E2%80%93backward_algorithm]، به نظر می رسد که آنها در حال محاسبه عقبی هستند. می دانستم Forward Backward یک الگوریتم از خانواده Expectation-Maximization (EM) است و به طور کلی بر روی مراحل Expectation و Maximization تکرار می شود تا همگرا شوند. آیا نتیجه قبلی یکسان است، یا این یک روش استاندارد برای جایگزینی تکرار است یا چیزی برای فهمیدن از دست داده ام؟ اگر یکی از اعضای محترم ممکن است مرا راهنمایی کند. پیشاپیش از شما متشکرم، با احترام، سابهابراتا بانرجی. | حاشیه خلفی در جلو به عقب |
2035 | اگر $X_i\sim\Gamma(\alpha_i,\beta_i)$ برای $1\leq i\leq n$، اجازه دهید $Y = \sum_{i=1}^n c_iX_i$ که در آن $c_i$ اعداد حقیقی مثبت هستند. فرض کنید همه پارامترهای $\alpha_i$ و $\beta_i$ همگی شناخته شده باشند، توزیع $Y$ چیست؟ | توزیع ترکیب خطی متغیرهای تصادفی گاما |
38268 |  این صفحه ای از کتاب جبر خطی، ژئودزی و جی پی اس نوشته گیلبرت استرنگ است. این صفحه در مورد توجیه معکوس ماتریس واریانس-کوواریانس بردار اندازه گیری $b$ در سیستم بیش از حد تعیین شده $Ax = b$ به عنوان بهترین ماتریس وزن برای بهترین تخمین x توضیح می دهد. 1. خط مربوط به خطاهای ... موجود در ماتریس (با خط آبی) به چه معناست؟ 2. چگونه این تعویض انجام می شود که با یک منحنی آبی مشخص شده است... 3. آیا $E[rr^T] = E[bb^T]$ ?? هر توضیحی پذیرفته میشود... | شک در ماتریس کوواریانس در تخمین حداقل مربعات وزنی |
37473 | با مطالعه موضوعات کاهش ابعاد غیرخطی، با یک توزیع نعل اسبی یا پدیده های نعل اسبی مواجه شدم. شکل (ب) [منبع، ص. 12] نشان دهنده توزیع نعل اسب در زیر آمده است.  من ایده خوبی برای شبیه سازی این نوع توزیع ندارم. پیشاپیش برای هر نکته ای متشکرم | توزیع نعل اسب |
79842 | اجازه دهید $A,B$ نرمال استاندارد مستقل. $E(A^2|A+B)$ چیست؟ موارد زیر خوب است؟ $A,B$ iid و از این رو $(A^2,A+B),(B^2,A+B)$ iid. بنابراین، برای هر مجموعه قابل اندازه گیری $A+B$، $M$ و بنابراین، $E(A^2|A+B) = E(B^2) داریم $\int_M A^2 dP = \int_M B^2 dP$ |A+B)$. $2 \cdot E(A^2|A+B) = E(A^2|A+B) + E(B^2|A+B) = E(A^2+B^2|A+) بدست می آوریم B) = A^2+B^2$ که در آن آخرین معادله برقرار است زیرا $A^2+B^2$ $A+B$-قابل اندازه گیری است. در نهایت $E(A^2|A+B) = \frac{A^2+B^2}{2}$ داریم. | انتظار شرطی مجذور استاندارد عادی |
37470 | من سعی میکنم از نرمافزاری استفاده کنم که دارای تابع آمار Ipop Oden برای آزمایش همبستگی خودکار فضایی تنظیم شده برای جمعیت است. ترجیح می دهم بدانم آیا چیزی به صورت رایگان در دسترس است یا خیر. تو اینترنت سرچ کردم متاسفانه چیزی پیدا نکردم. من یک گزینه برای این دارم، این است که من از «R» استفاده کنم و با استفاده از فرمول آن، تابعی از آمار Ipop Oden را ایجاد کنم. اما فقط در صورتی که کسی نرم افزار رایگانی برای Oden's Ipop بداند، برای مطالعه تحقیقاتی من برای من مفید خواهد بود. | آیا نرم افزار رایگانی برای Oden's Ipop وجود دارد؟ |
92750 | من به مقادیر U آزمون Mann-Whitney نیاز دارم، اما wilcox.test در R فقط مقادیر W را خروجی می دهد. من فکر نمی کنم آنها یکسان باشند، بنابراین سوال من اینجاست - چگونه W را به U تبدیل کنیم؟ | چگونه خروجی مقدار W Wilcox.test را برای دو گروه مستقل به U در R تبدیل کنیم؟ |
4843 | راه استاندارد برای محاسبه کاپا برای یک مدل طبقه بندی پیش بینی کننده (ویتن و فرانک صفحه 163) این است که ماتریس سردرگمی تصادفی را به گونه ای بسازید که تعداد پیش بینی های هر کلاس با مدل پیش بینی شده یکسان باشد. برای یک تصویر بصری، (سمت راست تصادفی است):  آیا کسی می داند که چرا این مورد است، به جای ایجاد تصادفی واقعی ماتریس سردرگمی که در آن احتمالات قبلی تعداد پیشبینیها را برای هر کلاس هدایت میکنند. به نظر می رسد این مقایسه دقیق تر در برابر مدل تهی باشد. به عنوان مثال، در این مورد، تعداد کلاس های واقعی و پیش بینی شده مطابقت دارند (در تصویر آپلود شده، این بدان معنی است که ستون های ماتریس سردرگمی تصادفی به ترتیب 100، 60 و 40 خواهند بود). با تشکر بی ماینر | کاپا برای مدل پیش بینی |
22836 | > **تکراری احتمالی:** > محاسبه صدک توزیع نرمال ویرایش: من فکر می کنم اشاره تبدیل Box-Muller است. هر ایده ای؟ من سعی می کنم معکوس CDF معمولی را پیدا کنم. این CDF معمولی است که من دقیقاً از ویکی دریافت کردم، $\Phi (x)=\frac{1}{\sqrt{2\pi}}\int\limits_{-\infty }^{x}{{{e}^ {-{{t}^{2}}/2}}}dt=\frac{1}{2}\left[ 1+erf\left( \frac{x}{\sqrt{2}} \right) \راست]$. این CDF log-normal است، ${{F}_{x}}(x;\mu ,\sigma )=\frac{1}{2}erfc\left[ -\frac{\ln x-\mu }{\sigma \sqrt{2}} \right]=\Phi \left( \frac{\ln x-\mu }{\sigma } \right)$. به من گفتند راه آسانی برای استفاده از رادیان وجود دارد، اما نمی دانم چگونه. هر متخصصی می داند؟ من این را دیده ام: http://home.online.no/~pjacklam/notes/invnorm/ این بخشی از تبدیل معکوس است که من انجام می دهم. R یا Java استفاده خواهد شد، یک فرمول صریح به اندازه کافی مفید خواهد بود | چگونه برای توزیع نرمال و معکوس CDF log-normal حل/محاسبه کنیم؟ |
113231 | آیا راهی برای تخمین مقدار داده (یا تعداد رکوردها) مورد نیاز برای ساخت یک مدل آماری وجود دارد؟ من چند وبلاگ را می خوانم و احساس می کنم که اکثر پاسخ ها موافق هستند که هیچ راهی وجود ندارد یا پیش بینی حجم نمونه برای یک برنامه بسیار دشوار است. یک وبلاگ 10 برابر تعداد کل ویژگی ها را درخواست می کند، اگر از نسخه منظم مدل ML استفاده کنم کمتر. به نظر می رسد حجم نمونه 50 حداقل باشد. یک روش پیشنهاد می کند که مدل را بسازید و خطای تعمیم را بررسی کنید. اگر خطا غیرقابل قبول است، داده های بیشتری جمع آوری کرده و تکرار کنید. با توجه به اینکه جمع آوری داده ها برای برنامه من زمان بر و بسیار پرهزینه است، چه گزینه هایی در سازمان کسب و کار با محدودیت زمانی دارم؟ | چگونه می توان مقدار داده های مورد نیاز برای مدل سازی را پیش بینی کرد؟ |
113230 | من باید اعداد تصادفی را به دنبال توزیع عادی در بازه $(a,b)$ تولید کنم. من می دانم که تابع rnorm(n,mean,sd) اعداد تصادفی را به دنبال توزیع عادی تولید می کند، اما چگونه می توان محدودیت های بازه را در آن تنظیم کرد؟ آیا توابع R خاصی برای آن موجود است؟ | اعداد تصادفی را به دنبال توزیع در یک بازه در R ایجاد کنید |
71690 | من دوست دارم فرمول محاسبه حداقل حجم نمونه مورد نیاز برای یک مطالعه تطبیقی شامل 2 گروه با اندازه نابرابر را بدانم. گروه 1 10 برابر بزرگتر از گروه 2 است. | تعیین حجم نمونه برای یک مطالعه تطبیقی شامل دو گروه نابرابر |
4840 | دوست من یک شیمیدان است و مشکل او پیش بینی سطح غلظت ازن در یک سایت است. ما داده های 12 سال گذشته را داریم. ما می خواهیم غلظت را برای سال های آینده (تا حد امکان) پیش بینی کنیم. من می دانم که این مجموعه داده کوچک است، بنابراین سوال من این است که آیا این امکان وجود دارد؟ و در غیر این صورت چقدر داده مورد نیاز است؟ ابزار/روش مورد استفاده چیست؟ در اینجا نموداری از داده های من است:  آیا پیشنهادی/ کمکی دارید؟ | چگونه غلظت ازن را در چند سال پیش بینی کنیم؟ |
70520 | من کار زبان شناسی انجام می دهم و سعی می کنم اندازه ای از تنوع زبانی در یک متن داشته باشم. به نظر می رسد یک محاسبه ساده یکنواختی زبانی (یا تنوع) = تعداد کلمات / کلمات منحصر به فرد است، اما این باید به متون کوتاهتر مانند شعر برای تنوع امتیاز بدهد، زیرا نویسنده کمتر احتمال دارد که خود را در یک فضای کوتاه تکرار کند. به عنوان مثال، شعر بلیک نمره 5 می گیرد، در حالی که انجیل KJV امتیاز 79 را می گیرد و این ارتباط زیادی با اندازه کتاب مقدس در مقایسه با شعر بلیک دارد. اگر تعداد بیشتری از پیکره بلیکز را آنالیز کنیم، قطعاً امتیاز او بالاتر خواهد رفت. چگونه می توانم محاسبه را عادی کنم، با در نظر گرفتن تکرار اجتناب ناپذیری که با متون طولانی تر همراه است، و این واقعیت که متون کوتاه تر آنقدر کوچک هستند که ما بخش قابل توجهی از واژگان یک نویسنده را ندیده ایم؟ من می دانم که یک نام برای این وجود دارد، فقط نمی توانم به یاد بیاورم که چیست. من به مقاله ویکی در مورد شاخص تنوع نگاه کردم اما به من کمک نکرد. | محاسبه تنوع زبانی یک متن با توجه به اندازه |
108983 | من با ARIMA تازه کار هستم و سعی می کنم این طرح های تاخیر را درک کنم. آیا ACF و PACF زیر نشان می دهد که تاخیر سری زمانی من 4 است؟ اگر اشتباه می کنم، لطفا به من کمک کنید تا این توطئه ها را درک کنم. >  | تجزیه و تحلیل نمودار ACF و PACF |
4844 | من یک سری اطلاعات دارم که با رانندگی تصادفی یک ماشین جمع آوری شده است. هر دقیقه یک نقطه داده جمع آوری می شود و هر نقطه داده یا بله یا خیر است. بله = دما بالای یک آستانه است، خیر = زیر آستانه است. فرض کنید ماشین هرگز متوقف نمی شود. من به نسبت بله و فواصل اطمینان مرتبط علاقه دارم. من تمایل به استفاده از فواصل اطمینان دو جمله ای دارم با این تفاوت که به نظر من نقاط داده مستقل نیستند. آیا این واقعیت که دادهها با رانندگی تصادفی جمعآوری شدهاند باعث استقلال من میشود؟ چگونه می توانم فواصل اطمینان معنی دار را بدست بیاورم؟ | فاصله اطمینان بر اساس سری های زمانی |
104877 | من روی مشکل طبقه بندی چند کلاسه کار می کنم (دقیقاً 4 کلاس). من می خواهم از ساده ترین روش برای این مشکل استفاده کنم: یک در مقابل همه! من 4 مجموعه تست مختلف دارم (فقط برچسب ها متفاوت هستند). با استفاده از رویکرد یک در مقابل همه، در طول آزمایش، برای هر الگوی ورودی، باید 4 مقدار تابع هدف مختلف را از 4 SMV مختلف محاسبه کنم. بنابراین، الگو به کلاسی با بیشترین مقدار تابع هدف تعلق دارد. بنابراین، این را امتحان کردم: ./svm-train -s 0 -t 5 -c 16 -g 0.05 -b 1 'traindata' ./svm-predict -b 1 'testdata' 'traindata.model' 'outfile' I' در مورد میانگین پارامتر **b** مطمئن نیستم. با باز کردن فایل 'outfile' تولید شده از svm-predict، مقادیر احتمالی را دریافت می کنم. من تصور می کنم که با مقایسه این مقادیر احتمالی بین تمام SVM ها، می توانم هر الگوی را در کلاس با بیشترین مقدار احتمالی طبقه بندی کنم. فرض من درست است؟ به عبارت دیگر، من می خواهم مطمئن باشم که این مقادیر احتمالی با مقادیر تابع هدف نسبی نسبت مستقیم دارند. | رویکرد One vs All برای چند طبقه بندی در LIBSVM |
70526 | من می دانم که این سوال قبلا پرسیده شده بود: کتاب مرجع برای مطالعات اکولوژیکی اما این چیزی نیست که من دنبال آن هستم. آنچه من به دنبال آن هستم این است که آیا کسی می تواند یک کتاب خوب (یا یک مرجع متعارف) در مورد بوم شناسی آماری را توصیه کند؟ من درک بسیار خوبی از آمار دارم، بنابراین کتاب واقعاً می تواند در هر سطحی باشد. من از این کتاب برای آموزش بیشتر در مورد کاربرد آمار در بوم شناسی بیش از هر چیز دیگری استفاده می کنم، بنابراین حتی یک کتاب مقدماتی با مثال های خوب/جالب بسیار قدردانی خواهد شد. همچنین، تحقیقات من به سمت آمار بیزی گرایش دارد، بنابراین کتابی که آمار بیزی را در خود جای دهد حتی بهتر است! | کتاب های اکولوژی آماری؟ |
2032 | چه مطالب آموزشی را برای یک فرد CS / آماردان تازه کار / ریاضیدان تازه کار پیشنهاد می کنید تا وارد تجزیه و تحلیل پیش بینی شود؟ | چند کتاب/مقاله/راهنما را برای ورود به تجزیه و تحلیل پیش بینی توصیه می کنید؟ |
76288 | متغیر وابسته من متغیر پیوسته است که موفقیت (بالقوه) یک فرد را در برخی فعالیت ها اندازه گیری می کند. من صدها شاخص باینری دارم که هر کدام نشان دهنده وجود یک رفتار یا ویژگی مفید خاص است (مثلاً فرد معمولاً قبل از ساعت 8 صبح از خواب بیدار می شود). هر یک از این شاخص ها هم از لحاظ نظری و هم از نظر تجربی به طور مثبت با نتیجه مرتبط هستند (اگرچه برخی از تفاوت های تجربی ناچیز هستند). البته که شاخص ها همبستگی دارند. وظیفه من یافتن زیرمجموعه ای از 10 تا 20 شاخص است که بهترین نتیجه را پیش بینی می کند. در حالت ایدهآل، چیزی که من میخواهم داشته باشم زیرمجموعهای از شاخصها است که از آن یک متغیر منفرد - تعداد شاخصهای مثبت از آن زیرمجموعه برای یک فرد، میسازم و آرزو میکنم که این متغیر بالاترین همبستگی ممکن را با نتیجه داشته باشد. کاری که من در ابتدا انجام دادم یک رگرسیون خطی با همه شاخصها بود. این ضرایب منفی زیادی به من داد (که از نظر ریاضی منطقی است، اما آنطور که شما انتظار دارید هر متغیری چیزی را کمک کند، شهودی نیست) و کمکی نکرد. در انتخاب زیر مجموعه بسیار زیاد است. من همچنین نوعی بهینه سازی الگوریتم ژنتیک را امتحان کرده ام تا به من در انتخاب چنین زیر مجموعه ای کمک کند. این کمک کرد، اما احساس میکنم که برخی از روشهای آماری را برای انجام آن گم کردهام (شاید PCA؟)، و خوشحال میشوم که هر گونه سرنخ/مرجع/پیشنهاد در مورد نزدیک شدن به این مشکل، که به نظر میرسد یک مشکل انتخاب مدل است، دریافت کنم. هر ایده ای؟ با تشکر | یافتن یک زیر گروه بهینه از شاخص های باینری |
108987 | من باید مشابه آزمایش کروسکال-والیس را انجام دهم، اما برای یک بردار چند بعدی. لطفاً لطفاً چنین نوع آزمایشی را پیشنهاد دهید یا برخی از منابع برای موارد N-dimensional ارائه دهید | تست مشابه آزمون کروسکال-والیس اما برای بردار چند بعدی |
71699 | من از scikit-learn برای یک نمونه کوچک (36) مسئله طبقه بندی با سه ویژگی و سه خروجی استفاده می کنم (یک خروجی باینری و دو خروجی سه تایی هستند). من از طبقهبندیکنندههای جداگانه برای هر خروجی استفاده میکنم و نرخهای طبقهبندی معقولی را برای دو خروجی به دست میآورم، اما یکی دیگر که یک مشکل 3 کلاسه است، افتضاح است. من طبقهبندیکنندههای مختلفی را امتحان کردهام (SVM، جنگل تصادفی، رگرسیون لجستیک، خلیجهای سادهلوح)، و با استفاده از اعتبارسنجی متقاطع ترک یکاون، نرخ طبقهبندی بین ۰ تا ۳۳ درصد در نوسان است (این فقط زمانی اتفاق میافتد که طبقهبندیکننده همیشه خروجی بدهد. همان کلاس). چیزی که من نمیفهمم این است که چگونه ممکن است طبقهبندیکننده به نرخ پایینتری دست یابد که به طور تصادفی انتظار میرود. یک آزمایش فکری میگوید که وقتی به نرخ طبقهبندی 0% دست مییابد، میتوانم کلاس پیشبینیشده را نادیده بگیرم و بهطور تصادفی بین دو مورد دیگر انتخاب کنم و به نرخ طبقهبندی 50 درصد برسم که بهتر از شانس است. چرا این به طور خودکار اتفاق نمی افتد؟ | نرخ طبقه بندی کمتر از حد انتظار |
14165 | منظور از درجه تعامل یا درجه تعامل در مدل MARS دقیقا چیست؟ به عنوان مثال R: `زمین (...، درجه = 2)` | تعریف درجه تعامل در مدل MARS |
70528 | بر اساس اطلاعات زیر، چگونه می توانم تغییر مورد انتظار در نمرات آزمون برای مردان و زنان را محاسبه کنم؟ این شرکت تصمیم میگیرد تفاوتهای عملکردی را بین جنسیتها آزمایش کند. برای انجام این کار، آنها یک رگرسیون اجرا می کنند و نتایج زیر را به دست می آورند: تغییر پیش بینی شده در امتیاز = 3 + 0.25* Female R2 = 0.7 Female متغیری است که مقدار آن $1$ برای زنان و $0$ برای مردان است. آماره t روی ثابت 10 دلار و آمار t در ضریب برای زن 9/0 دلار است. شرکت انتخاب می کند که از سطح اهمیت 5\%$ دلار استفاده کند. کلاس بسیار بزرگ است، بیش از 30 دلار برای دانشجویان. | چگونه تغییر مورد انتظار را محاسبه کنم؟ |
71691 | در مدل سلسله مراتبی داده $y$ که در آن $$y \sim \textrm{Poisson}(\lambda)$$ $$\lambda \sim \textrm{Gamma}(\alpha, \beta)$$ به نظر میرسد در عمل، معمولاً مقادیر ($\alpha، \beta)$ را انتخاب میکنیم به طوری که میانگین و واریانس توزیع گاما تقریباً با میانگین و واریانس داده $y$ مطابقت دارد. (به عنوان مثال، کلایتون و کالدور، 1987 تخمین تجربی بیز از خطرات نسبی استاندارد شده با سن برای نقشه برداری بیماری، _ بیومتریک_ ). واضح است که این فقط یک راه حل _ad hoc_ است، اما، زیرا اعتماد محقق را به پارامترهای $(\alpha، \beta)$ بیش از حد بیان می کند و نوسانات کوچک در داده های تحقق یافته می تواند پیامدهای بزرگی برای چگالی گاما داشته باشد، حتی اگر - فرآیند تولید داده ها یکسان باقی می ماند. علاوه بر این، گلمن در _تجزیه و تحلیل داده های بیزی_ (ویرایش دوم) می نویسد که این روش درهم و برهم است. در کتاب و این مقاله (شروع صفحه 3232)، او به جای آن پیشنهاد میکند که مقداری چگالی فوققدیمی $p(\alpha, \beta)$ باید انتخاب شود، به روشی شبیه به مثال تومورهای موش (شروع صفحه 130). اگرچه واضح است که هر $p(\alpha، \beta)$ تا زمانی که چگالی خلفی محدودی ایجاد کند قابل قبول است، من هیچ نمونه ای از چگالی های فوق پیشین که محققان در گذشته برای این مشکل استفاده کرده باشند، پیدا نکردم. اگر کسی بتواند کتاب ها یا مقالاتی را به من معرفی کند که از چگالی فوق پیشین برای تخمین مدل پواسون-گاما استفاده کرده اند بسیار سپاسگزارم. در حالت ایدهآل، من به $p(\alpha، \beta)$ علاقهمندم که نسبتاً مسطح است و مانند نمونه تومور موشها تحت سلطه دادهها قرار میگیرد، یا بحثی در مورد مقایسه چندین مشخصات جایگزین و مبادلات مرتبط با هر یک. | چگالی بیش از پیش برای مدل سلسله مراتبی گاما پواسون |
108988 | من دو مدل از دو مجموعه داده متفاوت دارم. مدل 1 شامل 50 ویژگی و مدل 2 شامل 40 ویژگی است. تقاطع ویژگی های مدل 1 و 2 10 است. پس چگونه می توانم اهمیت نسبی ویژگی هایی را که از تلاقی دو مدل حاصل می شود ارزیابی کنم؟ | چگونه می توان اهمیت ویژگی های ناشی از تلاقی ویژگی های دو مدل را ارزیابی کرد؟ |
106168 | تصور کنید من دو آگهی (بنر)، A و B دارم. آنها را می توان در چندین موقعیت مختلف در صفحه قرار داد (فقط یک بنر در صفحه نشان داده شده است). هر موقعیت را می توان به عنوان یک آزمون a/b جداگانه مشاهده کرد. من نمایش بنرها را کنترل نمی کنم، فقط به کلیک ها / داده ها دسترسی دارم. من باید تعیین کنم که کدام تبلیغ قابل کلیک تر است. اگر فقط یک موقعیت ممکن وجود داشته باشد، من فقط باید فواصل اطمینان نسبت دو جمله ای را مقایسه کنم که به اندازه کافی آسان است. اما مثال زیر را در نظر بگیرید: موقعیت 1: A: 3 کلیک از 100 نشان می دهد B: 1 کلیک از 5 نشان می دهد موقعیت 2: A: 0 کلیک از 20 نشان می دهد B: 25 کلیک از 200 نمایش همانطور که می بینید، هر دو تست ها به نفع تبلیغ B هستند، اما اهمیت آن کم است. چگونه دو آزمون را برای بهبود معناداری آماری ترکیب کنم؟ | ترکیب چندین تست a/b |
14161 | فقط می خواهم یک نظرسنجی کوچک انجام دهم، به گفته شما، بهترین رویکرد برای مدل سازی سری های زمانی طبقه بندی شده چیست؟ من در حال ساخت مدلی هستم که قادر به تولید سری های زمانی است که ویژگی های مجموعه ای از داده ها را بازتولید می کند. داده های موجود یک سری زمانی گسسته و با ارزش گسسته است. من سری های زمانی مصنوعی را با استفاده از زنجیره مارکوف، زنجیره نیمه مارکوف و بوت استرپ بلوک متحرک تولید کرده ام، می خواهم بدانم آیا راه بهتری برای انجام این کار فکر می کنید. | چگونه سری های زمانی مقوله ای (مقدار گسسته) را مدل کنیم؟ |
102670 | من سعی می کنم داده ها را به عنوان یک چند جمله ای درجه 2 مدل کنم، اما داده ها جفت نشده اند و هر نقطه داده از مقادیر متوسط دارای یک خطای استاندارد برای هر محور است. داده های من: 1. یک سری زمانی بر حسب دقیقه (زمانی که بافت در معرض انجماد قرار می گیرد) 2. مقدار درصد بقای بافت پس از ذخیره نیتروژن مایع (3 تکرار برای هر نقطه زمانی) 3. مقدار درصد برای جذب انجماد در بافت مستقیماً پس از قرار گرفتن در معرض انجماد (3 تکرار برای هر نقطه زمانی) بافت مورد استفاده برای جذب از یک نوع است اما از منبع متفاوتی می باشد. پروتکل اندازه گیری جذب مخرب است. بنابراین 2 مجموعه از 3 مقدار برای هر نقطه زمانی وجود دارد. با این حال، نمودار پراکندگی این داده ها منطقی نیست زیرا مقادیر بقا و رشد مجدد جفت نمی شوند - من می توانم مقادیر خود را در هر نقطه زمانی ترکیب و مطابقت دهم. در سطوح کم محافظ سرما، بقا به دلیل تشکیل یخ کم است. در سطوح بالای محافظت از سرما، بقای آن به دلیل مسمومیت با انجماد کم است. بنابراین: * من میخواهم بقا در مقابل جذب را برای یافتن حداکثر مقدار بقای جذب انجماد مربوطه مدل کنم. من می توانم: * با استفاده از مقادیر میانگین برای هر نقطه زمانی، یک تناسب چند جمله ای در بقا در مقابل جذب انجام دهم * از آن تناسب برای یافتن جذب بهینه پیش بینی شده استفاده کنم % نمی توانم: * یک مقدار p برای برازش معتبر دریافت کنم (یعنی یک که خطا را در هر نقطه زمانی برای هر دو متغیر ارزیابی می کند) بنابراین آیا می توان چنین داده هایی را با مقدار p معتبر مدل کرد یا اینکه جفت نشده بودن به این معنی است معنی ندارد؟ من در حال حاضر این کار را در R انجام می دهم. | مدل چند جمله ای با داده های جفت نشده |
91621 | . ما فقط تئوری نمونه بزرگ را پوشش دادیم و من در حال بررسی مثال های کتاب درسی خود هستم. این یکی به نوعی من را گیج کرد و امیدوارم کسی بتواند به من کمک کند تا بفهمم چرا و چگونه کتاب، $W_i=\mu_X*Y_i - \mu_Y*X_i$ و چگونه کتاب 6.4.3 را به دست آورده است. سعی کردم از اطراف بپرسم، اما پاسخی که مدام دریافت میکنم این است که هر مرحله توضیح داده شده است، اما این کمکی نمیکند زیرا برای من مبهم به نظر میرسند. | اگر X و Y iid و مستقل از یکدیگر باشند، توزیع مجانبی X/Y را بدست آورید |
76280 | من بیوانفورماتیک انجام میدهم و سعی میکنم مقادیری را با یک توزیع log-normal با 'python's sciPy' نسخه 0.11 تطبیق دهم. با توجه به انحراف توزیع حاصل، من می خواهم یک تصمیم 0-1 بگیرم، به عنوان مثال اگر چوله مثبت است، مقدار 0 را بدهم، زیرا بیشتر داده ها در سمت چپ هستند، در حالی که، اگر چولگی منفی است، مقدار 1 را بدهید، زیرا بیشتر داده ها در سمت راست هستند. در حالی که سعی می کنم آن را پیاده کنم، من در مورد اینکه از کدام فرمول برای چولگی استفاده کنم سردرگم هستم. از ویکیپدیا، شیب برابر است با: $(e^{\sigma^2}+2)\sqrt{e^{\sigma^2}-1}$، اما این هرگز نمیتواند یک عدد منفی باشد. استفاده از روش «لحظه» «sciPy» مانند این: «scipy.stats.moment(data,3)/(std**3)»، به نظر اعداد منفی می دهد، اما بعد متوجه شدم این لحظه غیرمرکزی است. پس میترسم اشتباه باشه ثانیاً، من در اینجا به این سؤال بسیار مفید پرداختم، در مورد اینکه چگونه می توان داده ها را با توزیع log-normal مطابقت داد. من سعی کردم یک نمونه اسباب بازی بسازم که در آن 50 عدد در بازه $0.1-9$ و 1000 عدد در بازه $9-12$ ایجاد می کنم. بنابراین، من انتظار دارم که این توزیع یک انحراف منفی داشته باشد. کد به شرح زیر است: وارد کردن numpy به عنوان np import scipy.stats به عنوان s از پای پلت واردات matplotlib به عنوان plt test1 = np.linspace(0.1,9,50) test2 = np.linspace(9,12,1000) test = list( test1) + list(test2) shape,loc,scale = s.lognorm.fit(test,floc=0) distro = s.lognorm(شکل، مکان، مقیاس) x = np.linspace(0.1،20،200) plt.plot(x،distro.pdf(x)) plt.plot(x،distro.cdf(x)) plt. axvline(x=scale,color='r',ls='--') plt.legend(('PDF','CDF',r'$\mu$'), loc='بالا سمت چپ') plt.hist(test,bins=100,normed=True,alpha=0.4) و موارد مربوطه تصویر:  سوال من این است که آیا واقعا این کار لازم است چقدر برای انتقال یک توزیع log-normal به سمت راست؟ به نظر می رسد آنچه من در اینجا انجام داده ام آن را گسترده می کند، اما فقط کمی آن را تغییر می دهد. آیا باید از معیار دیگری برای اهدافم استفاده کنم؟ | انحراف توزیع log-normal با استفاده از sciPy |
14158 | فرض کنید که من یک متغیر دسته بندی دارم که می تواند مقادیر A، B، C و D را بگیرد. چگونه می توانم 10000 نقطه داده تصادفی ایجاد کنم و فرکانس هر کدام را کنترل کنم؟ به عنوان مثال: A = 10% B = 20% C = 65% D = 5% آیا نظری دارید که چگونه می توانم این کار را انجام دهم؟ | چگونه داده های طبقه بندی تصادفی تولید کنیم؟ |
3466 | طرح مشترک زیر را تصور کنید: * 100 شرکت کننده به طور تصادفی به یک گروه درمانی یا یک گروه کنترل تخصیص داده می شوند * متغیر وابسته عددی است و اندازه گیری شده قبل و بعد از درمان سه گزینه واضح برای تجزیه و تحلیل چنین داده هایی عبارتند از: * آزمایش گروه بر اساس تعامل زمانی اثر در ANOVA مختلط * یک ANCOVA با شرط IV و پیش اندازه گیری به عنوان متغیر کمکی و پس اندازه گیری به عنوان DV انجام دهید * یک آزمون t را با شرط به عنوان انجام دهید. نمرات تغییر IV و قبل از بعد به عنوان DV **سوال:** * بهترین راه برای تجزیه و تحلیل چنین داده هایی چیست؟ * آیا دلایلی برای ترجیح یک رویکرد بر رویکرد دیگر وجود دارد؟ | بهترین روش هنگام تجزیه و تحلیل طرح های کنترل قبل از درمان |
92775 | چه روشهای تحلیلی برای دادههای قبل/پسآزمون مورد استفاده قرار میگیرند، وقتی که نتیجه نمرات دانش باشد؟ بعلاوه از چه روش های تحلیلی برای داده های نمره رفتاری لیکرت استفاده می شود؟ | روش های تجزیه و تحلیل داده های قبل و بعد از آزمون |
106165 | من مجموعه ای از داده های مشتق شده از ثبت های اداری دارم که جمعیت یک کشور کوچک اروپایی را پوشش می دهد که شامل تعداد زیادی گروه تعریف شده (15000+) است. برای هر یک از این گروهها، من مشاهدات متعدد (سالهای مختلف) و دو متغیر توضیحی دارم که قرار گرفتن هر گروه در معرض یک مداخله سیاستی را مشخص میکند. در STATA من این را با استفاده از دستور رگرسیون، با aweight=group_size و با استفاده از absorb(group_identifier) تخمین می زنم. من قبلاً این کار را انجام داده ام و بسیار سریع است. چگونه این کار را در R انجام دهم؟ در R، مشکل من این است که نمیتوانم بستهای پیدا کنم که به من اجازه دهد هم وزن را بر اساس اندازه گروه و هم افکتهای ثابت را شامل شود. با استفاده از تابع استاندارد lm من میتوانم وزن اندازه گروه را در نظر بگیرم، اما باید اثرات گروه را به طور صریح تخمین بزنم (به سادگی شناسه گروه را به عنوان متغیر عامل اضافه میکنم). این بسیار وقت گیر است (من بعد از چند دقیقه اجرا آن را لغو کردم). از طرف دیگر، میتوانم به بستههای با جلوههای ثابت روی بیاورم - مانند بسته lfe. اینها جلوههای ثابتی را میدهند، اما من چنین بستهای را پیدا نکردم که وزندهی بر اساس اندازه گروه را نیز بپذیرد. پیشنهادی دارید؟ | چگونه می توانم یک رگرسیون خطی وزنی را با اثرات ثابت و گروه های زیاد در R تخمین بزنم؟ |
38058 | من از شبکه الاستیک پیادهسازی شده در R (از طریق glmnet) برای برخی مدلسازیها استفاده کردهام، اما با توجه به تعداد نقاط پرت در دادههای من، نمیدانم که آیا نوعی رویکرد مدلسازی برای رگرسیون قوی منظم وجود دارد؟ به عنوان مثال چیزی شبیه شبکه الاستیک که برای رگرسیون قوی اعمال می شود. اگر چیزی در R وجود داشته باشد، حتی بهتر است. فقط کنجکاو هستم بدانم چه چیزی آنجاست. با تشکر | رگرسیون منظم منظم |
38051 | سوال:  این مشکل به من اختصاص داده شده است، اما من دقیقاً متوجه نمی شوم که به چه چیزی اشاره دارد. آیا $\alpha$ همان نقطه قطع رگرسیون است و ضریب متغیر u hat 1 است؟ آیا برآوردگر OLS برای $\alpha$ از معادلات عادی می آید؟ چرا باید کلاه u را در قسمت b مربع کنیم - این به چه چیزی می تواند مربوط باشد؟ من مطمئن نیستم که چگونه می توانم چیزی را فقط با توجه به این اطلاعات محاسبه کنم. متشکرم. | برآوردگرها - OLS و موارد دیگر |
18316 | این برای hw من است و اگر کسی بتواند قسمت اول سوال را حل کند عالی خواهد بود. سوال اینجاست: یک مسئله دو کلاسه را با احتمالات کلاس پیشینی برابر و چگالی شرطی کلاس گاوسی به صورت زیر فرض کنید: $$p(x\mid w_1) = {\cal N}\left(\begin{bmatrix} 0 \\\ 0 \end{bmatrix},\begin{bmatrix} a & c \\\ c & b \end{bmatrix}\right)\quad\text{and}\quad p(x\mid w_2) = {\cal N}\left(\begin{bmatrix}d \\\ e \end{bmatrix},\ begin{bmatrix} 1 & 0 \\\ 0 & 1 \end{bmatrix}\right)$$ جایی که $ab-c^2=1$. 1. پس از انتخاب تابع تفکیک لگاریتمی، معادله مرز تصمیم بین این دو کلاس را بر حسب پارامترهای داده شده بیابید. 2. قیود مقادیر a، b، c، d و e را تعیین کنید، به طوری که تابع متمایز حاصل با یک مرز تصمیم گیری خطی منتج شود. | مرزهای تصمیم و توابع چگالی گاوسی |
71694 | من مدلهای log-probit را بر اساس روش زیر محاسبه میکنم (با تشکر فراوان از COOLSerdash، Aniko، whuber): # داده: کتاب درسی از Erna Weber dosis <- c(2.90, 3.36, 3.90, 4.52, 5.52, 6.09,6.90) nges < - c(10،10،10،10،10،10،10) nok <- c(1، 2، 3، 4، 7، 6، 8) edx.data <- data.frame(dosis، nges، nok) # glm glm.logit <- glm(cbind(nok,nges-nok) ~ log(dosis), family=binomial('probit'), data=edx.data) # محاسبه داده های EDx و فواصل اطمینان r <- dose.p(glm.logit,p=seq(0.1,0.9,0.2)) se <- attr( r، 'SE') xr <- data.frame(as.matrix(exp(r))) names(xr) <- c('Dose') xr$Lower <- exp(r-se) xr$Upper <- exp(r+se) خروجی به شرح زیر است: > print(xr) Dose Lower Upper p = 0.1: 2.827593 2.444115 3.271238 p = 0.3: 3.920316.606 p = 0.5: 4.915905 4.576043 5.281009 p = 0.7: 6.164330 5.580168 6.809647 p = 0.9: 8.546535 7.219686 7.219686 10.15 اینچ بر اساس داده های متنی (23 اینچ تا EDx داده ها) ای. وبر. با این حال، فواصل اطمینان باید به شرح زیر باشد: p ED(p) پایین بالا 0.1 2.8272 1.6574 3.4642 0.3 3.9203 3.0380 4.5064 0.5 4.9159 4.2478 5.8765.2478 5.6574 8.6082 0.9 8.5476 6.7830 16.0300 سوال این است: اشتباه من کجاست؟ چگونه این فواصل اطمینان را محاسبه کنیم؟ پیشاپیش از شما بسیار سپاسگزارم. | مدل log-probit: محاسبه فواصل اطمینان برای داده های ED50 |
34925 | من یک درخت (سبد خرید) را به مجموعه داده زیتون میزنم. داده های آموزشی دارای 436 مشاهده است (داده های آزمون: 136). من 3 پاسخ دارم (متغیر 'Region') که داده های آموزشی را به 116 / 74 / 246 مشاهده تقسیم می کند. اگر من متغیرهای ایکوسنوئیک و لینولئیک را رسم کنم، می توانم یک طبقه بندی تقریباً کامل را ببینم. من از یک مجموعه داده متعادل با 74 مشاهده برای هر پاسخ استفاده کردم (btw، آیا این درست است یا باید از اندازه کوچکتر از 74 مشاهده استفاده کنم؟) و تقریباً همان نتایج پیشبینی دادههای آزمایشی را با مجموعه داده نامتعادل دریافت کردم. به همین دلیل است که میپرسم آیا یک مجموعه داده متعادل در این مورد مورد نیاز است؟ من فرض می کنم که تعادل لازم نیست، اما مطمئن نیستم و می خواهم نظرات دیگری را بدانم. | CART (rpart) متوازن در مقابل مجموعه داده نامتعادل |
34921 | من می خواهم محدوده نماینده را برای یک سری از نقاط داده تعیین کنم. برای مثال، من میخواهم محدودهای را بدانم که 98٪ (یا هر نسبت معین دیگری) از نقاط در آن قرار دارد. من میتوانستم از محدوده بین چندکی (در این مورد 99-1٪) استفاده کنم، اما در مورد توزیعهای کجشده جدی، این به دنبالههای بلند توزیع «توجه بیش از حد» میدهد. بهتر است ایده زیر را در نظر بگیرم: هیستوگرام را برای آن سری از نقاط ساخته شده تصور کنید. حداکثر هیستوگرام 100% در نظر گرفته می شود. حالا خط افقی را روی علامت 1% بکشید و با این خط، سمت چپ ترین و راست ترین تقاطع منحنی هیستوگرام را پیدا کنید. این تقاطع ها مرزهای چپ و راست مقیاس را که شامل بیشتر نقاط است را نشان می دهد. آیا این رویکرد یک نام معمولی دارد؟ آیا این رویکرد برای تعیین محدوده مناسب داده ها مناسب است؟ | محدوده ای را تعیین کنید که حاوی نسبت داده شده از نقاط داده باشد |
106162 | با فرض داشتن یک فرآیند تصادفی با توزیع نرمال شناخته شده N(m,s) میتوانیم نمونههایی را مشاهده کنیم. برای هدف تست کیفیت، آستانه ای برای نمونه های خوب/بد برابر با 3 انحراف استاندارد از مقدار میانگین تعریف می کنیم. از این رو ما نسبت نمونه بد برابر با 0.28٪ را می پذیریم. ما نمونههایی را جمعآوری میکنیم که از چنین فرآیند تصادفی زیربنایی نشات میگیرند و دوست داریم آزمایش کنیم که آیا از نظر نسبت نمونه بد با توزیع مورد انتظار مطابقت دارند یا تغییر ساختاری در فرآیند زیربنایی وجود دارد (یعنی انحراف استاندارد توزیع احتمالی آنها متفاوت از مورد انتظار). لطفاً روش صحیح چیست؟ من در مورد cusum می دانم، اما برای تغییرات ساختاری به مقدار میانگین اعمال می شود، نه انحراف استاندارد. | تغییرات ساختاری در انحراف معیار مشاهده شده |
102678 | من آزمایشی با یک متغیر بین گروهی دارم. کلا 3 گروه داره هنگام انجام آزمایش، اگرچه برای شرکت کنندگان انتساب تصادفی انجام دادیم، اما اندازه 3 گروه به ترتیب متفاوت است: 15، 21 و 27. با داده ها می خواهم ANOVA یک طرفه انجام دهم. من همچنین یک متغیر اندازه گیری مکرر دارم که می خواهم با آن ANOVA ترکیبی انجام دهم. در حال حاضر داده های من فرض همگنی واریانس را نقض می کند. به نظر می رسد با اندازه گروه متعادل ANOVA در برابر نقض بسیار قوی است اما اگر اندازه ها نامتعادل باشند (مرجع). سوال من این است که آیا می توانم به طور تصادفی از 2 گروه بزرگتر (بدون جایگزینی) نمونه برداری کنم به اندازه 15 تا اندازه بین گروه ها برابر باشد؟ اگر چنین است، آیا حمایت نظری برای آن وجود دارد؟ یا باید به جای آن از روش های ناپارامتریک قوی استفاده کنم؟ | نمونه گیری تصادفی مجدد از داده ها برای حفظ اندازه مساوی در بین گروه ها |
106166 | من به استادی در اجرای برآوردگر آرلانو باند برای مطالعه بر روی عواملی که عوامل تعیین کننده برای سودآوری بانک هستند کمک می کنم. شخصی به من پیشنهاد کرد که هنگام اجرای برآوردگر Arellano Bond، از متغیرها برای حذف Heteroskedasticity استفاده کنم. در اینجا تردیدهای من وجود دارد: 1. آیا نمی توانم فقط از روش موجود در Stata استفاده کنم تا برآوردگرهای قوی را به من ارائه دهم و بنابراین مراقب Heteroskedasticity باشم. من در مورد روش xtabond صحبت می کنم. 2. حتی اگر من مجبور به ثبت log از متغیرها باشم، برخی از آنها منفی یا صفر هستند. آیا راهی هست که بتوانم این مشکل را دور بزنم؟ لطفا کمک کنید | گرفتن گزارش از متغیرها برای مطالعه GMM من. |
18310 | من از روش KPSS برای بررسی ثابت بودن سری های زمانی استفاده می کنم، اما همچنین می خواهم از آزمون دیگری برای **تأیید** فرضیه ثابت بودن سری زمانی استفاده کنم. من در حال حاضر از تستهای ریشه واحد به عنوان ADF یا PP استفاده میکنم، اما برای بررسی ثابت بودن به یک تست خاصتر نیاز دارم. از چه روشی استفاده کنم؟ | چگونه می توانم ثابت کنم سری زمانی ثابت است؟ |
36167 | من از **LibLinear** برای طبقه بندی اسناد استفاده می کنم که در آن می خواهم احتمال صحت هر پیش بینی را محاسبه کنم. در واقع، در **LibLinear**، خروجی احتمال را برای **رگرسیون لجستیک** ارائه میکند، اما نه برای وظیفه پیشفرض **طبقهبندی برداری پشتیبانی**. علاوه بر این، بر اساس اعتبارسنجی متقاطع 10 برابری، **رگرسیون لجستیک** تقریبا 10٪ بدتر از **طبقه بندی بردار پشتیبان** است. بنابراین، آیا کسی می تواند به من بگوید، اگر من همچنان از **طبقه بندی بردار پشتیبان** برای حل استفاده کنم، آیا روشی برای محاسبه احتمال جدا از برنامه وجود دارد؟ من بسیار از کمک شما قدردانی می کنم! | محاسبه احتمال برای نتایج طبقه بندی LibLinear |
34929 | من یک مدل پواسون را به داده های خود در R برازش داده ام که شامل دو عامل به عنوان متغیر مستقل است. هر عامل دارای 5 سطح است. من از دستور 'contrasts = list(FactorA='contr.sum', FactorB='contr.sum')' برای تغییر محدودیت های مدل خود استفاده کرده ام. بنابراین، تخمین پارامترها برای هر عامل مجموع 1 است. مشکل من این است که برای من بسیار دشوار است که بفهمم دقیقاً مقادیر p برآوردها به چه معنا هستند. به عنوان مثال، اگر مقدار p برای یک سطح از «FactorA» معنیدار باشد، آیا این بدان معناست که به طور کلی برای توضیح متغیر پاسخ معنادار است یا فقط در مقایسه با سطوح دیگر همان عامل؟ آیا محدودیت هایی که من استفاده کردم در این تفسیر دخیل هستند که باید برای اهمیت هر سطح ایجاد کنم؟ همچنین، من هیچ خروجی برای آخرین سطح از هر عامل دریافت نمی کنم. آیا راهی برای تفسیر این دو سطح وجود دارد؟ | نحوه تفسیر مقادیر p برای عوامل |
108982 | من سعی میکنم مدل زیر را در R بسازم، اما در مورد فرمولهای مدل برای گنجاندن یک تعامل (x1 و x2) کاملاً گیج شدهام. $Y_{}=a+b*x_1+cx_2+d(x_1* x_2)$ این فرمول بصری به نظر می رسد مدل اشتباه است: y~x1+x2+(x1*x2) آیا این فرمول مناسب است؟: y~x1*x2؟ | فرمول های مدل مدل درسته |
83203 | در مقاله ویکیپدیا هموارسازی لاپلاس (یا هموارسازی افزودنی)، گفته میشود که از دیدگاه بیزی، > این با مقدار مورد انتظار توزیع پسین مطابقت دارد، با استفاده از > توزیع متقارن دیریکله با پارامتر $\alpha$ به عنوان یک قبل من متحیر هستم که چگونه این واقعاً درست است. آیا کسی می تواند به من کمک کند تا بفهمم این دو مورد چگونه معادل هستند؟ با تشکر | صاف کردن لاپلاس و دیریکله قبل |
18313 | **مشکل:** خرده فروش Y از شبکه ای از حدود 3000 دستگاه (برای اهداف عملیات مشتری) استفاده می کند. کل شبکه دارای 10 مدل مختلف (از تولید کنندگان متمایز) است که از 0 سال (خرید شده در سال جاری) تا 12 سال سن دارند. هر دستگاه ممکن است دچار اشکالاتی شود که تعمیر فوری آن درخواست شده است. مجموع زمان در دسترس نبودن هر دستگاه در پایان ماه محاسبه می شود و ما آن را خرابی می نامیم. ممکن است همان دستگاه در طول آن دوره ماه هیچ نقصی نداشته باشد یا ممکن است یک یا چند دوره عدم دسترسی در آن دوره ماه داشته باشد. عقل سلیم می گوید که تجهیزات قدیمی تر باید زمان خرابی بیشتری داشته باشند. ** سؤال: ** (الف) چگونه می توانم بررسی کنم که آیا متغیر Age تأثیر مؤثری بر متغیر Downtime دارد یا خیر؟ از کدام مدل آماری استفاده کنم؟ (ب) چگونه می توانم این واقعیت را توضیح دهم که هر نوع تجهیزات باید نسبت به قدیمی شدن در رابطه با خرابی رفتار متفاوتی داشته باشد؟ ممنون، ادواردو | رابطه سن دستگاه در مقابل زمان خرابی |
83208 | من بوم شناس هستم و عمدتاً از بسته R وگان استفاده می کنم. من می خواهم 2 ماتریس (نمونه x گونه) (cbind) را ترکیب کنم اما نمونه ها (ردیف) متفاوت هستند. من از 24 سایت نمونه برداری کردم، با استفاده از 2 روش مجزا، مجموعه ماهی (6 تکرار) و مجموعه بی مهرگان کلان (3 تکرار). (دادههای زیر را ببینید) من میخواهم فواصل زوجی بین سایتها را با در نظر گرفتن هر دو مجموعه (با استفاده از عدم تشابه braycurtis) محاسبه کنم، فرض کنید میخواهم فاصلههای کلی بین سایتها را بدست بیاورم. من 2 گزینه را می بینم: گزینه 1، میانگین در مقیاس سایت فراوانی ماهی ها و بی مهرگان کلان، cbind دو ماتریس فراوانی میانگین و محاسبه برای کورتیس گزینه 2، برای هر مجموعه، محاسبه بری-کورتیس و فاصله بین مرکز سایت ها، و سپس ماتریس فاصله 2 را جمع کنید. لطفا بفرمایید که آیا گزینه 2 صحیح و مناسبتر از گزینه 1 است یا خیر؟ پیشاپیش از شما متشکرم. کتابخانه پیر (پلیر) کتابخانه (وگان) #مجموعه 1: 15 گونه ماهی، 6 تکرار در هر سایت a1.env=data.frame(Habitat=paste(H,gl(2,12*6),sep=),Site=paste(S,gl(24,6),sep= ),Replicate=rep(paste(R,1:6,sep=),24)) summary(a1.env) a1.bio=as.data.frame(replicate(15,rpois(144,sample(1:10,1)))) names(a1.bio)=paste(F,1:15,sep= ) a1.bio[1:72،]=2*a1.bio[1:72،] #مجموعه 2: 10 گونه از بی مهرگان کلان، 3 تکرار در هر سایت a2.env=a1.env[a1.env$Replicate%in%c(R1،R2،R3)،] خلاصه (a2.env) a2.bio=as.data.frame (replicate(10,rpois(72,sample(10:100,1)))) names(a2.bio)=paste(I,1:10,sep=) a2.bio[1:36,]=0.5*a2.bio[1:36،] # داده محیط زیست در مقیاس نشستن env=unique(a1.env[,c(Habitat,Site)]) env=env[order(env$Site)،] ######## گزینه 1، میانگین فراوانی و cbind a1.bio.mean=ddply(cbind(a1.bio,a1.env),.(Habitat,Site),numcolwise(mean)) a1.bio. mean=a1.bio.mean[order(a1.bio.mean$Site)،] a2.bio.mean=ddply(cbind(a2.bio,a2.env),.(Habitat,Site),numcolwise(mean)) a2.bio.mean=a2.bio.mean[order(a2.bio.mean $Site)،] bio.mean=cbind(a1.bio.mean[,-c(1:2)],a2.bio.mean[,-c(1:2)]) dist.mean=vegdist(sqrt(bio.mean) bray) #######گزینه 2، محاسبه برای هر فاصله مجموعه بین مرکزها و جمع ماتریس 2 فاصله a1.dist=vegdist(sqrt(a1.bio)،bray) a1.coord.centroid=betadisper(a1.dist,a1.env$Site)$centroids a1.dist.centroid=vegdist(a1.coord.centroid eucl) a2.dist=vegdist(sqrt(a2.bio)،bray) a2.coord.centroid=betadisper(a2.dist,a2.env$Site)$centroids a2.dist.centroid=vegdist(a2.coord.centroid,eucl) dist.centrroid=a1.dist.centrroid+a2. dist.centroid coord.centroid=cmdscale(dist.centroid,k=23) # برای تجزیه و تحلیل بیشتر مبتنی بر فاصله (آیا درست است؟) ### مقایسه گزینه 1 و 2 pco.mean=cmdscale(vegdist(sqrt(bio.mean)،bray)) pco.centroid=cmdscale(dist.centrroid) krahasim=procrustes(pco.centroid,pco.mean) اعتراض (pco.centroid,pco.mean) | خلاصه کردن دو ماتریس از فواصل بین مرکزها |
103191 | چندی پیش با این ایده آشنا شدم که اتفاقی با احتمال «تقریباً مطمئناً» (یا «تقریباً مطمئناً») رخ می دهد. از نظر مفهومی، همانطور که من می فهمم، احتمال یک رویداد ممکن است 1 باشد، اما این بدان معنا نیست که قطعی است، فقط _تقریبا_ قطعی است. ویکیپدیا این مثال را بر اساس پرتاب دارت به یک مربع ارائه میکند: > رویدادی را در نظر بگیرید که دارت به مورب مربع واحد برخورد میکند > دقیقا. احتمال فرود دارت در هر زیرمنطقه ای از میدان > متناسب با مساحت آن منطقه فرعی است. اما از آنجایی که مساحت > مورب مربع صفر است، احتمال اینکه دارت دقیقاً > روی مورب فرود آید، صفر است. بنابراین، دارت تقریباً هرگز روی مورب > فرود نمیآید (یعنی تقریباً مطمئناً روی مورب فرود نمیآید). با این حال، مجموعه > از نقاط روی مورب خالی نیست و یک نقطه در مورب کمتر از هر نقطه دیگری امکان پذیر نیست، بنابراین از نظر تئوری ممکن است > که دارت در واقع به مورب برخورد کند. بنابراین سوال اساسی من این است: اگر من یک سکه منصفانه را بی نهایت بار ورق بزنم، آیا **مطمئن**، یا صرفاً **تقریباً مطمئن** هستم که حداقل یک بار سر را به دست خواهم آورد؟ **آزمایش فکری** واکنش اولیه من به این سوال این بود که پاسخ باید تقریباً قطعی باشد. با این حال، من به یک آزمایش فکری رسیدم که مرا شک کرد: دو دانشمند جاودانه وظیفه نظارت بر یک سکه منصفانه را دارند که هر دقیقه یک بار ورق می خورد. هر دوی آنها یک سکه مشترک دارند، اما دستورالعمل های متفاوتی به آنها داده می شود. دستورات دانشمند اول این است: اگر سکه پس از ورق زدن بی نهایت بالا نیامد، «نادرست» را گزارش کنید. اگر در هر چرخشی سکه بالا آمد، درست را گزارش کنید. به دانشمند دوم این نمودار جریان داده می شود تا توصیف کند که چه کاری باید انجام دهد: هیچ جریانی در نمودار دانشمند دوم وجود ندارد که در آن هیچ نتیجه ممکنی غیر از درست وجود دارد. * هیچ دنباله ای از ورق زدن سکه وجود ندارد که در آن، در هر نقطه یا: * دو دانشمند نتایج متفاوتی را گزارش کنند یا * یکی از دانشمندان نتیجه ای را گزارش کرده است در حالی که دیگری هنوز نتیجه ای را گزارش نکرده است. به نظر می رسد اولین مورد از این نکات به این معنی است که مطمئن است، و نه تقریباً مطمئن، که دانشمند دوم درست گزارش خواهد کرد. به نظر میرسد که دومین مورد از آن نکات به این معنی است که دانشمند دوم مطمئن است که درست گزارش میکند به این معناست که دانشمند اول مطمئناً درست گزارش میکند. با کنار هم قرار دادن آنها، اولین دانشمند مطمئناً درست را گزارش می دهد و پاسخی غیرمعمول به این سؤال اساسی می دهد. بنابراین برای جمع بندی، آیا مطمئن است یا تقریباً مطمئن است که یک سری بی نهایت از ورق زدن یک سکه منصفانه حداقل یک بار منجر به سر می شود؟ اگر **مطمئن** است، پس با توجه به اینکه هیچ سکه ای را مجبور به بالا آمدن سکه نمی کند، چه توضیحی برای آن نتیجه غیر شهودی وجود دارد؟ اگر **تقریباً مطمئن** است، پس اشکال در استدلال آزمایش فکری چیست؟ | گرفتن سر در یک سری نامتناهی از چرخش سکه - قطعی یا تقریباً مطمئن؟ |
34927 | من به دنبال یک آزمایش یا آزمایش آماری برای مقایسه اثرات «درمانهای» مختلف بر روی یک «فرد» در طول زمان هستم. فرد منفرد می تواند یک فرد یا گروهی باشد که به عنوان یک موجودیت واحد عمل می کند (به عنوان مثال یک تیم، یک شرکت و غیره). یک مثال ساده مقایسه اثرات دو رژیم ورزشی مختلف بر کاهش وزن یک فرد است. نگرانی اصلی من با استفاده از یک آزمون آماری استاندارد (در این مورد، چیزی مانند آزمون t، آزمون من ویتنی U یا آزمون کولموگروف-اسمیرنوف مناسب به نظر می رسد) عدم استقلال آشکار داده ها است. میتوانم استقلال را با اجرای نوعی مطالعه ABAB بررسی کنم (یعنی چندین بار تغییر رژیمها برای بررسی عدم تعامل آنها). به نظر می رسد این رویکردی است که نویسنده این مقاله «آزمایش خود» (رابرتس، اس.) اتخاذ کرده است. سپس از تست های مجذور کای مکرر استفاده می کند (اول A در مقابل B اول، دوم A در برابر اول B و غیره). آیا انجام آزمایشهای متعدد بر روی دادههای یکسان یک رویکرد آماری معتبر است یا این امر احتمال خطاهای نوع I را همانطور که در این مقاله نشان داده شده است افزایش میدهد؟ > هر چه فرد بیشتر داده های انباشته شده را تجزیه و تحلیل کند، شانس > در نهایت و اشتباه > تشخیص تفاوت بیشتر است، در نتیجه نتیجه گیری نادرستی از کارآزمایی می گیرد. آیا باید نگران عدم استقلال باشم؟ آیا می توانم به سادگی چندین آزمایش را در برابر داده های یکسان انجام دهم؟ آیا آزمون تخصصی برای این نوع آزمایش وجود دارد؟ | آزمایش آماری برای مقایسه درمانهای متعدد بر روی یک «فرد» در طول زمان |
38056 | در کتاب روشهای آماری مونت کارلو توسط رابرت و کازلا، دیدم که اشارهای به درک زنجیره مارکوف مونت کارلو (سری اسپرینگر در آمار) نوشته گرت او رابرتز و ریچارد ال. تویدی منتشر شده در سال 2004 وجود دارد. این کتاب را در اینترنت جستجو کردم و در دسترس بودن آن را پیدا نکرد. در آمازون، یک لینک می گوید که در سال 2008 منتشر شده است و یک لینک دیگر می گوید که در سال 2015 خواهد بود. با تشکر! | آیا درک زنجیره مارکوف مونت کارلو نوشته رابرتز و تویدی تا به حال منتشر شده است؟ |
102679 | من داده های ماهانه و روزانه از تولدها در یونان دارم و می خواهم برای یافتن ریتم، آنالیز همسنور انجام دهم (شور، شبانه روزی، نیم سال و غیره) چگونه می توانم از Matlab برای انجام آنالیز همسینور استفاده کنم؟ من این پیوند را پیدا کردم http://www.mathworks.com/matlabcentral/fileexchange/20329-cosinor- analysis/content/html/cosinor.html مطمئن نیستم که می تواند کمک کند یا خیر. آیا کار دیگری وجود دارد که بتوانم با این داده ها به جز تجزیه و تحلیل cosinor انجام دهم؟ من یک تجزیه و تحلیل طیفی فوریه انجام دادم و یک چرخه 12 ماهه قوی و یک چرخه 2 ماهه قوی پیدا کردم. | چگونه می توانم آنالیز Cosinor را در Matlab انجام دهم؟ |
38054 | من برای پیش بینی به آموزش در R نگاه کردم و تصمیم گرفتم سوالم را بازنویسی کنم. من به پیش بینی به طور متوسط برای مرد با 95٪ CI نیاز دارم و سپس با استفاده از متغیرهای وضعیت، درآمد و کلامی با مقادیر حداکثر تکرار می کنم. حالا اگر پیشبینیهای نشانداده شده در زیر را به درستی با میانگین انجام داده باشم، حداکثر مقادیر را انجام دهم. اما آیا این 2 بازه پیش بینی و 2 بازه مطمئن هم برای میانگین و هم برای حداکثر نمی دهد. مقادیر g2<-data.frame(وضعیت=75، درآمد=15، کلامی=10، جنسیت=0) g1<-data.frame(وضعیت=43، درآمد=4.64، شفاهی=6.66، جنسیت=0) به عنوان مثال.. میانگین > g1<-data.frame(وضعیت=43، درآمد=4.64، شفاهی=6.66، جنسیت=0) > پیش بینی (g,g1, interval='اطمینان', level=.90) fit lwr upr 1 28.11506 19.7603 36.46983 > predict(g,g1, interval='prediction', level=.90) fit lwr upr 1 28.11506 19.46983 حداکثر مقادیر استفاده شده: > پیش بینی (g,g2, interval='اطمینان', level=.90) fit lwr upr 1 71.30794 47.07516 95.54072 > predict(g,g2, interval='prediction', level=.90) fit lwr upr 1 791.30 26.10037 116.5155 **آیا ** من به هر دو فاصله پیش بینی و اطمینان نیاز دارم؟ **سوال:** چگونه CI را رسم کنم تا مشخص کنم که کدام عریض تر است؟ | هنوز در R با CI و پیش بینی ها تلاش می کنم |
83200 | اشاره کردهام که تعداد کمی از تقسیمهای گره در درختهای تصادفی من اضافی هستند زیرا هر دو گره فرزند دارای طبقهبندی یکسان هستند. من گمان می کنم که این ناشی از انتخاب ناخوشایند پارامترها باشد، اما کدام؟ من از پیاده سازی OpenCV برای تولید درخت ها استفاده می کنم. برای پیش بینی از کد خودم استفاده می کنم. اینگونه بود که من این گره های اضافی را کشف کردم. پارامترهای آموزشی OpenCV عبارتند از: * max_depth = 20 * min_sample_count = 7 * nactive_vars = 2 * max_num_trees = 250 * forest_accuracy = 0 * term_crit = CV_TERMCRIT_ITER (یعنی 250 درخت متغیر، 250 درخت در 5-0 متغیر) نمونه و 7 کلاس. بدون متغیر گمشده، بدون متغیر طبقه بندی. مشکل گرههای اضافی با گرههای بسیار کم عمق نسبت به «max_depth» ظاهر میشود، بنابراین احتمالاً مرتبط نیست. | تقسیم بیش از حد در جنگل تصادفی |
44480 | > **تکراری احتمالی:** > بهترین روش هنگام تجزیه و تحلیل طرحهای کنترل قبل از درمان، من در حال انجام یک مطالعه اقدام پژوهی با 2 تا از کلاسهایم هستم: 1 کلاس درمان و دیگری کنترل. هر دو کلاس قبل از درمان یک پیش آزمون را انجام دادند. سپس، پس از مرحله درمان (کلاس کنترل هیچ درمان دریافت نکرد)، هر دو کلاس یک پس آزمون انجام دادند. از چه آماری استفاده کنم؟ تست های تی زوجی؟ ANOVA با اندازه گیری مکرر؟ کمک کنید | پیش آزمون با گروه کنترل |
34920 | چه زمانی باید تست های نرمال را اعمال کنیم؟ برای کدام نوع از متغیرها باید آزمون نرمال بودن را اعمال کنیم؟ به عنوان مثال متغیرهای وابسته، متغیرهای مستقل، یا متغیرهای کنترل و غیره؟ | برای چه نوع متغیرهایی باید از تست نرمال بودن استفاده کنیم؟ |
34924 | من در حال حاضر روی SVR کار می کنم تا بازده بازار سهام را پیش بینی کنم و ** می خواهم بدانم آیا کسی از شما می تواند در مورد مقالات جالب در مورد آن به من توصیه کند. ** اینها مقالاتی هستند که با آنها کار می کنم: 1. Cao , L., Tay, F.E.H. (2001). پیش بینی مالی با استفاده از ماشین های بردار پشتیبان محاسبات عصبی و کاربردها، 10:184-192. 2. Wang, L., Zhu, J. (2010). پیشبینی بازار مالی با استفاده از روش یادگیری هسته دو مرحلهای برای رگرسیون بردار پشتیبان. سالنامه تحقیق در عملیات، 174:103-120. [DOI] مقاله دوم واقعا جالب است، اما اجرای آن بسیار سخت است زیرا نویسنده از روش یادگیری هسته دو مرحله ای برای یافتن تابع هسته بهینه برای SVR استفاده می کند. تمام مقالاتی که من پیدا کردم جزئیات زیادی در مورد پارامترهای تنظیم (C و سیگما برای هسته گاوسی) ارائه نمی دهند. من از R برای محاسباتم استفاده می کنم (بسته های Kernlab و e 1071). | منابعی در مورد پیش بینی بازده سهام با SVR |
76281 | من سعی میکنم این مقاله را بفهمم: اعتبارسنجی متقابل تعمیمیافته بهعنوان روشی برای انتخاب یک پارامتر ریج خوب نویسنده(های): Gene H. Golub، Michael Heath and Grace Wahba منبع: Technometrics, Vol. 21، شماره 2 (مه، 1979)، صفحات 215-223 این مقاله کاملاً شناخته شده ای است و نمی توانم فکر کنم که نادرست باشد (اما واضح است که درک من از آن این است!) مشکل اینجاست که وقتی سعی می کنم فرمول اصلی خود را (فرمول 1.4) روی دادههای خام پیادهسازی کنند، من پاسخی مشابه زمانی که از آنچه که قرار است شکل متفاوتی از همان فرمول نشان داده شده است استفاده کنم، دریافت نمیکنم. اینجا: استفاده از بوت استرپ و اعتبارسنجی متقاطع در رگرسیون ریج نویسنده(های): نانسی جو دلانی و سانگیت چاترجی منبع: Journal of Business & Economic Statistics, Vol. 4، شماره 2 (آوریل 1986)، صفحات 255-262 فرمول آنها در بخش 2.2.5 نشان داده شده است (به طور شهودی جذاب تر است و من آن را درک می کنم) اما پاسخی مشابه آنچه در Golub ارائه شده است را نمی دهد. کاغذ و همکاران در کاغذ Golub GCV به عنوان PRESS (مجموع باقیمانده مربعات پیش بینی شده) تعریف شده است که بر روی داده های تبدیل شده (همانطور که در مقاله نشان داده شده است) انجام می شود. نسخه تبدیل شده 2.3 در p217 است. آنها همچنین بیان می کنند که GCV مقداری است که 1.4 یا 2.3 را به حداقل می رساند (یعنی مدل های مبتنی بر داده های اصلی و تبدیل شده به ترتیب). بنابراین اگر من این را به درستی درک کنم حتی اگر حداقل مقدار بین مدل های اصلی و تبدیل شده یکسان نباشد، مقدار پارامتری که آنها را به حداقل می رساند یکسان است (آیا این درست است؟) اما وقتی هر دو روش را اجرا کردم، آنها توسط همان ارزش اولی تقریباً 2 و دومی تقریباً 1.5 به حداقل رسید. بنابراین سؤالات من این است: 1.) آیا معادله 1.4 در Golub و آنچه در بخش 2.2.5 از Delaney و Chatterjee نشان داده شده معادل هستند؟ اگر چنین است، می توانید به من نشان دهید که چگونه می توان یکی را از دیگری استخراج کرد. 2.) آیا کدگذاری من برای هر مدل صحیح است؟ اگر کسی به من بگوید چگونه می توانم این مقالات را پست کنم. تابع [GCV]=GCV(y,x,k) [n, p]=size(x); % روش دلانی و چاترجی h=(x'*x+k*eye(p)); h=h\x'; h=x*h; den=(1-diag(h)); den=sum(den); den=den/n; den=den^2; sum_e_i_2=0; برای i=1:n y_e=y; y_e(i,:)=[]; x_e=x; x_e(i,:)=[]; pseudo = sqrt(k) * eye(p); x_ridge = [x_e;شبه]; y_ridge = [y_e;صفر(p,1)]; b2 = x_ridge\y_ridge; e_i=y(i)-x(i,:)*b2; sum_e_i_2=sum_e_i_2+e_i^2; end num=sum_e_i_2/n; GCV=num/den; %Delaney و Chatterjee به % روش Golub پاسخ می دهند A=h; I_mat=eye(n); num2=(I_mat-A); num2=num2*y; num2=norm(num2); num2=num2^2; num2=num2/n; den2=(I_mat-A); den2=trace(den2); den2=den2/n; den2=den2^2; GCV2=num2/den2; پایان | نمی توان نتایج روش اعتبارسنجی متقاطع عمومی Golub (GCV) را تکرار کرد |
89061 | با توجه به یک نقشه ویژگی کوهونن همگرا، چگونه می توان خوشه بندی را از نظر فواصل درون و بین خوشه ای ارزیابی کرد؟ با فرض اینکه هم بردارهای کتاب کد آموزش دیده و هم ماتریس فاصله واحد در دسترس هستند. در حال حاضر من آنها را به صورت تجربی با استفاده از نقشه های حرارتی UMatrix ارزیابی می کنم. با این حال، من فکر می کردم که آیا روش آماری قابل اعتمادتری وجود دارد. | ارزیابی خوشهبندی یک UMatrix Kohonen |
89068 | این نتیجه سوال قبلی است (چگونه گروه ها را با استفاده از PCA جدا کنیم؟). من 25 نرمال و 12 بیمار دارم. برای هر یک از آنها یک بردار دارم که یک طیف نگار را نشان می دهد (2000). بنابراین من یک ماتریس Z = [25x2000;12x2000] دارم. محاسبه می کنم [coeffZ, score, latent, tsquared, توضیح داده شده, mu]=pca(Z); نوار (توضیح داده شده) به من نشان می دهد که 3 کامپیوتر اول بیشتر واریانس را توضیح می دهند. همچنین برای هر یک از دروس نمره رفتاری (از آزمون) دارم [37×1]. پیشنهاد شد که ببینم آیا 3 رایانه اول می توانند نمره رفتاری را با استفاده از ضریب همبستگی چندگانه پیش بینی کنند. به طور خاص این - http://en.wikipedia.org/wiki/Multiple_correlation آیا این منطقی است؟ آیا کسی ایده ای دارد که چگونه می توانم این را در Matlab پیاده سازی کنم؟ | همبستگی چندگانه: PCA و رفتار |
18314 | من 4 سری زمانی همبسته دارم و می خواهم یکی از آنها را از 3 سری دیگر پیش بینی کنم. در 4 سری زمانی یک اثر فصلی واضح وجود دارد، بنابراین اولین فکر من این بود که یک مدل ARIMA چند متغیره را متناسب کنم، اما به نظر نمی رسد. برای پیدا کردن یک تابع R برای این. | برازش مدل ARIMA چند متغیره با R |
103073 | مشابه این سوال، در چه شرایطی باید از مقیاس لیکرت به عنوان داده ترتیبی یا فاصله ای استفاده شود؟، من کنجکاو هستم که در چه شرایطی می توان از مقیاس لیکرت به عنوان داده اسمی استفاده کرد؟ | در چه شرایطی باید از مقیاس لیکرت به عنوان داده اسمی استفاده کرد؟ |
38057 | من اطلاعاتی در مورد نمونهای از بیمارستانهای $n=1776$ دارم. برای هر بیمارستان تعداد کل بیماران («بیمار») و تعدادی از بیماران با یک بیماری خاص («تشخیص داده شده») وجود دارد. آیا میانگین این نسبت، تشخیص داده شده/بیماران را برای همه بیمارستان های نمونه، $\hat{\mu}$ در نظر بگیرم و فاصله اطمینان 95٪ را به عنوان $\hat{\mu} \pm محاسبه کنم؟ 1.96\sigma / \sqrt{n}$ یا به عنوان $\hat{\mu} \pm 1.96 \sqrt{\hat{\mu}(1-\hat{\mu})/n}$ ? یا ....؟ **به روز رسانی ** [به دنبال نظرات whuber]. علاوه بر این، داده ها به 2 گروه سنی (جوان و مسن) و 3 امتیاز خطر تقسیم می شوند. یعنی همه 1776 بیمارستان دارای تعداد کل بیماران به شرح زیر هستند: بیماران جوانتر بیماران مسن کم خطر A D خطر متوسط B E خطر بالا C F ... و به طور مشابه برای تعداد بیماران مبتلا به این بیماری. بنابراین، برای هر ترکیبی از گروه سنی و امتیاز خطر، میخواهم میانگین شیوع و یک فاصله اطمینان را برای آن تخمین بزنم. در اینجا خلاصهای از دادهها آمده است میانگین سنی خطر sd n 1 u50 0.37 0.19 1776 2 u50 0.49 0.25 1776 3 u50 0.54 0.26 1776 1 o50 0.45 0.324 o 170. 1776 3 o50 0.67 0.41 1776 | فواصل اطمینان برای نسبت ها (شیوع) |
85910 | من در ایجاد شهود در مورد آنتروپی مشترک مشکل دارم. $H(X,Y)$ = عدم قطعیت در توزیع مشترک $p(x,y)$; $H(X)$ = عدم قطعیت در $p_x(x)$; $H(Y)$ = عدم قطعیت در $p_y(y)$. اگر H(X) زیاد باشد، توزیع نامشخص تر است و اگر نتیجه چنین توزیعی را بدانید، اطلاعات بیشتری دارید! بنابراین H(X) نیز اطلاعات را کمی می کند. اکنون میتوانیم $H(X,Y) \leq H(X) + H(Y)$ را نشان دهیم اما اگر $p(x,y)$ را میدانید میتوانید $p_x(x)$ و $p_y(y) را دریافت کنید. $ بنابراین به نوعی $p(x,y)$ اطلاعات بیشتری نسبت به $p_x(x)$ و $p_y(y)$ دارد، بنابراین آیا عدم قطعیت مربوط به p(x,y) بیشتر از مجموع فرد عدم قطعیت ها؟ | شهود در مورد آنتروپی مشترک |
83204 | من آموزش بسیار مفیدی در مورد الگوریتم EM پیدا کردم. مثال و تصویر از آموزش به سادگی درخشان است.  سوال مرتبط در مورد محاسبه احتمالات چگونه به حداکثر رساندن انتظار عمل می کند؟ من یک سوال دیگر در مورد نحوه اتصال نظریه توضیح داده شده در آموزش به مثال دارم. > در طول E-step، EM یک تابع $g_t$ را انتخاب می کند که در همه جا $\log > P(x;\Theta)$ را پایین می آورد و برای آن $g_t( \hat{\Theta}^{(t)}) = \log P(x; > \hat{\Theta}^{(t)})$. پس g_t$ در مثال ما چیست و به نظر می رسد که باید برای هر تکرار متفاوت باشد. علاوه بر این، در مثال $\hat{\Theta}_A^{(0)} = 0.6$ و $\hat{\Theta}_B^{(0)} = 0.5$، سپس با اعمال آنها بر روی دادهها، آن $ را دریافت میکنیم. \hat{\Theta}_A^{(1)} = 0.71$ و $\hat{\Theta}_B^{(1)} = 0.58$. که برای من غیر شهودی به نظر می رسد. ما چند فرض قبلی داشتیم، آن را روی داده ها اعمال کردیم و مفروضات جدیدی دریافت کردیم، بنابراین داده ها به نوعی مفروضات را تغییر دادند. من نمی فهمم چرا $\hat{\Theta}^{(0)}$ برابر با $\hat{\Theta}^{(1)}$ نیست. علاوه بر این، با دیدن یادداشت تکمیلی 1 این آموزش، سؤالات بیشتری ایجاد می شود. برای مثال $Q(z)$ در مورد ما چیست. برای من روشن نیست که چرا وقتی $Q(z)=P(z|x;\Theta)$ نابرابری تنگ است متشکرم. | شفاف سازی حداکثرسازی انتظارات |
89063 | من در یک پروژه با داده های یک نظرسنجی پیچیده شرکت می کنم. ما قصد داریم داده های یک بررسی ملی باروری را تجزیه و تحلیل کنیم. برخی از سوالات پرسشنامه تنها توسط یک نمونه فرعی پرسیده شده است. به عنوان مثال، یک سوال در مورد شغل فقط از افراد شاغل پرسیده شده است. این متغیر و سایر متغیرها در مطالعه ما مهم هستند و مایلیم آن را در مدل لجستیک خود لحاظ کنیم. چه رویکردی را توصیه می کنید؟ من در برخی از مقالات این منطقه دیده ام که دسته دیگری را دیگر تنظیم می کنند، یعنی افراد دیگری را (که سوال در مورد آنها مطرح نشده است) ترکیب می کنند و یک دسته اضافی ایجاد می کنند. اگر این رویکرد قابل قبول است، آیا باید مقادیر تصادفی را به متغیر درآمد نسبت دهم تا سوگیری را کاهش دهم؟ اگر بتوانید به من کمک کنید بسیار سپاسگزار خواهم بود. | چگونه با داده های مقوله ای از دست رفته در مدل های رگرسیون لجستیک برخورد کنیم؟ |
85919 | برای یک تکلیف من یک تکلیف با استفاده از WINBUGS دارم که باید اعتراف کنم که حداقل من را گیج می کند. مماس با سوال من است، اما من چند گره تصادفی دارم که قرار است گاما توزیع شوند. با در نظر گرفتن یک مثال، پارامترهای توزیع گاما (به نام a و b) نیز به لامبدا وارد می شوند که ما توزیع قبلی را برای آن می دانیم. d ~ gamma(a, b) z = a/b ~ gamma(0.01, 0.01) w = b/a ~ gamma(0.01, 0.01) در نگاه اول فکر کردم «z» و «w» باید به صورت منطقی مشخص شوند. گره اما پس از آن من نمی توانم اطلاعات توزیع (گاما) را اضافه کنم. کد من در امتداد این خطوط اجرا می شود (اگرچه نسخه های متعددی را امتحان کرده ام): d ~ dgamma(a, b) z ~ dgamma(0.01, 0.01) w ~ dgamma(0.01, 0.01) a <- z*b b <- a/ z a <- b/w b <- a*w اما پس از آن خطاهایی در خطوط تعریف های متعدد دریافت می کنم of node...، اگر یکی از هر یک از تخصیص های a و b را حذف کنم تا تعاریف متعدد را حل کنم، WINBUGS دیگر پاسخ نمی دهد. واقعاً از هر کلمه عاقلانه ای در مورد اینکه کجا اشتباه می کنم قدردانی می کنم. | مشخصات گره منطقی (با توزیع؟) در WINBUGS |
85916 | اگر $\mathbf{x}$ و $\mathbf{y}$ دو بردار واحد تصادفی [ **بهروزرسانی:** مستقل] در $\mathbb{R}^D$ باشند، توزیع محصولات نقطهای بین آنها چگونه است. در حد D$ بزرگ؟ حدس میزنم به سرعت (؟) تقریباً عادی میشود (آیا؟) با میانگین صفر و واریانس در ابعاد بالاتر کاهش مییابد $$\lim_{D\to\infty}\sigma^2(D) \به 0,$$ اما یک فرمول تقریبی صریح برای $\sigma^2(D)$ وجود دارد؟ **به روز رسانی** خوب، من چند شبیه سازی سریع اجرا کردم. اولاً، با ایجاد 10000 جفت بردار واحد تصادفی برای $D=1000$، به راحتی می توان دریافت که توزیع محصولات نقطه ای آنها کاملاً گوسی است (در واقع در حال حاضر کاملاً گاوسی برای $D=100$ است)، به نمودار فرعی مراجعه کنید. سمت چپ دوم، برای هر $D$ از 1 تا 10000 (با مراحل افزایش) من 1000 جفت ایجاد کردم و واریانس را محاسبه کردم. نمودار Log-log در سمت راست نشان داده شده است، و واضح است که فرمول به خوبی با $1/D$ تقریب دارد. توجه داشته باشید که برای $D=1$ و $D=2$ این فرمول حتی نتایج _exact_ را نیز می دهد (اما من مطمئن نیستم که بعدا چه اتفاقی می افتد).  چرا؟ | توزیع محصولات نقطه بین دو بردار واحد تصادفی در $\mathbb{R}^D$ |
103077 | من در حال حاضر با تجزیه و تحلیل رگرسیون بسیار لذت می برم، و منظورم از سرگرم کننده این است که به طور مکرر به خودم ضربه بزنم. من مجموعه ای از 200 نقطه داده دارم، با فیلتر کردن یک ویژگی مورد علاقه، در نهایت به 153 نقطه استفاده می رسم. من در ابتدا از این 153 نقطه برای ایجاد یک رگرسیون خطی با R${^2}$ عالی و نموداری از متغیرهای برازش شده در مقابل واقعی تقریباً یک قطر کامل استفاده کردم. عالیه با این حال، پیشنهاد شد که این ممکن است فقط یک مدل پیشبینی داخلی باشد (که همانطور که میدانم به این معنی است که مدل به جای عکس آن با دادهها مطابقت دارد). بنابراین، سپس این را امتحان کردم: من به طور تصادفی یک نمونه از 100 نتیجه از 153 نتیجه را انتخاب کردم، و همان مدل را ساختم، هنوز هم تناسب نسبتاً خوبی داشت. سپس از تابع پیش بینی در R برای پیش بینی نتیجه 53 رکورد دیگر استفاده کردم. خوب پیش نرفت. چیزی که من گرفتم یکی از 2 چیز بود. 1. پیشبینیها اصلاً معنی نداشت، حتی در مقیاسی مشابه مقادیر واقعی. 2. بیشتر پیشبینیها منطقی بودند (اگرچه خیلی دقیق نبودند) و یک یا دو پیشبینی در مقیاسی کاملاً متفاوت بودند (درجههای بزرگتر یا کوچکتر). از آنجایی که مدلی که من برازش می کنم زمان را به عنوان متغیر پاسخ دارد، پیشنهاد شد که به جای رگرسیون خطی قدیمی از رگرسیون برازش گاما استفاده کنم. من این را امتحان کردم و اساساً به نتیجه رسیدم. بنابراین، آیا من از R به درستی استفاده می کنم، آیا گاما انتخاب خوبی برای این بود؟ من کاملاً مطمئن هستم که دادههای من خوب هستند (غیر جانبدارانه) بنابراین اگر با وجود مدل خوب قادر به پیشبینی نباشم - آیا این به این معنی است که مدل من بیفایده است؟ من الان چند هفته است که روی این کار کار می کنم، و اگر بتوانم چیزی را نجات دهم خیلی خوب است. دستورات R که من استفاده کرده ام: modelSet<-sample(1:nrow(myData),100) modelData<-myData[modelSet,] predictData<-myData[-modelSet,] fit<-lm(time~(x1+x2 +x3+x4+x5+x6)^3، data=modelData) pred<-predict(fit, predictData) plot(predictData$time, pred) <- یک نمودار واقعاً مفید نیست fit2<-glm(time~(x1+x2+x3+x4+x5+x6)^3, data=modelData, family=Gamma) # با link=log too pred2<-predict(fit2, predictData) plot(predictData$time, pred2) <- نمودار کمتر مفیدی می دهد | مسائل مربوط به رگرسیون و پیش بینی |
61065 | من دو گروه (A و B) دارم که در روز 0 و روز 7 مشاهده شدند. در هر گروه 10 مشاهده وجود دارد. بنابراین 2 x 2 x 10 = 40 نتیجه در مجموعه داده من. من می خواهم بدانم که آیا فاکتور کنترل بین گروه A و B در طول هفته تأثیری داشته است یا خیر. از کدام آزمون آماری استفاده کنم؟ | برای این کار از کدام تست استفاده کنم؟ |
85917 | تا آنجا که من درک می کنم، در ANOVA کاملا متعادل (با هر تعداد فاکتور) که به عنوان مدل خطی کلی درک می شود، همه پیش بینی کننده های طبقه بندی شده (همه اثرات اصلی و همه تعاملات همه ردیف ها) متعامد هستند، که منجر به بسیاری از ویژگی های خوب مانند تجزیه منحصر به فرد می شود. واریانس متعامد بودن برای ANOVA یک طرفه با چندین سطح کاملاً واضح است (از روشی که کدگذاری ساختگی کار می کند) و برای ANOVA های سطح بالاتر نیز _نوعی_ واضح است، اما من دوست دارم یا یک اثبات رسمی یا شهودی ببینم، یا در حالت ایده آل، هر دو. من با رادرفورد، 2001، معرفی Anova و Ancova، رویکرد GLM (pdf) مشورت کردم، اما به طرز عجیبی نتوانستم این بحث را پیدا کنم. | چرا همه پیش بینی کننده های رگرسیون در ANOVA چند راهه متوازن متعامد هستند؟ |
89829 | هنگام خلاصه کردن یک توزیع پیوسته یک بعدی (مثلاً یک توزیع خلفی) معمولاً از یک بازه دنباله دار مساوی (معروف به چندک) یا بازه بالاترین چگالی استفاده می شود. بازه دم مساوی 95% از نظر مفهومی با میانه مطابقت دارد زیرا وقتی پوشش بازه $\rightarrow 0\%$ بازه به میانه همگرا می شود. به همین ترتیب بازه بالاترین چگالی با حالت مطابقت دارد زیرا حالت نقطه بالاترین چگالی است. اما یکی دیگر از خلاصه نقاط محبوب توزیع پیوسته میانگین است و سوال من این است: **فاصله ای که با میانگین مطابقت دارد چیست؟** یعنی: * آن بازه را چه می نامند؟ * چگونه تعریف/محاسبه می شود؟ اگر کسی در مورد معمای نظری دارد که چرا میانگین یک روش واقعاً محبوب برای خلاصه کردن توزیع است در حالی که فاصله مربوطه به آن محبوبیتی ندارد (همانطور که تصور من است)، سپاسگزار خواهم بود! | چه بازه ای به میانگین مربوط می شود زیرا بازه دم مساوی به میانه و بیشترین بازه چگالی مربوط به مد است؟ |
103075 | من سعی می کنم از یک ماتریس کوواریانس (که برای یک نقطه سه بعدی وجود دارد) یک بیضی خطا بسازم و سپس از نقاط xyz ثابت در این ناحیه نمونه برداری کنم. (این سوال جایگزین این سوال می شود.) کاری که من در حال حاضر انجام می دهم این است: 1) تجزیه Cholesky ماتریس کوواریانس را محاسبه کنید. 2) هر نقطه راس اولیه را به عنوان گاوسی با عرض 1 نمونه برداری کنید تا (x', y', z') ایجاد کنید. 4) این نتیجه را به ماتریسی از مقادیر میانگین اضافه کنید. برای افزودن برخی جزئیات دقیق تر، ماتریس کوواریانس نقطه اولیه به صورت زیر است: $ \begin{pmatrix} 10.0115 & -10.6835 & 5.18024 \\\ -10.6835 & 11.4009 & -5.52798 & -5.52798 & -5.52798 \\\\ 5.0115 & -5.1802 -5.52798 \\\\ 5.687 & -5.6. \\\ \end{pmatrix} $ سپس تجزیه Cholesky را محاسبه میکنم که عبارت است از: $ \begin{pmatrix} 3.164095& 0& 0\\\ -3.376478& 0.017131& 0\\\ 1.637195 & 0.001 - 9. \end{pmatrix} $ و نقطه xyz اولیه در (35.5361، -37.2661، 22.521) است. تولید سه عدد تصادفی از یک گاوسی با میانگین 0 و عرض 1 به دست آمد: -0.377495، -0.933623، 0.241011، و در این مرحله من کاملاً در مورد روش صحیح روشن نیستم. فرض من این است که درست است که ماتریس تجزیه Cholesky را در ماتریسی که حاوی نقاط گاوسی به طور تصادفی تولید شده است ضرب کنیم و سپس آن را به ماتریسی حاوی مقادیر اولیه اضافه کنیم. این به این شکل است: $ \begin{pmatrix} 35.5361& 0& 0\\\ 0& -37.2661& 0\\\ 0& 0& 22.521\\\ \end{pmatrix}+ \begin{pmatrix} 3.164095\\&0 \ -3.376478& 0.017131& 0\\\ 1.637195& -0.001619& 0.309921\\\ \end{pmatrix} \begin{pmatrix} -0.377495& 0& 0\\\ 0 & -0.933623 &\4 -0.933623 &\0. \end{pmatrix} $ که نتیجه آن عبارت است از: $ \begin{pmatrix} 34.3417�& 0& 0\\\ 0 & -37.281 & 0 \\\ 0 & 0 & 22.5957\\\ \end{pmatrix} $ و من قطعا می توانم باور کنم که یک نقطه xyz جدید در (34.3417,-37.281,22.5957) میتواند با آنچه من میخواهم ایجاد کنم سازگار باشد، اما هنوز کاملاً مطمئن نیستم که از رویه معتبری برای تولید آن پیروی کردهام. هر گونه نظر بسیار قدردانی خواهد شد! | بیضوی تجزیه و اطمینان Cholesky |
34926 | **نسخه tl;dr** برای آموزش توزیع نمونه (مثلاً میانگین نمونه) در مقطع کارشناسی مقدماتی از چه استراتژی های موفقی استفاده می کنید؟ _**پیشینه_** در سپتامبر یک دوره آمار مقدماتی را برای دانشجویان سال دوم علوم اجتماعی (عمدتاً علوم سیاسی و جامعه شناسی) با استفاده از _The Basic Practice of Statistics_ توسط دیوید مور تدریس خواهم کرد. این پنجمین باری است که این درس را تدریس میکنم و یکی از مسائلی که دائماً با آن مواجه بودهام این است که **دانشجویان واقعاً با مفهوم توزیع نمونهگیری مشکل داشتهاند. این به عنوان پیش زمینه برای استنتاج پوشش داده شده است و به دنبال یک مقدمه اولیه برای احتمالات است که به نظر می رسد آنها پس از چند سکسکه اولیه مشکلی ندارند (و از ابتدایی، منظورم **پایه** است \-- بالاخره بسیاری از این دانش آموزان در یک جریان درسی خاص انتخاب شدهاند، زیرا تلاش میکردند از هر چیزی حتی با اشاره مبهم «ریاضی» اجتناب کنند). من حدس می زنم که احتمالاً 60٪ بدون درک حداقلی دوره را ترک می کنند، حدود 25٪ اصل را می دانند اما ارتباط با مفاهیم دیگر را نمی دانند و 15٪ بقیه کاملاً می دانند. _**مشکل اصلی_** به نظر می رسد مشکلی که دانش آموزان دارند با برنامه است. توضیح اینکه مشکل دقیق چیست جز اینکه بگوییم آنها متوجه نمی شوند، دشوار است. از نظرسنجی ای که ترم گذشته انجام دادم و از پاسخ های امتحانی، فکر می کنم که بخشی از دشواری اشتباه بین دو عبارت مرتبط و مشابه (توزیع نمونه و توزیع نمونه) است، بنابراین از عبارت توزیع نمونه استفاده نمی کنم. دیگر، اما مطمئناً این چیزی است که در ابتدا گیج کننده است، اما با کمی تلاش به راحتی قابل درک است و به هر حال نمی تواند سردرگمی کلی مفهوم توزیع نمونه را توضیح دهد. (میدانم که ممکن است من و تدریس من در اینجا مورد بحث باشد! با این حال فکر میکنم نادیده گرفتن این امکان ناخوشایند منطقی است زیرا به نظر میرسد برخی از دانشآموزان آن را درک میکنند و در کل به نظر میرسد که همه خوب عمل میکنند...) _** آنچه من امتحان کردم_** مجبور شدم با مدیر مقطع کارشناسی در بخش خود بحث کنم تا جلسات اجباری را در آزمایشگاه کامپیوتر معرفی کنم و فکر کنم که تظاهرات مکرر ممکن است مفید باشد. (قبل از شروع تدریس این دوره هیچ محاسباتی در کار نبود). در حالی که فکر میکنم این به درک کلی مطالب درسی به طور کلی کمک میکند، فکر نمیکنم در این موضوع خاص کمکی کند. یکی از ایده های من این است که به سادگی به آن آموزش ندهم یا به آن اهمیت زیادی ندهم، موضعی که برخی از آنها (مثلاً اندرو گلمن) از آن حمایت می کنند. من این را به خصوص راضی کننده نمی دانم زیرا بوی آموزش به کمترین مخرج مشترک را دارد و مهمتر از آن دانش آموزان قوی و با انگیزه ای را که می خواهند در مورد کاربردهای آماری بیشتر بیاموزند از درک واقعی چگونگی کارکرد مفاهیم مهم (نه تنها توزیع نمونه) رد می کند! ). از سوی دیگر، به نظر می رسد که دانش آموز میانه برای مثال مقادیر p را درک می کند، بنابراین شاید به هر حال نیازی به درک توزیع نمونه نداشته باشد. _**سوال_** برای آموزش توزیع نمونه گیری از چه راهکارهایی استفاده می کنید؟ میدانم که مطالب و بحثهایی در دسترس است (مثلاً اینجا و اینجا و این مقاله که یک فایل پیدیاف را باز میکند) اما من فقط به این فکر میکنم که آیا میتوانم نمونههای ملموسی از آنچه برای مردم کار میکند (یا حدس میزنم حتی چه چیزی کار نمیکند) داشته باشم. بنابراین من می دانم که آن را امتحان نکنم!). برنامه من در حال حاضر، همانطور که دوره خود را برای سپتامبر برنامه ریزی می کنم، این است که از توصیه های گلمن پیروی کنم و بر توزیع نمونه گیری تأکید کم داشته باشم. من آن را آموزش می دهم، اما به دانش آموزان اطمینان می دهم که این یک موضوع فقط اطلاعاتی است و در امتحان ظاهر نمی شود (به جز شاید به عنوان یک سوال اضافی؟!). با این حال، من واقعا علاقه مند به شنیدن روش های دیگری هستم که مردم استفاده کرده اند. | راهبردهای آموزش توزیع نمونه |
103074 | وقتی در R کار میکنم، هر بار که متغیر جدیدی ایجاد میکنم، سعی میکنم نام آن را ساده بگذارم تا به راحتی تایپ شود مانند «x1، x2، ...» یا «a1، a2، ...» گاهی اوقات از موقت استفاده میکنم. متغیرها با نام temp، و دوباره به ساخت متغیرهای temp1، temp2، ... ادامه میدهم. در نتیجه در نهایت من همه چیز را تا حدی به هم می ریزم که اگر بعد از چند روز به آن نگاه کنیم، درک داده ها غیرممکن است. آیا راه یا قانون آسانی برای ایجاد متغیرهای جدید و سازماندهی آنها وجود دارد؟ | چگونه نام متغیرها را در R بدون بهم ریختگی سازماندهی کنیم؟ |
83201 | من می خواهم روش تطبیق جفت خود را بر اساس این معیار ارزیابی آزمایش کنم اما مطمئن نیستم که چگونه این کار را انجام دهم؟ من فقط نمونه های تست مثبت (تطبیقی) دارم. | چگونه برای محاسبه نرخ تأیید در 0.001 FAR؟ |
103078 | در آموزش یک شبکه عصبی برای یک کار طبقهبندی تصویر، آیا خوب است به جای انجام اعتبارسنجی متقاطع k-fold، تست مجموعهای از تبدیلهای افین را در زمانی که مجموعه داده کوچک است (~1000 تصویر) افزایش دهیم. افزایش مجموعه تمرینی یک عمل استاندارد برای کاهش بیش از حد برازش است، اما با K-fold CV بسیار پرهزینه است. اما در مورد افزایش مجموعه تست هم، پس من می توانم CV استاندارد را انجام دهم. (از مراجع مقالاتی که این روش را به کار می برند قدردانی کنید) | مجموعه تست تقویتی |
103076 | من برخی از یادگیری ماشین را به عنوان یک سرگرمی انجام می دهم و با مدل های Random Forest بازی می کنم و اساساً سعی می کنم آن را برای پیش بینی چیزهای زندگی خود به کار ببرم. بنابراین من یک سری داده محصول با مثلاً 60 بعد (که PCA به 5 فاکتور کاهش می یابد) بیش از 400 نقطه داده دارم. من چند مدل را اساساً با نمونهبرداری از 200 نقطه داده تصادفی در یک زمان تولید میکنم و در نهایت دقت 60 درصدی را در حدس زدن قیمت 10 خوشه (0-10 دلار، 10-30 دلار، 300-500 دلار، و غیره) یک کالا دارم در یک بازار است بنابراین آنچه می خواهم بدانم: چگونه می توانم بهبود احتمالی دقت را در صورت داده شدن نقاط داده بیشتر بیان کنم؟ یا مفیدتر: برای حفظ سطح اطمینان بالا، مثلاً 95٪ یا X دلخواه، به چند نقطه داده نیاز دارم؟ (ویرایش: من برخی از متون قدیمی دانشگاه و ادبیات مربوط به سطح اطمینان را دوباره خواندم، اما مطمئن نیستم که به طور خاص برای مورد استفاده خود به کجا مراجعه کنم. ممکن است پیش فرض های بدی در مورد نحوه انجام این کار داشته باشم، زیرا سال هاست که ریاضی نکرده ام، پس لطفا اجازه دهید من می دانم که چگونه باید این را بازنویسی / تجدید نظر کنم!) | کمی سازی بهبود مدل با توجه به نمونه های X در ابعاد Y و دقت Z٪ در یک مدل جنگل تصادفی |
15699 | من سعی می کنم پایان نامه کارشناسی ارشد خود را در انگلستان به پایان برسانم و باید آن را در کمتر از 2 هفته ارسال کنم. بخشی از آن پیش بینی یک رگرسیون دو متغیره با استفاده از فیلتر کالمن است. این بر اساس خطوط پارامترهای متغیر زمان (TVP) خواهد بود به طوری که فیلتر کالمن اجازه می دهد پارامترها در نمونه داده تغییر کنند. معادله من بسیار ساده است: yt = a + bx1t + cx2t که در آن yt متغیر وابسته است. a = ثابت x1 = متغیر مستقل. b = ضریب برای x1. x2 = متغیر مستقل. c = ضریب برای x2. من سعی می کنم از فیلتر کالمن برای پیش بینی yt در قالب پارامترهای متغیر با زمان (TVP) استفاده کنم. من برخی از بسته ها و مقالات را مرور کرده ام اما مطمئن نیستم که چگونه برخی از آرگومان ها (FF، V، GG، W، m0، C0، dV و غیره) را برای دستورات بسته **dlm** پر کنم. (dlmFilter، dlmForecast). میدانم که در بسته **sspir**، **SS** و **kfilter** دستورات میتوانند برای این مورد استفاده شوند. کسی قدم به قدم به من بگوید چگونه از این دستورات استفاده کنم. استدلال، برای داده های من لطفا. این برای پایان نامه کارشناسی ارشد من است و من در زمان کوتاهی هستم. | پیش بینی فیلتر کالمن |
89064 | من سعی می کنم یک مجموعه داده کوچک (حدود 500 رکورد) را به دو کلاس طبقه بندی کنم. من از روش های مختلفی مانند SVM، Naive Bayes و طبقه بندی کننده k-nn استفاده کردم. اکنون، میخواهم نتایج را از یکی از طبقهبندیکنندههای پایه من تنظیم کنم و یک آزمون فرضیه آماری را انجام دهم. من با این رشته از آزمون های آماری آشنایی چندانی ندارم و در تعجبم که چگونه در این زمینه ادامه دهم. من به این فکر می کردم که طبقه بندی کننده SVM را به عنوان خط پایه خود تنظیم کنم، اما مطمئن نیستم که چگونه آزمون t (یا مشابه) را روی داده ها انجام دهم. مجموعه داده ورودی دارای 10 ویژگی است. آیا باید از نتایج طبقه بندی دو طبقه بندی کننده استفاده کنم و یک آزمون t زوجی روی آنها انجام دهم؟ برای مثال، من میتوانم نتیجه را از Naive Bayes بگیرم و آزمون t زوجی را با نتایج SVM (که خط پایه است) انجام دهم. آیا این رویکرد درستی است؟ همچنین، من با توضیح فرضیه صفر و جایگزین گیج شده ام. آیا کسی میتواند در مورد چگونگی رفع فرضیه صفر و جایگزین ایدهای ارائه دهد. | نحوه انجام آزمون فرضیه برای مقایسه طبقه بندی کننده های مختلف |
36165 | آیا کسی می تواند توضیح دهد که چرا ما به تعداد زیادی درخت در جنگل تصادفی نیاز داریم در حالی که تعداد پیش بینی کننده ها زیاد است؟ چگونه می توانیم تعداد بهینه درختان را تعیین کنیم؟ | آیا تعداد بهینه درختان در یک جنگل تصادفی به تعداد پیش بینی کننده ها بستگی دارد؟ |
15691 | من می دانم که آنتروپی Tsallis($S_q$) غیر گسترده نامیده می شود به این معنا که اگر $P$ و $Q$ دو توزیع احتمال باشند، آنگاه $S_q(P\times Q)=S_q(P)+S_q(Q)+ (1-q)S_q(P)S_q(Q)$. آیا کسی می تواند توضیح دهد که منظور از آمار غیر گسترده یا مکانیک آماری غیر گسترده چیست؟ کمی جستجو کردم. من چیزی پیدا نکردم که به وضوح توضیح دهد. امیدوارم کسی در تبادل آمار بتواند آن را از نظر ریاضی توضیح دهد. | آمار غیر گسترده |
6454 | آیا می توان تنها دو مطالعه را متاآنالیز کرد؟ محدودیت چنین تحلیلی چه خواهد بود. | آیا می توان تنها دو مطالعه را متاآنالیز کرد؟ |
85913 | من میخواهم یک DLM را با ضرایب متغییر زمان، یعنی یک پسوند به رگرسیون خطی معمولی، $y_t = \theta_1 + \theta_2x_2$، جا بدهم. من یک پیش بینی کننده ($x_2$) و یک متغیر پاسخ ($y_t$)، صید ماهی سالانه دریایی و داخلی به ترتیب از سال 1950 تا 2011 دارم. من می خواهم مدل رگرسیون DLM دنبال شود، $y_t = \theta_{t,1} + \theta_{t,2}x_t$ که در آن معادله تکامل سیستم $\theta_t = G_t است \theta_{t-1}$ از صفحه 43 مدلهای خطی پویا با R توسط پتریس و همکاران. مقداری کدگذاری در اینجا، fishdata <- read.csv(http://dl.dropbox.com/s/4w0utkqdhqribl4/fishdata.csv, header=T) x <- fishdata$marinefao y <- fishdata$inlandfao lmodel <- lm(y ~ x) خلاصه (lmodel) نمودار (x, y) abline (lmodel) به وضوح ضرایب متغیر زمان مدل رگرسیون در اینجا مناسب تر است. من مثال او را از صفحات 121 - 125 دنبال می کنم و می خواهم این را در داده های خودم اعمال کنم. این کدنویسی از مثال ############ PAGE 123 need(dlm) capm <- read.table(http://shazam.econ.ubc.ca/intro/P.txt ، header=T) capm.ts <- ts(capm، start = c(1978, 1)، فرکانس = 12) colnames(capm) plot(capm.ts) IBM <- capm.ts[، IBM] - capm.ts[، RKFREE] x <- capm.ts[، MARKET] - capm.ts[، RKFREE] x plot(x) outLM <- lm(IBM ~ x) outLM$coef acf(outLM$res) qqnorm(outLM$res) sig <- var(outLM$res) sig mod <- dlmModReg(x,dV = sig, m0 = c(0, 1.5), C0 = diag(c(1e+07, 1))) outF <- dlmFilter(IBM, mod) outF$m نمودار(outF $m) outF$m[ 1 + طول (IBM)، ] ########## صفحات 124-125 buildCapm <- function(u){ dlmModReg(x، dV = exp(u[1])، dW = exp(u[2:3])) } outMLE <- dlmMLE(IBM، parm = rep(0،3) , buildCapm) exp(outMLE$par) outMLE outMLE$value mod <- buildCapm(outMLE$par) outS <- dlmSmooth(IBM, mod) plot(dropFirst(outS$s)) outS$s من میخواهم بتوانم تخمینهای هموارسازی «plot(dropFirst(outS$s))» را برای دادههای خودم ترسیم کنم، که در آن مشکل دارم اجرا کردن **به روز رسانی** اکنون می توانم این طرح ها را تولید کنم اما فکر نمی کنم درست باشند. fishdata <- read.csv(http://dl.dropbox.com/s/4w0utkqdhqribl4/fishdata.csv، header=T) x <- as.numeric(fishdata$marinefao) y <- as.numeric(fishdata $inlandfao) xts <- ts(x، start=c(1950،1)، فرکانس=1) xts yts <- ts(y, start=c(1950,1)، فرکانس=1) yts lmodel <- lm(yts ~ xts) #################### ########################### نیازمند(dlm) buildCapm <- function(u){ dlmModReg(xts، dV = exp(u[1])، dW = exp(u[2:3])) } outMLE <- dlmMLE(yts، parm = rep(0،3)، buildCapm) exp(outMLE$par ) outMLE$value mod <- buildCapm(outMLE$par) outS <- dlmSmooth(yts, mod) plot(dropFirst(outS$s)) > summary(outS$s); lmodel$coef V1 V2 Min. :87.67 دقیقه :1.445 1st Qu.:87.67 Qu. 1st:1.924 Median :87.67 Median :3.803 Mean :87.67 Mean :4.084 3rd Qu.:87.67 Qu. 3:6.244 Max. حداکثر :87.67 :7.853 (Intercept) xts 273858.30308 1.22505 برآورد هموارسازی رهگیری (V1) از ضریب رگرسیون lm فاصله زیادی دارد. من فکر می کنم آنها باید به یکدیگر نزدیک تر باشند. | برازش ضریب تغییر زمان DLM |
111041 | اجازه دهید $Y = \max\\{0,Y^*\\}$، که در آن $Y^*$ از توزیع پیوسته پیروی می کند. در مقاله ای که در حال خواندن آن هستم متوجه شدم که $$ f_{Y,Y^*}(Y, Y^*) = I(Y = Y^*)f_{Y^*}(Y^*), $$ که در آن $I(\cdot)$ یک تابع نشانگر است. من نمی دانم چگونه این عبارت را استخراج کنم. اگر از قانون بیز استفاده کنم، $$ f_{Y,Y^*}(Y, Y^*) = f_{Y|Y^*}(Y|Y^*)f_{Y^*}(Y) دریافت می کنم ^*)، $$ اما من نمی دانم چگونه با این شی برخورد کنم. | توزیع مشترک مختلط |
15343 | اگر کسی بخواهد با دادههای نوع لیکرت یک نمونه استنتاج کند، از چه آزمونهایی میتوان استفاده کرد؟ آزمون رتبه امضا شده؟ | استنتاج با داده های تک نمونه ای از نوع لیکرت |
15692 | آیا کتاب های خوبی وجود دارد که مفاهیم مهم نظریه احتمال مانند توابع توزیع احتمال و توابع توزیع تجمعی را توضیح دهد؟ لطفاً از ارجاع کتابهایی مانند «آمار ریاضی و تجزیه و تحلیل دادهها» نوشته جان رایس که با مفاهیم جایگشتی ساده شروع میشود و سپس ناگهان (در فصل دوم) با فرض دانش در تجزیه و تحلیل واقعی، انتگرالهای چندگانه و سطحی جهش میکنند و شروع به توصیف CDFها و PDFها میکنند، خودداری کنید. آنها را در شکل های سه بعدی نشان می دهد. یکی مانده است که چگونه همه چیز وصل شده است. من به دنبال کتاب های خودآموز هستم و هر کتابی در همان دسته حساب حساب برای انسان عملی کمک بزرگی می کند؟ | کتاب های نظریه احتمال برای خودآموزی |
109767 | من قصد داشتم از آزمون Tukey HSD برای داده های زیر استفاده کنم، زیرا در مطالعه ای با رویکرد مشابه مورد استفاده قرار گرفت. من داده های سهام را برای سه محدوده زمانی (داده های روزانه 1 ساله، داده های هفتگی 2 ساله، داده های ماهانه 8 ساله از امروز) پسرفت کردم و مقادیر (بتا و) آلفا را دریافت کردم. متغیر وابسته: بازده سهام S&P 500. متغیر مستقل: همیشه بازده یکی از 13 تراست سرمایه گذاری املاک هتل. بتا از بازده سهام REIT و S&P500 محاسبه می شود که برای محاسبه آلفای جنسن (بر اساس CAPM) استفاده می شود. پس از آن من یک ANOVA یک طرفه از آلفاها (در مجموع سه آلفا، یکی برای هر دوره زمانی) و سپس در نهایت تست Tukey HSD انجام می دهم. قرار است نشان دهد که آیا REITها در یکی از دوره ها به طور قابل توجهی بهتر عمل کردند. من مطمئن نیستم که اندازه نمونه من به طور خاص چقدر است (یا اینکه برابر است)، زیرا تعداد نقاط داده ای که در سه محدوده زمانی برای محاسبه آلفاها دارم متفاوت است، اگرچه تعداد شرکت ها به وضوح ثابت می ماند. آیا این منطقی است؟ | مشکل اندازه نمونه با تست Tukey HSD |
6453 | من آزمایشهایی را بر روی گروهی از کاربران تحت دو شرط انجام دادهام، و مدت زمانی را که کاربران برای اتمام آزمایشهایشان صرف کردند، اندازهگیری کردم. من از یک طرح متقاطع استفاده کردم که در آن نیمی از کاربران در شرایط اول شروع کردند تا با حالت دوم به پایان برسند و نیمی دیگر از کاربران برعکس عمل کردند. من دادههای ارائه شده در چند ANOVA مختلف را تجزیه و تحلیل میکنم و p-valueهای متفاوتی را برای فرضیههایم پیدا میکنم. برخی زیر 0.05، برخی زیر 0.01، برخی بیش از 0.05 هستند. آیا باید یک سطح آلفا از اهمیت آماری را برای استفاده در تمام تجزیه و تحلیل خود تثبیت کنم، یا می توانم چیزی مانند فرضیه A در سطح آلفا 0.05 درست است، در حالی که فرضیه B در سطح آلفا 0.01 درست است گزارش کنم (بنابراین، احتمالاً یک دلیل قوی تر)'؟ نمی دانم اینجا به اندازه کافی شفاف هستم یا نه. به من اطلاع دهید و در صورت نیاز جزئیات را اضافه خواهم کرد. با تشکر | چگونه آستانه اعتبار آماری مقادیر p تولید شده توسط ANOVA را ثابت کنیم؟ |
87450 | من داده هایی در مورد فراوانی خسارت و چندین پیش بینی کننده مانند سن، جنسیت شخص بیمه شده و ویژگی وسیله نقلیه دارم. من فرض میانگین برابر با واریانس یک مدل پواسون را بررسی کردم. اکنون می خواهم چند خطی بودن و هموسداستیتی بودن را آزمایش کنم. چگونه باید اقدام کنم تا با استفاده از مدل رگرسیون پواسون، مدل مناسبی را انتخاب و برازش کنم؟ | مراحل لازم برای انتخاب مدل مناسب برای رگرسیون پواسون |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.