_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
49819
من به دنبال یک بسته طبقه بندی متن بیز چند جمله ای ساده در R هستم که یک ماتریس سند اصطلاحی (از tm) را به عنوان ورودی برای آموزش می پذیرد و متن جدید را بر اساس آن طبقه بندی می کند. من حدود 50.000 سند کوتاه دارم که به حدود 30 موضوع مختلف تعلق دارد (موضوعات توسط LDA اختصاص داده شده است) و می خواهم برای اسناد جدید امتیاز احتمالی بگیرم.
بسته R برای طبقه بندی متن بیز چند جمله ای ساده؟
26795
من با ایده متریک در نرم افزار آشنا هستم و چیزهایی در مورد استفاده از توابع فاصله در خوشه بندی می دانم، اما واقعاً نمی دانم منظور از متریک فاصله رسمی چیست. تفاوت بین یک تابع فاصله و یک متریک رسمی فاصله چیست؟
منظور از اصطلاح متریک فاصله رسمی چیست؟
44445
فرض کنید دنباله ای را مشاهده می کنید: 7، 9، 0، 5، 5، 5، 4، 8، 0، 6، 9، 5، 3، 8، 7، 8، 5، 4، 0، 0، 6، 6، 4، 5، 3، 3، 7، 5، 9، 8، 1، 8، 6، 2، 8، 4، 6، 4، 1، 9، 9، 0، 5، 2، 2، 0، 4، 5، 2، 8 ... چه آزمون های آماری را برای تعیین اینکه آیا این واقعا تصادفی است اعمال می کنید؟ FYI اینها $n$th ارقام $\pi$ هستند. بنابراین، آیا ارقام $\pi$ از نظر آماری تصادفی هستند؟ آیا این چیزی در مورد ثابت $\pi$ می گوید؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/iBeId.png)
آیا ارقام $\pi$ از نظر آماری تصادفی هستند؟
48651
من به دنبال بسته های رگرسیون حداقل زاویه (LAR) در R یا MATLAB هستم که می تواند برای مشکلات **طبقه بندی** استفاده شود. تنها بسته ای که من در حال حاضر می دانم که با این توضیحات مطابقت دارد glmpath است. مشکل این بسته این است که کمی قدیمی است و دامنه آن تا حدودی محدود است (من مجبور هستم برای مدل مشکلات طبقه بندی به رگرسیون لجستیک تکیه کنم). من نمی‌پرسم آیا کسی بسته‌های دیگری را می‌شناسد که به من اجازه می‌دهد LAR را بر روی انواع مختلف مدل‌های طبقه‌بندی، مانند ماشین‌های بردار پشتیبانی اجرا کنم (به کل مسیر منظم‌سازی برای ماشین بردار پشتیبانی مراجعه کنید). بسته ایده‌آل به من امکان می‌دهد الگوریتم‌های نوع LAR را برای انواع مختلف مدل‌های طبقه‌بندی اجرا کنم و همچنین تابعی را ارائه کنم که می‌تواند مسیر منظم‌سازی کامل را ایجاد کند.
بسته های رگرسیون زاویه حداقل برای R یا MATLAB
67613
ادبیات مالی عمومی اخیر اغلب جرم اضافی نسبی را حول نقاط خاصی از توزیع سود تخمین می زند (مثلاً نقاط پیچ خوردگی یا بریدگی برنامه های مالیاتی)، و سپس برای دریافت خطاهای استاندارد راه اندازی می شود. این کار برای تخمین ناپارامتری کشش های محلی (پاسخگویی) انجام می شود. من می دانم که چگالی هسته به خودی خود برای بوت استرپ مشکل ساز است، شاید با نمونه برداری فرعی بهتر باشد. و این روش تقریب جرم زیر هیستوگرام یا توابع توزیع تجربی را به چگالی های محلی مرتبط می کند. آیا برآوردگر به اندازه کافی صاف و هموار است که بوت استرپ شود؟ برآوردگر احتمالاً چه میزان همگرایی دارد (برای هر روشی)؟ شاید کسی شهودی داشته باشد. من از هیچ نظریه آماری برای این مشکل آگاه نیستم. بسیاری از مقالات به طور مستقیم از کد این مقاله هم برای تخمین و هم برای راه‌اندازی استفاده می‌کنند، اگرچه ایده و انگیزه نظری از این مقاله می‌آید. کمی جزئیات بیشتر در نظر من در وبلاگ Normal Deviate یا سوال من در Statalist است.
آیا تخمین جرم اضافی به اندازه کافی روان است که بوت استرپ شود؟ با چه نرخی ممکن است یک برآوردگر دسته بندی همگرا شود؟
44447
این سوال در کلاس تئوری آماری من در مورد HW بود و من پاسخ و توضیح استاد را رضایت بخش نمی دانم. لطفاً راهنماییم کنید که چرا *$\bar{x}$ MLE است اگر چنین است، یا * اگر فکر می‌کنم که هر دو $\bar{x}$ و $1-\bar درست است، به من اطلاع دهید {x}$ تابع احتمال را به حداکثر می‌رساند و بنابراین MLE منحصر به فرد نیست، یا * اگر مشکل حتی همانطور که مطرح شده است به خوبی تعریف شده باشد. من احساس می کنم این نیز می تواند باشد. من تعریف MLE را در شرایط منظم‌تر، همانطور که در بخش اصول http://en.wikipedia.org/wiki/Maximum_likelihood توضیح داده شده است، درک می‌کنم، اما شکل عجیب و غریب PDF مشکلاتی را با موارد فوق‌العاده‌ای که من از آنها استفاده نمی‌کنم به‌وجود می‌آورد. برای برخورد با **سوال:** اجازه دهید $X_1,...,X_n$ یک i.i.d باشد. دنباله ای از RVهای با ارزش 0-1 با احتمالات $$ P(X_1=1)=\begin{cases} \theta, & \theta\in\mathbb{Q}\\\1-\theta و \theta\notin \mathbb{Q} \end{cases} $$ جایی که $\theta\in(0,1)$. آیا MLE $\theta$ وجود دارد؟ **طرح کلی راه حل استاد:** این ایده اصلی راه حل اساتید من است. تابع درستنمایی $$ است L(\theta|x_1,...,x_n)=\\{\theta^{\sum{x_j}}(1-\theta)^{n-\sum{x_j}}\ chi_{\theta\in\mathbb{Q}} +\theta^{n-\sum{x_j}}(1-\theta)^{\sum{x_j}}\chi_{\theta\notin\mathbb{Q}}\\} $$ جایی که $\chi_A$ تابع نشانگر مجموعه $A$ است. ما $$ \begin{eqnarray} \underset{\theta\in[0,1]}{\sup} L(\theta|x_1,...,x_n)&=&\underset{\theta\in[ داریم 0,1]}{\sup} {\\{\theta^{\sum{x_j}}(1-\theta)^{n-\sum{x_j}}\chi_{\theta\in\mathbb{Q}} +\theta^{n- \sum{x_j}}(1-\theta)^{\sum{x_j}}\chi_{\theta\notin\mathbb{Q}}\\}} \\\&=& \max\\{\underset{\theta\in\mathbb{Q}}{\sup} \\{\theta^{\sum{x_j}}(1-\theta)^{n-\sum{x_j} }\\}،\underset{\theta\notin\mathbb{Q}}{\sup} \\{\theta^{n-\sum{x_j}}(1-\theta)^{\sum{x_j}}\\}\\} \\\&=& \max\\{\bar{x}^{\sum{x_j}}(1-\bar{x})^{n-\sum{x_j}}،(1-\bar{x})^{n -\sum{x_j}}\bar{x}^{\sum{x_j}}\\} \\\&=& \bar{x}^{\sum{x_j}}(1-\bar{x})^{n-\sum{x_j}} \end{eqnarray} $$ **پروفسور:** در این مرحله، استاد استدلال می کند که برتری در ترم دوم،$\underset{\theta\notin\mathbb{Q}}{\sup} \\{\theta^{n-\sum{x_j}}(1-\theta)^{\sum{x_j}}\\}\\}$ به دست نمی‌آید زیرا $\bar{x}$ یک منطقی است شماره از آنجایی که داده‌ها از اعداد گویا تشکیل شده‌اند، مازاد جمله اول، $\underset{\theta\in\mathbb{Q}}{\sup} \\{\theta^{\sum{x_j}}(1-\ تتا)^{n-\sum{x_j}}\\}$ با $\hat{\theta}_1=\bar{x}$ به دست می‌آید و این MLE از $\تتا$. **من:** به نظر می‌رسد که ما باید برتری را در مورد بسته شدن مجموعه‌های $\mathbb{Q}$ و $\mathbb{R}\backslash\mathbb{Q}$ در نظر بگیریم که $[0 خواهد بود، 1]$، در این صورت $\sup L(\theta|x_1,...,x_n)$ در هر دو $\hat{\theta}_1=\bar{x}$ و $\hat{\theta}_2=1-\bar{x}$. در غیر این صورت، اساساً فرض می‌کنیم که $\theta$ منطقی است و $\theta$ غیرمنطقی را نادیده می‌گیریم. آیا این مورد است؟ اگر چنین است، آیا این ویژگی نامطلوب اصل احتمال در موارد عجیب و غریب مانند این است؟ آیا شرایط قابل قبولی وجود دارد که چنین مسائلی رخ دهد؟ آیا باید از نگرانی در مورد مشکلات عجیب و غریب مانند این دست بردارم؟ به عنوان کنار، با توجه به اینکه $[0,1]\backslash\mathbb{Q}$ دارای اندازه Lebesgue 1 است و $[0,1]\cap\mathbb{Q}$ دارای اندازه Lebesgue 0 است، به نظر می رسد $\bar{ x}$ تخمین‌گر بدی است، زیرا اگر در یک مجموعه بسیار کوچک باشد، تخمین زده می‌شود $\theta$. همچنین، اگر $\theta\in\mathbb{R}\backslash\mathbb{Q}$، $\hat{\theta}_2=1-\bar{x}$ سازگار است، بنابراین نمی‌توانم به دلیل خوبی برای اینکه چرا $\bar{x}$ بهتر است. **ویرایش** همانطور که @cardinal اشاره کرد، $x_i$ بدیهی است که منطقی است، بنابراین این یک مسئله نیست. این اولین سوء تفاهم (احمقانه) من را برطرف کرد، که شامل فرض این بود که برآوردگر $\bar{x}$ می‌تواند غیرمنطقی یا منطقی باشد.
مسئله عجیب MLE بر اساس تابع دیریکله
106406
من در حال ساخت یک مدل رگرسیون هستم و با نحوه گنجاندن اطلاعات جغرافیایی در مدل به عنوان پیش‌بینی‌کننده در مدل مشکل دارم. من سطوح جغرافیایی مختلفی از جزئیات دارم: ZIP، CBSA (منطقه آماری مبتنی بر هسته)، و ایالت. ایده این است که جغرافیا را تا حد ممکن کاهش دهیم بدون اینکه جغرافیا را به یک میلیارد عامل مختلف تقسیم کنیم. در حالت ایده آل، ما فقط همه چیز را به سطح ZIP تقسیم می کنیم، اما مشاهدات کافی در آن سطح نداریم. اساساً مشکل ایجاد تعادل بین تعداد عوامل با مشاهدات در هر عامل است. آیا راهی ریاضی برای تعیین تعداد صحیح مشاهدات در سطح ZIP / CBSA / State وجود دارد تا به بهترین عملکرد مدل منجر شود؟ در حال حاضر من در حال انجام یک روش هک آمیز هستم و ترکیب های مختلفی از مشاهدات را در هر سطح جغرافیایی امتحان می کنم تا ببینم چه چیزی به بهترین پیش بینی ها منجر می شود.
متغیر عامل تودرتو: چگونه می توان تعداد مشاهدات را با تعداد سطوح یک عامل متعادل کرد؟
68448
من یک مجموعه داده فضایی با برخی از xs و ys در مکان های فضایی مختلف دارم. من می خواهم یک تابع رگرسیون غیر خطی را با استفاده از شبکه های عصبی یاد بگیرم. من به داده‌های آموزشی نگاه کردم و خروجی‌ها مکان‌های متفاوتی هستند، یعنی همبستگی بالایی دارند. بنابراین، به جای یادگیری یک رگرسیون جداگانه برای هر مورد، به مدل سازی یک پیش بینی چند هدف فکر می کردم. من در فکر یادگیری یک مشترک با استفاده از شبکه های عصبی بودم. من سعی کردم از «nntool» Matlab استفاده کنم، اما به من اجازه می‌دهد در هر بار تنها یک خروجی را مدل کنم. برای مدلسازی همزمان چند خروجی چه کاری باید انجام دهم؟
استفاده از شبکه های عصبی برای پیش بینی چند هدف
21548
فرض کنید تقاضا از MA(1) پیروی می کند: $$d_t=c+e_t-\theta e_{t-1}، $$ اکنون اعمال کنید، SES (هموارسازی تک نمایی) به عنوان یک روش پیش بینی. می دانیم که تقاضای $d_t$ مستقل نیست. میخواستم بدونم که آیا پیش بینی ها و خطاها (پیش بینی تقاضا) هم مستقل نیستند؟
پیش بینی و خطاها، وابسته یا مستقل
20499
با توجه به دو متغیر تصادفی $X$ و $Y$ که به طور یکسان توزیع شده اند (نیازی نیست مستقل باشند) از یک توزیع (شناخته شده) (و بنابراین، $\newcommand{\E}{\mathbb E}\E(X)$ و $\E(Y)$) و چگالی مشترک، $f(x,y)$ و انتظار شرطی $\E(X \mid Y)$، آیا می توان $\E( X را محاسبه کرد \ اواسط X+Y )$؟
محاسبه انتظار متغیر تصادفی (با توزیع مشخص و چگالی مشترک) مشروط به مجموع
26797
من مجموعه داده های کوچکی با اندازه 40-50 امتیاز دارم. بدون فرض اینکه داده‌ها به طور معمول توزیع شده‌اند، می‌خواستم حداقل با اطمینان 90 درصد مقادیر پرت را پیدا کنم. من فکر کردم که boxplot می تواند راه خوبی برای انجام این کار باشد، اما مطمئن نیستم. هر گونه کمک قدردانی می شود. همچنین با پیاده‌سازی باکس پلات، من نتوانستم پیاده‌سازی را پیدا کنم که علاوه بر ترسیم طرح، به صراحت نقاط پرت را بیرون بیاورد.
یافتن نقاط پرت بدون فرض توزیع نرمال
63379
1. من تعجب کردم که چرا برای گروه های $g$، همیشه می توان تضادهای متعامد $g - 1$ را ساخت و $g - 1$ حداکثر عدد است؟ مثال متقابلی که من دارم این است که برای دو گروه با میانگین $\mu_1$ و $\mu_2$، $g=2$، و $\mu_1$ و $\mu_2$ خود دو کنتراست متعامد هستند. 2. تعریف تضادهای متعامد که من آموخته ام مجموعه ای از تضادها است که در آن، برای هر جفت مجزا، مجموع حاصلضرب های متقاطع ضرایب صفر است. بنابراین یک مفهوم جفتی است. تضادهای متعامد متقابل به چه معناست و آیا به صورت زوجی تعریف نشده است؟ با تشکر
چرا حداکثر تعداد کنتراست های متعامد برابر با تعداد گروه ها منهای یک است و متعامد متقابل به چه معناست؟
26790
من روی یک پروژه قیمت‌گذاری اوراق بهادار کار می‌کنم و مجموعه‌ای از مدل‌ها را دارم که می‌خواهم آنها را با هم جمع کنم. من تاکنون از رگرسیون خطی ساده در R (تابع lm()) استفاده کرده‌ام، اما نتایج به‌خوبی برازنده هستند. آیا کسی پیشنهادی برای این دارد که آیا روش دیگر انباشته‌سازی ممکن است بهتر باشد یا مقاله/مقاله‌ای که نحوه چیدن مدل‌های رگرسیون را توضیح می‌دهد (بر خلاف مدل‌های طبقه‌بندی).
ترکیب مدل های رگرسیون
87486
من یک رگرسیون چندگانه با 1 DV و 6 IV انجام می دهم. من سعی می کنم Homoscedasticity را در SPSS با استفاده از یک نمودار پراکنده آزمایش کنم زیرا همه متغیرهای من مقیاس هستند. من یک نمودار پراکندگی باقیمانده در مقابل مقدار پیش‌بینی‌کننده انجام دادم و فکر می‌کنم ممکن است کمی ناهمگون باشد. چگونه بفهمم کدام متغیر مشکل ساز است؟ و گام بعدی باید چه باشد تا بتوانم داده‌های خود را همسان‌سازی کنم؟
آزمایش همسویی برای رگرسیون چندگانه در SPSS
67615
من علاقه مند به کدنویسی رویکرد بوت استرپ-$t$ با ثبات واریانس برای محاسبه فواصل اطمینان هستم. با این حال، من کمی گیر کرده ام و می توانم از کمکی استفاده کنم. من این را در R کدنویسی می کنم و این چیزی است که تا کنون به دست آورده ام: داده = مجموعه داده برای (i در 1: B){ boot = نمونه (nrow(data), replace=TRUE) boot_data = data[boot,] boot_stat [ i]= f(boot_data) for(j در 1:M){ boot_boot = sample(nrow(boot_data),replace=TRUE) boot_boot_data = boot_data[boot_boot,] boot_boot_stat = f(boot_data) } se[i] = sum_over_M((boot_boot_stat-est_stat)^2)/(M-1) } اکنون من B تکرار از se دارم، و باید آنها را همانطور که هستند تثبیت کنم مستقل از boot_stat نیست. temp = lowess(se~boot_stat)$y inv = 1/temp f = approxfun(boot_stat,inv,yleft=0,yright=0) int = integrate(f,min(boot_stat),max(boot_stat)) اکنون من نمی دانم چگونه ادامه دهم می‌دانم که باید راه‌انداز دیگری را اجرا کنم، اما مطمئن نیستم که چه چیزی را راه‌اندازی می‌کنم. ربطی به تبدیل معکوس دارد، اما من هنوز گیر کرده ام. هر ایده ای؟
نحوه کدگذاری روش بوت استرپ-t با ثبات واریانس برای فواصل اطمینان
21547
برخی از آنها یادداشتی خواندم که اگر پارامترهای زیادی $(x_1، x_2، \ldots، x_n)$ داشته باشید و سعی کنید یک متریک تشابه بین این بردارها پیدا کنید، ممکن است نفرین ابعاد داشته باشید. من معتقدم به این معنی است که اکثر نمرات شباهت برابر خواهد بود و هیچ اطلاعات مفیدی به شما نمی دهد. به عبارت دیگر تقریباً همه بردارهای شریک مقداری امتیاز فاصله متوسط ​​خواهند داشت که برای دسته بندی یا خوشه بندی و غیره مفید نیست. آیا می دانید کجا می توانم جزئیات بیشتری در مورد آن بیاموزم؟ آیا معیارهایی وجود دارند که کمتر از این تأثیر رنج می برند؟
متریک فاصله و نفرین ابعاد
24324
این چیزی است که به نظر من به عنوان یک روش موقت انجام می شود و به نظر من بسیار بد است، اما شاید چیزی را از دست داده ام. من این کار را در رگرسیون چندگانه دیده‌ام، اما اجازه دهید آن را ساده نگه داریم: $$ y_{i} = \beta_{0} + \beta_{1} x_{i} + \varepsilon_{i} $$ حالا باقی‌مانده‌ها را در نظر بگیرید از مدل نصب شده $$ e_{i} = y_{i} - \left( \hat{\beta}_{0} + \hat{\beta}_{1} x_{i} \right) $$ و نمونه را بر اساس اندازه باقیمانده ها طبقه بندی کنید. به عنوان مثال، بگویید نمونه اول 90٪ پایین باقیمانده ها است و نمونه دوم 10٪ بالا است، سپس به انجام دو مقایسه نمونه ادامه دهید - من این کار را روی پیش بینی کننده در مدل مشاهده کرده ام، $x$ و روی متغیرهایی که در مدل نیستند. منطق غیررسمی استفاده شده این است که شاید نقاطی که مقادیری بسیار بالاتر از آنچه در مدل انتظار دارید (یعنی یک باقیمانده بزرگ) دارند به نوعی متفاوت باشند و این تفاوت به این طریق بررسی می شود. نظرات من در مورد این موضوع عبارتند از: * اگر تفاوت 2 نمونه ای را روی یک پیش بینی در مدل مشاهده کردید، در این صورت اثرات پیش بینی کننده وجود دارد که مدل در حالت فعلی آن در نظر گرفته نشده است (یعنی اثرات غیر خطی). * اگر تفاوت 2 نمونه ای روی متغیری که در مدل نیست مشاهده کردید، شاید از ابتدا باید در مدل وجود داشت. یک چیزی که من به صورت تجربی (از طریق شبیه سازی) پیدا کردم این است که، اگر میانگین یک پیش بینی کننده را در مدل $x$ مقایسه می کنید و به این ترتیب برای تولید دو میانگین نمونه طبقه بندی می کنید، $\overline{x}_{ 1}$ و $\overline{x}_{2}$، آنها با یکدیگر همبستگی مثبت دارند. این منطقی است زیرا هر دو نمونه به $\overline{y}، \overline{x}، \hat{\sigma}_{x}، \hat{\sigma}_{y}$ و $\hat{\ بستگی دارند. rho}_{xy}$. این همبستگی با حرکت برش به پایین (یعنی درصدی که برای تقسیم نمونه استفاده می کنید) افزایش می یابد. بنابراین حداقل، اگر می‌خواهید یک مقایسه دو نمونه‌ای انجام دهید، خطای استاندارد در مخرج $t$-آمار باید برای محاسبه همبستگی تنظیم شود (اگرچه من یک فرمول صریح استخراج نکرده‌ام. برای کوواریانس). به هر حال، سوال اساسی من این است: آیا دلیلی برای انجام این کار وجود دارد؟ اگر چنین است، در چه شرایطی این کار می تواند مفید باشد؟ واضح است که فکر نمی‌کنم وجود داشته باشد، اما ممکن است چیزی وجود داشته باشد که به درستی به آن فکر نمی‌کنم.
آیا اصلاً قابل دفاع است که یک مجموعه داده را بر اساس اندازه باقیمانده طبقه بندی کنیم و یک مقایسه دو نمونه ای انجام دهیم؟
21543
من می‌خواهم یک مدل مخلوط را با متغیرهای پیوسته (ورودی) برای خوشه‌بندی داده‌هایم جا بزنم. برخی از متغیرها با یکدیگر همبستگی دارند. آیا باید متغیرهای همبسته را حذف کنم و فقط یکی از آنها را (به ازای هر گروه از متغیرهای همبسته) حفظ کنم یا می توانم همه آنها را نگه دارم؟
آیا می توانم از متغیرهای همبسته در یک مدل مخلوط استفاده کنم؟
58728
من از رگرسیون لجستیک ترتیبی استفاده کرده ام که در آن متغیر پاسخ NPS و متغیرهای توضیحی سوالات متفاوتی هستند. من مدلی پیدا کرده ام که تمام سوالات در آن قابل توجه است. سپس یک جدول طبقه بندی انجام دادم تا ببینم مدل چقدر می تواند مشاهدات گروه NPS مناسب را پیش بینی کند. نرخ طبقه بندی که من دریافت کردم 70٪ بود و من نمی دانم که آیا این نرخ طبقه بندی خوبی است؟ چه میزان طبقه بندی خوب و بد در نظر گرفته می شود؟
نرخ طبقه بندی
2972
کمی قبل، J.M. استفاده از الگوریتم استوارت را برای تولید ماتریس های متعامد تصادفی شبه تصادفی $n$ در $n$ در زمان $O(n^2)$ پیشنهاد کرد. وی در ادامه خاطرنشان کرد که این متدولوژی در جعبه ابزار محاسبات ماتریسی نیک هیگام (matlab) پیاده سازی شده است. اکنون این بسته شامل یک دسته فایل .m است. آیا کسی می تواند مرا راهنمایی کند که کدام یک مولد ماتریس متعامد شبه تصادفی را پیاده سازی می کند؟ از طرف دیگر، آیا کسی از اجرای R این الگوریتم اطلاع دارد؟
تولید ماتریس متعامد شبه تصادفی
68444
سلام مجموعه داده ای دارید که من با استفاده از مشاهدات فصلی (از حساب های بانکی) ساخته ام. من می‌توانستم از داده‌های نیم‌سال یا سالانه نیز استفاده کنم، اما فصلی را انتخاب کردم زیرا فکر می‌کردم که داده‌های فرکانس بالاتر می‌تواند به من کمک کند تا تخمین‌های قابل اعتمادتری به دست بیاورم. سؤال این است که از منظر نظری و/یا عملی، چگونه استفاده از داده‌های فرکانس بالاتر را توجیه می‌کنید؟ هر مرجع کتاب یا مقاله بسیار قدردانی می شود.
فراوانی داده ها: آیا داده های فصلی بهتر از داده های نیمه سال است؟ چرا؟
68442
من تازه وارد matlab هستم، من در حال انجام پروژه ساده با استفاده از فازی شناسی در متلب هستم. پروژه من دارای 2 سطح است. در سطح اول من 4 سیستم استنتاج فازی انفرادی (FIS) دارم و در سطح 2 یک FIS دارم که ورودی هر چهار FIS سطح اول را از خروجی می گیرد. من در حال دریافت خروجی برای سطح مشت 4 FIS هستم. حالا می‌خواهم این 4 خروجی از چهار FIS را به ورودی FIS تک بدهم. من نمی دانم چگونه این کار را انجام دهم. من جستجو کردم اما بیشتر از همه از FIS واحد برای کاربرد آنها استفاده کردم. مورد من از آنها خیلی متفاوت است. من باید خروجی 4 FIS را به ورودی یک FIS دیگر بدهم. کمکم کنید باید پروژه ام را به زودی تکمیل کنم. پیشاپیش ممنون
ورودی و خروجی دو سطحی در پیاده سازی منطق فازی در متلب
111802
من روی آزمایش فرضیه زیر کار می کنم: H1: افرادی که نگران سلامتی خود هستند ماست مصرف می کنند H0: افرادی که نگران سلامتی خود هستند ماست مصرف نمی کنند. ('من نگران سلامتی ام هستم' 1) کاملاً مخالف 2) مخالف 3) کمی مخالف 4) نه موافق و نه مخالف، 5) کمی موافق، 6) موافق، 7) کاملاً موافقم). سوال دیگر دوگانه است - آیا ماست مصرف می کنید؟ 1) بله 2) خیر. من می خواهم این فرضیه را با استفاده از متغیرهای بالا آزمایش کنم، حتی اگر یکی در مقیاس لیکرت و دیگری دوگانه باشد. پیشنهادی دارید؟ پیشاپیش از شما متشکرم تی.
آزمون فرضیه ها با استفاده از مقیاس لیکرت دوگانه و 7 درجه ای
10277
این یک سؤال نسبتاً کلی است (یعنی لزوماً مختص به آمار نیست)، اما من متوجه روندی در یادگیری ماشینی و ادبیات آماری شده‌ام که در آن نویسندگان ترجیح می‌دهند رویکرد زیر را دنبال کنند: **رویکرد 1**: به دست آوردن راه حلی برای یک راه حل عملی مشکل را با فرمول‌بندی یک تابع هزینه که می‌توان برای آن (مثلاً از دیدگاه محاسباتی) یافت یک راه‌حل بهینه جهانی (مثلاً با فرمول‌بندی تابع هزینه محدب) حل کرد. به جای: **رویکرد 2**: با فرمول بندی یک تابع هزینه که ممکن است نتوانیم یک راه حل بهینه جهانی برای آن بدست آوریم، راه حلی برای همان مسئله بدست آوریم (مثلاً فقط می توانیم یک راه حل بهینه محلی برای آن بدست آوریم). توجه داشته باشید که به طور دقیق، این دو مشکل متفاوت هستند. فرض این است که ما می‌توانیم راه‌حل بهینه جهانی را برای اولی پیدا کنیم، اما برای دومی نه. به غیر از ملاحظات دیگر (یعنی سرعت، سهولت اجرا و غیره)، من به دنبال: 1. **توضیح** این روند (به عنوان مثال استدلال های ریاضی یا تاریخی) 2. **مزایا** (عملی و/یا) نظری) برای پیروی از رویکرد 1 به جای 2 هنگام حل یک مسئله عملی.
مزایای نزدیک شدن به یک مسئله با فرمول بندی یک تابع هزینه که در سطح جهانی قابل بهینه سازی است
63377
من یک ریاضیدان یا آماردان نیستم (آخرین مواجهه من بیش از 30 سال پیش با کلاس های آمار در مدرسه بود). مشکل من این است که اگر رویدادها مستقل باشند، فقط آنها را با هم جمع می‌کنید تا شانس کلی رویداد را به دست آورید (مطالعه مدرسه من حداقل باعث می‌شود فکر کنم که شاید به این سادگی نباشد). **مشکل واقعی:** من در شرف عمل قلب هستم. احتمال بروز عوارض جدی وجود دارد. 1% خطر A (پارگی قلب) 1% خطر B (سکته مغزی) 1% خطر C (تنگی ورید ریوی) 1% خطر D (آسیب عروقی) 0.2% خطر E (آسیب دریچه میترال). احتمال عارضه جدی 4.2% (A + B + C + D + E)؟ یا از آنجایی که هر رویداد تأثیری بر وقوع رویدادهای دیگر ندارد، آیا احتمال عارضه ای بیشتر از 1 درصد بالاترین ارزش ریسک است؟ یا چیزی در این بین؟ من سعی کردم اینجا را برای پاسخ جستجو کنم اما همه چیز به سرعت وارد ریاضیات آماری و فرمول های پیچیده شد، سپس گم شدم، پس لطفا آن را برای من ساده نگه دارید <:-)
آیا شانس رویدادهای مستقل در هنگام محاسبه شانس کلی هر رویداد فقط جمع می شود؟
10271
من با یک سری زمانی **نمرات ناهنجاری** کار می کنم (پس زمینه تشخیص ناهنجاری در شبکه های کامپیوتری است). هر دقیقه، من یک امتیاز ناهنجاری $x_t \ در [0، 5]$ دریافت می‌کنم که به من می‌گوید وضعیت فعلی شبکه چقدر غیر منتظره یا غیرعادی است. هر چه امتیاز بالاتر باشد، وضعیت فعلی غیرعادی تر است. نمرات نزدیک به 5 از نظر تئوری امکان پذیر است اما تقریبا هرگز اتفاق نمی افتد. اکنون می‌خواهم یک الگوریتم یا فرمولی ارائه کنم که به طور خودکار یک **آستانه** را برای این سری زمانی ناهنجاری تعیین کند. به محض اینکه نمره ناهنجاری از این آستانه فراتر رفت، زنگ هشدار به صدا در می آید. توزیع فرکانس زیر نمونه ای برای یک سری زمانی ناهنجاری در طول 1 روز است. با این حال، **امن نیست** فرض کنیم که هر سری زمانی ناهنجاری به این شکل خواهد بود. در این مثال خاص، یک آستانه ناهنجاری مانند کوانتیل 0.99 منطقی است، زیرا چند امتیاز در سمت راست را می توان به عنوان ناهنجاری در نظر گرفت. ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/Ieo7b.jpg) و همان توزیع فرکانس سری های زمانی (فقط از 0 تا 1 متغیر است زیرا هیچ امتیاز ناهنجاری بالاتری در آن زمان وجود ندارد. سری): ![سری زمانی](http://i.stack.imgur.com/0ZPoe.jpg) متأسفانه، توزیع فرکانس ممکن است اشکالی داشته باشد، که در آن کوانتیل .99 ** نیست مفید **. یک نمونه در زیر آمده است. دم سمت راست بسیار پایین است، بنابراین اگر از 0.99-quantile به عنوان آستانه استفاده شود، ممکن است به بسیاری از موارد مثبت کاذب منجر شود. این توزیع فرکانس **به نظر نمی‌رسد حاوی ناهنجاری باشد** بنابراین آستانه باید خارج از توزیع در حدود 0.25 باشد. ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/gZw9a.jpg) خلاصه، تفاوت بین این دو مثال این است که به نظر می رسد اولی ناهنجاری هایی را نشان می دهد در حالی که نمونه دوم اینطور نیست. از دیدگاه ساده لوحانه من، الگوریتم باید این دو مورد را در نظر بگیرد: * اگر توزیع فرکانس دنباله سمت راست بزرگی داشته باشد (یعنی چند امتیاز غیرعادی)، در این صورت، کوانتیل .99 می تواند آستانه خوبی باشد. * اگر توزیع فرکانس دارای یک دم سمت راست بسیار کوتاه باشد (یعنی بدون امتیاز غیرعادی)، آنگاه آستانه باید خارج از توزیع باشد. /edit: همچنین هیچ حقیقت پایه ای وجود ندارد، یعنی مجموعه داده های برچسب گذاری شده در دسترس است. بنابراین الگوریتم در برابر ماهیت نمرات ناهنجاری کور است. اکنون من مطمئن نیستم که چگونه می توان این مشاهدات را در قالب یک الگوریتم یا یک فرمول بیان کرد. آیا کسی پیشنهادی دارد که چگونه می توان این مشکل را حل کرد؟ امیدوارم توضیحاتم کافی باشد چون سوابق آماری من بسیار محدود است. با تشکر از کمک شما!
تعیین آستانه خودکار برای تشخیص ناهنجاری
68996
من 2 سوال احتمالی پیشرفته دارم که با آنها مشکل دارم، بنابراین فقط می خواهم یک پاسخ/روش 1 را تایید کنم. یک شرکت کامپیوتری برای یکی از سیستم های خود بیمه نامه ارائه می دهد. اگر سیستم در سال اول شکست بخورد، بیمه نامه 3000 پوند پرداخت می کند. این مزایا هر سال 1000 پوند کاهش می یابد تا زمانی که به صفر برسد. اگر سیستم در ابتدای سال شکست نخورده باشد، احتمال خرابی آن در طول سال 0.1 است. شرکت چقدر باید برای بیمه نامه هزینه کند تا به طور متوسط ​​سود خالص هر بیمه نامه 100 پوند باشد؟ 2. مردی که هدفی را هدف قرار می دهد، اگر شلیک او در فاصله 1 سانتی متری مرکز هدف باشد، 10 امتیاز، اگر بین 1 تا 3 سانتی متر باشد، پنج امتیاز و اگر بین 3 تا 5 سانتی متر باشد، سه امتیاز دریافت می کند. اگر شلیک مرد به طور یکنواخت در دایره ای به شعاع 8 سانتی متر در مرکز هدف پخش شود، تعداد امتیازات مورد انتظار چقدر است؟
سوالات احتمالی
21541
من یک بردار از پارامترهای $\theta=(n,ph,pt,\gamma)$ دارم که به فرآیندی وارد می‌شوند که نتیجه‌ای را ایجاد می‌کند. من می خواهم حساسیت نتیجه را به تغییرات یک پارامتر (ها) به صورت کمی گزارش کنم. همبستگی تک متغیره چیزی نیست که من به دنبال آن هستم زیرا $\theta$ از یک توزیع نمونه برداری شده است. به نظر شما بهترین گزینه من چیست؟ در صورت نیاز به اطلاعات بیشتر به من اطلاع دهید. با تشکر **ویرایش** فرآیند تصادفی است. اساساً یک فرد بر اساس احتمالات مشاهده شده به طور تصادفی در اطراف یک اتاق حرکت می کند و سطوح را لمس می کند (*n بار**). با لمس هر سطح، آنها یک ایزوتوپ را با احتمال **$\gamma$** انتخاب می کنند. اینکه چه مقدار ایزوتوپ می گیرند بستگی به متغیر **pt** دارد که به صورت تجربی محاسبه شده است. پس از اتمام تماس با سطوح، دست های خود را با احتمال و اثربخشی می شویند (*ph**). بنابراین خروجی یک مقدار اسکالر ایزوتوپ و بردار سطوح لمس شده است. **ویرایش 2** ایزوتوپ ($I$) روی دست فرد پس از هر تماس سطحی به صورت افزایشی محاسبه می‌شود، بنابراین: $$I=\lambda_i \, pt_i V_i$$ جایی که $V_i$ غلظت سطح است. ایزوتوپ بیایید فرض کنیم با یک سطح سروکار داریم، بنابراین $V$ ثابت است. سپس مجموع مجموع ایزوتوپ روی دست فرد پس از تماس $n$ با همان سطح خواهد بود: $$I=\sum_{i=1}^n\lambda_i \, pt_i V_i$$ سپس دستان خود را با مقداری می شویند. اثربخشی $ph$. تصویر دست چپ یک هیستوگرام چگالی فرکانس $I$ است. تصویر دست راست یک نمودار پراکنده بین $I$ و $n$ است. ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/Q8Bp8.png) با این حال $n$ از توزیع داده های مشاهده شده استخراج می شود. چگونه می توان این را در تجزیه و تحلیل حساسیت گنجاند؟
همبستگی چند متغیره در تحلیل حساسیت
68449
من می خواهم تعیین کنم که آیا میانگین طیف های فرکانس از نظر آماری با یکدیگر متفاوت هستند یا خیر. من مجموعه‌ای از کارآزمایی‌ها را در شرایط دارویی مختلف دارم و می‌خواهم آزمایش کنم که آیا یک دارو بر توزیع فرکانس و/یا توان در محدوده فرکانس تأثیر دارد یا خیر. این با تعیین اینکه آیا توان در یک باند فرکانسی خاص در شرایط مختلف متفاوت است یا خیر، مخالف است. به عنوان مثال، در زیر دو آزمایش آورده شده است. من می خواهم تعیین کنم که آیا خط قرمز با آبی متفاوت است یا خیر. خطای استاندارد با سایه خاکستری مشخص می شود. از شما برای هر گونه پیشنهاد و اشاره! ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Ek1mG.png)
چگونه می توان تفاوت های قابل توجه بین طیف های فرکانس را تعیین کرد؟
79155
من یک مدل رگرسیون خطی دارم که از 12 نقطه ایجاد شده است که می توانم یک مقدار واحد RMSE را بین مقادیر پیش بینی شده و مقادیر واقعی مشاهده شده محاسبه کنم. سپس از این مدل برای پیش‌بینی مجموعه داده دیگری [جعبه، 42 امتیاز] استفاده می‌شود. من یک مدل رگرسیون خطی دوم [جعبه] دارم که در آن همه ترکیب‌های 12 نقطه از یک نمونه 42 نقطه‌ای انتخاب می‌شوند و RMSE بین مقادیر پیش‌بینی‌شده و مقادیر واقعی مشاهده‌شده برای همه ترکیب‌ها محاسبه می‌شود. مدل رگرسیون خطی در این سناریو 30 نقطه دیگر را که برای ساخت مدل رگرسیون انتخاب نشده اند، پیش بینی می کند. من سعی دارم راهی برای مقایسه [مدل قالب] و [مدل جعبه] با یک تکنیک آماری پیدا کنم. ایده من در حال حاضر این است که مقدار RMSE واحد را از [مدل قالب] با یک CDF از RMSE از ترکیبات چندگانه [Box Model] مقایسه کنم. بنابراین می‌توانم بگویم **XX%** در مواقع، [Box Model] دارای RMSE **XX** بهتر/بدتر از [مدل قالب] است. اگر کسی می تواند لطفاً در مورد بهترین تکنیکی که فکر می کنید من باید از آن استفاده کنم نظر دهد بسیار قدردانی خواهد شد. پایان نامه کارشناسی ارشد من به آن بستگی دارد! با تشکر
مقایسه مدل های رگرسیون خطی ایجاد شده از مجموعه داده های مختلف
58724
وقتی نسبت میل معکوس به حساب برای انتخاب در یک مدل ترکیبی با استفاده از LMER در R (به دنبال روش دو مرحله‌ای هکمن [1979])، هنوز نیاز به تخمین SE‌های قوی دارم یا مدل ترکیبی منجر به SE سازگار با ناهمسانی می‌شود؟
آیا هنگام اعمال روش دو مرحله ای هکمن به خطاهای استاندارد سازگار با ناهمگونی در LMER نیاز دارم؟
24490
من ماتریس زیر را از داده ها دارم که در SAS می خوانم: 1 5 12 19 13 6 3 1 3 14 2 7 12 19 21 22 24 21 29 18 17 15 22 9 18 این نشان دهنده 5 گونه مختلف حیوان است ( ) در 5 ناحیه مختلف یک محیط (ستون ها). من می‌خواهم یک شاخص تنوع شانون برای کل محیط به دست بیاورم، بنابراین ردیف‌ها را جمع می‌کنم تا به دست بیاورم: 48 54 68 79 84 سپس شاخص شانون را از این محاسبه کنید، تا به دست بیاورم: 1.5873488، اما آنچه باید انجام دهم، محاسبه اطمینان است. فاصله برای این شاخص شانون. بنابراین من می خواهم یک بوت استرپ ناپارامتری روی ماتریس اولیه انجام دهم. آیا کسی می تواند راهنمایی کند که چگونه این کار در SAS امکان پذیر است؟
فواصل اطمینان در یک ماتریس از داده ها در SAS
26792
ادعا می شود که SVM با استفاده از هسته RBF مشابه (معادل) روش طبقه بندی K نزدیکترین همسایه است. من در مورد روند تجزیه و تحلیل ایجاد این نوع رابطه خیلی واضح نیستم. ممنون از توضیحات
SVM با استفاده از روش طبقه بندی RBF و نزدیکترین همسایه
62391
من شباهت بین کلمات را با استفاده از معیارهای تشابه بر اساس wordnet محاسبه می کنم. من معیارهای تشابه دو کلمه را با استفاده از سه روش مختلف به دست آورده ام - JNC (جیانگ و کنراث)، BNP (بانرجی و پدرسون) و LIN (لین). این معیارهای شباهت مقادیری بین 0 و 1 برای دو کلمه (1 برای کلمات دقیقا مشابه) می دهد. من باید معیارهای شباهت را از سه روش بالا ترکیب کنم تا بتوانم معیار بهتری از شباهت به دست بیاورم. من می خواهم نتایج را با هم ترکیب کنم زیرا هر یک از آنها یک اشکال دارند و ترکیب آنها معیار بهتری را ارائه می دهد. هیچ ایده ای در مورد اینکه چگونه می توانم این کار را انجام دهم؟ من در مورد Dempster-Shafer خوانده‌ام، اما می‌خواهم از روش دیگری استفاده کنم، زیرا درک و اعمال آن بر اساس نیازم برایم دشوار است.
ترکیب شواهد از منابع مختلف
62023
مشکل زیر را فرض کنید: شما در حال تصمیم گیری برای سرمایه گذاری در فرصتی با هزینه نامشخص $c$ و ارزش $v$ هستید یا خیر. هزینه تخمین زده شده است که به طور معمول با 90٪ CI بین 1 تا 5 میلیون توزیع می شود. به طور مشابه، ارزش به طور معمول با 90٪ CI بین 1 تا 20 میلیون توزیع شده است. تصمیم پیش فرض سرمایه گذاری است. با این حال، شما علاقه مند به یافتن ارزش کاهش عدم اطمینان در مورد هزینه و ارزش هستید تا در مورد تصمیم خود مطمئن شوید. من به طور شهودی درک می کنم که در اینجا ما به دنبال ارزش مورد انتظار اطلاعات کامل یا $EVPI$ هستیم که برابر با ضرر احتمالی در صورت اتخاذ تصمیم اشتباه هستیم. **سوالات:** 1. چگونه مسئله بالا را به صورت ریاضی نمایش دهیم؟ به طور مستقیم، من چیزی شبیه به: $EVPI=\int_c\int_v(v-c)p(c)p(v)$ 2 می‌نویسم. چگونه مشکل یک مورد عمومی را حل کنیم؟ آیا MCMC یا یک مونت کارلو ساده در اینجا انتخاب خوبی است؟ من ترجیح می‌دهم پاسخی در سطح عادی داشته باشم زیرا در آمار خیلی قوی نیستم.
ارزش اطلاعات برای یک مشکل سرمایه گذاری ساده
2975
چگونه می توانم چندین سری از داده ها را کاهش یا عادی سازی کنم تا بتوانم بین این سری ها مقایسه کنم؟ * * * مشخصات زیر ممکن است برای این انجمن مناسب نباشد. لطفاً به من اطلاع دهید و می‌توانم آن را حذف یا دوباره بیان کنم، اما فکر می‌کنم درک کامل سؤال عمومی بالا ممکن است مفید باشد. من یک مجموعه داده دارم که برای تجزیه و تحلیل آن کمک می خواهم. من فکر می‌کنم این سوال مربوط به اینجاست و نه در http://gis.stackexchange.com/ به طور خاص، من وضعیت زیر را دارم: هر سری از هواپیمایی که در یک مسیر پرواز می‌کند جمع‌آوری می‌شود، و دارای تعداد متغیر (مقدار، lat، lon,time) چندتایی. من چندین مورد از این مسیرهای پروازی دارم، هر کدام در زمان متفاوتی، و در مسیرهای مختلفی پرواز می کنم (گاهی در حال عبور، گاهی اوقات نه). پروازها به فاصله ماه‌ها از هم، در زمان‌های مختلف روز انجام می‌شوند و به دلیل پدیده‌های طبیعی، داده‌ها (در این مورد حرارتی) متفاوت است. بخشی از منطقه ای که با پروازهای متعدد بر فراز آن پرواز می کند ممکن است نشانه دمای غیرعادی داشته باشد یا نداشته باشد. این چیزی است که من می خواهم بررسی کنم. من به دنبال الگوریتمی برای کاهش یا عادی سازی تمام پروازها هستم تا بتوانم SNR خود را افزایش دهم و تعیین کنم که آیا یک ناهنجاری دما در یک منطقه فرعی وجود دارد یا خیر.
عادی سازی یا کاهش روند گروهی از نمونه ها
68441
من از تجزیه و تحلیل معنایی پنهان (LSA) یا نمایه سازی معنایی پنهان (LSI) استفاده کرده ام تا با تطبیق نام های استفاده شده برای هر آدرس ایمیل، تشخیص دهم که آیا آدرس های ایمیل مختلف به یک فرد تعلق دارند یا خیر. یک آدرس ایمیل نشان‌دهنده یک «سند» است، و مجموعه همه نام‌ها (به عنوان کلمات جداگانه) عبارت‌های موجود در آن سند هستند: «جان دو» < johnd@example.com > به سند «johnd@example.com» تبدیل می‌شود. با اصطلاحات ['جان'، 'دو'، 'جان']. برنامه معمولی LSA/LSI کم و بیش از این تکنیک ها استفاده می کند: * ساخت ماتریس سند اصطلاحی * اعمال مدل tf--idf * محاسبه SVD. کاهش رتبه/بعد را انجام دهید. * محاسبه شباهت کسینوسی مطالعات متعددی انجام شده است که نشان می دهد تکنیک فوق در تطبیق اسناد کاملاً موفق است. با این حال، اطلاعات من از سند واقعی (انگلیسی) نیست، بلکه فقط چند کلمه وجود دارد. یعنی نام افرادی که ایمیل ارسال کرده اند. برای اینکه ایده ای به شما بدهم، مجموعه داده های من شامل 99012 عبارت و 76580 سند است. میانگین تعداد اصطلاحات در یک سند 2.70 است. برای ایجاد یک رابطه در برنامه LSA/LSI بین دو سندی که متقابلاً انحصاری هستند اما باید مطابقت داشته باشند (مثلاً در نتیجه غلط املایی)، من تصمیم گرفتم ماتریس اصطلاح-سند را با فاصله ویرایشی مانند فاصله Levenshtein افزایش دهم. من در وب جستجو کرده ام و نتوانستم هیچ وب سایتی را پیدا کنم که استفاده از LSA/LSI را در ترکیب با فاصله ویرایش توصیف کند. آیا دلیلی وجود دارد که قبلاً این مورد اعمال یا توضیح داده نشده است؟ آیا کسی اطلاعات بیشتری در مورد ترکیب LSI/LSA و فاصله ویرایش دارد؟ من به سختی می توانم باور کنم که اولین کسی هستم که ترکیبی از این تکنیک ها را به کار برده است. من دو سوال تکراری پیدا کردم که هرگز پاسخی دریافت نکردم: * ترکیب tf/idf با یک متریک شباهت به عنوان مثال فاصله ویرایش، شکاف میانجی jaro winkler * تشخیص/طبقه بندی تکراری با استفاده از معیارهای تشابه TF/IDF و کسینوس
کاربرد LSA/LSI. آیا استفاده از فاصله ویرایشی رایج است؟
67616
این سوال بهترین راه برای مقایسه داده های باینری مرتب شده است. وضعیت من به شرح زیر است: من علاقه مند به ارزیابی این هستم که چگونه یک مدل با داده های عملکرد انسانی در مجموعه ای از مشکلات اعتبار سنجی مطابقت دارد. برای یک مجموعه آزمایشی از 30 مسئله، من سابقه ای دارم که آیا مدل من پاسخ درستی (که با 1 نشان داده می شود) یا اصلاً پاسخ نداده است ** (0) در یک محدودیت زمانی. از آنجایی که مدل به صورت احتمالی عمل می‌کند، من داده‌هایی برای اجرای چندگانه مدل در یک مجموعه آزمایشی دارم (سازمان‌دهی شده در یک ماتریس باینری از اجرا # در مقابل مشکل #). می‌خواهم این داده‌های دقت را با داده‌های دقت تولید شده توسط گروهی از شرکت‌کنندگان انسانی که روی همان مجموعه اعتبارسنجی کار می‌کنند، مقایسه کنم. سوال من این است: از چه آزمون(هایی) می توانم برای اندازه گیری درجه انسجام بین دو مجموعه داده استفاده کنم که سوالات مختلف در مجموعه اعتبارسنجی را در نظر می گیرد (یعنی آن داده ها را در ستون اول ماتریس دقت مدل تشخیص می دهد [ مربوط به عملکرد در اولین سوال در مجموعه اعتبار سنجی] باید فقط با داده های ستون اول ماتریس دقت انسانی و غیره مقایسه شود؟ عذرخواهی می کنم اگر در جای دیگری پاسخ داده شده است! ** چون ساختار مدل به گونه ای است که هرگز پاسخی تولید نمی کند مگر اینکه پاسخ صحیح باشد (یعنی به سادگی به کار ادامه می دهد تا زمانی که یا (1) پاسخ صحیح را پیدا کند یا (2) زمانش تمام شود، هر کدام که زودتر بیاید)، خروجی پاسخ شامل مثبت کاذب یا منفی کاذب نمی شود (تا جایی که من آن شرایط را درک می کنم).
راه هایی برای مقایسه مجموعه داده های باینری مرتب شده؟
58725
من در حال آزمایش ایجاد یک ماتریس فاصله بین سری های زمانی برای خوشه بندی و جستجوی شباهت هستم. مرجع اصلی که من استفاده می کنم برای رویه Similarity در SAS (کاغذ) است. من می خواهم تجزیه و تحلیل را در R با استفاده از بسته dtw انجام دهم. چیزی که من در مورد استفاده از DTW برای سری های با طول های مختلف گیج شده ام. 1) آیا این امکان پذیر است؟ 2) راهنمایی در مورد نحوه انجام این کار با بسته R دارید؟ در مورد سوال شماره 2، تلاش برای محاسبه ماتریس فاصله بر روی ماتریسی از سری هایی که از نظر طول متفاوت هستند، فوراً ناموفق است: dist_mat<-dist(appliances_t,method=DTW) خطا در dtw(distance.only = TRUE، ...) : هیچ مسیر انحرافی وجود ندارد که توسط costraints مجاز باشد > dput(appliances_t) structure(c(1L, 14 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 7 لیتر، 1 لیتر، 33 لیتر، 20 لیتر، 1 لیتر، 1 لیتر، 8 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 14 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 6 لیتر، 1 لیتر، 32 لیتر، 20 لیتر، 1 لیتر، 2 لیتر، 8 لیتر، 0 لیتر، 0 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 19 لیتر، 0 6 لیتر، 1 لیتر، 1 لیتر، 7 لیتر، 1 لیتر، 42 لیتر، 27 لیتر، 1 لیتر، 3 لیتر، 10 لیتر، 0 لیتر، 1 لیتر، 3 لیتر، 1 لیتر، 3 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 22 لیتر، 1 لیتر، 7 لیتر، 4 لیتر، 7 لیتر، 1 لیتر، 51 لیتر، 32 لیتر، 5 لیتر، 4 لیتر، 12 لیتر، 1 لیتر، 1 لیتر، 9 لیتر، 5 لیتر، 7 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 33 لیتر، 1 لیتر، 6 لیتر، 4 لیتر، 3 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 1 لیتر 49 لیتر، 5 لیتر، 5 لیتر، 19 لیتر، 1 لیتر، 1 لیتر، 9 لیتر، 5 لیتر، 7 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 28 لیتر، 1 لیتر، 7 لیتر، 8 لیتر، 3 لیتر، 5 لیتر، 6 لیتر، 3 لیتر، 63 لیتر، 5 لیتر، 41 لیتر، 15 لیتر، 1 لیتر، 1 لیتر، 9 لیتر، 5 لیتر، 8 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 30 لیتر، 1 لیتر، 10 لیتر، 22 لیتر، 10 لیتر، 8 لیتر، 7 لیتر، 5 لیتر، 70 لیتر، 44 لیتر، 8 لیتر، 7 لیتر، 1، 6 لیتر 12 لیتر، 8 لیتر، 11 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 32 لیتر، 2 لیتر، 13 لیتر، 30 لیتر، 10 لیتر، 10 لیتر، 11 لیتر، 12 لیتر، 74 لیتر، 47 لیتر، 10 لیتر، 8 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 14 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 5 لیتر، 23 لیتر، 4 لیتر، 6 لیتر، 30 لیتر، 10 لیتر، 5 لیتر، 9 لیتر، 12 لیتر، 53 لیتر، 33 لیتر، 5 لیتر، 9 لیتر، 12 لیتر، 5 لیتر، 5 لیتر، 8 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 3 لیتر، 5 لیتر، 5 لیتر، 7 لیتر، 27 لیتر، 7 لیتر، 9 لیتر، 22 لیتر، 14 لیتر، 7 لیتر، 11 لیتر، 12 لیتر، 61 لیتر، 36 لیتر، 7 لیتر، 10 لیتر، 14 لیتر، 7 لیتر، 1 لیتر، 7 لیتر، 1، 8 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 14 لیتر، 27 لیتر، 14 لیتر، 13 لیتر، 38 لیتر، 19 لیتر، 10 لیتر، 7 لیتر، 15 لیتر، 61 لیتر، 37 لیتر، 10 لیتر، 11 لیتر، 14 لیتر، 14 لیتر، 1 لیتر، 1،1،1،1، 12 لیتر، 12 لیتر، 9 لیتر، 14 لیتر، 12 لیتر، 14 لیتر، 38 لیتر، 14 لیتر، 14 لیتر، 44 لیتر، 10 لیتر، 11 لیتر، 9 لیتر، 20 لیتر، 86 لیتر، 54 لیتر، 11 لیتر، 12 لیتر، 20 لیتر، 1، 1،1، 14 لیتر 22 لیتر، 22 لیتر، 22 لیتر، 16 لیتر، 14 لیتر، 22 لیتر، 14 لیتر، 27 لیتر، 14 لیتر، 16 لیتر، 42 لیتر، 13 لیتر، 13 لیتر، 12 لیتر، 11 لیتر، 61 لیتر، 39 لیتر، 13 لیتر، 13 لیتر، 11، 1، 1، 1 13 لیتر، 18 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 16 لیتر، 14 لیتر، 22 لیتر، 20 لیتر، 28 لیتر، 19 لیتر، 10 لیتر، 40 لیتر، 16 لیتر، 9 لیتر، 12 لیتر، 14 لیتر، 66 لیتر، 41 لیتر، 14 لیتر، 41 لیتر، 66 لیتر، 41 لیتر، 10 لیتر 13 لیتر، 9 لیتر، 12 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 18 لیتر، 20 لیتر، 23 لیتر، 27 لیتر، 16 لیتر، 27 لیتر، 10 لیتر، 60 لیتر، 19 لیتر، 8 لیتر، 11 لیتر، 20 لیتر، 39 لیتر، 8 لیتر، 29 لیتر، 29 لیتر، 4 لیتر، 12 لیتر، 8 لیتر، 11 لیتر، 30 لیتر، 30 لیتر، 30 لیتر، 22 لیتر، 27 لیتر، 30 لیتر، 14 لیتر، 24 لیتر، 14 لیتر، 14 لیتر، 136 لیتر، 21 لیتر، 11 لیتر، 4 لیتر، 21 لیتر، 31، 31، 56 لیتر 14 لیتر، 3 لیتر، 16 لیتر، 11 لیتر، 14 لیتر، 42 لیتر، 42 لیتر، 42 لیتر، 31 لیتر، 14 لیتر، 42 لیتر، 18 لیتر، 23 لیتر، 18 لیتر، 16 لیتر، 206 لیتر، 14 لیتر، 14 لیتر، 3 لیتر، 3 لیتر، 4 لیتر، 17 لیتر، 12 لیتر، 18 لیتر، 2 لیتر، 20 لیتر، 14 لیتر، 18 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 16 لیتر، 18 لیتر، 22 لیتر، 24 لیتر، 28 لیتر، 23 لیتر، 25 لیتر، 398 لیتر، 14 لیتر، 6 لیتر، 14 لیتر، 6 لیتر 40 لیتر، 20 لیتر، 18 لیتر، 16 لیتر، 24 لیتر، 4 لیتر، 29 لیتر، 20 لیتر، 28 لیتر، 28 لیتر، 28 لیتر، 28 لیتر، 21 لیتر، 24 لیتر، 28 لیتر، 27 لیتر، 18 لیتر، 27 لیتر، 20 لیتر، 18 لیتر، 27 لیتر، 20 لیتر، 18 لیتر 16 لیتر، 40 لیتر، 25 لیتر، 16 لیتر، 19 لیتر، 10 لیتر، 27 لیتر، 3 لیتر، 25 لیتر، 16 لیتر، 21 لیتر، 39 لیتر، 39 لیتر، 39 لیتر، 28 لیتر، 27 لیتر، 39 لیتر، 32 لیتر، 19 لیتر، 20 لیتر، 19 لیتر، 20 لیتر، 20 لیتر 18 لیتر، 3 لیتر، 20 لیتر، 42 لیتر، 27 لیتر، 18 لیتر، 20 لیتر، 10 لیتر، 32 لیتر، 3 لیتر، 27 لیتر، 18 لیتر، 24 لیتر، 43 لیتر، 43 لیتر، 43 لیتر، 32 لیتر، 32 لیتر، 43 لیتر، 32 لیتر، 42 لیتر، 10 لیتر 504 لیتر، 33 لیتر، 19 لیتر، 7 لیتر، 27 لیتر، 49 لیتر، 31 لیتر، 19 لیتر، 21 لیتر، 12 لیتر، 20 لیتر، 2 لیتر، 28 لیتر، 19 لیتر، 27 لیتر، 49 لیتر، 49 لیتر، 49 لیتر، 37 لیتر، 20 لیتر، 49 لیتر، 37 لیتر، 20 لیتر، 20 لیتر 20 لیتر، 16 لیتر، 682 لیتر، 28 لیتر، 14 لیتر، 7 لیتر، 41 لیتر، 48 لیتر، 30 لیتر، 14 لیتر، 22 لیتر، 12 لیتر، 20 لیتر، 2 لیتر، 20 لیتر، 14 لیتر، 18 لیتر، 33 لیتر، 33، 32، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 4 27 لیتر، 13 لیتر، 27 لیتر، 19 لیتر، 374 لیتر، 30 لیتر، 14 لیتر، 8 لیتر، 32 لیتر، 29 لیتر، 19 لیتر، 14 لیتر، 23 لیتر، 6 لیتر، 27 لیتر، 3 لیتر، 21 لیتر، 14 لیتر، 20 لیتر، 14 لیتر، 20 لیتر، 3 لیتر، 32 لیتر، 32 لیتر، 32 لیتر، 20 لیتر، 32 لیتر، 19 لیتر، 489 لیتر، 32 لیتر، 14 لیتر، 7 لیتر، 33 لیتر، 47 لیتر، 28 لیتر، 14 لیتر، 24 لیتر، 11 لیتر، 32 لیتر، 3 لیتر، 21 لیتر، 14 لیتر، 14 لیتر، 4 لیتر، 20 لیتر 32 لیتر، 32 لیتر، 42 لیتر، 49 لیتر، 16 لیتر، 49 لیتر، 27 لیتر، 628 لیتر، 23 لیتر، 21 لیتر، 13 لیتر، 36 لیتر، 35 لیتر، 21 لیتر، 21 لیتر، 25 لیتر، 8 لیتر، 49 لیتر، 4 لیتر، 5 لیتر، 5 لیتر، 12 لیتر 51 لیتر، 51 لیتر، 40 لیتر، 49 لیتر، 51 لیتر، 41 لیتر، 27 لیتر، 41 لیتر، 19 لیتر، 791 لیتر، 27 لیتر، 15 لیتر، 14 لیتر، 27 لیتر، 62 لیتر، 39 لیتر، 15 لیتر، 26 لیتر، 15 لیتر، 15 لیتر، 14 لیتر، 14 لیتر 20 لیتر، 80 لیتر، 80 لیتر، 80 لیتر، 61 لیتر، 41 لیتر، 80 لیتر، 44 لیتر، 33 لیتر، 44 لیتر، 20 لیتر، 898 لیتر، 27 لیتر، 16 لیتر، 16 لیتر، 29 لیتر، 77 لیتر، 48 لیتر، 7، 16 لیتر، 16 لیتر، 25 لیتر، 16 لیتر، 21 لیتر، 63 لیتر، 63 لیتر، 63 لیتر، 48 لیتر، 44 لیتر، 63 لیتر، 47 لیتر، 21 لیتر، 46 لیتر، 13 لیتر، 439 لیتر، 38 لیتر، 10 لیتر، 21 لیتر، 30 لیتر، 21، 21، 30 لیتر، 21 لیتر، 21 لیتر، 1 47 لیتر، 2 لیتر، 14 لیتر، 10 لیتر، 14 لیتر، 70 لیتر، 70 لیتر، 70 لیتر، 51 لیتر، 47 لیتر، 70 لیتر، 33 لیتر، 32 لیتر، 33 لیتر، 18 لیتر، 515 لیتر، 27 لیتر، 14 لیتر، 22، 4 لیتر، 7 29 لیتر، 18 لیتر، 33 لیتر، 2 لیتر، 20 لیتر، 14 لیتر، 20 لیتر، 74 لیتر، 74 لیتر، 74 لیتر، 54 لیتر، 33 لیتر، 74 لیتر، 36 لیتر، 33 لیتر، 36 لیتر، 16 لیتر، 450 لیتر، 28 لیتر، 7، 7، 1، 1 48 لیتر، 14 لیتر، 30 لیتر، 18 لیتر، 36 لیتر، 3 لیتر، 20 لیتر، 14 لیتر، 18 لیتر، 53 لیتر، 53 لیتر، 53 لیتر، 40 لیتر، 36 لیتر، 53 لیتر، 37 لیتر، 33 لیتر، 37 لیتر، 20 لیتر، 14 لیتر، 12 لیتر 32 لیتر، 78 لیتر، 48 لیتر، 16 لیتر، 31 لیتر، 19 لیتر، 37 لیتر، 3 لیتر، 24 لیتر، 16 لیتر، 21 لیتر، 61 لیتر، 61 لیتر، 61 لیتر، 45 لیتر، 37 لیتر، 61 لیتر، 54 لیتر، 48 لیتر، 20 لیتر، 54 لیتر، 48 لیتر، 19 لیتر، 10 لیتر، 17 لیتر، 19 لیتر، 109 لیتر، 68 لیتر، 10 لیتر، 32 لیتر، 27 لیتر، 54 لیتر، 3 لیتر، 14 لیتر، 10 لیتر، 14 لیتر، 61 لیتر، 61 لیتر، 61 لیتر، 45 لیتر، 54 لیتر، 61، 3، 7،3 لیتر، 889 لیتر، 23 لیتر، 11 لیتر، 19 لیتر، 28 لیتر، 120 لیتر، 76 لیتر، 11 لیتر، 33 لیتر، 28 لیتر، 39 لیتر، 3 لیتر، 16 لیتر، 11 لیتر، 14 لیتر، 86 لیتر، 86 لیتر، 86 لیتر، 63 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 40 لیتر، 16 لیتر،
شباهت سری زمانی: طول های متفاوت با R
24494
اول از همه من در انگلیسی خوب نیستم. پس لطفا برای تفسیر حرف های من صبور باشید. من واقعا به کمک شما نیاز دارم. من از بسته R GBM به عنوان احتمالاً مدل سازی پیش بینی خود استفاده کردم. من یک مدل با توزیع adaboost ساختم. در این موارد، از کد «predict.gbm» برای پیش‌بینی برخی داده‌های جدید استفاده می‌کنید. اما من باید آنها را بدون R پیش بینی کنم (شاید با SAS IML و غیره). بنابراین می‌خواهم بدانم چگونه مقادیر برازش را بر اساس مدلی که ساخته‌ام محاسبه کنم. داده ها به شرح زیر است (تبلیغ جدا شده). متغیر 'sex' و 'houstype' (APT, DANDOK, ETC, VILLA) متغیرهای طبقه بندی هستند و y یک متغیر هدف است که دارای 0.1 دسته است. منطقه درآمدی سن جنسیتی قیمت خانه y M 30 72 31 99 APT 1 M 40 73 1 97 DANDOK 0 M 40 34 1 90 DANDOK 0 M 29 45 4 86 DANDOK 0 F 29 37 39 F 29 37 39 F 29 37 39 86 AND OK 29 M 35 63 4 61 DANDOK 0 F 27 47 4 74 DANDOK 0 M 28 38 3 79 DANDOK 0 F 30 45 31 99 APT 0 M 31 32 4 82 DANDOK 0 M 30 47 M 30 45 M 30 45 PT344 0 M 26 56 3 83 DANDOK 0 M 32 43 15 85 VILLA 1 M 24 32 4 69 DANDOK 0 M 31 35 3 68 DANDOK 0 M 40 47 8 52 DANDOK 0 F 26 1446 DANDOK 63 VILLA 0 M 32 43 25 24 DANDOK 0 M 37 36 58 47 APT 1 M 36 49 49 53 APT 1 M 27 42 31 71 APT 1 M 33 53 7 48 DANDOK 0 M 33 7 48 DANDOK 0 M 30 1 4 88 ویلا 0 M 28 35 3 83 DANDOK 0 M 38 53 12 58 VILLA 1 M 39 30 3 61 DANDOK 0 F 35 32 24 63 APT 0 F 26 36 31 93 12 58 DANDOK 0 39 31 18 ویلا 0 M 38 96 4 23 APT 1 M 37 69 39 56 APT 1 M 39 37 58 17 APT 1 M 31 42 26 69 APT 1 M 32 64 64 47 M 32 64 64 47 M 32 64 64 47 39 56 APT 1 29 35 18 88 APT 0 M 38 79 7 40 DANDOK 0 M 26 39 7 48 DANDOK 0 M 32 57 76 24 DANDOK 1 M 32 89 18 74 DANDOK 0 F 25 31 DANDOK 0 F 25 31 DANDOK 0 F 25 31 PT39 330 1 F 34 37 76 80 APT 0 M 32 49 39 67 APT 1 M 33 60 18 69 APT 1 F 29 61 18 69 APT 0 M 37 30 83 73 APT 1 M 36 38 D24 OK4 APT 1 M 39 89 39 76 APT 1 M 39 66 17 83 APT 1 M 29 67 1 61 DANDOK 0 M 30 41 1 69 DANDOK 0 M 32 44 1 83 DANDOK 0 M 39494 VILLA 0 M 39494 73 DANDOK 1 M 30 39 12 38 DANDOK 0 M 36 37 17 40 DANDOK 0 M 28 48 1 97 DANDOK 0 M 29 51 8 69 VILLA 0 M 29 50 8 69 VILLA 40 M 08 PT 86 39 98 APT 1 M 29 56 18 93 APT 1 F 29 79 8 92 APT 0 F 30 88 8 92 APT 0 M 29 34 2 69 DANDOK 0 M 34 41 25 54 DANDOK 4 DANDOK25 33 49 39 VILLA 0 F 30 56 49 6 DANDOK 0 F 34 54 8 62 APT 1 F 23 37 31 38 VILLA 0 M 35 56 31 65 VILLA 1 F 26 42 39 F 26 42 39 F 26 42 39 F 26 42 39 F 26 60 PT302 APT 29 52 8 37 APT 0 M 26 73 61 16 VILLA 1 F 33 45 49 39 APT 0 M 35 34 39 69 APT 1 F 25 30 8 55 APT 0 M 27 70 41 F 33 45 43 APT 31 33 15 48 APT 0 M 32 80 24 84 APT 1 M 33 59 76 80 APT 1 M 23 32 27 32 VILLA 0 M 34 87 76 66 APT 1 F 30 421 VILLA 314 314 DANDOK 0 F 34 36 56 19 APT 0 M 35 50 4 7 DANDOK 0 M 32 75 4 7 DANDOK 0 F 29 58 69 72 APT 0 M 32 33 8 7 DANDOK 0 F 31 7953234 APT 1 M 26 56 4 76 ETC 0 M 38 48 3 44 DANDOK 0 M 37 62 39 69 APT 1 M 32 34 48 41 APT 1 M 32 54 89 20 APT 1 M 36 M 37 62 39 69 APT 1 M 32 34 48 41 APT 1 M 32 54 89 20 APT 1 M 36 42 30 4 APT 1 M 37 51 18 38 DANDOK 0 F 27 32 24 23 APT 0 F 34 38 18 27 DANDOK 0 M 29 41 4 4 ETC 0 M 30 56 39 17 APT 1 M 32 734 PT 0 M 30 56 39 17 APT 1 M 32 734 68 PT APT 1 M 31 39 3 57 DANDOK 0 M 38 36 83 73 VILLA 1 M 35 41 8 17 APT 1 M 33 30 49 1 DANDOK 1 M 32 32 4 4 DANDOK 0 نام داده را «datafl» بگذارید. و کد به صورت زیر است. چون من فقط می خواهم روش را بدانم، کد را ساده کردم. dataflc1<-read.table(data.txt,header=TRUE) as.character(dataflc1$sex) as.character(dataflc1$houstype) library(gbm) dataflc1.output<-gbm(y~جنس+سن+ درآمد+منطقه+قیمت خانه+هوستایپ، داده=dataflc1، توزیع = adaboost، n.trees=2، keep.data=TRUE، interaction.depth
چگونه مقادیر برازش را هنگام استفاده از AdaBoost از طریق بسته gbm در R محاسبه کنیم؟
2971
اگر یک تابع غیر خطی را به مجموعه ای از نقاط برازش دهید (با فرض اینکه برای هر آبسیسا فقط یک ارتین وجود دارد) نتیجه می تواند این باشد: 1. یک تابع بسیار پیچیده با باقیمانده های کوچک 2. یک تابع بسیار ساده با باقیمانده های بزرگ اعتبار سنجی متقاطع است. معمولاً برای یافتن بهترین سازش بین این دو افراط استفاده می شود. اما بهترین به چه معناست؟ آیا به احتمال زیاد است؟ چگونه می خواهید ثابت کنید محتمل ترین راه حل چیست؟ صدای درونی من به من می گوید که CV در حال یافتن نوعی راه حل حداقل انرژی است. این باعث می شود به آنتروپی فکر کنم، که به طور مبهم می دانم که هم در آمار و هم در فیزیک رخ می دهد. به نظر من بهترین تناسب با به حداقل رساندن مجموع توابع پیچیدگی و خطا ایجاد می شود، یعنی به حداقل رساندن m که در آن m = c (پیچیدگی) + e (خطا) آیا این منطقی است؟ توابع c و e چه خواهند بود؟ لطفا با استفاده از زبان غیر ریاضی توضیح دهید، زیرا من ریاضیات زیادی را نمی فهمم.
تعریف بهترین در اصطلاح بهترین تناسب و اعتبار متقاطع چیست؟
87487
**نسخه کوتاه** آیا **در هر درمان** زمان داده شده و این مجموعه داده تفاوتی وجود دارد؟ **یا** اگر تفاوتی که می‌خواهیم نشان دهیم مهم است، بهترین روشی که برای آشکار کردن این موضوع داریم چیست؟ **نسخه طولانی** بسیار خوب، ببخشید اگر کمی _biology 101_ باشد، اما به نظر می رسد که این یک مورد لبه ای است که در آن داده ها و مدل باید به روشی درست کنار هم قرار گیرند تا بتوان نتیجه گیری کرد. به نظر یک مسئله رایج است... بهتر است به جای تکرار این آزمایش با حجم نمونه بزرگتر، یک شهود را نشان دهیم. فرض کنید من این نمودار را دارم که میانگین +- std را نشان می دهد. خطا: ![p1](http://i.stack.imgur.com/eIKeF.png) حالا، به نظر می رسد که اینجا تفاوتی وجود دارد. آیا می توان این را توجیه کرد (پرهیز از رویکردهای بیزی)؟ رویکرد افراد ساده‌اندیش این است که روز 4 را بگذرانند و از آزمون _t_ استفاده کنند (مثلاً: واریانس دو طرفه، جفت نشده، نابرابر)، اما در این مورد کار نمی‌کند. به نظر می‌رسد که واریانس بسیار زیاد است، زیرا ما فقط 3 برابر اندازه‌گیری در هر نقطه زمانی داشتیم (اشتباه. بیشتر طرح من، p = 0.22). **ویرایش** در بازتاب رویکرد آشکار بعدی ANOVA بر روی یک رگرسیون خطی خواهد بود. این را در پیش نویس اول نادیده گرفتم. به نظر می رسد این نیز رویکرد درستی نیست، زیرا مدل خطی معمول به دلیل ناهمگونی (_واریانس اغراق آمیز در طول زمان_) دچار اختلال شده است. **پایان ویرایش** حدس می‌زنم راهی برای گنجاندن **همه** داده‌ها وجود داشته باشد که با یک مدل ساده (1-2 پارامتر) رشد در طول زمان به ازای هر متغیر پیش‌بینی‌کننده مطابقت داشته باشد، سپس این مدل‌ها را با استفاده از آزمون‌های رسمی مقایسه کنید. این روش باید قابل توجیه باشد و در عین حال برای مخاطبان نسبتاً غیر پیچیده قابل دسترسی باشد. من به «مقایسه منحنی‌های رشد» در statmod نگاه کردم، در مورد grofit مطالعه کردم و یک مدل خطی با اثرات مختلط را امتحان کردم که از این سؤال در SE اقتباس شده است. این دومی نزدیک‌ترین به صورتحساب است، اگرچه در مورد من اندازه‌گیری‌ها از **سوژه یکسان** در طول زمان نیستند، بنابراین مطمئن نیستم که مدل‌های با جلوه‌های ترکیبی/چندسطحی مناسب باشند. یک رویکرد معقول این است که نرخ رشد در هر زمان را به صورت خطی و ثابت مدل کنیم و اثر تصادفی آن **Tx** باشد، سپس اهمیت آن را آزمایش کنیم، اگرچه من جمع‌بندی می‌کنم که در مورد مزایای چنین رویکردی بحث‌هایی وجود دارد. (همچنین این روش یک مدل خطی را مشخص می‌کند که به نظر نمی‌رسد بهترین راه برای مدل‌سازی مقایسه رشد باشد که در مورد یک پیش‌بینی‌کننده هنوز به مرز بالایی برخورد نکرده و در دیگری اساساً ثابت به نظر می‌رسد. من حدس می‌زنم که وجود دارد. یک رویکرد مدل با اثرات ترکیبی تعمیم یافته برای این مشکل که مناسب تر است.) اکنون کد: df1 <- data.frame(Day = rep(rep(0:4، هر=3)، 2)، Tx = rep(c(کنترل، BHB)، هر=15)، y = c(rep(16e3، 3)، 32e3، 56e3 ، 6e3، 36e3، 14e3، 24e3، 90e3، 22e3، 18e3، 246e3، 38e3، 82e3، rep(16e3، 3)، 16e3، 34e3، 16e3، 20e3، 20e3، 24e3، 4e3، 12e3، 16e3، 20e3، 5e3، 12e3 <error st#d#E3 sqrt(var(x)) / sqrt(length(x)) library(plyr) ### به عنوان میانگین و خطای استاندارد خلاصه می شود تا بتوان df2 را رسم کرد <- ddply(df1, c(Day، Tx)، خلاصه، m1 = mean(y)، se = stdErr(y) ) library(ggplot2) ### نمودار با موقعیت جاخالی دادن pd <- position_dodge(.1) ggplot(df2، aes(x=روز، y=m1، رنگ=Tx)) + geom_errorbar(aes(ymin=m1-se، ymax=m1+se)، عرض=.1، موقعیت=pd ) + geom_line(position=pd) + geom_point(position=pd, size=3) + ylab(No. سلول / میلی لیتر) برخی از آزمایشات رسمی: ### آزمون t روز 4 با (df1[df1$Day==4، ]، t.test(y ~ Tx)) ### anova anova(lm(y ~ Tx + روز، df1)) ### کتابخانه مدل اثرات مختلط (nlme) f1 <- lme(y ~ روز، تصادفی = ~1|Tx، data=df1[df1$Day!=0, ]) کتابخانه (RLRsim) exactRLRT(f1) این آخرین توزیع نمونه محدود شبیه سازی شده RLRT (p-value بر اساس 10000 مقدار شبیه سازی شده): RLRT = 1.6722، p-value. = 0.0465 که با توجه به فرضیه صفر مبنی بر اینکه **درمان** روی **تغییر در طول زمان وجود ندارد_** باز هم نزدیک به 0.05 است. اهمیت مدل سازی در اجتناب از تکرار بیهوده آزمایشی بیشتر
تفاوت در رشد را در طول زمان نشان دهید
62372
من دو شکل فایل چند ضلعی دارم و می خواهم ببینم میزان همپوشانی مشاهده شده تا چه حد به دلیل شانس است. من به نوعی آزمایش جایگشت فکر می کنم، اما مطمئن نیستم که بهترین راه برای ادامه چیست. یک ایده این است که به طور تصادفی چند ضلعی ها را در یک شکل فایل به مکان های جدید منتقل کنید، مساحت کل تقاطع را اندازه گیری کنید، سپس این کار را هزاران بار یا بیشتر تکرار کنید تا توزیعی از مناطق تقاطع به دست آید. سپس می توانم اندازه گیری کنم که ناحیه مشاهده شده چقدر در مقایسه با توزیع مناطق تصادفی است. من اخیراً یک سؤال GIS دارم که به این رویکرد مربوط می شود، این یک نظر در مورد آن سؤال انگیزه این سؤال بود. ایده دیگر این است که دو شکل فایل polgyon را در یک شکل فایل ترکیب کنید، سپس به طور تصادفی برچسب های دو نوع چند ضلعی را تغییر دهید، مساحت کل تقاطع را در طرح برچسب گذاری جدید اندازه گیری کنید، سپس تکرار کنید، و غیره مانند بالا. مورد استفاده خاص چیزی شبیه به این است: یک شکل فایل چند ضلعی حاوی چند ضلعی از مناطق فعالیت انسانی است (چند چند ضلعی بزرگتر). شکل فایل چند ضلعی دیگر شامل چند ضلعی از خطوط کلی سنگ (بسیاری چند ضلعی کوچکتر) است. سوال این است که آیا آرایش مشاهده شده سنگ ها توسط مناطق فعالیت تعیین می شود یا خیر: آیا مردم روی مناطق فعالیت خود سنگ گذاشته اند یا ما فقط به توزیع طبیعی سنگ ها نگاه می کنیم؟ آیا هر یک از دو ایده برای آزمایش این در مسیر درستی هستند یا باید به چیزی کاملاً متفاوت فکر کنم؟ هر گونه بینش بسیار خوش آمدید!
تست همپوشانی غیر تصادفی چند ضلعی ها
79156
به دنبال چند نکته و ایده هستید. من هر روز لیستی از تعداد قرار ملاقات های هر روز برای دو هفته آینده برای یک کلینیک دریافت می کنم. من سابقه بسیار خوبی از این لیست دارم و تعداد واقعی بازدیدهایی که هر روز دیده می شود. بنابراین برای هر روز می‌توانم به تعداد بازدیدهای واقعی، تعداد کل قرارهای برنامه‌ریزی‌شده برای آن روز یک روز زودتر، دو روز زودتر، ...، 14 روز قبل نگاه کنم. آرزوی من این است که پیش بینی هایی را برای تعداد واقعی قرار ملاقات هایی که می توانند برای 14 روز آینده انتظار داشته باشند ایجاد کنم. ساده‌ترین پاسخی که می‌توانم به آن بدهم این است که مدل‌های سری زمانی فصلی را بر اساس بازدیدهای واقعی ایجاد کنم و از قرارهای آینده به عنوان یک طبقه استفاده کنم (مثلاً اگر ۱۰ قرار برای ۷ روز آینده برنامه‌ریزی شده باشد، نباید پیش‌بینی کنم که آنها فقط خواهند بود. دارای 8 قرار ملاقات). اما، این ایده آل نیست، زیرا در نظر نمی گیرد که اگر 10 قرار وجود داشته باشد، 1 یا بیشتر ممکن است نشان داده نشود. من به نوعی می خواهم داده های تاریخی را که دارم در پیش بینی ها گنجانده باشم. استفاده از قرارهای آینده به عنوان عوامل، ایده خوبی به نظر نمی رسد زیرا مستقل نیستند. من هیچ نمونه ای از کسی که پیش بینی هایی را با این نوع داده انجام دهد پیدا نکردم. آیا راهی برای استفاده بالقوه از این داده ها به روشی بهتر وجود دارد؟ FYI: من لزوماً به هیچ فناوری وابسته نیستم، می توانم از R یا SAS استفاده کنم.
پیش بینی سری های زمانی قرار ملاقات با پیش ثبت نام
2976
سوالات: 1. من یک ماتریس همبستگی بزرگ دارم. به جای خوشه‌بندی همبستگی‌های فردی، می‌خواهم متغیرها را بر اساس همبستگی‌هایشان با یکدیگر خوشه‌بندی کنم، یعنی اگر متغیر A و متغیر B همبستگی‌های مشابهی با متغیرهای C تا Z داشته باشند، A و B باید بخشی از یک خوشه باشند. یک مثال واقعی خوب از این، کلاس‌های دارایی مختلف است - همبستگی‌های درون طبقه دارایی بالاتر از همبستگی‌های کلاس بین دارایی است. 2. من همچنین در حال خوشه بندی متغیرها بر حسب رابطه قدرت بین آنها هستم، به عنوان مثال وقتی همبستگی بین متغیرهای A و B نزدیک به 0 باشد، آنها کم و بیش مستقل عمل می کنند. اگر ناگهان برخی از شرایط اساسی تغییر کنند و یک همبستگی قوی (مثبت یا منفی) ایجاد شود، می‌توانیم این دو متغیر را متعلق به یک خوشه بدانیم. بنابراین به جای جستجوی همبستگی مثبت، به دنبال رابطه در مقابل عدم رابطه است. حدس می‌زنم یک قیاس می‌تواند خوشه‌ای از ذرات باردار مثبت و منفی باشد. اگر بار به 0 برسد، ذره از خوشه دور می شود. با این حال، هر دو بار مثبت و منفی ذرات را به خوشه های آشکار جذب می کنند. من عذرخواهی می کنم اگر برخی از این خیلی واضح نیست. لطفا به من اطلاع دهید، من جزئیات خاص را روشن خواهم کرد.
خوشه بندی متغیرها بر اساس همبستگی بین آنها
24493
من یک شک اساسی در کاهش ابعاد برای مجموعه داده های متنی دارم. 20گروه خبری، rcv1 و غیره. در ابتدا تعداد وقوع کلمه در هر سند را استخراج می‌کنم، یعنی کلمه x ماتریس سند $n \times d$ است که $n$ تعداد اسناد و $d$ بعد است. من می خواهم بعد را کاهش دهم، بگویم $d_1 << d$. تکنیک استاندارد کاهش ابعاد چیست؟ 1. ویژگی برتر $d_1$ را از ماتریس وقوع کلمه اصلی $( n \times d)$ انتخاب کنید و سپس TF-IDF را برای ماتریس کاهش یافته $(n \times d_1)$ محاسبه کنید، یا 2. TF-IDF را محاسبه کنید. ماتریس برای $n \times d$ ماتریس و سپس ویژگی های برتر $d_1$ را انتخاب کنید. همچنین، در بسیاری از متون ذکر شده است که ویژگی برتر انتخاب شده است. می خواستم بدانم انتخاب ویژگی های برتر یعنی چه؟ چگونه آن را تعریف می کنند؟
چگونه برای مجموعه داده سند متنی ابعاد را کاهش دهیم؟
79152
من از الگوریتم لوید برای خوشه بندی استفاده می کنم. از آنجایی که به یک مقداردهی اولیه تصادفی متکی است و الگوریتم لوید می تواند در بهینه محلی تابع هدف k-means گیر کند، باید چندین بار آن را اجرا کنم. چند مقدار اولیه تصادفی مختلف را باید با الگوریتم لوید انجام دهم تا خوشه بندی بهینه با X% اطمینان حاصل شود؟ یا حداقل آیا هیچ قاعده‌ای وجود دارد که به تعداد مناسبی از مقداردهی اولیه‌های تصادفی توصیه کند؟
چند مقدار اولیه تصادفی مختلف را باید با الگوریتم لوید انجام دهم تا خوشه بندی بهینه با X% اطمینان حاصل شود؟
58721
من روی یک مشکل طبقه بندی باینری کار می کنم که اندازه معقولی دارد (100k مشاهده). من 60 ویژگی عددی را استخراج کردم. کلاس های مجموعه آموزشی به خوبی متعادل هستند. الگوهای خطی قابل توجهی وجود دارد، اما پس از آن الگوها بسیار غیر تصادفی به نظر می‌رسند و بنابراین من به مدل‌های طبقه‌بندی‌کننده‌ای نیاز دارم که بتوانند با این موضوع مقابله کنند. من واقعاً به دنبال این هستم که بهترین دقت ممکن (تخمینی) را فدای تلاش محاسباتی کنم، بنابراین در حال بررسی ایجاد یک طبقه‌بندی گروه هستم. تا کنون، من نتایج بسیار خوبی را با موارد زیر دریافت کرده‌ام: * طبقه‌بندی‌کننده جنگل تصادفی (دقت CV 90%) * طبقه‌بندی‌کننده SVM مبتنی بر شعاعی (87٪ دقت CV، هنوز مشغول تنظیم آن در یک شبکه دقیق‌تر). اکنون می‌پرسم آیا الگوریتم‌های بالقوه جالب دیگری وجود دارد که بتوانم به ترکیب اضافه کنم (به عنوان مثال، سه الگوریتم برای رای اکثریت خوب است). امیدوارم مدل های متنوع به من کمک کنند تا برخی از تعصبات بالقوه باقی مانده را کنار بگذارم و دقت را کمی بهبود بخشم. ترجیحاً از الگوریتم های موجود از طریق بسته R's caret استفاده کنم. من در حال حاضر به فرآیندهای گاوسی نگاه می کنم. سابقه من در یادگیری ماشین خیلی نظری نیست. من واقعاً فقط تجربه صمیمانه ای با SVM، درختان تصمیم گیری و جنگل های تصادفی دارم، بنابراین فهرست الگوریتم های موجود در caret بسیار دلهره آور است و من در یافتن مطالعات کاربردی که آنها را با هم مقایسه می کنند، مشکل دارم. می‌دانم که پیش‌بینی عملکرد نسبی روی داده‌های خاص دشوار است، اما من حاضرم تعدادی از آنها را بنویسم!
پیشنهاد الگوریتم های طبقه بندی را امتحان کنید
115154
نسبتاً جدید از نظر آمار. من از رگرسیون خطی استفاده می کنم و R^2 را دریافت می کنم که بسیار کم است. **MODEL 1** lmoutar=lm(فرمول = ts_y ~ ts_y_lag + ts_x) بنابراین با رگرسیور خارجی به arima تغییر داد. با استفاده از auto.arima، مدل arimax **MODEL 2** fitarima <- auto.arima(ts_y, xreg=ts_x) arimaout<-arima(ts_y,order=c(2,0,5),xreg= را فرموله کردم ts_x) چگونه می توانم توضیح پذیری مدل AR را با مدل arima مقایسه کنم. از موضوع چگونه می توانم مربع R یک رگرسیون را با خطاهای arima با استفاده از R محاسبه کنم؟، متوجه شدم که R^2 گزینه ای برای ARIMA نیست. از مقایسه مدل رشته ای بین یک مدل ARIMA و یک مدل رگرسیونی، AIC/BIC معیار درستی نیست و MSE از پیش بینی/پیش بینی می تواند معیارهای ممکن برای مقایسه بین مدل AR و ARIMA باشد. آیا MSE بهترین گزینه برای مقایسه مدل است، اگر چنین است چگونه می توانم MSE را برای AR و ARIMA ایجاد کنم؟ من سعی کردم مدل ar و arima بالا را با استفاده از anova مقایسه کنم، اما پیام خطای زیر را دریافت می کنم. حذف شد زیرا پاسخ با مدل 1 متفاوت است این پیام خطا به چه معناست؟ **_EDIT_** از پاسخگویی تا کنون و بینش مبنی بر اینکه AR در ARIMA تودرتو است متشکریم. چگونه می توان به این سوال پاسخ داد، اگر من دوباره به عنوان چگونه مدل های خطی AR، ARIMA و عمومی را مقایسه کنیم؟ اولین مدلی که لیست کردم دارای AR(1) و متغیر مستقل است. این یک مدل خطی کلی است. بنابراین چگونه می توانم یک مدل GLM را با مدل ARIMAX مقایسه کنم؟ هر چیز دیگری به جز MSE که بتوانم از آن برای قضاوت بین GLM و ARIMAX استفاده کنم
چگونه می توان مدل های AR و ARIMA را با هم مقایسه کرد؟
115152
من دارم روی یک تحلیل با شخص دیگری کار می کنم. ابتدا یک رگرسیون لجستیک با گروه مطالعه و متغیر X انجام دادیم که هر دو معنی‌دار بودند. سپس برهمکنش بین گروه مورد و X را اضافه کردیم و فقط گروه مورد مطالعه را برهمکنش افزودیم و اثر متقابل معنی دار بود. در واقع 3 گروه وجود دارد که تنها یکی از گروه ها و یکی از تعاملات گروه*X معنادار است. من برای متقاعد کردن این شخص مشکل دارم که نباید نسبت های شانس X را از اولین تحلیل ارائه کنیم که این تعامل را در نظر نمی گیرند. این شخص فکر می کند که می توانیم نتایج تحلیل اول و سپس تجزیه و تحلیل دوم را نشان دهیم. من فکر می کنم این گمراه کننده است و مردم را سردرگم می کند. من در توضیح چیزها بهترین نیستم (همانطور که می توانید بگویید)، بنابراین هرگونه کمکی در مورد نحوه استدلال کردن نظر من قدردانی خواهد شد.
نتایج با و بدون تعامل
79150
من یک نظرسنجی در مورد قیمت گذاری انجام دادم و از پاسخ دهندگان خواستم بین گزینه A یا گزینه B یکی را انتخاب کنند. 61٪ گزینه A و 39٪ گزینه B را انتخاب کردند. حجم نمونه 90 است. چگونه می توانم تعیین کنم که آیا ٪ انتخاب گزینه A از نظر آماری معنی دار است؟ چه آزمونی را انجام دهم و چگونه؟ جداول متقاطع، آزمایش‌های آماری را در ردیف‌ها نشان می‌دهند (به عنوان مثال، درصد انتخاب گزینه A در گروه 1 از نظر آماری با انتخاب گزینه A در گروه 2 متفاوت است). با این حال، می‌خواهم در ستون مقایسه کنم (یعنی آیا % انتخاب گزینه A از نظر آماری با % انتخاب گزینه B در فاصله اطمینان 95% و 90%) که می‌خواهم در اکسل انجام دهم متفاوت است. مطمئن نیستم که چگونه از فرمول Binom.Dist استفاده کنید. من احساس می کنم که آزمون درستی است اما مطمئن نیستم.
چگونه تشخیص دهیم که انتخاب گزینه A از نظر آماری با انتخاب گزینه B در نظرسنجی متفاوت است؟
24325
من اغلب از یک منحنی ROC و ناحیه زیر آن منحنی به‌عنوان اندازه‌گیری دقت طبقه‌بندی کننده در مسائل 2 کلاسی استفاده می‌کنم، به عنوان مثال: #بارگذاری داده‌های کتابخانه مجموعه داده (mlbench) (Sonar) # ساخت یک کتابخانه مدل (caret) model <- train (Class~., data=Sonar, method='gbm', tuneLength=1, trControl=trainControl(method='cv')) مدل #منحنی ROC و کتابخانه AUC(pROC) pMal <- predict(model, newdata=Sonar, type='prob')[,2] roc(Sonar$Class, pMal, plot=TRUE) >مساحت زیر منحنی: 0.9705 # منحنی لورز و جینی؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/D6u2o.png) به روشی مشابه، من می‌خواهم بتوانم منحنی لورنز را رسم کنم و ضریب جینی را برای طبقه‌بندی‌کننده خود محاسبه کنم. من Gini = 2*AUC-1 را می دانم، اما در واقع مطمئن نیستم که چگونه آن را به تنهایی محاسبه کنم. علاوه بر این، هر کاربرد منحنی لورنز که من دیده‌ام، به داده‌های تک متغیره نگاه می‌کند (مثلاً توزیع درآمد). ** چگونه می توانم منحنی لورنز را محاسبه کنم وقتی 2 پارامتر دارم: احتمال پیش بینی شده کلاس مثبت و خود کلاس مثبت؟**
منحنی لورنز و ضریب جینی برای اندازه گیری عملکرد طبقه بندی کننده
58726
من تازه وارد آمار هستم و از Python 2.7 برای جا دادن مدل رگرسیون (جنگل تصادفی) استفاده می کنم. وقتی نمودار صدک قیمت‌ها را قبل و بعد از تبدیل «log» رسم می‌کنم، ** نمودار درصدی** را دریافت می‌کنم _(سمت چپ: بدون تغییر. سمت راست: گزارش تبدیل شده)_ ![توضیح تصویر را اینجا وارد کنید](http:/ /i.stack.imgur.com/qz8G2.png) متوجه شدم که طرح خطی تر شد، به جز در ابتدا که کمی عجیب است. در چنین شرایطی چه خواهید کرد و چه چیزی ممکن است باعث آن ناهنجاری شده باشد؟ وقتی من فقط قیمت هایی را ترسیم می کنم که مقادیر بالاتری دارند (> 400000)، نمودار تبدیل می شود![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/RccZy.png) آیا اکنون به اندازه کافی خطی است؟ نمودار خطی به چه معناست؟ چگونه باید مقادیر کمتر از 400000 را که از استفاده برای برازش مدل رگرسیون حذف کرده ام، رفتار کنم؟ چگونه تصمیم می گیرید که متغیرها را نیز تبدیل به لاگ کنید؟ با انجام یک نمودار صدک مشابه؟ * * * **طرح چندکی-عادی** _(تغییر لاگ متغیر y)_ _سمت چپ: مجموعه آموزشی. راست: Test Set_ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/DyKt1.png) **طرح چندگانه-نرمال** _(_ **خیر** _تغییر متغیر y)_ _سمت چپ: مجموعه آموزشی. راست: Test Set_ ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/CxscG.png) چرا تبدیل گزارش کاری انجام نمی دهد؟
نحوه مدیریت داده های رگرسیون که خطی نیستند
67617
بیایید تصور کنیم که من داده‌هایی را در یک طرح طولی جمع‌آوری کرده‌ام که می‌تواند به تجزیه و تحلیل اثرات مختلط کمک کند. بنابراین فرض کنید من یک مطالعه تحقیقاتی با افراد انسانی انجام می‌دهم و پاسخ‌ها را مشاهده می‌کنم ($Y_{ij}$)، که در آن $i$ موضوع را مشخص می‌کند و $j$ نشان‌دهنده کارآزمایی است، جایی که کارآزمایی j$th شامل ترکیبی احتمالاً تکرارپذیر از متغیرهای کمکی در مدل‌های جلوه‌های ترکیبی، «مقدار پیش‌بینی‌شده» برای پاسخ واقعی $i$th موضوع در آزمایش $j$th ($\widehat{Y_{ij}}$) میانگین وزنی پاسخی است که در واقع مشاهده شد، $Y_{ij}$، و میانگین نمایه میانگین پاسخ جمعیت، $X_i \widehat{\beta}$. اینکه هر عبارت چقدر وزن دارد، تقریباً به «اندازه» نسبی تنوع بین موضوع در مقابل درون موضوع بستگی دارد. آیا مشابهی برای رگرسیون خطی OLS وجود دارد؟ یعنی آیا می توان به طور مشابه مقدار پیش بینی شده را برای پاسخ، $\widehat{Y_i}$ به عنوان میانگین وزنی پاسخ مشاهده شده، $Y_i$ و چیز دیگری بیان کرد؟
پاسخ های پیش بینی شده به عنوان میانگین های وزنی: رگرسیون کلاسیک در مقابل. مدل های اثر مختلط
115157
من می‌دانم که توزیع پیش‌بینی پسین چیست، و درباره چک‌های پیش‌بینی پسینی مطالبی را مطالعه کرده‌ام، اگرچه هنوز برای من مشخص نیست که چه کاری انجام می‌دهد. 1. بررسی پیش بینی پسین دقیقاً چیست؟ 2. چرا برخی از نویسندگان می گویند که اجرای بررسی های پیش بینی پسین استفاده از داده ها دو بار است و نباید از آنها سوء استفاده کرد؟ (یا حتی اینکه بیزی نیست)؟ (مثلاً این یا این را ببینید) 3. این بررسی دقیقاً برای چه مواردی مفید است؟ آیا واقعا می توان از آن برای انتخاب مدل استفاده کرد؟ (به عنوان مثال، آیا بر تناسب اندام و پیچیدگی مدل تاثیر می گذارد؟)
بررسی های پیش بینی پسین
29912
وقتی قانون اعداد بزرگ از کار بیفتد، بسامد یک رویداد به احتمال همگرا نمی شود، بنابراین منظور از احتمال در این موارد چیست؟ PS: لطفاً ارجاعات را به پاسخ ها اضافه کنید (در صورت امکان).
معنی احتمال زمانی که قانون اعداد بزرگ شکست بخورد
115155
من با مکانیک هر دو روش آشنا هستم، اما نمی دانم هنگام انتخاب بین این دو روش برای تنظیم پیشین، چه عواملی را باید در نظر بگیرم. من تصور می‌کنم که به‌صورت موردی، می‌توان بررسی‌های پیش‌بینی‌کننده بعدی را انجام داد، پیچیدگی مدل و غیره را با هم مقایسه کرد تا ببیند کدام مدل بهترین مبادله را ارائه می‌دهد. اما در حالت کلی، چگونه می توان تصمیم گرفت که آیا از پیشینیان غیر اطلاعاتی در مقابل بیز تجربی استفاده کند؟
بیز تجربی در مقابل پیشینیان غیر اطلاعاتی.
24327
توزیع متغیر $Y$ که با $$Y = \sum^N_{i=1} Z_i X_i $$ به دست می‌آید چقدر است که در آن: $Z_1,\dotsc,Z_N$ مستقل و به طور یکسان توزیع شده‌اند و تابع چگالی $f_Z(z)$ شناخته شده است (یک توزیع مجذور کای جابجا شده)، $X_i \sim\chi^2_L(\lambda)$، جایی که $\lambda$ پارامتر غیر مرکزی است و $X_1,\dotsc,X_N$ i.i.d هستند. همچنین. سوال این است: (الف) وقتی $\lambda=0$ توزیع $Y$ چیست. (ب) وقتی $\lambda\ne 0$ توزیع $Y$ چیست.
مجموع متغیرهای مجذور کای
34463
فرض کنید $X=\log(Y)$ را می توان با مخلوطی از دو توزیع نرمال با نسبت $p$ از $X_1$ و نسبت $1-p$ از $X_2$ مدل کرد، که در آن $X_1\sim\mathcal N(U_1 ، \sigma^2_1)$ و $X_2\sim\mathcal N(U_2، \sigma^2_2)$. چگونه $E(Y)$ را محاسبه می کنید. یعنی $E(\exp(X))$ که در آن $X$ ترکیبی از دو نرمال است؟
چگونه مقدار مورد انتظار توزیع لگ نرمال مختلط را محاسبه می کنید؟
91778
یکی از همکاران در حال انجام یک متاآنالیز بیزی از برخی مطالعات دارویی در مقیاس بزرگ است. اگرچه او تجربه ای با متاآنالیز «متعارف» دارد، اما در رویکرد بیزی جدید است. ما چندین مقاله با مطالعات و رویکردهای مرتبط خوانده‌ایم، و برخی از نویسندگان میانگین غلظت دارو را گزارش می‌کنند، در حالی که برخی دیگر میانگین‌ها را گزارش می‌کنند. آیا یکی از دیگری در زمینه بیزی مناسب تر است؟
متاآنالیز بیزی
24492
من قصد دارم یک رگرسیون تعدیل شده روی مجموعه داده خود با دو IV اجرا کنم. * یکی از آنها یک نوع داده بازه‌ای ساده، بین آزمودنی‌های IV است (مثلاً سطح اضطراب). * دیگری یک نوع داده طبقه بندی شده است، در موضوعات چهارم (مثلاً نوع موقعیت اجتماعی). * DV نمرات نتیجه روی یک متغیر است (مثلاً سازگاری روانی). من پیش بینی می کنم که سطح اضطراب تعدیل کننده تأثیر موقعیت اجتماعی بر سازگاری روانی است. سوال من این است: * چگونه می توانم رگرسیون تعدیل شده را اجرا کنم زیرا همه شرکت کنندگان در طبقه بندی چهارم نمرات یکسانی خواهند داشت، زیرا این یک متغیر درون موضوعی است. یعنی همه شرکت کنندگان برای موقعیت اجتماعی A 0 و برای موقعیت اجتماعی B و غیره 1 خواهند داشت؟ * آیا بهتر است یک ANOVA طراحی مختلط دو طرفه را اجرا کنم؟
رگرسیون تعدیل شده برای متغیر طبقه بندی شده درون موضوعی
29220
من یک برنامه نویس هستم، با دانشی مناسب اما نه متخصص در مورد آمار، و در حال کار بر روی این دستورالعمل ها برای نحوه ایجاد نمودارهای قیف هستم. من می دانم که ابزارهای آماده بهتری (به عنوان مثال R) برای تولید نمودارهای قیف وجود دارد، اما این دستورالعمل ها به درک اصول اولیه نمودارهای قیف کمک می کند. بنابراین، سوال من: **مرحله 4 در دستورالعمل به یک نوع خاص خطای استاندارد اشاره دارد. چرا خاص است؟** و، آیا می توانم به طور معتبر روش محاسبه خطای استاندارد را در این دستورالعمل ها کپی کنم تا برای هر مجموعه داده ای که شامل تعداد جمعیت خام و تعداد حوادث خام است، یک نمودار قیف بسازم؟
محاسبه خطای استاندارد برای نمودارهای قیف
34465
از نظریه آمار توسط مارک جی. شرویش (صفحه 12): اگر چه قضیه نمایش دفینتی 1.49 مرکزی برای مدل های پارامتریک انگیزشی است، در واقع در اجرای آنها استفاده نمی شود. چگونه قضیه در مدل های پارامتری مرکزی است؟
چه چیز جالبی در مورد قضیه نمایش دو فینتی وجود دارد؟
51566
من یک مدل با حدود 200000 مشاهده آموزشی دارم که در آن در حال پسرفت هستم، با 4 عامل و 2 متغیر پیوسته. یکی از ویژگی های من دارای 927 سطح است که باعث می شود اجرای R randomForest با شکست مواجه شود (برای هر ویژگی محدودیت 32 سطح دارد). متأسفانه، من راه ساده ای برای اجتناب از استفاده از این عامل یا تجزیه آن به یک سری متغیرهای پیوسته نمی بینم. از آنجایی که پیش‌بینی‌کننده‌های من ترکیبی از طبقه‌بندی و پیوسته هستند، به درخت‌ها فکر کردم. آیا کسی می تواند یک پیاده سازی متفاوت (پکیج یا زبان)، رویکرد ML یا روش بهتری برای پیش پردازش یا ماساژ ورودی های من پیشنهاد دهد؟
فاکتور RandomForest با سطوح بسیار زیاد
61610
من به دنبال مشکلاتی در Statistics یا حوزه های کاربردی در Statistics هستم که با داده های سه طرفه یا داده های مرتبه بالاتر یا 3-Tensors سروکار دارند. آیا تنظیمات رگرسیونی وجود دارد که در آن متغیرهای کمکی به جای ماتریس (2-Tensor) به عنوان تانسور تانسور مرتبه بالاتر بیان شوند؟
تانسورهای مرتبه بالاتر در آمار
62021
من یک سری زمانی از داده‌های گزارش ماهانه مربوط به دستمزد ناخالص دارم، از ژانویه 2002 تا اوت 2008. من باید از استراتژی مدل‌سازی Box-Jenkins برای تعیین مدل صحیح ARIMA استفاده کنم، اما برای _نرخ‌های رشد دستمزد سالانه_. چگونه داده ها را به این فرم تبدیل کنم؟ با تشکر
تبدیل داده های گزارش ماهانه به نرخ رشد سالانه
93736
من سعی می‌کنم پتانسیل‌های فاکتور را از مستندات PyMC درک کنم، اما در مورد قطعه پیاده‌سازی به کمک نیاز دارم - یا ممکن است معلوم شود که من به طور کلی نحوه عملکرد پتانسیل‌ها را اشتباه متوجه شده‌ام. تصور کنید که ما در حال ساخت یک مدل نقطه سوئیچ پواسون هستیم که در آموزش مستندسازی PyMC مشخص شده است. اکنون می خواهیم یک پتانسیل عامل را دقیقاً همانطور که در مستندات توضیح داده شده است معرفی کنیم، به طوری که تفاوت بین میانگین پواسون اولیه و متأخر کمتر از 1 باشد. وقتی سعی کردم پتانسیل را مانند کد زیر پیاده سازی کنم، می بینم که مقادیر خارج از حد مجاز است. محدودیت در توزیع خلفی ظاهر می شود. چرا توزیع پسین پتانسیلCheck حاوی این مقادیر است؟ بدیهی است که من کار اشتباهی انجام می‌دهم... از pymc import DiscreteUniform، نمایی، قطعی، Poisson، Uniform، بالقوه واردات numpy به عنوان np disasters_array = \ np.array([ 4, 5, 4, 0, 1, 4, 3, 4، 0، 6، 3، 3، 4، 0، 2، 6، 3، 3، 5، 4، 5، 3، 1، 4، 4، 1، 5، 5، 3، 4، 2، 5، 2، 2، 3، 4، 2، 1، 3، 2، 2، 1، 1، 1، 1، 3، 0، 0، 1، 0، 1، 1، 0، 0، 3، 1، 0، 3، 2، 2، 0، 1، 1، 1، 0، 1، 0، 1، 0، 0، 0، 2، 1، 0، 0، 0، 1، 1، 0، 2، 3، 3، 1، 1، 2، 1، 1، 1، 1، 2، 4، 2، 0، 0، 1، 4، 0، 0، 0، 1، 0، 0، 0، 0، 0، 1، 0، 0، 1، 0، 1]) نقطه سوئیچ = DiscreteUniform('switchpoint', low=0, upper=110, doc ='Switchpoint[year]') early_mean = نمایی ('Early_mean', beta=1.) late_mean = نمایی ('late_mean', beta=1.) @deterministic(plot=False) def rate(s=switchpoint, e=early_mean, l=late_mean): ''' Concatenate Poisson به معنی ''' out = خالی (len (disasters_array)) out[:s] = e out[s:] = l بازگشت @potential(plot=True) def examplePotential(em=early_mean, lm=late_mean ): if abs(em-lm) < 1: return e other: return 1. @deterministic(plot=True) def potencialCheck(e=early_mean, l=late_mean): '' پتانسیل برای ترسیم را تکرار کنید و بررسی کنید که آیا محدودیت وجود دارد یا خیر. = Poisson('dissaters', mu=rate, value=disasters_array, observed=True) Disaster_model = [switchpoint, early_mean, late_mean, examplePotential, potencialCheck] از واردات pymc MCMC M = MCMC(disaster_model) M.sample(iter=10 سوختن=1000، نازک=10) از نمودار وارد کردن pymc.Matplot به عنوان mcplot mcplot(M)
درک پتانسیل های عامل در PyMC
62020
من از بسته mlogit در R برای تخمین مدل انتخابی استفاده می کنم، من با مجموعه داده معروف Yogurt شروع کردم. کتابخانه (mlogit) داده (ماست) نامها (ماست) Yogdata <- mlogit.data(ماست، انتخاب = انتخاب، شکل = گسترده، متغیر = c(2:9)، sep=.) Yog1 < - mlogit(انتخاب ~ شاهکار+قیمت، داده = Yogdata) خلاصه (Yog1) phat <- Yog1$احتمالات Yname <-colnames(phat) Y1hat <- max.col(phat) Y1hatname <- Yname[Y1hat] preds = پیش بینی (Yog1,newdata=Yogdata) preds[100:120،] ماست[100:120,c('انتخاب' )] خروجی «preds» شامل احتمالاتی است که مجموع آنها 1 برای هر ردیف است. دانون هیلند وزن yoplait [1،] 0.3881972 0.03053851 0.2200040 0.3612603 [2،] 0.6834572 0.01580043 0.1138286 0.1138286 0.1138286 0.1374 0.18, 1374، 18، 0.18 0.03137184 0.2344462 0.3205015 [4،] 0.4136804 0.03137184 0.2344462 0.3205015 [5،] 0.4136804 0.044230.031 0.3205015 [6،] 0.4136804 0.03137184 0.2344462 0.3205015 [7،] 0.4136804 0.03137184 0.2344462 0.2344462 0.32040.320. 0.03137184 0.2344462 0.3205015 [1] دانون دانون یوپلیت یوپلیت دانون دانون دانون یوپلیت دانون [10] دانون یوپلیت یوپلیت دانون دانون دانون دانون دانون بیشترین احتمال در هر ردیف باشد. آیا این درست خواهد بود؟ وقتی این انتخاب را با انتخاب های واقعی از ماست مقایسه می کنم، برای همان ردیف ها، می بینم که مسابقات خیلی عالی نیستند. آیا راهی برای بهبود این مدل وجود دارد؟ آیا این روش درستی برای قضاوت درباره موفقیت این مدل است؟
Logit چند جمله ای با داده های mlogit و Yogurt
62025
آیا می‌توانید هر کتاب، مقاله، مقاله، آموزش آنلاین/دوره آموزشی و غیره را که برای یک اپیدمیولوژیست/آمارشناس زیستی جالب و مفید باشد تا در مورد فلسفه علیت/استنتاج علّی بیاموزد، توصیه کنید؟ من در مورد انجام استنتاج علّی از چارچوب epi و biostats تا حدودی می‌دانم، اما می‌خواهم چیزی در مورد فلسفه‌ای که زیربنای این کار است و انگیزه آن است، بیاموزم. به عنوان مثال، درک من این است که هیوم ابتدا در مورد ایده هایی صحبت کرد که می توانند به عنوان خلاف واقع تفسیر شوند. من اساساً هیچ آموزش یا تجربه ای در زمینه فلسفه ندارم، بنابراین برای شروع به چیزی نسبتاً مقدماتی نیاز دارم، اما همچنین علاقه مند به توصیه هایی برای متون/نویسندگان پیچیده تر اما مهم/بنیادی هستم (اما لطفاً نشان دهید که مقدماتی نیستند). امیدوارم این موضوع برای تایید متقابل خیلی خارج از موضوع نباشد، اما امیدوارم که برخی از شما قبلاً در قایق من بوده باشید و بتوانید منابع مورد علاقه خود را به اشتراک بگذارید.
منابع آنلاین برای فلسفه علیت برای استنتاج علی
23561
در اینجا یک بلوک دیاگرام است که وقتی می‌خواهم واقعی بودن مدلم را تأیید کنم از آن استفاده می‌کنم. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/22LrK.jpg) در هر دور یک برابر 11/12 درصد از داده ها برای ایجاد مدل استفاده می شود (به عنوان مثال بردارهای ویژه PCA) بعد از 12 دور بررسی می کنم که مدل ها (مثلاً بردارهای ویژه PCA) از هر دور **از نظر آماری متفاوت نیستند و آیا آنها در واقع آیا من مدل را ثابت اعلام نکردم. در جایی که ایده این است که اگر یک مدل به معنای k-برابر پایدار باشد، به نوعی نشانه واقعی بودن مدل است، من خودم کم و بیش به آن فکر کردم (عمدتاً در آخرین مرحله تأیید) بنابراین، مایلم بدانم نظر شما در مورد آن چیست؟ آیا از روش های دیگری برای تأیید اینکه مدل من واقعی است آگاه هستید؟
چگونه می توان مطمئن شد که مدل واقعی است؟
115156
تعریف M-estimator برآوردگر (از Casella و Berger) به شکل $$\hat{\theta}=\min \sum_{i=1}^n \rho(X_i-\theta),$$ است. که در آن $X_1،X_2، \cdots، X_n$ داده های برخی از تابع $\rho$ است. تخمین LASSO به صورت $$\hat{\theta}=\min ||AX-\theta||_2^2 + \lambda ||\theta||_1,$$ برای برخی از ماتریس A و یک پارامتر برداری تعریف می‌شود. $\theta$. بسیاری از مقالات به LASSO به عنوان یک برآوردگر M اشاره می کنند که به نظر می رسد درست نباشد. آیا من اینجا چیزی را از دست داده ام؟ به نظر می رسد این تعریف به این معنی است که نمی توان هیچ برآوردگر M برای یک پارامتر برداری وجود داشت.
کمند M-Estimator چگونه است؟
34464
من در بخش‌هایی از ادبیات پزشکی با استفاده از اصطلاحات مخلوط مورد و ریسک بدون هیچ گونه نقل قول یا توضیحی در مورد استفاده و انگیزه دقیق آنها از منظر مدل‌سازی مواجه شده‌ام. من اصول تعدیل متغیرهای کمکی را در مدل‌سازی رگرسیون چندگانه برای رسیدگی به اغتشاش (سوگیری) و طبقه‌بندی (کارایی) درک می‌کنم. با این حال، به نظر نمی رسد مرجعی برای بحث در مورد تعریف این اصطلاحات، تأثیر آنها بر تحلیل ها و اهداف استفاده از آنها پیدا کنم. آیا کسی می تواند به طور کلی توضیح دهد که چگونه و چرا از ترکیب موارد و تعدیل ریسک در عمل استفاده می شود؟
تعدیل مخلوط موردی در مقابل تعدیل ریسک، تفاوت آنها در عمل و هدف چیست؟
23566
FPCA چیزی است که من به طور تصادفی با آن برخورد کردم و هرگز نتوانستم بفهمم همه چیز در مورد چیست؟ لطفاً این مقاله را ببینید، و من ذکر می کنم: > PCA به دلیل > نفرین ابعاد (Bellman 1961) در تجزیه و تحلیل داده های عملکردی با مشکلات جدی مواجه می شود. نفرین ابعاد > از پراکندگی داده ها در فضای با ابعاد بالا سرچشمه می گیرد. حتی اگر ویژگی‌های هندسی PCA معتبر باقی بماند، و حتی اگر تکنیک‌های عددی نتایج پایدار ارائه دهند، ماتریس کوواریانس نمونه گاهی اوقات تخمین ضعیفی از ماتریس کوواریانس جمعیت است. برای غلبه بر این مشکل، > FPCA روش بسیار آموزنده تری برای بررسی کوواریانس نمونه > ساختار نسبت به PCA ارائه می دهد، من آن را متوجه نمی شوم: اشکالی که در مقاله ذکر شده در بالا ذکر شد: آیا PCA روش نهایی برای مدیریت نیست. وضعیتی مانند نفرین ابعاد و غیره؟
تجزیه و تحلیل مؤلفه اصلی عملکردی (FPCA). همه چیز در مورد چیست؟
35738
هنگام برازش برخی روابط $y_j=f_j(x_1, \ldots, x_p)+\epsilon_j$ بین یک پاسخ چند متغیره $y=(y_1, ..., y_k)$ و متغیرهای کمکی $x_i$، یک مشکل رایج این است که برای کدام مقادیر متغیرهای کمکی $x_i$ پاسخ $y_j$ یا توابع مدل $f_j$، به یک بهینه این مشکل در ادبیات در مورد مدل های سطح پاسخ کلاسیک است. البته به طور کلی نمی توان یک بهینه همزمان یافت، یعنی راه حلی $(x_1، \ldots، x_p)$ که برای آن تابع _every_ $f_j$ به بهینه خود می رسد. بر اساس داده های تجربی، رویکرد مطلوبیت برای این مشکل عبارت است از: * تعریف نوعی پاسخ متوسط $z=d_1(y_1)\cdots d_k(y_k)$، متناسب با یک مدل تک متغیره $z=g(x_1, \ldots ، x_p)+\epsilon$ و بهینه سازی تابع برازش تک متغیره $\hat g$; * یا ابتدا مدل‌های رگرسیون تک متغیره $p$ را مطابقت دهید $y_j=\hat f_j(x_1, \ldots, x_p) + \epsilon_j$, $j=1,\ldots,p$ و سپس مقادیر متغیرهای کمکی $x_i$ را جستجو کنید. که برای آن توابع $\hat f_j$ با تعریف یک متغیر به نوعی بهینه همزمان می رسند. متوسط مدل $\prod d_j(\hat f_j)$ را نصب کرد و در نهایت بهینه خود را پیدا کرد. من به دلایل زیر جذب این رویکرد نمی شوم: * انتخاب توابع مطلوبیت $d_j$ به نظر من خیلی ظریف و دلخواه به نظر می رسد. حتی با دانش قبلی قوی و اهداف روشن (یک موقعیت عملی نادر). من تعجب نمی کنم که بسیاری از کاربران گزینه های متعددی را امتحان می کنند. ارائه شده توسط رویکرد مطلوبیت (حتی وقتی فرض کنیم که توابع مطلوبیت $d_j$ توابع خوبی هستند، نمی دانم که آیا می توان نوعی فاصله اطمینان را در مورد راه حل) * این رویکرد همبستگی بین پاسخ های تک متغیره $y_j$ را در نظر نمی گیرد. علاوه بر این، من به گزینه های جایگزین برای رویکرد مطلوبیت علاقه مند هستم. پترسون و سایر نویسندگان (به عنوان مثال به این ارائه پاورپوینت و ارجاعات ارائه شده در آن مراجعه کنید) رویکرد جذاب تری را پیشنهاد کردند: آنها با یک مدل خطی چند متغیره بیزی مطابقت دارند و سپس احتمال پیش بینی پسینی را بهینه می کنند که پاسخ چند متغیره $y$ متعلق به مجموعه ای از پیش تعیین شده $ باشد. دلار استرالیا برای این رویکرد نیازی به بیزی نیست: این احتمال را می توان به عنوان تخمینی از $\Pr(y\in A)$ نیز در نظر گرفت و همچنین می توانیم یک فاصله اطمینان در مورد احتمال بهینه شده $\Pr(y\in A) ارائه دهیم. ) دلار. کاربر باید $A$ را انتخاب کند اما با اهداف روشن، این انتخاب به اندازه انتخاب توابع مطلوبیت $d_j$ دلخواه نیست (مثلاً ما می‌خواهیم دما بالاتر از $20$ باشد، غلظتی بین $2$ و $4$). ..)، و آن را به خوبی تعریف کرده است. آیا جایگزین دیگری برای این مشکل بهینه سازی چندگانه می شناسید؟ **ویرایش 06/09/2012:** مقدمه این مقاله توسط Peterson & al بحث بسیار خوبی در مورد موضوع حاضر است.
رویکرد مطلوبیت به بهینه‌سازی چندگانه: اشکالات و جایگزین‌ها
34462
من مجموعه ای از داده ها را دارم که به این صورت است: شخص 1 [48 رکورد کل] 2، 2، 2، 1، 2، 2، 1، 2، 1، 2، 1، 2، 2، 2، 1، 1، 1، 2، 1، 2، 2، 1، 2، 1، 1، 1، 1، 1، 1، 2، 2، 1، 2، 1، 1، 2، 2، 2، 2، 1، 1، 2، 2، 1، 2، 1، 1، 1، -- نفر 2 [56 رکورد کل] 1، 1، 2، 1 , 1, 1, 1, 1, 1, 1, 1, 2, 1, 1, 1, 1, 1, 1, 1، 2، 2، 2، 1، 2، 1، 1، 1، 2، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 2، 1، 2، 2، 2، 2، 2، 2، 2، 1، 2، 1، 1، 1، 1، 2، 1، -- شخص 3 [18 رکورد کل] 1، 2، 1، 2، 1، 1، 1، 1، 2، 2، 1، 2، 2، 2، 1، 1، 1، 1، A '1' نشان دهنده پاسخ نادرست است ، و 2 نشان دهنده یک مورد صحیح است. من می‌خواهم بتوانم رکوردها را با هم مقایسه کنم تا ببینم آیا افراد موجود در مجموعه داده‌ها عملکرد قابل توجهی بالاتر یا کمتر از میانگین دارند. من در مورد استفاده از امتیازهای z و انحرافات استاندارد شنیده ام، اما مطمئن نیستم که آیا این رویکرد صحیح است یا حتی چگونه می توانم محاسبه را انجام دهم. من همچنین باید حداقل تعداد رکوردهای مورد نیاز خود را پیدا کنم تا به نتایج اطمینان کافی داشته باشم (اگر این عبارت صحیح باشد). اساساً، می‌خواهم مطمئن شوم که این تحلیل را فقط روی افرادی انجام می‌دهم که سوابق کافی برای به حداقل رساندن شانس بازی کردن دارند. مهارت های ریاضی من بسیار محدود است، بنابراین توضیح ساده بسیار قابل قدردانی است.
چگونه باید تشخیص دهم که آیا یک فرد با عملکرد معمولی متفاوت است؟
27679
مشکلات اساسی کاهش قیمت سهام بر حجم سهام معامله شده چیست؟ این مجموعه داده سری زمانی است. مدلی که من استفاده می‌کنم این است: $$\ln(قیمت)=b_0+b_1t+b_2\ln(حجم)+\epsilon$$ همانطور که می‌بینید من یک روند زمانی $t$ را اضافه می‌کنم. به نظر می رسد که R2 و p-value خوب هستند، اما من بیشتر به تحلیل مقطعی عادت دارم، بنابراین واقعاً نمی دانم دارم چه کار می کنم. اگر کسی که اطلاعات بیشتری درباره سری های زمانی دارد به من اطلاع دهد که آیا این کاملا ساده لوحانه است، خوشحال می شوم. با تشکر
کاهش قیمت بر حجم
51569
من می خواهم یک شبکه عصبی برای طبقه بندی چند تصویر ساده و کارتونی مانند تصاویر زیر آموزش دهم (در حال حاضر فقط کلاس های _house_، _tree_ و _sword_ را دارم). ![خانه](http://i.stack.imgur.com/F9Pra.png) ![درخت](http://i.stack.imgur.com/Tc7hD.jpg) ![شمشیر](http:/ /i.stack.imgur.com/Jt8QL.png) تصاویری که من (در حال حاضر) استفاده می کنم به 32x32 پیکسل کوچک شده اند و معماری شبکه فید فوروارد که استفاده می کنم 1024-512-256-3. این به این معنی است که من در نهایت با تعداد کل وزن‌ها (به استثنای بایاس‌ها) 1024*512 + 512*256 + 256*3 = 656128 مواجه می‌شوم که تعداد زیادی است و برخی از الگوریتم‌های بهینه‌سازی عملکرد به دلیل آن حافظه موجود را خالی می‌کنند. معلومه که دارم کار اشتباهی میکنم آیا باید از معماری متفاوت یا نوع دیگری از شبکه عصبی (نه MPL) استفاده کنم؟ آیا باید اندازه تصویر را بیشتر کاهش دهم؟ وقتی مردم شبکه های عصبی را برای کارهای پیچیده تشخیص اشیا آموزش می دهند، چگونه از مصرف تمام حافظه خودداری کنند؟
شبکه های عصبی برای طبقه بندی تصاویر ساده
61616
من به تازگی یک آزمایش حیوانی را به پایان رساندم. من یک گروه کنترل و یک گروه آزمایش را مقایسه کردم، تنها تفاوت بین این دو نوع رژیم غذایی است. برای تجزیه و تحلیل آماری از آزمون t گروه های مستقل استفاده کردم و نتیجه تفاوت معنی داری بین دو گروه نشان نداد. با این حال، داده ها نشان دهنده این تمایل است که گروه آزمایش در تمامی متغیرهای اندازه گیری شده از سود بیشتری برخوردار است. بنابراین، در مورد داده های خود چه باید بگویم؟ همه داده ها به طور معمول توزیع می شوند. سرپرست من گفت که شاید به دلیل استفاده از نمونه بسیار کوچک (هر گروه n=8) تفاوت قابل توجهی پیدا نکردم. او به من پیشنهاد کرد که یک تست احتمال یا چیزی برای برون یابی داده هایم انجام دهم (متاسفانه، من هیچ سرنخی ندارم که او در مورد چه چیزی صحبت می کند). بنابراین، آیا تجزیه و تحلیل آماری وجود دارد که بتوانم مانند آنچه سرپرستم به من گفته است از آن استفاده کنم؟
آزمون تی تفاوتی را نشان نمی دهد، اما گروه آزمایش در همه متغیرهای اندازه گیری شده تمایل بیشتری نسبت به گروه کنترل نشان می دهد
111946
فرض کنید یک نمونه تصادفی از یک توزیع نرمال دو متغیره داریم که صفر به عنوان میانگین و یک به عنوان واریانس دارد، بنابراین تنها پارامتر ناشناخته کوواریانس است. MLE کوواریانس چیست؟ می دانم که باید چیزی شبیه $\frac{1}{n} \sum_{j=1}^{n}x_j y_j$ باشد، اما چگونه این را بدانیم؟
حداکثر احتمال تخمین کوواریانس داده های نرمال دو متغیره زمانی که میانگین و واریانس مشخص باشد چقدر است؟
35731
بیایید مشکل را تا حد امکان ساده کنیم. دو متغیر تصادفی مرتبط، X_1$ و $X_2$ را فرض کنید. بر اساس برخی داده‌ها، میانگین واقعی آنها $\mu_{X_1}$ و $\mu_{X_2}$ توسط نمونه به معنای $\hat\mu_{X_1}$ و $\hat\mu_{X_2}$ برآورد می‌شود. این برآوردها بی طرفانه است. اما حالا بیایید دو متغیر تصادفی خود را بر اساس میانگین نمونه‌شان مرتب کنیم و به متغیری که بالاترین میانگین نمونه را دارد نگاه کنیم. اکنون برای این متغیر تصادفی بالای فهرست، میانگین نمونه اکنون تخمین‌گر **سوگیری** میانگین واقعی آن است (تحت برخی مفروضات معقول، به عنوان مثال، میانگین این متغیرهای تصادفی خودشان به روشی خاص توزیع شده‌اند. که توزیع یک میانگین دارد) -- تأیید آن توسط مونت کارلو آسان است. برای واضح بودن، نه دو بلکه هزار متغیر تصادفی را در نظر بگیرید و معنی واقعی آنها را مشابه کنید. سوال این است که این سوگیری چیست و چگونه آن را به صورت تحلیلی محاسبه کنم؟ من همچنین از برخی بحث های مفهومی در مورد اینکه چگونه سوگیری تخمین از مرتب سازی بر اساس مقادیر تخمینی ناشی می شود، قدردانی می کنم.
سوگیری تخمینی تخمین برتر در فهرستی که بر اساس مقدار مرتب شده است چیست؟
115153
من داده های روزانه یک ساله دارم که فصلی هفتگی و سالانه دارد. در تعریف فصلی مشکل وجود دارد. اگر فصلی هفتگی من 7 چرخه (یک دوره برای هر روز) و فصلی سالانه 7*52 چرخه داشته باشد (52 هفته در سال هر یک 7 روز دارد)، من 364 چرخه سالانه خواهم داشت اما داده های من شامل 366 روز در سال نمونه است. پیش‌بینی درست نیست زیرا من فصلی بودن 364 را در نظر می‌گیرم اما داده‌های 366 را دارم. از این رو ممکن است پیش‌بینی‌ها تا 2 روز متوقف شود (راستش نمی‌دانم توضیح من منطقی است یا نه، زیرا من خودم در پیش‌بینی و تلاش برای درک چگونگی عملکرد فصلی هستم).
پیش بینی اشتباه برای داده ها با چرخه هفتگی و سالانه
111389
من می‌خواهم مدل جلوه‌های ترکیبی خطی را در مجموعه داده‌های خود جای دهم، اما می‌خواستم بدانم که آیا کمیت مشاهدات در گروه‌ها مهم است؟ من چند گروه با حدود 60 مشاهده در هر کدام دارم، اما تعدادی نیز وجود دارند که تنها 1 مشاهده دارند، بنابراین کنجکاو هستم که آیا به این دلیل تأثیری بر مدل جلوه های ترکیبی خطی من وجود خواهد داشت یا خیر. پیشاپیش ممنون
تعداد مشاهدات در گروه - مدل اثرات مختلط خطی
27672
مثال خوبی برای نشان دادن تفاوت بین تخمین و کالیبراسیون چیست؟ ویرایش: من به دنبال چیزی هستم که همان تعریف کالیبراسیون و تخمین را داشته باشد که کروگمن در اینجا استفاده می کند (یعنی به نوعی جایگزین هستند): > کالیبراسیون - که اساساً به معنای تغییر پارامترهای مدل شما است. > تا زمانی که با برخی از جنبه های داده مطابقت داشته باشد، به جای اینکه مدل > را به طور مسطح تخمین بزند
مثالی از تخمین در مقابل کالیبراسیون
23563
این سوالی است که چند وقت پیش اینجا مطرح کرده بودم. و می خواهم بدانم آیا راه حل های بیشتری برای آن از منظر ML فکر می کنید؟ متأسفانه، من نمی توانم از آزمون مک نمار به دلیل حجم نمونه کوچک استفاده کنم (بنابراین مقادیر به طور معمول توزیع نمی شوند) * * * چگونه می توانم مقایسه کنم که آیا خروجی یک طبقه بندی کننده به طور قابل توجهی متفاوت است؟ من یک مجموعه داده نسبتاً کوچک دارم که سعی می کنم آنها را طبقه بندی کنم. مجموعه آموزشی من شامل 24 آیتم است که از دو گروه مختلف، 12 مورد از هر گروه تشکیل شده است. هر مورد دو خاصیت دارد. من 12 مورد جدید دارم که می خواهم بر اساس این مجموعه آموزشی طبقه بندی کنم. (مطمئن نیستم که آیا اعداد برای سوال من خیلی مهم هستند یا نه...) من 5 طبقه بندی مختلف را آزمایش کرده ام و نتیجه طبقه بندی آنها به شرح زیر است: 1، 1، 0، 0، 0، 1، 1، 0، 0، 1 , 0, 0 0, 0, 0, 1, 0, 0, 1, 0, 0, 0, 1, 1 0, 0, 0، 0، 0، 0، 0، 0، 0، 1، 1، 1 0، 0، 1، 1، 0، 1، 1، 1، 0، 0، 0، 1 0، 0، 0، 1، 0، 0، 1، 0، 0، 0، 0، 1 چگونه می توانم آزمایش کنم که آیا این نتایج به طور قابل توجهی با یکدیگر متفاوت هستند؟
چگونه می توانم تشخیص دهم که آیا نتیجه طبقه بندی کننده به طور قابل توجهی متفاوت است؟
61612
کرانهای بالایی شناخته شده در مورد اینکه چند وقت یکبار هنجار اقلیدسی یک عنصر یکنواخت انتخاب شده $\:\\{-n,~-(n-1),~...,~n-1,~n\\}^ چیست؟ d\:$ بزرگتر از یک آستانه معین خواهد بود؟ من عمدتاً به کرانهایی علاقه مند هستم که وقتی $n$ بسیار کمتر از $d$ باشد، بطور تصاعدی به صفر همگرا می شوند.
کران دم در هنجار اقلیدسی برای توزیع یکنواخت در $\{-n,-(n-1),...,n-1,n\}^d$
74648
**Notation.** اجازه دهید $y$، $a$، و $b$ بردارهای واقعی $n\times 1$، $p\times 1$، و $q\times1$ باشند. همچنین اجازه دهید $X$ و $Z$ ماتریسهای واقعی $n\ برابر p$ و $n \times q$ باشند. فرض کنید هیچ راه حلی وجود ندارد، $a$، برای $y = X a$. **سوال**. شرایط روی $Z$ چیست به طوری که $y = Xa + Zb$ برای هر انتخاب $b$ راه حلی نداشته باشد؟ **زمینه**. من با این مشکل در زمینه رگرسیون خطی مواجه شدم. این واقعیت که $y=Xa$ هیچ راه حلی ندارد، می تواند به این صورت تفسیر شود که هیچ ابرصفحه ای نمی تواند کاملاً با داده ها مطابقت داشته باشد. من در حال تجزیه و تحلیل توسعه ای از این مشکل هستم که من را به نیاز به پیدا کردن چیزی مشابه برای $y = Xa + Zb$ هیچ راه حلی ندارد هدایت می کند، اما در این مورد $b$ ثابت نیست و در واقع می تواند هر مقداری را در آن داشته باشد. ${\mathbb R}^q$.
معادلات رگرسیون خطی
35732
من چهار متغیر دارم و می‌خواهم یک مدل VAR بسازم، سپس می‌خواهم یک پیش‌بینی VAR روی یکی از متغیرها با استفاده از داده‌های خودم برای پیش‌بینی‌های سه متغیر دیگر انجام دهم. ** آیا بسته R یا فرآیندی از مناسب مدل وجود دارد که به من این امکان را می دهد؟**
R به دست آوردن یک پیش بینی VAR زمانی که برخی از نتایج متغیر قبلاً شناخته شده باشند
27676
من می دانم که بوت استرپ معمولی (با فرض معتبر بودن مفروضات لازم) کارآمدتر از بوت استرپ m-n است. با این حال، با فرض اینکه شما به داده‌های واقعاً بزرگ دسترسی دارید (مانند نمونه ۱٪ از جستجوهای روزانه Google)، آیا استفاده از بوت استرپ معمولی که ممکن است مفروضات آن نقض شود منطقی است؟
اگر N واقعاً بزرگی دارید، آیا استفاده از بوت استرپ معمولی در مقابل m-n ایده خوبی است؟
51564
می‌خواهم ببینم آیا تفاوت در تعداد علائم BPD از ابتدای شروع تا پیگیری دو سال بعد می‌تواند عملکرد روانی اجتماعی را در پیگیری 2 ساله پیش‌بینی کند یا خیر. بنابراین می‌خواستم یک رگرسیون خطی با استفاده از امتیاز تفاوت (امتیاز BPD T1- BPD امتیاز T2) به عنوان IV و معیارهای مختلف عملکرد در T2 به عنوان DV انجام دهم (مثلاً امتیاز SOFAS به عنوان عملکرد کلی؛ مقیاس رتبه‌بندی همتا به عنوان عملکرد بین فردی؛ و برخی از معیارهای دودویی مانند کار کردن یا عدم کار در T2، بنابراین نیاز به تکمیل یک سری رگرسیون است. آیا استفاده از امتیاز تفاوت معتبر است؟ من در مورد استفاده از نمره تفاوت به عنوان یک متغیر وابسته مطالب زیادی خوانده ام اما مطمئن نیستم که آیا همان اطلاعات با استفاده از نمره تفاوت به عنوان IV مطابقت دارد یا خیر؟ حدس می‌زنم یک سوال اضافی این باشد که آیا استفاده از معیارهای T1 از متغیرهای نتیجه به عنوان متغیرهای کمکی در معادله رگرسیون برای اندازه‌گیری تغییر در آن متغیر نیز مناسب‌تر است؟ یا این یک سوال جداگانه است؟ من از هر نظری قدردانی می کنم زیرا مطمئن نیستم که چگونه ادامه دهم و در دایره ای می گردم تا بهترین وضوح را به دست بیاورم.
آیا استفاده از امتیاز تفاوت به عنوان یک متغیر مستقل در تحلیل رگرسیون معتبر است؟
110473
من روی یک راه اندازی نرم افزار فاز اولیه کار می کنم تا به سایر شرکت های SaaS (نرم افزار به عنوان سرویس) کمک کنم تا مشتریان جدید خود را حفظ کنند. ما ایمیل‌های خودکاری را ارسال خواهیم کرد که طوری طراحی شده‌اند که به نظر می‌رسند به شکلی شخصی نوشته شده‌اند. محتویات ایمیل به گونه‌ای تنظیم می‌شود که نشان دهد چقدر زمان برای راه‌اندازی حساب‌های SaaS خود سرمایه‌گذاری کرده‌اند. هدف ما ارسال حدود سه ایمیل به ازای هر مشتری جدید در هفته است. برنامه ایمیل ما در ساعات بیداری (8 صبح تا 8 بعد از ظهر) ایمیل می فرستد و هر ساعت یک بار به تاریخچه ارسال ایمیل برای حساب هر مشتری جدید نگاه می کند. بنابراین، تاریخچه ایمیل هر مشتری 84 بار در هفته (7*12) بررسی می شود. پس از بررسی تاریخچه ایمیل، تصمیم می گیرد که ایمیل ارسال کند یا خیر. رویکرد من برای کدنویسی این تابع فقط استفاده از یک احتمال برای راه اندازی یک ایمیل است، با درجه ای از اطمینان که در طول یک هفته، تعداد کل ایمیل های ارسال شده حدود سه خواهد شد. این امر سازگاری زیادی را فراهم می کند در حالی که در عین حال به نظر می رسد انسان است زیرا در زمان بندی تصادفی است. من چندین بار سعی کردم این را محاسبه کنم، و بهترین محاسبه من (1-(3/84))^84 احتمال 0.04713 را نشان داده است، اما من حدود سه هفته است که شبیه سازی را با 2500 پروفایل مشتری و تنها تعداد انگشت شماری از حساب ها در یک هفته 3 ایمیل تولید کرده اند. مشخص است که محاسبات من اشتباه است. مدتی است که دوره آماری را گذرانده ام و کاملاً مطمئن نیستم که به پاسخ درستی خواهم رسید :) نظرات شما قابل قدردانی است.
از 84 شانس در یک هفته، من می خواهم حدود 3 شانس واقعی باشد
83718
هدف اصلی من مدلی از فرم «Y ~ D + N» است. اما اجازه دهید بگوییم N و D به شدت با هم ارتباط دارند، بنابراین تصمیم می‌گیرم یک PCA روی آنها انجام دهم. ، 0.32، 0.6، 0.6)، N = c(84، 62، 83، 67، 72، 69، 68، 59، 81، 52، 63، 83))، .Names = c(D، N)، row.names = c(NA، -12L)، کلاس = داده .frame) PCA <- princomp(DN، cor = TRUE) خلاصه (PCA) #اهمیت اجزا: # Comp.1 Comp.2 #انحراف استاندارد 1.233169 0.6923106 #نسبت واریانس 0.760353 0.2396470 #نسبت تجمعی 0.760353 1.0000000 من از این نتایج احساس خوشحالی می کنم. و من می‌توانم بردارهای جدید خود «Comp.1» و «~Comp.1» را از «PCA$scores» دریافت کنم که به من امکان می‌دهد «Y ~ Comp.1 + Comp.2» را انجام دهم. با این حال، اگر بخواهم بدانم کدام کامپیوتر بیشتر «D» یا «N» را توضیح می‌دهد، فکر می‌کنم از «PCA$loadings» استفاده می‌کنم. #بارگیری‌ها: # Comp.1 Comp.2 #D -0.707 0.707 #N -0.707 -0.707 # Comp.1 Comp.2 #SS loadings 1.0 1.0 #Proportion Var 0.5 0.5 #Cumulative Var 0.5 1.0 من نمی‌دانم چرا بارگذاری‌ها matrix هستند همه با هم برابرند... آیا comp2 بیشتر D است؟ سؤالات: 1. آیا این رویکرد صحیحی برای چیزی است که من در تلاش برای رسیدن به آن هستم؟ 2. چگونه می توانم نشان دهم که کدام جزء بیشتر با D و کدام با N توضیح داده می شود؟
بارگذاری های اصلی
111388
من چند ماه پیش دوره یادگیری ماشین اندرو نگ را از طریق Coursera گذراندم، بدون توجه به بیشتر ریاضیات / مشتقات و در عوض روی اجرا و عملی بودن تمرکز کردم. از آن زمان من شروع به بازگشت به مطالعه برخی از نظریه های اساسی کردم و برخی از سخنرانی های پروفسور نگ را مجدداً مشاهده کردم. در حال خواندن سخنرانی او در مورد رگرسیون خطی منظم بودم، و دیدم که او تابع هزینه زیر را ارائه کرد: $$J(\theta) = \frac{1}{2m}[\sum_{i=1}^m( h_\theta (x^{(i)}) - y^{(i)})^2 + \lambda\sum_{j=1}^n\theta^2_j]$$ سپس، گرادیان زیر برای این تابع هزینه: $$\frac{\partial}{\partial \theta_j}J(\theta) = \frac{1}{m}[\sum_{i=1}^m(h_\theta ( x^{(i)}) - y^{(i)})x^{(i)}_j - \lambda\theta_j]$$ من کمی گیج هستم که چگونه از یکی به دیگری می رسد. وقتی سعی کردم مشتق خودم را انجام دهم، نتیجه زیر را داشتم: $$\frac{\partial}{\partial \theta_j}J(\theta) = \frac{1}{m}[\sum_{i=1 }^m(h_\theta (x^{(i)}) + y^{(i)})x^{(i)}_j + \lambda\theta_j]$$ تفاوت در علامت پلاس است بین تابع هزینه اصلی و پارامتر تنظیم در فرمول پروفسور Ng که به علامت منهای در تابع گرادیان تغییر می کند، در حالی که در نتیجه من این اتفاق نمی افتد. به طور شهودی می‌دانم که چرا منفی است: ما پارامتر تتا را با شکل گرادیان کاهش می‌دهیم، و می‌خواهیم پارامتر منظم‌سازی مقداری را که پارامتر را تغییر می‌دهیم کاهش دهد تا از برازش بیش از حد جلوگیری شود. من فقط کمی در محاسباتی که پشتوانه این شهود است گیر کرده ام. FYI، شما می توانید عرشه را در اینجا، در اسلایدهای 15 و 16 پیدا کنید.
استخراج تابع هزینه رگرسیون خطی منظم شده در هر دوره آموزشی ماشینی Coursera
27670
وقتی مردم از واریانس شبیه سازی صحبت می کنند، این به چه معناست؟ آیا واریانس شبیه سازی به صورت $N \rightarrow \infty $ ناپدید می شود؟ آیا مدل‌هایی که واریانس شبیه‌سازی کمتری برای یک N ثابت دارند، قوی‌تر در نظر گرفته می‌شوند؟
در اقتصاد سنجی ساختاری، منظور از واریانس شبیه سازی چیست؟
27677
من به دنبال توضیح خوبی در مورد تفاوت بین اجرای رگرسیون با dummies سال به عنوان اثرات ثابت در مقابل dummies سال به عنوان متغیرهای ابزاری بودم. نمونه بارز این موضوع از مقاله جاش آنگریست در سال 1991، تخمین و آزمایش داده های گروهی در مدل های عرضه نیروی کار ساده آمده است http://www.sciencedirect.com/science/article/pii/030440769190101I
مدل‌های جلوه‌های ثابت در مقابل مدل‌هایی که سال‌ها به عنوان ابزار عمل می‌کنند
73144
من معمولاً افرادی را می بینم که تحلیل روند داده های سری زمانی (ماهانه) را انجام می دهند که یک چرخه بین سالانه قوی را به دنبال این طرح نشان می دهد: 1. محاسبه میانگین اقلیم شناسی (میانگین ژانویه، میانگین فوریه، ...، میانگین دسامبر) 2. ابزارهای اقلیمی را از داده های واقعی کم کنید تا یک سری زمانی ناهنجاری به دست آید. اقلیم شناسی در این مورد به معنای میانگین چند ساله ماه های فردی است، به عنوان مثال، میانگین 10 ژانویه از سال 2000 تا 2009. همانطور که نیک کاکس در نظر خود اشاره می کند، _ناهنجاری فقط به معنای انحراف از سطح مرجع است. هیچ مفهومی از هیچ چیز بیمارگونه یا بسیار غیرعادی وجود ندارد. در حالی که پاسخ user31264 برای فرآیندهایی که مؤلفه فصلی واقعاً صرفاً افزودنی است منطقی است. با این حال، در علم جو اغلب فرآیندهایی داریم که دامنه تغییرات فصلی به سطح پایه بستگی دارد، یعنی تا حدودی ضربی است. حتی در این سناریوها، مردم اغلب از رویکردی که در بالا توضیح دادم استفاده می کنند. با این حال، من در هیچ کجا نتوانستم توضیح آماری دقیقی در مورد اینکه چرا این رویکرد واقعاً معتبر است پیدا کنم. چرا رگرسیون خطی این ناهنجاری ها راه حل معقولی برای رگرسیون داده های سری زمانی اصلی است؟ آیا می توانید توجیهی به من بدهید که چرا انجام این کار معقول است؟ کسانی که از آنها پرسیدم بیشتر می گویند همه این کار را انجام می دهند ...
استفاده از ناهنجاری ها برای محاسبه روند داده های فصلی
73143
من یک نظرسنجی ترجیحی اعلام شده انجام دادم که در آن هر پاسخگو باید 1 مجموعه از 3 مجموعه انتخاب (A، B و C) را انتخاب می کرد که با 4 ویژگی (مثلاً نام تجاری، رنگ، اندازه و صفحه کلید بله/خیر) مشخص می شود. 2 یا 3 سطح. من سعی کردم ابزارها/ضرایب را با تخمین مدل لاجیت چند جمله ای با استفاده از بسته mlogit در R محاسبه کنم. برای محاسبه سودمندی ها برای ویژگی ها به خوبی کار می کند (من دقیقاً از اسکریپت ایو کروسان در مقاله او در مورد بسته mlogit پیروی کردم.) اما من می خواهم ضرایب را نه برای صفات، بلکه برای سطوح محاسبه کنم. می خواهم بدانم چه کاربردی دارد مثلا برای رنگ آبی. چگونه می توانم این را محاسبه کنم؟ اصلا میشه با پکیج mlogit یا R محاسبه کرد؟ من برای هر توصیه ای سپاسگزارم!
چگونه می توانم برنامه های کاربردی را برای سطوح ویژگی در تحلیل مشترک در R محاسبه کنم؟
111383
من چندین پست CV را در مورد رگرسیون لجستیک باینری می‌خواندم، اما هنوز برای وضعیت فعلی خود گیج هستم. من سعی می کنم یک رگرسیون لجستیک باینری را با یک سری متغیرهای پیوسته و طبقه بندی به منظور پیش بینی مرگ و میر یا بقای حیوانات (وضعیت_کیفیت) منطبق کنم. لطفاً str ​​زیر را ببینید: > str(logit) 'data.frame': 136 obs. از 9 متغیر: $ id : Factor w/ 135 level 01001,01002,...: 26 27 28 29 30 31 32 33 34 35 ... $ gear : Factor w/ 2 level j,sc : 2 1 1 2 1 2 1 2 2 1 ... عمق $: num 146 163 179 190 194 172 172 175 240 214 ... طول $ : num 37 35 42 38 37 41 37 52 38 37 ... $ شرط : فاکتور w/ 4 سطح 12، 4: 1 1 4 1 4 2 2 در آب 8.3 8.5 8.5 8.6 8.6 8.7 8.7 8.7 ... $ qual_status: Factor w/ 2 level 0,1: 1 1 2 1 2 1 2 1 1 1 ... من هیچ مشکلی در نصب باینری افزودنی زیر ندارم رگرسیون لجستیک با تابع 'glm': 'glm(qual_status ~ gear + عمق + طول + شرایط + در آب + در هوا + دمای دلتا، داده = logit، خانواده = دوجمله ای) ... اما من همچنین علاقه مندم که چگونه این متغیرهای پیش بینی کننده با یکدیگر تعامل دارند و احتمالاً بر بقا تأثیر می گذارند. با این حال، زمانی که من رگرسیون لجستیک باینری تعاملی زیر را امتحان می‌کنم: «glm(وضعیت_کیفیت ~ چرخ دنده * عمق * طول * وضعیت * در آب * در هوا * delta_temp، داده = logit، خانواده = دوجمله‌ای)` یک پیام هشدار دریافت می‌کنم «glm.fit : احتمالات برازش عددی 0 یا 1 رخ داده است` همراه با ضرایب از دست رفته به دلیل تکینگی ها (NA یا <2e-16 _*_) وقتی از «خلاصه» استفاده می کنم: فراخوانی: glm (فرمول = وضعیت_کیفیت ~ چرخ دنده * عمق * طول * وضعیت * در آب * در هوا * دمای دلتا، خانواده = دو جمله ای، داده = logit) انحراف باقیمانده ها: [1] 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 [36] 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 [71] 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 [106] 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 ضرایب: (122 به دلیل تکینگی ها تعریف نشده است) Estimate Std. خطای z مقدار Pr(>|z|) (برق) 1.419e+30 5.400e+22 26274077 <2e-16 *** gearsc -1.419e+30 5.400e+22 -26274077 <2e-11 ***p6. e+28 4.040e+20 34539471 <2e-16 *** طول 6.807e+28 1.836e+21 37079584 <2e-16 *** condition2 -3.229e+30 8.559e+22 -3772796 *** 772796 <3. e+31 4.636e+23 37671986 <2e-16 *** condition4 9.007e+31 2.388e+24 37724167 <2e-16 *** in_water -4.540e+28 1.263e+21 -35935 in_air *** -4.429e+28 1.182e+21 -37470809 <2e-16 *** delta_temp -1.778e+28 3.237e+21 -5492850 <2e-16 *** gearsc:depth -1.394e -0+28. 34539471 <2e-16 *** gearsc:length -6.807e+28 1.836e+21 -37079584 <2e-16 *** depth:length -9.293e+26 2.450e+19 -37930778 <2e-16 *** :condition2 1.348e+30 3.567e+22 37809001 <2e-16 *** gearsc:condition3 2.816e+30 7.495e+22 37575317 <2e-16 *** gearsc:condition4 NA NA NA NA برازش تنها متغیرهای باینری پیوسته به یک رگرسیون باینری پیوسته انجام نمی شود هیچ اخطاری ندهد یا تکینگی ها اما اضافه کردن متغیرهای پیش بینی کننده ترتیبی باعث ایجاد مشکلات می شود. همراه با اجتناب از این هشدارها، آیا تابع/بسته ای وجود دارد که بتواند متغیرهای ساختگی (من معتقدم این همان چیزی است که من به دنبال آن هستم) در رگرسیون های لجستیک در «R» مدیریت کند؟
رگرسیون لجستیک باینری با شرایط تعامل
51690
من سعی می کنم کمپین گوگل ادوردز خود را بهینه کنم (تبلیغات آنلاین در جستجوی گوگل) و به سوال «اهمیت آماری» زیر برخورد می کنم. من یک کمپین با کلمات کلیدی زیادی (حدود 400 کلمه کلیدی) راه اندازی کردم و در مجموع 291 کلیک (بازدید) و 34 تبدیل (مشتری) دریافت کردم. اکنون می خواهم کمپین خود را بهینه کنم و روی آمار کلمات کلیدی تمرکز می کنم. من می بینم که مجموعه ای از 10 کلمه کلیدی _به نظر می رسد_ بسیار بهتر از بقیه عمل می کند: گروه کلمات کلیدی A (10 کلمه کلیدی - بهترین): 47 کلیک، 16 تبدیل گروه کلیدواژه B (390 کلمه کلیدی - بقیه): 244 کلیک، 18 کلیک تبدیل ها اگر این داده ها را در یک ماشین حساب سنجش اهمیت تست A/B اعمال کنم، 99% اطمینان حاصل می کنم که A بهتر از B است. (من از این ماشین حساب اهمیت تست A/B رایگان استفاده کردم). آیا می توانم در نظر بگیرم که گروه A در تبدیل بهتر از گروه B است؟ یا من یک فرضیه اشتباه می کنم؟ من گیج شده‌ام زیرا تمام مقالاتی که خوانده‌ام به تست‌های A/B اشاره می‌کنند که در آن A و B نمونه‌های تکی هستند (مثلاً فقط یک کلمه کلیدی)، و نه گروهی از موارد (مجموعه‌ای از کلمات کلیدی).
اهمیت آماری نتایج در داده‌های تبدیل گروهی از کلمات کلیدی Adwords
110472
فرآیند تولید داده عبارت است از: $y = \text{sin}\Big(x+I(d=0)\Big) + \text{sin}\Big(x+4*I(d=1)\ بزرگ) + I(d=0)z^2 + 3I(d=1)z^2 + \mathbb{N}\left(0,1\right)$ اجازه دهید $x,z$ دنباله ای از $-4$ تا $4$ طول $100$ و $d$ فاکتور مربوطه $d\in\\{0,1\\}$ باشد. برای محاسبه $y$، تمام ترکیبات ممکن از $x,z,d$ را انتخاب کنید: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/0X8RN.jpg) با استفاده از B-spline (بدون مرکز) -پایه برای $x,z$ برای هر سطح از $d$ توسط partition-of-unity-property (مجموع ردیف ها به 1) امکان پذیر نخواهد بود. چنین مدلی (حتی بدون رهگیری) قابل شناسایی نخواهد بود. مثال: _(تنظیم: 5 فاصله گره داخلی (توزیع یکنواخت)، B-Spline درجه 2، تابع spline یک سفارشی است)_ # ترسیم دنباله n <- 100 x <- seq(-4 ,4,length.out=n) z <- seq(-4,4,length.out=n) d <- as.factor(0:1) data <- CJ(x=x,z=z,d=d) set.seed(100) # setup the model data[,y := sin(x+I(d= =0)) + sin(x+4*I(d==1)) + I(d==0)*z^2 + 3*I(d==1)*z^2 + rnorm(n, 0,1)] # ایجاد B-Spline-Basis بدون مرکز برای x و z X <- داده[, spline(x,min(x),max(x),5,2,by=d, intercept=FALSE)] > head(X) x. 1d0 x.2d0 x.3d0 x.4d0 x.5d0 x.6d0 x.7d0 x.1d1 x.2d1 x.3d1 x.4d1 x.5d1 x.6d1 x.7d1 [1،] 0.5 0.5 0 0 0 0 0 0.0 0.0 0 0 0 0 0 [2،] 0.0 0.0 0 0 0 0 0 0.5 0.5 0 0 0 0 0 0 [3،] 0. 0 0 0 0.0 0.0 0 0 0 0 0 Z <- داده[, spline(z,min(z),max(z),5,2,by=d)] head(Z) z.1d0 z.2d0 z.3d0 z. 4d0 z.5d0 z.6d0 z.7d0 z.1d1 z.2d1 z.3d1 z.4d1 z.5d1 z.6d1 [1،] 0.5000000 0.5000000 0.00000000 0 0 0 0 0.0000000 0.0000000 0.00000000 0 0 0 [2،] 0.0000000 0.000 0.000 0 0.5000000 0.5000000 0.00000000 0 0 0 [3،] 0.4507703 0.5479543 ​​0.00127538 0 0 0 0.0000000000000000 0 z.7d1 [1,] 0 [2,] 0 [3,] 0 # lm یک ستون spline برای هر فاکتور lm (y ~ -1+X+Z,data=da) فراخوانی: lm(فرمول = y ~ -1 + X + Z، داده = داده) ضرایب: Xx.1d0 Xx.2d0 Xx.3d0 Xx.4d0 Xx.5d0 Xx.6d0 Xx.7d0 Xx.1d1 Xx.2d1 Xx.3d1 Xx.4d1 Xx.5d1 23.510 19.912 18.860 22.177 23.080 19.794 18.794 18.727 18.757 67.082 68.642 Xx.6d1 Xx.7d1 Zz.1d0 Zz.2d0 Zz.3d0 Zz.4d0 Zz.5d0 Zz.6d0 Zz.7d0 Zz.1d1 Zz.2d1 Zz.3d1 69.159 - 69.1819 61.159 -19.361 -21.835 -19.698 -11.244 NA -1.329 -38.449 -62.254 Zz.4d1 Zz.5d1 Zz.6d1 Zz.7d1 -69.993 -61.438 -61.438 -39.449-مشکلات کلی اضافه شده به این مشکل. مقدمه با R، صفحه 163-164 محدودیت مرکز جمع (یا میانگین) را پیشنهاد می کند: $\boldsymbol{1}^T\boldsymbol{\tilde{X}_j}\boldsymbol{\tilde{\beta}_j}=0$ اگر یک ماتریس $\boldsymbol{Z}$ پیدا شود، می‌تواند با پارامترسازی مجدد انجام شود. $\boldsymbol{1}^T\boldsymbol{\tilde{X}_j}\boldsymbol{Z}=0$\boldsymbol{Z}$-ماتریس را می‌توان با تجزیه QR ماتریس محدودیت $\boldsymbol پیدا کرد. {C}^T = (\boldsymbol{\boldsymbol{1}^T\boldsymbol{\tilde{X}_j}})^T = \boldsymbol{\tilde{X}_j}^T\boldsymbol{1}$. _توجه داشته باشید که $\boldsymbol{\tilde{X}_j}^T\boldsymbol{1}$ با پارتیشن unity-property $\boldsymbol{1}$ است._ نسخه متمرکز/محدود شده B-Spline- من ماتریس عبارت است از: X <- داده[, spline(x,min(x),max(x),5,2,by=d, intercept=TRUE)] head(X) x.1d0 x.2d0 x.3d0 x.4d0 x.5d0 x.6d0 x.1d1 x.2d1 x.3d1 x.4d1 [1،] 0.2271923 -0.3225655 -0.3225655 -0.3225655 -0.327725 -0.327256 -0.05790256 0.0000000 0.0000000 0.0000000 0.0000000 [2،] 0.0000000 0.0000000 0.0000000 0.00000000000000000 0.2271923 -0.3225655 -0.3225655 -0.3225655 [3،] 0.2271923 -0.3225655 -0.3225655 -0.3225655 -0.27280570705020 -0. 0.0000000 0.0000000 0.0000000 x.5d1 x.6d1 [1،] 0.0000000 0.00000000 [2،] -0.2728077 -0.05790256 -0.05790256 -0.05790256 - 0.05790256 - 0.05790256 - 0.05790256 - 0.05790256 - 0.00-00. داده[, spline(z,min(z),max(z),5,2,by=d, intercept=TRUE)] head(Z) z.1d0 z.2d0 z.3d0 z.4d0 z.5d0 z 0.6d0 z.1d1 z.2d1 z.3d1 z.4d1 [1،] 0.2271923 -0.3225655 -0.3225655 -0.3225655 -0.2728077 -0.05790256 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 [2،] 0.000000000000000000 0.0000000 0.0000000 0.00000000 0.2271923 -0.3225655 -0.3225655 -0.3225655 [3،] 0.2875283 -0.306365001 -0.30656501 -0.30656501 - -0.2604260 -0.05527458 0.0000000 0.0000000 0.0000000 0.0000000 z.5d1 z.6d1 [1،] 0.0000000 0.00000000 0.000000000 0.0000000000 -0.05790256 [3،] 0.0000000 0.00000000 ** سوال من این است:** حتی t
محدودیت مرکز جمع (یا میانگین) برای splines (همچنین w.r.t. gam از mgcv) دقیقاً چگونه انجام می شود؟
93196
با عرض پوزش من در انجمن و همچنین با استفاده از GEE و SPSS کاملاً جدید هستم، بنابراین امیدوارم سوال من گیج کننده نباشد. متغیر وابسته من عملکرد شرکت است و چندین متغیر کنترلی دارم. اول از همه، من مطمئن نیستم که چگونه متغیر مستقل خود را تنظیم کنم. می‌خواهم بدانم آیا توده‌های مهمی از زنان بر عملکرد تأثیر دارند یا خیر. فرضیه این است که عملکرد زمانی افزایش می یابد که حداقل سه زن وجود داشته باشد. با این حال، من باید آزمایش کنم که آیا این فرضیه درست است یا خیر. بنابراین، من به داده های پانل 8 ساله نگاه می کنم. به همین دلیل به من گفتند که از روش GEE استفاده کنم. > فرضیه 1a: هیچ رابطه ای بین یک مدیر زن و عملکرد شرکت وجود ندارد. فرضیه 1ب: بین دو زن > مدیر و عملکرد شرکت رابطه ای وجود ندارد. فرضیه 1c: بین توده بحرانی مدیران زن (حداقل سه > زن) و عملکرد شرکت رابطه مثبت > وجود دارد. من با اساتید و استاد راهنماهای مختلف صحبت می کردم و همه آنها نظرات متناقضی در مورد نحوه تنظیم متغیر مستقل به من دادند، بنابراین دوباره اینجا می پرسم. امیدوارم بتوانید به من کمک کنید. سوال دوم به انجام یک تحلیل GEE در SPSS با این داده ها مربوط می شود. من هرگز از این روش استفاده نکردم. من می دانم که چندین تست وجود دارد که باید برای یک OLS اجرا کنم (توزیع نرمال، امتیاز VIF، و غیره) اما اکنون می دانم که تست های مهم در روش GEE چیست تا مطمئن شوم همه مفروضات پابرجا هستند و مدل کلی است. معنی دار شدن شگفت انگیز خواهد بود اگر برخی از شما به من کمک کنید! لورا
نحوه اعمال GEE و نحوه استفاده از آن برای جرم بحرانی