_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
49819 | من به دنبال یک بسته طبقه بندی متن بیز چند جمله ای ساده در R هستم که یک ماتریس سند اصطلاحی (از tm) را به عنوان ورودی برای آموزش می پذیرد و متن جدید را بر اساس آن طبقه بندی می کند. من حدود 50.000 سند کوتاه دارم که به حدود 30 موضوع مختلف تعلق دارد (موضوعات توسط LDA اختصاص داده شده است) و می خواهم برای اسناد جدید امتیاز احتمالی بگیرم. | بسته R برای طبقه بندی متن بیز چند جمله ای ساده؟ |
26795 | من با ایده متریک در نرم افزار آشنا هستم و چیزهایی در مورد استفاده از توابع فاصله در خوشه بندی می دانم، اما واقعاً نمی دانم منظور از متریک فاصله رسمی چیست. تفاوت بین یک تابع فاصله و یک متریک رسمی فاصله چیست؟ | منظور از اصطلاح متریک فاصله رسمی چیست؟ |
44445 | فرض کنید دنباله ای را مشاهده می کنید: 7، 9، 0، 5، 5، 5، 4، 8، 0، 6، 9، 5، 3، 8، 7، 8، 5، 4، 0، 0، 6، 6، 4، 5، 3، 3، 7، 5، 9، 8، 1، 8، 6، 2، 8، 4، 6، 4، 1، 9، 9، 0، 5، 2، 2، 0، 4، 5، 2، 8 ... چه آزمون های آماری را برای تعیین اینکه آیا این واقعا تصادفی است اعمال می کنید؟ FYI اینها $n$th ارقام $\pi$ هستند. بنابراین، آیا ارقام $\pi$ از نظر آماری تصادفی هستند؟ آیا این چیزی در مورد ثابت $\pi$ می گوید؟  | آیا ارقام $\pi$ از نظر آماری تصادفی هستند؟ |
48651 | من به دنبال بسته های رگرسیون حداقل زاویه (LAR) در R یا MATLAB هستم که می تواند برای مشکلات **طبقه بندی** استفاده شود. تنها بسته ای که من در حال حاضر می دانم که با این توضیحات مطابقت دارد glmpath است. مشکل این بسته این است که کمی قدیمی است و دامنه آن تا حدودی محدود است (من مجبور هستم برای مدل مشکلات طبقه بندی به رگرسیون لجستیک تکیه کنم). من نمیپرسم آیا کسی بستههای دیگری را میشناسد که به من اجازه میدهد LAR را بر روی انواع مختلف مدلهای طبقهبندی، مانند ماشینهای بردار پشتیبانی اجرا کنم (به کل مسیر منظمسازی برای ماشین بردار پشتیبانی مراجعه کنید). بسته ایدهآل به من امکان میدهد الگوریتمهای نوع LAR را برای انواع مختلف مدلهای طبقهبندی اجرا کنم و همچنین تابعی را ارائه کنم که میتواند مسیر منظمسازی کامل را ایجاد کند. | بسته های رگرسیون زاویه حداقل برای R یا MATLAB |
67613 | ادبیات مالی عمومی اخیر اغلب جرم اضافی نسبی را حول نقاط خاصی از توزیع سود تخمین می زند (مثلاً نقاط پیچ خوردگی یا بریدگی برنامه های مالیاتی)، و سپس برای دریافت خطاهای استاندارد راه اندازی می شود. این کار برای تخمین ناپارامتری کشش های محلی (پاسخگویی) انجام می شود. من می دانم که چگالی هسته به خودی خود برای بوت استرپ مشکل ساز است، شاید با نمونه برداری فرعی بهتر باشد. و این روش تقریب جرم زیر هیستوگرام یا توابع توزیع تجربی را به چگالی های محلی مرتبط می کند. آیا برآوردگر به اندازه کافی صاف و هموار است که بوت استرپ شود؟ برآوردگر احتمالاً چه میزان همگرایی دارد (برای هر روشی)؟ شاید کسی شهودی داشته باشد. من از هیچ نظریه آماری برای این مشکل آگاه نیستم. بسیاری از مقالات به طور مستقیم از کد این مقاله هم برای تخمین و هم برای راهاندازی استفاده میکنند، اگرچه ایده و انگیزه نظری از این مقاله میآید. کمی جزئیات بیشتر در نظر من در وبلاگ Normal Deviate یا سوال من در Statalist است. | آیا تخمین جرم اضافی به اندازه کافی روان است که بوت استرپ شود؟ با چه نرخی ممکن است یک برآوردگر دسته بندی همگرا شود؟ |
44447 | این سوال در کلاس تئوری آماری من در مورد HW بود و من پاسخ و توضیح استاد را رضایت بخش نمی دانم. لطفاً راهنماییم کنید که چرا *$\bar{x}$ MLE است اگر چنین است، یا * اگر فکر میکنم که هر دو $\bar{x}$ و $1-\bar درست است، به من اطلاع دهید {x}$ تابع احتمال را به حداکثر میرساند و بنابراین MLE منحصر به فرد نیست، یا * اگر مشکل حتی همانطور که مطرح شده است به خوبی تعریف شده باشد. من احساس می کنم این نیز می تواند باشد. من تعریف MLE را در شرایط منظمتر، همانطور که در بخش اصول http://en.wikipedia.org/wiki/Maximum_likelihood توضیح داده شده است، درک میکنم، اما شکل عجیب و غریب PDF مشکلاتی را با موارد فوقالعادهای که من از آنها استفاده نمیکنم بهوجود میآورد. برای برخورد با **سوال:** اجازه دهید $X_1,...,X_n$ یک i.i.d باشد. دنباله ای از RVهای با ارزش 0-1 با احتمالات $$ P(X_1=1)=\begin{cases} \theta, & \theta\in\mathbb{Q}\\\1-\theta و \theta\notin \mathbb{Q} \end{cases} $$ جایی که $\theta\in(0,1)$. آیا MLE $\theta$ وجود دارد؟ **طرح کلی راه حل استاد:** این ایده اصلی راه حل اساتید من است. تابع درستنمایی $$ است L(\theta|x_1,...,x_n)=\\{\theta^{\sum{x_j}}(1-\theta)^{n-\sum{x_j}}\ chi_{\theta\in\mathbb{Q}} +\theta^{n-\sum{x_j}}(1-\theta)^{\sum{x_j}}\chi_{\theta\notin\mathbb{Q}}\\} $$ جایی که $\chi_A$ تابع نشانگر مجموعه $A$ است. ما $$ \begin{eqnarray} \underset{\theta\in[0,1]}{\sup} L(\theta|x_1,...,x_n)&=&\underset{\theta\in[ داریم 0,1]}{\sup} {\\{\theta^{\sum{x_j}}(1-\theta)^{n-\sum{x_j}}\chi_{\theta\in\mathbb{Q}} +\theta^{n- \sum{x_j}}(1-\theta)^{\sum{x_j}}\chi_{\theta\notin\mathbb{Q}}\\}} \\\&=& \max\\{\underset{\theta\in\mathbb{Q}}{\sup} \\{\theta^{\sum{x_j}}(1-\theta)^{n-\sum{x_j} }\\}،\underset{\theta\notin\mathbb{Q}}{\sup} \\{\theta^{n-\sum{x_j}}(1-\theta)^{\sum{x_j}}\\}\\} \\\&=& \max\\{\bar{x}^{\sum{x_j}}(1-\bar{x})^{n-\sum{x_j}}،(1-\bar{x})^{n -\sum{x_j}}\bar{x}^{\sum{x_j}}\\} \\\&=& \bar{x}^{\sum{x_j}}(1-\bar{x})^{n-\sum{x_j}} \end{eqnarray} $$ **پروفسور:** در این مرحله، استاد استدلال می کند که برتری در ترم دوم،$\underset{\theta\notin\mathbb{Q}}{\sup} \\{\theta^{n-\sum{x_j}}(1-\theta)^{\sum{x_j}}\\}\\}$ به دست نمیآید زیرا $\bar{x}$ یک منطقی است شماره از آنجایی که دادهها از اعداد گویا تشکیل شدهاند، مازاد جمله اول، $\underset{\theta\in\mathbb{Q}}{\sup} \\{\theta^{\sum{x_j}}(1-\ تتا)^{n-\sum{x_j}}\\}$ با $\hat{\theta}_1=\bar{x}$ به دست میآید و این MLE از $\تتا$. **من:** به نظر میرسد که ما باید برتری را در مورد بسته شدن مجموعههای $\mathbb{Q}$ و $\mathbb{R}\backslash\mathbb{Q}$ در نظر بگیریم که $[0 خواهد بود، 1]$، در این صورت $\sup L(\theta|x_1,...,x_n)$ در هر دو $\hat{\theta}_1=\bar{x}$ و $\hat{\theta}_2=1-\bar{x}$. در غیر این صورت، اساساً فرض میکنیم که $\theta$ منطقی است و $\theta$ غیرمنطقی را نادیده میگیریم. آیا این مورد است؟ اگر چنین است، آیا این ویژگی نامطلوب اصل احتمال در موارد عجیب و غریب مانند این است؟ آیا شرایط قابل قبولی وجود دارد که چنین مسائلی رخ دهد؟ آیا باید از نگرانی در مورد مشکلات عجیب و غریب مانند این دست بردارم؟ به عنوان کنار، با توجه به اینکه $[0,1]\backslash\mathbb{Q}$ دارای اندازه Lebesgue 1 است و $[0,1]\cap\mathbb{Q}$ دارای اندازه Lebesgue 0 است، به نظر می رسد $\bar{ x}$ تخمینگر بدی است، زیرا اگر در یک مجموعه بسیار کوچک باشد، تخمین زده میشود $\theta$. همچنین، اگر $\theta\in\mathbb{R}\backslash\mathbb{Q}$، $\hat{\theta}_2=1-\bar{x}$ سازگار است، بنابراین نمیتوانم به دلیل خوبی برای اینکه چرا $\bar{x}$ بهتر است. **ویرایش** همانطور که @cardinal اشاره کرد، $x_i$ بدیهی است که منطقی است، بنابراین این یک مسئله نیست. این اولین سوء تفاهم (احمقانه) من را برطرف کرد، که شامل فرض این بود که برآوردگر $\bar{x}$ میتواند غیرمنطقی یا منطقی باشد. | مسئله عجیب MLE بر اساس تابع دیریکله |
106406 | من در حال ساخت یک مدل رگرسیون هستم و با نحوه گنجاندن اطلاعات جغرافیایی در مدل به عنوان پیشبینیکننده در مدل مشکل دارم. من سطوح جغرافیایی مختلفی از جزئیات دارم: ZIP، CBSA (منطقه آماری مبتنی بر هسته)، و ایالت. ایده این است که جغرافیا را تا حد ممکن کاهش دهیم بدون اینکه جغرافیا را به یک میلیارد عامل مختلف تقسیم کنیم. در حالت ایده آل، ما فقط همه چیز را به سطح ZIP تقسیم می کنیم، اما مشاهدات کافی در آن سطح نداریم. اساساً مشکل ایجاد تعادل بین تعداد عوامل با مشاهدات در هر عامل است. آیا راهی ریاضی برای تعیین تعداد صحیح مشاهدات در سطح ZIP / CBSA / State وجود دارد تا به بهترین عملکرد مدل منجر شود؟ در حال حاضر من در حال انجام یک روش هک آمیز هستم و ترکیب های مختلفی از مشاهدات را در هر سطح جغرافیایی امتحان می کنم تا ببینم چه چیزی به بهترین پیش بینی ها منجر می شود. | متغیر عامل تودرتو: چگونه می توان تعداد مشاهدات را با تعداد سطوح یک عامل متعادل کرد؟ |
68448 | من یک مجموعه داده فضایی با برخی از xs و ys در مکان های فضایی مختلف دارم. من می خواهم یک تابع رگرسیون غیر خطی را با استفاده از شبکه های عصبی یاد بگیرم. من به دادههای آموزشی نگاه کردم و خروجیها مکانهای متفاوتی هستند، یعنی همبستگی بالایی دارند. بنابراین، به جای یادگیری یک رگرسیون جداگانه برای هر مورد، به مدل سازی یک پیش بینی چند هدف فکر می کردم. من در فکر یادگیری یک مشترک با استفاده از شبکه های عصبی بودم. من سعی کردم از «nntool» Matlab استفاده کنم، اما به من اجازه میدهد در هر بار تنها یک خروجی را مدل کنم. برای مدلسازی همزمان چند خروجی چه کاری باید انجام دهم؟ | استفاده از شبکه های عصبی برای پیش بینی چند هدف |
21548 | فرض کنید تقاضا از MA(1) پیروی می کند: $$d_t=c+e_t-\theta e_{t-1}، $$ اکنون اعمال کنید، SES (هموارسازی تک نمایی) به عنوان یک روش پیش بینی. می دانیم که تقاضای $d_t$ مستقل نیست. میخواستم بدونم که آیا پیش بینی ها و خطاها (پیش بینی تقاضا) هم مستقل نیستند؟ | پیش بینی و خطاها، وابسته یا مستقل |
20499 | با توجه به دو متغیر تصادفی $X$ و $Y$ که به طور یکسان توزیع شده اند (نیازی نیست مستقل باشند) از یک توزیع (شناخته شده) (و بنابراین، $\newcommand{\E}{\mathbb E}\E(X)$ و $\E(Y)$) و چگالی مشترک، $f(x,y)$ و انتظار شرطی $\E(X \mid Y)$، آیا می توان $\E( X را محاسبه کرد \ اواسط X+Y )$؟ | محاسبه انتظار متغیر تصادفی (با توزیع مشخص و چگالی مشترک) مشروط به مجموع |
26797 | من مجموعه داده های کوچکی با اندازه 40-50 امتیاز دارم. بدون فرض اینکه دادهها به طور معمول توزیع شدهاند، میخواستم حداقل با اطمینان 90 درصد مقادیر پرت را پیدا کنم. من فکر کردم که boxplot می تواند راه خوبی برای انجام این کار باشد، اما مطمئن نیستم. هر گونه کمک قدردانی می شود. همچنین با پیادهسازی باکس پلات، من نتوانستم پیادهسازی را پیدا کنم که علاوه بر ترسیم طرح، به صراحت نقاط پرت را بیرون بیاورد. | یافتن نقاط پرت بدون فرض توزیع نرمال |
63379 | 1. من تعجب کردم که چرا برای گروه های $g$، همیشه می توان تضادهای متعامد $g - 1$ را ساخت و $g - 1$ حداکثر عدد است؟ مثال متقابلی که من دارم این است که برای دو گروه با میانگین $\mu_1$ و $\mu_2$، $g=2$، و $\mu_1$ و $\mu_2$ خود دو کنتراست متعامد هستند. 2. تعریف تضادهای متعامد که من آموخته ام مجموعه ای از تضادها است که در آن، برای هر جفت مجزا، مجموع حاصلضرب های متقاطع ضرایب صفر است. بنابراین یک مفهوم جفتی است. تضادهای متعامد متقابل به چه معناست و آیا به صورت زوجی تعریف نشده است؟ با تشکر | چرا حداکثر تعداد کنتراست های متعامد برابر با تعداد گروه ها منهای یک است و متعامد متقابل به چه معناست؟ |
26790 | من روی یک پروژه قیمتگذاری اوراق بهادار کار میکنم و مجموعهای از مدلها را دارم که میخواهم آنها را با هم جمع کنم. من تاکنون از رگرسیون خطی ساده در R (تابع lm()) استفاده کردهام، اما نتایج بهخوبی برازنده هستند. آیا کسی پیشنهادی برای این دارد که آیا روش دیگر انباشتهسازی ممکن است بهتر باشد یا مقاله/مقالهای که نحوه چیدن مدلهای رگرسیون را توضیح میدهد (بر خلاف مدلهای طبقهبندی). | ترکیب مدل های رگرسیون |
87486 | من یک رگرسیون چندگانه با 1 DV و 6 IV انجام می دهم. من سعی می کنم Homoscedasticity را در SPSS با استفاده از یک نمودار پراکنده آزمایش کنم زیرا همه متغیرهای من مقیاس هستند. من یک نمودار پراکندگی باقیمانده در مقابل مقدار پیشبینیکننده انجام دادم و فکر میکنم ممکن است کمی ناهمگون باشد. چگونه بفهمم کدام متغیر مشکل ساز است؟ و گام بعدی باید چه باشد تا بتوانم دادههای خود را همسانسازی کنم؟ | آزمایش همسویی برای رگرسیون چندگانه در SPSS |
67615 | من علاقه مند به کدنویسی رویکرد بوت استرپ-$t$ با ثبات واریانس برای محاسبه فواصل اطمینان هستم. با این حال، من کمی گیر کرده ام و می توانم از کمکی استفاده کنم. من این را در R کدنویسی می کنم و این چیزی است که تا کنون به دست آورده ام: داده = مجموعه داده برای (i در 1: B){ boot = نمونه (nrow(data), replace=TRUE) boot_data = data[boot,] boot_stat [ i]= f(boot_data) for(j در 1:M){ boot_boot = sample(nrow(boot_data),replace=TRUE) boot_boot_data = boot_data[boot_boot,] boot_boot_stat = f(boot_data) } se[i] = sum_over_M((boot_boot_stat-est_stat)^2)/(M-1) } اکنون من B تکرار از se دارم، و باید آنها را همانطور که هستند تثبیت کنم مستقل از boot_stat نیست. temp = lowess(se~boot_stat)$y inv = 1/temp f = approxfun(boot_stat,inv,yleft=0,yright=0) int = integrate(f,min(boot_stat),max(boot_stat)) اکنون من نمی دانم چگونه ادامه دهم میدانم که باید راهانداز دیگری را اجرا کنم، اما مطمئن نیستم که چه چیزی را راهاندازی میکنم. ربطی به تبدیل معکوس دارد، اما من هنوز گیر کرده ام. هر ایده ای؟ | نحوه کدگذاری روش بوت استرپ-t با ثبات واریانس برای فواصل اطمینان |
21547 | برخی از آنها یادداشتی خواندم که اگر پارامترهای زیادی $(x_1، x_2، \ldots، x_n)$ داشته باشید و سعی کنید یک متریک تشابه بین این بردارها پیدا کنید، ممکن است نفرین ابعاد داشته باشید. من معتقدم به این معنی است که اکثر نمرات شباهت برابر خواهد بود و هیچ اطلاعات مفیدی به شما نمی دهد. به عبارت دیگر تقریباً همه بردارهای شریک مقداری امتیاز فاصله متوسط خواهند داشت که برای دسته بندی یا خوشه بندی و غیره مفید نیست. آیا می دانید کجا می توانم جزئیات بیشتری در مورد آن بیاموزم؟ آیا معیارهایی وجود دارند که کمتر از این تأثیر رنج می برند؟ | متریک فاصله و نفرین ابعاد |
24324 | این چیزی است که به نظر من به عنوان یک روش موقت انجام می شود و به نظر من بسیار بد است، اما شاید چیزی را از دست داده ام. من این کار را در رگرسیون چندگانه دیدهام، اما اجازه دهید آن را ساده نگه داریم: $$ y_{i} = \beta_{0} + \beta_{1} x_{i} + \varepsilon_{i} $$ حالا باقیماندهها را در نظر بگیرید از مدل نصب شده $$ e_{i} = y_{i} - \left( \hat{\beta}_{0} + \hat{\beta}_{1} x_{i} \right) $$ و نمونه را بر اساس اندازه باقیمانده ها طبقه بندی کنید. به عنوان مثال، بگویید نمونه اول 90٪ پایین باقیمانده ها است و نمونه دوم 10٪ بالا است، سپس به انجام دو مقایسه نمونه ادامه دهید - من این کار را روی پیش بینی کننده در مدل مشاهده کرده ام، $x$ و روی متغیرهایی که در مدل نیستند. منطق غیررسمی استفاده شده این است که شاید نقاطی که مقادیری بسیار بالاتر از آنچه در مدل انتظار دارید (یعنی یک باقیمانده بزرگ) دارند به نوعی متفاوت باشند و این تفاوت به این طریق بررسی می شود. نظرات من در مورد این موضوع عبارتند از: * اگر تفاوت 2 نمونه ای را روی یک پیش بینی در مدل مشاهده کردید، در این صورت اثرات پیش بینی کننده وجود دارد که مدل در حالت فعلی آن در نظر گرفته نشده است (یعنی اثرات غیر خطی). * اگر تفاوت 2 نمونه ای روی متغیری که در مدل نیست مشاهده کردید، شاید از ابتدا باید در مدل وجود داشت. یک چیزی که من به صورت تجربی (از طریق شبیه سازی) پیدا کردم این است که، اگر میانگین یک پیش بینی کننده را در مدل $x$ مقایسه می کنید و به این ترتیب برای تولید دو میانگین نمونه طبقه بندی می کنید، $\overline{x}_{ 1}$ و $\overline{x}_{2}$، آنها با یکدیگر همبستگی مثبت دارند. این منطقی است زیرا هر دو نمونه به $\overline{y}، \overline{x}، \hat{\sigma}_{x}، \hat{\sigma}_{y}$ و $\hat{\ بستگی دارند. rho}_{xy}$. این همبستگی با حرکت برش به پایین (یعنی درصدی که برای تقسیم نمونه استفاده می کنید) افزایش می یابد. بنابراین حداقل، اگر میخواهید یک مقایسه دو نمونهای انجام دهید، خطای استاندارد در مخرج $t$-آمار باید برای محاسبه همبستگی تنظیم شود (اگرچه من یک فرمول صریح استخراج نکردهام. برای کوواریانس). به هر حال، سوال اساسی من این است: آیا دلیلی برای انجام این کار وجود دارد؟ اگر چنین است، در چه شرایطی این کار می تواند مفید باشد؟ واضح است که فکر نمیکنم وجود داشته باشد، اما ممکن است چیزی وجود داشته باشد که به درستی به آن فکر نمیکنم. | آیا اصلاً قابل دفاع است که یک مجموعه داده را بر اساس اندازه باقیمانده طبقه بندی کنیم و یک مقایسه دو نمونه ای انجام دهیم؟ |
21543 | من میخواهم یک مدل مخلوط را با متغیرهای پیوسته (ورودی) برای خوشهبندی دادههایم جا بزنم. برخی از متغیرها با یکدیگر همبستگی دارند. آیا باید متغیرهای همبسته را حذف کنم و فقط یکی از آنها را (به ازای هر گروه از متغیرهای همبسته) حفظ کنم یا می توانم همه آنها را نگه دارم؟ | آیا می توانم از متغیرهای همبسته در یک مدل مخلوط استفاده کنم؟ |
58728 | من از رگرسیون لجستیک ترتیبی استفاده کرده ام که در آن متغیر پاسخ NPS و متغیرهای توضیحی سوالات متفاوتی هستند. من مدلی پیدا کرده ام که تمام سوالات در آن قابل توجه است. سپس یک جدول طبقه بندی انجام دادم تا ببینم مدل چقدر می تواند مشاهدات گروه NPS مناسب را پیش بینی کند. نرخ طبقه بندی که من دریافت کردم 70٪ بود و من نمی دانم که آیا این نرخ طبقه بندی خوبی است؟ چه میزان طبقه بندی خوب و بد در نظر گرفته می شود؟ | نرخ طبقه بندی |
2972 | کمی قبل، J.M. استفاده از الگوریتم استوارت را برای تولید ماتریس های متعامد تصادفی شبه تصادفی $n$ در $n$ در زمان $O(n^2)$ پیشنهاد کرد. وی در ادامه خاطرنشان کرد که این متدولوژی در جعبه ابزار محاسبات ماتریسی نیک هیگام (matlab) پیاده سازی شده است. اکنون این بسته شامل یک دسته فایل .m است. آیا کسی می تواند مرا راهنمایی کند که کدام یک مولد ماتریس متعامد شبه تصادفی را پیاده سازی می کند؟ از طرف دیگر، آیا کسی از اجرای R این الگوریتم اطلاع دارد؟ | تولید ماتریس متعامد شبه تصادفی |
68444 | سلام مجموعه داده ای دارید که من با استفاده از مشاهدات فصلی (از حساب های بانکی) ساخته ام. من میتوانستم از دادههای نیمسال یا سالانه نیز استفاده کنم، اما فصلی را انتخاب کردم زیرا فکر میکردم که دادههای فرکانس بالاتر میتواند به من کمک کند تا تخمینهای قابل اعتمادتری به دست بیاورم. سؤال این است که از منظر نظری و/یا عملی، چگونه استفاده از دادههای فرکانس بالاتر را توجیه میکنید؟ هر مرجع کتاب یا مقاله بسیار قدردانی می شود. | فراوانی داده ها: آیا داده های فصلی بهتر از داده های نیمه سال است؟ چرا؟ |
68442 | من تازه وارد matlab هستم، من در حال انجام پروژه ساده با استفاده از فازی شناسی در متلب هستم. پروژه من دارای 2 سطح است. در سطح اول من 4 سیستم استنتاج فازی انفرادی (FIS) دارم و در سطح 2 یک FIS دارم که ورودی هر چهار FIS سطح اول را از خروجی می گیرد. من در حال دریافت خروجی برای سطح مشت 4 FIS هستم. حالا میخواهم این 4 خروجی از چهار FIS را به ورودی FIS تک بدهم. من نمی دانم چگونه این کار را انجام دهم. من جستجو کردم اما بیشتر از همه از FIS واحد برای کاربرد آنها استفاده کردم. مورد من از آنها خیلی متفاوت است. من باید خروجی 4 FIS را به ورودی یک FIS دیگر بدهم. کمکم کنید باید پروژه ام را به زودی تکمیل کنم. پیشاپیش ممنون | ورودی و خروجی دو سطحی در پیاده سازی منطق فازی در متلب |
111802 | من روی آزمایش فرضیه زیر کار می کنم: H1: افرادی که نگران سلامتی خود هستند ماست مصرف می کنند H0: افرادی که نگران سلامتی خود هستند ماست مصرف نمی کنند. ('من نگران سلامتی ام هستم' 1) کاملاً مخالف 2) مخالف 3) کمی مخالف 4) نه موافق و نه مخالف، 5) کمی موافق، 6) موافق، 7) کاملاً موافقم). سوال دیگر دوگانه است - آیا ماست مصرف می کنید؟ 1) بله 2) خیر. من می خواهم این فرضیه را با استفاده از متغیرهای بالا آزمایش کنم، حتی اگر یکی در مقیاس لیکرت و دیگری دوگانه باشد. پیشنهادی دارید؟ پیشاپیش از شما متشکرم تی. | آزمون فرضیه ها با استفاده از مقیاس لیکرت دوگانه و 7 درجه ای |
10277 | این یک سؤال نسبتاً کلی است (یعنی لزوماً مختص به آمار نیست)، اما من متوجه روندی در یادگیری ماشینی و ادبیات آماری شدهام که در آن نویسندگان ترجیح میدهند رویکرد زیر را دنبال کنند: **رویکرد 1**: به دست آوردن راه حلی برای یک راه حل عملی مشکل را با فرمولبندی یک تابع هزینه که میتوان برای آن (مثلاً از دیدگاه محاسباتی) یافت یک راهحل بهینه جهانی (مثلاً با فرمولبندی تابع هزینه محدب) حل کرد. به جای: **رویکرد 2**: با فرمول بندی یک تابع هزینه که ممکن است نتوانیم یک راه حل بهینه جهانی برای آن بدست آوریم، راه حلی برای همان مسئله بدست آوریم (مثلاً فقط می توانیم یک راه حل بهینه محلی برای آن بدست آوریم). توجه داشته باشید که به طور دقیق، این دو مشکل متفاوت هستند. فرض این است که ما میتوانیم راهحل بهینه جهانی را برای اولی پیدا کنیم، اما برای دومی نه. به غیر از ملاحظات دیگر (یعنی سرعت، سهولت اجرا و غیره)، من به دنبال: 1. **توضیح** این روند (به عنوان مثال استدلال های ریاضی یا تاریخی) 2. **مزایا** (عملی و/یا) نظری) برای پیروی از رویکرد 1 به جای 2 هنگام حل یک مسئله عملی. | مزایای نزدیک شدن به یک مسئله با فرمول بندی یک تابع هزینه که در سطح جهانی قابل بهینه سازی است |
63377 | من یک ریاضیدان یا آماردان نیستم (آخرین مواجهه من بیش از 30 سال پیش با کلاس های آمار در مدرسه بود). مشکل من این است که اگر رویدادها مستقل باشند، فقط آنها را با هم جمع میکنید تا شانس کلی رویداد را به دست آورید (مطالعه مدرسه من حداقل باعث میشود فکر کنم که شاید به این سادگی نباشد). **مشکل واقعی:** من در شرف عمل قلب هستم. احتمال بروز عوارض جدی وجود دارد. 1% خطر A (پارگی قلب) 1% خطر B (سکته مغزی) 1% خطر C (تنگی ورید ریوی) 1% خطر D (آسیب عروقی) 0.2% خطر E (آسیب دریچه میترال). احتمال عارضه جدی 4.2% (A + B + C + D + E)؟ یا از آنجایی که هر رویداد تأثیری بر وقوع رویدادهای دیگر ندارد، آیا احتمال عارضه ای بیشتر از 1 درصد بالاترین ارزش ریسک است؟ یا چیزی در این بین؟ من سعی کردم اینجا را برای پاسخ جستجو کنم اما همه چیز به سرعت وارد ریاضیات آماری و فرمول های پیچیده شد، سپس گم شدم، پس لطفا آن را برای من ساده نگه دارید <:-) | آیا شانس رویدادهای مستقل در هنگام محاسبه شانس کلی هر رویداد فقط جمع می شود؟ |
10271 | من با یک سری زمانی **نمرات ناهنجاری** کار می کنم (پس زمینه تشخیص ناهنجاری در شبکه های کامپیوتری است). هر دقیقه، من یک امتیاز ناهنجاری $x_t \ در [0، 5]$ دریافت میکنم که به من میگوید وضعیت فعلی شبکه چقدر غیر منتظره یا غیرعادی است. هر چه امتیاز بالاتر باشد، وضعیت فعلی غیرعادی تر است. نمرات نزدیک به 5 از نظر تئوری امکان پذیر است اما تقریبا هرگز اتفاق نمی افتد. اکنون میخواهم یک الگوریتم یا فرمولی ارائه کنم که به طور خودکار یک **آستانه** را برای این سری زمانی ناهنجاری تعیین کند. به محض اینکه نمره ناهنجاری از این آستانه فراتر رفت، زنگ هشدار به صدا در می آید. توزیع فرکانس زیر نمونه ای برای یک سری زمانی ناهنجاری در طول 1 روز است. با این حال، **امن نیست** فرض کنیم که هر سری زمانی ناهنجاری به این شکل خواهد بود. در این مثال خاص، یک آستانه ناهنجاری مانند کوانتیل 0.99 منطقی است، زیرا چند امتیاز در سمت راست را می توان به عنوان ناهنجاری در نظر گرفت.  و همان توزیع فرکانس سری های زمانی (فقط از 0 تا 1 متغیر است زیرا هیچ امتیاز ناهنجاری بالاتری در آن زمان وجود ندارد. سری):  متأسفانه، توزیع فرکانس ممکن است اشکالی داشته باشد، که در آن کوانتیل .99 ** نیست مفید **. یک نمونه در زیر آمده است. دم سمت راست بسیار پایین است، بنابراین اگر از 0.99-quantile به عنوان آستانه استفاده شود، ممکن است به بسیاری از موارد مثبت کاذب منجر شود. این توزیع فرکانس **به نظر نمیرسد حاوی ناهنجاری باشد** بنابراین آستانه باید خارج از توزیع در حدود 0.25 باشد.  خلاصه، تفاوت بین این دو مثال این است که به نظر می رسد اولی ناهنجاری هایی را نشان می دهد در حالی که نمونه دوم اینطور نیست. از دیدگاه ساده لوحانه من، الگوریتم باید این دو مورد را در نظر بگیرد: * اگر توزیع فرکانس دنباله سمت راست بزرگی داشته باشد (یعنی چند امتیاز غیرعادی)، در این صورت، کوانتیل .99 می تواند آستانه خوبی باشد. * اگر توزیع فرکانس دارای یک دم سمت راست بسیار کوتاه باشد (یعنی بدون امتیاز غیرعادی)، آنگاه آستانه باید خارج از توزیع باشد. /edit: همچنین هیچ حقیقت پایه ای وجود ندارد، یعنی مجموعه داده های برچسب گذاری شده در دسترس است. بنابراین الگوریتم در برابر ماهیت نمرات ناهنجاری کور است. اکنون من مطمئن نیستم که چگونه می توان این مشاهدات را در قالب یک الگوریتم یا یک فرمول بیان کرد. آیا کسی پیشنهادی دارد که چگونه می توان این مشکل را حل کرد؟ امیدوارم توضیحاتم کافی باشد چون سوابق آماری من بسیار محدود است. با تشکر از کمک شما! | تعیین آستانه خودکار برای تشخیص ناهنجاری |
68996 | من 2 سوال احتمالی پیشرفته دارم که با آنها مشکل دارم، بنابراین فقط می خواهم یک پاسخ/روش 1 را تایید کنم. یک شرکت کامپیوتری برای یکی از سیستم های خود بیمه نامه ارائه می دهد. اگر سیستم در سال اول شکست بخورد، بیمه نامه 3000 پوند پرداخت می کند. این مزایا هر سال 1000 پوند کاهش می یابد تا زمانی که به صفر برسد. اگر سیستم در ابتدای سال شکست نخورده باشد، احتمال خرابی آن در طول سال 0.1 است. شرکت چقدر باید برای بیمه نامه هزینه کند تا به طور متوسط سود خالص هر بیمه نامه 100 پوند باشد؟ 2. مردی که هدفی را هدف قرار می دهد، اگر شلیک او در فاصله 1 سانتی متری مرکز هدف باشد، 10 امتیاز، اگر بین 1 تا 3 سانتی متر باشد، پنج امتیاز و اگر بین 3 تا 5 سانتی متر باشد، سه امتیاز دریافت می کند. اگر شلیک مرد به طور یکنواخت در دایره ای به شعاع 8 سانتی متر در مرکز هدف پخش شود، تعداد امتیازات مورد انتظار چقدر است؟ | سوالات احتمالی |
21541 | من یک بردار از پارامترهای $\theta=(n,ph,pt,\gamma)$ دارم که به فرآیندی وارد میشوند که نتیجهای را ایجاد میکند. من می خواهم حساسیت نتیجه را به تغییرات یک پارامتر (ها) به صورت کمی گزارش کنم. همبستگی تک متغیره چیزی نیست که من به دنبال آن هستم زیرا $\theta$ از یک توزیع نمونه برداری شده است. به نظر شما بهترین گزینه من چیست؟ در صورت نیاز به اطلاعات بیشتر به من اطلاع دهید. با تشکر **ویرایش** فرآیند تصادفی است. اساساً یک فرد بر اساس احتمالات مشاهده شده به طور تصادفی در اطراف یک اتاق حرکت می کند و سطوح را لمس می کند (*n بار**). با لمس هر سطح، آنها یک ایزوتوپ را با احتمال **$\gamma$** انتخاب می کنند. اینکه چه مقدار ایزوتوپ می گیرند بستگی به متغیر **pt** دارد که به صورت تجربی محاسبه شده است. پس از اتمام تماس با سطوح، دست های خود را با احتمال و اثربخشی می شویند (*ph**). بنابراین خروجی یک مقدار اسکالر ایزوتوپ و بردار سطوح لمس شده است. **ویرایش 2** ایزوتوپ ($I$) روی دست فرد پس از هر تماس سطحی به صورت افزایشی محاسبه میشود، بنابراین: $$I=\lambda_i \, pt_i V_i$$ جایی که $V_i$ غلظت سطح است. ایزوتوپ بیایید فرض کنیم با یک سطح سروکار داریم، بنابراین $V$ ثابت است. سپس مجموع مجموع ایزوتوپ روی دست فرد پس از تماس $n$ با همان سطح خواهد بود: $$I=\sum_{i=1}^n\lambda_i \, pt_i V_i$$ سپس دستان خود را با مقداری می شویند. اثربخشی $ph$. تصویر دست چپ یک هیستوگرام چگالی فرکانس $I$ است. تصویر دست راست یک نمودار پراکنده بین $I$ و $n$ است.  با این حال $n$ از توزیع داده های مشاهده شده استخراج می شود. چگونه می توان این را در تجزیه و تحلیل حساسیت گنجاند؟ | همبستگی چند متغیره در تحلیل حساسیت |
68449 | من می خواهم تعیین کنم که آیا میانگین طیف های فرکانس از نظر آماری با یکدیگر متفاوت هستند یا خیر. من مجموعهای از کارآزماییها را در شرایط دارویی مختلف دارم و میخواهم آزمایش کنم که آیا یک دارو بر توزیع فرکانس و/یا توان در محدوده فرکانس تأثیر دارد یا خیر. این با تعیین اینکه آیا توان در یک باند فرکانسی خاص در شرایط مختلف متفاوت است یا خیر، مخالف است. به عنوان مثال، در زیر دو آزمایش آورده شده است. من می خواهم تعیین کنم که آیا خط قرمز با آبی متفاوت است یا خیر. خطای استاندارد با سایه خاکستری مشخص می شود. از شما برای هر گونه پیشنهاد و اشاره!  | چگونه می توان تفاوت های قابل توجه بین طیف های فرکانس را تعیین کرد؟ |
79155 | من یک مدل رگرسیون خطی دارم که از 12 نقطه ایجاد شده است که می توانم یک مقدار واحد RMSE را بین مقادیر پیش بینی شده و مقادیر واقعی مشاهده شده محاسبه کنم. سپس از این مدل برای پیشبینی مجموعه داده دیگری [جعبه، 42 امتیاز] استفاده میشود. من یک مدل رگرسیون خطی دوم [جعبه] دارم که در آن همه ترکیبهای 12 نقطه از یک نمونه 42 نقطهای انتخاب میشوند و RMSE بین مقادیر پیشبینیشده و مقادیر واقعی مشاهدهشده برای همه ترکیبها محاسبه میشود. مدل رگرسیون خطی در این سناریو 30 نقطه دیگر را که برای ساخت مدل رگرسیون انتخاب نشده اند، پیش بینی می کند. من سعی دارم راهی برای مقایسه [مدل قالب] و [مدل جعبه] با یک تکنیک آماری پیدا کنم. ایده من در حال حاضر این است که مقدار RMSE واحد را از [مدل قالب] با یک CDF از RMSE از ترکیبات چندگانه [Box Model] مقایسه کنم. بنابراین میتوانم بگویم **XX%** در مواقع، [Box Model] دارای RMSE **XX** بهتر/بدتر از [مدل قالب] است. اگر کسی می تواند لطفاً در مورد بهترین تکنیکی که فکر می کنید من باید از آن استفاده کنم نظر دهد بسیار قدردانی خواهد شد. پایان نامه کارشناسی ارشد من به آن بستگی دارد! با تشکر | مقایسه مدل های رگرسیون خطی ایجاد شده از مجموعه داده های مختلف |
58724 | وقتی نسبت میل معکوس به حساب برای انتخاب در یک مدل ترکیبی با استفاده از LMER در R (به دنبال روش دو مرحلهای هکمن [1979])، هنوز نیاز به تخمین SEهای قوی دارم یا مدل ترکیبی منجر به SE سازگار با ناهمسانی میشود؟ | آیا هنگام اعمال روش دو مرحله ای هکمن به خطاهای استاندارد سازگار با ناهمگونی در LMER نیاز دارم؟ |
24490 | من ماتریس زیر را از داده ها دارم که در SAS می خوانم: 1 5 12 19 13 6 3 1 3 14 2 7 12 19 21 22 24 21 29 18 17 15 22 9 18 این نشان دهنده 5 گونه مختلف حیوان است ( ) در 5 ناحیه مختلف یک محیط (ستون ها). من میخواهم یک شاخص تنوع شانون برای کل محیط به دست بیاورم، بنابراین ردیفها را جمع میکنم تا به دست بیاورم: 48 54 68 79 84 سپس شاخص شانون را از این محاسبه کنید، تا به دست بیاورم: 1.5873488، اما آنچه باید انجام دهم، محاسبه اطمینان است. فاصله برای این شاخص شانون. بنابراین من می خواهم یک بوت استرپ ناپارامتری روی ماتریس اولیه انجام دهم. آیا کسی می تواند راهنمایی کند که چگونه این کار در SAS امکان پذیر است؟ | فواصل اطمینان در یک ماتریس از داده ها در SAS |
26792 | ادعا می شود که SVM با استفاده از هسته RBF مشابه (معادل) روش طبقه بندی K نزدیکترین همسایه است. من در مورد روند تجزیه و تحلیل ایجاد این نوع رابطه خیلی واضح نیستم. ممنون از توضیحات | SVM با استفاده از روش طبقه بندی RBF و نزدیکترین همسایه |
62391 | من شباهت بین کلمات را با استفاده از معیارهای تشابه بر اساس wordnet محاسبه می کنم. من معیارهای تشابه دو کلمه را با استفاده از سه روش مختلف به دست آورده ام - JNC (جیانگ و کنراث)، BNP (بانرجی و پدرسون) و LIN (لین). این معیارهای شباهت مقادیری بین 0 و 1 برای دو کلمه (1 برای کلمات دقیقا مشابه) می دهد. من باید معیارهای شباهت را از سه روش بالا ترکیب کنم تا بتوانم معیار بهتری از شباهت به دست بیاورم. من می خواهم نتایج را با هم ترکیب کنم زیرا هر یک از آنها یک اشکال دارند و ترکیب آنها معیار بهتری را ارائه می دهد. هیچ ایده ای در مورد اینکه چگونه می توانم این کار را انجام دهم؟ من در مورد Dempster-Shafer خواندهام، اما میخواهم از روش دیگری استفاده کنم، زیرا درک و اعمال آن بر اساس نیازم برایم دشوار است. | ترکیب شواهد از منابع مختلف |
62023 | مشکل زیر را فرض کنید: شما در حال تصمیم گیری برای سرمایه گذاری در فرصتی با هزینه نامشخص $c$ و ارزش $v$ هستید یا خیر. هزینه تخمین زده شده است که به طور معمول با 90٪ CI بین 1 تا 5 میلیون توزیع می شود. به طور مشابه، ارزش به طور معمول با 90٪ CI بین 1 تا 20 میلیون توزیع شده است. تصمیم پیش فرض سرمایه گذاری است. با این حال، شما علاقه مند به یافتن ارزش کاهش عدم اطمینان در مورد هزینه و ارزش هستید تا در مورد تصمیم خود مطمئن شوید. من به طور شهودی درک می کنم که در اینجا ما به دنبال ارزش مورد انتظار اطلاعات کامل یا $EVPI$ هستیم که برابر با ضرر احتمالی در صورت اتخاذ تصمیم اشتباه هستیم. **سوالات:** 1. چگونه مسئله بالا را به صورت ریاضی نمایش دهیم؟ به طور مستقیم، من چیزی شبیه به: $EVPI=\int_c\int_v(v-c)p(c)p(v)$ 2 مینویسم. چگونه مشکل یک مورد عمومی را حل کنیم؟ آیا MCMC یا یک مونت کارلو ساده در اینجا انتخاب خوبی است؟ من ترجیح میدهم پاسخی در سطح عادی داشته باشم زیرا در آمار خیلی قوی نیستم. | ارزش اطلاعات برای یک مشکل سرمایه گذاری ساده |
2975 | چگونه می توانم چندین سری از داده ها را کاهش یا عادی سازی کنم تا بتوانم بین این سری ها مقایسه کنم؟ * * * مشخصات زیر ممکن است برای این انجمن مناسب نباشد. لطفاً به من اطلاع دهید و میتوانم آن را حذف یا دوباره بیان کنم، اما فکر میکنم درک کامل سؤال عمومی بالا ممکن است مفید باشد. من یک مجموعه داده دارم که برای تجزیه و تحلیل آن کمک می خواهم. من فکر میکنم این سوال مربوط به اینجاست و نه در http://gis.stackexchange.com/ به طور خاص، من وضعیت زیر را دارم: هر سری از هواپیمایی که در یک مسیر پرواز میکند جمعآوری میشود، و دارای تعداد متغیر (مقدار، lat، lon,time) چندتایی. من چندین مورد از این مسیرهای پروازی دارم، هر کدام در زمان متفاوتی، و در مسیرهای مختلفی پرواز می کنم (گاهی در حال عبور، گاهی اوقات نه). پروازها به فاصله ماهها از هم، در زمانهای مختلف روز انجام میشوند و به دلیل پدیدههای طبیعی، دادهها (در این مورد حرارتی) متفاوت است. بخشی از منطقه ای که با پروازهای متعدد بر فراز آن پرواز می کند ممکن است نشانه دمای غیرعادی داشته باشد یا نداشته باشد. این چیزی است که من می خواهم بررسی کنم. من به دنبال الگوریتمی برای کاهش یا عادی سازی تمام پروازها هستم تا بتوانم SNR خود را افزایش دهم و تعیین کنم که آیا یک ناهنجاری دما در یک منطقه فرعی وجود دارد یا خیر. | عادی سازی یا کاهش روند گروهی از نمونه ها |
68441 | من از تجزیه و تحلیل معنایی پنهان (LSA) یا نمایه سازی معنایی پنهان (LSI) استفاده کرده ام تا با تطبیق نام های استفاده شده برای هر آدرس ایمیل، تشخیص دهم که آیا آدرس های ایمیل مختلف به یک فرد تعلق دارند یا خیر. یک آدرس ایمیل نشاندهنده یک «سند» است، و مجموعه همه نامها (به عنوان کلمات جداگانه) عبارتهای موجود در آن سند هستند: «جان دو» < johnd@example.com > به سند «johnd@example.com» تبدیل میشود. با اصطلاحات ['جان'، 'دو'، 'جان']. برنامه معمولی LSA/LSI کم و بیش از این تکنیک ها استفاده می کند: * ساخت ماتریس سند اصطلاحی * اعمال مدل tf--idf * محاسبه SVD. کاهش رتبه/بعد را انجام دهید. * محاسبه شباهت کسینوسی مطالعات متعددی انجام شده است که نشان می دهد تکنیک فوق در تطبیق اسناد کاملاً موفق است. با این حال، اطلاعات من از سند واقعی (انگلیسی) نیست، بلکه فقط چند کلمه وجود دارد. یعنی نام افرادی که ایمیل ارسال کرده اند. برای اینکه ایده ای به شما بدهم، مجموعه داده های من شامل 99012 عبارت و 76580 سند است. میانگین تعداد اصطلاحات در یک سند 2.70 است. برای ایجاد یک رابطه در برنامه LSA/LSI بین دو سندی که متقابلاً انحصاری هستند اما باید مطابقت داشته باشند (مثلاً در نتیجه غلط املایی)، من تصمیم گرفتم ماتریس اصطلاح-سند را با فاصله ویرایشی مانند فاصله Levenshtein افزایش دهم. من در وب جستجو کرده ام و نتوانستم هیچ وب سایتی را پیدا کنم که استفاده از LSA/LSI را در ترکیب با فاصله ویرایش توصیف کند. آیا دلیلی وجود دارد که قبلاً این مورد اعمال یا توضیح داده نشده است؟ آیا کسی اطلاعات بیشتری در مورد ترکیب LSI/LSA و فاصله ویرایش دارد؟ من به سختی می توانم باور کنم که اولین کسی هستم که ترکیبی از این تکنیک ها را به کار برده است. من دو سوال تکراری پیدا کردم که هرگز پاسخی دریافت نکردم: * ترکیب tf/idf با یک متریک شباهت به عنوان مثال فاصله ویرایش، شکاف میانجی jaro winkler * تشخیص/طبقه بندی تکراری با استفاده از معیارهای تشابه TF/IDF و کسینوس | کاربرد LSA/LSI. آیا استفاده از فاصله ویرایشی رایج است؟ |
67616 | این سوال بهترین راه برای مقایسه داده های باینری مرتب شده است. وضعیت من به شرح زیر است: من علاقه مند به ارزیابی این هستم که چگونه یک مدل با داده های عملکرد انسانی در مجموعه ای از مشکلات اعتبار سنجی مطابقت دارد. برای یک مجموعه آزمایشی از 30 مسئله، من سابقه ای دارم که آیا مدل من پاسخ درستی (که با 1 نشان داده می شود) یا اصلاً پاسخ نداده است ** (0) در یک محدودیت زمانی. از آنجایی که مدل به صورت احتمالی عمل میکند، من دادههایی برای اجرای چندگانه مدل در یک مجموعه آزمایشی دارم (سازماندهی شده در یک ماتریس باینری از اجرا # در مقابل مشکل #). میخواهم این دادههای دقت را با دادههای دقت تولید شده توسط گروهی از شرکتکنندگان انسانی که روی همان مجموعه اعتبارسنجی کار میکنند، مقایسه کنم. سوال من این است: از چه آزمون(هایی) می توانم برای اندازه گیری درجه انسجام بین دو مجموعه داده استفاده کنم که سوالات مختلف در مجموعه اعتبارسنجی را در نظر می گیرد (یعنی آن داده ها را در ستون اول ماتریس دقت مدل تشخیص می دهد [ مربوط به عملکرد در اولین سوال در مجموعه اعتبار سنجی] باید فقط با داده های ستون اول ماتریس دقت انسانی و غیره مقایسه شود؟ عذرخواهی می کنم اگر در جای دیگری پاسخ داده شده است! ** چون ساختار مدل به گونه ای است که هرگز پاسخی تولید نمی کند مگر اینکه پاسخ صحیح باشد (یعنی به سادگی به کار ادامه می دهد تا زمانی که یا (1) پاسخ صحیح را پیدا کند یا (2) زمانش تمام شود، هر کدام که زودتر بیاید)، خروجی پاسخ شامل مثبت کاذب یا منفی کاذب نمی شود (تا جایی که من آن شرایط را درک می کنم). | راه هایی برای مقایسه مجموعه داده های باینری مرتب شده؟ |
58725 | من در حال آزمایش ایجاد یک ماتریس فاصله بین سری های زمانی برای خوشه بندی و جستجوی شباهت هستم. مرجع اصلی که من استفاده می کنم برای رویه Similarity در SAS (کاغذ) است. من می خواهم تجزیه و تحلیل را در R با استفاده از بسته dtw انجام دهم. چیزی که من در مورد استفاده از DTW برای سری های با طول های مختلف گیج شده ام. 1) آیا این امکان پذیر است؟ 2) راهنمایی در مورد نحوه انجام این کار با بسته R دارید؟ در مورد سوال شماره 2، تلاش برای محاسبه ماتریس فاصله بر روی ماتریسی از سری هایی که از نظر طول متفاوت هستند، فوراً ناموفق است: dist_mat<-dist(appliances_t,method=DTW) خطا در dtw(distance.only = TRUE، ...) : هیچ مسیر انحرافی وجود ندارد که توسط costraints مجاز باشد > dput(appliances_t) structure(c(1L, 14 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 7 لیتر، 1 لیتر، 33 لیتر، 20 لیتر، 1 لیتر، 1 لیتر، 8 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 14 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 6 لیتر، 1 لیتر، 32 لیتر، 20 لیتر، 1 لیتر، 2 لیتر، 8 لیتر، 0 لیتر، 0 لیتر، 2 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 0 لیتر، 19 لیتر، 0 6 لیتر، 1 لیتر، 1 لیتر، 7 لیتر، 1 لیتر، 42 لیتر، 27 لیتر، 1 لیتر، 3 لیتر، 10 لیتر، 0 لیتر، 1 لیتر، 3 لیتر، 1 لیتر، 3 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 22 لیتر، 1 لیتر، 7 لیتر، 4 لیتر، 7 لیتر، 1 لیتر، 51 لیتر، 32 لیتر، 5 لیتر، 4 لیتر، 12 لیتر، 1 لیتر، 1 لیتر، 9 لیتر، 5 لیتر، 7 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 33 لیتر، 1 لیتر، 6 لیتر، 4 لیتر، 3 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 1 لیتر 49 لیتر، 5 لیتر، 5 لیتر، 19 لیتر، 1 لیتر، 1 لیتر، 9 لیتر، 5 لیتر، 7 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 28 لیتر، 1 لیتر، 7 لیتر، 8 لیتر، 3 لیتر، 5 لیتر، 6 لیتر، 3 لیتر، 63 لیتر، 5 لیتر، 41 لیتر، 15 لیتر، 1 لیتر، 1 لیتر، 9 لیتر، 5 لیتر، 8 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 30 لیتر، 1 لیتر، 10 لیتر، 22 لیتر، 10 لیتر، 8 لیتر، 7 لیتر، 5 لیتر، 70 لیتر، 44 لیتر، 8 لیتر، 7 لیتر، 1، 6 لیتر 12 لیتر، 8 لیتر، 11 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 32 لیتر، 2 لیتر، 13 لیتر، 30 لیتر، 10 لیتر، 10 لیتر، 11 لیتر، 12 لیتر، 74 لیتر، 47 لیتر، 10 لیتر، 8 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 14 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 2 لیتر، 1 لیتر، 5 لیتر، 23 لیتر، 4 لیتر، 6 لیتر، 30 لیتر، 10 لیتر، 5 لیتر، 9 لیتر، 12 لیتر، 53 لیتر، 33 لیتر، 5 لیتر، 9 لیتر، 12 لیتر، 5 لیتر، 5 لیتر، 8 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 3 لیتر، 5 لیتر، 5 لیتر، 7 لیتر، 27 لیتر، 7 لیتر، 9 لیتر، 22 لیتر، 14 لیتر، 7 لیتر، 11 لیتر، 12 لیتر، 61 لیتر، 36 لیتر، 7 لیتر، 10 لیتر، 14 لیتر، 7 لیتر، 1 لیتر، 7 لیتر، 1، 8 لیتر، 8 لیتر، 6 لیتر، 7 لیتر، 8 لیتر، 14 لیتر، 27 لیتر، 14 لیتر، 13 لیتر، 38 لیتر، 19 لیتر، 10 لیتر، 7 لیتر، 15 لیتر، 61 لیتر، 37 لیتر، 10 لیتر، 11 لیتر، 14 لیتر، 14 لیتر، 1 لیتر، 1،1،1،1، 12 لیتر، 12 لیتر، 9 لیتر، 14 لیتر، 12 لیتر، 14 لیتر، 38 لیتر، 14 لیتر، 14 لیتر، 44 لیتر، 10 لیتر، 11 لیتر، 9 لیتر، 20 لیتر، 86 لیتر، 54 لیتر، 11 لیتر، 12 لیتر، 20 لیتر، 1، 1،1، 14 لیتر 22 لیتر، 22 لیتر، 22 لیتر، 16 لیتر، 14 لیتر، 22 لیتر، 14 لیتر، 27 لیتر، 14 لیتر، 16 لیتر، 42 لیتر، 13 لیتر، 13 لیتر، 12 لیتر، 11 لیتر، 61 لیتر، 39 لیتر، 13 لیتر، 13 لیتر، 11، 1، 1، 1 13 لیتر، 18 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 16 لیتر، 14 لیتر، 22 لیتر، 20 لیتر، 28 لیتر، 19 لیتر، 10 لیتر، 40 لیتر، 16 لیتر، 9 لیتر، 12 لیتر، 14 لیتر، 66 لیتر، 41 لیتر، 14 لیتر، 41 لیتر، 66 لیتر، 41 لیتر، 10 لیتر 13 لیتر، 9 لیتر، 12 لیتر، 23 لیتر، 23 لیتر، 23 لیتر، 18 لیتر، 20 لیتر، 23 لیتر، 27 لیتر، 16 لیتر، 27 لیتر، 10 لیتر، 60 لیتر، 19 لیتر، 8 لیتر، 11 لیتر، 20 لیتر، 39 لیتر، 8 لیتر، 29 لیتر، 29 لیتر، 4 لیتر، 12 لیتر، 8 لیتر، 11 لیتر، 30 لیتر، 30 لیتر، 30 لیتر، 22 لیتر، 27 لیتر، 30 لیتر، 14 لیتر، 24 لیتر، 14 لیتر، 14 لیتر، 136 لیتر، 21 لیتر، 11 لیتر، 4 لیتر، 21 لیتر، 31، 31، 56 لیتر 14 لیتر، 3 لیتر، 16 لیتر، 11 لیتر، 14 لیتر، 42 لیتر، 42 لیتر، 42 لیتر، 31 لیتر، 14 لیتر، 42 لیتر، 18 لیتر، 23 لیتر، 18 لیتر، 16 لیتر، 206 لیتر، 14 لیتر، 14 لیتر، 3 لیتر، 3 لیتر، 4 لیتر، 17 لیتر، 12 لیتر، 18 لیتر، 2 لیتر، 20 لیتر، 14 لیتر، 18 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 16 لیتر، 18 لیتر، 22 لیتر، 24 لیتر، 28 لیتر، 23 لیتر، 25 لیتر، 398 لیتر، 14 لیتر، 6 لیتر، 14 لیتر، 6 لیتر 40 لیتر، 20 لیتر، 18 لیتر، 16 لیتر، 24 لیتر، 4 لیتر، 29 لیتر، 20 لیتر، 28 لیتر، 28 لیتر، 28 لیتر، 28 لیتر، 21 لیتر، 24 لیتر، 28 لیتر، 27 لیتر، 18 لیتر، 27 لیتر، 20 لیتر، 18 لیتر، 27 لیتر، 20 لیتر، 18 لیتر 16 لیتر، 40 لیتر، 25 لیتر، 16 لیتر، 19 لیتر، 10 لیتر، 27 لیتر، 3 لیتر، 25 لیتر، 16 لیتر، 21 لیتر، 39 لیتر، 39 لیتر، 39 لیتر، 28 لیتر، 27 لیتر، 39 لیتر، 32 لیتر، 19 لیتر، 20 لیتر، 19 لیتر، 20 لیتر، 20 لیتر 18 لیتر، 3 لیتر، 20 لیتر، 42 لیتر، 27 لیتر، 18 لیتر، 20 لیتر، 10 لیتر، 32 لیتر، 3 لیتر، 27 لیتر، 18 لیتر، 24 لیتر، 43 لیتر، 43 لیتر، 43 لیتر، 32 لیتر، 32 لیتر، 43 لیتر، 32 لیتر، 42 لیتر، 10 لیتر 504 لیتر، 33 لیتر، 19 لیتر، 7 لیتر، 27 لیتر، 49 لیتر، 31 لیتر، 19 لیتر، 21 لیتر، 12 لیتر، 20 لیتر، 2 لیتر، 28 لیتر، 19 لیتر، 27 لیتر، 49 لیتر، 49 لیتر، 49 لیتر، 37 لیتر، 20 لیتر، 49 لیتر، 37 لیتر، 20 لیتر، 20 لیتر 20 لیتر، 16 لیتر، 682 لیتر، 28 لیتر، 14 لیتر، 7 لیتر، 41 لیتر، 48 لیتر، 30 لیتر، 14 لیتر، 22 لیتر، 12 لیتر، 20 لیتر، 2 لیتر، 20 لیتر، 14 لیتر، 18 لیتر، 33 لیتر، 33، 32، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 3، 4 27 لیتر، 13 لیتر، 27 لیتر، 19 لیتر، 374 لیتر، 30 لیتر، 14 لیتر، 8 لیتر، 32 لیتر، 29 لیتر، 19 لیتر، 14 لیتر، 23 لیتر، 6 لیتر، 27 لیتر، 3 لیتر، 21 لیتر، 14 لیتر، 20 لیتر، 14 لیتر، 20 لیتر، 3 لیتر، 32 لیتر، 32 لیتر، 32 لیتر، 20 لیتر، 32 لیتر، 19 لیتر، 489 لیتر، 32 لیتر، 14 لیتر، 7 لیتر، 33 لیتر، 47 لیتر، 28 لیتر، 14 لیتر، 24 لیتر، 11 لیتر، 32 لیتر، 3 لیتر، 21 لیتر، 14 لیتر، 14 لیتر، 4 لیتر، 20 لیتر 32 لیتر، 32 لیتر، 42 لیتر، 49 لیتر، 16 لیتر، 49 لیتر، 27 لیتر، 628 لیتر، 23 لیتر، 21 لیتر، 13 لیتر، 36 لیتر، 35 لیتر، 21 لیتر، 21 لیتر، 25 لیتر، 8 لیتر، 49 لیتر، 4 لیتر، 5 لیتر، 5 لیتر، 12 لیتر 51 لیتر، 51 لیتر، 40 لیتر، 49 لیتر، 51 لیتر، 41 لیتر، 27 لیتر، 41 لیتر، 19 لیتر، 791 لیتر، 27 لیتر، 15 لیتر، 14 لیتر، 27 لیتر، 62 لیتر، 39 لیتر، 15 لیتر، 26 لیتر، 15 لیتر، 15 لیتر، 14 لیتر، 14 لیتر 20 لیتر، 80 لیتر، 80 لیتر، 80 لیتر، 61 لیتر، 41 لیتر، 80 لیتر، 44 لیتر، 33 لیتر، 44 لیتر، 20 لیتر، 898 لیتر، 27 لیتر، 16 لیتر، 16 لیتر، 29 لیتر، 77 لیتر، 48 لیتر، 7، 16 لیتر، 16 لیتر، 25 لیتر، 16 لیتر، 21 لیتر، 63 لیتر، 63 لیتر، 63 لیتر، 48 لیتر، 44 لیتر، 63 لیتر، 47 لیتر، 21 لیتر، 46 لیتر، 13 لیتر، 439 لیتر، 38 لیتر، 10 لیتر، 21 لیتر، 30 لیتر، 21، 21، 30 لیتر، 21 لیتر، 21 لیتر، 1 47 لیتر، 2 لیتر، 14 لیتر، 10 لیتر، 14 لیتر، 70 لیتر، 70 لیتر، 70 لیتر، 51 لیتر، 47 لیتر، 70 لیتر، 33 لیتر، 32 لیتر، 33 لیتر، 18 لیتر، 515 لیتر، 27 لیتر، 14 لیتر، 22، 4 لیتر، 7 29 لیتر، 18 لیتر، 33 لیتر، 2 لیتر، 20 لیتر، 14 لیتر، 20 لیتر، 74 لیتر، 74 لیتر، 74 لیتر، 54 لیتر، 33 لیتر، 74 لیتر، 36 لیتر، 33 لیتر، 36 لیتر، 16 لیتر، 450 لیتر، 28 لیتر، 7، 7، 1، 1 48 لیتر، 14 لیتر، 30 لیتر، 18 لیتر، 36 لیتر، 3 لیتر، 20 لیتر، 14 لیتر، 18 لیتر، 53 لیتر، 53 لیتر، 53 لیتر، 40 لیتر، 36 لیتر، 53 لیتر، 37 لیتر، 33 لیتر، 37 لیتر، 20 لیتر، 14 لیتر، 12 لیتر 32 لیتر، 78 لیتر، 48 لیتر، 16 لیتر، 31 لیتر، 19 لیتر، 37 لیتر، 3 لیتر، 24 لیتر، 16 لیتر، 21 لیتر، 61 لیتر، 61 لیتر، 61 لیتر، 45 لیتر، 37 لیتر، 61 لیتر، 54 لیتر، 48 لیتر، 20 لیتر، 54 لیتر، 48 لیتر، 19 لیتر، 10 لیتر، 17 لیتر، 19 لیتر، 109 لیتر، 68 لیتر، 10 لیتر، 32 لیتر، 27 لیتر، 54 لیتر، 3 لیتر، 14 لیتر، 10 لیتر، 14 لیتر، 61 لیتر، 61 لیتر، 61 لیتر، 45 لیتر، 54 لیتر، 61، 3، 7،3 لیتر، 889 لیتر، 23 لیتر، 11 لیتر، 19 لیتر، 28 لیتر، 120 لیتر، 76 لیتر، 11 لیتر، 33 لیتر، 28 لیتر، 39 لیتر، 3 لیتر، 16 لیتر، 11 لیتر، 14 لیتر، 86 لیتر، 86 لیتر، 86 لیتر، 63 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 40 لیتر، 16 لیتر، | شباهت سری زمانی: طول های متفاوت با R |
24494 | اول از همه من در انگلیسی خوب نیستم. پس لطفا برای تفسیر حرف های من صبور باشید. من واقعا به کمک شما نیاز دارم. من از بسته R GBM به عنوان احتمالاً مدل سازی پیش بینی خود استفاده کردم. من یک مدل با توزیع adaboost ساختم. در این موارد، از کد «predict.gbm» برای پیشبینی برخی دادههای جدید استفاده میکنید. اما من باید آنها را بدون R پیش بینی کنم (شاید با SAS IML و غیره). بنابراین میخواهم بدانم چگونه مقادیر برازش را بر اساس مدلی که ساختهام محاسبه کنم. داده ها به شرح زیر است (تبلیغ جدا شده). متغیر 'sex' و 'houstype' (APT, DANDOK, ETC, VILLA) متغیرهای طبقه بندی هستند و y یک متغیر هدف است که دارای 0.1 دسته است. منطقه درآمدی سن جنسیتی قیمت خانه y M 30 72 31 99 APT 1 M 40 73 1 97 DANDOK 0 M 40 34 1 90 DANDOK 0 M 29 45 4 86 DANDOK 0 F 29 37 39 F 29 37 39 F 29 37 39 86 AND OK 29 M 35 63 4 61 DANDOK 0 F 27 47 4 74 DANDOK 0 M 28 38 3 79 DANDOK 0 F 30 45 31 99 APT 0 M 31 32 4 82 DANDOK 0 M 30 47 M 30 45 M 30 45 PT344 0 M 26 56 3 83 DANDOK 0 M 32 43 15 85 VILLA 1 M 24 32 4 69 DANDOK 0 M 31 35 3 68 DANDOK 0 M 40 47 8 52 DANDOK 0 F 26 1446 DANDOK 63 VILLA 0 M 32 43 25 24 DANDOK 0 M 37 36 58 47 APT 1 M 36 49 49 53 APT 1 M 27 42 31 71 APT 1 M 33 53 7 48 DANDOK 0 M 33 7 48 DANDOK 0 M 30 1 4 88 ویلا 0 M 28 35 3 83 DANDOK 0 M 38 53 12 58 VILLA 1 M 39 30 3 61 DANDOK 0 F 35 32 24 63 APT 0 F 26 36 31 93 12 58 DANDOK 0 39 31 18 ویلا 0 M 38 96 4 23 APT 1 M 37 69 39 56 APT 1 M 39 37 58 17 APT 1 M 31 42 26 69 APT 1 M 32 64 64 47 M 32 64 64 47 M 32 64 64 47 39 56 APT 1 29 35 18 88 APT 0 M 38 79 7 40 DANDOK 0 M 26 39 7 48 DANDOK 0 M 32 57 76 24 DANDOK 1 M 32 89 18 74 DANDOK 0 F 25 31 DANDOK 0 F 25 31 DANDOK 0 F 25 31 PT39 330 1 F 34 37 76 80 APT 0 M 32 49 39 67 APT 1 M 33 60 18 69 APT 1 F 29 61 18 69 APT 0 M 37 30 83 73 APT 1 M 36 38 D24 OK4 APT 1 M 39 89 39 76 APT 1 M 39 66 17 83 APT 1 M 29 67 1 61 DANDOK 0 M 30 41 1 69 DANDOK 0 M 32 44 1 83 DANDOK 0 M 39494 VILLA 0 M 39494 73 DANDOK 1 M 30 39 12 38 DANDOK 0 M 36 37 17 40 DANDOK 0 M 28 48 1 97 DANDOK 0 M 29 51 8 69 VILLA 0 M 29 50 8 69 VILLA 40 M 08 PT 86 39 98 APT 1 M 29 56 18 93 APT 1 F 29 79 8 92 APT 0 F 30 88 8 92 APT 0 M 29 34 2 69 DANDOK 0 M 34 41 25 54 DANDOK 4 DANDOK25 33 49 39 VILLA 0 F 30 56 49 6 DANDOK 0 F 34 54 8 62 APT 1 F 23 37 31 38 VILLA 0 M 35 56 31 65 VILLA 1 F 26 42 39 F 26 42 39 F 26 42 39 F 26 42 39 F 26 60 PT302 APT 29 52 8 37 APT 0 M 26 73 61 16 VILLA 1 F 33 45 49 39 APT 0 M 35 34 39 69 APT 1 F 25 30 8 55 APT 0 M 27 70 41 F 33 45 43 APT 31 33 15 48 APT 0 M 32 80 24 84 APT 1 M 33 59 76 80 APT 1 M 23 32 27 32 VILLA 0 M 34 87 76 66 APT 1 F 30 421 VILLA 314 314 DANDOK 0 F 34 36 56 19 APT 0 M 35 50 4 7 DANDOK 0 M 32 75 4 7 DANDOK 0 F 29 58 69 72 APT 0 M 32 33 8 7 DANDOK 0 F 31 7953234 APT 1 M 26 56 4 76 ETC 0 M 38 48 3 44 DANDOK 0 M 37 62 39 69 APT 1 M 32 34 48 41 APT 1 M 32 54 89 20 APT 1 M 36 M 37 62 39 69 APT 1 M 32 34 48 41 APT 1 M 32 54 89 20 APT 1 M 36 42 30 4 APT 1 M 37 51 18 38 DANDOK 0 F 27 32 24 23 APT 0 F 34 38 18 27 DANDOK 0 M 29 41 4 4 ETC 0 M 30 56 39 17 APT 1 M 32 734 PT 0 M 30 56 39 17 APT 1 M 32 734 68 PT APT 1 M 31 39 3 57 DANDOK 0 M 38 36 83 73 VILLA 1 M 35 41 8 17 APT 1 M 33 30 49 1 DANDOK 1 M 32 32 4 4 DANDOK 0 نام داده را «datafl» بگذارید. و کد به صورت زیر است. چون من فقط می خواهم روش را بدانم، کد را ساده کردم. dataflc1<-read.table(data.txt,header=TRUE) as.character(dataflc1$sex) as.character(dataflc1$houstype) library(gbm) dataflc1.output<-gbm(y~جنس+سن+ درآمد+منطقه+قیمت خانه+هوستایپ، داده=dataflc1، توزیع = adaboost، n.trees=2، keep.data=TRUE، interaction.depth | چگونه مقادیر برازش را هنگام استفاده از AdaBoost از طریق بسته gbm در R محاسبه کنیم؟ |
2971 | اگر یک تابع غیر خطی را به مجموعه ای از نقاط برازش دهید (با فرض اینکه برای هر آبسیسا فقط یک ارتین وجود دارد) نتیجه می تواند این باشد: 1. یک تابع بسیار پیچیده با باقیمانده های کوچک 2. یک تابع بسیار ساده با باقیمانده های بزرگ اعتبار سنجی متقاطع است. معمولاً برای یافتن بهترین سازش بین این دو افراط استفاده می شود. اما بهترین به چه معناست؟ آیا به احتمال زیاد است؟ چگونه می خواهید ثابت کنید محتمل ترین راه حل چیست؟ صدای درونی من به من می گوید که CV در حال یافتن نوعی راه حل حداقل انرژی است. این باعث می شود به آنتروپی فکر کنم، که به طور مبهم می دانم که هم در آمار و هم در فیزیک رخ می دهد. به نظر من بهترین تناسب با به حداقل رساندن مجموع توابع پیچیدگی و خطا ایجاد می شود، یعنی به حداقل رساندن m که در آن m = c (پیچیدگی) + e (خطا) آیا این منطقی است؟ توابع c و e چه خواهند بود؟ لطفا با استفاده از زبان غیر ریاضی توضیح دهید، زیرا من ریاضیات زیادی را نمی فهمم. | تعریف بهترین در اصطلاح بهترین تناسب و اعتبار متقاطع چیست؟ |
87487 | **نسخه کوتاه** آیا **در هر درمان** زمان داده شده و این مجموعه داده تفاوتی وجود دارد؟ **یا** اگر تفاوتی که میخواهیم نشان دهیم مهم است، بهترین روشی که برای آشکار کردن این موضوع داریم چیست؟ **نسخه طولانی** بسیار خوب، ببخشید اگر کمی _biology 101_ باشد، اما به نظر می رسد که این یک مورد لبه ای است که در آن داده ها و مدل باید به روشی درست کنار هم قرار گیرند تا بتوان نتیجه گیری کرد. به نظر یک مسئله رایج است... بهتر است به جای تکرار این آزمایش با حجم نمونه بزرگتر، یک شهود را نشان دهیم. فرض کنید من این نمودار را دارم که میانگین +- std را نشان می دهد. خطا:  حالا، به نظر می رسد که اینجا تفاوتی وجود دارد. آیا می توان این را توجیه کرد (پرهیز از رویکردهای بیزی)؟ رویکرد افراد سادهاندیش این است که روز 4 را بگذرانند و از آزمون _t_ استفاده کنند (مثلاً: واریانس دو طرفه، جفت نشده، نابرابر)، اما در این مورد کار نمیکند. به نظر میرسد که واریانس بسیار زیاد است، زیرا ما فقط 3 برابر اندازهگیری در هر نقطه زمانی داشتیم (اشتباه. بیشتر طرح من، p = 0.22). **ویرایش** در بازتاب رویکرد آشکار بعدی ANOVA بر روی یک رگرسیون خطی خواهد بود. این را در پیش نویس اول نادیده گرفتم. به نظر می رسد این نیز رویکرد درستی نیست، زیرا مدل خطی معمول به دلیل ناهمگونی (_واریانس اغراق آمیز در طول زمان_) دچار اختلال شده است. **پایان ویرایش** حدس میزنم راهی برای گنجاندن **همه** دادهها وجود داشته باشد که با یک مدل ساده (1-2 پارامتر) رشد در طول زمان به ازای هر متغیر پیشبینیکننده مطابقت داشته باشد، سپس این مدلها را با استفاده از آزمونهای رسمی مقایسه کنید. این روش باید قابل توجیه باشد و در عین حال برای مخاطبان نسبتاً غیر پیچیده قابل دسترسی باشد. من به «مقایسه منحنیهای رشد» در statmod نگاه کردم، در مورد grofit مطالعه کردم و یک مدل خطی با اثرات مختلط را امتحان کردم که از این سؤال در SE اقتباس شده است. این دومی نزدیکترین به صورتحساب است، اگرچه در مورد من اندازهگیریها از **سوژه یکسان** در طول زمان نیستند، بنابراین مطمئن نیستم که مدلهای با جلوههای ترکیبی/چندسطحی مناسب باشند. یک رویکرد معقول این است که نرخ رشد در هر زمان را به صورت خطی و ثابت مدل کنیم و اثر تصادفی آن **Tx** باشد، سپس اهمیت آن را آزمایش کنیم، اگرچه من جمعبندی میکنم که در مورد مزایای چنین رویکردی بحثهایی وجود دارد. (همچنین این روش یک مدل خطی را مشخص میکند که به نظر نمیرسد بهترین راه برای مدلسازی مقایسه رشد باشد که در مورد یک پیشبینیکننده هنوز به مرز بالایی برخورد نکرده و در دیگری اساساً ثابت به نظر میرسد. من حدس میزنم که وجود دارد. یک رویکرد مدل با اثرات ترکیبی تعمیم یافته برای این مشکل که مناسب تر است.) اکنون کد: df1 <- data.frame(Day = rep(rep(0:4، هر=3)، 2)، Tx = rep(c(کنترل، BHB)، هر=15)، y = c(rep(16e3، 3)، 32e3، 56e3 ، 6e3، 36e3، 14e3، 24e3، 90e3، 22e3، 18e3، 246e3، 38e3، 82e3، rep(16e3، 3)، 16e3، 34e3، 16e3، 20e3، 20e3، 24e3، 4e3، 12e3، 16e3، 20e3، 5e3، 12e3 <error st#d#E3 sqrt(var(x)) / sqrt(length(x)) library(plyr) ### به عنوان میانگین و خطای استاندارد خلاصه می شود تا بتوان df2 را رسم کرد <- ddply(df1, c(Day، Tx)، خلاصه، m1 = mean(y)، se = stdErr(y) ) library(ggplot2) ### نمودار با موقعیت جاخالی دادن pd <- position_dodge(.1) ggplot(df2، aes(x=روز، y=m1، رنگ=Tx)) + geom_errorbar(aes(ymin=m1-se، ymax=m1+se)، عرض=.1، موقعیت=pd ) + geom_line(position=pd) + geom_point(position=pd, size=3) + ylab(No. سلول / میلی لیتر) برخی از آزمایشات رسمی: ### آزمون t روز 4 با (df1[df1$Day==4، ]، t.test(y ~ Tx)) ### anova anova(lm(y ~ Tx + روز، df1)) ### کتابخانه مدل اثرات مختلط (nlme) f1 <- lme(y ~ روز، تصادفی = ~1|Tx، data=df1[df1$Day!=0, ]) کتابخانه (RLRsim) exactRLRT(f1) این آخرین توزیع نمونه محدود شبیه سازی شده RLRT (p-value بر اساس 10000 مقدار شبیه سازی شده): RLRT = 1.6722، p-value. = 0.0465 که با توجه به فرضیه صفر مبنی بر اینکه **درمان** روی **تغییر در طول زمان وجود ندارد_** باز هم نزدیک به 0.05 است. اهمیت مدل سازی در اجتناب از تکرار بیهوده آزمایشی بیشتر | تفاوت در رشد را در طول زمان نشان دهید |
62372 | من دو شکل فایل چند ضلعی دارم و می خواهم ببینم میزان همپوشانی مشاهده شده تا چه حد به دلیل شانس است. من به نوعی آزمایش جایگشت فکر می کنم، اما مطمئن نیستم که بهترین راه برای ادامه چیست. یک ایده این است که به طور تصادفی چند ضلعی ها را در یک شکل فایل به مکان های جدید منتقل کنید، مساحت کل تقاطع را اندازه گیری کنید، سپس این کار را هزاران بار یا بیشتر تکرار کنید تا توزیعی از مناطق تقاطع به دست آید. سپس می توانم اندازه گیری کنم که ناحیه مشاهده شده چقدر در مقایسه با توزیع مناطق تصادفی است. من اخیراً یک سؤال GIS دارم که به این رویکرد مربوط می شود، این یک نظر در مورد آن سؤال انگیزه این سؤال بود. ایده دیگر این است که دو شکل فایل polgyon را در یک شکل فایل ترکیب کنید، سپس به طور تصادفی برچسب های دو نوع چند ضلعی را تغییر دهید، مساحت کل تقاطع را در طرح برچسب گذاری جدید اندازه گیری کنید، سپس تکرار کنید، و غیره مانند بالا. مورد استفاده خاص چیزی شبیه به این است: یک شکل فایل چند ضلعی حاوی چند ضلعی از مناطق فعالیت انسانی است (چند چند ضلعی بزرگتر). شکل فایل چند ضلعی دیگر شامل چند ضلعی از خطوط کلی سنگ (بسیاری چند ضلعی کوچکتر) است. سوال این است که آیا آرایش مشاهده شده سنگ ها توسط مناطق فعالیت تعیین می شود یا خیر: آیا مردم روی مناطق فعالیت خود سنگ گذاشته اند یا ما فقط به توزیع طبیعی سنگ ها نگاه می کنیم؟ آیا هر یک از دو ایده برای آزمایش این در مسیر درستی هستند یا باید به چیزی کاملاً متفاوت فکر کنم؟ هر گونه بینش بسیار خوش آمدید! | تست همپوشانی غیر تصادفی چند ضلعی ها |
79156 | به دنبال چند نکته و ایده هستید. من هر روز لیستی از تعداد قرار ملاقات های هر روز برای دو هفته آینده برای یک کلینیک دریافت می کنم. من سابقه بسیار خوبی از این لیست دارم و تعداد واقعی بازدیدهایی که هر روز دیده می شود. بنابراین برای هر روز میتوانم به تعداد بازدیدهای واقعی، تعداد کل قرارهای برنامهریزیشده برای آن روز یک روز زودتر، دو روز زودتر، ...، 14 روز قبل نگاه کنم. آرزوی من این است که پیش بینی هایی را برای تعداد واقعی قرار ملاقات هایی که می توانند برای 14 روز آینده انتظار داشته باشند ایجاد کنم. سادهترین پاسخی که میتوانم به آن بدهم این است که مدلهای سری زمانی فصلی را بر اساس بازدیدهای واقعی ایجاد کنم و از قرارهای آینده به عنوان یک طبقه استفاده کنم (مثلاً اگر ۱۰ قرار برای ۷ روز آینده برنامهریزی شده باشد، نباید پیشبینی کنم که آنها فقط خواهند بود. دارای 8 قرار ملاقات). اما، این ایده آل نیست، زیرا در نظر نمی گیرد که اگر 10 قرار وجود داشته باشد، 1 یا بیشتر ممکن است نشان داده نشود. من به نوعی می خواهم داده های تاریخی را که دارم در پیش بینی ها گنجانده باشم. استفاده از قرارهای آینده به عنوان عوامل، ایده خوبی به نظر نمی رسد زیرا مستقل نیستند. من هیچ نمونه ای از کسی که پیش بینی هایی را با این نوع داده انجام دهد پیدا نکردم. آیا راهی برای استفاده بالقوه از این داده ها به روشی بهتر وجود دارد؟ FYI: من لزوماً به هیچ فناوری وابسته نیستم، می توانم از R یا SAS استفاده کنم. | پیش بینی سری های زمانی قرار ملاقات با پیش ثبت نام |
2976 | سوالات: 1. من یک ماتریس همبستگی بزرگ دارم. به جای خوشهبندی همبستگیهای فردی، میخواهم متغیرها را بر اساس همبستگیهایشان با یکدیگر خوشهبندی کنم، یعنی اگر متغیر A و متغیر B همبستگیهای مشابهی با متغیرهای C تا Z داشته باشند، A و B باید بخشی از یک خوشه باشند. یک مثال واقعی خوب از این، کلاسهای دارایی مختلف است - همبستگیهای درون طبقه دارایی بالاتر از همبستگیهای کلاس بین دارایی است. 2. من همچنین در حال خوشه بندی متغیرها بر حسب رابطه قدرت بین آنها هستم، به عنوان مثال وقتی همبستگی بین متغیرهای A و B نزدیک به 0 باشد، آنها کم و بیش مستقل عمل می کنند. اگر ناگهان برخی از شرایط اساسی تغییر کنند و یک همبستگی قوی (مثبت یا منفی) ایجاد شود، میتوانیم این دو متغیر را متعلق به یک خوشه بدانیم. بنابراین به جای جستجوی همبستگی مثبت، به دنبال رابطه در مقابل عدم رابطه است. حدس میزنم یک قیاس میتواند خوشهای از ذرات باردار مثبت و منفی باشد. اگر بار به 0 برسد، ذره از خوشه دور می شود. با این حال، هر دو بار مثبت و منفی ذرات را به خوشه های آشکار جذب می کنند. من عذرخواهی می کنم اگر برخی از این خیلی واضح نیست. لطفا به من اطلاع دهید، من جزئیات خاص را روشن خواهم کرد. | خوشه بندی متغیرها بر اساس همبستگی بین آنها |
24493 | من یک شک اساسی در کاهش ابعاد برای مجموعه داده های متنی دارم. 20گروه خبری، rcv1 و غیره. در ابتدا تعداد وقوع کلمه در هر سند را استخراج میکنم، یعنی کلمه x ماتریس سند $n \times d$ است که $n$ تعداد اسناد و $d$ بعد است. من می خواهم بعد را کاهش دهم، بگویم $d_1 << d$. تکنیک استاندارد کاهش ابعاد چیست؟ 1. ویژگی برتر $d_1$ را از ماتریس وقوع کلمه اصلی $( n \times d)$ انتخاب کنید و سپس TF-IDF را برای ماتریس کاهش یافته $(n \times d_1)$ محاسبه کنید، یا 2. TF-IDF را محاسبه کنید. ماتریس برای $n \times d$ ماتریس و سپس ویژگی های برتر $d_1$ را انتخاب کنید. همچنین، در بسیاری از متون ذکر شده است که ویژگی برتر انتخاب شده است. می خواستم بدانم انتخاب ویژگی های برتر یعنی چه؟ چگونه آن را تعریف می کنند؟ | چگونه برای مجموعه داده سند متنی ابعاد را کاهش دهیم؟ |
79152 | من از الگوریتم لوید برای خوشه بندی استفاده می کنم. از آنجایی که به یک مقداردهی اولیه تصادفی متکی است و الگوریتم لوید می تواند در بهینه محلی تابع هدف k-means گیر کند، باید چندین بار آن را اجرا کنم. چند مقدار اولیه تصادفی مختلف را باید با الگوریتم لوید انجام دهم تا خوشه بندی بهینه با X% اطمینان حاصل شود؟ یا حداقل آیا هیچ قاعدهای وجود دارد که به تعداد مناسبی از مقداردهی اولیههای تصادفی توصیه کند؟ | چند مقدار اولیه تصادفی مختلف را باید با الگوریتم لوید انجام دهم تا خوشه بندی بهینه با X% اطمینان حاصل شود؟ |
58721 | من روی یک مشکل طبقه بندی باینری کار می کنم که اندازه معقولی دارد (100k مشاهده). من 60 ویژگی عددی را استخراج کردم. کلاس های مجموعه آموزشی به خوبی متعادل هستند. الگوهای خطی قابل توجهی وجود دارد، اما پس از آن الگوها بسیار غیر تصادفی به نظر میرسند و بنابراین من به مدلهای طبقهبندیکنندهای نیاز دارم که بتوانند با این موضوع مقابله کنند. من واقعاً به دنبال این هستم که بهترین دقت ممکن (تخمینی) را فدای تلاش محاسباتی کنم، بنابراین در حال بررسی ایجاد یک طبقهبندی گروه هستم. تا کنون، من نتایج بسیار خوبی را با موارد زیر دریافت کردهام: * طبقهبندیکننده جنگل تصادفی (دقت CV 90%) * طبقهبندیکننده SVM مبتنی بر شعاعی (87٪ دقت CV، هنوز مشغول تنظیم آن در یک شبکه دقیقتر). اکنون میپرسم آیا الگوریتمهای بالقوه جالب دیگری وجود دارد که بتوانم به ترکیب اضافه کنم (به عنوان مثال، سه الگوریتم برای رای اکثریت خوب است). امیدوارم مدل های متنوع به من کمک کنند تا برخی از تعصبات بالقوه باقی مانده را کنار بگذارم و دقت را کمی بهبود بخشم. ترجیحاً از الگوریتم های موجود از طریق بسته R's caret استفاده کنم. من در حال حاضر به فرآیندهای گاوسی نگاه می کنم. سابقه من در یادگیری ماشین خیلی نظری نیست. من واقعاً فقط تجربه صمیمانه ای با SVM، درختان تصمیم گیری و جنگل های تصادفی دارم، بنابراین فهرست الگوریتم های موجود در caret بسیار دلهره آور است و من در یافتن مطالعات کاربردی که آنها را با هم مقایسه می کنند، مشکل دارم. میدانم که پیشبینی عملکرد نسبی روی دادههای خاص دشوار است، اما من حاضرم تعدادی از آنها را بنویسم! | پیشنهاد الگوریتم های طبقه بندی را امتحان کنید |
115154 | نسبتاً جدید از نظر آمار. من از رگرسیون خطی استفاده می کنم و R^2 را دریافت می کنم که بسیار کم است. **MODEL 1** lmoutar=lm(فرمول = ts_y ~ ts_y_lag + ts_x) بنابراین با رگرسیور خارجی به arima تغییر داد. با استفاده از auto.arima، مدل arimax **MODEL 2** fitarima <- auto.arima(ts_y, xreg=ts_x) arimaout<-arima(ts_y,order=c(2,0,5),xreg= را فرموله کردم ts_x) چگونه می توانم توضیح پذیری مدل AR را با مدل arima مقایسه کنم. از موضوع چگونه می توانم مربع R یک رگرسیون را با خطاهای arima با استفاده از R محاسبه کنم؟، متوجه شدم که R^2 گزینه ای برای ARIMA نیست. از مقایسه مدل رشته ای بین یک مدل ARIMA و یک مدل رگرسیونی، AIC/BIC معیار درستی نیست و MSE از پیش بینی/پیش بینی می تواند معیارهای ممکن برای مقایسه بین مدل AR و ARIMA باشد. آیا MSE بهترین گزینه برای مقایسه مدل است، اگر چنین است چگونه می توانم MSE را برای AR و ARIMA ایجاد کنم؟ من سعی کردم مدل ar و arima بالا را با استفاده از anova مقایسه کنم، اما پیام خطای زیر را دریافت می کنم. حذف شد زیرا پاسخ با مدل 1 متفاوت است این پیام خطا به چه معناست؟ **_EDIT_** از پاسخگویی تا کنون و بینش مبنی بر اینکه AR در ARIMA تودرتو است متشکریم. چگونه می توان به این سوال پاسخ داد، اگر من دوباره به عنوان چگونه مدل های خطی AR، ARIMA و عمومی را مقایسه کنیم؟ اولین مدلی که لیست کردم دارای AR(1) و متغیر مستقل است. این یک مدل خطی کلی است. بنابراین چگونه می توانم یک مدل GLM را با مدل ARIMAX مقایسه کنم؟ هر چیز دیگری به جز MSE که بتوانم از آن برای قضاوت بین GLM و ARIMAX استفاده کنم | چگونه می توان مدل های AR و ARIMA را با هم مقایسه کرد؟ |
115152 | من دارم روی یک تحلیل با شخص دیگری کار می کنم. ابتدا یک رگرسیون لجستیک با گروه مطالعه و متغیر X انجام دادیم که هر دو معنیدار بودند. سپس برهمکنش بین گروه مورد و X را اضافه کردیم و فقط گروه مورد مطالعه را برهمکنش افزودیم و اثر متقابل معنی دار بود. در واقع 3 گروه وجود دارد که تنها یکی از گروه ها و یکی از تعاملات گروه*X معنادار است. من برای متقاعد کردن این شخص مشکل دارم که نباید نسبت های شانس X را از اولین تحلیل ارائه کنیم که این تعامل را در نظر نمی گیرند. این شخص فکر می کند که می توانیم نتایج تحلیل اول و سپس تجزیه و تحلیل دوم را نشان دهیم. من فکر می کنم این گمراه کننده است و مردم را سردرگم می کند. من در توضیح چیزها بهترین نیستم (همانطور که می توانید بگویید)، بنابراین هرگونه کمکی در مورد نحوه استدلال کردن نظر من قدردانی خواهد شد. | نتایج با و بدون تعامل |
79150 | من یک نظرسنجی در مورد قیمت گذاری انجام دادم و از پاسخ دهندگان خواستم بین گزینه A یا گزینه B یکی را انتخاب کنند. 61٪ گزینه A و 39٪ گزینه B را انتخاب کردند. حجم نمونه 90 است. چگونه می توانم تعیین کنم که آیا ٪ انتخاب گزینه A از نظر آماری معنی دار است؟ چه آزمونی را انجام دهم و چگونه؟ جداول متقاطع، آزمایشهای آماری را در ردیفها نشان میدهند (به عنوان مثال، درصد انتخاب گزینه A در گروه 1 از نظر آماری با انتخاب گزینه A در گروه 2 متفاوت است). با این حال، میخواهم در ستون مقایسه کنم (یعنی آیا % انتخاب گزینه A از نظر آماری با % انتخاب گزینه B در فاصله اطمینان 95% و 90%) که میخواهم در اکسل انجام دهم متفاوت است. مطمئن نیستم که چگونه از فرمول Binom.Dist استفاده کنید. من احساس می کنم که آزمون درستی است اما مطمئن نیستم. | چگونه تشخیص دهیم که انتخاب گزینه A از نظر آماری با انتخاب گزینه B در نظرسنجی متفاوت است؟ |
24325 | من اغلب از یک منحنی ROC و ناحیه زیر آن منحنی بهعنوان اندازهگیری دقت طبقهبندی کننده در مسائل 2 کلاسی استفاده میکنم، به عنوان مثال: #بارگذاری دادههای کتابخانه مجموعه داده (mlbench) (Sonar) # ساخت یک کتابخانه مدل (caret) model <- train (Class~., data=Sonar, method='gbm', tuneLength=1, trControl=trainControl(method='cv')) مدل #منحنی ROC و کتابخانه AUC(pROC) pMal <- predict(model, newdata=Sonar, type='prob')[,2] roc(Sonar$Class, pMal, plot=TRUE) >مساحت زیر منحنی: 0.9705 # منحنی لورز و جینی؟  به روشی مشابه، من میخواهم بتوانم منحنی لورنز را رسم کنم و ضریب جینی را برای طبقهبندیکننده خود محاسبه کنم. من Gini = 2*AUC-1 را می دانم، اما در واقع مطمئن نیستم که چگونه آن را به تنهایی محاسبه کنم. علاوه بر این، هر کاربرد منحنی لورنز که من دیدهام، به دادههای تک متغیره نگاه میکند (مثلاً توزیع درآمد). ** چگونه می توانم منحنی لورنز را محاسبه کنم وقتی 2 پارامتر دارم: احتمال پیش بینی شده کلاس مثبت و خود کلاس مثبت؟** | منحنی لورنز و ضریب جینی برای اندازه گیری عملکرد طبقه بندی کننده |
58726 | من تازه وارد آمار هستم و از Python 2.7 برای جا دادن مدل رگرسیون (جنگل تصادفی) استفاده می کنم. وقتی نمودار صدک قیمتها را قبل و بعد از تبدیل «log» رسم میکنم، ** نمودار درصدی** را دریافت میکنم _(سمت چپ: بدون تغییر. سمت راست: گزارش تبدیل شده)_  متوجه شدم که طرح خطی تر شد، به جز در ابتدا که کمی عجیب است. در چنین شرایطی چه خواهید کرد و چه چیزی ممکن است باعث آن ناهنجاری شده باشد؟ وقتی من فقط قیمت هایی را ترسیم می کنم که مقادیر بالاتری دارند (> 400000)، نمودار تبدیل می شود آیا اکنون به اندازه کافی خطی است؟ نمودار خطی به چه معناست؟ چگونه باید مقادیر کمتر از 400000 را که از استفاده برای برازش مدل رگرسیون حذف کرده ام، رفتار کنم؟ چگونه تصمیم می گیرید که متغیرها را نیز تبدیل به لاگ کنید؟ با انجام یک نمودار صدک مشابه؟ * * * **طرح چندکی-عادی** _(تغییر لاگ متغیر y)_ _سمت چپ: مجموعه آموزشی. راست: Test Set_  **طرح چندگانه-نرمال** _(_ **خیر** _تغییر متغیر y)_ _سمت چپ: مجموعه آموزشی. راست: Test Set_  چرا تبدیل گزارش کاری انجام نمی دهد؟ | نحوه مدیریت داده های رگرسیون که خطی نیستند |
67617 | بیایید تصور کنیم که من دادههایی را در یک طرح طولی جمعآوری کردهام که میتواند به تجزیه و تحلیل اثرات مختلط کمک کند. بنابراین فرض کنید من یک مطالعه تحقیقاتی با افراد انسانی انجام میدهم و پاسخها را مشاهده میکنم ($Y_{ij}$)، که در آن $i$ موضوع را مشخص میکند و $j$ نشاندهنده کارآزمایی است، جایی که کارآزمایی j$th شامل ترکیبی احتمالاً تکرارپذیر از متغیرهای کمکی در مدلهای جلوههای ترکیبی، «مقدار پیشبینیشده» برای پاسخ واقعی $i$th موضوع در آزمایش $j$th ($\widehat{Y_{ij}}$) میانگین وزنی پاسخی است که در واقع مشاهده شد، $Y_{ij}$، و میانگین نمایه میانگین پاسخ جمعیت، $X_i \widehat{\beta}$. اینکه هر عبارت چقدر وزن دارد، تقریباً به «اندازه» نسبی تنوع بین موضوع در مقابل درون موضوع بستگی دارد. آیا مشابهی برای رگرسیون خطی OLS وجود دارد؟ یعنی آیا می توان به طور مشابه مقدار پیش بینی شده را برای پاسخ، $\widehat{Y_i}$ به عنوان میانگین وزنی پاسخ مشاهده شده، $Y_i$ و چیز دیگری بیان کرد؟ | پاسخ های پیش بینی شده به عنوان میانگین های وزنی: رگرسیون کلاسیک در مقابل. مدل های اثر مختلط |
115157 | من میدانم که توزیع پیشبینی پسین چیست، و درباره چکهای پیشبینی پسینی مطالبی را مطالعه کردهام، اگرچه هنوز برای من مشخص نیست که چه کاری انجام میدهد. 1. بررسی پیش بینی پسین دقیقاً چیست؟ 2. چرا برخی از نویسندگان می گویند که اجرای بررسی های پیش بینی پسین استفاده از داده ها دو بار است و نباید از آنها سوء استفاده کرد؟ (یا حتی اینکه بیزی نیست)؟ (مثلاً این یا این را ببینید) 3. این بررسی دقیقاً برای چه مواردی مفید است؟ آیا واقعا می توان از آن برای انتخاب مدل استفاده کرد؟ (به عنوان مثال، آیا بر تناسب اندام و پیچیدگی مدل تاثیر می گذارد؟) | بررسی های پیش بینی پسین |
29912 | وقتی قانون اعداد بزرگ از کار بیفتد، بسامد یک رویداد به احتمال همگرا نمی شود، بنابراین منظور از احتمال در این موارد چیست؟ PS: لطفاً ارجاعات را به پاسخ ها اضافه کنید (در صورت امکان). | معنی احتمال زمانی که قانون اعداد بزرگ شکست بخورد |
115155 | من با مکانیک هر دو روش آشنا هستم، اما نمی دانم هنگام انتخاب بین این دو روش برای تنظیم پیشین، چه عواملی را باید در نظر بگیرم. من تصور میکنم که بهصورت موردی، میتوان بررسیهای پیشبینیکننده بعدی را انجام داد، پیچیدگی مدل و غیره را با هم مقایسه کرد تا ببیند کدام مدل بهترین مبادله را ارائه میدهد. اما در حالت کلی، چگونه می توان تصمیم گرفت که آیا از پیشینیان غیر اطلاعاتی در مقابل بیز تجربی استفاده کند؟ | بیز تجربی در مقابل پیشینیان غیر اطلاعاتی. |
24327 | توزیع متغیر $Y$ که با $$Y = \sum^N_{i=1} Z_i X_i $$ به دست میآید چقدر است که در آن: $Z_1,\dotsc,Z_N$ مستقل و به طور یکسان توزیع شدهاند و تابع چگالی $f_Z(z)$ شناخته شده است (یک توزیع مجذور کای جابجا شده)، $X_i \sim\chi^2_L(\lambda)$، جایی که $\lambda$ پارامتر غیر مرکزی است و $X_1,\dotsc,X_N$ i.i.d هستند. همچنین. سوال این است: (الف) وقتی $\lambda=0$ توزیع $Y$ چیست. (ب) وقتی $\lambda\ne 0$ توزیع $Y$ چیست. | مجموع متغیرهای مجذور کای |
34463 | فرض کنید $X=\log(Y)$ را می توان با مخلوطی از دو توزیع نرمال با نسبت $p$ از $X_1$ و نسبت $1-p$ از $X_2$ مدل کرد، که در آن $X_1\sim\mathcal N(U_1 ، \sigma^2_1)$ و $X_2\sim\mathcal N(U_2، \sigma^2_2)$. چگونه $E(Y)$ را محاسبه می کنید. یعنی $E(\exp(X))$ که در آن $X$ ترکیبی از دو نرمال است؟ | چگونه مقدار مورد انتظار توزیع لگ نرمال مختلط را محاسبه می کنید؟ |
91778 | یکی از همکاران در حال انجام یک متاآنالیز بیزی از برخی مطالعات دارویی در مقیاس بزرگ است. اگرچه او تجربه ای با متاآنالیز «متعارف» دارد، اما در رویکرد بیزی جدید است. ما چندین مقاله با مطالعات و رویکردهای مرتبط خواندهایم، و برخی از نویسندگان میانگین غلظت دارو را گزارش میکنند، در حالی که برخی دیگر میانگینها را گزارش میکنند. آیا یکی از دیگری در زمینه بیزی مناسب تر است؟ | متاآنالیز بیزی |
24492 | من قصد دارم یک رگرسیون تعدیل شده روی مجموعه داده خود با دو IV اجرا کنم. * یکی از آنها یک نوع داده بازهای ساده، بین آزمودنیهای IV است (مثلاً سطح اضطراب). * دیگری یک نوع داده طبقه بندی شده است، در موضوعات چهارم (مثلاً نوع موقعیت اجتماعی). * DV نمرات نتیجه روی یک متغیر است (مثلاً سازگاری روانی). من پیش بینی می کنم که سطح اضطراب تعدیل کننده تأثیر موقعیت اجتماعی بر سازگاری روانی است. سوال من این است: * چگونه می توانم رگرسیون تعدیل شده را اجرا کنم زیرا همه شرکت کنندگان در طبقه بندی چهارم نمرات یکسانی خواهند داشت، زیرا این یک متغیر درون موضوعی است. یعنی همه شرکت کنندگان برای موقعیت اجتماعی A 0 و برای موقعیت اجتماعی B و غیره 1 خواهند داشت؟ * آیا بهتر است یک ANOVA طراحی مختلط دو طرفه را اجرا کنم؟ | رگرسیون تعدیل شده برای متغیر طبقه بندی شده درون موضوعی |
29220 | من یک برنامه نویس هستم، با دانشی مناسب اما نه متخصص در مورد آمار، و در حال کار بر روی این دستورالعمل ها برای نحوه ایجاد نمودارهای قیف هستم. من می دانم که ابزارهای آماده بهتری (به عنوان مثال R) برای تولید نمودارهای قیف وجود دارد، اما این دستورالعمل ها به درک اصول اولیه نمودارهای قیف کمک می کند. بنابراین، سوال من: **مرحله 4 در دستورالعمل به یک نوع خاص خطای استاندارد اشاره دارد. چرا خاص است؟** و، آیا می توانم به طور معتبر روش محاسبه خطای استاندارد را در این دستورالعمل ها کپی کنم تا برای هر مجموعه داده ای که شامل تعداد جمعیت خام و تعداد حوادث خام است، یک نمودار قیف بسازم؟ | محاسبه خطای استاندارد برای نمودارهای قیف |
34465 | از نظریه آمار توسط مارک جی. شرویش (صفحه 12): اگر چه قضیه نمایش دفینتی 1.49 مرکزی برای مدل های پارامتریک انگیزشی است، در واقع در اجرای آنها استفاده نمی شود. چگونه قضیه در مدل های پارامتری مرکزی است؟ | چه چیز جالبی در مورد قضیه نمایش دو فینتی وجود دارد؟ |
51566 | من یک مدل با حدود 200000 مشاهده آموزشی دارم که در آن در حال پسرفت هستم، با 4 عامل و 2 متغیر پیوسته. یکی از ویژگی های من دارای 927 سطح است که باعث می شود اجرای R randomForest با شکست مواجه شود (برای هر ویژگی محدودیت 32 سطح دارد). متأسفانه، من راه ساده ای برای اجتناب از استفاده از این عامل یا تجزیه آن به یک سری متغیرهای پیوسته نمی بینم. از آنجایی که پیشبینیکنندههای من ترکیبی از طبقهبندی و پیوسته هستند، به درختها فکر کردم. آیا کسی می تواند یک پیاده سازی متفاوت (پکیج یا زبان)، رویکرد ML یا روش بهتری برای پیش پردازش یا ماساژ ورودی های من پیشنهاد دهد؟ | فاکتور RandomForest با سطوح بسیار زیاد |
61610 | من به دنبال مشکلاتی در Statistics یا حوزه های کاربردی در Statistics هستم که با داده های سه طرفه یا داده های مرتبه بالاتر یا 3-Tensors سروکار دارند. آیا تنظیمات رگرسیونی وجود دارد که در آن متغیرهای کمکی به جای ماتریس (2-Tensor) به عنوان تانسور تانسور مرتبه بالاتر بیان شوند؟ | تانسورهای مرتبه بالاتر در آمار |
62021 | من یک سری زمانی از دادههای گزارش ماهانه مربوط به دستمزد ناخالص دارم، از ژانویه 2002 تا اوت 2008. من باید از استراتژی مدلسازی Box-Jenkins برای تعیین مدل صحیح ARIMA استفاده کنم، اما برای _نرخهای رشد دستمزد سالانه_. چگونه داده ها را به این فرم تبدیل کنم؟ با تشکر | تبدیل داده های گزارش ماهانه به نرخ رشد سالانه |
93736 | من سعی میکنم پتانسیلهای فاکتور را از مستندات PyMC درک کنم، اما در مورد قطعه پیادهسازی به کمک نیاز دارم - یا ممکن است معلوم شود که من به طور کلی نحوه عملکرد پتانسیلها را اشتباه متوجه شدهام. تصور کنید که ما در حال ساخت یک مدل نقطه سوئیچ پواسون هستیم که در آموزش مستندسازی PyMC مشخص شده است. اکنون می خواهیم یک پتانسیل عامل را دقیقاً همانطور که در مستندات توضیح داده شده است معرفی کنیم، به طوری که تفاوت بین میانگین پواسون اولیه و متأخر کمتر از 1 باشد. وقتی سعی کردم پتانسیل را مانند کد زیر پیاده سازی کنم، می بینم که مقادیر خارج از حد مجاز است. محدودیت در توزیع خلفی ظاهر می شود. چرا توزیع پسین پتانسیلCheck حاوی این مقادیر است؟ بدیهی است که من کار اشتباهی انجام میدهم... از pymc import DiscreteUniform، نمایی، قطعی، Poisson، Uniform، بالقوه واردات numpy به عنوان np disasters_array = \ np.array([ 4, 5, 4, 0, 1, 4, 3, 4، 0، 6، 3، 3، 4، 0، 2، 6، 3، 3، 5، 4، 5، 3، 1، 4، 4، 1، 5، 5، 3، 4، 2، 5، 2، 2، 3، 4، 2، 1، 3، 2، 2، 1، 1، 1، 1، 3، 0، 0، 1، 0، 1، 1، 0، 0، 3، 1، 0، 3، 2، 2، 0، 1، 1، 1، 0، 1، 0، 1، 0، 0، 0، 2، 1، 0، 0، 0، 1، 1، 0، 2، 3، 3، 1، 1، 2، 1، 1، 1، 1، 2، 4، 2، 0، 0، 1، 4، 0، 0، 0، 1، 0، 0، 0، 0، 0، 1، 0، 0، 1، 0، 1]) نقطه سوئیچ = DiscreteUniform('switchpoint', low=0, upper=110, doc ='Switchpoint[year]') early_mean = نمایی ('Early_mean', beta=1.) late_mean = نمایی ('late_mean', beta=1.) @deterministic(plot=False) def rate(s=switchpoint, e=early_mean, l=late_mean): ''' Concatenate Poisson به معنی ''' out = خالی (len (disasters_array)) out[:s] = e out[s:] = l بازگشت @potential(plot=True) def examplePotential(em=early_mean, lm=late_mean ): if abs(em-lm) < 1: return e other: return 1. @deterministic(plot=True) def potencialCheck(e=early_mean, l=late_mean): '' پتانسیل برای ترسیم را تکرار کنید و بررسی کنید که آیا محدودیت وجود دارد یا خیر. = Poisson('dissaters', mu=rate, value=disasters_array, observed=True) Disaster_model = [switchpoint, early_mean, late_mean, examplePotential, potencialCheck] از واردات pymc MCMC M = MCMC(disaster_model) M.sample(iter=10 سوختن=1000، نازک=10) از نمودار وارد کردن pymc.Matplot به عنوان mcplot mcplot(M) | درک پتانسیل های عامل در PyMC |
62020 | من از بسته mlogit در R برای تخمین مدل انتخابی استفاده می کنم، من با مجموعه داده معروف Yogurt شروع کردم. کتابخانه (mlogit) داده (ماست) نامها (ماست) Yogdata <- mlogit.data(ماست، انتخاب = انتخاب، شکل = گسترده، متغیر = c(2:9)، sep=.) Yog1 < - mlogit(انتخاب ~ شاهکار+قیمت، داده = Yogdata) خلاصه (Yog1) phat <- Yog1$احتمالات Yname <-colnames(phat) Y1hat <- max.col(phat) Y1hatname <- Yname[Y1hat] preds = پیش بینی (Yog1,newdata=Yogdata) preds[100:120،] ماست[100:120,c('انتخاب' )] خروجی «preds» شامل احتمالاتی است که مجموع آنها 1 برای هر ردیف است. دانون هیلند وزن yoplait [1،] 0.3881972 0.03053851 0.2200040 0.3612603 [2،] 0.6834572 0.01580043 0.1138286 0.1138286 0.1138286 0.1374 0.18, 1374، 18، 0.18 0.03137184 0.2344462 0.3205015 [4،] 0.4136804 0.03137184 0.2344462 0.3205015 [5،] 0.4136804 0.044230.031 0.3205015 [6،] 0.4136804 0.03137184 0.2344462 0.3205015 [7،] 0.4136804 0.03137184 0.2344462 0.2344462 0.32040.320. 0.03137184 0.2344462 0.3205015 [1] دانون دانون یوپلیت یوپلیت دانون دانون دانون یوپلیت دانون [10] دانون یوپلیت یوپلیت دانون دانون دانون دانون دانون بیشترین احتمال در هر ردیف باشد. آیا این درست خواهد بود؟ وقتی این انتخاب را با انتخاب های واقعی از ماست مقایسه می کنم، برای همان ردیف ها، می بینم که مسابقات خیلی عالی نیستند. آیا راهی برای بهبود این مدل وجود دارد؟ آیا این روش درستی برای قضاوت درباره موفقیت این مدل است؟ | Logit چند جمله ای با داده های mlogit و Yogurt |
62025 | آیا میتوانید هر کتاب، مقاله، مقاله، آموزش آنلاین/دوره آموزشی و غیره را که برای یک اپیدمیولوژیست/آمارشناس زیستی جالب و مفید باشد تا در مورد فلسفه علیت/استنتاج علّی بیاموزد، توصیه کنید؟ من در مورد انجام استنتاج علّی از چارچوب epi و biostats تا حدودی میدانم، اما میخواهم چیزی در مورد فلسفهای که زیربنای این کار است و انگیزه آن است، بیاموزم. به عنوان مثال، درک من این است که هیوم ابتدا در مورد ایده هایی صحبت کرد که می توانند به عنوان خلاف واقع تفسیر شوند. من اساساً هیچ آموزش یا تجربه ای در زمینه فلسفه ندارم، بنابراین برای شروع به چیزی نسبتاً مقدماتی نیاز دارم، اما همچنین علاقه مند به توصیه هایی برای متون/نویسندگان پیچیده تر اما مهم/بنیادی هستم (اما لطفاً نشان دهید که مقدماتی نیستند). امیدوارم این موضوع برای تایید متقابل خیلی خارج از موضوع نباشد، اما امیدوارم که برخی از شما قبلاً در قایق من بوده باشید و بتوانید منابع مورد علاقه خود را به اشتراک بگذارید. | منابع آنلاین برای فلسفه علیت برای استنتاج علی |
23561 | در اینجا یک بلوک دیاگرام است که وقتی میخواهم واقعی بودن مدلم را تأیید کنم از آن استفاده میکنم.  در هر دور یک برابر 11/12 درصد از داده ها برای ایجاد مدل استفاده می شود (به عنوان مثال بردارهای ویژه PCA) بعد از 12 دور بررسی می کنم که مدل ها (مثلاً بردارهای ویژه PCA) از هر دور **از نظر آماری متفاوت نیستند و آیا آنها در واقع آیا من مدل را ثابت اعلام نکردم. در جایی که ایده این است که اگر یک مدل به معنای k-برابر پایدار باشد، به نوعی نشانه واقعی بودن مدل است، من خودم کم و بیش به آن فکر کردم (عمدتاً در آخرین مرحله تأیید) بنابراین، مایلم بدانم نظر شما در مورد آن چیست؟ آیا از روش های دیگری برای تأیید اینکه مدل من واقعی است آگاه هستید؟ | چگونه می توان مطمئن شد که مدل واقعی است؟ |
115156 | تعریف M-estimator برآوردگر (از Casella و Berger) به شکل $$\hat{\theta}=\min \sum_{i=1}^n \rho(X_i-\theta),$$ است. که در آن $X_1،X_2، \cdots، X_n$ داده های برخی از تابع $\rho$ است. تخمین LASSO به صورت $$\hat{\theta}=\min ||AX-\theta||_2^2 + \lambda ||\theta||_1,$$ برای برخی از ماتریس A و یک پارامتر برداری تعریف میشود. $\theta$. بسیاری از مقالات به LASSO به عنوان یک برآوردگر M اشاره می کنند که به نظر می رسد درست نباشد. آیا من اینجا چیزی را از دست داده ام؟ به نظر می رسد این تعریف به این معنی است که نمی توان هیچ برآوردگر M برای یک پارامتر برداری وجود داشت. | کمند M-Estimator چگونه است؟ |
34464 | من در بخشهایی از ادبیات پزشکی با استفاده از اصطلاحات مخلوط مورد و ریسک بدون هیچ گونه نقل قول یا توضیحی در مورد استفاده و انگیزه دقیق آنها از منظر مدلسازی مواجه شدهام. من اصول تعدیل متغیرهای کمکی را در مدلسازی رگرسیون چندگانه برای رسیدگی به اغتشاش (سوگیری) و طبقهبندی (کارایی) درک میکنم. با این حال، به نظر نمی رسد مرجعی برای بحث در مورد تعریف این اصطلاحات، تأثیر آنها بر تحلیل ها و اهداف استفاده از آنها پیدا کنم. آیا کسی می تواند به طور کلی توضیح دهد که چگونه و چرا از ترکیب موارد و تعدیل ریسک در عمل استفاده می شود؟ | تعدیل مخلوط موردی در مقابل تعدیل ریسک، تفاوت آنها در عمل و هدف چیست؟ |
23566 | FPCA چیزی است که من به طور تصادفی با آن برخورد کردم و هرگز نتوانستم بفهمم همه چیز در مورد چیست؟ لطفاً این مقاله را ببینید، و من ذکر می کنم: > PCA به دلیل > نفرین ابعاد (Bellman 1961) در تجزیه و تحلیل داده های عملکردی با مشکلات جدی مواجه می شود. نفرین ابعاد > از پراکندگی داده ها در فضای با ابعاد بالا سرچشمه می گیرد. حتی اگر ویژگیهای هندسی PCA معتبر باقی بماند، و حتی اگر تکنیکهای عددی نتایج پایدار ارائه دهند، ماتریس کوواریانس نمونه گاهی اوقات تخمین ضعیفی از ماتریس کوواریانس جمعیت است. برای غلبه بر این مشکل، > FPCA روش بسیار آموزنده تری برای بررسی کوواریانس نمونه > ساختار نسبت به PCA ارائه می دهد، من آن را متوجه نمی شوم: اشکالی که در مقاله ذکر شده در بالا ذکر شد: آیا PCA روش نهایی برای مدیریت نیست. وضعیتی مانند نفرین ابعاد و غیره؟ | تجزیه و تحلیل مؤلفه اصلی عملکردی (FPCA). همه چیز در مورد چیست؟ |
35738 | هنگام برازش برخی روابط $y_j=f_j(x_1, \ldots, x_p)+\epsilon_j$ بین یک پاسخ چند متغیره $y=(y_1, ..., y_k)$ و متغیرهای کمکی $x_i$، یک مشکل رایج این است که برای کدام مقادیر متغیرهای کمکی $x_i$ پاسخ $y_j$ یا توابع مدل $f_j$، به یک بهینه این مشکل در ادبیات در مورد مدل های سطح پاسخ کلاسیک است. البته به طور کلی نمی توان یک بهینه همزمان یافت، یعنی راه حلی $(x_1، \ldots، x_p)$ که برای آن تابع _every_ $f_j$ به بهینه خود می رسد. بر اساس داده های تجربی، رویکرد مطلوبیت برای این مشکل عبارت است از: * تعریف نوعی پاسخ متوسط $z=d_1(y_1)\cdots d_k(y_k)$، متناسب با یک مدل تک متغیره $z=g(x_1, \ldots ، x_p)+\epsilon$ و بهینه سازی تابع برازش تک متغیره $\hat g$; * یا ابتدا مدلهای رگرسیون تک متغیره $p$ را مطابقت دهید $y_j=\hat f_j(x_1, \ldots, x_p) + \epsilon_j$, $j=1,\ldots,p$ و سپس مقادیر متغیرهای کمکی $x_i$ را جستجو کنید. که برای آن توابع $\hat f_j$ با تعریف یک متغیر به نوعی بهینه همزمان می رسند. متوسط مدل $\prod d_j(\hat f_j)$ را نصب کرد و در نهایت بهینه خود را پیدا کرد. من به دلایل زیر جذب این رویکرد نمی شوم: * انتخاب توابع مطلوبیت $d_j$ به نظر من خیلی ظریف و دلخواه به نظر می رسد. حتی با دانش قبلی قوی و اهداف روشن (یک موقعیت عملی نادر). من تعجب نمی کنم که بسیاری از کاربران گزینه های متعددی را امتحان می کنند. ارائه شده توسط رویکرد مطلوبیت (حتی وقتی فرض کنیم که توابع مطلوبیت $d_j$ توابع خوبی هستند، نمی دانم که آیا می توان نوعی فاصله اطمینان را در مورد راه حل) * این رویکرد همبستگی بین پاسخ های تک متغیره $y_j$ را در نظر نمی گیرد. علاوه بر این، من به گزینه های جایگزین برای رویکرد مطلوبیت علاقه مند هستم. پترسون و سایر نویسندگان (به عنوان مثال به این ارائه پاورپوینت و ارجاعات ارائه شده در آن مراجعه کنید) رویکرد جذاب تری را پیشنهاد کردند: آنها با یک مدل خطی چند متغیره بیزی مطابقت دارند و سپس احتمال پیش بینی پسینی را بهینه می کنند که پاسخ چند متغیره $y$ متعلق به مجموعه ای از پیش تعیین شده $ باشد. دلار استرالیا برای این رویکرد نیازی به بیزی نیست: این احتمال را می توان به عنوان تخمینی از $\Pr(y\in A)$ نیز در نظر گرفت و همچنین می توانیم یک فاصله اطمینان در مورد احتمال بهینه شده $\Pr(y\in A) ارائه دهیم. ) دلار. کاربر باید $A$ را انتخاب کند اما با اهداف روشن، این انتخاب به اندازه انتخاب توابع مطلوبیت $d_j$ دلخواه نیست (مثلاً ما میخواهیم دما بالاتر از $20$ باشد، غلظتی بین $2$ و $4$). ..)، و آن را به خوبی تعریف کرده است. آیا جایگزین دیگری برای این مشکل بهینه سازی چندگانه می شناسید؟ **ویرایش 06/09/2012:** مقدمه این مقاله توسط Peterson & al بحث بسیار خوبی در مورد موضوع حاضر است. | رویکرد مطلوبیت به بهینهسازی چندگانه: اشکالات و جایگزینها |
34462 | من مجموعه ای از داده ها را دارم که به این صورت است: شخص 1 [48 رکورد کل] 2، 2، 2، 1، 2، 2، 1، 2، 1، 2، 1، 2، 2، 2، 1، 1، 1، 2، 1، 2، 2، 1، 2، 1، 1، 1، 1، 1، 1، 2، 2، 1، 2، 1، 1، 2، 2، 2، 2، 1، 1، 2، 2، 1، 2، 1، 1، 1، -- نفر 2 [56 رکورد کل] 1، 1، 2، 1 , 1, 1, 1, 1, 1, 1, 1, 2, 1, 1, 1, 1, 1, 1, 1، 2، 2، 2، 1، 2، 1، 1، 1، 2، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 1، 2، 1، 2، 2، 2، 2، 2، 2، 2، 1، 2، 1، 1، 1، 1، 2، 1، -- شخص 3 [18 رکورد کل] 1، 2، 1، 2، 1، 1، 1، 1، 2، 2، 1، 2، 2، 2، 1، 1، 1، 1، A '1' نشان دهنده پاسخ نادرست است ، و 2 نشان دهنده یک مورد صحیح است. من میخواهم بتوانم رکوردها را با هم مقایسه کنم تا ببینم آیا افراد موجود در مجموعه دادهها عملکرد قابل توجهی بالاتر یا کمتر از میانگین دارند. من در مورد استفاده از امتیازهای z و انحرافات استاندارد شنیده ام، اما مطمئن نیستم که آیا این رویکرد صحیح است یا حتی چگونه می توانم محاسبه را انجام دهم. من همچنین باید حداقل تعداد رکوردهای مورد نیاز خود را پیدا کنم تا به نتایج اطمینان کافی داشته باشم (اگر این عبارت صحیح باشد). اساساً، میخواهم مطمئن شوم که این تحلیل را فقط روی افرادی انجام میدهم که سوابق کافی برای به حداقل رساندن شانس بازی کردن دارند. مهارت های ریاضی من بسیار محدود است، بنابراین توضیح ساده بسیار قابل قدردانی است. | چگونه باید تشخیص دهم که آیا یک فرد با عملکرد معمولی متفاوت است؟ |
27679 | مشکلات اساسی کاهش قیمت سهام بر حجم سهام معامله شده چیست؟ این مجموعه داده سری زمانی است. مدلی که من استفاده میکنم این است: $$\ln(قیمت)=b_0+b_1t+b_2\ln(حجم)+\epsilon$$ همانطور که میبینید من یک روند زمانی $t$ را اضافه میکنم. به نظر می رسد که R2 و p-value خوب هستند، اما من بیشتر به تحلیل مقطعی عادت دارم، بنابراین واقعاً نمی دانم دارم چه کار می کنم. اگر کسی که اطلاعات بیشتری درباره سری های زمانی دارد به من اطلاع دهد که آیا این کاملا ساده لوحانه است، خوشحال می شوم. با تشکر | کاهش قیمت بر حجم |
51569 | من می خواهم یک شبکه عصبی برای طبقه بندی چند تصویر ساده و کارتونی مانند تصاویر زیر آموزش دهم (در حال حاضر فقط کلاس های _house_، _tree_ و _sword_ را دارم).    تصاویری که من (در حال حاضر) استفاده می کنم به 32x32 پیکسل کوچک شده اند و معماری شبکه فید فوروارد که استفاده می کنم 1024-512-256-3. این به این معنی است که من در نهایت با تعداد کل وزنها (به استثنای بایاسها) 1024*512 + 512*256 + 256*3 = 656128 مواجه میشوم که تعداد زیادی است و برخی از الگوریتمهای بهینهسازی عملکرد به دلیل آن حافظه موجود را خالی میکنند. معلومه که دارم کار اشتباهی میکنم آیا باید از معماری متفاوت یا نوع دیگری از شبکه عصبی (نه MPL) استفاده کنم؟ آیا باید اندازه تصویر را بیشتر کاهش دهم؟ وقتی مردم شبکه های عصبی را برای کارهای پیچیده تشخیص اشیا آموزش می دهند، چگونه از مصرف تمام حافظه خودداری کنند؟ | شبکه های عصبی برای طبقه بندی تصاویر ساده |
61616 | من به تازگی یک آزمایش حیوانی را به پایان رساندم. من یک گروه کنترل و یک گروه آزمایش را مقایسه کردم، تنها تفاوت بین این دو نوع رژیم غذایی است. برای تجزیه و تحلیل آماری از آزمون t گروه های مستقل استفاده کردم و نتیجه تفاوت معنی داری بین دو گروه نشان نداد. با این حال، داده ها نشان دهنده این تمایل است که گروه آزمایش در تمامی متغیرهای اندازه گیری شده از سود بیشتری برخوردار است. بنابراین، در مورد داده های خود چه باید بگویم؟ همه داده ها به طور معمول توزیع می شوند. سرپرست من گفت که شاید به دلیل استفاده از نمونه بسیار کوچک (هر گروه n=8) تفاوت قابل توجهی پیدا نکردم. او به من پیشنهاد کرد که یک تست احتمال یا چیزی برای برون یابی داده هایم انجام دهم (متاسفانه، من هیچ سرنخی ندارم که او در مورد چه چیزی صحبت می کند). بنابراین، آیا تجزیه و تحلیل آماری وجود دارد که بتوانم مانند آنچه سرپرستم به من گفته است از آن استفاده کنم؟ | آزمون تی تفاوتی را نشان نمی دهد، اما گروه آزمایش در همه متغیرهای اندازه گیری شده تمایل بیشتری نسبت به گروه کنترل نشان می دهد |
111946 | فرض کنید یک نمونه تصادفی از یک توزیع نرمال دو متغیره داریم که صفر به عنوان میانگین و یک به عنوان واریانس دارد، بنابراین تنها پارامتر ناشناخته کوواریانس است. MLE کوواریانس چیست؟ می دانم که باید چیزی شبیه $\frac{1}{n} \sum_{j=1}^{n}x_j y_j$ باشد، اما چگونه این را بدانیم؟ | حداکثر احتمال تخمین کوواریانس داده های نرمال دو متغیره زمانی که میانگین و واریانس مشخص باشد چقدر است؟ |
35731 | بیایید مشکل را تا حد امکان ساده کنیم. دو متغیر تصادفی مرتبط، X_1$ و $X_2$ را فرض کنید. بر اساس برخی دادهها، میانگین واقعی آنها $\mu_{X_1}$ و $\mu_{X_2}$ توسط نمونه به معنای $\hat\mu_{X_1}$ و $\hat\mu_{X_2}$ برآورد میشود. این برآوردها بی طرفانه است. اما حالا بیایید دو متغیر تصادفی خود را بر اساس میانگین نمونهشان مرتب کنیم و به متغیری که بالاترین میانگین نمونه را دارد نگاه کنیم. اکنون برای این متغیر تصادفی بالای فهرست، میانگین نمونه اکنون تخمینگر **سوگیری** میانگین واقعی آن است (تحت برخی مفروضات معقول، به عنوان مثال، میانگین این متغیرهای تصادفی خودشان به روشی خاص توزیع شدهاند. که توزیع یک میانگین دارد) -- تأیید آن توسط مونت کارلو آسان است. برای واضح بودن، نه دو بلکه هزار متغیر تصادفی را در نظر بگیرید و معنی واقعی آنها را مشابه کنید. سوال این است که این سوگیری چیست و چگونه آن را به صورت تحلیلی محاسبه کنم؟ من همچنین از برخی بحث های مفهومی در مورد اینکه چگونه سوگیری تخمین از مرتب سازی بر اساس مقادیر تخمینی ناشی می شود، قدردانی می کنم. | سوگیری تخمینی تخمین برتر در فهرستی که بر اساس مقدار مرتب شده است چیست؟ |
115153 | من داده های روزانه یک ساله دارم که فصلی هفتگی و سالانه دارد. در تعریف فصلی مشکل وجود دارد. اگر فصلی هفتگی من 7 چرخه (یک دوره برای هر روز) و فصلی سالانه 7*52 چرخه داشته باشد (52 هفته در سال هر یک 7 روز دارد)، من 364 چرخه سالانه خواهم داشت اما داده های من شامل 366 روز در سال نمونه است. پیشبینی درست نیست زیرا من فصلی بودن 364 را در نظر میگیرم اما دادههای 366 را دارم. از این رو ممکن است پیشبینیها تا 2 روز متوقف شود (راستش نمیدانم توضیح من منطقی است یا نه، زیرا من خودم در پیشبینی و تلاش برای درک چگونگی عملکرد فصلی هستم). | پیش بینی اشتباه برای داده ها با چرخه هفتگی و سالانه |
111389 | من میخواهم مدل جلوههای ترکیبی خطی را در مجموعه دادههای خود جای دهم، اما میخواستم بدانم که آیا کمیت مشاهدات در گروهها مهم است؟ من چند گروه با حدود 60 مشاهده در هر کدام دارم، اما تعدادی نیز وجود دارند که تنها 1 مشاهده دارند، بنابراین کنجکاو هستم که آیا به این دلیل تأثیری بر مدل جلوه های ترکیبی خطی من وجود خواهد داشت یا خیر. پیشاپیش ممنون | تعداد مشاهدات در گروه - مدل اثرات مختلط خطی |
27672 | مثال خوبی برای نشان دادن تفاوت بین تخمین و کالیبراسیون چیست؟ ویرایش: من به دنبال چیزی هستم که همان تعریف کالیبراسیون و تخمین را داشته باشد که کروگمن در اینجا استفاده می کند (یعنی به نوعی جایگزین هستند): > کالیبراسیون - که اساساً به معنای تغییر پارامترهای مدل شما است. > تا زمانی که با برخی از جنبه های داده مطابقت داشته باشد، به جای اینکه مدل > را به طور مسطح تخمین بزند | مثالی از تخمین در مقابل کالیبراسیون |
23563 | این سوالی است که چند وقت پیش اینجا مطرح کرده بودم. و می خواهم بدانم آیا راه حل های بیشتری برای آن از منظر ML فکر می کنید؟ متأسفانه، من نمی توانم از آزمون مک نمار به دلیل حجم نمونه کوچک استفاده کنم (بنابراین مقادیر به طور معمول توزیع نمی شوند) * * * چگونه می توانم مقایسه کنم که آیا خروجی یک طبقه بندی کننده به طور قابل توجهی متفاوت است؟ من یک مجموعه داده نسبتاً کوچک دارم که سعی می کنم آنها را طبقه بندی کنم. مجموعه آموزشی من شامل 24 آیتم است که از دو گروه مختلف، 12 مورد از هر گروه تشکیل شده است. هر مورد دو خاصیت دارد. من 12 مورد جدید دارم که می خواهم بر اساس این مجموعه آموزشی طبقه بندی کنم. (مطمئن نیستم که آیا اعداد برای سوال من خیلی مهم هستند یا نه...) من 5 طبقه بندی مختلف را آزمایش کرده ام و نتیجه طبقه بندی آنها به شرح زیر است: 1، 1، 0، 0، 0، 1، 1، 0، 0، 1 , 0, 0 0, 0, 0, 1, 0, 0, 1, 0, 0, 0, 1, 1 0, 0, 0، 0، 0، 0، 0، 0، 0، 1، 1، 1 0، 0، 1، 1، 0، 1، 1، 1، 0، 0، 0، 1 0، 0، 0، 1، 0، 0، 1، 0، 0، 0، 0، 1 چگونه می توانم آزمایش کنم که آیا این نتایج به طور قابل توجهی با یکدیگر متفاوت هستند؟ | چگونه می توانم تشخیص دهم که آیا نتیجه طبقه بندی کننده به طور قابل توجهی متفاوت است؟ |
61612 | کرانهای بالایی شناخته شده در مورد اینکه چند وقت یکبار هنجار اقلیدسی یک عنصر یکنواخت انتخاب شده $\:\\{-n,~-(n-1),~...,~n-1,~n\\}^ چیست؟ d\:$ بزرگتر از یک آستانه معین خواهد بود؟ من عمدتاً به کرانهایی علاقه مند هستم که وقتی $n$ بسیار کمتر از $d$ باشد، بطور تصاعدی به صفر همگرا می شوند. | کران دم در هنجار اقلیدسی برای توزیع یکنواخت در $\{-n,-(n-1),...,n-1,n\}^d$ |
74648 | **Notation.** اجازه دهید $y$، $a$، و $b$ بردارهای واقعی $n\times 1$، $p\times 1$، و $q\times1$ باشند. همچنین اجازه دهید $X$ و $Z$ ماتریسهای واقعی $n\ برابر p$ و $n \times q$ باشند. فرض کنید هیچ راه حلی وجود ندارد، $a$، برای $y = X a$. **سوال**. شرایط روی $Z$ چیست به طوری که $y = Xa + Zb$ برای هر انتخاب $b$ راه حلی نداشته باشد؟ **زمینه**. من با این مشکل در زمینه رگرسیون خطی مواجه شدم. این واقعیت که $y=Xa$ هیچ راه حلی ندارد، می تواند به این صورت تفسیر شود که هیچ ابرصفحه ای نمی تواند کاملاً با داده ها مطابقت داشته باشد. من در حال تجزیه و تحلیل توسعه ای از این مشکل هستم که من را به نیاز به پیدا کردن چیزی مشابه برای $y = Xa + Zb$ هیچ راه حلی ندارد هدایت می کند، اما در این مورد $b$ ثابت نیست و در واقع می تواند هر مقداری را در آن داشته باشد. ${\mathbb R}^q$. | معادلات رگرسیون خطی |
35732 | من چهار متغیر دارم و میخواهم یک مدل VAR بسازم، سپس میخواهم یک پیشبینی VAR روی یکی از متغیرها با استفاده از دادههای خودم برای پیشبینیهای سه متغیر دیگر انجام دهم. ** آیا بسته R یا فرآیندی از مناسب مدل وجود دارد که به من این امکان را می دهد؟** | R به دست آوردن یک پیش بینی VAR زمانی که برخی از نتایج متغیر قبلاً شناخته شده باشند |
27676 | من می دانم که بوت استرپ معمولی (با فرض معتبر بودن مفروضات لازم) کارآمدتر از بوت استرپ m-n است. با این حال، با فرض اینکه شما به دادههای واقعاً بزرگ دسترسی دارید (مانند نمونه ۱٪ از جستجوهای روزانه Google)، آیا استفاده از بوت استرپ معمولی که ممکن است مفروضات آن نقض شود منطقی است؟ | اگر N واقعاً بزرگی دارید، آیا استفاده از بوت استرپ معمولی در مقابل m-n ایده خوبی است؟ |
51564 | میخواهم ببینم آیا تفاوت در تعداد علائم BPD از ابتدای شروع تا پیگیری دو سال بعد میتواند عملکرد روانی اجتماعی را در پیگیری 2 ساله پیشبینی کند یا خیر. بنابراین میخواستم یک رگرسیون خطی با استفاده از امتیاز تفاوت (امتیاز BPD T1- BPD امتیاز T2) به عنوان IV و معیارهای مختلف عملکرد در T2 به عنوان DV انجام دهم (مثلاً امتیاز SOFAS به عنوان عملکرد کلی؛ مقیاس رتبهبندی همتا به عنوان عملکرد بین فردی؛ و برخی از معیارهای دودویی مانند کار کردن یا عدم کار در T2، بنابراین نیاز به تکمیل یک سری رگرسیون است. آیا استفاده از امتیاز تفاوت معتبر است؟ من در مورد استفاده از نمره تفاوت به عنوان یک متغیر وابسته مطالب زیادی خوانده ام اما مطمئن نیستم که آیا همان اطلاعات با استفاده از نمره تفاوت به عنوان IV مطابقت دارد یا خیر؟ حدس میزنم یک سوال اضافی این باشد که آیا استفاده از معیارهای T1 از متغیرهای نتیجه به عنوان متغیرهای کمکی در معادله رگرسیون برای اندازهگیری تغییر در آن متغیر نیز مناسبتر است؟ یا این یک سوال جداگانه است؟ من از هر نظری قدردانی می کنم زیرا مطمئن نیستم که چگونه ادامه دهم و در دایره ای می گردم تا بهترین وضوح را به دست بیاورم. | آیا استفاده از امتیاز تفاوت به عنوان یک متغیر مستقل در تحلیل رگرسیون معتبر است؟ |
110473 | من روی یک راه اندازی نرم افزار فاز اولیه کار می کنم تا به سایر شرکت های SaaS (نرم افزار به عنوان سرویس) کمک کنم تا مشتریان جدید خود را حفظ کنند. ما ایمیلهای خودکاری را ارسال خواهیم کرد که طوری طراحی شدهاند که به نظر میرسند به شکلی شخصی نوشته شدهاند. محتویات ایمیل به گونهای تنظیم میشود که نشان دهد چقدر زمان برای راهاندازی حسابهای SaaS خود سرمایهگذاری کردهاند. هدف ما ارسال حدود سه ایمیل به ازای هر مشتری جدید در هفته است. برنامه ایمیل ما در ساعات بیداری (8 صبح تا 8 بعد از ظهر) ایمیل می فرستد و هر ساعت یک بار به تاریخچه ارسال ایمیل برای حساب هر مشتری جدید نگاه می کند. بنابراین، تاریخچه ایمیل هر مشتری 84 بار در هفته (7*12) بررسی می شود. پس از بررسی تاریخچه ایمیل، تصمیم می گیرد که ایمیل ارسال کند یا خیر. رویکرد من برای کدنویسی این تابع فقط استفاده از یک احتمال برای راه اندازی یک ایمیل است، با درجه ای از اطمینان که در طول یک هفته، تعداد کل ایمیل های ارسال شده حدود سه خواهد شد. این امر سازگاری زیادی را فراهم می کند در حالی که در عین حال به نظر می رسد انسان است زیرا در زمان بندی تصادفی است. من چندین بار سعی کردم این را محاسبه کنم، و بهترین محاسبه من (1-(3/84))^84 احتمال 0.04713 را نشان داده است، اما من حدود سه هفته است که شبیه سازی را با 2500 پروفایل مشتری و تنها تعداد انگشت شماری از حساب ها در یک هفته 3 ایمیل تولید کرده اند. مشخص است که محاسبات من اشتباه است. مدتی است که دوره آماری را گذرانده ام و کاملاً مطمئن نیستم که به پاسخ درستی خواهم رسید :) نظرات شما قابل قدردانی است. | از 84 شانس در یک هفته، من می خواهم حدود 3 شانس واقعی باشد |
83718 | هدف اصلی من مدلی از فرم «Y ~ D + N» است. اما اجازه دهید بگوییم N و D به شدت با هم ارتباط دارند، بنابراین تصمیم میگیرم یک PCA روی آنها انجام دهم. ، 0.32، 0.6، 0.6)، N = c(84، 62، 83، 67، 72، 69، 68، 59، 81، 52، 63، 83))، .Names = c(D، N)، row.names = c(NA، -12L)، کلاس = داده .frame) PCA <- princomp(DN، cor = TRUE) خلاصه (PCA) #اهمیت اجزا: # Comp.1 Comp.2 #انحراف استاندارد 1.233169 0.6923106 #نسبت واریانس 0.760353 0.2396470 #نسبت تجمعی 0.760353 1.0000000 من از این نتایج احساس خوشحالی می کنم. و من میتوانم بردارهای جدید خود «Comp.1» و «~Comp.1» را از «PCA$scores» دریافت کنم که به من امکان میدهد «Y ~ Comp.1 + Comp.2» را انجام دهم. با این حال، اگر بخواهم بدانم کدام کامپیوتر بیشتر «D» یا «N» را توضیح میدهد، فکر میکنم از «PCA$loadings» استفاده میکنم. #بارگیریها: # Comp.1 Comp.2 #D -0.707 0.707 #N -0.707 -0.707 # Comp.1 Comp.2 #SS loadings 1.0 1.0 #Proportion Var 0.5 0.5 #Cumulative Var 0.5 1.0 من نمیدانم چرا بارگذاریها matrix هستند همه با هم برابرند... آیا comp2 بیشتر D است؟ سؤالات: 1. آیا این رویکرد صحیحی برای چیزی است که من در تلاش برای رسیدن به آن هستم؟ 2. چگونه می توانم نشان دهم که کدام جزء بیشتر با D و کدام با N توضیح داده می شود؟ | بارگذاری های اصلی |
111388 | من چند ماه پیش دوره یادگیری ماشین اندرو نگ را از طریق Coursera گذراندم، بدون توجه به بیشتر ریاضیات / مشتقات و در عوض روی اجرا و عملی بودن تمرکز کردم. از آن زمان من شروع به بازگشت به مطالعه برخی از نظریه های اساسی کردم و برخی از سخنرانی های پروفسور نگ را مجدداً مشاهده کردم. در حال خواندن سخنرانی او در مورد رگرسیون خطی منظم بودم، و دیدم که او تابع هزینه زیر را ارائه کرد: $$J(\theta) = \frac{1}{2m}[\sum_{i=1}^m( h_\theta (x^{(i)}) - y^{(i)})^2 + \lambda\sum_{j=1}^n\theta^2_j]$$ سپس، گرادیان زیر برای این تابع هزینه: $$\frac{\partial}{\partial \theta_j}J(\theta) = \frac{1}{m}[\sum_{i=1}^m(h_\theta ( x^{(i)}) - y^{(i)})x^{(i)}_j - \lambda\theta_j]$$ من کمی گیج هستم که چگونه از یکی به دیگری می رسد. وقتی سعی کردم مشتق خودم را انجام دهم، نتیجه زیر را داشتم: $$\frac{\partial}{\partial \theta_j}J(\theta) = \frac{1}{m}[\sum_{i=1 }^m(h_\theta (x^{(i)}) + y^{(i)})x^{(i)}_j + \lambda\theta_j]$$ تفاوت در علامت پلاس است بین تابع هزینه اصلی و پارامتر تنظیم در فرمول پروفسور Ng که به علامت منهای در تابع گرادیان تغییر می کند، در حالی که در نتیجه من این اتفاق نمی افتد. به طور شهودی میدانم که چرا منفی است: ما پارامتر تتا را با شکل گرادیان کاهش میدهیم، و میخواهیم پارامتر منظمسازی مقداری را که پارامتر را تغییر میدهیم کاهش دهد تا از برازش بیش از حد جلوگیری شود. من فقط کمی در محاسباتی که پشتوانه این شهود است گیر کرده ام. FYI، شما می توانید عرشه را در اینجا، در اسلایدهای 15 و 16 پیدا کنید. | استخراج تابع هزینه رگرسیون خطی منظم شده در هر دوره آموزشی ماشینی Coursera |
27670 | وقتی مردم از واریانس شبیه سازی صحبت می کنند، این به چه معناست؟ آیا واریانس شبیه سازی به صورت $N \rightarrow \infty $ ناپدید می شود؟ آیا مدلهایی که واریانس شبیهسازی کمتری برای یک N ثابت دارند، قویتر در نظر گرفته میشوند؟ | در اقتصاد سنجی ساختاری، منظور از واریانس شبیه سازی چیست؟ |
27677 | من به دنبال توضیح خوبی در مورد تفاوت بین اجرای رگرسیون با dummies سال به عنوان اثرات ثابت در مقابل dummies سال به عنوان متغیرهای ابزاری بودم. نمونه بارز این موضوع از مقاله جاش آنگریست در سال 1991، تخمین و آزمایش داده های گروهی در مدل های عرضه نیروی کار ساده آمده است http://www.sciencedirect.com/science/article/pii/030440769190101I | مدلهای جلوههای ثابت در مقابل مدلهایی که سالها به عنوان ابزار عمل میکنند |
73144 | من معمولاً افرادی را می بینم که تحلیل روند داده های سری زمانی (ماهانه) را انجام می دهند که یک چرخه بین سالانه قوی را به دنبال این طرح نشان می دهد: 1. محاسبه میانگین اقلیم شناسی (میانگین ژانویه، میانگین فوریه، ...، میانگین دسامبر) 2. ابزارهای اقلیمی را از داده های واقعی کم کنید تا یک سری زمانی ناهنجاری به دست آید. اقلیم شناسی در این مورد به معنای میانگین چند ساله ماه های فردی است، به عنوان مثال، میانگین 10 ژانویه از سال 2000 تا 2009. همانطور که نیک کاکس در نظر خود اشاره می کند، _ناهنجاری فقط به معنای انحراف از سطح مرجع است. هیچ مفهومی از هیچ چیز بیمارگونه یا بسیار غیرعادی وجود ندارد. در حالی که پاسخ user31264 برای فرآیندهایی که مؤلفه فصلی واقعاً صرفاً افزودنی است منطقی است. با این حال، در علم جو اغلب فرآیندهایی داریم که دامنه تغییرات فصلی به سطح پایه بستگی دارد، یعنی تا حدودی ضربی است. حتی در این سناریوها، مردم اغلب از رویکردی که در بالا توضیح دادم استفاده می کنند. با این حال، من در هیچ کجا نتوانستم توضیح آماری دقیقی در مورد اینکه چرا این رویکرد واقعاً معتبر است پیدا کنم. چرا رگرسیون خطی این ناهنجاری ها راه حل معقولی برای رگرسیون داده های سری زمانی اصلی است؟ آیا می توانید توجیهی به من بدهید که چرا انجام این کار معقول است؟ کسانی که از آنها پرسیدم بیشتر می گویند همه این کار را انجام می دهند ... | استفاده از ناهنجاری ها برای محاسبه روند داده های فصلی |
73143 | من یک نظرسنجی ترجیحی اعلام شده انجام دادم که در آن هر پاسخگو باید 1 مجموعه از 3 مجموعه انتخاب (A، B و C) را انتخاب می کرد که با 4 ویژگی (مثلاً نام تجاری، رنگ، اندازه و صفحه کلید بله/خیر) مشخص می شود. 2 یا 3 سطح. من سعی کردم ابزارها/ضرایب را با تخمین مدل لاجیت چند جمله ای با استفاده از بسته mlogit در R محاسبه کنم. برای محاسبه سودمندی ها برای ویژگی ها به خوبی کار می کند (من دقیقاً از اسکریپت ایو کروسان در مقاله او در مورد بسته mlogit پیروی کردم.) اما من می خواهم ضرایب را نه برای صفات، بلکه برای سطوح محاسبه کنم. می خواهم بدانم چه کاربردی دارد مثلا برای رنگ آبی. چگونه می توانم این را محاسبه کنم؟ اصلا میشه با پکیج mlogit یا R محاسبه کرد؟ من برای هر توصیه ای سپاسگزارم! | چگونه می توانم برنامه های کاربردی را برای سطوح ویژگی در تحلیل مشترک در R محاسبه کنم؟ |
111383 | من چندین پست CV را در مورد رگرسیون لجستیک باینری میخواندم، اما هنوز برای وضعیت فعلی خود گیج هستم. من سعی می کنم یک رگرسیون لجستیک باینری را با یک سری متغیرهای پیوسته و طبقه بندی به منظور پیش بینی مرگ و میر یا بقای حیوانات (وضعیت_کیفیت) منطبق کنم. لطفاً str زیر را ببینید: > str(logit) 'data.frame': 136 obs. از 9 متغیر: $ id : Factor w/ 135 level 01001,01002,...: 26 27 28 29 30 31 32 33 34 35 ... $ gear : Factor w/ 2 level j,sc : 2 1 1 2 1 2 1 2 2 1 ... عمق $: num 146 163 179 190 194 172 172 175 240 214 ... طول $ : num 37 35 42 38 37 41 37 52 38 37 ... $ شرط : فاکتور w/ 4 سطح 12، 4: 1 1 4 1 4 2 2 در آب 8.3 8.5 8.5 8.6 8.6 8.7 8.7 8.7 ... $ qual_status: Factor w/ 2 level 0,1: 1 1 2 1 2 1 2 1 1 1 ... من هیچ مشکلی در نصب باینری افزودنی زیر ندارم رگرسیون لجستیک با تابع 'glm': 'glm(qual_status ~ gear + عمق + طول + شرایط + در آب + در هوا + دمای دلتا، داده = logit، خانواده = دوجمله ای) ... اما من همچنین علاقه مندم که چگونه این متغیرهای پیش بینی کننده با یکدیگر تعامل دارند و احتمالاً بر بقا تأثیر می گذارند. با این حال، زمانی که من رگرسیون لجستیک باینری تعاملی زیر را امتحان میکنم: «glm(وضعیت_کیفیت ~ چرخ دنده * عمق * طول * وضعیت * در آب * در هوا * delta_temp، داده = logit، خانواده = دوجملهای)` یک پیام هشدار دریافت میکنم «glm.fit : احتمالات برازش عددی 0 یا 1 رخ داده است` همراه با ضرایب از دست رفته به دلیل تکینگی ها (NA یا <2e-16 _*_) وقتی از «خلاصه» استفاده می کنم: فراخوانی: glm (فرمول = وضعیت_کیفیت ~ چرخ دنده * عمق * طول * وضعیت * در آب * در هوا * دمای دلتا، خانواده = دو جمله ای، داده = logit) انحراف باقیمانده ها: [1] 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 [36] 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 [71] 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 [106] 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 ضرایب: (122 به دلیل تکینگی ها تعریف نشده است) Estimate Std. خطای z مقدار Pr(>|z|) (برق) 1.419e+30 5.400e+22 26274077 <2e-16 *** gearsc -1.419e+30 5.400e+22 -26274077 <2e-11 ***p6. e+28 4.040e+20 34539471 <2e-16 *** طول 6.807e+28 1.836e+21 37079584 <2e-16 *** condition2 -3.229e+30 8.559e+22 -3772796 *** 772796 <3. e+31 4.636e+23 37671986 <2e-16 *** condition4 9.007e+31 2.388e+24 37724167 <2e-16 *** in_water -4.540e+28 1.263e+21 -35935 in_air *** -4.429e+28 1.182e+21 -37470809 <2e-16 *** delta_temp -1.778e+28 3.237e+21 -5492850 <2e-16 *** gearsc:depth -1.394e -0+28. 34539471 <2e-16 *** gearsc:length -6.807e+28 1.836e+21 -37079584 <2e-16 *** depth:length -9.293e+26 2.450e+19 -37930778 <2e-16 *** :condition2 1.348e+30 3.567e+22 37809001 <2e-16 *** gearsc:condition3 2.816e+30 7.495e+22 37575317 <2e-16 *** gearsc:condition4 NA NA NA NA برازش تنها متغیرهای باینری پیوسته به یک رگرسیون باینری پیوسته انجام نمی شود هیچ اخطاری ندهد یا تکینگی ها اما اضافه کردن متغیرهای پیش بینی کننده ترتیبی باعث ایجاد مشکلات می شود. همراه با اجتناب از این هشدارها، آیا تابع/بسته ای وجود دارد که بتواند متغیرهای ساختگی (من معتقدم این همان چیزی است که من به دنبال آن هستم) در رگرسیون های لجستیک در «R» مدیریت کند؟ | رگرسیون لجستیک باینری با شرایط تعامل |
51690 | من سعی می کنم کمپین گوگل ادوردز خود را بهینه کنم (تبلیغات آنلاین در جستجوی گوگل) و به سوال «اهمیت آماری» زیر برخورد می کنم. من یک کمپین با کلمات کلیدی زیادی (حدود 400 کلمه کلیدی) راه اندازی کردم و در مجموع 291 کلیک (بازدید) و 34 تبدیل (مشتری) دریافت کردم. اکنون می خواهم کمپین خود را بهینه کنم و روی آمار کلمات کلیدی تمرکز می کنم. من می بینم که مجموعه ای از 10 کلمه کلیدی _به نظر می رسد_ بسیار بهتر از بقیه عمل می کند: گروه کلمات کلیدی A (10 کلمه کلیدی - بهترین): 47 کلیک، 16 تبدیل گروه کلیدواژه B (390 کلمه کلیدی - بقیه): 244 کلیک، 18 کلیک تبدیل ها اگر این داده ها را در یک ماشین حساب سنجش اهمیت تست A/B اعمال کنم، 99% اطمینان حاصل می کنم که A بهتر از B است. (من از این ماشین حساب اهمیت تست A/B رایگان استفاده کردم). آیا می توانم در نظر بگیرم که گروه A در تبدیل بهتر از گروه B است؟ یا من یک فرضیه اشتباه می کنم؟ من گیج شدهام زیرا تمام مقالاتی که خواندهام به تستهای A/B اشاره میکنند که در آن A و B نمونههای تکی هستند (مثلاً فقط یک کلمه کلیدی)، و نه گروهی از موارد (مجموعهای از کلمات کلیدی). | اهمیت آماری نتایج در دادههای تبدیل گروهی از کلمات کلیدی Adwords |
110472 | فرآیند تولید داده عبارت است از: $y = \text{sin}\Big(x+I(d=0)\Big) + \text{sin}\Big(x+4*I(d=1)\ بزرگ) + I(d=0)z^2 + 3I(d=1)z^2 + \mathbb{N}\left(0,1\right)$ اجازه دهید $x,z$ دنباله ای از $-4$ تا $4$ طول $100$ و $d$ فاکتور مربوطه $d\in\\{0,1\\}$ باشد. برای محاسبه $y$، تمام ترکیبات ممکن از $x,z,d$ را انتخاب کنید:  با استفاده از B-spline (بدون مرکز) -پایه برای $x,z$ برای هر سطح از $d$ توسط partition-of-unity-property (مجموع ردیف ها به 1) امکان پذیر نخواهد بود. چنین مدلی (حتی بدون رهگیری) قابل شناسایی نخواهد بود. مثال: _(تنظیم: 5 فاصله گره داخلی (توزیع یکنواخت)، B-Spline درجه 2، تابع spline یک سفارشی است)_ # ترسیم دنباله n <- 100 x <- seq(-4 ,4,length.out=n) z <- seq(-4,4,length.out=n) d <- as.factor(0:1) data <- CJ(x=x,z=z,d=d) set.seed(100) # setup the model data[,y := sin(x+I(d= =0)) + sin(x+4*I(d==1)) + I(d==0)*z^2 + 3*I(d==1)*z^2 + rnorm(n, 0,1)] # ایجاد B-Spline-Basis بدون مرکز برای x و z X <- داده[, spline(x,min(x),max(x),5,2,by=d, intercept=FALSE)] > head(X) x. 1d0 x.2d0 x.3d0 x.4d0 x.5d0 x.6d0 x.7d0 x.1d1 x.2d1 x.3d1 x.4d1 x.5d1 x.6d1 x.7d1 [1،] 0.5 0.5 0 0 0 0 0 0.0 0.0 0 0 0 0 0 [2،] 0.0 0.0 0 0 0 0 0 0.5 0.5 0 0 0 0 0 0 [3،] 0. 0 0 0 0.0 0.0 0 0 0 0 0 Z <- داده[, spline(z,min(z),max(z),5,2,by=d)] head(Z) z.1d0 z.2d0 z.3d0 z. 4d0 z.5d0 z.6d0 z.7d0 z.1d1 z.2d1 z.3d1 z.4d1 z.5d1 z.6d1 [1،] 0.5000000 0.5000000 0.00000000 0 0 0 0 0.0000000 0.0000000 0.00000000 0 0 0 [2،] 0.0000000 0.000 0.000 0 0.5000000 0.5000000 0.00000000 0 0 0 [3،] 0.4507703 0.5479543 0.00127538 0 0 0 0.0000000000000000 0 z.7d1 [1,] 0 [2,] 0 [3,] 0 # lm یک ستون spline برای هر فاکتور lm (y ~ -1+X+Z,data=da) فراخوانی: lm(فرمول = y ~ -1 + X + Z، داده = داده) ضرایب: Xx.1d0 Xx.2d0 Xx.3d0 Xx.4d0 Xx.5d0 Xx.6d0 Xx.7d0 Xx.1d1 Xx.2d1 Xx.3d1 Xx.4d1 Xx.5d1 23.510 19.912 18.860 22.177 23.080 19.794 18.794 18.727 18.757 67.082 68.642 Xx.6d1 Xx.7d1 Zz.1d0 Zz.2d0 Zz.3d0 Zz.4d0 Zz.5d0 Zz.6d0 Zz.7d0 Zz.1d1 Zz.2d1 Zz.3d1 69.159 - 69.1819 61.159 -19.361 -21.835 -19.698 -11.244 NA -1.329 -38.449 -62.254 Zz.4d1 Zz.5d1 Zz.6d1 Zz.7d1 -69.993 -61.438 -61.438 -39.449-مشکلات کلی اضافه شده به این مشکل. مقدمه با R، صفحه 163-164 محدودیت مرکز جمع (یا میانگین) را پیشنهاد می کند: $\boldsymbol{1}^T\boldsymbol{\tilde{X}_j}\boldsymbol{\tilde{\beta}_j}=0$ اگر یک ماتریس $\boldsymbol{Z}$ پیدا شود، میتواند با پارامترسازی مجدد انجام شود. $\boldsymbol{1}^T\boldsymbol{\tilde{X}_j}\boldsymbol{Z}=0$\boldsymbol{Z}$-ماتریس را میتوان با تجزیه QR ماتریس محدودیت $\boldsymbol پیدا کرد. {C}^T = (\boldsymbol{\boldsymbol{1}^T\boldsymbol{\tilde{X}_j}})^T = \boldsymbol{\tilde{X}_j}^T\boldsymbol{1}$. _توجه داشته باشید که $\boldsymbol{\tilde{X}_j}^T\boldsymbol{1}$ با پارتیشن unity-property $\boldsymbol{1}$ است._ نسخه متمرکز/محدود شده B-Spline- من ماتریس عبارت است از: X <- داده[, spline(x,min(x),max(x),5,2,by=d, intercept=TRUE)] head(X) x.1d0 x.2d0 x.3d0 x.4d0 x.5d0 x.6d0 x.1d1 x.2d1 x.3d1 x.4d1 [1،] 0.2271923 -0.3225655 -0.3225655 -0.3225655 -0.327725 -0.327256 -0.05790256 0.0000000 0.0000000 0.0000000 0.0000000 [2،] 0.0000000 0.0000000 0.0000000 0.00000000000000000 0.2271923 -0.3225655 -0.3225655 -0.3225655 [3،] 0.2271923 -0.3225655 -0.3225655 -0.3225655 -0.27280570705020 -0. 0.0000000 0.0000000 0.0000000 x.5d1 x.6d1 [1،] 0.0000000 0.00000000 [2،] -0.2728077 -0.05790256 -0.05790256 -0.05790256 - 0.05790256 - 0.05790256 - 0.05790256 - 0.05790256 - 0.00-00. داده[, spline(z,min(z),max(z),5,2,by=d, intercept=TRUE)] head(Z) z.1d0 z.2d0 z.3d0 z.4d0 z.5d0 z 0.6d0 z.1d1 z.2d1 z.3d1 z.4d1 [1،] 0.2271923 -0.3225655 -0.3225655 -0.3225655 -0.2728077 -0.05790256 0.0000000 0.0000000 0.0000000 0.0000000 0.0000000 [2،] 0.000000000000000000 0.0000000 0.0000000 0.00000000 0.2271923 -0.3225655 -0.3225655 -0.3225655 [3،] 0.2875283 -0.306365001 -0.30656501 -0.30656501 - -0.2604260 -0.05527458 0.0000000 0.0000000 0.0000000 0.0000000 z.5d1 z.6d1 [1،] 0.0000000 0.00000000 0.000000000 0.0000000000 -0.05790256 [3،] 0.0000000 0.00000000 ** سوال من این است:** حتی t | محدودیت مرکز جمع (یا میانگین) برای splines (همچنین w.r.t. gam از mgcv) دقیقاً چگونه انجام می شود؟ |
93196 | با عرض پوزش من در انجمن و همچنین با استفاده از GEE و SPSS کاملاً جدید هستم، بنابراین امیدوارم سوال من گیج کننده نباشد. متغیر وابسته من عملکرد شرکت است و چندین متغیر کنترلی دارم. اول از همه، من مطمئن نیستم که چگونه متغیر مستقل خود را تنظیم کنم. میخواهم بدانم آیا تودههای مهمی از زنان بر عملکرد تأثیر دارند یا خیر. فرضیه این است که عملکرد زمانی افزایش می یابد که حداقل سه زن وجود داشته باشد. با این حال، من باید آزمایش کنم که آیا این فرضیه درست است یا خیر. بنابراین، من به داده های پانل 8 ساله نگاه می کنم. به همین دلیل به من گفتند که از روش GEE استفاده کنم. > فرضیه 1a: هیچ رابطه ای بین یک مدیر زن و عملکرد شرکت وجود ندارد. فرضیه 1ب: بین دو زن > مدیر و عملکرد شرکت رابطه ای وجود ندارد. فرضیه 1c: بین توده بحرانی مدیران زن (حداقل سه > زن) و عملکرد شرکت رابطه مثبت > وجود دارد. من با اساتید و استاد راهنماهای مختلف صحبت می کردم و همه آنها نظرات متناقضی در مورد نحوه تنظیم متغیر مستقل به من دادند، بنابراین دوباره اینجا می پرسم. امیدوارم بتوانید به من کمک کنید. سوال دوم به انجام یک تحلیل GEE در SPSS با این داده ها مربوط می شود. من هرگز از این روش استفاده نکردم. من می دانم که چندین تست وجود دارد که باید برای یک OLS اجرا کنم (توزیع نرمال، امتیاز VIF، و غیره) اما اکنون می دانم که تست های مهم در روش GEE چیست تا مطمئن شوم همه مفروضات پابرجا هستند و مدل کلی است. معنی دار شدن شگفت انگیز خواهد بود اگر برخی از شما به من کمک کنید! لورا | نحوه اعمال GEE و نحوه استفاده از آن برای جرم بحرانی |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.