_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
111384 |  این نمودار تابع احتمال ورود به سیستم از دوره دافنه کولر است. دو محور $\theta_{a_1، b_1}$ و $\theta_{b_0، c_1}$ هستند. میشه لطفا یکی شکل این طرح رو برام توضیح بده؟ از معادله باید یک هواپیما باشد، اینطور نیست؟ | احتمال وجود یک شبکه مارکوف را ثبت کنید |
51692 | من * مجموعه داده ها (30000) را دارم که افراد را به درآمد (<=عدد،>عدد) ترسیم می کنم * هر نمونه دارای 15 ویژگی از جمله سن، تحصیلات است. در مورد بهترین طبقهبندیکننده یادگیری ماشین برای وظیفهام توصیهها/نکاتهایی میخواهم. برای آموزش در جاوا پیاده سازی شود. من سه انتخاب اصلی برای تصمیم گیری، یا یک تصور دارم اما مطمئن نیستم که کدام یک به بهترین وجه با مشکل من سازگار است. هر پیاده سازی جاوا که بتوانم در جهت آن اشاره کنم نیز عالی خواهد بود. با تشکر | یادگیری ماشینی طبقه بندی باینری |
100860 | من سعی می کنم کاهش باروری هند را بین سال های 1991 و 2001 در یک رگرسیون چند متغیره (OLS) تعیین کنم. من از نرخ باروری کل به عنوان متغیر وابسته استفاده کرده ام و اثرات را از شش متغیر توضیحی تخمین زده ام (نمونه زیر را ببینید). من دو سوال دارم: اول اینکه چگونه باید نتیجه را بین سالهای 1991 و 2001 مقایسه کنم؟ بهترین روش کدام است؟ آیا باید «اثرات متقابل» را بررسی کنم؟ یا شاید «اثرات ثابت» و «اثرات تصادفی» (به نظر می رسد کمی پیچیده باشد)؟ یا اینکه به سادگی نتیجه هر سال را در هر ستون تفسیر کنیم و سپس تفاوت ها و شباهت ها را با هم مقایسه کنیم؟ دوم، من می خواهم اثرات منطقه ای را تخمین بزنم. چگونه این کار را انجام دهم؟ باید از متغیرهای ساختگی (مانند ساختگی جنوبی، ساختگی شمالی، ساختگی شرقی، ساختگی غربی) استفاده کنید. یا روش بهتری برای استفاده از تحلیل جداگانه است؟ یعنی چهار رگرسیون چند متغیره جداگانه برای هر سال. یا هر دو روش را ترکیب کنم؟ مثالی از رگرسیون چند متغیره متغیر وابسته: نرخ باروری کل (خطای استاندارد در پرانتز) هند 1991 هند 2001 فقر 0,014*** 0,015*** (0,003) (0,002) سواد زنان -0,015010*** (0,015020***) ) (0,007) | دو رگرسیون را با هم مقایسه کنید |
74640 | من داده های نظرسنجی معتبر (میزان زیاد مشاهدات) را با داده های به دست آمده از یک شبکه اجتماعی (مقدار بسیار کمی از مشاهدات) مقایسه می کنم. به ویژه، من میخواهم جمعیت هر منطقه را با جمعیت هر منطقه که در یک شبکه اجتماعی مبتنی بر مکان یافت میشود، مقایسه کنم. مجموعه داده مثال: مقدار متغیر را تایپ کنید 1 1 vgi 1064 2 2 vgi 873 3 3 vgi 8 4 4 vgi 246 9 1 pop 2248360 10 2 pop 3544721 11 3 pop 70934 12 4 pop 70934 120`6 pop 71 variable=vgi نشان دهنده کاربرانی است که در شبکه اجتماعی یافت می شوند در حالی که variable=pop اندازه واقعی جمعیت در هر ناحیه است. حتی اگر مقیاس ها از نظر بزرگی کاملاً متفاوت هستند، آیا راهی برای مقایسه کیفی (مثلاً با نمودار) و کمی هر دو توزیع وجود دارد؟ منظور من از کیفی طرحی است که در آن می توان به راحتی مشاهده کرد که کدام ناحیه احتمالاً در رسانه های اجتماعی _کمتر یا بیش از حد معرفی شده است و از کمیت، چیزی شبیه آزمون Chi-Square است تا ببینیم آیا توزیع ها به طور قابل توجهی با یکدیگر متفاوت هستند یا خیر. برای مثال، میتوان از روی دادهها دریافت که ناحیه «2» در «vgi» کمتر نشان داده شده است، یا میتوان گفت که ناحیه «1» بیش از حد در «vgi» نشان داده شده است. - یا کم نمایندگی؟! من تجربه چنین داده هایی را ندارم، بنابراین می پرسم. من توانستم هر دو توزیع را با R ترسیم کنم، اما مقیاس های مختلف مقایسه آنها را سخت می کند - احتمالاً باید یکی از هر دو نوع را تبدیل کنم، اما نمی دانم چگونه. | مقایسه (و آزمایش) دو توزیع گسسته با بزرگی های مختلف |
104520 | ما اغلب ورودی های الگوریتم k-means را با 1) تفریق میانگین بر اساس هر ویژگی و 2) تقسیم بر انحراف استاندارد بر اساس هر ویژگی عادی می کنیم. برخی از دلایل منطقی پشت این در اینجا مورد بحث قرار می گیرد: آیا نرمال سازی میانگین و مقیاس بندی ویژگی برای خوشه بندی k-means مورد نیاز است؟ اما عجیب به نظر می رسد که فرض کنیم ویژگی ها با هم مرتبط نیستند، بنابراین سوال من این است که چرا به جای آن داده ها را کاملا سفید نمی کنیم؟ به عبارت دیگر، اگر دادهها دارای میانگین $\mu$ و کوواریانس $\Sigma$ هستند، چرا هر نمونه را با استفاده از $ \tilde{x} = \Sigma^{-1/2} (x - \mu) $ پیش پردازش نکنیم؟ تنها استدلالی که می بینم این است که وقتی ابعاد x$ بسیار بزرگ شود، برای مثال $\gg 100$، از نظر محاسباتی مشکل می شود، اما آیا دلایل دیگری وجود دارد؟ متشکرم. | ورودی های k-means اغلب به ازای هر ویژگی نرمال می شوند. چرا داده ها را به طور کامل سفید نمی کنید؟ |
100862 | من می خواهم اعداد تصادفی را از توزیع Weibull بیرون بکشم. فرمولهای این مورد از پارامترهای مقیاس و شکل (که هر دو را دارم) استفاده میکنند، اما از پارامتر میانگین استفاده نمیکنند. چگونه میتوانم توزیع Weibull را بسازم که میانگین انتخابی من داشته باشد؟ متشکرم | توزیع Weibull از میانگین داده شده |
95295 | بخشی از تز من این است که آزمایش کنم جرم بحرانی کجاست. فرض کنید می خواهیم تأثیر یک قوم خاص (x) را بر عملکرد کل گروه (اعضای گروه قومی x و گروه قومی y) آزمایش کنیم. فرض/فرضیه این است که اگر یک یا دو عضو گروه x در کل گروه وجود داشته باشد، عملکرد کلی افزایش نمی یابد. با این حال، اگر سه یا بیشتر از اعضای گروه x در گروه وجود داشته باشد، عملکرد کلی افزایش مییابد. حالا باید این فرضیه را آزمایش کنم. > فرضیه 1a: هیچ رابطه ای بین یک عضو گروه x و > عملکرد وجود ندارد. فرضیه 1b: هیچ رابطه ای بین دو گروه > اعضای x و > عملکرد وجود ندارد. فرضیه 1c: بین جرم بحرانی گروه > اعضای x (حداقل > سه) و عملکرد رابطه مثبت > وجود دارد. من به استفاده از متغیرهای ساختگی فکر می کردم تا آن را آزمایش کنم. ایده این بود که از 0 به عنوان گروه مرجع استفاده کنیم و سپس از 3 متغیر ساختگی استفاده کنیم. (متغیر 1: 1=1، بقیه = 0؛ متغیر2: 2=1؛ همه دیگران=0؛ متغیر 3: 3 یا بیشتر = 1؛ بقیه = 0) سپس من یک رگرسیون اجرا می کنم و می بینم که آیا متغیرها به طور قابل توجهی هستند یا خیر. متفاوت از ثابت آیا این روش را توصیه می کنید؟ احساس می کنم برخی از جنبه های مهم را از دست داده ام. من از هر توصیه و دیدگاه جدیدی در مورد مشکل خود قدردانی می کنم. | چگونه یک جرم بحرانی - متغیرهای ساختگی را آزمایش کنیم؟ |
111385 | من میخواهم طرحی ایجاد کنم که توزیع دم سنگین در مقابل سبک را به عنوان نمونه پوشش دهد و سعی میکنم بهترین راه برای انجام این کار را پیدا کنم. من می توانم توزیع گاما را ترسیم کنم که دم سبک و پارتو است که سنگین است اما ذاتاً متفاوت هستند. به این ترتیب، مقایسه آنها تا حدودی سخت است؟ آیا پیشنهادی در مورد کدام دو توزیع یک تصویر خوب است؟ با تشکر | چگونه یک توزیع دم سنگین در مقابل سبک را در R به بهترین شکل ترسیم کنیم |
111386 | من سعی می کنم این کار را انجام دهم: NbClust (شهر، دیس = d، فاصله = NULL، min.nc = 2، max.nc = 5، روش = kmeans، شاخص = همه، alphaBeale = 0.1) با شهر یک لیست است عدد مربوط به یک شهر و d ماتریس عدم تشابهات شامل فاصله بین هر جفت شهر است. من این خطا را دارم: خطا در if ((!is.null(diss)) && ((فاصله == 1) || (فاصله == 2) || : مقدار از دست رفته در جایی که TRUE/FALSE مورد نیاز است، من یک مثال را نیز امتحان می کنم اسناد رسمی و برنامه همان خطا را نشان می دهد. | خطای NbClust بسته r |
93194 | من می خواهم شروع به یادگیری برخی از اصول اولیه در مورد پردازش داده ها و تجزیه و تحلیل داده های میکروبیوم با استفاده از R کنم. (توجه: میدانم که این احتمالاً بستگی زیادی به سؤالاتی دارد که میخواهم در مورد میکروبیوم بپرسم، اما مطمئناً اصول اساسی مربوط به این نوع تجزیه و تحلیل دادهها وجود دارد که میتوانم شروع به یادگیری کنم.) با تشکر! | یادگیری تکنیک های چند متغیره برای تجزیه و تحلیل میکروبیوم روده |
51693 | من از آمار کمی می دانم اما زیاد نیست. من علاقه مند به یادگیری چند روش جدید برای آنچه که یک مشکل رایج در مهندسی / علم به نظر می رسد هستم. سابقه من: من یک پیشینه مهندسی/علم دارم و با ریاضیات خیلی خوب هستم. من از نرم افزارهای اصلی ریاضی (Matlab، Mathematica، و غیره) استفاده کرده ام، در حالی که در Python/C کار کرده ام. من آماردان نیستم، اما فکر میکنم اگر خودم به کار بپردازم میتوانم اصول اولیه را انتخاب کنم. من فقط یک درس آمار را در دانشگاه گذرانده ام. وسعت استفاده من از آمار در حال حاضر میانگین ها/انحراف استاندارد داده ها با رگرسیون خطی گاه به گاه است. یک نمونه مشکل: برای پاسخ به این سوال که در صورت موجود بودن خدمات بازیافت، چه کسی احتمال دارد بازیافت کند و چرا. شاید تعداد انگشت شماری از متغیرهای مورد علاقه (جنسیت، سن، موقعیت جغرافیایی، وضعیت اجتماعی-اقتصادی، تحصیلات و غیره) وجود داشته باشد. بیایید فرض کنیم من اطلاعاتی در مورد جمعیت زیادی دارم (احتمالاً یک مشکل در خود). چه نوع روشی می تواند برای پاسخ به این مورد استفاده شود؟ آیا این یک مشکل رگرسیون خواهد بود؟ آیا این مدل توسعه یافته است؟ چگونه می توانم پیش بینی کنم که آیا فردی بر اساس متغیرهای مورد علاقه بازیافت می کند یا خیر؟ اگر بتوانید منابعی (کتاب، وبسایت و غیره) را به من معرفی کنید که میتواند کمک کند یا نرمافزاری که میتوانم استفاده کنم، بیشتر متشکرم. پیشنهادی دارید؟ | از چه روشی می توان برای همبستگی متغیرها استفاده کرد |
73140 | وقتی به دنبال همبستگی ساده هستیم، آیا حجم نمونه n باید برابر باشد؟ منظورم این است که اگر متغیر 1 مشاهدات کمی بیشتر یا کمتر از متغیر 2 داشته باشد اشکالی ندارد؟ من در حال محاسبه همبستگی بین دو متغیر هستم... _n_ یکی کمی بالاتر از n دیگری است! من به دنبال همبستگی بین 2 مقیاس (آزمون های روانی) هستم. n یکی کمی بالاتر از n دیگری است. منظورم این است که همه پاسخ دهندگانی که یک فرم (مقیاس) را پر کرده اند، دیگری را پر نکرده اند. برخی (هر چند بسیار اندک) وجود دارد. | همبستگی پیرسون |
73148 | فرض کنید این رگرسیون را داریم $$\ln(y) = a + B_1(سن) + B_2\ln(پس انداز) + B_3\ln(درآمد+1)$$ هنگام انجام رگرسیون به دست می آوریم: $$\ ln(y) = 0.3445 + 0.5 (سن) + 0.4556 x_1 + 0.55566 x_2$$ ضرایب را در هر مورد تفسیر کنید؟ نگرانی ویژه ضریب درآمد است. افزایش درآمد 1٪ منجر به افزایش چقدر در $y$ می شود؟ این یک مثال فرضی برای نشان دادن مشکل من است. | توضیح تفسیر لاگ |
73146 | هیپ پوچ من این است: سن تعداد بازدیدکنندگان زن و مرد در پارک A مهم نیست. من تست های مربع کای را با متغیر 1\ انجام می دهم. تعداد نر و ماده 2\. سن من سوال 1 تست کای اسکوئر را انجام دادم. وقتی ارتباط معنی داری وجود دارد، باقیمانده تنظیم شده بزرگتر از 2 یا کوچکتر از 2- است، اما اگر نشانه ای از باقی مانده بزرگتر وجود دارد؟ آیا برای adj residue 4 و adj residue 2 معنی متفاوتی خواهد داشت؟ مانند باقیمانده adj در مردان در گروه سنی کوچکتر 4 سال در حالی که در گروه سنی میانسال 2 است؟ سوال 2. اگر مقدار فی منفی وجود داشته باشد چه؟ چگونه همبستگی منفی این دو متغیر را تفسیر کنم؟ خیلی ممنونم | تست Chi-Square |
110476 | این سوال: مقایسه و تضاد، مقادیر p، سطوح اهمیت و خطای نوع I استثناهایی را ذکر می کند که هنگام استفاده از داده های گسسته ایجاد می شود. آیا استثناهای دیگری با داده های پیوسته نیز وجود دارد؟ | آیا $\Pr(\text{خطای نوع I})$ هرگز با داده های پیوسته برابر با $\alpha$ نیست؟ |
61611 | برای $i = 1،...، K$، بگویید $K$ نرمال مستقل دارم، $X_i \sim \mathcal{N}(\mu_i, \sigma_i)$. چگونه می توانم با استفاده از $X_i$ یک برآوردگر بی طرفانه برای $\max_i \mu_i$ تشکیل دهم؟ | با در نظر گرفتن برآوردگرهای مستقل از هر پارامتر، یک برآوردگر بی طرفانه از حداکثر چند پارامتر تشکیل دهید؟ |
104666 | اجازه دهید $X_1$ و $X_2$ متغیرهای تصادفی مستقل با ارزش واقعی با توزیع نرمال استاندارد باشند. فرض کنید $ Y = X_1X_2 $. تابع مشخصه Y را پیدا کنید. تلاش: $\phi_{Y}(t)$ = $\frac{1}{\sqrt{2\pi}}\int_{-\infty}^{\infty} exp(it (x_1x_2))exp(-1/2(x_1x_2)^2)dx_1dx_2$ می دانم که تابع مشخصه معمولی استاندارد این است: $\phi_{X_1}(t)$ = $exp(\frac{-t^2}{2})$ و به همین ترتیب برای $X_2$ با این حال، من مطمئن نیستم محصول حاصل چیست. من متوجه شدم که می توانم از یک Jacobian استفاده کنم، اما می خواهم آن را ساده نگه دارم و ببینم آیا راهی برای استخراج تابع مشخصه با چیزی ساده تر وجود دارد یا خیر. | تابع مشخصه $Y=X_1X_2$، که در آن $X_1$ و $X_2$ عادی استاندارد هستند |
111394 | با توجه به یک سری از متغیرهای تصادفی $X_1، X_2، \cdots، X_n، \cdots$ همگرایی در میانگین درجه دوم ⟹ همگرایی در احتمال ⟹ همگرایی در توزیع احتمال چگونه به طور شهودی این را درک کنیم؟ | چگونه به طور شهودی رابطه بین همگرایی های تفاوت را درک کنیم؟ |
104527 | من سعی می کنم این مقاله را در مورد رگرسیون لجستیک بیزی بخوانم. به طور کلی، برای طبقهبندی نمونهها، از: $p(y=+1 |\beta) = \sigma(\beta^TX) $ استفاده میکنند (که در آن $\sigma$ آشکارا تابع سیگموید است). اکنون آنها باید مقادیر $\beta$ را پیدا کنند. سپس آنها می گویند که برای جلوگیری از برازش بیش از حد، از توزیع قبلی در $\beta$ استفاده می کنند که مشخص می کند هر مقدار $\beta$ احتمالاً نزدیک به 0 است. سپس یک پیشین گاوسی تک متغیره با میانگین = 0 و واریانس > تحمیل می کنند. 0 در هر پارامتر $\beta$. (بخش 3). چیزی که من متوجه نمی شوم این است: 1. چگونه تعیین کردن $\beta$ نزدیک 0 به جلوگیری از برازش بیش از حد کمک می کند؟ 2. چگونه می توان یک توزیع گاوسی را بر روی مجموعه ای از پارامترها فرض کرد که آنها قرار است تخمین بزنند؟ هر نوع کمکی بسیار قدردانی خواهد شد... | رگرسیون لجستیک بیزی - توزیع گاوسی بر روی پارامترها؟ |
23569 | دیروز این سوال را پرسیدم که در آن 180 موضوع با هر کدام 500 ویژگی داشتم. در حالی که من مطمئن بودم که کاهش ابعاد در این مورد ضروری است (500 ویژگی)، اکثر پاسخ هایی که دریافت کردم می گفتند که 500 خیلی زیاد نیستند. **بنابراین، سوال من این است:** آیا هیچ قاعده ای وجود دارد که باید از کاهش ابعاد قبل از طبقه بندی کننده استفاده کرد؟ چند ویژگی خیلی زیاد است؟ (من حدس میزنم بستگی به نسبت بین تعداد سوژهها و ویژگیها دارد. اینطور نیست؟) | چه زمانی باید از کاهش ابعاد استفاده شود؟ |
48921 | من می خواهم از هموارسازی نمایی برای پیش بینی داده های زیر استفاده کنم. داده ها بر اساس روزانه است. به دلیل برخی دلایل خط مشی، هر ماه 29^\text{th}$، 30$^\text{th}$ و $31^\text{th}$، دادهها به صدها دلار کاهش مییابد. 1. آیا لازم است دو یا سه روز پایان هر ماه را حذف کنم زیرا آنها از الگوی مشابهی با روزهای دیگر هر ماه پیروی نمی کنند؟ 2. اگر از «Holtwinter()» برای انجام هموارسازی نمایی سه گانه استفاده کنم، R پیغام خطا را نشان می دهد: «سری زمانی هیچ یا کمتر از 2 نقطه دارد.» 3. اگر دو روز را در پایان هر ماه حذف کنم، محدوده زمانی «1998/3/12» تا «1998/3/28»، «1998/4/1» تا «1998/4/28» خواهد بود، «5/1/1998» تا «5/28/1998». چگونه می توانم R را اجرا کنم زیرا داده ها در دوره ماهانه کامل نیستند؟ 18000 3/12/1998 61000 3/13/1998 59000 3/14/1998 59000 3/15/1998 66000 3/16/1998 38000 3/17/1998 1998/3/14 20000 3/19/1998 72000 3/20/1998 44000 3/21/1998 37000 3/22/1998 33000 3/23/1998 28000 3/24/1998 28000 3/24/1998 3/21/1998 3/26/1998 66000 3/27/1998 52000 3/28/1998 280 3/29/1998 200 3/30/1998 400 3/31/1998 186000 4/1498 186000 4/1311 82000 4/3/1998 39000 4/4/1998 58000 4/5/1998 26000 4/6/1998 41000 4/7/1998 37000 4/8/1998 190094/8/19009 4/10/1998 54000 4/11/1998 55000 4/12/1998 56000 4/13/1998 40000 4/14/1998 34000 4/15/1998 216014/15 4/17/1998 56000 4/18/1998 56000 4/19/1998 60000 4/20/1998 39000 4/21/1998 43000 4/22/1998 22301/22301 4/24/1998 35000 4/25/1998 36000 4/26/1998 34000 4/27/1998 43000 4/28/1998 300 4/29/1998 250 4/26/1998 250 4/27/1998 28000 5/2/1998 63000 5/3/1998 65000 5/4/1998 33000 5/5/1998 29000 5/6/1998 21000 5/7/1998 750098 750009 5/9/1998 77000 5/10/1998 54000 5/11/1998 32000 5/12/1998 26000 5/13/1998 19000 5/14/1998 6405098 615009 1998/5/16 64000 5/17/1998 58000 5/18/1998 29000 5/19/1998 29000 5/20/1998 16000 5/21/1998 62001/62001 5/23/1998 38000 5/24/1998 29000 5/25/1998 38000 5/26/1998 36000 5/27/1998 34000 5/28/1998 16098/28/1998 16098/28 | استفاده از هموارسازی نمایی برای پیش بینی داده های با فاصله نامنظم در R |
32179 | من یک متغیر ترتیبی دارم، overall_tumor_grade، که می تواند مقادیر 1، 2، 3، یا X را در صورتی که اندازه گیری غیرقابل تعیین باشد به خود بگیرد. تعدادی NA وجود دارند که میخواهم با استفاده از بسته موشها در R به آنها اضافه کنم، اما میدانم که مقادیر از دست رفته نمیتواند X باشد زیرا اندازه تومور آنها بزرگتر از 0 است. ، 2 یا 3. در اینجا کد نمونه ای برای استفاده شما وجود دارد: df=data.frame(age=c(24,37,58,65,70,84), total_tumor_grade=c(1,1,2,3,'X',NA), tumor_size=c(1.5,2.0, 4.2،5.6،0،0.1)) imp=موش (df) na_index=which(is.na(df$overall_tumor_grade)) تکمیل (imp)$overall_tumor_grade[na_index] #این هرگز نمی تواند 'X' باشد از کمک شما متشکرم و اگر به اطلاعات بیشتری نیاز دارید به من اطلاع دهید. * * * ## افزودنی جدید @longrob پیشنهاد کرد که بیماران را با مشاهدات 'X' به طور موقت حذف کنم، انطباق دهم، سپس آنها را دوباره به مجموعه داده کامل اضافه کنم. آیا انتساب با حذف همه آن مشاهدات قدرت خود را از دست می دهد؟ در کنار پیشنهاد لانگ راب، در اینجا کاری است که من در حال حاضر با استفاده از یک قاب داده نمونه که به چیزی که واقعاً با آن کار میکنم نزدیکتر است (چند ستون با مقادیر از دست رفته): df=data.frame(age=rnorm(mean=45) sd=10,25)، overall_tumor_grade=factor(sample(c(1,2,3,'X'),25, replace=TRUE)), tumor_size=runif(25)*10) df[df$overall_tumor_grade=='X','tumor_size' ]=0 #بیماران با درجه 'X' تومور دارند z=0 df[sample(1:25,3),'age']=NA ##تنظیم برخی از مشاهدات به NA df[sample(1:25,5),'overall_tumor_grade']=NA df[sample(1:25,1 ),'tumor_size']=NA ################ نسبت imp=moce(df,meth=c('pmm',,''pmm')) #Suppress imputation of all_tumor_grade dfimp=complete(imp) dfimp2=dfimp[dfimp$all_tumor_grade!='X',] #من انجام نمی دهم 'می خواهم تومورهای درجه 'X' را نسبت بدهم #بنابراین من سعی می کنم این مشاهدات را در اینجا حذف کنم و سپس از droplevels استفاده کنم() اما به #دلیلی که نمی توانم بفهمم، این عبارت تمام ردیف ها را روی NA تنظیم می کند که در آن درجه='X' هر گونه پیشنهادی در مورد چگونگی انجام آنچه @longrob پیشنهاد کرده است؟ | چگونه می توان یک متغیر ترتیبی را با MICE نسبت داد اما از گرفتن یک مقدار جلوگیری کرد؟ |
104522 | وقتی یک آزمون آماری را اجرا می کنید، آیا می توان متغیری را که واقعاً مشخص نشده است در نظر گرفت؟ من یک مثال می زنم. باید ببینیم کلمه خاصی در یک جمله جمعی است یا توزیعی. کلمات به دو دسته تقسیم می شوند: اشیا و موضوعات. ما همچنین دو متغیر جمعی و توزیعی را داریم. برای اینکه ببینیم کلمه در جمله جمعی است یا توزیعی، باید به بافت جمله نگاه کنیم. وقتی زمینه نشان نمیدهد که جمعی است یا توزیعی، جمله را نمیتوان تحلیل کرد. ما می دانیم که باید یکی باشد (جمعی یا توزیعی)، اما فقط نمی دانیم کدام است، زیرا زمینه به ما نمی گوید. در این مثال، میخواهیم یک آزمون کای دو برای استقلال انجام دهیم، زیرا میخواهیم ببینیم که آیا جمع و توزیع ربطی به موقعیت کلمه (شیء یا موضوع) دارد یا خیر. پس با آن جملات «نامشخص» چه کار می کنید؟ من فکر می کنم که شما نمی توانید آن جملات را در تجزیه و تحلیل داده های خود در نظر بگیرید، زیرا این یک متغیر نیست. مثل گربه شرودینگر است. شما می دانید که جمله باید جمعی یا توزیعی باشد، اما تا زمانی که زمینه خوبی نداشته باشید، نمی توانید بدانید که کدام یک درست است. بنابراین شما فقط توزیعی و جمعی را به عنوان متغیر در نظر می گیرید و جملات «نامشخص» نمی توانند گنجانده شوند. درست می گویم یا چیز مهمی را اینجا از دست می دهم؟ یا آیا می توان آن را به این صورت تقسیم کرد: * Specified -Distributive -Collective * Unspecified بنابراین در این حالت متغیرها را به: مشخص و نامشخص تقسیم می کنید. در گروه متغیر مشخص شده جملات توزیعی و جمعی را قرار می دهید. و در گروه متغیر نامشخص همه جملاتی را که واضح نیستند قرار می دهید. و شاید حتی این لازم نباشد. شاید شما فقط می توانید سه متغیر داشته باشید: توزیعی، جمعی و نامشخص. اما باز هم، این واقعاً عجیب به نظر می رسد، زیرا آن جملات مشخص شده به نظر نمی رسد که متغیر باشند. پیشاپیش متشکرم | آیا می توان متغیری را که واقعاً مشخص نشده است در نظر گرفت؟ |
56511 | میتوانیم تقارن توزیعی در حدود 0 دلار را با آزمون رتبهبندی علامت Wilcoxon بر اساس نمونه آن آزمایش کنیم. اما اگر بخواهیم آزمایش کنیم که آیا توزیعی حول میانگین آن متقارن است، بر اساس نمونه آن $X_1، \dots، X_n$، آیا معتبر است که ابتدا $X_i$ را با میانگین نمونه به صورت $Y_i := X_i - \bar نرمال کنیم. {X}$، و سپس تست رتبه علامت Wilcoxon را برای $Y_i$ اعمال کنید؟ اگر نه، چه راه هایی وجود دارد؟ با تشکر و احترام! | تست تقارن یک توزیع حول میانگین آن |
56510 | این یک سوال نرم است. من در حال حاضر در حال ارزیابی پرسشنامه ای بر اساس رسانه های اجتماعی و افکار مردم در مورد مرگ برای مقطع کارشناسی خود هستم، اما می خواستم بدانم که برای توجیه اعداد برای به دست آوردن یک نتیجه معتبر از چه روش هایی استفاده می کنم. به این ترتیب که گام بعدی در ارزیابی نتایج چه باید باشد تا نشان دهد که پاسخ ارائه شده در مقایسه با یک فرضیه خوب / بد بوده است. من توزیع کای دو را بررسی کرده ام اما به نظر می رسد که در درجه اول بر دو مجموعه داده (AFAIK) مانند مرد / زن تمرکز دارد، اما مطمئن نبودم که آیا این مسیر درستی است که باید دنبال کنم یا دیگری وجود دارد که می تواند انجام دهد. برای این نوع تحقیقات مناسب تر باشد. سؤال من این است که: هنگام مقایسه نتایج یک پرسشنامه اجتماعی، هنگام مقایسه با یک فرضیه، از چه الگوریتم(هایی) استفاده می شود. | برای ارزیابی پرسشنامه باید از چه روش ریاضی استفاده کرد |
104526 | من میخواهم یک تحلیل میانجیگری با متغیرهای زیر انجام دهم: X: متغیر مستقل: طبقهبندی (2 سطح) M: واسطه: طبقهبندی (5 سطح) Y: متغیر وابسته: مدل من پیوسته:  پیروی از MacKinnon، Lockwood، Hoffman، West، & Sheets (2002)، من باید 2 تحلیل را انجام دهم: 1. تحلیل رگرسیون با X به عنوان متغیر مستقل و Y به عنوان متغیر وابسته. 2. تحلیل رگرسیون با X و Y به عنوان متغیر مستقل و M به عنوان متغیر وابسته. یک میانجی کامل به این معنی است: * وزن رگرسیون X -> Y در تحلیل اول معنیدار است * وزن رگرسیون Y -> M در تحلیل دوم معنیدار است * وزن رگرسیون X -> M در تحلیل دوم معنیدار نیست. 3 سوال دارید: 1. آیا موارد فوق برای انجام تحلیل میانجیگری کار درستی (پس نه) است؟ 2. آیا تحلیل دوم من یک رگرسیون لجستیک چند جمله ای است؟ 3. آیا اولین تحلیل من یک متغیره GLM است؟ برای تجزیه و تحلیل خود، من فقط می توانم از SPSS 19 (بدون SEM) استفاده کنم. مرجع: MacKinnon, D.P., Lockwood, C.M., Hoffman, J.M., West, S,.G., & Sheets, V. (2002). مقایسه روشهای آزمایش میانجیگری و سایر اثرات متغیر مداخلهگر. روشهای روانشناسی 3، 309 - 327. | تجزیه و تحلیل میانجیگری زمانی که واسطه طبقه بندی شده است (SPSS) |
93192 | من می خواهم خطاهای استاندارد قابل اعتماد ضرایب تخمین زده شده را از رگرسیون y روی x بدست بیاورم. مشاهده برای هر فرد شامل مقداری از متغیر y که دودویی است و یک مکان بود. دومی به یکی از 8 منطقه جغرافیایی اختصاص داده شد، مقادیر x میانگین تخمین زده شده (از داده های ثانویه) در هر یک از مناطق است. بنابراین داده ها با x ثابت در هر یک از گروه ها گروه بندی می شوند. اندازه گروه ها به طور قابل توجهی متفاوت است. به دلیل گروه بندی، انتظار دارم که باید یک عامل تورم واریانس را برای خطاهای استاندارد OLS اعمال کنم. Angrist & Pischke در اکثراً بی ضرر Econometrics ص 311 این فرمول را می دهند: $$\frac{V(\hat\beta_1)}{V_c(\hat\beta_1)} = 1+[\frac{V(n_g)}{\overline {n}} +\overline{n}-1]\rho_x\rho_e$$ اینجا $V(\hat\beta_1)$ درست است واریانس، $V_c(\hat\beta_1)$ واریانس OLS معمولی، $n_g$ اندازه گروه $g$'th، $\overline{n}$ میانگین اندازه گروه، $\rho_x$ همبستگی درون کلاسی x (1 در مورد من) و $\rho_e$ همبستگی درون کلاسی عبارت خطا. با این حال، من نتوانستم بفهمم که آیا این فرمول با یک متغیر وابسته باینری معتبر است یا خیر. آیا فرمولی برای فاکتور تورم واریانس برای پرداختن به گروه بندی در یک رگرسیون با تعداد کم گروه و یک متغیر وابسته باینری وجود دارد؟ | ضریب تورم واریانس برای آدرس دادن به گروه بندی فضایی با متغیر وابسته باینری |
100861 | به خوبی شناخته شده است که می توان از توزیع $\chi^2$ برای تخمین واریانس توزیع نرمال استفاده کرد (یعنی $N(0,\sigma^2$)). آیا دلیل خاصی برای استفاده از توزیع $\chi^2$ وجود دارد؟ یا می توانیم بگوییم که این دقیق ترین روش برای تخمین واریانس یک توزیع نرمال است؟ یا این دقیق ترین چیز وجود دارد؟ اگر وجود دارد و توزیع $\chi^2$ نیست، پس چیست؟ با تشکر | چرا از توزیع کای دو برای تخمین واریانس توزیع نرمال استفاده می کنیم؟ |
100865 | من داده های ژنتیکی SNP با 50 کنترل و 120 مورد دارم. من می گویم مقایسه کنترل های کم با تعداد موارد بیشتر باعث تداعی های جعلی می شود. تجزیه و تحلیلی که من میخواهم انجام دهم فقط یک رگرسیون لجستیک است، که در آن نتیجه بیماری (مورد/شاهد) و پیشبینیکنندهها ژنوتیپها (AA، AB، BB) هستند. من به این فکر کردم که 50 کنترل را با 50 مورد به طور تصادفی انتخاب شده مقایسه کنم و سپس یافته را با مقایسه با موارد باقیمانده تکرار کنم. آیا کسی می تواند در مورد این سناریو نظر دهد. | چگونه می توان داده ها را با تعداد موارد دو برابر نسبت به کنترل ها مدیریت کرد؟ |
32175 | من اندازهگیریهای زیر را انجام دادهام: * متغیرهای مستقل IV1 و IV2 با مقیاس ترتیبی * متغیر وابسته 'DV' با مقیاس ترتیبی * 8 مقدار مختلف برای IV1 و 6 مقدار مختلف برای IV2 در یک طرح فاکتوریل کامل با 5 تکرار تست شده است. متغیر وابسته را ثبت کرد. بنابراین در مجموع 240 اندازه گیری انجام شد. اکنون یک آزمون ANOVA روی این اندازهگیریها نشان میدهد که با احتمال بسیار بالا (> 1 - 2e-16) هر دو متغیر مستقل در واریانس 'DV' نقش دارند. این چیزی است که من انتظار داشتم، بنابراین تا اینجا همه چیز خوب است. > aov(DV~IV1+IV2، data=d) شرایط: IV1 IV2 باقیمانده مجموع مربع ها 1721.6289 918.6018 198.5668 درجه. of Freedom 7 5 227 خطای استاندارد باقیمانده: 0.9352772 اثرات تخمینی ممکن است نامتعادل باشد > خلاصه (aov(DV~IV1+IV2، داده=d)) Df Sum Sq Mean Sq F مقدار Pr(>F) IV1 7 1721.6 2481.95 <2e -16 *** IV2 5 918.6 183.72 210.0 <2e-16 *** باقیمانده ها 227 198.6 0.87 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 اکنون میخواهم تعیین کنم که تغییر در IV1 و تغییر در IV2 چقدر بر متغیر وابسته DV تأثیر دارد. چگونه می توانم این کار را انجام دهم؟ من مطمئن نیستم که اصلاً سؤال درستی میپرسم یا نه. راه حلی که به ذهن من رسید، تطبیق یک مدل خطی برای «DV~IV1+IV2» (ساخت R) و در نظر گرفتن ضرایب به عنوان تأثیر بود. مطمئن نیستم که آیا این روش درستی برای نگاه کردن به داده ها است، زیرا نمی توانم مطمئن باشم که یک وابستگی خطی بین DV و IV1، IV2 وجود دارد. > lm(DV~IV1+IV2، داده=d) ضرایب: (برق) IV1 IV2 6.2580969 0.0002853 -0.0703225 | کمیت تاثیر در ANOVA |
109164 | نمونه ای به اندازه 100 از یک توزیع نمایی با پارامتر لامبدا 1. در این مورد، من معتقدم که انحراف استاندارد تابع بقای گزارش تجربی 'sqrt((1-e^-t)/(100*e^-t) است. ' و تابع بقای ورود به سیستم -t است وقتی ما نمودارهای sd از تابع بقای ورود به سیستم تجربی و تابع بقای ورود به سیستم را میسازیم، چگونه این دو نمودار میشوند. مرتبط؟ این نمودار sd از تابع بقای گزارش تجربی است.(x-axis:t، y-axis: sd)  این نمودار تابع بقای گزارش است(x-axis:t, y-axis:log (نرخ بقا) | عملکرد sd بقای گزارش تجربی و بقای گزارش تجربی چگونه است |
93197 | من مشکل زیر را دارم. فرض کنید «g» تابعی از «A» و «R» است. من یک تجزیه و تحلیل مونت کارلو را برای تعیین pdf «g» با در نظر گرفتن pdf واقعی «R» انجام میدهم، اما «A» دارای pdf مستطیلی است. اکنون من اطلاعات جدیدی در مورد pdf 'A' دارم. سوال من این است: آیا لازم است که مونت کارلو خود را دوباره اجرا کنم یا می توانم برای پی دی اف قدیمی g پی دی اف تازه موجود A را اعمال کنم؟ ویرایش 1: هر دو پی دی اف قدیمی و جدید «A» دارای حداقل و حداکثر مقادیر ممکن یکسان هستند، یعنی هر دو pdf با محدودیت های پایین و بالایی یکسان محدود می شوند. تفاوت این است که در حالی که در اولین اجرای مونت کارلو، A دارای pdf مستطیلی در نظر گرفته می شد، اکنون با اطلاعات جدید، A pdf گاوسی است. می توان فرض کرد که «A» و «R» مستقل هستند. اجازه دهید pdf قدیمی «A» یک pdf یکنواخت با حداقل مقدار برابر با a=0 و حداکثر مقدار برابر با b=0.1 باشد و pdf جدید «A» یک گاوسی کوتاه با مساوی a و b و مقدار متوسط باشد. 0.06 و انحراف معیار برابر با 0.01. ویرایش 2: اگر «g» تابعی از «R»، «A1»، «A2»، ...، «An» بود و همه این متغیرهای تصادفی مستقل بودند، آیا امکان بهروزرسانی pdf قدیمی «g» وجود دارد. آیا نیازی به اجرای مجدد مونت کارلو ندارید؟ با تشکر | تابع چگالی احتمال را تعیین کنید |
26230 | من در اینترنت چیزهای زیادی در مورد تفسیر اثرات تصادفی و ثابت پیدا کردم. اما من نتوانستم منبعی پیدا کنم که موارد زیر را مشخص کند: **تفاوت ریاضی بین اثرات تصادفی و ثابت چیست؟** منظور من از فرمول ریاضی مدل و روش تخمین پارامترها است. | تفاوت ریاضی بین اثرات تصادفی و ثابت چیست؟ |
59741 | من سنسوری دارم که دما، فشار ++ را اندازهگیری میکند و میخواهم از این دادهها برای پیشبینی مقداری A استفاده کنم. اگر از رگرسیون چند متغیره استفاده کنم، می توانم به سادگی مدلی به شکل A=a0+a1x1+a2x2+... را پیاده سازی کنم و هر زمان که اندازه گیری های جدیدی داشته باشم می توانم از مدل برای پیش بینی استفاده کنم. از طرف دیگر، اگر من یک مدل پیشبینی با استفاده از جنگلهای تصادفی بسازم، واقعاً مطمئن نیستم که چگونه از آن استفاده کنم. من از بسته caret برای تقسیم دادههایم به مجموعههای آموزشی و آزمایشی و انجام انتخاب خودکار ویژگیها با استفاده از جنگل تصادفی و اعتبارسنجی متقابل استفاده کردهام. من پیشبینیهای خوبی در مجموعه آزمایشی دریافت میکنم، اما نمیدانم چگونه این درختها را برای استفاده مثلاً در یک پردازنده سیگنال دیجیتال پیادهسازی کنم. در R من فقط از تابع ()predict استفاده می کنم، اما بدیهی است که این تابع خارج از R در دسترس نیست. این احتمالاً یک کوئستینگ احمقانه است، اما بهترین کاری است که می توانم انجام دهم. هر گونه پیشنهاد استقبال می شود. | از مدل جنگل تصادفی برای پیشبینی از دادههای حسگر استفاده کنید |
26234 | (این سوال به یک مورد گسترده می پردازد که چگونه می توان سطوح عامل را به طور خودکار در R انتخاب کرد تا تعداد ضرایب مثبت در یک مدل رگرسیونی به حداکثر برسد؟) من رگرسیون خطی (با استفاده از R) را روی داده هایی انجام می دهم که دارای هر دو دسته بندی (عامل) و عددی هستند. متغیرها، و برازش با مدلی که شکل «y ~ (.)^2» دارد (یعنی شامل تمام اصطلاحات تعامل مرتبه اول و دوم). سوال این است: آیا یک راه **برنامه ای** برای تعیین بردار ضریب در میان مجموعه بردارهای بهینه $\Theta_{opt}$ وجود دارد، که در آن طول بردار تحت محدودیتی که همه عناصر بردار به حداقل می رسد. مثبت هستند. ممکن است مواردی وجود داشته باشد که یافتن یک بردار ضریب همه مثبت در $\Theta_{opt}$ غیرممکن باشد، اما اجازه دهید فرض کنیم که دادههای خاصی که در حال تجزیه و تحلیل هستند، امکان وجود چنین بردارهایی را فراهم میکنند. شاید بتوان با یک بردار ضریب بهینه اولیه (کمترین مربعات) شروع کرد و سپس این بردار را بر اساس قوانین خاصی که به ماهیت عباراتی که ضرایب با آنها مرتبط هستند، دستکاری کرد. من می توانم برخی از قوانین کلی را برای انجام این دستکاری ها استنباط کنم، اما نمی دانم چگونه به صورت الگوریتمی دستکاری ها را به گونه ای انجام دهم که به بردار پارامتر با حداقل طول برسم (پارامترها ==0 در طول بردار محاسبه نمی شوند) . اگرچه ممکن است این مسیر اشتباهی را طی کند ...؟ | چگونه می توان ضرایب همه مثبت را در رگرسیون خطی مرتبه دوم انتخاب کرد تا تعداد ضرایب به حداقل برسد؟ |
32176 | فرض کنید چهار سری زمانی a، b، c و d با 10 اندازه گیری داریم. a(1)، ...، a(10) b(1)، ...، b(10) c(1)، ...، c(10) d(1)، ...، d( 10) فرض می شود a، b و c روند و تناوب یکسانی را نشان می دهند. سوال این است که چگونه می توانم d را با ترکیبی از a، b و c مقایسه کنم تا آزمایش کنم که آیا d با روند و تناوب فرضی متفاوت است یا خیر. مشکل این است که a، b و c محدوده های مختلفی دارند، بنابراین میانگین X(i) := (a(i) + b(i) + c(i) ) / 3 مفید نیست. **سوال من این است که راه خوبی برای رسیدن به یک ترکیب معنی دار چیست؟** آیا منطقی است که میانگین تمام سری های a، b، c، d را به 1 نرمال کنیم و سپس d را با میانگین a، b مقایسه کنیم. و ج؟ یا اینکه ابتدا باید انحراف معیار هر چهار سری را به 1 نرمال کنم؟ | چگونه چندین سری زمانی را در یک سری زمانی متوسط مفید ترکیب کنیم؟ |
56516 | من در تلاش برای درک هسته ها و چگونگی تشخیص درست یا نادرستی آنها هستم. برای این مثالها کسی میتواند توضیح دهد که چرا یک مثال مناسب است و چرا مثال دیگر درست نیست. با توجه به K1 و K2 دو هسته مناسب. تعیین کنید کدام یک از فرمول های زیر هسته های مناسب K4(x1,x2) = -K1(x1,x2)^2 K2(x1,x2) K3(x1,x2) = -K2(x1,x2) + 3k1(x1, x2) K5(x1,x2) = 15K1(x1,x2) من به طور خاص به نحوه دریافت پاسخ علاقه مند هستم. با بیان اینکه کدام یک مناسب است و کدام یک مناسب نیست. پیشاپیش ممنون | چرا این هسته ها مناسب هستند و چگونه می توان استنباط کرد که هستند؟ |
6588 | من یک مجموعه داده با تعداد زیادی صفر دارم که شبیه این است: set.seed(1) x <- c(rlnorm(100), rep(0,50)) hist(x, probability=TRUE, breaks = 25) I میخواهد برای چگالی آن خطی بکشد، اما تابع «density()» از یک پنجره متحرک استفاده میکند که مقادیر منفی x را محاسبه میکند. خطوط (تراکم(x)، col = 'خاکستری') آرگومان های تراکم(... از، به) وجود دارد، اما به نظر می رسد این آرگومان ها فقط محاسبات را کوتاه می کنند، نه اینکه پنجره را طوری تغییر دهند که چگالی در 0 ثابت باشد. با داده هایی که با نمودار زیر قابل مشاهده است: خطوط (تراکم (x، از = 0)، col = 'سیاه') (اگر درون یابی تغییر می کرد، من انتظار دارم که خط سیاه در 0 چگالی بالاتری نسبت به خط خاکستری خواهد داشت) آیا جایگزین هایی برای این تابع وجود دارد که محاسبه بهتری از چگالی در صفر ارائه دهد؟  | چگونه می توانم چگالی یک پارامتر با باد صفر را در R تخمین بزنم؟ |
26239 | از من خواسته شده است که سعی کنم فراتحلیل اولیه برخی از داده ها را انجام دهم، اما با وجود اینکه با ریاضیات راحت هستم، تجربه زیادی در مورد آمار ندارم. امیدوارم با آنچه تاکنون تلاش کردهام بازخوردی دریافت کنم تا ببینم آیا در مسیر درستی هستم یا خیر. استفاده از SPSS برای نرم افزار **طراحی** یک متغیر وابسته اندازه برگرفته از مطالعات مختلف انجام شده در طی سالیان متمادی. اکثر مطالعات بیش از یک سال ادامه نداشتند. عوامل دیگر: * نوع جغرافیایی - همه انواع مختلف نمونه برداری شدند، برخی بیشتر از بقیه. * منطقه جغرافیایی - از همه 4 منطقه مختلف نمونه برداری شد * موقعیت - بسیاری از مکان های مختلف نمونه برداری شدند، برخی بیشتر از سایرین، برخی در طول سال های مختلف تکرار شدند اما برای مطالعات مختلف، برخی فقط یک بار! * تکنیک - تکنیکهای نمونهگیری مختلف استفاده میشود. **سوالات** * آیا اندازه به سال بستگی دارد؟ * آیا نوع جغرافیا، منطقه جغرافیایی یا تکنیک بر اندازه تأثیر می گذارد؟ * داده ها چگونه باید ترکیب شوند؟ آیا باید چندین اندازه گیری از یک مکان در یک سال به طور میانگین محاسبه شود؟ **مدل** فکر می کنم مدل باید باشد * متغیر وابسته: اندازه * اثرات ثابت: نوع جغرافیا، منطقه جغرافیایی * اثرات تصادفی: مکان، تکنیک **تست های انجام شده تا کنون ** رگرسیون خطی: 1. رگرسیون خطی اندازه در مقایسه با سال روند قابل توجهی را نشان داد. (0.002) 2. رگرسیون خطی اندازه در برابر سال، زمانی که اندازه گیری های متعدد از یک مکان برای یک سال به طور متوسط (یک نقطه داده در هر مکان) محاسبه شد، روند نه چندان معنی دار را نشان داد (0.060) 3. رگرسیون خطی اندازه در برابر سال ، زمانی که مقادیر میانگین مکان برای کل سال به طور میانگین محاسبه شد (یک نقطه داده در سال)، روند قابل توجهی نشان نداد. سوال - کدام مناسب تر است؟ ANOVA: 1. نوع جغرافیایی در مقابل اندازه: آمار Levene اهمیت 000 را گزارش کرد، بنابراین ANOVA با گزینه Games-Howell علامت زده شد. بین گروهها علامت 000/0. 2. منطقه جغرافیایی در مقابل اندازه: آمار Levene اهمیت 0.007 را گزارش کرد، بنابراین ANOVA با گزینه Games-Howell بررسی شد. بین گروهها علامت 0.001 3. تکنیک در مقابل اندازه: آمار Levene اهمیت 000.0 را گزارش کرد، بنابراین ANOVA با گزینه Games-Howell بررسی شد. بین گروهها علامت 0.001 حالا فکر میکنم برخی از اینها ممکن است با هم متفاوت باشند. چگونه بررسی کنیم؟ خب بعدش چی؟ ویرایش: در این بخش اشتباه کرد، اکنون GLM تک متغیره به روز شده است: 1. اثرات ثابت: نوع جغرافیا، منطقه جغرافیایی. geo type sig (.014)، zone not sig (.885)، type * zone not sig (.239) 2. اثرات ثابت: سال، نوع جغرافیا، منطقه جغرافیایی. geo type sig (.002)، zone not sig (.639)، year sig (.000)... نوع * سال نیز sig (.000) 3. اثرات ثابت: سال، نوع جغرافیا، منطقه جغرافیایی; اثرات تصادفی، تکنیک؛ SPSS نتوانست عبارت خطا را محاسبه کند. 4. اثرات ثابت: سال، نوع جغرافیا، منطقه جغرافیایی، تکنیک. نوع، سال و تکنیک همه مهم است. نوع * سال نیز قابل توجه است. آیا این رویکرد صحیح است؟ آیا ممکن است داده های کافی وجود نداشته باشد؟ وقتی مقایسه به معنای نگاه کردن به منطقه است، به نظر می رسد تفاوت وجود دارد. با GLM به نظر می رسد منطقه مهم نیست؟ این چگونه ممکن است؟ | سری های زمانی با 3 عامل از منابع مختلف |
101046 | من یک رگرسیون چندک در R با مقداری داده انجام می دهم و سپس می خواهم صحت ضرایب را روی یک مجموعه داده دیگر آزمایش کنم (مجموعه نگه دارید). اما من مطمئن نیستم که چگونه دقت را در مجموعه نگهدارنده در R اندازهگیری کنم. آیا ایدهای وجود دارد؟ | دقت پیشبینی رگرسیون چندکی |
100869 | من در حال انجام تجزیه و تحلیل رگرسیون لجستیک با استفاده از چندین پیش بینی کننده برای یک نتیجه باینری هستم. من حدود 10 پیش بینی کننده داشتم و سعی کردم بهترین مدل را با استفاده از بسته 'glmulti' در R پیدا کنم. من یک مدل قابل توجه با چهار پیش بینی دارم. اکنون میخواهم تأثیر هر پیشبینیکننده بر نتیجه را با توجه به مدل بررسی کنم. من فکر کردم که متغیرهای پیوسته را در مقادیر متوسط نگه دارم و احتمالات را برای پیش بینی کننده های طبقه بندی پیش بینی کنم. همچنین من سعی میکنم احتمالات پیشبینیشده را برای طیفی از متغیرهای پیوسته در هر سطح از پیشبینیکننده طبقهای محاسبه کنم و نمودار را رسم کنم. اما من باید مقالات پزشکی منتشر شده را ببینم که در آن افراد واقعاً مدل لجستیک چند متغیره را بررسی کرده و در مورد مدل مشتق شده از نظر سهم هر یک از پیشبینیکنندهها در نتیجه به تفصیل توضیح دادهاند. آیا کسی می تواند مشاوره آماری بدهد و همچنین چند مقاله را ارجاع دهد؟ | آیا کسی میتواند مقالاتی را به من پیشنهاد دهد که در آن از مدلهای رگرسیون لجستیک چند متغیره استفاده کرده و نقش هر یک از پیشنقلها را به تفصیل بررسی کرده باشند؟ |
111032 | من به دنبال یک کتابخانه پایتون هستم که میزان اطلاعات را برای ویژگی هایی که یک ماتریس آموزشی داده شده محاسبه می کند. آیا از هیچ کدام مطلع هستید؟ | محاسبه به دست آوردن اطلاعات در مورد ویژگی ها با پایتون |
4934 | آیا مقاله یا کتاب خوبی در مورد استفاده از نزول مختصات برای L1 (کند) و/یا منظم سازی شبکه الاستیک برای مسائل رگرسیون خطی وجود دارد؟ | مختصات فرود برای تور کمند یا الاستیک |
88127 | در برآورد حداکثر درستنمایی Skew Normal، R چگونه میانگین را محاسبه می کند؟ می دانید فرمول \begin{equation} \mu=\frac{ \sum_{i} x_{i} W(x_{i})}{\sum_{i} W(x_{i})} \end{ معادله}. جایی که \begin{معادله} W(x_{i})=\frac{\phi [ \lambda \left( \frac{x_{i}-\mu}{\sigma} \right) ]}{\Phi [\ lambda \left( \frac{x_{i}-\mu}{\sigma} \right)]} \end{equation} به عبارت دیگر، سؤال من این است: R از کجا مقدار میگیرد $\mu$، $\sigma$ و $\lambda$ وقتی هنوز محاسبه نشده اند؟ | چولگی چند متغیره نرمال |
8281 | آمار دو نمونه ای کولموگروف-اسمیرنوف معمولاً به صورت $D = \max_x |A(x) - B(x)|.$ تعریف می شود. $ من می خواهم یک متغیر را محاسبه کنم که علامت تفاوت بین توابع توزیع را حفظ کند: $ D^\prime = A(x) - B(x) \quad\text{where}\quad x = \arg\max_x |A(x) - B(x)|.$ نام درست $D^\prime$ چیست؟ توجه داشته باشید که $D^\prime$ با $D^+ = \max_x [A(x) - B(x)]$ و $D^- = \max_x [B(x) - A(x)] متفاوت است، $ که Coberly و Lewis آن را به عنوان آمار KS یک طرفه توصیف می کنند. برای زمینه، $D^\prime$ همانطور که در بالا تعریف شد توسط Perlman و همکاران استفاده می شود. برای پروفایل سلول های کشت شده تحت درمان با دارو. (صفحه 3-4 مکمل را ببینید.) آنها $D^\prime$ را به طور مستقل برای هر ویژگی تصویر نمونه محاسبه می کنند، سپس مقادیر-$D^\prime$ را استاندارد می کنند (با استفاده از میانگین و انحراف استاندارد همان اندازه گیری بر روی نمونه های آزمایش شده). پروفایل های همبسته (از مقادیر استاندارد شده $D^\prime$) داروهایی را نشان می دهد که اثرات بیولوژیکی مشابهی دارند. | نام مناسب برای گونه ای از آمار کولموگروف-اسمیرنوف که علامت تفاوت را حفظ می کند چیست؟ |
104528 | من اغلب افرادی را می بینم که با حذف میانگین از همه عناصر، یک بعد/ویژگی یک مجموعه داده را با میانگین صفر می سازند. اما من هرگز نفهمیدم چرا این کار را انجام دهم؟ انجام آن به عنوان یک مرحله پیش پردازش چه تأثیری دارد؟ آیا عملکرد طبقه بندی را بهبود می بخشد؟ آیا پاسخ دادن به چیزی در مورد مجموعه داده کمکی می کند؟ آیا هنگام انجام تجسم به درک داده ها کمک می کند؟ | ایده ساخت داده ها دارای میانگین صفر است |
93190 | من دادهها را بر اساس $y = \text{sin}(2\cdot(4x-2))+2\cdot\text{exp}(-(16^2)(x-0.5)^2)+ شبیهسازی کردهام \epsilon$ where $\epsilon \sim \mathbb{N}(0,0.3^2)$ با ارزیابی B-Spline درجه یک $k$، به عنوان مثال، $\text{B}_{i,k}(x)$ برای $m$ فواصل گره مساوی داخلی به صورت بازگشتی، یک ماتریس طراحی با ابعاد $n\times (m+k)$ ($q=) دریافت خواهم کرد m+k$) با B-Splines به عنوان ستون. با استفاده از روش حداقل مربعات معمولی، به راحتی می توان $(\boldsymbol{y-X\beta})^T(\boldsymbol{y-X\beta})$ w.r.t $\boldsymbol{\beta}$ را به حداقل رساند. اکنون میخواستم یک مثال ساده مشابه برای یک محصول تانسوری B-spline تنظیم کنم. در اینجا، مدل $y_i = \sum_{j=0}^q\sum_{l=0}^p \beta_{j,l}\text{B}_{j,k_1}(x_i)\text خواهد بود {B}_{l,k_2}(z_i) + \epsilon_i\hspace{3ex} (1)$. W.r.t $x$، B-Spline-Matrix $\boldsymbol{B}_x$ دارای ابعاد $n\times q$ و w.r.t است. $z$، یعنی $\boldsymbol{B}_z$ دارای بعد $n\ برابر p$ است. اگر حاصل ضرب تانسور $\boldsymbol{B}_x$ و $\boldsymbol{B}_z$ را بگیرم، یعنی $\boldsymbol{B}_x\otimes\boldsymbol{B}_z$، این ماتریس بعد $ خواهد بود. \Big(n^2\times (q\cdot p)\Big)$ اما بردار $\boldsymbol{y}$ که پیشبینی میشود روی $\boldsymbol{B}_x\otimes\boldsymbol{B}_z$، فقط طول $n$ دارد؟ (1) پیشنهاد می کند که، مشابه اصطلاحات متقابل معمولی، تمام محصولات ممکن آن دو پایه B-Splines را انتخاب کنم. اما آن دو بردار ستون هستند؟ من باید این محاسبه را برای هر جفت انجام دهم، یعنی $q\cdot p$ ضرب های عنصری مختلف. اما در اینجا عبارت تنسور معنی ندارد. با نگاهی به چندین مقاله، هنوز مطمئن نیستم که این ماتریس طراحی که از محصول تانسور آن ماتریس های B-Spline ساخته شده است چگونه خواهد بود؟ | راهاندازی یک محصول تانسور ساده B-spline |
3727 | وقتی میانگین $\mu$، واریانس $\sigma^2$، چولگی $\gamma_1$ را می دانید، بهترین راه برای تقریبی $Pr[n \leq X \leq m]$ برای دو عدد صحیح $m,n$ چیست؟ و کشش اضافی $\gamma_2$ از یک توزیع گسسته $X$، و از معیارهای (غیر صفر) شکل $\gamma_1$ و $\gamma_2$ که یک تقریب معمولی مناسب نیست؟ معمولاً از یک تقریب معمولی با تصحیح اعداد صحیح استفاده میکنم... $Pr[(n - \text{½})\leq X \leq (m + \text{½})] = Pr[\frac{(n - \text{½})-\mu}{\sigma}\leq Z \leq \frac{(m + \text{½})-\mu}{\sigma}] = \Phi(\frac{(m + \text{½})-\mu}{\sigma}) - \Phi(\frac{(n - \text{½})-\mu}{\sigma})$ ...اگر چولگی و کشیدگی بیش از حد (نزدیک به) 0 بود، اما در اینجا اینطور نیست. من باید چندین تقریب را برای توزیع های گسسته مختلف با مقادیر مختلف $\gamma_1$ و $\gamma_2$ انجام دهم. بنابراین من علاقه مندم که بفهمم آیا رویه ای وجود دارد که از $\gamma_1$ و $\gamma_2$ برای انتخاب تقریب بهتر از تقریب معمولی استفاده کند. | تقریب $Pr[n \leq X \leq m]$ برای یک توزیع گسسته |
93193 | من یک مدل نیمه پارامتریک و یک مدل کامل غیر پارامتریک را با استفاده از بسته 'np' در R تخمین می زنم. بیش از 400 مشاهده برای T سال بزرگ دارم، علاوه بر این چندین متغیر توضیحی نیز گنجانده خواهد شد. این به معنی هزاران ساعت کار به علاوه خرابی برای دستگاه من است. بنابراین، من باید با تثبیت پهنای باند به قانون سرانگشتی Silverman، تخمین را تسریع کنم. بسته پهنای باند Silverman خود را دارد، با این حال من سعی می کنم آن را به تنهایی پیاده سازی کنم. من سعی کردم لیست سوالات متداول np را دنبال کنم، هنوز هم کار نمی کند. من کتابخانه تخمین نیمه پارامتریک زیر را انجام می دهم (np) ## داده نمونه. n <- 250 x1 <- rnorm(n) x2 <- rnorm(n) z1 <- rnorm(n) ins <- rnorm(n) y <- 1 + x1 + x2 + z1 + rnorm(n) # متغیر وابسته # تنظیم قانون سیلورمن پهنای باند سرانگشتی h1 = 1.059*sd(z1)*(n^(-0.2)) h2 = 1.059*sd(ins)*(n^(-0.2)) اول <- npplreg(y ~ x1 + x2|z1 + ins، bws=c (h1, h2)) خطای زیر را دریافت می کنم: خطا در bws[1, ] : تعداد ابعاد نادرست این اتفاق می افتد همچنین اگر از قانون سیلورمن از پیش ساخته شده np استفاده کنم «bw.nrd0(z1),bw.nrd0(ins)». توجه داشته باشید که «bw.nrd0» با «h1» من متفاوت است، به همین دلیل است که من میخواهم bw خود را قرار دهم، اما اگر از یک فرم پارامتریک کامل استفاده کنم دوم <- npreg(y~z1+ins,gradients=) این اتفاق نمیافتد. درست است، bws=c(h1,h2)) من نتوانستم مشکل را بفهمم. | انتخاب پهنای باند در تخمین نیمه پارامتری چند متغیره در R (بسته np) |
104093 | در روش خوشهبندی سلسله مراتبی، از ماتریس فاصله برای ساخت دندروگرام با روش مناسب خوشهبندی استفاده میشود. در فرآیند ساخت دندروگرام، **ماتریس cophenetic** محاسبه می شود. من میدانم که چنین ماتریس cophenetic برای ارزیابی سازگاری خوشهبندی استفاده میشود. چگونه می توانم از یک ماتریس cophenetic برای رسم دندروگرام استفاده کنم؟ | ماتریس فاصله کوفنتیک تا دندروگرام |
4932 | من یک قاب داده مانند این دارم. 1. سهم کاربران با تعداد سیستم عامل های مختلف. بنابراین، کسری از کاربران با 1 سیستم عامل، با سیستم عامل و غیره خواهد بود. 2. سهم کاربران با تنها یک سیستم عامل و بیش از یک سیستم عامل. برای این کار من سعی کردم از «tapply(OS, User, unique)» استفاده کنم. اما نمیدانید چگونه نتایج را ترسیم کنید. داشتم فکر میکردم که آیا این راه درستی است و چه کارهای بیشتری باید انجام دهم تا به نقشههایی که میخواستم برسم. | R گرفتن سهم کاربران با مضرب یک عنصر |
26235 | **لطفاً ویرایش را ببینید.** وقتی دادههایی با دم سنگین دارید، انجام یک رگرسیون با خطاهای student-t کاری بصری به نظر میرسد. در حین بررسی این امکان، به این مقاله برخورد کردم: بروش، تی. اس.، رابرتسون، جی سی.، و ویلش، ای. اچ. (01 نوامبر 1997). لباس جدید امپراطور: نقدی بر مدل رگرسیون t چند متغیره. Statistica Neerlandica, 51, 3.) (لینک, pdf) که استدلال می کند که پارامتر مقیاس و پارامتر درجات آزادی به نوعی نسبت به یکدیگر قابل شناسایی نیستند و به همین دلیل انجام رگرسیون با خطاهای t نمی تواند هر کاری فراتر از رگرسیون خطی استاندارد انجام دهید. > Zellner (1976) یک مدل رگرسیون را پیشنهاد کرد که در آن بردار داده (یا بردار خطا) به عنوان یک تحقق از توزیع چند متغیره Student > t نشان داده می شود. این مدل توجه قابلتوجهی را به خود جلب کرده است زیرا به نظر میرسد فرض گاوسی معمول را گسترش میدهد تا توزیعهای خطای دم سنگینتر را امکانپذیر کند. تعدادی از نتایج در ادبیات نشان میدهد که روشهای استنتاج استاندارد برای مدل گاوسی تحت فرض توزیع گستردهتر مناسب باقی میماند، که منجر به ادعای استحکام روشهای استاندارد میشود. ما نشان میدهیم که اگرچه از نظر ریاضی این دو مدل متفاوت هستند، اما برای اهداف استنتاج آماری آنها غیرقابل تشخیص هستند. مفاهیم تجربی مدل t چند متغیره > دقیقاً مشابه مدل گاوسی است. از این رو پیشنهاد ارائه توزیع گستردهتر دادهها جعلی است، و ادعای استحکام گمراهکننده است. این نتایج از هر دو منظر مکرر و بیزی به دست آمده است. این من را شگفت زده می کند. من آن پیچیدگی ریاضی را ندارم که بتوانم استدلال های آنها را به خوبی ارزیابی کنم، بنابراین چند سوال دارم: آیا درست است که انجام رگرسیون با خطاهای t به طور کلی مفید نیست؟ اگر گاهی اوقات مفید هستند، آیا مقاله را اشتباه متوجه شده ام یا گمراه کننده است؟ اگر آنها مفید نیستند، آیا این یک واقعیت شناخته شده است؟ آیا راه های دیگری برای محاسبه داده ها با دم سنگین وجود دارد؟ **ویرایش**: با مطالعه دقیق پاراگراف 3 و بخش 4، به نظر می رسد مقاله زیر در مورد آنچه من به عنوان رگرسیون دانشجویی-t فکر می کردم صحبت نمی کند (خطاها توزیع t تک متغیره مستقل هستند). در عوض، خطاها از یک توزیع منفرد گرفته می شوند و مستقل نیستند. اگر درست متوجه شده باشم، این عدم استقلال دقیقاً همان چیزی است که توضیح می دهد که چرا شما نمی توانید مقیاس و درجات آزادی را به طور مستقل تخمین بزنید. من حدس میزنم که این مقاله فهرستی از مقالات را برای جلوگیری از خواندن ارائه میکند. | آیا رگرسیون با خطاهای دانشجویی بی فایده است؟ |
32174 | من یک سوال سریع دارم که در پیچیدن سرم با مشکل روبرو هستم. الگوریتم PCA را می توان بر حسب ماتریس همبستگی فرموله کرد (فرض کنید داده $X$ قبلاً نرمال شده است و ما فقط در حال طرح ریزی بر روی اولین PCA هستیم). تابع شی را می توان به صورت زیر نوشت: $$ \max_w (Xw)^T(Xw)\; \: \text{s.t.}$$ $$ w^Tw = 1 $$. این خوب است و برای حل آن از ضریب لاگرانژی استفاده می کنیم. اما این را می توان به صورت زیر بازنویسی کرد: $$ \max_w (Xw)^T(Xw) - \lambda w^Tw $$ که معادل $$ \max_w \frac{ (Xw)^T(Xw) }{w^ Tw} $$ $$= \max_w \sum_{i=1}^n \text{ (فاصله از نقطه $x_i$ تا خط $w$) }^2 $$ اینجا را ببینید اما این میگوید فاصله بین نقطه و خط را به حداکثر میرساند، و با توجه به آنچه در اینجا خواندهام، این اشتباه است (باید $\min$ باشد، نه $\max$. من کجاست. خطا یا، آیا کسی می تواند **ارتباط بین به حداکثر رساندن واریانس در فضای پیش بینی شده و به حداقل رساندن فاصله بین نقطه و خط را به من نشان دهد؟ | تابع هدف PCA |
99839 | من یک مدل GARCH(1,1) را برای برخی از دادهها برازش میدهم: $Y_{t} = \sigma_{t}\epsilon_{t}$ با $\epsilon_{t} \sim t(\nu)$, $ \sigma_{t}^{2} = a_{0} + a_{1}Y_{t-1}^{2} + b_{1}\sigma_{t-1}^{2}$. با تخمین پارامترها و خطاهای استاندارد، مقدار p تقریباً به دست میآید. 0.26 برای $a_{0}$. اکنون $\hat a_{0}$ بسیار نزدیک به صفر است. به نظر نمیرسد که من نمیتوانم مدل را بدون ثابت R مناسب کنم، بنابراین میپرسم آیا ادامه کار با مدل خوب است یا خیر. نمودارهای ACF/PACF باقیمانده های استاندارد شده مربعی نشان دهنده تناسب خوبی است (سایر برآوردها در سطح 5 درصد قابل توجه هستند (یکی از آنها به سختی)). به سلامتی | GARCH(1,1) با ثابت ناچیز |
2108 | من یک وب سرویس دارم که مجموعه داده ای را برمی گرداند و می خواهم از بسته آماری [R] آن را پرس و جو کنم. من می خواهم بدانم چگونه (یا اگر) این کار را می توان انجام داد و همچنین چگونه می توان اولین جدول داده، از این مجموعه داده، را در حافظه بارگذاری کرد. با تشکر ویرایش: این یک وب سرویس XML است | استفاده از [R] برای اتصال به وب سرویس |
4930 | **سلب مسئولیت: من این سوال را در Stackoverflow پست کردم، اما فکر کردم شاید این برای این پلتفرم مناسب تر باشد. ** چگونه پیاده سازی k-means خود را برای مجموعه داده های چند بعدی آزمایش می کنید؟ من به اجرای یک پیادهسازی موجود (یعنی Matlab) روی دادهها فکر میکردم و نتایج را با الگوریتم خود مقایسه میکردم. اما این امر مستلزم آن است که هر دو الگوریتم تقریباً یکسان عمل کنند و نگاشت بین دو نتیجه احتمالاً بیتفاوت است. آیا ایده بهتری دارید؟ | چگونه پیاده سازی k-means را آزمایش می کنید؟ |
2104 | ممنون که خواندید. من سعی می کنم مقادیر کروی را برای یک طراحی کاملاً درون موضوعی بدست بیاورم. من نتوانستم از ezANOVA یا Anova() استفاده کنم. اگر یک فاکتور بین سوژه اضافه کنم، Anova کار می کند، اما نتوانسته ام کروییت را برای طراحی صرفاً درون موضوعی بدست بیاورم. هر توصیه ای؟ من قبلاً خبرنامه R، ضمیمه فصل روباه، EZanova و هر آنچه را که می توانستم آنلاین پیدا کنم را خوانده بودم. ANOVA اصلی من (aov(resp ~ ساکارز*سیترال، تصادفی =~1 | موضوع، داده = p12bl، زیر مجموعه = exps==1)) anova(aov(resp ~ ساکارز*سیترال، تصادفی =~1 | موضوع/ساکارز *citral، داده = p12bl، زیر مجموعه = exps==1)) > str(زیرمجموعه(p12bl، exps==1)) 'data.frame': 192 obs. از 12 متغیر: $ exps : int 1 1 1 1 1 1 1 1 1 1 ... $ ترتیب : int 1 1 1 1 1 1 1 1 1 1 ... $ آستانه: فاکتور w/ 2 سطح Suprathreshold, ..: 1 1 1 1 1 1 1 1 1 1 ... $ SET : Factor w/ 2 سطح A، B: 1 1 1 1 1 1 1 1 1 1 ... $ موضوع : فاکتور w/ 16 سطح 1،2،3،4،..: 1 2 3 4 5 6 7 8 9 10 ... $ stim : chr S1C1 S1C1 S1C1 S1C1 ... $ پاسخ : num 6.01 5.63 0 2.57 6.81 ... $ id : int 1 2 3 4 5 6 7 8 9 10 ... $ X1 : Factor w/ 1 level S: 1 1 1 1 1 1 1 1 1 1 1 . .. ساکارز $: فاکتور با 4 سطح 1، 2، 3، 4: 1 1 1 1 1 1 1 1 1 1 ... $ X3 : ضریب w/ 1 سطح C: 1 1 1 1 1 1 1 1 1 1 ... سیترال $ : فاکتور w/ 4 سطح 1،2،3،4: 1 1 1 1 1 1 1 1 1 1 ... زیرمجموعه (p12b,exps==1) exps آستانه سفارش SET مشاهده S1C1 S1C2 S1C3 S1C4 S2C1 S2C2 S2C3 S2C4 S3C1 S3C2 S3C3 S3C4 S4C1 S4C2 S4C3 S4C4 1 1 1 01 . 8.6 15.0 15.4 15.0 13.1 16.9 13 13.1 16.5 24 16 21 20 2 1 1 Suprathreshold A 2 5.6 0.8 4.0 5.6 5.6 11.3 16.5 125 14.5 24 26 29 28 3 1 1 فوق آستانه A 3 0.0 0.0 1.7 0.0 5.0 8.4 8.4 5.0 11.7 20 18.5 16.8 29 37 37 30 0.0 1.7 41. 9.1 16.3 5.4 10.0 9.6 16.8 13.5 12 22.2 23.1 19 20 22 23 5 1 1 Suprathreshold A 5 6.8 5.3 15.4 14.5 11.5 11.5 8.8. 11.2 15.1 24 23 19 19 6 1 1 Suprathreshold A 6 2.6 2.8 2.6 5.2 13.4 15.6 13.7 13.0 13.7 15 16.0 18.9 25227 Suprashold A 6 2.6 2.8 2.6 1.3 5.8 10.2 9.8 11.9 12.3 17.7 16.7 11.4 19 19.2 21.1 16 19 18 19 8 1 1 Suprathreshold A 8 2.0 5.6 3.4 2.9 2.9 2.0 21 8.2 9.5 30 26 32 45 9 1 1 Suprathreshold A 9 9.4 11.3 11.7 12.1 14.7 13.8 12.6 14.9 15.2 15 15.9 1181015 Suprathreshold A 9 9.4 11.3 A 10 4.5 17.8 18.5 21.6 5.8 10.9 17.0 20.2 6.6 10 17.8 18.7 12 12 16 19 11 1 1 Suprathreshold A 11 9.8 11.16 13.01. 15.4 17.3 10.1 14 15.2 16.7 13 15 15 17 12 1 1 Suprathreshold A 12 9.6 10.4 13.3 11.3 12.1 12.6 13.6 13.6 13.6 13.6 13.6 13.6 18 18 17 خروجی نمونه ezANOVA (داده = زیر مجموعه (p12bl، exps==1)، dv= .(resp)، sid = .(مشاهده)، درون = .(ساکارز، سیترال)، بین = NULL، collapse_within = FALSE) توجه: مدل فقط یک رهگیری دارد. تست های معادل نوع III جایگزین شدند. $ANOVA Effect DFn DFd SSn SSd F p p<.05 pes 1 ساکارز 3 33 4953 3263 16.70 9.0e-07 * 0.603 2 سیترال 3 33 410 553 8.16 3.3 4953 3263 99 56 791 0.77 6.4e-01 0.066 پیام های هشدار: 1: شما یک یا چند S را از تجزیه و تحلیل حذف کرده اید. Refactoring observ برای ANOVA. 2: Ss های بسیار کمی برای Anova()، بازگشت به aov(). بخش هشدار از راهنمای ezANOVA را ببینید. | چگونه می توان Sphericity را در R برای طراحی تو در تو در داخل موضوع بدست آورد؟ |
99835 | دیروز برای اولین بار در مورد نقشه بلند-آلتمن شنیدم. من باید دو روش اندازه گیری فشار خون را با هم مقایسه کنم و باید یک طرح بلند-آلتمن تهیه کنم. من مطمئن نیستم که همه چیز را در مورد آن به درستی دریافت کنم، بنابراین چیزی که فکر می کنم می دانم این است: من دو مجموعه داده دارم. من میانگین آنها (مقدار x) و تفاوت آنها (مقدار y) را محاسبه می کنم و آن را حول محور y = میانگین اختلاف رسم می کنم. سپس، انحراف معیار تفاوت را محاسبه میکنم و آن را به عنوان «حدود توافق» ترسیم میکنم. این چیزی است که من نمی فهمم - حدود چه توافقی؟ توافق 95 درصدی در اصطلاح غیرعامل به چه معناست؟ آیا قرار است به من بگوید (به شرطی که تمام نقاط نمودار پراکندگی بین محدودیت های توافق باشد) که روش ها 95٪ مطابقت دارند؟ | ایجاد و تفسیر طرح بلند-آلتمن |
21957 | اگر مدل را داشته باشم: m = glm(x~y,family=poisson) مقیاسی که پیشبینیها بر اساس آن به دست میآیند (از مثلاً «پیشبینی (m)») چیست؟ برای مثال، من می دانم که اگر «خانواده=دوجمله ای» باشد، مقیاس پیش بینی log-odds است. | مقیاس پیشبینی مدلهایی که از خانواده پواسون استفاده میکنند چقدر است؟ |
26237 | من در نت به دنبال عبارت نمونه های وابسته و مستقل بودم، اما نتوانستم تعریف مناسبی پیدا کنم و به این نتیجه برسم که دقیقا چیست. اگر کسی از شما بتواند آن را توضیح دهد و دانش را به ما عطا کند، خوب است. | نمونه های وابسته در مقابل مستقل |
99836 | من از تابع Rlm() برای برازش یک مدل با یک متغیر عددی و ده متغیر طبقه ای استفاده کرده ام. مقدار p گزارش شده برای رگرسیون بسیار پایین است: خطای استاندارد باقیمانده: 2.459 در 320 درجه آزادی، R-squared چندگانه: 0.5952، R-squared تنظیم شده: 0.3726 F-آمار: 2.674 در 176 و 320: DF، p-value 1.179e-14 با این حال، زمانی که من استفاده می کنم drop1() برای آزمایش اینکه آیا می توان هر یک از متغیرها را حذف کرد، من مقادیر p بسیار بالا (0.5 یا بیشتر) را برای تقریباً همه متغیرها و مقدار p پایین برای یکی از آنها دریافت می کنم. آیا این معقول است؟ | آیا تمام مقادیر p از مدلهای drop1 میتوانند بالا باشند حتی زمانی که مقدار p برای مدل کامل lm پایین است؟ |
21955 | من در حال انجام تجزیه و تحلیل خوشهبندی بدون نظارت برای یک پروژه ژنومیک هستم. این بدان معنی است که من نمی دانم چه زمانی یک تحلیل خوشه بندی خاص خوب است یا نه. من الگوریتمهای مختلف خوشهبندی و «مجموعههایی از ویژگیها» را اجرا میکنم. منظور من از «مجموعههای ویژگیهای» متفاوت این است که با توجه به یک چارچوب داده، من ترکیب متفاوتی از ستونها را بسته به اهمیت بیولوژیکی آن انتخاب میکنم. به عنوان مثال، برخی از متغیرها چیزها را در سطح توالی اندازه گیری می کنند، در حالی که برخی دیگر یک فرآیند سلولی خاص یا ویژگی دیگری را که نمی توان در سطح توالی اندازه گیری کرد، اندازه گیری می کنند. من با خروجی های مختلف این مجموعه از ویژگی ها بازی می کنم، الگوریتم ها را با _همه_ ویژگی ها اجرا می کنم، یا برخی را نادیده می گیرم و غیره. چیزی که من میخواهم این است که خوشههای مختلف این اجراهای مختلف را با هم مقایسه کنم و ببینم که آیا برخی از اشیاء من با وجود نداشتن مجموعهای از ویژگیها به طور مشابه خوشهبندی میشوند. آیا این منطقی است؟ آیا توصیه ای وجود دارد که چگونه می توانم این کار را انجام دهم؟ | روش های مقایسه نتایج خوشه بندی |
4936 | مزایا و معایب استفاده از LARS [1] در مقابل استفاده از نزول مختصات برای برازش رگرسیون خطی منظم L1 چیست؟ من عمدتاً به جنبه های عملکرد علاقه مند هستم (مشکلات من معمولاً 'N' در صدها هزار و 'p' < 20 است.) با این حال، هر بینش دیگری نیز قابل قدردانی است. ویرایش: از آنجایی که من سوال را پست کردم، chl با مهربانی به مقاله ای [2] توسط فریدمن و همکاران اشاره کرد که در آن نشان داده شده است که نزول مختصات به طور قابل توجهی سریعتر از روش های دیگر است. اگر اینطور است، آیا من به عنوان یک تمرینکننده باید LARS را به نفع نزول مختصات فراموش کنم؟ > [1] افرون، بردلی. هیستی، تروور؛ جانستون، آیین و تیبشیرانی، رابرت > (2004). رگرسیون حداقل زاویه. Annals of Statistics 32 (2): pp. 407–499. > [2] Jerome H. Friedman، Trevor Hastie، Rob Tibshirani، مسیرهای منظم سازی > برای مدل های خطی تعمیم یافته از طریق نزول مختصات، Journal of > Statistical Software, Vol. 33، شماره 1، فوریه 2010. | LARS در مقابل فرود مختصات برای کمند |
26236 | آیا می توان از «zelig» برای رگرسیون بتا (مانند بسته «betareg» در R) استفاده کرد؟ من نتوانستم هیچ سندی پیدا کنم بنابراین حدس میزنم که اجرا نشده باشد. آیا چیزی وجود دارد که استفاده از آن را برای بتا reg منع کند؟ | رگرسیون بتا با Zelig |
79937 | من برخی از داده های وزنی را با استفاده از حداقل مربعات به یک مدل غیرخطی (یعنی یک نمایه نور سرسیک) برازش داده ام. یعنی من یک مدل حداقل مربعات غیرخطی وزنی به شکل برازش داده ام: $$I_r = I_0 \exp\left[-\left(\frac{r}{\alpha}\right)^{1/n}\right ]+\epsilon_r$$ که در آن $I_0$، $α$ و $n$ پارامترها هستند. سپس چگونه می توانم محدودیت های اطمینان را برای هر پارامتر، یعنی 1،2،3 سیگما، پیدا کنم؟ | محدودیت های اطمینان برای یک رگرسیون غیر خطی |
99838 | من در حال خواندن مقاله ای هستم که در مورد به حداقل رساندن واگرایی KL هر توزیع دلخواه بر روی یک خانواده از توزیع نمایی صحبت می کند. بنابراین، با توجه به توزیع $p$، میخواهیم تقریب آن را در خانواده نمایی محاسبه کنیم. بنابراین، ما به صورت زیر داریم که در آن $p(x)$ توزیع داده شده و $q_{\theta}(x)$ توزیعی در خانواده نمایی است.: $$ \begin{split} f(\theta) & = \textrm{KL} (p \| q_{\theta}) = \left\langle \log\left(\frac{p(x)}{q_{\theta}(x)}\right) \right\rangle_{p(x)} \\\ &= \langle \log (p(x)) \rangle_{p(x)} + \langle \log(Z(\theta))\rangle_{p( x)} - \langle \theta ^{T} \phi(x) \rangle_{p(x)} \\\ &= \langle \log (p(x)) \rangle_{p(x)} + \log(Z(\theta)) - \theta ^{T} \langle \phi(x) \rangle_{p(x)} \end{split} $$ در خط آخر مراحل بالا و آخرین ترم ، می توانیم $\theta ^{T}$ را از عملگر انتظار خارج کنیم و اساساً آن را به عنوان یک ثابت در نظر بگیریم که من را گیج می کند. اگر به درستی متوجه شده باشم، $\theta$ پارامترهای توزیع تقریبی هستند، بنابراین اگر توزیع به عنوان مثال گاوسی باشد میانگین و واریانس است. بنابراین، با توجه به اینکه آنها به $x$ نیز وابسته هستند، چگونه می توان این را به عنوان یک ثابت در نظر گرفت؟ | آمار کافی و واگرایی KL: سردرگمی با یک معادله |
112290 | > یک خانواده متشکل از چهار نفر - A، B، C و D - متعلق به یک درمانگاه پزشکی است که همیشه در هر یک از ایستگاه های 1، 2، و 3 یک پزشک دارد. در طول یک هفته خاص، هر یک از اعضای خانواده یک بار به کلینیک مراجعه می کند و به طور تصادفی به یک ایستگاه اختصاص داده می شود. این آزمایش شامل ثبت > شماره ایستگاه برای هر عضو است. فرض کنید که هر فرد ورودی > به همان اندازه به هر یک از سه ایستگاه اختصاص داده می شود، صرف نظر از > جایی که افراد دیگر در آن منصوب شده اند. > > احتمال اینکه یک ایستگاه دو عضو خانواده داشته باشد و > بقیه فقط یک نفر داشته باشند چقدر است؟ پاسخ: 0.444 من پاسخها را دارم و راههای متعددی برای رسیدن به پاسخ میبینم، اما ممکن است فقط یک تصادف یا رابطهای باشد که من نمیبینم. من روش دوجمله ای را امتحان کردم اما برای دریافت پاسخ های دیگر سازگار نبود. من فقط به یک روش روشن برای این نوع مشکلات نیاز دارم. | احتمال قرار گرفتن 4 نفر در 3 اتاق |
104525 | من داده های تیک به تیک دو سری زمانی مالی را دارم. من سعی می کنم بین دو سری زمانی داده شده رگرسیون آنلاین انجام دهم. اما من به دلیل ماهیت ناهمزمان سری های زمانی مالی معین گیر کرده ام که باعث می شود ماتریس های من در رگرسیون آنلاین تکی باشند. برای مقابله با این، من با مقدار قبلی به روز می کنم. اما این به نظر نمی رسد کمک زیادی به من کند. بنابراین، چگونه می توانم با ماهیت ناهمزمان سری زمانی مالی داده شده مقابله کنم؟ هر گونه پیشنهاد یا هر ترفند ریاضی بسیار قدردانی خواهد شد. | چگونه با داده های ناهمزمان در سری های زمانی مالی برخورد کنم؟ |
3724 | طبق راهنمای مایکروسافت اکسل: > VAR از فرمول زیر استفاده می کند: >  > > جایی که x نمونه میانگین AVERAGE است(شماره1، عدد2،… ) و n نمونه > اندازه است. آیا نباید به جای n - 1 در مخرج n باشد؟ | فرمول مایکروسافت اکسل برای واریانس |
20532 | این ممکن است یک سوال پیش پا افتاده به نظر برسد، اما من در هیچ کجا پاسخ قانع کننده ای پیدا نکرده ام. من باید خطاهای استاندارد را در یک رگرسیون OLS $y = X\beta + u$ در R **از ابتدا** محاسبه کنم. چگونه می توانم این کار را بدون معکوس کردن ماتریس X'X$ انجام دهم؟ (دلیل این است که سرعت مهم است.) فرض کنید که من قبلاً ماتریک $X'X$ را توسط Cholesky فاکتور گرفته ام و قبلاً $\hat \beta$ و $\hat \sigma$ دارم. با تشکر | چگونه خطاهای استاندارد در OLS را بدون معکوس کردن ماتریس X'X محاسبه کنیم؟ |
57395 | من مدل زیر را دارم: > model1<-lmer(aph.remain~sMFS1+sAG1+sSHDI1+sbare+season+crop +(1|منظره)،family=poisson) ...و این خروجی خلاصه است. > خلاصه (model1) مدل ترکیبی خطی تعمیم یافته متناسب با تقریب لاپلاس فرمول: aph.remain ~ sMFS1 + sAG1 + sSHDI1 + sbare + فصل + برش + (1 | چشم انداز) AIC BIC logLik انحراف 4057 4084 -20919 گروهی واریانس نام Std.Dev. landscape (Intercept) 0.74976 0.86588 تعداد obs: 239، گروه: landscape، 45 Fixed effect: Estimate Std. خطای z مقدار Pr(>|z|) (برق) 2.6613761 0.1344630 19.793 < 2e-16 sMFS1 0.3085978 0.1788322 1.726 0.08441 0.08441 0.08441 0.08441 0.08441 sMFS1 19.793 0.1788322 0.002 0.99851 sSHDI1 0.4641420 0.1619018 2.867 0.00415 sbare 0.4133425 0.0297325 13.902 < 2e-161170202025-0. -18.390 < 2e-16 cropfoage 0.7897194 0.0672069 11.751 < 2e-16 cropsoy 0.7661506 0.0491494 15.588 < 2e-16 < 2e-16 Correlation of FixsM. sSHDI1 sbare sesnlt crpfrg sMFS1 -0.007 sAG1 0.002 -0.631 sSHDI1 0.000 0.593 -0.405 sbare -0.118 -0.003 0.007 -0.003 0.007 -0.06 -0.003 فصل -0.06 -0.003 0.003 -0.283 -0.168 -0.004 0.016 -0.014 0.791 -0.231 cropsoy -0.182 -0.028 0.030 -0.001 0.404 -0.164 0.55 دقیقاً محاسبه می شود؟ خیلی ممنون | چگونه می توان برای پراکندگی بیش از حد در پواسون GLMM با lmer() در R آزمایش کرد؟ |
111390 | ادبیات گسترده ای در مورد مدل سازی رویدادهای باینری نادر نوشته شده است. رگرسیون لجستیک دقیق، رویدادهای نادر توسط گری کینگ و روش فرث برای نتایج باینری به خوبی کار می کنند. اما برای نتایج نادر و مداوم چه چیزی را پیشنهاد می کنید؟ بگویید، من چندین منبع درآمد دارم (بیش از 20000 منبع). به طور جداگانه، هر منبع در طول یک سال فقط در موارد نادر سود ایجاد می کند. هر منبع می تواند 362 روز سود صفر و 3 روز سود مثبت داشته باشد. تعداد روزهای سود از منبعی به منبع دیگر کمی متفاوت است. من مقادیر سود روزانه تولید شده توسط هر منبع را در یک مجموعه داده جمع آوری کرده ام. به نظر می رسد که مقاطع مقطعی است. این سود متغیر وابسته من است. متغیرهای مستقل مرتبط با آن نیز متغیرهای پیوسته هستند. آیا می توانید راهنمایی هایی در مورد اینکه از کدام فریم ورک استفاده کنم به من بدهید؟ (من مدل توبیت را امتحان کردم که سانسور چپ را فرض می کند، اما مطمئن نیستم که آیا این رویکرد خوبی است یا خیر.) آیا هنوز می توانم از Firth یا رویدادهای نادر استفاده کنم؟ | مدل سازی رویدادهای نادر پیوسته |
57394 | من در حال انجام یک مطالعه مورد-شاهدی هستم که در آن تعداد زیادی، مثلاً $N$ از جداول 2x2 داریم. برای یک جدول مجموع ستونها را ثابت کردهایم، مثلاً $n_{+0}$ و $n_{+1}$ بهطوریکه $n_{+0} + n_{+1} = n$، تعداد کل بیماران است. با توجه به احتمالات سلولی $p_{00},p_{11},p_{01},p_{10}$، میتوانیم یک جدول 2x2 را با ایجاد مستقل $Z_0 \sim binomial(n_{+0}, \frac{) شبیهسازی کنیم. p_{10}}{p_{10}+p_{00}})$Z_1$ \sim binomial(n_{+1}، \frac{p_{11}}{p_{11}+p_{01}})$ و تنظیم $n_{11} = Z_1، n_{10} = Z_0$، البته، $n_{01} = n_{ +1}-n_{11}$ و غیره. سؤال من این است که چگونه می توانم $N$ چنین جداولی را که جداول وابسته هستند شبیه سازی کنم؟ من عمداً این سؤال را کمی مبهم می کنم زیرا مطمئن نیستم که چه نوع وابستگی بین دو جدول احتمالی معقول به نظر می رسد. البته ما میتوانیم هر فرض معقولی مانند مجموع ردیفهای شناخته شده را برای سادهتر کنیم. من از هر کمکی در این مورد قدردانی می کنم. | چگونه می توان چندین جدول 2x2 وابسته را شبیه سازی کرد؟ |
14019 | من دو برنامه A و B را اجرا کردم و ویژگی های متناظر آنها a، `b`،`c و d است. من میخواهم دادههای ویژگیهای آنها را بهجای جدولی که در زیر نشان داده شده است به روشی بهتر نشان دهم تا توضیح دهم چرا A بهتر از B است یا برعکس. اول، من در مورد نمایش بارپلات فکر کردم، اما داده های ویژگی a بسیار کوچک است و این باعث می شود نمایش بارپلات به عنوان یک نمایش نامناسب باشد. علاوه بر این، من همچنین به بازنمایی بارپلات A/B (نرمالسازی) فکر کردم، اما از نمودار بارپلات حاصل راضی نبودم. اگر ایده های خود را به اشتراک بگذارید کمک بزرگی خواهد بود. من می خواهم از R برای رسم داده ها استفاده کنم. prog a b c d A 0.8 7900 70 27 B 0.3 1920 393 43 در اینجا، مقادیر «d» کمتر بهتر است. بنابراین، من میخواهم از دادههای «a»، «b» و «c» برای توضیح اینکه چرا یک برنامه بهتر از برنامه دیگر است استفاده کنم. در این مورد چرا A بهتر از B است. | نمایش داده ها به روشی بهتر؟ |
99834 | من در حال ساخت مدلهای طبقهبندی و رگرسیون SVM (RBF) هستم که در آن ویژگیهای هر نمونه مقادیر شاخص (0، 1) برای مجموعهای از ویژگیها است که به طور جامع از همه نمونهها تولید میشوند. موارد زیادی وجود دارد که یک ویژگی خاص فقط در یک نمونه وجود دارد. تعداد نمونه ها از تعداد ویژگی ها بیشتر است و من احساس نمی کنم واقعاً نیازی به حذف ویژگی ها دارم. از نقطه نظر ریاضی (من هنوز در حال یادگیری نظریه اساسی هستم)، آیا دلیلی برای حفظ ویژگی های تک وجود دارد؟ آیا زمانی که آنها در داخل باقی می مانند، آیا نمونه های حاوی آنها به عنوان بردارهای پشتیبانی استفاده می شوند؟ | آیا ویژگی ها فقط در یک نمونه برای یادگیری SVM مرتبط هستند؟ |
112292 | من دارم یک تابع/بسته می سازم. اگر دادههای ورودی کاربران صفر باشد، کد آنها را log-normalize میکند، آنها را پردازش میکند و پس از آن، آنها را معکوس، عادیسازی و تعصب تصحیح میکند. اگر آنها صفر نشوند، فقط آنها را پردازش می کند. کسی تست تورم صفر میدونه؟ همه می دانند که چیست، اما تنها سوال مشابه نیمه خارج از موضوع بود و فقط مشکل پسر را حل کرد (چگونه می توان داده ها را آزمایش کرد/ثابت کرد که صفر است؟). در حالت ایدهآل، من چیزی شبیه به این را میخواهم: «ifelse(iszeroinflated(data)=true, data_to_use<-log1p(data), data_to_use<-data)» اما اگر آن چیزی وجود نداشته باشد، هر چیزی که منطقی است به صورت دستی در آن قرار داده شود. محل iszeroinflated. ما چه فکر می کنیم؟ 30 درصد داده ها صفر هستند؟ 50؟ بیشتر؟ کمتر؟ و آیا در نظر گرفتن شکل توزیع احتمال غیر از صفرها؟ می توان انتظار تعداد زیادی اعداد کم غیر صفر را نیز داشت، درست است؟ و فقط چند مورد بالا؟ | آیا داده های من صفر شده است؟ |
4939 |  15 امتیاز به من داده می شود. محدودیت های کنترل در +/- 3 $\sigma$ هستند. نقاط 1، 4، 5، 6، 7، 8، 9، 10، 11، 13، و 15 در محدوده کنترل قرار دارند. نقاط 2، 3، 12 و 14 خارج از محدوده کنترل هستند، به طوری که 2 زیر حد کنترل پایین و 3، 12، و 14 بالاتر از حد کنترل بالایی هستند. چگونه بفهمم که نقاط 2، 3، 12 و 14 خارج از کنترل هستند که ناشی از علل تصادفی است یا ناشی از علل قابل انتساب است؟ | با توجه به نمودار کنترلی که میانگین و حدهای کنترلی بالا/پایین را نشان می دهد، چگونه می توانم تشخیص دهم که علت نقاط خارج از کنترل قابل تعیین است یا خیر؟ |
113128 | از آنجایی که یک هسته، مانند Gaussian، اغلب برای صاف کردن توزیع نقاط گسسته در 1D، 2D یا 3D استفاده می شود، من معتقدم که باید برخی از مواد مطالعه یا کار تحقیقاتی وجود داشته باشد که از آن استفاده کرده باشد، و من به آن برای ارجاعات در من نیاز دارم. کار کردن اگر بتوانید هر کتاب/مقاله پژوهشی/مواد مطالعاتی که از هسته برای صاف کردن برخی از توزیعها استفاده میکند، به من اشاره کنید. با تشکر | ارجاع به مقالات/کتاب هایی که از هسته برای هموارسازی توزیع گسسته استفاده می کنند |
112748 | فرض کنید میخواهیم احتمال اختلاط ($\pi_{k}$) را برای هر توزیع عضو در مدل مخلوط تخمین بزنیم. ما میدانیم که $\sum_{m}^{K}\pi_{m}=1$، بنابراین میتوانیم مسئله بهینهسازی را به صورت ضریب لاگرانژی فرموله کنیم. تابعی که می خواهیم به حداکثر برسانیم (w.r.t. $\pi_{k}$) توسط $$ Q = \sum_{l}^{n}\sum_{m}^{k} p(m|l)\ داده می شود متن{ log}q(m|l)+\delta(\sum_{k}\pi_{k}-1) $$ جایی که: $q(k|l) = \pi_{k}g_{k}(x_{l};\theta_{k})$، یعنی احتمال مشترک انتخاب جزء مخلوط $k$ و احتمال نقطه داده $x_{l}$ توزیع جزء داده شده $g_ {k}$ و $p(k|l) = \frac{q(k|l)}{\sum_{m}^{k}q(m|l)}$ تنظیم $\frac{\partial Q}{\partial \pi_{k}}=0$، بازده، $$ \frac{\partial Q}{\partial \pi_{k}} = \sum_{l}^{n}\frac{p( k|l)}{\pi_{k}}+\delta = 0 $$ حال، برای حل $\pi_{k}$، باید برای $\delta$ حل کنیم. ظاهرا $\delta=-n$. این منجر به $$ \pi_{k} = \sum_{l}^{n} \frac{p(k|l)}{n}$$ میشود. به طور خاص، چگونه می توان نشان داد که $$ \sum_{l}^{n}\frac{p(k|l)}{\pi_{k}} = n $$ | احتمالات اختلاط در مدل های مخلوط با استفاده از EM |
73843 | آیا تابع رشد نمایی وجود دارد که ضریب ویروسی (k-factor) را به عنوان متغیر داشته باشد؟ به عنوان مثال من 10 مشتری اولیه دارم که هر کدام 10 مشتری جدید را دعوت می کند 20% تبدیل به مشتری جدید می شود که به من ضریب ویروسی 2 می دهد (10 دعوت * 20٪ نرخ تبدیل) 10 مشتری من هر کدام 10 دعوت برای 100 دعوت ارسال می کنند. 20٪ از آن 100 نفر تبدیل می شوند و به من 20 مشتری جدید می دهند. این باعث می شود من 30 مشتری داشته باشم. تابع رشد نمایی P(t) = P(0)e^kt p(t) جمعیت در زمان t است p(0) جمعیت اولیه k نرخ رشد t زمان است اگر اعداد بالا را وصل کنم من 30 = 10e^k2 میگیرم اگر برای k حل کنم، 0.549 = میگیرم، فرض میکردم که نرخ رشد و ضریب ویروسی یکسان است، اما به وضوح چیزی را از دست دادهام. چگونه ضریب ویروسی در این معادله نقش دارد. | چگونه ضریب ویروسی را به یک تابع رشد نمایی متصل کنیم؟ |
83517 | من کنجکاو هستم که بدانم، اگر سه متغیر تصادفی واریانس یکسانی داشته باشند، کوواریانس ها چگونه خواهند بود؟ آیا کسی می تواند به من کمک کند تا آن را بفهمم؟ | اگر سه متغیر تصادفی واریانس یکسانی داشته باشند، کوواریانس ها چگونه خواهند بود؟ |
33620 | با استفاده از z-score اصلاح شده برای حذف پرت در برخی از داده ها (Iglewicz و Hoaglin، 1993)، متوجه شدم که بخش بزرگی از داده ها (~10٪) خارج از محدوده abs(z)>=3.5 هستند. بررسی های بیشتر نشان داد که داده ها سنگین هستند. من فرض کردم که نابرابری Bienaymé-Chebyshev برای انحراف مطلق میانه MAD نیز صادق است، اما بدیهی است که اینطور نیست. .sum.bool <- تابع(x) c('TRUE'=sum(x)،'FALSE'=sum(!x)، 'TRUE %'=round(sum(x)/length(x)*100, 1)، length=length(x)) rrn <- rnorm(10000) rrt <- rt(10000,1) # z-score ساده شده برای اهداف نمایشی mad.outlier <- function(x)abs(x-mean(x))/mad(x) > 3 sd.outlier <- function(x)abs(x-mean(x))/sd(x) > 3 rbind(mad.n=.sum.bool(mad.outlier(rrn))، sd.n=.sum.bool(sd.outlier(rrn))، mad.t=.sum.bool(mad.outlier(rrt)), sd.t=.sum.bool(sd.outlier(rrt))) در توزیع t-tailed با 1df، 14% از داده ها خارج از `3 MAD` هستند. TRUE FALSE TRUE % length mad.n 29 9971 0.3 10000 sd.n 29 9971 0.3 10000 mad.t 1381 8619 13.8 10000 sd.t 33 939160 sd.n 29 99670 0. MAD/z-score در حضور توزیع های دم سنگین؟ توصیههایی برای تشخیص پرت برای دادههای سنگین چیست؟ | تشخیص پرت برای داده های سنگین |
113124 | \-- برای پیشینه بیشتر در مورد سوال، می توان به معادلات 2.3 و 2.6 (صفحه 1275 از [0]) مراجعه کرد-- تعریف کنید: $$g_G(x)=\mbox{med}_Y|x-Y|$$ where $ X$ و $Y$ متغیرهای تصادفی مستقل با تابع توزیع $G$ هستند. در مقاله ذکر شده در بالا، نویسندگان یک عبارت بسته برای $g_G'(x)$ زمانی که $G=\Phi$ استخراج میکنند. سوال من این است: وقتی $G=\Phi$ و $x=q$: $$g_G'(x)=\frac{\phi(x-c^{-1})-\phi(x) چگونه می شود؟ +c^{-1})}{\phi(x+c^{-1})+\phi(x-c^{-1})}$$ where $c^{-1}=\mbox{med} _X g_{\Phi}(X)$. اون قسمت برام واضح نیست مرجع: * [0]: Rousseeuw, Peter J.; کروکس، کریستوف (دسامبر 1993)، جایگزین هایی برای انحراف مطلق میانه، مجله انجمن آماری آمریکا (انجمن آماری آمریکا) 88 (424): 1273-1283، doi:10.2307/2291267 | مشتق از آمار سفارش |
112749 | من مجموعه داده ای از آیتم ها دارم و می خواهم نحوه عملکرد روش خوشه بندی خود را اندازه گیری کنم. من از R و خوشه بندی ساده k-means استفاده می کنم. من یک استاندارد طلایی برای خوشه های خود دارم و می خواهم ببینم نتیجه الگوریتم خوشه بندی من بر اساس ویژگی هایی که استفاده کردم چقدر خوب است. آیا راه ساده ای برای انجام این کار در R وجود دارد؟ من به چیزی مانند شباهت جاکارد در هر مورد فکر می کردم. منظورم تلاقی/اتحاد خوشه هایی است که هر آیتم را شامل می شود و به نوعی آنها را با هم مخلوط می کند! | ارزیابی خوشه بندی بر اساس استاندارد طلا |
73842 | من می خواهم به یک ضریب ویروسی از داده های Google Trends برگردم. اگر به دادههای Foursquare نگاه کنم، http://www.google.com/trends/explore?q=foursquare#q=foursquare&cmpt=q، میبینیم که آنها از 9 جولای تا 10 آگوست از منحنی رشد نمایی عبور کردند. من می توانم با کلیک روی چرخ دنده امتیاز روند هفته به هفته را دریافت کنم و سپس به عنوان CSV بارگیری کنم. اگر فرض کنیم که تمام رشد ویروسی بوده است، چگونه با استفاده از آن داده ها به ضریب k برگردم؟ | بازگشت به یک ضریب ویروسی از داده های Google trends |
73840 | من میخواهم یک عبارت برای cdf از min مجموعهای از $k$ متغیرهای تصادفی $X_i$ (با همان cdf $f_i(x)$) استخراج کنم که به طور یکسان توزیع شدهاند اما لزوماً مستقل نیستند. تا اینجا فهمیدم که cdf min $$ 1−P( \text{all } X_i>x)$$ است، میدانم که در موردی که مستقل هستند، میتوانیم آن را به صورت $1−(1−) بیان کنیم. f_i(x))^k$. من فقط به این فکر می کردم که آیا می توانیم بدون این که آنها چنین هستند جلوتر برویم؟ با تشکر | ترتیب آمار بدون فرض استقلال |
106014 | من تعدادی ارقام دستمزد برای نقش هایی دارم که می خواهم آنها را در کشورهای مختلف مقایسه کنم. بدیهی است که هر کشور پول و هزینه های زندگی خود را دارد. یک راه ساده برای مقایسه، استفاده از نرخ ارز فعلی است. آیا رقم معقول تری از «قدرت خرید» یا چیزی مشابه وجود دارد که بتوانم به جای آن از آن استفاده کنم؟ چیزی که ممکن است شامل هزینه های زندگی و غیره باشد؟ | مقایسه حقوق در کشورهای مختلف |
106010 | من یک بردار تصادفی $\theta$ دارم که توسط: `X1 ~` Dirichlet($\alpha_1$) `X2 ~` Dirichlet($\alpha_2$) $\theta$ = از نظر عنصر `X1`/`X2 ایجاد شد ` PDF برای $\theta$ چیست؟ * * * با تشکر از @ Matthew. نویسنده پیشنهاد می کند که دیریکله را با بتای مستقل تقریب کنید. این تقریب بخشی را که بیشتر به آن علاقه دارم از دست می دهد. به عنوان مثال: اگر $\alpha_1$ = $\alpha_2$ = [1, 1]، پس: pdf برای $\theta$ = [20, -1] > 0 است. و pdf برای $\theta$ = [20, 1] = 0 غیر ممکن است. از طریق این فرآیند نمی توان آن را تولید کرد. اگر من آن را به درستی درک کرده باشم، مقاله همان مقدار pdf را به هر دو اختصاص می دهد. | PDF برای نسبت دیریکله |
89618 | فرض کنید $\theta > 0$ برخی از پارامترهای مدل باشد که ویژگیهای (بایاس، ...) یک تخمین از طریق شبیهسازی مورد مطالعه قرار میگیرد. برای یک مجموعه داده معین، تخمین $\hat{\theta}_i$ از $\theta$ را می توان با حداکثر کردن تابع درستنمایی بدست آورد. از آنجایی که $\theta$ مثبت است، با این حال، حداکثر کردن را روی $\eta = \log(\theta) \در \mathbb{R}$ انجام میدهم و $\hat{\theta} = \exp(\hat{ را تنظیم میکنم. \eta})$. پس از اجرای شبیهسازیهای $N$، چگونه باید مقدار میانگین را محاسبه کنم، * $\bar{\hat{\theta}} = \frac{1}{N} \sum_{i=1}^N \hat{\theta }_i$، یا * $\bar{\hat{\theta}} = \exp(\frac{1}{N} \sum_{i=1}^N \hat{\eta}_i)$؟ * * * **مثال**: \-- منهای احتمال ورود به سیستم برای نمونه ای از توزیع Exp با میانگین $\theta = \exp(\eta)$: minusloglik <- function(eta, sample) { theta <- exp (eta) - sum(dexp(x=نمونه، نرخ=تتا، log=TRUE)) } \-- مقدار واقعی $\theta$: تتا <- 5.73 \-- شبیه سازی: thetaHat <- etaHat <- rep(NA, 1000) for(i در 1:1000) { نمونه <- rexp(n=100, rate=theta) etaHat[i] <- nlm(f=minusloglik , p=0, sample=sample)$estimate thetaHat[i] <- exp(etaHat[i]) } **سوال**: * آیا باید نتایج را به صورت mean(thetaHat) خلاصه کنم یا به عنوان exp(mean(etaHat))؟ * اگر $\theta$ واریانس یک توزیع نرمال را نشان دهد، پاسخ یکسان است؟ | خلاصه کردن شبیه سازی ها بر روی یک پارامتر تبدیل شده |
106016 | من نمونه ای از 1449 نقطه داده دارم که همبستگی ندارند (r-squared 0.006). هنگام تجزیه و تحلیل داده ها، متوجه شدم که با تقسیم مقادیر متغیر مستقل به گروه های مثبت و منفی، به نظر می رسد تفاوت معنی داری در میانگین متغیر وابسته برای هر گروه وجود دارد. با تقسیم نقاط به 10 سطل (دهک) با استفاده از مقادیر متغیر مستقل، به نظر می رسد همبستگی قوی تری بین عدد دهک و مقادیر متغیر وابسته متوسط (r-squared 0.27) وجود دارد. من اطلاعات زیادی در مورد آمار ندارم، بنابراین در اینجا چند سوال وجود دارد: 1. آیا این یک رویکرد آماری معتبر است؟ 2. آیا روشی برای یافتن بهترین تعداد سطل وجود دارد؟ 3. اصطلاح مناسب برای این رویکرد چیست تا بتوانم آن را در گوگل جستجو کنم؟ 4. چند منبع مقدماتی برای یادگیری در مورد این رویکرد چیست؟ 5. چه روش های دیگری وجود دارد که می توانم برای یافتن روابط در این داده ها استفاده کنم؟ در اینجا داده دهک برای مرجع است: https://gist.github.com/georgeu2000/81a907dc5e3b7952bc90 EDIT: در اینجا تصویری از داده ها آمده است:  شتاب صنعت است متغیر مستقل، کیفیت نقطه ورودی وابسته است | آیا استفاده از دهک ها برای یافتن همبستگی یک رویکرد آماری معتبر است؟ |
33628 | من با موضوع زیر کمی متحیر هستم: نتیجه آزمون ANOVA یک طرفه نشان می دهد که تفاوت میانگین متغیر y بین دو نمونه کشور از نظر آماری معنی دار است. با این حال، پس از ادغام دو نمونه با هم و اجرای یک رگرسیون OLS با y به عنوان متغیر وابسته، برخی از IV های دیگر و با گنجاندن یک کشور ساختگی، اثر ساختگی کشور از نظر آماری ناچیز به نظر می رسد، به این معنی که هیچ اثر مرتبط با کشور وجود ندارد. بر روی متغیر وابسته y. توضیحی برای این نتیجه وجود دارد؟ | مقایسه دو گروه: آنالیز واریانس یک طرفه در مقابل تحلیل رگرسیون با ساختگی |
83514 | این تا حدی به سؤال مربوط به «تجسم واریانس» است که من هنوز پاسخی برای آن نپذیرفتهام، تا حدی به این دلیل که مطمئن نیستم سؤال درستی میپرسم یا خیر. مورد این است، ما یک جمعیت P داریم که شامل 50 نفر است. اینها به سوالات در مقیاس 1-5 پاسخ داده اند که نرم افزار ما آنها را در مقیاس 0-100 نرمال می کند. ما همچنین یک جمعیت مرجع R داریم که از چند صد، اگر نه هزاران نفر تشکیل شده است. داده های مرجع برای داشتن یک نمره متوسط، یک انحراف استاندارد و یک انحراف استاندارد متوسط (ASD) پیش رندر شده اند. آخرین مقدار با انجام انحراف استاندارد در هر بررسی، سپس میانگین آن انحرافات استاندارد بدست می آید. (جمعیت مرجع شامل مجموعه ای نماینده از نظرسنجی های قبلی است) سپس مقداری را برای چیزی که مستقیماً آن را تغییر ترجمه کرده ایم تولید می کنیم، اما من شروع کردم به این باور که بیشتر مقایسه ای از گسترش است... این همان جایی است که مسائل من نهفته است. فرمول مربوط به این است (((((stdev(P) - ASD) / ASD) * 100) + 100) / 2) (آخرین بخش سازگاری با مقیاس 0-100 است که 50 به معنای گسترش در نتیجه شما همان اسپرد در جمعیت مرجع است) ما واقعاً با این فرمول چه چیزی را محاسبه می کنیم؟ (من به عنوان یک توسعه دهنده این سیستم را تحویل گرفته ام و آمار جنبه قوی من نیست) | من واقعاً اینجا چه چیزی را محاسبه می کنم؟ |
33621 | من تابع 'glmnet()' _cannot_ را از رهگیری توسط کاربران خارج می کند، می دانم، اما آیا کسی می داند که چگونه می تواند تناسب را بدون رهگیری از 'glmnet()' استخراج کند؟ | چگونه از glmnet بدون رهگیری استفاده کنیم؟ |
112296 | من برخی از داده های ترتیبی دارم (تعداد خروج از درمان با مواد افیونی، بر اساس نوع (خروج برنامه ریزی نشده برنامه ریزی شده و غیره). می خواهم بدانم که آیا ارقام سال گذشته احتمال آماری متفاوتی با سال های گذشته دارند؟ این ها مستقل و بدون جفت هستند. فرضیه صفر این است که تفاوت معنیداری وجود ندارد. مجموعها در سال مهم هستند، اما من فکر میکنم که نگاه کردن به نسبت اعداد در درمان در سال احتمالاً مهمتر است. (که بدیهی است متفاوت است)، در مقایسه با تعداد خروجیهایی که من این دادهها را درخواست کردهام، اما هنوز آن را دریافت نکردهام، باید به مقایسه نسبتهای کل در درمان در طول سال مربوطه نگاه کنم. همانطور که می بینید من بسیار سبز هستم. از کدام آزمون استفاده کنم؟ | آزمون آماری مقایسه |
32025 | فرض کنید مجموعه کوچکی از اعداد (5 تا 10 مشاهده) داریم و سعی می کنیم توزیعی را در این مجموعه قرار دهیم. همچنین، می دانیم که همه اعداد مثبت هستند. من سعی کردم lognormal را مطابقت دهم، اما مطمئن نیستم که تخمین های من چقدر خوب است زیرا نمونه بسیار کوچک است. همچنین مطمئن نیستم که به دلیل حجم نمونه کوچک، چگونه کافی است به تست تناسب توجه شود. آیا پیشنهادی در مورد چگونگی مقابله با این موضوع (یعنی اطمینان بیشتر، مطمئن تر، در مورد برآوردهای من) دارید؟ | عدم قطعیت پارامترها برای حجم نمونه کوچک |
6876 | من اخیراً به دنبال آماردانان برتر در فرآیند استخدام برای شرکت خود هستم. من خودم رشته مهندسی فیزیک هستم. من جمع می کنم که آماردانان بزرگ ریاضی دروس کمی متفاوت و بسیار بیشتر را به طور عمیق مطالعه کرده اند. هنگام ارزیابی یک نامزد، آیا دوره ها شاخص خوبی برای عالی بودن این فرد هستند؟ ترجیحاً در مورد مقطع کارشناسی ارشد یا فوق لیسانس صحبت می کنیم. * * * ما به دنبال پر کردن نقش های استخراج کننده داده، مدل سازی آماری و تجسم داده ها هستیم. با تشکر کریس، برای پیشنهاد برای روشن شدن. | کدام دروس آمار در سطح دانشگاهی پیشرفته/سخت تلقی می شوند؟ |
83515 | اگر شما یک راهپیمایی تصادفی A و یک راهپیمایی تصادفی B داشته باشید، و آنها را در مقابل یکدیگر پسرفت کنید، به رگرسیون جعلی برخورد خواهید کرد. اما در کتاب درسی ما نوشته شده است که امکان رگرسیون کاذب در مدل های پویا وجود ندارد. بنابراین در صورتی که A را در برابر عبارات عقب افتاده A به اضافه B و شرایط عقب مانده از B رگرسیون کنید، مشکل رگرسیون کاذب ندارید؟ | آیا رگرسیون کاذب غیرممکن است اگر اصطلاحات خطای تأخیر را در نظر بگیرید؟ |
23486 | اخیراً علاقهای به ترکیب الگوریتمهای ژنتیک و شبکههای عصبی در یک چارچوب کلی تکامل عصبی وجود داشته است. ایده اصلی این است که الگوریتم ژنتیک شما پارامترهای بسیاری از شبکههای عصبی را تغییر میدهد که سپس برای حل کار شما مورد استفاده قرار میگیرند. نوعی برنامه نویسی ژنتیکی است، اما به جای ایجاد یک قطعه کد برای انجام برخی کارها، شما در حال تکامل یک شبکه عصبی هستید. چه زمانی باید از این رویکرد ترکیبی به جای استفاده از شبکه های عصبی یا الگوریتم های ژنتیک به تنهایی استفاده کنم؟ رویکرد ترکیبی برای چه نوع مشکلاتی نتایج بهتری نسبت به رویکردهای فردی ایجاد کرده است؟ برای چه نوع مشکلاتی، رویکرد ترکیبی «بهترین» رویکرد است؟ | در چه وظایفی تکامل عصبی از کاربرد اساسی شبکه های عصبی یا الگوریتم های ژنتیک بهتر عمل می کند؟ |
6870 | من یک سوال در مورد نحوه جا دادن یک مشکل سانسور در JAGS دارم. من یک مخلوط دو متغیره را عادی مشاهده می کنم که در آن مقادیر X دارای خطای اندازه گیری هستند. من می خواهم میانگین واقعی مقادیر سانسور شده مشاهده شده را مدل کنم. \begin{align*} \lceil x_{true}+\epsilon \rceil = x_{observed} \ \epsilon \sim N(0,sd=.5) \end{align*} این چیزی است که اکنون دارم: (i در 1:n){ x[i,1:2]~dmnorm(mu[z[i],1:2], tau[z[i],1:2,1:2]) z[i]~dcat(prob[ ]) } Y همچنین دارای خطای اندازه گیری است. کاری که من می خواهم انجام دهم چیزی شبیه به این است: for (i در 1:n){ x_obs[i] ~ dnorm(x_true[i],prec_x)I(x_true[i],) y_obs[i] ~ dnorm(y_true[ i],prec_y) c(x_true[i]:y_true[i])~dmnorm(mu[ z [i ],1:2], tau[z[i],1:2,1:2] z[i]~dcat(prob[ ]) } #priors برای خطای اندازهگیری e_x~dunif(.1, .9) prec_x<-1/pow(e_x,2) e_y~dunif(2,4) prec_y<-1/pow(e_y,2) بدیهی است که c دستور در JAGS معتبر نیست. پیشاپیش ممنون | سانسور / برش در JAGS |
83512 | من یک مقیاس لیکرت 12 موردی برای متغیر پیش بینی کننده [IV] و یک مقیاس لیکرت 9 موردی برای متغیر وابسته [DV] خود دارم. من از SPSS استفاده کردم و تجزیه و تحلیل عاملی را در هر دو مقیاس انجام دادم، و متوجه شدم که IV دارای 3 مؤلفه است، در حالی که DV دارای 2 مؤلفه است. من می خواهم رابطه بین IV و DV را با استفاده از تحلیل رگرسیون گزارش کنم. چگونه می توان این را بر اساس یافته های تحلیل عاملی انجام داد؟ پیشاپیش ممنون | تست رگرسیون پس از کاهش ابعاد |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.