_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
82881 | من سعی می کنم تعداد مشاهده شده از توالی یابی DNA را با تعداد مورد انتظار مقایسه کنم. مکان هایی وجود دارند که انتظار دارم همه خواندن های توالی یکسان باشند و مکان های دیگری وجود دارند که انتظار دارم آنها از 2 نوع باشند که هر کدام فرکانس مورد انتظاری دارند. برای مثال: LOCUS 1 Observed READS EXPECTED FREQ type_1 type_2 type_1 type_2 400 0 100% 0% 400 40 100% 0% 222 644 41% 59% 435 154 100% 0% 400 40 100% 0% 222 644 41% 59% 435 154 100% 0% 400 40. به این ترتیب تعداد خوانده شده مورد انتظار و مقدار مجذور کای را محاسبه کردم، اما درمورد درجات آزادی من سردرگم هستم. فکر نمی کنم 1 باشد اما گیر کردم. همچنین چگونه در منبع مثال در ردیف 4 مقدار مربع کای بین مشاهده شده و مورد انتظار 0 است (زیرا مورد انتظار صفر است). خیلی ممنون از کمک شما | تست مجذور کای برای مکان های مختلف |
86305 | من از این سوال متوجه شدم - چه زمانی R مربع منفی است؟ که مقدار مجذور R یک مدل رگرسیون خطی می تواند منفی باشد اگر وقفه محدود باشد. و این منطقی است اگر R را به صورت مربع تعریف کنید - $$R^2 = 1-\frac{SSE}{SST}$$ One می گوید $SSE>SST$. اما پس از آن، $$SST = SSA + SSE $$ مجموع مجذورات = مجموع مربعات خطاها + مجموع مجذور باقیمانده. و با این نتیجه میگیریم - $$R^2 = \frac{SSA}{SST}$$ و اکنون تصور اینکه چگونه $R^2$ میتواند منفی باشد دشوار است. آیا SSA و SST همیشه >0 نیستند؟ | مربع R منفی با ssa/sst تناقض دارد؟ |
52243 | ## BOUNTY: جایزه کامل به کسی تعلق می گیرد که به هر مقاله منتشر شده ای که از برآوردگر $\tilde{F}$ در زیر استفاده می کند یا ذکر می کند، ارجاع دهد. ## انگیزه: احتمالاً این بخش برای شما مهم نیست و من گمان میکنم که به شما کمکی نمیکند تا جایزه را دریافت کنید، اما از آنجایی که شخصی در مورد انگیزه سؤال کرده است، در اینجا چیزی است که من روی آن کار میکنم. من روی یک مسئله تئوری گراف آماری کار می کنم. نمودار متراکم استاندارد محدود کننده شی $W : [0,1]^2 \به [0,1]$ یک تابع متقارن است به این معنا که $W(u,v) = W(v,u)$. نمونهبرداری از یک نمودار روی $n$ راس را میتوان به عنوان نمونهبرداری از $n$ مقادیر یکنواخت در بازه واحد ($U_i$ برای $i = 1، \dots، n$) و سپس احتمال یک یال $(i، j)$ $W(U_i، U_j)$ است. اجازه دهید ماتریس مجاورت حاصل $A$ نامیده شود. ما می توانیم $W$ را به عنوان چگالی $f = W / \iint W$ در نظر بگیریم با فرض اینکه $\iint W > 0$. اگر $f$ را بر اساس $A$ بدون هیچ محدودیتی به $f$ تخمین بزنیم، آنگاه نمیتوانیم تخمین ثابتی بدست آوریم. من یک نتیجه جالب در مورد تخمین مداوم $f$ پیدا کردم وقتی $f$ از مجموعه محدودی از توابع ممکن می آید. از این تخمینگر و $\sum A$، میتوانیم $W$ را تخمین بزنیم. متأسفانه، روشی که من پیدا کردم، زمانی که از توزیع با چگالی $f$ نمونه برداری می کنیم، سازگاری نشان می دهد. روشی که $A$ ساخته میشود مستلزم آن است که من یک شبکه از نقاط را نمونهبرداری کنم (برخلاف گرفتن ترسیم از $f$ اصلی). در این سوال stats.SE، من مسئله 1 بعدی (سادهتر) را میپرسم که چه اتفاقی میافتد زمانی که ما فقط بتوانیم نمونه برنولی را در شبکهای مانند این نمونهبرداری کنیم، نه اینکه واقعاً از توزیع مستقیم نمونهبرداری کنیم. منابع برای محدودیت های نمودار: L. Lovasz و B. Szegedy. محدودیت های توالی گراف متراکم (arxiv). C. Borgs، J. Chayes، L. Lovasz، V. Sos، و K. Vesztergombi. دنباله های همگرا نمودارهای متراکم i: فرکانس های زیرگراف، خواص متریک و آزمایش. (arxiv). ## نماد: یک توزیع پیوسته با cdf $F$ و pdf $f$ را در نظر بگیرید که دارای پشتیبانی مثبت در بازه $[0,1]$ است. فرض کنید $f$ جرمی ندارد، $F$ در همه جا قابل تفکیک است، و همچنین $\sup_{z \in [0,1]} f(z) = c < \infty$ بالاترین مقدار $f$ در فاصله $[0,1]$. فرض کنید $X \sim F$ به این معنی باشد که متغیر تصادفی $X$ از توزیع $F$ نمونه برداری شده است. $U_i$ متغیرهای تصادفی یکنواخت iid در $[0,1]$ هستند. ## راهاندازی مشکل: اغلب، میتوانیم اجازه دهیم $X_1، \dots، X_n$ متغیرهای تصادفی با توزیع $F$ باشند و با تابع توزیع تجربی معمول به صورت $$\hat{F}_n(t) = \frac کار کنیم. {1}{n} \sum_{i=1}^n I\\{X_i \leq t\\}$$ که $I$ تابع نشانگر است. توجه داشته باشید که این توزیع تجربی $\hat{F}_n(t)$ خودش تصادفی است (که $t$ ثابت است). متأسفانه من نمی توانم مستقیماً از $F$ نمونه بگیرم. با این حال، میدانم که $f$ فقط روی $[0,1]$ پشتیبانی مثبت دارد، و من میتوانم متغیرهای تصادفی $Y_1، \dots، Y_n$ را ایجاد کنم که در آن $Y_i$ یک متغیر تصادفی با توزیع برنولی با احتمال موفقیت $$p_i = f((i-1+U_i)/n)/c$$ که در آن $c$ و $U_i$ در بالا تعریف شدهاند. بنابراین، $Y_i \sim \text{Bern}(p_i)$. یکی از راههای واضح برای تخمین $F$ از این مقادیر $Y_i$ این است که $$\tilde{F}_n(t) = \frac{1}{\sum_{i=1}^n Y_i} \sum_ را در نظر بگیرم. {i=1}^{\lceil tn \rceil} Y_i$$ که در آن $\lceil \cdot \rceil$ تابع سقف است (یعنی فقط به نزدیکترین عدد صحیح گرد کنید) و اگر $\sum_{i=1}^n Y_i = 0$ را دوباره بکشید (برای جلوگیری از تقسیم بر صفر و فروپاشی جهان). توجه داشته باشید که $\tilde{F}(t)$ نیز یک متغیر تصادفی است زیرا $Y_i$ متغیرهای تصادفی هستند. ## سوالات: از (آنچه به نظر من باید باشد) از ساده ترین تا سخت ترین. 1. آیا کسی می داند که آیا این $\tilde{F}_n$ (یا چیزی مشابه) نامی دارد؟ آیا می توانید یک مرجع ارائه دهید که برخی از خواص آن را ببینم؟ 2. به عنوان $n \to \infty$، آیا $\tilde{F}_n(t)$ برآوردگر ثابتی از $F(t)$ است (و آیا می توانید آن را ثابت کنید)؟ 3. توزیع محدود $\tilde{F}_n(t)$ به عنوان $n \به \infty$ چیست؟ 4. در حالت ایدهآل، من میخواهم موارد زیر را به عنوان تابعی از $n$ محدود کنم -- به عنوان مثال، $O_P(\log(n) /\sqrt{n})$، اما من نمیدانم حقیقت چیست . $O_P$ مخفف Big O در احتمال $$ \sup_{C \subset [0,1]} \int_C |\tilde{F}_n(t) - F(t)| \, dt $$ ## برخی از ایده ها و یادداشت ها: 1. این به نظر بسیار شبیه نمونه گیری پذیرش-رد با طبقه بندی مبتنی بر شبکه است. توجه داشته باشید که هر چند نیست زیرا در صورت رد پیشنهاد، نمونه دیگری در آنجا نمی گیریم. 2. من تقریباً مطمئن هستم که این $\tilde{F}_n$ مغرضانه است. من فکر می کنم جایگزین $$\tilde{F^*}_n(t) = \frac{c}{n} \sum_{i=1}^{\lceil tn \rceil} Y_i$$ بی طرفانه است، اما دارای ویژگی ناخوشایند که $\mathbb{P}\left(\tilde{F^*}(1) = 1\right) < 1$. 3. من علاقه مند به استفاده از $\tilde{F}_n$ به عنوان تخمینگر افزونه هستم. فکر نمیکنم این اطلاعات مفیدی باشد، اما شاید دلیلی برای این کار بدانید. ## مثال در R اگر میخواهید توزیع تجربی را با $\tilde{F}_n$ مقایسه کنید، چند کد R وجود دارد. با عرض پوزش برخی از تورفتگی ها اشتباه است... من نمی دانم چگونه آن را برطرف کنم. # نمونه از یک توزیع بتا با پارامترهای a و b a <- 4 # این را > 1 کنید تا حالت درست به دست آید b < | جایگزین توزیع تجربی |
99223 | من در آمار زیاد نیستم، پس لطفا از نادانی من ببخشید. من یک ویدیوی ضبط شده دارم که میخواهم آن را ارزیابی کنم، من الگوریتمی دارم که میتواند این ویدیو را به یک سری زمانی تبدیل کند که در همه جا 0 دارم به جز چند فریم که یک رویداد (A) رخ میدهد. سپس من یادداشتهای دستی رویداد دیگری (B) دارم که فکر میکنم مربوط به اولین رویداد (A) باشد (یعنی رویداد B کمی بعد از رویداد A ظاهر میشود). من می خواهم یک ماتریس سردرگمی به این صورت بسازم: 1. رویداد A شرط است، رویداد B تست است 2. مقدار مثبت واقعی زمانی است که یک رویداد A وجود دارد و در 50 فریم نیز رویداد B وجود دارد. 3. مثبت کاذب زمانی است که A موجود نیست، اما B 4 است. منفی کاذب زمانی است که A وجود دارد، اما B نیست. حالا مشکل من در مورد منفی واقعی است. اگر آزمایش واکسن انجام می دهید، تعداد کل آزمایش دارید و می توانید مقدار منفی واقعی را بدون مشکل تعیین کنید. اما در مورد پرونده من چطور؟ من یا رویداد A یا B را دارم اما منفی واقعی طبق تعریف همه چیز دیگری در سری زمانی است؟ آیا حتی استفاده از ماتریس سردرگمی منطقی است؟ | ماتریس سردرگمی برای رویدادهای یک سری زمانی |
80484 | فرض کنید $Y_{n}$ دنباله ای از متغیرهای تصادفی مستقل و توزیع شده یکسان و $X_{n}=\frac{Y_{n}}{n}$ باشد. نشان می دهد که $X_{n}$ در احتمال همگرا می شود. تصمیم بگیرید که آیا $X_{n}$ با a.e همگرا می شود یا خیر. با تشکر از کمک | $X_{n}$ با احتمال همگرا می شود که در آن $X_{n}=\frac{Y_{n}}{n}$ |
12105 | من داده هایی دارم که شامل سه سری طولی داده های مالی است. فرضیه این است که دو تا از سریها توسط سومی «علت» (به معنای آزاد) هستند. خوب است که این را به عنوان دو فرضیه جداگانه بررسی کنیم. همه سریال ها درباره رابطه دو کشور خاص هستند. اطلاعاتی برای حدود 20 فصل در یکی از سری ها و حدود 80 ماه در دو سری دیگر وجود دارد. یک کار اکتشافی کوچک نشان می دهد که هیچ یک از سریال ها ثابت نیستند و هیچ فصلی ظاهری وجود ندارد. بنابراین، چگونه می توان این فرضیه ها را به بهترین نحو تحلیل کرد؟ آیا می توانم به سادگی رگرسیون هایی را با تاخیرهای مختلف امتحان کنم یا باید یک تحلیل سری زمانی رسمی تری انجام دهم یا باید کار دیگری انجام دهم؟ پیتر | بهترین روش تحلیل برای سه سری طولی مرتبط |
12104 | کتاب درسی من مثالی میدهد، خانواده توزیع عادی $\\{N(0,\sigma^2):\sigma\in R^+\\}$ کامل نیست، اما یک آمار کامل است، $T_n=\sum_{ i=1}^n X_i^2$، همچنان میتواند از نمونههای $(X_1،\cdots،X_n)$ ساخته شود. بنابراین در چه شرایطی (کافی / ضروری) می توانیم آمار کاملی را از یک مدل ناقص استخراج کنیم؟ | چگونه یک آمار کامل از یک مدل آماری ناقص استخراج کنیم؟ |
97593 | من داده هایی دارم که در آن متغیر وابسته گسسته است و بین 20 و 40 قرار دارد (مقادیر ممکن 20، 20.5، 21، 21.5، ...، 39، 39.5، 40 هستند). این متغیر برخی از نتایج یک بازی را اندازه گیری می کند که می تواند بین 20 (کمترین مقدار قابل دستیابی) و 40 (بالاترین) باشد. پس از چند ساعت تحقیق در وب، نتوانستم مدل رگرسیونی را پیدا کنم که به طور ایده آل با ویژگی های متغیر وابسته توصیف شده مطابقت داشته باشد. با توجه به آنچه که من پیدا کردم، شاید یک رگرسیون لجستیک چند جمله ای بهترین تناسب را داشته باشد، اگرچه متغیر وابسته من اسمی نیست. اگر بتوانید مدل رگرسیونی را به من پیشنهاد دهید که با توجه به نظر شما به بهترین وجه با مشکل من مطابقت داشته باشد، بسیار سپاسگزار خواهم بود. خیلی ممنون!!! :) | مدل رگرسیون مناسب برای متغیر وابسته محدود و گسسته |
90062 | من یاد گرفتم که برای یک مدل AR(1) $x_n = b + \phi x_{n-1} + a_n$ با $|\phi| < 1$ و $a_n \sim WN(0, \sigma_a^2)$، کوواریانس بین $x_n$ و $x_{n+h}$ $$ \mathrm{Cov} (h) = \frac{\ است sigma_a^2 \phi^h}{1 - \phi^2}$$ اکنون میخواهم واریانس میانگین نمونه را محاسبه کنم \mathrm{Var}\frac{\sum_{i=1}^n x_i}{n} = \frac{n \mathrm{Cov}(0) + \sum_{i=1}^{n-1} 2 (n-i) \mathrm{Cov}(i)} {n^2} = \frac{\sigma_a^2}{(1 - \phi^2) n^2} [n + \sum_{i=1}^{n-1} 2(n-i) \phi^i] $$ آیا می توان آن را بیشتر ساده کرد؟ با تشکر | واریانس میانگین نمونه در یک فرآیند AR(1). |
97594 | با آمار: کاهش ابعاد و افزودن ابعاد را چگونه توضیح می دهید؟ مانند تبدیل یک تصویر رنگی به فضای خاکستری برای اینکه یک نابینا راحتتر بفهمد چه خبر است یا یک نقاشی به یک مجسمه تا یک نابینا از آن لذت ببرد؟ در وهله اول، من آن را تبدیل به یک فضای فرعی حاوی اطلاعات کمتر، تبدیل برداری به بعد پایین تر می نامم. در مورد دوم، من آن را تبدیل و برون یابی به یک ابرفضا، یک بعد بزرگ با اطلاعات احتمالاً بیشتر بسته به هنرمند درگیر می نامم. همچنین چگونه میتوانید رونویسی اطلاعات فرکانس صوتی و ضبطشده را در یک سیستم بازنمایی موسیقی که مانند مقیاسهای غربی دقیق نیست، توضیح دهید؟ | چگونه کاهش ابعاد را با آمار توضیح می دهید؟ |
9345 | هنگام انجام رگرسیون چند متغیره، اغلب پیش میآید که برخی از پیشبینیکنندهها اغلب مقادیر صفر زیادی دارند - ورودیهای دوگانه، کدگذاری ساختگی ورودیهای چندگانه، کدگذاری بازهای، و غیره. کسر مشاهدات غیرصفر برای یک پیشبین بهویژه هنگام تعامل با این متغیرها کاهش مییابد. بدیهی به نظر می رسد که تنها مشاهدات پیش بینی کننده ای که برای آن غیر صفر است (پس از هر گونه تبدیل) بر تخمین ضریب آن تأثیر می گذارد. هنگام انجام رگرسیون چند متغیره، من دوست دارم از پیشینهای اطلاعاتی ضعیف (مانند گاوسی یا کوشی) برای منظمسازی استفاده کنم. من متوجه شدهام که گاهی اوقات، پیشبینیکنندههایی که معمولاً صفر هستند، همچنان ضرایب رگرسیون غیرقابل قبولی دارند، مانند ~6 برای یک مدل رگرسیون لجستیک. به نظر میرسد این به این دلیل است که متغیری که تنها برای تعداد معدودی از مشاهدات غیر صفر است، همچنان بر قبلی غلبه میکند، زیرا برای تمام مشاهدات صفر خود اعتبار کامل را کسب میکند، و بنابراین یک ضریب بزرگ به دست میآورد، که در بسیاری از موارد آشکارا بیش از حد برازش قبلی است. و به عملکرد تعمیم برای پیش بینی صدمه می زند. ضرب مقیاس پیشین در کسر مشاهدات یک پیشبینیکننده که غیرصفر هستند، این مشکل را برطرف میکند و عملکرد تعمیم را تا حد زیادی بهبود میبخشد، ضرایب را قابل قبول میکند و به نظر میرسد که عقل سلیم باشد. بنابراین - چرا افراد بیشتری این کار را انجام نمی دهند؟ من یک جستجوی گذرا در کتابهای درسی رایج (کتابهای مختلف یادگیری ماشین، آمار بیزی کاربردی و نظری)، بستههای R در CRAN، برخی بستههای یادگیری ماشینی انجام دادهام و شواهدی از انجام این کار توسط شخص دیگری نمیبینم... این فقط عقل سلیم است؟ یا چیزی در این رویکرد وجود دارد که من آن را از دست داده ام؟ | چرا به نظر نمی رسد که ضرب مقیاس قبلی در کسری از مشاهدات پیش بینی کننده غیر صفر استاندارد باشد؟ |
90061 | اخیراً از روش داده کاوی سطح پاسخ پیشنهاد شده توسط لی و شین (2010) برای ارزیابی استرس شغلی استفاده کردم. آنها در مطالعه خود حدود 80 عامل موثر بر استرس شغلی را در نظر گرفتند و هدف آنها انتخاب عوامل مهم است. در مطالعه خود 30 شیوه مدیریت کیفیت را در نظر گرفتم و تأثیر آنها را بر ایجاد دانش در شرکت ارائه دهنده خدمات در اردن مطالعه کردم. سوال اول: آیا 30 عامل برای استفاده موثر از داده کاوی کافی است؟ سوال دوم: با توجه به نتایج لی و شین، پس از کاهش ابعاد با استفاده از فیلترینگ داده کاوی (نرم افزار weka)، هفت عامل معنی دار در نظر گرفته شد و پس از ادغام نتایج داده کاوی در روش سطح پاسخ، 7 عمل نیز معنی دار در نظر گرفته شد. در مطالعه موردی من از بین 30 روش مورد بررسی، 8 مورد با استفاده از روش داده کاوی معنی دار در نظر گرفته شدند و پس از استفاده از روش سطح پاسخ تنها 5 مورد معنی دار در نظر گرفته شدند. چگونه می توانم در مورد این نتیجه بحث کنم؟ آیا اطلاعات من مشکلی دارد؟ یا نتایج من با نتایج آنها در تضاد است؟ | روش شناسی داده کاوی سطحی پاسخ |
9342 | من از خوشه بندی سلسله مراتبی برای تجزیه و تحلیل داده های سری زمانی استفاده می کنم. کد من با استفاده از تابع _Mathematica_ «DirectAgglomerate[...]» پیادهسازی میشود، که خوشههای سلسله مراتبی با ورودیهای زیر ایجاد میکند: * یک ماتریس فاصله D * نام روش مورد استفاده برای تعیین پیوند بین خوشهای. ماتریس فاصله D را با استفاده از فاصله منهتن محاسبه کردم: $d(x,y) = \sum_i|x_i - y_i|$، که $i = 1،\cdots، n$ و $n \تقریباً 150$ تعداد نقاط داده در سری های زمانی من سوال من این است که آیا استفاده از پیوند بین خوشه ای وارد با ماتریس فاصله منهتن خوب است؟ برخی منابع پیشنهاد می کنند که پیوند وارد فقط باید با فاصله اقلیدسی استفاده شود. توجه داشته باشید که DirectAgglomerate[...] پیوند وارد را فقط با استفاده از ماتریس فاصله محاسبه می کند، نه مشاهدات اصلی. متأسفانه، مطمئن نیستم که _Mathematica_ چگونه الگوریتم اصلی وارد را تغییر میدهد، که (از درک من) با به حداقل رساندن مجموع خطای مربعهای مشاهدات، محاسبهشده با توجه به میانگین خوشه کار میکرد. برای مثال، برای یک خوشه $c$ متشکل از بردار مشاهدات تک متغیره، وارد مجموع مربعات خطا را به صورت زیر فرموله کرد: $(\sum_j||c_j - mean(c)||_2)^2$ (سایر ابزارهای نرم افزاری مانند همانطور که Matlab و R نیز خوشه بندی وارد را با استفاده از یک ماتریس فاصله پیاده سازی می کنند، بنابراین این سوال مختص Mathematica نیست). از کمک شما بسیار سپاسگزارم | آیا استفاده از فاصله منهتن با پیوند بین خوشه ای وارد در خوشه بندی سلسله مراتبی خوب است؟ |
12107 | من در حال خواندن مقاله ای با عنوان اشتراک شبکه های عصبی برای حافظه کوتاه مدت کلامی و دیداری هستم (Majerus et al., J Cogn Neurosci 2010 22(11): 2570) درباره تصویربرداری مغز که در آن نتایج با تحلیل های متعدد تجزیه و تحلیل می شود. . یکی از آنها تحلیل _مرتبط_تهی است. من کمی گوگل را امتحان کردم اما به چیز مفیدی نرسیدم. من نتایجی در مورد تحلیل ربط پیدا کردم، اما مطمئن نیستم که آیا دقیقاً همان چیزی است یا خیر. آیا کسی می تواند برای من توضیح دهد که این تحلیل چیست (اهداف، روش ...)؟ | تجزیه و تحلیل پیوند صفر در مطالعه fMRI چیست؟ |
9341 | من یک مشکل رگرسیون خطی چندگانه $y=X\beta+\epsilon$ دارم. تعداد مشاهدات $m$ زیاد است، بنابراین تا زمانی که دادهها به من میرسند، خلاصه میشوند: * $m$ * $X^TX$ * $X^Ty$ * $y^Ty$ * $\sum_ {i=1}^m{y_i}$ فهرست بالا برای محاسبه تخمین OLS کافی به نظر میرسد. اما آیا می توان از آن برای محاسبه یک تخمین منظم از نوعی (به عنوان مثال رگرسیون پشته) استفاده کرد؟ اگر نه، آیا میتوان فهرست را با همان روحیه افزایش داد تا منظمسازی شود؟ | تناسب منظم از داده های خلاصه شده |
95681 | در کلاس آماری که من گرفتم، تمام نتایجی که در مورد همگرایی در توزیع برخی از متغیرهای تصادفی با آن مواجه شدهام، به هر نحوی پیامدهای قضیه حد مرکزی است. از روی کنجکاوی محض، نمیدانم آیا نتایج مفید و پرکاربردی در مورد همگرایی در توزیع برخی از آمارهای $f(X_1,\dots,X_n)$ وجود دارد (که در آن $(X_1,\dots,X_n)$ میتواند تصادفی باشد. نمونه) 1. که از قضیه حد مرکزی پیروی نمی کنند. 2. که برای هر توزیع از X_i$ منفرد، یا تحت برخی شرایط خفیف در توزیع آنها صادق است. (با عرض پوزش برای خفیف، می دانم که معنای دقیقی ندارد، بنابراین قدردانی من از پاسخ ها تا حدی ذهنی خواهد بود، اما راهی برای رسمی کردن این موضوع نمی دانم. به عنوان مثال، CLT مستلزم این است که $E(||X_i ||^2) < \infty$، این برای من به اندازه کافی ملایم است :).) چند نمونه جالب در اینجا پیدا کردم http://www.math.uah.edu/stat/dist/Convergence.html، اما جدا از CLT، همه آنها شرط 2 بالا را نقض می کنند. **نکته:** متوجه شدم که که از قضیه حد مرکزی پیروی نمی کنند ممکن است کمی مبهم باشد. نمیدانم چگونه این را دقیقتر بیان کنم، اما حدس میزنم در مورد نتایجی کنجکاو هستم که این شکل را ندارند: * $ X_n $ در احتمال به $X$ همگرا میشود. * $Y_n$ در توزیع به $N(a,V)$ توسط CLT همگرا می شود. * بنابراین $X_nY_n$ در احتمال به $D \sim X N(a,V)$ همگرا می شود. (به عنوان مثال، آمار Wald در توزیع به $N(0,A)'A^{-1}N(0,A) \sim \chi^2_q$ همگرا می شود. | همگرایی در توزیع نتایج از قضیه حد مرکزی ناشی نمی شود؟ |
97597 | من سعی می کنم یک رگرسیون لجستیک را با متغیر وابسته انجام دهم که آیا مشتری بالقوه ای که در یک رویداد شرکت کرده است خرید کرده یا نخریده است. زیرمجموعه ای از مشتریان بالقوه در این رویداد در یک فعالیت نوع ملاقات و خوشامدگویی با یکدیگر و مشتریان فعلی شرکت کردند. برای هر مشتری بالقوه، درصد مشتریان موجود برای زمانی که یک مشتری بالقوه در منطقه ملاقات و استقبال بود، ثبت شد. به عنوان مثال، یک مشتری بالقوه ممکن است به مدت 1 ساعت در محل ملاقات و احوالپرسی توقف کرده باشد و در این مدت، به طور متوسط ممکن است 20٪ مشتریان فعلی و 80٪ مشتریان بالقوه وجود داشته باشند. من میخواهم این متغیر را در مدل رگرسیون لجستیک خود بهعنوان یک متغیر پیوسته بدون دستهبندی آن بگنجانم، اما نمیدانم چگونه آن متغیر را برای مشتریان بالقوهای که در آن رویداد بودند، کدنویسی کنم، اما نه برای ملاقات و سلام. من فکر می کنم که صفر کردن افراد عدم ملاقات و احوالپرسی راه درستی نخواهد بود. آیا من فقط باید یک رگرسیون لجستیک جداگانه روی افرادی که در ملاقات و سلام شرکت کردند انجام دهم؟ من از SPSS استفاده می کنم اگر تفاوتی ایجاد کند. متشکرم | رگرسیون لجستیک با یک متغیر مستقل که فقط برای یک زیر مجموعه اعمال می شود |
95685 | من حدس می زنم این شبیه به این است اما کاملاً مشابه نیست. در نظر بگیرید که من توزیعی دارم که یک جمعیت را نشان می دهد (به عنوان مثال، یکنواخت (0،1)). من این فاصله (0،1) را به سه قسمت مساوی (0-1/3، 1/3-2/3 و 2/3-1) تقسیم می کنم. برای جمعیت، من برای هر بازه 33.333٪ از داده ها را خواهم داشت. نمودار جمعیت در زیر ارائه شده است. من به نمونه هایی نیاز دارم که جمعیت ها را به اندازه کافی خوب نشان دهند. به عنوان مثال، برای Uniform(0،1)، میتوانم نمونهای با 50000 عنصر و نموداری که در زیر ارائه شده است داشته باشم.  اگر عملکرد مشکل مهمی نبود، میتوانستم تعداد زیادی نمونه (مثلاً 100000) دریافت کنم، اما اینطور نیست. من در نظر دارم که به اندازه کافی خوب با 4٪ حاشیه خطا و 95٪ اطمینان است. بنابراین، چگونه می توان حداقل حجم نمونه مورد نیاز خود را با حاشیه خطای 4% و اطمینان 95% (برای هر بازه زمانی) محاسبه کرد (با توجه به اینکه اندازه جامعه نامشخص است)؟ ps.: با نماینده جامعه منظورم داشتن نموداری از نمونه ها مشابه نمودار جامعه است. به عبارت دیگر، برای مثال و پارامترهای داده شده، با اطمینان 95٪، هیچ یک از میله ها زیر 31.33٪ یا بیشتر از 35.34٪ نخواهد بود. | چگونه می توان تعداد نمونه های لازم برای نشان دادن توزیع جمعیت را محاسبه کرد؟ |
46689 | در تابع امگا در بسته روان برای R، ما چندین خروجی از جمله امگا سلسله مراتبی، امگا مجانبی و امگا کل داریم. من در مورد خروجی ها مطالعه می کردم، اما چیزی در مورد معنای امگا مجانبی پیدا نکردم. برای تجزیه و تحلیل، یکی از دوستان من امگا H = 0.70 و امگا مجانبی 0.98 را محاسبه کرد. من ترجیح می دهم این امگا مجانبی بزرگ را نادیده نگیرم. آیا کسی می تواند توضیح دهد که امگا مجانبی چیست و چگونه با امگا سلسله مراتبی متفاوت است؟ | امگا اچ مجانبی |
90064 | من سعی میکنم مدلسازی زمان را برای دادههای رویداد انجام دهم و به دلایل مختلف، مدل افزودنی آلن امیدوارکننده به نظر میرسد. من از تابع «aareg» در بسته «بقا» استفاده میکنم، اما در تلاش برای یافتن ادبیات زیادی هستم (که دارای paywalled نیست) تا احساس بیشتری نسبت به این روش داشته باشم. آیا کسی پیشنهادی در مورد چیزی به طور منطقی و عمیق، اما قابل دسترسی برای کسی بدون دانش سطح متخصص از تکنیک های جدیدتر تجزیه و تحلیل بقا دارد؟ | منابع خوب در مورد مدل های افزودنی آلن (بقا) |
16830 | من از تابع «AIC()» در R استفاده میکنم، جایی که آرگومان «k» (پیشفرض 2) مخفف تعداد پارامترها است. مطمئن نیستم که معنی آن را خوب بفهمم. چگونه می توانید k را بدانید؟ به عنوان مثال، در مورد $y=ax^2+bx+c$، آیا k برابر با 3 است؟ به عنوان یادداشت، دیدم که تابعی به نام «sic()» وجود دارد که با بسته «metomet» همراه است. با این حال، من نمی توانم این بسته را نصب کنم زیرا به نظر نمی رسد برای آخرین نسخه R (نسخه 2.13.0) در دسترس باشد. میدونی کجا میشه پیداش کرد؟ | k در عبارت AIC به چه معناست؟ |
90063 | من نمونه 60 شرکت کننده است. در ابتدا، من انتظار نداشتم که همبستگی را تجزیه و تحلیل کنم، اما نتیجه جالب است، بنابراین من می خواهم. 60 شرکت کننده 50 نفر هستند که مهارت خواندن خوب دارند و 10 نفر دیگر که مهارت خواندن ضعیفی دارند. آنها آزمونی را انجام دادند که نمره کامل آن 7 = بود. گروه مهارت خواندن خوب نمره متوسط = 6.7 گرفتند. گروه با مهارت خواندن ضعیف نمره متوسط = 5.1 کسب کردند. **سوالات:** آیا آزمونی برای یافتن این روابط وجود دارد؟ 1. آیا گروه با مهارت خواندن خوب و گروه با مهارت خواندن ضعیف امتیازات متفاوتی دارند؟ 2. آیا مهارت خواندن با کسب نمره ارتباط دارد؟ 3. آیا مهارت خوب خواندن بر نمره مثبت تأثیر می گذارد؟ من SPSS دارم، اما نمی دانم چگونه این روابط را تجزیه و تحلیل کنم. متشکرم. | همبستگی و تفاوت گروهی با حجم نمونه نابرابر |
95577 | من روی مدل پیشبینی کار میکنم و وقتی آن را ارزیابی میکنم، «نمره_دقت»، «نمره_دقت»، «نمره_یادآوری» و «امتیاز f1» خوب را پیدا میکنم. اما با استفاده از ماتریس سردرگمی به نتایج خوبی نمی رسم. معیاری که باید به آن اعتماد کنم چیست؟ accuracy_score: 0.987727165447 confusion_matrix: [[338961 3857] [252 27]] precision_score: 0.998449790932 recall_score: 0.98774727165 0.993031083087 من از معیارهای Scikit-Learn استفاده می کنم. precision sklearn.metrics.precision_score recal sklearn.metrics.recall_score f1 sklearn.metrics.f1_score | برای ارزیابی مدل پیش بینی خود به کدام معیار اعتماد کنم |
46681 | من 10000 مجموعه داده را شبیه سازی می کنم، هر کدام به طول 20، که از یک مدل اتورگرسیو با تاخیر 1 پیروی می کنند، با استفاده از کد زیر: set.seed(1) N = 20 n.reps <- 10000 burn.in = 50 کل <- N + burn.in x <- ماتریس (NA، n. تکرار، کل) x[، 1] <- 0.1 نویز <- rnorm(n.reps*total, 0, 0.1) for(j در 1:n.reps) for(i در 2:total) x[j, i] <- 0.5*x[j, i-1] + نویز [j + i] x <- x[ , -(1:burn.in) ] سپس ضرایب خودرگرسیون (در این مورد 0.5) را برای هر مسیر مشاهده شده با استفاده از دو تخمین زدم. رگرسیون خطی: res1 <- res2 <- عددی(n.reps) for(i در 1:n.reps) {res1[i] <- lm(x[i, 2:N] ~ -1 + I(x[ i, 1:(N-1)]))$coef res2[i] <- lm(x[i, 2:N] ~ I(x[i, 1:(N-1)]))$coef[2] } mean(res1) # 0.4687619 mean(res2) # 0.3845817 در خط اول من مدل خطی درست را برازش میکنم، در حالی که در خط دوم من یک رهگیری که در فرآیند تولید داده وجود ندارد. من انتظار داشتم که هر دو روش تخمینهای بیطرفانهای از ضریب خودرگرسیون به من بدهند، اما به نظر میرسد گنجاندن رهگیری باعث میشود برآوردها به سمت پایین سوگیری شوند. با افزایش اندازه نمونه N، تعصب ناپدید می شود. مدل خطی دوم مدل واقعی را تودرتو می کند، بنابراین من انتظار داشتم واریانس بالاتری در برآوردها زمانی که مدل بزرگتر برازش می شود، اما نه تعصب. بنابراین سوال من این است: آیا من کار اشتباهی انجام می دهم؟ با تشکر | زمانی که رهگیری در یک رگرسیون خطی گنجانده شود، تخمین های مغرضانه می دهد |
54975 | میخواهم بپرسم که آیا کسی میتواند در مورد مشکل زیر به من کمک کند: ما همان نمونه را 5 بار اندازهگیری کردهایم و میخواهیم بررسی کنیم که آیا تفاوت قابلتوجهی در مقادیر میانگین و stdev وجود دارد در صورت استفاده از: * همه 5 نقطه داده * فقط 4 نقطه داده آخر * فقط 3 نقطه داده آخر ما آنالیز ANOVA را انجام داده ایم اما در مورد نتایج مطمئن نیستیم زیرا ممکن است هموسداستیتی نداشته باشیم. برای بررسی این موضوع چه آزمایش هایی انجام می دهید؟ پیشاپیش از کمک شما سپاسگزارم | چگونه بررسی کنیم که حذف یک نمونه تفاوتی در مقادیر میانگین و stdev ایجاد می کند؟ |
21705 | من به دنبال جایگزین هایی برای کاپا برای ارزیابی توافق بین ارزیاب هستم. من با دو امید مواجه شده ام: آمار AC1 Gwet و PABAK. من تعجب کردم که مزایا و معایب هر کدام چیست؟ | مزایا و محدودیت های آماره AC1 Gwet و PBAK |
21700 | برای مدلسازی درختی، اکثر بستهها از برخی عناصر داده به عنوان متغیر وابسته استفاده میکنند. در مدلسازی ارتقاء، هدف به حداکثر رساندن تفاوت بین گروههای درمان و کنترل است. یکی از راههای پیادهسازی این کار با CART است که آماره t را برای مدت تعامل بین تقسیم (1 = چپ، 0 = راست) و متغیر درمان (1 = درمان، 0 = کنترل) b_3 در زیر، y = b_1 به حداکثر میرساند. * T + b_2 * P + b_3 * T * P همانطور که من می فهمم، اصطلاح تعامل (T*P) تفاوت در اثرات درمان بین دو طرف یک تقسیم را نشان می دهد. من که در CART جدید هستم، نمی دانم کدام بسته نرم افزاری این تحلیل را فعال می کند. من در پایتون (در حال حاضر در حال کاوش در نارنجی)، r و sas برنامهریزی میکنم، بنابراین از هرگونه اشارهای به مثال/مستند در پروژههای مشابه سپاسگزارم. | مدل سازی lift/uplift/netlift: تجزیه و تحلیل CART که یک آماره t را از یک رگرسیون چند متغیره به حداکثر می رساند. |
95687 | اجازه دهید X و Y متغیرهای تصادفی مستقل باشند به طوری که $X∼Exp(1)$ و $Y∼Exp(2)$. احتمال 3X+4Y≤5$ را پیدا کنید. من فکر کردم معادله برای حل این انتگرال از $\int_0^a \int_ 0^{(a-y)} \lambda e^{-\lambda x}*\lambda e^{-\lambda y} dx dy$ که در آن $a = 5$، بنابراین من ابتدا با انتگرال از $\int_0^5 \int_0^{(5-y)} شروع کردم 3*1e^{-1x}*4*2e^{-2y} dx dy$ و 23.83828927$ دریافت کرد که بسیار بزرگتر از یک احتمال است. هیچ کمکی؟ | احتمال توزیع نمایی |
46683 | من کمی گیج هستم. آیا کسی می تواند به من توضیح دهد که چگونه می توان اطلاعات متقابل بین دو عبارت را بر اساس یک ماتریس سند ترم با وقوع ترم دودویی به عنوان وزن محاسبه کرد؟ $$ \begin{matrix} & 'Why' & ' How' & 'When' & 'Where' \\\ Document1 & 1 & 1 & 1 & 1 \\\ Document2 & 1 & 0 & 1 & 0 \\\ Document3 & 1 & 1 & 1 & 0 \end{matrix} $$  متشکرم | چگونه اطلاعات متقابل را محاسبه کنیم؟ |
46688 | آیا ورود متغیرهای $I(0)$ به رویه جوهانسن اشکالی ندارد؟ من سه منبع را خوانده ام که به نظر می رسد بیان می کنند که این کاری نیست که شما باید انجام دهید. با این حال، هر زمان که این کار را انجام دادم، متوجه میشوم که $\Pi$ رتبه کامل است و بنابراین من را به VAR هدایت میکند و بنابراین مشکلی در این مورد نمیبینم. | قرار دادن متغیرهای ثابت از طریق روش یوهانسن |
54972 | معمولاً یک توزیع بتا با پارامترهای شکل $a$ و $b$ دارید. میانگین این توزیع $a / (a + b)$ و حجم نمونه، یا اطمینان (یا K) $a + b$ است. اکنون، اگر آزمایشهایی انجام دهید، مثلاً N پیامد مثبت و M پیامد منفی، در نهایت با توزیع پسینی مواجه میشوید که $\text{Beta}(a + N, ~b + M)$ است. بنابراین، اکنون میانگین شما $\frac{a + N}{a + N + b + M}$ است و اندازه نمونه / اطمینان / K $a + N + b + M$ است. حال، سوال من این است: **اگر می خواهید سطح K / اطمینان را ثابت نگه دارید چه؟ $\text{بتا}(9،1)$، یا $\text{بتا}(1.23، 8.77)$. به عبارت دیگر: در این مورد میخواهم میانگین پسین بتواند تغییر کند تا شواهد موجود در دادههای جدید را منعکس کند، اما سطح اطمینان باید ثابت بماند (به جای اینکه همیشه افزایش یابد). آیا یک قانون به روز رسانی ساده برای این سناریو نیز وجود دارد؟ | قانون به روز رسانی برای توزیع بتا با K/اطمینان/اندازه نمونه ثابت |
9343 | سلام من به داده های بسیار غیر خطی نگاه می کنم که مدل های ARMA/ARIMA برای آنها خوب کار نمی کنند. اگرچه، من مقداری خودهمبستگی می بینم، و گمان می کنم که نتایج بهتری برای خودهمبستگی غیرخطی داشته باشم. 1/ آیا معادل PACF برای همبستگی رتبه وجود دارد؟ (در R؟) 2/ آیا معادلی از مدل ARMA برای همبستگی غیر خطی / رتبه ای (در R؟) fRed وجود دارد | آیا معادل ARMA برای همبستگی رتبه وجود دارد؟ |
46685 | نظارت از راه دور یک طرح یادگیری است که در آن یک طبقه بندی کننده با یک مجموعه آموزشی با برچسب ضعیف یاد می شود (داده های آموزشی به طور خودکار بر اساس اکتشافی / قوانین برچسب گذاری می شوند). من فکر می کنم که هر دو یادگیری نظارت شده و یادگیری نیمه نظارت شده می توانند شامل چنین نظارت از راه دور باشند اگر داده های برچسب گذاری شده آنها به صورت اکتشافی/خودکار برچسب گذاری شده باشد. با این حال، در این صفحه، نظارت از راه دور به عنوان یادگیری نیمه نظارت (یعنی محدود به نیمه نظارت) تعریف شده است. بنابراین سوال من این است که **آیا نظارت از راه دور منحصراً به نیمه نظارت اشاره دارد؟** به نظر من می توان آن را هم برای یادگیری تحت نظارت و هم برای یادگیری نیمه نظارتی اعمال کرد. لطفاً در صورت وجود هرگونه مرجع معتبر ارائه دهید. | نظارت از راه دور: تحت نظارت، نیمه نظارت یا هر دو؟ |
83140 | من از طبقهبندیکننده LibSVM در کد جاوا خود استفاده میکنم و نتایج درستی دریافت میکنم زیرا با رابط کاربری weka تأیید کردم، اما وقتی میخواهم وزن بردارهای پشتیبانی را بدست بیاورم، یک رشته خالی دریافت میکنم. این یک عکس فوری از کد من است: LibSVM svm = new LibSVM(); svm.buildClassifier(train_data); ارزیابی ارزشیابی = صفر; ارزیابی = ارزیابی جدید (train_data); vlerësim.crossValidateModel(svm, train_data, 10, new Random(1)); System.out.println(weights = + svm.getWeights()); بنابراین، میپرسم آیا هیچ مرحله گمشدهای وجود دارد که باید در استفاده از «LibSVM» انجام دهم تا وزنها را دریافت کنم؟ با تشکر از کمک شما. | وزن بردارهای پشتیبان LibSVM |
94389 | من اولین پروژه مستقل خود را برای طبقه بندی الگوها انجام می دهم. من از برخی مجموعه داده ها از یادگیری ماشین UCI استفاده می کنم، اما مطمئن نیستم که چگونه با نرمال سازی داده ها شروع کنم. داده ها آنقدر بزرگ نیستند (بردار ویژگی در حدود 15-20 بعد)، اما من فکر می کنم هنوز باید نوعی نرمال سازی انجام شود تا طبقه بندی کننده های من در پایین خط (SVM + KNN) به درستی عمل کنند. سوال اصلی این است که چه زمانی باید عادی شود. من در حال حاضر داده هایم را بین داده های تست و آموزش تقسیم نمی کنم. بنابراین، آیا اکنون باید همه داده ها را عادی کنم؟ پیشاپیش ممنون | عادی سازی برای طبقه بندی الگو؟ |
90897 | من مجموعه داده های نظرسنجی بزرگی دارم، حدود 15 سال داده. یک متغیر باینری (بله/خیر) که به آن علاقه مندم به دلیل خطای جمع آوری داده ها برای حدود 1/2 سال بیش از حد تخمین زده شد. من مطمئن نیستم که چگونه با این داده ها کار کنم. آیا می توان آن را به عنوان داده از دست رفته در نظر گرفت؟ در این مورد مانند MNAR به نظر می رسد. اگر چنین است، و تمام داده های گمشده دیگر MAR هستند، چگونه یک مدل imputation را در SAS یا IVEware اجرا می کنید؟ فرض کنید میتوان فرض کرد که مقادیر از دست رفته به سادگی خطی بین دو بلوک از دادههای گم نشده هستند. | پاسخ بیش از حد برآورد شده |
54976 | من خواندهام که برای طبقهبندی کننده حاشیه حداکثری SVM، پس از حل مسئله دوگانه، اکثر ضربکنندههای لاگرانژ صفر هستند. فقط آنهایی که مربوط به بردارهای حمایتی هستند مثبت هستند. چرا اینطور است؟ | چرا ضریب های لاگرانژ کم هستند؟ |
44689 | سوال من مربوط به رگرسیون با داده های متغیر کمکی از دست رفته است. من نمونه ای از داده های شمارش را دارم که نشان دهنده تعداد حوادث انفجار در هر سال است. اولین مشاهدات $M$ با در نظر گرفتن یک معیار و آخرین $K$ با در نظر گرفتن دو معیار انجام شد. به عنوان مثال در سالهای اول $M$ انفجار در صورت وجود صدمات انسانی و سپس با توجه به تغییر مقررات، انفجار در صورتی که باعث صدمات انسانی یا خسارت بیشتر از مثلا $D$ بود ثبت می شد. من دو متغیر دودویی را معرفی میکنم: $X_{1}$ برای معیار آسیب انسانی و $X_{2}$ برای معیار آسیب. بنابراین، من دریافتم که اولین متغیر کمکی $X_{1}$ همیشه مشاهده می شود و برابر با 1 برای اولین $M$ سال است اما نه برای $K$ سال بعدی. دومین متغیر کمکی $X_{2}$ برای سال اول اصلاً مشاهده نمی شود (بنابراین ممکن است 0 یا 1 باشد)، در حالی که برای $K$ سال گذشته هر دو متغیر کمکی مشاهده نشده اند، اما من می دانم که حداقل یکی از آنها برابر 1 است. در ابتدا فکر کردم که فقط توزیع برنولی را روی این دو متغیر کمکی قرار داده و آنها را ادغام می کنم. سپس آنالیز بیزی انجام می دهم. بنابراین، در ابتدا مدل را بیان می کنم (برای سادگی، فرض کنید فقط یک متغیر کمکی داریم) $$Y|\theta_{1},\theta_{2}\sim \mathrm{Poisson} \left (\mathrm{exp}\ چپ [ \theta_{1}X_{1}+\theta_{2} \right ] \right )$$ $$X|p\sim \mathrm{برنولی}(p)$$ سپس ادغام را روی $X_{1}$: $$\pi(Y|p,\theta)=\frac{1}{Y!}\left ( \mathrm{exp) انجام دهید }\left ( -e^{\theta_{1}+\theta_{2}}+Y\left ( \theta_{1}+\theta_{2} \right ) \right )p + \mathrm{exp}\left ( -e^{\theta_{2}}+Y \theta_{2} \right )(1-p) \right )$$ با داشتن این، احتمال تشکیل میدهم، اولویتها را بیان میکنم و به دست میآورم برآوردها همانطور که من درک می کنم، چنین رویکردی به اصطلاح از دست رفته به طور تصادفی یا MCAR است. با این حال میدانم که در مشکل من، مدل کمبود با MCAR متفاوت است، اما نمیدانم چه مدلی مناسبتر است. هر گونه توصیه قدردانی خواهد شد. | رگرسیون با داده های کمکی از دست رفته |
62113 | برای تخمین همزمان چندین پارامتر، ترکیب تخمینگرهای LSE برای هر پارامتر معمولاً تحت خطای مربع برای بردار پارامترها قابل قبول نیست. به عنوان مثال، هنگام تخمین بردار میانگین $\theta$ یک توزیع گاوسی چند متغیره $N({\boldsymbol \theta}, \sigma^2 I)$ با $\sigma^2$ شناخته شده، ترکیبی از LSE ها برای هر بعد از $\theta$، $X$ است، و برآوردگر جیمز-استاین بر $X$ غالب است، زمانی که بعد $\theta$ بزرگتر از $2$، زیر مربع خطا. آیا برآوردگر جیمز-استاین قابل قبول است؟ اگر نه، * LSE در چند متغیره چیست؟ * یک تخمینگر قابل قبول در مجذور خطای میانگین توزیع گاوسی چند متغیره چیست؟ با تشکر و احترام! | برآوردگر LSE برای میانگین گاوسی چند متغیره؟ |
48304 | یکی از مشکلات کتاب درسی من به شرح زیر است. یک بردار پیوسته تصادفی دو بعدی تابع چگالی زیر را دارد: $$ f_{X,Y}(x,y)= \begin{cases} 15xy^2 & \text{اگر 0 < x < 1 و 0 < y < x}\\\ 0 & \text{وگرنه}\\\ \end{cases} $$ نشان میدهد که توابع چگالی حاشیه $f_X$ و $f_Y$ عبارتند از: $$ f_{X}(x)= \begin{cases} 5x^4 & \text{اگر 0 < x < 1}\\\ 0 & \text{در غیر این صورت}\\\ \end{ case} $$ $$ f_{Y}(y)= \begin{cases} \scriptsize{\frac{15}{2}}\normalsize y^2(1-y^2) & \text{اگر 0 < y < 1}\\\ 0 & \text{در غیر این صورت}\\\ \end{موارد} $$ من میدانم که چگونه تابع چگالی $f_X$ با ادغام $f_{X,Y}$ از $0$ به $x$ با توجه به $y$ محاسبه می شود. اما من کاملاً در $f_Y$ گم شده ام، $(1-y^2)$ از کجا می آید؟ اگر از $0$ تا $1$ را با توجه به $x$ ادغام کنم، فقط $\scriptsize{\frac{15}{2}}\normalsize y^2$ را دریافت می کنم، و چرا محدوده $0 < y < 1$ است ? من پشتیبانی برای $X,Y$ را ترسیم کردهام، همه مقادیر که $f_{X,Y}>0$ آبی رنگ میشوند:  | چگونه می توان توزیع حاشیه ای را از توزیع مشترک با وابستگی چند متغیره پیدا کرد؟ |
81058 | من یک مجموعه داده با 1747 مشاهدات دارم. متغیر نتیجه مقوله ای است، در حالی که متغیرهای مستقل پیوسته هستند، بنابراین تصمیم گرفتم از رگرسیون لجستیک برای تحلیل خود استفاده کنم. من مدل را با استفاده از الگوریتم حذف به عقب ساختم و مدل حاصل کاملاً پایدار به نظر می رسید. بررسی مقادیر VIF نتایج بسیار خوبی ارائه داد، کمتر از 5 درصد باقیمانده ها بزرگ بودند و مقادیر DFBeta کمتر از 1 بودند. با این حال، 76 مورد به عنوان مقادیر اهرمی بزرگ شناسایی شدند (فقط یکی از آنها به عنوان باقیمانده بزرگ نیز شناخته شد). وقتی این موارد را حذف می کنم، نتایج تا حدودی متفاوت است. بهترین رویکرد برای رسیدگی به این ارزش ها چه خواهد بود؟ با تشکر | چگونه مقادیر اهرمی را مدیریت کنیم؟ |
54978 | من داده های سری زمانی 36 ماهه را دارم، و با توجه به آن، روندی خطی به سمت بالا دارد. هر چند میخواستم کمی بیشتر از این کار کنم. بنابراین من یک همبستگی از مقادیر خودهمبستگی برای تاخیرهای 1 تا 12 در مشاهداتم جمع آوری کردم. همشون مثبتن آیا می توانید بگویید که این دلیل خوبی است که من روند خطی دارم؟ تصویری از همبستگی های خودکار من را اینجا ببینید. و آیا این افزایش در انتها احتمالاً به دلیل برخی فصلیها خواهد بود (این برای دادههای کسبوکار من کاملاً منطقی است... ما در کریسمس و روز ولنتاین فروش سنگینی انجام میدهیم)؟ | همبستگی های سری زمانی همگی مثبت هستند |
108882 | اگر 1 متغیر مستقل (ادامه دارد) و 1 متغیر وابسته (دودویی) داشته باشم، می توانم رگرسیون لجستیک و تحلیل ROC را انجام دهم و می توانم با استفاده از تحلیل ROC نقطه برش متغیر مستقل را بدست بیاورم. اما، اگر من 2 متغیر مستقل داشته باشم، چگونه می توانم دو نقطه برش را در تحلیل ROC چند متغیره بدست بیاورم. در STATA، من می توانم فقط حداکثر امتیاز AUC را بدست بیاورم، اما نمی توانم نقاط برش هر متغیر مستقل را بدست بیاورم. | چگونه می توانم نقطه برش را در تجزیه و تحلیل ROC چند متغیره بدست بیاورم |
26951 | میانگین برای هر دسته متفاوت است، اما فرضیه من این است که جمعیت دوم در هر دسته میانگین بالاتری دارد. واریانس هر دسته ناشناخته است. نمونه ای که من با آن کار می کنم مجموعه ای از مدارس است که به همه آنها کامپیوترهای جدید داده شده است. سوال اینجاست که آیا معرفی کامپیوتر نمرات دانش آموزان را بهبود می بخشد و چقدر؟ ویرایش: دادهها میانگین نمره مدرسه، هر هفته است. | با توجه به دو جمعیت، که هر کدام بر اساس «مقولهها» تقسیم میشوند، چگونه میتوانم این فرضیه را آزمایش کنم که میانگین در جمعیت دوم بیشتر است؟ |
90896 | من مطمئن نیستم که اگر دو متغیر Normally Distributed با پارامترهای شناخته شده داشته باشم و بخواهم احتمال اینکه یکی از این متغیرها از دیگری بزرگتر است را پیدا کنم، باید چه کار کنم. آیا باید از توزیع تفاوت های دو متغیر عادی، همانطور که در اینجا نشان داده شده است استفاده کنم؟ | تفاوت در دو توزیع عادی؟ |
48306 | من در تشخیص تمایز بین مفاهیم اسکاداستیسیته و ایستایی مشکل دارم. همانطور که من آنها را درک می کنم، ناهمسانی متغیرهای متفاوتی در جمعیت های فرعی است و غیر ایستایی یک میانگین / واریانس در حال تغییر در طول زمان است. اگر این یک درک درست (البته ساده انگارانه) است، آیا غیر ایستایی صرفاً یک مورد خاص از ناهمسانی در طول زمان است؟ | تمایز مفهومی بین ناهمسانی و غیر ایستایی |
68758 | من داده هایی را جمع آوری کرده ام که سطوح تحریک را در سه نقطه زمانی مختلف ($T_0$، $T_1$ و $T_2$) با استفاده از سه محرک مختلف ($S_1$، $S_2$ و $S_3$) و یک کنترل ($C$) جمع آوری کرده ام. ). من هر سه محرک را با سه موضوع مختلف آزمایش کرده ام ($J_1$، $J_2$ و $J_3$) و برای هر موضوع و محرک/کنترل سه عدد دارم که نشان دهنده سطوح تحریک در $T_0$، $T_1$ و $T_2 است. نقاط زمانی $. چگونه می توانم این فرضیه را آزمایش کنم که یک محرک خاص سطح قابل توجهی بالاتر از کنترل را نشان می دهد؟ چگونه می توانم این فرضیه را آزمایش کنم که هر سه محرک تفاوت معنی داری/ناچیز نشان می دهند؟ داده ها به طور معمول توزیع نمی شوند، بنابراین من باید از آزمون های ناپارامتریک استفاده کنم. من در مورد اینکه آیا باید جفت یا جفت نشده باشد یا از رگرسیون یا چیز دیگری استفاده کنم گم شده ام. کسی میتونه کمک کنه؟ | چگونه می توانم سطوح تحریک را بین محرک های مختلف با نقاط زمانی مقایسه کنم؟ |
59838 | اگر بخواهم خطای استاندارد میانه را در مورد نمونه کوچک با توزیع غیر عادی (از پایتون استفاده می کنم) اندازه گیری کنم، آیا فرمول زیر درست است؟ sigma=np.std(داده) n=len(داده) sigma_median=1.253*sigma/np.sqrt(n) | خطای استاندارد میانه |
44682 | من تعدادی گیاه دارم و همه آنها تحت یک درمان قرار می گیرند. سپس مقدار گیاهانی که به درمان واکنش نشان می دهند و مقداری که واکنش نشان نمی دهند را اندازه گیری می کنم. آیا راهی برای محاسبه آمار آزمایش (برای آزمایش تأثیر قابل توجه درمان) وجود دارد؟ اگر بله، آیا راهی برای استنباط اندازه اثر وجود دارد؟ به عنوان مثال: کد R: n_total <- 120 n_response <- 100 n_no_response <- 20 یا آیا استفاده از آزمون مک نمار در این مورد به روش زیر و اندازه گیری اندازه اثر استفاده همانطور که در اینجا توضیح داده شده مناسب است: tab <- cbind(c( n_total، 0)، c(n_response، n_no_response)) mcnemar.test(tab) | اهمیت و اندازه اثر در طراحی درمان هنگام اندازه گیری درمان-پاسخ |
1970 | مجلات آماری خوب با چرخش سریع (چرخه بررسی سریع)، مناسب برای یادداشت های کوتاه در آمار ریاضی و ترجیحاً با دسترسی باز. یک مثال Statistics & Probability Letters است، با این حال، این مجله فقط از دسترسی آزاد حمایت می کند. | مجله آماری با چرخش سریع چیست؟ |
13275 | با اجرای یک مدل خام با استفاده از استنتاج بیزی، نتایجی > 1 (یعنی بیش از 100٪ مطمئن) برای برخی از ترکیبات شواهد دریافت می کنم. به عنوان مثال، برای یک بیت شواهد، احتمال شرطی فرضیه صفر 0.85 است در حالی که احتمال نهایی 0.77 است. اگر احتمال قبلی 0.9 باشد، احتمال پسین محاسبه شده 1.008 است. که شاید بتوان آن را به خطای گرد کردن نسبت داد، با این تفاوت که شواهد بعدی احتمال بعدی را به 1.34 افزایش میدهد. منطقی است که برای مشکلی با دو فرضیه، یکی احتمال شرطی کمتر از احتمال نهایی و دیگری بیشتر خواهد بود. بنابراین ضریب P(E|H) / P(E) > 1 خواهد بود. بنابراین دشوار است که بفهمیم چگونه می توان از چنین نتایجی > 1 در حالت کلی اجتناب کرد. آیا این فقط روشی است که استنتاج بیزی کار می کند، یا احتمالاً در جایی از محاسباتم خطا دارم؟ ## داده یک شواهد: مجموع 6134 نمونه مجموع موارد مثبت واقعی 2845 مجموع موارد منفی واقعی 3289 تست درست بود 1623 بار تست درست بود 465 بار زمانی که استاندارد طلا مثبت بود تست درست بود 1158 بار زمانی که استاندارد طلا منفی بود احتمال شرطی فرضیه مثبت = 465/2845 = 0.1634 احتمال شرطی منفی فرضیه = 1158/3289 = 0.3521 احتمال حاشیه ای درست بودن آزمون = 1623/6134 = 0.2646 ضریب بیز برای فرضیه منفی = 0.3521 / 0.2646 = 1.3307 همانطور که مشاهده می شود، آزمون با چندین > ضریب برگشتی و به میزان قابل توجهی است. به نظر می رسد اجتناب از آن سخت باشد احتمالات > 1. (البته، گمان میکنم میتوان استدلال کرد که آزمایشها واقعاً مستقل نیستند، و این موضوع باعث میشود که مگسها از بین بروند.) اندازه گیری های مستقل برای بهبود برآورد؟ برای دو مورد فاحش، من میتوانم به یک تخمین منصفانه از ارتباط اندازهگیریها دست یابم، اما نمیدانم چگونه این دانش را در آن لحاظ کنم. | احتمال بیزی > 1 -- آیا ممکن است؟ |
26950 | من در مورد وجود رویه های آماری استاندارد برای داده های عادی گرد شده (log) تعجب می کنم. در واقع، در کار خود اغلب با داده های گردی مواجه می شوم که به طور بالقوه باعث ایجاد برخی مشکلات می شوند: نمودارهای qq وحشتناک، صفر برای داده های lognormal... آیا در ادبیات برخی مطالعات نظری از روش های آماری معمول وجود دارد (مانند برازش خوب، t-test، ...) برای داده های گرد شده؟ ویرایش: من به تازگی تابع MCMCtobit() را در بسته MCMCpack R کشف کردم: _رگرسیون خطی گاوسی با یک متغیر وابسته سانسور شده. متغیر وابسته ممکن است از پایین، از بالا یا هر دو سانسور شود. در مورد من، متغیر وابسته با مقدار گرد آن سانسور می شود، بنابراین سانسور وابسته به داده است. آیا استفاده از MCMCtobit() در این زمینه صحیح است؟ EDIT2: اکنون بسته R گروه بندی شده را کشف کرده ام. فکر می کنم این دقیقا همان چیزی است که من دنبالش بودم. با تشکر برای نظرات داده شده در زیر! | آمار برای داده های گرد شده |
26958 | من سعی میکنم دادههای همبسته (ترجیحاً چند عادی) را با همبستگیهای از پیش تعریفشده (مثلاً 0.35 یا 0.9) تولید کنم. هیچ ایده ای دارید که چگونه می توانم آن را انجام دهم؟ من از R استفاده می کنم و راهی برای تولید این (با استفاده از mvrnorm) پیدا کردم، اما شما باید یک ماتریس کوواریانس تهیه کنید. من یک ماتریس کوواریانس با همبستگی در حدود 0.9 دارم. با این حال، من نمی دانم چگونه می توانم ورودی های آن را برای تغییر همبستگی تغییر دهم. اگر بتوانم این کار را انجام دهم، می توانم داده های همبسته را با همبستگی هایی که نیاز دارم تولید کنم. با احترام | تولید اعداد همبسته با همبستگی های از پیش تعریف شده |
44359 | بنابراین، من دادههایی از یک کارآزمایی کور تصادفیسازی شده از 1 میلیگرم آدامس نیکوتین بر روی امتیازات حافظه کاری دوگانه n-back دارم. من آنها را طبق معمول با آزمون t تجزیه و تحلیل کردم و در یک آزمون f افزایش کمی در میانگین ها مشاهده کردم اما افزایش زیادی در انحرافات استاندارد در آزمون f! عجیبه من همچنین برای هر روز در مورد خلق و خوی / بهره وری آن روز در مقیاس 1-5 اطلاعات دارم. من تعجب کردم: آیا نیکوتین از یک منحنی U معکوس پیروی می کند، جایی که باعث می شود در روزهای بدتر (1-3) نمرات بالاتر و در روزهای بهتر (3-5) امتیازات کمتری ایجاد کند؟ من به اطراف نگاه می کنم و به نظر می رسد که می خواهم یک رگرسیون لجستیک چند جمله ای برای مقایسه دارونما و روزهای فعال داشته باشم. دادهها را وارد میکنم و «mlogit» را بارگیری میکنم: نیکوتین <- read.table(stdin(),header=TRUE) روز فعال mp score 20120824 1 3 35.2 20120827 0 5 37.2 20120828 0 3 37.6 37.6 20120 20120831 1 2 37.75 20120902 0 2 36.0 20120905 0 5 36.0 20120906 1 5 37.25 20120910 0 5 49.2 11618 0 5 49.2 1161. 20120912 0 3 44.6 20120913 0 5 38.4 20120915 0 5 43.8 20120916 0 2 39.6 20120918 0 3 49.6 20120913 20120209 0 5 36.2 20120924 0 5 45.4 20120925 1 3 43.8 20120926 0 4 36.4 20120929 1 3 43.8 20120930 10120930 1 3 2016 1 20121002 0 4 45.0 20121008 0 2 34.6 20121009 1 3 45.2 20121012 0 5 37.8 20121013 0 4 37.2 2012120 201201 1 3 39.0 20121021 0 3 41.2 20121022 0 3 42.2 20121024 0 5 40.4 20121029 1 2 41.4 20121031 1 3 421031 1 3 1038 20121102 0 3 48.2 20121103 1 5 40.6 library(mlogit) Nicotine <- mlogit.data(nicotine,shape=wide, Choice=mp) mlogit(score ~ (active + mp)^2, Nicotine) خطا در حل .default(H, g[!fixed]): روال Lapack dgesv: سیستم دقیقاً مفرد است تماسها: mlogit ... mlogit.optim -> as.vector -> solve ->sol.default این خطا حتی با سادهترین تماسی که فکر میکنم هم رخ میدهد: mlogit(امتیاز ~ فعال، نیکوتین) خطا در solve.default(H, g[!fixed]) : Lapack روتین dgesv: سیستم دقیقاً تک است تماس: mlogit ... mlogit.optim -> as.vector -> solve -> solve.default خواندن مستندات mlogit کمک چندانی نکرد، و به سوالات دیگر که همان خطا را دارند نگاه کنید، آنها به اندازه کافی متفاوت هستند که نمی توانم بگویم چه اعمال شوند یا نه. از کمک شما متشکرم | R: خطای mlogit روی داده - سیستم دقیقاً تک است |
68759 | به طور کلی میخواهم بدانم که آیا مدلهای رگرسیونی که ساختهام تفاوت قابل توجهی با یکدیگر دارند یا خیر. من دادههای مصرف انرژی ماهانه (متغیر مستقل) از چند خانه و روزهای درجه گرمایش (HDD) را دارم که یک دوره حدوداً 3 ساله را پوشش میدهد. داده ها به گروه های فصل گرما و خانه تقسیم شده است. برای هر خانه من 3 مدل رگرسیون (سه فصل گرما) دارم، و می خواهم آزمایش کنم که آیا تفاوت قابل توجهی با یکدیگر دارند یا خیر. شاید برای کم کردن پیچیدگی آن **میخواهم مدل فصل گرمایش HS 1 را با HS 2 و HS 2 را با HS 3 مقایسه کنم**. در انجمنهای مختلف خواندهام که میتوانم از ANCOVA برای مقایسه مدلها استفاده کنم، اما در آمار پیشرفته نیستم، واقعاً نمیدانم چگونه این کار را انجام دهم. اما من خودم را تا حدی با R آشنا کردم بنابراین سعی می کنم با این نرم افزار مشکلم را حل کنم. از پیشنهادات شما برای حل این مشکل با استفاده از «R» سپاسگزارم. در اینجا عصاره ای از داده های یک خانه است. HDD Energy HeatingSeason House 17.5 18 HS 1 1 84.4 206.5 HS 1 1 218.2 677.7 HS 1 1 374.4 824.4 HS 1 1 263.47 602.4 HS 7 441 1 1 188.75 436.1 HS 1 1 58.59 44.3 HS 1 1 45.23 0 HS 2 1 26.14 0 HS 2 1 6.03 0 HS 2 1 6.95 0 HS 2 1 0 13.721 HS 2 1 13.51 2 1 100.57 320.6 HS 2 1 208.78 634.5 HS 2 1 216.02 692.8 HS 2 1 275.34 643.2 HS 2 1 157.03 HS 2 1 157.03 197.1 HS 2 1 216.02 73.06 69.3 HS 3 1 46.21 3.9 HS 3 1 1.11 0 HS 3 1 17.15 0 HS 3 1 60.98 28.7 HS 3 1 164.28 197.1 HS 25394 HS 2538. 315.3 687.8 HS 3 1 407.82 800.5 HS 3 1 342.88 771.2 HS 3 1 346.14 645.1 HS 3 1 191.03 223.7 HS 3 1 | چگونه آزمایش کنیم که آیا دو مدل رگرسیون به طور قابل توجهی در R متفاوت هستند یا خیر |
49869 | من اطلاعاتی در مورد چندین شرکت دارم که برخی از آنها توسط یک مدیر عامل مرد و برخی دیگر توسط یک مدیر عامل زن اداره می شوند. همانطور که می توانید تصور کنید، مشاغل در این شرکت ها ترکیبات جنسی متفاوتی دارند. آنچه من سعی می کنم انجام دهم این است که توزیع جنسیتی کارمندان را در بین مشاغل برای شرکت هایی که توسط یک مدیر عامل مرد در مقابل یک مدیر عامل زن هدایت می شوند، مقایسه کنم. به عنوان مثال - شرکت A یک مدیر عامل زن دارد که Job1 40٪ زن، Job2 30٪ زن، Job3 15٪ زن است. Co B یک مدیر عامل مرد دارد که Job1 60٪ زن، Job2 40٪ زن، Job3 20٪ زن است. واضح است که Co B نسبت بیشتری از کارمندان زن دارد، اما سوال من این است که آیا توزیع کارمندان زن در بین مشاغل برای Co A و Co B به طور قابل توجهی متفاوت است. آزمون آماری و دستور مناسب در Stata برای آزمایش این چیست؟ فرض کنید این مشاغل برای سادگی یکسان هستند. | چگونه (در Stata) آزمایش کنیم که آیا توزیع جنسیتی کارمندان در مشاغل در دو شرکت متفاوت است؟ |
44685 | فرض کنید برای جمعیتی از دندانپزشکان استعلام ارسال می شود. تعدادی از استعلام ها پر شده و پس داده می شود. هر سوال در پرس و جو بیانگر تعداد معینی از نکات است. تعداد کل امتیازها نشان دهنده درصدی است که دندانپزشک به برخی مقررات ایمنی پایبند است. من می خواهم آزمایش کنم که آیا بین نتیجه سؤال چه مدت به عنوان دندانپزشک مشغول به کار هستید با تعداد کل امتیازها رابطه معنی داری وجود دارد یا خیر. یعنی، میخواهم آزمایش کنم که آیا دندانپزشکان مسنتر/جوانتر بر اساس قوانین کار میکنند یا خیر. من کاملاً مطمئن نیستم که چگونه می توانم این را آزمایش کنم. به این فکر کردم که بررسی کنم آیا درصد کل نمونه به طور معمول توزیع شده است یا خیر، و سپس آزمایش کنم که آیا درصد در یک گروه سنی احتمالاً از همان توزیع حاصل می شود یا خیر، اما مطمئن نیستم که آیا این بهترین راه برای انجام آن است یا خیر. هر گونه کمکی بسیار قدردانی خواهد شد. | مدل سازی آماری نتیجه یک تحقیق |
45082 | من PCA را در Matlab پیاده سازی کرده ام. من فقط کاهش ابعاد را انجام دادم (من استفاده نمی کنم اما برچسب های کلاس را در مجموعه داده های خود دارم). هدف من محاسبه دقت کلی و دقت کلاس خاص است. من می دانم که می توانم دقت کلی (مجموعه داده های آموزشی و مجموعه داده های آزمایشی) را با PoV (نسبت واریانس توضیح داده شده) محاسبه کنم - اگر اشتباه می کنم می توانید توضیح دهید، خوش آمدید - اما من نمی دانم چگونه محاسبه کنم دقت ویژه کلاس به نظر من دقت هر کلاس با دقت کلی یکسان است. | چگونه دقت کلاس خاص را در PCA محاسبه کنیم؟ |
90899 | من مدلهای LMM را اجرا میکنم و میتوانم بپرسم که آیا میتوانم مدل را بعد از مقایسه تصادفی با مدل رهگیری تصادفی و شیب بدون حذف فاکتور غیرمعنیدار گزارش کنم؟ | آیا برای انتخاب بهترین مدل لازم است همه پارامترهای غیر قابل توجه حذف شوند؟ |
45087 | چرا وقتی همه وزن را با همان مقدار اولیه (مثلا 0.5) مقداردهی اولیه می کنید، پس انتشار کار نمی کند، اما وقتی اعداد تصادفی داده می شود، خوب کار می کند؟ آیا الگوریتم با وجود یکسان بودن وزن ها در ابتدا نباید خطا را محاسبه کند و از آنجا کار کند؟ | چرا وقتی وزن ها را با همان مقدار مقدار دهی اولیه می کنید، پس انتشار کار نمی کند؟ |
26956 | میخواهم بدانم که آیا تغییر رنگ دکمهای تأثیر مثبتی بر اندازهگیریهای مختلف دارد (4 معیار زیر را ببینید)، با استفاده از فرآیند زیر: * یک دکمه پیشفرض وجود دارد که گروه کنترل ثابت و بدون تغییر است. این بدان معناست که من به مقادیر p یک طرفه برای مقایسه زوجی علاقه مند هستم. * 3 رنگ دکمه مختلف، که 3 نوع درمان هستند. * من از 4 معیار استفاده می کنم تا ببینم آیا 3 دکمه درمانی بهتر از دکمه کنترل عمل می کنند: 1) درصد کلیک روی دکمه در هر درمان 2) درصد ثبت نام کاربران در هر درمان 3) درصد کاربران پرداخت کننده در هر درمان 4) ویروسی ضریب به ازای هر درمان (اندازهگیری میکند که 1 کاربر چند کاربر جدید را به وبسایت دعوت میکند) * بنابراین در مجموع 12 آزمایش جفتی انجام خواهد شد. **مراحل:** 1. برای اندازه گیری 1، من یک آزمون ANOVA G-Test یک طرفه را انجام می دهم (با استفاده از 4 متغیر: کنترل + 3 درمان) و آن p-value را در 4 ضرب می کنم (با استفاده از Bonferroni، همانطور که من هستم. انجام 4 اندازه گیری)، سپس بررسی کنید که آیا تفاوت قابل توجهی وجود دارد. اگر وجود داشته باشد، من 3 تست G-تست جفتی تعقیبی انجام می دهم (کنترل <-> درمان 1، کنترل <-> درمان2، و غیره) و مقدار p را بر 2 تقسیم می کنم (تا یک دم شود) ، سپس آن را در 12 ضرب کنید (بونفرونی) تا مشخص شود که کدام اثر قابل توجهی دارد. 2. برای اقدامات 2 و 3 از همان رویه مرحله 1 استفاده می شود. 3. برای اندازه گیری 4، من یک ANOVA Kruskal-Wallis یک طرفه را انجام می دهم (با استفاده از 4 متغیر: کنترل + 3 درمان) و آن p-value را در 4 ضرب می کنم (دوباره با استفاده از Bonferroni، همانطور که در حال انجام 4 اندازه گیری هستم)، سپس بررسی کنید که آیا تفاوت قابل توجهی وجود دارد. اگر وجود داشته باشد، من 3 تست من ویتنی را به صورت جفت انجام می دهم (دوباره کنترل <-> درمان 1، کنترل <-> درمان 2، و غیره) و آن مقدار p را بر 2 تقسیم می کنم (تا آن را یک tailed)، سپس آن را در 12 ضرب کنید (Bonferroni) تا بفهمید کدام یک تأثیر قابل توجهی دارد. **سوالات:** * اگر فرآیندی که من استفاده می کنم برای مشکل مناسب است: 1. آیا اصلاح بونفرونی حاصل ضرب p-value در 4 برای هر ANOVA یک طرفه صحیح است؟ دلیل من برای این این است که از آنجایی که 4 ANOVA یک طرفه وجود دارد، قبل از اینکه تصمیم بگیرید یکی از آنها مهم است، به 4 برابر اثبات نیاز دارید. 2. در مورد تصحیح بونفرونی برای هر آزمون جفتی پس از اتفاق، آیا درست است که مقدار p حاصل را در 12 ضرب کنیم؟ 3. آیا تقسیم p-value از آزمون G-test جفتی بر 2 صحیح است؟ دلیل من برای این کار این است که G-Test یک مقدار p دو دنباله را برمی گرداند، اما من فقط به یک دنباله علاقه دارم: آیا درمان بهتر از کنترل عمل می کند؟ همین سوال در مورد غواصی جفت p-value دو دم من ویتنی با 2 است. 4. من می دانم که تصحیح بونفرونی یک رویکرد بسیار محافظه کارانه است. بنابراین، ضرب کردن تمام مقادیر p جفتی پسهک در 12 ممکن است خیلی زیاد باشد. مشکل این است که بخشی از نمونه ها یا مستقل نیستند، اما من نمی دانم چقدر است. این می تواند برای هر آزمایش آینده تغییر کند. من احساس می کنم بونفرونی در این مورد هنوز یک تنظیم خوب است یا چیزی کمتر محافظه کارانه وجود دارد؟ Sidak در این مورد کار نخواهد کرد، زیرا نمونه ها 100٪ مستقل نیستند. * اگر کاری که من انجام می دهم به طور کلی ایده بدی است، آیا بهتر است آزمایش های فردی جدید را برای هر اندازه گیری جداگانه انجام دهم؟ این برای اندازههای نمونه مشابه 4 برابر زمان میبرد، بنابراین اگر چیزی مانند موارد بالا را ترجیح دهید. | فرآیند مقایسه چندگانه با استفاده از Kruskal-Wallis، G-Test و اصلاحات |
55704 | من به دنبال تطبیق برخی داده ها با توزیع t چند متغیره مرکزی هستم. من می دانم که الگوریتم ECME امیدوارکننده ترین راه برای انجام این کار است. من تعجب کردم که آیا کسی از کدهای موجود برای تطبیق توزیع های t با ECME می داند که بتواند من را شروع کند (به هر زبانی)؟ | کد برازش توزیع t چند متغیره (ECME) |
2849 | من یک مدل داده پانل ایستا با T کوچک (T=5) دارم که استفاده از علیت گرنجر را برای من غیرممکن میکند، زیرا به بازه زمانی طولانی نیاز دارد. بنابراین سوال من: * آیا راه حل جایگزینی برای آزمایش علیت حتی در زمینه T کوچک وجود دارد؟ هر اشاره ای بسیار قدردانی خواهد شد! | چگونه می توان علت را در یک مدل داده پانل استاتیک با t کوچک آزمایش کرد؟ |
13272 | آزمایش زیر را در نظر بگیرید: به گروهی از مردم فهرستی از شهرها داده میشود و از آنها خواسته میشود مکانهای مربوطه را روی نقشه جهان (در غیر این صورت بدون برچسب) علامتگذاری کنند. برای هر شهر، نقاط پراکنده ای را دریافت خواهید کرد که تقریباً در مرکز شهر مربوطه قرار دارند. برخی از شهرها، مثلاً استانبول، پراکندگی کمتری نسبت به سایرین نشان خواهند داد، مثلاً مسکو. فرض کنید برای یک شهر معین، مجموعهای از نمونههای دوبعدی $\\{(x_i، y_i)\\}$ را دریافت میکنیم که موقعیت $(x، y)$ شهر را نشان میدهد (مثلاً در یک سیستم مختصات محلی) روی نقشه اختصاص داده شده توسط موضوع آزمایش $i$. می خواهم میزان «پراکندگی» نقاط این مجموعه را به صورت یک عدد در واحدهای مناسب (کیلومتر) بیان کنم. برای یک مشکل 1 بعدی، من انحراف استاندارد را انتخاب می کنم، اما آیا آنالوگ 2 بعدی وجود دارد که به طور منطقی برای وضعیتی که در بالا توضیح داده شد انتخاب شود؟ | آنالوگ 2 بعدی انحراف معیار؟ |
96883 | من تازه شروع به یادگیری در مورد روش های انتساب داده های گم شده کرده ام و گیج شده ام. در هر مقدمهای که خواندهام، نویسنده با توصیف حذف فهرستی شروع میکند و میگوید که این یک ایده بد است زیرا N شما را کاهش میدهد. سپس روشهایی را توضیح میدهند که میتوانید برای پر کردن مقادیر از دست رفته استفاده کنید تا بتوانید تجزیه و تحلیل خود را با همه شرکتکنندگان انجام دهید. . این باعث میشود که به نظر برسد هدف از انتساب این است که از بیرون انداختن سایر نقاط دادهای که مشاهده کردهاید اجتناب کنید. سوال 1: آیا انتساب فقط به این دلیل مفید است که به شما امکان می دهد از مقادیری که مشاهده کرده اید استفاده کنید؟ یا خود مقادیر نسبت داده شده تحلیل را بهبود می بخشند؟ به عنوان مثال، فرض کنید من یک مجموعه داده با اندازه گیری های مکرر را با یک مدل ترکیبی خطی تجزیه و تحلیل می کنم، و برخی از شرکت کنندگان برخی از نقاط زمانی را از دست می دهند. (بیایید همچنین بگوییم که داده ها به صورت تصادفی از دست رفته اند). مدل های ترکیبی خطی از قبل با داده های ناقص کار می کنند. آیا انجام انتساب بر روی نقاط داده از دست رفته هنوز مناسب است، حتی اگر فقدان آنها باعث شود من هیچ داده دیگری را حذف نکنم؟ سوال 2: اگر من از حداکثر احتمال اطلاعات کامل برای محاسبه مقادیر برای نقاط داده از دست رفته استفاده کنم چه اتفاقی می افتد؟ به نظر میرسد که این اطلاعات اضافی برای مدل من فراهم میکند -- من بخشی از نقاط داده گمشده را که میتوان از سایر متغیرها استنباط کرد در مجموعه دادهام گنجانده شود، حتی اگر آن متغیرها بخشی از مدل من نباشند. تست کردن اما آیا این واقعاً مشروع است؟ | آیا باید از انتساب داده های گمشده با مدلی استفاده کنم که قبلاً داده های ناقص را مجاز می کند؟ |
2846 | من تعداد زیادی طرح مختصات موازی را خوانده و دیده ام. آیا کسی می تواند به مجموعه سؤالات زیر پاسخ دهد: 1. نمودار مختصات موازی (PCP) در کلمات ساده چیست، به طوری که یک فرد غیر متعارف بتواند آن را بفهمد؟ 2. در صورت امکان یک توضیح ریاضی با کمی شهود 3. PCP چه زمانی مفید است و چه زمانی باید از آنها استفاده کرد؟ 4. چه زمانی PCP _نه_ مفید هستند و چه زمانی باید از آنها پرهیز کرد؟ 5. مزایا و معایب احتمالی PCP | توضیح آسان برای نمودار مختصات موازی |
59837 | آیا کسی می تواند به من کمک کند تا مقیاس لیکرت پنج امتیازی را با استفاده از میانگین نمرات به سه دسته تقسیم کنم. من از یک مقیاس لیکرت 5 درجه ای استفاده کرده ام: (1) اصلاً، (2) کم، (3) متوسط، (4) زیاد و (5) خیلی زیاد. حال می خواهم اینها را به کم، متوسط دسته بندی کنم. و بالا، اما من مطمئن نیستم که چگونه از نتیجه استفاده کنم. من برنامه ریزی کردم که آن را به این صورت امتحان کنم: 1. کمتر از 2.5 = کم 2. بین 2.5 و 3.5 = متوسط** 3. بیشتر از 3.5 = بالا | چگونه مقیاس پنج نقطه ای لیکرت را به سه دسته تغییر دهیم |
20070 | فرض کنید من مدلی را اجرا می کنم تا به سؤالات مطرح شده در یک فرم نگاه کنم. مدل من به نظر می رسد: قیمت = B0 + B1 (جنسیت) + B2 (سن) + B3 (نوع اعتبار) + B4 (خانه) ... من سعی می کنم قیمت مورد انتظار را برای هر سناریوی ممکن محاسبه کنم. بنابراین قیمت برای جنسیت = 0، سن = 18، خانه = 1 و غیره قیمت (خروجی) برای همه ترکیبات ممکن از متغیرهای مستقل. library(car) mod = lm (فروخته شده ~ سن + جنسیت + ازدواج + آموزش + اتومبیل + گواهینامه + اعتبار + نوع + خانه + شناسه) خلاصه (mod) ویرایش: پس از خواندن برخی از نظرات زیر ، متوجه حماقت آن شدم انجام می دادم. اما من هنوز در حال تعجب هستم که آیا راهی برای یافتن قیمت مورد انتظار وجود دارد؟ یک معیار کلی از اینکه قیمت چه مقدار و متغیری در این مدل داده می شود. بنابراین اجازه می دهد که از مدل، راهی برای به دست آوردن قیمت مورد انتظار وجود دارد. فرض کنید با توجه به مدل، 10 دلار است. ویرایش 2: در واقع، فقط برای فهمیدن آن در R، آیا کسی می تواند به نحوه انجام وظیفه اصلی اشاره کند. مقدار پیش بینی شده برای همه تغییرات پیش بینی کننده ها. | پیش بینی مدل برای هر نتیجه ممکن |
112849 | من اخیراً مقاله ای را خواندم که در آن نویسنده می گوید آنها از همگرایی با دو درجه آزادی استفاده کردند. درجات آزادی در این زمینه به چه معناست؟ | «درجات آزادی» در زمینه همگرایی به چه معناست؟ |
115319 | من باید انتگرال زیر را محاسبه کنم $$\int_{\mu+c}^{\infty} y\cdot \frac{1}{\sigma\sqrt{2\pi}}e^{(y-\mu- w)^2/2\sigma^2}dy$$ بنابراین اساساً $y\sim N (\mu+w, \sigma^2)$ و سعی می کنم مقدار مورد انتظار آن را از $\mu+c$ به محاسبه کنم $\infty$ من می دانم که باید از یکپارچه سازی توسط قطعات استفاده کنم، اما نمی دانم چگونه ادامه دهم. اما مهمتر از آن، زمانی که من انتگرال را محاسبه می کنم، آیا عبارتی دریافت می کنم که شامل $w$ باشد؟ من واقعاً به $w$ در آنجا نیاز دارم. | ارزش انتظارات مشروط |
1972 | من دسته ای از متغیرها را در 10 سطح مختلف از یک عامل گروه بندی سازماندهی شده دارم. من مقداری ANCOVA را روی متغیرهای خاص انجام میدهم و همچنین دادهها را با استفاده از نمودارهای جعبهای ترسیم میکنم. من میخواهم 84% فواصل اطمینان را به همه گروهها اضافه کنم (از آنجایی که 84% CIهای غیر همپوشانی نشان دهنده تفاوت قابل توجهی در آلفا 0.05 هستند - حداقل برای دو گروه). من میتوانم همه اینها را به راحتی در R انجام دهم. سؤال من این است - آیا باید یک CIs 84% خانوادگی را برای همه گروهها اعمال کنم؟ به عبارت دیگر، همانطور که برای بدست آوردن یک آلفای خانوادگی، یک سطح آلفا را با تعداد گروه ها کاهش می دهیم، آیا باید CI را به میزان متقابلی افزایش دهم تا به یک فاصله خانوادگی دست یابیم؟ این به نظر من منطقی به نظر می رسد، اما من ندیده ام که در ادبیات این مورد بحث شود. اگر آلفا بود CI برای دو یا چند گروه قابل تعویض بود، 84٪ CI خانوادگی 99.5٪ بود، اما من خوانده ام که آلفا و CI فقط برای موقعیت های 1 نمونه قابل تعویض هستند. اگر اینطور است، چگونه می توانم فواصل اطمینان خانوادگی را برای 10 گروه (یا هر تعداد) محاسبه کنم؟ هر توصیه ای پذیرفته می شود. بهترین، استیو | فواصل اعتماد خانوادگی |
44352 | من سعی می کنم برخی از نتایج KPSS را برای یک نمونه بزرگ تفسیر کنم (n=1800 - http://data.is/TB2z5b). به طور کلی می توان از آزمون KPSS برای نمونه هایی با سری زمانی با بیش از 100 مشاهده استفاده کرد؟ آیا مرجعی هست که بتوانم با آن مشورت کنم؟ | تست KPSS برای نمونه های بزرگ |
94769 | من یک مجموعه داده بزرگ دارم و می خواهم یک مدل طبقه بندی بسازم (svm، rf، ann و غیره). سپس مجموعه داده اصلی را به مجموعه آموزشی و مجموعه آزمایشی تقسیم کردم. من مدل را با استفاده از مجموعه آموزشی می سازم. پس از اتمام، من از مدل برای پیش بینی مجموعه تست استفاده می کنم. در اینجا، مجموعه آموزشی و مجموعه تست باید از نظر ساختار داده مشابه باشند، یعنی در یک دامنه داده قرار دارند، درست است؟ اگر مجموعه آزمایشی در دامنه داده مجموعه آموزشی قرار نگیرد، نتیجه پیشبینی مجموعه آزمایشی باید بدتر از نتایج موجود در دامنه مجموعه قطار باشد. آیا بیان این مطلب درست است؟ بنابراین، چگونه می توانم دامنه کاربردی را برای یک مدل پیش بینی کمی کنم؟ یعنی وقتی مجموعه داده جدید را دارم، چگونه می توانم بررسی کنم که آیا در دامنه کاربردی مدل قرار دارد یا خیر؟ برخی از پیوندها: http://en.wikipedia.org/wiki/Applicability_domain http://www.moleculardescriptors.eu/tutorials/T7_moleculardescriptors_ad.pdf هر نکته قابل قدردانی است. | کمی کردن دامنه کاربردپذیری برای مدلهای پیشبینی؟ |
112842 | من مجموعه آموزشی (سری زمانی) با اندازه تقریباً 2 میلیون سابقه {x,y} دریافت کردم. هر x یک بردار با اندازه 20 و هر y یک بردار باینری با اندازه 10 است مانند {1,0,0,1,1,0,1,1,1,0}. برای ورودی x جدید میخواهم بردار احتمالات {P(y_i = 1 | x)} را بدست بیاورم. بنابراین، چه چیزی را توصیه می کنید؟ | بهترین راه برای حل مشکل طبقه بندی خاص؟ |
28509 | من با یک کار تحلیل احساسات روبرو هستم که در آن از Naive Bayes برای طبقه بندی اسناد به عنوان مثبت، منفی یا خنثی استفاده می کنم. من به استفاده از اطلاعات به عنوان فیلتر برای انتخاب ویژگی فکر کرده ام. با توجه به اینکه من باید به 3 کلاس طبقه بندی کنم، آیا استفاده از IG بدون تغییرات بیشتر خوب است (چون فکر می کنم IGain با 2 کلاس بهترین کار را می کند)؟ | به دست آوردن اطلاعات به عنوان یک انتخاب ویژگی برای مسئله طبقه بندی 3 کلاسه |
45086 | مفروضاتی که باید هنگام استفاده از رگرسیون سلسله مراتبی و متعاقباً تحلیل شیب ساده برای آزمایش و بررسی اثرات متقابل رعایت شوند و چگونه می توانم آنها را در SPSS آزمایش کنم چیست؟ من یک DV و IV پیوسته دارم، با یک ناظر طبقه بندی (3 دسته). پیشاپیش ممنون | پیش از اجرای رگرسیون سلسله مراتبی برای آزمایش اثرات متقابل، مفروضات آماری چیست؟ |
68757 | با استفاده از دستور «predict()» در R، من توانستم تخمین ها ('av2') و se-intervals (بالا، پایین) را برای داده های زیر محاسبه کنم. نسبت محاسبه شده (`av2`) با نسبت مشاهده شده (`av1`) متفاوت است - بنابراین 1. مطمئن نیستم چرا اینطور است؟ هنگام نوشتن آزمایش کدام را نقل قول و نمودار کنم؟ داده ها و کار در زیر آمده است. A<-c(10،10،10،10،10،10،19،19،19،19،19،19) B<-c(0، 1، 2، 0، «1»، «2»، «0»، «1»، «2»، «0»، «1»، «2») C<-c(-ve، -ve، -ve، +ve، +ve، +ve، -ve، -ve، -ve, «+ve»، «+ve»، «+ve») مرده<-c(1,1,27,0,6,18,2,10,23,0,14,21) Alive<-c(29,32,2,22,19,4,28,22,3,20,11,0) Total<-Dead+Alive gaf<-data.frame(A,B,C,Dead, زنده، کل) mod2<-glm(cbind(مرده، زنده)~A+B+C، خانواده=دوجمله ای) p<-predict(mod2,newdata=gaf,se.fit=TRUE) up<-with(p,fit+se.fit) low<-with(p,fit-se.fit) invLink<-family(mod2) $linkinv av2<-with(p,invLink(fit)) upr<-invLink(بالا) lwr<-invLink(کم) av1<-مرده/مجموع دور(av1، ارقام=2) # 0.03 0.03 0.93 0.00 0.24 0.82 0.07 0.31 0.88 0.00 0.56 1.00 # دور مشاهده شده (av2، 0.2، 0.01، 0.0 = 2 0.19 0.90 0.03 0.33 0.95 0.07 0.49 0.97 # دور تخمینی (بالا، ارقام = 2) # 0.02 0.15 0.88 0.03 0.26 0.94 0.94 0.06 0.07 0.40 0.1 # در دور se کمتر (lwr، ارقام=2) # 0.00 0.08 0.76 0.01 0.14 0.86 0.02 0.26 0.92 0.04 0.41 0.96 | نسبت های مشاهده شده و برآورد شده با GLM دو جمله ای متفاوت است - کدام را ارائه دهیم؟ |
68751 | من در حال توسعه یک سیستم موتور جستجو بر اساس مدل فضای برداری هستم و در مورد اینکه چه رویکردی باید برای ارزیابی سیستم داشته باشم سردرگم هستم. مورد من این است: 1. من مجموعه ای از اسناد نمایه شده را به صورت جفت (di,ti) دارم که در یک پایگاه داده ذخیره شده اند. و من می توانم شباهت های بین یک پرس و جو و مجموعه اسناد نمایه شده در سیستم را با استفاده از طرح وزنی tf-idf و معیار تشابه کسینوس محاسبه کنم و سند را به ترتیب نزولی امتیاز شباهت رتبه بندی کنم. چگونه می توانم سیستم را با استفاده از اعتبارسنجی متقاطع k-fold و اندازه گیری F1 ارزیابی کنم؟ در این صورت مجموعه آموزشی، مجموعه اعتبارسنجی و مجموعه تست من چه خواهد بود؟ من گیج شده ام که کدام مجموعه داده را به این سه تقسیم کنم. از چه داده هایی برای این سه مجموعه از نظر اصطلاحات پرس و جو، اصطلاحات، اسناد و شباهت ها استفاده می کنم؟ همانطور که متوجه شدم، باید مجموعه داده را به موارد زیر تقسیم کنم: **مجموعه تست**: مجموعه ای از اصطلاحات پرس و جو **مجموعه آموزشی:** مجموعه ای از اسناد/جفت ترم ها **مجموعه اعتبارسنجی:** مجموعه ای از شباهت / جفت سند؟ چگونه می توانم امتیاز F1 را با اعتبارسنجی متقاطع K-Fold ترکیب کنم؟ ببخشید اگر سوال من مبهم است، اما من این روش های ارزیابی را کاملاً درک نمی کنم و با همه اینها تازه کار هستم. من سیستم را با پایتون ساده و جنگو برای تعامل با پایگاه داده پیادهسازی کردم، **از هیچ کتابخانهای مانند numpy، scikit Learn استفاده نمیکنم. ** به روز رسانی 1: ** من سعی می کنم سیستم خود را بیشتر توضیح دهم زیرا تمام جزئیات را درج نکرده ام و به همین دلیل بین این دو اشتباه گرفته ام. من مورد دیگری دارم که در آن مجموعه ای از برچسب ها برای هر سند دارم، بنابراین مجموعه ای از برچسب ها توسط برخی از کاربران به آن اسناد اختصاص داده شده است. بنابراین الگوریتم جستجوی من برای دو مورد مختلف کار میکند: 1. اولی همانطور که در بالا توضیح داده شد، که در آن از طرح وزندهی tf-idf و اندازهگیری شباهت کسینوس برای محاسبه شباهت بین برخی پرسوجوها و اسناد استفاده میشود. 2. رویکرد دوم این است: من برخی از وزنها را بر اساس رفتار برچسبگذاری روی اسناد محاسبه میکنم و این وزنها را به وزنهای tf-idf اضافه میکنم، یعنی اگر عبارت و برچسب یکسان باشد، وزنهای آنها را با هم اضافه میکنم، اگر سند دارای عبارتی نیست که با برچسب یکسان باشد، پس اضافه کردن 0 + وزن برچسب/سند خواهد بود (از آنجایی که چنین عبارتی در رابطه اصطلاح سند/سند وجود ندارد، و بنابراین وزن ترم/سند آن صفر خواهد بود) حالا میخواهم حالت اول و دوم را ارزیابی کنم و رتبهبندیها را با هم مقایسه کنم، بنابراین برای مورد دوم فرض میکنم میتوانم از k-fold استفاده کنم؟ چه رویکردی را برای ارزیابی رتبه بندی نتایج برای چنین سناریویی پیشنهاد می کنید؟ | اعتبارسنجی متقاطع K-Fold و امتیاز اندازه گیری F1 برای بازیابی اسناد با استفاده از وزن دهی TF-IDF و برخی از طرح های وزن دهی سفارشی |
94760 | من اندازههای $y_1$،...،$y_i$،...،$y_n$ را دارم که از مجموعهای از تکرارها در یک آزمایش طراحی شده به صورت فاکتوریل گرفته شدهاند. به منظور استفاده از رگرسیون خطی، من پاسخ خود را $z_i = log(y_i + 1)$ تعریف می کنم. log به منظور ثابت نگه داشتن فرض نرمال و تناسب مدل استفاده می شود، و + 1 استفاده می شود زیرا برخی از $y_i$ ها 0 هستند. اگر مدل ${z = a + \beta X}$ باشد، پس تفسیر $\beta$ ${\beta = {\sum_{i=1}^nz_i}/n = {\sum_{i=1}^nlog(y_i + 1)}/n}$ است ${{\log(\pi_{i=1}^n(y_i + 1))} = \beta n}$، که نشان میدهد که میانگین هندسی $\sqrt[n]{\pi_{i=1}^ n(y_i + 1)} = e ^\beta$. سوال من این است که آیا تغییر برگشتی یا راه دیگری برای دریافت تفسیری از میانگین هندسی $y_i$ به جای $(y_i + 1)$ به عنوان تابعی از $\beta$ وجود دارد. دلیل اینکه من می پرسم این است که برای مواردی که $y_i$ کوچک هستند (نزدیک به 0) مقدار $\beta$ بزرگی اثر را دست کم می گیرد. | تفسیر ضرایب رگرسیون log (y+1) پاسخ های تبدیل شده |
62135 | بنا به دلایلی، به نظر نمیرسد که هیچ کجا نمیتوانم فرمول فواصل پیشبینی را در رگرسیون پشته پیدا کنم. می دانم که تخمین های ضرایب سوگیری دارند، اما آیا پیش بینی ها (متغیر وابسته) نیز بایاس هستند؟ | فواصل پیش بینی در رگرسیون ریج؟ |
44356 | **سوال کوتاه:** میخواهم بدانم آیا میانگین 2 متغیر تفاوت قابل توجهی دارند یا خیر. من میدانم مجموعه داده چقدر بزرگ است (N~2000)، اما من فقط میانگین نمرات را برای همه شرکتکنندگان به طور میانگین در نظر گرفتهام. در مورد انحراف معیار اطلاعاتی ندارم. آیا آزمایشی وجود دارد که بتواند این کار را انجام دهد؟ **جزئیات:** 2 متغیر x1 و x2 در زمان های t1 و t2 اندازه گیری شد. هر دو افزایش می یابد. من باید تغییرات _نسبی_ را در طول زمان مقایسه کنم. تغییر نسبی برای x1 x1t2 / x1t1 است. از آنجایی که اکثریت عظیم افراد در t1 دارای مقادیر 0 در x من هستند، محاسبه افزایش نسبی برای این افراد غیرممکن است (و من 90٪ از داده ها را از دست خواهم داد). بنابراین کاری که من در عوض انجام می دهم میانگین نمرات x1 و x2 در کل جمعیت در هر دو نقطه اندازه گیری است و سپس افزایش نسبی این میانگین امتیازات را محاسبه می کنم. مثال: میانگین x1t1 را 0.5 و میانگین x1t2 را 2.0 فرض کنید. افزایش نسبی 4 (یا 500٪) است. افزایش نسبی x2 را 5 (یا 600%) فرض کنید. حالا می خواهم تست کنم که آیا 4 و 5 تفاوت قابل توجهی با یکدیگر دارند یا خیر. | مقایسه میانگین 2 متغیر (هیچ داده فردی در دسترس نیست) |
62227 | # مشکل: ** کد زیر برای پیشبینی قیمت ردیف آخر با استفاده از تمام ردیفهای قبلی به عنوان مجموعه آموزشی است** ** زمانی که قیمت ردیف آخر کوچکتر از 10 باشد، پیشبینی بسیار خوب است، اما زمانی که قیمت تست بزرگتر شود، غیرمنطقی میشود. . ** همین مشکل با استفاده از فایل بسته SVM رخ می دهد <- read.csv('test.csv',head=F) N<-nrow(file) train <- file[1:N-1,] test <- file[N ,] جنگل <- randomForest(train[,1] ~., data = train) rf.predict <- predict(forest, newdata=test) rf.predict داده های #10.08446: V1 V2 V3 1 3.0 1.0 2.0 2 -6.0 -6.2 -6.2 3 -30.2 -31.2 -30.7 4 -2.1 -1.3 -1.8 5 -11.4 -9.5 -10.7 6.6 -10.7 -9.5 -10.7 6.8.6. 6.4 8 -0.2 3.2 1.5 9 -8.8 -10.2 -9.3 10 -10.2 -11.0 -10.7 11 -16.3 -15.6 -16.0 12 -2.5 -2.5 -2.5 13 -17.2 -16.1 -16.7 10.2 15 -3.0 -5.3 -4.0 16 2.1 3.5 2.5 17 -2.0 -1.4 -1.5 18 11.7 12.2 11.8 19 11.2 11.2 11.2 20 -1.0 -2.0 -0.4 22 -9.3 -10.7 -9.7 23 -17.7 -15.7 -17.5 24 1000.5 1000.0 1001.0 | R با استفاده از Random Forest یا SVM |
62220 | بگویید که در یک مسئله طبقه بندی باینری چندین منفی و فقط یک مثبت دارید. چه نوع مدل هایی برای یادگیری از این داده ها و پیش بینی برچسب برای نمونه جدید خوب است؟ چیزی در پایتون موجود است؟ از آنچه در اینجا خواندم، scikit-learn آن را پشتیبانی نمی کند. | درس گرفتن از یک نکته مثبت |
44357 | من 2 درخت تصمیم ایجاد کردهام، فقط میخواهم اطمینان حاصل کنم که آیا تفسیر درستی درباره آن دارم یا خیر. این اولین درخت من است: توجه: روی تصویر کلیک راست کرده و view image را انتخاب کنید تا به وضوح مشاهده شود!  در اینجا تفسیر وجود دارد: اجازه دهید مقدار ipttl را 40 فرض کنیم. درخت باید با بررسی مقدار داده شده ipttl برای این شروع کند. شرایط در ریشه یعنی. ipttl<44.5، اکنون 40<44.5 است، بنابراین کنترل از ریشه به سمت چپ حرکت می کند. اکنون مقدار ipttl را برای شرط ipttl>=43.5 بررسی می کند، بنابراین از آنجایی که شرط 40>=43.5 false است، بنابراین کنترل ها به شاخه سمت راست منتقل می شوند، اکنون برای شرط ipttl>=42.5 بررسی می شود، بنابراین شرط 40>=42.5 false است. بنابراین کنترل باید به شاخه سمت راست منتقل شود و به این معنی است که این مقدار ipttl 40 متعلق به دسته 8 است. آیا تفسیر من صحیح است؟ من موفق شدم درخت تصمیم دیگری را در R ایجاد کنم. اما درخت به نظر می رسد که در پایین آن کاملاً پرجمعیت است و من نمی توانم درباره آن قضاوت کنم. علاوه بر این، چرا در همه جای درخت مقدار date_time یکسان است.  خروجی R من به شرح زیر است: > tree n=5544 (756 مشاهدات حذف شده به دلیل عدم وجود) گره)، تقسیم، n , loss, yval, (yprob) * نشان دهنده گره پایانی 1) ریشه 5544 4829 6 (0.13 0.13) 0.12 0.12 0.13 0.13 0.13 0.13) 2) date_time< 1.351177e+09 2727 2025 1 (0.26 0.26 0.24 0.25 0 0 0 0 0 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0 696 1 (0.5 0.5 0 0 0 0 0 0) 8) date_time< 1.351176e+09 702 0 1 (1 0 0 0 0 0 0 0) * 9) date_time>=1.351176e 09206+09 0 0 0 0 0) * 5) date_time>=1.351176e+09 1329 660 5 (0 0 0.5 0.5 0 0 0 0) 10) date_time< 1.351176e+09 660 0 3 (0 0 1 0 0 0 0 0 1) date_time>=1.351176e+09 669 0 5 (0 0 0 1 0 0 0 0) * 3) date_time>=1.351177e+09 2817 2102 6 (0 0 0 0 0.25 0.25 0.25)_5 تاریخ 1.351177e+09 1417 702 6 (0 0 0 0 0.5 0.5 0 0) 12) date_time< 1.351177e+09 715 0 6 (0 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0) * 5 13 13 = 70 0 7 (0 0 0 0 0 1 0 0) * 7) date_time>=1.351177e+09 1400 697 8 (0 0 0 0 0 0.5 0.5) 14) date_time< 1.351178e 09+09 0 0 0 1 0) * 15) date_time>=1.351178e+09 697 0 9 (0 0 0 0 0 0 0 1) * سوال اصلی این است که چگونه می توانم بدانم آیا درخت قادر است متغیر هدف من (رده) را به درستی طبقه بندی کند. آیا داشتن تنها یک مقدار date_time در نمودار درختی است؟ با احترام | تفسیر خروجی درخت تصمیم در R؟ |
62225 | من داده های زوجی (مطالعه موردی/شاهدی GWAS) دارم و شنیده ام که استفاده از رگرسیون لجستیک شرطی یا مدل های ترکیبی خطی تعمیم یافته (GLMM) مناسب است. در این مورد از کدوم استفاده کنم؟ چرا از یکی بر دیگری استفاده می کنید؟ مهمتر از آن، آیا می توانید من را به منابعی برای انجام این روش ها در «R» راهنمایی کنید؟ من در حال یافتن مطالب زیادی برای SAS هستم که ترجیح نمی دهم. در صورت لزوم می توانم جزئیات بیشتری ارائه دهم. | رگرسیون لجستیک مشروط در مقابل GLMM در R |
79028 | با توجه به یادگیری بدون نظارت (مانند خوشه بندی)، آیا معیارهایی برای ارزیابی عملکرد وجود دارد؟ | معیارهای عملکرد برای ارزیابی یادگیری بدون نظارت |
44358 | من سعی میکنم مشکلی را با 'regsubsets' با جهش در R تنظیم کنم. تعداد متغیرها حدود 200 است و من حدود 2 میلیون مشاهده مستقل دارم. تمامی متغیرها دارای ساختار همبستگی قوی با یکدیگر هستند. در اجرای زیر مجموعههای regs با «really.big = TRUE»، و «nvmax = 5» و «nbest = 1»، موارد زیر را دریافت میکنم: > خطا در leaps.setup - 31 وابستگی خطی پیدا شد و خراب میشود. تنها کاری که من به دنبال انجام آن هستم این است که یک حرکت ساده به سمت جلو و گام به گام انجام دهم، مثلاً متغیرها را به ترتیب همبستگی مرتب کنید و رگرسیون های تودرتو را اجرا کنید. آیا این برای نرم افزار زیاد است؟ من فکر می کنم مشکل از این نظر به خوبی مطرح شده است. | زیر مجموعهها با جهش شکست میخورند |
112841 | من سعی می کنم یک شبه R2 را برای مدل های مختلط خطی با استفاده از روش Nagelkerke محاسبه کنم. درک من این است که شبه-R2=1-EXP Nagelkerke[(-2/n)(l(B)-l(0))]، که در آن l(B) و l(0) حداکثر احتمال log برای مدل برازش علاقه و مدل تهی (فقط قطع) به ترتیب. شبه R2 سپس با تقسیم بر R2(max)، که در آن R2(max)=1-EXP[(2/n)*l(0)] به حداکثر 1 تبدیل می شود. مشکل من این است که در برخی موارد احتمال ورود به سیستم برای مدل مورد علاقه (و گاهی اوقات نیز مدل تهی) مثبت است. در نتیجه، R2>R2(max)، منجر به مقادیر مجدد R2 می شود که یا منفی یا >1 هستند. آیا من اینجا کار اشتباهی انجام می دهم؟ اگر نه، آیا روش متفاوتی برای محاسبه شبه R2 منطقی برای مدلهای با احتمال ورود به سیستم مثبت وجود دارد؟ پیشاپیش از هرگونه راهنمایی ممنونم لورا پری | Nagelkerke شبه R2 با احتمال ورود به سیستم مثبت |
55701 | فرض کنید من دادهها را بهعنوان مثال با مدل ARMA(1,1) تطبیق میدهم: $x_t = \phi x_{t-1} + \epsilon_t + \theta \epsilon_{t-1}$. اکنون پارامترهای $\phi$ و $\theta$ را تخمین زده و مقادیری را برای آنها حل می کنم، به عنوان مثال. $x_t = 0.7 x_{t-1} + \epsilon_t + 0.8 \epsilon_{t-1}$ (من فقط اعداد را درست کردم) بیایید بگوییم این بهترین مدل برای مشکل من است و من شروع به پیش بینی می کنم. بنابراین من پیشبینی $x_{t+1} = 0.7 x_{t} + \epsilon_{t+1} + 0.8 \epsilon_{t}$ را انجام میدهم. اکنون جایی که من گیج می شوم با مقدار آینده عبارت خطای $\epsilon_{t+1}$ است. چگونه می توانم این مقدار را حل کنم؟ آیا باید باقیمانده ها را نیز پیش بینی کنم یا باید از مقدار مورد انتظار $\epsilon_{t+1}$ استفاده کنم، که باید 0 باشد. امیدوارم سوال من واضح باشد =) از شما برای راهنمایی متشکرم =) ویرایش: در مورد مقدار $ \epsilon_{t+1}$. آیا باید ارزش $\epsilon_{t+1}$ را با فرض (همانطور که در ادبیات معمولاً فرض میشود) تخمین بزنم که فرآیند نویز $\epsilon_t$ معمولاً توزیع میشود $\epsilon_t$ ~ $iidN(0,\sigma_{\ epsilon}^2)$ و سپس از تکنیک های تخمین (کمترین مربعات، حداکثر احتمال، Yule-Walker) برای تخمین استفاده کنید. مقدار واریانس فرآیند نویز $\widehat{\sigma}_{\epsilon}^2$ و سپس فقط مقدار $\epsilon_{t+1}$ ~ $iidN(0,\widehat{\sigma}_{) را ارزیابی کنید \epsilon}^2)$ از توزیع گاوسی تخمینی؟ | سردرگمی در مورد عبارت خطا در مدل ARMA هنگام پیشبینی مقادیر آینده |
20079 | من دادهها را با یک نتیجه باینری و انواع متغیرهای پیشبینیکننده پیوسته و طبقهبندی (از جمله دوگانه) تجزیه و تحلیل میکنم. رویکرد من این است که یک رگرسیون لجستیک باینری انجام دهم و هر پیشبینیکنندهای با بیش از 20 مقدار منحصربهفرد را بهعنوان پیوسته در نظر بگیرم. چندین استدلال علیه طبقه بندی، به ویژه مستند به خوبی در سایت فرانک هارل، دلیل خوبی برای طبقه بندی نشدن است. با این حال، در یک جلسه اخیر که در آن رویکرد تحلیلهایم را مورد بحث قرار دادم، یکی از اعضای هیئت علمی پیشنهاد کرد که اگر متغیرهایی را که دارای توزیع کج و پرت هستند طبقهبندی کنم، تخمینهای ریسک دقیقتری برای دادهها به دست خواهم آورد. منطق آنها این بود که دنباله توزیع اریب و نقاط پرت در آن دنباله تأثیر مخربی بر تخمین ریسک ایجاد شده توسط رگرسیون لجستیک خواهد داشت و طبقهبندی با پاک کردن اثر دنباله و انحراف به این موضوع میپردازد. من چندین متغیر پیش بینی دارم که قطعا دارای توزیع های منحرف و برخی نقاط پرت هستند. آیا این ادعا که متغیری با توزیع اریب (با مقادیر پرت) احتمال بیشتری دارد تخمینهای ریسک نادرست را در مقایسه با نسخه طبقهبندی شده همان متغیر ایجاد کند، درست است؟ چولگی ها و نقاط پرت در دم چگونه بر تخمین های رگرسیون لجستیک تأثیر می گذارند؟ | تأثیر پیشبینیکنندههای پیوسته اریب در مدل رگرسیون لجستیک باینری |
79027 | فرض کنید من داده هایی دارم که شبیه این هستند.  من میخواهم کمیت کنم که پاکت پایین نقاط با یک تابع یکنواخت چقدر خوب توصیف میشوند. این اندازهگیری برای مقایسه مجموعهای از نقاط استفاده میشود و باید مجموعههایی با پاکتهای پایینتر یکنواختتر را ترجیح دهند. باید روی نقاط پرت منفرد y پایین و x زیاد که از یکنواختی جدا می شوند (نقاط قرمز) تأکید شود. منظور من از پاکت پایین تقریباً نقاط دایره شده با رنگ زرد است.  چگونه می توانم آنچه را که می خواهم مشخص کنم به عدد تبدیل کنم؟ **نظر من در مورد اینکه چگونه می توانم این کار را انجام دهم:** برای تعریف پوشش پایین نقاط، می توانم از تخمین چگالی هسته شرطی استفاده کنم. سپس پاکت پایینتر بهعنوان درصد پایینی y برای x داده شده تعریف میشود. با پیروی از این روش، میتوانم نقاطی را که در آن درصد برش هستند مشخص کنم یا خود توزیع چگالی را مشخص کنم. مشخص کردن نقاط ساده به نظر می رسد. به Rho اسپیرمن فکر می کردم. این رویکرد مزیت ساده بودن را دارد، اما داده ها به گونه ای است که برخی از مناطق با مقادیر x ممکن است به شدت نمونه برداری شوند و برخی دیگر ممکن است پراکنده تر باشند. مطمئن نیستم که مشکلی ایجاد کند یا خیر. مشخص کردن تخمین چگالی مشروط ممکن است ارجح باشد، اما من نمیدانم چگونه میتوان یک حس رتبه در y را با توجه به تخمینهای چگالی در امتداد x بدست آورد. یک راه این است که یک % y را برای تخمین چگالی شرطی در امتداد x انتخاب کنید و رتبه را از نقاط امتداد x در آن % y محاسبه کنید. آیا راه بهتری برای این کار وجود دارد؟ | مشخص کردن رتبه در امتداد پاکت پایین امتیاز |
2844 | کد مثال: (pc.cr <- princomp(USArrests)) # خلاصه نامناسب(pc.cr) loadings(pc.cr) ## توجه داشته باشید که ورودی های خالی کوچک هستند اما صفر نیستند من خروجی های متفاوتی از هر کدام دریافت می کنم و من هستم مطمئن نیستم متوجه شدم تفاوت چیست در اینجا خروجی است: > summary(pc.cr) اهمیت اجزاء: Comp.1 Comp.2 Comp.3 Comp.4 انحراف استاندارد 82.8908472 14.06956001 6.424204055 2.4578367034 نسبت واریانس 6553034. 0.005799535 0.0008489079 نسبت تجمعی 0.9655342 0.99335156 0.999151092 1.00000000000 > بارگیری (pc.cr) ## توجه داشته باشید که Comp. SS loadings 1.00 1.00 1.00 1.00 Proportion Var 0.25 0.25 0.25 0.25 Cumulative Var 0.25 0.50 0.75 1.00 p.s: چگونه می توانم به جدول ایجاد شده توسط خلاصه (pc.cr) دسترسی داشته باشم؟ (به نظر نمی رسد آن را در خیابان پیدا کنم) با تشکر. | تفاوت بین خلاصه و بارگذاری برای princomp چیست؟ |
1557 | من از ایده انقباض جیمز-استاین استفاده می کنم (یعنی اینکه یک تابع غیرخطی از یک مشاهده منفرد از یک بردار نرمال های احتمالاً مستقل می تواند برآوردگر بهتری برای میانگین متغیرهای تصادفی باشد، جایی که بهتر با مربع خطا اندازه گیری می شود. ). با این حال، من هرگز آن را در کارهای کاربردی ندیده ام. واضح است که من به اندازه کافی خوب نمی خوانم. آیا نمونه های کلاسیکی وجود دارد که جیمز استاین در یک محیط کاربردی تخمین را بهبود بخشیده است؟ اگر نه، آیا این نوع کوچک شدن فقط یک کنجکاوی فکری است؟ | کوچک شدن جیمز استاین در طبیعت؟ |
66416 | توزیع $T^2$ هتلینگ در آزمایش تفاوت بین میانگین جمعیت های مختلف بوجود می آید. اما آیا اغلب استفاده می شود؟ آیا می توان آن را در یک روش مدل سازی، فرض کنید، رگرسیون لجستیک پیاده سازی کرد؟ | هتلینگ $T^2$ برای چه استفاده می شود؟ |
20076 | من یک فایل داده SPSS دارم که سعی می کنم آن را کاهش دهم. با این حال داده هایی که به هم تعلق دارند در چندین ستون پخش می شوند. یعنی من یک ردیف در هر موضوع دارم، اما هر موضوع چندین شرایط مختلف و همچنین رویهها را انجام داده است. شرایط در ستونهای «condition_1»، «condition_2» و غیره هستند. رویهها در ردیفهای «procedure_1»، «procedure_2» و غیره هستند. مقادیر (زمانهای واکنش) در ستونهای «reaction_time_1»، «reaction_time_2» هستند. اکنون میخواهم میانگین زمانهای واکنشها را برای هر فردی که شرایط و روش یکسان است محاسبه کنم. بنابراین، اگر «condition_x» با «condition_y» و «procedure_x» همان «procedure_y» باشد، میخواهم میانگین تمام آن موارد «reaction_time_x» و «reaction_time_y» را بدست بیاورم. چگونه می توانم این کار را با SPSS انجام دهم؟ من به راحتی می دانم که چگونه میانگین ها را به طور کلی محاسبه کنم، اما در این مورد باید تنها زیر مجموعه ای از ردیف ها را بر اساس شرایط انتخاب کنم و نمی دانم چگونه این کار را انجام دهم. | محاسبه میانگین داده ها در ستون های متعدد (متفاوت) در SPSS |
115316 | من با فرمولی مواجه شدم که در زمینه مالی ارائه شده بود، و تلاش ناموفقی داشتم تا کاری را امتحان کنم که معنی آن چیست. $SL = 2 * 100 * \sqrt{V_L + (\alpha + \بتا)^k \sigma^2_{n - V_L}}$. من شبکه را جستوجو میکنم و نمیتوانم چیزی نزدیک ببینم، بنابراین از هرگونه کمکی قدردانی میکنم. داره دیوونم میکنه | فرمول ناشناخته |
17046 | در Method of Moments برای تخمین، اگر $k$ پارامترهایی برای تخمین وجود داشته باشد، ما معمولاً $i$-th لحظه، $i=1،...،k$ را در نظر می گیریم، به طوری که k معادله برای k مجهول داریم. 1. نمیدانم آیا عاقلانه است که ممانهای بیشتری را با ترتیبهای مختلف در نظر بگیریم، مثلاً $i$-th لحظه، $i=1،...,n>k$، تا بتوانیم یک سیستم خطی بیش از حد تعیینشده را حل کنیم. ? چرا؟ 2. همچنین آیا بهتر است به جای $i=1,...,k$ لحظه های سفارشات دیگر را انتخاب کنیم؟ با تشکر و احترام! | استفاده از لحظه ها را در روش لحظه ها تعمیم دهید؟ |
115313 | من در اثبات اینکه یک ماتریس N.N.D دارای N.N.D G-Inverse است مشکل دارم. تا اینجا من: اگر x = Az را فرض کنیم که x >= 0 و A یک ماتریس nnd است. بنابراین اگر Y معکوس G باشد از: x = Az = YAz = Yx >= 0 . بنابراین Lx = LAz = Az >= 0 . بنابراین L هر معکوس G از A نیز nnd است. | یک ماتریس معین غیر منفی دارای یک معکوس تعمیم یافته غیر منفی است |
67764 | این ممکن است بیشتر به نظریه بازی ها مرتبط باشد تا آمار، اما من تصمیم گرفتم این سوال را اینجا بپرسم. بیایید فرض کنیم که یک قرعه کشی به شما پیشنهاد شده است. در یک کاسه صد توپ وجود دارد: 99 توپ سفید و یک توپ قرمز. شما مجاز به انتخاب یک توپ به صورت تصادفی هستید (بدیهی است بدون اینکه ببینید چه رنگی است). اگر توپی که انتخاب کردید قرمز باشد، 100 دلار برنده خواهید شد. با این حال، اگر یک توپ سفید انتخاب کنید، $1 را از دست می دهید. ارزش مورد انتظار قرعه کشی 0.99* (-\$1) + 0.01 * \$100 = \$.01 است. این نشان می دهد که باید لاتاری بازی کنید، زیرا به شما امکان می دهد به طور متوسط یک سنت برنده شوید. مقدار مورد انتظار در این مورد به این معنی است که اگر بی نهایت بار در قرعه کشی بازی کنید، به طور متوسط یک سنت در هر بازی سود خواهید داشت. با این حال، اگر فقط یک یا دو یا سه بار مجاز به بازی در لاتاری باشید، چه؟ آیا ارزش مورد انتظار در چنین سناریویی همچنان یک دستگاه تصمیم گیری قابل دوام است؟ ممنون از پاسخ های شما | آیا ارزش مورد انتظار روشی معتبر برای تصمیم گیری در کوتاه مدت است؟ |
115315 | با عرض پوزش اگر این نوع سؤالات حلال نیست. من اینجا تازه کارم، لطفا مرا ببخش. به هر حال، من یک مجموعه داده دارم که احتمال اینکه کاربران مقالات خاصی را از مجموعه من دوست داشته باشند را توصیف می کند _(با 5 مقاله که به طور تصادفی انتخاب شده و نموداری در زیر نشان داده شده است. در امتداد محور x کاربران تکی هستند و در امتداد محور y امتیاز آنها. کاربران عبارتند از بر اساس امتیاز مرتب شده است.)_ من به دنبال این هستم که توزیعی را برای هر خط تطبیق دهم، اما مطمئن نیستم که کدام یک را انتخاب کنم که احتمالاً بهترین این خطوط را دارد. من به استفاده از توزیع نمایی فکر می کردم؟ اما اطلاعات زیادی وجود دارد که احتمالاً نمایی در اینجا نمی تواند آنها را ثبت کند. آیا کسی ایده خوبی دارد؟ ویرایش: عنوان خود را بهروزرسانی میکنم تا نام یک توزیع معقول را شامل شود تا این سؤال قابل جستجوتر باشد و دیگران احتمالاً در آینده از آن یاد بگیرند.  | کدام خانواده توزیع بهتر با این نمودار مطابقت دارد؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.