_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
21203
من سعی می کنم روشی را برای مقایسه یک سری زمانی خاص با بیش از 10000 سری زمانی مرجع به صورت برنامه ای تعیین کنم و سری های زمانی مرجع را که می توانند مورد علاقه باشند فهرست کوتاهی ارائه دهم. روشی که من استفاده کردم همبستگی پیرسون بود. برای هر یک از سری های زمانی مرجع، ضرایب همبستگی آنها را محاسبه می کنم و سپس کل لیست سری های زمانی مرجع را به ترتیب نزولی بر اساس ضریب همبستگی مرتب می کنم. سپس N سری زمانی برتر را که دارای بالاترین ضرایب همبستگی هستند، به صورت بصری تجزیه و تحلیل می کنم، که باید بهترین تطابق با سری زمانی داده شده باشد. مشکل اینجاست که من نتایج قابل اعتمادی نمی گرفتم. غالباً سری در محدوده N برتر از نظر بصری به چیزی شبیه سری زمانی داده شده شباهت نداشتند. در نهایت وقتی مقاله کامل زیر را خواندم متوجه شدم چرا: نمی توان از همبستگی به تنهایی برای تعیین اینکه آیا دو سری زمانی مشابه هستند استفاده کرد. کوارتت Anscombe اکنون این یک مشکل با همه الگوریتم های تطبیقی ​​است که نوعی فاصله بین دو سری زمانی را محاسبه می کنند. به عنوان مثال، دو گروه از سری های زمانی زیر می توانند به یک مسافت منجر شوند، اما بدیهی است که یکی بهتر از دیگری است. A => [1، 2، 3، 4، 5، 6، 7، 8، 9] B1 => [1، 2، 3، 4، 5، 6، 7، 8، 12] فاصله = sqrt(0+ 0+0+0+0+0+0+0+9) = 3 B2 => [0، 3، 2، 5، 4، 7، 6، 9, 8] فاصله = sqrt(1+1+1+1+1+1+1+1+1) = 3 بنابراین سوال من این است که آیا فرمول ریاضی (مانند همبستگی) وجود دارد که می تواند در این نوع برای من مناسب تر باشد. از موقعیت ها؟ یکی که از مشکلات ذکر شده در اینجا رنج نمی برد؟ لطفاً در صورت نیاز هرگونه توضیح بیشتر یا بهبود متن سؤال را بخواهید. با تشکر =) ویرایش: ![نتایج همبستگی](http://i.stack.imgur.com/Ez7WT.jpg) @woodchips، @krystian.. ردیف بالا ده نوار آخر USDCHF-Daily را نشان می دهد که در تاریخ معین به پایان می رسد. .. ردیف دوم 3 نتیجه برتر **روش A** مورد استفاده برای همبستگی را نشان می دهد (توضیح در ادامه خواهد آمد).. ردیف آخر 3 نتیجه برتر **روش را نشان می دهد. ب**.. من از قیمت های بالا-پایین-بسته برای همبستگی استفاده کرده ام.. آخرین تصاویر در هر ردیف چیزی است که من آن را مطابقت خوب می دانم. دلیل آن این است که نقاط عطف سریال برای من مهم تر است. .. تصادفی است که ردیف های آخر بیشترین همبستگی را داشتند.. اما در ردیف آخر می بینید که تصویر دوم شباهت بسیار ضعیفی دارد.. با این حال موفق می شود مخفیانه وارد 3 تای برتر شود. این چیزی است که من را آزار می دهد.. به دلیل این رفتار، مجبور می شوم به صورت بصری به هر همبستگی دسترسی پیدا کنم و آن را بپذیرم / کنار بگذارم. کوارتت anscombe نیز تأکید می کند که همبستگی نیاز به بررسی بصری دارد. به همین دلیل می خواستم از همبستگی فاصله بگیرم و کاوش در سایر مفاهیم ریاضی که شباهت سری را ارزیابی می کنند. **روش A** داده های HLC را در یک سری طولانی اضافه می کند و آن را با داده داده شده مرتبط می کند. سری.. **روش B** داده های H را با داده های مرجع H، L را با L، C با C، و سپس هر سه مقدار را ضرب می کند تا **همبستگی خالص** را محاسبه کند.. بدیهی است که همبستگی کلی را کاهش می دهد، اما احساس می کنم تمایل دارد به **تصحیح** همبستگی های حاصله.. بابت دیر پاسخگویی دوستان عذرخواهی می کنم.. سعی کردم داده ها و کدهای مرتبط را جمع آوری کنم و گرافیکی برای توضیح بسازم. این تصویر یکی از رویدادهای نادر زمانی که همبستگی‌ها کاملاً مشخص هستند.. زمانی که مطابقت‌های حاصله بسیار گمراه‌کننده هستند، گرافیک‌ها درست نمی‌شوند و به اشتراک می‌گذارند، حتی اگر مقادیر همبستگی بسیار بالا هستند. الگوریتم ها.. همبستگی و تاب زمانی پویا برای دسترسی به شباهت سری.. برای DTW باید از MSE همونطور که شما گفتید استفاده کنم.. برای همبستگی، میتونم هم از MSE استفاده کنید (که در این صورت برابر است با هزینه مسیر مورب DTW، بدون هیچ گونه تاب خوردگی) و هم از فرمول همبستگی پیرسون واقعی.. تصاویر زیر حاصل استفاده از فرمول همبستگی پیرسون هستند. ارسال کنید و به زودی گزارش دهید. در واقع، من دو سری زمانی مجزا ندارم. فقط یک سری زمانی تقریباً 10000+ امتیاز دارد. من از یک پنجره کشویی عرض N برای همبستگی خودکار سری های زمانی برای مکان یابی وقایع زمانی که سری رفتار مشابه امروزی داشت. اگر بتوانم مطابقت های خوبی پیدا کنم، ممکن است بتوانم حرکت سری زمانی فعلی را بر اساس نحوه حرکت آن پیش بینی کنم. بعد از هر یک از مسابقات مشخص شد.. از بینش شما متشکرم.. =)
یک معیار قابل اعتماد برای تشابه سری - همبستگی آن را برای من قطع نمی کند
71485
من در تلاش برای تفسیر نتایج یک رگرسیون کاکس هستم. من دکتری پزشکی می گذرانم. من عاشق آمار هستم اما سوال من هنوز خیلی ابتدایی است، فکر می کنم، و در تاپیک های قبلی پاسخی پیدا نکردم. من باید مدل های مختلف را مقایسه کنم (فقط چند پیش بینی در هر کدام؛ پیش بینی کننده ها متفاوت هستند، اما گاهی اوقات یک پیش بینی کننده در مدل های مختلف ظاهر می شود؛ مثلاً A+B، A+C، A+D، B+C) با یکسان متغیر زمان تا رویداد چگونه بهترین مدل را انتخاب کنم؟ من در حال مطالعه اصول آماری زیربنایی هستم، اما هنوز متوجه نمی شوم که آیا باید به * کدام مدل بالاترین احتمال ورود را دارد یا خیر. * کدام مدل دارای بهترین p-value آزمون نسبت درستنمایی است (LR chi2). * کدام مدل دارای تمام مقادیر p ضرایب HR (بتا) متغیرهای کمکی است. * یا هر ترکیبی از موارد فوق (به عنوان مثال، فقط مدل هایی را در نظر بگیرید که هم ضرایب LR و هم ضرایب بتا همه متغیرهای کمکی قابل توجه هستند و از بین آنها مدلی را انتخاب کنید که بیشترین احتمال ورود به سیستم را دارد). یا تکنیک آماری دیگری برای انجام آن وجود دارد؟ من از Stata 11.0 استفاده می کنم. من می‌دانم که اهمیت LR و اهمیت ضرایب بتا چیزهای مختلفی را آزمایش می‌کنند، اما همچنان باید مدلی را با مثلاً «بهترین توانایی پیش‌بینی» یا «قوی‌ترین ارتباط» انتخاب کنم. پیشاپیش از کمک شما متشکرم! لوکا
چگونه می توان مدل ها را در رگرسیون کاکس تفسیر و مقایسه کرد؟
81308
من سعی می کنم یک مدل خطی از فرم ساده بسازم، y = a + b1*x1 + b2*x2 + b3*x3 + c1*z1 + c2*z2 + c3*z3. ویژگی های مدل عبارتند از 1) هر یک از متغیرهای مستقل متعلق به یک کلاس خاص است، بنابراین در بالا می بینید، x1,x2,x3 3 متغیر هستند که متعلق به کلاس x هستند. برای متغیر z هم همینطور. 2) بین متغیرهای یک کلاس همبستگی قوی وجود دارد، همچنین متغیرهایی که متعلق به کلاس های مختلف هستند همبستگی دارند اما با شدت کمتر. 3) تعداد متغیرها زیاد و تعداد مشاهدات بسیار زیاد است. به عنوان مثال تعداد متغیرها می تواند در مجموع 120 متغیر باشد و مشاهدات یا مقادیر y می تواند مثلاً 1 میلیون باشد. بنابراین این یک مشکل چند خطی نسبتاً بزرگ است. به کارشناسان بیرونی، بهترین راه برای حمله به چنین مشکلی چیست. اساساً من می‌خواهم بتوانم راه‌های کارآمدی برای مقابله با چند خطی پیدا کنم. ایده های ممکن، 1) از یک الگوریتم منظم سازی در مسئله کامل استفاده کنید. 2) از روشی برای کاهش تعداد متغیرهای متعلق به یک کلاس استفاده کنید، به عنوان مثال اگر x1 قوی ترین همبستگی را با y دارد، در کلاس خود، فقط x2 و x3 را کنار بگذارید. من در اینجا از pca استفاده می‌کردم، اما داشتن یک راه‌حل پراکنده ارزش دارد، به عبارت دیگر ترجیح می‌دهم کل وزن را روی یک متغیر داشته باشم و بقیه را کنار بگذارم، برخلاف اینکه pca یک بردار بهینه با وزن‌های کسری به من بدهد. در x1، x2 و x3 3) دیگران؟ با تشکر
برازش کلاس های مشابه بسیاری از متغیرهای خطی
49730
من در پیچیدن مفهوم رگرسیون لجستیک و تفسیر آن برای متغیرهای غیر بولی مشکل دارم. نمونه‌ای از مطالب درسی ما به شرح زیر است: > محاسبه یک مدل خطی تعمیم‌یافته در R برای فرمول «like(boolean)~ > highCalories(boolean)»، ضرایب به این شکل هستند > > Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (تقاطع) -0.47367 0.04369 -10.841 < 2e-16 کالری s -0.71497 0.17398 -4.109 3.97e-05 > > با وقفه بودن -0.47 با شانس 1 مورد پسند شدن کالری بالای 0 است logit(-0.47) -> 38.4% > > اگر highCalories 1 باشد، شانس لایک شدن نیز 1 است > logit(-0.47367-0.71497) -> 23.4% بنابراین در مورد متغیر بررسی شده Boolean بودن آن برای من واضح است. . بیایید به مثالی با متغیرهای غیر بولی نگاه کنیم: > Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (داخل) -3.806e+00 2.801e-01 -13.589 <2e-16 روز -1.934e-03 1.862e-04 -10.387 <2e-16 این برای `MailIsRefound( بولی)~dayofstudy(عددی)` زیرا dayofstudy Boolean نیست، logit برای رهگیری چندان معنی دار به نظر نمی رسد، اما برای روز ما logit(-3.806e+00 -1.934e-03) -> 2.1% دریافت می کنیم این مقدار چگونه تفسیر می شود؟
رگرسیون لجستیک با متغیرهای غیر بولی
21485
Rmse (ریشه میانگین مربعات خطا)، همبستگی تطابق Lin و P30 (درصد نتایج در 30٪ استاندارد طلا) برخی از معیارهای دقت در مطالعات مقایسه روش هستند. اما همه آنها تخمین های نقطه ای هستند، اگرچه می توان 95٪ فواصل اطمینان را با بوت استرپینگ محاسبه کرد. سوالات من این است: 1. چگونه می توان این اقدامات را بین 2 روش مقایسه کرد؟ تست های t جفت نشده؟ تست های تی زوجی؟ 2. چگونه می توان این اقدامات را بین 3 یا چند روش مقایسه کرد؟ اقدامات مکرر ANOVA یک طرفه؟ همبستگی درون طبقاتی در معادله تخمین تعمیم یافته یا مدل مختلط خطی؟ 3. من می توانم MSE (میانگین مربعات خطا) را بین 2 روش یا بین 3 یا چند روش مقایسه کنم زیرا MSE را می توان به عنوان میانگین residual2 محاسبه کرد و ses از residual2 این روش ها به راحتی محاسبه می شود. اما چگونه می توان نتایج مقایسه MSE را به rmse ترجمه کرد؟ 4. آیا می توانید نمایش با کد نرم افزار ارائه دهید؟
چگونه معیارهای دقت را در مطالعات مقایسه روش مقایسه کنیم؟
1595
بسیاری از افراد برای نیازهای آماری خود از ابزار اصلی مانند اکسل یا صفحه گسترده دیگر، SPSS، Stata یا R استفاده می کنند. آنها ممکن است برای نیازهای بسیار خاص به بسته خاصی روی آورند، اما بسیاری از کارها را می توان با یک صفحه گسترده ساده یا یک بسته آماری عمومی یا محیط برنامه نویسی آمار انجام داد. من همیشه پایتون را به عنوان یک زبان برنامه نویسی دوست داشته ام و برای نیازهای ساده، نوشتن یک برنامه کوتاه که نیاز من را محاسبه کند، آسان است. Matplotlib به من اجازه می دهد آن را طرح کنم. آیا کسی به طور کامل از، مثلاً R، به پایتون تغییر کرده است؟ R (یا هر بسته آماری دیگری) دارای عملکردهای زیادی مخصوص آمار است و ساختارهای داده ای دارد که به شما امکان می دهد به آماری که می خواهید انجام دهید فکر کنید و کمتر در مورد نمایش داخلی داده های خود فکر کنید. پایتون (یا یک زبان پویا دیگر) این مزیت را دارد که به من اجازه می‌دهد به زبانی آشنا و سطح بالا برنامه‌نویسی کنم و به من اجازه می‌دهد تا به صورت برنامه‌نویسی با سیستم‌های دنیای واقعی که داده‌ها در آن قرار دارند یا از آنها اندازه‌گیری کنم، تعامل داشته باشم. اما هیچ بسته پایتونی پیدا نکردم که به من اجازه دهد چیزها را با اصطلاحات آماری بیان کنم - از آمار توصیفی ساده گرفته تا روش های چند متغیره پیچیده تر. اگر بخواهم از پایتون به عنوان یک میز کار آماری برای جایگزینی R، SPSS و غیره استفاده کنم، چه چیزی می توانید توصیه کنید؟ بر اساس تجربه شما چه چیزی به دست می‌آورم و چه چیزی را از دست می‌دهم؟
پایتون به عنوان یک میز کار آماری
114825
من روی تناسب روی لایه مخفی چندگانه کار می کنم. منطقه برنامه من تشخیص کد پین دست نویس است. من از پنج لایه مخفی برای دقت بهتر استفاده کرده بودم. من می دانم که پیچیدگی زمانی افزایش می یابد، اما کار من فقط بر روی دقت متمرکز است. معماری شبکه من به صورت زیر است نمونه ورودی 10 است یعنی از 0 تا 9 لایه ورودی: 15 ردیف x 10 ستون = 150 نورون لایه پنهان 1 = 102 لایه پنهان 2 = 74 لایه پنهان 3 = 49 لایه پنهان 4 = 37 لایه پنهان 29 لایه خروجی 16 نورون به دلیل یونیکد آیا کسی می تواند در هرس این معماری تا حد زیادی به من کمک کند. من مقالات زیادی را ارجاع داده بودم و پس از آن تصمیم گرفتم از این شبکه استفاده کنم.
21484
من یک تست بنچمارک جاوا اسکریپت دارم که چندین بار اجرا می کنم و نتایج را در یک آرایه ذخیره می کنم. سپس میانگین، واریانس و انحراف معیار نتایج اجراها را محاسبه می‌کنم. سوال من این است که آیا از فرمول برای جامعه یا نمونه استفاده می کنم؟
در آزمون های معیار آیا باید از فرمول ها با فرض جامعه یا نمونه استفاده کنم؟
10669
من مدلی را اجرا می‌کنم که برای آن درصد بسیار بدی از رویدادها در ماتریس سردرگمی شناسایی می‌کنم (عموماً موارد مثبت واقعی من). بدیهی است که این نشان می‌دهد که منفی‌های کاذب من خیلی زیاد است. وقتی این مجموعه داده را به یک گره شبکه عصبی یا یک گره درخت تصمیم دادم، می بینم که درصد تشخیص توسط این دو تکنیک کاملاً خوب است (65٪ - 67٪ در مقابل ماین 15٪). من به نمودار درخت تصمیم رفتم و برش های مختلفی را دیدم که بر اساس آن جمعیت را تقسیم می کند. واضح است که می‌دانم متغیری که روی ریشه درخت می‌افتد بیشترین اهمیت را دارد و برگ‌ها کمترین اهمیت را دارند. * درخت تصمیم درخت چگونه می تواند به من در ایجاد متغیرهای طبقه بندی یا رفتار با متغیرهای پیوسته کمک کند تا دقت مدل من بهبود یابد؟ برای روشن شدن، اگر یک درخت تصمیم بتواند ماتریسی با تشخیص 65 درصد تولید کند، برای بدست آوردن چنین دقتی قوانینی در داخل آن وجود دارد. این قوانین در نمودار درختی که به عنوان خروجی دریافت می کنیم نمایش داده می شوند. * آیا می توانیم از این درخت برای ایجاد متغیرها به روشی متفاوت استفاده کنیم و به دقت داده شده توسط درخت تصمیم نزدیک شویم؟
خروجی درخت تصمیم -- یادگیری
49732
من می خواهم درک خود را از فواصل اطمینان برای تخمین های حد محصول از تابع بقا بهبود بخشم. من از کتاب کلاین و موشبرگر به عنوان مرجع استفاده می کنم. تخمین‌گر حد محصول به صورت $\hat{S}(t)=\prod_{t_i\leq t}(1-\frac{d_i}{Y_i})$ تعریف می‌شود که در آن $(t_i)_i$ مشاهده می‌شود، زمان‌های سانسور شده، $d_i$ تعداد مرگ‌ها در زمان $t_i$ و $Y_i$ تعداد بیماران در مطالعه تا زمان $t_i$ است. واریانس آن را می توان با $\hat{V}(\hat{S}(t))=\hat{S}(t)^2\sum_{t_i \leq t}\frac{d_i}{Y_i(Y_i) تخمین زد - d_i)}$. برای فواصل اطمینان، $\sigma_S^2(t) = \frac{\hat{V}(\hat{S}(t))}{\hat{S}(t)^2}$ را تعریف کنید و اجازه دهید $ Z_a$ صدک $a$ یک نرمال استاندارد را نشان می دهد. سپس فاصله اطمینان خطی با سطح $1-\alpha$ $\hat{S}(t_0) \pm Z_{1-\alpha/2}\sigma_S(t_0)\hat{S}(t_0)$ است. فاصله اطمینان تبدیل شده $[\hat{S}(t_0)^{\frac{1}{\theta}} است، \hat{S}(t_0)^{\theta}]$ با $\theta=\exp(\frac{Z_{1-\alpha/2}\sigma_S(t_0)}{\ln(\hat{S} (t_o)})$ که بر اساس تبدیل تابع خطر تجمعی یا تبدیل تابع بقا از طریق $\ln(-\ln(x))$ است آیا من باید چیزی در مورد آمار مجانبی بدانم؟
چگونه می توان فاصله اطمینان را برای تابع بقا ثبت-تغییر داد؟
40632
من یک سوال در مورد حذف داده های شرکت کننده برای دو تجزیه و تحلیل آماری روی یک نمونه دارم. در اینجا اطلاعات کمی وجود دارد: من داده‌ها را از یک نمونه جمع‌آوری کردم (تعداد = 181 دانش‌آموز) و دو پرسش‌نامه (یکی در مورد معنویت و دیگری در مورد حالات عاطفی منفی) برای آنها اجرا کردم. من یک تحلیل عاملی اکتشافی بر روی داده‌های پرسشنامه معنویت انجام دادم و می‌خواهم با استفاده از یک رگرسیون خطی چندگانه سلسله مراتبی، عوامل به دست آمده از EFA را با حالت‌های هیجانی منفی مقایسه کنم. سوال اصلی من این است: وقتی داده‌ها را با یک رگرسیون خطی چندگانه سلسله مراتبی تجزیه و تحلیل کردم، SPSS شرکت‌کنندگانی را (از طریق تشخیص موردی) شناسایی کرد که داده‌هایشان به دلیل امتیازهای پرت حذف می‌شد. اگر این موارد را از تجزیه و تحلیل حذف کنم، آیا باید آنها را از نتایج EFA هم حذف کنم؟ (هر دوی این تحلیل‌ها در بخش نتایج همان آزمایش نشان داده می‌شوند.)
آیا می توان یک مورد را از دو تحلیل حذف کرد، در حالی که مورد فقط در یک مورد پرت است؟
90218
در رگرسیون کاکس، گاهی اوقات اجتناب ناپذیر است که قدرت یک پیش بینی در طول زمان متفاوت باشد (سینگر و ویلت). این فرض تناسب را نقض می کند، اما می تواند در مدل به عنوان یک اصطلاح تعامل بین متغیر کمکی و زمان (یا گزارش زمان) گنجانده شود. چگونه می توان این اصطلاح تعامل (با دست) را ایجاد کرد؟ اگر پیش‌بینی‌کننده تنها یک مقدار واحد برای هر موضوع داشته باشد (مثلاً جنسیت با کد 1 یا 0)، چگونه می‌توان آن را در زمان ضرب کرد - که برای هر موضوع، مقادیر زیادی به خود می‌گیرد (به عنوان مثال، اگر زمان بر حسب روز اندازه‌گیری شود، و مطالعه 100 روز طول می کشد، سپس $t=\\{1,...,100\\}$)؟ آیا مقدار پیش‌بینی‌کننده در زمان رویداد ضرب می‌شود (مثلاً مرگ)؟ من از برخی منابع خوانده‌ام که شما مقدار متغیر کمکی را در یک تابع زمان ضرب می‌کنید، اما مطمئن نیستم که این درست است یا اینکه چگونه می‌توان این کار را در یک مجموعه داده با دست انجام داد.
چگونه در رگرسیون کاکس یک عبارت متقابل متغیر × زمان ایجاد کنیم؟
13485
با استفاده از روش‌های «R plot()» و «plotcp()»، می‌توانیم مدل رگرسیون خطی (Lm») را به عنوان معادله و مدل درخت تصمیم («rpart») را به‌عنوان درخت تجسم کنیم. ما می‌توانیم مدل k-نزدیک‌ترین همسایه را با استفاده از روش R `kknn()` توسعه دهیم، اما من نمی‌دانم چگونه این مدل را ارائه کنم. لطفاً چند روش R را به من پیشنهاد دهید که نمودارهای خوبی برای تجسم مدل knn ایجاد می کند.
نزدیک‌ترین همسایه را تجسم می‌کنید؟
49737
من یک سوال در مورد نمودار نیم متغیری دارم: فرض کنید من 50 نقطه داده را از میدان تصادفی گاوسی (با استفاده از تابع grf در R) تولید کردم و فرض کنید که مدل کوواریانس نمایی با $\sigma^2 = 1$ و $\phi=0.5 داریم. $، و $\phi$ در اینجا نشان دهنده محدوده ای است که می تواند به عنوان فاصله ای که در آن اختلاف واریوگرام از آستانه تبدیل می شود تعریف شود. ناچیز. بنابراین وقتی نیم متغیری را برای داده های تولید شده رسم می کنیم، فرض می کنیم که محدوده قرار است حدود 0.5 باشد، اما اینطور نیست! این کدی است که من استفاده می کنم. کسی می تواند توضیح دهد که چه اتفاقی می افتد، یا من چیزی را گم کرده ام؟ با تشکر ![grd <- expand.grid(seq(0, 1, l=5), seq(0, 1, l=5)) sdata <- grf(50, grid=reg, cov.pars=c( 1، 0.5)، cov.model=exponential) نمودار (sdata)][1]
تولید داده با استفاده از grf و ترسیم واریوگرام آن - تفسیر نتایج
30919
من در حال انجام تحقیقاتی هستم که شامل مشاهده بصری / گرافیکی تفاوت‌های بین اشکال توزیع‌های نمونه‌های مختلف است. من می‌خواهم این فرآیند را خودکار کنم (حداقل تا حدودی)، تا بتوانم تعداد نمونه‌هایی را که نگاه می‌کنم (و همچنین سرعت بخشیدن به کارها، کاهش خطای انسانی و غیره) مقیاس‌بندی کنم. آیا راهی برای _توصیف/اندازه گیری کمی شکل یک توزیع_ وجود دارد تا بتوان مقایسه بین اشکال را به صورت الگوریتمی انجام داد؟
46905
من در حال تلاش برای پیدا کردن E[Y|X] هستم که فقط با توجه به این واقعیت‌ها: ${\bf P[Y=y] = 2/3، y=0 }$ ${\bf 1/3، y=1 } ${\bf 0 $، دیگری }$ و ${\bf P[X=x|Y=y] = 2/3، x,y=0}$ یا ${\bf x,y=1 }$ ${\bf 1/3, x,y=1,0}$ or ${\bf x,y=0,1}$ ${\bf 0, other}$ من سعی می کنم این را با استفاده از قضیه بیز حل کنم. که: ${\bf f_{y|x}(y|x) = P[X=x|Y=y]\cdot P[X]/P[Y]}$ آیا این راه درستی برای حل کردن است مشکل؟
انتظار شرطی متغیرهای گسسته
10667
من باید برای هر محصول p، نسبت شانس مرتبط (موفقیت/شکست) را ارزیابی کنم. داده ها در این جدول هستند: N_success N_trials p1 p2 p3 p4 p5 5 310 n n n n n 17 700 n y n n y 12 650 y y y n n 27 214 n y n n n n n n n 0 نسبت شانس برای هر به علاوه 95٪ فواصل اطمینان مجانبی: p1 = (0.2558322 0.48442194 0.91725993) p2 = (1.1584454 2.9114056 7.316940 7.316946 7.316946 7.316946 7.316946 7.316946 7.316946 7.3169046 7.3169046 7.316944 (3548. 0.91725993) p4= nil p5= (1.738197 3.0642326 5.4018736) حال آیا این روش درستی برای ارزیابی است؟ حداقل دو موقعیت وجود دارد که 95٪ CI پایین OR بالاتر از 1 است (p2 و p4) اما آیا نباید چندین مقایسه را در نظر گرفت؟ بهترین راه برای انجام این کار با نسبت شانس (بونفرونی، دیگران) چیست؟ آیا استفاده از رگرسیون لجستیک (و چگونه) بهتر است؟ با تشکر
نسبت شانس مقایسه های متعدد
54723
من یک داده اصلی 18 متغیری داشتم. من تجزیه و تحلیل اجزای اصلی را انجام دادم و آن را به 6 رایانه شخصی تبدیل کردم که 75٪ از واریانس داده های اصلی را توضیح می داد. من 6 رایانه شخصی را دسته بندی کردم. برای آن، من ابتدا از پیوند متوسط ​​برای محاسبه مقدار میانگین نمرات رایانه شخصی با تعداد مشخصی از خوشه ها استفاده کردم (من 3،4،5،6 را امتحان کردم). سپس از میانگین مقادیر و تعداد خوشه ها به عنوان دانه برای K معنی خوشه بندی استفاده کردم و 4 خوشه به دست آوردم. الان یه مشکلی برام پیش اومده از چه آزمونی باید استفاده کنم تا بدانم روش خوشه بندی چقدر مهم است؟ یک راه البته محاسبه میانگین و انحراف معیار 18 متغیر اصلی با هر یک از چهار خوشه است. اما من به دنبال یک آزمون آماری هستم که بتواند ثابت کند که 4 مجموعه داده جدید مستقل هستند و خوشه بندی قابل توجه است.
100257
دریافتم که در رگرسیون خطی برای بررسی کیفیت مدل می‌توانید به نمودارهای شرح داده شده در زیر نگاه کنید (سوالات من به صورت پررنگ هستند). 1. نمودار پراکندگی: نمودار Y در برابر هر X به طور جداگانه 2. نمودار پراکندگی: نمودار باقیمانده در برابر هر X در مدل به طور جداگانه * **آیا باید به طور مساوی در اطراف طرح بدون هیچ شکل یا شکل خاصی پراکنده شود؟** 3. نمودار پراکندگی: نمودارهای باقیمانده را در برابر هر X به طور جداگانه در مدل ترسیم کنید (اگر خطی باشد!) نقاط داده به طور مساوی در اطراف خط افقی 0 پراکنده شوند؟** 5. نمودار QQ معمولی باقیمانده ها (فرض نرمال بودن را بررسی کنید.) همچنین: نمودار باقیمانده در مقابل متغیر Y چه چیزی را نشان می دهد و چگونه باید به نظر برسد؟ مال من اینجوری به نظر میرسه، به نظر خوبه؟ ![residuals vs y](http://s4.postimg.org/t3d5u394t/p1_residualsvsy.png) گرتز استفان
53075
من دو سری اعداد $A$ و $B$ دارم که هر کدام حدود یک میلیارد امتیاز دارند. من هر کدام را در پنجره هایی از مشاهدات با اندازه های مختلف شکستم. بنابراین برای اندازه پنجره 1000 دلار، من به مشاهدات 1-1000 دلار، ~ 1001-2000، ~ 2001-3000 دلار و غیره نگاه کردم. سپس مقدار متوسط ​​سری را در هر پنجره محاسبه می کنم. سپس به همبستگی بین مقادیر میانگین سری $A$ و سری $B$ نگاه می کنم. من این را برای اندازه های پنجره 100، ~ 1000، ~ 10،000 دلار و 100،000 دلار امتحان کردم. من متوجه شدم که همبستگی برای اندازه پنجره 100 دلار و 1000 دلار بسیار کم 0.001 دلار و 0.002 دلار است. با این حال، با 10000 دلار و 100000 دلار شروع به دیدن همبستگی هایی مانند 0.4 دلار و 0.5 دلار کردم. با یک جفت دیگر از سری $C$ و $D$. من تقریباً 0.98 دلار در محدوده 100، 1000 دلار و 100،000 دلار دریافت کردم. با این حال، در محدوده 10000 دلار من 0.9999 دلار دریافت کردم. آیا این سناریو روابط معنی‌داری را در داده‌های من نشان می‌دهد؟ فردی که در آمار مسلط تر است چه چیزی را از این موضوع می گیرد؟ آیا روش های پیچیده تری برای بررسی این نتیجه (مانند آزمون آماری) وجود دارد؟
همبستگی بین میانگین ها در فواصل گسسته طول ثابت
13487
من با استفاده از دستورات زیر با ggplot2 بازی می‌کردم تا خطی را به داده‌هایم تطبیق دهم: ggplot(data=datNorm، aes(x=Num، y=Val)) + geom_point() + stat_summary(fun.data = mean_cl_boot، geom=errorbar، colour=red, width=0.8) + stat_sum_single(median) + stat_sum_single(mean, colour=blue) + geom_smooth(level = 0.95, aes(group=1), method=lm) نقاط قرمز مقادیر میانه هستند، آبی میانگین هستند و خطوط قرمز عمودی نوارهای خطا را نشان می دهند. . به عنوان آخرین مرحله، من از «geom_smooth» برای جا دادن یک خط با استفاده از هموارسازی خطی استفاده کردم، بنابراین از «method=lm» استفاده کردم. همراه با خط، یک سایه کسل کننده نیز در اطراف خط ایجاد شد. در حالی که فهمیدم چگونه آن را از مستندات حذف کنم، گزینه ای که برای خاموش کردن آن استفاده کردم این است: se: نمایش فاصله اطمینان در اطراف صاف؟ لطفاً کسی می تواند به من بگوید که من باید از سایه اطراف خط چه چیزی را بفهمم؟ به طور خاص، من سعی می کنم بفهمم چگونه آن را تفسیر کنم. شاید برای خط مناسب باشد، اما هر گونه اطلاعات اضافی می تواند برای من بسیار مفید باشد. پیشنهادی دارید؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/7y7Pm.png)
این تاری دور خط در این نمودار به چه معناست؟
2628
تصور کنید باید در مورد تعداد داوطلبانی که سالانه در یک آزمون شرکت می کنند، گزارش دهید. استنتاج درصد موفقیت مشاهده شده، به عنوان مثال، بر روی یک جمعیت گسترده تر به دلیل خاص بودن جمعیت هدف، بسیار دشوار به نظر می رسد. بنابراین ممکن است در نظر بگیرید که این داده ها کل جمعیت را نشان می دهند. آیا نتایج آزمایش هایی که نشان می دهد نسبت های نر و ماده متفاوت است واقعا درست است؟ آیا آزمونی که نسبت‌های مشاهده شده و نظری را با هم مقایسه می‌کند، درست به نظر می‌رسد، زیرا شما یک جامعه کامل (و نه یک نمونه) را در نظر می‌گیرید؟
استنتاج آماری زمانی که نمونه، جامعه باشد
67028
اگر بخواهم آمار را روی لینوکس انجام دهم، مزایا و معایب بین Sage و Python در مقابل R چیست؟ من می دانم که می توانم از R در داخل Sage استفاده کنم، اما به چه ترتیبی باید آن برنامه ها را مطالعه کنم؟
آیا مطالعه Sage+Python یا R در آمار مفیدتر خواهد بود؟
102787
من حدس می‌زنم که این موضوع باید به نحوی کلیشه‌ای باشد، اما نتوانستم پاسخی را پیدا کنم که مرا راضی کند. نقش کلیدی آمار و اقتصاد سنجی، استنتاج در مورد جمعیت با استفاده از برخی داده های نمونه است. کار بر روی داده‌هایی که کل جمعیت را در بر می‌گیرد (که معمولاً در هر شرکتی یک مورد است که ما به اطلاعاتی که همه مشتریان را توصیف می‌کند دسترسی داریم)، ​​ساخت مدل‌ها، آزمایش فرضیه‌ها. آیا هنوز آمار است یا فقط راهی برای نتیجه‌گیری ساده از داده‌ها (اما نه). استنتاج کردن)؟
استنتاج آماری
112801
من ظاهراً کورکورانه این نشریه را دنبال می‌کنم که کارهایی بسیار شبیه به آنچه که باید انجام دهم انجام داده است (صفحه 18-21). تحلیل من یک رگرسیون لجستیک چند جمله ای است که در آن 3 نتیجه ممکن 0، 1 یا 2 فرزند تولید می شود. در این نشریه، آنها تست Hosmer-Lemshow و Persons را برای تناسب اندام توصیه کرده اند. من فقط نحوه انجام تست Hosmer-Lemshow را فهمیده ام و نتایج من چندان خوب نیست (یعنی P-val 0.00002 است). من نمی دانم چگونه تست پیرسون را انجام دهم (پیشنهادات قابل قبول هستند). مقاله ای که من دنبال می کنم، البته تست های آنها برای تناسب مدل خوب است (صفحه 21). اما آنها سپس پیشنهاد می کنند که Somers D، گامای Goodman-Kruskala و Tau-a کندالز همگی نشان می دهند که مدل های آنها مناسب هستند. اما این مقاله هیچ یک از مقادیر این شاخص ها یا نحوه محاسبه آنها را گزارش نمی کند. من به تازگی یک بسته ryouready پیدا کرده ام که همه این تست ها را اجرا می کند. با این حال، من در یافتن کمکی برای توضیح معنای مقادیر با مشکل مواجه بوده ام، چه رسد به اینکه بدانم آیا متغیرهایم را به درستی وارد کرده ام یا نه. متغیر پاسخ من تعداد فرزندان است، بیشتر متغیرهای توضیحی من مانند سن یا خطر پیوسته هستند. آیا باید میانگین هر متغیر توضیحی را در هر متغیر پاسخ محاسبه کنم (میانگین ریسک برای 1 فرزند، میانگین ریسک برای 2 فرزند و غیره...) و سپس آنها را با هم مقایسه کنم؟ همچنین به نظر می رسد که این تست ها برای جداول 2*2 باشد. اگر من فقط به دنبال ریسک باشم، جدول من 1x3 خواهد بود. با این حال، مدل کامل من 4 متغیر خواهد داشت (سن، خطر، bp، و #فرزند سال قبل). همانطور که احتمالاً می توانید بگویید، من در اینجا در تاریکی هستم که از کجا شروع کنم. من از خواندن پیشنهادی، سخنرانی‌های پی‌دی‌اف یا ویدیوهای سخنرانی‌ها حتی بهتر می‌توانم قدردانی کنم! ویرایش/به‌روزرسانی: من تست‌ها را روی تعدادم انجام داده‌ام - 2 دوره زمانی (قبل/پس از) و سپس تعداد فرزندان در هر کلاس (0،1،2) دارم. من نمی دانم چگونه ارزش ها را تفسیر کنم - چه چیزی خوب است. من باید به دنبال چه چیزی باشم؟ هر منبعی که این مقادیر را توضیح دهد، دیدن آن خوب است. آمار تاو کندال (و استوارت) Tau-b: 0.143 Tau-c: 0.130 سامرز d: ستون های وابسته: 0.151 ردیف وابسته: 0.136 متقارن: 0.143 گودمن-کروسکال گاما: 0.312 رقم، پیام اخطار: فرمت هایC = فرمتx f): کلاس از x کنار گذاشته شد
آیا از گامای Goodman-Kruskal یا Somers D یا Kendall tau به درستی استفاده می کنم و معنی آنها چیست؟
10662
من در حال کار با داده های زیادی هستم که توسط متخصصین زنان و زایمان در مورد سلامت نوزادان جمع آوری شده است (وزن هنگام تولد، سن بارداری در هنگام زایمان، BMI مادر) و سعی می کنم این داده ها را با اندازه گیری های هندسی انجام شده بر روی اسکن اسلاید میکروسکوپی برای هر یک از آنها مرتبط کنم. جفت مرتبط (مساحت، محیط، تعداد عروق خونی). هر سه گانه مادر-شیرخوار-جفت با شناسه آزمایشگاهی شناسایی می شود، بنابراین می توان فهمید کدام کدام است، اما تنها 27 مجموعه از مادر-شیرخوار- جفت وجود دارد. تمام اطلاعات بالینی قبل از رسیدن من به صحنه گرفته شد. تقریباً تصاویر اسلاید جفت و یک برگه اکسل از اطلاعات بالینی به من داده شد. سپس اندازه گیری های هندسی جفت را انجام دادم. بنابراین داده ها با هدف من گرفته نشده است. سوال من این است که با این داده ها چه کاری می توانم انجام دهم؟ من اندازه‌گیری‌هایی را با دانش بالینی جمع‌آوری کردم که وضعیت جفت هم تأثیری بر سلامت نوزاد دارد و هم بازتابی از آن. اما من شدیداً به راهنمایی نیاز دارم که از کدام تکنیک‌های آماری/داده‌کاوی استفاده کنم تا ببینم اندازه‌گیری‌های من چگونه بر سلامت نوزاد تأثیر می‌گذارند/معنای هستند. آیا امیدی برای تجزیه و تحلیل موقت در حجم نمونه کوچک وجود دارد؟
با یک مجموعه داده پزشکی کوچک (27) چه باید کرد؟
91332
من دلیلی را به خاطر دارم که نظریه احتمال بیزی تنها روش معتبر برای نشان دادن باورها است، چیزی شبیه به 1. ما باور را با یک تابع غیر منفی بر روی برخی از دامنه های نتایج نشان می دهیم. 2. باورها فرعی هستند 3. ... بنابراین نظریه احتمال بیزی تنها رویکرد معتبر برای بازنمایی باورها است. ایده این است که تحت مفروضات بسیار اساسی و کلی برای آنچه که یک «تابع باور» را تشکیل می‌دهد، در نهایت «باور» را با احتمالات بیزی مدل می‌کنید. یادم رفته کجا دیدمش کسی این مدرک رو میدونه؟ یا ارجاع به اصل؟ **ویرایش** تا اینجا بهترین سرنخ که پیدا کردم این است که در: Savage, L. J. (1954) ارائه شده است. بنیاد آمار، ویرایش دوم، دوور، نیویورک. (که نسخه ای از آن ندارم)
توجیه رسمی استنتاج بیزی به عنوان مدلی برای باور
58626
> فرض کنید $X_1، X_2، \dots، X_n$ i.d $N(\theta، 1)،\theta_0 \le \theta > \le \theta_1$ هستند، که $\theta_0 \lt \theta_1$ دو عدد مشخص شده هستند. > MLE $\theta$ را پیدا کنید و نشان دهید که بهتر از میانگین نمونه $\bar X$ > به معنای داشتن میانگین مربعات خطای کوچکتر است. آزمایشی: در اینجا MLE $\theta$ $$\hat\theta = \begin{cases} \theta_0, &\bar X \lt \theta_0\\\ \bar X, &\theta_0 \le \bar X \le است \theta_1 \\\ \theta_1, &\bar X \gt \theta_1 \end{cases}$$ نمی‌توانم نشان دهم که $E[(\hat\theta -\theta)^2] \lt Var(\bar X)=\dfrac{1}{n}$.
چگونه نشان دهیم که $E[(\hat\theta -\theta)^2]<Var(\bar X)=\dfrac{1}{n}$؟
10664
من سعی می کنم یک گروه 4 سوالی را که در مقیاس 5 درجه ای هستند تجزیه و تحلیل کنم. من باید پاسخ های هر سوال را بر اساس سن گروه بندی کنم. سه سن مختلف وجود دارد. چگونه می توانم این کار را انجام دهم؟
چگونه با استفاده از SPSS تفاوت های گروهی را در چندین مورد 5 نقطه ای بررسی کنیم؟
58628
می‌خواهم ببینم آیا فروشنده‌ای نسبت به یک نوع وسیله نقلیه نسبت به نوع دیگر تعصب دارد یا خیر. من دو دسته خودرو دارم: OWN و T/C. فروشنده به این خودروها سوخت می فروشد. فرآیند به شرح زیر است: 1. خودرو درخواست را به فروشنده ارسال می کند. 2. فروشنده ممکن است تصمیم بگیرد به این درخواست عمل نکند. 3. اگر فروشنده بخواهد اقدام کند، با یک پیشنهاد پاسخ خواهد داد. من تعداد درخواست‌هایی (R_o / R_t) را دارم که تامین‌کننده از هر یک از دسته‌های خودرو دریافت کرده است، و تعداد پیشنهادات (O_o / O_t) که به آنها پاسخ داده است. من اساساً سعی می‌کنم بفهمم که آیا فروشنده‌ای بر اساس دسته‌بندی‌ها نسبت به خودروی T/C در مقایسه با خودروی شخصی تعصب دارد یا خیر. من کمی با بررسی وابستگی Chi-square آشنا هستم، و به نظر می رسد که این ممکن است بهترین روش باشد، اما به اندازه کافی به دانش خود در مورد آن اطمینان نداشتم که بدون مشورت با افراد آگاه تر، آن را اجرا کنم. امیدوارم وقت داشته باشید که در این مورد به من کمک کنید. محاسبه Chi-square: مشاهده شده: T/C OWN مجموع بدون پیشنهاد 54 328 382 پیشنهادات دریافت شده 22 230 252 مجموع 76 558 634 مورد انتظار: T/C OWN مجموع تعداد پیشنهادات 45.79 336.21 336.21 22025 76 558 634 X^2-calc: (O-E)^2/E 1.45 0.20 2.26 0.30 X^2 4.21
رویکرد بهینه به بررسی استقلال
93408
من با مدل سازی سری های زمانی نسبتاً تازه کار هستم و برای کاری که انجام داده ام موفقیت خوبی داشته ام (از نظر خطای پیش بینی) ابتدا با تقسیم داده ها به اجزای روند و چرخه با استفاده از فیلتر هودریک-پرسکات و سپس نصب دو کاملاً مستقل. مدل به دو جزء. یک پیش‌بینی برای داده‌های اصلی بدیهی است که مجموع پیش‌بینی‌های این دو مدل است. به طور کلی، آیا این کار توصیه‌ای است، برخلاف استفاده از تکنیک مدل‌سازی که به صراحت اجزای مختلف فرآیند را در مدل مدل‌سازی می‌کند؟ بیشتر مراجعی که من برای فیلترها دیده‌ام، مانند هودریک-پرسکات، بر تحلیل الگوها در داده‌های گذشته تمرکز دارند، در مقابل پیش‌بینی‌های خاص. یکی از دلایلی که من به این رویکرد نگاه کردم این بود که سری‌های زمانی مورد نظر چندین مؤلفه مشابه فصلی دارند، اما با طول دوره‌های فازی که به‌طور تصادفی در طول زمان تغییر می‌کنند، بنابراین مدل‌های «فصلی» معمولی واقعاً کار نمی‌کنند. حداقل تا جایی که من می توانم نحوه پیاده سازی را ببینم.
آیا فیلترهای روند/چرخه برای استفاده در مدل های پیش بینی در نظر گرفته شده اند یا فقط تحلیل؟
55571
تفاوت p.values ​​در aov و lm زیر چیست؟ آیا تفاوت فقط به دلیل انواع مختلف محاسبات مجموع مربع است؟ set.seed(10) data=rnorm(12) f1=rep(c(1,2),6) f2=c(rep(1,6),rep(2,6)) خلاصه(aov(data~f1 *f2)) خلاصه (lm(data~f1*f2))$coeff متشکرم!
R، تفاوت بین lm و aov
90214
تفاوت بین تست t و کنتراست تست شده با استفاده از آزمون t چیست؟ چه زمانی از یک کنتراست F به جای یک کنتراست t معمولی استفاده می شود؟ آیا رابطه بین این دو با آزمون ANOVA و t-test یکسان است؟ در نهایت، آیا پاسخ به هر یک از سوالات بالا به این واقعیت مربوط می شود که یک کنتراست تفاوت برای یک عامل با سطح N دارای ستون های N-1 خواهد بود؟ (به عنوان مثال، کنتراست تفاوت فقط یک بردار (-1،1) برای عوامل با 2 سطح است)
سردرگم در مورد کنتراست های t، کنتراست های F و تست های مرتبط (آزمون t، ANOVA)
58620
من یک مجموعه داده $Y$ دارم، هر عنصر $y_i$ در $Y$ دارای متغیر کمکی $\lambda_i$ است. در اینجا، من می‌خواهم از رگرسیون پواسون برای برازش یک مدل استفاده کنم: «glm(Y ~ $\lambda$، خانواده = poisson، داده = ..). سپس با توجه به مشاهده جدید $y_k$ و متغیر کمکی $\lambda_k$، فرض کنید داده های جدید از مدل برازش شده پیروی می کنند، چگونه می توانم از R برای محاسبه احتمال مشاهده $y_k$ و $\lambda_k$ استفاده کنم.
نحوه محاسبه احتمال پیش بینی شده مدل رگرسیون پواسون
21486
می‌دانم که این موضوع ذهنی است، اما فکر کردم خوب است که در مورد مجموعه داده‌های مورد علاقه خود و آنچه فکر می‌کنیم آنها را جالب می‌کند صحبت کنیم. انبوهی از داده‌ها وجود دارد، و در مورد همه APIها (به عنوان مثال، Datamob) به همراه مجموعه داده‌های کلاسیک (به عنوان مثال، داده‌های R)، فکر می‌کنم این می‌تواند پاسخ‌های بسیار جالبی داشته باشد. به عنوان مثال، من همیشه مجموعه داده هایی مانند مجموعه داده بوستون مسکن (با وجود پیامدهای تاسف بار) و mtcars را به دلیل تطبیق پذیری آنها دوست داشته ام. از نقطه نظر آموزشی، می توان شایستگی طیف گسترده ای از تکنیک های آماری را با استفاده از آنها نشان داد. و مجموعه داده عنبیه اندرسون/فیشر همیشه در قلب من جایی خواهد داشت. افکار؟
مجموعه داده های خوبی برای نشان دادن جنبه های خاص تجزیه و تحلیل آماری چیست؟
56015
من مجموعه ای متغیر از پاسخ ها دارم که به صورت بازه ای مانند نمونه زیر بیان می شوند. > head(چپ) [1] 860 516 430 1118 860 602 > head(راست) [1] 946 602 516 1204 946 688 که در آن سمت چپ کران پایین و سمت راست کران بالایی پاسخ است. من می خواهم پارامترها را با توجه به توزیع لگ نرمال تخمین بزنم. برای مدتی که سعی می‌کردم احتمالات را مستقیماً محاسبه کنم، با این واقعیت دست و پنجه نرم می‌کردم که از آنجایی که دو کران بر روی مجموعه‌ای از پارامترهای مختلف توزیع می‌شوند، مقادیر منفی مانند زیر را دریافت می‌کردم: > Pr_high=plnorm(wta_high,meanlog_high,sdlog_high ) > Pr_low=plnorm(wta_low، meanlog_low، sdlog_low) > Pr=Pr_high-Pr_low > > head(Pr) [1] -0.0079951419 0.0001207749 0.0008002343 -0.0009705125 -0.0079951419 -0.0079951419 -0.0001207749 0.0008002343 -0.0009705125 -0.0079951419 واقعاً نمی توانم از آن استفاده کنم نقطه میانی بازه به جای آن که مصالحه خوبی است تا زمانی که تابع mledist را پیدا کردم که احتمال منطقی یک پاسخ بازه را استخراج می کند، این خلاصه ای است که دریافت می کنم: > mledist(int, distr=lnorm) $estimate meanlog sdlog 6.9092257 0.3120138 $همگرایی [1] 0 $loglik [1] -152.1236 $hessian meanlog sdlog meanlog 570.760358 7.183723 sdlog 7.183723 1112.098031 $optim.function [1] optim $fix.arg NULL پیام های اخطار = 1: در cnorm، 69، 1: 1: 1، 694 (1: pl. 1204L, 946L, 688L, 1376L, 1376L, : NaNs تولید شده 2: در plnorm(q = c(860L, 516L, 430L, 1118L, 860L, 602L, 1290N NaNs مقدار تولید شده به 1 و احتمال منطقی بیشتر از هر روش دیگری است که من استفاده کرده ام (توزیع نقطه میانی یا توزیع یکی از کران ها). یک پیام هشدار وجود دارد که من متوجه آن نمی شوم، بنابراین آیا کسی می تواند به من بگوید که آیا کار را درست انجام می دهم و این پیام به چه معناست؟ از کمک قدردانی کنید!
90212
این سوالی است که امیدواریم مفاهیم گاه آشفته اهمیت آماری و اندازه اثر را باز کنیم. تا آنجا که من درک می کنم، اندازه نمونه رابطه بین آنها را واسطه می کند، به طوری که، در حالی که اغلب مقادیر پایین $p$ با اثرات بزرگ مطابقت دارد، می توانید برای جلوه های کوچک با حجم نمونه بزرگ اهمیت پیدا کنید، یا برعکس - اثری که می دانید بزرگ است ممکن است به دلیل حجم نمونه کوچک نامناسب اهمیت پیدا نکند. آیا این درست است که بگوییم، با توجه به آزمون t نمونه های مستقل برای اندازه نمونه ثابت $N$ (2 گروه از $N/2$ مورد هر کدام)، معیار پایایی آماری ($p$) واقعاً یکسان است. به عنوان (یعنی وابستگی ساده به) اندازه اثر (به عنوان مثال $d$ کوهن)؟ به عبارت دیگر، اگر $N$ را ثابت نگه دارید، به محض اینکه اندازه اثر ($d$) از یک آستانه خاص فراتر رفت، به اهمیت ($p$-value) می‌رسد؟
تناسب (معکوس) بین اهمیت و اندازه اثر، برای یک حجم نمونه ثابت؟
7809
من سعی می کنم یک متریک تشابه ساده پیدا کنم که بردارهایی با طول نامشخص را مقایسه کند. این بردارها با مقادیر بین 1 و 5 پر می شوند. در این شرایط یک 1 به 2 نزدیکتر است سپس به 5 و غیره است. من با این نوع ریاضیات تازه کار هستم. من ساده لوحانه به استفاده از شباهت کسینوس فکر کردم. با این حال، وقتی بیشتر به این موضوع نگاه کردم، متوجه شدم که این احتمالاً معیار مناسبی برای این نوع محاسبه نیست. پیشاپیش متشکرم و بابت سوال مبتدی پوزش می طلبم. توجه: من این را در PHP برنامه نویسی خواهم کرد.
49738
من خوانده ام که ترفندهای هسته SVM مربوط به مشاهده داده ها در ابعاد بالاتر است. من می توانم ببینم که بسط هسته مانند یک محصول متقابل از بسیاری از اصطلاحات مختلف به نظر می رسد. با این حال، به نظر می رسد ضرایب بین همه این عبارت ها محدود است. به عنوان مثال برای هسته چند جمله ای ناهمگن (با ابعاد ثابت) تنها یک پارامتر وجود دارد که می تواند بین عبارت های مرتبه پایین و مرتبه بالا در فضای هیلبرت (?) نمایش داده شود. آیا من نکته ای را از دست داده ام یا فقط شبه بعدی است؟ آیا راه آسانی برای توصیف این که هسته چند جمله ای ناهمگن چه نوع مرزهایی را می تواند توصیف کند وجود دارد؟ یا فقط تابع مناسبی است که فقط با اعتبارسنجی متقابل قابل توجیه است؟
آیا ترفند هسته با ابعاد واقعی بالاتر مطابقت دارد؟
90216
من یک رشته آمار نیستم بلکه فقط یک رشته ریاضی کاربردی هستم و برای پروژه ای که انجام می دهم به کمک نیاز دارم. اساساً، ما برای 40 هفته یا بیشتر داده داریم و برای هر هفته تعدادی مورد وجود دارد. من داده‌های سال‌های 2002 تا 2013 را دارم، اما هرچه سال‌ها پایین می‌رویم، داده‌های کمتری داریم (0 داده در برخی سال‌ها نیز). i.stack.imgur.com/ZpQeF.png) که به نظر من نوعی توزیع گاما است. با این حال، برای سال 2003، چیزی شبیه این به نظر می رسد: هفته cnt 7 4 35 2 36 3 37 2 38 2 40 1 بنابراین تصویر به نظر می رسد: ![http://imgur.com/Nq5b7AL](http://i. stack.imgur.com/iRvlF.png) با این داده ها چه کاری می توانم انجام دهم؟ برای روشن شدن، من سعی نمی کنم الگویی بین سال ها ببینم. من سعی خواهم کرد الگویی بین برخی عوامل دیگر و این داده ها ببینم. آیا می توانم 0 ها را برای هفته های از دست رفته اضافه کنم؟ آیا باید 4 هفته را در یک ماه ترکیب کنم و ماه ها در محور x باشم (هنوز از دست داده های از دست رفته خلاص نمی شوم). برای چند سال من فقط 4 نقطه داده دارم.
کار با داده های کم
51914
من به ماشین حسابی نیاز دارم که از جدول احتمالی 11x6 استفاده کند. کسی میدونه کجا میتونم ماشین حساب برای کیسم پیدا کنم؟ پیشاپیش ممنون
من به ماشین حسابی نیاز دارم که از جدول احتمالی 11x6 استفاده کند
13152
من همیشه از lm() برای بررسی رگرسیون خطی برای دو سری استفاده کردم. آن تابع یک ضریب (بتا) را برمی گرداند که می توانم از آن استفاده کنم: y = beta*x امروز تابع princomp() را پیدا کردم که ** مجموع حداقل مربعات** را محاسبه می کند. باید برای من خوب باشد (دقیق تر). من چند تست را با استفاده از princomp() انجام داده ام، مانند: `r <- princomp( ~ x + y)` مشکل من این است: چگونه نتایج آن را تفسیر کنیم. چگونه می توانم ضریب را بدست بیاورم؟ (منظورم با ضریب عددی است که باید برای ضرب مقدار X برای بدست آوردن عددی مشابه y استفاده کنم) کسی می تواند به من کمک کند؟ (من از R استفاده می کنم) متشکرم!
()princomp چگونه کار می کند؟
13159
چه روش های رایجی برای انتخاب پارامتر هموارسازی برای LOESS استفاده می شود؟ (در R، بلکه به طور کلی).
چگونه یک پارامتر span با LOESS انتخاب کنیم؟
13481
آیا کسی می تواند من را به یک مقاله نظرسنجی در مورد نتایج $p$ بزرگ، کوچک $n$ راهنمایی کند؟ من علاقه مندم که چگونه این مشکل در زمینه های مختلف تحقیقاتی خود را نشان می دهد، به عنوان مثال رگرسیون، طبقه بندی، آزمون هتلینگ، و غیره.
خلاصه نتایج P بزرگ، n کوچک.
96903
من سعی می کنم ثابت بودن را برای پانلی متشکل از داده های سالانه حساب جاری 15 کشور (1980-2012) در Stata آزمایش کنم. من تست ریشه واحد LM توسط Lluís Carrion-i-Silvestre و همکاران را انتخاب کردم. (2005؛ برای در نظر گرفتن شکست های ساختاری در پانل ها)، و آزمایش ریشه واحد غیرخطی ADF بر اساس توان آماری آنها. مشکل اینجاست که من نمی توانم بفهمم چگونه این تست ها را در Stata انجام دهم. لطفاً کسی می تواند با پیشنهاداتی در مورد نحوه اجرای آزمایشات در Stata کمک کند؟
نحوه انجام Lluís Carrion-i-Silvestre et al. (2005) تست واحد LM و ADF غیر خطی در Stata؟
103705
من یک طرح 2x2 بین سوژه ها با اندازه سلول های نابرابر دارم. من یک ANOVA با مجموع مربع‌های نوع I برای محاسبه اندازه سلول‌های نابرابر اجرا کردم. هیچ یک از دو اثر اصلی و اثرات متقابل معنی دار نبودند (همه ps > 0.1). ![معنای سلولی که تحت آنالیز واریانس قرار گرفتند](http://i.stack.imgur.com/WgMCm.png) با مجموع 2x2 = 4 سلول/گروه، بدیهی است که 6 مقایسه زوجی ممکن وجود دارد، یعنی 6 تفاوت فردی بین سلول یعنی ممکن است از نظر آماری معنی دار باشد. **آیا می توانم از اثرات اصلی و تعاملی غیر معنی دار نتیجه بگیرم که هیچ یک از این مقایسه های زوجی از نظر آماری معنی دار نیستند؟** همانطور که طرح نشان می دهد، بررسی تفاوت بین دو میانگین در سمت چپ بسیار جالب است یعنی سود-غایب در مقابل سود-حال. آیا اجرای آزمایش Tukey-Kramer (به دلیل اندازه سلول های نابرابر) برای آزمایش این امر مشروع/ضروری است؟ اگر چنین است، چگونه این کار را در R انجام دهم؟ (در اینجا من فرض می‌کنم که تابع استاندارد «TukeyHSD()» به دلیل اندازه سلول‌های نابرابر نامعتبر است)
ANOVA 2x2، هیچ اثر اصلی/تعاملی، مقایسه میانگین سلولی پس از آن ضروری/مجاز است؟
20682
من به دنبال یک کتابخانه / بسته / کد برای انجام SVD نازک در جاوا هستم. من یک پیاده‌سازی خوب از SVD در بسته COLT برای جاوا پیدا کردم، اما زمانی که فقط تعداد کمی از بردارهای تکی مورد نظر باشد، با ماتریس‌های پراکنده بزرگ به اندازه کافی قوی نیست. هر ایده ای؟
کد جاوا برای SVD نازک
84096
این یک مشکل تکلیف خارج از تجزیه و تحلیل داده‌های طبقه‌بندی آگرستی است (1.34b) برای شمارش‌های $\\{n_j\\}$، آمار واگرایی توان برای آزمایش خوب بودن تناسب $$ \dfrac{2}{\lambda(\lambda) است. +1)}\sum_{i=1}^m n_i[(n_i/\hat{\mu}_i)^\lambda-1] \quad \text{for }-\infty < \lambda < \infty$$ وقتی $\lambda$ به 0 نزدیک شد، نشان دهید که همگرا می شود آمار LRT $G^2 = 2\sum_{i=1}^m n_i\log{\left(\dfrac{n_i}{\hat{\mu}_i}\right)}$. من نمی دانم از کجا شروع کنم. یکی از مقالات اصلی که آمار واگرایی توان را مورد بحث قرار داده است، این را به سادگی به عنوان یک واقعیت بیان می‌کند (http://pages.stern.nyu.edu/~dbackus/Exotic/1Robustness/CressieRead%20JRSSB%2084.pdf) آیا سرنخی دارید؟
71489
آیا کسی می‌تواند تفاوت‌ها را توضیح دهد و مثال‌های مشخصی درباره نحوه استفاده از این سه تحلیل ارائه دهد؟ * LDA - تجزیه و تحلیل تشخیص خطی * FDA - تجزیه و تحلیل تشخیصی فیشر * QDA - تجزیه و تحلیل متمایز درجه دوم همه جا را جستجو کردم، اما نتوانستم نمونه های واقعی با مقادیر واقعی را پیدا کنم تا ببینم این تجزیه و تحلیل ها چگونه استفاده می شوند و داده ها محاسبه می شوند، فقط تعداد زیادی فرمول سخت هستند. برای درک بدون هیچ مثال واقعی همانطور که سعی کردم بفهمم تشخیص این که کدام معادلات/فرمول متعلق به LDA و کدام به FDA است سخت بود. به عنوان مثال فرض کنید چنین داده ای وجود دارد: x1 x2 کلاس 1 2 a 1 3 a 2 3 a 3 3 a 1 0 b 2 1 b 2 2 b و بیایید بگوییم برخی از داده های آزمایشی: x1 x2 2 4 3 5 3 6 پس چگونه برای استفاده از چنین داده هایی با این سه رویکرد؟ بهتر است ببینید چگونه همه چیز را با دست محاسبه کنید، نه با استفاده از بسته های ریاضی که همه چیز را در پشت صحنه محاسبه می کند. P.S. من فقط این آموزش را پیدا کردم: http://people.revoledu.com/kardi/tutorial/LDA/LDA.html#LDA. نحوه استفاده از LDA را نشان می دهد.
سه نسخه از تجزیه و تحلیل متمایز: تفاوت ها و نحوه استفاده از آنها
47947
من یک مجموعه داده حاوی اطلاعاتی در مورد یک دسته از دستگاه های بی سیم دارم. به طور خاص، تعداد دستگاه های بی سیم دیگری که هر دستگاه با آن مواجه می شود. بر اساس کار قبلی سایر محققین در همان منطقه، من دلایلی دارم که معتقدم توزیع من ممکن است به طور بالقوه با توزیع نه چندان شناخته شده biPareto، که CCDF آن به صورت: $1 - F(x) = (x/k) تعریف شده است، مناسب باشد. ^{-\alpha}(\frac{x+kb}{k + kb})^{\alpha-\beta}$، برای $ x > k$ و به سادگی $1 - F(x) = 1$، برای $x \le k$. فرض کنید من قبلاً $k = 1$ را می دانم. این یک تابع را برای تناسب با سه پارامتر $\alpha$,$b$,$\beta$ باقی می‌گذارد، با این محدودیت که هر پارامتر $> 0$ باشد. چیزی که من در مورد آن مطمئن نیستم این است که چگونه می توان مناسب ترین مقادیر پارامتر برازش را، به طور ایده آل در «R» تعیین کرد. من در مورد برازش داده ها کاملاً مبتدی هستم، بنابراین جدای از ملاحظات نحوی در «R»، من همچنین علاقه مند به مشاوره در مورد اینکه کدام روش های خاص برازش برای این تابع خاص مناسب است، هستم. به عنوان مثال: 1. آیا این تابع واجد شرایط رگرسیون خطی است؟ 2. آیا حداقل مربعات در اینجا مناسب/کاربرد است؟ در مورد حداقل میانگین مربعات خطا (MMSE) چطور؟ 3. هر روش برازش داده شده نسبت به مقادیر پارامترهای اولیه راهنما که به آن می دهم چقدر حساس است (روش های تکراری؟)، یا نتیجه به صورت تحلیلی تعیین می شود (همیشه در پایان پاسخ یکسانی را ایجاد می کند؟) اگر اصلا مرتبط است، من من در نهایت به دنبال استفاده از آزمون Kolmogorov-Smirnov بر روی داده‌ها هستم تا ببینم چقدر با توزیع پارامتری biPareto مطابقت دارد.
برازش داده ها/تعیین مقادیر پارامتر برای توزیع سفارشی (biPareto).
112805
من با خروجی تجزیه و تحلیل داده هایم با مشکل مواجه شدم. من دو فاکتور با طراحی اسپلیت پلات داشتم. به طور جداگانه اثر اصلی دو عامل بر pH خاک معنی دار بود. اما اثر متقابل آنها بر میانگین pH خاک معنی دار نبود. بنابراین، چگونه این می تواند باشد و چگونه می توانم جدول را به طور جداگانه برای دو عامل یا هر دو در یک ایجاد کنم؟
اثر اصلی و اثر متقابل
10592
با توجه به یک ماتریس داده $X$ از مثلا 1000000 مشاهدات $100، آیا راه سریعی برای ایجاد یک تقریب سه‌ضلعی $A \approx cov(X)$ وجود دارد؟ سپس می توان $A = L L^T$، $L$ همه 0 به جز $L_{i\ i-1}$ و $L_{i}$ را فاکتور گرفت و با حل $L x = x_، همبستگی سریع (سفید کردن) انجام داد. {سفید}$. (منظورم از سریع $O(اندازه\ X )$ است.) (اضافه شد، در تلاش برای توضیح دادن): من به دنبال یک سفید کننده سریع و کثیف هستم که سریعتر از $cov(X)$ کامل باشد اما بهتر از مورب باشد. . بگویید که $X$ $N$ نقاط داده $\times ویژگی های Nf$ است، به عنوان مثال. 1000000$\بار 100 دلار، با ویژگی‌های 0-میانگین. 1) $Fullcov = X^T X$ را بسازید، Cholesky آن را به عنوان $L L^T$ فاکتور کنید، $L x = x_{white}$ را برای سفید کردن $x$ های جدید حل کنید. این در تعداد ویژگی ها درجه دوم است. 2) مورب: $x_{سفید} = x / \sigma(x)$ همبستگی های متقابل را به طور کامل نادیده می گیرد. یکی می‌تواند یک ماتریس سه‌ضلعی از $Fullcov$ را فقط با صفر کردن همه ورودی‌های خارج از سه‌ضلعی، یا عدم جمع‌آوری آن‌ها در وهله اول دریافت کند. و در اینجا شروع به فرو رفتن می کنم: باید تقریب بهتری وجود داشته باشد، شاید سلسله مراتبی، مورب بلوکی -> سه وجهی؟ * * * (اضافه شده در 11 مه): اجازه دهید سؤال را به دو قسمت تقسیم کنم: 1) آیا یک $cov(X)$ تقریباً سریع وجود دارد؟ خیر (whuber)، باید به همه جفت‌های ${N \choose 2}$ نگاه کرد (یا ساختار یا نمونه داشته باشد). 2) با توجه به $cov(X)$، با چه سرعتی می توان $x$ های جدید را سفید کرد؟ خوب، فاکتورسازی $cov = L L^T$، $L$ مثلثی پایین تر، یک بار، سپس حل $L x = x_{سفید}$ بسیار سریع است. برای مثال scipy.linalg.solve_triangular از Lapack استفاده می کند. من به دنبال سفید کردن سریعتر () بودم که هنوز هم به دنبال آن هستم.
چگونه برای همبستگی سریع، ماتریس کوواریانس تقریبی سه‌ضلعی را محاسبه کنیم؟
77882
من تعدادی کلمه را انتخاب کرده ام و از مردم خواسته ام که آنها را در مقیاس لیکرت رتبه بندی کنند. واژه ها بر اساس دو دسته انتخاب شدند. طول هجا (تک، دو و سه هجا و واج پایانی (واکه یا صامت) کلمات پایانی و غیره). مانند طول هجا یا واج پایانی، و دسته‌بندی‌های دقیق‌تر مانند واژه‌های واکه‌ای پایانی، تبدیل‌های لگاریتمی را اعمال کرده‌ام و تمام مقادیر p بازگشت‌شده در آزمون‌های Shapiro و Wilcox کاملاً کوچک هستند یا این که آیا این کار را اشتباه انجام می‌دهم داده ها چگونه است؟
چگونه می توانم داده های خود را متناسب با توزیع عادی کنم؟
30073
من در آمار بسیار تازه کار هستم، پس ببخشید اگر سوالم ساده یا واضح است. من یک مجموعه داده با زمان پاسخ برای دو شرط دارم. این زمان‌های پاسخ به نمره باینری 0 (عدم اثر) یا 1 (وجود اثر) تبدیل شدند. این آزمایش در 7 بلوک طراحی شده است. برای هر بلوک، شرکت‌کنندگان 1 یا 0 دریافت می‌کنند. نمره کل برای هر موضوع می‌تواند از o تا 7 باشد. بنابراین، من می‌خواهم یک قابلیت اطمینان تقسیم نصف کنم تا ببینم آیا معیاری که برای ارزیابی وجود اثر استفاده کردم، یک شاخص قابل اعتماد از آنچه در حال مطالعه هستم. در ابتدا فقط ستون 1 و 0 را به دو نیم تقسیم کردم و آن را به هم مرتبط کردم، اما این به من یک مقدار مزخرف می دهد (چیزی شبیه 0.0009) بنابراین من چیزی را در اینجا گم می کنم. از نظر مفهومی می‌دانم که باید دو بخش از آزمون را که ظاهراً یک چیز را اندازه‌گیری می‌کنند، مرتبط کنم، اما در فهمیدن اینکه دقیقاً چگونه این کار را برای این مجموعه داده انجام دهم با مشکل مواجه هستم. هر گونه کمک بسیار قدردانی می شود.
قابلیت اطمینان دودویی در نمرات باینری
77884
من در مورد وضعیت ثابت گیج هستم. من یک ARMA را برای یک سری زمانی نصب می کنم که ممکن است میانگین ثابتی نداشته باشد. وقتی یک مدل ARMA را روی آن قرار می دهم، باقیمانده ها ثابت به نظر می رسند. آیا قبل از اینکه مدل ARMA را جابجا کنم باید سری های زمانی را متمایز کنم یا خیر؟ من گیج شده‌ام، زیرا وقتی به نمونه‌هایی در SAS و r نگاه می‌کنم، به نظر می‌رسد که هیچ‌کس سری‌های زمانی را هنگام نصب مدل ARMA- متمایز نمی‌کند، حتی سری‌های زمانی نیز روندی را نشان می‌دهند. سری زمانی من روند مشخصی ندارد! با تشکر
ARMA(p,q)-GARCH(p,q) را متمایز کنید یا خیر؟
96907
من به دنبال یک مرجع جامع و معتبر (مقاله یا کتاب ژورنالی) هستم که به تاریخچه جدول تناوبی عناصر مندلیف به عنوان تصویرسازی داده ها بپردازد. من به خصوص علاقه مند هستم که چگونه نمایش گرافیکی جدول عناصر در طول زمان تغییر کرد. در حال حاضر مقاله ویکی‌پدیا تاریخچه جدول تناوبی را جامع یافته‌ام (اما آنقدرها معتبر نیست). من می‌خواهم از آن به‌عنوان استناد نوع (نگاه کنید به-همچنین) استفاده کنم (نمی‌خواهم از ادعای خاصی استفاده کنم)، بنابراین حتی یک مقاله علمی عامه پسند هم باید خوب باشد.
تاریخچه جدول تناوبی عناصر مندلیف به عنوان تجسم داده ها
101110
داده های این سوال را می توان با این کد دانلود کرد: library(repmis) my_data <- repmis::source_DropboxData(my_data.csv, pc0t5etizbz36g9, sep = , header = TRUE) تعداد پرندگان را شمردم در یک گله («شمارش») و نسبت اینها که هوشیار بودند («هوشیار»). پیش‌بینی‌کننده‌ها زیرگونه‌ها ('ssp')، ارتفاع آب ('water.height')، بخشی از محل مطالعه ('ssp.zone') و روزهای بعد از 27/9/13 ('days') هستند. من از یک مدل خطی تعمیم یافته با توزیع شبه دوجمله ای برای مدل سازی داده ها استفاده کرده ام: glm_alert <- glm(هشدار ~ ssp*water.height + ssp*ssp.zone + ssp*log(شمارش) + ssp*روز، وزن = شمارش، خانواده = quasibinomial، my_data) من از بسته اثرات در R برای محاسبه مقادیر پیش بینی شده و فواصل اطمینان آنها برای هر یک استفاده کردم. مقدار ssp و water.height: library(effects) as.data.frame(effect(c(ssp:water.height)، glm_alert) ssp water.height fit se under upper 1 Dark-bellied برنت گوس 1 0.1159649 11.415528 2.335320e-11 1.0000000 2 غاز برنت شکم روشن 1 0.2514900 5.436864 7.637095e-06 0.9999324 3 غاز برنت شکم تیره 2 0.1753066 10.2924 10.2374 1.0000000 4 غاز برنت شکم روشن 2 0.2954735 4.313482 8.682094e-05 0.9995066 5 غاز برنت شکم تیره 3 0.2562139 10.803 10.803 0.2562139 10.313482 1.0000000 6 غاز برنت شکم روشن 3 0.3436181 3.696164 3.647761e-04 0.9986703 7 غاز برنت شکم تیره 4 0.3582410 12.774-12.754. 1.0000000 8 غاز برنت شکم روشن 4 0.3952068 3.837447 3.448810e-04 0.9991927 9 غاز برنت شکم تیره 5 0.4749527 15.62615-15.613 1.0000000 10 غاز برنت شکم سبک 5 0.4492397 4.668966 8.392980e-05 0.9998739 می توانید فواصل اطمینان را بین 0-1 مشاهده کنید. آیا می دانید چرا فواصل اطمینان برای مقادیر پیش بینی شده اینقدر زیاد است؟
چرا فواصل اطمینان برای مقادیر پیش بینی شده اینقدر زیاد است؟
30075
مشکل طراحی یک طبقه بندی کننده چند کلاسه با استفاده از **LDA** را می توان به عنوان یک مشکل **2 کلاس** (یک در مقابل هر چیز دیگر) یا یک مشکل **چند کلاس** بیان کرد. چرا در موارد خاص ** طبقه بندی کننده LDA چند کلاسه ** عملکرد بهتری از ** کلاس LDA 2 ** (یکی در مقابل هر چیز دیگری) دارد یا **برعکس**.
LDA چند کلاسه در مقابل LDA کلاس 2
31300
من برخی از داده ها در [0،1] دارم که می خواهم آنها را با رگرسیون بتا تجزیه و تحلیل کنم. البته باید کاری انجام شود تا مقادیر 0.1 را در خود جای دهد. من از تغییر داده ها برای تناسب با یک مدل متنفرم. همچنین معتقدم تورم صفر و 1 ایده خوبی نیست زیرا معتقدم در این مورد باید 0ها را مقادیر مثبت بسیار کوچک در نظر گرفت (اما نمی خواهم دقیقاً بگویم چه مقدار مناسب است. یک انتخاب منطقی من معتقدم که مقادیر کوچکی مانند 0.001 و 0.999 را انتخاب کنید و مدل را با استفاده از فاصله تجمعی برای بتا برازش کنید، بنابراین برای مشاهدات y_i احتمال ورود به سیستم اگر y_i < .001 LL+=log(cumd_beta(.001)) باشد، اگر y_i>.999 LL+=log(1.0-cum_beta(0.999)) دیگری LL+=log(beta_density(y_i)) چه چیزی در این مورد دوست دارم مدل این است که اگر مدل رگرسیون بتا معتبر باشد، این مدل نیز معتبر است، اما کمی از آن را حذف می کند. حساسیت به مقادیر افراطی به نظر می رسد که این یک رویکرد طبیعی است که من تعجب می کنم که چرا هیچ مرجع آشکاری در ادبیات پیدا نمی کنم نتایج را بایاس می کند (بر اساس این فرض که مدل اصلی معتبر است)، در حالی که اصلاح مدل با ترکیب مقادیر شدید، نتایج را تعصب نمی کند. شاید مشکلی وجود داشته باشد که من از آن غافل هستم؟
در یک رگرسیون بتا با مقادیر 0.1 سر و کار دارید
96901
در این نمودار، این همبستگی چقدر قوی است (در صورت وجود)؟ تصویر مربوط به ارائه سخنران دیگری است (منبع: http://imgur.com/SBU4bUY). ![http://imgur.com/SBU4bUY](http://i.stack.imgur.com/4Hy8l.jpg)
چقدر قوی است (در صورت وجود) همبستگی در این نمودار (prt sc از اسلاید سخنرانی)
10597
آیا راه معقولی برای تعیین کمیت میزان همبستگی های محلی در یک تصویر وجود دارد؟ به عنوان مثال، من می خواهم توجیه کنم که همبستگی بین همسایگی پیکسل ها بسیار بالاتر از همبستگی بین پیکسل ها در مناطق کاملاً متفاوت تصویر است. آیا نشان دادن xcorr2(A,A) به عنوان همبستگی خودکار 2 بعدی تصویر راهی معتبر برای نشان دادن این خواهد بود؟ یعنی: اگر مقادیر بزرگی وجود داشته باشد که عمدتاً در مرکز ماتریس قرار دارند.
روش معتبر برای تحلیل همبستگی های فضایی در تصاویر؟
10598
اشکال مختلف همبستگی، به عنوان مثال، $r = \frac{\Sigma_i x_i * y_i}{\sigma_x \sigma_y}$ یا $r = \frac{\Sigma_i (x_i-\bar{x}) * (y_i-\ bar{y})}{\sigma_x \sigma_y}$ معیارهای مشابهی محبوب در بسیاری از برنامه‌ها هستند. آیا یک تفسیر احتمالی برای این وجود دارد که یا $r$ یا $r^2$ یک احتمال تقریبی برای x و y از توزیع یکسان یا مشابه باشد؟ به عنوان مثال، اگر شکلی از $P_{\theta_1}(x)$ و $P_{\theta_2}(y)$ داشته باشیم، آنگاه $r$ مربوط به $P(\theta_1=\theta_2 | x,y) است. دلار؟ من حدس می زنم که همبستگی ممکن است اولین عبارت در تقریب نوعی اندازه گیری احتمال باشد. اما من نمی توانم به چنین مدلی برسم. با فرض اینکه $x$ و $y$ از یک حالت عادی می آیند و $\theta$ میانگین است، واقعاً آن عبارت را مشتق نمی کند.
همبستگی به عنوان معیار احتمال
94460
من درک می کنم که مفروضات مختلفی برای تکنیک های آماری مانند رگرسیون وجود دارد. یک فرض رایج این است که داده ها به طور معمول توزیع می شوند. در مواردی که داده‌ها به طور معمول توزیع نمی‌شوند، اغلب می‌توان آن‌ها را از طریق، برای مثال، گرفتن گزارش هر مورد از متغیر، تبدیل کرد (نرمال کرد؟). من می توانم ببینم که این و سایر اشکال تبدیل، (اغلب) توزیع را عادی می کند، که شرط رگرسیون است. با این حال، آیا ما متغیر را دستکاری نکرده ایم؟ چگونه ممکن است استنباط های انجام شده بر اساس این متغیر دستکاری شده هنوز معتبر باشند؟
چرا تحول کار می کند؟
20680
من یک مدل را با استفاده از SPSS صادر کرده ام (این مدل توسط ژنراتور مدل خطی خودکار تولید شده است). سوال من ساده است اما نمی توانم پاسخ آن را پیدا کنم: چگونه این مدل را از فایل xml صادراتی وارد و اجرا کنم؟ پیشاپیش ممنون
چگونه یک مدل را با SPSS وارد و اجرا کنیم؟
94465
$X$ و $Y$ به طور یکنواخت روی دیسک واحد توزیع می شوند. بنابراین، $f_{X,Y}(x,y) = \begin{cases} \frac{1}{\pi}, & \text{if} ~ x^2+y^2 \leq 1,\\ \ 0، &\text{در غیر این صورت.}\end{cases}$ اگر $Z=X+Y$، pdf $Z$ را پیدا کنید.
PDF از مجموع دو متغیر تصادفی
94468
من در این مورد کاملاً از عمق خود خارج هستم و تمام خواندنی که سعی می کنم انجام دهم فقط مرا گیج می کند. امیدوارم بتوانید مطالب را به روشی منطقی برای من توضیح دهید. (همانطور که همیشه به نظر می رسد، نباید اینقدر سخت باشد!) من سعی می کنم به دانش آموزی کمک کنم که به تأثیر سیستم های اجتماعی بر شیوع بیماری ها در گونه های مختلف میزبان سگ سانان نگاه می کند. ما می خواهیم سیستم اجتماعی (مانند زندگی گروهی در مقابل انفرادی) را به عنوان یک اثر ثابت و گونه میزبان را به عنوان یک اثر تصادفی تو در تو در داخل سیستم اجتماعی در نظر بگیریم (یعنی هر گونه فقط یک نوع سیستم اجتماعی دارد). درک من این است که بهترین راه برای انجام این کار انجام یک رگرسیون لجستیک با اثرات مختلط است. ما این کار را انجام دادیم و کار می کند و خوشحال بودیم. متأسفانه، مشاور او اصرار دارد که میزان تغییرات ناشی از سیستم اجتماعی در مقابل گونه میزبان در مقابل باقیمانده را محاسبه کند. من نمی توانم بفهمم که چگونه این کار را از طریق رگرسیون لجستیک با اثرات مختلط انجام دهم، و سوال قبلی من در مورد این موضوع بی پاسخ ماند. مشاور او پیشنهاد کرد که به جای آن، ANOVA انجام شود، مقادیر شیوع بیماری تغییردهنده لاجیت (کسری از هر جمعیتی که آلوده شده است). این یک مشکل ایجاد کرد زیرا برخی از مقادیر شیوع 0 یا 1 هستند که پس از تبدیل logit به $-\infty$ یا $\infty$ منجر می‌شود. راه حل مشاور او این بود که به ترتیب $-5$ و $5$ را جایگزین $-\infty$ یا $\infty$ کرد. این واقعاً گیج کننده است و من را خیلی سخت می ترساند. اما او کسی است که به او نمره می دهد، و در این مرحله من فقط می خواهم این کار را تمام کنم، بنابراین اگر او با آن خوب است، پس هر چه باشد. ما از R برای این تحلیل استفاده می کنیم. کد را می توان از اینجا دانلود کرد و داده های ورودی را از اینجا دانلود کرد. فایل داده شامل داده های دو پاتوژن مختلف (A و B) است که ما به طور جداگانه آنها را تجزیه و تحلیل می کنیم (همانطور که در کد نشان داده شده است). در اینجا تنظیم ANOVA ما برای پاتوژن B ساخته شده است: mod1.lm <- lm(Seroprevalence_logit ~ Social.System + Social.System/Host.Species، data = prev_B) print(mod1.anova <- anova(mod1.lm)) این منجر به اولین سوال من می شود: **آیا این درست و مناسب است؟** عواملی که باید در نظر بگیریم: * ما می خواهیم مدل II داشته باشیم متغیر (اثر تصادفی) تو در تو در یک متغیر مدل I (اثر ثابت). * هر نظام اجتماعی دارای تعداد یکسانی از گونه های میزبان نیست که درون خود لانه کرده اند. * همه گونه های میزبان دارای تعداد یکسانی از جمعیت مورد بررسی نیستند. * تعداد افراد مورد بررسی در هر جمعیتی یکسان نبود (ستون N_indiv در mydata.csv). به نظر من این بیشتر یک مشکل وزن دهی است تا چیزی اساسی تر. سوال بعدی من و سوال اصلی این پست این است: **چگونه واریانس را پارتیشن بندی کنم؟** این چیزی است که ما به آن فکر می کردیم: MS_A <- mod1.anova$Mean Sq[1] MS_BinA <- mod1. anova$Mean Sq[2] MS_resid <- mod1.anova$Mean Sq[3] n <- length(unique(prev_A$Social.System)) r <- length(unique(prev_A$Host.Species)) VC_A <- (MS_A - MS_BinA)/(n*r) VC_BinA <- (MS_BinA - MS_resid)/n VC_resid <- MS_resid متأسفانه، با استفاده از مشخصات ANOVA که در بالا توضیح دادم، باعث ناراحتی می شود. در اینجا نتایج برای پاتوژن B آمده است: * VC_A (یعنی Social.System): $-1.48 * VC_BinA (به عنوان مثال، Host.Species): $13.8 $ * VC_resid: $5.57 $ تحقیقات مرا به این باور رسانده است که این امر باید به ترتیب درصدهای مولفه واریانس 0%، 71.3% و 28.7% را ایجاد کند. با این حال، این به دو دلیل رضایت‌بخش نیست: * مقدار p برای Social.System از ANOVA 0.025$ بود، که نشان می‌دهد باید حداقل مقداری از واریانس مشاهده‌شده را به خود اختصاص دهد. (Host.Species دارای مقدار p ~$3*10^{-5}$ بود.) * من نگران هستم که یک جزء واریانس منفی ممکن است یک پرچم قرمز برای چیزی باشد. لطفاً، هر گونه کمکی که می توانید در مورد هر یک از این سؤالات ارائه دهید، بسیار قدردانی خواهد شد. من یک دوره کارشناسی را در مورد آمار زیستی گذراندم، بنابراین پیشینه ای دارم، اما به نظر نمی رسد که نمی توانم این مسائل خاص را بفهمم. پیشاپیش ممنون
Nested ANOVA: اندازه نمونه نابرابر؟ مولفه های واریانس؟
13909
من دو ماتریس با افراد یکسان در هر کدام دارم. 1. چگونه باید در R برای شناسایی روابط متقابل ماتریس اقدام کنم؟ 2. از چه تکنیکی برای استنتاج مقادیر همبسته در ماتریس دوم از ماتریس اول استفاده کنیم؟ متشکرم.
استنتاج و همبستگی متقابل ماتریس
13151
من در حال انجام یک مطالعه مبتنی بر رجیستری با تقریبا 200000 مشاهده هستم و می‌خواهم یک تحلیل ریسک رقابتی انجام دهم. مشکل من این است که crr() در بسته cmprsk به طور تصاعدی با افزایش تعداد مشاهدات افزایش می یابد. بنابراین من یک شبیه سازی برای آزمایش رویکردهای مختلف نوشتم. بررسی کنید که چگونه عوامل، چارچوب های داده و ماتریس ها بر عملکرد تأثیر می گذارند تا بتوانم کارآمدترین ترکیب را انتخاب کنم. من یک کامپیوتر 1 ساله با 8 گیگ رم دارم و وقتی یک شبه کامپیوتر را ترک کردم هنوز 70000 مشاهده تمام نشده است. سوالات اصلی من: * آیا روش سریع تری برای انجام تحلیل ریسک رقابتی وجود دارد؟ * چرا Win7 4 برابر بهتر عمل می کند؟ آیا این نسخه 64 بیتی است که عملکرد را بهبود می بخشد؟ * آیا می توانم کاری برای سرعت بخشیدن به کار انجام دهم؟ * آیا شبیه سازی در رایانه شما به همین صورت کند است؟ (کد شبیه سازی را در انتها ببینید) با تشکر Max * * * خروجی من با برخی از خطاهایی که برخی از گزینه های جایگزین ایجاد می کنند * شروع بررسی عملکرد crr * استفاده از 10000 مشاهده و 3 - 10000 متغیرهای کمکی .. خطا: NA/NaN/Inf در فراخوانی تابع خارجی (arg 4) علاوه بر این: پیام هشدار: NA ها با اجبار معرفی شده اند ... خطا در drop(.Call(La_dgesv, a, as.matrix(b), tol, PACKAGE = base)) : Lapack روتین dgesv: سیستم دقیقاً تک است.. خروجی در لینوکس - لینوکس - اوبونتو - R32-bit 2.13.1 *** نتایج آزمون *** آزمون 1 قبول شد - بدون فاکتور طول کشید: 4.2 دقیقه آزمون 2 گذرانده شد - با استفاده از آزمون معیار وضعیت فاکتورگیری شده 2: 91% تست 3 ناموفق - متغیرهای کمکی فاکتورگیری شده با شکست تست 4 - با استفاده از وضعیت عاملی و متغیرهای چارچوب داده تست معیار 4: 78% تست 5 قبول شد - با استفاده از وضعیت فاکتور و دو برابر متغیرهای کمکی که در آن متغیرهای کمکی جدید متفاوت هستند تست معیار 5: 76% تست 6 ناموفق - نسخه های دقیق از متغیرهای کمکی با شکست تست 7 - با استفاده از وضعیت عادی و دو برابر متغیرهای کمکی که در آن متغیرهای جدید متفاوت هستند تست معیار 7: 80٪ تست 8 با موفقیت انجام شد - با استفاده از وضعیت عادی و سه برابر متغیرهای کمکی که در آن متغیرهای کمکی جدید متفاوت هستند تست معیار 8: 83٪ خروجی در ویندوز - ویندوز 7 - R64-bit 2.13.1 *** نتایج تست *** *** نتایج آزمون *** آزمون 1 قبول شد - بدون فاکتور طول کشید: 1.1 دقیقه آزمون 2 رد شد - با استفاده از معیار وضعیت فاکتورگیری آزمون 2: 99% آزمون 3 ناموفق - متغیرهای کمکی فاکتورگیری شده با شکست تست 4 - با استفاده از وضعیت عاملی و متغیرهای چارچوب داده تست معیار 4: 104٪ آزمون 5 قبول شد - با استفاده از وضعیت فاکتور و دوبرابر متغیرهای کمکی که در آن متغیرهای کمکی جدید متفاوت هستند تست معیار 5: 122 ٪ تست 6 ناموفق - نسخه های دقیق متغیرهای کمکی با شکست تست 7 - با استفاده از وضعیت عادی و دو برابر متغیرهای کمکی که در آن متغیرهای کمکی جدید متفاوت هستند تست معیار 7: 122٪ تست 8 با موفقیت انجام شد - با استفاده از وضعیت عادی و سه برابر متغیرهای کمکی که در آن متغیرهای کمکی جدید متفاوت هستند تست معیار 8: 144٪ تست با 20 000 (دو برابر داده ها) در Windows 7 R64 2.13.1 (شکست ها را حذف کرد) *** نتایج تست *** تست 1 گذرانده شد - بدون فاکتور آن گذرانده: 8.5 دقیقه آزمون 2 گذرانده شد - با استفاده از وضعیت عاملی آزمون معیار 2: 100٪ آزمون 4 گذرانده شد - با استفاده از وضعیت عاملی و متغیرهای چارچوب داده تست معیار 4: 100٪ آزمون 5 گذرانده شد - با استفاده از وضعیت فاکتور و دو برابر متغیرهای کمکی که در آن متغیرهای کمکی جدید متفاوت هستند آزمون معیار 5: 123% آزمون 7 گذرانده شد - با استفاده از وضعیت عادی و دو برابر متغیرهای کمکی که در آن متغیرهای کمکی جدید متفاوت هستند تست معیار 7: 122% تست 8 گذرانده شد - با استفاده از وضعیت معمولی و سه برابر متغیرهای کمکی که در آن متغیرهای کمکی جدید متفاوت هستند تست معیار 8: 147% کتابخانه کد تست عملکرد (cmprsk) # تعیین اندازه مجموعه my_set_size <- 10000 # ایجاد متغیرهای کمکی cov <- cbind(rbinom(my_set_size, 1, .5) rbinom(my_set_size, 1, 0.05), rbinom(my_set_size, 1, .1)) dimnames(cov)[[2]] <- c('gender','risk factor 1','risk factor 2') factored_cov <- data.frame( جنسیت = فاکتور(cov[,1]، سطوح=c(0،1)، labels=c(مرد، مونث))، rf1 = فاکتور (cov[,2]، سطوح=c(0،1)، برچسب‌ها=c(نه، بله))، rf2 = فاکتور(cov[,3]، سطوح =c(0,1), labels=c(نه، بله))) framed_cov <- data.frame( gender = cov[,1], rf1 = cov[,2], rf2 = cov[,3]) cov_doubled <- cbind(cov[,1], cov[,2], cov[,3], rbinom(my_set_size, 1, .5), rbinom(my_set_size, 1, .05), rbinom (my_set_size, 1, .1)) dimnames(cov_doubled)[[2]] <- ج («جنسیت»، «عامل خطر 1»، «عامل خطر 2»، «عامل خطر 3»، «عامل خطر 4»، «عامل خطر 5»)
رگرسیون ریسک رقابتی با CRR آهسته در مجموعه داده های بزرگ؟
96906
من یک طرح 2*2 دارم، N=73، و اندازه‌گیری‌های قبل و بعد را برای ساختاری به نام «هنجارهای وضعیت اجتماعی» دارم. فرضیه صفر واریانس برابر رد نشد. من یک ANOVA 2*2 انجام دادم (پیش اندازه گیری من به عنوان یکی از چهار متغیر کمکی مورد استفاده قرار گرفت) و یک برهمکنش قابل توجه یافتم (0.036 = p، η2 = 0.066 جزئی). با این حال، زمانی که من یک ANOVA اندازه‌گیری‌های مکرر را اجرا کردم، هیچ اثر متقابل معنی‌داری یافت نشد (0.131 = p، 0.034 = η2 جزئی). متغیرهای کمکی یکسان برای هر دو تجزیه و تحلیل استفاده شد. من مطمئن نیستم که چرا برای یکی اثر دارد و دیگری نه. n برای هر گروه از 16 تا 32 متغیر است، بنابراین شاید اندازه نمونه کوچک باشد؟ یا η2 جزئی کوچک (.066)؟ با تشکر از کمک شما! واقعا قابل تقدیر است.
اثری برای ANOVA 2*2 (تک متغیره) یافت شد اما برای ANOVA اندازه گیری های مکرر یافت نشد؟
96905
فرض کنید من اثری دارم که بر هر مقدار (تولید معمولی 15 هزار) متفاوت تأثیر می گذارد/آلوده می شود، چیزی بین 0.0% و 6.0%. حالا من چیزی را تغییر داده ام و می خواهم آزمایش کنم که آیا این آلودگی من را تغییر می دهد یا خیر. من چهار تست با 1k تولید کردم و آنها را آزمایش کردم. من هیچ عضو آسیب دیده ای در آن چهار لات پیدا نکردم. اکنون باید یک حد بالایی برای آلودگی تخمین بزنم. چگونه می توان آن را انجام داد؟ من به چیزی مانند ما می توانیم کاملا مطمئن باشیم (آلفا = 5٪) که محدودیت کمتر از 0.5٪ است.
نمونه برداری / تخمین اثر
71424
من یک پروژه شخصی دارم که روی آن کار می کنم و می توانم از کمکی در مورد ریاضی استفاده کنم. فرض کنید من دو لیست داشتم. **FN**: 1 میلیون نام (فریب مجاز). **LN**: 2 میلیون نام خانوادگی (فریب مجاز است). و فرض کنید ما به دو نام نگاه می کنیم: **Murray**: در FN 5000 بار و در LN 75000 بار ظاهر می شود. *Harrison**: در FN 10000 بار و در LN 70000 بار ظاهر می شود. به عنوان یک نام کامل به من Murray Harrison داده شده است. چگونه به محاسبه احتمال اینکه نام مورد نظر در واقع «هریسون موری» باشد نزدیک می‌شوید؟ برای دامنه این پروژه، قابل قبول است که فرض کنیم هر نام خانوادگی به همان اندازه در کنار هر نام کوچکی ظاهر می شود. من فکر می کنم که: P (Murray Harrison) = P (Murray به عنوان اولین) * P (Harrison به عنوان آخرین) = 5000/80000 * 70000/80000 = 0.055 P (Harrison Murray) = P (Harrison به عنوان اولین) * P (Murray به عنوان آخرین) = 75000/80000 * 10000/80000 = 0.117 در اینجا سوال من ممکن است مشکل باشد: چگونه این دو احتمال را در نظر می گیرید و شانس تعویض این دو نام را تعیین می کنید؟ به عنوان مثال، بگویید من تصمیم گرفتم که اگر 95٪ احتمال دارد که آنها تعویض شوند، آنها را تعویض می کنم. آیا برای تعیین این احتمال به داده های اضافی نیاز دارم؟ آیا من فقط به احتمالات هر دو ترتیب نام نگاه می کنم و اگر یکی > 0.95 باشد، آن ترتیب را انتخاب می کنم؟ ویرایش: برای واضح بودن، من لیستی از نام های کامل دارم و می خواهم به صورت برنامه ریزی شده تعیین کنم که نام اول و کدام نام آخر است. گاهی اوقات داده ها به ترتیب Last-First (بدون کاما) و گاهی اوقات به ترتیب First-Last خواهند بود. من سعی می کنم از کمی آمار برای تعیین محتمل ترین ترتیب استفاده کنم.
شانس تعویض نام و نام خانوادگی در یک نام را محاسبه کنید؟
10594
من 500000 مقدار برای یک متغیر مشتق شده از بازارهای مالی دارم. این متغیر دارای توزیع دلخواه است. من به فرمولی نیاز دارم که به من اجازه دهد محدوده ای را در اطراف هر مقدار از این متغیر انتخاب کنم به طوری که مقدار مساوی (یا نزدیک به آن) از مقادیر در آن محدوده قرار گیرد. از آنچه من درک می کنم، این بدان معنی است که من باید آن را از توزیع دلخواه به توزیع یکنواخت تبدیل کنم. من خوانده ام (اما به سختی متوجه شده ام) که آنچه من به دنبال آن هستم تبدیل انتگرال احتمال نامیده می شود. آیا کسی می تواند به من کمک کند تا کدی (ترجیحاً متلب، اما واقعاً مهم نیست) به من کمک کند تا این کار را انجام دهم؟ ویرایش: من مجموعه داده خود را به عنوان یک فایل csv. آپلود کردم و فایل rar. را فشرده کردم، از تابع توزیع تجربی در MatLab استفاده کردم و نمودار زیر را دریافت کردم:![ توزیع تجمعی تجربی](http://i.stack.imgur.com/YErTM .png) آیا این به نظر درست است؟ در اینجا یک هیستوگرام از داده های خام برای مرجع وجود دارد: ![هیستوگرام داده های خام](http://i.stack.imgur.com/Oyy1m.png)
تبدیل توزیع دلخواه به یکنواخت
13156
بیایید بگوییم که می دانم بودجه کلی برای برخی واحدها چقدر است و می خواهم سهم بودجه هر واحد را پیش بینی کنم. من داده های تاریخی دارم و می توانم تحلیل رگرسیون انجام دهم. آیا بهتر است سهام را مستقیماً با رگرسیون لجستیک پیش بینی کنیم یا سعی کنیم مقدار را پیش بینی کنیم و سپس سهم آن را در پیش بینی های کلی محاسبه کنیم؟ یا چیز دیگری؟ یک چیز دیگر، من می خواهم کل بودجه را در پایان تقسیم کنم.
چگونه سهام را پیش بینی کنیم؟
20681
اخیراً بخشی از داده های سری زمانی برای تجزیه و تحلیل به من داده شده است. من میانگین نرخ رشد مرگ و میر نوزادان در هر 1000 تولد را محاسبه کرده ام و به واریانس 60449.1376 و در نتیجه انحراف معیار 245.864 دست یافته ام، چگونه این را تفسیر کنم؟ داده ها نرخ مرگ و میر نوزادان سالانه در هر هزار از سال 1951 تا 1981 را شامل می شود: 82 78 71 72 71 67 68 64 58 57 52 53 56 55 53 54 48 50 53 47 454 45 4 38 34 29.5
چگونه واریانس داده های سری زمانی را با استفاده از میانگین نرخ های رشد تفسیر می کنید؟
72902
آزمونی را که از دو عامل به عنوان متغیر مستقل استفاده می‌کند، اما از یک متغیر وابسته استفاده می‌کند که تفاوت بین دو اقدامی است که به طور مکرر از افراد یکسان انجام می‌شود، چگونه توصیف می‌کنید یا چه می‌نامید؟ معمولاً اندازه گیری های مکرر به این معنی است که چندین متغیر مستقل بر روی افراد یکسان اندازه گیری می شوند. در اینجا، این متغیر وابسته و نتیجه است که اندازه گیری مکرر است. اما، از آنجایی که تفاوت برای هر فرد در نظر گرفته می شود، آیا این به سادگی یک ANOVA دو طرفه است؟
آیا این طرح اقدامات تکراری است یا خیر؟
20354
در مشکل من، هر فرد را می توان در دو بعد باینری A و B طبقه بندی کرد (هر فرد می تواند A یا غیر A و B یا غیر B باشد). مشخص نیست که آیا بین A و B وابستگی وجود دارد یا خیر. من یک نمونه تصادفی انتخاب کرده ام (حدود 15٪ از جامعه). من می‌دانم که کدام افراد در نمونه A هستند و کدام‌ها A هستند (نه-A بسیار بیشتر از As وجود دارد). من همچنین می دانم که کدام A-افراد در نمونه B هستند و کدام B هستند. برای این سوال، لطفاً فرض کنید که تعیین اینکه چگونه افراد غیر A در نمونه در بعد B غیرعملی است. من می دانم که می توانم یک فاصله اطمینان برای شیوع A در جمعیت را با استفاده از روش نمره ویلسون تخمین بزنم. آیا می توانم به نحوی فاصله اطمینانی را برای شیوع B در زیرجمعیت افرادی که دارای ویژگی A هستند تخمین بزنم؟
تخمین شیوع در یک زیرجمعیت
77880
فرض کنید $x$ را از $y_1=ax+z_1$ تخمین بزنیم و x_1$ را بدست آوریم. سپس فرض کنید $y_2=bx+z_2$ را دریافت می کنیم و $x$ را با استفاده از $y_1$ و $y_2$ دوباره تخمین می زنیم و x_2$ را دریافت می کنیم. آیا میانگین مربعات خطا (MSE) $x_2$ همیشه کمتر از MSE $x_1$ است. به عبارت دیگر $$E(x-x_1)^2\geq E(x-x_2)^2 است؟$$ در اینجا $a,b$ ثابت های شناخته شده هستند و $z_1$ و $z_2$ خطاهای گاوسی و تخمین هستند. حداقل میانگین مربعات خطای خطی است. معادلات همچنین می توانند بردار باشند که خطا در حالت خلسه ماتریس کوواریانس خطا باشد. با این ویکی به نظر می رسد که در حال کاهش است. ویرایش: توضیح در زمان $t=0$ یک مقدار واقعی $x$ توسط یک فرآیند تصادفی $X$ ایجاد می‌شود. سپس در زمان $t=1$، یک نسخه خراب و مقیاس‌شده $y_1$ از $x$ دریافت می‌کنم که با $y_1=ax+z_1$ نشان داده می‌شود. از $y_1$ من برآورد خطی حداقل میانگین مربعات خطا (LMMSE) را انجام می‌دهم و $x$ را تخمین می‌زنم و $x_1$ را بدست می‌آورم و LMMSE مربوطه $E(x-x_1)^2$ است. در اینجا $a$ یک ثابت است و شناخته شده است، $z_1$ نویز گاوسی با میانگین و واریانس شناخته شده است. تخمین LMMSE ساده است. سپس در زمان $t=2$، نسخه دیگری با نویز خراب و مقیاس‌شده $y_2$ از همان $x$ دریافت می‌کنم که با $y_2=bx+z_2$ نشان داده می‌شود. باز هم $b$ یک ثابت شناخته شده و $z_2$ نویز گاوسی با میانگین و واریانس شناخته شده است. اکنون من به طور همزمان از $y_1$ و $y_2$ برای تخمین $x$ توسط تخمین LMMSE استفاده می کنم و مقدار $x_2$ و خطای مربوطه $E(x-x_2)^2$ را دریافت می کنم. سوال من: $E(x-x_1)^2\geq E(x-x_2)^2؟$ است. به عنوان مثال، زمان واقعاً مهم نیست، سؤال این است که آیا تخمین LMMSE با استفاده از نمونه‌های $n+1$ همیشه خطای کمتری نسبت به تخمین تنها با استفاده از $n$ نمونه از نمونه‌های $n+1$ می‌دهد؟ با تشکر
تخمین خطی متوالی: آیا MSE افزایشی نیست؟
28354
من دارم: * تابعی به شکل $S=M f(t, \theta)$ که $\theta$ یک متغیر است، $t$ و $M$ پارامترها هستند. * دو مشاهده $(\theta_1, S_1)$ و $(\theta_2, S_2)$ که در آنها $S_1$ و $S_2$ مقادیر برای $t$ مشاهده می شوند و $\theta_1$ و $\theta_2$ مشاهده شده اند مقادیر $\theta$. علاوه بر این، ما می دانیم که $S_1$, $S_2$ من حاوی نویز است که توزیع نرمال $N(0, d_1)$ $N(0,d_2)$ با واریانس ناشناخته $d_1$, $d_2$ است. حالا من می خواهم $t$ را تخمین بزنم. از نظر ریاضی، اگر $S_1$ و $S_2$ به طور دقیق مشاهده شوند، ما $$S_1= M f(t, \theta_1)$$ $S_2= M f(t, \theta_2)$$ داریم سپس با تقسیم داریم $\frac{S_1}{S_2}=g(t,\theta_1,\theta_2)$ که به دنبال آن پارامتر $t$ را می توان با یک عدد تخمین زد ابزار Mathematica مانند Findroot w.r.t. پارامتر $t$. با این حال، مشکل در اینجا نویز توزیع نرمال است. هدف یافتن $t$ تا حد امکان دقیق است، به معنای برخی از ویژگی های نظری احتمال. روش ترجیحی استفاده از تابع Matlab یا Mathematica است، اگرچه فکر نمی کنم آنها راه حل مستقیمی داشته باشند. من با تجزیه و تحلیل عددی کاملاً تازه کار هستم و کاملاً در Matlab تازه کار هستم. ایده ساده من این است که: 1. آیا اولین قدم باید حذف پارامتر $M$ باشد؟ 2. اگر چنین است، راه‌های بی‌نهایت زیادی برای انجام آن وجود دارد، از جمله می‌توانیم * $\frac{S_1}{S_2} = \frac{f(t, \theta_1)}{f(t,\theta_2)} را فهرست کنیم. $ * $\frac{S_1+S_2}{S_1-S_2} = \frac{f(t، \theta_1)+f(t,\theta_2)}{f(t, \theta_1)-f(t,\theta_2)}$ * $ \frac{S_1^2 }{S_2^2} = \frac{f( t, \theta_1) ^2 }{f(t,\theta_2) ^2}$ واضح است که همه این تغییرات از نظر ریاضی معادل هستند اگر $S_1$، $S_2$ دقیقاً مشاهده می شود. با این حال، آنها باید $t$ متفاوتی را تولید کنند (به دلیل نویز گاوسی در $S_1$ و $S_2$) سوالات من 1 است. به نظر شما اولین قدم من باید حذف $M$ با استفاده از روش فوق باشد؟ 2. آیا ترکیبی از $S_1$، $S_2$ وجود دارد که نتایج بهتری نسبت به سایرین بدهد؟ 3. بهترین راه برای تخمین $t$ این مشکل چیست؟ (شاید در Matlab یا Mathematica) متشکرم. امیدوارم واضح بوده باشم
روش‌های عددی برای تخمین پارامتر منحنی از 2 داده ورودی با نویز گاوسی
91606
فرض کنید من می خواهم آزمایش کنم که آیا یک سری زمانی در صورت شتاب گرفتن، شتاب بیشتری به دست می آورد یا نه، برای مدل سازی آن به چه مدل سری زمانی نیاز دارم؟ آیا با میانگین متحرک یک فرآیند ARMA در نظر گرفته می شود؟ یا باید کاری انجام دهم: $$ r_t = A · ( r_{t-1} - r_{t-2} ) + \sigma_t · e_t $$ که * $r_t$ سری زمانی است * $A$ ثابت است * $\sigma_t$ نوسان است * $e_t$ نویز سفید است
چه مدل های سری زمانی شتاب را ثبت می کنند؟
94463
من می خواهم یک الگوریتم را در یک مقاله پیاده سازی کنم که از Kernel SVD برای تجزیه یک ماتریس داده استفاده می کند. بنابراین من مطالبی را در مورد روش‌های هسته و PCA هسته و غیره می‌خواندم. اما هنوز برای من بسیار مبهم است، مخصوصاً وقتی صحبت از آن اثبات‌ها و فرمول‌های ریاضی (جبر خطی) می‌شود. من چند سوال در مورد روش های مبتنی بر کرنل و PCA هسته دارم که بسیار ابتدایی هستند زیرا من یک مبتدی هستم. * **چرا روش های هسته؟ یا مزایای روش های کرنل چیست؟ هدف شهودی چیست؟** _آیا فرض می شود فضای ابعادی بسیار بالاتر در مسائل دنیای واقعی واقع بینانه تر است و می تواند روابط غیرخطی در داده ها را در مقایسه با روش های غیر هسته ای آشکار کند؟_ با توجه به مواد، روش های کرنل، داده ها را روی یک فضای ویژگی با ابعاد بالا قرار می دهد، اما نیازی به محاسبه فضای ویژگی جدید به صراحت ندارد، فقط باید محصولات داخلی را بین تصاویر همه جفت داده ها در فضای ویژگی محاسبه کند. **پس چرا به فضایی با ابعاد بالاتر نمایش داده می شود؟** * برعکس، **SVD فضای ویژگی را کاهش می دهد. چرا آنها این کار را در جهات مختلف انجام می دهند؟** روش های هسته به دنبال ابعاد بالاتر هستند، در حالی که SVD به دنبال ابعاد پایین تر هستند. ** برای من ترکیب آنها عجیب به نظر می رسد **. طبق مقاله ای که می خوانم، معرفی Kernel SVD به جای SVD می تواند مشکل پراکندگی داده ها را برطرف کند و نتایج را بهبود بخشد. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/yWj4A.png) از مقایسه در شکل می‌توانیم ببینیم که KPCA یک بردار ویژه با واریانس (مقدار ویژه) بالاتر از PCA دریافت می‌کند؟ از آنجا که برای بزرگترین اختلاف پیش بینی نقاط روی بردار ویژه (مختصات جدید)، KPCA یک دایره و PCA یک خط مستقیم است، بنابراین KPCA واریانس بالاتری نسبت به PCA دارد. پس یعنی KPCA مولفه های اصلی بالاتری نسبت به PCA دریافت می کند؟ آیا اینطور است؟
مزایای هسته PCA نسبت به PCA چیست؟
115270
من می‌خواهم این مقدار، $f()$ را برای داده‌هایم محاسبه کنم. $x$ و $y$ سری زمانی هستند. $f$ مانند یک شبه همبستگی رفتار می‌کند، اما از این نظر متفاوت است که حتی اگر مقادیر بالا و پایین بپرند، $f$ آنها هنوز ضعیف است و اگر مقادیر علامت متناوب (اغلب) داشته باشند منفی می‌شود. در اینجا زمینه برنامه کاربردی است. فرض کنید در زمان واقعی با 2 نوع شی روبرو می شویم: آبی و قرمز که هر کدام اندازه های متفاوتی دارند. من می خواهم خوشه بندی زمانی این اشیاء را اندازه گیری کنم. تغییر رنگ (یعنی تغییر علامت) سنگین تر از تغییر کمیت است. اگر من 2 جسم آبی متوالی را با اندازه های کاملاً متفاوت ببینم، می خواهم بگویم که هنوز مقداری خوشه بندی وجود دارد، اما نه بیش از حد، در حالی که وقتی 2 شی بزرگ با رنگ های مختلف می بینم، می خواهم بگویم ضد خوشه بندی وجود دارد.
کمیت مانند همبستگی
20689
من ممکن است طول یک چوب را اندازه بگیرم. سپس می خواهم ببینم احتمال یک اندازه گیری تحت یک مدل چقدر است. هنگام استفاده از یک مدل پیوسته، احتمال یک عدد منفرد صفر است: $$ \mathbb P( \text{Length}=\text{length} \mid \text{Model}=\text{model} ) = 0 \> . $$ راه درست برای محاسبه احتمال اندازه گیری چیست؟ آیا باید احتمال یک بازه را محاسبه کنم؟ اگر دقت خط کش 1 میلی متر است، آیا باید از بازه $\text{length} \pm 0.5 \text{mm}$ استفاده کنم، یعنی $$ \mathbb P( \text{Length} - 0.5 \text{mm} } \leq \text{Length} \leq \text{length} + 0.5 \text{mm} \mid \text{Model}=\text{model} ) \>؟ $$
احتمال اندازه گیری تحت یک مدل پیوسته
96909
من روی ایجاد مدلی برای «طبقه بندی» رفتار در مقیاسی از «خوب» تا «بد» کار می کنم. من یک مجموعه داده بزرگ دارم که در آن هر سطر یک فرد و هر ستون جنبه ای از رفتار را نشان می دهد که می تواند مقدار زمان صرف شده، تغییرات در زمان صرف شده در مقایسه با دوره زمانی قبلی، تعداد جلسات متمایز، چه مقدار از برخی اقدامات در مجموع در حال حاضر 24 متغیر وجود دارد (تعدادی که ممکن است در آینده تغییر کند). حال می‌خواهم افراد را در مقیاسی از رفتار «خوب»/ «عادی» تا «بد»/ «غیر طبیعی» طبقه‌بندی کنم (این مقیاس باید پیوسته باشد و مشخص نباشد). رویکرد اولیه من انجام یک تجزیه و تحلیل مؤلفه های اصلی (PCA) روی 24 متغیر بود و دریافتم که 3 رایانه اول 70 درصد از واریانس داده ها را به خود اختصاص می دهند (با اضافه کردن دو مورد دیگر حدود 90 درصد). این برای من امیدوار کننده به نظر می رسد زیرا افرادی که رفتار غیر طبیعی دارند مقادیر بزرگتری حداقل برای ترکیبی از متغیرها دارند، به عنوان مثال. زمان بیشتر صرف شده، تعداد بیشتری از اقدامات خاص. مشکل من این است که چگونه باید ابعاد را بیشتر کاهش دهم. من می خواهم همه افراد را در یک بعد واحد از خوب به بد ترسیم کنم. از آنجایی که من در این نوع مدل سازی کاملاً تازه کار هستم، از هرگونه راهنمایی/پیشنهاد قدردانی می کنم. آیا انجام یک رگرسیون خطی ساده از سه جزء اصلی ایده خوبی است؟ آیا باید از رایانه های شخصی بیشتری استفاده کنم تا واریانس بیشتر در داده ها را در نظر بگیرم؟ آیا روش دیگری وجود دارد که باید سعی کنم این را مدل کنم؟ _من از R استفاده می کنم اگر مرتبط باشد._
ایجاد مدلی برای «طبقه بندی» رفتار
59289
من یک مجموعه آموزشی دارم که در آن ورودی ها و خروجی ها همه وجود دارند، اما گمان می کنم که در داده هایی که می خواهم پیش بینی انجام دهم، گاهی اوقات با سناریوهایی مواجه می شوم که بخش کوچکی از ویژگی های ورودی از دست رفته است. آیا روش‌های یادگیری ماشینی وجود دارد که پس از تکمیل یادگیری، بتواند پیش‌بینی معقولی را در میان ورودی‌های گمشده مانند این ارائه دهد؟ اگر مهم باشد، من به دنبال پیش‌بینی‌های با ارزش واقعی هستم (به طور ایده‌آل چند متغیره، زیرا من 2 خروجی برای پیش‌بینی در هر مجموعه ورودی دارم).
چه تکنیک‌های یادگیری ماشینی، پس از آموزش، می‌توانند با وجود برخی ورودی‌های گمشده، پیش‌بینی ایجاد کنند؟
44505
من دو پارامتر را اندازه گیری کرده ام (کربن آلی محلول DOC = y و تخلیه = x). هنگامی که این دو متغیر در برابر یکدیگر رسم می شوند، یک حلقه پسماند دریافت می کنیم (به مثال کد و تصویر مراجعه کنید). اکنون، برای تجزیه و تحلیل بیشتر، می خواهم مساحت این حلقه هیسترتیک را تعیین کنم. من متوجه شدم که این کار را می توان با استفاده از روش دارتینگ مونت کارلو انجام داد. این روش می گوید که مساحت یک ناحیه ناشناخته متناسب با مساحت یک مستطیل مشخص است که ضربات وارد شده به میدان داخلی (حلقه) است. مشکل من در حال حاضر این است که چگونه با استفاده از R مسئله درون/خارج را حل کنیم. لطفا توجه داشته باشید که من برای هر روش دیگری باز هستم... در گوگل سرچ کردم و در سایت های آماری مختلف جستجو کردم اما جوابی پیدا نکردم. هر گونه کمک مستقیم یا پیوند به سایر وب سایت ها / پست ها بسیار قدردانی می شود. ![حلقه هیسترزیس من](http://i.stack.imgur.com/059BT.png) داده <- read.table(http://dl.dropbox.com/u/2108381/DOC_Q_hystersis.txt، sep = ;، header = T) head(Data) نمودار (Data$Q، Data$DOC، type = o، xlab = تخلیه (m3 s-1)، ylab = DOC (mg Cl-1)، main = حلقه هیسترسیس رابطه C/Q)
چگونه مساحت یک حلقه پسماند (مشکل درون/خارج) را به زیبایی تعیین کنیم؟
104053
اول از همه، من نسبتاً تازه وارد آمار هستم، پس راحت باشید. من می‌دانم که توزیع دوجمله‌ای منفی می‌تواند در نتیجه اجازه دادن به پارامتر $\lambda$ در توزیع پواسون مانند توزیع گاما ایجاد شود. می خواستم بدانم آیا نتیجه مشابهی برای ترکیب پواسون-گاوسی وجود دارد که $\lambda$ یک متغیر تصادفی است و به صورت گاوسی توزیع شده است. بدیهی است که این موضوع وجود دارد که توزیع‌های گاوسی اجازه مقادیر منفی را می‌دهد، اما اگر آن را از صفر به بی‌نهایت محدود کنیم و بر این اساس نرمال کنیم، فکر می‌کنم که ممکن است. در این حالت، پارامتر $\lambda$ مقداری متوسط ​​و یک گسترش متقارن حول آن مقدار خواهد داشت. از آنچه من فهمیدم، مخلوط با زیر انتگرال نشان داده می شود. $$\frac{\int_{0}^{\infty}\frac{\lambda^k}{k!}e^{-\lambda} e^{-\frac{(\lambda-\mu)^2 }{2 \sigma^2}}d\lambda}{\int_{0}^{\infty}e^{-\frac{(\lambda-\mu)^2}{2 \sigma^2}}d\lambda}$$ اگر یک فرم ساده یا شناخته شده وجود نداشته باشد، چگونه همه شما پیاده سازی مناسب برای آن را در برنامه ای مانند Matlab توصیه می کنید؟ محاسبه آن از این تعریف و تطبیق با آن نسبتاً دشوار به نظر می رسد. من همچنین به دنبال ترکیبی با توزیع log-normal بودم (از آنجایی که $\lambda$ مثبت است)، اما فکر می‌کردم که مقابله با آن حتی دشوارتر خواهد بود.
مناسب برای توزیع مخلوط پواسون-گاوسی
111958
داوران از من خواسته اند که آلفای کرونباخ را برای آزمایش هایی که در طول آزمایش انجام داده ام محاسبه کنم. دو راه وجود دارد که من می توانم آن را انجام دهم (حداقل)، و من نمی دانم که کدام مناسب تر است. **زمینه:** دو مجموعه تست وجود داشت. پاسخ به تمام سوالات در یک مقیاس (0 = نادرست، 1 = صحیح) نمره گذاری شد. همه سؤال‌ها از یک دسته و قالب کلی بودند (همگی مسائل داستان ترکیبی شامل نمونه‌گیری با جایگزینی، ارائه شده در قالب انتخاب اجباری باینری) بودند، اگرچه لزوماً دشواری یکسانی نداشتند. تعداد سؤالات دو مجموعه آزمون یکسان بود. بین دو مجموعه، سؤالاتی که تعداد یکسانی داشتند (مثلاً سؤالات اول در هر مجموعه) از نظر معنایی مشابه بودند (عناصر مشابهی در داستان ها ظاهر شد). شرکت‌کنندگان در آزمایش یکی از مجموعه‌های آزمون (به صورت تصادفی انتخاب شده) را به عنوان پیش‌آزمون تکمیل کردند، سپس آموزش دریافت کردند، سپس مجموعه آزمون دیگر را به عنوان پس‌آزمون تکمیل کردند. **سوال:** می‌توانم آلفای کرونباخ را به‌صورت جداگانه برای پیش‌آزمون و پس‌آزمون یا به‌طور جداگانه برای هر مجموعه آزمون محاسبه کنم. در هر صورت، من سؤالاتی را که شماره سؤال یکسانی دارند، به عنوان یک سؤال در نظر می‌گیرم. اگر من با پیش‌آزمون/پس‌آزمون محاسبه کنم، یک مورد داده شده شامل سؤالات مختلفی می‌شود - برای مثال، سؤال 1 در پیش‌آزمون می‌تواند یکی از دو سؤال متفاوت باشد، بسته به اینکه کدام مجموعه آزمون برای پیش‌آزمون برای یک شرکت‌کننده خاص استفاده شده است. اگر من با مجموعه آزمون محاسبه کنم، آنگاه یک آیتم داده شده همیشه همان سؤال واقعی را نشان می دهد، اما سؤال برای برخی از شرکت کنندگان قبل از آموزش و برای برخی دیگر پس از آموزش اجرا شده است. **کدام راه مناسب تر است و چرا؟**
آلفای کرونباخ را روی مجموعه تست محاسبه کنید یا در زمان تست؟
92102
بابت این سوال نسبتا ساده پوزش می طلبم، اما نتوانستم تعریفی آنلاین پیدا کنم. قطع ROC برای بسته AUC چه چیزی را نشان می دهد؟ به طور خاص، چگونه به پیش بینی ها مربوط می شود؟ به عنوان مثال، داده های من شامل احتمال حرکت به سمت بالا و اندازه گیری دقت دو جمله ای (بله یا خیر) است. من می خواهم آستانه خاصی را برای احتمال حرکت به سمت بالا به اندازه گیری دقت مرتبط کنم - یعنی 70٪ TPR برای P(up) > 0.65. وقتی در R برای آستانه tpr 80% فیلتر می کنم، پاسخ زیر را برای برش ها دریافت می کنم. به نظر می رسد که متریک برش با P(up) مطابقت ندارد زیرا اگر به مجموعه داده های اصلی برگردم و p(up) > cutoff = 0.48 را فیلتر کنم، tpr بزرگتر از 0.8 دریافت می کنم. rup <- roc(pUp، واقعی) rf <- data.frame(cutoffs = rup$cutoffs, fpr = rup$fpr, tpr = rup$tpr) rf [ rf$tpr > 0.8,] برش fpr tpr 0.480 0.000 0.801 از وقتی که در اختیار ما گذاشتید متشکرم.
قطع ROC چگونه به پیش بینی ها مربوط می شود؟
34844
نسخه کوتاه: ما یک متغیر تصادفی $X$ (قابل مشاهده) و یک متغیر تصادفی $Z$ (پنهان) داریم. ما توزیع های مناسب $P(X|Z)$ و $P(Z;w)$ را انتخاب کرده ایم که $w$ پارامتر مدل است. توزیع ها احتمالاً در خانواده نمایی نیستند، و متغیرها احتمالاً ابعاد بالایی دارند، بنابراین هیچ راه تحلیلی عملی برای ادغام $Z$ وجود ندارد. اکنون، ما یک مشاهده از $X$، $x$ دریافت می کنیم. چگونه گرادیان $d(P(X=x))/dw$ را محاسبه یا برآورد کنیم؟ نسخه بلند: وضعیت زیر را در نظر بگیرید که در آن می‌خواهیم تخمین حداکثر احتمال (MLE) را با استفاده از شیب نزولی تصادفی (SGD) انجام دهیم. ما یک مدل گرافیکی جهت‌دار بسیار ساده با دو متغیر تصادفی $X$ و $Z$ داریم که در آن $X$ مشاهده می‌شود و $Z$ پنهان (پنهان) و یک لبه جهت‌دار از $Z$ به $X$ است. . هر دو بردار تصادفی با ارزش واقعی (احتمالاً با ابعاد بالا) هستند. مدل گرافیکی با توزیع توزیع قبلی $P(Z;w)$ با پارامترهای برخی پارامترها/وزن ها $w$ و یک توزیع شرطی $P(X|Z)$ ارائه می شود. شکل توزیع‌ها در حال حاضر مهم نیست (به جز اینکه لزوماً در خانواده نمایی نیستند، و ارزش واقعی و ابعاد بالایی دارند، بنابراین ادغام Z بسیار گران است). ما می‌خواهیم MLE انجام دهیم، بنابراین می‌خواهیم احتمال داده‌ها (مشاهدات X$) را با تنظیم $w$ به حداکثر برسانیم. ما می دانیم که: $P(x) = \int P(x,z) dz = \int P(x|z)P(z) dz$ اکنون یک مشاهده $x$ از X$ به ما داده می شود، و می خواهیم برای محاسبه گرادیان احتمال w.r.t. وزن آن نقطه داده: $\delta_x = d(P(X))/dw$ چگونه می توان این کار را انجام داد؟ واضح است که مشکل اصلی این است که برای محاسبه $P(X)$ باید $Z$ را ادغام کنیم. با این حال، این برای $Z$ با ابعاد بالا غیرقابل حل است. با گرفتن نمونه های MCMC از $Z$ می توان انتگرال را تقریب زد. با این حال، برای من کاملاً روشن نیست که چگونه گرادیان w.r.t را محاسبه کنم. $w$ در این مورد زیرا $w$ نمونه‌ها را از طریق $P(Z;w)$ تحت تاثیر قرار می‌دهد. کسی ایده ای دارد؟
محاسبه گرادیان احتمال بر روی یک مدل گرافیکی ساده جهت دار با واحد پنهان
66624
من مدل هایی را با استفاده از دوجمله ای منفی «glm.nb()» در R اجرا کرده ام و 3 مدل برتر با AIC بسیار نزدیک (<2) دارم. من به انجام یک مدل میانگین گیری با استفاده از بسته MuMIN فکر می کردم. مشکل من این است که بدانم چگونه با متغیرهای کمکی خود رفتار کنم. در واقع سه مدل من دقیقاً مجموعه ای از متغیرها را ندارند. M1 <- Response_variable ~ Cov1+Cov2 M2 <- Response_variable ~ Cov2:Cov3 M3 <- Response_variable ~ Cov1+Cov2+Cov3 اگر متغیرهای کمکی در همه مدل ها نیستند چگونه می توانم ضرایب را میانگین بگیرم؟ آیا باید 0 را به مدل های خود اضافه کنم؟ > من سعی کردم از summary((model.avg(مدل های کاندید)) و modavg.glm() استفاده کنم، اما > به نظر نمی رسد که هیچ یک از این دستورات نمی خواهند تخمین های من را محاسبه کنند زیرا مدل های > من دوجمله ای منفی هستند. اگرچه وقتی پی دی اف MuMIN را خواندم گفت > که glm.nb توسط model.avg پشتیبانی می شود آیا چیز دیگری وجود دارد که باید > روی دستور بنویسم؟
میانگین گیری مدل - مدل هایی با متغیرهای کمکی مختلف
44501
امیدوارم بتوانید به من کمک کنید... من سعی می کنم بفهمم چگونه آزمایشم را به بهترین شکل تجزیه و تحلیل کنم... طرح نمونه من: من دو رودخانه دارم (رودخانه 1 و 2). در هر دو رودخانه، 5 نمونه بی مهرگان درشت به طور تصادفی از یک ایستگاه 2×10 متری ماهانه (به مدت 12 ماه) گرفته می شود. سپس هر نمونه برای فراوانی کل ماکرو بی مهرگان شمارش می شود. بعد از ماه شماره 4، سیل در رودخانه 1 رخ می دهد. چنین سیلابی در رودخانه 2 رخ نمی دهد. سوال تحقیق من: آیا سیل در رودخانه 1 بر فراوانی بی مهرگان درشت تأثیری داشته است؟ توجه: تجزیه و تحلیل اولیه نشان داده است که (log n+1) داده های فراوانی بی مهرگان درشت برای هر ایستگاه، در هر ماه، تقریباً به طور نرمال توزیع شده و دارای واریانس مساوی هستند. * * * افکار اولیه من: من یک طرح از نوع BACI دارم. تا کنون من یک مدل ANOVA با اندازه گیری های تکراری سه راه را بررسی کرده ام... (عوامل: رودخانه (یعنی رودخانه 1 (تأثیر شده)، رودخانه 2 (کنترل)، ماه و دوره (قبل/پس از سیل)). 3. برای اینکه نمونه‌ها مستقل نباشند، آیا «رودخانه» باید به‌عنوان عامل اندازه‌گیری مکرر در نظر گرفته شود (یعنی یک اثر تصادفی). آیا این طرح متعادل است یا نه نظر دیگری دریافت کنید بسیار مفید خواهد بود، هر گونه سؤال، لطفاً از قبل بپرسید با تشکر فراوان، رابرت
سوال تحلیل طراحی نوع BACI
20357
من روی الگوریتمی کار می کنم که دو پارامتر از داده های ورودی آن را تخمین می زند. من مجموعه ای نماینده از نمونه ها با پارامترهای واقعی دارم تا به عنوان یک حقیقت پایه عمل کند. از آنجایی که این الگوریتم از آستانه ای استفاده می کند که باید به صورت دستی توسط کاربر تنظیم شود، من فکر می کردم که آیا می توان از نمونه های حقیقت زمینی من برای یافتن بهترین آستانه برای مجموعه آموزشی خود استفاده کرد. چگونه می توانم یک متریک خطا را برای دو متغیر وابسته بیان کنم، زیرا برای هر مقدار آستانه و نمونه دو پارامتر تخمین زده شده توسط الگوریتم دارم. من واقعا از هر اشاره ای قدردانی می کنم. پیشاپیش ممنون
متریک خطا برای یک مدل رگرسیون با دو متغیر وابسته
92106
من در حال ارزیابی یک طبقه بندی کننده چند برچسبی هستم. من با آمار Area Under the Curve آشنا هستم که ویژگی های خوبی دارد (به عنوان مثال سطح شانس همیشه 50٪ است). اما برای برخی از برنامه‌ها، استفاده از معیار **متوسط ​​میانگین دقت** مناسب‌تر است که نتایج را بر اساس نتایج $K$ بازگشت داده شده ارزیابی می‌کند. MAP در اینجا در fastml و اینجا در kaggle به خوبی توضیح داده شده است. در مورد من من از MAP@20 استفاده می کنم، بنابراین ارزیابی در 20 نتیجه برتر است. (داده‌های من شامل تعداد متغیری از برچسب‌های مثبت واقعی برای هر مورد، تا 12 است.) اما: امتیاز خوب برای MAP@20 چیست؟ نمره بد چیست؟ امتیاز شانس چقدر است؟ (به وضوح 100٪ بهترین امتیاز و 0٪ بدترین است.) من نمی توانم مرجع آنلاینی پیدا کنم که در این مورد بحث کند. من فکر می کنم امتیاز شانس باید به نسبت برچسب های مثبت به منفی در داده های شما بستگی داشته باشد. همچنین دانستن اینکه آیا تفسیر مفیدی از امتیاز وجود دارد یا خیر مفید خواهد بود. برای AUC تعبیری به عنوان احتمال رتبه بندی یک نمونه مثبت تصادفی بالاتر از یک نمونه منفی تصادفی وجود دارد. ممنون از مراجع یا توضیحات
آمار ارزیابی دقت میانگین متوسط (MAP) - درک مقادیر خوب / بد / شانس
92107
من با یک مجموعه داده SPSS کار می کنم، یک مطالعه مونت کارلو با 5000 کارآزمایی. 5 میانگین و در نتیجه 10 مقایسه برای هر آزمایش وجود دارد. اهمیت آزمون t هر مقایسه و همچنین محدودیت‌های فاصله اطمینان برای هر مقایسه و میزان خطاهای نوع 1 و 2 در هر آزمایش به من ارائه شده است. اساساً باید تشخیص دهم که کدام گروه مقایسه حاوی خطای نوع 1 است، بر اساس t-significance و محدودیت های فاصله اطمینان. من مطمئن نیستم که چگونه باید این کار را انجام دهم، می توانم فرکانسی را اجرا کنم که نشان دهد تعداد خطاها در مجموع آزمایشات چقدر است، اما مطمئن نیستم که چگونه می توانم به طور دقیق مشخص کنم که کدام مقایسه در آزمایشی حاوی این موارد است. خطا بر اساس محدودیت های فاصله اطمینان.
شناسایی خطاهای نوع 1 با استفاده از فواصل اطمینان
92109
اساسا، من خروجی LDA زیر را دارم (در زیر). سوال من این است که واقعا چگونه آن را تفسیر کنم؟ من نتوانستم منابع زیادی را در وب پیدا کنم. به خصوص، گروه به معنای واقعا در اینجا به چه معناست؟ من انتظار داشتم که معنی گروه میانگین / مرکز کلاس های K باشد. علاوه بر این، من با دو عبارت، یعنی ضرایب متمایز کننده خطی و نسبت ردیابی گیج شده ام. 0.09090909 0.09090909 0.09090909 0.09090909 0.09090909 0.09090909 11 0.09090909 معنی گروه: x.1 x.2 x.3 x.1 x.1 x.1 x. -3.359563 0.0629375 -0.2940625 1.2033333 0.38747917 1.2218958 0.09637500 0.03710417 -0.62435416 -0.62435417 0.62435417 -0.62435417 0.62435417 -0.62435416 -0.62435416 -0.0. 0.4906042 -0.5802292 0.8135000 0.20193750 1.0634792 -0.19091667 0.37381250 -0.51595833 0.0806041747470. -0.7983958 0.8086667 0.04245833 0.5692500 -0.28006250 0.20495833 -0.47827083 0.18187500 4 -2.2233258584 -2.21334504 0.4221458 -0.37131250 0.2483542 -0.01895833 0.10714583 -0.32627083 -0.05375000 5 -2.756312 2.27595832 - 2.27595832. -1.03679167 0.3897917 0.23641667 0.42462500 -0.20070833 -0.28070833 6 -2.673542 1.7587708 -0.47462506 -0.47462506 -0.47462506 0.4170000 0.16233333 0.22925000 -0.20750000 0.05270833 7 -3.243729 2.4683542 -0.1050625 0.396750000 - 0.3964985831 0.01958333 0.76229167 -0.03027083 -0.12239583 8 -4.051333 3.2339792 -0.1739792 0.3965833 -1.04601968686760831. 0.82077083 0.10445833 0.02122917 9 -3.876896 2.3450208 -0.3668333 0.3170417 -0.39450000 0.8033376896 -0.23183333 -0.14810417 10 -4.506146 2.6885625 -0.2849167 0.4695625 -0.03879167 0.6388750 0.1391366675 0.63888750 0.1391366675 -0.27335417 11 -2.990396 1.4638750 -0.5098125 0.3716458 -0.38039583 0.7250417 -0.08339583 0.5076366675 - 0.5076366675 - ضرایب ممیز خطی: LD1 LD2 LD3 LD4 LD5 LD6 LD7 LD8 LD9 x.1 -0.904263484 1.0765784 -0.2138645 0.45014309 -0.0156831403 -0.01568319451 -0.01568319451 -0.55370976 -0.21893931 x.2 1.150256514 0.3481586 0.1219356 0.81974744 0.07879069 -1.2828586 0.810438 - 1.2828586 0.819356 -0.46773378 x.3 0.539113617 -0.4775768 -1.3152720 -0.18174531 0.01428301 -1.0421541 1.3953387 0.05648 - 0.05664 0.024636593 -0.6124198 -0.3333835 0.89249728 -1.19422174 -0.2840921 0.6079608 -1.18671349 -0.262352020 -0.262353520 -0.262352174 -1.6078817 1.2374917 0.96925109 -0.17984293 -0.9791226 1.5595892 -0.12322124 0.38252584 x.6 0.7085251040 -0.8767861 -0.06187384 0.84899844 -1.9958303 0.2001485 -0.54892997 -0.82835032 x.7 0.843500553 -0.81056 -0.81056 1.10382558 -1.35657038 -1.0703157 0.5029121 -0.09927612 1.50030138 x.8 1.305220749 -0.9393954 0.9393954 0.9196755 - 0.9393954 -0.85277476 0.1212728 0.6617860 -0.25729462 1.12742075 x.9 0.965050787 -0.5131795 0.6927861 0.6927861 0.60707704 0.6077070 -0.5487891 0.5244975 1.05461865 -0.04187258 x.10 0.352677857 -0.1517412 0.7092612 -0.22606164 -1.0394176 -1.04293 -0.5629667 0.29898796 0.14972818 LD10 x.1 0.01475366 x.2 -0.20534101 x.3 -0.52218214 x.4 0.22298959 x.57 x.50 0.13158053 x.7 0.36516484 x.8 0.30135489 x.9 1.31351481 x.10 -0.23691329 نسبت اثر: LD1 LD2 LD3 LD4 LD5 LD6 LD9 LD5. 0.3518 0.0445 0.0191 0.0107 0.0083 0.0026 0.0011 0.0001 0.0001
چگونه خروجی LDA را در R تفسیر کنیم؟
95337
همه من در یک کلاس آمار کاربردی مقدماتی شرکت می کنم و نمی توانم بفهمم که چگونه یک سوال در مورد تکالیفم انجام دهم. من همه داده ها را قرار نمی دهم، زیرا واقعاً می خواهم بدانم چگونه مشکل را انجام دهم، نه فقط پاسخ را. در مشکل، لیستی از مدارس و شهریه هر مدرسه در سال های 2000 و 2005 به من داده شده است. من مقادیر شهریه سال 2000 را در لیست یک و مقادیر مربوط به سال 2005 را در لیست دو قرار داده ام. از آنجا، من توانستم با اجرای LinReg(a+bx) روی ماشین حساب ti-83، خط رگرسیون حداقل مربعات صحیح را بیان کنم. با این حال، می‌خواهد p-value و t را نیز بداند، و من نمی‌دانم چگونه می‌توان به این مقادیر رسید. ما تشویق می‌شویم از ماشین‌حساب‌هایمان استفاده کنیم، بنابراین اگر کسی بتواند من را در مسیر درست راهنمایی کند، بسیار موظف خواهم بود. :)
رگرسیون خطی: یافتن t و p-value
44503
از من خواسته شده است که داده های مشاهدات میدانی یک جامعه ماهی را تجزیه و تحلیل کنم. داده ها در دو محل نمونه برداری طی 16 روز (غیر متوالی) دو بار در روز جمع آوری می شود. متغیر وابسته زیست توده است. هدف از این مطالعه، یافتن تفاوت‌های بین زیست توده روز/شب و زیست‌توده سطح جزر و مد، و تعامل این دو عامل است. اگر مشاهدات مستقل از یکدیگر بودند، ANOVA مشکلی نداشت. اما در این مورد همه مشاهدات فقط از دو سایت (موضوع) می آیند. با توجه به اینکه تنها دو سایت وجود دارد، از مدل اثر تصادفی یا اندازه گیری های مکرر ANOVA نیز نمی توان استفاده کرد. در این شرایط چه راه حلی می تواند استفاده شود؟
نقض استقلال، ANOVA
61390
اگر درست بگویم، «طبقه‌بندی بدون نظارت» همان خوشه‌بندی است. پس آیا «پسرفت بدون نظارت» وجود دارد؟ با تشکر
آیا «رگرسیون بدون نظارت» وجود دارد؟
66626
بنابراین، ما در حال بررسی یک نسخه خطی بودیم که در آن گروه تحقیقاتی در حال توسعه یک نظرسنجی اضطراب برای دانش‌آموزان زیست‌شناسی سطح بالا بود. این نظرسنجی دارای 25 مورد بود. از طریق فرمت های کاغذی و آنلاین (N = 200-250 در هر بار) مدیریت شد و قابلیت اطمینان با هر فرمت > 0.8 بود. در مرحله دوم، آنها 4 جزء را با استفاده از PCA دریافت کردند، بارگذاری نسبتاً بالا بود (> 0.7) و قابلیت اطمینان خرده مقیاس نیز بسیار بالا بود. بر اساس قابلیت اطمینان و بارگذاری بالای آنها، محققان در حال بررسی این موضوع بودند که آیا موارد نیاز به حذف از مدیریت بعدی بررسی دارند یا خیر. با توجه به آنچه که آنها بیان کردند، هیچ آیتمی با بارگذاری متقاطع وجود نداشت، هیچ آیتمی که به طور مداوم بدون بار نشان داده می شد و 4 جزء آنها معنی دار بود. بنابراین، چرا قابلیت اطمینان بالا، بارگذاری بالا، بررسی 25 مورد و نسبت آیتم: مورد مناسب، سؤال حذف هر موردی را مطرح می کند؟ آیا این تصمیم توجیهی دارد؟
آیا حذف اقلام از ترازو با پایایی خوب توجیه آماری دارد؟
110842
اکثر متونی که در مورد رگرسیون پواسون خوانده‌ام، فرض می‌کنند که داده‌ها به شکل گروه‌بندی‌شده از قبل در دسترس هستند، به‌عنوان مثال، شمارش‌هایی برای هر ترکیب متغیر کمکی منحصربه‌فرد داده می‌شود. به عنوان مثال، ما (در R) DataGrouped<-data.frame(Gender=as.factor(c(M,F))، Counts=c(6,2)) DataGrouped Gender Counts 1 M 6 2 داریم F 2 بنابراین می توانیم از glm (Counts~Gender,data=DataGrouped,family=poisson) برای اجرای پواسون-رگرسیون. با این حال، اغلب ما داده‌های سطح فردی داریم، مانند DataIndividual<-data.frame(PatientID=1:8,Gender=as.factor(c(rep(M,6),rep(F,2) ))) DataIndividual PatientID جنسیت 1 1 M 2 2 M 3 3 M 4 4 M 5 5 M 6 6 M 7 7 F 8 8 F که به وضوح با پایگاه داده فوق یکسان است. سوال این است: چگونه می توانم رگرسیون پواسون را در چنین پایگاه داده در سطح فردی اجرا کنم؟ البته می‌دانم که می‌توانم به سادگی شمارش را خودم انجام دهم، مثلاً با glm(Freq~Var1,data=data.frame(table(DataIndividual$Gender)),family=poisson) اما برایم جالب است که آیا اینطور است بدون شمارش صریح و دستی امکان پذیر است. به خصوص، اینکه آیا می توان به نحوی «DataIndividual» را مستقیماً به «glm» متصل کرد.
آماده سازی داده ها برای رگرسیون پواسون: استفاده از داده های فردی