_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
21203
|
من سعی می کنم روشی را برای مقایسه یک سری زمانی خاص با بیش از 10000 سری زمانی مرجع به صورت برنامه ای تعیین کنم و سری های زمانی مرجع را که می توانند مورد علاقه باشند فهرست کوتاهی ارائه دهم. روشی که من استفاده کردم همبستگی پیرسون بود. برای هر یک از سری های زمانی مرجع، ضرایب همبستگی آنها را محاسبه می کنم و سپس کل لیست سری های زمانی مرجع را به ترتیب نزولی بر اساس ضریب همبستگی مرتب می کنم. سپس N سری زمانی برتر را که دارای بالاترین ضرایب همبستگی هستند، به صورت بصری تجزیه و تحلیل می کنم، که باید بهترین تطابق با سری زمانی داده شده باشد. مشکل اینجاست که من نتایج قابل اعتمادی نمی گرفتم. غالباً سری در محدوده N برتر از نظر بصری به چیزی شبیه سری زمانی داده شده شباهت نداشتند. در نهایت وقتی مقاله کامل زیر را خواندم متوجه شدم چرا: نمی توان از همبستگی به تنهایی برای تعیین اینکه آیا دو سری زمانی مشابه هستند استفاده کرد. کوارتت Anscombe اکنون این یک مشکل با همه الگوریتم های تطبیقی است که نوعی فاصله بین دو سری زمانی را محاسبه می کنند. به عنوان مثال، دو گروه از سری های زمانی زیر می توانند به یک مسافت منجر شوند، اما بدیهی است که یکی بهتر از دیگری است. A => [1، 2، 3، 4، 5، 6، 7، 8، 9] B1 => [1، 2، 3، 4، 5، 6، 7، 8، 12] فاصله = sqrt(0+ 0+0+0+0+0+0+0+9) = 3 B2 => [0، 3، 2، 5، 4، 7، 6، 9, 8] فاصله = sqrt(1+1+1+1+1+1+1+1+1) = 3 بنابراین سوال من این است که آیا فرمول ریاضی (مانند همبستگی) وجود دارد که می تواند در این نوع برای من مناسب تر باشد. از موقعیت ها؟ یکی که از مشکلات ذکر شده در اینجا رنج نمی برد؟ لطفاً در صورت نیاز هرگونه توضیح بیشتر یا بهبود متن سؤال را بخواهید. با تشکر =) ویرایش:  @woodchips، @krystian.. ردیف بالا ده نوار آخر USDCHF-Daily را نشان می دهد که در تاریخ معین به پایان می رسد. .. ردیف دوم 3 نتیجه برتر **روش A** مورد استفاده برای همبستگی را نشان می دهد (توضیح در ادامه خواهد آمد).. ردیف آخر 3 نتیجه برتر **روش را نشان می دهد. ب**.. من از قیمت های بالا-پایین-بسته برای همبستگی استفاده کرده ام.. آخرین تصاویر در هر ردیف چیزی است که من آن را مطابقت خوب می دانم. دلیل آن این است که نقاط عطف سریال برای من مهم تر است. .. تصادفی است که ردیف های آخر بیشترین همبستگی را داشتند.. اما در ردیف آخر می بینید که تصویر دوم شباهت بسیار ضعیفی دارد.. با این حال موفق می شود مخفیانه وارد 3 تای برتر شود. این چیزی است که من را آزار می دهد.. به دلیل این رفتار، مجبور می شوم به صورت بصری به هر همبستگی دسترسی پیدا کنم و آن را بپذیرم / کنار بگذارم. کوارتت anscombe نیز تأکید می کند که همبستگی نیاز به بررسی بصری دارد. به همین دلیل می خواستم از همبستگی فاصله بگیرم و کاوش در سایر مفاهیم ریاضی که شباهت سری را ارزیابی می کنند. **روش A** داده های HLC را در یک سری طولانی اضافه می کند و آن را با داده داده شده مرتبط می کند. سری.. **روش B** داده های H را با داده های مرجع H، L را با L، C با C، و سپس هر سه مقدار را ضرب می کند تا **همبستگی خالص** را محاسبه کند.. بدیهی است که همبستگی کلی را کاهش می دهد، اما احساس می کنم تمایل دارد به **تصحیح** همبستگی های حاصله.. بابت دیر پاسخگویی دوستان عذرخواهی می کنم.. سعی کردم داده ها و کدهای مرتبط را جمع آوری کنم و گرافیکی برای توضیح بسازم. این تصویر یکی از رویدادهای نادر زمانی که همبستگیها کاملاً مشخص هستند.. زمانی که مطابقتهای حاصله بسیار گمراهکننده هستند، گرافیکها درست نمیشوند و به اشتراک میگذارند، حتی اگر مقادیر همبستگی بسیار بالا هستند. الگوریتم ها.. همبستگی و تاب زمانی پویا برای دسترسی به شباهت سری.. برای DTW باید از MSE همونطور که شما گفتید استفاده کنم.. برای همبستگی، میتونم هم از MSE استفاده کنید (که در این صورت برابر است با هزینه مسیر مورب DTW، بدون هیچ گونه تاب خوردگی) و هم از فرمول همبستگی پیرسون واقعی.. تصاویر زیر حاصل استفاده از فرمول همبستگی پیرسون هستند. ارسال کنید و به زودی گزارش دهید. در واقع، من دو سری زمانی مجزا ندارم. فقط یک سری زمانی تقریباً 10000+ امتیاز دارد. من از یک پنجره کشویی عرض N برای همبستگی خودکار سری های زمانی برای مکان یابی وقایع زمانی که سری رفتار مشابه امروزی داشت. اگر بتوانم مطابقت های خوبی پیدا کنم، ممکن است بتوانم حرکت سری زمانی فعلی را بر اساس نحوه حرکت آن پیش بینی کنم. بعد از هر یک از مسابقات مشخص شد.. از بینش شما متشکرم.. =)
|
یک معیار قابل اعتماد برای تشابه سری - همبستگی آن را برای من قطع نمی کند
|
71485
|
من در تلاش برای تفسیر نتایج یک رگرسیون کاکس هستم. من دکتری پزشکی می گذرانم. من عاشق آمار هستم اما سوال من هنوز خیلی ابتدایی است، فکر می کنم، و در تاپیک های قبلی پاسخی پیدا نکردم. من باید مدل های مختلف را مقایسه کنم (فقط چند پیش بینی در هر کدام؛ پیش بینی کننده ها متفاوت هستند، اما گاهی اوقات یک پیش بینی کننده در مدل های مختلف ظاهر می شود؛ مثلاً A+B، A+C، A+D، B+C) با یکسان متغیر زمان تا رویداد چگونه بهترین مدل را انتخاب کنم؟ من در حال مطالعه اصول آماری زیربنایی هستم، اما هنوز متوجه نمی شوم که آیا باید به * کدام مدل بالاترین احتمال ورود را دارد یا خیر. * کدام مدل دارای بهترین p-value آزمون نسبت درستنمایی است (LR chi2). * کدام مدل دارای تمام مقادیر p ضرایب HR (بتا) متغیرهای کمکی است. * یا هر ترکیبی از موارد فوق (به عنوان مثال، فقط مدل هایی را در نظر بگیرید که هم ضرایب LR و هم ضرایب بتا همه متغیرهای کمکی قابل توجه هستند و از بین آنها مدلی را انتخاب کنید که بیشترین احتمال ورود به سیستم را دارد). یا تکنیک آماری دیگری برای انجام آن وجود دارد؟ من از Stata 11.0 استفاده می کنم. من میدانم که اهمیت LR و اهمیت ضرایب بتا چیزهای مختلفی را آزمایش میکنند، اما همچنان باید مدلی را با مثلاً «بهترین توانایی پیشبینی» یا «قویترین ارتباط» انتخاب کنم. پیشاپیش از کمک شما متشکرم! لوکا
|
چگونه می توان مدل ها را در رگرسیون کاکس تفسیر و مقایسه کرد؟
|
81308
|
من سعی می کنم یک مدل خطی از فرم ساده بسازم، y = a + b1*x1 + b2*x2 + b3*x3 + c1*z1 + c2*z2 + c3*z3. ویژگی های مدل عبارتند از 1) هر یک از متغیرهای مستقل متعلق به یک کلاس خاص است، بنابراین در بالا می بینید، x1,x2,x3 3 متغیر هستند که متعلق به کلاس x هستند. برای متغیر z هم همینطور. 2) بین متغیرهای یک کلاس همبستگی قوی وجود دارد، همچنین متغیرهایی که متعلق به کلاس های مختلف هستند همبستگی دارند اما با شدت کمتر. 3) تعداد متغیرها زیاد و تعداد مشاهدات بسیار زیاد است. به عنوان مثال تعداد متغیرها می تواند در مجموع 120 متغیر باشد و مشاهدات یا مقادیر y می تواند مثلاً 1 میلیون باشد. بنابراین این یک مشکل چند خطی نسبتاً بزرگ است. به کارشناسان بیرونی، بهترین راه برای حمله به چنین مشکلی چیست. اساساً من میخواهم بتوانم راههای کارآمدی برای مقابله با چند خطی پیدا کنم. ایده های ممکن، 1) از یک الگوریتم منظم سازی در مسئله کامل استفاده کنید. 2) از روشی برای کاهش تعداد متغیرهای متعلق به یک کلاس استفاده کنید، به عنوان مثال اگر x1 قوی ترین همبستگی را با y دارد، در کلاس خود، فقط x2 و x3 را کنار بگذارید. من در اینجا از pca استفاده میکردم، اما داشتن یک راهحل پراکنده ارزش دارد، به عبارت دیگر ترجیح میدهم کل وزن را روی یک متغیر داشته باشم و بقیه را کنار بگذارم، برخلاف اینکه pca یک بردار بهینه با وزنهای کسری به من بدهد. در x1، x2 و x3 3) دیگران؟ با تشکر
|
برازش کلاس های مشابه بسیاری از متغیرهای خطی
|
49730
|
من در پیچیدن مفهوم رگرسیون لجستیک و تفسیر آن برای متغیرهای غیر بولی مشکل دارم. نمونهای از مطالب درسی ما به شرح زیر است: > محاسبه یک مدل خطی تعمیمیافته در R برای فرمول «like(boolean)~ > highCalories(boolean)»، ضرایب به این شکل هستند > > Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (تقاطع) -0.47367 0.04369 -10.841 < 2e-16 کالری s -0.71497 0.17398 -4.109 3.97e-05 > > با وقفه بودن -0.47 با شانس 1 مورد پسند شدن کالری بالای 0 است logit(-0.47) -> 38.4% > > اگر highCalories 1 باشد، شانس لایک شدن نیز 1 است > logit(-0.47367-0.71497) -> 23.4% بنابراین در مورد متغیر بررسی شده Boolean بودن آن برای من واضح است. . بیایید به مثالی با متغیرهای غیر بولی نگاه کنیم: > Coefficients: Estimate Std. خطای z مقدار Pr(>|z|) (داخل) -3.806e+00 2.801e-01 -13.589 <2e-16 روز -1.934e-03 1.862e-04 -10.387 <2e-16 این برای `MailIsRefound( بولی)~dayofstudy(عددی)` زیرا dayofstudy Boolean نیست، logit برای رهگیری چندان معنی دار به نظر نمی رسد، اما برای روز ما logit(-3.806e+00 -1.934e-03) -> 2.1% دریافت می کنیم این مقدار چگونه تفسیر می شود؟
|
رگرسیون لجستیک با متغیرهای غیر بولی
|
21485
|
Rmse (ریشه میانگین مربعات خطا)، همبستگی تطابق Lin و P30 (درصد نتایج در 30٪ استاندارد طلا) برخی از معیارهای دقت در مطالعات مقایسه روش هستند. اما همه آنها تخمین های نقطه ای هستند، اگرچه می توان 95٪ فواصل اطمینان را با بوت استرپینگ محاسبه کرد. سوالات من این است: 1. چگونه می توان این اقدامات را بین 2 روش مقایسه کرد؟ تست های t جفت نشده؟ تست های تی زوجی؟ 2. چگونه می توان این اقدامات را بین 3 یا چند روش مقایسه کرد؟ اقدامات مکرر ANOVA یک طرفه؟ همبستگی درون طبقاتی در معادله تخمین تعمیم یافته یا مدل مختلط خطی؟ 3. من می توانم MSE (میانگین مربعات خطا) را بین 2 روش یا بین 3 یا چند روش مقایسه کنم زیرا MSE را می توان به عنوان میانگین residual2 محاسبه کرد و ses از residual2 این روش ها به راحتی محاسبه می شود. اما چگونه می توان نتایج مقایسه MSE را به rmse ترجمه کرد؟ 4. آیا می توانید نمایش با کد نرم افزار ارائه دهید؟
|
چگونه معیارهای دقت را در مطالعات مقایسه روش مقایسه کنیم؟
|
1595
|
بسیاری از افراد برای نیازهای آماری خود از ابزار اصلی مانند اکسل یا صفحه گسترده دیگر، SPSS، Stata یا R استفاده می کنند. آنها ممکن است برای نیازهای بسیار خاص به بسته خاصی روی آورند، اما بسیاری از کارها را می توان با یک صفحه گسترده ساده یا یک بسته آماری عمومی یا محیط برنامه نویسی آمار انجام داد. من همیشه پایتون را به عنوان یک زبان برنامه نویسی دوست داشته ام و برای نیازهای ساده، نوشتن یک برنامه کوتاه که نیاز من را محاسبه کند، آسان است. Matplotlib به من اجازه می دهد آن را طرح کنم. آیا کسی به طور کامل از، مثلاً R، به پایتون تغییر کرده است؟ R (یا هر بسته آماری دیگری) دارای عملکردهای زیادی مخصوص آمار است و ساختارهای داده ای دارد که به شما امکان می دهد به آماری که می خواهید انجام دهید فکر کنید و کمتر در مورد نمایش داخلی داده های خود فکر کنید. پایتون (یا یک زبان پویا دیگر) این مزیت را دارد که به من اجازه میدهد به زبانی آشنا و سطح بالا برنامهنویسی کنم و به من اجازه میدهد تا به صورت برنامهنویسی با سیستمهای دنیای واقعی که دادهها در آن قرار دارند یا از آنها اندازهگیری کنم، تعامل داشته باشم. اما هیچ بسته پایتونی پیدا نکردم که به من اجازه دهد چیزها را با اصطلاحات آماری بیان کنم - از آمار توصیفی ساده گرفته تا روش های چند متغیره پیچیده تر. اگر بخواهم از پایتون به عنوان یک میز کار آماری برای جایگزینی R، SPSS و غیره استفاده کنم، چه چیزی می توانید توصیه کنید؟ بر اساس تجربه شما چه چیزی به دست میآورم و چه چیزی را از دست میدهم؟
|
پایتون به عنوان یک میز کار آماری
|
114825
|
من روی تناسب روی لایه مخفی چندگانه کار می کنم. منطقه برنامه من تشخیص کد پین دست نویس است. من از پنج لایه مخفی برای دقت بهتر استفاده کرده بودم. من می دانم که پیچیدگی زمانی افزایش می یابد، اما کار من فقط بر روی دقت متمرکز است. معماری شبکه من به صورت زیر است نمونه ورودی 10 است یعنی از 0 تا 9 لایه ورودی: 15 ردیف x 10 ستون = 150 نورون لایه پنهان 1 = 102 لایه پنهان 2 = 74 لایه پنهان 3 = 49 لایه پنهان 4 = 37 لایه پنهان 29 لایه خروجی 16 نورون به دلیل یونیکد آیا کسی می تواند در هرس این معماری تا حد زیادی به من کمک کند. من مقالات زیادی را ارجاع داده بودم و پس از آن تصمیم گرفتم از این شبکه استفاده کنم.
| |
21484
|
من یک تست بنچمارک جاوا اسکریپت دارم که چندین بار اجرا می کنم و نتایج را در یک آرایه ذخیره می کنم. سپس میانگین، واریانس و انحراف معیار نتایج اجراها را محاسبه میکنم. سوال من این است که آیا از فرمول برای جامعه یا نمونه استفاده می کنم؟
|
در آزمون های معیار آیا باید از فرمول ها با فرض جامعه یا نمونه استفاده کنم؟
|
10669
|
من مدلی را اجرا میکنم که برای آن درصد بسیار بدی از رویدادها در ماتریس سردرگمی شناسایی میکنم (عموماً موارد مثبت واقعی من). بدیهی است که این نشان میدهد که منفیهای کاذب من خیلی زیاد است. وقتی این مجموعه داده را به یک گره شبکه عصبی یا یک گره درخت تصمیم دادم، می بینم که درصد تشخیص توسط این دو تکنیک کاملاً خوب است (65٪ - 67٪ در مقابل ماین 15٪). من به نمودار درخت تصمیم رفتم و برش های مختلفی را دیدم که بر اساس آن جمعیت را تقسیم می کند. واضح است که میدانم متغیری که روی ریشه درخت میافتد بیشترین اهمیت را دارد و برگها کمترین اهمیت را دارند. * درخت تصمیم درخت چگونه می تواند به من در ایجاد متغیرهای طبقه بندی یا رفتار با متغیرهای پیوسته کمک کند تا دقت مدل من بهبود یابد؟ برای روشن شدن، اگر یک درخت تصمیم بتواند ماتریسی با تشخیص 65 درصد تولید کند، برای بدست آوردن چنین دقتی قوانینی در داخل آن وجود دارد. این قوانین در نمودار درختی که به عنوان خروجی دریافت می کنیم نمایش داده می شوند. * آیا می توانیم از این درخت برای ایجاد متغیرها به روشی متفاوت استفاده کنیم و به دقت داده شده توسط درخت تصمیم نزدیک شویم؟
|
خروجی درخت تصمیم -- یادگیری
|
49732
|
من می خواهم درک خود را از فواصل اطمینان برای تخمین های حد محصول از تابع بقا بهبود بخشم. من از کتاب کلاین و موشبرگر به عنوان مرجع استفاده می کنم. تخمینگر حد محصول به صورت $\hat{S}(t)=\prod_{t_i\leq t}(1-\frac{d_i}{Y_i})$ تعریف میشود که در آن $(t_i)_i$ مشاهده میشود، زمانهای سانسور شده، $d_i$ تعداد مرگها در زمان $t_i$ و $Y_i$ تعداد بیماران در مطالعه تا زمان $t_i$ است. واریانس آن را می توان با $\hat{V}(\hat{S}(t))=\hat{S}(t)^2\sum_{t_i \leq t}\frac{d_i}{Y_i(Y_i) تخمین زد - d_i)}$. برای فواصل اطمینان، $\sigma_S^2(t) = \frac{\hat{V}(\hat{S}(t))}{\hat{S}(t)^2}$ را تعریف کنید و اجازه دهید $ Z_a$ صدک $a$ یک نرمال استاندارد را نشان می دهد. سپس فاصله اطمینان خطی با سطح $1-\alpha$ $\hat{S}(t_0) \pm Z_{1-\alpha/2}\sigma_S(t_0)\hat{S}(t_0)$ است. فاصله اطمینان تبدیل شده $[\hat{S}(t_0)^{\frac{1}{\theta}} است، \hat{S}(t_0)^{\theta}]$ با $\theta=\exp(\frac{Z_{1-\alpha/2}\sigma_S(t_0)}{\ln(\hat{S} (t_o)})$ که بر اساس تبدیل تابع خطر تجمعی یا تبدیل تابع بقا از طریق $\ln(-\ln(x))$ است آیا من باید چیزی در مورد آمار مجانبی بدانم؟
|
چگونه می توان فاصله اطمینان را برای تابع بقا ثبت-تغییر داد؟
|
40632
|
من یک سوال در مورد حذف داده های شرکت کننده برای دو تجزیه و تحلیل آماری روی یک نمونه دارم. در اینجا اطلاعات کمی وجود دارد: من دادهها را از یک نمونه جمعآوری کردم (تعداد = 181 دانشآموز) و دو پرسشنامه (یکی در مورد معنویت و دیگری در مورد حالات عاطفی منفی) برای آنها اجرا کردم. من یک تحلیل عاملی اکتشافی بر روی دادههای پرسشنامه معنویت انجام دادم و میخواهم با استفاده از یک رگرسیون خطی چندگانه سلسله مراتبی، عوامل به دست آمده از EFA را با حالتهای هیجانی منفی مقایسه کنم. سوال اصلی من این است: وقتی دادهها را با یک رگرسیون خطی چندگانه سلسله مراتبی تجزیه و تحلیل کردم، SPSS شرکتکنندگانی را (از طریق تشخیص موردی) شناسایی کرد که دادههایشان به دلیل امتیازهای پرت حذف میشد. اگر این موارد را از تجزیه و تحلیل حذف کنم، آیا باید آنها را از نتایج EFA هم حذف کنم؟ (هر دوی این تحلیلها در بخش نتایج همان آزمایش نشان داده میشوند.)
|
آیا می توان یک مورد را از دو تحلیل حذف کرد، در حالی که مورد فقط در یک مورد پرت است؟
|
90218
|
در رگرسیون کاکس، گاهی اوقات اجتناب ناپذیر است که قدرت یک پیش بینی در طول زمان متفاوت باشد (سینگر و ویلت). این فرض تناسب را نقض می کند، اما می تواند در مدل به عنوان یک اصطلاح تعامل بین متغیر کمکی و زمان (یا گزارش زمان) گنجانده شود. چگونه می توان این اصطلاح تعامل (با دست) را ایجاد کرد؟ اگر پیشبینیکننده تنها یک مقدار واحد برای هر موضوع داشته باشد (مثلاً جنسیت با کد 1 یا 0)، چگونه میتوان آن را در زمان ضرب کرد - که برای هر موضوع، مقادیر زیادی به خود میگیرد (به عنوان مثال، اگر زمان بر حسب روز اندازهگیری شود، و مطالعه 100 روز طول می کشد، سپس $t=\\{1,...,100\\}$)؟ آیا مقدار پیشبینیکننده در زمان رویداد ضرب میشود (مثلاً مرگ)؟ من از برخی منابع خواندهام که شما مقدار متغیر کمکی را در یک تابع زمان ضرب میکنید، اما مطمئن نیستم که این درست است یا اینکه چگونه میتوان این کار را در یک مجموعه داده با دست انجام داد.
|
چگونه در رگرسیون کاکس یک عبارت متقابل متغیر × زمان ایجاد کنیم؟
|
13485
|
با استفاده از روشهای «R plot()» و «plotcp()»، میتوانیم مدل رگرسیون خطی (Lm») را به عنوان معادله و مدل درخت تصمیم («rpart») را بهعنوان درخت تجسم کنیم. ما میتوانیم مدل k-نزدیکترین همسایه را با استفاده از روش R `kknn()` توسعه دهیم، اما من نمیدانم چگونه این مدل را ارائه کنم. لطفاً چند روش R را به من پیشنهاد دهید که نمودارهای خوبی برای تجسم مدل knn ایجاد می کند.
|
نزدیکترین همسایه را تجسم میکنید؟
|
49737
|
من یک سوال در مورد نمودار نیم متغیری دارم: فرض کنید من 50 نقطه داده را از میدان تصادفی گاوسی (با استفاده از تابع grf در R) تولید کردم و فرض کنید که مدل کوواریانس نمایی با $\sigma^2 = 1$ و $\phi=0.5 داریم. $، و $\phi$ در اینجا نشان دهنده محدوده ای است که می تواند به عنوان فاصله ای که در آن اختلاف واریوگرام از آستانه تبدیل می شود تعریف شود. ناچیز. بنابراین وقتی نیم متغیری را برای داده های تولید شده رسم می کنیم، فرض می کنیم که محدوده قرار است حدود 0.5 باشد، اما اینطور نیست! این کدی است که من استفاده می کنم. کسی می تواند توضیح دهد که چه اتفاقی می افتد، یا من چیزی را گم کرده ام؟ با تشکر ![grd <- expand.grid(seq(0, 1, l=5), seq(0, 1, l=5)) sdata <- grf(50, grid=reg, cov.pars=c( 1، 0.5)، cov.model=exponential) نمودار (sdata)][1]
|
تولید داده با استفاده از grf و ترسیم واریوگرام آن - تفسیر نتایج
|
30919
|
من در حال انجام تحقیقاتی هستم که شامل مشاهده بصری / گرافیکی تفاوتهای بین اشکال توزیعهای نمونههای مختلف است. من میخواهم این فرآیند را خودکار کنم (حداقل تا حدودی)، تا بتوانم تعداد نمونههایی را که نگاه میکنم (و همچنین سرعت بخشیدن به کارها، کاهش خطای انسانی و غیره) مقیاسبندی کنم. آیا راهی برای _توصیف/اندازه گیری کمی شکل یک توزیع_ وجود دارد تا بتوان مقایسه بین اشکال را به صورت الگوریتمی انجام داد؟
| |
46905
|
من در حال تلاش برای پیدا کردن E[Y|X] هستم که فقط با توجه به این واقعیتها: ${\bf P[Y=y] = 2/3، y=0 }$ ${\bf 1/3، y=1 } ${\bf 0 $، دیگری }$ و ${\bf P[X=x|Y=y] = 2/3، x,y=0}$ یا ${\bf x,y=1 }$ ${\bf 1/3, x,y=1,0}$ or ${\bf x,y=0,1}$ ${\bf 0, other}$ من سعی می کنم این را با استفاده از قضیه بیز حل کنم. که: ${\bf f_{y|x}(y|x) = P[X=x|Y=y]\cdot P[X]/P[Y]}$ آیا این راه درستی برای حل کردن است مشکل؟
|
انتظار شرطی متغیرهای گسسته
|
10667
|
من باید برای هر محصول p، نسبت شانس مرتبط (موفقیت/شکست) را ارزیابی کنم. داده ها در این جدول هستند: N_success N_trials p1 p2 p3 p4 p5 5 310 n n n n n 17 700 n y n n y 12 650 y y y n n 27 214 n y n n n n n n n 0 نسبت شانس برای هر به علاوه 95٪ فواصل اطمینان مجانبی: p1 = (0.2558322 0.48442194 0.91725993) p2 = (1.1584454 2.9114056 7.316940 7.316946 7.316946 7.316946 7.316946 7.316946 7.316946 7.3169046 7.3169046 7.316944 (3548. 0.91725993) p4= nil p5= (1.738197 3.0642326 5.4018736) حال آیا این روش درستی برای ارزیابی است؟ حداقل دو موقعیت وجود دارد که 95٪ CI پایین OR بالاتر از 1 است (p2 و p4) اما آیا نباید چندین مقایسه را در نظر گرفت؟ بهترین راه برای انجام این کار با نسبت شانس (بونفرونی، دیگران) چیست؟ آیا استفاده از رگرسیون لجستیک (و چگونه) بهتر است؟ با تشکر
|
نسبت شانس مقایسه های متعدد
|
54723
|
من یک داده اصلی 18 متغیری داشتم. من تجزیه و تحلیل اجزای اصلی را انجام دادم و آن را به 6 رایانه شخصی تبدیل کردم که 75٪ از واریانس داده های اصلی را توضیح می داد. من 6 رایانه شخصی را دسته بندی کردم. برای آن، من ابتدا از پیوند متوسط برای محاسبه مقدار میانگین نمرات رایانه شخصی با تعداد مشخصی از خوشه ها استفاده کردم (من 3،4،5،6 را امتحان کردم). سپس از میانگین مقادیر و تعداد خوشه ها به عنوان دانه برای K معنی خوشه بندی استفاده کردم و 4 خوشه به دست آوردم. الان یه مشکلی برام پیش اومده از چه آزمونی باید استفاده کنم تا بدانم روش خوشه بندی چقدر مهم است؟ یک راه البته محاسبه میانگین و انحراف معیار 18 متغیر اصلی با هر یک از چهار خوشه است. اما من به دنبال یک آزمون آماری هستم که بتواند ثابت کند که 4 مجموعه داده جدید مستقل هستند و خوشه بندی قابل توجه است.
| |
100257
|
دریافتم که در رگرسیون خطی برای بررسی کیفیت مدل میتوانید به نمودارهای شرح داده شده در زیر نگاه کنید (سوالات من به صورت پررنگ هستند). 1. نمودار پراکندگی: نمودار Y در برابر هر X به طور جداگانه 2. نمودار پراکندگی: نمودار باقیمانده در برابر هر X در مدل به طور جداگانه * **آیا باید به طور مساوی در اطراف طرح بدون هیچ شکل یا شکل خاصی پراکنده شود؟** 3. نمودار پراکندگی: نمودارهای باقیمانده را در برابر هر X به طور جداگانه در مدل ترسیم کنید (اگر خطی باشد!) نقاط داده به طور مساوی در اطراف خط افقی 0 پراکنده شوند؟** 5. نمودار QQ معمولی باقیمانده ها (فرض نرمال بودن را بررسی کنید.) همچنین: نمودار باقیمانده در مقابل متغیر Y چه چیزی را نشان می دهد و چگونه باید به نظر برسد؟ مال من اینجوری به نظر میرسه، به نظر خوبه؟  گرتز استفان
| |
53075
|
من دو سری اعداد $A$ و $B$ دارم که هر کدام حدود یک میلیارد امتیاز دارند. من هر کدام را در پنجره هایی از مشاهدات با اندازه های مختلف شکستم. بنابراین برای اندازه پنجره 1000 دلار، من به مشاهدات 1-1000 دلار، ~ 1001-2000، ~ 2001-3000 دلار و غیره نگاه کردم. سپس مقدار متوسط سری را در هر پنجره محاسبه می کنم. سپس به همبستگی بین مقادیر میانگین سری $A$ و سری $B$ نگاه می کنم. من این را برای اندازه های پنجره 100، ~ 1000، ~ 10،000 دلار و 100،000 دلار امتحان کردم. من متوجه شدم که همبستگی برای اندازه پنجره 100 دلار و 1000 دلار بسیار کم 0.001 دلار و 0.002 دلار است. با این حال، با 10000 دلار و 100000 دلار شروع به دیدن همبستگی هایی مانند 0.4 دلار و 0.5 دلار کردم. با یک جفت دیگر از سری $C$ و $D$. من تقریباً 0.98 دلار در محدوده 100، 1000 دلار و 100،000 دلار دریافت کردم. با این حال، در محدوده 10000 دلار من 0.9999 دلار دریافت کردم. آیا این سناریو روابط معنیداری را در دادههای من نشان میدهد؟ فردی که در آمار مسلط تر است چه چیزی را از این موضوع می گیرد؟ آیا روش های پیچیده تری برای بررسی این نتیجه (مانند آزمون آماری) وجود دارد؟
|
همبستگی بین میانگین ها در فواصل گسسته طول ثابت
|
13487
|
من با استفاده از دستورات زیر با ggplot2 بازی میکردم تا خطی را به دادههایم تطبیق دهم: ggplot(data=datNorm، aes(x=Num، y=Val)) + geom_point() + stat_summary(fun.data = mean_cl_boot، geom=errorbar، colour=red, width=0.8) + stat_sum_single(median) + stat_sum_single(mean, colour=blue) + geom_smooth(level = 0.95, aes(group=1), method=lm) نقاط قرمز مقادیر میانه هستند، آبی میانگین هستند و خطوط قرمز عمودی نوارهای خطا را نشان می دهند. . به عنوان آخرین مرحله، من از «geom_smooth» برای جا دادن یک خط با استفاده از هموارسازی خطی استفاده کردم، بنابراین از «method=lm» استفاده کردم. همراه با خط، یک سایه کسل کننده نیز در اطراف خط ایجاد شد. در حالی که فهمیدم چگونه آن را از مستندات حذف کنم، گزینه ای که برای خاموش کردن آن استفاده کردم این است: se: نمایش فاصله اطمینان در اطراف صاف؟ لطفاً کسی می تواند به من بگوید که من باید از سایه اطراف خط چه چیزی را بفهمم؟ به طور خاص، من سعی می کنم بفهمم چگونه آن را تفسیر کنم. شاید برای خط مناسب باشد، اما هر گونه اطلاعات اضافی می تواند برای من بسیار مفید باشد. پیشنهادی دارید؟ 
|
این تاری دور خط در این نمودار به چه معناست؟
|
2628
|
تصور کنید باید در مورد تعداد داوطلبانی که سالانه در یک آزمون شرکت می کنند، گزارش دهید. استنتاج درصد موفقیت مشاهده شده، به عنوان مثال، بر روی یک جمعیت گسترده تر به دلیل خاص بودن جمعیت هدف، بسیار دشوار به نظر می رسد. بنابراین ممکن است در نظر بگیرید که این داده ها کل جمعیت را نشان می دهند. آیا نتایج آزمایش هایی که نشان می دهد نسبت های نر و ماده متفاوت است واقعا درست است؟ آیا آزمونی که نسبتهای مشاهده شده و نظری را با هم مقایسه میکند، درست به نظر میرسد، زیرا شما یک جامعه کامل (و نه یک نمونه) را در نظر میگیرید؟
|
استنتاج آماری زمانی که نمونه، جامعه باشد
|
67028
|
اگر بخواهم آمار را روی لینوکس انجام دهم، مزایا و معایب بین Sage و Python در مقابل R چیست؟ من می دانم که می توانم از R در داخل Sage استفاده کنم، اما به چه ترتیبی باید آن برنامه ها را مطالعه کنم؟
|
آیا مطالعه Sage+Python یا R در آمار مفیدتر خواهد بود؟
|
102787
|
من حدس میزنم که این موضوع باید به نحوی کلیشهای باشد، اما نتوانستم پاسخی را پیدا کنم که مرا راضی کند. نقش کلیدی آمار و اقتصاد سنجی، استنتاج در مورد جمعیت با استفاده از برخی داده های نمونه است. کار بر روی دادههایی که کل جمعیت را در بر میگیرد (که معمولاً در هر شرکتی یک مورد است که ما به اطلاعاتی که همه مشتریان را توصیف میکند دسترسی داریم)، ساخت مدلها، آزمایش فرضیهها. آیا هنوز آمار است یا فقط راهی برای نتیجهگیری ساده از دادهها (اما نه). استنتاج کردن)؟
|
استنتاج آماری
|
112801
|
من ظاهراً کورکورانه این نشریه را دنبال میکنم که کارهایی بسیار شبیه به آنچه که باید انجام دهم انجام داده است (صفحه 18-21). تحلیل من یک رگرسیون لجستیک چند جمله ای است که در آن 3 نتیجه ممکن 0، 1 یا 2 فرزند تولید می شود. در این نشریه، آنها تست Hosmer-Lemshow و Persons را برای تناسب اندام توصیه کرده اند. من فقط نحوه انجام تست Hosmer-Lemshow را فهمیده ام و نتایج من چندان خوب نیست (یعنی P-val 0.00002 است). من نمی دانم چگونه تست پیرسون را انجام دهم (پیشنهادات قابل قبول هستند). مقاله ای که من دنبال می کنم، البته تست های آنها برای تناسب مدل خوب است (صفحه 21). اما آنها سپس پیشنهاد می کنند که Somers D، گامای Goodman-Kruskala و Tau-a کندالز همگی نشان می دهند که مدل های آنها مناسب هستند. اما این مقاله هیچ یک از مقادیر این شاخص ها یا نحوه محاسبه آنها را گزارش نمی کند. من به تازگی یک بسته ryouready پیدا کرده ام که همه این تست ها را اجرا می کند. با این حال، من در یافتن کمکی برای توضیح معنای مقادیر با مشکل مواجه بوده ام، چه رسد به اینکه بدانم آیا متغیرهایم را به درستی وارد کرده ام یا نه. متغیر پاسخ من تعداد فرزندان است، بیشتر متغیرهای توضیحی من مانند سن یا خطر پیوسته هستند. آیا باید میانگین هر متغیر توضیحی را در هر متغیر پاسخ محاسبه کنم (میانگین ریسک برای 1 فرزند، میانگین ریسک برای 2 فرزند و غیره...) و سپس آنها را با هم مقایسه کنم؟ همچنین به نظر می رسد که این تست ها برای جداول 2*2 باشد. اگر من فقط به دنبال ریسک باشم، جدول من 1x3 خواهد بود. با این حال، مدل کامل من 4 متغیر خواهد داشت (سن، خطر، bp، و #فرزند سال قبل). همانطور که احتمالاً می توانید بگویید، من در اینجا در تاریکی هستم که از کجا شروع کنم. من از خواندن پیشنهادی، سخنرانیهای پیدیاف یا ویدیوهای سخنرانیها حتی بهتر میتوانم قدردانی کنم! ویرایش/بهروزرسانی: من تستها را روی تعدادم انجام دادهام - 2 دوره زمانی (قبل/پس از) و سپس تعداد فرزندان در هر کلاس (0،1،2) دارم. من نمی دانم چگونه ارزش ها را تفسیر کنم - چه چیزی خوب است. من باید به دنبال چه چیزی باشم؟ هر منبعی که این مقادیر را توضیح دهد، دیدن آن خوب است. آمار تاو کندال (و استوارت) Tau-b: 0.143 Tau-c: 0.130 سامرز d: ستون های وابسته: 0.151 ردیف وابسته: 0.136 متقارن: 0.143 گودمن-کروسکال گاما: 0.312 رقم، پیام اخطار: فرمت هایC = فرمتx f): کلاس از x کنار گذاشته شد
|
آیا از گامای Goodman-Kruskal یا Somers D یا Kendall tau به درستی استفاده می کنم و معنی آنها چیست؟
|
10662
|
من در حال کار با داده های زیادی هستم که توسط متخصصین زنان و زایمان در مورد سلامت نوزادان جمع آوری شده است (وزن هنگام تولد، سن بارداری در هنگام زایمان، BMI مادر) و سعی می کنم این داده ها را با اندازه گیری های هندسی انجام شده بر روی اسکن اسلاید میکروسکوپی برای هر یک از آنها مرتبط کنم. جفت مرتبط (مساحت، محیط، تعداد عروق خونی). هر سه گانه مادر-شیرخوار-جفت با شناسه آزمایشگاهی شناسایی می شود، بنابراین می توان فهمید کدام کدام است، اما تنها 27 مجموعه از مادر-شیرخوار- جفت وجود دارد. تمام اطلاعات بالینی قبل از رسیدن من به صحنه گرفته شد. تقریباً تصاویر اسلاید جفت و یک برگه اکسل از اطلاعات بالینی به من داده شد. سپس اندازه گیری های هندسی جفت را انجام دادم. بنابراین داده ها با هدف من گرفته نشده است. سوال من این است که با این داده ها چه کاری می توانم انجام دهم؟ من اندازهگیریهایی را با دانش بالینی جمعآوری کردم که وضعیت جفت هم تأثیری بر سلامت نوزاد دارد و هم بازتابی از آن. اما من شدیداً به راهنمایی نیاز دارم که از کدام تکنیکهای آماری/دادهکاوی استفاده کنم تا ببینم اندازهگیریهای من چگونه بر سلامت نوزاد تأثیر میگذارند/معنای هستند. آیا امیدی برای تجزیه و تحلیل موقت در حجم نمونه کوچک وجود دارد؟
|
با یک مجموعه داده پزشکی کوچک (27) چه باید کرد؟
|
91332
|
من دلیلی را به خاطر دارم که نظریه احتمال بیزی تنها روش معتبر برای نشان دادن باورها است، چیزی شبیه به 1. ما باور را با یک تابع غیر منفی بر روی برخی از دامنه های نتایج نشان می دهیم. 2. باورها فرعی هستند 3. ... بنابراین نظریه احتمال بیزی تنها رویکرد معتبر برای بازنمایی باورها است. ایده این است که تحت مفروضات بسیار اساسی و کلی برای آنچه که یک «تابع باور» را تشکیل میدهد، در نهایت «باور» را با احتمالات بیزی مدل میکنید. یادم رفته کجا دیدمش کسی این مدرک رو میدونه؟ یا ارجاع به اصل؟ **ویرایش** تا اینجا بهترین سرنخ که پیدا کردم این است که در: Savage, L. J. (1954) ارائه شده است. بنیاد آمار، ویرایش دوم، دوور، نیویورک. (که نسخه ای از آن ندارم)
|
توجیه رسمی استنتاج بیزی به عنوان مدلی برای باور
|
58626
|
> فرض کنید $X_1، X_2، \dots، X_n$ i.d $N(\theta، 1)،\theta_0 \le \theta > \le \theta_1$ هستند، که $\theta_0 \lt \theta_1$ دو عدد مشخص شده هستند. > MLE $\theta$ را پیدا کنید و نشان دهید که بهتر از میانگین نمونه $\bar X$ > به معنای داشتن میانگین مربعات خطای کوچکتر است. آزمایشی: در اینجا MLE $\theta$ $$\hat\theta = \begin{cases} \theta_0, &\bar X \lt \theta_0\\\ \bar X, &\theta_0 \le \bar X \le است \theta_1 \\\ \theta_1, &\bar X \gt \theta_1 \end{cases}$$ نمیتوانم نشان دهم که $E[(\hat\theta -\theta)^2] \lt Var(\bar X)=\dfrac{1}{n}$.
|
چگونه نشان دهیم که $E[(\hat\theta -\theta)^2]<Var(\bar X)=\dfrac{1}{n}$؟
|
10664
|
من سعی می کنم یک گروه 4 سوالی را که در مقیاس 5 درجه ای هستند تجزیه و تحلیل کنم. من باید پاسخ های هر سوال را بر اساس سن گروه بندی کنم. سه سن مختلف وجود دارد. چگونه می توانم این کار را انجام دهم؟
|
چگونه با استفاده از SPSS تفاوت های گروهی را در چندین مورد 5 نقطه ای بررسی کنیم؟
|
58628
|
میخواهم ببینم آیا فروشندهای نسبت به یک نوع وسیله نقلیه نسبت به نوع دیگر تعصب دارد یا خیر. من دو دسته خودرو دارم: OWN و T/C. فروشنده به این خودروها سوخت می فروشد. فرآیند به شرح زیر است: 1. خودرو درخواست را به فروشنده ارسال می کند. 2. فروشنده ممکن است تصمیم بگیرد به این درخواست عمل نکند. 3. اگر فروشنده بخواهد اقدام کند، با یک پیشنهاد پاسخ خواهد داد. من تعداد درخواستهایی (R_o / R_t) را دارم که تامینکننده از هر یک از دستههای خودرو دریافت کرده است، و تعداد پیشنهادات (O_o / O_t) که به آنها پاسخ داده است. من اساساً سعی میکنم بفهمم که آیا فروشندهای بر اساس دستهبندیها نسبت به خودروی T/C در مقایسه با خودروی شخصی تعصب دارد یا خیر. من کمی با بررسی وابستگی Chi-square آشنا هستم، و به نظر می رسد که این ممکن است بهترین روش باشد، اما به اندازه کافی به دانش خود در مورد آن اطمینان نداشتم که بدون مشورت با افراد آگاه تر، آن را اجرا کنم. امیدوارم وقت داشته باشید که در این مورد به من کمک کنید. محاسبه Chi-square: مشاهده شده: T/C OWN مجموع بدون پیشنهاد 54 328 382 پیشنهادات دریافت شده 22 230 252 مجموع 76 558 634 مورد انتظار: T/C OWN مجموع تعداد پیشنهادات 45.79 336.21 336.21 22025 76 558 634 X^2-calc: (O-E)^2/E 1.45 0.20 2.26 0.30 X^2 4.21
|
رویکرد بهینه به بررسی استقلال
|
93408
|
من با مدل سازی سری های زمانی نسبتاً تازه کار هستم و برای کاری که انجام داده ام موفقیت خوبی داشته ام (از نظر خطای پیش بینی) ابتدا با تقسیم داده ها به اجزای روند و چرخه با استفاده از فیلتر هودریک-پرسکات و سپس نصب دو کاملاً مستقل. مدل به دو جزء. یک پیشبینی برای دادههای اصلی بدیهی است که مجموع پیشبینیهای این دو مدل است. به طور کلی، آیا این کار توصیهای است، برخلاف استفاده از تکنیک مدلسازی که به صراحت اجزای مختلف فرآیند را در مدل مدلسازی میکند؟ بیشتر مراجعی که من برای فیلترها دیدهام، مانند هودریک-پرسکات، بر تحلیل الگوها در دادههای گذشته تمرکز دارند، در مقابل پیشبینیهای خاص. یکی از دلایلی که من به این رویکرد نگاه کردم این بود که سریهای زمانی مورد نظر چندین مؤلفه مشابه فصلی دارند، اما با طول دورههای فازی که بهطور تصادفی در طول زمان تغییر میکنند، بنابراین مدلهای «فصلی» معمولی واقعاً کار نمیکنند. حداقل تا جایی که من می توانم نحوه پیاده سازی را ببینم.
|
آیا فیلترهای روند/چرخه برای استفاده در مدل های پیش بینی در نظر گرفته شده اند یا فقط تحلیل؟
|
55571
|
تفاوت p.values در aov و lm زیر چیست؟ آیا تفاوت فقط به دلیل انواع مختلف محاسبات مجموع مربع است؟ set.seed(10) data=rnorm(12) f1=rep(c(1,2),6) f2=c(rep(1,6),rep(2,6)) خلاصه(aov(data~f1 *f2)) خلاصه (lm(data~f1*f2))$coeff متشکرم!
|
R، تفاوت بین lm و aov
|
90214
|
تفاوت بین تست t و کنتراست تست شده با استفاده از آزمون t چیست؟ چه زمانی از یک کنتراست F به جای یک کنتراست t معمولی استفاده می شود؟ آیا رابطه بین این دو با آزمون ANOVA و t-test یکسان است؟ در نهایت، آیا پاسخ به هر یک از سوالات بالا به این واقعیت مربوط می شود که یک کنتراست تفاوت برای یک عامل با سطح N دارای ستون های N-1 خواهد بود؟ (به عنوان مثال، کنتراست تفاوت فقط یک بردار (-1،1) برای عوامل با 2 سطح است)
|
سردرگم در مورد کنتراست های t، کنتراست های F و تست های مرتبط (آزمون t، ANOVA)
|
58620
|
من یک مجموعه داده $Y$ دارم، هر عنصر $y_i$ در $Y$ دارای متغیر کمکی $\lambda_i$ است. در اینجا، من میخواهم از رگرسیون پواسون برای برازش یک مدل استفاده کنم: «glm(Y ~ $\lambda$، خانواده = poisson، داده = ..). سپس با توجه به مشاهده جدید $y_k$ و متغیر کمکی $\lambda_k$، فرض کنید داده های جدید از مدل برازش شده پیروی می کنند، چگونه می توانم از R برای محاسبه احتمال مشاهده $y_k$ و $\lambda_k$ استفاده کنم.
|
نحوه محاسبه احتمال پیش بینی شده مدل رگرسیون پواسون
|
21486
|
میدانم که این موضوع ذهنی است، اما فکر کردم خوب است که در مورد مجموعه دادههای مورد علاقه خود و آنچه فکر میکنیم آنها را جالب میکند صحبت کنیم. انبوهی از دادهها وجود دارد، و در مورد همه APIها (به عنوان مثال، Datamob) به همراه مجموعه دادههای کلاسیک (به عنوان مثال، دادههای R)، فکر میکنم این میتواند پاسخهای بسیار جالبی داشته باشد. به عنوان مثال، من همیشه مجموعه داده هایی مانند مجموعه داده بوستون مسکن (با وجود پیامدهای تاسف بار) و mtcars را به دلیل تطبیق پذیری آنها دوست داشته ام. از نقطه نظر آموزشی، می توان شایستگی طیف گسترده ای از تکنیک های آماری را با استفاده از آنها نشان داد. و مجموعه داده عنبیه اندرسون/فیشر همیشه در قلب من جایی خواهد داشت. افکار؟
|
مجموعه داده های خوبی برای نشان دادن جنبه های خاص تجزیه و تحلیل آماری چیست؟
|
56015
|
من مجموعه ای متغیر از پاسخ ها دارم که به صورت بازه ای مانند نمونه زیر بیان می شوند. > head(چپ) [1] 860 516 430 1118 860 602 > head(راست) [1] 946 602 516 1204 946 688 که در آن سمت چپ کران پایین و سمت راست کران بالایی پاسخ است. من می خواهم پارامترها را با توجه به توزیع لگ نرمال تخمین بزنم. برای مدتی که سعی میکردم احتمالات را مستقیماً محاسبه کنم، با این واقعیت دست و پنجه نرم میکردم که از آنجایی که دو کران بر روی مجموعهای از پارامترهای مختلف توزیع میشوند، مقادیر منفی مانند زیر را دریافت میکردم: > Pr_high=plnorm(wta_high,meanlog_high,sdlog_high ) > Pr_low=plnorm(wta_low، meanlog_low، sdlog_low) > Pr=Pr_high-Pr_low > > head(Pr) [1] -0.0079951419 0.0001207749 0.0008002343 -0.0009705125 -0.0079951419 -0.0079951419 -0.0001207749 0.0008002343 -0.0009705125 -0.0079951419 واقعاً نمی توانم از آن استفاده کنم نقطه میانی بازه به جای آن که مصالحه خوبی است تا زمانی که تابع mledist را پیدا کردم که احتمال منطقی یک پاسخ بازه را استخراج می کند، این خلاصه ای است که دریافت می کنم: > mledist(int, distr=lnorm) $estimate meanlog sdlog 6.9092257 0.3120138 $همگرایی [1] 0 $loglik [1] -152.1236 $hessian meanlog sdlog meanlog 570.760358 7.183723 sdlog 7.183723 1112.098031 $optim.function [1] optim $fix.arg NULL پیام های اخطار = 1: در cnorm، 69، 1: 1: 1، 694 (1: pl. 1204L, 946L, 688L, 1376L, 1376L, : NaNs تولید شده 2: در plnorm(q = c(860L, 516L, 430L, 1118L, 860L, 602L, 1290N NaNs مقدار تولید شده به 1 و احتمال منطقی بیشتر از هر روش دیگری است که من استفاده کرده ام (توزیع نقطه میانی یا توزیع یکی از کران ها). یک پیام هشدار وجود دارد که من متوجه آن نمی شوم، بنابراین آیا کسی می تواند به من بگوید که آیا کار را درست انجام می دهم و این پیام به چه معناست؟ از کمک قدردانی کنید!
| |
90212
|
این سوالی است که امیدواریم مفاهیم گاه آشفته اهمیت آماری و اندازه اثر را باز کنیم. تا آنجا که من درک می کنم، اندازه نمونه رابطه بین آنها را واسطه می کند، به طوری که، در حالی که اغلب مقادیر پایین $p$ با اثرات بزرگ مطابقت دارد، می توانید برای جلوه های کوچک با حجم نمونه بزرگ اهمیت پیدا کنید، یا برعکس - اثری که می دانید بزرگ است ممکن است به دلیل حجم نمونه کوچک نامناسب اهمیت پیدا نکند. آیا این درست است که بگوییم، با توجه به آزمون t نمونه های مستقل برای اندازه نمونه ثابت $N$ (2 گروه از $N/2$ مورد هر کدام)، معیار پایایی آماری ($p$) واقعاً یکسان است. به عنوان (یعنی وابستگی ساده به) اندازه اثر (به عنوان مثال $d$ کوهن)؟ به عبارت دیگر، اگر $N$ را ثابت نگه دارید، به محض اینکه اندازه اثر ($d$) از یک آستانه خاص فراتر رفت، به اهمیت ($p$-value) میرسد؟
|
تناسب (معکوس) بین اهمیت و اندازه اثر، برای یک حجم نمونه ثابت؟
|
7809
|
من سعی می کنم یک متریک تشابه ساده پیدا کنم که بردارهایی با طول نامشخص را مقایسه کند. این بردارها با مقادیر بین 1 و 5 پر می شوند. در این شرایط یک 1 به 2 نزدیکتر است سپس به 5 و غیره است. من با این نوع ریاضیات تازه کار هستم. من ساده لوحانه به استفاده از شباهت کسینوس فکر کردم. با این حال، وقتی بیشتر به این موضوع نگاه کردم، متوجه شدم که این احتمالاً معیار مناسبی برای این نوع محاسبه نیست. پیشاپیش متشکرم و بابت سوال مبتدی پوزش می طلبم. توجه: من این را در PHP برنامه نویسی خواهم کرد.
| |
49738
|
من خوانده ام که ترفندهای هسته SVM مربوط به مشاهده داده ها در ابعاد بالاتر است. من می توانم ببینم که بسط هسته مانند یک محصول متقابل از بسیاری از اصطلاحات مختلف به نظر می رسد. با این حال، به نظر می رسد ضرایب بین همه این عبارت ها محدود است. به عنوان مثال برای هسته چند جمله ای ناهمگن (با ابعاد ثابت) تنها یک پارامتر وجود دارد که می تواند بین عبارت های مرتبه پایین و مرتبه بالا در فضای هیلبرت (?) نمایش داده شود. آیا من نکته ای را از دست داده ام یا فقط شبه بعدی است؟ آیا راه آسانی برای توصیف این که هسته چند جمله ای ناهمگن چه نوع مرزهایی را می تواند توصیف کند وجود دارد؟ یا فقط تابع مناسبی است که فقط با اعتبارسنجی متقابل قابل توجیه است؟
|
آیا ترفند هسته با ابعاد واقعی بالاتر مطابقت دارد؟
|
90216
|
من یک رشته آمار نیستم بلکه فقط یک رشته ریاضی کاربردی هستم و برای پروژه ای که انجام می دهم به کمک نیاز دارم. اساساً، ما برای 40 هفته یا بیشتر داده داریم و برای هر هفته تعدادی مورد وجود دارد. من دادههای سالهای 2002 تا 2013 را دارم، اما هرچه سالها پایین میرویم، دادههای کمتری داریم (0 داده در برخی سالها نیز). i.stack.imgur.com/ZpQeF.png) که به نظر من نوعی توزیع گاما است. با این حال، برای سال 2003، چیزی شبیه این به نظر می رسد: هفته cnt 7 4 35 2 36 3 37 2 38 2 40 1 بنابراین تصویر به نظر می رسد:  با این داده ها چه کاری می توانم انجام دهم؟ برای روشن شدن، من سعی نمی کنم الگویی بین سال ها ببینم. من سعی خواهم کرد الگویی بین برخی عوامل دیگر و این داده ها ببینم. آیا می توانم 0 ها را برای هفته های از دست رفته اضافه کنم؟ آیا باید 4 هفته را در یک ماه ترکیب کنم و ماه ها در محور x باشم (هنوز از دست داده های از دست رفته خلاص نمی شوم). برای چند سال من فقط 4 نقطه داده دارم.
|
کار با داده های کم
|
51914
|
من به ماشین حسابی نیاز دارم که از جدول احتمالی 11x6 استفاده کند. کسی میدونه کجا میتونم ماشین حساب برای کیسم پیدا کنم؟ پیشاپیش ممنون
|
من به ماشین حسابی نیاز دارم که از جدول احتمالی 11x6 استفاده کند
|
13152
|
من همیشه از lm() برای بررسی رگرسیون خطی برای دو سری استفاده کردم. آن تابع یک ضریب (بتا) را برمی گرداند که می توانم از آن استفاده کنم: y = beta*x امروز تابع princomp() را پیدا کردم که ** مجموع حداقل مربعات** را محاسبه می کند. باید برای من خوب باشد (دقیق تر). من چند تست را با استفاده از princomp() انجام داده ام، مانند: `r <- princomp( ~ x + y)` مشکل من این است: چگونه نتایج آن را تفسیر کنیم. چگونه می توانم ضریب را بدست بیاورم؟ (منظورم با ضریب عددی است که باید برای ضرب مقدار X برای بدست آوردن عددی مشابه y استفاده کنم) کسی می تواند به من کمک کند؟ (من از R استفاده می کنم) متشکرم!
|
()princomp چگونه کار می کند؟
|
13159
|
چه روش های رایجی برای انتخاب پارامتر هموارسازی برای LOESS استفاده می شود؟ (در R، بلکه به طور کلی).
|
چگونه یک پارامتر span با LOESS انتخاب کنیم؟
|
13481
|
آیا کسی می تواند من را به یک مقاله نظرسنجی در مورد نتایج $p$ بزرگ، کوچک $n$ راهنمایی کند؟ من علاقه مندم که چگونه این مشکل در زمینه های مختلف تحقیقاتی خود را نشان می دهد، به عنوان مثال رگرسیون، طبقه بندی، آزمون هتلینگ، و غیره.
|
خلاصه نتایج P بزرگ، n کوچک.
|
96903
|
من سعی می کنم ثابت بودن را برای پانلی متشکل از داده های سالانه حساب جاری 15 کشور (1980-2012) در Stata آزمایش کنم. من تست ریشه واحد LM توسط Lluís Carrion-i-Silvestre و همکاران را انتخاب کردم. (2005؛ برای در نظر گرفتن شکست های ساختاری در پانل ها)، و آزمایش ریشه واحد غیرخطی ADF بر اساس توان آماری آنها. مشکل اینجاست که من نمی توانم بفهمم چگونه این تست ها را در Stata انجام دهم. لطفاً کسی می تواند با پیشنهاداتی در مورد نحوه اجرای آزمایشات در Stata کمک کند؟
|
نحوه انجام Lluís Carrion-i-Silvestre et al. (2005) تست واحد LM و ADF غیر خطی در Stata؟
|
103705
|
من یک طرح 2x2 بین سوژه ها با اندازه سلول های نابرابر دارم. من یک ANOVA با مجموع مربعهای نوع I برای محاسبه اندازه سلولهای نابرابر اجرا کردم. هیچ یک از دو اثر اصلی و اثرات متقابل معنی دار نبودند (همه ps > 0.1).  با مجموع 2x2 = 4 سلول/گروه، بدیهی است که 6 مقایسه زوجی ممکن وجود دارد، یعنی 6 تفاوت فردی بین سلول یعنی ممکن است از نظر آماری معنی دار باشد. **آیا می توانم از اثرات اصلی و تعاملی غیر معنی دار نتیجه بگیرم که هیچ یک از این مقایسه های زوجی از نظر آماری معنی دار نیستند؟** همانطور که طرح نشان می دهد، بررسی تفاوت بین دو میانگین در سمت چپ بسیار جالب است یعنی سود-غایب در مقابل سود-حال. آیا اجرای آزمایش Tukey-Kramer (به دلیل اندازه سلول های نابرابر) برای آزمایش این امر مشروع/ضروری است؟ اگر چنین است، چگونه این کار را در R انجام دهم؟ (در اینجا من فرض میکنم که تابع استاندارد «TukeyHSD()» به دلیل اندازه سلولهای نابرابر نامعتبر است)
|
ANOVA 2x2، هیچ اثر اصلی/تعاملی، مقایسه میانگین سلولی پس از آن ضروری/مجاز است؟
|
20682
|
من به دنبال یک کتابخانه / بسته / کد برای انجام SVD نازک در جاوا هستم. من یک پیادهسازی خوب از SVD در بسته COLT برای جاوا پیدا کردم، اما زمانی که فقط تعداد کمی از بردارهای تکی مورد نظر باشد، با ماتریسهای پراکنده بزرگ به اندازه کافی قوی نیست. هر ایده ای؟
|
کد جاوا برای SVD نازک
|
84096
|
این یک مشکل تکلیف خارج از تجزیه و تحلیل دادههای طبقهبندی آگرستی است (1.34b) برای شمارشهای $\\{n_j\\}$، آمار واگرایی توان برای آزمایش خوب بودن تناسب $$ \dfrac{2}{\lambda(\lambda) است. +1)}\sum_{i=1}^m n_i[(n_i/\hat{\mu}_i)^\lambda-1] \quad \text{for }-\infty < \lambda < \infty$$ وقتی $\lambda$ به 0 نزدیک شد، نشان دهید که همگرا می شود آمار LRT $G^2 = 2\sum_{i=1}^m n_i\log{\left(\dfrac{n_i}{\hat{\mu}_i}\right)}$. من نمی دانم از کجا شروع کنم. یکی از مقالات اصلی که آمار واگرایی توان را مورد بحث قرار داده است، این را به سادگی به عنوان یک واقعیت بیان میکند (http://pages.stern.nyu.edu/~dbackus/Exotic/1Robustness/CressieRead%20JRSSB%2084.pdf) آیا سرنخی دارید؟
| |
71489
|
آیا کسی میتواند تفاوتها را توضیح دهد و مثالهای مشخصی درباره نحوه استفاده از این سه تحلیل ارائه دهد؟ * LDA - تجزیه و تحلیل تشخیص خطی * FDA - تجزیه و تحلیل تشخیصی فیشر * QDA - تجزیه و تحلیل متمایز درجه دوم همه جا را جستجو کردم، اما نتوانستم نمونه های واقعی با مقادیر واقعی را پیدا کنم تا ببینم این تجزیه و تحلیل ها چگونه استفاده می شوند و داده ها محاسبه می شوند، فقط تعداد زیادی فرمول سخت هستند. برای درک بدون هیچ مثال واقعی همانطور که سعی کردم بفهمم تشخیص این که کدام معادلات/فرمول متعلق به LDA و کدام به FDA است سخت بود. به عنوان مثال فرض کنید چنین داده ای وجود دارد: x1 x2 کلاس 1 2 a 1 3 a 2 3 a 3 3 a 1 0 b 2 1 b 2 2 b و بیایید بگوییم برخی از داده های آزمایشی: x1 x2 2 4 3 5 3 6 پس چگونه برای استفاده از چنین داده هایی با این سه رویکرد؟ بهتر است ببینید چگونه همه چیز را با دست محاسبه کنید، نه با استفاده از بسته های ریاضی که همه چیز را در پشت صحنه محاسبه می کند. P.S. من فقط این آموزش را پیدا کردم: http://people.revoledu.com/kardi/tutorial/LDA/LDA.html#LDA. نحوه استفاده از LDA را نشان می دهد.
|
سه نسخه از تجزیه و تحلیل متمایز: تفاوت ها و نحوه استفاده از آنها
|
47947
|
من یک مجموعه داده حاوی اطلاعاتی در مورد یک دسته از دستگاه های بی سیم دارم. به طور خاص، تعداد دستگاه های بی سیم دیگری که هر دستگاه با آن مواجه می شود. بر اساس کار قبلی سایر محققین در همان منطقه، من دلایلی دارم که معتقدم توزیع من ممکن است به طور بالقوه با توزیع نه چندان شناخته شده biPareto، که CCDF آن به صورت: $1 - F(x) = (x/k) تعریف شده است، مناسب باشد. ^{-\alpha}(\frac{x+kb}{k + kb})^{\alpha-\beta}$، برای $ x > k$ و به سادگی $1 - F(x) = 1$، برای $x \le k$. فرض کنید من قبلاً $k = 1$ را می دانم. این یک تابع را برای تناسب با سه پارامتر $\alpha$,$b$,$\beta$ باقی میگذارد، با این محدودیت که هر پارامتر $> 0$ باشد. چیزی که من در مورد آن مطمئن نیستم این است که چگونه می توان مناسب ترین مقادیر پارامتر برازش را، به طور ایده آل در «R» تعیین کرد. من در مورد برازش داده ها کاملاً مبتدی هستم، بنابراین جدای از ملاحظات نحوی در «R»، من همچنین علاقه مند به مشاوره در مورد اینکه کدام روش های خاص برازش برای این تابع خاص مناسب است، هستم. به عنوان مثال: 1. آیا این تابع واجد شرایط رگرسیون خطی است؟ 2. آیا حداقل مربعات در اینجا مناسب/کاربرد است؟ در مورد حداقل میانگین مربعات خطا (MMSE) چطور؟ 3. هر روش برازش داده شده نسبت به مقادیر پارامترهای اولیه راهنما که به آن می دهم چقدر حساس است (روش های تکراری؟)، یا نتیجه به صورت تحلیلی تعیین می شود (همیشه در پایان پاسخ یکسانی را ایجاد می کند؟) اگر اصلا مرتبط است، من من در نهایت به دنبال استفاده از آزمون Kolmogorov-Smirnov بر روی دادهها هستم تا ببینم چقدر با توزیع پارامتری biPareto مطابقت دارد.
|
برازش داده ها/تعیین مقادیر پارامتر برای توزیع سفارشی (biPareto).
|
112805
|
من با خروجی تجزیه و تحلیل داده هایم با مشکل مواجه شدم. من دو فاکتور با طراحی اسپلیت پلات داشتم. به طور جداگانه اثر اصلی دو عامل بر pH خاک معنی دار بود. اما اثر متقابل آنها بر میانگین pH خاک معنی دار نبود. بنابراین، چگونه این می تواند باشد و چگونه می توانم جدول را به طور جداگانه برای دو عامل یا هر دو در یک ایجاد کنم؟
|
اثر اصلی و اثر متقابل
|
10592
|
با توجه به یک ماتریس داده $X$ از مثلا 1000000 مشاهدات $100، آیا راه سریعی برای ایجاد یک تقریب سهضلعی $A \approx cov(X)$ وجود دارد؟ سپس می توان $A = L L^T$، $L$ همه 0 به جز $L_{i\ i-1}$ و $L_{i}$ را فاکتور گرفت و با حل $L x = x_، همبستگی سریع (سفید کردن) انجام داد. {سفید}$. (منظورم از سریع $O(اندازه\ X )$ است.) (اضافه شد، در تلاش برای توضیح دادن): من به دنبال یک سفید کننده سریع و کثیف هستم که سریعتر از $cov(X)$ کامل باشد اما بهتر از مورب باشد. . بگویید که $X$ $N$ نقاط داده $\times ویژگی های Nf$ است، به عنوان مثال. 1000000$\بار 100 دلار، با ویژگیهای 0-میانگین. 1) $Fullcov = X^T X$ را بسازید، Cholesky آن را به عنوان $L L^T$ فاکتور کنید، $L x = x_{white}$ را برای سفید کردن $x$ های جدید حل کنید. این در تعداد ویژگی ها درجه دوم است. 2) مورب: $x_{سفید} = x / \sigma(x)$ همبستگی های متقابل را به طور کامل نادیده می گیرد. یکی میتواند یک ماتریس سهضلعی از $Fullcov$ را فقط با صفر کردن همه ورودیهای خارج از سهضلعی، یا عدم جمعآوری آنها در وهله اول دریافت کند. و در اینجا شروع به فرو رفتن می کنم: باید تقریب بهتری وجود داشته باشد، شاید سلسله مراتبی، مورب بلوکی -> سه وجهی؟ * * * (اضافه شده در 11 مه): اجازه دهید سؤال را به دو قسمت تقسیم کنم: 1) آیا یک $cov(X)$ تقریباً سریع وجود دارد؟ خیر (whuber)، باید به همه جفتهای ${N \choose 2}$ نگاه کرد (یا ساختار یا نمونه داشته باشد). 2) با توجه به $cov(X)$، با چه سرعتی می توان $x$ های جدید را سفید کرد؟ خوب، فاکتورسازی $cov = L L^T$، $L$ مثلثی پایین تر، یک بار، سپس حل $L x = x_{سفید}$ بسیار سریع است. برای مثال scipy.linalg.solve_triangular از Lapack استفاده می کند. من به دنبال سفید کردن سریعتر () بودم که هنوز هم به دنبال آن هستم.
|
چگونه برای همبستگی سریع، ماتریس کوواریانس تقریبی سهضلعی را محاسبه کنیم؟
|
77882
|
من تعدادی کلمه را انتخاب کرده ام و از مردم خواسته ام که آنها را در مقیاس لیکرت رتبه بندی کنند. واژه ها بر اساس دو دسته انتخاب شدند. طول هجا (تک، دو و سه هجا و واج پایانی (واکه یا صامت) کلمات پایانی و غیره). مانند طول هجا یا واج پایانی، و دستهبندیهای دقیقتر مانند واژههای واکهای پایانی، تبدیلهای لگاریتمی را اعمال کردهام و تمام مقادیر p بازگشتشده در آزمونهای Shapiro و Wilcox کاملاً کوچک هستند یا این که آیا این کار را اشتباه انجام میدهم داده ها چگونه است؟
|
چگونه می توانم داده های خود را متناسب با توزیع عادی کنم؟
|
30073
|
من در آمار بسیار تازه کار هستم، پس ببخشید اگر سوالم ساده یا واضح است. من یک مجموعه داده با زمان پاسخ برای دو شرط دارم. این زمانهای پاسخ به نمره باینری 0 (عدم اثر) یا 1 (وجود اثر) تبدیل شدند. این آزمایش در 7 بلوک طراحی شده است. برای هر بلوک، شرکتکنندگان 1 یا 0 دریافت میکنند. نمره کل برای هر موضوع میتواند از o تا 7 باشد. بنابراین، من میخواهم یک قابلیت اطمینان تقسیم نصف کنم تا ببینم آیا معیاری که برای ارزیابی وجود اثر استفاده کردم، یک شاخص قابل اعتماد از آنچه در حال مطالعه هستم. در ابتدا فقط ستون 1 و 0 را به دو نیم تقسیم کردم و آن را به هم مرتبط کردم، اما این به من یک مقدار مزخرف می دهد (چیزی شبیه 0.0009) بنابراین من چیزی را در اینجا گم می کنم. از نظر مفهومی میدانم که باید دو بخش از آزمون را که ظاهراً یک چیز را اندازهگیری میکنند، مرتبط کنم، اما در فهمیدن اینکه دقیقاً چگونه این کار را برای این مجموعه داده انجام دهم با مشکل مواجه هستم. هر گونه کمک بسیار قدردانی می شود.
|
قابلیت اطمینان دودویی در نمرات باینری
|
77884
|
من در مورد وضعیت ثابت گیج هستم. من یک ARMA را برای یک سری زمانی نصب می کنم که ممکن است میانگین ثابتی نداشته باشد. وقتی یک مدل ARMA را روی آن قرار می دهم، باقیمانده ها ثابت به نظر می رسند. آیا قبل از اینکه مدل ARMA را جابجا کنم باید سری های زمانی را متمایز کنم یا خیر؟ من گیج شدهام، زیرا وقتی به نمونههایی در SAS و r نگاه میکنم، به نظر میرسد که هیچکس سریهای زمانی را هنگام نصب مدل ARMA- متمایز نمیکند، حتی سریهای زمانی نیز روندی را نشان میدهند. سری زمانی من روند مشخصی ندارد! با تشکر
|
ARMA(p,q)-GARCH(p,q) را متمایز کنید یا خیر؟
|
96907
|
من به دنبال یک مرجع جامع و معتبر (مقاله یا کتاب ژورنالی) هستم که به تاریخچه جدول تناوبی عناصر مندلیف به عنوان تصویرسازی داده ها بپردازد. من به خصوص علاقه مند هستم که چگونه نمایش گرافیکی جدول عناصر در طول زمان تغییر کرد. در حال حاضر مقاله ویکیپدیا تاریخچه جدول تناوبی را جامع یافتهام (اما آنقدرها معتبر نیست). من میخواهم از آن بهعنوان استناد نوع (نگاه کنید به-همچنین) استفاده کنم (نمیخواهم از ادعای خاصی استفاده کنم)، بنابراین حتی یک مقاله علمی عامه پسند هم باید خوب باشد.
|
تاریخچه جدول تناوبی عناصر مندلیف به عنوان تجسم داده ها
|
101110
|
داده های این سوال را می توان با این کد دانلود کرد: library(repmis) my_data <- repmis::source_DropboxData(my_data.csv, pc0t5etizbz36g9, sep = , header = TRUE) تعداد پرندگان را شمردم در یک گله («شمارش») و نسبت اینها که هوشیار بودند («هوشیار»). پیشبینیکنندهها زیرگونهها ('ssp')، ارتفاع آب ('water.height')، بخشی از محل مطالعه ('ssp.zone') و روزهای بعد از 27/9/13 ('days') هستند. من از یک مدل خطی تعمیم یافته با توزیع شبه دوجمله ای برای مدل سازی داده ها استفاده کرده ام: glm_alert <- glm(هشدار ~ ssp*water.height + ssp*ssp.zone + ssp*log(شمارش) + ssp*روز، وزن = شمارش، خانواده = quasibinomial، my_data) من از بسته اثرات در R برای محاسبه مقادیر پیش بینی شده و فواصل اطمینان آنها برای هر یک استفاده کردم. مقدار ssp و water.height: library(effects) as.data.frame(effect(c(ssp:water.height)، glm_alert) ssp water.height fit se under upper 1 Dark-bellied برنت گوس 1 0.1159649 11.415528 2.335320e-11 1.0000000 2 غاز برنت شکم روشن 1 0.2514900 5.436864 7.637095e-06 0.9999324 3 غاز برنت شکم تیره 2 0.1753066 10.2924 10.2374 1.0000000 4 غاز برنت شکم روشن 2 0.2954735 4.313482 8.682094e-05 0.9995066 5 غاز برنت شکم تیره 3 0.2562139 10.803 10.803 0.2562139 10.313482 1.0000000 6 غاز برنت شکم روشن 3 0.3436181 3.696164 3.647761e-04 0.9986703 7 غاز برنت شکم تیره 4 0.3582410 12.774-12.754. 1.0000000 8 غاز برنت شکم روشن 4 0.3952068 3.837447 3.448810e-04 0.9991927 9 غاز برنت شکم تیره 5 0.4749527 15.62615-15.613 1.0000000 10 غاز برنت شکم سبک 5 0.4492397 4.668966 8.392980e-05 0.9998739 می توانید فواصل اطمینان را بین 0-1 مشاهده کنید. آیا می دانید چرا فواصل اطمینان برای مقادیر پیش بینی شده اینقدر زیاد است؟
|
چرا فواصل اطمینان برای مقادیر پیش بینی شده اینقدر زیاد است؟
|
30075
|
مشکل طراحی یک طبقه بندی کننده چند کلاسه با استفاده از **LDA** را می توان به عنوان یک مشکل **2 کلاس** (یک در مقابل هر چیز دیگر) یا یک مشکل **چند کلاس** بیان کرد. چرا در موارد خاص ** طبقه بندی کننده LDA چند کلاسه ** عملکرد بهتری از ** کلاس LDA 2 ** (یکی در مقابل هر چیز دیگری) دارد یا **برعکس**.
|
LDA چند کلاسه در مقابل LDA کلاس 2
|
31300
|
من برخی از داده ها در [0،1] دارم که می خواهم آنها را با رگرسیون بتا تجزیه و تحلیل کنم. البته باید کاری انجام شود تا مقادیر 0.1 را در خود جای دهد. من از تغییر داده ها برای تناسب با یک مدل متنفرم. همچنین معتقدم تورم صفر و 1 ایده خوبی نیست زیرا معتقدم در این مورد باید 0ها را مقادیر مثبت بسیار کوچک در نظر گرفت (اما نمی خواهم دقیقاً بگویم چه مقدار مناسب است. یک انتخاب منطقی من معتقدم که مقادیر کوچکی مانند 0.001 و 0.999 را انتخاب کنید و مدل را با استفاده از فاصله تجمعی برای بتا برازش کنید، بنابراین برای مشاهدات y_i احتمال ورود به سیستم اگر y_i < .001 LL+=log(cumd_beta(.001)) باشد، اگر y_i>.999 LL+=log(1.0-cum_beta(0.999)) دیگری LL+=log(beta_density(y_i)) چه چیزی در این مورد دوست دارم مدل این است که اگر مدل رگرسیون بتا معتبر باشد، این مدل نیز معتبر است، اما کمی از آن را حذف می کند. حساسیت به مقادیر افراطی به نظر می رسد که این یک رویکرد طبیعی است که من تعجب می کنم که چرا هیچ مرجع آشکاری در ادبیات پیدا نمی کنم نتایج را بایاس می کند (بر اساس این فرض که مدل اصلی معتبر است)، در حالی که اصلاح مدل با ترکیب مقادیر شدید، نتایج را تعصب نمی کند. شاید مشکلی وجود داشته باشد که من از آن غافل هستم؟
|
در یک رگرسیون بتا با مقادیر 0.1 سر و کار دارید
|
96901
|
در این نمودار، این همبستگی چقدر قوی است (در صورت وجود)؟ تصویر مربوط به ارائه سخنران دیگری است (منبع: http://imgur.com/SBU4bUY). 
|
چقدر قوی است (در صورت وجود) همبستگی در این نمودار (prt sc از اسلاید سخنرانی)
|
10597
|
آیا راه معقولی برای تعیین کمیت میزان همبستگی های محلی در یک تصویر وجود دارد؟ به عنوان مثال، من می خواهم توجیه کنم که همبستگی بین همسایگی پیکسل ها بسیار بالاتر از همبستگی بین پیکسل ها در مناطق کاملاً متفاوت تصویر است. آیا نشان دادن xcorr2(A,A) به عنوان همبستگی خودکار 2 بعدی تصویر راهی معتبر برای نشان دادن این خواهد بود؟ یعنی: اگر مقادیر بزرگی وجود داشته باشد که عمدتاً در مرکز ماتریس قرار دارند.
|
روش معتبر برای تحلیل همبستگی های فضایی در تصاویر؟
|
10598
|
اشکال مختلف همبستگی، به عنوان مثال، $r = \frac{\Sigma_i x_i * y_i}{\sigma_x \sigma_y}$ یا $r = \frac{\Sigma_i (x_i-\bar{x}) * (y_i-\ bar{y})}{\sigma_x \sigma_y}$ معیارهای مشابهی محبوب در بسیاری از برنامهها هستند. آیا یک تفسیر احتمالی برای این وجود دارد که یا $r$ یا $r^2$ یک احتمال تقریبی برای x و y از توزیع یکسان یا مشابه باشد؟ به عنوان مثال، اگر شکلی از $P_{\theta_1}(x)$ و $P_{\theta_2}(y)$ داشته باشیم، آنگاه $r$ مربوط به $P(\theta_1=\theta_2 | x,y) است. دلار؟ من حدس می زنم که همبستگی ممکن است اولین عبارت در تقریب نوعی اندازه گیری احتمال باشد. اما من نمی توانم به چنین مدلی برسم. با فرض اینکه $x$ و $y$ از یک حالت عادی می آیند و $\theta$ میانگین است، واقعاً آن عبارت را مشتق نمی کند.
|
همبستگی به عنوان معیار احتمال
|
94460
|
من درک می کنم که مفروضات مختلفی برای تکنیک های آماری مانند رگرسیون وجود دارد. یک فرض رایج این است که داده ها به طور معمول توزیع می شوند. در مواردی که دادهها به طور معمول توزیع نمیشوند، اغلب میتوان آنها را از طریق، برای مثال، گرفتن گزارش هر مورد از متغیر، تبدیل کرد (نرمال کرد؟). من می توانم ببینم که این و سایر اشکال تبدیل، (اغلب) توزیع را عادی می کند، که شرط رگرسیون است. با این حال، آیا ما متغیر را دستکاری نکرده ایم؟ چگونه ممکن است استنباط های انجام شده بر اساس این متغیر دستکاری شده هنوز معتبر باشند؟
|
چرا تحول کار می کند؟
|
20680
|
من یک مدل را با استفاده از SPSS صادر کرده ام (این مدل توسط ژنراتور مدل خطی خودکار تولید شده است). سوال من ساده است اما نمی توانم پاسخ آن را پیدا کنم: چگونه این مدل را از فایل xml صادراتی وارد و اجرا کنم؟ پیشاپیش ممنون
|
چگونه یک مدل را با SPSS وارد و اجرا کنیم؟
|
94465
|
$X$ و $Y$ به طور یکنواخت روی دیسک واحد توزیع می شوند. بنابراین، $f_{X,Y}(x,y) = \begin{cases} \frac{1}{\pi}, & \text{if} ~ x^2+y^2 \leq 1,\\ \ 0، &\text{در غیر این صورت.}\end{cases}$ اگر $Z=X+Y$، pdf $Z$ را پیدا کنید.
|
PDF از مجموع دو متغیر تصادفی
|
94468
|
من در این مورد کاملاً از عمق خود خارج هستم و تمام خواندنی که سعی می کنم انجام دهم فقط مرا گیج می کند. امیدوارم بتوانید مطالب را به روشی منطقی برای من توضیح دهید. (همانطور که همیشه به نظر می رسد، نباید اینقدر سخت باشد!) من سعی می کنم به دانش آموزی کمک کنم که به تأثیر سیستم های اجتماعی بر شیوع بیماری ها در گونه های مختلف میزبان سگ سانان نگاه می کند. ما می خواهیم سیستم اجتماعی (مانند زندگی گروهی در مقابل انفرادی) را به عنوان یک اثر ثابت و گونه میزبان را به عنوان یک اثر تصادفی تو در تو در داخل سیستم اجتماعی در نظر بگیریم (یعنی هر گونه فقط یک نوع سیستم اجتماعی دارد). درک من این است که بهترین راه برای انجام این کار انجام یک رگرسیون لجستیک با اثرات مختلط است. ما این کار را انجام دادیم و کار می کند و خوشحال بودیم. متأسفانه، مشاور او اصرار دارد که میزان تغییرات ناشی از سیستم اجتماعی در مقابل گونه میزبان در مقابل باقیمانده را محاسبه کند. من نمی توانم بفهمم که چگونه این کار را از طریق رگرسیون لجستیک با اثرات مختلط انجام دهم، و سوال قبلی من در مورد این موضوع بی پاسخ ماند. مشاور او پیشنهاد کرد که به جای آن، ANOVA انجام شود، مقادیر شیوع بیماری تغییردهنده لاجیت (کسری از هر جمعیتی که آلوده شده است). این یک مشکل ایجاد کرد زیرا برخی از مقادیر شیوع 0 یا 1 هستند که پس از تبدیل logit به $-\infty$ یا $\infty$ منجر میشود. راه حل مشاور او این بود که به ترتیب $-5$ و $5$ را جایگزین $-\infty$ یا $\infty$ کرد. این واقعاً گیج کننده است و من را خیلی سخت می ترساند. اما او کسی است که به او نمره می دهد، و در این مرحله من فقط می خواهم این کار را تمام کنم، بنابراین اگر او با آن خوب است، پس هر چه باشد. ما از R برای این تحلیل استفاده می کنیم. کد را می توان از اینجا دانلود کرد و داده های ورودی را از اینجا دانلود کرد. فایل داده شامل داده های دو پاتوژن مختلف (A و B) است که ما به طور جداگانه آنها را تجزیه و تحلیل می کنیم (همانطور که در کد نشان داده شده است). در اینجا تنظیم ANOVA ما برای پاتوژن B ساخته شده است: mod1.lm <- lm(Seroprevalence_logit ~ Social.System + Social.System/Host.Species، data = prev_B) print(mod1.anova <- anova(mod1.lm)) این منجر به اولین سوال من می شود: **آیا این درست و مناسب است؟** عواملی که باید در نظر بگیریم: * ما می خواهیم مدل II داشته باشیم متغیر (اثر تصادفی) تو در تو در یک متغیر مدل I (اثر ثابت). * هر نظام اجتماعی دارای تعداد یکسانی از گونه های میزبان نیست که درون خود لانه کرده اند. * همه گونه های میزبان دارای تعداد یکسانی از جمعیت مورد بررسی نیستند. * تعداد افراد مورد بررسی در هر جمعیتی یکسان نبود (ستون N_indiv در mydata.csv). به نظر من این بیشتر یک مشکل وزن دهی است تا چیزی اساسی تر. سوال بعدی من و سوال اصلی این پست این است: **چگونه واریانس را پارتیشن بندی کنم؟** این چیزی است که ما به آن فکر می کردیم: MS_A <- mod1.anova$Mean Sq[1] MS_BinA <- mod1. anova$Mean Sq[2] MS_resid <- mod1.anova$Mean Sq[3] n <- length(unique(prev_A$Social.System)) r <- length(unique(prev_A$Host.Species)) VC_A <- (MS_A - MS_BinA)/(n*r) VC_BinA <- (MS_BinA - MS_resid)/n VC_resid <- MS_resid متأسفانه، با استفاده از مشخصات ANOVA که در بالا توضیح دادم، باعث ناراحتی می شود. در اینجا نتایج برای پاتوژن B آمده است: * VC_A (یعنی Social.System): $-1.48 * VC_BinA (به عنوان مثال، Host.Species): $13.8 $ * VC_resid: $5.57 $ تحقیقات مرا به این باور رسانده است که این امر باید به ترتیب درصدهای مولفه واریانس 0%، 71.3% و 28.7% را ایجاد کند. با این حال، این به دو دلیل رضایتبخش نیست: * مقدار p برای Social.System از ANOVA 0.025$ بود، که نشان میدهد باید حداقل مقداری از واریانس مشاهدهشده را به خود اختصاص دهد. (Host.Species دارای مقدار p ~$3*10^{-5}$ بود.) * من نگران هستم که یک جزء واریانس منفی ممکن است یک پرچم قرمز برای چیزی باشد. لطفاً، هر گونه کمکی که می توانید در مورد هر یک از این سؤالات ارائه دهید، بسیار قدردانی خواهد شد. من یک دوره کارشناسی را در مورد آمار زیستی گذراندم، بنابراین پیشینه ای دارم، اما به نظر نمی رسد که نمی توانم این مسائل خاص را بفهمم. پیشاپیش ممنون
|
Nested ANOVA: اندازه نمونه نابرابر؟ مولفه های واریانس؟
|
13909
|
من دو ماتریس با افراد یکسان در هر کدام دارم. 1. چگونه باید در R برای شناسایی روابط متقابل ماتریس اقدام کنم؟ 2. از چه تکنیکی برای استنتاج مقادیر همبسته در ماتریس دوم از ماتریس اول استفاده کنیم؟ متشکرم.
|
استنتاج و همبستگی متقابل ماتریس
|
13151
|
من در حال انجام یک مطالعه مبتنی بر رجیستری با تقریبا 200000 مشاهده هستم و میخواهم یک تحلیل ریسک رقابتی انجام دهم. مشکل من این است که crr() در بسته cmprsk به طور تصاعدی با افزایش تعداد مشاهدات افزایش می یابد. بنابراین من یک شبیه سازی برای آزمایش رویکردهای مختلف نوشتم. بررسی کنید که چگونه عوامل، چارچوب های داده و ماتریس ها بر عملکرد تأثیر می گذارند تا بتوانم کارآمدترین ترکیب را انتخاب کنم. من یک کامپیوتر 1 ساله با 8 گیگ رم دارم و وقتی یک شبه کامپیوتر را ترک کردم هنوز 70000 مشاهده تمام نشده است. سوالات اصلی من: * آیا روش سریع تری برای انجام تحلیل ریسک رقابتی وجود دارد؟ * چرا Win7 4 برابر بهتر عمل می کند؟ آیا این نسخه 64 بیتی است که عملکرد را بهبود می بخشد؟ * آیا می توانم کاری برای سرعت بخشیدن به کار انجام دهم؟ * آیا شبیه سازی در رایانه شما به همین صورت کند است؟ (کد شبیه سازی را در انتها ببینید) با تشکر Max * * * خروجی من با برخی از خطاهایی که برخی از گزینه های جایگزین ایجاد می کنند * شروع بررسی عملکرد crr * استفاده از 10000 مشاهده و 3 - 10000 متغیرهای کمکی .. خطا: NA/NaN/Inf در فراخوانی تابع خارجی (arg 4) علاوه بر این: پیام هشدار: NA ها با اجبار معرفی شده اند ... خطا در drop(.Call(La_dgesv, a, as.matrix(b), tol, PACKAGE = base)) : Lapack روتین dgesv: سیستم دقیقاً تک است.. خروجی در لینوکس - لینوکس - اوبونتو - R32-bit 2.13.1 *** نتایج آزمون *** آزمون 1 قبول شد - بدون فاکتور طول کشید: 4.2 دقیقه آزمون 2 گذرانده شد - با استفاده از آزمون معیار وضعیت فاکتورگیری شده 2: 91% تست 3 ناموفق - متغیرهای کمکی فاکتورگیری شده با شکست تست 4 - با استفاده از وضعیت عاملی و متغیرهای چارچوب داده تست معیار 4: 78% تست 5 قبول شد - با استفاده از وضعیت فاکتور و دو برابر متغیرهای کمکی که در آن متغیرهای کمکی جدید متفاوت هستند تست معیار 5: 76% تست 6 ناموفق - نسخه های دقیق از متغیرهای کمکی با شکست تست 7 - با استفاده از وضعیت عادی و دو برابر متغیرهای کمکی که در آن متغیرهای جدید متفاوت هستند تست معیار 7: 80٪ تست 8 با موفقیت انجام شد - با استفاده از وضعیت عادی و سه برابر متغیرهای کمکی که در آن متغیرهای کمکی جدید متفاوت هستند تست معیار 8: 83٪ خروجی در ویندوز - ویندوز 7 - R64-bit 2.13.1 *** نتایج تست *** *** نتایج آزمون *** آزمون 1 قبول شد - بدون فاکتور طول کشید: 1.1 دقیقه آزمون 2 رد شد - با استفاده از معیار وضعیت فاکتورگیری آزمون 2: 99% آزمون 3 ناموفق - متغیرهای کمکی فاکتورگیری شده با شکست تست 4 - با استفاده از وضعیت عاملی و متغیرهای چارچوب داده تست معیار 4: 104٪ آزمون 5 قبول شد - با استفاده از وضعیت فاکتور و دوبرابر متغیرهای کمکی که در آن متغیرهای کمکی جدید متفاوت هستند تست معیار 5: 122 ٪ تست 6 ناموفق - نسخه های دقیق متغیرهای کمکی با شکست تست 7 - با استفاده از وضعیت عادی و دو برابر متغیرهای کمکی که در آن متغیرهای کمکی جدید متفاوت هستند تست معیار 7: 122٪ تست 8 با موفقیت انجام شد - با استفاده از وضعیت عادی و سه برابر متغیرهای کمکی که در آن متغیرهای کمکی جدید متفاوت هستند تست معیار 8: 144٪ تست با 20 000 (دو برابر داده ها) در Windows 7 R64 2.13.1 (شکست ها را حذف کرد) *** نتایج تست *** تست 1 گذرانده شد - بدون فاکتور آن گذرانده: 8.5 دقیقه آزمون 2 گذرانده شد - با استفاده از وضعیت عاملی آزمون معیار 2: 100٪ آزمون 4 گذرانده شد - با استفاده از وضعیت عاملی و متغیرهای چارچوب داده تست معیار 4: 100٪ آزمون 5 گذرانده شد - با استفاده از وضعیت فاکتور و دو برابر متغیرهای کمکی که در آن متغیرهای کمکی جدید متفاوت هستند آزمون معیار 5: 123% آزمون 7 گذرانده شد - با استفاده از وضعیت عادی و دو برابر متغیرهای کمکی که در آن متغیرهای کمکی جدید متفاوت هستند تست معیار 7: 122% تست 8 گذرانده شد - با استفاده از وضعیت معمولی و سه برابر متغیرهای کمکی که در آن متغیرهای کمکی جدید متفاوت هستند تست معیار 8: 147% کتابخانه کد تست عملکرد (cmprsk) # تعیین اندازه مجموعه my_set_size <- 10000 # ایجاد متغیرهای کمکی cov <- cbind(rbinom(my_set_size, 1, .5) rbinom(my_set_size, 1, 0.05), rbinom(my_set_size, 1, .1)) dimnames(cov)[[2]] <- c('gender','risk factor 1','risk factor 2') factored_cov <- data.frame( جنسیت = فاکتور(cov[,1]، سطوح=c(0،1)، labels=c(مرد، مونث))، rf1 = فاکتور (cov[,2]، سطوح=c(0،1)، برچسبها=c(نه، بله))، rf2 = فاکتور(cov[,3]، سطوح =c(0,1), labels=c(نه، بله))) framed_cov <- data.frame( gender = cov[,1], rf1 = cov[,2], rf2 = cov[,3]) cov_doubled <- cbind(cov[,1], cov[,2], cov[,3], rbinom(my_set_size, 1, .5), rbinom(my_set_size, 1, .05), rbinom (my_set_size, 1, .1)) dimnames(cov_doubled)[[2]] <- ج («جنسیت»، «عامل خطر 1»، «عامل خطر 2»، «عامل خطر 3»، «عامل خطر 4»، «عامل خطر 5»)
|
رگرسیون ریسک رقابتی با CRR آهسته در مجموعه داده های بزرگ؟
|
96906
|
من یک طرح 2*2 دارم، N=73، و اندازهگیریهای قبل و بعد را برای ساختاری به نام «هنجارهای وضعیت اجتماعی» دارم. فرضیه صفر واریانس برابر رد نشد. من یک ANOVA 2*2 انجام دادم (پیش اندازه گیری من به عنوان یکی از چهار متغیر کمکی مورد استفاده قرار گرفت) و یک برهمکنش قابل توجه یافتم (0.036 = p، η2 = 0.066 جزئی). با این حال، زمانی که من یک ANOVA اندازهگیریهای مکرر را اجرا کردم، هیچ اثر متقابل معنیداری یافت نشد (0.131 = p، 0.034 = η2 جزئی). متغیرهای کمکی یکسان برای هر دو تجزیه و تحلیل استفاده شد. من مطمئن نیستم که چرا برای یکی اثر دارد و دیگری نه. n برای هر گروه از 16 تا 32 متغیر است، بنابراین شاید اندازه نمونه کوچک باشد؟ یا η2 جزئی کوچک (.066)؟ با تشکر از کمک شما! واقعا قابل تقدیر است.
|
اثری برای ANOVA 2*2 (تک متغیره) یافت شد اما برای ANOVA اندازه گیری های مکرر یافت نشد؟
|
96905
|
فرض کنید من اثری دارم که بر هر مقدار (تولید معمولی 15 هزار) متفاوت تأثیر می گذارد/آلوده می شود، چیزی بین 0.0% و 6.0%. حالا من چیزی را تغییر داده ام و می خواهم آزمایش کنم که آیا این آلودگی من را تغییر می دهد یا خیر. من چهار تست با 1k تولید کردم و آنها را آزمایش کردم. من هیچ عضو آسیب دیده ای در آن چهار لات پیدا نکردم. اکنون باید یک حد بالایی برای آلودگی تخمین بزنم. چگونه می توان آن را انجام داد؟ من به چیزی مانند ما می توانیم کاملا مطمئن باشیم (آلفا = 5٪) که محدودیت کمتر از 0.5٪ است.
|
نمونه برداری / تخمین اثر
|
71424
|
من یک پروژه شخصی دارم که روی آن کار می کنم و می توانم از کمکی در مورد ریاضی استفاده کنم. فرض کنید من دو لیست داشتم. **FN**: 1 میلیون نام (فریب مجاز). **LN**: 2 میلیون نام خانوادگی (فریب مجاز است). و فرض کنید ما به دو نام نگاه می کنیم: **Murray**: در FN 5000 بار و در LN 75000 بار ظاهر می شود. *Harrison**: در FN 10000 بار و در LN 70000 بار ظاهر می شود. به عنوان یک نام کامل به من Murray Harrison داده شده است. چگونه به محاسبه احتمال اینکه نام مورد نظر در واقع «هریسون موری» باشد نزدیک میشوید؟ برای دامنه این پروژه، قابل قبول است که فرض کنیم هر نام خانوادگی به همان اندازه در کنار هر نام کوچکی ظاهر می شود. من فکر می کنم که: P (Murray Harrison) = P (Murray به عنوان اولین) * P (Harrison به عنوان آخرین) = 5000/80000 * 70000/80000 = 0.055 P (Harrison Murray) = P (Harrison به عنوان اولین) * P (Murray به عنوان آخرین) = 75000/80000 * 10000/80000 = 0.117 در اینجا سوال من ممکن است مشکل باشد: چگونه این دو احتمال را در نظر می گیرید و شانس تعویض این دو نام را تعیین می کنید؟ به عنوان مثال، بگویید من تصمیم گرفتم که اگر 95٪ احتمال دارد که آنها تعویض شوند، آنها را تعویض می کنم. آیا برای تعیین این احتمال به داده های اضافی نیاز دارم؟ آیا من فقط به احتمالات هر دو ترتیب نام نگاه می کنم و اگر یکی > 0.95 باشد، آن ترتیب را انتخاب می کنم؟ ویرایش: برای واضح بودن، من لیستی از نام های کامل دارم و می خواهم به صورت برنامه ریزی شده تعیین کنم که نام اول و کدام نام آخر است. گاهی اوقات داده ها به ترتیب Last-First (بدون کاما) و گاهی اوقات به ترتیب First-Last خواهند بود. من سعی می کنم از کمی آمار برای تعیین محتمل ترین ترتیب استفاده کنم.
|
شانس تعویض نام و نام خانوادگی در یک نام را محاسبه کنید؟
|
10594
|
من 500000 مقدار برای یک متغیر مشتق شده از بازارهای مالی دارم. این متغیر دارای توزیع دلخواه است. من به فرمولی نیاز دارم که به من اجازه دهد محدوده ای را در اطراف هر مقدار از این متغیر انتخاب کنم به طوری که مقدار مساوی (یا نزدیک به آن) از مقادیر در آن محدوده قرار گیرد. از آنچه من درک می کنم، این بدان معنی است که من باید آن را از توزیع دلخواه به توزیع یکنواخت تبدیل کنم. من خوانده ام (اما به سختی متوجه شده ام) که آنچه من به دنبال آن هستم تبدیل انتگرال احتمال نامیده می شود. آیا کسی می تواند به من کمک کند تا کدی (ترجیحاً متلب، اما واقعاً مهم نیست) به من کمک کند تا این کار را انجام دهم؟ ویرایش: من مجموعه داده خود را به عنوان یک فایل csv. آپلود کردم و فایل rar. را فشرده کردم، از تابع توزیع تجربی در MatLab استفاده کردم و نمودار زیر را دریافت کردم: آیا این به نظر درست است؟ در اینجا یک هیستوگرام از داده های خام برای مرجع وجود دارد: 
|
تبدیل توزیع دلخواه به یکنواخت
|
13156
|
بیایید بگوییم که می دانم بودجه کلی برای برخی واحدها چقدر است و می خواهم سهم بودجه هر واحد را پیش بینی کنم. من داده های تاریخی دارم و می توانم تحلیل رگرسیون انجام دهم. آیا بهتر است سهام را مستقیماً با رگرسیون لجستیک پیش بینی کنیم یا سعی کنیم مقدار را پیش بینی کنیم و سپس سهم آن را در پیش بینی های کلی محاسبه کنیم؟ یا چیز دیگری؟ یک چیز دیگر، من می خواهم کل بودجه را در پایان تقسیم کنم.
|
چگونه سهام را پیش بینی کنیم؟
|
20681
|
اخیراً بخشی از داده های سری زمانی برای تجزیه و تحلیل به من داده شده است. من میانگین نرخ رشد مرگ و میر نوزادان در هر 1000 تولد را محاسبه کرده ام و به واریانس 60449.1376 و در نتیجه انحراف معیار 245.864 دست یافته ام، چگونه این را تفسیر کنم؟ داده ها نرخ مرگ و میر نوزادان سالانه در هر هزار از سال 1951 تا 1981 را شامل می شود: 82 78 71 72 71 67 68 64 58 57 52 53 56 55 53 54 48 50 53 47 454 45 4 38 34 29.5
|
چگونه واریانس داده های سری زمانی را با استفاده از میانگین نرخ های رشد تفسیر می کنید؟
|
72902
|
آزمونی را که از دو عامل به عنوان متغیر مستقل استفاده میکند، اما از یک متغیر وابسته استفاده میکند که تفاوت بین دو اقدامی است که به طور مکرر از افراد یکسان انجام میشود، چگونه توصیف میکنید یا چه مینامید؟ معمولاً اندازه گیری های مکرر به این معنی است که چندین متغیر مستقل بر روی افراد یکسان اندازه گیری می شوند. در اینجا، این متغیر وابسته و نتیجه است که اندازه گیری مکرر است. اما، از آنجایی که تفاوت برای هر فرد در نظر گرفته می شود، آیا این به سادگی یک ANOVA دو طرفه است؟
|
آیا این طرح اقدامات تکراری است یا خیر؟
|
20354
|
در مشکل من، هر فرد را می توان در دو بعد باینری A و B طبقه بندی کرد (هر فرد می تواند A یا غیر A و B یا غیر B باشد). مشخص نیست که آیا بین A و B وابستگی وجود دارد یا خیر. من یک نمونه تصادفی انتخاب کرده ام (حدود 15٪ از جامعه). من میدانم که کدام افراد در نمونه A هستند و کدامها A هستند (نه-A بسیار بیشتر از As وجود دارد). من همچنین می دانم که کدام A-افراد در نمونه B هستند و کدام B هستند. برای این سوال، لطفاً فرض کنید که تعیین اینکه چگونه افراد غیر A در نمونه در بعد B غیرعملی است. من می دانم که می توانم یک فاصله اطمینان برای شیوع A در جمعیت را با استفاده از روش نمره ویلسون تخمین بزنم. آیا می توانم به نحوی فاصله اطمینانی را برای شیوع B در زیرجمعیت افرادی که دارای ویژگی A هستند تخمین بزنم؟
|
تخمین شیوع در یک زیرجمعیت
|
77880
|
فرض کنید $x$ را از $y_1=ax+z_1$ تخمین بزنیم و x_1$ را بدست آوریم. سپس فرض کنید $y_2=bx+z_2$ را دریافت می کنیم و $x$ را با استفاده از $y_1$ و $y_2$ دوباره تخمین می زنیم و x_2$ را دریافت می کنیم. آیا میانگین مربعات خطا (MSE) $x_2$ همیشه کمتر از MSE $x_1$ است. به عبارت دیگر $$E(x-x_1)^2\geq E(x-x_2)^2 است؟$$ در اینجا $a,b$ ثابت های شناخته شده هستند و $z_1$ و $z_2$ خطاهای گاوسی و تخمین هستند. حداقل میانگین مربعات خطای خطی است. معادلات همچنین می توانند بردار باشند که خطا در حالت خلسه ماتریس کوواریانس خطا باشد. با این ویکی به نظر می رسد که در حال کاهش است. ویرایش: توضیح در زمان $t=0$ یک مقدار واقعی $x$ توسط یک فرآیند تصادفی $X$ ایجاد میشود. سپس در زمان $t=1$، یک نسخه خراب و مقیاسشده $y_1$ از $x$ دریافت میکنم که با $y_1=ax+z_1$ نشان داده میشود. از $y_1$ من برآورد خطی حداقل میانگین مربعات خطا (LMMSE) را انجام میدهم و $x$ را تخمین میزنم و $x_1$ را بدست میآورم و LMMSE مربوطه $E(x-x_1)^2$ است. در اینجا $a$ یک ثابت است و شناخته شده است، $z_1$ نویز گاوسی با میانگین و واریانس شناخته شده است. تخمین LMMSE ساده است. سپس در زمان $t=2$، نسخه دیگری با نویز خراب و مقیاسشده $y_2$ از همان $x$ دریافت میکنم که با $y_2=bx+z_2$ نشان داده میشود. باز هم $b$ یک ثابت شناخته شده و $z_2$ نویز گاوسی با میانگین و واریانس شناخته شده است. اکنون من به طور همزمان از $y_1$ و $y_2$ برای تخمین $x$ توسط تخمین LMMSE استفاده می کنم و مقدار $x_2$ و خطای مربوطه $E(x-x_2)^2$ را دریافت می کنم. سوال من: $E(x-x_1)^2\geq E(x-x_2)^2؟$ است. به عنوان مثال، زمان واقعاً مهم نیست، سؤال این است که آیا تخمین LMMSE با استفاده از نمونههای $n+1$ همیشه خطای کمتری نسبت به تخمین تنها با استفاده از $n$ نمونه از نمونههای $n+1$ میدهد؟ با تشکر
|
تخمین خطی متوالی: آیا MSE افزایشی نیست؟
|
28354
|
من دارم: * تابعی به شکل $S=M f(t, \theta)$ که $\theta$ یک متغیر است، $t$ و $M$ پارامترها هستند. * دو مشاهده $(\theta_1, S_1)$ و $(\theta_2, S_2)$ که در آنها $S_1$ و $S_2$ مقادیر برای $t$ مشاهده می شوند و $\theta_1$ و $\theta_2$ مشاهده شده اند مقادیر $\theta$. علاوه بر این، ما می دانیم که $S_1$, $S_2$ من حاوی نویز است که توزیع نرمال $N(0, d_1)$ $N(0,d_2)$ با واریانس ناشناخته $d_1$, $d_2$ است. حالا من می خواهم $t$ را تخمین بزنم. از نظر ریاضی، اگر $S_1$ و $S_2$ به طور دقیق مشاهده شوند، ما $$S_1= M f(t, \theta_1)$$ $S_2= M f(t, \theta_2)$$ داریم سپس با تقسیم داریم $\frac{S_1}{S_2}=g(t,\theta_1,\theta_2)$ که به دنبال آن پارامتر $t$ را می توان با یک عدد تخمین زد ابزار Mathematica مانند Findroot w.r.t. پارامتر $t$. با این حال، مشکل در اینجا نویز توزیع نرمال است. هدف یافتن $t$ تا حد امکان دقیق است، به معنای برخی از ویژگی های نظری احتمال. روش ترجیحی استفاده از تابع Matlab یا Mathematica است، اگرچه فکر نمی کنم آنها راه حل مستقیمی داشته باشند. من با تجزیه و تحلیل عددی کاملاً تازه کار هستم و کاملاً در Matlab تازه کار هستم. ایده ساده من این است که: 1. آیا اولین قدم باید حذف پارامتر $M$ باشد؟ 2. اگر چنین است، راههای بینهایت زیادی برای انجام آن وجود دارد، از جمله میتوانیم * $\frac{S_1}{S_2} = \frac{f(t, \theta_1)}{f(t,\theta_2)} را فهرست کنیم. $ * $\frac{S_1+S_2}{S_1-S_2} = \frac{f(t، \theta_1)+f(t,\theta_2)}{f(t, \theta_1)-f(t,\theta_2)}$ * $ \frac{S_1^2 }{S_2^2} = \frac{f( t, \theta_1) ^2 }{f(t,\theta_2) ^2}$ واضح است که همه این تغییرات از نظر ریاضی معادل هستند اگر $S_1$، $S_2$ دقیقاً مشاهده می شود. با این حال، آنها باید $t$ متفاوتی را تولید کنند (به دلیل نویز گاوسی در $S_1$ و $S_2$) سوالات من 1 است. به نظر شما اولین قدم من باید حذف $M$ با استفاده از روش فوق باشد؟ 2. آیا ترکیبی از $S_1$، $S_2$ وجود دارد که نتایج بهتری نسبت به سایرین بدهد؟ 3. بهترین راه برای تخمین $t$ این مشکل چیست؟ (شاید در Matlab یا Mathematica) متشکرم. امیدوارم واضح بوده باشم
|
روشهای عددی برای تخمین پارامتر منحنی از 2 داده ورودی با نویز گاوسی
|
91606
|
فرض کنید من می خواهم آزمایش کنم که آیا یک سری زمانی در صورت شتاب گرفتن، شتاب بیشتری به دست می آورد یا نه، برای مدل سازی آن به چه مدل سری زمانی نیاز دارم؟ آیا با میانگین متحرک یک فرآیند ARMA در نظر گرفته می شود؟ یا باید کاری انجام دهم: $$ r_t = A · ( r_{t-1} - r_{t-2} ) + \sigma_t · e_t $$ که * $r_t$ سری زمانی است * $A$ ثابت است * $\sigma_t$ نوسان است * $e_t$ نویز سفید است
|
چه مدل های سری زمانی شتاب را ثبت می کنند؟
|
94463
|
من می خواهم یک الگوریتم را در یک مقاله پیاده سازی کنم که از Kernel SVD برای تجزیه یک ماتریس داده استفاده می کند. بنابراین من مطالبی را در مورد روشهای هسته و PCA هسته و غیره میخواندم. اما هنوز برای من بسیار مبهم است، مخصوصاً وقتی صحبت از آن اثباتها و فرمولهای ریاضی (جبر خطی) میشود. من چند سوال در مورد روش های مبتنی بر کرنل و PCA هسته دارم که بسیار ابتدایی هستند زیرا من یک مبتدی هستم. * **چرا روش های هسته؟ یا مزایای روش های کرنل چیست؟ هدف شهودی چیست؟** _آیا فرض می شود فضای ابعادی بسیار بالاتر در مسائل دنیای واقعی واقع بینانه تر است و می تواند روابط غیرخطی در داده ها را در مقایسه با روش های غیر هسته ای آشکار کند؟_ با توجه به مواد، روش های کرنل، داده ها را روی یک فضای ویژگی با ابعاد بالا قرار می دهد، اما نیازی به محاسبه فضای ویژگی جدید به صراحت ندارد، فقط باید محصولات داخلی را بین تصاویر همه جفت داده ها در فضای ویژگی محاسبه کند. **پس چرا به فضایی با ابعاد بالاتر نمایش داده می شود؟** * برعکس، **SVD فضای ویژگی را کاهش می دهد. چرا آنها این کار را در جهات مختلف انجام می دهند؟** روش های هسته به دنبال ابعاد بالاتر هستند، در حالی که SVD به دنبال ابعاد پایین تر هستند. ** برای من ترکیب آنها عجیب به نظر می رسد **. طبق مقاله ای که می خوانم، معرفی Kernel SVD به جای SVD می تواند مشکل پراکندگی داده ها را برطرف کند و نتایج را بهبود بخشد.  از مقایسه در شکل میتوانیم ببینیم که KPCA یک بردار ویژه با واریانس (مقدار ویژه) بالاتر از PCA دریافت میکند؟ از آنجا که برای بزرگترین اختلاف پیش بینی نقاط روی بردار ویژه (مختصات جدید)، KPCA یک دایره و PCA یک خط مستقیم است، بنابراین KPCA واریانس بالاتری نسبت به PCA دارد. پس یعنی KPCA مولفه های اصلی بالاتری نسبت به PCA دریافت می کند؟ آیا اینطور است؟
|
مزایای هسته PCA نسبت به PCA چیست؟
|
115270
|
من میخواهم این مقدار، $f()$ را برای دادههایم محاسبه کنم. $x$ و $y$ سری زمانی هستند. $f$ مانند یک شبه همبستگی رفتار میکند، اما از این نظر متفاوت است که حتی اگر مقادیر بالا و پایین بپرند، $f$ آنها هنوز ضعیف است و اگر مقادیر علامت متناوب (اغلب) داشته باشند منفی میشود. در اینجا زمینه برنامه کاربردی است. فرض کنید در زمان واقعی با 2 نوع شی روبرو می شویم: آبی و قرمز که هر کدام اندازه های متفاوتی دارند. من می خواهم خوشه بندی زمانی این اشیاء را اندازه گیری کنم. تغییر رنگ (یعنی تغییر علامت) سنگین تر از تغییر کمیت است. اگر من 2 جسم آبی متوالی را با اندازه های کاملاً متفاوت ببینم، می خواهم بگویم که هنوز مقداری خوشه بندی وجود دارد، اما نه بیش از حد، در حالی که وقتی 2 شی بزرگ با رنگ های مختلف می بینم، می خواهم بگویم ضد خوشه بندی وجود دارد.
|
کمیت مانند همبستگی
|
20689
|
من ممکن است طول یک چوب را اندازه بگیرم. سپس می خواهم ببینم احتمال یک اندازه گیری تحت یک مدل چقدر است. هنگام استفاده از یک مدل پیوسته، احتمال یک عدد منفرد صفر است: $$ \mathbb P( \text{Length}=\text{length} \mid \text{Model}=\text{model} ) = 0 \> . $$ راه درست برای محاسبه احتمال اندازه گیری چیست؟ آیا باید احتمال یک بازه را محاسبه کنم؟ اگر دقت خط کش 1 میلی متر است، آیا باید از بازه $\text{length} \pm 0.5 \text{mm}$ استفاده کنم، یعنی $$ \mathbb P( \text{Length} - 0.5 \text{mm} } \leq \text{Length} \leq \text{length} + 0.5 \text{mm} \mid \text{Model}=\text{model} ) \>؟ $$
|
احتمال اندازه گیری تحت یک مدل پیوسته
|
96909
|
من روی ایجاد مدلی برای «طبقه بندی» رفتار در مقیاسی از «خوب» تا «بد» کار می کنم. من یک مجموعه داده بزرگ دارم که در آن هر سطر یک فرد و هر ستون جنبه ای از رفتار را نشان می دهد که می تواند مقدار زمان صرف شده، تغییرات در زمان صرف شده در مقایسه با دوره زمانی قبلی، تعداد جلسات متمایز، چه مقدار از برخی اقدامات در مجموع در حال حاضر 24 متغیر وجود دارد (تعدادی که ممکن است در آینده تغییر کند). حال میخواهم افراد را در مقیاسی از رفتار «خوب»/ «عادی» تا «بد»/ «غیر طبیعی» طبقهبندی کنم (این مقیاس باید پیوسته باشد و مشخص نباشد). رویکرد اولیه من انجام یک تجزیه و تحلیل مؤلفه های اصلی (PCA) روی 24 متغیر بود و دریافتم که 3 رایانه اول 70 درصد از واریانس داده ها را به خود اختصاص می دهند (با اضافه کردن دو مورد دیگر حدود 90 درصد). این برای من امیدوار کننده به نظر می رسد زیرا افرادی که رفتار غیر طبیعی دارند مقادیر بزرگتری حداقل برای ترکیبی از متغیرها دارند، به عنوان مثال. زمان بیشتر صرف شده، تعداد بیشتری از اقدامات خاص. مشکل من این است که چگونه باید ابعاد را بیشتر کاهش دهم. من می خواهم همه افراد را در یک بعد واحد از خوب به بد ترسیم کنم. از آنجایی که من در این نوع مدل سازی کاملاً تازه کار هستم، از هرگونه راهنمایی/پیشنهاد قدردانی می کنم. آیا انجام یک رگرسیون خطی ساده از سه جزء اصلی ایده خوبی است؟ آیا باید از رایانه های شخصی بیشتری استفاده کنم تا واریانس بیشتر در داده ها را در نظر بگیرم؟ آیا روش دیگری وجود دارد که باید سعی کنم این را مدل کنم؟ _من از R استفاده می کنم اگر مرتبط باشد._
|
ایجاد مدلی برای «طبقه بندی» رفتار
|
59289
|
من یک مجموعه آموزشی دارم که در آن ورودی ها و خروجی ها همه وجود دارند، اما گمان می کنم که در داده هایی که می خواهم پیش بینی انجام دهم، گاهی اوقات با سناریوهایی مواجه می شوم که بخش کوچکی از ویژگی های ورودی از دست رفته است. آیا روشهای یادگیری ماشینی وجود دارد که پس از تکمیل یادگیری، بتواند پیشبینی معقولی را در میان ورودیهای گمشده مانند این ارائه دهد؟ اگر مهم باشد، من به دنبال پیشبینیهای با ارزش واقعی هستم (به طور ایدهآل چند متغیره، زیرا من 2 خروجی برای پیشبینی در هر مجموعه ورودی دارم).
|
چه تکنیکهای یادگیری ماشینی، پس از آموزش، میتوانند با وجود برخی ورودیهای گمشده، پیشبینی ایجاد کنند؟
|
44505
|
من دو پارامتر را اندازه گیری کرده ام (کربن آلی محلول DOC = y و تخلیه = x). هنگامی که این دو متغیر در برابر یکدیگر رسم می شوند، یک حلقه پسماند دریافت می کنیم (به مثال کد و تصویر مراجعه کنید). اکنون، برای تجزیه و تحلیل بیشتر، می خواهم مساحت این حلقه هیسترتیک را تعیین کنم. من متوجه شدم که این کار را می توان با استفاده از روش دارتینگ مونت کارلو انجام داد. این روش می گوید که مساحت یک ناحیه ناشناخته متناسب با مساحت یک مستطیل مشخص است که ضربات وارد شده به میدان داخلی (حلقه) است. مشکل من در حال حاضر این است که چگونه با استفاده از R مسئله درون/خارج را حل کنیم. لطفا توجه داشته باشید که من برای هر روش دیگری باز هستم... در گوگل سرچ کردم و در سایت های آماری مختلف جستجو کردم اما جوابی پیدا نکردم. هر گونه کمک مستقیم یا پیوند به سایر وب سایت ها / پست ها بسیار قدردانی می شود.  داده <- read.table(http://dl.dropbox.com/u/2108381/DOC_Q_hystersis.txt، sep = ;، header = T) head(Data) نمودار (Data$Q، Data$DOC، type = o، xlab = تخلیه (m3 s-1)، ylab = DOC (mg Cl-1)، main = حلقه هیسترسیس رابطه C/Q)
|
چگونه مساحت یک حلقه پسماند (مشکل درون/خارج) را به زیبایی تعیین کنیم؟
|
104053
|
اول از همه، من نسبتاً تازه وارد آمار هستم، پس راحت باشید. من میدانم که توزیع دوجملهای منفی میتواند در نتیجه اجازه دادن به پارامتر $\lambda$ در توزیع پواسون مانند توزیع گاما ایجاد شود. می خواستم بدانم آیا نتیجه مشابهی برای ترکیب پواسون-گاوسی وجود دارد که $\lambda$ یک متغیر تصادفی است و به صورت گاوسی توزیع شده است. بدیهی است که این موضوع وجود دارد که توزیعهای گاوسی اجازه مقادیر منفی را میدهد، اما اگر آن را از صفر به بینهایت محدود کنیم و بر این اساس نرمال کنیم، فکر میکنم که ممکن است. در این حالت، پارامتر $\lambda$ مقداری متوسط و یک گسترش متقارن حول آن مقدار خواهد داشت. از آنچه من فهمیدم، مخلوط با زیر انتگرال نشان داده می شود. $$\frac{\int_{0}^{\infty}\frac{\lambda^k}{k!}e^{-\lambda} e^{-\frac{(\lambda-\mu)^2 }{2 \sigma^2}}d\lambda}{\int_{0}^{\infty}e^{-\frac{(\lambda-\mu)^2}{2 \sigma^2}}d\lambda}$$ اگر یک فرم ساده یا شناخته شده وجود نداشته باشد، چگونه همه شما پیاده سازی مناسب برای آن را در برنامه ای مانند Matlab توصیه می کنید؟ محاسبه آن از این تعریف و تطبیق با آن نسبتاً دشوار به نظر می رسد. من همچنین به دنبال ترکیبی با توزیع log-normal بودم (از آنجایی که $\lambda$ مثبت است)، اما فکر میکردم که مقابله با آن حتی دشوارتر خواهد بود.
|
مناسب برای توزیع مخلوط پواسون-گاوسی
|
111958
|
داوران از من خواسته اند که آلفای کرونباخ را برای آزمایش هایی که در طول آزمایش انجام داده ام محاسبه کنم. دو راه وجود دارد که من می توانم آن را انجام دهم (حداقل)، و من نمی دانم که کدام مناسب تر است. **زمینه:** دو مجموعه تست وجود داشت. پاسخ به تمام سوالات در یک مقیاس (0 = نادرست، 1 = صحیح) نمره گذاری شد. همه سؤالها از یک دسته و قالب کلی بودند (همگی مسائل داستان ترکیبی شامل نمونهگیری با جایگزینی، ارائه شده در قالب انتخاب اجباری باینری) بودند، اگرچه لزوماً دشواری یکسانی نداشتند. تعداد سؤالات دو مجموعه آزمون یکسان بود. بین دو مجموعه، سؤالاتی که تعداد یکسانی داشتند (مثلاً سؤالات اول در هر مجموعه) از نظر معنایی مشابه بودند (عناصر مشابهی در داستان ها ظاهر شد). شرکتکنندگان در آزمایش یکی از مجموعههای آزمون (به صورت تصادفی انتخاب شده) را به عنوان پیشآزمون تکمیل کردند، سپس آموزش دریافت کردند، سپس مجموعه آزمون دیگر را به عنوان پسآزمون تکمیل کردند. **سوال:** میتوانم آلفای کرونباخ را بهصورت جداگانه برای پیشآزمون و پسآزمون یا بهطور جداگانه برای هر مجموعه آزمون محاسبه کنم. در هر صورت، من سؤالاتی را که شماره سؤال یکسانی دارند، به عنوان یک سؤال در نظر میگیرم. اگر من با پیشآزمون/پسآزمون محاسبه کنم، یک مورد داده شده شامل سؤالات مختلفی میشود - برای مثال، سؤال 1 در پیشآزمون میتواند یکی از دو سؤال متفاوت باشد، بسته به اینکه کدام مجموعه آزمون برای پیشآزمون برای یک شرکتکننده خاص استفاده شده است. اگر من با مجموعه آزمون محاسبه کنم، آنگاه یک آیتم داده شده همیشه همان سؤال واقعی را نشان می دهد، اما سؤال برای برخی از شرکت کنندگان قبل از آموزش و برای برخی دیگر پس از آموزش اجرا شده است. **کدام راه مناسب تر است و چرا؟**
|
آلفای کرونباخ را روی مجموعه تست محاسبه کنید یا در زمان تست؟
|
92102
|
بابت این سوال نسبتا ساده پوزش می طلبم، اما نتوانستم تعریفی آنلاین پیدا کنم. قطع ROC برای بسته AUC چه چیزی را نشان می دهد؟ به طور خاص، چگونه به پیش بینی ها مربوط می شود؟ به عنوان مثال، داده های من شامل احتمال حرکت به سمت بالا و اندازه گیری دقت دو جمله ای (بله یا خیر) است. من می خواهم آستانه خاصی را برای احتمال حرکت به سمت بالا به اندازه گیری دقت مرتبط کنم - یعنی 70٪ TPR برای P(up) > 0.65. وقتی در R برای آستانه tpr 80% فیلتر می کنم، پاسخ زیر را برای برش ها دریافت می کنم. به نظر می رسد که متریک برش با P(up) مطابقت ندارد زیرا اگر به مجموعه داده های اصلی برگردم و p(up) > cutoff = 0.48 را فیلتر کنم، tpr بزرگتر از 0.8 دریافت می کنم. rup <- roc(pUp، واقعی) rf <- data.frame(cutoffs = rup$cutoffs, fpr = rup$fpr, tpr = rup$tpr) rf [ rf$tpr > 0.8,] برش fpr tpr 0.480 0.000 0.801 از وقتی که در اختیار ما گذاشتید متشکرم.
|
قطع ROC چگونه به پیش بینی ها مربوط می شود؟
|
34844
|
نسخه کوتاه: ما یک متغیر تصادفی $X$ (قابل مشاهده) و یک متغیر تصادفی $Z$ (پنهان) داریم. ما توزیع های مناسب $P(X|Z)$ و $P(Z;w)$ را انتخاب کرده ایم که $w$ پارامتر مدل است. توزیع ها احتمالاً در خانواده نمایی نیستند، و متغیرها احتمالاً ابعاد بالایی دارند، بنابراین هیچ راه تحلیلی عملی برای ادغام $Z$ وجود ندارد. اکنون، ما یک مشاهده از $X$، $x$ دریافت می کنیم. چگونه گرادیان $d(P(X=x))/dw$ را محاسبه یا برآورد کنیم؟ نسخه بلند: وضعیت زیر را در نظر بگیرید که در آن میخواهیم تخمین حداکثر احتمال (MLE) را با استفاده از شیب نزولی تصادفی (SGD) انجام دهیم. ما یک مدل گرافیکی جهتدار بسیار ساده با دو متغیر تصادفی $X$ و $Z$ داریم که در آن $X$ مشاهده میشود و $Z$ پنهان (پنهان) و یک لبه جهتدار از $Z$ به $X$ است. . هر دو بردار تصادفی با ارزش واقعی (احتمالاً با ابعاد بالا) هستند. مدل گرافیکی با توزیع توزیع قبلی $P(Z;w)$ با پارامترهای برخی پارامترها/وزن ها $w$ و یک توزیع شرطی $P(X|Z)$ ارائه می شود. شکل توزیعها در حال حاضر مهم نیست (به جز اینکه لزوماً در خانواده نمایی نیستند، و ارزش واقعی و ابعاد بالایی دارند، بنابراین ادغام Z بسیار گران است). ما میخواهیم MLE انجام دهیم، بنابراین میخواهیم احتمال دادهها (مشاهدات X$) را با تنظیم $w$ به حداکثر برسانیم. ما می دانیم که: $P(x) = \int P(x,z) dz = \int P(x|z)P(z) dz$ اکنون یک مشاهده $x$ از X$ به ما داده می شود، و می خواهیم برای محاسبه گرادیان احتمال w.r.t. وزن آن نقطه داده: $\delta_x = d(P(X))/dw$ چگونه می توان این کار را انجام داد؟ واضح است که مشکل اصلی این است که برای محاسبه $P(X)$ باید $Z$ را ادغام کنیم. با این حال، این برای $Z$ با ابعاد بالا غیرقابل حل است. با گرفتن نمونه های MCMC از $Z$ می توان انتگرال را تقریب زد. با این حال، برای من کاملاً روشن نیست که چگونه گرادیان w.r.t را محاسبه کنم. $w$ در این مورد زیرا $w$ نمونهها را از طریق $P(Z;w)$ تحت تاثیر قرار میدهد. کسی ایده ای دارد؟
|
محاسبه گرادیان احتمال بر روی یک مدل گرافیکی ساده جهت دار با واحد پنهان
|
66624
|
من مدل هایی را با استفاده از دوجمله ای منفی «glm.nb()» در R اجرا کرده ام و 3 مدل برتر با AIC بسیار نزدیک (<2) دارم. من به انجام یک مدل میانگین گیری با استفاده از بسته MuMIN فکر می کردم. مشکل من این است که بدانم چگونه با متغیرهای کمکی خود رفتار کنم. در واقع سه مدل من دقیقاً مجموعه ای از متغیرها را ندارند. M1 <- Response_variable ~ Cov1+Cov2 M2 <- Response_variable ~ Cov2:Cov3 M3 <- Response_variable ~ Cov1+Cov2+Cov3 اگر متغیرهای کمکی در همه مدل ها نیستند چگونه می توانم ضرایب را میانگین بگیرم؟ آیا باید 0 را به مدل های خود اضافه کنم؟ > من سعی کردم از summary((model.avg(مدل های کاندید)) و modavg.glm() استفاده کنم، اما > به نظر نمی رسد که هیچ یک از این دستورات نمی خواهند تخمین های من را محاسبه کنند زیرا مدل های > من دوجمله ای منفی هستند. اگرچه وقتی پی دی اف MuMIN را خواندم گفت > که glm.nb توسط model.avg پشتیبانی می شود آیا چیز دیگری وجود دارد که باید > روی دستور بنویسم؟
|
میانگین گیری مدل - مدل هایی با متغیرهای کمکی مختلف
|
44501
|
امیدوارم بتوانید به من کمک کنید... من سعی می کنم بفهمم چگونه آزمایشم را به بهترین شکل تجزیه و تحلیل کنم... طرح نمونه من: من دو رودخانه دارم (رودخانه 1 و 2). در هر دو رودخانه، 5 نمونه بی مهرگان درشت به طور تصادفی از یک ایستگاه 2×10 متری ماهانه (به مدت 12 ماه) گرفته می شود. سپس هر نمونه برای فراوانی کل ماکرو بی مهرگان شمارش می شود. بعد از ماه شماره 4، سیل در رودخانه 1 رخ می دهد. چنین سیلابی در رودخانه 2 رخ نمی دهد. سوال تحقیق من: آیا سیل در رودخانه 1 بر فراوانی بی مهرگان درشت تأثیری داشته است؟ توجه: تجزیه و تحلیل اولیه نشان داده است که (log n+1) داده های فراوانی بی مهرگان درشت برای هر ایستگاه، در هر ماه، تقریباً به طور نرمال توزیع شده و دارای واریانس مساوی هستند. * * * افکار اولیه من: من یک طرح از نوع BACI دارم. تا کنون من یک مدل ANOVA با اندازه گیری های تکراری سه راه را بررسی کرده ام... (عوامل: رودخانه (یعنی رودخانه 1 (تأثیر شده)، رودخانه 2 (کنترل)، ماه و دوره (قبل/پس از سیل)). 3. برای اینکه نمونهها مستقل نباشند، آیا «رودخانه» باید بهعنوان عامل اندازهگیری مکرر در نظر گرفته شود (یعنی یک اثر تصادفی). آیا این طرح متعادل است یا نه نظر دیگری دریافت کنید بسیار مفید خواهد بود، هر گونه سؤال، لطفاً از قبل بپرسید با تشکر فراوان، رابرت
|
سوال تحلیل طراحی نوع BACI
|
20357
|
من روی الگوریتمی کار می کنم که دو پارامتر از داده های ورودی آن را تخمین می زند. من مجموعه ای نماینده از نمونه ها با پارامترهای واقعی دارم تا به عنوان یک حقیقت پایه عمل کند. از آنجایی که این الگوریتم از آستانه ای استفاده می کند که باید به صورت دستی توسط کاربر تنظیم شود، من فکر می کردم که آیا می توان از نمونه های حقیقت زمینی من برای یافتن بهترین آستانه برای مجموعه آموزشی خود استفاده کرد. چگونه می توانم یک متریک خطا را برای دو متغیر وابسته بیان کنم، زیرا برای هر مقدار آستانه و نمونه دو پارامتر تخمین زده شده توسط الگوریتم دارم. من واقعا از هر اشاره ای قدردانی می کنم. پیشاپیش ممنون
|
متریک خطا برای یک مدل رگرسیون با دو متغیر وابسته
|
92106
|
من در حال ارزیابی یک طبقه بندی کننده چند برچسبی هستم. من با آمار Area Under the Curve آشنا هستم که ویژگی های خوبی دارد (به عنوان مثال سطح شانس همیشه 50٪ است). اما برای برخی از برنامهها، استفاده از معیار **متوسط میانگین دقت** مناسبتر است که نتایج را بر اساس نتایج $K$ بازگشت داده شده ارزیابی میکند. MAP در اینجا در fastml و اینجا در kaggle به خوبی توضیح داده شده است. در مورد من من از MAP@20 استفاده می کنم، بنابراین ارزیابی در 20 نتیجه برتر است. (دادههای من شامل تعداد متغیری از برچسبهای مثبت واقعی برای هر مورد، تا 12 است.) اما: امتیاز خوب برای MAP@20 چیست؟ نمره بد چیست؟ امتیاز شانس چقدر است؟ (به وضوح 100٪ بهترین امتیاز و 0٪ بدترین است.) من نمی توانم مرجع آنلاینی پیدا کنم که در این مورد بحث کند. من فکر می کنم امتیاز شانس باید به نسبت برچسب های مثبت به منفی در داده های شما بستگی داشته باشد. همچنین دانستن اینکه آیا تفسیر مفیدی از امتیاز وجود دارد یا خیر مفید خواهد بود. برای AUC تعبیری به عنوان احتمال رتبه بندی یک نمونه مثبت تصادفی بالاتر از یک نمونه منفی تصادفی وجود دارد. ممنون از مراجع یا توضیحات
|
آمار ارزیابی دقت میانگین متوسط (MAP) - درک مقادیر خوب / بد / شانس
|
92107
|
من با یک مجموعه داده SPSS کار می کنم، یک مطالعه مونت کارلو با 5000 کارآزمایی. 5 میانگین و در نتیجه 10 مقایسه برای هر آزمایش وجود دارد. اهمیت آزمون t هر مقایسه و همچنین محدودیتهای فاصله اطمینان برای هر مقایسه و میزان خطاهای نوع 1 و 2 در هر آزمایش به من ارائه شده است. اساساً باید تشخیص دهم که کدام گروه مقایسه حاوی خطای نوع 1 است، بر اساس t-significance و محدودیت های فاصله اطمینان. من مطمئن نیستم که چگونه باید این کار را انجام دهم، می توانم فرکانسی را اجرا کنم که نشان دهد تعداد خطاها در مجموع آزمایشات چقدر است، اما مطمئن نیستم که چگونه می توانم به طور دقیق مشخص کنم که کدام مقایسه در آزمایشی حاوی این موارد است. خطا بر اساس محدودیت های فاصله اطمینان.
|
شناسایی خطاهای نوع 1 با استفاده از فواصل اطمینان
|
92109
|
اساسا، من خروجی LDA زیر را دارم (در زیر). سوال من این است که واقعا چگونه آن را تفسیر کنم؟ من نتوانستم منابع زیادی را در وب پیدا کنم. به خصوص، گروه به معنای واقعا در اینجا به چه معناست؟ من انتظار داشتم که معنی گروه میانگین / مرکز کلاس های K باشد. علاوه بر این، من با دو عبارت، یعنی ضرایب متمایز کننده خطی و نسبت ردیابی گیج شده ام. 0.09090909 0.09090909 0.09090909 0.09090909 0.09090909 0.09090909 11 0.09090909 معنی گروه: x.1 x.2 x.3 x.1 x.1 x.1 x. -3.359563 0.0629375 -0.2940625 1.2033333 0.38747917 1.2218958 0.09637500 0.03710417 -0.62435416 -0.62435417 0.62435417 -0.62435417 0.62435417 -0.62435416 -0.62435416 -0.0. 0.4906042 -0.5802292 0.8135000 0.20193750 1.0634792 -0.19091667 0.37381250 -0.51595833 0.0806041747470. -0.7983958 0.8086667 0.04245833 0.5692500 -0.28006250 0.20495833 -0.47827083 0.18187500 4 -2.2233258584 -2.21334504 0.4221458 -0.37131250 0.2483542 -0.01895833 0.10714583 -0.32627083 -0.05375000 5 -2.756312 2.27595832 - 2.27595832. -1.03679167 0.3897917 0.23641667 0.42462500 -0.20070833 -0.28070833 6 -2.673542 1.7587708 -0.47462506 -0.47462506 -0.47462506 0.4170000 0.16233333 0.22925000 -0.20750000 0.05270833 7 -3.243729 2.4683542 -0.1050625 0.396750000 - 0.3964985831 0.01958333 0.76229167 -0.03027083 -0.12239583 8 -4.051333 3.2339792 -0.1739792 0.3965833 -1.04601968686760831. 0.82077083 0.10445833 0.02122917 9 -3.876896 2.3450208 -0.3668333 0.3170417 -0.39450000 0.8033376896 -0.23183333 -0.14810417 10 -4.506146 2.6885625 -0.2849167 0.4695625 -0.03879167 0.6388750 0.1391366675 0.63888750 0.1391366675 -0.27335417 11 -2.990396 1.4638750 -0.5098125 0.3716458 -0.38039583 0.7250417 -0.08339583 0.5076366675 - 0.5076366675 - ضرایب ممیز خطی: LD1 LD2 LD3 LD4 LD5 LD6 LD7 LD8 LD9 x.1 -0.904263484 1.0765784 -0.2138645 0.45014309 -0.0156831403 -0.01568319451 -0.01568319451 -0.55370976 -0.21893931 x.2 1.150256514 0.3481586 0.1219356 0.81974744 0.07879069 -1.2828586 0.810438 - 1.2828586 0.819356 -0.46773378 x.3 0.539113617 -0.4775768 -1.3152720 -0.18174531 0.01428301 -1.0421541 1.3953387 0.05648 - 0.05664 0.024636593 -0.6124198 -0.3333835 0.89249728 -1.19422174 -0.2840921 0.6079608 -1.18671349 -0.262352020 -0.262353520 -0.262352174 -1.6078817 1.2374917 0.96925109 -0.17984293 -0.9791226 1.5595892 -0.12322124 0.38252584 x.6 0.7085251040 -0.8767861 -0.06187384 0.84899844 -1.9958303 0.2001485 -0.54892997 -0.82835032 x.7 0.843500553 -0.81056 -0.81056 1.10382558 -1.35657038 -1.0703157 0.5029121 -0.09927612 1.50030138 x.8 1.305220749 -0.9393954 0.9393954 0.9196755 - 0.9393954 -0.85277476 0.1212728 0.6617860 -0.25729462 1.12742075 x.9 0.965050787 -0.5131795 0.6927861 0.6927861 0.60707704 0.6077070 -0.5487891 0.5244975 1.05461865 -0.04187258 x.10 0.352677857 -0.1517412 0.7092612 -0.22606164 -1.0394176 -1.04293 -0.5629667 0.29898796 0.14972818 LD10 x.1 0.01475366 x.2 -0.20534101 x.3 -0.52218214 x.4 0.22298959 x.57 x.50 0.13158053 x.7 0.36516484 x.8 0.30135489 x.9 1.31351481 x.10 -0.23691329 نسبت اثر: LD1 LD2 LD3 LD4 LD5 LD6 LD9 LD5. 0.3518 0.0445 0.0191 0.0107 0.0083 0.0026 0.0011 0.0001 0.0001
|
چگونه خروجی LDA را در R تفسیر کنیم؟
|
95337
|
همه من در یک کلاس آمار کاربردی مقدماتی شرکت می کنم و نمی توانم بفهمم که چگونه یک سوال در مورد تکالیفم انجام دهم. من همه داده ها را قرار نمی دهم، زیرا واقعاً می خواهم بدانم چگونه مشکل را انجام دهم، نه فقط پاسخ را. در مشکل، لیستی از مدارس و شهریه هر مدرسه در سال های 2000 و 2005 به من داده شده است. من مقادیر شهریه سال 2000 را در لیست یک و مقادیر مربوط به سال 2005 را در لیست دو قرار داده ام. از آنجا، من توانستم با اجرای LinReg(a+bx) روی ماشین حساب ti-83، خط رگرسیون حداقل مربعات صحیح را بیان کنم. با این حال، میخواهد p-value و t را نیز بداند، و من نمیدانم چگونه میتوان به این مقادیر رسید. ما تشویق میشویم از ماشینحسابهایمان استفاده کنیم، بنابراین اگر کسی بتواند من را در مسیر درست راهنمایی کند، بسیار موظف خواهم بود. :)
|
رگرسیون خطی: یافتن t و p-value
|
44503
|
از من خواسته شده است که داده های مشاهدات میدانی یک جامعه ماهی را تجزیه و تحلیل کنم. داده ها در دو محل نمونه برداری طی 16 روز (غیر متوالی) دو بار در روز جمع آوری می شود. متغیر وابسته زیست توده است. هدف از این مطالعه، یافتن تفاوتهای بین زیست توده روز/شب و زیستتوده سطح جزر و مد، و تعامل این دو عامل است. اگر مشاهدات مستقل از یکدیگر بودند، ANOVA مشکلی نداشت. اما در این مورد همه مشاهدات فقط از دو سایت (موضوع) می آیند. با توجه به اینکه تنها دو سایت وجود دارد، از مدل اثر تصادفی یا اندازه گیری های مکرر ANOVA نیز نمی توان استفاده کرد. در این شرایط چه راه حلی می تواند استفاده شود؟
|
نقض استقلال، ANOVA
|
61390
|
اگر درست بگویم، «طبقهبندی بدون نظارت» همان خوشهبندی است. پس آیا «پسرفت بدون نظارت» وجود دارد؟ با تشکر
|
آیا «رگرسیون بدون نظارت» وجود دارد؟
|
66626
|
بنابراین، ما در حال بررسی یک نسخه خطی بودیم که در آن گروه تحقیقاتی در حال توسعه یک نظرسنجی اضطراب برای دانشآموزان زیستشناسی سطح بالا بود. این نظرسنجی دارای 25 مورد بود. از طریق فرمت های کاغذی و آنلاین (N = 200-250 در هر بار) مدیریت شد و قابلیت اطمینان با هر فرمت > 0.8 بود. در مرحله دوم، آنها 4 جزء را با استفاده از PCA دریافت کردند، بارگذاری نسبتاً بالا بود (> 0.7) و قابلیت اطمینان خرده مقیاس نیز بسیار بالا بود. بر اساس قابلیت اطمینان و بارگذاری بالای آنها، محققان در حال بررسی این موضوع بودند که آیا موارد نیاز به حذف از مدیریت بعدی بررسی دارند یا خیر. با توجه به آنچه که آنها بیان کردند، هیچ آیتمی با بارگذاری متقاطع وجود نداشت، هیچ آیتمی که به طور مداوم بدون بار نشان داده می شد و 4 جزء آنها معنی دار بود. بنابراین، چرا قابلیت اطمینان بالا، بارگذاری بالا، بررسی 25 مورد و نسبت آیتم: مورد مناسب، سؤال حذف هر موردی را مطرح می کند؟ آیا این تصمیم توجیهی دارد؟
|
آیا حذف اقلام از ترازو با پایایی خوب توجیه آماری دارد؟
|
110842
|
اکثر متونی که در مورد رگرسیون پواسون خواندهام، فرض میکنند که دادهها به شکل گروهبندیشده از قبل در دسترس هستند، بهعنوان مثال، شمارشهایی برای هر ترکیب متغیر کمکی منحصربهفرد داده میشود. به عنوان مثال، ما (در R) DataGrouped<-data.frame(Gender=as.factor(c(M,F))، Counts=c(6,2)) DataGrouped Gender Counts 1 M 6 2 داریم F 2 بنابراین می توانیم از glm (Counts~Gender,data=DataGrouped,family=poisson) برای اجرای پواسون-رگرسیون. با این حال، اغلب ما دادههای سطح فردی داریم، مانند DataIndividual<-data.frame(PatientID=1:8,Gender=as.factor(c(rep(M,6),rep(F,2) ))) DataIndividual PatientID جنسیت 1 1 M 2 2 M 3 3 M 4 4 M 5 5 M 6 6 M 7 7 F 8 8 F که به وضوح با پایگاه داده فوق یکسان است. سوال این است: چگونه می توانم رگرسیون پواسون را در چنین پایگاه داده در سطح فردی اجرا کنم؟ البته میدانم که میتوانم به سادگی شمارش را خودم انجام دهم، مثلاً با glm(Freq~Var1,data=data.frame(table(DataIndividual$Gender)),family=poisson) اما برایم جالب است که آیا اینطور است بدون شمارش صریح و دستی امکان پذیر است. به خصوص، اینکه آیا می توان به نحوی «DataIndividual» را مستقیماً به «glm» متصل کرد.
|
آماده سازی داده ها برای رگرسیون پواسون: استفاده از داده های فردی
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.