_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
81567
**سوال:** زمینه این سوال در واقع مالی است، اما خود سوال یک موضوع آماری است. فرض کنید عبارت زیر را دارم: $$\rho = \frac{2\bar{x}}{(s^*_x)^2}+1 .......... (1)$$ جایی که $\bar{x} = \frac{1}{T} \sum_{t=1}^{T} x_t$ $(s^*_x)^2 = \frac{1}{T} \sum_{t =1}^T (x_t - \bar{x})^2$ فرض کنید $T$ مقداری ثابت ثابت است. توجه: $T$ فقط تعداد کل مشاهدات $x_t$ است. من اطلاعاتی در مورد $x_t$ برای هر «نهاد» دارم (در اینجا یک نهاد فقط به یک شرکت/شرکت اشاره دارد). در مجموع، من 2228 موجودیت دارم و برای هر موجودیت، مشاهدات $T$ x_t$ دارم. برای هر موجودیت، مشاهدات $T$ از $x_t$ را با Eqn جایگزین می‌کنم. $(1)$ و مقداری برای $\rho$ بدست آورید. بنابراین در مجموع، من 2228 مقدار $\rho$ دارم. حال، مقدار بزرگ $\rho$ به معنای بد بودن موجودیت است و مقدار کوچک $\rho$ به معنای خوب بودن موجودیت است. با این حال، مشکل این است که مقدار $\rho$ چقدر باید باشد تا یک موجودیت به عنوان بد طبقه بندی شود؟ یعنی آستانه چقدر است که اگر $\rho$ از مقدار آستانه فراتر رفت، آنگاه بتوانیم موجودیت را به عنوان بد طبقه بندی کنیم؟ برای مثال، فرض کنید آستانه 400$ باشد، اگر موجودیت A دارای $\rho = 300$ باشد در حالی که موجودیت B دارای $\rho = 1000$ باشد، آنگاه موجودیت A خوب است در حالی که موجودیت B بد است. * * * **تلاش های من تاکنون:** اولین تلاش من این بود که داده های موجودی را که به عنوان بد شناخته می شود دریافت کنم و سپس $\rho$ آن را محاسبه کنم و از این مقدار به عنوان آستانه استفاده کنم. مشکل این است که من نمی توانم داده هایی را در مورد نهادهای بد به دست بیاورم. برای تلاش بعدی، توزیع تجربی را با اعمال یک تخمین‌گر چگالی هسته روی 2228 مقدار $\rho$ بدست آوردم. سپس صدک 99 (برای استحکام، صدک 97.5 و 95 را هم محاسبه کردم) این توزیع تلفیقی را محاسبه می کنم و از این مقدار به عنوان آستانه استفاده می کنم. با این حال، انتقاد اصلی این است که این بسیار خودسرانه است و منطق کافی برای استفاده از این روش وجود ندارد. * * * **پرسش‌ها:** بنابراین می‌پرسم آیا کسی ایده‌ای در مورد اینکه چگونه می‌توانم از چه تکنیک‌ها/روش‌های آماری/ریاضی برای استخراج آستانه‌های مناسب برای $\rho$ استفاده کنم، دارد. در حال حاضر، من واقعاً نمی دانم چه ابزارهایی برای این مشکل در دسترس هستند.
محاسبه آستانه مجموعه ای از مقادیر
56844
با الهام از این پاسخ، سؤال زیر دارم: آیا برای تعیین توزیعی که داده ها از آن به دست می آیند، فقط چولگی و کشیدگی را بدانیم کافی است؟ آیا قضیه ای وجود دارد که بر این دلالت داشته باشد؟ علاوه بر این، آیا می‌توانیم چولگی و کشیدگی را با هر جفت گشتاور دیگری (مثلاً مقدار و واریانس مورد انتظار) جایگزین کنیم؟
آیا چولگی و کشیدگی به طور منحصر به فردی نوع توزیع را تعیین می کند؟
69692
من این مشکل دشوار را برای حل دارم. امیدوارم کسی بتونه کمکم کنه فرض کنید می‌خواهم شعاع متوسط ​​درختان یک چوب را بدانم. برای هر درخت i شعاع را در بالا، در مرکز و در پایین اندازه می‌گیرم، و 3 مقدار با عدم قطعیت سیستماتیک داده‌شده توسط وضوح ابزار من (همیشه یکسان است): $X^i_{bot}$ $X^i_{mid}$X^i_{بالا}$$\Delta X_{sys}$ چگونه مقادیر را ترکیب کنم و چگونه خطاها را دریافت کنم؟ اولین رویکرد من این بود که 3 معیار را از نظر آماری ترکیب کنم تا میانگین X^i$ و st را بدست آوریم. انحراف $\sigma$ و سپس خطای سیستماتیک را اضافه کنید. $\Delta X^i = \sqrt{\sigma^2+\Delta X_{sys}}$ سپس برای ترکیب درختان مختلف، میانگینی از مقادیر مرکزی ایجاد کردم و خطا را با فرمول $\Delta X= ترکیب کردم. \sqrt{\Sigma (\frac{\delta f}{\delta X_i} \Delta X_i)^2}$ اما فکر نمی‌کنم اینطور باشد درست است. علاوه بر این، من نه تنها به معنی شعاع درختان، بلکه به شعاع متوسط ​​یک حلقه از درخت آن جنگل نیاز دارم، مشروط بر اینکه هر درخت تعداد حلقه های متفاوتی داشته باشد $n^i$. من واقعاً نمی دانم چگونه این قسمت آخر را بسازم.
ترکیب خطاها
118
در تعریف انحراف معیار، چرا باید برای به دست آوردن میانگین (E) اختلاف میانگین را **مربع** کنیم و در آخر **ریشه مربع را برگردانیم**؟ آیا نمی‌توانیم به سادگی **مقدار مطلق** تفاوت را بگیریم و مقدار مورد انتظار (میانگین) آن‌ها را بدست آوریم، و آیا این نیز تنوع داده‌ها را نشان نمی‌دهد؟ عدد قرار است با روش مربع متفاوت باشد (روش قدر مطلق کوچکتر خواهد بود)، اما همچنان باید گسترش داده ها را نشان دهد. کسی می داند چرا ما این رویکرد مربعی را به عنوان یک استاندارد در نظر می گیریم؟ تعریف انحراف معیار: $\sigma = \sqrt{E\left[\left(X - \mu\right)^2\right]}.$ آیا نمی‌توانیم به جای آن مقدار مطلق را بگیریم و همچنان خوب باشیم اندازه گیری؟ $\sigma = E\left[|X - \mu|\راست]$
چرا به جای در نظر گرفتن قدر مطلق در انحراف معیار، اختلاف را مجذور کنیم؟
48627
همانطور که در حال بررسی کتابم در مورد آمار بودم، با موضوع رگرسیون خطی مواجه شدم. در طول فصل، نویسنده با توضیح این که شما می‌خواهید باقیمانده‌ها را به حداقل برسانید، شروع می‌کند تا y = a + bx خود را تا حد ممکن مناسب کنید: من این را می‌دانم، اما در نیمه‌ی فصل ناگهان باقیمانده‌ها به جمع تبدیل می‌شوند. مربع باقیمانده چرا این کار انجام می شود؟ من دارم گوگل می کنم ولی جواب درستی پیدا نکردم چه کسی می‌خواهد به من کمک کند تا بفهمم چرا از مجموع مجذورهای باقیمانده به جای فقط مجموع باقیمانده‌ها استفاده می‌شود؟ با احترام، بس
مجموع مجذورهای باقیمانده به جای مجموع باقیمانده ها
94369
مدلی مانند این را فرض کنید، اساساً بازده بازار سهام را با یکسری موارد توضیح می‌دهد: stockReturn(t) ~ bondReturn(t) + moneyMarketReturn(t) + inflation(t) + somethingElse(t) 1) آیا از تورم به عنوان یک متغیر مستقل استفاده می کند. مشکلات قابل توجهی به همراه داشته باشد؟ 2) اگر نتایج با استفاده از بازده واقعی متفاوت باشد، در این مورد از تورم برای محاسبه بازده سهام، اوراق قرضه و بازار پول واقعی استفاده شود (با فرض اینکه چیز دیگری یک متغیر غیراقتصادی است). چه چیزی بر تفاوت تأثیر می گذارد؟ بنابراین در اینجا ما این کار را برای بازده سهام، اوراق قرضه و بازار پول انجام می دهیم تا بازده واقعی را بدست آوریم: realReturn(t) = ( 1 + return(t) )/( 1 + inflation(t) ) - 1 و سپس inflation را کاهش می دهیم. از مدل
تورم به عنوان یک متغیر مستقل
17354
من برای دو گروه اطلاعات دارم. 2 گروه بر روی تعدادی متغیر مطابقت دارند، اما در نمرات در مقیاس الکل متفاوت هستند (یک گروه زیاد است و یکی پایین). با این حال، گروه‌ها به‌گونه‌ای ایجاد شده‌اند که حداکثر میزان الکل را در نظر بگیرند (همه در یک گروه بسیار کم، در گروه دیگر بسیار زیاد) بنابراین معیار الکلی که آنها را از هم جدا می‌کند، کاملاً پیوسته نیست. سپس من داده هایی برای گروه ها در مورد عملکرد کار در 3 شرایط مختلف دارم: پاداش، خنثی و تنبیه. من می‌خواهم گروه‌ها را برای عملکرد وظایفشان در هر یک از این شرایط مقایسه کنم، و علاوه بر این ببینم که آیا هر گروه در شرایط متفاوت پاسخ می‌دهد یا خیر. من آزمون‌های t را برای بررسی اینکه آیا میانگین برای هر گروه، در هر شرایط متفاوت متفاوت است، انجام داده‌ام. گروه ها در یکی از شرایط به طور قابل توجهی متفاوت هستند. سوال 1: آیا انجام یک RM-ANOVA که هر گروه را مستقل از یکدیگر در نظر می گیرد، بنابراین از یک فایل تقسیم در SPSS و مقایسه نمرات در سه شرط در هر گروه معتبر است؟ سوال 2: من یک MANOVA را در نظر می گیرم که از عملکرد وظیفه در 3 شرط به عنوان متغیر وابسته و گروه به عنوان متغیر مستقل استفاده می کنم. اگر بخواهم این کار را انجام دهم، آیا جایگزین آزمون‌های t می‌شود یا می‌توان از آن به عنوان آزمایش اضافی استفاده کرد (به موجب آن داده‌هایی با استفاده از رویکرد تک متغیره در آزمون‌های t و سپس با استفاده از رویکرد چند متغیره با استفاده از MANOVA در اختیار دارم). هر فکری؟
چگونه تفاوت بین دو گروه را در سه شرایط آزمایشی مختلف بررسی کنیم؟
89236
من داده ها را از 500 شرکت کننده جمع آوری کردم. نمونه ای از داده ها در اینجا آمده است: پاسخ 1: سن: 25 جنسیت: انتخاب مرد 1: 1 انتخاب 2: 1 انتخاب 3: 0 انتخاب 4: 1 انتخاب 5: 1 ... تا انتخاب 30 پاسخ 2: سن: 20 جنسیت : انتخاب زن 1: 1 انتخاب 2: 1 انتخاب 3: 0 انتخاب 4: 1 انتخاب 5: 1 ... همه سوالات دسته بندی و انتخاب ها نتایج باینری بودند. هدف من: الف) اینکه ببینم چه انتخاب هایی به طور کلی ترجیح داده شده اند (با استفاده از میانگین، چون داده ها نرمال هستند) ب) آیا جنسیت در انتخاب تفاوت ایجاد می کند (با استفاده از رگرسیون خطی) آنچه که واقعاً در مورد آن مشاوره می خواهم: 1) من قرار داده ام متغیرهای کنترل را نشان می دهد و ترجیح می دهد برای انتخاب 1 در حدود 3٪. برای اصلاح این مورد باید چیکار کنم تا 50/50 بشه؟ یا اصلاً باید این کار را انجام دهم؟ 2) پاسخ هایی به نظرسنجی وجود دارد که در آن شرکت کنندگان فقط 1 را برای همه پاسخ ها انتخاب کردند. آیا اینها را رد کنم؟ متشکرم!
در مورد تجزیه و تحلیل داده ها به مشاوره نیاز دارید
16001
من از رویه 2SLS SPSS 19 (که بسیار ساده است و تقریباً هیچ مشخصات اختیاری ندارد) برای پیش‌بینی Y از X پس از پیش‌بینی X بر اساس I، یک متغیر ابزاری، استفاده کردم. سپس سعی کردم با اجرای 2 رگرسیون OLS جداگانه آن نتایج را مطابقت دهم. ابتدا مقادیر X پیش‌بینی‌شده را با رگرسیون X بر روی I به دست آوردم. سپس Y را روی این متغیر «X پیش‌بینی‌شده» رگرسیون کردم. نتایج به سختی با نتایج روش یکپارچه 2SLS مطابقت داشت. _b_ مطابقت داشت، اما نه RSQ یا بتا (که بسیار متفاوت بود) یا _t_. چرا این اتفاق می افتد؟ من مطمئن شدم که برای هر رویه بر اساس زیرمجموعه موارد مشابه فیلتر شده‌ام.
چرا نتایج حداقل مربعات دو مرحله ای من منطقی نیست؟
69699
الگوریتم‌های یادگیری ماشینی مقیاس‌پذیر این روزها به نظر می‌رسد سر و صدا هستند. هر شرکتی چیزی کمتر از _big data_ را مدیریت نمی کند. آیا کتاب درسی وجود دارد که در مورد الگوریتم‌های یادگیری ماشینی با استفاده از معماری‌های موازی مانند Map-Reduce مقیاس‌بندی شود و کدام الگوریتم‌ها نمی‌توانند؟ یا چند مقاله مرتبط؟
کدام الگوریتم های یادگیری ماشینی را می توان با استفاده از هادوپ/کاهش نقشه مقیاس بندی کرد
22742
** OP EDIT ** : هیچ مشکلی با این وجود ندارد. مشکل از روشی بود که من برای دریافت PACF استفاده می کردم. ظاهراً در این مورد خیلی خوب کار نمی کند (من از بسته پایتون scikits/tsa برای بدست آوردن PACF از طریق معادلات YW استفاده می کردم). آزمایش ضرایب در R مانند یک جذابیت کار می کرد. من سعی می‌کنم یک فرآیند AR(2) را شبیه‌سازی کنم، اما به نظر می‌رسد که نتایج وحشتناکی دریافت می‌کنم. روشی که من این کار را انجام می دهم به این صورت است: اگر بخواهم 1000 نقطه از یک فرآیند AR(2) را با ضرایب، مثلا a1=0.1 و a2=0.5 شبیه سازی کنم، تحقق 2000 نقطه از یک فرآیند نویز سفید را شبیه سازی می کنم. (در مورد من 2000 نقطه از یک توزیع معمولی ~N(0,1) شبیه سازی کردم)، جایی که از اولین استفاده خواهم کرد. 1000 امتیاز به عنوان امتیاز سوختن. فرض کنید من این تحقق را در یک بردار W[t] ذخیره می کنم. سپس، فرآیند واقعی AR(2) را با تکرار بر روی یک بردار جدید، X[t] به صورت زیر شبیه‌سازی می‌کنم: X[0]=W[0] X[1]=W[1] X[2]=a1 *X[1]+a2*X[0]+W[2] X[3]=a1*X[2]+a2*X[1]+W[3] ... X[i]=a1*X[i-1]+a2*X[i-2]+W[i] در نهایت، 1000 مقدار آخر بردار X[i] را برمی‌گردانم. مشکل این است که وقتی تابع خودهمبستگی جزئی واقعی را رسم می‌کنم (یعنی وقتی ضرایب فرآیند AR(2) را که تولید کرده‌ام تخمین می‌زنم)، ضرایب اشتباهی برای a1 دریافت می‌کنم (البته مقدار قابل قبولی برای ضریب a2 دریافت می‌کنم). چه چیزی را از دست داده ام؟ تابع Python من برای شبیه سازی اینجاست: from numpy.random import normal from pylab import * # INPUT: # a: آیا آرایه با ضرایبی است، به عنوان مثال. a=array([a1,a2]). # sigma: انحراف معیار نویز سفید (میانگین صفر در این مورد). # n: تعداد نقاط برای ایجاد. def ARgenerator(a,sigma,n,burnin=0): if(burnin==0): burnin=100*len(a) # Burn-in element! w=normal(0,sigma,n+burnin) AR=array([]) s=0.0 warning=0 برای i در محدوده(n+burnin): if(i<len(a)): AR=append(AR ,w[i]) else: s=0.0 برای j در محدوده(len(a)): s=s+a[j]*AR[i-j-1] AR=append(AR,s+w[i]) print 'انحراف معیار اندازه گیری شده: '+str(sqrt(var(w[burnin:]))) AR[burnin:] را برمی گرداند **ویرایش:** توسط MCMC شبیه سازی (جایی که من از ماتریس اتوکوواریانس برای یک فرآیند AR(2) با احتمال گاوسی چند متغیره استفاده می کنم)، مقدار سیگما را درست دریافت می کنم. std. انحراف فرآیند نویز سفید) و ضریب a2. با این حال، مقدار a1 من هیچ ارتباطی با مقدار واقعی ندارد.
مشکل شبیه سازی فرآیند AR(2).
89233
من سعی می کنم احتمال بقا را با متغیرهای کمکی متغیر با زمان پیش بینی کنم. مجموعه داده من شامل افراد مختلفی است که در تاریخ های مختلف وارد مطالعه می شوند و پیگیری های متعددی دریافت می کنند. برای هر موضوع، زمان را از تاریخ ورود به مطالعه (و نه از شروع مطالعه) می شمارم. وقتی پیش‌بینی‌هایم را در مجموعه تست ارزیابی می‌کنم، متوجه شدم که این مدل برای افرادی که کمی قبل از پایان آن وارد مطالعه می‌شوند، عملکرد بدی دارد. آیا چیزی در این راه وجود دارد که من این مدل را طراحی کرده ام که تعصب را معرفی می کند، یا می تواند صرفاً به این دلیل باشد که من اطلاعات کمتری در مورد ورودی های بعدی دارم؟ * * * در صورتی که این مفید باشد، من از بسته بقای R استفاده می کنم تا یک مدل کاکس را با فرم «Surv(شروع، توقف، رویداد)» تطبیق دهم، که در آن چندین مشاهدات برای هر فرد دارم. من از predictSurvProb در PEC برای تولید احتمالات بقای پیش بینی شده برای مجموعه آزمایشی خود استفاده می کنم.
سوگیری در پیش‌بینی بقا با متغیرهای کمکی متغیر زمان
13675
من در حال حاضر از فرآیند زیر برای راه‌اندازی یک سری زمانی چند متغیره در R استفاده می‌کنم: 1. اندازه‌های بلوک را تعیین کنید -- تابع «b.star» را در بسته «np» اجرا کنید که اندازه بلوک را برای هر سری تولید می‌کند. 2. حداکثر اندازه بلوک را انتخاب کنید. 3. «tsboot» را روی هر سری با استفاده از اندازه بلوک انتخابی اجرا کنید. 4. از فهرست خروجی بوت استرپ برای بازسازی سری های زمانی چند متغیره استفاده کنید. راه‌انداز بلوک است، اما از آنجایی که من از کل مجموعه داده‌ها برای انتخاب اندازه بلوک استفاده نمی‌کنم، مطمئن نیستم که اگر بخواهم از شاخص ایجاد شده با اجرای «meboot» در یک سری استفاده کنم، چگونه می‌توانم همبستگی بین سری‌ها را حفظ کنم. اگر کسی تجربه ای با meboot در یک محیط چند متغیره داشته باشد، بسیار ممنون می شوم در مورد این فرآیند راهنمایی کنید.
جایگزینی برای مسدود کردن بوت استرپ برای سری های زمانی چند متغیره
89230
کار کردن روی یک سوال تکلیف و داشتن مقداری مشکل... هر کمکی بسیار قابل قدردانی خواهد بود. بر اساس نمونه 1.23، 0.36، 2.13، 0.91، 0.16، 0.12 از توزیع GAM$(2,\theta)$، CI دقیق 95% را برای پارامتر $\theta$ پیدا کنید. بنابراین می دانیم که GAM$(\alpha, \lambda)$ دارای pdf $f(x)= \dfrac{\lambda^{\alpha}}{\Gamma{(\alpha)}} x^{\alpha - 1 است. } \ e^{-\lambda x} $. بنابراین نمونه تصادفی ما با pdf $f(x)=\theta^{2} x e^{-\theta x}$ توزیع می‌شود. من می‌دانم که چون سؤال یک فاصله اطمینان _دقیق را می‌پرسد، باید متغیر محوری را پیدا کنم. مشکلی که من دارم این است که بیشتر نمونه هایی که پیدا می کنم در امتداد یک نمونه تصادفی هستند... $X_1,...,X_n \sim N(\theta, \sigma^{2})$ if $\sigma$ شناخته شده است پس $Z= \dfrac{\bar{X}-\theta}{\frac{\sigma}{\sqrt{n}}}\sim N(0,1)$، محوری است. و از آنجا پیدا کردن CI نسبتاً ساده است. من حدس می‌زنم که در مورد اینکه چگونه می‌توان متغیر محوری را پیدا کرد، وقتی چیزها به طور معمول توزیع نشده‌اند، غافل هستم. از کمک شما متشکرم، هر گونه پیشنهادی قابل قدردانی خواهد بود.
فاصله اطمینان برای یک نمونه تصادفی انتخاب شده از توزیع گاما
57380
چرا در این دنیا به تنوع نیاز داریم؟ هدف از ایجاد چنین عملکردی چیست و چگونه کار می کند؟ من می دانم که این معیاری است برای چگونگی گسترش داده ها، اما چرا ما فقط از تغییر مطلق برای حل این مشکل استفاده نمی کنیم؟
چرا در این دنیا به تنوع نیاز داریم؟
52342
با توجه به y = a + b*x، آیا a صرفاً یک وقفه را نشان می دهد یا به معنای y است؟ برای y = a + b*ln(x)، آیا نیازی به تفسیر رهگیری a وجود دارد؟
رهگیری در یک مدل خطی ساده به چه معناست؟
90877
من یک عبارت برای ماتریس کوواریانس $C$ بر حسب شاخص های $i$ و $j$ دارم. به این ترتیب من می‌توانم عناصر ماتریس کوواریانس خود را به صورت تحلیلی محاسبه کنم، اما وقتی می‌خواهم matlab $C$ را معکوس کنم، هشداری درباره نزدیک بودن ماتریس به مفرد می‌دهد. بنابراین وارونگی کار نمی کند، منظور من از ضرب $C$ در معکوس داده شده من هویت را دریافت نمی کنم. من سعی کردم شبه معکوس را محاسبه کنم اما این نیز کار نمی کند. من همچنین سعی کردم یک ثابت کوچک در امتداد قطر اضافه کنم اما باز هم نتایج کار نمی کند. به طور کلی من با ماتریس‌هایی با ابعاد 1200 کار می‌کنم، اما ماتریسی با ابعاد کم را مثال می‌زنم که ویژگی‌های یکسانی دارد، یعنی ماتریس‌ها متقارن نسبت به قطر و ضد قطر هستند 19.9939 19.9954 19.9958 19.9951 19.9951 19.56999. 19.9954 19.9973 19.9981 19.9978 19.9965 19.9940 19.9905 19.9958 19.9981 19.9993 19.9995 19.9995 19.99995 19.99995 19.9951 19.9978 19.9995 20.0000 19.9995 19.9978 19.9951 19.9933 19.9965 19.9985 19.9995 19.99995 19.999993 19.9905 19.9940 19.9965 19.9978 19.9981 19.9973 19.9954 19.9865 19.9905 19.9933 19.9951 19.9981 عنوان در 19.9959 19.9959 ماتریس مثبت نیست، با این حال مقادیر ویژه منفی بسیار کوچک هستند که نشان می دهد ماتریس فقط به دلیل دقت ماشین مثبت نیست. مقادیر ویژه منفی $-1.4048e-14$ و $-2.4571e-15$ هستند. چگونه می توانم این ماتریس ها را معکوس کنم؟
معکوس کردن ماتریس کوواریانس قطعی غیر مثبت
17357
**به دنبال پست اینجا، نمی‌دانم که آیا گزارش میانگین و انحراف معیار هنگام توصیف یک نمره ترکیبی مناسب است یا خیر. من مطمئن شده ام که همه بر اساس سطح اهمیتشان در یک مقیاس پنج نقطه ای قرار می گیرند تا تغییرپذیری حفظ شود. این سیستم وزن دهی است که من برای تخصیص نمرات استفاده کرده ام: * 0 = بی اهمیت * 1 = مقداری اهمیت * 2 = اهمیت متوسط ​​* 3 = دارای اهمیت بالا * 4 = دارای اهمیت مطلق، سپس تمام نمرات را با هم جمع کردم. برای رسیدن به نمره ترکیبی به این ترتیب، این بر اساس یک چارچوب مدل اندازه گیری تکوینی است. من از مسائل مربوط به خلوص ترازو آگاه هستم و امیدوارم منطق من در استفاده از سطح اهمیت به عنوان معیار سنجش، معنای لازم را برای تفسیر نمره ترکیبی ارائه دهد. به عنوان مثال، اگر من یک نمره ترکیبی 3 بگیرم، می دانم که از اهمیت بالایی برخوردار است. (بابت زبان غیر آماری ام عذرخواهی می کنم.)
آیا گزارش میانگین و انحراف معیار برای نمرات ترکیبی مناسب است؟
107883
دو نوع متداول از توابع ضرر عبارتند از 1) خطای مربع: $L(y,f(x))=(y-f(x))^2$ --> بهترین تخمین $E(Y|x) $2 است. ) خطای مطلق: $L(y,f(x))=|y-f(x)|$ --> بهترین برآورد میانگین $(Y|x)$ است من دو سوال دارم. 1) چرا مردم از روش خطای مربع استفاده می کنند؟ روش خطای مطلق حس شهودی بیشتری دارد. شما تفاوت بین واقعی و برآورد را دریافت می کنید. ساده و ساده. اگر تفاوت را مربع کنید، بسته به اندازه تفاوت، مقادیر تابیده دریافت نمی کنید؟ 2) این همچنین باعث شد به این فکر کنم که ارزش مورد انتظار چیست. مقدار مورد انتظار به عنوان میانگین تعریف می شود. با این حال، بهترین برآورد تحت تابع از دست دادن خطا مطلق، میانه است. بنابراین آیا ارزش مورد انتظار حد وسط است؟ خیلی ممنون می شوم اگر کسی بتواند به من کمک کند تا افکارم را روشن کنم. با تشکر
توابع از دست دادن خطای مربعی در مقابل خطای مطلق
17350
من از یک مدل خطی تعمیم یافته برای تجزیه و تحلیل داده های خود استفاده می کنم، 6 متغیر توضیحی وجود دارد. من تمام ترکیب‌های متغیر مختلف را در مدل‌های مختلف اضافه کرده‌ام و آنها را بر اساس وزن AIC آنها رتبه‌بندی کرده‌ام. فقط یک متغیر در هر یک از مدل‌ها واقعاً معنی‌دار است، اما مدل‌های مختلف با ترکیب‌های متفاوت متغیرها به طور منطقی پس از مدل «بهترین» با بالاترین وزن AIC قرار می‌گیرند که فقط شامل متغیر توضیحی است که معنی‌دار است. اکنون می‌خواهم تأثیر متغیرهای فردی را کمی بیشتر تجزیه و تحلیل کنم، به این معنا که می‌خواهم تأثیر متغیرهای غیر معنی‌دار را تحلیل کنم، در حالی که متغیر مهم را کنترل می‌کنم. بنابراین، با توجه به تأثیری که متغیر $X_1$ (معنی‌دار) روی $Y$ می‌گذارد، برای مثال، $X_2$ چقدر تأثیر بیشتری دارد؟ من در ابتدا به این فکر کردم که یک مدل خطی تعمیم یافته را به داده های خود بچسبانم، تنها با استفاده از X_1$، و سپس مدل خطی تعمیم یافته دیگری را با استفاده از X_2$، بر روی باقیمانده های مدل اول برازش دهم، با این حال، آن روش دارای معایب عمده ای است که من می دانم. آیا کسی راهنمایی دارد که چگونه می توانم این کار را انجام دهم؟
تجزیه و تحلیل اثر افزوده یک متغیر فردی که قبلاً یک متغیر را برازش کرده است، با استفاده از یک مدل خطی تعمیم یافته
94361
من باید عملکرد را با استفاده از طبقه‌بندی‌کننده‌های دو کلاسه مقایسه کنم - یک طبقه‌بندی کننده LDA و Exact Bayes در MATLAB. من باید از این مجموعه داده استفاده کنم. آیا کسی می تواند به من راهنمایی کند که چگونه این کار را انجام دهم (حداقل مراحل فرآیند)؟
مطالعه مقایسه عملکرد بر روی داده های واقعی در متلب (یادگیری ماشین)
96432
من چند متن در مورد رویکرد چند متغیره برای اندازه‌گیری‌های مکرر خواندم که در آن k اندازه‌گیری‌های تکراری به (k-1) نمرات تفاوت تبدیل می‌شوند. همه متون می گویند که با استفاده از این رویکرد، فرض کروی بودن لازم نیست. اما هیچ یک از آن متون توضیح نمی دهد که چرا این است. کسی میتونه توضیح بده چرا؟ با تشکر
فرض کرویت در رویکرد چند متغیره
94366
در پرسشنامه از پاسخ دهندگان دو کشور پرسیدم که در 6 ماه گذشته چند پیشنهاد شغلی از 5 منبع دریافت کرده اند. 5 سوال وجود دارد - یک سوال برای هر منبع. این یک سوال باز است، بدون مقیاس، زیرا دو کشور به شدت در شرایط بازار کار متفاوت هستند. دامنه پاسخ ها از 0 تا 30 است. داده ها بسیار کج هستند (بیشتر افراد 0 را نشان می دهند). آیا می توانم آلفای کرونباخ را برای هر کشور جداگانه محاسبه کنم؟ آن وقت ارزش ها بسیار پایین است. اگر داده ها را به مقیاس تبدیل کنم، مقادیر بسیار بهتر می شوند (0، 2-3 پیشنهاد، 4-5 پیشنهاد، 6-9 پیشنهاد، بیش از 10 پیشنهاد). بهترین رویکرد چیست؟
آلفای کرونباخ برای سوالات باز
60252
ما علاقه مندیم که آیا واحدهای آزمایشی با توجه به اینکه اعضای کلاس B هستند به کلاس A تعلق دارند یا خیر. واضح است که کلاس ها انحصاری نیستند. ما میلیون ها واحد آزمایشی داریم که می توانیم به دلخواه از آنها نمونه برداری کنیم. مشکل این است که ما فقط 50 نمونه از کلاس A را کشف کرده ایم. به احتمال زیاد دیگران در پایگاه داده ما وجود دارند، اما در آن زمان کشف نشدند، و اکنون نمی توان آزمایش کرد که آیا آنها اعضای کلاس A هستند یا نه. ما همه دلایلی داریم که باور کنیم کلاس A بسیار بسیار کوچک است، هرچند بنابراین بعید است که هر محموله ای که ما به عنوان Not-A شناسایی کرده ایم، در واقع A باشد. طرح تحقیق معمولی صرفاً ترسیم یک نمونه تصادفی و قرار دادن آنها در جدول 2x2 با توجه به A و A بودن آنها است. ب، الف و Not-B و غیره، اما در این مورد، احتمال اینکه یک نمونه حاوی هر یک از نمونه هایی باشد که ما به عنوان A شناسایی کرده ایم، بسیار کم است، و حتی اگر نمونه بسیار بزرگی را جمع آوری کنیم و موفق به نمونه برداری از یک نمونه شناخته شده از کلاس شویم. پاسخ، ما نتایج خوبی از آزمون کای دو دریافت نمی کنیم زیرا کوچکترین تعداد سلولهای مورد انتظار بسیار نزدیکتر به 0 از 1 خواهد بود. الزامات تست فیشر در مجموع نهایی ثابت برآورده نمی شود. در عوض، من نمونه برداری از جمعیت Not-A و ثبت B را پیشنهاد می کنم. جدول به دست آمده Pr(B|A) را به ما می گوید، و با استفاده از جمعیت شناخته شده A و اطلاعات آن در مورد B، جدول 2x2 را بسازیم. با استفاده از قانون بیز، ما $Pr(A|B)=Pr(B|A)*Pr(A)/Pr(B)$ را می دانیم. Pr(A) را می توان به صورت کسری تخمین زد: تعداد مثال کلاس A در پایگاه داده بر تعداد نمونه ها. تخمین تعداد نمونه‌های کلاس A، کشف‌شده و کشف‌نشده، می‌تواند با تکنیک‌های سلسله مراتبی بیزی، به قیمت فرضیات اضافی از سوی من، به دست آید. برآورد $Pr(B)$ برای من بی اهمیت است، زیرا ما آن اطلاعات را برای هر مثال می دانیم. چند سوال دارم: 1\. آیا این استدلال صحیح است؟ 2\. آیا من چرخ را دوباره اختراع می کنم؟ آیا روش های تثبیت شده دیگری برای مقابله با موقعیت هایی مانند این وجود دارد؟ هر گونه بینش یا بازخورد بسیار قدردانی می شود.
طراحی آماری برای تجزیه و تحلیل داده های طبقه بندی شده با انتخاب در DV
19588
من یک رگرسیون خطی انجام داده ام و باقیمانده ها را رسم می کنم. من متوجه شدم که خطاها **وابسته** (همبستگی خودکار) هستند، چگونه می توانم همسویی بودن این سری را آزمایش کنم؟ من خواندم که تست Breusch-Pagan فقط با خطاهای مستقل کار می کند. اگر واریانس در این مورد ثابت است از چه آزمونی می توانم استفاده کنم؟ متشکرم
وقتی خطاها وابسته هستند چگونه همسویی را آزمایش کنیم؟
46019
چرا ما از باقیمانده های مجذور به جای باقیمانده های مطلق در تخمین OLS استفاده می کنیم؟ ایده من این بود که از مجذور مقادیر خطا استفاده کنیم، به طوری که باقیمانده های زیر خط برازش (که سپس منفی هستند)، هنوز هم باید بتوانند به خطاهای مثبت اضافه شوند. در غیر این صورت، ممکن است خطای 0 داشته باشیم زیرا یک خطای مثبت بزرگ می تواند با یک خطای منفی بزرگ خنثی شود. پس چرا به جای اینکه فقط قدر مطلق را بگیریم، آن را مربع می کنیم؟ آیا این به دلیل جریمه اضافی برای خطاهای بالاتر است (به جای اینکه 2 2 برابر خطای 1 باشد، وقتی آن را مربع می کنیم 4 برابر خطای 1 است).
چرا در تخمین OLS، بقایای باقیمانده را به جای باقیمانده مطلق مجذور می کنیم؟
60254
تئوری های زیادی در مورد مدل های مارکوف و تولید خروجی وجود دارد، اما من نمی توانم هیچ اطلاعاتی در مورد گیرکردن مدل ها پیدا کنم. من سعی می کنم با استفاده از مدل مارکوف مدلی از مجموعه داده ایجاد کنم. داده ها می توانند شبیه این abc abb acc baa bcc... باشند و من می خواهم یک مدل n-gram بسازم. بر این اساس، من از مجموعه داده‌ها به‌طور تصادفی نمونه‌برداری می‌کنم، بنابراین مدلی مانند این دریافت می‌کنم (مثال مدل 2 گرمی): * abc abb -> acc با احتمال p1 * acc baa -> bcc با احتمال p2 * ... مشکل زمانی اتفاق می افتد که من سعی می کنم یک خروجی از مدل تولید کنم. بگویید من مدل را به این صورت شروع می کنم: * اول: abc abb => acc، بنابراین خروجی اکنون abc abb acc است * دوم (با گرفتن دو کلمه آخر خروجی): abb acc => ??? مدل گیر می کند، زیرا مجموعه داده کامل نیست، و بنابراین همه ترکیب های ممکن را پوشش نمی دهد. هنگام ساخت حالت، نمونه abb acc هرگز بدست نیامد و بنابراین خروجی را نمی توان تعیین کرد. من در ابتدا سوال را در سایت انجمن C.S (لینک) پرسیدم و به من توصیه شد که آن را اینجا بپرسم. از سایت C.S، عملکردهای هموارسازی مانند هموارسازی لاپلاس و هموارسازی Good-Turing پیشنهاد شد. آیا این بهترین راه است یا روش های دیگری وجود دارد؟
گیر کردن زنجیره مارکوف به دلیل نمونه‌های داده ناکافی
52346
من در تلاش برای انجام تشخیص چند وجهی در نقشه رأی (هیستوگرام) هستم، با این حال، لوب های جانبی به وضوح باعث برخی از پیک های کاذب می شوند. بنابراین استفاده از میانگین شیفت نمی تواند همه ماکزیمم های محلی را پیدا کند. بنابراین فکر کردم می توانم ابتدا هیستوگرام را آستانه گذاری کنم و سپس میانگین شیفت را اعمال کنم. با این حال، من در تلاش برای یافتن یک مقدار آستانه مناسب (قابل مشتق شدن به جای یک مقدار سخت) هستم. این به این دلیل است که داده ها می توانند از خیلی نزدیک به صفر تا حدود 19 یا 20 متغیر باشند. این یک فضای رای 480x640 است. به همین دلیل، میانگین نامناسب است، زیرا معمولاً تعداد بسیار کمی است زیرا تعداد قله های کوچک معمولاً بسیار بیشتر از قله های واقعی است. به طور مشابه انحراف معیار بسیار کوچک است. هر گونه پیشنهاد استقبال می شود. با تشکر
چگونه یک آستانه خوب برای هیستوگرام های چندوجهی انتخاب کنیم
81383
من مجموعه داده ای از افراد دارم. هر فردی زمان شروع یکسانی دارد که در آن ما شروع به مشاهده آنها می کنیم. همچنین زمان پایانی برای همه افراد وجود دارد. برخی از افراد قبل از رسیدن به زمان پایان شکست می خورند و برخی از افراد هرگز شکست نمی خورند و به زمان پایان می رسند (یعنی موفق می شوند). این یک مشکل تجزیه و تحلیل بقا است به این دلیل که من سعی می کنم یک زمان را تا رویداد (شکست) مدل کنم. جایی که سردرگمی من در مورد افرادی است که موفق می شوند. من بدیهی است که نمی توانم با این افراد به عنوان شکست های مشاهده شده رفتار کنم، اما همچنین نمی توانم با آنها به عنوان سانسور شده رفتار کنم. این به این دلیل است که سانسور نشان می دهد که آنها مشاهده نشده اند که شکست می خورند، اما در مقطعی در آینده شکست خواهند خورد (ما نمی دانیم چه زمانی). این در مورد من درست نیست زیرا اگر فردی تا پایان زمان شکست نخورد، هرگز شکست نخواهد خورد. پس چگونه با این افراد که هرگز شکست نمی خورند برخورد کنم؟ آیا این هنوز یک مشکل تجزیه و تحلیل بقا است؟ در اینجا یک مثال است. بگویید گروهی از ورزشکاران همگی برای بازی های المپیک بعدی تمرین می کنند. برخی از آنها در نهایت در تمرینات مصدوم می شوند و نمی توانند در مسابقه شرکت کنند. اما اگر ورزشکاری تا تاریخ بازی‌های المپیک آسیب نبیند، می‌تواند در مسابقه شرکت کند (یعنی موفق شود). بنابراین این ورزشکارانی که آسیب نمی بینند و می توانند در مسابقات شرکت کنند، سانسور نمی شوند، زیرا اینکه آیا بعد از المپیک آسیب می بینند یا خیر، مهم نیست. تنها چیزی که برای ما مهم است این است که آیا آنها تا تاریخ المپیک مصدوم می شوند یا خیر
آیا این یک مشکل برای تجزیه و تحلیل Survival است؟
20868
من مطمئن نیستم به دنبال چه کلماتی باشم. من یک مجموعه داده نادرست از 8000 متغیر همبسته (فروش) در طول 12 ماه دارم (یعنی 12 مشاهده برای هر متغیر). و من اساساً می خواهم آینده را پیش بینی کنم. از کجا باید شروع کنم؟ PCA؟ سوال من این است که تکنیک های مورد استفاده برای مقابله با تعداد زیادی متغیر (همبسته) و مشاهدات کمی در مورد سری های زمانی چیست؟ من به دنبال جهت گیری هستم (اما یک راه حل کامل البته خوش آمدید!). من آگنوستیک هستم، بنابراین آمار/اقتصاد سنجی/مبتنی بر مدل به اندازه یادگیری ماشینی/هوش مصنوعی/مبتنی بر مدل نیست، تا زمانی که نتایج مفید و معنادار را به همراه داشته باشد. راه حل های تکراری/استاندارد پذیر بیش از حد مورد استقبال قرار می گیرند.
سری زمانی با ابعاد بالا
43662
رویه های آماری معمول برای داده هایی که به نسبت هستند استفاده می شود؟ من اطلاعاتی در مورد نسبت بقای دو گونه در 7 ارتفاع دارم. چه آزمایش های آماری را می توانم جدا از رگرسیون در نسبت های 7 ارتفاع انجام دهم؟
آمار در مورد داده های نسبت عاقلانه
90022
من به دنبال برآوردگر میانگین داده های توزیع شده نرمال (با واریانس شناخته شده) در رژیمی هستم که در آن شبکه نمونه گیری بسیار درشت تر از واریانس است. یعنی در بدترین حالت، داده های شمارش را در نظر بگیرید که در آن تنها دو سطل حاوی نقاط داده هستند. به عنوان مثال فرض کنید من از 40 نقطه داده از یک توزیع نرمال با واریانس واحد نمونه برداری کرده ام و دو سطل داشته باشم: 1) بن یک از 1.5- تا 0.5 حاوی 28 نقطه داده است 2) سطل دو از 0.5 تا 2.5 حاوی 12 نقطه داده است.
محاسبه میانگین از داده های گسسته به طور معمول توزیع شده است
60251
**من یک طرح اندازه گیری مکرر با دو فاکتور دارم** (هر کدام دو سطح). هر آزمودنی دارای تعدادی آزمایش با هر یک از چهار ترکیب این دو عامل است. اگرچه برخی از ترکیبات در مورد چند مورد انجام نشد. **متغیر پاسخ، داده نسبت** با تعداد زیادی صفر است، به این معنی که یک مدل خطی ترکیبی/ اندازه گیری های مکرر آنوا مناسب نیست (زیرا باقیمانده ها غیر عادی هستند). من یک مدل ترکیبی خطی تعمیم یافته را امتحان کردم، با استفاده از تابع _lmer_ در R (بسته _lme4_)، با دو عامل من به عنوان متغیرهای ثابت و موضوع به عنوان یک متغیر تصادفی، اما باقیمانده ها به ویژه نرمال نیستند. این با استفاده از توزیع خطای پواسون با پیوند log یا استفاده از توزیع خطای دو جمله ای با پیوند لاجیت یا پروبیت صادق است (اگرچه دومی بهترین است). **می‌خواستم بدانم که آیا می‌توانم از یک آزمون قوی یا ناپارامتریک در R برای بررسی تأثیر عواملم بر متغیر پاسخ (با در نظر گرفتن اقدامات مکرر) استفاده کنم؟ ** با بسته _nparLD_ برونر مواجه شدم، اما برای داده‌های من کار نمی‌کند زیرا الف) _هر_آزمودنی_هر_ترکیبی از عوامل را تجربه می‌کند، و ب) متغیر زمانی وجود ندارد.
جایگزین ناپارامتریک یا قوی برای طراحی اندازه گیری های مکرر فاکتوریل
35754
> **تکراری احتمالی:** > از جمله تعامل اما نه اثرات اصلی در یک مدل، من یک طرح آزمایشی با پیش آزمون و پس آزمون دارم. دو گروه، گروه آزمایش و کنترل. من علاقه مندم که در پس آزمون، کنترل برای پیش آزمون، تفاوتی بین گروه آزمایش و کنترل وجود داشته باشد یا خیر. بنابراین، من ANCOVA را با پیش آزمون به عنوان متغیر کمکی، پس آزمون به عنوان DV و گروه به عنوان IV اجرا می کنم. من همچنین علاقه مندم که ببینم آیا تفاوت های جنسیتی برای اثر تجربی وجود خواهد داشت یا خیر. بنابراین، من علاقه مندم که به اصطلاح تعامل گروه*جنس نگاه کنم. من علاقه ای به بررسی اثر اصلی جنسیت به تنهایی ندارم، زیرا برای این طرح آزمایشی اهمیت زیادی ندارد. من مدل را سفارشی کردم و تأثیر اصلی جنسیت را حذف کردم و نتایج فقط تأثیر اصلی گروه و تأثیر متقابل گروه * جنسیت را نشان داد. آیا این مشکلی ندارد یا باید یک مدل کامل از جمله افکت اصلی جنسیت را اجرا کنم؟ متشکرم.
برای حذف یک اثر اصلی که در ANCOVA مورد علاقه نیست، یا نه؟
90870
من از NVI (نوع عادی شده اطلاعات) برای اندازه گیری کیفیت خوشه بندی به دست آمده (یک خانواده از آنها) در مقایسه با Ground Truth و همچنین با نتیجه به دست آمده با روش دیگری استفاده می کنم. از آنجایی که NVI یک متریک است، نابرابری مثلثی را برآورده می‌کند و از این رو فکر کردم خوب است که نتیجه را به صورت گرافیکی ترسیم کنم. برای آن، من به ابزاری نیاز دارم که با توجه به فواصل بین نقاط، آنها را به گونه ای ترسیم کند که تمام فواصل بین نقاط مرجع مختلف رعایت شود. نمودار باید دو بعدی باشد. آیا ابزاری می شناسید که بتواند چنین کاری انجام دهد؟ یعنی دریافت یک ماتریس از فواصل ماتریس کامل نخواهد بود، یعنی فاصله بین تمام پارتیشن ها محاسبه نمی شود. تمام فواصل تا 3 مرجع (2 GT و روش اضافی) و فواصل بین 3 مرجع محاسبه شده است. اگر ابزار نیست، استفاده از Matlab یا Python و انجام برخی برنامه نویسی نیز برای من خوب است. من حدود 200 نقطه برای طرح دارم. ویرایش: من این پاسخ را در SO پیدا کرده ام: http://stackoverflow.com/questions/13513455/drawing-a-graph-or-a-network-from- a-distance-matrix، اما به درستی کار نمی کند، حتی برای 7 گره (که می توان صحت آن را به صورت بصری تأیید کرد)
تجسم تغییرات عادی اطلاعات (NVI) از فواصل تا چندین مرجع
52341
من به دنبال فرمولی هستم که به جای استفاده از جدول مقادیر بحرانی استاتیک، مقادیر بحرانی را در آزمون t تولید کند. من در جاوا برنامه نویسی می کنم نه R بنابراین تابع ()qt چیزی نیست که به دنبالش هستم. هر کمکی قابل تقدیر است.
فرمولی برای تولید مقادیر t بحرانی برای آزمون t (به جای استفاده از آرایه جستجو)
20865
من داده‌های طولی دارم (یکی از اندازه‌گیری‌ها پیوسته و دیگری ترتیبی است) و می‌خواهم مدلی را متناسب کنم که همبستگی بین این دو معیار را در نظر بگیرد. من از stata استفاده میکنم کسی میتونه کمکم کنه؟ پیشاپیش ممنون
رگرسیون لجستیک با داده های طولی
71169
اگر یک تحقیق بازار با جمعیت 100 نفری داشته باشم: 1. 10 نفر کمتر از 10 دلار برای لباس خرج می کنند 2. 20 بین 10 - 20 دلار برای لباس خرج می کنند 3. 30 بین 20 - 100 دلار برای لباس خرج می کنند. خرج کردن در لباس _چگونه میانگین حسابی و انحراف معیار داده ها را محاسبه کنم؟_
میانگین حسابی و انحراف معیار پاسخ نظرسنجی را محاسبه کنید
70479
فرض کنید من یک هیستوگرام از برخی داده های پیوسته با pdf ناشناخته و دلخواه دارم. من به داده های خام اصلی دسترسی ندارم. بنابراین من نمی دانم که 3 تا از نقاط داده من 21، 25 و 27 هستند، تنها چیزی که می دانم این است که 3 تا از نقاط داده من در بین 20-30 هستند. محاسبه لحظه های این pdf از روی داده های binned چقدر دقیق است؟ آیا می توانم خطای انجام شده را تخمین بزنم؟
دقت محاسبه لحظه ها از هیستوگرام
19265
من در تلاش بودم تا بفهمم که چگونه می توانم تشخیص دهم که پارامتر از کدام خروجی آمده است. برای مثال در کد زیر مدل را برای 2 تکرار اجرا می کنم. در پایان آن، 2 خروجی به نام‌های «bugs.output[[1]]، bugs.output[[2]]» به دست می‌آورم. حالا وقتی «mean (p[,2])» را تایپ می‌کنم، میانگین «p[2]» را از خروجی دوم به من می‌دهد. چگونه مشخص کنم که به میانگین «p[2]» برای خروجی «1» یا «ith» نیاز دارم؟ خروجی من اینگونه به نظر می رسد: میانگین sd 2.5% 25% 50% 75% 97.5% آلفا 4.20338 1.14447 2.44975 3.39950 4.01550 4.82925 7.015405 7.015405 7.015405 7.015405 p. 0.09974 0.13720 0.16445 0.19222 0.25308 p[2] 0.14286 0.03812 0.07665 0.11670 0.14020 0.16702 0.16702 0.221 p[23] 0.04240 0.13740 0.18295 0.21050 0.23845 0.30360....... و کد من اینجاست: library(R2WinBUGS) trial.data <- read.table(simuldatBB_6_30.csv,_ter=P read.table(p_BB_6_30.csv,header=F) bugs.output <- list() for(i در 1:2){ تهوع <- as.integer(trial.data[i,]) bugs.output[ [i]] <- اشکالات(data=list(nausea=تهوع، N=63)، inits=list(list(theta=.300,mu=3)، list(theta=.350, mu=3) ), model.file=conj_nausea_script_2.txt, parameters.to.save = c(alpha,p), n.chains=2, n.iter= 12000, n.burnin=5000, bugs.directory=E://AChaudhuri/winbugs14/WinBUGS14، working.directory=NULL) attach.bugs(bugs.output[[i]],overwrite=NA)}
رمزگشایی خروجی از R2WinBUGS
60780
من یک طراحی درون سوژه ای با 4 DV دارم و تجزیه و تحلیل اندازه گیری های مکرر را در SPSS انجام دادم. DV من یک اندازه گیری فیزیولوژیکی است و انتظار نمی رود خطی باشد. چند متغیره Wilks lambda من در p = 0.004 معنی دار است و آزمون Mauchly من به معنی در p = 0.054 نزدیک می شود. با این حال، آزمون‌های تک متغیره من از درون آزمودنی‌ها غیرمعنی‌دار است (07/0=p تصحیح‌نشده و 082/0=p گیسر گلخانه‌ای). منطقی است که به تست چند متغیره خود نگاه کنم و تست تک متغیره غیر معنی دار را نادیده بگیرم؟ 2. آیا حتی اگر چند متغیره معنی دار است، باید به تک متغیره نگاه کنم؟ به عنوان مثال، آیا من توجیه می‌کنم که به مقایسه‌های دوتایی خود نگاه کنم فقط به این دلیل که چند متغیره مهم است؟
تفسیر تست های چند متغیره در اندازه گیری های مکرر
49157
من برای مطالعات کارشناسی ارشدم تحقیق می کنم و کمی با جنبه آماری مطالعه ام مبارزه می کنم. من از یک نظرسنجی استفاده کردم و تمام داده ها را در SPSS جمع آوری کردم. من هیچ پیشینه آماری ندارم، بنابراین به کمی مشاوره در مورد نحوه تفسیر / تجزیه و تحلیل نتایج نیاز دارم. من از آزمون Chi-Square برای بررسی روابط بین متغیرهای طبقه ای و سایر متغیرهای طبقه ای و آزمون همبستگی برای روابط بین متغیرهای ترتیبی و سایر متغیرهای ترتیبی استفاده می کنم. به دلیل دوگانگی، من از رگرسیون لجستیک دو جمله ای استفاده می کنم. چیزی که من نمی دانم این است که چگونه نتایج را بنویسم و ​​نتایج را تجزیه و تحلیل کنم. به عنوان مثال یک همبستگی 0.000 بسیار مهم است، اما چگونه آن را بیان کنم؟ و اگر تقریباً تمام نتایج جدول بسیار قابل توجه باشد چه؟ به عنوان مثال، افرادی که موافق هستند که خرید آنلاین امن است نیز موافق هستند که اینترنت قابل اعتماد است. نوع مورد انتظار - نتیجه قابل توجه است اما نسبتا واضح است.
تجزیه و تحلیل و نوشتن نتایج
52691
چند وقت پیش این سوال رو گذاشتم اکنون یک ادامه کوچک دارم: با چند سوال مشکل دارم، این پیام خطا را دریافت می کنم: > svychisq(~ p13 + p14, amostra) خطا در solve.default(denom, numr) : سیستم از نظر محاسباتی مفرد است : شماره شرط متقابل = 4.64501e-18 بسته/تحلیل جایگزینی وجود دارد؟ یا، حداقل، توضیحی به رئیسم در مورد اینکه چرا نمی توانم این داده ها را تجزیه و تحلیل کنم :P EDIT 2: داده ها و دستورات (با عرض پوزش برای طولانی `dput()`). p11 قشر است، poulacao اندازه جمعیت لایه، p13 و p14 دو سوال هستند. نیاز(نظرسنجی) dados_censo <- ساختار(فهرست(p11 = c(16L, 11L, 12L, 12L, 12L, 12L, 12L, 12L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, , 1 لیتر, 1 لیتر, 1 لیتر, 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 27 لیتر، 22 لیتر، 27 لیتر 17 لیتر، 18 لیتر، 11 لیتر، 12 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 16 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 17 لیتر، 18 لیتر، 17 لیتر، 27 لیتر، 27 لیتر، 27 لیتر، 18 لیتر، 27 لیتر، 18 لیتر، 11 لیتر، 2 لیتر، 2 لیتر، 11 لیتر، 11 لیتر، 11 لیتر، 11 لیتر، 27 لیتر، 27 لیتر، 27 لیتر، 27 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 3 لیتر، 16 لیتر، 3 لیتر، 16 لیتر، 3 لیتر، 3 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 22 لیتر، 22 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 18 لیتر، 18 لیتر، 10 لیتر، 16 لیتر، 16 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 16 لیتر، 26 لیتر، 20 لیتر، 26 لیتر، 9 لیتر، 1 لیتر، 9 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 1 لیتر، 18 لیتر، 13 لیتر، 27 لیتر، 27 لیتر، 27 لیتر، 13 لیتر، 13 لیتر، 6 لیتر، 6 لیتر، 10 لیتر، 10 لیتر، 9 لیتر، 10 لیتر، 10 لیتر، 9 لیتر، 10 لیتر، 6 لیتر، 6 لیتر، 12، 21، 21، 12 6 لیتر، 6 لیتر، 5 لیتر، 6 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 18 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 17 لیتر، 17 لیتر، 21 لیتر، 10 لیتر، 10 لیتر، 14 لیتر، 6 لیتر، 7، 7، 7 13 لیتر، 13 لیتر، 3 لیتر، 24 لیتر، 9 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 9 لیتر، 9 لیتر، 13 لیتر، 13 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 8 لیتر، 11 لیتر، 11 لیتر، 11 لیتر، 11 لیتر، 11 لیتر، 11، 11، 11، 1. 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 9 لیتر، 13 لیتر، 19، 8، 9 لیتر 8 لیتر، 19 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 19 لیتر، 2، 2، 4، 19 لیتر 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 14 لیتر، 14 لیتر، 13 لیتر، 13 لیتر، 9 لیتر، 8 لیتر، 27 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 6 لیتر، 6 لیتر، 11 لیتر، 13 لیتر، 11 لیتر، 26 لیتر، 28 لیتر، 28 لیتر، 28 لیتر، 28 لیتر، 28 لیتر، 28 لیتر، 28 لیتر، 28 لیتر، 28 لیتر، 28 لیتر، 28 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 14 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 27 لیتر، 27 لیتر، 27 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 19 لیتر، 26 لیتر، 19 لیتر، 19 لیتر 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 4 لیتر، 19 لیتر، 19 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 26 لیتر، 19 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 6 لیتر، 26 لیتر، 26 لیتر، 27 لیتر، 7 لیتر، 7 لیتر، 19 لیتر، 27 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 26 لیتر، 26 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 19 لیتر، 19 لیتر، 25 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 25 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 7 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 24 لیتر، 24 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 18 لیتر، 1 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 18 لیتر، 24 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 14 لیتر، 12 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 3لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 13 لیتر، 13 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 26 لیتر، 24 لیتر، 8 لیتر، 8 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 24 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 24 لیتر، 18 لیتر، 24 لیتر، 24 لیتر، 2 24 لیتر، 24 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 26 لیتر، 24 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 27 لیتر، 27 لیتر، 27 لیتر، 27 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 26 لیتر، 26 لیتر، 16 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 10 لیتر، 19 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 4 لیتر 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 26 لیتر، 26 لیتر، 24 لیتر، 7، 1،9، 7، 7 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 11 لیتر، 11 لیتر، 11 لیتر، 11 لیتر، 13 لیتر، 11 لیتر، 11 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 16 لیتر، 16 لیتر، 27 لیتر، 19 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر 13 لیتر، 13 لیتر، 13 لیتر، 11 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 19 لیتر، 19 لیتر، 1
جایگزین های svychisq() در نظرسنجی
90872
من در حال انجام یک مدل‌سازی رگرسیون چندگانه کاملاً پیچیده در فیزیک هستم و مشکل دارم **چگونه به ماتریس کوواریانس برای پارامترهای غیر نرمال شده برگردم**. من نمی دانم چگونه خطا را برای رهگیری محاسبه کنم و ماتریس کوواریانس کامل را بدست بیاورم (این ماتریسی است که شامل یک سطر و ستون نیز برای قطع می شود). من یک مدل دارم: $$ d=Gm $$ که $d$ بردار داده های تجربی من، $G$ یک ماتریس طراحی و $m$ بردار پارامترهای مدل است. من باید از یک TSVD برای منظم کردن استفاده کنم (مشکل بد است) و از این رو به نرمال سازی نیاز دارم. این کار توسط: $$ d_s=(d-\bar{d})/\sigma(d) $$ $$ Z[i]=(G[i]-\bar{G[i]})/\ انجام می‌شود sigma(G[i]) $$ که در آن G[i] ستون i-ام از G است. همانطور که میانگین را از $d$ حذف کردم، در مدل مقیاس شده نیازی به رهگیری ندارم. بنابراین راه حل مشکل من این است: $$ m_s=(Z^TZ)^{-1}Z^Td_s $$ که در آن بردار $m_s$ شامل قطع نمی شود. اکنون می توانم ماتریس کوواریانس را برای $m_s$ محاسبه کنم و به $m$ برگردم. من می دانم چگونه رهگیری را محاسبه کنم. این کار را با $$ m_0=\bar{d}-\sum\bar{G[i]}m_s[i] $$ انجام می‌دهم، اما نمی‌دانم چگونه خطای آن را دریافت کنم و ماتریس کوواریانس کامل را محاسبه کنم. $m$. من به این نیاز دارم همانطور که باید آن را در واحدهای فیزیکی واقعی ببینم. سعی کنید آن را با مقایسه با نتایج رگرسیون بدون نرمال سازی پیدا کنید اما نتوانستید چیزی حدس بزنید. همچنین یافتن آن در کتاب های رگرسیون سخت است. **هر گونه کمکی بسیار قدردانی خواهد شد!**
رگرسیون خطی چندگانه با نرمال سازی - نحوه بدست آوردن ماتریس کوواریانس کامل بدون مقیاس
2230
من هرگز واقعاً تفاوت بین این دو معیار همگرایی را درک نکرده ام. (یا، در واقع، هر یک از انواع مختلف همگرایی، اما من این دو را به طور خاص به دلیل قوانین ضعیف و قوی اعداد بزرگ ذکر می‌کنم.) مطمئنا، می‌توانم تعریف هر کدام را نقل کنم و مثالی بزنم که در آن تفاوت دارند. اما من هنوز کاملا آن را درک نمی کنم راه خوبی برای درک تفاوت چیست؟ چرا تفاوت مهم است؟ آیا نمونه به یاد ماندنی خاصی وجود دارد که در آن تفاوت دارند؟
همگرایی در احتمال در مقابل همگرایی تقریباً مطمئن
9137
بگویید 3 شرکت A، B و C وجود دارد. هر شرکت دارای رتبه کیفیت از 0 تا 100 و قیمت به دلار است. قیمت کیفیت شرکت A 80 7.9 B 70 8.0 C 75 8.1 چگونه بهترین مبادله کیفیت-قیمت را تعیین کنم؟ از چه نوع تحلیلی استفاده کنم؟
معاوضه کیفیت و قیمت
20863
من مدتی با اطلاعات متقابل کار کردم. اما من یک معیار بسیار جدید در جهان همبستگی پیدا کردم که می تواند برای اندازه گیری استقلال توزیع نیز استفاده شود، به اصطلاح همبستگی فاصله (همبستگی براونی نیز نامیده می شود): http://en.wikipedia.org/wiki/Brownian_covariance #تعاریف من اوراقی را که در آن این اقدام معرفی شده است، بررسی کردم، اما هیچ اشاره ای به اطلاعات متقابل پیدا نکردم. بنابراین، سؤالات من این است: * آیا آنها دقیقاً همان مشکل را حل می کنند؟ اگر نه، مشکلات چگونه متفاوت است؟ * و اگر بتوان به سوال قبلی پاسخ مثبت داد، استفاده از یکی از آن ها چه مزایایی دارد؟ پیشاپیش ممنون
همبستگی فاصله در مقابل اطلاعات متقابل
94365
این اولین بار است که در Stack Exchange هستم، بنابراین اگر کار اشتباهی انجام دادم لطفاً به من بگویید. من یک مجموعه داده سری زمانی دارم. برای هر زمان پیوسته $t$ یک مشاهده $(y,x)$ وجود دارد. فرض کنید برای هر روز از 01-01-2014، یعنی $t \in \left\\{0, 1, 2, …, 108 \right\\}$ که $108$ به معنای امروز است. من یک رگرسیون روی مدل $y = \alpha + \beta x$ اجرا کردم و $\alpha$ و $\beta$ را با $R^2 > 0.975$ پیدا کردم، سوال من این است که آیا می‌توانم **تقریبی** $\beta '$ در مدل $y' = \alpha' + \beta'x'$ که $y'=\frac{y_{t+1}}{y_t}-1$ $x'=\frac{x_{t+1}}{x_t}-1$ **بدون ** اجرای رگرسیون در آن مدل، فقط با استفاده از $\hat{\beta'}= \frac{\beta \times x_{108}}{\hat{y_{108}}}$ که $\hat{y_{108}}$ با استفاده از مدل اصلی تخمین زده می‌شود. من کنجکاو هستم زیرا متوجه شدم $\hat{\beta'}$ من معمولاً در حدود 1٪ از $\beta'$ است حتی یک بله یا خیر ساده که کمک زیادی به من می کند. با تشکر
استفاده از نتایج رگرسیون بر روی مقادیر مشاهده خام برای تقریبی نتایج رگرسیون در تغییر نسبی بین مشاهدات (ساده، خطی)
45639
هنگام مطالعه کتاب درسی با جمله زیر مواجه شدم و دلیل آن را متوجه نشدم. اگر $x$ و $y$ بطور مشترک نرمال باشند، آنگاه $y$ یک تابع خطی (affine) از > $x$: $y = a+bx$ است. اگه کسی بتونه اینو برام توضیح بده خیلی خوبه
توزیع مشترک نرمال
20866
من در حال حاضر با رگرسیون فرآیند گاوسی بازی می کنم. من برخی از حقایق گیج کننده را کشف کردم که می خواهم به آنها پاسخ داده شود: 1. وقتی پارامترهایی مانند طول و عبارات خطا را برای تابع کوواریانس بهینه می کنم، نتایج متفاوتی را برای اهداف مقیاس بندی شده مانند $y \ بار 100 $ دریافت می کنم. این منجر به چیز بعدی می شود: 2. هنگامی که من از اهداف بسیار کوچک بین $0$ و $0.1$ استفاده می کنم، به نظر می رسد کل فرآیند بسیار ضعیف عمل می کند. آیا کسی می تواند این رفتارها را برای من توضیح دهد یا شاید بتواند پیوندی بفرستد که در آن مشکلات مورد بحث قرار گیرد؟
اهداف مقیاس فرآیند گاوسی
90871
وقتی سعی کردم مدل مثال 5.1 را در کتاب _Generalized Linear Models جا بزنم، با 'NaN's مشکل پیدا کردم. با کاربرد در مهندسی و علوم زیستی_. نویسندگان یک glm را با توزیع گاما و یک پیوند گزارش به مجموعه داده ای در مورد مقاومت (y) و 4 پیش بینی کننده (x1..x4) برازش می دهند. ابتدا از یک مدل کامل استفاده می کنند: `y ~ x1*x2*x3*x4` و سپس تعاملات غیر قابل توجه را حذف می کنند تا به مدل نهایی برسند: `y ~ x1+x2 +x3 +x4 + x1*x3 + x2* x3 + x3*x4`. وقتی سعی می‌کنم مدل کامل را با R تکرار کنم (آنها از SAS استفاده می‌کنند) اخطاری دریافت می‌کنم: «dgamma(y، 1/disp، scale = mu * disp، log = TRUE) NaNs تولید شده» و در «خلاصه (مدل) ستون های st.err و ستون های بعدی با NA هستند. بنابراین، اهمیت ضرایب از بین می رود. x1 <- c(-1,1,-1,1,-1,1,-1,1,-1,1,-1,1,-1,1,-1,1) x2 <- c( -1،-1،1،1،-1،-1،1،1،-1،-1،1،1،-1،-1،1،1) x3 <- c(-1,-1,-1,-1,1,1,1,1,-1,-1,-1,-1,1,1,1,1) x4 <- c(-1, -1,-1,-1,-1,-1,-1,-1,1,1,1,1,1,1,1,1) y <- c(193.4,247.6,168.2,205,303.4,339.9,226.3,208.3, 220,256.4,165.7,203.5,285,268,169.1,208.5) رزولوشن x2, x1,208.5, x4 <3 x, glm(y ~ x1*x2*x3*x4, family=Gamma(link=log)، data=res) خلاصه (mod) انحراف باقیمانده: [1] 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (برق) 5.26476 NA NA NA x1 0.24705 NA NA NA . . . x1:x2:x3:x4 0.36586 NA NA NA (پارامتر پراکندگی برای خانواده گاما NaN در نظر گرفته شده است) آیا راهی برای دور زدن این مشکل وجود دارد؟ وقتی مدل نهایی را جا دادم: `y ~ x1+x2+x3+x4 + x1*x3 + x2*x3 + x3*x4` نتایج دقیقاً مشابه کتاب هستند. بنابراین، چرا SAS می تواند مدل کامل را حل کند و R خطاها را برمی گرداند؟
R: مشکل NaNs در رگرسیون گاما با استفاده از glm
49156
هنگامی که ما سعی می کنیم یک پسین را حداکثر کنیم، قانون بیزی را اعمال می کنیم تا آنها را به احتمالات پسین تبدیل کنیم! $P(C=c_i|X=x) = P(X=x|C=c_i)P(C=c_i) / P(X=x)$ متناسب با $P(X=x|C=c_i)P (C=c_i)$، اما چگونه می توانم مطمئن شوم که واقعاً چنین است؟
چرا قسمت عقبی با $P(X=x|C=c_i)P(C=c_i)$ متناسب است؟
20864
من در حال یادگیری مدلسازی رگرسیون لجستیک از کتاب _رگرسیون لجستیک کاربردی_ هاسمر هستم. من باید طرحی به نام ایجاد نمودار پراکنده صاف شده تک متغیره در مقیاس لاجیت ایجاد کنم، چیزی شبیه به این (شکل 4.2 صفحه 107): ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/1HRT2. gif) کسی میتونه کمک کنه؟ با تشکر ### ویرایش 01 با تشکر از همه پاسخ ها. من سعی کردم طرح را ایجاد کنم و متوجه شدم که smooth.spline نمودار را با استفاده از درصد (nrow((df[df[dfree]==1،]))/nrow(df)) ایجاد کرده است. از logit (`log(nrow(df[df[dfree]==1,]/nrow(df[df[dfree]==0،]))) هنگام ایجاد محور y بله، نمودار مشابه به نظر می رسد، اما نمی دانم آیا می توانیم یک کپی دقیق از آن ایجاد کنیم؟ با تشکر یک چیز دیگر، هنگام استفاده از logit، مقداری از مقدار logit در data.frame -Inf و Inf است که در smooth.spline مجاز نیست. ### ویرایش 02 من سوال دیگری در مورد ویرایش خود دارم: اگر من به صورت دستی همه Inf و -Inf را در data.frame خود حذف کنم و smooth.spline را روی آن data.frame انجام دهم چه می شود؟ آیا مناسب است؟
ایجاد نمودار پراکندگی هموار تک متغیره در مقیاس لاجیت با استفاده از R
31837
فرض کنید دو سرویس $A$ و $B$ وجود دارد که یک مشکل را حل می کند. مایلیم بدانیم که کدام یک از کاربران بیشتر وفادار هستند. وفاداری $L(X)$ احتمال اینکه کاربر از سرویس $X$ استفاده کند زمانی که از او خواسته شد مشکل را حل کند. خوب برای هر کاربر می‌توانیم $L$ را برای سرویس $A$ تخمین بزنیم مانند این $L(A) = \frac{N(A)}{N(A) + N(B)}$ که $N(X)$ تعداد استفاده از X$ است. ما حتی می‌توانیم آن را با هموارسازی لاپلاسی صاف کنیم و $L'(A) = \frac{N(A) + 1}{N(A) + N(B) + 2}$ دریافت کنیم، اما اینطور نیست. در واقع 20% از کاربران $N(A) + N(B) = 1$ دارند، سپس دو نوع $L(A)$ وجود دارد: 0 و 1 هر دو با واریانسی مانند 0.5 =). شاید روش های شناخته شده ای وجود داشته باشد که چگونه در چنین شرایطی رفتار کنیم که تقریباً هیچ آزمایشی انجام نشده است. ما باید هم در $L$ و هم واریانس آن تخمین بهتری داشته باشیم.
چگونه می توان وفاداری به خدمات را تخمین زد؟
90291
من در حال حاضر در حال انجام یک بررسی نمودار گذشته نگر هستم که در آن به اثربخشی برخی داروها در درمان یک بیماری خاص علاقه مند هستم (بیایید بیماری را A بنامیم) چندین دارو برای درمان بیماری A استفاده شده است. با این حال، تنها دو دارو به قدری مورد استفاده قرار گرفته اند که یک روش تحلیل استنباطی خروجی معناداری ایجاد می کند. بنابراین من دو دارو دارم، داروی X و داروی Y، که طبق تحقیقات قبلی نیز مؤثرترین داروها در درمان بیماری A هستند. پیامدها در دو متغیر دوگانه کدگذاری می‌شوند که 1=موفقیت و 0=شکست. اولین متغیر دوگانه این است که آیا دارو به کنترل کامل علائم دست یافته است یا نه، و متغیر دوم اینکه آیا علائم به طور قابل توجهی کاهش یافته است (تعریف شده به عنوان کاهش بیش از 50٪ در فراوانی علائم). بنابراین من داروی X و داروی Y را با پیامدهای کدگذاری شده در متغیرهای دوگانه دارم و می‌خواهم این فرضیه را آزمایش کنم که این داروها به طور قابل توجهی در نتایج درمان متفاوت هستند (هم در کنترل کامل علائم و هم در کاهش بیش از 50٪ علائم). من از هر کمکی برای این مشکل سپاسگزارم. متشکرم
تجزیه و تحلیل استنباطی بر روی داده های پزشکی طبقه بندی شده
90874
من می دانم که نزول گرادیان تصادفی رفتار تصادفی دارد، اما نمی دانم چرا. آیا توضیحی در این مورد وجود دارد؟
چگونه نزول گرادیان تصادفی می تواند از مشکل یک حداقل محلی جلوگیری کند؟
19582
اجازه دهید $X_1$ یک مقدار تصادفی از توزیع 1 باشد و اجازه دهید $X_2$ یک مقدار تصادفی از توزیع 2 باشد. من فکر کردم که فرضیه صفر برای آزمون من ویتنی $P(X_1 < X_2) = P(X_2 <X_1 است. ) دلار. اگر شبیه‌سازی‌های آزمون من ویتنی را روی داده‌های توزیع‌های نرمال با میانگین‌های مساوی و واریانس‌های مساوی، با $\alpha=0.05$ اجرا کنم، نرخ خطای نوع I را دریافت می‌کنم که بسیار نزدیک به 0.05 است. با این حال، اگر واریانس ها را نابرابر کنم (اما میانگین ها را برابر بگذارم)، نسبت شبیه سازی هایی که در آن فرضیه صفر رد می شود، بزرگتر از 0.05 می شود، که انتظارش را نداشتم، زیرا $P(X_1 < X_2) = P( X_2 < X_1)$ همچنان پابرجاست. این زمانی اتفاق می‌افتد که من از «wilcox.test» در R استفاده می‌کنم، صرف نظر از اینکه «exact=TRUE»، «exact=FALSE، correct=TRUE» یا «exact=FALSE، correct=FALSE» داشته باشم. آیا فرضیه صفر چیزی متفاوت از آنچه در بالا نوشتم است، یا فقط اگر واریانس ها نابرابر باشند، آزمون از نظر خطای نوع اول نادرست است؟
فرضیه صفر در آزمون من ویتنی چیست؟
48204
سوال من اینجاست (تکلیف خانه بدیهی است): **نمونه ای از یک جامعه عادی واریانس 4.0 را تولید کرد. اگر میانگین نمونه از میانگین جامعه با احتمال حداقل 0.95 بیشتر از 2.0 انحراف نداشته باشد، اندازه نمونه را بیابید.** بنابراین من سعی می کنم $n$، حجم نمونه را که فقط $\hat داشته باشد، پیدا کنم. {\sigma}$، واریانس نمونه، و یک کران در فاصله بین $\bar{x}$ و $\mu$. شهود من معمولاً در این شرایط بود که باید از توزیع t استفاده کنیم زیرا $\hat{\sigma}$ یک تخمین بی طرفانه برای $\sigma$ است (ما همه اثبات‌ها را در کلاس انجام دادیم). مشکل این است که توزیع t بسته به تغییر می‌کند. در $n$، اندازه نمونه، بنابراین هنگام جستجوی مقادیر t حاوی 95% جرم احتمال، از کدام توزیع (چند درجه آزادی) استفاده کنم؟ من آن را برای مقادیر مختلف $n$ امتحان کردم و سپس مقادیر را مربع کردم تا آنها را با d.f مقایسه کنم. از توزیع t - نزدیکترین چیزی که می توانستم بدست بیاورم 0.6 کاهش بود. (من مقدار t را در $\alpha = 0.025$ (دم سمت راست) برای 5 d.f گرفتم، به این معنی که $n$ برابر با 6 است، و با دو برابر کردن مقدار t به من 6.61 داد، که اختلاف 0.61 است (اینطور نیست این بزرگ است؟ دلیل اینکه من مقادیر t را مجذور کردم آشکار می شود اگر کران میانگین را به یک عدد نرمال کنید. t-statistic آیا این موضوع درست به نظر نمی رسد... (ویرایش - این کاری است که من انجام دادم): ما $P(\left| \bar{x}) داریم؟ leq 2.0) \geq 0.95$، همچنین داده شده است $\hat{\sigma} = 2$، باید $n$ را پیدا کنید. $$-\sqrt{n}\frac{2.0}{\hat{\sigma}} \leq \sqrt{n}\frac{\left( \bar{x} - \mu \right)}{\hat{ \sigma}} \leq \sqrt{n}\frac{2.0}{\hat{\sigma}}$$ پر کردن مقادیر: $$-\sqrt{n}\frac{2.0}{2} \leq \sqrt{n}\frac{\left( \bar{x} - \mu \right)}{\hat{\sigma}} \ leq \sqrt{n}\frac{2.0}{2}$$ سپس: $$-\sqrt{n} \leq \sqrt{n}\frac{\left( \bar{x} - \mu \right)}{\hat{\sigma}} \leq \sqrt{n}$$ در این مرحله من خیلی گیج شدم، بنابراین کاری که انجام دادم جستجوی مقادیر برای $\alpha = 0.025$ در درجات مختلف آزادی برای توزیع t، و سپس از d.f. = n - 1، من آن t-value را گرفتم (که $\sqrt{n}$ از چیزی است که به دست آورده‌ام) و آن را با مقدار n که از d.f ذکر شده مقایسه کردم. من استفاده می کردم ... برای مثال توزیع t را با 5 d.f. (البته حجم نمونه 6 است). مقدار t برای $\alpha$ من 2.571 است. با مجذور کردن این عدد n، 6.61 به دست می آید. بنابراین این n به وضوح $\neq$ 6 است که در توزیعی که من استفاده می‌کردم نشان داده شد. همه اینها یک جورهایی مضحک به نظر می رسند... من کجا چیزها را ول کردم؟
چگونه از توزیع Student's-t بدون حجم نمونه استفاده کنم؟
64005
فرض کنید من ماتریس $X \in R^{n \times m}$ دارم، که $n$ تعداد افراد و $m$ تعداد ویژگی‌ها و $X[i,j] \in \\{0 است. ,1\\}$; $1$ نشان می دهد که $i$ منفرد دارای ویژگی $j$ است و $0$ به این معنی نیست. افراد فقط به یکی از این دو طبقه تعلق دارند. با توجه به متریک فاصله $Dist$ (هر فاصله)، می‌خواهم بهترین مجموعه از ویژگی‌ها را انتخاب کنم که حداکثر $KLD$ را بین دو کلاس به من می‌دهد. آیا الگوریتم **انتخاب ویژگی** وجود دارد که بتواند **با توجه به فاصله** بهترین ویژگی ها را انتخاب کند؟ در نهایت، من می خواهم یک دسته از مسافت ها را آزمایش کنم.
بهترین فاصله را برای انتخاب ویژگی انتخاب کنید
96746
مدل من دارای Nagelkerke $R^2 = 0.282$ است که توسط SPSS خروجی شده است. با خواندن برخی ادبیات، ادعا می کند که این باید به عنوان یک ارزش خوب به حساب آید. با این حال، از آنجایی که حداکثر مقدار 1 است، این بدان معنی است که تنها 28٪ از تغییر در متغیر وابسته توسط متغیرهای مستقل قابل انتساب است. آیا این درست است؟ آیا این نباید به عنوان ضعیف/عادلانه طبقه بندی شود؟
ارزش Nagelkerke خوب چیست؟
11009
آیا گنجاندن یک تعامل دو طرفه در یک مدل بدون گنجاندن اثرات اصلی معتبر است؟ اگر فرضیه شما فقط در مورد تعامل باشد، آیا باز هم باید اثرات اصلی را لحاظ کنید؟
از جمله تعامل اما نه اثرات اصلی در یک مدل
69785
می خواستم بدانم آیا وقتی مشکل رگرسیون دارید می توانید کاری انجام دهید: $$\begin{cases} Y_t = \beta_1x_t + \beta_0 + \varepsilon_t \\\ \left(\varepsilon_1,\ldots,\varepsilon_n\right )\sim\mathcal{N}_n\left(\mathbf{0},D \راست) \\\ 1\leq t \leq n \end{cases}$$ و شما $D$، ماتریس کوواریانس خطاها را می دانید. وقتی $D$ مورب باشد حداقل مربعات وزنی را می دانم. اما اگر اینطور نباشد چه اتفاقی می افتد؟ آیا برآوردگر خوبی برای $(\beta_0,\beta_1)$ وجود دارد؟
چگونه می توان رگرسیون را با همبستگی های شناخته شده بین خطاها انجام داد؟
90292
![http://nirvacana.com/thoughts/becoming-a-data- scientist/](http://i.stack.imgur.com/9f53p.png) این گرافیک مدیون سوامی چاندراسهکاران است. من اخیراً شروع به یادگیری مهارت های علم داده کردم. من اصول اولیه در R، Python، Statistics، Machine Learning دارم. حالا می خواهم قسمت Visualization و NLP را یاد بگیرم. با چه کتاب هایی باید شروع کنم که بیشتر موارد ذکر شده در بالا را پوشش می دهد؟ کتاب‌های عملی ترجیح داده می‌شوند، زیرا می‌خواهم فوراً با داده‌های موجود در اینترنت (به عنوان مثال data.gov) امتحان کنم. با این وجود، از پیشنهادات کتاب های نظری نیز استقبال می شود.
پیشنهاد کتابهایی در زمینه تجسم و پردازش زبان طبیعی
48200
من چند سوال در مورد کمند دارم. * پس از استفاده از AIC یا BIC برای انتخاب یک مدل، مدل با متغیرهای انتخاب شده مطابقت دارد تا خطاهای استاندارد تخمین ها را با CI، p-values ​​و غیره بدست آورد... * وقتی از رویکرد Lasso استفاده می کنم، سعی می کنم برای انجام همان کار، اما مقادیر تخمینی ضرایب برگردانده شده توسط کمند با ضرایب برگردانده شده توسط مدل کاکس با تنها متغیرهای انتخاب شده توسط کمند یکسان نیست. اگر Lasso را درک کنم، متغیرها را در طول فرآیند تخمین ضرایب انتخاب می کند، در حالی که انتخاب بعد از آن با AIC انجام می شود. آیا این درست است؟ در اینجا سؤالات من وجود دارد: 1. چرا من مقادیر یکسانی را پیدا نمی کنم؟ 2. آیا می توانم از Lasso برای انتخاب متغیرها استفاده کنم و سپس یک مدل Cox را در نظر بگیرم؟
LASSO در مقابل AIC برای انتخاب ویژگی با مدل کاکس
45630
من روی یک پروژه تجزیه و تحلیل بقا کار می کنم. در بخشی از پروژه، از من خواسته می شود که عواملی را که ممکن است در افزایش خطر مرگ نقش دارند، شناسایی کنم. درک آنچه از من خواسته شده مشکل است. آیا کسی می تواند به من کمک کند تا این را بفهمم؟ چگونه باید آن عوامل را شناسایی کنم؟ آیا این نمونه ای از مدل اکتشافی ساختمان است؟ اگر چنین است، آیا باید فقط متغیرهایی را انتخاب کنم که خطر را افزایش می دهند؟ با تشکر از کمک شما.
سوال در مورد تجزیه و تحلیل بقا
7946
من در رشته آمار نیستم من مطالعه موردی را انجام دادم و داده‌ها را همانطور که در زیر نشان داده شده است جمع‌آوری کردم. داده‌هایی را دارم که در جدول زیر نشان داده شده است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/mH1tC.jpg) ![تصویر را وارد کنید توضیحات در اینجا](http://i.stack.imgur.com/ExRl1.jpg) من می خواهم ضریب همبستگی را از این دو داده جدول پیدا کنم (بین **NOA و HVOC**، و بین **NOA و HVOL**). من مطالعه موردی را با کد منبع انجام دادم. قبل از اینکه این کد منبع را تغییر دهم، معیارهای نرم‌افزاری با نام‌های NOA و HVOL را برای همه روش/عملکرد اندازه‌گیری کردم. و سپس، پس از اینکه کد را اصلاح کردم، دوباره همان معیارها را برای همه روش ها اندازه گرفتم. فیلد **NOA Diff** در جدول از NOA (پس از اصلاح کد) منهای NOA (قبل از تغییر کد) محاسبه می شود. یعنی NOA Diff = NOA (پس از) - NOA (قبل از). روش مشابهی برای متریک HVOC اعمال شد. **HVOC Diff** = HVOC(بعد)-HVOC(قبل) سوالات من این است * از چه نوع **ضریب همبستگی** استفاده کنم؟ * چه **نوعی نمودار** باید ایجاد کنم تا داده های خود را نشان دهم؟ * جدول بالا تمام داده ها است، منظورم این است که **جمعیت** نمونه نیست، آیا می توانم از روشی استفاده کنم که با **نمونه** استفاده می شود * آیا Spearman برای داده های غیرعادی توزیع شده است؟
چه ضریب همبستگی و نموداری با این داده ها مناسب است؟
71539
من احتمال و توزیع نرمال را درک می کنم، اما به مشکلی مرتبط با متغیرهای متعدد، به ویژه بزرگی و بازه نگاه می کنم. من لیستی از اندازه ها و فاصله زمانی بین آنها دارم. لیستی که به من داده شده است ok در نظر گرفته می شود. چیزی که من به دنبال آن هستم مجموعه اصطلاحاتی است که باید جستجو کنم تا بتوانم در مورد راه حل مسئله به دست آوردن یک مقدار و فاصله جدید از زمان گذشته تحقیق کنم، احتمال اینکه آن مقدار نیز باشد چقدر است. باشه. مرحله دوم که من نمی دانم چگونه شروع کنم، جایی است که یک رویداد کم است. حدس می‌زنم میدانی که به چیزی که من با آن بازی می‌کنم نزدیک‌ترین زمین‌لرزه‌ها است که در آن بزرگی و فواصل وجود دارد (به‌رغم پس‌لرزه‌ها) اما مهارت‌های گوگلی من مرا به چیزی که نیاز دارم هدایت نکرده است. از افکار شما قدردانی می شود.
احتمال چند متغیره
16911
من 31 مشاهده برای 9 نفر تحت درمان دارم (4 جلسه برای 4 نفر و 3 جلسه برای بقیه). من یک مدل ترکیبی را برای ارزیابی روابط بین مشاهدات با استفاده از ضرایب همبستگی تبدیل‌شده توسط فیشر پیاده‌سازی کرده‌ام. به عنوان مثال، برای ارزیابی تأثیر ضربه زدن انگشت بر پاسخ‌های صحیح، تعداد ضربه‌های انگشت را با درصد پاسخ‌های صحیح برای هر موضوع مرتبط کردم (۳ جفت مشاهده برای برخی از افراد و ۴ جفت برای برخی دیگر). سپس یک تبدیل فیشر روی 9 ضریب همبستگی حاصل انجام می‌دهم تا 9 z-score به دست بیاورم. سپس تست کردن اینکه آیا آن امتیازات z با 0 متفاوت است یا نه، یک موضوع ساده است. با این حال، من در مورد بهترین راه برای انجام این کار روشن نیستم. محاسبه کوواریانس بین نمرات z و سن آزمودنی آسان است، اما چگونه می توانم تأثیر ضربه های انگشت را بر پاسخ های صحیح، کنترل سن، دریافت کنم؟ (به عنوان یک نکته جانبی، من این را به عنوان یک مدل MIXED در SPSS پیاده‌سازی کرده‌ام، اما همگرا نمی‌شود، بنابراین نمی‌توانم به نتایج اعتماد کنم).
روش تجزیه و تحلیل اثرات مختلط کوواریانس چیست؟
45637
در تجربه من در برخورد با چند خطی بودن، اغلب حذف یک متغیر همخطی از مدل منجر به معنی دار شدن متغیر(های) هم خطی دیگر می شود (با این فرض که همه متغیرهای همخطی به طور قابل توجهی با متغیر وابسته به صورت دو متغیره همبستگی دارند. با این حال، اخیراً با آن مواجه شده ام. موقعیتی که در آن مدلی دارم که در زیر نشان داده شده است که در آن $X_2$ و $X_3$ همبستگی بالایی دارند ($r > 0.95$) و امتیازهای تحمل برای دو متغیر زیر 0.1$$$$ Y = \beta_0\ + \beta_1X_1\ + \beta_2X_2\ + \beta_3X_3\ +\beta_4X_1X_2\ +\beta_5X_1X_3\ $$ * _همه متغیرها پیوسته هستند. _ نتایج مدل رگرسیون نشان می دهد که هر 5 شیب معنی دار هستند (3 شیب برای افکت های اصلی و 2 شیب برای فعل و انفعالات، یکی از راه حل های ممکن حذف یکی از پیش بینی کننده های بسیار خطی است - مثلاً X_2$، یک مدل جدید دریافت می کنم). $$ Y = \beta_0^\prime + \beta_1^\prime X_1\ + \beta_3^\prime X_3\ +\beta_5^\prime. X_1X_3\ $$ پس از حذف $X_2$، در حالی که $\beta_0^\prime$، $\beta_1^\prime$، و $\beta_3^\prime$ مهم هستند، به طور مهمی، $\beta_5^\prime$، شیب برای مدت تعامل، دیگر قابل توجه نیست. اگر بخواهم X_3$ را حذف کنم، همین اتفاق می افتد. بنابراین من تعجب می کنم که چه چیزی ممکن است باعث ایجاد این الگو شود و چگونه می توان به طور بالقوه با آن برخورد کرد. پیشاپیش از شما متشکرم
برخورد با چند خطی در هنگام حذف یک پیش بینی بسیار خطی، اهمیت را کاهش می دهد.
16916
برای پیش‌بینی‌کننده‌های طبقه‌بندی با سطح k، مهم نیست که چه چیزی را به عنوان گروه مرجع خود انتخاب می‌کنید. پس چرا اگر گروه مرجع را تغییر دهید، اهمیت F-value در رگرسیون خطی تغییر می کند؟ همچنین آیا ممکن است آزمون F فرضیه صفر را در زمانی که واقعاً باید رد نکند؟ چه زمانی این اتفاق می افتد؟ برای مرجع: مدل روش REG: متغیر وابسته MODEL1: کلسترول HDL HDL (mg/dl) تعداد مشاهدات خوانده شده 2032 تعداد مشاهدات استفاده شده 2025 تعداد مشاهدات با مقادیر گمشده 7 تجزیه و تحلیل واریانس مجموع میانگین منبع DF مربع مربع F > F مدل 4 1380.42472 345.10618 1.89 0.1094 Error 2020 368694 182.52193 Corrected Total 2024 370075 Root MSE 13.51007 R-Square 0.0037 Dependent Mean7-Sq5904. 26.24711 مدل رویه Reg: متغیر وابسته MODEL1: کلسترول HDL HDL (mg/dl) تعداد مشاهدات خوانده شده 2032 تعداد مشاهدات استفاده شده 2025 تعداد مشاهدات با مقادیر گمشده 7 تجزیه و تحلیل واریانس مجموع مربعات میانگین Fuer مدل 4 1333.76988 333.44247 1.83 0.1210 خطای 2020 368741 182.54503 تصحیح شده مجموع 2024 370075 Root MSE 13.51092 R-Square 0.0092 R-Square 0.000 0.0016 Coeff Var 26.24877 اولین مورد با گروه 1 به عنوان گروه مرجع است. دومی با گروه 2 به عنوان گروه مرجع است. توجه داشته باشید که دو مقدار F متفاوت هستند.
اگر گروه مرجع را تغییر دهید چرا اهمیت F-value در رگرسیون خطی تغییر می کند؟
20861
من در حال خواندن رگرسیون لجستیک کاربردی هوسمر هستم، و در فصل 3 کمی گیر کرده ام، در مورد تعامل و عوامل مخدوش کننده. در صفحه 77 موارد زیر را بیان می کند: > با استفاده از ضریب تخمینی LWD در مدل 1، نسبت شانس > را به صورت $\exp(1.054)=2.87$ برآورد می کنیم. نتایج نشان داده شده در جدول 3.14 نشان می دهد که > AGE یک مخدوش کننده قوی نیست، $\Delta(\hat{\beta})\%=4.2$، اما > با LWD تعامل دارد، $p=0.076$. من با $\exp(1.054)=2.87$ مشکلی ندارم، اما نمی توانم بفهمم که او چگونه $\Delta(\hat{\beta})\%=4.2$ را محاسبه می کند. کسی میتونه کمک کنه؟ با تشکر
شناسایی عامل مخدوش کننده در مدل رگرسیون لجستیک به عنوان مثال در رگرسیون لجستیک کاربردی
48208
لطفاً به من کمک کنید تا نوع توزیع داده های خود را درک کنم (مقادیر عرض نشان داده شده در زیر). من سه نمودار ارائه می کنم: 1) نمودار پراکندگی. 2) هیستوگرام؛ و 3) qqplot (عرض متغیر). Interval_number فقط یک شماره سریال است. عرض چیزی نیست جز زمان در ثانیه برای رسیدن به مجموعه ای از 100 چیز. اطلاعات من: interval_number عرض 1 34 2 234 3 124 .... .. ![plot](http://i.stack.imgur.com/25ARu.png) ![histogram](http://i.stack .imgur.com/u2x03.png) ![qqnorm](http://i.stack.imgur.com/faQPa.png)
درک توزیع داده ها؟
80389
من از بسته Mclust برای تطبیق مدل مخلوط گاوسی (GMM) در مجموعه داده استفاده می کنم. داده ها دارای دو برچسب ممکن است، بنابراین من سعی می کنم دو GMM مختلف را ارزیابی کنم، یکی برای هر برچسب. اکنون نقطه داده جدیدی دارم و می‌خواهم با مقایسه احتمال اینکه از هر یک از مدل‌ها می‌آید، آن را برچسب‌گذاری کنم. من از فیلد denstiyMclust density برای بدست آوردن مقدار چگالی در هر نقطه از مجموعه داده استفاده می کنم، اما نمی دانم چگونه آن را تفسیر کنم - گاهی اوقات حتی بیشتر از یک است. آیا کسی می تواند بگوید که معنای این مقادیر چگالی چیست و چگونه می توان دو مقدار را از مدل های مختلف مقایسه کرد؟ ممنون یووال
مقادیر چگالی بسته densityMclust در R
7941
من در زمینه آمار نیستم. من کلمه داده های گره خورده را هنگام مطالعه در مورد ضرایب همبستگی رتبه دیده ام. * داده های گره خورده چیست؟ * نمونه ای از داده های گره خورده چیست؟
داده های گره خورده در زمینه یک ضریب همبستگی رتبه چیست؟
48206
دو مدل رگرسیون لجستیک زیر را در نظر بگیرید: $$ \begin{aligned} &\text{Model A: }&P(Y=1)&=\frac{\text{exp}\left(b_1+b_2X_2\right)}{ 1+\text{exp}\left(b_1+b_2X_2\right)} \\\ &\text{مدل B: }&P(Y=1)&=\frac{\text{exp}\left(b_1+b_2X_2+b_3X_3\right)}{1+\text{exp}\left(b_1+b_2X_2+b_3X_3\right)} \ end{aligned} $$ در مدل A، فرض کنید هر دو پارامتر $b_1$ و $b_2$ قابل توجه به نظر می رسند، یعنی $-1,96 > z_k$ یا $1,96 < z_k$. هنگام اضافه کردن یک متغیر ساختگی $X_3$ برای ایجاد مدل B، اگر بخواهم بررسی کنم که آیا متغیر قدرت توضیحی بیشتری به مدل اضافه می‌کند، دو گزینه وجود دارد: محاسبه آمار آزمون $G^2=-2\log \left(\frac{L_{\text{A}}}{L_{\text{B}}}\right)$ و آن را با مقدار بحرانی توزیع خی دو با یک درجه آزادی مقایسه کنید. 2. یک آزمون z معادل X_3$ در مدل B انجام دهید، با محاسبه $z=\frac{b_3}{\text{se}\left(b_3\right)}$ و مقایسه آن با مقادیر بحرانی نرمال استاندارد. توزیع اکنون سؤال این است: آیا در این مورد محاسبه مقدار z کافی است، اگر بخواهم تعیین کنم که آیا مدل B قدرت توضیح قابل توجهی بیشتری نسبت به مدل A دارد؟ آیا این امکان وجود دارد که X_3$ در آزمون z مهم باشد و در عین حال تست LR نشان دهد که تفاوتی بین این دو مدل وجود ندارد؟ به طور خلاصه: هنگام اضافه کردن تنها یک متغیر به یک مدل لجستیک، اگر بخواهم بررسی کنم که آیا متغیر قدرت توضیحی قابل توجهی به مدل اضافه کرده است، بهترین آزمایش برای انجام چیست؟
آزمون نسبت احتمال یا آزمون z؟
16912
در رگرسیون خطی از یک مجموعه داده $\\{ (x_i، y_i)، i=1،\cdots،N \\}$، نمی‌دانم چه توزیع‌هایی برای شیب و وقفه وجود دارد؟ در خروجی اکسل، از آزمون های t استفاده می شود تا مشخص شود که آیا میانگین شیب صفر و میانگین فاصله صفر است یا خیر. اما آزمون t فرض می‌کند که توزیع‌های شیب و فاصله، توزیع‌های نرمال هستند. بنابراین من می خواهم ببینم آیا این درست است یا خیر. با تشکر و احترام!
چه توزیع هایی برای شیب و برای قطع در رگرسیون خطی وجود دارد؟
16915
توجه داشته باشید که من بیشتر تحلیل هایم را با استفاده از R و Excel انجام می دهم. بیایید این مجموعه داده را به عنوان مثال در نظر بگیریم. من آن را تغییر دادم زیرا خود داده ها انحصاری هستند: سال ها نیز متفاوت است: 1967 2,033,407 1968 2,162,275 1969 2,159,640 1970 2,312,352 1971 2,554,424,42459 2,101,225 1974 1,951,944 1975 2,106,250 1976 1,687,625 1977 1,636,496 1978 1,494,525 1,494,525 1979 1,21398 1,606 1981 1,310,494 1982 1,319,750 1983 1,263,643 1984 1,171,656 1985 1,194,950 کاری که من معمولاً انجام می دهم: 1. یک رگرسیون خطی پایه متحرک 2. یک شکل میانگین متحرک چندجمله ای Mo. با استفاده از p = 1، q = 0. 5. خطاها را برای همه اینها نیز محاسبه می‌کنم. توجه داشته باشید که من یک مهندس هستم که می‌خواهم به آمار و توانایی اعتبارسنجی و کالیبره کردن مدل‌هایم وارد شوم. ## سوال راه صحیح پیش بینی این در 5، 10 یا حتی 15 سال آینده چیست؟ به نوعی من به دنبال این هستم که فراتر از اتصال داده ها به یک مدل حرکت کنم و داده ها را باور کنم. بله، من می دانم که می توانم به خطاها نگاه کنم. من عمدتا از RMSE یا MAE استفاده می کنم. اما هنوز در مورد پیش‌بینی درست داده‌ها مطمئن نیستم. ### توجه داشته باشید که این هم به این سوالی که قبلا اینجا پست کردم مربوط می شود.
روش های صحیح اجرای سری های زمانی و ARIMA
16117
من می خواهم فصلی بودن داده هایی را که دریافت می کنم تشخیص دهم. روش هایی وجود دارد که من پیدا کرده ام مانند نمودار زیرمجموعه فصلی و نمودار همبستگی خودکار، اما موضوع این است که من نمی دانم چگونه نمودار را بخوانم، کسی می تواند کمک کند؟ نکته دیگر این است که آیا روش های دیگری برای تشخیص فصلی بودن با یا بدون نتیجه نهایی در نمودار وجود دارد؟
برای تشخیص فصلی بودن داده ها از چه روشی می توان استفاده کرد؟
49152
من در حال تدریس یک کلاس رگرسیون لجستیک با SPSS هستم. کتاب درسی یک مجموعه داده نمونه را با یک پیش بینی باینری و دو متغیر کمکی عددی ارائه می کند. نمونه شامل 1000 ردیف است و تعدادی از این ورودی ها مقادیر مشترکی برای هر دو پیش بینی دارند. برای مثال، یک پیش‌بینی‌کننده فقط 5 مقدار و دیگری حدود 20 مقدار متمایز می‌گیرد. طبق مستندات SPSS، وقتی این اتفاق می‌افتد، SPSS داده‌ها را از زیرجمعیت‌هایی که از طریق مقادیر مشترک تعریف شده‌اند، در نظر می‌گیرد. به نظر می رسد که این احتمال متفاوت و درجات آزادی متفاوتی را برای AIC نسبت به آنچه در صورت نادیده گرفتن جمعیت های فرعی به دست می آورید، ایجاد می کند. من مجموعه داده را با استفاده از glm در R اجرا کردم. درجه آزادی 997، AIC=508.93 در SPSS، 99 درجه آزادی (برای اهداف مناسب) و AIC=181.341 بود. برآورد ضرایب در هر دو کاربرد یکسان است. بدتر از آن، زمانی که من مدل را در SPSS تنها با 1 از 2 پیش بینی کننده تطبیق می دهم، احتمال بزرگتر از مدل 2 پیش بینی است: -87 برای مدل 2 پارامتری و -47 برای مدل 1 پارامتر. AIC همچنین در مدل 1 پارامتری به طور چشمگیری کوچکتر است، اما همه چیز دیگر نشان می دهد که هر دو پیش بینی کننده مهم و ضروری هستند. خیلی برای معیار AIC. داده ها را در R به هم ریختم و به SPSS برگرداندم. پس از آن من تقریباً همان نتایج را در R با glm به دست آوردم، زیرا هیچ زیرجمعیت فانتومی برای SPSS وجود نداشت تا بتواند با آنها کنار بیاید. پرسش‌ها: 1. آیا کسی می‌تواند مرجعی ارائه کند تا توجیه کند که داده‌ها را از زیرجمعیت‌ها دریافت می‌کنند (که در واقع در این مورد چنین نمی‌کنند) وقتی پیش‌بینی‌کننده‌ها دارای مجموعه‌های ارزش مشترک هستند؟ 2. با توجه به اینکه چه اتفاقی می افتد، چگونه می توانم با مقایسه انحراف بین دو مدل، با استفاده از SPSS و این مجموعه داده، تست مدل را آموزش دهم؟ 3. آیا می توانم کاری کنم که SPSS مانند R رفتار کند؟
مدل خطی تعمیم یافته در SPSS با مقادیر مشترک در میان پیش بینی کننده ها که به عنوان زیرجمعیت ها در نظر گرفته می شوند. چرا؟
9190
من باید یک برنامه وب چند کاربره بسازم که در مورد اندازه گیری ترافیک، پیش بینی ها و غیره باشد. در این مرحله می دانم که از نمودارهای نواری و دایره ای استفاده خواهم کرد. متأسفانه، آن انواع نمودارها در بیان تمام داده هایی که من جمع آوری و محاسبه می کنم غنی نیستند. من به دنبال مجموعه ای از نمودارهای گرافیکی هستم. اگر مجبور باشم کتاب یا هر چیز دیگری بخرم خیلی خوب است. من باید چند نمونه گرافیکی همراه با توضیحات پیدا کنم تا به من الهام بخشد. آیا چنین منبعی را می شناسید؟ آیا توصیه ای به من دارید؟
دایره المعارف گرافیک
9192
من با استفاده از بسته «nnet» مقداری یادگیری ماشینی را در R انجام می دهم. من می خواهم عملکرد تعمیم طبقه بندی کننده خود را با استفاده از اعتبارسنجی متقاطع k-fold تخمین بزنم. چگونه باید این کار را انجام دهم؟ آیا توابع داخلی وجود دارد که این کار را برای من انجام دهد؟ من 'tune.nnet()' را در پکیج 'e1071' دیده ام، اما مطمئن نیستم که آن چیزی را که من می خواهم انجام دهد. اساساً من می‌خواهم اعتبارسنجی متقاطع را انجام دهم (به 10 گروه تقسیم می‌شود، در 9 گروه تمرین می‌کنم، روی 1 مورد دیگر آزمایش می‌کنم، تکرار می‌کنم) و سپس از آن نوعی معیار از میزان تعمیم طبقه‌بندی کننده من به دست می‌آورم - اما مطمئن نیستم که چه چیزی اندازه گیری که باید باشد. حدس می‌زنم می‌خواهم به میانگین دقت در نمونه‌های مختلف اعتبارسنجی متقابل نگاه کنم، اما مطمئن نیستم که چگونه این کار را با تابع «tune.nnet()» در بالا انجام دهم. هر ایده ای؟
چگونه می توان عملکرد تعمیم را از nnet در R با استفاده از اعتبارسنجی متقاطع k-fold بدست آورد؟
63788
من در بسیاری از جاها خوانده ام که درخت برای کشف وابستگی های پیچیده در بین متغیرهای پیش بینی خوب است. از مدل‌های درختی در R: ساختار بازگشتی مدل‌های CART برای کشف وابستگی‌های پیچیده بین متغیرهای پیش‌بینی‌کننده ایده‌آل است. اگر تأثیر مثلاً رطوبت > محتوای خاک به شدت به بافت خاک به شکل غیرخطی بستگی داشته باشد، مدل‌های CART > وقوع گونه‌ها نسبت به اصطلاحات متقابل در GLMها یا حتی GAMها، شانس بهتری در تشخیص این موضوع دارند. با این حال، به نظر می‌رسد که تابع «tree()» از بسته _tree_ عبارت تعامل را نمی‌پذیرد و خطای «درخت‌ها نمی‌توانند شرایط تعامل را مدیریت کنند» گزارش می‌کند. **آیا راهی برای گنجاندن عبارت تعامل در درخت وجود دارد؟** > dat = read.csv(~/Downloads/treedata.csv) > درخت(پوشش~(elev+plotsize+disturb),dat=dat) گره ), split, n, deviance, yval * نشان دهنده گره پایانی 1) ریشه 8971 39740 4.006 2) elev < 1157.5 6875 29610 3.868 * 3) elev > 1157.5 2096 9567 4.460 * > tree(cover~(elev+plotsize+disturb)^2,data=dat)خطا در درخت(cover ~2,displates,disp) +btur data = dat) : درختان نمی توانند شرایط تعامل را مدیریت کنید
چگونه عبارت‌های تعامل را در مدل R/tree لحاظ کنیم؟
99526
ما رویدادهایی داریم که مدت زمان متفاوتی دارند. من اکنون در حال محاسبه فاصله اطمینان در رویدادهای معیوب هستم، یعنی نسبت رویدادهایی که با یک مشکل مواجه شده اند. من این مشکل را به عنوان شمارش واحدهای معیوب در نظر می‌گیرم، بنابراین دوجمله‌ای، بنابراین آزمون نسبت نمونه 1. اکنون، باید نظرم را تغییر دهم و آن فواصل را به عنوان موضوع در هر ساعت رویداد محاسبه کنم. از آنجایی که برخی از رویدادها کمتر از یک ساعت و برخی بیشتر هستند، صحبت در مورد ساعات معیوب منطقی نیست. بنابراین، نه، این در مورد شمارش عیوب در واحد است، بنابراین پواسون. سوال من اینجاست: آزمون معادل 1 نسبت نمونه برای داده های توزیع شده پواسون چیست؟ خیلی ممنون از کمک شما P.S.: منظور من از رویداد یک نمایش، یک نمایشگاه و غیره است... نه یک رویداد آماری
فاصله اطمینان در داده های توزیع شده پواسون
16110
برای پایان‌نامه‌ام باید یک مطالعه کاربری تجربی برای مقایسه دو رابط کاربری که هر دو می‌توانند وظایف یکسانی را انجام دهند، انجام دهم. آنها در نحوه حمایت از شما در دستیابی به وظیفه خود متفاوت هستند. من چندان با آمار آشنا نیستم، بنابراین اگر هر یک از فرضیات زیر که قبلاً مطرح کردم نادرست است، لطفاً مرا تصحیح کنید. من تقریباً مطمئن هستم که باید از **طراحی متعادل درون موضوعی** استفاده کنم. به نظر می رسد مطالعه چندین مقاله در مورد رابط های کاربر نشان می دهد که مطالعات طولانی مدت در زمینه توصیه می شود. به دلیل محدودیت های زمانی و طراحی بسیار آزمایشی رابط، این یک گزینه نیست. این طرح انجام اندازه گیری عینی و ذهنی (پرسشنامه) است. اندازه گیری های عینی می تواند به عنوان مثال باشد. زمان صرف شده برای تکمیل یک کار داده شده در ابتدا متوجه شدم که به یک **تست زوجی** نیاز دارم. با این حال، من به احتمال زیاد چندین اندازه گیری خواهم کرد و نه فقط یک. برخی از مطالعه‌ها به ANOVA اندازه‌گیری مکرر برای چنین سناریویی اشاره کردند، اما من اصلاً در این مورد مطمئن نیستم. از کدام تست استفاده کنم؟ از کدام روش آنالیز توان استفاده کنم؟ من می خواهم تعیین کنم که به چند موضوع نیاز دارم (یا می توانم انجام دهم) و قدرت آزمون من چقدر خواهد بود.
تست مقایسه رابط کاربری
63786
من شنیدم که: * در یک توزیع تهی، توزیع p-value بیش از $[0,1]$ ثابت است. * تحت یک توزیع جایگزین، توزیع p-value به سمت $0 منحرف می شود. آیا توزیع نمونه ای وجود دارد که توزیع p-value به سمت $1 تغییر کند؟ همچنین آیا دو مورد اول قاعده آزمون را معقول فرض می کنند؟ اگر قانون تست خطاهای زیادی ایجاد کند چه؟ با تشکر
آیا توزیع نمونه ای وجود دارد که توزیع p-value به سمت 1 منحرف شود؟
63624
گاهی اوقات در مدل OLS ثابت برای مثال -2345 داریم و میانگین ندارد. چرا باید آن را در مدل نگه داریم؟ چرا وقتی آن را رها می کنیم، نتایج تغییر می کند؟ یعنی چی؟ و گاهی بی اهمیت است. چرا؟
ثابت در مدل OLS
99267
**سوال:** با انجام یک رگرسیون خطی در R با تابع lm، مطمئن نیستم که چگونه نتایج را برای _Intercept_ تفسیر کنم (همانطور که در زیر نشان داده شده است). به نظر می رسد احتمال ارتباط رهگیری کم است (یعنی _Pr(>|t|)_ 0.845 است و بالاتر از 0.05). آیا این به این معنی است که من باید رهگیری را از مدل با فشار دادن آن به صفر بردارم؟ از طرف دیگر، آیا به این معنی است که من همچنان باید رهگیری را حفظ کنم اما تشخیص دهم که مهم نیست؟ **خروجی:** تماس: lm(فرمول = DI ~ II) باقیمانده ها: Min 1Q Median 3Q Max -0.23960 -0.03306 -0.01116 008724 0.20568 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) -0.07952 0.39953 -0.199 0.845 II 0.86381 0.04593 18.809 8.23e-11 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 0.1346 در 13 درجه آزادی چندگانه R-squared: 0.9646، R-squared تنظیم شده: 0.961 آمار: 353.8 در 1 و 13 DF, p-value: 8.23e-11 **اطلاعات پس زمینه اضافی** هدف کلی من یافتن رابطه بین دو مجموعه داده جرمی است که دارم. بنابراین، اگر مقداری برای DI داشته باشم، می‌توانم مقدار متناظر II را پیدا کنم.
اهمیت فاصله رگرسیون (مدل R lm)
9198
**تعدیل فصلی** یک گام مهم برای پیش پردازش داده ها برای تحقیقات بیشتر است. اما محقق تعدادی گزینه برای تجزیه فصلی چرخه روند دارد. رایج‌ترین روش‌های تجزیه فصلی رقیب (با قضاوت بر اساس تعداد نقل‌قول‌ها در ادبیات تجربی) X-11(12)-ARIMA، Tramo/Seats (هر دو در Demetra+ اجرا شده‌اند) و $R$'s stl هستند. به دنبال اجتناب از انتخاب تصادفی بین تکنیک‌های تجزیه ذکر شده (یا سایر روش‌های ساده مانند متغیرهای ساختگی فصلی) می‌خواهم یک استراتژی اساسی بدانم که منجر به انتخاب مؤثر روش تجزیه فصلی می‌شود. چندین سؤال فرعی مهم (پیوندهای یک بحث نیز استقبال می شود) می تواند این باشد: 1. شباهت ها و تفاوت ها، نقاط قوت و ضعف روش ها چیست؟ آیا موارد خاصی وجود دارد که یکی از روش ها ارجح تر از روش های دیگر باشد؟ 2. آیا می توانید راهنمایی های کلی برای آنچه در جعبه سیاه روش های مختلف تجزیه وجود دارد ارائه دهید؟ 3. آیا ترفندهای خاصی برای انتخاب پارامترهای متدها وجود دارد (من همیشه از پیش‌فرض‌ها راضی نیستم، برای مثال «stl» پارامترهای زیادی برای مقابله دارد، گاهی اوقات احساس می‌کنم فقط نمی‌دانم چگونه این پارامترها را انتخاب کنم. راه درست). 4. آیا می توان برخی از معیارهای (آماری) را پیشنهاد کرد که سری های زمانی به طور فصلی به طور موثر تنظیم شوند (تحلیل همبستگی، چگالی طیفی، معیار اندازه نمونه کوچک، استحکام؟).
انتخاب روش تجزیه فصلی
32571
> **تکراری احتمالی:** > چه زمانی حذف رهگیری در lm() مشکلی ندارد؟ چه زمانی باید یک قطع را در رگرسیون خطی قرار دهم؟ سلام به همه، به طور کلی، با توجه به برخی داده ها، چگونه تصمیم بگیرم که آیا باید یک رهگیری را در رگرسیون خطی لحاظ کنم؟ ممکن است لطفاً چند نکته به من بدهید؟ متشکرم
چه زمانی باید یک قطع را در رگرسیون خطی قرار دهم؟
16917
من می‌خواهم خطای نسبی $ = \frac{x-x_{0}}{x}$ بین نتایج R و من با pca دریافت کنم، برای انجام این کار، Data <- read.csv(C:\\ dataset.txt,header=T,row.names=NULL) pca <- princomp(Data, cor = TRUE) R_ <- pca$loadings[,1:25] اگرچه R_ حاوی یک ماتریس هنگام انجام max(abs(( R_ - MYRESULT) / R_ )) من اعدادی مانند `21671.33` را دریافت می کنم ... که اینطور نیست زیرا ماتریس ها تقریباً برابر هستند ... چه خطا می تواند باشد. > typeof(R_) [1] double > typeof(MYRESULT) [1] double R_ Comp.1 Comp.2 Comp.3 Comp.4 Comp.5 Comp.6 Comp.7 Comp.8 Comp.9 Comp.10 x1 -0.233694952 0.117256657 -0.26171589 0.11393704 0.254809586 -0.25022024 0.10366925 -0.10343966 -0.14203329 -0.1907500299 x2 -0.150092223 -0.02304769306 -0.023047693061 - 0.135719926 -0.49301629 0.38433141 0.20287488 -0.14779720 -0.1557853588 x3 -0.208798702 -0.1156201760270 -0.1156201760270 0.050249728 -0.36797387 0.21069681 -0.10510851 -0.19520819 0.4458739074 x4 -0.231787481 -0.246610510851 -0.24661010851 -0.24661014604 -0.172802779 -0.04512977 -0.05205971 -0.14348860 -0.23209102 -0.0768192169 x5 -0.174773487 -0.33178206169 -0.33178256407 0.009748868 0.07303589 -0.01987149 -0.22041110 -0.32501098 -0.2363458857 x6 -0.040765485 -0.35031438858 -0.35031438857 -0.35031438857 . -0.15009222 -0.20879870 -0.23178748 -0.174773486 -0.04076548 0.22125345 0.18651088 0.2605342467 [20.151] 0.117256657 -0.02304693 -0.11562060 -0.24661014 -0.331782566 -0.35031439 -0.14093683 -0.27160044 -0.1517170.170 -0.1517 [3،] -0.261715894 -0.06350137 0.17171311 0.29624555 0.209179478 0.03876467 -0.17828465 -0.2406724188 -0. -0.325710915 [4،] 0.113937042 -0.16360606 -0.03359685 -0.16154665 -0.052964823 -0.03250257 0.03040163720 -0.1193355400 0.052946558 [5،] -0.254809590 -0.13571993 -0.05024973 0.17280278 -0.009748867 -0.20788278 -0.20788296 -0.10755628 0.1563905111 0.338866066 [6،] 0.250220236 0.49301631 0.36797388 0.04512977 -0.073035383 -0.073030238 -0.29614050 -0.02620513 0.0216369958 0.204902414
ماتریس اطلاعات مرتبط اصلی
5026
تفاوت بین داده کاوی، آمار، یادگیری ماشین و هوش مصنوعی چیست؟ آیا درست است که بگوییم آنها 4 زمینه هستند که سعی در حل مسائل بسیار مشابه اما با رویکردهای متفاوت دارند؟ دقیقاً چه چیزی مشترک هستند و در کجا تفاوت دارند؟ اگر نوعی سلسله مراتب بین آنها وجود داشته باشد، آن چه خواهد بود؟ سؤالات مشابهی قبلاً پرسیده شده است، اما من هنوز آن را نمی فهمم: * داده کاوی و تجزیه و تحلیل آماری * دو فرهنگ: آمار در مقابل یادگیری ماشین؟
تفاوت بین داده کاوی، آمار، یادگیری ماشین و هوش مصنوعی چیست؟
97478
تفاوت بین یک کلاس از توزیع ها و یک خانواده از توزیع ها چیست؟ کلاس توزیع های (a,b,0) به صورت زیر تعریف می شود: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/hOUbD.jpg) دوجمله ای، پواسون، هندسی و منفی این دو جمله ای را برآورده می کند. معیارها خانواده نمایی به صورت ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/rKCpW.png) تعریف شده است. برای آن دسته از توزیع هایی که می توانند به یک فرم عملکردی خاص تبدیل شوند (یعنی نه یک رابطه بازگشتی)؟
خانواده در مقابل کلاس توزیع - تعاریف
90124
من بخشی از تیمی هستم که وظیفه انجام آنالیز اکتشافی مجموعه داده های بزرگی را که حاوی اسکن های تصویربرداری عصبی است، دارم. برای هر اسکن من احتمالاً متغیری را محاسبه خواهم کرد که به عملکرد مغز مربوط می شود - برای مثال اتصال عملکردی. من ممکن است 20 مقدار از این قبیل آماری برای هر موضوع داشته باشم. مجموعه داده صدها موضوع دارد (در واقع 1000)، بنابراین داده های زیادی وجود دارد. ما علاقه مند به یافتن روابط بین عوامل مختلف، مانند سن، سلامت، وضعیت اجتماعی و اقتصادی هستیم، 100 اقدام برای هر موضوع وجود دارد. بیایید بگوییم که می‌خواهیم این مجموعه داده را استخراج کنیم تا ببینیم سبک زندگی یک فرد چیست که اتصال عملکردی را بهبود می‌بخشد. Q1) به نظر شما رویکرد صحیح چه خواهد بود؟ من به این فکر می کنم که داده ها را به یک مجموعه آموزشی از داده ها تقسیم کنم تا سعی کنم الگوهایی را پیدا کنم که به عملکرد مغز مربوط می شود و یک مجموعه آزمایشی را برای آزمایش آن مدل ها و فرضیه هایی که در مرحله اول ایجاد می شوند. هر کی ایده بهتر از این داره Q2) اگر فکر می کنید روش پیشنهادی تقسیم مجموعه داده ایده خوبی است، پس کدام روش را برای یافتن الگوها توصیه می کنید؟ من کمی جست‌وجو کرده‌ام و مقالاتی در مورد درخت‌های تصمیم‌گیری و غیره پیدا کرده‌ام. رئیس من پیشنهاد کرد فقط سعی کنید همه چیز را با همه چیز مرتبط کنید و به دنبال الگوها باشید، اما من گمان می‌کنم که این ایده بدی است و احتمالاً بسیاری از تعاملات و روابط غیرخطی را از دست خواهم داد. . Q3) به نظر شما از کدام نرم افزار استفاده کنم؟ من با MATLAB بسیار آشنا هستم، اما مشکلی ندارم که R را یاد بگیرم. به غیر از این، احتمالاً باید نرم افزار رایگان باشد زیرا بعید است بخشی که من در آن کار می کنم بخواهد برای چیزی پرداخت کند. با تشکر
بهترین روش‌ها برای داده‌کاوی تصویربرداری عصبی با 1000 نفر
112866
می‌خواهم بپرسم چگونه احتمالات را در ماتریس‌های TRANS_GUESS و EMIS_GUESS برآورد کنیم (اینجا http://www.mathworks.com/help/stats/hidden-markov-models-hmm.html#f8288 را ببینید) به عنوان ورودی برای الگوریتم Baum-Welch. آیا باید بر اساس داده ها محاسبه شوند یا کاملا تصادفی هستند؟ من در مورد این موضوع کمی سردرگم هستم.
تخمین ماتریس های TRANS_GUESS و EMIS_GUESS در الگوریتم Baum-Welch
29354
این سوال ممکن است برای دریافت پاسخ قطعی بسیار باز باشد، اما امیدوارم نه. الگوریتم‌های یادگیری ماشین، مانند SVM، GBM، Random Forest و غیره، معمولاً دارای برخی پارامترهای رایگان هستند که فراتر از برخی قوانین کلی، باید برای هر مجموعه داده تنظیم شوند. این معمولاً نوعی تکنیک نمونه‌برداری مجدد (بوت استرپ، CV و غیره) به منظور تناسب با مجموعه پارامترهایی که بهترین خطای تعمیم را ارائه می‌دهند انجام می‌شود. سوال من این است که آیا می توانید در اینجا زیاده روی کنید؟ مردم در مورد انجام جستجوهای شبکه ای به این صورت صحبت می کنند، اما چرا به سادگی به این مسئله به عنوان یک مشکل بهینه سازی نگاه نکنیم و به بهترین مجموعه ممکن از پارامترها توجه نکنیم؟ در این سوال در مورد مکانیک این موضوع پرسیدم، اما زیاد مورد توجه قرار نگرفته است. شاید این سوال بد پرسیده شده باشد، اما شاید خود این سوال نشان دهنده رویکرد بدی باشد که عموما مردم انجام نمی دهند؟ چیزی که من را آزار می دهد عدم نظم بخشی است. ممکن است با نمونه‌برداری مجدد بفهمم که بهترین تعداد درخت برای رشد در یک GBM برای این مجموعه داده 647 با عمق تعامل 4 است، اما چقدر می‌توانم مطمئن باشم که این در مورد داده‌های جدید صادق باشد (با فرض جمعیت جدید). با مجموعه آموزشی یکسان است)؟ بدون هیچ ارزش معقولی برای «کوچک کردن» به (یا اگر بخواهید، بدون اطلاعات قبلی آموزنده)، نمونه‌برداری مجدد بهترین کاری است که می‌توانیم انجام دهیم. من فقط هیچ صحبتی در این مورد نمی شنوم، بنابراین این باعث می شود فکر کنم که آیا چیزی وجود دارد که گم کرده ام. بدیهی است که هزینه محاسباتی زیادی در ارتباط با انجام بسیاری از تکرارها برای فشرده کردن آخرین اما قدرت پیش بینی یک مدل وجود دارد، بنابراین به وضوح این کاری است که اگر زمان/غرغر برای انجام بهینه سازی و هر ذره داشته باشید این کار را انجام خواهید داد. بهبود عملکرد ارزشمند است.
آیا می‌توانید با آموزش الگوریتم‌های یادگیری ماشینی با استفاده از CV/Bootstrap بیش از حد برازش کنید؟
12205
فرض کنید من 10000 نفر جمعیت دارم و یک نمونه 300 نفری دارم که به یک نظرسنجی آنلاین پاسخ داده اند. از 10000 دعوتنامه، 300 صد نفر پاسخ داده اند. آیا می توانم از تصحیح جمعیت محدود برای حاشیه خطا استفاده کنم؟ جمعیت: 10000 نمونه: 300 پاسخ: 3%
تصحیح جمعیت محدود برای محاسبه حاشیه خطا
97476
من یک مشکل اساسی با تابع pacf در R دارم. با اعمال این تابع برای بدست آوردن توابع همبستگی خودکار جزئی یک سری زمانی، مقادیر در برخی موارد بیش از 1 قرار می گیرند. در درک من، مقدار یک همبستگی باید باشد. بین -1 و 1، بنابراین من کاملا گیج هستم. بنابراین سؤال این است: چگونه مقدار تابع همبستگی خودکار جزئی می تواند خارج از بازه 1- و 1 باشد؟ برای اطلاعات بیشتر: سری های زمانی من 55 یا 180 اندازه گیری مختلف در زمان دارند و 5 متغیر مختلف را با هم مقایسه می کنند. من قبلاً سعی کردم فقط از متغیرهای تصادفی تابع تجزیه استفاده کنم. ویرایش: مجموعه داده https://docs.google.com/spreadsheets/d/14O6UwBn2KC7NJwGIGlssXsClTocMQe3_zpeUBVy7K_o/pubhtml هر ستون یک ورودی داده متفاوت است. امیدوارم این راه درست باشه...
مقادیر PACF را در R / همبستگی بیش از 1 درک کنید
50857
من می خواهم از PCA در چنین شرایطی استفاده کنم. من سه متغیر دارم: 1. چند بار چیزی برای کاربر اتفاق افتاده - عدد صحیح مثبت. 2. مجموع قدرت همه رویدادهای اتفاق افتاده برای کاربر - عدد واقعی، می تواند منفی 3. درصد بازدیدهای موفق باشد - عدد مثبت واقعی 0 < x < 1 ویکی پدیا بیان می کند که PCA به مقیاس بندی متغیرها حساس است. مشکل این است که قدرت را می توان با استفاده از واحدهای مختلف اندازه گیری کرد. و انتخاب واحدها بر نتایج تأثیر می گذارد. من در حال حاضر انتخاب طبیعی واحدها را نمی بینم. **آیا پیشنهادی در مورد نحوه مقیاس بندی مشاهدات برای PCA وجود دارد؟**
استفاده از PCA - چگونه مشاهدات را مقیاس بندی کنیم؟
63257
من به مدل سازی داده های پاسخ باینری در مشاهدات زوجی علاقه مند هستم. هدف ما این است که در مورد اثربخشی یک مداخله قبل از بعد در یک گروه استنباط کنیم، به طور بالقوه برای چندین متغیر کمکی تنظیم می‌کنیم و تعیین می‌کنیم که آیا تغییر اثر توسط گروهی که آموزش‌های به‌ویژه متفاوتی را به عنوان بخشی از مداخله دریافت کرده‌اند، وجود دارد یا خیر. داده‌هایی به شکل زیر داده شده است: id فاز resp 1 pre 1 1 post 0 2 pre 0 2 post 0 3 pre 1 3 post 0 و یک جدول احتمالی $2 \times 2$ از اطلاعات پاسخ جفت شده: \begin{array}{cc| cc} & & \mbox{Pre} & \\\ & & \mbox{درست} & \mbox{نادرست} \\\ \hline \mbox{Post} & \mbox{درست} & a & b&\\\ & \mbox{نادرست} & c& d&\\\ \end{آرایه} ما به آزمون فرضیه علاقه‌مندیم: $\mathcal{H }_0: \theta_c = 1$. آزمون مک نمار نشان می دهد: $Q = \frac{(b-c)^2}{b+c} \sim \chi^2_1$ زیر $\mathcal{H}_0$ (به صورت مجانبی). این شهودی است زیرا، در زیر صفر، ما انتظار داریم نسبت مساوی از جفت‌های ناسازگار ($b$ و $c$) از یک اثر مثبت ($b$) یا یک اثر منفی ($c$) حمایت کنند. با احتمال تعریف حالت مثبت $p =\frac{b}{b+c}$ و $n=b+c$ تعریف شده است. احتمال مشاهده یک جفت ناسازگار مثبت $\frac{p}{1-p}=\frac{b}{c}$ است. از سوی دیگر، رگرسیون لجستیک مشروط از رویکرد متفاوتی برای آزمایش همان فرضیه، با به حداکثر رساندن احتمال شرطی استفاده می‌کند: $$\mathcal{L}(X ; \beta) = \prod_{j=1}^n \frac{ \exp(\beta X_{j,2})}{\exp(\beta X_{j,1}) + \exp(\beta X_{j,2})}$$ کجا $\exp(\beta) = \theta_c$. بنابراین، چه رابطه ای بین این تست ها وجود دارد؟ چگونه می توان یک آزمایش ساده از جدول احتمالی ارائه شده قبلا انجام داد؟ با نگاهی به کالیبراسیون مقادیر p از رویکردهای clogit و McNemar در زیر null، فکر می کنید که آنها کاملاً نامرتبط هستند! library(survival) n <- 100 do.one <- function(n) { id <- rep(1:n, every=2) ph <- rep(0:1, times=n) rs <- rbinom(n *2، 1، 0.5) c( 'pclogit' = coef(خلاصه(clogit(rs ~ ph + strata(id))))[5]، 'pmctest' = mcnemar.test(table(ph,rs))$p.value ) } out <- replicate(1000, do.one(n)) plot(t(out), main='نمودار کالیبراسیون pvalue برای آزمون‌های مک‌نمار و کلوگیت', xlab='p-value McNemar', ylab='p-value رگرسیون لجستیک شرطی') ![توضیح تصویر را وارد کنید اینجا] (http://i.stack.imgur.com/hc8yv.jpg)
رابطه آزمون مک نمار و رگرسیون لجستیک مشروط
29350
فرض کنید که متغیرهای تصادفی $Y_1، ...، Y_n$، $Y_i = \beta \cdot x_i + \epsilon_i$ را برای $i = 1،...، n$ برآورده می کنند که در آن $\beta$ یک ثابت است، $ x_1,...,x_n$ ثابت هستند و $\epsilon_1,...,\epsilon_n$ مستقل هستند و به طور تصادفی توزیع شده اند. متغیرهایی با $\epsilon_i \sim N(0,\sigma^2)$، که $\sigma^2$ یک ثابت شناخته شده است. (الف) توزیع دقیق $Y_i$ را تعیین کنید. (ب) برآوردگر حداکثر احتمال $\hat{\beta}$ از $\beta$ را پیدا کنید و نشان دهید که برآوردگر بی طرفانه $\beta$ است. (ج) توزیع دقیق $\hat{\beta}$ را تعیین کنید.
برآوردگر حداکثر احتمال (خطاهای گاوسی، SD شناخته شده)