_id
stringlengths 1
6
| text
stringlengths 0
7.5k
| title
stringlengths 0
167
|
|---|---|---|
81567
|
**سوال:** زمینه این سوال در واقع مالی است، اما خود سوال یک موضوع آماری است. فرض کنید عبارت زیر را دارم: $$\rho = \frac{2\bar{x}}{(s^*_x)^2}+1 .......... (1)$$ جایی که $\bar{x} = \frac{1}{T} \sum_{t=1}^{T} x_t$ $(s^*_x)^2 = \frac{1}{T} \sum_{t =1}^T (x_t - \bar{x})^2$ فرض کنید $T$ مقداری ثابت ثابت است. توجه: $T$ فقط تعداد کل مشاهدات $x_t$ است. من اطلاعاتی در مورد $x_t$ برای هر «نهاد» دارم (در اینجا یک نهاد فقط به یک شرکت/شرکت اشاره دارد). در مجموع، من 2228 موجودیت دارم و برای هر موجودیت، مشاهدات $T$ x_t$ دارم. برای هر موجودیت، مشاهدات $T$ از $x_t$ را با Eqn جایگزین میکنم. $(1)$ و مقداری برای $\rho$ بدست آورید. بنابراین در مجموع، من 2228 مقدار $\rho$ دارم. حال، مقدار بزرگ $\rho$ به معنای بد بودن موجودیت است و مقدار کوچک $\rho$ به معنای خوب بودن موجودیت است. با این حال، مشکل این است که مقدار $\rho$ چقدر باید باشد تا یک موجودیت به عنوان بد طبقه بندی شود؟ یعنی آستانه چقدر است که اگر $\rho$ از مقدار آستانه فراتر رفت، آنگاه بتوانیم موجودیت را به عنوان بد طبقه بندی کنیم؟ برای مثال، فرض کنید آستانه 400$ باشد، اگر موجودیت A دارای $\rho = 300$ باشد در حالی که موجودیت B دارای $\rho = 1000$ باشد، آنگاه موجودیت A خوب است در حالی که موجودیت B بد است. * * * **تلاش های من تاکنون:** اولین تلاش من این بود که داده های موجودی را که به عنوان بد شناخته می شود دریافت کنم و سپس $\rho$ آن را محاسبه کنم و از این مقدار به عنوان آستانه استفاده کنم. مشکل این است که من نمی توانم داده هایی را در مورد نهادهای بد به دست بیاورم. برای تلاش بعدی، توزیع تجربی را با اعمال یک تخمینگر چگالی هسته روی 2228 مقدار $\rho$ بدست آوردم. سپس صدک 99 (برای استحکام، صدک 97.5 و 95 را هم محاسبه کردم) این توزیع تلفیقی را محاسبه می کنم و از این مقدار به عنوان آستانه استفاده می کنم. با این حال، انتقاد اصلی این است که این بسیار خودسرانه است و منطق کافی برای استفاده از این روش وجود ندارد. * * * **پرسشها:** بنابراین میپرسم آیا کسی ایدهای در مورد اینکه چگونه میتوانم از چه تکنیکها/روشهای آماری/ریاضی برای استخراج آستانههای مناسب برای $\rho$ استفاده کنم، دارد. در حال حاضر، من واقعاً نمی دانم چه ابزارهایی برای این مشکل در دسترس هستند.
|
محاسبه آستانه مجموعه ای از مقادیر
|
56844
|
با الهام از این پاسخ، سؤال زیر دارم: آیا برای تعیین توزیعی که داده ها از آن به دست می آیند، فقط چولگی و کشیدگی را بدانیم کافی است؟ آیا قضیه ای وجود دارد که بر این دلالت داشته باشد؟ علاوه بر این، آیا میتوانیم چولگی و کشیدگی را با هر جفت گشتاور دیگری (مثلاً مقدار و واریانس مورد انتظار) جایگزین کنیم؟
|
آیا چولگی و کشیدگی به طور منحصر به فردی نوع توزیع را تعیین می کند؟
|
69692
|
من این مشکل دشوار را برای حل دارم. امیدوارم کسی بتونه کمکم کنه فرض کنید میخواهم شعاع متوسط درختان یک چوب را بدانم. برای هر درخت i شعاع را در بالا، در مرکز و در پایین اندازه میگیرم، و 3 مقدار با عدم قطعیت سیستماتیک دادهشده توسط وضوح ابزار من (همیشه یکسان است): $X^i_{bot}$ $X^i_{mid}$X^i_{بالا}$$\Delta X_{sys}$ چگونه مقادیر را ترکیب کنم و چگونه خطاها را دریافت کنم؟ اولین رویکرد من این بود که 3 معیار را از نظر آماری ترکیب کنم تا میانگین X^i$ و st را بدست آوریم. انحراف $\sigma$ و سپس خطای سیستماتیک را اضافه کنید. $\Delta X^i = \sqrt{\sigma^2+\Delta X_{sys}}$ سپس برای ترکیب درختان مختلف، میانگینی از مقادیر مرکزی ایجاد کردم و خطا را با فرمول $\Delta X= ترکیب کردم. \sqrt{\Sigma (\frac{\delta f}{\delta X_i} \Delta X_i)^2}$ اما فکر نمیکنم اینطور باشد درست است. علاوه بر این، من نه تنها به معنی شعاع درختان، بلکه به شعاع متوسط یک حلقه از درخت آن جنگل نیاز دارم، مشروط بر اینکه هر درخت تعداد حلقه های متفاوتی داشته باشد $n^i$. من واقعاً نمی دانم چگونه این قسمت آخر را بسازم.
|
ترکیب خطاها
|
118
|
در تعریف انحراف معیار، چرا باید برای به دست آوردن میانگین (E) اختلاف میانگین را **مربع** کنیم و در آخر **ریشه مربع را برگردانیم**؟ آیا نمیتوانیم به سادگی **مقدار مطلق** تفاوت را بگیریم و مقدار مورد انتظار (میانگین) آنها را بدست آوریم، و آیا این نیز تنوع دادهها را نشان نمیدهد؟ عدد قرار است با روش مربع متفاوت باشد (روش قدر مطلق کوچکتر خواهد بود)، اما همچنان باید گسترش داده ها را نشان دهد. کسی می داند چرا ما این رویکرد مربعی را به عنوان یک استاندارد در نظر می گیریم؟ تعریف انحراف معیار: $\sigma = \sqrt{E\left[\left(X - \mu\right)^2\right]}.$ آیا نمیتوانیم به جای آن مقدار مطلق را بگیریم و همچنان خوب باشیم اندازه گیری؟ $\sigma = E\left[|X - \mu|\راست]$
|
چرا به جای در نظر گرفتن قدر مطلق در انحراف معیار، اختلاف را مجذور کنیم؟
|
48627
|
همانطور که در حال بررسی کتابم در مورد آمار بودم، با موضوع رگرسیون خطی مواجه شدم. در طول فصل، نویسنده با توضیح این که شما میخواهید باقیماندهها را به حداقل برسانید، شروع میکند تا y = a + bx خود را تا حد ممکن مناسب کنید: من این را میدانم، اما در نیمهی فصل ناگهان باقیماندهها به جمع تبدیل میشوند. مربع باقیمانده چرا این کار انجام می شود؟ من دارم گوگل می کنم ولی جواب درستی پیدا نکردم چه کسی میخواهد به من کمک کند تا بفهمم چرا از مجموع مجذورهای باقیمانده به جای فقط مجموع باقیماندهها استفاده میشود؟ با احترام، بس
|
مجموع مجذورهای باقیمانده به جای مجموع باقیمانده ها
|
94369
|
مدلی مانند این را فرض کنید، اساساً بازده بازار سهام را با یکسری موارد توضیح میدهد: stockReturn(t) ~ bondReturn(t) + moneyMarketReturn(t) + inflation(t) + somethingElse(t) 1) آیا از تورم به عنوان یک متغیر مستقل استفاده می کند. مشکلات قابل توجهی به همراه داشته باشد؟ 2) اگر نتایج با استفاده از بازده واقعی متفاوت باشد، در این مورد از تورم برای محاسبه بازده سهام، اوراق قرضه و بازار پول واقعی استفاده شود (با فرض اینکه چیز دیگری یک متغیر غیراقتصادی است). چه چیزی بر تفاوت تأثیر می گذارد؟ بنابراین در اینجا ما این کار را برای بازده سهام، اوراق قرضه و بازار پول انجام می دهیم تا بازده واقعی را بدست آوریم: realReturn(t) = ( 1 + return(t) )/( 1 + inflation(t) ) - 1 و سپس inflation را کاهش می دهیم. از مدل
|
تورم به عنوان یک متغیر مستقل
|
17354
|
من برای دو گروه اطلاعات دارم. 2 گروه بر روی تعدادی متغیر مطابقت دارند، اما در نمرات در مقیاس الکل متفاوت هستند (یک گروه زیاد است و یکی پایین). با این حال، گروهها بهگونهای ایجاد شدهاند که حداکثر میزان الکل را در نظر بگیرند (همه در یک گروه بسیار کم، در گروه دیگر بسیار زیاد) بنابراین معیار الکلی که آنها را از هم جدا میکند، کاملاً پیوسته نیست. سپس من داده هایی برای گروه ها در مورد عملکرد کار در 3 شرایط مختلف دارم: پاداش، خنثی و تنبیه. من میخواهم گروهها را برای عملکرد وظایفشان در هر یک از این شرایط مقایسه کنم، و علاوه بر این ببینم که آیا هر گروه در شرایط متفاوت پاسخ میدهد یا خیر. من آزمونهای t را برای بررسی اینکه آیا میانگین برای هر گروه، در هر شرایط متفاوت متفاوت است، انجام دادهام. گروه ها در یکی از شرایط به طور قابل توجهی متفاوت هستند. سوال 1: آیا انجام یک RM-ANOVA که هر گروه را مستقل از یکدیگر در نظر می گیرد، بنابراین از یک فایل تقسیم در SPSS و مقایسه نمرات در سه شرط در هر گروه معتبر است؟ سوال 2: من یک MANOVA را در نظر می گیرم که از عملکرد وظیفه در 3 شرط به عنوان متغیر وابسته و گروه به عنوان متغیر مستقل استفاده می کنم. اگر بخواهم این کار را انجام دهم، آیا جایگزین آزمونهای t میشود یا میتوان از آن به عنوان آزمایش اضافی استفاده کرد (به موجب آن دادههایی با استفاده از رویکرد تک متغیره در آزمونهای t و سپس با استفاده از رویکرد چند متغیره با استفاده از MANOVA در اختیار دارم). هر فکری؟
|
چگونه تفاوت بین دو گروه را در سه شرایط آزمایشی مختلف بررسی کنیم؟
|
89236
|
من داده ها را از 500 شرکت کننده جمع آوری کردم. نمونه ای از داده ها در اینجا آمده است: پاسخ 1: سن: 25 جنسیت: انتخاب مرد 1: 1 انتخاب 2: 1 انتخاب 3: 0 انتخاب 4: 1 انتخاب 5: 1 ... تا انتخاب 30 پاسخ 2: سن: 20 جنسیت : انتخاب زن 1: 1 انتخاب 2: 1 انتخاب 3: 0 انتخاب 4: 1 انتخاب 5: 1 ... همه سوالات دسته بندی و انتخاب ها نتایج باینری بودند. هدف من: الف) اینکه ببینم چه انتخاب هایی به طور کلی ترجیح داده شده اند (با استفاده از میانگین، چون داده ها نرمال هستند) ب) آیا جنسیت در انتخاب تفاوت ایجاد می کند (با استفاده از رگرسیون خطی) آنچه که واقعاً در مورد آن مشاوره می خواهم: 1) من قرار داده ام متغیرهای کنترل را نشان می دهد و ترجیح می دهد برای انتخاب 1 در حدود 3٪. برای اصلاح این مورد باید چیکار کنم تا 50/50 بشه؟ یا اصلاً باید این کار را انجام دهم؟ 2) پاسخ هایی به نظرسنجی وجود دارد که در آن شرکت کنندگان فقط 1 را برای همه پاسخ ها انتخاب کردند. آیا اینها را رد کنم؟ متشکرم!
|
در مورد تجزیه و تحلیل داده ها به مشاوره نیاز دارید
|
16001
|
من از رویه 2SLS SPSS 19 (که بسیار ساده است و تقریباً هیچ مشخصات اختیاری ندارد) برای پیشبینی Y از X پس از پیشبینی X بر اساس I، یک متغیر ابزاری، استفاده کردم. سپس سعی کردم با اجرای 2 رگرسیون OLS جداگانه آن نتایج را مطابقت دهم. ابتدا مقادیر X پیشبینیشده را با رگرسیون X بر روی I به دست آوردم. سپس Y را روی این متغیر «X پیشبینیشده» رگرسیون کردم. نتایج به سختی با نتایج روش یکپارچه 2SLS مطابقت داشت. _b_ مطابقت داشت، اما نه RSQ یا بتا (که بسیار متفاوت بود) یا _t_. چرا این اتفاق می افتد؟ من مطمئن شدم که برای هر رویه بر اساس زیرمجموعه موارد مشابه فیلتر شدهام.
|
چرا نتایج حداقل مربعات دو مرحله ای من منطقی نیست؟
|
69699
|
الگوریتمهای یادگیری ماشینی مقیاسپذیر این روزها به نظر میرسد سر و صدا هستند. هر شرکتی چیزی کمتر از _big data_ را مدیریت نمی کند. آیا کتاب درسی وجود دارد که در مورد الگوریتمهای یادگیری ماشینی با استفاده از معماریهای موازی مانند Map-Reduce مقیاسبندی شود و کدام الگوریتمها نمیتوانند؟ یا چند مقاله مرتبط؟
|
کدام الگوریتم های یادگیری ماشینی را می توان با استفاده از هادوپ/کاهش نقشه مقیاس بندی کرد
|
22742
|
** OP EDIT ** : هیچ مشکلی با این وجود ندارد. مشکل از روشی بود که من برای دریافت PACF استفاده می کردم. ظاهراً در این مورد خیلی خوب کار نمی کند (من از بسته پایتون scikits/tsa برای بدست آوردن PACF از طریق معادلات YW استفاده می کردم). آزمایش ضرایب در R مانند یک جذابیت کار می کرد. من سعی میکنم یک فرآیند AR(2) را شبیهسازی کنم، اما به نظر میرسد که نتایج وحشتناکی دریافت میکنم. روشی که من این کار را انجام می دهم به این صورت است: اگر بخواهم 1000 نقطه از یک فرآیند AR(2) را با ضرایب، مثلا a1=0.1 و a2=0.5 شبیه سازی کنم، تحقق 2000 نقطه از یک فرآیند نویز سفید را شبیه سازی می کنم. (در مورد من 2000 نقطه از یک توزیع معمولی ~N(0,1) شبیه سازی کردم)، جایی که از اولین استفاده خواهم کرد. 1000 امتیاز به عنوان امتیاز سوختن. فرض کنید من این تحقق را در یک بردار W[t] ذخیره می کنم. سپس، فرآیند واقعی AR(2) را با تکرار بر روی یک بردار جدید، X[t] به صورت زیر شبیهسازی میکنم: X[0]=W[0] X[1]=W[1] X[2]=a1 *X[1]+a2*X[0]+W[2] X[3]=a1*X[2]+a2*X[1]+W[3] ... X[i]=a1*X[i-1]+a2*X[i-2]+W[i] در نهایت، 1000 مقدار آخر بردار X[i] را برمیگردانم. مشکل این است که وقتی تابع خودهمبستگی جزئی واقعی را رسم میکنم (یعنی وقتی ضرایب فرآیند AR(2) را که تولید کردهام تخمین میزنم)، ضرایب اشتباهی برای a1 دریافت میکنم (البته مقدار قابل قبولی برای ضریب a2 دریافت میکنم). چه چیزی را از دست داده ام؟ تابع Python من برای شبیه سازی اینجاست: from numpy.random import normal from pylab import * # INPUT: # a: آیا آرایه با ضرایبی است، به عنوان مثال. a=array([a1,a2]). # sigma: انحراف معیار نویز سفید (میانگین صفر در این مورد). # n: تعداد نقاط برای ایجاد. def ARgenerator(a,sigma,n,burnin=0): if(burnin==0): burnin=100*len(a) # Burn-in element! w=normal(0,sigma,n+burnin) AR=array([]) s=0.0 warning=0 برای i در محدوده(n+burnin): if(i<len(a)): AR=append(AR ,w[i]) else: s=0.0 برای j در محدوده(len(a)): s=s+a[j]*AR[i-j-1] AR=append(AR,s+w[i]) print 'انحراف معیار اندازه گیری شده: '+str(sqrt(var(w[burnin:]))) AR[burnin:] را برمی گرداند **ویرایش:** توسط MCMC شبیه سازی (جایی که من از ماتریس اتوکوواریانس برای یک فرآیند AR(2) با احتمال گاوسی چند متغیره استفاده می کنم)، مقدار سیگما را درست دریافت می کنم. std. انحراف فرآیند نویز سفید) و ضریب a2. با این حال، مقدار a1 من هیچ ارتباطی با مقدار واقعی ندارد.
|
مشکل شبیه سازی فرآیند AR(2).
|
89233
|
من سعی می کنم احتمال بقا را با متغیرهای کمکی متغیر با زمان پیش بینی کنم. مجموعه داده من شامل افراد مختلفی است که در تاریخ های مختلف وارد مطالعه می شوند و پیگیری های متعددی دریافت می کنند. برای هر موضوع، زمان را از تاریخ ورود به مطالعه (و نه از شروع مطالعه) می شمارم. وقتی پیشبینیهایم را در مجموعه تست ارزیابی میکنم، متوجه شدم که این مدل برای افرادی که کمی قبل از پایان آن وارد مطالعه میشوند، عملکرد بدی دارد. آیا چیزی در این راه وجود دارد که من این مدل را طراحی کرده ام که تعصب را معرفی می کند، یا می تواند صرفاً به این دلیل باشد که من اطلاعات کمتری در مورد ورودی های بعدی دارم؟ * * * در صورتی که این مفید باشد، من از بسته بقای R استفاده می کنم تا یک مدل کاکس را با فرم «Surv(شروع، توقف، رویداد)» تطبیق دهم، که در آن چندین مشاهدات برای هر فرد دارم. من از predictSurvProb در PEC برای تولید احتمالات بقای پیش بینی شده برای مجموعه آزمایشی خود استفاده می کنم.
|
سوگیری در پیشبینی بقا با متغیرهای کمکی متغیر زمان
|
13675
|
من در حال حاضر از فرآیند زیر برای راهاندازی یک سری زمانی چند متغیره در R استفاده میکنم: 1. اندازههای بلوک را تعیین کنید -- تابع «b.star» را در بسته «np» اجرا کنید که اندازه بلوک را برای هر سری تولید میکند. 2. حداکثر اندازه بلوک را انتخاب کنید. 3. «tsboot» را روی هر سری با استفاده از اندازه بلوک انتخابی اجرا کنید. 4. از فهرست خروجی بوت استرپ برای بازسازی سری های زمانی چند متغیره استفاده کنید. راهانداز بلوک است، اما از آنجایی که من از کل مجموعه دادهها برای انتخاب اندازه بلوک استفاده نمیکنم، مطمئن نیستم که اگر بخواهم از شاخص ایجاد شده با اجرای «meboot» در یک سری استفاده کنم، چگونه میتوانم همبستگی بین سریها را حفظ کنم. اگر کسی تجربه ای با meboot در یک محیط چند متغیره داشته باشد، بسیار ممنون می شوم در مورد این فرآیند راهنمایی کنید.
|
جایگزینی برای مسدود کردن بوت استرپ برای سری های زمانی چند متغیره
|
89230
|
کار کردن روی یک سوال تکلیف و داشتن مقداری مشکل... هر کمکی بسیار قابل قدردانی خواهد بود. بر اساس نمونه 1.23، 0.36، 2.13، 0.91، 0.16، 0.12 از توزیع GAM$(2,\theta)$، CI دقیق 95% را برای پارامتر $\theta$ پیدا کنید. بنابراین می دانیم که GAM$(\alpha, \lambda)$ دارای pdf $f(x)= \dfrac{\lambda^{\alpha}}{\Gamma{(\alpha)}} x^{\alpha - 1 است. } \ e^{-\lambda x} $. بنابراین نمونه تصادفی ما با pdf $f(x)=\theta^{2} x e^{-\theta x}$ توزیع میشود. من میدانم که چون سؤال یک فاصله اطمینان _دقیق را میپرسد، باید متغیر محوری را پیدا کنم. مشکلی که من دارم این است که بیشتر نمونه هایی که پیدا می کنم در امتداد یک نمونه تصادفی هستند... $X_1,...,X_n \sim N(\theta, \sigma^{2})$ if $\sigma$ شناخته شده است پس $Z= \dfrac{\bar{X}-\theta}{\frac{\sigma}{\sqrt{n}}}\sim N(0,1)$، محوری است. و از آنجا پیدا کردن CI نسبتاً ساده است. من حدس میزنم که در مورد اینکه چگونه میتوان متغیر محوری را پیدا کرد، وقتی چیزها به طور معمول توزیع نشدهاند، غافل هستم. از کمک شما متشکرم، هر گونه پیشنهادی قابل قدردانی خواهد بود.
|
فاصله اطمینان برای یک نمونه تصادفی انتخاب شده از توزیع گاما
|
57380
|
چرا در این دنیا به تنوع نیاز داریم؟ هدف از ایجاد چنین عملکردی چیست و چگونه کار می کند؟ من می دانم که این معیاری است برای چگونگی گسترش داده ها، اما چرا ما فقط از تغییر مطلق برای حل این مشکل استفاده نمی کنیم؟
|
چرا در این دنیا به تنوع نیاز داریم؟
|
52342
|
با توجه به y = a + b*x، آیا a صرفاً یک وقفه را نشان می دهد یا به معنای y است؟ برای y = a + b*ln(x)، آیا نیازی به تفسیر رهگیری a وجود دارد؟
|
رهگیری در یک مدل خطی ساده به چه معناست؟
|
90877
|
من یک عبارت برای ماتریس کوواریانس $C$ بر حسب شاخص های $i$ و $j$ دارم. به این ترتیب من میتوانم عناصر ماتریس کوواریانس خود را به صورت تحلیلی محاسبه کنم، اما وقتی میخواهم matlab $C$ را معکوس کنم، هشداری درباره نزدیک بودن ماتریس به مفرد میدهد. بنابراین وارونگی کار نمی کند، منظور من از ضرب $C$ در معکوس داده شده من هویت را دریافت نمی کنم. من سعی کردم شبه معکوس را محاسبه کنم اما این نیز کار نمی کند. من همچنین سعی کردم یک ثابت کوچک در امتداد قطر اضافه کنم اما باز هم نتایج کار نمی کند. به طور کلی من با ماتریسهایی با ابعاد 1200 کار میکنم، اما ماتریسی با ابعاد کم را مثال میزنم که ویژگیهای یکسانی دارد، یعنی ماتریسها متقارن نسبت به قطر و ضد قطر هستند 19.9939 19.9954 19.9958 19.9951 19.9951 19.56999. 19.9954 19.9973 19.9981 19.9978 19.9965 19.9940 19.9905 19.9958 19.9981 19.9993 19.9995 19.9995 19.99995 19.99995 19.9951 19.9978 19.9995 20.0000 19.9995 19.9978 19.9951 19.9933 19.9965 19.9985 19.9995 19.99995 19.999993 19.9905 19.9940 19.9965 19.9978 19.9981 19.9973 19.9954 19.9865 19.9905 19.9933 19.9951 19.9981 عنوان در 19.9959 19.9959 ماتریس مثبت نیست، با این حال مقادیر ویژه منفی بسیار کوچک هستند که نشان می دهد ماتریس فقط به دلیل دقت ماشین مثبت نیست. مقادیر ویژه منفی $-1.4048e-14$ و $-2.4571e-15$ هستند. چگونه می توانم این ماتریس ها را معکوس کنم؟
|
معکوس کردن ماتریس کوواریانس قطعی غیر مثبت
|
17357
|
**به دنبال پست اینجا، نمیدانم که آیا گزارش میانگین و انحراف معیار هنگام توصیف یک نمره ترکیبی مناسب است یا خیر. من مطمئن شده ام که همه بر اساس سطح اهمیتشان در یک مقیاس پنج نقطه ای قرار می گیرند تا تغییرپذیری حفظ شود. این سیستم وزن دهی است که من برای تخصیص نمرات استفاده کرده ام: * 0 = بی اهمیت * 1 = مقداری اهمیت * 2 = اهمیت متوسط * 3 = دارای اهمیت بالا * 4 = دارای اهمیت مطلق، سپس تمام نمرات را با هم جمع کردم. برای رسیدن به نمره ترکیبی به این ترتیب، این بر اساس یک چارچوب مدل اندازه گیری تکوینی است. من از مسائل مربوط به خلوص ترازو آگاه هستم و امیدوارم منطق من در استفاده از سطح اهمیت به عنوان معیار سنجش، معنای لازم را برای تفسیر نمره ترکیبی ارائه دهد. به عنوان مثال، اگر من یک نمره ترکیبی 3 بگیرم، می دانم که از اهمیت بالایی برخوردار است. (بابت زبان غیر آماری ام عذرخواهی می کنم.)
|
آیا گزارش میانگین و انحراف معیار برای نمرات ترکیبی مناسب است؟
|
107883
|
دو نوع متداول از توابع ضرر عبارتند از 1) خطای مربع: $L(y,f(x))=(y-f(x))^2$ --> بهترین تخمین $E(Y|x) $2 است. ) خطای مطلق: $L(y,f(x))=|y-f(x)|$ --> بهترین برآورد میانگین $(Y|x)$ است من دو سوال دارم. 1) چرا مردم از روش خطای مربع استفاده می کنند؟ روش خطای مطلق حس شهودی بیشتری دارد. شما تفاوت بین واقعی و برآورد را دریافت می کنید. ساده و ساده. اگر تفاوت را مربع کنید، بسته به اندازه تفاوت، مقادیر تابیده دریافت نمی کنید؟ 2) این همچنین باعث شد به این فکر کنم که ارزش مورد انتظار چیست. مقدار مورد انتظار به عنوان میانگین تعریف می شود. با این حال، بهترین برآورد تحت تابع از دست دادن خطا مطلق، میانه است. بنابراین آیا ارزش مورد انتظار حد وسط است؟ خیلی ممنون می شوم اگر کسی بتواند به من کمک کند تا افکارم را روشن کنم. با تشکر
|
توابع از دست دادن خطای مربعی در مقابل خطای مطلق
|
17350
|
من از یک مدل خطی تعمیم یافته برای تجزیه و تحلیل داده های خود استفاده می کنم، 6 متغیر توضیحی وجود دارد. من تمام ترکیبهای متغیر مختلف را در مدلهای مختلف اضافه کردهام و آنها را بر اساس وزن AIC آنها رتبهبندی کردهام. فقط یک متغیر در هر یک از مدلها واقعاً معنیدار است، اما مدلهای مختلف با ترکیبهای متفاوت متغیرها به طور منطقی پس از مدل «بهترین» با بالاترین وزن AIC قرار میگیرند که فقط شامل متغیر توضیحی است که معنیدار است. اکنون میخواهم تأثیر متغیرهای فردی را کمی بیشتر تجزیه و تحلیل کنم، به این معنا که میخواهم تأثیر متغیرهای غیر معنیدار را تحلیل کنم، در حالی که متغیر مهم را کنترل میکنم. بنابراین، با توجه به تأثیری که متغیر $X_1$ (معنیدار) روی $Y$ میگذارد، برای مثال، $X_2$ چقدر تأثیر بیشتری دارد؟ من در ابتدا به این فکر کردم که یک مدل خطی تعمیم یافته را به داده های خود بچسبانم، تنها با استفاده از X_1$، و سپس مدل خطی تعمیم یافته دیگری را با استفاده از X_2$، بر روی باقیمانده های مدل اول برازش دهم، با این حال، آن روش دارای معایب عمده ای است که من می دانم. آیا کسی راهنمایی دارد که چگونه می توانم این کار را انجام دهم؟
|
تجزیه و تحلیل اثر افزوده یک متغیر فردی که قبلاً یک متغیر را برازش کرده است، با استفاده از یک مدل خطی تعمیم یافته
|
94361
|
من باید عملکرد را با استفاده از طبقهبندیکنندههای دو کلاسه مقایسه کنم - یک طبقهبندی کننده LDA و Exact Bayes در MATLAB. من باید از این مجموعه داده استفاده کنم. آیا کسی می تواند به من راهنمایی کند که چگونه این کار را انجام دهم (حداقل مراحل فرآیند)؟
|
مطالعه مقایسه عملکرد بر روی داده های واقعی در متلب (یادگیری ماشین)
|
96432
|
من چند متن در مورد رویکرد چند متغیره برای اندازهگیریهای مکرر خواندم که در آن k اندازهگیریهای تکراری به (k-1) نمرات تفاوت تبدیل میشوند. همه متون می گویند که با استفاده از این رویکرد، فرض کروی بودن لازم نیست. اما هیچ یک از آن متون توضیح نمی دهد که چرا این است. کسی میتونه توضیح بده چرا؟ با تشکر
|
فرض کرویت در رویکرد چند متغیره
|
94366
|
در پرسشنامه از پاسخ دهندگان دو کشور پرسیدم که در 6 ماه گذشته چند پیشنهاد شغلی از 5 منبع دریافت کرده اند. 5 سوال وجود دارد - یک سوال برای هر منبع. این یک سوال باز است، بدون مقیاس، زیرا دو کشور به شدت در شرایط بازار کار متفاوت هستند. دامنه پاسخ ها از 0 تا 30 است. داده ها بسیار کج هستند (بیشتر افراد 0 را نشان می دهند). آیا می توانم آلفای کرونباخ را برای هر کشور جداگانه محاسبه کنم؟ آن وقت ارزش ها بسیار پایین است. اگر داده ها را به مقیاس تبدیل کنم، مقادیر بسیار بهتر می شوند (0، 2-3 پیشنهاد، 4-5 پیشنهاد، 6-9 پیشنهاد، بیش از 10 پیشنهاد). بهترین رویکرد چیست؟
|
آلفای کرونباخ برای سوالات باز
|
60252
|
ما علاقه مندیم که آیا واحدهای آزمایشی با توجه به اینکه اعضای کلاس B هستند به کلاس A تعلق دارند یا خیر. واضح است که کلاس ها انحصاری نیستند. ما میلیون ها واحد آزمایشی داریم که می توانیم به دلخواه از آنها نمونه برداری کنیم. مشکل این است که ما فقط 50 نمونه از کلاس A را کشف کرده ایم. به احتمال زیاد دیگران در پایگاه داده ما وجود دارند، اما در آن زمان کشف نشدند، و اکنون نمی توان آزمایش کرد که آیا آنها اعضای کلاس A هستند یا نه. ما همه دلایلی داریم که باور کنیم کلاس A بسیار بسیار کوچک است، هرچند بنابراین بعید است که هر محموله ای که ما به عنوان Not-A شناسایی کرده ایم، در واقع A باشد. طرح تحقیق معمولی صرفاً ترسیم یک نمونه تصادفی و قرار دادن آنها در جدول 2x2 با توجه به A و A بودن آنها است. ب، الف و Not-B و غیره، اما در این مورد، احتمال اینکه یک نمونه حاوی هر یک از نمونه هایی باشد که ما به عنوان A شناسایی کرده ایم، بسیار کم است، و حتی اگر نمونه بسیار بزرگی را جمع آوری کنیم و موفق به نمونه برداری از یک نمونه شناخته شده از کلاس شویم. پاسخ، ما نتایج خوبی از آزمون کای دو دریافت نمی کنیم زیرا کوچکترین تعداد سلولهای مورد انتظار بسیار نزدیکتر به 0 از 1 خواهد بود. الزامات تست فیشر در مجموع نهایی ثابت برآورده نمی شود. در عوض، من نمونه برداری از جمعیت Not-A و ثبت B را پیشنهاد می کنم. جدول به دست آمده Pr(B|A) را به ما می گوید، و با استفاده از جمعیت شناخته شده A و اطلاعات آن در مورد B، جدول 2x2 را بسازیم. با استفاده از قانون بیز، ما $Pr(A|B)=Pr(B|A)*Pr(A)/Pr(B)$ را می دانیم. Pr(A) را می توان به صورت کسری تخمین زد: تعداد مثال کلاس A در پایگاه داده بر تعداد نمونه ها. تخمین تعداد نمونههای کلاس A، کشفشده و کشفنشده، میتواند با تکنیکهای سلسله مراتبی بیزی، به قیمت فرضیات اضافی از سوی من، به دست آید. برآورد $Pr(B)$ برای من بی اهمیت است، زیرا ما آن اطلاعات را برای هر مثال می دانیم. چند سوال دارم: 1\. آیا این استدلال صحیح است؟ 2\. آیا من چرخ را دوباره اختراع می کنم؟ آیا روش های تثبیت شده دیگری برای مقابله با موقعیت هایی مانند این وجود دارد؟ هر گونه بینش یا بازخورد بسیار قدردانی می شود.
|
طراحی آماری برای تجزیه و تحلیل داده های طبقه بندی شده با انتخاب در DV
|
19588
|
من یک رگرسیون خطی انجام داده ام و باقیمانده ها را رسم می کنم. من متوجه شدم که خطاها **وابسته** (همبستگی خودکار) هستند، چگونه می توانم همسویی بودن این سری را آزمایش کنم؟ من خواندم که تست Breusch-Pagan فقط با خطاهای مستقل کار می کند. اگر واریانس در این مورد ثابت است از چه آزمونی می توانم استفاده کنم؟ متشکرم
|
وقتی خطاها وابسته هستند چگونه همسویی را آزمایش کنیم؟
|
46019
|
چرا ما از باقیمانده های مجذور به جای باقیمانده های مطلق در تخمین OLS استفاده می کنیم؟ ایده من این بود که از مجذور مقادیر خطا استفاده کنیم، به طوری که باقیمانده های زیر خط برازش (که سپس منفی هستند)، هنوز هم باید بتوانند به خطاهای مثبت اضافه شوند. در غیر این صورت، ممکن است خطای 0 داشته باشیم زیرا یک خطای مثبت بزرگ می تواند با یک خطای منفی بزرگ خنثی شود. پس چرا به جای اینکه فقط قدر مطلق را بگیریم، آن را مربع می کنیم؟ آیا این به دلیل جریمه اضافی برای خطاهای بالاتر است (به جای اینکه 2 2 برابر خطای 1 باشد، وقتی آن را مربع می کنیم 4 برابر خطای 1 است).
|
چرا در تخمین OLS، بقایای باقیمانده را به جای باقیمانده مطلق مجذور می کنیم؟
|
60254
|
تئوری های زیادی در مورد مدل های مارکوف و تولید خروجی وجود دارد، اما من نمی توانم هیچ اطلاعاتی در مورد گیرکردن مدل ها پیدا کنم. من سعی می کنم با استفاده از مدل مارکوف مدلی از مجموعه داده ایجاد کنم. داده ها می توانند شبیه این abc abb acc baa bcc... باشند و من می خواهم یک مدل n-gram بسازم. بر این اساس، من از مجموعه دادهها بهطور تصادفی نمونهبرداری میکنم، بنابراین مدلی مانند این دریافت میکنم (مثال مدل 2 گرمی): * abc abb -> acc با احتمال p1 * acc baa -> bcc با احتمال p2 * ... مشکل زمانی اتفاق می افتد که من سعی می کنم یک خروجی از مدل تولید کنم. بگویید من مدل را به این صورت شروع می کنم: * اول: abc abb => acc، بنابراین خروجی اکنون abc abb acc است * دوم (با گرفتن دو کلمه آخر خروجی): abb acc => ??? مدل گیر می کند، زیرا مجموعه داده کامل نیست، و بنابراین همه ترکیب های ممکن را پوشش نمی دهد. هنگام ساخت حالت، نمونه abb acc هرگز بدست نیامد و بنابراین خروجی را نمی توان تعیین کرد. من در ابتدا سوال را در سایت انجمن C.S (لینک) پرسیدم و به من توصیه شد که آن را اینجا بپرسم. از سایت C.S، عملکردهای هموارسازی مانند هموارسازی لاپلاس و هموارسازی Good-Turing پیشنهاد شد. آیا این بهترین راه است یا روش های دیگری وجود دارد؟
|
گیر کردن زنجیره مارکوف به دلیل نمونههای داده ناکافی
|
52346
|
من در تلاش برای انجام تشخیص چند وجهی در نقشه رأی (هیستوگرام) هستم، با این حال، لوب های جانبی به وضوح باعث برخی از پیک های کاذب می شوند. بنابراین استفاده از میانگین شیفت نمی تواند همه ماکزیمم های محلی را پیدا کند. بنابراین فکر کردم می توانم ابتدا هیستوگرام را آستانه گذاری کنم و سپس میانگین شیفت را اعمال کنم. با این حال، من در تلاش برای یافتن یک مقدار آستانه مناسب (قابل مشتق شدن به جای یک مقدار سخت) هستم. این به این دلیل است که داده ها می توانند از خیلی نزدیک به صفر تا حدود 19 یا 20 متغیر باشند. این یک فضای رای 480x640 است. به همین دلیل، میانگین نامناسب است، زیرا معمولاً تعداد بسیار کمی است زیرا تعداد قله های کوچک معمولاً بسیار بیشتر از قله های واقعی است. به طور مشابه انحراف معیار بسیار کوچک است. هر گونه پیشنهاد استقبال می شود. با تشکر
|
چگونه یک آستانه خوب برای هیستوگرام های چندوجهی انتخاب کنیم
|
81383
|
من مجموعه داده ای از افراد دارم. هر فردی زمان شروع یکسانی دارد که در آن ما شروع به مشاهده آنها می کنیم. همچنین زمان پایانی برای همه افراد وجود دارد. برخی از افراد قبل از رسیدن به زمان پایان شکست می خورند و برخی از افراد هرگز شکست نمی خورند و به زمان پایان می رسند (یعنی موفق می شوند). این یک مشکل تجزیه و تحلیل بقا است به این دلیل که من سعی می کنم یک زمان را تا رویداد (شکست) مدل کنم. جایی که سردرگمی من در مورد افرادی است که موفق می شوند. من بدیهی است که نمی توانم با این افراد به عنوان شکست های مشاهده شده رفتار کنم، اما همچنین نمی توانم با آنها به عنوان سانسور شده رفتار کنم. این به این دلیل است که سانسور نشان می دهد که آنها مشاهده نشده اند که شکست می خورند، اما در مقطعی در آینده شکست خواهند خورد (ما نمی دانیم چه زمانی). این در مورد من درست نیست زیرا اگر فردی تا پایان زمان شکست نخورد، هرگز شکست نخواهد خورد. پس چگونه با این افراد که هرگز شکست نمی خورند برخورد کنم؟ آیا این هنوز یک مشکل تجزیه و تحلیل بقا است؟ در اینجا یک مثال است. بگویید گروهی از ورزشکاران همگی برای بازی های المپیک بعدی تمرین می کنند. برخی از آنها در نهایت در تمرینات مصدوم می شوند و نمی توانند در مسابقه شرکت کنند. اما اگر ورزشکاری تا تاریخ بازیهای المپیک آسیب نبیند، میتواند در مسابقه شرکت کند (یعنی موفق شود). بنابراین این ورزشکارانی که آسیب نمی بینند و می توانند در مسابقات شرکت کنند، سانسور نمی شوند، زیرا اینکه آیا بعد از المپیک آسیب می بینند یا خیر، مهم نیست. تنها چیزی که برای ما مهم است این است که آیا آنها تا تاریخ المپیک مصدوم می شوند یا خیر
|
آیا این یک مشکل برای تجزیه و تحلیل Survival است؟
|
20868
|
من مطمئن نیستم به دنبال چه کلماتی باشم. من یک مجموعه داده نادرست از 8000 متغیر همبسته (فروش) در طول 12 ماه دارم (یعنی 12 مشاهده برای هر متغیر). و من اساساً می خواهم آینده را پیش بینی کنم. از کجا باید شروع کنم؟ PCA؟ سوال من این است که تکنیک های مورد استفاده برای مقابله با تعداد زیادی متغیر (همبسته) و مشاهدات کمی در مورد سری های زمانی چیست؟ من به دنبال جهت گیری هستم (اما یک راه حل کامل البته خوش آمدید!). من آگنوستیک هستم، بنابراین آمار/اقتصاد سنجی/مبتنی بر مدل به اندازه یادگیری ماشینی/هوش مصنوعی/مبتنی بر مدل نیست، تا زمانی که نتایج مفید و معنادار را به همراه داشته باشد. راه حل های تکراری/استاندارد پذیر بیش از حد مورد استقبال قرار می گیرند.
|
سری زمانی با ابعاد بالا
|
43662
|
رویه های آماری معمول برای داده هایی که به نسبت هستند استفاده می شود؟ من اطلاعاتی در مورد نسبت بقای دو گونه در 7 ارتفاع دارم. چه آزمایش های آماری را می توانم جدا از رگرسیون در نسبت های 7 ارتفاع انجام دهم؟
|
آمار در مورد داده های نسبت عاقلانه
|
90022
|
من به دنبال برآوردگر میانگین داده های توزیع شده نرمال (با واریانس شناخته شده) در رژیمی هستم که در آن شبکه نمونه گیری بسیار درشت تر از واریانس است. یعنی در بدترین حالت، داده های شمارش را در نظر بگیرید که در آن تنها دو سطل حاوی نقاط داده هستند. به عنوان مثال فرض کنید من از 40 نقطه داده از یک توزیع نرمال با واریانس واحد نمونه برداری کرده ام و دو سطل داشته باشم: 1) بن یک از 1.5- تا 0.5 حاوی 28 نقطه داده است 2) سطل دو از 0.5 تا 2.5 حاوی 12 نقطه داده است.
|
محاسبه میانگین از داده های گسسته به طور معمول توزیع شده است
|
60251
|
**من یک طرح اندازه گیری مکرر با دو فاکتور دارم** (هر کدام دو سطح). هر آزمودنی دارای تعدادی آزمایش با هر یک از چهار ترکیب این دو عامل است. اگرچه برخی از ترکیبات در مورد چند مورد انجام نشد. **متغیر پاسخ، داده نسبت** با تعداد زیادی صفر است، به این معنی که یک مدل خطی ترکیبی/ اندازه گیری های مکرر آنوا مناسب نیست (زیرا باقیمانده ها غیر عادی هستند). من یک مدل ترکیبی خطی تعمیم یافته را امتحان کردم، با استفاده از تابع _lmer_ در R (بسته _lme4_)، با دو عامل من به عنوان متغیرهای ثابت و موضوع به عنوان یک متغیر تصادفی، اما باقیمانده ها به ویژه نرمال نیستند. این با استفاده از توزیع خطای پواسون با پیوند log یا استفاده از توزیع خطای دو جمله ای با پیوند لاجیت یا پروبیت صادق است (اگرچه دومی بهترین است). **میخواستم بدانم که آیا میتوانم از یک آزمون قوی یا ناپارامتریک در R برای بررسی تأثیر عواملم بر متغیر پاسخ (با در نظر گرفتن اقدامات مکرر) استفاده کنم؟ ** با بسته _nparLD_ برونر مواجه شدم، اما برای دادههای من کار نمیکند زیرا الف) _هر_آزمودنی_هر_ترکیبی از عوامل را تجربه میکند، و ب) متغیر زمانی وجود ندارد.
|
جایگزین ناپارامتریک یا قوی برای طراحی اندازه گیری های مکرر فاکتوریل
|
35754
|
> **تکراری احتمالی:** > از جمله تعامل اما نه اثرات اصلی در یک مدل، من یک طرح آزمایشی با پیش آزمون و پس آزمون دارم. دو گروه، گروه آزمایش و کنترل. من علاقه مندم که در پس آزمون، کنترل برای پیش آزمون، تفاوتی بین گروه آزمایش و کنترل وجود داشته باشد یا خیر. بنابراین، من ANCOVA را با پیش آزمون به عنوان متغیر کمکی، پس آزمون به عنوان DV و گروه به عنوان IV اجرا می کنم. من همچنین علاقه مندم که ببینم آیا تفاوت های جنسیتی برای اثر تجربی وجود خواهد داشت یا خیر. بنابراین، من علاقه مندم که به اصطلاح تعامل گروه*جنس نگاه کنم. من علاقه ای به بررسی اثر اصلی جنسیت به تنهایی ندارم، زیرا برای این طرح آزمایشی اهمیت زیادی ندارد. من مدل را سفارشی کردم و تأثیر اصلی جنسیت را حذف کردم و نتایج فقط تأثیر اصلی گروه و تأثیر متقابل گروه * جنسیت را نشان داد. آیا این مشکلی ندارد یا باید یک مدل کامل از جمله افکت اصلی جنسیت را اجرا کنم؟ متشکرم.
|
برای حذف یک اثر اصلی که در ANCOVA مورد علاقه نیست، یا نه؟
|
90870
|
من از NVI (نوع عادی شده اطلاعات) برای اندازه گیری کیفیت خوشه بندی به دست آمده (یک خانواده از آنها) در مقایسه با Ground Truth و همچنین با نتیجه به دست آمده با روش دیگری استفاده می کنم. از آنجایی که NVI یک متریک است، نابرابری مثلثی را برآورده میکند و از این رو فکر کردم خوب است که نتیجه را به صورت گرافیکی ترسیم کنم. برای آن، من به ابزاری نیاز دارم که با توجه به فواصل بین نقاط، آنها را به گونه ای ترسیم کند که تمام فواصل بین نقاط مرجع مختلف رعایت شود. نمودار باید دو بعدی باشد. آیا ابزاری می شناسید که بتواند چنین کاری انجام دهد؟ یعنی دریافت یک ماتریس از فواصل ماتریس کامل نخواهد بود، یعنی فاصله بین تمام پارتیشن ها محاسبه نمی شود. تمام فواصل تا 3 مرجع (2 GT و روش اضافی) و فواصل بین 3 مرجع محاسبه شده است. اگر ابزار نیست، استفاده از Matlab یا Python و انجام برخی برنامه نویسی نیز برای من خوب است. من حدود 200 نقطه برای طرح دارم. ویرایش: من این پاسخ را در SO پیدا کرده ام: http://stackoverflow.com/questions/13513455/drawing-a-graph-or-a-network-from- a-distance-matrix، اما به درستی کار نمی کند، حتی برای 7 گره (که می توان صحت آن را به صورت بصری تأیید کرد)
|
تجسم تغییرات عادی اطلاعات (NVI) از فواصل تا چندین مرجع
|
52341
|
من به دنبال فرمولی هستم که به جای استفاده از جدول مقادیر بحرانی استاتیک، مقادیر بحرانی را در آزمون t تولید کند. من در جاوا برنامه نویسی می کنم نه R بنابراین تابع ()qt چیزی نیست که به دنبالش هستم. هر کمکی قابل تقدیر است.
|
فرمولی برای تولید مقادیر t بحرانی برای آزمون t (به جای استفاده از آرایه جستجو)
|
20865
|
من دادههای طولی دارم (یکی از اندازهگیریها پیوسته و دیگری ترتیبی است) و میخواهم مدلی را متناسب کنم که همبستگی بین این دو معیار را در نظر بگیرد. من از stata استفاده میکنم کسی میتونه کمکم کنه؟ پیشاپیش ممنون
|
رگرسیون لجستیک با داده های طولی
|
71169
|
اگر یک تحقیق بازار با جمعیت 100 نفری داشته باشم: 1. 10 نفر کمتر از 10 دلار برای لباس خرج می کنند 2. 20 بین 10 - 20 دلار برای لباس خرج می کنند 3. 30 بین 20 - 100 دلار برای لباس خرج می کنند. خرج کردن در لباس _چگونه میانگین حسابی و انحراف معیار داده ها را محاسبه کنم؟_
|
میانگین حسابی و انحراف معیار پاسخ نظرسنجی را محاسبه کنید
|
70479
|
فرض کنید من یک هیستوگرام از برخی داده های پیوسته با pdf ناشناخته و دلخواه دارم. من به داده های خام اصلی دسترسی ندارم. بنابراین من نمی دانم که 3 تا از نقاط داده من 21، 25 و 27 هستند، تنها چیزی که می دانم این است که 3 تا از نقاط داده من در بین 20-30 هستند. محاسبه لحظه های این pdf از روی داده های binned چقدر دقیق است؟ آیا می توانم خطای انجام شده را تخمین بزنم؟
|
دقت محاسبه لحظه ها از هیستوگرام
|
19265
|
من در تلاش بودم تا بفهمم که چگونه می توانم تشخیص دهم که پارامتر از کدام خروجی آمده است. برای مثال در کد زیر مدل را برای 2 تکرار اجرا می کنم. در پایان آن، 2 خروجی به نامهای «bugs.output[[1]]، bugs.output[[2]]» به دست میآورم. حالا وقتی «mean (p[,2])» را تایپ میکنم، میانگین «p[2]» را از خروجی دوم به من میدهد. چگونه مشخص کنم که به میانگین «p[2]» برای خروجی «1» یا «ith» نیاز دارم؟ خروجی من اینگونه به نظر می رسد: میانگین sd 2.5% 25% 50% 75% 97.5% آلفا 4.20338 1.14447 2.44975 3.39950 4.01550 4.82925 7.015405 7.015405 7.015405 7.015405 p. 0.09974 0.13720 0.16445 0.19222 0.25308 p[2] 0.14286 0.03812 0.07665 0.11670 0.14020 0.16702 0.16702 0.221 p[23] 0.04240 0.13740 0.18295 0.21050 0.23845 0.30360....... و کد من اینجاست: library(R2WinBUGS) trial.data <- read.table(simuldatBB_6_30.csv,_ter=P read.table(p_BB_6_30.csv,header=F) bugs.output <- list() for(i در 1:2){ تهوع <- as.integer(trial.data[i,]) bugs.output[ [i]] <- اشکالات(data=list(nausea=تهوع، N=63)، inits=list(list(theta=.300,mu=3)، list(theta=.350, mu=3) ), model.file=conj_nausea_script_2.txt, parameters.to.save = c(alpha,p), n.chains=2, n.iter= 12000, n.burnin=5000, bugs.directory=E://AChaudhuri/winbugs14/WinBUGS14، working.directory=NULL) attach.bugs(bugs.output[[i]],overwrite=NA)}
|
رمزگشایی خروجی از R2WinBUGS
|
60780
|
من یک طراحی درون سوژه ای با 4 DV دارم و تجزیه و تحلیل اندازه گیری های مکرر را در SPSS انجام دادم. DV من یک اندازه گیری فیزیولوژیکی است و انتظار نمی رود خطی باشد. چند متغیره Wilks lambda من در p = 0.004 معنی دار است و آزمون Mauchly من به معنی در p = 0.054 نزدیک می شود. با این حال، آزمونهای تک متغیره من از درون آزمودنیها غیرمعنیدار است (07/0=p تصحیحنشده و 082/0=p گیسر گلخانهای). منطقی است که به تست چند متغیره خود نگاه کنم و تست تک متغیره غیر معنی دار را نادیده بگیرم؟ 2. آیا حتی اگر چند متغیره معنی دار است، باید به تک متغیره نگاه کنم؟ به عنوان مثال، آیا من توجیه میکنم که به مقایسههای دوتایی خود نگاه کنم فقط به این دلیل که چند متغیره مهم است؟
|
تفسیر تست های چند متغیره در اندازه گیری های مکرر
|
49157
|
من برای مطالعات کارشناسی ارشدم تحقیق می کنم و کمی با جنبه آماری مطالعه ام مبارزه می کنم. من از یک نظرسنجی استفاده کردم و تمام داده ها را در SPSS جمع آوری کردم. من هیچ پیشینه آماری ندارم، بنابراین به کمی مشاوره در مورد نحوه تفسیر / تجزیه و تحلیل نتایج نیاز دارم. من از آزمون Chi-Square برای بررسی روابط بین متغیرهای طبقه ای و سایر متغیرهای طبقه ای و آزمون همبستگی برای روابط بین متغیرهای ترتیبی و سایر متغیرهای ترتیبی استفاده می کنم. به دلیل دوگانگی، من از رگرسیون لجستیک دو جمله ای استفاده می کنم. چیزی که من نمی دانم این است که چگونه نتایج را بنویسم و نتایج را تجزیه و تحلیل کنم. به عنوان مثال یک همبستگی 0.000 بسیار مهم است، اما چگونه آن را بیان کنم؟ و اگر تقریباً تمام نتایج جدول بسیار قابل توجه باشد چه؟ به عنوان مثال، افرادی که موافق هستند که خرید آنلاین امن است نیز موافق هستند که اینترنت قابل اعتماد است. نوع مورد انتظار - نتیجه قابل توجه است اما نسبتا واضح است.
|
تجزیه و تحلیل و نوشتن نتایج
|
52691
|
چند وقت پیش این سوال رو گذاشتم اکنون یک ادامه کوچک دارم: با چند سوال مشکل دارم، این پیام خطا را دریافت می کنم: > svychisq(~ p13 + p14, amostra) خطا در solve.default(denom, numr) : سیستم از نظر محاسباتی مفرد است : شماره شرط متقابل = 4.64501e-18 بسته/تحلیل جایگزینی وجود دارد؟ یا، حداقل، توضیحی به رئیسم در مورد اینکه چرا نمی توانم این داده ها را تجزیه و تحلیل کنم :P EDIT 2: داده ها و دستورات (با عرض پوزش برای طولانی `dput()`). p11 قشر است، poulacao اندازه جمعیت لایه، p13 و p14 دو سوال هستند. نیاز(نظرسنجی) dados_censo <- ساختار(فهرست(p11 = c(16L, 11L, 12L, 12L, 12L, 12L, 12L, 12L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, 1L, , 1 لیتر, 1 لیتر, 1 لیتر, 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 1 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 12 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 9 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 17 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 22 لیتر، 27 لیتر، 22 لیتر، 27 لیتر 17 لیتر، 18 لیتر، 11 لیتر، 12 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 16 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 17 لیتر، 18 لیتر، 17 لیتر، 27 لیتر، 27 لیتر، 27 لیتر، 18 لیتر، 27 لیتر، 18 لیتر، 11 لیتر، 2 لیتر، 2 لیتر، 11 لیتر، 11 لیتر، 11 لیتر، 11 لیتر، 27 لیتر، 27 لیتر، 27 لیتر، 27 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 3 لیتر، 16 لیتر، 3 لیتر، 16 لیتر، 3 لیتر، 3 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 22 لیتر، 22 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 16 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 18 لیتر، 18 لیتر، 10 لیتر، 16 لیتر، 16 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 16 لیتر، 26 لیتر، 20 لیتر، 26 لیتر، 9 لیتر، 1 لیتر، 9 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 5 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 1 لیتر، 18 لیتر، 13 لیتر، 27 لیتر، 27 لیتر، 27 لیتر، 13 لیتر، 13 لیتر، 6 لیتر، 6 لیتر، 10 لیتر، 10 لیتر، 9 لیتر، 10 لیتر، 10 لیتر، 9 لیتر، 10 لیتر، 6 لیتر، 6 لیتر، 12، 21، 21، 12 6 لیتر، 6 لیتر، 5 لیتر، 6 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 18 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 17 لیتر، 17 لیتر، 21 لیتر، 10 لیتر، 10 لیتر، 14 لیتر، 6 لیتر، 7، 7، 7 13 لیتر، 13 لیتر، 3 لیتر، 24 لیتر، 9 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 9 لیتر، 9 لیتر، 13 لیتر، 13 لیتر، 2 لیتر، 2 لیتر، 2 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 8 لیتر، 11 لیتر، 11 لیتر، 11 لیتر، 11 لیتر، 11 لیتر، 11، 11، 11، 1. 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 9 لیتر، 13 لیتر، 19، 8، 9 لیتر 8 لیتر، 19 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 15 لیتر، 19 لیتر، 2، 2، 4، 19 لیتر 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 14 لیتر، 14 لیتر، 13 لیتر، 13 لیتر، 9 لیتر، 8 لیتر، 27 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 7 لیتر، 6 لیتر، 6 لیتر، 11 لیتر، 13 لیتر، 11 لیتر، 26 لیتر، 28 لیتر، 28 لیتر، 28 لیتر، 28 لیتر، 28 لیتر، 28 لیتر، 28 لیتر، 28 لیتر، 28 لیتر، 28 لیتر، 28 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 10 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 14 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 4 لیتر، 27 لیتر، 27 لیتر، 27 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 19 لیتر، 26 لیتر، 19 لیتر، 19 لیتر 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 4 لیتر، 19 لیتر، 19 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 26 لیتر، 19 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 6 لیتر، 26 لیتر، 26 لیتر، 27 لیتر، 7 لیتر، 7 لیتر، 19 لیتر، 27 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 26 لیتر، 26 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 19 لیتر، 19 لیتر، 25 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 25 لیتر، 3 لیتر، 3 لیتر، 3 لیتر، 7 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 24 لیتر، 24 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 18 لیتر، 1 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 18 لیتر، 24 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 14 لیتر، 12 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 20 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 3لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 8 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 18 لیتر، 13 لیتر، 13 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 26 لیتر، 24 لیتر، 8 لیتر، 8 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 24 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 24 لیتر، 18 لیتر، 24 لیتر، 24 لیتر، 2 24 لیتر، 24 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 26 لیتر، 24 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 27 لیتر، 27 لیتر، 27 لیتر، 27 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 25 لیتر، 26 لیتر، 26 لیتر، 16 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 6 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 10 لیتر، 19 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 14 لیتر، 4 لیتر 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 26 لیتر، 26 لیتر، 24 لیتر، 7، 1،9، 7، 7 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 19 لیتر، 11 لیتر، 11 لیتر، 11 لیتر، 11 لیتر، 13 لیتر، 11 لیتر، 11 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 16 لیتر، 16 لیتر، 27 لیتر، 19 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر، 13 لیتر 13 لیتر، 13 لیتر، 13 لیتر، 11 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 24 لیتر، 26 لیتر، 26 لیتر، 26 لیتر، 19 لیتر، 19 لیتر، 1
|
جایگزین های svychisq() در نظرسنجی
|
90872
|
من در حال انجام یک مدلسازی رگرسیون چندگانه کاملاً پیچیده در فیزیک هستم و مشکل دارم **چگونه به ماتریس کوواریانس برای پارامترهای غیر نرمال شده برگردم**. من نمی دانم چگونه خطا را برای رهگیری محاسبه کنم و ماتریس کوواریانس کامل را بدست بیاورم (این ماتریسی است که شامل یک سطر و ستون نیز برای قطع می شود). من یک مدل دارم: $$ d=Gm $$ که $d$ بردار داده های تجربی من، $G$ یک ماتریس طراحی و $m$ بردار پارامترهای مدل است. من باید از یک TSVD برای منظم کردن استفاده کنم (مشکل بد است) و از این رو به نرمال سازی نیاز دارم. این کار توسط: $$ d_s=(d-\bar{d})/\sigma(d) $$ $$ Z[i]=(G[i]-\bar{G[i]})/\ انجام میشود sigma(G[i]) $$ که در آن G[i] ستون i-ام از G است. همانطور که میانگین را از $d$ حذف کردم، در مدل مقیاس شده نیازی به رهگیری ندارم. بنابراین راه حل مشکل من این است: $$ m_s=(Z^TZ)^{-1}Z^Td_s $$ که در آن بردار $m_s$ شامل قطع نمی شود. اکنون می توانم ماتریس کوواریانس را برای $m_s$ محاسبه کنم و به $m$ برگردم. من می دانم چگونه رهگیری را محاسبه کنم. این کار را با $$ m_0=\bar{d}-\sum\bar{G[i]}m_s[i] $$ انجام میدهم، اما نمیدانم چگونه خطای آن را دریافت کنم و ماتریس کوواریانس کامل را محاسبه کنم. $m$. من به این نیاز دارم همانطور که باید آن را در واحدهای فیزیکی واقعی ببینم. سعی کنید آن را با مقایسه با نتایج رگرسیون بدون نرمال سازی پیدا کنید اما نتوانستید چیزی حدس بزنید. همچنین یافتن آن در کتاب های رگرسیون سخت است. **هر گونه کمکی بسیار قدردانی خواهد شد!**
|
رگرسیون خطی چندگانه با نرمال سازی - نحوه بدست آوردن ماتریس کوواریانس کامل بدون مقیاس
|
2230
|
من هرگز واقعاً تفاوت بین این دو معیار همگرایی را درک نکرده ام. (یا، در واقع، هر یک از انواع مختلف همگرایی، اما من این دو را به طور خاص به دلیل قوانین ضعیف و قوی اعداد بزرگ ذکر میکنم.) مطمئنا، میتوانم تعریف هر کدام را نقل کنم و مثالی بزنم که در آن تفاوت دارند. اما من هنوز کاملا آن را درک نمی کنم راه خوبی برای درک تفاوت چیست؟ چرا تفاوت مهم است؟ آیا نمونه به یاد ماندنی خاصی وجود دارد که در آن تفاوت دارند؟
|
همگرایی در احتمال در مقابل همگرایی تقریباً مطمئن
|
9137
|
بگویید 3 شرکت A، B و C وجود دارد. هر شرکت دارای رتبه کیفیت از 0 تا 100 و قیمت به دلار است. قیمت کیفیت شرکت A 80 7.9 B 70 8.0 C 75 8.1 چگونه بهترین مبادله کیفیت-قیمت را تعیین کنم؟ از چه نوع تحلیلی استفاده کنم؟
|
معاوضه کیفیت و قیمت
|
20863
|
من مدتی با اطلاعات متقابل کار کردم. اما من یک معیار بسیار جدید در جهان همبستگی پیدا کردم که می تواند برای اندازه گیری استقلال توزیع نیز استفاده شود، به اصطلاح همبستگی فاصله (همبستگی براونی نیز نامیده می شود): http://en.wikipedia.org/wiki/Brownian_covariance #تعاریف من اوراقی را که در آن این اقدام معرفی شده است، بررسی کردم، اما هیچ اشاره ای به اطلاعات متقابل پیدا نکردم. بنابراین، سؤالات من این است: * آیا آنها دقیقاً همان مشکل را حل می کنند؟ اگر نه، مشکلات چگونه متفاوت است؟ * و اگر بتوان به سوال قبلی پاسخ مثبت داد، استفاده از یکی از آن ها چه مزایایی دارد؟ پیشاپیش ممنون
|
همبستگی فاصله در مقابل اطلاعات متقابل
|
94365
|
این اولین بار است که در Stack Exchange هستم، بنابراین اگر کار اشتباهی انجام دادم لطفاً به من بگویید. من یک مجموعه داده سری زمانی دارم. برای هر زمان پیوسته $t$ یک مشاهده $(y,x)$ وجود دارد. فرض کنید برای هر روز از 01-01-2014، یعنی $t \in \left\\{0, 1, 2, …, 108 \right\\}$ که $108$ به معنای امروز است. من یک رگرسیون روی مدل $y = \alpha + \beta x$ اجرا کردم و $\alpha$ و $\beta$ را با $R^2 > 0.975$ پیدا کردم، سوال من این است که آیا میتوانم **تقریبی** $\beta '$ در مدل $y' = \alpha' + \beta'x'$ که $y'=\frac{y_{t+1}}{y_t}-1$ $x'=\frac{x_{t+1}}{x_t}-1$ **بدون ** اجرای رگرسیون در آن مدل، فقط با استفاده از $\hat{\beta'}= \frac{\beta \times x_{108}}{\hat{y_{108}}}$ که $\hat{y_{108}}$ با استفاده از مدل اصلی تخمین زده میشود. من کنجکاو هستم زیرا متوجه شدم $\hat{\beta'}$ من معمولاً در حدود 1٪ از $\beta'$ است حتی یک بله یا خیر ساده که کمک زیادی به من می کند. با تشکر
|
استفاده از نتایج رگرسیون بر روی مقادیر مشاهده خام برای تقریبی نتایج رگرسیون در تغییر نسبی بین مشاهدات (ساده، خطی)
|
45639
|
هنگام مطالعه کتاب درسی با جمله زیر مواجه شدم و دلیل آن را متوجه نشدم. اگر $x$ و $y$ بطور مشترک نرمال باشند، آنگاه $y$ یک تابع خطی (affine) از > $x$: $y = a+bx$ است. اگه کسی بتونه اینو برام توضیح بده خیلی خوبه
|
توزیع مشترک نرمال
|
20866
|
من در حال حاضر با رگرسیون فرآیند گاوسی بازی می کنم. من برخی از حقایق گیج کننده را کشف کردم که می خواهم به آنها پاسخ داده شود: 1. وقتی پارامترهایی مانند طول و عبارات خطا را برای تابع کوواریانس بهینه می کنم، نتایج متفاوتی را برای اهداف مقیاس بندی شده مانند $y \ بار 100 $ دریافت می کنم. این منجر به چیز بعدی می شود: 2. هنگامی که من از اهداف بسیار کوچک بین $0$ و $0.1$ استفاده می کنم، به نظر می رسد کل فرآیند بسیار ضعیف عمل می کند. آیا کسی می تواند این رفتارها را برای من توضیح دهد یا شاید بتواند پیوندی بفرستد که در آن مشکلات مورد بحث قرار گیرد؟
|
اهداف مقیاس فرآیند گاوسی
|
90871
|
وقتی سعی کردم مدل مثال 5.1 را در کتاب _Generalized Linear Models جا بزنم، با 'NaN's مشکل پیدا کردم. با کاربرد در مهندسی و علوم زیستی_. نویسندگان یک glm را با توزیع گاما و یک پیوند گزارش به مجموعه داده ای در مورد مقاومت (y) و 4 پیش بینی کننده (x1..x4) برازش می دهند. ابتدا از یک مدل کامل استفاده می کنند: `y ~ x1*x2*x3*x4` و سپس تعاملات غیر قابل توجه را حذف می کنند تا به مدل نهایی برسند: `y ~ x1+x2 +x3 +x4 + x1*x3 + x2* x3 + x3*x4`. وقتی سعی میکنم مدل کامل را با R تکرار کنم (آنها از SAS استفاده میکنند) اخطاری دریافت میکنم: «dgamma(y، 1/disp، scale = mu * disp، log = TRUE) NaNs تولید شده» و در «خلاصه (مدل) ستون های st.err و ستون های بعدی با NA هستند. بنابراین، اهمیت ضرایب از بین می رود. x1 <- c(-1,1,-1,1,-1,1,-1,1,-1,1,-1,1,-1,1,-1,1) x2 <- c( -1،-1،1،1،-1،-1،1،1،-1،-1،1،1،-1،-1،1،1) x3 <- c(-1,-1,-1,-1,1,1,1,1,-1,-1,-1,-1,1,1,1,1) x4 <- c(-1, -1,-1,-1,-1,-1,-1,-1,1,1,1,1,1,1,1,1) y <- c(193.4,247.6,168.2,205,303.4,339.9,226.3,208.3, 220,256.4,165.7,203.5,285,268,169.1,208.5) رزولوشن x2, x1,208.5, x4 <3 x, glm(y ~ x1*x2*x3*x4, family=Gamma(link=log)، data=res) خلاصه (mod) انحراف باقیمانده: [1] 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (برق) 5.26476 NA NA NA x1 0.24705 NA NA NA . . . x1:x2:x3:x4 0.36586 NA NA NA (پارامتر پراکندگی برای خانواده گاما NaN در نظر گرفته شده است) آیا راهی برای دور زدن این مشکل وجود دارد؟ وقتی مدل نهایی را جا دادم: `y ~ x1+x2+x3+x4 + x1*x3 + x2*x3 + x3*x4` نتایج دقیقاً مشابه کتاب هستند. بنابراین، چرا SAS می تواند مدل کامل را حل کند و R خطاها را برمی گرداند؟
|
R: مشکل NaNs در رگرسیون گاما با استفاده از glm
|
49156
|
هنگامی که ما سعی می کنیم یک پسین را حداکثر کنیم، قانون بیزی را اعمال می کنیم تا آنها را به احتمالات پسین تبدیل کنیم! $P(C=c_i|X=x) = P(X=x|C=c_i)P(C=c_i) / P(X=x)$ متناسب با $P(X=x|C=c_i)P (C=c_i)$، اما چگونه می توانم مطمئن شوم که واقعاً چنین است؟
|
چرا قسمت عقبی با $P(X=x|C=c_i)P(C=c_i)$ متناسب است؟
|
20864
|
من در حال یادگیری مدلسازی رگرسیون لجستیک از کتاب _رگرسیون لجستیک کاربردی_ هاسمر هستم. من باید طرحی به نام ایجاد نمودار پراکنده صاف شده تک متغیره در مقیاس لاجیت ایجاد کنم، چیزی شبیه به این (شکل 4.2 صفحه 107):  کسی میتونه کمک کنه؟ با تشکر ### ویرایش 01 با تشکر از همه پاسخ ها. من سعی کردم طرح را ایجاد کنم و متوجه شدم که smooth.spline نمودار را با استفاده از درصد (nrow((df[df[dfree]==1،]))/nrow(df)) ایجاد کرده است. از logit (`log(nrow(df[df[dfree]==1,]/nrow(df[df[dfree]==0،]))) هنگام ایجاد محور y بله، نمودار مشابه به نظر می رسد، اما نمی دانم آیا می توانیم یک کپی دقیق از آن ایجاد کنیم؟ با تشکر یک چیز دیگر، هنگام استفاده از logit، مقداری از مقدار logit در data.frame -Inf و Inf است که در smooth.spline مجاز نیست. ### ویرایش 02 من سوال دیگری در مورد ویرایش خود دارم: اگر من به صورت دستی همه Inf و -Inf را در data.frame خود حذف کنم و smooth.spline را روی آن data.frame انجام دهم چه می شود؟ آیا مناسب است؟
|
ایجاد نمودار پراکندگی هموار تک متغیره در مقیاس لاجیت با استفاده از R
|
31837
|
فرض کنید دو سرویس $A$ و $B$ وجود دارد که یک مشکل را حل می کند. مایلیم بدانیم که کدام یک از کاربران بیشتر وفادار هستند. وفاداری $L(X)$ احتمال اینکه کاربر از سرویس $X$ استفاده کند زمانی که از او خواسته شد مشکل را حل کند. خوب برای هر کاربر میتوانیم $L$ را برای سرویس $A$ تخمین بزنیم مانند این $L(A) = \frac{N(A)}{N(A) + N(B)}$ که $N(X)$ تعداد استفاده از X$ است. ما حتی میتوانیم آن را با هموارسازی لاپلاسی صاف کنیم و $L'(A) = \frac{N(A) + 1}{N(A) + N(B) + 2}$ دریافت کنیم، اما اینطور نیست. در واقع 20% از کاربران $N(A) + N(B) = 1$ دارند، سپس دو نوع $L(A)$ وجود دارد: 0 و 1 هر دو با واریانسی مانند 0.5 =). شاید روش های شناخته شده ای وجود داشته باشد که چگونه در چنین شرایطی رفتار کنیم که تقریباً هیچ آزمایشی انجام نشده است. ما باید هم در $L$ و هم واریانس آن تخمین بهتری داشته باشیم.
|
چگونه می توان وفاداری به خدمات را تخمین زد؟
|
90291
|
من در حال حاضر در حال انجام یک بررسی نمودار گذشته نگر هستم که در آن به اثربخشی برخی داروها در درمان یک بیماری خاص علاقه مند هستم (بیایید بیماری را A بنامیم) چندین دارو برای درمان بیماری A استفاده شده است. با این حال، تنها دو دارو به قدری مورد استفاده قرار گرفته اند که یک روش تحلیل استنباطی خروجی معناداری ایجاد می کند. بنابراین من دو دارو دارم، داروی X و داروی Y، که طبق تحقیقات قبلی نیز مؤثرترین داروها در درمان بیماری A هستند. پیامدها در دو متغیر دوگانه کدگذاری میشوند که 1=موفقیت و 0=شکست. اولین متغیر دوگانه این است که آیا دارو به کنترل کامل علائم دست یافته است یا نه، و متغیر دوم اینکه آیا علائم به طور قابل توجهی کاهش یافته است (تعریف شده به عنوان کاهش بیش از 50٪ در فراوانی علائم). بنابراین من داروی X و داروی Y را با پیامدهای کدگذاری شده در متغیرهای دوگانه دارم و میخواهم این فرضیه را آزمایش کنم که این داروها به طور قابل توجهی در نتایج درمان متفاوت هستند (هم در کنترل کامل علائم و هم در کاهش بیش از 50٪ علائم). من از هر کمکی برای این مشکل سپاسگزارم. متشکرم
|
تجزیه و تحلیل استنباطی بر روی داده های پزشکی طبقه بندی شده
|
90874
|
من می دانم که نزول گرادیان تصادفی رفتار تصادفی دارد، اما نمی دانم چرا. آیا توضیحی در این مورد وجود دارد؟
|
چگونه نزول گرادیان تصادفی می تواند از مشکل یک حداقل محلی جلوگیری کند؟
|
19582
|
اجازه دهید $X_1$ یک مقدار تصادفی از توزیع 1 باشد و اجازه دهید $X_2$ یک مقدار تصادفی از توزیع 2 باشد. من فکر کردم که فرضیه صفر برای آزمون من ویتنی $P(X_1 < X_2) = P(X_2 <X_1 است. ) دلار. اگر شبیهسازیهای آزمون من ویتنی را روی دادههای توزیعهای نرمال با میانگینهای مساوی و واریانسهای مساوی، با $\alpha=0.05$ اجرا کنم، نرخ خطای نوع I را دریافت میکنم که بسیار نزدیک به 0.05 است. با این حال، اگر واریانس ها را نابرابر کنم (اما میانگین ها را برابر بگذارم)، نسبت شبیه سازی هایی که در آن فرضیه صفر رد می شود، بزرگتر از 0.05 می شود، که انتظارش را نداشتم، زیرا $P(X_1 < X_2) = P( X_2 < X_1)$ همچنان پابرجاست. این زمانی اتفاق میافتد که من از «wilcox.test» در R استفاده میکنم، صرف نظر از اینکه «exact=TRUE»، «exact=FALSE، correct=TRUE» یا «exact=FALSE، correct=FALSE» داشته باشم. آیا فرضیه صفر چیزی متفاوت از آنچه در بالا نوشتم است، یا فقط اگر واریانس ها نابرابر باشند، آزمون از نظر خطای نوع اول نادرست است؟
|
فرضیه صفر در آزمون من ویتنی چیست؟
|
48204
|
سوال من اینجاست (تکلیف خانه بدیهی است): **نمونه ای از یک جامعه عادی واریانس 4.0 را تولید کرد. اگر میانگین نمونه از میانگین جامعه با احتمال حداقل 0.95 بیشتر از 2.0 انحراف نداشته باشد، اندازه نمونه را بیابید.** بنابراین من سعی می کنم $n$، حجم نمونه را که فقط $\hat داشته باشد، پیدا کنم. {\sigma}$، واریانس نمونه، و یک کران در فاصله بین $\bar{x}$ و $\mu$. شهود من معمولاً در این شرایط بود که باید از توزیع t استفاده کنیم زیرا $\hat{\sigma}$ یک تخمین بی طرفانه برای $\sigma$ است (ما همه اثباتها را در کلاس انجام دادیم). مشکل این است که توزیع t بسته به تغییر میکند. در $n$، اندازه نمونه، بنابراین هنگام جستجوی مقادیر t حاوی 95% جرم احتمال، از کدام توزیع (چند درجه آزادی) استفاده کنم؟ من آن را برای مقادیر مختلف $n$ امتحان کردم و سپس مقادیر را مربع کردم تا آنها را با d.f مقایسه کنم. از توزیع t - نزدیکترین چیزی که می توانستم بدست بیاورم 0.6 کاهش بود. (من مقدار t را در $\alpha = 0.025$ (دم سمت راست) برای 5 d.f گرفتم، به این معنی که $n$ برابر با 6 است، و با دو برابر کردن مقدار t به من 6.61 داد، که اختلاف 0.61 است (اینطور نیست این بزرگ است؟ دلیل اینکه من مقادیر t را مجذور کردم آشکار می شود اگر کران میانگین را به یک عدد نرمال کنید. t-statistic آیا این موضوع درست به نظر نمی رسد... (ویرایش - این کاری است که من انجام دادم): ما $P(\left| \bar{x}) داریم؟ leq 2.0) \geq 0.95$، همچنین داده شده است $\hat{\sigma} = 2$، باید $n$ را پیدا کنید. $$-\sqrt{n}\frac{2.0}{\hat{\sigma}} \leq \sqrt{n}\frac{\left( \bar{x} - \mu \right)}{\hat{ \sigma}} \leq \sqrt{n}\frac{2.0}{\hat{\sigma}}$$ پر کردن مقادیر: $$-\sqrt{n}\frac{2.0}{2} \leq \sqrt{n}\frac{\left( \bar{x} - \mu \right)}{\hat{\sigma}} \ leq \sqrt{n}\frac{2.0}{2}$$ سپس: $$-\sqrt{n} \leq \sqrt{n}\frac{\left( \bar{x} - \mu \right)}{\hat{\sigma}} \leq \sqrt{n}$$ در این مرحله من خیلی گیج شدم، بنابراین کاری که انجام دادم جستجوی مقادیر برای $\alpha = 0.025$ در درجات مختلف آزادی برای توزیع t، و سپس از d.f. = n - 1، من آن t-value را گرفتم (که $\sqrt{n}$ از چیزی است که به دست آوردهام) و آن را با مقدار n که از d.f ذکر شده مقایسه کردم. من استفاده می کردم ... برای مثال توزیع t را با 5 d.f. (البته حجم نمونه 6 است). مقدار t برای $\alpha$ من 2.571 است. با مجذور کردن این عدد n، 6.61 به دست می آید. بنابراین این n به وضوح $\neq$ 6 است که در توزیعی که من استفاده میکردم نشان داده شد. همه اینها یک جورهایی مضحک به نظر می رسند... من کجا چیزها را ول کردم؟
|
چگونه از توزیع Student's-t بدون حجم نمونه استفاده کنم؟
|
64005
|
فرض کنید من ماتریس $X \in R^{n \times m}$ دارم، که $n$ تعداد افراد و $m$ تعداد ویژگیها و $X[i,j] \in \\{0 است. ,1\\}$; $1$ نشان می دهد که $i$ منفرد دارای ویژگی $j$ است و $0$ به این معنی نیست. افراد فقط به یکی از این دو طبقه تعلق دارند. با توجه به متریک فاصله $Dist$ (هر فاصله)، میخواهم بهترین مجموعه از ویژگیها را انتخاب کنم که حداکثر $KLD$ را بین دو کلاس به من میدهد. آیا الگوریتم **انتخاب ویژگی** وجود دارد که بتواند **با توجه به فاصله** بهترین ویژگی ها را انتخاب کند؟ در نهایت، من می خواهم یک دسته از مسافت ها را آزمایش کنم.
|
بهترین فاصله را برای انتخاب ویژگی انتخاب کنید
|
96746
|
مدل من دارای Nagelkerke $R^2 = 0.282$ است که توسط SPSS خروجی شده است. با خواندن برخی ادبیات، ادعا می کند که این باید به عنوان یک ارزش خوب به حساب آید. با این حال، از آنجایی که حداکثر مقدار 1 است، این بدان معنی است که تنها 28٪ از تغییر در متغیر وابسته توسط متغیرهای مستقل قابل انتساب است. آیا این درست است؟ آیا این نباید به عنوان ضعیف/عادلانه طبقه بندی شود؟
|
ارزش Nagelkerke خوب چیست؟
|
11009
|
آیا گنجاندن یک تعامل دو طرفه در یک مدل بدون گنجاندن اثرات اصلی معتبر است؟ اگر فرضیه شما فقط در مورد تعامل باشد، آیا باز هم باید اثرات اصلی را لحاظ کنید؟
|
از جمله تعامل اما نه اثرات اصلی در یک مدل
|
69785
|
می خواستم بدانم آیا وقتی مشکل رگرسیون دارید می توانید کاری انجام دهید: $$\begin{cases} Y_t = \beta_1x_t + \beta_0 + \varepsilon_t \\\ \left(\varepsilon_1,\ldots,\varepsilon_n\right )\sim\mathcal{N}_n\left(\mathbf{0},D \راست) \\\ 1\leq t \leq n \end{cases}$$ و شما $D$، ماتریس کوواریانس خطاها را می دانید. وقتی $D$ مورب باشد حداقل مربعات وزنی را می دانم. اما اگر اینطور نباشد چه اتفاقی می افتد؟ آیا برآوردگر خوبی برای $(\beta_0,\beta_1)$ وجود دارد؟
|
چگونه می توان رگرسیون را با همبستگی های شناخته شده بین خطاها انجام داد؟
|
90292
|
 این گرافیک مدیون سوامی چاندراسهکاران است. من اخیراً شروع به یادگیری مهارت های علم داده کردم. من اصول اولیه در R، Python، Statistics، Machine Learning دارم. حالا می خواهم قسمت Visualization و NLP را یاد بگیرم. با چه کتاب هایی باید شروع کنم که بیشتر موارد ذکر شده در بالا را پوشش می دهد؟ کتابهای عملی ترجیح داده میشوند، زیرا میخواهم فوراً با دادههای موجود در اینترنت (به عنوان مثال data.gov) امتحان کنم. با این وجود، از پیشنهادات کتاب های نظری نیز استقبال می شود.
|
پیشنهاد کتابهایی در زمینه تجسم و پردازش زبان طبیعی
|
48200
|
من چند سوال در مورد کمند دارم. * پس از استفاده از AIC یا BIC برای انتخاب یک مدل، مدل با متغیرهای انتخاب شده مطابقت دارد تا خطاهای استاندارد تخمین ها را با CI، p-values و غیره بدست آورد... * وقتی از رویکرد Lasso استفاده می کنم، سعی می کنم برای انجام همان کار، اما مقادیر تخمینی ضرایب برگردانده شده توسط کمند با ضرایب برگردانده شده توسط مدل کاکس با تنها متغیرهای انتخاب شده توسط کمند یکسان نیست. اگر Lasso را درک کنم، متغیرها را در طول فرآیند تخمین ضرایب انتخاب می کند، در حالی که انتخاب بعد از آن با AIC انجام می شود. آیا این درست است؟ در اینجا سؤالات من وجود دارد: 1. چرا من مقادیر یکسانی را پیدا نمی کنم؟ 2. آیا می توانم از Lasso برای انتخاب متغیرها استفاده کنم و سپس یک مدل Cox را در نظر بگیرم؟
|
LASSO در مقابل AIC برای انتخاب ویژگی با مدل کاکس
|
45630
|
من روی یک پروژه تجزیه و تحلیل بقا کار می کنم. در بخشی از پروژه، از من خواسته می شود که عواملی را که ممکن است در افزایش خطر مرگ نقش دارند، شناسایی کنم. درک آنچه از من خواسته شده مشکل است. آیا کسی می تواند به من کمک کند تا این را بفهمم؟ چگونه باید آن عوامل را شناسایی کنم؟ آیا این نمونه ای از مدل اکتشافی ساختمان است؟ اگر چنین است، آیا باید فقط متغیرهایی را انتخاب کنم که خطر را افزایش می دهند؟ با تشکر از کمک شما.
|
سوال در مورد تجزیه و تحلیل بقا
|
7946
|
من در رشته آمار نیستم من مطالعه موردی را انجام دادم و دادهها را همانطور که در زیر نشان داده شده است جمعآوری کردم. دادههایی را دارم که در جدول زیر نشان داده شده است:   من می خواهم ضریب همبستگی را از این دو داده جدول پیدا کنم (بین **NOA و HVOC**، و بین **NOA و HVOL**). من مطالعه موردی را با کد منبع انجام دادم. قبل از اینکه این کد منبع را تغییر دهم، معیارهای نرمافزاری با نامهای NOA و HVOL را برای همه روش/عملکرد اندازهگیری کردم. و سپس، پس از اینکه کد را اصلاح کردم، دوباره همان معیارها را برای همه روش ها اندازه گرفتم. فیلد **NOA Diff** در جدول از NOA (پس از اصلاح کد) منهای NOA (قبل از تغییر کد) محاسبه می شود. یعنی NOA Diff = NOA (پس از) - NOA (قبل از). روش مشابهی برای متریک HVOC اعمال شد. **HVOC Diff** = HVOC(بعد)-HVOC(قبل) سوالات من این است * از چه نوع **ضریب همبستگی** استفاده کنم؟ * چه **نوعی نمودار** باید ایجاد کنم تا داده های خود را نشان دهم؟ * جدول بالا تمام داده ها است، منظورم این است که **جمعیت** نمونه نیست، آیا می توانم از روشی استفاده کنم که با **نمونه** استفاده می شود * آیا Spearman برای داده های غیرعادی توزیع شده است؟
|
چه ضریب همبستگی و نموداری با این داده ها مناسب است؟
|
71539
|
من احتمال و توزیع نرمال را درک می کنم، اما به مشکلی مرتبط با متغیرهای متعدد، به ویژه بزرگی و بازه نگاه می کنم. من لیستی از اندازه ها و فاصله زمانی بین آنها دارم. لیستی که به من داده شده است ok در نظر گرفته می شود. چیزی که من به دنبال آن هستم مجموعه اصطلاحاتی است که باید جستجو کنم تا بتوانم در مورد راه حل مسئله به دست آوردن یک مقدار و فاصله جدید از زمان گذشته تحقیق کنم، احتمال اینکه آن مقدار نیز باشد چقدر است. باشه. مرحله دوم که من نمی دانم چگونه شروع کنم، جایی است که یک رویداد کم است. حدس میزنم میدانی که به چیزی که من با آن بازی میکنم نزدیکترین زمینلرزهها است که در آن بزرگی و فواصل وجود دارد (بهرغم پسلرزهها) اما مهارتهای گوگلی من مرا به چیزی که نیاز دارم هدایت نکرده است. از افکار شما قدردانی می شود.
|
احتمال چند متغیره
|
16911
|
من 31 مشاهده برای 9 نفر تحت درمان دارم (4 جلسه برای 4 نفر و 3 جلسه برای بقیه). من یک مدل ترکیبی را برای ارزیابی روابط بین مشاهدات با استفاده از ضرایب همبستگی تبدیلشده توسط فیشر پیادهسازی کردهام. به عنوان مثال، برای ارزیابی تأثیر ضربه زدن انگشت بر پاسخهای صحیح، تعداد ضربههای انگشت را با درصد پاسخهای صحیح برای هر موضوع مرتبط کردم (۳ جفت مشاهده برای برخی از افراد و ۴ جفت برای برخی دیگر). سپس یک تبدیل فیشر روی 9 ضریب همبستگی حاصل انجام میدهم تا 9 z-score به دست بیاورم. سپس تست کردن اینکه آیا آن امتیازات z با 0 متفاوت است یا نه، یک موضوع ساده است. با این حال، من در مورد بهترین راه برای انجام این کار روشن نیستم. محاسبه کوواریانس بین نمرات z و سن آزمودنی آسان است، اما چگونه می توانم تأثیر ضربه های انگشت را بر پاسخ های صحیح، کنترل سن، دریافت کنم؟ (به عنوان یک نکته جانبی، من این را به عنوان یک مدل MIXED در SPSS پیادهسازی کردهام، اما همگرا نمیشود، بنابراین نمیتوانم به نتایج اعتماد کنم).
|
روش تجزیه و تحلیل اثرات مختلط کوواریانس چیست؟
|
45637
|
در تجربه من در برخورد با چند خطی بودن، اغلب حذف یک متغیر همخطی از مدل منجر به معنی دار شدن متغیر(های) هم خطی دیگر می شود (با این فرض که همه متغیرهای همخطی به طور قابل توجهی با متغیر وابسته به صورت دو متغیره همبستگی دارند. با این حال، اخیراً با آن مواجه شده ام. موقعیتی که در آن مدلی دارم که در زیر نشان داده شده است که در آن $X_2$ و $X_3$ همبستگی بالایی دارند ($r > 0.95$) و امتیازهای تحمل برای دو متغیر زیر 0.1$$$$ Y = \beta_0\ + \beta_1X_1\ + \beta_2X_2\ + \beta_3X_3\ +\beta_4X_1X_2\ +\beta_5X_1X_3\ $$ * _همه متغیرها پیوسته هستند. _ نتایج مدل رگرسیون نشان می دهد که هر 5 شیب معنی دار هستند (3 شیب برای افکت های اصلی و 2 شیب برای فعل و انفعالات، یکی از راه حل های ممکن حذف یکی از پیش بینی کننده های بسیار خطی است - مثلاً X_2$، یک مدل جدید دریافت می کنم). $$ Y = \beta_0^\prime + \beta_1^\prime X_1\ + \beta_3^\prime X_3\ +\beta_5^\prime. X_1X_3\ $$ پس از حذف $X_2$، در حالی که $\beta_0^\prime$، $\beta_1^\prime$، و $\beta_3^\prime$ مهم هستند، به طور مهمی، $\beta_5^\prime$، شیب برای مدت تعامل، دیگر قابل توجه نیست. اگر بخواهم X_3$ را حذف کنم، همین اتفاق می افتد. بنابراین من تعجب می کنم که چه چیزی ممکن است باعث ایجاد این الگو شود و چگونه می توان به طور بالقوه با آن برخورد کرد. پیشاپیش از شما متشکرم
|
برخورد با چند خطی در هنگام حذف یک پیش بینی بسیار خطی، اهمیت را کاهش می دهد.
|
16916
|
برای پیشبینیکنندههای طبقهبندی با سطح k، مهم نیست که چه چیزی را به عنوان گروه مرجع خود انتخاب میکنید. پس چرا اگر گروه مرجع را تغییر دهید، اهمیت F-value در رگرسیون خطی تغییر می کند؟ همچنین آیا ممکن است آزمون F فرضیه صفر را در زمانی که واقعاً باید رد نکند؟ چه زمانی این اتفاق می افتد؟ برای مرجع: مدل روش REG: متغیر وابسته MODEL1: کلسترول HDL HDL (mg/dl) تعداد مشاهدات خوانده شده 2032 تعداد مشاهدات استفاده شده 2025 تعداد مشاهدات با مقادیر گمشده 7 تجزیه و تحلیل واریانس مجموع میانگین منبع DF مربع مربع F > F مدل 4 1380.42472 345.10618 1.89 0.1094 Error 2020 368694 182.52193 Corrected Total 2024 370075 Root MSE 13.51007 R-Square 0.0037 Dependent Mean7-Sq5904. 26.24711 مدل رویه Reg: متغیر وابسته MODEL1: کلسترول HDL HDL (mg/dl) تعداد مشاهدات خوانده شده 2032 تعداد مشاهدات استفاده شده 2025 تعداد مشاهدات با مقادیر گمشده 7 تجزیه و تحلیل واریانس مجموع مربعات میانگین Fuer مدل 4 1333.76988 333.44247 1.83 0.1210 خطای 2020 368741 182.54503 تصحیح شده مجموع 2024 370075 Root MSE 13.51092 R-Square 0.0092 R-Square 0.000 0.0016 Coeff Var 26.24877 اولین مورد با گروه 1 به عنوان گروه مرجع است. دومی با گروه 2 به عنوان گروه مرجع است. توجه داشته باشید که دو مقدار F متفاوت هستند.
|
اگر گروه مرجع را تغییر دهید چرا اهمیت F-value در رگرسیون خطی تغییر می کند؟
|
20861
|
من در حال خواندن رگرسیون لجستیک کاربردی هوسمر هستم، و در فصل 3 کمی گیر کرده ام، در مورد تعامل و عوامل مخدوش کننده. در صفحه 77 موارد زیر را بیان می کند: > با استفاده از ضریب تخمینی LWD در مدل 1، نسبت شانس > را به صورت $\exp(1.054)=2.87$ برآورد می کنیم. نتایج نشان داده شده در جدول 3.14 نشان می دهد که > AGE یک مخدوش کننده قوی نیست، $\Delta(\hat{\beta})\%=4.2$، اما > با LWD تعامل دارد، $p=0.076$. من با $\exp(1.054)=2.87$ مشکلی ندارم، اما نمی توانم بفهمم که او چگونه $\Delta(\hat{\beta})\%=4.2$ را محاسبه می کند. کسی میتونه کمک کنه؟ با تشکر
|
شناسایی عامل مخدوش کننده در مدل رگرسیون لجستیک به عنوان مثال در رگرسیون لجستیک کاربردی
|
48208
|
لطفاً به من کمک کنید تا نوع توزیع داده های خود را درک کنم (مقادیر عرض نشان داده شده در زیر). من سه نمودار ارائه می کنم: 1) نمودار پراکندگی. 2) هیستوگرام؛ و 3) qqplot (عرض متغیر). Interval_number فقط یک شماره سریال است. عرض چیزی نیست جز زمان در ثانیه برای رسیدن به مجموعه ای از 100 چیز. اطلاعات من: interval_number عرض 1 34 2 234 3 124 .... ..   
|
درک توزیع داده ها؟
|
80389
|
من از بسته Mclust برای تطبیق مدل مخلوط گاوسی (GMM) در مجموعه داده استفاده می کنم. داده ها دارای دو برچسب ممکن است، بنابراین من سعی می کنم دو GMM مختلف را ارزیابی کنم، یکی برای هر برچسب. اکنون نقطه داده جدیدی دارم و میخواهم با مقایسه احتمال اینکه از هر یک از مدلها میآید، آن را برچسبگذاری کنم. من از فیلد denstiyMclust density برای بدست آوردن مقدار چگالی در هر نقطه از مجموعه داده استفاده می کنم، اما نمی دانم چگونه آن را تفسیر کنم - گاهی اوقات حتی بیشتر از یک است. آیا کسی می تواند بگوید که معنای این مقادیر چگالی چیست و چگونه می توان دو مقدار را از مدل های مختلف مقایسه کرد؟ ممنون یووال
|
مقادیر چگالی بسته densityMclust در R
|
7941
|
من در زمینه آمار نیستم. من کلمه داده های گره خورده را هنگام مطالعه در مورد ضرایب همبستگی رتبه دیده ام. * داده های گره خورده چیست؟ * نمونه ای از داده های گره خورده چیست؟
|
داده های گره خورده در زمینه یک ضریب همبستگی رتبه چیست؟
|
48206
|
دو مدل رگرسیون لجستیک زیر را در نظر بگیرید: $$ \begin{aligned} &\text{Model A: }&P(Y=1)&=\frac{\text{exp}\left(b_1+b_2X_2\right)}{ 1+\text{exp}\left(b_1+b_2X_2\right)} \\\ &\text{مدل B: }&P(Y=1)&=\frac{\text{exp}\left(b_1+b_2X_2+b_3X_3\right)}{1+\text{exp}\left(b_1+b_2X_2+b_3X_3\right)} \ end{aligned} $$ در مدل A، فرض کنید هر دو پارامتر $b_1$ و $b_2$ قابل توجه به نظر می رسند، یعنی $-1,96 > z_k$ یا $1,96 < z_k$. هنگام اضافه کردن یک متغیر ساختگی $X_3$ برای ایجاد مدل B، اگر بخواهم بررسی کنم که آیا متغیر قدرت توضیحی بیشتری به مدل اضافه میکند، دو گزینه وجود دارد: محاسبه آمار آزمون $G^2=-2\log \left(\frac{L_{\text{A}}}{L_{\text{B}}}\right)$ و آن را با مقدار بحرانی توزیع خی دو با یک درجه آزادی مقایسه کنید. 2. یک آزمون z معادل X_3$ در مدل B انجام دهید، با محاسبه $z=\frac{b_3}{\text{se}\left(b_3\right)}$ و مقایسه آن با مقادیر بحرانی نرمال استاندارد. توزیع اکنون سؤال این است: آیا در این مورد محاسبه مقدار z کافی است، اگر بخواهم تعیین کنم که آیا مدل B قدرت توضیح قابل توجهی بیشتری نسبت به مدل A دارد؟ آیا این امکان وجود دارد که X_3$ در آزمون z مهم باشد و در عین حال تست LR نشان دهد که تفاوتی بین این دو مدل وجود ندارد؟ به طور خلاصه: هنگام اضافه کردن تنها یک متغیر به یک مدل لجستیک، اگر بخواهم بررسی کنم که آیا متغیر قدرت توضیحی قابل توجهی به مدل اضافه کرده است، بهترین آزمایش برای انجام چیست؟
|
آزمون نسبت احتمال یا آزمون z؟
|
16912
|
در رگرسیون خطی از یک مجموعه داده $\\{ (x_i، y_i)، i=1،\cdots،N \\}$، نمیدانم چه توزیعهایی برای شیب و وقفه وجود دارد؟ در خروجی اکسل، از آزمون های t استفاده می شود تا مشخص شود که آیا میانگین شیب صفر و میانگین فاصله صفر است یا خیر. اما آزمون t فرض میکند که توزیعهای شیب و فاصله، توزیعهای نرمال هستند. بنابراین من می خواهم ببینم آیا این درست است یا خیر. با تشکر و احترام!
|
چه توزیع هایی برای شیب و برای قطع در رگرسیون خطی وجود دارد؟
|
16915
|
توجه داشته باشید که من بیشتر تحلیل هایم را با استفاده از R و Excel انجام می دهم. بیایید این مجموعه داده را به عنوان مثال در نظر بگیریم. من آن را تغییر دادم زیرا خود داده ها انحصاری هستند: سال ها نیز متفاوت است: 1967 2,033,407 1968 2,162,275 1969 2,159,640 1970 2,312,352 1971 2,554,424,42459 2,101,225 1974 1,951,944 1975 2,106,250 1976 1,687,625 1977 1,636,496 1978 1,494,525 1,494,525 1979 1,21398 1,606 1981 1,310,494 1982 1,319,750 1983 1,263,643 1984 1,171,656 1985 1,194,950 کاری که من معمولاً انجام می دهم: 1. یک رگرسیون خطی پایه متحرک 2. یک شکل میانگین متحرک چندجمله ای Mo. با استفاده از p = 1، q = 0. 5. خطاها را برای همه اینها نیز محاسبه میکنم. توجه داشته باشید که من یک مهندس هستم که میخواهم به آمار و توانایی اعتبارسنجی و کالیبره کردن مدلهایم وارد شوم. ## سوال راه صحیح پیش بینی این در 5، 10 یا حتی 15 سال آینده چیست؟ به نوعی من به دنبال این هستم که فراتر از اتصال داده ها به یک مدل حرکت کنم و داده ها را باور کنم. بله، من می دانم که می توانم به خطاها نگاه کنم. من عمدتا از RMSE یا MAE استفاده می کنم. اما هنوز در مورد پیشبینی درست دادهها مطمئن نیستم. ### توجه داشته باشید که این هم به این سوالی که قبلا اینجا پست کردم مربوط می شود.
|
روش های صحیح اجرای سری های زمانی و ARIMA
|
16117
|
من می خواهم فصلی بودن داده هایی را که دریافت می کنم تشخیص دهم. روش هایی وجود دارد که من پیدا کرده ام مانند نمودار زیرمجموعه فصلی و نمودار همبستگی خودکار، اما موضوع این است که من نمی دانم چگونه نمودار را بخوانم، کسی می تواند کمک کند؟ نکته دیگر این است که آیا روش های دیگری برای تشخیص فصلی بودن با یا بدون نتیجه نهایی در نمودار وجود دارد؟
|
برای تشخیص فصلی بودن داده ها از چه روشی می توان استفاده کرد؟
|
49152
|
من در حال تدریس یک کلاس رگرسیون لجستیک با SPSS هستم. کتاب درسی یک مجموعه داده نمونه را با یک پیش بینی باینری و دو متغیر کمکی عددی ارائه می کند. نمونه شامل 1000 ردیف است و تعدادی از این ورودی ها مقادیر مشترکی برای هر دو پیش بینی دارند. برای مثال، یک پیشبینیکننده فقط 5 مقدار و دیگری حدود 20 مقدار متمایز میگیرد. طبق مستندات SPSS، وقتی این اتفاق میافتد، SPSS دادهها را از زیرجمعیتهایی که از طریق مقادیر مشترک تعریف شدهاند، در نظر میگیرد. به نظر می رسد که این احتمال متفاوت و درجات آزادی متفاوتی را برای AIC نسبت به آنچه در صورت نادیده گرفتن جمعیت های فرعی به دست می آورید، ایجاد می کند. من مجموعه داده را با استفاده از glm در R اجرا کردم. درجه آزادی 997، AIC=508.93 در SPSS، 99 درجه آزادی (برای اهداف مناسب) و AIC=181.341 بود. برآورد ضرایب در هر دو کاربرد یکسان است. بدتر از آن، زمانی که من مدل را در SPSS تنها با 1 از 2 پیش بینی کننده تطبیق می دهم، احتمال بزرگتر از مدل 2 پیش بینی است: -87 برای مدل 2 پارامتری و -47 برای مدل 1 پارامتر. AIC همچنین در مدل 1 پارامتری به طور چشمگیری کوچکتر است، اما همه چیز دیگر نشان می دهد که هر دو پیش بینی کننده مهم و ضروری هستند. خیلی برای معیار AIC. داده ها را در R به هم ریختم و به SPSS برگرداندم. پس از آن من تقریباً همان نتایج را در R با glm به دست آوردم، زیرا هیچ زیرجمعیت فانتومی برای SPSS وجود نداشت تا بتواند با آنها کنار بیاید. پرسشها: 1. آیا کسی میتواند مرجعی ارائه کند تا توجیه کند که دادهها را از زیرجمعیتها دریافت میکنند (که در واقع در این مورد چنین نمیکنند) وقتی پیشبینیکنندهها دارای مجموعههای ارزش مشترک هستند؟ 2. با توجه به اینکه چه اتفاقی می افتد، چگونه می توانم با مقایسه انحراف بین دو مدل، با استفاده از SPSS و این مجموعه داده، تست مدل را آموزش دهم؟ 3. آیا می توانم کاری کنم که SPSS مانند R رفتار کند؟
|
مدل خطی تعمیم یافته در SPSS با مقادیر مشترک در میان پیش بینی کننده ها که به عنوان زیرجمعیت ها در نظر گرفته می شوند. چرا؟
|
9190
|
من باید یک برنامه وب چند کاربره بسازم که در مورد اندازه گیری ترافیک، پیش بینی ها و غیره باشد. در این مرحله می دانم که از نمودارهای نواری و دایره ای استفاده خواهم کرد. متأسفانه، آن انواع نمودارها در بیان تمام داده هایی که من جمع آوری و محاسبه می کنم غنی نیستند. من به دنبال مجموعه ای از نمودارهای گرافیکی هستم. اگر مجبور باشم کتاب یا هر چیز دیگری بخرم خیلی خوب است. من باید چند نمونه گرافیکی همراه با توضیحات پیدا کنم تا به من الهام بخشد. آیا چنین منبعی را می شناسید؟ آیا توصیه ای به من دارید؟
|
دایره المعارف گرافیک
|
9192
|
من با استفاده از بسته «nnet» مقداری یادگیری ماشینی را در R انجام می دهم. من می خواهم عملکرد تعمیم طبقه بندی کننده خود را با استفاده از اعتبارسنجی متقاطع k-fold تخمین بزنم. چگونه باید این کار را انجام دهم؟ آیا توابع داخلی وجود دارد که این کار را برای من انجام دهد؟ من 'tune.nnet()' را در پکیج 'e1071' دیده ام، اما مطمئن نیستم که آن چیزی را که من می خواهم انجام دهد. اساساً من میخواهم اعتبارسنجی متقاطع را انجام دهم (به 10 گروه تقسیم میشود، در 9 گروه تمرین میکنم، روی 1 مورد دیگر آزمایش میکنم، تکرار میکنم) و سپس از آن نوعی معیار از میزان تعمیم طبقهبندی کننده من به دست میآورم - اما مطمئن نیستم که چه چیزی اندازه گیری که باید باشد. حدس میزنم میخواهم به میانگین دقت در نمونههای مختلف اعتبارسنجی متقابل نگاه کنم، اما مطمئن نیستم که چگونه این کار را با تابع «tune.nnet()» در بالا انجام دهم. هر ایده ای؟
|
چگونه می توان عملکرد تعمیم را از nnet در R با استفاده از اعتبارسنجی متقاطع k-fold بدست آورد؟
|
63788
|
من در بسیاری از جاها خوانده ام که درخت برای کشف وابستگی های پیچیده در بین متغیرهای پیش بینی خوب است. از مدلهای درختی در R: ساختار بازگشتی مدلهای CART برای کشف وابستگیهای پیچیده بین متغیرهای پیشبینیکننده ایدهآل است. اگر تأثیر مثلاً رطوبت > محتوای خاک به شدت به بافت خاک به شکل غیرخطی بستگی داشته باشد، مدلهای CART > وقوع گونهها نسبت به اصطلاحات متقابل در GLMها یا حتی GAMها، شانس بهتری در تشخیص این موضوع دارند. با این حال، به نظر میرسد که تابع «tree()» از بسته _tree_ عبارت تعامل را نمیپذیرد و خطای «درختها نمیتوانند شرایط تعامل را مدیریت کنند» گزارش میکند. **آیا راهی برای گنجاندن عبارت تعامل در درخت وجود دارد؟** > dat = read.csv(~/Downloads/treedata.csv) > درخت(پوشش~(elev+plotsize+disturb),dat=dat) گره ), split, n, deviance, yval * نشان دهنده گره پایانی 1) ریشه 8971 39740 4.006 2) elev < 1157.5 6875 29610 3.868 * 3) elev > 1157.5 2096 9567 4.460 * > tree(cover~(elev+plotsize+disturb)^2,data=dat)خطا در درخت(cover ~2,displates,disp) +btur data = dat) : درختان نمی توانند شرایط تعامل را مدیریت کنید
|
چگونه عبارتهای تعامل را در مدل R/tree لحاظ کنیم؟
|
99526
|
ما رویدادهایی داریم که مدت زمان متفاوتی دارند. من اکنون در حال محاسبه فاصله اطمینان در رویدادهای معیوب هستم، یعنی نسبت رویدادهایی که با یک مشکل مواجه شده اند. من این مشکل را به عنوان شمارش واحدهای معیوب در نظر میگیرم، بنابراین دوجملهای، بنابراین آزمون نسبت نمونه 1. اکنون، باید نظرم را تغییر دهم و آن فواصل را به عنوان موضوع در هر ساعت رویداد محاسبه کنم. از آنجایی که برخی از رویدادها کمتر از یک ساعت و برخی بیشتر هستند، صحبت در مورد ساعات معیوب منطقی نیست. بنابراین، نه، این در مورد شمارش عیوب در واحد است، بنابراین پواسون. سوال من اینجاست: آزمون معادل 1 نسبت نمونه برای داده های توزیع شده پواسون چیست؟ خیلی ممنون از کمک شما P.S.: منظور من از رویداد یک نمایش، یک نمایشگاه و غیره است... نه یک رویداد آماری
|
فاصله اطمینان در داده های توزیع شده پواسون
|
16110
|
برای پایاننامهام باید یک مطالعه کاربری تجربی برای مقایسه دو رابط کاربری که هر دو میتوانند وظایف یکسانی را انجام دهند، انجام دهم. آنها در نحوه حمایت از شما در دستیابی به وظیفه خود متفاوت هستند. من چندان با آمار آشنا نیستم، بنابراین اگر هر یک از فرضیات زیر که قبلاً مطرح کردم نادرست است، لطفاً مرا تصحیح کنید. من تقریباً مطمئن هستم که باید از **طراحی متعادل درون موضوعی** استفاده کنم. به نظر می رسد مطالعه چندین مقاله در مورد رابط های کاربر نشان می دهد که مطالعات طولانی مدت در زمینه توصیه می شود. به دلیل محدودیت های زمانی و طراحی بسیار آزمایشی رابط، این یک گزینه نیست. این طرح انجام اندازه گیری عینی و ذهنی (پرسشنامه) است. اندازه گیری های عینی می تواند به عنوان مثال باشد. زمان صرف شده برای تکمیل یک کار داده شده در ابتدا متوجه شدم که به یک **تست زوجی** نیاز دارم. با این حال، من به احتمال زیاد چندین اندازه گیری خواهم کرد و نه فقط یک. برخی از مطالعهها به ANOVA اندازهگیری مکرر برای چنین سناریویی اشاره کردند، اما من اصلاً در این مورد مطمئن نیستم. از کدام تست استفاده کنم؟ از کدام روش آنالیز توان استفاده کنم؟ من می خواهم تعیین کنم که به چند موضوع نیاز دارم (یا می توانم انجام دهم) و قدرت آزمون من چقدر خواهد بود.
|
تست مقایسه رابط کاربری
|
63786
|
من شنیدم که: * در یک توزیع تهی، توزیع p-value بیش از $[0,1]$ ثابت است. * تحت یک توزیع جایگزین، توزیع p-value به سمت $0 منحرف می شود. آیا توزیع نمونه ای وجود دارد که توزیع p-value به سمت $1 تغییر کند؟ همچنین آیا دو مورد اول قاعده آزمون را معقول فرض می کنند؟ اگر قانون تست خطاهای زیادی ایجاد کند چه؟ با تشکر
|
آیا توزیع نمونه ای وجود دارد که توزیع p-value به سمت 1 منحرف شود؟
|
63624
|
گاهی اوقات در مدل OLS ثابت برای مثال -2345 داریم و میانگین ندارد. چرا باید آن را در مدل نگه داریم؟ چرا وقتی آن را رها می کنیم، نتایج تغییر می کند؟ یعنی چی؟ و گاهی بی اهمیت است. چرا؟
|
ثابت در مدل OLS
|
99267
|
**سوال:** با انجام یک رگرسیون خطی در R با تابع lm، مطمئن نیستم که چگونه نتایج را برای _Intercept_ تفسیر کنم (همانطور که در زیر نشان داده شده است). به نظر می رسد احتمال ارتباط رهگیری کم است (یعنی _Pr(>|t|)_ 0.845 است و بالاتر از 0.05). آیا این به این معنی است که من باید رهگیری را از مدل با فشار دادن آن به صفر بردارم؟ از طرف دیگر، آیا به این معنی است که من همچنان باید رهگیری را حفظ کنم اما تشخیص دهم که مهم نیست؟ **خروجی:** تماس: lm(فرمول = DI ~ II) باقیمانده ها: Min 1Q Median 3Q Max -0.23960 -0.03306 -0.01116 008724 0.20568 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) (Intercept) -0.07952 0.39953 -0.199 0.845 II 0.86381 0.04593 18.809 8.23e-11 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 0.1346 در 13 درجه آزادی چندگانه R-squared: 0.9646، R-squared تنظیم شده: 0.961 آمار: 353.8 در 1 و 13 DF, p-value: 8.23e-11 **اطلاعات پس زمینه اضافی** هدف کلی من یافتن رابطه بین دو مجموعه داده جرمی است که دارم. بنابراین، اگر مقداری برای DI داشته باشم، میتوانم مقدار متناظر II را پیدا کنم.
|
اهمیت فاصله رگرسیون (مدل R lm)
|
9198
|
**تعدیل فصلی** یک گام مهم برای پیش پردازش داده ها برای تحقیقات بیشتر است. اما محقق تعدادی گزینه برای تجزیه فصلی چرخه روند دارد. رایجترین روشهای تجزیه فصلی رقیب (با قضاوت بر اساس تعداد نقلقولها در ادبیات تجربی) X-11(12)-ARIMA، Tramo/Seats (هر دو در Demetra+ اجرا شدهاند) و $R$'s stl هستند. به دنبال اجتناب از انتخاب تصادفی بین تکنیکهای تجزیه ذکر شده (یا سایر روشهای ساده مانند متغیرهای ساختگی فصلی) میخواهم یک استراتژی اساسی بدانم که منجر به انتخاب مؤثر روش تجزیه فصلی میشود. چندین سؤال فرعی مهم (پیوندهای یک بحث نیز استقبال می شود) می تواند این باشد: 1. شباهت ها و تفاوت ها، نقاط قوت و ضعف روش ها چیست؟ آیا موارد خاصی وجود دارد که یکی از روش ها ارجح تر از روش های دیگر باشد؟ 2. آیا می توانید راهنمایی های کلی برای آنچه در جعبه سیاه روش های مختلف تجزیه وجود دارد ارائه دهید؟ 3. آیا ترفندهای خاصی برای انتخاب پارامترهای متدها وجود دارد (من همیشه از پیشفرضها راضی نیستم، برای مثال «stl» پارامترهای زیادی برای مقابله دارد، گاهی اوقات احساس میکنم فقط نمیدانم چگونه این پارامترها را انتخاب کنم. راه درست). 4. آیا می توان برخی از معیارهای (آماری) را پیشنهاد کرد که سری های زمانی به طور فصلی به طور موثر تنظیم شوند (تحلیل همبستگی، چگالی طیفی، معیار اندازه نمونه کوچک، استحکام؟).
|
انتخاب روش تجزیه فصلی
|
32571
|
> **تکراری احتمالی:** > چه زمانی حذف رهگیری در lm() مشکلی ندارد؟ چه زمانی باید یک قطع را در رگرسیون خطی قرار دهم؟ سلام به همه، به طور کلی، با توجه به برخی داده ها، چگونه تصمیم بگیرم که آیا باید یک رهگیری را در رگرسیون خطی لحاظ کنم؟ ممکن است لطفاً چند نکته به من بدهید؟ متشکرم
|
چه زمانی باید یک قطع را در رگرسیون خطی قرار دهم؟
|
16917
|
من میخواهم خطای نسبی $ = \frac{x-x_{0}}{x}$ بین نتایج R و من با pca دریافت کنم، برای انجام این کار، Data <- read.csv(C:\\ dataset.txt,header=T,row.names=NULL) pca <- princomp(Data, cor = TRUE) R_ <- pca$loadings[,1:25] اگرچه R_ حاوی یک ماتریس هنگام انجام max(abs(( R_ - MYRESULT) / R_ )) من اعدادی مانند `21671.33` را دریافت می کنم ... که اینطور نیست زیرا ماتریس ها تقریباً برابر هستند ... چه خطا می تواند باشد. > typeof(R_) [1] double > typeof(MYRESULT) [1] double R_ Comp.1 Comp.2 Comp.3 Comp.4 Comp.5 Comp.6 Comp.7 Comp.8 Comp.9 Comp.10 x1 -0.233694952 0.117256657 -0.26171589 0.11393704 0.254809586 -0.25022024 0.10366925 -0.10343966 -0.14203329 -0.1907500299 x2 -0.150092223 -0.02304769306 -0.023047693061 - 0.135719926 -0.49301629 0.38433141 0.20287488 -0.14779720 -0.1557853588 x3 -0.208798702 -0.1156201760270 -0.1156201760270 0.050249728 -0.36797387 0.21069681 -0.10510851 -0.19520819 0.4458739074 x4 -0.231787481 -0.246610510851 -0.24661010851 -0.24661014604 -0.172802779 -0.04512977 -0.05205971 -0.14348860 -0.23209102 -0.0768192169 x5 -0.174773487 -0.33178206169 -0.33178256407 0.009748868 0.07303589 -0.01987149 -0.22041110 -0.32501098 -0.2363458857 x6 -0.040765485 -0.35031438858 -0.35031438857 -0.35031438857 . -0.15009222 -0.20879870 -0.23178748 -0.174773486 -0.04076548 0.22125345 0.18651088 0.2605342467 [20.151] 0.117256657 -0.02304693 -0.11562060 -0.24661014 -0.331782566 -0.35031439 -0.14093683 -0.27160044 -0.1517170.170 -0.1517 [3،] -0.261715894 -0.06350137 0.17171311 0.29624555 0.209179478 0.03876467 -0.17828465 -0.2406724188 -0. -0.325710915 [4،] 0.113937042 -0.16360606 -0.03359685 -0.16154665 -0.052964823 -0.03250257 0.03040163720 -0.1193355400 0.052946558 [5،] -0.254809590 -0.13571993 -0.05024973 0.17280278 -0.009748867 -0.20788278 -0.20788296 -0.10755628 0.1563905111 0.338866066 [6،] 0.250220236 0.49301631 0.36797388 0.04512977 -0.073035383 -0.073030238 -0.29614050 -0.02620513 0.0216369958 0.204902414
|
ماتریس اطلاعات مرتبط اصلی
|
5026
|
تفاوت بین داده کاوی، آمار، یادگیری ماشین و هوش مصنوعی چیست؟ آیا درست است که بگوییم آنها 4 زمینه هستند که سعی در حل مسائل بسیار مشابه اما با رویکردهای متفاوت دارند؟ دقیقاً چه چیزی مشترک هستند و در کجا تفاوت دارند؟ اگر نوعی سلسله مراتب بین آنها وجود داشته باشد، آن چه خواهد بود؟ سؤالات مشابهی قبلاً پرسیده شده است، اما من هنوز آن را نمی فهمم: * داده کاوی و تجزیه و تحلیل آماری * دو فرهنگ: آمار در مقابل یادگیری ماشین؟
|
تفاوت بین داده کاوی، آمار، یادگیری ماشین و هوش مصنوعی چیست؟
|
97478
|
تفاوت بین یک کلاس از توزیع ها و یک خانواده از توزیع ها چیست؟ کلاس توزیع های (a,b,0) به صورت زیر تعریف می شود:  دوجمله ای، پواسون، هندسی و منفی این دو جمله ای را برآورده می کند. معیارها خانواده نمایی به صورت  تعریف شده است. برای آن دسته از توزیع هایی که می توانند به یک فرم عملکردی خاص تبدیل شوند (یعنی نه یک رابطه بازگشتی)؟
|
خانواده در مقابل کلاس توزیع - تعاریف
|
90124
|
من بخشی از تیمی هستم که وظیفه انجام آنالیز اکتشافی مجموعه داده های بزرگی را که حاوی اسکن های تصویربرداری عصبی است، دارم. برای هر اسکن من احتمالاً متغیری را محاسبه خواهم کرد که به عملکرد مغز مربوط می شود - برای مثال اتصال عملکردی. من ممکن است 20 مقدار از این قبیل آماری برای هر موضوع داشته باشم. مجموعه داده صدها موضوع دارد (در واقع 1000)، بنابراین داده های زیادی وجود دارد. ما علاقه مند به یافتن روابط بین عوامل مختلف، مانند سن، سلامت، وضعیت اجتماعی و اقتصادی هستیم، 100 اقدام برای هر موضوع وجود دارد. بیایید بگوییم که میخواهیم این مجموعه داده را استخراج کنیم تا ببینیم سبک زندگی یک فرد چیست که اتصال عملکردی را بهبود میبخشد. Q1) به نظر شما رویکرد صحیح چه خواهد بود؟ من به این فکر می کنم که داده ها را به یک مجموعه آموزشی از داده ها تقسیم کنم تا سعی کنم الگوهایی را پیدا کنم که به عملکرد مغز مربوط می شود و یک مجموعه آزمایشی را برای آزمایش آن مدل ها و فرضیه هایی که در مرحله اول ایجاد می شوند. هر کی ایده بهتر از این داره Q2) اگر فکر می کنید روش پیشنهادی تقسیم مجموعه داده ایده خوبی است، پس کدام روش را برای یافتن الگوها توصیه می کنید؟ من کمی جستوجو کردهام و مقالاتی در مورد درختهای تصمیمگیری و غیره پیدا کردهام. رئیس من پیشنهاد کرد فقط سعی کنید همه چیز را با همه چیز مرتبط کنید و به دنبال الگوها باشید، اما من گمان میکنم که این ایده بدی است و احتمالاً بسیاری از تعاملات و روابط غیرخطی را از دست خواهم داد. . Q3) به نظر شما از کدام نرم افزار استفاده کنم؟ من با MATLAB بسیار آشنا هستم، اما مشکلی ندارم که R را یاد بگیرم. به غیر از این، احتمالاً باید نرم افزار رایگان باشد زیرا بعید است بخشی که من در آن کار می کنم بخواهد برای چیزی پرداخت کند. با تشکر
|
بهترین روشها برای دادهکاوی تصویربرداری عصبی با 1000 نفر
|
112866
|
میخواهم بپرسم چگونه احتمالات را در ماتریسهای TRANS_GUESS و EMIS_GUESS برآورد کنیم (اینجا http://www.mathworks.com/help/stats/hidden-markov-models-hmm.html#f8288 را ببینید) به عنوان ورودی برای الگوریتم Baum-Welch. آیا باید بر اساس داده ها محاسبه شوند یا کاملا تصادفی هستند؟ من در مورد این موضوع کمی سردرگم هستم.
|
تخمین ماتریس های TRANS_GUESS و EMIS_GUESS در الگوریتم Baum-Welch
|
29354
|
این سوال ممکن است برای دریافت پاسخ قطعی بسیار باز باشد، اما امیدوارم نه. الگوریتمهای یادگیری ماشین، مانند SVM، GBM، Random Forest و غیره، معمولاً دارای برخی پارامترهای رایگان هستند که فراتر از برخی قوانین کلی، باید برای هر مجموعه داده تنظیم شوند. این معمولاً نوعی تکنیک نمونهبرداری مجدد (بوت استرپ، CV و غیره) به منظور تناسب با مجموعه پارامترهایی که بهترین خطای تعمیم را ارائه میدهند انجام میشود. سوال من این است که آیا می توانید در اینجا زیاده روی کنید؟ مردم در مورد انجام جستجوهای شبکه ای به این صورت صحبت می کنند، اما چرا به سادگی به این مسئله به عنوان یک مشکل بهینه سازی نگاه نکنیم و به بهترین مجموعه ممکن از پارامترها توجه نکنیم؟ در این سوال در مورد مکانیک این موضوع پرسیدم، اما زیاد مورد توجه قرار نگرفته است. شاید این سوال بد پرسیده شده باشد، اما شاید خود این سوال نشان دهنده رویکرد بدی باشد که عموما مردم انجام نمی دهند؟ چیزی که من را آزار می دهد عدم نظم بخشی است. ممکن است با نمونهبرداری مجدد بفهمم که بهترین تعداد درخت برای رشد در یک GBM برای این مجموعه داده 647 با عمق تعامل 4 است، اما چقدر میتوانم مطمئن باشم که این در مورد دادههای جدید صادق باشد (با فرض جمعیت جدید). با مجموعه آموزشی یکسان است)؟ بدون هیچ ارزش معقولی برای «کوچک کردن» به (یا اگر بخواهید، بدون اطلاعات قبلی آموزنده)، نمونهبرداری مجدد بهترین کاری است که میتوانیم انجام دهیم. من فقط هیچ صحبتی در این مورد نمی شنوم، بنابراین این باعث می شود فکر کنم که آیا چیزی وجود دارد که گم کرده ام. بدیهی است که هزینه محاسباتی زیادی در ارتباط با انجام بسیاری از تکرارها برای فشرده کردن آخرین اما قدرت پیش بینی یک مدل وجود دارد، بنابراین به وضوح این کاری است که اگر زمان/غرغر برای انجام بهینه سازی و هر ذره داشته باشید این کار را انجام خواهید داد. بهبود عملکرد ارزشمند است.
|
آیا میتوانید با آموزش الگوریتمهای یادگیری ماشینی با استفاده از CV/Bootstrap بیش از حد برازش کنید؟
|
12205
|
فرض کنید من 10000 نفر جمعیت دارم و یک نمونه 300 نفری دارم که به یک نظرسنجی آنلاین پاسخ داده اند. از 10000 دعوتنامه، 300 صد نفر پاسخ داده اند. آیا می توانم از تصحیح جمعیت محدود برای حاشیه خطا استفاده کنم؟ جمعیت: 10000 نمونه: 300 پاسخ: 3%
|
تصحیح جمعیت محدود برای محاسبه حاشیه خطا
|
97476
|
من یک مشکل اساسی با تابع pacf در R دارم. با اعمال این تابع برای بدست آوردن توابع همبستگی خودکار جزئی یک سری زمانی، مقادیر در برخی موارد بیش از 1 قرار می گیرند. در درک من، مقدار یک همبستگی باید باشد. بین -1 و 1، بنابراین من کاملا گیج هستم. بنابراین سؤال این است: چگونه مقدار تابع همبستگی خودکار جزئی می تواند خارج از بازه 1- و 1 باشد؟ برای اطلاعات بیشتر: سری های زمانی من 55 یا 180 اندازه گیری مختلف در زمان دارند و 5 متغیر مختلف را با هم مقایسه می کنند. من قبلاً سعی کردم فقط از متغیرهای تصادفی تابع تجزیه استفاده کنم. ویرایش: مجموعه داده https://docs.google.com/spreadsheets/d/14O6UwBn2KC7NJwGIGlssXsClTocMQe3_zpeUBVy7K_o/pubhtml هر ستون یک ورودی داده متفاوت است. امیدوارم این راه درست باشه...
|
مقادیر PACF را در R / همبستگی بیش از 1 درک کنید
|
50857
|
من می خواهم از PCA در چنین شرایطی استفاده کنم. من سه متغیر دارم: 1. چند بار چیزی برای کاربر اتفاق افتاده - عدد صحیح مثبت. 2. مجموع قدرت همه رویدادهای اتفاق افتاده برای کاربر - عدد واقعی، می تواند منفی 3. درصد بازدیدهای موفق باشد - عدد مثبت واقعی 0 < x < 1 ویکی پدیا بیان می کند که PCA به مقیاس بندی متغیرها حساس است. مشکل این است که قدرت را می توان با استفاده از واحدهای مختلف اندازه گیری کرد. و انتخاب واحدها بر نتایج تأثیر می گذارد. من در حال حاضر انتخاب طبیعی واحدها را نمی بینم. **آیا پیشنهادی در مورد نحوه مقیاس بندی مشاهدات برای PCA وجود دارد؟**
|
استفاده از PCA - چگونه مشاهدات را مقیاس بندی کنیم؟
|
63257
|
من به مدل سازی داده های پاسخ باینری در مشاهدات زوجی علاقه مند هستم. هدف ما این است که در مورد اثربخشی یک مداخله قبل از بعد در یک گروه استنباط کنیم، به طور بالقوه برای چندین متغیر کمکی تنظیم میکنیم و تعیین میکنیم که آیا تغییر اثر توسط گروهی که آموزشهای بهویژه متفاوتی را به عنوان بخشی از مداخله دریافت کردهاند، وجود دارد یا خیر. دادههایی به شکل زیر داده شده است: id فاز resp 1 pre 1 1 post 0 2 pre 0 2 post 0 3 pre 1 3 post 0 و یک جدول احتمالی $2 \times 2$ از اطلاعات پاسخ جفت شده: \begin{array}{cc| cc} & & \mbox{Pre} & \\\ & & \mbox{درست} & \mbox{نادرست} \\\ \hline \mbox{Post} & \mbox{درست} & a & b&\\\ & \mbox{نادرست} & c& d&\\\ \end{آرایه} ما به آزمون فرضیه علاقهمندیم: $\mathcal{H }_0: \theta_c = 1$. آزمون مک نمار نشان می دهد: $Q = \frac{(b-c)^2}{b+c} \sim \chi^2_1$ زیر $\mathcal{H}_0$ (به صورت مجانبی). این شهودی است زیرا، در زیر صفر، ما انتظار داریم نسبت مساوی از جفتهای ناسازگار ($b$ و $c$) از یک اثر مثبت ($b$) یا یک اثر منفی ($c$) حمایت کنند. با احتمال تعریف حالت مثبت $p =\frac{b}{b+c}$ و $n=b+c$ تعریف شده است. احتمال مشاهده یک جفت ناسازگار مثبت $\frac{p}{1-p}=\frac{b}{c}$ است. از سوی دیگر، رگرسیون لجستیک مشروط از رویکرد متفاوتی برای آزمایش همان فرضیه، با به حداکثر رساندن احتمال شرطی استفاده میکند: $$\mathcal{L}(X ; \beta) = \prod_{j=1}^n \frac{ \exp(\beta X_{j,2})}{\exp(\beta X_{j,1}) + \exp(\beta X_{j,2})}$$ کجا $\exp(\beta) = \theta_c$. بنابراین، چه رابطه ای بین این تست ها وجود دارد؟ چگونه می توان یک آزمایش ساده از جدول احتمالی ارائه شده قبلا انجام داد؟ با نگاهی به کالیبراسیون مقادیر p از رویکردهای clogit و McNemar در زیر null، فکر می کنید که آنها کاملاً نامرتبط هستند! library(survival) n <- 100 do.one <- function(n) { id <- rep(1:n, every=2) ph <- rep(0:1, times=n) rs <- rbinom(n *2، 1، 0.5) c( 'pclogit' = coef(خلاصه(clogit(rs ~ ph + strata(id))))[5]، 'pmctest' = mcnemar.test(table(ph,rs))$p.value ) } out <- replicate(1000, do.one(n)) plot(t(out), main='نمودار کالیبراسیون pvalue برای آزمونهای مکنمار و کلوگیت', xlab='p-value McNemar', ylab='p-value رگرسیون لجستیک شرطی') ![توضیح تصویر را وارد کنید اینجا] (http://i.stack.imgur.com/hc8yv.jpg)
|
رابطه آزمون مک نمار و رگرسیون لجستیک مشروط
|
29350
|
فرض کنید که متغیرهای تصادفی $Y_1، ...، Y_n$، $Y_i = \beta \cdot x_i + \epsilon_i$ را برای $i = 1،...، n$ برآورده می کنند که در آن $\beta$ یک ثابت است، $ x_1,...,x_n$ ثابت هستند و $\epsilon_1,...,\epsilon_n$ مستقل هستند و به طور تصادفی توزیع شده اند. متغیرهایی با $\epsilon_i \sim N(0,\sigma^2)$، که $\sigma^2$ یک ثابت شناخته شده است. (الف) توزیع دقیق $Y_i$ را تعیین کنید. (ب) برآوردگر حداکثر احتمال $\hat{\beta}$ از $\beta$ را پیدا کنید و نشان دهید که برآوردگر بی طرفانه $\beta$ است. (ج) توزیع دقیق $\hat{\beta}$ را تعیین کنید.
|
برآوردگر حداکثر احتمال (خطاهای گاوسی، SD شناخته شده)
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.