_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
37830
من با تابع «rfe» در بسته «caret» برای انجام رگرسیون لجستیک با انتخاب ویژگی آزمایش کرده‌ام. من از توابع «lmFuncs» با «rfeContol» زیر استفاده کردم: «ctrl <- rfeControl(functions = lmFuncs، روش = 'cv'، rerank=TRUE، saveDetails=TRUE، verbose = TRUE، returnResamp = «همه»، عدد= 100)` ساختار فراخوانی «rfe» در زیر آمده است: `fit.rfe=rfe(df.preds,df.depend, metric='RMSE',sizes=c(5,10,15,20), rfeControl=ctrl)` `df.preds` یک قاب داده از ورودی است به مدل «df.depend» بردار 1 یا 0 مربوط به هر ردیف در «df.preds» است تا پاسخ را نشان دهد. مدل به دست آمده از شی «fit» در شی «rfe» از کلاس «lm» است و وقتی از کد زیر با تابع «پیش‌بینی» استفاده می‌کنم، مقادیر پیش‌بینی‌شده کمتر از صفر و بزرگ‌تر از 1 را تولید می‌کند: (fit.rfe$fit,df,type='response')` با توجه به اینکه انتظار دارم این یک لجستیک باشد، همه مقادیر پیش بینی شده باید بزرگتر از صفر و کمتر از یک باشند. هر گونه کمکی قدردانی خواهد شد.
چگونه می توان توابع lmFuncs تابع rfe در caret را برای انجام یک رگرسیون لجستیک بدست آورد؟
82376
من تعجب می کنم که آیا معادلی از نسبت واریانس توضیح داده شده PCA برای SVD وجود دارد؟ اقداماتی که می توانم برای نظارت بر تعداد ستون هایی که بعد از SVD نگه می دارم انجام دهم چیست؟ آیا هیچ یک از این معیارها در sklearn/python یا R پیاده سازی شده است؟
معادل PCA نسبت واریانس توضیح داده شده برای SVD؟
67484
من مجموعه‌ای از جفت‌های بردار ورودی-خروجی دارم و می‌خواهم تابعی را پیدا کنم که بردارهای خروجی را از بردارهای ورودی تقریبی کند. به طور خاص، من یک _matrix_ می خواهم که در آن یک بردار ورودی را ضرب کنم به طوری که یک تقریب خوب برای خروجی بدست بیاورم. حدس می‌زنم رگرسیون _linear_ چیزی نیست که به دنبالش هستم، وگرنه نمی‌دانم با تابع خطی چه کنم. بنابراین چه نوع رگرسیونی را باید در اینجا اعمال کنم؟ نکات ادبیات و / یا بسته های جاوا / پایتون / R بسیار خوش آمدید!
از چه روش رگرسیونی استفاده کنیم؟
109490
من دو مجموعه A و B دارم که هر کدام حاوی N عنصر هستند و می خواهم نشان دهم که میانگین واقعی A کمتر از B با درجه اطمینان خاصی است. (به طور خاص، مجموعه ها آیتم های بله و خیر را نشان می دهند، و من می خواهم نشان دهم که یک مجموعه حاوی بله های بیشتری نسبت به دیگری است.) من میانگین واقعی هر دو مجموعه را نمی دانم. من سعی می کنم این کار را با کمترین تعداد نمونه ممکن انجام دهم زیرا گرفتن نمونه در این مورد گران است. چگونه می توانم با توجه به تعدادی نمونه از هر مجموعه، احتمال اینکه میانگین واقعی A کمتر از B باشد را محاسبه کنم؟
چگونه می توانم بر اساس نمونه هایی از هر یک، فاصله اطمینان را برای میانگین واقعی یک مجموعه بالاتر از مجموعه دیگر محاسبه کنم؟
29154
من می خواهم در مورد نظریه مارکویتز بیاموزم زیرا قصد دارم با یک شرکت مالی مصاحبه کنم که به طور گسترده از انواع آن استفاده می کند. من به دنبال منبعی برای یادگیری در مورد مدل های شهودی و بهینه سازی در پشت قضیه نمونه کارها مدرن مارکویتز هستم. هر اشاره ای به یک کتاب یا صفحه وب به من کمک زیادی می کند.
یک منبع خوب برای یادگیری در مورد شهود و مدل های بهینه سازی در پشت قضیه نمونه کارها مدرن مارکویتز
70665
من می دانم که این سوال تا حدی پاسخ داده شده است / در اینجا بحث شده است و متوجه می شوم که برخی از نویسندگان موافق هستند که اصطلاحات گیج کننده است. اما هنوز احساس نمی‌کنم که شهودی درباره اینکه چگونه یک مدل میانگین متحرک به هیچ وجه با میانگین متحرک مرتبط است، ندارم.
چرا یک مدل MA میانگین متحرک نامیده می شود
29155
من از Eviews استفاده می کردم، و متوجه شدم که پیش بینی پویا و پیش بینی استاتیک در گزینه وجود دارد. اما من نمی دانم چه تفاوتی دارند، کسی می تواند بگوید آنها چیست؟ اما می دانم که هر دو پیش بینی یک قدم جلوتر هستند.
پیش بینی استاتیک یک گام جلوتر چیست؟
30119
اگر یک آزمون گواهینامه برای آماردانان وجود داشت، برنامه درسی شامل مطالب خواندنی توصیه شده (برای ارائه ایده از سطح امتحان) چه خواهد بود؟
اگر یک آزمون گواهینامه برای آمارگیران وجود داشت، برنامه درسی چگونه بود؟
20996
من تابع احتمال زیر را دارم: $$\text{Prob} = \frac{1}{1 + e^{-z}}$$ که $$z = B_0 + B_1X_1 + \dots + B_nX_n.$$ مدل من به نظر می رسد $$\Pr(Y=1) = \frac{1}{1 + \exp\left(-[-3.92 + 0.014\times(\text{gender}]\right)}$$ معنی رهگیری (3.92) را می‌دانم، اما اکنون مطمئن هستم که چگونه 0.014 را تفسیر کنم. آیا اینها هنوز شانس ورود به سیستم، نسبت های فرد هستند، یا اکنون می توانم ادعا کنم که برای هر تغییر شانس افزایشی جنسیت، احتمال برنده شدن زنان 0.014 بیشتر از مردان است. اساساً چگونه باید 0.014 را تفسیر کنم؟ اساساً، من می‌خواهم تابع احتمال را بگیرم و در واقع آن را در جاوا برای برنامه خاصی که دارم می‌نویسم پیاده‌سازی کنم، اما مطمئن نیستم که تابع را به درستی درک کرده‌ام تا آن را در جاوا پیاده‌سازی کنم. مثال کد جاوا: double p = 1d / (1d + Math.pow(2.718d, -1d * (-3.92d + 0.014d * bid)));
چگونه ضرایب را از رگرسیون لجستیک تفسیر کنیم؟
37833
حداقل تعداد مشاهدات «معقول» برای جستجوی روند در طول زمان با رگرسیون خطی چقدر خواهد بود؟ در مورد برازش یک مدل درجه دوم چطور؟ من با شاخص های ترکیبی نابرابری در سلامت (SII,RII) کار می کنم و فقط 4 موج از نظرسنجی دارم، بنابراین 4 امتیاز (1997,2001,2004,2008). من آمارگیر نیستم، اما تصور شهودی دارم که 4 امتیاز کافی نیست. آیا پاسخ و/یا منابعی دارید؟ خیلی ممنون، فرانسوا
حداقل تعداد نقاط برای رگرسیون خطی
58249
نمی توانم بگویم که با ARMA خیلی آشنا هستم (باید اعتراف کنم که برای شروع یک جورهایی مغرضانه هستم، بنابراین مدت زیادی است که سعی نکرده ام با مدل های خطی AR/MA-مانند زحمت بکشم). با این حال، به دلایلی، من ARMA را برای حل مشکلات پیش‌بینی رفتار برخی از سیستم‌های دینامیکی بسیار پیچیده امتحان کردم، و متوجه شدم که مدل‌های ARMA بسیار خوب کار می‌کنند، بسیار بهتر از بسیاری از روش‌های مدل‌سازی که با آنها آشنا هستم. با این حال، با نگاهی به روش، به نظر می رسد که هیچ چیز خاصی در مورد این نوع مدل های سری زمانی، مانند OLS، رگرسیون، MLE و غیره وجود ندارد، و به نظر می رسد که از نظر تئوری حتی در مقایسه با مدل های غیرخطی بسیار محدود است. بنابراین به نظر شما چه چیزی باعث می شود AR/MA بهتر از بسیاری از مدل های عمومی تر کار کند؟ خواص فرآیندهای ساکن MLE؟ استفاده از برخی نظریه اطلاعات در آموزش؟
به نظر شما ترفندی که ARMA/ARIMA را به یک روش خوب برای پیش بینی تبدیل می کند چیست؟
66757
من یک مدل رگرسیون OLS را روی مجموعه داده با 5 متغیر مستقل اجرا کردم. متغیرهای مستقل و متغیر وابسته هر دو پیوسته هستند و به صورت خطی مرتبط هستند. مربع R حدود 99.3٪ است. اما وقتی همان را با استفاده از جنگل تصادفی در R اجرا می کنم، نتیجه من '% Var توضیح داده شده: 88.42' است. چرا نتیجه جنگل تصادفی بسیار پایین تر از رگرسیون است؟ فرض من این بود که جنگل تصادفی حداقل به خوبی رگرسیون OLS خواهد بود.
جنگل تصادفی در مقابل رگرسیون
29151
کسی می تواند نسخه ناپارامتریک ضریب همبستگی درون کلاسی (ICC) را به من پیشنهاد دهد؟ مدل من دارای جزئیات زیر است: مدل اثرات تصادفی دو طرفه، ثبات، میانگین رتبه‌بندی به عنوان واحد. من از پکیج irr R-cran استفاده می کنم. متشکرم
ICC ناپارامتری
66759
من داشتم این مقاله ویکی مربوط به کریجینگ معمولی را می خواندم که در آن اوزان را به این صورت محاسبه کردند. با این حال، زمانی که آنها وزن ها را تولید کردند، به جای کوواریوگرام از وزن های واریوگرام استفاده کردند. چگونه برابر هستند؟ من در این مورد سردرگم هستم. من متوجه نشدم که چگونه آنها $Var_{x_i}$ را با نیم متغیره $\gamma(x_1,x_1) .....$ برابر کردند. همچنین زمانی که سعی کردم با استفاده از پارامترهای semivariogram وزن‌ها را در مورد داده‌هایم تخمین بزنم، معکوس‌پذیر نبود. حدس میزنم دارم کار اشتباهی میکنم من مطمئن نیستم که چرا در وهله اول از پارامترهای semivariogram به جای کوواریانس استفاده می کنیم. پیشنهادات دوستان!
سردرگمی مربوط به کریجینگ معمولی
99459
من نیاز به کمک با آنالیز مشترک HLM دارم. فرض کنید یک نظرسنجی ترجیحی از چندین پاسخ‌دهنده می‌پرسد که کدام یک از سه محصول را ترجیح می‌دهند، با استفاده از ترکیب‌های مختلف ویژگی‌های محصول (هر پاسخ‌دهنده هر بار چندین بار با ترکیب‌های محصول متفاوت پاسخ می‌دهد). به عنوان مثال، یک انتخاب واحد ممکن است این باشد که آیا شما ترجیح می دهید: * ماشین آبی متوسط ​​با قیمت 20000 دلار * ماشین قرمز کوچک با قیمت 16000 دلار * ماشین زرد بزرگ با قیمت 19000 دلار چگونه می توانم ضرایب کاربردی/ویژگی را از این داده ها ایجاد کنم؟ من به دنبال ایجاد ضرایب برای هر ویژگی محصول (به عنوان مثال رنگ ماشین: آبی، قرمز، زرد) برای هر پاسخ دهنده فردی با استفاده از HLM هستم. آیا پکیج R وجود دارد که این قابلیت را داشته باشد؟
تخمین سلسله مراتبی بیز در تحلیل متقابل
22849
من سعی می کنم مدت زمان نگاه اندازه گیری شده با استفاده از ردیاب چشم برای هر کلمه را مقایسه کنم. از آنجایی که کلمات طولانی تر به طور طبیعی منجر به مدت زمان نگاه طولانی تر می شوند، مقایسه صرف مقادیر نادرست است. مدت زمان نگاه طول کلمه 100ms 6 250ms 8 150ms 7 یک راه ساده برای عادی سازی مقادیر، تقسیم مدت زمان بر تعداد کاراکترها است. با این حال، این تبدیل فرض می‌کند که زمان خواندن معمولاً یک تابع افزایش خطی تعداد کاراکتر است، با مقدار صفر زمانی که تعداد کاراکترها صفر است که کاملاً درست نیست. مدت زمان نگاه طول کلمه تنظیم شده مدت زمان نگاه (مدت / طول) 100ms 6 16.67 ms/نویسه 250ms 8 31.25 ms/نویسه 150ms 7 21.4 ms/نویسه بهترین راه برای عادی سازی مدت زمان نگاه در این مقاله شرح داده شده است: > موقعیتی نزدیک به چهار فرض می کند که زمان خواندن معمولاً یک > خطی است تابع تعداد کاراکترها، با فاصله صفر. یک تحلیل رگرسیون خطی را می توان برای تخمین شیب و فاصله صفر چنین تابعی و در نتیجه برای تخمین زمان های خواندن مورد انتظار برای > مناطق با طول های مختلف استفاده کرد. انحراف از این زمان‌های مورد انتظار وجود عواملی را نشان می‌دهد که خواندن هر بخش معین را تسریع یا کند کرده است. چنین تحلیلی با محاسبه معادله رگرسیون خطی > بیان زمان خواندن برای هر بخش در هر قطعه تجربی به عنوان تابعی از تعداد کاراکترهای موجود در آن برای هر موضوع انجام شد. همبستگی > میانگین در همه آزمودنی ها 0.38 بود. از معادله رگرسیون برای به دست آوردن زمان خواندن مورد انتظار بر اساس تعداد کاراکترها به تنهایی برای هر بخش استفاده شد. سپس زمان‌های خواندن مورد انتظار از زمان‌های خواندن به‌دست‌آمده کم شد و امتیازات اختلاف حاصل به آنالیز واریانس ارسال شد. تناسب خطی {6,100},{8,250},{7,150} = 75x - 358.333 مدت زمان نگاه طول کلمه طول مدت تفاوت مورد انتظار نگاه 100ms 6 75(6) - 358.333 = 91.66 8.34 250ms 8.34 - 337.8 =337. 8.33 150ms 7 75(7) - 358.333 = 166.67 -16.67 **سوال من** ارسال تفاوت امتیازها به تحلیل واریانس در نهایت به ما اجازه می دهد تا مقادیر تبدیل شده را بدست آوریم؟ آیا صرفاً استفاده از امتیازهای تفاوت به عنوان نمرات نرمال شده یک نرمال سازی کافی در نظر گرفته می شود؟ **نکته** بهترین پاسخ باید مثالی از محاسبه لازم برای بدست آوردن مقادیر نهایی تصحیح شده ارائه دهد، می توانید از مقادیر نمونه ارائه شده در سوال استفاده کنید.
عادی سازی زمان خواندن با استفاده از تحلیل واریانس
22542
اجازه دهید $X\,$ یک r.v غیر منفی باشد. با pdf شناخته شده $f(x|\theta)$ اما با یک پارامتر مجهول $\theta$. فرض کنید که می توان از میانگین $\mu$ برای تعیین منحصر به فرد مقدار $\theta$ استفاده کرد، یعنی اگر مقدار $\mu$ داده شود، می توان مقدار $\theta$ را مستقیماً محاسبه کرد. بنابراین، یک راه جایگزین برای نوشتن pdf $f(x|\mu)$ است. تابع ضرر را در نظر بگیرید $L(z,\mu)=\int_z^\infty (x-z)f(x|\mu)\,\mathrm{d}x = \mathbb{E}\\{[x-z]^+ \\}$. سوال من این است که آیا می توان نشان داد که این تابع در $\mu$ برای $f(\cdot)$ عمومی محدب است؟ * * * به عنوان مثال، توزیع نمایی را با $f(x|\theta)=\theta e^{-x\theta}$ در نظر بگیرید. سپس به وضوح $\theta=\frac{1}{\mu}$، و بنابراین $f(x|\mu)=\frac{1}{\mu}e^{-x/\mu}$ را بنویسید. با توجه به اینکه: $\int_z^\infty (x-z)f(x|\mu)\,\mathrm{d}x =\int_z^\infty xf(x|\mu)\,\mathrm{d}x-z(1 -F(z|\mu))$ که در آن $F(x|\mu)$ سی دی اف $X$ داده شده $\mu$ است، و با استفاده از این واقعیت که $\int_z^\infty xf(x|\mu)\,\mathrm{d}x=(z+\mu)e^{-z/\mu}$ و آن $F(z|\mu)=1- e^{-z/\mu}$ برای توزیع نمایی، سپس به وضوح $\frac{dL(z,\mu)}{d\mu}=\left(\frac{z^2+z\mu+\mu^2}{\mu^2}\right)e^{-z /\mu}-\left(\frac{z}{\mu}\right)^2e^{-z/\mu}=\left(\frac{z}{u}+1\right)e^{ -z/\mu}$ $\frac{d^2L(z,\mu)}{d\mu^2}=\frac{z^2}{\mu^3}e^{-z/\mu} \geq 0$ از آنجایی که مشتق دوم غیر منفی است، تابع ضرر برای توزیع نمایی با توجه به میانگین $\mu$ محدب است. * * * پیشاپیش از کمک شما سپاسگزارم!
تحدب تابع ضرر با توجه به میانگین
66284
سوال ساده: معادله به‌روزرسانی یک $x_i$ در یک به‌روزرسانی نمونه‌گیری گیبس، $p(x_i | x_{-i})$ چیست، اگر مدل را داشته باشم: $\theta$ $|$ $\alpha \sim Dir(\alpha)$ $X_i$ $|$ $\theta \sim گسسته(\theta)، i = 1, 2, 3$ آیا توزیع پیش‌بینی دیریکله است چند جمله ای؟ $\frac{N_i + \alpha_i}{\sum^k_{j=1}(N_j + a_j)}$
نمونه گیری گیبس با یک دیریکله-چندجمله ای
68380
من به دنبال عقاید/تفسیر در مورد مدلی هستم که سعی می‌کنم متناسب باشم. سلب مسئولیت: من یک بوم شناس هستم و یک آمارگیر نیستم. و من قدردان وقت و نظرات همه هستم! من به طور کلی زور و همکاران را دنبال می کنم. توصیه‌های سال 2009 (با استفاده از R) در تلاشی برای مدل‌سازی سرعت سفر به عنوان تابعی از چند متغیر محیطی، که اصلی‌ترین مورد مورد علاقه یک متغیر «درمان» 1/0 است. داده ها طبیعتاً سلسله مراتبی هستند و بنابراین من از یک مدل ترکیبی با یک برش تصادفی استفاده کرده ام. مدل ترکیبی به طور قابل توجهی بهتر از مدل پایه «gls» متناسب است. علاوه بر این، من یک varIdent را با مدل ترکیبی اضافه کردم، و این به طور قابل توجهی بهتر از مدل بدون آن است. از این نقطه، من به مفروضات و تشخیص‌ها نگاه کرده‌ام - فکر می‌کنم باقیمانده‌ها خوب به نظر می‌رسند، اما همیشه تشخیص اینکه الگوی زیاد است یا خیر، مشکل دارم. من فکر می کنم کمتر از 5٪ از داده ها خارج از 2/-2 هستند، بنابراین من در آنجا خوب هستم. به نظر نمی‌رسد که این تغییرات توسط هیچ نقطه خاصی ایجاد شود، و واریانس باقیمانده‌ها برای هر گروه از درمان نزدیک به 1 است (با استفاده از tapply؛ من این را به عنوان ناهمگونی جزئی تفسیر می‌کنم). نمودار جعبه ای از باقیمانده ها با اثر تصادفی، گسترش مساوی در اطراف صفر و تغییرات جزئی = استقلال را نشان می دهد (به زیر مراجعه کنید)؟ من به باقیمانده ها در مقابل برازش (خیلی بد)، باقیمانده ها در مقابل هر متغیر کمکی (الگوی یکی از متغیرهای کمکی من، ارتفاع)، هیستوگرام باقیمانده ها (هنوز کاملاً اریب) نگاه کرده ام و همه مشاهدات تأثیرگذار بالقوه را بررسی کرده ام. من فقط نمی دانم که آیا تمام شده ام و اکنون می توانم این مدل را مناسب در نظر بگیرم؟ من چند تصویر تشخیصی اضافه کرده‌ام (متغیر پاسخ نمی‌تواند از مقدار مشخصی پایین‌تر رود، بنابراین نمودار باقیمانده یک خط واضح در مقادیر منفی نشان می‌دهد) - std residuals vs fitted; باقیمانده توسط رهگیری تصادفی. هیستوگرام باقیمانده ها (نرمال نشده)؛ باقیمانده ها بر اساس متغیرهای کمکی ارتفاع - ممکن است چیزی در اینجا رخ دهد، اما مطمئن نیستم چگونه با آن برخورد کنیم: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/1CzXF.png) ![باقیمانده ها به صورت تصادفی intercept](http://i.stack.imgur.com/w3wJh.png) ![هیستوگرام باقیمانده ها \(نه نرمال شده\)](http://i.stack.imgur.com/G9XBz.png) ![بر اساس متغیر ارتفاعی ثابت می‌شود](http://i.stack.imgur.com/IlWVS.png)
مدل مختلط رهگیری تصادفی در R - آیا این مناسب است... خوب است؟
3156
میانگین من '3.454992884900722e+008' است و فواصل اطمینان من از سه توزیع (در مقایسه با میانگین داده شده) عبارتند از: **CI برای dist. 1:** 1.0e+008 * [4.084733001497999 4.097677503988565] ** CI برای منطقه. 2:** 1.0e+008 * [5.424396063219890 5.586301025525149] ** CI برای منطقه. 3:** 1.0e+008 * [2.429145282593182 2.838897116739112] **ویرایش:** اطلاعات بیشتر به شرح زیر است: **برای منطقه. 1:** `p = 8.094614835195452e-130 و h = 1` **برای منطقه. 3:** `p = 2.824626709966993e-072 و h = 1` **برای منطقه. 3:** `p = 3.054667629953656e-012 و h = 1` می‌توانید توضیح دهید که در مقایسه با میانگین بر اساس CI، کدام توزیع از بین این سه باید انتخاب شود و چرا؟ امیدوارم سوالم واضح باشه در مورد سوال هر چیزی را ویرایش/پیشنهاد کنید. با تشکر
سوال در مورد فاصله اطمینان
27500
فرض کنید به هر دلیلی، آماردان مشهوری هستید که شانس او ​​را دارد و تنها 100 دلار برای زندگی در هفته آینده دارید. فرض کنید در مرحله بعد، شخصی با چرخاندن یک سکه به شما یک بازی پیشنهاد می دهد (بدون حیله با سکه) و به شما پیشنهاد می دهد که اگر روی سرش بیفتد 150 دلار به شما بدهد و اگر روی دم فرود آمد، 100 دلار شما را بگیرد (هفته غذا نیست). حالا شما می‌دانید که صرف نظر از بازدهی، احتمال عدم غذا ثابت می‌ماند (و اینکه یک آماردان مشهور هستید، هیچ بهانه‌ای ندارید که ندانید.) قبل از گاز گرفتن و شانس دادن به آن، سود مورد انتظار چقدر باید باشد. روی تلنگر یک سکه؟ آیا می توان آن تصمیم را با یک فرآیند آماری یا بیشتر روان شناختی مدل کرد؟
رویدادهای یک شات
109495
من مقدار زیادی از احتمالات و آمار را مطالعه کرده ام، اما خجالت می کشم بگویم که خیلی از آن را فراموش کرده ام. از راهنمایی هایی که هر کسی در این مورد داشته باشد قدردانی می کنم: من مجموعه ای از حدود 360 سری زمانی دارم، آنها را S_all صدا کنید. من می‌خواهم بتوانم در زمان t پیش‌بینی کنم که از کدام سری زمانی از S_all در نمونه S_chosen استفاده کنم، به طوری که میانگین S_chosen(@ t+1) >= میانگین S_all(@ t+1). آیا کسی الگوریتم‌ها، تکنیک‌ها یا مقاله‌ای (آماری یا یادگیری ماشینی) دارد که به شدت به این مشکل رسیدگی کند؟ من سری‌های زمانی کامل را در S_all دارم تا بتوانم میانگین‌ها، واریانس‌ها، همبستگی‌ها و غیره را تخمین بزنم. متأسفم که آن را تا این حد گسترده نگه داشته‌ام، اما من هدفمند به دنبال رویکردهای کلی هستم، نه راه‌حل‌های تضمینی. پیشاپیش متشکرم
رویکردهای نمونه گیری فرعی برای فراتر رفتن از میانگین جمعیت
74960
من تقریباً 20٪ داده در نمونه خود گم شده است (n=3215). هدف من این است که تفاوت‌های قبل از بعد را در مقیاس روان‌سنجی ارزیابی کنم. به خصوص اقدامات پس از آن به دلیل مسائل پیگیری وجود ندارد. چه باید کرد؟ آیا باید موارد را به صورت فهرستی/دو به دو حذف کنم یا موارد گمشده را با میانگین سری یا درونیابی خطی جایگزین کنم؟ من ماژول SPSS Multiple Imputation/Missing values ​​را روی SPSS خود نصب نکرده ام.
داده های گمشده SPSS نمونه های زوجی آزمون t
34565
من در حال انجام چند آمار توصیفی از بازده روزانه شاخص های سهام هستم. یعنی اگر $P_1$ و $P_2$ به ترتیب سطوح شاخص در روز 1 و روز 2 باشند، آنگاه $log_e (\frac{P_2}{P_1})$ بازدهی است که استفاده می‌کنم (کاملاً استاندارد در ادبیات) . بنابراین کشش در برخی از این موارد بسیار زیاد است. من به داده های روزانه حدود 15 سال نگاه می کنم (بنابراین مشاهدات سری زمانی حدود 260 دلار * 15 دلار) به این معنی است که sds mins maxs scws shorts ARGENTINA -0.00031 0.00965 -0.33647 0.13976 -15.17454 5300IA 499. 0.00640 -0.03845 0.04621 0.19614 2.36104 CZECH.REPUBLIC 0.00008 0.00800 -0.08289 0.05236 -0.16920 5.730905.700 F. -0.03845 0.04622 0.19038 2.37008 مجارستان -0.00019 0.00880 -0.06301 0.05208 -0.10580 4.20463 ایرلند 0.00000641 - 0.0000030 0.04621 0.18937 2.35043 رومانی -0.00041 0.00789 -0.14877 0.09353 -1.73314 44.87401 سوئد 0.00004 0.00004 0.00755 - 0.00756 0.22299 3.52373 UNITED.KINGDOM 0.00001 0.00587 -0.03918 0.04473 -0.03052 4.23236 -0.00007 0.00745 -0.00745 -0.01014 -0.00184 63.20596 استرالیا 0.00009 0.00861 -0.08831 0.06702 -0.74937 11.80784 چین -0.00002 0.00072 -0.40623 0.40623 0.061781.06931. HONG.KONG 0.00000 0.00031 -0.00237 0.00627 2.73415 56.18331 INDIA -0.00011 0.00336 -0.03613 0.03063 -0.03063 -0.2231S1391ND I -0.00031 0.01672 -0.24295 0.19268 -2.09577 54.57710 JAPAN 0.00008 0.00709 -0.03563 0.06591 0.571126 - 2000000000. 0.00861 -0.35694 0.13379 -16.48773 809.07665 سوال من این است: آیا مشکلی وجود دارد؟ من می خواهم تجزیه و تحلیل سری های زمانی گسترده ای را روی این داده ها انجام دهم - تحلیل رگرسیون OLS و Quantile و همچنین علیت گرنجر. هم پاسخ من (وابسته) و هم پیش‌بینی‌کننده (پس‌رونده) این خاصیت کشیدگی عظیم را دارند. بنابراین من این فرآیندهای بازگشتی را در دو طرف معادله رگرسیون خواهم داشت. اگر غیر عادی بودن به اختلالات سرازیر شود که فقط خطاهای استاندارد من را واریانس بالا می‌کند درست است؟ (شاید من به یک بوت استرپ قوی نیاز دارم؟)
کشیدگی غول پیکر؟
66752
من باید مشکل زیر را حل کنم: با توجه به آزمایش‌های $n$ بله/خیر و احتمال موفقیت $p$، حداقل انتظار چند موفقیت $k$ را می‌توانم داشته باشم (مثلاً با 'اطمینان' $c=95\ %$ یا بیشتر)؟ راه دیگری برای بیان آن این است: من می خواهم 95٪ مطمئن باشم که حداقل $k$ موفقیت داشته باشم. همه چیز داده شده است و من به $k$ علاقه مند هستم. از آنجایی که تابع توزیع تجمعی (CDF) برای توزیع دو جمله ای $$ F(k; n, p) = P(X \leq k) = I(1 - p؛ n - k، k + 1)، $$ است که در آن $I(\cdot; \cdot, \cdot)$ نشان دهنده تابع بتای ناقص منظم است و من بیشتر به محاسبه عددی علاقه دارم نتیجه، روشی که من می‌خواستم این کار را انجام دهم این است که $$ را حل کنم P(X \geq k) = 1 - P(X \leq k - 1) = I(p; k, n - k + 1) = c $$ برای $k$ با استفاده از Maxima (اگرچه هر رویکرد/ابزار دیگری نیز خوب خواهد بود). با این حال، با انجام برخی بررسی های سلامت عقل با CDF، نتایج غیرمنتظره ای دریافت می کنم. به عنوان مثال، من انتظار دارم که مقدار احتمالی برای F(1; 100، 0.63) = beta_incomplete_regularized(.37, 99, 2) دریافت کنم، اما خروجی Maxima: `1.898744430721408*10^-16*%i+1.014630 نظرات / نکات به این خروجی، یا به طور کلی به رویکرد؟ استفاده از چه ابزار دیگری در اینجا ساده است؟
CDF توزیع دو جمله ای را محاسبه کنید
66755
من دیروز در مورد سرریز پشته سؤال زیر را پرسیدم: تابع دوجمله ای منفی در R Reading نظر 2، می دانم که نمی توانم از رویکرد مدل سازی دوجمله ای منفی استفاده کنم (مدل پواسون کار می کند، اما گمان می کنم که فرض میانگین و واریانس برابر نامعتبر است. من مطمئن نیستم که چگونه می توانم این را با افست آزمایش کنم) و نسخه های بتا را با یک دسته مرجع مقایسه کنم. من در گوگل جستجو کرده ام و کتاب هایم را جست وجو کرده ام، اما هیچ روش دیگری برای مقایسه نرخ بروز چندگانه پیدا نمی کنم. b <- data.frame(s=c(1800,539,490,301), pop=c(2900000,1327000,880000,268000), reg=c(A،B،C،D) ) summary(pois.b<-glm(s~reg,offset=log(pop),data=b,family=poisson)) بنابراین سوال این است: آیا تفاوتی بین مناطق از نظر بروز وجود دارد؟ از آنجایی که سوال دیروز مربوط به نرم افزار بود و امروز از نظر آماری مزه دارتر است، من فکر کردم که در اینجا به صورت متقاطع تعلق دارد. ویرایش: 11 اوت: از آنجایی که هیچ متغیر دیگری در اینجا وجود ندارد و اعداد بزرگ هستند، حدس می‌زنم چیزی به سادگی pairwise.prop.test(x=b$s,n=b$pop,p.adjust.method=bonferroni ) من را راه درازی می برد.
مقایسه میزان بروز چندگانه
74964
من یک برنامه وب دارم که به کاربران امکان می دهد سوالات خود را مطرح کنند. در نهایت من داده‌های زیر را ذخیره می‌کنم: 1) سؤالاتی که هر کاربر تلاش کرده است 2) سؤالات صحیح توسط هر کاربر 3) میانگین. زمان برای هر کاربر برای پاسخ های صحیح من باید یک امتیاز برای هر کاربر بر اساس میانگین زمان آنها محاسبه کنم. طبیعتاً کاربرانی که میانگین زمان کمتری دارند باید امتیاز بیشتری کسب کنند. مشکل: کاربران می توانند سوالات مختلفی را مطرح کنند. یک کاربر می تواند 1 سوال یا 1000 سوال بپرسد. بدیهی است که من میانگین زمان را از کاربران با 1000 سؤال می خواهم تا تأثیر بیشتری بر محاسبه میانگین (متوسط ​​زمان برای هر کاربر) داشته باشد. لطفا یک فرمول برای همین پیشنهاد دهید.
امتیازات کاربران با فعالیت های متفاوت را محاسبه کنید
109493
من یک مدل رگرسیونی انجام داده‌ام که در آن تعداد مکعب‌ها (متغیر مستقل) را بر اساس مقدار واحدهایی که برای هر نوع محصول شروع کردم (متغیرهای وابسته، `X1, X2, X3, X4, X6, X9, X10, X15) تعیین می‌کنم. `). اما من نظر دومی در مورد نتایج می‌خواهم، زیرا آزمایش‌هایی که برای ناهمسانی انجام دادم (آزمایش بروش-پگان و سفید) نشان می‌دهد که داده‌های من ناهمسانی دارند. اما فکر می کنم به این دلیل است که داده های زیادی دارم (500000 مشاهده). با نگاهی به نمودارهای زیر، به نظر نمی رسد که ناهمگونی زیادی را دریافت کنم، اگرچه به نظر می رسد که در داده های من موارد پرت وجود دارد. اما می‌خواهم نظر دومی داشته باشم و می‌خواهم بدانم آیا نتایج من خوب به نظر می‌رسد تا بتوانم از این مدل رگرسیون استفاده کنم و بتوانم فرض کنم (1) باقیمانده‌های من به اندازه کافی به توزیع نرمال نزدیک است و (2) نشانه کمی از ناهمسانی وجود دارد. ? در اینجا ضرایب `Coef Estimate Std. خطای t مقدار Pr(>|t|) X1 0.023493012 0.000497393 47.23233675 0 X2 0.002248871 0.000777214 2.893502743 0.0023 0.0026 0.000484908 144.2215372 0 X4 0.084532734 0.000883563 95.67252408 0 X6 0.014607296 0.0004583675 39025-390. 0.409846348 0.001738917 235.6905778 0 X10 0.128915999 0.000468583 275.1187379 0 X15 0.0428647171758758. 6.58E-245` `R-squared: 0.8158 Adj R-squared: 0.8158 F-stat: 3.47e+04, p-value < 2.2e-16` در اینجا همه نمودارها آمده است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/19TkJ.jpg) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/5IGdV.jpg) ![ توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/1irgE.jpg) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/BEGG0.jpg)
تجزیه و تحلیل نتایج رگرسیون
23335
من باید یک طبقه‌بندی خطی روی لپ‌تاپ خود با صدها هزار نقطه داده و حدود ده هزار ویژگی آموزش دهم. گزینه های من چیست؟ وضعیت هنر برای این نوع مشکلات چگونه است؟ به نظر می رسد که نزول گرادیان تصادفی جهتی امیدوارکننده است، و احساس من این است که این حالت از هنر است: Pegasos: Primal Estimed Sub-GrAdient SOlver for SVM Shai Shalev-Shwartz، Yoram Singer، Nathan Srebro، Andrew Cotter. ریاضی. برنامه نویسی، سری B، 127(1):3-30، سال: 2007 آیا این اتفاق نظر است؟ آیا باید در جهت دیگری نگاه کنم؟
طبقه بندی با داده های چربی بلند
66753
من در حال کار بر روی پروژه ای با استفاده از رگرسیون لجستیک برای پیش بینی حفظ دانش آموزان هستم. داده ها از طریق سه ابزار خود گزارشی جمع آوری شد. ما در تلاشیم تا دریابیم کدام پیش‌بینی‌کننده‌ها به اندازه کافی قدرتمند هستند تا دانش‌آموزان در معرض خطر را پیش‌بینی کنند. به مقالاتی برخورد کردم که می‌گفتند یک نمونه متعادل (50٪ ماندن، 50٪ ترک تحصیل) برای چنین مطالعه ای مطلوب است، به عنوان مثال. گلین، جی.جی.، ساور، پی ال.، و میلر، تی. (2003). سیگنال‌دهی حفظ دانش‌آموز با داده‌های پیش از تحصیل، مجله _NASPA، 41 (1)، 41-67: > با این حال، یک مشکل این است که توزیع متغیر وابسته به احتمال زیاد به سمت پایداری منحرف می‌شود. به عنوان مثال، اگر 85 درصد از نمونه تجزیه و تحلیل > پایدار بودند، یک مدل طبقه بندی که > هر دانش آموز را به عنوان مداوم طبقه بندی می کند، ضریب موفقیت 85 درصدی خواهد داشت یا > 85 درصد دانش آموزان را به درستی طبقه بندی می کند. برای حل این مسئله، حفظ تعادل نسبی بین تعداد ترک تحصیل و تعداد بازدارنده ها > (هر کدام حدود 50 درصد) در نمونه آنالیز مطلوب بود. آیا این حقیقت دارد؟ نمونه ما فقط حدود 30-25 درصد دانش آموزان ترک تحصیل دارد. آیا این روی نتایج تاثیر خواهد گذاشت؟
آیا برای اجرای رگرسیون لجستیک به یک نمونه متعادل (50% بله، 50% خیر) نیاز دارم؟
74965
1. برای انجام کالیبراسیون مدل رگرسیون کاکس (یعنی ارزیابی توافق بین نتیجه پیش بینی شده و مشاهده شده)، بهترین روش برای ارائه دقت مدل در پیش بینی رویداد واقعی چیست؟ 2. تا آنجایی که من متوجه شدم، می‌توانیم احتمال نتیجه واقعی را با مشاهده تعداد رویدادهایی که در تعدادی از موضوعات با احتمال مشابه/یکسان پیش‌بینی شده از مدل کاکس رخ داده است، محاسبه کنیم. برای انجام محاسبات فوق، آیا ریسک پیش بینی شده را به چند گروه طبقه بندی می کنیم (<15٪، 15-30٪، 30-45٪ و غیره)، و در هر گروه خطر از تعداد افراد به عنوان مخرج محاسبه استفاده می کنیم. از نتیجه واقعی؟ 3. از چه روشی برای مقایسه نتیجه پیش بینی شده با نتیجه واقعی استفاده می کنیم؟ آیا به اندازه کافی خوب است که درصد ریسک پیش بینی شده و واقعی را در هر گروه ریسک در قالب جدول ارائه کنیم؟ آیا بسته rms در R می تواند همه کالیبراسیون ها را برای شما انجام دهد؟ 4. آیا می توانیم از «pec::predictSurvProb()» برای ارائه ریسک مطلق رویداد برای هر فرد استفاده کنیم؟ آیا می‌توانیم نقطه زمانی عملکرد ریسک/خطر را برای هر فرد در نقطه پایانی پیگیری مشخص کنیم؟ 5. آیا هنگام تفسیر نتایج، از دوره پیگیری _mean_ (بر حسب سال) به عنوان نقطه زمانی استفاده می کنیم که ریسک پیش بینی شده و ریسک واقعی بر اساس آن است؟ (به عنوان مثال، فرد A دارای 30٪ خطر رویداد در 6.5 سال (میانگین دوره پیگیری) است) 6. آیا آزمون خوب بودن تناسب برای رگرسیون کاکس (آزمون گرونسبی و بورگان) صرفاً وسیله ای برای کالیبراسیون برای رگرسیون کاکس است؟ یا معنای دیگری دارد؟ 7. برای مقایسه مدل‌ها با طبقه‌بندی مجدد خالص، به چند موضوع و پیامد نیاز داریم تا چنین روشی معتبر شود؟
کالیبراسیون تحلیل بقای رگرسیون کاکس
91034
من می‌پرسیدم که تفاوت نظری بین آزمون مجموع رتبه ویلکاکسون و آزمون رتبه‌بندی امضا شده ویلکاکسون با استفاده از مشاهدات زوجی چیست. من می‌دانم که تست جمع‌آوری رتبه‌ای Wilcoxon مقدار متفاوتی از مشاهدات را در دو نمونه مختلف امکان‌پذیر می‌کند، در حالی که آزمون رتبه‌بندی امضاشده برای نمونه‌های زوجی این اجازه را نمی‌دهد، با این حال به نظر می‌رسد که هر دوی آنها به نظر من یکسان را آزمایش می‌کنند. آیا کسی می‌تواند اطلاعات تئوری/پیش‌زمینه‌ای بیشتری به من بدهد که چه زمانی باید از تست جمع‌آوری رتبه ویلکاکسون استفاده کرد و چه زمانی باید از تست رتبه‌بندی امضا شده ویلکاکسون با استفاده از مشاهدات زوجی استفاده کرد؟ پیشاپیش متشکرم
تفاوت بین آزمون مجموع رتبه ویلکاکسون و آزمون رتبه امضا شده ویلکاکسون با استفاده از مشاهدات زوجی
23088
من می دانم که این سوال قبلا پرسیده شده است، اما من به یک کتاب آماری خاص نگاه می کنم نه فقط یک کتاب سطح درجه. من به کتاب آمار نگاه می کنم که فراتر از دوره کارشناسی احتمالات و آمار است و به مواردی مانند طرح QQ، تست Wilcoxon می پردازد که برای تجزیه و تحلیل داده ها مفید است. من به همه آمارهای ناپارامتریک توسط واسرمن نگاه کردم و سبک قضیه - اثبات آن چیزی نیست که من دنبالش بودم. به علاوه، کتاب شامل این موضوعاتی که من به دنبال آن هستم نیست. آیا توصیه هایی وجود دارد؟
پیشنهادات کتاب آمار
34563
من دو درمان دارم (کوادرات مسموم کننده جوندگان ($n=5$) و ربعات غیر مسموم کننده ($n=5$)) و برای هر درمان تعداد بی مهرگان شناسایی شده به صورت جداگانه را بررسی می کنم که در طول زمان پس از 6$، 15$، 30$ ظاهر می شوند. دلار و 42 دلار ماه. مجموعه داده‌های من تعدادی بی‌مهرگان جدید انباشته‌شده است که برای دو تیمار در طول زمان ظاهر می‌شوند. من داده‌ها را به‌عنوان تعداد انباشته‌ای از بی‌مهرگان جدید سازمان‌دهی کردم (بی‌مهرگان یافت شده و شناسایی‌شده در T در T+1 در نظر گرفته نمی‌شوند) بین جستجوها. چگونه می توانم اثرات درمانی را برای ارزیابی اینکه آیا در کوادرات های مسموم کننده جوندگان تعداد بی مهرگان به طور قابل توجهی بیشتر از ربع های غیر مسموم است مقایسه کنم (این هدفی است که باید به آن رسید)؟ آیا راهی وجود دارد که بدانیم آیا میزان ظهور بی مهرگان جدید تفاوت بین درمان ها؟ ویرایش: من تعداد انباشته شده ای از بی مهرگان جدید (بی مهرگانی که در T یافت و شناسایی شده اند در T+1 در نظر گرفته نمی شوند) بین جستجوها انجام دادم. آیا راهی برای دانستن اینکه آیا میزان ظهور بی مهرگان جدید بین تیمارها متفاوت است وجود دارد؟
آزمایش تفاوت بین گروه های درمانی در طول زمان؟
34561
من روی مشکل داده های گمشده زیر کار می کنم تا در مورد آمار، احتمالات و یادگیری ماشین بیشتر بیاموزم، اما واقعاً در حل آن پیشرفتی ندارم: من گروهی از اعداد صحیح نامرتب و غیر منحصر به فرد دارم. به دلیل خطای نمونه گیری، احتمال کمی وجود دارد (مثلاً <= 5٪) که یک یا چند عدد صحیح از دست رفته باشد. من از یک الگوریتم تطبیق الگو در مقابل یک مجموعه آموزشی استفاده کردم و دریافتم که در هر گروه یک یا چند الگو از اعداد صحیح وجود دارد که ممکن است همپوشانی داشته باشند. به عنوان مثال: > گروه با داده های گمشده احتمالی: 1، 2، 3، 3، 4، 5 > > الگو: 1، 2، 3 > > الگو: 1، 2، 3، 3 > > الگو: 3، 4، 5 > > الگو: 3، 4، 5، 6 من تعدادی از روش های طبقه بندی، خوشه بندی و احتمال خام را با استفاده از الگوها امتحان کرده ام، اما چیز زیادی نداشته ام. شانس سوال من این است که بهترین روش برای تعیین اینکه آیا اعداد صحیح گم شده یا ممکن است وجود داشته باشند چیست؟ آیا استراتژی های متفاوتی وجود دارد؟ کم کم دارم فکر می کنم مشکلی را خیلی سخت انتخاب کرده ام که بتوانم آن را یاد بگیرم. :)
استراتژی های بازیابی اطلاعات از دست رفته
113684
من در حال تجزیه و تحلیل مجموعه داده های پانل با Stata 13 هستم. برای تصمیم گیری در مورد اینکه آیا باید از تخمینگر اثر تصادفی یا اثر ثابت استفاده کنم (به زبان Stata، 'xtreg, re' VS 'xtreg, fe')، آزمون Sargan-Hansen را اجرا می کنم. محدودیت‌های بیش از حد شناسایی، که بر اساس رویکرد رگرسیون مصنوعی توصیف شده توسط آرلانو (1993) است. به طور خلاصه، آماره سارگان-هنسن، مجذور کای از آزمون والد برای معنی‌داری رگرسیون‌های اضافی در یک مدل اثرات تصادفی افزوده است، که در آن متغیرهای اضافی انحراف از میانگین رگرسیون‌های متغیر زمانی اصلی هستند. در Stata، آزمایش با دستور پس از تخمین «xtoverid» نوشته شده توسط مارک شافر پس از تخمین مدل اثرات تصادفی افزوده پیاده‌سازی می‌شود. خروجی آزمون به صورت زیر است: . متغیر xtoverid _cons یافت نشد r(111); دلیل آن این است که Stata همه ضرایب را با مدل اثرات تصادفی افزوده تخمین می زند، اما تخمین ثابت را برآورد نمی کند. برای ثابت، خروجی زیر را می دهد: _cons | 0 (حذف شده) در مراحل بعدی تجزیه و تحلیل خود، از مشخصات مدل مشابه استفاده می کنم، اما Stata همه ضرایب (از جمله عبارت ثابت) را تخمین می زند، بنابراین وقتی از دستور پس از تخمین «xtoverid» استفاده می کنم با این مشکل مواجه نمی شوم. آیا پیشنهادی برای حل این مشکل دارید؟ آیا باید اطلاعات اضافی برای سهولت در پاسخ بنویسم؟ اگر بله، چه؟
Stata - xtoverid - متغیر _cons یافت نشد
27503
من می دانم که برای محاسبه احتمال وقوع دو رویداد مستقل، می توان به سادگی احتمالات را ضرب کرد. با این حال، موارد زیر را در نظر بگیرید: فهرستی از شهرستان‌ها در سواحل شرقی ایالات متحده، هر شهرستان احتمال وقوع طوفان در سال آینده را دارد. من سعی می کنم احتمال ریزش توفان به چندین شهرستان را به طور همزمان محاسبه کنم، یعنی سه شهرستان در یک سال رخ دهد. با این حال، بسیاری از شهرستان ها یا در یک ایالت یا در ایالت های مجاور هستند، بنابراین مستقل نیستند. به عنوان مثال (شهرستان، احتمال) Cameron 0.045 Hidalgo 0.049 Willacy 0.023 Kenedy 0.064 برای این شهرستان ها، از آنجایی که یک طوفان منفرد ممکن است چندین شهرستان را تحت تأثیر قرار دهد، چگونه باید در مورد محاسبه احتمال ترکیبی از این چهار شهرستان فکر کرد که بعداً یک طوفان زمینی را تجربه می کنند. سال؟ علاوه بر این، آیا فکری در مورد چگونگی اعمال احتمال مرتبط با کاهش نسبت به استقلال دارید؟ (به عنوان مثال، دو شهرستان بسیار دور از یکدیگر، در انتهای مخالف شرق ایالات متحده).
ترکیب احتمالات مرتبط
72756
در قرار دادن یک الگوریتم پیش‌بینی باینری 1/0 در تولید، چه پیامدهایی وجود دارد که فقط پیش‌بینی‌های مثبت (1) بررسی می‌شوند، به این معنی که فقط موارد مثبت درست یا نادرست شناسایی می‌شوند و سپس برای آموزش مدل بازخورد داده می‌شوند؟ آیا این الگوریتم را به هر طریقی سوگیری می کند تا به تدریج بدتر و بدتر شود زیرا هرگز منفی های درست یا نادرست را نمی بیند؟
اعتبار سنجی الگوریتم پیش بینی
23081
برخی از صفات $x$ از 17 فرد به طور مکرر در 6 نقطه زمانی با استفاده از مقیاس لیکرت با 7 حواس پرت کننده ثبت شد. کدام آزمون(های) آماری را می توانم اعمال کنم تا بررسی کنم که آیا تغییرات در 6 نقطه زمانی قابل توجه بوده است؟ set.seed( 123 ) x <- ماتریس ( نمونه ( 1:7، 17*6، repl=T )، nrow = 17، byrow = TRUE، dimnames = list(1:17، paste( 'T', 1: 6, sep='' )) ) آزمون فریدمن و آزمون Quade را برای آزمایش فرضیه کلی پیدا کردم. friedman.test(x) quade.test(x) با این حال، فایل‌های راهنما R، کتاب‌های درسی من (Bortz، Lienert و Boehnke، 2008؛ Köhler، Schachtel و Voleske، 2007؛ هر دو آلمانی)، و متون ویکی‌پدیا در مواردی متفاوت هستند. آنها به عنوان الزامات آزمایشی پیشنهاد می کنند. R می گوید که داده ها باید تکرار نشوند. من «تکرار نشده» را «تکرار نشده» خواندم، اما آیا این درست است؟ اگر چنین است، در مقابل، مثال در `friedman.test()` به نظر می رسد که در واقع از اقدامات تکراری استفاده می کند. با این حال، ویکی‌پدیا برعکس می‌گوید، یعنی آزمایش خوب است، به‌ویژه اگر داده‌ها معیارهای تکراری را نشان دهند. کتاب های درسی هر دو را می گویند (در همان پاراگراف که بسیار گیج کننده است). حق چیست؟ به‌علاوه، چه آزمونی برای مقایسه‌های تکی پس‌هک برای نشان دادن اینکه کدام ستون با ستون‌های دیگر تفاوت قابل‌توجهی دارد، چیست؟ بورتز، لینرت، بوهنک (2008). Verteilungsfreie Methoden in der Biostatistik. برلین: Springer Köhler, Schachtel, Voleske (2007). Biostatistik: Eine Einführung für Biologen und Agrarwissenschaftler. برلین: اسپرینگر
آزمون ناپارامتریک برای اندازه گیری های مکرر و مقایسات تک تک پسا در R?
27508
بنابراین، [ویکی‌پدیا می‌گوید] که تعریف استاندارد استقلال این است: $f_{X,Y}(x,y) = f_X(x) f_Y(y)$ چگونه این مورد برای سری‌های زمانی اعمال می‌شود؟ چگونه هر ضلع معادله را محاسبه کنیم؟ اگر فرض کنیم که توزیع احتمال دو سری یکسان است، آنگاه $X=Y$ و ما فقط می توانیم از $f(x,y) = f(x) f(y)$ استفاده کنیم، درست است؟ بنابراین من فکر می کنم اساساً می پرسم f(x,y) چیست و چگونه آن را محاسبه کنیم؟
چگونه تعریف استاندارد استقلال برای سری های زمانی اعمال می شود؟
72752
اجازه دهید $U,V,W$ متغیرهای تصادفی مستقل با توزیع $\mathrm{Uniform}(0,1)$ باشند. من سعی می‌کنم احتمال اینکه $Ux^{2}+Vx+W$ ریشه واقعی دارد، یعنی $P(V^{2}-4UW> 0)$ پیدا کنم، این سوال را با استفاده از انتگرال دوگانه حل کردم، اما چگونه برای انجام این کار با استفاده از انتگرال سه گانه. رویکرد من: من با cdf شروع کردم: $P(V^{2}-4UW >0) =P(V^{2} > 4UW) = P(V>2\sqrt{UW})$ = $\int\ int_{2\sqrt{uw}}^1 P(V>2\sqrt{UW}) dU dW$ =$\int\int\int_{2\sqrt{uw}}^1 vdU dW dV$ زمان سختی برای بدست آوردن حدود انتگرال در منطقه در سه بعد پیدا می کنم. با استفاده از انتگرال دوگانه: $P(V^{2}-4UW >0) =P(V^{2} > 4UW) = P(-2\ln V <-\ln 4 - \ln U - \ln W) = P(X <-\ln 4 +Y)$ که در آن $X=-2 \ln V، Y = - \ln U -\n W $X$ دارای $\exp(1)$ است و $Y$ دارای توزیع $\mathrm{gamma}(2،1)$ است. $P(X <-\ln 4 +Y) = \int_{\ln4}^\infty P(X < -\ln 4 +Y) f_Y(y) dy $$=\int_{\ln 4}^ \infty\int_0^{-\ln 4+y} \frac{1}{2} e^{-\frac{x}{2}}ye^{-y} dxdy $$ با حل این موضوع 0.2545 دلار دریافت کردم. با تشکر
احتمال داشتن ریشه واقعی
34569
با توجه به مفروضات زیر، راه حل بهینه (بیزی؟) برای برازش مدل $f(x)$ به داده $h$ چیست: * $h$ برداری با عناصر $N$ است * $h$ دارای نویز گاوسی است. با کوواریانس شناخته شده $\sigma_h I$ * $x$ دارای یک توزیع گاوسی پیشینی است، با کوواریانس $C_x$ * مرتبه اول و دوم مشتقات $f(x)$ شناخته شده اند. درک من این است که: * راه حل حداکثر درستنمایی با به حداقل رساندن $\sum_{i=1}^N (f(x,i)-h_i)^2$ به دست می آید. * برآورد MAP توسط: $\sum_{i=1}^N \frac{1}{\sigma_c}(f(x,i)-h_i)^2 + \lambda x^t C_x^{-1 ارائه می‌شود } x$ هر دو را می توان با استفاده از تکنیک های بهینه سازی غیر خطی مانند BFGS بهینه کرد. بنابراین این سوال به این نتیجه می رسد: آیا راهی برای تعیین مقدار بهینه برای $\lambda$ وجود دارد؟
تنظیم بهینه برای بهینه سازی غیر خطی
93068
من سعی می کنم در مورد رویکردی برای تخمین اثر طراحی برای یک بررسی خوشه ای چند مرحله ای تصمیم بگیرم. خوشه ها با احتمال متناسب با حجم نمونه با جایگزینی انتخاب شدند. واحدهای نمونه اولیه (مناطق) به اندازه کافی بزرگ هستند که برخی از آنها چندین بار نمونه برداری شده اند. هنگام تعریف متغیر PSU، آیا باید از نواحی منحصربه‌فرد درون نمونه استفاده شود یا یک متغیر خوشه‌ای که تعداد واقعی خوشه‌های نمونه‌گیری شده را نشان می‌دهد؟ به عنوان مثال: یک منطقه دو بار نمونه برداری می شود، آیا متغیر PSU توصیف شده باید یک یا دو خوشه جداگانه باشد؟ با تشکر
تعریف PSU در نمونه های خوشه ای نمونه برداری شده با جایگزین.
23331
به خصوص در پردازش زبان طبیعی معروف است که یادگیری ماشینی باید در دو مرحله انجام شود، مرحله آموزشی و مرحله ارزیابی و باید از داده های متفاوتی استفاده کنند. چرا این است؟ به طور شهودی، این فرآیند به جلوگیری از تطبیق بیش از حد داده ها کمک می کند، اما من دلیل (نظری-اطلاعاتی) این مورد را نمی بینم. در همین راستا، من اعدادی را دیده ام که برای چه مقدار از یک مجموعه داده باید برای آموزش و چه مقدار برای ارزیابی استفاده شود، مانند 2/3 و 1/3. آیا مبنای نظری برای انتخاب یک توزیع خاص وجود دارد؟
چرا بین مرحله آموزش و مرحله ارزشیابی عدم تقارن وجود دارد؟
105878
من 7 گروه داده دارم. من می خواهم آزمایش کنم که آیا تفاوت معنی داری بین این گروه از داده ها وجود دارد یا خیر. با این حال، برخی از این داده ها همپوشانی دارند. یعنی برخی از داده‌های گروه 1 ممکن است در گروه 3 باشند. برخی از داده‌های گروه 6 نیز ممکن است در گروه 7 باشند. بنابراین گروه ها کاملاً مطابقت ندارند. ثانیاً به همین دلیل تعداد ورودی های هر گروه متفاوت است. به عنوان مثال، گروه 1 دارای 54 ورودی است، در حالی که گروه 4 دارای 94 ورودی است. آیا آزمون خاصی وجود دارد که بتوانم در صورت وجود تفاوت معنادار بین گروه ها از آن استفاده کنم؟ امیدوارم این موضوع را روشن کرده باشم. با تشکر فراوان از کمک شما
از کدام آزمون برای مقایسه میانگین گروه ها با داده های همپوشانی استفاده کنیم؟
72759
من به صورت آنلاین با یک پروژه دوره داده کاوی مواجه شدم. داده ها مربوط به نمونه هایی با 7000 ویژگی به عنوان ژن است. هر ژن با یک ارزش مرتبط است. برخی از مقادیر منفی هستند. داده‌ها به این شکل به نظر می‌رسند: SNO U48730_at U58516_at U73738_at X06956_at X16699_at X83863_at X1 27 161 0 34 112 265 0 98 2 123 X3 24 126 0 21 0 142 X4 27 163 - 1 16 - 1 134 X5 41 138 1 29 1 153 X6 55 107 -1 17 0 152 X7 27 99 0 57 1 139 X8 2 137 - 1 19 -3 213 X9 -5 161 -3 23 2 193 X10 0 110 -3 7 -1 208 X11 -7 67 1 2 -2 149 X12 4 93 3 37 2 266 X13 2 75 3 30 6 205 استاد به دانشجویان توصیه می کند که ابتدا پاکسازی داده ها را انجام دهند. جمله اصلی آستانه داده های قطار و آزمایش به حداقل مقدار 20، حداکثر 16000 است. من ابتدا فکر کردم که جستجو در هر ژن است و اگر مقداری خارج از محدوده وجود دارد، فقط این ژن را به عنوان یک ویژگی کنار بگذارید. با این حال، به نظر می رسد برای هر ژن، نمونه ای با مقدار خارج از محدوده وجود داشته باشد. با آستانه این داده ها چه کاری باید انجام دهم؟ آیا اگر مقدار زیر 20 باشد، آن را 20 تنظیم کنید یا اگر مقدار آن بالای 16000 است، آن را فقط به عنوان 16000 تنظیم کنید؟ در واقع آخرین عملیات را در R توسط data[data<20] <- 20 انجام دادم و معلوم شد که سرعت دستور بسیار پایین است. (79*7070 نمونه)
سوالاتی در مورد آستانه گذاری داده ها
109142
پس از اجرای تکرارهای `lm()` در R، اکنون درگیر این هستم که کدام مؤلفه های خروجی مدل را ارائه کنم و چگونه آنها را ارائه کنم. من می‌دانم که مقدار $R^{2}$، نمودار ضرایب و فاصله از اهمیت مرکزی برخوردار هستند. آیا منبع رایگانی وجود دارد که نشان دهد: چگونه خروجی را تفسیر کنیم، و سپس خروجی های مدل را به صورت بصری نمایش دهیم، به خصوص خروجی از «R». من تفسیر خروجی lm() R را خواندم اما ترجمه آن به معنای آن در دامنه من دشوار است. دامنه من بازاریابی است. من سعی می کنم تأثیر تبلیغات تلویزیونی را بر تولید سرنخ مدل کنم. مقدار $R^{2}$ من زیاد است، اما وقتی ضرایب خود را با استفاده از Coefplot در R رسم می‌کنم، روی خط 0 قرار می‌گیرند. من نمی دانم از آن چه کنم. از به اشتراک گذاشتن جزئیات و خروجی بیشتر خوشحالم. در اینجا خروجی و نمودارهای مدل آمده است: فراخوانی: lm (فرمول = Leads.T ~ ImpressionsM، داده = همه مدل‌ها روزانه) باقیمانده‌ها: حداقل 1Q میانه 3Q حداکثر -213.81 -60.69 - 11.81 71.74 178.02 ضرایب تخمینی خطای t مقدار Pr(>|t|) (Intercept) 337.08397 22.22891 15.16 <2e-16 *** ImpressionsM 0.06898 0.00427 16.15 <2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 97.15 در 89 درجه آزادی چندگانه R-squared: 0.7457، R-squared تنظیم شده: 0.742 آمار: 260.9 در 1 و 89 DF، p-value: < 2.2e-16 ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/oFTT5.png) ![شرح تصویر را اینجا وارد کنید](http://i. stack.imgur.com/gnN2i.png)
نحوه گرفتن و ارائه خروجی مدل lm از R
93077
به کمک نیاز دارم پروژه من با هدف توسعه الگوریتم‌هایی برای تحلیل زمانی مکانی پایگاه‌های اطلاعاتی فلیکر، توییتر و فورسکوئر برای شناسایی هر نوع تغییر مهمی که به عنوان رویداد نامگذاری شده است، در زمان واقعی است. رویداد را می توان به عنوان هر فعالیت غیرعادی کاربر، که در یک زمان یا در یک دوره زمانی خاص اتفاق می افتد، تعریف کرد. برای این کار، روش های مختلف خوشه بندی باید پیاده سازی شود و بهترین تناسب انتخاب شود. رویدادهای شناسایی شده برای کاوش بیشتر تجسم خواهند شد. این اطلاعات با برخی دیگر از منابع VGI برای ارائه یک سری خدمات داوطلبانه جغرافیایی یکپارچه خواهد شد. لطفاً به من پیشنهاد دهید کدام الگوریتم خوشه بندی برای این پروژه خوب است؟ و همچنین لطفا چند کتاب و مطالب آموزشی به من پیشنهاد دهید...
از کدام الگوریتم خوشه بندی استفاده کنم؟
66283
من نمرات خلاصه شناختی را از مجموعه ای از 17 معیار عصب روانشناختی ایجاد کرده ام. من نمرات خام گروه بیمارم را با میانگین و انحراف معیار یک گروه کنترل سالم همسان استاندارد کردم و سپس این نمرات استاندارد شده را برای ایجاد یک نمره ترکیبی، میانگین گرفتم. نمرات ترکیبی حاصل به طور معمول توزیع شد. یک داور مجله اشاره می کند که برای استفاده از این رویکرد، نمرات خام در هر یک از معیارهای عصب روان باید به طور معمول در گروه کنترل توزیع شود. آیا این چنین است؟ آیا می توانید مرجعی را معرفی کنید که در این زمینه صحبت کند؟
محاسبه امتیازات ترکیبی از توانایی ها
109542
اگر دو ماتریس از داده ها وجود داشته باشد، ردیف ها همه یک نفر هستند (زیر 50 کاربر). در مجموعه داده اول، ستون‌ها ویژگی‌های (بیش از 500 ستون) کاربر با رتبه‌بندی 0 برای وجود ندارد، 1 برای وجود دارد. مانند 1 برای متاهل، 0 برای غیر. مجموعه داده دوم انتخاب کاربر است. 0 بدون داده، -1 است دوست ندارد، 1 است پسند است. ماتریس انتخاب کاربر دارای برخی اطلاعات گم شده است، ویژگی کاربر کامل است. از تصمیمات شناخته شده کاربر، نحوه رتبه بندی اهمیت ویژگی های کاربر برای تصمیمات آنها. من فیلتر مشارکتی را بررسی کرده‌ام، اما مشکل اکنون فیلتر کردن چیزها نیست، بلکه یافتن این است که کدام ویژگی‌ها بیشتر گویای مجموعه داده فعلی هستند. اولین ایده های من انجام همبستگی بین دوست داشتن/نپسندیدن بود. که همبستگی ها را نشان می دهد. با این حال، من نمی توانم درک کنم که برای رتبه بندی ویژگی های یک کاربر چه تحلیلی می توان انجام داد. فکر دوم من این بود که از خوشه بندی kmeans برای کاربران بر اساس تصمیمات استفاده کنم، اما هنوز به نظر می رسد که این واقعاً اهمیت ویژگی های خاص در ارتباط با تصمیمات کاربر را به حساب نمی آورد. آیا این یک مشکل شناخته شده در یک روش حل است، یا این نیاز به یک روش سفارشی دارد یا از نظر تحلیلی غیرممکن است؟
یافتن همبستگی صفات بر اساس تصمیمات شناخته شده
80158
اجازه دهید $B(t)$ حرکت قهوه ای باشد. $d(M(t))^2$ را پیدا کنید، جایی که $M(t)=e^{B(t)-\frac{t}{2}}$،
$B(t)$ حرکت قهوه ای است. من می خواهم $d(M(t))^2$ را پیدا کنم، جایی که $M(t)=e^{B(t)-\frac{t}{2}}$،
93064
حداکثر احتمال با فرمول $h_{ML}=arg\space max_{h \in H } \space\space p(D/h)$ داده می‌شود. $h_{ML}=arg\space max_{h \in H } \space\space p(D/h)$ $\ implies h_{ML}=arg\space max_{h \in H } \space\space \ ln (p(D/h))$ $\ به معنای h_{ML}=arg\space max_{h \in H } \space\space \ln (p(D/h))$ حالا موارد بالا را به دو قسمت تقسیم کردم. $Q(h'/h) \spearrow E_{h,X}[\ln (p(D/h))]$ $h_{ML}=arg\space max\space Q(h'/h)$ $ Q$ فقط یک تابع میانی است. $E_{h,X}$ یک تابع انتظار است که انتظار دارد داده های ناشناخته با داده های مشاهده شده $X$ باشد. آیا روش تفسیر صحیح است؟
فرضیه حداکثر احتمال در مقابل حداکثر سازی انتظار
99455
من 2 راه ممکن برای معنی مرکز دارم. 1. فقط میانگین داده های آموزشی را در نظر بگیرید و داده های آزمایشی و آموزشی را با استفاده از آن مرکز کنید. 2. میانگین داده های ترکیبی آزمون و آموزش را در نظر بگیرید و داده های آزمون و آموزش را با استفاده از آن مرکز کنید. کدام یک درست است؟
کدام رویکرد مرکزیت متوسط ​​صحیح است؟
92915
من چندین مدل رگرسیون سلسله مراتبی چند سطحی را با استفاده از rstan برازش می کنم. هر یک از این مدل ها دارای یک اطلاعات واحد قبل از توزیع سطح بالا هستند. پارامترهای واحد پیشین در ابتدا در یک «لیست» R ذخیره می شدند. سؤالات من این است: 1. آیا پارامترهای قبلی اطلاعات واحد را برای یک مدل خاص از «لیست» که بقیه داده ها در آن ذخیره می شود، ارسال می کنم؟ 2. این پارامترهای قبلی را کجا اعلام کنم؟ در بلوک پارامترها؟ با تشکر
کجا پارامترهای قبلی را در Stan اعلام کنم؟
72754
من سعی می کنم ایده های این مقاله را پیاده سازی کنم: http://www.sciencedirect.com/science/article/pii/S0925231212003396. این امر مستلزم آن است که بتوانم درختان جداگانه را از جنگل حذف کنم و داده های آموزشی خود را برای هر حذف مجدداً طبقه بندی کنم. من از پکیج randomForest در R استفاده می‌کردم و یک شانه از طریق کتابچه راهنما داشتم، اما هیچ راهی برای اجرای جنگل با زیرمجموعه‌ای از درختان یا حتی با یک درخت منفرد پیدا نکردم. یک تابع getTree وجود دارد اما فقط یک ماتریس از ساختار گره درخت را نشان می دهد. آیا راهی برای انجام این کار وجود دارد، چه در randomForest (ترجیحا) یا از طریق اجرای جنگل تصادفی دیگر (به عنوان مثال scikit-learn)؟
آیا راهی برای حذف تک درختان از یک جنگل در بسته randomForest در R وجود دارد؟
105877
من در حال حاضر در حال پیاده سازی تجزیه و تحلیل معنایی پنهان در جاوا با استفاده از کتابخانه EJML برای تجزیه ارزش تکین اولیه (SVD) هستم. من در حال آزمایش کدم در برابر ماتریس فرکانس عبارت اصلی ارائه شده در مقاله مقدماتی قدیمی توسط Landauer و همکاران هستم. ماتریس U SVD در مقایسه با نتایج در مقاله. ستون های 2، 6، 8 و 9 منفی نتایج مقاله هستند. حتی عجیب تر، من نتایج متفاوت دیگری (در مقایسه با EJML و مقاله) هنگام استفاده از GNU Octave و یک ابزار آنلاین (http://www.bluebit.gr/matrix-calculator/calculate.aspx) دریافت می کنم. در این مورد اخیر، ستون های 1، 7، 8 و 9 منفی نتایج در مقاله هستند. مقادیر دقیق در اینجا قابل مشاهده است: ![تصویر نتایج](http://postimg.org/image/c5kkrk5h5/) (توجه داشته باشید که U در مقاله W نامیده می شود) این عبارت اصلی ماتریس فرکانس است (تبلیغ جدا شده): 1 0 0 1 0 0 0 0 0 1 0 1 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 0 1 1 0 1 0 0 0 0 0 1 1 2 0 0 0 0 0 0 1 0 0 1 0 0 0 0 0 1 0 0 1 0 0 0 0 0 0 1 1 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 1 1 1 0 0 0 0 0 0 0 1 1 1 0 0 0 0 0 0 0 1 1 جالب است که این را با ابزارها و زبان های دیگر (R، Matlab ...) مقایسه کنید تا ببینید اینها چه نتایجی خواهند داشت. بازده بنابراین، اگر زمان دارید تا SVD را در محیط دیگری اجرا کنید، اگر بتوانید نتایج را در اینجا ارسال کنید، عالی خواهد بود. آیا کسی ایده ای دارد که این تفاوت ها از کجا می توانند ناشی شوند؟ خیلی ممنون به سلامتی، مارتین
نتایج مختلف برای تجزیه ارزش واحد (SVD) با استفاده از ابزارهای مختلف
72753
چگونه می توان حداکثر اندازه جمعیت داده شده، چند لحظه، و شاید برخی فرضیات اضافی در مورد توزیع را تخمین زد؟ چیزی مانند من می خواهم اندازه گیری $N_s≫1$ را از جمعیت با اندازه $N_p≫N_s$ انجام دهم؛ میانگین $μ_s$، انحراف استاندارد $σ_s$، و حداکثر مقدار در نمونه $X_s$ را ثبت خواهد کرد. مایلم توزیع دوجمله ای (یا پواسون و غیره) را فرض کنم که حداکثر مقدار X_p$ کل جمعیت چقدر است؟ سوال مرتبط: آیا نیاز به فرضیات در مورد ماهیت توزیع جمعیت وجود دارد، یا آمار نمونه برای تخمین X_p$ کافی است؟ ویرایش: پس زمینه ای که من به تازگی در نظرات اضافه کردم ممکن است به اندازه کافی واضح نباشد. بنابراین اینجاست: هدف نهایی چاپ مجموعه‌ای از اشکال (سیم‌ها، گیت‌ها و غیره) روی مدار VLSI است که تا حد امکان با اشکال طراحی‌شده (معروف به اهداف) مطابقت داشته باشد. اندازه گیری تناسب مجموعه اشکال تولید شده به جای $\sigma$ در امتداد مکان $~10^9$، حداکثر تفاوت با هدف است. دلیل ارزیابی حداکثر تفاوت واضح است: یک اتصال کوتاه به اندازه کافی بد است که کل تراشه را از بین ببرد، و دیگر مهم نیست که در 99.9999999 درصد باقیمانده تراشه چقدر به هدف نزدیک بودید. مشکل این است که اندازه گیری شکل چاپ شده در مکان های بسیار پرهزینه است: شما به معنای واقعی کلمه باید با میکروسکوپ الکترونی به تراشه نیمه ساخته (که بعد از اندازه گیری های مخرب سطل زباله می رود) نگاه کنید، خطاهای اندازه شناسی را تنظیم کنید و غیره. بنابراین اندازه گیری بیش از 10^4 دلار به سختی انجام می شود. نتیجه این اندازه‌گیری‌ها، حداکثر تفاوت هدف X_s$ از SAMPLE، و همچنین هر نمونه آماری دیگری است که ممکن است بخواهید. و اکنون باید حداکثر تفاوت X_p$ را برای کل جمعیت تخمین زد... و اکنون آرزو می کند که او در دانشگاه در کلاس آمار توجه بیشتری داشته باشد...
حداکثر اندازه جمعیت، میانگین، و واریانس مورد انتظار
72751
در مقاله LIBSVM: A Library for Support Vector Machines نوشته شده است که C-SVC از تابع ضرر استفاده می کند: $$ \frac{1}{2}w^Tw+C\sum\limits_{i=1}^l\xi_i $$ خوب، من می دانم، $w^Tw$ چیست. اما $\xi_i$ چیست؟ می دانم که به نوعی با طبقه بندی های اشتباه مرتبط است، اما آیا دقیقاً محاسبه شده است؟ P.S. من از هیچ هسته غیر خطی استفاده نمی کنم.
تابع ضرر برای C - دسته بندی بردار پشتیبان چیست؟
25013
من اغلب چندین متغیر را، در چندین تکرار، در بسیاری از سایت‌ها اندازه‌گیری می‌کنم. به عنوان مثال، من ممکن است فراوانی باکتری ها و نرخ رشد باکتری ها را، هر کدام در 3 تکرار، در بسیاری از سایت ها اندازه گیری کنم. هر تکرار به طور مستقل نمونه برداری می شود _و_ هر متغیر در یک نمونه متفاوت اندازه گیری می شود (یعنی، من نمی توانم هم فراوانی باکتری و هم سرعت رشد را در یک نمونه اندازه گیری کنم). من می خواهم برای تست همبستگی بین آن متغیرها. مشکل این است که از آنجایی که متغیرها به طور مستقل اندازه گیری می شوند، متغیرها جفت نمی شوند. تکرار 1 متغیر A به تکرار 1 متغیر B مربوط نمی شود، بیشتر از تکرار 2 متغیر B. من می توانم برای همبستگی بین میانگین تکرارها در هر سایت آزمایش کنم - اما این به نظر صریح است، زیرا اطلاعات را از دست می دهید. در مورد تنوع بین تکرارها برای هر پارامتر. من می توانم نوعی روش نمونه گیری مجدد را تصور کنم، که در آن به طور تصادفی یک تکرار برای هر متغیر در هر سایت انتخاب می کنم. آیا راه بهتری وجود دارد؟
وقتی هر متغیر با تکرارهای مستقل اندازه گیری می شود، چگونه همبستگی را ارزیابی کنیم؟
6624
من همین سوال را در Math SE پرسیدم، اما پیشنهاد این است که احتمالاً این سؤال به اینجا تعلق دارد. با توجه به لیستی از ابر نقاط بر حسب $(x,y,z)$ چگونه نقاط غیرعادی را تعیین کنیم؟ انگیزه این است. ما باید یک سطح زمین را از آن ابر نقطه ای که نقشه برداران هنگام انجام بررسی میدانی به دست می آورند، بازسازی کنیم. نقشه برداران تجهیزاتی را می گیرند و نمونه کافی از x,y,z$ یک زمین را ثبت می کنند. این امتیازها در یک برنامه CAD ثبت خواهند شد. مشکل این است که فایل CAD ممکن است هر از چند گاهی با معرفی نقاط غیر طبیعی خراب شود. این نقاط به طور کلی با سطح زمین مطابقت ندارند و معمولاً ارزش z$$ اشتباه دارند (یعنی مقدار $z$ خارج از محدوده نرمال است). من می دانم که تعریف نقاط غیر طبیعی کمی شل است. و من نمی توانم تعریف دقیقی از آن ارائه کنم. با این حال، وقتی نقاشی را می بینم، می دانم یک نقطه غیر طبیعی چیست. با توجه به این همه محدودیت، آیا الگوریتمی برای تشخیص این نوع نقاط غیرعادی وجود دارد؟
تشخیص نقاط غیرعادی در ابر نقطه
105873
من یک ANOVA طرح ترکیبی را با دو فاکتور درون آزمودنی انجام دادم: FactorA (2 سطح)، FactorB (2 سطح)، و یک عامل بین آزمودنی ها: گروه (2 سطح). فرضیه اصلی من به تعامل FactorA*FactorB*Group مربوط می شود. این جدول ANOVA است: نوع III اندازه‌گیری‌های مکرر آزمایش‌های MANOVA: آمار آزمایش Pillai Df آمار آزمون تقریباً F num Df den Df Pr(>F) (برق) 1 0.99424 4830.5 1 28 < 2.2e-16 *** 014 گروه 1 . 1 28 0.53715 FactorA 1 0.46649 24.5 1 28 3.197e-05 *** Groups:FactorA 1 0.00685 0.2 1 28 0.66367 FactorB 1 0.14451 4.197e-05. 0.15108 5.0 1 28 0.03378 * FactorA:FactorB 1 0.09930 3.1 1 28 0.08985. گروه:FactorA:FactorB 1 0.02737 0.8 1 28 0.38232 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 همانطور که می بینید، یک اثر Group*FactorB قابل توجه است، اما تعامل مورد علاقه من است (Group*FactorA* FactorB) قابل توجه نیست. با این حال، اگر بخواهم تجزیه و تحلیل پس از آن را روی Group*FactorA*FactorB انجام دهم: my_data$Interaction <- interaction(my_data$FactorA, my_data$FactorB) my_data$Interaction <- factor(my_data$Interaction) post_hoc_model <- lme (ارزش ~ تعامل، random=~1|موضوع/FactorB/FactorB,data=my_data) plan_post_hoc <- summary(glht(post_hoc_model,linfct=mcp(interaction=c( Control.Level1.Level1-Control.Level2.Level1==0, Experimental.Level1.Level1-Experimental.Level2.Level1==0، Control.Level1.Level2-Control.Level2.Level2==0، Experimental.Level1.Level2-Experimental.Level2.Level2==0 ))) test=adjusted(BY)) این نتایج را به دست آوردم: خطی فرضیه ها: Estimate Std. خطای z مقدار Pr(>|z|) Control.Level1.Level1-Control.Level2.Level1==0 0.053125 0.019228 2.763 0.0477 * Experimental.Level1.Level1-Experimental.Level2.Level1-Experimental.Level2.Level1=0.70.7. -0.690 1.0000 Control.Level1.Level2-Control.Level2.Level2==0 0.003125 0.019228 0.163 1.0000 Experimental.Level1.Level2-Experimental.Level2.Level2-Experimental.Level2.Level20200.7 =0. -0.919 1.0000 به طور خاص، اولین مقایسه، پس از تصحیح نرخ کشف نادرست، قابل توجه است، و این با فرضیه من و با بررسی ساده ابزار مطابقت دارد. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/1l0Xo.jpg) احتمالاً به دلیل حجم نمونه کوچک من، این تعامل قابل توجه نبوده است. من می دانم که پس از یک تعامل غیر قابل توجه، لازم نیست برای آن کار پس از آن انجام شود. بنابراین من تعجب می کنم که این روش چقدر توسط یک داور قابل انتقاد است. من فکر کردم مشخص کنم که مقایسه های پس از وقوع باید با احتیاط تفسیر شوند زیرا تعامل معنی دار نبود. علاوه بر این، من این عمل را در بسیاری از تحقیقات یافتم. **به نظر شما این روش کاملاً اشتباه است؟** **در نهایت چگونه می توانم از تحلیل خود در برابر انتقاد داور (شاید با مراجعه به مقالات آماری منتشر شده) دفاع کنم؟**
انجام post hoc پس از یک تعامل غیر قابل توجه در ANOVA مختلط
92077
من می‌خواهم تأثیر فرض نرمال بودن را بر فواصلی مانند بازه اطمینان t و بازه $\chi^2$ مطالعه کنم. (1) 1000 نمونه تصادفی از یک جمعیت عادی $N$($\mu$,$\sigma) دلار). از هر یک از این نمونه ها، فاصله اطمینان 95% برای میانگین جامعه و برای واریانس جامعه ایجاد کنید. بررسی کنید که از 1000 بازه‌ای که ایجاد می‌کنید، حدود 950 تای آن‌ها در واقع پارامتر واقعی را ثبت می‌کنند. آیا کسی می تواند من را در این مورد شروع کند؟ (2) یک مطالعه شبیه سازی با استفاده از R طراحی کنید تا دقت (نرخ ضبط 95 درصد) بازه اطمینان t و بازه $\chi^2$ را زمانی که جمعیت دیگر به طور معمول توزیع نشده است، تجزیه و تحلیل کند. شما باید حداقل پنج جمعیت مختلف (مانند گاما، F، t و غیره) را امتحان کنید. همچنین باید با اندازه‌های مختلف نمونه (از نمونه‌های کوچک تا نمونه‌های بزرگ، یعنی n = 10؛ 20؛ 50؛ 100) آزمایش کنید تا ارزیابی کنید که اندازه نمونه چگونه بر میزان جذب تأثیر می‌گذارد. آیا می توانید با استفاده از R برای بررسی یک جامعه مانند گاما یک مثال به من نشان دهید؟
من می خواهم با استفاده از R اثر فرض نرمال بودن را بر روی بازه هایی مانند بازه اطمینان t و بازه $\chi^2$ مطالعه کنم.
94483
بنابراین در حال یادگیری عمیق یادگیری هستم. من ابتدا در مورد رمزگذارهای خودکار انباشته شده یاد گرفتم و اکنون در مورد ماشین های محدود بولتزمن یاد می گیرم. با این حال، در مقاله‌ها/آموزش‌هایی که خواندم، دیدم آنها انگیزه‌دهنده هستند که چرا می‌خواهیم از RBM به جای رمزگذارهای خودکار استفاده کنیم. بنابراین مزایای RBM نسبت به رمزگذارهای خودکار پشته‌ای چیست؟ و چه زمانی باید از RBM یا رمزگذارهای خودکار استفاده کرد؟
آیا ماشین‌های محدود بولتزمن بهتر از رمزگذارهای خودکار پشته‌ای هستند و چرا؟
55364
لطفاً کسی می تواند شهود پشت مدل های ترکیبی را به طور خلاصه توضیح دهد؟ هر وقت توضیحاتی را می خوانم، غرق در نشانه گذاری و اصطلاحات ریاضی می شوم. آیا کسی می تواند به من یک مثال ساده یا انگیزه بدهد تا به من کمک کند مفهوم را به روشی عمیق تر درک کنم؟
مدل ترکیبی به زبان انگلیسی ساده
80152
فرض کنید که یک فرآیند نقطه پواسون در $\mathbb{R}^d$ با پارامتر نرخ (تراکم) $\rho$ دارید. اگر راه حلی در این مورد خاص وجود داشته باشد، به خصوص به $d=2$ اهمیت می دهم. با توجه به درک محدود، می توان درخت پوشا حداقلی مجموعه را ساخت. من می‌خواهم توزیع طول یال‌ها را بدانم (مدل/تقریبی)، یعنی اگر یک یال را از درخت به‌طور تصادفی انتخاب کنم، توزیع طول آن $l$ چگونه است؟ من با مقیاس‌بندی آرگومان‌ها مطمئن هستم که $p_d(l \vert \rho)=f_d( \rho^{-1/d} l )$، اما نمی‌دانم چگونه می‌توانم به تابعی دست پیدا کنم. فرم.
توزیع طول یال برای یک درخت پوشا حداقل اقلیدسی چگونه است؟
108427
فرض کنید یک فاصله اطمینان 95 درصدی را بر روی میانگین ایجاد می کنید. آیا می توانید بیان کنید که احتمال 97.5 درصد وجود دارد که میانگین جمعیت واقعی زیر حد بالایی CI باشد و احتمال 97.5 درصد وجود دارد که میانگین جمعیت واقعی بالاتر از کران پایین CI باشد؟
بیانیه احتمال با فاصله اطمینان
112300
من نمونه هایی از مختصات جغرافیایی فعالیت ها در یک شهر را تکرار کرده ام. در اکثر این نمونه ها موقعیت ها به سادگی تصادفی خواهند بود. با این حال، در برخی از نمونه‌ها، درصدی از داده‌ها - با مقداری خطا - روی یک خط مرتب می‌شوند. اجازه دهید یک تصویر برای شما ترسیم کنم (کد برای تولید این داده ها در زیر): ![Scatter with line](http://i.stack.imgur.com/Z6hPy.png) من می خواهم قادر باشم * تشخیص دهم که آیا نمونه حاوی یک خط است * دو پارامتر این خط را از روی داده ها تخمین بزنید اگر این کار را انجام می دهد. بنابراین، سعی کردم با استفاده از مدل مخلوط بیزی، مشکل را بررسی کنم. کد زیر داده‌های مدل را تولید می‌کند و چنین مدل مخلوطی را در PyMC پیاده‌سازی می‌کند، که به طرز شگفت‌آوری خوب کار می‌کند (توجه داشته باشید: بیشتر داده‌های من «p=0» خواهند داشت، بقیه دارای «p» کاملاً مثبت هستند، از «0.2» تا «0.5» حدس می‌زنم): وارد کردن numpy به عنوان np از matplotlib import pyplot به عنوان plt import pymc به عنوان pm import scipy.stats به عنوان آمار # پارامترهای DGP N = 300 p0 = 0.2 آلفا0 = 0.3 beta0 = 0.2 sigma0 = 0.01 sigma_noise = 0.2 # DGP x = np.random.normal(0.5,0.2، N) y_line = np.random,0+x sigma0) line_bool = np.array(stats.bernoulli.rvs(p0, size=N)) y_rand = np.random.normal(0.5,0.2,N) y_all = y_line*line_bool + y_rand*(1-line_bool) # plot fig = plt. شکل (figsize=(8,8)) ax1 = fig.add_subplot(111,aspect='equal') ax1.scatter(x[line_bool==0], y_all[line_bool==0],c='b') ax1.scatter(x[line_bool==1], y_all[line_bool==1],c='r') # پیش برای احتمال انتساب یک توزیع بتا است که جرم احتمال زیادی را نزدیک 0 p = pm قرار می دهد. بتا (p، 1، 3، مقدار=0.5) انتساب = pm. pm.Normal(center_noise, 0.5, 0.4) tau_noise = 1.0 / pm.Uniform(tau_noise, 0، 1) ** 2 # پیشین برای پارامترهای خط beta_min = -10**1 beta_max = 10**1 line_pars = pm.Uniform(line_pars, beta_min, beta_max, size=2) tau_line = 1.0 / pm. یکنواخت (tau_line, 0, 0.05) ** 2 # توابع قطعی برای میانگین ها و واریانس ها مشروط به انتساب @pm.deterministic def center_i (انتساب=تخصیص، مرکز_نویز=مرکز_نویز، x=x، line_pars=line_pars): خط_مرکز = خط_پارس[0]+خط_پارس[1]*x تخصیص بازگشتی*خط_مرکز + (1 -assignment)*center_noise @pm.deterministic def tau_i(assignment=assignment, tau_noise=tau_noise, tau_line=tau_line): تخصیص بازگشت*tau_line + (1-انتساب)*tau_noise # متغیرهای مشاهده شده را تعریف کنید x_obs = pm.Normal(x_obs, 0.5, 0.2, value=x, مشاهده شده=درست) y_obs = pm.Normal(y_obs, center_i, tau_i, value=y_all, observed=True) # مدل مدل را تعریف کنید = pm.Model([p, assignment, center_noise, tau_noise, line_pars, tau_line]) # نمونه از mcmc خلفی = pm.MCMC(model) map_ = pm.MAP ( model ) map_.fit() mcmc.sample(50000, 20000, 3) # look در پسین نمودار وارد کردن pymc.Matplot به عنوان mcplot mcplot(mcmc.trace(p، 2)، common_scale=False) mcplot(mcmc.trace(line_pars، 2)، common_scale=False) mcplot(mcmc.trace (tau_noise، 2)، common_scale=False) mcplot(mcmc.trace(tau_line, 2), common_scale=False) این به خوبی روی داده های تولید شده کار می کند (اگرچه من از پیشنهاداتی برای بهبود آن استقبال می کنم!)، اما من گمان می کنم که داده های واقعی باید روی آنها کار کند. کمی آشفته تر باش به ویژه صدای پس زمینه ('y_rand' در بالا) به خوبی عادی نیست. بنابراین نمی‌دانم که چگونه می‌توانم مدل بالا را تعمیم دهم: * چگونه می‌توانم مدل‌های مخلوط را تعریف کنم که در آن مخلوط نه تنها به پارامترهای توزیع بلکه به نوع توزیع مربوط می‌شود (مثلاً نویز پس‌زمینه به طور یکنواخت توزیع می‌شود)؟ * چگونه می توانم توزیع نویز پس زمینه را بسیار کلی تر کنم. داده‌های من به عنوان مختصات جغرافیایی فعالیت‌ها در یک شهر، راهی برای در نظر گرفتن این موضوع وجود دارد که حتی در جریان فعالیت عادی (با p=0) موقعیت‌ها ممکن است بیشتر از مدل معمولی ساده بالا در امتداد یک خط مرتب شوند. پیشنهاد می کند (مثلاً چون در امتداد یک جاده مستقیم اتفاق می افتد)؟ آیا راهی برای تفاوت نوع فعالیتی که معمولاً در بعدازظهر چهارشنبه هنگام تخمین مدل بر روی داده های یک بعد از ظهر چهارشنبه جدید انجام می شود وجود دارد؟
تشخیص خط در مختصات جغرافیایی
110932
من در حال کار بر روی برخی **تحلیل پیش بینی کننده بیزی غیرپارامتری** با استفاده از **R** هستم. من مجموعه ای از داده ها را دارم که پارامترهای مختلف یک تراکنش آنلاین را نشان می دهد. بر اساس این پارامترها، من می خواهم مدلی ایجاد کنم که پیش بینی هایی را برای تراکنش های آنلاین آینده ارائه دهد. داده های آموزشی از رکوردهایی در این قالب تشکیل شده است:transaction_id (عددی)| مدت زمان (عدد صحیح)| مقدار | is_holiday (بولی) | وضعیت (1 یا 0) | | | | | | | | مشکلی که من با آن روبرو هستم این است که نمی دانم چگونه باید ادامه دهم. من می دانم چه مراحلی را باید طی کنم. من جستجو کردم و متوجه شدم که بسته‌های کمی در R مانند «DPpackage» وجود دارد که دارای عملکردهایی برای مدل‌سازی بیزی ناپارامتریک هستند، اما هیچ مثال مشخصی در مورد نحوه استفاده از آن برای انجام مراحل مختلف آموزش و آزمایش وجود ندارد. برای من مفید خواهد بود اگر کسی بتواند به من راهنمایی بدهد که در کدام فرآیند برای چنین تحلیل پیش‌بینی/رگرسیون بهتر است و چگونه می‌توانم به پیش بروم، مثلاً چه مراحلی را برای انجام آموزش و آزمایش انجام دهم. پیشاپیش متشکرم
چگونه می توان رگرسیون (پیش بینی) مبتنی بر بیزی ناپارامتریک را در R انجام داد؟
100346
من یک الگوریتم ساده Adaboost را با استفاده از چندین طبقه‌بندی ضعیف پیاده‌سازی کرده‌ام و هنگام بررسی مقادیر محاسبه‌شده توسط آن، آلفاهایی با مقدار منفی وجود دارد. آیا این امکان وجود دارد یا اشکالی در اجرا وجود دارد؟ متشکرم.
مقادیر وزن ها در Adaboost
105875
اجازه دهید $N(0,\Sigma)$ یک توزیع گاوسی با میانگین $0$ و کوواریانس $\Sigma$، یک ماتریس $p\times p$ باشد. آیا درک درستی از توزیع $\mathcal{P}_{\mathbb{S}^{p-1}} (N(0,\Sigma))$ وجود دارد؟ آیا این معادل مقداری توزیع خوب مطالعه شده است؟ توجه داشته باشید که گاوس ها به طور کلی متقارن کروی نیستند...
چگونه می توان فرافکنی یک گاوسی کلی بر روی کره را درک کرد؟
22066
سوال تحقیق من از آموزش و پرورش است: برای آزمایش اینکه آیا گروه ها (دانشگاه، گروه، جنسیت) بر اساس نمرات آنها در یک آزمون متفاوت هستند یا خیر، و آیا اثرات متقابلی وجود دارد، ANOVA سه طرفه را انجام می دهم؟ داده ها نامتعادل هستند (سلول های نابرابر). استاد من می گوید به دلیل طراحی نامتعادل باید SOS نوع 1 (برآورد پارامترها را گزارش دهید) انجام دهم. منطق او این است که تأثیر هر اثر اصلی را با تأثیرات دیگری مقایسه کند؟ او همچنین گفت که ترجیح می‌دهد جنسیت اولین باشد، او تخمین پارامترها را می‌خواهد، و قبلاً گفته بود که اندازه‌های افکت نوع d کوهن را ترجیح می‌دهد. سوالات من: 1) من جنسیت، دانشگاه، گروه، از همه تعاملات دو طرفه، تا تعامل 3 طرفه را در مدل قرار دادم. من متوجه شدم که جنسیت SS نیست، و هیچ تعاملی بین SS وجود ندارد. Fgender (1,b) = 1.83، p = 0.18، η2 = 0.006. R-squared گزارش دادم. آیا باید با تمام ترکیبات دیگر ادامه می دادم؟ تعداد زیادی وجود دارد، درست است؟ من جنسیت را حذف کردم و تجزیه و تحلیل را با (2x2) [دانشگاه، گروه، دانشگاه * واحد] دوباره انجام دادم. 2a) Funiversity (1,b) = 46.45، p <.01، η2 = 0.16 را گزارش کردم. من به میانگین های تخمین زده شده نگاه کردم، آنها را گزارش کردم و d -0.8 کوهن را محاسبه کردم (تفاوت میانگین های گروه تقسیم بر جذر میانگین مربعات خطا). من همچنین Unstandardized Buniversity = 0.48، t = 5.67، p <.01 را گزارش کردم. و به این نتیجه رسیدم که دانشگاه A نسبت به دانشگاه B امتیاز بیشتری کسب می کند. من از یک ماشین حساب تبدیل اندازه افکت آنلاین از eta-squared به کوهن d استفاده کردم. همچنین η2 = 0.16 = d = 0.8. 2ب) تجزیه و تحلیل را با [گروه، دانشگاه، واحد*دانشگاه] دوباره انجام دادم. من دقیقا موارد بالا را برای بخش گزارش کردم. اما η2 = 0.13 و وقتی d کوهن را محاسبه کردم 0.38 شد. من از یک ماشین حساب تبدیل اندازه افکت آنلاین از eta-squared به کوهن d استفاده کردم، اما 0.70 گزارش داد. چه اشکالی دارد؟ 2c) من میانگین حاشیه ای را برای uni*dep رسم کردم. من آن را آنجا گذاشتم تا نشان دهم تعامل وجود دارد. 2d) به تعامل رسیدم. من می دانستم که در نوع I SOS تغییر نخواهد کرد، بنابراین Funiversity را براساس بخش (1, b) = 11.80، p <.01، η2 = 0.04 گزارش کردم. بنابراین من گفتم دو مورد اول عملا آخرین SS است. الف) سوال من این است که حتماً بدون خجالت نزد پروفسورم بروید: آیا این اشکالی ندارد؟ چه کار دیگری می توانم برای تعامل انجام دهم؟ آیا نمی توانم بگویم uniBdepB < همه موارد دیگر که در نمودار مشخص است؟ ب) اگر تخمین پارامترها شیب را به من بگوید، چگونه با میانگین برآورد شده برابر نیستند؟ ج) چگونه می توانم تخمین پارامترها را برای اثر متقابل تفسیر کنم؟ کدام یک مقدار برای uniAdepA دارد اما می گوید بقیه اضافی هستند؟
استفاده و تفسیر نوع I SOS در ANOVA سه طرفه
50626
من یک نمونه با چند نفر دارم، و همچنین سه متغیر برای هر فرد اندازه گیری شده است، مثلاً $A$، $B$ و $C$. یک همبستگی خفیف بین $A$ و $B$ و یک همبستگی خفیف بین $A$ و $C$ * $r_{AB} = 0.44$، و *$r_{AC} = 0.47$ وجود دارد. من می خواهم آزمایش کنم که آیا این افزایش همبستگی معنی دار است یا خیر. من به دو روش برخورد کردم: 1. آزمون z فیشر برای مقایسه 2 ضریب همبستگی 2. آزمون t ولف برای مقایسه ضرایب همبستگی وابسته من مقدار _p_ هر آزمون را به ترتیب 0.53 دلار و 2.8 دلار در برابر 10 محاسبه کردم. ^{-5}$. از درک من، تست t ولف در این موقعیت مناسب‌تر است، اما تفاوت فاحش در p-value باعث می‌شود به این فکر کنم که آیا در طول مسیر کار اشتباهی انجام داده‌ام... دقیقاً چگونه می‌توان آزمایش کرد که آیا یک مقدار ضریب همبستگی به طور قابل‌توجهی است یا خیر. بالاتر از دیگری؟
اهمیت آماری افزایش همبستگی
110938
من با مفهوم مدل چند متغیره آشنا نیستم و فقط با مدل رگرسیون آشنا شدم. من با مدل Autoregressive و Moving Average آشنا هستم. مدل رگرسیون چند متغیره سرنخ هایی برای بررسی اینکه مدل چند متغیره چیست، ارائه کرد، اما من نتوانستم این سوال را در این موضوع دنبال کنم. مشکل من در ناحیه رگرسیون پراکنده است که در آن ماتریس ضریب تعداد ورودی های صفر بیشتری دارد. 1. اولین سوال من این است که آرایه ضریب باید بردار باشد یا چرا ماتریسی است؟ 2. آیا رگرسیون پراکنده فقط برای مدل های چند متغیره در نظر گرفته شده است؟ آیا یک AR (100) تک متغیره می تواند پراکنده باشد اگر بگوییم 30 متغیر با تاخیر غیر صفر هستند. آیا کسی می‌تواند شکل عملکردی مدل چند متغیره را نشان دهد و اگر تفاوتی وجود داشته باشد، چه تفاوتی با اسپارس دارد؟ 3. هر مرجعی که بتوانم نمونه هایی از مدل های رگرسیون پراکنده و کتاب هایی را پیدا کنم که این مفهوم را معرفی می کنند.
مدل چند متغیره و رگرسیون بزرگ
50623
هنگام برخورد با داده ها با فاکتورهای R می توان برای محاسبه میانگین هر گروه با تابع lm() استفاده کرد. این همچنین خطاهای استاندارد را برای میانگین تخمین زده می دهد. اما این خطای استاندارد با آنچه من از یک محاسبه دستی دریافت می کنم متفاوت است. در اینجا یک مثال آورده شده است (برگرفته از اینجا پیش بینی تفاوت بین دو گروه در R ) ابتدا میانگین را با lm(): mtcars$cyl <- factor(mtcars$cyl) mylm <- lm(mpg ~ cyl، داده = mtcars) خلاصه (mylm)$coef Estimate Std. خطای t مقدار Pr(>|t|) (تقاطع) 26.663636 0.9718008 27.437347 2.688358e-22 cyl6 -6.920779 1.5583482 -4.441099 1.441099 1.194 -4.441099 1.441099 1.194 -1.194. 1.2986235 -8.904534 8.568209e-10 رهگیری میانگین گروه اول یعنی خودروهای 4 سیلندر است. برای بدست آوردن میانگین با محاسبه مستقیم از این استفاده می کنم: با (mtcars, tapply(mpg, cyl, mean)) 4 6 8 26.66364 19.74286 15.10000 برای به دست آوردن خطاهای استاندارد برای میانگین، تنوع استاندارد نمونه را محاسبه کرده و بر تعداد تقسیم می کنم مشاهدات در هر گروه: با (mtcars, tapply (mpg, cyl, sd)/sqrt(summary(mtcars$cyl)) 4 6 8 1.3597642 0.5493967 0.6842016 محاسبه مستقیم همان میانگین را می دهد اما خطای استاندارد برای 2 رویکرد متفاوت است، انتظار داشتم همان خطای استاندارد را دریافت کنم. اینجا چه خبر است؟ این مربوط به lm() برازش میانگین برای هر گروه و یک عبارت خطا است؟ _**ویرایش شده:_** پس از پاسخ Svens (در زیر) می توانم سوال خود را مختصرتر و واضح تر بیان کنم. برای داده‌های طبقه‌بندی می‌توان میانگین یک متغیر را برای گروه‌های مختلف با استفاده از lm() بدون وقفه محاسبه کرد. mtcars$cyl <- factor(mtcars$cyl) mylm <- lm(mpg ~ cyl, data = mtcars) خلاصه (mylm)$coef Estimate Std. خطای cyl4 26.66364 0.9718008 cyl6 19.74286 1.2182168 cyl8 15.10000 0.8614094 ما می‌توانیم این را با محاسبه مستقیم میانگین‌ها و خطاهای استاندارد آنها مقایسه کنیم: با (mtlympg,8) 26.66364 19.74286 15.10000 with(mtcars, tapply(mpg, cyl, sd)/sqrt(summary(mtcars$cyl)) ) 4 6 8 1.3597642 0.5493964 دقیقاً همان خطای استاندارد است اما میانگین ها متفاوت هستند e errors1 0. برای این 2 روش (همانطور که Sven نیز متوجه شده است). سوال من این است که چرا آنها متفاوت هستند و یکسان نیستند؟ (هنگام ویرایش سوالم، آیا باید متن اصلی را حذف کنم یا ویرایش خود را همانطور که انجام دادم اضافه کنم)
R: محاسبه میانگین و خطای استاندارد میانگین برای عوامل با lm() در مقابل محاسبه مستقیم -edited
24731
من فکر می کنم این یک سوال آسان است... من یک تحلیل رگرسیون در R انجام دادم، جایی که می خواستم تناسب داده هایم را با فرمول خاصی که ارائه کردم بررسی کنم... من این کار را انجام دادم، نمودار را می بینم و خطی که تناسب داده ها را نشان می دهد، اما من همچنین می خواهم مقدار رگرسیون واقعی را که از این محاسبه به دست می آید، بدست بیاورم، چگونه این کار را انجام دهم؟ و چگونه می توانم معادله واقعی را در نمودار چاپ کنم؟ * * * سلام خیلی ممنون از پاسخ ها. مثال بسیار مفید بود، اما من هنوز مقدار رگرسیون را به دست نیاوردم، بنابراین هنوز نمی‌دانم که داده‌های من چقدر با معادله مطابقت دارند... در زیر کدی را که استفاده کردم، وارد می‌کنم # فایل داده ورودی LD251-chilR.txt را وارد کنم. ، برای ورودی؛ # ستون اول فاصله زوجی و دومی تخمین LD است، # باید فایل را در همان پوشه با برنامه R CT251chil<-read.table(LD251-chilR.txt, sep=\t, dec قرار دهید =,, header=TRUE) # تخمین LD شما (r2 در این مورد که در ستون 2 قرار دارد) r2=CT251chil[,2] # اجرا تابع nls برای بدست آوردن برآورد rho nls(r2~1/(1+rho*CT251chil[,1]), start=list(rho=0.3)) # دریافت این تخمین rho پس از اجرای تابع nls در R rho=0.02206872 #مرتب‌سازی داده‌ها، بدون نیاز اگر داده‌های شما قبلاً dist<-sort(CT251chil[,1]) # پارامترها را در معادله قرار دهید همانطور که در مقاله MBE من نشان داده شده است معادله <- (((10+rho*dist)/((2+rho*dist)*(11+rho*dist)))*(1+((3+rho*dist)*(12+12*rho *dist+(rho*dist)^2)/(46*(2+rho*dist)*(11+rho*dist))))) # رسم نمودار بین تخمین LD و نمودار فاصله(CT251chil[,1],CT251chil[,2], col=black, pch=20, ylab=expression(R^2), xlab=pairwise distance, main=CT251-chilense, las =1) # دریافت خطوط خط رگرسیون (dist, eq, col=black,lwd=2,lty=1) پس از این نقطه نموداری با یک خط دریافت می کنم. همه خوب اما تا کنون من نمی دانم چگونه معادله واقعی را در نمودار به دست بیاورم و مقدار R را دریافت کنم.
نحوه بدست آوردن مقدار واقعی رگرسیون از تحلیل رگرسیون در بسته آماری R
92076
بنابراین، من یک ANOVA را روی مجموعه داده ای اجرا کردم که حاوی بیش از 4500 نقطه داده است. بدون پرداختن به جزئیات زیاد، نمی‌دانستم که آیا توضیح ساده‌ای برای این موضوع وجود دارد: p-value برای عبارت تعامل من A*B 0.145 است => عبارت تعامل به وضوح ناچیز است. هر دو A و B متغیرهای طبقه‌بندی هستند که هر کدام دارای 2 سطح هستند. با این حال، وقتی طرح تعامل خود را ترسیم می کنم، یک X واضح وجود دارد (یعنی) آنطور که انتظار می رود موازی نیست. آیا چیزی وجود دارد که من اینجا گم کرده ام؟ در اینجا طرح است-![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/H1qc7.jpg)
عبارت تعامل ناچیز است اما نمودار تعامل نشانه هایی از معناداری را نشان می دهد
105872
من از مدل‌های خطی ورود به سیستم (تابع «loglm»، کتابخانه «MASS» از «R») استفاده می‌کنم تا ارزیابی کنم که آیا 3 متغیر در یک جدول احتمالی 3 طرفه مستقل هستند یا خیر. من مدل loglm استقلال متقابل را می سازم (فرمول = ~A + B + C، داده = test.t) که به من آمار می دهد: X^2 df P(> X^2) نسبت احتمال 264.7872 50 0 پیرسون 292.6937 50 0 از چیزی که من می فهمم این است که تست LR مدل من را با مدل اشباع شده مقایسه می کند و آن را مشاهده می کند واریانس غیر قابل توضیح در مدل من است و تعاملات قابل توجهی باید گنجانده شود، به این معنی که می توانم فرضیه خود را مبنی بر مستقل بودن 3 متغیر رد کنم. دقیقاً چگونه باید این تحلیل را در گزارش خود به آنها گزارش دهم؟ آیا باید مقادیر تست LR، درجه آزادی و P را بیان کنم؟ آیا این تست مربع چی پیرسون در خط دوم است؟ من این تصور را داشتم که تست مربع چی پیرسون فقط برای جداول 2x2 است (chisq.test() در جداول بزرگتر خطا می دهد). یا برای 2 مدل (مدل من در مقابل مدل اشباع) مربع چی پیرسون است؟
نحوه گزارش مدل های خطی ورود به سیستم جداول احتمالی
92078
خوب، نادانی من را ببخشید، اما من همیشه در مورد چیزی در هسته GLM ها گیج می شوم. برخی از کتاب های درسی دو بخش اصلی یک GLM را به عنوان تابع پیوند و توزیع عبارات خطا توصیف می کنند. برخی دیگر دو بخش اصلی را به عنوان تابع پیوند و تابع واریانس توصیف می کنند، که در آن تابع واریانس توصیفی از رابطه بین میانگین و واریانس پاسخ است (یعنی توزیع پاسخ). اما توزیع خطا و توزیع پاسخ برای من چیزهای متفاوتی به نظر می رسد. اگر معادله‌ای داشتم که در آن $Y_i = B_0 + X_i*B_1 + e$، می‌توانم ببینم چگونه برای هر مقدار معینی از $X_i$ (به علاوه مقادیر ثابت $B_0$ و $B_1$)، هر متغیر تصادفی $Y_i$ هر توزیعی را که عبارت خطا داشت را بر عهده می گیرد. اما آیا این لزوماً توزیع پاسخ کلی را با همان توزیع خطا برابر می کند؟ آیا سوالات من اصلا منطقی هستند؟
چه تفاوتی (در صورت وجود) بین توزیع پاسخ و توزیع خطا در GLM ها وجود دارد؟
22061
آیا مقادیر بالای VIF برای یک متغیر خاص $x$ فقط نشان می دهد که با حداقل یکی از متغیرهای دیگر در مدل همبستگی بالایی دارد؟ آیا مشخص می کند که $x$ با کدام متغیرها و چند متغیر مرتبط است؟
مقادیر VIF در رگرسیون
24730
من یک بازه اطمینان 95% $(22,25)$ برای یک پارامتر با استفاده از روش راه‌اندازی ناپارامتری ایجاد کرده‌ام. چیزی که من می خواهم بدانم این است که از چه مقداری برای تخمین پارامتر استفاده می کنیم. آیا میانگین همه بوت استرپ ها، میانه همه بوت استرپ ها، تخمین اولیه قبل از بوت استرپ از مجموعه داده اصلی، یا چیز دیگری است؟
فاصله اطمینان بوت استرپ ناپارامتری
55367
**هدف:** خط قرمز را تا جایی که ممکن است بالا ببرید. من می توانم مقادیر خطوط سبز و نارنجی را کنترل کنم. مانند 50 خط دیگر وجود دارد که من آنها را کنترل می کنم و می توانم در برابر خط قرمز نیز قرار بگیرم. راه خوبی برای تعیین اینکه کدام خطوط با حرکت در خط قرمز همبستگی دارند چیست؟ به عنوان مثال: * وقتی خط قرمز بالا می رود، کدام خطوط تمایل به بالا رفتن دارند؟ * وقتی خط قرمز بالا می رود، کدام خطوط به سمت پایین می روند؟ * به نظر می رسد کدام خطوط دارای مقدار بهینه برای خط قرمز هستند (هر چیزی بالاتر یا پایین تر با خط قرمز بالا نیست) آیا نوعی تجزیه و تحلیل ریاضی وجود دارد که بتوان آن را در مقابل سری اجرا کرد تا به این موارد پاسخ داد. سوالات؟ برای هر برنامه نویسی، از جاوا اسکریپت و پایتون استفاده می کنم، بنابراین هر کتابخانه ای به آن زبان ها نیز مفید خواهد بود. **اطلاعات بیشتر پس زمینه** این سوال برای یک سیستم محاسباتی فوق العاده با مقیاس افقی اعمال می شود. خط قرمز این است که سیستم چقدر در دقیقه انجام می شود. خط سبز زمان پاسخگویی پایگاه داده برای یک عملیات خاص است. بنابراین اگر زمان پاسخگویی پایگاه داده که خط سبز نشان‌دهنده آن است، زمانی که خط قرمز زیاد است، کم و زمانی که خط قرمز کم است، زیاد باشد، می‌دانم که باید به بهینه‌سازی زمان پاسخ آن پایگاه داده توجه کنم. خط نارنجی نشان دهنده تعداد رشته هایی است که در سیستم در حال اجرا هستند. بدیهی است که تعداد بسیار کم موضوعات به معنای انجام کمتر است، اما من همچنین گمان می‌کنم که نخ‌های زیاد نیز ممکن است سیستم را دچار مشکل کنند، بنابراین بسیار جالب است که بتوانیم بدانیم آیا مقدار «بهینه» برای تعداد رشته‌ها وجود دارد یا خیر. در حال اجرا در سیستم خیلی ممنون ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/71YQk.jpg)
همبستگی بین سری (بهینه سازی محاسباتی)
86942
مدل: $y_{it} = \alpha_{i}+\beta_1 D_{it} + \beta_2 G_i + \beta_3 (G_{i}\times D_{it}) + \epsilon$ G یک ساختگی گروهی است که D است یک درمان y یک داده نتیجه است یک پانل $\alpha$ یک اثر ثابت است سوال من: اگر تنها رگرسیون در مدل که بین دو گروه مشترک است با ساختگی گروه، آیا معنایی در ادغام داده ها وجود دارد یا باید به طور جداگانه زیر مجموعه و مدل سازی شود؟
زیر مجموعه ها در مقابل ادغام در رگرسیون ها با تعاملات
31937
این بسط سوالی است که قبلا پرسیده بودم. اگر پاسخ یک سوال کتاب درسی ساده است، در صورت تمایل به آن مراجعه کنید. مشکل به عنوان نیاز به مقایسه دو مجموعه داده تجربی آغاز شد، یکی شرایط ایده آل را نشان می دهد، و دیگری نشان می دهد که چه اتفاقی می افتد زمانی که یک رویداد خاص در طول آزمایش ها ایجاد می شود. من در نهایت با دو مجموعه از نتایج، **_غیر گوسی توزیع_**: نمونه 1a (ایده آل): 32 نقطه داده $$ \mu_{1a} = 0.5505، \sigma^2_{1a}= 4.9047*10^ {-5} $$ نمونه 1b (غیر ایده آل): 31 نقطه داده $$ \mu_{1b} = 0.5314*10^3، \sigma^2_{1b}= 5.4851*10^{-5} $$ اگرچه تفاوت کم است، اما قابل توجه است و علاقه من حول آن _تفاوت در میانگین می چرخد. وقتی پارامترهای آزمایش را تغییر می‌دهم، مجموعه دیگری از نتایج را دریافت می‌کنم: نمونه 2a: 34 نقطه داده $$ \mu_{2a} = 0.5395، \sigma^2_{2a}= 2.3220*10^{-5} $$ نمونه 2b: 33 نقطه داده $$ \mu_{2b} = 0.5271*10^3، \sigma^2_{2b}= 2.0283*10^{-5} $$ کاری که من باید انجام دهم این است که نشان دهم که نمونه 2، تفاوت میانگینی متفاوتی ارائه می‌کند و سپس نمونه 1، و من می‌خواهم p-value را برای مربوطه ارائه کنم. فرضیه صفر در این مرحله، من اهمیتی نمی‌دهم که تفاوت نمونه را گوسی فرض کنیم (اگرچه برای تجزیه و تحلیل بین نمونه‌ای این کار را نمی‌کنم). با استفاده از Matlab، در ابتدا برنامه ریزی کردم که کارهای زیر را انجام دهم: normcdf(0,abs(sol.meanLoss - comp.meanLoss),sqrt(sol.ste^2 + comp.ste^2)); که مساحت زیر منحنی یک توزیع گاوسی را محاسبه می کند ( پارامترها به عنوان میانگین: تفاوت میانگین بین نمونه 1 و 2 ($(\mu_{1a}-\mu_{1b})- (\mu_{2a} -\mu_{2b })$)، و std به عنوان جذر مجموع مربعات خطای استاندارد هر نمونه ) از -Inf تا 0. مطمئن نیستم پاسخ من درست باشد و من مشکلی ندارم که آن را پاره کنند، اما به چیز دیگری نیاز دارم. اگر قرار است از آزمون t استفاده شود، چگونه باید نمونه ها را ترکیب کنم؟ ویرایش: توجه داشته باشید که من خطای استاندارد را به صورت $$ ste_1 = \sqrt{ \sigma^2_{1a}/N_{1a}+\sigma^2_{1b}/N_{1b}} $$ محاسبه کرده‌ام
چگونه می توان مقدار p را برای متغیرهای تصادفی غیرمستقیم تولید کرد؟
92072
من تعجب می کنم که چگونه یک متغیر ابزاری به سوگیری انتخاب در رگرسیون می پردازد. در اینجا مثالی است که من در حال جویدن آن هستم: در کتاب اقتصاد سنجی عمدتاً بی ضرر، نویسندگان یک رگرسیون IV مربوط به خدمت سربازی و درآمدهای بعدی را مورد بحث قرار می دهند. سوال این است که آیا خدمت سربازی باعث افزایش یا کاهش درآمدهای آتی می شود؟ آنها این سوال را در چارچوب جنگ ویتنام بررسی می کنند. من می دانم که خدمت سربازی نمی تواند به طور تصادفی تعیین شود و این یک مشکل برای استنباط علی است. برای پرداختن به این موضوع، محقق از واجد شرایط بودن پیش نویس (مانند شماره پیش نویس شما نامیده می شود) به عنوان ابزاری برای خدمت واقعی سربازی استفاده می کند. این منطقی است: پیش نویس سربازی ویتنام به طور تصادفی مردان جوان آمریکایی را به ارتش اختصاص داد (در تئوری - اینکه آیا سربازان وظیفه واقعاً به سؤال من پاسخ دادند یا خیر). شرایط IV دیگر ما به نظر محکم می رسد: واجد شرایط بودن سربازی و خدمت واقعی سربازی به شدت و به طور مثبت همبستگی دارند. سوال من اینجاست به نظر می‌رسد که شما با تعصب خود انتخابی مواجه می‌شوید: شاید بچه‌های ثروتمندتر بتوانند از خدمت در ویتنام خارج شوند، حتی اگر با شماره پیش‌نویس‌شان تماس گرفته شود. (اگر واقعاً اینطور نبود، بیایید به خاطر سؤال من وانمود کنیم). اگر این خود انتخابی سوگیری سیستمی را در نمونه ما ایجاد می کند، متغیر ابزاری ما چگونه این سوگیری را برطرف می کند؟ آیا باید دامنه استنباط خود را به انواع افرادی که نتوانستند از پیش نویس فرار کنند محدود کنیم؟ یا IV به نوعی آن بخش از استنتاج ما را نجات می دهد؟ اگر کسی می تواند توضیح دهد که چگونه این کار می کند، بسیار ممنون می شوم.
چگونه متغیرهای ابزاری سوگیری انتخاب را برطرف می کنند؟
31936
من سه سوال دارم: 1. برای داده هایی با دسته های مختلف پاسخ (نوع لیکرت یا ترتیبی) چه نوع همبستگی باید محاسبه شود؟ می دانم برای متغیرهای ترتیبی **همبستگی رتبه اسپیرمن** قابل استفاده است. درست میگم؟ 2. آیا برای محاسبه این همبستگی ها باید دسته ها را مرتب کنم و پاسخ ها را با توجه به اهمیت آنها دوباره رمزگذاری کنم؟ فکر می کنم باید سوالم را روشن کنم. فرض کنید من دو متغیر دارم که به نظر من در پشت سودآوری یک شرکت نقش دارند. من متغیرهای زیر را دارم: برای متغیر جلسات منظم کارکنان، پاسخ ها به صورت: 1='بله' و 2='خیر' برای متغیر 'نسبت کارکنان با ارزیابی های رسمی عملکرد'، پاسخ ها به صورت: 1=10 جمع آوری می شوند. ٪ 2 = 20 ٪ ... 10 = 100 ٪ اکنون به طور شهودی معتقدم که هر چه جلسات کارکنان منظم تر برگزار شود یا ارزیابی عملکرد انجام شود، اراده بهتری خواهد داشت. سود آن شرکت باشد، بنابراین آیا باید برای متغیر 'جلسات منظم کارکنان' 'yes'=2 و 'no'=1 دوباره کدگذاری کنیم که پاسخ های با 'بله' رتبه اول را دریافت می کنند در حالی که همبستگی رتبه spearman محاسبه می شود؟ به طور مشابه برای متغیر «نسبت کارکنان با ارزیابی رسمی عملکرد» پاسخ‌هایی با 10 نفر (100% کارکنان دریافت‌کننده ارزیابی عملکرد) رتبه اول را دریافت می‌کنند در حالی که همبستگی رتبه اسپیرمن محاسبه می‌شود. در غیر این صورت، اگر پاسخ‌ها را از متغیر «جلسات منظم کارکنان» مجدداً رمزگذاری نکنم، رتبه‌هایی که پاسخ‌ها دریافت می‌کنند در جهت مخالف می‌شوند، زیرا پاسخ‌های «بله» = 1 رتبه دوم را دریافت می‌کنند، اما قرار بود سودآوری افزایش یابد! 3. اگر بخواهم بین متغیرهای نوع مختلط (هم **فاصله** و **ترتیبی**) همبستگی وجود داشته باشد، چه باید کرد؟ آیا امکان محاسبه وجود دارد؟ با تشکر از صبر و شکیبایی شما و توضیح محبت آمیز آینده. :)
در مورد همبستگی متغیرهای ترتیبی دارای تعداد دسته های مختلف و در مورد همبستگی متغیرهای نوع مختلط
86948
1. مدل ARMA یک نسخه تصادفی از رابطه بازگشتی است. برای روابط بازگشتی قطعی، آنها را حل می کنیم و برای بدست آوردن کامل راه حل به شرایط اولیه نیاز داریم. بنابراین من تعجب می کنم که شرط اولیه برای مدل ARMA چگونه است؟ 2. در مقدمه ای بر سری های زمانی و پیش بینی، توسط پیتر جی. براکول، ریچارد دیویس، آنها مدل ARMA را علّی تعریف می کنند، در صورتی که فرآیند خروجی آن را بتوان به صورت MA($\infty$) نشان داد (به معادله (3.1 مراجعه کنید) .5)). در معادله (3.1.7)، آنها فرمول صریح نمایش MA($\infty$) را ارائه کردند. من نمی بینم که آنها در تعریف علیت و در اشتقاق نمایش MA($\infty$) هیچ شرط ابتدایی را مشخص یا استفاده نمی کنند. این کاملاً متفاوت از این است که ما به شرایط اولیه نیاز داریم تا به طور کامل جواب یک رابطه بازگشتی قطعی را بدست آوریم. پس چگونه باید نمایش MA($\infty$) یک فرآیند خروجی ARMA را درک کنیم؟ با تشکر
آیا شرط اولیه برای مدل ARMA وجود دارد؟
24736
من چند فرمول میانگین متحرک بازگشتی را امتحان کردم (برای استفاده مجدد از خروجی قبلی به جای جمع کردن کل مجموعه n-long برای هر i) موفق به پیدا کردن آنها شدم اما هیچ یک از آنها نتایج مشابهی را به دست نمی آورد. به معنای انجام می دهد. آیا فرمول بازگشتی قابل اعتمادی وجود دارد که دقیقاً (یا تقریباً دقیقاً) همان خروجی یک میانگین متحرک را تولید کند؟
آیا یک فرمول بازگشتی قابل اعتماد برای میانگین متحرک ساده (میانگین متحرک) وجود دارد؟
22064
احتمالاً سؤال من کمی احمقانه است، اما در نوشتن پیش‌بینی خارج از نمونه با یک پیاده‌روی تصادفی در R مشکل دارم. من یک سری زمانی چند متغیره (y) دارم و می‌خواهم نتیجه پیش‌بینی خارج از نمونه (y(t+k)-y^(t+k/t) را با RW، برای k =1،6،12 تخمین بزنم. من این کد را می نویسم، کار می کند، اما به نظر می رسد که خطاهای بسیار کم residuals1 <- rep(0,58) residuals6 <- rep(0,58) residuals12. <- rep(0,58) y1 <- t(y[,1]) برای (i در 1:58) { residuals1[i] <- y1[134+i+1]-y1[134+i] residuals6 [i] <- y1[134+i+6]-y1[134+i] باقیمانده12[i] <- y1[134+i+12]-y1[134+i] } فکر می‌کنم اشتباهاتی انجام می‌دهم، پیشنهادی دارید؟
خروج تصادفی از پیش‌بینی نمونه
50622
یک استراتژی رایج در طیف‌سنجی جرمی مولکول‌های بیولوژیکی، آپلود طیف‌های مشاهده‌شده در یک سرور است تا بتوان آنها را با یک پایگاه داده بزرگ از طیف‌های نظری مولکول‌های شناخته‌شده (معروف به پایگاه داده _target_) مطابقت داد. به منظور کنترل موارد مثبت کاذب، از یک پایگاه داده _decoy_ متشکل از طیف های نادرست/بی ربط استفاده می شود. من بیشتر در مورد این موضوع مطالعه کرده ام و سوالاتی در رابطه با محاسبه اندازه گیری FDR از این استراتژی فریب هدف مطرح کرده ام. ایده اصلی مقدار FDR بسیار شهودی است: $FDR = \frac{FP}{FP + TP}$ که در آن FP و TP به ترتیب مخفف موارد مثبت نادرست و درست هستند. این برای من کاملاً منطقی است. اگر بخواهم نام برخی از افراد را از روی دفترچه تلفن حدس بزنم، و 8 را درست و 2 را اشتباه بگیرم، از 10 _کل_ حدس، 2 _ نادرست_ خواهم داشت و بنابراین نرخ کشف نادرست من 20٪ خواهد بود. با این حال، با خواندن این آموزش در مورد نحوه انجام این کار در مقیاس بزرگ در سرورها، با دو محاسبه متفاوت آشنا شدم، بسته به اینکه پایگاه داده _target_ و _decoy_ به هم پیوسته باشند یا نه (صفحه 2). من فکر نمی‌کنم که این اشتباه تایپی باشد، زیرا در ادبیات علمی موارد دیگری از عامل مرموز 2 را در مقابل FP یافتم. با این حال انگیزه پشت این هرگز توضیح داده نمی شود (حداقل من نتوانستم آن را پیدا کنم). قدردانی می کنم که این دو برابر شدن از کجا می آید. به همین ترتیب من نمی‌دانم که آیا محاسبه FDR به این روش **فرض می‌کند** که نرخ خطا برای هر تطابق طیف برای پایگاه داده هدف و پایگاه داده طعمه یکسان است یا نه (یعنی _با فرض اینکه دریافت 25 ضربه فریب _ملتبر_ 25 ضربه هدف نیز مثبت کاذب هستند) . واقعاً برای من روشن نیست که چرا باید میزان خطا برای دو پایگاه داده یکسان باشد. هر گونه نظر در مورد این موضوع نیز قدردانی می شود. * یکی از این مراجع Elias et al Nature Methods - 2, 667 - 675 (2005) است.
محاسبه نرخ کشف نادرست در زمینه تطبیق هدف و طعمه
110936
آیا هنوز هم می‌توانیم پارامترها را به همان شیوه‌ای که در رگرسیون لجستیک معمولی انجام می‌دهیم تفسیر کنیم؟ من این را می‌پرسم زیرا دارم با داده‌های اعتبار آلمانی https://archive.ics.uci.edu/ml/datasets/Statlog+(German+Credit+Data) بازی می‌کنم و یک مدل رگرسیون لجستیک کمند برای انجام انتخاب ویژگی انجام می‌دهم. . من از متغیر اعتباری good_bad به عنوان پاسخ استفاده می کنم و از این مدل با هدف بدست آوردن احتمالات برای نکول وام استفاده می کنم.
هنگامی که پاسخ دودویی است، چگونه پارامترهای به دست آمده از رگرسیون لجستیک کمند را تفسیر می کنید؟
22068
در اینجا سه ​​معادله رگرسیونی وجود دارد: $$ \begin{align} Y &= \beta_1Z_{\text{math}}\qquad (1)\\\ Y &= \beta_2Z_{\text{math}} + \beta_3Z_{\ text{science}}\qquad (2)\\\ Y &= \beta_4Z_{\text{department}} + \beta_5Z_{\text{ریاضی}} + \beta_6Z_{\text{علمی}} + \beta_7Z_{\text{دانشگاه}} + \beta_8Z_{\text{جنسیت}}\qquad (3) \end{align} $ $ من مدل رگرسیون 3 سطحی دارم. من می خواهم تأثیر پیشرفت ریاضی را به تنهایی برای (پیشرفت ریاضی و علوم در مدل 2) کنترل کنم و مدل 3 شامل جنسیت، دانشگاه و گروه آموزشی است. B1math در مدل 1 SS است، B2science در مدل 2 SS است و B7university و B6science در مدل سه SS هستند. من برآوردهای 15، 25 و 35 R-squared دارم. من مطمئن نیستم که علاوه بر افزایش R-squared چه چیزی را گزارش کنم؟ آیا باید وزن بتای استاندارد شده دانشگاه را به تنهایی گزارش کنم (چون علم کنترل شده بود) یا باید B علوم را هم گزارش کنم؟ آیا ضریب ساختار در تفسیر B نقشی دارد؟
از رگرسیون سلسله مراتبی چه چیزی را گزارش کنیم؟
92070
من در حال ساخت یک مدل بقا برای زمان تا شکست ویجت ها هستم. سایر اعضای تیم می خواهند مدل را به مدل جریان هزینه تبدیل کنند. ایده اصلی این است که می‌توانیم از شکل عملکردی تابع بقا تحت رویکرد پارامتری (که در آن توزیع لجستیکی را فرض می‌کنیم) برای تخمین منحنی بقای سطح کوهورت استفاده کنیم. سپس آنها می توانند محاسبه کنند که اگر 10٪ از جمعیت پس از 1000 روز شکست بخورند، ما 100000 دلار هزینه جایگزینی متحمل خواهیم شد. جمعیت تخمینی همه ویجت هایی است که تا 1000 روز باقی مانده اند. این تنها معیاری است که بر اساس آن شما به عنوان بخشی از جمعیت انتخاب می شوید. ما تاریخ تمام خرابی ها را داریم و تمام ویجت هایی که تا به امروز باقی مانده اند سانسور شده در نظر گرفته می شوند. با این حال، هنگامی که پیش‌بینی را انجام می‌دهیم، زمان تا رویداد را برای هر ویجتی که بیش از 1000 روز از عمر آن می‌گذرد، پیش‌بینی می‌کنیم. و این همان بخشی است که من در تقلا برای توضیح آن هستم. اگر یک ویجت 100 روز دیگر زنده بماند، این اطلاعات باید به نحوی در مدل گنجانده شود، اما من نمی توانم بفهمم که چه رویکرد دقیقی خواهد بود. فکر کردم شاید بتوانم از تابع خطر شرطی استفاده کنم و با گرفتن انتگرال به صورت تکه‌ای از رابطه بین خطر و تابع بقا استفاده کنم. $S(t)$ 1 است برای تمام روزها بین 0 تا 100 و سپس $\exp(\int_{100}^th(t))$ پس از آن، اما این بسیار هکری به نظر می‌رسد و به من نتیجه نمی‌دهد. انتظار می رود (این ممکن است به این دلیل باشد که مدل مزخرف است).
تبدیل مدل بقای پارامتریک به مدل جریان نقدی. چگونه می توانم پیری در جمعیت را حساب کنم؟
87519
آیا رتبه‌بندی‌های کاربران از محصولات - بازی‌ها، فیلم‌ها، کتاب‌ها، رستوران‌ها و غیره- تمایل به دنبال کردن توزیع‌های خاصی دارند؟ اگر چنین است، معمولاً چه شکلی دارند؟ آیا منابع داده عمومی وجود دارد که این توزیع ها را نشان دهد (مثلاً برای کتاب های آمازون، فیلم های نتفلیکس و غیره)؟
رتبه بندی ها به طور کلی چگونه توزیع می شوند؟
82748
حداقل حجم نمونه برای تجزیه و تحلیل CART چقدر خواهد بود؟ من این توصیه را پیدا کردم: > تک نگاری اصلی CART مطالعه ای را مورد بحث قرار می دهد که نویسندگان انجام داده اند > با 215 مشاهده و 19 پیش بینی کننده، که در آن 37 رکورد از کلاس 1 > و 178 از کلاس 0 بودند. ما فکر می کنیم که این نمونه است، با 37 مورد. نمونه هایی در کلاس > کوچکتر است نزدیکترین اندازه نمونه ای که می توانید به طور مفید با > CART کار کنید. > > توصیه: ما پیشنهاد می کنیم حداقل از 100 رکورد استفاده کنید، با متغیر هدف > نامتعادل تر از نسبت های (1/3، 2/3) برای بیش از 30 پیش بینی کننده توزیع نشده باشد. ما اعتبارسنجی متقابل مکرر را برای تخمین عملکرد > خارج از نمونه (داده‌های دیده نشده قبلی) توصیه می‌کنیم. آیا این حداقل حجم نمونه امکان تقسیم بین نمونه آموزشی و آزمایشی را فراهم می کند؟ اگر نمونه کوچک است و فقط اعتبارسنجی متقاطع انجام می شود، اشکالی ندارد؟
حداقل حجم نمونه برای سبد خرید
100348
پانل های نامتعادل بیشتر در زمینه های اقتصادی متداول هستند، اگر بخواهم رفتار بنگاه ها را بدانم، استفاده از پنل داده نامتعادل چه تفاوت هایی خواهد داشت. آیا مزایایی وجود دارد؟ آیا به دوره تحلیل بستگی دارد؟ یا بهتر است از پنل متعادل استفاده کنید؟ با تشکر
داده های نامتعادل یا داده های متعادل
91125
من از تابع R princomp (از بسته stats) برای اجرای یک PCA بر روی یک مجموعه داده استفاده می کنم و می خواهم خروجی آن را با روش کاهش ابعاد غیرخطی ISOMAP مقایسه کنم، که تحت matlab از طریق این جعبه ابزار استفاده می کنم: http:// isomap.stanford.edu در همان مجموعه داده. چیزی که من به آن علاقه دارم ابعاد ذاتی مجموعه داده است که طبق PCA و ISOMAP به طور جداگانه تعیین می شود، هدف نهایی بررسی اینکه آیا کاهش ابعاد غیرخطی در این مجموعه داده بهتر از PCA عمل می کند یا خیر. با princomp من انحرافات استاندارد مربوط به هر جزء را دریافت می کنم، در حالی که بسته ISOMAP واریانس های باقیمانده را به عنوان تابعی از ابعاد منیفولد برمی گرداند. چگونه این دو مقدار را مقایسه کنم؟ به عبارت دیگر، واریانس باقیمانده در ISOMAP چگونه تعریف می شود؟ این باید نامربوط باشد، اما مجموعه داده 54 نقطه در 5 بعد است.
مقایسه واریانس باقیمانده isomap با واریانس pca
31938
می‌دانم که توزیع رتبه‌بندی Zipf به من اجازه می‌دهد تا فروش یک کتاب را با توجه به رتبه فروش آمازون تخمین بزنم. چگونه می توانم توزیع را بدون دانستن فروش کتاب که منجر به رتبه می شود مناسب کنم. رتبه فروش با زمان از آخرین فروش در ذهن محاسبه می شود، یک تابع زوال.
پیش بینی فروش رتبه فروش آمازون
41752
افراد فهرستی از اسناد مختلف را دریافت کردند و از آنها پرسیده شد که آیا چیزها را مهم می‌دانند یا خیر و فکر می‌کنند که آیا به راحتی می‌توان مدارک را دریافت کرد یا خیر. مردم به گروه های مختلفی تعلق دارند و حرفه های متفاوتی دارند. آنها برای پاسخ دادن سه انتخاب داشتند: 0 = مهم نیست 2 = نسبتاً مهم 4 = بسیار مهم و همینطور برای سهولت: 0 = دشوار نیست 2 = نسبتاً دشوار 4 = بسیار دشوار _بدون پاسخ_ نیز ممکن است، بنابراین ممکن است مقادیر گم شده نیز وجود داشته باشد. . سوال من این است: چگونه می‌توان داده‌ها را با روش‌های آماری تجزیه و تحلیل کرد تا مشخص شود که چگونه حرفه و گروه بر آنچه برای مردم مهم است تأثیر می‌گذارد؟ (= تأثیر و تأثیر متقابل آن 2 متغیر بر روی اهمیت-ارزش) * و برای کدام اسناد تفاوت های آماری معنی داری وجود دارد که برای آنها مهم است نتیجه مورد انتظار (مثال ساده): برای یک فروشنده برگه اطلاعات محصول بسیار مهم است، شخصی که در خدمات کار می کند بیشتر به اسناد نیاز دارد و غیره و افراد بازاریابی اغلب به بیانیه های مطبوعاتی نیاز دارند. چه نوع آزمون یا روش تحلیلی برای تجزیه و تحلیل این نوع داده ها مناسب است؟ مطمئناً، این آزمایش طراحی شده ای نیست، بنابراین تعداد افراد در هر گروه و هر حرفه همیشه یکسان نیست. من فرض می کنم این یک نوع مشکل استاندارد است - کجا می توانم یک آموزش خوب برای چنین تحلیلی پیدا کنم؟
چه آزمون/روشی برای تجزیه و تحلیل و مدل سازی پاسخ های یک نظرسنجی مناسب است؟
77700
من سه گروه A،B،C دارم. هر کدام تعداد رکوردهای متفاوتی دارند و من میانگین را برای هر گروه محاسبه کرده ام. حالا میخواهم بدانم آیا این ابزارها برابرند یا خیر؟ چه آزمایش آماری باید انجام دهم؟ گروه No.ofrec Mean A 100 10 B 200 5 C 300 20
برای این وضعیت از چه آزمون آماری استفاده کنم؟
93306
من یک تابع IR دارم که به چندین (شاید 100) متغیر تصادفی ورودی بستگی دارد. من می دانم که IR بین 0 و 1 متفاوت است. بنابراین دارای دو ناپیوستگی است، یکی در `IR=0` و دیگری در `IR=1`. من همچنین می دانم که pdf IR مقادیر احتمال غیر صفر را در 0 و 1 می گیرد و بین 0 و 1 پیوسته است. یعنی pdf IR یک pdf مخلوط با احتمالات گسسته در 0 و 1 و a است. توزیع پیوسته بین 0 و 1. **سوال اول من این است**: اگر مجموعه آموزشی و مجموعه تست من به اندازه کافی بزرگ باشد که تقریباً کل محدوده متغیرهای تصادفی ورودی را پوشش دهد و دقت رگرسیون سطح پاسخ من بسیار خوب است (مثلاً 95٪ یا بیشتر)، اگر توزیع متغیرهای تصادفی ورودی (اما نه مقادیر حداقل و حداکثر آنها) را تغییر دهم، در چه شرایطی می توانم همچنان از موارد قبلی استفاده کنم. سطح پاسخ IR برای بدست آوردن تخمین pdf از `IR`؟_ **سوال دوم من این است**: از آنجایی که `IR` مقادیر پیوسته بین 0 و 1 را می گیرد، اگر از SVM یا استفاده کنم روش های جنگل تصادفی برای به دست آوردن سطح پاسخ با رگرسیون آیا باید IR را در ویژگی های 'n' گسسته کنم؟ اگر درست می گویم، این بدان معناست که باید فاصله IR را بر 1000 تقسیم کنم و بنابراین IR مقادیر 0، 0.001، 0.002، ....، 0.999، 1 را می گیرد. به 0.0005 این نتیجه در کدام ویژگی طبقه بندی می شود؟_ **سوال سوم من این است**: _آیا بهتر است تعریف `IR` با یک تابع پیوسته، از -بی نهایت تا + بی نهایت، برای به دست آوردن دقت سطح پاسخ بهتر، احتمالاً با استفاده از انواع دیگر روش های سطح پاسخ و نه تنها SVM یا روش های جنگل تصادفی؟_ با تشکر Joao
سطح پاسخ یک تابع ناپیوسته خاص