_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
107522
طبق توصیه Gung در دریافت معادله از R's lm هنگام استفاده از یک محصول، من یک موضوع جدید برای این سوال شروع می کنم. من یک مدل $\widehat{\log z} = a + bx + cy + dxy$ برای متغیرهای تصادفی $x,y,z$ و ضرایب $a,b,c,d$ دارم. من اکنون یک مدل برای $z$ به جای $\log z$ می خواهم. من می خواستم به سادگی $\hat{z} = \exp(a + bx + cy + dxy)$ را انجام دهم، اما در مورد این موضوع هشدار داده شده است. چرا این نادرست است و راه صحیح برای ادامه (در صورت وجود) چیست؟
به دست آوردن یک برآوردگر برای z داده شده یک برآوردگر برای log z
52824
من مجموعه ای از مشاهدات داده های از دست دادن اعتبار را دارم که میانگین آن 37٪ و واریانس 25٪ است. اکنون، من باید توزیع را پیدا کنم و فرض اصلی این است که از توزیع بتا پیروی می کند. مسئله این است که آلفا و بتا من که از میانگین و واریانس به دست می‌آیند، 0.025012- و 0.042588- برآورد می‌شوند. من نمی دانم با مقادیر منفی آلفا و بتا چه کنم. فرمولی که من برای محاسبه آلفا استفاده می کنم میانگین*(((میانگین*(1-var))/var)-1) است و بتا با (1-میانگین)(((میانگین*(1-میانگین)) محاسبه می شود. /var)-1). لطفا به من بگویید چگونه می توانم مشکل را حل کنم.
پارامترهای منفی توزیع بتا
52825
من یک مدل لاجیت دارم که برای بسیاری از موارد عددی بین 0 و 1 ارائه می دهد، اما چگونه می توانیم این را تفسیر کنیم؟ بیایید یک مورد با لوجیت 0.20 را در نظر بگیریم. آیا این روش درستی برای تفسیر مقدار لاجیت است؟
ارزش لاجیت در واقع به چه معناست؟
40362
فرآیند تجربی $B_n(x) = \sqrt{n}(F_n(x) - F(x))$ ضعیف به یک فرآیند گاوسی با میانگین صفر، $B$، با تابع کوواریانس: $\mbox{cov} همگرا می شود. (B(x)، B(y)) = F(\min\{x، y\}) - F(x)F(y)$. چگونه می توانم این فرض را (در مورد تابع کوواریانس) اثبات کنم؟
همگرایی ضعیف یک فرآیند تجربی. تظاهرات
61021
من سعی می کنم راهی برای ادغام داده هایی پیدا کنم که با کاربران مطابقت دارند و به شکل $user_i، property_1، property_2، .\dots، property_n$ هستند، جایی که $n\geq50$، $i\geq 10^6$ ممکن است داشته باشیم. در برخی موارد داده از دست رفته (یعنی $property_k$ ممکن است برای برخی از کاربران گم شده باشد)، یا ممکن است دو یا چند کاربر (خط در پایگاه داده) داشته باشیم که با همان کاربر مطابقت دارند، و تنها تفاوت در برخی از ویژگی های آنها تغییرات کوچک است. به طور خاص، من علاقه مندم که خوشه ای را که کاربر به آن تعلق دارد، با استفاده از برخی الگوریتم های یادگیری ماشین و غیره پیدا کنم. برای آن، ما البته به برخی از متریک های فاصله نیاز داریم، که حدس می زنم که به مدل بستگی دارد. آیا ایده ای در مورد اینکه بهترین مدل برای چنین سیستمی چیست؟
شناسایی مبتنی بر خوشه
109435
همراهان محترم اگر کسی در توضیح نتایج مدلم به من کمک کند ممنون می شوم. مدل من به شرح زیر است. Yit=αPFit+βPSit+δ (PF*PS) it+εit جایی که Y است سرانه تولید ناخالص داخلی PF=شاخص آزادی سیاسی محدوده بین (0-10) PS است ثبات سیاسی شاخص از (0-10) PF*PS=تعامل عبارت I= کشور و t نشان دهنده دوره زمانی است. من می دانم که چگونه نتایج دو متغیر پیوسته را تفسیر کنم، اما گیج شده ام که چگونه نتایج عبارت تعامل دو شاخص را تفسیر کنم. Y= -0.009+0.009PF+0.015PS-0.001(PF*PS) با توجه
تفسیر دو شاخص اصطلاح تعامل
29963
من در حال مطالعه یک سیستم پیچیده هستم. هدف من درک تأثیر یک حادثه در حال گسترش (که فیلتر (ماسه و گیاه) را اشباع می کند و گودال های آب ایجاد می کند) است. گودال ها بازده سیستم را کاهش می دهند (آلودگی پساب و رطوبت). تأثیر بر راندمان با گذشت زمان کاهش می یابد (بسته به فصل و وضعیت هواشناسی کم و بیش). من می‌خواهم مدلی ایجاد کنم که نشان می‌دهد این حادثه تا چه مدت بر خلبان تأثیر می‌گذارد. برای آن فکر می کنم باید از تحلیل سری زمانی استفاده کنم. سوال من این است: * آیا می توانم از تجزیه و تحلیل سری های زمانی در مقیاس های زمانی کوتاه استفاده کنم (مثلاً با اندازه گیری های 5 تا 30؟ * یا می توانم حجم پساب را با پارامتری که می خواهم مطالعه کنم، با دکلاژی که نباید منظم باشد، مقایسه کنم، زیرا باید منظم باشد. بستگی به حجم پساب تزریقی دارد؟
آیا می توانم از تحلیل سری های زمانی در مقیاس های زمانی کوتاه (مثلاً با اندازه گیری های 5 تا 30) استفاده کنم؟
52821
فاصله hellinger برای توزیع تک متغیره $$ \ H(x) = 1 است - \int\ \sqrt {f(x)g(x)} dx $$ من می‌خواهم از آن برای توزیع دو متغیره استفاده کنم، با گسترش آن به این فرم $$ \ H(x) = 1 - \int\ \sqrt {f(x, y)g(x, y)} dx dy $$ آیا کسی می تواند در مورد اینکه آیا هنوز معتبر است نظر دهد فاصله هلینگر؟
گسترش فاصله هلینگر به توزیع های چند متغیره
110194
**نوارهای عمودی** در فرمول اول و سوم به چه معناست؟ $$v_i|z_i=k،\mu_k\sim\mathcal{N}(\mu_k، \sigma^2)$$ $$P(z_i=k)=\pi_k$$ $$\pi|\alpha\sim \text{Dir}(\alpha/K1_K)$$ $$\mu_k\sim H(\lambda)$$ این فرمول در اصل از اینجا آمده است.
میله های عمودی در توزیع های آماری به چه معناست؟
18376
من در حال تجزیه و تحلیل باقی مانده های یک مدل رگرسیون مناسب برای مجموعه داده ای هستم که چندین سال داده را پوشش می دهد. من می‌خواهم مجموع باقیمانده‌های آن مدل را به‌صورت سالی گزارش کنم، به‌عنوان معیاری برای تغییر خطای کلی هر سال در طول زمان. آیا این روش قابل قبولی برای گزارش باقیمانده است؟ در اینجا یک مثال از محاسبه من است: library(plyr) set.seed(1) Year <- c( rep(2007,12), rep(2008,12), rep(2009,12), rep(2010,12) , rep(2011,12)) n <- طول (سال) شاخص <- 1:n A <- (index+5*rnorm(n))^2+5*rnorm(n) P <- predict(lm(A~Year),data.frame(A,Year)) باقیمانده <- A-P residual2 <- ddply(data .frame(Year, residual),'Year',sum) نمودار (2007+(index-7)/12, residual) خطوط (residual2$Year,residual2$residual,col=2) par(mfrow=c(2,1)) نمودار (شاخص، باقیمانده) نمودار (residual2)
آیا ذخیره کردن باقیمانده ها قبل از بررسی آنها مشکلی ندارد؟
99944
می خواهم بدانم آیا مطلب زیر را به درستی متوجه شده ام یا خیر. در روش fit.variogram کتابخانه gstat، آرگومان fit.method وجود دارد. در مستندات می‌گوید: > روش پیش‌فرض از وزن‌های $N_h/h^2$ با $N_h$ تعداد نقاط > جفت و $h$ از فاصله استفاده می‌کند. این معیار توسط تئوری پشتیبانی نمی شود، بلکه > توسط عمل پشتیبانی می شود. برای سایر مقادیر fit.method، جدول 4.2 را در gstat > manual ببینید. فرض کنید یک واریوگرام داریم که شامل مجموعه‌هایی از نقاط است که با فاصله‌های $h از هم جدا شده‌اند: 100، 300، 600 دلار و 900 دلار و هر N_{h}$ به ترتیب شامل 100، 1000، 1200، 900 نقطه است. آیا روش وزن دهی که در بالا توضیح داده شد به این معنی است که وزن ها به صورت 100/100 دلار، 1000/300، 1200/600، 900/900 دلار محاسبه می شوند. یعنی روی نقاطی که با فواصل بزرگتر از هم فاصله دارند وزن کمتری می گذاریم. آیا این درست است؟ می‌دانم که می‌گوید این روش توسط تئوری پشتیبانی نمی‌شود، اما به نظر کمی خلاف واقع است.
وزن ها در روش fit.variogram gstat
110197
من دو دسته نسبت خطر دارم (با فواصل اطمینان)، یکی مقایسه خطر ابتلا به سرطان بین سیگاری‌های فعلی و افرادی که هرگز سیگار نمی‌کشند، و دیگری مقایسه سیگاری‌های سابق با افرادی که هرگز سیگار نمی‌کشند. من داده های خام را ندارم. آیا راهی برای استفاده از این اطلاعات برای ایجاد یک نسبت خطر در مقایسه سیگاری‌های فعلی و سیگاری‌های سابق وجود دارد؟ برای مثال، نسبت خطر برای سیگاری‌های فعلی در مقابل افرادی که هرگز سیگار نمی‌کشند 2.0 است [95% CI، 1.2-3.4]، و نسبت بین سیگاری‌های سابق و هرگز سیگاری 1.5 است [95% CI، 0.9-2.5]. آیا می توان نسبت فعلی به سابق را با CI 95% محاسبه کرد؟ با تشکر
استفاده از دو نسبت خطر برای مقایسه سوم
93101
Document/Term Freq C1 C2 C3 C4 C5 C6 C7 C8 C9 Tag D1 0 1 3 1 1 0 0 1 0 X1 D2 1 1 3 0 1 0 0 2 0 X2 D3 2 0 2 0 1 0 0 0 0 X0 D4 4 0 1 0 0 0 0 0 X1 D5 0 0 1 1 1 0 0 1 1 X2 D6 0 0 0 0 1 0 0 1 1 X2 D7 0 0 0 1 1 1 1 3 0 X3 D8 1 0 0 0 1 2 1 0 0 X1 D9 1 0 1 2 1 3 1 X1 من یک DocumentTermMatrix فرم فوق که D1, D2, D3.....D9 اسناد هستند. C1، C2، C3....C9 اصطلاحات موجود در همه یا هر یک از اسناد و اعداد فراوانی هستند که این عبارت در سند وجود دارد. مقادیر در ستون Tag برچسب هر سند است. DTM اصلی من حدود 100000 سطر و 2000 ویژگی (ستون) دارد و تعداد برچسب های منحصر به فرد حدود 6000 است. اکنون می خواهم برای انتخاب ویژگی در R تست chi-square انجام دهم. اما نمی دانم چگونه این کار را در R انجام دهم. و یک بار نحوه تفسیر نتایج را انجام دادم تا بتوانم انتخاب ویژگی را بر اساس نتیجه خی دو انجام دهم.
چگونه می توانم یک تست کای دو برای انجام انتخاب ویژگی در R انجام دهم
93104
من باید یک تست ریشه واحد با داده های پانل خود انجام دهم. من 1500 شرکت از 98-2000 دارم. می خواهم بررسی کنم که آیا متغیر LOGwage من ریشه واحد دارد یا خیر. وقتی پانل خود را برای شرکت و سال تنظیم کردم، stata گفت که به شدت متعادل است. اما وقتی تست xtunitroot llc wage if FirmID را انجام می‌دهم، به من می‌گوید آزمایش Levin-Lin-Chiu به داده‌های به شدت متعادل نیاز دارد؟
تست لوین لین چیو در stata
55654
من فقط می خواستم بدانم که آیا می توان از یک مدل مخلوط معمولی برای داده های شمارش استفاده کرد؟ اگر پاسخ شما داده های شمارش باشد بهتر است از رگرسیون پواسون استفاده کنید؟
استفاده از توزیع عادی برای داده های شمارش
40365
در مورد مشکلی که با آن برخورد کردم توصیه می کنم. من برای تجزیه و تحلیل آماری یک مطالعه از SPSS استفاده می کنم. این مطالعه به چگونگی پیش‌بینی مرگ و میر توسط آزمایش خون با پیگیری یک ساله بیماران می‌پردازد. بیماران به چارک تقسیم شدند و با استفاده از چارک اول به عنوان گروه مرجع، من از رگرسیون کاکس برای تعیین نسبت های خطر تعدیل نشده (HR) و HR تعدیل شده برای چارک 2-4 استفاده کردم. مشکل این است که گروه مرجع (ربع 1 – 25 درصد اول) هیچ رویدادی نداشتند. بنابراین من نسبت های خطر 80000+ را برای چارک های 2، 3 و 4 و همچنین پیام های خطا تحت SPSS دریافت می کنم. آیا کسی می تواند به من راهنمایی کند که من چه اشتباهی انجام می دهم؟
رگرسیون کاکس زمانی که گروه مرجع هیچ رویدادی نداشت
26281
تکنیک های استاندارد ترسیم یک مجموعه آماری از دنباله ها چیست؟ من بازنمایی بازی آشوب را می شناسم: * H. Joel Jeffrey (1992)، تجسم سکانس های بازی آشوب. کامپیوتر و گرافیک 16 (1): 25-33. و پلات های دو بعدی: * H.C. لی هائو و شو یو ژانگ (2000). فراکتال های مربوط به توالی های طولانی DNA و ژنوم های کامل. آشوب، سالیتون و فراکتال، 11:825، pdf رایگان. * J. Rodriguez-Laguna، PM، M. Ibáñez Berganza، M. Lewenstein، G. Sierra (2011). Qubism: تجسم خود مشابه توابع موج چند بدنه، arXiv:1112.3560 [quant-ph]. آیا دیگران وجود دارند؟ ویرایش: من بیشترین علاقه را به الفبای محدود دارم (مثلاً از مرتبه 2 تا 9)، بدون ساختار داخلی و با دنباله هایی با هر طول (همچنین بی نهایت؛ اما در عمل 8-18 حرف برای من خوب است). با این حال، رویکردهای دیگر نیز مورد استقبال قرار می گیرد.
تجسم مجموعه ای از سکانس ها
55653
من مجموعه ای از داده ها را دارم که سعی می کنم آنها را مدل کنم. بسیاری از داده‌ها گم شده‌اند، بنابراین من از چندین انتساب استفاده می‌کنم. من حدود 360 مشاهده و 13 متغیر دارم. من همچنین از GAM ها استفاده می کنم، اما باید واقعا مرتبط باشد (من گره ها را از قبل مشخص می کنم). علاوه بر این، من 4 تعامل دارم -- 2 تعامل دو طرفه و 1 تعامل 3 طرفه. همه آنها توسط تئوری از قبل مشخص شده اند، و من می بینم که پس از برازش، کدام یک را می توانم از مدل (با استفاده از AIC) برای دستیابی به صرفه جویی بیشتر حذف کنم. مشکل من اینجاست: من تعداد زیادی تعامل و متغیر برای اندازه مجموعه داده‌ام دارم، اما هیچ‌کدام از آنها نمی‌خواهند از مدل خارج شوند -- حذف آنها AIC را افزایش می‌دهد. وقتی مدل را با برهمکنش‌ها با مدل بدون مقایسه می‌کنم، یک آزمون F نشان می‌دهد که مدل پیچیده کاملاً متفاوت از مدل ساده است. با این حال، به دلیل هم خطی بودن بالا، زمانی که من دانه را به طور متفاوتی تنظیم می کنم یا با یک نقطه داده جدید برای افزودن مواجه می شوم، اصطلاحات کمی به اطراف می پرند. نتایج پیش‌بینی من همچنان همان جوهره کلی را دارد، اما استنباط در مورد شرایط مدل پایدار نیست. من مطمئن نیستم که اینجا چه کار کنم. قوانین سرانگشتی مشخصات ساده ای را برای مجموعه داده های کوچک پیشنهاد می کند. اما مشخصات ساده به وضوح پایین تر هستند. فراتر از انتخاب یک مشکل بهتر با داده های بهتر، چه چیزی را به کسی در این موقعیت پیشنهاد می کنید؟ غریزه درونی من صرفاً این است که بر نتایج استنباطی تأکید نکنم و وقتی این مطلب را می نویسم، پیش بینی کنم. اما این یک سرپوش به نظر می رسد. پیشنهادات استقبال می شود. پوزش بابت سوال مبهم
مدل پیچیده بدون مجموعه داده عظیم
110190
در صفحه 19 کتاب درسی مقدمه ای بر یادگیری آماری (نوشته جیمز، ویتن، هستی و تیبشیرانی - به صورت رایگان در وب قابل دانلود است و بسیار خوب است) موارد زیر بیان شده است: > تخمینی را در نظر بگیرید $$\hat{Y } = \hat{f}(x)$$ برای لحظه ای فرض کنید که > هر دو $$\hat{f}، X$$ ثابت هستند. سپس، نشان دادن آن آسان است: > > $$\mathrm{E}(Y - \hat{Y})^2 = \mathrm{E}[f(X) + \epsilon - \hat{f}( X)]^2$$ > $$ = [f(X) - \hat{f}(X)]^2 + \mathrm{Var}(\epsilon)$$ بیشتر توضیح داده شده است که عبارت اول نشان دهنده قابل تقلیل خطا، و جمله دوم نشان دهنده خطای کاهش ناپذیر است. من به طور کامل درک نمی کنم که نویسندگان چگونه به این پاسخ می رسند. من محاسبات را به صورت زیر انجام دادم: $$\mathrm{E}(Y - \hat{Y})^2 = \mathrm{E}[f(X) + \epsilon - \hat{f}(X)] ^2$$ این به $[f(X) - \hat{f}(X) + \mathrm{E}[\epsilon]]^2 = [f(X) - ساده می‌شود. \hat{f}(X)]^2$ با فرض اینکه $\mathrm{E}[\epsilon] = 0$. $\mathrm{Var}(x)$ نشان داده شده در متن از کجا آمده است؟ هر گونه پیشنهاد بسیار قدردانی خواهد شد.
اثبات/اشتقاق مجموع مجذورات باقیمانده (براساس مقدمه ای بر یادگیری آماری)
26280
در تجزیه و تحلیل ANCOVA من این مورد را دارم که Y و X من یک الگوی غیرخطی را نشان می دهند. تبدیل Y یا X به تثبیت واریانس کمک نمی کند. من هیچ اشاره‌ای پیدا نکردم که انجام ANCOVA در فضای log-log غیرقانونی است، با این حال، همچنین هیچ یادداشتی در مورد اینکه باید تبدیل Y و X را امتحان کرد، پیدا نکردم... اگر کسی می‌تواند به من راهنمایی بدهد. آیا با log-log اشتباه می کنم؟ با تشکر
آیا می توان x و y را در ANCOVA تبدیل کرد؟
104248
من این سوال را نقل می کنم: > در برخی فرهنگ ها داشتن حداقل یک پسر مهم است. برنامه این است که تا زمانی که یک پسر به دنیا بیاید، بچه دار شویم. پی دی اف تعداد > دختران یک خانواده را پیدا کنید. میزان موفقیت داشتن پسر _p_ است. اولین رویکرد من: آزمایش برنولی D = تعداد دختران است. سپس آزمایشات d+1 با موفقیت d انجام شده است. $f_D(d) = {d +1 \choose d} (1-p)^d p^1 = (d+1) (1-p)^d p$ این ظاهرا **اشتباه** است. پاسخ باید $f_D(d) = (1-p)^d p$ باشد چرا رویکرد من صحیح نیست و روش صحیح چیست؟
تابع احتمال تعداد شکست ها تا اولین موفقیت
104241
من می خواهم تابع تولید لحظه (mfg) و انحراف میانگین این توزیع را پیدا کنم: $$f(x,\epsilon,k,\theta) = k\theta^{(1+1/k+\epsilon/k)} x^{(k+\epsilon)}\exp{(-\theta x^k )}/(\Gamma(1+(1+\epsilon))/k)$$ کجا $\epsilon، k، \theta$ سه پارامتر این توزیع هستند. HERE x از 0 تا بی نهایت است.
تابع تولید لحظه یک توزیع
112858
من در حال حاضر سعی می کنم یک مدل تجزیه و تحلیل بقا را متناسب کنم که تابع بقای زیر را دارد: $S(t) = \lambda_i e^{-\lambda_i t}$ اما با $\lambda_i = e^{\beta_0 +\beta_1 log( 1+X_i)}$ که در آن $X_i$ نشان دهنده هر مشاهده منحصر به فرد است. من سعی می کنم از بسته بقای پیش فرض استفاده کنم، اما مطمئن نیستم که کجا می توانم در فرمول رگرسیون برای میزان خطر برنامه ریزی کنم. فکر می‌کنم ممکن است متوجه کار بسته تحلیل بقا شده باشم، اما آیا کسی می‌تواند به من بگوید که آیا می‌توان این کار را حتی در بسته R انجام داد؟ با تشکر
آیا ممکن است در R یک فرمول رگرسیون برای نرخ خطر برای یک مدل تجزیه و تحلیل بقا مشخص شود؟
79432
فرمول مورد استفاده برای محاسبه فاصله اطمینان برای میانگین یک جمعیت عادی زمانی که n کوچک است به شرح زیر است. ![http://i.imgur.com/vluLbC3.gif](http://i.stack.imgur.com/Rm63b.gif) مقدار بحرانی t مناسب برای هر یک از سطوح اطمینان و اندازه نمونه زیر چقدر است ? (پاسخ ها را تا دو رقم اعشار گرد کنید.) (الف) 90% اطمینان، n = 17 (ب) 90% اطمینان، n = 13 (ج) 99% اطمینان، n = 24 (د) 90% اطمینان، n = 25 (ه) اطمینان 95%، n = 13 پیشاپیش از شما سپاسگزارم!
با این آمار فاصله اطمینان اشتباه گرفته شده است
29964
شاید احمقانه ترین سوالی که تا به حال در CV ارسال شده است: من می خواهم رابطه بین داده های نسبت و برخی متغیرهای کمکی را در یک مدل خطی تعمیم یافته (مخلوط، اما فکر نمی کنم مهم باشد) تجزیه و تحلیل کنم. توزیع طبیعی مورد استفاده دوجمله ای خواهد بود، اما بیشتر نسبت ها نزدیک به 0 هستند و توزیع آنها مانند پواسون (کمی بیش از حد پراکنده) به نظر می رسد. نسبت‌های من طبق تعریف مقادیر صحیح نیستند، و بنابراین نمی‌توان مستقیماً با استفاده از برخی پیاده‌سازی‌های gl(m)m با خطاهای پواسون مدل‌سازی کرد. به عنوان مثال، من از MCMCglmm در R استفاده می کنم که (به درستی) فقط مقادیر صحیح را مجاز می کند (و دو جمله ای بتا اجرا نمی شود). آیا می توانم به سادگی نسبت خود را در مثلاً 1000 ضرب کنم (برای حفظ دقت)، آنها را گرد کنم (برای اینکه آنها را به عدد صحیح تبدیل کنم) و glmm را با خطاهای پواسون روی آنها انجام دهم. سپس می‌توانم تخمین‌های پارامتر را تغییر دهم (و در glmm اهمیت _نسبی_ مولفه‌های واریانس ثابت خواهد ماند)؟ من تصور می کنم (شاید به اشتباه) مشکلی در این مورد وجود نخواهد داشت، اما از آنجایی که نتوانستم آن را در جایی بحث شده پیدا کنم، شروع به شک کردم و خوشحال می شوم اگر دیگرانی که بعداً به این موضوع فکر می کنند بتوانند پاسخی پیدا کنند ( هر چه هست) اینجا. با تشکر فراوان برای حمایت
آیا می توانم داده های نسبت را برای تجزیه و تحلیل در یک GL(M)M با خطاهای پواسون ضرب و گرد کنم؟
55658
می خواستم بدانم وقتی باقیمانده های سری زمانی دارای همبستگی خودکار هستند به چه معناست؟ چگونه باید با آن برخورد کنم؟
چگونه خودهمبستگی باقیمانده ها را تفسیر کنیم و با آن چه کنیم؟
93105
اجازه دهید $x_1,\ldots,x_n$ یک نمونه تصادفی باشد با pdf $$f(x)= \begin{cases} (\alpha+1)x^\alpha, & 0 \le x \le 1, \\ 0 ,& \mbox{در غیر این صورت}. \end{cases}$$ MLE $\alpha.$ را پیدا کنید بنابراین، من احتمال log را پیدا کردم و مشتق آن را گرفتم، اما کاملا مطمئن نیستم که آیا آن را درست انجام داده‌ام یا خیر. این چیزی است که من تا الان دارم. آیا من فقط معادله را برابر صفر قرار می دهم و برای $\alpha$ حل می کنم؟ \begin{align*} \log L &= \sum_{i=1}^n \log(\alpha + 1) + \sum_{i=1}^n \log(x_i^\alpha) \\ &= n\log(\alpha+1) + \sum_{i=1}^n \log(x_i^\alpha)\\ &= \frac{n}{\alpha+1} + \alpha\sum_{i=1}^n \log(x_i) \end{align*}
پیدا کردن MLE
55650
فرض کنید _n_ زوج ها به یک مهمانی دعوت شده اند. احتمال اینکه حداقل دو جفت زن و شوهر وجود داشته باشد چقدر است که تولد شوهران و همسرانشان یکسان باشد؟
مشکل تولد، اما مطابقت زوج ها به جای افراد
114432
من سعی کرده ام این مشکل را با خواندن مطالب مختلف حل کنم اما نمی توانم آن را بفهمم. این بسیار ساده است و در زبان هایی که با آرایه ها کار می کنند حدود 5 ثانیه طول می کشد، اما من نمی توانم آن را در Stata انجام دهم. لطفا تعویض بکتیک ها را در بعضی جاها نادیده بگیرید، من نتوانستم آنها را به درستی نشان دهم. فرض کنید من یک متغیر ID دارم و از جمله متغیرهایی که به من نشان می دهد که آیا یک فرد شرکت دارد یا تنها است و آیا الکل می نوشد یا خیر. اگر کسی شرکت داشته باشد، من یک متغیر دارم که به من نشان می دهد این همراهان چند نفر هستند و چه کسانی هستند (با شناسه آنها در مجموعه داده). من سعی می کنم ببینم آیا این همراهان الکل می نوشند و با آن اطلاعات یک روند تکراری انجام می دهند. بدیهی است که در Stata اگر همراه دارای ID 345 باشد، من نمی توانم از شکل الکل[345] استفاده کنم زیرا این حالت الکل مشاهده 345 را به من می دهد، نه ID 345. آیا فرم مشابهی در Stata وجود دارد؟ من فقط می توانم آن را با انجام لیست الکل لیست کنم اگر id==345 باشد. کاری که من می‌خواهم انجام دهم این است که این شناسه‌ها را بگیرم و آن‌ها را به یک فرآیند تکراری منتقل کنم که به من امکان می‌دهد ببینم آیا همه این همراهان الکل نمی‌نوشند یا نه، بخشی از این فرآیند این است که یک متغیر d داشته باشم که برای هر همراهی که آن را تغییر می‌دهم، آن را تغییر می‌دهم. الکل نمی خورد (یعنی زمانی که متغیر الکل 1 نباشد). اگر m تعداد همراهان باشد (بیایید دو نفر را در اینجا بگوییم) و comp'k'`x' شناسه همراهان شخص با ID k است (مثلاً ID 8 در اینجا بگوییم): gen d = . محلی m = 2 محلی k = 8 برای مقادیر x= 1/'m' { جایگزین d = 'x' اگر الکل[comp'k'`x'] !=1 } به عنوان مثال اولین همراه فرد با ID 8 دارای ID comp81 = 345، دومین comp82 = 567. اما مطمئناً این کد به دلیل بالا آنچه را که من می خواهم انجام نمی دهد. موارد زیر وضعیت الکلی شخصی که همراهانش ID comp81 و comp82 هستند را به من می دهد و نه آنچه را که من می خواهم که وضعیت الکل این همراهان است: . محلی m=2 . محلی k = 8 . برای مقادیر x= 1/'m' { 2. لیست الکل comp'k'`x' 3. } و موارد زیر نیز کار نمی کنند: محلی m = 2 محلی k = 8 برای مقادیر x= 1/'m' { 2 لیست الکل if id==comp'k'`x' 3. } من فقط نمی خواهم وضعیت الکل همراهان را لیست کنم، اما موارد بالا نمونه هایی هستند که نشان می دهد من نمی توانم Stata را پیدا کنم. معادل یک آرایه و از آن برای حل مشکلی که دارم استفاده کنم.
معادل آماری آرایه
26286
من روی پروژه ای کار می کنم که در آن بسته های نرم افزاری را ارزیابی می کنم. من نتایج دو آزمایش را دریافت کردم که تنها یک متغیر تغییر کرده است. هر آزمایش 10 بار انجام شده است. من در حال انجام تست های t-sample نمونه هستم. برای برخی از معیارهای من، نتایج برای ده تکرار دقیقاً یکسان است. بنابراین من یک خطای استاندارد صفر دارم و نمی توانم آزمون t را انجام دهم. اگر درست می گویم، می توانید از p-value تولید شده در طی آزمون t برای حمایت از ادعای خود مبنی بر اینکه مقادیر مختلف متغیرها بر نتایج تأثیر داشته است استفاده کنید (همانطور که می توانید بگویید نتایج شما از نظر آماری معنی دار هستند). در مورد من، برای حمایت از چنین ادعایی چه می توانم بگویم/ انجام دهم؟ با تشکر ویرایش: از نظر، من قصد دارم جزئیات طرح خود را اضافه کنم. من دارم کارورهای فایل را ارزیابی می کنم، اینها ابزارهای پزشکی قانونی دیجیتال هستند که می توانند برای استخراج فایل ها از تصاویر پزشکی قانونی (مانند هارد دیسک) استفاده شوند. من تعداد مشخصی از شواهد (500) را جاسازی کرده‌ام و هر کارور فایل را برای جستجوی این شواهد پیکربندی کرده‌ام. من مجموعه ای از شواهد دارم. یکی شواهد به خوبی شناخته شده است (که من خودم را برای هدف تحقیق ایجاد کردم، بنابراین 500 بار همان پرونده را می کارم) و یک مجموعه شواهد واقعی (متشکل از 500 پرونده منحصر به فرد). من دو آزمایش با یک ابزار انجام می دهم: یکی برای هر مجموعه ای از شواهد کاشته شده. اگر انواع مختلف آزمون های تی را به درستی درک کرده باشم، می توانم یک آزمون تی زوجی انجام دهم؟ از نتایجی که به دست آورده‌ام، ابزارها هر بار در بازیابی همه شواهد شکست می‌خورند. با این حال، شواهد بازیابی شده هر بار یکسان است. ابزارها به عنوان یک تابع جستجو کار می کنند. اگر صدها بار اجرا شود ممکن است چنین عملکردی از کار بیفتد، شاید من به خیلی بیشتر نیاز داشته باشم. من چهار ابزار را با سناریوهای مختلف آزمایش کرده‌ام و نتایج هرگز متفاوت نبودند (همان موارد مثبت واقعی، مثبت کاذب و منفی کاذب). وقتی به ادبیات نگاه می کنید به شما می گویند که چگونه در مورد نتایج p-values ​​صحبت کنید. من فقط نمی دانم اگر نمی توان آن را محاسبه کرد چه باید بگویم زیرا آنها هیچ تغییری در نتایج من ندارند. من برخی از مقالات را پیدا کردم که محققان نتایج مشابهی داشتند اما آنها فقط نادیده گرفته شدند (فقط در جدول نمایش داده شده است). ممکن است بدیهی باشد، اما از آنجایی که برای اولین بار است که از آمار در کارم استفاده می کنم، کمی گم شده ام (و خودآموخته هستم، بنابراین ممکن است برخی مفاهیم را ضعیف درک کرده باشم) در نهایت، سوال اصلی من این است: نتایج به وضوح نشان می دهد که نوع شواهد بر نتایج تأثیر دارد. چگونه می توانم از چنین ادعایی به شکل علمی حمایت کنم؟
وقتی خطای استاندارد برابر با 0 باشد چه باید کرد
109434
میخواستم بدونم کسی میتونه در مورد تست های آماری که باید استفاده کنم کمکم کنه. اساساً من موارد زیر را دارم: 1) من یک نظرسنجی انجام دادم و از معلمان و دانش آموزان خواستم که مؤلفه ها را در چارچوب مفهومی من با استفاده از مقیاس رتبه بندی کنند: (مهم نیست) 1 2 3 4 5 (ضروری) 2) می خواهم ابتدا نشان دهم که معلمان معتقد بودند که اجزای مهم و نه چندان مهم هستند. تحقیقات من نشان می‌دهد که مقدار معیار 80% معیار خوبی است، بنابراین می‌خواهم بررسی کنم که آیا میانگین پاسخ معلمان 4>= است (80% از 5). 3) سپس می‌خواهم نظر دانش‌آموزان را با انجام مجدد تست‌های مشابه نشان دهم و بررسی کنم که آیا میانگین پاسخ >= 4. سپس، می‌خواهم پاسخ معلمان را با پاسخ‌های دانش‌آموزان مقایسه کنم که در آن پاسخ‌هایشان متفاوت است (یعنی جایی که یک گروه فکر می‌کرد یک جزء است. مهم است در حالی که فکر دیگر این نیست) 5) در نهایت، من می خواهم بتوانم تصمیم بگیرم که کدام مؤلفه ها مهم هستند و باید در چارچوب نگه داشته شوند و بر اساس پاسخ های معلمان و دانش آموزان باید حذف شوند. اگر کسی بتواند به من کمک کند تا بفهمم برای هر یک از مراحل بالا باید از چه آزمایشی استفاده کنم، سپاسگزار خواهم بود. من قبلاً موارد زیر را انجام دادم: برای 2) من یک آزمون t یک نمونه با mu 4 انجام دادم برای 3) یک آزمون t یک نمونه با یک mu از 4 برای 4) یک t دو نمونه انجام دادم -test اما من فکر می کنم موارد فوق نادرست است زیرا تحقیقات من نشان می دهد: * این جمعیت باید به طور عادی توزیع شود. تست نرمال بودن Lilliefors (Kolmogorov-Smirnov) نشان می دهد که اینطور نیست. * باید داده های بازه ای باشد. من یک مقیاس ترتیبی دارم و موارد زیادی وجود دارد که از آزمون t با مقیاس های oridnal/liker استفاده می شود. * نتایج نشان داد که معلمان مؤلفه A را خیلی مهم نمی دانند (mu <4)، دانش آموزان مؤلفه A را حداقل بسیار مهم می دانند (mu > 4) و آزمون t دو نمونه ای بین گروه ها معنی دار نبود. بنابراین مطمئن نیستم که واقعاً چه نتیجه‌گیری یا آزمایش دیگری می‌تواند در اینجا انجام شود. فکر می‌کنم ممکن است نیاز به استفاده از آزمون Mann-Whitney داشته باشم، اما مطمئن نیستم، بنابراین توصیه‌ای بسیار قدردانی خواهد شد.
از کدام تست استفاده کنیم؟
108008
من پیاده‌سازی خودم از الگوریتم حداکثرسازی انتظارات (EM) را بر اساس مقاله زیر دارم http://pdf.aminer.org/000/221/588/fuzzy_k_means_clustering_with_crisp_regions.pdf می‌خواهم عملکرد را با اجرای دیگری مقایسه کنم. برای آزمایش، من از K تعداد سانتروئیدها با 1 گیگابایت داده txt استفاده می‌کنم و فقط زمان لازم برای محاسبه سانتروئیدهای جدید را در 1 تکرار اندازه‌گیری می‌کنم. من با پیاده سازی EM در R امتحان کردم، اما نتوانستم، زیرا نتیجه در یک نمودار رسم می شود و با تعداد زیادی داده txt گیر می کند. آیا کسی از پیاده سازی EM برای اندازه گیری عملکرد اطلاع دارد؟
چارچوبی برای مقایسه عملکرد حداکثرسازی انتظارات
32277
من به دنبال مقاله‌هایی هستم که روش‌های محاسبه CI را برای اندازه اثر امگا مربع از ANOVA یک طرفه توضیح می‌دهند. نزدیک‌ترین چیزی که من به آن رسیده‌ام پیوند Finch & French (2011) _A Comparison of Methods for Estimating Confidence Intervals for Omega-Squared Effect Size_ است، اما هیچ فرمولی ارائه نمی‌دهند. من همچنین از هرگونه پیوند به اجرای R از تخمین های تحلیلی یا CI های بوت استرپ استقبال می کنم. با تشکر از هر گونه کمک در این مورد!
مقاله‌هایی که فرمول‌هایی را توضیح می‌دهند که چگونه فواصل اطمینان را برای اندازه اثر امگا مربع محاسبه کنیم؟
65237
نمودار زیر ecdf مقادیر p را از آمارهای مختلف نشان می دهد، اجازه دهید نمودار آبی را به عنوان بردار x و نمودار قرمز را به عنوان بردار y شناسایی کنیم. اکنون یک ks.test برای x اجرا می کنم و y این بردارها را با توزیع واحد در یک محدوده کوچک مقایسه می کنم. ks.test(x[x<=0.2],function(x){punif(x,0.01,0.2)},alternative = two.sided) ks.test(y[y<=0.2],function(x ){punif(x,0.01,0.2)},alternative = two.sided) اکنون مقادیر بهتری برای خط آبی دریافت می کنم، اما واضح است که که خط قرمز باید مناسب تر باشد. اگر نزدیکتر به مقادیر x و y نگاه کنم، فقط 26 مقدار در x و بیش از 1500 در y دریافت می کنم. بنابراین فکر می‌کنم دلیل اینکه ks.test مقدار p بهتری برای خط آبی می‌دهد به تعداد کم نقاط مربوطه در x بستگی دارد. مقادیر x و y از یک شبیه سازی به دست می آیند. آیا باید تعداد آزمایش های شبیه سازی شده را افزایش دهم؟ ![ecdf](http://i.stack.imgur.com/QYHp9.png)
چگونه می توانم دو ecdf را برای مقادیر p از آزمون های کولموگروف اسمیرنوف مقایسه کنم اگر تعداد نمونه ها در دو آزمون متفاوت باشد؟
65236
حداقل دو سؤال (1، 2) به این سؤال پرداخته اند که چگونه می توان تحلیل همبستگی های چندگانه را مدیریت کرد. من می‌خواهم این سؤال را به داده‌هایی تعمیم دهم که دارای سطوح چندگانه هستند (مثلاً به عنوان یک مورد نسبتاً ساده همبستگی بین ویژگی‌های شخصیتی X1، X2، و X3 در صفت Y که در 40 نفر تودرتو است). پس چگونه می‌توان همبستگی‌های میانگین را با درک این که الف) مقیاس‌ها به‌طور مناسبی کدگذاری شده‌اند تا علامت مهم باشد و ب) سطح استنتاج مورد نظر برای فرد معمولی باشد، بهترین محاسبه (و آزمون معناداری) انجام می‌شود؟ آیا تحلیل بهینه در خانواده همبستگی های درون طبقاتی خواهد بود یا این موضوع کاملاً چیز دیگری است؟
میانگین مقادیر همبستگی از داده ها با سطوح چندگانه؟
57650
من می خواهم ویژگی های فراوانی یک مدل بیزی را شبیه سازی کنم. بنابراین، برای مثال، من ممکن است بخواهم یک مدل بیزی را 1000 بار در 50 پیکربندی مختلف قرار دهم که هر کدام حدود 10 ثانیه طول می کشد تا روی دستگاه من قرار بگیرد. یعنی کل زمان محاسبات = 1000 * 50 * 10 / 60 ثانیه / 60 دقیقه / 24 ساعت = 5.7 روز در دستگاه من. اجرای این مورد روی دستگاه من چندان کاربردی نیست. من می‌توانم برخی از ویژگی‌های شبیه‌سازی خود را کاهش دهم (به عنوان مثال، شبیه‌سازی کمتر در هر سلول طرح، سلول‌های کمتر در طراحی، زنجیره‌های کوتاه‌تر برای هر شبیه‌سازی). با این حال، خوب است اگر بتوانم این شبیه سازی را به فضای ابری ارسال کنم. سپس می‌توانم آن را اجرا کنم و پس از اتمام آن نتایج را جمع‌آوری کنم. این شبیه سازی همچنین بسیار موازی است، به طوری که به طور بالقوه می تواند از مزایای استفاده از چندین رایانه برای سرعت بخشیدن به زمان لازم برای اجرا استفاده کند. **سوالات:** * چگونه می توانم در مورد هزینه های چنین تجزیه و تحلیل هایی امتیاز بگیرم؟ برای مثال، اگر رقمی را ببینم که زمان محاسبه 10 سنت در ساعت در EC2 هزینه دارد، آیا می توانم فرض کنم که عملکرد دستگاه EC2 مشابه یک ماشین رومیزی مدرن باشد. * آیا سیستم های محاسبات ابری به ویژه برای اجرای گاه به گاه کارهای شبیه سازی R و JAGS مناسب هستند؟ * آیا بین اجرای موازی کارها در چندین نمونه در مقابل اجرای برنامه فقط در یک نمونه، تفاوتی وجود دارد؟ * آیا هیچ آموزش یا نمونه ای از اجرای R و JAGS در فضای ابری وجود دارد؟ ### اکتشافات اولیه من این پست را پیدا کردم که اطلاعات مفیدی در مورد استفاده از JAGS در EC2 ارائه می دهد.
محاسبات ابری ساده برای اجرای شبیه سازی های R + JAGS
106082
من می‌خواهم توزیع زوایای جهت‌گیری را در یک تصویر سه‌بعدی (که به صورت مش مثلثی نشان داده می‌شود) درک کنم. برای هر مثلث در تصویر من اوج ($\Theta$) و آزیموت ($\phi$) دارم![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/APStV.png) و من می توانم محاسبه هیستوگرام برای هر کدام: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/f5JBg.png) آیا راهی وجود دارد که بتوانم اطلاعات موجود را ترکیب کنم در این تصاویر به یک هیستوگرام منفرد که توزیع مشترک این متغیرها را نشان می دهد؟
تجسم جهت گیری (اوج و آزیموت) داده ها (به عنوان مثال با یک هیستوگرام دایره ای یا کروی)؟
64545
رابطه و تفاوت بین سری های زمانی و رگرسیون چیست؟ برای **مدل ها و مفروضات**، آیا درست است که مدل های رگرسیون استقلال بین متغیرهای خروجی را برای مقادیر مختلف متغیر ورودی فرض کنند، در حالی که مدل سری زمانی اینطور نیست؟ چند تفاوت دیگر چیست؟ برای **روش ها**، از وب سایت دارلینگتون > تعدادی رویکرد برای تجزیه و تحلیل سری های زمانی وجود دارد، اما دو روش شناخته شده، روش رگرسیون و Box-Jenkins (1976) یا ARIMA > (AutoRegressive Integrated Moving Average) هستند. ) روش. این سند روش رگرسیون را معرفی می کند. من روش رگرسیون را بسیار برتر از > ARIMA می دانم به سه دلیل عمده که کاملاً نمی دانم روش رگرسیون برای سری های زمانی در وب سایت چیست و چگونه با روش Box-Jenkins یا ARIMA متفاوت است. اگر کسی بتواند در مورد این سؤالات اطلاعاتی ارائه دهد، سپاسگزارم. با تشکر و احترام!
رابطه و تفاوت بین سری زمانی و رگرسیون؟
56300
ما در حال آزمایش یک کمپین بازاریابی ایمیلی هستیم. در آزمایش اولیه، ما دو نوع ایمیل مختلف ارسال کردیم و گروه کنترل سومی داشتیم که ایمیلی دریافت نکردند. اکنون ما نتایج را به عنوان نسبت کاربرانی که به برنامه ما بازگشته اند، دریافت می کنیم. در اینجا نتایج: گروه | ایمیل دریافتی | بازگشت | -برگرداند A | 16,895 | 934 | 5.53% B | 17,530 | 717 | 4.09% C | 42408 | 1618 | 3.82٪ به نظر می رسد که گروه A در واقع ممکن است بهتر از B و C باشد، اما آزمون مناسب برای نشان دادن این چیست؟
از کدام آزمون برای مقایسه نسبت بین 3 گروه استفاده کنیم؟
110224
از من پرسیده شد که چقدر از رگرسیون تجربی اطلاع دارم. من هرگز این عبارت را نشنیده ام. جستجوی وب هیچ چیز مفیدی به همراه نداشت. من گمان می کنم که این اصطلاحی است که توسط کسی برای اشاره به رویه ای موقت که ممکن است با نام دیگری شناخته شود ابداع کرده است. کسی مرجعی داره؟
رگرسیون تجربی چیست؟
57657
مشکل من این است: من تناسب یک تابع $f(\mathbf{x},\theta)$ را از طریق MCMC ارزیابی می کنم (زیرا برخی پارامترها را قبل از آن دارم)، و سعی می کنم DIC را ارزیابی کنم. ، داده شده توسط: $$\rm{DIC}=\bar{D}+p_D،\ \ \ \ (1)$$ که در آن، اگر انحراف را تعریف کنیم $D(\theta)=-2\log(\mathcal{L(\theta|\mathbf{x})})$، و $L(\theta|\mathbf{x})$ احتمال من است، سپس $ $\bar{D} = E^{\theta}[D] = -2E^{\theta}[\log(\mathcal{L(\theta|\mathbf{x})})]،\ \ \ \ (2)$$ که در آن $E^\theta[\cdot]$ مقدار مورد انتظار را در توزیع پسین نشان می‌دهد و **تعداد موثر پارامترها**، $p_D$، با $$p_D = \ داده می‌شود. bar{D}-D(\hat{\theta})\ \ \ \ (3)$$ که در آن $\hat{\theta}$ انتظار بعدی پارامترها است. این همان چیزی است که من از مقاله اشپیگلهالتر و همکارانش فهمیدم. (2002). مسئله این است که، فقط برای اهداف آزمایشی، من از یک احتمال ساده گوسی شکل استفاده می‌کنم: $$\mathcal{L}(\theta|\mathbf{x}) = \frac{1}{(2\pi) \sigma^2)^{n/2}}\exp\left(-\sum_{i=1}^n\frac{\mathbf{x}_i-\mathbf{f}_i(\theta)}{2 \sigma^2}\right)،$$ و من مقادیر **HUGE** را برای $p_D$ دریافت می‌کنم. با در نظر گرفتن $\sigma$ به عنوان یک پارامتر و این واقعیت که $\theta$ در برنامه خاص من 12 بعدی است، من مقادیر $p_D$ را نزدیک به 13 انتظار دارم، اما مقادیری در مرتبه 900 دریافت می کنم! کاری که من برای ارزیابی همه چیز انجام می دهم به شرح زیر است: 1. پس از نازک کردن زنجیره MCMC، برای هر پیوند، مقدار احتمال را دریافت می کنم. این نمونه‌ای از مقدار احتمال در هر پیوند به من می‌دهد، و سپس من $E^\theta[D]$ را به‌عنوان تخمین می‌زنم: $$\hat{D} = \frac{1}{L}\sum_{i =1}^LD(\theta_i)،$$ که $L$ تعداد پیوندها و $\theta_i$ مقدار پارامترها (از جمله $\sigma$) در آن پیوند است. 2. من میانگین پسین پارامترهایم را از تمام پیوندهای MCMC خود دریافت می‌کنم (فرض می‌کنیم که از پسین نمونه‌برداری می‌کنم) تا $\hat{\theta}$ را دریافت کنم. با تخمین‌هایی برای این و برای $E^\theta[D]$، من فقط مقادیر موجود در معادله‌ها را جایگزین می‌کنم. (2) و (3) برای به دست آوردن (1). با این روش من مقادیر معقولی را برای تخمین $E^\theta[D]$ بدست می‌آورم، اما $p_D$ درست به نظر نمی‌رسد. آیا مشکلی در روش من وجود دارد؟ پیشاپیش برای کمک متشکرم!
ارزیابی دستی DIC: تعداد بسیار زیادی از پارامترهای موثر؟
56302
فرض کنید من مقداری مجموعه داده دارم. من مقداری رگرسیون روی آن انجام می دهم. من یک مجموعه داده آزمایشی جداگانه دارم. من رگرسیون را روی این مجموعه آزمایش می کنم. RMSE را در داده های تست پیدا کنید. چگونه باید نتیجه بگیرم که الگوریتم یادگیری من به خوبی انجام شده است، منظورم این است که باید به چه ویژگی هایی از داده ها نگاه کنم تا به این نتیجه برسم که RMSE که دارم برای داده ها خوب است؟
مقادیر خوب RMSE چیست؟
56303
اولین بار است که اینجا پست می کنم، بنابراین پیشاپیش از کمک شما سپاسگزارم. من می‌خواهم واریانس‌های مرتبط با دو عامل را در یک مدل GLS نسبتاً ساده، اما نامتعادل تخمین بزنم، و مطمئن نیستم که چگونه آن اطلاعات را استخراج کنم (یا چگونه آن را به صورت دستی محاسبه کنم). برای دو عاملی که من استفاده می کنم، DS3 و DS4، DS3 دارای چهار سطح (WW - ZZ) و DS4 دارای هفت سطح (AA - GG) است. من از بسته nlme استفاده کرده ام. خود مدل و خروجی مدل در زیر آمده است. > library(nlme) > temp_gls4 = gls(output~DS3+DS4,data=temp_month,weights=varIdent(form=~1|DS4)) > summary(temp_gls4) حداقل مربعات تعمیم یافته متناسب با مدل REML: خروجی ~ DS3 + DS4 داده: temp_month AIC BIC logLik 1199.769 1268.615 -582.8845 تابع واریانس: ساختار: انحرافات استاندارد مختلف در هر لایه فرمول: ~1 | تخمین‌های پارامتر DS4: AA BB CC DD EE FF GG 1.0000000 1.2900663 1.1351448 0.9501666 0.7463385 0.8933227 0.9123444 0.9123444 ضریب ارزش-مقابله: tvalue. 3.853300 0.1232730 31.258279 0.0000 DS3XX -0.053908 0.1505280 -0.358129 0.7204 DS3YY -0.119480 - 0.119480 0.119480 0.1505280 0.1505280 DS3ZZ -0.146255 0.1552625 -0.941988 0.3467 DS4BB 0.934175 0.2081654 4.487655 0.0000 DS4CC -0.093108 -0.09310814187810. 0.3965 DS4DD 0.831305 0.2011411 4.132945 0.0000 DS4EE 1.867642 0.2538358 7.357675 0.0000 DS4FF 1.4085851.429. 0.0000 DS4GG 0.050992 0.1779757 0.286510 0.7746 می دانم که در یک موقعیت حداقل مربع متوازن سنتی، می توانید به راحتی واریانس DS3 و DS4 را با دستکاری مجذورهای میانگین محاسبه کنید (به عنوان مثال var(DS3)-(MSSE) ، اما داده ها در اینجا متعادل نیستند و من ریاضی پشت مدل GLS و REML را در مقایسه با یک مدل حداقل مربعات سنتی نمی دانم. من سعی کردم از دستور anova استفاده کنم، اما فقط آمار F مرتبط با هر عامل را تولید می کند. هر کمکی که بتوانید ارائه دهید قدردانی خواهد شد! جان
واریانس مرتبط با عوامل در GLS (nlme)
110220
من تازه وارد R هستم. اکنون تیم من در حال ساخت مدل های پیش بینی برای فروش ماهانه است. فروش ما به خوبی با شاخص صنعت ارتباط دارد. به عنوان یک شاخص آینده، می توانیم هم شاخص 5 سال گذشته و هم داده های 3 سال آینده را بدست آوریم. اکنون ما از auto.arima برای تولید مدل ها استفاده می کنیم. ما می خواهیم از xreg در R برای ارتباط با این شاخص استفاده کنیم. با این حال ممکن است نیاز به حل این مشکل داشته باشیم: اگر این شاخص پیش‌بینی کند که فروش در ماه آینده کاهش می‌یابد، چگونه می‌توان این شاخص آینده را در مدل آریما گنجاند و نتایج پیش‌بینی متفاوتی ایجاد کرد؟ آیا مدل های دیگری در R وجود دارد که بتواند به من کمک کند تا این فاکتور را لحاظ کنم؟ با تشکر
آیا می توانم شاخص آینده را در پیش بینی فعلی در مدل های R لحاظ کنم؟
110225
چگونه می توانم یک آزمون دو نمونه میانگین با واریانس های نابرابر برای یک نمونه بسیار بزرگ در R انجام دهم؟ در مورد نمونه های بزرگ، آمار به طور مجانبی از توزیع نرمال پیروی می کند. کدام تابع R به من در انجام این کار کمک می کند؟
T-Test دو نمونه ای برای میانگین های برابر با واریانس های نابرابر برای نمونه های بزرگ
32273
(اگر این مکان نامناسب است، با خیال راحت آن را مهاجرت کنید) در بسیاری از برنامه های پردازش زبان طبیعی مانند تصحیح املا، ترجمه ماشینی و تشخیص گفتار، ما از مدل های زبانی استفاده می کنیم. مدل‌های زبان معمولاً با شمارش تعداد دفعاتی که توالی‌های کلمات (n-گرم) در یک مجموعه بزرگ رخ می‌دهند و عادی کردن شمارش‌ها برای ایجاد یک احتمال ایجاد می‌شوند. برای محاسبه n-گرم های دیده نشده، ما از روش های هموارسازی استفاده می کنیم (به چند مورد لیست شده در اینجا مراجعه کنید) که مقداری از جرم احتمال را از n-گرم هایی که در مدل تایید شده است می گیرند و این جرم را بین n-gram مرتبه پایین (توالی کلمات کوتاه تر) توزیع می کنند. ) احتمالات عقب نشینی بسیاری از تکنیک های هموارسازی به دلیل محدودیتی که محاسبات باید توزیع را به عنوان یک احتمال نگه دارند، از نظر ریاضی پیچیده می شوند (باید 1 جمع شود). دلیل این محدودیت چیست؟ مزیت استفاده از احتمالات دقیق برای پیش بینی به جای نمرات هر نوع دیگری چیست؟
مدل سازی زبان: چرا جمع کردن تا 1 تا این اندازه مهم است؟
65234
من در مدل کردن چیزی مشکل دارم... فکر می‌کنم نسبتاً ساده است، اما به توانایی‌هایم اعتماد کافی ندارم. من آزمایشی را با دو گروه درمانی، شش تکرار در هر گروه درمانی تنظیم کردم و تنوع را در سه نقطه زمانی اندازه‌گیری کردم. می‌خواهم ببینم که آیا «درمان» تأثیری دارد یا خیر، آیا تأثیری در تمام نقاط زمانی دارد یا خیر. من برای هر یک از تکرارها یک شناسه برچسب گذاری کرده ام تا بتوانم به مدل بگویم که آن تکرار را بارها اندازه گیری کرده ام. من می خواهم یک مدل اندازه گیری های مکرر انجام دهم و این همان کاری است که فکر می کنم باید انجام دهم: lmer(diversity~treatment*time+(1|id)+(1|time) آیا کسی می تواند به من بگوید که آیا این درست است یا به من بگوید چگونه برای پیدا کردن مدل صحیح؟
اقدامات مکرر در طول زمان، دو گروه درمانی
109374
من تازه با تجزیه و تحلیل بقا شروع کرده ام و در پیدا کردن چیزی در «R» مشکل دارم که آنچه را که به دنبالش هستم انجام دهد. اکثر بسته‌ها از اشیاء بقا استفاده می‌کنند که برای هر بیمار مورد بررسی یک رکورد جداگانه دارند (بنابراین، بیمار $1$ در زمانی که $0$_زنده_بود، بیمار $2$در زمانی که $0$_زنده_بود، و غیره). اما داده های من به دلیل اعداد بزرگتر _گروه بندی شده است. به عنوان مثال، در زمان $0$، $1000$ بیماران _زنده_ و 0$$_مرده_بودند، در زمان $1$، $975$ بیماران _زنده_ و $25$_مرده_بودند. (d1 <- data.frame(TIME=10:5، DEAD=c(0, 0, 1195, 1237, 1251, 1257), ALIVE=c(1398, 1398, 203, 161, 147, 141))) زمان DEAD ALIVE 1 10 0 1398 2 9 0 1398 3 8 1195 203 4 7 1237 161 5 6 1251 147 6 5 1257 141 آیا یک «بسته» یا چیزی در «R» یا یک مدل خاص یا چیزی وجود دارد که به من امکان می دهد تجزیه و تحلیل بقا را روی داده هایی که به این شکل قالب بندی شده است انجام دهم؟ می‌دانم که این سؤال ممکن است ماهیت آماری خاصی نداشته باشد، اما فکر کردم مردم اینجا بیشتر از «R» می‌دانند.
تجزیه و تحلیل بقا در R با داده های گروهی
25391
محاسبه c-index برای نتایج وابسته به زمان (مانند بیماری) با استفاده از بسته survivalROC در R ممکن است. نقطه در زمان)؟ اگر بخواهم از یک ROC استاندارد استفاده کنم، می‌دانم که می‌توانم از تست Wilcoxon برای محاسبه p-value AUC استفاده کنم (در اینجا یک مثال ساده آورده شده است). با این حال، چون این داده‌های بقا هستند، فکر نمی‌کنم بتوانم کاملاً از همان رویکرد استفاده کنم. من فقط به محاسبه شاخص تطابق با استفاده از بسته survcomp فکر کرده‌ام و مقدار p را از آن بدست می‌آورم، با این حال «survivalROC» شاخص c را در یک زمان خاص پیش‌بینی می‌کند، در حالی که به نظر می‌رسد شاخص تطابق اینطور نیست. پیشنهادی دارید؟
P-ارزش c-شاخص ROC بقا
110229
من دو مدل مخاطرات متناسب کاکس (در R) دارم که از نتایج و پیش‌بینی‌کننده‌های یکسان استفاده می‌کنند، یکی برای $n_m$ مردان و دیگری برای $n_f$ زنان. آیا می توان آنها را در یک مدل معادل برای همه افراد $n_m+n_f$ ترکیب کرد، برای مثال از تعامل بین پیش بینی کننده ها و جنسیت استفاده کرد؟ برای مثال، این به معنای داشتن ضرایب یکسان با هر یک از مدل‌های خاص جنس کار نمی‌کند: کتابخانه(بقا) n <- 200 d <- data.frame(time=rexp(n)، رویداد=sample( 0:1، n، جایگزین=صحیح)، x=rnorm(n)، جنسیت=نمونه(c(m، f)، n، جایگزین=TRUE)) l1 <- coxph(Surv(زمان، رویداد) ~ x، داده = زیر مجموعه (d، جنسیت == m)) l2 <- coxph(Surv(زمان، رویداد) ~ x، داده = زیر مجموعه(d، جنسیت == f )) l3 <- coxph(Surv(زمان، رویداد) ~ x * جنسیت، داده=d) > coef(l1) x -0.1841861 > coef(l2) x 0.01391554 > coef(l3) x sexm x:sexm -0.009145576 0.060432017 -0.179186702
ترکیب دو مدل Cox PH مجزا در یک مدل؟
51333
اگر کسی بخواهد یک مدل غیر استاندارد را تخمین بزند - به عنوان مثال، مدلی که شکل عملکردی آن به صراحت در کتاب های درسی آمار بیان نشده است - آیا می توان اکثر چنین مدل هایی را با استفاده از بهینه سازی حداکثر احتمال تخمین زد؟ فرض بر این است که باقیمانده ها به طور معمول توزیع می شوند، و سپس مدل به صورت بازگشتی با احتمال ورود به سیستم شرطی داده شده، برای مثال، توسط جیمز دی. همیلتون در تحلیل سری زمانی در صفحه 132 تخمین زده می شود. سپس خطاهای استاندارد محاسبه می شوند. از تخمین ماتریس هسین گرفته شده است. من می‌توانم چند موقعیت را ببینم، مانند مجموعه داده‌های نامنظم، که در آن ممکن است مشکل باشد. اما این فقط یک سوال کلی تر است.
آیا تقریباً هر مدلی را می توان با استفاده از حداکثر احتمال تخمین زد؟
64547
من علاقه مند به یافتن اطلاعات بیشتر در مورد استفاده از تضادهای برنامه ریزی شده _a priori_ در طراحی ANOVA اندازه گیری های تکراری یک طرفه هستم. پیش‌بینی‌ها: * Grps 2+3 <Grp 1 * Grp 2 <Grp 3 سؤالات من این است: 1. **اگر داده‌ها فرضیات RM ANOVA (مانند نرمال بودن، کروی بودن) را نقض می‌کنند، این چگونه بر دقت تضادهای برنامه‌ریزی شده تأثیر می‌گذارد؟ ** 2. به دنبال این، اگر تحولات در نظر گرفته شد اما موفقیت آمیز نبود، ** آیا راهی برای اجرای تضادهای برنامه ریزی شده در یک جایگزین ناپارامتریک؟ ** حس من نه است، اما دیگران پیشنهاد می کنند از اینجا به کجا بروید؟ (به عنوان مثال، آیا راهی برای ترکیب متغیرها در SPSS وجود دارد (به عنوان مثال، برای اولین پیش بینی که در آن دو گروه در یک خوشه وجود دارد)؟
مقایسه های پیشینی در طرح اندازه گیری های مکرر
65231
سه متغیر تصادفی $X,Y,Z$ را در نظر بگیرید که بطور مشترک به طور معمول توزیع شده اند. من می دانم که $Y$ متعامد به $X$ مشروط در $Z$ است، به این معنا که $\beta_{YX;Z}=0$ (یعنی ضریب رگرسیون Y در X مشروط در Z صفر است). می خواهم بدانم آیا درست است که این شرط متعامد را به صورت زیر بیان کنیم: $$ X \bot Y | Z $$ به عبارت دیگر، من علاقه مند به درک تقدم عملگر برای متعامد هستم.
نشانه گذاری متعامد
93100
من سعی می کنم بفهمم که آیا عبارت زیر درست است: $$ E(XY)= E(X^2)=E(Y^2) $$ اگر $X$ و $Y$ به طور یکسان توزیع شده باشند اما لزوماً r.v مستقل نیستند. این بدان معناست که اگر متغیرها به طور یکسان توزیع شده باشند، انتظار ضرب هر جفت از آنها یکسان است که انتظار یکی از آنها را به مجذور محاسبه می کنیم، به این دلیل که می توان آنها را به عنوان متغیر _یکسان_ در نظر گرفت، زیرا با ما سروکار داریم. با انتظار آنها با تشکر
مقدار مورد انتظار ضرب متغیرهای تصادفی با توزیع یکسان
56304
من می خواهم قدرت مشاهده شده را با تجزیه و تحلیل مدل ترکیبی (یا ANOVA اندازه گیری های مکرر) گزارش کنم. آزمایش من یک طرح کاملاً درون موضوعی با 2 عامل مستقل (به ترتیب دو سطح و 5 سطح) را دنبال کرد. 12 شرکت‌کننده برای اجرای 10 ترکیب (5x2) دو بار (مشاهدات مکرر) انتخاب شدند که 240 مشاهده انجام شد. برخی از داده‌های گمشده وجود داشت، بنابراین کل مشاهدات واقعی 230 بود. من قبلاً هرگز از G*Power استفاده نکرده‌ام، اما به نظر ابزار بسیار قدرتمندی است. من سعی کردم یک تجزیه و تحلیل post hoc را مطابق شکل زیر اجرا کنم. قدرت حاصل آنقدر زیاد است (0.933) که من کمی شک دارم. من حجم نمونه را به معنی # آزمودنی (12) در نظر گرفتم و تعداد گروه ها به سطوحی برای عوامل بین موضوعی اشاره دارد، که من هیچ کدام را ندارم. اشتباه بین معیارهای تکرار فقط چیزی بود که من تخمین زدم [ویرایش: فکر می‌کردم این پارامتر تفاوت زیادی ایجاد نمی‌کند، اما همینطور است. تغییر آن به 0.5 در واقع قدرت را به 0.5 کاهش می دهد] آیا اشتباهی وارد کردم؟ ممنون می شوم اگر کسی بتواند به من کمک کند تا این تحلیل قدرت را بفهمم. تجزیه و تحلیل: تعقیبی: محاسبه توان به دست آمده ورودی: اندازه اثر f = 0.2 α err prob = 0.05 حجم نمونه کل = 12 تعداد گروه ها = 1 تعداد اندازه گیری = 10 Corr در بین معیارهای تکرار = 0.8 تصحیح غیر کروی ε = 1 خروجی: پارامتر غیر متمرکز λ = 24.0000000 F بحرانی = 1.9758061 عدد df = 9.0000000 مخرج df = 99.0000000 توان (1-β خطا خطا) = 0.9333319
یافتن توان پس‌هک ANOVA اندازه‌گیری‌های مکرر با استفاده از G*Power (آیا پارامترهای درست را وارد می‌کنم؟)
110228
در جزئیات، من این روابط را دارم (به ترتیب علیت): $u_1 = ax_0$ x_1 = u_1 + x_0$ $y = x_1 + w$ که در آن $w = N(0,1)، x_0 = N(0، \sigma^2)$. این رویکرد من بود: من توزیع $x_1 = N(0,(1+a)^2\sigma^2)$ را می دانم و می دانم $y = N(0,(1+a)^2\sigma^ 2 + 1)$ انتظار برای یافتن این است: $E[x_1|y]$. چیزی که من قادر به درک آن نیستم این است که چگونه می توان این انتظار را محاسبه کرد، و وابستگی متقابل دو متغیر: $x_1$ و $y$. من می دانم که $y$ به $x_1$ بستگی دارد، اما آیا برعکس آن نیز صادق است؟
چگونه می‌توان $E[x|y]$ را پیدا کرد وقتی توزیع‌های y و x به طور جداگانه شناخته می‌شوند، (ص. هر دو گاوسی هستند)؟
32278
من یک متاآنالیز کوچک از رتبه‌بندی اولویت‌ها برای اشیاء در دو شرایط مختلف انجام می‌دهم. من z و SE فیشر را برای هر مطالعه محاسبه می کنم. 1) مطالعاتی با تعداد کارآزمایی کاملاً متفاوت وجود دارد. به عنوان مثال، یک مطالعه با 24 آزمودنی و 2 کارآزمایی برای هر آزمودنی و یک مطالعه با همان 24 آزمودنی و 44 کارآزمایی برای هر آزمودنی وجود دارد. چگونه می توان چنین تنوعی را در نظر گرفت؟ فرمول SE از z (1/sqrt(n-3)) به طور معکوس به اندازه نمونه وابسته است، اما در چنین شرایطی چه چیزی را به عنوان نمونه در نظر بگیریم؟ تعداد آزمودنی ها، تعداد کارآزمایی ها، یا ضرب هر دو، یعنی تعداد کل کارآزمایی ها در هر آزمایش؟ 2) مطالعاتی وجود دارد که از داده های غیر انباشته استفاده می کنند. به عنوان مثال، در یک مطالعه از مقیاس دوجمله ای دوست دارم در مقابل دوست ندارم استفاده شده است و تعداد کل پاسخ های پسندم و دوست ندارم گزارش شده است. برای محاسبه z ابتدا d کاکس را محاسبه می کنم، سپس آن و واریانس آن را به z و SE از z تبدیل می کنم. SE حاصل از z در مقایسه با مقدار محاسبه شده با استفاده از 1/sqrt(n-3) بسیار کوچک است. چگونه می توان این مطالعه را به درستی در تجزیه و تحلیل گنجاند؟
چگونه در متاآنالیز انباشتگی روی موضوعات را محاسبه کنیم؟
114434
سوال من ممکن است کمی مبهم باشد، اما من شروع به تعجب کردم که پارامترهای موثر در یادگیری ماشین به چه معناست؟ من شنیده ام که تعداد کمی از اساتید یادگیری ماشین در دانشگاهم در مورد پارامترهای موثر صحبت می کنند (زمینه مربوط به k-نزدیک ترین همسایگان یا مدل های مخلوط گاوسی و غیره بود). هیچ توضیحی در مورد اینکه این ممکن است به چه معنا باشد؟ برای هر کمکی از شما متشکرم! P.S. من این اصطلاح را در کتاب: The Elements of Statistical Learning ویرایش 2، Trevor Hastie، صفحه 15 نیز دیده ام.
منظور از پارامترهای موثر در یادگیری ماشین چیست؟
82379
من می خواهم اثرات ثابت و تصادفی برخی از متغیرهای کمکی را روی یک متغیر گسسته با مقادیر غیر منفی آزمایش کنم. در تجزیه و تحلیل اکتشافی من یک پواسون GLM تهی و یک پواسون GLMM تهی نصب کردم. با این حال، GLMM مقدار میانگین متغیر پاسخ را حتی پس از گنجاندن متغیرهای کمکی ثابت و/یا تصادفی دست کم گرفت. من همچنین رویکردهای بیزی، مدل‌های با تورم صفر و توزیع‌های دوجمله‌ای منفی را امتحان کردم، اما «مشکل» همچنان باقی است. میانگین متغیر پاسخ: 0.7804 GLM intercept: 0.7803772 GLMM intercept: 0.6595108 آیا رهگیری تخمینی GLMM نشان دهنده برازش ضعیف مدل است؟ خلاصه (banco2$caes) حداقل 1 ق. میانگین میانه 3rd Qu. حداکثر 0.0000 0.0000 0.0000 0.7804 1.0000 12.0000 mod1 <- glm(caes ~ 1, poisson, banco2) باقیمانده انحراف: حداقل 1Q میانه 3Q حداکثر -1.2493 -1.2493 -1.2493 6.5689 ضرایب: برآورد Std. خطای z مقدار Pr(>|z|) (Intercept) -0.24798 0.01078 -23.01 <2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده poisson برابر با 1) انحراف صفر: 15304 در 11027 درجه آزادی انحراف باقیمانده: 1530 11027 درجه آزادی AIC: 27654 تعداد تکرارهای امتیازدهی فیشر: 5 exp(mod1$ضرایب[1]) (تقاطع) 0.7803772 (mod2 <- lmer(caes ~ 1 + (1 | setor)، poisson، داده = banco2)) مدل ترکیبی خطی تعمیم یافته برازش فرمول تقریب لاپلاس: caes ~ 1 + (1 | تنظیم کننده) داده: banco2 AIC BIC logLik انحراف 13575 13590 -6785 13571 اثرات تصادفی: نام گروه ها Variance Std.Dev. setor (Intercept) 0.39817 0.63101 تعداد obs: 11028، گروه‌ها: setor، 559 جلوه‌های ثابت: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -0.41626 0.02937 -14.18 <2e-16 *** exp(fixef(mod2)) (Intercept) 0.6595108 با احترام!
پواسون نول GLMM میانگین متغیر پاسخ را دست کم می گیرد. آیا این نشان دهنده عدم تناسب است؟
25392
من اخیراً به نمرات گرایش علاقه پیدا کرده ام. من از ابزار SPSS ایجاد شده توسط دکتر F. Thoemmes برای محاسبه امتیازات تمایل با استفاده از متغیرهای درمان دو متغیره (مانند افسردگی) و چندین متغیر کمکی (مانند سن، جنس، افراد خانواده) استفاده کرده ام. سپس یک نمره تمایل به من داده می شود، اما در این فکر هستم که با آن چه کنم. من خوانده ام که آنچه معمول است این است که دو نفر را که دارای امتیازات گرایش تقریباً یکسانی هستند (به عنوان مثال، دو نفر شماره گروه 17 را دریافت می کنند) اما در واقع در متغیر درمان شما (مثلا افسردگی) متفاوت هستند، و سپس یک زوج انجام دهید. آزمون t بر اساس تعداد گروه و متغیرهای وابسته (به عنوان مثال، درآمد خانوار). در این مثال، می‌بینیم که چگونه دو فرد با همه گرایش‌های یکسان (به عنوان مثال، سن، جنس، افراد خانواده) اما در متغیر درمان شما متفاوت هستند، در واقع بر اساس افراد وابسته شما متفاوت هستند. این ایده برای من منطقی است، اما نرم افزار در واقع تطبیق را بر اساس امتیازات تمایل انجام نمی دهد، و من نمی دانم چگونه آنها را با استفاده از SPSS یا Excel مطابقت دهم، و نمی خواهم فعلاً برای یادگیری نحوه انجام این کار به خود زحمت بدهم. در یک برنامه/زبان دیگر (به عنوان مثال، R). این تنبلی، بیایید آن را بنامیم، مرا مجبور به تحقیق بیشتر کرده است. دو نویسنده بیان می‌کنند: پس از تکمیل تطابق، نمونه‌های همسان ممکن است با یک آزمون t غیر جفت‌شده مقایسه شوند. (تطبیق به اشتباه پیشنهاد می‌کند که داده‌های حاصل باید به‌گونه‌ای تجزیه و تحلیل شوند که گویی جفت‌های همسان هستند. نمونه‌های تیمار شده و تیمار نشده باید با این حال، مستقل در نظر گرفته شود، زیرا هیچ دلیلی وجود ندارد که باور کنیم نتایج افراد همسان به هر نحوی با هم مرتبط هستند). (Schafer & Hang, 2008). به نظر می‌رسد تحقیقات دیگر نشان می‌دهد که افراد اغلب نمرات گرایش را در رگرسیون‌های لجستیک در کنار متغیر مستقل مورد علاقه خود وارد می‌کنند و ببینند که چگونه متغیر مستقل پیش‌بینی می‌کند در حالی که میل برای آن کنترل می‌شود. اگرچه این خط تحقیق جالب است، اما باید اعتراف کنم که در مورد اینکه چه روش‌هایی ممکن است/بهترین روش‌ها از نظر انجام تحلیل‌های کمی پس از محاسبات امتیاز تمایل کمی گم شده‌ام. هر گونه راهنمایی در این مورد قابل قدردانی خواهد بود. احتمالاً سؤالات بعدی نیز خواهم داشت! ویرایش: می‌خواهم تاکید کنم که پس از دریافت امتیازات تمایلی که برای هر فرد محاسبه می‌شود، نگران انواع تحلیل‌های استنتاجی هستم. برای مثال، شاید بتوانم امتیاز تمایل به افسردگی (بله، خیر) را بر اساس متغیرهای کمکی (سن، تعداد افراد خانواده، مصرف سیگار، جنس، وضعیت) محاسبه کنم. این برنامه یک امتیاز تمایل را به عنوان یک متغیر جدید برای هر فرد محاسبه می کند. پس از این، من علاقه مندم ببینم که آیا افسردگی با درآمد خانوار مرتبط است یا خیر، در حالی که کنترل/در نظر گرفتن/تطابق (شاید کلمه را بر اساس روشی که پیشنهاد می کنید انتخاب کنید) اثر مرتبط با گرایش.
چگونه یا بهترین راه برای اعمال امتیازهای تمایل پس از تطبیق چیست؟
64543
من با داده‌های رفتاری شیرهای دریایی نر کار می‌کنم، با یک مدل دوجمله‌ای برای درک تأثیر متغیرهای مختلف در تعیین مکان رویارویی بین نرها (زمین در مقابل آب). برای این من چندین متغیر کمی و طبقه بندی دارم. من در حال آزمایش اهمیت نسبت شانس برای هر متغیر با استفاده از آزمون های نسبت درستنمایی هستم. برای مجموعه داده من، متغیر دما به 3 دسته مختلف تقسیم شد: مقادیر 1 <20 درجه سانتیگراد، مقادیر 2 بین 20 درجه سانتیگراد و 30 درجه سانتیگراد، و مقادیر 3> 30 درجه سانتیگراد. نتایج نسبت شانس نشان می دهد که احتمال وقوع یک تعامل تهاجمی در زمین در هنگام رفتن از بازه دمایی اول (<20 درجه سانتیگراد) به بازه دوم (30-20 درجه سانتیگراد) 9 درصد افزایش می یابد. با این حال، احتمال وقوع یک فعل و انفعال تهاجمی در زمین در هنگام رفتن از بازه دمایی دوم (30-20 درجه سانتی گراد) به بازه سوم (بیش از 30 درجه سانتی گراد) 8 درصد کاهش می یابد. هنگام اعمال آزمون نسبت درستنمایی (تابع lrtest) به این داده ها، یک مقدار P به من می دهد، اما چیزی که من نیاز دارم یک مقدار برای هر تغییر متغیر است: یکی برای تغییر بین بازه اول و دوم، و یک مقدار برای تغییر بین بازه دوم و سوم. این بدان معناست که برای درک اهمیت هر نسبت شانس، به آزمون نسبت احتمال نیاز دارم که متغیر طبقه‌بندی را در بر گیرد. اسکریپتی که من استفاده کردم این است: # MODEL WITH ALL VARIABLES > J_mod.a <- glm(as.factor(Place) ~ as.factor(TempF) + as.factor (AgType) + FemDen، data=JUNE، family= binomial(logit)) > J_mod.a فراخوانی: glm(formula = as.factor(Place) ~ as.factor(TempF) + as.factor(AgType) + FemDen، خانواده = دوجمله ای(logit)، داده = JUNE) ضرایب: (Intercept) as.factor(TempF)2 as. factor(TempF)3 as.factor(AgType)2 1.34820 0.08229 -2.53280 -1.73712 FemDen 0.11443 Degrees of Freedom: 124 Total (i.e. Null); 120 باقیمانده (7 مشاهده حذف شده به دلیل عدم وجود) انحراف صفر: 159.6 # MODEL WITHOUT TEMPERATURE > J_mod.TEMP <- glm(as.factor(Place) ~ as.factor (AgType) + FemDen, data=JUNE, family= logit)) > J_mod.TEMP فراخوانی: glm(formula = as.factor(Place) ~ as.factor(AgType) + FemDen، خانواده = دوجمله ای (logit)، داده = JUNE) ضرایب: (Intercept) as.factor(AgType)2 FemDen 0.01463 - 1.77035 0.08361 درجه آزادی: 124 مجموع (یعنی پوچ)؛ 122 باقیمانده (7 مشاهده به دلیل عدم وجود حذف شد) انحراف تهی: 159.6 انحراف باقیمانده: 129.4 AIC: 135.4 # تست نسبت احتمال بین دو مدل > J_LRT_TEMP <- lrTest, J_mod. 1: as.factor(Place) ~ as.factor(TempF) + as.factor(AgType) + FemDen Model 2: as.factor(Place) ~ as.factor(AgType) + FemDen L.R. Chisq d.f. P 2.371378e+01 2.000000e+00 7.089530e-06 پیشاپیش از همه شما که می توانید مقداری از وقت خود را صرف کرده و به من اطلاع دهید که من چه اشتباهی انجام می دهم یا چه چیزی را در اینجا از دست داده ام، تشکر می کنم. بهترین.
آزمون نسبت درستنمایی در R برای متغیرهای طبقه بندی
58321
من برای تجزیه و تحلیل آماری مطالعه یک جراحی خاص برای برداشتن یک سرطان خاص به کمک نیاز دارم. من از برنامه آماری R برای انجام تجزیه و تحلیل خود استفاده می کنم. داده های من در شیء study_data ذخیره می شوند. ### داده # ایجاد داده نمونه قابل تکرار set.seed(50) study_data <- data.frame( Patient_ID = 1:500, Institution = sample(c(New York, San Francisco, Houston,Chicago )، 500، T)، جنسیت = نمونه (c(مرد، مونث)، 500، T)، نژاد = نمونه (c(سفید، سیاه، اسپانیایی، آسیایی)، 500، T)، تومور_گرید = نمونه (c(یک، دو، سه، چهار)، 500 ،T)، مرحله_پاتولوژیک = نمونه (c(P0، Pa، Pis، P1، P2a، P2b، P3a، P3b، P4a، P4b)، 500، T)، بازوی_درمان = نمونه (c(یک، دو، سه، چهار)، 500، T)، سن جراحی = دور (runif(500،20،100))، Nodes_removed = round(runif(500,1,130))) داده ها به این صورت است: # اوج در شش خط اول سر داده (داده_مطالعه) بیمار_شناسه نژاد نژاد_درجه_تومور_مرحله_پاتولوژیک_درمان_بازو جراحی_سن گره ها_حذف شده 121 دو 77 130 2 2 سانفرانسیسکو زن اسپانیایی تبار سه پا دو 38 112 3 3 نیویورک زن سیاهپوست چهار P0 چهار 90 90 4 4 شیکاگو نر اسپانیایی تبار دو پیس چهار 46 4 5 5 هیوستون زن سیاه چهار P2a چهار 96 114 سیاه پی 6 نیویورک چهار 92 7 ### علاقه من من علاقه مندم در مورد اینکه چه متغیرهایی با تعداد غدد لنفاوی برداشته شده در طول جراحی مرتبط هستند بیشتر بدانم. اولین فکر من این بود که داده ها را با یک متغیر خاص طبقه بندی کنم و سپس میانگین تعداد گره های حذف شده را محاسبه کنم. به عنوان مثال، برای اینکه ببینم موسسه ای که در آن جراحی انجام شده است یا خیر، می توانم بنویسم: cbind(do.call(rbind, by(study_data$Nodes_removed, study_data$Institution, summary)) Min. 1 ق. میانگین میانه 3rd Qu. حداکثر شیکاگو 1 25.50 65.5 64.48 98.75 129 هیوستون 1 40.00 71.0 69.26 100.00 130 نیویورک 4 36.00 67.0 67.96 100.00 سانتا 156 65.76 99.00 127 این به من امکان می دهد گره های میانه حذف شده در هر شهر سازمانی را مقایسه کنم. ### سوال من می‌خواهم ارتباط بین همه متغیرهایم و نتیجه «گره‌های_حذف شده» را به طور کامل بررسی کنم. 1. آیا باید این آمار خلاصه ساده را برای همه متغیرهایم انجام دهم؟ 2. آیا لازم است نوعی آزمون فرضیه را برای همه انجمن ها انجام دهم تا بگویم که آیا آمار خلاصه متفاوت است یا خیر؟ به عنوان مثال، آیا باید برای هر مقایسه یک میانه و یک فاصله اطمینان محاسبه کنم؟ 3. یا باید از آزمون t برای مقایسه یک گروه با گروه دیگر استفاده کنم؟ 4. در مورد متغیر چند سطحی آیا باید از ANOVA استفاده کنم؟ 5. آیا تحلیل رگرسیون خطی در اینجا نقشی دارد؟ 6. اگر بخواهم یک مدل واحد بسازم که شامل هر متغیر پیش بینی کننده ممکن باشد، از چه روشی باید استفاده کنم؟ به عنوان مثال، بگویید که من بیشتر به ارتباط بین سنی که عمل جراحی انجام شده، «سن_جراحی» و «گره های_برداشته شده» علاقه مندم. با این حال، من می خواهم این ارتباط را برای عوامل مخدوش کننده بالقوه مانند جنسیت، نژاد، درجه تومور، بازوی درمان و غیره تنظیم کنم. بهترین راه برای انجام این کار برای من چیست؟ با تشکر از هر توصیه ای که می توانید بدهید!
مشاوره در مورد تجزیه و تحلیل آماری داده های بالینی با استفاده از آمار خلاصه، آزمون t، ANOVA و رگرسیون خطی
60047
من تعدادی اعداد $X={x_1,x_2,...,x_n}$ دارم. من تعدادی اعداد کوچک را به آنها اضافه می کنم و $Y={y_1، y_2،...، y_n}$ که در آن $y_i=x_i+\epsilon_i$ است. چگونه می توانم $Z={z_1,z_2,...,z_n}$ را پیدا کنم تا $\sum_{i=1}^n(z_i-y_i)^2$ را به حداقل برسانم به طوری که $\hat{\text{mean} }(Z)=\hat{\text{mean}}(X)$ و $\hat{\text{var}}(Z)=\hat{\text{var}}(X)$. من آن را برای حالت ساده $\hat{\text{mean}}(X)=0$ و $\hat{\text{var}}(X)=1$ حل کرده‌ام. با این حال، محاسبه برای حالت کلی بسیار طولانی است. من نمی دانم که آیا نسخه آماری بیشتری (امیدوارم کوتاهتر) از راه حل وجود داشته باشد. با احترام PS: $x_i\in R$
بهینه سازی واریانس میانگین محدود
56306
من می خواهم زمان صرف شده برای انجام کاری (به عنوان مثال هفته های شیردهی) را به عنوان یک متغیر مستقل در یک مدل خطی قرار دهم. با این حال، برخی از مشاهدات به هیچ وجه در رفتار دخالت نمی کنند. کدگذاری آنها به صورت 0 واقعاً درست نیست، زیرا 0 از نظر کیفی با هر مقدار >0 متفاوت است (یعنی زنانی که شیر نمی‌دهند ممکن است با زنانی که شیر می‌دهند بسیار متفاوت باشند، حتی آنهایی که برای مدت طولانی این کار را انجام نمی‌دهند). بهترین چیزی که می توانم به دست بیاورم مجموعه ای از ساختگی ها است که زمان صرف شده را دسته بندی می کند، اما این اتلاف اطلاعات ارزشمند است. چیزی شبیه به صفر تورم پواسون نیز یک احتمال به نظر می رسد، اما من دقیقا نمی توانم بفهمم که در این زمینه چگونه به نظر می رسد. کسی پیشنهادی داره؟
زمان صرف شده در یک فعالیت به عنوان یک متغیر مستقل
32272
فرض کنید سه سری زمانی، $X_1$، $X_2$ و $Y$ هستند، در حال اجرای رگرسیون خطی معمولی روی $Y$ ~ $X_1$ ($Y = b X_1 + b_0 + \epsilon$)، ما R^2 = U$. رگرسیون خطی معمولی $Y$ ~ $X_2$ دریافت $R^2 = V$. فرض کنید $U < V$ حداقل و حداکثر مقدار ممکن $R^2$ در رگرسیون $Y$ ~ $X_1 + X_2$ ($Y = b_1 X_1 + b_2 X_2 + b_0 + \epsilon$ ) چقدر است؟ من معتقدم حداقل $R^2$ باید $V$ + یک مقدار کوچک باشد، زیرا افزودن متغیرهای جدید همیشه $R^2$ را افزایش می‌دهد، اما من نمی‌دانم چگونه این مقدار کوچک را تعیین کنم و نمی‌دانم چگونه حداکثر برد را بدست آوریم خیلی ممنون
محدوده احتمالی $R^2$
25396
آیا مانند بررسی تشخیصی (مانند موارد سری زمانی) برای رگرسیون لجستیک و مدل لاگ تکمیلی انجام می شود؟
مدل رگرسیون لجستیک و لاگ تکمیلی
60045
من با آمار به خصوص در مبحث برآوردگرها و آمار کافی تازه کار هستم. من یادداشتی را می خوانم که می گوید: *بی طرفی ویژگی مطلوب (اما نه ضروری) یک برآوردگر خوب است**. سپس مثالی ارائه می‌کند که در آن برآوردگرهای بی‌طرف وجود ندارند. از آنجایی که توضیح بیشتری در مثال وجود ندارد، من در تلاش برای درک آن هستم. مثال می گوید: > اگر $X\sim B(\varphi(\theta))$ برای تابعی $\varphi$، سپس $\theta^*\in > K_0\iff\mathbb{E}_\theta\theta^*\equiv\theta^*(0)(1-\varphi(\theta))+\theta^*(1)\varphi(\theta)=\ theta,\forall\theta\in\Theta)$, > (که $K_0$ کلاس همه برآوردگرهای بی طرف است). این فقط برای مرجع است: برآوردگر $\theta_0^*=\theta_0^*(X)$ از یک کلاس $K$ از برآوردگرهای $\theta$، **کارآمد** در $K$ نامیده می‌شود. $\theta^*\ به K$، $$\mathbb{E_\theta}(\theta_0^*-\theta)^2\le\mathbb{E_\theta}(\theta*-\theta)^2,\forall\theta\in\Theta.$ $ برای یک تابع $b=b(\theta)،\theta\in\Theta$، اجازه دهید $$K_b=\{\theta^*:\mathbb{E}_\theta\theta^*=\theta+b(\theta),\forall\theta\in\Theta\}$$ کلاس همه باشد برآوردگرها با تعصب $b(\theta)$. من ایده اصلی برآوردگرها را درک می کنم، خاصیت مغرضانه و بی طرفانه بودن. اما من هیچ سرنخی ندارم که چرا برآوردگرهای بی طرفانه در مثال بالا وجود ندارند. میشه لطفا یکی برام توضیح بده؟ با تشکر فراوان
تلاش برای درک مثالی که برآوردگرهای بی طرفی وجود ندارد
107527
با فرض اینکه SVD استاندارد باشد (بدون تغییر آن) با $A = USV^T$، آیا ماتریس $A$ همیشه دارای مقادیر مثبت (0 تا $\infty$) خواهد بود؟ من متوجه شدم که ماتریس‌های $U$ و $V^T$ دارای مقادیر منفی با داده‌های نمونه‌ای هستند که استفاده کردم، اما می‌خواهم مطمئن باشم که ماتریس $A$ فقط مقادیر مثبت دارد تا بتوانم تکنیک نرمال‌سازی مناسب را انتخاب کنم. . همچنین، آیا یک رابطه ریاضی بین مقادیر در ماتریس اصلی و مقادیر در ماتریس $A$ SVD وجود دارد؟ به عنوان مثال، اگر میانگین و محدوده داده های اصلی شما چنین و چنان باشد، حداکثر مقدار در SVD تابعی از آن خواهد بود.
آیا مقادیر SVD (تجزیه ارزش واحد) همیشه مثبت هستند؟ آیا بین حداکثر مقدار SVD و داده اصلی رابطه وجود دارد؟
63536
من یک مجموعه داده با موضوعات ($\text{data}_0$) دارم. هر آزمودنی یک زمان پیگیری ($\text{fuy}$)، یک شاخص برای بروز ($\text{ind} = 0/1$) و یک متغیر دارد که به عنوان مثال، سال تشخیص را نشان می‌دهد ($\text {year}$). یک راه (من آن را ($\text{A}$) می‌نامم) برای نشان دادن نرخ‌های بروز بر اساس سال، محاسبه نرخ بروز هر سال و CI ($\text{data}_1$) و رسم آنها بر اساس سال‌ها است. برای مثال، با plotCI (کتابخانه = gplots). نمودار دیگر ترسیم نرخ بروز در برابر سال و پوشش منحنی هموار با منطقه CI ($\text{B}$) است. مزیت ($\text{A}$) این است که خطای استاندارد را برای هر سال در نظر می‌گیرد در حالی که در ($\text{B}$) اینطور نیست. ($\text{B}$) نویز را در بین همه نرخ‌های بروز در نظر می‌گیرد. نمی‌دانم که آیا می‌توان نمودار ($\text{B}$) را مستقیماً از داده‌های موضوع اصلی ($\text{data}_0$) با در نظر گرفتن عدم قطعیت هر سال و لرزش در طول سال‌ها برای CI- ترسیم کرد. منطقه (قطعه ($\text{C}$)). در زیر یک مثال جعلی برای شفاف سازی آورده شده است. امیدوارم کسی بتونه راهنماییم کنه با تشکر برای کمک. giordano # -- ایجاد داده جعلی # n آزمودنی در سال n <- 20 سال <- rep(c(1981:2000)، هر=n) سر(سال) # زمان پیگیری در سال برای هر آزمودنی fuy <- 5 + rnorm(400,0,1) hist(fuy) sum(fuy<=0) # نشانگر بروز: افزایش بروز در سال ind <- c() برای (i) در seq(5,14.5,0.5)) { temp <- i > runif(20,1,20) ind <- c(ind,temp) } ind <- as.numeric(ind) head(ind) # build data frame data0 <- data.frame(year=year, fuy=fuy, ind = ind) head(data0) with(data0, table(year,ind, useNA='ifany')) # -- محاسبه نرخ بروز و 95%-CI # با دست -روش (رگرسیون پواسون نرخ های بروز (ir) و Wald-CI) کتابخانه (sqldf) داده را ارائه می دهد1 <- sqldf (رب (انتخاب سال، SUM(fuy) fuy، SUM(ind) case، SUM(ind)/SUM(fuy) ir , FROM data0 , GROUP BY year ) ) data1 # CI: log(ir) +/- sqrt(1/cases) data1$cil <- with(data1, exp(log(ir) - qnorm( 0.975,0,1)*sqrt(1/cases))) data1$ciu <- with(data1, exp(log(ir) + qnorm(0.975,0,1)*sqrt(1/cases))) # -- (A) نمودار با کتابخانه CI (gplots) با (data1,plotCI(x=year, y=ir, li=cil,ui= ciu)) savePlot(paste(getwd(),/plot-A.jpeg, sep=),type=jpeg) # -- (B) نمودار با تابع هموارسازی ggplot(data=data1, aes(year,ir)) + geom_point() + stat_smooth() savePlot(paste(getwd(),/plot-B.jpeg, sep=),type=jpeg ) ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/L6Syz.jpg) ![شرح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/nEteq.jpg)
چگونه منحنی هموار نرخ بروز را با استفاده از داده های موضوع ایجاد کنیم؟
60049
من به نظریه گراف نزدیک می شوم (من پیشینه ای در علوم اجتماعی دارم) تا یک انجمن گفتگو را ترسیم کنم. انجمن/شبکه ​​من چهار نوع رئوس دارد: نویسنده موضوع، موضوع، نظر و نویسنده نظرات (کاربرانی که نظر می نویسند با کاربرانی که موضوع را می نویسند منطبق نیست). در این مورد من اولین پستی را که بعداً نظر داده می شود، رشته می نامم. من داده ها را از وب سایت انجمن خراشیده و در یک پایگاه داده رابطه ای چهار جدولی (یک جدول برای هر نوع راس) ذخیره کرده ام. کاری که اکنون می خواهم انجام دهم این است که با تجسم انجمن به عنوان یک نمودار و محاسبه ویژگی های شبکه، بازی با داده ها را شروع کنم. اما قبل از تجزیه و تحلیل داده ها باید پایگاه داده را برای نظرات اسپم فیلتر کنم. ایده این است که انجمن را به عنوان شبکه های مختلف توصیف کنیم (مثلاً با نمایش یک مجموعه از رئوس برای به دست آوردن یک طرح ریزی یک حالت). 1) از کدام فرمت فایل برای ریختن پایگاه داده خود استفاده کنم؟ حدس می‌زنم بسته به اینکه فایل را چگونه ساخته‌ام، گراف‌های متفاوتی خواهم داشت، اما هنوز هم هر فرمت فایلی وجود دارد که برای دستکاری داده‌ها و تغییر از یک گراف یک حالته به یک گراف دو بخشی بدون کامپایل مجدد فایل از پایگاه داده مفید است. ? 2) از کدام نرم افزار استفاده کنم؟ (من کمی با R آشنایی دارم)
از پایگاه داده رابطه ای تا نمودار: قالب بندی فایل و نرم افزار
107994
من در حال یادگیری PCA هستم، و در حالی که این یک سوال واضح به نظر می رسد، به نظر نمی رسد برخی از ایده هایی را که پشت آن بردارهای ویژه هنگام انجام رگرسیون متعامد با PCA استفاده می شود، درک کنم. کد من در زیر و یک نمودار است. من از یک مدل پارامتری M=[X.^2;X;Y] برای تخمین یک درجه دوم با پارامترهای [2;0.7;2] استفاده می کنم. من تجزیه ارزش ویژه را روی آن انجام می دهم. با انجام این کار، من جهت های واریانس در داده ها و مقیاس چنین واریانسی را پیدا می کنم. هدف PCA یافتن کدام ویژگی است که داده ها را به بهترین شکل توصیف می کند؟ بنابراین، هنگام استفاده از کد زیر، متوجه می‌شوم که تخمین با دو بردار ویژه (جهت‌ها) اول (V(:,1:2)') تناسب خوبی برای تابع فراهم می‌کند (نشان داده شده توسط دایره‌های سبز در نمودار). با این حال، من نمی‌توانم تخمین پارامتر ([2; 0.7;2]) را از این داده‌ها دریافت کنم (شاید شما بتوانید، اما من نتوانستم بفهمم چگونه). بنابراین در عوض من به بردار ویژه نهایی (V(:,3)) نگاه کردم و این پارامترهای تابع من را به من می دهد (با گرفتن V(1:2,3)/V(3,3)). اعمال این منجر به تخمینی می شود که توسط صلیب های قرمز نشان داده شده است. همانطور که از نمودار می بینید، هر دو تناسب بصری دقیق هستند. سوال من این است که چگونه می توانم این تابع را به دو روش جداگانه تخمین بزنم؟ من فکر کردم که اگر از بردار ویژه ای استفاده کنم که کوچکترین مقدار ویژه را نداشته باشد، یک خط را در جهت دیگری پیدا می کنم، نه جهت اصلی؟ هر کمکی که هر کسی بتواند به من بدهد قدردانی خواهد شد، فکر می‌کنم نحوه استفاده از PCA را می‌دانم، فقط در مورد این موضوع جهت‌گیری مطمئن نیستم. % PCA روی Quadratic با استفاده از مدل پارامتری % Setup data X=linspace(-1,1,100); Y=2*X.^2+0.7*X+2; M=[X.^2;X;Y]'; % نرمال کردن حول مرکز میانگین meanM=mean(M); MAdjust = M-repmat(meanM,100,1); % انجام تجزیه مقدار ویژه [V D]= eigs(cov(MAdjust)); % تخمین تابع با استفاده از V(:,1:2) FinalData1 = V(:,1:2)'*MAdjust'; MHat1=repmat(meanM,100,1)+(pinv( V(:,1:2))'*FinalData1)'; ٪ داده های شروع را رسم کنید و با استفاده از V(:,1:2) شکل؛ نگه دارید. scatter3(M(:،1)،M(:،2)،M(:،3)،15،'k'); scatter3(MHat1(:،1)،MHat1(:،2)،MHat1(:،3)،50، 'g','d'); % تابع تخمین با استفاده از V(:,3) c = meanM*(V(:,3)/V(3,3)); param = -V(1:2,3)/V(3,3) yhat = [X.^2;X;X.^0]'*[param ; ج]؛ % تابع تخمینی scatter3 را رسم کنید(X.^2,X,yhat,50, 'r','+'); xlabel('X^2');ylabel('X');zlabel('Y'); ![نقشه سه بعدی 2*X.^2+0.7*X+2 با پیش‌بینی‌های برآورد پارامتر تجزیه ارزش ویژه](http://i.stack.imgur.com/Aymch.jpg)
شهودی که پشت آن بردارهای ویژه در PCA برای رگرسیون متعامد استفاده می شود
57652
من سعی می کنم یک سری زمانی هفتگی را با استفاده از تابع R 'stl' تجزیه کنم. یکی از استدلال های مهم این تابع تعداد داده ها در هر چرخه است. طبیعتاً در این مورد، 52 انتخاب می شود. با این حال، داده های من هر هفته، در همان روز هفته منتشر می شود. از این رو من گاهی اوقات 53 داده در سال دارم. چیز مهمی نیست، موافقم. اما من می خواهم در اینجا دقیق باشم. آیا روش پذیرفته شده ای برای درمان این موقعیت ها وجود دارد؟ من می توانم به چندین راه حل فکر کنم: 1/ میانگین 2 داده آخر را در سال با 53 داده؟ 2/ 2 داده آخر یا 2 داده اول را در سالها با 53 داده میانگین می کنم؟ (بسته به زمانی که در سال هستیم) 3/ یک دیتاپوینت اضافی در سالهای با 52 سال اضافه کنم؟
استفاده از stl (تجزیه فصلی با لس) برای داده های هفتگی
53227
مجموعه ای از نقاط داده $(x_i,y_i)$ به من داده شده است. من باید یک نمودار پراکنده ترسیم کنم و تعیین کنم که آیا نقاط پرت وجود دارد یا خیر. اما روشی برای اندازه گیری اینکه کدام نقطه داده پرت است و کدام نه، به من آموزش داده نشده است. بنابراین چگونه می توانم آن را برای مثال در Sage یا R انجام دهم؟ من توسط گوگل متوجه شدم که حداقل دو تست برای انجام این کار وجود دارد، تست Dixon و Grubbs، بنابراین کدام یک را باید در این مشکل یاد بگیرم؟ x = c(1,34,6,47,10,49,23,32,12,16,29,49,28,8,57,9,31,10,21,26,31,52,21, 8،18،5،18، 26,27,26,32,2,59,58,19,14,16,9,23,28,34,70,69,54,39,9,21,54,26) y = c(47,76,33,78,62,78,33,64,83,67,61,85,46,53,55,71,59,41,82,56,39,89,31,43, 29,55, 81,82,82,85,59,74,80,88,29,58,71,60,86,91,72,89,80,84,54,71,75,84,79)
آزمایش برای دو متغیره پرت
114795
**مشکل** برای کار یادگیری ماشینی، مجموعه ای از پیش بینی ها را ایجاد می کنم. پیش‌بینی‌کننده‌ها در بسته‌های هستند - اندازه‌گیری‌های چند بعدی (در مورد من 3 یا 4 - بعدی). سوراخ بسته نرم افزاری تنها در صورتی معنا پیدا می کند که اندازه گیری شده باشد و همه با هم گرفته شده باشد. مشکل این است که «بسته‌های» مختلف پیش‌بینی‌کننده‌ها را می‌توان فقط برای بخش کوچکی از نمونه اندازه‌گیری کرد، و این بخش‌ها لزوماً برای «بسته‌های» مختلف تلاقی نمی‌کنند. از آنجایی که قطعات کوچک هستند، انباشتن منجر به کاهش قابل توجه دقت می شود (برای اینکه دقیق تر باشیم فاجعه بار) **راه حل های ممکن ** من می توانم متغیرهای ساختگی ایجاد کنم که مشخص کنند آیا اندازه گیری برای هر متغیر انجام شده است یا خیر. مشکل این است که وقتی جنگل های تصادفی متغیرهای تصادفی را ترسیم می کنند، این کار را به صورت جداگانه انجام می دهند. بنابراین دو راه اساسی برای حل این مشکل وجود دارد: 1) هر بسته را در یک پیش بینی ترکیب کنید. این ممکن است، اما به نظر می رسد اطلاعات از دست خواهد رفت. 2) متغیرهای ترسیم جنگلی تصادفی را نه به صورت جداگانه، بلکه با بسته های اجباری ایجاد کنید. **مشکل برای جنگل تصادفی** همانطور که جنگل تصادفی متغیرها را به صورت تصادفی ترسیم می کند، ویژگی هایی را که بدون استفاده از آنها بی فایده هستند (یا بسیار کمتر مفید هستند) را از بسته خود می گیرد. من احساسی دارم که منجر به از دست دادن دقت می شود. **مثال** به عنوان مثال من متغیرهای 'a','a_measure', 'b','b_measure' دارم. مشکل این است که متغیرهای «a_measure» تنها در صورتی معنا دارند که متغیر «a» وجود داشته باشد، برای «b» یکسان است. بنابراین یا باید «a» و «a_measure» را در یک متغیر ترکیب کنم، یا هر دو را به صورت تصادفی ترسیم کنم، در صورتی که حداقل یکی از آنها ترسیم شود. **سوال** وقتی مجموعه های مختلف پیش بینی کننده ها برای بخش های کوچکی از کل جمعیت اندازه گیری می شوند و این مجموعه از پیش بینی ها در بسته های اجباری آمده اند، بهترین راه حل های عملی برای مشکلات چیست؟ متشکرم!
ایجاد ترکیبات اجباری از متغیرها برای ترسیم توسط جنگل تصادفی
93812
اگر داده را نداشته باشم، اما فقط تخمین میانگین و واریانس دو توزیع گاما مستقل را داشته باشم. از چه نوع آزمونی می توانم برای آزمایش فرضیه صفر μ1=μ2 استفاده کنم؟
نحوه آزمایش اختلاف میانگین دو توزیع گاما
107990
من یک مسئله طبقه بندی باینری را با 4 متغیر پیش بینی حل می کنم. به نظر نمی رسد متغیرها به صورت خطی قابل تفکیک باشند. من از **شبکه های عصبی و کرنل SVM** استفاده کرده ام که کار می کنند و دقت مطلوبی را ارائه می دهند، اما به نوبه خود برای تفسیر بسیار پیچیده هستند و مشکلات تأخیر دارند. آیا تبدیلی مانند **box cox یا تبدیل قدرت** وجود دارد که بتوانم روی داده ها اعمال کنم و سپس از **رگرسیون لجستیک/ درخت تصمیم** برای طبقه بندی استفاده کنم. من می توانم چند درصد از دقت را قربانی کنم تا یک مدل قابل تفسیر ساده بدست بیاورم. از چه روش های مختلفی می توان برای تبدیل داده ها استفاده کرد
از چه روش هایی می توان برای تبدیل داده ها استفاده کرد؟
112262
من روی سند متن کار می کنم. من سعی می کنم سند را با استفاده از Mallet Language Tool Kit فیلتر کنم. سوالات من هستند. 1. من از Macintosh os استفاده می کنم. باید ant نصب کنم؟ 2. چگونه می توانم از بسته های این دایرکتوری class/cc/mallet/classify در Java eclipse استفاده کنم؟ متشکرم.
پرسش از کیت ابزار زبان Mallet
2282
به دنبال این سوال، من می خواهم به روشی شمارش کنم که چند بار از یک بسته در کار روزانه خود استفاده می کنم. آیا تابع/بسته ای برای انجام این کار وجود دارد؟ در صورت عدم وجود، چگونه چنین قابلیتی را ایجاد می کنید؟ روشی که من این کار را انجام می دهم این است که آن را تغییر می دهم تا در پایان هر جلسه R، یک فایل ورود به سیستم از دستورات در مکانی ذخیره شود. در آن فایل، تمام موارد کتابخانه و نیاز را بررسی می کنم. سپس نتایج را در یک فایل (با مقداری مهر زمان) ذخیره کنید. در نهایت، من ممکن است بخواهم یک تابع (یک بار در X) این فایل را به یک مکان FTP از راه دور ارسال کند - به طوری که سایر کاربران R بتوانند نتایج را تجزیه و تحلیل کنند. (آیا راهی برای انجام این کار با R وجود دارد؟!) اگر کسی بخواهد چنین مکانیزمی را بسازد - خوشحال می شوم با ارائه یک حساب FTP مربوطه و با انتشار این خبر در R bloggers به شما کمک کنم. خیر جامعه p.s (عمدتاً برای شین): مطمئن نبودم که آیا این سؤال باید در stackoverflow باشد یا اینجا. اگر این نوع سوال هنوز در meta.stat مورد بحث قرار نگرفته بود - باید باشد. اگر اینطور بود، خوشحال می شوم بدانم نتیجه آن بحث چه بوده است.
شمارش چند بار یک بسته در R بارگذاری شده است؟
106084
من از یک مدل GLM با خانواده دو جمله ای استفاده می کنم: glm (پاسخ ~ درمان، خانواده = دو جمله ای، داده = داده) تنها متغیر توضیحی _treatment_ یک متغیر طبقه بندی است. برازش مدل معلوم می‌شود که باقیمانده‌ها به وضوح واریانس یکسانی در بین سطوح درمان ندارند (هتروسکداستیکی). ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/W8jvT.png) سوال من این است که 1) در این شرایط چه کاری می توانم انجام دهم؟ gam() برای متغیرهای طبقه‌بندی معنی‌دار نیست. از طرف دیگر، gls() فقط برای مدل خطی قابل استفاده است. 2) اگر یک عامل تصادفی اضافی در مدل (GLMM) داشته باشم و باقیمانده ها همچنان ناهمگن باشند، چه؟ glmer(response~ Treatment + (1 | groupID)، خانواده = دوجمله ای، داده=dat) آیا تکنیک یا بسته های R وجود دارد که بتواند این مشکل را حل کند؟ این سوال با مدل‌سازی رگرسیون با واریانس نابرابر که موقعیت‌های مشابه را با مدل خطی می‌پرسد متفاوت است.
مدل glm یا glmm با واریانس نابرابر
112267
می خواهم بدانم تکنیک های رایج برای مقایسه دو هیستوگرام چیست؟ من هیستوگرام دو تصویر دارم و می‌خواهم ببینم آیا آنها شبیه هستند یا نه، یعنی ارتباطی بین آنها وجود دارد یا خیر. هیستوگرام برای دو قسمت مختلف بافت است. ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/octv6.jpg)
مقایسه دو هیستوگرام
69322
من به دنبال یک طرح آزمایشی مشترک برای مقایسه 6 رقم مختلف آفتابگردان و راهی برای تجزیه و تحلیل آن به عنوان بخشی از دوره ای هستم که می گذرانم. دانش رایج در کلاس من این است که آزمایش را در 4 بلوک تصادفی، هر کرت با 50 تا 100 بوته، جمع آوری دانه ها به صورت فله ای از هر کرت، و مقایسه میانگین ها در TUKEY در نرم افزار jmp توسط SAS، تنظیم کنم. آیا این روش درستی برای نزدیک شدن به این مقایسه بازده است؟ یا راه بهتری برای انجام آزمایشی وجود دارد؟ (کتاب/مقاله ای که بتواند قدم به قدم مرا برای طراحی و تحلیل این نوع آزمایشی راهنمایی کند نیز مفید خواهد بود) .....
چگونه یک آزمایش ساده عملکرد دانه را رسم و تجزیه و تحلیل کنیم؟
112264
$F(x,y) =\frac{1}{6}(x^2\, y+x\, y^2)\,,\quad 0\leq x\leq 2,\, 0\leq y \leq 1$ در بالا توزیع مشترک داده شده است، 1. چگونه تابع توزیع تجمعی y را دریابیم؟ 2. چگونه می توان تابع چگالی احتمال مشترک x و y را بدست آورد؟ من یک مبتدی در R هستم، دستورات اولیه را می دانم. با تشکر از کمک
چگونه pdf توزیع مشترک را در R پیدا کنیم؟
70086
به خوبی شناخته شده است که تصحیح بسل یک برآوردگر بی طرفانه از واریانس ایجاد می کند. کاری که اساسا انجام می دهد تقسیم بر $n-1$ به جای $n$ است. حالا کاری که من انجام دادم این است که چند عدد مانند $1،2،3،4،5،60$ را انتخاب کردم و واریانس جمعیت آن را محاسبه کردم که 452.92$ است. سپس تمام 4 ترکیب ممکن (در مجموع 15) را گرفتم و واریانس نمونه آنها را محاسبه کردم (تقسیم بر $n-1$) به ترتیب. میانگین واریانس نمونه 543.5 دلار است که 90.58 دلار کاهش دارد. هنگامی که واریانس جامعه (تقسیم بر $n$) نمونه ها را در نظر می گیرم، به جای آن، واریانس متوسط ​​407.63 دلار را دریافت می کنم که تنها با 45.29 دلار کاهش می یابد! من چندین آزمایش دیگر از همین نوع را با اعداد، جمعیت و حجم نمونه های مختلف انجام دادم، همه با این نتیجه عجیب که واریانس جمعیت نمونه ها نسبت به واریانس نمونه بی طرفانه کمتر سوگیری دارد. چگونه می تواند باشد؟ چه چیزی را از دست داده ام؟ **ویرایش** به دلیل بحث روشن در نظرات، این سوال بعدی را پست کردم: برآوردگر بی طرفانه واریانس برای نمونه ها *بدون* جایگزینی
آیا تصحیح بسل می تواند تخمین واریانس نمونه را حتی بیشتر مغرضانه کند؟
94839
من در مورد تست _F_ که توسط بسیاری از بسته های آماری همراه با خروجی رگرسیون استاندارد ارائه می شود تعجب کرده ام. همانطور که من متوجه شدم، _F_ را می توان با $$ F_{df_{reg},df_{res}} = \frac{R^2/df_{reg}}{(1-R^2)/df_{res} محاسبه کرد. }. $$ فرضیه آزمایش شده توسط این آزمون را می توان به دو روش مختلف فرموله کرد: $H_{0}$: P$^2 = 0$ $H_{1}$: P$^2 > 0$ یا $H_{0} $: همه $\beta_{i} = 0 $ $H_{1}$: یک یا چند $\beta_{i} \neq 0$ به نظر می‌رسد دو فرضیه اول نشان می‌دهند که آزمون _F_ یک دم، که به نظر می رسد با شهود من مطابقت دارد زیرا $R^2$ نمی تواند مقادیر منفی بگیرد. با این حال، مجموعه دوم فرضیه ها، آزمایش دو طرفه را پیشنهاد می کنند. به نظر من، آنها همچنین به نظر می رسد مطابقت مستقیمی بین نتیجه آزمون _F_ برای کل مدل ($R^2$) و آزمون های _t_ برای ضرایب فردی (که می دانم ممکن است همیشه اینطور نباشد) را پیشنهاد می کنند. بنابراین سوال من به این نتیجه می رسد: **آیا آزمون _F_، آزمایش اینکه آیا یک مدل مقدار قابل توجهی از واریانس را در مقایسه با مدل صفر توضیح می دهد، یک تست یک دنباله یا دو دنباله است و چرا؟**
آیا آزمون F برای R² در رگرسیون (چندگانه) یک یا دو دنباله است؟
102974
اخیراً، من یک بحث مداوم در مورد ANOVA در مقابل MANOVA داشتم، اما هنوز هیچ استدلالی برای MANOVA ندارم. همکار من داده ها را برای دو بار اندازه گیری ردیابی کرده است. معلوم است که مردم دو دسته هستند. هر دو گروه از نظر رشد در طول زمان (t1 تا t2) با مقیاس روان‌سنجی مقایسه می‌شوند. در حال حاضر، چندین ANOVA استفاده می‌شود که هر کدام در هر مقیاس روان‌سنجی. من استدلال می کنم که یک MANOVA به دلیل این واقعیت که ANOVA های متعدد منجر به تجمع اشتباهات آلفا می شوند، مناسب تر است. همکار من استدلال متقابلی دارد مبنی بر اینکه متغیرها ساختارهای غیروابسته را اندازه گیری می کنند، بنابراین ما می توانیم ANOVA های متعدد را توجیه کنیم. مسئله دوم این است که در SPSS هیچ گزینه ای برای ارائه MANOVA با تکرار اندازه گیری وجود ندارد. نظر شما چیست؟ بهترین آرزوها
چه چیزی در مورد داده شده مناسب تر است: ANOVA یا MANOVA؟
105190
من سعی می‌کنم از SVM‌های تک کلاسی LIBSVM برای طبقه‌بندی استفاده کنم و باید دسته‌بندی پست جمع‌بندی زیر را استخراج کنم (یعنی متغیری که تابع تصمیم می‌گیرد) $$ \Sigma_{i=1}^{N} \alpha_i K( z,z_i) $$ من در این مورد خیلی مطمئن نیستم، بنابراین فقط می خواهم بررسی کنم که ایده درستی دارم، اما آیا می توانم مجموع را فقط با استفاده از متغیر اولیه محاسبه کنم $\textbf{w}$؟ بنابراین برای مدل libsvm $m$ من فقط w = (m.SVs)'*(m.coef) را صدا می زنم. و سپس $\textbf{w}^T \textbf{z}$ را محاسبه کنید، که در آن $\textbf{z}$ بردار ویژگی چیزی است که می‌خواهم طبقه‌بندی کنم. با این حال مطمئن نیستم، حدس می‌زنم محاسبه عملکرد هسته به طور واضح ساده‌تر باشد، اما اگر کسی راه خوبی برای دسترسی به اطلاعات در libsvm می‌داند، بسیار سپاسگزار خواهم بود.
استخراج متغیر تابع تصمیم از libsvm
2715
من کتاب G van Belle در مورد قواعد آماری شست، و تا حدی خطاهای رایج در آمار (و نحوه اجتناب از آنها) نوشته فیلیپ اول گود و جیمز دبلیو هاردین را دوست دارم. آنها هنگام تفسیر نتایج حاصل از مطالعات تجربی و مشاهده ای به مشکلات رایج می پردازند و توصیه های عملی برای استنتاج آماری یا تجزیه و تحلیل داده های اکتشافی ارائه می دهند. اما من احساس می‌کنم که دستورالعمل‌های «مدرن» تا حدودی کمبود دارند، به‌ویژه با استفاده روزافزون از آمار محاسباتی و قوی در زمینه‌های مختلف، یا معرفی تکنیک‌هایی از جامعه یادگیری ماشین در، به عنوان مثال. آمار زیستی بالینی یا اپیدمیولوژی ژنتیکی جدا از ترفندهای محاسباتی یا مشکلات رایج در تجسم داده‌ها که می‌توان در جاهای دیگر به آنها پرداخت، می‌خواهم بپرسم: ** مهمترین قوانین سرانگشتی که برای تجزیه و تحلیل کارآمد داده‌ها توصیه می‌کنید کدامند؟** (_یک قانون در هر پاسخ، لطفا_) من من به دستورالعمل هایی فکر می کنم که ممکن است برای یک همکار، محققی بدون پیشینه قوی در مدل سازی آماری، یا دانشجوی دوره متوسط ​​تا پیشرفته ارائه دهید. این ممکن است مربوط به مراحل مختلف تجزیه و تحلیل داده ها باشد، به عنوان مثال. استراتژی های نمونه گیری، انتخاب ویژگی یا ساخت مدل، مقایسه مدل، پس برآورد و غیره.
قوانین سرانگشتی برای آمار مدرن.
105199
اخیراً سعی کرده‌ام در مورد یادگیری آنلاین بیشتر بیاموزم (کاملاً جذاب است!)، و یکی از موضوعاتی که نتوانستم درک خوبی از آن داشته باشم این است که چگونه در مورد انتخاب مدل در شرایط آفلاین در مقابل زمینه‌های آنلاین فکر کنم. به طور خاص، فرض کنید ما یک طبقه‌بندی کننده $S$ را به صورت آفلاین، بر اساس مجموعه داده‌های ثابت $D$، آموزش می‌دهیم. مثلاً، ویژگی‌های عملکرد آن را از طریق اعتبارسنجی متقاطع تخمین می‌زنیم و بهترین طبقه‌بندی‌کننده را از این طریق انتخاب می‌کنیم. این چیزی است که من در مورد آن فکر می‌کردم: پس چگونه می‌توانیم در مورد اعمال $S$ در یک تنظیمات آنلاین اقدام کنیم؟ آیا می توانیم فرض کنیم که بهترین $S$ موجود در حالت آفلاین نیز به عنوان یک طبقه بندی آنلاین به خوبی عمل می کند؟ آیا جمع‌آوری داده‌ها برای آموزش $S$ منطقی است، سپس همان طبقه‌بندی کننده $S$ را گرفته و آن را در یک تنظیمات آنلاین با همان پارامترهای موجود در $D$ عملیاتی کنید، یا ممکن است روش دیگری بهتر باشد؟ اخطارها در این موارد چیست؟ نتایج کلیدی در اینجا چیست؟ و غیره. به هر حال، اکنون این موضوع وجود دارد، حدس می‌زنم چیزی که به دنبال آن هستم منابع یا منابعی باشد که به من (و امیدوارم دیگرانی که به این موضوع فکر کرده‌اند!) کمک کند تا از تفکر صرفاً به صورت آفلاین گذر کنم، و چارچوب ذهنی را برای فکر کردن به موضوع انتخاب مدل و این سؤالات به شیوه ای منسجم تر با پیشرفت خواندن من ایجاد کنید.
انتخاب مدل در آموزش آفلاین در مقابل آموزش آنلاین
97596
من به دنبال روشی برای محاسبه مساحت همپوشانی بین دو تخمین چگالی هسته در R، به عنوان معیار تشابه بین دو نمونه هستم. برای روشن شدن، در مثال زیر، باید مساحت ناحیه همپوشانی ارغوانی را کمیت کنم: library(ggplot2) set.seed(1234) d <- data.frame(variable=c(rep(a, 50)) , rep(b، 30))، value=c(rnorm(50)، runif(30، 0، 3))) ggplot(d، aes(value, fill=variable)) + geom_density(alpha=.4, color=NA) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/gEep0.png) سوال مشابهی مطرح شد در اینجا، تفاوت این است که من باید این کار را برای داده های تجربی دلخواه انجام دهم تا توزیع های عادی از پیش تعریف شده. بسته «همپوشانی» به این سؤال می‌پردازد، اما ظاهراً فقط برای داده‌های مهر زمانی، که برای من کار نمی‌کند. شاخص Bray-Curtis (همانطور که در تابع vegdist(method=bray) بسته وگان پیاده سازی شده است) نیز مرتبط به نظر می رسد اما دوباره برای داده های تا حدودی متفاوت. من هم به رویکرد نظری و هم به عملکردهای R که ممکن است برای اجرای آن استفاده کنم علاقه مند هستم.
چگونه می توان همپوشانی بین چگالی احتمال تجربی را محاسبه کرد؟
105194
من یک مولد اعداد تصادفی دارم که اعداد صحیح را در «[0, r)» تولید می‌کند. من می خواهم یک قطعه کد بنویسم تا آزمایش کنم که آیا اعداد از آن واقعاً به طور یکنواخت با استفاده از آزمون کای دو توزیع شده اند یا خیر. من «r» را انتخاب می‌کنم تا خیلی بزرگ باشد مانند «1000000» و اعداد صحیح تصادفی «10000000» بار تولید می‌کنم. سپس X^2 را دریافت می کنم. کار بعدی که باید انجام دهم این است که مقدار chi-square را در برابر جدول درجه آزادی بررسی کنم. اما من اجازه ندارم یکی داشته باشم یا از ماشین حساب توزیع آنلاین استفاده کنم. چه کار کنم؟ شخصی به من گفت که من فقط می توانم یک بازه را محاسبه کنم: «r^2 - 2*r*(sqrt r)» و «r^2+2*r*(sqrt r)»، سپس ببینم آیا مقدار در آن قرار می گیرد یا خیر فاصله یا نه اما دلیلش را هم نمی داند. آیا روش بالا صحیح است؟
چگونه می توانم بدون اینکه جدول ارزش بحرانی به من داده شود، تست کای دو انجام دهم؟
63535
من تعدادی نقطه $x_1,\ldots,x_m\in\mathbb{R}^n$ با وزن‌های $w_1,\ldots,w_m$ بین 0 و 1 دارم. یک بیضی وجود دارد که حاوی غلظت بسیار بالایی از نقاط است. با وزنه های نزدیک به یک، اما نقاط زیادی نیز در خارج از بیضی با وزنه های بزرگ پراکنده شده اند و همه نقاط بیضی دارای وزن های بزرگ نیستند. با این حال، از بازرسی، بسیار واضح است که مرزهای این بیضی کجاست. من سعی می کنم $\mu\in\mathbb{R}^n$ و $C\succ0$ را طوری تخمین بزنم که بیضی با تمام نقاط $\left\{x\middle|(x-\mu)^ تعریف شود. T C (x-\mu) < 1\right\}$. من سعی می کنم این کار را با حل کردن: $\min_{\mu,C\succeq 0} \sum_{i=1}^m w_i L((x_i-\mu)^T C (x_i-\mu))$ انجام دهم که $L(x) = 0$ اگر $|x|<1$، $L(x) = |x|-1$ اگر $x\ge 1$. همچنین ممکن است ارزش افزودن یک جریمه بر روی تعیین‌کننده گزارش $C$ را داشته باشد، که معادل جریمه کردن حجم بیضی است. و من دو سوال دارم 1) آیا این به عنوان یک روش قوی برای یافتن یک بیضی مرزی منطقی است؟ آیا با توجه به مشکلی که توضیح دادم هدف طبیعی تری وجود دارد؟ من می‌دانم که حل‌کننده‌هایی برای یافتن حداقل حجم بیضی وجود دارد، اما این حل‌کننده‌ها شامل وزن یا پرت نمی‌شوند. 2) چگونه می توانم این بهینه سازی را پیاده سازی کنم؟ من چیز زیادی در مورد ترکیب برنامه نویسی نیمه معین با تلفات نوع لولا ندیده ام.
پارامترهای یک بیضی را در حضور نقاط پرت بزرگ تخمین بزنید
24118
جستجوی اینترنت برای آموزش PCA هزاران نتیجه (حتی ویدیو) به دست می دهد. بسیاری از آموزش ها بسیار خوب هستند. اما من نمی‌توانم هیچ مثال عملی پیدا کنم که در آن PCA با استفاده از مجموعه‌های داده‌ای که می‌توانم برای نمایش استفاده کنم توضیح داده شود. من به یک آموزش نیاز دارم که مجموعه داده های کوچکی را ارائه دهد که ترسیم آن آسان باشد (نه 10000 خط داده با 100 بعد) قبل و بعد از تجزیه و تحلیل PCA و تفاوت/نتایج را می توان به وضوح نشان داد. (من فکر می کنم یک مثال عملی گام به گام با داده هایی که حدود 100 خط و 3 بعد دارد عالی خواهد بود). پیشنهادی دارید؟؟
آموزش عملی PCA با داده
52171
ما یک سری زمانی اتورگرسیو پراکنده به طول 1000 را با پیروی از مدل X(t)=0.2X(t-1)+0.1X(t-3)+0.2X(t-5)+0.3X(t-10)+ در نظر می گیریم. 0.1X(t-15)+Z(t) با ضرایب غیر صفر در تاخیرهای 1،3،5،10 و 15، که در آن نوآوری های Z(t) i.i.d.Garussians با میانگین صفر و انحراف استاندارد 0.1 هستند. سوال این است که چگونه می توان 1000 سری زمانی را از مدل با R یا SAS شبیه سازی کرد؟ با تشکر
چگونه می توان سری زمانی را از یک مدل معین تولید کرد؟
112268
من می‌خواهم مقادیر p را برای اهمیت سودهای قانون تجارت همانطور که توسط LeBaron و Brock (1992) توصیف شده است، بدست بیاورم. نویسنده از آنچه توسط افرون (1973) به نام Bootstrapping توسعه داده شده است، استفاده کرده است. به این صورت است: 1. یک قانون معاملاتی (یعنی متقاطع های SMA) روی یک سری قیمت اجرا کنید. 2. میانگین بازده تولید شده توسط این قانون را محاسبه کنید و آن را ret.mean.original نامید. با شروع از اولین مقدار سری اصلی، این بازگشت ها را جایگزین کنید و اضافه کنید. 4. قانون معاملات را روی سری «قیمت جدید» اجرا کنید و میانگین بازدهی را محاسبه کنید. آن را ret.mean.new بنامید. 5. اگر ret.mean.new > ret.mean.original یک 1 وارد برداری به نام حلقه می شود. اگر ret.mean.new < ret.mean.original یک 0 وارد حلقه در موقعیت مربوطه می شود. 6. مراحل 3-5 را 10.000 بار تکرار کنید. 7. همه موارد را از حلقه جمع کنید و بر 10.000 تقسیم کنید. این مقدار پس از آن مقدار p تقریبی برای سودآوری قانون معاملاتی مورد بررسی است. H0 البته سودآوری صفر است. بنابراین کد من این است: require(quantmod) # بارگذاری داده‌های قیمت از یاهو به نیاز (TTR) # برای قوانین معاملاتی نیاز دارد (PerformanceAnalytics) # برای نمودارها ابتدا یک بک‌آست روی سری قیمت واقعی بازار اجرا می‌کنیم تا ret.mean را بدست آوریم. اصلی # بارگذاری داده های شاخص S&P 500 از Yahoo! Finance getSymbols(SPY, from=2000-01-01, to=2014-05-01) Prices = SPY$SPY.Adjusted # دریافت بازده گزارش از قیمت ها ret = ROC(prices,type=continuous ) ret[1] = 0 # استراتژی‌ها را تعریف کنید # میانگین بازگشت rsi2 = RSI (قیمت‌ها، 2) # روند زیر sma.5 = SMA (قیمت‌ها، 5) sma.200 = SMA (قیمت‌ها، 200) # ایجاد سیگنال‌های خرید/فروش # میانگین بازگشت sig.mr2 = ifelse(rsi2 < 50، 1، -1) sig.mr2 = تاخیر ( sig.mr2) سیگنال را # تأخیر انداخت تا سیگنال امروز فردا اعمال شود # روند زیر sig.tf.200.5 = ifelse(sma.200 <sma.5, 1, -1) sig.tf.200.5 = lag(sig.tf.200.5) # مقادیر از دست رفته را با صفر جایگزین کنید sig.mr2[is.na(sig.mr2)] = 0 sig.tf.200.5[is.na(sig.tf.200.5)] = 0 #استراتژی ret.mr2 = (ret*sig.mr2) ret.tf.200.5 = (ret*sig.tf.200.5) # برش سری ret.tf.200.5 = ret.tf.200.5[-c(1:200) ، ] # نمودار سری بازگشتی را برای مشاهده نحوه عملکرد آن بازده = cbind(ret, ret.tf.200.5, ret.mr2) ret.tf.50.15) colnames(returns) = c(Buy and Hold,TF.200.5MR2) chart.CumReturns(returns,geometric=F,legend.loc=بالا سمت چپ ) تا اینجا همه چیز خوب کار می کند. حال به بخش دشواری که من متوجه نمی شوم اشتباه می کند: # حلقه را از اینجا شروع کنید N = 200 # تعداد شبیه سازی حلقه = mat.or.vec(N,2) برای (i در 1:N){ # نمونه با جایگزینی از توزیع بازگشتی شاخص ret.new = (sample(ret, length(ret), replace = T , prob = تهی xts(prices[[1]]*exp(cumsum(ret.new))) # define strategies # mean reversion rsi2.new = (RSI(prices.new,2)) # روند به دنبال sma.5.new = (SMA (prices.new,5)) sma.200.new = (SMA(prices.new,200)) # ایجاد سیگنال خرید/فروش # میانگین بازگشت sig.mr2.new = (ifelse(rsi2.new < 50, 1, -1)) sig.mr2.new = تاخیر (sig.mr2.new,na.pad = TRUE) sig.tf.200.5.new = (ifelse(sma.200.new < sma.5.new، 1، -1)) sig.tf.200.5.new = lag(sig.tf.200.5.new,na.pad = TRUE) # مقادیر از دست رفته را با صفر جایگزین کنید sig.mr2.new[is.na(sig.mr2.new)] = 0 sig .tf.200.5.new[is.na(sig.tf.200.5.new)] = 0 #استراتژی ret.mr2.new = (ret.new*sig.mr2.new) ret.tf.200.5.new = (ret.new*sig.tf.200.5.new) # سری ret.tf.200.5 را برش دهید .new = ret.tf.200.5.new[-c(1:200)، ] Loop[i,1] = if (mean(ret.tf.200.5.new) > mean(ret.tf.200.5)) {1}else{0} حلقه[i,2] = if (mean(ret.mr2 .new) > mean(ret.mr2)) {1}else{0} } #Loop p.value.ret.tf.200.5 = sum(Loop[,1]/N) p.value.ret.mr2 = sum (حلقه[,2]/N) # نتایج p.value.ret.tf.200.5 p.value.ret.mr2 # نمودارهای سری شبیه سازی شده returns.new = cbind(ret.new، ret.tf.200.5.new، ret.mr2.new) نمودار. اولین مورد این است: مقدار p برای سود متقاطع SMA همیشه حدود 0.4 است که برای اهمیت سود اصلی بسیار بد است. در مقاله اصلی، مقادیر p همیشه حدود 0.01 هستند. اما سری زمانی که آنها استفاده کردند از سال 1920 تا 1990 یا بیشتر بود. بنابراین مقدار p بالا ممکن است نتیجه v باشد
نتایج بوت استرپینگ برای مقادیر p از اهمیت سود قانون تجارت
102979
ما در حال تلاش برای کشف یک استدلال شهودی در پشت ادغام اثر تصادفی مشاهده نشده هستیم. فرمول خاص این است: $f\big(y_i|x_i;\beta، \sigma_c\big)=\int_{-\infty}^{+\infty}\Big(\prod_{i=1}^{T}f_t(y_{it}|x_{it};c,\beta) \Big)(1/\sigma_c)\phi(c/\sigma_c)dc$ فکر می‌کنم ما بیشتر این ایده را دریافت می‌کنیم: شما یک افکت تصادفی به یک فرد می‌دهید تا مدل کند. اثر مشاهده نشده مانند IQ یا سلامتی او. اما این اثر تصادفی مشاهده نشده است، بنابراین شما آن را ادغام می کنید. اما سوال من در اینجا مطرح می شود که باعث می شود در درک خود شک کنم: آیا احتمال همه مقادیر ممکنی را که اثر تصادفی می تواند بگیرد محاسبه می کنید؟ پس چرا می گویید که آن را ادغام کرده اید؟ آیا به این معنی است که شما اجازه می‌دهید جلوه تصادفی همه مقادیر ممکن را بگیرد و فقط احتمالاً $\beta$ را با هر مقداری از جلوه تصادفی انتخاب کنید؟
توضیح بصری ادغام کردن اثر تصادفی
24115
آیا روش Box-Cox برای مدل های گاوسی خطی با اثرات تصادفی وجود دارد؟
تبدیل Box-Cox برای مدل های ترکیبی
52177
سلب مسئولیت: این برای یک پروژه تکلیف است. من سعی می کنم بسته به چندین متغیر بهترین مدل را برای قیمت الماس ارائه کنم و به نظر می رسد که تا به حال یک مدل نسبتاً خوب دارم. با این حال، من به دو متغیری برخورد کرده‌ام که آشکارا هم خط هستند: > با (الماس، کور (داده‌ها. قاب (جدول، عمق، قیراط. وزن))) جدول عمق جدول قیراط. 1.00000000 0.01779489 قیراط. وزن 0.05237998 0.01779489 1.00000000 جدول و عمق به یکدیگر وابسته هستند، اما من همچنان می خواهم آنها را در مدل پیشگوی خود لحاظ کنم. من تحقیقاتی در مورد الماس انجام دادم و متوجه شدم که Table و Depth طول بالای سطح و فاصله از بالا تا انتهای یک الماس است. از آنجایی که به نظر می‌رسد این قیمت‌های الماس با زیبایی مرتبط است و به نظر می‌رسد زیبایی نسبت‌های مرتبطی دارد، من قصد داشتم نسبت آنها را مثلاً $\frac{Table}{Depth}$ برای پیش‌بینی قیمت‌ها لحاظ کنم. آیا این روش استاندارد برای برخورد با متغیرهای خطی است؟ اگر نه، چیست؟ ویرایش: این یک نمودار از عمق ~ جدول است: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/utIua.png)
با متغیرهای خطی چه کنیم؟
63538
من سعی می کنم از glmer برای ایجاد مدل های اثرات ترکیبی لجستیک (LMEM) استفاده کنم و سپس مقایسه مدل بین آنها را اجرا کنم. پاسخ دهندگان می توانند روی بله (کد 1) یا نه (0) که به عنوان DV استفاده می شود کلیک کنند. آنها می توانند در طول زمان به هر محرک سه پاسخ بدهند. اثرات ثابت عبارتند از مدت زمان مشاهده یک محرک در نقطه هر رتبه (پیوسته، متغیر اصلی مورد علاقه)، عدد رتبه (1، 2، 3، که با مدت زمان مشاهده تجمعی همبستگی بالایی دارد) و اینکه آیا پاسخ واقعی است. بله یا نه بود (که من آن را صحت می نامم). من مدل های خود را به این صورت مشخص کرده ام: **مدل پیچیده** -- پاسخ = 1 + تعداد امتیاز (1-3) + مدت زمان مشاهده تجمعی + صحت + (1 + مدت زمان تجمعی | تعداد شرکت کننده) + (1 + مدت زمان مشاهده تجمعی | شماره مورد محرک) **مدل ساده** -- پاسخ = 1 + عدد رتبه بندی (1-3) + صحت + (1 + مدت زمان تجمعی | تعداد شرکت کننده) + (1 + مدت زمان مشاهده تجمعی | شماره مورد محرک) مدل ساده اثر اصلی مدت زمان تماشای تجمعی را ندارد. درخواست anova (ساده، پیچیده) موارد زیر را به دست می‌دهد: داده‌ها: مدل‌های داده: simpleML: resp ~ 1 + پاسخ بدون + صحت + (1 + cumdur + درستی | pno) + simpleML: (1 + cumdur | itemno) پیچیدهML: resp ~ 1 + پاسخ بدون + کمدور + صحت + (1 + کودور + صحت | پیچیدهML: pno) + (1 + cumdur |. itemno) Df AIC BIC logLik Chisq Chi Df Pr(>Chisq) simpleML 12 2248.1 2313.8 -1112.0 complexML 13 2241.1 2312.3 -1107.5 ** 8.950.6. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 من این را به این معنا می‌دانم که افزودن متغیر مدت زمان مشاهده تجمعی به طور قابل توجهی مدل را بهبود می‌بخشد. من علاقه مندم بدانم که چگونه شانس پاسخ دادن به بله با هر واحد اضافی مدت زمان مشاهده تجمعی (بر حسب ثانیه اندازه گیری می شود) تغییر می کند. بنابراین برای انجام این کار، من فکر کردم که باید مدل پیچیده را با جزئیات بیشتری بررسی کنم: مطمئناً بتا در آنجا گزارش می شود، و سپس می توانم از تابع پیوند توان استفاده کنم تا به من یک شانس گزارش بدهم (امیدوارم تا اینجا درست گفته باشم) . بنابراین مدل پیچیده اینجاست: مدل ترکیبی خطی تعمیم یافته متناسب با تقریب لاپلاس فرمول: resp ~ 1 + پاسخ no + cumdur + درستی + (1 + cumdur + درستی | pno) + (1 + cumdur | itemno) داده: داده AIC BIC logLik انحراف 2241 2312 -1108 2215 اثرات تصادفی: گروه ها نام واریانس Std.Dev. Corr pno (Intercept) 3.1359e-01 0.5599916 cumdur 3.3268e-05 0.0057679 -0.014 درستی 6.8532e-01 0.8278393 -0.900 0.900 0.061 itno3.063 0.5984182 cumdur 7.7778e-05 0.0088192 -0.052 تعداد obs: 1764 گروه: pno, 49; itemno, 12 اثرات ثابت: Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) 0.326981 0.314613 1.039 0.299 answerno -0.224734 0.148566 -1.513 0.130 cumdur -0.001513 0.001513 0.001513 0.00 - <<-------- ** صحت 0.387681 0.432779 0.896 0.370 همبستگی جلوه های ثابت: (Intr) rspnsn cumdur پاسخno -0.014 cumdur -0.144 -0.759 -0.759 - 0.759 اول این صحت -0. p-value غیر معنی دار است. من فرض می‌کردم که p-value در اینجا یک مقدار جزئی است: اثر مدت زمان تجمعی زمانی که سایر متغیرها روی صفر نگه داشته می‌شوند. بنابراین این من را نگران می کند. دوم اینکه بتا فوق العاده کوچک است و نمایی 0.001513- = 0.9985 است. در شرایط واقعی، این بدان معناست که برای هر 1 ثانیه از زمان تماشای تجمعی، شانس قضاوت بله 0.002٪ (1 - 0.9985 = ) کمتر است. یا به ازای هر 100 ثانیه زمان تماشای تجمعی (که احتمالاً به طور متوسط ​​تقریباً نصف طول یک آیتم محرک است)، احتمال قضاوت بله 0.2٪ کمتر است. این بسیار کوچک به نظر می رسد که p=.776 برای من منطقی است. اما پس چرا آزمون نسبت احتمال (یعنی آنوا (پیچیده، ساده)) یک اثر قابل توجه قوی پیدا می کند؟ من سعی کردم برای پاسخ‌های مختلف در گوگل جستجو کنم، اسناد بیتس را خوانده‌ام و حتی از همکارانم پرسیدم، اما بی‌فایده بود. از هرگونه کمکی بسیار قدردانی می شود! * * * ## ویرایش - پاسخ ممکن است؟ دیو وینسون به اندازه کافی مهربان بوده و به من کمک کرده است، و من اکنون اطلاعات بیشتری دارم. این اطلاعات کاملاً به او نسبت داده شده است (و هر اشتباهی کاملاً به دلیل سوء تفاهم من است). من در حال حاضر اثرات تصادفی را نادیده گرفته‌ام و پاسخ (بله/خیر، محور y) را روی عدد رتبه‌بندی (1، 2 یا 3، محور x) تغییر داده‌ام. این y = 0.61 - 0.05x است، که در آن x عدد رتبه‌بندی و y پاسخ پیش‌بینی‌شده است: *[ظاهراً نمی‌توانم تصاویری را بدون شهرت کافی پست کنم. مزاحم. امیدواریم مدل بالا تا حدودی از تاثیر به شما ایده بدهد.] پس از انجام این کار، من باقیمانده را محاسبه کردم (y منهای پاسخ
تفسیر ضرایب از مدل اثرات مختلط لجستیک
93818
من شرایط زیر را دارم: پزشک عمومی (gp)، بیمار (pat) و مشاوره (مضرات). هر gp چندین بیمار دارد و هر بیمار می تواند 1 یا بیشتر مشاوره با ویژگی های خاص cons_x داشته باشد. نتیجه در مشاوره سطح y=0/1 است. یک مدل ممکن می تواند (در نماد lmer/R) y ~ gp_sex + pat_sex + pat_age + cons_x + (1|gp) + (1|gp:pat) gp یک متغیر تصادفی است و pat در gp تو در تو است. از آنجایی که نتیجه 0/1 است (ارجاع به متخصص بله/خیر)، مدل مناسب یک رگرسیون لجستیک چند سطحی است. (1) مشکل: 50% بیماران فقط یک جلسه مشاوره دارند، یعنی تکراری وجود ندارد، دیگران 2، 3 تا 6 جلسه مشاوره دارند. من می خواهم بدانم چگونه با این نوع شرایط کنار بیایم. به عبارت دیگر: من گروه (بیماران) تنها با یک مشاوره دارم. بنابراین، درون گروه به دلیل تنها عضو گروه همبستگی کامل است. آیا چارچوب مدل های مختلط با این موضوع کنار می آید؟ (2) سؤال دیگری که مطرح می‌شود: تعداد مشاوره‌ها تأثیر را بر بیمار می‌اندازد، زیرا همان بیمار به تعداد مشاوره‌ای که دارد، ورودی دارد. هر چه بیمار مشاوره بیشتری داشته باشد، ویژگی های بیمار بیشتر در نظر گرفته می شود. اگر همه بیماران به یک اندازه مشاوره داشته باشند، اینطور نخواهد بود. هر کمک و اشاره قدردانی می شود. به‌روزرسانی: برای ساده‌تر کردن آنالیز، می‌توانم در سطح بیمار جمع‌آوری کنم: اگر یک بیمار چندین جلسه مشاوره داشته باشد و حداقل یک مشاوره 1 داشته باشد، بیمار نتیجه 1 در غیر این صورت 0 دارد. سپس من یک مدل ساده‌تر دارم: y ~ gp_sex + pat_sex + pat_age + (1|gp) در این صورت مشکل (1) منسوخ خواهد شد، اما من هنوز مشکل (2) دارم زیرا هر gp تعداد بیماران متفاوتی دارد.
اقدامات تکراری با اندازه گیری های منفرد
24112
وقتی خلاصه پنج عددی را روی نمونه خود محاسبه می‌کنم، چندک‌هایی را به دست می‌آورم که با چندک‌هایی که از سی‌دی‌اف تجربی دریافت کردم، متفاوت هستند، زیرا آنها معمولاً داده‌های توزیع شده نیستند. آیا می توانید در تفسیر این تفاوت به من کمک کنید؟ به عنوان مثال، با یک مجموعه داده پواسون به طور تصادفی تولید شده x x=rpois(50, 2) خلاصه (x) Min. 1 ق. میانگین میانه 3rd Qu. حداکثر 0.00 1.00 1.50 1.82 2.75 6.00 y=ecdf(x) خلاصه (y) CDF تجربی: 7 مقدار منحصر به فرد با خلاصه حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 0.0 1.5 3.0 3.0 4.5 6.0 به چه معناست که سومین چندک نمونه 2.75 است در حالی که برای ecdf 4.5 است؟
کوانتیل برای سی دی اف غیر عادی