_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
107522 | طبق توصیه Gung در دریافت معادله از R's lm هنگام استفاده از یک محصول، من یک موضوع جدید برای این سوال شروع می کنم. من یک مدل $\widehat{\log z} = a + bx + cy + dxy$ برای متغیرهای تصادفی $x,y,z$ و ضرایب $a,b,c,d$ دارم. من اکنون یک مدل برای $z$ به جای $\log z$ می خواهم. من می خواستم به سادگی $\hat{z} = \exp(a + bx + cy + dxy)$ را انجام دهم، اما در مورد این موضوع هشدار داده شده است. چرا این نادرست است و راه صحیح برای ادامه (در صورت وجود) چیست؟ | به دست آوردن یک برآوردگر برای z داده شده یک برآوردگر برای log z |
52824 | من مجموعه ای از مشاهدات داده های از دست دادن اعتبار را دارم که میانگین آن 37٪ و واریانس 25٪ است. اکنون، من باید توزیع را پیدا کنم و فرض اصلی این است که از توزیع بتا پیروی می کند. مسئله این است که آلفا و بتا من که از میانگین و واریانس به دست میآیند، 0.025012- و 0.042588- برآورد میشوند. من نمی دانم با مقادیر منفی آلفا و بتا چه کنم. فرمولی که من برای محاسبه آلفا استفاده می کنم میانگین*(((میانگین*(1-var))/var)-1) است و بتا با (1-میانگین)(((میانگین*(1-میانگین)) محاسبه می شود. /var)-1). لطفا به من بگویید چگونه می توانم مشکل را حل کنم. | پارامترهای منفی توزیع بتا |
52825 | من یک مدل لاجیت دارم که برای بسیاری از موارد عددی بین 0 و 1 ارائه می دهد، اما چگونه می توانیم این را تفسیر کنیم؟ بیایید یک مورد با لوجیت 0.20 را در نظر بگیریم. آیا این روش درستی برای تفسیر مقدار لاجیت است؟ | ارزش لاجیت در واقع به چه معناست؟ |
40362 | فرآیند تجربی $B_n(x) = \sqrt{n}(F_n(x) - F(x))$ ضعیف به یک فرآیند گاوسی با میانگین صفر، $B$، با تابع کوواریانس: $\mbox{cov} همگرا می شود. (B(x)، B(y)) = F(\min\{x، y\}) - F(x)F(y)$. چگونه می توانم این فرض را (در مورد تابع کوواریانس) اثبات کنم؟ | همگرایی ضعیف یک فرآیند تجربی. تظاهرات |
61021 | من سعی می کنم راهی برای ادغام داده هایی پیدا کنم که با کاربران مطابقت دارند و به شکل $user_i، property_1، property_2، .\dots، property_n$ هستند، جایی که $n\geq50$، $i\geq 10^6$ ممکن است داشته باشیم. در برخی موارد داده از دست رفته (یعنی $property_k$ ممکن است برای برخی از کاربران گم شده باشد)، یا ممکن است دو یا چند کاربر (خط در پایگاه داده) داشته باشیم که با همان کاربر مطابقت دارند، و تنها تفاوت در برخی از ویژگی های آنها تغییرات کوچک است. به طور خاص، من علاقه مندم که خوشه ای را که کاربر به آن تعلق دارد، با استفاده از برخی الگوریتم های یادگیری ماشین و غیره پیدا کنم. برای آن، ما البته به برخی از متریک های فاصله نیاز داریم، که حدس می زنم که به مدل بستگی دارد. آیا ایده ای در مورد اینکه بهترین مدل برای چنین سیستمی چیست؟ | شناسایی مبتنی بر خوشه |
109435 | همراهان محترم اگر کسی در توضیح نتایج مدلم به من کمک کند ممنون می شوم. مدل من به شرح زیر است. Yit=αPFit+βPSit+δ (PF*PS) it+εit جایی که Y است سرانه تولید ناخالص داخلی PF=شاخص آزادی سیاسی محدوده بین (0-10) PS است ثبات سیاسی شاخص از (0-10) PF*PS=تعامل عبارت I= کشور و t نشان دهنده دوره زمانی است. من می دانم که چگونه نتایج دو متغیر پیوسته را تفسیر کنم، اما گیج شده ام که چگونه نتایج عبارت تعامل دو شاخص را تفسیر کنم. Y= -0.009+0.009PF+0.015PS-0.001(PF*PS) با توجه | تفسیر دو شاخص اصطلاح تعامل |
29963 | من در حال مطالعه یک سیستم پیچیده هستم. هدف من درک تأثیر یک حادثه در حال گسترش (که فیلتر (ماسه و گیاه) را اشباع می کند و گودال های آب ایجاد می کند) است. گودال ها بازده سیستم را کاهش می دهند (آلودگی پساب و رطوبت). تأثیر بر راندمان با گذشت زمان کاهش می یابد (بسته به فصل و وضعیت هواشناسی کم و بیش). من میخواهم مدلی ایجاد کنم که نشان میدهد این حادثه تا چه مدت بر خلبان تأثیر میگذارد. برای آن فکر می کنم باید از تحلیل سری زمانی استفاده کنم. سوال من این است: * آیا می توانم از تجزیه و تحلیل سری های زمانی در مقیاس های زمانی کوتاه استفاده کنم (مثلاً با اندازه گیری های 5 تا 30؟ * یا می توانم حجم پساب را با پارامتری که می خواهم مطالعه کنم، با دکلاژی که نباید منظم باشد، مقایسه کنم، زیرا باید منظم باشد. بستگی به حجم پساب تزریقی دارد؟ | آیا می توانم از تحلیل سری های زمانی در مقیاس های زمانی کوتاه (مثلاً با اندازه گیری های 5 تا 30) استفاده کنم؟ |
52821 | فاصله hellinger برای توزیع تک متغیره $$ \ H(x) = 1 است - \int\ \sqrt {f(x)g(x)} dx $$ من میخواهم از آن برای توزیع دو متغیره استفاده کنم، با گسترش آن به این فرم $$ \ H(x) = 1 - \int\ \sqrt {f(x, y)g(x, y)} dx dy $$ آیا کسی می تواند در مورد اینکه آیا هنوز معتبر است نظر دهد فاصله هلینگر؟ | گسترش فاصله هلینگر به توزیع های چند متغیره |
110194 | **نوارهای عمودی** در فرمول اول و سوم به چه معناست؟ $$v_i|z_i=k،\mu_k\sim\mathcal{N}(\mu_k، \sigma^2)$$ $$P(z_i=k)=\pi_k$$ $$\pi|\alpha\sim \text{Dir}(\alpha/K1_K)$$ $$\mu_k\sim H(\lambda)$$ این فرمول در اصل از اینجا آمده است. | میله های عمودی در توزیع های آماری به چه معناست؟ |
18376 | من در حال تجزیه و تحلیل باقی مانده های یک مدل رگرسیون مناسب برای مجموعه داده ای هستم که چندین سال داده را پوشش می دهد. من میخواهم مجموع باقیماندههای آن مدل را بهصورت سالی گزارش کنم، بهعنوان معیاری برای تغییر خطای کلی هر سال در طول زمان. آیا این روش قابل قبولی برای گزارش باقیمانده است؟ در اینجا یک مثال از محاسبه من است: library(plyr) set.seed(1) Year <- c( rep(2007,12), rep(2008,12), rep(2009,12), rep(2010,12) , rep(2011,12)) n <- طول (سال) شاخص <- 1:n A <- (index+5*rnorm(n))^2+5*rnorm(n) P <- predict(lm(A~Year),data.frame(A,Year)) باقیمانده <- A-P residual2 <- ddply(data .frame(Year, residual),'Year',sum) نمودار (2007+(index-7)/12, residual) خطوط (residual2$Year,residual2$residual,col=2) par(mfrow=c(2,1)) نمودار (شاخص، باقیمانده) نمودار (residual2) | آیا ذخیره کردن باقیمانده ها قبل از بررسی آنها مشکلی ندارد؟ |
99944 | می خواهم بدانم آیا مطلب زیر را به درستی متوجه شده ام یا خیر. در روش fit.variogram کتابخانه gstat، آرگومان fit.method وجود دارد. در مستندات میگوید: > روش پیشفرض از وزنهای $N_h/h^2$ با $N_h$ تعداد نقاط > جفت و $h$ از فاصله استفاده میکند. این معیار توسط تئوری پشتیبانی نمی شود، بلکه > توسط عمل پشتیبانی می شود. برای سایر مقادیر fit.method، جدول 4.2 را در gstat > manual ببینید. فرض کنید یک واریوگرام داریم که شامل مجموعههایی از نقاط است که با فاصلههای $h از هم جدا شدهاند: 100، 300، 600 دلار و 900 دلار و هر N_{h}$ به ترتیب شامل 100، 1000، 1200، 900 نقطه است. آیا روش وزن دهی که در بالا توضیح داده شد به این معنی است که وزن ها به صورت 100/100 دلار، 1000/300، 1200/600، 900/900 دلار محاسبه می شوند. یعنی روی نقاطی که با فواصل بزرگتر از هم فاصله دارند وزن کمتری می گذاریم. آیا این درست است؟ میدانم که میگوید این روش توسط تئوری پشتیبانی نمیشود، اما به نظر کمی خلاف واقع است. | وزن ها در روش fit.variogram gstat |
110197 | من دو دسته نسبت خطر دارم (با فواصل اطمینان)، یکی مقایسه خطر ابتلا به سرطان بین سیگاریهای فعلی و افرادی که هرگز سیگار نمیکشند، و دیگری مقایسه سیگاریهای سابق با افرادی که هرگز سیگار نمیکشند. من داده های خام را ندارم. آیا راهی برای استفاده از این اطلاعات برای ایجاد یک نسبت خطر در مقایسه سیگاریهای فعلی و سیگاریهای سابق وجود دارد؟ برای مثال، نسبت خطر برای سیگاریهای فعلی در مقابل افرادی که هرگز سیگار نمیکشند 2.0 است [95% CI، 1.2-3.4]، و نسبت بین سیگاریهای سابق و هرگز سیگاری 1.5 است [95% CI، 0.9-2.5]. آیا می توان نسبت فعلی به سابق را با CI 95% محاسبه کرد؟ با تشکر | استفاده از دو نسبت خطر برای مقایسه سوم |
93101 | Document/Term Freq C1 C2 C3 C4 C5 C6 C7 C8 C9 Tag D1 0 1 3 1 1 0 0 1 0 X1 D2 1 1 3 0 1 0 0 2 0 X2 D3 2 0 2 0 1 0 0 0 0 X0 D4 4 0 1 0 0 0 0 0 X1 D5 0 0 1 1 1 0 0 1 1 X2 D6 0 0 0 0 1 0 0 1 1 X2 D7 0 0 0 1 1 1 1 3 0 X3 D8 1 0 0 0 1 2 1 0 0 X1 D9 1 0 1 2 1 3 1 X1 من یک DocumentTermMatrix فرم فوق که D1, D2, D3.....D9 اسناد هستند. C1، C2، C3....C9 اصطلاحات موجود در همه یا هر یک از اسناد و اعداد فراوانی هستند که این عبارت در سند وجود دارد. مقادیر در ستون Tag برچسب هر سند است. DTM اصلی من حدود 100000 سطر و 2000 ویژگی (ستون) دارد و تعداد برچسب های منحصر به فرد حدود 6000 است. اکنون می خواهم برای انتخاب ویژگی در R تست chi-square انجام دهم. اما نمی دانم چگونه این کار را در R انجام دهم. و یک بار نحوه تفسیر نتایج را انجام دادم تا بتوانم انتخاب ویژگی را بر اساس نتیجه خی دو انجام دهم. | چگونه می توانم یک تست کای دو برای انجام انتخاب ویژگی در R انجام دهم |
93104 | من باید یک تست ریشه واحد با داده های پانل خود انجام دهم. من 1500 شرکت از 98-2000 دارم. می خواهم بررسی کنم که آیا متغیر LOGwage من ریشه واحد دارد یا خیر. وقتی پانل خود را برای شرکت و سال تنظیم کردم، stata گفت که به شدت متعادل است. اما وقتی تست xtunitroot llc wage if FirmID را انجام میدهم، به من میگوید آزمایش Levin-Lin-Chiu به دادههای به شدت متعادل نیاز دارد؟ | تست لوین لین چیو در stata |
55654 | من فقط می خواستم بدانم که آیا می توان از یک مدل مخلوط معمولی برای داده های شمارش استفاده کرد؟ اگر پاسخ شما داده های شمارش باشد بهتر است از رگرسیون پواسون استفاده کنید؟ | استفاده از توزیع عادی برای داده های شمارش |
40365 | در مورد مشکلی که با آن برخورد کردم توصیه می کنم. من برای تجزیه و تحلیل آماری یک مطالعه از SPSS استفاده می کنم. این مطالعه به چگونگی پیشبینی مرگ و میر توسط آزمایش خون با پیگیری یک ساله بیماران میپردازد. بیماران به چارک تقسیم شدند و با استفاده از چارک اول به عنوان گروه مرجع، من از رگرسیون کاکس برای تعیین نسبت های خطر تعدیل نشده (HR) و HR تعدیل شده برای چارک 2-4 استفاده کردم. مشکل این است که گروه مرجع (ربع 1 – 25 درصد اول) هیچ رویدادی نداشتند. بنابراین من نسبت های خطر 80000+ را برای چارک های 2، 3 و 4 و همچنین پیام های خطا تحت SPSS دریافت می کنم. آیا کسی می تواند به من راهنمایی کند که من چه اشتباهی انجام می دهم؟ | رگرسیون کاکس زمانی که گروه مرجع هیچ رویدادی نداشت |
26281 | تکنیک های استاندارد ترسیم یک مجموعه آماری از دنباله ها چیست؟ من بازنمایی بازی آشوب را می شناسم: * H. Joel Jeffrey (1992)، تجسم سکانس های بازی آشوب. کامپیوتر و گرافیک 16 (1): 25-33. و پلات های دو بعدی: * H.C. لی هائو و شو یو ژانگ (2000). فراکتال های مربوط به توالی های طولانی DNA و ژنوم های کامل. آشوب، سالیتون و فراکتال، 11:825، pdf رایگان. * J. Rodriguez-Laguna، PM، M. Ibáñez Berganza، M. Lewenstein، G. Sierra (2011). Qubism: تجسم خود مشابه توابع موج چند بدنه، arXiv:1112.3560 [quant-ph]. آیا دیگران وجود دارند؟ ویرایش: من بیشترین علاقه را به الفبای محدود دارم (مثلاً از مرتبه 2 تا 9)، بدون ساختار داخلی و با دنباله هایی با هر طول (همچنین بی نهایت؛ اما در عمل 8-18 حرف برای من خوب است). با این حال، رویکردهای دیگر نیز مورد استقبال قرار می گیرد. | تجسم مجموعه ای از سکانس ها |
55653 | من مجموعه ای از داده ها را دارم که سعی می کنم آنها را مدل کنم. بسیاری از دادهها گم شدهاند، بنابراین من از چندین انتساب استفاده میکنم. من حدود 360 مشاهده و 13 متغیر دارم. من همچنین از GAM ها استفاده می کنم، اما باید واقعا مرتبط باشد (من گره ها را از قبل مشخص می کنم). علاوه بر این، من 4 تعامل دارم -- 2 تعامل دو طرفه و 1 تعامل 3 طرفه. همه آنها توسط تئوری از قبل مشخص شده اند، و من می بینم که پس از برازش، کدام یک را می توانم از مدل (با استفاده از AIC) برای دستیابی به صرفه جویی بیشتر حذف کنم. مشکل من اینجاست: من تعداد زیادی تعامل و متغیر برای اندازه مجموعه دادهام دارم، اما هیچکدام از آنها نمیخواهند از مدل خارج شوند -- حذف آنها AIC را افزایش میدهد. وقتی مدل را با برهمکنشها با مدل بدون مقایسه میکنم، یک آزمون F نشان میدهد که مدل پیچیده کاملاً متفاوت از مدل ساده است. با این حال، به دلیل هم خطی بودن بالا، زمانی که من دانه را به طور متفاوتی تنظیم می کنم یا با یک نقطه داده جدید برای افزودن مواجه می شوم، اصطلاحات کمی به اطراف می پرند. نتایج پیشبینی من همچنان همان جوهره کلی را دارد، اما استنباط در مورد شرایط مدل پایدار نیست. من مطمئن نیستم که اینجا چه کار کنم. قوانین سرانگشتی مشخصات ساده ای را برای مجموعه داده های کوچک پیشنهاد می کند. اما مشخصات ساده به وضوح پایین تر هستند. فراتر از انتخاب یک مشکل بهتر با داده های بهتر، چه چیزی را به کسی در این موقعیت پیشنهاد می کنید؟ غریزه درونی من صرفاً این است که بر نتایج استنباطی تأکید نکنم و وقتی این مطلب را می نویسم، پیش بینی کنم. اما این یک سرپوش به نظر می رسد. پیشنهادات استقبال می شود. پوزش بابت سوال مبهم | مدل پیچیده بدون مجموعه داده عظیم |
110190 | در صفحه 19 کتاب درسی مقدمه ای بر یادگیری آماری (نوشته جیمز، ویتن، هستی و تیبشیرانی - به صورت رایگان در وب قابل دانلود است و بسیار خوب است) موارد زیر بیان شده است: > تخمینی را در نظر بگیرید $$\hat{Y } = \hat{f}(x)$$ برای لحظه ای فرض کنید که > هر دو $$\hat{f}، X$$ ثابت هستند. سپس، نشان دادن آن آسان است: > > $$\mathrm{E}(Y - \hat{Y})^2 = \mathrm{E}[f(X) + \epsilon - \hat{f}( X)]^2$$ > $$ = [f(X) - \hat{f}(X)]^2 + \mathrm{Var}(\epsilon)$$ بیشتر توضیح داده شده است که عبارت اول نشان دهنده قابل تقلیل خطا، و جمله دوم نشان دهنده خطای کاهش ناپذیر است. من به طور کامل درک نمی کنم که نویسندگان چگونه به این پاسخ می رسند. من محاسبات را به صورت زیر انجام دادم: $$\mathrm{E}(Y - \hat{Y})^2 = \mathrm{E}[f(X) + \epsilon - \hat{f}(X)] ^2$$ این به $[f(X) - \hat{f}(X) + \mathrm{E}[\epsilon]]^2 = [f(X) - ساده میشود. \hat{f}(X)]^2$ با فرض اینکه $\mathrm{E}[\epsilon] = 0$. $\mathrm{Var}(x)$ نشان داده شده در متن از کجا آمده است؟ هر گونه پیشنهاد بسیار قدردانی خواهد شد. | اثبات/اشتقاق مجموع مجذورات باقیمانده (براساس مقدمه ای بر یادگیری آماری) |
26280 | در تجزیه و تحلیل ANCOVA من این مورد را دارم که Y و X من یک الگوی غیرخطی را نشان می دهند. تبدیل Y یا X به تثبیت واریانس کمک نمی کند. من هیچ اشارهای پیدا نکردم که انجام ANCOVA در فضای log-log غیرقانونی است، با این حال، همچنین هیچ یادداشتی در مورد اینکه باید تبدیل Y و X را امتحان کرد، پیدا نکردم... اگر کسی میتواند به من راهنمایی بدهد. آیا با log-log اشتباه می کنم؟ با تشکر | آیا می توان x و y را در ANCOVA تبدیل کرد؟ |
104248 | من این سوال را نقل می کنم: > در برخی فرهنگ ها داشتن حداقل یک پسر مهم است. برنامه این است که تا زمانی که یک پسر به دنیا بیاید، بچه دار شویم. پی دی اف تعداد > دختران یک خانواده را پیدا کنید. میزان موفقیت داشتن پسر _p_ است. اولین رویکرد من: آزمایش برنولی D = تعداد دختران است. سپس آزمایشات d+1 با موفقیت d انجام شده است. $f_D(d) = {d +1 \choose d} (1-p)^d p^1 = (d+1) (1-p)^d p$ این ظاهرا **اشتباه** است. پاسخ باید $f_D(d) = (1-p)^d p$ باشد چرا رویکرد من صحیح نیست و روش صحیح چیست؟ | تابع احتمال تعداد شکست ها تا اولین موفقیت |
104241 | من می خواهم تابع تولید لحظه (mfg) و انحراف میانگین این توزیع را پیدا کنم: $$f(x,\epsilon,k,\theta) = k\theta^{(1+1/k+\epsilon/k)} x^{(k+\epsilon)}\exp{(-\theta x^k )}/(\Gamma(1+(1+\epsilon))/k)$$ کجا $\epsilon، k، \theta$ سه پارامتر این توزیع هستند. HERE x از 0 تا بی نهایت است. | تابع تولید لحظه یک توزیع |
112858 | من در حال حاضر سعی می کنم یک مدل تجزیه و تحلیل بقا را متناسب کنم که تابع بقای زیر را دارد: $S(t) = \lambda_i e^{-\lambda_i t}$ اما با $\lambda_i = e^{\beta_0 +\beta_1 log( 1+X_i)}$ که در آن $X_i$ نشان دهنده هر مشاهده منحصر به فرد است. من سعی می کنم از بسته بقای پیش فرض استفاده کنم، اما مطمئن نیستم که کجا می توانم در فرمول رگرسیون برای میزان خطر برنامه ریزی کنم. فکر میکنم ممکن است متوجه کار بسته تحلیل بقا شده باشم، اما آیا کسی میتواند به من بگوید که آیا میتوان این کار را حتی در بسته R انجام داد؟ با تشکر | آیا ممکن است در R یک فرمول رگرسیون برای نرخ خطر برای یک مدل تجزیه و تحلیل بقا مشخص شود؟ |
79432 | فرمول مورد استفاده برای محاسبه فاصله اطمینان برای میانگین یک جمعیت عادی زمانی که n کوچک است به شرح زیر است.  مقدار بحرانی t مناسب برای هر یک از سطوح اطمینان و اندازه نمونه زیر چقدر است ? (پاسخ ها را تا دو رقم اعشار گرد کنید.) (الف) 90% اطمینان، n = 17 (ب) 90% اطمینان، n = 13 (ج) 99% اطمینان، n = 24 (د) 90% اطمینان، n = 25 (ه) اطمینان 95%، n = 13 پیشاپیش از شما سپاسگزارم! | با این آمار فاصله اطمینان اشتباه گرفته شده است |
29964 | شاید احمقانه ترین سوالی که تا به حال در CV ارسال شده است: من می خواهم رابطه بین داده های نسبت و برخی متغیرهای کمکی را در یک مدل خطی تعمیم یافته (مخلوط، اما فکر نمی کنم مهم باشد) تجزیه و تحلیل کنم. توزیع طبیعی مورد استفاده دوجمله ای خواهد بود، اما بیشتر نسبت ها نزدیک به 0 هستند و توزیع آنها مانند پواسون (کمی بیش از حد پراکنده) به نظر می رسد. نسبتهای من طبق تعریف مقادیر صحیح نیستند، و بنابراین نمیتوان مستقیماً با استفاده از برخی پیادهسازیهای gl(m)m با خطاهای پواسون مدلسازی کرد. به عنوان مثال، من از MCMCglmm در R استفاده می کنم که (به درستی) فقط مقادیر صحیح را مجاز می کند (و دو جمله ای بتا اجرا نمی شود). آیا می توانم به سادگی نسبت خود را در مثلاً 1000 ضرب کنم (برای حفظ دقت)، آنها را گرد کنم (برای اینکه آنها را به عدد صحیح تبدیل کنم) و glmm را با خطاهای پواسون روی آنها انجام دهم. سپس میتوانم تخمینهای پارامتر را تغییر دهم (و در glmm اهمیت _نسبی_ مولفههای واریانس ثابت خواهد ماند)؟ من تصور می کنم (شاید به اشتباه) مشکلی در این مورد وجود نخواهد داشت، اما از آنجایی که نتوانستم آن را در جایی بحث شده پیدا کنم، شروع به شک کردم و خوشحال می شوم اگر دیگرانی که بعداً به این موضوع فکر می کنند بتوانند پاسخی پیدا کنند ( هر چه هست) اینجا. با تشکر فراوان برای حمایت | آیا می توانم داده های نسبت را برای تجزیه و تحلیل در یک GL(M)M با خطاهای پواسون ضرب و گرد کنم؟ |
55658 | می خواستم بدانم وقتی باقیمانده های سری زمانی دارای همبستگی خودکار هستند به چه معناست؟ چگونه باید با آن برخورد کنم؟ | چگونه خودهمبستگی باقیمانده ها را تفسیر کنیم و با آن چه کنیم؟ |
93105 | اجازه دهید $x_1,\ldots,x_n$ یک نمونه تصادفی باشد با pdf $$f(x)= \begin{cases} (\alpha+1)x^\alpha, & 0 \le x \le 1, \\ 0 ,& \mbox{در غیر این صورت}. \end{cases}$$ MLE $\alpha.$ را پیدا کنید بنابراین، من احتمال log را پیدا کردم و مشتق آن را گرفتم، اما کاملا مطمئن نیستم که آیا آن را درست انجام دادهام یا خیر. این چیزی است که من تا الان دارم. آیا من فقط معادله را برابر صفر قرار می دهم و برای $\alpha$ حل می کنم؟ \begin{align*} \log L &= \sum_{i=1}^n \log(\alpha + 1) + \sum_{i=1}^n \log(x_i^\alpha) \\ &= n\log(\alpha+1) + \sum_{i=1}^n \log(x_i^\alpha)\\ &= \frac{n}{\alpha+1} + \alpha\sum_{i=1}^n \log(x_i) \end{align*} | پیدا کردن MLE |
55650 | فرض کنید _n_ زوج ها به یک مهمانی دعوت شده اند. احتمال اینکه حداقل دو جفت زن و شوهر وجود داشته باشد چقدر است که تولد شوهران و همسرانشان یکسان باشد؟ | مشکل تولد، اما مطابقت زوج ها به جای افراد |
114432 | من سعی کرده ام این مشکل را با خواندن مطالب مختلف حل کنم اما نمی توانم آن را بفهمم. این بسیار ساده است و در زبان هایی که با آرایه ها کار می کنند حدود 5 ثانیه طول می کشد، اما من نمی توانم آن را در Stata انجام دهم. لطفا تعویض بکتیک ها را در بعضی جاها نادیده بگیرید، من نتوانستم آنها را به درستی نشان دهم. فرض کنید من یک متغیر ID دارم و از جمله متغیرهایی که به من نشان می دهد که آیا یک فرد شرکت دارد یا تنها است و آیا الکل می نوشد یا خیر. اگر کسی شرکت داشته باشد، من یک متغیر دارم که به من نشان می دهد این همراهان چند نفر هستند و چه کسانی هستند (با شناسه آنها در مجموعه داده). من سعی می کنم ببینم آیا این همراهان الکل می نوشند و با آن اطلاعات یک روند تکراری انجام می دهند. بدیهی است که در Stata اگر همراه دارای ID 345 باشد، من نمی توانم از شکل الکل[345] استفاده کنم زیرا این حالت الکل مشاهده 345 را به من می دهد، نه ID 345. آیا فرم مشابهی در Stata وجود دارد؟ من فقط می توانم آن را با انجام لیست الکل لیست کنم اگر id==345 باشد. کاری که من میخواهم انجام دهم این است که این شناسهها را بگیرم و آنها را به یک فرآیند تکراری منتقل کنم که به من امکان میدهد ببینم آیا همه این همراهان الکل نمینوشند یا نه، بخشی از این فرآیند این است که یک متغیر d داشته باشم که برای هر همراهی که آن را تغییر میدهم، آن را تغییر میدهم. الکل نمی خورد (یعنی زمانی که متغیر الکل 1 نباشد). اگر m تعداد همراهان باشد (بیایید دو نفر را در اینجا بگوییم) و comp'k'`x' شناسه همراهان شخص با ID k است (مثلاً ID 8 در اینجا بگوییم): gen d = . محلی m = 2 محلی k = 8 برای مقادیر x= 1/'m' { جایگزین d = 'x' اگر الکل[comp'k'`x'] !=1 } به عنوان مثال اولین همراه فرد با ID 8 دارای ID comp81 = 345، دومین comp82 = 567. اما مطمئناً این کد به دلیل بالا آنچه را که من می خواهم انجام نمی دهد. موارد زیر وضعیت الکلی شخصی که همراهانش ID comp81 و comp82 هستند را به من می دهد و نه آنچه را که من می خواهم که وضعیت الکل این همراهان است: . محلی m=2 . محلی k = 8 . برای مقادیر x= 1/'m' { 2. لیست الکل comp'k'`x' 3. } و موارد زیر نیز کار نمی کنند: محلی m = 2 محلی k = 8 برای مقادیر x= 1/'m' { 2 لیست الکل if id==comp'k'`x' 3. } من فقط نمی خواهم وضعیت الکل همراهان را لیست کنم، اما موارد بالا نمونه هایی هستند که نشان می دهد من نمی توانم Stata را پیدا کنم. معادل یک آرایه و از آن برای حل مشکلی که دارم استفاده کنم. | معادل آماری آرایه |
26286 | من روی پروژه ای کار می کنم که در آن بسته های نرم افزاری را ارزیابی می کنم. من نتایج دو آزمایش را دریافت کردم که تنها یک متغیر تغییر کرده است. هر آزمایش 10 بار انجام شده است. من در حال انجام تست های t-sample نمونه هستم. برای برخی از معیارهای من، نتایج برای ده تکرار دقیقاً یکسان است. بنابراین من یک خطای استاندارد صفر دارم و نمی توانم آزمون t را انجام دهم. اگر درست می گویم، می توانید از p-value تولید شده در طی آزمون t برای حمایت از ادعای خود مبنی بر اینکه مقادیر مختلف متغیرها بر نتایج تأثیر داشته است استفاده کنید (همانطور که می توانید بگویید نتایج شما از نظر آماری معنی دار هستند). در مورد من، برای حمایت از چنین ادعایی چه می توانم بگویم/ انجام دهم؟ با تشکر ویرایش: از نظر، من قصد دارم جزئیات طرح خود را اضافه کنم. من دارم کارورهای فایل را ارزیابی می کنم، اینها ابزارهای پزشکی قانونی دیجیتال هستند که می توانند برای استخراج فایل ها از تصاویر پزشکی قانونی (مانند هارد دیسک) استفاده شوند. من تعداد مشخصی از شواهد (500) را جاسازی کردهام و هر کارور فایل را برای جستجوی این شواهد پیکربندی کردهام. من مجموعه ای از شواهد دارم. یکی شواهد به خوبی شناخته شده است (که من خودم را برای هدف تحقیق ایجاد کردم، بنابراین 500 بار همان پرونده را می کارم) و یک مجموعه شواهد واقعی (متشکل از 500 پرونده منحصر به فرد). من دو آزمایش با یک ابزار انجام می دهم: یکی برای هر مجموعه ای از شواهد کاشته شده. اگر انواع مختلف آزمون های تی را به درستی درک کرده باشم، می توانم یک آزمون تی زوجی انجام دهم؟ از نتایجی که به دست آوردهام، ابزارها هر بار در بازیابی همه شواهد شکست میخورند. با این حال، شواهد بازیابی شده هر بار یکسان است. ابزارها به عنوان یک تابع جستجو کار می کنند. اگر صدها بار اجرا شود ممکن است چنین عملکردی از کار بیفتد، شاید من به خیلی بیشتر نیاز داشته باشم. من چهار ابزار را با سناریوهای مختلف آزمایش کردهام و نتایج هرگز متفاوت نبودند (همان موارد مثبت واقعی، مثبت کاذب و منفی کاذب). وقتی به ادبیات نگاه می کنید به شما می گویند که چگونه در مورد نتایج p-values صحبت کنید. من فقط نمی دانم اگر نمی توان آن را محاسبه کرد چه باید بگویم زیرا آنها هیچ تغییری در نتایج من ندارند. من برخی از مقالات را پیدا کردم که محققان نتایج مشابهی داشتند اما آنها فقط نادیده گرفته شدند (فقط در جدول نمایش داده شده است). ممکن است بدیهی باشد، اما از آنجایی که برای اولین بار است که از آمار در کارم استفاده می کنم، کمی گم شده ام (و خودآموخته هستم، بنابراین ممکن است برخی مفاهیم را ضعیف درک کرده باشم) در نهایت، سوال اصلی من این است: نتایج به وضوح نشان می دهد که نوع شواهد بر نتایج تأثیر دارد. چگونه می توانم از چنین ادعایی به شکل علمی حمایت کنم؟ | وقتی خطای استاندارد برابر با 0 باشد چه باید کرد |
109434 | میخواستم بدونم کسی میتونه در مورد تست های آماری که باید استفاده کنم کمکم کنه. اساساً من موارد زیر را دارم: 1) من یک نظرسنجی انجام دادم و از معلمان و دانش آموزان خواستم که مؤلفه ها را در چارچوب مفهومی من با استفاده از مقیاس رتبه بندی کنند: (مهم نیست) 1 2 3 4 5 (ضروری) 2) می خواهم ابتدا نشان دهم که معلمان معتقد بودند که اجزای مهم و نه چندان مهم هستند. تحقیقات من نشان میدهد که مقدار معیار 80% معیار خوبی است، بنابراین میخواهم بررسی کنم که آیا میانگین پاسخ معلمان 4>= است (80% از 5). 3) سپس میخواهم نظر دانشآموزان را با انجام مجدد تستهای مشابه نشان دهم و بررسی کنم که آیا میانگین پاسخ >= 4. سپس، میخواهم پاسخ معلمان را با پاسخهای دانشآموزان مقایسه کنم که در آن پاسخهایشان متفاوت است (یعنی جایی که یک گروه فکر میکرد یک جزء است. مهم است در حالی که فکر دیگر این نیست) 5) در نهایت، من می خواهم بتوانم تصمیم بگیرم که کدام مؤلفه ها مهم هستند و باید در چارچوب نگه داشته شوند و بر اساس پاسخ های معلمان و دانش آموزان باید حذف شوند. اگر کسی بتواند به من کمک کند تا بفهمم برای هر یک از مراحل بالا باید از چه آزمایشی استفاده کنم، سپاسگزار خواهم بود. من قبلاً موارد زیر را انجام دادم: برای 2) من یک آزمون t یک نمونه با mu 4 انجام دادم برای 3) یک آزمون t یک نمونه با یک mu از 4 برای 4) یک t دو نمونه انجام دادم -test اما من فکر می کنم موارد فوق نادرست است زیرا تحقیقات من نشان می دهد: * این جمعیت باید به طور عادی توزیع شود. تست نرمال بودن Lilliefors (Kolmogorov-Smirnov) نشان می دهد که اینطور نیست. * باید داده های بازه ای باشد. من یک مقیاس ترتیبی دارم و موارد زیادی وجود دارد که از آزمون t با مقیاس های oridnal/liker استفاده می شود. * نتایج نشان داد که معلمان مؤلفه A را خیلی مهم نمی دانند (mu <4)، دانش آموزان مؤلفه A را حداقل بسیار مهم می دانند (mu > 4) و آزمون t دو نمونه ای بین گروه ها معنی دار نبود. بنابراین مطمئن نیستم که واقعاً چه نتیجهگیری یا آزمایش دیگری میتواند در اینجا انجام شود. فکر میکنم ممکن است نیاز به استفاده از آزمون Mann-Whitney داشته باشم، اما مطمئن نیستم، بنابراین توصیهای بسیار قدردانی خواهد شد. | از کدام تست استفاده کنیم؟ |
108008 | من پیادهسازی خودم از الگوریتم حداکثرسازی انتظارات (EM) را بر اساس مقاله زیر دارم http://pdf.aminer.org/000/221/588/fuzzy_k_means_clustering_with_crisp_regions.pdf میخواهم عملکرد را با اجرای دیگری مقایسه کنم. برای آزمایش، من از K تعداد سانتروئیدها با 1 گیگابایت داده txt استفاده میکنم و فقط زمان لازم برای محاسبه سانتروئیدهای جدید را در 1 تکرار اندازهگیری میکنم. من با پیاده سازی EM در R امتحان کردم، اما نتوانستم، زیرا نتیجه در یک نمودار رسم می شود و با تعداد زیادی داده txt گیر می کند. آیا کسی از پیاده سازی EM برای اندازه گیری عملکرد اطلاع دارد؟ | چارچوبی برای مقایسه عملکرد حداکثرسازی انتظارات |
32277 | من به دنبال مقالههایی هستم که روشهای محاسبه CI را برای اندازه اثر امگا مربع از ANOVA یک طرفه توضیح میدهند. نزدیکترین چیزی که من به آن رسیدهام پیوند Finch & French (2011) _A Comparison of Methods for Estimating Confidence Intervals for Omega-Squared Effect Size_ است، اما هیچ فرمولی ارائه نمیدهند. من همچنین از هرگونه پیوند به اجرای R از تخمین های تحلیلی یا CI های بوت استرپ استقبال می کنم. با تشکر از هر گونه کمک در این مورد! | مقالههایی که فرمولهایی را توضیح میدهند که چگونه فواصل اطمینان را برای اندازه اثر امگا مربع محاسبه کنیم؟ |
65237 | نمودار زیر ecdf مقادیر p را از آمارهای مختلف نشان می دهد، اجازه دهید نمودار آبی را به عنوان بردار x و نمودار قرمز را به عنوان بردار y شناسایی کنیم. اکنون یک ks.test برای x اجرا می کنم و y این بردارها را با توزیع واحد در یک محدوده کوچک مقایسه می کنم. ks.test(x[x<=0.2],function(x){punif(x,0.01,0.2)},alternative = two.sided) ks.test(y[y<=0.2],function(x ){punif(x,0.01,0.2)},alternative = two.sided) اکنون مقادیر بهتری برای خط آبی دریافت می کنم، اما واضح است که که خط قرمز باید مناسب تر باشد. اگر نزدیکتر به مقادیر x و y نگاه کنم، فقط 26 مقدار در x و بیش از 1500 در y دریافت می کنم. بنابراین فکر میکنم دلیل اینکه ks.test مقدار p بهتری برای خط آبی میدهد به تعداد کم نقاط مربوطه در x بستگی دارد. مقادیر x و y از یک شبیه سازی به دست می آیند. آیا باید تعداد آزمایش های شبیه سازی شده را افزایش دهم؟  | چگونه می توانم دو ecdf را برای مقادیر p از آزمون های کولموگروف اسمیرنوف مقایسه کنم اگر تعداد نمونه ها در دو آزمون متفاوت باشد؟ |
65236 | حداقل دو سؤال (1، 2) به این سؤال پرداخته اند که چگونه می توان تحلیل همبستگی های چندگانه را مدیریت کرد. من میخواهم این سؤال را به دادههایی تعمیم دهم که دارای سطوح چندگانه هستند (مثلاً به عنوان یک مورد نسبتاً ساده همبستگی بین ویژگیهای شخصیتی X1، X2، و X3 در صفت Y که در 40 نفر تودرتو است). پس چگونه میتوان همبستگیهای میانگین را با درک این که الف) مقیاسها بهطور مناسبی کدگذاری شدهاند تا علامت مهم باشد و ب) سطح استنتاج مورد نظر برای فرد معمولی باشد، بهترین محاسبه (و آزمون معناداری) انجام میشود؟ آیا تحلیل بهینه در خانواده همبستگی های درون طبقاتی خواهد بود یا این موضوع کاملاً چیز دیگری است؟ | میانگین مقادیر همبستگی از داده ها با سطوح چندگانه؟ |
57650 | من می خواهم ویژگی های فراوانی یک مدل بیزی را شبیه سازی کنم. بنابراین، برای مثال، من ممکن است بخواهم یک مدل بیزی را 1000 بار در 50 پیکربندی مختلف قرار دهم که هر کدام حدود 10 ثانیه طول می کشد تا روی دستگاه من قرار بگیرد. یعنی کل زمان محاسبات = 1000 * 50 * 10 / 60 ثانیه / 60 دقیقه / 24 ساعت = 5.7 روز در دستگاه من. اجرای این مورد روی دستگاه من چندان کاربردی نیست. من میتوانم برخی از ویژگیهای شبیهسازی خود را کاهش دهم (به عنوان مثال، شبیهسازی کمتر در هر سلول طرح، سلولهای کمتر در طراحی، زنجیرههای کوتاهتر برای هر شبیهسازی). با این حال، خوب است اگر بتوانم این شبیه سازی را به فضای ابری ارسال کنم. سپس میتوانم آن را اجرا کنم و پس از اتمام آن نتایج را جمعآوری کنم. این شبیه سازی همچنین بسیار موازی است، به طوری که به طور بالقوه می تواند از مزایای استفاده از چندین رایانه برای سرعت بخشیدن به زمان لازم برای اجرا استفاده کند. **سوالات:** * چگونه می توانم در مورد هزینه های چنین تجزیه و تحلیل هایی امتیاز بگیرم؟ برای مثال، اگر رقمی را ببینم که زمان محاسبه 10 سنت در ساعت در EC2 هزینه دارد، آیا می توانم فرض کنم که عملکرد دستگاه EC2 مشابه یک ماشین رومیزی مدرن باشد. * آیا سیستم های محاسبات ابری به ویژه برای اجرای گاه به گاه کارهای شبیه سازی R و JAGS مناسب هستند؟ * آیا بین اجرای موازی کارها در چندین نمونه در مقابل اجرای برنامه فقط در یک نمونه، تفاوتی وجود دارد؟ * آیا هیچ آموزش یا نمونه ای از اجرای R و JAGS در فضای ابری وجود دارد؟ ### اکتشافات اولیه من این پست را پیدا کردم که اطلاعات مفیدی در مورد استفاده از JAGS در EC2 ارائه می دهد. | محاسبات ابری ساده برای اجرای شبیه سازی های R + JAGS |
106082 | من میخواهم توزیع زوایای جهتگیری را در یک تصویر سهبعدی (که به صورت مش مثلثی نشان داده میشود) درک کنم. برای هر مثلث در تصویر من اوج ($\Theta$) و آزیموت ($\phi$) دارم و من می توانم محاسبه هیستوگرام برای هر کدام:  آیا راهی وجود دارد که بتوانم اطلاعات موجود را ترکیب کنم در این تصاویر به یک هیستوگرام منفرد که توزیع مشترک این متغیرها را نشان می دهد؟ | تجسم جهت گیری (اوج و آزیموت) داده ها (به عنوان مثال با یک هیستوگرام دایره ای یا کروی)؟ |
64545 | رابطه و تفاوت بین سری های زمانی و رگرسیون چیست؟ برای **مدل ها و مفروضات**، آیا درست است که مدل های رگرسیون استقلال بین متغیرهای خروجی را برای مقادیر مختلف متغیر ورودی فرض کنند، در حالی که مدل سری زمانی اینطور نیست؟ چند تفاوت دیگر چیست؟ برای **روش ها**، از وب سایت دارلینگتون > تعدادی رویکرد برای تجزیه و تحلیل سری های زمانی وجود دارد، اما دو روش شناخته شده، روش رگرسیون و Box-Jenkins (1976) یا ARIMA > (AutoRegressive Integrated Moving Average) هستند. ) روش. این سند روش رگرسیون را معرفی می کند. من روش رگرسیون را بسیار برتر از > ARIMA می دانم به سه دلیل عمده که کاملاً نمی دانم روش رگرسیون برای سری های زمانی در وب سایت چیست و چگونه با روش Box-Jenkins یا ARIMA متفاوت است. اگر کسی بتواند در مورد این سؤالات اطلاعاتی ارائه دهد، سپاسگزارم. با تشکر و احترام! | رابطه و تفاوت بین سری زمانی و رگرسیون؟ |
56300 | ما در حال آزمایش یک کمپین بازاریابی ایمیلی هستیم. در آزمایش اولیه، ما دو نوع ایمیل مختلف ارسال کردیم و گروه کنترل سومی داشتیم که ایمیلی دریافت نکردند. اکنون ما نتایج را به عنوان نسبت کاربرانی که به برنامه ما بازگشته اند، دریافت می کنیم. در اینجا نتایج: گروه | ایمیل دریافتی | بازگشت | -برگرداند A | 16,895 | 934 | 5.53% B | 17,530 | 717 | 4.09% C | 42408 | 1618 | 3.82٪ به نظر می رسد که گروه A در واقع ممکن است بهتر از B و C باشد، اما آزمون مناسب برای نشان دادن این چیست؟ | از کدام آزمون برای مقایسه نسبت بین 3 گروه استفاده کنیم؟ |
110224 | از من پرسیده شد که چقدر از رگرسیون تجربی اطلاع دارم. من هرگز این عبارت را نشنیده ام. جستجوی وب هیچ چیز مفیدی به همراه نداشت. من گمان می کنم که این اصطلاحی است که توسط کسی برای اشاره به رویه ای موقت که ممکن است با نام دیگری شناخته شود ابداع کرده است. کسی مرجعی داره؟ | رگرسیون تجربی چیست؟ |
57657 | مشکل من این است: من تناسب یک تابع $f(\mathbf{x},\theta)$ را از طریق MCMC ارزیابی می کنم (زیرا برخی پارامترها را قبل از آن دارم)، و سعی می کنم DIC را ارزیابی کنم. ، داده شده توسط: $$\rm{DIC}=\bar{D}+p_D،\ \ \ \ (1)$$ که در آن، اگر انحراف را تعریف کنیم $D(\theta)=-2\log(\mathcal{L(\theta|\mathbf{x})})$، و $L(\theta|\mathbf{x})$ احتمال من است، سپس $ $\bar{D} = E^{\theta}[D] = -2E^{\theta}[\log(\mathcal{L(\theta|\mathbf{x})})]،\ \ \ \ (2)$$ که در آن $E^\theta[\cdot]$ مقدار مورد انتظار را در توزیع پسین نشان میدهد و **تعداد موثر پارامترها**، $p_D$، با $$p_D = \ داده میشود. bar{D}-D(\hat{\theta})\ \ \ \ (3)$$ که در آن $\hat{\theta}$ انتظار بعدی پارامترها است. این همان چیزی است که من از مقاله اشپیگلهالتر و همکارانش فهمیدم. (2002). مسئله این است که، فقط برای اهداف آزمایشی، من از یک احتمال ساده گوسی شکل استفاده میکنم: $$\mathcal{L}(\theta|\mathbf{x}) = \frac{1}{(2\pi) \sigma^2)^{n/2}}\exp\left(-\sum_{i=1}^n\frac{\mathbf{x}_i-\mathbf{f}_i(\theta)}{2 \sigma^2}\right)،$$ و من مقادیر **HUGE** را برای $p_D$ دریافت میکنم. با در نظر گرفتن $\sigma$ به عنوان یک پارامتر و این واقعیت که $\theta$ در برنامه خاص من 12 بعدی است، من مقادیر $p_D$ را نزدیک به 13 انتظار دارم، اما مقادیری در مرتبه 900 دریافت می کنم! کاری که من برای ارزیابی همه چیز انجام می دهم به شرح زیر است: 1. پس از نازک کردن زنجیره MCMC، برای هر پیوند، مقدار احتمال را دریافت می کنم. این نمونهای از مقدار احتمال در هر پیوند به من میدهد، و سپس من $E^\theta[D]$ را بهعنوان تخمین میزنم: $$\hat{D} = \frac{1}{L}\sum_{i =1}^LD(\theta_i)،$$ که $L$ تعداد پیوندها و $\theta_i$ مقدار پارامترها (از جمله $\sigma$) در آن پیوند است. 2. من میانگین پسین پارامترهایم را از تمام پیوندهای MCMC خود دریافت میکنم (فرض میکنیم که از پسین نمونهبرداری میکنم) تا $\hat{\theta}$ را دریافت کنم. با تخمینهایی برای این و برای $E^\theta[D]$، من فقط مقادیر موجود در معادلهها را جایگزین میکنم. (2) و (3) برای به دست آوردن (1). با این روش من مقادیر معقولی را برای تخمین $E^\theta[D]$ بدست میآورم، اما $p_D$ درست به نظر نمیرسد. آیا مشکلی در روش من وجود دارد؟ پیشاپیش برای کمک متشکرم! | ارزیابی دستی DIC: تعداد بسیار زیادی از پارامترهای موثر؟ |
56302 | فرض کنید من مقداری مجموعه داده دارم. من مقداری رگرسیون روی آن انجام می دهم. من یک مجموعه داده آزمایشی جداگانه دارم. من رگرسیون را روی این مجموعه آزمایش می کنم. RMSE را در داده های تست پیدا کنید. چگونه باید نتیجه بگیرم که الگوریتم یادگیری من به خوبی انجام شده است، منظورم این است که باید به چه ویژگی هایی از داده ها نگاه کنم تا به این نتیجه برسم که RMSE که دارم برای داده ها خوب است؟ | مقادیر خوب RMSE چیست؟ |
56303 | اولین بار است که اینجا پست می کنم، بنابراین پیشاپیش از کمک شما سپاسگزارم. من میخواهم واریانسهای مرتبط با دو عامل را در یک مدل GLS نسبتاً ساده، اما نامتعادل تخمین بزنم، و مطمئن نیستم که چگونه آن اطلاعات را استخراج کنم (یا چگونه آن را به صورت دستی محاسبه کنم). برای دو عاملی که من استفاده می کنم، DS3 و DS4، DS3 دارای چهار سطح (WW - ZZ) و DS4 دارای هفت سطح (AA - GG) است. من از بسته nlme استفاده کرده ام. خود مدل و خروجی مدل در زیر آمده است. > library(nlme) > temp_gls4 = gls(output~DS3+DS4,data=temp_month,weights=varIdent(form=~1|DS4)) > summary(temp_gls4) حداقل مربعات تعمیم یافته متناسب با مدل REML: خروجی ~ DS3 + DS4 داده: temp_month AIC BIC logLik 1199.769 1268.615 -582.8845 تابع واریانس: ساختار: انحرافات استاندارد مختلف در هر لایه فرمول: ~1 | تخمینهای پارامتر DS4: AA BB CC DD EE FF GG 1.0000000 1.2900663 1.1351448 0.9501666 0.7463385 0.8933227 0.9123444 0.9123444 ضریب ارزش-مقابله: tvalue. 3.853300 0.1232730 31.258279 0.0000 DS3XX -0.053908 0.1505280 -0.358129 0.7204 DS3YY -0.119480 - 0.119480 0.119480 0.1505280 0.1505280 DS3ZZ -0.146255 0.1552625 -0.941988 0.3467 DS4BB 0.934175 0.2081654 4.487655 0.0000 DS4CC -0.093108 -0.09310814187810. 0.3965 DS4DD 0.831305 0.2011411 4.132945 0.0000 DS4EE 1.867642 0.2538358 7.357675 0.0000 DS4FF 1.4085851.429. 0.0000 DS4GG 0.050992 0.1779757 0.286510 0.7746 می دانم که در یک موقعیت حداقل مربع متوازن سنتی، می توانید به راحتی واریانس DS3 و DS4 را با دستکاری مجذورهای میانگین محاسبه کنید (به عنوان مثال var(DS3)-(MSSE) ، اما داده ها در اینجا متعادل نیستند و من ریاضی پشت مدل GLS و REML را در مقایسه با یک مدل حداقل مربعات سنتی نمی دانم. من سعی کردم از دستور anova استفاده کنم، اما فقط آمار F مرتبط با هر عامل را تولید می کند. هر کمکی که بتوانید ارائه دهید قدردانی خواهد شد! جان | واریانس مرتبط با عوامل در GLS (nlme) |
110220 | من تازه وارد R هستم. اکنون تیم من در حال ساخت مدل های پیش بینی برای فروش ماهانه است. فروش ما به خوبی با شاخص صنعت ارتباط دارد. به عنوان یک شاخص آینده، می توانیم هم شاخص 5 سال گذشته و هم داده های 3 سال آینده را بدست آوریم. اکنون ما از auto.arima برای تولید مدل ها استفاده می کنیم. ما می خواهیم از xreg در R برای ارتباط با این شاخص استفاده کنیم. با این حال ممکن است نیاز به حل این مشکل داشته باشیم: اگر این شاخص پیشبینی کند که فروش در ماه آینده کاهش مییابد، چگونه میتوان این شاخص آینده را در مدل آریما گنجاند و نتایج پیشبینی متفاوتی ایجاد کرد؟ آیا مدل های دیگری در R وجود دارد که بتواند به من کمک کند تا این فاکتور را لحاظ کنم؟ با تشکر | آیا می توانم شاخص آینده را در پیش بینی فعلی در مدل های R لحاظ کنم؟ |
110225 | چگونه می توانم یک آزمون دو نمونه میانگین با واریانس های نابرابر برای یک نمونه بسیار بزرگ در R انجام دهم؟ در مورد نمونه های بزرگ، آمار به طور مجانبی از توزیع نرمال پیروی می کند. کدام تابع R به من در انجام این کار کمک می کند؟ | T-Test دو نمونه ای برای میانگین های برابر با واریانس های نابرابر برای نمونه های بزرگ |
32273 | (اگر این مکان نامناسب است، با خیال راحت آن را مهاجرت کنید) در بسیاری از برنامه های پردازش زبان طبیعی مانند تصحیح املا، ترجمه ماشینی و تشخیص گفتار، ما از مدل های زبانی استفاده می کنیم. مدلهای زبان معمولاً با شمارش تعداد دفعاتی که توالیهای کلمات (n-گرم) در یک مجموعه بزرگ رخ میدهند و عادی کردن شمارشها برای ایجاد یک احتمال ایجاد میشوند. برای محاسبه n-گرم های دیده نشده، ما از روش های هموارسازی استفاده می کنیم (به چند مورد لیست شده در اینجا مراجعه کنید) که مقداری از جرم احتمال را از n-گرم هایی که در مدل تایید شده است می گیرند و این جرم را بین n-gram مرتبه پایین (توالی کلمات کوتاه تر) توزیع می کنند. ) احتمالات عقب نشینی بسیاری از تکنیک های هموارسازی به دلیل محدودیتی که محاسبات باید توزیع را به عنوان یک احتمال نگه دارند، از نظر ریاضی پیچیده می شوند (باید 1 جمع شود). دلیل این محدودیت چیست؟ مزیت استفاده از احتمالات دقیق برای پیش بینی به جای نمرات هر نوع دیگری چیست؟ | مدل سازی زبان: چرا جمع کردن تا 1 تا این اندازه مهم است؟ |
65234 | من در مدل کردن چیزی مشکل دارم... فکر میکنم نسبتاً ساده است، اما به تواناییهایم اعتماد کافی ندارم. من آزمایشی را با دو گروه درمانی، شش تکرار در هر گروه درمانی تنظیم کردم و تنوع را در سه نقطه زمانی اندازهگیری کردم. میخواهم ببینم که آیا «درمان» تأثیری دارد یا خیر، آیا تأثیری در تمام نقاط زمانی دارد یا خیر. من برای هر یک از تکرارها یک شناسه برچسب گذاری کرده ام تا بتوانم به مدل بگویم که آن تکرار را بارها اندازه گیری کرده ام. من می خواهم یک مدل اندازه گیری های مکرر انجام دهم و این همان کاری است که فکر می کنم باید انجام دهم: lmer(diversity~treatment*time+(1|id)+(1|time) آیا کسی می تواند به من بگوید که آیا این درست است یا به من بگوید چگونه برای پیدا کردن مدل صحیح؟ | اقدامات مکرر در طول زمان، دو گروه درمانی |
109374 | من تازه با تجزیه و تحلیل بقا شروع کرده ام و در پیدا کردن چیزی در «R» مشکل دارم که آنچه را که به دنبالش هستم انجام دهد. اکثر بستهها از اشیاء بقا استفاده میکنند که برای هر بیمار مورد بررسی یک رکورد جداگانه دارند (بنابراین، بیمار $1$ در زمانی که $0$_زنده_بود، بیمار $2$در زمانی که $0$_زنده_بود، و غیره). اما داده های من به دلیل اعداد بزرگتر _گروه بندی شده است. به عنوان مثال، در زمان $0$، $1000$ بیماران _زنده_ و 0$$_مرده_بودند، در زمان $1$، $975$ بیماران _زنده_ و $25$_مرده_بودند. (d1 <- data.frame(TIME=10:5، DEAD=c(0, 0, 1195, 1237, 1251, 1257), ALIVE=c(1398, 1398, 203, 161, 147, 141))) زمان DEAD ALIVE 1 10 0 1398 2 9 0 1398 3 8 1195 203 4 7 1237 161 5 6 1251 147 6 5 1257 141 آیا یک «بسته» یا چیزی در «R» یا یک مدل خاص یا چیزی وجود دارد که به من امکان می دهد تجزیه و تحلیل بقا را روی داده هایی که به این شکل قالب بندی شده است انجام دهم؟ میدانم که این سؤال ممکن است ماهیت آماری خاصی نداشته باشد، اما فکر کردم مردم اینجا بیشتر از «R» میدانند. | تجزیه و تحلیل بقا در R با داده های گروهی |
25391 | محاسبه c-index برای نتایج وابسته به زمان (مانند بیماری) با استفاده از بسته survivalROC در R ممکن است. نقطه در زمان)؟ اگر بخواهم از یک ROC استاندارد استفاده کنم، میدانم که میتوانم از تست Wilcoxon برای محاسبه p-value AUC استفاده کنم (در اینجا یک مثال ساده آورده شده است). با این حال، چون این دادههای بقا هستند، فکر نمیکنم بتوانم کاملاً از همان رویکرد استفاده کنم. من فقط به محاسبه شاخص تطابق با استفاده از بسته survcomp فکر کردهام و مقدار p را از آن بدست میآورم، با این حال «survivalROC» شاخص c را در یک زمان خاص پیشبینی میکند، در حالی که به نظر میرسد شاخص تطابق اینطور نیست. پیشنهادی دارید؟ | P-ارزش c-شاخص ROC بقا |
110229 | من دو مدل مخاطرات متناسب کاکس (در R) دارم که از نتایج و پیشبینیکنندههای یکسان استفاده میکنند، یکی برای $n_m$ مردان و دیگری برای $n_f$ زنان. آیا می توان آنها را در یک مدل معادل برای همه افراد $n_m+n_f$ ترکیب کرد، برای مثال از تعامل بین پیش بینی کننده ها و جنسیت استفاده کرد؟ برای مثال، این به معنای داشتن ضرایب یکسان با هر یک از مدلهای خاص جنس کار نمیکند: کتابخانه(بقا) n <- 200 d <- data.frame(time=rexp(n)، رویداد=sample( 0:1، n، جایگزین=صحیح)، x=rnorm(n)، جنسیت=نمونه(c(m، f)، n، جایگزین=TRUE)) l1 <- coxph(Surv(زمان، رویداد) ~ x، داده = زیر مجموعه (d، جنسیت == m)) l2 <- coxph(Surv(زمان، رویداد) ~ x، داده = زیر مجموعه(d، جنسیت == f )) l3 <- coxph(Surv(زمان، رویداد) ~ x * جنسیت، داده=d) > coef(l1) x -0.1841861 > coef(l2) x 0.01391554 > coef(l3) x sexm x:sexm -0.009145576 0.060432017 -0.179186702 | ترکیب دو مدل Cox PH مجزا در یک مدل؟ |
51333 | اگر کسی بخواهد یک مدل غیر استاندارد را تخمین بزند - به عنوان مثال، مدلی که شکل عملکردی آن به صراحت در کتاب های درسی آمار بیان نشده است - آیا می توان اکثر چنین مدل هایی را با استفاده از بهینه سازی حداکثر احتمال تخمین زد؟ فرض بر این است که باقیمانده ها به طور معمول توزیع می شوند، و سپس مدل به صورت بازگشتی با احتمال ورود به سیستم شرطی داده شده، برای مثال، توسط جیمز دی. همیلتون در تحلیل سری زمانی در صفحه 132 تخمین زده می شود. سپس خطاهای استاندارد محاسبه می شوند. از تخمین ماتریس هسین گرفته شده است. من میتوانم چند موقعیت را ببینم، مانند مجموعه دادههای نامنظم، که در آن ممکن است مشکل باشد. اما این فقط یک سوال کلی تر است. | آیا تقریباً هر مدلی را می توان با استفاده از حداکثر احتمال تخمین زد؟ |
64547 | من علاقه مند به یافتن اطلاعات بیشتر در مورد استفاده از تضادهای برنامه ریزی شده _a priori_ در طراحی ANOVA اندازه گیری های تکراری یک طرفه هستم. پیشبینیها: * Grps 2+3 <Grp 1 * Grp 2 <Grp 3 سؤالات من این است: 1. **اگر دادهها فرضیات RM ANOVA (مانند نرمال بودن، کروی بودن) را نقض میکنند، این چگونه بر دقت تضادهای برنامهریزی شده تأثیر میگذارد؟ ** 2. به دنبال این، اگر تحولات در نظر گرفته شد اما موفقیت آمیز نبود، ** آیا راهی برای اجرای تضادهای برنامه ریزی شده در یک جایگزین ناپارامتریک؟ ** حس من نه است، اما دیگران پیشنهاد می کنند از اینجا به کجا بروید؟ (به عنوان مثال، آیا راهی برای ترکیب متغیرها در SPSS وجود دارد (به عنوان مثال، برای اولین پیش بینی که در آن دو گروه در یک خوشه وجود دارد)؟ | مقایسه های پیشینی در طرح اندازه گیری های مکرر |
65231 | سه متغیر تصادفی $X,Y,Z$ را در نظر بگیرید که بطور مشترک به طور معمول توزیع شده اند. من می دانم که $Y$ متعامد به $X$ مشروط در $Z$ است، به این معنا که $\beta_{YX;Z}=0$ (یعنی ضریب رگرسیون Y در X مشروط در Z صفر است). می خواهم بدانم آیا درست است که این شرط متعامد را به صورت زیر بیان کنیم: $$ X \bot Y | Z $$ به عبارت دیگر، من علاقه مند به درک تقدم عملگر برای متعامد هستم. | نشانه گذاری متعامد |
93100 | من سعی می کنم بفهمم که آیا عبارت زیر درست است: $$ E(XY)= E(X^2)=E(Y^2) $$ اگر $X$ و $Y$ به طور یکسان توزیع شده باشند اما لزوماً r.v مستقل نیستند. این بدان معناست که اگر متغیرها به طور یکسان توزیع شده باشند، انتظار ضرب هر جفت از آنها یکسان است که انتظار یکی از آنها را به مجذور محاسبه می کنیم، به این دلیل که می توان آنها را به عنوان متغیر _یکسان_ در نظر گرفت، زیرا با ما سروکار داریم. با انتظار آنها با تشکر | مقدار مورد انتظار ضرب متغیرهای تصادفی با توزیع یکسان |
56304 | من می خواهم قدرت مشاهده شده را با تجزیه و تحلیل مدل ترکیبی (یا ANOVA اندازه گیری های مکرر) گزارش کنم. آزمایش من یک طرح کاملاً درون موضوعی با 2 عامل مستقل (به ترتیب دو سطح و 5 سطح) را دنبال کرد. 12 شرکتکننده برای اجرای 10 ترکیب (5x2) دو بار (مشاهدات مکرر) انتخاب شدند که 240 مشاهده انجام شد. برخی از دادههای گمشده وجود داشت، بنابراین کل مشاهدات واقعی 230 بود. من قبلاً هرگز از G*Power استفاده نکردهام، اما به نظر ابزار بسیار قدرتمندی است. من سعی کردم یک تجزیه و تحلیل post hoc را مطابق شکل زیر اجرا کنم. قدرت حاصل آنقدر زیاد است (0.933) که من کمی شک دارم. من حجم نمونه را به معنی # آزمودنی (12) در نظر گرفتم و تعداد گروه ها به سطوحی برای عوامل بین موضوعی اشاره دارد، که من هیچ کدام را ندارم. اشتباه بین معیارهای تکرار فقط چیزی بود که من تخمین زدم [ویرایش: فکر میکردم این پارامتر تفاوت زیادی ایجاد نمیکند، اما همینطور است. تغییر آن به 0.5 در واقع قدرت را به 0.5 کاهش می دهد] آیا اشتباهی وارد کردم؟ ممنون می شوم اگر کسی بتواند به من کمک کند تا این تحلیل قدرت را بفهمم. تجزیه و تحلیل: تعقیبی: محاسبه توان به دست آمده ورودی: اندازه اثر f = 0.2 α err prob = 0.05 حجم نمونه کل = 12 تعداد گروه ها = 1 تعداد اندازه گیری = 10 Corr در بین معیارهای تکرار = 0.8 تصحیح غیر کروی ε = 1 خروجی: پارامتر غیر متمرکز λ = 24.0000000 F بحرانی = 1.9758061 عدد df = 9.0000000 مخرج df = 99.0000000 توان (1-β خطا خطا) = 0.9333319 | یافتن توان پسهک ANOVA اندازهگیریهای مکرر با استفاده از G*Power (آیا پارامترهای درست را وارد میکنم؟) |
110228 | در جزئیات، من این روابط را دارم (به ترتیب علیت): $u_1 = ax_0$ x_1 = u_1 + x_0$ $y = x_1 + w$ که در آن $w = N(0,1)، x_0 = N(0، \sigma^2)$. این رویکرد من بود: من توزیع $x_1 = N(0,(1+a)^2\sigma^2)$ را می دانم و می دانم $y = N(0,(1+a)^2\sigma^ 2 + 1)$ انتظار برای یافتن این است: $E[x_1|y]$. چیزی که من قادر به درک آن نیستم این است که چگونه می توان این انتظار را محاسبه کرد، و وابستگی متقابل دو متغیر: $x_1$ و $y$. من می دانم که $y$ به $x_1$ بستگی دارد، اما آیا برعکس آن نیز صادق است؟ | چگونه میتوان $E[x|y]$ را پیدا کرد وقتی توزیعهای y و x به طور جداگانه شناخته میشوند، (ص. هر دو گاوسی هستند)؟ |
32278 | من یک متاآنالیز کوچک از رتبهبندی اولویتها برای اشیاء در دو شرایط مختلف انجام میدهم. من z و SE فیشر را برای هر مطالعه محاسبه می کنم. 1) مطالعاتی با تعداد کارآزمایی کاملاً متفاوت وجود دارد. به عنوان مثال، یک مطالعه با 24 آزمودنی و 2 کارآزمایی برای هر آزمودنی و یک مطالعه با همان 24 آزمودنی و 44 کارآزمایی برای هر آزمودنی وجود دارد. چگونه می توان چنین تنوعی را در نظر گرفت؟ فرمول SE از z (1/sqrt(n-3)) به طور معکوس به اندازه نمونه وابسته است، اما در چنین شرایطی چه چیزی را به عنوان نمونه در نظر بگیریم؟ تعداد آزمودنی ها، تعداد کارآزمایی ها، یا ضرب هر دو، یعنی تعداد کل کارآزمایی ها در هر آزمایش؟ 2) مطالعاتی وجود دارد که از داده های غیر انباشته استفاده می کنند. به عنوان مثال، در یک مطالعه از مقیاس دوجمله ای دوست دارم در مقابل دوست ندارم استفاده شده است و تعداد کل پاسخ های پسندم و دوست ندارم گزارش شده است. برای محاسبه z ابتدا d کاکس را محاسبه می کنم، سپس آن و واریانس آن را به z و SE از z تبدیل می کنم. SE حاصل از z در مقایسه با مقدار محاسبه شده با استفاده از 1/sqrt(n-3) بسیار کوچک است. چگونه می توان این مطالعه را به درستی در تجزیه و تحلیل گنجاند؟ | چگونه در متاآنالیز انباشتگی روی موضوعات را محاسبه کنیم؟ |
114434 | سوال من ممکن است کمی مبهم باشد، اما من شروع به تعجب کردم که پارامترهای موثر در یادگیری ماشین به چه معناست؟ من شنیده ام که تعداد کمی از اساتید یادگیری ماشین در دانشگاهم در مورد پارامترهای موثر صحبت می کنند (زمینه مربوط به k-نزدیک ترین همسایگان یا مدل های مخلوط گاوسی و غیره بود). هیچ توضیحی در مورد اینکه این ممکن است به چه معنا باشد؟ برای هر کمکی از شما متشکرم! P.S. من این اصطلاح را در کتاب: The Elements of Statistical Learning ویرایش 2، Trevor Hastie، صفحه 15 نیز دیده ام. | منظور از پارامترهای موثر در یادگیری ماشین چیست؟ |
82379 | من می خواهم اثرات ثابت و تصادفی برخی از متغیرهای کمکی را روی یک متغیر گسسته با مقادیر غیر منفی آزمایش کنم. در تجزیه و تحلیل اکتشافی من یک پواسون GLM تهی و یک پواسون GLMM تهی نصب کردم. با این حال، GLMM مقدار میانگین متغیر پاسخ را حتی پس از گنجاندن متغیرهای کمکی ثابت و/یا تصادفی دست کم گرفت. من همچنین رویکردهای بیزی، مدلهای با تورم صفر و توزیعهای دوجملهای منفی را امتحان کردم، اما «مشکل» همچنان باقی است. میانگین متغیر پاسخ: 0.7804 GLM intercept: 0.7803772 GLMM intercept: 0.6595108 آیا رهگیری تخمینی GLMM نشان دهنده برازش ضعیف مدل است؟ خلاصه (banco2$caes) حداقل 1 ق. میانگین میانه 3rd Qu. حداکثر 0.0000 0.0000 0.0000 0.7804 1.0000 12.0000 mod1 <- glm(caes ~ 1, poisson, banco2) باقیمانده انحراف: حداقل 1Q میانه 3Q حداکثر -1.2493 -1.2493 -1.2493 6.5689 ضرایب: برآورد Std. خطای z مقدار Pr(>|z|) (Intercept) -0.24798 0.01078 -23.01 <2e-16 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 (پارامتر پراکندگی برای خانواده poisson برابر با 1) انحراف صفر: 15304 در 11027 درجه آزادی انحراف باقیمانده: 1530 11027 درجه آزادی AIC: 27654 تعداد تکرارهای امتیازدهی فیشر: 5 exp(mod1$ضرایب[1]) (تقاطع) 0.7803772 (mod2 <- lmer(caes ~ 1 + (1 | setor)، poisson، داده = banco2)) مدل ترکیبی خطی تعمیم یافته برازش فرمول تقریب لاپلاس: caes ~ 1 + (1 | تنظیم کننده) داده: banco2 AIC BIC logLik انحراف 13575 13590 -6785 13571 اثرات تصادفی: نام گروه ها Variance Std.Dev. setor (Intercept) 0.39817 0.63101 تعداد obs: 11028، گروهها: setor، 559 جلوههای ثابت: Estimate Std. خطای z مقدار Pr(>|z|) (Intercept) -0.41626 0.02937 -14.18 <2e-16 *** exp(fixef(mod2)) (Intercept) 0.6595108 با احترام! | پواسون نول GLMM میانگین متغیر پاسخ را دست کم می گیرد. آیا این نشان دهنده عدم تناسب است؟ |
25392 | من اخیراً به نمرات گرایش علاقه پیدا کرده ام. من از ابزار SPSS ایجاد شده توسط دکتر F. Thoemmes برای محاسبه امتیازات تمایل با استفاده از متغیرهای درمان دو متغیره (مانند افسردگی) و چندین متغیر کمکی (مانند سن، جنس، افراد خانواده) استفاده کرده ام. سپس یک نمره تمایل به من داده می شود، اما در این فکر هستم که با آن چه کنم. من خوانده ام که آنچه معمول است این است که دو نفر را که دارای امتیازات گرایش تقریباً یکسانی هستند (به عنوان مثال، دو نفر شماره گروه 17 را دریافت می کنند) اما در واقع در متغیر درمان شما (مثلا افسردگی) متفاوت هستند، و سپس یک زوج انجام دهید. آزمون t بر اساس تعداد گروه و متغیرهای وابسته (به عنوان مثال، درآمد خانوار). در این مثال، میبینیم که چگونه دو فرد با همه گرایشهای یکسان (به عنوان مثال، سن، جنس، افراد خانواده) اما در متغیر درمان شما متفاوت هستند، در واقع بر اساس افراد وابسته شما متفاوت هستند. این ایده برای من منطقی است، اما نرم افزار در واقع تطبیق را بر اساس امتیازات تمایل انجام نمی دهد، و من نمی دانم چگونه آنها را با استفاده از SPSS یا Excel مطابقت دهم، و نمی خواهم فعلاً برای یادگیری نحوه انجام این کار به خود زحمت بدهم. در یک برنامه/زبان دیگر (به عنوان مثال، R). این تنبلی، بیایید آن را بنامیم، مرا مجبور به تحقیق بیشتر کرده است. دو نویسنده بیان میکنند: پس از تکمیل تطابق، نمونههای همسان ممکن است با یک آزمون t غیر جفتشده مقایسه شوند. (تطبیق به اشتباه پیشنهاد میکند که دادههای حاصل باید بهگونهای تجزیه و تحلیل شوند که گویی جفتهای همسان هستند. نمونههای تیمار شده و تیمار نشده باید با این حال، مستقل در نظر گرفته شود، زیرا هیچ دلیلی وجود ندارد که باور کنیم نتایج افراد همسان به هر نحوی با هم مرتبط هستند). (Schafer & Hang, 2008). به نظر میرسد تحقیقات دیگر نشان میدهد که افراد اغلب نمرات گرایش را در رگرسیونهای لجستیک در کنار متغیر مستقل مورد علاقه خود وارد میکنند و ببینند که چگونه متغیر مستقل پیشبینی میکند در حالی که میل برای آن کنترل میشود. اگرچه این خط تحقیق جالب است، اما باید اعتراف کنم که در مورد اینکه چه روشهایی ممکن است/بهترین روشها از نظر انجام تحلیلهای کمی پس از محاسبات امتیاز تمایل کمی گم شدهام. هر گونه راهنمایی در این مورد قابل قدردانی خواهد بود. احتمالاً سؤالات بعدی نیز خواهم داشت! ویرایش: میخواهم تاکید کنم که پس از دریافت امتیازات تمایلی که برای هر فرد محاسبه میشود، نگران انواع تحلیلهای استنتاجی هستم. برای مثال، شاید بتوانم امتیاز تمایل به افسردگی (بله، خیر) را بر اساس متغیرهای کمکی (سن، تعداد افراد خانواده، مصرف سیگار، جنس، وضعیت) محاسبه کنم. این برنامه یک امتیاز تمایل را به عنوان یک متغیر جدید برای هر فرد محاسبه می کند. پس از این، من علاقه مندم ببینم که آیا افسردگی با درآمد خانوار مرتبط است یا خیر، در حالی که کنترل/در نظر گرفتن/تطابق (شاید کلمه را بر اساس روشی که پیشنهاد می کنید انتخاب کنید) اثر مرتبط با گرایش. | چگونه یا بهترین راه برای اعمال امتیازهای تمایل پس از تطبیق چیست؟ |
64543 | من با دادههای رفتاری شیرهای دریایی نر کار میکنم، با یک مدل دوجملهای برای درک تأثیر متغیرهای مختلف در تعیین مکان رویارویی بین نرها (زمین در مقابل آب). برای این من چندین متغیر کمی و طبقه بندی دارم. من در حال آزمایش اهمیت نسبت شانس برای هر متغیر با استفاده از آزمون های نسبت درستنمایی هستم. برای مجموعه داده من، متغیر دما به 3 دسته مختلف تقسیم شد: مقادیر 1 <20 درجه سانتیگراد، مقادیر 2 بین 20 درجه سانتیگراد و 30 درجه سانتیگراد، و مقادیر 3> 30 درجه سانتیگراد. نتایج نسبت شانس نشان می دهد که احتمال وقوع یک تعامل تهاجمی در زمین در هنگام رفتن از بازه دمایی اول (<20 درجه سانتیگراد) به بازه دوم (30-20 درجه سانتیگراد) 9 درصد افزایش می یابد. با این حال، احتمال وقوع یک فعل و انفعال تهاجمی در زمین در هنگام رفتن از بازه دمایی دوم (30-20 درجه سانتی گراد) به بازه سوم (بیش از 30 درجه سانتی گراد) 8 درصد کاهش می یابد. هنگام اعمال آزمون نسبت درستنمایی (تابع lrtest) به این داده ها، یک مقدار P به من می دهد، اما چیزی که من نیاز دارم یک مقدار برای هر تغییر متغیر است: یکی برای تغییر بین بازه اول و دوم، و یک مقدار برای تغییر بین بازه دوم و سوم. این بدان معناست که برای درک اهمیت هر نسبت شانس، به آزمون نسبت احتمال نیاز دارم که متغیر طبقهبندی را در بر گیرد. اسکریپتی که من استفاده کردم این است: # MODEL WITH ALL VARIABLES > J_mod.a <- glm(as.factor(Place) ~ as.factor(TempF) + as.factor (AgType) + FemDen، data=JUNE، family= binomial(logit)) > J_mod.a فراخوانی: glm(formula = as.factor(Place) ~ as.factor(TempF) + as.factor(AgType) + FemDen، خانواده = دوجمله ای(logit)، داده = JUNE) ضرایب: (Intercept) as.factor(TempF)2 as. factor(TempF)3 as.factor(AgType)2 1.34820 0.08229 -2.53280 -1.73712 FemDen 0.11443 Degrees of Freedom: 124 Total (i.e. Null); 120 باقیمانده (7 مشاهده حذف شده به دلیل عدم وجود) انحراف صفر: 159.6 # MODEL WITHOUT TEMPERATURE > J_mod.TEMP <- glm(as.factor(Place) ~ as.factor (AgType) + FemDen, data=JUNE, family= logit)) > J_mod.TEMP فراخوانی: glm(formula = as.factor(Place) ~ as.factor(AgType) + FemDen، خانواده = دوجمله ای (logit)، داده = JUNE) ضرایب: (Intercept) as.factor(AgType)2 FemDen 0.01463 - 1.77035 0.08361 درجه آزادی: 124 مجموع (یعنی پوچ)؛ 122 باقیمانده (7 مشاهده به دلیل عدم وجود حذف شد) انحراف تهی: 159.6 انحراف باقیمانده: 129.4 AIC: 135.4 # تست نسبت احتمال بین دو مدل > J_LRT_TEMP <- lrTest, J_mod. 1: as.factor(Place) ~ as.factor(TempF) + as.factor(AgType) + FemDen Model 2: as.factor(Place) ~ as.factor(AgType) + FemDen L.R. Chisq d.f. P 2.371378e+01 2.000000e+00 7.089530e-06 پیشاپیش از همه شما که می توانید مقداری از وقت خود را صرف کرده و به من اطلاع دهید که من چه اشتباهی انجام می دهم یا چه چیزی را در اینجا از دست داده ام، تشکر می کنم. بهترین. | آزمون نسبت درستنمایی در R برای متغیرهای طبقه بندی |
58321 | من برای تجزیه و تحلیل آماری مطالعه یک جراحی خاص برای برداشتن یک سرطان خاص به کمک نیاز دارم. من از برنامه آماری R برای انجام تجزیه و تحلیل خود استفاده می کنم. داده های من در شیء study_data ذخیره می شوند. ### داده # ایجاد داده نمونه قابل تکرار set.seed(50) study_data <- data.frame( Patient_ID = 1:500, Institution = sample(c(New York, San Francisco, Houston,Chicago )، 500، T)، جنسیت = نمونه (c(مرد، مونث)، 500، T)، نژاد = نمونه (c(سفید، سیاه، اسپانیایی، آسیایی)، 500، T)، تومور_گرید = نمونه (c(یک، دو، سه، چهار)، 500 ،T)، مرحله_پاتولوژیک = نمونه (c(P0، Pa، Pis، P1، P2a، P2b، P3a، P3b، P4a، P4b)، 500، T)، بازوی_درمان = نمونه (c(یک، دو، سه، چهار)، 500، T)، سن جراحی = دور (runif(500،20،100))، Nodes_removed = round(runif(500,1,130))) داده ها به این صورت است: # اوج در شش خط اول سر داده (داده_مطالعه) بیمار_شناسه نژاد نژاد_درجه_تومور_مرحله_پاتولوژیک_درمان_بازو جراحی_سن گره ها_حذف شده 121 دو 77 130 2 2 سانفرانسیسکو زن اسپانیایی تبار سه پا دو 38 112 3 3 نیویورک زن سیاهپوست چهار P0 چهار 90 90 4 4 شیکاگو نر اسپانیایی تبار دو پیس چهار 46 4 5 5 هیوستون زن سیاه چهار P2a چهار 96 114 سیاه پی 6 نیویورک چهار 92 7 ### علاقه من من علاقه مندم در مورد اینکه چه متغیرهایی با تعداد غدد لنفاوی برداشته شده در طول جراحی مرتبط هستند بیشتر بدانم. اولین فکر من این بود که داده ها را با یک متغیر خاص طبقه بندی کنم و سپس میانگین تعداد گره های حذف شده را محاسبه کنم. به عنوان مثال، برای اینکه ببینم موسسه ای که در آن جراحی انجام شده است یا خیر، می توانم بنویسم: cbind(do.call(rbind, by(study_data$Nodes_removed, study_data$Institution, summary)) Min. 1 ق. میانگین میانه 3rd Qu. حداکثر شیکاگو 1 25.50 65.5 64.48 98.75 129 هیوستون 1 40.00 71.0 69.26 100.00 130 نیویورک 4 36.00 67.0 67.96 100.00 سانتا 156 65.76 99.00 127 این به من امکان می دهد گره های میانه حذف شده در هر شهر سازمانی را مقایسه کنم. ### سوال من میخواهم ارتباط بین همه متغیرهایم و نتیجه «گرههای_حذف شده» را به طور کامل بررسی کنم. 1. آیا باید این آمار خلاصه ساده را برای همه متغیرهایم انجام دهم؟ 2. آیا لازم است نوعی آزمون فرضیه را برای همه انجمن ها انجام دهم تا بگویم که آیا آمار خلاصه متفاوت است یا خیر؟ به عنوان مثال، آیا باید برای هر مقایسه یک میانه و یک فاصله اطمینان محاسبه کنم؟ 3. یا باید از آزمون t برای مقایسه یک گروه با گروه دیگر استفاده کنم؟ 4. در مورد متغیر چند سطحی آیا باید از ANOVA استفاده کنم؟ 5. آیا تحلیل رگرسیون خطی در اینجا نقشی دارد؟ 6. اگر بخواهم یک مدل واحد بسازم که شامل هر متغیر پیش بینی کننده ممکن باشد، از چه روشی باید استفاده کنم؟ به عنوان مثال، بگویید که من بیشتر به ارتباط بین سنی که عمل جراحی انجام شده، «سن_جراحی» و «گره های_برداشته شده» علاقه مندم. با این حال، من می خواهم این ارتباط را برای عوامل مخدوش کننده بالقوه مانند جنسیت، نژاد، درجه تومور، بازوی درمان و غیره تنظیم کنم. بهترین راه برای انجام این کار برای من چیست؟ با تشکر از هر توصیه ای که می توانید بدهید! | مشاوره در مورد تجزیه و تحلیل آماری داده های بالینی با استفاده از آمار خلاصه، آزمون t، ANOVA و رگرسیون خطی |
60047 | من تعدادی اعداد $X={x_1,x_2,...,x_n}$ دارم. من تعدادی اعداد کوچک را به آنها اضافه می کنم و $Y={y_1، y_2،...، y_n}$ که در آن $y_i=x_i+\epsilon_i$ است. چگونه می توانم $Z={z_1,z_2,...,z_n}$ را پیدا کنم تا $\sum_{i=1}^n(z_i-y_i)^2$ را به حداقل برسانم به طوری که $\hat{\text{mean} }(Z)=\hat{\text{mean}}(X)$ و $\hat{\text{var}}(Z)=\hat{\text{var}}(X)$. من آن را برای حالت ساده $\hat{\text{mean}}(X)=0$ و $\hat{\text{var}}(X)=1$ حل کردهام. با این حال، محاسبه برای حالت کلی بسیار طولانی است. من نمی دانم که آیا نسخه آماری بیشتری (امیدوارم کوتاهتر) از راه حل وجود داشته باشد. با احترام PS: $x_i\in R$ | بهینه سازی واریانس میانگین محدود |
56306 | من می خواهم زمان صرف شده برای انجام کاری (به عنوان مثال هفته های شیردهی) را به عنوان یک متغیر مستقل در یک مدل خطی قرار دهم. با این حال، برخی از مشاهدات به هیچ وجه در رفتار دخالت نمی کنند. کدگذاری آنها به صورت 0 واقعاً درست نیست، زیرا 0 از نظر کیفی با هر مقدار >0 متفاوت است (یعنی زنانی که شیر نمیدهند ممکن است با زنانی که شیر میدهند بسیار متفاوت باشند، حتی آنهایی که برای مدت طولانی این کار را انجام نمیدهند). بهترین چیزی که می توانم به دست بیاورم مجموعه ای از ساختگی ها است که زمان صرف شده را دسته بندی می کند، اما این اتلاف اطلاعات ارزشمند است. چیزی شبیه به صفر تورم پواسون نیز یک احتمال به نظر می رسد، اما من دقیقا نمی توانم بفهمم که در این زمینه چگونه به نظر می رسد. کسی پیشنهادی داره؟ | زمان صرف شده در یک فعالیت به عنوان یک متغیر مستقل |
32272 | فرض کنید سه سری زمانی، $X_1$، $X_2$ و $Y$ هستند، در حال اجرای رگرسیون خطی معمولی روی $Y$ ~ $X_1$ ($Y = b X_1 + b_0 + \epsilon$)، ما R^2 = U$. رگرسیون خطی معمولی $Y$ ~ $X_2$ دریافت $R^2 = V$. فرض کنید $U < V$ حداقل و حداکثر مقدار ممکن $R^2$ در رگرسیون $Y$ ~ $X_1 + X_2$ ($Y = b_1 X_1 + b_2 X_2 + b_0 + \epsilon$ ) چقدر است؟ من معتقدم حداقل $R^2$ باید $V$ + یک مقدار کوچک باشد، زیرا افزودن متغیرهای جدید همیشه $R^2$ را افزایش میدهد، اما من نمیدانم چگونه این مقدار کوچک را تعیین کنم و نمیدانم چگونه حداکثر برد را بدست آوریم خیلی ممنون | محدوده احتمالی $R^2$ |
25396 | آیا مانند بررسی تشخیصی (مانند موارد سری زمانی) برای رگرسیون لجستیک و مدل لاگ تکمیلی انجام می شود؟ | مدل رگرسیون لجستیک و لاگ تکمیلی |
60045 | من با آمار به خصوص در مبحث برآوردگرها و آمار کافی تازه کار هستم. من یادداشتی را می خوانم که می گوید: *بی طرفی ویژگی مطلوب (اما نه ضروری) یک برآوردگر خوب است**. سپس مثالی ارائه میکند که در آن برآوردگرهای بیطرف وجود ندارند. از آنجایی که توضیح بیشتری در مثال وجود ندارد، من در تلاش برای درک آن هستم. مثال می گوید: > اگر $X\sim B(\varphi(\theta))$ برای تابعی $\varphi$، سپس $\theta^*\in > K_0\iff\mathbb{E}_\theta\theta^*\equiv\theta^*(0)(1-\varphi(\theta))+\theta^*(1)\varphi(\theta)=\ theta,\forall\theta\in\Theta)$, > (که $K_0$ کلاس همه برآوردگرهای بی طرف است). این فقط برای مرجع است: برآوردگر $\theta_0^*=\theta_0^*(X)$ از یک کلاس $K$ از برآوردگرهای $\theta$، **کارآمد** در $K$ نامیده میشود. $\theta^*\ به K$، $$\mathbb{E_\theta}(\theta_0^*-\theta)^2\le\mathbb{E_\theta}(\theta*-\theta)^2,\forall\theta\in\Theta.$ $ برای یک تابع $b=b(\theta)،\theta\in\Theta$، اجازه دهید $$K_b=\{\theta^*:\mathbb{E}_\theta\theta^*=\theta+b(\theta),\forall\theta\in\Theta\}$$ کلاس همه باشد برآوردگرها با تعصب $b(\theta)$. من ایده اصلی برآوردگرها را درک می کنم، خاصیت مغرضانه و بی طرفانه بودن. اما من هیچ سرنخی ندارم که چرا برآوردگرهای بی طرفانه در مثال بالا وجود ندارند. میشه لطفا یکی برام توضیح بده؟ با تشکر فراوان | تلاش برای درک مثالی که برآوردگرهای بی طرفی وجود ندارد |
107527 | با فرض اینکه SVD استاندارد باشد (بدون تغییر آن) با $A = USV^T$، آیا ماتریس $A$ همیشه دارای مقادیر مثبت (0 تا $\infty$) خواهد بود؟ من متوجه شدم که ماتریسهای $U$ و $V^T$ دارای مقادیر منفی با دادههای نمونهای هستند که استفاده کردم، اما میخواهم مطمئن باشم که ماتریس $A$ فقط مقادیر مثبت دارد تا بتوانم تکنیک نرمالسازی مناسب را انتخاب کنم. . همچنین، آیا یک رابطه ریاضی بین مقادیر در ماتریس اصلی و مقادیر در ماتریس $A$ SVD وجود دارد؟ به عنوان مثال، اگر میانگین و محدوده داده های اصلی شما چنین و چنان باشد، حداکثر مقدار در SVD تابعی از آن خواهد بود. | آیا مقادیر SVD (تجزیه ارزش واحد) همیشه مثبت هستند؟ آیا بین حداکثر مقدار SVD و داده اصلی رابطه وجود دارد؟ |
63536 | من یک مجموعه داده با موضوعات ($\text{data}_0$) دارم. هر آزمودنی یک زمان پیگیری ($\text{fuy}$)، یک شاخص برای بروز ($\text{ind} = 0/1$) و یک متغیر دارد که به عنوان مثال، سال تشخیص را نشان میدهد ($\text {year}$). یک راه (من آن را ($\text{A}$) مینامم) برای نشان دادن نرخهای بروز بر اساس سال، محاسبه نرخ بروز هر سال و CI ($\text{data}_1$) و رسم آنها بر اساس سالها است. برای مثال، با plotCI (کتابخانه = gplots). نمودار دیگر ترسیم نرخ بروز در برابر سال و پوشش منحنی هموار با منطقه CI ($\text{B}$) است. مزیت ($\text{A}$) این است که خطای استاندارد را برای هر سال در نظر میگیرد در حالی که در ($\text{B}$) اینطور نیست. ($\text{B}$) نویز را در بین همه نرخهای بروز در نظر میگیرد. نمیدانم که آیا میتوان نمودار ($\text{B}$) را مستقیماً از دادههای موضوع اصلی ($\text{data}_0$) با در نظر گرفتن عدم قطعیت هر سال و لرزش در طول سالها برای CI- ترسیم کرد. منطقه (قطعه ($\text{C}$)). در زیر یک مثال جعلی برای شفاف سازی آورده شده است. امیدوارم کسی بتونه راهنماییم کنه با تشکر برای کمک. giordano # -- ایجاد داده جعلی # n آزمودنی در سال n <- 20 سال <- rep(c(1981:2000)، هر=n) سر(سال) # زمان پیگیری در سال برای هر آزمودنی fuy <- 5 + rnorm(400,0,1) hist(fuy) sum(fuy<=0) # نشانگر بروز: افزایش بروز در سال ind <- c() برای (i) در seq(5,14.5,0.5)) { temp <- i > runif(20,1,20) ind <- c(ind,temp) } ind <- as.numeric(ind) head(ind) # build data frame data0 <- data.frame(year=year, fuy=fuy, ind = ind) head(data0) with(data0, table(year,ind, useNA='ifany')) # -- محاسبه نرخ بروز و 95%-CI # با دست -روش (رگرسیون پواسون نرخ های بروز (ir) و Wald-CI) کتابخانه (sqldf) داده را ارائه می دهد1 <- sqldf (رب (انتخاب سال، SUM(fuy) fuy، SUM(ind) case، SUM(ind)/SUM(fuy) ir , FROM data0 , GROUP BY year ) ) data1 # CI: log(ir) +/- sqrt(1/cases) data1$cil <- with(data1, exp(log(ir) - qnorm( 0.975,0,1)*sqrt(1/cases))) data1$ciu <- with(data1, exp(log(ir) + qnorm(0.975,0,1)*sqrt(1/cases))) # -- (A) نمودار با کتابخانه CI (gplots) با (data1,plotCI(x=year, y=ir, li=cil,ui= ciu)) savePlot(paste(getwd(),/plot-A.jpeg, sep=),type=jpeg) # -- (B) نمودار با تابع هموارسازی ggplot(data=data1, aes(year,ir)) + geom_point() + stat_smooth() savePlot(paste(getwd(),/plot-B.jpeg, sep=),type=jpeg )   | چگونه منحنی هموار نرخ بروز را با استفاده از داده های موضوع ایجاد کنیم؟ |
60049 | من به نظریه گراف نزدیک می شوم (من پیشینه ای در علوم اجتماعی دارم) تا یک انجمن گفتگو را ترسیم کنم. انجمن/شبکه من چهار نوع رئوس دارد: نویسنده موضوع، موضوع، نظر و نویسنده نظرات (کاربرانی که نظر می نویسند با کاربرانی که موضوع را می نویسند منطبق نیست). در این مورد من اولین پستی را که بعداً نظر داده می شود، رشته می نامم. من داده ها را از وب سایت انجمن خراشیده و در یک پایگاه داده رابطه ای چهار جدولی (یک جدول برای هر نوع راس) ذخیره کرده ام. کاری که اکنون می خواهم انجام دهم این است که با تجسم انجمن به عنوان یک نمودار و محاسبه ویژگی های شبکه، بازی با داده ها را شروع کنم. اما قبل از تجزیه و تحلیل داده ها باید پایگاه داده را برای نظرات اسپم فیلتر کنم. ایده این است که انجمن را به عنوان شبکه های مختلف توصیف کنیم (مثلاً با نمایش یک مجموعه از رئوس برای به دست آوردن یک طرح ریزی یک حالت). 1) از کدام فرمت فایل برای ریختن پایگاه داده خود استفاده کنم؟ حدس میزنم بسته به اینکه فایل را چگونه ساختهام، گرافهای متفاوتی خواهم داشت، اما هنوز هم هر فرمت فایلی وجود دارد که برای دستکاری دادهها و تغییر از یک گراف یک حالته به یک گراف دو بخشی بدون کامپایل مجدد فایل از پایگاه داده مفید است. ? 2) از کدام نرم افزار استفاده کنم؟ (من کمی با R آشنایی دارم) | از پایگاه داده رابطه ای تا نمودار: قالب بندی فایل و نرم افزار |
107994 | من در حال یادگیری PCA هستم، و در حالی که این یک سوال واضح به نظر می رسد، به نظر نمی رسد برخی از ایده هایی را که پشت آن بردارهای ویژه هنگام انجام رگرسیون متعامد با PCA استفاده می شود، درک کنم. کد من در زیر و یک نمودار است. من از یک مدل پارامتری M=[X.^2;X;Y] برای تخمین یک درجه دوم با پارامترهای [2;0.7;2] استفاده می کنم. من تجزیه ارزش ویژه را روی آن انجام می دهم. با انجام این کار، من جهت های واریانس در داده ها و مقیاس چنین واریانسی را پیدا می کنم. هدف PCA یافتن کدام ویژگی است که داده ها را به بهترین شکل توصیف می کند؟ بنابراین، هنگام استفاده از کد زیر، متوجه میشوم که تخمین با دو بردار ویژه (جهتها) اول (V(:,1:2)') تناسب خوبی برای تابع فراهم میکند (نشان داده شده توسط دایرههای سبز در نمودار). با این حال، من نمیتوانم تخمین پارامتر ([2; 0.7;2]) را از این دادهها دریافت کنم (شاید شما بتوانید، اما من نتوانستم بفهمم چگونه). بنابراین در عوض من به بردار ویژه نهایی (V(:,3)) نگاه کردم و این پارامترهای تابع من را به من می دهد (با گرفتن V(1:2,3)/V(3,3)). اعمال این منجر به تخمینی می شود که توسط صلیب های قرمز نشان داده شده است. همانطور که از نمودار می بینید، هر دو تناسب بصری دقیق هستند. سوال من این است که چگونه می توانم این تابع را به دو روش جداگانه تخمین بزنم؟ من فکر کردم که اگر از بردار ویژه ای استفاده کنم که کوچکترین مقدار ویژه را نداشته باشد، یک خط را در جهت دیگری پیدا می کنم، نه جهت اصلی؟ هر کمکی که هر کسی بتواند به من بدهد قدردانی خواهد شد، فکر میکنم نحوه استفاده از PCA را میدانم، فقط در مورد این موضوع جهتگیری مطمئن نیستم. % PCA روی Quadratic با استفاده از مدل پارامتری % Setup data X=linspace(-1,1,100); Y=2*X.^2+0.7*X+2; M=[X.^2;X;Y]'; % نرمال کردن حول مرکز میانگین meanM=mean(M); MAdjust = M-repmat(meanM,100,1); % انجام تجزیه مقدار ویژه [V D]= eigs(cov(MAdjust)); % تخمین تابع با استفاده از V(:,1:2) FinalData1 = V(:,1:2)'*MAdjust'; MHat1=repmat(meanM,100,1)+(pinv( V(:,1:2))'*FinalData1)'; ٪ داده های شروع را رسم کنید و با استفاده از V(:,1:2) شکل؛ نگه دارید. scatter3(M(:،1)،M(:،2)،M(:،3)،15،'k'); scatter3(MHat1(:،1)،MHat1(:،2)،MHat1(:،3)،50، 'g','d'); % تابع تخمین با استفاده از V(:,3) c = meanM*(V(:,3)/V(3,3)); param = -V(1:2,3)/V(3,3) yhat = [X.^2;X;X.^0]'*[param ; ج]؛ % تابع تخمینی scatter3 را رسم کنید(X.^2,X,yhat,50, 'r','+'); xlabel('X^2');ylabel('X');zlabel('Y');  | شهودی که پشت آن بردارهای ویژه در PCA برای رگرسیون متعامد استفاده می شود |
57652 | من سعی می کنم یک سری زمانی هفتگی را با استفاده از تابع R 'stl' تجزیه کنم. یکی از استدلال های مهم این تابع تعداد داده ها در هر چرخه است. طبیعتاً در این مورد، 52 انتخاب می شود. با این حال، داده های من هر هفته، در همان روز هفته منتشر می شود. از این رو من گاهی اوقات 53 داده در سال دارم. چیز مهمی نیست، موافقم. اما من می خواهم در اینجا دقیق باشم. آیا روش پذیرفته شده ای برای درمان این موقعیت ها وجود دارد؟ من می توانم به چندین راه حل فکر کنم: 1/ میانگین 2 داده آخر را در سال با 53 داده؟ 2/ 2 داده آخر یا 2 داده اول را در سالها با 53 داده میانگین می کنم؟ (بسته به زمانی که در سال هستیم) 3/ یک دیتاپوینت اضافی در سالهای با 52 سال اضافه کنم؟ | استفاده از stl (تجزیه فصلی با لس) برای داده های هفتگی |
53227 | مجموعه ای از نقاط داده $(x_i,y_i)$ به من داده شده است. من باید یک نمودار پراکنده ترسیم کنم و تعیین کنم که آیا نقاط پرت وجود دارد یا خیر. اما روشی برای اندازه گیری اینکه کدام نقطه داده پرت است و کدام نه، به من آموزش داده نشده است. بنابراین چگونه می توانم آن را برای مثال در Sage یا R انجام دهم؟ من توسط گوگل متوجه شدم که حداقل دو تست برای انجام این کار وجود دارد، تست Dixon و Grubbs، بنابراین کدام یک را باید در این مشکل یاد بگیرم؟ x = c(1,34,6,47,10,49,23,32,12,16,29,49,28,8,57,9,31,10,21,26,31,52,21, 8،18،5،18، 26,27,26,32,2,59,58,19,14,16,9,23,28,34,70,69,54,39,9,21,54,26) y = c(47,76,33,78,62,78,33,64,83,67,61,85,46,53,55,71,59,41,82,56,39,89,31,43, 29,55, 81,82,82,85,59,74,80,88,29,58,71,60,86,91,72,89,80,84,54,71,75,84,79) | آزمایش برای دو متغیره پرت |
114795 | **مشکل** برای کار یادگیری ماشینی، مجموعه ای از پیش بینی ها را ایجاد می کنم. پیشبینیکنندهها در بستههای هستند - اندازهگیریهای چند بعدی (در مورد من 3 یا 4 - بعدی). سوراخ بسته نرم افزاری تنها در صورتی معنا پیدا می کند که اندازه گیری شده باشد و همه با هم گرفته شده باشد. مشکل این است که «بستههای» مختلف پیشبینیکنندهها را میتوان فقط برای بخش کوچکی از نمونه اندازهگیری کرد، و این بخشها لزوماً برای «بستههای» مختلف تلاقی نمیکنند. از آنجایی که قطعات کوچک هستند، انباشتن منجر به کاهش قابل توجه دقت می شود (برای اینکه دقیق تر باشیم فاجعه بار) **راه حل های ممکن ** من می توانم متغیرهای ساختگی ایجاد کنم که مشخص کنند آیا اندازه گیری برای هر متغیر انجام شده است یا خیر. مشکل این است که وقتی جنگل های تصادفی متغیرهای تصادفی را ترسیم می کنند، این کار را به صورت جداگانه انجام می دهند. بنابراین دو راه اساسی برای حل این مشکل وجود دارد: 1) هر بسته را در یک پیش بینی ترکیب کنید. این ممکن است، اما به نظر می رسد اطلاعات از دست خواهد رفت. 2) متغیرهای ترسیم جنگلی تصادفی را نه به صورت جداگانه، بلکه با بسته های اجباری ایجاد کنید. **مشکل برای جنگل تصادفی** همانطور که جنگل تصادفی متغیرها را به صورت تصادفی ترسیم می کند، ویژگی هایی را که بدون استفاده از آنها بی فایده هستند (یا بسیار کمتر مفید هستند) را از بسته خود می گیرد. من احساسی دارم که منجر به از دست دادن دقت می شود. **مثال** به عنوان مثال من متغیرهای 'a','a_measure', 'b','b_measure' دارم. مشکل این است که متغیرهای «a_measure» تنها در صورتی معنا دارند که متغیر «a» وجود داشته باشد، برای «b» یکسان است. بنابراین یا باید «a» و «a_measure» را در یک متغیر ترکیب کنم، یا هر دو را به صورت تصادفی ترسیم کنم، در صورتی که حداقل یکی از آنها ترسیم شود. **سوال** وقتی مجموعه های مختلف پیش بینی کننده ها برای بخش های کوچکی از کل جمعیت اندازه گیری می شوند و این مجموعه از پیش بینی ها در بسته های اجباری آمده اند، بهترین راه حل های عملی برای مشکلات چیست؟ متشکرم! | ایجاد ترکیبات اجباری از متغیرها برای ترسیم توسط جنگل تصادفی |
93812 | اگر داده را نداشته باشم، اما فقط تخمین میانگین و واریانس دو توزیع گاما مستقل را داشته باشم. از چه نوع آزمونی می توانم برای آزمایش فرضیه صفر μ1=μ2 استفاده کنم؟ | نحوه آزمایش اختلاف میانگین دو توزیع گاما |
107990 | من یک مسئله طبقه بندی باینری را با 4 متغیر پیش بینی حل می کنم. به نظر نمی رسد متغیرها به صورت خطی قابل تفکیک باشند. من از **شبکه های عصبی و کرنل SVM** استفاده کرده ام که کار می کنند و دقت مطلوبی را ارائه می دهند، اما به نوبه خود برای تفسیر بسیار پیچیده هستند و مشکلات تأخیر دارند. آیا تبدیلی مانند **box cox یا تبدیل قدرت** وجود دارد که بتوانم روی داده ها اعمال کنم و سپس از **رگرسیون لجستیک/ درخت تصمیم** برای طبقه بندی استفاده کنم. من می توانم چند درصد از دقت را قربانی کنم تا یک مدل قابل تفسیر ساده بدست بیاورم. از چه روش های مختلفی می توان برای تبدیل داده ها استفاده کرد | از چه روش هایی می توان برای تبدیل داده ها استفاده کرد؟ |
112262 | من روی سند متن کار می کنم. من سعی می کنم سند را با استفاده از Mallet Language Tool Kit فیلتر کنم. سوالات من هستند. 1. من از Macintosh os استفاده می کنم. باید ant نصب کنم؟ 2. چگونه می توانم از بسته های این دایرکتوری class/cc/mallet/classify در Java eclipse استفاده کنم؟ متشکرم. | پرسش از کیت ابزار زبان Mallet |
2282 | به دنبال این سوال، من می خواهم به روشی شمارش کنم که چند بار از یک بسته در کار روزانه خود استفاده می کنم. آیا تابع/بسته ای برای انجام این کار وجود دارد؟ در صورت عدم وجود، چگونه چنین قابلیتی را ایجاد می کنید؟ روشی که من این کار را انجام می دهم این است که آن را تغییر می دهم تا در پایان هر جلسه R، یک فایل ورود به سیستم از دستورات در مکانی ذخیره شود. در آن فایل، تمام موارد کتابخانه و نیاز را بررسی می کنم. سپس نتایج را در یک فایل (با مقداری مهر زمان) ذخیره کنید. در نهایت، من ممکن است بخواهم یک تابع (یک بار در X) این فایل را به یک مکان FTP از راه دور ارسال کند - به طوری که سایر کاربران R بتوانند نتایج را تجزیه و تحلیل کنند. (آیا راهی برای انجام این کار با R وجود دارد؟!) اگر کسی بخواهد چنین مکانیزمی را بسازد - خوشحال می شوم با ارائه یک حساب FTP مربوطه و با انتشار این خبر در R bloggers به شما کمک کنم. خیر جامعه p.s (عمدتاً برای شین): مطمئن نبودم که آیا این سؤال باید در stackoverflow باشد یا اینجا. اگر این نوع سوال هنوز در meta.stat مورد بحث قرار نگرفته بود - باید باشد. اگر اینطور بود، خوشحال می شوم بدانم نتیجه آن بحث چه بوده است. | شمارش چند بار یک بسته در R بارگذاری شده است؟ |
106084 | من از یک مدل GLM با خانواده دو جمله ای استفاده می کنم: glm (پاسخ ~ درمان، خانواده = دو جمله ای، داده = داده) تنها متغیر توضیحی _treatment_ یک متغیر طبقه بندی است. برازش مدل معلوم میشود که باقیماندهها به وضوح واریانس یکسانی در بین سطوح درمان ندارند (هتروسکداستیکی).  سوال من این است که 1) در این شرایط چه کاری می توانم انجام دهم؟ gam() برای متغیرهای طبقهبندی معنیدار نیست. از طرف دیگر، gls() فقط برای مدل خطی قابل استفاده است. 2) اگر یک عامل تصادفی اضافی در مدل (GLMM) داشته باشم و باقیمانده ها همچنان ناهمگن باشند، چه؟ glmer(response~ Treatment + (1 | groupID)، خانواده = دوجمله ای، داده=dat) آیا تکنیک یا بسته های R وجود دارد که بتواند این مشکل را حل کند؟ این سوال با مدلسازی رگرسیون با واریانس نابرابر که موقعیتهای مشابه را با مدل خطی میپرسد متفاوت است. | مدل glm یا glmm با واریانس نابرابر |
112267 | می خواهم بدانم تکنیک های رایج برای مقایسه دو هیستوگرام چیست؟ من هیستوگرام دو تصویر دارم و میخواهم ببینم آیا آنها شبیه هستند یا نه، یعنی ارتباطی بین آنها وجود دارد یا خیر. هیستوگرام برای دو قسمت مختلف بافت است.  | مقایسه دو هیستوگرام |
69322 | من به دنبال یک طرح آزمایشی مشترک برای مقایسه 6 رقم مختلف آفتابگردان و راهی برای تجزیه و تحلیل آن به عنوان بخشی از دوره ای هستم که می گذرانم. دانش رایج در کلاس من این است که آزمایش را در 4 بلوک تصادفی، هر کرت با 50 تا 100 بوته، جمع آوری دانه ها به صورت فله ای از هر کرت، و مقایسه میانگین ها در TUKEY در نرم افزار jmp توسط SAS، تنظیم کنم. آیا این روش درستی برای نزدیک شدن به این مقایسه بازده است؟ یا راه بهتری برای انجام آزمایشی وجود دارد؟ (کتاب/مقاله ای که بتواند قدم به قدم مرا برای طراحی و تحلیل این نوع آزمایشی راهنمایی کند نیز مفید خواهد بود) ..... | چگونه یک آزمایش ساده عملکرد دانه را رسم و تجزیه و تحلیل کنیم؟ |
112264 | $F(x,y) =\frac{1}{6}(x^2\, y+x\, y^2)\,,\quad 0\leq x\leq 2,\, 0\leq y \leq 1$ در بالا توزیع مشترک داده شده است، 1. چگونه تابع توزیع تجمعی y را دریابیم؟ 2. چگونه می توان تابع چگالی احتمال مشترک x و y را بدست آورد؟ من یک مبتدی در R هستم، دستورات اولیه را می دانم. با تشکر از کمک | چگونه pdf توزیع مشترک را در R پیدا کنیم؟ |
70086 | به خوبی شناخته شده است که تصحیح بسل یک برآوردگر بی طرفانه از واریانس ایجاد می کند. کاری که اساسا انجام می دهد تقسیم بر $n-1$ به جای $n$ است. حالا کاری که من انجام دادم این است که چند عدد مانند $1،2،3،4،5،60$ را انتخاب کردم و واریانس جمعیت آن را محاسبه کردم که 452.92$ است. سپس تمام 4 ترکیب ممکن (در مجموع 15) را گرفتم و واریانس نمونه آنها را محاسبه کردم (تقسیم بر $n-1$) به ترتیب. میانگین واریانس نمونه 543.5 دلار است که 90.58 دلار کاهش دارد. هنگامی که واریانس جامعه (تقسیم بر $n$) نمونه ها را در نظر می گیرم، به جای آن، واریانس متوسط 407.63 دلار را دریافت می کنم که تنها با 45.29 دلار کاهش می یابد! من چندین آزمایش دیگر از همین نوع را با اعداد، جمعیت و حجم نمونه های مختلف انجام دادم، همه با این نتیجه عجیب که واریانس جمعیت نمونه ها نسبت به واریانس نمونه بی طرفانه کمتر سوگیری دارد. چگونه می تواند باشد؟ چه چیزی را از دست داده ام؟ **ویرایش** به دلیل بحث روشن در نظرات، این سوال بعدی را پست کردم: برآوردگر بی طرفانه واریانس برای نمونه ها *بدون* جایگزینی | آیا تصحیح بسل می تواند تخمین واریانس نمونه را حتی بیشتر مغرضانه کند؟ |
94839 | من در مورد تست _F_ که توسط بسیاری از بسته های آماری همراه با خروجی رگرسیون استاندارد ارائه می شود تعجب کرده ام. همانطور که من متوجه شدم، _F_ را می توان با $$ F_{df_{reg},df_{res}} = \frac{R^2/df_{reg}}{(1-R^2)/df_{res} محاسبه کرد. }. $$ فرضیه آزمایش شده توسط این آزمون را می توان به دو روش مختلف فرموله کرد: $H_{0}$: P$^2 = 0$ $H_{1}$: P$^2 > 0$ یا $H_{0} $: همه $\beta_{i} = 0 $ $H_{1}$: یک یا چند $\beta_{i} \neq 0$ به نظر میرسد دو فرضیه اول نشان میدهند که آزمون _F_ یک دم، که به نظر می رسد با شهود من مطابقت دارد زیرا $R^2$ نمی تواند مقادیر منفی بگیرد. با این حال، مجموعه دوم فرضیه ها، آزمایش دو طرفه را پیشنهاد می کنند. به نظر من، آنها همچنین به نظر می رسد مطابقت مستقیمی بین نتیجه آزمون _F_ برای کل مدل ($R^2$) و آزمون های _t_ برای ضرایب فردی (که می دانم ممکن است همیشه اینطور نباشد) را پیشنهاد می کنند. بنابراین سوال من به این نتیجه می رسد: **آیا آزمون _F_، آزمایش اینکه آیا یک مدل مقدار قابل توجهی از واریانس را در مقایسه با مدل صفر توضیح می دهد، یک تست یک دنباله یا دو دنباله است و چرا؟** | آیا آزمون F برای R² در رگرسیون (چندگانه) یک یا دو دنباله است؟ |
102974 | اخیراً، من یک بحث مداوم در مورد ANOVA در مقابل MANOVA داشتم، اما هنوز هیچ استدلالی برای MANOVA ندارم. همکار من داده ها را برای دو بار اندازه گیری ردیابی کرده است. معلوم است که مردم دو دسته هستند. هر دو گروه از نظر رشد در طول زمان (t1 تا t2) با مقیاس روانسنجی مقایسه میشوند. در حال حاضر، چندین ANOVA استفاده میشود که هر کدام در هر مقیاس روانسنجی. من استدلال می کنم که یک MANOVA به دلیل این واقعیت که ANOVA های متعدد منجر به تجمع اشتباهات آلفا می شوند، مناسب تر است. همکار من استدلال متقابلی دارد مبنی بر اینکه متغیرها ساختارهای غیروابسته را اندازه گیری می کنند، بنابراین ما می توانیم ANOVA های متعدد را توجیه کنیم. مسئله دوم این است که در SPSS هیچ گزینه ای برای ارائه MANOVA با تکرار اندازه گیری وجود ندارد. نظر شما چیست؟ بهترین آرزوها | چه چیزی در مورد داده شده مناسب تر است: ANOVA یا MANOVA؟ |
105190 | من سعی میکنم از SVMهای تک کلاسی LIBSVM برای طبقهبندی استفاده کنم و باید دستهبندی پست جمعبندی زیر را استخراج کنم (یعنی متغیری که تابع تصمیم میگیرد) $$ \Sigma_{i=1}^{N} \alpha_i K( z,z_i) $$ من در این مورد خیلی مطمئن نیستم، بنابراین فقط می خواهم بررسی کنم که ایده درستی دارم، اما آیا می توانم مجموع را فقط با استفاده از متغیر اولیه محاسبه کنم $\textbf{w}$؟ بنابراین برای مدل libsvm $m$ من فقط w = (m.SVs)'*(m.coef) را صدا می زنم. و سپس $\textbf{w}^T \textbf{z}$ را محاسبه کنید، که در آن $\textbf{z}$ بردار ویژگی چیزی است که میخواهم طبقهبندی کنم. با این حال مطمئن نیستم، حدس میزنم محاسبه عملکرد هسته به طور واضح سادهتر باشد، اما اگر کسی راه خوبی برای دسترسی به اطلاعات در libsvm میداند، بسیار سپاسگزار خواهم بود. | استخراج متغیر تابع تصمیم از libsvm |
2715 | من کتاب G van Belle در مورد قواعد آماری شست، و تا حدی خطاهای رایج در آمار (و نحوه اجتناب از آنها) نوشته فیلیپ اول گود و جیمز دبلیو هاردین را دوست دارم. آنها هنگام تفسیر نتایج حاصل از مطالعات تجربی و مشاهده ای به مشکلات رایج می پردازند و توصیه های عملی برای استنتاج آماری یا تجزیه و تحلیل داده های اکتشافی ارائه می دهند. اما من احساس میکنم که دستورالعملهای «مدرن» تا حدودی کمبود دارند، بهویژه با استفاده روزافزون از آمار محاسباتی و قوی در زمینههای مختلف، یا معرفی تکنیکهایی از جامعه یادگیری ماشین در، به عنوان مثال. آمار زیستی بالینی یا اپیدمیولوژی ژنتیکی جدا از ترفندهای محاسباتی یا مشکلات رایج در تجسم دادهها که میتوان در جاهای دیگر به آنها پرداخت، میخواهم بپرسم: ** مهمترین قوانین سرانگشتی که برای تجزیه و تحلیل کارآمد دادهها توصیه میکنید کدامند؟** (_یک قانون در هر پاسخ، لطفا_) من من به دستورالعمل هایی فکر می کنم که ممکن است برای یک همکار، محققی بدون پیشینه قوی در مدل سازی آماری، یا دانشجوی دوره متوسط تا پیشرفته ارائه دهید. این ممکن است مربوط به مراحل مختلف تجزیه و تحلیل داده ها باشد، به عنوان مثال. استراتژی های نمونه گیری، انتخاب ویژگی یا ساخت مدل، مقایسه مدل، پس برآورد و غیره. | قوانین سرانگشتی برای آمار مدرن. |
105199 | اخیراً سعی کردهام در مورد یادگیری آنلاین بیشتر بیاموزم (کاملاً جذاب است!)، و یکی از موضوعاتی که نتوانستم درک خوبی از آن داشته باشم این است که چگونه در مورد انتخاب مدل در شرایط آفلاین در مقابل زمینههای آنلاین فکر کنم. به طور خاص، فرض کنید ما یک طبقهبندی کننده $S$ را به صورت آفلاین، بر اساس مجموعه دادههای ثابت $D$، آموزش میدهیم. مثلاً، ویژگیهای عملکرد آن را از طریق اعتبارسنجی متقاطع تخمین میزنیم و بهترین طبقهبندیکننده را از این طریق انتخاب میکنیم. این چیزی است که من در مورد آن فکر میکردم: پس چگونه میتوانیم در مورد اعمال $S$ در یک تنظیمات آنلاین اقدام کنیم؟ آیا می توانیم فرض کنیم که بهترین $S$ موجود در حالت آفلاین نیز به عنوان یک طبقه بندی آنلاین به خوبی عمل می کند؟ آیا جمعآوری دادهها برای آموزش $S$ منطقی است، سپس همان طبقهبندی کننده $S$ را گرفته و آن را در یک تنظیمات آنلاین با همان پارامترهای موجود در $D$ عملیاتی کنید، یا ممکن است روش دیگری بهتر باشد؟ اخطارها در این موارد چیست؟ نتایج کلیدی در اینجا چیست؟ و غیره. به هر حال، اکنون این موضوع وجود دارد، حدس میزنم چیزی که به دنبال آن هستم منابع یا منابعی باشد که به من (و امیدوارم دیگرانی که به این موضوع فکر کردهاند!) کمک کند تا از تفکر صرفاً به صورت آفلاین گذر کنم، و چارچوب ذهنی را برای فکر کردن به موضوع انتخاب مدل و این سؤالات به شیوه ای منسجم تر با پیشرفت خواندن من ایجاد کنید. | انتخاب مدل در آموزش آفلاین در مقابل آموزش آنلاین |
97596 | من به دنبال روشی برای محاسبه مساحت همپوشانی بین دو تخمین چگالی هسته در R، به عنوان معیار تشابه بین دو نمونه هستم. برای روشن شدن، در مثال زیر، باید مساحت ناحیه همپوشانی ارغوانی را کمیت کنم: library(ggplot2) set.seed(1234) d <- data.frame(variable=c(rep(a, 50)) , rep(b، 30))، value=c(rnorm(50)، runif(30، 0، 3))) ggplot(d، aes(value, fill=variable)) + geom_density(alpha=.4, color=NA)  سوال مشابهی مطرح شد در اینجا، تفاوت این است که من باید این کار را برای داده های تجربی دلخواه انجام دهم تا توزیع های عادی از پیش تعریف شده. بسته «همپوشانی» به این سؤال میپردازد، اما ظاهراً فقط برای دادههای مهر زمانی، که برای من کار نمیکند. شاخص Bray-Curtis (همانطور که در تابع vegdist(method=bray) بسته وگان پیاده سازی شده است) نیز مرتبط به نظر می رسد اما دوباره برای داده های تا حدودی متفاوت. من هم به رویکرد نظری و هم به عملکردهای R که ممکن است برای اجرای آن استفاده کنم علاقه مند هستم. | چگونه می توان همپوشانی بین چگالی احتمال تجربی را محاسبه کرد؟ |
105194 | من یک مولد اعداد تصادفی دارم که اعداد صحیح را در «[0, r)» تولید میکند. من می خواهم یک قطعه کد بنویسم تا آزمایش کنم که آیا اعداد از آن واقعاً به طور یکنواخت با استفاده از آزمون کای دو توزیع شده اند یا خیر. من «r» را انتخاب میکنم تا خیلی بزرگ باشد مانند «1000000» و اعداد صحیح تصادفی «10000000» بار تولید میکنم. سپس X^2 را دریافت می کنم. کار بعدی که باید انجام دهم این است که مقدار chi-square را در برابر جدول درجه آزادی بررسی کنم. اما من اجازه ندارم یکی داشته باشم یا از ماشین حساب توزیع آنلاین استفاده کنم. چه کار کنم؟ شخصی به من گفت که من فقط می توانم یک بازه را محاسبه کنم: «r^2 - 2*r*(sqrt r)» و «r^2+2*r*(sqrt r)»، سپس ببینم آیا مقدار در آن قرار می گیرد یا خیر فاصله یا نه اما دلیلش را هم نمی داند. آیا روش بالا صحیح است؟ | چگونه می توانم بدون اینکه جدول ارزش بحرانی به من داده شود، تست کای دو انجام دهم؟ |
63535 | من تعدادی نقطه $x_1,\ldots,x_m\in\mathbb{R}^n$ با وزنهای $w_1,\ldots,w_m$ بین 0 و 1 دارم. یک بیضی وجود دارد که حاوی غلظت بسیار بالایی از نقاط است. با وزنه های نزدیک به یک، اما نقاط زیادی نیز در خارج از بیضی با وزنه های بزرگ پراکنده شده اند و همه نقاط بیضی دارای وزن های بزرگ نیستند. با این حال، از بازرسی، بسیار واضح است که مرزهای این بیضی کجاست. من سعی می کنم $\mu\in\mathbb{R}^n$ و $C\succ0$ را طوری تخمین بزنم که بیضی با تمام نقاط $\left\{x\middle|(x-\mu)^ تعریف شود. T C (x-\mu) < 1\right\}$. من سعی می کنم این کار را با حل کردن: $\min_{\mu,C\succeq 0} \sum_{i=1}^m w_i L((x_i-\mu)^T C (x_i-\mu))$ انجام دهم که $L(x) = 0$ اگر $|x|<1$، $L(x) = |x|-1$ اگر $x\ge 1$. همچنین ممکن است ارزش افزودن یک جریمه بر روی تعیینکننده گزارش $C$ را داشته باشد، که معادل جریمه کردن حجم بیضی است. و من دو سوال دارم 1) آیا این به عنوان یک روش قوی برای یافتن یک بیضی مرزی منطقی است؟ آیا با توجه به مشکلی که توضیح دادم هدف طبیعی تری وجود دارد؟ من میدانم که حلکنندههایی برای یافتن حداقل حجم بیضی وجود دارد، اما این حلکنندهها شامل وزن یا پرت نمیشوند. 2) چگونه می توانم این بهینه سازی را پیاده سازی کنم؟ من چیز زیادی در مورد ترکیب برنامه نویسی نیمه معین با تلفات نوع لولا ندیده ام. | پارامترهای یک بیضی را در حضور نقاط پرت بزرگ تخمین بزنید |
24118 | جستجوی اینترنت برای آموزش PCA هزاران نتیجه (حتی ویدیو) به دست می دهد. بسیاری از آموزش ها بسیار خوب هستند. اما من نمیتوانم هیچ مثال عملی پیدا کنم که در آن PCA با استفاده از مجموعههای دادهای که میتوانم برای نمایش استفاده کنم توضیح داده شود. من به یک آموزش نیاز دارم که مجموعه داده های کوچکی را ارائه دهد که ترسیم آن آسان باشد (نه 10000 خط داده با 100 بعد) قبل و بعد از تجزیه و تحلیل PCA و تفاوت/نتایج را می توان به وضوح نشان داد. (من فکر می کنم یک مثال عملی گام به گام با داده هایی که حدود 100 خط و 3 بعد دارد عالی خواهد بود). پیشنهادی دارید؟؟ | آموزش عملی PCA با داده |
52171 | ما یک سری زمانی اتورگرسیو پراکنده به طول 1000 را با پیروی از مدل X(t)=0.2X(t-1)+0.1X(t-3)+0.2X(t-5)+0.3X(t-10)+ در نظر می گیریم. 0.1X(t-15)+Z(t) با ضرایب غیر صفر در تاخیرهای 1،3،5،10 و 15، که در آن نوآوری های Z(t) i.i.d.Garussians با میانگین صفر و انحراف استاندارد 0.1 هستند. سوال این است که چگونه می توان 1000 سری زمانی را از مدل با R یا SAS شبیه سازی کرد؟ با تشکر | چگونه می توان سری زمانی را از یک مدل معین تولید کرد؟ |
112268 | من میخواهم مقادیر p را برای اهمیت سودهای قانون تجارت همانطور که توسط LeBaron و Brock (1992) توصیف شده است، بدست بیاورم. نویسنده از آنچه توسط افرون (1973) به نام Bootstrapping توسعه داده شده است، استفاده کرده است. به این صورت است: 1. یک قانون معاملاتی (یعنی متقاطع های SMA) روی یک سری قیمت اجرا کنید. 2. میانگین بازده تولید شده توسط این قانون را محاسبه کنید و آن را ret.mean.original نامید. با شروع از اولین مقدار سری اصلی، این بازگشت ها را جایگزین کنید و اضافه کنید. 4. قانون معاملات را روی سری «قیمت جدید» اجرا کنید و میانگین بازدهی را محاسبه کنید. آن را ret.mean.new بنامید. 5. اگر ret.mean.new > ret.mean.original یک 1 وارد برداری به نام حلقه می شود. اگر ret.mean.new < ret.mean.original یک 0 وارد حلقه در موقعیت مربوطه می شود. 6. مراحل 3-5 را 10.000 بار تکرار کنید. 7. همه موارد را از حلقه جمع کنید و بر 10.000 تقسیم کنید. این مقدار پس از آن مقدار p تقریبی برای سودآوری قانون معاملاتی مورد بررسی است. H0 البته سودآوری صفر است. بنابراین کد من این است: require(quantmod) # بارگذاری دادههای قیمت از یاهو به نیاز (TTR) # برای قوانین معاملاتی نیاز دارد (PerformanceAnalytics) # برای نمودارها ابتدا یک بکآست روی سری قیمت واقعی بازار اجرا میکنیم تا ret.mean را بدست آوریم. اصلی # بارگذاری داده های شاخص S&P 500 از Yahoo! Finance getSymbols(SPY, from=2000-01-01, to=2014-05-01) Prices = SPY$SPY.Adjusted # دریافت بازده گزارش از قیمت ها ret = ROC(prices,type=continuous ) ret[1] = 0 # استراتژیها را تعریف کنید # میانگین بازگشت rsi2 = RSI (قیمتها، 2) # روند زیر sma.5 = SMA (قیمتها، 5) sma.200 = SMA (قیمتها، 200) # ایجاد سیگنالهای خرید/فروش # میانگین بازگشت sig.mr2 = ifelse(rsi2 < 50، 1، -1) sig.mr2 = تاخیر ( sig.mr2) سیگنال را # تأخیر انداخت تا سیگنال امروز فردا اعمال شود # روند زیر sig.tf.200.5 = ifelse(sma.200 <sma.5, 1, -1) sig.tf.200.5 = lag(sig.tf.200.5) # مقادیر از دست رفته را با صفر جایگزین کنید sig.mr2[is.na(sig.mr2)] = 0 sig.tf.200.5[is.na(sig.tf.200.5)] = 0 #استراتژی ret.mr2 = (ret*sig.mr2) ret.tf.200.5 = (ret*sig.tf.200.5) # برش سری ret.tf.200.5 = ret.tf.200.5[-c(1:200) ، ] # نمودار سری بازگشتی را برای مشاهده نحوه عملکرد آن بازده = cbind(ret, ret.tf.200.5, ret.mr2) ret.tf.50.15) colnames(returns) = c(Buy and Hold,TF.200.5MR2) chart.CumReturns(returns,geometric=F,legend.loc=بالا سمت چپ ) تا اینجا همه چیز خوب کار می کند. حال به بخش دشواری که من متوجه نمی شوم اشتباه می کند: # حلقه را از اینجا شروع کنید N = 200 # تعداد شبیه سازی حلقه = mat.or.vec(N,2) برای (i در 1:N){ # نمونه با جایگزینی از توزیع بازگشتی شاخص ret.new = (sample(ret, length(ret), replace = T , prob = تهی xts(prices[[1]]*exp(cumsum(ret.new))) # define strategies # mean reversion rsi2.new = (RSI(prices.new,2)) # روند به دنبال sma.5.new = (SMA (prices.new,5)) sma.200.new = (SMA(prices.new,200)) # ایجاد سیگنال خرید/فروش # میانگین بازگشت sig.mr2.new = (ifelse(rsi2.new < 50, 1, -1)) sig.mr2.new = تاخیر (sig.mr2.new,na.pad = TRUE) sig.tf.200.5.new = (ifelse(sma.200.new < sma.5.new، 1، -1)) sig.tf.200.5.new = lag(sig.tf.200.5.new,na.pad = TRUE) # مقادیر از دست رفته را با صفر جایگزین کنید sig.mr2.new[is.na(sig.mr2.new)] = 0 sig .tf.200.5.new[is.na(sig.tf.200.5.new)] = 0 #استراتژی ret.mr2.new = (ret.new*sig.mr2.new) ret.tf.200.5.new = (ret.new*sig.tf.200.5.new) # سری ret.tf.200.5 را برش دهید .new = ret.tf.200.5.new[-c(1:200)، ] Loop[i,1] = if (mean(ret.tf.200.5.new) > mean(ret.tf.200.5)) {1}else{0} حلقه[i,2] = if (mean(ret.mr2 .new) > mean(ret.mr2)) {1}else{0} } #Loop p.value.ret.tf.200.5 = sum(Loop[,1]/N) p.value.ret.mr2 = sum (حلقه[,2]/N) # نتایج p.value.ret.tf.200.5 p.value.ret.mr2 # نمودارهای سری شبیه سازی شده returns.new = cbind(ret.new، ret.tf.200.5.new، ret.mr2.new) نمودار. اولین مورد این است: مقدار p برای سود متقاطع SMA همیشه حدود 0.4 است که برای اهمیت سود اصلی بسیار بد است. در مقاله اصلی، مقادیر p همیشه حدود 0.01 هستند. اما سری زمانی که آنها استفاده کردند از سال 1920 تا 1990 یا بیشتر بود. بنابراین مقدار p بالا ممکن است نتیجه v باشد | نتایج بوت استرپینگ برای مقادیر p از اهمیت سود قانون تجارت |
102979 | ما در حال تلاش برای کشف یک استدلال شهودی در پشت ادغام اثر تصادفی مشاهده نشده هستیم. فرمول خاص این است: $f\big(y_i|x_i;\beta، \sigma_c\big)=\int_{-\infty}^{+\infty}\Big(\prod_{i=1}^{T}f_t(y_{it}|x_{it};c,\beta) \Big)(1/\sigma_c)\phi(c/\sigma_c)dc$ فکر میکنم ما بیشتر این ایده را دریافت میکنیم: شما یک افکت تصادفی به یک فرد میدهید تا مدل کند. اثر مشاهده نشده مانند IQ یا سلامتی او. اما این اثر تصادفی مشاهده نشده است، بنابراین شما آن را ادغام می کنید. اما سوال من در اینجا مطرح می شود که باعث می شود در درک خود شک کنم: آیا احتمال همه مقادیر ممکنی را که اثر تصادفی می تواند بگیرد محاسبه می کنید؟ پس چرا می گویید که آن را ادغام کرده اید؟ آیا به این معنی است که شما اجازه میدهید جلوه تصادفی همه مقادیر ممکن را بگیرد و فقط احتمالاً $\beta$ را با هر مقداری از جلوه تصادفی انتخاب کنید؟ | توضیح بصری ادغام کردن اثر تصادفی |
24115 | آیا روش Box-Cox برای مدل های گاوسی خطی با اثرات تصادفی وجود دارد؟ | تبدیل Box-Cox برای مدل های ترکیبی |
52177 | سلب مسئولیت: این برای یک پروژه تکلیف است. من سعی می کنم بسته به چندین متغیر بهترین مدل را برای قیمت الماس ارائه کنم و به نظر می رسد که تا به حال یک مدل نسبتاً خوب دارم. با این حال، من به دو متغیری برخورد کردهام که آشکارا هم خط هستند: > با (الماس، کور (دادهها. قاب (جدول، عمق، قیراط. وزن))) جدول عمق جدول قیراط. 1.00000000 0.01779489 قیراط. وزن 0.05237998 0.01779489 1.00000000 جدول و عمق به یکدیگر وابسته هستند، اما من همچنان می خواهم آنها را در مدل پیشگوی خود لحاظ کنم. من تحقیقاتی در مورد الماس انجام دادم و متوجه شدم که Table و Depth طول بالای سطح و فاصله از بالا تا انتهای یک الماس است. از آنجایی که به نظر میرسد این قیمتهای الماس با زیبایی مرتبط است و به نظر میرسد زیبایی نسبتهای مرتبطی دارد، من قصد داشتم نسبت آنها را مثلاً $\frac{Table}{Depth}$ برای پیشبینی قیمتها لحاظ کنم. آیا این روش استاندارد برای برخورد با متغیرهای خطی است؟ اگر نه، چیست؟ ویرایش: این یک نمودار از عمق ~ جدول است:  | با متغیرهای خطی چه کنیم؟ |
63538 | من سعی می کنم از glmer برای ایجاد مدل های اثرات ترکیبی لجستیک (LMEM) استفاده کنم و سپس مقایسه مدل بین آنها را اجرا کنم. پاسخ دهندگان می توانند روی بله (کد 1) یا نه (0) که به عنوان DV استفاده می شود کلیک کنند. آنها می توانند در طول زمان به هر محرک سه پاسخ بدهند. اثرات ثابت عبارتند از مدت زمان مشاهده یک محرک در نقطه هر رتبه (پیوسته، متغیر اصلی مورد علاقه)، عدد رتبه (1، 2، 3، که با مدت زمان مشاهده تجمعی همبستگی بالایی دارد) و اینکه آیا پاسخ واقعی است. بله یا نه بود (که من آن را صحت می نامم). من مدل های خود را به این صورت مشخص کرده ام: **مدل پیچیده** -- پاسخ = 1 + تعداد امتیاز (1-3) + مدت زمان مشاهده تجمعی + صحت + (1 + مدت زمان تجمعی | تعداد شرکت کننده) + (1 + مدت زمان مشاهده تجمعی | شماره مورد محرک) **مدل ساده** -- پاسخ = 1 + عدد رتبه بندی (1-3) + صحت + (1 + مدت زمان تجمعی | تعداد شرکت کننده) + (1 + مدت زمان مشاهده تجمعی | شماره مورد محرک) مدل ساده اثر اصلی مدت زمان تماشای تجمعی را ندارد. درخواست anova (ساده، پیچیده) موارد زیر را به دست میدهد: دادهها: مدلهای داده: simpleML: resp ~ 1 + پاسخ بدون + صحت + (1 + cumdur + درستی | pno) + simpleML: (1 + cumdur | itemno) پیچیدهML: resp ~ 1 + پاسخ بدون + کمدور + صحت + (1 + کودور + صحت | پیچیدهML: pno) + (1 + cumdur |. itemno) Df AIC BIC logLik Chisq Chi Df Pr(>Chisq) simpleML 12 2248.1 2313.8 -1112.0 complexML 13 2241.1 2312.3 -1107.5 ** 8.950.6. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 من این را به این معنا میدانم که افزودن متغیر مدت زمان مشاهده تجمعی به طور قابل توجهی مدل را بهبود میبخشد. من علاقه مندم بدانم که چگونه شانس پاسخ دادن به بله با هر واحد اضافی مدت زمان مشاهده تجمعی (بر حسب ثانیه اندازه گیری می شود) تغییر می کند. بنابراین برای انجام این کار، من فکر کردم که باید مدل پیچیده را با جزئیات بیشتری بررسی کنم: مطمئناً بتا در آنجا گزارش می شود، و سپس می توانم از تابع پیوند توان استفاده کنم تا به من یک شانس گزارش بدهم (امیدوارم تا اینجا درست گفته باشم) . بنابراین مدل پیچیده اینجاست: مدل ترکیبی خطی تعمیم یافته متناسب با تقریب لاپلاس فرمول: resp ~ 1 + پاسخ no + cumdur + درستی + (1 + cumdur + درستی | pno) + (1 + cumdur | itemno) داده: داده AIC BIC logLik انحراف 2241 2312 -1108 2215 اثرات تصادفی: گروه ها نام واریانس Std.Dev. Corr pno (Intercept) 3.1359e-01 0.5599916 cumdur 3.3268e-05 0.0057679 -0.014 درستی 6.8532e-01 0.8278393 -0.900 0.900 0.061 itno3.063 0.5984182 cumdur 7.7778e-05 0.0088192 -0.052 تعداد obs: 1764 گروه: pno, 49; itemno, 12 اثرات ثابت: Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) 0.326981 0.314613 1.039 0.299 answerno -0.224734 0.148566 -1.513 0.130 cumdur -0.001513 0.001513 0.001513 0.00 - <<-------- ** صحت 0.387681 0.432779 0.896 0.370 همبستگی جلوه های ثابت: (Intr) rspnsn cumdur پاسخno -0.014 cumdur -0.144 -0.759 -0.759 - 0.759 اول این صحت -0. p-value غیر معنی دار است. من فرض میکردم که p-value در اینجا یک مقدار جزئی است: اثر مدت زمان تجمعی زمانی که سایر متغیرها روی صفر نگه داشته میشوند. بنابراین این من را نگران می کند. دوم اینکه بتا فوق العاده کوچک است و نمایی 0.001513- = 0.9985 است. در شرایط واقعی، این بدان معناست که برای هر 1 ثانیه از زمان تماشای تجمعی، شانس قضاوت بله 0.002٪ (1 - 0.9985 = ) کمتر است. یا به ازای هر 100 ثانیه زمان تماشای تجمعی (که احتمالاً به طور متوسط تقریباً نصف طول یک آیتم محرک است)، احتمال قضاوت بله 0.2٪ کمتر است. این بسیار کوچک به نظر می رسد که p=.776 برای من منطقی است. اما پس چرا آزمون نسبت احتمال (یعنی آنوا (پیچیده، ساده)) یک اثر قابل توجه قوی پیدا می کند؟ من سعی کردم برای پاسخهای مختلف در گوگل جستجو کنم، اسناد بیتس را خواندهام و حتی از همکارانم پرسیدم، اما بیفایده بود. از هرگونه کمکی بسیار قدردانی می شود! * * * ## ویرایش - پاسخ ممکن است؟ دیو وینسون به اندازه کافی مهربان بوده و به من کمک کرده است، و من اکنون اطلاعات بیشتری دارم. این اطلاعات کاملاً به او نسبت داده شده است (و هر اشتباهی کاملاً به دلیل سوء تفاهم من است). من در حال حاضر اثرات تصادفی را نادیده گرفتهام و پاسخ (بله/خیر، محور y) را روی عدد رتبهبندی (1، 2 یا 3، محور x) تغییر دادهام. این y = 0.61 - 0.05x است، که در آن x عدد رتبهبندی و y پاسخ پیشبینیشده است: *[ظاهراً نمیتوانم تصاویری را بدون شهرت کافی پست کنم. مزاحم. امیدواریم مدل بالا تا حدودی از تاثیر به شما ایده بدهد.] پس از انجام این کار، من باقیمانده را محاسبه کردم (y منهای پاسخ | تفسیر ضرایب از مدل اثرات مختلط لجستیک |
93818 | من شرایط زیر را دارم: پزشک عمومی (gp)، بیمار (pat) و مشاوره (مضرات). هر gp چندین بیمار دارد و هر بیمار می تواند 1 یا بیشتر مشاوره با ویژگی های خاص cons_x داشته باشد. نتیجه در مشاوره سطح y=0/1 است. یک مدل ممکن می تواند (در نماد lmer/R) y ~ gp_sex + pat_sex + pat_age + cons_x + (1|gp) + (1|gp:pat) gp یک متغیر تصادفی است و pat در gp تو در تو است. از آنجایی که نتیجه 0/1 است (ارجاع به متخصص بله/خیر)، مدل مناسب یک رگرسیون لجستیک چند سطحی است. (1) مشکل: 50% بیماران فقط یک جلسه مشاوره دارند، یعنی تکراری وجود ندارد، دیگران 2، 3 تا 6 جلسه مشاوره دارند. من می خواهم بدانم چگونه با این نوع شرایط کنار بیایم. به عبارت دیگر: من گروه (بیماران) تنها با یک مشاوره دارم. بنابراین، درون گروه به دلیل تنها عضو گروه همبستگی کامل است. آیا چارچوب مدل های مختلط با این موضوع کنار می آید؟ (2) سؤال دیگری که مطرح میشود: تعداد مشاورهها تأثیر را بر بیمار میاندازد، زیرا همان بیمار به تعداد مشاورهای که دارد، ورودی دارد. هر چه بیمار مشاوره بیشتری داشته باشد، ویژگی های بیمار بیشتر در نظر گرفته می شود. اگر همه بیماران به یک اندازه مشاوره داشته باشند، اینطور نخواهد بود. هر کمک و اشاره قدردانی می شود. بهروزرسانی: برای سادهتر کردن آنالیز، میتوانم در سطح بیمار جمعآوری کنم: اگر یک بیمار چندین جلسه مشاوره داشته باشد و حداقل یک مشاوره 1 داشته باشد، بیمار نتیجه 1 در غیر این صورت 0 دارد. سپس من یک مدل سادهتر دارم: y ~ gp_sex + pat_sex + pat_age + (1|gp) در این صورت مشکل (1) منسوخ خواهد شد، اما من هنوز مشکل (2) دارم زیرا هر gp تعداد بیماران متفاوتی دارد. | اقدامات تکراری با اندازه گیری های منفرد |
24112 | وقتی خلاصه پنج عددی را روی نمونه خود محاسبه میکنم، چندکهایی را به دست میآورم که با چندکهایی که از سیدیاف تجربی دریافت کردم، متفاوت هستند، زیرا آنها معمولاً دادههای توزیع شده نیستند. آیا می توانید در تفسیر این تفاوت به من کمک کنید؟ به عنوان مثال، با یک مجموعه داده پواسون به طور تصادفی تولید شده x x=rpois(50, 2) خلاصه (x) Min. 1 ق. میانگین میانه 3rd Qu. حداکثر 0.00 1.00 1.50 1.82 2.75 6.00 y=ecdf(x) خلاصه (y) CDF تجربی: 7 مقدار منحصر به فرد با خلاصه حداقل. 1 ق. میانگین میانه 3rd Qu. حداکثر 0.0 1.5 3.0 3.0 4.5 6.0 به چه معناست که سومین چندک نمونه 2.75 است در حالی که برای ecdf 4.5 است؟ | کوانتیل برای سی دی اف غیر عادی |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.