_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
77263
آیا CDF یک توزیع نرمال دو متغیره با میانگین $(0,0)$ و $\Sigma = ((1,\rho),(\rho,1))$ در ضریب همبستگی $\rho$ یکنواخت است؟
توزیع نرمال دو متغیره و همبستگی
22345
من می دانم که حداقل دو رویکرد برای تخمین منحنی ناپارامتری وجود دارد: هسته و مبنای متعامد. مزایا و معایب آنها نسبت به یکدیگر چیست؟ و سناریوهای کاربردی معمول هر رویکرد چیست؟ آیا کسی می تواند توضیحی نه چندان طولانی بدهد؟
دو رویکرد تخمین منحنی ناپارامتری را مقایسه کنید: هسته و مبنای متعامد
22347
یک مقاله منتشر شده (pdf) حاوی این 2 جمله است: > علاوه بر این، گزارش نادرست ممکن است به دلیل اعمال قوانین نادرست > یا عدم آگاهی از آزمون آماری باشد. برای مثال، کل df > در یک ANOVA ممکن است به عنوان خطای df در گزارش یک آزمون $F$ در نظر گرفته شود > یا محقق ممکن است مقدار p گزارش شده $\chi^2$ یا $F$ را تقسیم کند. test > توسط دو، برای به دست آوردن مقدار $p$ یک طرفه، در حالی که مقدار $p$ تست > $\chi^2$ یا $F$ قبلاً یک تست یک طرفه است. چرا ممکن است این را گفته باشند؟ آزمون کای دو یک آزمون دو طرفه است. (من از یکی از نویسندگان سوال کردم، اما پاسخی دریافت نکردم.) آیا من چیزی را نادیده گرفته ام؟
آیا کای دو همیشه یک تست یک طرفه است؟
77260
من با استفاده از صدک های $2.5$ و $97.5$ برای ایجاد فاصله اطمینان 95$\%$، مدل بوت استرپ شده را با برخی از داده ها از سه گروه مختلف تناسب دارم. من می دانم که اگر بازه های اطمینان $95\%$ با هم تداخل نداشته باشند، بین مقادیر حداقل $p<0.05$ تفاوت معنی داری وجود دارد. من می‌خواهم مقادیر دقیق $p$ را برای مقایسه‌های زوجی بین گروه‌های زیر محاسبه کنم: میانگین LowerCI UpperCI گروه A: 0.05113 0.02279 0.07926 گروه B: 0.10979 0.07954 0.14352 0.14352 گروه C: 0.05113 گروه C: 0.05113 بسیار قدردانی خواهد شد!
مقادیر p را بر اساس تفاوت بین فواصل اطمینان 95% بوت استرپ محاسبه کنید
49050
ساختگی، خطاهای استاندارد خوشه ای یا هر دو؟
77267
من اطلاعات کمی در مورد آمار دارم. به من کمک کن، StackExchange! نرم‌افزاری که من روی آن کار می‌کنم کاری را انجام می‌دهد که فکر می‌کنم ممکن است آزمایش مشکوکی باشد. فرض کنید ما سه مقدار را اندازه گیری می کنیم (داده واقعی نیست): $$A) میانگین = 10.5، سیگما = 0.2، 15 \ نمونه $$ $$B) میانگین = 12.3، سیگما = 0.1، 17 \ نمونه ها $$ $$C ) میانگین = 22.5، سیگما = 0.3، 10 \ نمونه $$ فرضیه این است که $A+B=C$. بیایید فعلاً توزیع نرمال را فرض کنیم. تست مناسب در اینجا چیست، و آیا می توانید از طریق اعداد در مثال کار کنید؟ کاری که کد در حال حاضر انجام می دهد این است که $ABS(C-A-B)$ را با $z*\sqrt(Sa*Sa+Sb*Sb+Sc*Sc)$ مقایسه می کند (که در آن Sx سیگماهای بالا هستند و z معمولاً 3 است). برای مثال، هنگام آزمایش $A+B+C+D=E$ نیز همین الگو را اعمال می‌کنیم (مجموع واریانس در بالا و مقایسه با باقیمانده). به نظر من جمع کردن واریانس‌ها به این شکل مناسب نیست - مطمئناً تعداد نمونه‌ها باید جایی باشد؟ (BTW، تعداد نمونه می تواند از 3 تا 1000 متغیر باشد، بسته به موقعیت، اگر تفاوت ایجاد کند). آیا با افزایش تعداد مقادیر جمع شده، این آزمایش همچنان مناسب است؟ در همین راستا، در اینجا تست دیگری وجود دارد که کد ما انجام می دهد: $$A) میانگین = 10.5، سیگما = 0.2، 15 \ نمونه $$$$B) میانگین = 52.3، سیگما = 0.3، 4 \ نمونه $$ فرضیه این است که $5*A=B$. آزمایش مشابهی اعمال می‌شود، جایی که $|B-5*A|$ با $z*\sqrt(5*Sa*Sa+Sb*Sb)$ مقایسه می‌شود (تئوری این است که از آنجایی که A 5 بار استفاده می‌شود، سیگما باید 5 بار نیز گنجانده شود؟). به هر حال، همه اینها به نظر من مشکوک است، اما نمی دانم دارم چه کار می کنم.
آزمون آماری مناسب
86228
معادله تفاوت تصادفی $$ {{y}_{t+1}}=\frac{1}{a}{{y}_{t}}-\frac{b}{a}{{x}_ است. {t}}+{{\varsigma }_{t+1}} $$ where $ {a}>1; $ $ {{x}_{t}}=(1-\rho )\overline{x}+\rho {{x}_{t-1}}+{{\varepsilon }_{t}}، 0 <\rho<1; $ $ {\varsigma }_{t+1} $ یک خطای پیش‌بینی است، یعنی $ {{y}_{t+1}}={{E}_{t}}{{y}_{t +1}}+{{\varsigma }_{t+1}} $. $ {{\varsigma }_{t}} $ به صورت سریال نامرتبط است و با ${\varepsilon }_{t}$ همبستگی ندارد. $ {{E}_{t}} {{\varsigma }_{t+1}}=0 $. چگونه می توان واریانس و خودهمبستگی مرتبه اول $ {y}_{t} $ را محاسبه کرد؟ پاسخ های مرجع عبارتند از: $ \begin{align} و \sigma _{y}^{2}=\frac{{{b}^{2}}(a+\rho )}{({{a}^{2 }}-1)(a-\rho )}\sigma _{x}^{2}+\frac{{{a}^{2}}}{({{a}^{2}}-1) }\sigma _{\varsigma }^{2} \\\ & {{\rho }_{y}}(1)=\frac{1}{a}\left[ 1+\frac{{{b}^{2 }}\rho ({{a}^{2}}-1)\sigma _{x}^{2}}{{{b}^{2}}(a+\rho )\sigma _{x}^{2}+{{a}^{2}}(a-\rho )\sigma _{\varsigma }^{2}} \right] \\\ \end{align} $ پاسخ‌های من با موارد فوق متفاوت است، کسی می تواند یک مشتق دقیق به من بدهد؟ خیلی ممنون
واریانس و خودهمبستگی مرتبه اول را محاسبه کنید
82761
فرض کنید که من در حال اجرای یک تحلیل مسیر هستم و متوجه شده ام که برخی از روابط، از نظر تجربی، درجه دوم هستند تا خطی. برای مدل سازی داده ها به این صورت، می خواهم رابطه را طوری تبدیل کنم که خطی شود. سپس، آیا هر دو متغیر درگیر را از طریق گرفتن جذر آنها و سپس اجرای مجدد تجزیه و تحلیل مسیر (در یک نرم افزار SEM مانند AMOS) تغییر دهم یا فقط یکی از متغیرها را تبدیل کنم؟ به عنوان مثال، تصور کنید من سه متغیر دارم که به این صورت مرتب شده اند: A -> B -> C رابطه بین A و B خطی است و رابطه بین B و C درجه دوم است. اگر بخواهم داده را به این صورت مدل کنم، آیا متغیر C را فقط از طریق جذر گرفتن آن تبدیل می کنم؟ اصل کلی برای تبدیل کدام متغیرها چیست، در حالی که آنچه من در واقع می خواهم تبدیل کنم رابطه بین متغیرها است؟
تبدیل رابطه از درجه دوم به خطی
28616
من یک مشکل رگرسیون لجستیک چند جمله ای بسیار ساده دارم. این یک نسخه ساده شده از مثال BUGS دریاچه/غذا/اندازه تمساح است. در مورد من، من (به طور مؤثر) دریاچه/غذا دارم و به تازگی مثال alli.bug را حذف کرده ام تا اطلاعات دو بعدی را مدیریت کنم: آدرس کارگر و IP. 18 دسته کارگر و 23 دسته آدرس IP وجود دارد. متأسفانه من یک خطا دریافت می‌کنم. مشکل اولیه سازی متأسفانه، ماتریس های اولیه من نسبتاً بزرگ هستند. رویکرد تفنگ ساچمه ای برای یافتن مقادیر مناسب بعید به نظر می رسد که در یک دوره زمانی معقول موفق شود. هر گونه راهنمایی یا پیشنهاد در مورد مراحل بعدی احتمالی بسیار قدردانی خواهد شد. ویرایش: این کد است. همانطور که اشاره کردم، این فقط یک نسخه حذف شده از مثال تمساح است. من همچنین با زیرنویس‌های X[i,] کمی سر و کله زده‌ام، بنابراین پیام خطا ممکن است کمی متفاوت باشد (به جای X[1,1:23] به گره X[1,1] اشاره می‌کند). var X[I,K]، # مشاهدات I = تعداد کارگران = 18، K = تعداد مشاغل = 23 n[I]، # کل برای هر الگوی متغیر E[I,K]، # مقدار برازش OlogOE[I، K]، # O log O/E G2، # آمار برازش فی[I,K]، # exp (بتا[k] ' x[i,j]) p[I,K]، # احتمال برازش آلفا[K]، # عامل برای مشاغل = 2،...، 23 بتا[I،K]، # ضریب برای کارگران = 2،...،18 برای هر شغل b[I،K]; # عامل برای کارگران = 2،..،،18، نسبت به شغل 1، مدل متمرکز { # PRIORS alpha[1] <- 0; # کنتراست صفر برای کارگران پایه برای (k در 2:K){ alpha[k] ~ dnorm(0,0.001); # مقدمات مبهم } # حلقه دور کارها: برای (k در 1:K){ beta[1,k] <- 0; # کنتراست نقطه گوشه با اولین کارگر } برای (i در 2:I) { beta[i,1] <- 0; # کنتراست صفر برای کارگر پایه برای (k در 2:K) { beta[i,k] ~ dnorm(0,0.001); # پیشینی مبهم } } # LIKELIHOOD برای (i در 1:I) { # حلقه اطراف کارگران برای (k در 1:K) { # حلقه در اطراف مشاغل # پاسخ چند جمله ای X[i,k] ~ dmulti(p[i,k ]، n[i])؛ p[i,k] <- phi[i,k] / sum(phi[i,]); log(phi[i,k]) <- alpha[k] + beta[i,k]; } } # FITTED VALUES for (i در 1:I) { # loop around worker for (k در 1:K) { # loop around jobs E[i,k] <- p[i,k] * n[i] ; OlogOE[i,k] <- X[i,k] * log( X[i,k] / E[i,k] ); } } G2 <- 2 * sum( OlogOE[,] ); }
JAGS: والدین مشاهده نشده و مقداردهی
28617
من سعی می کنم یک شبکه بیزی بسازم که تقلب را شناسایی کند. من مجموعه داده های عظیمی با عناصری مانند کشور، تاجر هزینه های بالا فقط برای نام بردن یک زوج دارم. اولین بخش مشکل من استفاده از مجموعه آزمایشی داده است که حدود 11000 ردیف در اکسل است و از آن برای استفاده از فرمول Bayes برای دیدن $P(\text{Fraud}|\text{هر متغیر})$ استفاده می کنم. بعد از اینکه این کار را انجام دادم باید این کار را روی بقیه داده ها انجام دهم و ببینم آیا الگوریتم خوبی است یا خیر. این اولین قسمتی است که من با آن گیج شده ام. چگونه این کار را انجام دهم؟ من $P(\text{Fraud}|X_1)=P(X_1|\text{Fraud})\frac{P(\text{Fraud})}{P(X_1)}$ را می‌دانم و نمی‌دانم چرا دارم گفته شد که این کار را روی یک مجموعه آزمایشی از داده ها انجام دهید.
ساخت شبکه بیزی از ابتدا
92390
من در حال مطالعه مدل های ARMA هستم. ARMA(25,25) یا ARMA(1,1) کدام مدل بهتر است؟ چرا؟ فکر می کنم دلیلش حذف متغیر نامربوط است
کدام مدل آرما بهترین است؟
73015
من می‌دانم که مدل‌های متمایز، مانند CRF (فیلدهای تصادفی شرطی)، احتمالات شرطی $P(y|x)$ را مدل می‌کنند، در حالی که مدل‌های مولد، مانند HMM (مدل مارکوف پنهان)، احتمالات مشترک را مدل می‌کنند $P(y,x) $. برای مثال CRF و HMM را در نظر بگیرید. من می دانم که CRF می تواند طیف وسیع تری از ویژگی های ممکن را داشته باشد. جدای از آن، چه چیز دیگری باعث می‌شود که CRF (مدل‌های تبعیض‌آمیز) به HMM (مدل‌های تولیدی) در کارهای برچسب‌گذاری دنباله‌ای مانند برچسب‌گذاری بخشی از گفتار و NER (تشخیص نهاد نام) ترجیح داده شود؟ **ویرایش:** متوجه شدم که HMM ها باید $P(x)$ را مدل کنند، در حالی که CRF ها اینطور نیستند. چرا تفاوت زیادی در وظایف برچسب‌گذاری دنباله ایجاد می‌کند؟
چرا مدل‌های متمایز به مدل‌های مولد برای وظایف برچسب‌گذاری دنباله ترجیح داده می‌شوند؟
73012
ویرایش: فکر می‌کنم واقعاً محور سؤال من بیشتر متا است، واقعاً چگونه باید به داده‌های بقا فکر کنم و چگونه بدانم که چه نوع توزیعی باید در آن قرار بگیرم؟ آیا منابعی وجود دارد که چگونه داده های دنیای واقعی را می توان با توزیع های احتمالی فراتر از حد معمول اعمال کرد؟ مثلاً اگر بخواهم از توزیع ویبول برای این داده استفاده کنم، واقعاً چگونه اتفاق می افتد؟ \-- من در حال تلاش برای ایجاد یک منحنی بقا برای یک شرکت اشتراک هستم، که در آن کاربر ثبت نام می کند، یک محصول هفتگی را دریافت می کند و سپس می تواند در هر زمانی در آینده آن را لغو کند. بهترین راه برای تنظیم داده ها چیست؟ من در حال حاضر همه را بر اساس هفته‌های موجود جمع‌آوری می‌کنم، و نه زمان تقویم، به عنوان مثال. هرکسی یک هفته زمان داشته است[1]، هرکسی که بیش از یک سال بوده است یک هفته دارد[52]، هرکسی که سه هفته پس از ثبت نام لغو کرده است، چه در دسامبر یا آگوست ثبت نام کرده باشد، در هفته [3] لغو شده است. داده‌هایی که من به بسته بقای R's K-M وارد می‌کنم به‌عنوان customer_id، هفته‌های بقا، is_cancel (به‌عنوان 1 برای لغو یا 0 برای عدم) ساختار یافته است، می‌دانم که Kaplan Meier برای هر هفته t، 1-(مرگ‌ها[ t]/بقاها[t]). این شرکت در حال حاضر به ریزش از نظر بقا[t]/total[t] نگاه می‌کند، که در آن مجموع[t] برابر با بقا[t]+ مرگ[t] است. این منحنی ها اشکال بسیار متفاوتی دارند، با نسخه کاپلان مایر لگاریتمی به نظر می رسد، در حالی که مدل فعلی شرکت بسیار شبیه a*x^-b است. آیا کسی می داند که آیا روش استانداردی برای بررسی ریزش مشتری وجود دارد؟ آیا یک راه بهتر از دیگری است، به خصوص اگر من منحنی را طوری تنظیم کنم که احتمال بقای آینده را پیش بینی کنم تا در نهایت LTV/CLV را مدل کنم؟ من از هر بینش قدردانی می کنم. با تشکر
تجزیه و تحلیل بقا -- کاربرد تعریف احتمال و توزیع
92391
من 80 نفر را با داروی X و 80 نفر را با داروی Y درمان کردم. داروها را در گروه های 10 نفری (گروه های میو) به آنها ارائه کردم. این دارو به مدت 15 هفته مصرف شد. آنها شدت سردرد خود را (از 1 تا 100) یک بار در هفته گزارش کردند. همه افراد فقط در یک گروه میو هستند و همه افراد در یک گروه میو داروی مشابهی دریافت کردند. گروه میو که فرد در آن قرار دارد (نه تنها دارو، بلکه گروه 10 میو واقعی) بر نتایج درمان تأثیر می‌گذارد، زیرا گروه‌ها هر هفته ملاقات می‌کنند. در اصل، من: * 2 دارو (درمان) * 16 گروه میو * 160 مورد * 15 نقطه زمانی دارم. اساساً، می‌خواهم شیب شدت سردرد برای داروی X را بدانم، و اینکه آیا این شیب با داروی Y متفاوت است یا خیر. لطفاً توجه داشته باشید که من به طور کلی به شیب‌ها، سرعت/زمانی که تغییر می‌کنند، یا تفاوت گروه‌های میو علاقه خاصی ندارم. من بیشتر علاقه مند به مقایسه اثربخشی داروها هستم. من می خواهم مدل سازی ترکیبی انجام دهم. من فکر می کنم شرایط درمان باید یک عامل ثابت باشد، نقاط زمانی باید یک عامل ثابت متغیر کمکی باشد تا بتوانم یک شیب را در طول زمان تخمین بزنم، و اینکه نقاط زمانی باید به عنوان تخمین های اندازه گیری مکرر تخمین زده شوند. همچنین قدردانی می کنم که باید مدل های مختلف را اجرا کنم و آنها را تست کنم و تناسب را بررسی کنم. به‌طور کلی، **مناسب‌ترین راه برای آزمایش فرضیه‌ام با استفاده از طرح مدل ترکیبی در SPSS (با توجه به اطلاعاتی که دارید) چیست؟ ** این نحو SPSS است که من تا کنون دارم: `درد مخلوط شده توسط دارو با زمان /CRITERIA=.... /تثبیت=دارو زمان دارو*زمان | SSTYPE(3) /METHOD=REML /RANDOM=INTERCEPT | SUBJECT(id) COVTYPE(ID) /REPEATED=time | SUBJECT(id) COVTYPE(AR1).` (گروه meow در این نحو وجود ندارد زیرا نمی دانم قرار است به کجا برود). من درک کلی از اینکه فاکتور تصادفی و ثابت چیست، دارم، اما نمی‌دانم که این عوامل در عمل چگونه روی یکدیگر تأثیر می‌گذارند (لطفاً توجه داشته باشید که من نمی‌توانم اکثر فرمول‌ها را بخوانم، بنابراین اگر بخواهید به انگلیسی ساده نیاز است. برای کمک به آن جبهه!). به عنوان مثال، **افزودن دارو (یا زمان) به عنوان یک اثر تصادفی چگونه بر تخمین شیب های مورد علاقه من تأثیر می گذارد؟** به طور مشابه: * آیا نقاط زمانی نیز باید یک اثر تصادفی باشند؟ * چگونه باید متغیر گروه میو را مدیریت کنم؟ ثابت یا تصادفی یا هر دو؟ * تعیین یک متغیر موضوعی چگونه بر ارتباط اثر تصادفی با متغیر وابسته تأثیر می گذارد؟ * آیا حداقل تعداد سطوح لازم برای اینکه یک متغیر یک اثر تصادفی باشد وجود دارد؟ من خوانده ام که تنها داشتن دو سطح این امکان را ندارد. * سطوح در مدل سازی با جلوه های ترکیبی به چه مواردی اشاره دارد؟ آیا دانش آموز درون کلاس درون مدرسه درون هیئت مدرسه درون ایالت درون کشور یک مدل «6 سطحی» است یا سطوح چیز دیگری هستند؟ در نهایت، چگونه می‌توانم تخمین‌های درد را در زمان‌ها، زمان در موارد، موارد در گروه‌ها و گروه‌ها در درمان‌ها «لانه» کنم؟ آیا درجه بندی درد به طور خودکار در موارد و زمان به طور خودکار در موارد و موارد در گروه ها قرار می گیرد؟ به نظر می رسد نمی توانم فاکتورها را در فاکتورهای موضوعی با استفاده از SPSS لانه گروه کنم. با عرض پوزش برای همه سوالات... من فکر کردم قرار دادن همه اینها در یک پست مرتبط بهتر از اسپم کردن صفحه اول با 10 سوال است. من پاسخ های مرتبط قبلی را در این وب سایت بدون یافتن پاسخی برای این سؤالات خوانده ام (البته پاسخ به سؤالات دیگر!). پاسخ به هر یک از این سوالات قابل قدردانی خواهد بود (حتی اطلاعات مربوط به یک سوال عالی خواهد بود)!
چگونه داده ها را در یک مدل با جلوه های ترکیبی تودرتو کنم؟ و بسیاری از سوالات مرتبط در مورد مدل های اثرات مختلط!
92395
سوال اخیر چرا فاصله بوت استرپ من پوشش وحشتناکی دارد؟ من را به این فکر انداخته است که آیا کسی نمونه های واقعاً خوبی از توزیع هایی دارد که در آنها خطاهای استاندارد راه انداز به طور سیستماتیک بهتر از برآوردگرهای کلاسیک عمل می کند (من مطمئن نیستم که اصطلاحات مناسب برای مجموعه کلاسیک برآوردگرها چیست... شاید برآوردگرهای تقریبی لحظه ای؟). به منظور پاسخ به این نظر که ممکن است برآوردگرهای بوت استرپ کمتر توسط بن اوگورک سوگیری داشته باشند، من همچنین کد را (که در ابتدا توسط Flounderer ارسال شده بود) تغییر دادم تا تخمینی از بایاس و میانگین مربعات خطا را شامل شود. پس از 10000 بار تکرار شبیه سازی، به نظرم می رسد که میانگین مربعات خطاها از نظر آماری یکسان هستند. با تشکر از توجه شما در این مورد! tCI.total <- 0 bootCI.total <- 0 متر <- 10 # اندازه نمونه Trep <- 10000 # تعداد تکرار روند Brep <- 1000 # تعداد تکرار bootrap sampv <- mbootv <- rep(0 ,Trep) true.mean <- exp(2) + 1 for (i in 1:Trep){ samp <- exp(rnorm(m,0,2)) + 1 sampv[i] <- mean(samp) tCI <- mean(samp) + c(1,-1)*qt(0.025,df=9)* sd(samp)/sqrt(m) boot.means <- rep(0,Brep) for (j in 1:Brep) boot.means[j] <- mean(sample(samp,m,replace=T)) mbootv[i] <- mean(boot.means) bootCI <- sort(boot.means)[c(0.025*length(boot.means), 0.975*length( boot.means))] if (true.mean > min(tCI) & true.mean <max(tCI)) tCI.total <- tCI.total + 1 if (true.mean > min(bootCI) & true.mean <max(bootCI)) bootCI.total <- bootCI.total + 1 } tCI.total/Trep # برآورد t احتمال پوشش بازه ای # 0.5634 bootCI.total/Trep # تخمین احتمال پوشش فاصله بوت استرپ # 0.5416 # بیایید به تخمین سوگیری برای میانگین نمونه و برآورد میانگین جمعیت بوت شده نگاه کنیم (true.mean - mean(mbootv)) # تخمین سوگیری از bootstrapped میانگین # 0.170623 (true.mean - mean(mbootv))^2 + sd( mbootv)^2 # میانگین مربع خطای bootstrapped به معنی # 198.5914 (true.mean - mean(sampv)) # تخمین تعصب نمونه به معنای # 0.170475 (true.mean - mean(sampv))^2 + sd(sampv)^2 # میانگین مربعات خطای نمونه به معنی #198.4912
لطفاً مثالی ارائه دهید که چه زمانی بوت استرپ نسبت به تخمین های تقریبی کلاسیک بایاس کمتری دارد؟
92398
من دو متغیر داده تعداد X و Y دارم که حاوی مقادیر زیادی صفر هستند (90٪ در X، 60٪ در Y). من می‌خواهم بررسی کنم که آیا همبستگی بین این متغیرها وجود دارد، اما به دلیل وجود مقادیر صفر، مطمئن نیستم که چگونه ادامه دهم. هر پیشنهادی؟ پیشاپیش متشکرم
همبستگی در داده های شمارش
73018
من نتوانستم سؤال زیر را بفهمم $f_{Y|X}(y|x)=N(x,x^2)$ $f_X(x)=U(0,1)$ ثابت کنید که $\frac {Y}{X}$ و $X$ مستقل هستند
مستقل بودن موارد زیر را ثابت کنید
73019
نمونه‌ای از مشاهدات $x_1 \dots x_n$ را تصور کنید که برای آن یک $t$-value (یعنی $\bar x/SEM$) مشخص است. فرض کنید یک مشاهده اضافی صفر به نمونه اضافه شده است به طوری که $x_1 \dots x_{n+1}$ داریم که در آن $x_{n+1}=0$ است. آیا می توان یک $t$-value جدید را فقط از $t$ و $n$ اصلی شناخته شده محاسبه کرد؟ (من گمان می کنم که می تواند، اما ریاضیات من برای من کافی نیست که دقیقا چگونه کار کنم.)
مقدار $t$ را برای نمونه گسترش یافته فقط با استفاده از $t$ و $n$ محاسبه کنید
114170
من سعی می‌کنم بفهمم از چه نوع معیار همبستگی/وابستگی در مجموعه داده‌های چند متغیره که روی آن کار می‌کنم استفاده کنم. من همبستگی (پیرسون)، تاو کندال و رو اسپیرمن را امتحان کرده ام. با این حال، به نظر می رسد هر 3 ماتریس های همبستگی مشابهی را به من می دهند. این در مورد داده های من چه معنایی دارد؟ همچنین، آیا معیارهای وابستگی مبتنی بر جفت دیگری (بهتر؟) وجود دارد؟
معیارهای مختلف همبستگی/وابستگی
107661
دامنه موفقیت برای توزیع ابر هندسی چند متغیره
114174
منظور من از فرضیه صفر درست است که میانگین هر گروه در سطح جمعیت یکسان است. من نمی‌پرسم در صورتی که واریانس‌های گروه‌ها در سطح جمعیت با یکدیگر متفاوت باشند، یا اگر گروه‌ها به طور غیرعادی در سطح جمعیت توزیع شده باشند یا در هر حالت دیگری، مقدار مورد انتظار از 1 متفاوت است. اگر چنین است، چرا مقدار مورد انتظار را تغییر می دهد؟ من به یک ANOVA گروه های مستقل یک طرفه با سه گروه فکر می کنم، اما نمی دانم که آیا پاسخ به این سوال فراتر از آن تعمیم می یابد.
در ANOVA، اگر فرضیه صفر درست باشد، آیا مقدار مورد انتظار F 1 تضمین می شود؟
114179
من این ایده را در سر دارم که یا تختخواب است یا نامی دارد که نمی دانم. (من به اندازه کافی ساده لوح نیستم که فکر کنم در حال پیشرفت در اینجا هستم!) سناریوی من این است: من می خواهم نسبت جمعیتی را که به بیماری x مبتلا هستند بدانم. به‌جای نمونه‌گیری تصادفی از جامعه، آنچه را که می‌گویم نمونه اولویت‌دار انتخاب می‌کنم، یعنی از افرادی که احتمال ابتلا به این بیماری را دارند شروع می‌کنم، سپس پس از یافتن آنها به اولویت بعدی می‌روم یا بعدی به احتمال زیاد بعد از اینکه تعداد زیادی تست کردم، نسبت مثبتی دارم. هرچه بیشتر تست کنم، فهرست اولویت‌ها پایین‌تر می‌آید و نسبت مثبت من کمتر می‌شود. در نقطه‌ای توقف می‌کنم و سپس نسبت مثبت بودن خود و عددی را که آزمایش کرده‌ام، در نظر می‌گیرم، آن را در برخی توزیع‌ها اعمال می‌کنم (من حدس می‌زنم کج شده) و تخمینی از نسبت واقعی جمعیت به این بیماری با نوعی از فاصله اطمینان از قبل با این می‌توانستم تصور کنم که بعد از 10 تا 15 آزمایش مثبت می‌توانم نوعی حد بالایی را حدس بزنم، زیرا نسبت واقعی در جمعیت بعید است از نسبت مثبت من بیشتر باشد زیرا با بالاترین اولویت شروع کردم. آیا این روش وجود دارد؟ اگر چنین است، آیا می توانید من را در مسیر درست هدایت کنید تا یاد بگیرم چگونه آن را به درستی انجام دهم؟ **ویرایش** بعد از کمی بررسی، متوجه شدم که یک جزئیات دیگر در اینجا گنجانده نشده است، این است که من اندازه کل جمعیت را می دانم و بنابراین می توانم پوشش آزمایشی را به شما بگویم. به جای چند اثبات ریاضی خارق العاده، چند شبیه سازی انجام دادم. ابتدا یک جمعیت 1000 نفری را انتخاب می کنم و آنها را به 100 گروه 10 تایی تقسیم می کنم. هر یک از اینها دارای نسبتی از بیماری است که به طور معمول در سراسر جمعیت توزیع شده است که من می خواهم تخمین بزنم. (من اینجا آن را روی 0.2 تنظیم می کنم.) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/NBL0x.png) سپس این گروه ها را به بیشترین نسبت (اولویت) به کمترین مرتب می کنم. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/BW49x.png) بنابراین اگر من گروه های 10 نفره خود را پیگیری می کردم، وقتی به گروه میانه (50) رسیدم، باید نسبت جمعیت اما روش رایج تر، مجموعه تجمعی است. بنابراین اگر نسبت را به صورت تجمعی نمودار کنم، این را دریافت می کنم. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/wLJUe.png) این به طرز شگفت انگیزی پس از حدود 20 درصد پوشش، خطی است. و نسبت واقعی به نظر می رسد که حدود 10٪ زیر پوشش در 20٪ برای همه به جز نسبت های شدید جمعیت باشد. بنابراین اگر این شیب ثابت باشد، می توانم پوشش جمعیت را در نظر بگیرم و آن را به صورت خطی تا 100 درصد افزایش دهم.
با استفاده از نمونه‌گیری اولویت‌بندی نسبتی را تخمین بزنید (من همین الان آن را درست کردم)
35622
من یک موتور دارم که یک بازی را اجرا می کند و ربات هایی که استراتژی ها را در آن اجرا می کنند. من می‌خواهم آزمایش‌های مختلف نسخه‌های یک ربات را انجام دهم تا ببینم تغییرات چگونه بر موفقیت تأثیر می‌گذارند. به عنوان مثال، اگر ربات A1 ​​و ربات A2 داشته باشم، ممکن است آزمایش های زیر را اجرا کنم: ### آزمایشی 0 * ربات A1 ​​* ربات B * ربات C * ربات D ### آزمایشی 1 * ربات A2 * ربات B * ربات C * ربات D هر آزمایشی از بازی های زیادی تشکیل شده است، بنابراین نتیجه نهایی چیزی شبیه به این است: ربات \ مکان 1st 2nd 3rd 4th A1 3 8 2 1 B 1 4 7 2 C 0 2 3 9 D 10 0 2 2 بنابراین، برای آزمایش فوق، ربات A1 ​​3 بازی را برد، 8 بار دوم شد، یک بار آخر آمد، و غیره. **من به دنبال یک روشی برای مقایسه دو کارآزمایی برای دیدن اینکه آیا تفاوت بین آنها از نظر آماری معنادار است یا خیر. ** کدام روش برای انجام این کار بهترین است؟ (چند سالی است که آمار را انجام نداده ام، پس اگر اطلاعاتی در این سوال از دست دادم، لطفاً مرا ببخشید. همچنین، اگر فکر می کنید من کاملاً غیرمجاز هستم و روش دیگری برای تعیین اینکه کدام استراتژی ها مؤثرتر هستند وجود دارد. لطفاً به من اطلاع دهید.) **به روز رسانی**: من خودسرانه تصمیم خواهم گرفت که راه رتبه بندی ربات ها با نگاه کردن به افرادی است که در هر مکان بیشترین حضور را دارند. (اول، هر رباتی را که بیشترین دفعات وارد شده اول را انتخاب کنید، سپس هر رباتی را که بیشترین بار در رتبه دوم قرار گرفت را انتخاب کنید، و غیره.) برای مثال بالا، به نظر می رسد «D، A1، B، C». همچنین، من از F# برای آنچه ارزش دارد استفاده می کنم. در اینجا نموداری است که از یک آزمایش منفرد ایجاد شده است (اجرای واقعی برنامه؛ به داده های نمونه بالا مربوط نمی شود). ربات‌ها بر اساس رتبه‌بندی که در پاراگراف قبل توضیح دادم به خوبی انجام داده‌اند، بر اساس حروف الفبا نام‌گذاری می‌شوند (بنابراین «A» بهتر از «B» بود و غیره). ![نمودار رتبه بندی ربات ها A، B، C، D، E، F است](http://i.stack.imgur.com/wjBop.png)
تست کنید تا مشخص کنید آیا یک استراتژی در یک بازی نتایج بهتری نسبت به استراتژی دیگر دارد؟
35621
اگر نمونه‌ای داشته باشم: set.seed(0) x <- rlnorm(500) سپس می‌توانم از تابع fit.distr برای یافتن بهترین تناسب بین دو توزیع کاندید استفاده کنم، به عنوان مثال. library(MASS) find.bestfit <- تابع(x){logN <- fitdistr(x، lognormal) گام <- fitdistr(x، گاما) ans <- ifelse(AIC(logN) <AIC(gam) , logN, gam) return(ans) } find.bestfit(x) [1] logN با این حال، احتمال بازیابی نمی شود توزیع درست که نمونه برداری شد (در این مورد lognormal برای شبیه سازی x استفاده شد). چگونه می توانم این احتمال را محاسبه کنم؟ من فقط تا آنجا پیش رفته ام که به استفاده از روش بوت استرپ فکر می کنم، اما با این تکنیک آشنا نیستم و دقیقاً مطمئن نیستم از کجا شروع کنم: ## یک vector خالی fit.samps ایجاد کنید <- rep(NA, 100) ## تعیین تناسب با نمونه‌های فرعی از توزیع اصلی برای (i در 1:100){ fit.samps[i] <- find.bestfit(sample(x, 10)) } من گمان می‌کنم که رویکرد من این است اشتباه است، زیرا حجم نمونه دلخواه است و در نهایت بهترین توزیع مناسب بر اساس تابع fitdistr باید در بیشتر مواقع انتخاب شود. قدردانی می کنم که چگونه می توانم رویکرد بوت استرپ را برای پاسخ به این سوال به کار ببرم.
چگونه بهترین توزیع مناسب را در یک نمونه بوت استرپ کنیم؟
35625
جمعیت کاری من به طور معمول توزیع نشده است و هر از گاهی باید از آن نمونه برداری کنم. گاهی اوقات نمونه من 100 واحد و در زمان های دیگر 150 واحد وجود دارد. از نمونه‌ام، میانگین $\mu$ را محاسبه می‌کنم و با بوت استرپ، SE، $\sigma_{\bar x}$ را تعیین می‌کنم. از آنجایی که $\sigma_{\bar x} = \sigma /\sqrt{N}$، $\sigma$ را محاسبه می‌کنم. تا اینجا خوب است، با استفاده از نمودارهای کنترلی ($\mu،\sigma$) اکنون می توانم ببینم که آیا چیزی برای نگرانی وجود دارد یا خیر. با استفاده از قوانین محاسبه انحراف می توانید به راحتی ثابت کنید که فرمول $\sigma_{\bar x} = \sigma /\sqrt{N}$ نیز می تواند برای توزیع های غیر عادی استفاده شود. من با این ایده بازی می کنم که نمودارهای کنترلی را با استفاده از میانگین برش خورده و مقدار 70٪ ایجاد کنم. حالا دیگر آنقدر مطمئن نیستم. (صادقانه بگویم، من شک دارم که آیا شما می توانید این کار را برای توزیع های معمولی نیز انجام دهید.) آیا می توانم از همان ترفند ساده برای حذف $n$ از معادله خود استفاده کنم؟ بگذارید اینطور بگویم: آیا آنچه می نویسم معتبر است؟ $$\sigma_{70\%} = cte * \sigma / \sqrt{N}$$ با $cte$ مستقل از مقدار N؟ $$\sigma_{\bar x_{70\%}} = cte * \sigma /\sqrt{N}$$ با $cte$ مستقل از مقدار $N$؟ برای استفاده از نمودارهای کنترلی خود نیازی به دانستن مقدار $cte$ خود ندارم. برای نمودار s من فقط می توانم $cte* \sigma$ را در تابع شماره نمونه خود ترسیم کنم. اما من واقعاً باید از شر $N$ خلاص شوم! امیدوارم متوجه شده باشید که من در چه چیزی هستم. من از قبل با یک بله یا نه خوشحال خواهم شد، شما دیگر نمی توانید این کار را انجام دهید. اگر بتوانید من را به جایی راهنمایی کنید که بتوانم اطلاعات بیشتری در مورد این مشکل پیدا کنم، حتی بیشتر سپاسگزار خواهم بود.
آیا $\sigma_{70\%} = cte * \sigma /\sqrt{N}$ و $\sigma_{\bar x_{70\%}} = cte * \sigma /\sqrt{N}$ معتبر هستند توزیع های غیر عادی؟
23692
من سعی می کنم از اثرات تصادفی بر روی پارامترهای مکان و مقیاس در یک رگرسیون لگ نرمال استفاده کنم. همانطور که در کد JAGS زیر می بینید، من اساساً یک مدل زمان خرابی تسریع شده را با زمان های شکست log-normal سانسور شده با فاصله تنظیم می کنم. من با مشکلاتی روبرو هستم که برای اثرات تصادفی پارامتر مقیاس (که برای آن از disp در کد استفاده می‌کنم) مقدمات غیر آموزنده مناسبی پیدا کنم. روشی که من اکنون آن را راه اندازی کرده ام واقعاً به مشخصات قبلی حساس است. کسی پیشنهادی در مورد چگونگی ادامه دارد؟ بدون هیچ اثر تصادفی بر روی پارامتر مقیاس و با استفاده از $U(0,big)$ در معکوس srqt مقیاس، به نظر می‌رسد که مدل به خوبی با تخمین‌های منطقی همگرا می‌شود. در نهایت می‌خواهم جلوه‌های ثابتی را به این رگرسیون اضافه کنم، اما در حال حاضر به سادگی سعی می‌کنم این مدل ساده‌تر را تطبیق دهم. model{ for (i in 1:study){ for (j in offset[i] : (offset[i+1] - 1) ){ y[j] ~ diterval(t[j], lim.s[j, 1:2]) t[j] ~ dlnorm(mu[i],disp[i]) } } برای (j در 1:study){ beta1[j] ~ dnorm(0,taup) mu[j] <- beta0 + beta1[j] alpha1[j] ~ dnorm(0,taup.d) inv.disp[j] ~ dlnorm(log.inv.disp.hat[j] ,disp.inv.disp) log.inv.disp.hat[j] <- alpha0 + alpha1[j] disp[i] <- 1. disp ~ dunif(0.01,100) disp.inv.disp <- 1/inv.disp.inv.disp^2 ## hyper previous for beta1 sigmap ~ dunif(0.01,100) taup <- 1/(sigmap*sigmap) ## hyper previous for alpha1 sigmap.d ~ dunif(0.01,100 ) taup.d <- 1/(sigmap.d*sigmap.d) }
اثر تصادفی بر پارامتر مقیاس
32936
فرض کنید که من می‌خواهم $Y$ را در برابر یک $X$ عادی عقب نشینی کنم، اما من یک راه‌حل پراکنده می‌خواهم. پس از رگرسیون، چرا کنار گذاشتن ضرایب با کوچکترین مقدار مجاز نیست؟ برای ثبت، من در مورد روش های LARS و LASSO شنیده ام و اغلب از آنها استفاده می کنم. من فقط کنجکاو هستم که چرا روش فوق قابل اجرا نیست.
پراکندگی با حذف ضریب حداقل مربعات
23697
برای مثال، وقتی من یک پیش‌بینی را محاسبه می‌کنم، سعی می‌کنم بفهمم چه کسی در انتخابات پیروز می‌شود و این کار را با پرسیدن از مردم انجام می‌دهم که به چه کسی رای داده‌اند. پس از تعداد معینی از پاسخ ها، داده های من تغییر نمی کند. درصد شانس انتخاب شدن تغییر نخواهد کرد. آیا تعریف تحلیلی یا آماری خاصی از چنین وضعیتی وجود دارد که برای به دست آوردن نتایج مناسب نیازی به داده های بیشتری نیست؟ با تشکر از شما
چگونه موقعیت یا نقطه ای را که در آن داده های آماری تغییر نمی کند، نام می برید؟
23690
من داده ها را در دسته A و دسته B گروه بندی کرده ام. فرضیه من: داده های دسته A به صفر نزدیکتر از دسته B هستند. از چه آزمون های آماری می توان استفاده کرد؟ با تشکر
چه آزمایشی - نزدیک به صفر
93625
اثر تصادفی در مدل CRD: \begin{align} y_{ij} &= \mu + \tau_{i} + \varepsilon_{ij} \\\ \tau_{i} &\sim \mathcal N(0,\sigma_ {\tau}^2) \\\ \varepsilon_{ij} &\sim \mathcal N(0,\sigma^2) \end{align} می‌خواهم اثبات $$ E(MStr)=\sigma^2+n\sigma_{\tau}^2 $$ کارهای زیر تا کنون انجام داده‌ام: $\text{Let }i = 1, \ldots, p,\ quad\quad j = 1, \ldots,n.$ \begin{align} E(\overline{y_{i.}}) &= E\bigg(\frac{\sum_{j=1}^{n}y_{ij}}{n}\bigg) = \frac{\sum_{j=1}^{n}E(\mu+\tau_ {i}+\varepsilon_{ij})}{n} = \mu+\frac{\sum_{j=1}^{n}\tau_{i}}{n} \\\ \ \\\ &= \mu+\overline{\tau_{i}} \\\ \ \\\ E(\overline{y_{..}}) &= E\bigg(\frac{\sum_{i=1}^{p} \sum_{j=1}^{n}y_{ij}}{np}\bigg) = \frac{\sum_{i=1}^{p}\sum_{j=1}^{n}E(\mu+\tau_{i}+\varepsilon_{ij})}{np} \\\ \ \ \\ &= \mu+\frac{\sum_{i=1}^{p}\overline{\tau_{i}}}{p} \\\ \ \\\ E(MStr) &= \sigma^{2}+\frac{n\sum_{i=1}^{p}(E(\overline{y_{i.}})-E(\overline{y_{..}}))^ 2}{p-1} = \sigma^{2}+\frac{n\sum_{i=1}^{p}\big(\overline{\tau_{i}}-\frac{\sum_{i=1}^{p}\ overline{\tau_{i}}}{p}\big)^2}{p-1} \\\ \ \\\ &= \sigma^2+n\sigma_{\overline{\tau}}^2 \end{align} آیا کسی می‌تواند به من کمک کند اشتباهاتی را که مرتکب شده‌ام پیدا کنم؟
میانگین مجذور اثر تصادفی مورد انتظار در مدل CRD
93627
من سطح درد خود را در یک صفحه گسترده آنلاین به همراه عادات روزانه دنبال می کنم و رویدادها را آغاز می کنم. من می‌خواهم آزمایش کنم که آیا تغییرات درد من در طول زمان از یک روند پیروی می‌کند (بدون این که آیا خطی است یا نه، فقط بالا می‌رود یا پایین). همچنین می‌خواهم آزمایش کنم که کدام رویدادها و محرک‌های روزانه می‌توانند به طور قابل توجهی با تغییر سطح درد مرتبط باشند. مدتی است که در کلاس آمار شرکت کرده ام و با فلوچارت های آنلاین گیج شده ام. از کدام آزمون های آماری استفاده کنم و داده های من پارامتری باشد یا ناپارامتریک؟ با تشکر
چه تست های آماری برای مجله سردرد؟
79604
من مجموعه بزرگی از توالی S دارم. زیرمجموعه ای از این دنباله ها توالی سیگنال نوترکیبی (RSS) هستند. ما زیر مجموعه ای از این دنباله ها را داریم که می دانیم RSS هستند. ما سعی می کنیم پیش بینی کنیم که کدام یک از دنباله های دیگر در S نیز RSS هستند. ما سعی می کنیم با استفاده از یک دور اعتبارسنجی متقاطع نشان دهیم که این پیش بینی کار می کند. RSS را به n زیرمجموعه مجزا تقسیم می کنیم. ما از (n-1)/n از RSS به عنوان مجموعه آموزشی و (1/n) به عنوان مجموعه آزمایشی استفاده می کنیم. برای هر یک از n مقدار، یک امتیاز (عدد واقعی مثبت) برای تمام دنباله‌های S محاسبه می‌کنیم. دنباله را به ترتیب صعودی امتیاز رتبه‌بندی می‌کنیم. هرچه امتیاز کمتر باشد، احتمال اینکه دنباله یک RSS باشد بیشتر است. برای n=5، من 40 مقدار بالا را برای هر یک از 5 روش اعتبارسنجی متقاطع در دور رسم می‌کنم. این در شکل زیر نشان داده شده است. سوال من این است: شکل شامل پانل ششم است که تلاشی برای خلاصه کردن دور اعتبارسنجی متقاطع در یک طرح است. این میانگین مقادیر را در رویه های مختلف اعتبار سنجی متقابل می دهد. با این حال، من فکر می کردم که آیا این واقعا منطقی است؟ آیا راه معقولی برای میانگین/خلاصه کردن این مقادیر با تفسیری مناسب وجود دارد یا بهتر است این نمودار کنار گذاشته شود؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/gmuSE.png)
آیا منطقی است که مقادیر میانگین ترکیبی را به عنوان بخشی از یک دور اعتبارسنجی متقاطع لحاظ کنیم؟
93139
Q1: چگونه می توانم ریسک نسبی را به ریسک مطلق تبدیل کنم؟ Q2: چگونه می توان خطر مطلق را برای یک فرد با منابع موجود RR و OR برآورد کرد؟ لطفاً مثال یا مطالب مرتبط را ارائه دهید با تشکر راجا
چگونه می توانم ریسک نسبی را به ریسک مطلق تبدیل کنم؟
115126
ادغام مجموعه داده های منتسب، هنوز تجزیه و تحلیل نشده در MICE
79045
استفاده از تابع مولد احتمال برای یافتن احتمال انقراض نهایی
77066
86841
56625
من یک مدل رگرسیون خطی با یک متغیر طبقه بندی $A$ (مرد و زن) و یک متغیر پیوسته $B$ دارم. من کدهای کنتراست را در R با «options(contrasts=c(contr.sum,contr.poly)) تنظیم کردم. و اکنون من مجموع مربع های نوع III برای $A$، $B$، و تعامل آنها (A:B) با استفاده از `drop1(model, .~., test=F)` دارم. ** چیزی که من درگیر آن هستم این است که چگونه مجموع مربع ها برای $B$ محاسبه می شود. من ** فکر می کنم جمع (( y پیش بینی شده از مدل کامل - y پیش بینی شده از مدل کاهش یافته)^2) است. مدل کاهش‌یافته شبیه «y~A+A:B» خواهد بود. اما وقتی از «predict(y~A+A:B)» استفاده می‌کنم، R مقادیر پیش‌بینی‌شده‌ای را برمی‌گرداند که همان مقادیر پیش‌بینی‌شده مدل کامل است. بنابراین، مجموع مربع ها 0 خواهد بود. (برای مجموع مربع های $A$، من از یک مدل کاهش یافته از `y~B+A:B` استفاده کردم که همان `y~A:B` است. ) در اینجا کد نمونه ای برای داده های تولید شده به صورت تصادفی آمده است: A<-as.factor(rep(c(male, female), every=5)) set.seed(1) B<-runif(10) set.seed(5) y<-runif(10) model<-lm(y~A+B+A:B) option(contrasts = c(contr.sum,contr.poly)) #مجموع نوع3 مربعات drop1 (model, .~., test=F) #یا نتیجه مشابه: library(car) Anova(lm(y~A+B+A:B),type=III) #مدل کامل predFull<-predict(model) #محاسبه مجموع مربعات #SS(A|B,AB) predA<-predict(lm(y~B+A:B)) sum((predFull-predA)^2) #SS(B|A,AB) (???) predB<-predict(lm(y~A+A:B)) sum((predFull-predB)^2) #مجموع مربع ها باید 0.15075 باشد (طبق جدول anova) #اما 2.5e-31 محاسبه می شود #SS(AB|A,B) predAB<-predict(lm(y~ A+B)) sum ((predFull-predAB)^2) #جدول Anova (تست‌های نوع III) #پاسخ: y # مجموع مربع Df F مقدار Pr(>F) #(فاصله) 0.16074 1 1.3598 0.2878 #A 0.00148 1 0.0125 0.9145 #B 0.15075 1 3 1.2301.01:275 1 0.1377 0.7233 #باقیمانده 0.70926 6
نوع III مجموع مربع ها
25699
بیایید فرض کنیم من یک ماتریس NxD X دارم که N ردیف مشاهدات و ستون های D ویژگی هستند. اکنون می خواهم بدانم که جالب ترین ویژگی های این مجموعه داده کدام است. یعنی کدام ویژگی ها به یکدیگر بستگی دارند، که اضافی هستند و غیره. در پایان، من می خواهم مجموعه داده ای با ابعاد k <D داشته باشم، زیرا می توانم ویژگی های (D-k) را رد کنم. اولین ایده من استفاده از PCA برای به دست آوردن تقریبی ابعاد ذاتی مجموعه داده من بود. با این حال، PCA مستقیماً به من نمی‌گوید که کدام ویژگی‌ها جالب‌ترین ویژگی‌ها هستند، فقط تعدادی از مؤلفه‌های اصلی و «نقاط قوت» آن‌ها (مقادیر ویژه ماتریس کوواریانس X) را به من می‌دهد. بنابراین من در مورد استفاده از یک روش کلاسیک انتخاب ویژگی مانند رگرسیون گام به گام فکر کردم. با این حال، رگرسیون گام به گام به بردار هدف y نیاز دارد (البته چون رگرسیون است) که من آن را ندارم. من فقط مجموعه داده X را دارم. **من فقط مهارت های اولیه یادگیری ماشین را دارم، بنابراین می خواهم بدانم روش مناسب برای انتخاب جالب ترین ویژگی های مجموعه داده X بدون داشتن بردار هدف y چیست.**
انتخاب ویژگی بدون متغیر هدف
25690
من با استفاده از رگرسیون خطی چندگانه برای ایجاد مدل هایی از متغیرهای مختلف آشنا هستم. با این حال، کنجکاو بودم که آیا آزمون‌های رگرسیون برای انجام هر نوع آزمون فرضیه پایه استفاده می‌شوند یا خیر. اگر چنین است، آن سناریوها/فرضیه ها چگونه خواهند بود؟
رگرسیون خطی چندگانه برای آزمون فرضیه
104276
با استفاده از R، من می خواهم یک رگرسیون خطی برای تخمین بازده غیرعادی در روزهای دارای اخبار مثبت، منفی و خنثی (کلاس) اجرا کنم. من در R مبتدی هستم و همچنین در استفاده از مدل های رگرسیون! اول از همه ساختار داده به شرح زیر است. CONTROLVAR فقط نشان دهنده تمام ستون هایی است که من به عنوان متغیرهای کنترل استفاده می کنم. DATE <- c(1، 2، 3، 4، 5، 6، 7، 1، 2, 3، 4، 5،6،7) COMP <- c(A، A، A، A، A، A، A، A، B، B ، B، B، B، B، B) RET <- c(-2.0،1.1،3،1.4،-0.2، 0.6، 0.1، -0.21، -1.2، 0.9، 0.3، -0.1، 0.3، -0.12) کلاس <- c(مثبت، منفی، بی طرف، مثبت، مثبت، منفی، بی طرف، مثبت، منفی، منفی، مثبت، غیر خنثی، بی طرف، بی طرف) موضوع. 1 <- c(قانون قضایی، اخراج، آلودگی، فاجعه شیمیایی، ادامه مطبوعاتی، مردم»، «انتشارها»، «انرژی»، «ضایعات». مدیریت»، «کارمندان»، «موضوع 11»، «موضوع12»، «موضوع 13»، «موضوع14») موضوع 2 <- c(«آلودگی»، «کارکنان»، «اتمی»، «سوخت»، «گزینه سهام» طرح، اجرایی ها، CO2، خورشیدی، آلودگی، مجری ها، SUBJECT21، SUBJECT22، SUBJECT23، SUBJECT24) موضوع.3 <- c(محیط زیست، کاهش شغل، قدرت. گیاهان، آلودگی، کارکنان، تقلب، تغییر آب و هوا، پایداری، ضایعات خطرناک، پرداخت پاداش، SUBJECT31، SUBJECT32، SUBJECT33، SUBJECT34) CONTROLVAR <- c(11، 13، 13، 14، 13، 14، 12، 11, 13, 13، 14، 13، 14،12) df <- data.frame(DATE، COMP، RET، CLASS، SUBJECT.1، SUBJECT.2، SUBJECT.3، CONTROLVAR، stringsAsFactors=F) df # DATE COMP RET CLASS SUBJECT.1 SUBJECT.2 SUBJECT.3 CONTROLVAR # 1 1 A -2.00 PITIGATION POLLUTION EnvironMENT 11 # 2 2 A 1.10MP 2 A 1.10MP A DULOES 3 LAYOFF 3.00 POLLUTION غیر خنثی نیروگاه های هسته ای 13 # 4 4 A 1.40 مثبت فاجعه شیمیایی سوخت آلودگی 14 # 5 5 A -0.20 مثبت PRESRELESE STOCK OPTION PLAN EMPLOYEES 13 # 06 EXLE EXLE EMPLOYEES 13 #060. تقلب 14 # 7 7 A 0.10 انتشار غیر خنثی CO2 تغییر اقلیم 12 # 8 1 B -0.21 مثبت انرژی خورشیدی پایداری 11 # 9 2 B -1.20 مدیریت زباله منفی BASTE MANAGEMENT POLUTION WAS3030 PLUTION WASTE30 منفی. پاداش پاداش مدیران کارکنان 13 # 11 4 B 0.30 مثبت SUBJECT11 SUBJECT21 SUBJECT31 14 # 12 5 B -0.10 aneutral SUBJECT12 SUBJECT22 SUBJECT31330 13aneut. SUBJECT13 SUBJECT23 SUBJECT33 14 # 14 7 B -0.12 غیر خنثی SUBJECT14 SUBJECT24 SUBJECT34 12 این مدل رگرسیون به این شکل است: mymodel1 <- lm(RET ~ CLASS، داده‌ها + CONTROLVNER، مرجع داده می‌شود = d) دسته بندی همچنین می‌خواهم تأثیر برخی از موضوعات مقاله را در بازگشت غیرعادی ببینم. چگونه می توانم این کار را انجام دهم؟ فرض کنید می‌خواهم موضوعات دعوی، آلودگی و اخراج را در نظر بگیرم. می‌خواهم ببینم تأثیر اخبار مثبت، منفی و خنثی چگونه تغییر می‌کند، اگر مقاله مثلاً درباره آلودگی باشد. اگر برای سه موضوع مورد علاقه ستون های ساختگی ایجاد کنم، data.frame من به این شکل است: DATE <- c(1، 2، 3، 4، 5، 6 7، 1، 2، 3، 4، 5، 6، 7) COMP <- c(A، A، A، الف، الف، الف، الف، ب، ب، ب، ب، B، B، B) RET <- c(-2.0،1.1،3،1.4،-0.2، 0.6، 0.1، -0.21، -1.2، 0.9، 0.3، -0.1، 0.3، -0.12- ) کلاس <- c(مثبت، منفی، غیر خنثی، مثبت، مثبت، منفی، بی‌نظیر، مثبت، منفی، منفی، مثبت، بی‌نظیر، بی‌نظیر، بی‌نظیر) موضوع. فاجعه شیمیایی، اعلامیه مطبوعاتی، مردم، انتشارها، انرژی، ضایعات مدیریت»، «کارمندان»، «موضوع 11»، «موضوع12»، «موضوع 13»، «موضوع14») موضوع 2 <- c(«آلودگی»، «کارکنان»، «اتمی»، «سوخت»، «گزینه سهام» طرح، اجرایی ها، CO2، خورشیدی، آلودگی، مجری ها، SUBJECT21، SUBJECT22، SUBJECT23، SUBJECT24) موضوع.3 <- c(محیط زیست، کاهش شغل، قدرت. گیاهان، آلودگی، کارکنان، تقلب، تغییر آب و هوا، پایداری، ضایعات خطرناک، پرداخت پاداش، SUBJECT31، SUBJECT32، SUBJECT33، SUBJECT34) دعاوی حقوقی <- c(1,0,0,0,0,0,0,0,0,0,0,0,0,0) آلودگی <- c(1,0,1,1,0,0,0,0 ,1,0,0,0,0,0) تعلیق <- c(0,1,0,0,0,0,0,0,0,0,0,0,0,0) CONTROLVAR <- c(11، 13، 13، 14، 13، 14، 12، 11, 13, 13، 14، 13، 14،12) df2 <- data.frame(DATE، COMP، RET، CLASS، SUBJECT.1، SUBJECT.2، SUBJECT.3، Litigation، POLLUTION، LAYOFF، CONTROLVAR، stringsAsFactors=F)
رگرسیون چندگانه با متغیرهای ساختگی طبقه‌ای همپوشانی.
25693
من داده های بسیاری از سری های زمانی را دارم. هر سری زمانی را می توان با یک تابع غیرخطی خاص از چندین پارامتر مدل کرد و اگرچه من تخمین نقطه ای پارامترهای مدل را برای هر یک از سری های زمانی متعدد می خواهم، اما بیشتر به عدم قطعیت مرتبط با تخمین پارامترها علاقه مند هستم (یعنی در قدرت داده ها). من اطلاعات قبلی خوبی دارم که در حالت ایده آل دوست دارم آنها را درج کنم. من MCMC را امتحان کرده‌ام، اما مطمئن نیستم که بتوان نمونه‌های پسین با کیفیت معقول را برای سری‌های زمانی متعدد به دست آورد (من می‌توانم پارامترهای الگوریتم MCMC را برای سری‌های زمانی خاص تغییر دهم، اما متقاعد نشده‌ام تنظیماتم به خوبی برای زمان‌های دیگر تعمیم یابد. سری)؛ علاوه بر این، زمان CPU یک مشکل است. به جای استفاده از MCMC، من در مورد استفاده از پیشین های مزدوج متعجب هستم (یک نرمال چند متغیره مدل خوبی از پارامترهای تغییر یافته log من است). با این حال، من در یافتن نمونه هایی از رگرسیون غیرخطی بیزی با پیشین های مزدوج مشکل دارم. آیا ممکن است؟ کمک شما بسیار قدردانی می شود.
آیا رگرسیون غیرخطی بیزی با استفاده از پیشین های مزدوج امکان پذیر است؟
57234
در حال ارزیابی _تأثیر یک مداخله (درمان: سخنرانی) بر توانایی تشخیص سرنخ های رفتاری احساسات با استفاده از محرک های بصری با استفاده از طرح آزمایشی **پیش آزمون-پس آزمون به همراه گروه کنترل** هستم. به گروه آزمایش اولین سری از محرک ها داده می شود، سپس مداخله انجام می شود و به دنبال آن محرک های دسته دوم انجام می شود. طبیعتاً بدون مداخله در مورد گروه کنترل نیز همین اتفاق می افتد. **دو گروه، هر کدام دو اندازه گیری.** **1\. چگونه می توان تعداد سوژه های مورد نیاز در هر گروه را تعیین کرد؟ ** (به طور ایده آل از **G*Power 3** استفاده می شود - مشکل من این است که به معنای واقعی کلمه نمی دانم کدام روش را انتخاب کنم [من حدس می زنم ANOVA: اندازه گیری های مکرر، بین فاکتورها ] و بر چه اساسی **قدرت** و **اندازه اثر** مورد نظر تعیین می شود. فرض کنید از 30 آزمودنی آزمایشی و 20 آزمودنی کنترل داده ام. به نظر می رسد مناسب ترین روش برای استفاده **rANOVA** ( _GLM -> Repeated Measures_ در SPSS) باشد. نمونه داده: گروه قبل از پست 1 exp 10 15 2 exp 8 9 3 con 8 7 4 con 5 6 **2\. چگونه می توان همان تحلیل را در R؟** **3\ انجام داد. پس از تجزیه و تحلیل، کدام داده ها برای توصیف اهمیت مداخله بهتر است؟** ظاهراً من کاملاً تازه کار و در واقع گیج هستم زیرا در دو روز گذشته در حال جستجو بوده ام و ادعاهای متناقض زیادی پیدا کرده ام که پیشنهاد می کند ** دو آزمون t زوجی** یا **Mann-Whitney U**، بدون بحث در مورد روش انتخاب گروه های با اندازه مناسب به روش عملی. از هر گونه کمکی متشکریم، پیشنهادات بهبود بخش استقبال می شود.
46559
داده های آموزشی SEQUENCE در مقابل مجموعه داده های آموزشی؟
11478
هم متغیرهای وابسته و هم متغیرهای مستقلی که من با آنها سروکار دارم، سری‌های غیر ساکن هستند که پس از یک بار متمایز کردنشان، ثابت می‌شوند. مشکل این است که فرض می‌کنم متغیر وابسته دارای مقدار ثابت معینی است که به تغییرات متغیرهای توضیحی بستگی ندارد و باید به عنوان مدت ثابت مدل تخمین زده شود. اما اصطلاح ثابت در فرآیند تمایز گم می شود. آیا کسی روشی برای مقابله با این نوع مشکل می داند؟
104359
شواهدی از هم خطی بودن، اما ضرایب قابل توجه - آیا این یک مشکل است؟
25696
یک رویکرد سنتی ساخت ویژگی برای متن کاوی، رویکرد کیسه‌ای از کلمات است و می‌توان آن را با استفاده از tf-idf برای تنظیم بردار ویژگی مشخص‌کننده یک سند متنی، بهبود بخشید. در حال حاضر، من سعی می کنم از مدل زبان بی گرام یا (N-gram) برای ساخت وکتور ویژگی استفاده کنم، اما کاملاً نمی دانم چگونه این کار را انجام دهم؟ آیا می‌توانیم فقط از رویکرد کیسه کلمات پیروی کنیم، یعنی محاسبه تعداد فرکانس بر حسب بی گرم به جای کلمات، و افزایش آن با استفاده از طرح وزن دهی tf-idf. با تشکر
با توجه به استفاده از مدل بیگرام (N-gram) برای ساخت وکتور ویژگی برای سند متنی
51161
من 4 پیش بینی و 1 پاسخ باینری دارم. من یک مدل رگرسیون لجستیک برازش کردم. نکته عجیب این است که همه ضرایب مدل منفی هستند. آیا این امکان پذیر است؟ احتمالا من کار اشتباهی کردم تعبیر من این است که نسبت شانس هر یک از متغیرها کمتر از 1 است. یعنی هیچ کدام از متغیرها در واقع هیچ فایده ای برای پاسخ ندارند. حتی رهگیری هم منفی است. لطفا هوش خود را به اشتراک بگذارید
چگونه یک مدل رگرسیون لجستیک را با تمام ضرایب منفی تفسیر کنیم؟
94132
خوشه بندی مقادیر منفرد
94136
من اغلب در مورد یک تابع بسیار غیر خطی می خوانم. در درک من، خطی و غیر خطی وجود دارد، پس این بسیار در مورد چیست؟ آیا تفاوت صوری با غیر خطی وجود دارد؟ چگونه تعریف می شود؟
17149
معایب تحلیل بیزی چیست؟
51166
من سعی کردم با ساختن یک جامعه فرضی متشکل از مقادیر زیر به درک واضح تری از خطای استاندارد دست یابم: 1، 3، 5، 7. میانگین نمونه همه نمونه ها با اندازه = 2 را محاسبه کردم. همانطور که انتظار می رفت، میانگین میانگین کل نمونه با میانگین جامعه (4) برابر بود. اما میانگین انحراف معیار نمونه (633/1) - که به عنوان خطای استاندارد میانگین نیز شناخته می شود با انحراف استاندارد جامعه (58/2) تقسیم بر جذر حجم نمونه (ریشه دوم 2) برابر نبود. 1.825 بود. اما، من کشف کردم که واریانس واریانس نمونه 5.33 و انحراف معیار واریانس نمونه ها 2.31 بود. با تقسیم 2.31 بر جذر اندازه نمونه (ریشه دوم 2) مقدار 1.633 بدست آمد که با انحراف استاندارد میانگین نمونه یکسان است. من کمی گیج هستم زیرا خطای استاندارد طبق نظر اکثر نویسندگان، انحراف استاندارد جمعیت تقسیم بر جذر حجم نمونه است. با این حال، در این مورد خطای استاندارد برابر است با انحراف معیار واریانس نمونه تقسیم بر جذر اندازه نمونه. ممنون میشم اگر بتونید در این مورد به من کمک کنید متشکرم
خطای استاندارد مقادیر شناخته شده جمعیت
6253
23963
من می‌خواهم یک رگرسیون لجستیک باینری برای مدل‌سازی وجود یا عدم وجود تعارض (متغیر وابسته) از مجموعه‌ای از متغیرهای مستقل در یک دوره 10 ساله (1997-2006) اجرا کنم که هر سال دارای 107 مشاهده است. استقلالی های من عبارتند از: * تخریب زمین (طبقه بندی برای 2 نوع تخریب). * افزایش جمعیت (0- خیر؛ 1-بله)؛ * نوع معیشت (0 - نوع یک؛ 1 - نوع دو)؛ * تراکم جمعیت (سه سطح تراکم)؛ * NDVI مداوم (حداکثر بهره وری گیاهی). * NDVI$_{t-1}$ (کاهش سبزیجات نسبت به سال قبل - 0 - خیر؛ 1 -بله) و * و NDVI$_{t-2}$ (کاهش سبزیجات از دو سال گذشته - 0- خیر 1- بله). من نسبتاً در همه چیز تازه کار هستم - این پروژه ای است که مدرسم به من داده است - و بنابراین از مشاوره یا راهنمایی سپاسگزار خواهم بود. من قبلاً برای چند همگرایی آزمایش کرده ام. اساساً داده‌های من به 107 واحد مشاهده (مناطق فضایی) تقسیم می‌شوند که 10 سال را پوشش می‌دهد (در مجموع 1070) و برای هر واحد مشاهده یک مقدار عکس فوری از شرایط متغیرهای مستقل در آن زمان در آن واحد ارائه می‌شود. منطقه). من می خواهم بدانم چگونه رگرسیون لجستیک (یا جدول) خود را برای تشخیص مقادیر 107 هر سال به طور جداگانه تنظیم کنم تا بتوان تغییرات NDVI زمانی بین سال های واحد مختلف را ارزیابی کرد؟
سوال در مورد رگرسیون لجستیک
23962
این سوال در چارچوب تخمین تاخیر زمانی است. فرض کنید من یک فرآیند تصادفی گاوسی ثابت $g$ دارم و تابع همبستگی خودکار آن $R_g(\tau)$ را می دانم. برای انجام تخمین تاخیر زمانی، من یک همبستگی متقاطع پنجره‌دار بین $g$ و یک نسخه تاخیری آن را محاسبه می‌کنم. به عبارت دیگر، $$ g_1 = g(x-D) \\\ \phi(\tau) = \int_{-T/2}^{T/2} g(x) g_1(x + \tau) $$ و من قصد دارم با پیدا کردن حداکثر $\phi$ تاخیر را تعیین کنم. سوال من این است که آیا می توان یک عبارت برای توزیع احتمال $\phi$ بدست آورد؟
توزیع احتمال همبستگی متقابل پنجره‌دار
23965
با شروع مدل های آریما در R، نمی توانم با مدل مورد علاقه خود پیش بینی کنم. به عنوان مثال، دستورات predict(arima(data_ts,order=c(1,1,2),xreg=cbind(t),seasonal=list(order=c(0,1,1),period=12))) و forecast(arima(data_ts,order=c(1,1,2),xreg=cbind(t),seasonal=list(order=c(0,1,1),period=12))) کار نمی کند. میشه توضیح بدی چرا؟
پیش بینی با مدل آریما
74797
من داده های زیر را دارم X 1 2 3 4 5… Y 10 12 13 14 15… X/Y 10% 16% 23% و غیره. چگونه انحراف معیار درصد (خط آخر) را پیدا کنم؟ آیا می توانم نسبت را به عنوان یک توزیع نرمال در نظر بگیرم و فرمول SD معمولی را اعمال کنم؟
محاسبه انحراف استاندارد درصدها؟
23966
ما یک دنباله $\lbrace b \rbrace$ داریم که در یک رابطه $b_i = b_{i-1} * 0.9 + t_i * 0.1$ تعریف شده است. اگر مشاهداتی از دنباله کامل $\lbrace b \rbrace$ داشته باشیم، محاسبه مقادیر $\lbrace t \rbrace$ بسیار ساده خواهد بود. با این حال، مورد این است که ما فقط حدود $50\%$ تا $80\%$ مشاهدات را در $\lbrace b \rbrace$ داریم و همچنان می‌خواهیم مقادیر $\lbrace t \rbrace$ را تا حد امکان دقیق محاسبه کنیم. آیا روش های ریاضی شناخته شده ای برای حل این مسئله وجود دارد؟ با تشکر
چگونه مقادیر گمشده این دنباله را به طور موثر محاسبه کنیم؟
23967
من سعی می‌کنم یک مدل لجستیک به شکل زیر بسازم: $$ y \sim \frac{1}{1 + \exp(-\beta_X)} $$ که $$ \beta_X = a_0 + a_1x_1 + a_2x_2 + a_3x_3 + a_4x_4 + a_5x_5 $$ در مورد من، اغلب دلیل خوبی وجود دارد که ابتدا با یک مدل ساده‌تر x_1$ مطابقت داشته باشیم و $x_2$; پس از آن، $a_0، a_1$ و $a_2$ را تعمیر کنید و سپس بقیه را جابجا کنید. با PROC LOGISTIC، می توان با انجام موارد زیر به آن دست یافت: DATA myData; تنظیم myData؛ محدود = a0 + a1 * x1 + a2 * x2; اجرا؛ PROC LOGISTIC DESCENDING DATA=myData; MODEL y = x3 x4 x5 / LACKFIT NOINT OFFSET=restrict; اجرا؛ ترفند این است که از گزینه OFFSET استفاده کنید. همه چیز خوب است. مشکل این است که فرد اغلب با شکست های همگرایی مواجه می شود. در زیر یک گزارش معمولی از SAS آمده است. اخطار: Ridging نتوانسته احتمال منطقی را بهبود بخشد. ممکن است بخواهید از یک تکنیک ریدینگ متفاوت (RIDGING= گزینه) استفاده کنید، یا به استفاده از جستجوی خطی برای کاهش اندازه گام بروید (RIDGING=NONE)، یا مجموعه جدیدی از برآوردهای اولیه را مشخص کنید (INEST=گزینه). اخطار: روند لجستیک علی رغم هشدار فوق ادامه دارد. نتایج نشان داده شده بر اساس آخرین تکرار حداکثر احتمال است. اعتبار تناسب مدل مشکوک است آیا کسی تجربه چنین مشکلاتی را دارد؟ من به دنبال (1) درک علت بروز مشکل هستم (2) پیشنهادهایی در مورد چگونگی دور زدن آن. یک سوال به ذهن خطور می کند، آیا محدود کردن $a_0، a_1، a_2$، ویژگی مقعر سراسری تابع احتمال حداکثر مدل لجستیک را با توجه به لیست باقیمانده پارامترها تغییر می دهد: $a_3، a_4، a_5$؟ اگر اینطور نیست، چرا اصلاً بحث همگرایی وجود دارد؟
شکست همگرایی با تخمین گام به گام پارامتر در لجستیک SAS proc با استفاده از گزینه OFFSET
60425
داده های استفاده از روش های آماری در روانشناسی را از کجا می توان یافت؟
27279
در یک سوال مرتبط، من در مورد هنجار ناشی از یک ماتریس معکوس Wishart پرسیده بودم. من علاقه مند به تعمیم آن نتیجه تا حدودی هستم. اجازه دهید $A\sim\mathcal{W}_p\left(I,n\right)$، یک ماتریس Wishart با ماتریس مقیاس $I$، هویت و $n$ درجه آزادی. اجازه دهید $l$ یک بردار $p$-بعدی ثابت باشد. $$h = \frac{l^{\top}l}{l^{\top} \left(A^{-1}\right)^{m} l}، $$ را در نظر بگیرید که $m$ مقداری است عدد صحیح وقتی $m=1$، $h$ آشکارا به‌عنوان یک متغیر تصادفی مجذور کای توزیع می‌شود (به عقیده من، با $n-p+1$ درجه آزادی). آیا نتایج شناخته شده ای در مورد توزیع $h$ در زمانی که $m=2$ وجود دارد؟ ارزش های دیگر؟
توزیع Wishart معکوس به یک قدرت؟
27271
من یک مدل تحلیل عاملی دارم که به صورت زیر تعریف شده است: $x = m + Wz + e$ که در آن $x$ یک متغیر قابل مشاهده p-بعدی است، $m$ یک بردار ثابت است، و $z$ یک گاوسی $n$-بعدی است. متغیر پنهان با $z$ ~ $N(0, I)$، $W$ یک ماتریس $p\times m$ و $e$ یک $p$-بعدی با $e$ است. ~ $N(0, \Psi$) - ماتریس بارگذاری عامل است. $Z$ و $e$ مستقل هستند. $p(x)$ توسط مدل گاوسی تعریف شده است، اما **چگونه میانگین آن را پیدا کنم؟** **همچنین، توزیع مشترک صریح $p(z، x)$ چیست؟**
چگونه می توان میانگین و توزیع مشترک را در تحلیل عاملی بدست آورد؟
27273
من سعی می‌کنم داده‌های اندازه‌گیری مکرر را تجزیه و تحلیل کنم و در تلاشم تا آن‌ها را در «R» کار کنم. اطلاعات من اساساً به شرح زیر است، من دو گروه درمانی دارم. هر موضوع در هر گروه هر روز تست می شود و به آن نمره (درصد درست در یک آزمون) داده می شود. داده ها در قالب طولانی هستند: درصد زمان گروه موضوعی 1 0 GK11 اتانول 2 0 GK11 اتانول 3 0 GK11 اتانول 4 0 GK11 اتانول 5 0 GK11 اتانول 6 0 GK11 اتانول داده ها شبیه به مقدار کمی منطقی روز به دنبال آن سریع بهبود، و به دنبال آن یک فلات. می‌خواهم بدانم آیا درمان روی منحنی عملکرد آزمایش تأثیر دارد یا خیر. فکر من این بود که از «nlmer()» در بسته «lme4» در «R» استفاده کنم. من می توانم خطوط را برای هر گروه با استفاده از موارد زیر تنظیم کنم: print(nm1 <- nlmer(Percent ~ SSlogis(Time, Asym, xmid, scal) ~ Asym | Subject, salinedata, start = c(Asym =.60, xmid = 23, scal = 5))، corr = FALSE) من می توانم گروه ها را با نگاه کردن به تخمین ها برای پارامترهای مختلف و استاندارد مقایسه کنم. انحراف از خطوط تخمین زده شده است، اما من مطمئن نیستم که این روش مناسب برای انجام آن باشد. هر گونه کمکی بسیار قدردانی خواهد شد.
چگونه می توانم یک مدل اثرات مختلط غیرخطی را برای داده های اندازه گیری های مکرر با استفاده از nlmer() برازش کنم؟
113519
من رگرسیون لاجیت را روی متغیرهایم انجام دادم. من 10 متغیر دارم، همه متغیرهای دسته بندی هستند. پس از انجام logit، می خواهم استحکام را بررسی کنم. چگونه می توانم آن را در STATA دریافت کنم
60427
استفاده از ARIMA در R
60426
پیش بینی یک سری زمانی بر اساس مجموعه ای از سری های زمانی دیگر
27276
من به دنبال یک الگوریتم کارآمد برای تشخیص پیوندهای Tomek هستم. میخوام بدونم کسی میدونه کجا میشه پیداش کرد این تعریف پیوندهای Tomek است: فرض کنید $\\{ E_1,\ldots,E_n\\} \subset R^k$ یک مجموعه داده است که هر $E_i$ دقیقاً دارای یکی از دو برچسب $+$ یا $-$ است. . یک جفت $(E_i,E_j)$ پیوند Tomek نامیده می شود اگر $E_i$ و $E_j$ دارای برچسب های متفاوتی باشند و یک $E_l$ وجود نداشته باشد که $d(E_i,E_l) <d(E_i,E_j) باشد. $ یا $d(E_j,E_l) < d(E_i,E_j)$، که $d(x,y)$ فاصله بین $x$ و $y$. با تشکر
به دنبال یک الگوریتم کارآمد برای تشخیص پیوندهای Tomek هستید
25526
آیا یک الگوریتم انتشار باور برای استنتاج دقیق روی یک MRF با ساختارهای دسته ای پیچیده (یعنی آنهایی که بیش از 2 همسایه را شامل می شوند) وجود دارد؟ برای MRF با دسته‌هایی که فقط شامل تعامل دوتایی می‌شوند، می‌توانید به اندازه کافی دور جستجو کنید و خوشه‌بندی کنید تا یک نمودار غیر چرخه‌ای تشکیل دهید و BP معمولی را اجرا کنید. با دسته‌های پیچیده‌تر، این برای من غیرممکن به نظر می‌رسد، زیرا خوشه‌بندی ممکن است شامل بریدن دسته‌ای با چند عضو در هر دو طرف باشد. آیا راه حلی برای این وجود دارد؟ شاید برخی استدلال های شرطی هوشمندانه؟
انتشار باور در MRF با دسته های پیچیده
27274
من داشتم کتابی می‌خواندم و نویسندگان اشاره کردند که قرار گرفتن در معرض خطر را می‌توان از نظر علمی با استفاده از این فرمول تخمین زد: $risk(\$) = \frac{(a + 4m + b)}{6}$ و انحراف استاندارد $\sigma = \ فراک{b-a}{6}$ کجا: a = حداقل قرار گرفتن در معرض دلار m = به احتمال زیاد قرار گرفتن در معرض دلار b = حداکثر قرار گرفتن در معرض دلار که در آن a, m, b هستند برگرفته از داده های گذشته یا قضاوت کارشناسان. همه اینها خوب است، اما من هرگز این فرمول را ندیده ام - این از کجا آمده است؟ آیا در آمار یا هر مرجع علمی پایه گذاری شده است؟ کسی چیزی در این مورد میدونه؟ اشاره‌ها/پیشنهادها/توضیحات بسیار قدردانی می‌شود. من کنجکاو هستم که چگونه فرمول بالا یک معیار قرار گرفتن در معرض خطر را ارائه می دهد. چرا '6' در مخرج و چرا 'a + 4m + b' در صورت؟ به طور مشابه برای $\sigma$؟ هر ایده ای؟ **ویرایش**: به نظر می رسد این فرمول میانگین وزنی است، اما در مورد شروع آن یا دلیل دادن وزن 4 به 'm' مطمئن نیستم و اینکه چگونه بر محاسبه $\sigma$ تأثیر می گذارد؟ **به روز رسانی**: کتاب - ساختن پرونده تجاری نرم افزار. با این حال، فقط گوگل برای شمارشگر چند نتیجه به دست آورد - به نظر می رسد به عنوان فرمول PERT شناخته می شود و برای تخمین زمان استفاده می شود - اما سوال من در مورد فرمول صرف نظر از اینکه برای ریسک استفاده شود، همچنان پابرجاست. **اشتقاق فرمول** \- به نظر می رسد دلیل این فرمول آن چیزی باشد که در یک مقاله JSTOR برای علاقه مندان توضیح داده شده است!
این «فرمول تخمین» مواجهه با ریسک از کجا آمده است؟
25521
فرض کنید من فرآیندی دارم که فکر می کنم پواسون است، به این معنی که زمان انتظار بین رویدادها به صورت نمایی توزیع می شود. به عنوان یک مثال عینی، فرض کنید می‌خواهم زمان انتظار یک تصادف رانندگی در یک تقاطع را تخمین بزنم. این حوادث به ندرت اتفاق می‌افتد، بنابراین داده‌هایی که در اختیار دارم باید به طور مؤثر استفاده شوند. X_1$ روز طول می کشد تا اولین تصادف رخ دهد، X_2$ روز پس از اولین حادثه برای تصادف دوم و غیره. از آخرین تصادف X_C$ روز گذشته است (و در حال شمارش). بهترین راه (بی طرفانه، حداقل واریانس) برای تخمین زمان انتظار در این شرایط چیست، جایی که مدتی از آخرین رویداد پواسون می گذرد و من می خواهم از دانش خود در مورد X_C$ استفاده کنم؟ ویرایش: من به پارامتر نرخ نمایی علاقه مند هستم. بخش جالب سوال گنجاندن ارزش سانسور شده X_C$ در برآورد است. وقتی سوال اصلی را نوشتم، اصطلاحات مربوط به این موضوع به نوعی از من دور شد.
تخمین زمان انتظار پواسون: با استفاده از آخرین نمونه سانسور شده؟
9542
من می دانم که در یک موقعیت رگرسیونی، اگر مجموعه ای از متغیرهای بسیار همبسته داشته باشید، این معمولاً به دلیل ناپایداری در ضرایب تخمین زده شده بد است (واریانس به سمت بی نهایت می رود زیرا تعیین کننده به سمت صفر می رود). سوال من این است که آیا این بد در وضعیت PCA ادامه دارد یا خیر؟ آیا ضرایب/بارها/وزن ها/بردارهای ویژه برای هر رایانه شخصی خاص با تبدیل شدن به ماتریس کوواریانس، ناپایدار/خودسرانه/غیر منحصر به فرد می شوند؟ من به ویژه به مواردی علاقه مند هستم که فقط اولین جزء اصلی حفظ شود و بقیه به عنوان صدا یا چیز دیگری یا بی اهمیت رد شوند. فکر نمی‌کنم اینطور باشد، زیرا شما فقط با چند مؤلفه اصلی که واریانس صفر یا نزدیک به صفر دارند، باقی می‌مانید. مشاهده آسان این مورد در حالت شدید ساده با 2 متغیر صادق نیست - فرض کنید آنها کاملاً همبسته هستند. سپس اولین PC رابطه خطی دقیق خواهد بود، و PC دوم عمود بر PC اول خواهد بود، با تمام مقادیر PC برابر با صفر برای همه مشاهدات (یعنی واریانس صفر). تعجب می کنم که آیا عمومی تر است.
25520
من به این موضوع نگاه کردم که آیا شرکت کنندگان پس از قرار گرفتن در معرض یک پیام معین بازیافت می کنند یا خیر. سه گروه وجود داشت: یک گروه کنترل، گروه A و گروه B. از آنجایی که معیار وابسته من دوقطبی بود (بازیافت در مقابل استفاده از سطل زباله)، یک رگرسیون لجستیک در SPSS انجام دادم. با این حال، SPSS فقط به من اجازه می دهد گروه های فردی را با گروه کنترل مقایسه کنم. دریافتم که گروه A بیشتر از گروه کنترل بازیافت می کند، اما گروه B این کار را نکرد. چیزی که اکنون در مورد آن کنجکاو هستم این است که آیا گروه A به طور قابل توجهی بیشتر از گروه B بازیافت کرده است یا خیر. اگر چنین است، چگونه؟
چگونه با رگرسیون لجستیک تست های پس از آن را انجام دهیم؟
25523
من یک عکس از یک آرشیو بسیار قدیمی دارم. این لیستی از تاپل ها (var، درصد) است. مشکل این است که من فقط 13 مقدار برتر را دارم که بر اساس درصد مرتب شده اند. در پایتون تصمیم گرفتم آن را به صورت دیکشنری بنویسم. myolddictionary = {'var1': 0.64، 'var2': 0.63، 'var3': 0.40، 'var4': 0.38، 'var5': 0.36، 'var6': 0.34، 'var7': 0.34، 'var8': 0.34 ، 'var9': 0.33، 'var10': 0.32، 'var11': 0.32، 'var12': 0.30، 'var13': 0.29} اکنون، شهود من به من می گوید که اگر کل مجموعه داده را داشته باشم، به دلیل درصد بسیار کمی از مقادیر بالا، به نظر می رسد توزیع یکنواخت، یا یک توزیع نرمال با واریانس بسیار بالا، زیرا تعداد var ها می تواند بیش از 100 باشد. فکر اولیه من این بود که فقط مجموع مقادیر درصدهایی که من دارم، تفاوت را از 100 بگیرید، و سپس آن را به این تعداد متغیر جدید تقسیم کنید تا هر کدام درصدی کوچکتر از 0.29٪ (در غیر این صورت، در آرشیو ظاهر می شوند، درست است؟) و آنها را به فرهنگ لغت اضافه کنید. اما بعد فکر کردم که این ممکن است یک راه واقعا احمقانه باشد. آنچه من در واقع می خواهم این است که از توزیعی استفاده کنم که در آن: الف) تساوی ها به یک اندازه محتمل نیستند ب) مجموع همه تساوی ها همان چیزی است که از 100 پس از حذف درصدهای لیست اولیه من باقی می ماند (در این مورد 95.01) ج) همه تساوی ها کوچکتر یا مساوی 0.29. چیزی مانند تابع superamazingdistribution (تعداد_از_کشش_های_اضافی = 0، مجموع_کشش‌ها، محدوده) که در آن: 1)تعداد_کشش‌های_اضافی تعداد قرعه‌کشی‌های اضافی است که می‌خواهم انجام دهم، به حداقل مورد نیاز اضافه می‌شود تا بتوان با استفاده از حداقل تعداد قرعه‌کشی‌ها به مجموع_کشش‌ها رسید * محدوده 2) sum_of_draws ، شماره ای که می خواهم به آن برسم، در این مورد خاص 95.01 3) یک لیست [num1, num2]، در مورد من [0، 0.29] و یک فرهنگ لغت (یکی از بسیاری از موارد ممکن که حدس می‌زنم) را برمی‌گرداند مانند {var1: درصد1، var2: درصد2،...، varN: درصدN}، که می توانم از طریق آن حلقه بزنم و به فرهنگ لغت خود اضافه کنم. ببخشید اگر این سوال احمقانه ای است، متأسفانه من هرگز در زندگی ام در دوره آمار شرکت نکردم.
چگونه مقادیر از دست رفته را در یک مجموعه داده پر کنیم؟
104828
تبدیل افین چیست؟ کدام خانواده های توزیع تحت تبدیل افین بسته می شوند؟
194
من مطمئن هستم که هر کسی که در تلاش است الگوهایی را در داده های تاریخی بازار سهام یا تاریخچه شرط بندی بیابد، دوست دارد در مورد این موضوع بداند. با توجه به مجموعه عظیمی از داده‌ها، و هزاران متغیر تصادفی که ممکن است بر آن تأثیر بگذارند یا نه، منطقی است که بپرسیم هر الگویی که از داده‌ها استخراج می‌کنید، در واقع الگوهای واقعی هستند، نه تصادفی آماری. بسیاری از الگوها تنها زمانی معتبر هستند که در نمونه ها آزمایش شوند. و حتی آن‌هایی که الگوهایی هستند که خارج از نمونه‌ها معتبر هستند، ممکن است زمانی که آن را در دنیای واقعی به کار می‌برید، معتبر نیستند. من می‌دانم که نمی‌توان به طور کامل ۱۰۰٪ مطمئن شد که یک الگو همیشه معتبر است، اما علاوه بر تست‌های درون و بیرون نمونه، آیا تست‌هایی وجود دارد که بتواند اعتبار یک الگو را تعیین کند؟
داده کاوی-- چگونه بفهمیم الگوی استخراج شده معنادار است؟
196
علاوه بر gnuplot و ggobi، افراد از چه ابزارهای منبع باز برای تجسم داده های چند بعدی استفاده می کنند؟ Gnuplot کم و بیش یک بسته رسم اولیه است. Ggobi می‌تواند کارهای بسیار خوبی را انجام دهد، مانند: * متحرک کردن داده‌ها در امتداد یک بعد یا در میان مجموعه‌های گسسته * متحرک کردن ترکیبات خطی با تغییر ضرایب * محاسبه اجزای اصلی و سایر تبدیل‌ها * تجسم و چرخش خوشه‌های داده سه بعدی * استفاده از رنگ‌ها برای نشان دادن یک ابعاد مختلف چه رویکردهای مفید دیگری مبتنی بر منبع باز هستند و بنابراین آزادانه قابل استفاده مجدد یا سفارشی هستند؟ **لطفا توضیح مختصری در مورد توانایی های پکیج در پاسخ ارائه دهید.**
ابزارهای منبع باز برای تجسم داده های چند بعدی؟
48747
من در حال تجزیه و تحلیل داده ها از متغیرهای دوگانه مختلف هستم. هنگام تجزیه و تحلیل ارتباط بین این متغیرها، بهترین روش پیشنهادی چیست؟
تحلیل متغیرهای دوگانه
94914
74244
مشکل: اجازه دهید یک آرایه (که با X مشخص می شود) وجود داشته باشد که در آن هر آیتم یک عضو دارد و یک برچسب به آن اختصاص داده شده است. به عنوان مثال: $$ X= \\{a_0, b_0, b_1, c_0, c_1, a_1\\} $$ در اینجا حرف یک برچسب را نشان می‌دهد و ایندکس فقط نمونه دیگری از برچسب داده شده است. اکنون هدف نمونه برداری از n مورد از X به Y است، که در آن: $$ |Y|=n < m = |X| $$ و هر برچسب وزنی به آن اختصاص داده است، به طوری که در دراز مدت وزن ها توزیع عناصر در Y را مشخص می کنند. عناصر از داخل یک برچسب متفاوت هستند، اما هر کدام از آنها ممکن است انتخاب شود. تعدد برچسب ها نیز تصادفی هستند (ممکن است از 1 تا 10 متغیر باشد). طول X معمولاً حدود 100 خواهد بود که از بین آنها باید حدود 10 مورد انتخاب شود. بنابراین، فرض کنید اگر وزن‌ها $$ W = \\{a=5، b=45، c=50\\} $$ برای 10000 اجرا باشد، اگر عناصر Y را جمع کنیم، درست است که 5٪ از از a، 45% از b و 50% از c خواهد بود. ایندکس ها فقط نشان می دهند که شما چندین نمونه از یک برچسب دارید. هیچ نیاز فرکانسی برای درون برچسب وجود ندارد (بنابراین نمونه‌برداری تصادفی ساده می‌تواند/باید استفاده شود). نمونه برداری بدون جایگزینی است (با توجه به آرایه کامل (X)، اما اگر فقط برچسب ها را در نظر بگیرید (یعنی برچسب های a,b,c) با جایگزینی محدود است. در پایان ما نیازی به تطابق دقیق با W نداریم. مقدار مناسب است. اجراهای متوالی ممکن است به خروجی کمی متفاوت منجر شود (اگرچه مقدار مورد انتظار فرکانس برچسب‌ها باید تقریباً W باشد). سعی کردم این کار را در پایتون از طریق انتخاب چرخ رولت انجام دهم، جایی که اگر یک برچسب دیگر موردی را نداشته باشد، من رولت را دوباره انجام می دهم. 1. الگوریتم خوبی برای این کار چیست؟ چرا گاهی اوقات تفاوت بزرگ وجود دارد - در اینجا کد پایتون http://pastebin.com/SFhV74Z8)
انتخاب تصادفی وزن دار با جایگزینی محدود
64219
رتبه بندی متغیرهای مختلف بر اساس استانداردسازی
74243
معادلات رگرسیون زیر را در نظر بگیرید: \begin{align} Y_i &= \beta_0 + \beta_1 X_{i1} + \varepsilon_i \\\ Y_j &= \beta_0 + \beta_1 X_{j1} + \beta_2 X_{j2} + \ varepsilon_j \end{align} که در آن $Y_i،\ X_{i1}،\ \varepsilon_i,\ Y_j,\ X_{j1},\ \& \ X_{j2},\ \varepsilon_j$ بردارها هستند و $_i$ و $_j$ مجموعه‌های متمایز مشاهدات را فهرست می‌کنند. پاسخ دهندگان $_i$ یک معیار صلاحیت را برآورده نکردند و بنابراین از آنها سوالی که مطابق با $X_2$ است پرسیده نشد. متغیر وابسته و متغیر مستقل اول در هر دو معادله رگرسیونی یکسان است اما معادله رگرسیون دوم دارای متغیر مستقلی است که در معادله اول وجود ندارد. بدیهی است که من می توانم دو رگرسیون را به طور جداگانه تخمین بزنم اما کارآمد نخواهد بود. بنابراین، من در نظر داشتم اولین مورد را به صورت زیر بنویسم: $$ Y_i = \beta_0 + \beta_1 X_{i1} + \beta_2 X_{i2} + \varepsilon_j $$ که در آن $X_{i2}$ بردار 0$ است. $s. سپس می توانم تخمین پارامترها را با استفاده از OLS با معادله زیر تخمین بزنم: $\left[ \begin{array}{ccc} Y_i\\\ Y_j\end{array} \right] = \left[ \begin{array}{ ccc} {\bf 1} & X_{i1} & X_{i2} \\\ {\bf 1} & X_{j1} و X_{j2}\end{array} \right] \left[ \begin{array}{ccc} \beta_0\\\ \beta_1\\\ \beta_2\end{array} \right] + \left[ \begin{ array}{ccc} \epsilon_i\\\ \epsilon_j\end{array} \right]$ در معادله بالا، ${\bf 1}$ مخفف یک بردار است. $1$s از ابعاد مناسب. آیا روش فوق یک رویکرد استاندارد برای به دست آوردن برآوردهای کارآمد است؟ آیا نامی برای این روش تخمین وجود دارد؟
رگرسیون که در آن زیرمجموعه‌ای از مشاهدات، داده‌های مربوط به یک متغیر مستقل را ندارند
64211
من یک CART Decision Tree با 5 متغیر مستقل اجرا می‌کنم و نمی‌دانم چگونه می‌توانم نتایج را تفسیر کنم وقتی همان متغیر گره ترمینال را تقسیم می‌کند و همچنین گره پایانه نزدیک‌ترین والد را تقسیم می‌کند. به عنوان مثال، متغیر مستقل درآمد است و یک گره پایانه می گوید x <= 11.000 درآمد و والد آن می گوید x> 5.0000، بنابراین به نظر می رسد که آنها همپوشانی دارند (بین 5.000 و 11.000) که می تواند راهی برای تفسیر یا روی باشد. از طرف دیگر آیا باید فقط شکل گره ترمینال x <= 11.000 را در نظر بگیرم؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/QGO5o.jpg) سوال این است: نود 18 باید مانند مشتریان با درآمد بین 10.001 تا 15.000 یا فقط مشتریان با درآمد خوانده شود. بالای 15000 دلار؟
74249
مطمئن نیستم که آیا اینجا جای سوال است یا نه، برای پاسخ به این سوال سعی کردم تابع چگالی احتمال (PDF) را مطالعه کنم، اما فایده ای نداشت. چگونه می توانم در مورد این شروع کنم؟ چگونه می توانم تابعی را بر اساس $\lambda$ داده شده و آن نماد کوچک $t$ ایجاد کنم. $X \sim Ga(n,\lambda)$ چیست؟ توضیح قبل از پاسخ خوب خواهد بود. از تمام کمک های مورد نیاز قدردانی کنید. با احترام![سوال آمار](http://i.stack.imgur.com/OzD7G.png)
یافتن تابع چگالی احتمال با مقادیر مجهول
99289
من در حال خواندن مقاله ای هستم که در آن نویسندگان از تابع از دست دادن Wilcoxon-Mann-Whitney استفاده می کنند در حالی که یک تابع هدف را به حداقل می رساند. همانطور که نویسندگان در مقاله می گویند، نقش تابع ضرر دادن یک مقدار مثبت (پنالتی) زمانی است که ورودی به تابع مثبت است و در غیر این صورت یک صفر می دهد. معادله تابع از دست دادن Wilcoxon-Mann-Whitney این است: $\frac{1}{(1+e^{-x/b})}$ با این حال وقتی از تابع استفاده کردم، چه آن را بدهم، یک مقدار مثبت می دهد. یک مقدار مثبت یا یک ارزش منفی! پس چه اشکالی دارد؟! آیا ممکن است نویسندگان معادله را اشتباه نوشته باشند؟ نمی‌دانم آیا کسی این تابع ضرر را می‌داند و می‌تواند توضیح دهد. به هر حال، در مقاله نیز ذکر شده است که وقتی کسی قصد دارد AUC را به حداکثر برساند، از Wilcoxon-Mann-Whitney استفاده می شود.
57573
چگونه می توانم ترتیب تاخیر صفر را در نمودار acf حذف کنم؟ این تصویر را ببینید: ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/RP3u1.png) ایجاد شده توسط dummy<-c(14,0.004,0.2,1,0.002,-3,-0.042 ,1.2,-1,1.3,2.1,4,3001,-2,0.3,2,3) acf(ساختگی) بالا پیک (که منطقاً 1 است) طرح را از بین می برد، زیرا مقیاس بندی خیلی بزرگ است. من می خواهم اوج بالا را در ترتیب تاخیر 1 حذف کنم، به طوری که می توان مقیاس را به 0.2- تا 0.2 کاهش داد، چگونه می توانم این کار را انجام دهم؟
ترتیب تاخیر 0 را در نمودار ACF حذف کنید
66338
نحوه تعیین ماتریس مقیاس توزیع Wishart
80463
من مجموعه زیر را از جلوه‌های ثابت با میانگین مدل از مجموعه‌ای از GLMMهای دوجمله‌ای دارم: ![تصویر پارامترهای مدل](http://i.stack.imgur.com/yN4wR.png) می‌خواهم اثر پیش‌بینی‌شده را ترسیم کنم NBT، همراه با باندهای اطمینان، در حالی که همه متغیرهای دیگر را در سطوح پایه خود نگه می دارد. تلاش من برای انجام این کار در ggplot: Xvars <- seq(from=0, to=100, by=0.1) محدوده #NBT 0-100 binomIntercept <- 1.317 binomSlope <- -0.0076 binomSE <- 0.009 Means <- logistic( binomIntercept + binomSlope*Xvars) loCI <- logistic(binomIntercept + (binomSlope - 1.96*binomSE)*Xvars) upCI <- logistic(binomIntercept + (binomSlope + 1.96*binomSE)*Xvars) df <- data.frame(Xvars,Means,loCI,upCI) p <- ggplot (داده = df، aes (x = Xvars، y = Means)) + geom_line() + geom_line(data=df، aes(x = Xvars، y = upCI)، col='grey') + geom_line(data=df، aes(x = Xvars، y = loCI)، col ='خاکستری') p ![تصویر نمودار](http://i.imgur.com/eMJBxQQ.png) من فرض می کنم که نوارهای اطمینان مخروطی شکل هستند، زیرا من عدم قطعیت را در برآورد رهگیری در نظر نمی‌گیرم. شاید این مشکلی نداشته باشد (؟)، اما با هر خط رگرسیونی که من تا به حال دیده ام با فاصله های اطمینان ترسیم شده متفاوت به نظر می رسد. لطفاً کسی می تواند به من بگوید که چگونه باید معادلاتم را بنویسم تا فواصل اطمینان صحیح را با توجه به خطاهای قطع، شیب و استاندارد خروجی مدلم بدست بیاورم؟ (من می دانم که می توانم از تابع پیش بینی برای انجام این کار در R استفاده کنم، اما می خواهم بدانم چگونه این کار را با دست انجام دهم.)
72848
من تابع بقا را برای یک سرویس مبتنی بر اشتراک محاسبه و ترسیم کرده ام و نتیجه زیر است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/qm7dm.png) مشکل این است که به نظر نمی رسد داده های کافی برای دریافت منحنی کامل وجود داشته باشد. این به این دلیل است که اکثر قدیمی ترین حساب ها هنوز فعال هستند. بنابراین سوال من این است که آیا مقایسه منحنی‌های بقا برای بخش‌های مختلف حساب‌ها با توجه به اینکه آشکارا داده‌های کافی برای یک منحنی کامل وجود ندارد، هنوز مفید است؟
تجزیه و تحلیل بقا بدون داده های کافی
70541
بهترین روش گرافیکی برای تجسم تابع چگالی سه بعدی چیست؟ همانطور که در من می خواهم $$z=f_{X,Y}(x,y)$$ را تجسم کنم؟ لازم نیست اما کد R برای این کار عالی خواهد بود.
چگونه یک تابع چگالی سه بعدی را تجسم کنیم؟
111008
57572
سلام من یک سوال در مورد پیدا کردن DF در مدل های لاجیت دارم. بگویید من یک جدول دارم (همه اعداد خیالی) ![8 شهر سیگار کشیدن در مقابل بیماری قلبی](http://i.stack.imgur.com/ZQxvw.png) و بگویید من در حال آزمایش خوبی تناسب (انحراف) بین برازش هستم مدل و مدل اشباع شده 1) مدل جلوه اصلی: $$Logit[\pi (x,y))] = \alpha + \beta_{x}^{smoking} + \beta_{y}^{city}$$ 2) مدل اشباع: $ $ Logit[\pi (x,y))] = \alpha + \beta_{x}^{smoking} + \beta_{y}^{city} + \beta_{xy}^{smoking,city}$$ چگونه DF را از این 2 مدل محاسبه کنم؟ (جواب 7 از نرم افزار stats است، اما من متوجه نمی شوم که چگونه به صورت دستی جواب بگیرم). DF = درجه آزادی = تفاوت در تعداد پارامترها از 2 مدل. با تشکر
یافتن درجه آزادی از 2 مدل لاجیت
80461
$\nu$ در $\nu$-SVM چیست؟
70544
فرض کنید که ما N مشاهده از سه گانه متغیرهای باینری V1,V2,V3 داریم. (یعنی یکی از این مشاهدات ممکن است این باشد: [V1 V2 V3] = [1 0 1]). حال فرض کنید می‌خواهیم این مشاهدات را در یک توالی/ترتیب تصادفی مرتب کنیم (مشاهده1؛ مشاهده2؛ ....؛ مشاهدهN). هر ترتیبی از این دست را می توان به عنوان یک ماتریس Nx3 نشان داد، که در آن ردیف i، مشاهده i ام را نشان می دهد. به عنوان مثال، یک ترتیب از این N ردیف خواهد بود: \begin{array}{ccc} 1 & 0 & 1 \\\ 0 & 0 & 1 \\\ ... \\\ 0 & 1 & 0 \end{ آرایه} از آنجایی که 3 متغیر وجود دارد و همه متغیرها باینری هستند، 8 نوع متمایز ممکن از مشاهدات وجود دارد (یعنی بردارهای ردیف مانند [0 1 1]، [1 0 1] و غیره). برای هر یک از این انواع، فرض کنید _ ما می دانیم چند ردیف (از N ردیف کل) از این نوع هستند._ حالا، فرض کنید برای هر ماتریس تغییر ردیف ممکن (Nx3) (یعنی هر ترتیب ممکن از N مشاهدات) مقدار H را به صورت زیر محاسبه می کنیم: * اگر برای هر جفت ردیف مجاور، ردیف i و ردیف i+1 از ماتریس، سطر i+1 مقدار متفاوتی برای V1 نسبت به ردیف i دارد، اما مقدار V2 برابر با ردیف i است، سپس در این جفت سطر: * برای ردیف با V1=0، مقدار V3 در این ردیف را از مقدار کم کنید. از V3 در ردیفی که V1=1 . به عنوان مثال، اگر یک جفت ردیف مجاور داشته باشیم: \begin{array}{ccc} 1 & 0 & 0 \\\ 0 & 0 & 1 \end{array} سپس (0 - 1) = -1 را محاسبه می کنیم. برای این جفت اگر ردیف‌ها به ترتیب مخالف باشند، همان نتیجه را می‌یابیم: \begin{array}{ccc} 0 & 0 & 1 \\\ 1 & 0 & 0 \end{array} * فرض کنید H حاصل **جمع باشد تمام این مقادیر محاسبه‌شده** در یک ماتریس تغییر ردیف داده شده، تقسیم بر تعداد جفت ردیف‌های مجاور (با ویژگی که توضیح داده شد) که در ماتریس ظاهر می‌شوند. **هدف من:** من به دنبال راهی برای یافتن توزیع احتمال (یا حداقل میانگین یا میانه) مقادیر H (بر روی تمام ترتیب‌های ممکن ردیف‌ها) به صورت تحلیلی یا حداقل به نحوی هستم که ممکن است نتیجه دهد. درجه بیشتری از درک نسبت به نمونه برداری ساده از یک شبیه سازی کامپیوتری. هر گونه کمک، بینش، و توصیه در مورد چگونگی شروع به برخورد با چنین مشکلی بسیار قدردانی خواهد شد! شاید، برای مثال، راه‌های دیگری برای توصیف و اندیشیدن در مورد این مشکل وجود داشته باشد که راه‌حلی (نسبتاً) ساده را بهتر ارائه دهد.
یافتن توزیع یک کمیت مبتنی بر انتقال ردیف محاسبه شده بر روی جایگشت های ردیف یک ماتریس
80468
اجازه دهید $c \in \mathbb R$ . اجازه دهید دنباله ای از متغیرهای تصادفی باشد. اجازه دهید $f:\mathbb R \to\mathbb R$ تابع پیوسته باشد. اگر $Y_{n} \xrightarrow{ p} c$ , سپس نشان دهید که $f(Y_{n}) \xrightarrow{ p} f(c) $
105308
ما یک فرآیند AR(1) ثابت داریم که به صورت $A_{t}= d+ \rho A_{t-1}+ \epsilon_{t}$ با $d>0$ تعریف شده است. $-1<\rho<1$; $\epsilon_{t}$ نویز سفید است و به دنبال $N(0,\sigma^2)$ است. به چه شرایطی نیاز داریم تا مطمئن شویم که $A_{t}$ مقادیر $(0,1)$ را برای همه $t$ می گیرد؟
محدود کردن محدوده مقادیر برای فرآیند AR(1).
91720
من از effectiveSize() بسته کدا برای یافتن اندازه نمونه موثر شبیه سازی MCMC خود استفاده کردم. حجم نمونه موثر من از حجم نمونه واقعی بیشتر است، به عنوان مثال. 9813.626 بزرگتر از 9501. نمی دانم آیا این منطقی است؟ درک من این است که حجم نمونه موثر نمی تواند بزرگتر از حجم نمونه واقعی باشد و زمانی که همبستگی خودکار بیشتری وجود داشته باشد کوچکتر خواهد بود.
آیا حجم نمونه موثر در شبیه سازی MCMC بیشتر از حجم نمونه واقعی است؟
113250
من یک داده سری زمانی بزرگ (> 100000) تک ستونی ممیز شناور دارم. من می خواهم تغییرات ساختاری را در داده ها با توجه به زمان (در شاخص موردی من) پیدا کنم. برای انجام این کار، من از بسته R strucchange استفاده می کنم. اما من دارم خطا میگیرم من انتظار دارم که نوع نمودار زیر را با مجموعه داده خود ایجاد کنم ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/sU31W.png) کدی که استفاده می کنم اینجاست: data = read. csv(tst1.csv, header = FALSE) کتابخانه (Strucchange) ## برازش، تجسم و تست CUSUM مبتنی بر OLS ## با عملکرد Cramer-von Mises ocus <- efp(data ~ 1, type = OLS-CUSUM) sctest(ocus, functional = meanL2) ## تخمین نقاط شکست bp <- breakpoints(data ~1) summary(bp) plot.ts(data) lines(bp) lines(fitted(bp، type = mean)، col = 2) * * * من پیام های خطای زیر را دریافت می کنم: بارگیری بسته مورد نیاز: zoo پیوست کردن بسته: 'zoo' اشیاء زیر از 'package:base' پوشانده شده اند: as.Date, as.Date.numeric بارگیری بسته مورد نیاز: sandwich خطا در model.frame.default(فرمول، داده = داده ) : نوع (لیست) نامعتبر برای متغیر 'داده' فراخوانی ها: efp -> model.frame -> model.frame.default اجرا halted * * * داده های من tst1.csv به نظر می رسد: 0.6 0.78 0.54 0.96 0.43 1.43 1.03 0.83 0.68 3.23 3.09 2.87 ... * * * هر گونه کمکی بسیار قدردانی می شود. با تشکر
چگونه فایل .csv بزرگ را در R مدیریت کنیم؟
48019
آیا می توانیم بعد از اجرای EM متغیرهای پنهان (مخفی) را بازسازی کنیم؟
113252
متاسفم، من در تحلیل آماری مبتدی هستم، پروژه ای با استفاده از R برای تجزیه و تحلیل همبستگی بین متغیرهای وابسته و متغیرهای مستقل دارم. در این مورد من دو متغیر وابسته دارم (1. برونگرا، 2. درونگرا). و متغیرهای مستقلی که من داده‌ها را از آن‌ها دارم (گزارش تماس -> مدت زمانی که هر روز با آنها تماس می‌گیرند، روزانه چند نفر تماس می‌گیرند، گزارش پیامک -> طول متن در متن پیامک هر روز، تعداد پیامک‌هایی که برای هر روز ارسال/دریافت کردند) . من خیلی گیج هستم که چگونه می توانم این کار را انجام دهم، لطفاً هر کسی می تواند چند مرجع خوب در مورد آن به من بدهد. چند سوال هم دارم از جمله: 1. من از متغیرهای مختلف استفاده می کنم، متغیرهای مستقل (نوع داده: عددی) اما متغیر وابسته (نوع داده مقوله ای است)، پس آیا می توان از رگرسیون لجستیک و پیرسون استفاده کرد؟ 2. یا هر کسی راه حل بهتری مانند روش های دیگری برای حل این مشکل به من توصیه کند. مثالی از داده‌ها از dput() ساختار(list(sumcallin = c(462L, 998L, 335L, 179L, 34L, 0L, 0L, 0L, 0L, 0L), caountcallin = c(7L, 5L, 8L, 5L, 1L ، 1 لیتر، 0 لیتر، 1 لیتر، 1 لیتر، 1 لیتر)، sumcallout = c(1068L, 81L, 519L, 393L, 342L, 0L, 583L, 1902L, 358L, 1017L), countcallout = c(15L, 3L, 10L, 5L, 3L,3L, 5L, 3L,3L, جمعی دریافت شده = c(322 لیتر، 75 لیتر، 20 لیتر، 35 لیتر، 8 لیتر، 35 لیتر، 135 لیتر، 103 لیتر، 471 لیتر، 173 لیتر)، دریافت شده = c(15 لیتر، 4 لیتر، 2 لیتر، 3 لیتر، 1 لیتر، 2 لیتر، 1، 3، 7، 7 جمع = c(171 لیتر، 31 لیتر، 25 لیتر، 23 لیتر، 8 لیتر، 55 لیتر، 87 لیتر، 9 لیتر، 400 لیتر، 258 لیتر)، تعداد = c(10 لیتر، 4 لیتر، 1 لیتر، 3 لیتر، 1 لیتر، 3 لیتر، 4 لیتر، 1 لیتر، 8 لیتر)، شخصیت = ساختار(c(2L, 2L, 2L, 2L، 2L، 1L، 1L، 1L، 1L، 1L)، .Label = c(extro، intro)، class = factor))، .Names = c(sumcallin، caontcallin، sumcallout، countcallout، sumreceived، countreceived، sumsent، countsent، شخصیت)، row.names = c(1L, 2L, 3L, 4L, 5L, 37L, 38L, 39L, 40L, 41L), class = data.frame) از راهنمایی شما متشکریم.
همبستگی با استفاده از رگرسیون لجستیک و پیرسون
48016
من از بسته R relaimpo (گرومپینگ، 2006) برای تجزیه و تحلیل اهمیت نسبی 16 رگرسیون بر روی یک متغیر وابسته (N=7000) استفاده می‌کنم. نتایج نشان می دهد که رگرسیورها در واریانس توضیح داده شده به شدت از یکدیگر متفاوت هستند و بین 18.2٪ و 0.8٪ متغیر است. یعنی پس از کنترل برای هر رگرسیون، برخی از رگرسیون‌ها واریانس‌های زیادی را توضیح می‌دهند، برخی دیگر فقط بسیار کم. برای مقاله، من باید یک مقدار p کلی را گزارش کنم، به عنوان مثال: به طور کلی، رگرسیون ها به طور قابل توجهی از یکدیگر متفاوت بودند (p<.001). این بسته فقط اطلاعاتی در مورد تفاوت های قابل توجه بین رگرسیون A و B، رگرسیور A و C و غیره به من ارائه می دهد، نه یک آزمون کلی. از آنجایی که من در اینجا فقط داده های جمعی برای 16 رگرسیون دارم (18.2٪، 16.5٪، ...، 0.8٪)، نمی دانم از چه آزمایشی استفاده کنم.