_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
93816
من یک سوال در مورد رگرسیون غیرخطی و فواصل اطمینان برای مقادیر برآورد شده از مدل دارم. مشکل من اینجاست. من مجموعه‌ای از داده‌ها را دارم که در آنها X$ لگاریتم دوز یک ماده شیمیایی است و Y$$ بازخوانی پاسخ است (نرمال شده بین 0 تا 100٪). من تابع لجستیک را با استفاده از رگرسیون غیرخطی با 4 پارامتر به این داده ها برازش می کنم: $$y = A + \frac{B-A}{1+e^{-ax+b}}$$ هنگامی که $A، B را تخمین زدم، پارامترهای a،$ و $b$، من می‌توانم مقدار X$ را تخمین بزنم که در آن $Y$ باید 20% باشد، این همان چیزی است که من نیاز دارم. همه چیز تا اینجا مشخص است. با این حال، چیزی برای من نامشخص است: ** چگونه می توانم فاصله اطمینان 95٪ را برای آن مقدار تخمینی X$ محاسبه کنم؟** می دانم که نرم افزاری وجود دارد که احتمالاً می تواند این کار را برای من انجام دهد، اما باید درک کنم اصل و الگوریتم خودم، چون باید آن را در کتابخانه خودم پیاده کنم. هر گونه کمکی قدردانی خواهد شد. **ویرایش** Eupraxis و Maarten عزیز، از پاسخ شما متشکریم: **@Eupraxis** - این تصویر، روشی که من توضیح شما را در مورد استفاده از فواصل پیش‌بینی توابع برای محاسبه 95% کران CI با مقدار X تخمین زده فهمیدم، در اینجا آمده است. آیا این همان چیزی است که شما پیشنهاد کردید (با عرض پوزش برای نقاشی های دستی)؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/cZafb.jpg) اگر تابع من نتواند دوباره به صورت خطی بیان شود چه؟ من حتی مطمئن نیستم که چگونه این کار را برای منحنی لجستیک انجام دهم. لطفا نظر من را برای مارتن نیز ببینید. **@Maarten** - با تشکر از شما برای مقاله! سعی کردم آن را بخوانم، اما صادقانه بگویم که درک آن بسیار سخت بود. آنچه را که به نظر می رسد توصیف بسیار ساده تری از روش دلتا برای محاسبه فاصله پیش بینی در رگرسیون غیرخطی است: چگونه باندهای پیش بینی را برای رگرسیون غیر خطی محاسبه کنیم؟ سپس من قصد داشتم از این 95٪ PI برای محاسبه 95 CI برای x' همانطور که Eupraxis در بالا پیشنهاد کرد استفاده کنم. با این حال، یک چیز وجود دارد که من در این روش دلتا کاملاً متوجه نمی شوم. به طور خاص، همانطور که توضیح داده شد: > ابتدا، اجازه دهید G|x را تعریف کنیم، که گرادیان پارامترها در یک مقدار خاص X و با استفاده از تمام مقادیر مناسب پارامترها است. > نتیجه یک بردار با یک عنصر در هر پارامتر است. برای هر پارامتر، > به صورت dY/dP تعریف می شود، که در آن Y مقدار Y منحنی با توجه به > مقدار خاص X و تمام مقادیر پارامتر مناسب است، و P یکی از > پارامترها است.) آیا می توانید شاید آن را توضیح دهم، شاید با مثال عددی بتوانم دنبال کنم؟ بقیه الگوریتم برای من واضح است. پیشاپیش از کمک شما متشکرم، جولای
فواصل اطمینان برای مقادیر برآورد شده از مدل رگرسیون غیرخطی
93817
من یک دانشجوی M.Tech هستم که پروژه آکادمیک خود را انجام می دهم، در اینجا از من خواسته ام تا یک طرح بهینه و بهترین معادله را برای تطبیق داده ها برای فرآیند لیچینگ، استخراج حلال و الکترووینینگ ایجاد کنم. بنابراین، در مورد آنها یک طراحی یکنواخت، طراحی ساده، طراحی Doehlert و همچنین یک CCD را امتحان کردم. در اینجا مسئله این است که من باید از چه مدلی برای این نوع طراحی استفاده کنم، رگرسیون با من کار نمی کند، بنابراین اکنون چگونه و چه کاری باید انجام دهم، لطفاً کسی به من کمک کند. جهت هسی و آنالیز مخروطی چیست؟
PRINCIPAL HESSAIN Direction Model چیست، چگونه و کجا می توانم از آن استفاده کنم؟
105192
همانطور که متوجه شدم، دو راه برای محاسبه کندال تاو برای یک ماتریس داده $X$ (n ردیف از نقاط داده در $\mathbb{R}^p$) وجود دارد: 1. corr(X,'type','kendall' ) 2. http://www.mathworks.com/matlabcentral/fileexchange/27361-weighted-kendall-rank-correlation-matrix/content/kendalltau.m دومی خیلی خیلی سریع برای X$ کوچک (مثلا 300x400) کار می کند. اما زمانی که $X$ می گویند $100\ برابر 1000 $، حافظه آن تمام می شود. Corr() در این تنظیمات بسیار بسیار کند کار می کند. گاهی اوقات ممکن است حتی یک ساعت طول بکشد. آیا راه حل های بهتری وجود دارد؟ ایده آل در Matlab، اما شاید به زبان دیگری؟
کندال تاو سریع در متلب (و در صورت لزوم زبان دیگر)
53224
من سعی می کنم با توجه به برخی متغیرهای توضیحی X1 و X2 پاسخ خود را به یک مورد نظرسنجی طبقه بندی Y بین زمان T1 و T2 تجزیه و تحلیل کنم. به طور خاص، داده ها شبیه این ID هستند Y T X1 X2 1 1 b b 2 1 2 b b 3 0 1 a a 3 0 2 a a ... تا اینجا من پاسخ را تغییر دادم متغیر Y به چهار ترکیب احتمالی Y در T1 و T2 تبدیل می شود. به طور خاص، Y_new Y_T1 Y_T2 A 0 0 B 0 1 C 1 0 D 1 1 و سپس یک مدل لاجیت چند جمله ای را با استفاده از متغیرهای X1 و X2 روی متغیر جدید اجرا کردم. آیا این یک رویکرد عملی است؟ من نگران هستم که تغییر شکل، فرض IIA را نقض کند. همچنین، آیا روش دیگری وجود دارد که برای این نوع داده ها مناسب تر باشد؟
تجزیه و تحلیل تغییرات در یک معیار طبقه بندی مکرر
78717
بسیار خوب، بنابراین، در مسئله سنتی کوزه برنولی، ما یک کوزه با عدد N، احتمالاً بی نهایت، از توپ های رنگی داریم، و k رنگ ممکن وجود دارد. اون یکی رو که غر میزنم با این حال، اگر من واقعاً ندانم k چیست؟ یعنی، اگر من یک کوزه با N توپ و تعداد ناشناخته اما محدود و کاملاً مثبت از رنگ‌های ممکن داشته باشم، چطور؟ سوال اصلی این است که در واقع اولویت های من چه باید باشد. چه چیزی مقدم است که دقیقا یک رنگ وجود دارد؟ دقیقا دوتا؟ حداقل دو تا؟ چگونه فرکانس های نسبی هر رنگ را به روز کنم؟ آیا این مشکل حتی قابل حل است؟ اولین خط فکری من این است که یک بردار از پارامترهای $\vec \theta \in \mathbb R^\infty$ داشته باشم به طوری که اولین پارامتر تعداد رنگ‌های موجود در urn باشد (بیایید آن را $\alpha$ بنامیم) و باقیمانده فرکانس های نسبی هر رنگ است. اگر $P(A=n|\vec\theta)$ احتمال این باشد که رنگ قرعه کشی بعدی با توجه به دانش موجود در $\vec\theta$ n باشد، خواهیم داشت: * $\vec\theta = (\alpha, p_1, p_2, p_3, ...)$ * $\alpha \in \mathbb N^*$ * $\left(\sum\limits_{n=1}^\infty P(\alpha = n) \right)= 1$ * $\left(\sum\limits_{n=1}^\infty p_n\right) = 1$ * $\forall n > \alpha : p_n = 0$ * $\forall n \in \mathbb N^* : P(A=n|\vec\theta) = p_n$ با این حال، این فقط یک حدس و گمان وحشیانه از طرف من است. من بیشتر کنجکاو هستم که آیا این حتی در اصل قابل حل است یا خیر. چیزی که من می خواهم بدانم راهی برای محاسبه توزیع های قبلی (هدف/غیر اطلاعاتی) و پسین $P(\vec\theta)$ یا به عبارت دیگر، pdf های $P(\alpha)$, $ است. P(p_1)$، $P(p_2)$، و غیره. چگونه با آنها شروع کنیم و چگونه آنها را به روز کنیم.
تعداد نامشخص رنگ برنولی Urn
2711
من سعی می کنم محاسبه کنم که اندازه گیری های من در یادگیری ماشین چقدر خوب است! فرض کنید که من پنج انتخاب دارم و آن خطا 4، 2، 0.002، 3، 6 است. طبیعتا، من گزینه سوم را برای ضربه انتخاب می کنم، اما می خواهم بگویم: * من X٪ مطمئن هستم که ضربه زده است. انتخاب سوم است * من مطمئن هستم که ضربه اولین (آخرین) انتخاب است البته X>>Y اما می خواهم بدانم آیا نوعی معیار آماری برای این وجود دارد یا خیر. من همیشه می توانم متریک خود را معرفی کنم، اما علاقه مندم که آیا قبلاً برخی از آنها شناخته شده است تا بتوانم از توضیح خود اجتناب کنم و فقط به معیار خاصی مراجعه کنم؟ نزدیکترین آنها فاصله اطمینان است، اما این احتمال را به من می دهد که نتایج من در یک فاصله زمانی باشد.
خطای من چقدر خوب است؟
53222
من در حال تحصیل در رشته کامپیوتر هستم اما با روش های آماری گم شده ام. الگوریتمی که من مطالعه کرده ام به یک معیار رسمی در فضای مجموعه داده ما نیاز دارد. مجموعه داده های ما را می توان به عنوان داده های رای گیری توصیف کرد. به این معنا که هر نقطه داده یک بردار حاوی +1 یا -1 به عنوان ورودی های خود است که نشان دهنده انتخاب های یک رأی دهنده برای/علیه یک تصمیم است. (ما هنوز باید تصمیم بگیریم که چگونه برای مواردی که رای‌دهنده رای نمی‌دهد، شاید فقط روی آن ورودی خاص یک صفر قرار دهیم.) چه نوع فاصله‌ای را باید به داده‌هایم تحمیل کنم تا بتوانم یک فضای متریک محدود در مجموعه داده‌هایمان به دست بیاورم؟ استفاده از فاصله اقلیدسی ممکن است بیش از حد باشد زیرا بردارهای ما حاوی اطلاعات هندسی زیادی نیستند. از طرف دیگر، شباهت کسینوس ممکن است فضای متریک محدودی به من ندهد. آیا متریک همبستگی (مانند آنچه که _pdist_ در Matlab استفاده می کند) کافی است؟
متریک در داده های رای گیری
112261
من درخواست کرده‌ام که حجم نمونه لازم را محاسبه کنم و بهترین راه برای کاهش هزینه‌ها و زمان استفاده از پروتکل نمونه‌گیری خوشه‌ای است، اما اطلاعات کمی دارم و تجربه زیادی در مورد نمونه‌گیری خوشه‌ای ندارم. وضعیت به شرح زیر است. من 83201 نفر جمعیت دارم. من باید یک نمونه را محاسبه کنم تا سطح اطمینان 90٪ داشته باشم. جمعیت من به 5 خوشه تقسیم می شود و اندازه هر خوشه این است: خوشه 1: 22248 خوشه 2: 14692 خوشه 3: 7912 خوشه 4: 5086 خوشه 5: 33263 می خواهم بدانم چند خوشه باید انتخاب کنم و چند نفر را انتخاب کنم. از هر خوشه نمونه ای با سطح اطمینان 90 درصد اما من اطلاعات بیشتری ندارم من واریانس جمعیت ندارم... کسی میتونه کمکم کنه تا این مشکل رو حل کنم؟؟ خیلی ممنون
حجم نمونه برای نمونه خوشه ای
63537
سلام، من سعی می کنم میانجیگری تعدیل شده زیر را انجام دهم، اما مرحله آخر را در مورد آزمایش تفاوت بین گروه ها از دست می دهم. کد زیر تأثیرات غیرمستقیم را برای هر سطح از متغیر طبقه‌بندی آزمایش می‌کند، اما من نمی‌دانم چگونه می‌توانم تأثیر غیرمستقیم بین دسته‌ها را آزمایش کنم. من می‌خواهم اثر غیرمستقیم Spatial را روی MCUnd از طریق TotCorr آزمایش کنم که در آن Condition اثر Spatial را بر روی TotCorr تعدیل می‌کند. «Spatial»، «TotCorr» و «MCUnd» همگی پیوسته هستند و «Condition» با چهار دسته طبقه‌بندی می‌شود. این چیزی است که من دارم: # اکنون زمان انجام میانجیگری تعدیل شده واقعی است. ابتدا # یک مدل/شی که نشان دهنده متغیر درمان # (توانایی فضایی) به متغیر میانجی (دینامیک) بود ایجاد کردم. از آنجایی که # یک واسطه تعدیل شده است، SA با شرط در این مدل تعامل دارد medmod.fit <- lm(TotCorr ~ Spatial * Condition, data=Masters) # سپس یک مدل/شی برای اثر از واسطه # تا Y ایجاد می کنم ( نمرات درک چند انتخابی)، مجدداً، چون # یک مود شده است، متغیرها با شرط تلاقی می‌شوند. outmod.fit <- lm(MCUnd ~ TotCorr + Spatial * Condition + TotCorr * Condition, data=Masters) # در این مرحله من یک تحلیل کلی میانجیگری و چهار # تحلیل میانجی را اجرا می کنم که داده ها را بر اساس شرایط تقسیم می کند. این # مطابق با Tingley, Yamamoto, Koole, & Imai (2012) medmod <- mediate(medmod.fit, outmod.fit, treat = Spatial, mediator = TotCorr) medmod.cond1 <- mediate(medmod. fit، outmod.fit، treat = فضایی، واسطه = TotCorr، متغیرهای کمکی = لیست (شرایط = 1)) medmod.cond2 <- mediate(medmod.fit، outmod.fit، treat = Spatial، واسطه = TotCorr، متغیرهای کمکی = لیست (شرایط = 2)) medmod.cond3 <- mediate(medmod.fit، outmod.fit، treat = فضایی، واسطه = TotCorr، متغیرهای کمکی = لیست (شرایط = 3)) medmod.cond4 <- mediate(medmod.fit, outmod.fit, treat = Spatial, mediator = TotCorr, covariates = list(Condition = 4)) #این فقط یک خلاصه کلی است(medmod) # این خلاصه ای از اثرات میانجی برای هر یک از چهار شرط #. اگر میانجیگری تعدیل شده وجود داشته باشد، اثرات میانجی # باید در شرایط مختلف متفاوت باشد. من متوجه شدم که # اثر میانجی در شرایط 2 و 3 (اثر متوسط) وجود دارد، اما # اثر میانجی در شرایط 1 و 4 وجود ندارد. summary(medmod.cond1) summary(medmod.cond2) summary(medmod.cond3) summary(medmod .cond4) متشکرم!
میانجیگری تعدیل شده با ناظر طبقه بندی شده
24116
من نیاز به توضیح یک جمله ای در مورد استفاده از AIC در مدل سازی دارم. تا اینجای کار من به بیان ساده، AIC یک اندازه گیری نسبی از مقدار تغییرات مشاهده شده است که توسط مدل های مختلف محاسبه می شود و امکان تصحیح پیچیدگی مدل را فراهم می کند. هر توصیه بسیار قدردانی می شود. آر
توضیح یک جمله ای از AIC برای انواع غیر فنی
102973
من از رگرسیون لجستیک برای محک زدن عملکرد برخی از دانش آموزان در سال های مختلف استفاده می کنم. من یک سناریو به شرح زیر ایجاد کردم: mydata <- read.csv(http://www.ats.ucla.edu/stat/data/binary.csv) benchmark.data <- mydata[1:300,] # دانشجو فرم سال 1990-1995 به عنوان معیار compare.data <- mydata[301:400,] # دانش‌آموز از سال 1996 # مدل رگرسیون لجستیک ایجاد شده با استفاده از معیار نتیجه دانش آموز temp.glm <- glm(admit~gre+gpa+rank,data=benchmark.data,family=binomial) # با استفاده از مدل رگرسیون برای پیش بینی نحوه عملکرد دانش آموزان در سال 1996 compare.data [predict] <- predict(temp.glm,newdata=compare.data,type=response) # ایجاد آستانه ای که اگر شانس پیش بینی شده پذیرش > 0.5 باشد، فرض می شود که دانشجو پذیرش می شود compare.data[,predict_admit] <- ifelse(compare.data[predict]>0.5,1 ,0) table(compare.data[,c(admit,predict_admit)]) # predict_admit # admit 0 1 # 0 59 6 # 1 26 9 از جدول مشاهده می شود که 15 دانشجوی پیش بینی شده برای پذیرش و تعداد واقعی پذیرش دانشجو 35 است، بنابراین نسبت مشاهده شده / مورد انتظار '35/15=2.33' است، همانطور که هست. بزرگتر از `1`، بنابراین می گویم دانش آموزان در سال 96 عملکرد بهتری نسبت به معیار دارند. آیا می توانم با استفاده از روش ذکر شده در بالا نتیجه گیری کنم؟ علاوه بر این، چگونه باید آستانه را تنظیم کنم؟ یا باید sum(compare.data[predict]) و آن را به عنوان مقدار مورد انتظار در نظر بگیرم؟ ### به روز رسانی 1 من برای تعیین آستانه از منحنی ROC استفاده کردم: library(ROCR) benchmark.data[,predict] <- predict(temp.glm,newdata=benchmark.data,type=response) preds <- prediction(benchmark.data[predict],as.numeric(benchmark.data[admit])) نمودار (عملکرد (preds,tpr,fpr),print.cutoffs.at=seq(0,1,by=0.05)) و نمودارها نشان می دهد که آستانه 0.35 به نظر می رسد حساسیت و ویژگی را به حداکثر می رساند.
ایجاد نسبت مشاهده شده/ مورد انتظار با استفاده از رگرسیون لجستیک
93815
من تجربیاتی از مدل سازی سری های زمانی دارم، در قالب مدل های ساده ARIMA و غیره. اکنون داده‌هایی دارم که خوشه‌بندی نوسانات را نشان می‌دهند، و می‌خواهم سعی کنم با برازش مدل GARCH (1،1) روی داده‌ها شروع کنم. من یک سری داده و تعدادی متغیر دارم که فکر می کنم روی آن تأثیر می گذارد. بنابراین در شرایط رگرسیون اولیه، به نظر می رسد: $$ y_t = \alpha + \beta_1 x_{t1} + \beta_2 x_{t2} + \epsilon_t . $$ اما من در مورد نحوه پیاده سازی این مورد در یک مدل GARCH (1,1) کاملاً دچار مشکل هستم؟ من به بسته «rugarch» و «fGarch» در «R» نگاه کرده‌ام، اما به جز نمونه‌هایی که در اینترنت می‌توان پیدا کرد، نتوانستم کار معناداری انجام دهم.
یک مدل GARCH (1،1) را با متغیرهای R مطابقت دهید
63530
من سعی می کنم خطای پیش بینی یک مدل coxph را که پس از انتخاب ویژگی با glmnet ساخته شده است، ارزیابی کنم. در مرحله پیش پردازش از na.omit (مجموعه داده) برای حذف NAها استفاده کردم. من تمام متغیرهای فاکتور خود را با dummies به متغیرهای باینری بازسازی کردم (با استفاده از model.matrix) سپس از glmnet lasso برای جا دادن یک مدل Cox و انتخاب بهترین ویژگی‌ها استفاده کردم. سپس من یک مدل coxph را فقط با استفاده از این ویژگی جا دادم. وقتی سعی می کنم مدل را با استفاده از pec و بوت استرپ ارزیابی کنم، با خطا مواجه می شوم مبنی بر اینکه ماتریس پیش بینی ابعاد اشتباهی دارد. در مجموعه داده اصلی 313 متغیر وجود دارد. در مدل coxph (در کد من glmnet.cox) 313 df وجود دارد. اما وقتی pec را اجرا می‌کنم، ماتریس پیش‌بینی دارای 318 متغیر است و بنابراین با مجموعه آزمایشی که دارای 313 متغیر است (+ متغیرهای وضعیت و زمان) مطابقت ندارد. به نظر می رسد که pec در حین آموزش مجدد مدل coxph در نمونه های بوت استرپ، کاری به متغیرها انجام می دهد. من سعی کردم singular.ok=FALSE را در مدل coxph تنظیم کنم بی فایده. در اینجا خلاصه ای از متغیرهای کلیدی (قبل از تغییر ساختار برای glmnet) آمده است که به دنبال آن کدی که اجرا کردم و خطاها: > خلاصه (trainSet) وضعیت زمانی Age_at_Dx CREATININE Min. : 0.1429 دقیقه :0.0000 دقیقه :14.81 دقیقه :0.400 1st Qu.: 22.0714 1st Qu.:1.0000 Qu. 1st:52.51 1st Qu.:0.800 Median : 52.9286 Median :1.0000 Median :63.79 Median :63.79 Median:0.1906 Mean :0.900 Mean Mean :61.01 Mean :1.042 3rd Qu.:154.6071 3rd Qu.:1.0000 Qu. 3:73.01 Qu. 3:1.125 Max. حداکثر :437.7143 حداکثر: 10000 حداکثر :87.23 :6.000 Performance_Status ALBUMIN Cyto WBC Min. :0.0000 دقیقه :0.70 دقیقه : 1000 دقیقه : 0.60 1st Qu.:1.0000 1st Qu.:3.00 Qu. 1st: 4.000 Qu. 1: 3.20 Median :1.0000 Median :3.60 Median : 4.000 Median : 9.20 Mean: 9.20 Mean: 0.97 میانگین : 28.35 سوم سوم: 1.0000 سوم سوم: 4.00 سوم سوم: 11.000 سوم: 33.10 حداکثر. حداکثر : 40000 حداکثر :5.20 حداکثر : 17000 :373.00 PRKCD_pT507 HGB Maxblast CD19 Min. :-2.429605 دقیقه : 5.400 دقیقه : 0.00 دقیقه : 0.000 1st Qu.:-0.627005 Qu. 1st: 8.500 Qu. 1st:24.00 Qu. 1: 1.000 Medin :-0.013117 Median : 9.550 Median :40.00 Median :40.00 Mean : Mean : 002 9.689 Mean :43.74 Mean : 6.312 Qu. 3: 0.559782 Qu. 3:10.800 Qu. 3:65.25 Qu. 3: 5.000 Max. : 2.963658 حداکثر. حداکثر: 14.300 حداکثر :98.00 :98.000 GAPDH CD74 TP53 Fli1 Min. :-2.391021 دقیقه :-1.7902 دقیقه :-1.64244 دقیقه شماره اول Mean : 0.015759 Mean : 0.0235 Mean :-0.02285 Mean :-0.016555 Qu. 3: 0.632472 Qu. 3: 0.4759 3rd Qu.: 0.29869 0.3rd Max. : حداکثر 3.512741 حداکثر : 3.7226 حداکثر : 5.39242 : 4.415324 LDH SQSTM0 BM_BLAST CCND3 Min. : 8.4 دقیقه :-1.56639 دقیقه : 0.00 دقیقه :-2.44772 1st Qu.: 562.8 1st Qu.:-0.48762 Qu. 1st:31.00 1st Qu.:-0.59042 Median : 952.5 Median :-0.05746 Median :46.50 Mean:46.50 Mean :46.50 Mean:841- :-0.02272 Mean :50.64 Mean :-0.02506 Qu. 3: 1596.8 3rd Qu.: 0.33718 Qu. 3: 72.00 Qu. 3: 0.48353 Max. حداکثر :36708.0 : حداکثر 3.59456 حداکثر :98.00 : 3.58761 GAB2 BAX ABS_BLST PRKAA1_2 دقیقه :-3.201564 دقیقه :-3.230737 دقیقه : 0.0 دقیقه :-1.90671 1st Qu.:-0.640279 1st Qu.:-0.593174 Qu. 1: 99.8 1st Qu.:-0.66896 Median : 0.007018 Median :-0.106097 Mein :-0.106097 Mein .60113 Mein: :-0.013284 Mean :-0.007051 Mean : 15024.1 Mean :-0.03531 Qu. 3: 0.635609 Qu. 3: 0.588098 Qu. 3: 11178.0: 3rd Qu.: 11178.06 Max. حداکثر : 2.396419 : حداکثر 3.439942 :358080.0 حداکثر : 3.60037 RPS6KB1 SPP1 MAPT ARC حداقل. :-2.05490 دقیقه :-1.39728 دقیقه :-1.826101 دقیقه :-2.67081 اول اول:-0.65736 اول اول:-0.55249 اول اول:-0.573470 اول اول:-0.63908 میانه :-0.12007 میانه :-0.15156 میانه :-0.15156 میانه :-430. Mean :-0.06115 Mean : 0.02759 Mean : 0.009604 Mean :-0.01082 Qu. 3: 0.49055 Qu. 3: 0.35195 3rd Qu.: 0.495406 Max 3rd Qu. : حداکثر 3.54709 حداکثر : 4.44919 : 4.063568 حداکثر. : 2.52810 FOXO1_pT24_FOXO3_pT32
مشکل با BootCV برای coxph در pec بعد از انتخاب ویژگی با glmnet (کند)
108685
من در حال خواندن الگوی تشخیص و یادگیری ماشین بیشاپ هستم. در صفحه 73، فصل 2.1. من نمی توانم فرمول 2.19 را درک کنم: $$p(x=1|\mathcal{D})=\int_0^1 p(x=1|\mu)p(\mu|\mathcal{D})\text {d}\mu $$ نویسنده می‌گوید، این با مجموع و قوانین محصول به دست می‌آید. قانون مجموع این است: $$p(X) = \sum_Y p(X,Y)$$ و قانون محصول: $$p(X,Y)=p(Y|X)p(X)$$ اما از این، من نمی توانم فرمول را استنباط کنم. میشه لطفا کمکم کنید.. خیلی ممنون
قواعد احتمال جمع و محصول
108686
من در حال بررسی پیشنهاد قیمت بهینه در حراجی هستم و از رگرسیون لجستیک برای پیش بینی احتمال برنده شدن در حراج با توجه به مجموعه ای از متغیرهای توضیحی (مانند قیمت پیشنهادی من، تعداد پیشنهادات رقیب و غیره) استفاده می کنم. یکی از متغیرهای توضیحی که می‌خواهم استفاده کنم، بالاترین قیمتی است که پرداخت شده است. با این حال، با طراحی حراج، من تنها زمانی که بالاترین پیشنهاد دهنده هستم (یعنی زمانی که در حراج برنده می شوم) دومین قیمت پرداخت شده را مشاهده می کنم. این داده‌های از دست رفته یک مشکل اساسی است زیرا مجموعه داده من نشان می‌دهد که فقط در 20٪ مواقع یک پیشنهاد برنده وجود دارد، بنابراین من نمی‌دانم در 80٪ مواقع دومین قیمت پرداخت شده است. با این حال، از نظر شهودی، نمی‌خواهم این متغیر را کنار بگذارم، زیرا به نظر من آگاهی از دومین پیشنهاد برتر در تعیین شانس من برای برنده شدن پیشنهاد بسیار ارزشمند است. بنابراین آیا روش های استانداردی برای مقابله با این نوع داده های از دست رفته برای رگرسیون لجستیک وجود دارد؟
چگونه می توان با داده های از دست رفته در رگرسیون لجستیک کنار آمد؟
68317
من در حال انجام یک رگرسیون لجستیک هستم. با این حال، آزمون Shapiro-Wilk مشخص کرده است که یکی از متغیرهای X غیر گاوسی است. آیا متغیرهای توضیحی (X) باید گوسی باشند؟ اگر چنین است، دگرگونی های معمولی که می توان انجام داد چیست؟
آیا متغیرهای توضیحی می توانند غیر گاوسی باشند؟
67094
پوزش بابت سوال ابتدایی من در حال انجام پروژه ای در محل کارم هستم که کمی دور از چرخ من است و می خواهم ایده هایم را از کسانی که از خودم با تجربه ترند، منعکس کنم. ما از Salesforce.com در شرکت نرم‌افزاری که در آن کار می‌کنم استفاده می‌کنیم، و می‌خواهم شناسایی کنم که کدام رفتارهای سرنخ (دانلود کاغذ سفید، نمایش‌های آزمایشی، حضور در وبینار، و غیره) پیش‌بینی‌کننده تبدیل آن سرنخ‌ها به فرصت‌های فروش واجد شرایط هستند. ایده این است که ما می‌توانیم از این داده‌ها برای ایجاد یک مدل استفاده کنیم، که بر اساس آن یک مدل امتیازدهی را در آینده پایه‌گذاری می‌کنیم. من بر اساس تحقیقاتم رگرسیون لجستیک باینری را با استفاده از انتخاب گام به گام به عنوان بهترین انتخاب شناسایی کرده ام. اساساً، فکر من این است که متغیر وابسته (وضعیت فرصت) باینری است (فرصت = 0، نه فرصت = 1)، که نشان می دهد رگرسیون لجستیک بهترین رویکرد خواهد بود. همچنین، مطمئن نیستم که کدام رفتارها و نقاط داده در نهایت پیش‌بینی‌کننده تبدیل شدن سرنخ به یک فرصت باشند، بنابراین انتخاب گام به گام رویکرد خوبی به نظر می‌رسد. آیا کسی می تواند تکنیک تحلیل مناسب تری بیاندیشد یا من در مسیر درستی هستم؟
آیا رگرسیون لجستیک باینری انتخاب درستی است؟
67093
برای اینکه ابتدا مقداری زمینه ارائه کنم، من دو نمودار جعبه دارم (نمایش صدک‌های میانه، 25 و 75)، و من نمی‌دانم که نمودار جعبه‌ای از تفاوت بین این دو نمودار جعبه چگونه به نظر می‌رسد. متغیرهای تصادفی (RV) لزوماً به طور معمول توزیع نمی شوند. به طور خاص، متغیرهای تصادفی نمونه هایی از توزیع های پسین هستند، اما من فکر می کنم سوال من در نهایت بسیار کلی است. از آنجایی که من نمونه‌های زیادی از این 2 RV دارم، یکی از راه‌های انجام این کار این است که تفاوت‌های بین جفت‌های تصادفی را محاسبه کنم، سپس کمیت مورد نظر را از این تفاوت‌ها محاسبه کنیم. چون ممکن است اصطلاحات آماری من ناقص باشد، اجازه دهید این را به زبان R بگویم: X <- rnorm(10, 1000) # اولین RV، یک بردار عددی به طول 1000 Y <- rnorm(20، 1000) # RV دوم Qs <- quantile(X-Y، probs=c(0.25، 0.5، 0.75) #The چندک های تفاوت آنها با این حال، من در این فکر بودم که آیا راهی برای محاسبه چندک تفاوت بین این RVها بدون بازگشت به داده های اصلی وجود دارد، برای مثال، از ترکیبی از آمار خلاصه (میانگین، میانه، واریانس، و غیره). چندک ها و غیره) از X و Y محاسبه شده است. مثالی از چیزی که پاسخ صحیح را نمی دهد، اما ممکن است آنچه را که به دنبال آن هستم روشن کند: wrong_Qs <- quantile(X، probs=c(0.25، 0.5، 0.75)) - quantile(Y، probs=c(0.25، 0.5، 0.75)) من به دنبال چیزی شبیه فرمول های انتشار عدم قطعیت (واریانس) هستم، اما من هنوز چیزی پیدا نکردم هر چه بیشتر به این موضوع فکر می کنم، بیشتر به این فکر می کنم که راهی برای این کار وجود ندارد آنچه را که من می خواهم انجام دهید هر فکری؟
چندک X از تفاوت بین دو RV
68313
من یک دسته از ویژگی ها / xs و یک دسته از اهداف ys دارم. من می خواهم یک رگرسیون خطی در این مورد اجرا کنم. نمی‌دانم باید هر y را برای مستقل بودن و یادگیری مدل‌های رگرسیون جداگانه یا فقط یک مدل با چند هدف و xs انتخاب کنم. چه چیزی می تواند بهترین باشد؟ اگر من باید با چند ys کار کنم چگونه می توانم آن را انجام دهم؟
سردرگمی مربوط به رگرسیون چند هدف
67091
اگر رگرسیون لجستیک را روی داده‌ها اجرا می‌کنید، و احتمال وقوع رویداد قبلی 50% است و هیچ اولویتی برای حساسیت یا ویژگی وجود ندارد... هنوز چه زمانی می‌خواهید از قطع استفاده کنید؟ میشه لطفا یک مثال بزنید تا به من که مبتدی هستم کمک کنید بفهمم؟
رگرسیون لجستیک - برش
67090
من از احتمال شرطی برای یافتن این احتمال استفاده کردم که A نه A B 27 6 نه B 12 C نه C B 29 4 نه B 50 C نه C A 36 3 نه A 43 \begin{align} P(A|B) &=.81 \\ ~\\ P(B|A) &=.69 \\ ~\\ P(B|C) &=.82 \\ ~\\ P(C|B) &=.36 \\ ~\\ P(A|C) &=.92 \\ ~\\ P(C|A) &=.45 \end{align} این اعداد خیلی زیاد به نظر می رسند از نظر آماری معنی دار نباشد. آیا من می توانم از این اطلاعات نتیجه ای بگیرم که قابل توجه باشد؟ این اعداد از برهمکنش یک لیگاند با یک پروتئین به دست می آیند. هر عدد در جداول من نشان دهنده یک تماس منحصر به فرد بین نمونه و پروتئین است. موارد تکراری غیر منحصر به فرد از اتصالات وجود دارد که گاهی اوقات به 23 در هر اتم می رسد. من آنها را در نظر نمی گیرم زیرا آنها گیج کننده هستند. B استانداردی است که برای آن 33 اتم با پروتئین تعامل دارند. B غیر استاندارد است و دارای 39 نقطه تماس است. A استاندارد دیگری است که گاهی اوقات رد می شود. C ساخته شده از A به دفع A و C همیشه رد می شود. با این احتمالات من قصد دارم لیگاندهای جدیدی را شناسایی کنم که به طور قابل توجهی با B و A و موارد مشابه همپوشانی دارند و کسانی که شبیه C هستند را رد می کنند.
اهمیت آماری احتمالات مشروط
50329
من در حال انجام تحقیقاتی در مورد تجزیه و تحلیل عاملی هستم و به آن سد برخورد کرده ام که نمی دانم از چه عباراتی برای جستجو استفاده کنم. دارم سعی میکنم ببینم چیزی ممکنه اساسا من یک مجموعه داده با 100 متغیر عددی دارم. هر رکورد یک متغیر هدف نیز دارد که یک دسته است. هدف نهایی من اجرای knn روی این مجموعه داده است. برای کاهش ابعاد، PCA را اجرا کردم که عملکرد جزئی را افزایش داد. درک من این است که PCA مجموعه داده‌ها را به متغیرهایی کاهش می‌دهد که بیشترین واریانس را در مجموعه داده‌های چند بعدی دارند. اما این روش حتی دسته ای که هر رکورد دارد را در نظر نمی گیرد. آیا روشی برای کاهش تعداد ابعاد یا شناسایی عوامل کلیدی که به طور خاص به متغیر هدف کمک می کند وجود دارد؟ این ممکن است بد بیان شده باشد (یا فقط یک سوال کاملا احمقانه ...)، بنابراین اگر منطقی نیست به من اطلاع دهید و سعی می کنم آن را روشن کنم. با تشکر
تحلیل عاملی برای متغیر هدف طبقه‌ای
68312
من لیستی از سایت ها و لیستی از احتمالات بقای مرتبط با آن سایت ها را دارم. داده ها به این شکل است: احتمال سایت A 0.8 B 0.4 C 0.2 ... (در مجموع 14 سایت) آیا راهی برای آزمایش وجود دارد که آیا احتمال بقا بین سایت ها به طور قابل توجهی متفاوت است؟ چیزی که برای من مشکل است این است که فاکتور (سایت ها) دسته بندی های زیادی دارد.
نحوه آزمایش رابطه بین متغیرهای طبقه ای و عددی
71970
این سوال برای من اهمیت عملی ندارد، اما به هر حال: من علاقه مندم که آیا می توانیم به نحوی یک مقدار گم شده را در یک ماتریس همبستگی پیش بینی کنیم. بدیهی است که مدلسازی رگرسیون کلاسیک در اینجا مناسب نیست. آیا راه دیگری وجود دارد که چگونه می توانیم چیزی در مورد همبستگی از دست رفته بگوییم؟ علاوه بر این، آیا پاسخ به نوع همبستگی (پیرسون، اسپیرمن، کندال، MIC) بستگی دارد؟ در اینجا یک مثال (داده های واقعی، همبستگی پیرسون) آورده شده است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/6I7Cu.jpg) ماتریس <- structure(c(1, NA, 0.126, -0.163, 0.203, 0.172, -0.101, 0.068, - 0.125، 0.066، 0.195، NA، 1، 0.019، -0.169، 0.211، 0.265، -0.023، 0.088، 0.016، 0.14، 0.275، 0.126، 0.019، 1، 0.218، 0.093، 0.094، 0.019-، 0.094، -0.01. -0.07، -0.021، 0.172، -0.163، -0.169، 0.218، 1، -0.066، -0.182، 0.302، 0.193، -0.116، -0.08، -0.151، 0.20 - 0.151، 0.20 -0.066، 1، 0.251، 0.064، 0.122، 0.093، 0.214، 0.378، 0.172، 0.265، 0.053-، 0.182-، 0.251، 1، 0.102-0.3، 0.102- 0.304، 0.101-، 0.023-، 0.189، 0.302، 0.064، 0.101-، 1، 0.652، 0.126، 0.023، 0.016-، 0.068، 0.017، 0.017، 0.019، 0.0. 0.02، 0.652، 1، 0.127، 0.01، 0.083، 0.125-، 0.016، 0.07-، 0.116-، 0.093، 0.192، 0.126، 0.127، 1، 29، 0.127، 29، 0.60. 0.14، 0.021-، 0.08-، 0.214، 0.353، 0.023، 0.01، 0.295، 1، 0.299، 0.195، 0.275، 0.172، 0.151-، 0.378-، 0.151-، 0.370- 0.083، 0.023، 0.299، 1)، .Dim = c(11L، 11L)، .Dimnames = لیست(NULL، NULL))
آیا می توانیم مقدار همبستگی گمشده را در یک ماتریس همبستگی معین تخمین بزنیم؟
114889
آیا کسی می تواند به من کمک کند تا $\int_{\alpha}^1 e^{-(c \cdot ln(1/x))^s} dx$ را ارزیابی کنم، جایی که $0 \leq \alpha \leq 1$ و $s$ واقعی است. من سعی کردم متغیرها، ادغام با قطعات و غیره را تغییر دهم و هیچ سرنخی از نحوه رسیدگی به این موضوع نداشتم.
چگونه انتگرال e^{(c ln(1/x))^s} dx را ارزیابی کنیم؟
93502
من با مجموعه داده ای کار می کنم که مجموعه ای از سناتورهای ایالات متحده، آرای آنها در مورد یک لایحه آب و هوا و چندین ویژگی ایالتی را که آنها نمایندگی می کنند، توصیف می کند. یکی از متغیرها، 'imptot'، اهمیت ترکیبی **چهار صنعت** را برای اقتصاد ایالت آنها توصیف می کند. این صنایع باعث انتشار گازهای گلخانه ای می شوند و به شدت تحت تأثیر قوانین آب و هوایی قرار می گیرند. من همچنین شاخصی از **شدت کلی گازهای گلخانه ای** (GHGintensity) اقتصاد هر ایالت را دارم، به این معنی که انتشار گازهای گلخانه ای آن تقسیم بر تولید ناخالص داخلی آن است. این دو متغیر دارای همبستگی مثبت هستند. من می خواهم بدانم که تاثیر شدت گازهای گلخانه ای بر رای یک سناتور، **پس از کنترل** برای اهمیت کل این چهار صنعت چیست. به عبارت دیگر، من می‌خواهم بدانم که چقدر واریانس در رفتار رأی‌گیری را می‌توان منحصراً با شدت گازهای گلخانه‌ای توضیح داد، بدون در نظر گرفتن واریسی که با حضور این چهار صنعت خاص قابل توضیح است. من استدلال کردم که اگر من GHGintensity (dep. var.) را در imptot (indep. var.) رگرسیون کنم، **باقیمانده** این رگرسیون (متغیر جدیدی به نام GHGresiduals) واریانس GHGintensity را نشان می دهد که نمی تواند باشد. توسط imptot توضیح داده شده است. با این حال، زمانی که من رگرسیون این متغیرها را بر روی رفتار رای دادن (رای) اجرا کردم، نتایج زیر برای بخش اثرات ثابت مدل (لوجیت چند سطحی) منتج شد: برآورد Std. خطای z مقدار Pr(>|z|) (فاصله) -0.045 0.607 -0.074 0.941 imptot 0.000 0.022 0.003 0.997 impbentot 0.085 0.530 0.160 0.160 - 0.870 G0.873 -2.303 0.021 عضو 5.399 1.152 4.689 0.000 pubop 1.991 0.233 8.535 0.000 Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) -0.839 0.387 -2.169 0.030 imptot -0.034 0.021 -1.622 0.105 impbentot 0.085 0.530 0.160 0.160 0.170 - 0.870Gres -2.303 0.021 Member 5.399 1.152 4.689 0.000 pubop 1.991 0.233 8.535 0.000 همانطور که می بینید، GHGintensity در مشخصات اول ضریب GHGintensity را در قسمت بعدی دارد. ضرایب ایمپت، با این حال، متفاوت بود. از آنجایی که GHGintensity و GHGresiduals متغیرهای متفاوتی هستند، انتظار این نتیجه را نداشتم. انتظار داشتم اثر شدت گازهای گلخانه ای تغییر کند، زیرا شهود من این بود که اکنون جزء این متغیر را که با ایمپتوت همبستگی داشت حذف کرده بودم. آیا این شهود نادرست بود؟ آیا برای پاسخ به سوالاتی که می پرسم باید تحلیل دیگری انجام دهم؟ چگونه باید نتایجی را که به دست آوردم تفسیر کنم و چرا ضرایب آنطور که انتظار داشتم تغییر نکردند؟ ویرایش: متأسفانه من در موقعیتی نیستم که بتوانم داده ها را به اشتراک بگذارم، اما کد R مرتبط در اینجا آمده است: dataSenate$GHGresiduals <- residuals(lm(GHGintensity~imptot,data=dataSenate)) Smodelgeo <- formula(vote ~ imptot + impbentot + GHGresiduals + Member + pubop + (1 | State) + (1 | سالنامه)) Sfitgeo <- glmer(as.formula(Smodelgeo)، dataSenate، family=binomial,na.action = na.omit)
چرا استفاده از باقیمانده ها به عنوان پیش بینی کننده ضریب را تغییر نمی دهد؟
30365
من در زمینه آمار و احتمالات مبتدی هستم. امروز با موضوع جدیدی به نام انتظارات ریاضی مواجه شدم. کتابی که دنبال می‌کنم می‌گوید انتظار، میانگین حسابی هر متغیر تصادفی است که از هر توزیع احتمالی حاصل می‌شود. اما انتظار را محصول برخی داده ها و احتمال آن تعریف می کند. چطور ممکن است این دو یکی باشند؟ چگونه می توان بار احتمال داده ها میانگین توزیع کل باشد؟ پیشاپیش ممنون..
چرا انتظار با میانگین حسابی یکی است؟
78711
فرض کنید که من متغیری مانند 'X' با توزیع ناشناخته دارم. در Mathematica، با استفاده از تابع SmoothKernelDensity می‌توانیم یک تابع چگالی تخمینی داشته باشیم. این تابع چگالی تخمینی را می‌توان در کنار تابع «PDF» برای محاسبه تابع چگالی احتمال مقداری مانند «X» به شکل «PDF[density» استفاده کرد. ,X]` با فرض اینکه دانسیته نتیجه SmoothKernelDensity باشد. خوب است اگر چنین ویژگی در R وجود داشته باشد. این روش در Mathematica کار می کند http://reference.wolfram.com/mathematica/ref/SmoothKernelDistribution.html به عنوان مثال (بر اساس توابع Mathematica): data = RandomVariate[ NormalDistribution[], 100]; #100 مقدار از N(0,1) density= SmoothKernelDistribution[data]; چگالی #تخمینی PDF[density, 2.345] 0.0588784 را برمی گرداند در اینجا می توانید اطلاعات بیشتری درباره PDF بیابید: http://reference.wolfram.com/mathematica/ref/PDF.html من می دانم که می توانم تابع چگالی آن را با استفاده از `density( رسم کنم X)` در R و با استفاده از `ecdf(X)` می توانم تابع توزیع تجمعی تجربی آن را بدست بیاورم. آیا می توان این کار را انجام داد همان چیزی که در R بر اساس آنچه در مورد Mathematica توضیح دادم؟ هر گونه کمک و ایده قابل قدردانی است.
نحوه یافتن/تخمین تابع چگالی احتمال از تابع چگالی در R
71972
با توجه به یک سری زمانی log-return SP500، برای به دست آوردن فرآیند نوسانات چه باید کرد؟ برخی افراد می گویند که برای برداشتن سری باقیمانده باید از مدل ARMA استفاده کنیم، سپس این سری باقیمانده را به مدل GARCH وصل کنیم تا فرآیند واریانس شرطی را بدست آوریم؟ یا مستقیماً دوشاخه ورود به سیستم فرآیند ورود به سیستم SP500 را به مدل GARCH وصل کنید تا واریانس شرطی را بدست آورید؟ من دیدم که در کتاب Introduction to Time Series in R، نویسنده باقیمانده های شبیه سازی شده را در مدل GARCH برازش می کند و سپس بازده های log SP500 را در مدل GARCH برازش می دهد. گیج شدم...
چه چیزی در GARCH نصب شده است: باقیمانده یا بازگشتی؟
59964
آیا کسی می تواند به من بگوید که چه زمانی و چرا از گزینه softmax=true و entropy=T استفاده کنم؟ مدلی که می‌خواهم بسازم دارای نتیجه باینری است و «softmax=true» تنها زمانی کار می‌کند که این دو نتیجه به تنهایی به عنوان دو متغیر طبقه‌بندی شوند. در غیر این صورت «آنتروپی=T» کار می کند. من نتوانستم در این زمینه در مستندات کمک زیادی دریافت کنم. این سوال در بسیاری از انجمن ها مطرح شده است و هنوز پاسخی دریافت نشده است.
بسته R nnet گزینه Softmax/Entropy
71976
چگونه مشتق جزئی cdf معمولی دو متغیره و pdf معمولی دو متغیره را با آرگومان های آن بگیرم (یعنی $x_{1}$,$x_{2}$ و $\rho$ در معادلات زیر)؟ \شروع{معادله} y=\Phi(x_{1},x_{2},\rho) \end{معادله} \begin{معادله} z=\phi(x_{1},x_{2},\rho ) \end{معادله} که در آن $x_{1}$ معمولاً با میانگین 0 و واریانس 1 و $x_{2}$ معمولاً با میانگین توزیع می‌شوند. 0 و واریانس 1. $\rho$ همبستگی بین $x_{1}$ و $x_{2}$ است.
مشتق جزئی cdf و pdf عادی دو متغیره
114038
من با یک مجموعه داده نظرسنجی کار می کنم که شامل صدها متغیر است. نرخ داده از دست رفته از 0.2٪ تا 10٪ متغیر است. به منظور حفظ واحدهای مطالعه با مقادیر گمشده و برای حفظ قدرت آماری معقول برای تجزیه و تحلیل‌هایم، سعی کردم با استفاده از رگرسیون متوالی (معادلات زنجیره‌ای) در Stata، انتساب چندگانه را انجام دهم. با این حال، با همه متغیرهای متعددی که آیتم‌های گمشده در معادلات را دارند، مدل‌ها هرگز نتوانستند به همگرایی دست یابند. روزها را صرف تعیین مجدد معادلات و گزینه های درون معادلات کردم اما همه بیهوده. در پایان، معادلات را با انتخاب تنها متغیرهایی با نرخ داده‌های گمشده بالا و متغیرهایی که برای همه واحدهای مطالعه در مجموعه داده اعمال می‌شوند، ساده‌سازی کردم. این بار موفق شدم داده ها را ضرب کنم. با این حال دو سوال دارم. 1. از آنجایی که من انتساب چندگانه را با استفاده از تنها برخی از متغیرهای مجموعه داده انجام دادم، همچنان متغیرهایی با مقادیر گمشده (هرچند کوچک) وجود دارند. آیا وجود متغیرهایی با مقادیر گمشده در حین تجزیه و تحلیل داده‌های مضاعف قابل قبول است؟ 2. همچنین قصد دارم تجزیه و تحلیل زیر جمعیت را انجام دهم. با این حال، به دلیل مشکل همگرایی که قبلاً بیان کردم، متغیرهایی که فقط به جمعیت‌های فرعی مربوط می‌شوند از انتساب چندگانه من حذف می‌شوند. آیا انجام یک انتساب چندگانه جداگانه به زیر جمعیت مورد علاقه قابل قبول است؟
انتساب چندگانه به بخشی از یک مجموعه داده
68314
من سعی می کنم برخی از ویژگی ها را با استفاده از همبستگی انجام دهم. با این حال، متوجه شدم که ویژگی‌های من چندان مرتبط نیستند. بیشترین همبستگی 08/0 بود. بنابراین مطمئن نیستم که آیا این کار مفیدی است یا خیر. من سعی کردم از کمند استفاده کنم، با این حال، من تعداد زیادی ویژگی دارم و زمانی که سعی کردم از کمند استفاده کنم، تقریباً چند سال طول کشید. در مورد سایر روش‌های انتخاب ویژگی مانند روش‌های مبتنی بر لفاف نیز همین‌طور است. در چنین شرایطی باید چه کار کنم؟
انتخاب ویژگی با استفاده از همبستگی
59967
من پاسخ این سوال را در اینجا دیدم اما پاسخ را متوجه نشدم. هارل استفاده از معیارهای مبتنی بر انحراف را توصیه می کند. دیوید هند (که در موضوع به آن اشاره شده است) می گوید که AUC برای مقایسه مدل های مختلف نامناسب است، زیرا از هزینه های مختلف طبقه بندی اشتباه استفاده می کند. با توجه به اینکه هر دو بر روی یک مجموعه از پیش‌بینی‌کننده‌ها آموزش دیده‌اند، نمی‌دانم در مقایسه با تور کمند و الاستیک، این مورد چگونه خواهد بود.
استفاده از AUC برای مقایسه کمند لجستیک و توری الاستیک
93503
تصور کنید من سکه های زیادی دارم ($>100$) و برای هر سکه داده هایی دارم: $(n_{\rm heads}، n_{\rm tails})$ که در آن $\sum(n_{\rm heads}، n_{\rm tails})$ برای هر سکه بعدی کاهش می یابد. هر یک از سکه ها می تواند ناعادلانه باشد ($P({\rm head})\ne 0.5$). برخی از سکه ها ممکن است کپی دقیقی از هر سکه دیگری باشند، برخی ممکن است اینگونه نباشند. چگونه تشخیص دهم که همه سکه ها منصفانه هستند؟
تعیین کنید که آیا بسیاری از سکه ها منصفانه هستند یا خیر
78719
من باید یک مدل سلسله مراتبی بیزی بسیار پیچیده را متناسب کنم و می خواهم از بسته adaptMCMC آندریاس شایدگر برای انجام نمونه برداری خلفی استفاده کنم. من فقط می توانم کتابچه راهنمای مرجع بسته adaptMCMC را پیدا کنم، که مثال مفیدی از عملکرد نمونه برداری هسته ارائه نمی کند. آیا کسی می داند که آیا آموزش مفیدتری وجود دارد؟ با تشکر
به دنبال آموزش adaptMCMC (بسته R برای نمونه گیری تطبیقی ​​MCMC) هستید
93506
من سعی می کنم بفهمم چه چیزی می تواند باعث شود که این مقادیر عجیب در اعمال یک مدل Holt در یک بردار ظاهر شوند. داده ها فروش واقعی یک کالا را نشان می دهد. library(forecast) sdata<-c(1955651,1691857,1617358,1509591,1452025,1387790,1630114,3522984,3322908,2315689, برای Lo 80 Hi 80 Lo 95 Hi 95 24 6.144027e+122 6.144014e+122 6.144041e+122 6.144007e+122 6.144048e+122 25331+122 4.502199e+122 7.785866e+122 3.633064e+122 8.655001e+122 26 6.144038e+122 3.822133e+122 8.463064e+122 8.465001e+122 26. 9.695084e+122 27 6.144043e+122 3.300300e+122 8.987785e+122 1.794914e+122 1.049317e+123 این شامل تمرینی است که در آن تعداد بسیار زیادی از قالب تولید می شود. این صرفاً تلاشی برای یافتن خطاها قبل از اجرای پیش‌بینی در تمام داده‌ها است. تعدادی از رکوردها چنین رکوردهای عجیبی را ایجاد کردند. من مطمئن هستم که توضیح خوبی در پشت چرایی دیدن چنین داده هایی وجود دارد. توجه داشته باشید که داده‌ها قبل از اعمال مدل بر روی یک شیء ts (و نتایج مشابهی تولید می‌کنند) به یک شیء ts منتقل شده است. پیشاپیش متشکرم.
نتایج عجیب در پیش بینی هولت
112486
من در حال حاضر روی تجزیه و تحلیل سری های زمانی برای سری Y کار می کنم اما باید از دو متغیر دیگر A و B به عنوان متغیر ورودی در روش SAS proc arima استفاده کنم. اما من قادر به تفسیر نمودار همبستگی متقاطع و پارامترهای بک شیفت نیستم. BackShift 1 برای متغیر A و back Shift 2 برای متغیر B. کسی می تواند به من کمک کند که چگونه خروجی های متغیرهای ورودی را تفسیر کنم.
مدل خودرگرسیون با متغیرهای ورودی در رویه proc arima
114881
ما می خواهیم برای شرایط بالینی مبتنی بر رویداد، مانند میگرن یا صرع، شاخص هایی ایجاد کنیم. این شرایط با رویدادهایی مشخص می شود که می تواند با فرکانس های مختلف رخ دهد و ما می خواهیم بیماران را بر اساس فراوانی رویدادها طبقه بندی کنیم. مشکل این است که فراوانی رویدادها با طول دوره مشاهده مرتبط است. یعنی دوره‌های کوتاه، تغییرات زیادی در نتایج ایجاد می‌کنند (مثلاً یک هفته شما می‌توانید 2 تشنج داشته باشید، هفته بعد هیچ تشنجی). در عوض دوره های طولانی کمتر امکان پذیر است. بنابراین من در این فکر بودم که آیا راهی برای ایجاد یک پنجره زمانی مناسب، بر اساس داده ها و ادبیات وجود دارد؟ PS: می دانم که اکنون بسیار مبهم است، اما مطمئن هستم که پاسخ ها و نظرات اولیه شما به من کمک می کند تا مشکل را در ذهنم بهتر تعریف کنم.
بهترین پنجره زمانی را برای شمارش رویدادها به منظور تولید نشانگر انتخاب کنید
93505
من یک سری زمانی تک متغیره متشکل از 70000 مشاهده (مصرف برق یک ساختمان) در افزایش زمان مساوی (15 دقیقه) دارم. چگونه می توانم بررسی کنم که آیا این درک کاملاً ثابت است؟ توجه داشته باشید که من فرمول فرآیند تصادفی زیربنایی را نمی دانم، بنابراین نمی توانم تابع میانگین E[x(t)] یا تابع اتوکوواریانس E[(x(t1)-m(t1))(x(t2) را محاسبه کنم. )-m(t2))] (من از تعریف ایستایی با حس گسترده/ضعیف/کوواریانس آگاهی دارم و چندین موضوع در مورد این موضوع در اینجا در Cross خوانده ام تایید شده، نزدیکترین آنها این است.) من به این نتیجه می رسم که بررسی یک مسیر نمونه برای ایستایی ضعیف به برخی از تست های اکتشافی ختم می شود. کتاب آمار مهندسی (که من آن را به دلیل رویکرد عملی آن دوست دارم) بیان می کند: > ایستایی را می توان با عبارات دقیق ریاضی تعریف کرد، اما برای هدف ما، یک سری مسطح، بدون روند، واریانس ثابت در طول زمان، یک ساختار همبستگی خودکار ثابت است. در طول زمان و بدون نوسانات دوره ای. (همچنین پاسخ را در این تاپیک مرکزی MATLAB ببینید.) اگر با این رویکرد عملی موافق هستید، نظرات/سوالات من عبارتند از: * ما به راحتی می توانیم برازش خطی انجام دهیم تا بگوییم آیا روندی وجود دارد یا خیر. ما اینجا خوب هستیم * اما چگونه ساختار خودهمبستگی ثابت را در طول زمان آزمایش کنیم؟ * و چگونه واریانس ثابت را در طول زمان بررسی کنیم؟ آیا از پنجره های متحرک استفاده می کنیم یا از پنجره های غیر همپوشانی؟ و اندازه پنجره چقدر باید باشد؟ من به دنبال چند قانون خوب برای آزمایش هستم. پیشاپیش از راهنمایی شما متشکرم و بابت طولانی بودن پست عذرخواهی می کنم. (اولین پست اینجاست.)
چگونه می توان ایستایی با حس گسترده را تنها با یک مسیر نمونه از فرآیند آزمایش کرد؟
89337
درک این موضوع سخت است که فرضیه صفر در تعریف حساسیت و ویژگی در اینجا چیست؟ من دانشجوی آمار هستم و با توجه به دانش اندکم در این زمینه می توانم ببینم که فرضیه صفر در اینجا باید این باشد: $\textrm{H}_{0}:\textrm{ فرد سالم است}$ آیا این درست است؟ پیشاپیش از کمک شما متشکرم
فرضیه صفر در تعریف حساسیت و ویژگی چیست؟
114885
به عنوان مثال، اسکاتلند یک نظرسنجی برای تصمیم گیری در مورد اینکه آیا آنها باید از بریتانیا مستقل باشند یا خیر، دارد. در اینجا خلاصه ای از نظرسنجی های مختلف بی بی سی است: http://www.bbc.com/news/events/scotland-decides/poll-tracker ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/QUbq1 .jpg) ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/m2Xjo.jpg) به نظر می رسد با پیشرفت کسر نامشخص در حال کاهش است و بله جزء در حال افزایش است. به شرط زمان و اطلاعاتی که داریم آیا راه ساده ای وجود دارد که بتوانیم نتیجه را با اطمینان پیش بینی کنیم؟
پیش بینی نظرسنجی ها
113053
من اطلاعاتی از 100 نفر دارم که 2AFC را تحت کنترل و تنظیمات دستکاری شده انجام می دهند. من می خواهم ابزارها را با هم مقایسه کنم. من در ابتدا از آزمون t زوجی استفاده کردم. سرپرست من متوجه شد که توزیع‌ها نرمال نبودند و به من توصیه کرد که به جای آزمون t از آزمون U Mann-Whitney استفاده کنم. با این حال، تا آنجا که من می توانم بگویم، آزمون Mann-Whitney U اجازه داده های جفت را نمی دهد. یا این کار را می کند؟ از چه تست ناپارامتریک استفاده کنم؟ چه آزمونی آزمون t زوجی را تعمیم می دهد؟ به عبارت دیگر، من یک توزیع غیر عادی دارم و می خواهم آزمایش کنم که میانگین آن با صفر چقدر متفاوت است.
نسخه ناپارامتریک آزمون t زوجی (آزمون U Mann-Whitney)
112481
من در حال تلاش برای ترسیم خروجی رگرسیون مانع با یک عبارت تعاملی در R هستم، اما در انجام این کار با بخش شمارش مدل مشکل دارم. مدل <- hurdle (خودکشی. ~ سن + جنسیت + قلدری*پشتیبانی، dist = negbin، پیوند = logit) از آنجایی که من از بسته هایی که به من اجازه دهد مدل مانع را به طور کامل ترسیم کنم بی اطلاعم، تخمین زدم هر مؤلفه به طور جداگانه (لوجیت دوجمله ای و تعداد دوجمله ای منفی)، با استفاده از بسته «MASS»، و من سعی می کنم نتایج را رسم کنم. تا به حال بهترین شانس را داشته ام که از بسته visreg برای نقشه برداری استفاده کنم، اما دوست دارم پیشنهادهای دیگری را بشنوم. من توانستم خروجی لجستیک اصلی را از مدل مانع در «MASS» بازتولید و با موفقیت رسم کنم، اما نه داده‌های شمارش دوجمله‌ای منفی (یعنی تخمین‌های پارامتر از «MASS» با رگرسیون مانع یکسان نیست. خروجی). من از هر بینشی در مورد اینکه دیگران چگونه نتایج رگرسیون مانع را در گذشته ترسیم کرده‌اند، یا اینکه چگونه می‌توانم ضرایب دوجمله‌ای منفی را که در اصل از مدل مانع با استفاده از «glm.nb()» در «MASS» به دست آمده‌اند، بازتولید کنم، بسیار قدردانی می‌کنم. این چیزی است که من برای ترسیم داده‌های خود استفاده می‌کنم: ##لجستیک لجستیک<-glm(SuicideBinary ~ سن + جنسیت + قلدری*پشتیبانی، داده = sx، خانواده = دوجمله) داده (sx، بسته = MASS ) ##مقیاس خطی visreg(logistic, bullying, by=support, xlab = bullying, ylab = Log odds (خودکشی بله/خیر)) ##مقیاس لجستیک/احتمال visreg(لجستیک، قلدری، توسط = حمایت، scale = پاسخ، xlab = قلدری، ylab = P(تلاش اولیه)) ##Count model NegBin<-glm.nb(خودکشی. ~ سن + جنسیت + قلدری*پشتیبانی، داده = sx) data(sx، package = MASS) ##مقیاس خطی visreg(NegBin، قلدری، توسط = حمایت، xlab = قلدری، ylab = شمارش مدل (تعداد اقدام به خودکشی)) # #مقیاس لجستیک/احتمال visreg(NegBin، قلدری، توسط = حمایت، scale = response، xlab = قلدری، ylab = P (تلاش های بعدی))
رسم خروجی رگرسیون مانع
31014
من یک آزمون تی زوجی را برای تعیین میانگین تفاوت بین قبل و بعد از مداخله یکی از متغیرهای مطالعه خود اجرا کردم. با این حال، آزمایش اجرا نشد زیرا خروجی SPSS نشان داد که همبستگی و t را نمی توان محاسبه کرد زیرا خطای استاندارد تفاوت 0 است. برای بدست آوردن p-value اختلاف میانگین برای آن متغیر چه باید بکنم؟
وقتی خطای استاندارد اختلاف صفر است، چگونه آزمون t نمونه زوجی را انجام دهیم؟
112484
بنابراین من یک سری نسبت ها را به مدت 7 هفته به صورت هفتگی انجام می دهم. این مطالعه ای است که نشان می دهد عنکبوت ها با چه راهی روبرو بودند. به عنوان مثال، در هفته اول، 20 عنکبوت رو به بیرون بودند، و 10 عنکبوت رو به داخل بودند. جمعیت عنکبوت های نمونه برداری شده هر هفته یکسان بود و بنابراین آنها واقعا مستقل نیستند. می‌دانم که می‌توانید برای مثال یک مجموعه از نسبت‌ها، یک آزمایش دوجمله‌ای انجام دهید، اما آیا راهی برای آزمایش در کل دوره وجود دارد؟ من به نوعی با R آشنا هستم.
چگونه می توانم آزمایشی برای نسبت ها انجام دهم وقتی داده ها به صورت هفتگی از همان جمعیت عمومی جمع آوری شده اند؟
30361
فقط می‌خواهم بدانم که آیا می‌توان یک سری زمانی تک متغیره را خوشه‌بندی کرد، مثلاً برای تشخیص ناهنجاری‌ها؟ و آیا نسخه آنلاینی برای کد denstream در متلب دارید؟ * * * اینجا سری زمانی > > است +0003;+0004;+0004;+0005;+0004;+0004;+0004;+0003;+0003;+0004;+000 3;+0002;+0004;+0002;+0002;+0002;+0002;+0002;+0002;+0005;+0004;+00 04;+0004;+0004;+0004;+0004;+0004;+0004;+0004;+0004;+0004;+0005;+0 004;+0004;+0004;+0004;+0003;+0003;+0000;+0002;+0004;+0002;+0004;+ 0004;+0004;+0004;+0003;+0003;+0004;+0003;+0002;+0000;+0003;+0002 ;+0003;+0002;+0002;+0002;+0002;+0002;+0003;+0002;+0002;+0003;+000 0;+0003;+0003;+0002;+0003;+0002;+0003;+0002;+0004;+0004;+0004;+00 03;+0004;+0004;+0004;+0004;+0004;+0005;+0004;+0002;+0003;+0002;+0 005;+0004;+0003;+0003;+0001;+0005;+0003;+0003;+0005;+0005;+0004; +0005;+0002;+0005;+0005;+0006;+0005;+0005;+0004;+0003;+0003;+0005 ;+0002;+0002;+0001;+0003;+0004;+0002;+0002;+0002;+0001;+0001;+000 3;+0004;+0004;+0004;+0005;+0004;+0005;+0002;+0002;+0005;+0003;+00 02;+0003;+0002;+0001;+0002;+0003;+0005;+0004;+0005;+0004;+0004;+0 003;+0003;+0004;+0005;+0003;+0004;+0005;+0004;+0005;+0003;+0003;+ 0005;+0005;+0005;+0003;+0002;+0004;+0004;+0004;+0005;+0005;+0004; +0005;+0005;+0004;+0004;+0003;+0003;+0005;+0005;+0005;+0005;+0004 * * * ابتدا باید @IrishStat، که باید از تکنیک داده کاوی برای خوشه بندی استفاده کنم، نمونه ای از مجموعه داده های سری زمان در این ارائه شده است: ![تصویر](http://i.stack.imgur.com/xhK1u. jpg) چیزی که من اکنون از آن استفاده می کنم، یک خوشه بندی پایه چگالی است، بگذارید بگوییم که من Dbscan را برای پخش نقاط سری زمانی تطبیق داده ام و باید تشخیص دهد. ناهنجاری‌ها و تغییرات هر بار، پس از معرفی شما، سعی می‌کنم با تصاویر برای شما توضیح دهم که چه کار می‌کنم، با تشکر از شما، نمونه سری داده‌های زمانی: [,1] V1 3.0 V2 4.0 V3 4.5 V4 5.0 V5 4.0 V6 4.0 V7 ​​4.4 V8 3.0 V9 3.0 V10 4.0 V11 3.0 V12 2.0 V13 4.0 V14 2.0 V15 2.0 V16 2.0 V17 2.0 V18 2.0 V19 2.0 ..... به همین ترتیب
خوشه بندی تک متغیره سری های زمانی
31019
یک رگرسیون یک رابطه خطی قوی بین سن خودرو (بر حسب ماه اندازه‌گیری شده) و کاهش قیمت آن نسبت به نو نشان داد. دوست شما این ارقام را می بیند و فکر می کند که می تواند ماشین خود را با قیمتی که از این تحلیل رگرسیون بدست می آید بفروشد. به او چه می گویید؟
آیا باید از یک خط رگرسیون برای پیش بینی کاهش قیمت فروش خودروی جدید از عصر خودرو برای تعیین قیمت خودروی دست دوم استفاده کنید؟
112483
من یک دانشجوی کارشناسی ارشد هستم، مطالعه ادراک لهجه را انجام می دهم، این اولین بار است که از SPSS استفاده می کنم! من آزمایش‌های فوق را روی داده‌هایم انجام می‌دهم، جایی که شرکت‌کنندگان من از مقیاس لیکرت برای تجزیه و تحلیل ویژگی‌های شخصیتی 2 چهره تولید شده توسط سخنرانان دوون استفاده کردند. به همین دلیل، برخی از پاسخ های من ناشناخته هستند یا گاهی اوقات شرکت کنندگان نمی دانم را به عنوان پاسخ قرار داده اند. سوال من این است که آیا پاسخ هایی مانند این به عنوان مقادیر گمشده در داده های من به حساب می آیند؟ همچنین، آیا دستور خاصی در SPSS وجود دارد که اطمینان حاصل کند که موارد را به صورت زوجی حذف کنید یا این یک چیز خودکار است؟ همچنین، برای تنظیم مجموعه داده های خود در SPSS، قبل از کپی کردن آنها در SPSS، داده های خود را در اکسل سفارش داده ام. برای هر متغیر وابسته، به عنوان مثال کلاس درک شده من 4 سخنران دارم که 2 ظاهر مجزا تولید می کنند و فکر می کنم ساده ترین راه برای اطمینان از اینکه نمره من برای آزمون خی دو برای آزمون استقلال بالای 5 است این است که به سادگی تمام نمرات به ازای هر شرکت کننده برای هر چهره را اضافه کنم. ، هر 4 نمره کلاس درک شده شرکت کننده 1 برای 2 صورت و غیره... کتاب درسی روانی که استفاده می کنم امتیاز 99 را پیشنهاد می کند. یا 999 برای مقادیر از دست رفته، بنابراین اگر من 99 را برای یک مقدار از دست رفته در اکسل قرار دهم و آن امتیازها را با هم جمع کنم، آیا روی نمرات من در اکسل تأثیر می گذارد؟
مقادیر از دست رفته در SPSS برای تست های Chi-Square
31015
فرض کنید من یک مشاور هستم و می خواهم مفید بودن فاصله اطمینان را برای مشتریم توضیح دهم. مشتری به من می گوید که فواصل من خیلی زیاد است و نمی تواند مفید باشد و ترجیح می دهد از فاصله های نصف استفاده کند. چگونه باید پاسخ دهم؟
به مشتری که فکر می کند فواصل اطمینان آنقدر زیاد است که مفید نباشد چه باید گفت؟
114880
1. آیا راه هایی برای استخراج تحلیلی گشتاورهای تابعی از گشتاورهای نمونه وجود دارد؟ به عنوان مثال، سؤال اخیر من در اینجا هنوز به طور رضایت بخشی در اینجا مورد بررسی قرار نگرفته است: پیوند 2. آیا ممان های تابعی از گشتاورهای نمونه تنها از طریق گشتاورهای توزیع نمونه به توزیع نمونه بستگی دارد؟ این مورد در سوال مرتبط است. با تشکر
راه های محاسبه ممان تابعی از گشتاورهای نمونه؟
4185
در اینجا پیوندی وجود دارد که فرمول یافتن حالت داده های گروه بندی شده را توضیح می دهد. در اینجا پیوندی وجود دارد که روشی گرافیکی برای یافتن حالت داده های گروه بندی شده ارائه می دهد. سوال: لطفاً کسی توضیح دهد که چگونه فرمول با روش گرافیکی مطابقت دارد؟ فرمول یک درون یابی است اما من نمی توانم ببینم که چگونه ایده روش گرافیکی را بیان می کند. اگر کمک کند، من فرمول محاسبه میانگین داده های گروه بندی شده را درک می کنم. متشکرم.
فرمول برای یافتن حالت داده های گروه بندی شده
112487
فرض کنید من یک طبقه‌بندی‌کننده باینری را برای برخی از داده‌ها نصب کرده‌ام و مقدار برش را تغییر می‌دهم، و در واقع یک منحنی ROC تولید می‌کنم. با دانستن نسبت‌های واقعی مثبت و منفی، می‌توانم نسبت داده‌های طبقه‌بندی‌شده به‌عنوان مثبت، یعنی $TP + FP$ برای هر قطع معین، و همچنین مقدار دقیق متناظر آن را محاسبه کنم. آیا من در تفسیر این مقادیر دقیق در رابطه با $TP + FP$ به روش زیر صحیح هستم؟ فرض کنید جمعیتی به اندازه $N$ وجود دارد که فرض می شود به طور یکسان در داده های برازش توزیع شده است. همچنین فرض کنید که من یک محدودیت برای انتخاب (یعنی طبقه بندی به عنوان مثبت) دقیقاً $n$ افراد از این جمعیت دارم. آیا مقدار دقیق متناظر این طبقه‌بندی محدود، دقیقاً همان مقدار مربوط به برش است که برای آن $\frac{TP + FP}{TP+FN+FP+TN} = \frac{n}{N}$ است؟ به عبارت دیگر، آیا می‌توانم تغییر مقدار برش در منحنی ROC را به‌عنوان بهترین طبقه‌بندی ممکن تفسیر کنم که تحت محدودیت طبقه‌بندی افراد $n$ به عنوان مثبت باشد؟ به عنوان مثال، اگر من مجبور باشم هر فرد را به عنوان مثبت طبقه بندی کنم، این باعث می شود $\frac{n}{N} = 1$، که با مقدار برش $0$ مطابقت دارد. اگر مجبور باشم نیمی از جمعیت را به عنوان مثبت طبقه بندی کنم، این نیز با مقداری برش، دقت و غیره مطابقت دارد. کمی مردد
مقادیر قطع و دقیق یک طبقه بندی کننده باینری
82485
من سعی دارم مجموعه داده های جمع آوری شده از شبیه سازی را با مدل های رگرسیون مختلف توضیح دهم. به نظر می رسد رگرسیون خطی قابل اجرا نیست زیرا داده های من پس از تبدیل ها همچنان مفروضات خطی بودن، نرمال بودن خطاها و غیره را نقض می کنند. باید داده ها را برای تجزیه و تحلیل تبدیل کند یا نه. با توجه به این تئوری، تاکنون متوجه شده‌ام که مدل‌های ناپارامتریک، فرضیات کمی در مورد ساختار داده‌های زیربنایی ندارند، اما برای من روشن نیست که آیا این بدان معناست که می‌توانم ناپارامتریک‌ها را بدون تغییر و تحول در داده‌های اصلی خود اعمال کنم یا خیر. هر نوع اصطلاح «چند» فرضیات به چه معناست؟ متأسفانه من نتوانستم چیزی دقیق تر در این مورد پیدا کنم. سوال دیگر این است که برای مثال splines مدل را با روش حداقل مربعات استخراج می کند. چگونه ممکن است که در این مورد هیچ فرضی در مورد داده ها بر خلاف رگرسیون خطی ضروری نباشد؟
مدل های رگرسیون ناپارامتریک و تبدیل داده ها
30369
من سعی می کنم تعیین کنم که مناسب ترین اولویت های غیر اطلاعاتی برای دو پارامتر یک توزیع log-normal (برای یک مدل زمان شکست تسریع شده) چیست. من با یک قبلی معمولی روی میانگین داده های ثبت شده (یا log-normal قبل از میانه) و یک قبلی عادی مستقل روی گزارش sd داده های ثبت شده (یا log-log نرمال قبل از پراکندگی کار می کردم. ). به نظر من پارامترسازی پارامتر دوم در مقیاس طبیعی پارامتر کاملاً آموزنده است، اما من در این مورد کاملاً تازه کار هستم. آیا ایده ای در مورد راه های بهتری برای نزدیک شدن به این موضوع دارید؟
نسخه های قبلی برای مدل های log-normal
59965
مدل $$ Y_i^{(\lambda)} = \alpha+\beta x_i + \varepsilon_i,\qquad \varepsilon_i,\ (i=1,\ldots,n) \sim \mathrm{i.i.d.}\ N(0 را در نظر بگیرید ,\sigma^2) $$ جایی که $$ \begin{align} y_i^{(\lambda)} & = \begin{cases} \dfrac{y_i^\lambda-1}{\lambda(\operatorname{GM}(y))^{\lambda -1}} , &\text{if } \lambda \neq 0 \\ [12pt] \operatorname{GM}(y)\log{y_i} , &\text{if } \lambda = 0 \end{cases} \\[12pt] \text{and} & \operatorname{GM}(y) = (y_1\cdots y_n)^{1/n}\text{ میانگین هندسی است.} \end{align} $$ به عنوان من برآورد $\lambda$، من از مقداری استفاده می‌کنم که مجموع مجذور باقیمانده‌ها را به حداقل می‌رساند، زمانی که $\alpha$ و $\beta$ نیز با حداقل مربعات تخمین زده شده‌اند. **در یافتن یک منطقه اطمینان برای $\alpha$ و $\beta$، چگونه باید عدم قطعیت را در برآورد پارامتر Box–Cox $\lambda$ در نظر گرفت؟**
عدم قطعیت از تخمین باکس-کاکس
105410
به نظر من روش استاندارد برای مقابله با مشکل آزمایش اینکه آیا دو نمونه چند متغیره از داده های طبقه بندی دارای توزیع احتمال مشترک یکسانی هستند، استفاده از یک آزمون خوب بودن برازش است، مانند آزمون مجذور کای: با فرض اینکه فرکانس ها از یک نمونه (شمارش نرمال شده در هر ترکیب از متغیرها) توزیع نظری $E$ و بقیه مشاهده شده $O$، یک را تشکیل می دهند. می تواند $\chi^2=\sum\limits_{i=1}^{N} \frac{(O_i - E_i)^2}{E_i}$ را محاسبه کند. سپس، با توجه به p-value به دست آمده از توزیع احتمال کای دو، می توان گفت که آیا فرضیه صفر مبنی بر اینکه دو نمونه توزیع مشترک یکسانی دارند را می توان رد کرد. با این حال، از خودم می‌پرسیدم که آیا رویکردهای دیگری برای این هدف وجود دارد؟ به طور خاص، من به روشی علاقه مند می شوم که بتواند مشخص کند کدام متغیرهای طبقه بندی دورترین در این دو نمونه هستند. توصیه ای دارید؟ با تشکر
تست کنید که آیا دو نمونه طبقه بندی دارای مفصل یکسان هستند یا خیر
34197
من یک GLM را با یک متغیر پیوسته $X_1$، یک متغیر ساختگی $X_2$ و عبارت تعامل $X_1*X_2$ تخمین می زنم. پس از درک من، هنگام تفسیر ضریب $X_1$ باید مقدار صفر را برای $X_2$ فرض کنید، یعنی همچنین برای عبارت تعامل. اکنون یکی از همکاران پیشنهاد کرد که اگر یکی از تأثیرات اصلی را نادیده بگیرم، آنگاه تعامل یک تعامل واقعی نخواهد بود، یعنی می توانم به سادگی ضرایب هر دو را تفسیر کنم - اثر اصلی باقی مانده و عبارت تعاملی را طوری تفسیر کنم که گویی هیچ عبارت تعاملی در آن وجود ندارد. مدل من نتوانستم ادبیاتی را پیدا کنم که این دیدگاه را تأیید کند. آیا درست است؟
تعامل دو طرفه با تنها یک اثر اصلی در مدل - آیا این یک تعامل واقعی است؟
103754
من تنوعی از این سوال پرسیدم، اما می‌خواهم مستقیم‌تر صحبت کنم. دقیقاً همان مدل هموارسازی نمایی سه گانه (Holt-Winters با سطح متحرک، روند و مؤلفه فصلی) را در نظر بگیرید--- آیا می خواهید یا نه --- پارامترهای هموارسازی آلفا، بتا و گاما (تعیین وزن داده های اخیر در سطح، روند و فصلی بودن به ترتیب) ---- برای افق های پیش بینی مختلف به طور متفاوتی بهینه شود؟ ... دوره های t+1 در مقابل دوره های t+2، دوره های t+6، دوره های t+12 و غیره؟ تصور اولیه من ... بله است. ماهیت Holt-Winters این است که برای پیش‌بینی 6 دوره (هفته، ماه، هر چیز دیگری) - سطح فعلی را می‌گیرید، 6 برابر روند محاسبه‌شده را اضافه می‌کنید و در فصلی بودن آخرین دوره متناظر ضرب می‌کنید (یا اضافه می‌کنید). به نظر می‌رسد که یک مدل تعقیب «داده‌های اخیر» در بسیاری از موارد برای افق t+1 دقیق‌تر و برای مدل t+6 طولانی‌مدت ضعیف‌تر است. اما، قطعاً می‌توانم در این مورد اشتباه کنم. من فقط نمی بینم که این مورد در جایی مورد بحث قرار گرفته باشد، و شاید من در مورد این فرآیند بهینه سازی پارامترها شکاف هایی در دانش دارم و شاید مدل ها را بیش از حد برازش می دهم. وقتی نرم‌افزار تخصصی معمولاً این مقادیر را بهینه می‌کند --- فرض می‌کنم در مقابل داده‌های آزمایشی یا آنچه شما دارید، MSE یا MAPE را به حداقل می‌رساند... آیا این نرم‌افزار MAPE را در برابر پیش‌بینی‌های t+1، یا پیش‌بینی‌های t+6، یا هر دو، به حداقل می‌رساند؟ یا هر افقی؟ این چیزی است که من را گیج می کند.
نیاز به وضوح در بهینه‌سازی آلفا، بتا، گاما در پیش‌بینی هموارسازی نمایی سه‌گانه
111900
من به یک سوال کلی در مورد طراحی تحقیق علاقه دارم، اما آن را در یک مثال خاص توضیح خواهم داد. فرض کنید من می خواهم تعیین کنم که آیا یک گروه از افراد ضربان قلب بالاتری نسبت به گروه دیگر دارند یا خیر. بیایید دو روش برای انجام این کار در نظر بگیریم، دو سناریو: سناریو 1: ما **یک اندازه گیری** ضربان قلب را از 5 نفر در هر یک از دو گروه دریافت می کنیم. سپس برای هر گروه می توانیم میانگین و انحراف معیار را محاسبه کنیم و با آن داده ها آزمون t را اجرا کنیم تا ببینیم که آیا گروه ها متفاوت هستند یا خیر. سناریوی 2: از هر یک از 5 نفر در هر یک از دو گروه، **چندین، مثلاً 3، اندازه گیری می کنیم، سپس 3 اندازه گیری را برای هر فرد میانگین می گیریم و از یک نقطه داده برای این فرد استفاده می کنیم. سپس مانند سناریوی 1 ادامه دهید. می خواهم بفهمم که آیا سناریوی دوم معتبر است یا خیر. چنین طراحی معمولا استفاده می شود و به نظر می رسد تغییرپذیری را نسبت به سناریوی اول کاهش می دهد. اما من بسیار نگران هستم که در سناریوی 2، ما به سادگی تنوع درون فردی را کنار می گذاریم یا نادیده می گیریم. پس آیا انجام این کار مشکلی ندارد؟ هزینه این کار چقدر است؟ آیا این می تواند به نتیجه گیری های نادرست (مثبت کاذب، منفی کاذب) منجر شود؟ یا شاید نتیجه گیری باید به روشی بسیار خاص فرموله شود؟ با این روش دقیقاً چه چیزی را مشخص می کنیم؟ میانگین ضربان قلب یک فرد، در مقابل خواندن تصادفی ضربان قلب یک فرد؟ آیا این همان چیزی است که ما باید از دیدگاه بیولوژیکی به آن علاقه مند باشیم؟ با عرض پوزش، اگر سوال کاملاً واضح نیست، اما برای من نیز واضح نیست، و شاید شما می توانید من را در مسیر درست راهنمایی کنید. هر گونه فکری پذیرفته می شود. به روز رسانی: من به تازگی متوجه شدم که یک سناریوی سوم وجود دارد: به عنوان دوم شروع کنید، اما از هر اندازه گیری (نه هر فرد) به عنوان نقطه داده استفاده کنید، که تعداد مشاهدات را 3 برابر افزایش می دهد. مزایا یا محدودیت های انجام آن چیست؟
چند اندازه گیری یک نقطه داده واحد: با تغییرپذیری چه باید کرد؟
58794
من علاقه مند به استفاده از بسته R MatchIt برای پیش پردازش داده های خود برای به دست آوردن گروه های منطبق بر اساس یک متغیر درمان از پیش تعریف شده هستم. با این حال من با چند مشکل روبرو هستم. اولین مسئله این است که داده‌های من علاوه بر متغیر درمان حاوی متغیرهای کمکی زیادی (تقریباً 80) هستند. بسیاری از این متغیرهای کمکی دارای مقادیر گم شده هستند و به نظر می رسد که MatchI از متغیرهای گم شده پشتیبانی نمی کند. برای کسانی از شما که از MatchIt استفاده کرده‌اید، رویکرد شما برای حل این مشکل چیست؟ آیا از روش‌های انتساب (مثلاً بسته «موش») از NA استفاده می‌کنید؟ یا آیا انتخاب متغیر را برای انتخاب مهم ترین متغیرها انجام می دهید (مثلاً کمند با استفاده از «glmnet») برای انجام کاهش ابعاد +/- منتسب؟ مسئله دوم این است که من مشاهدات زیادی دارم (23000=n) که حدود 200 مورد در گروه درمان و 22800 مشاهدات باقی مانده در گروه کنترلم است. در این شرایط، کدام روش در MatchI مناسب‌تر است (همچنین با در نظر گرفتن سایر جنبه‌های داده‌های من همانطور که در بالا توضیح دادم)؟ مثل همیشه از کمک بسیار سپاسگزارم.
استفاده از MatchI برای تطبیق گروه ها در یک تحلیل گذشته نگر
4187
سلام من دو مشکل دارم که به نظر می رسد کاندیدای طبیعی برای مدل های چند سطحی / مختلط است که من هرگز از آنها استفاده نکرده ام. ساده‌تر، و امیدوارم بتوانم آن را به عنوان مقدمه امتحان کنم، به شرح زیر است: داده‌ها مانند بسیاری از ردیف‌های شکل «گروه بیرونی گروه درونی x y» به نظر می‌رسند که x یک متغیر عددی است که می‌خواهم y را رگرسیون کنم (متغیر عددی دیگر) ، هر y متعلق به یک گروه داخلی است و هر گروه درونی در یک گروه بیرونی تودرتو است (یعنی همه y در یک گروه معین گروه درونی متعلق به همان گروه بیرونی است). متأسفانه، گروه داخلی سطوح زیادی دارد (هزاران)، و هر سطح مشاهدات نسبتاً کمی از y دارد، بنابراین فکر کردم این نوع مدل ممکن است مناسب باشد. سوالات من 1. چگونه می توانم این نوع فرمول چند سطحی را بنویسم؟ 2. وقتی **lmer** با مدل مطابقت داشت، چگونه می توان از روی آن پیش بینی کرد؟ من نمونه‌های اسباب‌بازی ساده‌تری را انتخاب کردم، اما تابع ()predict پیدا نکردم. به نظر می رسد اکثر مردم بیشتر به استنتاج علاقه مند هستند تا پیش بینی با این نوع تکنیک. من چندین میلیون ردیف دارم، بنابراین محاسبات ممکن است مشکل ساز باشد، اما همیشه می توانم آن را به صورت مناسب کاهش دهم. من برای مدتی نیازی به انجام دومی نخواهم داشت، اما ممکن است شروع به فکر کردن در مورد آن و بازی کردن با آن کنم. من داده های مشابه قبلی دارم، اما بدون x، و y اکنون یک متغیر دوجمله ای به شکل $(n,n-k)$ است. y همچنین پراکندگی بیش از حد زیادی را حتی در درون گروه‌های داخلی نشان می‌دهد. اکثر $n$ بیشتر از 2 یا 3 (یا کمتر) نیستند، بنابراین برای بدست آوردن تخمینی از میزان موفقیت هر $y_i$ من از تخمین‌گر انقباض دوجمله‌ای بتا $(\alpha+k_i)/( استفاده کرده‌ام. \alpha+\beta+n_i)$، که در آن $\alpha$ و $\beta$ توسط MLE برای هر گروه داخلی به طور جداگانه تخمین زده می‌شود. این تا حدودی کافی بوده است، اما پراکندگی داده ها هنوز مرا آزار می دهد، بنابراین می خواهم از همه داده های موجود استفاده کنم. از یک منظر، این مشکل آسان تر است زیرا هیچ متغیر کمکی وجود ندارد، اما از سوی دیگر طبیعت دوجمله ای آن را دشوارتر می کند. آیا کسی راهنمایی در سطح بالا (یا پایین!) دارد؟
استفاده از lmer برای پیش بینی
34195
من آزمایشی را با یک سیستم آموزش الکترونیکی با استفاده از اندازه گیری های مکرر با طراحی متقاطع اجرا می کنم. سوژه ها دو ویدیو در یک صفحه وب نشان داده می شوند. در یک جلسه، یک ویژگی (جدول مطالب) فعال می شود، در حالی که جلسه دیگر یک کنترل است: C=Control F=موضوع ویژه pretest1 ویدیو 1 posttest1 pretest2 video 2 posttest2 S1 C F S2 C F S3 C F S4 F C S5 F C S6 F C مقدار آموخته شده با کم کردن نتیجه پیش آزمون از نتیجه پس آزمون اندازه گیری می شود. مشکل من این است که نمی‌توانم ترتیب دو ویدیو را با متقاطع عوض کنم زیرا ویدیو 2 به دانش ویدیوی 1 نیاز دارد. اگر ویدیوها را در موضوعات جداگانه انتخاب می‌کردم، تنوع در استعداد، علاقه و دانش قبلی را در این زمینه معرفی می‌کردم. موضوعات همچنین بعید است که هر دو ویدئو دارای دشواری مساوی باشند، بنابراین دستاوردهای یادگیری در یکی را نمی توان مستقیما با دستاوردهای یادگیری در دیگری مقایسه کرد. می‌دانم که متقاطع این اثر را خنثی می‌کند و به من امکان می‌دهد تفاوت میانگین را به دست بیاورم، اما به نظر می‌رسد که من را از انجام EDA اولیه مانند نمودارهای پراکنده باز می‌دارد، و مطمئن نیستم که چگونه از آنجا به تجزیه و تحلیل آماری ادامه دهم. آیا کاری وجود دارد که بتوانم برای بهبود طراحی این آزمایش انجام دهم، و آیا توصیه یا منبعی در مورد اینکه چگونه در این سناریو تجزیه و تحلیل کنم، دارید؟
شرایط آزمایشی متنوع در طرح‌های اندازه‌گیری مکرر
103759
من یک جراح هستم که در تلاش برای مقایسه دو تست تشخیصی هستم که برای تشخیص آپاندیسیت استفاده می شود. دو تست تشخیصی بر روی 150 بیمار انجام شد و نتایج با استاندارد طلایی مقایسه شد. من می‌دانم که حساسیت‌ها و ویژگی‌ها را می‌توان با استفاده از آزمون مربع کای مک‌نمارس مقایسه کرد. اما در مورد ارزش های پیش بینی کننده مثبت و منفی ... چگونه اینها را مقایسه می کنید؟ هر گونه کمکی قدردانی خواهد شد! به عنوان مثال ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/2ZrYE.jpg)
چگونه ارزش اخباری مثبت و ارزش اخباری منفی دو تست تشخیصی را مقایسه کنیم؟
31018
در زیر اطلاعاتی در مورد وزن قهوه (به هزار کیلوگرم) فروخته شده در دو مکان (محل 1 و مکان 2) 26.3، 26.5، 16.2، 16.2، 26.4، 16.8، 16.1، 16.9 (8 مغازه) 44.4، 44.1، 44.7، 54 آمده است. 44.8، 22.6، 36.4 (7 مغازه) 1. فاصله اطمینان 95% را برای تفاوت بین میانگین وزن قهوه فروخته شده در مکان های مختلف بیابید. 2. ترجیح می دهید کجا مغازه داشته باشید؟ چرا؟ 3 را توضیح دهید. اکنون باید ثابت کنید که آیا منطقه ترجیحی واقعاً میانگین وزن بیشتری از قهوه فروخته شده در هفته مورد نظر داشته است یا خیر. تست های مناسب را در سطوح 5% و 1% انجام دهید.
چگونه می توان فاصله اطمینان 95 درصد میانگین دو گروه را محاسبه کرد و آزمون فرضیه را با مقایسه میانگین های گروهی انجام داد؟
112903
من می خواهم عملکرد طبقه بندی کننده خود را با استفاده از تست جایگشت آزمایش کنم. من می دانم چگونه یک مقدار واقعی را در برابر توزیع تهی مقادیر تولید شده با تخصیص مجدد تصادفی برچسب ها به دو کلاس خود آزمایش کنم. با این حال، در این مورد، من یک مقدار ندارم، بلکه توزیعی از عملکردها را روی داده‌هایی که به درستی برچسب‌گذاری شده‌اند، ندارم، زیرا طبقه‌بندی را چندین بار انجام می‌دهم (برای استفاده از داده‌های کمی متفاوت، اما همپوشانی، و تقسیم داده‌ها به روش‌های مختلف برای آموزش/آزمایش و اعتبارسنجی متقابل). 1. آیا برای هر طبقه‌بندی که انجام می‌دهم، یک برچسب‌گذاری مجدد تصادفی داشته باشم تا توزیع واقعی و صفر با هر کدام 100 (یا 1000) ورودی داشته باشم؟ یا به دلایلی باید برای هر عملکرد رمزگشایی واقعی یک توزیع تهی ایجاد کنم؟ 2. چگونه می توانم تست کنم که آیا رمزگشایی من به طور قابل توجهی بهتر از توزیع تهی در این مورد است؟ با تشکر
تست جایگشت با توزیع مقادیر صحیح
103755
من یک مجموعه داده با دو ستون دارم که اولی به عنوان متغیر پاسخ و دومی به عنوان متغیر پیش بینی کننده استفاده می شود. با این حال، متغیر پیش بینی با مقادیر صحیح پر شده است که بسیاری از آنها صفر هستند. وقتی نقاط داده را برای متغیرهای پیش بینی کننده و پاسخ در گروه های مربوطه قرار می دهم، دیگر هیچ گروهی مقدار صفر ندارد. انجام یک رگرسیون خطی بر روی داده ها زمانی که به این شکل است، $R^2$ به طور قابل توجهی بالاتر از رگرسیون گروه بندی نشده تولید می کند. سوال من این است: اگر تغییر در $R^2$ بین مدل‌های گروه‌بندی‌شده و گروه‌بندی‌نشده زیاد باشد، مشکلی در روش من وجود دارد؟ آیا می توان این را با تعداد زیاد صفرها توضیح داد؟ برای ارائه یک ایده کمی بهتر از منظور من از گروه بندی داده های زیر را در نظر بگیرید: A B 0.2 0.3 0.3 2.6 4.7 6.8 7.7 4.4 A به صورت زیر گروه بندی می شود: 0 -3 4-7 با مقادیر B جدید میانگین گروه است.
رگرسیون خطی با گروه ها در مقابل نقاط - مسئله با تأثیر صفرها
66051
آیا عبارت استنتاج آماری فقط شامل آزمون فرضیه می شود یا شامل تخمین نقطه ای، تخمین فاصله و غیره نیز می شود. مراجع معتبر بسیار مورد قدردانی قرار خواهند گرفت.
آیا «استنتاج» شامل تخمین می شود یا فقط آزمایش؟
111906
فرض کنید من یک مدل از نوع رگرسیون دارم. آیا آنها دلایل آماری و/یا اساسی هستند که شامل یک تعامل دو طرفه که شامل یک درصد و اندازه جمعیت متناظر است ** نمی باشد. یک مثال می تواند شامل تعامل بین درصد خانوارهای صاحب تلویزیون و تعداد کل خانوارها باشد. اصطلاح تعامل عملاً تعداد مطلق خانوارهایی است که تلویزیون دارند. از هرگونه نظر و ارجاع قدردانی می کنم.
تعامل بین درصد و اندازه جمعیت در یک رگرسیون
103756
من می دانم که این موضوع حساسی است، بنابراین با احتیاط ادامه می دهم... من در حال ساخت مدل های رگرسیون برای صدها هزار فایل داده ای هستم که فقط شامل دو ستون هستند. سنسور جمع آوری این داده ها عالی نیست و گاهی اوقات چیزهایی با اندازه گیری تداخل می کنند، بنابراین داده ها بسیار پر سر و صدا هستند. یک فایل معمولی ممکن است شامل 300 inliers و 50 outliers باشد. روشی که من در حال حاضر پیش می‌روم به شرح زیر است: 1. ساخت مدل رگرسیون برای محتویات داده‌ها (در ابتدا همه داده‌ها) 2. باقیمانده‌ها را با کم کردن مدل از همه داده‌ها به دست آورید. 3. مقیاس باقیمانده‌ها را محاسبه کنید. (مثلاً استفاده از STD یا MAD) 4. رد کردن (سیگما-کلیپ) همه نقاط پرت که از مقداری سیگما * مقیاس 5 بیشتر است. این فرآیند را تا زمانی تکرار کنید که دو تکرار متوالی رد شوند. هنگامی که من در تکرار دوم، مقادیر پرت را بررسی می‌کنم، از آن می‌خواهم همه داده‌ها از جمله مقادیر پرت را که قبلاً رد شده‌اند، بررسی کند، و اگر آنها اکنون با مدل به‌روز شده موافق باشند، مقادیر پرت را «لغو» می‌کنم. مشکل این است که گاهی اوقات به یک حلقه بی نهایت منجر می شود. اگر من یک مدل بسازم، یک نقطه را رد کنم، مدل را دوباره بسازم، آن نقطه را علامت گذاری کنم و یک نقطه دیگر را رد کنم، مدل را دوباره بسازم، آن نقطه را باز کنم و نقطه اول را دوباره رد کنم، و غیره، این روند هرگز تمام نمی شود. من می توانم آن را به گونه ای محدود کنم که فقط چند بار از پیش تعیین شده تکرار شود، اما این به نظر من یک هک است. پس راه درست برای انجام آن چیست؟
راه مناسب برای انجام رد خودکار تکراری پرت چیست؟
111901
![model](http://i.stack.imgur.com/Lw0BS.png) این مدل من است که از یک مطالعه اقتباس شده است. می‌خواهم بدانم که آیا می‌توانم آن را فقط به‌عنوان تحلیل مسیر بدون مطالعه اثر میانجی (1$\longrightarrow$ 5 اثر مستقیم و همچنین اثر غیرمستقیم) فقط با بررسی تأثیر یک اثر متغیر بر دیگری مطالعه کنم؟ من برای این منظور از amos استفاده می کنم. همه مسیرها به جز مسیر بین متغیرهای 3 و 5 مهم هستند. من باید آن را برای پایان نامه ارسال کنم و به نظر می رسد در حال حاضر میانجیگری بسیار دشوار است.
آیا این میانجیگری است یا یک راه ساده؟
82480
من متغیرهای برنولی $N$ دارم، $X_1،...،X_N$ و $X_i\sim B(1، \pi_i)$، $\pi$ برای هر $X_i$ و $Y=X_1+ شناخته شده است.. .+X_N$، اکنون باید توزیع $Y$ را دریافت کنم. اگر $X_i$ و $X_j$ وقتی $i\ne j$ مستقل باشند، می‌توانم از شبیه‌سازی استفاده کنم: 1. X1، ...، XN را از طریق توزیع آنها تولید می‌کنم و سپس مقدار Y را بدست می‌آورم. 2. مرحله 1 را برای 10000 بار تکرار کنید، و سپس می توانم Y1، ...، Y10000 را بدست بیاورم، بنابراین می توانم توزیع Y را بدانم. اما اکنون $X_i$ و $X_j$ وابسته هستند، بنابراین من نیز باید به آن توجه کنم. همبستگی را حساب کنید، با فرض اینکه $\text{cor}(X_i, X_j)=0.2$ وقتی $i\ne j$، چگونه می توانم همبستگی را وارد کنم به شبیه سازی؟ یا توزیع $Y$ را از راه های دیگر دریافت کنید؟
نحوه بدست آوردن توزیع مجموع متغیرهای برنولی وابسته
111902
من در حال انجام یک آزمایش دو نمونه ای (ANOVA یک طرفه با 2 درمان) هستم، و هدف تخمین نسبت میانگین سلولی با فرض طبیعی بودن داده ها است. یک روش ساده این است که پاسخ را ثبت کنید و یک مدل $\log Y = b_0 + b_1 * X$ را برازش کنید و سپس نسبت را به صورت $R = e^{b_1}$ تخمین بزنید، با این حال، این نسبت سلول هندسی را به جای اینکه سلول حسابی یعنی. من فرض کردم که اگر یک مدل lognormal مناسب را با استفاده از gamlss در R یا PROC GLIMMIX در SAS برازش کنم، نسبت میانگین های حسابی را دریافت خواهم کرد، اما به دلایلی هر دو رویه شیب یکسانی با $\ ایجاد می کنند. ورود به سیستم رگرسیون Y$. این عجیب است زیرا وقتی من از این رویکرد با پواسون یا رگرسیون دو جمله ای منفی استفاده می کنم، نسبت میانگین های حسابی را دریافت می کنم. چه چیزی را از دست داده ام؟ با تشکر، جیمز پی اس. من فکر می کنم من منبع سردرگمی را شناسایی کردم، اما توضیحی برای آن ندارم. یک تنظیم لگ نرمال با تابع پیوند هویت این است: $\log Y_1 \sim N(b_0, \sigma^2)$ $\log Y_2 \sim N(b_0 + b_1, \sigma^2)$ که به معنای $\frac{ E[Y_2]}{E[Y_1]} = \frac{e^{b_0 + b_1 +\sigma^2/2}}{e^{b_0 + \sigma^2/2}} = e^{b_1}$ برای من، به این معنی است که $e^{b_1}$ باید تخمین نقطه ای برابر با نسبت میانگین های حسابی برای پاسخ اصلی داشته باشد. از سوی دیگر، $E[\log Y_1] = b_0$ $E[\log Y_2] = b_0 + b_1$$b_0$ به عنوان میانگین حسابی $\log Y_1$، $b_0 + b_1$ به عنوان تخمین زده می‌شود. میانگین حسابی $\log Y_2$. بنابراین، $e^{b_1}$ باید یک تخمین نقطه ای برابر با نسبت میانگین هندسی برای پاسخ اصلی داشته باشد، و با توجه به خروجی آن دو بسته، چنین است. کجا اشتباه کردم؟
تخمین نسبت میانگین سلولی در ANOVA با فرض lognormal
111908
من یک فرمول فروپاشی نمایی منفرد را با سه پارامتر (a,b,c) برازش می کنم: y ~ $a \exp(-xb) + c$ با استفاده از تابع هزینه LAD: $ \min \sum |(y - f(x ))| $. $x$ بر حسب واحد زمان است (همانطور که $b$ است)، و $a$، $c$ بدون واحد هستند. اندازه‌گیری‌ها به اندازه کافی در زمان انجام می‌شوند که آخرین $y$ عملاً فقط نویز ناشی از فرآیند اندازه‌گیری باشد. گاهی اوقات ما نقاط داده‌ای داریم که توسط خطاهای پراکنده خراب می‌شوند که به طور قطع در زمان وقوع به طور معمول توزیع نمی‌شوند، بنابراین استفاده از این روش روشی بسیار معقول به نظر می‌رسد. من یک مثال با استفاده از داده های شبیه سازی شده در زیر آورده ام: ![مثال با استفاده از داده های شبیه سازی شده](http://i.stack.imgur.com/KkYDT.png) با نادیده گرفتن پارامتر $c$، تابع هزینه دو پارامتری را به صورت گرافیکی رسم می کنم، و به راحتی می توان متوجه شد که صفحه ای از نقاط در فضای پارامتر وجود دارد که تابع هزینه را به حداقل می رساند (شکل را ببینید). من این را برای مدل سه پارامتری با جستجوی نیروی brute force در فضای پارامتر تایید کرده ام. ![طرح فضای پارامتر با کوچکترین پراکنده در اطراف](http://i.stack.imgur.com/gocL4.png) سوال من این است: آیا راهی وجود دارد، با توجه به داده ها، مدل و با فرض اینکه بتوانم همه موارد را پیدا کنم حداقل معقول، برای انتخاب یکی از آن مجموعه پارامترهای بهینه به عنوان مجموعه پارامتر نماینده؟ در حال حاضر من مرکز ابرصفحه (اگر این عبارت مناسب است) از پارامترهای کمینه‌سازی را انتخاب می‌کنم، و این باعث می‌شود تا در حدود 90 درصد موارد به راه‌حل‌های «R -> quantreg -> nlrq» با «tau=0.5» بسیار نزدیک شوم. موارد
رگرسیون حداقل انحراف مطلق غیر خطی با حداقل های جهانی چندگانه
103752
فرض کنید که یک ورودی و خروجی های متناظر زیر را دارد: x1 = (a,b,c) با خروجی مربوطه y1 که یک عدد است. x2 = (d,e,?) با خروجی مجهول x3 = (?,?,g) با خروجی معلوم y2 که یک عدد و غیره است. بنابراین، منظور من از داده های ورودی ناقص فقط این نیست که برخی از داده های ورودی بدون برچسب هستند، بلکه برخی از نقاط داده از بردارهای داده خاص گم شده اند و گاهی برچسب گذاری می شوند و گاهی اوقات بدون برچسب. آیا حداقل یک الگوریتم یادگیری آنلاین نیمه نظارت شده برای این نوع داده های ورودی با شکاف وجود دارد؟ تاکنون فقط الگوریتم‌هایی برای یادگیری نیمه نظارتی آنلاین برای «داده‌های ورودی بدون هیچ شکاف» پیدا کرده‌ام.
یادگیری نیمه نظارتی آنلاین با داده های ورودی ناقص
34193
من معیارهای خطای مختلفی را دیده ام که در مسابقات Kaggle استفاده شده است: RMS، میانگین مربع، AUC، و غیره. قاعده کلی در انتخاب معیار خطا چیست، به عنوان مثال، چگونه می‌دانید از کدام معیار خطا برای یک مشکل معین استفاده کنید؟ آیا دستورالعملی وجود دارد؟
چگونه یک معیار خطا را هنگام ارزیابی یک طبقه‌بندی انتخاب کنیم؟
4184
[پست متقاطع از اینجا، متوجه شدم که این انجمن ممکن است مرتبط‌تر باشد] من در زمینه یادگیری ماشینی کار می‌کنم، و به چند مقاله برخوردم که روابط بین پایه‌های گروبنر و احتمال گسسته را نشان می‌دهد. بنابراین من برای کمک به اینجا می آیم. لطفاً توضیح دهید که چگونه می توان از پایه های گروبنر برای توصیف احتمال گسسته استفاده کرد؟ من به مبانی گروبنر نگاه کردم و مفاهیم کلی را درک کردم (و از Maple برای محاسبه چند مثال استفاده کردم). بنابراین این پیوندی است که برای من گم شده است.
چگونه می توان از پایه های گروبنر برای توصیف احتمال گسسته استفاده کرد؟
33712
من یک سوال دارم که از کدام واریانس پیش‌بینی برای محاسبه فواصل پیش‌بینی از یک شیء «lm» برازش شده در R استفاده کنم. برای یک مدل رگرسیون خطی چندگانه، من یک واریانس خطا با اعتبار سنجی ترک-یک-از-متقاطع (LOOCV) به دست آورده‌ام. با در نظر گرفتن میانگین اختلاف مجذور بین مقادیر مشاهده شده و پیش بینی شده (یعنی میانگین مربع خطای پیش بینی). من از برخی از اشکالات LOOCV آگاه هستم (به عنوان مثال، نتایج Shao در مورد اعتبارسنجی متقاطع ترک یک خارج چه زمانی قابل اجرا هستند؟)، اما برای کاربرد خاص من، این ساده‌ترین (و احتمالاً تنها روش واقعی CV) قابل پیاده‌سازی بود. مدل خطی برازش نهایی ('fitted_lm') با همه مشاهدات برازش می شود و با این مدل می خواهم برای مشاهدات جدید پیش بینی کنم ('new_observations'). برای این منظور من از تابع 'predict.lm' در R. predict استفاده می کنم (fitted_lm, new_observations, interval = prediction, pred.var = ???) سوالات من این است: * از چه مقداری برای `pred.var استفاده می کنم (به عنوان مثال، واریانس(های) مشاهدات آینده برای فواصل پیش بینی در نظر گرفته شود) تا فواصل پیش بینی واقعی برای new_observations من به دست آید؟ * آیا از واریانس خطای به‌دست‌آمده از LOOCV استفاده می‌کنم یا از پیش‌فرض تابع استفاده می‌کنم (به عنوان مثال، «پیش‌فرض این است که فرض کنیم مشاهدات آینده همان واریانس خطای مورد استفاده برای برازش را دارند»)؟ * آیا میانگین مربعات خطای پیش بینی در این مورد مناسب نیست؟ در ادامه پاسخ مایکل چرنیک در ادامه، نگاهی به کتاب دریپر و اسمیت (1998) (تحلیل رگرسیون کاربردی. ویرایش سوم) انداختم. در این کتاب _s 2_ به عنوان واریانس در مورد رگرسیون تعریف شده است (ص 32). این همان چیزی است که در زیر به عنوان تخمین مدل واریانس باقیمانده توضیح می دهیم. علاوه بر این، این کتاب اشاره می‌کند: «از آنجایی که مقدار واقعی مشاهده شده _Y_ در مورد مقدار میانگین واقعی _σ > 2_ [مستقل از _V(Ŷ)_] متفاوت است، یک مقدار پیش‌بینی‌شده از یک فرد > مشاهده همچنان با _Ŷ_ داده می‌شود. واریانس خواهد داشت > > ![فرمول](http://i.stack.imgur.com/uUPXs.jpg) > > با مقدار تخمینی مربوطه با درج _s 2_ برای _σ 2_ به دست می آید (ص 82-81). بنابراین، تا آنجا که من متوجه شدم، در کتاب D & S آنها فقط از تخمین مدل واریانس باقیمانده برای محاسبه فواصل اطمینان استفاده می کنند. این تنظیم پیش‌فرض در تابع «پیش‌بینی» خواهد بود (راهنمای تابع: «پیش‌فرض این است که فرض کنیم مشاهدات آینده همان واریانس خطای مشاهدات مورد استفاده برای برازش را دارند»). با این حال، همانطور که fosgen در زیر بیان می‌کند، اگرچه میانگین خطای پیش‌بینی مربعات LOOCV با خطای پیش‌بینی میانگین مربع واقعی برابر نیست، اما بسیار نزدیک‌تر به واقعی است تا واریانس خطای مدل برازش. برای ملموس تر کردن این موضوع؛ در مجموعه داده‌ام، یک برآورد مدل از واریانس باقیمانده «0.005998» و یک خطای پیش‌بینی مجذور میانگین LOOCV «0.007293» دریافت می‌کنم. سپس باید چه چیزی را به‌عنوان «pred.var» در تابع «predict.lm» پر کنم: * هیچ چیز (یعنی استفاده از پیش‌فرض، که برابر با تخمین مدل واریانس باقی‌مانده است) * «0.007293» (یعنی میانگین LOOCV مربع خطای پیش بینی) * `0.005998 + 0.007293` (مایکل چرنیک: تخمین مدل واریانس باقیمانده به دلیل تخمین پارامترها برای بدست آوردن واریانس خطای پیش‌بینی برای یک مشاهده جدید به واریانس خطا اضافه می‌شود.
آیا باید از میانگین مربع-پیش بینی-خطای LOOCV برای فواصل پیش بینی استفاده کنم؟
67328
اجازه دهید $X$ و $Y$ دو متغیر تصادفی باشند، به طوری که اطلاعات متقابل (متوسط) بسیار کوچک است: $$ 0 \le I(X;Y) \le \epsilon \ll 1$$ در این مورد، ما بگویید که $X$ و $Y$ _تقریبا_ مستقل هستند. حالا، آیا می‌توانیم چیزی شبیه این استنباط کنیم: $$\forall x,y \quad \Pr[X=x,Y=y] \le \Pr[X=x]\cdot\Pr[Y=y] + \delta$ $ با $\delta$ یک تابع (احتمالا منفی) از $\epsilon$ است؟ * * * اگر حالت کلی بالا قابل اثبات نباشد، شاید بتوانیم از حالت ویژه زیر استفاده کنیم: اجازه دهید $X$ و $Y$ متغیرهای تصادفی **گسسته** باشند و مقادیر را از یک مجموعه **محدود** $D بگیریم. $ با $|D|=2^n$. علاوه بر این، اجازه دهید $\epsilon$ به صورت نمایی در $n$ کوچک باشد، مثلا $\epsilon = 2^{-n/2}$. آیا اکنون می توانیم $\delta$ را به عنوان تابعی از $\epsilon$ بدست آوریم؟
روابط بین احتمالات تقریبا متغیرهای تصادفی مستقل
103758
روش معمولی برای ایجاد یک خروجی احتمالی از یک طبقه بندی کننده چند کلاسه All-vs- All یا One-Vs-All چیست؟ برای مثال، اگر مشکل من 3 کلاس دارد (Class1، Class2، Class3) و من یک طبقه‌بندی کننده AVA بسازم، پس من یک طبقه‌بندی برای: * Class1 در مقابل Class2 ($f_{12}(x)$) * Class1 در مقابل Class3 ( $f_{13}(x)$) * Class2 در مقابل Class3 ($f_{23}(x)$) سپس، طبقه‌بندی به سادگی به این صورت است: $$ f(x)=\text{argmax}_{i} \sum_j f_{ij}(x) $$ با این حال، ما هیچ خروجی _احتمال_ از برچسب کلاس نداریم (مانند رگرسیون لجستیک کلاس باینری). به عبارت دیگر، چگونه می توان $p(y=Class1|x)$، $p(y=Class2|x)$، $p(y=Class3|x)$ را محاسبه کرد.
خروجی احتمالی از طبقه بندی کننده AVA (چند کلاس).
23238
من در تلاش برای درک اعتبار متقاطع برای رگرسیون لجستیک ترتیبی هستم. هدف بازی اعتبارسنجی مدل مورد استفاده در تجزیه و تحلیل است... من ابتدا یک مجموعه داده اسباب بازی می سازم: set.seed(1) N <- 10000 # پیش بینی x1 <- runif(N) x2 <- runif(N ) x3 <- runif(N) # coeffs در مدل a <- c(-2,-1) x <- -x1+2*x2+x3 # P( y ≤ i ) توسط logit داده می شود^{-1} (a[i]+x) p <- outer(a,x, function(a,x) 1/(1+exp(-a-x)) ) # محاسبه احتمالات هر دسته q <- 1 - p[2,] p[2,] <- p[2,] - p[1,]; p <- rbind(p,q); # نتیجه y <- ordered( application(p, 2, function(p) which(rmultinom(1,1,p)>0)) ) اکنون، مدل آن را با استفاده از `lrm` در بسته `rms` قرار می دهم. نیاز (rms) fit <- lrm(y~x1+x2+x3, x=TRUE,y=TRUE) > مناسب مدل رگرسیون لجستیک lrm(فرمول = y ~ x1 + x2 + x3, x = TRUE, y = TRUE) مدل Likelihood Discrimination Rank Discrim. شاخص های تست نسبت شاخص ها Obs 10000 LR chi2 1165.46 R2 0.126 C 0.664 1 2837 d.f. 3 گرم 0.779 Dxy 0.328 2 2126 Pr(> chi2) <0.0001 gr 2.178 گاما 0.329 3 5037 gp 0.147 tau-a 0.203 max |deriv| 4e-10 Brier 0.187 Coef S.E. Wald Z Pr(>|Z|) y>=2 2.1048 0.0656 32.06 <0.0001 y>=3 1.0997 0.0630 17.45 <0.0001 x1 0.8157 0.0675 x 12.09 - 0.0675 x 12.09 0.0701 -28.21 <0.0001 x3 -1.0095 0.0687 -14.68 <0.0001 من قسمت دوم نتیجه را درک می کنم: ضرایبی که در مدل قرار داده ام اینجا هستند (تقریباً با 'N = 100000' عالی است). علامت معکوس است زیرا در مدل من از ضرایب برای محاسبه شانس $\le 1$ و $\le 2$ استفاده کردم، در اینجا برعکس است، فکر می‌کنم مشکلات زیادی در آنجا وجود ندارد. با این حال ** من شاخص های تبعیض و رتبه بندی را درک نمی کنم **. میتونی کمکم کنی؟! چند اشاره؟ وقتی به اعتبارسنجی متقاطع روی می‌آوریم، اوضاع بدتر می‌شود... > اعتبارسنجی(fit, متد=متقاطع) index.orig تست آموزشی خوش‌بینی index.corrected n Dxy 0.3278 0.3278 0.3290 -0.0012 0.3291 40 R2 0.12350 -0.1260 0.1260 -0.1. 0.1313 40 رهگیری 0.0000 0.0000 -0.0072 0.0072 -0.0072 40 شیب 1.0000 1.0000 1.0201 -0.0201 1.0201 4000000000000000. 0.0056 0.0056 40 D 0.1164 0.1165 0.1186 -0.0021 0.1186 40 U -0.0002 -0.0002 -0.8323 0.8321 -0.8321 -0.8303 1106.119 406.119. -0.8342 0.9509 40 B 0.1865 0.1865 0.1867 -0.0001 0.1867 40 گرم 0.7786 0.7786 0.7928 -0.0142 0.7920 0.7920 0.0001 40720.10 10470. -0.0007 0.1478 40 Mmffff? **این چیه؟ چگونه این را تفسیر کنم؟** صفحه مرد توضیح کمی می دهد، من به این مقاله دسترسی ندارم... و احساس می کنم در اقیانوسی از پیچیدگی غرق شده ام. لطفا کمک کنید!
اعتبار متقاطع و رگرسیون لجستیک ترتیبی
23232
من به اندازه گیری یا شاخصی علاقه مند هستم که به من بگوید آیا یک منحنی محدب تر است یا مقعر در مقابل یک خط مستقیم. این منحنی در n نقطه نمونه برداری می شود و من مختصات x و y این نقاط را می دانم. خط مستقیمی که من این منحنی را با آن مقایسه می کنم، خطی است که از اولین و آخرین نقطه منحنی می گذرد. فرض کنید خط مستقیم با زاویه معینی از پایین به چپ به بالا راست باشد و اگر منحنی در سمت چپ خط مستقیم یا شمال آن (بالا) باشد، محدب است و اگر در سمت راست باشد یا جنوب (پایین) مقعر است. اگر این منحنی هرگز خط مستقیم را قطع نکند - پس من می توانم راهی برای مقابله با این مشکل تصور کنم، اما اگر خط مستقیم را قطع کند، در آن صورت... من در ضرر هستم. هر گونه پیشنهاد بسیار قدردانی خواهد شد.
منحنی محدب در مقابل مقعر - اندازه گیری یا شاخص
23235
من از شبکه عصبی در R برای ساخت یک NN با 14 ورودی و یک خروجی استفاده می کنم. من چندین بار شبکه را با استفاده از همان داده های آموزشی ورودی و همان معماری/تنظیمات شبکه می سازم/آموزش می دهم. پس از تولید هر شبکه، من از آن در مجموعه ای مستقل از داده های آزمایشی برای محاسبه برخی مقادیر پیش بینی شده استفاده می کنم. من متوجه شده‌ام که در هر تکرار داده‌های پیش‌بینی‌شده واریانس زیادی وجود دارد، علی‌رغم اینکه تمام ورودی‌ها (هم داده‌های آموزشی و هم داده‌های آزمایش) هر بار که شبکه را می‌سازم ثابت می‌مانند. من می‌دانم که هر بار تفاوت‌هایی در وزن‌های تولید شده در NN وجود خواهد داشت و هیچ دو شبکه عصبی یکسان نخواهند بود، اما با توجه به داده‌های مشابه، چه چیزی می‌توانم برای تولید شبکه‌هایی تلاش کنم که در هر قطار سازگارتر باشند؟ پیشاپیش برای هر نظری متشکرم
چگونه پایداری شبکه عصبی خود را بهبود بخشم؟
23231
در سیستم من از $n$ مردم می‌خواهم که به [1,5] $m$ اشیا (مثلاً فیلم‌ها) امتیاز دهند. من می‌خواهم اندازه‌ای از تطابق بین موضوعی را به دست بیاورم، یعنی میزان توافق کلی کاربران، نه فقط در مورد یک شی خاص، بلکه در مورد همه اشیاء. من می‌دانم که W کندال یک معیار کاملاً ثابت برای تطابق در رتبه‌بندی است، اما در مورد من، مردم اشیا را سفارش نمی‌دهند، بلکه امتیاز 1-5 را به خود اختصاص می‌دهند. از دیدگاه کندال، این منجر به پیوندهای زیادی می شود و کندالز W را مشکل ساز می کند. معیار مناسبی برای تطابق بین موضوعی برای _رتبه‌بندی‌ها به جای برای رتبه‌بندی‌ها چیست؟ ممنون، مولون
تطابق بین موضوعی برای رتبه‌بندی در مقابل رتبه‌بندی
11800
فرض کنید می‌خواهیم یک تحلیل رگرسیون لجستیکی (اگرچه سؤال من به طور کلی به رگرسیون‌ها مربوط می‌شود) روی نتایج ورزشی انجام دهیم تا تأثیر عوامل مختلف را بر اینکه چه کسی برنده و چه کسی می‌بازد، مشخص کند. ما اطلاعات پس زمینه ای که می خواهیم در مورد تیم ها و بازیکنان داریم و اکنون فقط به یک نمونه تصادفی نیاز داریم. بنابراین تصمیم می گیریم نتایج منتشر شده طی چند سال گذشته را به عنوان نمونه در نظر بگیریم. نمونه ای که جمع آوری می کنیم به شکل زیر است: نتیجه، تیم 1، تیم 2، ... نتیجه همیشه 0-1 یا 1-0 (بدون تساوی) است. می‌توانیم با تبدیل Result به یک متغیر باینری، آماده‌سازی داده‌ها را شروع کنیم: نتیجه = 1 اگر تیم 1 برنده شد، = 0 اگر تیم 2 برنده شد. مشکل این است که این یک رگرسیون معتبر به ما نمی دهد. دلیل آن کمی توضیح خواهد داد. یکی از مشاهدات ما این است: نتیجه = 1; تیم 1 = Man.U.; تیم 2 = چلسی این مشاهده را می توان بازنویسی کرد: نتیجه = 0; تیم 1 = چلسی; تیم 2 = Man.U. و دقیقاً همان مشاهده است و همه اطلاعات همچنان یکسان و کاملاً صحیح است. و این در واقع نتایج پسرفت ما را تغییر می دهد! یک راه سریع برای اثبات این موضوع این است که در نظر بگیریم چه اتفاقی می افتد اگر همه مشاهدات را بازنویسی کنیم تا تیم 1 همیشه برنده شود. سپس متغیر وابسته ما همیشه Result = 1 خواهد بود. بنابراین Var(Result) = 0 و تخمین پارامترهای ما همه 0 خواهد بود (البته به جز ثابت). اگر نیمی از مشاهدات را طوری برگردانیم که نیمی از زمان Result = 1 و نیمی از زمان Result = 0 و رگرسیون را بر روی آن اجرا کنیم، تخمین های غیر صفر برای پارامترهای خود خواهیم داشت. این من را آزار می‌دهد زیرا ما در حال پسرفت داده‌های یکسان هستیم، اما نتایج بسیار متفاوتی را بر اساس ترتیبی که تیم‌ها نوشته شده‌اند دریافت می‌کنیم. معتبر باشد بنابراین بهترین راه برای آماده سازی این داده ها برای تجزیه و تحلیل چیست تا بتوانیم نتایج معتبری بدست آوریم؟
چگونه باید داده های نتایج ورزشی را برای انجام یک رگرسیون لجستیک معتبر تبدیل کنیم؟
66053
به راحتی می توان با استفاده از جبر ماتریسی نشان داد که حداقل مربعات بایاس تولید می کنند. \begin{معادله} \begin{split} \text{E}[B]& = \text{E}[(X'X)^{-1}]\times\text{E}[X'Y] \ \ & = \text{E}[(X'X)^{-1}]\times\text{E}[X'(XB +\epsilon)] \\ & = \text{E}[(X'X)^{-1}]\times\text{E}[X'XB] + \text{E}[(X'X)^{-1}]\times\ text{E}[X'\epsilon] \\ & = B + \text{E}[(X'X)^{-1}]\times\text{E}[X'\epsilon] \\ \end {شکاف} \end{equation} تعصب در آخرین ترم زمانی که همبستگی بین X و e وجود دارد معرفی می‌شود. سوال من این است که چگونه بفهمیم که $\text{E}[B]$ برای برآوردگر LAD چه زمانی سوگیری خواهد داشت؟ آیا زمانی که همبستگی بین $X$ و $\epsilon$ وجود دارد، مانند حداقل مربعات، سوگیری بوجود می آید؟ یا آیا رگرسیون چندک نسبت به همبستگی بین $X$ و $\epsilon$ قوی است؟ من حدس می‌زنم که نمی‌توان آن را با استفاده از جبر ماتریسی نشان داد، زیرا تخمین‌گر LAD به صورت زیر است: \begin{align} B(\tau) = \operatorname{argmin} \text{E}[\rho(Y_i - X' B)] \end{align} و برآوردگر LAD با استفاده از جبر خطی (؟) محاسبه نمی شود. اگر درست است، پس چگونه می‌توانیم نشان دهیم که رگرسیون چندکی چه زمانی سوگیری ایجاد می‌کند؟ از شبیه سازی مونت کارلو استفاده کنید؟
چه زمانی رگرسیون چندک ضرایب سوگیری تولید می کند (اگر وجود داشته باشد)؟
111907
من سعی می کنم مجموعه داده ای را تجزیه و تحلیل کنم که در آن سه معیار بر روی بیماران در واحدهای منطقه ای وجود دارد، اما در نحوه فکر کردن به اثرات تصادفی/ثابت و گنجاندن متغیرهای کمکی در سطوح مختلف مدل مشکل دارم. **مجموعه داده** متغیر وابسته: * وجود بیماری (1=بله، 0=خیر) متغیرهای مستقل: * شاخص بیماری (1=بیماری 1، 2=بیماری 2، 3=بیماری 3) * سن بیمار * نژاد بیمار/ قومیت * جنسیت بیمار * قرار گرفتن در معرض واحد منطقه ای نمونه ای از داده های من: ArealID | شناسه بیمار | DV | DV_شاخص | سن_بیمار | بیمار_نژاد | بیمار_جنسیت | ArealExposure A | 0001 | 1 | 1 | 57 | سفید | مرد | 5 A | 0001 | 0 | 2 | 57 | سفید | مرد | 5 A | 0001 | 0 | 3 | 57 | سفید | مرد | 5 A | 0002 | 1 | 1 | 43 | سفید | زن | 5 A | 0002 | 1 | 2 | 43 | سفید | زن | 5 A | 0002 | 0 | 3 | 43 | سفید | زن | 5 A | 0003 | 0 | 1 | 60 | مشکی | مرد | 5 A | 0003 | 0 | 2 | 60 | مشکی | مرد | 5 A | 0003 | 0 | 3 | 60 | مشکی | مرد | 5 ... | ... | ...| ... | ... | ... | ... ز | 5678 | 1 | 1 | 77 | مشکی | زن | 12 Z | 5678 | 1 | 2 | 77 | مشکی | زن | 12 Z | 5678 | 1 | 3 | 77 | مشکی | زن | 12 Z | 5679 | 1 | 1 | 70 | سفید | زن | 12 Z | 5679 | 0 | 2 | 70 | سفید | زن | 12 Z | 5679 | 1 | 3 | 70 | سفید | زن | 12 Z | 5680 | 0 | 1 | 64 | اسپانیایی | مرد | 12 Z | 5680 | 1 | 2 | 64 | اسپانیایی | مرد | 12 Z | 5680 | 0 | 3 | 64 | اسپانیایی | مرد | 12 توجه داشته باشید که مواجهه ناحیه ای در هر واحد منطقه ای یکسان است و سن، نژاد و جنس بیمار در هر بیمار یکسان است. **مشخصات مدل** من سعی می کنم مدل خود را با استفاده از تابع 'glmer' در بسته 'lme4' در R مشخص کنم. از آنجایی که من چندین مشاهدات در هر بیمار و چندین بیمار در هر واحد منطقه ای دارم، مدل خود را به صورت زیر مشخص می کنم: m1 <- glmer(DV ~ DV_Indicator + Patient_Age + Patient_Race + Patient_Sex + Areal Exposure + (1 | ArealID/PatientID)، data=mydata، family=binomial) اگر نحو را به درستی درک کنم، این مدل باید هم برای بیماران و هم برای واحدهای منطقه ای دارای رهگیری های تصادفی باشد، اما مطمئن نیستم که متغیرها را به درستی وارد کرده باشم، زیرا به نظر می رسد همه آنها در سطح بیماری (به جای بیمار یا واحد منطقه ای) گنجانده شود. روشی که من فکر کردم برای نشان دادن اینکه هر متغیر در کدام سطح باید گنجانده شود به این صورت بود: m2 <- glmer(DV ~ DV_Indicator + (1 + سن بیمار + نژاد_ بیمار + جنسیت_ بیمار | شناسه بیمار) + (1 + قرار گرفتن در معرض_منطقه | شناسه منطقه ای)، داده=mydata ، خانواده = دوجمله ای) اما من فکر می کنم این در واقع شامل این اصطلاحات به عنوان شیب های تصادفی است(؟). من در یافتن نمونه های واضح از این مشکل داشتم زیرا به نظر می رسد بسیاری از افراد با استفاده از بسته های دیگر با 'lme4' ترکیب می کنند
تعیین سطوح متغیر در اندازه گیری های مکرر چندسطحی در R با استفاده از lme4
67329
من در یک مشکل تحقیقاتی گیر کرده ام و نمی دانم از چه نوع روش هایی استفاده کنم. امیدوارم افراد حاضر در این انجمن بتوانند ایده های خوبی به من بدهند، من همیشه جلسات طوفان فکری خوبی در اینجا داشته ام. مشکل من این است که من یک لیزر و یک پشته از لایه های نازک دارم که از سه ماده مختلف تشکیل شده است. اگر لیزر را روی این لایه‌های نازک شلیک کنم، یک تصویر دایره‌ای از نور بازتابیده شده از پراکندگی لیزر روی فیلم‌ها دریافت می‌کنم. با این حال، لایه چهارم اضافه می شود و من می خواهم تغییر ضخامت لایه چهارم را اندازه گیری کنم، به طور مشابه با شلیک لیزر به این پشته. سه لایه پایینی دیگر پارامترهای آزاردهنده هستند، اما تغییرات ضخامت آنها نیز در تصویر مردمک مشاهده می شود. چگونه می توانم تصویر مردمک مشاهده شده را فیلتر کنم تا اطلاعات سه پشته پایه حذف شود و فقط تغییرات پشته بحرانی چهارم گرفته شود؟ من 1000 مجموعه دارم (1000 برای 3 پشته و 1000 برای 4 پشته) به طوری که برای هر نقطه داده، فیلم های 3 پشته و 4 پشته شرایط فرآیند یکسانی را پشت سر گذاشته اند و یک تصویر برای هر دو پشته وجود دارد. شاید به تغییر سیگنال فکر کرده ام؟ ------- ویرایش -------- هر پیکسل تصویر از مردمک پشته فیلم یک تابع غیرخطی از ضخامت ها اما شیب ها در هر پارامتر است (و همچنین تصویر در یک مقدار پارامتر خاص ) نقطه را می توان از طریق یک شبیه ساز نوری محاسبه کرد. $pix_i(i = 1...n) = f(h_1,h_2,h_3) + \epsilon_i$ که در آن $pix_i$ یک نقطه پیکسل از تصویر به دست آمده و $h1,h2,h3$ ضخامت فیلم یک پشته 3 فیلم. اکنون می توان آن را در حدود $h10,h20,h30$ به $pix_i(i=1...n) \sim f(h_{10},h_{20},h_{30}) + \frac{df} خطی کرد {dh_i}(h_i = h_{i0}) + \epsilon_i$
تزیین دو نقشه تصویری
103753
آیا منطقی است که یک تست تداعی مانند Cramér's V در جدول 1xk اعمال شود؟ من کمی متحیر هستم زیرا در ادبیات، phi و Cramér V معمولاً در جداول احتمالی 2×2 یا بزرگتر استفاده می‌شوند، اما در حالی که به دنبال اطلاعات بیشتر بودم، عبارت زیر را در ویکی‌پدیا یافتم: Cramér's V ممکن است برای خوبی نیز به کار رود. از مدل‌های مجذور کای برازش زمانی که یک جدول 1×k وجود دارد (به عنوان مثال: r=1 در این مورد k به عنوان تعداد اختیاری در نظر گرفته می‌شود). نتایج و به عنوان معیاری از تمایل به یک نتیجه واحد عمل می کند. با این حال هیچ مرجعی ارائه نشده است. نظر شما در مورد آن چیست؟ لطفاً یک مرجع کتابشناختی به من بدهید؟
یک طرفه Chi-Square goodness of fit و Cramér's V
72697
من در حال گذراندن دوره مقدماتی بیز هستم و در درک توزیع های پیش بینی کننده مشکل دارم. من درک می کنم که چرا آنها مفید هستند و با تعریف آن آشنا هستم، اما چیزهایی وجود دارد که من کاملاً درک نمی کنم. **1) نحوه بدست آوردن توزیع پیشگویانه مناسب برای بردار مشاهدات جدید** فرض کنید که یک مدل نمونه‌برداری $p(y_i | \theta)$ برای داده‌ها و یک $p(\theta)$ قبلی ساخته‌ایم. فرض کنید مشاهدات $y_i$ با توجه به $\theta$ به صورت مشروط مستقل هستند. ما برخی از داده‌های $\mathcal{D} = \{y_1, y_2, \, ... \, , y_k\}$ را مشاهده کرده‌ایم و $p(\theta)$ قبلی خود را به $p(\) بعدی به‌روزرسانی می‌کنیم. تتا |. \mathcal{D})$. اگر بخواهیم بردار مشاهدات جدید را پیش‌بینی کنیم $\mathcal{N} = \{\tilde{y}_1, \tilde{y}_2, \, ... \, , \tilde{y}_n\}$ ، من فکر می کنم ما باید سعی کنیم پیش بینی بعدی را با استفاده از این فرمول بدست آوریم $$ p(\mathcal{N} | \mathcal{D}) = \int p(\theta | \mathcal{D}) p ( \mathcal{N} | \theta) \, \mathrm{d} \theta = \int p(\theta | \mathcal{D}) \prod_{i=1}^n p(\tilde{y}_i | \theta) \, \mathrm{d} \theta، $$ که برابر با $$ \prod_{i=1}^n \int p(\theta | \mathcal{D}) نیست p(\tilde{y}_i | \theta) \, \mathrm{d} \theta, $$ بنابراین مشاهدات پیش‌بینی‌شده مستقل نیستند، درست است؟ بگو که $\theta | \mathcal{D} \sim$ بتا($a,b$) و $p(y_i | \theta) \sim$ دوجمله‌ای($n، \theta$) برای $n$ ثابت. در این مورد، اگر بخواهم 6 $\tilde{y}$ جدید را شبیه سازی کنم، اگر این را به درستی متوجه شده باشم، شبیه سازی 6 ترسیم مستقل از توزیع بتا-دوجمله ای که با پیش بینی پسین برای یک مشاهده منفرد مطابقت دارد، اشتباه است. . آیا این درست است؟ من نمی دانم چگونه تفسیر کنم که مشاهدات به طور حاشیه ای مستقل نیستند و مطمئن نیستم که این را درست درک کرده باشم. **شبیه سازی از پیش بینی های پسین** بسیاری از اوقات هنگامی که داده ها را از پیش بینی پسین شبیه سازی می کنیم، از این طرح پیروی می کنیم: برای $b$ از 1 تا $B$: 1) $\theta^{(b)}$ را از $p نمونه کنید. (\theta | \mathcal{D})$. 2) سپس داده های جدید $\mathcal{N}^{(b)}$ را از $p(\mathcal{N} | \theta^{(b)})$ شبیه سازی کنید. من کاملاً نمی دانم چگونه می توان کارکرد این طرح را ثابت کرد، اگرچه بصری به نظر می رسد. ضمنا این اسم داره؟ سعی کردم توجیهی پیدا کنم و اسم های مختلفی را امتحان کردم، اما شانسی نداشتم. **متشکرم!**
درک توزیع های پیش بینی بیزی
111909
من یک شبکه عصبی بزرگ را با ماتریس وزن اولیه که توسط RBM (ماشین محدود بولتزمن) آموخته شد، اجرا کردم، و نتیجه چیزی شبیه به این را نشان می دهد. در مجموعه داده قطار بهترین دقت: 0.79564. و بهترین فراخوان: 0.75685. بهترین f1: 0.775760 در مجموعه داده آزمایشی بهترین دقت: 0.7356. و بهترین فراخوان: 0.6568. بهترین f1: 0.69939 میدونم خیلی مشکوکه. بنابراین، من شک دارم که اگر کد را اشتباه پیاده‌سازی کنم (تمام کدهای RBM و NN توسط خودم با Matlab پیاده‌سازی شده‌اند و کتابخانه DeepLearnToolbox را به عنوان مرجع انتخاب کردم). آیا کاملاً (یا در اکثر موارد مانند احتمال 90٪) صحیح است که معیارهای دقت/ فراخوان/f1 در مجموعه قطار بهتر از مجموعه آزمایشی باشد؟ یا اینکه مبنای تئوری دارد تا ثابت کند که معیارهای ارزیابی باید/باید در مجموعه قطار بهتر باشد؟ یا فقط به نظر می رسد که کدی که من پیاده سازی کرده ام اشتباهی در آن وجود دارد؟ یا می توانید فقط به این سوال پاسخ دهید که آیا این وضعیت را دیده اید که کد صحیح است اما معیارها مانند روند معیارهای من است؟
آیا معیارهای دقیق/ فراخوان در مجموعه قطار باید بهتر از مجموعه آزمایشی باشد؟
72695
من سعی می کنم رتبه های کارشناسان را پیش بینی کنم. از آنها خواسته شد تا اطمینان را بین پنج احتمال تخصیص دهند: متغیرهای 't1' تا 't5'. من یک مجموعه آموزشی دارم که متن به من اجازه می دهد تا این احتمالات را پیش بینی کنم. آیا چیزی وجود دارد که من برای مدلی از این نوع در نظر نمی گیرم: `1 = t1 + t2 + t3 + t4 + t5`؟ اگر چندین روش طبقه بندی پیدا کنم، چگونه می توانم شواهد را ترکیب کنم؟ میانگین متغیرهای t مجموعه آموزشی: 0.2، 0.05، 0.3، 0.1، 0.35 به ترتیب. فرض کنید من با استفاده از دو روش برای یک مورد پیش‌بینی می‌کنم: روش 1: 0.1، 0.1، 0.4، 0.1، 0.3 روش 2: 0.15، 0.2، 0.15، 0.2، 0.3 من صرفاً میانگین را در نظر گرفتم، اما درست به نظر نمی‌رسد. من همچنین به‌روزرسانی‌هایی مانند: «1 - (1 - m1) * (1 - m2)» را در نظر گرفتم، اما میانگین‌ها باید در نظر گرفته شوند، به عنوان شواهدی زیر میانگین (مثلاً ترکیب 0.1 و 0.05 بالاتر از 0.1 خواهد رفت، با توجه به اینکه میانگین 0.2 است)، در حالی که این باید در جهت مخالف میانگین باشد. من اینجا چه چیزی را از دست داده ام؟ هر گونه بازخورد استقبال می شود. **ویرایش:** مورد دیگری که در نظر گرفتم این است که اندازه افکت ها را محاسبه کنم و با آن کاری انجام دهم، شاید اندازه های پایین تر را کوچک کنیم.
ترکیب شواهد از طبقه بندی مداوم
112905
امیدوارم برای این مشکل به داده ای نیاز نداشته باشید، زیرا معتقدم که من فقط یک خطای نحو احمقانه ایجاد می کنم. کد زیر: ggplot()+ geom_point(data=sites, aes(x=NMDS1, y=NMDS2, shape=group), color=grey) + geom_point(data=species, aes(x=NMDS1, y= NMDS2، color=phyla)، size=3، shape=20) + scale_colour_manual(values=Pal1) + geom_segment(data = BiPlotscores، aes(x = 0، xend = NMDS1، y= 0، yend = NMDS2)، فلش = فلش (طول = واحد (0.25، سانتی متر))، رنگ = سیاه) + geom_text( داده = BiPlotscores، aes(x = 1.1*NMDS1، y = 1.1*NMDS2، label = پارامترها، اندازه = 3) + coord_fixed()+ theme(panel.background = element_blank()) + geom_polygon(data = hulls، aes(x=NMDS1، y=NMDS2، colour=phyla، alpha = 0.2)) منجر به نتیجه زیر می شود: ![توضیح تصویر را وارد کنید اینجا](http://i.stack.imgur.com/wLv53.jpg) (این محصول نهایی نیست :)). من می‌خواهم چند ضلعی‌ها پر نشده باشند، یا خیلی ساده پر شوند. مطمئناً نمی خواهم خاکستری باشند. فیل کاری انجام نمی دهد، و ظاهراً دست و پا زدن با آلفا نیز چیزی را تغییر نمی دهد. هر ایده ای فوق العاده خوش آمدید. خیلی ممنونم! Hulls از کد زیر می آید (همانطور که در اینجا یافت می شود): #find hulls library(plyr) find_hull <- function(df) df[chull(df$NMDS1, df$NMDS2), ] hulls <- ddply(species ، phyla، find_hull)
ggplot2: geom_polygon بدون پر کردن
6746
من با یک فرآیند دو حالته با $x_t$ در $\{1, -1\}$ برای $t = 1, 2, \ldots$ کار می کنم تابع همبستگی خودکار نشان دهنده یک فرآیند با حافظه طولانی است، به عنوان مثال. یک فروپاشی قانون توان را با توان <1 نشان می دهد. می توانید یک سری مشابه را در R با: > library(fArma) > شبیه سازی کنید. x<-fgnSim(10000,H=0.8) > x<-sign(x) > acf(x) سوال من: آیا راهی متعارف برای پیش‌بینی بهینه مقدار بعدی در سری فقط با تابع همبستگی خودکار وجود دارد؟ یکی از راه‌های پیش‌بینی، استفاده از $\hat{x}(t) = x(t-1)$ است که دارای نرخ طبقه‌بندی $(1 + \rho_1) / 2$ است، که $\rho$ تاخیر است. -1 همبستگی خودکار، اما من احساس می کنم که باید با در نظر گرفتن ساختار حافظه طولانی بهتر بتوان آن را انجام داد.
پیش بینی فرآیندهای حافظه طولانی
105976
من از «Scikit-Learn» استفاده می کنم که دارای پیاده سازی «MiniBatchKMeans» است. من با ML بسیار بی تجربه هستم، بنابراین می‌پرسم چگونه (اگر راهی وجود دارد) می‌توانم «MiniBatchKMeans» را به عنوان یک الگوریتم خوشه‌بندی فازی تطبیق دهم.
تبدیل MiniBatchKMeans به فازی MiniBatchKMeans
30946
فرض کنید من اطلاعاتی در مورد میزان پولی که برای تبلیغات تلویزیونی خرج شده و کل درآمد حاصل از فروش را دارم. داده ها برای سه ماه جداگانه در دسترس است. ژانویه فوریه مارس $ خرج شده برای تبلیغات تلویزیونی 100 110 150 کل درآمد فروش 1000 1000 1500 مشکلی که من سعی در حل آن دارم این است که آیا کمپین بازاریابی (تبلیغات تلویزیونی) تأثیر قابل توجهی بر درآمد کل فروش داشته است یا خیر. در حال حاضر، من هنوز مطمئن نیستم که چگونه از نظر آزمایشات، چه تجزیه و تحلیل سری های زمانی، و غیره (پیشنهاداتی؟) ادامه دهم، اما یک مسئله دیگر در حال رخ دادن است، و آن مربوط به ادغام یا عدم ادغام داده ها است. آیا باید برای هر ماه آزمایش های جداگانه ای اجرا کنم یا داده ها را با هم جمع کنم؟ بنابراین سوال من این است: چه زمانی جمع آوری داده ها برای تجزیه و تحلیل مناسب است؟
چه زمانی جمع کردن داده ها مناسب است؟
27088
من سعی می کنم پس از برازش یک مدل با اثر مختلط (با lmer) یک تست نرمال بودن روی باقیمانده ها انجام دهم. من خواندم که تست Shapiro-Francia می تواند با داده ها با بیش از 5000 مشاهدات مقابله کند (من بیش از 8000 مشاهده دارم)، اما وقتی آن را اجرا می کنم با خطا مواجه می شوم: sf.test(resid(dat.lmer11)) خطا در sf. test(resid(dat.lmer11)): حجم نمونه باید بین 5 تا 5000 باشد. لطفاً کسی می تواند کمک کند؟
خطای تست Shapiro-Francia
6747
من می خواهم همبستگی بین دو فرآیند نقطه 1 بعدی $x$ و $y$ را اندازه گیری کنم. معمولاً می‌توانم از تابع K دو متغیره $K(t) = \frac{T}{n_xn_y} \sum_{i=1}^{n_x} \sum_{j=1}^{n_y} w(x_i,y_j استفاده کنم ) I[d(x_i,y_j)<t]$ که $n_x$ تعداد مشاهدات در $x$ و $n_y$ تعداد مشاهدات است مشاهدات در $y$. انحراف از $K(t)=t$ نشانه همبستگی بین دو فرآیند نقطه است. با این حال، تجزیه و تحلیل من با این واقعیت پیچیده است که توزیع های بدون قید و شرط فرآیندهای نقطه ای غیریکنواخت هستند. هر کدام دارای توزیع مشخصه ای از فواصل بین مشاهدات هستند که می تواند برای $x$ و $y$ متفاوت باشد. برای پیچیده‌تر کردن اوضاع، شدت‌ها در بازه زمانی متفاوت است (به عنوان مثال، شدت ممکن است در نیمه‌شب کم و در ساعات روشنایی روز بیشتر باشد). با فرض اینکه داده‌های کافی برای به دست آوردن تخمین‌های خوبی از توزیع‌های بدون قید و شرط $x$ و $y$، و نحوه تغییر شدت‌ها در طول زمان داشته باشم، آیا راهی برای در نظر گرفتن این موضوع وجود دارد؟
همبستگی دو فرآیند نقطه 1 بعدی با توزیع نامشروط غیر یکنواخت
6744
من هیچ پیش زمینه ریاضی یا آماری ندارم، بنابراین این ممکن است یک سوال احمقانه واقعی باشد. من در حال توسعه یک برنامه تخمین زمان هستم که به کاربر اجازه می دهد تخمین های بدترین و بهترین حالت خود را وارد کند و سپس یک منحنی احتمال را انتخاب کند که به نظر او واقعی به نظر می رسد. من باید نوعی منحنی را رسم کنم که مجموع آن 1 باشد، بنابراین به یک توزیع نرمال رسیدم. من مطمئن نیستم که چگونه ما تخمین های زمانی را ارائه می دهیم، اما این چیزی نیست که در مورد آن سوال است. من می خواهم کاربر بتواند انگشت خود را روی نمودار حرکت دهد، بنابراین منحنی بر این اساس خم می شود. من فرض می‌کنم که اگر پیک منحنی دنبال انگشت باشد، احساس خوبی خواهد داشت، اما سؤال زیر را دارم: آیا می‌توان منحنی توزیع نرمال را با نقطه اوج دلخواه به دست آورد؟ اگر نه، کدام منحنی برای این کار خوب است؟ **به روز رسانی:** می بینم که می توانم _μ_ را از مکان _x_ بدست بیاورم. آیا می توانم _σ_ را برای _y_ دلخواه (ترکیب با _μ_ شناخته شده) دریافت کنم؟
مشخصات منحنی توزیع را با انتخاب نقطه اوج بدست آورید؟
87935
فرض کنید که $X_1,...,X_n$ یک نمونه تصادفی iid از توزیع پواسون با میانگین $\theta$ است. من می‌خواهم ثابت کنم که هیچ تخمین‌گر بی‌طرفی برای $\frac{1}{\theta}$ وجود ندارد. برای انجام این کار، اجازه می‌دهم $\delta(X)$ تخمین‌گر $\frac{1}{\theta}$ باشد. سپس، می‌خواهم انتظار $\delta(X)$ و $\frac{1}{\theta}$ E$[\delta(X)]$ = مجموع از x=0 تا بی‌نهایت [ را برابر کنم. $\delta(x)$$P(X=x)$ ]. اکنون، مشکل من این است که برخی از کتاب‌ها اجازه می‌دهند $Y= \sum{X_i}$ و سپس دارای: E$[\delta(Y)]$ = مجموع از y=0 تا بی‌نهایت [$\delta(y)$$ P(Y=y)$]. چگونه این دو روش معادل هستند؟ چگونه است که مجموع مقدارهای X معادل X_1،...،X_n$ است؟ به عبارت دیگر، چرا $\delta(X_1,...,X_n) = \delta(Y)=\delta(\sum{X_i})$ است؟ ممنون!!!
اثبات عدم وجود برآوردگر بی طرفانه برای $\theta^{-1}$ برای Poisson Dist. چرا $X_1،...،X_n = \sum{X_i}$ است؟