_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
93816 | من یک سوال در مورد رگرسیون غیرخطی و فواصل اطمینان برای مقادیر برآورد شده از مدل دارم. مشکل من اینجاست. من مجموعهای از دادهها را دارم که در آنها X$ لگاریتم دوز یک ماده شیمیایی است و Y$$ بازخوانی پاسخ است (نرمال شده بین 0 تا 100٪). من تابع لجستیک را با استفاده از رگرسیون غیرخطی با 4 پارامتر به این داده ها برازش می کنم: $$y = A + \frac{B-A}{1+e^{-ax+b}}$$ هنگامی که $A، B را تخمین زدم، پارامترهای a،$ و $b$، من میتوانم مقدار X$ را تخمین بزنم که در آن $Y$ باید 20% باشد، این همان چیزی است که من نیاز دارم. همه چیز تا اینجا مشخص است. با این حال، چیزی برای من نامشخص است: ** چگونه می توانم فاصله اطمینان 95٪ را برای آن مقدار تخمینی X$ محاسبه کنم؟** می دانم که نرم افزاری وجود دارد که احتمالاً می تواند این کار را برای من انجام دهد، اما باید درک کنم اصل و الگوریتم خودم، چون باید آن را در کتابخانه خودم پیاده کنم. هر گونه کمکی قدردانی خواهد شد. **ویرایش** Eupraxis و Maarten عزیز، از پاسخ شما متشکریم: **@Eupraxis** - این تصویر، روشی که من توضیح شما را در مورد استفاده از فواصل پیشبینی توابع برای محاسبه 95% کران CI با مقدار X تخمین زده فهمیدم، در اینجا آمده است. آیا این همان چیزی است که شما پیشنهاد کردید (با عرض پوزش برای نقاشی های دستی)؟  اگر تابع من نتواند دوباره به صورت خطی بیان شود چه؟ من حتی مطمئن نیستم که چگونه این کار را برای منحنی لجستیک انجام دهم. لطفا نظر من را برای مارتن نیز ببینید. **@Maarten** - با تشکر از شما برای مقاله! سعی کردم آن را بخوانم، اما صادقانه بگویم که درک آن بسیار سخت بود. آنچه را که به نظر می رسد توصیف بسیار ساده تری از روش دلتا برای محاسبه فاصله پیش بینی در رگرسیون غیرخطی است: چگونه باندهای پیش بینی را برای رگرسیون غیر خطی محاسبه کنیم؟ سپس من قصد داشتم از این 95٪ PI برای محاسبه 95 CI برای x' همانطور که Eupraxis در بالا پیشنهاد کرد استفاده کنم. با این حال، یک چیز وجود دارد که من در این روش دلتا کاملاً متوجه نمی شوم. به طور خاص، همانطور که توضیح داده شد: > ابتدا، اجازه دهید G|x را تعریف کنیم، که گرادیان پارامترها در یک مقدار خاص X و با استفاده از تمام مقادیر مناسب پارامترها است. > نتیجه یک بردار با یک عنصر در هر پارامتر است. برای هر پارامتر، > به صورت dY/dP تعریف می شود، که در آن Y مقدار Y منحنی با توجه به > مقدار خاص X و تمام مقادیر پارامتر مناسب است، و P یکی از > پارامترها است.) آیا می توانید شاید آن را توضیح دهم، شاید با مثال عددی بتوانم دنبال کنم؟ بقیه الگوریتم برای من واضح است. پیشاپیش از کمک شما متشکرم، جولای | فواصل اطمینان برای مقادیر برآورد شده از مدل رگرسیون غیرخطی |
93817 | من یک دانشجوی M.Tech هستم که پروژه آکادمیک خود را انجام می دهم، در اینجا از من خواسته ام تا یک طرح بهینه و بهترین معادله را برای تطبیق داده ها برای فرآیند لیچینگ، استخراج حلال و الکترووینینگ ایجاد کنم. بنابراین، در مورد آنها یک طراحی یکنواخت، طراحی ساده، طراحی Doehlert و همچنین یک CCD را امتحان کردم. در اینجا مسئله این است که من باید از چه مدلی برای این نوع طراحی استفاده کنم، رگرسیون با من کار نمی کند، بنابراین اکنون چگونه و چه کاری باید انجام دهم، لطفاً کسی به من کمک کند. جهت هسی و آنالیز مخروطی چیست؟ | PRINCIPAL HESSAIN Direction Model چیست، چگونه و کجا می توانم از آن استفاده کنم؟ |
105192 | همانطور که متوجه شدم، دو راه برای محاسبه کندال تاو برای یک ماتریس داده $X$ (n ردیف از نقاط داده در $\mathbb{R}^p$) وجود دارد: 1. corr(X,'type','kendall' ) 2. http://www.mathworks.com/matlabcentral/fileexchange/27361-weighted-kendall-rank-correlation-matrix/content/kendalltau.m دومی خیلی خیلی سریع برای X$ کوچک (مثلا 300x400) کار می کند. اما زمانی که $X$ می گویند $100\ برابر 1000 $، حافظه آن تمام می شود. Corr() در این تنظیمات بسیار بسیار کند کار می کند. گاهی اوقات ممکن است حتی یک ساعت طول بکشد. آیا راه حل های بهتری وجود دارد؟ ایده آل در Matlab، اما شاید به زبان دیگری؟ | کندال تاو سریع در متلب (و در صورت لزوم زبان دیگر) |
53224 | من سعی می کنم با توجه به برخی متغیرهای توضیحی X1 و X2 پاسخ خود را به یک مورد نظرسنجی طبقه بندی Y بین زمان T1 و T2 تجزیه و تحلیل کنم. به طور خاص، داده ها شبیه این ID هستند Y T X1 X2 1 1 b b 2 1 2 b b 3 0 1 a a 3 0 2 a a ... تا اینجا من پاسخ را تغییر دادم متغیر Y به چهار ترکیب احتمالی Y در T1 و T2 تبدیل می شود. به طور خاص، Y_new Y_T1 Y_T2 A 0 0 B 0 1 C 1 0 D 1 1 و سپس یک مدل لاجیت چند جمله ای را با استفاده از متغیرهای X1 و X2 روی متغیر جدید اجرا کردم. آیا این یک رویکرد عملی است؟ من نگران هستم که تغییر شکل، فرض IIA را نقض کند. همچنین، آیا روش دیگری وجود دارد که برای این نوع داده ها مناسب تر باشد؟ | تجزیه و تحلیل تغییرات در یک معیار طبقه بندی مکرر |
78717 | بسیار خوب، بنابراین، در مسئله سنتی کوزه برنولی، ما یک کوزه با عدد N، احتمالاً بی نهایت، از توپ های رنگی داریم، و k رنگ ممکن وجود دارد. اون یکی رو که غر میزنم با این حال، اگر من واقعاً ندانم k چیست؟ یعنی، اگر من یک کوزه با N توپ و تعداد ناشناخته اما محدود و کاملاً مثبت از رنگهای ممکن داشته باشم، چطور؟ سوال اصلی این است که در واقع اولویت های من چه باید باشد. چه چیزی مقدم است که دقیقا یک رنگ وجود دارد؟ دقیقا دوتا؟ حداقل دو تا؟ چگونه فرکانس های نسبی هر رنگ را به روز کنم؟ آیا این مشکل حتی قابل حل است؟ اولین خط فکری من این است که یک بردار از پارامترهای $\vec \theta \in \mathbb R^\infty$ داشته باشم به طوری که اولین پارامتر تعداد رنگهای موجود در urn باشد (بیایید آن را $\alpha$ بنامیم) و باقیمانده فرکانس های نسبی هر رنگ است. اگر $P(A=n|\vec\theta)$ احتمال این باشد که رنگ قرعه کشی بعدی با توجه به دانش موجود در $\vec\theta$ n باشد، خواهیم داشت: * $\vec\theta = (\alpha, p_1, p_2, p_3, ...)$ * $\alpha \in \mathbb N^*$ * $\left(\sum\limits_{n=1}^\infty P(\alpha = n) \right)= 1$ * $\left(\sum\limits_{n=1}^\infty p_n\right) = 1$ * $\forall n > \alpha : p_n = 0$ * $\forall n \in \mathbb N^* : P(A=n|\vec\theta) = p_n$ با این حال، این فقط یک حدس و گمان وحشیانه از طرف من است. من بیشتر کنجکاو هستم که آیا این حتی در اصل قابل حل است یا خیر. چیزی که من می خواهم بدانم راهی برای محاسبه توزیع های قبلی (هدف/غیر اطلاعاتی) و پسین $P(\vec\theta)$ یا به عبارت دیگر، pdf های $P(\alpha)$, $ است. P(p_1)$، $P(p_2)$، و غیره. چگونه با آنها شروع کنیم و چگونه آنها را به روز کنیم. | تعداد نامشخص رنگ برنولی Urn |
2711 | من سعی می کنم محاسبه کنم که اندازه گیری های من در یادگیری ماشین چقدر خوب است! فرض کنید که من پنج انتخاب دارم و آن خطا 4، 2، 0.002، 3، 6 است. طبیعتا، من گزینه سوم را برای ضربه انتخاب می کنم، اما می خواهم بگویم: * من X٪ مطمئن هستم که ضربه زده است. انتخاب سوم است * من مطمئن هستم که ضربه اولین (آخرین) انتخاب است البته X>>Y اما می خواهم بدانم آیا نوعی معیار آماری برای این وجود دارد یا خیر. من همیشه می توانم متریک خود را معرفی کنم، اما علاقه مندم که آیا قبلاً برخی از آنها شناخته شده است تا بتوانم از توضیح خود اجتناب کنم و فقط به معیار خاصی مراجعه کنم؟ نزدیکترین آنها فاصله اطمینان است، اما این احتمال را به من می دهد که نتایج من در یک فاصله زمانی باشد. | خطای من چقدر خوب است؟ |
53222 | من در حال تحصیل در رشته کامپیوتر هستم اما با روش های آماری گم شده ام. الگوریتمی که من مطالعه کرده ام به یک معیار رسمی در فضای مجموعه داده ما نیاز دارد. مجموعه داده های ما را می توان به عنوان داده های رای گیری توصیف کرد. به این معنا که هر نقطه داده یک بردار حاوی +1 یا -1 به عنوان ورودی های خود است که نشان دهنده انتخاب های یک رأی دهنده برای/علیه یک تصمیم است. (ما هنوز باید تصمیم بگیریم که چگونه برای مواردی که رایدهنده رای نمیدهد، شاید فقط روی آن ورودی خاص یک صفر قرار دهیم.) چه نوع فاصلهای را باید به دادههایم تحمیل کنم تا بتوانم یک فضای متریک محدود در مجموعه دادههایمان به دست بیاورم؟ استفاده از فاصله اقلیدسی ممکن است بیش از حد باشد زیرا بردارهای ما حاوی اطلاعات هندسی زیادی نیستند. از طرف دیگر، شباهت کسینوس ممکن است فضای متریک محدودی به من ندهد. آیا متریک همبستگی (مانند آنچه که _pdist_ در Matlab استفاده می کند) کافی است؟ | متریک در داده های رای گیری |
112261 | من درخواست کردهام که حجم نمونه لازم را محاسبه کنم و بهترین راه برای کاهش هزینهها و زمان استفاده از پروتکل نمونهگیری خوشهای است، اما اطلاعات کمی دارم و تجربه زیادی در مورد نمونهگیری خوشهای ندارم. وضعیت به شرح زیر است. من 83201 نفر جمعیت دارم. من باید یک نمونه را محاسبه کنم تا سطح اطمینان 90٪ داشته باشم. جمعیت من به 5 خوشه تقسیم می شود و اندازه هر خوشه این است: خوشه 1: 22248 خوشه 2: 14692 خوشه 3: 7912 خوشه 4: 5086 خوشه 5: 33263 می خواهم بدانم چند خوشه باید انتخاب کنم و چند نفر را انتخاب کنم. از هر خوشه نمونه ای با سطح اطمینان 90 درصد اما من اطلاعات بیشتری ندارم من واریانس جمعیت ندارم... کسی میتونه کمکم کنه تا این مشکل رو حل کنم؟؟ خیلی ممنون | حجم نمونه برای نمونه خوشه ای |
63537 | سلام، من سعی می کنم میانجیگری تعدیل شده زیر را انجام دهم، اما مرحله آخر را در مورد آزمایش تفاوت بین گروه ها از دست می دهم. کد زیر تأثیرات غیرمستقیم را برای هر سطح از متغیر طبقهبندی آزمایش میکند، اما من نمیدانم چگونه میتوانم تأثیر غیرمستقیم بین دستهها را آزمایش کنم. من میخواهم اثر غیرمستقیم Spatial را روی MCUnd از طریق TotCorr آزمایش کنم که در آن Condition اثر Spatial را بر روی TotCorr تعدیل میکند. «Spatial»، «TotCorr» و «MCUnd» همگی پیوسته هستند و «Condition» با چهار دسته طبقهبندی میشود. این چیزی است که من دارم: # اکنون زمان انجام میانجیگری تعدیل شده واقعی است. ابتدا # یک مدل/شی که نشان دهنده متغیر درمان # (توانایی فضایی) به متغیر میانجی (دینامیک) بود ایجاد کردم. از آنجایی که # یک واسطه تعدیل شده است، SA با شرط در این مدل تعامل دارد medmod.fit <- lm(TotCorr ~ Spatial * Condition, data=Masters) # سپس یک مدل/شی برای اثر از واسطه # تا Y ایجاد می کنم ( نمرات درک چند انتخابی)، مجدداً، چون # یک مود شده است، متغیرها با شرط تلاقی میشوند. outmod.fit <- lm(MCUnd ~ TotCorr + Spatial * Condition + TotCorr * Condition, data=Masters) # در این مرحله من یک تحلیل کلی میانجیگری و چهار # تحلیل میانجی را اجرا می کنم که داده ها را بر اساس شرایط تقسیم می کند. این # مطابق با Tingley, Yamamoto, Koole, & Imai (2012) medmod <- mediate(medmod.fit, outmod.fit, treat = Spatial, mediator = TotCorr) medmod.cond1 <- mediate(medmod. fit، outmod.fit، treat = فضایی، واسطه = TotCorr، متغیرهای کمکی = لیست (شرایط = 1)) medmod.cond2 <- mediate(medmod.fit، outmod.fit، treat = Spatial، واسطه = TotCorr، متغیرهای کمکی = لیست (شرایط = 2)) medmod.cond3 <- mediate(medmod.fit، outmod.fit، treat = فضایی، واسطه = TotCorr، متغیرهای کمکی = لیست (شرایط = 3)) medmod.cond4 <- mediate(medmod.fit, outmod.fit, treat = Spatial, mediator = TotCorr, covariates = list(Condition = 4)) #این فقط یک خلاصه کلی است(medmod) # این خلاصه ای از اثرات میانجی برای هر یک از چهار شرط #. اگر میانجیگری تعدیل شده وجود داشته باشد، اثرات میانجی # باید در شرایط مختلف متفاوت باشد. من متوجه شدم که # اثر میانجی در شرایط 2 و 3 (اثر متوسط) وجود دارد، اما # اثر میانجی در شرایط 1 و 4 وجود ندارد. summary(medmod.cond1) summary(medmod.cond2) summary(medmod.cond3) summary(medmod .cond4) متشکرم! | میانجیگری تعدیل شده با ناظر طبقه بندی شده |
24116 | من نیاز به توضیح یک جمله ای در مورد استفاده از AIC در مدل سازی دارم. تا اینجای کار من به بیان ساده، AIC یک اندازه گیری نسبی از مقدار تغییرات مشاهده شده است که توسط مدل های مختلف محاسبه می شود و امکان تصحیح پیچیدگی مدل را فراهم می کند. هر توصیه بسیار قدردانی می شود. آر | توضیح یک جمله ای از AIC برای انواع غیر فنی |
102973 | من از رگرسیون لجستیک برای محک زدن عملکرد برخی از دانش آموزان در سال های مختلف استفاده می کنم. من یک سناریو به شرح زیر ایجاد کردم: mydata <- read.csv(http://www.ats.ucla.edu/stat/data/binary.csv) benchmark.data <- mydata[1:300,] # دانشجو فرم سال 1990-1995 به عنوان معیار compare.data <- mydata[301:400,] # دانشآموز از سال 1996 # مدل رگرسیون لجستیک ایجاد شده با استفاده از معیار نتیجه دانش آموز temp.glm <- glm(admit~gre+gpa+rank,data=benchmark.data,family=binomial) # با استفاده از مدل رگرسیون برای پیش بینی نحوه عملکرد دانش آموزان در سال 1996 compare.data [predict] <- predict(temp.glm,newdata=compare.data,type=response) # ایجاد آستانه ای که اگر شانس پیش بینی شده پذیرش > 0.5 باشد، فرض می شود که دانشجو پذیرش می شود compare.data[,predict_admit] <- ifelse(compare.data[predict]>0.5,1 ,0) table(compare.data[,c(admit,predict_admit)]) # predict_admit # admit 0 1 # 0 59 6 # 1 26 9 از جدول مشاهده می شود که 15 دانشجوی پیش بینی شده برای پذیرش و تعداد واقعی پذیرش دانشجو 35 است، بنابراین نسبت مشاهده شده / مورد انتظار '35/15=2.33' است، همانطور که هست. بزرگتر از `1`، بنابراین می گویم دانش آموزان در سال 96 عملکرد بهتری نسبت به معیار دارند. آیا می توانم با استفاده از روش ذکر شده در بالا نتیجه گیری کنم؟ علاوه بر این، چگونه باید آستانه را تنظیم کنم؟ یا باید sum(compare.data[predict]) و آن را به عنوان مقدار مورد انتظار در نظر بگیرم؟ ### به روز رسانی 1 من برای تعیین آستانه از منحنی ROC استفاده کردم: library(ROCR) benchmark.data[,predict] <- predict(temp.glm,newdata=benchmark.data,type=response) preds <- prediction(benchmark.data[predict],as.numeric(benchmark.data[admit])) نمودار (عملکرد (preds,tpr,fpr),print.cutoffs.at=seq(0,1,by=0.05)) و نمودارها نشان می دهد که آستانه 0.35 به نظر می رسد حساسیت و ویژگی را به حداکثر می رساند. | ایجاد نسبت مشاهده شده/ مورد انتظار با استفاده از رگرسیون لجستیک |
93815 | من تجربیاتی از مدل سازی سری های زمانی دارم، در قالب مدل های ساده ARIMA و غیره. اکنون دادههایی دارم که خوشهبندی نوسانات را نشان میدهند، و میخواهم سعی کنم با برازش مدل GARCH (1،1) روی دادهها شروع کنم. من یک سری داده و تعدادی متغیر دارم که فکر می کنم روی آن تأثیر می گذارد. بنابراین در شرایط رگرسیون اولیه، به نظر می رسد: $$ y_t = \alpha + \beta_1 x_{t1} + \beta_2 x_{t2} + \epsilon_t . $$ اما من در مورد نحوه پیاده سازی این مورد در یک مدل GARCH (1,1) کاملاً دچار مشکل هستم؟ من به بسته «rugarch» و «fGarch» در «R» نگاه کردهام، اما به جز نمونههایی که در اینترنت میتوان پیدا کرد، نتوانستم کار معناداری انجام دهم. | یک مدل GARCH (1،1) را با متغیرهای R مطابقت دهید |
63530 | من سعی می کنم خطای پیش بینی یک مدل coxph را که پس از انتخاب ویژگی با glmnet ساخته شده است، ارزیابی کنم. در مرحله پیش پردازش از na.omit (مجموعه داده) برای حذف NAها استفاده کردم. من تمام متغیرهای فاکتور خود را با dummies به متغیرهای باینری بازسازی کردم (با استفاده از model.matrix) سپس از glmnet lasso برای جا دادن یک مدل Cox و انتخاب بهترین ویژگیها استفاده کردم. سپس من یک مدل coxph را فقط با استفاده از این ویژگی جا دادم. وقتی سعی می کنم مدل را با استفاده از pec و بوت استرپ ارزیابی کنم، با خطا مواجه می شوم مبنی بر اینکه ماتریس پیش بینی ابعاد اشتباهی دارد. در مجموعه داده اصلی 313 متغیر وجود دارد. در مدل coxph (در کد من glmnet.cox) 313 df وجود دارد. اما وقتی pec را اجرا میکنم، ماتریس پیشبینی دارای 318 متغیر است و بنابراین با مجموعه آزمایشی که دارای 313 متغیر است (+ متغیرهای وضعیت و زمان) مطابقت ندارد. به نظر می رسد که pec در حین آموزش مجدد مدل coxph در نمونه های بوت استرپ، کاری به متغیرها انجام می دهد. من سعی کردم singular.ok=FALSE را در مدل coxph تنظیم کنم بی فایده. در اینجا خلاصه ای از متغیرهای کلیدی (قبل از تغییر ساختار برای glmnet) آمده است که به دنبال آن کدی که اجرا کردم و خطاها: > خلاصه (trainSet) وضعیت زمانی Age_at_Dx CREATININE Min. : 0.1429 دقیقه :0.0000 دقیقه :14.81 دقیقه :0.400 1st Qu.: 22.0714 1st Qu.:1.0000 Qu. 1st:52.51 1st Qu.:0.800 Median : 52.9286 Median :1.0000 Median :63.79 Median :63.79 Median:0.1906 Mean :0.900 Mean Mean :61.01 Mean :1.042 3rd Qu.:154.6071 3rd Qu.:1.0000 Qu. 3:73.01 Qu. 3:1.125 Max. حداکثر :437.7143 حداکثر: 10000 حداکثر :87.23 :6.000 Performance_Status ALBUMIN Cyto WBC Min. :0.0000 دقیقه :0.70 دقیقه : 1000 دقیقه : 0.60 1st Qu.:1.0000 1st Qu.:3.00 Qu. 1st: 4.000 Qu. 1: 3.20 Median :1.0000 Median :3.60 Median : 4.000 Median : 9.20 Mean: 9.20 Mean: 0.97 میانگین : 28.35 سوم سوم: 1.0000 سوم سوم: 4.00 سوم سوم: 11.000 سوم: 33.10 حداکثر. حداکثر : 40000 حداکثر :5.20 حداکثر : 17000 :373.00 PRKCD_pT507 HGB Maxblast CD19 Min. :-2.429605 دقیقه : 5.400 دقیقه : 0.00 دقیقه : 0.000 1st Qu.:-0.627005 Qu. 1st: 8.500 Qu. 1st:24.00 Qu. 1: 1.000 Medin :-0.013117 Median : 9.550 Median :40.00 Median :40.00 Mean : Mean : 002 9.689 Mean :43.74 Mean : 6.312 Qu. 3: 0.559782 Qu. 3:10.800 Qu. 3:65.25 Qu. 3: 5.000 Max. : 2.963658 حداکثر. حداکثر: 14.300 حداکثر :98.00 :98.000 GAPDH CD74 TP53 Fli1 Min. :-2.391021 دقیقه :-1.7902 دقیقه :-1.64244 دقیقه شماره اول Mean : 0.015759 Mean : 0.0235 Mean :-0.02285 Mean :-0.016555 Qu. 3: 0.632472 Qu. 3: 0.4759 3rd Qu.: 0.29869 0.3rd Max. : حداکثر 3.512741 حداکثر : 3.7226 حداکثر : 5.39242 : 4.415324 LDH SQSTM0 BM_BLAST CCND3 Min. : 8.4 دقیقه :-1.56639 دقیقه : 0.00 دقیقه :-2.44772 1st Qu.: 562.8 1st Qu.:-0.48762 Qu. 1st:31.00 1st Qu.:-0.59042 Median : 952.5 Median :-0.05746 Median :46.50 Mean:46.50 Mean :46.50 Mean:841- :-0.02272 Mean :50.64 Mean :-0.02506 Qu. 3: 1596.8 3rd Qu.: 0.33718 Qu. 3: 72.00 Qu. 3: 0.48353 Max. حداکثر :36708.0 : حداکثر 3.59456 حداکثر :98.00 : 3.58761 GAB2 BAX ABS_BLST PRKAA1_2 دقیقه :-3.201564 دقیقه :-3.230737 دقیقه : 0.0 دقیقه :-1.90671 1st Qu.:-0.640279 1st Qu.:-0.593174 Qu. 1: 99.8 1st Qu.:-0.66896 Median : 0.007018 Median :-0.106097 Mein :-0.106097 Mein .60113 Mein: :-0.013284 Mean :-0.007051 Mean : 15024.1 Mean :-0.03531 Qu. 3: 0.635609 Qu. 3: 0.588098 Qu. 3: 11178.0: 3rd Qu.: 11178.06 Max. حداکثر : 2.396419 : حداکثر 3.439942 :358080.0 حداکثر : 3.60037 RPS6KB1 SPP1 MAPT ARC حداقل. :-2.05490 دقیقه :-1.39728 دقیقه :-1.826101 دقیقه :-2.67081 اول اول:-0.65736 اول اول:-0.55249 اول اول:-0.573470 اول اول:-0.63908 میانه :-0.12007 میانه :-0.15156 میانه :-0.15156 میانه :-430. Mean :-0.06115 Mean : 0.02759 Mean : 0.009604 Mean :-0.01082 Qu. 3: 0.49055 Qu. 3: 0.35195 3rd Qu.: 0.495406 Max 3rd Qu. : حداکثر 3.54709 حداکثر : 4.44919 : 4.063568 حداکثر. : 2.52810 FOXO1_pT24_FOXO3_pT32 | مشکل با BootCV برای coxph در pec بعد از انتخاب ویژگی با glmnet (کند) |
108685 | من در حال خواندن الگوی تشخیص و یادگیری ماشین بیشاپ هستم. در صفحه 73، فصل 2.1. من نمی توانم فرمول 2.19 را درک کنم: $$p(x=1|\mathcal{D})=\int_0^1 p(x=1|\mu)p(\mu|\mathcal{D})\text {d}\mu $$ نویسنده میگوید، این با مجموع و قوانین محصول به دست میآید. قانون مجموع این است: $$p(X) = \sum_Y p(X,Y)$$ و قانون محصول: $$p(X,Y)=p(Y|X)p(X)$$ اما از این، من نمی توانم فرمول را استنباط کنم. میشه لطفا کمکم کنید.. خیلی ممنون | قواعد احتمال جمع و محصول |
108686 | من در حال بررسی پیشنهاد قیمت بهینه در حراجی هستم و از رگرسیون لجستیک برای پیش بینی احتمال برنده شدن در حراج با توجه به مجموعه ای از متغیرهای توضیحی (مانند قیمت پیشنهادی من، تعداد پیشنهادات رقیب و غیره) استفاده می کنم. یکی از متغیرهای توضیحی که میخواهم استفاده کنم، بالاترین قیمتی است که پرداخت شده است. با این حال، با طراحی حراج، من تنها زمانی که بالاترین پیشنهاد دهنده هستم (یعنی زمانی که در حراج برنده می شوم) دومین قیمت پرداخت شده را مشاهده می کنم. این دادههای از دست رفته یک مشکل اساسی است زیرا مجموعه داده من نشان میدهد که فقط در 20٪ مواقع یک پیشنهاد برنده وجود دارد، بنابراین من نمیدانم در 80٪ مواقع دومین قیمت پرداخت شده است. با این حال، از نظر شهودی، نمیخواهم این متغیر را کنار بگذارم، زیرا به نظر من آگاهی از دومین پیشنهاد برتر در تعیین شانس من برای برنده شدن پیشنهاد بسیار ارزشمند است. بنابراین آیا روش های استانداردی برای مقابله با این نوع داده های از دست رفته برای رگرسیون لجستیک وجود دارد؟ | چگونه می توان با داده های از دست رفته در رگرسیون لجستیک کنار آمد؟ |
68317 | من در حال انجام یک رگرسیون لجستیک هستم. با این حال، آزمون Shapiro-Wilk مشخص کرده است که یکی از متغیرهای X غیر گاوسی است. آیا متغیرهای توضیحی (X) باید گوسی باشند؟ اگر چنین است، دگرگونی های معمولی که می توان انجام داد چیست؟ | آیا متغیرهای توضیحی می توانند غیر گاوسی باشند؟ |
67094 | پوزش بابت سوال ابتدایی من در حال انجام پروژه ای در محل کارم هستم که کمی دور از چرخ من است و می خواهم ایده هایم را از کسانی که از خودم با تجربه ترند، منعکس کنم. ما از Salesforce.com در شرکت نرمافزاری که در آن کار میکنم استفاده میکنیم، و میخواهم شناسایی کنم که کدام رفتارهای سرنخ (دانلود کاغذ سفید، نمایشهای آزمایشی، حضور در وبینار، و غیره) پیشبینیکننده تبدیل آن سرنخها به فرصتهای فروش واجد شرایط هستند. ایده این است که ما میتوانیم از این دادهها برای ایجاد یک مدل استفاده کنیم، که بر اساس آن یک مدل امتیازدهی را در آینده پایهگذاری میکنیم. من بر اساس تحقیقاتم رگرسیون لجستیک باینری را با استفاده از انتخاب گام به گام به عنوان بهترین انتخاب شناسایی کرده ام. اساساً، فکر من این است که متغیر وابسته (وضعیت فرصت) باینری است (فرصت = 0، نه فرصت = 1)، که نشان می دهد رگرسیون لجستیک بهترین رویکرد خواهد بود. همچنین، مطمئن نیستم که کدام رفتارها و نقاط داده در نهایت پیشبینیکننده تبدیل شدن سرنخ به یک فرصت باشند، بنابراین انتخاب گام به گام رویکرد خوبی به نظر میرسد. آیا کسی می تواند تکنیک تحلیل مناسب تری بیاندیشد یا من در مسیر درستی هستم؟ | آیا رگرسیون لجستیک باینری انتخاب درستی است؟ |
67093 | برای اینکه ابتدا مقداری زمینه ارائه کنم، من دو نمودار جعبه دارم (نمایش صدکهای میانه، 25 و 75)، و من نمیدانم که نمودار جعبهای از تفاوت بین این دو نمودار جعبه چگونه به نظر میرسد. متغیرهای تصادفی (RV) لزوماً به طور معمول توزیع نمی شوند. به طور خاص، متغیرهای تصادفی نمونه هایی از توزیع های پسین هستند، اما من فکر می کنم سوال من در نهایت بسیار کلی است. از آنجایی که من نمونههای زیادی از این 2 RV دارم، یکی از راههای انجام این کار این است که تفاوتهای بین جفتهای تصادفی را محاسبه کنم، سپس کمیت مورد نظر را از این تفاوتها محاسبه کنیم. چون ممکن است اصطلاحات آماری من ناقص باشد، اجازه دهید این را به زبان R بگویم: X <- rnorm(10, 1000) # اولین RV، یک بردار عددی به طول 1000 Y <- rnorm(20، 1000) # RV دوم Qs <- quantile(X-Y، probs=c(0.25، 0.5، 0.75) #The چندک های تفاوت آنها با این حال، من در این فکر بودم که آیا راهی برای محاسبه چندک تفاوت بین این RVها بدون بازگشت به داده های اصلی وجود دارد، برای مثال، از ترکیبی از آمار خلاصه (میانگین، میانه، واریانس، و غیره). چندک ها و غیره) از X و Y محاسبه شده است. مثالی از چیزی که پاسخ صحیح را نمی دهد، اما ممکن است آنچه را که به دنبال آن هستم روشن کند: wrong_Qs <- quantile(X، probs=c(0.25، 0.5، 0.75)) - quantile(Y، probs=c(0.25، 0.5، 0.75)) من به دنبال چیزی شبیه فرمول های انتشار عدم قطعیت (واریانس) هستم، اما من هنوز چیزی پیدا نکردم هر چه بیشتر به این موضوع فکر می کنم، بیشتر به این فکر می کنم که راهی برای این کار وجود ندارد آنچه را که من می خواهم انجام دهید هر فکری؟ | چندک X از تفاوت بین دو RV |
68313 | من یک دسته از ویژگی ها / xs و یک دسته از اهداف ys دارم. من می خواهم یک رگرسیون خطی در این مورد اجرا کنم. نمیدانم باید هر y را برای مستقل بودن و یادگیری مدلهای رگرسیون جداگانه یا فقط یک مدل با چند هدف و xs انتخاب کنم. چه چیزی می تواند بهترین باشد؟ اگر من باید با چند ys کار کنم چگونه می توانم آن را انجام دهم؟ | سردرگمی مربوط به رگرسیون چند هدف |
67091 | اگر رگرسیون لجستیک را روی دادهها اجرا میکنید، و احتمال وقوع رویداد قبلی 50% است و هیچ اولویتی برای حساسیت یا ویژگی وجود ندارد... هنوز چه زمانی میخواهید از قطع استفاده کنید؟ میشه لطفا یک مثال بزنید تا به من که مبتدی هستم کمک کنید بفهمم؟ | رگرسیون لجستیک - برش |
67090 | من از احتمال شرطی برای یافتن این احتمال استفاده کردم که A نه A B 27 6 نه B 12 C نه C B 29 4 نه B 50 C نه C A 36 3 نه A 43 \begin{align} P(A|B) &=.81 \\ ~\\ P(B|A) &=.69 \\ ~\\ P(B|C) &=.82 \\ ~\\ P(C|B) &=.36 \\ ~\\ P(A|C) &=.92 \\ ~\\ P(C|A) &=.45 \end{align} این اعداد خیلی زیاد به نظر می رسند از نظر آماری معنی دار نباشد. آیا من می توانم از این اطلاعات نتیجه ای بگیرم که قابل توجه باشد؟ این اعداد از برهمکنش یک لیگاند با یک پروتئین به دست می آیند. هر عدد در جداول من نشان دهنده یک تماس منحصر به فرد بین نمونه و پروتئین است. موارد تکراری غیر منحصر به فرد از اتصالات وجود دارد که گاهی اوقات به 23 در هر اتم می رسد. من آنها را در نظر نمی گیرم زیرا آنها گیج کننده هستند. B استانداردی است که برای آن 33 اتم با پروتئین تعامل دارند. B غیر استاندارد است و دارای 39 نقطه تماس است. A استاندارد دیگری است که گاهی اوقات رد می شود. C ساخته شده از A به دفع A و C همیشه رد می شود. با این احتمالات من قصد دارم لیگاندهای جدیدی را شناسایی کنم که به طور قابل توجهی با B و A و موارد مشابه همپوشانی دارند و کسانی که شبیه C هستند را رد می کنند. | اهمیت آماری احتمالات مشروط |
50329 | من در حال انجام تحقیقاتی در مورد تجزیه و تحلیل عاملی هستم و به آن سد برخورد کرده ام که نمی دانم از چه عباراتی برای جستجو استفاده کنم. دارم سعی میکنم ببینم چیزی ممکنه اساسا من یک مجموعه داده با 100 متغیر عددی دارم. هر رکورد یک متغیر هدف نیز دارد که یک دسته است. هدف نهایی من اجرای knn روی این مجموعه داده است. برای کاهش ابعاد، PCA را اجرا کردم که عملکرد جزئی را افزایش داد. درک من این است که PCA مجموعه دادهها را به متغیرهایی کاهش میدهد که بیشترین واریانس را در مجموعه دادههای چند بعدی دارند. اما این روش حتی دسته ای که هر رکورد دارد را در نظر نمی گیرد. آیا روشی برای کاهش تعداد ابعاد یا شناسایی عوامل کلیدی که به طور خاص به متغیر هدف کمک می کند وجود دارد؟ این ممکن است بد بیان شده باشد (یا فقط یک سوال کاملا احمقانه ...)، بنابراین اگر منطقی نیست به من اطلاع دهید و سعی می کنم آن را روشن کنم. با تشکر | تحلیل عاملی برای متغیر هدف طبقهای |
68312 | من لیستی از سایت ها و لیستی از احتمالات بقای مرتبط با آن سایت ها را دارم. داده ها به این شکل است: احتمال سایت A 0.8 B 0.4 C 0.2 ... (در مجموع 14 سایت) آیا راهی برای آزمایش وجود دارد که آیا احتمال بقا بین سایت ها به طور قابل توجهی متفاوت است؟ چیزی که برای من مشکل است این است که فاکتور (سایت ها) دسته بندی های زیادی دارد. | نحوه آزمایش رابطه بین متغیرهای طبقه ای و عددی |
71970 | این سوال برای من اهمیت عملی ندارد، اما به هر حال: من علاقه مندم که آیا می توانیم به نحوی یک مقدار گم شده را در یک ماتریس همبستگی پیش بینی کنیم. بدیهی است که مدلسازی رگرسیون کلاسیک در اینجا مناسب نیست. آیا راه دیگری وجود دارد که چگونه می توانیم چیزی در مورد همبستگی از دست رفته بگوییم؟ علاوه بر این، آیا پاسخ به نوع همبستگی (پیرسون، اسپیرمن، کندال، MIC) بستگی دارد؟ در اینجا یک مثال (داده های واقعی، همبستگی پیرسون) آورده شده است.  ماتریس <- structure(c(1, NA, 0.126, -0.163, 0.203, 0.172, -0.101, 0.068, - 0.125، 0.066، 0.195، NA، 1، 0.019، -0.169، 0.211، 0.265، -0.023، 0.088، 0.016، 0.14، 0.275، 0.126، 0.019، 1، 0.218، 0.093، 0.094، 0.019-، 0.094، -0.01. -0.07، -0.021، 0.172، -0.163، -0.169، 0.218، 1، -0.066، -0.182، 0.302، 0.193، -0.116، -0.08، -0.151، 0.20 - 0.151، 0.20 -0.066، 1، 0.251، 0.064، 0.122، 0.093، 0.214، 0.378، 0.172، 0.265، 0.053-، 0.182-، 0.251، 1، 0.102-0.3، 0.102- 0.304، 0.101-، 0.023-، 0.189، 0.302، 0.064، 0.101-، 1، 0.652، 0.126، 0.023، 0.016-، 0.068، 0.017، 0.017، 0.019، 0.0. 0.02، 0.652، 1، 0.127، 0.01، 0.083، 0.125-، 0.016، 0.07-، 0.116-، 0.093، 0.192، 0.126، 0.127، 1، 29، 0.127، 29، 0.60. 0.14، 0.021-، 0.08-، 0.214، 0.353، 0.023، 0.01، 0.295، 1، 0.299، 0.195، 0.275، 0.172، 0.151-، 0.378-، 0.151-، 0.370- 0.083، 0.023، 0.299، 1)، .Dim = c(11L، 11L)، .Dimnames = لیست(NULL، NULL)) | آیا می توانیم مقدار همبستگی گمشده را در یک ماتریس همبستگی معین تخمین بزنیم؟ |
114889 | آیا کسی می تواند به من کمک کند تا $\int_{\alpha}^1 e^{-(c \cdot ln(1/x))^s} dx$ را ارزیابی کنم، جایی که $0 \leq \alpha \leq 1$ و $s$ واقعی است. من سعی کردم متغیرها، ادغام با قطعات و غیره را تغییر دهم و هیچ سرنخی از نحوه رسیدگی به این موضوع نداشتم. | چگونه انتگرال e^{(c ln(1/x))^s} dx را ارزیابی کنیم؟ |
93502 | من با مجموعه داده ای کار می کنم که مجموعه ای از سناتورهای ایالات متحده، آرای آنها در مورد یک لایحه آب و هوا و چندین ویژگی ایالتی را که آنها نمایندگی می کنند، توصیف می کند. یکی از متغیرها، 'imptot'، اهمیت ترکیبی **چهار صنعت** را برای اقتصاد ایالت آنها توصیف می کند. این صنایع باعث انتشار گازهای گلخانه ای می شوند و به شدت تحت تأثیر قوانین آب و هوایی قرار می گیرند. من همچنین شاخصی از **شدت کلی گازهای گلخانه ای** (GHGintensity) اقتصاد هر ایالت را دارم، به این معنی که انتشار گازهای گلخانه ای آن تقسیم بر تولید ناخالص داخلی آن است. این دو متغیر دارای همبستگی مثبت هستند. من می خواهم بدانم که تاثیر شدت گازهای گلخانه ای بر رای یک سناتور، **پس از کنترل** برای اهمیت کل این چهار صنعت چیست. به عبارت دیگر، من میخواهم بدانم که چقدر واریانس در رفتار رأیگیری را میتوان منحصراً با شدت گازهای گلخانهای توضیح داد، بدون در نظر گرفتن واریسی که با حضور این چهار صنعت خاص قابل توضیح است. من استدلال کردم که اگر من GHGintensity (dep. var.) را در imptot (indep. var.) رگرسیون کنم، **باقیمانده** این رگرسیون (متغیر جدیدی به نام GHGresiduals) واریانس GHGintensity را نشان می دهد که نمی تواند باشد. توسط imptot توضیح داده شده است. با این حال، زمانی که من رگرسیون این متغیرها را بر روی رفتار رای دادن (رای) اجرا کردم، نتایج زیر برای بخش اثرات ثابت مدل (لوجیت چند سطحی) منتج شد: برآورد Std. خطای z مقدار Pr(>|z|) (فاصله) -0.045 0.607 -0.074 0.941 imptot 0.000 0.022 0.003 0.997 impbentot 0.085 0.530 0.160 0.160 - 0.870 G0.873 -2.303 0.021 عضو 5.399 1.152 4.689 0.000 pubop 1.991 0.233 8.535 0.000 Estimate Std. خطای z مقدار Pr(>|z|) (فاصله) -0.839 0.387 -2.169 0.030 imptot -0.034 0.021 -1.622 0.105 impbentot 0.085 0.530 0.160 0.160 0.170 - 0.870Gres -2.303 0.021 Member 5.399 1.152 4.689 0.000 pubop 1.991 0.233 8.535 0.000 همانطور که می بینید، GHGintensity در مشخصات اول ضریب GHGintensity را در قسمت بعدی دارد. ضرایب ایمپت، با این حال، متفاوت بود. از آنجایی که GHGintensity و GHGresiduals متغیرهای متفاوتی هستند، انتظار این نتیجه را نداشتم. انتظار داشتم اثر شدت گازهای گلخانه ای تغییر کند، زیرا شهود من این بود که اکنون جزء این متغیر را که با ایمپتوت همبستگی داشت حذف کرده بودم. آیا این شهود نادرست بود؟ آیا برای پاسخ به سوالاتی که می پرسم باید تحلیل دیگری انجام دهم؟ چگونه باید نتایجی را که به دست آوردم تفسیر کنم و چرا ضرایب آنطور که انتظار داشتم تغییر نکردند؟ ویرایش: متأسفانه من در موقعیتی نیستم که بتوانم داده ها را به اشتراک بگذارم، اما کد R مرتبط در اینجا آمده است: dataSenate$GHGresiduals <- residuals(lm(GHGintensity~imptot,data=dataSenate)) Smodelgeo <- formula(vote ~ imptot + impbentot + GHGresiduals + Member + pubop + (1 | State) + (1 | سالنامه)) Sfitgeo <- glmer(as.formula(Smodelgeo)، dataSenate، family=binomial,na.action = na.omit) | چرا استفاده از باقیمانده ها به عنوان پیش بینی کننده ضریب را تغییر نمی دهد؟ |
30365 | من در زمینه آمار و احتمالات مبتدی هستم. امروز با موضوع جدیدی به نام انتظارات ریاضی مواجه شدم. کتابی که دنبال میکنم میگوید انتظار، میانگین حسابی هر متغیر تصادفی است که از هر توزیع احتمالی حاصل میشود. اما انتظار را محصول برخی داده ها و احتمال آن تعریف می کند. چطور ممکن است این دو یکی باشند؟ چگونه می توان بار احتمال داده ها میانگین توزیع کل باشد؟ پیشاپیش ممنون.. | چرا انتظار با میانگین حسابی یکی است؟ |
78711 | فرض کنید که من متغیری مانند 'X' با توزیع ناشناخته دارم. در Mathematica، با استفاده از تابع SmoothKernelDensity میتوانیم یک تابع چگالی تخمینی داشته باشیم. این تابع چگالی تخمینی را میتوان در کنار تابع «PDF» برای محاسبه تابع چگالی احتمال مقداری مانند «X» به شکل «PDF[density» استفاده کرد. ,X]` با فرض اینکه دانسیته نتیجه SmoothKernelDensity باشد. خوب است اگر چنین ویژگی در R وجود داشته باشد. این روش در Mathematica کار می کند http://reference.wolfram.com/mathematica/ref/SmoothKernelDistribution.html به عنوان مثال (بر اساس توابع Mathematica): data = RandomVariate[ NormalDistribution[], 100]; #100 مقدار از N(0,1) density= SmoothKernelDistribution[data]; چگالی #تخمینی PDF[density, 2.345] 0.0588784 را برمی گرداند در اینجا می توانید اطلاعات بیشتری درباره PDF بیابید: http://reference.wolfram.com/mathematica/ref/PDF.html من می دانم که می توانم تابع چگالی آن را با استفاده از `density( رسم کنم X)` در R و با استفاده از `ecdf(X)` می توانم تابع توزیع تجمعی تجربی آن را بدست بیاورم. آیا می توان این کار را انجام داد همان چیزی که در R بر اساس آنچه در مورد Mathematica توضیح دادم؟ هر گونه کمک و ایده قابل قدردانی است. | نحوه یافتن/تخمین تابع چگالی احتمال از تابع چگالی در R |
71972 | با توجه به یک سری زمانی log-return SP500، برای به دست آوردن فرآیند نوسانات چه باید کرد؟ برخی افراد می گویند که برای برداشتن سری باقیمانده باید از مدل ARMA استفاده کنیم، سپس این سری باقیمانده را به مدل GARCH وصل کنیم تا فرآیند واریانس شرطی را بدست آوریم؟ یا مستقیماً دوشاخه ورود به سیستم فرآیند ورود به سیستم SP500 را به مدل GARCH وصل کنید تا واریانس شرطی را بدست آورید؟ من دیدم که در کتاب Introduction to Time Series in R، نویسنده باقیمانده های شبیه سازی شده را در مدل GARCH برازش می کند و سپس بازده های log SP500 را در مدل GARCH برازش می دهد. گیج شدم... | چه چیزی در GARCH نصب شده است: باقیمانده یا بازگشتی؟ |
59964 | آیا کسی می تواند به من بگوید که چه زمانی و چرا از گزینه softmax=true و entropy=T استفاده کنم؟ مدلی که میخواهم بسازم دارای نتیجه باینری است و «softmax=true» تنها زمانی کار میکند که این دو نتیجه به تنهایی به عنوان دو متغیر طبقهبندی شوند. در غیر این صورت «آنتروپی=T» کار می کند. من نتوانستم در این زمینه در مستندات کمک زیادی دریافت کنم. این سوال در بسیاری از انجمن ها مطرح شده است و هنوز پاسخی دریافت نشده است. | بسته R nnet گزینه Softmax/Entropy |
71976 | چگونه مشتق جزئی cdf معمولی دو متغیره و pdf معمولی دو متغیره را با آرگومان های آن بگیرم (یعنی $x_{1}$,$x_{2}$ و $\rho$ در معادلات زیر)؟ \شروع{معادله} y=\Phi(x_{1},x_{2},\rho) \end{معادله} \begin{معادله} z=\phi(x_{1},x_{2},\rho ) \end{معادله} که در آن $x_{1}$ معمولاً با میانگین 0 و واریانس 1 و $x_{2}$ معمولاً با میانگین توزیع میشوند. 0 و واریانس 1. $\rho$ همبستگی بین $x_{1}$ و $x_{2}$ است. | مشتق جزئی cdf و pdf عادی دو متغیره |
114038 | من با یک مجموعه داده نظرسنجی کار می کنم که شامل صدها متغیر است. نرخ داده از دست رفته از 0.2٪ تا 10٪ متغیر است. به منظور حفظ واحدهای مطالعه با مقادیر گمشده و برای حفظ قدرت آماری معقول برای تجزیه و تحلیلهایم، سعی کردم با استفاده از رگرسیون متوالی (معادلات زنجیرهای) در Stata، انتساب چندگانه را انجام دهم. با این حال، با همه متغیرهای متعددی که آیتمهای گمشده در معادلات را دارند، مدلها هرگز نتوانستند به همگرایی دست یابند. روزها را صرف تعیین مجدد معادلات و گزینه های درون معادلات کردم اما همه بیهوده. در پایان، معادلات را با انتخاب تنها متغیرهایی با نرخ دادههای گمشده بالا و متغیرهایی که برای همه واحدهای مطالعه در مجموعه داده اعمال میشوند، سادهسازی کردم. این بار موفق شدم داده ها را ضرب کنم. با این حال دو سوال دارم. 1. از آنجایی که من انتساب چندگانه را با استفاده از تنها برخی از متغیرهای مجموعه داده انجام دادم، همچنان متغیرهایی با مقادیر گمشده (هرچند کوچک) وجود دارند. آیا وجود متغیرهایی با مقادیر گمشده در حین تجزیه و تحلیل دادههای مضاعف قابل قبول است؟ 2. همچنین قصد دارم تجزیه و تحلیل زیر جمعیت را انجام دهم. با این حال، به دلیل مشکل همگرایی که قبلاً بیان کردم، متغیرهایی که فقط به جمعیتهای فرعی مربوط میشوند از انتساب چندگانه من حذف میشوند. آیا انجام یک انتساب چندگانه جداگانه به زیر جمعیت مورد علاقه قابل قبول است؟ | انتساب چندگانه به بخشی از یک مجموعه داده |
68314 | من سعی می کنم برخی از ویژگی ها را با استفاده از همبستگی انجام دهم. با این حال، متوجه شدم که ویژگیهای من چندان مرتبط نیستند. بیشترین همبستگی 08/0 بود. بنابراین مطمئن نیستم که آیا این کار مفیدی است یا خیر. من سعی کردم از کمند استفاده کنم، با این حال، من تعداد زیادی ویژگی دارم و زمانی که سعی کردم از کمند استفاده کنم، تقریباً چند سال طول کشید. در مورد سایر روشهای انتخاب ویژگی مانند روشهای مبتنی بر لفاف نیز همینطور است. در چنین شرایطی باید چه کار کنم؟ | انتخاب ویژگی با استفاده از همبستگی |
59967 | من پاسخ این سوال را در اینجا دیدم اما پاسخ را متوجه نشدم. هارل استفاده از معیارهای مبتنی بر انحراف را توصیه می کند. دیوید هند (که در موضوع به آن اشاره شده است) می گوید که AUC برای مقایسه مدل های مختلف نامناسب است، زیرا از هزینه های مختلف طبقه بندی اشتباه استفاده می کند. با توجه به اینکه هر دو بر روی یک مجموعه از پیشبینیکنندهها آموزش دیدهاند، نمیدانم در مقایسه با تور کمند و الاستیک، این مورد چگونه خواهد بود. | استفاده از AUC برای مقایسه کمند لجستیک و توری الاستیک |
93503 | تصور کنید من سکه های زیادی دارم ($>100$) و برای هر سکه داده هایی دارم: $(n_{\rm heads}، n_{\rm tails})$ که در آن $\sum(n_{\rm heads}، n_{\rm tails})$ برای هر سکه بعدی کاهش می یابد. هر یک از سکه ها می تواند ناعادلانه باشد ($P({\rm head})\ne 0.5$). برخی از سکه ها ممکن است کپی دقیقی از هر سکه دیگری باشند، برخی ممکن است اینگونه نباشند. چگونه تشخیص دهم که همه سکه ها منصفانه هستند؟ | تعیین کنید که آیا بسیاری از سکه ها منصفانه هستند یا خیر |
78719 | من باید یک مدل سلسله مراتبی بیزی بسیار پیچیده را متناسب کنم و می خواهم از بسته adaptMCMC آندریاس شایدگر برای انجام نمونه برداری خلفی استفاده کنم. من فقط می توانم کتابچه راهنمای مرجع بسته adaptMCMC را پیدا کنم، که مثال مفیدی از عملکرد نمونه برداری هسته ارائه نمی کند. آیا کسی می داند که آیا آموزش مفیدتری وجود دارد؟ با تشکر | به دنبال آموزش adaptMCMC (بسته R برای نمونه گیری تطبیقی MCMC) هستید |
93506 | من سعی می کنم بفهمم چه چیزی می تواند باعث شود که این مقادیر عجیب در اعمال یک مدل Holt در یک بردار ظاهر شوند. داده ها فروش واقعی یک کالا را نشان می دهد. library(forecast) sdata<-c(1955651,1691857,1617358,1509591,1452025,1387790,1630114,3522984,3322908,2315689, برای Lo 80 Hi 80 Lo 95 Hi 95 24 6.144027e+122 6.144014e+122 6.144041e+122 6.144007e+122 6.144048e+122 25331+122 4.502199e+122 7.785866e+122 3.633064e+122 8.655001e+122 26 6.144038e+122 3.822133e+122 8.463064e+122 8.465001e+122 26. 9.695084e+122 27 6.144043e+122 3.300300e+122 8.987785e+122 1.794914e+122 1.049317e+123 این شامل تمرینی است که در آن تعداد بسیار زیادی از قالب تولید می شود. این صرفاً تلاشی برای یافتن خطاها قبل از اجرای پیشبینی در تمام دادهها است. تعدادی از رکوردها چنین رکوردهای عجیبی را ایجاد کردند. من مطمئن هستم که توضیح خوبی در پشت چرایی دیدن چنین داده هایی وجود دارد. توجه داشته باشید که دادهها قبل از اعمال مدل بر روی یک شیء ts (و نتایج مشابهی تولید میکنند) به یک شیء ts منتقل شده است. پیشاپیش متشکرم. | نتایج عجیب در پیش بینی هولت |
112486 | من در حال حاضر روی تجزیه و تحلیل سری های زمانی برای سری Y کار می کنم اما باید از دو متغیر دیگر A و B به عنوان متغیر ورودی در روش SAS proc arima استفاده کنم. اما من قادر به تفسیر نمودار همبستگی متقاطع و پارامترهای بک شیفت نیستم. BackShift 1 برای متغیر A و back Shift 2 برای متغیر B. کسی می تواند به من کمک کند که چگونه خروجی های متغیرهای ورودی را تفسیر کنم. | مدل خودرگرسیون با متغیرهای ورودی در رویه proc arima |
114881 | ما می خواهیم برای شرایط بالینی مبتنی بر رویداد، مانند میگرن یا صرع، شاخص هایی ایجاد کنیم. این شرایط با رویدادهایی مشخص می شود که می تواند با فرکانس های مختلف رخ دهد و ما می خواهیم بیماران را بر اساس فراوانی رویدادها طبقه بندی کنیم. مشکل این است که فراوانی رویدادها با طول دوره مشاهده مرتبط است. یعنی دورههای کوتاه، تغییرات زیادی در نتایج ایجاد میکنند (مثلاً یک هفته شما میتوانید 2 تشنج داشته باشید، هفته بعد هیچ تشنجی). در عوض دوره های طولانی کمتر امکان پذیر است. بنابراین من در این فکر بودم که آیا راهی برای ایجاد یک پنجره زمانی مناسب، بر اساس داده ها و ادبیات وجود دارد؟ PS: می دانم که اکنون بسیار مبهم است، اما مطمئن هستم که پاسخ ها و نظرات اولیه شما به من کمک می کند تا مشکل را در ذهنم بهتر تعریف کنم. | بهترین پنجره زمانی را برای شمارش رویدادها به منظور تولید نشانگر انتخاب کنید |
93505 | من یک سری زمانی تک متغیره متشکل از 70000 مشاهده (مصرف برق یک ساختمان) در افزایش زمان مساوی (15 دقیقه) دارم. چگونه می توانم بررسی کنم که آیا این درک کاملاً ثابت است؟ توجه داشته باشید که من فرمول فرآیند تصادفی زیربنایی را نمی دانم، بنابراین نمی توانم تابع میانگین E[x(t)] یا تابع اتوکوواریانس E[(x(t1)-m(t1))(x(t2) را محاسبه کنم. )-m(t2))] (من از تعریف ایستایی با حس گسترده/ضعیف/کوواریانس آگاهی دارم و چندین موضوع در مورد این موضوع در اینجا در Cross خوانده ام تایید شده، نزدیکترین آنها این است.) من به این نتیجه می رسم که بررسی یک مسیر نمونه برای ایستایی ضعیف به برخی از تست های اکتشافی ختم می شود. کتاب آمار مهندسی (که من آن را به دلیل رویکرد عملی آن دوست دارم) بیان می کند: > ایستایی را می توان با عبارات دقیق ریاضی تعریف کرد، اما برای هدف ما، یک سری مسطح، بدون روند، واریانس ثابت در طول زمان، یک ساختار همبستگی خودکار ثابت است. در طول زمان و بدون نوسانات دوره ای. (همچنین پاسخ را در این تاپیک مرکزی MATLAB ببینید.) اگر با این رویکرد عملی موافق هستید، نظرات/سوالات من عبارتند از: * ما به راحتی می توانیم برازش خطی انجام دهیم تا بگوییم آیا روندی وجود دارد یا خیر. ما اینجا خوب هستیم * اما چگونه ساختار خودهمبستگی ثابت را در طول زمان آزمایش کنیم؟ * و چگونه واریانس ثابت را در طول زمان بررسی کنیم؟ آیا از پنجره های متحرک استفاده می کنیم یا از پنجره های غیر همپوشانی؟ و اندازه پنجره چقدر باید باشد؟ من به دنبال چند قانون خوب برای آزمایش هستم. پیشاپیش از راهنمایی شما متشکرم و بابت طولانی بودن پست عذرخواهی می کنم. (اولین پست اینجاست.) | چگونه می توان ایستایی با حس گسترده را تنها با یک مسیر نمونه از فرآیند آزمایش کرد؟ |
89337 | درک این موضوع سخت است که فرضیه صفر در تعریف حساسیت و ویژگی در اینجا چیست؟ من دانشجوی آمار هستم و با توجه به دانش اندکم در این زمینه می توانم ببینم که فرضیه صفر در اینجا باید این باشد: $\textrm{H}_{0}:\textrm{ فرد سالم است}$ آیا این درست است؟ پیشاپیش از کمک شما متشکرم | فرضیه صفر در تعریف حساسیت و ویژگی چیست؟ |
114885 | به عنوان مثال، اسکاتلند یک نظرسنجی برای تصمیم گیری در مورد اینکه آیا آنها باید از بریتانیا مستقل باشند یا خیر، دارد. در اینجا خلاصه ای از نظرسنجی های مختلف بی بی سی است: http://www.bbc.com/news/events/scotland-decides/poll-tracker   به نظر می رسد با پیشرفت کسر نامشخص در حال کاهش است و بله جزء در حال افزایش است. به شرط زمان و اطلاعاتی که داریم آیا راه ساده ای وجود دارد که بتوانیم نتیجه را با اطمینان پیش بینی کنیم؟ | پیش بینی نظرسنجی ها |
113053 | من اطلاعاتی از 100 نفر دارم که 2AFC را تحت کنترل و تنظیمات دستکاری شده انجام می دهند. من می خواهم ابزارها را با هم مقایسه کنم. من در ابتدا از آزمون t زوجی استفاده کردم. سرپرست من متوجه شد که توزیعها نرمال نبودند و به من توصیه کرد که به جای آزمون t از آزمون U Mann-Whitney استفاده کنم. با این حال، تا آنجا که من می توانم بگویم، آزمون Mann-Whitney U اجازه داده های جفت را نمی دهد. یا این کار را می کند؟ از چه تست ناپارامتریک استفاده کنم؟ چه آزمونی آزمون t زوجی را تعمیم می دهد؟ به عبارت دیگر، من یک توزیع غیر عادی دارم و می خواهم آزمایش کنم که میانگین آن با صفر چقدر متفاوت است. | نسخه ناپارامتریک آزمون t زوجی (آزمون U Mann-Whitney) |
112481 | من در حال تلاش برای ترسیم خروجی رگرسیون مانع با یک عبارت تعاملی در R هستم، اما در انجام این کار با بخش شمارش مدل مشکل دارم. مدل <- hurdle (خودکشی. ~ سن + جنسیت + قلدری*پشتیبانی، dist = negbin، پیوند = logit) از آنجایی که من از بسته هایی که به من اجازه دهد مدل مانع را به طور کامل ترسیم کنم بی اطلاعم، تخمین زدم هر مؤلفه به طور جداگانه (لوجیت دوجمله ای و تعداد دوجمله ای منفی)، با استفاده از بسته «MASS»، و من سعی می کنم نتایج را رسم کنم. تا به حال بهترین شانس را داشته ام که از بسته visreg برای نقشه برداری استفاده کنم، اما دوست دارم پیشنهادهای دیگری را بشنوم. من توانستم خروجی لجستیک اصلی را از مدل مانع در «MASS» بازتولید و با موفقیت رسم کنم، اما نه دادههای شمارش دوجملهای منفی (یعنی تخمینهای پارامتر از «MASS» با رگرسیون مانع یکسان نیست. خروجی). من از هر بینشی در مورد اینکه دیگران چگونه نتایج رگرسیون مانع را در گذشته ترسیم کردهاند، یا اینکه چگونه میتوانم ضرایب دوجملهای منفی را که در اصل از مدل مانع با استفاده از «glm.nb()» در «MASS» به دست آمدهاند، بازتولید کنم، بسیار قدردانی میکنم. این چیزی است که من برای ترسیم دادههای خود استفاده میکنم: ##لجستیک لجستیک<-glm(SuicideBinary ~ سن + جنسیت + قلدری*پشتیبانی، داده = sx، خانواده = دوجمله) داده (sx، بسته = MASS ) ##مقیاس خطی visreg(logistic, bullying, by=support, xlab = bullying, ylab = Log odds (خودکشی بله/خیر)) ##مقیاس لجستیک/احتمال visreg(لجستیک، قلدری، توسط = حمایت، scale = پاسخ، xlab = قلدری، ylab = P(تلاش اولیه)) ##Count model NegBin<-glm.nb(خودکشی. ~ سن + جنسیت + قلدری*پشتیبانی، داده = sx) data(sx، package = MASS) ##مقیاس خطی visreg(NegBin، قلدری، توسط = حمایت، xlab = قلدری، ylab = شمارش مدل (تعداد اقدام به خودکشی)) # #مقیاس لجستیک/احتمال visreg(NegBin، قلدری، توسط = حمایت، scale = response، xlab = قلدری، ylab = P (تلاش های بعدی)) | رسم خروجی رگرسیون مانع |
31014 | من یک آزمون تی زوجی را برای تعیین میانگین تفاوت بین قبل و بعد از مداخله یکی از متغیرهای مطالعه خود اجرا کردم. با این حال، آزمایش اجرا نشد زیرا خروجی SPSS نشان داد که همبستگی و t را نمی توان محاسبه کرد زیرا خطای استاندارد تفاوت 0 است. برای بدست آوردن p-value اختلاف میانگین برای آن متغیر چه باید بکنم؟ | وقتی خطای استاندارد اختلاف صفر است، چگونه آزمون t نمونه زوجی را انجام دهیم؟ |
112484 | بنابراین من یک سری نسبت ها را به مدت 7 هفته به صورت هفتگی انجام می دهم. این مطالعه ای است که نشان می دهد عنکبوت ها با چه راهی روبرو بودند. به عنوان مثال، در هفته اول، 20 عنکبوت رو به بیرون بودند، و 10 عنکبوت رو به داخل بودند. جمعیت عنکبوت های نمونه برداری شده هر هفته یکسان بود و بنابراین آنها واقعا مستقل نیستند. میدانم که میتوانید برای مثال یک مجموعه از نسبتها، یک آزمایش دوجملهای انجام دهید، اما آیا راهی برای آزمایش در کل دوره وجود دارد؟ من به نوعی با R آشنا هستم. | چگونه می توانم آزمایشی برای نسبت ها انجام دهم وقتی داده ها به صورت هفتگی از همان جمعیت عمومی جمع آوری شده اند؟ |
30361 | فقط میخواهم بدانم که آیا میتوان یک سری زمانی تک متغیره را خوشهبندی کرد، مثلاً برای تشخیص ناهنجاریها؟ و آیا نسخه آنلاینی برای کد denstream در متلب دارید؟ * * * اینجا سری زمانی > > است +0003;+0004;+0004;+0005;+0004;+0004;+0004;+0003;+0003;+0004;+000 3;+0002;+0004;+0002;+0002;+0002;+0002;+0002;+0002;+0005;+0004;+00 04;+0004;+0004;+0004;+0004;+0004;+0004;+0004;+0004;+0004;+0005;+0 004;+0004;+0004;+0004;+0003;+0003;+0000;+0002;+0004;+0002;+0004;+ 0004;+0004;+0004;+0003;+0003;+0004;+0003;+0002;+0000;+0003;+0002 ;+0003;+0002;+0002;+0002;+0002;+0002;+0003;+0002;+0002;+0003;+000 0;+0003;+0003;+0002;+0003;+0002;+0003;+0002;+0004;+0004;+0004;+00 03;+0004;+0004;+0004;+0004;+0004;+0005;+0004;+0002;+0003;+0002;+0 005;+0004;+0003;+0003;+0001;+0005;+0003;+0003;+0005;+0005;+0004; +0005;+0002;+0005;+0005;+0006;+0005;+0005;+0004;+0003;+0003;+0005 ;+0002;+0002;+0001;+0003;+0004;+0002;+0002;+0002;+0001;+0001;+000 3;+0004;+0004;+0004;+0005;+0004;+0005;+0002;+0002;+0005;+0003;+00 02;+0003;+0002;+0001;+0002;+0003;+0005;+0004;+0005;+0004;+0004;+0 003;+0003;+0004;+0005;+0003;+0004;+0005;+0004;+0005;+0003;+0003;+ 0005;+0005;+0005;+0003;+0002;+0004;+0004;+0004;+0005;+0005;+0004; +0005;+0005;+0004;+0004;+0003;+0003;+0005;+0005;+0005;+0005;+0004 * * * ابتدا باید @IrishStat، که باید از تکنیک داده کاوی برای خوشه بندی استفاده کنم، نمونه ای از مجموعه داده های سری زمان در این ارائه شده است:  چیزی که من اکنون از آن استفاده می کنم، یک خوشه بندی پایه چگالی است، بگذارید بگوییم که من Dbscan را برای پخش نقاط سری زمانی تطبیق داده ام و باید تشخیص دهد. ناهنجاریها و تغییرات هر بار، پس از معرفی شما، سعی میکنم با تصاویر برای شما توضیح دهم که چه کار میکنم، با تشکر از شما، نمونه سری دادههای زمانی: [,1] V1 3.0 V2 4.0 V3 4.5 V4 5.0 V5 4.0 V6 4.0 V7 4.4 V8 3.0 V9 3.0 V10 4.0 V11 3.0 V12 2.0 V13 4.0 V14 2.0 V15 2.0 V16 2.0 V17 2.0 V18 2.0 V19 2.0 ..... به همین ترتیب | خوشه بندی تک متغیره سری های زمانی |
31019 | یک رگرسیون یک رابطه خطی قوی بین سن خودرو (بر حسب ماه اندازهگیری شده) و کاهش قیمت آن نسبت به نو نشان داد. دوست شما این ارقام را می بیند و فکر می کند که می تواند ماشین خود را با قیمتی که از این تحلیل رگرسیون بدست می آید بفروشد. به او چه می گویید؟ | آیا باید از یک خط رگرسیون برای پیش بینی کاهش قیمت فروش خودروی جدید از عصر خودرو برای تعیین قیمت خودروی دست دوم استفاده کنید؟ |
112483 | من یک دانشجوی کارشناسی ارشد هستم، مطالعه ادراک لهجه را انجام می دهم، این اولین بار است که از SPSS استفاده می کنم! من آزمایشهای فوق را روی دادههایم انجام میدهم، جایی که شرکتکنندگان من از مقیاس لیکرت برای تجزیه و تحلیل ویژگیهای شخصیتی 2 چهره تولید شده توسط سخنرانان دوون استفاده کردند. به همین دلیل، برخی از پاسخ های من ناشناخته هستند یا گاهی اوقات شرکت کنندگان نمی دانم را به عنوان پاسخ قرار داده اند. سوال من این است که آیا پاسخ هایی مانند این به عنوان مقادیر گمشده در داده های من به حساب می آیند؟ همچنین، آیا دستور خاصی در SPSS وجود دارد که اطمینان حاصل کند که موارد را به صورت زوجی حذف کنید یا این یک چیز خودکار است؟ همچنین، برای تنظیم مجموعه داده های خود در SPSS، قبل از کپی کردن آنها در SPSS، داده های خود را در اکسل سفارش داده ام. برای هر متغیر وابسته، به عنوان مثال کلاس درک شده من 4 سخنران دارم که 2 ظاهر مجزا تولید می کنند و فکر می کنم ساده ترین راه برای اطمینان از اینکه نمره من برای آزمون خی دو برای آزمون استقلال بالای 5 است این است که به سادگی تمام نمرات به ازای هر شرکت کننده برای هر چهره را اضافه کنم. ، هر 4 نمره کلاس درک شده شرکت کننده 1 برای 2 صورت و غیره... کتاب درسی روانی که استفاده می کنم امتیاز 99 را پیشنهاد می کند. یا 999 برای مقادیر از دست رفته، بنابراین اگر من 99 را برای یک مقدار از دست رفته در اکسل قرار دهم و آن امتیازها را با هم جمع کنم، آیا روی نمرات من در اکسل تأثیر می گذارد؟ | مقادیر از دست رفته در SPSS برای تست های Chi-Square |
31015 | فرض کنید من یک مشاور هستم و می خواهم مفید بودن فاصله اطمینان را برای مشتریم توضیح دهم. مشتری به من می گوید که فواصل من خیلی زیاد است و نمی تواند مفید باشد و ترجیح می دهد از فاصله های نصف استفاده کند. چگونه باید پاسخ دهم؟ | به مشتری که فکر می کند فواصل اطمینان آنقدر زیاد است که مفید نباشد چه باید گفت؟ |
114880 | 1. آیا راه هایی برای استخراج تحلیلی گشتاورهای تابعی از گشتاورهای نمونه وجود دارد؟ به عنوان مثال، سؤال اخیر من در اینجا هنوز به طور رضایت بخشی در اینجا مورد بررسی قرار نگرفته است: پیوند 2. آیا ممان های تابعی از گشتاورهای نمونه تنها از طریق گشتاورهای توزیع نمونه به توزیع نمونه بستگی دارد؟ این مورد در سوال مرتبط است. با تشکر | راه های محاسبه ممان تابعی از گشتاورهای نمونه؟ |
4185 | در اینجا پیوندی وجود دارد که فرمول یافتن حالت داده های گروه بندی شده را توضیح می دهد. در اینجا پیوندی وجود دارد که روشی گرافیکی برای یافتن حالت داده های گروه بندی شده ارائه می دهد. سوال: لطفاً کسی توضیح دهد که چگونه فرمول با روش گرافیکی مطابقت دارد؟ فرمول یک درون یابی است اما من نمی توانم ببینم که چگونه ایده روش گرافیکی را بیان می کند. اگر کمک کند، من فرمول محاسبه میانگین داده های گروه بندی شده را درک می کنم. متشکرم. | فرمول برای یافتن حالت داده های گروه بندی شده |
112487 | فرض کنید من یک طبقهبندیکننده باینری را برای برخی از دادهها نصب کردهام و مقدار برش را تغییر میدهم، و در واقع یک منحنی ROC تولید میکنم. با دانستن نسبتهای واقعی مثبت و منفی، میتوانم نسبت دادههای طبقهبندیشده بهعنوان مثبت، یعنی $TP + FP$ برای هر قطع معین، و همچنین مقدار دقیق متناظر آن را محاسبه کنم. آیا من در تفسیر این مقادیر دقیق در رابطه با $TP + FP$ به روش زیر صحیح هستم؟ فرض کنید جمعیتی به اندازه $N$ وجود دارد که فرض می شود به طور یکسان در داده های برازش توزیع شده است. همچنین فرض کنید که من یک محدودیت برای انتخاب (یعنی طبقه بندی به عنوان مثبت) دقیقاً $n$ افراد از این جمعیت دارم. آیا مقدار دقیق متناظر این طبقهبندی محدود، دقیقاً همان مقدار مربوط به برش است که برای آن $\frac{TP + FP}{TP+FN+FP+TN} = \frac{n}{N}$ است؟ به عبارت دیگر، آیا میتوانم تغییر مقدار برش در منحنی ROC را بهعنوان بهترین طبقهبندی ممکن تفسیر کنم که تحت محدودیت طبقهبندی افراد $n$ به عنوان مثبت باشد؟ به عنوان مثال، اگر من مجبور باشم هر فرد را به عنوان مثبت طبقه بندی کنم، این باعث می شود $\frac{n}{N} = 1$، که با مقدار برش $0$ مطابقت دارد. اگر مجبور باشم نیمی از جمعیت را به عنوان مثبت طبقه بندی کنم، این نیز با مقداری برش، دقت و غیره مطابقت دارد. کمی مردد | مقادیر قطع و دقیق یک طبقه بندی کننده باینری |
82485 | من سعی دارم مجموعه داده های جمع آوری شده از شبیه سازی را با مدل های رگرسیون مختلف توضیح دهم. به نظر می رسد رگرسیون خطی قابل اجرا نیست زیرا داده های من پس از تبدیل ها همچنان مفروضات خطی بودن، نرمال بودن خطاها و غیره را نقض می کنند. باید داده ها را برای تجزیه و تحلیل تبدیل کند یا نه. با توجه به این تئوری، تاکنون متوجه شدهام که مدلهای ناپارامتریک، فرضیات کمی در مورد ساختار دادههای زیربنایی ندارند، اما برای من روشن نیست که آیا این بدان معناست که میتوانم ناپارامتریکها را بدون تغییر و تحول در دادههای اصلی خود اعمال کنم یا خیر. هر نوع اصطلاح «چند» فرضیات به چه معناست؟ متأسفانه من نتوانستم چیزی دقیق تر در این مورد پیدا کنم. سوال دیگر این است که برای مثال splines مدل را با روش حداقل مربعات استخراج می کند. چگونه ممکن است که در این مورد هیچ فرضی در مورد داده ها بر خلاف رگرسیون خطی ضروری نباشد؟ | مدل های رگرسیون ناپارامتریک و تبدیل داده ها |
30369 | من سعی می کنم تعیین کنم که مناسب ترین اولویت های غیر اطلاعاتی برای دو پارامتر یک توزیع log-normal (برای یک مدل زمان شکست تسریع شده) چیست. من با یک قبلی معمولی روی میانگین داده های ثبت شده (یا log-normal قبل از میانه) و یک قبلی عادی مستقل روی گزارش sd داده های ثبت شده (یا log-log نرمال قبل از پراکندگی کار می کردم. ). به نظر من پارامترسازی پارامتر دوم در مقیاس طبیعی پارامتر کاملاً آموزنده است، اما من در این مورد کاملاً تازه کار هستم. آیا ایده ای در مورد راه های بهتری برای نزدیک شدن به این موضوع دارید؟ | نسخه های قبلی برای مدل های log-normal |
59965 | مدل $$ Y_i^{(\lambda)} = \alpha+\beta x_i + \varepsilon_i,\qquad \varepsilon_i,\ (i=1,\ldots,n) \sim \mathrm{i.i.d.}\ N(0 را در نظر بگیرید ,\sigma^2) $$ جایی که $$ \begin{align} y_i^{(\lambda)} & = \begin{cases} \dfrac{y_i^\lambda-1}{\lambda(\operatorname{GM}(y))^{\lambda -1}} , &\text{if } \lambda \neq 0 \\ [12pt] \operatorname{GM}(y)\log{y_i} , &\text{if } \lambda = 0 \end{cases} \\[12pt] \text{and} & \operatorname{GM}(y) = (y_1\cdots y_n)^{1/n}\text{ میانگین هندسی است.} \end{align} $$ به عنوان من برآورد $\lambda$، من از مقداری استفاده میکنم که مجموع مجذور باقیماندهها را به حداقل میرساند، زمانی که $\alpha$ و $\beta$ نیز با حداقل مربعات تخمین زده شدهاند. **در یافتن یک منطقه اطمینان برای $\alpha$ و $\beta$، چگونه باید عدم قطعیت را در برآورد پارامتر Box–Cox $\lambda$ در نظر گرفت؟** | عدم قطعیت از تخمین باکس-کاکس |
105410 | به نظر من روش استاندارد برای مقابله با مشکل آزمایش اینکه آیا دو نمونه چند متغیره از داده های طبقه بندی دارای توزیع احتمال مشترک یکسانی هستند، استفاده از یک آزمون خوب بودن برازش است، مانند آزمون مجذور کای: با فرض اینکه فرکانس ها از یک نمونه (شمارش نرمال شده در هر ترکیب از متغیرها) توزیع نظری $E$ و بقیه مشاهده شده $O$، یک را تشکیل می دهند. می تواند $\chi^2=\sum\limits_{i=1}^{N} \frac{(O_i - E_i)^2}{E_i}$ را محاسبه کند. سپس، با توجه به p-value به دست آمده از توزیع احتمال کای دو، می توان گفت که آیا فرضیه صفر مبنی بر اینکه دو نمونه توزیع مشترک یکسانی دارند را می توان رد کرد. با این حال، از خودم میپرسیدم که آیا رویکردهای دیگری برای این هدف وجود دارد؟ به طور خاص، من به روشی علاقه مند می شوم که بتواند مشخص کند کدام متغیرهای طبقه بندی دورترین در این دو نمونه هستند. توصیه ای دارید؟ با تشکر | تست کنید که آیا دو نمونه طبقه بندی دارای مفصل یکسان هستند یا خیر |
34197 | من یک GLM را با یک متغیر پیوسته $X_1$، یک متغیر ساختگی $X_2$ و عبارت تعامل $X_1*X_2$ تخمین می زنم. پس از درک من، هنگام تفسیر ضریب $X_1$ باید مقدار صفر را برای $X_2$ فرض کنید، یعنی همچنین برای عبارت تعامل. اکنون یکی از همکاران پیشنهاد کرد که اگر یکی از تأثیرات اصلی را نادیده بگیرم، آنگاه تعامل یک تعامل واقعی نخواهد بود، یعنی می توانم به سادگی ضرایب هر دو را تفسیر کنم - اثر اصلی باقی مانده و عبارت تعاملی را طوری تفسیر کنم که گویی هیچ عبارت تعاملی در آن وجود ندارد. مدل من نتوانستم ادبیاتی را پیدا کنم که این دیدگاه را تأیید کند. آیا درست است؟ | تعامل دو طرفه با تنها یک اثر اصلی در مدل - آیا این یک تعامل واقعی است؟ |
103754 | من تنوعی از این سوال پرسیدم، اما میخواهم مستقیمتر صحبت کنم. دقیقاً همان مدل هموارسازی نمایی سه گانه (Holt-Winters با سطح متحرک، روند و مؤلفه فصلی) را در نظر بگیرید--- آیا می خواهید یا نه --- پارامترهای هموارسازی آلفا، بتا و گاما (تعیین وزن داده های اخیر در سطح، روند و فصلی بودن به ترتیب) ---- برای افق های پیش بینی مختلف به طور متفاوتی بهینه شود؟ ... دوره های t+1 در مقابل دوره های t+2، دوره های t+6، دوره های t+12 و غیره؟ تصور اولیه من ... بله است. ماهیت Holt-Winters این است که برای پیشبینی 6 دوره (هفته، ماه، هر چیز دیگری) - سطح فعلی را میگیرید، 6 برابر روند محاسبهشده را اضافه میکنید و در فصلی بودن آخرین دوره متناظر ضرب میکنید (یا اضافه میکنید). به نظر میرسد که یک مدل تعقیب «دادههای اخیر» در بسیاری از موارد برای افق t+1 دقیقتر و برای مدل t+6 طولانیمدت ضعیفتر است. اما، قطعاً میتوانم در این مورد اشتباه کنم. من فقط نمی بینم که این مورد در جایی مورد بحث قرار گرفته باشد، و شاید من در مورد این فرآیند بهینه سازی پارامترها شکاف هایی در دانش دارم و شاید مدل ها را بیش از حد برازش می دهم. وقتی نرمافزار تخصصی معمولاً این مقادیر را بهینه میکند --- فرض میکنم در مقابل دادههای آزمایشی یا آنچه شما دارید، MSE یا MAPE را به حداقل میرساند... آیا این نرمافزار MAPE را در برابر پیشبینیهای t+1، یا پیشبینیهای t+6، یا هر دو، به حداقل میرساند؟ یا هر افقی؟ این چیزی است که من را گیج می کند. | نیاز به وضوح در بهینهسازی آلفا، بتا، گاما در پیشبینی هموارسازی نمایی سهگانه |
111900 | من به یک سوال کلی در مورد طراحی تحقیق علاقه دارم، اما آن را در یک مثال خاص توضیح خواهم داد. فرض کنید من می خواهم تعیین کنم که آیا یک گروه از افراد ضربان قلب بالاتری نسبت به گروه دیگر دارند یا خیر. بیایید دو روش برای انجام این کار در نظر بگیریم، دو سناریو: سناریو 1: ما **یک اندازه گیری** ضربان قلب را از 5 نفر در هر یک از دو گروه دریافت می کنیم. سپس برای هر گروه می توانیم میانگین و انحراف معیار را محاسبه کنیم و با آن داده ها آزمون t را اجرا کنیم تا ببینیم که آیا گروه ها متفاوت هستند یا خیر. سناریوی 2: از هر یک از 5 نفر در هر یک از دو گروه، **چندین، مثلاً 3، اندازه گیری می کنیم، سپس 3 اندازه گیری را برای هر فرد میانگین می گیریم و از یک نقطه داده برای این فرد استفاده می کنیم. سپس مانند سناریوی 1 ادامه دهید. می خواهم بفهمم که آیا سناریوی دوم معتبر است یا خیر. چنین طراحی معمولا استفاده می شود و به نظر می رسد تغییرپذیری را نسبت به سناریوی اول کاهش می دهد. اما من بسیار نگران هستم که در سناریوی 2، ما به سادگی تنوع درون فردی را کنار می گذاریم یا نادیده می گیریم. پس آیا انجام این کار مشکلی ندارد؟ هزینه این کار چقدر است؟ آیا این می تواند به نتیجه گیری های نادرست (مثبت کاذب، منفی کاذب) منجر شود؟ یا شاید نتیجه گیری باید به روشی بسیار خاص فرموله شود؟ با این روش دقیقاً چه چیزی را مشخص می کنیم؟ میانگین ضربان قلب یک فرد، در مقابل خواندن تصادفی ضربان قلب یک فرد؟ آیا این همان چیزی است که ما باید از دیدگاه بیولوژیکی به آن علاقه مند باشیم؟ با عرض پوزش، اگر سوال کاملاً واضح نیست، اما برای من نیز واضح نیست، و شاید شما می توانید من را در مسیر درست راهنمایی کنید. هر گونه فکری پذیرفته می شود. به روز رسانی: من به تازگی متوجه شدم که یک سناریوی سوم وجود دارد: به عنوان دوم شروع کنید، اما از هر اندازه گیری (نه هر فرد) به عنوان نقطه داده استفاده کنید، که تعداد مشاهدات را 3 برابر افزایش می دهد. مزایا یا محدودیت های انجام آن چیست؟ | چند اندازه گیری یک نقطه داده واحد: با تغییرپذیری چه باید کرد؟ |
58794 | من علاقه مند به استفاده از بسته R MatchIt برای پیش پردازش داده های خود برای به دست آوردن گروه های منطبق بر اساس یک متغیر درمان از پیش تعریف شده هستم. با این حال من با چند مشکل روبرو هستم. اولین مسئله این است که دادههای من علاوه بر متغیر درمان حاوی متغیرهای کمکی زیادی (تقریباً 80) هستند. بسیاری از این متغیرهای کمکی دارای مقادیر گم شده هستند و به نظر می رسد که MatchI از متغیرهای گم شده پشتیبانی نمی کند. برای کسانی از شما که از MatchIt استفاده کردهاید، رویکرد شما برای حل این مشکل چیست؟ آیا از روشهای انتساب (مثلاً بسته «موش») از NA استفاده میکنید؟ یا آیا انتخاب متغیر را برای انتخاب مهم ترین متغیرها انجام می دهید (مثلاً کمند با استفاده از «glmnet») برای انجام کاهش ابعاد +/- منتسب؟ مسئله دوم این است که من مشاهدات زیادی دارم (23000=n) که حدود 200 مورد در گروه درمان و 22800 مشاهدات باقی مانده در گروه کنترلم است. در این شرایط، کدام روش در MatchI مناسبتر است (همچنین با در نظر گرفتن سایر جنبههای دادههای من همانطور که در بالا توضیح دادم)؟ مثل همیشه از کمک بسیار سپاسگزارم. | استفاده از MatchI برای تطبیق گروه ها در یک تحلیل گذشته نگر |
4187 | سلام من دو مشکل دارم که به نظر می رسد کاندیدای طبیعی برای مدل های چند سطحی / مختلط است که من هرگز از آنها استفاده نکرده ام. سادهتر، و امیدوارم بتوانم آن را به عنوان مقدمه امتحان کنم، به شرح زیر است: دادهها مانند بسیاری از ردیفهای شکل «گروه بیرونی گروه درونی x y» به نظر میرسند که x یک متغیر عددی است که میخواهم y را رگرسیون کنم (متغیر عددی دیگر) ، هر y متعلق به یک گروه داخلی است و هر گروه درونی در یک گروه بیرونی تودرتو است (یعنی همه y در یک گروه معین گروه درونی متعلق به همان گروه بیرونی است). متأسفانه، گروه داخلی سطوح زیادی دارد (هزاران)، و هر سطح مشاهدات نسبتاً کمی از y دارد، بنابراین فکر کردم این نوع مدل ممکن است مناسب باشد. سوالات من 1. چگونه می توانم این نوع فرمول چند سطحی را بنویسم؟ 2. وقتی **lmer** با مدل مطابقت داشت، چگونه می توان از روی آن پیش بینی کرد؟ من نمونههای اسباببازی سادهتری را انتخاب کردم، اما تابع ()predict پیدا نکردم. به نظر می رسد اکثر مردم بیشتر به استنتاج علاقه مند هستند تا پیش بینی با این نوع تکنیک. من چندین میلیون ردیف دارم، بنابراین محاسبات ممکن است مشکل ساز باشد، اما همیشه می توانم آن را به صورت مناسب کاهش دهم. من برای مدتی نیازی به انجام دومی نخواهم داشت، اما ممکن است شروع به فکر کردن در مورد آن و بازی کردن با آن کنم. من داده های مشابه قبلی دارم، اما بدون x، و y اکنون یک متغیر دوجمله ای به شکل $(n,n-k)$ است. y همچنین پراکندگی بیش از حد زیادی را حتی در درون گروههای داخلی نشان میدهد. اکثر $n$ بیشتر از 2 یا 3 (یا کمتر) نیستند، بنابراین برای بدست آوردن تخمینی از میزان موفقیت هر $y_i$ من از تخمینگر انقباض دوجملهای بتا $(\alpha+k_i)/( استفاده کردهام. \alpha+\beta+n_i)$، که در آن $\alpha$ و $\beta$ توسط MLE برای هر گروه داخلی به طور جداگانه تخمین زده میشود. این تا حدودی کافی بوده است، اما پراکندگی داده ها هنوز مرا آزار می دهد، بنابراین می خواهم از همه داده های موجود استفاده کنم. از یک منظر، این مشکل آسان تر است زیرا هیچ متغیر کمکی وجود ندارد، اما از سوی دیگر طبیعت دوجمله ای آن را دشوارتر می کند. آیا کسی راهنمایی در سطح بالا (یا پایین!) دارد؟ | استفاده از lmer برای پیش بینی |
34195 | من آزمایشی را با یک سیستم آموزش الکترونیکی با استفاده از اندازه گیری های مکرر با طراحی متقاطع اجرا می کنم. سوژه ها دو ویدیو در یک صفحه وب نشان داده می شوند. در یک جلسه، یک ویژگی (جدول مطالب) فعال می شود، در حالی که جلسه دیگر یک کنترل است: C=Control F=موضوع ویژه pretest1 ویدیو 1 posttest1 pretest2 video 2 posttest2 S1 C F S2 C F S3 C F S4 F C S5 F C S6 F C مقدار آموخته شده با کم کردن نتیجه پیش آزمون از نتیجه پس آزمون اندازه گیری می شود. مشکل من این است که نمیتوانم ترتیب دو ویدیو را با متقاطع عوض کنم زیرا ویدیو 2 به دانش ویدیوی 1 نیاز دارد. اگر ویدیوها را در موضوعات جداگانه انتخاب میکردم، تنوع در استعداد، علاقه و دانش قبلی را در این زمینه معرفی میکردم. موضوعات همچنین بعید است که هر دو ویدئو دارای دشواری مساوی باشند، بنابراین دستاوردهای یادگیری در یکی را نمی توان مستقیما با دستاوردهای یادگیری در دیگری مقایسه کرد. میدانم که متقاطع این اثر را خنثی میکند و به من امکان میدهد تفاوت میانگین را به دست بیاورم، اما به نظر میرسد که من را از انجام EDA اولیه مانند نمودارهای پراکنده باز میدارد، و مطمئن نیستم که چگونه از آنجا به تجزیه و تحلیل آماری ادامه دهم. آیا کاری وجود دارد که بتوانم برای بهبود طراحی این آزمایش انجام دهم، و آیا توصیه یا منبعی در مورد اینکه چگونه در این سناریو تجزیه و تحلیل کنم، دارید؟ | شرایط آزمایشی متنوع در طرحهای اندازهگیری مکرر |
103759 | من یک جراح هستم که در تلاش برای مقایسه دو تست تشخیصی هستم که برای تشخیص آپاندیسیت استفاده می شود. دو تست تشخیصی بر روی 150 بیمار انجام شد و نتایج با استاندارد طلایی مقایسه شد. من میدانم که حساسیتها و ویژگیها را میتوان با استفاده از آزمون مربع کای مکنمارس مقایسه کرد. اما در مورد ارزش های پیش بینی کننده مثبت و منفی ... چگونه اینها را مقایسه می کنید؟ هر گونه کمکی قدردانی خواهد شد! به عنوان مثال  | چگونه ارزش اخباری مثبت و ارزش اخباری منفی دو تست تشخیصی را مقایسه کنیم؟ |
31018 | در زیر اطلاعاتی در مورد وزن قهوه (به هزار کیلوگرم) فروخته شده در دو مکان (محل 1 و مکان 2) 26.3، 26.5، 16.2، 16.2، 26.4، 16.8، 16.1، 16.9 (8 مغازه) 44.4، 44.1، 44.7، 54 آمده است. 44.8، 22.6، 36.4 (7 مغازه) 1. فاصله اطمینان 95% را برای تفاوت بین میانگین وزن قهوه فروخته شده در مکان های مختلف بیابید. 2. ترجیح می دهید کجا مغازه داشته باشید؟ چرا؟ 3 را توضیح دهید. اکنون باید ثابت کنید که آیا منطقه ترجیحی واقعاً میانگین وزن بیشتری از قهوه فروخته شده در هفته مورد نظر داشته است یا خیر. تست های مناسب را در سطوح 5% و 1% انجام دهید. | چگونه می توان فاصله اطمینان 95 درصد میانگین دو گروه را محاسبه کرد و آزمون فرضیه را با مقایسه میانگین های گروهی انجام داد؟ |
112903 | من می خواهم عملکرد طبقه بندی کننده خود را با استفاده از تست جایگشت آزمایش کنم. من می دانم چگونه یک مقدار واقعی را در برابر توزیع تهی مقادیر تولید شده با تخصیص مجدد تصادفی برچسب ها به دو کلاس خود آزمایش کنم. با این حال، در این مورد، من یک مقدار ندارم، بلکه توزیعی از عملکردها را روی دادههایی که به درستی برچسبگذاری شدهاند، ندارم، زیرا طبقهبندی را چندین بار انجام میدهم (برای استفاده از دادههای کمی متفاوت، اما همپوشانی، و تقسیم دادهها به روشهای مختلف برای آموزش/آزمایش و اعتبارسنجی متقابل). 1. آیا برای هر طبقهبندی که انجام میدهم، یک برچسبگذاری مجدد تصادفی داشته باشم تا توزیع واقعی و صفر با هر کدام 100 (یا 1000) ورودی داشته باشم؟ یا به دلایلی باید برای هر عملکرد رمزگشایی واقعی یک توزیع تهی ایجاد کنم؟ 2. چگونه می توانم تست کنم که آیا رمزگشایی من به طور قابل توجهی بهتر از توزیع تهی در این مورد است؟ با تشکر | تست جایگشت با توزیع مقادیر صحیح |
103755 | من یک مجموعه داده با دو ستون دارم که اولی به عنوان متغیر پاسخ و دومی به عنوان متغیر پیش بینی کننده استفاده می شود. با این حال، متغیر پیش بینی با مقادیر صحیح پر شده است که بسیاری از آنها صفر هستند. وقتی نقاط داده را برای متغیرهای پیش بینی کننده و پاسخ در گروه های مربوطه قرار می دهم، دیگر هیچ گروهی مقدار صفر ندارد. انجام یک رگرسیون خطی بر روی داده ها زمانی که به این شکل است، $R^2$ به طور قابل توجهی بالاتر از رگرسیون گروه بندی نشده تولید می کند. سوال من این است: اگر تغییر در $R^2$ بین مدلهای گروهبندیشده و گروهبندینشده زیاد باشد، مشکلی در روش من وجود دارد؟ آیا می توان این را با تعداد زیاد صفرها توضیح داد؟ برای ارائه یک ایده کمی بهتر از منظور من از گروه بندی داده های زیر را در نظر بگیرید: A B 0.2 0.3 0.3 2.6 4.7 6.8 7.7 4.4 A به صورت زیر گروه بندی می شود: 0 -3 4-7 با مقادیر B جدید میانگین گروه است. | رگرسیون خطی با گروه ها در مقابل نقاط - مسئله با تأثیر صفرها |
66051 | آیا عبارت استنتاج آماری فقط شامل آزمون فرضیه می شود یا شامل تخمین نقطه ای، تخمین فاصله و غیره نیز می شود. مراجع معتبر بسیار مورد قدردانی قرار خواهند گرفت. | آیا «استنتاج» شامل تخمین می شود یا فقط آزمایش؟ |
111906 | فرض کنید من یک مدل از نوع رگرسیون دارم. آیا آنها دلایل آماری و/یا اساسی هستند که شامل یک تعامل دو طرفه که شامل یک درصد و اندازه جمعیت متناظر است ** نمی باشد. یک مثال می تواند شامل تعامل بین درصد خانوارهای صاحب تلویزیون و تعداد کل خانوارها باشد. اصطلاح تعامل عملاً تعداد مطلق خانوارهایی است که تلویزیون دارند. از هرگونه نظر و ارجاع قدردانی می کنم. | تعامل بین درصد و اندازه جمعیت در یک رگرسیون |
103756 | من می دانم که این موضوع حساسی است، بنابراین با احتیاط ادامه می دهم... من در حال ساخت مدل های رگرسیون برای صدها هزار فایل داده ای هستم که فقط شامل دو ستون هستند. سنسور جمع آوری این داده ها عالی نیست و گاهی اوقات چیزهایی با اندازه گیری تداخل می کنند، بنابراین داده ها بسیار پر سر و صدا هستند. یک فایل معمولی ممکن است شامل 300 inliers و 50 outliers باشد. روشی که من در حال حاضر پیش میروم به شرح زیر است: 1. ساخت مدل رگرسیون برای محتویات دادهها (در ابتدا همه دادهها) 2. باقیماندهها را با کم کردن مدل از همه دادهها به دست آورید. 3. مقیاس باقیماندهها را محاسبه کنید. (مثلاً استفاده از STD یا MAD) 4. رد کردن (سیگما-کلیپ) همه نقاط پرت که از مقداری سیگما * مقیاس 5 بیشتر است. این فرآیند را تا زمانی تکرار کنید که دو تکرار متوالی رد شوند. هنگامی که من در تکرار دوم، مقادیر پرت را بررسی میکنم، از آن میخواهم همه دادهها از جمله مقادیر پرت را که قبلاً رد شدهاند، بررسی کند، و اگر آنها اکنون با مدل بهروز شده موافق باشند، مقادیر پرت را «لغو» میکنم. مشکل این است که گاهی اوقات به یک حلقه بی نهایت منجر می شود. اگر من یک مدل بسازم، یک نقطه را رد کنم، مدل را دوباره بسازم، آن نقطه را علامت گذاری کنم و یک نقطه دیگر را رد کنم، مدل را دوباره بسازم، آن نقطه را باز کنم و نقطه اول را دوباره رد کنم، و غیره، این روند هرگز تمام نمی شود. من می توانم آن را به گونه ای محدود کنم که فقط چند بار از پیش تعیین شده تکرار شود، اما این به نظر من یک هک است. پس راه درست برای انجام آن چیست؟ | راه مناسب برای انجام رد خودکار تکراری پرت چیست؟ |
111901 |  این مدل من است که از یک مطالعه اقتباس شده است. میخواهم بدانم که آیا میتوانم آن را فقط بهعنوان تحلیل مسیر بدون مطالعه اثر میانجی (1$\longrightarrow$ 5 اثر مستقیم و همچنین اثر غیرمستقیم) فقط با بررسی تأثیر یک اثر متغیر بر دیگری مطالعه کنم؟ من برای این منظور از amos استفاده می کنم. همه مسیرها به جز مسیر بین متغیرهای 3 و 5 مهم هستند. من باید آن را برای پایان نامه ارسال کنم و به نظر می رسد در حال حاضر میانجیگری بسیار دشوار است. | آیا این میانجیگری است یا یک راه ساده؟ |
82480 | من متغیرهای برنولی $N$ دارم، $X_1،...،X_N$ و $X_i\sim B(1، \pi_i)$، $\pi$ برای هر $X_i$ و $Y=X_1+ شناخته شده است.. .+X_N$، اکنون باید توزیع $Y$ را دریافت کنم. اگر $X_i$ و $X_j$ وقتی $i\ne j$ مستقل باشند، میتوانم از شبیهسازی استفاده کنم: 1. X1، ...، XN را از طریق توزیع آنها تولید میکنم و سپس مقدار Y را بدست میآورم. 2. مرحله 1 را برای 10000 بار تکرار کنید، و سپس می توانم Y1، ...، Y10000 را بدست بیاورم، بنابراین می توانم توزیع Y را بدانم. اما اکنون $X_i$ و $X_j$ وابسته هستند، بنابراین من نیز باید به آن توجه کنم. همبستگی را حساب کنید، با فرض اینکه $\text{cor}(X_i, X_j)=0.2$ وقتی $i\ne j$، چگونه می توانم همبستگی را وارد کنم به شبیه سازی؟ یا توزیع $Y$ را از راه های دیگر دریافت کنید؟ | نحوه بدست آوردن توزیع مجموع متغیرهای برنولی وابسته |
111902 | من در حال انجام یک آزمایش دو نمونه ای (ANOVA یک طرفه با 2 درمان) هستم، و هدف تخمین نسبت میانگین سلولی با فرض طبیعی بودن داده ها است. یک روش ساده این است که پاسخ را ثبت کنید و یک مدل $\log Y = b_0 + b_1 * X$ را برازش کنید و سپس نسبت را به صورت $R = e^{b_1}$ تخمین بزنید، با این حال، این نسبت سلول هندسی را به جای اینکه سلول حسابی یعنی. من فرض کردم که اگر یک مدل lognormal مناسب را با استفاده از gamlss در R یا PROC GLIMMIX در SAS برازش کنم، نسبت میانگین های حسابی را دریافت خواهم کرد، اما به دلایلی هر دو رویه شیب یکسانی با $\ ایجاد می کنند. ورود به سیستم رگرسیون Y$. این عجیب است زیرا وقتی من از این رویکرد با پواسون یا رگرسیون دو جمله ای منفی استفاده می کنم، نسبت میانگین های حسابی را دریافت می کنم. چه چیزی را از دست داده ام؟ با تشکر، جیمز پی اس. من فکر می کنم من منبع سردرگمی را شناسایی کردم، اما توضیحی برای آن ندارم. یک تنظیم لگ نرمال با تابع پیوند هویت این است: $\log Y_1 \sim N(b_0, \sigma^2)$ $\log Y_2 \sim N(b_0 + b_1, \sigma^2)$ که به معنای $\frac{ E[Y_2]}{E[Y_1]} = \frac{e^{b_0 + b_1 +\sigma^2/2}}{e^{b_0 + \sigma^2/2}} = e^{b_1}$ برای من، به این معنی است که $e^{b_1}$ باید تخمین نقطه ای برابر با نسبت میانگین های حسابی برای پاسخ اصلی داشته باشد. از سوی دیگر، $E[\log Y_1] = b_0$ $E[\log Y_2] = b_0 + b_1$$b_0$ به عنوان میانگین حسابی $\log Y_1$، $b_0 + b_1$ به عنوان تخمین زده میشود. میانگین حسابی $\log Y_2$. بنابراین، $e^{b_1}$ باید یک تخمین نقطه ای برابر با نسبت میانگین هندسی برای پاسخ اصلی داشته باشد، و با توجه به خروجی آن دو بسته، چنین است. کجا اشتباه کردم؟ | تخمین نسبت میانگین سلولی در ANOVA با فرض lognormal |
111908 | من یک فرمول فروپاشی نمایی منفرد را با سه پارامتر (a,b,c) برازش می کنم: y ~ $a \exp(-xb) + c$ با استفاده از تابع هزینه LAD: $ \min \sum |(y - f(x ))| $. $x$ بر حسب واحد زمان است (همانطور که $b$ است)، و $a$، $c$ بدون واحد هستند. اندازهگیریها به اندازه کافی در زمان انجام میشوند که آخرین $y$ عملاً فقط نویز ناشی از فرآیند اندازهگیری باشد. گاهی اوقات ما نقاط دادهای داریم که توسط خطاهای پراکنده خراب میشوند که به طور قطع در زمان وقوع به طور معمول توزیع نمیشوند، بنابراین استفاده از این روش روشی بسیار معقول به نظر میرسد. من یک مثال با استفاده از داده های شبیه سازی شده در زیر آورده ام:  با نادیده گرفتن پارامتر $c$، تابع هزینه دو پارامتری را به صورت گرافیکی رسم می کنم، و به راحتی می توان متوجه شد که صفحه ای از نقاط در فضای پارامتر وجود دارد که تابع هزینه را به حداقل می رساند (شکل را ببینید). من این را برای مدل سه پارامتری با جستجوی نیروی brute force در فضای پارامتر تایید کرده ام.  سوال من این است: آیا راهی وجود دارد، با توجه به داده ها، مدل و با فرض اینکه بتوانم همه موارد را پیدا کنم حداقل معقول، برای انتخاب یکی از آن مجموعه پارامترهای بهینه به عنوان مجموعه پارامتر نماینده؟ در حال حاضر من مرکز ابرصفحه (اگر این عبارت مناسب است) از پارامترهای کمینهسازی را انتخاب میکنم، و این باعث میشود تا در حدود 90 درصد موارد به راهحلهای «R -> quantreg -> nlrq» با «tau=0.5» بسیار نزدیک شوم. موارد | رگرسیون حداقل انحراف مطلق غیر خطی با حداقل های جهانی چندگانه |
103752 | فرض کنید که یک ورودی و خروجی های متناظر زیر را دارد: x1 = (a,b,c) با خروجی مربوطه y1 که یک عدد است. x2 = (d,e,?) با خروجی مجهول x3 = (?,?,g) با خروجی معلوم y2 که یک عدد و غیره است. بنابراین، منظور من از داده های ورودی ناقص فقط این نیست که برخی از داده های ورودی بدون برچسب هستند، بلکه برخی از نقاط داده از بردارهای داده خاص گم شده اند و گاهی برچسب گذاری می شوند و گاهی اوقات بدون برچسب. آیا حداقل یک الگوریتم یادگیری آنلاین نیمه نظارت شده برای این نوع داده های ورودی با شکاف وجود دارد؟ تاکنون فقط الگوریتمهایی برای یادگیری نیمه نظارتی آنلاین برای «دادههای ورودی بدون هیچ شکاف» پیدا کردهام. | یادگیری نیمه نظارتی آنلاین با داده های ورودی ناقص |
34193 | من معیارهای خطای مختلفی را دیده ام که در مسابقات Kaggle استفاده شده است: RMS، میانگین مربع، AUC، و غیره. قاعده کلی در انتخاب معیار خطا چیست، به عنوان مثال، چگونه میدانید از کدام معیار خطا برای یک مشکل معین استفاده کنید؟ آیا دستورالعملی وجود دارد؟ | چگونه یک معیار خطا را هنگام ارزیابی یک طبقهبندی انتخاب کنیم؟ |
4184 | [پست متقاطع از اینجا، متوجه شدم که این انجمن ممکن است مرتبطتر باشد] من در زمینه یادگیری ماشینی کار میکنم، و به چند مقاله برخوردم که روابط بین پایههای گروبنر و احتمال گسسته را نشان میدهد. بنابراین من برای کمک به اینجا می آیم. لطفاً توضیح دهید که چگونه می توان از پایه های گروبنر برای توصیف احتمال گسسته استفاده کرد؟ من به مبانی گروبنر نگاه کردم و مفاهیم کلی را درک کردم (و از Maple برای محاسبه چند مثال استفاده کردم). بنابراین این پیوندی است که برای من گم شده است. | چگونه می توان از پایه های گروبنر برای توصیف احتمال گسسته استفاده کرد؟ |
33712 | من یک سوال دارم که از کدام واریانس پیشبینی برای محاسبه فواصل پیشبینی از یک شیء «lm» برازش شده در R استفاده کنم. برای یک مدل رگرسیون خطی چندگانه، من یک واریانس خطا با اعتبار سنجی ترک-یک-از-متقاطع (LOOCV) به دست آوردهام. با در نظر گرفتن میانگین اختلاف مجذور بین مقادیر مشاهده شده و پیش بینی شده (یعنی میانگین مربع خطای پیش بینی). من از برخی از اشکالات LOOCV آگاه هستم (به عنوان مثال، نتایج Shao در مورد اعتبارسنجی متقاطع ترک یک خارج چه زمانی قابل اجرا هستند؟)، اما برای کاربرد خاص من، این سادهترین (و احتمالاً تنها روش واقعی CV) قابل پیادهسازی بود. مدل خطی برازش نهایی ('fitted_lm') با همه مشاهدات برازش می شود و با این مدل می خواهم برای مشاهدات جدید پیش بینی کنم ('new_observations'). برای این منظور من از تابع 'predict.lm' در R. predict استفاده می کنم (fitted_lm, new_observations, interval = prediction, pred.var = ???) سوالات من این است: * از چه مقداری برای `pred.var استفاده می کنم (به عنوان مثال، واریانس(های) مشاهدات آینده برای فواصل پیش بینی در نظر گرفته شود) تا فواصل پیش بینی واقعی برای new_observations من به دست آید؟ * آیا از واریانس خطای بهدستآمده از LOOCV استفاده میکنم یا از پیشفرض تابع استفاده میکنم (به عنوان مثال، «پیشفرض این است که فرض کنیم مشاهدات آینده همان واریانس خطای مورد استفاده برای برازش را دارند»)؟ * آیا میانگین مربعات خطای پیش بینی در این مورد مناسب نیست؟ در ادامه پاسخ مایکل چرنیک در ادامه، نگاهی به کتاب دریپر و اسمیت (1998) (تحلیل رگرسیون کاربردی. ویرایش سوم) انداختم. در این کتاب _s 2_ به عنوان واریانس در مورد رگرسیون تعریف شده است (ص 32). این همان چیزی است که در زیر به عنوان تخمین مدل واریانس باقیمانده توضیح می دهیم. علاوه بر این، این کتاب اشاره میکند: «از آنجایی که مقدار واقعی مشاهده شده _Y_ در مورد مقدار میانگین واقعی _σ > 2_ [مستقل از _V(Ŷ)_] متفاوت است، یک مقدار پیشبینیشده از یک فرد > مشاهده همچنان با _Ŷ_ داده میشود. واریانس خواهد داشت > >  > > با مقدار تخمینی مربوطه با درج _s 2_ برای _σ 2_ به دست می آید (ص 82-81). بنابراین، تا آنجا که من متوجه شدم، در کتاب D & S آنها فقط از تخمین مدل واریانس باقیمانده برای محاسبه فواصل اطمینان استفاده می کنند. این تنظیم پیشفرض در تابع «پیشبینی» خواهد بود (راهنمای تابع: «پیشفرض این است که فرض کنیم مشاهدات آینده همان واریانس خطای مشاهدات مورد استفاده برای برازش را دارند»). با این حال، همانطور که fosgen در زیر بیان میکند، اگرچه میانگین خطای پیشبینی مربعات LOOCV با خطای پیشبینی میانگین مربع واقعی برابر نیست، اما بسیار نزدیکتر به واقعی است تا واریانس خطای مدل برازش. برای ملموس تر کردن این موضوع؛ در مجموعه دادهام، یک برآورد مدل از واریانس باقیمانده «0.005998» و یک خطای پیشبینی مجذور میانگین LOOCV «0.007293» دریافت میکنم. سپس باید چه چیزی را بهعنوان «pred.var» در تابع «predict.lm» پر کنم: * هیچ چیز (یعنی استفاده از پیشفرض، که برابر با تخمین مدل واریانس باقیمانده است) * «0.007293» (یعنی میانگین LOOCV مربع خطای پیش بینی) * `0.005998 + 0.007293` (مایکل چرنیک: تخمین مدل واریانس باقیمانده به دلیل تخمین پارامترها برای بدست آوردن واریانس خطای پیشبینی برای یک مشاهده جدید به واریانس خطا اضافه میشود. | آیا باید از میانگین مربع-پیش بینی-خطای LOOCV برای فواصل پیش بینی استفاده کنم؟ |
67328 | اجازه دهید $X$ و $Y$ دو متغیر تصادفی باشند، به طوری که اطلاعات متقابل (متوسط) بسیار کوچک است: $$ 0 \le I(X;Y) \le \epsilon \ll 1$$ در این مورد، ما بگویید که $X$ و $Y$ _تقریبا_ مستقل هستند. حالا، آیا میتوانیم چیزی شبیه این استنباط کنیم: $$\forall x,y \quad \Pr[X=x,Y=y] \le \Pr[X=x]\cdot\Pr[Y=y] + \delta$ $ با $\delta$ یک تابع (احتمالا منفی) از $\epsilon$ است؟ * * * اگر حالت کلی بالا قابل اثبات نباشد، شاید بتوانیم از حالت ویژه زیر استفاده کنیم: اجازه دهید $X$ و $Y$ متغیرهای تصادفی **گسسته** باشند و مقادیر را از یک مجموعه **محدود** $D بگیریم. $ با $|D|=2^n$. علاوه بر این، اجازه دهید $\epsilon$ به صورت نمایی در $n$ کوچک باشد، مثلا $\epsilon = 2^{-n/2}$. آیا اکنون می توانیم $\delta$ را به عنوان تابعی از $\epsilon$ بدست آوریم؟ | روابط بین احتمالات تقریبا متغیرهای تصادفی مستقل |
103758 | روش معمولی برای ایجاد یک خروجی احتمالی از یک طبقه بندی کننده چند کلاسه All-vs- All یا One-Vs-All چیست؟ برای مثال، اگر مشکل من 3 کلاس دارد (Class1، Class2، Class3) و من یک طبقهبندی کننده AVA بسازم، پس من یک طبقهبندی برای: * Class1 در مقابل Class2 ($f_{12}(x)$) * Class1 در مقابل Class3 ( $f_{13}(x)$) * Class2 در مقابل Class3 ($f_{23}(x)$) سپس، طبقهبندی به سادگی به این صورت است: $$ f(x)=\text{argmax}_{i} \sum_j f_{ij}(x) $$ با این حال، ما هیچ خروجی _احتمال_ از برچسب کلاس نداریم (مانند رگرسیون لجستیک کلاس باینری). به عبارت دیگر، چگونه می توان $p(y=Class1|x)$، $p(y=Class2|x)$، $p(y=Class3|x)$ را محاسبه کرد. | خروجی احتمالی از طبقه بندی کننده AVA (چند کلاس). |
23238 | من در تلاش برای درک اعتبار متقاطع برای رگرسیون لجستیک ترتیبی هستم. هدف بازی اعتبارسنجی مدل مورد استفاده در تجزیه و تحلیل است... من ابتدا یک مجموعه داده اسباب بازی می سازم: set.seed(1) N <- 10000 # پیش بینی x1 <- runif(N) x2 <- runif(N ) x3 <- runif(N) # coeffs در مدل a <- c(-2,-1) x <- -x1+2*x2+x3 # P( y ≤ i ) توسط logit داده می شود^{-1} (a[i]+x) p <- outer(a,x, function(a,x) 1/(1+exp(-a-x)) ) # محاسبه احتمالات هر دسته q <- 1 - p[2,] p[2,] <- p[2,] - p[1,]; p <- rbind(p,q); # نتیجه y <- ordered( application(p, 2, function(p) which(rmultinom(1,1,p)>0)) ) اکنون، مدل آن را با استفاده از `lrm` در بسته `rms` قرار می دهم. نیاز (rms) fit <- lrm(y~x1+x2+x3, x=TRUE,y=TRUE) > مناسب مدل رگرسیون لجستیک lrm(فرمول = y ~ x1 + x2 + x3, x = TRUE, y = TRUE) مدل Likelihood Discrimination Rank Discrim. شاخص های تست نسبت شاخص ها Obs 10000 LR chi2 1165.46 R2 0.126 C 0.664 1 2837 d.f. 3 گرم 0.779 Dxy 0.328 2 2126 Pr(> chi2) <0.0001 gr 2.178 گاما 0.329 3 5037 gp 0.147 tau-a 0.203 max |deriv| 4e-10 Brier 0.187 Coef S.E. Wald Z Pr(>|Z|) y>=2 2.1048 0.0656 32.06 <0.0001 y>=3 1.0997 0.0630 17.45 <0.0001 x1 0.8157 0.0675 x 12.09 - 0.0675 x 12.09 0.0701 -28.21 <0.0001 x3 -1.0095 0.0687 -14.68 <0.0001 من قسمت دوم نتیجه را درک می کنم: ضرایبی که در مدل قرار داده ام اینجا هستند (تقریباً با 'N = 100000' عالی است). علامت معکوس است زیرا در مدل من از ضرایب برای محاسبه شانس $\le 1$ و $\le 2$ استفاده کردم، در اینجا برعکس است، فکر میکنم مشکلات زیادی در آنجا وجود ندارد. با این حال ** من شاخص های تبعیض و رتبه بندی را درک نمی کنم **. میتونی کمکم کنی؟! چند اشاره؟ وقتی به اعتبارسنجی متقاطع روی میآوریم، اوضاع بدتر میشود... > اعتبارسنجی(fit, متد=متقاطع) index.orig تست آموزشی خوشبینی index.corrected n Dxy 0.3278 0.3278 0.3290 -0.0012 0.3291 40 R2 0.12350 -0.1260 0.1260 -0.1. 0.1313 40 رهگیری 0.0000 0.0000 -0.0072 0.0072 -0.0072 40 شیب 1.0000 1.0000 1.0201 -0.0201 1.0201 4000000000000000. 0.0056 0.0056 40 D 0.1164 0.1165 0.1186 -0.0021 0.1186 40 U -0.0002 -0.0002 -0.8323 0.8321 -0.8321 -0.8303 1106.119 406.119. -0.8342 0.9509 40 B 0.1865 0.1865 0.1867 -0.0001 0.1867 40 گرم 0.7786 0.7786 0.7928 -0.0142 0.7920 0.7920 0.0001 40720.10 10470. -0.0007 0.1478 40 Mmffff? **این چیه؟ چگونه این را تفسیر کنم؟** صفحه مرد توضیح کمی می دهد، من به این مقاله دسترسی ندارم... و احساس می کنم در اقیانوسی از پیچیدگی غرق شده ام. لطفا کمک کنید! | اعتبار متقاطع و رگرسیون لجستیک ترتیبی |
23232 | من به اندازه گیری یا شاخصی علاقه مند هستم که به من بگوید آیا یک منحنی محدب تر است یا مقعر در مقابل یک خط مستقیم. این منحنی در n نقطه نمونه برداری می شود و من مختصات x و y این نقاط را می دانم. خط مستقیمی که من این منحنی را با آن مقایسه می کنم، خطی است که از اولین و آخرین نقطه منحنی می گذرد. فرض کنید خط مستقیم با زاویه معینی از پایین به چپ به بالا راست باشد و اگر منحنی در سمت چپ خط مستقیم یا شمال آن (بالا) باشد، محدب است و اگر در سمت راست باشد یا جنوب (پایین) مقعر است. اگر این منحنی هرگز خط مستقیم را قطع نکند - پس من می توانم راهی برای مقابله با این مشکل تصور کنم، اما اگر خط مستقیم را قطع کند، در آن صورت... من در ضرر هستم. هر گونه پیشنهاد بسیار قدردانی خواهد شد. | منحنی محدب در مقابل مقعر - اندازه گیری یا شاخص |
23235 | من از شبکه عصبی در R برای ساخت یک NN با 14 ورودی و یک خروجی استفاده می کنم. من چندین بار شبکه را با استفاده از همان داده های آموزشی ورودی و همان معماری/تنظیمات شبکه می سازم/آموزش می دهم. پس از تولید هر شبکه، من از آن در مجموعه ای مستقل از داده های آزمایشی برای محاسبه برخی مقادیر پیش بینی شده استفاده می کنم. من متوجه شدهام که در هر تکرار دادههای پیشبینیشده واریانس زیادی وجود دارد، علیرغم اینکه تمام ورودیها (هم دادههای آموزشی و هم دادههای آزمایش) هر بار که شبکه را میسازم ثابت میمانند. من میدانم که هر بار تفاوتهایی در وزنهای تولید شده در NN وجود خواهد داشت و هیچ دو شبکه عصبی یکسان نخواهند بود، اما با توجه به دادههای مشابه، چه چیزی میتوانم برای تولید شبکههایی تلاش کنم که در هر قطار سازگارتر باشند؟ پیشاپیش برای هر نظری متشکرم | چگونه پایداری شبکه عصبی خود را بهبود بخشم؟ |
23231 | در سیستم من از $n$ مردم میخواهم که به [1,5] $m$ اشیا (مثلاً فیلمها) امتیاز دهند. من میخواهم اندازهای از تطابق بین موضوعی را به دست بیاورم، یعنی میزان توافق کلی کاربران، نه فقط در مورد یک شی خاص، بلکه در مورد همه اشیاء. من میدانم که W کندال یک معیار کاملاً ثابت برای تطابق در رتبهبندی است، اما در مورد من، مردم اشیا را سفارش نمیدهند، بلکه امتیاز 1-5 را به خود اختصاص میدهند. از دیدگاه کندال، این منجر به پیوندهای زیادی می شود و کندالز W را مشکل ساز می کند. معیار مناسبی برای تطابق بین موضوعی برای _رتبهبندیها به جای برای رتبهبندیها چیست؟ ممنون، مولون | تطابق بین موضوعی برای رتبهبندی در مقابل رتبهبندی |
11800 | فرض کنید میخواهیم یک تحلیل رگرسیون لجستیکی (اگرچه سؤال من به طور کلی به رگرسیونها مربوط میشود) روی نتایج ورزشی انجام دهیم تا تأثیر عوامل مختلف را بر اینکه چه کسی برنده و چه کسی میبازد، مشخص کند. ما اطلاعات پس زمینه ای که می خواهیم در مورد تیم ها و بازیکنان داریم و اکنون فقط به یک نمونه تصادفی نیاز داریم. بنابراین تصمیم می گیریم نتایج منتشر شده طی چند سال گذشته را به عنوان نمونه در نظر بگیریم. نمونه ای که جمع آوری می کنیم به شکل زیر است: نتیجه، تیم 1، تیم 2، ... نتیجه همیشه 0-1 یا 1-0 (بدون تساوی) است. میتوانیم با تبدیل Result به یک متغیر باینری، آمادهسازی دادهها را شروع کنیم: نتیجه = 1 اگر تیم 1 برنده شد، = 0 اگر تیم 2 برنده شد. مشکل این است که این یک رگرسیون معتبر به ما نمی دهد. دلیل آن کمی توضیح خواهد داد. یکی از مشاهدات ما این است: نتیجه = 1; تیم 1 = Man.U.; تیم 2 = چلسی این مشاهده را می توان بازنویسی کرد: نتیجه = 0; تیم 1 = چلسی; تیم 2 = Man.U. و دقیقاً همان مشاهده است و همه اطلاعات همچنان یکسان و کاملاً صحیح است. و این در واقع نتایج پسرفت ما را تغییر می دهد! یک راه سریع برای اثبات این موضوع این است که در نظر بگیریم چه اتفاقی می افتد اگر همه مشاهدات را بازنویسی کنیم تا تیم 1 همیشه برنده شود. سپس متغیر وابسته ما همیشه Result = 1 خواهد بود. بنابراین Var(Result) = 0 و تخمین پارامترهای ما همه 0 خواهد بود (البته به جز ثابت). اگر نیمی از مشاهدات را طوری برگردانیم که نیمی از زمان Result = 1 و نیمی از زمان Result = 0 و رگرسیون را بر روی آن اجرا کنیم، تخمین های غیر صفر برای پارامترهای خود خواهیم داشت. این من را آزار میدهد زیرا ما در حال پسرفت دادههای یکسان هستیم، اما نتایج بسیار متفاوتی را بر اساس ترتیبی که تیمها نوشته شدهاند دریافت میکنیم. معتبر باشد بنابراین بهترین راه برای آماده سازی این داده ها برای تجزیه و تحلیل چیست تا بتوانیم نتایج معتبری بدست آوریم؟ | چگونه باید داده های نتایج ورزشی را برای انجام یک رگرسیون لجستیک معتبر تبدیل کنیم؟ |
66053 | به راحتی می توان با استفاده از جبر ماتریسی نشان داد که حداقل مربعات بایاس تولید می کنند. \begin{معادله} \begin{split} \text{E}[B]& = \text{E}[(X'X)^{-1}]\times\text{E}[X'Y] \ \ & = \text{E}[(X'X)^{-1}]\times\text{E}[X'(XB +\epsilon)] \\ & = \text{E}[(X'X)^{-1}]\times\text{E}[X'XB] + \text{E}[(X'X)^{-1}]\times\ text{E}[X'\epsilon] \\ & = B + \text{E}[(X'X)^{-1}]\times\text{E}[X'\epsilon] \\ \end {شکاف} \end{equation} تعصب در آخرین ترم زمانی که همبستگی بین X و e وجود دارد معرفی میشود. سوال من این است که چگونه بفهمیم که $\text{E}[B]$ برای برآوردگر LAD چه زمانی سوگیری خواهد داشت؟ آیا زمانی که همبستگی بین $X$ و $\epsilon$ وجود دارد، مانند حداقل مربعات، سوگیری بوجود می آید؟ یا آیا رگرسیون چندک نسبت به همبستگی بین $X$ و $\epsilon$ قوی است؟ من حدس میزنم که نمیتوان آن را با استفاده از جبر ماتریسی نشان داد، زیرا تخمینگر LAD به صورت زیر است: \begin{align} B(\tau) = \operatorname{argmin} \text{E}[\rho(Y_i - X' B)] \end{align} و برآوردگر LAD با استفاده از جبر خطی (؟) محاسبه نمی شود. اگر درست است، پس چگونه میتوانیم نشان دهیم که رگرسیون چندکی چه زمانی سوگیری ایجاد میکند؟ از شبیه سازی مونت کارلو استفاده کنید؟ | چه زمانی رگرسیون چندک ضرایب سوگیری تولید می کند (اگر وجود داشته باشد)؟ |
111907 | من سعی می کنم مجموعه داده ای را تجزیه و تحلیل کنم که در آن سه معیار بر روی بیماران در واحدهای منطقه ای وجود دارد، اما در نحوه فکر کردن به اثرات تصادفی/ثابت و گنجاندن متغیرهای کمکی در سطوح مختلف مدل مشکل دارم. **مجموعه داده** متغیر وابسته: * وجود بیماری (1=بله، 0=خیر) متغیرهای مستقل: * شاخص بیماری (1=بیماری 1، 2=بیماری 2، 3=بیماری 3) * سن بیمار * نژاد بیمار/ قومیت * جنسیت بیمار * قرار گرفتن در معرض واحد منطقه ای نمونه ای از داده های من: ArealID | شناسه بیمار | DV | DV_شاخص | سن_بیمار | بیمار_نژاد | بیمار_جنسیت | ArealExposure A | 0001 | 1 | 1 | 57 | سفید | مرد | 5 A | 0001 | 0 | 2 | 57 | سفید | مرد | 5 A | 0001 | 0 | 3 | 57 | سفید | مرد | 5 A | 0002 | 1 | 1 | 43 | سفید | زن | 5 A | 0002 | 1 | 2 | 43 | سفید | زن | 5 A | 0002 | 0 | 3 | 43 | سفید | زن | 5 A | 0003 | 0 | 1 | 60 | مشکی | مرد | 5 A | 0003 | 0 | 2 | 60 | مشکی | مرد | 5 A | 0003 | 0 | 3 | 60 | مشکی | مرد | 5 ... | ... | ...| ... | ... | ... | ... ز | 5678 | 1 | 1 | 77 | مشکی | زن | 12 Z | 5678 | 1 | 2 | 77 | مشکی | زن | 12 Z | 5678 | 1 | 3 | 77 | مشکی | زن | 12 Z | 5679 | 1 | 1 | 70 | سفید | زن | 12 Z | 5679 | 0 | 2 | 70 | سفید | زن | 12 Z | 5679 | 1 | 3 | 70 | سفید | زن | 12 Z | 5680 | 0 | 1 | 64 | اسپانیایی | مرد | 12 Z | 5680 | 1 | 2 | 64 | اسپانیایی | مرد | 12 Z | 5680 | 0 | 3 | 64 | اسپانیایی | مرد | 12 توجه داشته باشید که مواجهه ناحیه ای در هر واحد منطقه ای یکسان است و سن، نژاد و جنس بیمار در هر بیمار یکسان است. **مشخصات مدل** من سعی می کنم مدل خود را با استفاده از تابع 'glmer' در بسته 'lme4' در R مشخص کنم. از آنجایی که من چندین مشاهدات در هر بیمار و چندین بیمار در هر واحد منطقه ای دارم، مدل خود را به صورت زیر مشخص می کنم: m1 <- glmer(DV ~ DV_Indicator + Patient_Age + Patient_Race + Patient_Sex + Areal Exposure + (1 | ArealID/PatientID)، data=mydata، family=binomial) اگر نحو را به درستی درک کنم، این مدل باید هم برای بیماران و هم برای واحدهای منطقه ای دارای رهگیری های تصادفی باشد، اما مطمئن نیستم که متغیرها را به درستی وارد کرده باشم، زیرا به نظر می رسد همه آنها در سطح بیماری (به جای بیمار یا واحد منطقه ای) گنجانده شود. روشی که من فکر کردم برای نشان دادن اینکه هر متغیر در کدام سطح باید گنجانده شود به این صورت بود: m2 <- glmer(DV ~ DV_Indicator + (1 + سن بیمار + نژاد_ بیمار + جنسیت_ بیمار | شناسه بیمار) + (1 + قرار گرفتن در معرض_منطقه | شناسه منطقه ای)، داده=mydata ، خانواده = دوجمله ای) اما من فکر می کنم این در واقع شامل این اصطلاحات به عنوان شیب های تصادفی است(؟). من در یافتن نمونه های واضح از این مشکل داشتم زیرا به نظر می رسد بسیاری از افراد با استفاده از بسته های دیگر با 'lme4' ترکیب می کنند | تعیین سطوح متغیر در اندازه گیری های مکرر چندسطحی در R با استفاده از lme4 |
67329 | من در یک مشکل تحقیقاتی گیر کرده ام و نمی دانم از چه نوع روش هایی استفاده کنم. امیدوارم افراد حاضر در این انجمن بتوانند ایده های خوبی به من بدهند، من همیشه جلسات طوفان فکری خوبی در اینجا داشته ام. مشکل من این است که من یک لیزر و یک پشته از لایه های نازک دارم که از سه ماده مختلف تشکیل شده است. اگر لیزر را روی این لایههای نازک شلیک کنم، یک تصویر دایرهای از نور بازتابیده شده از پراکندگی لیزر روی فیلمها دریافت میکنم. با این حال، لایه چهارم اضافه می شود و من می خواهم تغییر ضخامت لایه چهارم را اندازه گیری کنم، به طور مشابه با شلیک لیزر به این پشته. سه لایه پایینی دیگر پارامترهای آزاردهنده هستند، اما تغییرات ضخامت آنها نیز در تصویر مردمک مشاهده می شود. چگونه می توانم تصویر مردمک مشاهده شده را فیلتر کنم تا اطلاعات سه پشته پایه حذف شود و فقط تغییرات پشته بحرانی چهارم گرفته شود؟ من 1000 مجموعه دارم (1000 برای 3 پشته و 1000 برای 4 پشته) به طوری که برای هر نقطه داده، فیلم های 3 پشته و 4 پشته شرایط فرآیند یکسانی را پشت سر گذاشته اند و یک تصویر برای هر دو پشته وجود دارد. شاید به تغییر سیگنال فکر کرده ام؟ ------- ویرایش -------- هر پیکسل تصویر از مردمک پشته فیلم یک تابع غیرخطی از ضخامت ها اما شیب ها در هر پارامتر است (و همچنین تصویر در یک مقدار پارامتر خاص ) نقطه را می توان از طریق یک شبیه ساز نوری محاسبه کرد. $pix_i(i = 1...n) = f(h_1,h_2,h_3) + \epsilon_i$ که در آن $pix_i$ یک نقطه پیکسل از تصویر به دست آمده و $h1,h2,h3$ ضخامت فیلم یک پشته 3 فیلم. اکنون می توان آن را در حدود $h10,h20,h30$ به $pix_i(i=1...n) \sim f(h_{10},h_{20},h_{30}) + \frac{df} خطی کرد {dh_i}(h_i = h_{i0}) + \epsilon_i$ | تزیین دو نقشه تصویری |
103753 | آیا منطقی است که یک تست تداعی مانند Cramér's V در جدول 1xk اعمال شود؟ من کمی متحیر هستم زیرا در ادبیات، phi و Cramér V معمولاً در جداول احتمالی 2×2 یا بزرگتر استفاده میشوند، اما در حالی که به دنبال اطلاعات بیشتر بودم، عبارت زیر را در ویکیپدیا یافتم: Cramér's V ممکن است برای خوبی نیز به کار رود. از مدلهای مجذور کای برازش زمانی که یک جدول 1×k وجود دارد (به عنوان مثال: r=1 در این مورد k به عنوان تعداد اختیاری در نظر گرفته میشود). نتایج و به عنوان معیاری از تمایل به یک نتیجه واحد عمل می کند. با این حال هیچ مرجعی ارائه نشده است. نظر شما در مورد آن چیست؟ لطفاً یک مرجع کتابشناختی به من بدهید؟ | یک طرفه Chi-Square goodness of fit و Cramér's V |
72697 | من در حال گذراندن دوره مقدماتی بیز هستم و در درک توزیع های پیش بینی کننده مشکل دارم. من درک می کنم که چرا آنها مفید هستند و با تعریف آن آشنا هستم، اما چیزهایی وجود دارد که من کاملاً درک نمی کنم. **1) نحوه بدست آوردن توزیع پیشگویانه مناسب برای بردار مشاهدات جدید** فرض کنید که یک مدل نمونهبرداری $p(y_i | \theta)$ برای دادهها و یک $p(\theta)$ قبلی ساختهایم. فرض کنید مشاهدات $y_i$ با توجه به $\theta$ به صورت مشروط مستقل هستند. ما برخی از دادههای $\mathcal{D} = \{y_1, y_2, \, ... \, , y_k\}$ را مشاهده کردهایم و $p(\theta)$ قبلی خود را به $p(\) بعدی بهروزرسانی میکنیم. تتا |. \mathcal{D})$. اگر بخواهیم بردار مشاهدات جدید را پیشبینی کنیم $\mathcal{N} = \{\tilde{y}_1, \tilde{y}_2, \, ... \, , \tilde{y}_n\}$ ، من فکر می کنم ما باید سعی کنیم پیش بینی بعدی را با استفاده از این فرمول بدست آوریم $$ p(\mathcal{N} | \mathcal{D}) = \int p(\theta | \mathcal{D}) p ( \mathcal{N} | \theta) \, \mathrm{d} \theta = \int p(\theta | \mathcal{D}) \prod_{i=1}^n p(\tilde{y}_i | \theta) \, \mathrm{d} \theta، $$ که برابر با $$ \prod_{i=1}^n \int p(\theta | \mathcal{D}) نیست p(\tilde{y}_i | \theta) \, \mathrm{d} \theta, $$ بنابراین مشاهدات پیشبینیشده مستقل نیستند، درست است؟ بگو که $\theta | \mathcal{D} \sim$ بتا($a,b$) و $p(y_i | \theta) \sim$ دوجملهای($n، \theta$) برای $n$ ثابت. در این مورد، اگر بخواهم 6 $\tilde{y}$ جدید را شبیه سازی کنم، اگر این را به درستی متوجه شده باشم، شبیه سازی 6 ترسیم مستقل از توزیع بتا-دوجمله ای که با پیش بینی پسین برای یک مشاهده منفرد مطابقت دارد، اشتباه است. . آیا این درست است؟ من نمی دانم چگونه تفسیر کنم که مشاهدات به طور حاشیه ای مستقل نیستند و مطمئن نیستم که این را درست درک کرده باشم. **شبیه سازی از پیش بینی های پسین** بسیاری از اوقات هنگامی که داده ها را از پیش بینی پسین شبیه سازی می کنیم، از این طرح پیروی می کنیم: برای $b$ از 1 تا $B$: 1) $\theta^{(b)}$ را از $p نمونه کنید. (\theta | \mathcal{D})$. 2) سپس داده های جدید $\mathcal{N}^{(b)}$ را از $p(\mathcal{N} | \theta^{(b)})$ شبیه سازی کنید. من کاملاً نمی دانم چگونه می توان کارکرد این طرح را ثابت کرد، اگرچه بصری به نظر می رسد. ضمنا این اسم داره؟ سعی کردم توجیهی پیدا کنم و اسم های مختلفی را امتحان کردم، اما شانسی نداشتم. **متشکرم!** | درک توزیع های پیش بینی بیزی |
111909 | من یک شبکه عصبی بزرگ را با ماتریس وزن اولیه که توسط RBM (ماشین محدود بولتزمن) آموخته شد، اجرا کردم، و نتیجه چیزی شبیه به این را نشان می دهد. در مجموعه داده قطار بهترین دقت: 0.79564. و بهترین فراخوان: 0.75685. بهترین f1: 0.775760 در مجموعه داده آزمایشی بهترین دقت: 0.7356. و بهترین فراخوان: 0.6568. بهترین f1: 0.69939 میدونم خیلی مشکوکه. بنابراین، من شک دارم که اگر کد را اشتباه پیادهسازی کنم (تمام کدهای RBM و NN توسط خودم با Matlab پیادهسازی شدهاند و کتابخانه DeepLearnToolbox را به عنوان مرجع انتخاب کردم). آیا کاملاً (یا در اکثر موارد مانند احتمال 90٪) صحیح است که معیارهای دقت/ فراخوان/f1 در مجموعه قطار بهتر از مجموعه آزمایشی باشد؟ یا اینکه مبنای تئوری دارد تا ثابت کند که معیارهای ارزیابی باید/باید در مجموعه قطار بهتر باشد؟ یا فقط به نظر می رسد که کدی که من پیاده سازی کرده ام اشتباهی در آن وجود دارد؟ یا می توانید فقط به این سوال پاسخ دهید که آیا این وضعیت را دیده اید که کد صحیح است اما معیارها مانند روند معیارهای من است؟ | آیا معیارهای دقیق/ فراخوان در مجموعه قطار باید بهتر از مجموعه آزمایشی باشد؟ |
72695 | من سعی می کنم رتبه های کارشناسان را پیش بینی کنم. از آنها خواسته شد تا اطمینان را بین پنج احتمال تخصیص دهند: متغیرهای 't1' تا 't5'. من یک مجموعه آموزشی دارم که متن به من اجازه می دهد تا این احتمالات را پیش بینی کنم. آیا چیزی وجود دارد که من برای مدلی از این نوع در نظر نمی گیرم: `1 = t1 + t2 + t3 + t4 + t5`؟ اگر چندین روش طبقه بندی پیدا کنم، چگونه می توانم شواهد را ترکیب کنم؟ میانگین متغیرهای t مجموعه آموزشی: 0.2، 0.05، 0.3، 0.1، 0.35 به ترتیب. فرض کنید من با استفاده از دو روش برای یک مورد پیشبینی میکنم: روش 1: 0.1، 0.1، 0.4، 0.1، 0.3 روش 2: 0.15، 0.2، 0.15، 0.2، 0.3 من صرفاً میانگین را در نظر گرفتم، اما درست به نظر نمیرسد. من همچنین بهروزرسانیهایی مانند: «1 - (1 - m1) * (1 - m2)» را در نظر گرفتم، اما میانگینها باید در نظر گرفته شوند، به عنوان شواهدی زیر میانگین (مثلاً ترکیب 0.1 و 0.05 بالاتر از 0.1 خواهد رفت، با توجه به اینکه میانگین 0.2 است)، در حالی که این باید در جهت مخالف میانگین باشد. من اینجا چه چیزی را از دست داده ام؟ هر گونه بازخورد استقبال می شود. **ویرایش:** مورد دیگری که در نظر گرفتم این است که اندازه افکت ها را محاسبه کنم و با آن کاری انجام دهم، شاید اندازه های پایین تر را کوچک کنیم. | ترکیب شواهد از طبقه بندی مداوم |
112905 | امیدوارم برای این مشکل به داده ای نیاز نداشته باشید، زیرا معتقدم که من فقط یک خطای نحو احمقانه ایجاد می کنم. کد زیر: ggplot()+ geom_point(data=sites, aes(x=NMDS1, y=NMDS2, shape=group), color=grey) + geom_point(data=species, aes(x=NMDS1, y= NMDS2، color=phyla)، size=3، shape=20) + scale_colour_manual(values=Pal1) + geom_segment(data = BiPlotscores، aes(x = 0، xend = NMDS1، y= 0، yend = NMDS2)، فلش = فلش (طول = واحد (0.25، سانتی متر))، رنگ = سیاه) + geom_text( داده = BiPlotscores، aes(x = 1.1*NMDS1، y = 1.1*NMDS2، label = پارامترها، اندازه = 3) + coord_fixed()+ theme(panel.background = element_blank()) + geom_polygon(data = hulls، aes(x=NMDS1، y=NMDS2، colour=phyla، alpha = 0.2)) منجر به نتیجه زیر می شود:  (این محصول نهایی نیست :)). من میخواهم چند ضلعیها پر نشده باشند، یا خیلی ساده پر شوند. مطمئناً نمی خواهم خاکستری باشند. فیل کاری انجام نمی دهد، و ظاهراً دست و پا زدن با آلفا نیز چیزی را تغییر نمی دهد. هر ایده ای فوق العاده خوش آمدید. خیلی ممنونم! Hulls از کد زیر می آید (همانطور که در اینجا یافت می شود): #find hulls library(plyr) find_hull <- function(df) df[chull(df$NMDS1, df$NMDS2), ] hulls <- ddply(species ، phyla، find_hull) | ggplot2: geom_polygon بدون پر کردن |
6746 | من با یک فرآیند دو حالته با $x_t$ در $\{1, -1\}$ برای $t = 1, 2, \ldots$ کار می کنم تابع همبستگی خودکار نشان دهنده یک فرآیند با حافظه طولانی است، به عنوان مثال. یک فروپاشی قانون توان را با توان <1 نشان می دهد. می توانید یک سری مشابه را در R با: > library(fArma) > شبیه سازی کنید. x<-fgnSim(10000,H=0.8) > x<-sign(x) > acf(x) سوال من: آیا راهی متعارف برای پیشبینی بهینه مقدار بعدی در سری فقط با تابع همبستگی خودکار وجود دارد؟ یکی از راههای پیشبینی، استفاده از $\hat{x}(t) = x(t-1)$ است که دارای نرخ طبقهبندی $(1 + \rho_1) / 2$ است، که $\rho$ تاخیر است. -1 همبستگی خودکار، اما من احساس می کنم که باید با در نظر گرفتن ساختار حافظه طولانی بهتر بتوان آن را انجام داد. | پیش بینی فرآیندهای حافظه طولانی |
105976 | من از «Scikit-Learn» استفاده می کنم که دارای پیاده سازی «MiniBatchKMeans» است. من با ML بسیار بی تجربه هستم، بنابراین میپرسم چگونه (اگر راهی وجود دارد) میتوانم «MiniBatchKMeans» را به عنوان یک الگوریتم خوشهبندی فازی تطبیق دهم. | تبدیل MiniBatchKMeans به فازی MiniBatchKMeans |
30946 | فرض کنید من اطلاعاتی در مورد میزان پولی که برای تبلیغات تلویزیونی خرج شده و کل درآمد حاصل از فروش را دارم. داده ها برای سه ماه جداگانه در دسترس است. ژانویه فوریه مارس $ خرج شده برای تبلیغات تلویزیونی 100 110 150 کل درآمد فروش 1000 1000 1500 مشکلی که من سعی در حل آن دارم این است که آیا کمپین بازاریابی (تبلیغات تلویزیونی) تأثیر قابل توجهی بر درآمد کل فروش داشته است یا خیر. در حال حاضر، من هنوز مطمئن نیستم که چگونه از نظر آزمایشات، چه تجزیه و تحلیل سری های زمانی، و غیره (پیشنهاداتی؟) ادامه دهم، اما یک مسئله دیگر در حال رخ دادن است، و آن مربوط به ادغام یا عدم ادغام داده ها است. آیا باید برای هر ماه آزمایش های جداگانه ای اجرا کنم یا داده ها را با هم جمع کنم؟ بنابراین سوال من این است: چه زمانی جمع آوری داده ها برای تجزیه و تحلیل مناسب است؟ | چه زمانی جمع کردن داده ها مناسب است؟ |
27088 | من سعی می کنم پس از برازش یک مدل با اثر مختلط (با lmer) یک تست نرمال بودن روی باقیمانده ها انجام دهم. من خواندم که تست Shapiro-Francia می تواند با داده ها با بیش از 5000 مشاهدات مقابله کند (من بیش از 8000 مشاهده دارم)، اما وقتی آن را اجرا می کنم با خطا مواجه می شوم: sf.test(resid(dat.lmer11)) خطا در sf. test(resid(dat.lmer11)): حجم نمونه باید بین 5 تا 5000 باشد. لطفاً کسی می تواند کمک کند؟ | خطای تست Shapiro-Francia |
6747 | من می خواهم همبستگی بین دو فرآیند نقطه 1 بعدی $x$ و $y$ را اندازه گیری کنم. معمولاً میتوانم از تابع K دو متغیره $K(t) = \frac{T}{n_xn_y} \sum_{i=1}^{n_x} \sum_{j=1}^{n_y} w(x_i,y_j استفاده کنم ) I[d(x_i,y_j)<t]$ که $n_x$ تعداد مشاهدات در $x$ و $n_y$ تعداد مشاهدات است مشاهدات در $y$. انحراف از $K(t)=t$ نشانه همبستگی بین دو فرآیند نقطه است. با این حال، تجزیه و تحلیل من با این واقعیت پیچیده است که توزیع های بدون قید و شرط فرآیندهای نقطه ای غیریکنواخت هستند. هر کدام دارای توزیع مشخصه ای از فواصل بین مشاهدات هستند که می تواند برای $x$ و $y$ متفاوت باشد. برای پیچیدهتر کردن اوضاع، شدتها در بازه زمانی متفاوت است (به عنوان مثال، شدت ممکن است در نیمهشب کم و در ساعات روشنایی روز بیشتر باشد). با فرض اینکه دادههای کافی برای به دست آوردن تخمینهای خوبی از توزیعهای بدون قید و شرط $x$ و $y$، و نحوه تغییر شدتها در طول زمان داشته باشم، آیا راهی برای در نظر گرفتن این موضوع وجود دارد؟ | همبستگی دو فرآیند نقطه 1 بعدی با توزیع نامشروط غیر یکنواخت |
6744 | من هیچ پیش زمینه ریاضی یا آماری ندارم، بنابراین این ممکن است یک سوال احمقانه واقعی باشد. من در حال توسعه یک برنامه تخمین زمان هستم که به کاربر اجازه می دهد تخمین های بدترین و بهترین حالت خود را وارد کند و سپس یک منحنی احتمال را انتخاب کند که به نظر او واقعی به نظر می رسد. من باید نوعی منحنی را رسم کنم که مجموع آن 1 باشد، بنابراین به یک توزیع نرمال رسیدم. من مطمئن نیستم که چگونه ما تخمین های زمانی را ارائه می دهیم، اما این چیزی نیست که در مورد آن سوال است. من می خواهم کاربر بتواند انگشت خود را روی نمودار حرکت دهد، بنابراین منحنی بر این اساس خم می شود. من فرض میکنم که اگر پیک منحنی دنبال انگشت باشد، احساس خوبی خواهد داشت، اما سؤال زیر را دارم: آیا میتوان منحنی توزیع نرمال را با نقطه اوج دلخواه به دست آورد؟ اگر نه، کدام منحنی برای این کار خوب است؟ **به روز رسانی:** می بینم که می توانم _μ_ را از مکان _x_ بدست بیاورم. آیا می توانم _σ_ را برای _y_ دلخواه (ترکیب با _μ_ شناخته شده) دریافت کنم؟ | مشخصات منحنی توزیع را با انتخاب نقطه اوج بدست آورید؟ |
87935 | فرض کنید که $X_1,...,X_n$ یک نمونه تصادفی iid از توزیع پواسون با میانگین $\theta$ است. من میخواهم ثابت کنم که هیچ تخمینگر بیطرفی برای $\frac{1}{\theta}$ وجود ندارد. برای انجام این کار، اجازه میدهم $\delta(X)$ تخمینگر $\frac{1}{\theta}$ باشد. سپس، میخواهم انتظار $\delta(X)$ و $\frac{1}{\theta}$ E$[\delta(X)]$ = مجموع از x=0 تا بینهایت [ را برابر کنم. $\delta(x)$$P(X=x)$ ]. اکنون، مشکل من این است که برخی از کتابها اجازه میدهند $Y= \sum{X_i}$ و سپس دارای: E$[\delta(Y)]$ = مجموع از y=0 تا بینهایت [$\delta(y)$$ P(Y=y)$]. چگونه این دو روش معادل هستند؟ چگونه است که مجموع مقدارهای X معادل X_1،...،X_n$ است؟ به عبارت دیگر، چرا $\delta(X_1,...,X_n) = \delta(Y)=\delta(\sum{X_i})$ است؟ ممنون!!! | اثبات عدم وجود برآوردگر بی طرفانه برای $\theta^{-1}$ برای Poisson Dist. چرا $X_1،...،X_n = \sum{X_i}$ است؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.