_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
74963
من دو مدل دارم که اساساً قرار است نتایج یکسانی داشته باشند. با توجه به اینکه مدل اول درست است، چه تست هایی وجود دارد که می توانم از طریق مقایسه نتایجی که هر دو تولید می کنند اعتبار مدل دوم را بررسی کنم؟ در حالت ایده آل مقایسه تست ها از طریق R انجام می شود، اما من به تئوری نیز علاقه مند هستم. ویرایش در مورد نتایج: نتایج هر دو مدل تصاویر شطرنجی هستند برای هر پیکسل در هر شطرنجی هر ماژول یک مقدار تولید می کند. من می توانم یک نمونه با n نمونه ایجاد کنم به عنوان مثال: PixelId | modelA | modelB 1 | 223 | 222 2 | 1 | 1 3 | 3 | 3 و غیره...
چگونه می توان بررسی کرد که آیا نتایج دو روش یکسان است؟
97708
من از تابع gbm.step() از بسته dismo برای ارزیابی تعداد بهینه درختان تقویت کننده با استفاده از اعتبار سنجی متقاطع k-fold برای یک مشکل طبقه بندی استفاده می کنم. این تابع با یک مدل با تعداد درخت بهینه مطابقت دارد و آن را به عنوان یک مدل gbm همراه با اطلاعات اضافی از فرآیند انتخاب اعتبار متقابل برمی گرداند. و همچنین نموداری را با پارامترهای پیش فرض نشان می دهد. این طرح من است: ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/vcfBH.png) چگونه می توانم تنظیمات پیش فرض را تغییر دهم؟ یعنی من یک عنوان متفاوت و برچسب های x و y متفاوت می خواهم. بعد از جستجو و خواندن اطلاعات بسته «dismo» چیزی پیدا نکردم. با تشکر
چگونه می توانم پارامترهای پیش فرض یک نمودار gbm.step را تغییر دهم؟
15058
من یک مدل غیرخطی $y=\Phi(f(x,a)) + \varepsilon$ دارم که $\Phi$ cdf توزیع نرمال استاندارد و f غیرخطی است (به زیر مراجعه کنید). من می‌خواهم خوب بودن تناسب این مدل را با پارامتر $a$ با داده‌های خود $(x_1,y_1),(x_2,y_2),\dots,(x_n,y_n)$ آزمایش کنم، پس از استفاده از تخمین حداکثر احتمال برای یافتن $a$. آزمایش مناسب چه خواهد بود؟ من می‌خواهم از این آزمایش برای برچسب‌گذاری یک تناسب بد به عنوان بد و تعیین اینکه آیا داده‌های بیشتری باید جمع‌آوری شود یا خیر استفاده کنم. من به استفاده از انحراف، که این مدل را با مدل اشباع شده، با آزمون مربوط به خوبی برازش با استفاده از توزیع $\chi^2_{n-1}$ مقایسه می‌کند، بررسی کرده‌ام. آیا این مناسب خواهد بود؟ بیشتر مطالبی که در مورد انحراف خوانده‌ام، آن را در مورد GLM‌ها اعمال می‌کنند، که این چیزی نیست که من دارم. اگر آزمون انحراف مناسب باشد، چه مفروضاتی باید رعایت شود تا آزمون معتبر باشد؟ به‌روزرسانی: $f = \frac{x-1}{a\sqrt{x^2+1}}$ برای $x>1,a>0$ در صورتی که کمک کند.
چگونه می توان خوب بودن برازش یک مدل غیرخطی خاص را ارزیابی کرد؟
18154
بگذارید $a$ و $b$ دو عدد صحیح مثبت باشند. اجازه دهید $X$ نیز یک متغیر تصادفی گسسته باشد که در $X(\Omega)=\\{1, 2, \ldots, ab\\}$ متغیر است به طوری که برای هر $x∈X(\Omega),P[X = x]=1/a - 1/b$. الف) $a$ و $b$ باید دارای چه شرایطی باشند؟ ب) تابع توزیع تجمعی $F$ از $X$ را تعیین کنید. $u$ را طوری محاسبه کنید که $F(u)=1/2$ باشد. ج) $E(X)$ را تعیین کنید. مقادیر $a$ و $b$ را طوری بیابید که $E(X) = 7/2$ باشد.
مشکلات تابع توزیع تجمعی
115096
می دانم وقتی می خواهم بهترین مقادیر C و گاما را پیدا کنم، باید از جستجوی شبکه ای استفاده کنم. اما در مورد من می‌خواهم بهترین مقدار C را پیدا کنم. بنابراین، به این می‌گویند جستجوی خط. آیا عملکردی مانند جستجوی شبکه ای برای انجام این کار وجود دارد؟ (جستجوی فقط بهترین مقدار C). پیشاپیش متشکرم، ویم
درباره جستجوی شبکه برای یافتن بهترین مقدار C
6562
من مقاله‌ای از کریستوفر منینگ خوانده‌ام، و کد جالبی برای فروپاشی متغیر طبقه‌ای در مدل رگرسیون لجستیک دیده‌ام: glm(ced.del ~ cat + follows + I(class == 1)، family=binomial (logit) ) آیا «I(class == 1)» به این معنی است که متغیر «class» به «1» است یا نه. 1؟ بعد از آن، من به فکر اصلاح آن هستم: glm(ced.del ~ cat + follows + I(class %in% C(1,2)), family=binomial(logit)) قصد دارم ادغام شوم متغیر «class» از «c(1،2،3،4)» به دو گروه، یک گروه حاوی «c(1،2)»، گروه دیگر حاوی «c(3،4)» است، می‌تواند کد بالا نتیجه ای را که می خواهم به من بده؟ با تشکر
جمع کردن داده های طبقه بندی به راحتی برای رگرسیون در R
33457
من آزمایشی را انجام دادم که در آن شرکت کنندگان به طور تصادفی به 2 شرایط تقسیم شدند. سپس آنها 3 تست جداگانه را با یک نتیجه قبولی/شکست دودویی برای هر آزمون تکمیل کردند. بنابراین من 3 نمره آزمون دودویی (داخل موضوعی) برای هر شرکت کننده و 2 گروه (بین موضوعی) از شرکت کنندگان دارم. باید تعیین کنم: 1. آیا میزان قبولی برای 3 آزمون معادل بود؟ 2. آیا شرایط شرکت کننده روی نرخ قبولی به طور کلی تأثیر داشت؟ 3. آیا شرایط با نتیجه آزمایش خاصی تداخل داشت؟ اگر DV ها پیوسته بودند، این یک اندازه گیری تکراری ساده، ANOVA مدل مختلط خواهد بود. من در حال تحقیق بودم که باید چه کار کنم. من با آزمون کیو کوکران مواجه شدم که به نظر می رسد راهی عالی برای تعیین اینکه آیا میزان قبولی بین 3 آزمون متفاوت است یا خیر، اما به نظر نمی رسد هیچ راهی برای محاسبه این دو شرایط تجربی وجود داشته باشد. آیا آزمایش مشابهی وجود دارد که اجازه IV اضافی را بدهد؟ من از SPSS استفاده می کنم و معادلات برآورد تعمیم یافته (GEE) را نیز بررسی کرده ام، که به نظر می رسد ممکن است مفید باشد، اما به نظر می رسد که در آنجا فقط می توان یک DV را وارد کرد. اگر از این روش استفاده کنم چگونه می توانم 3 نمره آزمون تکراری را وارد کنم؟
چگونه می توان با DV های باینری و یک IV باینری تک تجزیه و تحلیل اندازه گیری های مکرر انجام داد؟
19491
> **تکراری احتمالی:** > R-squared: X درصد تغییرات مقادیر Y را توضیح می دهد. آیا نظم محور مهم است؟ بابت سوال عجیب ببخشید اما در رابطه با رگرسیون خطی شک دارم. به کد زیر نگاهی بیندازید: x = rnorm(100) y = rnorm(100) mod1 = lm(x~y+0) mod2 = lm(y~x+0) همانطور که می بینید من رگرسیون و مقدار را تغییر می دهم رگرسیون در آن دو مدل خطی. سوال من در مورد باقیمانده های آن دو مدل، اگر از متغیرهای یکسانی استفاده کنم، چرا باید متفاوت باشند؟
آیا این دو مدل با هم برابرند؟
72750
چگونه حداکثر همبستگی قابل مشاهده بین دو ماتریس همبستگی را تخمین بزنیم؟ من به این نیاز دارم تا ضریب همبستگی مشاهده شده بین دو ماتریس همبستگی را که بر اساس اندازه نمونه های مختلف محاسبه کرده ام، تصحیح کنم. این روشی است که من به آن نیاز دارم و روشی که برای حل آن تلاش کردم. برای یافتن این مقدار از مفهوم تکرارپذیری ماتریس استفاده می کنم که در آن این کمیت به صورت t = (Vo - Ve)/Vo محاسبه می شود که در آن Vo واریانس در مقادیر همبستگی مشاهده شده و Ve واریانس خطا است. سپس من از این برای محاسبه Rmax (حداکثر همبستگی قابل دستیابی) به عنوان $\sqrt{t1*t2}$ استفاده می کنم که در آن t1 و t2 تکرارپذیری های ماتریسی هستند. این راه حل من در R repeatCor است <- تابع(mat1, mat2) { mmc1 <- cor(mat1) mmc2 <- cor(mat2) a <- cor(mat1)[lower.tri(cor(mat1))] b < - cor(mat2)[lower.tri(cor(mat2))] statObs <- cor(a,b) mmce1 <- عددی(طول(a)) mmce2 <- numeric(length(a)) for(i in 1:length(a)) { mmce1[i] <- sqrt((1-a[i]^2)/(length(a)-1)) #errors برای هر ضریب همبستگی mmce2[i] <- sqrt((1-b[i]^2)/(طول(b)-1)) } Vt1 <- var(a) - var(mmce1) Vt2 <- var(b) - var(mmce2) t1 <- Vt1/var(a) t2 <- Vt2/var(b) Rmax <- sqrt(t1*t2) corCor < - لیست statObs/Rmax (rep1 = t1، rep2 = t2، Rmax = Rmax، corRaw = statObs، corCor = corCor، m1 = var(mmce1)، m2 = mean(mmce2)) } اما مقادیری که برای Rmax به دست می‌آورم بسیار نزدیک به 1 هستند و باید کمتر باشند. شاید من کار بدی انجام می دهم؟
حداکثر همبستگی بین دو ماتریس همبستگی در R
83042
من یک مدل غیر خطی دارم که به نظر می رسد کاملاً خوب کار می کند. در مقایسه با سایر مدل‌های مشابه، با استفاده از داده‌های مشابه، AIC و BIC منفی‌تری دارد، بنابراین من کاملاً مطمئن هستم که بهتر از مدل‌های دیگر است. با این حال، من در رگرسیون غیرخطی بی‌تجربه هستم و واقعاً نمی‌دانم چگونه مدل را بر اساس شرایط خودش ارزیابی کنم. به عبارت دیگر چگونه می توانم به کسی بگویم که این مدل خوب است؟
چگونه می توانم مدل غیرخطی خود را (بدون مقایسه مدل) ارزیابی کنم؟
87749
در تفسیر ضرایب همبستگی می‌توان موارد زیادی را به صورت آنلاین پیدا کرد. اما تصمیم گیری در مورد زمان حذف یک متغیر از یک مدل خطی به دلیل همبستگی آن با متغیر دیگر، اغلب دشوار است. 1. در تعریف آستانه برای ضریب همبستگی چه چیزی را باید در نظر بگیرم؟ 2. معمولاً از چه ضریب (0.4؟) برای تعریف دو متغیر به عنوان خیلی همبسته استفاده کنم؟ 3. در تحلیل همبستگی متغیرهایم چه پیشنهادهای عملی را باید دنبال کنم؟
وقتی همبستگی خیلی زیاد می شود؟
38296
من می دانم $E(aX+b) = aE(X)+b$ با ثابت های $a,b $، بنابراین با توجه به $E(X)$، حل آن آسان است. همچنین می‌دانم که وقتی تابع غیرخطی است، نمی‌توانید آن را اعمال کنید، مانند این مورد $E(1/X) \neq 1/E(X)$، و برای حل آن، باید انجام دهم تقریبی با تیلور بنابراین سوال من این است که چگونه $E(\ln(1+X))$ را حل کنم؟ آیا من هم با تیلور تقریب دارم؟
مقدار مورد انتظار یک لگاریتم طبیعی
103145
این سوال کلی تر از یک سوال برنامه نویسی معمولی است. من به یک نوع مرجع پاسخ امیدوار هستم. من روی مدلی کار می کنم که شامل یادگیری بیزی در یک مسئله برنامه نویسی پویا است. یعنی مدل دارای یک پارامتر تتا است که در هر دوره نامشخص است. در هر دوره، اطلاعاتی وجود دارد که امکان به روز رسانی باور تتا را فراهم می کند. و در هر دوره، عوامل تصمیماتی برای به حداکثر رساندن یک هدف می گیرند. اعمال او بر سیگنال تأثیر نمی گذارد، یعنی یادگیری فعال نیست. نزدیکترین مدلی که من پیدا کردم این http://papers.ssrn.com/sol3/papers.cfm?abstract_id=982434/ است. اما این مقاله تنها راه حل تحلیلی را انجام می دهد که به شدت به مفروضات بستگی دارد. می‌خواهم بدانم که آیا این نوع مسائل به طور سیستماتیک در ریاضیات، cs یا سایر رشته‌ها مطالعه شده است؟ اگر بله، می توانید به من به برخی از مراجع اشاره کنید. من می خواهم بتوانم راه حل های مدل را شبیه سازی کنم یا پارامترها را روی یک مجموعه داده تخمین بزنم.
یادگیری بیزی با برنامه نویسی پویا
51398
من می خواهم از یک مدل log-log استفاده کنم و یکی از متغیرهای مستقل من log (سرمایه گذاری در ماشین آلات/کارمند) است. برخی از شرکت ها 0 سرمایه گذاری را گزارش می کنند. من باید لاگ بگیرم و می‌خواهم بدانم کدام رویکرد مناسب‌تر است: 1. log (سرمایه‌گذاری در ماشین‌آلات/کارمند) را بگیرید و log (0)=0 را تنظیم کنید و یک متغیر ساختگی اضافه کنید که وقتی log (0) را تنظیم می‌کنم 1 است. ) = 0 و 0 در غیر این صورت. 2. زمانی که سرمایه گذاری 0 است مقدار دلخواه x را اضافه کنید و log (0+x) بگیرید. 3. گزینه دیگری وجود دارد؟
چگونه با log (0) برای متغیر مستقل رفتار کنیم؟
110600
در خلاصه ویکی‌پدیا در مورد Cramér's $V$، ذکر شده است که می‌توان از آن در حالت تک بعدی به عنوان معیار غلظت استفاده کرد. 1. فرمول در این مورد خاص چیست؟ 2. آیا مرجعی در مورد این استفاده جایگزین وجود دارد؟
Cramér's $V$ برای یک متغیر
38299
یکی از انگیزه های شبکه الاستیک محدودیت زیر LASSO بود: در حالت p > n، کمند حداکثر n متغیر را قبل از اشباع شدن انتخاب می کند، به دلیل ماهیت مسئله بهینه سازی محدب. به نظر می رسد این یک محدود کننده باشد. ویژگی برای یک روش انتخاب متغیر، علاوه بر این، کمند به خوبی تعریف نشده است، مگر اینکه کران ضرایب L1 کوچکتر از مقدار معینی باشد. (http://onlinelibrary.wiley.com/doi/10.1111/j.1467-9868.2005.00503.x/full) من می‌دانم که LASSO یک مشکل برنامه‌نویسی درجه دوم است، اما می‌تواند از طریق LARS یا شیب نزول عنصری نیز حل شود. اما من نمی فهمم در کجای این الگوریتم ها با مشکل مواجه می شوم اگر p > n که p تعداد پیش بینی کننده ها و n اندازه نمونه باشد. و چرا این مشکل با استفاده از شبکه الاستیک حل می شود، جایی که من مسئله را به متغیرهای p+n که به وضوح از p بیشتر است، افزایش می دهم.
اگر p > n، کمند حداکثر n متغیر را انتخاب می کند
5503
فکر می کنم، من این نقل قول را در جایی خواندم: > برای هر فیلد x یک فیلد x محاسباتی وجود دارد. اگر درست یادم باشد اثر دکتر یان دی لیو بود. لطفاً کسی می تواند بگوید که آیا حافظه من در اینجا از کار می افتد؟ (بعد از کلی جستجو نتونستم لینکی پیدا کنم)
آیا چنین نقل قولی از برخی آمارگیران وجود دارد؟
71606
من یک مدل میانجی با دو واسطه پیوسته (m1؛ m2)، یک متغیر ورودی پیوسته (x) و یک متغیر خروجی دوگانه (y) دارم. دو واسطه مکانیسم های متفاوتی از متغیر ورودی هستند. من می‌دانم که میانجی‌گری باید برای تعیین اینکه آیا یکی، هر دو یا هیچ‌کدام از واسطه‌ها شانس 1 بودن متغیر نتیجه را افزایش می‌دهد مفید باشد. من سعی کرده‌ام مدل را با دو روش مختلف محاسبه کنم: a) بسته lavaan برای R و b. ) قدم های بارون و کنی. یک تفاوت در محاسبات این است که رویکرد مدل‌سازی لاوان، متغیر ورودی x را بر اساس ضرایب رگرسیون 4 پیش‌بینی‌کننده محاسبه می‌کند، در حالی که برای رویکرد بارون و کنی، متغیر x فقط میانگین این 4 پیش‌بینی‌کننده است (من نمی‌دانستم چگونه برای انجام آن). نتایج این دو مدل کاملاً متفاوت است همانطور که در شکل های پیوست مشاهده می شود. با این حال مشکل اصلی من در این لحظه از زمان، تفسیر ضرایب است. در شکل 3 و 4 تخمین هایی که از R برگردانده می شوند روی فلش های مربوطه قرار دارند. ![مدل لاوان با تخمین](http://i.stack.imgur.com/wMAjT.png) ## مدل لاوان با تخمین ![مدل بارون و کنی با تخمین](http://i.stack.imgur. com/htDtg.png) ## مدل بارون و کنی با تخمین‌ها برای درک این تخمین‌ها، سعی کردم آن را به درصد تبدیل کنم. درصد افزایش نسبت شانس متغیر وابسته در صورت افزایش پیش‌بین مربوطه به میزان 1. اینها در شکل‌های 5 و 6 آمده است. ![مدل لاوان با برآوردهای استاندارد] 3uZ8x.png) ## مدل لاوان با برآوردهای استاندارد شده ![مدل بارون و کنی با استاندارد شده برآوردها](http://i.stack.imgur.com/DXRTL.png) ## مدل بارون و کنی با تخمین‌های استاندارد شده برای انجام این کار، من برای ضرایب رگرسیون با نتایج باینری موارد زیر را انجام دادم: round((exp(COEFF) -1)*100،2) حال اگر به مدل لاوان نگاه کنم، می توانم بگویم: (1) اثر کل x روی y زیاد است (11.52%)، مستقیم اثر x بر y نسبتا کم است (-4.78٪). (2) افزایش 1 در m1، شانس Y را به 1 در 90٪ افزایش می دهد. به طور کلی، آیا این ایده بدی است که نوعی تغییر را در اینجا امتحان کنید؟ من واقعا نمی توانم درک کنم که چگونه می توان از ضرایب مختلف در مسیرهای اثرات غیرمستقیم معنا پیدا کرد. #### نمونه کار حداقل #### data library(QuantPsyc) library(psych) library(lavaan) <- read.csv(http://dl.dropboxusercontent.com/u/63191123/data.csv, header = TRUE, sep = \ t, stringsAsFactors=TRUE) sapply(data, mode);sapply(data, class);attach(data);head(data);psych::describe(data) model <- ' # مدل اندازه گیری m1 =~ m11 + m12 + m13 + m14 + m15 + m16 m2 = ~ m21 + m22 + m23 + m24 + m25 m24 ~~ m25 m13 ~~ m14 m16 ~~ m21 m25 ~~ m22 m23 ~~ m24 m13 ~~ m15 m12 ~~ m13 m24 ~~ m22 ' # fit model fit <- cfa(model, mimic=Mplus, data=data) m1 <- (parameterEstimates(fit) [1،4] * m11 + پارامتر برآوردها (مناسب)[2،4] * m12 + parameterEstimates(fit)[3,4] * m13 + parameterEstimates(fit)[4,4] * m14 + parameterEstimates(fit)[5,4] * m15 + parameterEstimates(fit)[6,4] * m16)/6 m2 <- (parameterEstimates(fit)[7,4] * m21 + parameterEstimates(fit)[8,4] * m22 + parameterEstimates(fit)[9,4] * m23 + parameterEstimates(fit)[10,4] * m24 + parameterEstimates(fit)[11,4] * m25)/5 #### بارون و کنی ### # #<<<<<< بارون و کنی - مرحله 1 >>>>>># Baron_c.mod <- glm(Y ~ X, خانواده = دو جمله ای (لینک = logit)) #<<<<<< بارون و کنی - مرحله 2 >>>>>># Baron_a1.mod <- lm(m1 ~ X) Baron_a2.mod <- lm(m2 ~ X) #<<<<<< بارون و کنی - مرحله 3 >>>>>># Baron_b.mod <- (glm(Y ~ X + m1 + m2، خانواده = دو جمله ای (لینک = logit))) # خلاصه بارون و کنی: Path_a1 <- summary(Baron_a1.mod)$coefficients[2,] Path_a2 <- summary(Baron_a2.mod)$ضرایب[2 ,] Path_b1 <- summary(Baron_b.mod)$ضرایب[3،] Path_b2 <- summary(Baron_b.mod)$ضرایب[4،] Path_c <- summary(Baron_c.mod)$ضرایب[2،] Path_c_ <- summary(Baron_b.mod)$ضرایب[2،] بارون <- rbind( Path_a1، Path_a2، Path_b1، Path_b2، Path_c، Path_c_) print(Baron, digits=3) #Baron.std <- rbind(lm.beta(Baron_a1.mod), lm.beta(Baron_a2.mod), lm.beta(Baron_b.mod)[2], lm. beta(Baron_b.mod)[3]، lm.beta(Baron_c.mod)[1]، lm.beta(Baron_b.mod)[1]) #Baron.std <- Baron.std[,1] #Baron <- data.frame(Baron, Baron.std) ########### ##### #### لاوان #### ################ data$m1 <- m1 data$m2 <- m2 mediation <- ' X =~ x1 + x2 + x3 + x4 Y ~ b1*m1 + b2*m2 + c*X m1 ~ a1*X m2 ~ a2*X indirect_m1 := a1*b1 indirect_m2 := a2*b2 مجموع := c + (a1*b1) + (a2*b2) ' mediation.fit <- sem(mediation, std.lv=FALSE, مرتب = Y، داده=داده) # summary(mediation.fit) ###### ضرایب استاندارد شده برای رگرسیون لاجیت
تفسیر یک مدل میانجی با نتیجه باینری
83045
من به برخی ادبیات در مورد کمینه سازی واگرایی KL نگاه می کنم و در درک اشتقاق لحظه مرتبه دوم مشکل دارم. بنابراین، اگر توزیعی از خانواده نمایی داشته باشیم، داریم: $$ p_{\theta}(x) = \frac{1}{Z(\theta)}\exp\left(\theta^{T}\ phi(x)\right) $$ جایی که $$ Z(\theta) = \int\exp\left(\theta^{T}\phi(x)\right) dx $$ اکنون، برای محاسبه لحظه‌ها یا به جای نشان دادن ویژگی تولید لحظه، مراحلی برای محاسبه نرمال ساز گزارش با توجه به $\theta$ وجود دارد. بنابراین، من می خواهم مشتق دوم $\log Z(\theta)$ را محاسبه کنم. من کارهای زیر را انجام دادم: $$ \nabla\nabla\log Z(\theta) = -\frac{1}{Z(\theta)^2}\nabla\nabla Z(\theta) $$ اکنون، $$ \ nabla Z(\theta) = \int\phi(x)\exp\left(\theta^T\phi(x)\right)dx $$ به طور مشابه، $$ \nabla\nabla Z(\theta) = \int\phi(x)\phi(x)\exp\left(\theta^T\phi(x)\right)dx $$ بنابراین، $$ \nabla\nabla\log Z( تتا) = -\frac{1}{Z(\theta)}\int\frac{\phi(x)\phi(x)\exp\left(\theta^T\phi(x)\right)}{Z(\ theta)}dx $$ که عبارت است از: $$ -\frac{1}{Z(\theta)} \mathbb{E}(x^2) $$ البته این نتیجه اشتباه است. باید $\mathbb{E}(x^2) - \mathbb{E}^2(x)$ باشد. اگر کسی بتواند به من نشان دهد کجا اشتباه کرده ام، بسیار سپاسگزار خواهم بود.
معادله کمینه سازی واگرایی KL
76392
من مجموعه ای از داده ها را دارم که نشان دهنده افزایش (نمایی) در اندازه جمعیت حیوانات در طول زمان است. من می توانم یک مدل نمایی را با این داده ها تطبیق دهم و تخمینی از نرخ رشد جمعیت (با فرض رشد نمایی نامحدود) به دست آوریم. با این حال، من می‌خواهم در مورد اینکه این تخمین چقدر متغیر است، توضیحی بدهم. برای انجام این کار، من یک اسکریپت R نوشته‌ام که نمونه‌برداری مجدد Bootstrap از مشاهدات اولیه را انجام می‌دهد و مقدار نرخ رشد جمعیت را برای هر نمونه Bootstrap جمع‌آوری می‌کند. من با تطبیق یک lm از فرم log (فراوانی) ~ سال به این امر می رسم. در حالی که مدل نمایی اولیه بسیار معنی دار بود (p<0.05)، این لزوما در همه نمونه های مجدد Bootstrap صادق نیست. چگونه می توانم فواصل اطمینان قابل اعتمادی برای نرخ رشد جمعیت بسازم، با دانستن اینکه گاهی اوقات (در برخی اجراها) در آلفا = 0.05 غیر قابل توجه است؟ من 3 گزینه را در اینجا می بینم: 1) ایجاد توزیعی از مقادیر نرخ رشد بر اساس همه نمونه های مجدد، صرف نظر از اینکه رگرسیون معنی دار بوده یا نه. 2) فقط CI را بر اساس زیرمجموعه نمونه‌های مجدد که رگرسیون معنی‌دار بود، قرار دهید. 3) هر زمان که مقدار p مربوط به آن از آستانه معنی‌داری انتخاب‌شده بزرگ‌تر باشد، به ضریب رگرسیون، مقدار صفر اختصاص دهید، یعنی آلفا=0.05. من فقط یک مقاله منتشر شده پیدا کرده ام که از روش 3 استفاده می کند (آستین (2007). استفاده از بوت استرپ برای بهبود فاصله های تخمین و اطمینان برای ضرایب رگرسیون انتخاب شده با استفاده از حذف متغیر به عقب. آمار در پزشکی، 27، جلد. 17:3286-3300]. آیا این یک رویکرد معتبر است؟ با تشکر
شیب های رگرسیون بوت استرپینگ - مقدار p و سطح معنی داری
76377
ما در یک مدل رگرسیونی 2 پیش‌بینی‌کننده پیوسته داریم و هر دو دارای شرایط درجه دوم معنی‌دار هستند. فرضیه اصلی ما که می خواهیم آزمایش کنیم (به طور کلی) این است که آیا تعاملی بین این متغیرها وجود دارد یا خیر. هنگام مدل‌سازی، شاهد تعامل قابل توجهی بین عبارت‌های خطی هستیم. اما اصطلاحات متقابل شامل اصطلاحات درجه دوم مهم نیستند. بنابراین آیا برای تطبیق مدل با اثرات اصلی درجه دوم و فقط شرایط تعامل مرتبه اول (مثلا $y = intercept + x^2 + x + xz + z + z^2$) مشکلی وجود دارد؟ من هیچ مشکل نظری در این مورد نمی‌دانم، اما با نگاه کردن به نتیجه پیش‌بینی‌شده، به نظر می‌رسد که این رابطه عجیبی ایجاد می‌کند -- به ویژه، نگاه کردن به منحنی‌های $y$ در مقابل $x$، برای همه مقادیر $z$ منحنی ها در یک نقطه خاص قطع می شوند. به طور خلاصه، سؤال این است که، اگر قصد دارید یک متغیر کمکی درجه دوم را وارد کنید، آیا فقط به آزمایش برهمکنش‌های با بالاترین مرتبه عبارات علاقه دارید (و اگر فقط برهمکنش‌های خطی مهم هستند، این بدان معناست که هیچ تعاملی وجود ندارد.
برازش فعل و انفعالات مرتبه پایین تر با جلوه های اصلی مرتبه بالاتر
31377
من در حال خواندن مقاله ای در مورد الگوریتم رگرسیون هستم و با تعریفی از خطای نسبی مواجه شدم (ص 15). نویسندگان خطای نسبی را $$RE = \frac{MAD}{(1/T) \Sigma_i^T |y_i - median(y)|}$$ تعریف می‌کنند که در آن MAD میانگین فاصله مطلق است $$MAD= \frac{ \Sigma_i^T |y_i - \hat y_i|}{T}$$ و $T$ تعداد نمونه‌های آزمایشی است (که معمولاً به عنوان $n$ تعیین می‌شود). من دریافتم که این فرمول برای به دست آوردن یک اندازه گیری از خطا استفاده می شود که نسبت به اندازه مقدار تخمین زده شده است، که برای مقایسه خطا در مجموعه داده ها با مقادیر هدف با مقادیر مختلف مفید است. چیزی که من نمی دانم این است که چرا ما فقط $$\frac{\Sigma_i^T (|y_i - \hat y_i|/| y_i|)}{T}$$ را انجام نمی دهیم و اگر نه، چرا از میانه به جای میانگین
فرمول خطای نسبی
548
در پاسخ به این سوال در مورد تلقی داده‌های طبقه‌بندی به‌عنوان مقیاس‌بندی بهینه و پیوسته ذکر شد. این روش چگونه کار می کند و چگونه اعمال می شود؟
چگونه می توانم از مقیاس بهینه برای مقیاس بندی یک متغیر طبقه ای ترتیبی استفاده کنم؟
83043
من در حال محاسبه امتیازهای «محبوبیت» برای محتوا در یک برنامه وب بر اساس «نمایش» و «پسندیدن» هستم. من آمار را مطالعه نکرده ام اما روشی را که باید استفاده کنم در اینجا پیدا کرده ام: http://www.evanmiller.org/how-not-to-sort-by-average-rating.html **امتیاز = کران پایین ویلسون فاصله اطمینان امتیاز برای پارامتر برنولی** در مقاله انتخاب مقدار z را به این ترتیب توضیح می دهد: _اطمینان به سطح اطمینان آماری اشاره دارد: 0.95 را انتخاب کنید تا یک عدد داشته باشید. 95% احتمال دارد که کران پایینی شما درست باشد_ من نمی‌دانم درست در اینجا به چه معناست، و چرا سطوح اطمینان پایین‌تر یا بالاتر را انتخاب می‌کنم. چرا 100% اطمینان را انتخاب نمی کنید و یک نتیجه درست به دست نمی آورید؟ من چندین سؤال دیگر را با پاسخ‌هایی پیدا کرده‌ام که به شدت فلسفی و فنی هستند و نمی‌دانم چگونه با پرونده من ارتباط دارند: فاصله اطمینان (در مقابل فاصله معتبر) واقعاً بیانگر چیست؟ دقیقاً فاصله اطمینان چیست؟ آیا نمونه‌هایی وجود دارد که فواصل معتبر بیزی آشکارا از فواصل اطمینان مکرر پایین‌تر هستند، من فرمول را اعمال کرده‌ام و امتیازهای داده‌هایم را محاسبه کرده‌ام، سوال من این است: چرا سطوح اطمینان پایین‌تر یا بالاتر را انتخاب کنم (و این به چه معناست برای امتیاز من )؟ **به روز رسانی** من با آزمایش مقادیر مختلف 'z' 'اطمینان' و نگاه کردن به نمرات ایجاد شده تا حدودی به سؤالم پاسخ داده ام: Likes | بازدید | z | امتیاز ------------------------------------------------ - 1 | 4 | 1.0 | 0.1 100 | 400 | 1.0 | 0.2289908334502525 ------------------------------------------------ - 1 | 4 | 1.96 | 0.045586062644636216 100 | 400 | 1.96 | 0.21007832849376823 ------------------------------------------------ - 1 | 4 | 2.58 | 0.029987372072017595 100 | 400 | 2.58 | 0.19854163422270693 بنابراین من می توانم از اینجا متوجه شوم که انتخاب یک «سطح اطمینان» با مقدار «z» بالاتر، امتیاز نسبتاً پایین‌تر را به آیتم با تعداد بازدید اختصاص می‌دهد («مجموع آرا»، طبق فرمول‌بندی مقاله اصلی). منظور من این است که برای مواردی که تعداد بازدیدهای کمی دارند، «اطمینان» کمتری داریم که نسبت شناخته شده فعلی نماینده نسبت ناشناخته «واقعی» است که اگر داده‌های بیشتری داشته باشیم، ظاهر می‌شود. در نظرات **@whuber** پیشنهاد کرده است که: _محدودیت های اعتماد به احتمال زیاد بخشی از یک راه حل دقیق نیست_ بنابراین سوال من اکنون این است... آیا فرمول بهتری برای محاسبه ' وجود دارد امتیاز محبوبیت برای مجموعه داده های من؟
آنچه که زندگی واقعی/مفهومی است به معنای «اطمینان» در نمره ویلسون است
35852
من سعی می کنم چندین فایل csv را بارگیری کنم (هر فایلی که نزدیک به 37 پرونده دارد فاقد سوابق است). سپس باید این فایل های داده را ادغام/پیوستم (به طور کلی 2.5 کرور رکورد در یک مجموعه داده واحد). اما گاهی اوقات به دلیل کمبود حافظه دچار خطا می شوم. حداکثر اندازه فایلی که R می تواند از طریق read.csv یا read.table بخواند چقدر است؟ چگونه بر این مسائل غلبه کنیم؟ لطفا پیشنهاد دهید.
حداکثر اندازه فایلی که R می تواند بخواند
89770
من مطالعه‌ای با سه عامل درونی طبقه‌بندی و یک متغیر شخصیتی پیوسته انجام دادم: موضوع (1،2) x قاب‌بندی ضرر سود (1،2) x چارچوب امنیتی دستاورد (1،2) x شخصیت من می‌دانم چگونه از دستور MMATRIX استفاده کنم. در SPSS برای تجزیه فعل و انفعالات بین فاکتورهای درونی من، اما من نمی دانم چگونه تعاملات را با متغیر کمکی پیوسته مدیریت کنم. به عنوان مثال، در یک نقطه، یک تعامل سه جانبه از موضوع x چارچوب امنیتی دستاورد x شخصیت دریافت می کنم. می‌خواهم بدانم که آیا یک تعامل دوطرفه کادربندی x شخصیت برای مبحث 1 وجود دارد، اما چگونه آن را آزمایش کنم؟ اگر این فقط یک تعامل دو طرفه بود، می‌توانم از دستور COMPARE استفاده کنم، زیرا می‌توان آن را همراه با یک دستور WITH کمکی استفاده کرد. اما از آنجایی که این یک تعامل سه طرفه است، مطمئن نیستم که چه کار کنم. شما نمی توانید از دستور WITH همراه با MMATRIX استفاده کنید، درست است؟ برای هر توصیه ای بسیار سپاسگزار خواهم بود. با تشکر از کمک شما!
SPSS: چگونه می توان تعاملات را در اندازه گیری های مکرر ANCOVA تجزیه کرد؟
52309
سلام کسی می تواند کمک کند - من همه این کارها را در R Code انجام می دهم: تجزیه و تحلیل یک طرفه را روی برخی از داده ها انجام داده ام و 2 تضاد تنظیم کرده ام (Liberarts-Finearts و همچنین Engineering-Science). اکنون باید سطح اطمینان 90% را برای هر کنتراست در کنتراست تعریف شده توسط کاربر محاسبه کنم. لطفاً کسی می تواند راهنمایی کند که آیا کاری که من تاکنون انجام داده ام صحیح است و همچنین چگونه می توان سطح اطمینان 90٪ را برای هر یک از 2 کنتراست محاسبه کرد؟ داده ها و کد استفاده شده تا کنون عبارتند از؛ Aptest<-data.frame(Scores,Degree) #Data frame Aptest Scores Degree 1 49 Business 2 34 Business 3 45 Business 4 59 Business 5 74 Business 6 53 Business 7 51 Business 8 57 Business 12 85 Science 13 79 Science 14 15 60 علم 16 72 علم 17 50 Liberalarts 18 41 Liberalarts 19 65 Liberalarts 20 57 Liberalarts 21 62 Liberalarts 22 47 Liberalarts 23 59 Liberalarts 24 48 Liberalarts 25 3526 Finearts 25 3526 Finearts 28 39 Finearts 29 44 Finearts 30 50 Finearts 31 41 Finearts 32 35 Finearts 33 88 مهندسی 34 70 مهندسی 35 95 مهندسی 36 77 مهندسی 37 88 37 8963 83 مهندسی #تنظیم کنتراست های مناسب در R برای تجزیه و تحلیل و گزارش تفاوت بین Liberalarts-Finearts و همچنین Engineering-Science mat = ماتریس (c(0,0,1,-1,0,0,-1,0,0, 1)، ncol = 2) # ماتریس کنتراست اولیه [،1] [،2] [1،] 0 0 [2،] 0 -1 [3،] 1 0 [4،] -1 0 [5،] 0 1 my.contrasts = mat %*% solve(t(mat) %*% mat) my.contrasts [,1] [,2] [1,] 0.0 0.0 [2،] 0.0 -0.5 [3،] 0.5 0.0 [4،] -0.5 0.0 [5،] 0.0 0.5 کنتراستها(Aptest) = my.contrasts #تخصیص کنتراستها کنتراستها(Aptest) [,1] [,2] [,3] [,4] Business 0.0 0.0 -0.80710330 -0.3854663 مهندسی 0.0 -0.5 -0.01315068 0.0 0.41725803 -0.3548179 Liberarts -0.5 0.0 0.41725803 -0.3548179 Science 0.0 0.5 -0.01370638 0.5475510 خلاصه (Score) (Score) امتیازات ~ درجه تماس: aov(فرمول = امتیازات ~ درجه) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -18.7500 -4.3750 0.3125 6.5312 21.2500 ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (Intercept) 52.750 3.637 14.503 1.51e-14 *** DegreeEngineering 27.875 5.144 5.419 8.83e-06 *** DegreeFinearts -15.4-2225. 0.024279 * DegreeScience 22.250 5.144 4.326 0.000175 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 10.29 در 28 درجه آزادی (8 مشاهدات حذف شده به دلیل عدم وجود) R-squared چندگانه: 0.7417، R-squared تنظیم شده: 0.714 F-statistic: 26.8 در 3 و 28 DF، p-value: 2.225e-08 هر گونه کمک و راهنمایی بسیار قدردانی خواهد شد. با تشکر
بررسی فواصل اطمینان در کنتراست تعریف شده توسط کاربر (ANOVA یک طرفه)
31370
من مجموعه ای از شمارش سرطان (بروز) برای گروه های نژادی متفاوت برای 4 نوع مختلف سرطان دارم. می‌خواهم بدانم که آیا تفاوتی در بروز سرطان در بین گروه‌های نژادی وجود دارد؟ بنابراین داده‌ها کمی شبیه این به نظر می‌رسند: سایت‌های سرطانی همه نژادها سفید سیاه آسیایی/جزیره‌ای اقیانوس آرام سیستم گوارشی 144,010 119,330 17,071 5,242 کولون و رکتوم 73,183 61,450 8,177 2,243 کولون برون. رکتوم 50,492 42,366 5,911 1,380 رکتوم 22,691 19,084 2,266 863 نظری در مورد نحوه برخورد با این موضوع دارید؟
چگونه می توانم تعداد سرطان ها را بر اساس نژاد برای 4 نوع سرطان مقایسه کنم
15603
من در حال بررسی مقاله ای هستم که در آن نویسندگان بقای یک حشره تغذیه شده با سه رژیم غذایی مختلف را مقایسه می کنند. پس از تجزیه و تحلیل بقا (با استفاده از Surv)، آنها مقایسه های متعددی را از میانگین بقا در میان درمان ها با استفاده از روش تضادها از کتاب Crawley _The R انجام می دهند. آنها نتایج خود را _a la_ a test Tukey ارائه می کنند (یعنی معنی با مقادیر بسیار متفاوت دارای حروف متفاوت است). مقایسه بین 2 سطح درمان در R را می توان با survdiff انجام داد، اما این آمار یک آمار مربع کای ایجاد می کند که با آنچه من در مقاله می بینم مطابقت ندارد. بیش از 2 سطح درمانی وجود دارد (مشابه تست توکی) قبلاً در R-help سؤال شده است اما هرگز پاسخ داده نشده است. مشکل من دو چیز است: من با تجزیه و تحلیل بقا آشنا نیستم تا بدانم آیا روش کنتراست با سؤال مناسب است یا خیر، و به کتاب کراولی دسترسی ندارم. آیا کسی می تواند نمونه ای از روش کراوی ارائه دهد یا به یک منبع وب اشاره کند که در آن روش او توضیح داده شده است؟
انجام تضاد بین سطوح درمان در تجزیه و تحلیل بقا
11856
SPSS خروجی فاصله اطمینان از تفاوت میانگین را ارائه می دهد. من در بعضی جاها خوانده ام که معنی آن 95 بار از 100، میانگین نمونه ما تفاوت بین این مرزها خواهد بود من این را نامشخص می دانم. آیا کسی می تواند جمله بندی واضح تری را برای توضیح فاصله اطمینان از تفاوت میانگین ها پیشنهاد کند؟ این خروجی در زمینه یک آزمون t تک نمونه ای ظاهر می شود.
چگونه فاصله اطمینان اختلاف میانگین ها را در یک آزمون تی نمونه تفسیر کنیم؟
47339
من نمونه ای به طول $N$ دارم که بیشتر از توزیع گاوسی با میانگین و واریانس ناشناخته گرفته شده است. از آن نمونه‌های $N$، بخشی از آنها (معمولاً کمتر از 1-2٪) موارد پرت هستند که از توزیع گاوسی دیگری با میانگین بزرگ‌تر (معمولاً با 3+ انحراف استاندارد توزیع رایج‌تر بزرگ‌تر) گرفته شده‌اند. من علاقه مند به تخمین پارامترهای توزیع پس زمینه رایج تر هستم تا بتوانم نقاط پرت را با احتمال هشدار نادرست تعیین شده جدا کنم. استفاده از میانگین/واریانس نمونه راه‌های آشکاری برای مقابله با این مشکل است، اما برای اهداف من به اندازه کافی قوی نیستند (یعنی وجود نقاط پرت منجر به یک سوگیری افزایشی در برآوردها می‌شود). من می توانم میانگین را با استفاده از آمارهای نمونه مختلف مانند میانه یا حالتی که در برابر مقادیر پرت مقاوم تر هستند تخمین بزنم. با این حال، من مطمئن نیستم که چگونه به تخمین واریانس توزیع به روشی مشابه نزدیک شوم. آیا رویکرد پذیرفته شده ای برای چنین مشکلی وجود دارد؟ **ویرایش:** تصمیم گرفتم جزئیات بیشتری را در پاسخ به نظر دهندگانی که در زیر پیشنهاد داده بودند، اضافه کنم. من مطمئن نیستم که آیا این رویکرد خوبی خواهد بود یا نه. من می خواهم پارامترهای توزیع پس زمینه را برای انتخاب از بین دو فرضیه تخمین بزنم: 1. هیچ نقطه پرت وجود ندارد. نمونه شامل یک توزیع گاوسی با پارامترهای ناشناخته است. 2. برخی نقاط پرت وجود دارد که در مکان های ناشناخته در نمونه قرار دارند. در حالی که توزیع دقیق آنها مشخص نیست، من معتقدم که منطقی است که آن را به عنوان یک توزیع گاوسی با میانگین به طور قابل توجهی بزرگتر از پس زمینه تقریب کنیم. اگر این فرضیه درست باشد، می‌خواهم مکان همه آن نقاط پرت را شناسایی کنم. بنابراین، حدس می‌زنم در سوال اصلی کمی گمراه‌کننده بودم. باید می‌گفتم که نمونه «ممکن است دارای نسبتی از نقاط پرت باشد». در موردی که هیچ چیز دور از علاقه وجود ندارد، مطمئن نیستم که GMM نتایج خوبی به من بدهد. هدف من شناسایی پارامترهای توزیع گاوسی زیربنایی است تا بتوانم نقاط پرت را با احتمال خطای شناخته شده و کنترل شده نوع اول شناسایی کنم. من قصد دارم به دنبال اطلاعات بیشتری در مورد روش های قوی برای تخمین مقیاس توزیع باشم.
چگونه می توان پارامترهای یک نمونه توزیع گاوسی را با مقادیر پرت تخمین زد؟
47337
من در حال نوشتن یک گزارش بسیار اساسی در مورد توانایی سه پیش بینی کننده (دو دوگانه و یکی پیوسته) برای پیش بینی معیار هستم. من یک نمودار پراکندگی برای کل مدل ایجاد کردم، و تنها کاری که باید انجام دهم این است که 1 یا 2 جمله بسیار ساده در مورد آنچه نشان می دهد بنویسم. آیا مناسب است بیان کنیم که بسیاری از باقیمانده ها نشان می دهد که این ممکن است یک مدل ضعیف باشد؟ آیا چیز دیگری وجود دارد که باید به آن توجه ویژه ای داشته باشم؟ [لطفاً به خاطر داشته باشید که این یک گزارش بسیار ابتدایی است. از من انتظار نمی رود که چیزی عمیق بنویسم. من از SPSS استفاده می کنم]. خیلی ممنون از کسی که جواب داد
چگونه نمودار پراکندگی را برای کل مدل در تحلیل رگرسیون چندگانه خطی تفسیر کنیم؟
76180
اگر مجموعه داده ای داشته باشم که فقط شامل متغیرهای طبقه بندی شده باشد، بنابراین متغیرهایی با مقادیر 0 و 1، آیا اگر بخواهم از آنها استفاده کنم، فرضیات لاجیت و رگرسیون خطی استاندارد را نقض می کنم؟ من چک کردم و به نظر نمی رسد چیزی را نقض کند. پس آیا اشتباه است اگر من فقط پیش بروم و یک رگرسیون لاجیت را روی دو متغیر «x»، «y» به روش زیر در R تخمین بزنم؟ «رگرسیون = glm(y~x، خانواده = دوجمله‌ای (logit))» آیا باید مشخص کنم که «x»، «y» متغیرهای طبقه‌بندی هستند، چرا به آن نیاز دارم، اگر چنین است، آیا آنها فقط داده نیستند؟
آیا استفاده از داده های طبقه بندی شده با لاجیت و/یا رگرسیون خطی مناسب است؟
19604
من وظیفه دارم یک سیستم SPC را در شرکت تولیدی خود با اندازه متوسط ​​اما بسیار فنی ایجاد کنم. نام بردن از شرکت‌های خاص ممکن است خلاف قوانین این انجمن باشد، یا شاید شکل بدی داشته باشد، اگرچه اگر کسی این کار را راحت انجام دهد، مطمئناً از آن قدردانی می‌کنم (به شرط اینکه نظر نسبتاً بی‌طرفانه باشد). به غیر از این، ممکن است فهرستی از شرکت هایی که چنین مواردی را ارائه می دهند، یا فهرستی از وب سایت های شخص ثالث که برخی از بسته های SPC را نقد و/یا رتبه بندی می کنند. در اینجا اصول اولیه آنچه که بسته نرم افزاری نیاز دارد آمده است: * باید با یک پایگاه داده تعامل داشته باشد (ما در شرکت من از MS SQL استفاده می کنیم). اگر دسترسی به DB قابل انجام نباشد، می‌توانیم اندازه‌گیری‌ها و پیام‌ها را به‌عنوان گزینه‌ها یا آرگومان‌ها به خط فرمان منتقل کنیم، اگرچه این ایده‌آل نیست. * باید زنده باشد، همیشه روشن / در حال اجرا باشد * باید بتواند مسائل را با هم ارتباط برقرار کند. برخی از مثال‌ها: (الف) زمانی که نمودار خارج از کنترل است، از جمله اطلاعات شناسایی مرتبط، یک ایمیل برای برخی افراد ارسال کنید، (ب) ممکن است با یک نوع رسانه اجتماعی مبتنی بر کار ادغام شود، به طوری که هر کسی که ثبت نام با گروه کنترل کیفیت یک زنگ هشدار OoC (خارج از کنترل) دریافت می کند * دارای برخی تصاویر زیبا و ساده (نوعی نمودار استاندارد SPC، نشان دادن محدودیت ها و رنگ آمیزی ایده آل موارد OoC متفاوت، یا چیزی). هیچ چیز بیش از حد فانتزی در اینجا مورد نیاز نیست، اگرچه گرافیک تعاملی بیشتر یک امتیاز خواهد بود. * دارای محدودیت‌های قابل برنامه‌ریزی (به عنوان مثال، اگر می‌خواهیم برخی از قوانین مبهم‌تر WEECO را درج کنیم، می‌توانیم... یا در عوض، برخی از آنها را که مناسب نیستند حذف کنیم) * اجازه می‌دهیم نوعی مدل‌سازی از طریق آن انجام شود. به عنوان مثال، اگر 100 معیار مورد علاقه وجود داشته باشد و من فقط 5 نمودار، حداکثر می‌خواهم، می‌توانم مدلی مبتنی بر PCA، خوشه‌بندی یا چیزی شبیه به آن ایجاد کنم که در آن بتوانم ترکیبی از معیارها را پیدا کنم که به وضوح با مشکلات و دلایل اصلی هماهنگ است. . بنابراین، 100 معیار اصلی وارد مدل من می‌شود، سپس مدل من 5 متریک بهتر تراز شده را بیرون می‌دهد. * در واقع، بیایید به آن فکر کنید، این موضوع بحث برانگیز است: من می توانم تمام معیارهای مربوطه خود را در یک DB منتشر کنم و این نرم افزار SPC را با DB صحبت کنم. بنابراین تا زمانی که اولین نقطه وجود دارد، این موضوع قابل بحث است. * در دراز مدت، این احتمالاً به پروژه ای در 6 بخش مختلف تبدیل می شود که در مجموع 30 تا 60 نمودار ایجاد می کند، با شاید 5 تا 20 به روز رسانی اندازه گیری در روز. من آن را برای نگرانی های محدوده ذکر می کنم. من از هر توصیه ای پیشاپیش قدردانی می کنم! تعطیلات مبارک! با تشکر
مشاوره در مورد بسته SPC سطح تولید خوب (کنترل فرآیند آماری)؟
35859
بیایید بگوییم که من سعی می کنم بر اساس مجموع 10 ویژگی فیزیکی (قد، وزن و غیره) پیش بینی کنم که یک فرد مذکر است یا زن. اندازه جمعیت 150 است، بنابراین من یک ماتریس داده 150x10 دارم. من یک درخت تصمیم را با استفاده از بسته rpart می‌سازم و دقت 80 درصدی را برای مردان و زنان به دست می‌آورم. با تشویق، به تأیید متقابل از طریق ترک-50-خارج ادامه دادم: به طور تصادفی 100 نفر را انتخاب کردم تا به عنوان مجموعه آموزشی درخت تصمیم و 50 نفر را به عنوان مجموعه آزمایشی عمل کنند. دقت پیش‌بینی به‌عنوان یک بردار دو ستونی ذخیره می‌شود (قبل از دقت برای مردان، دقت پیش‌بینی برای زنان). من این را 1000 بار تکرار می کنم و ماتریس 1000x2 حاصل را رسم می کنم. من نمی دانم از الگوی به دست آمده چه چیزی بسازم (همچنین یک نمودار 10000 تکراری پیوست کردم تا بتوان الگوی مورد نظر من را راحت تر مشاهده کرد). آیا این صرفاً نوعی سوگیری در تابع نمونه‌گیری همراه با توانایی پیش‌بینی ضعیف مدل است؟ ![ اعتبار سنجی متقاطع، 1k تکرار](http://i.stack.imgur.com/FSBr7.png) ![ اعتبار سنجی متقاطع، 10 هزار تکرار](http://i.stack.imgur.com/oJYig.png) ویرایش: طرحی برای 10 هزار تکرار، رنگی بر اساس تعداد نرها در زیر مجموعه آزمایشی. (ویرایش شماره 2 - زیبا شده از طریق ggplot2) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/PaMrL.png) ویرایش 3 : نمودار چگالی نتایج ![شرح تصویر را اینجا وارد کنید]( http://i.stack.imgur.com/OuxvM.png)
یک الگوی عجیب از اعتبار سنجی متقاطع نتایج
112704
فرض کنید من تعداد زیادی نمونه دارم، که برخی از آنها فقط شامل یک مشاهده هستند، و برخی از آنها حاوی حداکثر 12 هستند. هر مشاهده می تواند در یکی از چهار دسته در هر نمونه قرار گیرد. این باعث می‌شود که دسته‌ها مقادیر گسسته‌ای بین 0 تا حداکثر، در چند نمونه، 10 داشته باشند. من درصد مشاهداتی را محاسبه می‌کنم که در یکی از 4 دسته قرار می‌گیرند. من فکر می کنم که نمونه هایی با کمتر از 6 یا بیشتر مشاهدات نتایج را منحرف می کنند زیرا درصدها به طور مداوم 0٪، 25٪، 50٪ یا 100٪ خواهند بود و مقادیر بسیار زیاد و پایین تأثیر منفی بر نتایج خواهند داشت. به همین دلیل من فقط نمونه هایی را انتخاب می کنم که بیش از 6 مشاهده داشته باشند. من ستونی از مشاهدات را در یک دسته با تعدادی دیگر از ستون های داده مرتبط می کنم. نتایج همبستگی بین دسته انتخابی و بسیاری از این متغیرها در هنگام استفاده از نمونه هایی با بیش از 6 مشاهدات با نتایج در هنگام استفاده از همه نمونه ها متفاوت است. آیا در این فرض که این نتایج «دقیق تر» از نتایج استفاده از هر نمونه هستند، درست است؟ آیا یک همبستگی ساده بین متغیر طبقه‌بندی و سایر ستون‌های داده، روشی ساده برای مقایسه رابطه آنهاست؟ مثل همیشه، اگر راهی برای بهبود این سوال وجود دارد، لطفاً به من اطلاع دهید.
فیلتر کردن نمونه هایی با اندازه نابرابر و همبستگی طبقه بندی با داده های غیر طبقه بندی
74859
هنگامی که من یک رگرسیون پشته را بر روی داده های زیر با استفاده از تخمینگر Hoerl، Kennard و Baldwin اجرا می کنم، فقط زمانی که از (n-p) استفاده می کنم که n تعداد مشاهدات و p تعداد پارامترها در مخرج s_squared است، مقدار صحیح k را دریافت می کنم. . x=[1 1.9; 1 2.1 ;1 2;1 2;1 1.8]; y=[6.0521;7.0280;7.1230;4.4441;5.0813]; k=HKB(y,x); تابع [b2]=HKB(y,x) [n, p]=size(x); b=x\y; y_hat=x*b%+mean(y,1); r=(y-y_hat); s_squared=(r'*r)/(n-p); %s_squared=(r'*r)/(n-p-1); k=p*s_squared/(b'*b); %HKB تخمینگر شبه = sqrt(k) * eye(p); x_ridge = [x;شبه]; y_ridge = [y;صفر(p,1)]; % محاسبه ضریب برآورد b2 = x_ridge\y_ridge; پایان اکنون وقتی سعی می کنم همین کار را با مجموعه داده هالد انجام دهم (Hald A. (1952) Statistical Theory with Apps Wiley, New York.) این بار فقط در صورتی به نتیجه صحیح می رسم که مخرج s_squared را به آن تغییر دهم. (n-p-1)؟ کم نور=1; flag=0; x1=[7;1;11;11;7;11;3;1;2;21;1;11;10]; x2=[26;29;56;31;52;55;71;31;54;47;40;66;68]; x3=[6;15;8;8;6;9;17;22;18;4;23;9;8]; x4=[60;52;20;47;33;22;6;44;22;26;34;12;12]; x=horzcat(x1,x2,x3,x4); y=[78.5;74.3;104.3;87.6;95.9;109.2;102.7;72.5;93.1;115.9;83.8;113.3;109.4]; [n, p]=size(x); mu= mean(y, dim); sigma = std(y, flag, dim); sigma0 = سیگما; sigma0(sigma0==0) = 1; y_scaled = bsxfun(@minus,y, mu);%z = bsxfun(@minus,y, mu); sigma0=sigma0*sqrt(n-1); y_scaled = bsxfun(@rdivide، y_scaled، sigma0);%z = bsxfun(@rdivide، y، sigma0); mu= mean(x,dim); sigma = std (x, flag, dim); sigma0 = سیگما; sigma0(sigma0==0) = 1; x_scaled = bsxfun(@minus,x, mu);%z = bsxfun(@minus,x, mu); sigma0=sigma0*sqrt(n-1); x_scaled = bsxfun(@rdivide، x_scaled، sigma0); %z = bsxfun(@rdivide، z، sigma0); k_iter=HKB(y_scaled,x_scaled); از قضا منبعی که من نتایج را با آن مقایسه می‌کنم: کلارک و تروسکی (ارتباطات در آمار-شبیه‌سازی و محاسبات، 35: 605-619، 2006) مخرج را به صورت (n-p) در صفحه 607 فهرست می‌کنند، اما برای تطبیق نتایج خود در p610 برای hald. داده ها باید از مخرج (n-p-1) استفاده کنید. من برای اولین بار مخرج (n-p-1) را در Gibbons p132 دیدم (مجله انجمن آماری آمریکا، جلد 76، شماره 373 (مارس، 1981)، صفحات 131-139). هم Gibbons و هم Clark و Troskie فرض می‌کنند که داده‌ها قبل از ارائه برآوردگرهای s_squared خود به نمایش مؤلفه اصلی تبدیل شده‌اند، بنابراین فکر نمی‌کنم این دلیل این تفاوت باشد (اما به هر حال آن را فهرست می‌کنم زیرا مطمئن نیستم). تفاوت دیگری که از کد مشاهده می شود این است که داده ها قبل از محاسبه در مقاله Clark و Troskie استاندارد شده اند. آیا این دلیل از دست دادن درجه ای از آزادی است؟ اگر چنین است چرا 2 درجه آزادی از دست نمی رود زیرا هم میانگین و هم انحراف معیار تخمین زده می شوند.
درجات صحیح برآوردگر آزادی برای واریانس در رگرسیون ریج
83040
من دو مدل رگرسیون لجستیک را با استفاده از تابع anova(mod1,mod2,test=Chisq) در R مقایسه کردم. نتیجه ای که به دست آوردم به صورت زیر است: مدل 1: وضعیت ~ Added.genes.var مدل 2: وضعیت ~ اضافه شده .genes.var + multi_genes Resid. دی اف رزید. Dev Df Deviance Pr(>Chi) 1 887 1218.0 2 886 1184.2 1 33.805 6.093e-09 *** تا آنجایی که من متوجه شدم، این بدان معناست که افزودن متغیر پیش‌بینی‌کننده 'mult_genes' به مدل به طور قابل توجهی برازش آن را بهبود می‌بخشد. به همین دلیل، هنگام بررسی ناحیه زیر منحنی (AUC) با تابع auc() بسته pROC، انتظار داشتم تفاوت قابل توجهی در آن نیز ببینم، اما به ترتیب برای مدل 1 و 2 به دست آوردم: Area زیر منحنی: 0.6147 مساحت زیر منحنی: 0.6158 من معتقدم 0.61 به عنوان AUC بسیار پایین است... آیا این به این معنی است که هر دو مدل عملکرد دارند بد و چگونه ممکن است در مقایسه مدل‌ها با anova() و AUCهای مشابه، چنین نتیجه قابل توجهی به دست آورد؟ خیلی ممنون
مقایسه دو مدل رگرسیون لجستیک (نتیجه قابل توجه با anova() اما AUCهای بسیار مشابه)
87740
برای مقایسه میانگین دو نمونه، یکی با اندازه 21 و دیگری با سایز 47، باید آزمایش کنم. آمار توصیفی در زیر آمده است. من نرمال بودن را با Shapiro-Wilk به هر طریقی تست کردم، فرضیه صفر را برای هر کدام رد کردم، بنابراین تایید می کند که آنها نرمال نیستند. من می دانم که آزمون t برای این مورد مناسب نخواهد بود. من به سمت ناپارامتریک رفتم و از آزمون مجموع رتبه Wilcoxon استفاده کردم و p-value 0.2395 را دریافت کردم که نشان می دهد هیچ مدرکی وجود ندارد که میانگین ها را متفاوت بدانیم (آنها برابر هستند). آیا استفاده از مجموع رتبه Wilcoxon در این مورد که شکل هر دو نمونه متفاوت است صحیح است؟ آیا من چیزی را از دست داده ام؟ یا با این اطلاعات می توانم بگویم که تفاوتی بین وسیله وجود ندارد؟ آیا انجام کار دیگری مانند جایگشت ضروری است؟ برخی از آمارها ... نمونه 1 Shapiro-Wilk p-value = 0.000 میانگین = 0.0270 sd = 0.0892 کشش 10.4 چولگی 3.2 n = 21 نمونه 2 Shapiro-Wilk p-value = 0.0366 متوسط ​​= 0.0366 skewness 5 = 0.036. 0.6 n = 46
تست تفاوت بین دو میانگین اریب (N1=21) در مقابل زنگ متقارن (N2=47). آزمون مجموع رتبه ویلکاکسون مناسب است؟
6560
من به دنبال کمکی برای ابداع یک آزمون فرضیه برای وضعیت زیر هستم. 1. من یک منبع رادیواکتیو دارم که هر چند وقت یکبار یک ذره را بیرون می ریزد. 2. همچنین، من دو آشکارساز ذرات دارم: یک آشکارساز ذرات قرمز و یک آشکارساز ذرات سبز. هر زمان که آشکارساز ذرات قرمز ذره ای را تشخیص دهد، یک چراغ قرمز چشمک می زند. اجازه دهید $R$ رویدادی را نشان دهد که ذره توسط آشکارساز قرمز شناسایی شده است، و $r$ رویداد مکملی است که ذره توسط آشکارساز قرمز شناسایی نشده است. هر زمان که آشکارساز ذرات سبز ذره ای را تشخیص دهد، یک چراغ سبز چشمک می زند. اجازه دهید $G$ رویدادی باشد که آشکارساز سبز ذره را تشخیص می‌دهد و $g$ که آن را تشخیص نمی‌دهد. بنابراین، هر ذره ساطع شده در یکی از چهار دسته قرار می گیرد: * توسط هر دو آشکارساز ($RG$)، * توسط آشکارساز قرمز تشخیص داده می شود، اما آشکارساز سبز ($Rg$)، * توسط آشکارساز سبز تشخیص داده می شود، اما قرمز نیست. آشکارساز ($rG$)، یا * توسط هیچ یک از آشکارسازها شناسایی نشده است ($rg$). 3. هر بار که ذره ای ساطع می شود، آشکارساز قرمز مقداری احتمال دارد که ذره را تشخیص دهد و آشکارساز سبز مقداری احتمال تشخیص ذره را دارد. (وقتی هیچ ذره ای وجود نداشته باشد، آنها هرگز تشخیص کاذب را راه اندازی نمی کنند.) من می دانم که هر ذره به طور یکسان و مستقل از همه ذرات دیگر مدیریت می شود، اما نمی دانم که آیا این دو آشکارساز مستقل از یکدیگر هستند یا خیر. این امکان وجود دارد که آنها مستقل باشند (یعنی $\Pr[RG] = \Pr[R] \Pr[G]$) یا همبستگی (یعنی $\Pr[RG] \ne \Pr[R] \Pr[G]$); من نمی دانم کدام مورد، پیشینی است. 4. تعداد شناسایی‌های $RG$-(یعنی تعداد دفعاتی که هر دو آشکارساز چیزی را شناسایی کردند)، تعداد $Rg$-تشخیص‌ها (یعنی تعداد دفعاتی که آشکارساز قرمز چیزی را شناسایی کرد، اما نه) را نگه می‌دارم. سبز)، و تعداد $rG$-تشخیص. متأسفانه، من هیچ راهی برای اندازه‌گیری موقعیت‌های $rg$ ندارم، زیرا آن ذرات توسط هیچ یک از آشکارسازها شناسایی نمی‌شوند. در پایان آزمایش، من سه عدد صحیح غیر منفی دارم که این تعداد را نشان می دهد. من می خواهم این فرضیه $H$ را آزمایش کنم که دو آشکارساز مستقل هستند، یعنی رویداد $R$ مستقل از رویداد $G$ است. آیا کسی می تواند راهی برای محاسبه $p$-value این فرضیه، با توجه به 3 عدد از چنین آزمایشی، پیشنهاد کند؟ من با یک الگوریتم/روش کامپیوتری برای محاسبه مقدار p$-$ کاملاً راضی خواهم بود. من به یک فرمول ساده نیاز ندارم. چیزی که می تواند توسط یک کامپیوتر محاسبه شود کافی است. * * * در اینجا راه دیگری برای مشاهده این وجود دارد. می‌توانیم یک جدول احتمالی 2×2 تشکیل دهیم، مانند این: G | g --------- R | 17 22 r | 12؟ ثبت 17 $RG$-events، 22 $Rg$-events، و غیره. متأسفانه، سلول پایین سمت راست خالی است، زیرا ما نمی دانیم چه تعداد $rg$-particle ساطع شده است. اگر برای هر چهار سلول شمارش داشتیم، احتمالاً می‌توانستیم از آزمایش دقیق فیشر استفاده کنیم، اما این کار را نمی‌کنیم. همچنین، $\Pr[R]$ یا $\Pr[G]$ (من حدس می‌زنم که پارامترهای مزاحم هستند) یا تعداد کل ذرات منتشر شده به ما داده نمی‌شود. پیشنهادی دارید؟
تست استقلال، زمانی که من یک سطل از یک حادثه 2x2 را گم می کنم
19605
زمانی پستی در مورد تفاوت های رگرسیون چند متغیره و چند متغیره وجود داشت. من پست مربوطه را اینجا دیدم. با این حال من این بحث را با یک همکار دارم و در حالی که با اطلاعات این پست موافقم، همکارم اصرار دارد که رگرسیون چند متغیره در واقع فقط رگرسیون چند متغیره است. تعاریف این فرد عبارتند از: 1. **رگرسیون چند متغیره:** یک نقطه پایانی، پیش بینی کننده های خطی چندگانه 2. **رگرسیون چند متغیره**: چندین نقطه پایانی و پیش بینی کننده های خطی چندگانه. در حالی که من فکر می کنم تعاریف عبارتند از: 1. **رگرسیون چند متغیره**: یک نقطه پایانی، پیش بینی کننده های خطی چندگانه 2. **رگرسیون چند متغیره**: چندین نقطه پایانی، چندین پیش بینی خطی. بنابراین، آیا همه اینها موضوع معناشناسی است؟ آیا آنها یکسان هستند؟ اگر یک نوع زیرمجموعه دیگری است، چرا باید بین چند متغیره و چند متغیره تمایز وجود داشته باشد؟
بازخوانی معناشناسی تحلیل چند متغیره و چند متغیره
95414
یک نوع مدل خطی کلاسیک را در نظر بگیرید: $y_i=a + b\left(x_i-\bar{x} \right)+e_i $ زیرا $e_i \sim N \left (0, \sigma^2 \right)$ , $y_i \sim N \left(a+ b \left(x_i -\bar{x} \right)، \sigma^2 \right)$. تخمین‌های OLS شیب و ضریب قطع عبارتند از: $\hat{b}=\frac{\sum \left(x_i - \bar{x} \right) \left(y_i-\bar{y} \right) }{\sum \left(x_i - \bar{x} \right)^2} $ (طبق معمول)، **اما** $\hat{a}=\bar{y}$ این دو تخمین یک ترکیب خطی از متغیرهای نرمال خود با $\hat{b}\sim N \left(b ,\frac{ \sigma^2}{\sum \left(x_i - \bar{x} \right)^2 عادی هستند }\right)$ and $\hat{a} \sim N \left(a, \frac{\sigma^2}{n}\right)$ سپس باید نشان دهم که کوواریانس بین $\hat{a} دلار و $\hat{b}$ $0$ است اما من در ارزیابی $$E \left[ \hat{a} \hat{b} \right]=\frac{1}{\sum \left( x_i-\bar گیر کرده‌ام {x} \right)^2} E \left[\bar{y} \sum \left(x_i -\bar{x} \right) y_i \right] $$ لطفاً می‌توانید در اینجا به من کمک کنید؟ با تشکر
کوواریانس بین برآوردهای OLS در یک مدل خطی غیر استاندارد
39163
مقاله ویکی‌پدیا برای توزیع نرمال می‌گوید که بیان تابع درجه دوم $f(x) = ax^2+bx+c$ بر حسب $\mu$ و $\sigma^2$ رایج‌تر است. باید این کار را انجام دهم تا در نهایت $\mu = -\frac{b}{2a}$ و $\sigma^2 = -\frac{1}{2a}$ را حل کنم من می دانم که می توانم معادل سازی کنم $ax^2 + bx +c =\frac{-(x-\mu)^2}{2\sigma^2}$، اما من نمی‌دانم که چگونه عبارت درست مشتق شده است.
چگونه معادله درجه دوم را بر حسب مو و واریانس بیان می کنید؟
35850
[این اولین پست من در CrossValidated است، امیدوارم خارج از موضوع نباشم] من داده‌های متشکل از 10^6 نقطه در فضای سه بعدی دارم. ما می‌خواهیم برخی از الگوریتم‌های برازش سطح را امتحان کنیم که نمی‌توانند این تعداد زیاد نقاط را مدیریت کنند. بنابراین می‌خواهم از ابزارهایی برای کاهش داده‌ها استفاده کنم (شاید ~ 1:100 مورد نیاز باشد) - خوشه‌بندی در اینجا به نظر من مناسب است. داده ها حاوی بسیاری از نقاط تقریبا یکسان هستند. آیا کسی یک الگوریتم ساده معقول با پیاده سازی در دسترس می شناسد؟ پیاده سازی در پایتون، اکتاو یا متلب ترجیح داده می شود. من می توانستم خودم را بچرخانم، اما فکر می کنم این باید قبلاً حل می شد.
کاهش داده نقاط سه بعدی
74857
اگر یک متغیر تصادفی از توزیع دوجمله ای منفی با پارامترهای $r$ و $u$ و $p=1/ (1+u)$ پیروی کند، چگونه با استفاده از توزیع دو جمله ای در R یک نمونه تصادفی از دو جمله ای منفی ترسیم کنیم؟
با توجه به توزیع دوجمله ای منفی در R
39160
من معادله ای دارم که دارم آن را ادغام می کنم: integrand <- Vectorize(function(x,scale,con,time,tau,degrade,monkey){scale * (con * (time - tau)) - degrade * monkey)} # I باید Vectorize زیرا من در حال ادغام هستم و همه مقادیر constats eq هستند <- integrate(integrand,lower=0,upper=time)$value eq می دهد من غلظتی از میمون ها را که به عنوان M معرفی می کنم. داده های زیر (قطار و قطار2) M را در 7 نقطه زمانی مختلف (0,20,40,60,120,240,360) در طول یک دوره شش ساعته پیدا کردند. روشی که Ms قطار و train2 پیدا شد از این معادله استفاده نمی کرد. این معادله یک روش مصنوعی برای یافتن M است. من می‌خواهم از این معادله در 7 نقطه زمانی داده شده برای استدلال زمان استفاده کنم و آن 7 مقدار نهایی M را هم برای Ms Train و هم Train2 قرار دهم. در معادله من آرگومان‌های مقیاس ، 'tau' و 'degrade' پارامترهای ناشناخته هستند. با ... con = 55; زمان = 1 از 7 نقطه زمانی. میمون = 1 از 7 خانم (از قطار و قطار2) مربوط به نقطه زمانی. دلیل اینکه من می‌خواهم از train و train2 برای یافتن پارامترهای ناشناخته خود استفاده کنم این است که آنها دارای کرانهای 't' بالایی برای انتگرالهای خود هستند که مشخص شده است. بنابراین من مقادیر پارامترهای ناشناخته فعلی خود (مقیاس، تاو و تنزل) را می‌خواهم که به بهترین تناسب جهانی 7 Ms مصنوعی برای هر دو قطار و قطار2 Ms. (t کران بالا == 360) نقاط زمانی M 0 منجر شود. 1.0000000 20 0.7202642 40 0.8000305 60 1.7430986 120 16.5172242 240 33.9140056 360 34.5735984 train2 (t کران بالا == 60) نقاط زمانی M 0 1.0000000 20 0.7540779 40 0.7540779 40 0.764 0.764 0.7601 16.5431465 240 16.7493493 360 6.2145258 من می‌خواهم از یک تناسب بیشینه‌سازی نیوتن-راپلفسون استفاده کنم، اما کاملاً مطمئن نیستم که چگونه 3 پارامتر شناخته شده خود را وصل کنم و بهترین تناسب جهانی 3 پارامتر ناشناخته را دریافت کنم. استدلال من در پس انتخاب نیوتن رالفسون توانایی آن در مقابله با متغیرهای w/k است. اگر راه آسان‌تری برای انجام این کار می‌بینید، لطفاً به من اطلاع دهید. maxNR(eq, ...؟ # چگونه بردار پارامتر شناخته شده خود را لیست کنم و چگونه سه پارامتر ناشناخته را چاپ می کند؟ اساساً برای نوشتن این کد به کمک نیاز دارم، من قبلاً از آن استفاده نکرده ام. از وقتی که گذاشتید متشکرم
حداکثر سازی نیوتن-رافسون با پارامتر k
35857
من سعی می کنم یک تحلیل مدل خطی مختلط را با SPSS اجرا کنم. وقتی می‌خواهم تجزیه و تحلیل را اجرا کنم، SPSS پیغام خطای زیر را می‌دهد: «سطوح اثر تکراری برای هر مشاهده در یک موضوع تکراری متفاوت نیست.» من سعی می‌کنم از یک مدل ترکیبی استفاده کنم زیرا داده‌های من مقادیری از دست رفته دارند و GLM کار نمی کند (تقریباً هر شرکت کننده حداقل یک مقدار از دست رفته دارد). این آزمون از طرح درون موضوعی استفاده کرد و داده‌های من به این صورت است: «شرکت‌کننده | تکرار | محور | X | Y | Z | P_rate` شرکت کننده شناسه آزمودنی است. تکرار نشان دهنده مشاهده مکرر است، در حالی که محور، X Y Z ترکیب خاصی از شرایط را برای آن مشاهده نشان می دهد (محور دارای 3 سطح است، X، Y، Z هر کدام دو سطح دارند). برای هر ترکیب دو تکرار وجود داشت. بنابراین من در مجموع 48 مشاهده دارم (2 x 3 x 2 x 2 x 2). P_rate متغیر وابسته است. در پنجره محاوره‌ای، من از «شرکت‌کننده» به عنوان متغیر موضوع، «تکرار» به عنوان متغیر تکراری و «محور، X، Y، Z» به‌عنوان عواملم استفاده می‌کنم. با این حال SPSS تجزیه و تحلیل را به دلیل آن خطا اجرا نمی کند. برای اینکه آنالیز را به درستی اجرا کند باید چه کار کنم؟ من سعی کردم از یک روش بیشینه سازی انتظارات برای جایگزینی مقادیر از دست رفته استفاده کنم تا بتوانم یک ANOVA اندازه گیری های مکرر استاندارد را اجرا کنم. این تفاوت قابل توجهی برای پارامتر Repetition می دهد اما به سختی (p=0.049) بنابراین من می خواستم از یک مدل ترکیبی برای بررسی مجدد آن استفاده کنم. پیشاپیش ممنون
مدل خطی مختلط با اندازه گیری های مکرر در SPSS
87743
من از رگرسیون $\epsilon$- و $\nu$- برای داده های نمونه استفاده می کنم، و متوجه شدم که نتایج متفاوتی از نظر تعداد بردارهای پشتیبانی داشتم. وقتی بردارهای ساپورت کمتری دارم به این معنی است که مدل ساده تر است؟
آیا بردارهای پشتیبانی کمتر دلالت بر مدل ساده‌تری دارد؟
39161
کدام مقدار برای مجموع امتیازات مربع درون خوشه ای را می توان با توجه به مجموعه داده های 1000 تاپلی، 21 ویژگی پذیرفت (اما اکنون فقط 3 مورد استفاده می شود)؟ من از فاصله اقلیدسی استفاده کرده ام و از یک آرگومان استاندارد مانند «I 500» استفاده می شود که هرگز به آن نمی رسد. دانه = 10 بود. WEKA (Explorer) استفاده شد. در حال حاضر، بهترین مقدار 290، بدترین آن 5600 بود، اما تا به حال فقط 7 آزمایش انجام دادم (5600 امتیاز با تمام ویژگی ها و یک k از 2 - تست میمون به دست آمد).
kMeans - مقدار قابل قبول برای WCSS
69579
من یک سوال ساده لوحانه در مورد طراحی آزمایش دارم (من یک آماردان نیستم). فرض کنید من در حال انجام روانشناسی اجتماعی هستم و دارم آزمایشی شبیه آزمایش میلگرام در دهه شصت راه اندازی می کنم. آیا واقعاً باید از قبل یک فرضیه صفر کمی تدوین کنم؟ من نمی خواهم نتایج را بعد از این واقعیت دوباره تفسیر کنم، از این رو داشتن یک H0 واضح است، اما در عین حال، ممکن است بلافاصله مشخص نباشد که H0 باید چه باشد. پس از همه، این اکتشاف است. در مورد میلگرام، ظاهراً کاری که او انجام داد این بود که با نظرسنجی از مردم در مورد آنچه که فکر می‌کردند در این آزمایش اتفاق بیفتد، یک «انتظار» را رقم زد. من می‌توانم ببینم که چگونه می‌توانید از آن برای فرمول‌بندی یک H0 بسیار دقیق استفاده کنید: نظرسنجی یک توزیع اولیه به شما می‌دهد، و شما می‌توانید توزیع آزمایش واقعی را در مقابل توزیع مورد انتظار بررسی کنید. کمی و بسیار دقیق می شود، اهمیت آن قابل اندازه گیری است. اما آیا مفهومی از آزمایش اکتشافی وجود دارد که در آن معلوم نیست چه اتفاقی باید بیفتد و بنابراین فرموله کردن یک H0 واضح دشوار است؟ آیا به هر حال باید تلاش کنیم تا یک H0 «خودسرانه» را در آن موارد فرموله کنیم؟
سوال طراحی آزمایش
95936
من از «arima» برای مدل‌سازی «myts»، لگاریتم یک سری زمانی استفاده می‌کنم. با ترتیب متفاوت تفاوت، «arima ممکن است مطابق این باشد که «مقدار اولیه در «vmmin» محدود نیست». من تعجب می کنم که چرا و چگونه می توان مشکل را حل کرد؟ با تشکر > out1 = arima(myts, order=c(1,1,1)) > out1 = arima(lgsh, order=c(1,5,1)) خطا در optim(init[mask], armafn, method = optim .method، hessian = TRUE، : مقدار اولیه در 'vmmin' محدود نیست > out1 = arima(myts, order=c(5,5,5)) خطا در optim(init[mask], armafn, method = optim.method, hessian = TRUE, : مقدار اولیه در 'vmmin' محدود نیست علاوه بر این: پیام هشدار: در log(s2): NaNs تولید شده است
تفاوت بیشتر باعث می شود arima() از چیزی که متناهی نیست شکایت کند؟
95931
فرض کنید می‌توانم از یک اندازه‌گیری احتمال $P$ نمونه برداری کنم و رویداد $A$ احتمال بسیار کمی دارد: $P(A)\ll 1$. من می دانم که تخمین $P(A)$ دشوار است و باید به نمونه برداری مهم متوسل شوم، با این حال در اینجا من به مشکل دیگری علاقه مند هستم. فرض کنید $A = A_1\cup A_2$ هر دو احتمال مثبت $P$ و من می خواهم $P(A_1)/P(A)$ را بدانم. آیا تخمین زدن آن آسان تر است؟
نسبت رویدادهای نادر
70548
من در حال مطالعه خواص توزیعی یک توزیع لاپلاس هستم، و سعی می‌کنم شهودی فراتر از ترسیم توزیع به معنای داشتن یک لحظه تعریف‌نشده به دست بیاورم. در ویکی پدیا می توانید ببینید که mgf فقط برای $|t| تعریف شده است < 1/b$ بنابراین با افزایش واریانس توزیع لاپلاس به 1، تمام لحظات از جمله میانگین را از دست می دهید. آیا این مهم است؟ شهود چیست؟ به عنوان مثال، لحظه چهارم می تواند منفجر شود، اما توزیع همچنان به طور کلی خوب به نظر می رسد. اگر توزیع را داشته باشید، داشتن یک لحظه تعریف شده چه فایده ای دارد؟ اگر داده‌هایی داشته باشم که با توزیع لاپلاس متناسب با b بسیار بالا باشد، آیا باید نگران باشم؟ اگر برای دو مجموعه داده که b در یک مجموعه داده نزدیک به 1 است، اما در دیگری کوچکتر است، آیا من به تناسب با مجموعه داده با b که لحظات بیشتری تولید می کند، اطمینان بیشتری دارم؟ هر گونه فکر بسیار قدردانی خواهد شد. و اگر در این مورد اشتباه فکر می کنم به من اطلاع دهید.
توزیع لاپلاس و، به طور کلی، تفسیر یک لحظه نامشخص
19607
من نمی فهمم چرا کاهش ابعاد مهم است. گرفتن برخی از داده ها و کاهش ابعاد آنها چه فایده ای دارد؟
نقطه تجزیه ارزش مفرد چیست؟
100728
من سعی می کنم بهترین مشخصات را برای مجموعه داده خود پیدا کنم. من سعی می کنم اثربخشی مناطق ویژه اقتصادی در لهستان را در معنای رشد اقتصاد در سه مدل داده تابلویی مشابه برای متغیرهای توضیح داده شده بررسی کنم: الف) نرخ بیکاری ثبت شده ب) تولید ناخالص داخلی سرانه ج) تشکیل سرمایه ثابت ناخالص سرانه. . داده ها مربوط به مناطق فرعی NUTS3 است. متغیرهای توضیحی عبارتند از: 0-1 برای حضور SEZ در زیر منطقه در سال t و تعدادی از متغیرهای اقتصادی. فراوانی سالانه، مجموعه داده 2004-2012 برای 66 منطقه فرعی است. من افکت های ثابت و تصادفی را امتحان کرده ام. در حال حاضر، من FE را به دلیل اهمیت و علائم نظری صحیح انتخاب کردم. اما برخی مسائل وجود دارد که من را از این موضوع منع می کند: 1. چگونه می توان همبستگی خودکار و همبستگی متقاطع را آزمایش کرد؟ 2. من نمی دانم چگونه توزیع عبارت خطا را در Stata آزمایش کنم، و علاوه بر این، اگر به طور معمول توزیع نشده است، آیا باید به آن اهمیت زیادی بدهم؟ 3. همانطور که من از ادبیات دریافتم، مقادیر ضریب همبستگی بین متغیرهای توضیحی و عبارت خطای نزدیک به 1- یا 1 در واقع بد نیستند. در مورد من، همانطور که می بینید، نزدیک به -1 است. 4. آیا یک مدل ترکیبی برای مجموعه داده من مناسب است؟ من نتیجه را برای مدل توضیح دهنده نرخ بیکاری پیوست می کنم. کد: xtreg st_bezr sse01 wartosc_sr_trw_per_capita zatr_przem_bud podm_gosp_na_10tys_ludn proc_ludn_wiek_prod ludnosc_na_km2، fe تعداد اثرات ثابت (در داخل) گروه‌های رگرسیون متغیر (در داخل) تعداد رگرسیون گروهی (در داخل) تعداد متغیر: 9 عدد 66 R-sq: درون = 0.4427 Obs در هر گروه: حداقل = 9 بین = 0.3479 میانگین = 9.0 کلی = 0.2365 max = 9 F(6522) = 69.10 corr(u_i، Xb) = -0.9961 Prob0 > F = 0. ------------------------------------------------ ---------------------------------------- st_bezr | Coef. Std. اشتباه t P>|t| [95% Conf. فاصله] ------------------------------------------------ ------------------------------------------- sse01 | -1.406066 .4631984 -3.04 0.003 -2.316028 -.4961045 wartosc_sr_trw_per_capita | -.0000963 .0000166 -5.79 0.000 -.0001289 -.0000636 zatr_przem_bud | -26.11989 4.992198 -5.23 0.000 -35.92716 -16.31263 podm_gosp_na_10tys_ludn | -.0201788 .0030788 -6.55 0.000 -.0262273 -.0141304 proc_ludn_wiek_prod | -229.1996 16.92631 -13.54 0.000 -262.4516 -195.9475 ludnosc_na_km2 | .0790167 .0120865 6.54 0.000 .0552726 .1027609 _cons | 161.9786 10.76989 15.04 0.000 140.821 183.1363 ------------------------------------------------ ----------------------------------------- sigma_u | 53.986519 sigma_e | 2.5446248 rho | .99778327 (کسری از واریانس ناشی از u_i) --------------------------------------- ------------------------------------------------ - F تست کنید که همه u_i=0: F(65، 522) = 27.09 Prob > F = 0.0000
مشخصات پانل دیتا
95934
یک فرآیند GARCH به صورت ![توضیح تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/bnQFP.png) تعریف می‌شود، وقتی کاملاً ثابت است، نمی‌دانم که آیا $Cov(a_t, a_{t+) h})=0$ برای همه $h>0$؟
آیا یک فرآیند GARCH به صورت سریالی مرتبط نیست؟
69570
داده‌ای که می‌خواهیم به عنوان متغیر وابسته استفاده کنیم به این شکل است (داده‌های شمارش). ما می ترسیم که از آنجایی که دارای یک جزء چرخه ای و ساختار روند است، رگرسیون به نوعی مغرضانه است. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/9C1Uz.png) در صورتی که کمک کند از رگرسیون دوجمله ای منفی استفاده خواهیم کرد. داده ها یک پانل متعادل است، یک ساختگی برای هر فرد (ایالت). تصویر نشان داده شده مجموع متغیر وابسته را برای همه حالت ها نشان می دهد اما بیشتر حالت ها به تنهایی رفتار مشابهی دارند. ما در حال بررسی یک مدل اثرات ثابت هستیم. متغیرهای وابسته به شدت همبستگی ندارند، بخشی از تحقیق یافتن یک رابطه غیرمنتظره در بین این متغیرها است، بنابراین یک رابطه ضعیف در واقع چیز خوبی است. > 1. خطرات دقیق عدم درج متغیر تاخیر متغیر وابسته > چیست؟ > 2. در صورت نیاز به گنجاندن یکی، آیا آزمونی وجود دارد که بدانیم کدام > یکی (های)؟ > پیاده سازی در R در حال انجام است. _نکته_: من این پست را خواندم اما به مشکل ما کمک نکرد.
چه زمانی لازم است که تاخیر متغیر وابسته در یک مدل رگرسیونی لحاظ شود و کدام تاخیر؟
81352
من به دنبال مراجعی در رابطه با از دست دادن کارایی ARIMA به دلیل مشخصات نادرست مختلف هستم. به عنوان مثال مقاله زیر: * چونگ چن و جورج سی تیائو مجله آمار تجارت و اقتصادی جلد. 8، شماره 1 (ژانويه، 1990)، صفحات 83-97 مي گويد چه اتفاقي مي افتد اگر تغييرات سطح تصادفي در داده ها وجود داشته باشد، اما آنها ناديده گرفته شوند و با مدل اصلي ARIMA تقريب شوند. موارد زیر: * Johannes Ledolter, International Journal of Forecasting, Vol. 5، شماره 2، 1989، صفحات 231-240 بیان می کند که اگر موارد پرت تصادفی نادیده گرفته شود چه اتفاقی می افتد. چیزی که من به دنبال آن هستم (و نتوانستم پیدا کنم) این است که وقتی داده ها گاوسی نیستند چه اتفاقی می افتد. تصور کنید که تبدیل Box-Cox با دقت انجام نشده است و از آرگومان های بهینه استفاده نمی کنیم. یا، حتی با تبدیل مناسب Box-Cox، تضمین نمی شود که داده های اولیه ما دقیقاً توسط قانون قدرت Box-Cox توزیع شده باشد، سپس داده های تبدیل شده ما دقیقاً عادی نیستند. برآوردگرهای افزایش واریانس پیش‌بینی (کاهش؟) و افزایش سوگیری در این مورد چه خواهند بود؟
کاهش اثربخشی ARIMA به دلیل غیر گاوسی بودن
46467
فرض کنید ما متغیرهای $(X,Y)$ داریم و تئوری داریم که به ما می گوید که $X$ $\overset{\text{cause}}{\ implies} Y$. شاید آنها متغیرهای سری زمانی هستند و دیدن چیزی شبیه به این امری عادی است: $$\boxed{Y_{t+1} = a + b X_{t} + e_{t+1}.\,\, \,\,\,(1)}$$ سوال من این است که چرا تعیین کردن: $$\boxed{X_t = \alpha + \beta مشروع نیست Y_{t+1}+\varepsilon_{t+1}\,\,\,\,\,(2)}$$ که $\alpha = \frac{-a}b$, $\varepsilon_t = \frac {-e_t}b$, $\beta = \frac1b$ ? من می‌دانم که در نمونه‌های محدود، این معادلات معمولاً (برای تخمین‌ها) برقرار نیستند. با این حال، این به این سوال پاسخ نمی دهد که چرا اولی مشروع تر است. همچنین، برنامه پیش‌بینی نمی‌کند، بنابراین من به راحتی قادر به وصل کردن $X_t$ به $(1)$ و رسیدن به $\text{forecast}(Y_{t+1})$ نیستم. بدون هیچ تلاشی این سوال زمانی برای من پیش آمد که داشتم یک مقاله تجربی می خواندم. آنها متغیرهای $(A,B,Y)$ داشتند و فکر می کردند که $A,B \overset{\text{cause}}{\ implis} Y$. به طور خاص آنها فکر می کردند که تقریب خوبی از رابطه این است: $$\boxed{Y_{t+1} = a + b(A_t - B_t) + e_{t+1}.\,\,\,\,\,( 3)}$$ با این حال آنها دلایل نظری داشتند که فکر می کردند وقتی $(A_t - B_t)$ بزرگ بود در برابر کوچک $(A_t) یک وقفه در $b$ وجود دارد. - B_t)$. آن‌ها سپس ولگردی بزرگی برای آزمایش انواع ترکیب‌های متغییر ساختگی انجام دادند. آنها حتی یک مدل انتقال صاف غیر خطی را مشخص کردند. با این حال، در این نقطه، به نظر می رسد بسیار معقول تر، قابل تفسیرتر، ساده تر (و احتمالاً از نظر آماری قوی تر) انجام شود: $$\boxed{Q_\tau(A_t-B_t|Y_{t+1}) = \alpha(\ tau) + \beta(\tau)Y_{t+1} + \varepsilon_{t+1}(\tau)\,\,\,\,\,(4)}$$ کجا $Q$ تابع quantile است. آیا این اشتباه است؟
چرا در رگرسیون دو متغیره متغیرها را بر اساس علیت مرتب می کنیم؟
19602
من حدود 6 ماه است که هر روز تعداد فالوورهای جدید را برای 30 اکانت مختلف توییتر جمع آوری می کنم و زمان دقیقی را می دانم که آنها شروع به دنبال کردن کردند. من همچنین در این بازه زمانی تمام توییت‌ها را برای این حساب‌ها جمع‌آوری کرده‌ام. من علاقه مندم که آیا برخی از متغیرهای مستقل (نرخ توییت، تعداد منشن ها، ریتوییت ها، پیوندها، احساس توییت ها) با افزایش فالوورها (یا متغیر وابسته) مرتبط هستند یا خیر. این داده های سری زمانی به عنوان مثال، من می‌توانم از رگرسیون خطی استفاده کنم تا ببینم آیا مجموع توییت‌ها در روز میزان فالوورهای جدید را در روز پیش‌بینی می‌کند یا خیر. با این حال، فکر نمی‌کنم این کار مناسب باشد زیرا اقداماتی که افراد انجام می‌دهند بلافاصله بر تعداد فالوورها تأثیر نمی‌گذارد. اما مطمئن نیستم که تاخیر زمانی چقدر خواهد بود یا رویکرد متفاوتی وجود دارد که برای این نوع داده ها و سوالی که می پرسم مناسب تر باشد. من از R استفاده می کنم.
داده های توییتر و سری های زمانی رگرسیون
69574
من یک گروه آزمایش و یک گروه کنترل با یک دسته از متغیرهای کمکی دارم. یکی از آنها کد پستی است. آیا روشی وجود دارد که بتوانم از آن برای انجام تطبیق امتیاز تمایل بر اساس کد پستی یا سایر اطلاعات جغرافیایی مانند شهرستان، ایالت، یا طول و عرض جغرافیایی استفاده کنم؟
امتیاز گرایش مطابق با کد پستی/فاصله جغرافیایی
12725
من یک مجموعه داده دارم که شامل یک پاسخ باز است که توسط یک فروشنده به دسته بندی کدگذاری شده است. فروشنده 50 دسته بندی چند پانچ ایجاد کرد که به عنوان 50 متغیر درست/کاذب ذخیره شده بودند. با قرار دادن آن در یک مجموعه پاسخ چندگانه و متقاطع کردن آن با خودش، می‌توانم متوجه شوم که بیشتر پاسخ‌ها در تعداد کمی از دسته‌ها هستند - زبانه متقاطع به شدت مورب است. برای اهداف تحلیلی که می‌خواهم انجام دهم، دسته‌ها فقط می‌توانند تک پانچ باشند. با ارسال مجدد این مورد به فروشنده و دسته‌بندی مجدد بیش از 6000 پاسخ، می‌خواهم اگر تعداد پاسخ‌های تحت تأثیر به اندازه کافی کم باشد، این مشکل را به صورت برنامه‌ریزی حل کنم. من می خواهم یک فایل نحوی بنویسم که بتواند تعداد پاسخ دهندگان طبقه بندی شده در هر دسته را بشمارد - مثلاً 5000 نفر به یک دسته، 1000 نفر به دو دسته، 500 نفر به سه دسته و غیره... اگر تعداد اختصاص داده شده به چندین دسته به اندازه کافی کوچک است، من فقط می خواهم آنهایی را که به چندین دسته اختصاص داده شده اند را حذف کنم. آیا روش موثری برای انجام این کار در نحو SPSS وجود دارد؟ با توجه به اینکه من 50 دسته دارم، نوشتن منطق برای هر جفت / سه گانه / چهارگانه داده های چند پاسخی غیرممکن است. هر ایده ای؟
پاسخ های چند پانچ را در نحو SPSS شناسایی کنید؟
35855
**زمینه:** در نجوم سیاره ای، تنها روشی که برای تخمین سن سطح یک جسم جامد در منظومه شمسی (غیر از زمین) داریم، شناسایی دهانه ها است. سپس اینها را با یک گاه‌شماری ثابت مقایسه می‌کنیم که چگالی تعداد دهانه‌ها را با قطر $D \ge 1$ کیلومتر (اغلب به صورت $N(1)$ نوشته می‌شود) با سن مطلق که از ماموریت‌های بازگشت نمونه _Apollo_ و _Luna_ مشخص شده است، مقایسه می‌کنیم. تابعی که سن $T$ را با $N(1)$ پیوند می دهد از لحاظ تاریخی با این شکل مطابقت داشته است: $N(1) = \alpha (\exp(-\beta T)-1)+\gamma T$ که در آن $\ alpha$، $\beta$، و $\gamma$ پارامترهای تناسب هستند. از نظر کیفی، این بیانگر این ایده است که در اوایل، کاهش تصاعدی در دهانه ها وجود داشت و پس از مدتی مشخص، نرخ خطی تا به امروز وجود داشت. این تناسب حداکثر با حدود 15 نقطه محدود می شود، برای سنین بالاتر از حدود 3.95 میلیارد سال کاملاً نامحدود است (به غیر از حداکثر جرم یک جسم) و هیچ نقطه داده ای بین حدود 1 تا 3 میلیارد سال پیش وجود ندارد. **سوال:** در حال حاضر بخشی از این کارهای قدیمی را به عنوان بخشی از تحقیقاتم دوباره انجام می دهم. من از سنین رادیومتری تثبیت شده استفاده می‌کنم و شمارش دهانه را دوباره انجام می‌دهم تا یک عملکرد جدید را در نظر بگیرم. مشکل من این است که از داده‌های جدید من، این نسخه از تابع fit به نظر بد است. یک گروه تحقیقاتی در سال 2007 کاهش درجه دوم بیشتری را در گذشته اخیر پیشنهاد کردند، بنابراین تابع را به صورت زیر بازبینی کردند: $N(1) = \alpha (\exp(-\beta T)-1)+\گاما T^2 + \delta T$ افزودن عبارت درجه دوم _خیلی_خوب به نظر می رسد تناسب را افزایش می دهد، اما با تنها 11 امتیاز، نگرانم که ممکن است وارد منطقه ای شوم که من فقط یک تناسب بهبود یافته دارم زیرا پارامترهای رایگان بیشتری را اضافه می کنم. و، احتمالاً، یک داور چیزی کمی بیشتر می خواهد، به خصوص به این دلیل که مقاله ای که همه برای این کار استفاده می کنند، نسخه اول را دارد. توجه داشته باشید که محدوده داده تقریباً $0 <T < 4.5$ و $10^{-6} <N(1) < 10^0$ است، و در حالی که آنها تا حدودی خوب رفتار می کنند، غیر خطی هستند (همانطور که تابع انجام می دهد. پیشنهاد کنید). من کاهش $\chi^2 $ هر نسخه را محاسبه کرده ام و به ترتیب 2.8 در مقابل 1.7 است. اما، این یک تابع بسیار غیر خطی است، و بر اساس برخی مطالعه‌هایی که انجام داده‌ام، $\chi^2$ ممکن است معیار معنی‌داری برای تعیین میزان مناسب بودن تناسب نباشد. شخصی به من پیشنهاد کرد که یک تست تابع گامای ناقص انجام دهم تا مشخص کنم که آیا $\chi^2$ معنی دارد یا خیر، اما نتایج آن 0.00018 در مقابل 0.017 است ... و من نمی دانم اینها به چه معنا هستند جز اینکه فکر می کردم که عدد بزرگتر (اگر هنوز کوچکتر) بهتر بود که نشان دهنده معنی دارتر بودن عدد درجه دوم بود. بنابراین ... یک (یا چند) راه خوب برای تعیین اینکه آیا یک تابع تناسب از نظر آماری بهتر از دیگری با این نوع داده است چیست؟ $\chi^2$؟ یا چیز دیگری؟ **داده ها:** به عنوان یک ویرایش، از من خواسته شد که داده ها را به اشتراک بگذارم، زیرا آنها فقط چند نقطه هستند ... من باید از آن رد شوم زیرا داده ها منتشر نشده، بررسی نشده، بررسی نشده اند، و این یک پروژه _بسیار_قابلیت است که من در حال انتشار آن در _Science_ هستم... دو هفته دیگر در یک کنفرانس ارائه خواهم کرد که امیدوارم اگر من باشم، ایده بهتری از آن به من بدهد. دیوانه است یا نه آنچه من می توانم در این مرحله به اشتراک بگذارم داده های منتشر شده ای است که مال من به روز شده است. +------+-------+ | T | N(1) | +------+-------+ |-3.92 |0.034 | +------+-------+ |-3.84 |0.057 | +------+-------+ |-3.85 |0.037 | +------+-------+ | -3.8 |0.009 | +------+-------+ |-3.75 | 0.01 | +------+-------+ |-3.58 |0.0064 | +------+-------+ |-3.41 |0.0033 | +------+-------+ | -3.3 |0.0032 | +------+-------+ |-3.22 | 0.003 | +------+-------+ |-3.15 |0.0036 | +------+-------+ | -0.8 |0.0013 | +------+-------+ |-0.109| 9e-05 | +------+-------+ |-0.053|4.4e-05| +------+-------+ |-0.025|2.1e-05| +------+-------+ از این تغییرات یا تغییرات بسیار جزئی، پارامترهایی که همه در فیلد استفاده می کنند عبارتند از $\alpha=5.44\cdot10^{-14}$، $\beta=6.93 $, $\gamma=8.38\cdot10^{-4}$. در بازبینی من و با تناسب جدید، پارامترهای من $\alpha=2.61\cdot10^{-35}$، $\beta=19.4$، $\gamma=1.46\cdot10^{-4}$، $\delta هستند. =1.71\cdot10^{-3}$. و از آنجایی که من این را در دو هفته از امروز صبح ارائه می کنم، یک چکیده 2 صفحه ای دارم که این موضوع را با جزئیات بیشتری مورد بحث قرار می دهد و شامل یک یا سه نمودار با تابع نشان داده شده است. توجه داشته باشید که از نظر فیزیکی، دلیل خوبی وجود ندارد که انتظار داشته باشیم بعد از یک زمان معین در مقابل یک درجه دوم، خطی باشد. اما مدل exp-lin چیزی است که مردم به طور منطقی و به سادگی با داده های موجود مطابقت دارند. اگر قدرت تفکیک نامتناهی داشتیم و به دلیل تشکیل خانواده سیارک‌ها، میخ‌های لورنتسی در سرتاسر مکان وجود داشت، به احتمال زیاد مدل پیچیده‌تری مورد نیاز بود. اما اینها در این مرحله بسیار کمتر از نویز هستند.
چگونه تشخیص دهیم که یک تناسب به طور قابل توجهی بهتر از تناسب اندکی متفاوت است؟
69575
در مقاله ای فرمول انحراف معیار اندازه نمونه را پیدا کردم $N$ $\sigma=\frac{\overline{R}}{2.534}$ که $\overline{R}$ میانگین محدوده نمونه‌های فرعی است ( اندازه 6 دلار) از نمونه اصلی. عدد 2.534$ چگونه محاسبه می شود؟ این عدد صحیح است؟
رابطه بین محدوده و انحراف معیار
46469
من از فاکتورسازی ماتریس حداقل مربعات غیر منفی متناوب با استفاده از گرادیان پیش بینی شده استفاده می کنم. نتیجه (من از 2 به عنوان رتبه استفاده می کنم) به این صورت است: اصلی (ماتریس V) [[ 10 20 1 9] [ 1 2 1 10] [ 7 6 1 5] [ 5 4 1 5] [100 200 1 90]] ماتریس پایه (ماتریس W) [[ 0.0211552 0.09923254] [ 0.032219 0.00224676] [ 0.0259072 0.02522768] [ 0.02491072 0.01388348] [ 0.19794036 1.00108155] H1.00108155] 66.1643417 62.06074785 170.96878852] [ 69.14663274 187.0342459 0. 54.62548645]] Coef قابل مقایسه به نظر می رسد. به عنوان مثال، در ستون اول Coef، 144 بزرگتر از 69 است. آیا این بدان معناست که در ستون اول داده های اصلی، Feature1 از Feature2 مهم تر است؟ در مورد سوال قبلی مطمئن نیستم. زیرا نتیجه ممکن است به این صورت باشد: ماتریس پایه (ماتریس W) [[ 0.211552 0.09923254] [ 0.32219 0.00224676] [ 0.259072 0.02522768] [ 0.24910103 1.9794036 1.00108155]] Coef (ماتریس H) [[ 14.400101426 6.61643417 6.206074785 17.096878852] [ 69.1462635274. 54.62548645]] تابع خطا (چیزی شبیه V-WH) ممکن است یکسان باشد. اما در این شرایط در ستون اول Coef Feature2 اهمیت بیشتری پیدا می کند. من فکر می‌کنم ممکن است محدودیت‌هایی برای «ماتریس W» و «ماتریس H» وجود داشته باشد تا یکی از آنها را به همان ترتیب بزرگی بسازند، به طوری که «Coef» قابل مقایسه باشد. مقاله مربوط به فاکتورسازی ماتریس حداقل مربعات غیر منفی متناوب با استفاده از گرادیان پیش بینی شده را بررسی کردم، اما نمی توانم بگویم که الگوریتم را درک می کنم. آیا کسی در این مورد ایده ای دارد؟
آیا در فاکتورسازی ماتریس غیر منفی، ضرایب ویژگی ها قابل مقایسه هستند؟
78002
من سعی می کنم یک فیلتر کالمن برای تخمین پارامتر یک مدل دو عاملی گاوسی خطی در Matlab پیاده سازی کنم. (مدل شوارتز اسمیت برای قیمت کالاها) به عبارت دیگر: من سعی می کنم لاگ احتمال پارامترها را محاسبه کنم. **مدل من:** $X_t = A X_{t-1} + \epsilon_X$، با X دوبعدی. $Y_t = \begin{pmatrix} 1 \\\ 1 \end{pmatrix}^T X_t + \epsilon_Y$، با Y که یک بعدی است. $A$ ثابت زمان است و فقط به پارامترهای $\theta$ بستگی دارد که من می خواهم آن را تعیین کنم. **سوال من:** واریانس $\epsilon_Y$ چیست؟ می‌دانم که معمولاً نویز فرآیند اندازه‌گیری را نشان می‌دهد، اما نمی‌دانم در یک زمینه اقتصادی معادل آن چیست؟ من موفق به پیاده سازی فیلتر شدم و نتایج آزمایش با واریانس عبارتند از (میانگین = 0): * برای واریانس بالا: احتمال ورود به سیستم بالا در مناطق غیر منطقی دور از مقادیر واقعی. * برای واریانس بسیار (!) کوچک: نتایج معقول نزدیک به مقادیر واقعی، اما احتمالات _log_ بسیار کوچک در حدود $-10^{12}$. من می ترسم که این باعث ایجاد مشکلات عددی در تخمین حداکثر احتمال آینده شود. (من قصد دارم از Metropolis Hastings استفاده کنم) از هرگونه کمکی قدردانی می شود! با تشکر
برآورد حداکثر احتمال با استفاده از فیلتر کالمن برای یک مدل اقتصادی دو عاملی، نویز اندازه گیری چیست؟
43525
من مقیاسی را با چندین عامل تئوری تعریف شده محاسبه کرده ام. اکنون من یک استخراج فاکتوریل انجام می دهم تا ببینم آیا EFA همان ابعادی را که در تئوری است کشف می کند یا خیر. سوال من این است: 1. آیا لازم است قبل از انجام تحلیل عاملی، پایایی درونی مقیاس های نظری را بررسی کنم، یعنی مواردی را که قرار است متعلق به یک مقیاس معین باشد، بردارم و سازگاری درونی این مقیاس را بررسی کنم؟ سپس بر اساس ضرایب پایایی، آیا موارد خاصی را حذف کنم که پایایی مقیاس را پایین می‌آورند و با آیتم‌های سمت چپ تحلیل عاملی را انجام می‌دهند؟ 2. آیا ابتدا عوامل را استخراج می کنم، سعی می کنم مقیاس ها را مشخص کنم که آیا با موارد تعریف شده تئوری مطابقت دارند یا خیر، و سپس آیتم های یافت شده را به صورت مقیاسی با تحلیل عاملی تشکیل می دهم و سعی می کنم همسانی درونی آنها را مشخص کنم؟ به عبارت دیگر، آیا ابتدا پایایی ترازوها را بررسی می‌کنم و سپس EFA را انجام می‌دهم یا پس از حذف برخی موارد، ابتدا EFA را انجام می‌دهم و سپس پایایی ترازو را بررسی می‌کنم؟
ابتدا پایایی یا تحلیل عاملی؟
43520
من می‌دانم که چگونه یک توزیع نرمال چند متغیره برای مدیریت چندین منبع داده پیوسته ایجاد کنم، و می‌دانم که چگونه یک توزیع طبقه‌بندی چند متغیره برای مدیریت داده‌های گسسته ایجاد کنم. اما من نمی توانم هیچ اطلاعاتی در مورد توزیع بر روی داده های پیوسته و گسسته به طور همزمان پیدا کنم. آیا کسی می تواند به من کتاب/مقاله/وبلاگی را نشان دهد که نحوه انجام این کار را توضیح دهد؟
چگونه یک توزیع چند متغیره با داده های پیوسته و گسسته ایجاد می کنید؟
12721
من سه دسته محصول دارم، $A،B،C$. هر دسته دارای دو محصول 0.1 دلاری است. من انواع مختلفی از موقعیت‌های انتخاب را ارائه می‌دهم، 1) موضوع آزمون یک دسته ارائه می‌شود و برای انتخاب یک محصول ساخته می‌شود، 2) موضوع آزمون با دو دسته ارائه می‌شود و برای انتخاب محصول از دو دسته ساخته می‌شود، و 3 ) موضوع آزمون با هر سه دسته ارائه می شود و مجبور می شود از هر کدام یک محصول را انتخاب کند. من معتقدم که انتخاب محصول به تعدادی از متغیرهای اندازه گیری شده از محصولات جداگانه، دسته بندی محصول ارائه شده و انتخاب در دسته دیگر (در صورت امکان چنین انتخابی) بستگی دارد. به عنوان مثال، فرض کنید که ما یک دسته محصول از سرکه، با دو مارک داشتیم. اولین مارک سرکه بالزامیک گران قیمت است. نام تجاری دوم یک نام تجاری ارزان قیمت، سرکه سیب است. حال، فرض کنید دو دسته محصول دیگر داریم: سبزیجات سالاد و دستکش آشپزخانه، که هر کدام دارای یک مارک گران قیمت و باکیفیت و یک مارک ارزان و عمومی است. حتی اگر مصرف‌کننده‌ای سرکه گران‌قیمت را انتخاب کند وقتی از او خواسته شود که فقط از دسته سرکه یا از دسته سرکه و سالاد انتخاب کند، باز هم ممکن است انتظار داشته باشیم که اگر از او خواسته شود محصولاتی از دسته سرکه و دستکش آشپزخانه انتخاب کند، سرکه ارزان قیمت را انتخاب کند. همچنین ممکن است انتظار داشته باشیم که شخصی که سرکه ارزان قیمت را انتخاب کرده است، هنگامی که از گروه‌های سرکه و سبز سالاد خواسته می‌شود، سبزی سالاد ارزان‌قیمت را نیز انتخاب کند. این وضعیت مشابه مشکلات «سبد خرید» است که توسط P.B. سیتارامان و همکاران al. در مدل های رفتار انتخاب چند دسته ای. با این حال، مدل هایی که من دیده ام، بروز یک دسته محصول را به عنوان تابعی از مصرف کننده، اغلب به عنوان یک مدل مرحله ای در نظر می گیرند. ضرایب متغیرهای کمکی اندازه‌گیری شده را چگونه تخمین می‌زنیم در صورتی که انتخابگر دسته‌هایی را که باید از بین آنها انتخاب کند انتخاب نمی‌کند.
مدل انتخاب چند طبقه با دسته بندی های داده شده
63748
من مقدار یک متغیر را در طول زمان ردیابی می کنم. من می‌خواهم تشخیص دهم که آیا مقدار متغیر در زمان واقعی در حال ترکیدن است (با افزایش غیرعادی در مقدار آن). چگونه می توانم این کار را انجام دهم؟
تشخیص انفجار در زمان واقعی؟
12724
من سعی می کنم با استفاده از minFunc یک لایه از رمزگذار خودکار آموزش دهم، و در حالی که به نظر می رسد تابع هزینه کاهش می یابد، وقتی فعال شود، DerivativeCheck با شکست مواجه می شود. کدی که من استفاده می کنم تا حد امکان به مقادیر کتاب درسی نزدیک است، اگرچه بسیار ساده شده است. تابع ضرری که من استفاده می کنم خطای مربع است: $ J(W; x) = \frac{1}{2}||a^{l} - x||^2 $ با $a^{l} $ برابر با $\sigma(W^{T}x)$ است که $\sigma$ تابع سیگموئید است. بنابراین، گرادیان باید این باشد: $ \delta = (a^{l} - x)*a^{l}(1 - a^{l}) $ $ \nabla_{W} = \delta(a^{l- 1})^T $ توجه داشته باشید که برای ساده کردن همه چیز، من به طور کلی تعصب را کنار گذاشته ام. در حالی که این باعث عملکرد ضعیف می شود، نباید بر بررسی گرادیان تأثیر بگذارد، زیرا من فقط به ماتریس وزن نگاه می کنم. علاوه بر این، من ماتریس های رمزگذار و رمزگشا را گره زده ام، بنابراین به طور موثر یک ماتریس وزنی وجود دارد. کدی که من برای تابع از دست دادن استفاده می کنم این است ( **ویرایش:** حلقه ای را که داشتم برداریم و کد را کمی پاک کردم): تابع ضرر % به تابع minFunc [ loss, grad ] = calcLoss ( تتا، X، nHidden) [nInstances، nVars] = size(X); ٪ متغیرها را یک بردار واحد دریافت می کنیم، بنابراین باید آن را در یک ماتریس وزن W = reshape (theta(1:nVars*nHidden), nVars, nHidden) قرار دهیم. Wp = W; % وزن گره خورده ماتریس % کد هر مثال (nInstances) hidden = sigmoid(X*W); % رمزگشایی هر نمونه (nInstances) خروجی = sigmoid(hidden*Wp); تابع ضرر ٪: sum(-0.5.*(x - خروجی).^2) % مشتق ضرر: -(x - خروجی)*f'(o) ٪ اگر f سیگموئید است، سپس f'(o) = خروجی .*(1-خروجی) diff = X - خروجی; error = -diff .* output .* (1 - output); dW = پنهان*خطا'; loss = 0.5*sum(diff(:).^2, 2) ./ nInstance; % نیاز به بازگردانی ماتریس گرادیان به یک بردار واحد دارد grad = dW(:) ./ nInstance; پایان در زیر کدی است که من برای اجرای بهینه ساز استفاده می کنم (برای یک بار، زیرا زمان اجرا با تمام نمونه های آموزشی نسبتاً طولانی است): نمونه = 5000; fprintf('بارگیری داده ها..\n'); images = readMNIST('train-images-idx3-ubyte', examples) / 255.0; داده = تصاویر(:، :، 1: مثالها); % هر ردیف یک نمونه آموزشی متفاوت است X = reshape(داده ها، مثال ها، 784). % مقدار اولیه ماتریس وزن را با مقادیر تصادفی % W: (R^{784} -> R^{10})، W': (R^{10} -> R^{784}) numHidden = 10; ٪ توجه: این برای افزایش سرعت DerivativeCheck بسیار کوچک است numVisible = 784; low = -4*sqrt(6./(numHidden + numVisible)); high = 4*sqrt(6./(numHidden + numVisible)); W = کم + (بالا-کم)*rand(numVisible، numHidden); % اجرای گزینه های بهینه سازی = {}; options.Display = 'iter'; options.GradObj = 'روشن'; options.MaxIter = 10; mfopts.MaxFunEvals = ceil(options.MaxIter * 2.5); options.DerivativeCheck = 'روشن'; options.Method = 'lbfgs'; [ x, f, exitFlag, output] = minFunc(@calcLoss, W(:), option, X, numHidden); نتایجی که من با DerivitiveCheck در به دست می‌آورم معمولاً کمتر از 0، اما بیشتر از 0.1 هستند. من کدهای مشابهی را با استفاده از گرادیان دسته ای امتحان کردم و نتایج کمی بهتر دریافت کردم (برخی کمتر از 0.0001 هستند، اما مطمئناً نه همه). من مطمئن نیستم که آیا با ریاضی یا کدم اشتباه کرده ام. هر گونه کمکی بسیار قدردانی خواهد شد! **به روز رسانی** من یک اشتباه تایپی کوچک در کد خود کشف کردم (که در کد زیر ظاهر نمی شود) که باعث عملکرد فوق العاده بدی شده است. متأسفانه، من هنوز هم نتایج کمتر از خوبی دریافت می کنم. به عنوان مثال، مقایسه بین دو گرادیان: محاسبه چک 0.0379 0.0383 0.0413 0.0409 0.0339 0.0342 0.0281 0.0282 0.0322 0.0320 با اختلافات تا 0.04 من هنوز فاش نشده است.
DerivativeCheck با minFunc ناموفق است
21121
آیا می‌توانید کتابی با اطلاعات خوب که می‌تواند برای توسعه یک سیستم توصیه‌گر اعمال شود، توصیه کنید؟
توصیه ای برای کتابی در مورد سیستم های توصیه گر
17523
سلام کاربران StackExchange، **زمینه:** من یک آمارشناس زیستی هستم که در حال حاضر با مجموعه داده ای از نرخ بیان سلولی دست و پنجه نرم می کنم. این مطالعه میزبان سلول‌هایی را که در گروه‌های اهداکننده مختلف جمع‌آوری شده بودند، در معرض پپتیدهای خاص قرار داد. سلول ها یا نشانگرهای زیستی خاصی را در پاسخ بیان می کنند، یا این کار را نمی کنند. سپس نرخ پاسخ برای هر گروه اهداکننده ثبت می شود. نرخ پاسخ (بیان شده به صورت درصد) نتیجه مورد علاقه است و قرار گرفتن در معرض پپتید پیش بینی کننده است. توجه داشته باشید که مشاهدات در بین اهداکنندگان خوشه‌ای است. از آنجایی که من فقط داده‌های خلاصه را دارم، نرخ‌های پاسخ اهداکننده را به عنوان داده‌های پیوسته در نظر می‌گیرم (حداقل در حال حاضر). این عارضه از این واقعیت ناشی می شود که من صفرهای زیادی در داده های خود دارم. خیلی زیاده که نمیشه نادیده گرفت من برای مقابله با این واقعیت که داده‌های پیوسته را با انبوهی از صفرها منحرف کرده‌ام، یک مدل گامای با تورم صفر در نظر می‌گیرم. من مدل توبیت را نیز در نظر گرفته‌ام، اما این مدل پایین‌تر به نظر می‌رسد، زیرا سانسور را در کران پایین‌تر فرض می‌کند، برخلاف صفرهای واقعی (ممکن است اقتصادسنجی‌ها بگویند این تمایز بحث‌انگیز است). **سوال:** به طور کلی، چه زمانی مناسب است از یک مدل گامای بادی صفر استفاده شود؟ یعنی مفروضات چیست؟ و چگونه استنباطات آن را تفسیر می کند؟ اگر لینکی به مقالاتی که در این مورد بحث می کنند، اگر دارید، سپاسگزار خواهم بود. من پیوندی را در SAS-L پیدا کردم که در آن دیل مک‌لران کد NLMIXED را برای یک مدل گامای با باد صفر ارائه می‌دهد، بنابراین به نظر می‌رسد این امکان وجود دارد. با این حال، من از این که کورکورانه اتهام بزنم متنفرم. خیلی ممنون، برندن
استفاده و تفسیر صحیح از مدل های گامای باد شده صفر
43523
ما یک رابطه مدل بین سه متغیر تصادفی مانند این داریم: $$ U = C + S $$. اما نکته جالب تراکم $S$ است. اندازه‌گیری‌ها جفت نشده‌اند، بنابراین نمی‌توانم تفاوت‌های $U-C$ را بگیرم. یکی از راه‌حل‌هایی که امتحان کردیم _deconvolution_ نام داشت، که دقیقاً همان کاری را که ما می‌خواهیم انجام می‌دهد، یعنی چگالی متغیر noise $S$ را استخراج می‌کند. این رویکرد نتایج خوبی برای ما به ارمغان آورد. از طرف دیگر، ما می‌خواستیم یک رویکرد پارامتریک، به‌ویژه روش لحظه‌ها را امتحان کنیم. **اولین سوال من:** آیا الگوریتم زیر با فرض توزیع گامای $U$، $C$ و $S$ صحیح است؟ اگر من آن را درست متوجه شده باشم، این دقیقاً منعکس کننده روش لحظات است: 1. یک توزیع گاما را روی $U$ و $C$ قرار دهید و پارامترهای $k_U$، $k_C$، $\theta_U$ و $\theta_C را ذخیره کنید. $، با استفاده از نماد ویکی‌پدیا. 2. مقدار و واریانس مورد انتظار $U$ و $C$ را با استفاده از $\mu = k\theta$ و $\sigma^2 = k\theta^2$ محاسبه کنید. آنها را به صورت $\mu_U$، $\sigma^2_U$، $\mu_C$ و $\sigma^2_C$ مشخص کنید. 3. با فرض استقلال، $\mu_S = \mu_U - \mu_C$ و $\sigma^2_S = \sigma^2_U - \sigma^2_C$ را محاسبه کنید. 4. سیستم معادله $\mu_S=k_S\theta_S$ و $\sigma_S^2 = k_S\theta_S^2$ را برای $\mu_S$ و $\theta_S$ حل کنید. سپس من دو پارامتر و در نتیجه چگالی گامای $S$ را دارم. اما تخمین چگالی هسته $U$ و $C$ بسیار متفاوت از چگالی گامای نصب شده است. بنابراین، من می خواهم این رویکرد را با مفروضات توزیع Weibull امتحان کنم. این منجر به **سوال دوم من می شود:** وقتی فرض می کنم Weibull $U$، $C$ و $S$ را توزیع کرده است، چگونه می توانم ادامه دهم؟ فرمول میانگین و واریانس در ویکی پدیا بسیار زشت به نظر می رسد. آیا راه حل های تحلیلی وجود دارد یا باید R را بروم و مقداری بهینه سازی عددی در آنجا انجام دهم؟ در نهایت، اگر هنوز آنجا هستید، **سوال سوم من:** Deconvolution به محض اینکه $C$ و $S$ با هم مرتبط می شوند شکست می خورد. با روش لحظه‌ها، فکر می‌کنم می‌توانم ببینم چگونه توزیع $S$ با فرض همبستگی مثلاً 0.5 تغییر می‌کند. من این کار را با تغییر فقط مرحله 3. در اولین سوالم و محاسبه $\sigma^2_S = \sigma^2_U - \sigma^2_C - 2 Cov(U,C)$ انجام می دهم. آیا این یک رویکرد معتبر است؟
چگونه می توانم روش گشتاورها را برای تخمین پارامترها در یک رابطه جمعی اعمال کنم؟
17527
من اخیراً با نمونه ای از استفاده از eviews برای قرار دادن محدودیت های غیر خطی/محدب بر روی ضرایب تخمینی OLS مواجه شدم. من می‌توانم پیوندی به یک فروم را پیدا کنم که توضیح می‌دهد چگونه این کار انجام می‌شود (اینجا)... اما در واقع چیز بیشتری در مورد چگونگی تخمین این مدل‌ها در عمل نمی‌دانم. آیا کسی پیوندی به مقاله/کتاب/کد منبع/توضیحاتی در مورد نحوه پیاده سازی آن در عمل دارد؟ # به‌روزرسانی سؤال: با استفاده از پاسخ کاردینال به سؤال اصلی‌ام، توانستم این مشکل را با استفاده از $\verb+optim()+$ حل کنم --فقط جایگزین کردن $\beta$ با $1-\exp(\beta)$ در منهای معادله احتمال را ثبت کنید و به صورت تکراری کمینه کنید. اکنون می خواهم آن را با استفاده از $\verb+nls()+$ حل کنم. به عنوان مثال، در مورد زیر: library(MASS) #ضرایب محدود شده با 1 n<-100 p<-2 x<-mvrnorm(n,rep(0,p),diag(p)) t1<-4 t2 <-1.5 t3<--2 y<-cbind(1,x)%*%c(t1,t2,t3) y<-y+rnorm(n,0,2) $1-\exp(\hat{t}_2)=1$ و $1-\exp(\hat{t}_3)=-2$ دریافت می‌کنم. بنابراین سوال من اکنون این است که آیا می توان این کار را با $\verb+nls()+$ انجام داد؟
ایجاد محدودیت در مقادیر ضرایب تخمینی
19601
من سعی می کنم امتیازات کاپا را برای تصمیمات حاضر/غایب گرفته شده توسط دو ارزیاب محاسبه کنم و شنیده ام که می توان آنها را برای شیوع موضوع اندازه گیری تنظیم کرد. آیا کسی می تواند در مورد نحوه محاسبه آمار کاپا که برای محاسبه شیوع موضوع اندازه گیری تنظیم شده است راهنمایی کند؟
تنظیم توافق بین ارزیاب کاپا برای شیوع
43528
شاید من اندازه گیری درست را نمی خواهم. اساساً در حال حاضر 9 میلیون رأی، و 4.8 میلیون رأی منفی و 4.2 میلیون رأی مثبت وجود دارد. یک میلیون رای برای شمارش باقی مانده است. احتمال اینکه نتیجه واقعی رای واقعا بله باشد چقدر است؟ (800000 باید از میلیون ها رای مثبت باشد).
چگونه می توان درصد خطای یک رای را محاسبه کرد؟
112113
من داده هایی از این قبیل دارم ... (Col1:Companyname Col2:Data at timepointA; Col3:Replicate Data at timepointA; Col4:Data at timepointB; Col5:Replicate Data در نقطه زمانی B GeneA 0 0 0 0 GeneB 2666 2254 1833 1840 GeneC 0 0 0 GeneD 0 0 0 0 GeneE 0 0 0 0 GeneF 0 0 0 0 GeneI 0 0 0 0 GeneH 2007 2062 1751 1767 ….(3000 ردیف دیگر) … من سعی می کنم یک روش غیر پارامتریک آزمایش جمع رتبه Wilcoxon (WRST) را اجرا کنم. به طور قابل توجهی بین دو گروه گسترده (زمان A و نقطه پایان B) متفاوت است با استفاده از این روش با ستونی دیگر (Pval) از نظری که دیدم WRST برای تعیین تفاوت‌های گسترده‌تر استفاده می‌شود و یک مقدار p منفرد را برمی‌گرداند، آیا برای سؤالات متمرکزتری مناسب است، مانند اینکه آیا ژن‌های فردی به طور قابل توجهی متفاوت هستند (از دو گروه گسترده). ) آیا معادله به این شکل خواهد بود؟ گروه و Rg1 مجموع رتبه های آن گروه است. من همیشه برای هر ژن یک Wg را دریافت می کنم! کمک / توضیح قدردانی می شود.
آزمون مجموع رتبه ویلکاکسون برای تفاوت معنادار بین دو نقطه زمانی
104494
من باید سهم نسبی عوامل (متغیرها) را که در معادله رگرسیون (رگرسیون چندگانه) خود استفاده کردم، بیابم. در حال حاضر رویکرد من برای یافتن سهم نسبی این است که تخمین بتای استاندارد یک متغیر را تقسیم بر مجموع تخمین‌های استاندارد بتا از همه متغیرهای موجود در مدل خود می‌گیرم. مشکلی که در این رویکرد با آن روبرو هستیم این است که مجموع همه تخمین‌های بتا (مجموع حاصل) منفی می‌شوند. اگر برای یک متغیر تخمین منفی داشته باشیم، تقسیم این عدد بر مجموع حاصل، سهم نسبی آن متغیر مثبت می شود. تفسیر آن برای ما دشوار است زیرا متغیر رابطه معکوس دارد اما سهم نسبی مثبتی دارد. آیا روش آسانی برای این مشکل وجود دارد، اگر این نیست؟
چگونه می توان سهم نسبی را از برآورد استاندارد بتا محاسبه کرد و چگونه آن را تفسیر کرد؟
12726
من می خواهم مناطق اطمینان دوبعدی (در 1-سیگما، 2-سیگما) را برای مدلی ترسیم کنم که با داده ها مطابقت دارد. من از PyMC برای تولید 50k نمونه خلفی MCMC برای مدل خود با 6 پارامتر استفاده کرده ام. من می دانم که فرآیند ایجاد مناطق اطمینان چیزی شبیه به موارد زیر است: 1.) ایجاد یک هیستوگرام از نمونه ها در فضای دوبعدی 2.) شناسایی خطوط همسان تراکم 3.) از یک نقطه شروع انتخاب شده (مثلاً میانگین) ادغام به بیرون عمود بر خطوط با چگالی ایزو تا زمانی که کسر مورد نظر از نقاط نمونه در منطقه قرار گیرد. آیا تابع مناسبی در دنیای numpy/scipy/pymc/pylab/etc وجود دارد که نمودار منطقه اطمینان دوبعدی را ایجاد کند؟ از طرف دیگر، کجا می توانم یک الگوریتم کدگذاری شده یا ابزار مستقلی پیدا کنم که خطوط را برای ترسیم بعدی محاسبه کند؟
محاسبه مناطق اطمینان دوبعدی از نمونه‌های MCMC
17520
مجموعه‌ای از توالی‌های DNA را در نظر بگیرید، یعنی رشته‌هایی که از چهار حرف A، C، G، T تشکیل شده‌اند. ما این توالی‌ها را به‌عنوان یک بردار تصادفی، $\mathbf{X}=(X_1،\dots، X_n)$ مدل‌سازی می‌کنیم. هر یک از اعضای مجموعه دنباله ها تحقق این بردار تصادفی است. در این مورد، $X_i$ فقط مقادیر A، C، G، T را می گیرد. به طور کلی اجازه دهید $r$ تعداد حروف باشد. ما خانواده ای از توزیع های احتمال را برای X تعریف می کنیم. هدف ما یافتن توزیع احتمالی است که بهترین تناسب برای داده ها را داشته باشد. فرض ما این است که متغیرهای $X_i$ را می‌توان به زیر مجموعه‌های مجزا تقسیم کرد، به‌طوری که متغیرهای هر زیر مجموعه بین خودشان وابسته هستند و زیر مجموعه‌ها متقابلاً مستقل هستند. برای تعریف توزیع بر روی یکی از این زیر مجموعه ها کافی است. این توزیع به صورت زیر تعریف می شود. اجازه دهید $\mathbf{S}=(X_{j_1},\dots, X_{j_k})$ یک بردار فرعی از $\mathbf{X}$ برای زیر مجموعه $\\{j_1,\dots, j_k\ باشد. \} \در \\{1،2\dots، n\\}$. سپس $\mathbf{S}$ مقادیر ممکن $r^k$ را می گیرد. سپس یک توزیع احتمال طبقه‌ای را روی $\mathbf{S}$ تعریف می‌کنیم. $P(S=(s_{1}, s_{2}, \dots, s_{k})) = p_{s_{1}s_{2}\dots s_{k}}$ بنابراین توزیع $\ mathbf{S}$ با احتمالات $r^k$ تعریف می شود. توجه داشته باشید که مجموعه متغیرهای تصادفی $\\{X_{j_1},\dots, X_{j_k}\\}$ با این توزیع به طور کلی مستقل نیستند. ما از MDL برای یافتن یک مدل مناسب برای داده ها، در ترکیب با یک الگوریتم جستجوی ژنتیک استفاده می کنیم. این زمانی که برای داده‌های شبیه‌سازی‌شده اعمال می‌شود، نتایج خوبی به دست می‌دهد، با این احتیاط که به مجموعه داده‌های به اندازه کافی بزرگ برای همگرایی به مدل صحیح نیاز دارد. با این حال، سوال مهم این است که چقدر این مدل در برابر داده‌های واقعی اعتبار دارد. من معتقدم این را می توان به این سؤال تقسیم کرد که این مدل در هنگام اعمال بر داده های واقعی چقدر قدرت توضیحی دارد و همچنین قدرت پیش بینی آن چقدر است. من در مورد مسئله قدرت توضیحی فکر کردم و مطمئن نیستم که چه کاری می تواند مفید باشد. شاید این مدل فقط از منظر برازش مدل پارامترهای زیادی داشته باشد. با این حال، اگر کسی پیشنهادی دارد، لطفاً به من بگوید. در مورد پیش‌بینی، فکر می‌کنم می‌توانم از اعتبارسنجی متقاطع و همچنین نمونه‌گیری مجدد جایگشت استفاده کنم. برای اعتبارسنجی متقابل، می‌توانم داده‌ها را به قسمت‌های K تقسیم کنم و هر یک از بخش‌ها را به نوبه خود برای پیش‌بینی کنار بگذارم و مدل را با بخش‌های K-1 دیگر انتخاب کنم. بنابراین، سوال این است که چگونه باید پیش بینی کرد. از آنجایی که هدف در اینجا بررسی این است که آیا مدل پیش‌بینی‌شده برای مجموعه اعتبارسنجی صحیح است یا خیر. معمولاً فرد به یک قانون تصمیم نیاز دارد که (من فکر می‌کنم) در این مورد به شکل احتمال > مقدار در این مورد خواهد بود، زیرا هر چه احتمال بالاتر باشد، احتمال بیشتری وجود دارد که داده‌ها از مدل آمده باشند. من مطمئن نیستم که چگونه می توان این را رسمی کرد، یا اینکه آیا می توان آن را از روی برخی نظریه ها توجیه کرد. من دقیقاً هیچ مرجعی از کسی که این کار را انجام می دهد پیدا نکرده ام، که نشان می دهد ممکن است کار اشتباهی انجام دهم. من به برخی از موضوعات تئوری تصمیم نگاه کرده ام اما به نظر می رسد اکثر نتایج شرایطی را برآورده می کنند که در این مورد درست نیست. من همچنین مطمئن نیستم که چگونه کاتاف را تنظیم کنم. یکی از رویکردهای ممکن استفاده از توزیع تجربی مجموعه آموزشی و تعیین مقداری برش بر اساس آن است. یک رویکرد جایگزین مرتبط، تولید منحنی‌های ROC، و سپس تولید برخی آمار خلاصه از آن، مانند منحنی‌های ناحیه زیر است. برای نمونه‌گیری مجدد، می‌توانم مجموعه داده را بگیرم و به‌طور تصادفی آن را در بین رشته‌ها جابجا کنم. بنابراین مقادیر مختلف $X_i$ در رشته های مختلف بین خود رد و بدل خواهد شد. این یک مجموعه داده تولید می کند که دارای توزیع های حاشیه ای مشابه با مجموعه داده های اصلی است. اما جایی که تک تک متغیرها همبستگی ندارند. سپس می توان بررسی کرد که مدل چقدر این مجموعه داده تغییر یافته را با مجموعه داده اصلی متمایز می کند. به نظر من اگر جدایی واضحی وجود داشته باشد، یعنی احتمالات مجموعه داده های جابجا شده بسیار کمتر از احتمالات مجموعه داده های اصلی باشد، پس این شواهدی است که داده های اصلی دارای ساختار همبستگی هستند. من مطمئن نیستم که چگونه این جداسازی را کمیت کنم.
اعتبارسنجی یک مدل برای مجموعه ای از توالی های DNA
82014
من می خواهم کلاس درس و تأثیر/نتیجه مدرسه بر موفقیت (یا نه) دانش آموز در مدرسه را مطالعه کنم. من همچنین می خواهم بدانم تأثیر سن، جنسیت (دانش آموزان) و اینکه آیا دانش آموزان 1 سال مدرسه را تکرار کرده اند یا نه بر موفقیت دانش آموز (یا نه). متغیرهای دانش آموز عبارتند از: \- سن (11 یا 12) \- جنسیت (مرد یا زن) \- اگر یک سال تکرار کرده باشند (بله یا خیر) \- موفقیت (بله یا خیر) متغیرهای دیگر عبارتند از: \- کلاسی که به آن تعلق دارند، (A یا B) \- مدرسه ای که به آن تعلق دارند، (C یا D) من می خواهم با GLMM ادامه دهم، به طور دقیق تر، یک چندسطحی مدل (سلسله مراتبی) با استفاده از R بر روی مجموعه داده من با دانستن اینکه اولاً به دنبال تأثیر کلاس درس و تأثیر مدرسه بر موفقیت دانش آموز هستم (یا نه) و ثانیاً می خواهم تأثیر سن ، جنسیت و اگر دانش آموزان یک سال را تکرار کرده اند (یا نه)؟ با تشکر فراوان از کمک شما!
مدل چند سطحی (سلسله مراتبی) GLMM
17526
من کدنویسی یک فیلتر Kalman را در R شروع کرده ام. من از dlmModreg برای ساختن یک شی از کلاس dlm استفاده می کنم که قصد دارم از آن به عنوان ورودی برای dlmFilter استفاده کنم. اما، من در خود مرحله dlmModreg گیر کرده ام. من پارامترهای dlmModreg را همانطور که در 1 توضیح داده شده ارائه می کنم. این کد linear.reg من است <- lm(y.learn$hospitalizations ~ y.learn$google); flu.model <- dlmModReg(y$google,dV=25.66,dW=0.001016); خطای زیر را در dlmModReg (y.learn$google, dV = 25.66, dW = 0.001016) دریافت می کنم: ابعاد ناسازگار آرگومان ها برای dV من از واریانس باقی مانده از مدل خطی (linear.reg) استفاده کردم، اما این خطا ناپدید می شود وقتی dW را حذف می کنم. همچنین اگر کد خود را به صورت dlmModReg (y.learn$google, dV = 25.66, m0 = 0.023711, c0 = 0.001016) تغییر دهم، خطای زیر را دریافت می کنم Error in dlmModReg (y.learn$google, dV = 25.61,20, m c0 = 0.001016): آرگومان(های) استفاده نشده (c0 = 0.001016) در اینجا m0 تخمین Beta(google) و c0 واریانس Beta(google) است. من مطمئن نیستم که مقدار مناسبی که باید برای پارامترهای dW, dV, m0, c0 استفاده شود چیست؟
خطا هنگام استفاده از dlmModReg
69577
من سعی می کنم پوشش های حاصل از حسابداری دو نتیجه را به طور مستقل و به صورت جفت مقایسه کنم. من 2 مجموعه از مقادیر p (p1,p2) از 60 شبیه سازی دارم. من سعی می کنم با در نظر گرفتن آنها به عنوان 2 پیامد مستقل و به عنوان یک جفت، بفهمم که p واقعی در p های تخمینی چند بار وجود دارد. مطمئن نیستم که چرا پوشش بیشتری دارم (96 درصد پوشش برای p1 و پوشش 83 درصد برای p2) وقتی به طور مستقل درمان می‌شود و پوشش بسیار ضعیف (22 درصد) وقتی به‌عنوان جفت درمان می‌شود. هر فکری؟ در زیر کدی است که من از rate11 استفاده می کنم <- as.numeric(unlist(strsplit(rate1, ))) rate21 <- as.numeric(unlist(strsplit(rate2, ))) p1 <- readLines( C:/Tina/USB_Backup_042213/Winbugs v2_1009/Predicted Results/MVLN/p1.txt) p2 <- readLines(C:/Tina/USB_Backup_042213/Winbugs v2_1009/Predicted Results/MVLN/p2.txt) p11 <- as.numeric(p1, strsplit ))) p21 <- به عنوان. 0.3193 0.2205 0.3148 0.3673 0.1896 0.2759 0.2759 0.2418 [21] 0.3011 0.1969 0.2987 0.3028 0.2152470.215270. 0.2474 0.2354 [31] 0.1917 0.3357 0.2042 0.1862 0.2534 0.2283 0.3505 0.3030 0.2735 0.2669 [41] 0.2669 [41] 0.220.2669. 0.2766 0.3117 0.3720 0.2254 0.2425 0.2097 0.2064 [51] 0.2041 0.2881 0.2898 0.2110 0.2512 0.22224250.222120. 0.2578 rate21 [1] 0.3071 0.2088 0.1993 0.1510 0.2163 0.3062 0.1841 0.2122 0.1970 0.1857 [11] 0.22726760.22760. 0.2068 0.2529 0.3241 0.2716 0.2716 0.2909 [21] 0.1136 0.1196 0.2575 0.1896 0.2941 0.1536 0.224390.224390. [31] 0.2747 0.2913 0.2554 0.1757 0.2167 0.2569 0.1505 0.2914 0.2640 0.2079 [41] 0.3084 0.2603 0.2603 0.2026 0.2 0.2662 0.1963 0.2644 0.2712 0.1414 [51] 0.2498 0.1853 0.1757 0.2253 0.2750 0.1683 0.1824 0.221410. 0.48718497 0.22746812 0.11666142 0.70118068 0.18725532 0.18975113 [7] 0.33871646 0.35930624 0.35930624 0.314 0.314 0.314 0.33195400 0.43073128 [13] 0.38626988 0.24434362 0.13914172 0.26550289 0.32420140 0.40975250 [40975250] 0.22692935 0.33269844 0.31144081 0.18222492 [25] 0.38286975 0.53865241 0.17280546 0.43658109 0.23434349. 0.11502575 0.33417169 0.39532377 0.34670608 0.56308626 0.47540948 [37] 0.66626299 0.518073748 0.44510 0.09003347 0.44516663 [43] 0.40703475 0.29128017 0.42574884 0.43149514 0.44850824 0.491122344 [49112244] 0.60283696 0.34514519 0.44642689 0.44886902 [55] 0.27578750 0.17608196 0.07195664 p [1] 0.45119528 0.21291737 0.15382790 0.65691804 0.22035956 0.19501561 [7] 0.37276003 0.3356138006000. . 0.25837354 0.34690860 0.35486936 0.21846294 [25] 0.36497063 0.49119436 0.19878329 0.435574834 0.22351 0.15239970 0.33912424 0.35612462 0.33345849 0.53875587 0.44886310 [37] 0.63743711 0.47052830 0.47052830 0.47052830 0.4486310 0.12160480 0.44408018 [43] 0.40138140 0.31960604 0.43666172 0.41847738 0.45652344 0.46567358 [44567358. 0.56408453 0.36738204 0.45982163 0.41661121 [55] 0.29617284 0.19748217 0.11749434 0.38674014 0.38674014 0.38674014 0.38674014 0.38611121 library(car) ell<-dataEllipse(rate11, rate21, level=c(0.05, 0.95),plot.points=T, pch=NA) library(sp) در<-point.in.polygon(p11, p21, ell $`0.95`[,1]، ell$`0.95`[,2]) میانگین (در داخل) 0.2166667
تفاوت بین پوشش دو متغیره در مقابل پوشش دو متغیره (بیضی)
81351
من یک مدل خطی سه عاملی ساده دارم: $y = a_1x_1 + a_2x_2 + a_3x_3$، و می‌خواهم ضرایب $a_3 = a_1 \times a_2$ را برآورده کند. چگونه باید آن را در R کد کنم؟
رگرسیون خطی با ضرایب محدود غیر خطی
13458
من داده‌های شمارش پرندگان را دارم و از مدل کلاسیک لاگ خطی پواسون استفاده می‌کنم، یعنی تعداد «obs(i,j)» \- تعداد مشاهده‌شده برای سایت «i» و سال «j» داریم، و مدل این است: ln(model(i, j)) = site_effect(i) + year_effect(j) که در آن مقدار model(i,j) برای سایت i و سال j انتظار می رود، و این است فرض می شود که شمارش ها پواسون توزیع شده اند، یعنی «obs(i,j) ~ Poiss(lambda = model(i,j))». همبستگی سریال و پراکندگی بیش از حد در نظر گرفته شد. اکنون باید **باقیمانده های این مدل را به عنوان یک متغیر وابسته در یک رگرسیون دیگر با چند متغیر توضیحی تجزیه و تحلیل کنم** (لطفاً به من نگویید که باید این متغیرها را در مدل فوق قرار دهم - مختصر بگویم، برخی از مسائل فنی وجود دارد. در پشت آن.) **مشکل اکنون این است:** 1) نحوه تعریف باقیمانده ها 2) توزیع آنها چگونه است 3) از کدام رگرسیون برای توضیح آنها استفاده می شود. **راه حل های ممکن برای تعریف و تحلیل باقیمانده:** الف) ابس/مدل با رگرسیون لاگ خطی پواسون دیگر ب) log((obs+1)/مدل)، توزیع نرمال -> رگرسیون خطی نرمال ج) log((obs+1) )/(مدل+1))، توزیع نرمال -> رگرسیون خطی نرمال د) ... هر کدام دیگر؟؟ **راه حل تبلیغ A**: از «obs/model» استفاده کنید، یعنی. مقدار مشاهده شده را بر مقدار مورد انتظار از مدل (برای هر i,j) تقسیم کنید. اما توزیع آنها چگونه است؟ من می گویم پواسون، اما اعداد اعداد کامل نیستند! **بنابراین در 20 ضرب کردم و به اعداد کامل گرد کردم تا بتوانم poisson را جا بزنم. آیا این ایده خوبی است یا بیهوده است؟ یا چگونه باید پواسون را به متغیر تصادفی پیوسته اعداد حقیقی تطبیق دهم؟** توزیع این است: ![توزیع 20*obs/model، گرد شده به اعداد کامل، با فیت پواسون](http://i.stack.imgur. com/HzsJG.gif) توجه داشته باشید که توزیع پواسون مناسب نیست (تست goodfit() استفاده شده در R). بنابراین یک مشکل وجود دارد که obs/model اعداد واقعی هستند - نه کاملا طبیعی، مانند توزیع پواسون. علاوه بر این، من می‌خواهم در صورت امکان از یک رگرسیون لاگ خطی پواسون اجتناب کنم، زیرا با نحوه تجزیه و تحلیل متغیرهای توضیح‌دهنده، تغییرپذیری توضیح داده شده/غیرقابل توضیح و غیره مانند رگرسیون عادی کاملاً آشنا هستم. **راه حل تبلیغات B/C**: از چیزی مانند «log((obs+1)/model)» یا «log((obs+1)/(model+1))» استفاده کنید. مشکل صفر تعداد مشاهده شده وجود دارد (هیچ تعداد مدل های صفر وجود ندارد)، بنابراین من نمی توانم فقط از «log(obs/model)» آنطور که می خواهم استفاده کنم. چطور میشه این مشکل رو حل کرد؟؟ بهتر است از محلول B یا C استفاده کنیم؟ در اینجا توزیع ها هستند. ![Solution B](http://i.stack.imgur.com/hjhPr.gif) ![Solution C](http://i.stack.imgur.com/pzQTX.jpg) توجه داشته باشید که در این مورد نیز ، توزیع های معمولی مناسب نیستند. هیچ چیز واقعاً مناسب نیست، اما این با داده های شمارش واقعی کاملاً طبیعی است. :-) ** بنابراین، خلاصه ** : \- فکر می کنید کدام راه حل مناسب تر است؟ \- چگونه بر مشکلاتی که هر راه حل دارد غلبه کنیم؟ \- آیا استفاده از B/C و رفتن به رگرسیون خطی معمولی اشتباه بزرگی است، اگر می‌خواهم از سم اجتناب کنم؟ آیا باید از B یا C استفاده کنم؟ خیلی ممنون
چگونه بقایای مدل لگ خطی پواسون را تجزیه و تحلیل کنیم؟
43521
امیدوارم بتوانید به من کمک کنید زیرا در حال حاضر گیج و درمانده هستم. من دانشجوی سال آخر دکترا هستم و اساتید راهنما از من خواستند که روش های آماری غیر از اکتشافی (درصد یافته ها) را برای ارائه داده های خود بیابم. در اینجا داده‌های تحقیق من است که در آن می‌خواهیم نگرش و دلایل مصرف‌کننده را نسبت به دفع، با پاسخ‌های فردی (70=N) که از طریق پرسشنامه‌ای با موارد زیر جمع‌آوری شده است، ارائه کنیم: 1. محصول کاربردی است؟ بله/خیر/پاسخ داده نشد 2. اگر کار می کند آیا می توانید نقطه شکست را مشخص کنید؟ بله/خیر/پاسخ نداده نقطه شکست را بدهید 3. اگر کار می کند محصول جدیدی خریده اید؟ بله/خیر/پاسخ داده نشد 4. اگر کار نمی کند محصولات جدیدی خریده اید؟ بله / خیر / پاسخ داده نشد؟ 5. آیا از گزینه های دیگر آگاهی دارید؟ بله/خیر/پاسخ داده نشد می‌خواهم بدانم چگونه می‌توانم قابلیت اطمینان را اندازه‌گیری کنم، و چه تجزیه و تحلیل آمار دیگری را می‌توانم ارائه دهم: GLM، ANOVA، MANOVA، و غیره.
از کدام روش آماری در تحقیقات کمی مبتنی بر پیمایش استفاده کنیم؟
90245
من در حال خواندن مقاله ای از فادی الثبتاه و همکاران بودم، MMAC: رویکرد طبقه بندی انجمنی چند طبقه ای جدید. من سعی می کردم الگوریتم MMAC آنها را پیاده سازی کنم. در الگوریتم MMAC که در صفحه 3 مقاله. من الگوریتم را متوجه نمی شوم، لطفاً یکی به من کمک کند تا آن را به کد شبه یا کد برنامه تبدیل کنم، واقعاً مفید خواهد بود، با تشکر! لینک مقاله: https://docs.google.com/document/d/1YuXgPrHtH33xhtqWg2T3hSS290fnWK3JBCSnQWvsboE/edit?usp=sharing
پیاده سازی الگوریتم MMAC
58390
من می‌خواهم از پارامترهای مختلف داده‌های سنجش از دور (مانند کرلوفیل، دمای سطح دریا، تنش باد و غیره) به عنوان متغیرهای کمکی در مدل توزیع گونه‌ها استفاده کنم. من داده‌های مربوط به مشاهده، از جمله تلاش‌های بینایی را دارم که از تعدادی سفرهای دریایی علمی در یک دوره دو ماهه جمع‌آوری شده است. ایده من این بود که داده‌های محیطی را برای کل دوره مشاهده به‌طور میانگین جمع‌آوری کنم، با همه مشاهده‌ها به‌عنوان جمع‌آوری هم‌زمان، با میانگین ۲ ماهه مقادیر به‌عنوان متغیرهای کمکی استفاده شود. با توجه به ماهیت داده‌های سنجش از راه دور، مقادیر زیادی از دست رفته به دلیل ابرها و غیره وجود دارد، بنابراین اگر بخواهم داده‌ها را میانگین بگیرم، باید سلول‌هایی را که هیچ مقداری برای >= 1 روز داده نداشت، حذف کنم. این منجر به کسر کوچکی از داده‌ها می‌شود و به نظر می‌رسد روش خوبی برای انجام کارها نیست. چگونه می توانم برآوردهای میانگین پارامترها را در صورت وجود داده های از دست رفته در خروجی سنسور از راه دور بدست بیاورم؟ **به روز رسانی:** تلاش برای مشاهده به عنوان زمان صرف شده قبل از انجام مشاهده ارزیابی می شود. هر چه زمان بیشتری برای رؤیت صرف شود، تلاش برای به دست آوردن رؤیت بیشتر می شود. همچنین می‌توانم از مسافت طی شده قبل از رؤیت به جای زمان استفاده کنم.
میانگین گیری داده های شبکه ای با مقادیر از دست رفته
46460
فرض کنید $n = 5$، $s = 0.0771$. سوال این است: $P(\sigma < 7.63\%)$ چیست؟
توزیع احتمال $\sigma$
35858
من توزیع احتمال را برای پارامتر $\phi$ می دانم. من توزیع تجربی/توزیع آماری $X$ را دارم که به پارامتر $\phi$ برای $\phi در [0,1]$ وابسته است. من این توزیع تجربی را با توزیع احتمال X ترکیب می کنم. 1/ آیا می توانم این کار را انجام دهم؟ آیا مفاهیم مشابه هستند؟ سپس، با دانستن توزیع برای $\phi$، و توزیع تجربی برای $X$، می‌خواهم توزیع را برای $X(\phi)$ محاسبه کنم. من ابتدا به استفاده از روش تابع چگالی معکوس فکر کردم. اگر بتوانم cdf معکوس $F^{-1}$ را محاسبه کنم، این یک مولد اعداد تصادفی برای توزیع ناشناخته من می دهد. با این حال، من همیشه نمی توانم $F^{-1}$ را محاسبه کنم. سپس به روشی برای رد کردن فکر کردم. 2/ نمی دانم که آیا می توانم با این مسئله به عنوان ترکیبی از مسئله چگالی احتمال برخورد کنم و چه راه حل هایی در دست است. من نگاهی گذرا کردم و چند رویکرد بهینه‌سازی برای این دسته از مشکلات را دیدم (در اینجا سابق). 3/ در نهایت، چرا توزیع X را با ضرب هر مقدار $X(\phi)$ در چگالی احتمال برای این مقدار $\phi$ پیدا نکنیم؟ (محصول ساده چگالی احتمال زیربنایی با مقادیر X) با تشکر! # ویرایش من سعی می کنم مشکل را در قالب آمار بیزی دوباره فرموله کنم. من یک $\phi$ قبلی با توزیع یکنواخت دارم. سپس توزیع X مشروط به این قبل را برای $\phi$, $P(X|\phi)$ می دانم. از قانون بیز، می توانم $P(\phi|X) = \frac{P(X|\phi)*P(\phi)}{P(X)}$ را استنتاج کنم. اکنون، پیشین من دیگر به طور یکنواخت توزیع نشده است. به عبارت دیگر، من همان مدل پارامتری را برای توزیع X دارم، اما اکنون با یک RV غیریکنواخت $\theta$ به دنبال برخی توزیع های دانش با چگالی $f_{\theta}$ پارامتری شده است. من می خواهم $P(X|\theta)$ جدید را بدانم. از قانون بیز، $P(X|\theta) = \frac{P(\theta|X)*P(X)}{P(\theta)}$. اگر رابطه ای بین $P(\theta|X)$ و $P(\phi|X)$ داشته باشم مشکل من حل می شود. آیا باید $P(\phi|X)$ را که می دانم، در برابری $P(X|\theta) = \frac{P(\theta|X)*P(X)}{P(\) وصل کنم تتا)}$؟ امیدوارم توضیحات آزمایشی واضح تر به نظر برسند. اگر نه، می توانید من را به سمت فرمولاسیون و راه حل راهنمایی کنید؟ # ویرایش - سعی می‌کنم اولین جمله بعد از نظر Zen را روشن کنم و با 'من توزیع تجربی/آماری $X$ را دارم که به پارامتر $\phi$ برای $\phi در [0,1] وابسته است، دوباره فرموله‌بندی کنم. $.'، می‌خواستم بگویم: من توزیع داده‌ها را در شرایطی می‌دانم که برخی از پارامترها، $\phi$، به طور یکنواخت توزیع شده است. من مدلی را برای توزیع تجربی فرض می‌کنم که با $\phi$ پارامتر شده است. اکنون، من در موقعیت دیگری هستم، که در آن این پارامتر، که من آن را یک متغیر تصادفی در نظر می‌گیرم، توزیع دیگری دارد، با مقداری چگالی معلوم $f_{\phi}$. من همچنین فرض می‌کنم که مدل توزیع تجربی با توزیع زیربنایی جدید مطابقت دارد. داده ها را می توان در این مدل تولید کرد که در آن توزیع پارامتر یکنواخت نیست، اما $f_{\phi}$ است. من می خواهم توزیع این داده ها را پیدا کنم. با تشکر، بابت سؤال ساده و واژگان آماری متشکر عذرخواهی کنید. با احترام
ترکیب چگالی احتمال
81358
من مجموعه داده ای دارم که پس از مدل سازی (با تجمع درختان بوت استرپ)، متوجه شدم که نتیجه آموزشی بسیار بالا و در نتیجه بیش از حد برازش دارم، اما اعتبار سنجی عقب مانده و بخش های آزمایشی من عملاً یکسان هستند و در سطح I هستند. راضی هستم با من کاملا مطمئن نیستم که آیا این یک مدل معتبر در این مورد است. من از تقسیم $60:20:20$ استفاده می کنم. من امیدوار بودم که به دلیل مشابه بودن بخش آزمون و اعتبارسنجی، بتوان مدل را برای بخشی از داده های آزمون توضیح داده شده قابل اعتماد فرض کرد. لطفا اگر اشتباه می کنم اصلاح کنید.
اعتبار سنجی بازدارنده - آزمون و اعتبار سنجی برابر است اما آموزش بسیار بهتر - قابل قبول است؟
43860
> **تکراری احتمالی:** > کاهش تعداد متغیرهای زیر مجموعه بر اساس عمق برای PCA من یک سوال دارم، سعی می کنم روشی را در حوزه تحقیقاتی خود اعمال کنم که هنوز اعمال نشده است، بر اساس انتشارات و ادبیاتی که می توانم پیدا کردن مورد به شرح زیر است: من یک مجموعه داده با متغیرهای x دارم و این متغیرها برای هر مشاهده با عمق تغییر می کنند. من یک مجموعه داده ساده را نشان خواهم داد: ![sampledata](http://i.stack.imgur.com/328vV.jpg) متأسفم من نمی دانستم چگونه یک جدول را وارد کنم، بنابراین یک عکس را وارد کردم. این مهم است که منحنی چگونه به نظر می رسد، بنابراین خوب است که مشاهدات را بر اساس منحنی های آنها (ویژگی) خوشه بندی کنیم، که متغیرهای x را دوباره نمایش می دهد. سوال من این است: مناسب ترین روش چیست؟ آیا می توانم تعداد منحنی ها را با PCA کاهش دهم؟ آیا می توانم منحنی های متغیر x را با یک ترکیب کنم؟ یا آیا روشی وجود دارد که بتواند مشاهدات من را بر اساس منحنی x آنها خوشه بندی کند؟ من راه حل R یا Python را ترجیح می دهم، زیرا به matlab دسترسی ندارم. پیشاپیش متشکرم -v
خوشه بندی بر اساس منحنی داده های چند متغیره (سری های زمانی مانند داده ها)
90242
داده‌های من بد رفتار می‌کنند و به‌نظر نمی‌رسد با وجود تغییرات بیشتر نسبت به Optimus Prime، نمی‌توانم باقیمانده‌هایی با واریانس ثابت دریافت کنم. آیا مشکلی نیست که فقط به تحلیل ادامه دهیم و فقط یادداشت کنیم که برخی از مفروضات نقض شده اند زیرا تطبیق داده ها با یک مدل خطی دشوار یا غیرممکن است؟ ![توضیح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/48BCJ.png)
آیا هرگز اشکالی ندارد که باقیمانده های هتروسکداستیکی را نادیده بگیریم و به تحلیل ادامه دهیم؟
7999
فرض کنید من یک تابع funToRepeat دارم: funToRepeat <- function(df){ ردیف <- nrow(df) cols <- ncol(df) err <- runif( rows * cols ) dfNew <- df + as.data. فریم (ماتریس(خطا، nrow=ردیف، ncol=cols)) dfNew } می‌خواهم «funToRepeat» را روی «dfTest» (مجموعه داده‌های اسباب‌بازی)، چندین بار، بگویید «n». dfTest <- structure(list(V1 = 1:2، V2 = 3:4)، .Names = c(V1، V2)، row.names = c(NA,-2L)، class = data .frame) چگونه می توانم این کار را انجام دهم و به طور کارآمد n خروجی funToRepeat در R را میانگین کنم؟ یک مثال بسیار بد با `n=10` ممکن است این باشد: dfAvg <- as.data.frame(list(V1=c(0, 0), V2=c(0, 0))) for(i در 1:10 ){ dfAvg <- dfAvg + funToRepeat(dfTest) } dfAvg <- dfAvg/10 لطفا توجه داشته باشید، من سعی نمی کنم برای بوت استرپ کردن من می‌خواهم «funToRepeat» را روی مجموعه داده‌ام اجرا کنم و میانگین خروجی‌های «n» را بگیرم. من می‌خواهم این کار را انجام دهم زیرا «err»، یک عبارت تصادفی، را به data.frame خود اضافه می‌کنم و می‌خواهم پاسخی معقول ارائه کنم. (من دقیقاً این کار را در زندگی واقعی انجام نمی دهم، اما چیزی بسیار مشابه)
چگونه یک تابع را در یک مجموعه داده در R به طور موثر تکرار کنیم؟
81359
من پانل دیتا را روی Y، A، B، C دارم. و سعی می کنم متغیر وابسته Y را بر روی متغیرهای مستقل A، B، C مدل کنم. ابتدا ریشه های واحد را بررسی کردم (در Eviews). Y، A، B، C هیچ ریشه واحدی ندارند، اما Y یک ریشه واحد مشترک دارد، و همچنین A. چگونه باید ادامه دهم؟ من قبلاً Y را روی A، B، C پسرفت کردم، اما اکنون مردد هستم زیرا مطمئن نیستم این کار را انجام دهم، زیرا Y و A دارای ریشه واحد مشترک هستند. هر گونه کمکی قدردانی خواهد شد. T=1900 (روزهای معاملاتی) N=90 (سهام فرانسوی) Y=اندازه گیری نقدینگی A=قیمت سهام. B=خیر سهام C = مقداری امتیاز سهام ارزش/رشد
رگرسیون پانل داده که در آن برخی از متغیرها دارای ریشه واحد مشترک هستند
101454
**زمینه:** نمایندگان فروش به پزشک مراجعه می کنند و درباره یک محصول/دارو اطلاعاتی را ارائه می دهند. یک بازدید به عنوان یک تماس نامیده می شود. در عوض او نسخه هایی را برای پزشکانی که آن داروی خاص را تجویز می کنند، می نویسد. **بیانیه مشکل:** سه متغیر وجود دارد که باید بر اساس آنها الگوریتمی ایجاد شود که به اولویت بندی پزشکان کمک کند. 1. **پتانسیل استفاده نشده:** نسخه های نوشته شده توسط پزشک در مورد محصولاتی که مشابه/رقیب محصول مشتری هستند. 2. **پتانسیل استفاده شده:** نسخه هایی که توسط پزشک در مورد محصول مشتری نوشته شده است. 3. **ارزش تماس:** نسبت کل تماس های داده شده به پزشک به کل نسخه هایی است که او نوشته است. به عنوان مثال: پزشکی که 10 بار تماس گرفته و به نوبه خود 10 نسخه نوشته است، اهمیت کمتری نسبت به دکتری دارد که 5 بار تماس گرفته است و به نوبه خود 10 نسخه نوشته است... هدف این است که از این 3 متغیر استفاده کنید و بالا بیایید. با الگوریتمی که به اولویت بندی پزشکان در دسترس کمک می کند.
اولویت بندی بر اساس سه عامل
13456
برای یکی از پروژه های آکادمیکم یک نظرسنجی نمونه انجام دادم. اما متأسفانه پاسخ دهندگان چندان فعال نبودند و من فقط 25 پاسخ برای مطالعه خود دریافت کردم. با این پاسخ کوچک، حدس می‌زنم نمی‌توانم هیچ مطالعه آماری انجام دهم (مثلاً آنووا، رگرسیون، و غیره). بنابراین، می‌خواستم بدانم که آیا بر اساس میانگین و انحراف استاندارد نمونه، می‌توانم مجموعه داده بزرگ‌تری را شبیه‌سازی کنم و سپس تجزیه و تحلیل آماری خود را انجام دهم. اگر کسی روش انجام شبیه سازی با میانگین و sd داده شده را در نرم افزار R به من بگوید ممنون می شوم. با احترام، آری
راه هایی برای غلبه بر تعداد کمی از پاسخ های نظرسنجی
21120
در برازش چند جمله ای $p_N = \sum\limits_i^N a_i x^i$ به مجموعه داده من $(x,y)$ با استفاده از حداقل مربعات، من علاقه مند به تعیین ترتیب چند جمله ای بهینه $N$ هستم. اخطار این است که، به دلیل محدودیت‌های خاص مسئله، چند جمله‌ای باید شرایط مرزی زیر را برآورده کند: $p_N(0) = 0$، و $\frac{d}{dx}p_N(L)=0$. ($L$ شناخته شده است). من جمع‌آوری می‌کنم که اگر مشکل بدون محدودیت بود، ترتیب را می‌توان با استفاده از 2 آزمون ANOVA F متوالی تعیین کرد: اولین موردی که تعیین می‌کند آیا سفارش $N$ به اندازه کافی واریانس در $Y$ مشاهده‌شده را توضیح می‌دهد یا خیر، و اگر موفق شد، یک آزمون دوم برای تعیین اینکه آیا واریانس توضیح داده شده اضافه شده با سفارش $N$ بر سفارش $N-1$ از نظر آماری معنی دار است یا خیر. آیا آزمون مشابهی وجود دارد که بتوانم آن را برای وجود شرایط مرزی اعمال کنم؟ پیشاپیش از وقتی که می گذارید متشکرم!
ترتیب چند جمله ای بهینه در رگرسیون خطی با محدودیت برابری
114988
در اینجا یک هیستوگرام (تحقق یافته با JMP) وجود دارد که دو نوع نمودار جعبه به نام نمودار جعبه پرت و نمودار جعبه کمی را نمایش می دهد. ![توضیحات تصویر را در اینجا وارد کنید](http://i.stack.imgur.com/I7MVb.png) درست در زیر، مجموعه‌ای از توضیحات درباره معنای ویژگی‌های مختلف نمودار جعبه پرت وجود دارد. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/0DKbI.png) براکت قرمز کوتاه ترین نیمه داده ها (متراکم ترین ناحیه) است. این عبارت دقیقا به چه معناست؟ چقدر با چارک تفاوت دارد؟ منبع
کوتاه ترین نیمه داده ها چیست؟