_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
74963 | من دو مدل دارم که اساساً قرار است نتایج یکسانی داشته باشند. با توجه به اینکه مدل اول درست است، چه تست هایی وجود دارد که می توانم از طریق مقایسه نتایجی که هر دو تولید می کنند اعتبار مدل دوم را بررسی کنم؟ در حالت ایده آل مقایسه تست ها از طریق R انجام می شود، اما من به تئوری نیز علاقه مند هستم. ویرایش در مورد نتایج: نتایج هر دو مدل تصاویر شطرنجی هستند برای هر پیکسل در هر شطرنجی هر ماژول یک مقدار تولید می کند. من می توانم یک نمونه با n نمونه ایجاد کنم به عنوان مثال: PixelId | modelA | modelB 1 | 223 | 222 2 | 1 | 1 3 | 3 | 3 و غیره... | چگونه می توان بررسی کرد که آیا نتایج دو روش یکسان است؟ |
97708 | من از تابع gbm.step() از بسته dismo برای ارزیابی تعداد بهینه درختان تقویت کننده با استفاده از اعتبار سنجی متقاطع k-fold برای یک مشکل طبقه بندی استفاده می کنم. این تابع با یک مدل با تعداد درخت بهینه مطابقت دارد و آن را به عنوان یک مدل gbm همراه با اطلاعات اضافی از فرآیند انتخاب اعتبار متقابل برمی گرداند. و همچنین نموداری را با پارامترهای پیش فرض نشان می دهد. این طرح من است:  چگونه می توانم تنظیمات پیش فرض را تغییر دهم؟ یعنی من یک عنوان متفاوت و برچسب های x و y متفاوت می خواهم. بعد از جستجو و خواندن اطلاعات بسته «dismo» چیزی پیدا نکردم. با تشکر | چگونه می توانم پارامترهای پیش فرض یک نمودار gbm.step را تغییر دهم؟ |
15058 | من یک مدل غیرخطی $y=\Phi(f(x,a)) + \varepsilon$ دارم که $\Phi$ cdf توزیع نرمال استاندارد و f غیرخطی است (به زیر مراجعه کنید). من میخواهم خوب بودن تناسب این مدل را با پارامتر $a$ با دادههای خود $(x_1,y_1),(x_2,y_2),\dots,(x_n,y_n)$ آزمایش کنم، پس از استفاده از تخمین حداکثر احتمال برای یافتن $a$. آزمایش مناسب چه خواهد بود؟ من میخواهم از این آزمایش برای برچسبگذاری یک تناسب بد به عنوان بد و تعیین اینکه آیا دادههای بیشتری باید جمعآوری شود یا خیر استفاده کنم. من به استفاده از انحراف، که این مدل را با مدل اشباع شده، با آزمون مربوط به خوبی برازش با استفاده از توزیع $\chi^2_{n-1}$ مقایسه میکند، بررسی کردهام. آیا این مناسب خواهد بود؟ بیشتر مطالبی که در مورد انحراف خواندهام، آن را در مورد GLMها اعمال میکنند، که این چیزی نیست که من دارم. اگر آزمون انحراف مناسب باشد، چه مفروضاتی باید رعایت شود تا آزمون معتبر باشد؟ بهروزرسانی: $f = \frac{x-1}{a\sqrt{x^2+1}}$ برای $x>1,a>0$ در صورتی که کمک کند. | چگونه می توان خوب بودن برازش یک مدل غیرخطی خاص را ارزیابی کرد؟ |
18154 | بگذارید $a$ و $b$ دو عدد صحیح مثبت باشند. اجازه دهید $X$ نیز یک متغیر تصادفی گسسته باشد که در $X(\Omega)=\\{1, 2, \ldots, ab\\}$ متغیر است به طوری که برای هر $x∈X(\Omega),P[X = x]=1/a - 1/b$. الف) $a$ و $b$ باید دارای چه شرایطی باشند؟ ب) تابع توزیع تجمعی $F$ از $X$ را تعیین کنید. $u$ را طوری محاسبه کنید که $F(u)=1/2$ باشد. ج) $E(X)$ را تعیین کنید. مقادیر $a$ و $b$ را طوری بیابید که $E(X) = 7/2$ باشد. | مشکلات تابع توزیع تجمعی |
115096 | می دانم وقتی می خواهم بهترین مقادیر C و گاما را پیدا کنم، باید از جستجوی شبکه ای استفاده کنم. اما در مورد من میخواهم بهترین مقدار C را پیدا کنم. بنابراین، به این میگویند جستجوی خط. آیا عملکردی مانند جستجوی شبکه ای برای انجام این کار وجود دارد؟ (جستجوی فقط بهترین مقدار C). پیشاپیش متشکرم، ویم | درباره جستجوی شبکه برای یافتن بهترین مقدار C |
6562 | من مقالهای از کریستوفر منینگ خواندهام، و کد جالبی برای فروپاشی متغیر طبقهای در مدل رگرسیون لجستیک دیدهام: glm(ced.del ~ cat + follows + I(class == 1)، family=binomial (logit) ) آیا «I(class == 1)» به این معنی است که متغیر «class» به «1» است یا نه. 1؟ بعد از آن، من به فکر اصلاح آن هستم: glm(ced.del ~ cat + follows + I(class %in% C(1,2)), family=binomial(logit)) قصد دارم ادغام شوم متغیر «class» از «c(1،2،3،4)» به دو گروه، یک گروه حاوی «c(1،2)»، گروه دیگر حاوی «c(3،4)» است، میتواند کد بالا نتیجه ای را که می خواهم به من بده؟ با تشکر | جمع کردن داده های طبقه بندی به راحتی برای رگرسیون در R |
33457 | من آزمایشی را انجام دادم که در آن شرکت کنندگان به طور تصادفی به 2 شرایط تقسیم شدند. سپس آنها 3 تست جداگانه را با یک نتیجه قبولی/شکست دودویی برای هر آزمون تکمیل کردند. بنابراین من 3 نمره آزمون دودویی (داخل موضوعی) برای هر شرکت کننده و 2 گروه (بین موضوعی) از شرکت کنندگان دارم. باید تعیین کنم: 1. آیا میزان قبولی برای 3 آزمون معادل بود؟ 2. آیا شرایط شرکت کننده روی نرخ قبولی به طور کلی تأثیر داشت؟ 3. آیا شرایط با نتیجه آزمایش خاصی تداخل داشت؟ اگر DV ها پیوسته بودند، این یک اندازه گیری تکراری ساده، ANOVA مدل مختلط خواهد بود. من در حال تحقیق بودم که باید چه کار کنم. من با آزمون کیو کوکران مواجه شدم که به نظر می رسد راهی عالی برای تعیین اینکه آیا میزان قبولی بین 3 آزمون متفاوت است یا خیر، اما به نظر نمی رسد هیچ راهی برای محاسبه این دو شرایط تجربی وجود داشته باشد. آیا آزمایش مشابهی وجود دارد که اجازه IV اضافی را بدهد؟ من از SPSS استفاده می کنم و معادلات برآورد تعمیم یافته (GEE) را نیز بررسی کرده ام، که به نظر می رسد ممکن است مفید باشد، اما به نظر می رسد که در آنجا فقط می توان یک DV را وارد کرد. اگر از این روش استفاده کنم چگونه می توانم 3 نمره آزمون تکراری را وارد کنم؟ | چگونه می توان با DV های باینری و یک IV باینری تک تجزیه و تحلیل اندازه گیری های مکرر انجام داد؟ |
19491 | > **تکراری احتمالی:** > R-squared: X درصد تغییرات مقادیر Y را توضیح می دهد. آیا نظم محور مهم است؟ بابت سوال عجیب ببخشید اما در رابطه با رگرسیون خطی شک دارم. به کد زیر نگاهی بیندازید: x = rnorm(100) y = rnorm(100) mod1 = lm(x~y+0) mod2 = lm(y~x+0) همانطور که می بینید من رگرسیون و مقدار را تغییر می دهم رگرسیون در آن دو مدل خطی. سوال من در مورد باقیمانده های آن دو مدل، اگر از متغیرهای یکسانی استفاده کنم، چرا باید متفاوت باشند؟ | آیا این دو مدل با هم برابرند؟ |
72750 | چگونه حداکثر همبستگی قابل مشاهده بین دو ماتریس همبستگی را تخمین بزنیم؟ من به این نیاز دارم تا ضریب همبستگی مشاهده شده بین دو ماتریس همبستگی را که بر اساس اندازه نمونه های مختلف محاسبه کرده ام، تصحیح کنم. این روشی است که من به آن نیاز دارم و روشی که برای حل آن تلاش کردم. برای یافتن این مقدار از مفهوم تکرارپذیری ماتریس استفاده می کنم که در آن این کمیت به صورت t = (Vo - Ve)/Vo محاسبه می شود که در آن Vo واریانس در مقادیر همبستگی مشاهده شده و Ve واریانس خطا است. سپس من از این برای محاسبه Rmax (حداکثر همبستگی قابل دستیابی) به عنوان $\sqrt{t1*t2}$ استفاده می کنم که در آن t1 و t2 تکرارپذیری های ماتریسی هستند. این راه حل من در R repeatCor است <- تابع(mat1, mat2) { mmc1 <- cor(mat1) mmc2 <- cor(mat2) a <- cor(mat1)[lower.tri(cor(mat1))] b < - cor(mat2)[lower.tri(cor(mat2))] statObs <- cor(a,b) mmce1 <- عددی(طول(a)) mmce2 <- numeric(length(a)) for(i in 1:length(a)) { mmce1[i] <- sqrt((1-a[i]^2)/(length(a)-1)) #errors برای هر ضریب همبستگی mmce2[i] <- sqrt((1-b[i]^2)/(طول(b)-1)) } Vt1 <- var(a) - var(mmce1) Vt2 <- var(b) - var(mmce2) t1 <- Vt1/var(a) t2 <- Vt2/var(b) Rmax <- sqrt(t1*t2) corCor < - لیست statObs/Rmax (rep1 = t1، rep2 = t2، Rmax = Rmax، corRaw = statObs، corCor = corCor، m1 = var(mmce1)، m2 = mean(mmce2)) } اما مقادیری که برای Rmax به دست میآورم بسیار نزدیک به 1 هستند و باید کمتر باشند. شاید من کار بدی انجام می دهم؟ | حداکثر همبستگی بین دو ماتریس همبستگی در R |
83042 | من یک مدل غیر خطی دارم که به نظر می رسد کاملاً خوب کار می کند. در مقایسه با سایر مدلهای مشابه، با استفاده از دادههای مشابه، AIC و BIC منفیتری دارد، بنابراین من کاملاً مطمئن هستم که بهتر از مدلهای دیگر است. با این حال، من در رگرسیون غیرخطی بیتجربه هستم و واقعاً نمیدانم چگونه مدل را بر اساس شرایط خودش ارزیابی کنم. به عبارت دیگر چگونه می توانم به کسی بگویم که این مدل خوب است؟ | چگونه می توانم مدل غیرخطی خود را (بدون مقایسه مدل) ارزیابی کنم؟ |
87749 | در تفسیر ضرایب همبستگی میتوان موارد زیادی را به صورت آنلاین پیدا کرد. اما تصمیم گیری در مورد زمان حذف یک متغیر از یک مدل خطی به دلیل همبستگی آن با متغیر دیگر، اغلب دشوار است. 1. در تعریف آستانه برای ضریب همبستگی چه چیزی را باید در نظر بگیرم؟ 2. معمولاً از چه ضریب (0.4؟) برای تعریف دو متغیر به عنوان خیلی همبسته استفاده کنم؟ 3. در تحلیل همبستگی متغیرهایم چه پیشنهادهای عملی را باید دنبال کنم؟ | وقتی همبستگی خیلی زیاد می شود؟ |
38296 | من می دانم $E(aX+b) = aE(X)+b$ با ثابت های $a,b $، بنابراین با توجه به $E(X)$، حل آن آسان است. همچنین میدانم که وقتی تابع غیرخطی است، نمیتوانید آن را اعمال کنید، مانند این مورد $E(1/X) \neq 1/E(X)$، و برای حل آن، باید انجام دهم تقریبی با تیلور بنابراین سوال من این است که چگونه $E(\ln(1+X))$ را حل کنم؟ آیا من هم با تیلور تقریب دارم؟ | مقدار مورد انتظار یک لگاریتم طبیعی |
103145 | این سوال کلی تر از یک سوال برنامه نویسی معمولی است. من به یک نوع مرجع پاسخ امیدوار هستم. من روی مدلی کار می کنم که شامل یادگیری بیزی در یک مسئله برنامه نویسی پویا است. یعنی مدل دارای یک پارامتر تتا است که در هر دوره نامشخص است. در هر دوره، اطلاعاتی وجود دارد که امکان به روز رسانی باور تتا را فراهم می کند. و در هر دوره، عوامل تصمیماتی برای به حداکثر رساندن یک هدف می گیرند. اعمال او بر سیگنال تأثیر نمی گذارد، یعنی یادگیری فعال نیست. نزدیکترین مدلی که من پیدا کردم این http://papers.ssrn.com/sol3/papers.cfm?abstract_id=982434/ است. اما این مقاله تنها راه حل تحلیلی را انجام می دهد که به شدت به مفروضات بستگی دارد. میخواهم بدانم که آیا این نوع مسائل به طور سیستماتیک در ریاضیات، cs یا سایر رشتهها مطالعه شده است؟ اگر بله، می توانید به من به برخی از مراجع اشاره کنید. من می خواهم بتوانم راه حل های مدل را شبیه سازی کنم یا پارامترها را روی یک مجموعه داده تخمین بزنم. | یادگیری بیزی با برنامه نویسی پویا |
51398 | من می خواهم از یک مدل log-log استفاده کنم و یکی از متغیرهای مستقل من log (سرمایه گذاری در ماشین آلات/کارمند) است. برخی از شرکت ها 0 سرمایه گذاری را گزارش می کنند. من باید لاگ بگیرم و میخواهم بدانم کدام رویکرد مناسبتر است: 1. log (سرمایهگذاری در ماشینآلات/کارمند) را بگیرید و log (0)=0 را تنظیم کنید و یک متغیر ساختگی اضافه کنید که وقتی log (0) را تنظیم میکنم 1 است. ) = 0 و 0 در غیر این صورت. 2. زمانی که سرمایه گذاری 0 است مقدار دلخواه x را اضافه کنید و log (0+x) بگیرید. 3. گزینه دیگری وجود دارد؟ | چگونه با log (0) برای متغیر مستقل رفتار کنیم؟ |
110600 | در خلاصه ویکیپدیا در مورد Cramér's $V$، ذکر شده است که میتوان از آن در حالت تک بعدی به عنوان معیار غلظت استفاده کرد. 1. فرمول در این مورد خاص چیست؟ 2. آیا مرجعی در مورد این استفاده جایگزین وجود دارد؟ | Cramér's $V$ برای یک متغیر |
38299 | یکی از انگیزه های شبکه الاستیک محدودیت زیر LASSO بود: در حالت p > n، کمند حداکثر n متغیر را قبل از اشباع شدن انتخاب می کند، به دلیل ماهیت مسئله بهینه سازی محدب. به نظر می رسد این یک محدود کننده باشد. ویژگی برای یک روش انتخاب متغیر، علاوه بر این، کمند به خوبی تعریف نشده است، مگر اینکه کران ضرایب L1 کوچکتر از مقدار معینی باشد. (http://onlinelibrary.wiley.com/doi/10.1111/j.1467-9868.2005.00503.x/full) من میدانم که LASSO یک مشکل برنامهنویسی درجه دوم است، اما میتواند از طریق LARS یا شیب نزول عنصری نیز حل شود. اما من نمی فهمم در کجای این الگوریتم ها با مشکل مواجه می شوم اگر p > n که p تعداد پیش بینی کننده ها و n اندازه نمونه باشد. و چرا این مشکل با استفاده از شبکه الاستیک حل می شود، جایی که من مسئله را به متغیرهای p+n که به وضوح از p بیشتر است، افزایش می دهم. | اگر p > n، کمند حداکثر n متغیر را انتخاب می کند |
5503 | فکر می کنم، من این نقل قول را در جایی خواندم: > برای هر فیلد x یک فیلد x محاسباتی وجود دارد. اگر درست یادم باشد اثر دکتر یان دی لیو بود. لطفاً کسی می تواند بگوید که آیا حافظه من در اینجا از کار می افتد؟ (بعد از کلی جستجو نتونستم لینکی پیدا کنم) | آیا چنین نقل قولی از برخی آمارگیران وجود دارد؟ |
71606 | من یک مدل میانجی با دو واسطه پیوسته (m1؛ m2)، یک متغیر ورودی پیوسته (x) و یک متغیر خروجی دوگانه (y) دارم. دو واسطه مکانیسم های متفاوتی از متغیر ورودی هستند. من میدانم که میانجیگری باید برای تعیین اینکه آیا یکی، هر دو یا هیچکدام از واسطهها شانس 1 بودن متغیر نتیجه را افزایش میدهد مفید باشد. من سعی کردهام مدل را با دو روش مختلف محاسبه کنم: a) بسته lavaan برای R و b. ) قدم های بارون و کنی. یک تفاوت در محاسبات این است که رویکرد مدلسازی لاوان، متغیر ورودی x را بر اساس ضرایب رگرسیون 4 پیشبینیکننده محاسبه میکند، در حالی که برای رویکرد بارون و کنی، متغیر x فقط میانگین این 4 پیشبینیکننده است (من نمیدانستم چگونه برای انجام آن). نتایج این دو مدل کاملاً متفاوت است همانطور که در شکل های پیوست مشاهده می شود. با این حال مشکل اصلی من در این لحظه از زمان، تفسیر ضرایب است. در شکل 3 و 4 تخمین هایی که از R برگردانده می شوند روی فلش های مربوطه قرار دارند.  ## مدل لاوان با تخمین  ## مدل بارون و کنی با تخمینها برای درک این تخمینها، سعی کردم آن را به درصد تبدیل کنم. درصد افزایش نسبت شانس متغیر وابسته در صورت افزایش پیشبین مربوطه به میزان 1. اینها در شکلهای 5 و 6 آمده است. ![مدل لاوان با برآوردهای استاندارد] 3uZ8x.png) ## مدل لاوان با برآوردهای استاندارد شده  ## مدل بارون و کنی با تخمینهای استاندارد شده برای انجام این کار، من برای ضرایب رگرسیون با نتایج باینری موارد زیر را انجام دادم: round((exp(COEFF) -1)*100،2) حال اگر به مدل لاوان نگاه کنم، می توانم بگویم: (1) اثر کل x روی y زیاد است (11.52%)، مستقیم اثر x بر y نسبتا کم است (-4.78٪). (2) افزایش 1 در m1، شانس Y را به 1 در 90٪ افزایش می دهد. به طور کلی، آیا این ایده بدی است که نوعی تغییر را در اینجا امتحان کنید؟ من واقعا نمی توانم درک کنم که چگونه می توان از ضرایب مختلف در مسیرهای اثرات غیرمستقیم معنا پیدا کرد. #### نمونه کار حداقل #### data library(QuantPsyc) library(psych) library(lavaan) <- read.csv(http://dl.dropboxusercontent.com/u/63191123/data.csv, header = TRUE, sep = \ t, stringsAsFactors=TRUE) sapply(data, mode);sapply(data, class);attach(data);head(data);psych::describe(data) model <- ' # مدل اندازه گیری m1 =~ m11 + m12 + m13 + m14 + m15 + m16 m2 = ~ m21 + m22 + m23 + m24 + m25 m24 ~~ m25 m13 ~~ m14 m16 ~~ m21 m25 ~~ m22 m23 ~~ m24 m13 ~~ m15 m12 ~~ m13 m24 ~~ m22 ' # fit model fit <- cfa(model, mimic=Mplus, data=data) m1 <- (parameterEstimates(fit) [1،4] * m11 + پارامتر برآوردها (مناسب)[2،4] * m12 + parameterEstimates(fit)[3,4] * m13 + parameterEstimates(fit)[4,4] * m14 + parameterEstimates(fit)[5,4] * m15 + parameterEstimates(fit)[6,4] * m16)/6 m2 <- (parameterEstimates(fit)[7,4] * m21 + parameterEstimates(fit)[8,4] * m22 + parameterEstimates(fit)[9,4] * m23 + parameterEstimates(fit)[10,4] * m24 + parameterEstimates(fit)[11,4] * m25)/5 #### بارون و کنی ### # #<<<<<< بارون و کنی - مرحله 1 >>>>>># Baron_c.mod <- glm(Y ~ X, خانواده = دو جمله ای (لینک = logit)) #<<<<<< بارون و کنی - مرحله 2 >>>>>># Baron_a1.mod <- lm(m1 ~ X) Baron_a2.mod <- lm(m2 ~ X) #<<<<<< بارون و کنی - مرحله 3 >>>>>># Baron_b.mod <- (glm(Y ~ X + m1 + m2، خانواده = دو جمله ای (لینک = logit))) # خلاصه بارون و کنی: Path_a1 <- summary(Baron_a1.mod)$coefficients[2,] Path_a2 <- summary(Baron_a2.mod)$ضرایب[2 ,] Path_b1 <- summary(Baron_b.mod)$ضرایب[3،] Path_b2 <- summary(Baron_b.mod)$ضرایب[4،] Path_c <- summary(Baron_c.mod)$ضرایب[2،] Path_c_ <- summary(Baron_b.mod)$ضرایب[2،] بارون <- rbind( Path_a1، Path_a2، Path_b1، Path_b2، Path_c، Path_c_) print(Baron, digits=3) #Baron.std <- rbind(lm.beta(Baron_a1.mod), lm.beta(Baron_a2.mod), lm.beta(Baron_b.mod)[2], lm. beta(Baron_b.mod)[3]، lm.beta(Baron_c.mod)[1]، lm.beta(Baron_b.mod)[1]) #Baron.std <- Baron.std[,1] #Baron <- data.frame(Baron, Baron.std) ########### ##### #### لاوان #### ################ data$m1 <- m1 data$m2 <- m2 mediation <- ' X =~ x1 + x2 + x3 + x4 Y ~ b1*m1 + b2*m2 + c*X m1 ~ a1*X m2 ~ a2*X indirect_m1 := a1*b1 indirect_m2 := a2*b2 مجموع := c + (a1*b1) + (a2*b2) ' mediation.fit <- sem(mediation, std.lv=FALSE, مرتب = Y، داده=داده) # summary(mediation.fit) ###### ضرایب استاندارد شده برای رگرسیون لاجیت | تفسیر یک مدل میانجی با نتیجه باینری |
83045 | من به برخی ادبیات در مورد کمینه سازی واگرایی KL نگاه می کنم و در درک اشتقاق لحظه مرتبه دوم مشکل دارم. بنابراین، اگر توزیعی از خانواده نمایی داشته باشیم، داریم: $$ p_{\theta}(x) = \frac{1}{Z(\theta)}\exp\left(\theta^{T}\ phi(x)\right) $$ جایی که $$ Z(\theta) = \int\exp\left(\theta^{T}\phi(x)\right) dx $$ اکنون، برای محاسبه لحظهها یا به جای نشان دادن ویژگی تولید لحظه، مراحلی برای محاسبه نرمال ساز گزارش با توجه به $\theta$ وجود دارد. بنابراین، من می خواهم مشتق دوم $\log Z(\theta)$ را محاسبه کنم. من کارهای زیر را انجام دادم: $$ \nabla\nabla\log Z(\theta) = -\frac{1}{Z(\theta)^2}\nabla\nabla Z(\theta) $$ اکنون، $$ \ nabla Z(\theta) = \int\phi(x)\exp\left(\theta^T\phi(x)\right)dx $$ به طور مشابه، $$ \nabla\nabla Z(\theta) = \int\phi(x)\phi(x)\exp\left(\theta^T\phi(x)\right)dx $$ بنابراین، $$ \nabla\nabla\log Z( تتا) = -\frac{1}{Z(\theta)}\int\frac{\phi(x)\phi(x)\exp\left(\theta^T\phi(x)\right)}{Z(\ theta)}dx $$ که عبارت است از: $$ -\frac{1}{Z(\theta)} \mathbb{E}(x^2) $$ البته این نتیجه اشتباه است. باید $\mathbb{E}(x^2) - \mathbb{E}^2(x)$ باشد. اگر کسی بتواند به من نشان دهد کجا اشتباه کرده ام، بسیار سپاسگزار خواهم بود. | معادله کمینه سازی واگرایی KL |
76392 | من مجموعه ای از داده ها را دارم که نشان دهنده افزایش (نمایی) در اندازه جمعیت حیوانات در طول زمان است. من می توانم یک مدل نمایی را با این داده ها تطبیق دهم و تخمینی از نرخ رشد جمعیت (با فرض رشد نمایی نامحدود) به دست آوریم. با این حال، من میخواهم در مورد اینکه این تخمین چقدر متغیر است، توضیحی بدهم. برای انجام این کار، من یک اسکریپت R نوشتهام که نمونهبرداری مجدد Bootstrap از مشاهدات اولیه را انجام میدهد و مقدار نرخ رشد جمعیت را برای هر نمونه Bootstrap جمعآوری میکند. من با تطبیق یک lm از فرم log (فراوانی) ~ سال به این امر می رسم. در حالی که مدل نمایی اولیه بسیار معنی دار بود (p<0.05)، این لزوما در همه نمونه های مجدد Bootstrap صادق نیست. چگونه می توانم فواصل اطمینان قابل اعتمادی برای نرخ رشد جمعیت بسازم، با دانستن اینکه گاهی اوقات (در برخی اجراها) در آلفا = 0.05 غیر قابل توجه است؟ من 3 گزینه را در اینجا می بینم: 1) ایجاد توزیعی از مقادیر نرخ رشد بر اساس همه نمونه های مجدد، صرف نظر از اینکه رگرسیون معنی دار بوده یا نه. 2) فقط CI را بر اساس زیرمجموعه نمونههای مجدد که رگرسیون معنیدار بود، قرار دهید. 3) هر زمان که مقدار p مربوط به آن از آستانه معنیداری انتخابشده بزرگتر باشد، به ضریب رگرسیون، مقدار صفر اختصاص دهید، یعنی آلفا=0.05. من فقط یک مقاله منتشر شده پیدا کرده ام که از روش 3 استفاده می کند (آستین (2007). استفاده از بوت استرپ برای بهبود فاصله های تخمین و اطمینان برای ضرایب رگرسیون انتخاب شده با استفاده از حذف متغیر به عقب. آمار در پزشکی، 27، جلد. 17:3286-3300]. آیا این یک رویکرد معتبر است؟ با تشکر | شیب های رگرسیون بوت استرپینگ - مقدار p و سطح معنی داری |
76377 | ما در یک مدل رگرسیونی 2 پیشبینیکننده پیوسته داریم و هر دو دارای شرایط درجه دوم معنیدار هستند. فرضیه اصلی ما که می خواهیم آزمایش کنیم (به طور کلی) این است که آیا تعاملی بین این متغیرها وجود دارد یا خیر. هنگام مدلسازی، شاهد تعامل قابل توجهی بین عبارتهای خطی هستیم. اما اصطلاحات متقابل شامل اصطلاحات درجه دوم مهم نیستند. بنابراین آیا برای تطبیق مدل با اثرات اصلی درجه دوم و فقط شرایط تعامل مرتبه اول (مثلا $y = intercept + x^2 + x + xz + z + z^2$) مشکلی وجود دارد؟ من هیچ مشکل نظری در این مورد نمیدانم، اما با نگاه کردن به نتیجه پیشبینیشده، به نظر میرسد که این رابطه عجیبی ایجاد میکند -- به ویژه، نگاه کردن به منحنیهای $y$ در مقابل $x$، برای همه مقادیر $z$ منحنی ها در یک نقطه خاص قطع می شوند. به طور خلاصه، سؤال این است که، اگر قصد دارید یک متغیر کمکی درجه دوم را وارد کنید، آیا فقط به آزمایش برهمکنشهای با بالاترین مرتبه عبارات علاقه دارید (و اگر فقط برهمکنشهای خطی مهم هستند، این بدان معناست که هیچ تعاملی وجود ندارد. | برازش فعل و انفعالات مرتبه پایین تر با جلوه های اصلی مرتبه بالاتر |
31377 | من در حال خواندن مقاله ای در مورد الگوریتم رگرسیون هستم و با تعریفی از خطای نسبی مواجه شدم (ص 15). نویسندگان خطای نسبی را $$RE = \frac{MAD}{(1/T) \Sigma_i^T |y_i - median(y)|}$$ تعریف میکنند که در آن MAD میانگین فاصله مطلق است $$MAD= \frac{ \Sigma_i^T |y_i - \hat y_i|}{T}$$ و $T$ تعداد نمونههای آزمایشی است (که معمولاً به عنوان $n$ تعیین میشود). من دریافتم که این فرمول برای به دست آوردن یک اندازه گیری از خطا استفاده می شود که نسبت به اندازه مقدار تخمین زده شده است، که برای مقایسه خطا در مجموعه داده ها با مقادیر هدف با مقادیر مختلف مفید است. چیزی که من نمی دانم این است که چرا ما فقط $$\frac{\Sigma_i^T (|y_i - \hat y_i|/| y_i|)}{T}$$ را انجام نمی دهیم و اگر نه، چرا از میانه به جای میانگین | فرمول خطای نسبی |
548 | در پاسخ به این سوال در مورد تلقی دادههای طبقهبندی بهعنوان مقیاسبندی بهینه و پیوسته ذکر شد. این روش چگونه کار می کند و چگونه اعمال می شود؟ | چگونه می توانم از مقیاس بهینه برای مقیاس بندی یک متغیر طبقه ای ترتیبی استفاده کنم؟ |
83043 | من در حال محاسبه امتیازهای «محبوبیت» برای محتوا در یک برنامه وب بر اساس «نمایش» و «پسندیدن» هستم. من آمار را مطالعه نکرده ام اما روشی را که باید استفاده کنم در اینجا پیدا کرده ام: http://www.evanmiller.org/how-not-to-sort-by-average-rating.html **امتیاز = کران پایین ویلسون فاصله اطمینان امتیاز برای پارامتر برنولی** در مقاله انتخاب مقدار z را به این ترتیب توضیح می دهد: _اطمینان به سطح اطمینان آماری اشاره دارد: 0.95 را انتخاب کنید تا یک عدد داشته باشید. 95% احتمال دارد که کران پایینی شما درست باشد_ من نمیدانم درست در اینجا به چه معناست، و چرا سطوح اطمینان پایینتر یا بالاتر را انتخاب میکنم. چرا 100% اطمینان را انتخاب نمی کنید و یک نتیجه درست به دست نمی آورید؟ من چندین سؤال دیگر را با پاسخهایی پیدا کردهام که به شدت فلسفی و فنی هستند و نمیدانم چگونه با پرونده من ارتباط دارند: فاصله اطمینان (در مقابل فاصله معتبر) واقعاً بیانگر چیست؟ دقیقاً فاصله اطمینان چیست؟ آیا نمونههایی وجود دارد که فواصل معتبر بیزی آشکارا از فواصل اطمینان مکرر پایینتر هستند، من فرمول را اعمال کردهام و امتیازهای دادههایم را محاسبه کردهام، سوال من این است: چرا سطوح اطمینان پایینتر یا بالاتر را انتخاب کنم (و این به چه معناست برای امتیاز من )؟ **به روز رسانی** من با آزمایش مقادیر مختلف 'z' 'اطمینان' و نگاه کردن به نمرات ایجاد شده تا حدودی به سؤالم پاسخ داده ام: Likes | بازدید | z | امتیاز ------------------------------------------------ - 1 | 4 | 1.0 | 0.1 100 | 400 | 1.0 | 0.2289908334502525 ------------------------------------------------ - 1 | 4 | 1.96 | 0.045586062644636216 100 | 400 | 1.96 | 0.21007832849376823 ------------------------------------------------ - 1 | 4 | 2.58 | 0.029987372072017595 100 | 400 | 2.58 | 0.19854163422270693 بنابراین من می توانم از اینجا متوجه شوم که انتخاب یک «سطح اطمینان» با مقدار «z» بالاتر، امتیاز نسبتاً پایینتر را به آیتم با تعداد بازدید اختصاص میدهد («مجموع آرا»، طبق فرمولبندی مقاله اصلی). منظور من این است که برای مواردی که تعداد بازدیدهای کمی دارند، «اطمینان» کمتری داریم که نسبت شناخته شده فعلی نماینده نسبت ناشناخته «واقعی» است که اگر دادههای بیشتری داشته باشیم، ظاهر میشود. در نظرات **@whuber** پیشنهاد کرده است که: _محدودیت های اعتماد به احتمال زیاد بخشی از یک راه حل دقیق نیست_ بنابراین سوال من اکنون این است... آیا فرمول بهتری برای محاسبه ' وجود دارد امتیاز محبوبیت برای مجموعه داده های من؟ | آنچه که زندگی واقعی/مفهومی است به معنای «اطمینان» در نمره ویلسون است |
35852 | من سعی می کنم چندین فایل csv را بارگیری کنم (هر فایلی که نزدیک به 37 پرونده دارد فاقد سوابق است). سپس باید این فایل های داده را ادغام/پیوستم (به طور کلی 2.5 کرور رکورد در یک مجموعه داده واحد). اما گاهی اوقات به دلیل کمبود حافظه دچار خطا می شوم. حداکثر اندازه فایلی که R می تواند از طریق read.csv یا read.table بخواند چقدر است؟ چگونه بر این مسائل غلبه کنیم؟ لطفا پیشنهاد دهید. | حداکثر اندازه فایلی که R می تواند بخواند |
89770 | من مطالعهای با سه عامل درونی طبقهبندی و یک متغیر شخصیتی پیوسته انجام دادم: موضوع (1،2) x قاببندی ضرر سود (1،2) x چارچوب امنیتی دستاورد (1،2) x شخصیت من میدانم چگونه از دستور MMATRIX استفاده کنم. در SPSS برای تجزیه فعل و انفعالات بین فاکتورهای درونی من، اما من نمی دانم چگونه تعاملات را با متغیر کمکی پیوسته مدیریت کنم. به عنوان مثال، در یک نقطه، یک تعامل سه جانبه از موضوع x چارچوب امنیتی دستاورد x شخصیت دریافت می کنم. میخواهم بدانم که آیا یک تعامل دوطرفه کادربندی x شخصیت برای مبحث 1 وجود دارد، اما چگونه آن را آزمایش کنم؟ اگر این فقط یک تعامل دو طرفه بود، میتوانم از دستور COMPARE استفاده کنم، زیرا میتوان آن را همراه با یک دستور WITH کمکی استفاده کرد. اما از آنجایی که این یک تعامل سه طرفه است، مطمئن نیستم که چه کار کنم. شما نمی توانید از دستور WITH همراه با MMATRIX استفاده کنید، درست است؟ برای هر توصیه ای بسیار سپاسگزار خواهم بود. با تشکر از کمک شما! | SPSS: چگونه می توان تعاملات را در اندازه گیری های مکرر ANCOVA تجزیه کرد؟ |
52309 | سلام کسی می تواند کمک کند - من همه این کارها را در R Code انجام می دهم: تجزیه و تحلیل یک طرفه را روی برخی از داده ها انجام داده ام و 2 تضاد تنظیم کرده ام (Liberarts-Finearts و همچنین Engineering-Science). اکنون باید سطح اطمینان 90% را برای هر کنتراست در کنتراست تعریف شده توسط کاربر محاسبه کنم. لطفاً کسی می تواند راهنمایی کند که آیا کاری که من تاکنون انجام داده ام صحیح است و همچنین چگونه می توان سطح اطمینان 90٪ را برای هر یک از 2 کنتراست محاسبه کرد؟ داده ها و کد استفاده شده تا کنون عبارتند از؛ Aptest<-data.frame(Scores,Degree) #Data frame Aptest Scores Degree 1 49 Business 2 34 Business 3 45 Business 4 59 Business 5 74 Business 6 53 Business 7 51 Business 8 57 Business 12 85 Science 13 79 Science 14 15 60 علم 16 72 علم 17 50 Liberalarts 18 41 Liberalarts 19 65 Liberalarts 20 57 Liberalarts 21 62 Liberalarts 22 47 Liberalarts 23 59 Liberalarts 24 48 Liberalarts 25 3526 Finearts 25 3526 Finearts 28 39 Finearts 29 44 Finearts 30 50 Finearts 31 41 Finearts 32 35 Finearts 33 88 مهندسی 34 70 مهندسی 35 95 مهندسی 36 77 مهندسی 37 88 37 8963 83 مهندسی #تنظیم کنتراست های مناسب در R برای تجزیه و تحلیل و گزارش تفاوت بین Liberalarts-Finearts و همچنین Engineering-Science mat = ماتریس (c(0,0,1,-1,0,0,-1,0,0, 1)، ncol = 2) # ماتریس کنتراست اولیه [،1] [،2] [1،] 0 0 [2،] 0 -1 [3،] 1 0 [4،] -1 0 [5،] 0 1 my.contrasts = mat %*% solve(t(mat) %*% mat) my.contrasts [,1] [,2] [1,] 0.0 0.0 [2،] 0.0 -0.5 [3،] 0.5 0.0 [4،] -0.5 0.0 [5،] 0.0 0.5 کنتراستها(Aptest) = my.contrasts #تخصیص کنتراستها کنتراستها(Aptest) [,1] [,2] [,3] [,4] Business 0.0 0.0 -0.80710330 -0.3854663 مهندسی 0.0 -0.5 -0.01315068 0.0 0.41725803 -0.3548179 Liberarts -0.5 0.0 0.41725803 -0.3548179 Science 0.0 0.5 -0.01370638 0.5475510 خلاصه (Score) (Score) امتیازات ~ درجه تماس: aov(فرمول = امتیازات ~ درجه) باقیمانده ها: حداقل 1Q میانه 3Q حداکثر -18.7500 -4.3750 0.3125 6.5312 21.2500 ضرایب: برآورد Std. خطای t مقدار Pr(>|t|) (Intercept) 52.750 3.637 14.503 1.51e-14 *** DegreeEngineering 27.875 5.144 5.419 8.83e-06 *** DegreeFinearts -15.4-2225. 0.024279 * DegreeScience 22.250 5.144 4.326 0.000175 *** --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقیمانده: 10.29 در 28 درجه آزادی (8 مشاهدات حذف شده به دلیل عدم وجود) R-squared چندگانه: 0.7417، R-squared تنظیم شده: 0.714 F-statistic: 26.8 در 3 و 28 DF، p-value: 2.225e-08 هر گونه کمک و راهنمایی بسیار قدردانی خواهد شد. با تشکر | بررسی فواصل اطمینان در کنتراست تعریف شده توسط کاربر (ANOVA یک طرفه) |
31370 | من مجموعه ای از شمارش سرطان (بروز) برای گروه های نژادی متفاوت برای 4 نوع مختلف سرطان دارم. میخواهم بدانم که آیا تفاوتی در بروز سرطان در بین گروههای نژادی وجود دارد؟ بنابراین دادهها کمی شبیه این به نظر میرسند: سایتهای سرطانی همه نژادها سفید سیاه آسیایی/جزیرهای اقیانوس آرام سیستم گوارشی 144,010 119,330 17,071 5,242 کولون و رکتوم 73,183 61,450 8,177 2,243 کولون برون. رکتوم 50,492 42,366 5,911 1,380 رکتوم 22,691 19,084 2,266 863 نظری در مورد نحوه برخورد با این موضوع دارید؟ | چگونه می توانم تعداد سرطان ها را بر اساس نژاد برای 4 نوع سرطان مقایسه کنم |
15603 | من در حال بررسی مقاله ای هستم که در آن نویسندگان بقای یک حشره تغذیه شده با سه رژیم غذایی مختلف را مقایسه می کنند. پس از تجزیه و تحلیل بقا (با استفاده از Surv)، آنها مقایسه های متعددی را از میانگین بقا در میان درمان ها با استفاده از روش تضادها از کتاب Crawley _The R انجام می دهند. آنها نتایج خود را _a la_ a test Tukey ارائه می کنند (یعنی معنی با مقادیر بسیار متفاوت دارای حروف متفاوت است). مقایسه بین 2 سطح درمان در R را می توان با survdiff انجام داد، اما این آمار یک آمار مربع کای ایجاد می کند که با آنچه من در مقاله می بینم مطابقت ندارد. بیش از 2 سطح درمانی وجود دارد (مشابه تست توکی) قبلاً در R-help سؤال شده است اما هرگز پاسخ داده نشده است. مشکل من دو چیز است: من با تجزیه و تحلیل بقا آشنا نیستم تا بدانم آیا روش کنتراست با سؤال مناسب است یا خیر، و به کتاب کراولی دسترسی ندارم. آیا کسی می تواند نمونه ای از روش کراوی ارائه دهد یا به یک منبع وب اشاره کند که در آن روش او توضیح داده شده است؟ | انجام تضاد بین سطوح درمان در تجزیه و تحلیل بقا |
11856 | SPSS خروجی فاصله اطمینان از تفاوت میانگین را ارائه می دهد. من در بعضی جاها خوانده ام که معنی آن 95 بار از 100، میانگین نمونه ما تفاوت بین این مرزها خواهد بود من این را نامشخص می دانم. آیا کسی می تواند جمله بندی واضح تری را برای توضیح فاصله اطمینان از تفاوت میانگین ها پیشنهاد کند؟ این خروجی در زمینه یک آزمون t تک نمونه ای ظاهر می شود. | چگونه فاصله اطمینان اختلاف میانگین ها را در یک آزمون تی نمونه تفسیر کنیم؟ |
47339 | من نمونه ای به طول $N$ دارم که بیشتر از توزیع گاوسی با میانگین و واریانس ناشناخته گرفته شده است. از آن نمونههای $N$، بخشی از آنها (معمولاً کمتر از 1-2٪) موارد پرت هستند که از توزیع گاوسی دیگری با میانگین بزرگتر (معمولاً با 3+ انحراف استاندارد توزیع رایجتر بزرگتر) گرفته شدهاند. من علاقه مند به تخمین پارامترهای توزیع پس زمینه رایج تر هستم تا بتوانم نقاط پرت را با احتمال هشدار نادرست تعیین شده جدا کنم. استفاده از میانگین/واریانس نمونه راههای آشکاری برای مقابله با این مشکل است، اما برای اهداف من به اندازه کافی قوی نیستند (یعنی وجود نقاط پرت منجر به یک سوگیری افزایشی در برآوردها میشود). من می توانم میانگین را با استفاده از آمارهای نمونه مختلف مانند میانه یا حالتی که در برابر مقادیر پرت مقاوم تر هستند تخمین بزنم. با این حال، من مطمئن نیستم که چگونه به تخمین واریانس توزیع به روشی مشابه نزدیک شوم. آیا رویکرد پذیرفته شده ای برای چنین مشکلی وجود دارد؟ **ویرایش:** تصمیم گرفتم جزئیات بیشتری را در پاسخ به نظر دهندگانی که در زیر پیشنهاد داده بودند، اضافه کنم. من مطمئن نیستم که آیا این رویکرد خوبی خواهد بود یا نه. من می خواهم پارامترهای توزیع پس زمینه را برای انتخاب از بین دو فرضیه تخمین بزنم: 1. هیچ نقطه پرت وجود ندارد. نمونه شامل یک توزیع گاوسی با پارامترهای ناشناخته است. 2. برخی نقاط پرت وجود دارد که در مکان های ناشناخته در نمونه قرار دارند. در حالی که توزیع دقیق آنها مشخص نیست، من معتقدم که منطقی است که آن را به عنوان یک توزیع گاوسی با میانگین به طور قابل توجهی بزرگتر از پس زمینه تقریب کنیم. اگر این فرضیه درست باشد، میخواهم مکان همه آن نقاط پرت را شناسایی کنم. بنابراین، حدس میزنم در سوال اصلی کمی گمراهکننده بودم. باید میگفتم که نمونه «ممکن است دارای نسبتی از نقاط پرت باشد». در موردی که هیچ چیز دور از علاقه وجود ندارد، مطمئن نیستم که GMM نتایج خوبی به من بدهد. هدف من شناسایی پارامترهای توزیع گاوسی زیربنایی است تا بتوانم نقاط پرت را با احتمال خطای شناخته شده و کنترل شده نوع اول شناسایی کنم. من قصد دارم به دنبال اطلاعات بیشتری در مورد روش های قوی برای تخمین مقیاس توزیع باشم. | چگونه می توان پارامترهای یک نمونه توزیع گاوسی را با مقادیر پرت تخمین زد؟ |
47337 | من در حال نوشتن یک گزارش بسیار اساسی در مورد توانایی سه پیش بینی کننده (دو دوگانه و یکی پیوسته) برای پیش بینی معیار هستم. من یک نمودار پراکندگی برای کل مدل ایجاد کردم، و تنها کاری که باید انجام دهم این است که 1 یا 2 جمله بسیار ساده در مورد آنچه نشان می دهد بنویسم. آیا مناسب است بیان کنیم که بسیاری از باقیمانده ها نشان می دهد که این ممکن است یک مدل ضعیف باشد؟ آیا چیز دیگری وجود دارد که باید به آن توجه ویژه ای داشته باشم؟ [لطفاً به خاطر داشته باشید که این یک گزارش بسیار ابتدایی است. از من انتظار نمی رود که چیزی عمیق بنویسم. من از SPSS استفاده می کنم]. خیلی ممنون از کسی که جواب داد | چگونه نمودار پراکندگی را برای کل مدل در تحلیل رگرسیون چندگانه خطی تفسیر کنیم؟ |
76180 | اگر مجموعه داده ای داشته باشم که فقط شامل متغیرهای طبقه بندی شده باشد، بنابراین متغیرهایی با مقادیر 0 و 1، آیا اگر بخواهم از آنها استفاده کنم، فرضیات لاجیت و رگرسیون خطی استاندارد را نقض می کنم؟ من چک کردم و به نظر نمی رسد چیزی را نقض کند. پس آیا اشتباه است اگر من فقط پیش بروم و یک رگرسیون لاجیت را روی دو متغیر «x»، «y» به روش زیر در R تخمین بزنم؟ «رگرسیون = glm(y~x، خانواده = دوجملهای (logit))» آیا باید مشخص کنم که «x»، «y» متغیرهای طبقهبندی هستند، چرا به آن نیاز دارم، اگر چنین است، آیا آنها فقط داده نیستند؟ | آیا استفاده از داده های طبقه بندی شده با لاجیت و/یا رگرسیون خطی مناسب است؟ |
19604 | من وظیفه دارم یک سیستم SPC را در شرکت تولیدی خود با اندازه متوسط اما بسیار فنی ایجاد کنم. نام بردن از شرکتهای خاص ممکن است خلاف قوانین این انجمن باشد، یا شاید شکل بدی داشته باشد، اگرچه اگر کسی این کار را راحت انجام دهد، مطمئناً از آن قدردانی میکنم (به شرط اینکه نظر نسبتاً بیطرفانه باشد). به غیر از این، ممکن است فهرستی از شرکت هایی که چنین مواردی را ارائه می دهند، یا فهرستی از وب سایت های شخص ثالث که برخی از بسته های SPC را نقد و/یا رتبه بندی می کنند. در اینجا اصول اولیه آنچه که بسته نرم افزاری نیاز دارد آمده است: * باید با یک پایگاه داده تعامل داشته باشد (ما در شرکت من از MS SQL استفاده می کنیم). اگر دسترسی به DB قابل انجام نباشد، میتوانیم اندازهگیریها و پیامها را بهعنوان گزینهها یا آرگومانها به خط فرمان منتقل کنیم، اگرچه این ایدهآل نیست. * باید زنده باشد، همیشه روشن / در حال اجرا باشد * باید بتواند مسائل را با هم ارتباط برقرار کند. برخی از مثالها: (الف) زمانی که نمودار خارج از کنترل است، از جمله اطلاعات شناسایی مرتبط، یک ایمیل برای برخی افراد ارسال کنید، (ب) ممکن است با یک نوع رسانه اجتماعی مبتنی بر کار ادغام شود، به طوری که هر کسی که ثبت نام با گروه کنترل کیفیت یک زنگ هشدار OoC (خارج از کنترل) دریافت می کند * دارای برخی تصاویر زیبا و ساده (نوعی نمودار استاندارد SPC، نشان دادن محدودیت ها و رنگ آمیزی ایده آل موارد OoC متفاوت، یا چیزی). هیچ چیز بیش از حد فانتزی در اینجا مورد نیاز نیست، اگرچه گرافیک تعاملی بیشتر یک امتیاز خواهد بود. * دارای محدودیتهای قابل برنامهریزی (به عنوان مثال، اگر میخواهیم برخی از قوانین مبهمتر WEECO را درج کنیم، میتوانیم... یا در عوض، برخی از آنها را که مناسب نیستند حذف کنیم) * اجازه میدهیم نوعی مدلسازی از طریق آن انجام شود. به عنوان مثال، اگر 100 معیار مورد علاقه وجود داشته باشد و من فقط 5 نمودار، حداکثر میخواهم، میتوانم مدلی مبتنی بر PCA، خوشهبندی یا چیزی شبیه به آن ایجاد کنم که در آن بتوانم ترکیبی از معیارها را پیدا کنم که به وضوح با مشکلات و دلایل اصلی هماهنگ است. . بنابراین، 100 معیار اصلی وارد مدل من میشود، سپس مدل من 5 متریک بهتر تراز شده را بیرون میدهد. * در واقع، بیایید به آن فکر کنید، این موضوع بحث برانگیز است: من می توانم تمام معیارهای مربوطه خود را در یک DB منتشر کنم و این نرم افزار SPC را با DB صحبت کنم. بنابراین تا زمانی که اولین نقطه وجود دارد، این موضوع قابل بحث است. * در دراز مدت، این احتمالاً به پروژه ای در 6 بخش مختلف تبدیل می شود که در مجموع 30 تا 60 نمودار ایجاد می کند، با شاید 5 تا 20 به روز رسانی اندازه گیری در روز. من آن را برای نگرانی های محدوده ذکر می کنم. من از هر توصیه ای پیشاپیش قدردانی می کنم! تعطیلات مبارک! با تشکر | مشاوره در مورد بسته SPC سطح تولید خوب (کنترل فرآیند آماری)؟ |
35859 | بیایید بگوییم که من سعی می کنم بر اساس مجموع 10 ویژگی فیزیکی (قد، وزن و غیره) پیش بینی کنم که یک فرد مذکر است یا زن. اندازه جمعیت 150 است، بنابراین من یک ماتریس داده 150x10 دارم. من یک درخت تصمیم را با استفاده از بسته rpart میسازم و دقت 80 درصدی را برای مردان و زنان به دست میآورم. با تشویق، به تأیید متقابل از طریق ترک-50-خارج ادامه دادم: به طور تصادفی 100 نفر را انتخاب کردم تا به عنوان مجموعه آموزشی درخت تصمیم و 50 نفر را به عنوان مجموعه آزمایشی عمل کنند. دقت پیشبینی بهعنوان یک بردار دو ستونی ذخیره میشود (قبل از دقت برای مردان، دقت پیشبینی برای زنان). من این را 1000 بار تکرار می کنم و ماتریس 1000x2 حاصل را رسم می کنم. من نمی دانم از الگوی به دست آمده چه چیزی بسازم (همچنین یک نمودار 10000 تکراری پیوست کردم تا بتوان الگوی مورد نظر من را راحت تر مشاهده کرد). آیا این صرفاً نوعی سوگیری در تابع نمونهگیری همراه با توانایی پیشبینی ضعیف مدل است؟   ویرایش: طرحی برای 10 هزار تکرار، رنگی بر اساس تعداد نرها در زیر مجموعه آزمایشی. (ویرایش شماره 2 - زیبا شده از طریق ggplot2)  ویرایش 3 : نمودار چگالی نتایج  | یک الگوی عجیب از اعتبار سنجی متقاطع نتایج |
112704 | فرض کنید من تعداد زیادی نمونه دارم، که برخی از آنها فقط شامل یک مشاهده هستند، و برخی از آنها حاوی حداکثر 12 هستند. هر مشاهده می تواند در یکی از چهار دسته در هر نمونه قرار گیرد. این باعث میشود که دستهها مقادیر گسستهای بین 0 تا حداکثر، در چند نمونه، 10 داشته باشند. من درصد مشاهداتی را محاسبه میکنم که در یکی از 4 دسته قرار میگیرند. من فکر می کنم که نمونه هایی با کمتر از 6 یا بیشتر مشاهدات نتایج را منحرف می کنند زیرا درصدها به طور مداوم 0٪، 25٪، 50٪ یا 100٪ خواهند بود و مقادیر بسیار زیاد و پایین تأثیر منفی بر نتایج خواهند داشت. به همین دلیل من فقط نمونه هایی را انتخاب می کنم که بیش از 6 مشاهده داشته باشند. من ستونی از مشاهدات را در یک دسته با تعدادی دیگر از ستون های داده مرتبط می کنم. نتایج همبستگی بین دسته انتخابی و بسیاری از این متغیرها در هنگام استفاده از نمونه هایی با بیش از 6 مشاهدات با نتایج در هنگام استفاده از همه نمونه ها متفاوت است. آیا در این فرض که این نتایج «دقیق تر» از نتایج استفاده از هر نمونه هستند، درست است؟ آیا یک همبستگی ساده بین متغیر طبقهبندی و سایر ستونهای داده، روشی ساده برای مقایسه رابطه آنهاست؟ مثل همیشه، اگر راهی برای بهبود این سوال وجود دارد، لطفاً به من اطلاع دهید. | فیلتر کردن نمونه هایی با اندازه نابرابر و همبستگی طبقه بندی با داده های غیر طبقه بندی |
74859 | هنگامی که من یک رگرسیون پشته را بر روی داده های زیر با استفاده از تخمینگر Hoerl، Kennard و Baldwin اجرا می کنم، فقط زمانی که از (n-p) استفاده می کنم که n تعداد مشاهدات و p تعداد پارامترها در مخرج s_squared است، مقدار صحیح k را دریافت می کنم. . x=[1 1.9; 1 2.1 ;1 2;1 2;1 1.8]; y=[6.0521;7.0280;7.1230;4.4441;5.0813]; k=HKB(y,x); تابع [b2]=HKB(y,x) [n, p]=size(x); b=x\y; y_hat=x*b%+mean(y,1); r=(y-y_hat); s_squared=(r'*r)/(n-p); %s_squared=(r'*r)/(n-p-1); k=p*s_squared/(b'*b); %HKB تخمینگر شبه = sqrt(k) * eye(p); x_ridge = [x;شبه]; y_ridge = [y;صفر(p,1)]; % محاسبه ضریب برآورد b2 = x_ridge\y_ridge; پایان اکنون وقتی سعی می کنم همین کار را با مجموعه داده هالد انجام دهم (Hald A. (1952) Statistical Theory with Apps Wiley, New York.) این بار فقط در صورتی به نتیجه صحیح می رسم که مخرج s_squared را به آن تغییر دهم. (n-p-1)؟ کم نور=1; flag=0; x1=[7;1;11;11;7;11;3;1;2;21;1;11;10]; x2=[26;29;56;31;52;55;71;31;54;47;40;66;68]; x3=[6;15;8;8;6;9;17;22;18;4;23;9;8]; x4=[60;52;20;47;33;22;6;44;22;26;34;12;12]; x=horzcat(x1,x2,x3,x4); y=[78.5;74.3;104.3;87.6;95.9;109.2;102.7;72.5;93.1;115.9;83.8;113.3;109.4]; [n, p]=size(x); mu= mean(y, dim); sigma = std(y, flag, dim); sigma0 = سیگما; sigma0(sigma0==0) = 1; y_scaled = bsxfun(@minus,y, mu);%z = bsxfun(@minus,y, mu); sigma0=sigma0*sqrt(n-1); y_scaled = bsxfun(@rdivide، y_scaled، sigma0);%z = bsxfun(@rdivide، y، sigma0); mu= mean(x,dim); sigma = std (x, flag, dim); sigma0 = سیگما; sigma0(sigma0==0) = 1; x_scaled = bsxfun(@minus,x, mu);%z = bsxfun(@minus,x, mu); sigma0=sigma0*sqrt(n-1); x_scaled = bsxfun(@rdivide، x_scaled، sigma0); %z = bsxfun(@rdivide، z، sigma0); k_iter=HKB(y_scaled,x_scaled); از قضا منبعی که من نتایج را با آن مقایسه میکنم: کلارک و تروسکی (ارتباطات در آمار-شبیهسازی و محاسبات، 35: 605-619، 2006) مخرج را به صورت (n-p) در صفحه 607 فهرست میکنند، اما برای تطبیق نتایج خود در p610 برای hald. داده ها باید از مخرج (n-p-1) استفاده کنید. من برای اولین بار مخرج (n-p-1) را در Gibbons p132 دیدم (مجله انجمن آماری آمریکا، جلد 76، شماره 373 (مارس، 1981)، صفحات 131-139). هم Gibbons و هم Clark و Troskie فرض میکنند که دادهها قبل از ارائه برآوردگرهای s_squared خود به نمایش مؤلفه اصلی تبدیل شدهاند، بنابراین فکر نمیکنم این دلیل این تفاوت باشد (اما به هر حال آن را فهرست میکنم زیرا مطمئن نیستم). تفاوت دیگری که از کد مشاهده می شود این است که داده ها قبل از محاسبه در مقاله Clark و Troskie استاندارد شده اند. آیا این دلیل از دست دادن درجه ای از آزادی است؟ اگر چنین است چرا 2 درجه آزادی از دست نمی رود زیرا هم میانگین و هم انحراف معیار تخمین زده می شوند. | درجات صحیح برآوردگر آزادی برای واریانس در رگرسیون ریج |
83040 | من دو مدل رگرسیون لجستیک را با استفاده از تابع anova(mod1,mod2,test=Chisq) در R مقایسه کردم. نتیجه ای که به دست آوردم به صورت زیر است: مدل 1: وضعیت ~ Added.genes.var مدل 2: وضعیت ~ اضافه شده .genes.var + multi_genes Resid. دی اف رزید. Dev Df Deviance Pr(>Chi) 1 887 1218.0 2 886 1184.2 1 33.805 6.093e-09 *** تا آنجایی که من متوجه شدم، این بدان معناست که افزودن متغیر پیشبینیکننده 'mult_genes' به مدل به طور قابل توجهی برازش آن را بهبود میبخشد. به همین دلیل، هنگام بررسی ناحیه زیر منحنی (AUC) با تابع auc() بسته pROC، انتظار داشتم تفاوت قابل توجهی در آن نیز ببینم، اما به ترتیب برای مدل 1 و 2 به دست آوردم: Area زیر منحنی: 0.6147 مساحت زیر منحنی: 0.6158 من معتقدم 0.61 به عنوان AUC بسیار پایین است... آیا این به این معنی است که هر دو مدل عملکرد دارند بد و چگونه ممکن است در مقایسه مدلها با anova() و AUCهای مشابه، چنین نتیجه قابل توجهی به دست آورد؟ خیلی ممنون | مقایسه دو مدل رگرسیون لجستیک (نتیجه قابل توجه با anova() اما AUCهای بسیار مشابه) |
87740 | برای مقایسه میانگین دو نمونه، یکی با اندازه 21 و دیگری با سایز 47، باید آزمایش کنم. آمار توصیفی در زیر آمده است. من نرمال بودن را با Shapiro-Wilk به هر طریقی تست کردم، فرضیه صفر را برای هر کدام رد کردم، بنابراین تایید می کند که آنها نرمال نیستند. من می دانم که آزمون t برای این مورد مناسب نخواهد بود. من به سمت ناپارامتریک رفتم و از آزمون مجموع رتبه Wilcoxon استفاده کردم و p-value 0.2395 را دریافت کردم که نشان می دهد هیچ مدرکی وجود ندارد که میانگین ها را متفاوت بدانیم (آنها برابر هستند). آیا استفاده از مجموع رتبه Wilcoxon در این مورد که شکل هر دو نمونه متفاوت است صحیح است؟ آیا من چیزی را از دست داده ام؟ یا با این اطلاعات می توانم بگویم که تفاوتی بین وسیله وجود ندارد؟ آیا انجام کار دیگری مانند جایگشت ضروری است؟ برخی از آمارها ... نمونه 1 Shapiro-Wilk p-value = 0.000 میانگین = 0.0270 sd = 0.0892 کشش 10.4 چولگی 3.2 n = 21 نمونه 2 Shapiro-Wilk p-value = 0.0366 متوسط = 0.0366 skewness 5 = 0.036. 0.6 n = 46 | تست تفاوت بین دو میانگین اریب (N1=21) در مقابل زنگ متقارن (N2=47). آزمون مجموع رتبه ویلکاکسون مناسب است؟ |
6560 | من به دنبال کمکی برای ابداع یک آزمون فرضیه برای وضعیت زیر هستم. 1. من یک منبع رادیواکتیو دارم که هر چند وقت یکبار یک ذره را بیرون می ریزد. 2. همچنین، من دو آشکارساز ذرات دارم: یک آشکارساز ذرات قرمز و یک آشکارساز ذرات سبز. هر زمان که آشکارساز ذرات قرمز ذره ای را تشخیص دهد، یک چراغ قرمز چشمک می زند. اجازه دهید $R$ رویدادی را نشان دهد که ذره توسط آشکارساز قرمز شناسایی شده است، و $r$ رویداد مکملی است که ذره توسط آشکارساز قرمز شناسایی نشده است. هر زمان که آشکارساز ذرات سبز ذره ای را تشخیص دهد، یک چراغ سبز چشمک می زند. اجازه دهید $G$ رویدادی باشد که آشکارساز سبز ذره را تشخیص میدهد و $g$ که آن را تشخیص نمیدهد. بنابراین، هر ذره ساطع شده در یکی از چهار دسته قرار می گیرد: * توسط هر دو آشکارساز ($RG$)، * توسط آشکارساز قرمز تشخیص داده می شود، اما آشکارساز سبز ($Rg$)، * توسط آشکارساز سبز تشخیص داده می شود، اما قرمز نیست. آشکارساز ($rG$)، یا * توسط هیچ یک از آشکارسازها شناسایی نشده است ($rg$). 3. هر بار که ذره ای ساطع می شود، آشکارساز قرمز مقداری احتمال دارد که ذره را تشخیص دهد و آشکارساز سبز مقداری احتمال تشخیص ذره را دارد. (وقتی هیچ ذره ای وجود نداشته باشد، آنها هرگز تشخیص کاذب را راه اندازی نمی کنند.) من می دانم که هر ذره به طور یکسان و مستقل از همه ذرات دیگر مدیریت می شود، اما نمی دانم که آیا این دو آشکارساز مستقل از یکدیگر هستند یا خیر. این امکان وجود دارد که آنها مستقل باشند (یعنی $\Pr[RG] = \Pr[R] \Pr[G]$) یا همبستگی (یعنی $\Pr[RG] \ne \Pr[R] \Pr[G]$); من نمی دانم کدام مورد، پیشینی است. 4. تعداد شناساییهای $RG$-(یعنی تعداد دفعاتی که هر دو آشکارساز چیزی را شناسایی کردند)، تعداد $Rg$-تشخیصها (یعنی تعداد دفعاتی که آشکارساز قرمز چیزی را شناسایی کرد، اما نه) را نگه میدارم. سبز)، و تعداد $rG$-تشخیص. متأسفانه، من هیچ راهی برای اندازهگیری موقعیتهای $rg$ ندارم، زیرا آن ذرات توسط هیچ یک از آشکارسازها شناسایی نمیشوند. در پایان آزمایش، من سه عدد صحیح غیر منفی دارم که این تعداد را نشان می دهد. من می خواهم این فرضیه $H$ را آزمایش کنم که دو آشکارساز مستقل هستند، یعنی رویداد $R$ مستقل از رویداد $G$ است. آیا کسی می تواند راهی برای محاسبه $p$-value این فرضیه، با توجه به 3 عدد از چنین آزمایشی، پیشنهاد کند؟ من با یک الگوریتم/روش کامپیوتری برای محاسبه مقدار p$-$ کاملاً راضی خواهم بود. من به یک فرمول ساده نیاز ندارم. چیزی که می تواند توسط یک کامپیوتر محاسبه شود کافی است. * * * در اینجا راه دیگری برای مشاهده این وجود دارد. میتوانیم یک جدول احتمالی 2×2 تشکیل دهیم، مانند این: G | g --------- R | 17 22 r | 12؟ ثبت 17 $RG$-events، 22 $Rg$-events، و غیره. متأسفانه، سلول پایین سمت راست خالی است، زیرا ما نمی دانیم چه تعداد $rg$-particle ساطع شده است. اگر برای هر چهار سلول شمارش داشتیم، احتمالاً میتوانستیم از آزمایش دقیق فیشر استفاده کنیم، اما این کار را نمیکنیم. همچنین، $\Pr[R]$ یا $\Pr[G]$ (من حدس میزنم که پارامترهای مزاحم هستند) یا تعداد کل ذرات منتشر شده به ما داده نمیشود. پیشنهادی دارید؟ | تست استقلال، زمانی که من یک سطل از یک حادثه 2x2 را گم می کنم |
19605 | زمانی پستی در مورد تفاوت های رگرسیون چند متغیره و چند متغیره وجود داشت. من پست مربوطه را اینجا دیدم. با این حال من این بحث را با یک همکار دارم و در حالی که با اطلاعات این پست موافقم، همکارم اصرار دارد که رگرسیون چند متغیره در واقع فقط رگرسیون چند متغیره است. تعاریف این فرد عبارتند از: 1. **رگرسیون چند متغیره:** یک نقطه پایانی، پیش بینی کننده های خطی چندگانه 2. **رگرسیون چند متغیره**: چندین نقطه پایانی و پیش بینی کننده های خطی چندگانه. در حالی که من فکر می کنم تعاریف عبارتند از: 1. **رگرسیون چند متغیره**: یک نقطه پایانی، پیش بینی کننده های خطی چندگانه 2. **رگرسیون چند متغیره**: چندین نقطه پایانی، چندین پیش بینی خطی. بنابراین، آیا همه اینها موضوع معناشناسی است؟ آیا آنها یکسان هستند؟ اگر یک نوع زیرمجموعه دیگری است، چرا باید بین چند متغیره و چند متغیره تمایز وجود داشته باشد؟ | بازخوانی معناشناسی تحلیل چند متغیره و چند متغیره |
95414 | یک نوع مدل خطی کلاسیک را در نظر بگیرید: $y_i=a + b\left(x_i-\bar{x} \right)+e_i $ زیرا $e_i \sim N \left (0, \sigma^2 \right)$ , $y_i \sim N \left(a+ b \left(x_i -\bar{x} \right)، \sigma^2 \right)$. تخمینهای OLS شیب و ضریب قطع عبارتند از: $\hat{b}=\frac{\sum \left(x_i - \bar{x} \right) \left(y_i-\bar{y} \right) }{\sum \left(x_i - \bar{x} \right)^2} $ (طبق معمول)، **اما** $\hat{a}=\bar{y}$ این دو تخمین یک ترکیب خطی از متغیرهای نرمال خود با $\hat{b}\sim N \left(b ,\frac{ \sigma^2}{\sum \left(x_i - \bar{x} \right)^2 عادی هستند }\right)$ and $\hat{a} \sim N \left(a, \frac{\sigma^2}{n}\right)$ سپس باید نشان دهم که کوواریانس بین $\hat{a} دلار و $\hat{b}$ $0$ است اما من در ارزیابی $$E \left[ \hat{a} \hat{b} \right]=\frac{1}{\sum \left( x_i-\bar گیر کردهام {x} \right)^2} E \left[\bar{y} \sum \left(x_i -\bar{x} \right) y_i \right] $$ لطفاً میتوانید در اینجا به من کمک کنید؟ با تشکر | کوواریانس بین برآوردهای OLS در یک مدل خطی غیر استاندارد |
39163 | مقاله ویکیپدیا برای توزیع نرمال میگوید که بیان تابع درجه دوم $f(x) = ax^2+bx+c$ بر حسب $\mu$ و $\sigma^2$ رایجتر است. باید این کار را انجام دهم تا در نهایت $\mu = -\frac{b}{2a}$ و $\sigma^2 = -\frac{1}{2a}$ را حل کنم من می دانم که می توانم معادل سازی کنم $ax^2 + bx +c =\frac{-(x-\mu)^2}{2\sigma^2}$، اما من نمیدانم که چگونه عبارت درست مشتق شده است. | چگونه معادله درجه دوم را بر حسب مو و واریانس بیان می کنید؟ |
35850 | [این اولین پست من در CrossValidated است، امیدوارم خارج از موضوع نباشم] من دادههای متشکل از 10^6 نقطه در فضای سه بعدی دارم. ما میخواهیم برخی از الگوریتمهای برازش سطح را امتحان کنیم که نمیتوانند این تعداد زیاد نقاط را مدیریت کنند. بنابراین میخواهم از ابزارهایی برای کاهش دادهها استفاده کنم (شاید ~ 1:100 مورد نیاز باشد) - خوشهبندی در اینجا به نظر من مناسب است. داده ها حاوی بسیاری از نقاط تقریبا یکسان هستند. آیا کسی یک الگوریتم ساده معقول با پیاده سازی در دسترس می شناسد؟ پیاده سازی در پایتون، اکتاو یا متلب ترجیح داده می شود. من می توانستم خودم را بچرخانم، اما فکر می کنم این باید قبلاً حل می شد. | کاهش داده نقاط سه بعدی |
74857 | اگر یک متغیر تصادفی از توزیع دوجمله ای منفی با پارامترهای $r$ و $u$ و $p=1/ (1+u)$ پیروی کند، چگونه با استفاده از توزیع دو جمله ای در R یک نمونه تصادفی از دو جمله ای منفی ترسیم کنیم؟ | با توجه به توزیع دوجمله ای منفی در R |
39160 | من معادله ای دارم که دارم آن را ادغام می کنم: integrand <- Vectorize(function(x,scale,con,time,tau,degrade,monkey){scale * (con * (time - tau)) - degrade * monkey)} # I باید Vectorize زیرا من در حال ادغام هستم و همه مقادیر constats eq هستند <- integrate(integrand,lower=0,upper=time)$value eq می دهد من غلظتی از میمون ها را که به عنوان M معرفی می کنم. داده های زیر (قطار و قطار2) M را در 7 نقطه زمانی مختلف (0,20,40,60,120,240,360) در طول یک دوره شش ساعته پیدا کردند. روشی که Ms قطار و train2 پیدا شد از این معادله استفاده نمی کرد. این معادله یک روش مصنوعی برای یافتن M است. من میخواهم از این معادله در 7 نقطه زمانی داده شده برای استدلال زمان استفاده کنم و آن 7 مقدار نهایی M را هم برای Ms Train و هم Train2 قرار دهم. در معادله من آرگومانهای مقیاس ، 'tau' و 'degrade' پارامترهای ناشناخته هستند. با ... con = 55; زمان = 1 از 7 نقطه زمانی. میمون = 1 از 7 خانم (از قطار و قطار2) مربوط به نقطه زمانی. دلیل اینکه من میخواهم از train و train2 برای یافتن پارامترهای ناشناخته خود استفاده کنم این است که آنها دارای کرانهای 't' بالایی برای انتگرالهای خود هستند که مشخص شده است. بنابراین من مقادیر پارامترهای ناشناخته فعلی خود (مقیاس، تاو و تنزل) را میخواهم که به بهترین تناسب جهانی 7 Ms مصنوعی برای هر دو قطار و قطار2 Ms. (t کران بالا == 360) نقاط زمانی M 0 منجر شود. 1.0000000 20 0.7202642 40 0.8000305 60 1.7430986 120 16.5172242 240 33.9140056 360 34.5735984 train2 (t کران بالا == 60) نقاط زمانی M 0 1.0000000 20 0.7540779 40 0.7540779 40 0.764 0.764 0.7601 16.5431465 240 16.7493493 360 6.2145258 من میخواهم از یک تناسب بیشینهسازی نیوتن-راپلفسون استفاده کنم، اما کاملاً مطمئن نیستم که چگونه 3 پارامتر شناخته شده خود را وصل کنم و بهترین تناسب جهانی 3 پارامتر ناشناخته را دریافت کنم. استدلال من در پس انتخاب نیوتن رالفسون توانایی آن در مقابله با متغیرهای w/k است. اگر راه آسانتری برای انجام این کار میبینید، لطفاً به من اطلاع دهید. maxNR(eq, ...؟ # چگونه بردار پارامتر شناخته شده خود را لیست کنم و چگونه سه پارامتر ناشناخته را چاپ می کند؟ اساساً برای نوشتن این کد به کمک نیاز دارم، من قبلاً از آن استفاده نکرده ام. از وقتی که گذاشتید متشکرم | حداکثر سازی نیوتن-رافسون با پارامتر k |
35857 | من سعی می کنم یک تحلیل مدل خطی مختلط را با SPSS اجرا کنم. وقتی میخواهم تجزیه و تحلیل را اجرا کنم، SPSS پیغام خطای زیر را میدهد: «سطوح اثر تکراری برای هر مشاهده در یک موضوع تکراری متفاوت نیست.» من سعی میکنم از یک مدل ترکیبی استفاده کنم زیرا دادههای من مقادیری از دست رفته دارند و GLM کار نمی کند (تقریباً هر شرکت کننده حداقل یک مقدار از دست رفته دارد). این آزمون از طرح درون موضوعی استفاده کرد و دادههای من به این صورت است: «شرکتکننده | تکرار | محور | X | Y | Z | P_rate` شرکت کننده شناسه آزمودنی است. تکرار نشان دهنده مشاهده مکرر است، در حالی که محور، X Y Z ترکیب خاصی از شرایط را برای آن مشاهده نشان می دهد (محور دارای 3 سطح است، X، Y، Z هر کدام دو سطح دارند). برای هر ترکیب دو تکرار وجود داشت. بنابراین من در مجموع 48 مشاهده دارم (2 x 3 x 2 x 2 x 2). P_rate متغیر وابسته است. در پنجره محاورهای، من از «شرکتکننده» به عنوان متغیر موضوع، «تکرار» به عنوان متغیر تکراری و «محور، X، Y، Z» بهعنوان عواملم استفاده میکنم. با این حال SPSS تجزیه و تحلیل را به دلیل آن خطا اجرا نمی کند. برای اینکه آنالیز را به درستی اجرا کند باید چه کار کنم؟ من سعی کردم از یک روش بیشینه سازی انتظارات برای جایگزینی مقادیر از دست رفته استفاده کنم تا بتوانم یک ANOVA اندازه گیری های مکرر استاندارد را اجرا کنم. این تفاوت قابل توجهی برای پارامتر Repetition می دهد اما به سختی (p=0.049) بنابراین من می خواستم از یک مدل ترکیبی برای بررسی مجدد آن استفاده کنم. پیشاپیش ممنون | مدل خطی مختلط با اندازه گیری های مکرر در SPSS |
87743 | من از رگرسیون $\epsilon$- و $\nu$- برای داده های نمونه استفاده می کنم، و متوجه شدم که نتایج متفاوتی از نظر تعداد بردارهای پشتیبانی داشتم. وقتی بردارهای ساپورت کمتری دارم به این معنی است که مدل ساده تر است؟ | آیا بردارهای پشتیبانی کمتر دلالت بر مدل سادهتری دارد؟ |
39161 | کدام مقدار برای مجموع امتیازات مربع درون خوشه ای را می توان با توجه به مجموعه داده های 1000 تاپلی، 21 ویژگی پذیرفت (اما اکنون فقط 3 مورد استفاده می شود)؟ من از فاصله اقلیدسی استفاده کرده ام و از یک آرگومان استاندارد مانند «I 500» استفاده می شود که هرگز به آن نمی رسد. دانه = 10 بود. WEKA (Explorer) استفاده شد. در حال حاضر، بهترین مقدار 290، بدترین آن 5600 بود، اما تا به حال فقط 7 آزمایش انجام دادم (5600 امتیاز با تمام ویژگی ها و یک k از 2 - تست میمون به دست آمد). | kMeans - مقدار قابل قبول برای WCSS |
69579 | من یک سوال ساده لوحانه در مورد طراحی آزمایش دارم (من یک آماردان نیستم). فرض کنید من در حال انجام روانشناسی اجتماعی هستم و دارم آزمایشی شبیه آزمایش میلگرام در دهه شصت راه اندازی می کنم. آیا واقعاً باید از قبل یک فرضیه صفر کمی تدوین کنم؟ من نمی خواهم نتایج را بعد از این واقعیت دوباره تفسیر کنم، از این رو داشتن یک H0 واضح است، اما در عین حال، ممکن است بلافاصله مشخص نباشد که H0 باید چه باشد. پس از همه، این اکتشاف است. در مورد میلگرام، ظاهراً کاری که او انجام داد این بود که با نظرسنجی از مردم در مورد آنچه که فکر میکردند در این آزمایش اتفاق بیفتد، یک «انتظار» را رقم زد. من میتوانم ببینم که چگونه میتوانید از آن برای فرمولبندی یک H0 بسیار دقیق استفاده کنید: نظرسنجی یک توزیع اولیه به شما میدهد، و شما میتوانید توزیع آزمایش واقعی را در مقابل توزیع مورد انتظار بررسی کنید. کمی و بسیار دقیق می شود، اهمیت آن قابل اندازه گیری است. اما آیا مفهومی از آزمایش اکتشافی وجود دارد که در آن معلوم نیست چه اتفاقی باید بیفتد و بنابراین فرموله کردن یک H0 واضح دشوار است؟ آیا به هر حال باید تلاش کنیم تا یک H0 «خودسرانه» را در آن موارد فرموله کنیم؟ | سوال طراحی آزمایش |
95936 | من از «arima» برای مدلسازی «myts»، لگاریتم یک سری زمانی استفاده میکنم. با ترتیب متفاوت تفاوت، «arima ممکن است مطابق این باشد که «مقدار اولیه در «vmmin» محدود نیست». من تعجب می کنم که چرا و چگونه می توان مشکل را حل کرد؟ با تشکر > out1 = arima(myts, order=c(1,1,1)) > out1 = arima(lgsh, order=c(1,5,1)) خطا در optim(init[mask], armafn, method = optim .method، hessian = TRUE، : مقدار اولیه در 'vmmin' محدود نیست > out1 = arima(myts, order=c(5,5,5)) خطا در optim(init[mask], armafn, method = optim.method, hessian = TRUE, : مقدار اولیه در 'vmmin' محدود نیست علاوه بر این: پیام هشدار: در log(s2): NaNs تولید شده است | تفاوت بیشتر باعث می شود arima() از چیزی که متناهی نیست شکایت کند؟ |
95931 | فرض کنید میتوانم از یک اندازهگیری احتمال $P$ نمونه برداری کنم و رویداد $A$ احتمال بسیار کمی دارد: $P(A)\ll 1$. من می دانم که تخمین $P(A)$ دشوار است و باید به نمونه برداری مهم متوسل شوم، با این حال در اینجا من به مشکل دیگری علاقه مند هستم. فرض کنید $A = A_1\cup A_2$ هر دو احتمال مثبت $P$ و من می خواهم $P(A_1)/P(A)$ را بدانم. آیا تخمین زدن آن آسان تر است؟ | نسبت رویدادهای نادر |
70548 | من در حال مطالعه خواص توزیعی یک توزیع لاپلاس هستم، و سعی میکنم شهودی فراتر از ترسیم توزیع به معنای داشتن یک لحظه تعریفنشده به دست بیاورم. در ویکی پدیا می توانید ببینید که mgf فقط برای $|t| تعریف شده است < 1/b$ بنابراین با افزایش واریانس توزیع لاپلاس به 1، تمام لحظات از جمله میانگین را از دست می دهید. آیا این مهم است؟ شهود چیست؟ به عنوان مثال، لحظه چهارم می تواند منفجر شود، اما توزیع همچنان به طور کلی خوب به نظر می رسد. اگر توزیع را داشته باشید، داشتن یک لحظه تعریف شده چه فایده ای دارد؟ اگر دادههایی داشته باشم که با توزیع لاپلاس متناسب با b بسیار بالا باشد، آیا باید نگران باشم؟ اگر برای دو مجموعه داده که b در یک مجموعه داده نزدیک به 1 است، اما در دیگری کوچکتر است، آیا من به تناسب با مجموعه داده با b که لحظات بیشتری تولید می کند، اطمینان بیشتری دارم؟ هر گونه فکر بسیار قدردانی خواهد شد. و اگر در این مورد اشتباه فکر می کنم به من اطلاع دهید. | توزیع لاپلاس و، به طور کلی، تفسیر یک لحظه نامشخص |
19607 | من نمی فهمم چرا کاهش ابعاد مهم است. گرفتن برخی از داده ها و کاهش ابعاد آنها چه فایده ای دارد؟ | نقطه تجزیه ارزش مفرد چیست؟ |
100728 | من سعی می کنم بهترین مشخصات را برای مجموعه داده خود پیدا کنم. من سعی می کنم اثربخشی مناطق ویژه اقتصادی در لهستان را در معنای رشد اقتصاد در سه مدل داده تابلویی مشابه برای متغیرهای توضیح داده شده بررسی کنم: الف) نرخ بیکاری ثبت شده ب) تولید ناخالص داخلی سرانه ج) تشکیل سرمایه ثابت ناخالص سرانه. . داده ها مربوط به مناطق فرعی NUTS3 است. متغیرهای توضیحی عبارتند از: 0-1 برای حضور SEZ در زیر منطقه در سال t و تعدادی از متغیرهای اقتصادی. فراوانی سالانه، مجموعه داده 2004-2012 برای 66 منطقه فرعی است. من افکت های ثابت و تصادفی را امتحان کرده ام. در حال حاضر، من FE را به دلیل اهمیت و علائم نظری صحیح انتخاب کردم. اما برخی مسائل وجود دارد که من را از این موضوع منع می کند: 1. چگونه می توان همبستگی خودکار و همبستگی متقاطع را آزمایش کرد؟ 2. من نمی دانم چگونه توزیع عبارت خطا را در Stata آزمایش کنم، و علاوه بر این، اگر به طور معمول توزیع نشده است، آیا باید به آن اهمیت زیادی بدهم؟ 3. همانطور که من از ادبیات دریافتم، مقادیر ضریب همبستگی بین متغیرهای توضیحی و عبارت خطای نزدیک به 1- یا 1 در واقع بد نیستند. در مورد من، همانطور که می بینید، نزدیک به -1 است. 4. آیا یک مدل ترکیبی برای مجموعه داده من مناسب است؟ من نتیجه را برای مدل توضیح دهنده نرخ بیکاری پیوست می کنم. کد: xtreg st_bezr sse01 wartosc_sr_trw_per_capita zatr_przem_bud podm_gosp_na_10tys_ludn proc_ludn_wiek_prod ludnosc_na_km2، fe تعداد اثرات ثابت (در داخل) گروههای رگرسیون متغیر (در داخل) تعداد رگرسیون گروهی (در داخل) تعداد متغیر: 9 عدد 66 R-sq: درون = 0.4427 Obs در هر گروه: حداقل = 9 بین = 0.3479 میانگین = 9.0 کلی = 0.2365 max = 9 F(6522) = 69.10 corr(u_i، Xb) = -0.9961 Prob0 > F = 0. ------------------------------------------------ ---------------------------------------- st_bezr | Coef. Std. اشتباه t P>|t| [95% Conf. فاصله] ------------------------------------------------ ------------------------------------------- sse01 | -1.406066 .4631984 -3.04 0.003 -2.316028 -.4961045 wartosc_sr_trw_per_capita | -.0000963 .0000166 -5.79 0.000 -.0001289 -.0000636 zatr_przem_bud | -26.11989 4.992198 -5.23 0.000 -35.92716 -16.31263 podm_gosp_na_10tys_ludn | -.0201788 .0030788 -6.55 0.000 -.0262273 -.0141304 proc_ludn_wiek_prod | -229.1996 16.92631 -13.54 0.000 -262.4516 -195.9475 ludnosc_na_km2 | .0790167 .0120865 6.54 0.000 .0552726 .1027609 _cons | 161.9786 10.76989 15.04 0.000 140.821 183.1363 ------------------------------------------------ ----------------------------------------- sigma_u | 53.986519 sigma_e | 2.5446248 rho | .99778327 (کسری از واریانس ناشی از u_i) --------------------------------------- ------------------------------------------------ - F تست کنید که همه u_i=0: F(65، 522) = 27.09 Prob > F = 0.0000 | مشخصات پانل دیتا |
95934 | یک فرآیند GARCH به صورت  تعریف میشود، وقتی کاملاً ثابت است، نمیدانم که آیا $Cov(a_t, a_{t+) h})=0$ برای همه $h>0$؟ | آیا یک فرآیند GARCH به صورت سریالی مرتبط نیست؟ |
69570 | دادهای که میخواهیم به عنوان متغیر وابسته استفاده کنیم به این شکل است (دادههای شمارش). ما می ترسیم که از آنجایی که دارای یک جزء چرخه ای و ساختار روند است، رگرسیون به نوعی مغرضانه است.  در صورتی که کمک کند از رگرسیون دوجمله ای منفی استفاده خواهیم کرد. داده ها یک پانل متعادل است، یک ساختگی برای هر فرد (ایالت). تصویر نشان داده شده مجموع متغیر وابسته را برای همه حالت ها نشان می دهد اما بیشتر حالت ها به تنهایی رفتار مشابهی دارند. ما در حال بررسی یک مدل اثرات ثابت هستیم. متغیرهای وابسته به شدت همبستگی ندارند، بخشی از تحقیق یافتن یک رابطه غیرمنتظره در بین این متغیرها است، بنابراین یک رابطه ضعیف در واقع چیز خوبی است. > 1. خطرات دقیق عدم درج متغیر تاخیر متغیر وابسته > چیست؟ > 2. در صورت نیاز به گنجاندن یکی، آیا آزمونی وجود دارد که بدانیم کدام > یکی (های)؟ > پیاده سازی در R در حال انجام است. _نکته_: من این پست را خواندم اما به مشکل ما کمک نکرد. | چه زمانی لازم است که تاخیر متغیر وابسته در یک مدل رگرسیونی لحاظ شود و کدام تاخیر؟ |
81352 | من به دنبال مراجعی در رابطه با از دست دادن کارایی ARIMA به دلیل مشخصات نادرست مختلف هستم. به عنوان مثال مقاله زیر: * چونگ چن و جورج سی تیائو مجله آمار تجارت و اقتصادی جلد. 8، شماره 1 (ژانويه، 1990)، صفحات 83-97 مي گويد چه اتفاقي مي افتد اگر تغييرات سطح تصادفي در داده ها وجود داشته باشد، اما آنها ناديده گرفته شوند و با مدل اصلي ARIMA تقريب شوند. موارد زیر: * Johannes Ledolter, International Journal of Forecasting, Vol. 5، شماره 2، 1989، صفحات 231-240 بیان می کند که اگر موارد پرت تصادفی نادیده گرفته شود چه اتفاقی می افتد. چیزی که من به دنبال آن هستم (و نتوانستم پیدا کنم) این است که وقتی داده ها گاوسی نیستند چه اتفاقی می افتد. تصور کنید که تبدیل Box-Cox با دقت انجام نشده است و از آرگومان های بهینه استفاده نمی کنیم. یا، حتی با تبدیل مناسب Box-Cox، تضمین نمی شود که داده های اولیه ما دقیقاً توسط قانون قدرت Box-Cox توزیع شده باشد، سپس داده های تبدیل شده ما دقیقاً عادی نیستند. برآوردگرهای افزایش واریانس پیشبینی (کاهش؟) و افزایش سوگیری در این مورد چه خواهند بود؟ | کاهش اثربخشی ARIMA به دلیل غیر گاوسی بودن |
46467 | فرض کنید ما متغیرهای $(X,Y)$ داریم و تئوری داریم که به ما می گوید که $X$ $\overset{\text{cause}}{\ implies} Y$. شاید آنها متغیرهای سری زمانی هستند و دیدن چیزی شبیه به این امری عادی است: $$\boxed{Y_{t+1} = a + b X_{t} + e_{t+1}.\,\, \,\,\,(1)}$$ سوال من این است که چرا تعیین کردن: $$\boxed{X_t = \alpha + \beta مشروع نیست Y_{t+1}+\varepsilon_{t+1}\,\,\,\,\,(2)}$$ که $\alpha = \frac{-a}b$, $\varepsilon_t = \frac {-e_t}b$, $\beta = \frac1b$ ? من میدانم که در نمونههای محدود، این معادلات معمولاً (برای تخمینها) برقرار نیستند. با این حال، این به این سوال پاسخ نمی دهد که چرا اولی مشروع تر است. همچنین، برنامه پیشبینی نمیکند، بنابراین من به راحتی قادر به وصل کردن $X_t$ به $(1)$ و رسیدن به $\text{forecast}(Y_{t+1})$ نیستم. بدون هیچ تلاشی این سوال زمانی برای من پیش آمد که داشتم یک مقاله تجربی می خواندم. آنها متغیرهای $(A,B,Y)$ داشتند و فکر می کردند که $A,B \overset{\text{cause}}{\ implis} Y$. به طور خاص آنها فکر می کردند که تقریب خوبی از رابطه این است: $$\boxed{Y_{t+1} = a + b(A_t - B_t) + e_{t+1}.\,\,\,\,\,( 3)}$$ با این حال آنها دلایل نظری داشتند که فکر می کردند وقتی $(A_t - B_t)$ بزرگ بود در برابر کوچک $(A_t) یک وقفه در $b$ وجود دارد. - B_t)$. آنها سپس ولگردی بزرگی برای آزمایش انواع ترکیبهای متغییر ساختگی انجام دادند. آنها حتی یک مدل انتقال صاف غیر خطی را مشخص کردند. با این حال، در این نقطه، به نظر می رسد بسیار معقول تر، قابل تفسیرتر، ساده تر (و احتمالاً از نظر آماری قوی تر) انجام شود: $$\boxed{Q_\tau(A_t-B_t|Y_{t+1}) = \alpha(\ tau) + \beta(\tau)Y_{t+1} + \varepsilon_{t+1}(\tau)\,\,\,\,\,(4)}$$ کجا $Q$ تابع quantile است. آیا این اشتباه است؟ | چرا در رگرسیون دو متغیره متغیرها را بر اساس علیت مرتب می کنیم؟ |
19602 | من حدود 6 ماه است که هر روز تعداد فالوورهای جدید را برای 30 اکانت مختلف توییتر جمع آوری می کنم و زمان دقیقی را می دانم که آنها شروع به دنبال کردن کردند. من همچنین در این بازه زمانی تمام توییتها را برای این حسابها جمعآوری کردهام. من علاقه مندم که آیا برخی از متغیرهای مستقل (نرخ توییت، تعداد منشن ها، ریتوییت ها، پیوندها، احساس توییت ها) با افزایش فالوورها (یا متغیر وابسته) مرتبط هستند یا خیر. این داده های سری زمانی به عنوان مثال، من میتوانم از رگرسیون خطی استفاده کنم تا ببینم آیا مجموع توییتها در روز میزان فالوورهای جدید را در روز پیشبینی میکند یا خیر. با این حال، فکر نمیکنم این کار مناسب باشد زیرا اقداماتی که افراد انجام میدهند بلافاصله بر تعداد فالوورها تأثیر نمیگذارد. اما مطمئن نیستم که تاخیر زمانی چقدر خواهد بود یا رویکرد متفاوتی وجود دارد که برای این نوع داده ها و سوالی که می پرسم مناسب تر باشد. من از R استفاده می کنم. | داده های توییتر و سری های زمانی رگرسیون |
69574 | من یک گروه آزمایش و یک گروه کنترل با یک دسته از متغیرهای کمکی دارم. یکی از آنها کد پستی است. آیا روشی وجود دارد که بتوانم از آن برای انجام تطبیق امتیاز تمایل بر اساس کد پستی یا سایر اطلاعات جغرافیایی مانند شهرستان، ایالت، یا طول و عرض جغرافیایی استفاده کنم؟ | امتیاز گرایش مطابق با کد پستی/فاصله جغرافیایی |
12725 | من یک مجموعه داده دارم که شامل یک پاسخ باز است که توسط یک فروشنده به دسته بندی کدگذاری شده است. فروشنده 50 دسته بندی چند پانچ ایجاد کرد که به عنوان 50 متغیر درست/کاذب ذخیره شده بودند. با قرار دادن آن در یک مجموعه پاسخ چندگانه و متقاطع کردن آن با خودش، میتوانم متوجه شوم که بیشتر پاسخها در تعداد کمی از دستهها هستند - زبانه متقاطع به شدت مورب است. برای اهداف تحلیلی که میخواهم انجام دهم، دستهها فقط میتوانند تک پانچ باشند. با ارسال مجدد این مورد به فروشنده و دستهبندی مجدد بیش از 6000 پاسخ، میخواهم اگر تعداد پاسخهای تحت تأثیر به اندازه کافی کم باشد، این مشکل را به صورت برنامهریزی حل کنم. من می خواهم یک فایل نحوی بنویسم که بتواند تعداد پاسخ دهندگان طبقه بندی شده در هر دسته را بشمارد - مثلاً 5000 نفر به یک دسته، 1000 نفر به دو دسته، 500 نفر به سه دسته و غیره... اگر تعداد اختصاص داده شده به چندین دسته به اندازه کافی کوچک است، من فقط می خواهم آنهایی را که به چندین دسته اختصاص داده شده اند را حذف کنم. آیا روش موثری برای انجام این کار در نحو SPSS وجود دارد؟ با توجه به اینکه من 50 دسته دارم، نوشتن منطق برای هر جفت / سه گانه / چهارگانه داده های چند پاسخی غیرممکن است. هر ایده ای؟ | پاسخ های چند پانچ را در نحو SPSS شناسایی کنید؟ |
35855 | **زمینه:** در نجوم سیاره ای، تنها روشی که برای تخمین سن سطح یک جسم جامد در منظومه شمسی (غیر از زمین) داریم، شناسایی دهانه ها است. سپس اینها را با یک گاهشماری ثابت مقایسه میکنیم که چگالی تعداد دهانهها را با قطر $D \ge 1$ کیلومتر (اغلب به صورت $N(1)$ نوشته میشود) با سن مطلق که از ماموریتهای بازگشت نمونه _Apollo_ و _Luna_ مشخص شده است، مقایسه میکنیم. تابعی که سن $T$ را با $N(1)$ پیوند می دهد از لحاظ تاریخی با این شکل مطابقت داشته است: $N(1) = \alpha (\exp(-\beta T)-1)+\gamma T$ که در آن $\ alpha$، $\beta$، و $\gamma$ پارامترهای تناسب هستند. از نظر کیفی، این بیانگر این ایده است که در اوایل، کاهش تصاعدی در دهانه ها وجود داشت و پس از مدتی مشخص، نرخ خطی تا به امروز وجود داشت. این تناسب حداکثر با حدود 15 نقطه محدود می شود، برای سنین بالاتر از حدود 3.95 میلیارد سال کاملاً نامحدود است (به غیر از حداکثر جرم یک جسم) و هیچ نقطه داده ای بین حدود 1 تا 3 میلیارد سال پیش وجود ندارد. **سوال:** در حال حاضر بخشی از این کارهای قدیمی را به عنوان بخشی از تحقیقاتم دوباره انجام می دهم. من از سنین رادیومتری تثبیت شده استفاده میکنم و شمارش دهانه را دوباره انجام میدهم تا یک عملکرد جدید را در نظر بگیرم. مشکل من این است که از دادههای جدید من، این نسخه از تابع fit به نظر بد است. یک گروه تحقیقاتی در سال 2007 کاهش درجه دوم بیشتری را در گذشته اخیر پیشنهاد کردند، بنابراین تابع را به صورت زیر بازبینی کردند: $N(1) = \alpha (\exp(-\beta T)-1)+\گاما T^2 + \delta T$ افزودن عبارت درجه دوم _خیلی_خوب به نظر می رسد تناسب را افزایش می دهد، اما با تنها 11 امتیاز، نگرانم که ممکن است وارد منطقه ای شوم که من فقط یک تناسب بهبود یافته دارم زیرا پارامترهای رایگان بیشتری را اضافه می کنم. و، احتمالاً، یک داور چیزی کمی بیشتر می خواهد، به خصوص به این دلیل که مقاله ای که همه برای این کار استفاده می کنند، نسخه اول را دارد. توجه داشته باشید که محدوده داده تقریباً $0 <T < 4.5$ و $10^{-6} <N(1) < 10^0$ است، و در حالی که آنها تا حدودی خوب رفتار می کنند، غیر خطی هستند (همانطور که تابع انجام می دهد. پیشنهاد کنید). من کاهش $\chi^2 $ هر نسخه را محاسبه کرده ام و به ترتیب 2.8 در مقابل 1.7 است. اما، این یک تابع بسیار غیر خطی است، و بر اساس برخی مطالعههایی که انجام دادهام، $\chi^2$ ممکن است معیار معنیداری برای تعیین میزان مناسب بودن تناسب نباشد. شخصی به من پیشنهاد کرد که یک تست تابع گامای ناقص انجام دهم تا مشخص کنم که آیا $\chi^2$ معنی دارد یا خیر، اما نتایج آن 0.00018 در مقابل 0.017 است ... و من نمی دانم اینها به چه معنا هستند جز اینکه فکر می کردم که عدد بزرگتر (اگر هنوز کوچکتر) بهتر بود که نشان دهنده معنی دارتر بودن عدد درجه دوم بود. بنابراین ... یک (یا چند) راه خوب برای تعیین اینکه آیا یک تابع تناسب از نظر آماری بهتر از دیگری با این نوع داده است چیست؟ $\chi^2$؟ یا چیز دیگری؟ **داده ها:** به عنوان یک ویرایش، از من خواسته شد که داده ها را به اشتراک بگذارم، زیرا آنها فقط چند نقطه هستند ... من باید از آن رد شوم زیرا داده ها منتشر نشده، بررسی نشده، بررسی نشده اند، و این یک پروژه _بسیار_قابلیت است که من در حال انتشار آن در _Science_ هستم... دو هفته دیگر در یک کنفرانس ارائه خواهم کرد که امیدوارم اگر من باشم، ایده بهتری از آن به من بدهد. دیوانه است یا نه آنچه من می توانم در این مرحله به اشتراک بگذارم داده های منتشر شده ای است که مال من به روز شده است. +------+-------+ | T | N(1) | +------+-------+ |-3.92 |0.034 | +------+-------+ |-3.84 |0.057 | +------+-------+ |-3.85 |0.037 | +------+-------+ | -3.8 |0.009 | +------+-------+ |-3.75 | 0.01 | +------+-------+ |-3.58 |0.0064 | +------+-------+ |-3.41 |0.0033 | +------+-------+ | -3.3 |0.0032 | +------+-------+ |-3.22 | 0.003 | +------+-------+ |-3.15 |0.0036 | +------+-------+ | -0.8 |0.0013 | +------+-------+ |-0.109| 9e-05 | +------+-------+ |-0.053|4.4e-05| +------+-------+ |-0.025|2.1e-05| +------+-------+ از این تغییرات یا تغییرات بسیار جزئی، پارامترهایی که همه در فیلد استفاده می کنند عبارتند از $\alpha=5.44\cdot10^{-14}$، $\beta=6.93 $, $\gamma=8.38\cdot10^{-4}$. در بازبینی من و با تناسب جدید، پارامترهای من $\alpha=2.61\cdot10^{-35}$، $\beta=19.4$، $\gamma=1.46\cdot10^{-4}$، $\delta هستند. =1.71\cdot10^{-3}$. و از آنجایی که من این را در دو هفته از امروز صبح ارائه می کنم، یک چکیده 2 صفحه ای دارم که این موضوع را با جزئیات بیشتری مورد بحث قرار می دهد و شامل یک یا سه نمودار با تابع نشان داده شده است. توجه داشته باشید که از نظر فیزیکی، دلیل خوبی وجود ندارد که انتظار داشته باشیم بعد از یک زمان معین در مقابل یک درجه دوم، خطی باشد. اما مدل exp-lin چیزی است که مردم به طور منطقی و به سادگی با داده های موجود مطابقت دارند. اگر قدرت تفکیک نامتناهی داشتیم و به دلیل تشکیل خانواده سیارکها، میخهای لورنتسی در سرتاسر مکان وجود داشت، به احتمال زیاد مدل پیچیدهتری مورد نیاز بود. اما اینها در این مرحله بسیار کمتر از نویز هستند. | چگونه تشخیص دهیم که یک تناسب به طور قابل توجهی بهتر از تناسب اندکی متفاوت است؟ |
69575 | در مقاله ای فرمول انحراف معیار اندازه نمونه را پیدا کردم $N$ $\sigma=\frac{\overline{R}}{2.534}$ که $\overline{R}$ میانگین محدوده نمونههای فرعی است ( اندازه 6 دلار) از نمونه اصلی. عدد 2.534$ چگونه محاسبه می شود؟ این عدد صحیح است؟ | رابطه بین محدوده و انحراف معیار |
46469 | من از فاکتورسازی ماتریس حداقل مربعات غیر منفی متناوب با استفاده از گرادیان پیش بینی شده استفاده می کنم. نتیجه (من از 2 به عنوان رتبه استفاده می کنم) به این صورت است: اصلی (ماتریس V) [[ 10 20 1 9] [ 1 2 1 10] [ 7 6 1 5] [ 5 4 1 5] [100 200 1 90]] ماتریس پایه (ماتریس W) [[ 0.0211552 0.09923254] [ 0.032219 0.00224676] [ 0.0259072 0.02522768] [ 0.02491072 0.01388348] [ 0.19794036 1.00108155] H1.00108155] 66.1643417 62.06074785 170.96878852] [ 69.14663274 187.0342459 0. 54.62548645]] Coef قابل مقایسه به نظر می رسد. به عنوان مثال، در ستون اول Coef، 144 بزرگتر از 69 است. آیا این بدان معناست که در ستون اول داده های اصلی، Feature1 از Feature2 مهم تر است؟ در مورد سوال قبلی مطمئن نیستم. زیرا نتیجه ممکن است به این صورت باشد: ماتریس پایه (ماتریس W) [[ 0.211552 0.09923254] [ 0.32219 0.00224676] [ 0.259072 0.02522768] [ 0.24910103 1.9794036 1.00108155]] Coef (ماتریس H) [[ 14.400101426 6.61643417 6.206074785 17.096878852] [ 69.1462635274. 54.62548645]] تابع خطا (چیزی شبیه V-WH) ممکن است یکسان باشد. اما در این شرایط در ستون اول Coef Feature2 اهمیت بیشتری پیدا می کند. من فکر میکنم ممکن است محدودیتهایی برای «ماتریس W» و «ماتریس H» وجود داشته باشد تا یکی از آنها را به همان ترتیب بزرگی بسازند، به طوری که «Coef» قابل مقایسه باشد. مقاله مربوط به فاکتورسازی ماتریس حداقل مربعات غیر منفی متناوب با استفاده از گرادیان پیش بینی شده را بررسی کردم، اما نمی توانم بگویم که الگوریتم را درک می کنم. آیا کسی در این مورد ایده ای دارد؟ | آیا در فاکتورسازی ماتریس غیر منفی، ضرایب ویژگی ها قابل مقایسه هستند؟ |
78002 | من سعی می کنم یک فیلتر کالمن برای تخمین پارامتر یک مدل دو عاملی گاوسی خطی در Matlab پیاده سازی کنم. (مدل شوارتز اسمیت برای قیمت کالاها) به عبارت دیگر: من سعی می کنم لاگ احتمال پارامترها را محاسبه کنم. **مدل من:** $X_t = A X_{t-1} + \epsilon_X$، با X دوبعدی. $Y_t = \begin{pmatrix} 1 \\\ 1 \end{pmatrix}^T X_t + \epsilon_Y$، با Y که یک بعدی است. $A$ ثابت زمان است و فقط به پارامترهای $\theta$ بستگی دارد که من می خواهم آن را تعیین کنم. **سوال من:** واریانس $\epsilon_Y$ چیست؟ میدانم که معمولاً نویز فرآیند اندازهگیری را نشان میدهد، اما نمیدانم در یک زمینه اقتصادی معادل آن چیست؟ من موفق به پیاده سازی فیلتر شدم و نتایج آزمایش با واریانس عبارتند از (میانگین = 0): * برای واریانس بالا: احتمال ورود به سیستم بالا در مناطق غیر منطقی دور از مقادیر واقعی. * برای واریانس بسیار (!) کوچک: نتایج معقول نزدیک به مقادیر واقعی، اما احتمالات _log_ بسیار کوچک در حدود $-10^{12}$. من می ترسم که این باعث ایجاد مشکلات عددی در تخمین حداکثر احتمال آینده شود. (من قصد دارم از Metropolis Hastings استفاده کنم) از هرگونه کمکی قدردانی می شود! با تشکر | برآورد حداکثر احتمال با استفاده از فیلتر کالمن برای یک مدل اقتصادی دو عاملی، نویز اندازه گیری چیست؟ |
43525 | من مقیاسی را با چندین عامل تئوری تعریف شده محاسبه کرده ام. اکنون من یک استخراج فاکتوریل انجام می دهم تا ببینم آیا EFA همان ابعادی را که در تئوری است کشف می کند یا خیر. سوال من این است: 1. آیا لازم است قبل از انجام تحلیل عاملی، پایایی درونی مقیاس های نظری را بررسی کنم، یعنی مواردی را که قرار است متعلق به یک مقیاس معین باشد، بردارم و سازگاری درونی این مقیاس را بررسی کنم؟ سپس بر اساس ضرایب پایایی، آیا موارد خاصی را حذف کنم که پایایی مقیاس را پایین میآورند و با آیتمهای سمت چپ تحلیل عاملی را انجام میدهند؟ 2. آیا ابتدا عوامل را استخراج می کنم، سعی می کنم مقیاس ها را مشخص کنم که آیا با موارد تعریف شده تئوری مطابقت دارند یا خیر، و سپس آیتم های یافت شده را به صورت مقیاسی با تحلیل عاملی تشکیل می دهم و سعی می کنم همسانی درونی آنها را مشخص کنم؟ به عبارت دیگر، آیا ابتدا پایایی ترازوها را بررسی میکنم و سپس EFA را انجام میدهم یا پس از حذف برخی موارد، ابتدا EFA را انجام میدهم و سپس پایایی ترازو را بررسی میکنم؟ | ابتدا پایایی یا تحلیل عاملی؟ |
43520 | من میدانم که چگونه یک توزیع نرمال چند متغیره برای مدیریت چندین منبع داده پیوسته ایجاد کنم، و میدانم که چگونه یک توزیع طبقهبندی چند متغیره برای مدیریت دادههای گسسته ایجاد کنم. اما من نمی توانم هیچ اطلاعاتی در مورد توزیع بر روی داده های پیوسته و گسسته به طور همزمان پیدا کنم. آیا کسی می تواند به من کتاب/مقاله/وبلاگی را نشان دهد که نحوه انجام این کار را توضیح دهد؟ | چگونه یک توزیع چند متغیره با داده های پیوسته و گسسته ایجاد می کنید؟ |
12721 | من سه دسته محصول دارم، $A،B،C$. هر دسته دارای دو محصول 0.1 دلاری است. من انواع مختلفی از موقعیتهای انتخاب را ارائه میدهم، 1) موضوع آزمون یک دسته ارائه میشود و برای انتخاب یک محصول ساخته میشود، 2) موضوع آزمون با دو دسته ارائه میشود و برای انتخاب محصول از دو دسته ساخته میشود، و 3 ) موضوع آزمون با هر سه دسته ارائه می شود و مجبور می شود از هر کدام یک محصول را انتخاب کند. من معتقدم که انتخاب محصول به تعدادی از متغیرهای اندازه گیری شده از محصولات جداگانه، دسته بندی محصول ارائه شده و انتخاب در دسته دیگر (در صورت امکان چنین انتخابی) بستگی دارد. به عنوان مثال، فرض کنید که ما یک دسته محصول از سرکه، با دو مارک داشتیم. اولین مارک سرکه بالزامیک گران قیمت است. نام تجاری دوم یک نام تجاری ارزان قیمت، سرکه سیب است. حال، فرض کنید دو دسته محصول دیگر داریم: سبزیجات سالاد و دستکش آشپزخانه، که هر کدام دارای یک مارک گران قیمت و باکیفیت و یک مارک ارزان و عمومی است. حتی اگر مصرفکنندهای سرکه گرانقیمت را انتخاب کند وقتی از او خواسته شود که فقط از دسته سرکه یا از دسته سرکه و سالاد انتخاب کند، باز هم ممکن است انتظار داشته باشیم که اگر از او خواسته شود محصولاتی از دسته سرکه و دستکش آشپزخانه انتخاب کند، سرکه ارزان قیمت را انتخاب کند. همچنین ممکن است انتظار داشته باشیم که شخصی که سرکه ارزان قیمت را انتخاب کرده است، هنگامی که از گروههای سرکه و سبز سالاد خواسته میشود، سبزی سالاد ارزانقیمت را نیز انتخاب کند. این وضعیت مشابه مشکلات «سبد خرید» است که توسط P.B. سیتارامان و همکاران al. در مدل های رفتار انتخاب چند دسته ای. با این حال، مدل هایی که من دیده ام، بروز یک دسته محصول را به عنوان تابعی از مصرف کننده، اغلب به عنوان یک مدل مرحله ای در نظر می گیرند. ضرایب متغیرهای کمکی اندازهگیری شده را چگونه تخمین میزنیم در صورتی که انتخابگر دستههایی را که باید از بین آنها انتخاب کند انتخاب نمیکند. | مدل انتخاب چند طبقه با دسته بندی های داده شده |
63748 | من مقدار یک متغیر را در طول زمان ردیابی می کنم. من میخواهم تشخیص دهم که آیا مقدار متغیر در زمان واقعی در حال ترکیدن است (با افزایش غیرعادی در مقدار آن). چگونه می توانم این کار را انجام دهم؟ | تشخیص انفجار در زمان واقعی؟ |
12724 | من سعی می کنم با استفاده از minFunc یک لایه از رمزگذار خودکار آموزش دهم، و در حالی که به نظر می رسد تابع هزینه کاهش می یابد، وقتی فعال شود، DerivativeCheck با شکست مواجه می شود. کدی که من استفاده می کنم تا حد امکان به مقادیر کتاب درسی نزدیک است، اگرچه بسیار ساده شده است. تابع ضرری که من استفاده می کنم خطای مربع است: $ J(W; x) = \frac{1}{2}||a^{l} - x||^2 $ با $a^{l} $ برابر با $\sigma(W^{T}x)$ است که $\sigma$ تابع سیگموئید است. بنابراین، گرادیان باید این باشد: $ \delta = (a^{l} - x)*a^{l}(1 - a^{l}) $ $ \nabla_{W} = \delta(a^{l- 1})^T $ توجه داشته باشید که برای ساده کردن همه چیز، من به طور کلی تعصب را کنار گذاشته ام. در حالی که این باعث عملکرد ضعیف می شود، نباید بر بررسی گرادیان تأثیر بگذارد، زیرا من فقط به ماتریس وزن نگاه می کنم. علاوه بر این، من ماتریس های رمزگذار و رمزگشا را گره زده ام، بنابراین به طور موثر یک ماتریس وزنی وجود دارد. کدی که من برای تابع از دست دادن استفاده می کنم این است ( **ویرایش:** حلقه ای را که داشتم برداریم و کد را کمی پاک کردم): تابع ضرر % به تابع minFunc [ loss, grad ] = calcLoss ( تتا، X، nHidden) [nInstances، nVars] = size(X); ٪ متغیرها را یک بردار واحد دریافت می کنیم، بنابراین باید آن را در یک ماتریس وزن W = reshape (theta(1:nVars*nHidden), nVars, nHidden) قرار دهیم. Wp = W; % وزن گره خورده ماتریس % کد هر مثال (nInstances) hidden = sigmoid(X*W); % رمزگشایی هر نمونه (nInstances) خروجی = sigmoid(hidden*Wp); تابع ضرر ٪: sum(-0.5.*(x - خروجی).^2) % مشتق ضرر: -(x - خروجی)*f'(o) ٪ اگر f سیگموئید است، سپس f'(o) = خروجی .*(1-خروجی) diff = X - خروجی; error = -diff .* output .* (1 - output); dW = پنهان*خطا'; loss = 0.5*sum(diff(:).^2, 2) ./ nInstance; % نیاز به بازگردانی ماتریس گرادیان به یک بردار واحد دارد grad = dW(:) ./ nInstance; پایان در زیر کدی است که من برای اجرای بهینه ساز استفاده می کنم (برای یک بار، زیرا زمان اجرا با تمام نمونه های آموزشی نسبتاً طولانی است): نمونه = 5000; fprintf('بارگیری داده ها..\n'); images = readMNIST('train-images-idx3-ubyte', examples) / 255.0; داده = تصاویر(:، :، 1: مثالها); % هر ردیف یک نمونه آموزشی متفاوت است X = reshape(داده ها، مثال ها، 784). % مقدار اولیه ماتریس وزن را با مقادیر تصادفی % W: (R^{784} -> R^{10})، W': (R^{10} -> R^{784}) numHidden = 10; ٪ توجه: این برای افزایش سرعت DerivativeCheck بسیار کوچک است numVisible = 784; low = -4*sqrt(6./(numHidden + numVisible)); high = 4*sqrt(6./(numHidden + numVisible)); W = کم + (بالا-کم)*rand(numVisible، numHidden); % اجرای گزینه های بهینه سازی = {}; options.Display = 'iter'; options.GradObj = 'روشن'; options.MaxIter = 10; mfopts.MaxFunEvals = ceil(options.MaxIter * 2.5); options.DerivativeCheck = 'روشن'; options.Method = 'lbfgs'; [ x, f, exitFlag, output] = minFunc(@calcLoss, W(:), option, X, numHidden); نتایجی که من با DerivitiveCheck در به دست میآورم معمولاً کمتر از 0، اما بیشتر از 0.1 هستند. من کدهای مشابهی را با استفاده از گرادیان دسته ای امتحان کردم و نتایج کمی بهتر دریافت کردم (برخی کمتر از 0.0001 هستند، اما مطمئناً نه همه). من مطمئن نیستم که آیا با ریاضی یا کدم اشتباه کرده ام. هر گونه کمکی بسیار قدردانی خواهد شد! **به روز رسانی** من یک اشتباه تایپی کوچک در کد خود کشف کردم (که در کد زیر ظاهر نمی شود) که باعث عملکرد فوق العاده بدی شده است. متأسفانه، من هنوز هم نتایج کمتر از خوبی دریافت می کنم. به عنوان مثال، مقایسه بین دو گرادیان: محاسبه چک 0.0379 0.0383 0.0413 0.0409 0.0339 0.0342 0.0281 0.0282 0.0322 0.0320 با اختلافات تا 0.04 من هنوز فاش نشده است. | DerivativeCheck با minFunc ناموفق است |
21121 | آیا میتوانید کتابی با اطلاعات خوب که میتواند برای توسعه یک سیستم توصیهگر اعمال شود، توصیه کنید؟ | توصیه ای برای کتابی در مورد سیستم های توصیه گر |
17523 | سلام کاربران StackExchange، **زمینه:** من یک آمارشناس زیستی هستم که در حال حاضر با مجموعه داده ای از نرخ بیان سلولی دست و پنجه نرم می کنم. این مطالعه میزبان سلولهایی را که در گروههای اهداکننده مختلف جمعآوری شده بودند، در معرض پپتیدهای خاص قرار داد. سلول ها یا نشانگرهای زیستی خاصی را در پاسخ بیان می کنند، یا این کار را نمی کنند. سپس نرخ پاسخ برای هر گروه اهداکننده ثبت می شود. نرخ پاسخ (بیان شده به صورت درصد) نتیجه مورد علاقه است و قرار گرفتن در معرض پپتید پیش بینی کننده است. توجه داشته باشید که مشاهدات در بین اهداکنندگان خوشهای است. از آنجایی که من فقط دادههای خلاصه را دارم، نرخهای پاسخ اهداکننده را به عنوان دادههای پیوسته در نظر میگیرم (حداقل در حال حاضر). این عارضه از این واقعیت ناشی می شود که من صفرهای زیادی در داده های خود دارم. خیلی زیاده که نمیشه نادیده گرفت من برای مقابله با این واقعیت که دادههای پیوسته را با انبوهی از صفرها منحرف کردهام، یک مدل گامای با تورم صفر در نظر میگیرم. من مدل توبیت را نیز در نظر گرفتهام، اما این مدل پایینتر به نظر میرسد، زیرا سانسور را در کران پایینتر فرض میکند، برخلاف صفرهای واقعی (ممکن است اقتصادسنجیها بگویند این تمایز بحثانگیز است). **سوال:** به طور کلی، چه زمانی مناسب است از یک مدل گامای بادی صفر استفاده شود؟ یعنی مفروضات چیست؟ و چگونه استنباطات آن را تفسیر می کند؟ اگر لینکی به مقالاتی که در این مورد بحث می کنند، اگر دارید، سپاسگزار خواهم بود. من پیوندی را در SAS-L پیدا کردم که در آن دیل مکلران کد NLMIXED را برای یک مدل گامای با باد صفر ارائه میدهد، بنابراین به نظر میرسد این امکان وجود دارد. با این حال، من از این که کورکورانه اتهام بزنم متنفرم. خیلی ممنون، برندن | استفاده و تفسیر صحیح از مدل های گامای باد شده صفر |
43523 | ما یک رابطه مدل بین سه متغیر تصادفی مانند این داریم: $$ U = C + S $$. اما نکته جالب تراکم $S$ است. اندازهگیریها جفت نشدهاند، بنابراین نمیتوانم تفاوتهای $U-C$ را بگیرم. یکی از راهحلهایی که امتحان کردیم _deconvolution_ نام داشت، که دقیقاً همان کاری را که ما میخواهیم انجام میدهد، یعنی چگالی متغیر noise $S$ را استخراج میکند. این رویکرد نتایج خوبی برای ما به ارمغان آورد. از طرف دیگر، ما میخواستیم یک رویکرد پارامتریک، بهویژه روش لحظهها را امتحان کنیم. **اولین سوال من:** آیا الگوریتم زیر با فرض توزیع گامای $U$، $C$ و $S$ صحیح است؟ اگر من آن را درست متوجه شده باشم، این دقیقاً منعکس کننده روش لحظات است: 1. یک توزیع گاما را روی $U$ و $C$ قرار دهید و پارامترهای $k_U$، $k_C$، $\theta_U$ و $\theta_C را ذخیره کنید. $، با استفاده از نماد ویکیپدیا. 2. مقدار و واریانس مورد انتظار $U$ و $C$ را با استفاده از $\mu = k\theta$ و $\sigma^2 = k\theta^2$ محاسبه کنید. آنها را به صورت $\mu_U$، $\sigma^2_U$، $\mu_C$ و $\sigma^2_C$ مشخص کنید. 3. با فرض استقلال، $\mu_S = \mu_U - \mu_C$ و $\sigma^2_S = \sigma^2_U - \sigma^2_C$ را محاسبه کنید. 4. سیستم معادله $\mu_S=k_S\theta_S$ و $\sigma_S^2 = k_S\theta_S^2$ را برای $\mu_S$ و $\theta_S$ حل کنید. سپس من دو پارامتر و در نتیجه چگالی گامای $S$ را دارم. اما تخمین چگالی هسته $U$ و $C$ بسیار متفاوت از چگالی گامای نصب شده است. بنابراین، من می خواهم این رویکرد را با مفروضات توزیع Weibull امتحان کنم. این منجر به **سوال دوم من می شود:** وقتی فرض می کنم Weibull $U$، $C$ و $S$ را توزیع کرده است، چگونه می توانم ادامه دهم؟ فرمول میانگین و واریانس در ویکی پدیا بسیار زشت به نظر می رسد. آیا راه حل های تحلیلی وجود دارد یا باید R را بروم و مقداری بهینه سازی عددی در آنجا انجام دهم؟ در نهایت، اگر هنوز آنجا هستید، **سوال سوم من:** Deconvolution به محض اینکه $C$ و $S$ با هم مرتبط می شوند شکست می خورد. با روش لحظهها، فکر میکنم میتوانم ببینم چگونه توزیع $S$ با فرض همبستگی مثلاً 0.5 تغییر میکند. من این کار را با تغییر فقط مرحله 3. در اولین سوالم و محاسبه $\sigma^2_S = \sigma^2_U - \sigma^2_C - 2 Cov(U,C)$ انجام می دهم. آیا این یک رویکرد معتبر است؟ | چگونه می توانم روش گشتاورها را برای تخمین پارامترها در یک رابطه جمعی اعمال کنم؟ |
17527 | من اخیراً با نمونه ای از استفاده از eviews برای قرار دادن محدودیت های غیر خطی/محدب بر روی ضرایب تخمینی OLS مواجه شدم. من میتوانم پیوندی به یک فروم را پیدا کنم که توضیح میدهد چگونه این کار انجام میشود (اینجا)... اما در واقع چیز بیشتری در مورد چگونگی تخمین این مدلها در عمل نمیدانم. آیا کسی پیوندی به مقاله/کتاب/کد منبع/توضیحاتی در مورد نحوه پیاده سازی آن در عمل دارد؟ # بهروزرسانی سؤال: با استفاده از پاسخ کاردینال به سؤال اصلیام، توانستم این مشکل را با استفاده از $\verb+optim()+$ حل کنم --فقط جایگزین کردن $\beta$ با $1-\exp(\beta)$ در منهای معادله احتمال را ثبت کنید و به صورت تکراری کمینه کنید. اکنون می خواهم آن را با استفاده از $\verb+nls()+$ حل کنم. به عنوان مثال، در مورد زیر: library(MASS) #ضرایب محدود شده با 1 n<-100 p<-2 x<-mvrnorm(n,rep(0,p),diag(p)) t1<-4 t2 <-1.5 t3<--2 y<-cbind(1,x)%*%c(t1,t2,t3) y<-y+rnorm(n,0,2) $1-\exp(\hat{t}_2)=1$ و $1-\exp(\hat{t}_3)=-2$ دریافت میکنم. بنابراین سوال من اکنون این است که آیا می توان این کار را با $\verb+nls()+$ انجام داد؟ | ایجاد محدودیت در مقادیر ضرایب تخمینی |
19601 | من سعی می کنم امتیازات کاپا را برای تصمیمات حاضر/غایب گرفته شده توسط دو ارزیاب محاسبه کنم و شنیده ام که می توان آنها را برای شیوع موضوع اندازه گیری تنظیم کرد. آیا کسی می تواند در مورد نحوه محاسبه آمار کاپا که برای محاسبه شیوع موضوع اندازه گیری تنظیم شده است راهنمایی کند؟ | تنظیم توافق بین ارزیاب کاپا برای شیوع |
43528 | شاید من اندازه گیری درست را نمی خواهم. اساساً در حال حاضر 9 میلیون رأی، و 4.8 میلیون رأی منفی و 4.2 میلیون رأی مثبت وجود دارد. یک میلیون رای برای شمارش باقی مانده است. احتمال اینکه نتیجه واقعی رای واقعا بله باشد چقدر است؟ (800000 باید از میلیون ها رای مثبت باشد). | چگونه می توان درصد خطای یک رای را محاسبه کرد؟ |
112113 | من داده هایی از این قبیل دارم ... (Col1:Companyname Col2:Data at timepointA; Col3:Replicate Data at timepointA; Col4:Data at timepointB; Col5:Replicate Data در نقطه زمانی B GeneA 0 0 0 0 GeneB 2666 2254 1833 1840 GeneC 0 0 0 GeneD 0 0 0 0 GeneE 0 0 0 0 GeneF 0 0 0 0 GeneI 0 0 0 0 GeneH 2007 2062 1751 1767 ….(3000 ردیف دیگر) … من سعی می کنم یک روش غیر پارامتریک آزمایش جمع رتبه Wilcoxon (WRST) را اجرا کنم. به طور قابل توجهی بین دو گروه گسترده (زمان A و نقطه پایان B) متفاوت است با استفاده از این روش با ستونی دیگر (Pval) از نظری که دیدم WRST برای تعیین تفاوتهای گستردهتر استفاده میشود و یک مقدار p منفرد را برمیگرداند، آیا برای سؤالات متمرکزتری مناسب است، مانند اینکه آیا ژنهای فردی به طور قابل توجهی متفاوت هستند (از دو گروه گسترده). ) آیا معادله به این شکل خواهد بود؟ گروه و Rg1 مجموع رتبه های آن گروه است. من همیشه برای هر ژن یک Wg را دریافت می کنم! کمک / توضیح قدردانی می شود. | آزمون مجموع رتبه ویلکاکسون برای تفاوت معنادار بین دو نقطه زمانی |
104494 | من باید سهم نسبی عوامل (متغیرها) را که در معادله رگرسیون (رگرسیون چندگانه) خود استفاده کردم، بیابم. در حال حاضر رویکرد من برای یافتن سهم نسبی این است که تخمین بتای استاندارد یک متغیر را تقسیم بر مجموع تخمینهای استاندارد بتا از همه متغیرهای موجود در مدل خود میگیرم. مشکلی که در این رویکرد با آن روبرو هستیم این است که مجموع همه تخمینهای بتا (مجموع حاصل) منفی میشوند. اگر برای یک متغیر تخمین منفی داشته باشیم، تقسیم این عدد بر مجموع حاصل، سهم نسبی آن متغیر مثبت می شود. تفسیر آن برای ما دشوار است زیرا متغیر رابطه معکوس دارد اما سهم نسبی مثبتی دارد. آیا روش آسانی برای این مشکل وجود دارد، اگر این نیست؟ | چگونه می توان سهم نسبی را از برآورد استاندارد بتا محاسبه کرد و چگونه آن را تفسیر کرد؟ |
12726 | من می خواهم مناطق اطمینان دوبعدی (در 1-سیگما، 2-سیگما) را برای مدلی ترسیم کنم که با داده ها مطابقت دارد. من از PyMC برای تولید 50k نمونه خلفی MCMC برای مدل خود با 6 پارامتر استفاده کرده ام. من می دانم که فرآیند ایجاد مناطق اطمینان چیزی شبیه به موارد زیر است: 1.) ایجاد یک هیستوگرام از نمونه ها در فضای دوبعدی 2.) شناسایی خطوط همسان تراکم 3.) از یک نقطه شروع انتخاب شده (مثلاً میانگین) ادغام به بیرون عمود بر خطوط با چگالی ایزو تا زمانی که کسر مورد نظر از نقاط نمونه در منطقه قرار گیرد. آیا تابع مناسبی در دنیای numpy/scipy/pymc/pylab/etc وجود دارد که نمودار منطقه اطمینان دوبعدی را ایجاد کند؟ از طرف دیگر، کجا می توانم یک الگوریتم کدگذاری شده یا ابزار مستقلی پیدا کنم که خطوط را برای ترسیم بعدی محاسبه کند؟ | محاسبه مناطق اطمینان دوبعدی از نمونههای MCMC |
17520 | مجموعهای از توالیهای DNA را در نظر بگیرید، یعنی رشتههایی که از چهار حرف A، C، G، T تشکیل شدهاند. ما این توالیها را بهعنوان یک بردار تصادفی، $\mathbf{X}=(X_1،\dots، X_n)$ مدلسازی میکنیم. هر یک از اعضای مجموعه دنباله ها تحقق این بردار تصادفی است. در این مورد، $X_i$ فقط مقادیر A، C، G، T را می گیرد. به طور کلی اجازه دهید $r$ تعداد حروف باشد. ما خانواده ای از توزیع های احتمال را برای X تعریف می کنیم. هدف ما یافتن توزیع احتمالی است که بهترین تناسب برای داده ها را داشته باشد. فرض ما این است که متغیرهای $X_i$ را میتوان به زیر مجموعههای مجزا تقسیم کرد، بهطوری که متغیرهای هر زیر مجموعه بین خودشان وابسته هستند و زیر مجموعهها متقابلاً مستقل هستند. برای تعریف توزیع بر روی یکی از این زیر مجموعه ها کافی است. این توزیع به صورت زیر تعریف می شود. اجازه دهید $\mathbf{S}=(X_{j_1},\dots, X_{j_k})$ یک بردار فرعی از $\mathbf{X}$ برای زیر مجموعه $\\{j_1,\dots, j_k\ باشد. \} \در \\{1،2\dots، n\\}$. سپس $\mathbf{S}$ مقادیر ممکن $r^k$ را می گیرد. سپس یک توزیع احتمال طبقهای را روی $\mathbf{S}$ تعریف میکنیم. $P(S=(s_{1}, s_{2}, \dots, s_{k})) = p_{s_{1}s_{2}\dots s_{k}}$ بنابراین توزیع $\ mathbf{S}$ با احتمالات $r^k$ تعریف می شود. توجه داشته باشید که مجموعه متغیرهای تصادفی $\\{X_{j_1},\dots, X_{j_k}\\}$ با این توزیع به طور کلی مستقل نیستند. ما از MDL برای یافتن یک مدل مناسب برای داده ها، در ترکیب با یک الگوریتم جستجوی ژنتیک استفاده می کنیم. این زمانی که برای دادههای شبیهسازیشده اعمال میشود، نتایج خوبی به دست میدهد، با این احتیاط که به مجموعه دادههای به اندازه کافی بزرگ برای همگرایی به مدل صحیح نیاز دارد. با این حال، سوال مهم این است که چقدر این مدل در برابر دادههای واقعی اعتبار دارد. من معتقدم این را می توان به این سؤال تقسیم کرد که این مدل در هنگام اعمال بر داده های واقعی چقدر قدرت توضیحی دارد و همچنین قدرت پیش بینی آن چقدر است. من در مورد مسئله قدرت توضیحی فکر کردم و مطمئن نیستم که چه کاری می تواند مفید باشد. شاید این مدل فقط از منظر برازش مدل پارامترهای زیادی داشته باشد. با این حال، اگر کسی پیشنهادی دارد، لطفاً به من بگوید. در مورد پیشبینی، فکر میکنم میتوانم از اعتبارسنجی متقاطع و همچنین نمونهگیری مجدد جایگشت استفاده کنم. برای اعتبارسنجی متقابل، میتوانم دادهها را به قسمتهای K تقسیم کنم و هر یک از بخشها را به نوبه خود برای پیشبینی کنار بگذارم و مدل را با بخشهای K-1 دیگر انتخاب کنم. بنابراین، سوال این است که چگونه باید پیش بینی کرد. از آنجایی که هدف در اینجا بررسی این است که آیا مدل پیشبینیشده برای مجموعه اعتبارسنجی صحیح است یا خیر. معمولاً فرد به یک قانون تصمیم نیاز دارد که (من فکر میکنم) در این مورد به شکل احتمال > مقدار در این مورد خواهد بود، زیرا هر چه احتمال بالاتر باشد، احتمال بیشتری وجود دارد که دادهها از مدل آمده باشند. من مطمئن نیستم که چگونه می توان این را رسمی کرد، یا اینکه آیا می توان آن را از روی برخی نظریه ها توجیه کرد. من دقیقاً هیچ مرجعی از کسی که این کار را انجام می دهد پیدا نکرده ام، که نشان می دهد ممکن است کار اشتباهی انجام دهم. من به برخی از موضوعات تئوری تصمیم نگاه کرده ام اما به نظر می رسد اکثر نتایج شرایطی را برآورده می کنند که در این مورد درست نیست. من همچنین مطمئن نیستم که چگونه کاتاف را تنظیم کنم. یکی از رویکردهای ممکن استفاده از توزیع تجربی مجموعه آموزشی و تعیین مقداری برش بر اساس آن است. یک رویکرد جایگزین مرتبط، تولید منحنیهای ROC، و سپس تولید برخی آمار خلاصه از آن، مانند منحنیهای ناحیه زیر است. برای نمونهگیری مجدد، میتوانم مجموعه داده را بگیرم و بهطور تصادفی آن را در بین رشتهها جابجا کنم. بنابراین مقادیر مختلف $X_i$ در رشته های مختلف بین خود رد و بدل خواهد شد. این یک مجموعه داده تولید می کند که دارای توزیع های حاشیه ای مشابه با مجموعه داده های اصلی است. اما جایی که تک تک متغیرها همبستگی ندارند. سپس می توان بررسی کرد که مدل چقدر این مجموعه داده تغییر یافته را با مجموعه داده اصلی متمایز می کند. به نظر من اگر جدایی واضحی وجود داشته باشد، یعنی احتمالات مجموعه داده های جابجا شده بسیار کمتر از احتمالات مجموعه داده های اصلی باشد، پس این شواهدی است که داده های اصلی دارای ساختار همبستگی هستند. من مطمئن نیستم که چگونه این جداسازی را کمیت کنم. | اعتبارسنجی یک مدل برای مجموعه ای از توالی های DNA |
82014 | من می خواهم کلاس درس و تأثیر/نتیجه مدرسه بر موفقیت (یا نه) دانش آموز در مدرسه را مطالعه کنم. من همچنین می خواهم بدانم تأثیر سن، جنسیت (دانش آموزان) و اینکه آیا دانش آموزان 1 سال مدرسه را تکرار کرده اند یا نه بر موفقیت دانش آموز (یا نه). متغیرهای دانش آموز عبارتند از: \- سن (11 یا 12) \- جنسیت (مرد یا زن) \- اگر یک سال تکرار کرده باشند (بله یا خیر) \- موفقیت (بله یا خیر) متغیرهای دیگر عبارتند از: \- کلاسی که به آن تعلق دارند، (A یا B) \- مدرسه ای که به آن تعلق دارند، (C یا D) من می خواهم با GLMM ادامه دهم، به طور دقیق تر، یک چندسطحی مدل (سلسله مراتبی) با استفاده از R بر روی مجموعه داده من با دانستن اینکه اولاً به دنبال تأثیر کلاس درس و تأثیر مدرسه بر موفقیت دانش آموز هستم (یا نه) و ثانیاً می خواهم تأثیر سن ، جنسیت و اگر دانش آموزان یک سال را تکرار کرده اند (یا نه)؟ با تشکر فراوان از کمک شما! | مدل چند سطحی (سلسله مراتبی) GLMM |
17526 | من کدنویسی یک فیلتر Kalman را در R شروع کرده ام. من از dlmModreg برای ساختن یک شی از کلاس dlm استفاده می کنم که قصد دارم از آن به عنوان ورودی برای dlmFilter استفاده کنم. اما، من در خود مرحله dlmModreg گیر کرده ام. من پارامترهای dlmModreg را همانطور که در 1 توضیح داده شده ارائه می کنم. این کد linear.reg من است <- lm(y.learn$hospitalizations ~ y.learn$google); flu.model <- dlmModReg(y$google,dV=25.66,dW=0.001016); خطای زیر را در dlmModReg (y.learn$google, dV = 25.66, dW = 0.001016) دریافت می کنم: ابعاد ناسازگار آرگومان ها برای dV من از واریانس باقی مانده از مدل خطی (linear.reg) استفاده کردم، اما این خطا ناپدید می شود وقتی dW را حذف می کنم. همچنین اگر کد خود را به صورت dlmModReg (y.learn$google, dV = 25.66, m0 = 0.023711, c0 = 0.001016) تغییر دهم، خطای زیر را دریافت می کنم Error in dlmModReg (y.learn$google, dV = 25.61,20, m c0 = 0.001016): آرگومان(های) استفاده نشده (c0 = 0.001016) در اینجا m0 تخمین Beta(google) و c0 واریانس Beta(google) است. من مطمئن نیستم که مقدار مناسبی که باید برای پارامترهای dW, dV, m0, c0 استفاده شود چیست؟ | خطا هنگام استفاده از dlmModReg |
69577 | من سعی می کنم پوشش های حاصل از حسابداری دو نتیجه را به طور مستقل و به صورت جفت مقایسه کنم. من 2 مجموعه از مقادیر p (p1,p2) از 60 شبیه سازی دارم. من سعی می کنم با در نظر گرفتن آنها به عنوان 2 پیامد مستقل و به عنوان یک جفت، بفهمم که p واقعی در p های تخمینی چند بار وجود دارد. مطمئن نیستم که چرا پوشش بیشتری دارم (96 درصد پوشش برای p1 و پوشش 83 درصد برای p2) وقتی به طور مستقل درمان میشود و پوشش بسیار ضعیف (22 درصد) وقتی بهعنوان جفت درمان میشود. هر فکری؟ در زیر کدی است که من از rate11 استفاده می کنم <- as.numeric(unlist(strsplit(rate1, ))) rate21 <- as.numeric(unlist(strsplit(rate2, ))) p1 <- readLines( C:/Tina/USB_Backup_042213/Winbugs v2_1009/Predicted Results/MVLN/p1.txt) p2 <- readLines(C:/Tina/USB_Backup_042213/Winbugs v2_1009/Predicted Results/MVLN/p2.txt) p11 <- as.numeric(p1, strsplit ))) p21 <- به عنوان. 0.3193 0.2205 0.3148 0.3673 0.1896 0.2759 0.2759 0.2418 [21] 0.3011 0.1969 0.2987 0.3028 0.2152470.215270. 0.2474 0.2354 [31] 0.1917 0.3357 0.2042 0.1862 0.2534 0.2283 0.3505 0.3030 0.2735 0.2669 [41] 0.2669 [41] 0.220.2669. 0.2766 0.3117 0.3720 0.2254 0.2425 0.2097 0.2064 [51] 0.2041 0.2881 0.2898 0.2110 0.2512 0.22224250.222120. 0.2578 rate21 [1] 0.3071 0.2088 0.1993 0.1510 0.2163 0.3062 0.1841 0.2122 0.1970 0.1857 [11] 0.22726760.22760. 0.2068 0.2529 0.3241 0.2716 0.2716 0.2909 [21] 0.1136 0.1196 0.2575 0.1896 0.2941 0.1536 0.224390.224390. [31] 0.2747 0.2913 0.2554 0.1757 0.2167 0.2569 0.1505 0.2914 0.2640 0.2079 [41] 0.3084 0.2603 0.2603 0.2026 0.2 0.2662 0.1963 0.2644 0.2712 0.1414 [51] 0.2498 0.1853 0.1757 0.2253 0.2750 0.1683 0.1824 0.221410. 0.48718497 0.22746812 0.11666142 0.70118068 0.18725532 0.18975113 [7] 0.33871646 0.35930624 0.35930624 0.314 0.314 0.314 0.33195400 0.43073128 [13] 0.38626988 0.24434362 0.13914172 0.26550289 0.32420140 0.40975250 [40975250] 0.22692935 0.33269844 0.31144081 0.18222492 [25] 0.38286975 0.53865241 0.17280546 0.43658109 0.23434349. 0.11502575 0.33417169 0.39532377 0.34670608 0.56308626 0.47540948 [37] 0.66626299 0.518073748 0.44510 0.09003347 0.44516663 [43] 0.40703475 0.29128017 0.42574884 0.43149514 0.44850824 0.491122344 [49112244] 0.60283696 0.34514519 0.44642689 0.44886902 [55] 0.27578750 0.17608196 0.07195664 p [1] 0.45119528 0.21291737 0.15382790 0.65691804 0.22035956 0.19501561 [7] 0.37276003 0.3356138006000. . 0.25837354 0.34690860 0.35486936 0.21846294 [25] 0.36497063 0.49119436 0.19878329 0.435574834 0.22351 0.15239970 0.33912424 0.35612462 0.33345849 0.53875587 0.44886310 [37] 0.63743711 0.47052830 0.47052830 0.47052830 0.4486310 0.12160480 0.44408018 [43] 0.40138140 0.31960604 0.43666172 0.41847738 0.45652344 0.46567358 [44567358. 0.56408453 0.36738204 0.45982163 0.41661121 [55] 0.29617284 0.19748217 0.11749434 0.38674014 0.38674014 0.38674014 0.38674014 0.38611121 library(car) ell<-dataEllipse(rate11, rate21, level=c(0.05, 0.95),plot.points=T, pch=NA) library(sp) در<-point.in.polygon(p11, p21, ell $`0.95`[,1]، ell$`0.95`[,2]) میانگین (در داخل) 0.2166667 | تفاوت بین پوشش دو متغیره در مقابل پوشش دو متغیره (بیضی) |
81351 | من یک مدل خطی سه عاملی ساده دارم: $y = a_1x_1 + a_2x_2 + a_3x_3$، و میخواهم ضرایب $a_3 = a_1 \times a_2$ را برآورده کند. چگونه باید آن را در R کد کنم؟ | رگرسیون خطی با ضرایب محدود غیر خطی |
13458 | من دادههای شمارش پرندگان را دارم و از مدل کلاسیک لاگ خطی پواسون استفاده میکنم، یعنی تعداد «obs(i,j)» \- تعداد مشاهدهشده برای سایت «i» و سال «j» داریم، و مدل این است: ln(model(i, j)) = site_effect(i) + year_effect(j) که در آن مقدار model(i,j) برای سایت i و سال j انتظار می رود، و این است فرض می شود که شمارش ها پواسون توزیع شده اند، یعنی «obs(i,j) ~ Poiss(lambda = model(i,j))». همبستگی سریال و پراکندگی بیش از حد در نظر گرفته شد. اکنون باید **باقیمانده های این مدل را به عنوان یک متغیر وابسته در یک رگرسیون دیگر با چند متغیر توضیحی تجزیه و تحلیل کنم** (لطفاً به من نگویید که باید این متغیرها را در مدل فوق قرار دهم - مختصر بگویم، برخی از مسائل فنی وجود دارد. در پشت آن.) **مشکل اکنون این است:** 1) نحوه تعریف باقیمانده ها 2) توزیع آنها چگونه است 3) از کدام رگرسیون برای توضیح آنها استفاده می شود. **راه حل های ممکن برای تعریف و تحلیل باقیمانده:** الف) ابس/مدل با رگرسیون لاگ خطی پواسون دیگر ب) log((obs+1)/مدل)، توزیع نرمال -> رگرسیون خطی نرمال ج) log((obs+1) )/(مدل+1))، توزیع نرمال -> رگرسیون خطی نرمال د) ... هر کدام دیگر؟؟ **راه حل تبلیغ A**: از «obs/model» استفاده کنید، یعنی. مقدار مشاهده شده را بر مقدار مورد انتظار از مدل (برای هر i,j) تقسیم کنید. اما توزیع آنها چگونه است؟ من می گویم پواسون، اما اعداد اعداد کامل نیستند! **بنابراین در 20 ضرب کردم و به اعداد کامل گرد کردم تا بتوانم poisson را جا بزنم. آیا این ایده خوبی است یا بیهوده است؟ یا چگونه باید پواسون را به متغیر تصادفی پیوسته اعداد حقیقی تطبیق دهم؟** توزیع این است:  توجه داشته باشید که توزیع پواسون مناسب نیست (تست goodfit() استفاده شده در R). بنابراین یک مشکل وجود دارد که obs/model اعداد واقعی هستند - نه کاملا طبیعی، مانند توزیع پواسون. علاوه بر این، من میخواهم در صورت امکان از یک رگرسیون لاگ خطی پواسون اجتناب کنم، زیرا با نحوه تجزیه و تحلیل متغیرهای توضیحدهنده، تغییرپذیری توضیح داده شده/غیرقابل توضیح و غیره مانند رگرسیون عادی کاملاً آشنا هستم. **راه حل تبلیغات B/C**: از چیزی مانند «log((obs+1)/model)» یا «log((obs+1)/(model+1))» استفاده کنید. مشکل صفر تعداد مشاهده شده وجود دارد (هیچ تعداد مدل های صفر وجود ندارد)، بنابراین من نمی توانم فقط از «log(obs/model)» آنطور که می خواهم استفاده کنم. چطور میشه این مشکل رو حل کرد؟؟ بهتر است از محلول B یا C استفاده کنیم؟ در اینجا توزیع ها هستند.   توجه داشته باشید که در این مورد نیز ، توزیع های معمولی مناسب نیستند. هیچ چیز واقعاً مناسب نیست، اما این با داده های شمارش واقعی کاملاً طبیعی است. :-) ** بنابراین، خلاصه ** : \- فکر می کنید کدام راه حل مناسب تر است؟ \- چگونه بر مشکلاتی که هر راه حل دارد غلبه کنیم؟ \- آیا استفاده از B/C و رفتن به رگرسیون خطی معمولی اشتباه بزرگی است، اگر میخواهم از سم اجتناب کنم؟ آیا باید از B یا C استفاده کنم؟ خیلی ممنون | چگونه بقایای مدل لگ خطی پواسون را تجزیه و تحلیل کنیم؟ |
43521 | امیدوارم بتوانید به من کمک کنید زیرا در حال حاضر گیج و درمانده هستم. من دانشجوی سال آخر دکترا هستم و اساتید راهنما از من خواستند که روش های آماری غیر از اکتشافی (درصد یافته ها) را برای ارائه داده های خود بیابم. در اینجا دادههای تحقیق من است که در آن میخواهیم نگرش و دلایل مصرفکننده را نسبت به دفع، با پاسخهای فردی (70=N) که از طریق پرسشنامهای با موارد زیر جمعآوری شده است، ارائه کنیم: 1. محصول کاربردی است؟ بله/خیر/پاسخ داده نشد 2. اگر کار می کند آیا می توانید نقطه شکست را مشخص کنید؟ بله/خیر/پاسخ نداده نقطه شکست را بدهید 3. اگر کار می کند محصول جدیدی خریده اید؟ بله/خیر/پاسخ داده نشد 4. اگر کار نمی کند محصولات جدیدی خریده اید؟ بله / خیر / پاسخ داده نشد؟ 5. آیا از گزینه های دیگر آگاهی دارید؟ بله/خیر/پاسخ داده نشد میخواهم بدانم چگونه میتوانم قابلیت اطمینان را اندازهگیری کنم، و چه تجزیه و تحلیل آمار دیگری را میتوانم ارائه دهم: GLM، ANOVA، MANOVA، و غیره. | از کدام روش آماری در تحقیقات کمی مبتنی بر پیمایش استفاده کنیم؟ |
90245 | من در حال خواندن مقاله ای از فادی الثبتاه و همکاران بودم، MMAC: رویکرد طبقه بندی انجمنی چند طبقه ای جدید. من سعی می کردم الگوریتم MMAC آنها را پیاده سازی کنم. در الگوریتم MMAC که در صفحه 3 مقاله. من الگوریتم را متوجه نمی شوم، لطفاً یکی به من کمک کند تا آن را به کد شبه یا کد برنامه تبدیل کنم، واقعاً مفید خواهد بود، با تشکر! لینک مقاله: https://docs.google.com/document/d/1YuXgPrHtH33xhtqWg2T3hSS290fnWK3JBCSnQWvsboE/edit?usp=sharing | پیاده سازی الگوریتم MMAC |
58390 | من میخواهم از پارامترهای مختلف دادههای سنجش از دور (مانند کرلوفیل، دمای سطح دریا، تنش باد و غیره) به عنوان متغیرهای کمکی در مدل توزیع گونهها استفاده کنم. من دادههای مربوط به مشاهده، از جمله تلاشهای بینایی را دارم که از تعدادی سفرهای دریایی علمی در یک دوره دو ماهه جمعآوری شده است. ایده من این بود که دادههای محیطی را برای کل دوره مشاهده بهطور میانگین جمعآوری کنم، با همه مشاهدهها بهعنوان جمعآوری همزمان، با میانگین ۲ ماهه مقادیر بهعنوان متغیرهای کمکی استفاده شود. با توجه به ماهیت دادههای سنجش از راه دور، مقادیر زیادی از دست رفته به دلیل ابرها و غیره وجود دارد، بنابراین اگر بخواهم دادهها را میانگین بگیرم، باید سلولهایی را که هیچ مقداری برای >= 1 روز داده نداشت، حذف کنم. این منجر به کسر کوچکی از دادهها میشود و به نظر میرسد روش خوبی برای انجام کارها نیست. چگونه می توانم برآوردهای میانگین پارامترها را در صورت وجود داده های از دست رفته در خروجی سنسور از راه دور بدست بیاورم؟ **به روز رسانی:** تلاش برای مشاهده به عنوان زمان صرف شده قبل از انجام مشاهده ارزیابی می شود. هر چه زمان بیشتری برای رؤیت صرف شود، تلاش برای به دست آوردن رؤیت بیشتر می شود. همچنین میتوانم از مسافت طی شده قبل از رؤیت به جای زمان استفاده کنم. | میانگین گیری داده های شبکه ای با مقادیر از دست رفته |
46460 | فرض کنید $n = 5$، $s = 0.0771$. سوال این است: $P(\sigma < 7.63\%)$ چیست؟ | توزیع احتمال $\sigma$ |
35858 | من توزیع احتمال را برای پارامتر $\phi$ می دانم. من توزیع تجربی/توزیع آماری $X$ را دارم که به پارامتر $\phi$ برای $\phi در [0,1]$ وابسته است. من این توزیع تجربی را با توزیع احتمال X ترکیب می کنم. 1/ آیا می توانم این کار را انجام دهم؟ آیا مفاهیم مشابه هستند؟ سپس، با دانستن توزیع برای $\phi$، و توزیع تجربی برای $X$، میخواهم توزیع را برای $X(\phi)$ محاسبه کنم. من ابتدا به استفاده از روش تابع چگالی معکوس فکر کردم. اگر بتوانم cdf معکوس $F^{-1}$ را محاسبه کنم، این یک مولد اعداد تصادفی برای توزیع ناشناخته من می دهد. با این حال، من همیشه نمی توانم $F^{-1}$ را محاسبه کنم. سپس به روشی برای رد کردن فکر کردم. 2/ نمی دانم که آیا می توانم با این مسئله به عنوان ترکیبی از مسئله چگالی احتمال برخورد کنم و چه راه حل هایی در دست است. من نگاهی گذرا کردم و چند رویکرد بهینهسازی برای این دسته از مشکلات را دیدم (در اینجا سابق). 3/ در نهایت، چرا توزیع X را با ضرب هر مقدار $X(\phi)$ در چگالی احتمال برای این مقدار $\phi$ پیدا نکنیم؟ (محصول ساده چگالی احتمال زیربنایی با مقادیر X) با تشکر! # ویرایش من سعی می کنم مشکل را در قالب آمار بیزی دوباره فرموله کنم. من یک $\phi$ قبلی با توزیع یکنواخت دارم. سپس توزیع X مشروط به این قبل را برای $\phi$, $P(X|\phi)$ می دانم. از قانون بیز، می توانم $P(\phi|X) = \frac{P(X|\phi)*P(\phi)}{P(X)}$ را استنتاج کنم. اکنون، پیشین من دیگر به طور یکنواخت توزیع نشده است. به عبارت دیگر، من همان مدل پارامتری را برای توزیع X دارم، اما اکنون با یک RV غیریکنواخت $\theta$ به دنبال برخی توزیع های دانش با چگالی $f_{\theta}$ پارامتری شده است. من می خواهم $P(X|\theta)$ جدید را بدانم. از قانون بیز، $P(X|\theta) = \frac{P(\theta|X)*P(X)}{P(\theta)}$. اگر رابطه ای بین $P(\theta|X)$ و $P(\phi|X)$ داشته باشم مشکل من حل می شود. آیا باید $P(\phi|X)$ را که می دانم، در برابری $P(X|\theta) = \frac{P(\theta|X)*P(X)}{P(\) وصل کنم تتا)}$؟ امیدوارم توضیحات آزمایشی واضح تر به نظر برسند. اگر نه، می توانید من را به سمت فرمولاسیون و راه حل راهنمایی کنید؟ # ویرایش - سعی میکنم اولین جمله بعد از نظر Zen را روشن کنم و با 'من توزیع تجربی/آماری $X$ را دارم که به پارامتر $\phi$ برای $\phi در [0,1] وابسته است، دوباره فرمولهبندی کنم. $.'، میخواستم بگویم: من توزیع دادهها را در شرایطی میدانم که برخی از پارامترها، $\phi$، به طور یکنواخت توزیع شده است. من مدلی را برای توزیع تجربی فرض میکنم که با $\phi$ پارامتر شده است. اکنون، من در موقعیت دیگری هستم، که در آن این پارامتر، که من آن را یک متغیر تصادفی در نظر میگیرم، توزیع دیگری دارد، با مقداری چگالی معلوم $f_{\phi}$. من همچنین فرض میکنم که مدل توزیع تجربی با توزیع زیربنایی جدید مطابقت دارد. داده ها را می توان در این مدل تولید کرد که در آن توزیع پارامتر یکنواخت نیست، اما $f_{\phi}$ است. من می خواهم توزیع این داده ها را پیدا کنم. با تشکر، بابت سؤال ساده و واژگان آماری متشکر عذرخواهی کنید. با احترام | ترکیب چگالی احتمال |
81358 | من مجموعه داده ای دارم که پس از مدل سازی (با تجمع درختان بوت استرپ)، متوجه شدم که نتیجه آموزشی بسیار بالا و در نتیجه بیش از حد برازش دارم، اما اعتبار سنجی عقب مانده و بخش های آزمایشی من عملاً یکسان هستند و در سطح I هستند. راضی هستم با من کاملا مطمئن نیستم که آیا این یک مدل معتبر در این مورد است. من از تقسیم $60:20:20$ استفاده می کنم. من امیدوار بودم که به دلیل مشابه بودن بخش آزمون و اعتبارسنجی، بتوان مدل را برای بخشی از داده های آزمون توضیح داده شده قابل اعتماد فرض کرد. لطفا اگر اشتباه می کنم اصلاح کنید. | اعتبار سنجی بازدارنده - آزمون و اعتبار سنجی برابر است اما آموزش بسیار بهتر - قابل قبول است؟ |
43860 | > **تکراری احتمالی:** > کاهش تعداد متغیرهای زیر مجموعه بر اساس عمق برای PCA من یک سوال دارم، سعی می کنم روشی را در حوزه تحقیقاتی خود اعمال کنم که هنوز اعمال نشده است، بر اساس انتشارات و ادبیاتی که می توانم پیدا کردن مورد به شرح زیر است: من یک مجموعه داده با متغیرهای x دارم و این متغیرها برای هر مشاهده با عمق تغییر می کنند. من یک مجموعه داده ساده را نشان خواهم داد:  متأسفم من نمی دانستم چگونه یک جدول را وارد کنم، بنابراین یک عکس را وارد کردم. این مهم است که منحنی چگونه به نظر می رسد، بنابراین خوب است که مشاهدات را بر اساس منحنی های آنها (ویژگی) خوشه بندی کنیم، که متغیرهای x را دوباره نمایش می دهد. سوال من این است: مناسب ترین روش چیست؟ آیا می توانم تعداد منحنی ها را با PCA کاهش دهم؟ آیا می توانم منحنی های متغیر x را با یک ترکیب کنم؟ یا آیا روشی وجود دارد که بتواند مشاهدات من را بر اساس منحنی x آنها خوشه بندی کند؟ من راه حل R یا Python را ترجیح می دهم، زیرا به matlab دسترسی ندارم. پیشاپیش متشکرم -v | خوشه بندی بر اساس منحنی داده های چند متغیره (سری های زمانی مانند داده ها) |
90242 | دادههای من بد رفتار میکنند و بهنظر نمیرسد با وجود تغییرات بیشتر نسبت به Optimus Prime، نمیتوانم باقیماندههایی با واریانس ثابت دریافت کنم. آیا مشکلی نیست که فقط به تحلیل ادامه دهیم و فقط یادداشت کنیم که برخی از مفروضات نقض شده اند زیرا تطبیق داده ها با یک مدل خطی دشوار یا غیرممکن است؟  | آیا هرگز اشکالی ندارد که باقیمانده های هتروسکداستیکی را نادیده بگیریم و به تحلیل ادامه دهیم؟ |
7999 | فرض کنید من یک تابع funToRepeat دارم: funToRepeat <- function(df){ ردیف <- nrow(df) cols <- ncol(df) err <- runif( rows * cols ) dfNew <- df + as.data. فریم (ماتریس(خطا، nrow=ردیف، ncol=cols)) dfNew } میخواهم «funToRepeat» را روی «dfTest» (مجموعه دادههای اسباببازی)، چندین بار، بگویید «n». dfTest <- structure(list(V1 = 1:2، V2 = 3:4)، .Names = c(V1، V2)، row.names = c(NA,-2L)، class = data .frame) چگونه می توانم این کار را انجام دهم و به طور کارآمد n خروجی funToRepeat در R را میانگین کنم؟ یک مثال بسیار بد با `n=10` ممکن است این باشد: dfAvg <- as.data.frame(list(V1=c(0, 0), V2=c(0, 0))) for(i در 1:10 ){ dfAvg <- dfAvg + funToRepeat(dfTest) } dfAvg <- dfAvg/10 لطفا توجه داشته باشید، من سعی نمی کنم برای بوت استرپ کردن من میخواهم «funToRepeat» را روی مجموعه دادهام اجرا کنم و میانگین خروجیهای «n» را بگیرم. من میخواهم این کار را انجام دهم زیرا «err»، یک عبارت تصادفی، را به data.frame خود اضافه میکنم و میخواهم پاسخی معقول ارائه کنم. (من دقیقاً این کار را در زندگی واقعی انجام نمی دهم، اما چیزی بسیار مشابه) | چگونه یک تابع را در یک مجموعه داده در R به طور موثر تکرار کنیم؟ |
81359 | من پانل دیتا را روی Y، A، B، C دارم. و سعی می کنم متغیر وابسته Y را بر روی متغیرهای مستقل A، B، C مدل کنم. ابتدا ریشه های واحد را بررسی کردم (در Eviews). Y، A، B، C هیچ ریشه واحدی ندارند، اما Y یک ریشه واحد مشترک دارد، و همچنین A. چگونه باید ادامه دهم؟ من قبلاً Y را روی A، B، C پسرفت کردم، اما اکنون مردد هستم زیرا مطمئن نیستم این کار را انجام دهم، زیرا Y و A دارای ریشه واحد مشترک هستند. هر گونه کمکی قدردانی خواهد شد. T=1900 (روزهای معاملاتی) N=90 (سهام فرانسوی) Y=اندازه گیری نقدینگی A=قیمت سهام. B=خیر سهام C = مقداری امتیاز سهام ارزش/رشد | رگرسیون پانل داده که در آن برخی از متغیرها دارای ریشه واحد مشترک هستند |
101454 | **زمینه:** نمایندگان فروش به پزشک مراجعه می کنند و درباره یک محصول/دارو اطلاعاتی را ارائه می دهند. یک بازدید به عنوان یک تماس نامیده می شود. در عوض او نسخه هایی را برای پزشکانی که آن داروی خاص را تجویز می کنند، می نویسد. **بیانیه مشکل:** سه متغیر وجود دارد که باید بر اساس آنها الگوریتمی ایجاد شود که به اولویت بندی پزشکان کمک کند. 1. **پتانسیل استفاده نشده:** نسخه های نوشته شده توسط پزشک در مورد محصولاتی که مشابه/رقیب محصول مشتری هستند. 2. **پتانسیل استفاده شده:** نسخه هایی که توسط پزشک در مورد محصول مشتری نوشته شده است. 3. **ارزش تماس:** نسبت کل تماس های داده شده به پزشک به کل نسخه هایی است که او نوشته است. به عنوان مثال: پزشکی که 10 بار تماس گرفته و به نوبه خود 10 نسخه نوشته است، اهمیت کمتری نسبت به دکتری دارد که 5 بار تماس گرفته است و به نوبه خود 10 نسخه نوشته است... هدف این است که از این 3 متغیر استفاده کنید و بالا بیایید. با الگوریتمی که به اولویت بندی پزشکان در دسترس کمک می کند. | اولویت بندی بر اساس سه عامل |
13456 | برای یکی از پروژه های آکادمیکم یک نظرسنجی نمونه انجام دادم. اما متأسفانه پاسخ دهندگان چندان فعال نبودند و من فقط 25 پاسخ برای مطالعه خود دریافت کردم. با این پاسخ کوچک، حدس میزنم نمیتوانم هیچ مطالعه آماری انجام دهم (مثلاً آنووا، رگرسیون، و غیره). بنابراین، میخواستم بدانم که آیا بر اساس میانگین و انحراف استاندارد نمونه، میتوانم مجموعه داده بزرگتری را شبیهسازی کنم و سپس تجزیه و تحلیل آماری خود را انجام دهم. اگر کسی روش انجام شبیه سازی با میانگین و sd داده شده را در نرم افزار R به من بگوید ممنون می شوم. با احترام، آری | راه هایی برای غلبه بر تعداد کمی از پاسخ های نظرسنجی |
21120 | در برازش چند جمله ای $p_N = \sum\limits_i^N a_i x^i$ به مجموعه داده من $(x,y)$ با استفاده از حداقل مربعات، من علاقه مند به تعیین ترتیب چند جمله ای بهینه $N$ هستم. اخطار این است که، به دلیل محدودیتهای خاص مسئله، چند جملهای باید شرایط مرزی زیر را برآورده کند: $p_N(0) = 0$، و $\frac{d}{dx}p_N(L)=0$. ($L$ شناخته شده است). من جمعآوری میکنم که اگر مشکل بدون محدودیت بود، ترتیب را میتوان با استفاده از 2 آزمون ANOVA F متوالی تعیین کرد: اولین موردی که تعیین میکند آیا سفارش $N$ به اندازه کافی واریانس در $Y$ مشاهدهشده را توضیح میدهد یا خیر، و اگر موفق شد، یک آزمون دوم برای تعیین اینکه آیا واریانس توضیح داده شده اضافه شده با سفارش $N$ بر سفارش $N-1$ از نظر آماری معنی دار است یا خیر. آیا آزمون مشابهی وجود دارد که بتوانم آن را برای وجود شرایط مرزی اعمال کنم؟ پیشاپیش از وقتی که می گذارید متشکرم! | ترتیب چند جمله ای بهینه در رگرسیون خطی با محدودیت برابری |
114988 | در اینجا یک هیستوگرام (تحقق یافته با JMP) وجود دارد که دو نوع نمودار جعبه به نام نمودار جعبه پرت و نمودار جعبه کمی را نمایش می دهد.  درست در زیر، مجموعهای از توضیحات درباره معنای ویژگیهای مختلف نمودار جعبه پرت وجود دارد.  براکت قرمز کوتاه ترین نیمه داده ها (متراکم ترین ناحیه) است. این عبارت دقیقا به چه معناست؟ چقدر با چارک تفاوت دارد؟ منبع | کوتاه ترین نیمه داده ها چیست؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.