_id
stringlengths
1
6
text
stringlengths
0
7.5k
title
stringlengths
0
167
59197
در رابطه با ادراک معلمان، می‌خواهم اندازه‌گیری کنم: 1. **درک کمک‌رسانی** 2. **سطح کمک‌رسانی مورد نیاز** برای رضایت پاسخ‌دهنده و 3. **مهم بودن کمک‌رسانی** ( به عنوان جنبه ای که معلم توسط همان پاسخ دهنده قضاوت کرده است.) من برای هر سه سؤال از مقیاس لیکرت استفاده کردم: 1. معلم من مفید بود: به شدت مخالفم - کاملاً موافقم 2. می خواهم معلم چقدر مفید باشد: می خواهم (مفید بودن) معلم با مقیاس لیکرت باشد. 3. کمک کردن از معلم چقدر مهم است: (کمک بودن) معلم برای من از اهمیت لیکرت برخوردار است ### سوالات * آیا روشی بهتر از استفاده از مقیاس نوع لیکرت برای اندازه گیری این سه متغیر وجود دارد؟ * ابزار(های) آماری مناسب برای ارزیابی همبستگی بین هر سه متغیر کدام است؟
ابزار(های) آماری برای همبستگی ادراکات با مقیاس های نوع لیکرت
103714
فرض کنید من دو نفر A و B دارم که هر کدام وظیفه متفاوتی را انجام می دهند. آنها دارای یک امتیاز استعداد هستند که نشان می دهد چقدر خوب انجام می دهند. A دارای امتیاز استعداد a و B دارای امتیاز استعداد b است. A در انجام وظیفه خود موفق می شود در حالی که اکثریت افرادی که دارای امتیاز مساوی یا بالاتر هستند شکست می خورند. B در انجام وظیفه خود شکست می خورد در حالی که اکثر افراد با نمرات استعداد یکسان یا پایین تر موفق می شوند. آیا ابزارهای ریاضی در مورد نحوه محاسبه تغییر نمرات استعداد آنها پس از این رویداد وجود دارد؟ من به دنبال چیزی شبیه به سیستم رتبه بندی Elo هستم که با رقابت مستقیم سر و کار نداشته باشد (از آنجایی که این بازیکنان کارهای خود را انجام می دهند و با یکدیگر مقابله نمی کنند). پیشاپیش متشکرم
متریک عملکرد
67558
برای درک من، مدل لاجیت چند جمله ای نیاز به محدود کردن پارامترهای یک دسته به صفر دارد. با این حال، بسته{glmnet} به نظر می‌رسد که پارامترهای مختلفی را به هر کلاس اجازه می‌دهد. کسی می تواند این دلیل را توضیح دهد؟ پیشاپیش از شما بسیار سپاسگزارم. به عنوان مثال: #Reading packages library(glmnet) library(nnet) ## Testing lasso <- glmnet(as.matrix(iris[,-5]), iris$Species, family = multinomial) lasso.cv <- cv. glmnet(as.matrix(iris[,-5])، iris$Species، خانواده = چند جمله ای) ## Coef. از lasso$a0[,which(lasso$lambda == lasso.cv$lambda.min)] lasso$beta$setosa[، که(lasso$lambda == lasso.cv$lambda.min)] lasso$beta$ versicolor[، که (lasso$lambda == lasso.cv$lambda.min)] lasso$beta$virginica[, which(lasso$lambda == lasso.cv$lambda.min)] ### چرا {glmnet} می تواند پارامترهای دسته همه را محاسبه کند؟ ## مقایسه با نتیجه {nnet} nnetRes <- چند نامی (فرمول = iris$Species ~ iris$Sepal.Length + iris$Sepal.Width + iris$Petal.Length + iris$Petal.Width، iris) nnetخلاصه <- خلاصه (nnetRes) nnetSummary$ضرایب ### به طور کلی، مانند {nnet}، مدل لاجیت چند جمله ای نمی تواند پارامترهای ### یک دسته مرجع را محاسبه کند.
چرا {glmnet} را می توان برای همه دسته ها پارامترها محاسبه کرد؟
115051
داده های من: من دو الگوی فصلی در داده های ساعتی خود دارم... روزانه و هفتگی. به عنوان مثال... هر روز در مجموعه داده من تقریباً بر اساس ساعت روز شکل یکسانی دارد. با این حال، روزهای خاصی مانند شنبه و یکشنبه در داده‌های من افزایش می‌یابد، و همچنین شکل‌های ساعتی کمی متفاوت است. (با استفاده از Holt-Winters، همانطور که در اینجا کشف کردم) من الگوریتم را اجرا کردم، از 24 به عنوان دوره های خود در هر فصل استفاده کردم، و با پیش بینی 7 فصل (1 هفته)، متوجه شدم که روزهای هفته را بیش از حد پیش بینی می کند و پیش بینی کمتری می کند. آخر هفته از آنجایی که منحنی شنبه را بر اساس منحنی جمعه تخمین زده است و نه ترکیبی از منحنی جمعه و شنبه$(t-1)$. چه راه خوبی برای گنجاندن یک دوره ثانویه در داده های من است، مانند 24 و 7؟ آیا الگوریتم دیگری وجود دارد که باید از آن استفاده کنم؟
الگوریتم تشخیص سری زمانی برای داده های چند فصلی با استفاده از پایتون
96857
این اولین پست من در StackExchange است، بنابراین امیدوارم در جای مناسب پست بگذارم. من سعی می کنم تابع چگالی احتمال صحیح را برای جابجایی خالص متغیرهای تصادفی X و Y از مبدأ استخراج کنم، با این فرض که آنها مستقل، به طور معمول توزیع شده و واریانس مساوی دارند. برای شروع، احتمال مشترک هر x،y مستقل با چگالی احتمال یک توزیع نرمال دو متغیره داده می شود. $$P(x,y) = {1 \over 2\Pi\sigma_x\sigma_y} e^{\big({-1 \over 2}\big[ {(x-\mu_x)^2 \over \sigma_x ^2} + {(y-\mu_y)^2 \over \sigma_y^2}\big]\big) }$$ اگر بیشتر فرض کنیم که استاندارد انحراف x و y برابر هستند، سپس: $$P(x,y) = {1 \over 2\Pi\sigma^2} e^{\big({-1 \over 2}\big[ {(x -\mu_x)^2 + (y-\mu_y)^2 \over \sigma^2}\big]\big) }$$ در نهایت، اگر به احتمال اینکه یک جفت مختصات (x,y) فاصله معینی r از مبدا است (x=0, y=0) سپس می توانم جایگزین کنم: $$r^2 = (x-\mu_x)^2 + (y-\ mu_y)^2$$ برای تعیین چگالی احتمال مشترک بر حسب r، جابجایی خالص (x,y) از مبدا به صورت زیر است: $$P(r) = {1 \over 2\Pi\sigma^2} e^{\big({-r^2 \over \sigma^2}\big) }$$ با این حال، با استفاده از برنامه R متوجه شدم که این تابع چگالی درست برای جابجایی دو متغیر تصادفی مستقل با توزیع نرمال با واریانس مشترک: sigma=2 X <- rnorm(1000,0,sigma) Y <- rnorm(1000,0,sigma) R <- sqrt(X^2+Y^2) hist(R, freq=F) curve(as.numeric(lapply(x,function(x){(1/(2*3.14159*sigma^2))*exp(-(x^2)/(2*sigma^2))})) col='blue',add=T,lty=5,lwd=2) به نظر می‌رسد که این واقعیت را در نظر نمی‌گیرد که حلقه‌های دور دور محیط بیشتری دارند و به نظر من شهودی است که بیشترین چگالی احتمال r برابر با انحراف استاندارد مشترک X و Y باشد.
PDF برای جابجایی خالص دو متغیره معمولی X و Y
28284
یکی از راه‌های محاسبه اهمیت یک متغیر در رگرسیون، دریافت کاهش $RSS$ زمانی است که مدلی را بدون متغیر مورد نظر محاسبه می‌کنیم. آیا این برای رگرسیون با خطاهای ARIMA معتبر است؟ فرض کنید من می‌خواهم سه معیار را دریافت کنم: 1. اهمیت رگرسیور خارجی 2. اهمیت ضرایب ARIMA 3. اهمیت ضرایب ARIMA فصلی آیا اگر $RSS$ اصلی را با $RSS$ مدل‌های زیر مقایسه کنم، کاهش در $RSS$ خواهد بود. نشان دهنده اقداماتی است که در بالا لیست کردم؟ 1. $ARIMA(p,d,q)(P,D,Q)$ بدون رگرسیور خارجی 2. $ARIMA(0,0,0)(P,D,Q)$ با رگرسیور خارجی 3. $ARIMA(p ,d,q)(0,0,0)$ با رگرسیون خارجی
اهمیت متغیرها در رگرسیون با مدل خطاهای ARIMA
62102
من یک مجموعه داده (بزرگ) دارم که در آن، برای هر مشاهده، زمان عزیمت و رسیدن یک کارگر (بین 0 تا 24، به صورت اعشاری) را می دانم: ID Departure_time Arrival_time 0001 07.00 08.25 0002 07.55 08.20 0.5 0003 ... .. ... من می توانم طرح چگالی departure_time (یا ورود_time) به راحتی: ggplot(df, aes(x=Departure_time)) + geom_density(adjust=.5) من می خواهم چگالی کارگرانی را که برای یک زمان معین سفر می کنند رسم کنم (برای هر لحظه، تعداد کارگرانی که در محل کار نیستند (قبل از زمان ورود) اما خانه را ترک کرده اند (بعد از زمان خروج).
ترسیم فاصله بین دو زمان
52517
تا آنجا که من متوجه شدم، R-Squared توضیح می دهد که مدل چقدر مشاهدات را پیش بینی می کند. R-Squared تنظیم شده آن چیزی است که مشاهدات (یا درجات آزادی) بیشتری را در نظر می گیرد. بنابراین، Adjusted R-squared مدل را بهتر پیش بینی می کند؟ پس چرا این کمتر از R مربع است؟ به نظر می رسد اغلب باید بیشتر باشد. ممنون میشم اگه کسی بتونه اشاره کنه که من کجای این فرضیه رو اشتباه کردم.
چرا R-squared تنظیم شده کمتر از R-squared است اگر R-squared تنظیم شده مدل را بهتر پیش بینی می کند؟
103715
سلام من دو سوال در رابطه با سوال قبلی دارم که اینجا پرسیدم: Simplex Random Walk در این لینک نحوه اجرای یک پیاده روی تصادفی روی سیمپلکس توضیح داده شده است. http://en.wikipedia.org/wiki/User:Skinnerd/Simplex_Point_Picking می گوید که این روش به طور موثر $x_{new}$ را از یک متغیر تصادفی گاما با میانگین $x_{old}$ و انحراف استاندارد $ نمونه برداری می کند. h*x_{old}$. اولین سوال من این است که چرا میانگین $x_{old}$ خواهد بود؟ طبق پاسخ به سوال قبلی من، توزیع پیشنهاد یک log- نرمال با پارامترهای $(\ln(x_{old})،h)$ است. ویکی می گوید که میانگین توزیع log-normal $e^{\mu + \frac{\sigma^2}{2}}$ است که به $e^{\ln(x_{old}) + \ frac{h^2}{2}} = x_{old}e^{\frac{h^2}{2}}$. آیا من چیزی را از دست داده ام؟ سوال دوم من این است: چه راه های دیگری برای انجام پیاده روی تصادفی روی سیمپلکس وجود دارد؟ آیا روش استاندارد وجود دارد؟ من سعی کردم جستجو کنم اما کنجکاو هستم که آیا چیزی را از دست داده ام. برای هر کمکی متشکرم
میانگین پیاده روی تصادفی ساده
67557
من سعی کردم از «lme()» برای بدست آوردن مقادیر واریانس intercept و «Residual» با استفاده از یک مجموعه داده بسیار ساده با فقط 2 مقدار x و y استفاده کنم. چندین مقدار 'y' برای هر مقدار 'x' وجود دارد و آنها در یک قاب داده ای ذخیره می شوند که دارای 2 ستون است: x، y با x دارای مقادیر تکراری/تکرار. در اینجا مجموعه داده ای است که من استفاده کردم: x <-c(1,1,1,1,2,2,2,2,3,3,3,4,4,4,4,5,5,5 ,5,6,6,6,6,7,7,7,7,8,8,8,8) y<-c(23,56,34,12,13,54,34,78,34,24,45,11,92,37,82,17,26,39,32,56,43,27,83 ,58,32,67,45,34,67,34,36,32) lmeDemoFrame<- data.frame(x=factor(x)، y=y) سپس مدل را با استفاده از: library(nlme) lmeDemo <- lme(y~1، data=lmeDemoFrame، تصادفی=~1|x، زیر مجموعه=! .na(y)) answr<- as.numeric(VarCorr(lmeDemo)[,1]) 'answr' واریانس رهگیری را به عنوان 2.433034e-06 اما «واریانس باقیمانده» برگردانده شده 461.7974 است. من مقدار واریانس کم (بین تغییرات گروهی) را درک می کنم زیرا برای همه مقادیر محور x، حداقل واریانس در مقادیر محور y وجود دارد، اما چرا «lme()» چنین واریانس باقیمانده بالایی را برگرداند؟ همه مقادیر استفاده شده برای y بین 10 تا 85 است. آیا به دلیل تفاوت در مقدار x یکسان است، به عنوان مثال. برای x=2، y = 13، 54، 34، 78 و برای x=3، من y= 92،37،82، 17 داریم؟ این یک سوال برنامه نویسی نیست. من با مدل‌های ترکیبی بسیار جدید هستم و از این رو می‌خواهم توضیح ساده‌ای درباره منطق پشت واریانس باقیمانده بالا که برای این مجموعه داده و سایر مجموعه‌های داده‌ای که استفاده می‌کنم دریافت کنم، ارائه دهم. هر گونه بازخورد سریع در مورد منطق بسیار قدردانی می شود. با تشکر
lme() - واریانس نادرست Residual (در داخل گروه) را برمی گرداند
59190
همانطور که در عنوان ذکر شد، من به دنبال راه های جایگزینی برای تطبیق داده های خود در یک خط مستقیم هستم. رویکرد فعلی من حداقل فیتینگ Chi-Square است، اما خطاهای نسبی پیش بینی شده برای شیب بیش از 100٪ است. به نظر من دلایلی برای آن وجود دارد: الف) من فقط پنج نقطه داده برای جا دادن دارم. ب) این پنج نقطه داده دارای خطاهای بسیار بزرگی هستند (خطای نسبی حدود 20%). برای روشن شدن موضوع، داده ها را در انتهای این پست پیوست کردم. آیا روش‌های دیگری برای برازش داده‌ها توسط یک تابع خطی می‌شناسید که برای این مشکل بدتر مناسب‌تر است؟ از آنجایی که این اولین پست من در اینجا و مخصوصا اولین پست من در مورد علم است، امیدوارم سوالم را درست بیان کرده باشم. پیشاپیش از شما متشکرم داده ها (x، y، خطای y) $0.025 \qquad 0.66 \qquad 0.14$0.099 $\qquad 0.72 \qquad 0.14$0.220 \qquad 0.78 \qquad 0.14$0.390$4q. $0.620 \qquad 0.83 \qquad 0.14$
جایگزین هایی برای حداقل چی مربع برای تناسب با یک خط مستقیم،
67881
من در GARCH تازه کار هستم، اما داده های روزانه رتبه بندی تلویزیون را دارم. من سعی کرده ام این را برای آینده پیش بینی کنم، و یک پس زمینه سریع - داده ها غیر ثابت هستند، فصلی بالایی دارند (هفتگی، ماهانه و سالانه). من UCM را امتحان کرده‌ام، اما پیش‌بینی داده‌های هفتگی با استفاده از UCM آسان‌تر است و سطح روزانه پیش‌بینی‌ها باعث کاهش نمی‌شود. این زمانی بود که به GARCH روی آوردم تا ببینم آیا می توانم به سرعت تخمین های سطح بالایی را در آینده به دست بیاورم. من در تلاش برای بدست آوردن پیش‌بینی‌ها برای «میانگین مشروط» و «واریانس شرطی» برای دوره‌های t در آینده گیر کرده‌ام. من تخمین‌هایی را برای مدل GARCH(1،1) دارم، اما در تلاش برای پیش‌بینی این سری در آینده گیر کرده‌ام. y(t) = ثابت + AR(1) coeff*y(t-1) + u(t) h(t) = ARCH0 + ARCH1*u(t-1) + GARCH1*h(t-1) اما من نتوانسته‌ایم این را برای بدست آوردن مقادیر میانگین و واریانس شرطی پیش‌بینی‌شده پیاده‌سازی کنم، و واقعاً راهنمای گام به گام کاملی را در جایی پیدا نکرده‌ایم! من در GARCH تازه کار هستم، بنابراین، حدس می‌زنم این ممکن است بسیار ابتدایی باشد، اما هر کمکی قابل قدردانی است. ممنون آرون
چگونه می توانم یک سری زمانی از داده ها را با استفاده از GARCH(1,1) پیش بینی کنم؟
103712
در این آزمایش ما نمونه‌های $N$ جمع‌آوری می‌کنیم و هر نمونه یک جفت منحنی بقا به دست می‌دهد. فرض بر این است که دو منحنی بقا تا زمان $t$ یکسان بوده و پس از آن واگرا می شوند. روش مناسبی که با آن بتوان چنین نقطه $t$ را تخمین زد و از نظر آماری تایید کرد، چیست؟
چگونه می توان نقطه واگرایی بین دو منحنی بقای پیوسته زمانی را تخمین زد؟
103711
من تعجب می کنم که چه روش های آماری را می توان در سناریوی زیر استفاده کرد: من مجموعه ای از 1000 شناسه دارم که از آنها دو زیر مجموعه مثلاً 80 و 100 عنصر ایجاد می کنم. آنها زیرمجموعه های غیر تصادفی هستند، اما خروجی از برخی تحلیل های بالادستی دیگر هستند. سپس متوجه می شوم که 60 عنصر در دو زیر مجموعه تلاقی می کنند. چگونه می توانم ببینم که این عناصر از دو فهرست فرعی چقدر به طور تصادفی با هم همپوشانی دارند؟ (بدیهی است که من احساس می کنم که آنها ندارند ... که اگر فقط 10 عنصر در تقاطع باشند متفاوت خواهد بود).
مقایسه دو انتخاب غیر تصادفی از یک مجموعه
59192
من یک سوال در مورد خروجی از {car} Anova دارم. من می خواهم یک ANOVA اندازه گیری های مکرر 2x2 ساده را با استفاده از رویکرد چند متغیره اجرا کنم. من می توانم مثال (تغییر شده) را از صفحه راهنمای Anova {car} اجرا کنم: مرحله <- factor(rep(c(پیش آزمون، پس آزمون، پیگیری)، c(5، 5، 5))، سطوح =c(پیش آزمون، پس آزمون، پیگیری)) ساعت <- ordered(rep(1:5، 3)) idata <- data.frame(فاز، ساعت) idata mod.ok <- lm(cbind(pre.1, pre.2, pre.3, pre.4, pre.5, post.1, post.2, post.3, post.4, post.5, fup.1, fup. 2, fup.3, fup.4, fup.5) ~ 1, data=OBrienKaiser) (av.ok <- Anova(mod.ok, idata=idata, idesign=~فاز*ساعت) ) b<-summary(av.ok) که خروجی زیر (کوتاه شده) را می دهد. 7260.0 1 603.33 15 180.4972 9.100e-10 *** فاز 167.5 2 169.17 30 14.8522 3.286e-05 *** ساعت 106.3 4 73.71 60 21.6309 4.360e-11 *** فاز 14.8522 11.21. 0.2245 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 تست‌های Mauchly برای آزمون کرویت آمار p-value فاز 0.086304 ساعت 0.11516 0.000130.11516 0.00071 0.027376 اصلاحات Greenhouse-Geisser و Huynh-Feldt برای خروج از Sphericity GG eps Pr(>F[GG]) فاز 0.77202 0.0001891 *** ساعت 0.49842 1.578e-029 *** 1.578e-02906.705.50. --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 HF eps Pr(>F[HF]) فاز 0.84367 0.0001089 *** ساعت 0.57470 3.161e-0 فاز: ساعت 0.73031 0.2439922 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 با این حال، با داده های من (به پایین مراجعه کنید) خروجی گلخانه-Geisser وجود ندارد: h2 <- structure(A1neg = c(-8.427556992، 1.20452559، -14.331842422، -10.428559303، 1.750265002، 9.388166428، 0.790130436، -1.592002392، 0.539065838، -337. 8.391399384)، B1neg = c(-12.188085556، -1.964554906، -12.247328758، -7.326891422، -0.961694896، -1.01255453، -1.01255453. 0.173920691، 1.876976371، -9.11947155، -1.706287026، A1pos = c(-0.660317183، 3.498036146، 22.003214249، 22.003214249، 22.00324249. -3.124288321، 11.968006134، 5.838645935، 5.140467644، 5.154311657، 2.298083067، 1.164232969، 1.164232969، 1.164232969، 1.164232969، 1.164232969 (1.164232969)، B1645965 = 8.8. -1.550003886، 45.990013123، 15.915545464، -1.67797184، 7.565258026، 10.635170937، 12.769438744، 12.769438744، 12.769438744، 821 4.544145107، 0.230011433))، .Names = c(A1neg، B1neg، A1pos، B1pos)، class = data.frame، row.names = c(1، 11، 21، 31، 41، 51، 61، 71، 81، 91، 101)) شرط <- ordered(rep(c(A، B)، c(2))، level=c(A، B)) reg <- factor(rep(c (neg، pos)، c(2،2))، level=c(neg، pos)) idata<-data.frame(شرایط، reg) idata mod.ok<-lm( cbind( A1neg,B1neg,A1pos,B1pos) ~ 1, data=h2) (av.ok<-Anova(mod.ok, idata=idata, idesign=~condition*reg)) خلاصه (av.ok) این نشان می دهد: نوع تک متغیره III ANOVA اندازه گیری های مکرر با فرض کرویت SS num Df خطا SS den Df F Pr(>F) (Intercept) 233.35 1 995.14 10 2.3449 0.15669 condition 3.32 1 373.00 10 0.0891 0.77143 reg 1220.66 1 2137.7 2139.7 2137. condition:reg 62.48 1 176.90 10 3.5318 0.08963 . --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 > آیا ایده‌ای دارید، چه مشکلی پیش آمده است؟
R: گلخانه-Geisser در Anova از بسته خودرو
67889
در مقاله Oh & Berry (2009)، ص. 1506، در یادداشت جدول 2، یک آمار مشخص استفاده شده است: روایی عملیاتی (واقعی) همبستگی تخمینی LISREL است که برای خطای اندازه گیری در معیار معیار تصحیح شده است. استفاده می شود (چرا فقط از ضرایب مسیر مانند مدل معادلات ساختاری استاندارد استفاده نمی شود؟)، و ج) چگونه این آمار را تفسیر کنیم؟ ### مرجع Oh, I.-S., & Berry, C. M. (2009). مدل پنج عاملی شخصیت و عملکرد مدیریتی: اعتبار از طریق استفاده از رتبه‌بندی عملکرد 360 درجه به دست می‌آید. مجله روانشناسی کاربردی، 94 (6)، 1498-513. doi: 10.1037/a0017221
اعتبار عملیاتی (واقعی) چیست؟
30576
مجموعه داده من شامل متغیرهای دو سطحی است، مثلا افراد و مناطق. هر سطح دارای ویژگی هایی است. توجه داشته باشید که ویژگی های level2 در هر سطح2_ID تکرار می شوند. example_data <- data.frame(level1_ID = c(1، 2، 3، 4، 5)، level1_depend = c(17، 32، 27، 30، 31)، level1_feat1 = c(21، 45، 25، 34، 32 ، level1_feat2 = c(32، 67، 35، 41، 43)، level2_ID = c(1، 1، 2، 2، 2)، level2_feat1 = c(27، 27، 32، 32، 32)، level2_feat2 = c(11، 11، 14، 14، 14)) می خواهم اضافه کنم ویژگی های سطح 2 به عنوان پیش بینی کننده در مدل نیز هست. اضافه کردن آنها به عنوان بلوک در مدل مانند این: lmer(level1_depend ~ level1_feat1 + level1_feat2 + (level2_feat1 | level2_ID)، داده = example_data) به نظر درست نیست، زیرا ویژگی های level2 در هر مقدار level2_ID ثابت هستند. چگونه می توانم ویژگی های سطح 2 مناسب را اضافه کنم؟ با تشکر برای کمک!
چگونه ویژگی های سطح 2 را به یک رگرسیون چند سطحی اضافه کنیم؟
27027
من مجموعه‌ای از امتیازات را در یک مجموعه داده خاص دارم که توسط ارزیاب‌های انسانی ارائه شده است، بگذارید آن را «HJ» بنامیم. من همچنین امتیاز دو مدل کامپیوتری را در مجموعه داده **همان** دارم، بیایید این مجموعه ها را M1 و M2 بنامیم. من ضرایب اسپیرمن را برای «(HJ,M1)» و «(HJ,M2)» محاسبه کرده‌ام که نشان می‌دهد «M2» به قضاوت‌های انسانی نزدیک‌تر از «M1» است. اکنون از من خواسته شده است تا دریابم که آیا **تفاوت** بین این دو ضریب rho از نظر آماری معنی دار است یا خیر. دانش آماری من محدود است، بنابراین هرگونه کمکی در مورد اینکه چگونه می توانم این کار را انجام دهم بسیار قدردانی خواهد شد. ویرایش: در کتاب «تحلیل رگرسیون/همبستگی چندگانه کاربردی برای علوم رفتاری» (کوهن و کوهن، 1975)، فرمول آماری $t$ را برای مواردی که در بالا توضیح دادم یکسان است، اما برای ضرایب _پیرسون_ یافتم: $$ t=\frac{(r_{XY}-r_{VY})\sqrt{(n-3)(1+r_{XV})}}{\sqrt{2(1-r^2_{XY}-r ^2_{VY}-r^2_{XV}+2r_{XY} r_{XV} r_{VY})}} $$ که در آن $r_{XY}$ همبستگی بین $X$ و $Y$ و $n$ حجم نمونه است. آیا این برای همبستگی های رتبه ای نیز قابل استفاده است؟ برای یک تست $t$-2 دنباله، نتایج متفاوتی نسبت به تست جایگشت پیشنهاد شده توسط گرگ در زیر می‌دهد (در صورتی که چیزی بی‌اهمیت بپرسم، لطفاً نادانی من را ببخشید).
محاسبه معناداری آماری بین ضرایب اسپیرمن وابسته
23737
من مقالات مختلفی در مورد فرآیندهای گاوسی و کتاب کارل نیز خوانده ام، متوجه شده ام که آنها گاهی اوقات به بهینه سازی پارامترها با حداکثر کردن احتمال حاشیه ای اشاره می کنند و در زمینه های دیگر از آن به عنوان بهینه سازی با حداقل کردن -ve log marginal lilihood یاد می کنند! آیا تفاوتی بین این دو وجود دارد؟ یا هر دو یک حیوان هستند؟
بهینه سازی هیپ فرآیند گاوسی
66684
من سعی کردم با جستجو در این سایت و سایت های دیگر جواب خوبی برای این موضوع پیدا کنم، اما نشد، پس اگر چیزی شبیه به آن پاسخ داده شد، ببخشید. من یک رگرسیون خطی با یک متغیر مستقل **X** = [ _X1_ ,..., _Xi_ ,..., _Xn_ ] و یک متغیر وابسته **Y** = [ _Y1_ ,..., _Yi_ انجام می دهم. ,..., _Yn_ ]. هر متغیر _Xi_ نتیجه یک محاسبه بر اساس آرایش فضایی دو مجموعه از چیزها (_A_ و _B_) در میدان دید _i_ است. به طور خاص، چیزی که من محاسبه می‌کنم «درجه اختلاط» بین _A_ و _B_ است (خیلی مختلط مانند یک تخته شطرنجی در مقابل بسیار جدا است که در آن همه _A_ در یک طرف و همه _B_ در سمت دیگر هستند). برای هر فیلد _i_ من _Xi_ را دارم که درجه اختلاط در آن میدان است، و _Yi_ را دارم که یک متغیر وابسته از آن میدان دید است که وابستگی نسبتا قوی به _Xi_ نشان می دهد. برای مجموعه داده های مختلف، R^2 برای این از 0.3 تا 0.6 است، و من یک شیب مثبت (بتا) دارم. در حالی که این مقادیر R^2 بسیار خوب هستند، من می‌خواهم آزمایشی را در برابر فرضیه صفر انجام دهم که بتا در واقع 0 است. اگر یک آزمایش جایگشت روی داده‌ها انجام دهم احساس بهتری دارم زیرا مطمئن نیستم که آیا واقعاً داده‌هایم وجود دارد یا خیر. منطبق بر برخی از مفروضات عادی است که برای آزمایش آن با روش های پارامتری نیاز دارم. فکر می‌کنم که می‌دانم چگونه یک آزمایش جایگشت معمولی انجام دهم، که در آن Xi_ها را با _Yj_های تصادفی مرتبط می‌کنم، و نگاه می‌کنم تا ببینم چه نسبتی از زمان‌هایی که به‌طور تصادفی بتای بیشتری از بتای واقعی خود دریافت می‌کنم. برای این آزمون من امیدوار بودم که کاری کمی متفاوت انجام دهم. بگویید من 80 نقطه (با مختصات _x_، _y_) در یک میدان دید دارم، 50 _A_ و 30 _B_. من می‌خواهم به‌طور تصادفی این 50 _A_ و 30 _B_ را به 80 نقطه (_x_, _y_) تخصیص دهم و میزان اختلاط را در این میدان دید درهم _Xi_ * دوباره محاسبه کنم. سپس، می‌خواهم بتای **Y** در مقابل **X*** را که در آن **X*** = [ _X1_ *،...، _Xi_ *،...، _Xn_ *] دوباره محاسبه کنم. من یک شبیه سازی از این را اجرا کرده ام که در آن 200 دور درهم آمیختگی _A_ و _B_ را انجام می دهم و سپس بتا را دوباره محاسبه می کنم. نگرانی من در این مرحله این است که چگونه کاری را که انجام داده ام به درستی بیان کنم و چگونه یک مقدار p را بدست آوریم. کمی متفاوت از آزمون جایگشت عادی است، که در آن شما متغیر مستقل _Xi_ یک مشاهده i را به متغیر وابسته _Yj_ مشاهده دیگری j اختصاص می دهید. من هنوز _Xi_ را با _Yi_ نگه می دارم، فقط محاسبه _Xi_ بر اساس جابجایی داده های زیرین در i انجام می شود و به _Xi_ * می دهیم. شاید این فقط اتلاف وقت باشد و تست جایگشت طبیعی بهتر باشد. خوشحال می شوم در صورت نیاز هر نکته ای را روشن کنم و هر گونه ارجاع، نظر یا توصیه ای بسیار قابل قدردانی خواهد بود!
تست جایگشت جایی که Xi با یی می ماند، اما محاسبه ای که به Xi منجر می شود جایگشت می شود
66686
من Open nlp NER را برای استخراج نام سازمان ها با موفقیت چندانی امتحان کردم (ممکن است مدل برای دامنه ای که من کار می کنم مناسب نباشد). بنابراین، من در حال برنامه ریزی برای آموزش Open NLP NER بر روی داده های آموزشی خود هستم. نکته ای که من در آن گیر کرده ام، حاشیه نویسی متن است. من در اینترنت جستجو کردم و متوجه شدم که GATE، Knowtator، BART و غیره، اما راه اندازی آنها در دستگاه مکان یابی پیچیده است، و همچنین مطمئن نیستم که از کدام ابزارها توسط انجمن Open NLP برای این کار استفاده می شود. لطفاً کسی می تواند به من کمک کند تا به ابزار Annotation خوب و هر مرجعی در مورد نحوه استفاده از آنها برای این منظور اشاره کند؟
ابزارهای حاشیه نویسی متن
27020
من داده‌های زمان واکنش را با استفاده از مدل‌سازی اثر ترکیبی در R تجزیه و تحلیل می‌کنم. داده‌ها از 2 نوع گروه شرکت‌کننده می‌آیند: گویشوران بومی و غیر بومی. برای افراد غیر بومی نمره مهارت دارم (تخمین تسلط آنها بر زبان انگلیسی). مهارت سخنرانان بومی نامربوط است و با کد NA کدگذاری شده است. آیا این بدان معناست که lmer مهارت را فقط برای افراد غیر بومی زبان در نظر می گیرد؟ 'data.frame': 8373 obs. از 17 متغیر: $Subject : Factor w/ 21 level $L1 : Factor w/ 3 level English، German،...: $Proficiency : Factor w/ 12 level:0,0.6،0.61 ،..: 8 8 8 8 8 8 8 8 8 8 ... $Target : Factor w/ 243 level $رابطه : فاکتور w/ 4 سطح $Word.Order : ضریب w/ 2 سطح HeadMod*, ModHead $Priming : Factor w/ 2 سطح PrHead,PrMod $Trial : Factor w/ 481 سطح $ Target.RTinv: num من نگران هستم که وقتی Proficiency را به مدل خود اضافه می کنم، AIC و BIC منفی می شوند. آیا این موضوع جای نگرانی دارد؟ مدل‌ها: dat.lmer5: -1000 * Target.RTinv ~ (1 | موضوع) + (1 | هدف) + L1 + Word.Order + Priming dat.lmer8: -1000 * Target.RTinv ~ (1 | موضوع) + ( 1 |. هدف) + L1 + Word.Order + Priming + Proficiency Df AIC BIC logLik Chisq Chi Df Pr(> Chisq) dat.lmer5 8 1859.68 1915.92 -921.84 dat.lmer8 17 -438.62 -329.59 236.31 2316.3 9 < 2.2e-16 ***
مدل‌سازی اثر مختلط شامل عامل با NA
45231
اجازه دهید $X \sim \mathrm{Binomial} (n, p_1)$ و $Y \sim \mathrm{Binomial} (n, p_2)$ با $n، p_1$ و $p_2$ شناخته شده و $p_1 <p_2$ . احتمال اینکه مقدار نمونه $x$ که از $X$ گرفته شده است کوچکتر از مقدار نمونه $y$ باشد که از $Y$ گرفته شده است چقدر است؟ یعنی $P(X<Y)$ چیست؟
احتمال اینکه مقدار نمونه از یک توزیع دو جمله ای کوچکتر از مقدار نمونه از دیگری باشد چقدر است؟
35071
برازش رگرسیون لجستیک با استفاده از lme4 به خطا در mer_finalize(ans) ختم می شود: X'X کاهش یافته قطعی مثبت نیست. دلیل احتمالی این خطا ظاهراً کمبود رتبه است. کمبود رتبه چیست و چگونه باید آن را برطرف کنم؟
کمبود رتبه چیست و چگونه با آن مقابله کنیم؟
59228
من با چند صد ابر نقطه سه بعدی که با استفاده از یک اسکنر سه بعدی تولید شده اند کار می کنم و می خواهم بتوانم اشکال آنها را با استفاده از چیزی شبیه به تحلیل procrustes مقایسه کنم. به‌جای تعریف دستی نشانه‌های مشخص برای مقایسه، من امیدوار بودم که کل ابر نقطه هر اسکن را با تمام اسکن‌های دیگر مقایسه کنم تا شباهت هر ابر نقطه را با بقیه مجموعه داده اندازه‌گیری کنم. آیا این امکان پذیر است و اگر چنین است چگونه باید آن را انجام دهم؟ من می خواهم در صورت امکان از R برای انجام این تجزیه و تحلیل استفاده کنم، اگرچه در صورت نیاز به ابزارهای دیگری نیز دسترسی دارم.
تجزیه و تحلیل Procrustes ابر نقطه سه بعدی بدون نشانه های مشخص
61480
من سعی می کنم یک مدل رگرسیون GAM را با استفاده از پیاده سازی «gam» از بسته «mgcv» تخمین بزنم. من یک مدل گاوسی فعال برای پراکندگی و یک پیوند ورود به سیستم برای پیش‌بینی‌کننده‌های خطی دارم، اما خطای >خطا در eval(expr، envir، enclos) را دریافت می‌کنم: مقادیر شروع معتبر را نمی‌توان پیدا کرد: لطفاً مقداری را مشخص کنید. **ویرایش 1** \- نحو دقیق عبارت است از splineWAR <- gam(WAR ~ s(zAge, bs=cr) + s(zAdjProd, bs=cr) + s(zSOPct, bs=cr ) + s(zBBPct، bs=cr)، family=gaussian(link=log)، data = mydata، start=c(0, 0, 0, 0, 0)) من موضوعات مربوطه را اینجا و اینجا خوانده ام اما قادر به اعمال مراحل پیشنهادی برای رگرسیون چندگانه نیستم. به عنوان مثال، وقتی سعی می کنم و مقادیر شروع را برای 5 متغیر در رگرسیون خود تنظیم می کنم (1 وابسته و 4 مستقل) با اضافه کردن آرگومان «start=c(n1, n2, n3, n4, n5)» (که در آن «n» است. 's میانگین متغیر مربوطه است)، من همان خطا را دریافت می‌کنم حتی اگر ظاهراً نحو را دقیقاً از پیوند اول کپی کنم. آیا کسی می تواند پیشنهادی بدهد که در مرحله بعد چه کاری را باید امتحان کنم؟ با تشکر **ویرایش 2** کد موجود در تابع 'gam.fit' که درست قبل از خطا اجرا می شود این است - if (!(validmu(mu) && valideta(eta))) stop(نمی توان مقادیر شروع معتبر را پیدا کرد: لطفا تعدادی را مشخص کنید)
پیوند گزارش GAM بدون مقادیر شروع کار نمی کند
51795
از ویکی‌پدیا > در آمار، کمیت محوری یا محوری تابعی از مشاهدات و پارامترهای غیرقابل مشاهده است که توزیع احتمال آنها به پارامترهای ناشناخته 1 بستگی ندارد (که به آن پارامترهای مزاحم نیز گفته می‌شود). توجه داشته باشید که ** کمیت محوری لازم نیست یک آمار باشد** - تابع و مقدار آن می تواند به پارامترهای مدل بستگی داشته باشد، اما توزیع آن نباید > باشد. اگر آماری باشد، به عنوان یک آمار فرعی شناخته می شود. من نمی فهمم چرا یک کمیت محوری ممکن است یک آمار نباشد؟ یک آمار چگونه تعریف می شود؟ آیا این فقط یک تابع قابل اندازه گیری از متغیرهای تصادفی است و آیا به پارامترهای مدل بستگی ندارد؟ با تشکر و احترام!
چرا یک کمیت محوری لزوما یک آمار نیست؟
61481
ما در حال اجرای تبلیغات هستیم و می‌خواهیم دو فرمول اکسل بسازیم، یکی محاسبه مقدار p برای هر تبلیغ دیگر در مقابل یکی با بالاترین CTR (نرخ کلیک) و دیگری که CPA را با فرمول با کمترین CPA (هزینه به ازای هر تبلیغ) مقایسه می‌کند. کسب). مورد اول دو جمله ای است، فرمول دوم نخواهد بود. بدون هیچ پیشینه ای در آمار، کمی غرق در تلاش برای کشف اینکه از کدام آزمون استفاده کنم، هستم. من ابزارهای آنلاین زیادی برای استفاده دارم، اما به فرمولی نیاز دارم که بتوانم آن را در اکسل پیاده سازی کنم - چیزی که به صورت دسته ای کار می کند. برای این دو کار از چه فرمولی استفاده کنم؟
مناسب ترین آزمون ها برای داده های اهمیت تبلیغات آنلاین
51799
من متغیرهای تصادفی $U,V_1,V_2,V_3$ را دارم و می‌خواهم توزیع‌های زیر را مشخص کنم (نماد جمع به معنای مخلوطی است): $$ U\sim\mathrm{Gamma}(2,3) $$ $$ V_1 \mid U=u,V_2=v_2,V_3=v_3 \sim \frac{1}{2} \mathrm{Poisson}(1+u \cdot v_2) + \frac{1}{2} \mathrm{Poisson}(1+u \cdot v_3) $$ $$ V_2 \mid U=u,V_1=v_1,V_3=v_3 \sim \frac{1 }{2} \mathrm{Poisson}(1+u \cdot v_1) + \frac{1}{2} \mathrm{Poisson}(1+u \cdot v_3) $$ $$ V_3 \mid U=u,V_1=v_1,V_2=v_2 \sim \frac{1}{2} \mathrm{Poisson}(1+u \cdot v_1) + \frac{1}{2} \mathrm{Poisson}(1+u \cdot v_2) $$ دو سوال: 1. چگونه می دانم (و ثابت می کنم) که توزیع مشترک $U,V_1,V_2,V_3$ به طور مداوم توسط این حاشیه ها مشخص می شود؟ 2. چگونه می توانم توزیع $U\mid V_1=v_1,V_2=v_2,V_3=v_3$ را محاسبه کنم؟ اگر راهی برای محاسبه وجود نداشته باشد، آیا می توانم با هر روشی از این توزیع نمونه های تصادفی بگیرم؟ خیلی ممنون.
سازگاری حاشیه ها
74076
فرض کنید شما به طور تصادفی افراد مبتلا به یک بیماری خاص (موارد) را در زمان $T$ شناسایی می کنید، سپس نمونه ای از افراد بدون بیماری را در زمان T$$ (اما در معرض خطر بیماری) در جمعیتی از افرادی که تحت غربالگری معمول برای آن بیماری قرار می گیرند شناسایی می کنید. . کنترل ها به نسبت مشخصی از جمعیت مورد نظر نمونه برداری می شوند. فرض کنید می‌توانید به‌طور گذشته‌نگر تمام اطلاعات غربالگری را در هر دو گروه بررسی کنید و علاقه‌مند به استنباط نرخ غربالگری سطح جمعیت و خطر نسبی بیماری برای تنظیم نرخ‌های غربالگری هستید. در نهایت، برخی از اثرات سطح موضوعی وجود دارد که به نظر شما ممکن است رفتار غربالگری و خطر بیماری را میانجیگری کند. یک مدل احتمال برای فرآیند غربالگری این است: $$t_{i,j} \sim \mbox{نمایی}(\lambda_s; t_{i,j-1})$$ که در آن $\mbox{نمایی}(\lambda , t)$ متغیر تصادفی یک توزیع نمایی جابجایی مکان با پارامتر مکان $t$ است. بنابراین تعداد صفحاتی که شخص در یک بازه زمانی ثابت استفاده می کند دارای توزیع پواسون است. بیماری براساس فرآیند تقریباً نمایی دیگری $$D_i \sim \mbox{نمایی} (\lambda_c)$$ ایجاد می‌شود و از نظر بالینی با غربالگری برای یک بازه زمانی کوتاه، $\theta_{d}$ قابل تشخیص است. بدیهی است $\lambda_s \gg \lambda_c$. شیوع بیماری در جمعیت بسیار نادر است. وضعیت بیماری $D_i(t)$ 1 است اگر آزمودنی دارای غربالگری تشخیص داده شده باشد یا بیماری علامتی در زمان $t$ داشته باشد، در غیر این صورت 0. اثرات زمان متغیر سطح موضوع (سن) را با $X_{i,t}$ نشان می‌دهیم، بنابراین همه $\lambda_c$، $\lambda_s$، و $\theta_d$ به طور مشروط به $X_{i,t}$ وابسته هستند. . این یک نوع تحلیل است که نام آن برای من آشنا نیست. من تمایل دارم آن را کنترل مورد خوشه ای بنامم زیرا مشاهده فردی یک دوره غربالگری منفرد است. با این حال، ما از صفحه نمایش بر اساس وضعیت مورد/شاهد نمونه برداری نکردیم، بلکه افراد را انتخاب کردیم. به دلیل تنوع در زمان هدایت و نرخ‌های غربالگری فردی، موارد بالاتر از نرخ جمعیت و صفحه کنترل‌ها زیر آن نمایش داده می‌شوند. بنابراین وسوسه انگیز است که از نوعی وزن نمونه برداری برای توضیح این موضوع و به دست آوردن یک تخمین بی طرفانه از نرخ غربالگری سطح جمعیت استفاده شود. با این حال، فرکانس موضوع: $$w_i = \left\\{\begin{array}{ccc} 1 & \mbox{if} & D_{i}(T) = 1 \\\ 1/p & \mbox{ if} & D_{i}(T) = 0 \\\ \end{array} \right.$$ به دلیل سوگیری زمان هدایت و غربالگری دیفرانسیل، وزن‌های معتبری تولید نمی‌کند (کنترل‌ها برای مدت طولانی‌تری دنبال می‌شوند از زمان و بنابراین موارد غربالگری بیشتر _و_ سال های فرد را جمع آوری می کند، در حالی که موارد برای زمان های کوتاه تری دنبال می شوند و باز هم فواصل غربالگری بیشتری نسبت به موارد در دوره های زمانی کوتاه تر به دست می آیند، اما در کل نه بیشتر). آیا این حتی یک مشکل قابل شناسایی است؟؟؟
وزن برای داده های همگروهی گذشته نگر
73621
بسیاری از مطالعات فقط رابطه بین دو متغیر (به عنوان مثال معادله خطی یا لجستیک)، $n$ و $r^2$ را گزارش می کنند. من می خواهم از این آمار گزارش شده برای بازتولید این رابطه با تنوع آن استفاده کنم. اکثر نرم افزارهای آماری توزیع پارامتر را از میانگین و خطای استاندارد تولید می کنند. با فرض توزیع نرمال، آیا می توان خطای استاندارد تخمین پارامترها را فقط با این سه آمار محاسبه کرد؟ اساسا، آیا می توانم یک خطای استاندارد از $r^2$ دریافت کنم؟ یا اینکه برای تولید توزیعی که همان $r^2$ را دارد باید نوعی روش بوت استرپ انجام دهم و سپس خطای استاندارد را محاسبه کنم؟ اگر چنین است آیا معادلات بهتری برای معادلات خطی در مقابل غیرخطی وجود دارد؟
خطای استاندارد از ضریب همبستگی
28289
بیایید بگوییم که ما یک حراج آنلاین داریم که در آن فروشندگان شناخته شده مختلف و خریداران شناخته شده محصول X را مبادله می کنند. یک فروشنده محصول X را پست می کند و هر فروشنده پس از آن مطابق با X و اگر آن را بخواهد پیشنهاد می دهد. بالاترین قیمت پیشنهادی برنده X خواهد شد. به چیزی شبیه Ebay فکر کنید، اگرچه حراجی که من به آن فکر می‌کنم تعدادی خریدار_معروف_و_فروشنده_معروف دارد و در بازه زمانی بسیار سریع‌تری (1-2 دقیقه) انجام می‌شود. بدیهی است که عدم قطعیت زیادی وجود دارد که نمی توان آن را در مدلی که سعی می کند احتمال برنده شدن به عنوان یک خریدار را در چنین سناریویی پیش بینی کند، توضیح داد. با این حال، من نمی‌دانستم که برخی از محدودیت‌های _نظری_ و _عملی_ در تلاش برای استفاده از مدل‌های آماری برای پیش‌بینی نتایج در یک سیستم حراج آنلاین که در بالا توضیح داده شد، چیست. ویرایش: من به طور خاص به مدلی فکر می کنم که سعی می کند احتمال برنده شدن را بر اساس پیشنهاد ما به عنوان خریدار پیش بینی کند.
مشکلات نظری با مدل سازی سیستم های حراج
59223
من شروع به انجام یک تحقیق کمی برای پایان نامه خود بدون داشتن SPSS قبلی یا تجربه آماری مناسب کردم و اولین چیزی که استادم در کارگاه spss به ما گفت این بود که شما با اندازه گیری قابلیت اطمینان داده های خود با آزمایش ضریب آلفای کرونباخ شروع کنید. اما وقتی خودم شروع به خواندن در مورد آن کردم، متوجه شدم که آلفای کرونباخ برای تعیین میزان اندازه گیری آیتم های موجود در مقیاس همان بعد زیربنایی استفاده می شود و اینکه در تحقیقات روانشناختی بسیار رایج است که در آن پرسشنامه استفاده می شود. چندین معیار از یک سازه را جمع آوری می کند (مانند خوش بینی یا غیره). اما مطالعه من متفاوت است - من با پایگاه داده ای کار می کنم که اطلاعاتی در مورد شرکت ها و رفتار ثبت اختراع آنها دارد (تعداد اختراعاتی که دارند، آن پتنت ها به کدام صنعت تعلق دارند، تعداد وکلا، مخترعان و غیره) - تا ببینم آیا این اطلاعات وجود دارد یا خیر. (متغیرهای مستقل) می توانند رفتار ثبت اختراع آتی آن شرکت ها (متغیر وابسته) را پیش بینی کنند. بنابراین متغیرهای مستقل من ساختار یکسانی را اندازه‌گیری نمی‌کنند (مثلاً مخترعان با وکیل‌ها یکسان نیستند) و من نمی‌دانم که آیا آزمایش پایایی از طریق آلفای کرونباخ باید در مورد من نیز انجام شود. شاید برای مورد من روش دیگری برای اندازه گیری قابلیت اطمینان وجود داشته باشد؟ من آلفا آن را تست کرده ام و 0.564 است، در حالی که آلفای استاندارد شده 0.804 است. همه متغیرهای من عددی هستند اما کدگذاری نشده اند (اعداد در برخی از متغیرها از 0 تا چند هزار متغیر است)، بنابراین معتقدم کدگذاری آنها به چیزی استانداردتر (مانند 0،1،2،3) نتایج بهتری به همراه خواهد داشت. نظر شما در این مورد؟). اما قبل از شروع این کار، می خواستم ببینم که آیا اصلاً لازم است آلفا را در موردم آزمایش کنم یا خیر. پیشاپیش از شما متشکرم و اگر سوالی داشتید به من اطلاع دهید.
آیا همیشه پایایی را از طریق ضریب آلفای کرونباخ اندازه گیری می کنید؟ یا راه دیگه ای هست؟ (رگرسیون خطی چندگانه)
73623
من سعی می کنم درک بهتری از تخمین چگالی هسته به دست بیاورم. با استفاده از تعریف ویکی‌پدیا: https://en.wikipedia.org/wiki/Kernel_density_estimation#Definition $ \hat{f_h}(x) = \frac{1}{n}\sum_{i=1}^n K_h ( x - x_i) \quad = \frac{1}{nh} \sum_{i=1}^n K\Big(\frac{x-x_i}{h}\Big) $ بیایید $K()$ را به عنوان یک تابع مستطیل شکل در نظر بگیریم که اگر $x$ بین 0.5-$ و 0.5$ و 0$ باشد $1$ به دست می دهد. در غیر این صورت، و $h$ (اندازه پنجره) 1 باشد. من می‌دانم که چگالی ترکیبی از دو تابع است، اما مطمئن نیستم که چگونه این دو تابع را تعریف کنم. یکی از آنها باید (احتمالا) تابعی از داده باشد که برای هر نقطه در R به ما می گوید که چند نقطه داده در آن مکان داریم (عمدتاً 0 دلار). و تابع دیگر احتمالاً باید تغییراتی در عملکرد هسته، همراه با اندازه پنجره باشد. اما من مطمئن نیستم که چگونه آن را تعریف کنم. پیشنهادی دارید؟ در زیر یک مثال R کد وجود دارد که (من گمان می‌کنم) تنظیماتی را که در بالا تعریف کردم (با ترکیبی از دو گاوسی و $n=100$) تکرار می‌کند، که امیدوارم شاهد اثباتی باشم مبنی بر اینکه توابعی که باید پیچیده شوند به این صورت هستند. ما مشکوک هستیم # کد مثال: set.seed(2346639) x <- c(rnorm(50)، rnorm(50,2)) plot(density(x، هسته = 'مستطیل'، عرض=1، n = 10**4) ) rug(x) ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/pEjMp.png)
تخمین چگالی هسته پیچیدگی چیست؟
32506
> **تکراری احتمالی:** > تفسیر پیش‌بینی‌کننده‌های تبدیل‌شده ورود به سیستم در رگرسیون لجستیک > آیا پیش‌بینی‌کننده‌های کمی باید تبدیل شوند تا به طور معمول توزیع شوند؟ من به یک توصیه کلی امیدوار بودم. من از STATA برای انجام یک رگرسیون لجستیک باینری با چندین متغیر مستقل استفاده می کنم. بسیاری از اینها مقوله ای هستند به جز یکی که یک متغیر پیوسته است. من قبلاً متوجه شده ام که این متغیر به طور معمول توزیع نشده است و بنابراین log10 آن را تبدیل کرده ام. در تجزیه و تحلیل رگرسیون خود، از مقادیر تبدیل شده به سیستم پیوسته استفاده کرده ام و نسبت شانس 3 را دریافت کرده ام. هر نظر یا توصیه ای واقعا قدردانی خواهد شد. با تشکر
تفسیر نسبت‌های شانس با متغیرهای پیوسته تغییر شکل یافته در یک رگرسیون لجستیک
78903
![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/bRvuv.png) ![شرح تصویر را اینجا وارد کنید](http://i.stack.imgur.com/vZEvK.png) متغیرها در این رگرسیون ها عبارتند از: gpi: سرمایه گذاری خصوصی ناخالص gps: سال پس انداز خصوصی ناخالص، متغیرهای ساختگی: recession81، recession07 من دارم gpi رگرسیون در gps سال recession81 recession07 من همچنین gps را در gpi سال recession81 recession07 رگرسیون کرده‌ام ابتدا فکر می‌کنم gpi را به عنوان متغیر وابسته داشته باشم اما رگرسیون درست به نظر نمی‌رسد. من فکر می کنم gpi وابسته است زیرا به پس انداز بستگی دارد. فرد آنچه را که پس از انجام تعهدات باقی می‌ماند سرمایه‌گذاری می‌کند و مبلغ معقولی را برای مواردی مانند موارد اضطراری پس‌انداز می‌کند، سپس می‌تواند سرمایه‌گذاری کند. با این حال، این رگرسیون درست به نظر نمی رسد. هیچ متغیری به جز gps از نظر آماری معنی دار نیست. بعد، وقتی gpi متغیر وابسته است چرا سال و رکود81 منفی است؟ فکر می‌کنم مردم سال به سال بیشتر سرمایه‌گذاری می‌کنند و همچنین در زمان رکود کمتر سرمایه‌گذاری می‌کنند. اگر من از gps به عنوان متغیر وابسته استفاده کنم، منطقی نیست زیرا پس انداز به دلایل بالا به سرمایه گذاری بستگی ندارد. با این حال، در این رگرسیون همه متغیرها از نظر آماری معنی‌دار هستند و علائم ضرایب با تئوری صحیح به نظر می‌رسد. هیچ کمکی؟
سوال در مورد این دو رگرسیون از Stata
30578
من از k-means برای خوشه‌بندی جملات با توجه به برچسب‌های قسمت گفتار کلمات در یک جمله استفاده می‌کنم و تجسم خوبی و قابل درک از نتیجه را دارم، اما در تلاش برای یافتن یک روش خوب هستم. برای تعیین کمیت نتیجه نقطه شروع من مقاله ای از داوتی است که فرض می کند مجموعه ای ثابت از مضامین افعال (مانند علیت، حرکت) وجود دارد که ظاهراً از نظر معنایی و نحوی متفاوت هستند. برای بررسی این ادعا، من خوشه‌بندی k-means (k=8) را روی مجموعه بزرگی از جملات برچسب‌گذاری شده در بخش گفتار انجام داده‌ام. سپس، تعداد کمی (~50) جملات را از هر یک از خوشه های به دست آمده برداشتم، آنها را به هم ریختم و با دست برچسب زدم. با این کار، تجسم زیر را از تخصیص برچسب در هر خوشه انجام دادم: ![نمودار تکالیف خوشه](http://i.stack.imgur.com/AQKKV.png) اکنون چیزی که به دنبال آن هستم راهی برای محاسبه است. کیفیت / سودمندی نتیجه خوشه بندی با توجه به توزیع برچسب ها. من به دنبال مقداری هستم که زمانی که اکثر برچسب‌ها به تعداد کمی از خوشه‌ها ختم می‌شوند، باید بالا باشد، و زمانی که برچسب‌ها به طور مساوی روی خوشه‌ها توزیع می‌شوند، 0 باشد. من آنتروپی شانون را بررسی کرده‌ام، اما مطمئن نیستم که از نظر مفهومی به دنبال آن هستم یا نه، و مطمئن نیستم به کجا نگاه کنم. هر سرنخ بسیار قدردانی خواهد شد!
معیار ارزیابی کمی نتایج خوشه‌بندی kmeans
67882
#هدف * برای آزمایش اینکه کدام پایه قدرت در فرآیند انطباق [چیزی] در رابطه خریدار-عرضه کننده بهترین عملکرد را دارد. مبانی قدرت: 1. **قدرت پاداش** مبتنی بر این برداشت نهاد تحت تأثیر است که نهاد تأثیرگذار «توانایی واسطه کردن پاداش برای او را دارد». 2. **قدرت قهری** مبتنی بر این برداشت نهاد تحت تأثیر است که نهاد تأثیرگذار «قابلیت میانجیگری مجازات برای او را دارد». 3. **قدرت مشروع** مبتنی بر این برداشت نهاد تحت تأثیر است که نهاد تأثیرگذار «حق مشروعی دارد که برای او رفتار تجویز کند». 4. **قدرت مرجع** مبتنی بر تمایل نهاد تحت تأثیر برای ارتباط با نهاد تأثیرگذار است. 5. **قدرت خبره** مبتنی بر این برداشت نهاد تحت تأثیر است که نهاد تأثیرگذار «دارای دانش یا تخصص خاصی است» که برای او مفید یا ضروری است. پایه‌های قدرت را می‌توان در پایه‌های قدرت _سخت و نرم طبقه‌بندی کرد. بیایید بگوییم: ======================= نرم سخت ----------------------- متخصص کارشناس قانونی مرجع اجباری ====================== ## فرضیه ها اکنون می خواهم پشتیبانی آماری برای فرضیه های زیر بر اساس این چارچوب پیدا کنم: **H1a:** هرچه تامین کننده قوی تر به خریدار خود وابسته باشد، احتمال تجربه پایه های قدرت _سخت بیشتر است. **H1b:** هر چه تامین کننده کمتر به خریدار خود وابسته باشد، احتمال تجربه پایگاه های قدرت _نرم بیشتر خواهد بود. **H2a:** تأمین‌کننده‌ای که پایه برق _سخت را تجربه می‌کند، احتمالاً در صورت درخواست، خریدار [چیزی] را تطبیق می‌دهد. **H2b:** تامین‌کننده‌ای که پایگاه قدرت _نرم را تجربه می‌کند، احتمالاً در صورت درخواست، از خریدار [چیزی] خودداری می‌کند. # رویکرد اکنون از آنجایی که فرض می‌کنم یک رابطه علی بین چهار متغیری که دارم وجود دارد، واسطه‌گری را برای آزمایش فرضیه‌های H1a-H2b مناسب می‌دانم (هیز، 2009). بنابراین من مدل زیر را ایجاد کردم که می خواهم آن را آزمایش کنم (فرض کنید هیچ مشکلی در اندازه گیری، اعتبار و پیاده سازی در یک نرم افزار آماری وجود نداشته باشد). ## مدل (نرم [M1]) / \ / \ / \ (وابستگی [X]). . . (Adaptation[Y]) \ / \ / \ / (Hard [M2]) (من نمی دانستم چگونه فلش ها را در مدل بکشم.) # سوال آیا آزمایش فرضیه ها به این روش معقول است یا ساختار خطی. مدل معادله همان کار را انجام می دهد؟ سوالات پیگیری به دلیل داشتن دو واسطه مربوط به پیاده سازی در R است. اما قبل از آن برای من، به عنوان یک مبتدی در تحقیقات کمی، جالب است که بشنوم که آیا این رویکرد منطقی است یا خیر. # مراجع French Jr., J. R. P., Raven, B., 1959. _The Bases of Social Power_. آن آربر؛ انتشارات دانشگاه میشیگان، چ. 20، ص 259-270 Hayes، A. F.، 2009. _Beyond Baron and Kenny: Statistical mediation analysis in the new millenium. > ویرایش: اگر سؤال برای گروه CrossValidated مناسب نیست > می‌خواهم از مدیران بخواهم که آن را به بهترین انجمن منتقل کنند یا فقط حذف کنند.
مدل میانجی چندگانه مناسب است؟
73475
من یک رگرسیون لجستیک چند جمله ای انجام می دهم. آیا باید متغیرهای اسمی را مجدداً به متغیرهای ساختگی رمزگذاری کنم یا می توانم از آنها به عنوان دسته استفاده کنم. من در اینترنت نمونه هایی را دیدم که در این مورد نیازی به ساختگی نیست. وقتی من مدل را با آدمک و بدون ادکلن اجرا می کنم، نتایج کاملاً شبیه به هم هستند. اگر من این کار را با دسته بندی های کدگذاری شده در یک متغیر به جای dummies انجام دهم اشکال دارد؟
متغیر ساختگی در مقابل متغیر طبقه بندی
51790
این ممکن است یک سوال احمقانه به نظر برسد اما من واقعاً در مورد آن گیج هستم. در تئوری، تنظیم برای یک متغیر مخدوشگر باید اثر آن را حذف کند. آیا این همیشه درست است؟ و آیا این بدان معنی است که اثر این متغیر مخدوش کننده که ما برای آن تنظیم کردیم کاملاً حذف شده است؟ به عنوان مثال می دانیم که با افزایش سن تعداد بیماری های همراه افزایش می یابد. اگر سن را تنظیم کنیم، آیا این بدان معناست که بعید است سن حتی تا حدودی افزایش بیماری های همراه را توضیح دهد؟
آیا تعدیل اثر متغیرهای مخدوش کننده را به طور کامل حذف می کند؟
35070
در این بخش از این مقاله آمده است: > رونالد فیشر در سال 1935 استنتاج امانی را به منظور اعمال آن در > این مشکل معرفی کرد. او به مقاله قبلی W. V. Behrens در سال 1929 اشاره کرد. > Behrens و Fisher پیشنهاد کردند توزیع احتمال $$ T > \equiv {\bar x_1 - \bar x_2 \over \sqrt{s_1^2/n_1 + s_2^ را پیدا کنند. 2/n_2}}$$ که در آن > $\bar x_1$ و $\bar x_2$ دو میانگین نمونه هستند، و $s_1$ و $s_2$ > انحراف معیار آنها هستند. [ . . ] فیشر با نادیده گرفتن تغییرات تصادفی اندازه‌های نسبی استاندارد > انحراف، توزیع > این را تقریب زد، $$ {s_1 / \sqrt{n_1} \over \sqrt{s_1^2/n_1 + s_2^2/n_2} }.$$ من متوجه شدم که تمایلی به باور این موضوع ندارم. (بنابراین، ویکی‌پدیا خطاپذیر است!) در چند هفته آینده، من می‌خواهم آنچه را که فیشر، برنز و بارتلت در این مورد در دهه 1930 نوشتند، بخوانم. در حال حاضر کتاب فیشر _روش های آماری و استنباط علمی_ را می بینم. مانند ادوین جینز، من این تصور را دارم که این واقعیت که او گاهی اوقات احمق بود، به هیچ وجه این واقعیت را که او یک نابغه بزرگ بود تغییر نمی‌دهد، اما او همیشه خود را به بهترین شکل برای برقراری ارتباط با او ابراز نمی‌کرد. فانی های کمتر در صفحه 97، فیشر در مورد بارتلت می نویسد: > [...] مجموعه مرجع [...] محدود به زیرمجموعه ای که > نسبت $s_1/s_2$ دارد، نیست، بلکه مشتاقانه توسط M. S. Bartlett مورد استفاده قرار گرفت. اگر چه نقصی در آزمون اهمیت فرضیه مرکب است که در موارد خاص معیار رد کمتر به طور تصادفی به دست می آید. در دیگران در مورد بازتاب، فکر نمی‌کنم > انتظار دیگری داشته باشیم،[...] بنابراین به نظر من فیشر قصد «نادیده گرفتن» «تغییر تصادفی» نسبت $s_1/s_2$ را به عنوان ابزاری برای تقریب نداشته است. ، بلکه او فکر می کرد که باید $s_1/s_2$ را شرط کرد. به نظر می رسد این شرطی کردن بر یک آمار فرعی است که فیشر آن را با موفقیت در زمینه های دیگر به کار برد. اگر درست به خاطر بیاورم، اولین بار زمانی که در دانشنامه علوم آماری در این باره خواندم، بارتلت را شنیدم، که به سادگی گفت که بارتلت اولین کسی بود که نشان داد که فواصل اعتباری با فواصل اطمینان یکسان نیست، با نشان دادن این که فواصل اعتباری که فیشر در این مشکل به دست آورده بود، نرخ پوشش ثابتی نداشت. این بیانیه این تصور را برای من باقی نگذاشت که در این مورد اختلاف نظر وجود داشته باشد. بنابراین **سوال من اینجاست:** کدام یک به حقیقت نزدیکتر است: مقاله ویکی پدیا یا سوء ظن من؟ * Fisher, R. A. (1935) برهان امانی در استنتاج آماری، Annals of Eugenics، 8، 391-398.
درک مسئله Behrens-Fisher
27023
طبق قضیه بیز $P(A|B) = \frac{P(B|A)*P(A)}{P(B)}$ در جایی پیدا کردم که: $P(x_t|z_{1: t}) = \frac{P(z_t|x_t)*P(x_t|z_{1:t-1})}{P(z_t|z_{1:t-1})}$ اما من این کار را نمی کنم واقعاً آن را درک می کنم، آیا بر اساس قضیه بیز بیان می شود؟ این از صفحه 13 http://www.igi.tugraz.at/pfeiffer/documents/particlefilters.pdf **ویرایش پس از پاسخ @ConjugatePrior:** طبق قضیه بیز $P(x_t|z_{1:t}) ) = \frac{P(z_{1:t}|x_t)*P(x_t)}{P(z_{1:t})}$ و این برابر است با $\frac{P(z_t,z_{1:t-1}|x_t)*P(x_t)}{P(z_t,z_{1:t-1})}$، اما از $ z_t$ و $z_{t-1}$ به صورت شرطی مستقل هستند با توجه به $x_t$ (طبق شکل بالا)، سپس $P(z_t,z_{1:t-1}|x_t) = P(z_t|x_t)*P(z_{1:t-1}|x_t)$، بنابراین $\frac{P(z_t|x_t)*P(z_{1:t-1}|x_t)* دریافت می کنیم P(x_t)}{P(z_t,z_{1:t-1})}$ و دوباره طبق قضیه بیز، $P(z_{1:t-1}|x_t) داریم. = P(x_t|z_{1:t-1})*P(z_{1:t-1}) / P(x_t)$، بنابراین $\frac{P(z_t|x_t)*P(x_t می‌گیریم |z_{1:t-1})*P(z_{1:t-1})}{P(z_t,z_{1:t-1})} = \frac{P(z_t|x_t)*P(x_t|z_{1:t-1})*P(z_{1:t-1})}{P(z_t|z_{1:t-1}) *P(z_{1:t-1})} = \frac{P(z_t|x_t)*P(x_t|z_{1:t-1})}{P(z_t|z_{1:t-1})}$ ![شرح تصویر را اینجا وارد کنید](http: //i.stack.imgur.com/ZEitz.png)
استنتاج به روز رسانی قضیه بیزی
27029
من با شبکه‌های بیزی مبتدی هستم و می‌خواهم بدانم چگونه شبکه‌های باورها احتمالات پسینی را در صورت وقوع رویداد جدید در آینده به روز می‌کنند. من می خواهم یک مثال را آزمایش کنم، من با 3 گره $a،b،$ و $c$ شروع می کنم. a->c<-b و من احتمالات قبلی را مقداردهی اولیه می‌کنم. یک رویداد جدید رخ می دهد، بنابراین من یک گره جدید را به عنوان والد $c$ به شبکه های بیزی اضافه می کنم، چه نوع فرضی باید انجام شود؟ و چگونه می توانم احتمالات جدید را در نمودار p(c/a,b,newevent) محاسبه کنم؟ پیشاپیش ممنون
به روز رسانی شبکه های باورها در صورت وقوع رویداد جدید در آینده
23736
1. فرض کنید یک k-means کلاسیک داریم که به صورت تکراری هر نقطه داده به نزدیکترین مرکز خود اختصاص داده می شود. 2. پس از مدت زمان مشخصی، فرض کنید مجموعه داده را با مجموعه داده مشابه دیگری که حاوی کلاس‌های اضافی است تغییر می‌دهیم، و من می‌خواهم آن را با استفاده از تنها یک پاس خوشه‌بندی کنم و اجازه دهیم تعداد خوشه‌های K (در صورت لزوم) افزایش یابد. در واقع این فقط یک مثال ساده برای معرفی سوال من است. سوال من: آیا مدل آماری/احتمالی یا چیزی وجود دارد که در مرحله اول به ما اجازه دهد که مثلاً مقادیری را برای هر خوشه یاد بگیریم، تا پیش بینی کنیم که آیا نقطه داده جدیدی از فاز دوم باید خوشه جدیدی تولید کند یا باید به نزدیکترین مرکز خود اختصاص داده است. به طور خلاصه، آیا آمار یا احتمال مفیدی وجود دارد که بتوان با هر خوشه ارتباط داد تا بتوان پیش بینی کرد که آیا یک نقطه داده جدید عضو نزدیکترین مرکز آن است یا خیر؟ شاید با استفاده از چیزی مانند توزیع گاوسی برای هر خوشه ... اما چگونه ...
آمار یا احتمالات مرتبط با هر خوشه به منظور پیش بینی اینکه آیا یک نقطه داده آینده عضو نزدیکترین مرکز آن است یا خیر.
67888
من یک جمعیت دارم P - P دارای طیف گسترده ای از جنبه های قابل اندازه گیری A است. یکی از جنبه های کلیدی V است - تأثیر بر سیستم من. این همیشه قابل اندازه گیری است. زیرمجموعه ای از P زیرمجموعه ای از جنبه های قابل اندازه گیری را گزارش می دهد. تعداد بسیار کمی از P در واقع در مورد همه متغیرهای ممکن گزارش می دهند. یک سوال ثابت این است: با توجه به اینکه فقط اطلاعات جزئی برای P در دسترس است، در مورد همه P چه می توان گفت، برخلاف نمونه گیری که خود گزارش شده است. فرض کنید حدود 1% از P در جنبه A1 با مقادیر احتمالی x1...xN گزارش می دهد. این 1% نیز V قابل اندازه گیری دارد. با این حال، از آنجایی که این 1% از P این گونه رفتار می کند، آیا می توان گفت _ همه_ P این گونه رفتار می کنند؟ چقدر می توانم در این مورد مطمئن باشم - به چه تعداد؟ چند نظر در مورد داده ها- * بیشتر داده ها طبقه بندی شده است. V عددی است. هیچ کدام رتبه بندی نشده است * بیشتر توزیع های فرکانسی داده ها در یک جنبه معین از توزیع توان پیروی می کند. * به نظر می رسد مقایسه زیرمجموعه های مستقل جمعیت با یکدیگر نیازمند آزمون کولموگروف-اسمیرنوف باشد. * داده ها در واقع داده های کسب و کار داخلی هستند و بنابراین من آنها را مبهم کرده ام. ویرایش: هر یک از اعضای P انتخاب می کند (خارج از کنترل من) به هر یک از جنبه های A پاسخ دهد یا نه. یک نظرسنجی جامعه‌شناختی را تصور کنید که در آن افراد می‌توانند در مورد خودشان گزارش دهند و همچنین این گزینه را دارند که سؤالات را خالی بگذارند. مقدار V چیزی است که از بیرون قابل اندازه گیری است - مثلاً، نظرسنجی به همه افرادی داده می شود که به دلیل تخلفات رانندگی جریمه می شوند. اکثر مردم آن را پر نمی کنند، بیشتر کسانی که آن را تا حدی پر می کنند. V هزینه نقض خواهد بود (این یک مثال ساخته شده است، نه داده واقعی).
به دنبال اشاره گر در محاسبه کران خطا
27025
من باید یک اندازه شباهت بین مجموعه های مختلف محاسبه کنم (در واقع آنها بیشتر شبیه نقشه هستند تا مجموعه ها). یک وزنه به هر عنصر مجموعه مرتبط است. مجموعه هایی که می خواهم مقایسه کنم مجلات یا کنفرانس های مختلف را نشان می دهند. هر عنصر از مجموعه یک نویسنده است و وزن مربوط به تعداد مقالات منتشر شده در آن مکان است. هدف تحلیل من این است که کشف کنم آیا شباهت هایی در پرکارترین نویسندگان مکان های مختلف وجود دارد یا خیر. من به این فکر می کردم که محتوای مجموعه ها را در یک فضای برداری (استفاده از عناصر به عنوان ویژگی و وزن به عنوان مقدار آنها) نشان دهم و فاصله کسینوس را محاسبه کنم. آیا این رویکرد خوبی است یا چیزی بهتر است که باید استفاده کنم؟
اندازه گیری تشابه برای مجموعه های وزن دار
35074
من یک مدل لاجیت دارم که در آن کوتاه‌قدی (شاخص دوتایی سوء تغذیه) را پیش‌بینی می‌کنم، و دو متغیر مستقل باینری من (بهبود. آب و دارای.بیمه) هر دو از نظر آماری معنی‌دار هستند: کوتاه‌قدی ~ بهبود یافته. آب + دارای. بیمه می‌خواهم این سوال را بپرسید که داشتن بیمه برای کسانی که آب بهبود یافته دارند در مقایسه با افراد بدون آب بهبود یافته چه تاثیری دارد؟ یک راه ساده برای انجام این کار این است که رگرسیون را به طور جداگانه در زیر گروه ها (با، بدون آب بهبود یافته) انجام دهید و ببینید چه رابطه ای بین داشتن بیمه و کوتاهی رشد وجود دارد. آیا روش مناسب تری برای تست این موضوع وجود دارد؟ من به اثرات متقابل نگاه کرده‌ام، اما مطمئن نیستم که چگونه آنها را در این زمینه پیاده‌سازی/تفسیر کنم. من از stata برای انجام تجزیه و تحلیل استفاده می کنم، بنابراین اگر پاسخ استفاده از یک اصطلاح تعاملی باشد، توضیح دقیق تر واقعا مفید خواهد بود.
اثر آزمون متغیر در بین زیر گروه های رگرسیون لجستیک
73620
KF بدون بو برای فیلتر کردن یک بردار حالت $x$ در حضور مشاهدات $z$ استفاده می شود. معادلات زیر مدل های فرآیند و مشاهده را تعریف می کنند. مدل فرآیند: $x_{t+1} = f_t(x_t) + v_t$ مدل مشاهده: $z_t = h_t(x_t) + w_t$ در رویکرد UKF، ما با بردار _افزوده شده_$X^a = [x^T کار می کنیم. v^T w^T]^T$ (لطفاً الگوریتم 3.1 را اینجا ببینید. در اینجا چیزی است که من نمیفهمم. توابع غیر خطی $f_t()$ و $h_t()$ به ترتیب $v_t$ و $w_t$ را می گیرند، همانطور که در الگوریتم داده شده است (درست زیر Time update:). چرا باید با این بردار _augmented_ کار کنیم بردار، آیا باید توابع جدید فرآیند و مشاهده $F(x_t,v_t)$ و $H(x_t,w_t)$ را مشخص کنم که جدا از $x_t$، $v_t$ و $w_t$ (به عنوان نقاط سیگما) را نیز دریافت کنند؟ آیا این توابع را می توانم از $f$ و $h$ به دست بیاورم؟
فیلتر کالمن بدون عطر - وکتور افزوده
96649
در یک مجموعه داده، درآمد به گروه های مختلفی تقسیم می شود، به عنوان مثال. فرد 1 در گروه درآمد 5، فرد 2 در گروه درآمد 11 و غیره است. اندازه گروه ها نابرابر است (یعنی گروه 1: 0 < x < 2500، گروه 11: 7000 < x < 100000). من می خواهم سطح تحصیلات یک کودک مهدکودک را مدل کنم (با فرض اینکه بستگی به درآمد والدین دارد). آیا باید از متغیرهای ساختگی برای هر دسته استفاده کنم یا با فرض توزیع یکنواخت می توانم از نقاط میانی هر گروه استفاده کنم و سپس از مقادیر درآمد واقعی استفاده کنم؟
استفاده از متغیرهای گروه بندی شده در رگرسیون
56412
فکر می‌کنم دلیل توزیع بوت استرپ را نمی‌دانم، بنابراین می‌خواستم ببینم آیا کسی می‌تواند آن را برای من روشن کند... این یک نمونه از کتاب درسی است: ما یک نمونه اصلی به اندازه n=50 داریم. سپس کتاب درسی می گوید که می توانیم از یک نرم افزار استفاده کنیم تا از نمونه اصلی 1000 نمونه مجدد در سایز 50 بکشیم. و سپس می توانیم از ابزار این نمونه های مجدد برای توزیع بوت استرپ استفاده کنیم. این چیزی است که من دریافت نمی‌کنم: اگر نمونه اصلی ما اندازه 50 باشد، و اگر بخواهیم نمونه‌ای با اندازه 50 داشته باشیم، اساساً از تک تک موارد نمونه اصلی مجددا استفاده می‌کنیم، درست است؟ آیا این درست است یا چیزی را از دست داده ام؟ چون این خیلی برای من منطقی نیست... چرا باید همان نمونه را بارها و بارها برداریم و سپس میانگین را محاسبه کنیم که دقیقاً همان میانگین نمونه اصلی خواهد بود. بنابراین من احتمالا چیزی را از دست داده ام اما مطمئن نیستم چه چیزی. پیشاپیش ممنون
یک سوال در مورد توزیع بوت استرپ
35072
من یک مدل با استفاده از ANOVA تک متغیره اندازه گیری های مکرر در R ساختم. > g <- aov(bis ~ x1 + x2 + bg.sol + x1:x2:I(bg.sol * k1) + خطا(موضوع)، کدگذاری شده) > خلاصه lm. -0.1518 5.1696 17.6015 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) x1 3.1170 0.8444 3.691 0.000275 *** x2 -1.0906 0.1230 -8.864 < 2e-16 *** I(bg.sol * k1) 2.0522 0.000275 x1:x2:I(bg.sol * k1) -0.3191 0.1254 -2.545 0.011543 * --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقی مانده: 7.256 در 246 درجه آزادی چندگانه R-squared: 0.2743، R-squared تنظیم شده: 0.265 آمار: 30.99 در 3 و 246 DF، p-value: < 2.2e-16 من حد اطمینان را برای هر تخمین محاسبه کردم. من فکر کردم SE * مقدار بحرانی کار خواهد کرد. در مورد `x1` (متغیر پیوسته) حد اطمینان 95% بود، > 0.8444 * qt(0.975, df = 1) [1] 10.72912 من نمی‌دانم که آیا مقدار محاسبه‌شده حد اطمینان واقعی برای `x1` است. تخمین‌ها برای «x1» 3.1170 و حد مجاز 10.72912 است. بعلاوه منهای شامل مقدار صفر است. اما P-value مقدار کمتر از 0.05 را نشان داد! میخوام بدونم کجای کار اشتباه کردم!
چگونه فاصله اطمینان در ANOVA را با اندازه گیری های مکرر محاسبه کنیم؟
35076
داشتم «معیارهای شباهت» را می خواندم و ناگهان تمام دنیایم از هم پاشید. من یک موتور جستجو را با استفاده از تکنیک های خوشه بندی پیاده سازی کرده ام. برای خوشه‌بندی، از k معنی استفاده کردم که از فاصله اقلیدسی به عنوان اندازه‌گیری فاصله استفاده می‌کند. من همچنین از شباهت کسینوس برای نمایش نتایج استفاده کردم. من نتایج شگفت آور دقیقی می گرفتم. اما اکنون که این را خواندم، کاری که انجام دادم عادی سازی بردارهای سند بود و فاصله اقلیدسی بین دو بردار واحد حاصل را محاسبه کردم و از این رو هیچ جا قدر را در نظر نگرفتم. آیا من کار اشتباهی انجام می دهم؟ اگرچه من فکر می کنم که یک فرکانس ترم بالاتر یک مقدار tf-idf بالاتر و یک مقدار tf-idf نرمال شده بالاتر را جبران می کند و از این رو به طور مناسب در رتبه بالا قرار می گیرد. نتایج (بدون استفاده از بردارهای نرمال شده، ارقام فواصل اقلیدسی هستند) 61.79689257425985 222 جزئیات تحقیق پیشنهادی.doc 144.15451315901478 and_Integrated_Assessment_of__Natural_europe alternate_sustainable_land_management_options_for_tribal_ dominated_watersheds_RRPS_24.doc 72.61392308146608 done_توسعه سیستم های حصار زنده برای حفاظت از خاک و آب_ NATIP-RNPS-3 SKN Math.7115226M. استراتژی‌هایی برای تطبیق رابی (SKN Math).doc 65.51734241367222 done_RPFIII_dr.dogra.doc 66.72042766100921 ارزیابی محصولات و انواع آنها (SKN Math).doc 41888YA91806 (DSS).doc 140.3914521621597 RPF - پیشنهاد پروژه I PIMS-ICAR برای IASRI.doc 72.95414421468679 RPF-III__Indo-US_project.doc 82.25126123527439 هدف 82.2512612352439 بردارهای نرمال شده، ارقام فواصل اقلیدسی هستند) 1.3435369899385359 222 جزئیات تحقیق پیشنهادی.doc 1.1277471087250086 and_Assessment_Integrated_of_Natural_Resources_and_e alternate_sustainable_land_management_options_for_tribal_ dominated_watersheds_RRPS_24.doc 1.2741267093494966 done_توسعه سیستم های حصار زنده برای حفاظت از خاک و آب_ NATIP-RNPS-3 SKN Math.647474. done_Management strategies for impriing rabi (SKN Math).doc 1.2902191708899362 done_RPFIII_dr.dogra.doc 1.3128744973475515 ارزیابی محصولات و ارقام آنها (SKN Math.2474993.20.20.20.349.200). VIJAYA KUMAR (DSS).doc 1.1747048933792805 RPF - I PIMS-ICAR پیشنهاد پروژه برای IASRI.doc 1.29150899172647 RPF-III__Indo-US_project.doc 1.31801902c 1.318019605 نتایج (اشکال مشابه کسینوس هستند) 0.09745417833344654 222 جزئیات تحقیق پیشنهادی.doc 0.36409322938119104 and_Assessment_Integrated_of_Natural_Resources_and_Evolution_of alternate_sustainable_land_management_options_for_tribal_ dominated_watersheds_RRPS_24.doc 0.1883005642611103 done_توسعه سیستم های حصار زنده برای حفاظت از خاک و آب_ NATIP-RNPS-3 SKN Math.601796. done_Management strategies for impriing rabi (SKN Math).doc 0.16766724553404047 done_RPFIII_dr.dogra.doc 0.13818027710720598 ارزیابی محصولات زراعی و ارقام آن ها (SKN Math.75201474787878487488781878884818788818884888888488788188888888888188818888888888888888888888888888848888888888888888888888888888188888888888888888888888888888188888888888188188). P. VIJAYA KUMAR (DSS).doc 0.3100342067353838 RPF - I PIMS-ICAR پیشنهاد پروژه برای IASRI.doc 0.16600226214483405 RPF-III__Indo-US_project.doc 0.134413 220 مقدمه و اهداف.doc نتایج 1 و 2 با یکدیگر همخوانی ندارند در حالی که 2 و 3 به شدت موافق هستند. شباهت بیشتر، فاصله کمتر. فواصل بین بردار مرکز خوشه و بردارهای سند هر یک از سندها گرفته می شود. در واقع، عجیب ترین نتیجه سندی با فاصله اقلیدسی 418 و دارای بیشترین شباهت 0.87 است. در حالی که فاصله نرمال شده 0.49 می شود و با شباهت موافق است.
بردارهای واحد b/t فاصله اقلیدسی یا تشابه کسینوس که بردارها بردار سند هستند
74077
روش دلتا/روش بوت استرپ برای به دست آوردن خطای استاندارد اثر حاشیه ای در مورد مدل متغیر وابسته محدود (مانند مدل توبیت) استفاده می شود. من دیده‌ام که اینها برای متغیرهای پیوسته اعمال می‌شوند، اما سوال من این است که آیا اینها را می‌توان برای متغیرهای طبقه‌ای (مثلاً با 4 دسته) یا متغیرهای باینری (مثلاً فقط با دو دسته) اعمال کرد. لطفاً در صورت مرتبط بودن با سؤال، مقالات دانشگاهی را پیشنهاد دهید.
خطای استاندارد اثر حاشیه ای برای متغیر باینری/رده ای
78905
من با مجموعه داده ای از زمان های رسیدن به شرح زیر کار می کنم: توقف 1 توقف 2 توقف 3 09:01:00 09:03:01 09:05:12 09:01:23 09:03:03 09:05:13 09 :01:12 09:02:55 09:05:40 09:02:01 09:03:30 09:04:44 09:00:45 09:03:31 09:05:55 ... داده ها مربوط به زمان رسیدن به ایستگاه های اتوبوس است. من می خواهم میانگین زمان رسیدن را برای هر توقف محاسبه کنم. می‌توانم میانه را محاسبه کنم، اما می‌خواهم نقاط پرت را حذف کنم. به عنوان مثال اگر یک روز اتوبوس در ساعت 09:03:55 (به دلیل ترافیک، شرایط آب و هوایی و غیره) به ایستگاه 1 برسد، این زمان رسیدن رفتار عادی را نشان نمی دهد و من می خواهم آن را از محاسبات خود حذف کنم (برای توقف 1) . بنابراین سوال من این است که چگونه می توانم محدوده زمان های ورود معتبر (مثلا از 09:00:00 تا 09:02:30) را فقط با مجموعه داده های خود تعیین کنم؟ **ویرایش** من میانگین را ذکر کرده ام، اما اگر رویکرد بهتری برای این مشکل می دانید، مایلم آن را بدانم.
میانگین زمان ورود بدون احتساب موارد پرت
99709
من یک رگرسیون PLS با SAS انجام می دهم. man-a من از من خواست تا تعداد مؤلفه‌های اصلی مجموعه داده‌ای را که از طریق SAS با آن کار می‌کنم پیدا کنم. از آنجایی که قبلا هرگز این کار را انجام نداده ام، در مورد نحوه انجام آن گیج هستم. آیا باید یک PCA را روی مجموعه داده خود اجرا کنم، سپس از مرتبط ترین مؤلفه های یافت شده استفاده کنم و سپس از آن اعداد در PLS من استفاده کنم یا SAS توانایی آن را دارد؟ اگر چنین است، چگونه باید آن را انجام دهم؟
چند جزء اصلی در یک PLS با SAS
8316
من یک مدل ساده $\log(y_i) \sim \mathcal{N}(\mu_i,\sigma)$ را با $\mu_i=\alpha + \beta x_i$ فرض می‌کنم. حالا اگر تخمین‌های $\hat{\alpha}$ و $\hat{\beta}$ را داشته باشم، چگونه مقادیر برازش $\hat{y}$ را محاسبه کنم؟ (به نظر می رسد استفاده از $\hat{y}= \exp(\hat{\alpha} + \hat{\beta} x_i)$ کارساز باشد؛ این میانه توزیع log-normal است.)
مقادیر مناسب برای یک مدل log-normal
56418
من مدل سری زمانی را از طریق: model = sarima(data,1,0,1) sarima.for(data,100,1,0,1) ایجاد می کنم. عیب یابی مدل خوب به نظر می رسد و نشان می دهد که مدل مناسب است. با این حال، وقتی سعی می کنم داده ها را پیش بینی کنم، همه مقادیر پیش بینی شده یکسان هستند. چرا این است؟ ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/Gpedv.png)
پیش بینی سری های زمانی
112701
من سعی می کنم تحلیلی مشابه گرلاخ و همکاران انجام دهم. (2002). این شامل پیش بینی احتمال پسین یک نتیجه باینری خاص با استفاده از 5 مشاهدات قبلی است. من فقط به این فکر می کردم که کدام بسته در R برای این کار بهتر است. من همچنین علاقه مند بودم که چگونه می توان آرگومان ها را در توابع مربوطه دستکاری کرد تا بسته به محدوده احتمال قبلی قبلی، یک مقدار ثابت مشخص شود. با تشکر
بسته در R برای BMA یک مدل لجستیک؟
9920
سوال من به فرض افزایش برای همبستگی درون طبقاتی مربوط می شود. ابتدا توضیح می دهم که چه کاری انجام داده ام و سپس با سؤالات خود پایان می دهم. من می‌خواهم پایایی بین ارزیاب‌ها را با استفاده از همبستگی درون‌طبقه‌ای محاسبه کنم تا بتوانم یک ضریب کلی را گزارش کنم (همانطور که در تحقیقات مشابه قبلی انجام شد)، و شاید اگر قضاوت‌های آن‌ها با ارزیاب‌های دیگر مطابقت ضعیفی داشت، یک ارزیاب را جایگزین کنم. من پنج ارزیاب دارم و آنها هر کدام به ضبط ویدئویی از حالات چهره و صدای همان 4 شرکت کننده (به صورت تصادفی) در آزمایشی که شرکت کنندگان فیلم های احساسی متفاوتی را تماشا کردند، امتیاز داده اند. ارزیاب ها برای هر فیلم 18 امتیاز می گیرند. این رتبه‌بندی‌ها از نوع لیکرت (معمولاً بین 1-6 اما برای برخی معیارها 1-4) از شدت 6 حالت احساسی مختلف چهره (خشم، ترس و غیره)، شدت حالت کلی چهره و تعداد (رده‌بندی‌های فراوانی) هستند. ) و شدت (رده بندی لیکرت) کلمات و صداهای مثبت و منفی و سطح بیان کلی آواز. 16 فیلم وجود دارد، بنابراین در مجموع 288 متغیر به ازای هر رتبه‌دهنده، به ازای هر شرکت‌کننده رتبه‌بندی شده است. من داده‌های خود را در چهار فایل سازماندهی کرده‌ام، یکی برای هر شرکت‌کننده رتبه‌بندی می‌شود، با هر رتبه‌دهنده به عنوان یک ستون و ۲۸۸ متغیر به عنوان ردیف. از آنجایی که من قابلیت اطمینان بین ارزیاب‌ها را محاسبه می‌کنم، به شباهت ارزیاب‌ها به طور کلی علاقه‌مندم، و نه هر اثر دیگر (مثلاً فیلم). من ICC را با استفاده از مدل مختلط محاسبه کرده‌ام زیرا همه داوران به همه اهداف که یک نمونه تصادفی هستند امتیاز می‌دهند (طبق http://faculty.chass.ncsu.edu/garson/PA765/reliab.htm#rater) **سوالات: ** فرض افزایشی بیان می کند که هر آیتم باید به صورت خطی با امتیاز کل مرتبط باشد. با این حال، من فکر نمی کنم که مفهوم نمره کل واقعاً کاربرد داشته باشد، اگرچه ممکن است اشتباه کنم. آزمون غیرافزونی توکی این فرضیه صفر را آزمایش می کند که هیچ تعامل ضربی بین موارد و موارد وجود ندارد. * لطفاً کسی می تواند این را به زبان ساده برای من توضیح دهد؟ من مقدار قابل توجهی از تست Tukey را پیدا کردم، بنابراین سعی کردم رتبه بندی کلی چهره و آواز را برای هر فیلم حذف کنم، زیرا فکر می کردم این ممکن است این شرط را نقض کند که هر آیتم به امتیاز کلی کمک کند. با این حال، آزمون توکی قابل توجه باقی ماند. بنابراین فقط به عنوان یک آزمایش کوچک، 282 متغیر را حذف کردم، و رتبه‌بندی 6 احساس ممکن صورت را برای یک فیلم به من داد. تست توکی همچنان قابل توجه بود! * آیا تست عدم افزودنی توکی به مشکل من مربوط است؟ * اگر بله، در مورد مهم بودن آن چه باید بکنم؟
فرض افزایش برای همبستگی درون طبقاتی
92160
من یک نمونه تصادفی از داده های زیر در JMP دارم. چگونه بفهمم بین جنسیت و ژانر فیلم مورد علاقه رابطه وجود دارد؟ من از طریق فرمول های مختلف جستجو کردم و چیزی پیدا نکردم که کار کند. هر گونه کمکی قدردانی خواهد شد. ![توضیحات تصویر را اینجا وارد کنید](http://i.stack.imgur.com/EhShy.jpg)
یافتن ارتباط بین جنسیت و ژانر فیلم مورد علاقه
107932
بگویید من دو بردار دارم: Action.Taken = c(0,1,0,0,1,1,0,1,0) موفقیت = c(0,0,0,1,0,1,0,1, 0) اولی به من می گوید که آیا اقدام خاصی در یک آزمایش انجام شده است یا خیر و دومی به من می گوید که آیا آن آزمایش موفق بوده است یا خیر. چگونه می توانم این دو بردار را تجزیه و تحلیل کنم تا به سؤال زیر پاسخ دهم: آیا انجام اقدام («اقدام انجام شده = 1») بر موفقیت یا عدم موفقیت تأثیر می گذارد («موفقیت = 1»)؟ من مقداری از اهمیت را به عنوان آزمون رگرسیون/فرضیه می‌خواهم. من به دنبال پاسخی هستم که بتوانم آن را با استفاده از R پیاده سازی کنم. من در آمار کاملاً تازه کار هستم، بنابراین خوب است اگر کسی بتواند یک پاسخ/مثال نسبتاً ساده و سرراست به من بدهد. با تشکر
R - تجزیه و تحلیل رابطه بین دو (یا چند) متغیر باینری
99708
من از SPSS برای ایجاد متغیرهای ساختگی برای سه فروشگاه مختلف استفاده کردم. فروشگاه 1 با کد 0، فروشگاه 2 با کد 1 و فروشگاه 3 با کد 2 بود. در خروجی من می بینم که ضرایب شیب (B) برای فروشگاه 2 و 3 تقریباً یکسان است، با CI، آمار t و مقادیر تقریباً یکسان. این به چه معناست و آیا وقتی ضریب شیب بسیار شبیه به هم هستند، جداسازی متغیرهای ساختگی ضروری است؟ و اگر آنها را به صورت آدمک جدا نمی کردم، در عوض چه کاری می توانستم انجام دهم؟
متغیرهای ساختگی در رگرسیون خطی
95392
من داده‌ای با عملکرد کاربران (مقیاس بین 0 تا 1) در تست‌های مختلف دارم و می‌خواهم صحت پیش‌بینی را در زمانی که داده‌ها پراکنده هستند با حذف تصادفی برخی از رکوردها آزمایش کنم. به عبارت دیگر، زمانی که سوابق عملکرد جزئی برای هر کاربر وجود دارد. من به روش های مختلف در بسته recomenderlab در R نگاهی انداختم اما نتوانستم روش مناسب را پیدا کنم زیرا اکثر آنها با درجه های ترتیبی مانند 1-5 ستاره سروکار دارند. میشه لطفا یک روش مناسب راهنمایی کنید؟ متشکرم.
فیلتر مشارکتی برای پیش بینی مقادیر واقعی
96767
من مشکلی دارم که سعی می کنم با تست Chi Squared حل کنم، اما دارم متوجه می شوم که احتمالاً روش های بهتری برای استفاده وجود دارد و به دنبال پیشنهاداتی بودم. بگویید من دو جمعیت مستقل X و Y دارم که از نر و ماده مختلف تشکیل شده اند. جمعیت X >> Y، و آنها به طور مستقل از جمعیت جهان ترسیم شدند. من می بینم که N_Y نفر در Y بستنی را دوست داشتند، و می خواهم ببینم که آیا این از نظر آماری معنی دار است (یا به زبان انگلیسی، طبیعی یا غیر طبیعی) با نگاه کردن به جمعیت بزرگتر (با نگاهی به N_X، تعداد افراد در یک مشابه اما بزرگتر). جمعیت X که بستنی را دوست داشتند) فکر می‌کنم از تست مجذور کای می‌توان برای این کار استفاده کرد، اما نمی‌دانم چه رویکردهای دیگری را باید بررسی کنم. اگر این واضح نیست، لطفا به من اطلاع دهید.
سوال در مورد ویژگی های آماری معنی دار جمعیت
73624
ویکی‌پدیا می‌گوید: > میانگین خطای مطلق (MAE) یک معیار رایج برای خطای پیش‌بینی در تجزیه و تحلیل سری‌های زمانی است، جایی که اصطلاحات «میانگین انحراف مطلق» گاهی اوقات در اشتباه با تعریف استانداردتر میانگین انحراف مطلق استفاده می‌شود. > همان سردرگمی به طور کلی تر وجود دارد. این به چه معناست؟ سردرگمی دقیقاً چیست؟ همچنین، چرا MAE به طور خاص در تحلیل سری های زمانی استفاده می شود؟ (در مقابل معیارهای خطای عمومی تر مانند MSE)؟
میانگین انحراف مطلق
80380
برآوردگرهای حداکثر درستنمایی (MLE) بطور مجانبی کارآمد هستند. ما نتیجه عملی را در این می بینیم که آنها اغلب بهتر از تخمین های روش لحظه ها (MoM) عمل می کنند (زمانی که آنها متفاوت هستند)، حتی در اندازه های نمونه کوچک در اینجا «بهتر از» به معنای معمولاً واریانس کمتر زمانی است که هر دو بی طرف هستند، و معمولاً میانگین مربعات خطای کوچکتر (MSE) به طور کلی تر. با این حال، این سؤال پیش می‌آید: آیا مواردی وجود دارد که MoM بتواند MLE را در نمونه‌های کوچک، مثلاً روی _MSE_ شکست دهد؟ (جایی که این یک موقعیت عجیب/تحول شده نیست - یعنی با توجه به اینکه شرایط برای ML وجود دارد/به طور مجانبی کارآمد است) یک سوال بعدی این خواهد بود که کوچک چقدر می تواند بزرگ باشد؟ - یعنی اگر نمونه‌هایی وجود داشته باشد، آیا نمونه‌هایی وجود دارند که هنوز در اندازه‌های نمونه نسبتاً بزرگ، شاید حتی همه اندازه‌های نمونه محدود باقی می‌مانند؟ [می‌توانم نمونه‌ای از یک تخمین‌گر مغرضانه پیدا کنم که می‌تواند ML را در نمونه‌های محدود شکست دهد، اما MoM نیست.] * * * توجه به گذشته‌نگر اضافه شد: تمرکز من در اینجا عمدتاً روی حالت تک متغیره است (که در واقع همان جایی است که کنجکاوی اساسی من وجود دارد. از می آید). من نمی‌خواهم موارد چند متغیره را رد کنم، اما به‌ویژه نمی‌خواهم وارد بحث‌های گسترده درباره تخمین جیمز-استاین شوم.
نمونه هایی که در آن روش گشتاورها می تواند حداکثر احتمال را در نمونه های کوچک شکست دهد؟
96093
فرض کنید من آزمایشی را برای آزمایش این فرضیه طراحی کردم که عامل Z باعث سرطان می شود. از $N$ نفر در گروه آزمایش، $x$ به سرطان مبتلا می شود. از $N$ نفر در گروه کنترل، $y$ به سرطان مبتلا می شود. نتایج این است که $x > y$ و $N \gg x$. تا اینجا خیلی استاندارده من علاقه مند به تفسیر بیزی از نتایج این آزمایش هستم، بنابراین به عبارت زیر در مورد احتمال درست بودن فرضیه من ($P(H_{\rm true})$) با توجه به شواهد ($) رسیدم. e$) $P(H_{\rm true}|e) = \frac{P(e|H_{\rm true})P(H_{\rm true})}{P(e)}$ I' من به طور خاص علاقه مند به مقدار $P(e|H_{\rm true})$. با توجه به اطلاعات موجود در مورد آن مقدار چه می توان گفت؟ آیا راهی کلی برای محاسبه یا تخمین آن وجود دارد، بدون اینکه چیزی بیشتر از رابطه بین عامل Z و سرطان بدانیم؟ اگر نه، چه چیز دیگری برای محاسبه یا تخمین آن نیاز دارید؟
طرح آزمایشی قضیه بیز
71731
من از JAGS در R برای ساخت یک مدل گراف احتمالی و تخمین پارامترهای مربوطه استفاده می کنم. مدل ها به صورت زیر توصیف می شوند: مدل { برای (i در 1:N) { # نمونه از متغیر پنهان z[i] ~ dbeta(alpha+0.01,beta)T(0,0.9999) # رابطه تعیین شده lambda[i] < - z[i] * mu # احتمال داده شرطی X[i] ~ dpois(lambda[i]) } # احتمال قبلی آلفا ~ dgamma(0.1،0.0001) بتا ~ dgamma(0.1،0.0001) mu ~ dgamma(0.1،0.0001) } که در آن «X[1:N]» نمونه‌های آموزشی است که بر اساس توزیع پواسون تولید می‌شوند. میانگین پواسون نیز یک متغیر تصادفی است که با mu*z نشان داده می شود. `z` یک متغیر پنهان است که به دنبال توزیع بتا توسط متغیرهای 'alpha' و 'beta' پارامتر شده است. پارامترهای این مدل احتمالی «مو»، «آلفا» و «بتا» هستند و از توزیع گاما تبعیت می‌کنند. من این مدل را روی یک مجموعه شبیه‌سازی شده از نمونه‌های داده آزمایش کردم: کتابخانه ('rjags') N=5000 lambda=rbeta (N,0.2,0.3)*15 #alpha = 0.2، بتا = 0.3 و mu = 15 X=rpois (N ,lambda) jags = jags.model('poissontrunc.bugs',data = list('X' = X, 'N' = N)، n.chains = 4، n.adapt = 1000) mcmc.samples <- coda.samples(jags, c('alpha', 'beta', 'mu'), 5000) خلاصه (mcmc نمونه ها) نتایج تخمین پارامتر مبتنی بر MCMC به شرح زیر است: میانگین تجربی و انحراف استاندارد برای هر متغیر، به اضافه خطای استاندارد میانگین: میانگین SD Naive SE Time-series SE alpha 951.13، 35.0186، 0.247619، 9.72810 بتا 1013.24، 26.4553، 0.187068، 7.13237 mu 120.13237 0.002216، 0.08993 نتایج نمونه‌برداری تخمین درستی از «mu» واقعی را ارائه می‌دهد (12.47 در مقابل 15). با این حال، برای «آلفا» و «بتا»، به نظر می رسد که مقادیر تخمین زده شده به شدت مغرضانه هستند (951.13 در مقابل 0.2، 1013.24 در مقابل 0.3). حتی با در نظر گرفتن واریانس نتایج نمونه‌گیری، تخمین‌ها برای «آلفا» و «بتا» هنوز با رضایت فاصله زیادی دارند. آیا این مشکل ناشی از هرگونه تنظیم نامناسب بالقوه نمونه برداری MCMC است یا شاید MCMC در ناحیه بهینه محلی توزیع شرطی چند وجهی در این مورد مسدود شده باشد؟
استفاده از JAGS برای تخمین پارامتر بیزی
85867
آیا می توان از روش های یادگیری گروهی (تقویت، بسته بندی و غیره) برای مسئله رگرسیون چندکی استفاده کرد؟
استفاده از یادگیری گروهی در رگرسیون چندکی؟
107935
فرض کنید که ما یک متغیر طبقه‌بندی داریم که می‌تواند یکی از سه مقدار قرمز، سبز و زرد را بگیرد. سپس می‌توانیم با استفاده از کدنویسی ساختگی یا افکت‌نویسی کدنویسی کنیم. اما، فرض کنید، قرار بود آن را به صورت زیر کدگذاری کنیم: قرمز: 1 سبز: 2 زرد: 3 از مسائل تخمینی و تفسیری که بگذریم، آیا نامی برای کدگذاری متغیرهای دسته بندی مانند بالا وجود دارد؟
آیا نامی برای طرح کدگذاری زیر وجود دارد؟
110532
من نمی دانم بهترین راه برای گزارش عملکرد مدل برای شبکه های عصبی مصنوعی (رگرسیون) چیست. در حال حاضر، من جدولی با مقدار r و مجموع مربعات خطا برای نمونه های فرعی قطار، تست و اعتبارسنجی دارم. به طور خاص، من می خواهم بدانم که آیا بهتر است r را گزارش کنم یا r2 را محاسبه کنم. با تشکر
نتایج برای مدل شبکه عصبی - r یا r2؟
99424
برای یک مجموعه داده معین، فرضیه متفاوت $m$ را به طور همزمان آزمایش می‌کنم و برای هر یک مقدار p به دست می‌آورم. هر یک از این فرضیه ها با آزمون مطابقت دارد که آیا مقادیر $X_i$، کمیت اندازه گیری شده از دیتاسر، با استفاده از یک شاخص برای مجموعه داده مرتبط است یا خیر. این برنامه کمیت دیگری به نام $Y_i(j)$ تولید می کند که در آن $j$ $\in$[1, m]$ است. فرض می کنیم شاخص ها به $Y_i(j)$ منتهی می شوند که مستقل هستند. تا زمانی که یک همبستگی معنی دار باشد، می توانم بگویم که فرضیه صفر رد شد و یک همبستگی پیدا شد. چگونه باید مقادیر p فردی را برای آزمون فرضیه های چندگانه تصحیح کنم؟ من روش بنجامینی-هخبرگ را خواندم، اما فکر می‌کنم این روشی را برای شما فراهم می‌کند که تخمین بزنید چند فرضیه رد شده‌اند، نه وضعیتی که من در نظر می‌گیرم. آیا باید به سادگی بیان کنم که احتمال مثبت کاذب برای یکی از تست ها مجموع همه مقادیر مثبت کاذب فردی است؟ این به نظر من کاملا منطقی نیست. توجه: من نمی توانم این سوال را به عنوان فرضیه چندگانه برچسب گذاری کنم، برچسب به طور خودکار به مقایسه چندگانه برمی گردد.
آزمایش چند فرضیه یا صرفاً مجموع p-value؟
55856
من داده ای دارم که طولی است. من خواندن یک موضوع را در 3 درمان مختلف پشت سر هم دارم و نمونه ها را در 2 دسته اجرا کردم: * دسته یک دارای شناسه موضوع 1:7 و سه نقطه زمانی برای هر کدام است * دسته دوم دارای شناسه 8:13 و سه نقطه زمانی است. در حال خواندن برای هر کدام، سعی می کنم یک مدل جلوه ترکیبی با دو افکت تصادفی قرار دهم. X سطح ماده من در خون است. 'Visit1' فاکتوری با 3 سطح است. lme1 <- lme(fixed = x~visit1, random = ~ visit1|sampleid/batch,data=newx) از آنجایی که دسته یک سطح بالاتر است. آیا این درست خواهد بود؟ دلیل سردرگمی من خروجی است: مدل با جلوه های ترکیبی خطی متناسب با REML داده ها: newx AIC BIC logLik 98.60629 123.9426 -33.30314 جلوه های تصادفی: فرمول: ~visit1 | ساختار نمونه: کلی مثبت-معین، پارامترسازی Log-Cholesky StdDev Corr (Intrcept) 0.4653918 (Intr) vst1V4 visit1V4 0.5036920 -0.475 visit1V7 0.2531549 -0.466 برای مولتی 0.0 | دسته ٪ در٪ نمونه نمونه ساختار: کلی مثبت-معین، پارامترسازی Log-Cholesky StdDev Corr (Intrcept) 0.4653914 (Intr) vst1V4 visit1V4 0.5036924 -0.475 visit1V7 0.2531550 0.2531550 0.406 -0.406 -0.406 جلوه‌های ثابت: x ~ visit1 Value Std.Error DF t-value p-value (Intercept) 10.952459 0.1883601 24 58.14640 0.0000 visit1V4 0.031497 0.20882014 524 بازدید -0.346842 0.1190620 24 -2.91312 0.0076 همبستگی: (Intr) vst1V4 visit1V4 -0.492 visit1V7 -0.473 0.090 استاندارد شده درون گروه باقیمانده: حداقل Q1 Med Q3818 -6918 - حداقل Q1 Med Q3818 - -0.06543492 0.17633675 1.01718946 تعداد مشاهدات: 39 تعداد گروه‌ها: دسته نمونه %in% نمونه 13 13 فقط مدل رهگیری تناسب بهتری را با lme2 ارائه می‌دهد<-update(lme1,random=~1|sumary/batch) مدل اثرات مختلط fit by REML Data: newx AIC BIC logLik 53.50052 63.00163 -20.75026 جلوه های تصادفی: فرمول: ~1 | sampleid (Intercept) StdDev: 1.636268e-05 فرمول: ~1 | دسته ٪ در٪ نمونه نمونه (Intercept) Residual StdDev: 1.632057e-05 0.3869672 جلوه های ثابت: x ~ visit1 Value Std.Error DF t-value p-value (Intercept) 9.923162 0.107320254 0.1073254 40540.10739254. -0.333890 0.1517810 24 -2.19982 0.0377 visit1V7 -0.246486 0.1517810 24 -1.62396 0.1174 همبستگی: (Intr) vst1V4 بازدید70701V4 -1V4 -0. باقیمانده‌های استاندارد شده درون گروهی: حداقل Q1 Med Q3 حداکثر -2.5208757 -0.5757388 0.2255019 0.7457944 1.2827374 تعداد مشاهدات: 39 تعداد گروه‌ها: دسته نمونه‌ای: دسته نمونه‌برداری شده %l1 نمونه‌ای از نمونه‌ها BIC logLik Test L.Ratio p-value lme1 1 16 73.15228 98.48859 -20.57614 lme2 2 6 53.50052 63.00163 -20.75026 1 در مقابل 2223 سوال من به نظر می رسد 1 در مقابل 223 0. بدون اثر دسته ای باشد. درست می گویم؟
جلوه های تصادفی تو در تو در lme
110538
من روی مشکلی کار می کنم که شامل مقدار زیادی NA است. فولکس واگن چگونه این موضوع را حل می کند؟ آیا باید قبل از پایپینگ به فرمت VW سعی کنم NAها را با colmeans یا چیزی شبیه به آن اضافه کنم؟
Vowpal Wabbit چگونه NA یا مقادیر گمشده را مدیریت می کند؟
25774
من مجموعه ای از داده ها دارم که گروه ها را در ایالات متحده به 15 دسته محله گسترده یا 72 بخش ریز دانه با نام های مسخره تقسیم می کند. بخش ها با استفاده از تحلیل عاملی با استفاده از سن، درآمد، قومیت، تحصیلات، وضعیت تأهل، نوع سکونت و حضور فرزندان ساخته شدند. این دسته بندی ها شهرنشینی، ثروت، سن، وضعیت خانوادگی و قومیت را در نظر می گیرند. بخش ها در دسته ها تو در تو قرار می گیرند. به عنوان مثال، طبقه بندی درآمد بالا، تحصیلات دانشگاهی، متاهل با فرزندان شامل 6 بخش است که از نظر سن و منابع درآمد تفاوت زیادی دارند. من 2 نوع متغیر دارم: 1. من بخش/رده غالب و دوم بزرگ (در صورت وجود) را برای هر گروه بلوک می دانم. با این نوع داده ها کار کردم، اما کنجکاو هستم که ببینم در مقایسه با استفاده از جمعیت شناسی سنتی چقدر مفید است. من عمدتاً به این موضوع علاقه مند هستم که چگونه مردم از داده های بخش بندی برای درک مشتریان خود استفاده می کنند. به جز اینکه گفته می شود گروه های خاصی مصرف کنندگان مشتاق هستند، بهترین شیوه ها چیست؟ هر گونه ارجاع محکمی پذیرفته می شود. من ندیده ام که این سوال زیاد در CV بحث شود. چند سوال کمتر مبهم: 1. آیا راهی برای جلوگیری از دور ریختن داده های دقیق بدون داشتن 72 متغیر توضیحی وجود دارد که اکثر آنها دارای صفر هستند؟ من معمولاً دیده‌ام که مردم از بخش‌های غالب/ثانویه به‌عنوان ساختگی استفاده می‌کنند، اما این انتخاب ضعیفی به نظر می‌رسد زیرا اطلاعات کمی را دور می‌اندازد. من عمدتاً در اینجا به دنبال مشاوره فرم عملکردی هستم. 2. آیا راهی برای بهره برداری از این واقعیت وجود دارد که بخش ها در دسته ها تودرتو هستند؟ اگر متوجه شوم که برخی از دسته‌ها مشتری بد هستند، در حالی که دسته دیگر عالی هستند، آیا می‌توانم دسته‌های خوب را به بخش‌های آن تفکیک کنم، در حالی که گروه بد را به عنوان یک دسته در نظر بگیرم؟ آیا می توانید طرح های طبقه بندی را با هم ترکیب کنید؟ 3. آیا متغیرهایی وجود دارد که در تکمیل گروه های ژئودموگرافیک مفید باشد؟ آیا هر چیزی که در تحلیل عاملی اصلی نباشد، مرتبط باشد و خیلی هم خط با خوشه ها نباشد، درست است؟
بهترین روش ها برای استفاده از داده های تقسیم بندی ژئودموگرافیک
112702
هر گونه کمکی قدردانی خواهد شد، زیرا مطمئن نیستم چگونه ادامه دهم. من یک مجموعه داده با داده های باینری دارم و توانسته ام یک مدل رگرسیون لجستیک را با آن تطبیق دهم (برای مثال وجود بیماری به عنوان تابعی از سن). پوشش داده‌ها بزرگ است و سنین 0 تا 90 سال را شامل می‌شود، و من معتقدم که می‌توانم از بتای خروجی برای پیش‌بینی احتمال بیماری برای افراد دیگر در جمعیت استفاده کنم. من این احتمالات پیش بینی شده را به عنوان پیشین در نظر گرفته ام. فرض کنید مطالعه متفاوتی در مورد یک موضوع وجود دارد، اما نمونه‌ها فقط شامل کودکان می‌شوند. این مطالعه از یک روش کاملاً متفاوت استفاده می کند، اما روش شناسی احتمال بیماری را نیز ارائه می دهد. راه مناسب برای به‌روزرسانی اولویت‌ها برای کودکان با این خروجی داده جدید چیست؟ من فکر می کردم که می توانم فقط از قضیه بیز استفاده کنم، اما مجموعه داده دوم به هیچ وجه با اولی مرتبط نیست (به طوری که نمی توانم پارامترهای مدل را به روز کنم) و من فقط احتمالات پیش بینی شده خروجی را دارم. پیشاپیش از شما متشکرم.
نحوه به روز رسانی احتمالات در جایی که مجموعه داده ها و روش های تجزیه و تحلیل متفاوت است
9928
چه توزیعات دم چربی $p(x)$، متقارن در مورد صفر، دارای ویژگی $$\newcommand{\e}{\mathbb{E}}\newcommand{\rd}{\mathrm{d}} \ e e^X = \int_{-\infty}^{\infty} e^x p(x) \rd x < \infty \> ? $$ **Context** من سعی می کنم گزینه های مالی را بدون استفاده از فرمول Black-Scholes به قیمت X$$ قیمت گذاری کنم. معمولاً کار با log-price $Y = \log(X)$ آسان‌تر است و اغلب فرض می‌شود که $Y$ معمولاً توزیع می‌شود. مشاهدات تجربی (به عنوان مثال، لبخند نوسان) نشان می دهد که $Y$ طبیعی نیست. توزیع نرمال به سرعت به دور از 0 کاهش می یابد. بنابراین، ما به توزیع دم چربی نیاز داریم. با افزایش خطی $Y$، ارزش یک گزینه فراخوان به صورت تصاعدی افزایش می یابد. بنابراین، $p(x)$ باید آنقدر سریع کاهش یابد که $\e e^X < \infty$. به عبارت دیگر، توزیع باید کندتر از توزیع معمولی کاهش یابد، اما همچنان آنقدر سریع باشد که $\e e^X$ همگرا شود. من توزیع‌های $t$ کوشی و Student را امتحان کردم، اما $\e e^X$ برای هر دو، صرف‌نظر از پارامترها، واگرا می‌شود. همچنین می‌دانم که می‌توانم توزیع‌های دلخواه را مطابق با شرایطم ایجاد کنم (اگرچه دقیقاً مطمئن نیستم که چگونه)، اما من به دنبال توزیع شناخته شده (خانواده پارامتری شده) هستم. حتی جزئیات بیشتر (برای مازوخیست): https://github.com/barrycarter/bcapps/blob/master/bc-imp-vol.m
توزیع های متقارن دم چربی که در آن $\mathbb{E} e^X < \infty$
25776
اگر بخواهیم انواع متغیرها را تعیین کنیم برای متغیرهای زیر به صورت زیر خواهد بود؟ _Age_ \---> کمی، گسسته (می توانیم شمارش کنیم) _Fitness_ \---> اگر مقادیری که در اینجا وارد می کنیم فقط 0 و 1 باشد، آیا نوع این متغیر خواهد بود کیفی، «اسمی»؟ خیلی ممنون
آیا انواع متغیر در اینجا صحیح در نظر گرفته می شود؟
114095
من تنظیم ریاضی خاصی برای این سوال ندارم. سطح نسبتاً بالایی است اگر یک دسته داده X برای متغیری دارید که می‌خواهیم Y را پیش‌بینی کنیم، و تنها چیزی که به آن اهمیت می‌دهیم پیش‌بینی در محدوده مقادیر مشاهده‌شده است، آیا در یافتن یک مدل سودمندی وجود دارد؟ چرا نمی‌توانیم یک احتمال (توزیع) برای Y با داده‌های X قرار دهیم؟
بازیابی داده در مقابل مدل سازی
55850
من یک توزیع عادی یک بعدی با میانگین $\mu$ و انحراف استاندارد $\sigma$ دارم. با توجه به یک عدد جدید $x$، می‌خواهم یک مقدار اطمینان به احتمال اینکه $x$ از توزیع $\mathcal{N}(\mu,\sigma)$ 1 گرفته شده است، یک مقدار اطمینان اختصاص دهم - cdf به من $ می‌دهد. P(X > x)$ اما مطمئن نیستم که این چیزی است که من به دنبال آن هستم. هر کمکی بسیار قابل قدردانی است **ویرایش** فقط یک فکر دیگر، مقدار $x$ در یک طرف میانگین یا در خود میانگین قرار خواهد گرفت. اساساً می‌خواهم یک معیار اطمینان تعریف کنم که با دور شدن نقطه از میانگین به 0 کاهش می‌یابد و در میانگین 1 است. پس در مورد $0.5 + f(x)$ که در آن $f(x)$ pdf توزیع نرمال بین مرزهای $\mu$ و $x$ است، چطور؟ با تشکر
معیار اطمینان نرمال شده نقطه از توزیع نرمال
110530
من ممکن است اشتباه کنم، فقط احساس می‌کنم مورد زیر با مشکل مدل‌سازی مشاهدات با مزدوج قبلی متفاوت است: فرض کنید من $n$ گاوس‌های مختلف دارم که هرکدام دارای میانگین متفاوت (اما شناخته شده) $\mu_i$ و واریانس $v_i هستند. $: $N(\mu_i,v_i), i=1..n$ بنابراین در اینجا مشاهدات در واقع در مورد پارامترها هستند: $\mu_i,v_i$. چگونه توزیع قبلی این $n$ گاوسی ها را مدل کنیم تا بتوانم یک گاوسی مشابه دیگر از این توزیع قبلی ایجاد کنم؟
نحوه مدل سازی توزیع قبلی چندین گاوسی با پارامترهای شناخته شده
55853
من می خواهم یک سری زمانی غیر ثابت را برای جا دادن یک مدل ARIMA با فرمول X(t)=X(t)-X(t-1) (با استفاده از تابع 'diff' در MATLAB) متفاوت کنم، اما نمی توانم بفهمم که باید از چه چیزی استفاده کنم. برای اولین مقدار از آنجایی که مقدار قبل از اولین مقدار وجود ندارد؟ آیا باید از صفر یا همان مقدار X(1) استفاده کنم؟ با تشکر
وقتی برای مدل ARIMA تفاوت می کنیم، اولین مقدار چقدر خواهد بود
21850
میانگین و واریانس توزیع نرمال چین خورده مشخص است. اکنون توزیع $(|x_1|، \ldots، |x_n|)$ را در نظر بگیرید، جایی که $\mathbb{x} \sim N(\mu، \Sigma)$. میانگین توزیع نرمال تا شده چند متغیره به راحتی بدست می آید. اما در مورد واریانس چطور؟ من نتوانستم مراجع پیدا کنم و محاسبه پیچیده به نظر می رسد. هر پیشنهادی؟
آیا واریانس توزیع نرمال چین خورده چند متغیره مشخص است؟
85865
[هشدار تازه کار داده کاوی] طبق تعریف زیر از Lift، $ Lift(A=>B) = Supp(A \cup B) / (Supp(A) * Sup(B)) $ اگر همیشه Lift را به عنوان 1 داشته باشیم ، فقط با 1 بودن $Supp(A)$ یا $Supp(B) $ امکان پذیر است. $A \cup B$ هرگاه $B$ اتفاق بیفتد اتفاق می‌افتد. آیا در غیر این صورت آیا آسانسور می تواند 1 دلار باشد؟
می تواند همیشه 1 باشد بدون اینکه Supp(A) یا Supp(B) 1 باشد
71070
من مقدار محتوای آلی در استخوان پرنده (درصد) را در دو شرایط مختلف و همچنین در دو دوره زمانی مدل‌سازی می‌کنم. طرح اقدامات مکرر است - مشاهدات در هر دو شرایط و دوره های زمانی از یک استخوان (تقسیم شده به قطعات) حاصل می شود. من می خواهم فرضیه ها را آزمایش کنم: 1) تفاوتی در E(Y) در شرایط وجود ندارد، 2) تفاوتی در E(Y) در طول زمان وجود ندارد، 3) تفاوتی در تفاوت E(Y) وجود ندارد (یعنی. ، تعامل زمان*شرایط). من موارد زیر را امتحان کردم (اینجا با داده های ساختگی): set.seed(6753) dat <- data.frame( id = rep(1:15، هر = 4)، pc.organic = rnorm(60، 0.11، 0.055 )، شرط = ضریب (rep(c(خام، پیشرفته)، بار = 30))، سال = ضریب (rep(c(1، 1، 2، 2)، بار = 15)) کتابخانه (lme4) fm1 <- lmer(pc.organic ~ شرط * سال + (1 | شناسه)، داده = داده) خلاصه (fm1) این، به نظر من، مناسب است مدلی برای توضیح عدم استقلال مشاهدات در طراحی اندازه گیری های مکرر. با این حال، مطمئن نیستم که با توجه به ماهیت متغیر پاسخ، خوب است یا خیر. پاسخ بین حدود 0.01 (1٪) و 0.2 (20٪) متفاوت است. آن را به صفر (بدیهی است)، اما همچنین در 40٪ محدود می شود (این حداکثر مقدار محتوای آلی در هر استخوان است - 60٪ غیر آلی است). گزینه دیگر استفاده از 40% به عنوان مخرج هنگام تعریف درصد است، بنابراین مقادیر قبلی به ترتیب 025.0 و 0.5 خواهد بود. با این حال، این باز هم پاسخ را بین 0 و 1 محدود می کند. من در مورد رگرسیون بتا و همچنین در مورد استفاده از تبدیل لاجیت برای خطی کردن داده ها خوانده ام. در صورت امکان، من می خواهم از رفتن به این مسیرها خودداری کنم، زیرا سایر محققان رشته من با این روش ها آشنا نیستند. از هر گونه پیشنهادی استقبال می شود.
مدل داده نسبت محدود شده در طرح اندازه گیری مکرر
21854
حاشیه خطا بر اساس اندازه نمونه است. در گزارش یک مشاور (که در این مرحله محرمانه است)، آنها پاسخ‌های 10 مدیر فروشگاه (از مجموع 200 مدیر فروشگاه یعنی جمعیت هدف) را جمع‌آوری کردند و در ادامه اظهاراتی مانند «تنها 20 درصد از پاسخ‌دهندگان خوشحال بودند». با عملکرد فروش فروشگاه های خود». حاشیه خطا در این مورد حدود 32 درصد است. با فرض سطح اطمینان 95 درصد، پاسخ واقعی بین 12- تا 52 درصد است. ** چگونه می توان این نتیجه (به ویژه بخش منفی) را تفسیر کرد؟** ** استفاده از حاشیه خطا برای حجم نمونه کوچک (مثلاً نمونه 15 نفری از یک جامعه هدف 60 نفری) عاقلانه است؟**
تفسیر حد اطمینان منفی برای یک نسبت
107939
من می دانم که محاسبات اندازه نمونه برای RCT های خوشه ای باید برای داده های خوشه ای تنظیم شود. می‌خواهم بهتر بدانم که آیا چنین تنظیمی برای طرح‌های مطالعاتی دیگر ضروری است یا خیر. برای مثال، من روی یک مطالعه مورد-شاهدی تودرتو کار می‌کنم تا عوامل بالینی و اجتماعی-جمعیتی مرتبط با ماندگاری بیمار را شناسایی کنم. ما از داده های پرونده پزشکی جمع آوری شده از مراکز بهداشتی استفاده خواهیم کرد. همه بیماران از همه مکان‌هایی که معیارهای ورود را دارند در مطالعه گنجانده می‌شوند (بدون نمونه‌گیری فی نفسه). این مطالعه سعی ندارد در مورد هیچ پارامتر جمعیتی استنباط کند. آیا محاسبه اندازه نمونه باید برای خوشه بندی تنظیم شود؟ به هر حال، این احتمال وجود دارد که داده های انتزاعی از سوابق پزشکی خوشه بندی شوند. در عین حال، آیا تجزیه و تحلیل باید برای خوشه بندی تنظیم شود؟ اگر مطالعه یک RCT خوشه‌ای بود و همه بیماران از همه مکان‌هایی که معیارهای ورود را دارند در مطالعه گنجانده می‌شدند - آیا محاسبه حجم نمونه نیاز به تنظیم برای خوشه‌بندی دارد؟
چه زمانی محاسبات اندازه نمونه برای خوشه بندی نیاز به تنظیم دارد؟
55854
من مجموعه‌ای از داده‌های دو بعدی دارم که می‌خواهم مراکز تعداد مشخصی از مراکز دایره‌ها ($N$) را پیدا کنم که تعداد کل نقاط را در یک فاصله مشخص ($R$) به حداکثر می‌رسانند. به عنوان مثال من 10000 نقطه داده $(X_i، Y_i)$ دارم و می‌خواهم مراکز دایره‌های $N=5$ را پیدا کنم که تا حد امکان نقاط ممکن را در شعاع $R=10$ می‌گیرند. 5 مرکز و شعاع 10 از قبل داده شده است، نه از داده ها مشتق شده است. وجود یک نقطه داده در یک دایره یک گزاره یا/یا باینری است. اگر $R=10$ باشد، هیچ تفاوتی در ارزش نقطه 11 واحد در مقابل 100 واحد دورتر وجود ندارد، زیرا هر دو > 10 هستند. به طور مشابه برای قرار گرفتن در دایره، بودن در نزدیکی مرکز در مقابل نزدیک بودن ارزش اضافی ندارد. لبه یک نقطه داده یا در یکی از دایره ها یا خارج است. آیا الگوریتم خوبی برای حل این مشکل وجود دارد؟ به نظر می‌رسد که اینها به تکنیک‌های خوشه‌بندی مرتبط هستند، اما به جای کمینه کردن فاصله متوسط، تابع «فاصله» 0 است اگر نقطه در $R$ هر یک از نقاط $N$ باشد و در غیر این صورت 1 است. ترجیح من یافتن راهی برای انجام این کار در R است، اما هر رویکردی قابل قدردانی است.
یافتن تعداد مشخصی از مراکز دایره ای که تعداد نقاط را در یک فاصله ثابت به حداکثر می رساند
12715
من همیشه با تست نرمال بودن برای پیش‌بینی‌کننده‌های کمی (بدون فاکتور) و تبدیل آن‌ها به حالت عادی مبارزه می‌کنم. * اگر من یک GLMM را اجرا می‌کنم و پیش‌بینی‌کننده‌های من واقعاً غیرعادی هستند، آیا باید آنها را نیز تغییر دهم تا سعی کنم آنها را به طور عادی توزیع کنم؟ * می دانم که این برای متغیر پاسخ مهم است اما با پیش بینی کننده ها چه باید کرد؟ P.S.: من واقعاً نتوانستم سؤال مشابهی پیدا کنم.
آیا پیش‌بینی‌کننده‌های کمی باید تبدیل شوند تا به طور عادی توزیع شوند؟
56417
من سعی می کنم یک طرح نظرسنجی مبتنی بر تکرار ابداع کنم که دقیقاً طرحی از سری تیلور را که توسط انتشارات دولت ایالات متحده استفاده می شود تکرار کند - جایی که من به همه متغیرهای CLUSTER دسترسی ندارم. اداره سرشماری ایالات متحده یک بررسی سه ساله از خانه های شهر نیویورک به نام NYCHVS را منتشر می کند. در مستندات رسمی خود، آنها توصیه می کنند که تحلیلگران از فرمول واریانس تعمیم یافته استفاده کنند، که آشکارا یک کابوس محاسباتی است - زیرا همه چیز باید با دست محاسبه شود. با این حال، آنها همچنین مجموعه ای از بسته های جدول را منتشر می کنند که حاوی خطاهای استاندارد محاسبه شده از طریق روش خطی سازی سری تیلور است. وقتی با آنها در مورد نحوه بازتولید آمارشان تماس گرفتم، گفتند > متغیرهای مناسب برای استفاده او منطقه و بخش است. متغیر 'borough' در مجموعه داده موجود است، اما متغیر 'segment' موجود نیست - و آنها آن را به دلیل نگرانی های مربوط به محرمانه بودن منتشر نمی کنند. من می توانم به طور دقیق ابزار و میانه آنها را بازتولید کنم - متغیر hhweight برای آن کافی است. من سعی کردم وزن‌های تکراری خودم را بسازم (فقط یک ماتریس از «0» و «1»)، اما خطاهای استاندارد من یا بسیار بزرگ هستند یا اساساً هیچ تفاوتی با یک «نمونه تصادفی ساده» ندارند (و تا اینجا نیز). کوچک). بدیهی است که من هرگز با آمارهای دولت ایالات متحده کاملا مطابقت نخواهم کرد، اما اگر فقط یکی از دو متغیر «CLUSTER» را داشته باشم، آیا راه مناسبی برای کالیبره کردن و ایجاد یک طرح نظرسنجی وجود دارد که من را به پاسخ درست نزدیک کند؟ ممنون!! :)
اجتناب از فرمول واریانس تعمیم یافته برای نظرسنجی مسکن و جای خالی نیویورک
21851
فرض کنید من در حال ساخت یک مدل پیش‌بینی هستم که در آن سعی می‌کنم چندین رویداد را پیش‌بینی کنم (به عنوان مثال، هم چرخش یک قالب و هم پرتاب یک سکه). اکثر الگوریتم هایی که من با آنها آشنا هستم تنها با یک هدف کار می کنند، بنابراین نمی دانم که آیا رویکرد استانداردی برای این نوع چیزها وجود دارد یا خیر. من دو گزینه ممکن را می بینم. شاید ساده‌لوحانه‌ترین رویکرد این باشد که آنها را به‌عنوان دو مشکل متفاوت در نظر بگیریم و سپس نتایج را ترکیب کنیم. با این حال، هنگامی که دو هدف مستقل نباشند، این اشکالات جدی دارد (و در بسیاری از موارد ممکن است بسیار وابسته باشند). یک رویکرد معقول تر برای من ایجاد یک ویژگی هدف ترکیبی است. بنابراین در مورد قالب و سکه، حالت های $6\cdot 2=12$ خواهیم داشت ($(1، H)، (1، T)، (2، H)$، و غیره). با این حال، این می‌تواند منجر به افزایش سریع تعداد حالت‌ها/کلاس‌ها در هدف ترکیبی شود (اگر 2 تاس داشته باشیم و غیره چه می‌شود). علاوه بر این، در موردی که یک ویژگی مقوله‌ای است در حالی که دیگری عددی است، عجیب به نظر می‌رسد (مثلاً برای پیش‌بینی دما و نوع بارش). آیا رویکرد استانداردی برای این نوع چیزها وجود دارد؟ از طرف دیگر، آیا الگوریتم های یادگیری به طور خاص برای مدیریت این موضوع طراحی شده است؟
پیش بینی اهداف یا کلاس های متعدد؟
25773
**آنچه من دارم:** یک پایگاه با موارد طبقه بندی شده وجود دارد. **23 متغیر مستقل** در این طبقه بندی و **10 گروه** استفاده شده است. پایگاه دیگری دارای موارد جدید طبقه بندی نشده است. این 23 متغیر مستقل نیز وجود دارد. من تجزیه و تحلیل تفکیک را در SPSS بر اساس پایه اول انجام می دهم (من **کوواریانس درون گروهی** را در تجزیه و تحلیل تشخیصی: آمار > ماتریس ها انتخاب می کنم) و سپس می توانم مدل را به عنوان یک فایل XML ذخیره کنم و آن را در پایه دوم اعمال کنم. اما من باید بدون استفاده از SPSS طبقه بندی را خودم انجام دهم، اما دقیقاً مانند SPSS (چه حیف است!) ** اکنون چگونه این کار را انجام می دهم:** در پایه اول ** میانگین هر 23 متغیر در هر گروه را محاسبه می کنم ** یعنی من 23*10 وسیله مختلف دارم. سپس برای هر مورد در پایه دوم **10 فاصله ماهالانوبیس** را محاسبه می کنم: D[k]= مجموع [j=1..23] (x[j]-x[jk])^2 k=1.. 10 عددی از گروه x[j] مقدار متغیر مستقل است x[jk] میانگین متغیر مستقل در گروه k پس از انجام تمام این کارها، من در خروجی SPSS عدد 10 را جستجو می کنم. مقادیر **احتمالات قبلی** (pp). سپس برای هر مورد 10 متغیر محاسبه می کنم: pp[k] * e ^ (-D[k]/2) k=1..10 سپس هر یک از این متغیرها را بر مجموع همه آنها تقسیم می کنم. بنابراین من **احتمالات پسین** را دریافت می کنم. من موردی را در گروهی طبقه بندی می کنم که احتمال پسین آن حداکثر است. اما طبقه بندی من دقیقاً مانند SPSS نیست. اگرچه اندازه گروه ها به نوعی مشابه است. من اعتراف می کنم که می توانستم چیزی واقعاً اشتباه و/یا احمقانه انجام دهم :) ** نظریه ای که استفاده کردم:** http://publib.boulder.ibm.com/infocenter/spssstat/v20r0m0/index.jsp?topic=% 2Fcom.ibm.spss.statistics.help%2Falg_discriminant.htm J.-O. کیم، سی یو. مولر و سی. کلکا، تحلیل عاملی، تفکیک کننده و خوشه ای
چگونه می توان موارد جدید را دقیقاً همانطور که SPSS انجام می دهد در تجزیه و تحلیل متمایز طبقه بندی کرد؟
109266
من جدولی از شباهت‌ها دارم که از طریق کسینوس بیان شده است و سعی می‌کنم با استفاده از «hclust» و «method=ward» مقداری تحلیل خوشه‌ای در R انجام دهم. ابتدا باید کسینوس ها را به فاصله های اقلیدسی مجذور تبدیل کنم، با دانستن اینکه $d=2(1-\cos)$. مشکلی نیست. «myData» را به «myDataDist» تبدیل کردم. اما وقتی از «hclust (myDataDist, method=ward)» استفاده می‌کنم، یک خطا به من می‌دهد: must have n >= 2 شیء برای خوشه‌بندی، احمقانه‌ترین چیز این است که اگر جدول کسینوس‌ها را با فاصله اقلیدسی به فواصل اقلیدسی تبدیل کنم. تابع: `myDataDist <- dist(myData, method = euclidean)` به خوبی کار می کند، اما سپس دندروگرام توسط hclust اشتباه است. (می دانم چون با برنامه خوشه بندی دیگری امتحان کردم.) آیا کسی کد متدهای 'dist' یا 'ward' را در R بررسی کرده است؟ چرا با فاصله‌های مربع اقلیدسی که به صورت دستی $d=2(1-\cos)$ محاسبه می‌شوند، «hclust» آنطور که باید کار نمی‌کند؟
فاصله های hclust، R و اقلیدسی: چیزهای عجیب و غریب
114098
داشتم کتاب درسی «[مدل‌های احتمالی برای تکامل توالی DNA][1]» نوشته «دورت» را می‌خواندم. در فصل 1، او مدل رایت فیشر و نظریه ادغام را که به آن علاقه مندم، مورد بحث قرار می دهد. او هتروزیگوسیتی را به عنوان احتمال یکسان بودن دو نسخه از یک آلل تعریف می کند. در قضیه 1.3، او مقدار مورد انتظار هتروزیگوت را به دست می‌آورد، اما آنچه به نظر می‌رسد به دست می‌آورد، مقدار مورد انتظار احتمال این است که دو آلل یک نیای مشترک دارند. به نظر نمی رسد این برای من مشابه هتروزیگوسیتی باشد. آیا من اینجا چیزی را از دست داده ام؟ [1] http://www.math.duke.edu/~rtd/Gbook/PM4DNA_0317.pdf
هتروزیگوسیتی و مدل رایت-فیشر
25775
من داده‌هایی را در مورد آزمودنی‌های آزمایشی جمع‌آوری کرده‌ام که به 4 دسته طبقه‌بندی شده‌اند، و می‌خواهم احتمالات (نسبت‌های شانس؟) ایجاد برخی شرایط برای یک موضوع آزمایشی در یک دسته را محاسبه کنم. داده ها به شرح زیر است: وضعیت موجود شرایط موجود نیست. حدس می‌زنم این بدان معناست که بین دسته‌ها و افزایش احتمال ابتلا به آن شرایط همبستگی وجود دارد؟ اگر چنین است، چگونه باید احتمال دقیق ایجاد شرایط را برای هر دسته محاسبه کنم؟
چگونه احتمالات جدول 4 در 2 را محاسبه کنیم؟
25779
من چیزی را دارم که می‌توانم آن را شبه پانل می‌نامم، که در آن متغیر وابسته من در طول زمان و مکان تغییر می‌کند (شمارش مرگ‌های منطقه‌ای)، اما متغیر x مورد علاقه من اینطور نیست (سری‌های زمانی دستمزد ملی). اساساً، من می‌خواهم به تأثیر تغییرات دستمزد واقعی بر مرگ‌ومیر نگاه کنم، بنابراین $\log (D_{it})=f(\log (W_{t}))$. با این حال من با مشکلاتی مواجه شده ام. در اینجا مراحلی که برداشته ام و مشکلات (همانطور که می بینم) با آنها آمده است. من به دنبال پیشنهادهایی هستم که بهترین راه برای مدل‌سازی داده‌های پانل طولانی در این فرم چیست. من نمی توانم هیچ مرجعی در مورد مدل سازی یک متغیر پانل پیدا کنم که در مقطع متفاوت نباشد. 1. OLS با استفاده از اولین تفاوت ها. در اینجا چند مشکل وجود دارد. اولا، هیچ راه خوبی برای انتخاب طول تاخیر وجود ندارد. در تنظیمات سری زمانی، من فقط از AIC یا BIC استفاده می کنم. در این برنامه، مدل را همیشه می توان با اضافه کردن تاخیر بهبود کرد. به طور مشابه، از آنجایی که خطاها همبستگی خودکار هستند، من یک متغیر وابسته تاخیری اضافه کرده ام. باز هم، من می‌توانم تعداد زیادی از این متغیرها را اضافه کنم، در حالی که یک بار دیگر تناسب مدل را بهبود می‌دهم، اما نمی‌توانم با همبستگی خودکار مقابله کنم! چیزی که این را بدتر می کند این است که همه ضرایب با کشش های بیش از 0.2 (و همچنین نسبت t بسیار بالا!) معنی دار هستند. به نظر نمی رسد راه خوبی برای تعیین مشخصات مدل در این مدل وجود داشته باشد. 2. رویکرد دومی که من اتخاذ کرده ام این است که هر سری مرگ و میر را به صورت جداگانه به عنوان یک رگرسیون خطی دینامیک با استفاده از بسته R-DLM مدل کنم. در این تجزیه و تحلیل، من متغیر مرگ و میر را به شکل سطوح خام باقی می‌گذارم زیرا رهگیری یک زنجیره مارکوف است. تأثیر دستمزدهای واقعی نیز با زمان متغیر است، بنابراین، در واقع، من تأثیر را در هر منطقه برای هر دوره زمانی محاسبه می‌کنم. بنابراین نتایج توزیع اثرات خواهد بود. این روش به خوبی کار می کند (تا حدی) زیرا هیچ خودهمبستگی در باقیمانده ها وجود ندارد. با این حال، من مطمئن نیستم که اجرای بیش از 400 رگرسیون جداگانه یک استراتژی مدل سازی خوب باشد، زیرا بسیار ناکارآمد است. 3. من یک رگرسیون سری زمانی به ظاهر نامرتبط را با استفاده از استنتاج بیزی (گیبز با پیشین های گامای معکوس d) امتحان کردم، اما اجرای این روش زمان زیادی طول کشید و پاسخ های عجیبی را به همراه داشت.
داده‌های پانل «شبه» مدل‌سازی انتخاب تأخیر
72554
من مشکلی دارم که در آن متغیر مهم انتگرال PDF مربع یک متغیر تصادفی است، یعنی $\int f(x)^2dx$ چگونه باید این ویژگی یک توزیع را تفسیر کنم؟ اگر $f(x)$ گاوسی باشد، پس این با واریانس $\sigma^2$ نسبت معکوس دارد، اما من فکر نمی‌کنم که این به طور کلی درست باشد. (توجه داشته باشید که این نیز برابر است با $\int F(x)f'(x)dx$).
تفسیر یک پی دی اف مربع
85862
فرض کنید یک فرآیند AR(1) ثابت داریم: $Y_{t+1}=a+ \rho Y_{t} + \epsilon_{t+1}$ که $\epsilon_{t+1}$ نویز سفید با احتمال است. تابع چگالی $\phi(.)$. حالا بگوییم که معادله ای داریم $P_{t+1}=u\cdot (A_{m}-Y_{t+1})^{+}$ که در آن $(Y_{m}-Y_{t+1}) ^{+}$ = $ \max \\{(A_{m}-Y_{t+1})،0\\}$ و $u$ یک ثابت است. بنابراین $P_{t+1}=u\cdot(A_{m}-a-\rho Y_{t}-\epsilon_{t+1})^{+}$. آیا می توانیم بنویسیم $E[P_{t+1} \mid Y_{t}]= u\cdot \int_{-\infty}^{(A_{m}-a - \rho Y_{t})}(A_ {m}-a-\rho Y_{t}-\epsilon_{t+1})\phi(\epsilon_{t+1})d\epsilon_{t+1}$ ?
انتظارات مشروط در فرآیند AR(1).
74078
من داده‌هایی دارم که در آنها تعداد موارد منفی در پاسخ تقریباً 98٪ از کل حجم نمونه است (# رکورد کل تقریباً 1 میلیون است، پاسخ باینری است). موارد مثبت تقریباً 2٪ است. محدودیت‌های اعمال «glm» و «cart» در چنین داده‌هایی چیست؟ در چنین مواردی چه گزینه ای دارم؟ در داده های آزمایشی، من یک AUC بسیار خوب ~ 0.92 دریافت کردم. چقدر باید به این مدل اعتقاد داشته باشم با توجه به چنین اختلافی در تعداد موارد در دسته های مثبت و منفی؟
نحوه برخورد با داده هایی که تعداد آنها در هر کلاس بسیار زیاد است
87215
یک سوال بسیار گیج کننده در ذهن من وجود دارد. من داده‌هایی دارم و می‌خواهم نمرات عددی را بین مردان و زنان مقایسه کنم. در این دو گروه تفاوت زیادی وجود دارد: تعداد مردان 34 نفر و تعداد زنان 310 نفر است و واریانس ها برابر نیستند. تا آنجا که من می دانم، زمانی که واریانس ها برابر نیستند، می توانم از معادله ولش-ساترویت (آزمون t مستقل با فرض واریانس های نابرابر) استفاده کنم. سوال من این است: آیا هنوز هم می توانم از این معادله استفاده کنم، اگرچه تفاوت بسیار زیادی در اندازه نمونه بین دو نمونه من وجود دارد؟ یا محدودیت خاصی برای تفاوت حجم نمونه بین دو نمونه وجود دارد؟
آیا تفاوت بزرگ در اندازه نمونه برای آزمون t مستقل مهم است؟