_id stringlengths 1 6 | text stringlengths 0 7.5k | title stringlengths 0 167 |
|---|---|---|
59197 | در رابطه با ادراک معلمان، میخواهم اندازهگیری کنم: 1. **درک کمکرسانی** 2. **سطح کمکرسانی مورد نیاز** برای رضایت پاسخدهنده و 3. **مهم بودن کمکرسانی** ( به عنوان جنبه ای که معلم توسط همان پاسخ دهنده قضاوت کرده است.) من برای هر سه سؤال از مقیاس لیکرت استفاده کردم: 1. معلم من مفید بود: به شدت مخالفم - کاملاً موافقم 2. می خواهم معلم چقدر مفید باشد: می خواهم (مفید بودن) معلم با مقیاس لیکرت باشد. 3. کمک کردن از معلم چقدر مهم است: (کمک بودن) معلم برای من از اهمیت لیکرت برخوردار است ### سوالات * آیا روشی بهتر از استفاده از مقیاس نوع لیکرت برای اندازه گیری این سه متغیر وجود دارد؟ * ابزار(های) آماری مناسب برای ارزیابی همبستگی بین هر سه متغیر کدام است؟ | ابزار(های) آماری برای همبستگی ادراکات با مقیاس های نوع لیکرت |
103714 | فرض کنید من دو نفر A و B دارم که هر کدام وظیفه متفاوتی را انجام می دهند. آنها دارای یک امتیاز استعداد هستند که نشان می دهد چقدر خوب انجام می دهند. A دارای امتیاز استعداد a و B دارای امتیاز استعداد b است. A در انجام وظیفه خود موفق می شود در حالی که اکثریت افرادی که دارای امتیاز مساوی یا بالاتر هستند شکست می خورند. B در انجام وظیفه خود شکست می خورد در حالی که اکثر افراد با نمرات استعداد یکسان یا پایین تر موفق می شوند. آیا ابزارهای ریاضی در مورد نحوه محاسبه تغییر نمرات استعداد آنها پس از این رویداد وجود دارد؟ من به دنبال چیزی شبیه به سیستم رتبه بندی Elo هستم که با رقابت مستقیم سر و کار نداشته باشد (از آنجایی که این بازیکنان کارهای خود را انجام می دهند و با یکدیگر مقابله نمی کنند). پیشاپیش متشکرم | متریک عملکرد |
67558 | برای درک من، مدل لاجیت چند جمله ای نیاز به محدود کردن پارامترهای یک دسته به صفر دارد. با این حال، بسته{glmnet} به نظر میرسد که پارامترهای مختلفی را به هر کلاس اجازه میدهد. کسی می تواند این دلیل را توضیح دهد؟ پیشاپیش از شما بسیار سپاسگزارم. به عنوان مثال: #Reading packages library(glmnet) library(nnet) ## Testing lasso <- glmnet(as.matrix(iris[,-5]), iris$Species, family = multinomial) lasso.cv <- cv. glmnet(as.matrix(iris[,-5])، iris$Species، خانواده = چند جمله ای) ## Coef. از lasso$a0[,which(lasso$lambda == lasso.cv$lambda.min)] lasso$beta$setosa[، که(lasso$lambda == lasso.cv$lambda.min)] lasso$beta$ versicolor[، که (lasso$lambda == lasso.cv$lambda.min)] lasso$beta$virginica[, which(lasso$lambda == lasso.cv$lambda.min)] ### چرا {glmnet} می تواند پارامترهای دسته همه را محاسبه کند؟ ## مقایسه با نتیجه {nnet} nnetRes <- چند نامی (فرمول = iris$Species ~ iris$Sepal.Length + iris$Sepal.Width + iris$Petal.Length + iris$Petal.Width، iris) nnetخلاصه <- خلاصه (nnetRes) nnetSummary$ضرایب ### به طور کلی، مانند {nnet}، مدل لاجیت چند جمله ای نمی تواند پارامترهای ### یک دسته مرجع را محاسبه کند. | چرا {glmnet} را می توان برای همه دسته ها پارامترها محاسبه کرد؟ |
115051 | داده های من: من دو الگوی فصلی در داده های ساعتی خود دارم... روزانه و هفتگی. به عنوان مثال... هر روز در مجموعه داده من تقریباً بر اساس ساعت روز شکل یکسانی دارد. با این حال، روزهای خاصی مانند شنبه و یکشنبه در دادههای من افزایش مییابد، و همچنین شکلهای ساعتی کمی متفاوت است. (با استفاده از Holt-Winters، همانطور که در اینجا کشف کردم) من الگوریتم را اجرا کردم، از 24 به عنوان دوره های خود در هر فصل استفاده کردم، و با پیش بینی 7 فصل (1 هفته)، متوجه شدم که روزهای هفته را بیش از حد پیش بینی می کند و پیش بینی کمتری می کند. آخر هفته از آنجایی که منحنی شنبه را بر اساس منحنی جمعه تخمین زده است و نه ترکیبی از منحنی جمعه و شنبه$(t-1)$. چه راه خوبی برای گنجاندن یک دوره ثانویه در داده های من است، مانند 24 و 7؟ آیا الگوریتم دیگری وجود دارد که باید از آن استفاده کنم؟ | الگوریتم تشخیص سری زمانی برای داده های چند فصلی با استفاده از پایتون |
96857 | این اولین پست من در StackExchange است، بنابراین امیدوارم در جای مناسب پست بگذارم. من سعی می کنم تابع چگالی احتمال صحیح را برای جابجایی خالص متغیرهای تصادفی X و Y از مبدأ استخراج کنم، با این فرض که آنها مستقل، به طور معمول توزیع شده و واریانس مساوی دارند. برای شروع، احتمال مشترک هر x،y مستقل با چگالی احتمال یک توزیع نرمال دو متغیره داده می شود. $$P(x,y) = {1 \over 2\Pi\sigma_x\sigma_y} e^{\big({-1 \over 2}\big[ {(x-\mu_x)^2 \over \sigma_x ^2} + {(y-\mu_y)^2 \over \sigma_y^2}\big]\big) }$$ اگر بیشتر فرض کنیم که استاندارد انحراف x و y برابر هستند، سپس: $$P(x,y) = {1 \over 2\Pi\sigma^2} e^{\big({-1 \over 2}\big[ {(x -\mu_x)^2 + (y-\mu_y)^2 \over \sigma^2}\big]\big) }$$ در نهایت، اگر به احتمال اینکه یک جفت مختصات (x,y) فاصله معینی r از مبدا است (x=0, y=0) سپس می توانم جایگزین کنم: $$r^2 = (x-\mu_x)^2 + (y-\ mu_y)^2$$ برای تعیین چگالی احتمال مشترک بر حسب r، جابجایی خالص (x,y) از مبدا به صورت زیر است: $$P(r) = {1 \over 2\Pi\sigma^2} e^{\big({-r^2 \over \sigma^2}\big) }$$ با این حال، با استفاده از برنامه R متوجه شدم که این تابع چگالی درست برای جابجایی دو متغیر تصادفی مستقل با توزیع نرمال با واریانس مشترک: sigma=2 X <- rnorm(1000,0,sigma) Y <- rnorm(1000,0,sigma) R <- sqrt(X^2+Y^2) hist(R, freq=F) curve(as.numeric(lapply(x,function(x){(1/(2*3.14159*sigma^2))*exp(-(x^2)/(2*sigma^2))})) col='blue',add=T,lty=5,lwd=2) به نظر میرسد که این واقعیت را در نظر نمیگیرد که حلقههای دور دور محیط بیشتری دارند و به نظر من شهودی است که بیشترین چگالی احتمال r برابر با انحراف استاندارد مشترک X و Y باشد. | PDF برای جابجایی خالص دو متغیره معمولی X و Y |
28284 | یکی از راههای محاسبه اهمیت یک متغیر در رگرسیون، دریافت کاهش $RSS$ زمانی است که مدلی را بدون متغیر مورد نظر محاسبه میکنیم. آیا این برای رگرسیون با خطاهای ARIMA معتبر است؟ فرض کنید من میخواهم سه معیار را دریافت کنم: 1. اهمیت رگرسیور خارجی 2. اهمیت ضرایب ARIMA 3. اهمیت ضرایب ARIMA فصلی آیا اگر $RSS$ اصلی را با $RSS$ مدلهای زیر مقایسه کنم، کاهش در $RSS$ خواهد بود. نشان دهنده اقداماتی است که در بالا لیست کردم؟ 1. $ARIMA(p,d,q)(P,D,Q)$ بدون رگرسیور خارجی 2. $ARIMA(0,0,0)(P,D,Q)$ با رگرسیور خارجی 3. $ARIMA(p ,d,q)(0,0,0)$ با رگرسیون خارجی | اهمیت متغیرها در رگرسیون با مدل خطاهای ARIMA |
62102 | من یک مجموعه داده (بزرگ) دارم که در آن، برای هر مشاهده، زمان عزیمت و رسیدن یک کارگر (بین 0 تا 24، به صورت اعشاری) را می دانم: ID Departure_time Arrival_time 0001 07.00 08.25 0002 07.55 08.20 0.5 0003 ... .. ... من می توانم طرح چگالی departure_time (یا ورود_time) به راحتی: ggplot(df, aes(x=Departure_time)) + geom_density(adjust=.5) من می خواهم چگالی کارگرانی را که برای یک زمان معین سفر می کنند رسم کنم (برای هر لحظه، تعداد کارگرانی که در محل کار نیستند (قبل از زمان ورود) اما خانه را ترک کرده اند (بعد از زمان خروج). | ترسیم فاصله بین دو زمان |
52517 | تا آنجا که من متوجه شدم، R-Squared توضیح می دهد که مدل چقدر مشاهدات را پیش بینی می کند. R-Squared تنظیم شده آن چیزی است که مشاهدات (یا درجات آزادی) بیشتری را در نظر می گیرد. بنابراین، Adjusted R-squared مدل را بهتر پیش بینی می کند؟ پس چرا این کمتر از R مربع است؟ به نظر می رسد اغلب باید بیشتر باشد. ممنون میشم اگه کسی بتونه اشاره کنه که من کجای این فرضیه رو اشتباه کردم. | چرا R-squared تنظیم شده کمتر از R-squared است اگر R-squared تنظیم شده مدل را بهتر پیش بینی می کند؟ |
103715 | سلام من دو سوال در رابطه با سوال قبلی دارم که اینجا پرسیدم: Simplex Random Walk در این لینک نحوه اجرای یک پیاده روی تصادفی روی سیمپلکس توضیح داده شده است. http://en.wikipedia.org/wiki/User:Skinnerd/Simplex_Point_Picking می گوید که این روش به طور موثر $x_{new}$ را از یک متغیر تصادفی گاما با میانگین $x_{old}$ و انحراف استاندارد $ نمونه برداری می کند. h*x_{old}$. اولین سوال من این است که چرا میانگین $x_{old}$ خواهد بود؟ طبق پاسخ به سوال قبلی من، توزیع پیشنهاد یک log- نرمال با پارامترهای $(\ln(x_{old})،h)$ است. ویکی می گوید که میانگین توزیع log-normal $e^{\mu + \frac{\sigma^2}{2}}$ است که به $e^{\ln(x_{old}) + \ frac{h^2}{2}} = x_{old}e^{\frac{h^2}{2}}$. آیا من چیزی را از دست داده ام؟ سوال دوم من این است: چه راه های دیگری برای انجام پیاده روی تصادفی روی سیمپلکس وجود دارد؟ آیا روش استاندارد وجود دارد؟ من سعی کردم جستجو کنم اما کنجکاو هستم که آیا چیزی را از دست داده ام. برای هر کمکی متشکرم | میانگین پیاده روی تصادفی ساده |
67557 | من سعی کردم از «lme()» برای بدست آوردن مقادیر واریانس intercept و «Residual» با استفاده از یک مجموعه داده بسیار ساده با فقط 2 مقدار x و y استفاده کنم. چندین مقدار 'y' برای هر مقدار 'x' وجود دارد و آنها در یک قاب داده ای ذخیره می شوند که دارای 2 ستون است: x، y با x دارای مقادیر تکراری/تکرار. در اینجا مجموعه داده ای است که من استفاده کردم: x <-c(1,1,1,1,2,2,2,2,3,3,3,4,4,4,4,5,5,5 ,5,6,6,6,6,7,7,7,7,8,8,8,8) y<-c(23,56,34,12,13,54,34,78,34,24,45,11,92,37,82,17,26,39,32,56,43,27,83 ,58,32,67,45,34,67,34,36,32) lmeDemoFrame<- data.frame(x=factor(x)، y=y) سپس مدل را با استفاده از: library(nlme) lmeDemo <- lme(y~1، data=lmeDemoFrame، تصادفی=~1|x، زیر مجموعه=! .na(y)) answr<- as.numeric(VarCorr(lmeDemo)[,1]) 'answr' واریانس رهگیری را به عنوان 2.433034e-06 اما «واریانس باقیمانده» برگردانده شده 461.7974 است. من مقدار واریانس کم (بین تغییرات گروهی) را درک می کنم زیرا برای همه مقادیر محور x، حداقل واریانس در مقادیر محور y وجود دارد، اما چرا «lme()» چنین واریانس باقیمانده بالایی را برگرداند؟ همه مقادیر استفاده شده برای y بین 10 تا 85 است. آیا به دلیل تفاوت در مقدار x یکسان است، به عنوان مثال. برای x=2، y = 13، 54، 34، 78 و برای x=3، من y= 92،37،82، 17 داریم؟ این یک سوال برنامه نویسی نیست. من با مدلهای ترکیبی بسیار جدید هستم و از این رو میخواهم توضیح سادهای درباره منطق پشت واریانس باقیمانده بالا که برای این مجموعه داده و سایر مجموعههای دادهای که استفاده میکنم دریافت کنم، ارائه دهم. هر گونه بازخورد سریع در مورد منطق بسیار قدردانی می شود. با تشکر | lme() - واریانس نادرست Residual (در داخل گروه) را برمی گرداند |
59190 | همانطور که در عنوان ذکر شد، من به دنبال راه های جایگزینی برای تطبیق داده های خود در یک خط مستقیم هستم. رویکرد فعلی من حداقل فیتینگ Chi-Square است، اما خطاهای نسبی پیش بینی شده برای شیب بیش از 100٪ است. به نظر من دلایلی برای آن وجود دارد: الف) من فقط پنج نقطه داده برای جا دادن دارم. ب) این پنج نقطه داده دارای خطاهای بسیار بزرگی هستند (خطای نسبی حدود 20%). برای روشن شدن موضوع، داده ها را در انتهای این پست پیوست کردم. آیا روشهای دیگری برای برازش دادهها توسط یک تابع خطی میشناسید که برای این مشکل بدتر مناسبتر است؟ از آنجایی که این اولین پست من در اینجا و مخصوصا اولین پست من در مورد علم است، امیدوارم سوالم را درست بیان کرده باشم. پیشاپیش از شما متشکرم داده ها (x، y، خطای y) $0.025 \qquad 0.66 \qquad 0.14$0.099 $\qquad 0.72 \qquad 0.14$0.220 \qquad 0.78 \qquad 0.14$0.390$4q. $0.620 \qquad 0.83 \qquad 0.14$ | جایگزین هایی برای حداقل چی مربع برای تناسب با یک خط مستقیم، |
67881 | من در GARCH تازه کار هستم، اما داده های روزانه رتبه بندی تلویزیون را دارم. من سعی کرده ام این را برای آینده پیش بینی کنم، و یک پس زمینه سریع - داده ها غیر ثابت هستند، فصلی بالایی دارند (هفتگی، ماهانه و سالانه). من UCM را امتحان کردهام، اما پیشبینی دادههای هفتگی با استفاده از UCM آسانتر است و سطح روزانه پیشبینیها باعث کاهش نمیشود. این زمانی بود که به GARCH روی آوردم تا ببینم آیا می توانم به سرعت تخمین های سطح بالایی را در آینده به دست بیاورم. من در تلاش برای بدست آوردن پیشبینیها برای «میانگین مشروط» و «واریانس شرطی» برای دورههای t در آینده گیر کردهام. من تخمینهایی را برای مدل GARCH(1،1) دارم، اما در تلاش برای پیشبینی این سری در آینده گیر کردهام. y(t) = ثابت + AR(1) coeff*y(t-1) + u(t) h(t) = ARCH0 + ARCH1*u(t-1) + GARCH1*h(t-1) اما من نتوانستهایم این را برای بدست آوردن مقادیر میانگین و واریانس شرطی پیشبینیشده پیادهسازی کنم، و واقعاً راهنمای گام به گام کاملی را در جایی پیدا نکردهایم! من در GARCH تازه کار هستم، بنابراین، حدس میزنم این ممکن است بسیار ابتدایی باشد، اما هر کمکی قابل قدردانی است. ممنون آرون | چگونه می توانم یک سری زمانی از داده ها را با استفاده از GARCH(1,1) پیش بینی کنم؟ |
103712 | در این آزمایش ما نمونههای $N$ جمعآوری میکنیم و هر نمونه یک جفت منحنی بقا به دست میدهد. فرض بر این است که دو منحنی بقا تا زمان $t$ یکسان بوده و پس از آن واگرا می شوند. روش مناسبی که با آن بتوان چنین نقطه $t$ را تخمین زد و از نظر آماری تایید کرد، چیست؟ | چگونه می توان نقطه واگرایی بین دو منحنی بقای پیوسته زمانی را تخمین زد؟ |
103711 | من تعجب می کنم که چه روش های آماری را می توان در سناریوی زیر استفاده کرد: من مجموعه ای از 1000 شناسه دارم که از آنها دو زیر مجموعه مثلاً 80 و 100 عنصر ایجاد می کنم. آنها زیرمجموعه های غیر تصادفی هستند، اما خروجی از برخی تحلیل های بالادستی دیگر هستند. سپس متوجه می شوم که 60 عنصر در دو زیر مجموعه تلاقی می کنند. چگونه می توانم ببینم که این عناصر از دو فهرست فرعی چقدر به طور تصادفی با هم همپوشانی دارند؟ (بدیهی است که من احساس می کنم که آنها ندارند ... که اگر فقط 10 عنصر در تقاطع باشند متفاوت خواهد بود). | مقایسه دو انتخاب غیر تصادفی از یک مجموعه |
59192 | من یک سوال در مورد خروجی از {car} Anova دارم. من می خواهم یک ANOVA اندازه گیری های مکرر 2x2 ساده را با استفاده از رویکرد چند متغیره اجرا کنم. من می توانم مثال (تغییر شده) را از صفحه راهنمای Anova {car} اجرا کنم: مرحله <- factor(rep(c(پیش آزمون، پس آزمون، پیگیری)، c(5، 5، 5))، سطوح =c(پیش آزمون، پس آزمون، پیگیری)) ساعت <- ordered(rep(1:5، 3)) idata <- data.frame(فاز، ساعت) idata mod.ok <- lm(cbind(pre.1, pre.2, pre.3, pre.4, pre.5, post.1, post.2, post.3, post.4, post.5, fup.1, fup. 2, fup.3, fup.4, fup.5) ~ 1, data=OBrienKaiser) (av.ok <- Anova(mod.ok, idata=idata, idesign=~فاز*ساعت) ) b<-summary(av.ok) که خروجی زیر (کوتاه شده) را می دهد. 7260.0 1 603.33 15 180.4972 9.100e-10 *** فاز 167.5 2 169.17 30 14.8522 3.286e-05 *** ساعت 106.3 4 73.71 60 21.6309 4.360e-11 *** فاز 14.8522 11.21. 0.2245 --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 تستهای Mauchly برای آزمون کرویت آمار p-value فاز 0.086304 ساعت 0.11516 0.000130.11516 0.00071 0.027376 اصلاحات Greenhouse-Geisser و Huynh-Feldt برای خروج از Sphericity GG eps Pr(>F[GG]) فاز 0.77202 0.0001891 *** ساعت 0.49842 1.578e-029 *** 1.578e-02906.705.50. --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 HF eps Pr(>F[HF]) فاز 0.84367 0.0001089 *** ساعت 0.57470 3.161e-0 فاز: ساعت 0.73031 0.2439922 --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1 با این حال، با داده های من (به پایین مراجعه کنید) خروجی گلخانه-Geisser وجود ندارد: h2 <- structure(A1neg = c(-8.427556992، 1.20452559، -14.331842422، -10.428559303، 1.750265002، 9.388166428، 0.790130436، -1.592002392، 0.539065838، -337. 8.391399384)، B1neg = c(-12.188085556، -1.964554906، -12.247328758، -7.326891422، -0.961694896، -1.01255453، -1.01255453. 0.173920691، 1.876976371، -9.11947155، -1.706287026، A1pos = c(-0.660317183، 3.498036146، 22.003214249، 22.003214249، 22.00324249. -3.124288321، 11.968006134، 5.838645935، 5.140467644، 5.154311657، 2.298083067، 1.164232969، 1.164232969، 1.164232969، 1.164232969، 1.164232969 (1.164232969)، B1645965 = 8.8. -1.550003886، 45.990013123، 15.915545464، -1.67797184، 7.565258026، 10.635170937، 12.769438744، 12.769438744، 12.769438744، 821 4.544145107، 0.230011433))، .Names = c(A1neg، B1neg، A1pos، B1pos)، class = data.frame، row.names = c(1، 11، 21، 31، 41، 51، 61، 71، 81، 91، 101)) شرط <- ordered(rep(c(A، B)، c(2))، level=c(A، B)) reg <- factor(rep(c (neg، pos)، c(2،2))، level=c(neg، pos)) idata<-data.frame(شرایط، reg) idata mod.ok<-lm( cbind( A1neg,B1neg,A1pos,B1pos) ~ 1, data=h2) (av.ok<-Anova(mod.ok, idata=idata, idesign=~condition*reg)) خلاصه (av.ok) این نشان می دهد: نوع تک متغیره III ANOVA اندازه گیری های مکرر با فرض کرویت SS num Df خطا SS den Df F Pr(>F) (Intercept) 233.35 1 995.14 10 2.3449 0.15669 condition 3.32 1 373.00 10 0.0891 0.77143 reg 1220.66 1 2137.7 2139.7 2137. condition:reg 62.48 1 176.90 10 3.5318 0.08963 . --- Signif. کدها: 0 «***» 0.001 «**» 0.01 «*» 0.05 «.» 0.1 «» 1 > آیا ایدهای دارید، چه مشکلی پیش آمده است؟ | R: گلخانه-Geisser در Anova از بسته خودرو |
67889 | در مقاله Oh & Berry (2009)، ص. 1506، در یادداشت جدول 2، یک آمار مشخص استفاده شده است: روایی عملیاتی (واقعی) همبستگی تخمینی LISREL است که برای خطای اندازه گیری در معیار معیار تصحیح شده است. استفاده می شود (چرا فقط از ضرایب مسیر مانند مدل معادلات ساختاری استاندارد استفاده نمی شود؟)، و ج) چگونه این آمار را تفسیر کنیم؟ ### مرجع Oh, I.-S., & Berry, C. M. (2009). مدل پنج عاملی شخصیت و عملکرد مدیریتی: اعتبار از طریق استفاده از رتبهبندی عملکرد 360 درجه به دست میآید. مجله روانشناسی کاربردی، 94 (6)، 1498-513. doi: 10.1037/a0017221 | اعتبار عملیاتی (واقعی) چیست؟ |
30576 | مجموعه داده من شامل متغیرهای دو سطحی است، مثلا افراد و مناطق. هر سطح دارای ویژگی هایی است. توجه داشته باشید که ویژگی های level2 در هر سطح2_ID تکرار می شوند. example_data <- data.frame(level1_ID = c(1، 2، 3، 4، 5)، level1_depend = c(17، 32، 27، 30، 31)، level1_feat1 = c(21، 45، 25، 34، 32 ، level1_feat2 = c(32، 67، 35، 41، 43)، level2_ID = c(1، 1، 2، 2، 2)، level2_feat1 = c(27، 27، 32، 32، 32)، level2_feat2 = c(11، 11، 14، 14، 14)) می خواهم اضافه کنم ویژگی های سطح 2 به عنوان پیش بینی کننده در مدل نیز هست. اضافه کردن آنها به عنوان بلوک در مدل مانند این: lmer(level1_depend ~ level1_feat1 + level1_feat2 + (level2_feat1 | level2_ID)، داده = example_data) به نظر درست نیست، زیرا ویژگی های level2 در هر مقدار level2_ID ثابت هستند. چگونه می توانم ویژگی های سطح 2 مناسب را اضافه کنم؟ با تشکر برای کمک! | چگونه ویژگی های سطح 2 را به یک رگرسیون چند سطحی اضافه کنیم؟ |
27027 | من مجموعهای از امتیازات را در یک مجموعه داده خاص دارم که توسط ارزیابهای انسانی ارائه شده است، بگذارید آن را «HJ» بنامیم. من همچنین امتیاز دو مدل کامپیوتری را در مجموعه داده **همان** دارم، بیایید این مجموعه ها را M1 و M2 بنامیم. من ضرایب اسپیرمن را برای «(HJ,M1)» و «(HJ,M2)» محاسبه کردهام که نشان میدهد «M2» به قضاوتهای انسانی نزدیکتر از «M1» است. اکنون از من خواسته شده است تا دریابم که آیا **تفاوت** بین این دو ضریب rho از نظر آماری معنی دار است یا خیر. دانش آماری من محدود است، بنابراین هرگونه کمکی در مورد اینکه چگونه می توانم این کار را انجام دهم بسیار قدردانی خواهد شد. ویرایش: در کتاب «تحلیل رگرسیون/همبستگی چندگانه کاربردی برای علوم رفتاری» (کوهن و کوهن، 1975)، فرمول آماری $t$ را برای مواردی که در بالا توضیح دادم یکسان است، اما برای ضرایب _پیرسون_ یافتم: $$ t=\frac{(r_{XY}-r_{VY})\sqrt{(n-3)(1+r_{XV})}}{\sqrt{2(1-r^2_{XY}-r ^2_{VY}-r^2_{XV}+2r_{XY} r_{XV} r_{VY})}} $$ که در آن $r_{XY}$ همبستگی بین $X$ و $Y$ و $n$ حجم نمونه است. آیا این برای همبستگی های رتبه ای نیز قابل استفاده است؟ برای یک تست $t$-2 دنباله، نتایج متفاوتی نسبت به تست جایگشت پیشنهاد شده توسط گرگ در زیر میدهد (در صورتی که چیزی بیاهمیت بپرسم، لطفاً نادانی من را ببخشید). | محاسبه معناداری آماری بین ضرایب اسپیرمن وابسته |
23737 | من مقالات مختلفی در مورد فرآیندهای گاوسی و کتاب کارل نیز خوانده ام، متوجه شده ام که آنها گاهی اوقات به بهینه سازی پارامترها با حداکثر کردن احتمال حاشیه ای اشاره می کنند و در زمینه های دیگر از آن به عنوان بهینه سازی با حداقل کردن -ve log marginal lilihood یاد می کنند! آیا تفاوتی بین این دو وجود دارد؟ یا هر دو یک حیوان هستند؟ | بهینه سازی هیپ فرآیند گاوسی |
66684 | من سعی کردم با جستجو در این سایت و سایت های دیگر جواب خوبی برای این موضوع پیدا کنم، اما نشد، پس اگر چیزی شبیه به آن پاسخ داده شد، ببخشید. من یک رگرسیون خطی با یک متغیر مستقل **X** = [ _X1_ ,..., _Xi_ ,..., _Xn_ ] و یک متغیر وابسته **Y** = [ _Y1_ ,..., _Yi_ انجام می دهم. ,..., _Yn_ ]. هر متغیر _Xi_ نتیجه یک محاسبه بر اساس آرایش فضایی دو مجموعه از چیزها (_A_ و _B_) در میدان دید _i_ است. به طور خاص، چیزی که من محاسبه میکنم «درجه اختلاط» بین _A_ و _B_ است (خیلی مختلط مانند یک تخته شطرنجی در مقابل بسیار جدا است که در آن همه _A_ در یک طرف و همه _B_ در سمت دیگر هستند). برای هر فیلد _i_ من _Xi_ را دارم که درجه اختلاط در آن میدان است، و _Yi_ را دارم که یک متغیر وابسته از آن میدان دید است که وابستگی نسبتا قوی به _Xi_ نشان می دهد. برای مجموعه داده های مختلف، R^2 برای این از 0.3 تا 0.6 است، و من یک شیب مثبت (بتا) دارم. در حالی که این مقادیر R^2 بسیار خوب هستند، من میخواهم آزمایشی را در برابر فرضیه صفر انجام دهم که بتا در واقع 0 است. اگر یک آزمایش جایگشت روی دادهها انجام دهم احساس بهتری دارم زیرا مطمئن نیستم که آیا واقعاً دادههایم وجود دارد یا خیر. منطبق بر برخی از مفروضات عادی است که برای آزمایش آن با روش های پارامتری نیاز دارم. فکر میکنم که میدانم چگونه یک آزمایش جایگشت معمولی انجام دهم، که در آن Xi_ها را با _Yj_های تصادفی مرتبط میکنم، و نگاه میکنم تا ببینم چه نسبتی از زمانهایی که بهطور تصادفی بتای بیشتری از بتای واقعی خود دریافت میکنم. برای این آزمون من امیدوار بودم که کاری کمی متفاوت انجام دهم. بگویید من 80 نقطه (با مختصات _x_، _y_) در یک میدان دید دارم، 50 _A_ و 30 _B_. من میخواهم بهطور تصادفی این 50 _A_ و 30 _B_ را به 80 نقطه (_x_, _y_) تخصیص دهم و میزان اختلاط را در این میدان دید درهم _Xi_ * دوباره محاسبه کنم. سپس، میخواهم بتای **Y** در مقابل **X*** را که در آن **X*** = [ _X1_ *،...، _Xi_ *،...، _Xn_ *] دوباره محاسبه کنم. من یک شبیه سازی از این را اجرا کرده ام که در آن 200 دور درهم آمیختگی _A_ و _B_ را انجام می دهم و سپس بتا را دوباره محاسبه می کنم. نگرانی من در این مرحله این است که چگونه کاری را که انجام داده ام به درستی بیان کنم و چگونه یک مقدار p را بدست آوریم. کمی متفاوت از آزمون جایگشت عادی است، که در آن شما متغیر مستقل _Xi_ یک مشاهده i را به متغیر وابسته _Yj_ مشاهده دیگری j اختصاص می دهید. من هنوز _Xi_ را با _Yi_ نگه می دارم، فقط محاسبه _Xi_ بر اساس جابجایی داده های زیرین در i انجام می شود و به _Xi_ * می دهیم. شاید این فقط اتلاف وقت باشد و تست جایگشت طبیعی بهتر باشد. خوشحال می شوم در صورت نیاز هر نکته ای را روشن کنم و هر گونه ارجاع، نظر یا توصیه ای بسیار قابل قدردانی خواهد بود! | تست جایگشت جایی که Xi با یی می ماند، اما محاسبه ای که به Xi منجر می شود جایگشت می شود |
66686 | من Open nlp NER را برای استخراج نام سازمان ها با موفقیت چندانی امتحان کردم (ممکن است مدل برای دامنه ای که من کار می کنم مناسب نباشد). بنابراین، من در حال برنامه ریزی برای آموزش Open NLP NER بر روی داده های آموزشی خود هستم. نکته ای که من در آن گیر کرده ام، حاشیه نویسی متن است. من در اینترنت جستجو کردم و متوجه شدم که GATE، Knowtator، BART و غیره، اما راه اندازی آنها در دستگاه مکان یابی پیچیده است، و همچنین مطمئن نیستم که از کدام ابزارها توسط انجمن Open NLP برای این کار استفاده می شود. لطفاً کسی می تواند به من کمک کند تا به ابزار Annotation خوب و هر مرجعی در مورد نحوه استفاده از آنها برای این منظور اشاره کند؟ | ابزارهای حاشیه نویسی متن |
27020 | من دادههای زمان واکنش را با استفاده از مدلسازی اثر ترکیبی در R تجزیه و تحلیل میکنم. دادهها از 2 نوع گروه شرکتکننده میآیند: گویشوران بومی و غیر بومی. برای افراد غیر بومی نمره مهارت دارم (تخمین تسلط آنها بر زبان انگلیسی). مهارت سخنرانان بومی نامربوط است و با کد NA کدگذاری شده است. آیا این بدان معناست که lmer مهارت را فقط برای افراد غیر بومی زبان در نظر می گیرد؟ 'data.frame': 8373 obs. از 17 متغیر: $Subject : Factor w/ 21 level $L1 : Factor w/ 3 level English، German،...: $Proficiency : Factor w/ 12 level:0,0.6،0.61 ،..: 8 8 8 8 8 8 8 8 8 8 ... $Target : Factor w/ 243 level $رابطه : فاکتور w/ 4 سطح $Word.Order : ضریب w/ 2 سطح HeadMod*, ModHead $Priming : Factor w/ 2 سطح PrHead,PrMod $Trial : Factor w/ 481 سطح $ Target.RTinv: num من نگران هستم که وقتی Proficiency را به مدل خود اضافه می کنم، AIC و BIC منفی می شوند. آیا این موضوع جای نگرانی دارد؟ مدلها: dat.lmer5: -1000 * Target.RTinv ~ (1 | موضوع) + (1 | هدف) + L1 + Word.Order + Priming dat.lmer8: -1000 * Target.RTinv ~ (1 | موضوع) + ( 1 |. هدف) + L1 + Word.Order + Priming + Proficiency Df AIC BIC logLik Chisq Chi Df Pr(> Chisq) dat.lmer5 8 1859.68 1915.92 -921.84 dat.lmer8 17 -438.62 -329.59 236.31 2316.3 9 < 2.2e-16 *** | مدلسازی اثر مختلط شامل عامل با NA |
45231 | اجازه دهید $X \sim \mathrm{Binomial} (n, p_1)$ و $Y \sim \mathrm{Binomial} (n, p_2)$ با $n، p_1$ و $p_2$ شناخته شده و $p_1 <p_2$ . احتمال اینکه مقدار نمونه $x$ که از $X$ گرفته شده است کوچکتر از مقدار نمونه $y$ باشد که از $Y$ گرفته شده است چقدر است؟ یعنی $P(X<Y)$ چیست؟ | احتمال اینکه مقدار نمونه از یک توزیع دو جمله ای کوچکتر از مقدار نمونه از دیگری باشد چقدر است؟ |
35071 | برازش رگرسیون لجستیک با استفاده از lme4 به خطا در mer_finalize(ans) ختم می شود: X'X کاهش یافته قطعی مثبت نیست. دلیل احتمالی این خطا ظاهراً کمبود رتبه است. کمبود رتبه چیست و چگونه باید آن را برطرف کنم؟ | کمبود رتبه چیست و چگونه با آن مقابله کنیم؟ |
59228 | من با چند صد ابر نقطه سه بعدی که با استفاده از یک اسکنر سه بعدی تولید شده اند کار می کنم و می خواهم بتوانم اشکال آنها را با استفاده از چیزی شبیه به تحلیل procrustes مقایسه کنم. بهجای تعریف دستی نشانههای مشخص برای مقایسه، من امیدوار بودم که کل ابر نقطه هر اسکن را با تمام اسکنهای دیگر مقایسه کنم تا شباهت هر ابر نقطه را با بقیه مجموعه داده اندازهگیری کنم. آیا این امکان پذیر است و اگر چنین است چگونه باید آن را انجام دهم؟ من می خواهم در صورت امکان از R برای انجام این تجزیه و تحلیل استفاده کنم، اگرچه در صورت نیاز به ابزارهای دیگری نیز دسترسی دارم. | تجزیه و تحلیل Procrustes ابر نقطه سه بعدی بدون نشانه های مشخص |
61480 | من سعی می کنم یک مدل رگرسیون GAM را با استفاده از پیاده سازی «gam» از بسته «mgcv» تخمین بزنم. من یک مدل گاوسی فعال برای پراکندگی و یک پیوند ورود به سیستم برای پیشبینیکنندههای خطی دارم، اما خطای >خطا در eval(expr، envir، enclos) را دریافت میکنم: مقادیر شروع معتبر را نمیتوان پیدا کرد: لطفاً مقداری را مشخص کنید. **ویرایش 1** \- نحو دقیق عبارت است از splineWAR <- gam(WAR ~ s(zAge, bs=cr) + s(zAdjProd, bs=cr) + s(zSOPct, bs=cr ) + s(zBBPct، bs=cr)، family=gaussian(link=log)، data = mydata، start=c(0, 0, 0, 0, 0)) من موضوعات مربوطه را اینجا و اینجا خوانده ام اما قادر به اعمال مراحل پیشنهادی برای رگرسیون چندگانه نیستم. به عنوان مثال، وقتی سعی می کنم و مقادیر شروع را برای 5 متغیر در رگرسیون خود تنظیم می کنم (1 وابسته و 4 مستقل) با اضافه کردن آرگومان «start=c(n1, n2, n3, n4, n5)» (که در آن «n» است. 's میانگین متغیر مربوطه است)، من همان خطا را دریافت میکنم حتی اگر ظاهراً نحو را دقیقاً از پیوند اول کپی کنم. آیا کسی می تواند پیشنهادی بدهد که در مرحله بعد چه کاری را باید امتحان کنم؟ با تشکر **ویرایش 2** کد موجود در تابع 'gam.fit' که درست قبل از خطا اجرا می شود این است - if (!(validmu(mu) && valideta(eta))) stop(نمی توان مقادیر شروع معتبر را پیدا کرد: لطفا تعدادی را مشخص کنید) | پیوند گزارش GAM بدون مقادیر شروع کار نمی کند |
51795 | از ویکیپدیا > در آمار، کمیت محوری یا محوری تابعی از مشاهدات و پارامترهای غیرقابل مشاهده است که توزیع احتمال آنها به پارامترهای ناشناخته 1 بستگی ندارد (که به آن پارامترهای مزاحم نیز گفته میشود). توجه داشته باشید که ** کمیت محوری لازم نیست یک آمار باشد** - تابع و مقدار آن می تواند به پارامترهای مدل بستگی داشته باشد، اما توزیع آن نباید > باشد. اگر آماری باشد، به عنوان یک آمار فرعی شناخته می شود. من نمی فهمم چرا یک کمیت محوری ممکن است یک آمار نباشد؟ یک آمار چگونه تعریف می شود؟ آیا این فقط یک تابع قابل اندازه گیری از متغیرهای تصادفی است و آیا به پارامترهای مدل بستگی ندارد؟ با تشکر و احترام! | چرا یک کمیت محوری لزوما یک آمار نیست؟ |
61481 | ما در حال اجرای تبلیغات هستیم و میخواهیم دو فرمول اکسل بسازیم، یکی محاسبه مقدار p برای هر تبلیغ دیگر در مقابل یکی با بالاترین CTR (نرخ کلیک) و دیگری که CPA را با فرمول با کمترین CPA (هزینه به ازای هر تبلیغ) مقایسه میکند. کسب). مورد اول دو جمله ای است، فرمول دوم نخواهد بود. بدون هیچ پیشینه ای در آمار، کمی غرق در تلاش برای کشف اینکه از کدام آزمون استفاده کنم، هستم. من ابزارهای آنلاین زیادی برای استفاده دارم، اما به فرمولی نیاز دارم که بتوانم آن را در اکسل پیاده سازی کنم - چیزی که به صورت دسته ای کار می کند. برای این دو کار از چه فرمولی استفاده کنم؟ | مناسب ترین آزمون ها برای داده های اهمیت تبلیغات آنلاین |
51799 | من متغیرهای تصادفی $U,V_1,V_2,V_3$ را دارم و میخواهم توزیعهای زیر را مشخص کنم (نماد جمع به معنای مخلوطی است): $$ U\sim\mathrm{Gamma}(2,3) $$ $$ V_1 \mid U=u,V_2=v_2,V_3=v_3 \sim \frac{1}{2} \mathrm{Poisson}(1+u \cdot v_2) + \frac{1}{2} \mathrm{Poisson}(1+u \cdot v_3) $$ $$ V_2 \mid U=u,V_1=v_1,V_3=v_3 \sim \frac{1 }{2} \mathrm{Poisson}(1+u \cdot v_1) + \frac{1}{2} \mathrm{Poisson}(1+u \cdot v_3) $$ $$ V_3 \mid U=u,V_1=v_1,V_2=v_2 \sim \frac{1}{2} \mathrm{Poisson}(1+u \cdot v_1) + \frac{1}{2} \mathrm{Poisson}(1+u \cdot v_2) $$ دو سوال: 1. چگونه می دانم (و ثابت می کنم) که توزیع مشترک $U,V_1,V_2,V_3$ به طور مداوم توسط این حاشیه ها مشخص می شود؟ 2. چگونه می توانم توزیع $U\mid V_1=v_1,V_2=v_2,V_3=v_3$ را محاسبه کنم؟ اگر راهی برای محاسبه وجود نداشته باشد، آیا می توانم با هر روشی از این توزیع نمونه های تصادفی بگیرم؟ خیلی ممنون. | سازگاری حاشیه ها |
74076 | فرض کنید شما به طور تصادفی افراد مبتلا به یک بیماری خاص (موارد) را در زمان $T$ شناسایی می کنید، سپس نمونه ای از افراد بدون بیماری را در زمان T$$ (اما در معرض خطر بیماری) در جمعیتی از افرادی که تحت غربالگری معمول برای آن بیماری قرار می گیرند شناسایی می کنید. . کنترل ها به نسبت مشخصی از جمعیت مورد نظر نمونه برداری می شوند. فرض کنید میتوانید بهطور گذشتهنگر تمام اطلاعات غربالگری را در هر دو گروه بررسی کنید و علاقهمند به استنباط نرخ غربالگری سطح جمعیت و خطر نسبی بیماری برای تنظیم نرخهای غربالگری هستید. در نهایت، برخی از اثرات سطح موضوعی وجود دارد که به نظر شما ممکن است رفتار غربالگری و خطر بیماری را میانجیگری کند. یک مدل احتمال برای فرآیند غربالگری این است: $$t_{i,j} \sim \mbox{نمایی}(\lambda_s; t_{i,j-1})$$ که در آن $\mbox{نمایی}(\lambda , t)$ متغیر تصادفی یک توزیع نمایی جابجایی مکان با پارامتر مکان $t$ است. بنابراین تعداد صفحاتی که شخص در یک بازه زمانی ثابت استفاده می کند دارای توزیع پواسون است. بیماری براساس فرآیند تقریباً نمایی دیگری $$D_i \sim \mbox{نمایی} (\lambda_c)$$ ایجاد میشود و از نظر بالینی با غربالگری برای یک بازه زمانی کوتاه، $\theta_{d}$ قابل تشخیص است. بدیهی است $\lambda_s \gg \lambda_c$. شیوع بیماری در جمعیت بسیار نادر است. وضعیت بیماری $D_i(t)$ 1 است اگر آزمودنی دارای غربالگری تشخیص داده شده باشد یا بیماری علامتی در زمان $t$ داشته باشد، در غیر این صورت 0. اثرات زمان متغیر سطح موضوع (سن) را با $X_{i,t}$ نشان میدهیم، بنابراین همه $\lambda_c$، $\lambda_s$، و $\theta_d$ به طور مشروط به $X_{i,t}$ وابسته هستند. . این یک نوع تحلیل است که نام آن برای من آشنا نیست. من تمایل دارم آن را کنترل مورد خوشه ای بنامم زیرا مشاهده فردی یک دوره غربالگری منفرد است. با این حال، ما از صفحه نمایش بر اساس وضعیت مورد/شاهد نمونه برداری نکردیم، بلکه افراد را انتخاب کردیم. به دلیل تنوع در زمان هدایت و نرخهای غربالگری فردی، موارد بالاتر از نرخ جمعیت و صفحه کنترلها زیر آن نمایش داده میشوند. بنابراین وسوسه انگیز است که از نوعی وزن نمونه برداری برای توضیح این موضوع و به دست آوردن یک تخمین بی طرفانه از نرخ غربالگری سطح جمعیت استفاده شود. با این حال، فرکانس موضوع: $$w_i = \left\\{\begin{array}{ccc} 1 & \mbox{if} & D_{i}(T) = 1 \\\ 1/p & \mbox{ if} & D_{i}(T) = 0 \\\ \end{array} \right.$$ به دلیل سوگیری زمان هدایت و غربالگری دیفرانسیل، وزنهای معتبری تولید نمیکند (کنترلها برای مدت طولانیتری دنبال میشوند از زمان و بنابراین موارد غربالگری بیشتر _و_ سال های فرد را جمع آوری می کند، در حالی که موارد برای زمان های کوتاه تری دنبال می شوند و باز هم فواصل غربالگری بیشتری نسبت به موارد در دوره های زمانی کوتاه تر به دست می آیند، اما در کل نه بیشتر). آیا این حتی یک مشکل قابل شناسایی است؟؟؟ | وزن برای داده های همگروهی گذشته نگر |
73621 | بسیاری از مطالعات فقط رابطه بین دو متغیر (به عنوان مثال معادله خطی یا لجستیک)، $n$ و $r^2$ را گزارش می کنند. من می خواهم از این آمار گزارش شده برای بازتولید این رابطه با تنوع آن استفاده کنم. اکثر نرم افزارهای آماری توزیع پارامتر را از میانگین و خطای استاندارد تولید می کنند. با فرض توزیع نرمال، آیا می توان خطای استاندارد تخمین پارامترها را فقط با این سه آمار محاسبه کرد؟ اساسا، آیا می توانم یک خطای استاندارد از $r^2$ دریافت کنم؟ یا اینکه برای تولید توزیعی که همان $r^2$ را دارد باید نوعی روش بوت استرپ انجام دهم و سپس خطای استاندارد را محاسبه کنم؟ اگر چنین است آیا معادلات بهتری برای معادلات خطی در مقابل غیرخطی وجود دارد؟ | خطای استاندارد از ضریب همبستگی |
28289 | بیایید بگوییم که ما یک حراج آنلاین داریم که در آن فروشندگان شناخته شده مختلف و خریداران شناخته شده محصول X را مبادله می کنند. یک فروشنده محصول X را پست می کند و هر فروشنده پس از آن مطابق با X و اگر آن را بخواهد پیشنهاد می دهد. بالاترین قیمت پیشنهادی برنده X خواهد شد. به چیزی شبیه Ebay فکر کنید، اگرچه حراجی که من به آن فکر میکنم تعدادی خریدار_معروف_و_فروشنده_معروف دارد و در بازه زمانی بسیار سریعتری (1-2 دقیقه) انجام میشود. بدیهی است که عدم قطعیت زیادی وجود دارد که نمی توان آن را در مدلی که سعی می کند احتمال برنده شدن به عنوان یک خریدار را در چنین سناریویی پیش بینی کند، توضیح داد. با این حال، من نمیدانستم که برخی از محدودیتهای _نظری_ و _عملی_ در تلاش برای استفاده از مدلهای آماری برای پیشبینی نتایج در یک سیستم حراج آنلاین که در بالا توضیح داده شد، چیست. ویرایش: من به طور خاص به مدلی فکر می کنم که سعی می کند احتمال برنده شدن را بر اساس پیشنهاد ما به عنوان خریدار پیش بینی کند. | مشکلات نظری با مدل سازی سیستم های حراج |
59223 | من شروع به انجام یک تحقیق کمی برای پایان نامه خود بدون داشتن SPSS قبلی یا تجربه آماری مناسب کردم و اولین چیزی که استادم در کارگاه spss به ما گفت این بود که شما با اندازه گیری قابلیت اطمینان داده های خود با آزمایش ضریب آلفای کرونباخ شروع کنید. اما وقتی خودم شروع به خواندن در مورد آن کردم، متوجه شدم که آلفای کرونباخ برای تعیین میزان اندازه گیری آیتم های موجود در مقیاس همان بعد زیربنایی استفاده می شود و اینکه در تحقیقات روانشناختی بسیار رایج است که در آن پرسشنامه استفاده می شود. چندین معیار از یک سازه را جمع آوری می کند (مانند خوش بینی یا غیره). اما مطالعه من متفاوت است - من با پایگاه داده ای کار می کنم که اطلاعاتی در مورد شرکت ها و رفتار ثبت اختراع آنها دارد (تعداد اختراعاتی که دارند، آن پتنت ها به کدام صنعت تعلق دارند، تعداد وکلا، مخترعان و غیره) - تا ببینم آیا این اطلاعات وجود دارد یا خیر. (متغیرهای مستقل) می توانند رفتار ثبت اختراع آتی آن شرکت ها (متغیر وابسته) را پیش بینی کنند. بنابراین متغیرهای مستقل من ساختار یکسانی را اندازهگیری نمیکنند (مثلاً مخترعان با وکیلها یکسان نیستند) و من نمیدانم که آیا آزمایش پایایی از طریق آلفای کرونباخ باید در مورد من نیز انجام شود. شاید برای مورد من روش دیگری برای اندازه گیری قابلیت اطمینان وجود داشته باشد؟ من آلفا آن را تست کرده ام و 0.564 است، در حالی که آلفای استاندارد شده 0.804 است. همه متغیرهای من عددی هستند اما کدگذاری نشده اند (اعداد در برخی از متغیرها از 0 تا چند هزار متغیر است)، بنابراین معتقدم کدگذاری آنها به چیزی استانداردتر (مانند 0،1،2،3) نتایج بهتری به همراه خواهد داشت. نظر شما در این مورد؟). اما قبل از شروع این کار، می خواستم ببینم که آیا اصلاً لازم است آلفا را در موردم آزمایش کنم یا خیر. پیشاپیش از شما متشکرم و اگر سوالی داشتید به من اطلاع دهید. | آیا همیشه پایایی را از طریق ضریب آلفای کرونباخ اندازه گیری می کنید؟ یا راه دیگه ای هست؟ (رگرسیون خطی چندگانه) |
73623 | من سعی می کنم درک بهتری از تخمین چگالی هسته به دست بیاورم. با استفاده از تعریف ویکیپدیا: https://en.wikipedia.org/wiki/Kernel_density_estimation#Definition $ \hat{f_h}(x) = \frac{1}{n}\sum_{i=1}^n K_h ( x - x_i) \quad = \frac{1}{nh} \sum_{i=1}^n K\Big(\frac{x-x_i}{h}\Big) $ بیایید $K()$ را به عنوان یک تابع مستطیل شکل در نظر بگیریم که اگر $x$ بین 0.5-$ و 0.5$ و 0$ باشد $1$ به دست می دهد. در غیر این صورت، و $h$ (اندازه پنجره) 1 باشد. من میدانم که چگالی ترکیبی از دو تابع است، اما مطمئن نیستم که چگونه این دو تابع را تعریف کنم. یکی از آنها باید (احتمالا) تابعی از داده باشد که برای هر نقطه در R به ما می گوید که چند نقطه داده در آن مکان داریم (عمدتاً 0 دلار). و تابع دیگر احتمالاً باید تغییراتی در عملکرد هسته، همراه با اندازه پنجره باشد. اما من مطمئن نیستم که چگونه آن را تعریف کنم. پیشنهادی دارید؟ در زیر یک مثال R کد وجود دارد که (من گمان میکنم) تنظیماتی را که در بالا تعریف کردم (با ترکیبی از دو گاوسی و $n=100$) تکرار میکند، که امیدوارم شاهد اثباتی باشم مبنی بر اینکه توابعی که باید پیچیده شوند به این صورت هستند. ما مشکوک هستیم # کد مثال: set.seed(2346639) x <- c(rnorm(50)، rnorm(50,2)) plot(density(x، هسته = 'مستطیل'، عرض=1، n = 10**4) ) rug(x)  | تخمین چگالی هسته پیچیدگی چیست؟ |
32506 | > **تکراری احتمالی:** > تفسیر پیشبینیکنندههای تبدیلشده ورود به سیستم در رگرسیون لجستیک > آیا پیشبینیکنندههای کمی باید تبدیل شوند تا به طور معمول توزیع شوند؟ من به یک توصیه کلی امیدوار بودم. من از STATA برای انجام یک رگرسیون لجستیک باینری با چندین متغیر مستقل استفاده می کنم. بسیاری از اینها مقوله ای هستند به جز یکی که یک متغیر پیوسته است. من قبلاً متوجه شده ام که این متغیر به طور معمول توزیع نشده است و بنابراین log10 آن را تبدیل کرده ام. در تجزیه و تحلیل رگرسیون خود، از مقادیر تبدیل شده به سیستم پیوسته استفاده کرده ام و نسبت شانس 3 را دریافت کرده ام. هر نظر یا توصیه ای واقعا قدردانی خواهد شد. با تشکر | تفسیر نسبتهای شانس با متغیرهای پیوسته تغییر شکل یافته در یک رگرسیون لجستیک |
78903 |   متغیرها در این رگرسیون ها عبارتند از: gpi: سرمایه گذاری خصوصی ناخالص gps: سال پس انداز خصوصی ناخالص، متغیرهای ساختگی: recession81، recession07 من دارم gpi رگرسیون در gps سال recession81 recession07 من همچنین gps را در gpi سال recession81 recession07 رگرسیون کردهام ابتدا فکر میکنم gpi را به عنوان متغیر وابسته داشته باشم اما رگرسیون درست به نظر نمیرسد. من فکر می کنم gpi وابسته است زیرا به پس انداز بستگی دارد. فرد آنچه را که پس از انجام تعهدات باقی میماند سرمایهگذاری میکند و مبلغ معقولی را برای مواردی مانند موارد اضطراری پسانداز میکند، سپس میتواند سرمایهگذاری کند. با این حال، این رگرسیون درست به نظر نمی رسد. هیچ متغیری به جز gps از نظر آماری معنی دار نیست. بعد، وقتی gpi متغیر وابسته است چرا سال و رکود81 منفی است؟ فکر میکنم مردم سال به سال بیشتر سرمایهگذاری میکنند و همچنین در زمان رکود کمتر سرمایهگذاری میکنند. اگر من از gps به عنوان متغیر وابسته استفاده کنم، منطقی نیست زیرا پس انداز به دلایل بالا به سرمایه گذاری بستگی ندارد. با این حال، در این رگرسیون همه متغیرها از نظر آماری معنیدار هستند و علائم ضرایب با تئوری صحیح به نظر میرسد. هیچ کمکی؟ | سوال در مورد این دو رگرسیون از Stata |
30578 | من از k-means برای خوشهبندی جملات با توجه به برچسبهای قسمت گفتار کلمات در یک جمله استفاده میکنم و تجسم خوبی و قابل درک از نتیجه را دارم، اما در تلاش برای یافتن یک روش خوب هستم. برای تعیین کمیت نتیجه نقطه شروع من مقاله ای از داوتی است که فرض می کند مجموعه ای ثابت از مضامین افعال (مانند علیت، حرکت) وجود دارد که ظاهراً از نظر معنایی و نحوی متفاوت هستند. برای بررسی این ادعا، من خوشهبندی k-means (k=8) را روی مجموعه بزرگی از جملات برچسبگذاری شده در بخش گفتار انجام دادهام. سپس، تعداد کمی (~50) جملات را از هر یک از خوشه های به دست آمده برداشتم، آنها را به هم ریختم و با دست برچسب زدم. با این کار، تجسم زیر را از تخصیص برچسب در هر خوشه انجام دادم:  اکنون چیزی که به دنبال آن هستم راهی برای محاسبه است. کیفیت / سودمندی نتیجه خوشه بندی با توجه به توزیع برچسب ها. من به دنبال مقداری هستم که زمانی که اکثر برچسبها به تعداد کمی از خوشهها ختم میشوند، باید بالا باشد، و زمانی که برچسبها به طور مساوی روی خوشهها توزیع میشوند، 0 باشد. من آنتروپی شانون را بررسی کردهام، اما مطمئن نیستم که از نظر مفهومی به دنبال آن هستم یا نه، و مطمئن نیستم به کجا نگاه کنم. هر سرنخ بسیار قدردانی خواهد شد! | معیار ارزیابی کمی نتایج خوشهبندی kmeans |
67882 | #هدف * برای آزمایش اینکه کدام پایه قدرت در فرآیند انطباق [چیزی] در رابطه خریدار-عرضه کننده بهترین عملکرد را دارد. مبانی قدرت: 1. **قدرت پاداش** مبتنی بر این برداشت نهاد تحت تأثیر است که نهاد تأثیرگذار «توانایی واسطه کردن پاداش برای او را دارد». 2. **قدرت قهری** مبتنی بر این برداشت نهاد تحت تأثیر است که نهاد تأثیرگذار «قابلیت میانجیگری مجازات برای او را دارد». 3. **قدرت مشروع** مبتنی بر این برداشت نهاد تحت تأثیر است که نهاد تأثیرگذار «حق مشروعی دارد که برای او رفتار تجویز کند». 4. **قدرت مرجع** مبتنی بر تمایل نهاد تحت تأثیر برای ارتباط با نهاد تأثیرگذار است. 5. **قدرت خبره** مبتنی بر این برداشت نهاد تحت تأثیر است که نهاد تأثیرگذار «دارای دانش یا تخصص خاصی است» که برای او مفید یا ضروری است. پایههای قدرت را میتوان در پایههای قدرت _سخت و نرم طبقهبندی کرد. بیایید بگوییم: ======================= نرم سخت ----------------------- متخصص کارشناس قانونی مرجع اجباری ====================== ## فرضیه ها اکنون می خواهم پشتیبانی آماری برای فرضیه های زیر بر اساس این چارچوب پیدا کنم: **H1a:** هرچه تامین کننده قوی تر به خریدار خود وابسته باشد، احتمال تجربه پایه های قدرت _سخت بیشتر است. **H1b:** هر چه تامین کننده کمتر به خریدار خود وابسته باشد، احتمال تجربه پایگاه های قدرت _نرم بیشتر خواهد بود. **H2a:** تأمینکنندهای که پایه برق _سخت را تجربه میکند، احتمالاً در صورت درخواست، خریدار [چیزی] را تطبیق میدهد. **H2b:** تامینکنندهای که پایگاه قدرت _نرم را تجربه میکند، احتمالاً در صورت درخواست، از خریدار [چیزی] خودداری میکند. # رویکرد اکنون از آنجایی که فرض میکنم یک رابطه علی بین چهار متغیری که دارم وجود دارد، واسطهگری را برای آزمایش فرضیههای H1a-H2b مناسب میدانم (هیز، 2009). بنابراین من مدل زیر را ایجاد کردم که می خواهم آن را آزمایش کنم (فرض کنید هیچ مشکلی در اندازه گیری، اعتبار و پیاده سازی در یک نرم افزار آماری وجود نداشته باشد). ## مدل (نرم [M1]) / \ / \ / \ (وابستگی [X]). . . (Adaptation[Y]) \ / \ / \ / (Hard [M2]) (من نمی دانستم چگونه فلش ها را در مدل بکشم.) # سوال آیا آزمایش فرضیه ها به این روش معقول است یا ساختار خطی. مدل معادله همان کار را انجام می دهد؟ سوالات پیگیری به دلیل داشتن دو واسطه مربوط به پیاده سازی در R است. اما قبل از آن برای من، به عنوان یک مبتدی در تحقیقات کمی، جالب است که بشنوم که آیا این رویکرد منطقی است یا خیر. # مراجع French Jr., J. R. P., Raven, B., 1959. _The Bases of Social Power_. آن آربر؛ انتشارات دانشگاه میشیگان، چ. 20، ص 259-270 Hayes، A. F.، 2009. _Beyond Baron and Kenny: Statistical mediation analysis in the new millenium. > ویرایش: اگر سؤال برای گروه CrossValidated مناسب نیست > میخواهم از مدیران بخواهم که آن را به بهترین انجمن منتقل کنند یا فقط حذف کنند. | مدل میانجی چندگانه مناسب است؟ |
73475 | من یک رگرسیون لجستیک چند جمله ای انجام می دهم. آیا باید متغیرهای اسمی را مجدداً به متغیرهای ساختگی رمزگذاری کنم یا می توانم از آنها به عنوان دسته استفاده کنم. من در اینترنت نمونه هایی را دیدم که در این مورد نیازی به ساختگی نیست. وقتی من مدل را با آدمک و بدون ادکلن اجرا می کنم، نتایج کاملاً شبیه به هم هستند. اگر من این کار را با دسته بندی های کدگذاری شده در یک متغیر به جای dummies انجام دهم اشکال دارد؟ | متغیر ساختگی در مقابل متغیر طبقه بندی |
51790 | این ممکن است یک سوال احمقانه به نظر برسد اما من واقعاً در مورد آن گیج هستم. در تئوری، تنظیم برای یک متغیر مخدوشگر باید اثر آن را حذف کند. آیا این همیشه درست است؟ و آیا این بدان معنی است که اثر این متغیر مخدوش کننده که ما برای آن تنظیم کردیم کاملاً حذف شده است؟ به عنوان مثال می دانیم که با افزایش سن تعداد بیماری های همراه افزایش می یابد. اگر سن را تنظیم کنیم، آیا این بدان معناست که بعید است سن حتی تا حدودی افزایش بیماری های همراه را توضیح دهد؟ | آیا تعدیل اثر متغیرهای مخدوش کننده را به طور کامل حذف می کند؟ |
35070 | در این بخش از این مقاله آمده است: > رونالد فیشر در سال 1935 استنتاج امانی را به منظور اعمال آن در > این مشکل معرفی کرد. او به مقاله قبلی W. V. Behrens در سال 1929 اشاره کرد. > Behrens و Fisher پیشنهاد کردند توزیع احتمال $$ T > \equiv {\bar x_1 - \bar x_2 \over \sqrt{s_1^2/n_1 + s_2^ را پیدا کنند. 2/n_2}}$$ که در آن > $\bar x_1$ و $\bar x_2$ دو میانگین نمونه هستند، و $s_1$ و $s_2$ > انحراف معیار آنها هستند. [ . . ] فیشر با نادیده گرفتن تغییرات تصادفی اندازههای نسبی استاندارد > انحراف، توزیع > این را تقریب زد، $$ {s_1 / \sqrt{n_1} \over \sqrt{s_1^2/n_1 + s_2^2/n_2} }.$$ من متوجه شدم که تمایلی به باور این موضوع ندارم. (بنابراین، ویکیپدیا خطاپذیر است!) در چند هفته آینده، من میخواهم آنچه را که فیشر، برنز و بارتلت در این مورد در دهه 1930 نوشتند، بخوانم. در حال حاضر کتاب فیشر _روش های آماری و استنباط علمی_ را می بینم. مانند ادوین جینز، من این تصور را دارم که این واقعیت که او گاهی اوقات احمق بود، به هیچ وجه این واقعیت را که او یک نابغه بزرگ بود تغییر نمیدهد، اما او همیشه خود را به بهترین شکل برای برقراری ارتباط با او ابراز نمیکرد. فانی های کمتر در صفحه 97، فیشر در مورد بارتلت می نویسد: > [...] مجموعه مرجع [...] محدود به زیرمجموعه ای که > نسبت $s_1/s_2$ دارد، نیست، بلکه مشتاقانه توسط M. S. Bartlett مورد استفاده قرار گرفت. اگر چه نقصی در آزمون اهمیت فرضیه مرکب است که در موارد خاص معیار رد کمتر به طور تصادفی به دست می آید. در دیگران در مورد بازتاب، فکر نمیکنم > انتظار دیگری داشته باشیم،[...] بنابراین به نظر من فیشر قصد «نادیده گرفتن» «تغییر تصادفی» نسبت $s_1/s_2$ را به عنوان ابزاری برای تقریب نداشته است. ، بلکه او فکر می کرد که باید $s_1/s_2$ را شرط کرد. به نظر می رسد این شرطی کردن بر یک آمار فرعی است که فیشر آن را با موفقیت در زمینه های دیگر به کار برد. اگر درست به خاطر بیاورم، اولین بار زمانی که در دانشنامه علوم آماری در این باره خواندم، بارتلت را شنیدم، که به سادگی گفت که بارتلت اولین کسی بود که نشان داد که فواصل اعتباری با فواصل اطمینان یکسان نیست، با نشان دادن این که فواصل اعتباری که فیشر در این مشکل به دست آورده بود، نرخ پوشش ثابتی نداشت. این بیانیه این تصور را برای من باقی نگذاشت که در این مورد اختلاف نظر وجود داشته باشد. بنابراین **سوال من اینجاست:** کدام یک به حقیقت نزدیکتر است: مقاله ویکی پدیا یا سوء ظن من؟ * Fisher, R. A. (1935) برهان امانی در استنتاج آماری، Annals of Eugenics، 8، 391-398. | درک مسئله Behrens-Fisher |
27023 | طبق قضیه بیز $P(A|B) = \frac{P(B|A)*P(A)}{P(B)}$ در جایی پیدا کردم که: $P(x_t|z_{1: t}) = \frac{P(z_t|x_t)*P(x_t|z_{1:t-1})}{P(z_t|z_{1:t-1})}$ اما من این کار را نمی کنم واقعاً آن را درک می کنم، آیا بر اساس قضیه بیز بیان می شود؟ این از صفحه 13 http://www.igi.tugraz.at/pfeiffer/documents/particlefilters.pdf **ویرایش پس از پاسخ @ConjugatePrior:** طبق قضیه بیز $P(x_t|z_{1:t}) ) = \frac{P(z_{1:t}|x_t)*P(x_t)}{P(z_{1:t})}$ و این برابر است با $\frac{P(z_t,z_{1:t-1}|x_t)*P(x_t)}{P(z_t,z_{1:t-1})}$، اما از $ z_t$ و $z_{t-1}$ به صورت شرطی مستقل هستند با توجه به $x_t$ (طبق شکل بالا)، سپس $P(z_t,z_{1:t-1}|x_t) = P(z_t|x_t)*P(z_{1:t-1}|x_t)$، بنابراین $\frac{P(z_t|x_t)*P(z_{1:t-1}|x_t)* دریافت می کنیم P(x_t)}{P(z_t,z_{1:t-1})}$ و دوباره طبق قضیه بیز، $P(z_{1:t-1}|x_t) داریم. = P(x_t|z_{1:t-1})*P(z_{1:t-1}) / P(x_t)$، بنابراین $\frac{P(z_t|x_t)*P(x_t میگیریم |z_{1:t-1})*P(z_{1:t-1})}{P(z_t,z_{1:t-1})} = \frac{P(z_t|x_t)*P(x_t|z_{1:t-1})*P(z_{1:t-1})}{P(z_t|z_{1:t-1}) *P(z_{1:t-1})} = \frac{P(z_t|x_t)*P(x_t|z_{1:t-1})}{P(z_t|z_{1:t-1})}$  | استنتاج به روز رسانی قضیه بیزی |
27029 | من با شبکههای بیزی مبتدی هستم و میخواهم بدانم چگونه شبکههای باورها احتمالات پسینی را در صورت وقوع رویداد جدید در آینده به روز میکنند. من می خواهم یک مثال را آزمایش کنم، من با 3 گره $a،b،$ و $c$ شروع می کنم. a->c<-b و من احتمالات قبلی را مقداردهی اولیه میکنم. یک رویداد جدید رخ می دهد، بنابراین من یک گره جدید را به عنوان والد $c$ به شبکه های بیزی اضافه می کنم، چه نوع فرضی باید انجام شود؟ و چگونه می توانم احتمالات جدید را در نمودار p(c/a,b,newevent) محاسبه کنم؟ پیشاپیش ممنون | به روز رسانی شبکه های باورها در صورت وقوع رویداد جدید در آینده |
23736 | 1. فرض کنید یک k-means کلاسیک داریم که به صورت تکراری هر نقطه داده به نزدیکترین مرکز خود اختصاص داده می شود. 2. پس از مدت زمان مشخصی، فرض کنید مجموعه داده را با مجموعه داده مشابه دیگری که حاوی کلاسهای اضافی است تغییر میدهیم، و من میخواهم آن را با استفاده از تنها یک پاس خوشهبندی کنم و اجازه دهیم تعداد خوشههای K (در صورت لزوم) افزایش یابد. در واقع این فقط یک مثال ساده برای معرفی سوال من است. سوال من: آیا مدل آماری/احتمالی یا چیزی وجود دارد که در مرحله اول به ما اجازه دهد که مثلاً مقادیری را برای هر خوشه یاد بگیریم، تا پیش بینی کنیم که آیا نقطه داده جدیدی از فاز دوم باید خوشه جدیدی تولید کند یا باید به نزدیکترین مرکز خود اختصاص داده است. به طور خلاصه، آیا آمار یا احتمال مفیدی وجود دارد که بتوان با هر خوشه ارتباط داد تا بتوان پیش بینی کرد که آیا یک نقطه داده جدید عضو نزدیکترین مرکز آن است یا خیر؟ شاید با استفاده از چیزی مانند توزیع گاوسی برای هر خوشه ... اما چگونه ... | آمار یا احتمالات مرتبط با هر خوشه به منظور پیش بینی اینکه آیا یک نقطه داده آینده عضو نزدیکترین مرکز آن است یا خیر. |
67888 | من یک جمعیت دارم P - P دارای طیف گسترده ای از جنبه های قابل اندازه گیری A است. یکی از جنبه های کلیدی V است - تأثیر بر سیستم من. این همیشه قابل اندازه گیری است. زیرمجموعه ای از P زیرمجموعه ای از جنبه های قابل اندازه گیری را گزارش می دهد. تعداد بسیار کمی از P در واقع در مورد همه متغیرهای ممکن گزارش می دهند. یک سوال ثابت این است: با توجه به اینکه فقط اطلاعات جزئی برای P در دسترس است، در مورد همه P چه می توان گفت، برخلاف نمونه گیری که خود گزارش شده است. فرض کنید حدود 1% از P در جنبه A1 با مقادیر احتمالی x1...xN گزارش می دهد. این 1% نیز V قابل اندازه گیری دارد. با این حال، از آنجایی که این 1% از P این گونه رفتار می کند، آیا می توان گفت _ همه_ P این گونه رفتار می کنند؟ چقدر می توانم در این مورد مطمئن باشم - به چه تعداد؟ چند نظر در مورد داده ها- * بیشتر داده ها طبقه بندی شده است. V عددی است. هیچ کدام رتبه بندی نشده است * بیشتر توزیع های فرکانسی داده ها در یک جنبه معین از توزیع توان پیروی می کند. * به نظر می رسد مقایسه زیرمجموعه های مستقل جمعیت با یکدیگر نیازمند آزمون کولموگروف-اسمیرنوف باشد. * داده ها در واقع داده های کسب و کار داخلی هستند و بنابراین من آنها را مبهم کرده ام. ویرایش: هر یک از اعضای P انتخاب می کند (خارج از کنترل من) به هر یک از جنبه های A پاسخ دهد یا نه. یک نظرسنجی جامعهشناختی را تصور کنید که در آن افراد میتوانند در مورد خودشان گزارش دهند و همچنین این گزینه را دارند که سؤالات را خالی بگذارند. مقدار V چیزی است که از بیرون قابل اندازه گیری است - مثلاً، نظرسنجی به همه افرادی داده می شود که به دلیل تخلفات رانندگی جریمه می شوند. اکثر مردم آن را پر نمی کنند، بیشتر کسانی که آن را تا حدی پر می کنند. V هزینه نقض خواهد بود (این یک مثال ساخته شده است، نه داده واقعی). | به دنبال اشاره گر در محاسبه کران خطا |
27025 | من باید یک اندازه شباهت بین مجموعه های مختلف محاسبه کنم (در واقع آنها بیشتر شبیه نقشه هستند تا مجموعه ها). یک وزنه به هر عنصر مجموعه مرتبط است. مجموعه هایی که می خواهم مقایسه کنم مجلات یا کنفرانس های مختلف را نشان می دهند. هر عنصر از مجموعه یک نویسنده است و وزن مربوط به تعداد مقالات منتشر شده در آن مکان است. هدف تحلیل من این است که کشف کنم آیا شباهت هایی در پرکارترین نویسندگان مکان های مختلف وجود دارد یا خیر. من به این فکر می کردم که محتوای مجموعه ها را در یک فضای برداری (استفاده از عناصر به عنوان ویژگی و وزن به عنوان مقدار آنها) نشان دهم و فاصله کسینوس را محاسبه کنم. آیا این رویکرد خوبی است یا چیزی بهتر است که باید استفاده کنم؟ | اندازه گیری تشابه برای مجموعه های وزن دار |
35074 | من یک مدل لاجیت دارم که در آن کوتاهقدی (شاخص دوتایی سوء تغذیه) را پیشبینی میکنم، و دو متغیر مستقل باینری من (بهبود. آب و دارای.بیمه) هر دو از نظر آماری معنیدار هستند: کوتاهقدی ~ بهبود یافته. آب + دارای. بیمه میخواهم این سوال را بپرسید که داشتن بیمه برای کسانی که آب بهبود یافته دارند در مقایسه با افراد بدون آب بهبود یافته چه تاثیری دارد؟ یک راه ساده برای انجام این کار این است که رگرسیون را به طور جداگانه در زیر گروه ها (با، بدون آب بهبود یافته) انجام دهید و ببینید چه رابطه ای بین داشتن بیمه و کوتاهی رشد وجود دارد. آیا روش مناسب تری برای تست این موضوع وجود دارد؟ من به اثرات متقابل نگاه کردهام، اما مطمئن نیستم که چگونه آنها را در این زمینه پیادهسازی/تفسیر کنم. من از stata برای انجام تجزیه و تحلیل استفاده می کنم، بنابراین اگر پاسخ استفاده از یک اصطلاح تعاملی باشد، توضیح دقیق تر واقعا مفید خواهد بود. | اثر آزمون متغیر در بین زیر گروه های رگرسیون لجستیک |
73620 | KF بدون بو برای فیلتر کردن یک بردار حالت $x$ در حضور مشاهدات $z$ استفاده می شود. معادلات زیر مدل های فرآیند و مشاهده را تعریف می کنند. مدل فرآیند: $x_{t+1} = f_t(x_t) + v_t$ مدل مشاهده: $z_t = h_t(x_t) + w_t$ در رویکرد UKF، ما با بردار _افزوده شده_$X^a = [x^T کار می کنیم. v^T w^T]^T$ (لطفاً الگوریتم 3.1 را اینجا ببینید. در اینجا چیزی است که من نمیفهمم. توابع غیر خطی $f_t()$ و $h_t()$ به ترتیب $v_t$ و $w_t$ را می گیرند، همانطور که در الگوریتم داده شده است (درست زیر Time update:). چرا باید با این بردار _augmented_ کار کنیم بردار، آیا باید توابع جدید فرآیند و مشاهده $F(x_t,v_t)$ و $H(x_t,w_t)$ را مشخص کنم که جدا از $x_t$، $v_t$ و $w_t$ (به عنوان نقاط سیگما) را نیز دریافت کنند؟ آیا این توابع را می توانم از $f$ و $h$ به دست بیاورم؟ | فیلتر کالمن بدون عطر - وکتور افزوده |
96649 | در یک مجموعه داده، درآمد به گروه های مختلفی تقسیم می شود، به عنوان مثال. فرد 1 در گروه درآمد 5، فرد 2 در گروه درآمد 11 و غیره است. اندازه گروه ها نابرابر است (یعنی گروه 1: 0 < x < 2500، گروه 11: 7000 < x < 100000). من می خواهم سطح تحصیلات یک کودک مهدکودک را مدل کنم (با فرض اینکه بستگی به درآمد والدین دارد). آیا باید از متغیرهای ساختگی برای هر دسته استفاده کنم یا با فرض توزیع یکنواخت می توانم از نقاط میانی هر گروه استفاده کنم و سپس از مقادیر درآمد واقعی استفاده کنم؟ | استفاده از متغیرهای گروه بندی شده در رگرسیون |
56412 | فکر میکنم دلیل توزیع بوت استرپ را نمیدانم، بنابراین میخواستم ببینم آیا کسی میتواند آن را برای من روشن کند... این یک نمونه از کتاب درسی است: ما یک نمونه اصلی به اندازه n=50 داریم. سپس کتاب درسی می گوید که می توانیم از یک نرم افزار استفاده کنیم تا از نمونه اصلی 1000 نمونه مجدد در سایز 50 بکشیم. و سپس می توانیم از ابزار این نمونه های مجدد برای توزیع بوت استرپ استفاده کنیم. این چیزی است که من دریافت نمیکنم: اگر نمونه اصلی ما اندازه 50 باشد، و اگر بخواهیم نمونهای با اندازه 50 داشته باشیم، اساساً از تک تک موارد نمونه اصلی مجددا استفاده میکنیم، درست است؟ آیا این درست است یا چیزی را از دست داده ام؟ چون این خیلی برای من منطقی نیست... چرا باید همان نمونه را بارها و بارها برداریم و سپس میانگین را محاسبه کنیم که دقیقاً همان میانگین نمونه اصلی خواهد بود. بنابراین من احتمالا چیزی را از دست داده ام اما مطمئن نیستم چه چیزی. پیشاپیش ممنون | یک سوال در مورد توزیع بوت استرپ |
35072 | من یک مدل با استفاده از ANOVA تک متغیره اندازه گیری های مکرر در R ساختم. > g <- aov(bis ~ x1 + x2 + bg.sol + x1:x2:I(bg.sol * k1) + خطا(موضوع)، کدگذاری شده) > خلاصه lm. -0.1518 5.1696 17.6015 Coefficients: Estimate Std. خطای t مقدار Pr(>|t|) x1 3.1170 0.8444 3.691 0.000275 *** x2 -1.0906 0.1230 -8.864 < 2e-16 *** I(bg.sol * k1) 2.0522 0.000275 x1:x2:I(bg.sol * k1) -0.3191 0.1254 -2.545 0.011543 * --- Signif. کدها: 0 '***' 0.001 '**' 0.01 '*' 0.05 '. 0.1 ' ' 1 خطای استاندارد باقی مانده: 7.256 در 246 درجه آزادی چندگانه R-squared: 0.2743، R-squared تنظیم شده: 0.265 آمار: 30.99 در 3 و 246 DF، p-value: < 2.2e-16 من حد اطمینان را برای هر تخمین محاسبه کردم. من فکر کردم SE * مقدار بحرانی کار خواهد کرد. در مورد `x1` (متغیر پیوسته) حد اطمینان 95% بود، > 0.8444 * qt(0.975, df = 1) [1] 10.72912 من نمیدانم که آیا مقدار محاسبهشده حد اطمینان واقعی برای `x1` است. تخمینها برای «x1» 3.1170 و حد مجاز 10.72912 است. بعلاوه منهای شامل مقدار صفر است. اما P-value مقدار کمتر از 0.05 را نشان داد! میخوام بدونم کجای کار اشتباه کردم! | چگونه فاصله اطمینان در ANOVA را با اندازه گیری های مکرر محاسبه کنیم؟ |
35076 | داشتم «معیارهای شباهت» را می خواندم و ناگهان تمام دنیایم از هم پاشید. من یک موتور جستجو را با استفاده از تکنیک های خوشه بندی پیاده سازی کرده ام. برای خوشهبندی، از k معنی استفاده کردم که از فاصله اقلیدسی به عنوان اندازهگیری فاصله استفاده میکند. من همچنین از شباهت کسینوس برای نمایش نتایج استفاده کردم. من نتایج شگفت آور دقیقی می گرفتم. اما اکنون که این را خواندم، کاری که انجام دادم عادی سازی بردارهای سند بود و فاصله اقلیدسی بین دو بردار واحد حاصل را محاسبه کردم و از این رو هیچ جا قدر را در نظر نگرفتم. آیا من کار اشتباهی انجام می دهم؟ اگرچه من فکر می کنم که یک فرکانس ترم بالاتر یک مقدار tf-idf بالاتر و یک مقدار tf-idf نرمال شده بالاتر را جبران می کند و از این رو به طور مناسب در رتبه بالا قرار می گیرد. نتایج (بدون استفاده از بردارهای نرمال شده، ارقام فواصل اقلیدسی هستند) 61.79689257425985 222 جزئیات تحقیق پیشنهادی.doc 144.15451315901478 and_Integrated_Assessment_of__Natural_europe alternate_sustainable_land_management_options_for_tribal_ dominated_watersheds_RRPS_24.doc 72.61392308146608 done_توسعه سیستم های حصار زنده برای حفاظت از خاک و آب_ NATIP-RNPS-3 SKN Math.7115226M. استراتژیهایی برای تطبیق رابی (SKN Math).doc 65.51734241367222 done_RPFIII_dr.dogra.doc 66.72042766100921 ارزیابی محصولات و انواع آنها (SKN Math).doc 41888YA91806 (DSS).doc 140.3914521621597 RPF - پیشنهاد پروژه I PIMS-ICAR برای IASRI.doc 72.95414421468679 RPF-III__Indo-US_project.doc 82.25126123527439 هدف 82.2512612352439 بردارهای نرمال شده، ارقام فواصل اقلیدسی هستند) 1.3435369899385359 222 جزئیات تحقیق پیشنهادی.doc 1.1277471087250086 and_Assessment_Integrated_of_Natural_Resources_and_e alternate_sustainable_land_management_options_for_tribal_ dominated_watersheds_RRPS_24.doc 1.2741267093494966 done_توسعه سیستم های حصار زنده برای حفاظت از خاک و آب_ NATIP-RNPS-3 SKN Math.647474. done_Management strategies for impriing rabi (SKN Math).doc 1.2902191708899362 done_RPFIII_dr.dogra.doc 1.3128744973475515 ارزیابی محصولات و ارقام آنها (SKN Math.2474993.20.20.20.349.200). VIJAYA KUMAR (DSS).doc 1.1747048933792805 RPF - I PIMS-ICAR پیشنهاد پروژه برای IASRI.doc 1.29150899172647 RPF-III__Indo-US_project.doc 1.31801902c 1.318019605 نتایج (اشکال مشابه کسینوس هستند) 0.09745417833344654 222 جزئیات تحقیق پیشنهادی.doc 0.36409322938119104 and_Assessment_Integrated_of_Natural_Resources_and_Evolution_of alternate_sustainable_land_management_options_for_tribal_ dominated_watersheds_RRPS_24.doc 0.1883005642611103 done_توسعه سیستم های حصار زنده برای حفاظت از خاک و آب_ NATIP-RNPS-3 SKN Math.601796. done_Management strategies for impriing rabi (SKN Math).doc 0.16766724553404047 done_RPFIII_dr.dogra.doc 0.13818027710720598 ارزیابی محصولات زراعی و ارقام آن ها (SKN Math.75201474787878487488781878884818788818884888888488788188888888888188818888888888888888888888888888848888888888888888888888888888188888888888888888888888888888188888888888188188). P. VIJAYA KUMAR (DSS).doc 0.3100342067353838 RPF - I PIMS-ICAR پیشنهاد پروژه برای IASRI.doc 0.16600226214483405 RPF-III__Indo-US_project.doc 0.134413 220 مقدمه و اهداف.doc نتایج 1 و 2 با یکدیگر همخوانی ندارند در حالی که 2 و 3 به شدت موافق هستند. شباهت بیشتر، فاصله کمتر. فواصل بین بردار مرکز خوشه و بردارهای سند هر یک از سندها گرفته می شود. در واقع، عجیب ترین نتیجه سندی با فاصله اقلیدسی 418 و دارای بیشترین شباهت 0.87 است. در حالی که فاصله نرمال شده 0.49 می شود و با شباهت موافق است. | بردارهای واحد b/t فاصله اقلیدسی یا تشابه کسینوس که بردارها بردار سند هستند |
74077 | روش دلتا/روش بوت استرپ برای به دست آوردن خطای استاندارد اثر حاشیه ای در مورد مدل متغیر وابسته محدود (مانند مدل توبیت) استفاده می شود. من دیدهام که اینها برای متغیرهای پیوسته اعمال میشوند، اما سوال من این است که آیا اینها را میتوان برای متغیرهای طبقهای (مثلاً با 4 دسته) یا متغیرهای باینری (مثلاً فقط با دو دسته) اعمال کرد. لطفاً در صورت مرتبط بودن با سؤال، مقالات دانشگاهی را پیشنهاد دهید. | خطای استاندارد اثر حاشیه ای برای متغیر باینری/رده ای |
78905 | من با مجموعه داده ای از زمان های رسیدن به شرح زیر کار می کنم: توقف 1 توقف 2 توقف 3 09:01:00 09:03:01 09:05:12 09:01:23 09:03:03 09:05:13 09 :01:12 09:02:55 09:05:40 09:02:01 09:03:30 09:04:44 09:00:45 09:03:31 09:05:55 ... داده ها مربوط به زمان رسیدن به ایستگاه های اتوبوس است. من می خواهم میانگین زمان رسیدن را برای هر توقف محاسبه کنم. میتوانم میانه را محاسبه کنم، اما میخواهم نقاط پرت را حذف کنم. به عنوان مثال اگر یک روز اتوبوس در ساعت 09:03:55 (به دلیل ترافیک، شرایط آب و هوایی و غیره) به ایستگاه 1 برسد، این زمان رسیدن رفتار عادی را نشان نمی دهد و من می خواهم آن را از محاسبات خود حذف کنم (برای توقف 1) . بنابراین سوال من این است که چگونه می توانم محدوده زمان های ورود معتبر (مثلا از 09:00:00 تا 09:02:30) را فقط با مجموعه داده های خود تعیین کنم؟ **ویرایش** من میانگین را ذکر کرده ام، اما اگر رویکرد بهتری برای این مشکل می دانید، مایلم آن را بدانم. | میانگین زمان ورود بدون احتساب موارد پرت |
99709 | من یک رگرسیون PLS با SAS انجام می دهم. man-a من از من خواست تا تعداد مؤلفههای اصلی مجموعه دادهای را که از طریق SAS با آن کار میکنم پیدا کنم. از آنجایی که قبلا هرگز این کار را انجام نداده ام، در مورد نحوه انجام آن گیج هستم. آیا باید یک PCA را روی مجموعه داده خود اجرا کنم، سپس از مرتبط ترین مؤلفه های یافت شده استفاده کنم و سپس از آن اعداد در PLS من استفاده کنم یا SAS توانایی آن را دارد؟ اگر چنین است، چگونه باید آن را انجام دهم؟ | چند جزء اصلی در یک PLS با SAS |
8316 | من یک مدل ساده $\log(y_i) \sim \mathcal{N}(\mu_i,\sigma)$ را با $\mu_i=\alpha + \beta x_i$ فرض میکنم. حالا اگر تخمینهای $\hat{\alpha}$ و $\hat{\beta}$ را داشته باشم، چگونه مقادیر برازش $\hat{y}$ را محاسبه کنم؟ (به نظر می رسد استفاده از $\hat{y}= \exp(\hat{\alpha} + \hat{\beta} x_i)$ کارساز باشد؛ این میانه توزیع log-normal است.) | مقادیر مناسب برای یک مدل log-normal |
56418 | من مدل سری زمانی را از طریق: model = sarima(data,1,0,1) sarima.for(data,100,1,0,1) ایجاد می کنم. عیب یابی مدل خوب به نظر می رسد و نشان می دهد که مدل مناسب است. با این حال، وقتی سعی می کنم داده ها را پیش بینی کنم، همه مقادیر پیش بینی شده یکسان هستند. چرا این است؟  | پیش بینی سری های زمانی |
112701 | من سعی می کنم تحلیلی مشابه گرلاخ و همکاران انجام دهم. (2002). این شامل پیش بینی احتمال پسین یک نتیجه باینری خاص با استفاده از 5 مشاهدات قبلی است. من فقط به این فکر می کردم که کدام بسته در R برای این کار بهتر است. من همچنین علاقه مند بودم که چگونه می توان آرگومان ها را در توابع مربوطه دستکاری کرد تا بسته به محدوده احتمال قبلی قبلی، یک مقدار ثابت مشخص شود. با تشکر | بسته در R برای BMA یک مدل لجستیک؟ |
9920 | سوال من به فرض افزایش برای همبستگی درون طبقاتی مربوط می شود. ابتدا توضیح می دهم که چه کاری انجام داده ام و سپس با سؤالات خود پایان می دهم. من میخواهم پایایی بین ارزیابها را با استفاده از همبستگی درونطبقهای محاسبه کنم تا بتوانم یک ضریب کلی را گزارش کنم (همانطور که در تحقیقات مشابه قبلی انجام شد)، و شاید اگر قضاوتهای آنها با ارزیابهای دیگر مطابقت ضعیفی داشت، یک ارزیاب را جایگزین کنم. من پنج ارزیاب دارم و آنها هر کدام به ضبط ویدئویی از حالات چهره و صدای همان 4 شرکت کننده (به صورت تصادفی) در آزمایشی که شرکت کنندگان فیلم های احساسی متفاوتی را تماشا کردند، امتیاز داده اند. ارزیاب ها برای هر فیلم 18 امتیاز می گیرند. این رتبهبندیها از نوع لیکرت (معمولاً بین 1-6 اما برای برخی معیارها 1-4) از شدت 6 حالت احساسی مختلف چهره (خشم، ترس و غیره)، شدت حالت کلی چهره و تعداد (ردهبندیهای فراوانی) هستند. ) و شدت (رده بندی لیکرت) کلمات و صداهای مثبت و منفی و سطح بیان کلی آواز. 16 فیلم وجود دارد، بنابراین در مجموع 288 متغیر به ازای هر رتبهدهنده، به ازای هر شرکتکننده رتبهبندی شده است. من دادههای خود را در چهار فایل سازماندهی کردهام، یکی برای هر شرکتکننده رتبهبندی میشود، با هر رتبهدهنده به عنوان یک ستون و ۲۸۸ متغیر به عنوان ردیف. از آنجایی که من قابلیت اطمینان بین ارزیابها را محاسبه میکنم، به شباهت ارزیابها به طور کلی علاقهمندم، و نه هر اثر دیگر (مثلاً فیلم). من ICC را با استفاده از مدل مختلط محاسبه کردهام زیرا همه داوران به همه اهداف که یک نمونه تصادفی هستند امتیاز میدهند (طبق http://faculty.chass.ncsu.edu/garson/PA765/reliab.htm#rater) **سوالات: ** فرض افزایشی بیان می کند که هر آیتم باید به صورت خطی با امتیاز کل مرتبط باشد. با این حال، من فکر نمی کنم که مفهوم نمره کل واقعاً کاربرد داشته باشد، اگرچه ممکن است اشتباه کنم. آزمون غیرافزونی توکی این فرضیه صفر را آزمایش می کند که هیچ تعامل ضربی بین موارد و موارد وجود ندارد. * لطفاً کسی می تواند این را به زبان ساده برای من توضیح دهد؟ من مقدار قابل توجهی از تست Tukey را پیدا کردم، بنابراین سعی کردم رتبه بندی کلی چهره و آواز را برای هر فیلم حذف کنم، زیرا فکر می کردم این ممکن است این شرط را نقض کند که هر آیتم به امتیاز کلی کمک کند. با این حال، آزمون توکی قابل توجه باقی ماند. بنابراین فقط به عنوان یک آزمایش کوچک، 282 متغیر را حذف کردم، و رتبهبندی 6 احساس ممکن صورت را برای یک فیلم به من داد. تست توکی همچنان قابل توجه بود! * آیا تست عدم افزودنی توکی به مشکل من مربوط است؟ * اگر بله، در مورد مهم بودن آن چه باید بکنم؟ | فرض افزایش برای همبستگی درون طبقاتی |
92160 | من یک نمونه تصادفی از داده های زیر در JMP دارم. چگونه بفهمم بین جنسیت و ژانر فیلم مورد علاقه رابطه وجود دارد؟ من از طریق فرمول های مختلف جستجو کردم و چیزی پیدا نکردم که کار کند. هر گونه کمکی قدردانی خواهد شد.  | یافتن ارتباط بین جنسیت و ژانر فیلم مورد علاقه |
107932 | بگویید من دو بردار دارم: Action.Taken = c(0,1,0,0,1,1,0,1,0) موفقیت = c(0,0,0,1,0,1,0,1, 0) اولی به من می گوید که آیا اقدام خاصی در یک آزمایش انجام شده است یا خیر و دومی به من می گوید که آیا آن آزمایش موفق بوده است یا خیر. چگونه می توانم این دو بردار را تجزیه و تحلیل کنم تا به سؤال زیر پاسخ دهم: آیا انجام اقدام («اقدام انجام شده = 1») بر موفقیت یا عدم موفقیت تأثیر می گذارد («موفقیت = 1»)؟ من مقداری از اهمیت را به عنوان آزمون رگرسیون/فرضیه میخواهم. من به دنبال پاسخی هستم که بتوانم آن را با استفاده از R پیاده سازی کنم. من در آمار کاملاً تازه کار هستم، بنابراین خوب است اگر کسی بتواند یک پاسخ/مثال نسبتاً ساده و سرراست به من بدهد. با تشکر | R - تجزیه و تحلیل رابطه بین دو (یا چند) متغیر باینری |
99708 | من از SPSS برای ایجاد متغیرهای ساختگی برای سه فروشگاه مختلف استفاده کردم. فروشگاه 1 با کد 0، فروشگاه 2 با کد 1 و فروشگاه 3 با کد 2 بود. در خروجی من می بینم که ضرایب شیب (B) برای فروشگاه 2 و 3 تقریباً یکسان است، با CI، آمار t و مقادیر تقریباً یکسان. این به چه معناست و آیا وقتی ضریب شیب بسیار شبیه به هم هستند، جداسازی متغیرهای ساختگی ضروری است؟ و اگر آنها را به صورت آدمک جدا نمی کردم، در عوض چه کاری می توانستم انجام دهم؟ | متغیرهای ساختگی در رگرسیون خطی |
95392 | من دادهای با عملکرد کاربران (مقیاس بین 0 تا 1) در تستهای مختلف دارم و میخواهم صحت پیشبینی را در زمانی که دادهها پراکنده هستند با حذف تصادفی برخی از رکوردها آزمایش کنم. به عبارت دیگر، زمانی که سوابق عملکرد جزئی برای هر کاربر وجود دارد. من به روش های مختلف در بسته recomenderlab در R نگاهی انداختم اما نتوانستم روش مناسب را پیدا کنم زیرا اکثر آنها با درجه های ترتیبی مانند 1-5 ستاره سروکار دارند. میشه لطفا یک روش مناسب راهنمایی کنید؟ متشکرم. | فیلتر مشارکتی برای پیش بینی مقادیر واقعی |
96767 | من مشکلی دارم که سعی می کنم با تست Chi Squared حل کنم، اما دارم متوجه می شوم که احتمالاً روش های بهتری برای استفاده وجود دارد و به دنبال پیشنهاداتی بودم. بگویید من دو جمعیت مستقل X و Y دارم که از نر و ماده مختلف تشکیل شده اند. جمعیت X >> Y، و آنها به طور مستقل از جمعیت جهان ترسیم شدند. من می بینم که N_Y نفر در Y بستنی را دوست داشتند، و می خواهم ببینم که آیا این از نظر آماری معنی دار است (یا به زبان انگلیسی، طبیعی یا غیر طبیعی) با نگاه کردن به جمعیت بزرگتر (با نگاهی به N_X، تعداد افراد در یک مشابه اما بزرگتر). جمعیت X که بستنی را دوست داشتند) فکر میکنم از تست مجذور کای میتوان برای این کار استفاده کرد، اما نمیدانم چه رویکردهای دیگری را باید بررسی کنم. اگر این واضح نیست، لطفا به من اطلاع دهید. | سوال در مورد ویژگی های آماری معنی دار جمعیت |
73624 | ویکیپدیا میگوید: > میانگین خطای مطلق (MAE) یک معیار رایج برای خطای پیشبینی در تجزیه و تحلیل سریهای زمانی است، جایی که اصطلاحات «میانگین انحراف مطلق» گاهی اوقات در اشتباه با تعریف استانداردتر میانگین انحراف مطلق استفاده میشود. > همان سردرگمی به طور کلی تر وجود دارد. این به چه معناست؟ سردرگمی دقیقاً چیست؟ همچنین، چرا MAE به طور خاص در تحلیل سری های زمانی استفاده می شود؟ (در مقابل معیارهای خطای عمومی تر مانند MSE)؟ | میانگین انحراف مطلق |
80380 | برآوردگرهای حداکثر درستنمایی (MLE) بطور مجانبی کارآمد هستند. ما نتیجه عملی را در این می بینیم که آنها اغلب بهتر از تخمین های روش لحظه ها (MoM) عمل می کنند (زمانی که آنها متفاوت هستند)، حتی در اندازه های نمونه کوچک در اینجا «بهتر از» به معنای معمولاً واریانس کمتر زمانی است که هر دو بی طرف هستند، و معمولاً میانگین مربعات خطای کوچکتر (MSE) به طور کلی تر. با این حال، این سؤال پیش میآید: آیا مواردی وجود دارد که MoM بتواند MLE را در نمونههای کوچک، مثلاً روی _MSE_ شکست دهد؟ (جایی که این یک موقعیت عجیب/تحول شده نیست - یعنی با توجه به اینکه شرایط برای ML وجود دارد/به طور مجانبی کارآمد است) یک سوال بعدی این خواهد بود که کوچک چقدر می تواند بزرگ باشد؟ - یعنی اگر نمونههایی وجود داشته باشد، آیا نمونههایی وجود دارند که هنوز در اندازههای نمونه نسبتاً بزرگ، شاید حتی همه اندازههای نمونه محدود باقی میمانند؟ [میتوانم نمونهای از یک تخمینگر مغرضانه پیدا کنم که میتواند ML را در نمونههای محدود شکست دهد، اما MoM نیست.] * * * توجه به گذشتهنگر اضافه شد: تمرکز من در اینجا عمدتاً روی حالت تک متغیره است (که در واقع همان جایی است که کنجکاوی اساسی من وجود دارد. از می آید). من نمیخواهم موارد چند متغیره را رد کنم، اما بهویژه نمیخواهم وارد بحثهای گسترده درباره تخمین جیمز-استاین شوم. | نمونه هایی که در آن روش گشتاورها می تواند حداکثر احتمال را در نمونه های کوچک شکست دهد؟ |
96093 | فرض کنید من آزمایشی را برای آزمایش این فرضیه طراحی کردم که عامل Z باعث سرطان می شود. از $N$ نفر در گروه آزمایش، $x$ به سرطان مبتلا می شود. از $N$ نفر در گروه کنترل، $y$ به سرطان مبتلا می شود. نتایج این است که $x > y$ و $N \gg x$. تا اینجا خیلی استاندارده من علاقه مند به تفسیر بیزی از نتایج این آزمایش هستم، بنابراین به عبارت زیر در مورد احتمال درست بودن فرضیه من ($P(H_{\rm true})$) با توجه به شواهد ($) رسیدم. e$) $P(H_{\rm true}|e) = \frac{P(e|H_{\rm true})P(H_{\rm true})}{P(e)}$ I' من به طور خاص علاقه مند به مقدار $P(e|H_{\rm true})$. با توجه به اطلاعات موجود در مورد آن مقدار چه می توان گفت؟ آیا راهی کلی برای محاسبه یا تخمین آن وجود دارد، بدون اینکه چیزی بیشتر از رابطه بین عامل Z و سرطان بدانیم؟ اگر نه، چه چیز دیگری برای محاسبه یا تخمین آن نیاز دارید؟ | طرح آزمایشی قضیه بیز |
71731 | من از JAGS در R برای ساخت یک مدل گراف احتمالی و تخمین پارامترهای مربوطه استفاده می کنم. مدل ها به صورت زیر توصیف می شوند: مدل { برای (i در 1:N) { # نمونه از متغیر پنهان z[i] ~ dbeta(alpha+0.01,beta)T(0,0.9999) # رابطه تعیین شده lambda[i] < - z[i] * mu # احتمال داده شرطی X[i] ~ dpois(lambda[i]) } # احتمال قبلی آلفا ~ dgamma(0.1،0.0001) بتا ~ dgamma(0.1،0.0001) mu ~ dgamma(0.1،0.0001) } که در آن «X[1:N]» نمونههای آموزشی است که بر اساس توزیع پواسون تولید میشوند. میانگین پواسون نیز یک متغیر تصادفی است که با mu*z نشان داده می شود. `z` یک متغیر پنهان است که به دنبال توزیع بتا توسط متغیرهای 'alpha' و 'beta' پارامتر شده است. پارامترهای این مدل احتمالی «مو»، «آلفا» و «بتا» هستند و از توزیع گاما تبعیت میکنند. من این مدل را روی یک مجموعه شبیهسازی شده از نمونههای داده آزمایش کردم: کتابخانه ('rjags') N=5000 lambda=rbeta (N,0.2,0.3)*15 #alpha = 0.2، بتا = 0.3 و mu = 15 X=rpois (N ,lambda) jags = jags.model('poissontrunc.bugs',data = list('X' = X, 'N' = N)، n.chains = 4، n.adapt = 1000) mcmc.samples <- coda.samples(jags, c('alpha', 'beta', 'mu'), 5000) خلاصه (mcmc نمونه ها) نتایج تخمین پارامتر مبتنی بر MCMC به شرح زیر است: میانگین تجربی و انحراف استاندارد برای هر متغیر، به اضافه خطای استاندارد میانگین: میانگین SD Naive SE Time-series SE alpha 951.13، 35.0186، 0.247619، 9.72810 بتا 1013.24، 26.4553، 0.187068، 7.13237 mu 120.13237 0.002216، 0.08993 نتایج نمونهبرداری تخمین درستی از «mu» واقعی را ارائه میدهد (12.47 در مقابل 15). با این حال، برای «آلفا» و «بتا»، به نظر می رسد که مقادیر تخمین زده شده به شدت مغرضانه هستند (951.13 در مقابل 0.2، 1013.24 در مقابل 0.3). حتی با در نظر گرفتن واریانس نتایج نمونهگیری، تخمینها برای «آلفا» و «بتا» هنوز با رضایت فاصله زیادی دارند. آیا این مشکل ناشی از هرگونه تنظیم نامناسب بالقوه نمونه برداری MCMC است یا شاید MCMC در ناحیه بهینه محلی توزیع شرطی چند وجهی در این مورد مسدود شده باشد؟ | استفاده از JAGS برای تخمین پارامتر بیزی |
85867 | آیا می توان از روش های یادگیری گروهی (تقویت، بسته بندی و غیره) برای مسئله رگرسیون چندکی استفاده کرد؟ | استفاده از یادگیری گروهی در رگرسیون چندکی؟ |
107935 | فرض کنید که ما یک متغیر طبقهبندی داریم که میتواند یکی از سه مقدار قرمز، سبز و زرد را بگیرد. سپس میتوانیم با استفاده از کدنویسی ساختگی یا افکتنویسی کدنویسی کنیم. اما، فرض کنید، قرار بود آن را به صورت زیر کدگذاری کنیم: قرمز: 1 سبز: 2 زرد: 3 از مسائل تخمینی و تفسیری که بگذریم، آیا نامی برای کدگذاری متغیرهای دسته بندی مانند بالا وجود دارد؟ | آیا نامی برای طرح کدگذاری زیر وجود دارد؟ |
110532 | من نمی دانم بهترین راه برای گزارش عملکرد مدل برای شبکه های عصبی مصنوعی (رگرسیون) چیست. در حال حاضر، من جدولی با مقدار r و مجموع مربعات خطا برای نمونه های فرعی قطار، تست و اعتبارسنجی دارم. به طور خاص، من می خواهم بدانم که آیا بهتر است r را گزارش کنم یا r2 را محاسبه کنم. با تشکر | نتایج برای مدل شبکه عصبی - r یا r2؟ |
99424 | برای یک مجموعه داده معین، فرضیه متفاوت $m$ را به طور همزمان آزمایش میکنم و برای هر یک مقدار p به دست میآورم. هر یک از این فرضیه ها با آزمون مطابقت دارد که آیا مقادیر $X_i$، کمیت اندازه گیری شده از دیتاسر، با استفاده از یک شاخص برای مجموعه داده مرتبط است یا خیر. این برنامه کمیت دیگری به نام $Y_i(j)$ تولید می کند که در آن $j$ $\in$[1, m]$ است. فرض می کنیم شاخص ها به $Y_i(j)$ منتهی می شوند که مستقل هستند. تا زمانی که یک همبستگی معنی دار باشد، می توانم بگویم که فرضیه صفر رد شد و یک همبستگی پیدا شد. چگونه باید مقادیر p فردی را برای آزمون فرضیه های چندگانه تصحیح کنم؟ من روش بنجامینی-هخبرگ را خواندم، اما فکر میکنم این روشی را برای شما فراهم میکند که تخمین بزنید چند فرضیه رد شدهاند، نه وضعیتی که من در نظر میگیرم. آیا باید به سادگی بیان کنم که احتمال مثبت کاذب برای یکی از تست ها مجموع همه مقادیر مثبت کاذب فردی است؟ این به نظر من کاملا منطقی نیست. توجه: من نمی توانم این سوال را به عنوان فرضیه چندگانه برچسب گذاری کنم، برچسب به طور خودکار به مقایسه چندگانه برمی گردد. | آزمایش چند فرضیه یا صرفاً مجموع p-value؟ |
55856 | من داده ای دارم که طولی است. من خواندن یک موضوع را در 3 درمان مختلف پشت سر هم دارم و نمونه ها را در 2 دسته اجرا کردم: * دسته یک دارای شناسه موضوع 1:7 و سه نقطه زمانی برای هر کدام است * دسته دوم دارای شناسه 8:13 و سه نقطه زمانی است. در حال خواندن برای هر کدام، سعی می کنم یک مدل جلوه ترکیبی با دو افکت تصادفی قرار دهم. X سطح ماده من در خون است. 'Visit1' فاکتوری با 3 سطح است. lme1 <- lme(fixed = x~visit1, random = ~ visit1|sampleid/batch,data=newx) از آنجایی که دسته یک سطح بالاتر است. آیا این درست خواهد بود؟ دلیل سردرگمی من خروجی است: مدل با جلوه های ترکیبی خطی متناسب با REML داده ها: newx AIC BIC logLik 98.60629 123.9426 -33.30314 جلوه های تصادفی: فرمول: ~visit1 | ساختار نمونه: کلی مثبت-معین، پارامترسازی Log-Cholesky StdDev Corr (Intrcept) 0.4653918 (Intr) vst1V4 visit1V4 0.5036920 -0.475 visit1V7 0.2531549 -0.466 برای مولتی 0.0 | دسته ٪ در٪ نمونه نمونه ساختار: کلی مثبت-معین، پارامترسازی Log-Cholesky StdDev Corr (Intrcept) 0.4653914 (Intr) vst1V4 visit1V4 0.5036924 -0.475 visit1V7 0.2531550 0.2531550 0.406 -0.406 -0.406 جلوههای ثابت: x ~ visit1 Value Std.Error DF t-value p-value (Intercept) 10.952459 0.1883601 24 58.14640 0.0000 visit1V4 0.031497 0.20882014 524 بازدید -0.346842 0.1190620 24 -2.91312 0.0076 همبستگی: (Intr) vst1V4 visit1V4 -0.492 visit1V7 -0.473 0.090 استاندارد شده درون گروه باقیمانده: حداقل Q1 Med Q3818 -6918 - حداقل Q1 Med Q3818 - -0.06543492 0.17633675 1.01718946 تعداد مشاهدات: 39 تعداد گروهها: دسته نمونه %in% نمونه 13 13 فقط مدل رهگیری تناسب بهتری را با lme2 ارائه میدهد<-update(lme1,random=~1|sumary/batch) مدل اثرات مختلط fit by REML Data: newx AIC BIC logLik 53.50052 63.00163 -20.75026 جلوه های تصادفی: فرمول: ~1 | sampleid (Intercept) StdDev: 1.636268e-05 فرمول: ~1 | دسته ٪ در٪ نمونه نمونه (Intercept) Residual StdDev: 1.632057e-05 0.3869672 جلوه های ثابت: x ~ visit1 Value Std.Error DF t-value p-value (Intercept) 9.923162 0.107320254 0.1073254 40540.10739254. -0.333890 0.1517810 24 -2.19982 0.0377 visit1V7 -0.246486 0.1517810 24 -1.62396 0.1174 همبستگی: (Intr) vst1V4 بازدید70701V4 -1V4 -0. باقیماندههای استاندارد شده درون گروهی: حداقل Q1 Med Q3 حداکثر -2.5208757 -0.5757388 0.2255019 0.7457944 1.2827374 تعداد مشاهدات: 39 تعداد گروهها: دسته نمونهای: دسته نمونهبرداری شده %l1 نمونهای از نمونهها BIC logLik Test L.Ratio p-value lme1 1 16 73.15228 98.48859 -20.57614 lme2 2 6 53.50052 63.00163 -20.75026 1 در مقابل 2223 سوال من به نظر می رسد 1 در مقابل 223 0. بدون اثر دسته ای باشد. درست می گویم؟ | جلوه های تصادفی تو در تو در lme |
110538 | من روی مشکلی کار می کنم که شامل مقدار زیادی NA است. فولکس واگن چگونه این موضوع را حل می کند؟ آیا باید قبل از پایپینگ به فرمت VW سعی کنم NAها را با colmeans یا چیزی شبیه به آن اضافه کنم؟ | Vowpal Wabbit چگونه NA یا مقادیر گمشده را مدیریت می کند؟ |
25774 | من مجموعه ای از داده ها دارم که گروه ها را در ایالات متحده به 15 دسته محله گسترده یا 72 بخش ریز دانه با نام های مسخره تقسیم می کند. بخش ها با استفاده از تحلیل عاملی با استفاده از سن، درآمد، قومیت، تحصیلات، وضعیت تأهل، نوع سکونت و حضور فرزندان ساخته شدند. این دسته بندی ها شهرنشینی، ثروت، سن، وضعیت خانوادگی و قومیت را در نظر می گیرند. بخش ها در دسته ها تو در تو قرار می گیرند. به عنوان مثال، طبقه بندی درآمد بالا، تحصیلات دانشگاهی، متاهل با فرزندان شامل 6 بخش است که از نظر سن و منابع درآمد تفاوت زیادی دارند. من 2 نوع متغیر دارم: 1. من بخش/رده غالب و دوم بزرگ (در صورت وجود) را برای هر گروه بلوک می دانم. با این نوع داده ها کار کردم، اما کنجکاو هستم که ببینم در مقایسه با استفاده از جمعیت شناسی سنتی چقدر مفید است. من عمدتاً به این موضوع علاقه مند هستم که چگونه مردم از داده های بخش بندی برای درک مشتریان خود استفاده می کنند. به جز اینکه گفته می شود گروه های خاصی مصرف کنندگان مشتاق هستند، بهترین شیوه ها چیست؟ هر گونه ارجاع محکمی پذیرفته می شود. من ندیده ام که این سوال زیاد در CV بحث شود. چند سوال کمتر مبهم: 1. آیا راهی برای جلوگیری از دور ریختن داده های دقیق بدون داشتن 72 متغیر توضیحی وجود دارد که اکثر آنها دارای صفر هستند؟ من معمولاً دیدهام که مردم از بخشهای غالب/ثانویه بهعنوان ساختگی استفاده میکنند، اما این انتخاب ضعیفی به نظر میرسد زیرا اطلاعات کمی را دور میاندازد. من عمدتاً در اینجا به دنبال مشاوره فرم عملکردی هستم. 2. آیا راهی برای بهره برداری از این واقعیت وجود دارد که بخش ها در دسته ها تودرتو هستند؟ اگر متوجه شوم که برخی از دستهها مشتری بد هستند، در حالی که دسته دیگر عالی هستند، آیا میتوانم دستههای خوب را به بخشهای آن تفکیک کنم، در حالی که گروه بد را به عنوان یک دسته در نظر بگیرم؟ آیا می توانید طرح های طبقه بندی را با هم ترکیب کنید؟ 3. آیا متغیرهایی وجود دارد که در تکمیل گروه های ژئودموگرافیک مفید باشد؟ آیا هر چیزی که در تحلیل عاملی اصلی نباشد، مرتبط باشد و خیلی هم خط با خوشه ها نباشد، درست است؟ | بهترین روش ها برای استفاده از داده های تقسیم بندی ژئودموگرافیک |
112702 | هر گونه کمکی قدردانی خواهد شد، زیرا مطمئن نیستم چگونه ادامه دهم. من یک مجموعه داده با داده های باینری دارم و توانسته ام یک مدل رگرسیون لجستیک را با آن تطبیق دهم (برای مثال وجود بیماری به عنوان تابعی از سن). پوشش دادهها بزرگ است و سنین 0 تا 90 سال را شامل میشود، و من معتقدم که میتوانم از بتای خروجی برای پیشبینی احتمال بیماری برای افراد دیگر در جمعیت استفاده کنم. من این احتمالات پیش بینی شده را به عنوان پیشین در نظر گرفته ام. فرض کنید مطالعه متفاوتی در مورد یک موضوع وجود دارد، اما نمونهها فقط شامل کودکان میشوند. این مطالعه از یک روش کاملاً متفاوت استفاده می کند، اما روش شناسی احتمال بیماری را نیز ارائه می دهد. راه مناسب برای بهروزرسانی اولویتها برای کودکان با این خروجی داده جدید چیست؟ من فکر می کردم که می توانم فقط از قضیه بیز استفاده کنم، اما مجموعه داده دوم به هیچ وجه با اولی مرتبط نیست (به طوری که نمی توانم پارامترهای مدل را به روز کنم) و من فقط احتمالات پیش بینی شده خروجی را دارم. پیشاپیش از شما متشکرم. | نحوه به روز رسانی احتمالات در جایی که مجموعه داده ها و روش های تجزیه و تحلیل متفاوت است |
9928 | چه توزیعات دم چربی $p(x)$، متقارن در مورد صفر، دارای ویژگی $$\newcommand{\e}{\mathbb{E}}\newcommand{\rd}{\mathrm{d}} \ e e^X = \int_{-\infty}^{\infty} e^x p(x) \rd x < \infty \> ? $$ **Context** من سعی می کنم گزینه های مالی را بدون استفاده از فرمول Black-Scholes به قیمت X$$ قیمت گذاری کنم. معمولاً کار با log-price $Y = \log(X)$ آسانتر است و اغلب فرض میشود که $Y$ معمولاً توزیع میشود. مشاهدات تجربی (به عنوان مثال، لبخند نوسان) نشان می دهد که $Y$ طبیعی نیست. توزیع نرمال به سرعت به دور از 0 کاهش می یابد. بنابراین، ما به توزیع دم چربی نیاز داریم. با افزایش خطی $Y$، ارزش یک گزینه فراخوان به صورت تصاعدی افزایش می یابد. بنابراین، $p(x)$ باید آنقدر سریع کاهش یابد که $\e e^X < \infty$. به عبارت دیگر، توزیع باید کندتر از توزیع معمولی کاهش یابد، اما همچنان آنقدر سریع باشد که $\e e^X$ همگرا شود. من توزیعهای $t$ کوشی و Student را امتحان کردم، اما $\e e^X$ برای هر دو، صرفنظر از پارامترها، واگرا میشود. همچنین میدانم که میتوانم توزیعهای دلخواه را مطابق با شرایطم ایجاد کنم (اگرچه دقیقاً مطمئن نیستم که چگونه)، اما من به دنبال توزیع شناخته شده (خانواده پارامتری شده) هستم. حتی جزئیات بیشتر (برای مازوخیست): https://github.com/barrycarter/bcapps/blob/master/bc-imp-vol.m | توزیع های متقارن دم چربی که در آن $\mathbb{E} e^X < \infty$ |
25776 | اگر بخواهیم انواع متغیرها را تعیین کنیم برای متغیرهای زیر به صورت زیر خواهد بود؟ _Age_ \---> کمی، گسسته (می توانیم شمارش کنیم) _Fitness_ \---> اگر مقادیری که در اینجا وارد می کنیم فقط 0 و 1 باشد، آیا نوع این متغیر خواهد بود کیفی، «اسمی»؟ خیلی ممنون | آیا انواع متغیر در اینجا صحیح در نظر گرفته می شود؟ |
114095 | من تنظیم ریاضی خاصی برای این سوال ندارم. سطح نسبتاً بالایی است اگر یک دسته داده X برای متغیری دارید که میخواهیم Y را پیشبینی کنیم، و تنها چیزی که به آن اهمیت میدهیم پیشبینی در محدوده مقادیر مشاهدهشده است، آیا در یافتن یک مدل سودمندی وجود دارد؟ چرا نمیتوانیم یک احتمال (توزیع) برای Y با دادههای X قرار دهیم؟ | بازیابی داده در مقابل مدل سازی |
55850 | من یک توزیع عادی یک بعدی با میانگین $\mu$ و انحراف استاندارد $\sigma$ دارم. با توجه به یک عدد جدید $x$، میخواهم یک مقدار اطمینان به احتمال اینکه $x$ از توزیع $\mathcal{N}(\mu,\sigma)$ 1 گرفته شده است، یک مقدار اطمینان اختصاص دهم - cdf به من $ میدهد. P(X > x)$ اما مطمئن نیستم که این چیزی است که من به دنبال آن هستم. هر کمکی بسیار قابل قدردانی است **ویرایش** فقط یک فکر دیگر، مقدار $x$ در یک طرف میانگین یا در خود میانگین قرار خواهد گرفت. اساساً میخواهم یک معیار اطمینان تعریف کنم که با دور شدن نقطه از میانگین به 0 کاهش مییابد و در میانگین 1 است. پس در مورد $0.5 + f(x)$ که در آن $f(x)$ pdf توزیع نرمال بین مرزهای $\mu$ و $x$ است، چطور؟ با تشکر | معیار اطمینان نرمال شده نقطه از توزیع نرمال |
110530 | من ممکن است اشتباه کنم، فقط احساس میکنم مورد زیر با مشکل مدلسازی مشاهدات با مزدوج قبلی متفاوت است: فرض کنید من $n$ گاوسهای مختلف دارم که هرکدام دارای میانگین متفاوت (اما شناخته شده) $\mu_i$ و واریانس $v_i هستند. $: $N(\mu_i,v_i), i=1..n$ بنابراین در اینجا مشاهدات در واقع در مورد پارامترها هستند: $\mu_i,v_i$. چگونه توزیع قبلی این $n$ گاوسی ها را مدل کنیم تا بتوانم یک گاوسی مشابه دیگر از این توزیع قبلی ایجاد کنم؟ | نحوه مدل سازی توزیع قبلی چندین گاوسی با پارامترهای شناخته شده |
55853 | من می خواهم یک سری زمانی غیر ثابت را برای جا دادن یک مدل ARIMA با فرمول X(t)=X(t)-X(t-1) (با استفاده از تابع 'diff' در MATLAB) متفاوت کنم، اما نمی توانم بفهمم که باید از چه چیزی استفاده کنم. برای اولین مقدار از آنجایی که مقدار قبل از اولین مقدار وجود ندارد؟ آیا باید از صفر یا همان مقدار X(1) استفاده کنم؟ با تشکر | وقتی برای مدل ARIMA تفاوت می کنیم، اولین مقدار چقدر خواهد بود |
21850 | میانگین و واریانس توزیع نرمال چین خورده مشخص است. اکنون توزیع $(|x_1|، \ldots، |x_n|)$ را در نظر بگیرید، جایی که $\mathbb{x} \sim N(\mu، \Sigma)$. میانگین توزیع نرمال تا شده چند متغیره به راحتی بدست می آید. اما در مورد واریانس چطور؟ من نتوانستم مراجع پیدا کنم و محاسبه پیچیده به نظر می رسد. هر پیشنهادی؟ | آیا واریانس توزیع نرمال چین خورده چند متغیره مشخص است؟ |
85865 | [هشدار تازه کار داده کاوی] طبق تعریف زیر از Lift، $ Lift(A=>B) = Supp(A \cup B) / (Supp(A) * Sup(B)) $ اگر همیشه Lift را به عنوان 1 داشته باشیم ، فقط با 1 بودن $Supp(A)$ یا $Supp(B) $ امکان پذیر است. $A \cup B$ هرگاه $B$ اتفاق بیفتد اتفاق میافتد. آیا در غیر این صورت آیا آسانسور می تواند 1 دلار باشد؟ | می تواند همیشه 1 باشد بدون اینکه Supp(A) یا Supp(B) 1 باشد |
71070 | من مقدار محتوای آلی در استخوان پرنده (درصد) را در دو شرایط مختلف و همچنین در دو دوره زمانی مدلسازی میکنم. طرح اقدامات مکرر است - مشاهدات در هر دو شرایط و دوره های زمانی از یک استخوان (تقسیم شده به قطعات) حاصل می شود. من می خواهم فرضیه ها را آزمایش کنم: 1) تفاوتی در E(Y) در شرایط وجود ندارد، 2) تفاوتی در E(Y) در طول زمان وجود ندارد، 3) تفاوتی در تفاوت E(Y) وجود ندارد (یعنی. ، تعامل زمان*شرایط). من موارد زیر را امتحان کردم (اینجا با داده های ساختگی): set.seed(6753) dat <- data.frame( id = rep(1:15، هر = 4)، pc.organic = rnorm(60، 0.11، 0.055 )، شرط = ضریب (rep(c(خام، پیشرفته)، بار = 30))، سال = ضریب (rep(c(1، 1، 2، 2)، بار = 15)) کتابخانه (lme4) fm1 <- lmer(pc.organic ~ شرط * سال + (1 | شناسه)، داده = داده) خلاصه (fm1) این، به نظر من، مناسب است مدلی برای توضیح عدم استقلال مشاهدات در طراحی اندازه گیری های مکرر. با این حال، مطمئن نیستم که با توجه به ماهیت متغیر پاسخ، خوب است یا خیر. پاسخ بین حدود 0.01 (1٪) و 0.2 (20٪) متفاوت است. آن را به صفر (بدیهی است)، اما همچنین در 40٪ محدود می شود (این حداکثر مقدار محتوای آلی در هر استخوان است - 60٪ غیر آلی است). گزینه دیگر استفاده از 40% به عنوان مخرج هنگام تعریف درصد است، بنابراین مقادیر قبلی به ترتیب 025.0 و 0.5 خواهد بود. با این حال، این باز هم پاسخ را بین 0 و 1 محدود می کند. من در مورد رگرسیون بتا و همچنین در مورد استفاده از تبدیل لاجیت برای خطی کردن داده ها خوانده ام. در صورت امکان، من می خواهم از رفتن به این مسیرها خودداری کنم، زیرا سایر محققان رشته من با این روش ها آشنا نیستند. از هر گونه پیشنهادی استقبال می شود. | مدل داده نسبت محدود شده در طرح اندازه گیری مکرر |
21854 | حاشیه خطا بر اساس اندازه نمونه است. در گزارش یک مشاور (که در این مرحله محرمانه است)، آنها پاسخهای 10 مدیر فروشگاه (از مجموع 200 مدیر فروشگاه یعنی جمعیت هدف) را جمعآوری کردند و در ادامه اظهاراتی مانند «تنها 20 درصد از پاسخدهندگان خوشحال بودند». با عملکرد فروش فروشگاه های خود». حاشیه خطا در این مورد حدود 32 درصد است. با فرض سطح اطمینان 95 درصد، پاسخ واقعی بین 12- تا 52 درصد است. ** چگونه می توان این نتیجه (به ویژه بخش منفی) را تفسیر کرد؟** ** استفاده از حاشیه خطا برای حجم نمونه کوچک (مثلاً نمونه 15 نفری از یک جامعه هدف 60 نفری) عاقلانه است؟** | تفسیر حد اطمینان منفی برای یک نسبت |
107939 | من می دانم که محاسبات اندازه نمونه برای RCT های خوشه ای باید برای داده های خوشه ای تنظیم شود. میخواهم بهتر بدانم که آیا چنین تنظیمی برای طرحهای مطالعاتی دیگر ضروری است یا خیر. برای مثال، من روی یک مطالعه مورد-شاهدی تودرتو کار میکنم تا عوامل بالینی و اجتماعی-جمعیتی مرتبط با ماندگاری بیمار را شناسایی کنم. ما از داده های پرونده پزشکی جمع آوری شده از مراکز بهداشتی استفاده خواهیم کرد. همه بیماران از همه مکانهایی که معیارهای ورود را دارند در مطالعه گنجانده میشوند (بدون نمونهگیری فی نفسه). این مطالعه سعی ندارد در مورد هیچ پارامتر جمعیتی استنباط کند. آیا محاسبه اندازه نمونه باید برای خوشه بندی تنظیم شود؟ به هر حال، این احتمال وجود دارد که داده های انتزاعی از سوابق پزشکی خوشه بندی شوند. در عین حال، آیا تجزیه و تحلیل باید برای خوشه بندی تنظیم شود؟ اگر مطالعه یک RCT خوشهای بود و همه بیماران از همه مکانهایی که معیارهای ورود را دارند در مطالعه گنجانده میشدند - آیا محاسبه حجم نمونه نیاز به تنظیم برای خوشهبندی دارد؟ | چه زمانی محاسبات اندازه نمونه برای خوشه بندی نیاز به تنظیم دارد؟ |
55854 | من مجموعهای از دادههای دو بعدی دارم که میخواهم مراکز تعداد مشخصی از مراکز دایرهها ($N$) را پیدا کنم که تعداد کل نقاط را در یک فاصله مشخص ($R$) به حداکثر میرسانند. به عنوان مثال من 10000 نقطه داده $(X_i، Y_i)$ دارم و میخواهم مراکز دایرههای $N=5$ را پیدا کنم که تا حد امکان نقاط ممکن را در شعاع $R=10$ میگیرند. 5 مرکز و شعاع 10 از قبل داده شده است، نه از داده ها مشتق شده است. وجود یک نقطه داده در یک دایره یک گزاره یا/یا باینری است. اگر $R=10$ باشد، هیچ تفاوتی در ارزش نقطه 11 واحد در مقابل 100 واحد دورتر وجود ندارد، زیرا هر دو > 10 هستند. به طور مشابه برای قرار گرفتن در دایره، بودن در نزدیکی مرکز در مقابل نزدیک بودن ارزش اضافی ندارد. لبه یک نقطه داده یا در یکی از دایره ها یا خارج است. آیا الگوریتم خوبی برای حل این مشکل وجود دارد؟ به نظر میرسد که اینها به تکنیکهای خوشهبندی مرتبط هستند، اما به جای کمینه کردن فاصله متوسط، تابع «فاصله» 0 است اگر نقطه در $R$ هر یک از نقاط $N$ باشد و در غیر این صورت 1 است. ترجیح من یافتن راهی برای انجام این کار در R است، اما هر رویکردی قابل قدردانی است. | یافتن تعداد مشخصی از مراکز دایره ای که تعداد نقاط را در یک فاصله ثابت به حداکثر می رساند |
12715 | من همیشه با تست نرمال بودن برای پیشبینیکنندههای کمی (بدون فاکتور) و تبدیل آنها به حالت عادی مبارزه میکنم. * اگر من یک GLMM را اجرا میکنم و پیشبینیکنندههای من واقعاً غیرعادی هستند، آیا باید آنها را نیز تغییر دهم تا سعی کنم آنها را به طور عادی توزیع کنم؟ * می دانم که این برای متغیر پاسخ مهم است اما با پیش بینی کننده ها چه باید کرد؟ P.S.: من واقعاً نتوانستم سؤال مشابهی پیدا کنم. | آیا پیشبینیکنندههای کمی باید تبدیل شوند تا به طور عادی توزیع شوند؟ |
56417 | من سعی می کنم یک طرح نظرسنجی مبتنی بر تکرار ابداع کنم که دقیقاً طرحی از سری تیلور را که توسط انتشارات دولت ایالات متحده استفاده می شود تکرار کند - جایی که من به همه متغیرهای CLUSTER دسترسی ندارم. اداره سرشماری ایالات متحده یک بررسی سه ساله از خانه های شهر نیویورک به نام NYCHVS را منتشر می کند. در مستندات رسمی خود، آنها توصیه می کنند که تحلیلگران از فرمول واریانس تعمیم یافته استفاده کنند، که آشکارا یک کابوس محاسباتی است - زیرا همه چیز باید با دست محاسبه شود. با این حال، آنها همچنین مجموعه ای از بسته های جدول را منتشر می کنند که حاوی خطاهای استاندارد محاسبه شده از طریق روش خطی سازی سری تیلور است. وقتی با آنها در مورد نحوه بازتولید آمارشان تماس گرفتم، گفتند > متغیرهای مناسب برای استفاده او منطقه و بخش است. متغیر 'borough' در مجموعه داده موجود است، اما متغیر 'segment' موجود نیست - و آنها آن را به دلیل نگرانی های مربوط به محرمانه بودن منتشر نمی کنند. من می توانم به طور دقیق ابزار و میانه آنها را بازتولید کنم - متغیر hhweight برای آن کافی است. من سعی کردم وزنهای تکراری خودم را بسازم (فقط یک ماتریس از «0» و «1»)، اما خطاهای استاندارد من یا بسیار بزرگ هستند یا اساساً هیچ تفاوتی با یک «نمونه تصادفی ساده» ندارند (و تا اینجا نیز). کوچک). بدیهی است که من هرگز با آمارهای دولت ایالات متحده کاملا مطابقت نخواهم کرد، اما اگر فقط یکی از دو متغیر «CLUSTER» را داشته باشم، آیا راه مناسبی برای کالیبره کردن و ایجاد یک طرح نظرسنجی وجود دارد که من را به پاسخ درست نزدیک کند؟ ممنون!! :) | اجتناب از فرمول واریانس تعمیم یافته برای نظرسنجی مسکن و جای خالی نیویورک |
21851 | فرض کنید من در حال ساخت یک مدل پیشبینی هستم که در آن سعی میکنم چندین رویداد را پیشبینی کنم (به عنوان مثال، هم چرخش یک قالب و هم پرتاب یک سکه). اکثر الگوریتم هایی که من با آنها آشنا هستم تنها با یک هدف کار می کنند، بنابراین نمی دانم که آیا رویکرد استانداردی برای این نوع چیزها وجود دارد یا خیر. من دو گزینه ممکن را می بینم. شاید سادهلوحانهترین رویکرد این باشد که آنها را بهعنوان دو مشکل متفاوت در نظر بگیریم و سپس نتایج را ترکیب کنیم. با این حال، هنگامی که دو هدف مستقل نباشند، این اشکالات جدی دارد (و در بسیاری از موارد ممکن است بسیار وابسته باشند). یک رویکرد معقول تر برای من ایجاد یک ویژگی هدف ترکیبی است. بنابراین در مورد قالب و سکه، حالت های $6\cdot 2=12$ خواهیم داشت ($(1، H)، (1، T)، (2، H)$، و غیره). با این حال، این میتواند منجر به افزایش سریع تعداد حالتها/کلاسها در هدف ترکیبی شود (اگر 2 تاس داشته باشیم و غیره چه میشود). علاوه بر این، در موردی که یک ویژگی مقولهای است در حالی که دیگری عددی است، عجیب به نظر میرسد (مثلاً برای پیشبینی دما و نوع بارش). آیا رویکرد استانداردی برای این نوع چیزها وجود دارد؟ از طرف دیگر، آیا الگوریتم های یادگیری به طور خاص برای مدیریت این موضوع طراحی شده است؟ | پیش بینی اهداف یا کلاس های متعدد؟ |
25773 | **آنچه من دارم:** یک پایگاه با موارد طبقه بندی شده وجود دارد. **23 متغیر مستقل** در این طبقه بندی و **10 گروه** استفاده شده است. پایگاه دیگری دارای موارد جدید طبقه بندی نشده است. این 23 متغیر مستقل نیز وجود دارد. من تجزیه و تحلیل تفکیک را در SPSS بر اساس پایه اول انجام می دهم (من **کوواریانس درون گروهی** را در تجزیه و تحلیل تشخیصی: آمار > ماتریس ها انتخاب می کنم) و سپس می توانم مدل را به عنوان یک فایل XML ذخیره کنم و آن را در پایه دوم اعمال کنم. اما من باید بدون استفاده از SPSS طبقه بندی را خودم انجام دهم، اما دقیقاً مانند SPSS (چه حیف است!) ** اکنون چگونه این کار را انجام می دهم:** در پایه اول ** میانگین هر 23 متغیر در هر گروه را محاسبه می کنم ** یعنی من 23*10 وسیله مختلف دارم. سپس برای هر مورد در پایه دوم **10 فاصله ماهالانوبیس** را محاسبه می کنم: D[k]= مجموع [j=1..23] (x[j]-x[jk])^2 k=1.. 10 عددی از گروه x[j] مقدار متغیر مستقل است x[jk] میانگین متغیر مستقل در گروه k پس از انجام تمام این کارها، من در خروجی SPSS عدد 10 را جستجو می کنم. مقادیر **احتمالات قبلی** (pp). سپس برای هر مورد 10 متغیر محاسبه می کنم: pp[k] * e ^ (-D[k]/2) k=1..10 سپس هر یک از این متغیرها را بر مجموع همه آنها تقسیم می کنم. بنابراین من **احتمالات پسین** را دریافت می کنم. من موردی را در گروهی طبقه بندی می کنم که احتمال پسین آن حداکثر است. اما طبقه بندی من دقیقاً مانند SPSS نیست. اگرچه اندازه گروه ها به نوعی مشابه است. من اعتراف می کنم که می توانستم چیزی واقعاً اشتباه و/یا احمقانه انجام دهم :) ** نظریه ای که استفاده کردم:** http://publib.boulder.ibm.com/infocenter/spssstat/v20r0m0/index.jsp?topic=% 2Fcom.ibm.spss.statistics.help%2Falg_discriminant.htm J.-O. کیم، سی یو. مولر و سی. کلکا، تحلیل عاملی، تفکیک کننده و خوشه ای | چگونه می توان موارد جدید را دقیقاً همانطور که SPSS انجام می دهد در تجزیه و تحلیل متمایز طبقه بندی کرد؟ |
109266 | من جدولی از شباهتها دارم که از طریق کسینوس بیان شده است و سعی میکنم با استفاده از «hclust» و «method=ward» مقداری تحلیل خوشهای در R انجام دهم. ابتدا باید کسینوس ها را به فاصله های اقلیدسی مجذور تبدیل کنم، با دانستن اینکه $d=2(1-\cos)$. مشکلی نیست. «myData» را به «myDataDist» تبدیل کردم. اما وقتی از «hclust (myDataDist, method=ward)» استفاده میکنم، یک خطا به من میدهد: must have n >= 2 شیء برای خوشهبندی، احمقانهترین چیز این است که اگر جدول کسینوسها را با فاصله اقلیدسی به فواصل اقلیدسی تبدیل کنم. تابع: `myDataDist <- dist(myData, method = euclidean)` به خوبی کار می کند، اما سپس دندروگرام توسط hclust اشتباه است. (می دانم چون با برنامه خوشه بندی دیگری امتحان کردم.) آیا کسی کد متدهای 'dist' یا 'ward' را در R بررسی کرده است؟ چرا با فاصلههای مربع اقلیدسی که به صورت دستی $d=2(1-\cos)$ محاسبه میشوند، «hclust» آنطور که باید کار نمیکند؟ | فاصله های hclust، R و اقلیدسی: چیزهای عجیب و غریب |
114098 | داشتم کتاب درسی «[مدلهای احتمالی برای تکامل توالی DNA][1]» نوشته «دورت» را میخواندم. در فصل 1، او مدل رایت فیشر و نظریه ادغام را که به آن علاقه مندم، مورد بحث قرار می دهد. او هتروزیگوسیتی را به عنوان احتمال یکسان بودن دو نسخه از یک آلل تعریف می کند. در قضیه 1.3، او مقدار مورد انتظار هتروزیگوت را به دست میآورد، اما آنچه به نظر میرسد به دست میآورد، مقدار مورد انتظار احتمال این است که دو آلل یک نیای مشترک دارند. به نظر نمی رسد این برای من مشابه هتروزیگوسیتی باشد. آیا من اینجا چیزی را از دست داده ام؟ [1] http://www.math.duke.edu/~rtd/Gbook/PM4DNA_0317.pdf | هتروزیگوسیتی و مدل رایت-فیشر |
25775 | من دادههایی را در مورد آزمودنیهای آزمایشی جمعآوری کردهام که به 4 دسته طبقهبندی شدهاند، و میخواهم احتمالات (نسبتهای شانس؟) ایجاد برخی شرایط برای یک موضوع آزمایشی در یک دسته را محاسبه کنم. داده ها به شرح زیر است: وضعیت موجود شرایط موجود نیست. حدس میزنم این بدان معناست که بین دستهها و افزایش احتمال ابتلا به آن شرایط همبستگی وجود دارد؟ اگر چنین است، چگونه باید احتمال دقیق ایجاد شرایط را برای هر دسته محاسبه کنم؟ | چگونه احتمالات جدول 4 در 2 را محاسبه کنیم؟ |
25779 | من چیزی را دارم که میتوانم آن را شبه پانل مینامم، که در آن متغیر وابسته من در طول زمان و مکان تغییر میکند (شمارش مرگهای منطقهای)، اما متغیر x مورد علاقه من اینطور نیست (سریهای زمانی دستمزد ملی). اساساً، من میخواهم به تأثیر تغییرات دستمزد واقعی بر مرگومیر نگاه کنم، بنابراین $\log (D_{it})=f(\log (W_{t}))$. با این حال من با مشکلاتی مواجه شده ام. در اینجا مراحلی که برداشته ام و مشکلات (همانطور که می بینم) با آنها آمده است. من به دنبال پیشنهادهایی هستم که بهترین راه برای مدلسازی دادههای پانل طولانی در این فرم چیست. من نمی توانم هیچ مرجعی در مورد مدل سازی یک متغیر پانل پیدا کنم که در مقطع متفاوت نباشد. 1. OLS با استفاده از اولین تفاوت ها. در اینجا چند مشکل وجود دارد. اولا، هیچ راه خوبی برای انتخاب طول تاخیر وجود ندارد. در تنظیمات سری زمانی، من فقط از AIC یا BIC استفاده می کنم. در این برنامه، مدل را همیشه می توان با اضافه کردن تاخیر بهبود کرد. به طور مشابه، از آنجایی که خطاها همبستگی خودکار هستند، من یک متغیر وابسته تاخیری اضافه کرده ام. باز هم، من میتوانم تعداد زیادی از این متغیرها را اضافه کنم، در حالی که یک بار دیگر تناسب مدل را بهبود میدهم، اما نمیتوانم با همبستگی خودکار مقابله کنم! چیزی که این را بدتر می کند این است که همه ضرایب با کشش های بیش از 0.2 (و همچنین نسبت t بسیار بالا!) معنی دار هستند. به نظر نمی رسد راه خوبی برای تعیین مشخصات مدل در این مدل وجود داشته باشد. 2. رویکرد دومی که من اتخاذ کرده ام این است که هر سری مرگ و میر را به صورت جداگانه به عنوان یک رگرسیون خطی دینامیک با استفاده از بسته R-DLM مدل کنم. در این تجزیه و تحلیل، من متغیر مرگ و میر را به شکل سطوح خام باقی میگذارم زیرا رهگیری یک زنجیره مارکوف است. تأثیر دستمزدهای واقعی نیز با زمان متغیر است، بنابراین، در واقع، من تأثیر را در هر منطقه برای هر دوره زمانی محاسبه میکنم. بنابراین نتایج توزیع اثرات خواهد بود. این روش به خوبی کار می کند (تا حدی) زیرا هیچ خودهمبستگی در باقیمانده ها وجود ندارد. با این حال، من مطمئن نیستم که اجرای بیش از 400 رگرسیون جداگانه یک استراتژی مدل سازی خوب باشد، زیرا بسیار ناکارآمد است. 3. من یک رگرسیون سری زمانی به ظاهر نامرتبط را با استفاده از استنتاج بیزی (گیبز با پیشین های گامای معکوس d) امتحان کردم، اما اجرای این روش زمان زیادی طول کشید و پاسخ های عجیبی را به همراه داشت. | دادههای پانل «شبه» مدلسازی انتخاب تأخیر |
72554 | من مشکلی دارم که در آن متغیر مهم انتگرال PDF مربع یک متغیر تصادفی است، یعنی $\int f(x)^2dx$ چگونه باید این ویژگی یک توزیع را تفسیر کنم؟ اگر $f(x)$ گاوسی باشد، پس این با واریانس $\sigma^2$ نسبت معکوس دارد، اما من فکر نمیکنم که این به طور کلی درست باشد. (توجه داشته باشید که این نیز برابر است با $\int F(x)f'(x)dx$). | تفسیر یک پی دی اف مربع |
85862 | فرض کنید یک فرآیند AR(1) ثابت داریم: $Y_{t+1}=a+ \rho Y_{t} + \epsilon_{t+1}$ که $\epsilon_{t+1}$ نویز سفید با احتمال است. تابع چگالی $\phi(.)$. حالا بگوییم که معادله ای داریم $P_{t+1}=u\cdot (A_{m}-Y_{t+1})^{+}$ که در آن $(Y_{m}-Y_{t+1}) ^{+}$ = $ \max \\{(A_{m}-Y_{t+1})،0\\}$ و $u$ یک ثابت است. بنابراین $P_{t+1}=u\cdot(A_{m}-a-\rho Y_{t}-\epsilon_{t+1})^{+}$. آیا می توانیم بنویسیم $E[P_{t+1} \mid Y_{t}]= u\cdot \int_{-\infty}^{(A_{m}-a - \rho Y_{t})}(A_ {m}-a-\rho Y_{t}-\epsilon_{t+1})\phi(\epsilon_{t+1})d\epsilon_{t+1}$ ? | انتظارات مشروط در فرآیند AR(1). |
74078 | من دادههایی دارم که در آنها تعداد موارد منفی در پاسخ تقریباً 98٪ از کل حجم نمونه است (# رکورد کل تقریباً 1 میلیون است، پاسخ باینری است). موارد مثبت تقریباً 2٪ است. محدودیتهای اعمال «glm» و «cart» در چنین دادههایی چیست؟ در چنین مواردی چه گزینه ای دارم؟ در داده های آزمایشی، من یک AUC بسیار خوب ~ 0.92 دریافت کردم. چقدر باید به این مدل اعتقاد داشته باشم با توجه به چنین اختلافی در تعداد موارد در دسته های مثبت و منفی؟ | نحوه برخورد با داده هایی که تعداد آنها در هر کلاس بسیار زیاد است |
87215 | یک سوال بسیار گیج کننده در ذهن من وجود دارد. من دادههایی دارم و میخواهم نمرات عددی را بین مردان و زنان مقایسه کنم. در این دو گروه تفاوت زیادی وجود دارد: تعداد مردان 34 نفر و تعداد زنان 310 نفر است و واریانس ها برابر نیستند. تا آنجا که من می دانم، زمانی که واریانس ها برابر نیستند، می توانم از معادله ولش-ساترویت (آزمون t مستقل با فرض واریانس های نابرابر) استفاده کنم. سوال من این است: آیا هنوز هم می توانم از این معادله استفاده کنم، اگرچه تفاوت بسیار زیادی در اندازه نمونه بین دو نمونه من وجود دارد؟ یا محدودیت خاصی برای تفاوت حجم نمونه بین دو نمونه وجود دارد؟ | آیا تفاوت بزرگ در اندازه نمونه برای آزمون t مستقل مهم است؟ |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.